IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ ▲騰▼▲訊▼科技(深▲セン▼)有限公司の特許一覧

特許7325703ニューラルネットワークモデルの生成方法及び装置、コンピュータプログラム
<>
  • 特許-ニューラルネットワークモデルの生成方法及び装置、コンピュータプログラム 図1
  • 特許-ニューラルネットワークモデルの生成方法及び装置、コンピュータプログラム 図2
  • 特許-ニューラルネットワークモデルの生成方法及び装置、コンピュータプログラム 図3
  • 特許-ニューラルネットワークモデルの生成方法及び装置、コンピュータプログラム 図4
  • 特許-ニューラルネットワークモデルの生成方法及び装置、コンピュータプログラム 図5
  • 特許-ニューラルネットワークモデルの生成方法及び装置、コンピュータプログラム 図6
  • 特許-ニューラルネットワークモデルの生成方法及び装置、コンピュータプログラム 図7
  • 特許-ニューラルネットワークモデルの生成方法及び装置、コンピュータプログラム 図8
  • 特許-ニューラルネットワークモデルの生成方法及び装置、コンピュータプログラム 図9
  • 特許-ニューラルネットワークモデルの生成方法及び装置、コンピュータプログラム 図10
  • 特許-ニューラルネットワークモデルの生成方法及び装置、コンピュータプログラム 図11
  • 特許-ニューラルネットワークモデルの生成方法及び装置、コンピュータプログラム 図12
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2023-08-04
(45)【発行日】2023-08-15
(54)【発明の名称】ニューラルネットワークモデルの生成方法及び装置、コンピュータプログラム
(51)【国際特許分類】
   G06N 3/08 20230101AFI20230807BHJP
   G06N 3/045 20230101ALI20230807BHJP
   G06N 20/00 20190101ALI20230807BHJP
   A63F 13/56 20140101ALI20230807BHJP
   A63F 13/67 20140101ALI20230807BHJP
【FI】
G06N3/08
G06N3/045
G06N20/00
A63F13/56
A63F13/67
【請求項の数】 12
(21)【出願番号】P 2021544390
(86)(22)【出願日】2020-06-23
(65)【公表番号】
(43)【公表日】2022-03-23
(86)【国際出願番号】 CN2020097749
(87)【国際公開番号】W WO2020259502
(87)【国際公開日】2020-12-30
【審査請求日】2021-07-29
(31)【優先権主張番号】201910565729.6
(32)【優先日】2019-06-27
(33)【優先権主張国・地域又は機関】CN
(73)【特許権者】
【識別番号】517392436
【氏名又は名称】▲騰▼▲訊▼科技(深▲セン▼)有限公司
(74)【代理人】
【識別番号】100110364
【弁理士】
【氏名又は名称】実広 信哉
(74)【代理人】
【識別番号】100150197
【弁理士】
【氏名又は名称】松尾 直樹
(72)【発明者】
【氏名】黄 盈
(72)【発明者】
【氏名】周 大▲軍▼
(72)【発明者】
【氏名】李 旭冬
【審査官】石川 亮
(56)【参考文献】
【文献】中国特許出願公開第105844627(CN,A)
【文献】米国特許出願公開第2019/0130272(US,A1)
【文献】川上 翔平 ほか,RoboCupサッカーのHalf Field Offenseタスクへの深層強化学習の適用,情報処理学会 第81回(2019年)全国大会講演論文集(2),一般社団法人情報処理学会,2019年02月28日,pp.2-391~2-392
(58)【調査した分野】(Int.Cl.,DB名)
G06N 3/02-3/10
G06N 20/00
A63F 13/67
A63F 13/56
(57)【特許請求の範囲】
【請求項1】
サーバが実行する、ゲームで使用されるニューラルネットワークモデルの生成方法であって、前記ニューラルネットワークモデルは、ゲームで第2のゲーム要素を制御して、第1端末を介してユーザによって制御される第1のゲーム要素と対話するように構成され、前記第1端末と第2端末とは、それぞれネットワークを使用して前記サーバと結合され、
前記ニューラルネットワークモデルの生成方法は、
ハイパーパラメータ値セットから第1ニューラルネットワークモデルのハイパーパラメータに対応するハイパーパラメータ値を決定するステップと、
前記第1ニューラルネットワークモデルをトレーニングすることにより得られた第2ニューラルネットワークモデルの第1モデル精度を取得するステップと、
前記第1モデル精度が、ターゲット精度より低い場合、前記第1ニューラルネットワークモデルにおける部分的なハイパーパラメータのハイパーパラメータ値を、前記ハイパーパラメータ値セットにおける対応するターゲットハイパーパラメータ値に更新して、第3ニューラルネットワークモデルを取得するステップと、
前記第3ニューラルネットワークモデルをトレーニングすることによって、第4ニューラルネットワークモデルを取得するステップと、
前記第4ニューラルネットワークモデルを前記第2端末に発行し、前記第4ニューラルネットワークモデルに基づいて、前記第2のゲーム要素によって実行される動作データを予測し、かつ、前記動作データを実行するようにゲームで前記第2のゲーム要素を制御することにより、対応する行動を実現するステップと、を含み、
前記第1ニューラルネットワークモデルは、入力層、前記ハイパーパラメータ値を有する構造層、及び出力層を備え、前記入力層、構造層及び出力層は、ターゲット接続方式により接続され、
第4ニューラルネットワークモデルを使用して検証サンプルセットを検出する第2モデル精度は、前記ターゲット精度より高いか等しいである、
ニューラルネットワークモデルの生成方法。
【請求項2】
前記構造層は、第1残差ネットワークと第2残差ネットワークとを含み、ハイパーパラメータ値セットから第1ニューラルネットワークモデルのハイパーパラメータに対応するハイパーパラメータ値を決定する前記ステップは、
第1ハイパーパラメータ値サブセットから前記第1残差ネットワークの第1ハイパーパラメータに対応する第1ハイパーパラメータ値を決定するステップと、
第2ハイパーパラメータ値サブセットから前記第2残差ネットワークの第2ハイパーパラメータに対応する第2ハイパーパラメータ値を決定するステップと、を含み、
前記第1残差ネットワークが有する複数のハイパーパラメータは、前記第1ハイパーパラメータを含み、
前記第2残差ネットワークが有する複数のハイパーパラメータは、前記第2ハイパーパラメータを含み、前記ハイパーパラメータ値セットは、前記第1ハイパーパラメータ値サブセット及び前記第2ハイパーパラメータ値サブセットを含む、
請求項1に記載のニューラルネットワークモデルの生成方法。
【請求項3】
前記構造層は、複数の前記第1残差ネットワークと複数の前記第2残差ネットワークを含み、前記ハイパーパラメータ値セットは、複数の前記第1ハイパーパラメータ値サブセットと複数の前記第2ハイパーパラメータ値サブセットを含み、複数の前記第1残差ネットワークは、複数の前記第1ハイパーパラメータ値サブセットに一対一で対応し、複数の前記第2残差ネットワークは、複数の前記第2ハイパーパラメータ値サブセットに一対一で対応し、
第1ハイパーパラメータ値サブセットから前記第1残差ネットワークの第1ハイパーパラメータに対応する第1ハイパーパラメータ値を決定する前記ステップは、
複数の前記第1ハイパーパラメータ値サブセットの各第1ハイパーパラメータ値サブセットから、ターゲット第1残差ネットワークの第1ハイパーパラメータに対応する第1ハイパーパラメータ値を決定するステップを含み、
前記ターゲット第1残差ネットワークは、前記各第1ハイパーパラメータ値サブセットに対応する第1残差ネットワークであり、
第2ハイパーパラメータ値サブセットから前記第2残差ネットワークの第2ハイパーパラメータに対応する第2ハイパーパラメータ値を決定する前記ステップは、
複数の前記第2ハイパーパラメータ値サブセットの各第2ハイパーパラメータ値サブセットから、ターゲット第2残差ネットワークの第2ハイパーパラメータに対応する第2ハイパーパラメータ値を決定するステップを含み、
前記ターゲット第2残差ネットワークは、前記各第2ハイパーパラメータ値サブセットに対応する第2残差ネットワークである、
請求項2に記載のニューラルネットワークモデルの生成方法。
【請求項4】
前記第1ニューラルネットワークモデルにおける部分的なハイパーパラメータのハイパーパラメータ値を、前記ハイパーパラメータ値セットにおける対応するターゲットハイパーパラメータ値に更新するステップは、
部分的な第1残差ネットワークの第1ハイパーパラメータに対応する第1ハイパーパラメータ値を、前記部分的な第1残差ネットワークに対応する第3ハイパーパラメータ値に更新するステップ、
部分的な第2残差ネットワークの第2ハイパーパラメータに対応する第2ハイパーパラメータ値を、前記部分的な第2残差ネットワークに対応する第4ハイパーパラメータ値に更新するステップ、のうちの1つを含み、
前記第3ハイパーパラメータ値は、第1ハイパーパラメータ値サブセット内のハイパーパラメータ値であり、
前記第4ハイパーパラメータ値は、第2ハイパーパラメータ値サブセット内のハイパーパラメータ値である、
請求項3に記載のニューラルネットワークモデルの生成方法。
【請求項5】
前記構造層は、第1残差ネットワークと第2残差ネットワークを含み、前記第1ハイパーパラメータは、前記第1残差ネットワークに含まれる畳み込みカーネルの最初の畳み込みカーネルの畳み込みカーネル寸法を含み、前記第2ハイパーパラメータは、前記第2残差ネットワークの直列接続の数を含み、ハイパーパラメータ値セットから第1ニューラルネットワークモデルのハイパーパラメータに対応するハイパーパラメータ値を決定する前記ステップは、
第3ハイパーパラメータ値サブセットから、前記第1残差ネットワーク内の最初の畳み込みカーネルの畳み込みカーネル寸法が、ターゲット畳み込みカーネル寸法値であると決定するステップと、
第4ハイパーパラメータ値サブセットから、前記第2残差ネットワークの直列接続の数が、ターゲット数であると決定するステップと、を含み、
前記ハイパーパラメータ値セットは、前記第3ハイパーパラメータ値サブセットと前記第4ハイパーパラメータ値サブセットを含む、
請求項2に記載のニューラルネットワークモデルの生成方法。
【請求項6】
前記第1ニューラルネットワークモデルをトレーニングすることにより得られた第2ニューラルネットワークモデルの第1モデル精度を取得する前記ステップは、
ターゲットアプリケーションから取得された第1トレーニングサンプルセットを使用して前記第1ニューラルネットワークモデルをトレーニングして、第2ニューラルネットワークモデルを取得するステップと、
前記第2ニューラルネットワークモデルを介して、前記ターゲットアプリケーションから取得された前記検証サンプルセットの各検証サンプルを検出して、前記検証サンプルセットの各検証サンプルに対応する検出結果を取得するステップと、
複数の検証サンプルの合計に占めるマッチング数の比率を前記第1モデル精度とすて決定するステップと、を含み、
前記検証サンプルセットは、前記ターゲットアプリケーションから取得された複数の検証サンプルと、各検証サンプルに対応するターゲット検出結果を含み、
前記マッチング数は、検証サンプルに対応する検出結果が、検証サンプルに対応するターゲット検出結果とマッチングする検証サンプルの数を指示するために使用される、
請求項1に記載のニューラルネットワークモデルの生成方法。
【請求項7】
前記第1ニューラルネットワークモデルにおける部分的なハイパーパラメータのハイパーパラメータ値を、前記ハイパーパラメータ値セットにおける対応するターゲットハイパーパラメータ値に更新して、第3ニューラルネットワークモデルを取得した後、前記ニューラルネットワークモデルの生成方法は、
ターゲットアプリケーションから取得された第2トレーニングサンプルセットを使用して、前記第3ニューラルネットワークモデルをトレーニングして、第4ニューラルネットワークモデルを取得するステップと、
前記第4ニューラルネットワークモデルを使用して、前記ターゲットアプリケーション内の検出対象となるデータを検出するステップと、をさらに含む、
請求項1に記載のニューラルネットワークモデルの生成方法。
【請求項8】
前記第2トレーニングサンプルセットは、シーンデータと、前記シーンデータに対応する動作データを含み、ターゲットアプリケーションから取得された第2トレーニングサンプルセットを使用して、前記第3ニューラルネットワークモデルをトレーニングして、第4ニューラルネットワークモデルを取得する前記ステップは、
入力層、出力層、構造層及び第3ニューラルネットワークモデルパラメータを含む損失関数を初期化するステップと、
前記第3ニューラルネットワークモデルのトレーニング過程の毎回の反復で、前記第2トレーニングサンプルセット内のシーンデータを前記第3ニューラルネットワークモデルに入力して、予測動作データを取得するステップと、
前記第2トレーニングサンプルセットから選択される動作データ及び前記予測動作データを前記損失関数に代入することにより、前記損失関数が最小値である場合に対応する第3ニューラルネットワークモデルパラメータを解くステップと、
解かれた前記第3ニューラルネットワークモデルパラメータに従って、前記第3ニューラルネットワークモデルを更新して、第4ニューラルネットワークモデルを取得するステップと、を含む、
請求項7に記載のニューラルネットワークモデルの生成方法。
【請求項9】
前記入力層は、畳み込み層、バッチ正規化層及び活性化層を含み、前記出力層は、全結合層と損失関数層を含み、前記構造層は、4つの層の第1残差ネットワークと4つの層の第2残差ネットワークを含み、
前記第1ニューラルネットワークモデルは、入力層、前記ハイパーパラメータ値を有する構造層、及び出力層が、前記ターゲット接続方式を介して接続することにより得られたニューラルネットワークモデルであり、
前記畳み込み層、前記バッチ正規化層及び前記活性化層を直列接続して、前記入力層を取得するステップと、
前記全結合層及び前記損失関数層を直列接続して、前記出力層を取得するステップと、
第1層の第1残差ネットワーク、第1層の第2残差ネットワーク、第2層の第1残差ネットワーク、第2層の第2残差ネットワーク、第3層の第1残差ネットワーク、第3層の第2残差ネットワーク、第4層の第1残差ネットワーク、第4層の第2残差ネットワークを直列接続して、前記構造層を取得するステップであって、前記構造層が有する前記ハイパーパラメータ値は、前記4つの層の第1残差ネットワークの各層の第1残差ネットワークの畳み込みカーネル寸法、前記4つの層の第2残差ネットワークの各層で直列接続された第2残差ネットワークの数を含む、ステップと、
前記入力層、前記ハイパーパラメータ値を有する構造層、及び前記出力層が、直列接続方式で接続して、前記第1ニューラルネットワークモデルを取得するステップと、を含む、
請求項1ないし7のいずれか一項に記載のニューラルネットワークモデルの生成方法。
【請求項10】
ゲームで使用されるニューラルネットワークモデルの生成装置であって、前記ニューラルネットワークモデルは、ゲームで第2のゲーム要素を制御して、第1端末を介してユーザによって制御される第1のゲーム要素と対話するように構成され、前記第1端末と第2端末とは、それぞれネットワークを使用して前記生成装置と結合され、
ハイパーパラメータ値セットから第1ニューラルネットワークモデルのハイパーパラメータに対応するハイパーパラメータ値を決定するように構成される、決定モジュールと、
前記第1ニューラルネットワークモデルをトレーニングすることにより得られた第2ニューラルネットワークモデルの第1モデル精度を取得するように構成される、取得モジュールと、
前記第1モデル精度が、ターゲット精度より低い場合、前記第1ニューラルネットワークモデルにおける部分的なハイパーパラメータのハイパーパラメータ値を、前記ハイパーパラメータ値セットにおける対応するターゲットハイパーパラメータ値に更新して、第3ニューラルネットワークモデルを取得するように構成される、更新モジュールと、
前記第3ニューラルネットワークモデルをトレーニングすることによって、第4ニューラルネットワークモデルを取得し、前記第4ニューラルネットワークモデルを前記第2端末に発行し、前記第4ニューラルネットワークモデルに基づいて、前記第2のゲーム要素によって実行される動作データを予測し、かつ、前記動作データを実行するようにゲームで前記第2のゲーム要素を制御することにより、対応する行動を実現するように構成される、トレーニングモジュールと、を備え、
前記第1ニューラルネットワークモデルは、少なくとも、入力層、前記ハイパーパラメータ値を有する構造層、及び出力層が、ターゲット接続の方式で接続することにより得られたニューラルネットワークモデルであり、
第4ニューラルネットワークモデルを使用して検証サンプルセットを検出する第2モデル精度は、前記ターゲット精度より高いか等しいである、
ゲームで使用されるニューラルネットワークモデルの生成装置。
【請求項11】
コンピュータプログラムであって、
コンピュータに、請求項1ないし9のいずれか一項に記載のニューラルネットワークモデルの生成方法を実行させるように構成される、コンピュータプログラム。
【請求項12】
メモリとプロセッサを備える、電子装置であって、前記メモリには、コンピュータプログラムが記憶され、前記プロセッサは、前記コンピュータプログラムを介して請求項1ないし9のいずれか一項に記載のニューラルネットワークモデルの生成方法を実行するように設定される、電子装置。
【発明の詳細な説明】
【技術分野】
【0001】
本願は、2019年06月27日に中国特許局に提出された、出願番号が201910565729.6である中国特許出願に基づいて提出されるものであり、当該中国特許出願の優先権を主張し、当該中国特許出願の全ての内容が参照によって本願に組み込まれる。
【0002】
本願は、コンピュータ分野に関し、特にニューラルネットワークモデルの生成方法及び装置、コンピュータ可読記憶媒体に関する。
【背景技術】
【0003】
関連技術において、ニューラルネットワークモデルを構築する過程では、すべてニューラルネットワークアーキテクチャを手動で調整し、このような方法は、100%手動であり、研究者及び機械学習エンジニアによって最も広く使用されている方法である。動作プロセスは、非常に単純であり、例えば、ゲーム人工知能(AI)の模倣学習プロセスを設計し、その後、異なるニューラルネットワークモデルアーキテクチャを順序で反復し、モデルがAIの要求を満たすまで、当該ニューラルネットワークアーキテクチャの模倣学習モデル重みをトレーニングし、当該重みをゲームに適用してそのAI効果を観察する。
【0004】
まず、人工設計ニューラルネットワークアーキテクチャは、ディープラーニング、ニューラルネットワークアーキテクチャに対する開発者の豊富な経験が必要であり、そうすると、AI要求に適するニューラルネットワークアーキテクチャを設計することができる。機械学習の経験がないと、優れた性能の機械学習モデルを設計することは困難である。さらに、人工の技術案に基づいて、機械学習を新しいアプリケーションに適用するとき、人力を投資して新しいアプリケーションのニューラルネットワークアーキテクチャに対する設計を完了する必要がある。なお、同じアプリケーションに対して、優れた効果のAIを得るには、多くのニューラルネットワークアーキテクチャを実験する必要があり、大量の人工オーバーヘッドが必要である。
【0005】
上述の課題について、関連技術は、まだ効果的な技術案を提案していない。
【発明の概要】
【発明が解決しようとする課題】
【0006】
本願実施例は、ゲームで使用されるニューラルネットワークモデルの生成方法及び装置、コンピュータ可読記憶媒体を提供して、少なくとも、ニューラルネットワークモデルの生成効率の低い技術的課題を解决する。
【課題を解決するための手段】
【0007】
本願実施例は、電子装置が実行する、ゲームで使用されるニューラルネットワークモデルの生成方法を提供し、前記ニューラルネットワークモデルは、ゲームでゲーム要素が動作するように制御するように構成され、前記方法は、
ハイパーパラメータ値セットから第1ニューラルネットワークモデルのハイパーパラメータに対応するハイパーパラメータ値を決定するステップであって、ここで、前記第1ニューラルネットワークモデルは、少なくとも、入力層、前記ハイパーパラメータ値を有する構造層、及び出力層が、ターゲット接続の方式で接続することにより得られたニューラルネットワークモデルである、ステップと、
前記第1ニューラルネットワークモデルをトレーニングすることにより得られた第2ニューラルネットワークモデルの第1モデル精度を取得するステップと、
前記第1モデル精度が、ターゲット精度より低い場合、前記第1ニューラルネットワークモデルにおける部分的なハイパーパラメータのハイパーパラメータ値を、前記ハイパーパラメータ値セットにおける対応するターゲットハイパーパラメータ値に更新して、第3ニューラルネットワークモデルを取得するステップと、を含み、
ここで、第4ニューラルネットワークモデルを使用して検証サンプルセットを検出する第2モデル精度は、前記ターゲット精度より高いか等しく、前記第4ニューラルネットワークモデルは、前記第3ニューラルネットワークモデルをトレーニングすることにより得られたものである。
【0008】
本願実施例は、さらに、ゲームで使用されるニューラルネットワークモデルの生成装置を提供し、前記装置は、
ハイパーパラメータ値セットから第1ニューラルネットワークモデルのハイパーパラメータに対応するハイパーパラメータ値を決定するように構成される、決定モジュールであって、ここで、前記第1ニューラルネットワークモデルは、少なくとも、入力層、前記ハイパーパラメータ値を有する構造層、及び出力層が、前記ターゲット接続の方式で接続することにより得られたニューラルネットワークモデルである、決定モジュールと、
前記第1ニューラルネットワークモデルをトレーニングすることにより得られた第2ニューラルネットワークモデルの第1モデル精度を取得するように構成される、取得モジュールと、
前記第1モデル精度が、ターゲット精度より低い場合、前記第1ニューラルネットワークモデルにおける部分的なハイパーパラメータのハイパーパラメータ値を、前記ハイパーパラメータ値セットにおける対応するターゲットハイパーパラメータ値に更新して、第3ニューラルネットワークモデルを取得するように構成される、更新モジュールと、を備え、
ここで、第4ニューラルネットワークモデルを使用して検証サンプルセットを検出する第2モデル精度は、前記ターゲット精度より高いか等しく、前記第4ニューラルネットワークモデルは、前記第3ニューラルネットワークモデルをトレーニングすることにより得られたものである。
【0009】
本願実施例は、さらに、コンピュータプログラムを記憶する、コンピュータ可読記憶媒体を提供し、ここで、前記コンピュータプログラム前記コンピュータプログラムは、実行されるときに、上記のいずれか一項に記載の方法を実行するように設定される。
【0010】
本願実施例は、さらに、メモリとプロセッサを備える、電子装置を提供し、前記メモリには、コンピュータプログラムが記憶され、前記プロセッサは、前記コンピュータプログラムを介して上記のいずれか一項に記載の方法を実行するように設定される。
【発明の効果】
【0011】
本願実施例において、ハイパーパラメータ値セットから第1ニューラルネットワークモデルのハイパーパラメータに対応するハイパーパラメータ値を決定することにより、前記第1ニューラルネットワークモデルをトレーニングすることにより得られた第2ニューラルネットワークモデルの第1モデル精度を取得し、第1モデル精度が、ターゲット精度より低い場合、前記第1ニューラルネットワークモデルにおける部分的なハイパーパラメータのハイパーパラメータ値を、前記ハイパーパラメータ値セットにおける対応するターゲットハイパーパラメータ値に更新して、第3ニューラルネットワークモデルを取得し、前記第3ニューラルネットワークモデルをトレーニングすることにより得られた第4ニューラルネットワークモデルを使用して前記検証サンプルセットを検出する第2モデル精度が、前記ターゲット精度より高いか等しいと、ハイパーパラメータ値の調整過程では、現在のモデルのモデル精度値に従ってハイパーパラメータ値の一部を調整して、調整されたハイパーパラメータの範囲を減らし、それにより、ニューラルネットワークモデルの生成効率を向上させることができる。
【図面の簡単な説明】
【0012】
ここで説明される図面は、本願実施例をさらに理解するために提供され、本願実施例の一部を構成し、本願実施例の例示的な実施例及びそれらの説明は、本願実施例を説明するために使用され、本願に対する不適切な限定を構成しない。図面において、
図1】本願実施例によるニューラルネットワークモデルの生成方法のシステムアーキテクチャの概略図である。
図2】本願実施例によるゲームで使用されるニューラルネットワークモデルの生成方法の概略図である。
図3】本願実施例によるニューラルネットワークモデルの生成方法の適用環境の概略図である。
図4】本願実施例による様々な典型的な層のハイパーパラメータタイプの概略図である。
図5】本願実施例によるブロックAの例示的な残差構造図である。
図6】本願実施例によるブロックBの例示的な残差構造図である。
図7】本願実施例による抽象化されたResNet50ネットワークの例示的な構造図である。
図8】本願実施例によるベイズ最適化の手法で配置されたニューラルネットワーク検索空間定義ファイルの概略図である。
図9】本願実施例によるニューラルネットワークモデルの生成装置の概略図である。
図10】本願実施例によるニューラルネットワークモデルの生成方法の例示的な実現フローチャートである。
図11】本願実施例によるあるゲームの要求を満たすニューラルネットワークの例示的な構造図である。
図12】本願実施例による電子装置の概略図である。
【発明を実施するための形態】
【0013】
当業者が本願実施例の技術案を一層簡単に理解できるようにするために、以下、本願実施例における図面を結合して、本願実施例の技術案を明確且つ完全に説明し、明らかに、説明される実施例は、単に本願実施例の一部であり、実施例の全てではない。本願実施例に基づいて、当業者が創造性のある労働を必要とせずに得られる他の実施例の全ては、本願実施例の保護範囲に含まれるべきである。
【0014】
本願実施例の明細書、特許請求の範囲及び上記の添付図面における「第1」、「第2」等の用語は、特定の順番又は前後順番を記述するために使用される必要がなく、類似する対象を区別するものである。このように使用されるデータは、本明細書で説明される本願実施例が本明細書で図示され又は説明されるもの以外の順序で実施できるために、適切な場合に交換できることを理解されたい。また、「含む」、「有する」及びこれらの任意の変形の用語は、非排他的包含を網羅することが意図され、例えば、一連のステップ又はユニットを含むプロセス、方法、システム、製品又はデバイスは、明確に列挙されたそれらのステップ又はユニットに必ずしも限定されず、明確に列挙されない他のステップ又はユニット、又はこれらのプロセス、方法、製品又はデバイスに固有の他のステップ又はユニットを含み得る。
【0015】
図1を参照すると、図1は、本願実施例によるニューラルネットワークモデルの生成方法のシステムアーキテクチャの概略図であり、図1に示されたように、当該システムアーキテクチャは、第1端末100、サーバ200、ネットワーク300及び第2端末400を備え、例示的なアプリケーションを支持するために、第1端末100及び第2端末400は、それぞれ、ネットワーク300を介してサーバ200に接続され、第1端末100は、実際のプレイヤによってコントロールされるスマート端末であり得、当該スマート端末は、ラップトップ、タブレット、デスクトップコンピュータ、モバイル機器(例えば、携帯電話、携帯式音楽プレイヤ、携帯情報端末、専用メッセージング機器、携帯式ゲーム機)などの任意の画面表示機能を有する端末であり得る。第2端末400は、ゲームロボットなどのスマートロボットであり得る。ネットワーク300は、ワイドエリアネットワーク又はローカルエリアネットワーク、又は両方の組み合わせであり得、無線リンクを使用してデータ伝送を実現する。
【0016】
サーバ200は、本願実施例によるゲームで使用されるニューラルネットワークモデルの生成方法に基づいて、ニューラルネットワークモデルを生成し、実際のプレイヤが、ゲームするときのデータを収集して、トレーニングデータを取得し、さらに、トレーニングデータに従って生成されるニューラルネットワークモデルをトレーニングし、トレーニングされたニューラルネットワークモデルを第2端末400に発行し、第2端末400は、当該トレーニングされたニューラルネットワークモデル基づいてゲームマッチにおけるゲーム要素を制御して、マンマシンバトルタスク、ゲームをともに遊ぶタスク及び自動ハングアップタスクなどの、対応するゲームタスクを完了する。
【0017】
サーバ200は、独立した物理サーバであってもよいし、複数の物理サーバによって構成されるサーバクラスタ又は分散型システムであってもよいし、クラウド技術に基づくクラウドサーバであってもよい。クラウド技術は、ワイドエリアネットワーク又はローカルエリアネットワークでハードウェア、ソフトウェア、ネットワークなどの一連のリソースを統一して、データのコンピューティング、記憶、処理及び共有を実現するホスティング技術を意味する。本願実施例において、サーバ200が、クラウドサーバである場合、提供される人工知能クラウドサービスは、ニューラルネットワークモデルを生成し、トレーニングデータに基づいて生成されるニューラルネットワークモデルをトレーニングして、ニューラルネットワークモデルを、対話過程における動作スキルを学習させる(人工ニューラルネットワークモデルパラメータとして反映される)ことを含み得る。
【0018】
トレーニングデータは、実際のプレイヤが、ゲームキャラクタを戦うように制御するとき、戦う過程におけるゲームの基本情報、シーンのリアルタイム情報、及び実際のプレイヤの動作データである。ここで、ゲームの基本情報は、実際のプレイヤが制御するゲームキャラクタが勝利であるか否か、シーン寸法(シーン、即ち、ゲーム内の対象が移動できる空間であり、例えば、格闘ゲーム内のリング)、各スキルの合計冷却時間を含み得、シーンデータは、自分(即ち、実際のプレイヤが制御するゲームキャラクタの位置)の位置、敵(即ち、実際のプレイヤが制御するゲームキャラクタと戦うゲームキャラクタ)の位置、自分の各スキルの現在の冷却時間、敵の各スキルの現在の冷却時間を含み、動作データは、スキルの使用方式(各スキルが解放されたか否か、通常攻撃するか否か)、ジョイスティックの移動角度、実際のプレイヤが制御するゲームキャラクタが、ジャンプするか否かなどを含む。
【0019】
トレーニングデータを使用して生成されるニューラルネットワークモデルをトレーニングするとき、まず、入力、出力、及びニューラルネットワークモデルパラメータを含む損失関数を初期化し、人工ニューラルネットワークモデルのトレーニング過程の毎回の反復で、前記トレーニングデータを前記損失関数に代入して、前記損失関数が最小値である場合に対応するニューラルネットワークモデルパラメータを解け、解かれる人工ニューラルネットワークモデルパラメータに従って、前記ニューラルネットワークモデルを更新する。
【0020】
一例として、第2端末400が、トレーニングされたニューラルネットワークモデルを取得した後、第1端末100とのマンマシンバトルタスクを実行し、第1端末100及び第2端末400は、ゲームアプリケーションの仮想シーンを出力し、その中には、第1対象110と第2対象120が含まれ、第1対象110は、ユーザ(ロボットモデルと区別するために、実際のプレイヤとも称し得る)によって制御されるゲームキャラクタであり得、第1対象110は、実際のプレイヤによってコントロールされ、実際のプレイヤが、第1端末100内のコントローラ(キーボード、マウス及びジョイスティックなどを含む)に対する動作に応答して、仮想シーンで動き、サーバは、実際のプレイヤのリアルタイムのゲームデータを収集し、第2端末400に送信し、第2端末400は、トレーニングされたニューラルネットワークモデルに基づいて、第2対象120が実行しようとする動作データを予測し、第2対象120が動作データを実行するように制御することにより、対応する行動を実現し、第1対象110と第2対象120とのインテリジェントな対話を実現する。
【0021】
本願実施例において、サーバによって生成されるゲームで使用されるニューラルネットワークモデルの実現方式を説明する。図2は、本願実施例によるゲームで使用されるニューラルネットワークモデルの生成方法であり、図2に示されたように、当該方法は、以下のステップを含む。
【0022】
S102において、ハイパーパラメータ値セットから第1ニューラルネットワークモデルのハイパーパラメータに対応するハイパーパラメータ値を決定する。
【0023】
ここで、第1ニューラルネットワークモデルは、少なくとも、入力層、ハイパーパラメータ値を有する構造層、及び出力層が、ターゲット接続の方式で接続することにより得られたニューラルネットワークモデルである。
【0024】
S104において、第1ニューラルネットワークモデルをトレーニングすることにより得られた第2ニューラルネットワークモデルの第1モデル精度を取得する。
【0025】
ここで、第1モデル精度は、第2ニューラルネットワークモデルを使用して検証サンプルセットを検出する精度を指示するために使用される。
【0026】
S106において、第1モデル精度が、ターゲット精度より低い場合、第1ニューラルネットワークモデルにおける部分的なハイパーパラメータのハイパーパラメータ値を、ハイパーパラメータ値セットにおける対応するターゲットハイパーパラメータ値に更新して、第3ニューラルネットワークモデルを取得する。
【0027】
ここで、第4ニューラルネットワークモデルを使用して検証サンプルセットを検出する第2モデル精度は、前記ターゲット精度より高いか等しく、前記第4ニューラルネットワークモデルは、前記第3ニューラルネットワークモデルをトレーニングすることにより得られたものである。
【0028】
第3ニューラルネットワークモデルを生成することは、ゲームでゲーム要素が動作するように制御することに使用でき、ゲーム要素は、ゲームマッチ中でユーザ又はバックエンドによって制御できる要素を指し、ゲームキャラクタ及びゲームマッチ内の組織単位(建物、リソース及び単位など)を含むがこれに限定されない。
【0029】
本願実施例において、上記のニューラルネットワークモデルの生成方法は、図3に示されたサーバ200によって構成されるハードウェア環境に適用できる。図3に示されたように、サーバ200の処理プロセスは、以下のステップを含む。ステップS202において、サーバ200は、ハイパーパラメータ値セット204から第1ニューラルネットワークモデル206のハイパーパラメータに対応するハイパーパラメータ値を決定し、ここで、第1ニューラルネットワークモデルは、入力層、ハイパーパラメータ値を有する構造層、及び出力層が、ターゲット接続の方式で接続することにより得られたニューラルネットワークモデルである。ステップS204において、サーバ200は、第1ニューラルネットワークモデルをトレーニングして得た第2ニューラルネットワークモデル208の第1モデル精度を取得し、ここで、第1モデル精度は、第2ニューラルネットワークモデル208を使用して検証サンプルセットを検出する精度を指示するために使用される。ステップS206において、第1モデル精度が、ターゲット精度より低い場合、サーバ200は、第1ニューラルネットワークモデル206のハイパーパラメータの一部のハイパーパラメータ値を、ハイパーパラメータ値セットにおける対応するターゲットハイパーパラメータ値に更新して、第3ニューラルネットワークモデル210を取得し、ここで、第3ニューラルネットワークモデル210をトレーニングして得た第4ニューラルネットワークモデル212を使用して検証サンプルセットを検出する第2モデル精度は、ターゲット精度より高いか等しい。
【0030】
本願実施例において、上記のニューラルネットワークモデルの生成方法は、アプリケーションにニューラルネットワークモデルを生成するシーンに適用されるがこれに限定されない。ここで、前記アプリケーションは、オンライン教育アプリケーション、即時通信アプリケーション、コミュニティ空間アプリケーション、ゲームアプリケーション、ショッピングアプリケーション、ブラウザアプリケーション、金融アプリケーション、マルチメディアアプリケーション、ライブアプリケーションなどの、様々なタイプであり得るがこれに限定されない。上記のニューラルネットワークモデルの生成方法が、ゲームアプリケーション以外の他のアプリケーションに適用されるとき、実には、ニューラルネットワークモデルの生成効率を向上されるために、これらのアプリケーションのゲームシーンに適用されることに留意されたい。上記したのは一例に過ぎず、本願実施例は、これに対して限定しない。
【0031】
本願実施例において、機械学習のコンテキストでは、ハイパーパラメータは、学習過程を始める前に設定されたパラメータである。他のパラメータの値は、トレーニングすることにより得られた。例えば、畳み込み層のハイパーパラメータは、畳み込みカーネルの数、畳み込みカーネルのチャネルの数、高さ、幅、水平方向のステップ長、垂直方向のステップ長などがある。全結合層のハイパーパラメータは、ニューロンの数がある。活性化関数層のハイパーパラメータは、活性化関数のタイプ、関数のパラメータなどがある。図4は、様々な典型的な層のハイパーパラメータタイプを示す。
【0032】
本願実施例において、ニューラルネットワークモデルを入力層、構造層、及び出力層に分割する。ここで、入力層及び出力層のハイパーパラメータは決定され、ニューラルネットワークモデルを生成する過程では、構造層のハイパーパラメータのみを調整する。
【0033】
本願実施例において、1つのニューラルネットワークモデルを取得するたびにトレーニングサンプルセット及び検証サンプルセットを使用してその精度を検証し、条件を満たさない精度(即ち、第1モデル精度が、ターゲット精度より低い)のモデルに対して、構造層のハイパーパラメータの一部を調整して、新しいモデルを取得する。条件を満たす精度(即ち、第1モデル精度が、ターゲット精度より高いか等しい)のモデルをターゲットモデルに決定する。
【0034】
これから分かるように、上記のステップを介して、ニューラルネットワークモデルを、入力層、ハイパーパラメータ値を有する構造層、及び出力層に分割し、構造層のハイパーパラメータを調整し、調整する過程では、現在のモデルのモデル精度値に従って、構造層のハイパーパラメータのハイパーパラメータ値の一部を調整して、調整されたハイパーパラメータの範囲を減らし、それにより、ニューラルネットワークモデルの生成効率を向上させる技術敵効果を実現し、さらに、ニューラルネットワークモデルの生成効率が低い技術的課題を解決する。
【0035】
本願のいくつかの実施例において、構造層は、第1残差ネットワークと第2残差ネットワークを含み、ここで、ハイパーパラメータ値セットから第1ニューラルネットワークモデルのハイパーパラメータに対応するハイパーパラメータ値を決定するステップは、以下のステップを含む。
【0036】
S1において、第1ハイパーパラメータ値サブセットから第1残差ネットワークの第1ハイパーパラメータに対応する第1ハイパーパラメータ値を決定し、ここで、第1残差ネットワークが有する複数のハイパーパラメータは、第1ハイパーパラメータを含む。
【0037】
S2において、第2ハイパーパラメータ値サブセットから第2残差ネットワークの第2ハイパーパラメータに対応する第2ハイパーパラメータ値を決定し、ここで、第2残差ネットワークが有する複数のハイパーパラメータは、第2ハイパーパラメータを含み、ハイパーパラメータ値セットは、第1ハイパーパラメータ値サブセットと第2ハイパーパラメータ値サブセットを含む。
【0038】
本願実施例において、ディープ残差ネットワークResNet50を基礎モデルとして、標準ResNet50ネットワークの構造は、超深層ネットワークである。それに使用される残差構造を抽象化して、Block AとBlock Bと称する。図5は、ブロック(Block)Aの残差構造を示し、図6は、Block Bの残差構造を示す。
【0039】
本願実施例において、第1残差ネットワークは、前記Block Aであり得るがこれに限定されなく、第2残差ネットワークは、前記Block Bであり得るがこれに限定されない。
【0040】
本願実施例において、Block Aの構造に対して、その第1ハイパーパラメータのみを調査してもよい。Block Bに対して、その第2ハイパーパラメータを調査してもよい。
【0041】
本願実施例において、構造層は、複数の第1残差ネットワークと複数の第2残差ネットワークを含み、ハイパーパラメータ値セットは、複数の第1ハイパーパラメータ値サブセットと複数の第2ハイパーパラメータ値サブセットを含み、複数の第1残差ネットワークは、複数の第1ハイパーパラメータ値サブセットに一対一で対応し、複数の第2残差ネットワークは、複数の第2ハイパーパラメータ値サブセットに一対一で対応し、ここで、
S1において、第1ハイパーパラメータ値サブセットから第1残差ネットワークの第1ハイパーパラメータに対応する第1ハイパーパラメータ値を決定するステップは、複数の第1ハイパーパラメータ値サブセットの各第1ハイパーパラメータ値サブセットからターゲット第1残差ネットワークの第1ハイパーパラメータに対応する第1ハイパーパラメータ値を決定するステップを含み、ここで、ターゲット第1残差ネットワークは、各第1ハイパーパラメータ値サブセットに対応する第1残差ネットワークであり、
S2において、第2ハイパーパラメータ値サブセットから第2残差ネットワークの第2ハイパーパラメータに対応する第2ハイパーパラメータ値を決定するステップは、複数の第2ハイパーパラメータ値サブセットの各第2ハイパーパラメータ値サブセットからターゲット第2残差ネットワークの第2ハイパーパラメータに対応する第2ハイパーパラメータ値を決定するステップを含み、ここで、ターゲット第2残差ネットワークは、各第2ハイパーパラメータ値サブセットに対応する第2残差ネットワークである。
【0042】
本願実施例において、ResNet50の残差ネットワークは、複数の前記Block Aと複数の前記Block Bを含む。図7は、抽象化されたResNet50ネットワーク構造を示す。Layer1は、ResNet50の入力層である。Layer2、Layer4、Layer6及びLayer8は、Block A構造である。Layer3、Layer5、Layer7及びLayer9は、Block B構造であり、ここで、×2は、2つのBlock B構造は、直列接続されることを示す。後続層のBlock B×3、Block B×5は、Block B構造が、3つ又は5つを直列接続されて、大きい構造に組み合わせることを示す。Layer10は、出力層である。
【0043】
本願実施例において、各第1ハイパーパラメータ値サブセットは、各第1ハイパーパラメータの調査空間であることになる。各第2ハイパーパラメータ値サブセットは、各第2ハイパーパラメータの調査空間であることになる。
【0044】
本願実施例において、第1ニューラルネットワークモデルにおける部分的なハイパーパラメータのハイパーパラメータ値を、ハイパーパラメータ値セットにおける対応するターゲットハイパーパラメータ値に更新するステップは、以下のうちの少なくとも1つのステップを含む。
【0045】
S1において、部分的な第1残差ネットワークの第1ハイパーパラメータに対応する第1ハイパーパラメータ値を、当該部分一残差ネットワークに対応する第3ハイパーパラメータ値に更新する。
【0046】
ここで、第3ハイパーパラメータ値は、第1ハイパーパラメータ値サブセットのハイパーパラメータ値である。
【0047】
S2において、部分的な第2残差ネットワークの第2ハイパーパラメータに対応する第2ハイパーパラメータ値を、当該部分的な第2残差ネットワークに対応する第2ハイパーパラメータ値サブセットの第4ハイパーパラメータ値に更新する。
【0048】
ここで、第4ハイパーパラメータ値は、第2ハイパーパラメータ値サブセット内のハイパーパラメータ値である。
【0049】
本願実施例において、ベイズ最適化の手法、ネットワーク検索及びランダム検索などの方式を使用してハイパーパラメータを更新できるがこれに限定されない。
【0050】
本願のいくつかの実施例において、ベイズ最適化の手法を使用することを例とする。既存のサンプルポイントに対して、ガウス過程回帰を使用して(ハイパーパラメータ間は、共同ガウス分布を満たすと仮定する)前のn個のポイントの事後確率分布を計算して、各値ポイントにおける各ハイパーパラメータの所望平均値及び分散を取得し、ここで、平均値は、このポイントの最終的な所望効果を表し、平均値が大きいほどモデルの最終的な評価指数は大きく、分散は、このポイントの効果の不確実性を表し、分散が大きいほど、このポイントが最大値であるか否かを決定できず、調査の価値があることを表す。知能ニューラルネットワーク(NNI:Neural Network Intelligence)機械学習パッケージによるベイズ最適化の手法を使用できるがこれに限定されない。図8は、ベイズ最適化の手法で配置されたニューラルネットワーク検索空間定義ファイルを示す。ベイズ最適化の手法は、図8に示された定義ファイルに従って、1グループのニューラルネットワークの構造パラメータを推薦する。例えば、layer2/layer4/layer6/layer8の畳み込みカーネル寸法(即ち、畳み込みカーネルサイズ)は、それぞれ、[16,16,64,128]であり、layer3/layer5/layer7/layer9のBlock Bが繰り返す回数は、それぞれ、[2,3,5,4]である。サーバは、その2グループのパラメータを使用して、対応するニューラルネットワークを生成する。
【0051】
本願実施例において、構造層は、第1残差ネットワークと第2残差ネットワークを含み、第1ハイパーパラメータは、第1残差ネットワークに含まれる畳み込みカーネルの最初の畳み込みカーネルの畳み込みカーネル寸法を含み、第2ハイパーパラメータは、第2残差ネットワークの直列接続された数を含み、ここで、ハイパーパラメータ値セットから第1ニューラルネットワークモデルのハイパーパラメータに対応するハイパーパラメータ値を決定するステップは、以下のステップを含む。
【0052】
S1において、第3ハイパーパラメータ値サブセットから、第1残差ネットワーク内の最初の畳み込みカーネルの畳み込みカーネル寸法が、ターゲット畳み込みカーネル寸法値であると決定する。
【0053】
S2において、第4ハイパーパラメータ値サブセットから、第2残差ネットワークの直列接続された数が、ターゲット数であると決定し、ここで、ハイパーパラメータ値セットは、第3ハイパーパラメータ値サブセットと第4ハイパーパラメータ値サブセットを含む。
【0054】
本願実施例において、上記の抽象化されたResNet50ネットワーク構造に従って、検索空間をLayer2ないしLayer9に縮小することができる。Layer1及びLayer10は、調査する必要ない。さらに、1つのネットワークの畳み込みカーネル寸法は、その実行性能及び精度に影響を与える鍵であることを発見することができるため、Block Aの構造は、その畳み込みカーネルの寸法のみを調査してもよい。Block Bについては、主に、その繰り返す構造の数を調査する。調査空間は、以下の方式を介して決定することができる。
【0055】
最初の畳み込みカーネルの寸法は、後続の畳み込みカーネル寸法に影響を与えるため、Layer2、Layer4、Layer6、Layer8に対して、その最初の畳み込み層の畳み込みカーネル寸法を検索する。例えば、Layer2に対しては、Block A構造を使用し、その内部の最初の畳み込み層の畳み込みカーネル寸法を調査することができ、ResNet50に使用されるデフォルト値は、1×1×64×64であり、最後の数値を調査することができ、調査する空間は、[16,32,64,128]であり得(上記の第1ハイパーパラメータ値サブセットであることになる)、そのため、Layer2の最初の畳み込み層の畳み込みカーネルに対して、1×1×64×16,1×1×64×32,1×1×64×64,1×1×64×128のグループがある。他の層の畳み込みカーネルのパラメータも同様に4つの異なる整数パラメータを調査項目として使用することができる。
【0056】
Layer3、Layer5、Layer7、Layer9のこの4つの層に対して、Block Bの繰り返しであるため、各LayerにBlock Bを何回繰り返すと適するかを調査することができ、例えば、Layer3に対して、ResNet50は、2つのBlock B構造を繰り返すとデフォルトし、その検索空間を[1,2,3,4,5,6,7]に定義することができる(上記の第2ハイパーパラメータ値サブセットであることになる)。後のLayer5、Layer7、Layer9に対しても、その調査空間を[1,2,3,4,5,6,7]に設定することができる。
【0057】
本願実施例において、上記の検索空間に従って定義される調査空間の範囲は、およそ44×74=614,656である。この調査空間は、新しいニューラルネットワーク構造を検索するときに数十億になることが多い調査空間と比較して、4桁削減され、ハードウェアコストは、大幅に削減される。
【0058】
本願実施例において、第1ニューラルネットワークモデルをトレーニングすることにより得られた第2ニューラルネットワークモデルの第1モデル精度を取得するステップは、以下のステップを含む。
【0059】
S1において、ターゲットアプリケーションから取得された第1トレーニングサンプルセットを使用して第1ニューラルネットワークモデルをトレーニングして、第2ニューラルネットワークモデルを取得する。
【0060】
S2において、第2ニューラルネットワークモデルを介して、ターゲットアプリケーションから取得された検証サンプルセットの各検証サンプルを検出して、検証サンプルセットの各検証サンプルに対応する検出結果を取得し、ここで、検証サンプルセットは、ターゲットアプリケーションから取得された複数の検証サンプルと、各検証サンプルに対応するターゲット検出結果を含む。
【0061】
S3において、複数の検証サンプルの合計に占めるマッチング数の比率を第1モデル精度に決定し、ここで、マッチング数は、検証サンプルに対応する検出結果が、検証サンプルに対応するターゲット検出結果とマッチングする検証サンプルの数を指示するために使用される。
【0062】
本願実施例において、上記のベイズ最適化の手法には、当該ニューラルネットワークに対する1つの評価値(即ち、モデルの精度)が必要であり、この評価値に従って最適化されたニューラルネットワーク構造を生成することができる。当該評価値の助力を得て、ニューラルネットワークが要求を満たすか否かを判断することができる。まず、トレーニングされるサンプルの一部を分割して、ニューラルネットワークアーキテクチャを検索する評価として使用する。次に、このサンプルの一部は、トレーニングセットと検証セットに分割されることもできる。生成されるニューラルネットワークモデルは、すべて、当該トレーニングセット上で教師あり学習を実行し、その後、検証セット上で1つのモデルの精度を取得する。当該精度をニューラルネットワークアーキテクチャの評価値として使用する。ベイズ最適化の手法は、1つのニューラルネットワークアーキテクチャを生成した後、当該ニューラルネットワークアーキテクチャに対する1つの評価値を取得する。その後、ベイズ最適化の手法は、当該評価値に従って、1つの更新されたニューラルネットワークアーキテクチャを生成する。
【0063】
本願実施例において、第1ニューラルネットワークモデルにおける部分的なハイパーパラメータのハイパーパラメータ値を、ハイパーパラメータ値セットにおける対応するターゲットハイパーパラメータ値に更新して、第3ニューラルネットワークモデルを取得した後、以下のステップをさらに含む。
【0064】
S1において、ターゲットアプリケーションから取得された第2トレーニングサンプルセットを使用して、第3ニューラルネットワークモデルをトレーニングして、第4ニューラルネットワークモデルを取得する。
【0065】
本願実施例におけるターゲットアプリケーションは、ゲームアプリケーションであり得、この場合、第2トレーニングサンプルセットは、実際のプレイヤがゲームキャラクタを制御して実行するシーンデータ及び実際のプレイヤの動作データを含み、シーンデータは、シーン寸法、実際のプレイヤが制御するゲームキャラクタの位置、実際のプレイヤが制御するゲームキャラクタと戦うゲームキャラクタの位置、実際のプレイヤの各スキルの現在の冷却時間などを含み、動作データは、スキルの使用方式、ジョイスティックの移動角度、実際のプレイヤが制御するゲームキャラクタが、ジャンプするか否かなど含む。
【0066】
ステップS1を実現するとき、第2トレーニングサンプルセットに含まれるシーンデータを入力として使用し、第2トレーニングサンプルセットに含まれる動作データを出力として使用して、第3ニューラルネットワークモデルをトレーニングする。
【0067】
第3ニューラルネットワークモデルをトレーニングするとき、まず、シーンデータサンプルに対応する入力、動作データに対応する出力、及び第3ニューラルネットワークモデルパラメータの損失関数を初期化し、第3ニューラルネットワークモデルの毎回のトレーニングを繰り返す過程では、前記第2トレーニングサンプルセットのシーンデータを前記第3ニューラルネットワークモデルに入力して、予測動作データを取得し、前記トレーニングサンプルセットから選択された動作データ及び前記予測動作データを前記損失関数に代入して、損失関数が最小値である場合に対応する第3ニューラルネットワークモデルパラメータを解け、解かれた第3ニューラルネットワークモデルパラメータに従って第3ニューラルネットワークモデルパラメータを更新する。
【0068】
S2において、第4ニューラルネットワークモデルを使用して、ターゲットアプリケーション内の検出対象となるデータを検出する。
【0069】
本願実施例において、生成される第3ニューラルネットワークモデルは、図像検出、図像分割、模倣学習などのタスクの実行などの、ターゲットアプリケーション内のデータの検出に使用できるがこれに限定されない。
【0070】
本願実施例において、入力層は、畳み込み層、バッチ正規化層及び活性化層を含み、出力層は、全結合層と損失関数層を含み、構造層は、4つの層の第1残差ネットワークと4つの層の第2残差ネットワークを含み、ここで、第1ニューラルネットワークモデルは、入力層、ハイパーパラメータ値を有する構造層、及び出力層が、ターゲット接続方式を介して接続されたニューラルネットワークモデルであることは、
入力層、ハイパーパラメータ値を有する構造層、及び出力層が、直列接続方式を介して接続され、第1ニューラルネットワークモデルを取得し、ここで、畳み込み層、バッチ正規化層と活性化層は、直列接続され、全結合層と損失関数層は、直列接続され、第1層の第1残差ネットワーク、第1層の第2残差ネットワーク、第2層の第1残差ネットワーク、第2層の第2残差ネットワーク、第3層の第1残差ネットワーク、第3層の第2残差ネットワーク、第4層の第1残差ネットワーク、第4層の第2残差ネットワークは、直列接続され、構造層が有するハイパーパラメータ値は、4つの層の第1残差ネットワーク内の各層第1残差ネットワークの畳み込みカーネル寸法、4つの層の第2残差ネットワーク内の各層に直列接続された第2残差ネットワークの数を含む。
【0071】
本願実施例において、上記のResNet50のネットワークアーキテクチャにおいて、入力層Layer1は、ResNet50の最初の畳み込み層入力であり、畳み込み層、バッチ正規化層(BatchNormalization層)及び活性化層を含み得る。出力層Layer10は、全結合層と損失関数層(softmax層)を含み得る。
【0072】
本願実施例において、構造層は、第1層の第1残差ネットワークLayer2、第1層の第2残差ネットワークLayer3、第2層の第1残差ネットワークLayer4、第2層の第2残差ネットワークLayer5、第3層の第1残差ネットワークLayer6、第3層の第2残差ネットワークLayer7、第4層の第1残差ネットワークLayer8、第4層の第2残差ネットワークLayer9を含む。
【0073】
上述した各方法の実施例について、説明を簡単にするために、全て一連の動作の組み合わせに表現したが、本願実施例によれば、特定のステップは他の順番で、又は同時に実行できるため、当業者は、本願実施例が記述された動作の順番に限定されないことを知っているはずであることに留意されたい。さらに、当業者は、明細書で説明された実施例に関する動作及びモジュールは本願実施例によって必ずしも必要とされないことも認識すべきである。
【0074】
以上の実施形態による説明を通じて、当業者は、上記の実施例に係る方法が、ソフトウェアと必要な汎用ハードウェアプラットフォームの形で実現できることはもちろん、ハードウェアによっても実現できることを明確に理解できるが、多くの場合、前者がより好ましい実施形態である。このような理解に基づき、本願実施例の技術的解決策の実質的な部分又は先行技術に対する貢献度のある部分は、ソフトウェア製品の形に実装することができる。当該コンピュータソフトウェア製品は、記録媒体(例えば、ROM/RAM、磁気ディスク、光ディスクなど)に記憶され、端末機器(携帯電話、コンピュータ、サーバ、又はネットワーク機器等であり得る)に本願の各実施例の方法を実行させるために、いくつかの命令を含む。
【0075】
本願実施例の別の一態様によれば、さらに、上記のニューラルネットワークモデルの生成方法を実施するためのニューラルネットワークモデルの生成装置を提供し、図9に示されたように、当該装置は、
ハイパーパラメータ値セットから第1ニューラルネットワークモデルのハイパーパラメータに対応するハイパーパラメータ値を決定するように構成される、決定モジュール82であって、ここで、第1ニューラルネットワークモデルは、少なくとも、入力層、ハイパーパラメータ値を有する構造層、及び出力層が、ターゲット接続の方式で接続することにより得られたニューラルネットワークモデルである、決定モジュール82と、
第1ニューラルネットワークモデルをトレーニングすることにより得られた第2ニューラルネットワークモデルの第1モデル精度を取得するように構成される、取得モジュール84であって、ここで、第1モデル精度は、第2ニューラルネットワークモデルを使用して検証サンプルセットを検出する精度を指示するために使用される、取得モジュール84と、
第1モデル精度が、ターゲット精度より低い場合、第1ニューラルネットワークモデルにおける部分的なハイパーパラメータのハイパーパラメータ値を、ハイパーパラメータ値セットにおける対応するターゲットハイパーパラメータ値に更新して、第3ニューラルネットワークモデルを取得するように構成される、更新モジュール86であって、ここで、第4ニューラルネットワークモデルを使用して検証サンプルセットを検出する第2モデル精度は、前記ターゲット精度より高いか等しく、前記第4ニューラルネットワークモデルは、前記第3ニューラルネットワークモデルをトレーニングすることにより得られたものである、更新モジュール86と、を備える。
【0076】
本願のいくつかの実施例において、構造層は、第1残差ネットワークと第2残差ネットワークを含み、ここで、決定モジュールは、
第1ハイパーパラメータ値サブセットから第1残差ネットワークの第1ハイパーパラメータに対応する第1ハイパーパラメータ値を決定するように構成される、第1決定ユニットであって、ここで、第1残差ネットワークが有する複数のハイパーパラメータは、第1ハイパーパラメータを含む、第1決定ユニットと、
第2ハイパーパラメータ値サブセットから第2残差ネットワークの第2ハイパーパラメータに対応する第2ハイパーパラメータ値を決定するように構成される、第2決定ユニットであって、ここで、第2残差ネットワークが有する複数のハイパーパラメータは、第2ハイパーパラメータを含み、ハイパーパラメータ値セットは、第1ハイパーパラメータ値サブセットと第2ハイパーパラメータ値サブセットを含む、第2決定ユニットと、を備える。
【0077】
本願のいくつかの実施例において、構造層は、複数の第1残差ネットワークと複数の第2残差ネットワークを含み、ハイパーパラメータ値セットは、複数の第1ハイパーパラメータ値サブセットと複数の第2ハイパーパラメータ値サブセットを含み、複数の第1残差ネットワークは、複数の第1ハイパーパラメータ値サブセットに一対一で対応し、複数の第2残差ネットワークは、複数の第2ハイパーパラメータ値サブセットに一対一で対応し、ここで、
第1決定ユニットは、数の第1ハイパーパラメータ値サブセットの各第1ハイパーパラメータ値サブセットからターゲット第1残差ネットワークの第1ハイパーパラメータに対応する第1ハイパーパラメータ値を決定するように構成され、ここで、ターゲット第1残差ネットワークは、各第1ハイパーパラメータ値サブセットに対応する第1残差ネットワークであり、
第2決定ユニットは、数の第2ハイパーパラメータ値サブセットの各第2ハイパーパラメータ値サブセットからターゲット第2残差ネットワークの第2ハイパーパラメータに対応する第2ハイパーパラメータ値を決定するように構成され、ここで、ターゲット第2残差ネットワークは、各第2ハイパーパラメータ値サブセットに対応する第2残差ネットワークである。
【0078】
本願のいくつかの実施例において、更新モジュールは、第1更新ユニット、第2更新ユニット、第3更新ユニット、第4更新ユニットのうちの少なくとも1つを含む。
【0079】
第1更新ユニットは、部分的な第1残差ネットワークの第1ハイパーパラメータに対応する第1ハイパーパラメータ値を部分的な第1残差ネットワークに対応する第3ハイパーパラメータ値に更新するように構成され、ここで、前記第3ハイパーパラメータ値は、第1ハイパーパラメータ値サブセットのハイパーパラメータ値であり、
第2更新ユニットは、部分的な第2残差ネットワークの第2ハイパーパラメータに対応する第2ハイパーパラメータ値を部分的な第2残差ネットワークに対応する第4ハイパーパラメータ値に更新するように構成され、ここで、前記第4ハイパーパラメータ値は、第2ハイパーパラメータ値サブセットのハイパーパラメータ値である。
【0080】
本願のいくつかの実施例において、構造層は、第1残差ネットワークと第2残差ネットワークを含み、第1ハイパーパラメータは、第1残差ネットワークに含まれる畳み込みカーネルの最初の畳み込みカーネルの畳み込みカーネル寸法を含み、第2ハイパーパラメータは、第2残差ネットワークの直列接続された数を含み、ここで、決定モジュールは、
第3ハイパーパラメータ値サブセットから、第1残差ネットワーク内の最初の畳み込みカーネルの畳み込みカーネル寸法が、ターゲット畳み込みカーネル寸法値であると決定するように構成される、第3決定ユニットと、
第4ハイパーパラメータ値サブセットから、第2残差ネットワークの直列接続された数が、ターゲット数であると決定するように構成される、第4決定ユニットであって、ここで、ハイパーパラメータ値セットは、第3ハイパーパラメータ値サブセットと第4ハイパーパラメータ値サブセットを含む、第4決定ユニットと、を備える。
【0081】
本願のいくつかの実施例において、取得モジュールは、
ターゲットアプリケーションから取得された第1トレーニングサンプルセットを使用して第1ニューラルネットワークモデルをトレーニングして、第2ニューラルネットワークモデルを取得するように構成される、トレーニングユニットと、
第2ニューラルネットワークモデルを介して、ターゲットアプリケーションから取得された検証サンプルセットの各検証サンプルを検出して、検証サンプルセットの各検証サンプルに対応する検出結果を取得するように構成される、検出ユニットであって、ここで、検証サンプルセットは、ターゲットアプリケーションから取得された複数の検証サンプルと、各検証サンプルに対応するターゲット検出結果を含む、検出ユニットと、
複数の検証サンプルの合計に占めるマッチング数の比率を第1モデル精度に決定するように構成される、第五決定ユニットと、を備え、ここで、マッチング数は、検証サンプルに対応する検出結果が、検証サンプルに対応するターゲット検出結果とマッチングする検証サンプルの数を指示するために使用される。
【0082】
本願のいくつかの実施例において、前記装置は、さらに、
第1ニューラルネットワークモデルにおける部分的なハイパーパラメータのハイパーパラメータ値を、ハイパーパラメータ値セットにおける対応するターゲットハイパーパラメータ値に更新して、第3ニューラルネットワークモデルを取得した後、ターゲットアプリケーションから取得された第2トレーニングサンプルセットを使用して、第3ニューラルネットワークモデルをトレーニングして、第4ニューラルネットワークモデルを取得するように構成される、トレーニングモジュールと、
第4ニューラルネットワークモデルを使用して、ターゲットアプリケーション内の検出対象となるデータを検出するように構成される、検出モジュールと、を備える。
【0083】
本願のいくつかの実施例において、第2トレーニングサンプルセットは、シーンデータと前記シーンデータに対応する動作データを含み、対応的に、トレーニングモジュールは、
入力層、出力層、構造層及び前記第3ニューラルネットワークモデルパラメータを含む損失関数を初期化するように構成される、初期化ユニットと、
前記第3ニューラルネットワークモデルのトレーニング過程の毎回の反復で、前記第2トレーニングサンプルセット内のシーンデータを前記第3ニューラルネットワークモデルに入力して、予測動作データを取得するように構成される、入力ユニットと、
前記トレーニングサンプルセットから選択される動作データ及び前記予測動作データを前記損失関数に代入することにより、前記損失関数が最小値である場合に対応する第3ニューラルネットワークモデルパラメータを解くように構成される、損失関数最小化ユニットと、
解かれた第3ニューラルネットワークモデルパラメータに従って、前記第3ニューラルネットワークモデルを更新して、第4ニューラルネットワークモデルを取得するように構成される、更新ユニットと、を備える。
【0084】
本願のいくつかの実施例において、入力層は、畳み込み層、バッチ正規化層及び活性化層を含み、出力層は、全結合層と損失関数層を含み、構造層は、4つの層の第1残差ネットワークと4つの層の第2残差ネットワークを含み、ここで、第1ニューラルネットワークモデルは、入力層、ハイパーパラメータ値を有する構造層、及び出力層が、ターゲット接続方式を介して接続されたニューラルネットワークモデルであることは、
前記畳み込み層、前記バッチ正規化層及び前記活性化層を直列接続して、前記入力層を取得するステップと、
前記全結合層及び前記損失関数層を直列接続して、前記出力層を取得するステップと、
第1層の第1残差ネットワーク、第1層の第2残差ネットワーク、第2層の第1残差ネットワーク、第2層の第2残差ネットワーク、第3層の第1残差ネットワーク、第3層の第2残差ネットワーク、第4層の第1残差ネットワーク、第4層の第2残差ネットワークを直列接続して、前記構造層を取得するステップであって、前記構造層が有する前記ハイパーパラメータ値は、前記4つの層の第1残差ネットワークの各層の第1残差ネットワークの畳み込みカーネル寸法、前記4つの層の第2残差ネットワークの各層に直列接続される第2残差ネットワークの数を含む、ステップと、
前記入力層、前記ハイパーパラメータ値を有する構造層、及び前記出力層が、直列接続方式で接続して、前記第1ニューラルネットワークモデルを取得するステップと、を含む。
【0085】
本願実施例の適用環境は、上記の実施例における適用環境を参照できるがこれに限定されない。本願実施例は、上記のリアルタイム通信の接続方法を実施するための応用例を提供する。
【0086】
ゲームAIの分野では、ディープラーニングが普及された。人々によく知られているディープ強化学習以外に、模倣学習もゲームAI分野に幅広く適用される。模倣学習を使用する動きクローン方式は、人間エキスパーによって撮影されたゲーム動き策略を学習し、模倣学習するモデルは、格納されたエキスパー動きから、遭遇した現在の遇状況にマッチングし、エキスパーが取る動きを模倣して対応する。
【0087】
関連技術における各ゲームに対して、開発者は、特定のゲームのニューラルネットワークアーキテクチャを設計する必要があり、上記のニューラルネットワークモデルの生成方法は、ターゲットゲームアプリケーションの模倣学習のシーンに使用されるニューラルネットワークモデルを生成することに適用できるがこれに限定されない。本シーンにおいて、特定のゲームに対する、ニューラルネットワークモデルの生成方法を提案し、ヒューリスティックアルゴリズムとベイズ最適化の手法を組み合わせる方法を使用して、ニューラルネットワークアーキテクチャに対する自動調査を実現する。並行コンピューティングリソースを使用して、開発者の代わりに、異なるニューラルネットワークアーキテクチャをすばやく調査し、特定のゲームに適応する最適なアーキテクチャを探すことができる。ニューラルネットワークアーキテクチャを調査することにより、レースゲーム又は一人称シューティングゲームなどの異なるゲームに対して、異なる模倣学習ニューラルネットワーク構造を使用してよりよい動き効果を取得することができる。
【0088】
図10に示されたように、上記のニューラルネットワークモデルの生成過程は、以下のステップを含む。
【0089】
ステップS901において、まず、模倣学習に使用されるディープニューラルネットワークの調査空間を決定する。
【0090】
ここで、ニューラルネットワークの調査空間は、検索できるニューラルネットワークを定義する同時に、どのようにニューラルネットワーク構造を説明するかを定義することができる。ニューラルネットワークによって実現されるコンピューティングは、孤立ノードなしの有向非巡回グラフ(DAG:Directed Acyclic Graph)に抽象化でき、図面のノードは、ニューラルネットワークの層を表し、辺は、データの流れを表す。各ノードは、先行ノード(サイドショットイン)からデータを受信し、計算した後、データを後続のノード(サイドショットアウト)に出力する。理論上、孤立ノードなしのDAGである限り、すべて合法的なニューラルネットワーク構造である。
【0091】
単純な図面の構造から任意のDAGまで、ニューラルネットワーク構造全体の発展歴史を反映する。最も単純なニューラルネットワークは、線形チェーン構造であり、データ構造におけるリンク リストと同様に、対応する図面の各ノードは、最大で1つの先行、1つの後続がある。初期の全結合ニューラルネットワーク、畳み込みニューラルネットワークは、両方ともそのような位相構造である。Inception、ResNet、DenseNetにおけるノードは、複数の先行、複数の後続を有することが許可され、それにより、マルチブランチ、クロスレイヤー接続構造を形成し、これらは、より複雑な図面である。ニューラルネットワーク構造では、最初の層は、必ず入力層であり、最後の層は、必ず出力層であるべき以外に、中間の層のタイプは、選択的であり、これらは、様々な異なる演算、即ち、層のタイプを表す。典型的には、全結合、畳み込み、デコンボリューション、ホール畳み込み、プーリング、活性化関数などがある。
【0092】
ステップS902において、ニューラルネットワークアーキテクチャの調査空間で、ベイズ最適化の手法を実行して、1つのニューラルネットワークアーキテクチャを取得する。
【0093】
ここで、ニューラルネットワークアーキテクチャに基づく調査空間が、ニューラルネットワークを0から完全に調査し始めると、その調査空間は、非常に巨大であり、あるゲームに適するニューラルネットワーク構造を探すには、大量のハードウェアリソースが必要になる。このような方法は、人力の投資を節約したが、大量のハードウェアリソースを消費する同時に、時間がかかる。そのため、本願実施例では、ResNet50をニューラルネットワークアーキテクチャの基礎として使用し、その基で、ベイズ最適化の手法を介して各ゲームに適するニューラルネットワーク構造を調査する。
【0094】
ステップS903において、ステップS902によって生成されるニューラルネットワークアーキテクチャを検証して、当該ネットワークの精度に対する評価値を取得する。
【0095】
ステップS904において、当該ネットワークの評価結果が、要求を満たすか否かを検査し、満たさない場合、ステップS902ないしS904を実行し続ける。
【0096】
ステップS905において、ニーズを満たすニューラルネットワークアーキテクチャを取得した後、当該ニューラルネットワークアーキテクチャを模倣学習のトレーニングプログラムに送信する。
【0097】
ステップS906において、模倣学習のトレーニングプログラムは、当該ニューラルネットワークアーキテクチャを使用してトレーニングすることにより、1つの特定のゲームのAIモデルを取得する。
【0098】
本願実施例において、上記の過程に従って検索し得たあるゲームの要求を満たすニューラルネットワーク構造は、図11に示されたようであり、このネットワーク構造と元のResNet50との最大の違いは、当該Layer5、Layer7、Layer9のBlock Bを繰り返す回数がある程度減ったことにより、ネットワーク重みファイルのサイズを縮小し、コンピューティングリソースのオーバーヘッドを節約できるメリットがある。同時に、Layer2の畳み込みカーネル寸法も元とは異なり(未図示)、Layer2の畳み込みカーネルは、元の1×1×64×64から1×1×64×32に変更され、畳み込みカーネル寸法も半分に削減され、コンピューティング効率も向上させることができることを分かる。
【0099】
上記の過程を介して、異なるゲームに対して異なる模倣学習ネットワークを生成できる必要があり、自動的なニューラルネットワークアーキテクチャ検索アルゴリズムを使用して、ニューラルネットワーク構造の設計を完了することができる。これは、模倣学習のAI使用者が、ディープラーニングモデルの詳細を深く理解する必要なしに、比較的によいニューラルネットワークモデルを取得することができるようにする。なお、ニューラルネットワークアーキテクチャを調査するときに、複数のサーバが並行調査する方式を使用することができ、人工調査と比較して、異なるニューラルネットワークアーキテクチャをすばやく調査し、特定のゲームに対して、最適化されたネットワーク構造を探すことができる。一方、ベイズ最適化の手法を使用して、調査されたニューラルネットワークアーキテクチャの先行情報の助力を得て、1グループのよりよいニューラルネットワークアーキテクチャを生成することができ、ランダム検索及びネットワーク検索の調査効率より高い。ResNet50をニューラルネットワークアーキテクチャを検索する基礎として使用し、ResNet50を異なるモジュール(Block)に抽象化し、アルゴリズムを介して異なるBlock間の組み合わせ、及びBlock間の入力を調査し、調査する空間を減らし、検索効率を大幅に向上させる。
【0100】
本願実施例のさらに別の一態様によれば、さらに、上記のニューラルネットワークモデルの生成を実施するための電子装置を提供し、図12に示されたように、当該電子装置は、1つ又は複数の(図面には1つのみを示す)プロセッサ1102、メモリ1104、センサ1106、エンコーダ1108及び伝送装置1110を備え、当該メモリには、コンピュータプログラムが記憶され、当該プロセッサは、コンピュータプログラムを介して上記の任意の1つの方法実施例におけるステップを実行するように設定される。
【0101】
本願実施例において、前記電子装置は、コンピュータネットワークの複数のネットワーク機器のうちの少なくとも1つのネットワーク機器に配置されてもよい。
【0102】
本実施例において、前記プロセッサは、コンピュータプログラムを介して以下のステップを実施するように設定できる。
【0103】
S1において、ハイパーパラメータ値セットから第1ニューラルネットワークモデルのハイパーパラメータに対応するハイパーパラメータ値を決定し、ここで、前記第1ニューラルネットワークモデルは、入力層、前記ハイパーパラメータ値を有する構造層、及び出力層が、前記ターゲット接続の方式で接続することにより得られたニューラルネットワークモデルである。
【0104】
S2において、前記第1ニューラルネットワークモデルをトレーニングすることにより得られた第2ニューラルネットワークモデルの第1モデル精度を取得し、ここで、前記第1モデル精度は、前記第2ニューラルネットワークモデルを使用して検証サンプルセットを検出する精度を指示するために使用される。
【0105】
S3において、前記第1モデル精度が、ターゲット精度より低い場合、前記第1ニューラルネットワークモデルにおける部分的なハイパーパラメータのハイパーパラメータ値を、前記ハイパーパラメータ値セットにおける対応するターゲットハイパーパラメータ値に更新して、第3ニューラルネットワークモデルを取得し、ここで、前記第3ニューラルネットワークモデルをトレーニングして得た第4ニューラルネットワークモデルを使用して前記検証サンプルセットを検出する第2モデル精度は、前記ターゲット精度より高いか等しい。
【0106】
図12に示される構造が例示的なものに過ぎず、電子装置は、スマートフォン(例えば、Android携帯電話、iOS携帯電話等)、タブレットPC、ハンドヘルドコンピュータ及びモバイルインターネットデバイス(Mobile Internet Devices、MIDと略称)、PAD等の端末機器でもよいことは、当業者なら知るはずである。図12は、上記の電子装置を限定するものではない。例えば、端末が、更に図12に示されるものより多い又はより少ない部品(例えば、ネットワークインタフェース、表示装置等)を含んでもよく、又は、図12に示されたものとは異なる構成を有してもよい。
【0107】
ここで、メモリ1104は、本願実施例におけるニューラルネットワークモデルの生成方法と装置に対応するプログラム命令/モジュールなどの、ソフトウェアプログラム及びモジュールを記憶するように構成でき、プロセッサ1102は、メモリ1104に記憶されたソフトウェアプログラム及びモジュールを実行することによって、様々な機能アプリケーション及びデータ処理を実行し、即ち、上記のターゲットコンポーネントの制御方法を実現する。メモリ1104は、高速ランダムアクセスメモリを含んでもよく、1つ以上の磁気記憶装置、フラッシュメモリ、又は他の不揮発性固体メモリなどの不揮発性メモリも含んでもよい。いくつかの実施例では、メモリ1104は、プロセッサ1102に対して遠隔に設置されたメモリを含んでもよく、これらの遠隔メモリはネットワークを介して端末に接続することができる。上記のネットワークの例は、インターネット、イントラネット、ローカルエリアネットワーク、モバイル通信ネットワーク、及びそれらの組み合わせを含むが、これらに限定されない。
【0108】
前記伝送装置1110は、1つのネットワークを介してデータを受信又は送信するように構成される。上述のネットワークの例が、有線ネットワーク及び無線ネットワークを含んでもよい。一例において、伝送装置1110は、1つのネットワークアダプタ(NIC:Network Interface Controller)を含み、ネットワークケーブルを介して、他のネットワーク機器及びルータに接続することができ、それによりインターネット又はローカルエリアネットワークとの通信を行うことができる。一例において、伝送装置1110は、無線方式でインターネットと通信するように構成される、無線周波(RF:Radio Frequency)モジュールである。
【0109】
ここで、メモリ1104は、アプリケーションプログラムを記憶するように構成される。
【0110】
本願実施例は、さらに、コンピュータプログラムが記憶される記憶媒体を提供し、ここで、当該コンピュータプログラムは、実行されるとき上記の任意の1つの方法実施例におけるステップを実行するように設定される。
【0111】
本実施例において、前記記憶媒体は、次のステップを実行するコンピュータプログラムを記憶するように設定できる。
【0112】
S1において、ハイパーパラメータ値セットから第1ニューラルネットワークモデルのハイパーパラメータに対応するハイパーパラメータ値を決定し、ここで、前記第1ニューラルネットワークモデルは、入力層、前記ハイパーパラメータ値を有する構造層、及び出力層が、前記ターゲット接続の方式で接続することにより得られたニューラルネットワークモデルである。
【0113】
S2において、前記第1ニューラルネットワークモデルをトレーニングすることにより得られた第2ニューラルネットワークモデルの第1モデル精度を取得し、ここで、前記第1モデル精度は、前記第2ニューラルネットワークモデルを使用して検証サンプルセットを検出する精度を指示するために使用される。
【0114】
S3において、前記第1モデル精度が、ターゲット精度より低い場合、前記第1ニューラルネットワークモデルにおける部分的なハイパーパラメータのハイパーパラメータ値を、前記ハイパーパラメータ値セットにおける対応するターゲットハイパーパラメータ値に更新して、第3ニューラルネットワークモデルを取得し、ここで、第4ニューラルネットワークモデルを使用して前記検証サンプルセットを検出する第2モデル精度は、前記ターゲット精度より高いか等しく、前記第4ニューラルネットワークモデルは、前記第3ニューラルネットワークモデルをトレーニングすることにより得られたものである。
【0115】
本願のいくつかの実施例において、記憶媒体は、さらに、上記の実施例における方法に含まれるステップを実行するためのコンピュータプログラムを記憶するように設定される。
【0116】
本実施例において、上記の実施例における様々な方法のすべてまたは一部は、プログラムによって、端末機器に関連するハードウェアに命令することによって完了してもよいことを、当業者なら自明である。当該プログラムは、1つのコンピュータ読み取り可能な記憶媒体に記憶されてもよく、記憶媒体は、フラッシュディスク、読み取り専用メモリ(ROM:Read-Only Memory)、ランダムアクセスメモリ(RAM:Random Access Memory)、磁気ディスク又は光ディスクなどを含んでもよい。
【0117】
上記の本願実施例の番号は、実施例の優劣を表すものではなく、説明の便宜を図るためのものである。
【0118】
上記の実施例における統合されたユニットが、ソフトウェア機能ユニットの形で実現され、スタンドアロン製品として販売又は使用される場合、上述のコンピュータ読み取り可能な記憶媒体に記憶されることができる。このような理解に基づいて、本願実施例の技術的解決策は、本質的に又は先行技術に対して寄与する部分又は前記技術的解決策のすべて又は一部は、ソフトウェア製品の形で具現されることができ、前記コンピュータソフトウェア製品は、記憶媒体に記憶され、1台又は複数のコンピュータ機器(パーソナルコンピュータ、サーバ、又はネットワーク機器等であり得る)に本願の各実施例に記載の方法の全部又は一部のステップを実行させるためのいくつかの命令を含む。
【0119】
本願の上述の実施例では、各実施例の説明は、それぞれの重み付けがあるため、ある実施例で詳しく説明していない部分は、他の実施例の関連部分の説明を参照してもよい。
【0120】
本願によるいくつかの実施例において、開示されたクライアントは、他の形態でも代替できることを理解されたい。ここで、上記で説明された装置実施例は、例示的なものに過ぎず、例えば、前記ユニットの分離は、論理機能の分離に過ぎず、実際の実現ときには別の分離方法があり、例えば、複数のユニット又はコンポーネントを別のシステムに統合又は集積したり、又は一部の特徴を無視したり、又は実行しないことができる。さらに、表示又は議論された相互結合又は直接結合又は通信接続は、一部のインターフェース、ユニット又はモジュールを介した間接的な結合又は通信接続であり得、電気的又は他の形態であり得る。
【0121】
前記分離部品として説明されるユニットは、物理的に分離されてもされなくてもよく、ユニットとして表示される部品は、物理的ユニットであってもなくてもよい。つまり、1箇所に配置されてもよく、複数のネットワークユニットに分散されてもよい。実際のニーズに従って、そのうちの一部又はすべてのユニットを選択して、本実施例の技術案の目的を実現することができる。
【0122】
さらに、本願の各実施例における各機能ユニットは、1つの処理ユニットに統合されてもよく、又は各ユニットが、物理的に別々に存在してもよく、又は2つ又は2つ以上のユニットが1つのユニットに統合されてもよい。前記統合されたユニットは、ハードウェアの形で実装されてもよく、ソフトウェア機能ユニットの形で実装されてもよい。
【0123】
上述は、本願における具体的な実施例に過ぎず、当業者にとって、本願の原理から逸脱することなく、いくつかの改善又は修正を加えることもでき、これらの改善及び修正も本願の保護範囲と見なされるべきであることに留意されたい。
【産業上の利用可能性】
【0124】
本願実施例において、ハイパーパラメータ値セットから第1ニューラルネットワークモデルのハイパーパラメータに対応するハイパーパラメータ値を決定し、前記第1ニューラルネットワークモデルをトレーニングすることにより得られた第2ニューラルネットワークモデルの第1モデル精度を取得し、前記第1モデル精度が、ターゲット精度より低い場合、前記第1ニューラルネットワークモデルにおける部分的なハイパーパラメータのハイパーパラメータ値を、前記ハイパーパラメータ値セットにおける対応するターゲットハイパーパラメータ値に更新して、第3ニューラルネットワークモデルを取得して、ニューラルネットワークモデルの生成効率を向上される技術的効果を実現し、さらに、ニューラルネットワークモデルの生成効率の低い技術的課題を解決する。
【符号の説明】
【0125】
82 決定モジュール
84 取得モジュール
86 更新モジュール
1102 プロセッサ
1104 メモリ
1106 センサ
1108 エンコーダ
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12