IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 北京小米智能科技有限公司の特許一覧

特許7029476スーパーネットワークトレーニング方法、及び装置、プログラム、及び記録媒体
<>
  • 特許-スーパーネットワークトレーニング方法、及び装置、プログラム、及び記録媒体 図1
  • 特許-スーパーネットワークトレーニング方法、及び装置、プログラム、及び記録媒体 図2
  • 特許-スーパーネットワークトレーニング方法、及び装置、プログラム、及び記録媒体 図3
  • 特許-スーパーネットワークトレーニング方法、及び装置、プログラム、及び記録媒体 図4
  • 特許-スーパーネットワークトレーニング方法、及び装置、プログラム、及び記録媒体 図5
  • 特許-スーパーネットワークトレーニング方法、及び装置、プログラム、及び記録媒体 図6
  • 特許-スーパーネットワークトレーニング方法、及び装置、プログラム、及び記録媒体 図7
  • 特許-スーパーネットワークトレーニング方法、及び装置、プログラム、及び記録媒体 図8
  • 特許-スーパーネットワークトレーニング方法、及び装置、プログラム、及び記録媒体 図9
  • 特許-スーパーネットワークトレーニング方法、及び装置、プログラム、及び記録媒体 図10
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2022-02-22
(45)【発行日】2022-03-03
(54)【発明の名称】スーパーネットワークトレーニング方法、及び装置、プログラム、及び記録媒体
(51)【国際特許分類】
   G06N 3/08 20060101AFI20220224BHJP
【FI】
G06N3/08
【請求項の数】 12
(21)【出願番号】P 2019565929
(86)(22)【出願日】2019-09-27
(65)【公表番号】
(43)【公表日】2021-08-05
(86)【国際出願番号】 CN2019108531
(87)【国際公開番号】W WO2020244104
(87)【国際公開日】2020-12-10
【審査請求日】2019-11-28
(31)【優先権主張番号】201910492314.0
(32)【優先日】2019-06-06
(33)【優先権主張国・地域又は機関】CN
(73)【特許権者】
【識別番号】319003367
【氏名又は名称】北京小米智能科技有限公司
【氏名又は名称原語表記】Beijing Xiaomi Intelligent Technology Co.,Ltd.
【住所又は居所原語表記】NO.003, floor 3, building 6, yard 33, middle Xierqi Road, Haidian District, Beijing 100085, China
(74)【代理人】
【識別番号】110000729
【氏名又は名称】特許業務法人 ユニアス国際特許事務所
(72)【発明者】
【氏名】初 祥祥
(72)【発明者】
【氏名】許 瑞▲軍▼
(72)【発明者】
【氏名】▲張▼ 勃
(72)【発明者】
【氏名】李 吉祥
(72)【発明者】
【氏名】李 ▲慶▼源
【審査官】川▲崎▼ 博章
(56)【参考文献】
【文献】特開平06-309293(JP,A)
【文献】特表2019-508803(JP,A)
【文献】Sirui Xie, Hehui Zheng, Chunxiao Liu, Liang Lin,SNAS: Stochastic Neural Architecture Search,Seventh International Conference on Learning Representations,米国,2019年05月06日,[検索日 2021.07.26], インターネット<https://openreview.net/forum?id=HylVB3AqYm>
(58)【調査した分野】(Int.Cl.,DB名)
G06N 3/08
(57)【特許請求の範囲】
【請求項1】
スーパーネットワークに対して複数回のサブネットワークサンプリングを行って、複数のサブネットワークを取得するステップと、前記スーパーネットワークの任意の一つの層に対して、異なるサブネットワークのサンプリングする時に選択されたサブ構造が異なり、
サンプリングして得られた前記複数のサブネットワークに対してトレーニングを行って、前記スーパーネットワークを更新するステップと、を含む
ことを特徴とするスーパーネットワークトレーニング方法。
【請求項2】
サンプリングして得られたサブネットワークの数と前記スーパーネットワークの各層でのサブ構造の数は、同じである、
ことを特徴とする請求項1に記載のスーパーネットワークトレーニング方法。
【請求項3】
スーパーネットワークに対して複数回のサブネットワークサンプリングを行って、複数のサブネットワークを取得するステップは、
前記スーパーネットワークの第1の層から最後の層まで、層ごとに各層のサンプリングプールから1つのサブ構造を取り出して、取り出されたサブ構造は、前記サンプリングプールに戻されないステップ1と、
各層から選択されたサブ構造を接続して、一つのサブネットワークを構成するステップ2と、
ステップ1からステップ2までのプロセスを繰り返して、複数のサブネットワークを取得するステップ3と、を含む
ことを特徴とする請求項1または2に記載のスーパーネットワークトレーニング方法。
【請求項4】
サンプリングして得られたサブネットワークの数と前記スーパーネットワークの各層でのサブ構造の数が同じである場合、スーパーネットワークに対して複数回のサブネットワークサンプリングを行って複数のサブネットワークを取得した後、
前記スーパーネットワークのすべての層のすべてのサブ構造を対応する各層のサンプリングプールに返すステップと、をさらに含む
ことを特徴とする請求項3に記載のスーパーネットワークトレーニング方法。
【請求項5】
サンプリングして得られた前記複数のサブネットワークに対してトレーニングを行って、前記スーパーネットワークを更新するステップは、
前記複数のサブネットワークでの各サブネットワークに対してそれぞれ1回のトレーニングを行うステップと、
前記複数のサブネットワークのトレーニング結果に基づいて、前記スーパーネットワークのパラメータを更新するステップと、を含む
ことを特徴とする請求項1に記載のスーパーネットワークトレーニング方法。
【請求項6】
前記複数のサブネットワークでの各サブネットワークに対してそれぞれ1回のトレーニングを行うステップは、
バックプロパゲーション(Back Propagation、BP)アルゴリズムを使用して、前記複数のサブネットワークでの各サブネットワークに対してそれぞれトレーニングを行うステップを含む
ことを特徴とする請求項5に記載のスーパーネットワークトレーニング方法。
【請求項7】
スーパーネットワークに対して複数回のサブネットワークサンプリングを行って、複数のサブネットワークを取得するように構成される返さないサンプリングモジュールと、前記スーパーネットワークの任意の一つの層に対して、異なるサブネットワークのサンプリングする時に選択されたサブ構造が異なり、
サンプリングして得られた前記複数のサブネットワークに対してトレーニングを行って、前記スーパーネットワークを更新するように構成されるスーパーネットワークトレーニングモジュールと、を含む
ことを特徴とするスーパーネットワークトレーニング装置。
【請求項8】
前記返さないサンプリングモジュールは、
前記スーパーネットワークの第1の層から最後の層まで、層ごとに各層のサンプリングプールから1つのサブ構造を取り出して、取り出されたサブ構造が前記サンプリングプールに戻されないように構成される選択サブモジュールと、
各層から選択されたサブ構造を接続して、一つのサブネットワークを構成するように構成されるサブネットワーク組み合わせサブモジュールと、
前記選択サブモジュールと前記サブネットワーク組み合わせサブモジュールがサンプリングとサブネットワークを構成する操作を繰り返し行って、複数のサブネットワークを取得するように制御するように構成されるサンプリング制御サブモジュールと、を含む
ことを特徴とする請求項7に記載のスーパーネットワークトレーニング装置。
【請求項9】
前記返さないサンプリングモジュールでサンプリングして得られたサブネットワークの数と前記スーパーネットワークの各層でのサブ構造の数が同じである場合、前記スーパーネットワークのすべての層のすべてのサブ構造を対応する各層のサンプリングプールに返すように構成されるネットワークリリースモジュールをさらに含む
ことを特徴とする請求項8に記載のスーパーネットワークトレーニング装置。
【請求項10】
プロセッサーと、
プロセッサーで実行可能なコマンドを格納するメモリと、を含み、
前記プロセッサーは、
スーパーネットワークに対して複数回のサブネットワークサンプリングを行って、複数のサブネットワークを取得し、前記スーパーネットワークの任意の一つの層に対して、異なるサブネットワークのサンプリングする時に選択されたサブ構造が異なり、
サンプリングして得られた前記複数のサブネットワークに対してトレーニングを行って、前記スーパーネットワークを更新するように構成される
ことを特徴とするコンピュータ装置。
【請求項11】
移動端末のプロセッサーにより実行されることにより、移動端末は、スーパーネットワークトレーニング方法を実行し、
前記方法は、
スーパーネットワークに対して複数回のサブネットワークサンプリングを行って、複数のサブネットワークを取得するステップと、前記スーパーネットワークの任意の一つの層に対して、異なるサブネットワークのサンプリングする時に選択されたサブ構造が異なり、
サンプリングして得られた前記複数のサブネットワークに対してトレーニングを行って、前記スーパーネットワークを更新するステップと、を含む、プログラム。
【請求項12】
請求項11に記載のプログラムが記憶されるコンピュータ読み取り可能な記録媒体。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、スマートニューラルネットワーク技術に係り、特に、スーパーネットワークトレーニング方法、及び装置に関する。
【背景技術】
【0002】
ニューラルネットワークは、各分野で広く適用されており、例えば、ニューラルネットワークアーキテクチャ検索(Neural Architecture Search、NAS)のようないくつかの分野において、毎回に検索する時、独立したニューラルネットワークを生成すると共にトレーニングして指標を取得する方法は、評価効率が低いという問題を存在し、検索アルゴリズムの速度が大きく制限される。いくつかのNAS方法は、すべての検索ネットワーク構造空間を含む一つのスーパーネットワークをトレーニングする方法を採用しているが、スーパーネットワーク内のすべてのサブ構造は、異なるサブネットワークを構築する際にパラメータを共有することにより、スーパーネットワークを一定の程度にトレーニングするだけで、サブネットワークに対してサンプリングすると共に、指標を評価することができ、サブネットワークを再度トレーニングする必要がない。
【0003】
スーパーネットワークの各層には、複数の選択可能なサブ構造があり、スーパーネットワークをトレーニングする際に、一般的に均一なパスサンプリング方法で1つの単一のパスを選択してトレーニングする。図1は、均一なサンプリングでサブネットワークを構成する実施例を示す図である。均一なサンプリングには、一定の分散が存在するので、異なるサブ構造がトレーニングを受ける程度は、異なり、これにより、サブネットワークの指標を評価する時に、誤差が生じる。
【発明の概要】
【発明が解決しようとする課題】
【0004】
相関技術に存在する問題を解決するために、本発明は、スーパーネットワークトレーニング方法、装置、プログラム、及び記録媒体を提供する。
【課題を解決するための手段】
【0005】
本発明の実施形態の一態様によると、
スーパーネットワークに対して複数回のサブネットワークサンプリングを行って、複数のサブネットワークを取得するステップ、ここで、前記スーパーネットワークの任意の一つの層に対して、異なるサブネットワークのサンプリングする時に選択されたサブ構造が異なり、
サンプリングして得られた前記複数のサブネットワークに対してトレーニングを行って、前記スーパーネットワークを更新するステップと、を含むスーパーネットワークトレーニング方を提供する。
【0006】
選択的には、サンプリングして得られたサブネットワークの数と前記スーパーネットワークの各層でのサブ構造の数は、同じである。
【0007】
選択的には、スーパーネットワークに対して複数回のサブネットワークサンプリングを行って、複数のサブネットワークを取得するステップは、
前記スーパーネットワークの第1の層から最後の層まで、層ごとに各層のサンプリングプールから1つのサブ構造を取り出して、取り出されたサブ構造は、前記サンプリングプールに戻されないステップ1と、
各層から選択されたサブ構造を接続して、一つのサブネットワークを構成するステップ2と、
ステップ1からステップ2のプロセスを重複して、複数のサブネットワークを取得するステップ3と、を含む。
【0008】
選択的には、サンプリングして得られたサブネットワークの数と前記スーパーネットワークの各層でのサブ構造の数が同じである場合、スーパーネットワークに対して複数回のサブネットワークサンプリングを行って複数のサブネットワークを取得した後、
前記スーパーネットワークのすべての層のすべてのサブ構造を対応する各層のサンプリングプールに返すステップと、をさらに含む。
【0009】
選択的には、サンプリングして得られた前記複数のサブネットワークに対してトレーニングを行って、前記スーパーネットワークを更新するステップは、
前記複数のサブネットワークでの各サブネットワークに対してそれぞれ1回のトレーニングを行うステップと、
前記複数のサブネットワークのトレーニング結果に基づいて、前記スーパーネットワークのパラメータを更新するステップと、を含む。
【0010】
選択的に、前記複数のサブネットワークでの各サブネットワークに対してそれぞれ1回のトレーニングを行うステップは、
バックプロパゲーション(Back Propagation、BP)アルゴリズムを使用して、前記複数のサブネットワークでの各サブネットワークに対してそれぞれトレーニングを行うステップを含む。
【0011】
本発明の実施形態の他の一態様によると、
スーパーネットワークに対して複数回のサブネットワークサンプリングを行って、複数のサブネットワークを取得するように構成される返さないサンプリングモジュールと、ここで、前記スーパーネットワークの任意の一つの層に対して、異なるサブネットワークのサンプリングする時に選択されたサブ構造が異なり、
サンプリングして得られた前記複数のサブネットワークに対してトレーニングを行って、前記スーパーネットワークを更新するように構成されるスーパーネットワークトレーニングモジュールと、を含むスーパーネットワークトレーニング装置を提供する。
【0012】
選択的に、前記返さないサンプリングモジュールは、
前記スーパーネットワークの第1の層から最後の層まで、層ごとに各層のサンプリングプールから1つのサブ構造を取り出して、取り出されたサブ構造が前記サンプリングプールに戻されないように構成される選択サブモジュールと、
各層から選択されたサブ構造を接続して、一つのサブネットワークを構成するように構成されるサブネットワーク組み合わせサブモジュールと、
前記選択サブモジュールと前記サブネットワーク組み合わせサブモジュールがサンプリングとサブネットワークを構成する操作を重複に行って、複数のサブネットワークを取得するように制御するように構成されるサンプリング制御サブモジュールと、を含む。
【0013】
選択的に、前記返さないサンプリングモジュールでサンプリングして得られたサブネットワークの数と前記スーパーネットワークの各層でのサブ構造の数が同じである場合、前記スーパーネットワークのすべての層のすべてのサブ構造を対応する各層のサンプリングプールに返すように構成されるネットワークリリースモジュールをさらに含む。
【0014】
本発明の実施形態の他の一態様によると、
プロセッサーと
プロセッサーで実行可能なコマンドを格納するメモリと、を含み、
前記プロセッサーは、
スーパーネットワークに対して複数回のサブネットワークサンプリングを行って、複数のサブネットワークを取得し、前記スーパーネットワークの任意の一つの層に対して、異なるサブネットワークのサンプリングする時に選択されたサブ構造が異なり、
サンプリングして得られた前記複数のサブネットワークに対してトレーニングを行って、前記スーパーネットワークを更新するように構成されるコンピュータ装置を提供する。
【0015】
本発明の実施形態の他の一態様によると、
移動端末のプロセッサーにより実行されることにより、移動端末は、スーパーネットワークトレーニング方法を実行し、
前記方法は、
スーパーネットワークに対して複数回のサブネットワークサンプリングを行って、複数のサブネットワークを取得するステップと、ここで、前記スーパーネットワークの任意の一つの層に対して、異なるサブネットワークのサンプリングする時に選択されたサブ構造が異なり、
サンプリングして得られた前記複数のサブネットワークに対してトレーニングを行って、前記スーパーネットワークを更新するステップと、を含むプログラムを提供する。
本発明の実施形態の他の一態様によると、
上記のプログラムが記録されるコンピュータ読み取り可能な記録媒体を提供する。
【0016】
本発明の実施例で提供される技術方案は、以下のような有益な効果を含むことができる。完全公平なサンプリング方法を使用し、各層のサブ構造の選択において、返さないサンプリング(sampling without replacement)を採用して、各サブ構造を均一に選択してトレーニングを行うように確保し、これにより、サブ構造のトレーニングを受ける程度が不均一することによるサブネットワークの指標を評価する際に誤差が生じる問題を解決することができる。且つ、一括でサブネットワークトレーニングを行った後、スーパーネットワークパラメータを一括で更新することにより、トレーニングの効率を向上させることができる。正確かつ効率的なスーパーネットワークトレーニングのメカニズムを実現することができる。
【0017】
なお、前記一般的な記載及び後述の詳細な記載は、単なる例示的で解釈的な記載であり、本発明を限定しない。
【図面の簡単な説明】
【0018】
ここの図面は、明細書に組み入れて本明細書の一部分を構成し、本発明に該当する実施例を例示するとともに、明細書とともに本発明の原理を解釈する。
図1】均一なサンプリングでサブネットワークを構成する実現原理の模式図である。
図2】一例示的な実施形態に係るスーパーネットワークトレーニング方法のフローチャートである。
図3図2のステップ201の一例示的な実現フローチャートである。
図4図2のステップ201でノンオーバーラップサンプリングを行う実現原理の例示的な模式図である。
図5】一例示的な実施形態に係るスーパーネットワークトレーニング方法のフローチャートである。
図6】一例示的な実施形態係るスーパーネットワークトレーニング装置のブロック図である。
図7図6の返さないサンプリングモジュール601の一例示的な構造のブロック図である。
図8】一例示的な実施形態に係るスーパーネットワークトレーニング装置のブロック図である。
図9】一例示的な実施形態に係る装置のブロック図(移動端末の一般的な構造)である。
図10】一例示的な実施形態係る装置のブロック図(サーバーの一般的な構造)である。
【発明を実施するための形態】
【0019】
以下、例示的な実施例を詳しく説明し、その例示を図面に示す。以下の記載が図面に関わる場合、特に別の説明がない限り、異なる図面における同一符号は、同じ又は類似する要素を示す。以下の例示的な実施形態に記載の実施例は、本発明と一致する全ての実施例を代表するものではない。即ち、それらは、特許請求の範囲に記載の本発明のある側面に一致する装置及び方法の例に過ぎない。
【0020】
スーパーネットワーク内のすべてのサブ構造が異なるサブネットワークを構築する際にパラメータを共有し、スーパーネットワークのサブネットワークのサンプリング評価指標(例えば、正確率など)を一定程度にトレーニングすると、サブネットワークのサンプリングを行いその指標を評価することができ、サブネットワークを再度トレーニングする必要がない。
【0021】
スーパーネットワークの各層には、複数の選択可能なサブ構造があり、スーパーネットワークをトレーニングする際に、一般的に均一なパスサンプリング方法により1つの単一のパスを選択してトレーニングする。均一なサンプリングには、一定の分散が存在するので、異なるサブ構造が異なる程度のトレーニングを受け、これにより、サブネットワークの指標を評価する場合、誤差が生じる。
【0022】
上記の問題を解決するために、本発明の実施例は、スーパーネットワークトレーニング方法、及び装置を提供する。完全公平なサンプリング方法を使用し、各層のサブ構造の選択において、返さないサンプリング(sampling without replacement)を採用して、各サブ構造を均一に選択してトレーニングを行うことを確保し、これにより、サブ構造のトレーニングを受ける程度が不均一することによるサブネットワークの指標を評価する際に誤差が生じる問題を解決することができる。
【0023】
本発明の一実施例は、スーパーネットワークトレーニング方法を提供し、その方法により、スーパーネットワークをトレーニングして更新する過程は、図2に示す通りであり、下記のようなステップを含む。
【0024】
ステップ201において、スーパーネットワークに対して複数回のサブネットワークサンプリングを行って、複数のサブネットワークを取得し、前記スーパーネットワークの任意の一つの層に対して、異なるサブネットワークのサンプリングする時に選択されたサブ構造が異なる。
当該ステップにおいて、ノンオーバーラップサンプリングを行う。選択されたサブ構造は、すべてのサブネットワークに対するサンプリングが完了するまで、サンプリングプールに戻されない。選択的には、サンプリングして得られたサブネットワークの数は、前記スーパーネットワークの各層でのサブ構造の数と同じであり、即ち、スーパーネットワークでのすべてのサブ構造に対して1回のサンプリングを行うことにより、すべてのサブ構造がいずれも均一なトレーニングを受けることができるように保証する。
【0025】
具体的には、図3に示すように、当該ステップは、下記のようなステップを含む。
【0026】
ステップ2011において、前記スーパーネットワークの第1の層から最後の層まで、層ごとに各層のサンプリングプールから1つのサブ構造を取り出して、取り出されたサブ構造は、前記サンプリングプールに戻されない。
【0027】
ステップ2012において、各層から選択されたサブ構造を接続して、一つのサブネットワークを構成する。
【0028】
ステップ2013において、ステップ2011ないし2012の過程を重複して、複数のサブネットワークを取得する。選択的には、サンプリングして得られたサブネットワークの数と前記スーパーネットワークの各層でのサブ構造の数が同じになるまで、上記のプロセスを複製する。
【0029】
図4は、図2のステップ201においてノンオーバーラップサンプリングを行う実現原理の模式図である。図4からわかるように、スーパーネットワークのN(Nは、正の整数であり)層での任意の一つの層に対して、いずれも返さない均一なサンプリングを行わない、これにより、すでにサンプリングされたサブ構造が重複的にサンプリングされなく、すべてのサブ構造がいずれも一度サンプリングされるように保証することができる。
【0030】
ステップ202において、前記スーパーネットワークのすべての層のすべてのサブ構造を対応する各層のサンプリングプールに返す。
【0031】
サンプリングして得られたサブネットワークの数と前記スーパーネットワークの各層でのサブ構造の数が同じである場合(この場合、すべてのサブ構造は、いずれもすでに一度サンプリングされ、スーパーネットワークの各層に対応するサンプリングプールは、いずれも空である)、スーパーネットワークに対して複数回のサブネットワークサンプリングを行って複数のサブネットワークを取得した後、次にニューラルネットワークに対してスーパーネットワークトレーニングを行うように、スーパーネットワークのすべての層のすべてのサブ構造を対応する各層のサンプリングプールに返す。
【0032】
ステップ203において、サンプリングして得られた前記複数のサブネットワークに対してトレーニングを行って、そのスーパーネットワークを更新する。
【0033】
当該ステップにおいて、前記複数のサブネットワークでの各サブネットワークに対してそれぞれ1回のトレーニングを行う。具体的には、バックプロパゲーション(Back Propagation、BP)アルゴリズムを使用して、前記複数のサブネットワークでの各サブネットワークに対してそれぞれトレーニングを行い、その後、前記複数のサブネットワークのトレーニング結果に基づいて、スーパーネットワークのパラメータ(例えば、ニューラルネットワークの重みなど)を更新する。
【0034】
本発明の一実施例は、他のスーパーネットワークトレーニング方法を提供する。本発明の実施例において、スーパーネットワークは、N層で構成され、各層には、M個の選択可能なサブ構造があり、目標は、M回のサンプリングを行って、M個のサブネットワークを得て、M個のサブネットワークに対して一括でトレーニングを行う。ここで、MとNは、正の整数である。
【0035】
具体的な過程は、図5に示す通りである。
まず、各層において、返さないサンプリングによって一つのサブ構造を選択する。第1の層から開始して、1つの層のサンプリングを完了するたびに、nの値は、1だけ増加し、第N層(即ち、n=N)まで到達すると、一回のサンプリングが終了したことを意味し、各層においていずれも一個のサブ構造を選択して、一つのサブネットワークを構成することができる。
【0036】
その後、現在、いくつかのサブネットワークをサンプリングしたのかを判断すると共に、目標値であるM個(即ち、m=M)に達したか否か判断する。M個のサブネットワークがサンプリングされた後、すべての層のすべてのサブ構造をサンプリングプールに返し、そうでない場合、mの値は、1だけ増加し、次のサブネットワークサンプリングに進入する。
【0037】
N層のサンプリングが完了した後、各層で選択したサブ構造を接続して、サンプリングサブネットワークを構成する。
【0038】
M回のネットワークサンプリングを繰り返して、1セットのM個のサブネットワークを得る。M個のサブネットワークのそれぞれに対して、1回のBPアルゴリズムのトレーニングを行い、トレーニングが完了した後、スーパーネットワークに対して1回のパラメータの更新を行う。
【0039】
本発明の一実施例は、スーパーネットワークトレーニング装置をさらに提供し、図6に示すように、そのスーパーネットワークトレーニング装置の構造は、
スーパーネットワークに対して複数回のサブネットワークサンプリングを行って、複数のサブネットワークを取得し、前記スーパーネットワークの任意の一つの層に対して、異なるサブネットワークのサンプリングする時に選択されたサブ構造が異なるように構成される返さないサンプリングモジュール601と、
サンプリングして得られた前記複数のサブネットワークに対してトレーニングを行って、前記スーパーネットワークを更新するように構成されるスーパーネットワークトレーニングモジュール602と、を含む。
【0040】
選択的に、図7に示すように、前記返さないサンプリングモジュール601の構造は、
前記スーパーネットワークの第1の層から最後の層まで、層ごとに各層のサンプリングプールから1つのサブ構造を取り出して、取り出されたサブ構造が前記サンプリングプールに戻されないように構成される選択サブモジュール6011と、
各層から選択されたサブ構造を接続して、一つのサブネットワークを構成するように構成されるサブネットワーク組み合わせサブモジュール6012と、
前記選択サブモジュールと前記サブネットワーク組み合わせサブモジュールがサンプリングとサブネットワークを構成する操作を重複に行って、複数のサブネットワークを取得するように制御するように構成されるサンプリング制御サブモジュール6013と、を含む。
【0041】
選択的に、図8に示すように、当該装置は、
前記返さないサンプリングモジュールでサンプリングして得られたサブネットワークの数と前記スーパーネットワークの各層でのサブ構造の数が同じである場合、前記スーパーネットワークのすべての層のすべてのサブ構造を対応する各層のサンプリングプールに返すように構成されるネットワークリリースモジュール603をさらに含む。
【0042】
前記実施例の装置において、それぞれのモジュールが操作を実行する具体的な方法は、すでにその方法の実施例において詳細に説明したので、ここで詳細に説明しない。図6から図8に示すスーパーネットワークトレーニング装置は、処理能力を備えるコンピュータ機器に集積され、コンピュータ機器によって対応する機能を実現してもよい。
【0043】
本発明の一実施例は、スーパーネットワークトレーニングのための装置00をさらに提供し、図9は、その装置00のブロック図である。例えば、装置00は、携帯電話、コンピュータ、デジタルブロードキャスト端末、メッセージ送受信機、ゲーム機、タブレットデバイス、医療機器、フィットネス機器、PDA等のものであってもよい。
【0044】
を参照すると、装置00は、処理ユニット02、メモリ804、電源ユニット06、マルチメディアユニット08、オーディオユニット10、入力/出力(I/O)インタフェース12、センサーユニット14、及び通信ユニット16からなる群から選ばれる少なくとも1つを備えてもよい。
【0045】
処理ユニット02は、一般的には、装置00の全体の操作、例えば、表示、電話呼び出し、データ通信、カメラ操作及び記録操作に関連する操作を制御する。処理ユニット02は、上述した方法におけるステップの一部又は全部を実現できるように、命令を実行する少なくとも1つのプロセッサー20を備えてもよい。また、処理ユニット02は、他のユニットとのインタラクションを便利にさせるように、少なくとも1つのモジュールを備えてもよい。例えば、処理ユニット02は、マルチメディアユニット08とのインタラクションを便利にさせるように、マルチメディアモジュールを備えてもよい。
【0046】
メモリ04は、装置00での操作をサポートするように、各種のデータを記憶するように配置される。これらのデータは、例えば、装置00で何れのアプリケーション又は方法を操作するための命令、連絡先データ、電話帳データ、メッセージ、画像、ビデオ等を含む。メモリ04は、何れの種類の揮発性又は不揮発性メモリ、例えば、SRAM(Static Random Access Memory)、EEPROM(Electrically Erasable Programmable Read-Only Memory)、EPROM(Erasable Programmable Read Only Memory)、PROM(Programmable ROM)、ROM(Read Only Member)、磁気メモリ、フラッシュメモリ、磁気ディスク、或いは光ディスクにより、或いはそれらの組み合わせにより実現することができる。
【0047】
電源ユニット06は、装置00の各種ユニットに電力を供給するためのものであり、電源管理システム、1つ又は複数の電源、及び装置00のために電力を生成、管理及び分配することに関連する他のユニットを備えてもよい。
【0048】
マルチメディアユニット08は、装置900とユーザとの間に出力インタフェースを提供するスクリーンを備えてもよい。スクリーンは、例えば、液晶ディスプレイ(LCD)やタッチパネル(TP)を備えてもよい。スクリーンは、タッチパネルを備える場合、ユーザからの入力信号を受信するように、タッチスクリーンになることができる。また、タッチパネルは、タッチや、スライドや、タッチパネル上の手振りを感知するように、少なくとも1つのタッチセンサーを有する。タッチセンサーは、タッチやスライド動作の境界を感知できるだけではなく、タッチやスライド操作と関連する持続時間や圧力も感知できる。一実施例では、マルチメディアユニット08は、フロントカメラ及び/又はバックカメラを有してもよい。装置00が、例えば、撮影モードやビデオモードのような操作モードにある時、フロントカメラ及び/又はバックカメラが外部のマルチメディアデータを受信できる。フロントカメラ及びバックカメラのそれぞれは、固定の光学レンズ系であってもよいし、焦点距離及び光学ズーム能力を有するものであってもよい。
【0049】
オーディオユニット10は、オーディオ信号を出力及び/又は入力するように配置される。例えば、オーディオユニット10は、マイクロフォン(MiC)を有してもよい。装置00が、例えば、呼び出しモード、記録モード、又は音声認識モードのような操作モードにあるとき、マイクロフォンは、外部のオーディオ信号を受信するように配置される。受信したオーディオ信号は、メモリ04にさらに記憶されてもよいし、通信ユニット16を介して送信されてもよい。一実施例では、オーディオユニット10は、オーディオ信号を出力するためのスピーカをさらに備えてもよい。
【0050】
I/Oインタフェース12は、処理ユニット02と外部のインタフェースモジュールとの間にインタフェースを提供するためのものである。上記外部のインタフェースモジュールは、キーボードや、クリックホイールや、ボタン等であってもよい。これらのボタンは、ホームボタンや、音量ボタンや、スタートボタンや、ロックボタンであってもよいが、それらに限らない。
【0051】
センサーユニット14は、装置00のために各方面の状態を評価する少なくとも1つのセンサーを備えてもよい。例えば、センサーユニット14は、装置00のオン/オフ状態や、ユニットの相対的な位置を検出することができる。例えば、前記ユニットは、装置00のディスプレイ及びキーパッドである。センサーユニット14は、装置00又は装置00の1つのユニットの位置の変化や、ユーザが装置900に接触しているか否かや、装置00の方向又は加速/減速や、装置00の温度変化を検出することができる。センサーユニット14は、何れの物理的な接触もない場合に付近の物体を検出するように配置される近接センサーを有してもよい。センサーユニット14は、イメージングアプリケーションに用いるための光センサー、例えば、CMOS又はCCD画像センサーを有してもよい。一実施例では、当該センサーユニット14は、加速度センサー、ジャイロスコープセンサー、磁気センサー、圧力センサー又は温度センサーをさらに備えてもよい。
【0052】
通信ユニット16は、装置00と他の設備の間との無線又は有線通信を便利にさせるように配置される。装置900は、通信標準に基づく無線ネットワーク、例えば、WiFi、2G又は3G、又はそれらの組み合わせにアクセスできる。1つの例示的な実施例では、通信ユニット16は、ブロードキャストチャンネルを介して外部のブロードキャスト管理システムからのブロードキャスト信号又はブロードキャストに関する情報を受信する。1つの例示的な実施例では、前記通信ユニット16は、近距離通信を促進するために近距離無線通信(NFC)モジュールをさらに備えてもよい。例えば、NFCモジュールは、無線周波数認識装置(RFID:Radio Frequency IDentification)技術、赤外線データ協会(IrDA:Infrared Data Association)技術、超広帯域無線(UWB:Ultra Wide Band)技術、ブルートゥース(登録商標)(BT:Bluetooth(登録商標))技術及び他の技術によって実現されてもよい。
【0053】
例示的な実施例では、装置00は、上述した方法を実行するために、1つ又は複数の特定用途向け集積回路(ASIC:Application Specific Integrated Circuit)、デジタル信号プロセッサー(DSP:Digital Signal Processor)、数字信号処理デバイス(DSPD:Digital Signal Processing Device)、プログラム可能論理デバイス(PLD:Programmable Logic Device)、書替え可能ゲートアレイ(FPGA:Field-Programmable Gate Array)、コントローラ、マイクロコントローラ、マイクロプロセッサー、又は他の電子機器によって実現されてもよい。
【0054】
例示的な実施例では、命令を有する非一時的コンピュータ読み取り可能な記録媒体、例えば、命令を有するメモリ04をさらに提供する。前記命令は、装置00のプロセッサー20により実行されて上述した方法を実現する。例えば、前記非一時的コンピュータ読み取り可能な記録媒体は、ROM、RAM、CD-ROM、磁気テープ、フロッピー(登録商標)ディスク及び光データメモリ等であってもよい。
【0055】
非一時的なコンピュータ読み取り可能な記録媒体であって、前記記録媒体におけるコマンドが移動端末のプロセッサーによって実行される場合、移動端末は、スーパーネットワークトレーニング方法を実行し、上記の方法は、
スーパーネットワークに対して複数回のサブネットワークサンプリングを行って、複数のサブネットワークを取得するステップと、ここで、前記スーパーネットワークの任意の一つの層に対して、異なるサブネットワークのサンプリングする時に選択されたサブ構造が異なり、
サンプリングして得られた前記複数のサブネットワークに対してトレーニングを行って、そのスーパーネットワークを更新するステップと、を含む。
【0056】
本発明の一実施例は、
プロセッサーと
プロセッサーで実行可能なコマンドを格納するメモリと、を含み、
前記プロセッサーは、
スーパーネットワークに対して複数回のサブネットワークサンプリングを行って、複数のサブネットワークを取得し、前記スーパーネットワークの任意の一つの層に対して、異なるサブネットワークのサンプリングする時に選択されたサブ構造が異なり、
サンプリングして得られた前記複数のサブネットワークに対してトレーニングを行って、そのスーパーネットワークを更新するように構成されるコンピュータ装置をさらに提供する。
【0057】
本発明の一実施例は、スーパーネットワークトレーニングのための装置100をさらに提供し、図10は、その装置100のブロック図である。例えば、装置100はサーバーとして提供されてもよい。図10を参照すると、装置100は、1つ以上のプロセッサーがさらに含まれた処理ユニット122と、処理ユニット122により実行可能な命令、例えばプログラムを記憶するメモリ132を代表とするメモリリソースとを含む。メモリ132に記憶されたアプリケーションプログラムは、1つ以上のそれぞれが一組の命令に対応するモジュールを含んでもよい。また、前記いずれか1つの実施例に提供された方法を実行するために、処理ユニット122は命令を実行するように配置される。
【0058】
装置100は、装置100の電源管理を実行するように配置された電源ユニット126と、装置100をインターネットに接続させるように配置された有線又は無線インターネットインタフェース150と、入力/出力(I/O)インタフェース158とを備えてもよい。装置100は、メモリ132に記憶された操作システム、例えばWindows ServerTM、Mac OS XTM、UnixTM, LinuxTM、FreeBSDTMなどに基づいて操作できる。
【0059】
本発明の実施例は、スーパーネットワークトレーニング方法、及び装置を提供し、スーパーネットワークに対して複数回のサブネットワークサンプリングを行って、複数のサブネットワークを取得し、前記スーパーネットワークの任意の一つの層に対して、異なるサブネットワークのサンプリングする時に選択されたサブ構造が異なり、その後、サンプリングして得られた前記複数のサブネットワークに対してトレーニングを行って、そのスーパーネットワークを更新する。完全公平なサンプリング方法を使用し、各層のサブ構造の選択において、返さないサンプリング(sampling without replacement)を採用して、各サブ構造を均一に選択してトレーニングを行うように確保し、これにより、サブ構造のトレーニングを受ける程度が不均一することによるサブネットワークの指標を評価する際に誤差が生じる問題を解決することができる。且つ、一括でサブネットワークトレーニングを行った後、スーパーネットワークパラメータを一括で更新することにより、トレーニングの効率を向上させることができる。正確かつ効率的なスーパーネットワークトレーニングのメカニズムを実現することができる。
【0060】
本発明の実施例で提供される技術方案は、異なるサブ構造のトレーニングを受ける程度が完全に同じであるよう保証し、サブネットワーク指標を評価する際の誤差を最大限減少させることができる、各セットのサブネットワークがバックプロパゲーションを行った後、一回のパラメータ更新を行うことにより、効率を向上させることができる。
【0061】
当業者は、明細書に対する理解、及び明細書に記載された発明に対する実施を介して、本発明の他の実施形態を容易に取得することができる。本発明は、本発明に対する任意の変形、用途、又は適応的な変化を含み、このような変形、用途、又は適応的な変化は、本発明の一般的な原理に従い、本発明では開示していない本技術分野の公知知識、又は通常の技術手段を含む。明細書及び実施例は、単に例示的なものであって、本発明の本当の範囲と主旨は、以下の特許請求の範囲によって示される。
【0062】
本発明は、上記で記述され、図面で図示した特定の構成に限定されず、その範囲を離脱しない状況で、様々な修正や変更を実施してもよい。本発明の範囲は、添付される特許請求の範囲のみにより限定される。
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10