IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 緯創資通股▲ふん▼有限公司の特許一覧

特許7577728継続学習のための機械学習方法および電子機器
<>
  • 特許-継続学習のための機械学習方法および電子機器 図1
  • 特許-継続学習のための機械学習方法および電子機器 図2
  • 特許-継続学習のための機械学習方法および電子機器 図3
  • 特許-継続学習のための機械学習方法および電子機器 図4
  • 特許-継続学習のための機械学習方法および電子機器 図5
  • 特許-継続学習のための機械学習方法および電子機器 図6A
  • 特許-継続学習のための機械学習方法および電子機器 図6B
  • 特許-継続学習のための機械学習方法および電子機器 図7
  • 特許-継続学習のための機械学習方法および電子機器 図8
  • 特許-継続学習のための機械学習方法および電子機器 図9
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-10-25
(45)【発行日】2024-11-05
(54)【発明の名称】継続学習のための機械学習方法および電子機器
(51)【国際特許分類】
   G06N 3/098 20230101AFI20241028BHJP
   G06N 3/096 20230101ALI20241028BHJP
【FI】
G06N3/098
G06N3/096
【請求項の数】 5
【外国語出願】
(21)【出願番号】P 2022201681
(22)【出願日】2022-12-19
(65)【公開番号】P2023184403
(43)【公開日】2023-12-28
【審査請求日】2022-12-19
(31)【優先権主張番号】111122622
(32)【優先日】2022-06-17
(33)【優先権主張国・地域又は機関】TW
(73)【特許権者】
【識別番号】504429600
【氏名又は名称】緯創資通股▲ふん▼有限公司
【氏名又は名称原語表記】WISTRON CORPORATION
(74)【代理人】
【識別番号】100147485
【弁理士】
【氏名又は名称】杉村 憲司
(74)【代理人】
【識別番号】230118913
【弁護士】
【氏名又は名称】杉村 光嗣
(74)【代理人】
【識別番号】100229264
【弁理士】
【氏名又は名称】清水 正一
(72)【発明者】
【氏名】郭 峻因
(72)【発明者】
【氏名】劉 城甫
【審査官】渡辺 順哉
(56)【参考文献】
【文献】国際公開第2021/143883(WO,A1)
【文献】米国特許出願公開第2019/0114544(US,A1)
【文献】白川 真一,確率的自然勾配法に基づくOne-Shot Neural Architecture Search,オペレーションズ・リサーチ,日本,公益社団法人 日本オペレーションズ・リサーチ学会,2021年06月01日,Vol.66, No.6,pp.381-386
【文献】川島 丸生 ほか,複数の入出力サイズを扱う継続的強化学習手法,ゲームプログラミングワークショップ2020論文集,2020年11月06日,Vol.2020,pp.161-168
【文献】SHAHAWY, Mohamed ほか,Exploring the Intersection between Neural Architecture Search and Continual Learning,arXiv[online],2023年06月15日,[retrieved on 2024.02.22], Retrieved from the Internet: <URL:https://arxiv.org/pdf/2206.05625.pdf>
(58)【調査した分野】(Int.Cl.,DB名)
G06N 3/00-99/00
(57)【特許請求の範囲】
【請求項1】
継続学習のための機械学習方法であって、
トレーニング段階において、プロセッサを使用して実行するステップとして、
複数のタスクにそれぞれ対応する複数のサブモデルに対して継続学習を実行し、前記複数のタスクに対応する複数のチャネルごとのマスクを使用して、ニューラルネットワークモデルを前記複数のサブモデルに分類し、各前記チャネルごとのマスクは、前記ニューラルネットワークモデルの各バッチ正規化層のスケーリング係数を含み、各前記スケーリング係数は、前記ニューラルネットワークモデルの少なくとも1つの畳み込み層のそれぞれを通じて取得された入力特徴マップを次の層に配置するか否かを決定するために使用されるステップを含み、
推論段階において、実行するステップとして、
入力画像を取り込むステップと、
前記トレーニング段階においてトレーニングされた前記複数のサブモデルによって前記入力画像に対して特徴抽出を実行して、複数の特徴マップを取得するステップと、
前記特徴マップを複数のエネルギースコアに変換し、各前記エネルギースコアは、前記入力画像と各前記サブモデルとの間の相関度を測定することに用いられるステップと、
前記エネルギースコアに従って、前記エネルギースコアの最小値に対応する前記サブモデルのうちの1つを、前記タスクのうちのターゲットタスクに対応するターゲットサブモデルとして選択するステップと、
前記ターゲットサブモデルによって前記ターゲットタスクに対応する予測結果を出力するステップと、
を含み、
前記エネルギースコアは、次の数式によって計算され、
【数1】
【請求項2】
前記スケーリング係数は、前記少なくとも1つの畳み込み層の複数の畳み込みカーネルに関連付けられており、前記トレーニング段階においてトレーニングされた前記サブモデルによって入力画像に対して特徴抽出を実行して、特徴マップを取得するステップに、
前記入力画像を前記少なくとも1つの畳み込み層に通して、入力特徴マップを取得するステップと、
少なくとも1つのバッチ正規化層を通して、前記入力特徴マップおよび前記チャネルごとのマスクのそれぞれのスケーリング係数に対して正規化計算を実行して、特徴マップを取得するステップと、
を含み、
前記チャネルごとのマスクがそれぞれ、複数の重要度係数を含み、前記トレーニング段階においてトレーニングされた前記サブモデルによって前記入力画像に対して特徴抽出を実行して、特徴マップを取得するステップに、
前記入力画像を前記ニューラルネットワークモデルに通して、出力特徴マップを取得するステップと、
前記出力特徴マップおよび前記チャネルごとのマスクのぞれぞれの重要度係数に対して要素ごとの乗算を実行して、特徴マップを取得するステップと、
を含む、請求項1に記載の機械学習方法。
【請求項3】
機械学習方法であって、更に、
前記タスクに関連付けられたトレーニングデータを受信するステップであって、前記トレーニングデータに、トレーニング画像と、前記トレーニング画像に対応するクラスラベルとを含むステップと、
前記ニューラルネットワークモデルおよび前記チャネルごとのマスクに従って、前記トレーニング画像に対して特徴抽出を実行して、トレーニング特徴マップを取得するステップと、
前記トレーニング特徴マップを特徴エネルギースコアに変換するステップと、
前記クラスラベル、前記チャネルごとのマスク、および前記特徴エネルギースコアに従って、損失関数を決定するステップと、
前記損失関数に従って、逆方向伝搬勾配を決定するステップと、
前記逆方向伝搬勾配に従って、前記ニューラルネットワークモデルおよび前記チャネルごとのマスクを更新するステップであって、前記チャネルごとのマスクが前記タスクに対応しており、前記タスクのうちの少なくとも1つのトレーニングタスクに対応する前記チャネルごとのマスクのうちの1つのチャネルごとのマスクを更新するステップと、
を含み、前記スケーリング係数が前記少なくとも1つの畳み込み層の複数の畳み込みカーネルに関連付けられており、前記ニューラルネットワークモデルおよび前記チャネルごとのマスクに従って、前記トレーニング画像に対して特徴抽出を実行して、トレーニング特徴マップを取得するステップに、
前記トレーニング画像を前記少なくとも1つの畳み込み層に通して、入力特徴マップを取得するステップと、
前記少なくとも1つのバッチ正規化層を通して、前記入力特徴マップおよび前記スケーリング係数に対して正規化計算を実行して、前記トレーニング特徴マップを取得するステップと、
を含み、前記損失関数が、
交差エントロピー誤差、
各前記チャネルごとのマスクの分極正則化項、および
エネルギー損失
の線形結合を含み、
前記分極正則化項が前記スケーリング係数に関連付けられており、かつ
前記エネルギー損失は、前記特徴エネルギースコアに関連付けられており、
前記分極正則化項は、次の数式によって計算され、
【数2】
前記逆方向伝搬勾配に従って、前記ニューラルネットワークモデルおよびチャネルごとのマスクを更新するステップに、
前記チャネルごとのマスクに従って、複数のアクティブ化パラメータを決定するステップと、
前記アクティブ化パラメータに従って、調整された逆方向伝搬勾配として前記逆方向伝搬勾配を調整するステップと、
前記調整された逆方向伝搬勾配に従って、前記ニューラルネットワークモデルおよび前記チャネルごとのマスクを更新するステップと、
を含み、前記チャネルごとのマスクがそれぞれ、複数の重要度係数を含み、前記損失関数が重要度係数正則化項を含み、前記重要度係数正則化項が前記重要度係数に関連付けられており、
前記逆方向伝搬勾配に従って、前記ニューラルネットワークモデルおよび前記チャネルごとのマスクを更新するステップに、
前記チャネルごとのマスクに従って、複数のアクティブ化パラメータを決定するステップと、
前記アクティブ化パラメータに従って、調整された逆方向伝搬勾配として、前記逆方向伝搬勾配を調整するステップと、
前記調整された逆方向伝搬勾配に従って、前記ニューラルネットワークモデルおよび前記チャネルごとのマスクを更新するステップと、
を含み、前記調整された逆方向伝搬勾配が次の数式、即ち、
【数3】
【請求項4】
継続学習のための電子機器であって、
複数のモジュールを記憶する記憶媒体と、
前記記憶媒体に結合され、前記モジュールを実行するプロセッサと、
を含み、前記モジュールに、
トレーニング段階において、複数のタスクにそれぞれ対応する複数のサブモデルに対して継続学習を実行し、前記複数のタスクに対応する複数のチャネルごとのマスクを使用して、ニューラルネットワークモデルを前記複数のサブモデルに分類し、各前記チャネルごとのマスクは、前記ニューラルネットワークモデルの各バッチ正規化層のスケーリング係数を含み、各前記スケーリング係数は、前記ニューラルネットワークモデルの少なくとも1つの畳み込み層のそれぞれを通じて取得された入力特徴マップを次の層に配置するか否かを決定するために使用されるトレーニングモジュールと、
入力画像を取り込む画像取り込みモジュールと、
前記トレーニング段階においてトレーニングされた前記複数のサブモデルによって、前記入力画像に対して特徴抽出を実行して、複数の特徴マップを取得する推論モジュールと、
を含み、前記特徴マップを複数のエネルギースコアに変換し、各前記エネルギースコアは、前記入力画像と各前記サブモデルとの間の相関度を測定することに用いられ、前記エネルギースコアに従って、前記エネルギースコアの最小値に対応する前記サブモデルのうちの1つを、前記タスクのうちのターゲットタスクに対応するターゲットサブモデルとして選択し、前記ターゲットタスクに対応する予測結果を前記ターゲットサブモデルによって出力し、
前記エネルギースコアは、次の数式によって計算され、
【数4】
【請求項5】
前記トレーニングモジュールは、
前記タスクに関連付けられたトレーニングデータを受信し、前記トレーニングデータに、トレーニング画像と、前記トレーニング画像に対応するクラスラベルとを含み;前記ニューラルネットワークモデルおよび前記チャネルごとのマスクに従って、前記トレーニング画像に対して特徴抽出を実行して、トレーニング特徴マップを取得し;前記トレーニング特徴マップを特徴エネルギースコアに変換し;前記クラスラベル、前記チャネルごとのマスク、および前記特徴エネルギースコアに従って、損失関数を決定し;前記損失関数に従って、逆方向伝搬勾配を決定し;前記逆方向伝搬勾配に従って、前記ニューラルネットワークモデルおよび前記チャネルごとのマスクを更新し、前記チャネルごとのマスクが前記タスクに対応しており、前記タスクのうちの少なくとも1つのトレーニングタスクに対応する前記チャネルごとのマスクのうちの1つのチャネルごとのマスクを更新する、請求項4に記載の電子機器。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、機械学習技術に関しており、より具体的には、本開示は、タスク認識型の継続学習用に構成された機械学習方法および電子機器に関する。
【背景技術】
【0002】
近年の人工知能(AI)の爆発的な成長は、人間の生活を大きく変化させた。AI技術が進歩し続けるにつれて、様々な応用分野(例えば、自律型ドローン、機械的手術、医療診断および治療)において、継続的(あるいは絶え間ない)または生涯にわたる学習、いわゆる「終わりのない」学習をサポートする必要性がある。生涯学習システムは、新しいタスクのために学習した知識の効率的な伝達および使用に集中しており、複数のタスクを順に管理することができる。関連技術において、前記要件を満たすために適用される方法とは、「共同学習」を指し、即ち、全てのタスクのトレーニングデータが同時に取得され、共同で最適化される。しかしながら、共同学習技術によると、タスクの数が増加すると、新しいタスクのデータが以前のタスクのデータによって薄められ、データ量の増加に伴い、トレーニング時間も延長される。更に、顔認識等のアプリケーションシナリオでは、以前のタスクにおける人間の顔データは、プライバシーの問題により、もはやアクセスおよび再トレーニングが不可能である可能性がある。
【0003】
AIが人間の脳のように知識を蓄積できるようにするために、以前のデータにアクセスできないことにより生じる「破滅的忘却」の問題を防ぐ必要性がある一方、新しいタスクにおける学習した知識を効果的に伝達および使用し、タスクを順に処理することに焦点を当てた継続学習が開発されてきた。継続学習方法は、3つの主要なカテゴリに、即ち、経験再生、分極正則化項、および動的ネットワーク分離に分類することができる。分極正則化項に基づく既存の継続学習技術では、以前のタスクのデータが提供されなくても、新しいタスクを学習した後に、以前のタスクの知識の破滅的忘却という無視し難い問題が依然として発生し得る。対照的に、破滅的忘却の現象は、新しいタスクに以前のタスクの以前のデータを提供し、新しいタスクの学習を支援する経験再生においては、比較的マイナーである。しかしながら、プライバシーの問題に起因して以前のデータを保存することが困難な場合、その後のモデルの更新に悪影響を及ぼす可能性がある。動的ネットワーク分離に関しては、パラメータの数およびモデルのデータ量は、タスクの増加に比例して増加し、これは、多くの計算リソースを消費し、ユーザの負担を軽減しない可能性がある。
【0004】
既存の継続学習は、タスクベースの逐次学習セットアップで動作する場合が多く、これは、実際の適用ではめったに遭遇しない。従って、このような問題を解決するために、タスクフリーの継続学習が開発され始めている。関連技術によれば、タスクフリーの継続学習は、しばしば経験再生を必要とし、学習プロセスは比較およびスコアリングのためにソフトマックス関数の確信度に依存する。しかしながら、ニューラルネットワークは、標本空間にオーバーフィットする可能性があり、それ故、未学習クラスの標本に高い確信度を付与し、従って、後続の計算のクロスタスク精度のパフォーマンスが低下する結果となる。
【発明の概要】
【発明が解決しようとする課題】
【0005】
本開示は、破滅的忘却を効果的に防止し、同時に、複数のタスクからターゲットタスクを自己適応的に識別する効果を達成することができる、継続学習のための機械学習方法および電子機器を提供する。
【課題を解決するための手段】
【0006】
本開示の一実施形態は、継続学習のための機械学習方法を提供し、この方法は、以下のステップを含む。入力画像を取り込む。複数のサブモデルによって入力画像に対して特徴抽出を実行して複数の特徴マップを取得し、ここで、サブモデルは複数のタスクに対応しており、かつサブモデルがニューラルネットワークモデルおよび複数のチャネルごとのマスクによって決定される。特徴マップを複数のエネルギースコアに変換する。エネルギースコアに従って、サブモデルからタスクのうちのターゲットタスクに対応するターゲットサブモデルを選択する。ターゲットサブモデルによってターゲットタスクに対応する予測結果を出力する。
【0007】
本開示の一実施形態では、機械学習方法は、更に以下のステップを含む。タスクに関連付けられたトレーニングデータを受信し、ここで、トレーニングデータに、トレーニング画像と、トレーニング画像に対応するクラスラベルとを含む。ニューラルネットワークモデルおよびチャネルごとのマスクに従って、トレーニング画像に対して特徴抽出を実行して、トレーニング特徴マップを取得する。トレーニング特徴マップを特徴エネルギースコアに変換する。クラスラベル、チャネルごとのマスク、および特徴エネルギースコアに従って、損失関数を決定する。損失関数に従って、逆方向伝搬勾配を決定する。逆方向伝搬勾配に従って、ニューラルネットワークモデルおよびチャネルごとのマスクを更新し、ここで、チャネルごとのマスクはタスクに対応しており、タスクのうちの少なくとも1つのトレーニングタスクに対応するチャネルごとのマスクのうちの1つのチャネルごとのマスクを更新する。
【0008】
別の態様では、本開示の一実施形態は、タスク認識型の継続学習用に構成された電子機器を提供し、電子機器は、複数のモジュールを記憶する記憶媒体と、記憶媒体に結合され、モジュールを実行するように構成されたプロセッサとを含む。ここで、モジュールは、入力画像を取り込む画像取り込みモジュールと、複数のサブモデルによって入力画像に対して特徴抽出を実行して複数の特徴マップを取得する推論モジュールとを含み、サブモデルは、複数のタスクに対応しており、かつサブモデルは、ニューラルネットワークモデルおよび複数のチャネルごとのマスクによって決定され、特徴マップは、複数のエネルギースコアに変換され、タスクのうちのターゲットタスクに対応するターゲットサブモデルがエネルギースコアに従ってサブモデルから選択され、ターゲットタスクに対応する予測結果がターゲットサブモデルによって出力される。
【0009】
本開示の一実施形態では、モジュールは、更に、タスクに関連付けられたトレーニングデータを受信し、ここで、トレーニングデータに、トレーニング画像と、トレーニング画像に対応するクラスラベルとを含み;ニューラルネットワークモデルおよびチャネルごとのマスクに従って、トレーニング画像に対して特徴抽出を実行して、トレーニング特徴マップを取得し;トレーニング特徴マップを特徴エネルギースコアに変換し;クラスラベル、チャネルごとのマスク、および特徴エネルギースコアに従って、損失関数を決定し;損失関数に従って、逆方向伝搬勾配を決定し;逆方向伝搬勾配に従って、ニューラルネットワークモデルおよびチャネルごとのマスクを更新し、チャネルごとのマスクがタスクに対応しており、タスクのうちの少なくとも1つのトレーニングタスクに対応するチャネルごとのマスクのうちの1つのチャネルごとのマスクを更新する、トレーニングモジュールを含む。
【発明の効果】
【0010】
上記を考慮して、本開示の1つ以上の実施形態は、エネルギースコアに基づくタスク認証型継続学習メカニズムを提供し、複数のタスクに対応する特徴マップは、ニューラルネットワークモデル内のチャネルごとのマスクによって分類されてサブモデルを決定し、以前に学習したタスクに対応するチャネルごとのマスクと共にニューラルネットワークモデルにより、損失関数に従って、他の以前のタスクに重要なニューラルネットワークパラメータが再度適用されるか否かを自動的に決定することを可能にし、ニューラルネットワークパラメータが適用されることで新しいタスクを最適化し、それにより、ニューラルネットワークモデルの再利用率を向上させ得る。従って、ニューラルネットワークモデルは、次のタスクを学習するためにより多くのニューロンを保持することが可能となり、サブモデル内の重要なパラメータを保存して、破滅的忘却を更に効果的に防ぐことができる。
【0011】
添付の図面は、本開示の更なる理解を提供するために含まれており、本明細書に組み込まれ、本明細書の一部を構成するものである。図面は、本開示の実施形態を示しており、本明細書と共に、本開示の原理を説明するのに役立つ。
【図面の簡単な説明】
【0012】
図1】本開示の一実施形態による、電子機器の概略図である。
図2】本開示の一実施形態による、機械学習方法における推論段階のフローチャートである。
図3】本開示の一実施形態による、機械学習方法におけるトレーニング段階のフローチャートである。
図4】本開示の一実施形態による、トレーニングモジュールが新しいタスクを学習していることを示す概略図である。
図5】本開示の一実施形態による、推論モジュールの動作の概略図である。
図6A】本開示の一実施形態による、ニューラルネットワークモデルのトレーニングの概略図である。
図6B】本開示の一実施形態における逆方向伝搬勾配による、タスクに対応するニューラルネットワークモデルおよびチャネルごとのマスクの更新の概略図である。
図7】本開示の別の実施形態による、タスクに対応するニューラルネットワークモデルおよびチャネルごとのマスクの動作の概略図である。
図8】本開示の別の実施形態による、ニューラルネットワークモデルの概略図である。
図9】本開示の一実施形態による、複数のタスクに関連付けられたトレーニングデータの概略図である。
【発明を実施するための形態】
【0013】
本開示で提供されるいくつかの実施形態を、添付の図面を参照して詳細に説明する。以下の説明における参照番号は、同じ参照番号が異なる図面に出現する場合、同じまたは類似の要素を指していると見なす。これらの実施形態は、本発明の一部にすぎず、本発明の全ての可能な実施形態が開示されているわけではない。より正確には、これらの実施形態は、特許請求の範囲において提供される範囲内の方法および装置の例示として役立つ。更に、可能な限り、図面および実施形態において同じ参照番号を有する要素/構成要素/ステップは、同じまたは類似の部分を示す。異なる実施形態において同じ参照番号または同じ用語によってマークされた要素/構成要素/ステップの関連する説明に対して、相互参照がなされ得る。
【0014】
図1は、本開示の一実施形態による電子機器の概略図である。電子機器10は、プロセッサ110および記憶媒体120を含む。
【0015】
電子機器10は、エッジ計算装置であってもよい。電子機器10は、埋め込み式プラットフォーム上に実装されたエッジ計算装置であってもよく、電子機器10は、人間の顔認識、アクセスコントロール、本人確認、デジタル監視、金融業界、小売業、無人店舗、スマートファクトリー、ドローン、機械的手術、医療診断等の様々なシナリオに適用される画像認識装置であってもよい。電子機器10は、デスクトップコンピュータ、ノートブックコンピュータ、サーバ、スマートフォン、またはタブレットコンピュータであってもよく、電子機器10のモデル番号、ブランド、およびオペレーティングシステムは、本開示において限定されるものとして解釈されるべきではない。
【0016】
プロセッサ110は、例えば、中央処理装置(CPU)または別の汎用または専用のプログラマブルマイクロコントロールユニット(MCU)、マイクロプロセッサ、デジタルシグナルプロセッサ(DSP)、プログラマブルコントローラ、特定用途向け統合型回路(ASIC)、グラフィックスプロセッシングユニット(GPU)、テンソルプロセッシングユニット(TPU)、イメージシグナルプロセッサ(ISP)、イメージプロセッシングユニット(IPU)、演算装置(ALU)、複雑なプログラマブルロジックデバイス(CPLD)、フィールドプログラマブルゲートアレイ(FPGA)、または他の同様の要素または上述した要素の組み合わせである。プロセッサ110は、記憶媒体120に結合されてもよく、記憶媒体120に記憶された複数のモジュールまたは様々なアプリケーションプログラムにアクセスして実行することができる。
【0017】
記憶媒体120は、例えば、任意のタイプの固定または移動可能なランダムアクセスメモリ(RAM)、読み取り専用メモリ(ROM)、フラッシュメモリ、ハードディスクドライブ(HDD)、ソリッドステートドライブ(SSD)、または同様のコンポーネントまたは上記のコンポーネントの組み合わせであり、プロセッサ110によって実行可能な複数のモジュール、コンピュータプログラム、または様々なアプリケーションプログラムを格納するように構成されている。この実施形態では、記憶媒体120に格納されているモジュールは、画像取り込みモジュール1201、推論モジュール1203、およびトレーニングモジュール1205を含み、これらの役割は以下で説明する。
【0018】
一実施形態では、電子機器10は、更に、画像取り込み装置130を含むことができる。プロセッサ110を画像取り込み装置130に結合することができる。画像取り込み装置130は、例えば、デジタルカメラ、カムコーダ、またはレンズおよび感光性素子を有するカメラレンズである。感光性素子は、レンズに入射する光の強度を感知するように機能し、それによって、画像を生成する。
【0019】
図2は、本開示の一実施形態による機械学習方法における推論段階のフローチャートである。図2に図示される機械学習方法は、図1に図示した電子機器10に適用可能である。図1および図2の両方を参照されたい。
【0020】
ステップS210において、画像取り込みモジュール1201が入力画像を取り込む。例えば、画像取り込みモジュール1201は、画像取り込み装置130を介して入力画像を取り込むか、データベースから入力画像を取り込むか、またはインターネットから入力画像を受信する。
【0021】
ステップS220において、推論モジュール1203が複数のサブモデルによって入力画像に対して特徴抽出を実行して、複数の特徴マップを取得する。具体的には、特徴抽出とは、元のデータセットにおける情報を保持しつつ、生データを処理可能な数値特徴に変換するプロセスを指す。例えば、画像データに対する特徴抽出は、画像の興味のある部分を、特徴マップとしても知られる数値特徴ベクトルまたは特徴マトリックスとして表す。各サブモデルが入力画像から入力画像の特徴を抽出し、画像の特徴を特徴マップとして表す。特徴マップは、限定されないが、一連の数値データ、データベクトル、またはデータマトリックスとして表すことができる。サブモデルは、複数のタスクに対応しており、かつサブモデルは、ニューラルネットワークモデルおよびニューラルネットワークモデル内の複数のチャネルごとのマスクによって決定されることに留意されたい。ステップS230において、推論モジュール1203が特徴マップを複数のエネルギースコアに変換する。ステップS240において、推論モジュール1203がエネルギースコアに従って、サブモデルからタスクのうちのターゲットタスクに対応するターゲットサブモデルを選択する。ステップS250において、推論モジュール1203がターゲットサブモデルによって、ターゲットタスクに対応する予測結果を出力する。
【0022】
図3は、本開示の一実施形態による機械学習方法におけるトレーニング段階のフローチャートである。図3に示される機械学習方法は、図1に示した電子機器10に適用可能である。図1および図3の両方を参照されたい。ステップS310において、トレーニングモジュール1205が複数のタスクに関連するトレーニングデータを受信する。トレーニングデータは、トレーニング画像と、トレーニング画像に対応するクラスラベルとを含む。クラスラベルは、タスクのうちのトレーニングタスクに対応することができる。ステップS320において、トレーニングモジュール1205がニューラルネットワークモデルおよび複数のチャネルごとのマスクに従って、トレーニング画像に対して特徴抽出を実行して、トレーニング特徴マップを取得する。ステップS330において、トレーニングモジュール1205がトレーニング特徴マップを特徴エネルギースコアに変換する。ステップS340において、トレーニングモジュール1205が、クラスラベル、チャネルごとのマスク、および特徴エネルギースコアに従って、損失関数を取得するよう計算する。損失関数の数値は、トレーニングデータのサンプルからクラスラベル、チャネルごとのマスク、および特徴エネルギースコアの実現に従って計算することができる。ステップS350において、トレーニングモジュール1205が損失関数に従って逆方向伝搬勾配を決定する。例えば、逆方向伝搬勾配は、ステップS340における損失関数の数値の計算結果によって決定される。具体的には、逆方向伝搬勾配とは、損失関数を最小化する値の方向を指す、損失関数の勾配を指す。ニューラルネットワークの場合、逆方向伝搬勾配とは、ニューラルネットワークの各層の重みに対する逆伝搬によって計算された損失関数の勾配を指す。ステップS360において、トレーニングモジュール1205が、逆方向伝搬勾配に従って、ニューラルネットワークモデルおよびチャネルごとのマスクを更新し、チャネルごとのマスクはタスクに対応しており、タスクのうちの少なくとも1つのトレーニングタスクに対応するチャネルごとのマスクのうちの1つのチャネルごとのマスクが更新される。
【0023】
例えば、電子機器10は、同じニューラルネットワークモデルを適用して、複数のタスク1、2、・・・、およびtの各々に対して継続学習を行うことができる。チャネルごとのマスクは、タスク1、2、・・・、およびtの各々に対応し得る。一実施形態では、トレーニングタスクがタスクtである場合、トレーニングモジュール1205は、タスクtに関連付けられたトレーニングデータを受信し、トレーニングデータは、タスクtに関連付けられたトレーニング画像と、トレーニング画像に対応するクラスラベルとを含む。クラスラベルは、タスクtのクラスに対応することができる(ステップS310)。トレーニングモジュール1205は、トレーニング画像に対して特徴抽出を実行することによって、ニューラルネットワークモデルおよびタスクtに対応するチャネルごとのマスクのうちの1つのチャネルごとのマスクに従って、トレーニング特徴マップを取得する(ステップS320)。トレーニングモジュール1205は、トレーニング特徴マップを特徴エネルギースコアに変換する(ステップS330)。トレーニングモジュール1205は、クラスラベル、タスクtに対応するチャネルごとのマスクのうちの特定のチャネルごとのマスク、および特徴エネルギースコアに従って、損失関数を取得するよう計算する(ステップS340)。損失関数の数値は、クラスラベル、タスクtに対応するチャネルごとのマスク、および特徴エネルギースコアの実現に従って、タスクtに関連付けられたトレーニングデータのサンプルから計算することができる。トレーニングモジュール1205は、損失関数に従って、タスクtに対応するチャネルごとのマスクのうちの特定のチャネルごとのマスクの逆方向伝搬勾配を決定する(ステップS350)。例えば、逆方向伝搬勾配は、ステップS340における損失関数の数値の計算結果によって決定される。トレーニングモジュール1205は、逆方向伝搬勾配に従って、ニューラルネットワークモデルおよびタスクtに対応するチャネルごとのマスクのうちの特定のチャネルごとのマスクを更新する(ステップS360)。従って、電子機器10がタスク1、2、・・・、およびtを学習した後、チャネルごとのマスクが同じニューラルネットワークモデルを、タスク1、2、・・・、およびtに対応する複数のサブモデルに分類することができる。
【0024】
図2に示される推論段階および図3に示されるトレーニング段階の実行順序は、本開示において限定的ではないことに言及する価値があるだろう。一実施形態では、タスクは、新しいタスクのトレーニングデータを含む。電子機器10は、最初に、図3に示されるトレーニング段階のステップを実行して、新しいタスクを学習してもよい。電子機器10が新しいタスクのためのトレーニング段階を完了すると、図2に示される推論段階のステップが実行されて、新しいタスクにてトレーニングされたチャネルごとのマスクおよびニューラルネットワークモデルに従って、入力画像を予測する。一実施形態では、電子機器10は、タスクについて事前トレーニングを完了した事前に格納されたニューラルネットワークモデルと、ニューラルネットワークモデルに対応するチャネルごとのマスクとに従って、図3に示す推論段階のステップを実行することができる。タスクに新しいタスクがある場合、電子機器10は、新しいタスクのトレーニングデータに従ってトレーニングを実行し、新しいタスクに対応するニューラルネットワークモデルおよびチャネルごとのマスクのうちの1つのチャネルごとのマスクを更新する。従って、本開示の1つ以上の実施形態に提供される電子機器10は、1つのニューラルネットワークを適用することによって、複数のタスクに対して継続学習を実行することで、複数のタスクの特徴を取り込む機能を達成し、特定のタスクのトレーニングデータに対してタスクベースの逐次学習を実行することで、以前のタスクを忘却することなく、新しいタスクを学習する効果を達成し、タスクを手動で割り当てなければならない従来の継続学習方法の制限を軽減する。
【0025】
一実施形態では、ニューラルネットワークモデルは、少なくとも1つの畳み込み層および少なくとも1つのバッチ正規化層を含む。一実施形態では、ニューラルネットワークモデルは、例えば、ResNet、VGG、またはMobileNet-v2のニューラルネットワークアーキテクチャである、畳み込みニューラルネットワークアーキテクチャであり得る。電子機器10は、例えば、エッジ計算装置である。一般に、エッジ計算装置のメモリ容量および計算能力には多くの制限があり、従来の共同学習は許可されないことが多い。本開示の1つ以上の実施形態で提供される機械学習では、タスクの入力データの中で、ニューラルネットワークアーキテクチャを変更することなく、ターゲットタスクが自動的に決定され、データの僅かな部分に対する連続的なトレーニングを通して継続学習を達成する。ハードウェア仕様がそれほど強力でないエッジ計算装置の場合、本開示の1つ以上の実施形態に従って、より省電力かつより高速な方法で、ディープネットワークラーニングを実行することができる。
【0026】
図4は、本開示の一実施形態に従って、トレーニングモジュールが新しいタスクを学習していることを示す概略図である。図4を参照すると、ステップS410において、電子機器10が新しいタスクのトレーニングデータを受信する。ステップS420において、トレーニングモジュール1205が、図3に示されるステップを実行して、新しいタスクのトレーニングデータに従って、ニューラルネットワークモデルNNおよびチャネルごとのマスクGSのパラメータを更新し、トレーニングを完了する。ステップS430において、現在のタスクに対するトレーニングが完了した後、次のタスクについてトレーニングを実行する必要がある場合、次のタスクに対して学習を実行する。
【0027】
具体的には、任意の新しいタスクのトレーニングデータについて、チャネルごとのマスクGSは、ニューラルネットワークモデルNNの一部が計算を実行しないように制限することができる。従って、ニューラルネットワークモデルNNおよびチャネルごとのマスクGSに従って、複数のサブモデルが決定され、サブモデルが重要なニューロンを介してトレーニングデータに対して特徴抽出を実行し、トレーニング特徴マップを取得する。トレーニングモジュール1205は、トレーニング特徴マップに従って、特徴エネルギースコアを計算する。次に、トレーニングモジュール1205が、トレーニングデータのクラスラベル、チャネルごとのマスク、および特徴エネルギースコアに従って、損失関数を決定する。損失関数により逆方向伝搬勾配が決定される。トレーニングモジュール1205が、逆方向伝搬勾配に従って、ニューラルネットワークモデルNNおよびチャネルごとのマスクGSを更新する。一実施形態では、逆方向伝搬勾配に従ってパラメータを更新するプロセスにおいて、チャネルごとのマスクGSは、タスク1、2、・・・、およびtに対応しており、タスク1、2、・・・、およびtの少なくとも1つのトレーニングタスクに対応するチャネルごとのマスクが更新される。逆方向伝搬勾配は、トレーニングプロセスにおけるパラメータの重要度を自動的に決定する。重要度が高い場合、対応するチャネルごとのマスクがアクティブ化され、アクティブ化されたチャネルごとのマスクが、ニューラルネットワークモデルNNのパラメータの一部を自己適応的に更新する。換言すると、電子機器10がタスク1、2、・・・、およびtを学習した後、チャネルごとのマスクGSは、同じニューラルネットワークモデルNNを、タスク1、2、・・・、およびtに対応する複数のサブモデルに分類することができる。
【0028】
本開示の一実施形態では、トレーニングモジュール1205が、複数のチャネルごとのマスクGSに基づいて、複数のアクティブ化パラメータを決定する。トレーニングモジュール1205が複数のアクティブ化パラメータに従って損失を計算した後、トレーニングモジュール1205は、損失に従って逆方向伝搬勾配を調整する。トレーニングモジュール1205が、調整された逆方向伝搬勾配に従って、ニューラルネットワークモデルNNおよびチャネルごとのマスクGSを更新する。一実施形態では、逆方向伝搬勾配に従ってパラメータを更新するプロセスにおいて、チャネルごとのマスクGSは、タスク1、2、・・・、およびtに対応しており、タスク1、2、・・・、およびtのうちの少なくとも1つのトレーニングタスクに対応するチャネルごとのマスクが更新される。
【0029】
本開示の一実施形態では、損失関数は、交差エントロピー誤差、チャネルごとのマスク分極正則化項、およびエネルギー損失を含む。
【0030】
本開示の一実施形態では、ニューラルネットワークモデルNNは、少なくとも1つの畳み込み層および少なくとも1つのバッチ正規化層を含み、チャネルごとのマスクGSはそれぞれ、少なくとも1つのバッチ正規化層のスケーリング係数を含む。一実施形態では、スケーリング係数の次元は、畳み込み層の次元と同じであり、各バッチ正規化層のスケーリング係数は、畳み込み層の対応する畳み込みカーネルに関連付けられている。本開示の一実施形態では、チャネルごとのマスク分極正則化項は、スケーリング係数に関連付けられている。
【0031】
本開示の一実施形態では、トレーニングモジュール1205は、トレーニング画像を少なくとも1つの畳み込み層に通して、入力特徴マップを取得する。トレーニングモジュール1205は、少なくとも1つのバッチ正規化層を介して、入力特徴マップおよび対応するスケーリング係数に対して正規化計算を実行することで、トレーニング特徴マップを取得する。
【0032】
図5は、本開示の一実施形態による推論モジュール1203の動作の概略図である。図5を参照すると、ステップS510において、推論モジュール1203が入力画像IMGを取り込む。具体的には、N個のチャネルごとのマスクGS_1、GS_2、・・・、およびGS_Nに対応するN個のタスク(Nは正の整数)を学習したニューラルネットワークモデルNNと、チャネルごとのマスクGS_1、GS_2、・・・、およびGS_Nとがそれぞれ、ニューラルネットワークモデルNNの一部を適用することによって、複数のタスクを計算できることを記録している。チャネルごとのマスクGS_1、GS_2、・・・、GS_NおよびニューラルネットワークモデルNNを使用して、複数のサブモデルSUB_1、SUB_2、・・・、およびSUB_Nによって入力画像IMGに対して特徴抽出が実行されることが決定されて、複数の特徴マップを取得する。
【0033】
本開示の1つ以上の実施形態では、サブモデルSUB_1、SUB_2、・・・、SUB_Nが同じニューラルネットワークモデルNNを共有することに留意されたい。即ち、チャネルごとのマスクGS_1、GS_2、・・・、およびGS_Nが、同じニューラルネットワークモデルNNをタスクに対応するサブモデルに分類する。
【0034】
ステップS520において、推論モジュール1203が、サブモデルSUB_1、SUB_2、・・・、およびSUB_Nによって、入力画像IMGに対して特徴抽出を実行して、複数の特徴マップを取得する。ステップS530において、推論モジュール1203が、サブモデルSUB_1、SUB_2、・・・、およびSUB_Nに対応する特徴マップを複数のエネルギースコアE_1、E_2、・・・、およびE_Nにそれぞれ変換する。エネルギースコアE_1、E_2、・・・、およびE_Nは、サブモデルSUB_1、SUB_2、・・・、およびSUB_Nの安定性を表すスカラーである。エネルギーに関して、スカラーが低いほど、サブモデルはより安定している。エネルギースコアE_1、E_2、・・・、およびE_Nは、タスク認識の効果を達成するように、入力画像IMGとサブモデルとの間の相関度を測定する。サブモデルSUB_1、SUB_2、・・・、およびSUB_Nは、タスクに対応している。
【0035】
ステップS540において、推論モジュール1203が、エネルギースコアE_1、E_2、・・・、およびE_Nに従って、サブモデルSUB_1、SUB_2、・・・、およびSUB_Nから、ターゲットタスクに対応するターゲットサブモデルを選択する。ターゲットタスクは、トレーニングが完了したタスクのうちの1つであり、かつターゲットタスクは、入力画像IMGを相対的に処理するタスクである。ターゲットサブモデルは、エネルギースコアE_1、E_2、・・・、およびE_Nに従って、ターゲットタスクに最も関連すると判定されたサブモデルのうちの1つである。
【0036】
本開示の一実施形態では、推論モジュール1203が、エネルギースコアE_1、E_2、・・・、およびE_Nの最小値に対応するサブモデルの1つをターゲットサブモデルとして選択する。いくつかの実施形態では、タスクは第1のタスクおよび第2のタスクを含むことができ、ターゲットサブモデルは、第1のタスクに対応するサブモデルまたは第2のタスクに対応するサブモデルであり得る。いくつかの実施形態では、ターゲットサブモデルは、タスクに対応するサブモデルの1つでもあり得る。
【0037】
ステップS550において、推論モジュール1203は、ターゲットサブモデルを介して、ターゲットタスクに対応する予測結果を出力する。一実施形態では、推論モジュール1203は、ターゲットサブモデルに対応する特徴マップを、ソフトマックス関数を介して、ターゲットタスクの予測クラスに対応する信頼度スコアに変換して、対応する予測結果を取得する。
【0038】
【0039】
【数1】
【0040】
【0041】
【0042】
【0043】
【0044】
【0045】
【0046】
エネルギースコアEは、次の数式(2)によって計算される。
【0047】
【数2】
【0048】
【0049】
【0050】
【数3】
【0051】
【0052】
エネルギー損失は、次の数式(4)によって計算される。
【0053】
【数4】
【0054】
【0055】
【数5】
【0056】
【0057】
【0058】
調整された逆方向伝搬勾配は、次の数式(6)によって計算される。
【0059】
【数6】
【0060】
【0061】

【0062】
図6Aおよび図6Bに記載の実施形態は、本開示にて提供される好ましい実施形態であり、バッチ正規化層のスケーリング係数を介して、タスクに対応するチャネルごとのマスクによって、自己適応的にタスクからターゲットタスクを識別する効果を達成することができる。しかしながら、本開示の精神および範囲から逸脱することなく、チャネルごとのマスクGSは、バッチ正規化層を介して実装されることに限定されないものとする。いくつかの実施形態では、チャネルごとのマスクGSは、複数の重要度係数を通じて、特徴マップに要素ごとの乗算を実行することによって実装されてもよい。
【0063】
図7は、本開示の別の実施形態による、タスクに対応するニューラルネットワークモデルおよびチャネルごとのマスクの操作の概略図である。本開示の一実施形態では、チャネルごとのマスクGSはそれぞれ、複数の重要度係数を含む。推論モジュール1203は、入力画像をニューラルネットワークモデルNNに通して、出力特徴マップを取得する。ステップS70において、推論モジュール1203は、出力特徴マップおよび重要度係数に対して要素ごとの乗算を実行して、特徴マップを取得する。ステップS71において、推論モジュール1203は、特徴マップに活性化関数を適用して、予測結果を取得する。
【0064】
重要度係数は、次の数式(7)によって計算される。
【0065】
【数7】
【0066】
本開示の一実施形態では、損失関数は重要度係数正則化項を含み、重要度係数正則化項は、重要度係数に関連付けられる。
【0067】
本開示の別の実施形態では、調整された逆方向伝搬勾配は、次の数式(8)によって計算される。
【0068】
【数8】
【0069】
図8は、本開示の別の実施形態によるニューラルネットワークモデルNNの概略図である。ニューラルネットワークモデルNNは、畳み込み層810およびバッチ正規化層820を含む。図7を併せて参照すると、重要度係数は、畳み込み層810の複数の畳み込みカーネルに関連付けられている。一実施形態では、ニューラルネットワークモデルNNは、例えば、ResNet、VGG、またはMobileNet-v2のニューラルネットワークアーキテクチャである畳み込みニューラルネットワークアーキテクチャであってもよい。図7および図8に示される実施形態では、チャネルごとのマスクGSは、複数の重要度係数による要素ごとの乗算を実行することで、ニューラルネットワークモデルNNのバッチ正規化層820に限定される、畳み込み層810のニューロンの重要なパラメータスクリーニングを達成することができることに留意されたい。
【0070】
図9は、本開示の一実施形態による、複数のタスクに関連付けられたトレーニングデータの概略図である。本開示の一実施形態では、機械学習方法を適用して、アクセスコントロールマネジメントに応答して、マスクを着用した人間の顔を認識する能力を高めることができる。例えば、マスクを着用した人間の顔の画像910および対応するクラスラベルは、トレーニングのための最初のタスクとして機能し得る。次に、ステップS90において、マスクを着用している人間の顔の別の画像920が、トレーニングのための新しいタスクとして機能している。この実施例において、本開示の1つ以上の実施形態で提供される機械学習方法は、以前のタスクのデータにアクセスする、または以前のタスクのデータを保存することなく、マスクを着用している人間の顔の新しい画像920のデータセットを新しいタスクとして取り扱うことができる。新しいタスクで更新されたチャネルごとのマスクは、トレーニングを通じて新しいタスクにとって重要な畳み込みニューロンを選択することができ、かつ新しいタスクは以前のタスクのパラメータを使用することを可能とする故、マスクを着用している人間の顔の画像の認識を学習するタスクは、マスクによってカバーされていない目、眉毛、および額に関連して、以前のタスクにおいて学習した特徴を適用することができる。口および鼻等の新しいタスクにおいて重要でないパラメータについては、最初のタスクにおける関連する畳み込みニューロンが、新しいタスクではアクティブ化されない。更に、以前のタスクモデルに重要でない畳み込みニューロンを適用して、マスクを着用した後の突出している鼻の影領域や、マスクによって遮断された人間の顔の投影面の輪郭またはプロファイル等、マスクを着用した人間の顔の詳細な特徴を学習する。
【0071】
本開示の一実施形態では、機械学習方法は、類似の商品を検索するように構成することができる。例えば、学習の最初のタスクが、春用の衣服やアクセサリーを特定することであるとする。その場合、季節ごとの衣替えの時期までに、新しい学習タスクは、冬用の衣服やアクセサリーを特定することであり、新しいタスクのトレーニングは、以前のタスクモデルのトレーニングに既に衣服の一般的な特徴が含まれている故に、冬用の衣服やアクセサリーの画像およびデータを使用して実行される。新しいタスクで更新されたチャネルごとのマスクは、トレーニングを通じて新しいタスクにとって重要な畳み込みニューロンを選択することができ、かつ新しいタスクは以前のタスクのパラメータを使用することを許可する故に、冬用の衣服およびアクセサリーの画像の識別を学習するタスクは、以前のタスクで学習した詳細な特徴(例えば、襟、袖、ボタン等)を適用することで、再利用率を改善し、電子機器のコンピューティング性能を向上させることができる。
【0072】
本開示の一実施形態では、機械学習方法は、スマートファクトリーによって製造されたプリント回路基板の表面に設置された要素の欠陥を検出するように構成することができる。例えば、学習の最初のタスクは、2つのクラス、即ち、正常および異常の画像を含む、第1のモデルの抵抗器の欠陥を区別することである。プリント回路基板に第2のモデルの抵抗器を追加的に設ける必要がある場合、第1のタスクに対応するニューラルネットワークモデルのトレーニングには、外観および欠陥等の抵抗器の特徴が含まれている故、第2のタスクにおいて更新された第2のモデルの抵抗器の画像およびデータを含むチャネルごとのマスクは、要素の外観やいくつかの一般的なオフセット欠陥等、第1のタスクから第2のタスクにとって重要な畳み込みニューロンを選択することができる。換言すると、新しいタスクでは、以前のタスクにとって重要な畳み込みカーネルが繰り返し使用され、以前のタスクにとって重要ではない畳み込みカーネルを適用して、第1のタスクに欠けている特徴を学習することができる。このように、以前のパラメータを効果的に使用することができ、新しいタスクにとって重要な欠陥の特徴を学習することができる。
【0073】
要約すると、本開示の1つ以上の実施形態は、エネルギースコアに基づくタスク認識型継続学習メカニズムを提供し、複数のタスクに対応する特徴マップは、ニューラルネットワークモデルのチャネルごとのマスクによって分類されることで、サブモデルを決定し、タスクに対応するチャネルごとのマスクと共にニューラルネットワークモデルが、別の以前のタスクにとって重要な畳み込みパラメータを、クロスタスク方式で、自動的に選択することを可能とし、以前のタスクによって使用されなかった畳み込みパラメータを適用して、新しいタスクおよび知識を学習する。最後に、損失関数を適用して逆方向伝搬勾配を決定して、新しいタスクを最適化し、それにより、ニューラルネットワークモデルの再利用率を向上させることができる。従って、ニューラルネットワークモデルは、次のタスクを学習するためにより多くのニューロンを保持することが可能となり、サブモデル内の重要なパラメータを保存して、破滅的忘却を更に効果的に防ぐことができる。
【0074】
本開示の範囲または精神から逸脱することなく、開示された実施形態に対して様々な修正および変更を行うことができることは、当業者には明らかであろう。上記を考慮して、本開示は、それらが以下の特許請求の範囲およびそれらの均等物の範囲内にあるという条件の下に、修正および変更をカバーすることが意図されている。
【産業上の利用可能性】
【0075】
本開示の継続学習のための機械学習方法および電子機器は、例えば、人間の顔認識、アクセスコントロール、本人確認、デジタル監視、金融産業、小売業、無人店舗、スマートファクトリー、ドローン、機械的手術、医療診断等に適用可能である。
【符号の説明】
【0076】
10:電子機器
110:プロセッサ
120:記憶媒体
1201:画像取り込みモジュール
1203:推論モジュール
1205:トレーニングモジュール
130:画像取り込み装置
IMG:画像
NN:ニューラルネットワークモデル
GS、GS_1、GS_2、GS_N:チャネルごとのマスク
SUB_1、SUB_2、SUB_N:サブモデル
S210、S220、S230、S240、S250、S310、S320、S330、S340、S350、S360、S410、S420、S430、S510、S520、S530、S540、S550、S60、S61、S62、S63、S70、S71、S90:ステップ
610、630、650、610´、630´、650´、820:バッチ正規化層
620、640、620´、640´、810:畳み込み層
910、920:画像
H:高さ
W:幅
図1
図2
図3
図4
図5
図6A
図6B
図7
図8
図9