IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ エスアールアイ インターナショナルの特許一覧

特開2024-86610半教師あり増分学習のためのモジュール化されたアーキテクチャの最適化
<>
  • 特開-半教師あり増分学習のためのモジュール化されたアーキテクチャの最適化 図1
  • 特開-半教師あり増分学習のためのモジュール化されたアーキテクチャの最適化 図2
  • 特開-半教師あり増分学習のためのモジュール化されたアーキテクチャの最適化 図3
  • 特開-半教師あり増分学習のためのモジュール化されたアーキテクチャの最適化 図4
  • 特開-半教師あり増分学習のためのモジュール化されたアーキテクチャの最適化 図5
  • 特開-半教師あり増分学習のためのモジュール化されたアーキテクチャの最適化 図6
  • 特開-半教師あり増分学習のためのモジュール化されたアーキテクチャの最適化 図7
  • 特開-半教師あり増分学習のためのモジュール化されたアーキテクチャの最適化 図8
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024086610
(43)【公開日】2024-06-27
(54)【発明の名称】半教師あり増分学習のためのモジュール化されたアーキテクチャの最適化
(51)【国際特許分類】
   G06N 20/00 20190101AFI20240620BHJP
   G06N 3/0895 20230101ALI20240620BHJP
【FI】
G06N20/00 130
G06N3/0895
【審査請求】有
【請求項の数】20
【出願形態】OL
【外国語出願】
(21)【出願番号】P 2023201995
(22)【出願日】2023-11-29
(31)【優先権主張番号】63/385,319
(32)【優先日】2022-11-29
(33)【優先権主張国・地域又は機関】US
(31)【優先権主張番号】63/447,559
(32)【優先日】2023-02-22
(33)【優先権主張国・地域又は機関】US
(31)【優先権主張番号】18/520,800
(32)【優先日】2023-11-28
(33)【優先権主張国・地域又は機関】US
(71)【出願人】
【識別番号】510119843
【氏名又は名称】エスアールアイ インターナショナル
(74)【代理人】
【識別番号】100099759
【弁理士】
【氏名又は名称】青木 篤
(74)【代理人】
【識別番号】100123582
【弁理士】
【氏名又は名称】三橋 真二
(74)【代理人】
【識別番号】100092624
【弁理士】
【氏名又は名称】鶴田 準一
(74)【代理人】
【識別番号】100114018
【弁理士】
【氏名又は名称】南山 知広
(74)【代理人】
【識別番号】100153729
【弁理士】
【氏名又は名称】森本 有一
(72)【発明者】
【氏名】チウ ハン-パン
(72)【発明者】
【氏名】イー ヤオ
(72)【発明者】
【氏名】ザカリー シーモア
(72)【発明者】
【氏名】アレックス クラスナー
(72)【発明者】
【氏名】ブラッドリー ジェイ.クライマー
(72)【発明者】
【氏名】マイケル エー.コグスウェル
(72)【発明者】
【氏名】セシール エリアーヌ ジャニーヌ マッケイ
(72)【発明者】
【氏名】アレックス シー.トッゾ
(72)【発明者】
【氏名】ティーシアオ シャン
(72)【発明者】
【氏名】フィリップ ミラー
(72)【発明者】
【氏名】チョアンヨン カン
(72)【発明者】
【氏名】グレン エー.マリー
(72)【発明者】
【氏名】リチャード ルイス フェランティ
(72)【発明者】
【氏名】ユマ ラジェンドラン
(72)【発明者】
【氏名】スプン サマラセケラ
(72)【発明者】
【氏名】ラケシュ クマール
(72)【発明者】
【氏名】ジェイムズ スミス
(57)【要約】      (修正有)
【課題】事前学習が十分に行えない状況に対処する機械学習フレームワークを提供する。
【解決手段】コンピューティングシステム100は、メモリ102と、通信を行う処理回路143と、を有する。処理回路は、少なくともデータ前処理モジュール114、タスク固有ネットワークモジュール116及びアーキテクチャ最適化モジュール120を有する機械学習システム104を実行する。機械学習システムは、一つ以上の機械学習モデル106をトレーニングする。データ前処理モジュールは、ストリーミング入力データに基づいて拡張入力データを生成する。タスク固有ネットワークモジュールは、増強された入力データに少なくとも部分的に基づいて特定のタスクを実行する機械学習モデルを有するアーキテクチャ最適化モジュールは、ストリーミング入力データの変化に基づいて一つ以上の機械学習モデルのネットワークアーキテクチャを適応させる。
【選択図】図1
【特許請求の範囲】
【請求項1】
記憶媒体と通信を行う処理回路であって、少なくとも第1のモジュール、第2のモジュール及び第3のモジュールを備える機械学習システムを実行するように構成され、前記機械学習システムは、一つ以上の機械学習モデルをトレーニングするように構成された、処理回路を備え、
前記第1のモジュールは、ストリーミング入力データに基づいて拡張入力データを生成するように構成され、
前記第2のモジュールは、前記拡張入力データに少なくとも部分的に基づいて特定のタスクを実行するように構成された機械学習モデルを備え、
前記第3のモジュールは、前記ストリーミング入力データの変化に基づいて前記一つ以上の機械学習モデルのネットワークアーキテクチャを適応させるように構成された、システム。
【請求項2】
前記ストリーミング入力データは、前記ストリーミング入力データにおいて表現される複数のクラス間のクラス不均衡を有するストリーミング入力データを含む、請求項1に記載のシステム。
【請求項3】
前記拡張入力データは、少数クラスの一つ以上の拡張サンプルを含む、請求項1に記載のシステム。
【請求項4】
前記機械学習システムは、一つ以上の半教師あり増分学習法を使用して前記一つ以上の機械学習モデルをトレーニングするように構成された、請求項1に記載のシステム。
【請求項5】
フォーマット変換操作、メタデータ導出操作又はデータ関連付け操作のうちの少なくとも一つを実行することによって、前記ストリーミング入力データを処理するように構成された一つ以上のモジュールを更に備える、請求項1に記載のシステム。
【請求項6】
前記第1のモジュールは、ダイナミックメモリリポジトリ(DMR)と、リプレイ生成人工知能(AI)アーキテクチャと、識別器/分類器と、を更に備え、
前記DMRは、一つ以上の代表的なデータサンプルを選択的に記憶するように構成され、
前記生成AIアーキテクチャは、前記DMRに記憶された前記一つ以上の代表的なデータサンプルに類似する一つ以上の新しいデータサンプルを生成するように構成され、
前記識別器/分類器は、前記生成AIアーキテクチャによって生成された前記一つ以上の新しいデータサンプルにおいて本物のデータと偽物のデータとを区別するように構成された、請求項1に記載のシステム。
【請求項7】
前記識別器/分類器は、前記DMRに記憶される前記一つ以上の新しいデータサンプルを選択するように更に構成された、請求項6記載のシステム。
【請求項8】
前記第3のモジュールは、トレーニングデータのセットと入力ストリーミングデータとのうちの少なくとも一方を使用して複数の候補タスクについてスーパーモデルをトレーニングするように更に構成され、トレーニングされた前記スーパーモデルに基づいて現在のタスクの最適アーキテクチャを推論するように構成された、請求項1に記載のシステム。
【請求項9】
前記第3のモジュールは、前記トレーニングデータに対する一つ以上のアーキテクチャの重みを最適化するように更に構成された、請求項8記載のシステム。
【請求項10】
第1のモジュールを使用して、ストリーミング入力データに基づいて拡張入力データを生成することと、
機械学習モデルを備える第2のモジュールを使用して、前記拡張入力データに少なくとも部分的に基づいて特定のタスクを実行することと、
第3のモジュールを使用して、前記ストリーミング入力データの変化に基づいて前記一つ以上の機械学習モデルのネットワークアーキテクチャを適応させることと、
を備える方法。
【請求項11】
前記ストリーミング入力データは、前記ストリーミング入力データにおいて表現される複数のクラス間のクラス不均衡を有するストリーミング入力データを含む、請求項10に記載の方法。
【請求項12】
前記拡張入力データは、少数クラスの一つ以上の拡張サンプルを含む、請求項10に記載の方法。
【請求項13】
前記機械学習システムは、一つ以上の半教師あり増分学習法を使用して前記一つ以上の機械学習モデルをトレーニングするように構成された、請求項10に記載の方法。
【請求項14】
一つ以上のモジュールを使用してフォーマット変換操作、メタデータ導出操作又はデータ関連付け操作のうちの少なくとも一つを実行することによって、前記ストリーミング入力データを処理することを更に備える、請求項10に記載の方法。
【請求項15】
ダイナミックメモリリポジトリ(DMR)に一つ以上の代表的なデータサンプルを選択的に記憶させることと、
生成的人工知能(AI)アーキテクチャを使用して、前記DMRに記憶された前記一つ以上の代表的なデータサンプルに類似する一つ以上の新しいデータサンプルを生成することと、
識別器/分類器を使用して、前記生成AIアーキテクチャによって生成された前記一つ以上の新しいデータサンプルにおいて本物のデータと偽のデータを区別することと、
を更に備える、請求項10に記載の方法。
【請求項16】
前記識別器/分類器を使用して、前記DMRに記憶される一つ以上の新しいデータサンプルを選択することを更に備える、請求項15に記載の方法。
【請求項17】
前記第3のモジュールを使用して、トレーニングデータのセットと入力ストリーミングデータとのうちの少なくとも一方を使用して複数の候補タスクについてスーパーモデルをトレーニングすることと、
トレーニングされた前記スーパーモデルに基づいて現在のタスクの最適アーキテクチャを推論することと、
を更に備える、請求項10に記載の方法。
【請求項18】
第3のモジュールを使用して、前記トレーニングデータに対する一つ以上のアーキテクチャの重みを最適化することを更に備える、請求項17に記載の方法。
【請求項19】
エンコードされた命令を有する非一時的なコンピュータ可読記憶媒体であって、前記命令は、
第1のモジュールを使用して、ストリーミング入力データに基づいて拡張入力データを生成することと、
機械学習モデルを備える第2のモジュールを使用して、前記拡張入力データに少なくとも部分的に基づいて特定のタスクを実行することと、
第3のモジュールを使用して、前記ストリーミング入力データの変化に基づいて前記一つ以上の機械学習モデルのネットワークアーキテクチャを適応させることと、
を処理回路に行わせるように構成された、非一時的なコンピュータ可読記憶媒体。
【請求項20】
前記ストリーミング入力データは、前記ストリーミング入力データにおいて表現される複数のクラス間のクラス不均衡を有するストリーミング入力データを含む、請求項19に記載の非一時的なコンピュータ可読記憶媒体。
【発明の詳細な説明】
【技術分野】
【0001】
本願は、2022年11月29日に出願された米国特許出願第63/385,319号及び2023年2月22日に出願された米国特許出願第63/447,559号の利益を主張するものであり、これらは参照によりその全体が本明細書に組み込まれる。
【0002】
政府の権利
本発明は、米国海軍NIWCアトランティックチャールストンから授与された契約番号N65236-20-C-8020の下で政府の支援を受けて行われた。政府は、本発明について一定の権利を有する。
【0003】
本開示は、機械学習システムに関する。
【背景技術】
【0004】
機械学習モデルをリアルタイムで学習させるのは計算コストがかかるので、機械学習モデルは、通常、大規模なデータセットに対してオフラインでトレーニングされる。モデルは、通常、トレーニングデータへの過剰適合を防止するために、トレーニングのためにオフラインで凍結される。過剰適合は、モデルがトレーニングデータの特定の詳細を学習しすぎた結果としてモデルが新しいデータに対して良好に汎化しないときに発生する。モデルは、通常、現実世界におけるオンラインデータの特性及び分布がオフラインデータと同一であるという前提で現実世界に展開される。しかしながら、必ずしもそうとは限らない。実世界のデータは、データの分布、ノイズレベル又は異常値の存在のような様々な点でオフラインデータとは異なる可能性がある。実世界のデータがオフラインのデータと異なる場合、モデルは良好に機能しない可能性がある。
【発明の概要】
【発明が解決しようとする課題】
【0005】
実際のアプリケーションでは、事前にトレーニングされたモデルを使用できるとは限らない。海事のような一部の領域では、オフラインでのデータ収集及びラベリングが困難な場合がある。その理由は、これらの領域でデータを収集するにはコスト及び時間を要するとともにデータにラベル付けする専門家を見つけるのが困難な場合があるからである。視覚(カメラ)以外のデータモダリティにも、あまり検討されていないもの及び新しいものがある。例えば、医療分野では、磁気共鳴画像(MRI)及びコンピュータ断層撮影(CT)スキャンのような医療画像モダリティからのデータを使用することへの関心が高まっている。しかしながら、これらのデータモダリティで利用可能な事前にトレーニングされたモデルは多くない。
【課題を解決するための手段】
【0006】
一般に、本開示は、フューショット学習、ハイブリッドリプレイ法及びアーキテクチャ最適化法を含むがそれに限定されないいくつかの新しい機能を有する機械学習フレームワークを使用する技術を説明する。フューショット学習は、機械学習モデルが新しいタスクを学習する又はわずかな例でトレーニングすることを可能にする技術である。フューショット学習は、大量のラベル付きデータを収集することが困難な実際のアプリケーションにおいて有用である。フューショット学習は、モデルを多数の例でトレーニングする従来の機械学習とは対照的である。機械学習モデルのトレーニングに利用可能なデータ量が増加するに従ってフューショット学習の重要性はますます高まっている。
【0007】
ハイブリッドリプレイ方法を、ハイブリッドリプレイモジュールによって実現してもよく、ハイブリッドリプレイモジュールは、限られた利用可能な実例を使用してクラスの拡張サンプルを生成することによってクラスの不均衡の問題に対処してもよい。ハイブリッドリプレイモジュールは、不均衡なクラスに対する機械学習モデルのパフォーマンスを向上させるのを助けるようにしてもよい。ハイブリッドリプレイモジュールは、クラス不均衡の問題に対処する技術である。クラス不均衡は、あるクラスの例が他のクラスより多い場合に発生する。クラス不均衡は、機械学習モデルが少数クラスを正確に分類することをトレーニングすることを困難にする可能性がある。アーキテクチャ最適化方法を、アーキテクチャ最適化モジュールによって実現してもよく、アーキテクチャ最適化モジュールは、推論のために進化したセンサデータに基づいてシステムの複雑性を自動的に適応させてもよい。アーキテクチャ最適化モジュールは、機械学習モデルのパフォーマンスを経時的に向上させるのを助けるようにしてもよい。アーキテクチャ最適化モジュールは、推論のために進化したセンサデータに基づいてシステムの複雑性を自動的に適応させてもよい。
【0008】
技術は、少なくとも一つの実用的応用を実現する一つ以上の技術的利点を提供してもよい。 例えば、ハイブリッドリプレイモジュールは、不均衡クラスに対する機械学習モデルのパフォーマンスを向上させるのを助けるようにしてもよい。タスク固有ネットワークは、機械学習モデルを少数の例でトレーニングすることを可能にする場合がある。開示された技術の利点の一部は、大量のラベル付きデータを収集することが困難な実際のアプリケーションにおいて有用である可能性がある。アーキテクチャ最適化モジュールは、推論のために進化したセンサデータに基づいてシステムの複雑さを自動的に適応させてもよい。アーキテクチャ最適化モジュールは、機械学習モデルのパフォーマンスを経時的に向上させるのを助けるようにしてもよい。
【0009】
上述した処理コンポーネントの組合せを、ライブストリーミングデータを使用して、ニューラルネットワークのようなものであるがそれに限定されない(一つ以上の)機械学習モデルをトレーニングするために使用してもよい。ライブストリーミングデータは、実際のアプリケーションにおける機械学習モデルのパフォーマンスを向上させる可能性がある比較的新しい概念である。開示された処理コンポーネントの組合せの追加的な利点は、リアルタイム推論、スケーラビリティ及びロバスト性を含むが、それに限定されない。有利なことに、機械学習モデルを、リアルタイムでトレーニング及び展開してもよく、それは、多くの実際のアプリケーションにとって重要である可能性がある。開示された技術は、大量のデータを扱うために拡張可能である。また、開示された技術は、データ分布の変化に対してロバストである。
【0010】
一例において、システムは、記憶媒体と通信を行う処理回路を有する。処理回路は、少なくとも第1のモジュール、第2のモジュール及び第3のモジュールを有する機械学習システムを実行するように構成される。機械学習システムは、一つ以上の機械学習モデルをトレーニングするように構成される。第1のモジュールは、ストリーミング入力データに基づいて拡張入力データを生成するように構成される。第2のモジュールは、増強された入力データに少なくとも部分的に基づいて特定のタスクを実行するように構成された機械学習モデルを有する。第3のモジュールは、ストリーミング入力データの変化に基づいて一つ以上の機械学習モデルのネットワークアーキテクチャを適応させるように構成される。
【0011】
一例において、方法は、第1のモジュールを使用して、ストリーミング入力データに基づいて拡張入力データを生成することと、機械学習モデルを備える第2のモジュールを使用して、拡張入力データに少なくとも部分的に基づいて特定のタスクを実行することと、第3のモジュールを使用して、ストリーミング入力データの変化に基づいて一つ以上の機械学習モデルのネットワークアーキテクチャを適応させることと、を有する。
【0012】
一例では、エンコードされた命令を有する非一時的なコンピュータ可読記憶媒体であって、命令は、第1のモジュールを使用して、ストリーミング入力データに基づいて拡張入力データを生成することと、機械学習モデルを備える第2のモジュールを使用して、拡張入力データに少なくとも部分的に基づいて特定のタスクを実行することと、第3のモジュールを使用して、ストリーミング入力データの変化に基づいて一つ以上の機械学習モデルのネットワークアーキテクチャを適応させることと、を処理回路に行わせるように構成される。
【0013】
本開示の技術の一つ以上の実施例の詳細は、添付の図面及び以下の説明に記載されている。本技術の他の特徴、目的及び利点は、説明及び図面並びに特許請求の範囲から明らかになる。
【図面の簡単な説明】
【0014】
図1図1は、本開示の技術による例示的なシステムを示すブロック図である。
【0015】
図2図2は、本開示の技術による半教師あり増分学習の例を示す概念図である。
【0016】
図3図3は、本開示の技術による例示的なハイブリッドリプレイ方法を示す概念図である。
【0017】
図4図4は、本開示の技術によるアーキテクチャ最適化方法の一例を示す概念図である。
【0018】
図5図5は、本開示の技術による増分微分可能アーキテクチャ探索(DARTS)最適化方法の例を示す概念図である。
【0019】
図6図6は、本開示に記載の技術によるハイブリッドリプレイモジュールの動作モードの一例を示すフローチャートである。
【0020】
図7図7は、本開示に記載の技術によるアーキテクチャ最適化モジュールの例示的な動作モードを示すフローチャートである。
【0021】
図8図8は、例示的な技術の態様を実現してもよい分散データ処理システムの例示的な図である。
【0022】
同様の参照文字は、図面及び説明全体を通して同様の要素を指す。
【発明を実施するための形態】
【0023】
従来の機械学習アプローチは、一般的に、モデルをトレーニングするために大量のラベル付きデータを必要とする。ラベル付きデータは、オフラインで収集されることがよくあり、その後、モデルが実世界に展開される。
【0024】
しかしながら、従来の機械学習技術は、いくつかの限界がある。海軍領域、宇宙領域、水中領域のような全ての領域において大量のラベル付きデータを収集することは現実的ではない。RF信号、レーダー、合成開口レーダー(SAR)のような利用可能なラベル付きデータが限られている新たに発生したデータモダリティも多い。同一のクラスのデータでも経時的に変化する可能性があり、したがって、オフラインのデータでトレーニングされたモデルは、新しいデータではうまく機能しない可能性がある。各アプリケーションが独自の要件を有するので、全てのアプリケーションに単一の事前学習モデルを使用することが常に実行可能であるとは限らない。
【0025】
本開示は、上述した課題に対処する新しい機械学習フレームワークを説明する。開示されたフレームワークは、ライブストリーミングデータを使用してリアルタイムで機械学習モデルをトレーニング及び展開するように設計されている。
【0026】
一態様において、開示されたフレームワークは、これを達成するために三つの処理モジュールの組合せを使用してもよい。三つの処理モジュールは、ハイブリッドリプレイモジュール、タスク固有モジュール及びアーキテクチャ最適化モジュールを含むが、それに限定されない。
【0027】
ハイブリッドリプレイモジュールは、少数クラスの拡張サンプルを生成することによって、限られたラベル付きデータの問題に対処してもよい。タスク固有ネットワークモジュールは、機械学習モデルを少数の例でトレーニングしてもよい。アーキテクチャ最適化モジュールは、推論のために進化したセンサデータに基づいてシステムの複雑さを自動的に適応させてもよい。有利なことに、上述した三つの処理モジュールの組合せにより、フレームワークは、オフラインの大量のラベル付きデータを必要とすることなく実際のアプリケーションのための機械学習モデルをトレーニングすることができる。開示されたフレームワークを実際のアプリケーションで使用することができる方法のいくつかの例は、以下の通りである。
【0028】
一例として、開示されたフレームワークを、レーダーデータを使用してリアルタイムで船舶を検出及び追跡するモデルをトレーニングするために使用することができる。別の例として、開示されたフレームワークは、衛星画像を使用してリアルタイムで物体を識別及び分類するモデルをトレーニングするために使用することができる。更に別の例として、開示されたフレームワークは、水中ビデオ映像を使用してリアルタイムで魚の種類を分類するモデルをトレーニングするために使用することができる。
【0029】
本開示の技術によれば、本開示は、利用可能なオフライントレーニングデータが限られている又は利用可能なオフライントレーニングデータがないときでもライブストリーミングデータを使用してリアルタイムで機械学習モデルをトレーニングするための新しいアプローチを説明する。開示された技術は、in-situアルゴリズムトレーニングとして知られている。in-situアルゴリズムトレーニングは、従来の機械学習技術に対していくつかの利点を有する。
【0030】
in-situアルゴリズムトレーニングは、モデルが生成されるときにモデルがライブデータでトレーニングされるために更に高速で効率的である可能性がある。in-situアルゴリズムトレーニングは、モデルが常に新しいデータで更新されるためにデータ分布の変化に対して更にロバストである可能性がある。in-situアルゴリズムトレーニングを、オフライントレーニングデータが利用できない又はオフライントレーニングデータを収集することが現実的でないアプリケーションのモデルをトレーニングするために使用してもよい。
【0031】
本開示は、ライブストリーミングデータにおけるクラス不均衡の問題に対処するために使用されるハイブリッドリプレイモジュールについても説明する。クラス不均衡は、あるクラスの例が他のクラスよりも多い場合に発生する可能性がある。クラス不均衡は、機械学習モデルが少数クラスを正確に分類することをトレーニングすることを困難にする可能性がある。一態様において、ハイブリッドリプレイモジュールは、少数クラスの拡張サンプルを生成することによって機能してもよい。一態様において、少数クラスのそのような拡張サンプルを、データ拡張又は合成データ生成のようなものであるがそれに限定されない技術を使用して生成してもよい。そして、拡張サンプルをトレーニングデータセットに追加してもよく、それによって、少数クラスに対するモデルの性能を向上させるのを助けるようにしてもよい。
【0032】
本開示は、推論のために進化したセンサデータに基づいてシステムの複雑さを自動的に適応させるために使用してもよいアーキテクチャ最適化モジュールについても説明する。そのような適応は、モデルが所望の精度のレベルを達成するためにモデルが常に最適な量のリソースを使用していることを保証するのを助けるようにしてもよい。全体として、本開示は、ライブストリーミングデータを使用してリアルタイムで機械学習モデルをトレーニングするための有望な新しいアプローチを説明する。開示された技術は、機械学習が多くの異なるアプリケーションで使用される方法に革命をもたらす可能性がある。in-situアルゴリズムトレーニングを実際のアプリケーションで使用することができる方法のいくつかの例は、以下の通りである。in-situアルゴリズムトレーニングを、金融機関からのライブデータを使用してリアルタイムで不正取引を検出するモデルをトレーニングするために使用することができる。in-situアルゴリズムトレーニングを、医療機器からのライブデータを使用してリアルタイムで病気を診断するモデルをトレーニングするために使用することができる。in-situアルゴリズムトレーニングを、機械のセンサからのライブデータを使用して機械が故障しそうなときを予測するモデルをトレーニングするために使用することもできる。
【0033】
一態様において、データ前処理モジュールは、トレーニング及び評価のためにデータを準備する役割を担う機械学習パイプラインのオプションの構成要素であってもよい。データ前処理モジュールは、フォーマット変換、メタデータ導出及びデータ関連付けの三つの主要機能のインタフェースを提供してもよいフォーマット変換機能は、データを、(一つ以上の)モデルのトレーニングに使用してもよい機械学習アルゴリズムと互換性のあるフォーマットに変換してもよい。
【0034】
図1は、例示的なコンピューティングシステム100を示すブロック図である。示すように、コンピューティングシステム100は、データ前処理モジュール114、タスク固有ネットワークモジュール116、ハイブリッドリプレイモジュール118及びアーキテクチャ最適化モジュール120を含むがそれに限定されない一つ以上のモジュールを有する機械学習システム104を実行するための処理回路143及びメモリ102を備える。さらに、タスク固有モジュール116は、一つ以上の機械学習モデル106を有してもよい。MLモデル106は、再帰型ニューラルネットワーク(RNN)、畳み込みニューラルネットワーク(CNN)、ディープニューラルネットワーク(DNN)のようなものであるがそれに限定されない様々なタイプのニューラルネットワークを備えてもよい。
【0035】
コンピューティングシステム100を、本開示の一つ以上の態様に従って説明される動作及び/又は機能を実行することが可能であってもよい一つ以上のサーバコンピュータ、ワークステーション、ラップトップ、メインフレーム、アプライアンス、クラウドコンピューティングシステム、高性能コンピューティング(HPC)システム(すなわち、スーパーコンピューティング)及び/又は他のコンピューティングシステムのような任意の適切なコンピューティングシステムとして実現してもよい。 いくつかの例では、コンピューティングシステム100は、クライアントデバイス及び他のデバイス又はシステムにサービスを提供するクラウドコンピューティングシステム、サーバファーム及び/又はサーバクラスタ(又はその一部)を表してもよい。 他の例では、コンピューティングシステム100は、データセンター、クラウドコンピューティングシステム、サーバファーム及び/又はサーバクラスタの一つ以上の仮想化されたコンピュートインスタンス(例えば、仮想マシン、コンテナ等)を表してもよい、又は、それを通じてコンピューティングシステム100実現してもよい。
【0036】
本開示において説明される技術を、少なくとも部分的に、ハードウェア、ソフトウェア、ファームウェア又はその任意の組合せにおいて実現してもよい。例えば、説明される技術の様々な態様を、コンピューティングシステム100の処理回路143内で実現してもよく、処理回路143は、マイクロプロセッサ、コントローラ、デジタルシグナルプロセッサ(DSP)、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)又は同等のディスクリート若しくは集積論理回路又は他のタイプの処理回路のうちの一つ以上を有してもよい。コンピューティングシステム100の処理回路143は、コンピューティングシステム100に関連する機能を実現してもよい、及び/又は、コンピューティングシステム100に関連する命令を実行してもよい。コンピューティングシステム100は、コンピューティングシステム100に存在する及び/又はコンピューティングシステム100で実行されるソフトウェア、ハードウェア、ファームウェア、又は、ハードウェア、ソフトウェア及びファームウェアの混合物を使用して本開示の一つ以上の態様に従って動作を実行するために処理回路143を使用してもよい。「プロセッサ」又は「処理回路」という用語は、一般に、単独で又は他の論理回路と組み合わせて上述した論理回路のいずれか又は他の同等の回路を指すことがある。ハードウェアを備える制御ユニットは、本開示の技術の一つ以上を実行してもよい。
【0037】
別の例では、コンピューティングシステム100は、デスクトップコンピュータ、ラップトップコンピュータ、ゲーム機、スマートテレビ、ハンドヘルドデバイス、タブレット、携帯電話、スマートフォン等のような一つ以上のコンピューティングデバイスを有する任意の適切なコンピューティングシステムをそなえる。いくつかの例では、システム100の少なくとも一部は、クラウドコンピューティングシステム、データセンター又はネットワークに分散され、ネットワークは、例えば、コンピューティングシステム、サーバ及びコンピューティングデバイス間でデータを伝送するためのインターネット、別の公衆通信ネットワーク又は専用通信ネットワークであり、これらは、例えば、ブロードバンド、セルラー、Wi-Fi(登録商標)、ZigBee(登録商標)、Bluetooth(登録商標)(又は他のパーソナルエリアネットワーク-PAN)、近距離無線通信(NFC)、ウルトラワイドバンド、衛星、エンタープライズ、サービスプロバイダ及び/又は他のタイプの通信ネットワーク等である。
【0038】
メモリ102は、一つ以上の記憶装置を備えてもよい。コンピューティングシステム100の一つ以上の構成要素(例えば、処理回路143、メモリ102、データ前処理モジュール114、タスク固有ネットワークモジュール116、ハイブリッドリプレイモジュール118及びアーキテクチャ最適化モジュール120)を、構成要素間の通信を(物理的、通信的及び/又は動作的に)可能にするように相互接続してもよい。いくつかの例では、そのような接続を、システムバス、ネットワーク接続、プロセス間通信データ構造、ローカルエリアネットワーク、ワイドエリアネットワーク又はデータの通信を行うための任意の他の方法によって提供してもよい。 メモリ102の一つ以上の記憶装置を、複数の装置の間に分散してもよい。
【0039】
メモリ102は、コンピューティングシステム100の動作中に処理するための情報を記憶してもよい。いくつかの例では、メモリ102は、一時的なメモリを備え、これは、メモリ102の一つ以上の記憶装置の主な目的が長期記憶ではないことを意味する。メモリ102を、情報の短期記憶のために揮発性メモリとして構成してもよく、したがって、動作を停止させた場合、記憶された内容を保持しない。揮発性メモリの例は、ランダムアクセスメモリ(RAM)、ダイナミックランダムアクセスメモリ(DRAM)、スタティックランダムアクセスメモリ(SRAM)及び当該技術分野で知られている他の形態の揮発性メモリを含む。メモリ102は、いくつかの例では、一つ以上のコンピュータ可読記憶媒体も含んでもよい。メモリ102を、揮発性メモリよりも大容量の情報を記憶するように構成してもよい。メモリ102を、情報の長期記憶のために不揮発性メモリ空間として構成するとともに動作/オフサイクル後に情報を保持してもよい。不揮発性メモリの例は、磁気ハードディスク、光ディスク、フラッシュメモリ又は電気的にプログラム可能なメモリ(EPROM)若しくは電気的に消去可能かつプログラム可能な(EEPROM)メモリの形態を含む。メモリ102は、本開示の一つ以上の態様に従って説明されるモジュールの一つ以上に関連するプログラム命令及び/又はデータを記憶してもよい。
【0040】
処理回路143及びメモリ102は、一つ以上のモジュール又はユニット(例えば、データ前処理モジュール114、タスク固有ネットワークモジュール116、ハイブリッドリプレイモジュール118及びアーキテクチャ最適化モジュール120)のための動作環境又はプラットフォームを提供してもよく、動作環境又はプラットフォームを、ソフトウェアとして実現してもよいが、いくつかの例では、動作環境又はプラットフォームは、ハードウェア、ファームウェア及びソフトウェアの任意の組合せを含む。処理回路143は、命令を実行してもよく、一つ以上の記憶装置、例えば、メモリ102は、一つ以上のモジュールの命令及び/又はデータを記憶してもよい。処理回路143及びメモリ102の組合せは、一つ以上のアプリケーション、モジュール又はソフトウェアの命令及び/又はデータの検索、記憶及び/又は実行を行ってもよい。処理回路143及び/又はメモリ102を、図1に示す構成要素のうちの一つ以上を含むがそれに限定されない一つ以上の他のソフトウェア及び/又はハードウェア構成要素に動作可能に結合してもよい。
【0041】
処理回路143は、基礎となるハードウェアで実行される仮想マシン又はコンテナのような仮想化モジュールを使用して機械学習システム104を実行してもよい。 そのようなモジュールの一つ以上を、オペレーティングシステム又はコンピューティングプラットフォームの一つ以上のサービスとして実行してもよい。 機械学習システム104の態様を、コンピューティングプラットフォームのアプリケーション層で一つ以上の実行可能プログラムとして実行してもよい。
【0042】
コンピューティングシステム100の一つ以上の入力装置144は、入力を生成、受信又は処理してもよい。そのような入力は、キーボード、ポインティングデバイス、音声応答システム、ビデオカメラ、バイオメトリック検出/応答システム、ボタン、センサ、モバイルデバイス、制御パッド、マイクロフォン、プレゼンスセンシティブスクリーン、ネットワーク又は人間若しくは機械からの入力を検出するための任意の他のタイプのデバイスからの入力を含んでもよい。
【0043】
一つ以上の出力装置146は、出力を生成、送信又は処理してもよい。 出力の例は、触覚、音声、視覚及び/又はビデオ出力である。出力装置146は、ディスプレイ、サウンドカード、ビデオグラフィックスアダプタカード、スピーカ、プレゼンスセンシティブスクリーン、一つ以上のUSBインタフェース、ビデオ及び/又はオーディオ出力インタフェース又は触覚、オーディオ、ビデオ若しくは他の出力を生成することができる任意の他のタイプのデバイスを含んでもよい。 出力装置146は、液晶ディスプレイ(LCD)、量子ドットディスプレイ、ドットマトリクスディスプレイ、発光ダイオード(LED)ディスプレイ、有機発光ダイオード(OLED)ディスプレイ、陰極線管(CRT)ディスプレイ、eインク又はモノクロ、カラー又は触覚、音声及び/又は視覚出力を生成することができる任意の他のタイプのディスプレイを含む技術を使用して出力装置として機能してもよい表示装置を含んでもよい。 いくつかの例では、コンピューティングシステム100は、一つ以上の入力装置144と一つ以上の出力装置146の両方として動作するユーザインタフェースデバイスとして機能してもよいプレゼンスセンシティブディスプレイを含んでもよい。
【0044】
コンピューティングシステム100の一つ以上の通信装置145は、データを送信及び/又は受信することによってコンピューティングシステム100の外部のデバイスと(又はコンピューティングシステム100の別々のコンピューティングデバイス間で)通信を行ってもよく、いくつかの点で、入力装置及び出力装置の両方として動作してもよい。 いくつかの例では、通信装置145は、ネットワークを通じて他のデバイスと通信を行ってもよい。 他の例では、通信装置145は、セルラー無線ネットワークのような無線ネットワークで無線信号を送信及び/又は受信してもよい。 通信装置145の例は、(例えば、イーサネット(登録商標)カードのような)ネットワークインターフェースカード、光トランシーバ、無線周波数トランシーバ、GPS受信機又は情報を送信及び/又は受信することができる任意の他のタイプのデバイスを含んでもよい。 通信装置145の他の例は、携帯機器に見られるBluetooth(登録商標)、GPS、3G、4G及びWi-Fi(登録商標)無線並びにユニバーサルシリアルバス(USB)コントローラ等を含んでもよい。
【0045】
図1の例では、データ前処理モジュール114は、入力データセット110から入力データを受信するとともに出力データ112を生成してもよい。 入力データ110及び出力データ112は、様々なタイプの情報を含んでもよい。例えば、入力データ110は、ライブストリーミング取引データ(ストリーミングデータ122)を含んでもよい。さらに、データ前処理コンポーネント114は、(ハイブリッドリプレイ118から出力された)生成データ123と統合してタスク固有ネットワークモジュール116及びアーキテクチャ最適化モジュール120に宛てた拡張データ124を生成するためにストリーミングデータ122を出力してもよい。タスク固有ネットワークモジュール116は、出力データ112の一部であってもよい干渉出力(例えば、分類、検出、認識、セグメンテーション又は予測)を出力してもよい。
【0046】
上述したように、MLモデル106は、対応する層のセットを備えるRNN、CNN及びDNNのようなものあるがそれに限定されない様々なタイプのニューラルネットワークを備えてもよい。層108の各セットは、人工ニューロンのそれぞれのセットを有してもよい。層108は、例えば、入力層、フィーチャー層、出力層及び一つ以上の隠れ層を有してもよい。層108は、完全連結層、畳み込み層、プーリング層及び/又は他のタイプの層を有してもよい。完全連結層では、前の層の各ニューロンの出力が完全連結層の各ニューロンの入力を形成する。畳み込み層では、畳み込み層の各ニューロンがそのニューロンの受容野に関連するニューロンからの入力を処理する。プーリング層は、ある層のニューロンクラスターの出力を次の層の単一ニューロンに結合する。
【0047】
層のセットの各層の各人工ニューロンの各入力を、重み126の対応する重みに関連付けてもよい。様々な活性化関数は、正規化線形ユニット(ReLU)、TanH、シグモイド等のように当技術分野で知られている。
【0048】
MLシステム104は、本明細書で説明する技術に従ってMLモデル106をトレーニングするためにトレーニングデータ113を処理してもよい。 例えば、機械学習システム104は、トレーニングデータ113を処理することを含むエンドツーエンドトレーニング方法を適用してもよい。 機械学習システム104は、以下に説明するように、推論データ(出力データ112)を生成するためにストリーミングデータ122を含んでもよい入力データ110を処理してもよい。
【0049】
一態様において、機械学習システム104は、入力データ110によって提示される潜在的なクラス不均衡の問題を解消しながら迅速かつ正確な結果を生成してもよい。機械学習システム104を、ライブストリーミングデータ122が経時的に進化することができる実際のアプリケーションに使用されるように構成してもよい。データ前処理モジュール114は、ライブストリーミングデータ122を、MLモデル106をトレーニングするために使用される機械学習アルゴリズムと互換性のある形式に変換してもよい。データ前処理モジュール114は、入力データ110からメタデータを抽出してもよい。一態様では、タスク固有ネットワークモジュール116は、画像の分類、物体の検出、画像の生成又はテキストの生成のようなものであるがそれに限定されない特定のタスクを実行するように構成された機械学習モデルであってもよい。タスク固有ネットワークモジュール116を、フューショット学習技術、半教師あり学習及び自己教師あり学習の組合せを使用してトレーニングしてもよい。そのようなトレーニング技術により、利用可能な学習データ113が限られているときでもタスク固有ネットワークモジュール116がタスクを正確に実行することを学習できるようにしてもよい。
【0050】
一態様において、ハイブリッドリプレイモジュール118を、実際のストリーミングデータ122を拡張するために選択的記憶と生成ネットワークとの組合せを使用するように構成してもよい。ハイブリッドリプレイモジュール118は、クラス不均衡の問題に対処するのを助けるようにしてもよく、機械学習モデル106がトレーニングデータ113に過剰適合するのを防止するようにしてもよい。
【0051】
一態様において、アーキテクチャ最適化モジュール120を、タスク固有ネットワーク116のネットワークアーキテクチャを適応させるとともにストリーミングデータ122の増大し続ける複雑さに基づいてリプレイモードを適応させるように構成してもよい。アーキテクチャ最適化モジュール120は、MLモデル106の出力の精度を向上させるのを助けるようにしてもよい。
【0052】
要約すると、機械学習システム104を、最初にライブストリーミングデータ122を前処理するように構成してもよい。一態様において、データ前処理モジュール114は、入力データ110をタスク固有ネットワークモジュール116と互換性のあるフォーマットに変換してもよく、入力データ110からメタデータを抽出してもよい。タスク固有ネットワークモジュール116を、フューショット学習法、半教師あり学習及び自己教師あり学習の組合せを使用して、前処理されたデータにおいてトレーニングしてもよい。ハイブリッドリプレイモジュール118を、実際のストリーミングデータ122を拡張するために使用してもよく、ハイブリッドリプレイモジュール118は、拡張データ124を生成してもよい。ハイブリッドリプレイモジュール118は、クラス不均衡の問題に対処するのを助けてもよく、MLモデル106がトレーニングデータ113に過剰適合するのを防止してもよい。最後に、アーキテクチャ最適化モジュール120は、タスク固有ネットワークモジュール116のネットワークアーキテクチャを適応させてもよく、ストリーミングデータ122の増大し続ける複雑さに基づいてリプレイモードを適応させてもよい。アーキテクチャ最適化モジュール120は、MLモデル106の出力の精度を向上させるのを助けてもよい。
【0053】
説明した機械学習システム104は、従来の機械学習技術を超える複数の利点を有することがある。機械学習システム104は、利用可能なトレーニングデータ113が限られている又は利用可能なトレーニングデータ113がないときでも迅速かつ正確な結果を生成してもよい。別の利点として、機械学習システム104は、クラス不均衡に対してロバストであってもよく、トレーニングデータ113に対する過剰適合を回避してもよい。更に別の利点として、機械学習システム104は、経時的なデータ分布の変化に適応できるようにしてもよい。
【0054】
一態様では、開示された技術により、機械学習システム104が詐欺検出、医療診断及び予測保守のようなものであるがそれに限定されない実際のアプリケーションに適合する。機械学習システム104を、金融機関からのライブ入力データ110(例えば、ストリーミングデータ122)を使用してリアルタイムで不正取引を検出するためにMLモデル106をトレーニングするのに使用することができる。機械学習システム104を、医療機器からのライブ入力データ110を使用してリアルタイムで病気を診断するためにMLモデル106をトレーニングするのに使用することができる。更に別の非限定的な例として、機械学習システム104は、機械のセンサからのライブ入力データ110を使用して機械がいつ故障しそうかを予測するためにMLモデル106をトレーニングするのに使用することができる。
【0055】
有利なことに、ライブストリーミングデータを使用してMLモデル106をトレーニングするためのハイブリッドリプレイモジュール118、タスク固有ネットワークモジュール116及びアーキテクチャ最適化モジュール120の組合せは、当該技術分野において現在知られていない新規な概念である。従来の機械学習技術は、モデルをトレーニングするために、一般的に、大量のラベル付きデータを必要とする。そのようなラベル付きデータは、オフラインで収集されることがよくあり、その後、モデルが実世界に展開される。
【0056】
しかしながら、従来の機械学習技術にはいくつかの限界がある。例えば、海軍領域、宇宙領域及び水中領域のような全ての領域において、大量のラベル付きデータを収集することは現実的でない場合がある。
【0057】
本開示の技術によれば、機械学習システム104は、実際のアプリケーションにおける機械学習モデルのトレーニング及び配備の課題に対処するいくつかの新しい能力を有してもよい。例えば、フューショット学習は、機械学習システム104を少数の例でトレーニングすることを可能にする技術である。このタイプのトレーニングは、大量のラベル付きデータを収集することが困難である又はコストがかかる実際のアプリケーションに有用である。別の非限定的な例として、ハイブリッドリプレイモジュール118は、クラス不均衡の問題に対処する技術であるハイブリッドリプレイ技術を実現してもよい。クラス不均衡は、あるクラスの例が他のクラスよりも多いときに発生する。
【0058】
有利なことに、本開示が、ライブストリーミングデータ122を使用してリアルタイムで機械学習モデルをトレーニング及び展開してもよい新たな機械学習フレームワークについて記載しているので、本開示の技術的態様は、長期学習システム又は新たなデータ領域におけるアプリケーションが予めオフラインで大量のトレーニングデータを収集するための手作業を回避又は最小化することを可能にする。これを達成するために、上述したように、開示されたフレームワークは、上述した三つの技術、すなわち、フューショット学習、ハイブリッドリプレイ及びアーキテクチャ最適化の組合せを使用する。例えば、クラス不均衡により機械学習システム104が少数クラスを正確に分類することを学習するのが困難になる場合がある。ハイブリッドリプレイ技術は、少数クラスの拡張サンプルを生成することによって機能する。そのような拡張サンプルは、少数クラスに対するモデルの性能を向上させるのを助けてもよい。アーキテクチャ最適化技術は、データに基づいて機械学習モデルの複雑さを自動的に適応させる。そのような最適化は、経時的にデータ分布が変化する可能性のある実際のアプリケーションに有用である。
【0059】
一態様において、データ前処理モジュール114は、(ハイブリッドリプレイモジュール118から出力された)生成データ(参照記号#)と統合してタスク固有ネットワークモジュール116及びアーキテクチャ最適化モジュール120に宛てた拡張データ124を生成するために、ストリーミングデータ122を出力してもよい。アーキテクチャ最適化モジュール120は、選択したコンポーネントをハイブリッドリプレイモジュール118とタスク固有ネットワークモジュール116の両方に出力してもよい。タスク固有ネットワークモジュール116は、新しいデータを決定するために古いデータからデータ及び/又は特徴を汎化することによる新しい/未知のデータの自動結果生成のための(本明細書では「フューショット技術」とも呼ばれる)フューショット学習を使用してもよい。フューショット学習技術を使用することにより、タスク固有ネットワークモジュール116は、例えば、ユーザが少量のライブストリーミングデータ122をラベル付けした後、リアルタイムで迅速かつ正確な推論出力を生成することができ、それにより、当該技術分野において従来知られていたオフライン学習技術を回避する。推論データの信頼度スコアを、ハイブリッドリプレイモジュール118に出力してもよい。
【0060】
さらに、タスク固有ネットワークモジュール116を、クラス不均衡を有するライブストリーミング入力データを使用してトレーニングしてもよい。一態様において、ライブストリーミング入力データにおけるクラス不均衡を解消するために使用してもよい技術は、以下に説明する自己教師あり学習、半教師あり学習及び推論結果の較正を含んでもよいがそれに限定されない。例えば、自己教師あり学習は、機械学習システム104がラベル付きデータを必要とすることなく学習することを可能にする技術である。
【0061】
半教師あり学習は、(図2に示すように)教師あり学習モジュール、自己教師あり学習モジュール、オンライン学習モジュール、オンライン予測モジュール及び予測蓄積モジュールを含んでもよい。教師あり学習モジュールを、ラベル付きデータ上でMLモデル106をトレーニングするために使用されてもよい。ラベル付きデータは、専門家ユーザによってラベルで注釈が付けられたデータであってもよい。教師あり学習モジュールは、入力データ110と出力ラベルとの間の関係を学習するためにラベル付きデータを使用してもよい。自己教師あり学習モジュールは、ラベル付けされていないデータでMLモデル106をトレーニングするために使用される。ラベル付けされていないデータは、専門家ユーザによってラベルで注釈が付けられていないデータであってもよい。
【0062】
ハイブリッドリプレイモジュール118は、特に稀ではあるが重要なクラスについて、潜在的なクラス不均衡の問題に対処してもよい。ハイブリッドリプレイモジュール118は、1)拡張サンプルを生成する方法、2)現在のトレーニングバッチデータを拡張する方法及び3)サンプルの多様性を最大化する方法を含むがそれに限定されない多くの方法で上述したクラス不均衡の問題に対処してもよい。例えば、ハイブリッドリプレイモジュール118は、利用可能な例が限られているクラスの拡張サンプル(例えば、拡張データ124)を生成するために様々な技術を使用してもよい。一態様において、変分オートエンコーダ、生成的敵対ネットワーク又は従来のサンプルベースの拡張技術を使用して拡張サンプルを生成してもよい。
【0063】
MLモデル106は、データに基づいてトレーニングされる。データが不完全又は不正確な場合、対応するモデルを正確にトレーニングすることができない。機械学習における課題の一つは、データが不完全又は不正確であることがよくあることである。上述した課題は、トレーニングデータの稀な例、破滅的忘却、大量の事前データの記憶、高リスク低確率事象のようなものであるがそれに限定されないの多くの要因による場合がある。例えば、いくつかの例は、トレーニングデータ113において稀なことある。そのような稀な例は、MLモデル106がこれらの例を正確に分類することを学習することを困難にする可能性がある。
【0064】
一態様において、ハイブリッドリプレイモジュール118は、例えば、リプレイメモリ及びリプレイ生成人工知能(AI)アーキテクチャを使用することによって、上記例を実施するための方法を実現してもよい。リプレイメモリは、代表的なラベル付けサンプルと固定サイズのダイナミックバッファの(関連するメタデータを含む)まだラベル付けされていないトラックとを混合したものを記憶するデータ構造であってもよい。リプレイメモリを、トレーニングデータ113から最も有用で代表的な例を記憶するために使用してもよい。リプレイメモリは、新しい例が稀である又は新しい例の分類が困難であるときでもMLモデル106が正確に分類することを学習するのを助けてもよい。また、リプレイメモリは、クラスラベル付きデータを増加させるとともに将来のバッチを以前のデータで補足するために、将来のクラスラベルを過去にさかのぼって伝播してもよい。そのような伝播は、破滅的忘却を防止するとともに稀で困難な例に対するMLモデルの精度106を向上させるのを助けてもよい。生成的AIアーキテクチャは、既存のデータに基づいて新しいコンテンツ又はデータを生成するシステムの設計である。このタイプのAIシステムは、例の大規模なデータセットでトレーニングされてもよく、トレーニングデータに類似した新しい出力を作成するためにその知識を使用してもよい。一態様では、リプレイ生成AIアーキテクチャを、リプレイ生成逆数ネットワーク(GAN)として実現してもよい。
【0065】
例えば、ハイブリッドリプレイモジュール118は、リプレイメモリとリプレイGANの両方をストリーミングデータ122と組み合わせて、識別器/分類器にデータを出力する拡張学習セットを生成してもよい。識別器/分類器は、リプレイGANによって生成された本物のデータと偽物のデータとを区別するようにトレーニングされた機械学習モデルである。識別器/分類器を、データサンプルのクラスを予測するために機械学習システム104によって使用してもよい。
【0066】
図2は、本開示の技術による半教師あり増分学習の例を示す概念図である。半教師あり学習は、モデルをトレーニングするためにラベル付きデータとラベル付けされていないデータの両方を使用する機械学習技術である。半教師あり学習は、利用可能なラベル付きデータは限られているが大量のラベルなしデータが存在する場合に使用されることがよくある。半教師あり増分学習(SSIL)は、半教師あり学習の長所と増分学習の長所とを組み合わせた機械学習パラダイムである。SSILでは、少数のラベル付きデータと大量のラベルなしデータでモデルをトレーニングしてもよい。モデルがトレーニングされると、モデルは、新しいクラスを学習するとともに既に学習したことを忘れることなく知識ベースを更新してもよい。図2に示す半教師あり学習システム200は、教師あり学習モジュール202、自己教師あり学習モジュール204、オンライン学習モジュール206、オンライン予測モジュール208、予測蓄積モジュール210等のモジュールを含むがそれに限定されない。
【0067】
教師あり学習モジュール202を、ラベル付きデータでMLモデル106をトレーニングするために使用してもよい。
【0068】
自己教師あり学習モジュール204を、ラベル付けされていないデータでMLモデル106をトレーニングするために使用してもよい。。オンライン学習モジュール206を、新しいデータが利用可能になるときにMLモデル106を更新するために使用してもよい。オンライン予測モジュール208を、新しいデータに対する予測を生成するために使用してもよい。予測累積モジュール210は、推論の精度を向上させるために複数のオブザベーションからの予測を組み合わせてもよい。事前学習データ212を、教師あり学習モジュール202又は自己教師あり学習モジュール204のいずれか又は両方に入力してもよい。事前学習ドメイン214からの事前学習データ212を、初期MLモデル106をトレーニングするために使用してもよい。事前学習データ212は、利用可能なラベル付きデータが限られている場合でもターゲットドメイン216でのMLモデル106のパフォーマンスを向上させるのを助けてもよい。限られたターゲットデータ218を、オンライントレーニングモジュール206に入力してもよい。
【0069】
有利なことに、限られたターゲットデータ218は、専門家ユーザによってラベルでまばらに注釈が付けられてもよい。換言すれば、限られたターゲットデータ218の小さなサブセットのみにラベル付けすればよい。オンライン学習モジュール206は、MLモデル106を更新するとともにターゲットドメイン216の精度を向上させるためにこの限られたラベル付きターゲットデータ218を使用してもよい。ターゲットデータ220を、オンライン予測モジュール208に入力してもよい。オンライン予測モジュール208は、新しいデータに対する予測を生成するためにMLモデル106を使用してもよい。予測累積モジュール210は、推論の精度を向上させるために複数のオブザベーションからの予測を組み合わせてもよい。一態様において、予測累積モジュール210は、対応する信頼度により予測に重み付けすることによって予測を組み合わせてもよい。
【0070】
図3は、本開示の技術による例示的なハイブリッドリプレイ方法300を示す概念図である。ハイブリッドリプレイ方法を実施するハイブリッドリプレイモジュール118は、特に稀であるが重要なクラスについての潜在的なクラス不均衡の問題に多くの方法で対処してもよい。
【0071】
ハイブリッドリプレイモジュール118は、利用可能な例が限られているクラスの拡張サンプルを生成するために様々な技術を使用してもよい。様々な態様において、ハイブリッドリプレイモジュール118は、変分オートエンコーダ、GAN又は従来のサンプルベースの拡張技術を使用して拡張サンプルを生成してもよい。例えば、変分オートエンコーダを、トレーニングセットの既存のデータサンプルに類似する新しいデータサンプルを生成するために使用してもよい。GANを、実際のデータサンプルと区別できない新しいデータサンプルを生成するためにハイブリッドリプレイモジュール118によって使用してもよい。
【0072】
ハイブリッドリプレイモジュール118は、既存のデータサンプルにランダム変換を適用することによって新しいデータサンプルを生成するために従来のサンプルベースの拡張技術を使用してもよい。ハイブリッドリプレイモジュール118は、現在のトレーニングバッチデータ(例えば、トレーニングデータ113)を、アーキテクチャ最適化モジュール120から受信した選択されたコンポーネントデータからのような以前のデータからの代表的な例で拡張してもよい。現在のトレーニングバッチデータを拡張することは、MLモデル106が希少だが重要なクラスの例を含む多種多様なデータに触れることを確実にするのを助けてもよい。
【0073】
ハイブリッドリプレイモジュール118を、特に高リスクで低確率のイベントに対してサンプルの多様性を最大化するとともにクラス均衡を増大させるために使用してもよい。その理由は、ハイブリッドリプレイモジュール118が希少だが重要なクラスの拡張サンプルを生成することがあるとともにハイブリッドリプレイモジュール118が以前のデータからの代表的な例で現在のトレーニングバッチデータを拡張することがあるからである。不正検出アプリケーションにおけるクラスの不均衡に対処するためにハイブリッドリプレイモジュール118を使用することができる方法の非限定的な例は、以下の通りである。
【0074】
不正検出を行うように構成されたMLモデル106のトレーニングデータ113は、多数の不正でないトランザクション及び少数の不正なトランザクションを含むことがある。そのようなクラス不均衡は、MLモデル106が不正なトランザクションを正確に検出するのをトレーニングすることを困難にすることがある。このクラス不均衡に対処するために、ハイブリッドリプレイモジュール118を、不正取引の拡張サンプル(例えば、拡張データ124)を生成するために使用することができる。
【0075】
ハイブリッドリプレイモジュール118は、変分オートエンコーダ、GAN又は従来のサンプルベースの拡張技法のようなものであるがそれに限定されない様々な技術を使用して不正取引の拡張サンプルを生成してもよい。
【0076】
不正取引の生成された拡張サンプルを、トレーニングデータ113に追加してもよい。生成された拡張サンプルは、トレーニングデータ113のクラス均衡を向上させるのを助け、MLモデル106が不正取引を正確に検出することを学習しやすくなる。拡張サンプルを生成することに加えて、ハイブリッドリプレイモジュール118を、現在のトレーニングバッチデータを以前のデータからの代表的な例で拡張するために使用してもよい。そのような拡張は、現在のトレーニングバッチの例に類似する例を以前のデータから選択することによって行うことができる。
【0077】
一態様において、ハイブリッドリプレイモジュール118は、MLモデル106が不正取引の例を含むがそれに限定されない多種多様なデータに触れることを確実にするのを助けてもよい。その結果、MLモデル106は、不正取引を更に正確に検知することを学習できるようになる。
【0078】
ハイブリッドリプレイは、トレーニングデータ113の頻度の低い例、破滅的忘却及び大量の事前データを記憶する必要性という課題にも対処する機械学習法である。一態様において、ハイブリッドリプレイモジュール118は、有用で代表的な先行例を保持するためのダイナミックメモリリポジトリの使用の使用及びメモリを補完するとともにサンプルの多様性を増加させるためのクラス条件付き生成ネットワークのトレーニングによって、頻度の低い例の課題に対処する。
【0079】
頻度の低い例は、トレーニングデータ113に稀に発生する例である。頻度の低い例は、これらの例を正確に分類するためにMLモデル106が学習することを困難にすることがある。破滅的忘却は、機械学習モデルを新しいデータでトレーニングしたときにトレーニングしたものを忘れる現象である。破滅的忘却は、新しいデータとモデルが元々トレーニングされたデータとが非常に異なる場合に起こることがある。
【0080】
一態様において、ハイブリッドリプレイモジュール118は、リプレイメモリ302とリプレイGAN304とを組み合わせてもよい。リプレイメモリ302は、代表的なラベル付けサンプルと固定サイズのダイナミックバッファの(関連するメタデータを含む)まだラベル付けされていないトラックとを混合したものを記憶してもよい。リプレイメモリ302を、トレーニングデータ113から最も有用で代表的な例を記憶するために使用してもよい。リプレイメモリ302は、新しい例が稀である又は新しい例の分類が困難であるときでもMLモデル106が正確に分類することを学習するのを助けてもよい。また、リプレイメモリは、クラスラベル付きデータを増加させるとともに将来のバッチを以前のデータで補足するために、将来のクラスラベルを過去にさかのぼって伝播してもよい。そのような伝播は、破滅的忘却を防止するとともに稀で困難な例に対するMLモデルの精度106を向上させるのを助けてもよい。リプレイメモリ302は、ラベル付きデータをクラスタリングするとともに代表的な例を保存することによってバッファサイズを維持してもよい。バッファは、MLモデル106が学習するとともに学習データ113が変化してもリプレイメモリ302が最も有用で代表的な例を含むことを確実にするのを助けてもよい。リプレイGAN304は、リプレイメモリ302のデータサンプルに類似する新しいデータサンプルを生成するようにトレーニングしてもよい機械学習モデルである。リプレイGAN304を、少数クラスと多数クラスとの間のクラス均衡を増大させるために使用されてもよく、リプレイGAN304は、優先度の高い例を更に頻繁に生成してもよい。リプレイGAN304は、サンプル生成を安定化させるとともにリプレイメモリ302に存在するサンプルに対するサンプルの品質を測定するために補助分類器306を活用してもよい。ハイブリッドリプレイモジュール118は、機械学習モデル106をトレーニングするためにリプレイメモリ302とリプレイGAN304を組み合わせてもよい。リプレイメモリ302を、トレーニングデータからの最も有用で代表的な例を記憶するために使用してもよい。リプレイGAN304を、リプレイメモリ302のデータサンプルに類似する新しいデータサンプルを生成するために使用してもよい。MLモデル106を、リプレイGAN304によって生成された新しいデータサンプルと同様に、リプレイメモリ302のラベル付きデータでトレーニングしてもよい。MLモデル106は、データサンプルが稀である又はデータサンプルの分類が困難であるときでもデータサンプルを正確に分類することを学習してもよい。ハイブリッドリプレイモジュール118は、従来の機械学習技術を超える多くの上述した利点を提供してもよい。
【0081】
一態様において、ハイブリッドリプレイモジュール118は、リプレイメモリ302とリプレイGAN304との両方をストリーミングデータ122と組み合わせて、識別器/分類器306にデータを出力する拡張トレーニングセット308を生成してもよい。識別器/分類器306は、拡張トレーニングセット308からのデータにラベル付けしてもよく、クラスを本物又は偽物のいずれかとして予測してもよい。さらに、識別器/分類器306は、メモリを更新するためにデータを選択的に記憶してもよい(選択及び記憶310)。全てのデータを記憶するとは限らない。例えば、本物のデータからの更に代表的なデータサンプルのみを記憶し、全ての偽物のデータを無視してもよい。この更新されたメモリ(選択及び記憶310)を、更なる改良のためにリプレイメモリ302に入力してもよい。以下、ハイブリッドリプレイモジュール118がストリーミングデータ122で動作する方法を段階的に説明する。先ず、ハイブリッドリプレイモジュール118は、ストリーミングデータ122を収集するとともにバッファリングしてもよい。ストリーミングデータ122は、ラベル付けであってもよい又はラベル付けされていなくてもよい。次に、ハイブリッドリプレイモジュール118は、バッファのデータサンプルに類似する新しいデータサンプルを生成するためにリプレイGAN304を使用してもよい。これらの新しいデータサンプルは、ラベル付けであってもよい又はラベル付けされていなくてもよい。次に、ハイブリッドリプレイモジュール118は、バッファのデータサンプル及び生成されたデータサンプルにラベル付けするために識別器/分類器306を使用してもよい。識別器/分類器306は、リプレイメモリ302を更新するためにデータを選択的に記憶してもよい(選択及び記憶310)。次に、ハイブリッドリプレイモジュール118は、選択されるとともに記憶されたデータ310でリプレイメモリ302を更新してもよい。全てのデータをハイブリッドリプレイモジュール118によって記憶するのではなく、最も有用で代表的なデータのみを記憶してもよい。次に、MLモデル106を、リプレイメモリ302のラベル付きデータでトレーニングしてもよい。最後に、MLモデル106を、新しいデータに対して予測を行うために使用してもよい。上述したステップは、ハイブリッドリプレイモジュール118によって連続的に繰り返され、その結果、データが不均衡である又はデータが稀な例若しくは困難な例を含むときでも、ストリーミングデータ122から正確に学習するように構成されたMLモデル106となる。
【0082】
図4は、本開示の技術によるアーキテクチャ最適化方法の一例を示す概念図である。アーキテクチャ最適化は、既定のタスクにおけるパフォーマンスを向上させるために機械学習モデルの複雑さを自動的に調整するプロセスである。ライフロング推論の状況では、アーキテクチャ最適化を、経時的なセンサデータの変化にモデルを適応させるために使用してもよい。モデルを適応させることは重要である。その理由は、センサデータが環境の変化、ハードウェアの変化又はソフトウェアの変化のようなものであるがそれに限定されない複数の要因によって変化する可能性があるからである。センサデータの変化にタスク固有ネットワークモジュール116のモデルを適応させることによって、アーキテクチャ最適化モジュール120は、タスク固有ネットワークモジュール116が破滅的忘却を経験するのを防ぐのを助けてもよい。上述したように、破滅的忘却は、機械学習モデルを新しいデータでトレーニングしたときに機械学習モデル学習したものを忘れる現象である。
【0083】
ライフロング推論の状況では、アーキテクチャ最適化モジュール120を、タスク固有ネットワークモジュール116を異なる入力要件及びアプリケーションドメインに適応させるために使用してもよい。そのような適応は、オンライン学習と並行してアーキテクチャの選択を効率的に評価するために微分可能重み共有ニューラルアーキテクチャ探索(NAS)を活用するとともに高性能モジュールの限られたセットから開始するために事前の経験及びパイロット研究に基づいてNAS探索空間を制限するセルベースのアプローチを利用することによって実現してもよい。微分可能重み共有NASは、最適なアーキテクチャを探索するために勾配降下を使用するタイプのNASである。有利なことに、重み共有NASによって、オンライン学習と並行してアーキテクチャの選択を評価することが可能であり、それは、ライフロング推論に重要である。その理由は、タスク固有ネットワークモジュール116がデータの変化に迅速に適応できるようにする必要があるからである。セルベースNASは、探索空間を予め規定されたセルの集合に限定するタイプのNASである。セルベースNASによって、高性能モジュールの限られたセットで探索を開始することが可能であり、それによって、探索プロセスが迅速になる。アーキテクチャ最適化の技術における課題の一つは、ネットワークアーキテクチャの継続的な適応と増大する計算の複雑さ及び新しい選択を評価する時間とのバランスをとることである。別の課題は、オンライン継続学習設定において特定のアーキテクチャ構成要素をニューロンから構築することが困難となることがあることである。アーキテクチャ最適化方法120は、オンライン学習と並行してアーキテクチャの選択を効率的に評価するために微分可能重み共有NASを活用するとともに高性能モジュールの限られたセットから開始するために事前の経験及びパイロット研究に基づいてNAS探索空間を制限するセルベースのアプローチを利用することによって、これらの課題を解消してもよい。アーキテクチャ最適化モジュール120は、ライフロング推論のために複数の利点を有することがある。例えば、アーキテクチャ最適化モジュール120は、タスク固有ネットワークモジュール116を経時的なデータの変化に適応させることによって、破滅的忘却を防止するのを助けてもよい。別の非限定的な例として、アーキテクチャ最適化モジュール120は、稀だが重要な事象に関するタスク固有ネットワークモジュール116のパフォーマンスを向上させてもよい。
【0084】
増分モジュール化アーキテクチャ探索(pNAS)は、事前に選択されたモジュールの限られたセットから開始するとともに新しいモジュールの追加及びグラフのエッジの最適化によってネットワークの複雑さを徐々に増大させるアーキテクチャ最適化のための方法である。図4は、ライフロング推論のためのニューラルネットワークのアーキテクチャを最適化するためにpNASを使用する方法の一例を示す概念図である。探索空間を、Shaped MultiLayer Perceptions(MLP)、Shaped ResBlock及びGraph Convolutional Networks(GCN)のような事前に選択されたモジュールの限られたセットで初期化してもよい。各モジュールは少数のハイパーパラメータを有してもよい。NAS空間を、現在のモジュール候補セットの有向非巡回グラフ402としてモデル化してもよい。非循環グラフ402のノード404は、モジュールを表してもよく、グラフ402のエッジ406は、モジュール間の情報の流れを表してもよい。各メタ最適化ステップにおいて、グラフ402(モジュールを混合したもの)のエッジ406を最適化してもよい。グラフ402のエッジ406を、勾配降下又は進化的アルゴリズムのようなものであるがそれに限定されない様々な方法を使用して最適化してもよい。グラフ402のパフォーマンスが満足のいくものでない場合、新しいノード404をグラフ402に追加してもよい。新しいノードがネットワークの複雑さを増大させることがあることに留意すべきである。NAS最適化を、パフォーマンス閾値に対する早期停止によって終了してもよい。NAS最適化を終了すると、タスク固有ネットワークモジュール116を、選択されたアーキテクチャでトレーニングしてもよい。ライフロング推論におけるpNASの利点の一部は、以下の通りである。pNASが事前に選択された限られたモジュールのセットから開始するとともにネットワークの複雑さを徐々に増大させるので、pNASは、効率的である。そのような技術によって、高性能アーキテクチャを迅速に見つけることができる。pNASがデータの変化にネットワークのアーキテクチャを適応させることができるので、pNASは、データの変化に対してロバストである。データは時間とともに変化する可能性があるため、そのような適応は、ライフロング推論にとって重要である。
【0085】
アーキテクチャ最適化モジュール120によって実施される方法を、図4に示す以下のステップに要約してもよい。先ず、アーキテクチャ最適化モジュール120は、ノード404のエッジ406の最初の未知の演算410を確立してもよい。換言すれば、アーキテクチャ最適化モジュール120は、予め規定されたノード(モジュール)404のセットから開始してもよく、それらをエッジ406で接続してもよい。各辺406は、最適化される必要がある未知の演算を表してもよい。次に、アーキテクチャ最適化モジュール120は、各辺406に演算418の混合したものを配置することによって連続緩和412を行ってもよい。換言すれば、アーキテクチャ最適化モジュール120は、未知の演算の各々を全ての可能な演算418の混合したものに置換してもよい。そのような置換によって、アーキテクチャ最適化モジュール120が連続空間においてネットワークのアーキテクチャを最適化することを可能にするようにしてもよい。次に、アーキテクチャ最適化モジュール120は、混合確率及び重みを共同でトレーニングするためにバイレベル最適化414を行ってもよい。バイレベル最適化414は、最適化の複数の層を有する複雑なモデルをトレーニングするために使用してもよい技術である。この場合、アーキテクチャ最適化モジュール120は、混合確率とタスク固有ネットワークモジュール116の重み126を共同でトレーニングするためにバイレベル最適化414を使用してもよい。次に、アーキテクチャ最適化モジュール120は、学習された混合及び確率に基づいて、タスク固有ネットワークモジュール116を最終化してもよい。タスク固有ネットワークモジュール116がトレーニングされると、アーキテクチャ最適化モジュール120は、最も高い混合確率を有する演算を選択することによって、モデルの最終化416を行ってもよい。アーキテクチャ最適化モジュール120によって実行される方法は、効率的である。その理由は、当該方法がタスク固有ネットワークモジュール116をトレーニングするために連続緩和412及びバイレベル最適化414を使用するからである。連続緩和412によって、アーキテクチャ最適化モジュール120は、高性能アーキテクチャを迅速に見つけることができる。アーキテクチャ最適化モジュール120によって実行される方法は、データの変化に対してロバストである。その理由は、当該方法がデータの変化に対してタスク固有ネットワークモジュール116のアーキテクチャを最適化することができるからである。この利点はライフロング推論にとって重要である。その理由は、データが経時的に変化することがあるからである。最後に、アーキテクチャ最適化モジュール120によって実行される方法は、大規模なデータセット及び複雑なタスクに対してスケーラブルである。その理由は、この方法がタスク固有ネットワークモジュール116のアーキテクチャを手元の特定のタスクに最適化する可能性があるからである。
【0086】
図5は、本開示の技術による増分DARTS最適化方法の一例を示す概念図である。
【0087】
DARTS(微分可能アーキテクチャ探索)は、ニューラルネットワークのアーキテクチャを最適化するために勾配降下を使用するNASのための方法である。一態様において、アーキテクチャ最適化モジュール120は、DARTSアルゴリズムを実現してもよく、そのような実現の考察は、以下の通りである。DARTSアルゴリズムを実現するアーキテクチャ最適化モジュール120は、先ず、所望のサイズ及び複雑さの全てのあり得るアーキテクチャを含む大規模なニューラルネットワークであるスーパーモデルを定義してもよい。次に、スーパーモデルをトレーニングデータセット113でトレーニングしてもよく、勾配降下アルゴリズムを、スーパーモデルのアーキテクチャがトレーニングデータセット113でのパフォーマンスに対して最適化されるようにスーパーモデルの重み126を調整するために使用してもよい。スーパーモデルがトレーニングされると、アーキテクチャ最適化モジュール120は、ニューラルネットワークの最適なアーキテクチャを選択するためにスーパーモデルの重み126を使用してもよい。アーキテクチャ最適化モジュール120は、スーパーモデルの重み126を考察するとともにパフォーマンスにとって最も重要な演算を特定することによって、この選択を行ってもよい。アーキテクチャ最適化モジュール120は、これらの演算を含むニューラルネットワークアーキテクチャを選択してもよい。DARTSアルゴリズムは、他のNASアルゴリズムと比較して多くの利点を有する。DARTSは、効率的である。その理由は、DARTSがニューラルネットワークのアーキテクチャを最適化するために勾配降下を使用するからである。換言すれば、DARTSは、高性能なアーキテクチャを迅速に見つけてもよい。DARTSは、トレーニングデータセットの変化に強い。その理由は、DARTSがトレーニングデータセットのパフォーマンスに対してニューラルネットワークのアーキテクチャを最適化するからである。換言すれば、DARTSは、様々な異なるデータセットでうまく機能するアーキテクチャを見つけてもよい。DARTSは、大規模データセット及び複雑なタスクに対してスケーラブルである。その理由は、DARTSが手元の特定のタスクに対してニューラルネットワークのアーキテクチャを最適化してもよいからである。
【0088】
アーキテクチャ最適化モジュール120は、各ノード(すなわち、図4に示すノード404)における演算を、そのノードにおける候補演算の混合としてモデル化してもよい。換言すれば、各ノードにおける演算は、候補演算の加重平均であってもよい。重みを、ベクトルα(i;j)によってパラメータ化してもよい。
【0089】
DARTSアルゴリズムは、ニューラルネットワークのアーキテクチャを最適化するためにバイレベル最適化問題を解いてもよい。バイレベル最適化問題は、トレーニングデータに関する(候補演算をパラメータ化する)アーキテクチャ重みwの最適化と、ホールドアウトデータに関する(候補演算の重み付けをパラメータ化する)混合重みαの最適化との間で繰り返し適用されてもよい。以下は、2値最適化問題の更に詳しい説明である。先ず、DARTSアルゴリズムは、トレーニングデータセットに関してアーキテクチャ重みwを最適化することができる。そのような最適化を、トレーニングデータセットでスーパーモデルをトレーニングすることによって行ってもよい。次に、DARTSアルゴリズムは、ホールドアウトデータに関して混合重みαを最適化してもよい。そのような最適化を、ホールドアウトデータセットでスーパーモデルをトレーニングするとともに異なる損失関数を使用することによって行ってもよい。混合重みをトレーニングするために使用される損失関数を、ホールドアウトデータでのパフォーマンスに有用な候補演算の混合を学習するようにスーパーモデルを促すように設計してもよい。上述したステップを、アーキテクチャ重みw及び混合重みαが収束するまで繰り返してもよい。結果的に得られるアーキテクチャ重み及び混合重みは、ニューラルネットワークの最適アーキテクチャを定義してもよい。バイレベル最適化問題は、解くのが困難な問題であるが、DARTSアルゴリズムは、更に効率的に解くために複数の技術を使用してもよい。例えば、DARTSアルゴリズムは、バイレベル最適化のために特別に設計された勾配降下アルゴリズムを使用してもよい。さらに、DARTSアルゴリズムは、バイレベル最適化問題の探索空間を縮小するために複数のヒューリスティックを使用してもよい。DARTSは、様々な異なるタスクに対して高性能ニューラルネットワークアーキテクチャを見つけるのに効果的であることを示した。例えば、DARTSは、画像分類、物体検出及び自然言語処理のためのアーキテクチャを見つけるために使用されている。
【0090】
DARTSトレーニングの終了時に、アーキテクチャ最適化モジュール120は、αのargmaxを使用して離散アーキテクチャを推論してもよい(すなわち、最も高い対応するα(i;j)を有する各(i;j)におけるo(i;j)のみが保持される)。換言すれば、アーキテクチャ最適化モジュール120は、ニューラルネットワークの各ノードにおいて最も高い重みを有する演算を選択してもよい。
【0091】
一態様において、アーキテクチャ最適化モジュール120は、DARTSアルゴリズムの変形すなわちI-DARTSを実現してもよい。図5は、アーキテクチャ最適化モジュール120によるI-DARTSアルゴリズムの実現の方法500を示す。 DARTSの増分の変形のための直感的技術は、リプレイのための模範データのコアセットを含むDARTSアルゴリズムを単に実行することである可能性がある。しかしながら、この技術は、簡単なリプレイデータを遥かに超える増分学習の数多くの進歩を利用することはできない。I-DARTSは、有用で代表的な先行例を保持するためにダイナミックメモリリポジトリ(DMR)502を活用することによってDARTSの強力な増分学習の変形を提案する。DMR502は、データを効率的に記憶及び検索することができるデータ構造である。DMR502は、DMR502が最も有用で代表的な例を特定するために経時的に学習できるようにしてもよい。一態様において、アーキテクチャ最適化モジュール120は、模範データのコアセット及び過去の他の重要な例を記憶するためにDMR502を使用してもよい。
【0092】
クラス増分学習(CIL)では、タスク固有ネットワークモジュール116を、一連のタスクでトレーニングしてもよく、各タスクには異なるクラスのセットを有する。タスク固有ネットワークモジュール116は、既に学習したクラスを忘れることなく新しいクラスを学習できるようにする必要がある。CILの課題の一つは、破滅的忘却である。破滅的忘却は、機械学習モデルを新しいデータでトレーニングしたときに機械学習モデルが学習したものを忘れたときに発生する。破滅的忘却は、新しいデータが機械学習モデルを元々トレーニングしたデータと大きく異なる場合に発生することがある。破滅的忘却に対処する一つの方法は、予測空間の正則化を使用することである。予測空間の正則化は、タスク固有ネットワークモジュール116が既に学習したクラスの表現を捨て去ることなく新しいクラスを学習することを促してもよい。予測空間の正則化を、タスク固有ネットワークモジュール116が古いクラスに対する予測に変更を加えることに罰則を課すことによって行ってもよい。そのような罰則を、新しいデータの古いクラスに対するタスク固有ネットワークモジュール116の予測と古いデータ上古いクラスに対するタスク固有ネットワークモジュール116の予測とを比較する損失関数を使用することによって実現してもよい。モデル空間の正則化は、破滅的忘却に対処する別の方法である。モデル空間正則化は、重み126に変更を加えるタスク固有ネットワークモジュール116に罰則を課してもよい。そのような罰則を、新しいデータのタスク固有ネットワークモジュール116の重み126と古いデータの重み126とを比較する損失関数を使用することによって実現してもよい。
【0093】
クラス増加学習(CIL)に関連して、知識蒸留(KD)は、古いモデルから新しいモデルへ知識を転送するために使用してもよい技術である。古いモデルを、以前のタスクからのデータでトレーニングしてもよく、一方、新しいモデルを、現在のタスクからのデータでトレーニングしてもよい。KDを、古いモデルの予測に類似した予測を生成することを新しいモデルに強いることによって行ってもよい。そのような予測を、二つのモデルの予測を比較する損失関数を使用することによって実現してもよい。CILでKDを使用する一つの方法は、例えば、新しいモデルの損失関数にKD損失項を追加することによって以前のタスクからのデータを含むデータの全てについて、古いモデルから新しいモデルへの知識の蒸留を行うことである。
【0094】
図5を更に参照すると、アーキテクチャ最適化モジュール120は、先ず、バイレベルDARTSの最適化を使用して全てのタスクについてスーパーモデル504をトレーニングしてもよい。上述したDARTSの最適化プロセスは、損失関数を最小化するためにスーパーモデルをトレーニングすることとスーパーモデル504のパフォーマンスを向上させるためにアーキテクチャを更新することとを交互に行うことによってスーパーモデルの最適なアーキテクチャを探索することを含む。スーパーモデル504がトレーニングされると、アーキテクチャ最適化モジュール120は、スーパーモデル504から現在のタスク506に最適なアーキテクチャを推論してもよい。一態様において、アーキテクチャ最適化モジュール120は、現在のタスクで最高のパフォーマンスを有するアーキテクチャを選択することによって、このステップを実行してもよい。アーキテクチャ最適化モジュール120は、タスク固有ネットワークモジュール116の最適アーキテクチャ508を、コアセットを含む現在のタスクの全てのトレーニングデータに対して再トレーニングしてもよい。再トレーニングステップ508は、特定のタスクのアーキテクチャを微調整するのを助けてもよい。さらに、アーキテクチャ最適化モジュール120は、分類ヘッドの偏りを除去するためにクラス均衡微調整段階510を適用してもよい。一態様において、アーキテクチャ最適化モジュール120は、各クラスが予測される確率が等しくなるように分類ヘッドの重みを調整することによって、このステップを実行してもよい。最後に、アーキテクチャ最適化モジュール120は、前のタスクトレーニングデータを最もよく表すようにするために、DMR502に記憶してもよいコアセットを更新してもよい。一態様において、アーキテクチャ最適化モジュール120は、事前タスクを最もよく表すトレーニングデータ113のサブセットを選択してもよい。一態様において、図5に示すステップを、全てのタスクが訪問されるまで繰り返してもよい。I-DARTSは、逐次的に複数のタスクを実行するように単一のニューラルネットワークアーキテクチャをトレーニングするために使用することができる強力な増分学習アルゴリズムである。I-DARTSは、様々な増分学習ベンチマークで最先端の結果を実現することを示した。
【0095】
図6は、本開示に記載の技術によるハイブリッドリプレイモジュール118の例示的な動作モードを示すフローチャートである。動作モード600を、ハイブリッドリプレイモジュール118を実行する処理回路143を有する図1の計算システム100に関して説明するが、動作モード600を、本明細書で説明する機械学習システムの他の例に関する計算システムによって実行してもよい。
【0096】
モード動作600において、処理回路143は、ハイブリッドリプレイモジュール118を実行する。 ハイブリッドリプレイモジュール118は、ストリーミングデータの収集及びバッファリングを行ってもよい(602)。ストリーミングデータは、ラベル付けであってもラベル付けされていなくてもよい。ハイブリッドリプレイモジュール118は、バッファのデータサンプルに類似する新しいデータサンプルを生成するためにリプレイGANを使用してもよい(604)。これらの新しいデータサンプルは、ラベル付けであってもラベル付けされていなくてもよい。ハイブリッドリプレイモジュール118は、バッファのデータサンプル及び生成されたデータサンプルにラベル付けするために識別器/分類器を使用してもよい(606)。識別器/分類器は、リプレイメモリを更新するためのデータを選択的に記憶してもよい。ハイブリッドリプレイモジュール118は、選択及び記憶されたデータでリプレイメモリを更新してもよい(608)。全てのデータがハイブリッドリプレイモジュール118によって記憶されるわけではなく、最も有用で最もよく表すデータのみを記憶してもよい。次に、機械学習モデル106を、リプレイメモリのラベル付きデータでトレーニングしてもよい(610)。最後に、新しいデータに対する予測を行うために機械学習モデル106を使用してもよい(612)。
【0097】
図7は、本開示に記載される技術によるI-DARTSアルゴリズムを実現するアーキテクチャ最適化モジュール120の例示的な動作モードを示すフローチャートである。動作モード700を、アーキテクチャ最適化モジュール120を実行する処理回路143を有する図1の計算システム100に関して説明するが、動作モード700を、本明細書で説明する機械学習システムの他の例に関する計算システムによって実行してもよい。
【0098】
動作モード700において、処理回路143は、アーキテクチャ最適化モジュール120を実行する。アーキテクチャ最適化モジュール120は、先ず、バイレベルDARTS最適化(702)を使用して複数の候補タスクについてスーパーモデルをトレーニングしてもよい。スーパーモデルがトレーニングされると、アーキテクチャ最適化モジュール120は、スーパーモデルから現在のタスクの最適アーキテクチャを推論してもよい(704)。アーキテクチャ最適化モジュール120は、コアセットを含む現在のタスクの全てのトレーニングデータについてタスク固有ネットワークモジュール116の最適アーキテクチャを再トレーニングしてもよい(706)。次に、アーキテクチャ最適化モジュール120は、分類ヘッドの偏りを除去するためにクラスバランス微調整段階を適用してもよい(708)。最後に、アーキテクチャ最適化モジュール120は、以前のタスクトレーニングデータを最もよく表すようにするためにDMRに記憶してもよいコアセットを更新してもよい(710)。
【0099】
図8は、例示的な技術の態様を実現してもよい分散データ処理システムの例示的な図である。分散データ処理システム800は、例示的な実施形態の態様を実現してもよいコンピュータのネットワークを有してもよい。分散データ処理システム800は、分散データ処理システム800内で共に接続された様々なデバイス及びコンピュータ間の通信リンクを提供するために使用される媒体である少なくとも一つのネットワーク802を有してもよい。ネットワーク802は、有線通信リンク、無線通信リンク又は光ファイバケーブルのような接続を有してもよい。
【0100】
描かれた例では、サーバ804及びサーバ806は、記憶装置808と共にネットワーク802に接続されている。さらに、クライアント810,812及び814もネットワーク802に接続されている。これらのクライアント810,812及び814は、例えば、パーソナルコンピュータ、ネットワークコンピュータ等であってもよい。描かれている例では、サーバ804は、ライブストリーミング取引データ(ストリーミングデータ122)等のデータをクライアント810,812及び814に供給する。クライアント810,812及び814は、描かれている例では、サーバ804に対するクライアントである。分散データ処理システム800は、図示しない追加のサーバ、クライアント及び他のデバイスを有してもよい。
【0101】
描かれた例では、分散データ処理システム800は、互いに通信を行うためにプロトコルのトランスミッションコントロールプロトコル/インターネットプロトコル(TCP/IP)スイートを使用するネットワーク及びゲートウェイの世界規模のコレクションを表すネットワーク802を有するインターネットである。インターネットの中心には、主要なノード又はホストコンピュータ間の高速データ通信回線のバックボーンがあり、それは、データ及びメッセージをルーティングする何千もの商業コンピュータシステム、政府コンピュータシステム、教育コンピュータシステム又は他のコンピュータシステムで構成されている。当然、分散データ処理システム800は、例えば、イントラネット、ローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)等の多数の異なるタイプのネットワークを含むように実現してもよい。上述したように、図8は、本開示の異なる態様に対するアーキテクチャの限定ではなく、例示として意図されており、したがって、図8に示す特定の要素を、本開示の例示的な態様を実施してもよい環境に関して限定的であると考察すべきでない。
【0102】
図8に示すように、コンピューティングデバイスの一つ以上、例えば、サーバ804を、上述した一つ以上の態様に従ってハイブリッドリプレイモジュール118及びアーキテクチャ最適化モジュール120を実現するように具体的に構成してもよい。一つ以上の例示的な態様において、ハイブリッドリプレイモジュール118は、図3に関連して上述したような態様で動作してもよく、アーキテクチャ最適化モジュール120は、図5に関連して上述したような態様で動作してもよい。コンピューティングデバイスの構成は、例示的な実施形態に関連して本明細書で説明した動作の実行及び出力の生成を容易にするために、アプリケーション固有のハードウェア、ファームウェア等を提供することを有してもよい。コンピューティングデバイスの構成は、追加的に又は代替的に、例示的な実施形態に関連して本明細書で説明した動作の実行及び出力の生成を行うようにプロセッサを構成するソフトウェアアプリケーションをコンピューティングデバイスの一つ以上のハードウェアプロセッサに実行させるために、一つ以上のストレージデバイスに記憶されるとともにサーバ904のようなコンピューティングデバイスのメモリにロードされるソフトウェアアプリケーションを提供することを有してもよい。さらに、アプリケーション固有のハードウェア、ファームウェア、ハードウェアで実行されるソフトウェアアプリケーション等の任意の組合せを、例示的態様の精神及び範囲から逸脱することなく使用してもよい。
【0103】
本開示で説明する技術を、少なくとも部分的に、ハードウェア、ソフトウェア、ファームウェア又はその任意の組合せで実現してもよい。例えば、説明した技術の様々な態様を、一つ以上のマイクロプロセッサ、デジタル信号プロセッサ(DSP)、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)又は任意の他の等価な集積論理回路若しくはディスクリート論理回路及びそのような構成要素の任意の組合せを含む一つ以上のプロセッサ内で実現してもよい。「プロセッサ」又は「処理回路」という用語は、一般に、単独の上述した論理回路若しくは他の論理回路と組み合わせた上述した論理回路又は他の同等の回路を指してもよい。ハードウェアを備える制御ユニットも、本開示の技術の一つ以上を実行してもよい。
【0104】
そのようなハードウェア、ソフトウェア及びファームウェアを、本開示に記載した様々な動作及び機能をサポートするために同一のデバイス内に又は別のデバイス内に実現してもよい。さらに、説明したユニット、モジュール又は構成要素のいずれかを、離散的ではあるが相互運用可能な論理デバイスとして一緒に又は別々に実現してもよい。異なる特徴をモジュール又はユニットとして描写することは、異なる機能的態様を強調することを意図しており、そのようなモジュール又はユニットを別のハードウェア又はソフトウェアコンポーネントによって実現する必要があることを必ずしも意味するものではない。それどころか、一つ以上のモジュール又はユニットに関連する機能を、別のハードウェア構成要素又はソフトウェア構成要素によって実行してもよい、又は、共通のハードウェア若しくはソフトウェアコンポーネント内に若しくは別個のハードウェア若しくはソフトウェアコンポーネント内に統合してもよい。
【0105】
本開示に記載した技術を、命令を含むコンピュータ可読記憶媒体のようなコンピュータ可読媒体において実現又はコード化してもよい。一つ以上のコンピュータ可読記憶媒体に埋め込まれた又はコード化された命令は、例えば、命令が実行されたときに、方法をプログラマブルプロセッサ又は他のプロセッサに実行させてもよい。コンピュータ可読記憶媒体は、ランダムアクセスメモリ(RAM)、リードオンリーメモリ(ROM)、プログラマブルリードオンリーメモリ(PROM)、消去可能プログラマブルリードオンリーメモリ(EPROM)、電子消去可能プログラマブルリードオンリーメモリ(EEPROM)、フラッシュメモリ、ハードディスク、CD-ROM、フロッピーディスク、カセット、磁気媒体、光媒体又は他のコンピュータ可読媒体を含んでもよい。
図1
図2
図3
図4
図5
図6
図7
図8
【手続補正書】
【提出日】2024-02-14
【手続補正1】
【補正対象書類名】明細書
【補正対象項目名】0105
【補正方法】変更
【補正の内容】
【0105】
本開示に記載した技術を、命令を含むコンピュータ可読記憶媒体のようなコンピュータ可読媒体において実現又はコード化してもよい。一つ以上のコンピュータ可読記憶媒体に埋め込まれた又はコード化された命令は、例えば、命令が実行されたときに、方法をプログラマブルプロセッサ又は他のプロセッサに実行させてもよい。コンピュータ可読記憶媒体は、ランダムアクセスメモリ(RAM)、リードオンリーメモリ(ROM)、プログラマブルリードオンリーメモリ(PROM)、消去可能プログラマブルリードオンリーメモリ(EPROM)、電子消去可能プログラマブルリードオンリーメモリ(EEPROM)、フラッシュメモリ、ハードディスク、CD-ROM、フロッピーディスク、カセット、磁気媒体、光媒体又は他のコンピュータ可読媒体を含んでもよい。
本明細書に開示される発明は以下を含む。
[態様1]
記憶媒体と通信を行う処理回路であって、少なくとも第1のモジュール、第2のモジュール及び第3のモジュールを備える機械学習システムを実行するように構成され、前記機械学習システムは、一つ以上の機械学習モデルをトレーニングするように構成された、処理回路を備え、
前記第1のモジュールは、ストリーミング入力データに基づいて拡張入力データを生成するように構成され、
前記第2のモジュールは、前記拡張入力データに少なくとも部分的に基づいて特定のタスクを実行するように構成された機械学習モデルを備え、
前記第3のモジュールは、前記ストリーミング入力データの変化に基づいて前記一つ以上の機械学習モデルのネットワークアーキテクチャを適応させるように構成された、システム。
[態様2]
前記ストリーミング入力データは、前記ストリーミング入力データにおいて表現される複数のクラス間のクラス不均衡を有するストリーミング入力データを含む、態様1に記載のシステム。
[態様3]
前記拡張入力データは、少数クラスの一つ以上の拡張サンプルを含む、態様1に記載のシステム。
[態様4]
前記機械学習システムは、一つ以上の半教師あり増分学習法を使用して前記一つ以上の機械学習モデルをトレーニングするように構成された、態様1に記載のシステム。
[態様5]
フォーマット変換操作、メタデータ導出操作又はデータ関連付け操作のうちの少なくとも一つを実行することによって、前記ストリーミング入力データを処理するように構成された一つ以上のモジュールを更に備える、態様1に記載のシステム。
[態様6]
前記第1のモジュールは、ダイナミックメモリリポジトリ(DMR)と、リプレイ生成人工知能(AI)アーキテクチャと、識別器/分類器と、を更に備え、
前記DMRは、一つ以上の代表的なデータサンプルを選択的に記憶するように構成され、
前記生成AIアーキテクチャは、前記DMRに記憶された前記一つ以上の代表的なデータサンプルに類似する一つ以上の新しいデータサンプルを生成するように構成され、
前記識別器/分類器は、前記生成AIアーキテクチャによって生成された前記一つ以上の新しいデータサンプルにおいて本物のデータと偽物のデータとを区別するように構成された、態様1に記載のシステム。
[態様7]
前記識別器/分類器は、前記DMRに記憶される前記一つ以上の新しいデータサンプルを選択するように更に構成された、態様6記載のシステム。
[態様8]
前記第3のモジュールは、トレーニングデータのセットと入力ストリーミングデータとのうちの少なくとも一方を使用して複数の候補タスクについてスーパーモデルをトレーニングするように更に構成され、トレーニングされた前記スーパーモデルに基づいて現在のタスクの最適アーキテクチャを推論するように構成された、態様1に記載のシステム。
[態様9]
前記第3のモジュールは、前記トレーニングデータに対する一つ以上のアーキテクチャの重みを最適化するように更に構成された、態様8記載のシステム。
[態様10]
第1のモジュールを使用して、ストリーミング入力データに基づいて拡張入力データを生成することと、
機械学習モデルを備える第2のモジュールを使用して、前記拡張入力データに少なくとも部分的に基づいて特定のタスクを実行することと、
第3のモジュールを使用して、前記ストリーミング入力データの変化に基づいて一つ以上の機械学習モデルのネットワークアーキテクチャを適応させることと、
を備える方法。
[態様11]
前記ストリーミング入力データは、前記ストリーミング入力データにおいて表現される複数のクラス間のクラス不均衡を有するストリーミング入力データを含む、態様10に記載の方法。
[態様12]
前記拡張入力データは、少数クラスの一つ以上の拡張サンプルを含む、態様10に記載の方法。
[態様13]
少なくとも前記第1のモジュール、前記第2のモジュール及び前記第3のモジュールを備える機械学習システムは、一つ以上の半教師あり増分学習法を使用して前記一つ以上の機械学習モデルをトレーニングするように構成された、態様10に記載の方法。
[態様14]
一つ以上のモジュールを使用してフォーマット変換操作、メタデータ導出操作又はデータ関連付け操作のうちの少なくとも一つを実行することによって、前記ストリーミング入力データを処理することを更に備える、態様10に記載の方法。
[態様15]
ダイナミックメモリリポジトリ(DMR)に一つ以上の代表的なデータサンプルを選択的に記憶させることと、
生成的人工知能(AI)アーキテクチャを使用して、前記DMRに記憶された前記一つ以上の代表的なデータサンプルに類似する一つ以上の新しいデータサンプルを生成することと、
識別器/分類器を使用して、前記生成AIアーキテクチャによって生成された前記一つ以上の新しいデータサンプルにおいて本物のデータと偽のデータを区別することと、
を更に備える、態様10に記載の方法。
[態様16]
前記識別器/分類器を使用して、前記DMRに記憶される一つ以上の新しいデータサンプルを選択することを更に備える、態様15に記載の方法。
[態様17]
前記第3のモジュールを使用して、トレーニングデータのセットと入力ストリーミングデータとのうちの少なくとも一方を使用して複数の候補タスクについてスーパーモデルをトレーニングすることと、
トレーニングされた前記スーパーモデルに基づいて現在のタスクの最適アーキテクチャを推論することと、
を更に備える、態様10に記載の方法。
[態様18]
第3のモジュールを使用して、前記トレーニングデータに対する一つ以上のアーキテクチャの重みを最適化することを更に備える、態様17に記載の方法。
[態様19]
エンコードされた命令を有する非一時的なコンピュータ可読記憶媒体であって、前記命令は、
第1のモジュールを使用して、ストリーミング入力データに基づいて拡張入力データを生成することと、
機械学習モデルを備える第2のモジュールを使用して、前記拡張入力データに少なくとも部分的に基づいて特定のタスクを実行することと、
第3のモジュールを使用して、前記ストリーミング入力データの変化に基づいて一つ以上の機械学習モデルのネットワークアーキテクチャを適応させることと、
を処理回路に行わせるように構成された、非一時的なコンピュータ可読記憶媒体。
[態様20]
前記ストリーミング入力データは、前記ストリーミング入力データにおいて表現される複数のクラス間のクラス不均衡を有するストリーミング入力データを含む、態様19に記載の非一時的なコンピュータ可読記憶媒体。
【手続補正2】
【補正対象書類名】特許請求の範囲
【補正対象項目名】全文
【補正方法】変更
【補正の内容】
【特許請求の範囲】
【請求項1】
記憶媒体と通信を行う処理回路であって、少なくとも第1のモジュール、第2のモジュール及び第3のモジュールを備える機械学習システムを実行するように構成され、前記機械学習システムは、一つ以上の機械学習モデルをトレーニングするように構成された、処理回路を備え、
前記第1のモジュールは、ストリーミング入力データに基づいて拡張入力データを生成するように構成され、
前記第2のモジュールは、前記拡張入力データに少なくとも部分的に基づいて特定のタスクを実行するように構成された機械学習モデルを備え、
前記第3のモジュールは、前記ストリーミング入力データの変化に基づいて前記一つ以上の機械学習モデルのネットワークアーキテクチャを適応させるように構成された、システム。
【請求項2】
前記ストリーミング入力データは、前記ストリーミング入力データにおいて表現される複数のクラス間のクラス不均衡を有するストリーミング入力データを含む、請求項1に記載のシステム。
【請求項3】
前記拡張入力データは、少数クラスの一つ以上の拡張サンプルを含む、請求項1に記載のシステム。
【請求項4】
前記機械学習システムは、一つ以上の半教師あり増分学習法を使用して前記一つ以上の機械学習モデルをトレーニングするように構成された、請求項1に記載のシステム。
【請求項5】
フォーマット変換操作、メタデータ導出操作又はデータ関連付け操作のうちの少なくとも一つを実行することによって、前記ストリーミング入力データを処理するように構成された一つ以上のモジュールを更に備える、請求項1に記載のシステム。
【請求項6】
前記第1のモジュールは、ダイナミックメモリリポジトリ(DMR)と、リプレイ生成人工知能(AI)アーキテクチャと、識別器/分類器と、を更に備え、
前記DMRは、一つ以上の代表的なデータサンプルを選択的に記憶するように構成され、
前記生成AIアーキテクチャは、前記DMRに記憶された前記一つ以上の代表的なデータサンプルに類似する一つ以上の新しいデータサンプルを生成するように構成され、
前記識別器/分類器は、前記生成AIアーキテクチャによって生成された前記一つ以上の新しいデータサンプルにおいて本物のデータと偽物のデータとを区別するように構成された、請求項1に記載のシステム。
【請求項7】
前記識別器/分類器は、前記DMRに記憶される前記一つ以上の新しいデータサンプルを選択するように更に構成された、請求項6記載のシステム。
【請求項8】
前記第3のモジュールは、トレーニングデータのセットと入力ストリーミングデータとのうちの少なくとも一方を使用して複数の候補タスクについてスーパーモデルをトレーニングするように更に構成され、トレーニングされた前記スーパーモデルに基づいて現在のタスクの最適アーキテクチャを推論するように構成された、請求項1に記載のシステム。
【請求項9】
前記第3のモジュールは、前記トレーニングデータに対する一つ以上のアーキテクチャの重みを最適化するように更に構成された、請求項8記載のシステム。
【請求項10】
第1のモジュールを使用して、ストリーミング入力データに基づいて拡張入力データを生成することと、
機械学習モデルを備える第2のモジュールを使用して、前記拡張入力データに少なくとも部分的に基づいて特定のタスクを実行することと、
第3のモジュールを使用して、前記ストリーミング入力データの変化に基づいてつ以上の機械学習モデルのネットワークアーキテクチャを適応させることと、
を備える方法。
【請求項11】
前記ストリーミング入力データは、前記ストリーミング入力データにおいて表現される複数のクラス間のクラス不均衡を有するストリーミング入力データを含む、請求項10に記載の方法。
【請求項12】
前記拡張入力データは、少数クラスの一つ以上の拡張サンプルを含む、請求項10に記載の方法。
【請求項13】
少なくとも前記第1のモジュール、前記第2のモジュール及び前記第3のモジュールを備える機械学習システムは、一つ以上の半教師あり増分学習法を使用して前記一つ以上の機械学習モデルをトレーニングするように構成された、請求項10に記載の方法。
【請求項14】
一つ以上のモジュールを使用してフォーマット変換操作、メタデータ導出操作又はデータ関連付け操作のうちの少なくとも一つを実行することによって、前記ストリーミング入力データを処理することを更に備える、請求項10に記載の方法。
【請求項15】
ダイナミックメモリリポジトリ(DMR)に一つ以上の代表的なデータサンプルを選択的に記憶させることと、
生成的人工知能(AI)アーキテクチャを使用して、前記DMRに記憶された前記一つ以上の代表的なデータサンプルに類似する一つ以上の新しいデータサンプルを生成することと、
識別器/分類器を使用して、前記生成AIアーキテクチャによって生成された前記一つ以上の新しいデータサンプルにおいて本物のデータと偽のデータを区別することと、
を更に備える、請求項10に記載の方法。
【請求項16】
前記識別器/分類器を使用して、前記DMRに記憶される一つ以上の新しいデータサンプルを選択することを更に備える、請求項15に記載の方法。
【請求項17】
前記第3のモジュールを使用して、トレーニングデータのセットと入力ストリーミングデータとのうちの少なくとも一方を使用して複数の候補タスクについてスーパーモデルをトレーニングすることと、
トレーニングされた前記スーパーモデルに基づいて現在のタスクの最適アーキテクチャを推論することと、
を更に備える、請求項10に記載の方法。
【請求項18】
第3のモジュールを使用して、前記トレーニングデータに対する一つ以上のアーキテクチャの重みを最適化することを更に備える、請求項17に記載の方法。
【請求項19】
エンコードされた命令を有する非一時的なコンピュータ可読記憶媒体であって、前記命令は、
第1のモジュールを使用して、ストリーミング入力データに基づいて拡張入力データを生成することと、
機械学習モデルを備える第2のモジュールを使用して、前記拡張入力データに少なくとも部分的に基づいて特定のタスクを実行することと、
第3のモジュールを使用して、前記ストリーミング入力データの変化に基づいてつ以上の機械学習モデルのネットワークアーキテクチャを適応させることと、
を処理回路に行わせるように構成された、非一時的なコンピュータ可読記憶媒体。
【請求項20】
前記ストリーミング入力データは、前記ストリーミング入力データにおいて表現される複数のクラス間のクラス不均衡を有するストリーミング入力データを含む、請求項19に記載の非一時的なコンピュータ可読記憶媒体。
【外国語明細書】