IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ イントゥイセル アクチエボラグの特許一覧

特表2025-505939第1および第2のネットワークを備えるデータ処理システム、第1のネットワークに接続可能な第2のネットワーク、そのための方法、およびそのためのコンピュータプログラム製品
<>
  • 特表-第1および第2のネットワークを備えるデータ処理システム、第1のネットワークに接続可能な第2のネットワーク、そのための方法、およびそのためのコンピュータプログラム製品 図1
  • 特表-第1および第2のネットワークを備えるデータ処理システム、第1のネットワークに接続可能な第2のネットワーク、そのための方法、およびそのためのコンピュータプログラム製品 図2
  • 特表-第1および第2のネットワークを備えるデータ処理システム、第1のネットワークに接続可能な第2のネットワーク、そのための方法、およびそのためのコンピュータプログラム製品 図3
  • 特表-第1および第2のネットワークを備えるデータ処理システム、第1のネットワークに接続可能な第2のネットワーク、そのための方法、およびそのためのコンピュータプログラム製品 図4
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公表特許公報(A)
(11)【公表番号】
(43)【公表日】2025-03-05
(54)【発明の名称】第1および第2のネットワークを備えるデータ処理システム、第1のネットワークに接続可能な第2のネットワーク、そのための方法、およびそのためのコンピュータプログラム製品
(51)【国際特許分類】
   G06N 3/045 20230101AFI20250226BHJP
【FI】
G06N3/045
【審査請求】未請求
【予備審査請求】未請求
(21)【出願番号】P 2024541799
(86)(22)【出願日】2023-02-08
(85)【翻訳文提出日】2024-09-11
(86)【国際出願番号】 SE2023050104
(87)【国際公開番号】W WO2023153986
(87)【国際公開日】2023-08-17
(31)【優先権主張番号】2250135-7
(32)【優先日】2022-02-11
(33)【優先権主張国・地域又は機関】SE
(81)【指定国・地域】
(71)【出願人】
【識別番号】524078398
【氏名又は名称】イントゥイセル アクチエボラグ
【氏名又は名称原語表記】INTUICELL AB
(74)【代理人】
【識別番号】100109380
【弁理士】
【氏名又は名称】小西 恵
(74)【代理人】
【識別番号】100109036
【弁理士】
【氏名又は名称】永岡 重幸
(72)【発明者】
【氏名】マルテンソン、ライナス
(72)【発明者】
【氏名】ジョンテル、ヘンリック
(57)【要約】
本開示は、処理すべきデータを含む1つまたは複数のシステム入力と、システム出力(120)とを備えるデータ処理システム(100)に関する。データ処理システムは、複数の入力を有し、出力を生成するよう構成される第1のネットワークNW(130)、および、1つまたは複数の第1のノードの出力を入力として有し、出力を生成するよう構成される第2のNW(140)を備え、ここで、システム出力(120)は、各第1のノードの出力を含み、ノード(140a)の第1のセット(146)の第2のノード(140a)の出力(144a)は、1つまたは複数の処理ユニット(136a3、136b1)への入力として使用され、各処理ユニット(136a3、136b1)は、それぞれの第1のノードへの負のまたは正のフィードバックを供給するよう構成される。
【選択図】 図1
【特許請求の範囲】
【請求項1】
データ処理システム(100)であって、該データ処理システム(100)は、処理すべきデータを含む1つまたは複数のシステム入力(110a、110b、...、110z)と、システム出力(120)とを有するように構成され、前記データ処理システムは、以下を備える:
複数の第1のノード(130a、130b、...、130x)を備える第1のネットワーク、NW、(130)であって、各第1のノードは、複数の入力(132a、132b、...、132y)を有するように構成され、前記複数の入力のうちの少なくとも1つはシステム入力であり、出力(134a、134b、...、134x)を生成するように構成される第1のネットワークNW(130);および、
第2のノード(140a、140b、...、140u)の第1および第2のセット(146、148)を備える第2のNW(140)であって、各第2のノードは、1つまたは複数の第1のノード(130a、130b、...、130x)の出力(134a、134b、...、134x)を入力(142a、142b、...、142u)として有し、出力(144a、144b、...、144u)を生成するように構成される第2のNW(140);を備え、
ここで、前記システム出力(120)は、各第1ノード(130a、130b、...、130x)の前記出力(134a、134b、...、134x)を含み;および
ノード(140a)の前記第1のセット(146)の第2のノード(140a)の前記出力(144a)は、1つまたは複数の処理ユニット(136a3、136b1)への入力として使用され、各処理ユニット(136a3、136b1)は、それぞれの第1のノード(130a、130b)に負のフィードバックを供給するように構成され、および/または、ノード(140b、...、140u)の前記第2のセット(148)の第2のノード(140u)の前記出力(144)は、1つまたは複数の処理ユニット(136x3)への入力として使用され、各処理ユニットは、それぞれの第1のノード(130x)に正のフィードバックを供給するように構成される、
ことを特徴とするデータ処理システム。
【請求項2】
請求項1に記載のデータ処理システムであって、
前記複数の第1のノード(130a、130b、...、130x)の各々は、前記複数の入力(132a、132b、...、132y)の各々に対する処理ユニット(136a1、136a2、...、136x3)を備え、各処理ユニット(136a1、136a2、...、136x3)は、増幅器と、時定数(A1、A2)を有するリーキーインテグレータと、を備え、ここで、
ノード(140a、...、140u)の前記第1または第2のセット(146、148)のノードの出力を入力として有する処理ユニット(136a3、...、136x3)の時定数(A1)は、他の処理ユニットの時定数(A2)よりも大きい、
ことを特徴とするデータ処理システム。
【請求項3】
請求項1または2に記載のデータ処理システムであって、
前記データ処理システム(100)が学習モードにある間、前記第1および/または第2のノードセット(146、148)の各ノードの前記出力(144a、144b、...、144u)が抑制される、
ことを特徴とするデータ処理システム。
【請求項4】
請求項1から3のいずれか1項に記載のデータ処理システムであって、
前記処理ユニットのそれぞれは、前記データ処理システムが学習モードにある間、前記第1および/または第2のノードセット(146、148)の各ノードの前記出力(144a、144b、...、144u)を抑制するように構成される抑制ユニットを備える、
ことを特徴とするデータ処理システム。
【請求項5】
請求項1から3のいずれか1項に記載のデータ処理システムであって、
前記第1および第2のノードセット(146、148)の各ノード(140a、140b、...、140u)は、イネーブルユニットを備え、各イネーブルユニットは、それぞれの前記ノード(140a、140b、...、140u)の前記出力(144a、144b、...、144u)に直接接続され、前記イネーブルユニットは、前記データ処理システムが前記学習モードにある間、前記出力(144a、144b、...、144u)を抑制するように構成される、
ことを特徴とするデータ処理システム。
【請求項6】
請求項3から5のいずれか1項に記載のデータ処理システムであって、
前記データ処理システム(100)は、比較ユニット(150)を備え、前記比較ユニット(150)は、前記データ処理システム(100)が学習モードにある間、前記システム出力(140)を適応閾値と比較するように構成され、前記システム出力(140)が前記適応閾値よりも大きい場合にのみ、前記第1または第2のノードセット(146、148)の各ノード(140a、140b、...、140u)の前記出力(144a、...、144u)が抑制される、
ことを特徴とするデータ処理システム。
【請求項7】
請求項1から6のいずれか1項に記載のデータ処理システムであって、
前記システム入力は、複数のコンテキスト/タスクのセンサデータを含む、
ことを特徴とするデータ処理システム。
【請求項8】
請求項1から7のいずれか1項に記載のデータ処理システムであって、
前記データ処理システムは、学習モードにある間、前記センサデータから、1つまたは複数のエンティティを識別することを学習するように構成され、その後、パフォーマンスモードにある間、前記1つまたは複数のエンティティを識別するように構成され、前記識別されたエンティティは、前記センサデータに存在する話者、話された文字、音節、音素、単語またはフレーズ、または前記センサデータに存在するオブジェクトまたはオブジェクトの特徴、または前記センサデータに存在する新たな接触イベント、接触イベントの終了、ジェスチャ、または加えられた圧力のうちの1つまたは複数である、
ことを特徴とするデータ処理システム。
【請求項9】
請求項1から8のいずれか1項に記載のデータ処理システムであって、
前記第2のノード(140a、140b、...、140u)の各入力(142a、142b、...、142u)は、前記1つまたは複数の第1のノード(130a、130b、...、130x)の出力(134a、134b、...、134x)の重み付けバージョンである、
ことを特徴とするデータ処理システム。
【請求項10】
請求項3から9のいずれか1項に記載のデータ処理システムであって、
前記学習モード中の学習、および/または、前記第1および/または第2のネットワーク(130、140)の重みの更新は、相関に基づいて行われる、
ことを特徴とするデータ処理システム。
【請求項11】
第1のNW(130)に接続可能な第2のネットワーク、NW、(140)であって、前記第1のNW(130)は、複数の第1のノード(130a、130b、...、130x)を備え、各第1のノード(130a、130b、...、130x)は、複数の入力(132a、132b、...、132x)を有し、かつ出力(134a、134b、...、132x)を生成するように構成され、かつ少なくとも1つの処理ユニット(136a3、...、136x3)を備え、
前記第2のNW(140)は、以下を備える:
第2のノード(140a、140b、...、140u)の第1および第2のセット(146、148)、ここで、各第2のノード(140a、140b、...、140u)は、1つまたは複数の第1のノード(130a、130b、...、130x)の出力(134a、134b、...、134x)を入力(142a、142b、...、142u)として有するように構成可能であり、出力(144a、144b、...、144u)を生成するように構成され;および、
ここで、ノード(140a)の前記第1のセット(146)の第2のノード(140a)の前記出力(144a)は、1つまたは複数の処理ユニット(136a3、136b1)への入力として使用可能であり、各処理ユニット(136a3、136b1)は、それぞれの第1のノード(130a、130b)に負のフィードバックを供給するように構成され、および/または、ノード(140b、...、140u)の前記第2のセット(148)の第2のノード(140u)の前記出力(144u)は、1つまたは複数の処理ユニット(136x3)への入力として使用可能であり、各処理ユニットは、それぞれの第1のノード(130x)に正のフィードバックを供給するように構成される、
ことを特徴とする第2のネットワーク。
【請求項12】
データを処理するためのコンピュータ実装またはハードウエア実装方法(300)であって、以下を含む:
処理すべきデータを含む1つまたは複数のシステム入力(110a、110b、...、110z)を受信し(310);
複数の入力(132a、132b、...、132y)であって、前記複数の入力のうちの少なくとも1つがシステム入力である複数の入力を、複数の第1のノード(130a、130b、...、130x)を備える第1のネットワーク、NW、(130)に供給し(320);
各第1のノード(130a、130b、...、130x)から出力(134a、134b、...、134x)を受信し(330);
各第1のノード(130a、130b、...、130x)の前記出力(134a、134b、...、134x)を含むシステム出力(120)を供給し(340);
各第1のノード(130a、130b、...、130x)の前記出力(134a、134b、...、134x)を、第2のノード(140a、140b、...、140u)の第1および第2のセット(146、148)を備える第2のNW(140)に供給し(350);
各第2のノード(140a、140b、...、140u)の出力(144a、144b、...、144u)を受信(360)し;および、
ノード(140a)の前記第1のセット(146)の第2のノード(140a)の前記出力(144a)を、1つまたは複数の処理ユニット(136a3、136b1)への入力として使用し(370)、各処理ユニット(136a3、136b1)は、それぞれの第1のノード(130a、130b)に負のフィードバックを供給するよう構成され;および/または、
ノード(140b、...、140u)の前記第2のセット(148)の第2のノード(140u)の前記出力(144)を、1つまたは複数の処理ユニット(136x3)への入力として使用し(380)、各処理ユニット(136x3)は、それぞれの第1のノード(130x)に正のフィードバックを供給するよう構成される、
ことを特徴とする方法。
【請求項13】
プログラム命令を含むコンピュータプログラムをその上に記憶している非一過性のコンピュータ可読媒体(400)を備えるコンピュータプログラム製品であって、前記コンピュータプログラムは、データ処理ユニット(420)にロード可能であり、前記コンピュータプログラムが前記データ処理ユニット(420)によって実行されるときに、請求項12のいずれかに記載の方法の実行を引き起こすように構成されている、コンピュータプログラム製品。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、第1および第2のネットワークを備えるデータ処理システム、第1のネットワークに接続可能な第2のネットワーク、方法、およびコンピュータプログラム製品に関する。より具体的には、本開示は、独立請求項の導入部で定義されるような、第1および第2のネットワークを備えるデータ処理システム、第1のネットワークに接続可能な第2のネットワーク、方法、およびコンピュータプログラム製品に関する。
【背景技術】
【0002】
人工知能(AI)は公知である。しかし、今日のAIモデルは通常、1つの事項しかできないように訓練されている。そのため、AIシステムは新たな問題ごとにゼロから、言い換えれば知識ゼロのベースラインから訓練されることが多い。さらに、それぞれの新しいタスクを学習することにはかなり長い時間がかかることが多い。さらに、学習には大量の学習データが必要である。例えば、新たなタスクはすべてゼロから学習されるからである。さらに、現在のモデルのほとんどは、一度に1つのモダリティの情報を処理するのみである。例えば、テキスト、画像、音声を取り込むことはできるが、通常、3つすべてを同時に取り込むことはできない。さらに、現在のモデルのほとんどは、抽象的な形式のデータを扱うことができない。また、現在のモデルのほとんどは、エネルギー消費量がかなり高い。
【0003】
したがって、多くの別個のタスクを処理可能なAIシステムに対するニーズがあり得る。さらに、既存のスキルを活用して、新たなタスクをより速く、より効果的に学習するAIシステムに対するニーズがあり得る。さらに、限られた量の学習データしか必要としないAIシステムに対するニーズがあり得る。視覚、聴覚、言語理解などの異なるモダリティを同時に包含するマルチモーダルモデルを可能にするAIシステムに対するニーズがあり得る。さらに、新たな、より複雑なタスクを実行するAIシステムに対するニーズがあり得る。さらに、タスクを横断して汎化するAIシステムへのニーズがあり得る。また、より抽象的な形式のデータを扱うAIシステムへのニーズがあり得る。さらに、疎(sparse)かつ効率的であり、なおかつすべての関連情報を利用することで、よりエネルギー効率の高いデータ処理を可能にするAIシステムに対するニーズがあり得る。好ましくは、このようなAIシステムは、パフォーマンスの向上、信頼性の向上、効率の向上、トレーニングの高速化、より少ないコンピュータパワーの使用、より少ない学習データの使用、より少ないストレージ容量の使用、より少ない複雑さ、および/またはより少ないエネルギーの使用のうちの1つまたは複数を提供または可能にする。
【0004】
グーグル・パスウェイ(https://www.searchenginejournal.com/google-pathways-ai/428864/#close)は、上記の問題をある程度緩和している。しかし、より効率的なAIシステムおよび/または代替アプローチに対するニーズが存在し得る。
【発明の開示】
【課題を解決するための手段】
【0005】
本開示は、例えば、公知のAIシステムの上述の問題および制限を少なくとも解決しようとすることによって、従来技術における上述の欠陥および欠点の1つまたは複数を軽減、緩和、または除去しようとするものである。第1の態様によれば、データ処理システムが提供される。このデータ処理システムは、処理されるべきデータを含む1つまたは複数のシステム入力と、システム出力とを有するように構成される。このデータ処理システムは、複数の第1のノードを含む第1のネットワーク(NW)を備え、各第1のノードは、複数の入力を有するように構成され、複数の入力の少なくとも1つはシステム入力であり、出力を生成するように構成される。さらに、このデータ処理システムは、第2のノードの第1および第2のセットを含む第2のNWを備え、各第2のノードは、入力として1つまたは複数の第1のノードの出力を有するように構成され、出力を生成するように構成される。さらに、システム出力は、各第1ノードの出力を含む。第1のノードセットの第2のノードの出力は、1つまたは複数の処理ユニットへの入力として使用され、各処理ユニットは、それぞれの第1のノードに負のフィードバックを供給するように構成され、および/または、第2のノードセットの第2のノードの出力は、1つまたは複数の処理ユニットへの入力として使用され、各処理ユニットは、それぞれの第1のノードに正のフィードバックを供給するように構成される。第2のネットワークのノードから第1のネットワークに負および/または正のフィードバックを供給することにより、その特定のコンテキスト/タスクのデータ処理に最適な(第1のネットワークの)ノードのみを、または主にそれを、使用することによって、手元のコンテキスト/タスクをより正確に、および/または効率的に処理することができる。したがって、所与のネットワークリソース量当たりでより広範囲のコンテキスト/タスクを処理できる、より効率的なデータ処理システムが実現され、その結果、消費電力が削減される。
【0006】
いくつかの実施形態によれば、複数の第1のノードの各々は、複数の入力の各々に対する処理ユニットを備え、各処理ユニットは、増幅器と、時定数を有するリーキーインテグレータ(leaky integrator)とを備える。
【0007】
いくつかの実施形態によれば、第1または第2のノードセットのノードの出力を入力として有する処理ユニットの時定数は、他の処理ユニットの時定数よりも大きい。第2のネットワークのノード(第1または第2のノードセットのノード)によって影響を受ける処理ユニットの時定数を、他の処理ユニット、例えば、システム入力によって影響を受ける処理ユニット、の時定数よりも大きく設定することによって、データ処理システムの動的パフォーマンスの向上/改善、したがって、より高い信頼性が、例えば、あるコンテキスト/タスクから別のコンテキスト/タスクへのよりスムーズな移行を提供すること、および/または、第1のコンテキスト/タスクに関連する第1の処理モードと第2の(異なる)コンテキスト/タスクに関連する第2の処理モードとの間のフリップフロップ/発振(振動)を回避/低減することによって、達成される。
【0008】
いくつかの実施形態によれば、データ処理システムが学習モードにある間、第1および/または第2のノードセットの各ノードの出力は抑制される。
【0009】
いくつかの実施形態によれば、各処理ユニットは、データ処理システムが学習モードにある間、第1および/または第2のノードセットの各ノードの出力を抑制するように構成される抑制ユニットを備える。
【0010】
いくつかの実施形態によれば、第1および第2のノードセットの各ノードは、イネーブルユニットを備え、各イネーブルユニットは、それぞれのノードの出力に直接接続され、イネーブルユニット(複数可)は、データ処理システムが学習モードにある間、出力を抑制するように構成される。
【0011】
いくつかの実施形態によれば、データ処理システムは比較ユニットを備え、比較ユニットは、データ処理システムが学習モードにある間、システム出力を適応閾値と比較するように構成される。
【0012】
いくつかの実施形態によれば、システム出力が適応閾値よりも大きい場合にのみ、第1または第2のノードセットの各ノードの出力が抑制される。
【0013】
いくつかの実施形態によれば、システム入力(複数可)は、複数のコンテキスト/タスクのセンサデータを含む。
【0014】
いくつかの実施形態によれば、データ処理システムは、学習モードにある間、センサデータから、1つまたは複数のエンティティを識別するよう学習ように構成され、その後、パフォーマンスモードにある間、1つまたは複数のエンティティを識別するように構成される。
【0015】
いくつかの実施形態によれば、識別されたエンティティは、センサデータ内に存在する話者、話された文字、音節、音素、単語もしくはフレーズ、またはセンサデータ内に存在するオブジェクトもしくはオブジェクトの特徴、またはセンサデータ内に存在する新たな接触イベント、接触イベントの終了、ジェスチャもしくは加えられた圧力のうちの1つまたは複数である。
【0016】
いくつかの実施形態によれば、データ処理システムは、学習モードにある間、センサデータから、1つまたは複数の(以前に識別されなかった)エンティティまたはその測定可能な特性(または測定可能な複数の特性)を識別するよう学習するように構成され、その後、パフォーマンスモードにある間、例えば、データ処理システムが当初に学習したセンサデータのコーパスに含まれていない新たに取得されたセンサデータから、1つまたは複数のエンティティまたは測定可能な特性(または測定可能な複数の特性)を識別するように構成される。このようなセンサデータは、1つまたは複数のタイプの融合センサデータを含んでよく、例えば、音声センサおよび画像センサからの音声データフィードおよび視覚データフィードが融合されてよい。いくつかの実施形態では、これにより、例えば人間のエンティティの話中の画像の視覚的および聴覚的特性の両方を、エンティティの識別に使用することができる。
【0017】
いくつかの実施形態では、学習データ中の学習に使用されるメタデータのレベルに応じて、エンティティは、2つ以上の方法で、例えば、エンティティのタイプ、エンティティの分類またはカテゴリ、または個々のエンティティとして、識別されてよい。換言すれば、オブジェクトは、「車」として、または車の特定のブランド、色、またはボディスタイルとして、または特定の登録番号を有する個々の車として、認識されてよい。エンティティは、オブジェクトであってよく、または、例えば人間や動物、またはその一部などの生物であってもよい。
【0018】
データ処理システムのアプリケーションには、組織サンプルの画像を処理して細胞または微生物を分類すること、個別化投薬のために個々の患者の治療および/または療法のための薬剤および投薬および投与量を決定すること、等が含まれるが、これらに限定されない。しかしながら、データ処理システムの使用の他の広範囲のコンテキストが可能であり、本実施形態は、例えば、顔認識およびバイオメトリックセキュリティ、無線ネットワークにおける動的スペクトル割り当て、およびロボット工学などの多様な分野に有用であり得る。
【0019】
いくつかの実施形態によれば、第2のノードの各入力は、1つまたは複数の第1のノードの出力の重み付けされたバージョンである。
【0020】
いくつかの実施形態によれば、学習モード中の学習、および/または、第1および/または第2のネットワークの重みの更新は、相関に基づく。
【0021】
第2の態様によれば、第1のNWに接続可能な第2のネットワーク、NW、が提供され、第1のNWは、複数の第1のノードを含み、各第1のノードは、複数の入力を有するように構成され、出力を生成するように構成される。第2のNWは、第2のノードの第1および第2のセットを含み、各第2のノードは、入力として1つまたは複数の第1のノードの出力を有するように構成可能であり、出力を生成するように構成される。第1のノードセットのノードの出力は、1つまたは複数の処理ユニットへの入力として使用され、各処理ユニットは、第1のNWのそれぞれの第1のノードに負のフィードバックを供給するように構成され、および/または、第2のノードセットのノードの出力は、1つまたは複数の処理ユニットへの入力として使用され、各処理ユニットは、それぞれの第1のノードに正のフィードバックを供給するように構成される。
【0022】
第3の態様によれば、データを処理するためのコンピュータ実装またはハードウエア実装方法が提供される。この方法は、以下を含む:処理すべきデータを含む1つまたは複数のシステム入力を受信し;複数の入力を複数の第1のノードを備える第1のネットワーク、NW、に供給し、ここで、複数の入力のうちの少なくとも1つがシステム入力である;各第1のノードから出力を受信し;各第1のノードの出力を含むシステム出力を供給し;各第1のノードの出力を、第2のノードの第1および第2のセットを備える第2のNWに供給し;および、各第2のノードの出力を受信する。さらに、本方法は、以下を含む:第1のノードセットの第2のノードの出力を1つまたは複数の処理ユニットへの入力として使用し、ここで、各処理ユニットは、それぞれの第1のノードに負のフィードバックを供給するように構成され;および/または、第2のノードセットの第2のノードの出力を1つまたは複数の処理ユニットへの入力として使用し、ここで、各処理ユニットは、それぞれの第1のノードに正のフィードバックを供給するように構成される。
【0023】
第4の態様によれば、プログラム命令を備えるコンピュータプログラムをその上に記憶させた非一過性のコンピュータ可読媒体を備えるコンピュータプログラム製品が提供され、このコンピュータプログラムは、データ処理ユニットにロード可能であり、このコンピュータプログラムがデータ処理ユニットによって実行されるときに、第3の態様の方法または上述の実施形態のいずれかを実行させるように構成される。
【0024】
第2、第3および第4の態様の効果および特徴は、第1の態様に関連して上述したものと大部分類似しており、またその逆も同様である。第1の態様に関連して述べた実施形態は、第2の態様、第3の態様および第4の態様にほぼ適合し、その逆も同様である。
【0025】
いくつかの実施形態の利点は、特に学習/トレーニングモード中に、データ/情報をより効率的に処理することである。例えば、1つのトレーニングコンテキストからのトレーニング、換言すれば、1つのデータコーパス上でのトレーニングは、他の新たなトレーニングコンテキストに多かれ少なかれ転送することができるため、新たなトレーニングコンテキストのためのトレーニング段階を大幅に削減することができ、および/または他の方法で必要とされ得るよりも少ないコーパスの学習データを利用することができる。
【0026】
いくつかの実施形態の他の利点は、システム/ネットワークがより複雑でなくなることであり、例えば、(同じ精度で、および/または同じコンテキスト/入力範囲に対して)より少ない数のノードを有することである。
【0027】
いくつかの実施形態のさらに別の利点は、データをより効率的に利用できることである。
【0028】
いくつかの実施形態のさらなる利点は、システム/ネットワークが(システム/ネットワークの同じサイズ、例えば同じノード数、および/または同じ精度で)より大きい/より広い入力範囲、および/またはより大きいコンテキスト範囲を扱うことができることである。
【0029】
いくつかの実施形態のさらなる利点は、システム/ネットワークがより効率的になること、および/またはトレーニング/学習がより短時間/高速になることである。
【0030】
いくつかの実施形態の他の利点は、より複雑度の低いネットワークが提供されることである。
【0031】
いくつかの実施形態のさらなる利点は、(例えば、異なるタスク/コンテキストに亘る)汎化の改善/向上である。
【0032】
いくつかの実施形態のさらなる利点は、システム/ネットワークがノイズの影響を受けにくいことである。
【0033】
いくつかの実施形態のさらに別の利点は、システム/ネットワークが新たなタスク/コンテキストをより迅速に、より効果的に学習できることである。
【0034】
いくつかの実施形態のさらに別の利点は、システム/ネットワークが、視覚、聴覚、言語理解を同時に包含するマルチモーダル識別を可能にすることである。
【0035】
いくつかの実施形態のさらに別の利点は、システム/ネットワークがより抽象的な形式のデータを扱えることである。
【0036】
いくつかの実施形態のさらに別の利点は、システム/ネットワークを 「疎に」活性化できることで、より高速でエネルギー効率が高く、しかも正確であることである。
【0037】
いくつかの実施形態のさらに別の利点は、システム/ネットワークが異なるタイプ(またはモダリティ)のデータをより効率的に理解/解釈することである。
【0038】
いくつかの実施形態の他の利点は、パフォーマンスの向上、信頼性の向上、精度の向上、(トレーニングおよび/またはパフォーマンスの)効率の向上、トレーニング/学習の高速化/短縮化、必要とされるコンピュータパワーの低減、必要とされる学習データの低減、必要とされるストレージ容量の低減、複雑さの低減、および/またはエネルギー消費の低減である。
【0039】
本開示は、以下に示す詳細な説明から明らかになるであろう。詳細な説明および具体例は、例示のためにのみ本開示の好ましい実施形態を開示する。当業者は、詳細な説明のガイダンスから、本開示の範囲内で変更および修正がなされ得ることを理解する。
【0040】
したがって、本明細書に開示される開示は、そのような装置および方法が変更され得るので、開示される装置の特定の構成部分または開示される方法のステップに限定されないことを理解されたい。また、本明細書で使用される用語は、特定の実施形態を説明するためだけのものであり、限定することを意図するものではないことを理解されたい。本明細書および添付の特許請求の範囲で使用される場合、冠詞「a」、「an」、「the」、および「said」は、文脈が明確に指示しない限り、1つまたは複数の要素が存在することを意味することが意図されることに留意されたい。したがって、例えば、「ユニット」または「そのユニット」への言及は、複数の装置などを含む場合がある。さらに、「comprising」、「including」、「containing」などの語句は、他の要素やステップを除外するものではない。
【0041】
上記の目的、ならびに本開示の追加の目的、特徴、および利点は、添付の図面と併せて考慮される場合、本開示の例示的な実施形態の以下の例示的かつ非限定的な詳細な説明を参照することによって、より十分に理解されるであろう。
【図面の簡単な説明】
【0042】
図1図1は、いくつかの実施形態に係るデータ処理システムを示す概略ブロック図である。
図2図2は、いくつかの実施形態に係る第2のネットワークを示す概略ブロック図である。
図3図3は、いくつかの実施形態に係る方法ステップを示すフローチャートである。
図4図4は、いくつかの実施形態に係る例示的なコンピュータ可読媒体を示す概略図である。
【発明を実施するための形態】
【0043】
次に、本開示の好ましい例示的な実施形態が示されている添付図面を参照して、本開示を説明する。しかしながら、本開示は、他の形態で具体化されてもよく、ここに開示された実施形態に限定して解釈されるべきではない。開示された実施形態は、当業者に本開示の範囲を十分に伝えるために提供される。
【0044】
用語解説
以下では「ノード」を参照する。「ノード」という用語は、人工ニューラルネットワークのニューロンなどのニューロン、処理要素のネットワークのプロセッサ等の他の処理要素、またはそれらの組み合わせを参照し得る。したがって、「ネットワーク」(NW)という用語は、人工ニューラルネットワーク、処理要素のネットワーク、またはそれらの組み合わせを参照し得る。
【0045】
以下では「処理ユニット」を参照する。処理ユニットは、シナプス、例えば、ノードの(処理ユニットを有する)入力ユニットとして参照され得る。しかしながら、いくつかの実施形態では、処理ユニットは、NW(第1のNWまたは第2のNWなど)のノードに関連付けられた(接続された、接続可能な、またはそれで構成された)(シナプス以外の)(汎用の)処理ユニット、或いは第1のNWのノードと第2のNWのノードとの間に位置する(汎用の)処理ユニットである。
【0046】
以下では「負のフィードバック」を参照する。負のフィードバック(または平衡フィードバック)とは、第2のNWの出力など、出力のある関数が、出力の振幅および/または変動(揺らぎ)を減少させる傾向のある方法で(フィードバックループ内で)フィードバックされるとき、すなわち(フィードバックループの)(トータルの)ループ利得が負になるときであり、またはそのようなときに起こる。
【0047】
以下では「正のフィードバック」を参照する。正のフィードバック(または加増フィードバック)とは、第2のNWの出力など、出力のある関数が、出力の振幅および/または変動(揺らぎ)を増大させる傾向のある方法で(フィードバックループ内で)フィードバックされるとき、すなわち(フィードバックループの)(トータルの)ループ利得が正になるときであり、またはそのようなときに起こる。
【0048】
以下では「リーキー(leaky)インテグレータ(積分器)」(LI)を参照する。LIは、入力を有し、入力の積分を取り/計算し(計算された積分を出力として供給し)、時間の経過とともに入力の少量を徐々にリークさせる(それにより、時間の経過とともに出力を減少させる)コンポーネントである。
【0049】
以下では「コンテキスト」を参照する。コンテキストとは、関係する状況や状態のことである。コンテキストは、どのようなタイプの(入力)データが期待されるかに関係し、例えば、異なるタイプのタスクがあり、異なるタスクごとに独自のコンテキストがある場合である。一例として、システム入力が画像センサからのピクセルであり、画像センサが異なる照明条件にさらされる場合、それぞれの異なる照明条件は、画像センサによって撮像されたボール、車、木などのオブジェクトに対する異なるコンテキストであり得る。他の例として、システム入力が1つまたは複数のマイクロフォンからの音声周波数帯域である場合、それぞれの異なる話者は、音声周波数帯域の1つまたは複数に存在する音素に対する異なるコンテキストであり得る。
【0050】
以下では「測定可能」を参照する。「測定可能」の用語は、測定または検出できるもの、すなわち検出可能なものと解釈される。用語「測定(measure)」と 「検出(sense)」は同義語として解釈される。
【0051】
以下では「エンティティ」を参照する。エンティティの用語は、物理的エンティティ、或いは、金融エンティティ(例えば、1つまたは複数の金融データセット)などのより抽象的なエンティティとして解釈される。「物理的エンティティ」という用語は、オブジェクト、(オブジェクトの)特徴、ジェスチャ、加えられた圧力、話者、話された文字、音節、音素、単語、フレーズなど、物理的な存在を持つエンティティとして解釈される。
【0052】
本発明の背景にあるアイデアの1つは、すべてのノードが活性化されるが、それぞれの特定のコンテキスト/タスクごとに、そのうちの一部だけがより大きく活性化される(または、複数ノードの一部だけが活性化される)システム/ネットワークである。さらに、学習/トレーニング中に、このシステム/ネットワークは、ネットワークのどの部分(ノード)がどのコンテキスト/タスクに適しているかを動的に学習する。したがって、このシステム/ネットワークは、様々なコンテキスト/タスクおよび/またはモダリティを学習するためのより大きな能力を有し、同時に、学習がより速く、エネルギー効率がより高い(例えば、ネットワーク全体が各コンテキスト/タスク/モダリティに対して活性化されるわけではないため)。各ノードは原則として、相対的な程度は異なるものの、各タスクに貢献することができるため、あるタスクで学習されたスキルを他のタスクを学習する際に利用することができる。これにより、異なるタスク間での学習の汎用性が高まる。
【0053】
以下では、本開示の実施形態を説明し、図1は、いくつかの実施形態に係るデータ処理システム100を示す概略ブロック図である。いくつかの実施形態では、データ処理システム100は、ネットワークであるか、または第1のネットワークおよび第2のネットワークを備える。いくつかの実施形態では、データ処理システム100は、深層ニューラルネットワーク、深層信念(belief)ネットワーク、深層強化学習システム、リカレントニューラルネットワーク、または畳み込みニューラルネットワークである。
【0054】
データ処理システム100は、1つまたは複数のシステム入力(複数可)110a、110b、...、110zを有するか、または有するように構成される。1つまたは複数のシステム入力110a、110b、...、110zは、処理すべきデータを含む。このデータは多次元であってもよい。例えば、複数の信号が並列に供給される。いくつかの実施形態では、システム入力110a、110b、...、110zは、時間連続データを備えるか、または時間連続データからなる。いくつかの実施形態では、処理すべきデータは、画像センサ、タッチセンサおよび/または音センサ(例えば、マイクロフォン)などのセンサからのデータを備える。さらに、いくつかの実施形態では、システム入力(複数可)は、例えば、データ処理システム100が学習モードにある間、および/またはデータ処理システム100がパフォーマンスモードにある間の、複数のコンテキスト/タスクのセンサデータを含む。
【0055】
さらに、データ処理システム100は、システム出力120を有するか、または有するように構成される。データ処理システム100は、第1のネットワーク(NW)130を備える。第1のNW130は、複数の第1のノード130a、130b、...、130xを備える。各第1のノード130a、130b、...、130xは、複数の入力132a、132b、...、132yを有するか、または有するように構成される。複数の入力132a、132b、...、132yのうちの少なくとも1つは、システム入力110a、110b、...、110zである。いくつかの実施形態では、システム入力110a、110b、...、110zのすべてが、第1のノード130a、130b、...、130xのうちの1つまたは複数への入力132a、132b、...、132yとして使用される。さらに、いくつかの実施形態では、第1のノード130a、130b、...、130xの各々は、1つまたは複数のシステム入力110a、110b、...、110zを入力(複数可)132a、132b、...、132yとして有する。さらに、第1のNW130は、出力134a、134b、...、134xを生成する、または生成するように構成される。いくつかの実施形態では、第1のノード130a、130b、...、130xの各々は、出力134a、134b、...、134xを生成するために、第1の重みWa、Wb、...、Wyによって乗算された(当該ノードへの)入力132a、132b、...、132yの(線形)和、二乗和、または平均などの組み合わせを計算する。さらに、データ処理システム100は、第2のNW140を備える。第2のNW140は、第2のノード140aの第1のセット146を備える。さらに、第2のNW140は、第2のノード140b、...、140uの第2のセット148を備える。第2のノード140a、140b、...、140uの各々は、1つまたは複数の第1のノード130a、130b、...、130xの出力134a、134b、...、134xを、入力(複数可)142a、142b、...、142uとして有するか、または有するように構成される。いくつかの実施形態では、各第2のノード140a、140b、...、140uは、第1のノード(複数可)130a、130b、...、130xのすべての出力134a、134b、...、134xを、入力(複数可)142a、142b、...、142uとして有するか、または有するように構成される。さらに、各第2のノード140a、140b、...、140uは、出力144a、144b、...、144uを生成する、または生成するように構成される。いくつかの実施形態では、第2のノード140a、140b、...、140uの各々は、出力144a、144b、...、144uを生成するために、第2の重みVa、Vb、...、Vuによって乗算されたその入力142a、142b、...、142uの(線形)和、二乗和、または平均などの組み合わせを計算する。システム出力120は、各第1ノード130a、130b、...、130xの出力134a、134b、...、134xを含む。いくつかの実施形態では、システム出力120は、各第1のノード130a、130b、...、130xの出力134a、134b、…、134xのアレイである。さらに、ノード140aの第1のセット146の(または各)第2のノード140aの出力144aは、1つまたは複数の処理ユニット136a3、136b1への入力として使用され、各処理ユニット136a3、136b1は、それぞれの第1のノード130a、130bに負のフィードバックを供給するように構成される。いくつかの実施形態では、負のフィードバックは、(それぞれの重みWc、Wdで重み付けされた)直接入力132c、132dとして、および/または、他の入力132a、132b、132e、132f(図示せず)の線形または(周波数依存の)非線形利得制御(例えば、利得低減)として供給される。すなわち、いくつかの実施形態では、処理ユニット136a3、136b1は、1つまたは複数のノード130a、130bへの別個の入力ではなく、代わりに、例えば、(1つまたは複数のノード130a、130bに関連する)第1の重みWa、Wbの調整を介して、または入力132a、132b、132e、132fに関連する増幅器の利得を制御することによって、1つまたは複数のノード130a、130bの他の入力132a、132b、132e、132fの利得を制御(例えば、低減)する。加えて、または代替的に、ノード140b、...、140uの第2のセット148のある/各第2のノード140b、...、140uの出力144b、...、144uは、1つまたは複数の処理ユニット136x3への入力として使用され、各処理ユニットは、それぞれの第1のノード130xに正のフィードバックを供給するように構成される。いくつかの実施形態において、正のフィードバックは、(それぞれの重みWyで重み付けされた)直接入力132yとして、および/または、他の入力132v、132x(図示せず)の線形または(周波数依存の)非線形利得制御(例えば、利得増加)として供給される。すなわち、いくつかの実施形態では、処理ユニット136x3は、1つまたは複数のノード130xへの別個の入力ではなく、代わりに、例えば、(1つまたは複数のノード130xに関連する)第1の重みWv、Wxの調整を介して、または入力132v、132xに関連する増幅器の利得を制御することによって、1つまたは複数のノード130xの他の入力132v、132xの利得を制御(例えば、増加)する。第2のネットワークのノードから第1のネットワークに負および/または正のフィードバックを供給することによって、その特定のコンテキスト/タスクのデータ処理に最適な(第1のネットワークの)ノードのみを利用する、または優位に利用することによって、手元のコンテキスト/タスクをより正確に、および/または効率的に処理することができる。したがって、より幅広いコンテキスト/タスクを処理することの可能な、より効率的なデータ処理システムが実現し、その結果、消費電力が削減される。
【0056】
いくつかの実施形態では、複数の第1のノード130a、130b、...、130xの各々は、複数の入力132a、132b、...、132yの各々に対する処理ユニット136a1、136a2、...、136x3を備える。各処理ユニット136a1、136a2、...、136x3は、増幅器と、時定数A1、A2を有するリーキーインテグレータ(LI)とを備える。各LIの方程式は、dX/dt=-Ax+Cの形式であり、ここで、Cは入力であり、Aは時定数、すなわちリークの速度である。ノード140a、...、140uの第1または第2のセット146、148のノードの出力を入力として有する処理ユニット136a3、136b1、...、136x3のLIについての時定数A1は、(すべての)他の処理ユニット136a1、136a2、...(例えば、システム入力を処理するすべての処理ユニット)のLIについての時定数A2よりも大きく、例えば、少なくとも10倍、好ましくは少なくとも50倍、より好ましくは少なくとも100倍大きい。A1がA2よりも大きいことによって、すなわち、第2のネットワークのノード(第1または第2のノードセット)によって影響を受ける処理ユニットの時定数を、他の処理ユニット、例えば、システム入力により影響を受ける処理ユニットの時定数よりも大きく設定することによって、コンテキストが、明確化または強調され得る。これにより、例えば、1つのコンテキスト/タスクから別のコンテキスト/タスクへのスムーズな移行を提供することによって、および/または、第1のコンテキスト/タスクに関連する第1の処理モードと第2の(異なる)コンテキスト/タスクに関連する第2の処理モードとの間のフリップフロップ/発振を回避/低減することによって、データ処理システムのより良好な/改良された動的パフォーマンス、およびそれによるより高い信頼性が達成される。
【0057】
いくつかの実施形態では、データ処理システムが学習モードにある間、第1および/または第2のノードセット146、148の1つまたは複数、例えばそれぞれの、ノードの出力144a、144b、...、144uが抑制される。さらに、いくつかの実施形態では、各処理ユニット136a1、136a2、...、136x3は、抑制ユニットを備える。各抑制ユニットは、データ処理システムが学習モードにある間、第1および/または第2のノードセット146、148のそれぞれのノード140a、140b、...、140uの出力144a、144b、...、144uを(少なくとも時間の一部において)抑制するように構成される。抑制ユニットは、(それが構成される処理ユニットの)増幅器の利得をゼロに設定することによって、または(それが構成される処理ユニットの)出力をゼロに設定することによって、出力144a、144b、...、144uを抑制してよい。代替的に、または追加的に、第1および第2のノードセット146、148の各ノード140a、140b、...、140uは、イネーブルユニットを備え、各イネーブルユニットは、それぞれのノード140a、140b、...、140uの出力144a、144b、...、144uに直接接続される。各イネーブルユニットは、データ処理システムが学習モードにある間、出力144a、144b、...、144uを(少なくとも一部の時間において)抑制する(または利用可能にする)ように構成される。イネーブルユニットは、出力144a、144b、...、144uをゼロに設定することによって、出力144a、144b、...、144uを抑制してもよい。いくつかの実施形態において、データ処理システム100は、比較ユニット150を備える。比較ユニット150は、例えば、データ処理システム100が学習モードにある間、システム出力120を適応閾値と比較するように構成される。これらの実施形態において、第1または第2のノードセット146、148の各ノード140a、140b、...、140uの出力144a、...、144uは、システム出力120が適応閾値よりも大きい場合にのみ抑制される。いくつかの実施形態では、抑制ユニットおよび/またはイネーブルユニットは、システム出力120と適応閾値との間の比較の結果に関するフラグなどの情報を提供される。さらに、いくつかの実施形態において、システム出力120と適応閾値とを比較することは、各第1のノード130a、...、130xのアクティビティ、例えば、各第1のノード130a、130b、...、130xの出力134a、134b、...、134x、の平均値を適応閾値と比較することを含む。代替的に、または追加的に、システム出力120を適応閾値と比較することは、1つまたは複数の特定の第1のノード130bのアクティビティ、例えば出力134a、134b、...、134x(またはアクティビティの平均)、を適応閾値と比較することを含む。さらに、代替的に、または追加的に、システム出力120を適応閾値と比較することは、すべての第1のノード130a、130b、...、130xのアクティビティ、例えば出力134a、134b、...、134x、を適応閾値と比較することを含む。さらに、いくつかの実施形態では、適応閾値は、複数の適応閾値のセットであり、各(または1つまたは複数のうちの各々の特定の)第1のノード130a、130b、...、130xに対して1つの適応閾値である。いくつかの実施形態では、適応閾値は、すべてのシステム入力110a、110b、...、110z、または第1のノード130a、130b、...、130xへのすべての入力132a、132b、...、132y、の合計エネルギー/アクティビティ/レベルに基づいて適応される。一例として、(システム)入力の総エネルギーが高いほど、閾値(レベル)は高く設定される。さらに、あるいは代替的に、学習モードの開始時には、閾値(レベル)は学習モードの終了時よりも高くなる。
【0058】
いくつかの実施形態では、データ処理システム100は、学習モードにある間、センサデータから、1つまたは複数の(以前に識別されなかった)エンティティまたはその測定可能な特性(または測定可能な特性群)を識別することを学習するように構成され、その後、パフォーマンスモードにある間、例えばセンサデータから、1つまたは複数のエンティティまたはその測定可能な特性(または測定可能な特性群)を識別するように構成される。いくつかの実施形態では、識別されるエンティティは、(音声)センサデータに存在する話者、話された文字、音節、音素、単語、またはフレーズ、またはセンサデータ(例えば、ピクセル)に存在するオブジェクトまたはオブジェクトの特徴、または(タッチ)センサデータに存在する新たな接触イベント、接触イベントの終了、ジェスチャ、または加えられた圧力のうちの1つまたは複数である。いくつかの実施形態では、すべてのセンサデータは、音声センサデータ、画像センサデータ、またはタッチセンサデータなどの特定のタイプのセンサデータであるが、他の実施形態では、センサデータは、音声センサデータ、画像センサデータ、およびタッチセンサデータなどの異なるタイプのセンサデータの混合であり、すなわち、センサデータは、異なるモダリティから構成される。いくつかの実施形態では、データ処理システム100は、センサデータから、エンティティの測定可能な特性(または測定可能な特性群)を識別することを学習するように構成される。測定可能な特性は、オブジェクトの特徴、特徴の一部、位置の時間的に進化する軌跡、加えられた圧力の軌跡、または特定の文字、音節、音素、単語、またはフレーズを話すときの特定の話者の周波数シグネチャまたは時間的に進化する周波数シグネチャであってもよい。このような測定可能な特性は、エンティティにマッピングすることができる。例えば、オブジェクトの特徴がオブジェクトにマッピングされ、特徴の一部が(オブジェクトの)特徴にマッピングされ、位置の軌跡がジェスチャにマッピングされ、加えられた圧力の軌跡が(最大の)加えられた圧力にマッピングされ、特定の話者の周波数シグネチャが当該話者にマッピングされ、発話された文字、音節、音素、単語またはフレーズが実際の文字、音節、音素、単語またはフレーズにマッピングされてよい。このようなマッピングは、単純にメモリ内のルックアップ、ルックアップテーブルまたはデータベースであってもよい。ルックアップは、複数の物理的エンティティの中から、特定された測定可能な特性に最も近い特性を有するエンティティを発見することに基づいてもよい。このようなルックアップから、実際のエンティティが識別されてよく、例えば、未識別のエンティティは、記憶された1つまたは複数の特性を有する複数のエンティティのうち、1つまたは複数の識別された特性に最も近い一致を有するエンティティとして識別される。1つまたは複数の未識別のエンティティまたはその測定可能な特性(または測定可能な特性群)を識別するために本明細書に記載の方法を利用することにより、エンティティ識別のパフォーマンス向上が達成され、より信頼性の高いエンティティ識別が提供され、より効率的なエンティティ識別方法が提供され、および/または、当該方法がコンピュータパワーおよび/またはストレージ容量を削減するため、よりエネルギー効率の高いエンティティ識別方法が提供される。
【0059】
いくつかの実施形態では、第2のノード140a、140b、...、140uの各入力142a、142b、...、142uは、1つまたは複数の第1のノード130a、130b、...、130xの出力134a、134b、...、134xの重み付けバージョンである。さらに、いくつかの実施形態では、第2のノード140a、140b、...、140uの各々は、複数の入力142a、142b、...、142uの各々に対する(第2の)処理ユニット(図示せず)を備える。これらの実施形態において、複数の入力142a、142b、...、142uの各々は、例えば、それぞれの第2の重みVa、Vb、...、Vuによって重み付けされる前に、それぞれの(第2の)処理ユニットによって処理されてもよい。
【0060】
いくつかの実施形態では、第1のネットワーク130および/または第2のネットワーク140の学習モード中の学習および/または重みWa、Wb、...、Wy、Va、Vb、...、Vuの更新は、相関に基づく。この相関は、例えば、ノード140aへのそれぞれの各入力142a、...、142cと、当該ノード140aへのすべての入力142a、...、142cの結合(複合)アクティビティ(combined activity)との間の相関である。すなわち、ノード140aに対するそれぞれの各入力142a、...、142cと、当該ノード140aの出力144aとの間の相関(ノード140aの例であり、他のすべてのノード130b、...、130x、140a、...、140uに適用可能)である。システムが学習モード中に学習するために、第1および/または第2のネットワーク130、140のための重みWa、Wb、...、Wy、Va、Vb、...、Vuの更新が実行されてもよい。このために、データ処理システム100は、更新/学習ユニット160を備えてよい。いくつかの実施形態では、第2のネットワーク140から第1のネットワーク130に戻る負および正のフィードバックループは、固定重み、すなわち、第1の重みWa、Wb、...、Wyが固定された(例えば、相関に基づいて第1のステップにおいて固定値に設定された)状態で起こり得る一方で、第1のネットワーク130から第2のネットワーク140への接続の重み、すなわち、第2の重みVa、Vb、...、Vuは、相関に基づく学習によって変更可能である。これは、所与のコンテキストについて、関連する情報(例えば、当該コンテキストにとって重要な情報)を提供するノード130a、130b、...、130xがどれであるかを識別し、次いで、これらの特定のノード(すなわち、当該コンテキストにとって重要な情報を提供するノード)が(正のフィードバックによって)当該コンテキストに対する互いのアクティビティ/出力を協調的に増大させるのを助けることに寄与する。同時に、これらの協調的なノードは、負のフィードバックループのノードにおける相関に基づく学習を通じて、当該コンテキストに対して最も関連性の低い情報(例えば、重要でない情報)を提供する他のノードを自動的に識別し、負のフィードバックを介して、これらのノードのアクティビティ(例えば、出力)を抑制する。別のコンテキストでは、ノードの別のサブセット(以前のノードのサブセットと一部だけ重複している可能性がある)が関連情報を提供し、当該コンテキストに対して互いのアクティビティを協調的に増加または増幅させる(および当該コンテキストに対して関連性の低い情報を提供する他のノードのアクティビティを抑制する)ことを学習できる場合がある。これは、多くのノードが、異なる(相対的な)専門化ではあるが、多くの異なるコンテキストに亘って参加することを学習する、第1の(データ処理)ネットワーク130を生成することに寄与する。第1のネットワーク130から第2のネットワーク140への接続は、第1のネットワーク130が学習モードにない間に学習してもよく、または第2のネットワーク140は、第1のネットワーク130における学習と同時に学習してもよい。すなわち、第2の重みVa、Vb、...、Vuは、第1の重みWa、Wb、...、Wyが固定されている第2の学習モードの間に(例えば、第1の重みWa、Wb、...、Wyが更新/修正/設定される第1の学習モードの後に)、更新/修正されてもよい。いくつかの実施形態において、第1および第2の学習モードは、例えば、2、3、4、5または10回などの回数、繰り返されてよく、すなわち、第1および第2の学習モードの反復が実行されてもよい。あるいは、第1の重みWa、Wb、...、Wyおよび第2の重みVa、Vb、...、Vuの両方が、学習モード中に更新/修正される。いくつかの実施形態において、データ処理システム100は、更新、結合および/または相関のための更新/学習ユニット160を備える。いくつかの実施形態では、更新/学習ユニット160は、システム出力120(または所望のシステム出力)を直接入力として有する。あるいは、更新/学習ユニット160は、比較ユニット150の出力を入力として有する。代替的に、または追加的に、更新/学習ユニット160は、入力として、それぞれの第1の重みWa、Wb、...、Wyおよび/または第2の重みVa、Vb、...、Vuの状態/値を有する。いくつかの実施形態では、更新/学習ユニット160は、(更新のために)重みWa、Wb、...、Wy、Va、Vb、...、Vuに適用する差分重み(複数可)を発見するために、(各)第1のノード130a、130b、...、130xおよび/または(各)第2のノード140a、140b、...、140uの実際の(または所望の)出力および入力に相関学習ルールを適用する。いくつかの実施形態では、更新/学習ユニット160は、(例えば、差分重みを含む)更新信号を生成し、これは、それぞれの各第1の重みWa、Wb、...、Wyおよび/またはそれぞれの各第2の重みVa、Vb、...、Vuを更新するために使用される。いくつかの実施形態では、データ処理システム100は、それぞれの各第1の重みWa、Wb、...、Wyを更新するように構成される第1の更新/学習ユニットと、それぞれの各第2の重みVa、Vb、...、Vuを更新するように構成される第2の更新/学習ユニットとを備える。いくつかの実施形態では、学習は相関に基づく。すなわち、特定の第2のノード(例えば、140a)のアクティビティ、例えば、出力(例えば、144a)、に相関しない第1のノード(例えば、130a)については、当該特定の第1のノード(例えば、130a)と当該特定の第2のノード(例えば、140a)との間の接続に関連する第2の重み(例えば、Va)が徐々に減少し、一方、第2のノード(例えば、140a)のアクティビティ、例えば、出力(例えば、144a)、に相関する第1のノード(例えば、130b)については、当該特定の第1のノード(例えば、130b)と当該特定の第2のノード(例えば、140a)との間の接続に関連する第2の重み(例えば、Vb)が徐々に増加する。一旦、学習モードが完了すると、いくつかの実施形態では、第1および第2の重みWa、Wb、...、Wy、Va、Vb、...、Vuは、例えば、パフォーマンスモードの間、更新されない。
【0061】
いくつかの実施形態では、第1のノード130aは、負のフィードバックを提供するように構成される複数の処理ユニット136a1、...、136a3、および/または正のフィードバックを提供するように構成される複数の処理ユニット136a1、...、136a3を備える。したがって、第1のノード130a、130b、...、130xは、負のフィードバックを提供する複数の処理ユニット、および正のフィードバックを提供する複数の処理ユニットを有してよい(ただし、どの処理ユニットも負のフィードバックおよび正のフィードバックの双方を提供することはできない)。これらの実施形態において、負/正のフィードバックは、重み付けされた直接入力132cとして提供されてもよく、処理ユニット136a1、...、136a3に関連付けられた(接続された)第1の重みWa、Wb、Wcは、互いに異なってもよい。
【0062】
図2は、いくつかの実施形態に係る第2のネットワーク140を示す。第2のネットワーク、NW、140は、第1のNW130に接続可能であり、第1のNW130は、複数の第1のノード130a、130b、...、130xを備える。各第1のノード130a、130b、...、130xは、複数の入力132a、132b、...、132xを有するか、または有するように構成される。さらに、各第1のノード130a、130b、...、130xは、出力134a、134b、...、134xを生成する、または生成するように構成される。さらに、各第1のノード130a、130b、...、130xは、少なくとも1つの処理ユニット136a3、...、136x3を備える。第2のNW140は、第2のノード140a、140b、...、140uの第1および第2のセット146、148を備える。各第2のノード140a、140b、...、140uは、1つまたは複数の第1のノード130a、130b、...、130xの出力134a、134b、...、134xを入力(複数可)142a、142b、...、142uとして有するように構成可能である。さらに、各第2のノード140a、140b、...、140uは、出力144a、144b、...、144uを生成する、または生成するように構成される。ノード140aの第1のセット146のある/各第2のノード140aの出力144aは、1つまたは複数の処理ユニット136a3への入力として使用可能であり、各処理ユニット136a3は、(第1のNW130の)各第1のノード130aに負のフィードバックを供給する、または供給するように構成される。加えて、または代替的に、ノード140b、...、140uの第2のセット148のある/各第2のノード140uの出力144uは、1つまたは複数の処理ユニット136x3への入力として使用可能であり、各処理ユニット136x3は、(第1のNW130の)それぞれの第1のノード130xに正のフィードバックを供給する、または供給するように構成される。第2のNW140は、例えば、第1のNW130の明白な(存在する)コンテキストを識別すること(および識別されたコンテキストに従って第1のNW130の適応を促進すること)によって、第1のNW130の能力(容量)を増大させる(または第1のNWをより効率的にする)ために利用され得る。
【0063】
図3は、いくつかの実施形態による例示的な方法ステップを示すフローチャートである。図3は、データを処理するためのコンピュータ実装またはハードウエア実装方法300を示す。この方法は、アナログハードウエア/電子回路、デジタル回路、例えばゲートやフリップフロップ、混合信号回路、ソフトウエア、およびそれらの任意の組み合わせで実装することができる。本方法は、処理すべきデータを含む1つまたは複数のシステム入力(複数可)110a、110b、...、110zを受信すること310を含む。さらに、本方法300は、複数の入力132a、132b、...、132yであって、複数の入力のうちの少なくとも1つがシステム入力である複数の入力132a、132b、...、132yを、複数の第1のノード130a、130b、...、130xを備える第1のネットワークNW(30)に供給すること320を含む。さらに、本方法300は、各第1のノード130a、130b、...、130xからの/の出力134a、134b、...、134xを受信すること330を含む。本方法300は、340システム出力120を提供することを含む。システム出力120は、各第1のノード130a、130b、・・・、130xの出力134a、134b、・・・、134xを含む。さらに、本方法300は、各第1のノード130a、130b、...、130xの出力134a、134b、...、134xを第2のNW140に供給すること350を含む。第2のNW140は、第2のノード140a、140b、・・・、140uの第1および第2のセット146、148を備える。さらに、本方法300は、各第2のノード140a、140b、...、140uの出力144a、144b、...、144uを受信すること360を含む。本方法300は、ノード140aの第1のセット146のある/各第2のノード140aの出力144aを、1つまたは複数の処理ユニット(複数可)136a3への入力として使用すること370を含み、各処理ユニット136a3は、(入力に基づいて)第1のNW130のそれぞれのノード130aに負のフィードバックを供給するように構成される。さらに、または代替的に、本方法300は、ノード140b、...、140uの第2のセット148のある/各第2のノード140uの出力144uを、1つまたは複数の処理ユニット(複数可)136x3への入力として使用すること380を含み、各処理ユニットは、(入力に基づいて)第1のNW130のそれぞれのノード130xに正のフィードバックを供給するように構成される。いくつかの実施形態では、ステップ310~ステップ380は、停止条件が満たされるまで繰り返される。停止条件は、処理すべきすべてのデータが処理されたこと、または特定のデータ量/ループ数が処理/実行されたことであってよい。
【0064】
いくつかの実施形態では、コンピュータプログラム製品は、例えばユニバーサルシリアルバス(USB)メモリ、プラグインカード、組み込みドライブ、デジタル多用途ディスク(DVD)または読み出し専用メモリ(ROM)などの非一過性のコンピュータ可読媒体400から構成される。図4は、コンパクトディスク(CD)ROM400の形態のコンピュータ可読媒体の例を示している。このコンピュータ可読媒体には、プログラム命令を備えるコンピュータプログラムが格納されている。コンピュータプログラムは、例えば、コンピュータまたはコンピューティングデバイス410内に構成されるデータ処理プロセッサ(PROC)420にロード可能である。データ処理装置にロードされるとき、コンピュータプログラムは、データ処理ユニットと関連付けられるか、またはデータ処理ユニット内に構成されるメモリ(MEM)430に格納されてもよい。いくつかの実施形態によれば、コンピュータプログラムは、データ処理ユニットにロードされ、データ処理ユニットによって実行されると、例えば、本明細書で説明される図3に示される方法に従って、方法ステップの実行を引き起こしてよい。
【0065】
当業者は、本開示が上述の好ましい実施形態に限定されないことを理解する。当業者はさらに、添付の特許請求の範囲の範囲内で修正および変形が可能であることを理解する。例えば、香りセンサや風味センサなどの他のセンサからの信号をデータ処理システムで処理してもよい。さらに、説明したデータ処理システムは、セグメント化されていない、接続された手書き認識、音声認識、話者認識、ネットワークトラフィックまたは侵入検知システム(IDS)における異常検知に同様に利用することができる。さらに、開示された実施形態に対する変形は、請求された開示を実施する当業者によって、図面、本開示、および添付の特許請求の範囲の研究から理解され、効果を発揮することができる。
図1
図2
図3
図4
【国際調査報告】