(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公表特許公報(A)
(11)【公表番号】
(43)【公表日】2024-04-23
(54)【発明の名称】機械学習モデルの連携訓練
(51)【国際特許分類】
G06F 16/27 20190101AFI20240416BHJP
【FI】
G06F16/27
【審査請求】未請求
【予備審査請求】未請求
(21)【出願番号】P 2023566649
(86)(22)【出願日】2022-02-15
(85)【翻訳文提出日】2023-10-27
(86)【国際出願番号】 CN2022076297
(87)【国際公開番号】W WO2022227792
(87)【国際公開日】2022-11-03
(32)【優先日】2021-04-30
(33)【優先権主張国・地域又は機関】US
(81)【指定国・地域】
(71)【出願人】
【識別番号】390009531
【氏名又は名称】インターナショナル・ビジネス・マシーンズ・コーポレーション
【氏名又は名称原語表記】INTERNATIONAL BUSINESS MACHINES CORPORATION
【住所又は居所原語表記】New Orchard Road, Armonk, New York 10504, United States of America
(74)【代理人】
【識別番号】100112690
【氏名又は名称】太佐 種一
(74)【代理人】
【識別番号】100120710
【氏名又は名称】片岡 忠彦
(74)【復代理人】
【識別番号】100104880
【氏名又は名称】古部 次郎
(74)【復代理人】
【識別番号】100118108
【氏名又は名称】久保 洋之
(72)【発明者】
【氏名】リー、シュオ
(72)【発明者】
【氏名】ワン、メン
(72)【発明者】
【氏名】チャン、アペン
(72)【発明者】
【氏名】ワン、シャオボ
(72)【発明者】
【氏名】スン、シェンヤン
【テーマコード(参考)】
5B175
【Fターム(参考)】
5B175AA01
5B175CA09
(57)【要約】
本発明は、ローカルに訓練された機械学習モデルに基づく連携モデルを提供する。実施形態において、方法は以下を含む:コンピューティングデバイスによって、ネットワーク化されたエンティティのグループ内のエンティティのキャッシュされたデータを、データの変化について監視することであって、キャッシュされたデータは、エンティティのワーカーモデルおよびマスター特徴モデルからのモデル出力データを含み、ワーカーモデルおよびマスターモデルは機械学習モデルを含む、監視することと、コンピューティングデバイスによって、監視に基づいて、ワーカーモデルおよびマスター特徴モデルのパラメータ重みを反復更新し、それによって、更新されたワーカーモデルおよび更新されたマスター特徴モデルを生成することと、エンティティの更新されたワーカーモデルおよび更新されたマスター特徴モデルを、ネットワーク化されたエンティティのグループ内の他のエンティティの他の更新されたマスター特徴モデルおよび他の更新されたワーカーモデルに組み込む連携モデルで使用するために、コンピューティングデバイスによって、遠隔の連携サーバに更新されたワーカーモデルおよび更新されたマスター特徴モデルを提供すること。
【特許請求の範囲】
【請求項1】
コンピューティングデバイスによって、ネットワーク化されたエンティティのグループ内のエンティティのキャッシュされたデータを、データの変化について監視することであって、前記キャッシュされたデータは、前記エンティティのワーカーモデルおよびマスター特徴モデルからのモデル出力データを含み、前記ワーカーモデルおよび前記マスター特徴モデルは機械学習モデルを含む、監視することと、
前記コンピューティングデバイスによって、前記監視に基づいて、前記ワーカーモデルおよび前記マスター特徴モデルのパラメータ重みを反復更新し、それによって、更新されたワーカーモデルおよび更新されたマスター特徴モデルを生成することと、
前記エンティティの前記更新されたワーカーモデルおよび前記更新されたマスター特徴モデルを、前記ネットワーク化されたエンティティのグループ内の他のエンティティの他の更新されたマスター特徴モデルおよび他の更新されたワーカーモデルに組み込む連携モデルで使用するために、前記コンピューティングデバイスによって、遠隔の連携サーバに前記更新されたワーカーモデルおよび前記更新されたマスター特徴モデルを提供することと、
を含む、方法。
【請求項2】
前記コンピューティングデバイスによって、前記ワーカーモデルを構築することであって、前記ワーカーモデルはそれぞれ、前記エンティティに関連する特徴のセットのサブセットを含む、構築することと、
前記コンピューティングデバイスによって、前記マスター特徴モデルを構築することであって、前記マスター特徴モデルは、前記エンティティに関連する前記特徴のセット内のすべての特徴を含む、構築することと、
をさらに含む、請求項1に記載の方法。
【請求項3】
前記コンピューティングデバイスによって、前記エンティティの前記マスター特徴モデルおよび前記ワーカーモデルのパラメータ平均化統合を利用したモデル出力を生成することをさらに含む、請求項1に記載の方法。
【請求項4】
前記コンピューティングデバイスによって、前記ワーカーモデルおよび前記マスター特徴モデルに初期パラメータ重みを割り当てることをさらに含む、請求項1に記載の方法。
【請求項5】
前記マスター特徴モデルおよび前記ワーカーモデルからの前記モデル出力データは、前記エンティティによるプライベートデータ入力に基づいて生成される、請求項1に記載の方法。
【請求項6】
前記コンピューティングデバイスによって、前記ネットワーク化されたエンティティのグループの参加メンバーからの照会を、前記連携サーバに送信することと、
前記コンピューティングデバイスによって、前記連携サーバから前記照会に対する応答を受信することであって、前記応答は前記連携モデルの出力に基づく、受信することと、
をさらに含む、請求項1に記載の方法。
【請求項7】
前記コンピューティングデバイスによって、前記エンティティの前記ワーカーモデルおよび前記マスター特徴モデルの精度を決定することをさらに含み、前記エンティティの前記ワーカーモデルおよび前記マスター特徴モデルの前記パラメータ重みを前記反復更新することは、前記エンティティの前記マスター特徴モデルおよび前記ワーカーモデルの前記精度にさらに基づく、請求項1に記載の方法。
【請求項8】
プログラム命令が1または複数のコンピュータ可読記憶媒体に集合的に記憶されている前記1または複数のコンピュータ可読記憶媒体を含むコンピュータプログラム製品であって、前記プログラム命令は、コンピューティングデバイスによって実行可能であり、前記コンピューティングデバイスに、
ネットワーク化されたエンティティのグループ内のエンティティのキャッシュされたデータを、データの変化について監視することであって、前記キャッシュされたデータは、前記エンティティのワーカーモデルおよびマスター特徴モデルからのモデル出力データを含み、前記ワーカーモデルおよび前記マスター特徴モデルは機械学習モデルを含む、監視することと、
前記監視に基づいて、前記ワーカーモデルおよび前記マスター特徴モデルのパラメータ重みを反復更新し、それによって、更新されたワーカーモデルおよび更新されたマスター特徴モデルを生成することと、
前記エンティティの前記更新されたマスター特徴モデルおよび前記更新されたワーカーモデルを、前記ネットワーク化されたエンティティのグループ内の他のエンティティの他の更新されたマスター特徴モデルおよび他の更新されたワーカーモデルに組み込む連携モデルで使用するために、遠隔の連携サーバに前記更新されたマスター特徴モデルおよび前記更新されたワーカーモデルを提供することと、
を実行させる、コンピュータプログラム製品。
【請求項9】
前記プログラム命令は、さらに、前記コンピューティングデバイスによって実行可能であり、前記コンピューティングデバイスに、
それぞれのエンティティの特徴に基づいて、前記ネットワーク化されたエンティティのグループ内のエンティティ間の関係を表すベクトルマップを生成することと、
前記ベクトルマップに基づいて、関連するエンティティのグループを特定することであって、前記ネットワーク化されたエンティティのグループは前記関連するエンティティのグループを含み、前記関連するエンティティのグループの各エンティティは特徴のセットに関連付けられる、特定することと、
を実行させる、請求項8に記載のコンピュータプログラム製品。
【請求項10】
前記プログラム命令は、さらに、前記コンピューティングデバイスによって実行可能であり、前記コンピューティングデバイスに、複数の遠隔のエンティティの公開情報のみに基づいて前記複数の遠隔のエンティティの前記特徴を特定させる、請求項9に記載のコンピュータプログラム製品。
【請求項11】
前記プログラム命令は、さらに、前記コンピューティングデバイスによって実行可能であり、前記コンピューティングデバイスに、
前記ワーカーモデルを構築することであって、前記ワーカーモデルはそれぞれ、前記エンティティに関連する特徴のセットのサブセットを含む、構築することと、
前記マスター特徴モデルを構築することであって、前記マスター特徴モデルは、前記エンティティに関連する前記特徴のセット内のすべての特徴を含む、構築することと、
を実行させる、請求項8に記載のコンピュータプログラム製品。
【請求項12】
前記プログラム命令は、さらに、前記コンピューティングデバイスによって実行可能であり、前記コンピューティングデバイスに、前記エンティティの前記ワーカーモデルおよび前記マスター特徴モデルに基づくモデル出力を生成することを実行させる、請求項8に記載のコンピュータプログラム製品。
【請求項13】
前記プログラム命令は、さらに、前記コンピューティングデバイスによって実行可能であり、前記コンピューティングデバイスに、前記エンティティの前記ワーカーモデルおよび前記マスター特徴モデルに初期パラメータ重みを割り当てることを実行させる、請求項8に記載のコンピュータプログラム製品。
【請求項14】
前記ワーカーモデルおよび前記マスター特徴モデルからの前記モデル出力データは、前記エンティティによるプライベートデータ入力に基づいて生成される、請求項8に記載のコンピュータプログラム製品。
【請求項15】
前記プログラム命令は、さらに、前記コンピューティングデバイスによって実行可能であり、前記コンピューティングデバイスに、
前記ネットワーク化されたエンティティのグループの参加メンバーからの照会を、前記連携サーバに送信することと、
前記連携サーバから前記照会に対する応答を受信することであって、前記応答は前記連携モデルの出力に基づく、受信することと、
を実行させる、請求項8に記載のコンピュータプログラム製品。
【請求項16】
前記連携モデルは、前記エンティティの前記更新されたマスター特徴モデルおよび前記更新されたワーカーモデルと、前記ネットワーク化されたエンティティのグループ内の前記他のエンティティの前記他の更新されたマスター特徴モデルおよび前記他の更新されたワーカーモデルとのパラメータ平均化統合を利用して生成される、請求項8に記載のコンピュータプログラム製品。
【請求項17】
プロセッサと、コンピュータ可読メモリと、1または複数のコンピュータ可読記憶媒体と、1または複数のコンピュータ可読記憶媒体に集合的に記憶されたプログラム命令とを含み、前記プログラム命令は、連携サーバによって実行可能であり、前記連携サーバに、
ネットワーク化されたエンティティのグループの参加メンバーからの照会を受信することと、
前記ネットワーク化されたエンティティのグループ内のそれぞれのエンティティのマスター特徴モデルおよびワーカーモデルに基づいて、連携モデルを生成することと、
前記連携モデルの出力に基づいて、前記照会に対する応答を生成することと、
前記照会に対する前記応答を前記参加メンバーに送信することと、を実行させ、
前記マスター特徴モデルは、それぞれ、前記ネットワーク化されたエンティティのグループ内のそれぞれのエンティティのすべての特徴を含み、
前記ワーカーモデルは、それぞれ、前記ネットワーク化されたエンティティのグループ内のそれぞれのエンティティの前記すべての特徴のサブセットを含み、
前記マスター特徴モデルおよび前記ワーカーモデルは、前記連携サーバによってアクセスできないプライベートデータに基づいて、前記それぞれのエンティティによって反復更新される、
システム。
【請求項18】
前記連携モデルを生成することは、前記それぞれのエンティティの前記マスター特徴モデルおよび前記ワーカーモデルのパラメータ平均化統合を行うことを含む、請求項17に記載のシステム。
【請求項19】
前記連携サーバは、クラウド環境においてサービスとして提供されるソフトウェアを含む、請求項17に記載のシステム。
【請求項20】
前記プログラム命令は、さらに、前記コンピューティングデバイスによって実行可能であり、前記コンピューティングデバイスに、
公開情報に基づいて、複数の遠隔のエンティティ間の関係を表すベクトルマップを生成することと、
前記ベクトルマップに基づいて、複数の遠隔のエンティティから前記ネットワーク化されたエンティティのグループを特定することと、
を実行させる、請求項17に記載のシステム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明の態様は、一般に機械学習に関し、より詳細には、機械学習モジュールの連携訓練に関連する。
【背景技術】
【0002】
一般に、機械学習とは、明示的な指示に従わずに学習や適応を行うために、コンピュータがアルゴリズムや統計モデルを用いてデータのパターンを分析および推論することである。機械学習アルゴリズムは、明示的にプログラムされることなく予測や決定を行うために、サンプルデータ(例えば、訓練データ)に基づいてモデルを構築する。機械学習モデルは、特定のドメイン(例えば、主題分野)の入力データを利用して、時間の経過とともに学習し、適応することができる。データプライバシーに関する懸念は、コンピュータシステムで利用可能なデータ量を制限する場合があり、したがって、機械学習モデルの訓練もしくは更新またはその両方に利用可能なデータの質または量に影響を与える場合がある。
【0003】
連携アーキテクチャ(Federated Architecture(FA))とは、半自律的に非中央集権的に組織されたラインオブビジネス(LOB)、情報技術システム、アプリケーション間の相互運用性と情報共有を可能にするエンタープライズアーキテクチャのパターンである。連携学習(協調学習)とは、データサンプルを交換することなく、ローカルなデータサンプルを保持する複数の分散型エッジデバイスまたはサーバにわたってアルゴリズムを訓練する機械学習技術である。このアプローチは、すべてのローカルデータセットを1つのサーバにアップロードする従来の集中型機械学習技術とは異なる。一般に、連携学習は、複数のアクターがデータを共有することなく、共通の機械学習モデルを構築することを可能にする。ある連携アプローチでは、各関係者は、個々のデータの要約を交換することによって、集中型アグリゲーターの助けを借りて、グローバルな機械学習モデルを共同で訓練する。当事者のデータの要約のみが共有されるが、要約は依然として重要な個人情報または機密情報を明らかにする可能性がある。したがって、複数の参加者のプライベートデータを利用した機械学習モデルの構築と訓練を可能にしながら、データプライバシーに関する懸念に対処するシステムおよび方法が必要とされている。
【発明の概要】
【0004】
本発明の第1の態様では、コンピューティングデバイスによって、ネットワーク化されたエンティティのグループ内のエンティティのキャッシュされたデータを、データの変化について監視することを含むコンピュータ実装方法が存在する。キャッシュされたデータは、エンティティのワーカーモデルおよびマスター特徴モデルからのモデル出力データを含む。ワーカーモデルおよびマスター特徴モデルは機械学習モデルを含む。本方法はまた、コンピューティングデバイスによって、監視に基づいて、ワーカーモデルおよびマスター特徴モデルのパラメータ重みを反復更新し、それによって、更新されたワーカーモデルおよび更新されたマスター特徴モデルを生成することを含む。本方法はまた、エンティティの更新されたワーカーモデルおよび更新されたマスター特徴モデルを、ネットワーク化されたエンティティのグループ内の他のエンティティの他の更新されたマスター特徴モデルおよび他の更新されたワーカーモデルに組み込む連携モデルで使用するために、コンピューティングデバイスによって、遠隔の連携サーバに更新されたワーカーモデルおよび更新されたマスター特徴モデルを提供することを含む。
有利なことに、かかる方法は、ローカルエンティティレベルでの更新を必要とする中間モデルを生成する必要なく、ネットワーク化されたエンティティのグループ内の複数のエンティティからの更新された機械学習モデルを組み込んだ連携モデルを生成することを可能にする。
【0005】
実装形態では、マスター特徴モデルおよびワーカーモデルからのモデル出力データは、エンティティによるプライベートデータ入力に基づいて生成される。したがって、本発明の実施形態は、連携モデルがプライベートデータにアクセスする必要なく、それぞれのエンティティによるプライベートデータ入力に基づいて生成されたマスター特徴モデルおよびワーカーモデルを利用することを可能にする。
【0006】
実施形態において、本方法は、コンピューティングデバイスによって、エンティティのワーカーモデルおよびマスター特徴モデルの精度を決定することをさらに含む。実施形態において、エンティティのワーカーモデルおよびマスター特徴モデルのパラメータ重みを反復更新することは、エンティティのマスター特徴モデルおよびワーカーモデルの精度にさらに基づく。したがって、本発明の実施形態は、精度に基づいて更新されるワーカーモデルおよびマスター特徴モデルを有する連携サーバを提供し、それによって、更新されたワーカーモデルおよびマスター特徴モデルを利用する連携モデルの精度を向上させることができる。
【0007】
本発明の別の態様では、プログラム命令が1または複数のコンピュータ可読記憶媒体に集合的に記憶されている1または複数のコンピュータ可読記憶媒体を含むコンピュータプログラム製品が存在する。プログラム命令は、コンピューティングデバイスによって実行可能であり、コンピューティングデバイスに、ネットワーク化されたエンティティのグループ内のエンティティのキャッシュされたデータを、データの変化について監視させる。キャッシュされたデータは、エンティティのワーカーモデルおよびマスター特徴モデルからの出力データを含む。ワーカーモデルおよびマスター特徴モデルは機械学習モデルを含む。プログラム命令は、さらに、監視に基づいて、ワーカーモデルおよびマスター特徴モデルのパラメータ重みを反復更新し、それによって、更新されたワーカーモデルおよび更新されたマスター特徴モデルを生成することを実行可能である。さらに、プログラム命令は、エンティティの更新されたマスター特徴モデルおよび更新されたワーカーモデルを、ネットワーク化されたエンティティのグループ内の他のエンティティの他の更新されたマスター特徴モデルおよび他の更新されたワーカーモデルに組み込む連携モデルで使用するために、遠隔の連携サーバに更新されたマスター特徴モデルおよび更新されたワーカーモデルを提供することを実行可能である。有利には、かかるコンピュータプログラム製品は、ネットワーク化されたエンティティのグループ内の複数のエンティティからの更新された機械学習モデルを組み込んだ連携モデルの生成を可能にする。
【0008】
実施形態では、ワーカーモデルおよびマスター特徴モデルからのモデル出力データは、エンティティによるプライベートデータ入力に基づいて生成される。したがって、本発明の実施形態は、連携モデルが、それぞれのエンティティによるプライベートデータ入力に基づいて生成されたマスター特徴モデルおよびワーカーモデルを利用することを可能にする。
【0009】
本発明の別の態様では、プロセッサと、コンピュータ可読メモリと、1または複数のコンピュータ可読記憶媒体と、1または複数のコンピュータ可読記憶媒体に集合的に記憶されたプログラム命令とを含むシステムが存在する。プログラム命令は、連携サーバによって実行可能であり、連携サーバに、ネットワーク化されたエンティティのグループの参加メンバーからの照会を受信させる。プログラム命令は、さらに、ネットワーク化されたエンティティのグループ内のそれぞれのエンティティのマスター特徴モデルおよびワーカーモデルに基づいて、連携モデルを生成することを実行可能である。加えて、プログラム命令は、連携モデルの出力に基づいて、照会に対する応答を生成することを実行可能である。さらに、プログラム命令は、照会に対する応答を参加メンバーに送信することを実行可能である。マスター特徴モデルは、それぞれ、ネットワーク化されたエンティティのグループ内のそれぞれのエンティティのすべての特徴を含む。ワーカーモデルは、それぞれ、ネットワーク化されたエンティティのグループ内のそれぞれのエンティティのすべての特徴のサブセットを含む。さらに、マスター特徴モデルおよびワーカーモデルは、連携サーバによってアクセスできないプライベートデータに基づいて、それぞれのエンティティによって反復更新される。有利なことに、かかるシステムは、連携サーバがエンティティのプライベートデータにアクセスすることなく、複数の参加エンティティのモデルに基づいて照会に応答することを可能にする。
【0010】
実施態様において、本システムのプログラム命令は、さらに、コンピューティングデバイスによって実行可能であり、コンピューティングデバイスに、公開情報に基づいて、複数の遠隔のエンティティ間の関係を表すベクトルマップを生成させる。実施態様において、プログラム命令は、さらに、ベクトルマップに基づいて、複数の遠隔のエンティティからネットワーク化されたエンティティのグループを特定することを実行可能である。したがって、本発明の実施形態は、マスター特徴モデルおよびワーカーモデルが、ネットワークの参加メンバーに利用可能な連携モデルで利用され得る関連エンティティのネットワークを構築する。
【0011】
本発明の態様は、本発明の例示的な実施形態の非限定的な例によって、注記された複数の図面を参照して、以下の詳細な説明で説明される。
【図面の簡単な説明】
【0012】
【
図1】本発明の一実施形態によるクラウドコンピューティングノードを示す図である。
【
図2】本発明の一実施形態によるクラウドコンピューティング環境を示す図である。
【
図3】本発明の一実施形態による抽象化モデルレイヤを示す図である。
【
図4】エンティティ間のデータの流れがガバナンスルールによって制限される例示的な環境を示す図である。
【
図5】本発明の態様による例示的な環境のブロック図である。
【
図6】本発明の態様による例示的な方法のフローチャートである。
【
図7】本発明の態様によるエンティティグループの識別を示す図である。
【
図8】本発明の態様による単一エンティティによるワーカーモデルとマスター特徴モデルの集約を示す図である。
【
図9】本発明の態様によるサブセットグループのデータキャッシュを示す図である。
【
図10】本発明の態様による連携モデルの生成を示す図である。
【
図11】本発明の態様による連携ワーカーモデルの使用を示す図である。
【
図12】本発明の態様による機械学習モデルの連携システムにおけるワークフローを示す図である。
【発明を実施するための形態】
【0013】
本発明の態様は、一般に機械学習に関し、より詳細には、機械学習モジュールの連携訓練に関する。本発明の態様によれば、機密データに対する正確な予測のために、個々のエンティティの連携モデルレベルの動的仮想学習ネットワークとともに、マスター特徴レベルモデル(以下、マスター特徴モデル)およびワーカー特徴レベルモデル(以下、ワーカーモデル)をセットアップするシステムが提供される。
【0014】
機械学習モデルを利用して、明示的な指示に従わずに学習および適応するコンピュータシステムの使用と開発が増加している。機械学習モデルを長期的に更新または改善するためのデータの使用に関する懸念には、データの入手可能性と、データのプライバシーや機密性の問題がある。データのプライバシーは、個人または企業の好みや、政府の規制によって管理されることがある。例えば、一般データ保護規則(GDPR)は、データのプライバシーとセキュリティに関連する欧州連合の法律である。データのプライバシーに関する懸念は、コンピュータシステムで利用可能なデータ量を制限する可能性があり、したがって、機械学習モデルの訓練もしくは更新またはその両方に利用可能なデータの質または量に影響を与える可能性がある。
【0015】
本発明の実施形態は、プライベートデータまたは機密データの利用可能性によってデータアクセスが制限される場合に、機械学習モデルを構築および更新するという技術的問題を解決するための技術的解決策を実装する。実装形態では、コンピュータサーバは、個々のエンティティを複数の仮想の一時的な組織またはグループにグループ化するために、各エンティティのパブリック(非プライベート)特性を計算することによって、エンティティの動的仮想ネットワークを構築する。公開特性には、エンティティの規模、エンティティの所有者の特性、エンティティの統計、もしくはエンティティが共有することを許可されている他のタイプの情報、またはその組み合わせが含まれるが、これらに限定されるものではない。実装形態では、コンピュータサーバは、大規模なテキストコーパスから単語の関連性を学習するためにニューラルネットワークモデルを使用する自然言語処理アルゴリズムであるword2vecアルゴリズムなどの自然言語処理を利用して、エンティティ情報を数学的ベクトルへ変換する。実施形態では、コンピュータサーバは、各エンティティのベクトル距離を計算し、次に、最も近い距離のエンティティを、類似性の高い数のエンティティ(高類似度エンティティ)を含む一時的な組織またはグループにグループ化する。特定の一時的な組織内のエンティティからのデータは、機械学習を進めるために利用することができる。
【0016】
実施形態では、各仮想ネットワークまたはサブセットグループに対して、コンピュータサーバがマスター特徴モデルおよび複数のワーカーモデルを構築し、動的特徴の重みの関係で結果を集約する。実装形態では、マスター特徴モデルは、エンティティのすべてのプライベート特徴を評価するために利用され、全体的なデータを保持することができる。しかし、マスター特徴モデルは、リフレッシュや更新時に比較的大量のデータを利用するため、継続的な学習での使用には不都合な場合がある。各ワーカーモデルは、部分的な私的特徴を含み、マスター特徴モデルの補足として継続的に学習するために最小限のデータしか利用しないので、リフレッシュ/更新が比較的容易である。実施形態において、コンピュータサーバ(例えば、エンティティサーバ)は、多次元私的特徴学習を可能にするために、マスター特徴モデルおよびワーカーモデルを集約する。実装形態では、集約された特徴モデルの重みは、エンティティによって初期値として割り当てられるが、値は、連続的なデータストリームのキャッシュによって動的に変化することになる。
【0017】
本発明の態様では、学習オブジェクトのプライベート特徴はいつでも変化し得るので、集約されたモデル(例えば、マスター特徴モデルおよびワーカーモデル)は、エンティティによって調整される。例えば、時間の経過とともに変化し得るプライベート特徴(プライベートデータ)には、環境のアップグレード、特徴のスケール、およびデータ分布が含まれるが、これらに限定されない。実施形態において、再訓練は、新しいモデルを含むが、同じ特徴セットを有するか、または全く新しい特徴セットを有する新しいマスター特徴モデルまたはワーカーモデルを含む。実施形態において、コンピュータサーバ(例えば、エンティティサーバ)は、再訓練された新しいモデルをモデルメトリックでソートし、次に、新しいマスター特徴モデルおよびワーカーモデルセットとしてトップNモデルを選択する。実装形態では、コンピュータサーバはまた、モデルメトリック分析式でモデルの重みを調整する。
【0018】
実施形態において、連携サーバは、エンティティのマスター特徴モデルおよびワーカーモデルを、ユーザの照会に対する最終結果を予測するように構成された連携仮想ネットワークモデル(連携モデル)に連携させる。実装形態において、連携サーバは、エンティティの動的な仮想ネットワークにおいて、関連するエンティティのすべてのマスター特徴モデルおよびワーカーモデルを特定する。実施形態において、連携学習は、すべてのエンティティモデルを結合するために並列計算重み方程式を利用する。並列計算重み方程式は、パフォーマンスコストおよびコンピューティングメトリックに依存する非同期確率的勾配降下(SGD)またはパラメータ平均化であり得る。
【0019】
上記に基づき、本発明の実装形態は、ネットワーク内の個々のエンティティからのモデルに基づいてマスター機械学習モデル(例えば、連携モデル)を生成するために連携学習を利用し、マスター機械学習モデルは、ネットワーク内の個々のエンティティからプライベートデータを直接取得せずにネットワークのメンバーに対する照会に答えるために利用され得ることが理解されよう。したがって、本発明の実施形態は、マスター機械学習モデルの生成を含む技術的解決策を利用して、データアクセスがプライバシーまたは機密性に関する懸念によって制限されている場合に機械学習モデルを構築および更新するという技術的問題に対処する。
【0020】
本発明の実装形態が、個人から提供された、または個人から取得した個人情報(例えば、エンティティメンバーの個人データ)を収集、保存、または使用する限りにおいて、かかる情報は、個人情報の保護に関するすべての適用法に従って使用されることを理解されたい。また、かかる情報の収集、保存および使用は、例えば状況や情報の種類に応じて、「オプトイン」または「オプトアウト」プロセスなどを通じて、かかる活動に対する個人の同意が必要となる場合がある。個人情報の保管および使用は、情報の種類に応じた適切な安全性の高い方法で行われる場合があり、例えば、様々な暗号化および匿名化を通じて行われる。
【0021】
本発明は、任意の可能な技術詳細レベルで統合されたシステム、方法もしくはコンピュータプログラム製品またはそれらの組み合せとすることができる。コンピュータプログラム製品は、プロセッサに本発明の態様を実行させるためのコンピュータ可読プログラム命令を記憶したコンピュータ可読記憶媒体を含んでよい。
【0022】
コンピュータ可読記憶媒体は、命令実行装置によって使用される命令を保持し、記憶することができる有形の装置とすることができる。コンピュータ可読記憶媒体は、一例として、電子記憶装置、磁気記憶装置、光学記憶装置、電磁記憶装置、半導体記憶装置またはこれらの適切な組み合わせであってよいが、これらに限定されない。コンピュータ可読記憶媒体のより具体的な一例としては、ポータブルコンピュータディスケット、ハードディスク、RAM、ROM、EPROM(またはフラッシュメモリ)、SRAM、CD-ROM、DVD、メモリスティック、フロッピーディスク、パンチカードまたは溝内の隆起構造などに命令を記録した機械的に符号化された装置、およびこれらの適切な組み合せが挙げられる。本明細書で使用されるコンピュータ可読記憶媒体は、電波もしくは他の自由に伝播する電磁波、導波管もしくは他の伝送媒体を介して伝播する電磁波(例えば、光ファイバケーブルを通過する光パルス)、またはワイヤを介して送信される電気信号のような、一過性の信号それ自体として解釈されるべきではない。
【0023】
本明細書に記載のコンピュータ可読プログラム命令は、コンピュータ可読記憶媒体からそれぞれのコンピューティング/処理装置に、または、ネットワーク(例えば、インターネット、ローカルエリアネットワーク、ワイドエリアネットワーク、もしくはワイヤレスネットワークまたはその組み合わせ)を介して外部コンピュータまたは外部記憶装置にダウンロードすることができる。ネットワークは、銅線伝送ケーブル、光伝送ファイバー、無線伝送、ルーター、ファイアウォール、スイッチ、ゲートウェイコンピュータ、もしくはエッジサーバーまたはその組み合わせで構成される。各コンピューティング/処理装置のネットワークアダプタカードまたはネットワークインターフェースは、ネットワークからコンピュータ可読プログラム命令を受信し、それぞれのコンピューティング/処理装置内のコンピュータ可読記憶媒体に格納するためにコンピュータ可読プログラム命令を転送する。
【0024】
本発明の動作を実行するためのコンピュータ可読プログラム命令は、アセンブラ命令、命令セットアーキテクチャ(ISA)命令、機械命令、機械依存命令、マイクロコード、ファームウェア命令、状態設定データ、統合回路のための構成データ、またはSmalltalk、C++などのオブジェクト指向プログラミング言語と「C」プログラミング言語や類似のプログラミング言語などの手続き型プログラミング言語を含む、1つ以上のプログラミング言語の任意の組み合わせで記述されたソースコードまたはオブジェクトコードのいずれかであってよい。コンピュータ可読プログラム命令は、スタンドアロンソフトウェアパッケージとして、完全にユーザのコンピュータ上で、または部分的にユーザのコンピュータ上で実行可能である。あるいは、部分的にユーザのコンピュータ上でかつ部分的にリモートコンピュータ上で、または完全にリモートコンピュータまたはサーバ上で実行可能である。後者のシナリオでは、リモートコンピュータは、ローカルエリアネットワーク(LAN)またはワイドエリアネットワーク(WAN)を含む任意のタイプのネットワークを介してユーザのコンピュータに接続され、または(例えば、インターネットサービスプロバイダーを使用したインターネット経由で)外部コンピュータに接続されてよい。いくつかの実施形態では、例えば、プログラマブルロジック回路、フィールドプログラマブルゲートアレイ(FPGA)、またはプログラマブルロジックアレイ(PLA)を含む電子回路は、本発明の態様を実行するために、コンピュータ可読プログラム命令の状態情報を利用してパーソナライズすることにより、コンピュータ可読プログラム命令を実行することができる。
【0025】
本発明の態様は、本発明の実施形態による方法、装置(システム)、およびコンピュータプログラム製品のフローチャート図もしくはブロック図またはその両方を参照して本明細書に記載されている。フローチャート図もしくはブロック図またはその両方の各ブロック、およびフローチャート図もしくはブロック図またはその両方のブロックの組み合わせは、コンピュータ可読プログラム命令によって実装できることが理解されよう。
【0026】
これらのコンピュータ可読プログラム命令は、コンピュータまたは他のプログラム可能なデータ処理装置のプロセッサを介して実行される命令がフローチャートもしくはブロック図またはその両方の1つまたは複数のブロックで指定された機能/動作を実装するための手段を生成するように、機械を生成するためにコンピュータのプロセッサまたは他のプログラム可能なデータ処理装置に提供されることができる。これらのコンピュータ可読プログラム命令はまた、フローチャートもしくはブロック図またはその両方の1つまたは複数のブロックで指定された機能/行為の態様を実装する命令を含む生成品の1つを命令が記憶されたコンピュータ可読記憶媒体が構成するように、コンピュータ、プログラム可能なデータ処理装置、もしくは特定の方法で機能する他のデバイスまたはその組み合わせに接続可能なコンピュータ可読記憶媒体の中に記憶されることができる。
【0027】
コンピュータ、他のプログラム可能な装置、または他のデバイス上でフローチャートもしくはブロック図またはその両方の1つまたは複数のブロックで指定された機能/行為を実行する命令のように、コンピュータ可読プログラム命令はまた、コンピュータ、他のプログラム可能なデータ処理装置、または他のデバイスにロードされ、コンピュータ、他のプログラム可能な装置、または他のデバイス上で一連の操作ステップを実行し、コンピュータ実装された過程を生成することができる。
【0028】
図中のフローチャートおよびブロック図は、本発明の様々な実施形態によるシステム、方法、およびコンピュータプログラム製品が実行可能な実装の構成、機能、および動作を示している。これに関して、フローチャートまたはブロック図の各ブロックは、モジュール、セグメント、または命令の一部を表してよく、これは、指定された論理機能を実装するための1つまたは複数の実行可能命令を構成する。いくつかの代替の実施形態では、ブロックに示されている機能は、図に示されている順序とは異なる場合がある。例えば、連続して示される2つのブロックは、実際には、1つのステップとして達成される場合があり、同時に、実質的に同時に、部分的または全体的に時間的に重複する方法で実行されるか、またはブロックは、関係する機能に応じて逆の順序で実行される場合がある。ブロック図もしくはフローチャート図またはその両方の各ブロック、およびブロック図もしくはフローチャート図またはその両方のブロックの組み合わせは、指定された機能または動作を実行する、または特別な目的のハードウェアとコンピュータ命令の組み合わせを実行する特別な目的のハードウェアベースのシステムによって実装できることにも留意されたい。
【0029】
本開示はクラウドコンピューティングに関する詳細な説明を含むが、本明細書に記載した教示の実装形態はクラウドコンピューティング環境に限定されないことを理解されたい。むしろ、本発明の実施形態は、現在公知のまたは将来開発される他の任意の種類のコンピュータ環境と共に実施することができる。
【0030】
クラウドコンピューティングは、設定可能なコンピューティングリソースの共有プール(例えばネットワーク、ネットワーク帯域幅、サーバ、処理、メモリ、記憶装置、アプリケーション、仮想マシンおよびサービス)へ、簡便かつオンデマンドのネットワークアクセスを可能にするためのサービス提供のモデルであり、リソースは、最小限の管理労力または最小限のサービスプロバイダとのやり取りによって速やかに準備(provision)およびリリースできるものである。このクラウドモデルは、少なくとも5つの特性、少なくとも3つのサービスモデル、および少なくとも4つの実装モデルを含むことがある。
【0031】
特性は以下の通りである。
【0032】
オンデマンド・セルフサービス:クラウドの消費者は、サービスプロバイダとの人的な対話を必要することなく、必要に応じて自動的に、サーバ時間やネットワークストレージなどのコンピューティング能力を一方的に準備することができる。
【0033】
ブロード・ネットワークアクセス:コンピューティング能力はネットワーク経由で利用可能であり、また、標準的なメカニズムを介してアクセスできる。それにより、異種のシンまたはシッククライアントプラットフォーム(例えば、携帯電話、ラップトップ、パーソナルデジタルアシスタント(PDA))による利用が促進される。
【0034】
リソースプーリング:プロバイダのコンピューティングリソースはプールされ、マルチテナントモデルを利用して複数の消費者に提供される。様々な物理リソースおよび仮想リソースが、需要に応じて動的に割り当ておよび再割り当てされる。一般に消費者は、提供されたリソースの正確な位置を管理または把握していないため、位置非依存(location independence)の感覚がある。ただし消費者は、より高い抽象レベル(例えば、国、州、データセンタ)では場所を特定可能な場合がある。
【0035】
迅速な柔軟性(elasticity):コンピューティング能力は、迅速かつ柔軟に準備することができるため、場合によっては自動的に、直ちにスケールアウトし、また、速やかにリリースされて直ちにスケールインすることができる。消費者にとって、準備に利用可能なコンピューティング能力は無制限に見える場合が多く、任意の時間に任意の数量で購入することができる。
【0036】
測定されるサービス:クラウドシステムは、サービスの種類(例えば、ストレージ、処理、帯域幅、アクティブユーザアカウント)に適したある程度の抽象化レベルでの測定機能を活用して、リソースの使用を自動的に制御し最適化する。リソース使用量を監視、制御、および報告して、利用されるサービスのプロバイダおよび消費者の両方に透明性を提供することができる。
【0037】
サービスモデルは以下の通りである。
【0038】
サービスとしてのソフトウェア(SaaS):消費者に提供される機能は、クラウドインフラストラクチャ上で動作するプロバイダのアプリケーションを利用できることである。当該そのアプリケーションは、ウェブブラウザ(例えばウェブメール)などのシンクライアントインタフェースを介して、各種のクライアント装置からアクセスできる。消費者は、ネットワーク、サーバ、オペレーティングシステム、ストレージや、個別のアプリケーション機能さえも含めて、基礎となるクラウドインフラストラクチャの管理や制御は行わない。ただし、ユーザ固有の限られたアプリケーション構成の設定はその限りではない。
【0039】
サービスとしてのプラットフォーム(PaaS):消費者に提供される機能は、プロバイダによってサポートされるプログラム言語およびツールを用いて、消費者が作成または取得したアプリケーションを、クラウドインフラストラクチャに展開(deploy)することである。消費者は、ネットワーク、サーバ、オペレーティングシステム、ストレージを含む、基礎となるクラウドインフラストラクチャの管理や制御は行わないが、展開されたアプリケーションを制御でき、かつ場合によってはそのホスティング環境の構成も制御できる。
【0040】
サービスとしてのインフラストラクチャ(IaaS):消費者に提供される機能は、オペレーティングシステムやアプリケーションを含み得る任意のソフトウェアを消費者が展開および実行可能な、プロセッサ、ストレージ、ネットワーク、および他の基本的なコンピューティングリソースを準備することである。消費者は、基礎となるクラウドインフラストラクチャの管理や制御は行わないが、オペレーティングシステム、ストレージ、および展開されたアプリケーションを制御でき、かつ場合によっては一部のネットワークコンポーネント(例えばホストファイアウォール)を部分的に制御できる。
【0041】
展開モデルは以下の通りである。
【0042】
プライベートクラウド:このクラウドインフラストラクチャは、特定の組織専用で運用される。このクラウドインフラストラクチャは、当該組織または第三者によって管理することができ、オンプレミスまたはオフプレミスで存在することができる。
【0043】
コミュニティクラウド:このクラウドインフラストラクチャは、複数の組織によって共有され、共通の関心事(例えば、ミッション、セキュリティ要件、ポリシー、およびコンプライアンス)を持つ特定のコミュニティをサポートする。このクラウドインフラストラクチャは、当該組織または第三者によって管理することができ、オンプレミスまたはオフプレミスで存在することができる。
【0044】
パブリッククラウド:このクラウドインフラストラクチャは、不特定多数の人々や大規模な業界団体に提供され、クラウドサービスを販売する組織によって所有される。
【0045】
ハイブリッドクラウド:このクラウドインフラストラクチャは、2つ以上のクラウドモデル(プライベート、コミュニティまたはパブリック)を組み合わせたものとなる。それぞれのモデル固有の実体は保持するが、標準または個別の技術によってバインドされ、データとアプリケーションの可搬性(例えば、クラウド間の負荷分散のためのクラウドバースティング)を実現する。
【0046】
クラウドコンピューティング環境は、ステートレス性(statelessness)、低結合性(low coupling)、モジュール性(modularity)および意味論的相互運用性(semantic interoperability)に重点を置いたサービス指向型環境である。クラウドコンピューティングの中核にあるのは、相互接続されたノードのネットワークを含むインフラストラクチャである。
【0047】
ここで
図1を参照すると、クラウドコンピューティングノードの一例の概略図が示されている。クラウドコンピューティングノード10は、好適なクラウドコンピューティングノードの一例に過ぎず、本明細書に記載の本発明の実施形態の使用範囲または機能性に関する制限を示唆することを意図していない。それにもかかわらず、クラウドコンピューティングノード10は、本明細書で規定された機能性のいずれかを実装もしくは実行またはその両方を行うことが可能である。
【0048】
クラウドコンピューティングノード10では、多数の他の汎用または特殊目的のコンピューティングシステム環境または構成で動作可能なコンピュータシステム/サーバ12が存在する。コンピュータシステム/サーバ12と共に使用するのに適し得る周知のコンピューティングシステム、環境、もしくは構成、またはその組み合わせの例としては、パーソナルコンピュータシステム、サーバコンピュータシステム、シンクライアント、シッククライアント、ハンドヘルドまたはラップトップデバイス、マルチプロセッサシステム、マイクロプロセッサベースシステム、セットトップボックス、プログラム可能家電、ネットワークPC、ミニコンピュータシステム、メインフレームコンピュータシステム、上記のシステムまたは装置のいずれかを含む分散クラウドコンピューティング環境などがあるがそれだけにとどまらない。
【0049】
コンピュータシステム/サーバ12は、コンピュータシステムによって実行されるプログラムモジュールなどの、コンピュータシステム実行可能命令との一般的な関連において説明できる。一般に、プログラムモジュールは、特定のタスクを実行するかまたは特定のデータ型を実装するルーチン、プログラム、オブジェクト、コンポーネント、ロジック、データ構造などを含むことができる。コンピュータシステム/サーバ12は、通信ネットワークを介してリンクされたリモート処理装置によってタスクが実行される分散型クラウドコンピューティング環境で実施することができる。分散型クラウドコンピューティング環境において、プログラムモジュールは、メモリ記憶装置を含む、ローカルおよびリモート両方のコンピュータシステム記憶媒体に記憶することができる。
【0050】
図1に示すように、クラウドコンピューティングノード10内のコンピュータシステム/サーバ12は汎用コンピュータ装置として示されている。コンピュータシステム/サーバ12のコンポーネントの一例としては、1つ以上のプロセッサまたは処理ユニット16、システムメモリ28、およびシステムメモリ28を含む種々のシステムコンポーネントをプロセッサ16に接続するバス18が挙げられるが、これらに限定されるものではない。
【0051】
バス18は、種々のバスアーキテクチャのいずれかを使用するメモリバスまたはメモリコントローラ、周辺バス、アクセラレーテッドグラフィックスポート、およびプロセッサまたはローカルバスを含む複数種類のバス構造のうち1つ以上の任意のものを表す。一例として、かかるアーキテクチャは、インダストリスタンダードアーキテクチャ(ISA)バス、マイクロチャネルアーキテクチャ(MCA)バス、拡張ISA(EISA)バス、ビデオエレクトロニクススタンダーズアソシエーション(VESA)ローカルバス、およびペリフェラルコンポーネントインターコネクト(PCI)バスを含む。
【0052】
コンピュータシステム/サーバ12は、一般的に、種々のコンピュータシステム可読媒体を含む。かかる媒体は、コンピュータシステム/サーバ12によってアクセス可能な任意の利用可能な媒体でよく、揮発性媒体および不揮発性媒体の両方と、取り外し可能媒体および取り外し不能媒体の両方とを含むことができる。
【0053】
システムメモリ28は、ランダムアクセスメモリ(RAM)30もしくはキャッシュメモリ32またはその両方など、揮発性メモリとしてのコンピュータシステム可読媒体を含むことができる。コンピュータシステム/サーバ12はさらに、他の取り外し可能/取り外し不能コンピュータシステム可読媒体および揮発性/不揮発性コンピュータシステム可読媒体を含んでもよい。一例として、ストレージシステム34は、取り外し不能な不揮発性磁気媒体(不図示。一般に「ハードドライブ」と呼ばれる)への読み書きのために設けることができる。また、図示は省略するが、取り外し可能な不揮発性磁気ディスク(例えば、フロッピーディスク)への読み書きのための磁気ディスクドライブ、および取り外し可能な不揮発性光学ディスク(CD-ROM、DVD-ROMや他の光学媒体など)への読み書きのための光学ディスクドライブを設けることができる。これらの例において、それぞれを、1つ以上のデータ媒体インタフェースによってバス18に接続することができる。以下でさらに図示および説明するように、メモリ28は、本発明の実施形態の機能を実行するように構成されたプログラムモジュールのセット(例えば、少なくとも1つ)を有する少なくとも1つのプログラム製品を含むことができる。
【0054】
プログラムモジュール42のセット(少なくとも1つ)を有するプログラム/ユーティリティ40は、オペレーティングシステム、1つ以上のアプリケーションプログラム、他のプログラムモジュール、およびプログラムデータと同様に、メモリ28に記憶することができる。オペレーティングシステム、1つ以上のアプリケーションプログラム、他のプログラムモジュール、およびプログラムデータ、またはそれらのいくつかの組み合わせの各々は、ネットワーク環境の実装形態を含むことができる。プログラムモジュール42は一般に、本明細書に記載の本発明の実施形態の機能もしくは方法またはその両方を実行する。
【0055】
コンピュータシステム/サーバ12は、キーボード、ポインティングデバイス、ディスプレイ24などの1つ以上の外部装置14、ユーザとコンピュータシステム/サーバ12との対話を可能にする1つ以上の装置、もしくはコンピュータシステム/サーバ12と1つ以上の他のコンピュータ装置との通信を可能にする任意の装置(例えば、ネットワークカードやモデムなど)またはこれらの組み合わせと通信することができる。かかる通信は、入力/出力(I/O)インタフェース22を介して行うことができる。さらに、コンピュータシステム/サーバ12は、ネットワークアダプタ20を介して1つ以上のネットワーク(ローカルエリアネットワーク(LAN)、汎用広域ネットワーク(WAN)、もしくはパブリックネットワーク(例えばインターネット)またはこれらの組み合わせなど)と通信することができる。図示するように、ネットワークアダプタ20は、バス18を介してコンピュータシステム/サーバ12の他のコンポーネントと通信することができる。なお、図示は省略するが、他のハードウェアコンポーネントもしくはソフトウェアコンポーネントまたはその両方を、コンピュータシステム/サーバ12と併用することができる。それらの一例としては、マイクロコード、デバイスドライバ、冗長化処理ユニット、外付けディスクドライブアレイ、RAIDシステム、テープドライブ、データアーカイブストレージシステムなどがある。
【0056】
ここで
図2を参照すると、例示的なクラウドコンピューティング環境50が描かれている。示されるように、クラウドコンピューティング環境50は、例えば、パーソナルデジタルアシスタント(PDA)または携帯電話54A、デスクトップコンピュータ54B、ラップトップコンピュータ54C、もしくは自動車コンピュータシステム54N、またはその組み合わせなどの、クラウド消費者によって用いられるローカルコンピューティングデバイスが通信することができる1または複数のクラウドコンピューティングノード10を含んでいる。ノード10は、互いに通信してもよい。それらは、本明細書で説明したようなプライベート、コミュニティ、パブリック、またはハイブリッドクラウドなどの1または複数のネットワーク、またはそれらの組み合わせにおいて、物理的または仮想的にグループ化(図示せず)してもよい。これにより、クラウドコンピューティング環境50は、クラウド消費者がローカルコンピューティングデバイス上のリソースを維持する必要がないサービスとして、インフラストラクチャ、プラットフォームもしくはソフトウェア、またはその組み合わせを提供することができる。
図2に示されたコンピューティングデバイス54A~Nのタイプは、例示のみを意図しており、コンピューティングノード10およびクラウドコンピューティング環境50は、任意のタイプのネットワークもしくはネットワークアドレス可能接続(例えば、ウェブブラウザを使用して)またはその両方を介して任意のタイプのコンピュータ化デバイスと通信できることが理解される。
【0057】
図3を参照すると、クラウドコンピューティング環境50(
図2)によって提供される機能的抽象化モデルレイヤのセットが示されている。なお、
図3に示すコンポーネント、レイヤおよび機能は例示に過ぎず、本発明の実施形態はこれらに限定されないことをあらかじめ理解されたい。図示するように、以下のレイヤおよび対応する機能が提供される。
【0058】
ハードウェアおよびソフトウェアレイヤ60は、ハードウェアコンポーネントおよびソフトウェアコンポーネントを含む。ハードウェアコンポーネントの例には、メインフレーム61、縮小命令セットコンピュータ(RISC)アーキテクチャベースのサーバ62、サーバ63、ブレードサーバ64、記憶装置65、ならびにネットワークおよびネットワークコンポーネント66が含まれる。いくつかの実施形態において、ソフトウェアコンポーネントは、ネットワークアプリケーションサーバソフトウェア67およびデータベースソフトウェア68を含む。
【0059】
仮想化レイヤ70は、抽象化レイヤを提供する。当該レイヤから、例えば以下の仮想エンティティを提供することができる:仮想サーバ71、仮想ストレージ72、仮想プライベートネットワークを含む仮想ネットワーク73、仮想アプリケーションおよびオペレーティングシステム74、ならびに仮想クライアント75。
【0060】
一例として、管理レイヤ80は以下の機能を提供することができる。リソース準備81は、クラウドコンピューティング環境内でタスクを実行するために利用されるコンピューティングリソースおよび他のリソースの動的な調達を可能にする。計量および価格設定82は、クラウドコンピューティング環境内でリソースが利用される際のコスト追跡、およびこれらのリソースの消費に対する請求またはインボイス送付を可能にする。一例として、これらのリソースはアプリケーションソフトウェアのライセンスを含んでよい。セキュリティは、データおよび他のリソースに対する保護のみならず、クラウドコンシューマおよびタスクの識別確認を可能にする。ユーザポータル83は、コンシューマおよびシステム管理者にクラウドコンピューティング環境へのアクセスを提供する。サービスレベル管理84は、要求されたサービスレベルが満たされるように、クラウドコンピューティングリソースの割り当ておよび管理を可能にする。サービス品質保証(SLA)の計画および履行85は、SLAに従って将来必要になると予想されるクラウドコンピューティングリソースの事前手配および調達を可能にする。
【0061】
ワークロードレイヤ90は、クラウドコンピューティング環境が利用可能な機能の例を提供する。このレイヤから提供可能なワークロードおよび機能の例には、マッピングおよびナビゲーション91、ソフトウェア開発およびライフサイクル管理92、仮想教室教育の配信93、データ分析処理94、取引処理95、ならびに、連携モデル訓練96が含まれる。
【0062】
本発明の実装形態は、プログラムモジュール42の1または複数が、
図3の連携モデル訓練96の1または複数の機能を実行する(またはコンピュータシステム/サーバ12に実行させる)ように構成されている
図1のコンピュータシステム/サーバ12を含むことができる。例えば、プログラムモジュール42の1または複数は、以下のように構成され得る:参加エンティティから公開情報を収集し、関連エンティティのグループを識別し、関連エンティティのグループ内の各エンティティについてワーカーおよびマスター特徴モデルを構築し、プライベート情報の変更を示す変更についてエンティティのデータキャッシュを監視し、エンティティにおいてワーカーおよびマスター特徴モデルを更新または訓練し、更新されたワーカーおよびマスター特徴モデルに基づいて連携モデルを生成し、連携モデルを利用するユーザ照会への応答を生成する。
【0063】
図4は、エンティティ間のデータのフローがガバナンスルールによって制限される、例示的な環境400を説明する図である。図示されるように、ステップ1において、エンティティA(第1のデータコントローラ)は、データ1を作成する。典型的な制限のないデータ交換では、ステップ2で、エンティティAは、データ1をエンティティB(第2のデータコントローラ)に転送し、ステップ3で、エンティティBは、データ2を作成し、エンティティAからデータ1を保存し、ステップ4で、エンティティAはエンティティBからデータ2を受信する。
図4のシナリオでは、エンティティAからエンティティBへのデータフローは、401でガバナンス規則(例えばGDPR規則)により制限される。同様に、エンティティBからエンティティAへのデータフローは、ガバナンスルールによって402で制限される。このシナリオでは、十分な訓練データがないため、エンティティAおよびBでのモデル訓練は不可能である。本発明の実施形態は、複数のエンティティが使用するための連携モデルを生成することによって、この技術的問題に対する技術的解決策を提供する。
【0064】
図5は、本発明の態様による例示的な環境500のブロック図である。実施形態では、環境500は、連携サーバ502を、第1のエンティティサーバ504A、第2のエンティティサーバ504Bおよび第3のエンティティサーバ504Cによって表される複数の単一エンティティサーバ504に接続するネットワーク501を含む。単一エンティティサーバ504の各々は、1または複数のコンピューティングシステム(例えば、
図1のコンピュータシステム12)を含むことができる。実施形態では、単一エンティティサーバ504はそれぞれ、
図2のクラウドコンピューティング環境50内の1または複数のコンピューティングノード10を含む。実施形態では、単一エンティティサーバ504の1または複数は、機械学習モデルを生成および更新するために機械学習技術を利用するように構成された特別目的のコンピューティングデバイスを含む。
【0065】
ネットワーク501は、ローカルエリアネットワーク(LAN)、一般的なワイドエリアネットワーク(WAN)、もしくはパブリックネットワーク(例えば、インターネット)、またはその組み合わせなどの、任意の適切な通信ネットワークまたはネットワークの組み合わせであり得る。実装形態では、連携サーバ502は、クラウドネットワークにおいて参加ユーザにサービスを提供する。
【0066】
実施形態において、本明細書で使用する単一エンティティという用語は、例えば、企業、子会社、非営利組織、または政府機関など、異なる規則もしくは規制またはその両方のセットによって支配されるエンティティを意味する。実施形態では、各エンティティは、他のエンティティとの特定の種類のデータの共有を防止するデータ共有規則(例えば、ポリシー、規則、もしくは法律またはその組み合わせがエンティティ間のデータのフローを制限する)に支配された単一エンティティである。
【0067】
実装形態では、各エンティティサーバ504は、第1のエンティティデバイス505A、第2のエンティティデバイス505B、および第3のエンティティデバイス505Cによって表される1または複数のエンティティデバイス505と直接的または間接的に通信している。エンティティデバイス505の各々は、1または複数のコンピューティングシステム(例えば、
図1のコンピュータシステム12)を含んでもよく、例えば、デスクトップコンピュータ、ラップトップコンピュータ、タブレット、スマートフォン、または他のパーソナルコンピューティングデバイスであってもよい。実施形態では、エンティティデバイス505はそれぞれ、
図2のクラウドコンピューティング環境50内の1または複数のコンピューティングノード10を含む。
【0068】
図5を引き続き参照すると、各エンティティサーバ504は、エンティティサーバ504によって実行され、本明細書に記載の1または複数の機能を実行するように構成された1または複数のプログラムモジュール(例えば、
図1のプログラムモジュール42)を含み得る。実施形態において、単一エンティティサーバ504の各々は、エンティティサーバ504のデータキャッシュ(511、511’および511’’で表される)と他のエンティティサーバ504もしくは連携サーバ502またはその両方との間でデータを取得もしくは転送またはその両方を行うように構成された510、510’および510’’で表される共有情報モジュール(例えばプログラムモジュール42)と、1または複数のエンティティサーバ504のデータを使用してマスター特徴モデルおよびワーカーモデルを訓練し、ローカルに訓練されたマスター特徴モデルおよびワーカーモデルを使用してモデル出力データを生成するよう構成され、512、512’および512’’で表される機械学習(ML)モジュール(例えば、プログラムモジュール42)と、を含む。実装形態において、エンティティサーバ504は、
図5において513、513’、および513’’で表されるデータストアからデータ(例えば、特徴に関するデータ)を収集するように構成されている。
【0069】
依然として
図5を参照すると、連携サーバ502は、連携サーバ502によって実行され、本明細書に記載の1または複数の機能を実行するように構成された1または複数のプログラムモジュール(例えば、
図1のプログラムモジュール42)を含み得る。実施形態では、連携サーバ502は、以下のモジュール(例えば、プログラムモジュール42)のうちの1または複数を含む:データベース515に記憶され得る複数のエンティティサーバ504から公開情報を収集するように構成されたデータ収集モジュール514、複数のマスター特徴モデルおよびワーカーモデルから連携モデルを生成するように構成されたモデル構築モジュール516、およびユーザの照会を取得してユーザの照会に対する回答を生成および出力する(例えば、エンティティサーバ504もしくはエンティティデバイス505またはその両方からの照会)ように構成された連携モデルモジュール517。実装形態では、連携モデルモジュール517は、1または複数の主題ドメインの質問に答えるように構成され、本発明の実施形態により、連携サーバ502によって特定されるエンティティの動的仮想ネットワークのメンバーに利用可能にされる。
【0070】
実施形態において、上述の別々のモジュールは、単一のモジュールに統合されてもよい。さらに、または代替的に、上述した単一のモジュールは、複数のモジュールとして実装されてもよい。さらに、環境500におけるデバイスもしくはネットワークまたはその両方の数量は、
図5に示されるものに限定されない。実際には、環境500は、追加のデバイスもしくはネットワークまたはその両方、より少ないデバイスもしくはネットワークまたはその両方、異なるデバイスもしくはネットワークまたはその両方、または、
図5に図示されたものとは異なる配置のデバイスもしくはネットワークまたはその両方を含むことができる。
【0071】
図6は、本発明の態様による例示的な方法のフローチャートである。方法のステップは、
図5の環境において実施されてもよく、
図5に描かれた要素を参照して説明される。
【0072】
<エンティティの動的な仮想ネットワークの特定>
ステップ600において、各参加単一エンティティサーバ(例えば、第1のエンティティサーバ504A)もしくは連携サーバ502またはその両方は、複数の単一エンティティ参加者から(例えば、参加単一エンティティサーバ504を介して)公開情報を収集し、データベース(例えば、共有情報モジュール510)に情報を保存する。本明細書で使用する公開情報という用語は、制限的な共有ポリシー、規則または規制の対象とならない情報を指す。例えば、本明細書で使用される公開情報は、プライベート、機密、または他のエンティティに広めることが制限されていない単一エンティティ参加者の特徴に関する情報であってよい。逆に、本明細書で使用されるプライベートデータという用語は、制限的な共有ポリシー、規則または規制の対象となる情報を指す。例えば、本明細書で使用されるプライベートデータは、プライベート、機密、または他のエンティティに広めることが制限されているエンティティの情報を含むことができる。
【0073】
ステップ600を引き続き参照すると、データは、各エンティティサーバ(例えば、第1のエンティティサーバ504A、第2のエンティティサーバ504B、第3のエンティティサーバ504C)によって連続的または定期的に収集されることがあり、それぞれの単一エンティティ参加者に固有のデータブロックにキャッシュされることがある。
図6の例では、第1のエンティティサーバ504Aは、第2のエンティティサーバ504B、および第3のエンティティサーバ504Cから公開情報を収集し、各サーバは参加エンティティに関連付けられる。実施形態では、公開情報は、個々のエンティティによって実行されるタスクまたは機能のコンテキストに関する情報を提供する実行コンテキストデータを含む。公開情報は、例えば、エンティティ規模情報(例えば、エンティティの規模、またはエンティティのタスクもしくは機能またはその両方に関するデータ)、エンティティ所有者特性、エンティティ単変量統計(例えば、単一の変量または変数に関する統計)、およびエンティティ財務資源(例えば、負債、収益など)を含み得る。実装形態では、公開情報は、各エンティティもしくは連携サーバ502またはその両方が、関心のある特徴に基づいてエンティティ間の類似性のレベルを決定することを可能にする任意の情報を含む。本明細書で使用される関心のある特徴(以下、特徴)は、機械学習モデルに組み込むことができる公開情報から得られる、または導出される情報を指す。実装形態では、連携サーバ502は、ステップ600で取得された公開情報に基づいて、複数の遠隔のエンティティの特徴を特定する。実施形態では、エンティティサーバ504もしくは連携サーバ502またはその両方は、所定の規則(例えば、ユーザが選択した規則)に基づいて、公開特徴データのみを取得する。実施形態では、単一エンティティサーバの共有情報モジュール(例えば、510)は、ステップ600を実施する。代替実施形態では、連携サーバ502のデータ収集モジュール514は、ステップ600を実施するように構成される。
【0074】
実施形態では、ステップ601で、単一エンティティサーバ(例えば、以下、第1のエンティティサーバ504A)または連携サーバ502が、各単一エンティティ参加者のベクトルマップを生成し、ベクトルマップは、ステップ600で特定された特徴(例えば、ステップ600で収集した公開情報)に基づいて単一エンティティ参加者と他の単一エンティティ参加者の間の関係を表す。本発明の態様において、第1のエンティティサーバ504Aまたは連携サーバ502は、ベクトルマップを生成するために、word2vecアルゴリズムなどの自然言語処理を利用する。実施形態では、第1のエンティティサーバ504Aまたは連携サーバ502は、ベクトルマップに基づいて各エンティティのベクトル距離を計算し、次に、最近接距離のエンティティを、類似性の高い数のエンティティ(例えば、関連エンティティ)を含む一時組織またはサブセットグループにグループ化する。実施形態では、第1のエンティティサーバ504Aまたは連携サーバ502は、ベクトルマップを生成する際に、異なる特徴に異なる重みを適用する。実施形態において、第1のエンティティサーバ504Aまたは連携サーバ502は、ベクトルマップを生成するために、以下のベクトル方程式(1)を利用する。
【0075】
【0076】
【0077】
ステップ602において、実施形態では、第1のエンティティサーバ504Aまたは連携サーバ502は、関連エンティティのグループ(サブセットグループ)を特定する。実装形態では、第1のエンティティサーバ504Aまたは連携サーバ502は、ステップ601で生成されたベクトルマップに基づいて、サブセットグループを特定する。態様において、複数のサブセットグループを含むエンティティの動的仮想ネットワークは、ステップ601のベクトルマップに基づいて、第1のエンティティサーバ504Aまたは連携サーバ502によって特定される。実装形態では、第1のエンティティサーバ504Aまたは連携サーバ502は、エンティティ間のベクトル距離を計算し、最も近い距離を有するエンティティを、類似度の高いエンティティを含む一時的な組織(サブセットグループ)にグループ化する。実施形態では、エンティティは、保存されたルール(例えば、閾値ベクトル距離)に基づいてグループ化される。実施形態では、第1のエンティティサーバ504Aの共有情報モジュール(例えば、510)は、ステップ602を実施する。代替実施形態では、連携サーバ502のデータ収集モジュール514は、ステップ602を実装する。ステップ602の図示された例は、後述する
図7に示されている。
【0078】
ステップ600~602は定期的に繰り返されてもよく、エンティティの動的仮想ネットワーク内のサブセットグループは、単一エンティティの1または複数の特徴が変化するにつれて、時間とともに変化してもよい(例えば、新しいグループ化が追加または取り除かれてもよい)ことを理解されたい。実施形態では、第1のエンティティサーバ504Aまたは連携サーバ502は、関連エンティティのグループ(サブセットグループ)を示す通知を参加エンティティに発行する。通知は、サブセットグループの1または複数に変更が加えられたとき、またはサブセットグループが追加または取り除かれたときに発行され得る。
【0079】
<マスター特徴モデルとワーカーモデルの生成>
ステップ603において、サブセットグループ(例えば、
図7の702A)内のそれぞれのエンティティ(例えば、
図7のA、CおよびF)の各参加単一エンティティサーバ(例えば、第1のエンティティサーバ504A)は、マスター特徴モデル内の特徴のサブセットについて複数のワーカーモデル(機械学習モデル)を構築する。実装形態では、異なるワーカーモデルは、異なる企業取引タイプ、従業員作業現場などに基づいてもよい。実施形態において、第1のエンティティサーバ504Aは、マスター特徴モデルの特徴の一部を用いてS個のワーカーモデルを構築し、ここで、S=部分特徴サブセットの大きさである。例えば、S=3のとき、ワーカーモデルは、マスター特徴モデルからの特徴(例えば、
図7のFM1、FM2およびFM3)を含む。実装形態では、ワーカーモデルは、財務状況、ビジネス収益などの固定キー特徴、もしくはメタデータ、パラメータなどのオプション特徴、またはその両方を含む。ワーカーモデルを構築するために様々なモデル構築ツールが利用されてもよく、本明細書の発明の実装は、機械学習モデルを構築するために利用される方法によって限定されることを意図しない。実施形態では、各エンティティサーバ(例えば、第1のエンティティサーバ504A)のMLモジュール(例えば、MLモジュール512)は、ステップ603を実装する。
【0080】
ステップ604において、サブセットグループ(例えば、
図7の702A)内のそれぞれのエンティティ(例えば、
図7のA、C、F)の各参加単一エンティティサーバ(例えば、第1のエンティティサーバ504A)は、ワーカーモデルのすべての特徴(例えば、
図7のF1、F2、F3)を有するマスター特徴モデル(機械学習モデル)を構築する。関心のあるすべての特徴(例えば、ステップ600で情報が収集された特徴)についてマスター特徴モデルを構築するために、様々なモデル構築ツールが利用されてもよく、本明細書の発明の実施形態は、機械学習モデルを構築するために利用される方法によって限定されることを意図しない。実施形態では、各エンティティサーバ(例えば、第1のエンティティサーバ504A)のMLモジュール(例えば、MLモジュール512)は、ステップ604を実施する。
【0081】
一例では、第1のワーカーデバイス(例えば、エンティティデバイス505Aの1つ)のデータストア(例えば、513)は、第1のワーカーモデルを構築するために使用される以下のデータベース統計特徴に関するデータを含む:テーブルカーディナリティ、ページ番号、およびアクセス頻度。この例では、第2のワーカーデバイスのデータストアは、第2のワーカーモデルを構築するために使用される以下のデータベース統計特徴に関するデータを含む:インデックスレベル、I/Oスピード、およびアクセス頻度。さらに、この例では、第3のワーカーデバイスのデータストアは、第3のワーカーモデルを構築するために使用される以下のデータベース統計特徴に関するデータを含む:リーフページ、ページ番号、およびシステムキャッシュ。この例では、第1、第2および第3のワーカーモデルの特徴の一部が重複している。したがって、マスター特徴モデルは、個々のワーカーモデルの上記特徴の全てを考慮することになる。したがって、ワーカーモデルの各々は、サブセットグループ(例えば、
図7の702B)のエンティティA、CおよびFについての例示的なマスター特徴テーブルに示されるように、マスター特徴モデルによって考慮される全特徴の部分的な特徴セットまたはサブセットを考慮する。
【表1】
【0082】
表1は、マスター特徴モデルの特徴を示す、例示的な特徴の表である。
【0083】
ステップ605において、サブセットグループ(例えば、702A)内のそれぞれのエンティティ(例えば、A、CおよびF)の各参加単一エンティティサーバ(例えば、第1のエンティティサーバ504A)は、マスター特徴モデルおよびワーカーモデルの出力に重み(集約重み)を割り当てる。一例では、第1のエンティティサーバ504は、マスター特徴モデル出力重みを0.5、ワーカーモデル出力重みを0.17として、ワーカーモデルnに割り当てる。エンティティサーバによる重みの初期割当は、所定のデフォルト重み、所定の規則に基づいてよく、手動で割り当てられてもよい。
【0084】
実施形態において、サブセットグループの各エンティティは、ローカルデータ(例えば、プライベートデータ)に基づいて、そのマスター特徴モデルおよびワーカーモデルをローカルに訓練する。本発明の実装形態は、モデル訓練の特定の方法に限定されることを意図していない。実装形態では、マスター特徴モデルおよびワーカーモデルの出力データは、他の参加エンティティ(例えば、同じサブセットグループ内の他のエンティティ)によってアクセス可能なそれぞれのデータキャッシュに、各エンティティによってキャッシュされる。例えば、第1のエンティティサーバ504Aからのモデル出力データは、データキャッシュ511に保存されることがある。実施形態では、各エンティティサーバ(例えば、第1のエンティティサーバ504A)のMLモジュール(例えば、MLモジュール512)は、ステップ605を実装する。
【0085】
<ローカル訓練>
ステップ606において、各参加単一エンティティサーバ(例えば、第1のエンティティサーバ504A)は、データキャッシュの監視に基づいて、1または複数のデータキャッシュ(例えば、511、511’、511’’)への変化を特定する。実施形態では、参加エンティティ(例えば、
図7のサブセットグループ702AのA、CおよびF)のキャッシュされたデータは、それぞれのエンティティの集約されたマスター特徴モデルおよびワーカーモデルからのモデル出力データ、もしくは別の参加エンティティからのモデル出力データ、またはその両方を含む。データの変化は、例えば、入力データの特性に関する情報、キーパラメータの値、選択されたビジネスに関する情報、および観察された応答を含み得る。一例では、第1のエンティティサーバ504Aは、データキャッシュ(例えば、511)内の監視された情報へのあらゆる変化がステップ607でキャッシュされたデータの精度の評価をトリガするように、変化を監視される情報のタイプまたはカテゴリを特定するルールを含む。実装形態では、キャッシュされたデータは、プライベートデータに関連するが、プライベートデータを開示することはない。本発明の態様において、各参加単一エンティティサーバ504は、エンティティ側(例えば、第1のエンティティサーバ504A)でプライベートデータ(マスター特徴モデルおよびワーカーモデルへのプライベートデータ入力)の変化を示すキャッシュされたデータへの変化を特定する。実装形態では、参加単一エンティティサーバのMLモジュール(例えば、512)は、ステップ606に従って、入力データを監視する。エンティティのマスター特徴モデルおよびワーカーモデルを用いたモデル出力データの生成の一例を、後述する
図8に示す。
【0086】
ステップ607で、各参加単一エンティティサーバ(例えば、第1のエンティティサーバ504A)は、モデルの精度を計算する(MA2)。以下の式(2)を参照されたい。実施形態では、各参加単一エンティティサーバ504は、モデルに関連するキャッシュされたデータがユーザ指定のデータ閾値より大きい場合に、モデルの精度の計算を開始する。モデルの精度を計算するために様々な方法を利用することができ、本発明の実装形態は、本明細書に記載された例によって限定されることを意図していない。実装形態において、各参加単一エンティティサーバ504のMLモジュール(例えば、512)は、ステップ607を実施する。
【0087】
ステップ608において、各参加単一エンティティサーバ(例えば、第1のエンティティサーバ504A)は、必要に応じて、(ステップ605で最初に適用された)ワーカーモデルおよびマスター特徴モデルの重みを、所定の規則に基づいて更新または調整する。統計モデリングにおいて、回帰分析は、従属変数と1または複数の独立変数との間の関係を推定するための統計処理のセットである。回帰予測モデリングのために、エラーメトリクスが計算されてもよい。回帰のためのメトリクスは、モデルの予測スキルを要約するためにエラースコアを計算することを含む。回帰モデルのパフォーマンスを評価し報告するために一般的に使用される3つのエラーメトリクスは以下を含む:平均二乗誤差(MSE)、ルート平均二乗誤差(RMSE)、および平均絶対誤差(MAE)。実装形態では、各参加単一エンティティサーバ504は、データキャッシュ(例えば、511)内のキャッシュされたデータがユーザ指定のデータ閾値より大きいと判断すると、キャッシュされたデータに対するモデル精度またはモデルメトリック(MA2)の計算を開始し、以下の式(2)を用いてワーカーモデルの重みを調整する。
【0088】
【0089】
実装形態では、以下のエラーメトリクスの1つが、モデルメトリック(MA
2)として利用され得る:平均二乗誤差(MSE)、ルート平均二乗誤差(RMSE)、または平均絶対誤差(MAE)。この例では、式(2)のWW
iは、調整されたi個のワーカーモデル重みを表し(新しいデータがエンティティに来るので、このエンティティにおけるワーカーモデル重みは調整する必要がある)、WW
jは、iを含まない他のワーカーモデル重み(1~j)を表す。同様に、エンティティのマスター特徴モデルは、ワーカーモデルと同じ戦略を利用する。式(2)がマスター特徴モデル重みの調整を表す場合、cached_WWは、調整後のマスターモデル重みであるcached_MWを使用するように変換でき、WW(j)は、マスター特徴モデル重みがすべてのワーカーモデルによって調整されるため、次にすべてのワーカーモデル(iを含む1~jまで)を表す。したがって、本発明の実施形態では、各参加単一エンティティサーバ504は、キャッシュされたデータの計算された精度に基づいて、関連エンティティのワーカーモデルおよびマスター特徴モデルの重みを調整する。実装形態では、各参加単一エンティティサーバ(例えば、504A)のMLモジュール(例えば、512)は、ステップ608を実施する。モデル訓練で使用するための関連エンティティによる新しいモデルデータの生成の例示的な例が、後述する
図9に描かれている。
【0090】
<連携モデル>
ステップ609で、連携サーバ502は、サブセットグループの参加メンバーから照会を受信する。例えば、
図7のサブセットグループ702BのエンティティAの従業員は、連携サーバ502によって提供されるグラフィカルユーザインターフェース(GUI)を利用して、連携機械学習モデルによって対処され得る照会を連携サーバ502に提出し得る。実装において、連携サーバ502は、参加メンバーに関連するマスター特徴モデルおよびワーカーモデルを特定する。エンティティの動的仮想ネットワーク700の参加メンバーは、連携サーバ502に登録してもよく、連携サーバ502は、連携サーバ502の機械学習サービスにアクセスするために参加メンバーによって提供されたログイン情報に基づいて、参加メンバーを特定してもよい。例えば、メンバーは、サブセットグループ702BのエンティティAに属していてもよい。この例では、連携サーバ502は、照会に応答して出力(連携予測)を生成するために、サブセットグループ702Bに関連するマスター特徴モデルおよびワーカーモデルを取得し、利用するであろう。実施形態において、連携モデルモジュール517は、ステップ609を実施する。
【0091】
ステップ610において、連携サーバ502は、参加メンバーのサブセットグループ(例えば、
図7のサブセットグループ702B)内の各エンティティのマスター特徴モデルおよびワーカーモデルに基づいて、連携モデルを構築する。実装形態では、連携サーバ502は、サブセットグループ内のすべてのマスター特徴モデルおよびワーカーモデルを特定し、取得する。例えば、サブセットグループ702BのエンティティAの従業員からの照会に対して、連携サーバ502は、エンティティA、CおよびFのマスター特徴モデルおよびワーカーモデルを取得し利用する。実装形態において、連携サーバ502は、参加メンバーからの照会を受信する前に、または照会に応答して連携モデルを構築し得る。本発明の実装は、連携サーバ502がマスター特徴モデルおよびワーカーモデルをサブセットグループ内のエンティティを形成して取得する方法に限定されることを意図していない。実装形態では、連携サーバ502のモデル構築モジュール516は、ステップ610を実装し、連携モデルを連携モデルモジュール517に記憶する。実装形態では、連携サーバ502によって記憶された連携モデルは、エンティティの動的仮想ネットワーク700のメンバーによって使用可能である。
【0092】
実施形態では、各参加単一エンティティサーバ(例えば、第1のエンティティサーバ504A)は、マスター特徴モデルおよびワーカーモデルのキャッシュを管理する。実装形態では、各参加単一エンティティサーバは、ステップ607に従って、モデルメトリック別にキャッシュされたデータに基づいてアクティブモデル(エンティティによって使用中のモデル)の精度を連続的または定期的に計算し、それぞれのエンティティのキャッシュされたデータブロック(例えば、データキャッシュ511、511’、511’ ’)への変更に基づいて必要に応じて新しいマスター特徴モデルおよびワーカーモデルを連続的に構築し、連携モデルの生成において連携サーバ502が用いるために閾値T
acc1よりも高い精度をもつマスター特徴モデルおよびワーカーモデルをキャッシュする。実装形態では、動的なマスター特徴モデルおよびワーカーモデルの平均精度が閾値T
acc1より小さい場合、連携サーバ502はステップ610でアクティブモデルとキャッシュされたモデルを利用(混合)する。実施形態において、連携サーバ502は、混合されたアクティブモデルおよびキャッシュされたモデルを精度によってソートし、ステップ610において、生成された連携モデルにおいて使用するための新しいアクティブモデルリストとしてアクティブモデルの上位S個を選択する。本発明の態様において、各エンティティサーバ504は、モデルの精度に基づいて選択されたアクティブモデルに対して重みを割り当てるか、調整式(2)を利用してモデルの重みを調整するか、モデルに対して以前に割り当てられた重みを再利用する。連携モデルを生成するためにマスター特徴モデルを連携させる例示的な例が、後述する
図10に示されている。連携モデルを生成するためにワーカーモデルを連携させる例示は、後述の
図11に示される。
【0093】
ステップ611において、連携サーバ502は、ステップ610で特定された適切な連携モデルを利用した応答(連携予測)を生成し、ステップ609で受信した照会に応答して、参加メンバーに応答を出力する。実施形態において、連携サーバ502の連携モデルモジュール517は、ステップ611を実施する。
【0094】
特に断らない限り、
図6のステップは、
図6に描かれているのとは異なる順序で実行することができる。さらに、複数のエンティティサーバ504によって実行される
図6のステップは、エンティティサーバの各々によって同時に実行される必要はないことを理解されたい。代わりに、単一エンティティサーバ504の各々は、示されたステップを互いに独立して実行することができる。
【0095】
図7は、
図6のステップ601および602によるエンティティグループの特定を説明する図である。
図7に表されるステップは、
図5の環境において実施されてもよく、
図5に描かれた要素を参照しながら説明される。
【0096】
図7の例示的なシナリオでは、連携サーバ(例えば、
図5の連携サーバ502)は、5つのサブセットグループ702を含む関連エンティティの動的仮想ネットワーク700を特定する。より具体的には、連携サーバ502は、第1のエンティティサーバ504A、第2のエンティティサーバ504Bおよび第3のエンティティサーバ504Cから公開データを取得し、それぞれの関係マップ704A、704B、704Cを生成する。
図7に示されるように、主要な単一エンティティ参加者の各関係マップは、他の単一エンティティ参加者(例えば、隣接706)、他の単一エンティティ参加者の特徴(例えば、特徴707)、および主要な単一エンティティ参加者の特徴と他の単一エンティティ参加者の特徴との間の類似性を定量化する関係パラメータ(例えば、関係708)を特定する。例えば、関係マップ704Aは、他のエンティティB、CおよびDの特徴F1、F2およびF3が、以下の結果をもたらすことを示す:単一エンティティAと単一エンティティBとの間の関係パラメータが0.992、単一エンティティAと単一エンティティCとの間の関係パラメータが0.927、および単一エンティティAと単一エンティティDとの間の関係パラメータが0.872である。
【0097】
図7の例では、関係マッピングの結果、単一エンティティA~Vから得られた情報に基づいて、エンティティBおよびV、エンティティE、G、UおよびH(サブセットグループ702A)、エンティティA、CおよびF(サブセットグループ702B)、エンティティK、およびエンティティGを含む5つの異なるサブセットグループ702になる。この例では、単一エンティティKおよびGは、別の単一エンティティ参加者とグループ化されるのに必要な最小閾値を満たす関係パラメータを有さない。すなわち、単一エンティティKおよびGの特徴は、連携サーバ502が他の単一エンティティ参加者とグループ化するために、他の単一エンティティ参加者の特徴に十分類似していない。
【0098】
図8は、
図6のステップ606で変化を監視することができるモデル出力を生成およびキャッシュするための、本発明の実施形態による単一エンティティによるワーカーモデルとマスター特徴モデルの集約を示す。
図8の例では、エンティティ(例えば、エンティティA)の機械学習実行環境800は、第1のワーカーモデルWW
1、第2のワーカーモデルWW
2、第3のワーカーモデルWW
3、およびマスター特徴モデルMWを含む。ワーカーモデルWW
1、WW
2、WW
3の出力は、例えば802で示されるように、マスター特徴モデルMWに提供され、また例えば804で示されるように、他のワーカーモデルへの入力として使用することもできる。実装では、エンティティ(例えば、エンティティA)は、そのマスター特徴モデルおよびワーカーモデルに基づいて、予測(例えば、照会に対する応答)を生成することができる。実装では、マスター応答は、マスター特徴モデルを適用することによって方程式を用いて予測され、各ワーカー応答は、対応するワーカーモデルを適用することによって予測され、マスター特徴モデルおよびワーカーモデルからの結果は、単一エンティティサーバ(例えば、第1のエンティティサーバ504A)によって集約されて、以下の方程式(3)を用いて最終予測を取得する。
【0099】
【0100】
ここで、WWi、調整されたi個のワーカーモデルの重み、MRはマスター特徴モデルの出力(応答)であり、WRiはワーカーモデルの出力(応答)であり、Sは部分特徴サブセットのサイズであり、i=1~Sである。一例では、初期MW=0.5、初期WWi=0.17である。
【0101】
図9は、
図6のステップ606に従って監視され得る、本発明の実施形態によるサブセットグループのデータキャッシュを示す図である。
図9の例では、エンティティA、CおよびFを含むサブセットグループ702Bが描かれている。
図9に示されるように、データの新しいブロック(例えば、ブロック1、ブロック2、ブロック3)として示されるモデル出力は、それぞれのエンティティA、BおよびCによって生成され、例えば900で表されるように、エンティティ間で共有され得る。実施形態では、それぞれのエンティティA、BおよびCのマスター特徴モデルおよびワーカーモデルは、モデル出力を生成するためにプライベートデータ入力を利用する。新しいデータは、902で示されるように、少なくとも1つのデータキャッシュ901に保存される。少なくとも1つのデータキャッシュ901内のデータの新しいブロックは、例えば904で示されるように、各エンティティA、BおよびCによって、各エンティティのマスター特徴モデルおよびワーカーモデルを訓練するために利用され得る。エンティティA、CおよびFによってローカルマスター特徴モデルおよびワーカーモデルが訓練されると、エンティティのモデル出力が改善される(より正確な応答/予測を提供する)。したがって、連携サーバ502は、以下により詳細に説明するように、エンティティA、BおよびCの更新/訓練されたマスター特徴モデルおよびワーカーモデルを利用して、連携モデル908を生成し得る。
【0102】
図10は、
図6のステップ610による連携モデル1000の生成を説明するための図である。
図10の例では、連携サーバ502は、エンティティA、CおよびFを含む、
図7のエンティティの動的仮想ネットワーク700のサブセットグループ702Bのための連携モデル1000を生成する。
図10は、エンティティA、CおよびFによって生成された集約マスター特徴モデルおよびワーカーモデル出力e1、e2およびe3を描き、モデルを訓練する目的でエンティティ間で共有されてよい。各マスター特徴モデル(例えば、マスターモデル1~3)は、重みW
iをパラメータに適用し、1002で示される重み付き出力を提供する。実装形態では、連携サーバ502は、並列計算重み方程式を使用して、サブセットグループ(例えば、702B)のすべてのマスター特徴モデルを結合する。方程式は、性能コストおよびコンピューティングメトリックに応じて、確率的勾配降下法(SGD)またはパラメータ平均化(
図10の1004で示される)であってもよい。実装では、連携サーバ502は、以下のパラメータ平均化式(4)を利用して連携モデルを生成する。
【0103】
【0104】
図11は、
図6のステップ610による連携ワーカーモデルの使用を示す図である。機械学習連携モデル1000では、ワーカーモデルが部分特徴で構築される。
図11の例では、それぞれのエンティティ(例えば、A、F、C)のワーカーモデルFWW1、FWW2、およびFWW3は、それぞれの予測子セット1~3を生成するために利用される。
図11は、各エンティティのワーカー(例えば、ワーカーA~C)によって生成されたワーカーモデル出力e1、e2、およびe3を描き、これは、モデルを訓練する目的でエンティティ間で共有され得る。実施形態において、連携サーバ502は、以下の式(5)を利用して連携予測を得る。
【0105】
【0106】
ここで、FMWは連携モデル、MWはマスターモデルに対する重み、MRはマスター特徴モデル出力、FWWは結合/連携ワーカーモデル、WWはマスター特徴モデルに対する初期重み、WRはワーカーモデル出力である。
【0107】
図12は、本発明の態様による機械学習モデルの連携システムにおけるワークフローを示す図である。
図6のステップは、
図12に図示されており、
図5の環境500において実行され得る。
図12に描かれたワークフローの複数の反復は、本発明の機械学習モデルの継続的な学習をもたらすことを理解されたい。
【0108】
反復の開始時(1200)に、エンティティ(例えば、エンティティA)の第1のエンティティサーバ504Aは、他の参加エンティティ(例えば、サブセットグループ702BのCおよびF)に関する公開または共有情報1203を1202で収集する。第1のエンティティサーバ504Aは、
図6のステップ600に従って1202で情報を収集することができる。第1のエンティティサーバ504Aは、エンティティの特徴に関する情報を特徴コレクション1204としてデータベースに記憶してもよい。新しい情報が1202で収集されると、第1のエンティティサーバ504Aは、新しいマスター特徴モデルおよびワーカーモデルに追加されるべき新しい特徴1205を特定してもよい。
【0109】
依然として
図12を参照すると、1206において、第1のエンティティサーバ504Aは、第1のエンティティサーバ504Aによって特定された関心のあるすべての特徴を組み込んで、1つのマスター特徴モデル1207を構築する。連携サーバ502は、連携モデル1209で使用するための連携マスター特徴モデルを取得するために、パラメータ平均化統合1208を利用して関連マスター特徴モデル1207からの特徴を組み合わせる(連携する)ことができる。ステップ1206は、
図6のステップ604に従って実施されてもよい。エンティティのためのマスター特徴モデル1207は、1210で示されるように、そのエンティティ(例えば、第1のエンティティサーバ504A)によって再訓練されてもよい。実装形態では、エンティティは、部分計算のための特徴のサブセットグループを選択し、回帰の反復を開始する。実施形態では、エンティティは、マスター特徴モデル1207の以前の特徴を活用するが、エンティティ位置でより詳細な情報(例えば、プライベートまたは機密情報)を収集する。追加の情報は、例えば、キーパラメータの値、ビジネス構成情報(例えば、財務、クラウド使用など)、もしくは入力データの特性に関する情報、またはその組み合わせを含み得る。態様において、エンティティ(例えば、第1のエンティティサーバ504A)は、特徴とターゲットとの間の関係に対する回帰モデルを構築する。実装では、エンティティ(例えば、エンティティA)は、以下の式(6)を利用することができる。
【0110】
式(6):Y=F(X)、ここでYは目標値、Xは入力特徴量、Fは関数である。
【0111】
図12の1211で、第1のエンティティサーバ504Aは、複数のワーカーモデル1212を構築する。各ワーカーモデルは、マスター特徴モデル1207の全特徴のサブセットを含む特徴サブセット1213のために構築される。実装形態では、1211は、
図6のステップ603に従って実行されてもよい。
図12の例では、ワーカーモデルは、特徴FM1、FM2およびFM3について構築され、Sは部分特徴サブセットのサイズであり、S=3である。実施形態では、ワーカーモデルは、キー特徴サブセット1214について構築され、キー特徴はモデリングにおいて常に利用される固定特徴(モデリングされるかもしれないオプション特徴とは対照的に)である。実施形態において、連携サーバ(例えば、
図5の502)は、連携モデル1209で使用するために、パラメータ平均化統合1215(すなわち、異なるエンティティからのワーカーモデルを連携させる)を利用してワーカーモデル1212から特徴を結合する。第1のエンティティサーバ504Aは、1216で描写されるように、
図6のステップ608に従って、ワーカーモデルの重みを調整することによってワーカーモデルを最適化することができる。
【0112】
1217で、第1のエンティティサーバ504Aは、マスター特徴モデルおよびワーカーモデルに初期重みを割り当てる。ステップ1217は、
図6のステップ605に従って実施され得る。
図12の例では、マスター特徴モデルは初期重みMWを割り当てられ、ワーカーモデルは初期重みWWnを有する。この例では、MW=eであり、eは0より大きく1より小さく、WWn=(1-e)/Sである。例えば、S=3、e=0.5のとき、MW=0.5、WW
n=0.17となる。
【0113】
1218で、第1のエンティティサーバ504Aは、必要に応じて、モデル重みを調整する。ステップ1218は、
図6のステップ608に従って実施され得る。実装形態では、エンティティのデータキャッシュのサイズが閾値トリガーサイズを満たす場合、第1のエンティティサーバ504Aは、現在のマスター特徴モデルおよびワーカーモデルの精度を計算し、精度に従ってモデル重みを調整する。
【0114】
有利には、本発明の実施形態は、関連エンティティの動的仮想ネットワークを構築して、エンティティの個々の機械学習モデルを共有する。実装形態では、特徴レベルにおいて、マスター特徴モデルおよびワーカーモデルが、動的な特徴の重みの関係で構築される。実施形態において、モデルレベルでは、連携分散システムは、個々の敏感なデータモデルからの反復計算に基づいて連続的に学習する。
【0115】
実施形態において、サービスプロバイダは、本明細書に記載されたプロセスを実行することを提供し得る。この場合、サービスプロバイダは、1または複数の顧客のために、本発明のプロセスステップを実行するコンピュータインフラストラクチャを作成、維持、配備、サポートなどすることができる。これらの顧客は、例えば、技術を使用するあらゆるビジネスであり得る。その見返りとして、サービスプロバイダは、サブスクリプションもしくは料金契約またはその両方に基づいて顧客から支払いを受けることができ、もしくは、サービスプロバイダは、1または複数の第三者への広告コンテンツの販売から支払いを受けることができる、またはその両方である。
【0116】
さらに追加の実施形態では、本発明は、ネットワークを介した、コンピュータ実装方法を提供する。この場合、コンピュータシステム/サーバ12(
図1)などのコンピュータインフラストラクチャが提供される場合があり、本発明のプロセスを実行するための1または複数のシステムが、コンピュータインフラストラクチャに入手(例えば、作成、購入、使用、変更など)および配備されることができる。この限りにおいて、システムの展開は、(1)コンピュータシステム/サーバ12(
図1に示す)などのコンピューティングデバイスに、コンピュータ可読媒体からプログラムコードをインストールすること、(2)コンピュータインフラストラクチャに1または複数のコンピューティングデバイスを追加すること、(3)コンピュータインフラストラクチャが本発明のプロセスを実行できるように、コンピュータインフラストラクチャの1または複数の既存のシステムを組み込むもしくは変更するまたはその両方を行うこと、の1または複数を含むことができる。
【0117】
本発明の様々な実施形態の説明は、例示の目的で提示されているが、網羅的であることを意図するものではなく、開示される実施形態に限定されることを意図するものでもない。記載される実施形態の範囲から逸脱することなく、多くの修正および変更が可能であることは当業者には明らかであろう。本明細書で使用される用語は、実施形態の原理、市場で見られる技術に対する実際の適用または技術的改善を最もよく説明するため、または当業者が本明細書に記載の実施形態を理解できるようにするために選択された。
【手続補正書】
【提出日】2024-01-17
【手続補正1】
【補正対象書類名】特許請求の範囲
【補正対象項目名】全文
【補正方法】変更
【補正の内容】
【特許請求の範囲】
【請求項1】
コンピューティングデバイスによって、ネットワーク化されたエンティティのグループ内のエンティティのキャッシュされたデータを、データの変化について監視することであって、前記キャッシュされたデータは、前記エンティティのワーカーモデルおよびマスター特徴モデルからのモデル出力データを含み、前記ワーカーモデルおよび前記マスター特徴モデルは機械学習モデルを含む、監視することと、
前記コンピューティングデバイスによって、前記監視に基づいて、前記ワーカーモデルおよび前記マスター特徴モデルのパラメータ重みを反復更新し、それによって、更新されたワーカーモデルおよび更新されたマスター特徴モデルを生成することと、
前記エンティティの前記更新されたワーカーモデルおよび前記更新されたマスター特徴モデルを、前記ネットワーク化されたエンティティのグループ内の他のエンティティの他の更新されたマスター特徴モデルおよび他の更新されたワーカーモデルに組み込む連携モデルで使用するために、前記コンピューティングデバイスによって、遠隔の連携サーバに前記更新されたワーカーモデルおよび前記更新されたマスター特徴モデルを提供することと、
を含む、方法。
【請求項2】
前記コンピューティングデバイスによって、前記ワーカーモデルを構築することであって、前記ワーカーモデルはそれぞれ、前記エンティティに関連する特徴のセットのサブセットを含む、構築することと、
前記コンピューティングデバイスによって、前記マスター特徴モデルを構築することであって、前記マスター特徴モデルは、前記エンティティに関連する前記特徴のセット内のすべての特徴を含む、構築することと、
をさらに含む、請求項1に記載の方法。
【請求項3】
前記コンピューティングデバイスによって、前記エンティティの前記マスター特徴モデルおよび前記ワーカーモデルのパラメータ平均化統合を利用したモデル出力を生成することをさらに含む、請求項1に記載の方法。
【請求項4】
前記コンピューティングデバイスによって、前記ワーカーモデルおよび前記マスター特徴モデルに初期パラメータ重みを割り当てることをさらに含む、請求項1に記載の方法。
【請求項5】
前記マスター特徴モデルおよび前記ワーカーモデルからの前記モデル出力データは、前記エンティティによるプライベートデータ入力に基づいて生成される、請求項1に記載の方法。
【請求項6】
前記コンピューティングデバイスによって、前記ネットワーク化されたエンティティのグループの参加メンバーからの照会を、前記連携サーバに送信することと、
前記コンピューティングデバイスによって、前記連携サーバから前記照会に対する応答を受信することであって、前記応答は前記連携モデルの出力に基づく、受信することと、
をさらに含む、請求項1に記載の方法。
【請求項7】
前記コンピューティングデバイスによって、前記エンティティの前記ワーカーモデルおよび前記マスター特徴モデルの精度を決定することをさらに含み、前記エンティティの前記ワーカーモデルおよび前記マスター特徴モデルの前記パラメータ重みを前記反復更新することは、前記エンティティの前記マスター特徴モデルおよび前記ワーカーモデルの前記精度にさらに基づく、請求項1に記載の方法。
【請求項8】
プログラム命令が1または複数のコンピュータ可読記憶媒体に集合的に記憶されている前記1または複数のコンピュータ可読記憶媒体を含むコンピュータプログラム製品であって、前記プログラム命令は、コンピューティングデバイスによって実行可能であり、前記コンピューティングデバイスに、
ネットワーク化されたエンティティのグループ内のエンティティのキャッシュされたデータを、データの変化について監視することであって、前記キャッシュされたデータは、前記エンティティのワーカーモデルおよびマスター特徴モデルからのモデル出力データを含み、前記ワーカーモデルおよび前記マスター特徴モデルは機械学習モデルを含む、監視することと、
前記監視に基づいて、前記ワーカーモデルおよび前記マスター特徴モデルのパラメータ重みを反復更新し、それによって、更新されたワーカーモデルおよび更新されたマスター特徴モデルを生成することと、
前記エンティティの前記更新されたマスター特徴モデルおよび前記更新されたワーカーモデルを、前記ネットワーク化されたエンティティのグループ内の他のエンティティの他の更新されたマスター特徴モデルおよび他の更新されたワーカーモデルに組み込む連携モデルで使用するために、遠隔の連携サーバに前記更新されたマスター特徴モデルおよび前記更新されたワーカーモデルを提供することと、
を実行させる、コンピュータプログラム製品。
【請求項9】
前記プログラム命令は、さらに、前記コンピューティングデバイスによって実行可能であり、前記コンピューティングデバイスに、
それぞれのエンティティの特徴に基づいて、前記ネットワーク化されたエンティティのグループ内のエンティティ間の関係を表すベクトルマップを生成することと、
前記ベクトルマップに基づいて、関連するエンティティのグループを特定することであって、前記ネットワーク化されたエンティティのグループは前記関連するエンティティのグループを含み、前記関連するエンティティのグループの各エンティティは特徴のセットに関連付けられる、特定することと、
を実行させる、請求項8に記載のコンピュータプログラム製品。
【請求項10】
前記プログラム命令は、さらに、前記コンピューティングデバイスによって実行可能であり、前記コンピューティングデバイスに、複数の遠隔のエンティティの公開情報のみに基づいて前記複数の遠隔のエンティティの前記特徴を特定させる、請求項9に記載のコンピュータプログラム製品。
【請求項11】
前記プログラム命令は、さらに、前記コンピューティングデバイスによって実行可能であり、前記コンピューティングデバイスに、
前記ワーカーモデルを構築することであって、前記ワーカーモデルはそれぞれ、前記エンティティに関連する特徴のセットのサブセットを含む、構築することと、
前記マスター特徴モデルを構築することであって、前記マスター特徴モデルは、前記エンティティに関連する前記特徴のセット内のすべての特徴を含む、構築することと、
を実行させる、請求項8に記載のコンピュータプログラム製品。
【請求項12】
前記プログラム命令は、さらに、前記コンピューティングデバイスによって実行可能であり、前記コンピューティングデバイスに、前記エンティティの前記ワーカーモデルおよび前記マスター特徴モデルに基づくモデル出力を生成することを実行させる、請求項8に記載のコンピュータプログラム製品。
【請求項13】
前記プログラム命令は、さらに、前記コンピューティングデバイスによって実行可能であり、前記コンピューティングデバイスに、前記エンティティの前記ワーカーモデルおよび前記マスター特徴モデルに初期パラメータ重みを割り当てることを実行させる、請求項8に記載のコンピュータプログラム製品。
【請求項14】
前記ワーカーモデルおよび前記マスター特徴モデルからの前記モデル出力データは、前記エンティティによるプライベートデータ入力に基づいて生成される、請求項8に記載のコンピュータプログラム製品。
【請求項15】
前記プログラム命令は、さらに、前記コンピューティングデバイスによって実行可能であり、前記コンピューティングデバイスに、
前記ネットワーク化されたエンティティのグループの参加メンバーからの照会を、前記連携サーバに送信することと、
前記連携サーバから前記照会に対する応答を受信することであって、前記応答は前記連携モデルの出力に基づく、受信することと、
を実行させる、請求項8に記載のコンピュータプログラム製品。
【請求項16】
前記連携モデルは、前記エンティティの前記更新されたマスター特徴モデルおよび前記更新されたワーカーモデルと、前記ネットワーク化されたエンティティのグループ内の前記他のエンティティの前記他の更新されたマスター特徴モデルおよび前記他の更新されたワーカーモデルとのパラメータ平均化統合を利用して生成される、請求項8に記載のコンピュータプログラム製品。
【請求項17】
プロセッサと、コンピュータ可読メモリと、1または複数のコンピュータ可読記憶媒体と、1または複数のコンピュータ可読記憶媒体に集合的に記憶されたプログラム命令とを含み、前記プログラム命令は、連携サーバによって実行可能であり、前記連携サーバに、
ネットワーク化されたエンティティのグループの参加メンバーからの照会を受信することと、
前記ネットワーク化されたエンティティのグループ内のそれぞれのエンティティのマスター特徴モデルおよびワーカーモデルに基づいて、連携モデルを生成することと、
前記連携モデルの出力に基づいて、前記照会に対する応答を生成することと、
前記照会に対する前記応答を前記参加メンバーに送信することと、を実行させ、
前記マスター特徴モデルは、それぞれ、前記ネットワーク化されたエンティティのグループ内のそれぞれのエンティティのすべての特徴を含み、
前記ワーカーモデルは、それぞれ、前記ネットワーク化されたエンティティのグループ内のそれぞれのエンティティの前記すべての特徴のサブセットを含み、
前記マスター特徴モデルおよび前記ワーカーモデルは、前記連携サーバによってアクセスできないプライベートデータに基づいて、前記それぞれのエンティティによって反復更新される、
システム。
【請求項18】
前記連携モデルを生成することは、前記それぞれのエンティティの前記マスター特徴モデルおよび前記ワーカーモデルのパラメータ平均化統合を行うことを含む、請求項17に記載のシステム。
【請求項19】
前記連携サーバは、クラウド環境においてサービスとして提供されるソフトウェアを含む、請求項17に記載のシステム。
【請求項20】
前記プログラム命令は、さらに、前記
連携サーバによって実行可能であり、前記
連携サーバに、
公開情報に基づいて、複数の遠隔のエンティティ間の関係を表すベクトルマップを生成することと、
前記ベクトルマップに基づいて、複数の遠隔のエンティティから前記ネットワーク化されたエンティティのグループを特定することと、
を実行させる、請求項17に記載のシステム。
【手続補正2】
【補正対象書類名】明細書
【補正対象項目名】0010
【補正方法】変更
【補正の内容】
【0010】
実施態様において、本システムのプログラム命令は、さらに、連携サーバによって実行可能であり、連携サーバに、公開情報に基づいて、複数の遠隔のエンティティ間の関係を表すベクトルマップを生成させる。実施態様において、プログラム命令は、さらに、ベクトルマップに基づいて、複数の遠隔のエンティティからネットワーク化されたエンティティのグループを特定することを実行可能である。したがって、本発明の実施形態は、マスター特徴モデルおよびワーカーモデルが、ネットワークの参加メンバーに利用可能な連携モデルで利用され得る関連エンティティのネットワークを構築する。
【手続補正3】
【補正対象書類名】明細書
【補正対象項目名】0079
【補正方法】変更
【補正の内容】
【0079】
<マスター特徴モデルとワーカーモデルの生成>
ステップ603において、サブセットグループ(例えば、
図7の702A)内のそれぞれのエンティティ(例えば、
図7のA、CおよびF)の各参加単一エンティティサーバ(例えば、第1のエンティティサーバ504A)は、マスター特徴モデル内の特徴のサブセットについて複数のワーカーモデル(機械学習モデル)を構築する。実装形態では、異なるワーカーモデルは、異なる企業取引タイプ、従業員作業現場などに基づいてもよい。実施形態において、第1のエンティティサーバ504Aは、マスター特徴モデルの特徴の一部を用いてS個のワーカーモデルを構築し、ここで、S=部分特徴サブセットの大きさである。例えば、S=3のとき、ワーカーモデルは、マスター特徴モデルからの特徴(例えば、
図7の
F1、
F2および
F3)を含む。実装形態では、ワーカーモデルは、財務状況、ビジネス収益などの固定キー特徴、もしくはメタデータ、パラメータなどのオプション特徴、またはその両方を含む。ワーカーモデルを構築するために様々なモデル構築ツールが利用されてもよく、本明細書の発明の実装は、機械学習モデルを構築するために利用される方法によって限定されることを意図しない。実施形態では、各エンティティサーバ(例えば、第1のエンティティサーバ504A)のMLモジュール(例えば、MLモジュール512)は、ステップ603を実装する。
【手続補正4】
【補正対象書類名】明細書
【補正対象項目名】0101
【補正方法】変更
【補正の内容】
【0101】
図9は、
図6のステップ606に従って監視され得る、本発明の実施形態によるサブセットグループのデータキャッシュを示す図である。
図9の例では、エンティティA、CおよびFを含むサブセットグループ702Bが描かれている。
図9に示されるように、データの新しいブロック(例えば、ブロック1、ブロック2、ブロック3)として示されるモデル出力は、それぞれのエンティティA、
Cおよび
Fによって生成され、例えば900で表されるように、エンティティ間で共有され得る。実施形態では、それぞれのエンティティA、
Cおよび
Fのマスター特徴モデルおよびワーカーモデルは、モデル出力を生成するためにプライベートデータ入力を利用する。新しいデータは、902で示されるように、少なくとも1つのデータキャッシュ901に保存される。少なくとも1つのデータキャッシュ901内のデータの新しいブロックは、例えば904で示されるように、各エンティティA、
Cおよび
Fによって、各エンティティのマスター特徴モデルおよびワーカーモデルを訓練するために利用され得る。エンティティA、CおよびFによってローカルマスター特徴モデルおよびワーカーモデルが訓練されると、エンティティのモデル出力が改善される(より正確な応答/予測を提供する)。したがって、連携サーバ502は、以下により詳細に説明するように、エンティティA、
Cおよび
Fの更新/訓練されたマスター特徴モデルおよびワーカーモデルを利用して、連携モデル908を生成し得る。
【国際調査報告】