(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公表特許公報(A)
(11)【公表番号】
(43)【公表日】2023-10-31
(54)【発明の名称】共同学習によるモノのインターネットデータサービスの方法、装置、機器及び媒体
(51)【国際特許分類】
G06N 20/00 20190101AFI20231024BHJP
【FI】
G06N20/00
【審査請求】未請求
【予備審査請求】未請求
(21)【出願番号】P 2022542920
(86)(22)【出願日】2021-06-21
(85)【翻訳文提出日】2022-07-13
(86)【国際出願番号】 CN2021101325
(87)【国際公開番号】W WO2022077948
(87)【国際公開日】2022-04-21
(31)【優先権主張番号】202011095961.7
(32)【優先日】2020-10-14
(33)【優先権主張国・地域又は機関】CN
(81)【指定国・地域】
【公序良俗違反の表示】
(特許庁注:以下のものは登録商標)
(71)【出願人】
【識別番号】521101789
【氏名又は名称】新智数字科技有限公司
【氏名又は名称原語表記】ENNEW DIGITAL TECHNOLOGY CO., LTD.
【住所又は居所原語表記】Room 105, 1/F, Building 1, 0388 Qiu, Huaxiang Road Economic and Technological Development Zone Langfang, Hebei 065001, China
(74)【代理人】
【識別番号】100146374
【氏名又は名称】有馬 百子
(72)【発明者】
【氏名】張 敏
(72)【発明者】
【氏名】高 慶
(57)【要約】
共同学習によるモノのインターネットデータサービスの方法、装置、機器及び媒体であって、該方法は、エッジ側の対象ユーザーデータに対するデータ処理結果を取得するステップと、共同学習エンジン、前記データ処理結果及び前記対象ユーザーデータに基づいて、共同学習トレーニングを行い、共同学習トレーニングモデルを取得するステップと、前記共同学習トレーニングモデルを対象モデルライブラリに記憶するステップと、前記対象モデルライブラリを利用して業務側の需要呼出を行うステップとを含む。本開示は対象ユーザデータを処理してから、取得したデータ処理結果を利用して共同学習トレーニングを行うことにより、ユーザー管理と呼出需要に合致する共同学習トレーニングモデルを取得することができる。業務側の需要に基づいてモデルを呼び出し、ユーザーのモデルに対するトレーニング及び呼出の需要を満たし、ユーザーの後続のデータ利用に利便性を提供する。
【選択図】
図1
【特許請求の範囲】
【請求項1】
エッジ側の対象ユーザーデータに対するデータ処理結果を取得するステップと、
共同学習エンジン、前記データ処理結果及び前記対象ユーザーデータに基づいて、共同学習トレーニングを行い、共同学習トレーニングモデルを取得するステップと、
前記共同学習トレーニングモデルを対象モデルライブラリに記憶するステップと、
前記対象モデルライブラリを利用して業務側の需要呼出を行うステップとを、含む
ことを特徴とする共同学習によるモノのインターネットデータサービスの方法。
【請求項2】
前記エッジ側の対象ユーザーデータに対するデータ処理結果を取得した後、前記方法は、
前記データ処理結果に対して、メタデータ管理、データアセット記憶、データ品質管理、データ認可及び配達管理、データセキュリティ管理の少なくとも1つを含むデータアセット管理を行うステップを更に含む
ことを特徴とする請求項1に記載の共同学習によるモノのインターネットデータサービスの方法。
【請求項3】
共同学習エンジン、前記データ処理結果及び前記対象ユーザデータに基づいて、共同学習トレーニングを行い、共同学習トレーニングモデルを取得する前記ステップは、
初期モデルを取得するステップと、
対象機械学習アルゴリズム及び対象深層学習アルゴリズムを前記共同学習エンジンに融合するステップと、
前記データ処理結果及び前記対象ユーザーデータをサンプルセットに追加し、データ追加後のサンプルセットを取得するステップと、
前記データ追加後のサンプルセットにおけるデータに対して暗号化処理を行い、暗号化されたサンプルセットを初期モデルトレーニング用のトレーニングサンプルセットとして取得するステップと、
前記トレーニングサンプルセット及び前記共同学習エンジンを利用して、前記初期モデルに対して共同学習トレーニングを行い、前記共同学習トレーニングモデルを取得するステップと、を含む
ことを特徴とする請求項1に記載の共同学習によるモノのインターネットデータサービスの方法。
【請求項4】
前記トレーニングサンプルセットにおけるトレーニングサンプルはサンプル入力データ及びサンプル出力データを含み、前記共同学習トレーニングモデルは前記サンプル入力データを入力とし、前記サンプル出力データを所望の出力としてトレーニングして取得される
ことを特徴とする請求項3に記載の共同学習によるモノのインターネットデータサービスの方法。
【請求項5】
前記共同学習トレーニングモデルを対象モデルライブラリに記憶する前記ステップは、
前記共同学習トレーニングモデルをカプセル化し、カプセル化された共同学習トレーニングモデルを取得するステップと、
前記カプセル化された共同学習トレーニングモデルの、管理インタフェース及び呼出インタフェースを含むインタフェースを生成するステップと、
前記インタフェースの生成完了を確定したことに応答して、前記カプセル化された共同学習トレーニングモデルを対象モデルライブラリに記憶するステップと、を含む
ことを特徴とする請求項1に記載の共同学習によるモノのインターネットデータサービスの方法。
【請求項6】
前記方法は、
対象管理ユーザーの管理要求を検出したことに応答して、管理対象モデルのインタフェース及び管理内容を含む管理指令を取得するステップと、
前記管理指令に基づいて、前記対象モデルライブラリにおいてインタフェースが前記管理対象モデルのインタフェースと同じであるモデルを処理するステップと、をさらに含む
ことを特徴とする請求項5に記載の共同学習によるモノのインターネットデータサービスの方法。
【請求項7】
前記方法は、
対象使用ユーザーの呼出要求を検出したことに応答して、呼出インタフェースを取得するステップと、
前記対象モデルライブラリから、インタフェースが前記呼出インタフェースと同じであるモデルを抽出するステップと、
前記対象使用ユーザーの共同トレーニング要求を検出したことに応答して、抽出されたモデルを前記対象使用ユーザーのターミナル機器に記憶された少なくとも1つのモデルとともに共同トレーニングを行うステップと、をさらに含む
ことを特徴とする請求項5に記載の共同学習によるモノのインターネットデータサービスの方法。
【請求項8】
エッジ側の対象ユーザーデータに対するデータ処理結果を取得するように配置される取得ユニットと、
共同学習エンジン、前記データ処理結果及び前記対象ユーザーデータに基づいて、共同学習トレーニングを行い、共同学習トレーニングモデルを取得するように配置されるトレーニングユニットと、
前記共同学習トレーニングモデルを対象モデルライブラリに記憶するように配置される記憶ユニットと、
前記対象モデルライブラリを利用して業務側の需要呼出を行うように配置される呼出ユニットと、を含む
ことを特徴とする共同学習によるモノのインターネットのデータサービスの装置。
【請求項9】
1つ又は複数のプロセッサと、
1つ又は複数のプログラムが記憶された記憶装置と、を含み、
前記1つ又は複数のプログラムが前記1つ又は複数のプロセッサにより実行されると、前記1つ又は複数のプロセッサは請求項1に記載の方法を実現する
ことを特徴とする電子機器。
【請求項10】
コンピュータプログラムが記憶されるものであって、前記プログラムがプロセッサにより実行される時に請求項1に記載の方法を実現する
ことを特徴とするコンピュータ可読媒体。
【発明の詳細な説明】
【技術分野】
【0001】
本発明の開示する実施例は、ビッグデータの技術分野に関し、具体的に共同学習によるモノのインターネットデータサービスの方法、装置、機器及び媒体に関する。
【背景技術】
【0002】
モノのインターネットは、様々な情報センサ、無線周波数識別技術、全地球測位システム、赤外線センサ、レーザスキャナ等の様々な装置及び技術により、監視、接続、対話を必要とする任意の物体又はプロセスをリアルタイムに収集し、その音、光、熱、電気、力学、化学、生物、位置等の様々な必要な情報を収集し、様々な可能なネットワークアクセスにより、物と物、物と人のユビキタス接続を実現し、物品及びプロセスに対するインテリジェントな感知、識別及び管理を実現する。モノのインターネットは、インターネット、従来の電気通信ネットワーク等に基づく情報担持体であり、それによって独立的にアドレシング可能な全ての一般的な物理的オブジェクトが相互接続のネットワークを形成するようにする。
【0003】
従来のモノのインターネットのビッグデータの検索、共有、データマイニングサービスは未熟段階にあり、データに対するデータの深く信頼できるマイニングが乏しく、体系の標準及び保護措置が形成されず、大量のモノのインターネット企業の所有者が所有するデータリソースの共有をしたくないか、或いは共有しないことを引き起こし、それによりインターネットのビッグデータ潮流でのモノのインターネットの迅速な進歩及び発展に深刻な影響を与える。
【発明の概要】
【0004】
本発明開示の内容部分は、簡単な形式で思想を紹介するために用いられ、これらの思想は後の具体的な実施形態部分で詳細に説明される。本発明開示の内容部分は特許請求している技術的解決手段の重要な構成又は必要な構成を識別することを意図せず、特許請求している技術的解決手段の範囲を制限することを意図しない。
【0005】
本発明開示の実施例は共同学習によるモノのインターネットデータサービスの方法、装置、機器及び媒体を提供し、以上の背景技術部分に言及された技術的問題を解決する。
【0006】
第一態様において、本発明開示の実施例は、エッジ側の対象ユーザーデータに対するデータ処理結果を取得するステップと、共同学習エンジン、前記データ処理結果及び前記対象ユーザーデータに基づいて、共同学習トレーニングを行い、共同学習トレーニングモデルを取得するステップと、前記共同学習トレーニングモデルを対象モデルライブラリに記憶するステップと、前記対象モデルライブラリを利用して業務側の需要呼出を行うステップとを含む共同学習によるモノのインターネットデータサービスの方法を提供する。
【0007】
第二態様において、本発明開示の実施例は、エッジ側の対象ユーザーデータに対するデータ処理結果を取得するように配置される取得ユニットと、共同学習エンジン、前記データ処理結果及び前記対象ユーザーデータに基づいて、共同学習トレーニングを行い、共同学習トレーニングモデルを取得するように配置されるトレーニングユニットと、前記共同学習トレーニングモデルを対象モデルライブラリに記憶するように配置される記憶ユニットと、前記対象モデルライブラリを利用して業務側の需要呼出を行うように配置される呼出ユニットとを含む共同学習によるモノのインターネットデータサービスの装置を提供する。
【0008】
第三態様において、本発明開示の実施例は、1つ又は複数のプロセッサと、1つ又は複数のプログラムが記憶された記憶装置と、を含み、1つ又は複数のプログラムが1つ又は複数のプロセッサにより実行されると、1つ又は複数のプロセッサが第一態様に記載の方法を実現する電子機器を提供する。
【0009】
第四態様において、本発明開示の実施例は、コンピュータプログラムが記憶されるものであって、プログラムがプロセッサにより実行される時に第一態様に記載の方法を実現するコンピュータ可読媒体を提供する。
【0010】
本発明開示の上記各実施例中の1つの実施例は以下の有益な効果を有する。対象ユーザーデータを処理し、さらに取得したデータ処理結果を利用して共同学習トレーニングを行い、ユーザー管理及び呼出需要に合致する共同学習トレーニングモデルを取得することができる。業務側の需要に基づいてモデルを呼び出し、ユーザーのモデルに対するトレーニング及び呼出の需要を満たし、ユーザーの後続のデータ利用に利便性を提供する。
【図面の簡単な説明】
【0011】
図面を併せて以下の具体的な実施形態を参照し、本発明開示の各実施例の上記及び他の特徴、利点及び態様はより明らかになる。添付図面に渡って、同一又は類似の図面符号は同一又は類似の要素を表す。図面は例示的なものであり、素子及び要素は必ずしも割合に応じて描かれるものではないと理解すべきである。
【0012】
【
図1】本発明開示の実施例に係る共同学習によるモノのインターネットデータサービスの方法の1つの適用シナリオの概略図である。
【
図2】本発明開示に係る共同学習によるモノのインターネットデータサービスの方法の実施例のフローチャートである。
【
図3】本発明開示に係る共同学習によるモノのインターネットデータサービスの方法の共同学習トレーニングモデルのトレーニングの実施例のフローチャートである。
【
図4】本発明開示に係る共同学習によるモノのインターネットデータサービスの装置の実施例の構造概略図である。
【
図5】本発明開示の実施例を実現するのに適する電子機器の概略構成図である。
【発明を実施するための形態】
【0013】
以下、添付図面を参照しながら、本発明開示の実施例をより詳細に説明する。図面において本発明開示のいくつかの実施例を示すが、理解すべきこととして、本発明開示は様々な形式で実現することができ、ここで説明された実施例に限定されると解釈すべきではない。逆に、これらの実施例を提供することは本開示をより徹底で完全に理解するためである。理解すべきこととしては、本発明開示の図面及び実施例は例示的なもののみに用いられ、本発明開示の保護範囲を限定するものではない。
【0014】
また説明する必要があることとして、説明しやすいために、図面には関連する発明に関連する部分のみを示す。衝突しない場合に、本発明開示における実施例及び実施例における特徴は互いに組み合わせることができる。
【0015】
注意すべきこととして、本発明開示に言及された「第一」、「第二」などの概念は異なる装置、モジュール又はユニットを区別するためのみに用いられ、これらの装置、モジュール又はユニットが実行する機能の順序又は相互依存関係を限定するために用いられるものではない。
【0016】
注意すべきこととして、本発明開示に言及された「1つ」、「複数」の修飾は例示的で、制限的なものではなく、当業者であれば理解すべきことは、文脈に明確に指摘されない限り、「1つ又は複数」と理解すべきである。
【0017】
本発明開示の実施形態における複数の装置間で交換されるメッセージ又は情報の名称は、説明的な目的のみに用いられ、これらのメッセージ又は情報の範囲を制限するものではない。
【0018】
以下、図面を参照しながら実施例を合わせて本開示を詳細に説明する。
【0019】
図1は本発明開示のいくつかの実施例に係る共同学習によるモノのインターネットデータサービスの方法の1つの適用シナリオの概略図である。
【0020】
図1の適用シナリオにおいて、まず、エッジ側の対象ユーザーデータ(例えば、ユーザー1のデータ)に対するデータ処理結果を取得することができる。次に、共同学習エンジン、前記データ処理結果及び前記対象ユーザーデータに基づいて、共同学習トレーニングを行い、共同学習トレーニングモデルを取得することができる。その後、前記共同学習トレーニングモデルを対象モデルライブラリに記憶することができる。最後に、前記対象モデルライブラリを利用して業務側の需要(例えば、業務適用におけるシーン)の呼出を行うことができる。好ましくは、対象モデルライブラリを、展示条件に合致するユーザー(例えば、エネルギー生態圏ユーザー、健康生態圏ユーザー)に展示することができる。
【0021】
引き続き
図2を参照し、本発明開示に係る共同学習によるモノのインターネットデータサービスの方法の実施例のフロー200を示す。この方法は、
図1の計算機器101により実行されてもよい。該共同学習によるモノのインターネットデータサービスの方法は、以下のステップを含む。
【0022】
ステップ201であって、エッジ側の対象ユーザーデータに対するデータ処理結果を取得する。
【0023】
実施例において、共同学習によるモノのインターネットデータサービスの方法の実行主体は、有線接続方式又は無線接続方式により上記データ処理結果を取得することができる。例えば、上記実行主体は、上記エッジ側の対象ユーザーデータに対するデータ処理結果を上記データ処理結果として受信することができる。ここで、エッジ側は様々なエッジコンピューティング、データ/モデルの記憶能力を提供するソフトウェア又はハードウェアなどの機器であってもよい。例示として、エッジ側の機能は、データ取り込み/アクセス、エッジコンピューティング、データ/モデル記憶、ローカルモデルトレーニング、ローカルモデルデプロイ、マルチプロトコルアクセス、通信モジュール/SDK、インテリジェント配信の少なくとも1つを含むが、これらに限定されない。エッジ側は、マルチプロトコルアクセス、通信モジュール/SDK、インテリジェント配信等の機能をサポートして現在のデータを統一標準のデータに変換することができ、後続の計算等の処理に利便性を提供する。対象ユーザーデータは対象ユーザーのIoT機器に記憶されたデータであってもよい。
【0024】
上記したデータ取り込み/アクセスは、工場ワークショップの様々な機器に対してセンサによりそのデータを収集することを実現すると表現してもよい。エッジコンピューティングは、メディア分野から由来し、物体又はデータソースに近い側に、ネットワーク、計算、記憶、アプリケーションコア能力を一体とするオープンプラットフォームを用いて、最寄りのサービスを提供することを指す。そのアプリケーションプログラムは、エッジ側でスタートし、より速いネットワークサービス応答を生成し、業界のリアルタイムサービス、アプリケーションインテリジェント、セキュリティ及びプライバシー保護などの側面での基本的な需要を満たす。エッジコンピューティングは、物理的エンティティと工業的接続との間にあり、又は物理的エンティティのトップにある。エッジコンピューティング技術を適用することにより、エラーデータ除去、データキャッシュ等の前処理及びエッジリアルタイム分析を実現し、ネットワーク伝送負荷及びクラウド計算圧力を低下させる。
【0025】
指摘すべきこととして、上記無線接続方式は3G/4G接続、WiFi接続、ブルートゥース接続、WiMAX接続、Zigbee接続、UWB(ultra wideband)接続、及び他の現在既知又は将来開発される無線接続方式を含むが、これらに限定されない。
【0026】
ステップ202であって、共同学習エンジン、前記データ処理結果及び前記対象ユーザーデータに基づいて、共同学習トレーニングを行い、共同学習トレーニングモデルを取得する。
【0027】
実施例において、上記実行主体は以下のステップにより共同学習トレーニングモデルを取得することができ、ステップ1では、上記実行主体は、初期モデルを取得することができ、ステップ2では、上記実行主体は、対象機械学習アルゴリズム(例えば、従来の機械学習アルゴリズム)を上記共同学習エンジンに融合することができ、ステップ3では、上記実行主体は、対象深層学習アルゴリズムを上記共同学習エンジンに融合することができ、ステップ4では、上記実行主体は、上記データ処理結果及び上記対象ユーザーデータをサンプルセットに追加し、データ追加後のサンプルセットを取得することができ、ステップ5では、上記実行主体は、上記データ追加後のサンプルセットにおけるデータに対して暗号化処理を行い、暗号化後のサンプルセットを初期モデルトレーニング用のトレーニングサンプルセットとして取得することができ、ステップ6では、上記実行主体は、上記トレーニングサンプルセット及び上記共同学習エンジンを利用し、上記初期モデルに対して共同学習トレーニングを行い、共同学習トレーニングモデルを取得することができる。ここで、上記初期モデルはトレーニングされていないモデル、又はトレーニングされた後に所定の条件に達しないモデルであってもよい。上記初期モデルは、ディープニューラルネットワーク構造を有するモデルであってもよい。初期モデルの格納位置は、本開示においても限定されない。
【0028】
ステップ203であって、前記共同学習トレーニングモデルを対象モデルライブラリに記憶する。
【0029】
実施例において、上記実行主体は以下のステップにより上記共同学習トレーニングモデルを上記対象モデルライブラリに記憶することができ、ステップ1では、上記実行主体は、上記共同学習トレーニングモデルをカプセル化し、カプセル化された共同学習トレーニングモデルを取得することができ、ステップ2では、上記実行主体は、上記カプセル化された共同学習トレーニングモデルのインタフェースを生成することができ、ステップ3では、上記インタフェースの生成完了を確定したことに応答して、上記実行主体は、上記カプセル化された共同学習トレーニングモデルを対象モデルライブラリに記憶することができる。ここで、上記インタフェースは、管理インタフェース及び呼出インタフェースを含む。ここで、管理インタフェースは、ユーザー(例えば、管理者)が記憶された後の対象モデルライブラリにおけるモデルを管理するために用いてもよく、呼出インタフェースはユーザー(例えば、呼出需要があるユーザー)が記憶された後の対象モデルライブラリにおけるモデルを呼び出すために用いてもよい。具体的には、対象モデルライブラリには、少なくとも1つのトレーニング完了した、所定の条件に達するモデルが記憶される。
【0030】
ステップ204であって、前記対象モデルライブラリを利用して業務側の需要呼出を行う。
【0031】
実施例において、上記実行主体は、まず業務側の需要を取得することができる。ここで、業務側の需要は対象モデルライブラリにおけるモデルに対するユーザーの呼出操作指令を使用することであってもよい。その後、上記実行主体は、上記対象モデルライブラリから、インタフェースが上記業務側の需要に含まれるモデルインタフェースと同じであるモデルを抽出することができる。
【0032】
実施例の好ましい実施形態において、上記方法は、上記データ処理結果に対してデータアセット管理を行うことを更に含み、上記データアセット管理はメタデータ管理、データアセット記憶、データ品質管理、データ認可及び配達管理、データセキュリティ管理の少なくとも1つを含むが、これらに限定されない。
【0033】
実施例の好ましい実施形態において、上記共同学習トレーニングモデルのトレーニング及び適用過程において、クラウド基礎環境管理、運営維持管理、安全管理を更に含む。
【0034】
実施例のいくつかの好ましい実施形態において、対象管理ユーザーの管理要求を検出したことに応答して、管理対象モデルのインタフェース及び管理内容を含む管理指令を取得し、前記管理指令に基づいて、前記対象モデルライブラリにおいてインタフェースが前記管理対象モデルのインタフェースと同じであるモデルを処理する。
【0035】
実施例の好ましい実施形態において、対象使用ユーザーの呼出要求を検出したことに応答して、呼出インタフェースを取得し、前記対象モデルライブラリから、インタフェースが前記呼出インタフェースと同じであるモデルを抽出し、前記対象使用ユーザーの共同トレーニング要求を検出したことに応答して、抽出されたモデルを前記対象使用ユーザーのターミナル機器に記憶された少なくとも1つのモデルとともに共同トレーニングを行う。
【0036】
本発明開示の上記各実施例中の1つの実施例は以下の有益な効果を有する。対象ユーザーデータを処理し、さらに取得したデータ処理結果を利用して共同学習トレーニングを行い、ユーザー管理及び呼出需要に合致する共同学習トレーニングモデルを取得することができる。業務側の需要に基づいてモデルを呼び出し、ユーザーのモデルに対するトレーニング及び呼出の需要を満たし、ユーザーの後続のデータ利用に利便性を提供する。
【0037】
引き続き
図3を参照し、本発明開示に係る共同学習によるモノのインターネットデータサービスの方法の共同学習トレーニングモデルのトレーニングの実施例のフローチャート300を示す。この方法は、
図1の計算機器101により実行されてもよい。該トレーニング方法は、以下のステップを含む。
【0038】
ステップ301であって、初期モデルを取得する。
【0039】
実施例において、上記実行主体は、有線接続方式又は無線接続方式により上記初期モデルを取得することができる。
【0040】
ステップ302であって、対象機械学習アルゴリズム及び対象深層学習アルゴリズムを前記共同学習エンジンに融合する。
【0041】
実施例において、上記実行主体は、上記対象機械学習アルゴリズム及び上記対象深層学習アルゴリズムを上記共同学習エンジンに融合することができる。ここで、対象機械学習アルゴリズム及び対象深層学習アルゴリズムは共同学習エンジンがサポートするアルゴリズムであってもよい。
【0042】
ステップ303であって、前記データ処理結果及び前記対象ユーザーデータをサンプルセットに追加し、データ追加後のサンプルセットを取得する。
【0043】
実施例において、上記実行主体は、上記データ処理結果及び上記対象ユーザーデータをサンプルセットに追加することができる。ここで、サンプルセットは、予め取得した初期モデルトレーニング用のデータセットであってもよい。
【0044】
ステップ304であって、前記データ追加後のサンプルセットにおけるデータに対して暗号化処理を行い、暗号化されたサンプルセットを初期モデルトレーニング用のトレーニングサンプルセットとして取得する。
【0045】
実施例において、上記実行主体は、様々な方式で上記データ追加後のサンプルセットにおけるデータに対して暗号化処理を行うことができる。例示として、上記実行主体は、準同型暗号化の方式により上記データ追加後のサンプルセットにおけるデータに対して暗号化処理を行うことができる。別の例示として、上記実行主体は、差分プライバシーの方式により上記データ追加後のサンプルセットにおけるデータに対して暗号化処理を行うことができる。別の例示として、上記実行主体は、マルチパーティの安全な計算方法により上記データ追加後のサンプルセットにおけるデータに対して暗号化処理を行うことができる。
【0046】
実施例において、トレーニングサンプルセットにおけるトレーニングサンプルは、サンプル入力データ及びサンプル出力データを含み、上記共同学習トレーニングモデルは、上記サンプル入力データを入力とし、上記サンプル出力データを所望の出力としてトレーニングして取得される。
【0047】
ステップ305であって、前記トレーニングサンプル集合及び前記共同学習エンジンを利用して、前記初期モデルに対して共同学習トレーニングを行い、前記共同学習トレーニングモデルを取得する。
【0048】
実施例において、上記実行主体は、上記取得したレーニングサンプルセットを利用して、上記初期モデルに対してトレーニングを開始することができ、トレーニング過程は以下のとおりである。ステップ1では、上記トレーニングサンプルセットからトレーニングサンプルを選択し、ここで、トレーニングサンプルは、サンプルデータセット及びサンプル出力データを含み、ステップ2では、上記実行主体は、トレーニングサンプルにおけるサンプル入力データを上記初期モデルに入力することができ、ステップ3では、出力されたデータを上記サンプル出力データと比較して、出力データ損失値を取得し、ステップ4では、上記実行主体は、上記出力データ損失値を所定の閾値と比較して、比較結果を取得することができ、ステップ5では、比較結果に基づいて上記初期モデルがトレーニングを完了したか否かを確定し、ステップ6では、上記初期トレーニングモデルのトレーニングを完了したことに応答して、上記初期モデルをトレーニング完了の初期モデルとして確定する。ここで、上記取得したトレーニングサンプルセットは対象ユーザーのターミナル機器のローカルデータであってもよい。
【0049】
上記した出力データ損失値は上記出力されたデータと対応するサンプル出力データをパラメータとして、実行された損失関数に入力して得られた値であってもよい。ここで、損失関数(例えば二乗損失関数、指数損失関数等)は一般的にモデルの予測値(例えば、該サンプル入力データに対応する上記サンプル出力データ)と真値(例えば上記ステップにより得られたデータ)との不整合の程度を推定するために用いられる。これは非負の実数値関数である。一般的には、損失関数が小さいほど、モデルのロバスト性が高い。損失関数は実際の需要に応じて設定されることができる。例示として、損失関数は交差エントロピー損失関数(Cross Entropy)であってもよい。
【0050】
実施例の好ましい実施形態において、上記方法は、初期モデルがトレーニングを完了しないと確定することに応答して、初期モデルにおける関連パラメータを調整すること、及び上記トレーニングサンプルセットからサンプルを再選択し、調整された初期モデルを初期モデルとして使用し、上記トレーニングステップを実行し続けることをさらに含む。
【0051】
実施例の好ましい実施形態において、上記共同学習トレーニングモデルに対して垂直分野での異なる共同学習シーン(例えば、エネルギー、健康)のトレーニングを行うことができる。
【0052】
図3から分かるように、
図2に対応する実施例の説明に比べると、
図3に対応するいくつかの実施例におけるデータ測定方法のフロー300は、どのようにトレーニングサンプルセットを取得し、初期モデルをトレーニングして共同学習トレーニングモデルを取得するかというステップを体現する。これにより、これらの実施例に記載の解決的手段は、対象機械学習アルゴリズム及び対象深層学習アルゴリズムを融合することにより、共同レーニングをサポートする共同学習エンジンを取得することができる。追加されたサンプルセットにおけるデータに対して暗号化処理を行い、トレーニング中のデータ使用の安全性を向上させることができる。トレーニングして取得された共同学習トレーニングモデルは、ユーザーのデータ処理に対する需要を満たし、ユーザーが後にデータを利用することに利便性を提供する。また、ユーザーは、ユーザーの需要に供するように、異なる業務シーンに対して対象モデルライブラリにおけるモデルを選択することができ、横向きにユーザーエクスペリエンスを向上させる。
【0053】
さらに
図4を参照し、上記各図の上記方法の実現として、本発明開示は、共同学習によるモノのインターネットデータサービスの装置のいくつかの実施例を提供し、これらの装置の実施例は
図2の上記方法の実施例に対応し、該装置は具体的に様々な電子機器に適用されることができる。
【0054】
図4に示すように、実施例の共同学習によるモノのインターネットデータサービスの装置400は、取得ユニット401、トレーニングユニット402、記憶ユニット403及び呼出ユニット404を含む。ここで、取得ユニット401は、エッジ側の対象ユーザーデータに対するデータ処理結果を取得するように配置されるものであり、トレーニングユニット402は、共同学習エンジン、前記データ処理結果及び前記対象ユーザーデータに基づいて、共同学習トレーニングを行い、共同学習トレーニングモデルを取得するように配置されるものであり、記憶ユニット403は、前記共同学習トレーニングモデルを対象モデルライブラリに記憶するように配置されるものであり、呼出ユニット404は、前記対象モデルライブラリを利用して業務側の需要呼出を行うように配置されるものである。
実施例の好ましい実施形態において、共同学習によるモノのインターネットデータサービスの装置400は、前記データ処理結果に対してデータアセット管理を行うように更に配置され、ここで、前記データアセット管理は、メタデータ管理、データアセット記憶、データ品質管理、データ許可及び配達管理、データセキュリティ管理の少なくとも1つを含む。
【0055】
実施例の好ましい実施形態において、共同学習によるモノのインターネットデータサービスの装置400のトレーニングユニット402は、初期モデルを取得し、対象機械学習アルゴリズム及び対象深層学習アルゴリズムを前記共同学習エンジンに融合して前記データ処理結果及び前記対象ユーザーデータをサンプルセットに追加して、データ追加後のサンプルセットを取得し、前記データ追加後のサンプルセットにおけるデータに対して暗号化処理を行い、暗号化後のサンプルセットを、初期モデルトレーニング用のトレーニングサンプルセットとして取得し、前記トレーニングサンプルセット及び前記共同学習エンジンを利用して、前記初期モデルに対して共同学習トレーニングを行い、前記共同学習トレーニングモデルを取得するように更に配置される。
【0056】
実施例の好ましい実施形態において、上記トレーニングサンプルセットにおけるトレーニングサンプルは、サンプル入力データ及びサンプル出力データを含み、前記共同学習トレーニングモデルは、サンプル入力データを入力とし、前記サンプル出力データを所望の出力としてトレーニングして取得される。
【0057】
実施例の好ましい実施形態において、共同学習によるモノのインターネットデータサービスの装置400の記憶ユニット403は、前記共同学習トレーニングモデルをカプセル化し、カプセル化された共同学習トレーニングモデルを取得し、前記カプセル化された共同学習トレーニングモデルの、管理インタフェース及び呼出インタフェースを含むインタフェースを生成し、前記インタフェースの生成完了を確定したことに応答して、前記カプセル化された共同学習トレーニングモデルを対象モデルライブラリに記憶するように更に配置される。
【0058】
実施例の好ましい実施形態において、共同学習によるモノのインターネットデータサービスの装置400は、対象管理ユーザーの管理要求を検出したことに応答して、管理対象モデルのインタフェース及び管理内容を含む管理指令を取得し、前記管理指令に基づいて、前記対象モデルライブラリにおいてインタフェースが前記管理対象モデルのインタフェースと同じであるモデルを処理するように更に配置される。
【0059】
実施例の好ましい実施形態において、共同学習によるモノのインターネットデータサービスの装置400は、対象使用ユーザーの呼出要求を検出したことに応答して、呼出インタフェースを取得し、前記対象モデルライブラリから、インタフェースが前記呼出インタフェースと同じであるモデルを抽出し、前記対象使用ユーザーの共同トレーニング要求を検出したことに応答して、抽出されたモデルを前記対象使用ユーザーのターミナル機器に記憶された少なくとも1つのモデルとともに共同トレーニングを行うように配置される。
【0060】
理解できるように、該装置400に記載の各ユニットは
図2を参照して説明した方法における各ステップに対応する。これにより、上記した、方法について説明された操作、特徴及び生成した有益な効果は、同様に装置400及びその中に含まれるユニットに適用され、ここで説明を省略する。
【0061】
以下に
図5を参照し、本発明開示のいくつかの実施例を実現するための電子機器(例えば
図1における計算機器101)500の構造概略図を示す。
図5に示すサーバは一例に過ぎず、本発明開示の実施例の機能及び使用範囲に任意の制限を与えるべきではない。
【0062】
図5に示すように、電子機器500は、処理装置(例えば中央処理装置、グラフィックプロセッサ等)501を含むことができ、それはリードオンリーメモリ(ROM)502に記憶されたプログラム又は記憶装置508からランダムアクセスメモリ(RAM)503にロードされたプログラムに基づいて様々な適当な動作及び処理を実行することができる。RAM503には、電子機器500の操作に必要な様々なプログラム及びデータが更に記憶される。処理装置501、ROM502、およびRAM503は、バス504を介して相互に接続される。バス504にも、入出力(I/O)インタフェース505が接続される。
【0063】
一般的に、以下の装置はI/Oインタフェース505に接続されることができる。例えば、タッチスクリーン、タッチパネル、キーボード、マウス、カメラ、マイクロフォン、加速度計、ジャイロスコープなどの入力装置506を含み、例えば、液晶ディスプレイ(LCD)、スピーカ、振動器等の出力装置507を含み、例えば、磁気テープ、ハードディスクなどの記憶装置508、及び通信装置509を含む。通信装置509は、データを交換するように、電子機器500が他の機器との間で無線または有線による通信を行うことを許容することができる。
図5は、様々な装置を有する電子機器500を示すが、理解すべきことは、全ての示す装置を実施するか又は備えることが要求されないことである。代替的に実施するか、或いはそれ以上又はそれ以下の装置を備えてもよい。
図5に示す各ブロックは1つの装置を表してもよく、必要に応じて複数の装置を表してもよい。
【0064】
特に、本発明開示のいくつかの実施例によれば、上記フローチャートを参照して説明したプロセスは、コンピュータソフトウェアプログラムとして実現されることができる。例えば、本発明開示のいくつかの実施例は、コンピュータプログラム製品を含み、それはコンピュータ可読媒体に担持されたコンピュータプログラムを含み、該コンピュータプログラムはフローチャートに示す方法を実行するためのプログラムコードを含む。このようないくつかの実施例において、該コンピュータプログラムは通信装置509によりネットワークからダウンロードされてインストールされ、又は記憶装置508からインストールされ、又はROM502からインストールされてもよい。該コンピュータプログラムが処理装置501により実行される時、本発明開示のいくつかの実施例の方法に限定された上記機能を実行する。
【0065】
説明すべきこととして、本発明開示のいくつかの実施例の上記コンピュータ可読媒体は、コンピュータ可読信号媒体又はコンピュータ可読記憶媒体又は上記両者の任意の組み合わせであってもよい。コンピュータ可読記憶媒体は、例えば電気、磁気、光、電磁、赤外線、又は半導体のシステム、装置又はデバイス、或いは任意の上記の組み合わせであってもよいが、それらに限定されない。コンピュータ可読記憶媒体のより具体的な例は、1つ又は複数の導線を有する電気的接続、携帯式コンピュータ磁気ディスク、ハードディスク、ランダムアクセスメモリ(RAM)、リードオンリーメモリ(ROM)、消去可能プログラマブル読み取り専用メモリ(EPROM又はフラッシュメモリ)、光ファイバ、携帯式コンパクト磁気ディスク携帯式コンパクト磁気ディスク読み取り専用メモリ(CD-ROM)、光記憶装置、磁気記憶装置、又は上記任意の適切な組み合わせを含むが、それらに限定されない。本発明開示のいくつかの実施例において、コンピュータ可読記憶媒体は、プログラムを含むか又は記憶するいかなる有形媒体であってもよく、該プログラムは、指令実行システム、装置又はデバイスによって用いられてもよく、又はそれらと組み合わせて使用されてもよい。一方、本発明開示のいくつかの実施例において、コンピュータ可読信号媒体は、ベースバンドに含まれるか、或いはキャリアの一部として転送されるデータ信号を含むことができ、その中にコンピュータ可読プログラムコードが担持される。このような伝播されるデータ信号は、様々な形式を採用することができ、電磁信号、光信号又は上記任意の適当な組み合わせを含むが、それらに限定されない。コンピュータ可読信号媒体は、コンピュータ可読記憶媒体以外の任意のコンピュータ可読媒体であってもよく、該コンピュータ可読信号媒体は、指令実行システム、装置又はデバイスによって使用されるか、又はそれと組み合わせて使用されるためのプログラムを送信、伝播又は転送することができる。コンピュータ可読媒体に含まれるプログラムコードは、任意の適当な媒体で転送されることができ、電線、光ケーブル、RF(無線周波数)等、又は上記任意の適当な組み合わせを含むが、それらに限定されない。
【0066】
いくつかの実施形態において、クライアント、サーバはHTTP(Hyper Text Transfer Protocol、ハイパーテキスト転送プロトコル)のような現在既知又は将来開発される任意のネットワークプロトコルで通信することができるとともに、任意の形式又は媒体のデジタルデータと通信(例えば、通信ネットワーク)で相互接続されることができる。通信ネットワークの例示はローカルエリアネットワーク(「LAN」)、ワイドエリアネットワーク(「WAN」)、インターネット(例えば、インターネット)及びエンドツーエンドのネットワーク(例えば、ad hocエンドツーエンドのネットワーク)、及び現在既知又は将来開発の任意のネットワークを含む。
【0067】
上記コンピュータ可読媒体は上記装置に含まれてもよく、該電子機器にインストールされず、単独で存在してもよい。上記コンピュータ可読媒体は、1つ又は複数のプログラムを担持し、上記1つ又は複数のプログラムが該電子機器により実行される場合、該電子機器は、エッジ側の対象ユーザーデータに対するデータ処理結果を取得し、共同学習エンジン、データ処理結果及び対象ユーザーデータに基づいて、共同学習トレーニングを行い、共同学習トレーニングモデルを取得し、共同学習トレーニングモデルを対象モデルライブラリに記憶し、対象モデルライブラリを利用して業務側の需要呼出を行うようにされる。
【0068】
一種又は複数種のプログラミング言語又はその組み合わせで本発明開示のいくつかの実施例の操作を実行するためのコンピュータプログラムコードを作成することができ、上記プログラミング言語は、オブジェクト向けのプログラミング言語、例えばJava、Smalltalk、C++を含み、さらに従来のプロセス式プログラミング言語、例えば「C」言語又は類似のプログラミング言語を含む。プログラムコードは、ユーザーコンピュータで完全に実行されてもよく、ユーザーコンピュータで部分的に実行されてもよく、独立したソフトウェアパッケージとして実行されてもよく、一部がユーザーコンピュータで、一部が遠隔コンピュータで実行されてもよく、或いは、遠隔コンピュータ又はサーバで完全に実行されてもよい。遠隔コンピュータに関する場合には、遠隔コンピュータは、任意の種類のネットワーク(ローカルエリアネットワーク(LAN)又はワイドエリアネットワーク(WAN)を含む)を介してユーザーコンピュータに接続されてもよく、又は、外部コンピュータに接続されてもよい(例えばインターネットサービスプロバイダによりインターネットを介して接続される)。
【0069】
図面におけるフローチャート及びブロック図は、本発明開示の様々な実施例に係るシステム、方法及びコンピュータプログラム製品の実現可能なシステムアーキテクチャ、機能及び操作を図示する。この点で、フローチャート又はブロック図における各ブロックは、1つのモジュール、プログラムセグメント、又はコードの一部を表すことができ、該モジュール、プログラムセグメント、又はコードの一部は1つ又は複数の所定の論理機能を実現するための実行可能な指令を含む。注意すべきこととしては、いくつかの代替としての実現において、ブロックにマークされた機能は図面にマークされた順序と異なる順序で発生してもよい。例えば、2つの接続的に表されるブロックは、実際に基本的に並行して実行されてもよく、それらは時々逆の順序で実行されてもよく、これは関連する機能によって決められる。注意すべきこととしては、ブロック図及び/又はフローチャートにおける各ブロック、及びブロック図及び/又はフローチャートにおけるブロックの組み合わせは、所定の機能又は操作を実行する専用のハードウェアによるシステムで実現されてもよく、又は専用のハードウェアとコンピュータコマンドとの組み合わせで実現されてもよい。
【0070】
本発明開示のいくつかの実施例に説明されたユニットは、ソフトウェアの方式で実現されてもよく、ハードウェアの方式で実現されてもよい。説明されたユニットはプロセッサに設けてもよく、例えば、プロセッサであって、取得ユニット、トレーニングユニット、記憶ユニット及び呼出ユニットを含むと説明されてもよい。ここで、これらのユニットの名称は、ある場合に該ユニット自体を限定するものではなく、例えば、取得ユニットについて「エッジ側の対象ユーザーデータに対するデータ処理結果を取得するユニット」として説明されてもよい。
【0071】
本文で上記説明された機能は、少なくとも一部が1つ又は複数のハードウェアロジックユニットによって実行されてもよい。例えば、非限定的に、使用可能な例示的なハードウェアロジックユニットは、フィールドプログラマブルゲートアレイ(FPGA)、特定用途向け集積回路(ASIC)、特定用途向け製品(ASSP)、システムオンチップ(SOC)、複雑プログラマブル論理機器(CPLD)等を含む。
【0072】
以上の説明は本発明開示のいくつかの好ましい実施例及び運用された技術原理に対する説明だけである。当業者であれば理解されるように、本発明開示の実施例に係る発明の範囲は、上記技術的特徴の特定の組み合わせからなる技術的解決手段に限定されるものではなく、同時に上記発明の思想から逸脱しない場合に、上記技術的特徴又はその同等の特徴を任意に組み合わせて形成された他の技術的解決手段を含むべきである。例えば、上記の特徴は、本発明の実施例に開示された(ただし、これに限定されるものではない)類似の機能を有する技術的特徴と互いに置換したものである。
【国際調査報告】