(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2023031238
(43)【公開日】2023-03-08
(54)【発明の名称】クラウドサーバー、エッジサーバー及びそれを用いた知能モデル生成方法
(51)【国際特許分類】
G06N 20/00 20190101AFI20230301BHJP
G06N 3/08 20230101ALI20230301BHJP
G16Y 30/00 20200101ALI20230301BHJP
【FI】
G06N20/00
G06N3/08
G16Y30/00
【審査請求】未請求
【請求項の数】20
【出願形態】OL
(21)【出願番号】P 2022095961
(22)【出願日】2022-06-14
(31)【優先権主張番号】10-2021-0111066
(32)【優先日】2021-08-23
(33)【優先権主張国・地域又は機関】KR
(31)【優先権主張番号】10-2022-0056734
(32)【優先日】2022-05-09
(33)【優先権主張国・地域又は機関】KR
【公序良俗違反の表示】
(特許庁注:以下のものは登録商標)
1.Linux
2.DOCKER
3.CUDA
4.PYTHON
(71)【出願人】
【識別番号】596180076
【氏名又は名称】韓國電子通信研究院
【氏名又は名称原語表記】Electronics and Telecommunications Research Institute
【住所又は居所原語表記】218,Gajeong-ro Yuseong-gu Daejeon 34129,Republic of Korea
(74)【代理人】
【識別番号】100120031
【弁理士】
【氏名又は名称】宮嶋 学
(74)【代理人】
【識別番号】100107582
【弁理士】
【氏名又は名称】関根 毅
(74)【代理人】
【識別番号】100152205
【弁理士】
【氏名又は名称】吉田 昌司
(72)【発明者】
【氏名】チャン、ミン-ス
(72)【発明者】
【氏名】キム、ド-ヒョン
(72)【発明者】
【氏名】キム、ジェ-ホン
(72)【発明者】
【氏名】ユン、ウ-ハン
(57)【要約】 (修正有)
【課題】クラウドとエッジとから構成された複合コンピューティング環境を通じて知能モデルを生成して配布する方法を提供する。
【解決手段】知能モデル生成方法は、エッジサーバーがユーザ端末の知能モデル生成要請を受信するステップと、前記知能モデル生成要請に対応する知能モデルを生成するステップと、前記生成された知能モデルを調整するステップと、を含む。知能モデルを生成するステップは、エッジサーバーが前記知能モデルの生成に失敗すると、クラウドサーバーに知能モデル生成を要請するステップと、前記クラウドサーバーで生成された知能モデルを受信するステップと、をさらに含む。
【選択図】
図1
【特許請求の範囲】
【請求項1】
エッジサーバー及びクラウドサーバーで行われる方法において、
エッジサーバーがユーザ端末の知能モデル生成要請を受信するステップと、
前記知能モデル生成要請に対応する知能モデルを生成するステップと、
前記生成された知能モデルを調整するステップと、
を含むことを特徴とする、知能モデル生成方法。
【請求項2】
前記知能モデルを生成するステップは、
エッジサーバーが前記知能モデルの生成に失敗すると、クラウドサーバーに知能モデル生成を要請するステップと、
前記クラウドサーバーで生成された知能モデルを受信するステップと、
をさらに含むことを特徴とする、請求項1に記載の知能モデル生成方法。
【請求項3】
前記クラウドサーバーは
第1クラウドサーバーと、前記第1クラウドサーバーよりも大容量を有する第2クラウドサーバーと、を含むことを特徴とする、請求項2に記載の知能モデル生成方法。
【請求項4】
前記第1クラウドサーバーは、前記知能モデルの生成に失敗すると、前記第2クラウドサーバーに知能モデル生成を要請することを特徴とする、請求項3に記載の知能モデル生成方法。
【請求項5】
前記知能モデル生成要請は、
タスク識別子、生データ、注釈、データ公開範囲及び目標のラベルを含むことを特徴とする、請求項2に記載の知能モデル生成方法。
【請求項6】
前記知能モデルを生成するステップは、
前記知能モデル生成要請に基づいて、基本知能モデルを選定するステップと、
前記基本知能モデルのラベルリストを目標のラベルリストに対応するように変形するステップと、
前記変形された知能モデルの学習を行うステップと、
を含むことを特徴とする、請求項1に記載の知能モデル生成方法。
【請求項7】
前記変形された知能モデルの学習を行うステップは、
既に格納されたデータセットを用いる第1学習ステップと、
前記知能モデル生成要請に含まれた生データを用いる第2学習ステップと、
をさらに含むことを特徴とする、請求項6に記載の知能モデル生成方法。
【請求項8】
前記クラウドサーバーに知能モデル生成を要請するステップは、
前記データ公開範囲に基づいて、前記クラウドサーバーに伝送する生データを設定することを特徴とする、請求項5に記載の知能モデル生成方法。
【請求項9】
前記生成された知能モデルを調整するステップは、
前記クラウドサーバーに伝送されていない生データを用いて行われることを特徴とする、請求項8に記載の知能モデル生成方法。
【請求項10】
ユーザ端末及び他のサーバーと通信する通信部と、
知能モデル生成のためのデータが格納された格納部と、
知能モデル生成要請に対応する知能モデルを生成するモデル生成部と、
前記生成された知能モデルを調整する調整部と、
を含むことを特徴とする、エッジサーバー。
【請求項11】
前記通信部は、
前記モデル生成部が前記知能モデルの生成に失敗すると、クラウドサーバーに知能モデル生成を要請し、前記クラウドサーバーで生成された知能モデルを受信することを特徴とする、請求項10に記載のエッジサーバー。
【請求項12】
前記クラウドサーバーは
第1クラウドサーバーと、前記第1クラウドサーバーよりも大容量を有する第2クラウドサーバーと、を含むことを特徴とする、請求項11に記載のエッジサーバー。
【請求項13】
前記第1クラウドサーバーは、前記知能モデルの生成に失敗すると、前記第2クラウドサーバーに知能モデル生成を要請することを特徴とする、請求項12に記載のエッジサーバー。
【請求項14】
前記知能モデル生成要請は、
タスク識別子、生データ、注釈、データ公開範囲及び目標のラベルを含むことを特徴とする、請求項11に記載のエッジサーバー。
【請求項15】
前記モデル生成部は、
前記知能モデル生成要請に基づいて、基本知能モデルを選定し、
前記基本知能モデルのラベルリストを目標のラベルリストに対応するように変形し、
前記変形された知能モデルの学習を行うことを特徴とする、請求項10に記載のエッジサーバー。
【請求項16】
前記通信部は、
前記データ公開範囲に基づいて、前記生データを前記クラウドサーバーに伝送することを特徴とする、請求項14に記載のエッジサーバー。
【請求項17】
前記調整部は、
前記クラウドサーバーに伝送されていない生データを用いて前記知能モデルを調整することを特徴とする、請求項16に記載のエッジサーバー。
【請求項18】
エッジサーバーの知能モデル生成要請を受信する通信部と、
知能モデル生成のためのデータが格納された格納部と、
前記知能モデル生成要請に対応する知能モデルを生成するモデル生成部と、
を含み、
前記知能モデル生成要請は、タスク識別子、生データ、注釈、データ公開範囲及び目標のラベルを含むことを特徴とする、クラウドサーバー。
【請求項19】
前記通信部は、
前記モデル生成部で前記知能モデルの生成に失敗すると、他のクラウドサーバーに知能モデル生成を要請することを特徴とする、請求項18に記載のクラウドサーバー。
【請求項20】
前記知能モデル生成要請の生データは、
前記エッジサーバーで前記データ公開範囲に基づいて伝送されることを特徴とする、請求項18に記載のクラウドサーバー。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、機械学習基盤の知能モデル生成、配布、管理技術に関するものである。
【0002】
具体的に、クラウドサーバー及びエッジサーバーで行われる知能モデルの生成及び配布方法に関するものでる。
【背景技術】
【0003】
人工知能サービスを効果的に具現して行うためには、端末の要求事項と適用環境に最適化した良質の知能モデルを容易に確保して活用できなければならない。従来の人工知能モデルを確保して活用するために様々な方式を活用することができる。
【0004】
まず、専門家が知能モデル開発の全過程を行ってもよい。人工知能専門家は、人工知能モデルを訓練するためのデータセットを確保し、人工知能モデルの構造を選択するか又は設計して具現した後、データセットを用いて人工知能モデルが所望の水準の性能で動作するまで訓練しテストする。その結果として生成した知能モデルを応用環境に設けて活用する。
【0005】
このとき、知能モデルを確保するためのデータの確保、プログラムの開発、訓練を全て行う必要があるため、知能モデル確保の難易度が高くコストが高く、長時間がかかる。応用と適用環境に最適化した知能モデルを確保できるという利点があるのに対し、知能モデル生成担当者の専門性及び生成方法によって、知能モデルの性能及び品質にばらつきが生じ得る。
【0006】
人工知能の専門家が、既に公開された人工知能モデルのうち必要に適したものを選択して活用することもできる。ウェブ検索を通じて適切な人工知能モデルを探し、モデル及び関連コードを確保して応用プログラムに結合して活用する。手動に開発・訓練して確保する方法に比べて難易度が低くコストが少なく、時間を節約することができる。
【0007】
しかし、応用と適用環境に最適化したモデルを確保するのは難しい。最適化したモデルを確保するには、大量の訓練評価データを収集し構築する必要があるため、多くのコストと時間がかかる。知能モデルの性能と品質に関する情報が利用可能な場合は参照して品質水準を確保できるが、関連情報が提供されていない場合は知能モデルの性能と品質を保障することができない。
【0008】
人工知能の専門家又は一般の開発者がクラウドプラットフォーム基盤の人工知能サービスを活用する方法もある。クラウドプラットフォームで提供する人工知能サービスのうち、必要に応じて選定した後、サービスプロバイダが提供するクライアントサーバープログラミングインタフェースを活用して人工知能サービスの実行を要請し、応答を受けることができる。このような人工知能モデルサービスの例として、グーグルクラウド(Google Cloud)、マイクロソフトアジュール認知サービス(Microsoft Azure Cognitive Services)、インテル・ワトソン(Intel Watson)などがある。
【0009】
この方法は、活用の難易度が低く、知能モデル確保時間とコストを節約することができる。しかし、事前に製作された知能モデルをサービスを受けて活用するため、ユーザが開発する応用と適用環境に最適化したモデルを確保するのは難しい。さらに、クラウドプラットフォームサービスを活用するためには、ユーザの全てのデータをクラウドプラットフォームに伝送する必要があるため、データセキュリティの問題が生じ得る。
【0010】
最近、登場したクラウド基盤の知能モデル生成自動化サービスを活用する方法もある。グーグルのAutoMLサービスは、ユーザで提供した訓練データを用いて知能モデルを訓練することによって、ユーザが望む最適の知能モデルを生成して提供する。この方法は、難易度が低くコストが少なく、短時間がかかるだけでなく、応用と適用環境に最適化したモデルを確保しやすい。専門企業が事前に検証されたプロセスによって知能モデルを生成するので、性能と品質も良好である。
【0011】
ただし、知能モデルを訓練するのに十分な量のデータセットを構築して提供する必要があるため、データ確保の点からすると、難易度、コスト、時間がいずれも少なからずかかる。データがなければ知能モデルを確保することができない。さらに、データを全てクラウドプラットフォームに伝送して知能モデルを訓練する必要があるため、データセキュリティの問題が生じ得る。
【先行技術文献】
【特許文献】
【0012】
【特許文献1】韓国公開特許公報第10-2020-0052449号(発明の名称:人工知能サービスのためのコネクテッドデータアーキテクチャシステム及びこれに対する制御方法)
【発明の概要】
【発明が解決しようとする課題】
【0013】
本発明の目的は、クラウドとエッジとから構成された複合コンピューティング環境を通じて知能モデルを生成して配布する方法を提供することである。
【0014】
また、本発明の目的は、低コストで迅速に応用に最適化した知能モデルを確保することである。
【0015】
また、本発明の目的は、データがないか又は少量のデータのみを保有している場合でも、応用サービスと環境に最適化した知能モデルを生成することである。
【0016】
また、本発明の目的は、知能モデル生成過程を二元化してデータの外部露出を防止することによって、セキュリティ問題やプライバシー侵害問題を防止することである。
【課題を解決するための手段】
【0017】
前記目的を達成するための本発明の一実施例に係る知能モデル生成方法は、エッジサーバーがユーザ端末の知能モデル生成要請を受信するステップと、前記知能モデル生成要請に対応する知能モデルを生成するステップと、前記生成された知能モデルを調整するステップと、を含む。
【0018】
このとき、前記知能モデルを生成するステップは、エッジサーバーが前記知能モデルの生成に失敗すると、クラウドサーバーに知能モデル生成を要請するステップと、前記クラウドサーバーで生成された知能モデルを受信するステップと、をさらに含んでもよい。
【0019】
このとき、前記クラウドサーバーは、第1クラウドサーバーと、前記第1クラウドサーバーよりも大容量を有する第2クラウドサーバーと、を含んでもよい。
【0020】
このとき、前記第1クラウドサーバーは、前記知能モデルの生成に失敗すると、前記第2クラウドサーバーに知能モデル生成を要請してもよい。
【0021】
このとき、前記知能モデル生成要請は、タスク識別子、生データ、注釈、データ公開範囲及び目標のラベルを含んでもよい。
【0022】
このとき、前記知能モデルを生成するステップは、前記知能モデル生成要請に基づいて、基本知能モデルを選定するステップと、前記基本知能モデルのラベルリストを目標のラベルリストに対応するように変形するステップと、前記変形された知能モデル学習を行うステップと、を含んでもよい。
【0023】
このとき、前記変形された知能モデルの学習を行うステップは、既に格納されたデータセットを用いる第1学習ステップと、前記知能モデル生成要請に含まれた生データを用いる第2学習ステップと、を含んでもよい。
【0024】
このとき、前記クラウドサーバーに知能モデル生成を要請するステップは、前記データ公開範囲に基づいて、前記クラウドサーバーに伝送する生データを設定してもよい。
【0025】
このとき、前記生成された知能モデルを調整するステップは、前記クラウドサーバーに伝送されていない生データを用いて行われてもよい。
【0026】
また、前記目的を達成するための本発明の一実施例に係るエッジサーバーは、ユーザ端末及び他のサーバーと通信する通信部と、知能モデル生成のためのデータが格納された格納部と、知能モデル生成要請に対応する知能モデルを生成するモデル生成部と、前記生成された知能モデルを調整する調整部と、を含んでもよい。
【0027】
このとき、前記通信部は、前記モデル生成部が前記知能モデルの生成に失敗すると、クラウドサーバーに知能モデル生成を要請し、前記クラウドサーバーで生成された知能モデルを受信してもよい。
【0028】
このとき、前記クラウドサーバーは、第1クラウドサーバーと、前記第1クラウドサーバーよりも大容量を有する第2クラウドサーバーと、を含んでもよい。
【0029】
このとき、前記第1クラウドサーバーは、前記知能モデルの生成に失敗すると、前記第2クラウドサーバーに知能モデル生成を要請してもよい。
【0030】
このとき、前記知能モデル生成要請は、タスク識別子、生データ、注釈、データ公開範囲及び目標のラベルを含んでもよい。
【0031】
このとき、前記モデル生成部は、前記知能モデル生成要請に基づいて、基本知能モデルを選定し、前記基本知能モデルのラベルリストを目標のラベルリストに対応するように変形し、前記変形された知能モデルの学習を行ってもよい。
【0032】
このとき、前記通信部は、前記データ公開範囲に基づいて、前記生データを前記クラウドサーバーに伝送してもよい。
【0033】
このとき、前記調整部は、前記クラウドサーバーに伝送されていない生データを用いて前記知能モデルを調整してもよい。
【0034】
また、前記目的を達成するための本発明の一実施例に係るクラウドサーバーは、エッジサーバーの知能モデル生成要請を受信する通信部と、知能モデル生成のためのデータが格納された格納部と、前記知能モデル生成要請に対応する知能モデルを生成するモデル生成部と、を含み、前記知能モデル生成要請は、タスク識別子、生データ、注釈、データ公開範囲及び目標のラベルを含んでもよい。
【0035】
このとき、前記通信部は、前記モデル生成部で前記知能モデルの生成に失敗すると、他のクラウドサーバーに知能モデル生成を要請してもよい。
【0036】
このとき、前記知能モデル生成要請の生データは、前記エッジサーバーで前記データ公開範囲に基づいて伝送されてもよい。
【発明の効果】
【0037】
本発明によれば、クラウドとエッジとから構成された複合コンピューティング環境を通じて、知能モデルを生成して配布する方法を提供することができる。
【0038】
また、本発明は、低コストで迅速に応用に最適化した知能モデルを確保することができる。
【0039】
また、本発明は、データがないか又は少量のデータのみを保有している場合でも、応用サービスと環境に最適化した知能モデルを生成することができる。
【0040】
また、本発明は、知能モデル生成過程を二元化してデータの外部露出を防止することによって、セキュリティ問題とプライバシー侵害問題を防止することができる。
【図面の簡単な説明】
【0041】
【
図1】本発明の一実施例に係る知能モデル生成方法を示すフローチャートである。
【
図2】本発明の一実施例に係る知能モデル生成方法をより詳細に示すフローチャートである。
【
図3】本発明の一実施例に係る知能モデル配布システムの構成を示す図である。
【
図4】イメージ分類用知能モデルを要請する知能要求プロファイルを示す例である。
【
図5】物検出作業用知能モデルを要請する知能要求プロファイルを示す例である。
【
図6】意味基盤の映像分割作業用知能モデルを要請する知能要求プロファイルを示す例である。
【
図7】本発明の実施例に係る知能リポジトリ構造を示すブロック図である。
【
図8】本発明の一実施例に係る知能モデル生成方法のデータセットの一例を示す図である。
【
図9】AlexNet構造を概念的に示す図である。
【
図10】本発明の知能モデル配布過程を示すフローチャートである。
【
図11】本発明の実施例に係る知能モデル生成過程を示すフローチャートである。
【
図12】標準正答ラベルリストを生成する一例である。
【
図13】エッジサーバーが
図4の知能要求プロファイルをデータ公開範囲に基づいて変形された結果の一例である。
【
図14】本発明の一実施例に係るエッジサーバーの構造を示すブロック図である。
【
図15】本発明の一実施例に係るクラウドサーバーの構造を示すブロック図である。
【
図16】実施例に係るコンピュータシステムの構成を示す図である。
【発明を実施するための形態】
【0042】
本発明の利点及び特徴、ならびにそれらを達成する方法は、添付の図面と共に詳細に後述される実施例を参照すると明らかになるだろう。しかし、本発明は、以下に開示される実施例に限定されるものではなく、互いに異なる様々な形態で具現できるものであり、ただし、本発明の開示を完全にし、本発明の属する技術分野における通常の知識を有する者に 本発明の範疇を完全に知らせるために提供されるものであって、本発明は、請求項の範疇によって定義されるだけである。明細書全体にわたって、同一参照符号は同一構成要素を指す。
【0043】
たとえ、「第1」又は「第2」などが様々な構成要素を説明するために使用されるが、このような構成要素は前記のような用語によって制限されない。前記のような用語は、単に一つの構成要素を他の構成要素と区別するために使用されてもよい。したがって、以下で言及される第1構成要素は、本発明の技術的思想内で第2構成要素であってもよい。
【0044】
本明細書で使用される用語は実施例を説明するためのものであって、本発明を制限しようとするものではない。本明細書において、単数形は文句において特に言及しない限り、複数形も含む。本明細書で使用される「含む(comprises)」又は「含む(comprising)」は、言及された構成要素又はステップが、1つ以上の他の構成要素又はステップの存在又は追加を排除しないという意味を内包する。
【0045】
他の定義がなければ、本明細書で使用される全ての用語は、本発明の属する技術分野における通常の知識を有する者に共通に理解できる意味で解釈されてもよい。さらに、一般的に使用される辞書で定義されている用語は、明確に特に定義されていない限り、理想的又は過度に解釈されない。
【0046】
以下、添付の図面を参照して本発明の実施例を詳細に説明し、図面を参照して説明するとき、同一又は対応する構成要素には同一の符号を付け、これに対する重複する説明は省略することにする。
【0047】
図1は、本発明の一実施例に係る知能モデル生成方法を示すフローチャートである。
【0048】
本発明の一実施例に係る知能モデルの生成及び配布方法は、エッジサーバー及びクラウドサーバーで行うことができる。ただし、ユーザ端末の知能モデル生成要請に応じて、知能モデル生成はエッジサーバーでのみ行うこともでき、本発明の範囲がこれに限定されるものではない。
【0049】
図1を参照すると、本発明の実施例に係る方法は、エッジサーバーがユーザ端末の知能モデル生成要請を受信するステップ(S110)、前記知能モデル生成要請に対応する知能モデルを生成するステップ(S120)及び前記生成された知能モデルを調整するステップ(S130)を含む。
【0050】
このとき、前記知能モデルを生成するステップ(S120)は、エッジサーバーが前記知能モデルの生成に失敗すると、クラウドサーバーに知能モデル生成を要請するステップ及び前記クラウドサーバーで生成された知能モデルを受信するステップをさらに含んでもよい。
【0051】
このとき、前記クラウドサーバーは、前記第1クラウドサーバー及び第1クラウドサーバーよりも大容量を有する第2クラウドサーバーを含んでもよい。
【0052】
このとき、前記第1クラウドサーバーは、前記知能モデルの生成に失敗すると、前記第2クラウドサーバーに知能モデル生成を要請してもよい。
【0053】
このとき、前記知能モデル生成要請は、タスク識別子、生データ、注釈、データ公開範囲及び目標のラベルを含んでもよい。
【0054】
このとき、前記知能モデルを生成するステップ(S120)は、前記知能モデル生成要請に基づいて、基本知能モデルを選定するステップ、前記基本知能モデルのラベルリストを目標のラベルリストに対応するように変形するステップ及び前記変形された知能モデルの学習を行うステップを含んでもよい。
【0055】
このとき、前記変形された知能モデルの学習を行うステップは、既に格納されたデータセットを用いる第1学習ステップ及び前記知能モデル生成要請に含まれた生データを用いる第2学習ステップを含んでもよい。
【0056】
このとき、前記クラウドサーバーに知能モデル生成を要請するステップは、前記データ公開範囲に基づいて、前記クラウドサーバーに伝送する生データを設定してもよい。
【0057】
このとき、前記生成された知能モデルを調整するステップ(S130)は、前記クラウドサーバーに伝送されていない生データを用いて行われてもよい。
【0058】
図2は、本発明の一実施例に係る知能モデル生成方法をより詳細に示すフローチャートである。
【0059】
図2を参照すると、本発明の一実施例に係る知能モデル生成方法は、ユーザ端末(10)、エッジサーバー(20)及びクラウドサーバー(30)で行われてもよい。
【0060】
ユーザ端末(10)は、エッジサーバー(20)に、サービス提供に必要な知能モデル生成を要請する(S11)。知能モデル生成要請を受信したエッジサーバー(20)は、エッジサーバー(20)内で知能モデルを生成できるかを判断する(S12)。知能モデル生成が可能な場合(S12)、エッジサーバーは、知能モデルを生成して(S13)、知能モデルを微調整して(S20)、ユーザ端末(10)に伝送する(S21)。このとき、エッジサーバー内で知能モデルを生成する場合、前記知能モデルを微調整するステップ(S20)は省略されてもよい。
【0061】
エッジサーバー(10)は、知能モデルの生成が不可能な場合(S120)、クラウドサーバー(30)に知能モデル生成要請を伝達する(S14)。このとき、前記クラウドサーバー(30)は、エッジサーバーよりも大きいコンピューティングリソースを有するサーバーを指すものであって、その用語によって本発明の範囲が制限されるものではない。
【0062】
知能モデル生成要請を受信したクラウドサーバー(30)は、知能モデル生成が可能であるか否かを判断して(S15)、知能モデル生成が可能であれば、知能モデルを生成してエッジサーバー(20)に伝送する。エッジサーバーは、受信した知能モデルを微調整して(S20)、ユーザ端末(10)に伝送する(S21)。
【0063】
クラウドサーバーで知能モデルの生成が不可能な場合(S15)、他のクラウドサーバーに知能モデル生成を要請する(S17)。このとき、前記他のクラウドサーバーは、前記クラウドサーバー(30)よりも大きいコンピューティングリソースを有するサーバーに対応する。他のクラウドサーバーから知能モデルを受信した(S18)クラウドサーバー(30)は、これをエッジサーバーに伝送する(S19)。エッジサーバーは、受信した知能モデルを微調整して(S20)、ユーザ端末(10)に伝送する(S21)。
【0064】
このとき、前記他のクラウドサーバーに知能モデル生成を要請するステップ(S17)は、前記知能モデル生成が可能なクラウドサーバーが見つかるまで繰り返し又は階層的に行われてもよい。以下、詳細な実施例を通じて本発明を詳細に説明することにする。
【0065】
図3は、本発明の一実施例に係る知能モデル配布システムの構成を示す図である。
【0066】
図3を参照すると、本発明の実施例に係るシステムは、端末(100)、エッジサーバー(150)及びクラウドサーバー(200)から構成されてもよい。
【0067】
前記端末(100)は、ロボット、スマートスピーカなどの知能的なサービスを提供する装置であって、知能モデルを要請して活用する。
【0068】
前記エッジサーバー(150)は、ネットワークを通じて端末と連結されたコンピューティングシステムであって、一般的に端末の位置と物理的に近い場所に存在する。例えば、端末が食堂サービスロボットである場合、エッジサーバー(150)は、ロボットを運営する食堂内に設けられたサーバーコンピュータであってもよい。
【0069】
エッジサーバー(150)は、クラウドサーバーとは異なり、知能モデルを活用する地域、例えば食堂などの店舗内で活用し、当該地域の運営主体が管理してもよい。このとき、エッジサーバー(150)は、個人情報保護法規定又は運営主体が決めた規則に従って知能モデルの生成及び活用のために提供すべきデータのうち、外部流出が可能なものとそうでないものとを区分し、外部流出が可能なデータのみ外部サーバーに伝送することによって、データセキュリティの問題を解決することができる。
【0070】
本発明に係る知能モデル生成方法によれば、外部公開可能なデータでクラウドで生成された知能モデルを、エッジサーバーでセキュリティデータとして再訓練し最適化することによって、データセキュリティ問題を解決しながら所望の知能モデルを確保することができる。
【0071】
クラウドサーバー(200)は、遠隔地で運営されるコンピューティング装置であって、端末やエッジサーバーよりも豊富なコンピューティングリソースを有しており、多数のエッジサーバー又は端末を対象に要請を処理することができる。本発明によれば、クラウドサーバーは複数の段階にわたって階層的に連結することができる。エッジサーバーに直接に連結されたクラウドサーバーで知能モデルの生成及び配布が不可能な場合、次の段階のクラウドサーバーに要請を伝送して処理する。好ましくは、より遠い、すなわち段階が高いクラウドサーバーであるほど、ストレージの規模とコンピューティングリソースが大きいため、より多くの知能モデルとデータセットを格納することができ、より膨大な知能モデルの生成及び配布が可能である。
【0072】
エッジサーバー(150)とクラウドサーバー(200)とは、知能リポジトリ(203)、知能リポジトリインタフェース(204)、知能管理者(201)を通じて知能モデルを生成して配布する機能を行う。
【0073】
知能リポジトリ(203)は、知能モデルを生成して最適化するために必要な情報を格納し管理する。前記情報は、知能モデルが扱う対象を示すラベル(Label)、知能モデルを訓練して評価するために用いるデータセット(Data set)、知能モデルの構造と内容、知能モデルに基づいて、推論、訓練、転移学習などを行うプログラムなどを全て包括する。
【0074】
知能リポジトリインタフェース(204)は、前記全ての情報を格納して閲覧するために使用されるメッセージ又はプログラミングインタフェースである。
【0075】
知能管理者(201)は、端末、エッジサーバー又は下位クラウドサーバーから要請された知能を、知能リポジトリ(203)を活用して生成して配布する機能を行う。このとき、サーバー内で独自に知能モデルを生成できない場合、上位サーバーに知能要請を伝達して知能モデルを配布してもらうことができる。
【0076】
知能要求プロファイル(110)は、端末が必要とする知能の仕様を記録したデータ構造体であって、知能モデルが行うべき機能と、知能モデル訓練に必要なデータを含む。
【0077】
本発明の一実施例において、知能モデル伝送は、生成した「知能モデル」とそのモデルを駆動して機能を実行できる「プログラム」を共に伝送する方式で具現することができる。端末(100)は、伝送された「知能モデル」を入力して、「プログラム」を実行することによって生成された知能モデルの推論機能を活用することができる。
【0078】
以下、本発明の実施例に係る知能要求プロファイル(110)の構造を詳細に説明する。
【0079】
知能モデルの生成及び配布は、知能要求プロファイル(110)を伝送することによって行われる。知能要求プロファイル(110)は、知能モデルを生成するために必要な手がかり情報を含む。本発明の一実施例において、知能要求プロファイル(110)は、タスク明細及び目的データを含む。
【0080】
タスク明細は、知能モデルが行うべき作業の内容を記述し、エッジサーバー及びクラウドサーバーで知能モデルを検索して選別するために活用する。本発明の一実施例において、タスク明細は、タスク識別子、入力情報、出力情報を含む。
【0081】
タスク識別子は、知能モデルが行う作業を示す項目であって、その値の例として、分類(Classification)、検出(Detection)、意味分割(Semantic Segmentation)、個体分割(Instance Segmentation)、自然言語翻訳(Natural Language Translation)、イメージキャプショニング(Image Captioning)などを含んでもよい。
【0082】
入力情報は、知能モデルに入力として与えられるデータの形式と内容を記述する。一実施例において、入力情報は、イメージ(Image)、動画(Video)、音声(Audio)、テキスト(Text)のようなモダリティに基づいて記述することができる。
【0083】
出力情報は、知能モデルが入力を受けて処理した後、出力する出力データの形式と内容を記述する。一実施例において、出力情報は、クラス識別子(Class ID)、境界ボックス(Bounding Box)、ピクセル単位のイメージマスク(Pixel-wise Image Mask)などのように記述することができる。下記[表1]は、タスク明細のいくつかの例を示す。
【表1】
【0084】
目的データ(110‐2)は、知能モデルを訓練するか又は最適化するために使用できるデータであって、映像、音声、テキストなどの各種形態の生データ(110‐3)、知能モデルが生データの入力を受け、出力すべき情報を示すデータ注釈(110‐4)、各データの公開範囲(110‐5)、並びに生データを提供してはいないが、知能モデルが取り扱うべき対象を示す目的正答ラベル(110‐6)を含む。
【0085】
データ注釈(110‐4)は、生データ(110‐3)の項目別に正答を示す。正答は、分類、検出、分割などの知能モデルが行うタスクの種類によって形態が互いに異なり得る。
【0086】
公開範囲(110‐5)は、各生データとデータ注釈をどの範囲まで公開できるかを表示する。データ公開範囲の制限を通じて、知能モデルを活用する個人や企業の私的情報を保護する目的を達成することができる。一実施例において、公開範囲は「地域」及び「全域」に記述することができる。知能要求プロファイルを受信したエッジサーバーは、「全域」と表示されたデータはクラウドサーバーに伝送し、「地域」と表示されたデータはクラウドサーバーに伝送せずに、独自に処理することによってデータを保護する。
【0087】
目的正答ラベルリスト(110‐6)は、知能モデルが検出又は認識する対象の名前を含む。知能モデルを訓練するために活用できるデータが存在しない場合は、このリストを作成してプロファイルに含める。
【0088】
図4は、イメージ分類用知能モデルを要請する知能要求プロファイルを示す例である。
【0089】
図4を参照すると、タスク明細を通じてイメージの入力を受けて分類し、クラス識別子を出力する知能モデルを要請していることが分かる。目的データは、訓練用に使用できるイメージファイルを生データとして含み、データ注釈内に各イメージファイルの分類正答を含む。データセキュリティのための公開範囲も含んでいることが分かる。
【0090】
図5は、物検出作業用知能モデルを要請する知能要求プロファイルを示す図である。
【0091】
図5を参照すると、タスク明細を通じてイメージの入力を受けて物を検出し、検出された領域にクラス識別子を与える知能モデルを要請していることが分かる。目的データは、訓練用に使用できるイメージファイルが生データとして含み、データ注釈内に各イメージに含まれた物の領域とクラスの正答を含む。
【0092】
図6は、意味基盤の映像分割作業用知能モデルを要請する知能要求プロファイルを示す図である。
【0093】
図6を参照すると、タスク明細を通じてイメージの入力を受け、物の領域をイメージマスクの形態に分割し、分割した領域にクラス識別子を与える知能モデルを要請していることが分かる。目的データは、訓練用に使用できるイメージファイルを生データとして含み、データ注釈内にイメージマスクとして活用するイメージの名前とクラス識別子を含んでいる。
図4~
図6のように、様々なタスクに適するように知能要求プロファイルを構成して活用することができる。
【0094】
図7は、本発明の実施例に係る知能リポジトリ構造を示すブロック図である。
【0095】
図7を参照すると、知能リポジトリ(203)は、ラベル辞書(300)、データセットストレージ(400)、知能モデルストレージ(500)、知能モデル類型辞書(600)、知能モデル活用コード辞書(700)を含む。
【0096】
ラベル辞書(300)は、意味は同一であるが、互いに異なる文字列や数字で表記したラベルを標準語彙に変換するための辞書である。標準語彙は、各ラベルを代表するラベル識別子(301‐1)で表記する。
【0097】
例えば、UUIDのような全域的な唯一の識別子を活用することができる。一実施例に係るラベル辞書の内容は、下記の[表2]の通りである。
【表2】
【0098】
ラベル辞書はラベル項目のリストを含み、各ラベル項目はラベル識別子と自然言語ラベルを含む。[表2]の辞書によれば、「cat」、「猫」、「Chat」はいずれも「L0000001」という標準語彙に変換される。ラベル辞書は、イメージネット(ImageNet)の場合のように、ワードネット(WordNet)などの辞書データベースに基づいて構築可能であり、翻訳機を通じて各種言語に拡張することができる。ラベル辞書を知能的に構築して管理する方法は、本発明の範囲に含まない。
【0099】
データセットストレージ(400)は、知能モデルの訓練と評価に用いるデータセット(401)と、データセットを構成する生データ項目(402)と正答データ項目(403)とを格納する。
【0100】
本発明の一実施例において、データセットは、データセット識別子(401‐1)と正答データリスト(401‐2)とから構成される。データセット識別子(401‐1)は、データセットを唯一に区別して示すことができる固有名である。正答データリスト(401‐2)は、正答データ項目(403)を指す正答データ識別子(403‐1)のリストであって、このリストを参照すると、データセットを構成する全ての生データ項目(402)と正答データ項目(403)を閲覧することができる。
【0101】
生データ項目(402)は、当該項目を固有に識別する生データ識別子(402‐1)、知能モデルの訓練と評価に用いる原本データである生データ(402‐2)、並びにイメージ、動画、音声などの生データの形式を記述する生データタイプ(402‐3)を含む。
【0102】
正答データ項目(403)は、当該項目を固有に識別する正答データ識別子(403‐1)、当該正答の適用対象である生データを指す生データ識別子(402‐1)、正答ラベル識別子を記述した正答データ(403‐2)、並びに当該正答が活用できるタスク明細(403‐3)を含む。
【0103】
図8は、本発明の一実施例に係る知能モデル生成方法のデータセットの一例を示す図である。
【0104】
図8を参照すると、正答データ項目A0100111は、生データ項目RD1340101が示す写真にL0001010(飛行機)を正答ラベルとして指定する。A0100111とA0100133の例から分かるように、複数の正答データ項目で1つのラベル(L0001010)を参照することができる。逆の場合も成立する。一つの生データに複数の正答ラベルを与えることもできるからである。1つの生データに互いに異なるタスクの正答を複数個与えることもできる。例えば、1枚の写真に分類(Classification)正答、検出(Detection)正答、分割(Segmentation)正答を与えることができる。
【0105】
図8において、A01000116とA0100117はそれぞれ1つの生データ(RD1387478)に互いに異なる正答を与える。A01000116は顔が含まれた写真に「顔(L1034962)」を分類タスクの正答ラベルとして指定する正答であり、A0100117は写真に含まれた顔の領域を検出し、「顔」に分類する検出タスク用正答である。本発明に係る実施例において、1つのデータセットは、正答データ項目のリストを記述することによって構成される。
図8の「データセット1」は、イメージの入力を受け、飛行機、自動車、ダチョウ、顔のうち一つに分類する知能モデルを訓練し評価できるデータセットである。「データセット2」は、イメージから顔を検出する知能モデルを訓練し評価できるデータセットである。
【0106】
知能モデルストレージ(500)は、多数の知能モデル(501)が格納する。知能モデル(501)は、知能モデルデータ(502)と知能モデルメタデータ(503)の対で構成される。
【0107】
知能モデルデータ(502)は、知能モデルを実行するために必要なデータである。本発明の一実施例において、知能モデルデータ(502)はモデルを唯一に識別する知能モデル識別子(502‐1)、モデルの構造を把握するために活用できるモデル類型識別子(502‐2)、モデルパラメータ値(502‐3)、タスク明細(502‐4)で構成される。
【0108】
知能モデル識別子(502‐1)は、知能モデルを全域的に唯一に区別するIDであって、UUIDのようなグロバール識別子を活用して指定することができる。
【0109】
モデル類型識別子(502‐2)は、モデルの構造明細を記述する知能モデル類型(601)を指す値である。例えば、人工ニューラルネットワーク基盤の知能モデルのモデル類型は、ニューロン(neuron)と層(layer)とがどのように構成され、連結されているかを記述したニューラルネットワーク構造情報のことをいう。
【0110】
モデルパラメータ値(502‐3)は、モデルを構成する各種のパラメータの実際の値である。ニューラルネットワークモデルの場合、重み(weight)とバイアス(bias)などの値がこれに含まれる。ニューラルネットワークと機械学習基盤の知能モデルのモデル構造及びパラメータ値を記述する様々な方法が存在するため、このような方法を知能モデルデータ技術に活用すればよい。例えば、ONNX(Open Neural Network Exchange)は、モデル構造及びパラメータ値を記述する代表的な業界標準である。
【0111】
タスク明細(502‐4)は、知能モデルが行う作業が何であるかを記述する情報であって、知能要求プロファイル(110)に含まれたタスク明細(110‐1)と同一である。知能要求プロファイルに記載されたタスク明細(110‐1)と知能モデルデータ(502)に含まれたタスク明細(502‐4)とを比較することによって、要求された機能を適切に行える知能モデルを選定することができる。
【0112】
知能モデルメタデータ(503)は、知能モデルの生成方法、機能、品質などの説明情報を含む。知能モデルメタデータは、知能モデルの選択と活用に参考にできるだけでなく、知能モデル間の類似性を判断し、品質に問題のある知能モデルを選び出す手がかりとして活用することができる。本発明の一実施例において、知能モデルメタデータ(503)はデータセット識別子(503‐1)、正答ラベルリスト(503‐2)、基盤モデル(503‐3)、訓練履歴(503‐4)、性能評価情報(503‐5)、品質履歴(503‐6)から構成される。
【0113】
データセット識別子(503‐1)は、知能モデルを訓練するために用いたデータセットを示す。データセットストレージ(400)に格納されたデータセット(401)のうち1つのデータセット識別子(401‐1)を値として有する。
【0114】
正答ラベルリスト(503‐2)は、知能モデルの出力値とラベル識別子(302)間の対応関係を記述する。知能モデルがクラスIDを出力する場合、この値はクラスのインデックス(Index)である。例えば、知能モデルがイメージを犬と猫の2つのクラスに分類するタスクを行うとするとき、知能モデルの出力値は0又は1である。仮に0は猫、1は犬を示すとするとき、この対応関係を記述したものが正答ラベルリスト(503‐2)である。対応関係は、クラスID別にラベル識別子(301‐1)を指定して記述する。[表2]のラベル辞書に基づいて、正答ラベルリスト(503‐2)を{0:L0000001、1:L0000002}に記述すると、知能モデルの出力が0であればラベル識別子がL0000001である「猫」を意味し、1であればラベル識別子がL0000002である「犬」を意味するものと解釈することができる。
【0115】
基盤モデル(503‐3)は、知能モデルを訓練するために用いたモデルの固有IDである。例えば、モデルMに基づいて、ファインチューニング(Fine-tuning)やその他の転移学習(Transfer Learning)を通じてこのモデルを訓練した場合、Mの知能モデル識別子(502‐1)を基盤モデル項目に記述する。基盤モデルがない場合には空白にしておく。
【0116】
訓練履歴(503‐4)は、知能モデルを訓練に関連するパラメータ値と進行過程で発生するデータを含む。例えば、学習率(learning rate)、バッチサイズ(batch size)、ニューラルネットワークの初期重みはもちろん、各訓練周期(epoch)ごとにどのデータを入力し、重みがどのように変化し、学習率などの訓練過程を調整するパラメータ値をどのように変化させ、損失値(Loss)はどのように変化したかを全て含んでもよい。
【0117】
性能評価情報(503‐5)は、知能モデルの性能を記述したデータであって、評価に用いたデータセットと性能値とを含む。評価に用いたデータセット又は評価データ項目の固有ID、モデルの評価尺度による性能値、評価環境を記述する。例えば、イメージ分類モデルの場合、性能評価に用いた全てのイメージデータの固有ID、分類正確度(Accuracy)とイメージ当りの実行速度(fps)などの性能値、評価を行ったシステムのCPU、GPU、RAMの仕様などを記述することができる。性能評価に用いたデータ構成と評価環境によって性能値は異なり得るため、データと環境が異なる場合、性能評価情報に持続的に評価情報を追加する。
【0118】
品質履歴(503‐6)は、知能モデルの活用過程で発生した各種の問題データを含む。例えば、品質履歴の項目は、問題固有番号、問題事項説明情報、問題深刻度情報を含んでもよい。問題深刻度は、「深刻」、「普通」、「無視可能」などの段階に記載することができる。各品質履歴項目には、品質履歴情報を提供したユーザ、使用時間、使用中の自己評価性能などの情報を含め、項目の信頼度を高めることができる。品質履歴情報は、各種の知能モデルを活用するユーザ間で共有し追跡できるように、別の品質履歴ストレージに格納することができる。知能モデルメタデータ内には、品質履歴ストレージに格納された情報項目の固有番号を記載することによって、当該知能モデルの品質履歴を参照するようにすることができる。
【0119】
知能モデル類型辞書(600)は、様々な知能モデルの構造を形式的に記述した情報構造体である知能モデル類型(601)を保管する。知能モデル類型(601)は、モデル類型を唯一に区別して示すために用いるモデル類型識別子(601‐1)、モデルの構造を形式的に記述したモデル類型構造明細(601‐2)、モデル類型が処理できる作業を記述するタスク明細(601‐3)を含む。
【0120】
モデル類型構造明細(601‐1)は、知能モデルを形式的に記述した情報構造体であって、プログラムを通じて読取って知能モデルを生成し、訓練及びテストを行なわなければならない。本発明の一実施例において、ディープラーニング基盤の知能モデルを計算グラフ(Computational Graph)構造として記述するONNX(Open Neural Network Exchange)を活用することができる。知能モデルの構造をONNX形式に変換した後、モデル類型構造明細(601‐2)に保管し活用する方式である。モデル類型識別子(601‐1)を用いて必要な知能モデル類型を選択した後、モデル類型構造明細(601‐2)をロードした後、知能モデルを訓練するか又はテストすることができる。また、互いに異なる知能モデル間構造が同一であるか否かと類似しているか否かを判断するにも活用することができる。
【0121】
タスク識別子(601‐3)は、知能モデル(501)のタスク明細(502‐4)に含まれるタスク識別子と同一の情報であって、当該モデル類型(601)に基づいて訓練した知能モデル(501)が処理できる作業を記述する。例えば、当該モデル類型(601)の構造明細(606‐2)がAlexNet構造であれば分類(Classification)作業を処理することができ、R‐CNN構造であれば検出(Detection)作業を処理することができ、U-Net構造であれば分割(Segmentation)作業を処理することができる。
【0122】
図9は、AlexNet構造を概念的に示す図である。
【0123】
下記の[表3]は、
図9のAlexNet構造をONNX明細に変換したものを示す。
【表3】
【0124】
本発明の実施例に係る方法は、
図9のディープラーニングモデルをONNX明細に変換し、知能モデル類型辞書に格納することができる。格納された知能モデル類型構造明細は、今後、復元過程を経てPytorchなどのディープラーニングフレームワークモデルに復元した後、訓練及びテストに活用することができる。
【0125】
知能モデル活用コードストレージ(700)は、知能モデルを対象に様々な作業を行うプログラムである知能モデル活用コード(701)を保管する。知能モデル活用コード(701)は、コードを唯一に識別するために用いるコード識別子(701‐1)、コードが行う作業を記述するコード類型(701‐2)、実行コード(701‐3)、当該コードで扱える知能モデルを記録した互換モデル(701‐4)で構成される。
【0126】
本発明の一実施例において、コード類型(701‐2)の値は、推論(inference)、訓練(training)、ファインチューニング(fine-tuning)、知識蒸留(knowledge distillation)、圧縮(compression)などで記述することができる。推論(inference)類型のコードは、知能モデル(501)をロードした後、入力データを受け、知能モデルを通じて計算した出力値を提供する機能を行う。訓練類型のコードは、知能モデル類型(601)であって、初期知能モデルを生成した後、データセット(401)又は知能要求プロファイル(210)を用いて知能モデルを訓練する機能を行う。ファインチューニング類型のコードは、知能モデル(501)をロードした後、知能要求プロファイル(210)に記載された目的正答ラベル(110‐2)に従って知能モデル構造を変形した後、データセット(401)又は目的データ(110‐1)に基づいて、知能モデルを訓練する機能を行う。
【0127】
本発明の一実施例において、コード(701‐3)は、互いに異なる運営環境による互換性問題を克服し、実行方法を標準化できるように、docker、containerd、CRI‐Oなどのようなコンテナランタイムを活用する。例えば、Linux OS、CUDAツールキット、Python、Pytorchフレームワークなどをインストールし、AlexNetモデルを訓練するコードを搭載したdockerコンテナを知能モデル活用コード(701)のコード(701‐3)に格納して活用することができる。また、コンテナを駆動できるコマンドスクリプトをコード(701‐3)に共に格納して活用することができる。
【0128】
図10は、本発明の知能モデル配布過程を示すフローチャートである。
【0129】
図10を参照すると、端末は、知能モデルが行う作業と訓練データを含む知能要求プロファイル(110)を生成し、エッジサーバーに知能モデルの生成及び配布を要請する(S1000)。
【0130】
すなわち、ステップ(S1000)は、端末が知能サービスを提供するために必要な知能モデルを要請するステップである。端末の製作者、設置専門家、ユーザなどの知能サービス提供に関与している者は、任意のユーザインタフェース(端末、エッジサーバー、クラウドサーバーがいずれも提供可能)を通じて知能要求プロファイル(110)を生成する。ユーザインターフェースは、ウエブインターフェース(Web Interface)、グラフィックユーザインターフェース(Graphics User Interface)、チャットボット(Chatbot)、コマンドウィンドウ(Command Window)などの様々な形態で提供することができる。
【0131】
端末の知能管理者は、知能要求プロファイル(110)をエッジサーバー(150)に伝送して知能モデルの配布を要請する。知能要求プロファイルの構造及び内容は、
図3~
図5の例に示している通りである。
【0132】
エッジサーバーの知能管理者(201)は、知能リポジトリインタフェース(204)を通じて知能リポジトリ(203)を参照しながら受信した知能要求プロファイル(110)に含まれたタスク明細とデータとに基づいて、「基盤知能モデル」を選定し、「訓練/評価用データセット」を構築して訓練することによって、新しい知能モデルを生成する(S1001)。知能モデルの生成に成功すると、生成された知能モデルとデータセット情報を知能リポジトリ(203)に追加登録する。知能管理者(201)は、生成した知能モデルと当該知能モデル駆動プログラムとを端末に伝送し、端末は知能モデルを活用する。
【0133】
エッジサーバーの知能管理者(201)が知能モデルの生成に失敗すると(S1001)、知能管理者(201)は、データセキュリティなどの目的によって決められた規則に従って知能要求プロファイル(110)を変形した後、クラウドサーバーに知能要求プロファイルを伝送することによって、知能モデルの生成及び配布を要請する(S1002)。
【0134】
クラウドサーバーの知能管理者(201)は、エッジサーバーの知能管理者(201)と同一の方式で知能モデル生成を試みる(S1003)。知能モデルの生成に成功すると、生成した知能モデルと関連データセットを知能リポジトリ(203)に登録する。知能モデルの生成に失敗すると、次の段階のクラウドサーバーに知能要求プロファイル(110)を伝送して知能モデルの生成及び配布を要請する(S1002)。
【0135】
クラウドサーバーの知能管理者(201)は、知能モデルの生成に成功すると、配布を要請したエッジサーバーに知能モデルと当該知能モデル駆動プログラムを伝送する(S1004)。
【0136】
エッジサーバーは、知能要求プロファイル(110)を変形する過程で別途に保管したデータがある場合、当該データで知能モデルを最適化する。最適化した知能モデルは、エッジサーバーの知能リポジトリ(203)に追加登録し、知能モデルと知能モデル駆動プログラムを端末に伝送する(S1005)。端末は、配布された知能モデルと知能モデル駆動プログラムを活用する(S1006)。
【0137】
図10のステップS1001及びS1003は、知能要求プロファイル(110)に基づいて、知能モデルを生成する過程を含む。以下、本発明の一実施例によって、分類(Classification)タスクを行う知能モデルを生成する過程を詳細に説明する。
【0138】
図11は、本発明の実施例に係る知能モデル生成過程を示すフローチャートである。
【0139】
図11を参照すると、知能管理者(201)は、知能要求プロファイル(110)が記述する作業を行える知能モデルを生成するためにタスク明細(110‐1)及び目的データ(110‐2)に基づいて、知能リポジトリ(203)を検索して互換知能モデルMを選定する(S2001)。
【0140】
本発明の一実施例において、互換知能モデル選定は、知能要求プロファイル(110)に記述されたタスク明細(110‐4)と知能モデルストレージ(500)に格納された知能モデル(501)のタスク明細(502‐4)とを比較して相互に同一の場合、当該知能モデルを選定する方式に従う。これを一次選別作業と呼ぶ。
【0141】
一次選別で選択された知能モデルが2つ以上の場合、知能要求プロファイル(110)の目的データ(110‐2)に基づいて、二次選別作業を行う。本発明の一実施例において、この作業は、標準目的ラベルリストと互換知能モデルの正答ラベルリスト(2000‐2)間の類似度を計算して行う。
【0142】
標準目的ラベルリストは、目的データ(110‐1)内の正答と目的正答ラベル(110‐2)リストに含まれた正答ラベルを結合した後、語彙解析器(202)を通じて各ラベルを標準語彙に変換した結果物である。語彙解析器(202)は、語彙変換のためにラベル辞書(300)を参照する。語彙解析に失敗すると、知能モデルの生成に失敗したものと見なす。
【0143】
図12は、標準正答ラベルリストを生成する一例である。
【0144】
標準目的ラベルリストと互換性知能モデルの正答ラベルリスト(2000‐2)間の類似度は、様々な方法で計算することができる。本発明の一実施例において、2つのラベルリスト間の類似度は、ジャカードインデックス(Jaccard Index)を通じて計算することができる。2つのラベルリスト間の類似度が高いほど、知能モデルの選定優先順位が高い。
【0145】
二次選別作業を経た後、同一の優先順位の知能モデルが2つ以上の場合、性能に優れ、品質問題がないモデルを選別する三次選別作業を行う。本発明の一実施例において、三次選別過程は、知能リポジトリ(203)の知能モデルメタデータ(503)に基づいて行う。下記の例で説明したように、一般性能と品質指数を参照するか、目的データ対象性能を測定する方法を活用することができる。
【0146】
一般性能を参照する方法は、知能モデルメタデータ(503)に明示された性能評価情報(503‐5)を比較して、最も優れた知能モデルを選択する。
【0147】
品質指数を参照する方法は、知能モデルメタデータ(503)に明示された品質履歴(503‐6)情報を比較して、品質に問題の余地がない知能モデルを選択する。
【0148】
目的データ対象性能を測定する方法は、知能要求プロファイルに含まれた目的データ(110‐2)を対象に知能モデルの性能を評価し、性能が最も高い知能モデルを選択する。このために、知能モデル活用コードストレージ(700)で評価対象知能モデル(501)のモデル類型(601)を対象に推論(Inference)作業を行える知能モデル活用コード(701)を選択した後、候補知能モデル(501)を通じて目的データ(110‐1)を対象に推論機能を行って性能を評価する作業を行うことができる。
【0149】
目的データ対象性能、一般性能、品質指数は、知能の活用状況や環境によって重みを異にして、より適切な知能モデルが選定されるように調整することもできる。
【0150】
以上の3段階にわたる選別作業を通じて、優先順位が最も高い知能モデルMを選定する。Mを選定すると、Mを対象に様々な機能を行う活用コードを閲覧して確保する。具体的には、知能モデル活用コードストレージ(700)で、Mのモデル類型(502‐2)を互換モデル(701‐4)に含む知能モデル活用コード(701)を選択してコードを確保する。本発明の一実施例において、各コードはコンテナ(container)とコンテナ駆動スクリプトの対で構成され、各コードは、推論、訓練、ファインチューニング、知識蒸留などの機能を行うために活用することができる。すなわち、知能モデルMを選定した後、Mの入力を受け、推論機能を行うコードC1、訓練機能を行うコードC2、ファインチューニング機能を行うコードC3などを確保することになる。
【0151】
次に、Mが処理できる正答ラベルリストと標準目標正答ラベルリストとが正確に一致しない場合、Mの構造を変形してM1を生成する(S2002)。
【0152】
例えば、Mがイメージを100個のクラスに分類する知能モデルであるとするとき、標準目的ラベルリストに10個の正答のみを含んでいるならば、Mを最適化して標準目的ラベルリストに含まれた10個のクラスのみを分類できるようにすることが、本ステップの目的である。
【0153】
仮に、Mが分類(Classification)作業用のConvolutional Neural Network構造であれば、最終の分類階層のノードは100個であり、Convolution階層と完全連結(Fully Connected)構造でつながっているはずである。本ステップで、100個の出力ノードを含むMの分類階層を除去し、代わりに10個の出力ノードを含む分類階層を生成して連結する。
【0154】
本発明の一実施例において、M1を生成するときに、出力ノードを標準目標正答ラベル数よりさらに1つ追加することができる。追加されたノードは「unknown」を示すノードであって、標準目標正答ラベルに対応していないデータが知能モデルに入力されたときに活性化するように訓練することによって誤認識(False Positive)確率を下げてクラス分類正確度を向上させることができる。
【0155】
本ステップ(S2002)は、Mの正答ラベルリストと標準目的ラベルリストの長さが同一の場合には行う必要がない。
【0156】
次に、M1を訓練するデータセットDを構成する(S2003)。Dは、標準目的ラベルリストに基づいて、知能リポジトリ(203)のデータセットストレージ(400)を閲覧して構築する。まず、Mを訓練するために用いたデータセット(401)を識別子(503‐1)を通して閲覧し、標準目的ラベルリストに含まれたラベルのデータ項目(402、403)を収集してDを構築する。仮に、標準目的ラベルのうち、この方法でデータを確保できなかったラベルがあれば、データセットストレージ(400)で、正答データ(403‐2)が標準目的ラベルと同一のデータ項目を検索してDに追加する。Dを構成した後、標準目的ラベルリストの各ラベルとクラスインデックスを対応付けるテーブルLも構築する。
【0157】
クラス別のデータ個数の平準化、Mの規模に適したクラス別のデータ個数の決定、Dを訓練(Training)、検証(Validation)、テスト(Test)用データに分割するなど、Mの訓練のために考慮すべき様々な事項を本ステップで考慮して行う。
【0158】
ステップ(S2002)で「unknown」ノードが生成された場合、標準目的ラベルに含まれないラベルをランダムに選定し、当該データを収集して「unknown」クラスに割り当てることによってデータセットDを構成する。標準目的ラベルに対応するクラスに含まれるデータ以外のデータは、「unknown」クラスに属するように訓練することによって誤認識(False Positive)確率を下げて知能モデルの分類正確度を向上させることができる。
【0159】
次に、Dを用いてM1を訓練することによってM2を生成する(S2004)。知能モデルの種類別に様々な訓練方法を適用することができ、先に言及したように、このようなコードは知能リポジトリ(203)の知能モデル活用コードストレージ(700)を通じて確保する。本ステップの作業は、先立って確保した「訓練」用コードにDとM1を入力して駆動することによって行うことができる。
【0160】
このとき、M2とDを知能リポジトリ(203)に登録する。M2の知能モデルデータ(502)と知能モデルメタデータ(503)を適切に記載しなければならない。知能モデル識別子(502‐1)は新規生成して登録し、モデルパラメータ値(502‐3)、正答ラベルリスト(503‐2)、訓練履歴(503‐4)、性能評価情報(503‐5)は、適切な情報で記録しなければならない。データセット識別子(503‐1)には、Dのデータセット識別子(402‐1)を記録する。基盤モデル(503‐3)には、Mの知能モデル識別子(502‐1)を記録する。Dは新しいデータセット識別子(401‐1)を登録し、Dを構成する正答データリスト(401‐2)を格納することによって記録する。
【0161】
ステップ(S2002)~(S2004)の実行を通じて、知能モデルの規模を縮小し、知能モデルの正確度を向上させる効果を得ることができる。
【0162】
次に、知能要求プロファイル(110)に含まれた目的データに基づいて、M2を知能要求に最適化するために活用するデータセットD1を構成する(S2005)。D1は、生データ(110‐3)に含まれたデータ項目と各項目に対応するデータ注釈(110‐4)の対から構成される。データ注釈の正答は、ラベル辞書(300)を通じて標準語彙に変換した後、ステップ(S2003)で構築したLを通じてクラスインデックスを求めた後、各生データの正答としなければならない。
【0163】
次に、D1でM2を訓練してM3を生成する(S2006)。ステップ(S2004)のように、知能モデル活用コードストレージ(700)で確保した「訓練」用コードにD1とM2を入力して駆動することによって行うことができる。
【0164】
M3とD1を知能リポジトリ(203)に登録する。M3の知能モデルデータ(502)と知能モデルメタデータ(503)を適切に記載しなければならない。知能モデル識別子(502‐1)は新規生成して登録し、モデルパラメータ値(502‐3)、正答ラベルリスト(503‐2)、訓練履歴(503-4)、性能評価情報(503‐5)は、適切な情報で記録しなければならない。データセット識別子(503‐1)には、D1のデータセット識別子(402‐1)を記録する。基盤モデル(503‐3)には、M2の知能モデル識別子(502‐1)を記録する。D1は、新しいデータセット識別子(401‐1)を登録し、D1を構成する正答データリスト(401‐2)を格納することによって記録する。
【0165】
ステップ(S2001)1の一次選別において、知能要求プロファイルに記載されたタスク明細(110‐1)を満たす知能モデルを知能モデルストレージで見つけられないこともある。このとき、知能管理者(201)は、知能モデル類型辞書(600)に格納された知能モデル類型(601)のうち、タスク識別子(601‐3)がタスク明細(110‐1)のタスク識別子と同一なものを選別して活用することができる。知能モデル類型(601)を選定した後、モデル類型構造明細(601‐2)を復元して、モデルパラメータ値が空いている初期モデルBMを生成する。その後、BMをMの代わりに活用することができる。BMは、学習していない、空いているモデルであるので、ステップ(S2004)で初めて本来の機能を果たすモデルを生成することになる。以降の過程は前述の通りである。
【0166】
以下、データセキュリティのための知能要求プロファイル変更方法について詳細に説明する。
【0167】
ステップ(S1002)において、エッジサーバー(150)が知能モデルの生成に失敗すると、知能要求プロファイルをクラウドサーバーに伝送して知能生成タスクを任せる。このとき、エッジサーバー(150)の知能管理者(201)は、データの公開範囲を考慮して知能要求プロファイルを変形してクラウドサーバーに伝送することによってデータ保護機能を行う。
【0168】
図4の知能要求プロファイルの例を挙げると、公開範囲が「地域」及び「全域」と記述されている。この場合、エッジサーバーが「地域」に限定されたデータは、クラウドサーバーに伝送しないように規則を適用することによって、顧客又はエッジサーバーの所有者又はサービス運営会社のデータを保護することができる。エッジサーバーがクラウドサーバーに伝送する知能要求プロファイルには、1)公開範囲が「全域」である目的データの全て、2)公開範囲が「地域」である目的データのうち正答ラベル、並びに3)目的正答ラベルリストが含まれる。エッジサーバーは、公開範囲が「地域」である目的データを、今後に知能モデルの地域最適化のために格納し保管する。
【0169】
さらに他の実施例において、公開範囲は多段階で指定することができる。
図3に示しているように、端末と最終クラウドサーバー間には複数の段階にわたって中間サーバーを配置することができるので、このような場合、どのステップのサーバーまでデータを伝送できるかを、精密に公開範囲を定義して記述することもできる。さらに他の実施例において、公開範囲は自動に指定することができる。例えば、写真や動画内に人が存在するかどうかを判断できる検出器を設け、知能要求プロファイル内に含まれた生データを対象に検出を行い、人が含まれたデータはいずれも公開範囲を「地域」に設定することができる。このように、本発明に係るシステムを管理するか又は使用する主体は、特定の物を指定して公開範囲を設定し、エッジサーバーに自動にデータセキュリティ機能を処理させることができる。
【0170】
図13は、エッジサーバーが
図4の知能要求プロファイルをデータ公開範囲に基づいて変形した結果の例である。
【0171】
公開範囲が「地域」であるimg02.jpg関連データを知能要求プロファイルから削除し、img02.jpgの正答ラベルである「カップ」を目的正答ラベルに追加した。「カップ」に該当する生データがプロファイルにないからである。この事例では、公開範囲項目はクラウドサーバーに伝送する必要がないため、知能要求プロファイルから削除した。
【0172】
以下、エッジサーバーにおいて、知能モデルの最適化方法について詳細に説明する。
【0173】
ステップ(S1002)において、エッジサーバーは、公開範囲が「地域」である生データ(110‐3)とそのデータ注釈(110‐4)を知能要求プロファイル(110)から除去して自己保管した。このように自己保管したデータ項目に基づいて、データセットD2を構成する。D2は、生データ項目とデータコメント内の正答との対からなる。
【0174】
エッジサーバー(150)は、知能モデルM3を受け、D2を用いて訓練することによって、最初の知能要求プロファイル(110)が要請した最終知能モデルM4を生成する。訓練方法はステップ(S2004)、(S2006)と同一である。これによって、公開範囲が限定的であるため、クラウドサーバーで知能モデルの最適化に活用できなかったデータを知能モデルの性能最適化に適用することができる。
【0175】
D2及びM4も先に、D、D1、M2、M3を登録した方式と同一に知能リポジトリ(203)に登録する。
【0176】
以下、知能モデルの品質管理方法について詳細に説明する。
【0177】
知能モデルメタデータ(503)に含まれた品質履歴(503‐6)情報は、問題発生履歴がない良質の知能モデルを選定するための参考資料として活用することができる。知能モデルの品質が顕著に低いか又は致命的なリスクを発生させた場合、重要な作業に活用することを防ぐことができる。
【0178】
例えば、モデルMが特定の状況でエラーを発生させて問題を引き起こした場合、当該状況を記述した情報を、知能リポジトリインターフェース(204)を通じてエッジサーバー又はクラウドサーバーに伝送する。伝送中に、エッジサーバー及びクラウドサーバーは、モデルMの知能モデルメタデータ(503)内の品質履歴(503‐6)項目に当該情報を追加する。今後、この項目を閲覧することによって、知能モデルの品質を予想することができる。仮に、ある知能モデルMが特定の状況で深刻な性能低下や問題を発生させた場合、Mと同一又は類似のモデルを見つけることによって、潜在的に問題発生の余地がある知能モデルを選別することができる。
【0179】
Mと同一のモデルは、知能モデルデータ(502)に含まれた知能モデル識別子(502‐1)を相互比較して見つけることができる。
【0180】
本発明の一実施例において、Mと類似するモデルは、下記のように見つけることができる。
【0181】
1)Mの知能モデルメタデータ(503)に記載された基盤モデル(503‐3)は、Mを生成するために活用した知能モデルであるため、類似するモデルと判断する。Mの基盤モデルは別の基盤モデルから生成されたものであってもよい。このように、知能モデルの基盤モデルを連続的に参照して、Mの類似モデルを見つけることができる。
【0182】
2)2つの知能モデル間の知能モデルデータの類似度を測定することによって、類似モデルを見つけることができる。2つの知能モデルのモデル類型(502‐2)、訓練データセット(503‐1)、正答ラベルリスト(503‐2)、基盤モデル(503‐3)、訓練履歴(503‐4)などを相互比較して類似しているほど類似モデルと判断することができる。
【0183】
このようなデータ間の類似性が必ずしも2つのモデルの動作特性の類似性を証明するわけではないが、問題発生の可能性を予想する手がかりとしての役割を果たすことができる。
【0184】
以下、[表4]~[表8]を参照して、知能リポジトリの構成及び格納内容を詳細に説明する。
【0185】
[表4]は、知能要求プロファイル(210)の一実施例を示す。
【0186】
[表5]は、ラベル辞書(300)の一実施例を示す。
【0187】
[表6]は、知能モデル類型辞書(600)の一実施例を示す。
【0188】
[表7]は、知能モデルストレージ(500)の一実施例を示す。
【0189】
[表8]は、知能モデル活用コードストレージ(700)の一実施例を示す。
【表4】
【表5】
【表6】
【表7】
【表8】
【0190】
[表4]の知能要求プロファイル(210)は、イメージの入力を受け、7個の物のクラスを検出できる知能モデルを要請していることが分かる。
【0191】
このような要請を満たす知能モデルを選定するために、知能要求プロファイルのタスク明細(110‐4)と知能モデルストレージ(500)の各知能モデルのタスク明細(502‐4)とを比較して同一なものを選び出す。[表7]を参照すると、IM000011が当該条件を満たすことが分かる。
【0192】
知能モデルIM000009の知能モデル類型識別子(502-2)をみると、モデル構造がIMT00003であり、知能モデル類型辞書(600)をみると、このモデルの構造明細がalexnet01.onnxに形式的に記述されており、分類(classification)タスクに活用できることが分かる。alexnet01.ONNX明細は、ONNX構造として互換性のあるディープラーニングフレームワークを用いると、復元を通じて当該モデル構造で作られた学習される前の初期知能モデルを生成して活用することができる。
【0193】
IM000009の訓練履歴(503‐4)をみると、epoch、batch size、learning rateなど訓練に用いた各種のパラメータの設定値を閲覧することができる。
【0194】
IM000009の性能評価情報(503‐5)をみると、DS000001データセットを対象に、Recall性能は0.992、Precision性能は0.87を達成したことが分かる。IM000015は同一のデータセットを対象に、Recallは0.96、Precisionは0.89であることが分かる。タスク明細が同一の知能モデルを対象に同一性能数値を相互比較することによって性能を比較することができる。
【0195】
IM000009の品質履歴(503‐6)をみると、2021‐07‐03に報告された履歴があり、状態は深刻(severe)であり、関連情報のURLが記載されている。これによって、当該知能モデルが深刻な問題を引き起こしたことがあるという点を把握することができる。
【0196】
知能モデル活用コードストレージ(700)には、IM000009モデルを対象に推論を行えるコードCD000001と訓練を行えるコードCD000002とがあり、その具現体はコンテナであって、識別子(例:imcloud/imt00003:inference)と駆動スクリプト(例:script001.bash)が格納されていることが分かる。IM000009モデルを活用して知能モデルを生成、最適化、活用するときに当該コードを用いればよい。
【0197】
図14は、本発明の一実施例において、エッジサーバーの構造を示すブロック図である。
【0198】
図14を参照すると、本発明の一実施例に係るエッジサーバーは、ユーザ端末及び他のサーバーと通信する通信部(21)、知能モデル生成のためのデータが格納された格納部(22)、知能モデル生成要請に対応する知能モデルを生成するモデル生成部(23)及び前記生成された知能モデルを調整する調整部(24)を含む。
【0199】
このとき、前記通信部(24)は、前記モデル生成部が前記知能モデルの生成に失敗すると、クラウドサーバーに知能モデル生成を要請し、前記クラウドサーバーで生成された知能モデルを受信してもよい。
【0200】
このとき、前記クラウドサーバーは、第1クラウドサーバー及び前記第1クラウドサーバーよりも大容量を有する第2クラウドサーバーを含んでもよい。
【0201】
このとき、前記第1クラウドサーバーは、前記知能モデルの生成に失敗すると、前記第2クラウドサーバーに知能モデル生成を要請してもよい。
【0202】
このとき、前記知能モデル生成要請は、タスク識別子、生データ、注釈、データ公開範囲及び目標のラベルを含んでもよい。
【0203】
このとき、前記モデル生成部(23)は、前記知能モデル生成要請に基づいて、基本知能モデルを選定し、前記基本知能モデルのラベルリストを目標のラベルリストに対応するように変形し、前記変形された知能モデルの学習を行ってもよい。
【0204】
このとき、前記通信部(21)は、前記データ公開範囲に基づいて、前記生データを前記クラウドサーバーに伝送してもよい。
【0205】
このとき、前記調整部(24)は、前記クラウドサーバーに伝送されていない生データを用いて前記知能モデルを調整してもよい。
【0206】
図15は、本発明の一実施例に係るクラウドサーバーの構造を示すブロック図である。
【0207】
図15を参照すると、本発明の一実施例に係るクラウドサーバーは、エッジサーバーの知能モデル生成要請を受信する通信部(31)、知能モデル生成のためのデータが格納された格納部(32)、前記知能モデル生成要請に対応する知能モデルを生成するモデル生成部(33)を含み、前記知能モデル生成要請は、タスク識別子、生データ、注釈、データ公開範囲及び目標のラベルを含んでもよい。
【0208】
このとき、前記通信部(31)は、前記モデル生成部で前記知能モデルの生成に失敗すると、他のクラウドサーバーに知能モデル生成を要請してもよい。
【0209】
このとき、前記知能モデル生成要請の生データは、前記エッジサーバーで前記データ公開範囲に基づいて伝送されてもよい。
【0210】
図16は、実施例に係るコンピュータシステムの構成を示す図である。
【0211】
実施例に係るエッジサーバー及びクラウドサーバーは、コンピュータで読取り可能な記録媒体のようなコンピュータシステム(1000)で具現することができる。
【0212】
コンピュータシステム(1000)は、バス(1020)を通じて互いに通信する1つ以上のプロセッサ(1010)、メモリ(1030)、ユーザインタフェース入力装置(1040)、ユーザインタフェース出力装置(1050)及びストレージ(1060)を含んでもよい。さらに、コンピュータシステム(1000)は、ネットワーク(1080)に連結されるネットワークインターフェース(1070)をさらに含んでもよい。プロセッサ(1010)は、中央処理装置又はメモリ(1030)やストレージ(1060)に格納されたプログラム又はプロセッシング・インストラクションを実行する半導体装置であってもよい。メモリ(1030)及びストレージ(1060)は、揮発性媒体、不揮発性媒体、分離型媒体、非分離型媒体、通信媒体又は情報伝達媒体のうち少なくとも1つ以上を含む格納媒体であってもよい。例えば、メモリ(1030)は、ROM(1031)又はRAM(1032)を含んでもよい。
【0213】
本発明で説明する特定の実行は実施例であって、如何なる方法でも本発明の範囲を限定するものではない。明細書の簡潔さのために、従来の電子的な構成、制御システム、ソフトウェア、前記システムの他の機能的な面の記載は省略されてもよい。さらに、図面に示された構成要素間の線の連結又は連結部材は、機能的な連結及び/又は物理的又は回路的な連結を例示的に示したものであって、実際の装置では代替可能であるか又は追加の様々な機能的な連結、物理的な連結又は回路の連結として示されてもよい。さらに、「必須的な」、「重要に」などのように具体的な言及がなければ、本発明を適用するために必ずしも必要な構成要素ではない可能性がある。
【0214】
したがって、本発明の思想は、前記説明された実施例に限定されて決められてはならず、後述する特許請求の範囲だけでなく、この特許請求の範囲と均等又はこれに基づいて等価的に変更された全ての範囲は、本発明の思想の範疇に属するものと言える。
【符号の説明】
【0215】
1000:コンピュータシステム
1010:プロセッサ
1020:バス
1030:メモリ
1031:ロム
1032:ラム
1040:ユーザインターフェース入力装置
1050:ユーザインターフェース出力装置
1060:ストレージ
1070:ネットワークインタフェース
1080:ネットワーク
【手続補正書】
【提出日】2022-11-25
【手続補正1】
【補正対象書類名】特許請求の範囲
【補正対象項目名】全文
【補正方法】変更
【補正の内容】
【特許請求の範囲】
【請求項1】
端末または上位サーバーと通信する通信部と、
知能モデル生成のためのデータが格納された格納部と、
知能要求プロファイルに基づいて、知能モデルを生成するモデル生成部と、
前記知能モデルを調整する調整部と、
を含み、
前記知能要求プロファイルは、知能モデル生成要請に応じる知能モデルのタスク明細および知能モデルを訓練するために用いられる目的データを含むことを特徴とする、インターミディアトサーバー。
【請求項2】
前記目的データは
生データとおよび前記生データに対応するデータ公開範囲を含むことを特徴とする、請求項1に記載のインターミディアトサーバー。
【請求項3】
前記モデル生成部は、
前記データ公開範囲を用いて、前記生データを、少なくとも1つの上位サーバーに提供される公開生データまたは前記上位サーバーに提供されない非公開生データに区分することを特徴とする、請求項2に記載のインターミディアトトサーバー。
【請求項4】
前記モデル生成部は、
前記非公開生データおよび前記非公開生データに対応するデータ注釈を前記知能要求プロファイルから除去し、前記データ注釈に対応する目的正答ラベルを前記知能要求プロファイルに追加して変形知能要求プロファイルを生成し、前記知能要求プロファイルを前記上位サーバーに提供することを特徴とする、請求項3に記載のインターミディアトトサーバー。
【請求項5】
前記モデル生成部は、
前記上位サーバーから前記変形知能要求プロファイルに基づいて生成された知能モデルを受信し、
前記調整部は
前記非公開生データに基づいて、前記上位サーバーから生成された知能モデルを調整することを特徴とする、請求項4に記載のインターミディアトサーバー。
【請求項6】
前記モデル生成部は、
前記知能要求プロファイルに基づいて、前記格納部に格納された知能モデルの中から基本知能モデルを選定し、前記基本知能モデルに基づいて、前記知能モデルを生成することを特徴とする、請求項1に記載のインターミディアトサーバー。
【請求項7】
前記基本知能モデルは、
前記基本知能モデルのラベルリストおよび前記知能要求プロファイルに含まれた目標ラベルリスト間の類似度に基づいて選定されることを特徴とする、請求項6に記載のインターミディアトサーバー。
【請求項8】
前記モデル生成部は、
前記基本知能モデルのラベルリストを、前記知能要求プロファイルに含まれた目標ラベルリストに対応するように変形し、前記変形された知能モデルに対する学習を行い、前記知能モデルを生成することを特徴とする、請求項6に記載のインターミディアトサーバー。
【請求項9】
前記変形された知能モデルに対する学習は、
前記格納部に格納されたデータセットを用いる第1学習ステップと、
前記知能要求プロファイルに含まれた生データを用いる第2学習ステップと、を用いて行われることを特徴とする、請求項8に記載のインターミディアトサーバー。
【請求項10】
前記既に格納されたデータセットは
前記格納部に格納されたデータのうち、前記目標ラベルリストに対応するデータから構成されたことを特徴とする、請求項9に記載のインターミディアトサーバー。
【請求項11】
サーバーで行われる知能モデル生成方法において、
端末の知能モデル生成要請を受信するステップと、
知能モデルプロファイルに基づいて、知能モデルを生成するステップと、
前記知能モデルを調整するステップと、を含み、
前記知能要求プロファイルは、知能モデルのタスク明細および知能モデルを訓練するために用いられる目的データを含むことを特徴とする、知能モデル生成方法。
【請求項12】
前記知能モデルを生成するステップは、
前記知能モデルプロファイルに基づいて、格納部に格納された知能モデルの中から基本知能モデルを選定し、前記基本知能モデルに基づいて、前記知能モデルを生成することを特徴とする、請求項11に記載の知能モデル生成方法。
【請求項13】
前記基本知能モデルは、
前記基本知能モデルのラベルリストおよび前記知能要求プロファイルに含まれた目標ラベルリスト間の類似度に基づいて選定されることを特徴とする、請求項12に記載の知能モデル生成方法。
【請求項14】
前記格納部は、前記格納された知能モデルのそれぞれに対応する知能モデルメタデータを格納し、
前記知能モデルメタデータは、知能モデルの訓練履歴、性能評価情報または品質履歴を含むことを特徴とする、請求項12に記載の知能モデル生成方法。
【請求項15】
前記訓練履歴は、前記知能モデルの訓練パラメータの変更履歴データを含み、
前記性能評価情報は、前記知能モデルの評価データセットおよび性能データを含み、
前記品質履歴は、前記知能モデル活用過程で発生した問題データを含むことを特徴とする、請求項14に記載の知能モデル生成方法。
【請求項16】
前記知能モデルを生成するステップは、
前記知能モデルメタデータに基づいて、前記格納部に格納された知能モデルの中から基本知能モデルを選定することを特徴とする、請求項14に記載の知能モデル生成方法。
【請求項17】
端末で行われる知能モデル活用方法において、
サーバーに知能要求プロファイルに対応する知能モデルの生成を要請するステップと、
前記知能モデルを受信するステップと、
前記知能モデルを用いてサービスを行うステップと、を含み、
前記知能要求プロファイルは、知能モデルのタスク明細および知能モデルを訓練するために用いられる目的データを含むことを特徴とする、知能モデル活用方法。
【請求項18】
前記目的データは
生データおよび前記生データに対応するデータ公開範囲を含むことを特徴とする、請求項17に記載の知能モデル活用方法。
【請求項19】
データ公開範囲は、
前記生データが前記サーバーの上位サーバーに提供されるか否かを示すことを特徴とする、請求項18に記載の知能モデル活用方法。
【請求項20】
前記知能モデルは、前記上位サーバーに提供されない非公開生データを用いて調整されたことを特徴とする、請求項19に記載の知能モデル活用方法。