(58)【調査した分野】(Int.Cl.,DB名)
請求項1に記載の方法であって、前記デバイス情報は、前記端末側人工知能プロセッサのハードウェアアーキテクチャ情報と動作環境パラメータとを含むことを特徴とする方法。
請求項2に記載の方法であって、前記動作環境パラメータは、前記端末側人工知能プロセッサの動作周波数、オフチップメモリと端末側人工知能プロセッサの間のメモリアクセス帯域幅、オンチップメモリサイズ、端末側人工知能プロセッサのコア数、および端末側人工知能プロセッサのオペレーターのタイプの内に少なくとも1つを含むことを特徴とする方法。
【発明を実施するための形態】
【0009】
以下、添付図面を参照しながら、本開示の実施例について明確に説明する。本開示の例示的な実施例ならびにそれらの様々な特徴および有利な詳細は、添付の図面に示された非限定的で例示的な実施例を参照してより全面的に説明される。図に示されている特徴は必ずしも縮尺通りに描かれていないことに注意されよう。本開示は、本開示の例示的な実施例を不明確にしないように、既知の材料、構成要素、およびプロセス技術の説明を省略する。これらの例は、本開示の例示的な実施例の実現について理解を容易にし、さらに当業者が例示的な実施形態を実施できるようにするためであることが過ぎない。したがって、これらの例は、本開示の実施例の範囲を限定するものと解釈されるべきではない。
【0010】
他に特に定義されない限り、本開示で使用された技術用語または科学用語は、本開示の技術分野に関係する当業者によって通常の意味で理解されるものとする。本開示で使用された「第1」、「第2」、および同様の用語は、順序、量、または重要性を示すものではなく、異なる構成要素を区別するために使用されるに過ぎない。また、本開示の各実施例において、同じまたは類似の参照符号は、同じまたは類似の構成要素を示す。
【0011】
技術案のより良い理解を促進するために、まず本出願の実施形態に含まれる技術用語を以下に説明する:
【0012】
テープアウト:集積回路設計の分野では、テープアウトとは試作品、すなわち、プリセット機能を満たす集積回路を設計した後、最初にテスト用に数個または数十個の製品を生産することを指し、テスト要求を満たす場合は、テスト要求を満たした集積回路の構造によって大量生産される。
【0013】
人工知能プロセッサのソフトウェアスタック:
図2を参照しながら、ソフトウェアスタック構造20は、人工知能アプリケーション200、人工知能フレームワーク202、人工知能学習ライブラリ204、人工知能ランタイムライブラリ206、およびドライバー
208を含む。次に、それに対して詳細に説明する。
【0014】
人工知能アプリケーション200は、異なるアプリケーションシナリオに対応し、対応する人工知能アルゴリズムモデルを提供する。当該アルゴリズムモデルは、人工知能フレームワーク202のプログラミングインタフェースによって直接解析されでき、1つの可能な実現方法では、人工知能学習ライブラリ204は、人工知能アルゴリズムモデルをバイナリ命令に変換し、人工知能ランタイムライブラリ206を呼び出してバイナリ命令を人工知能学習タスクに変換し、当該人工知能学習タスクをタスクキューに差し入れてドライバー208によってスケジュールし、それにより基礎となる人工知能プロセッサによって実行する。もう1つの可能な実現方法では、直接に人工知能ランタイムライブラリ206を呼び出すことができ、前に静的に生成したオフラインファイルを実行し、中間ソフトウェアアーキテクチャのコストを削減し、運用効率を向上させる。
【0015】
バイナリ命令:基礎となる人工知能プロセッサが認識できる情報である。
【0016】
人工知能プロセッサ:専用プロセッサとも呼ばれ、特定のアプリケーションまたは分野に対するプロセッサである。例えば、グラフィックス プロセッシング ユニット(Graphics Processing Unit、略称GPU)は、ディスプレイコア、ビジュアルプロセッサ、ディスプレイチップとも呼ばれ、パーソナルコンピューター、ワークステーション 、ゲームコンソール、 およびあるモバイルデバイス ( タブレットPC 、 スマートフォンなど)で画像計算演算を実行するための専用プロセッサである。例えば、ニューラル プロセッシング ユニット(Neural Processing Unit、略称GPU)は、人工知能の分野での行列乗算に対して専用プロセッサであり、「データ駆動型並列コンピューティング」のアーキテクチャを採用しており、特にビデオ、および画像の大量のマルチメディアデータの処理に優れている。
【0017】
再構成可能アーキテクチャ:人工知能プロセッサが再利用可能なハードウェアリソースを利用できる場合に、様々なアプリケーションの要求に応じて、特定のアプリケーション要求ごとにマッチングするアーキテクチャを提供するために柔軟に自身のアーキテクチャを変更するなら、この人工知能プロセッサは再構成可能コンピューティングシステムと呼ばれ、そのアーキテクチャは再構成可能アーキテクチャと呼ばれる。
【0018】
専用プログラミング言語:特定のハードウェア開発に基づいた高水準のプログラミング言語である。例えば、Cuda Cである。
【0019】
以下は、添付の図面を参照しながら、本開示の実施例によって提供されたデータ処理方法および関連製品の具体実施形態について詳細に説明する。
【0020】
従来技術では、アルゴリズムアプリケーション開発者は、対応するバージョンのハードウェアの実体だけで人工知能アルゴリズムモデルと人工知能プロセッサとの間の適応デバッグ作業を実行する。従来技術の実現案は、テープアウトされていないチップとアルゴリズムとの間のデバック作業を実現できず、故にアルゴリズムモデルとチップとの間の適応を完成するために専用な時間が必要であり、製品の発売の締め切りは延ばされ、時間の問題により市場を占有する機会を見逃しがちである。
【0021】
これに基づいて、本願により提供した技術案において、テープアウトされているかどうかに関係なく、端末側人工知能プロセッサのデバイス情報に従ってクラウド側から適切な人工知能プロセッサを照合することにより、端末側人工知能プロセッサをシミュレートし、本技術案におけるソフトウェア開発プラットフォームは、クライアントが提供するアルゴリズムモデルに対して一連の処理を通じて対応する人工知能学習タスクを提供し、当該
人工知能学習タスククラウド側の人工知能プロセッサで実行されて、実行結果を取得する。実行結果に応じて、ソフトウェア開発プラットフォームで人工知能学習タスクを調整し、本技術案については、人工知能アルゴリズムモデルを調整するかどうかに関わらず、人工知能学習ライブラリの最適化および/または端末側人工知能プロセッサのデバイス情報に対する調整により、どちらも人工知能学習タスクを調整する目的を達成でき、端末側人工知能プロセッサと人工知能アルゴリズムモデル間の適応を実現する。
【0022】
図1に示すように、本技術案におけるシステムアーキテクチャ図であり、
図1に示すように、当該システムアーキテクチャは、クラウド側デバイス101、ソフトウェア開発プラットフォーム102、および端末側デバイス103を含む。
【0023】
具体的に実現では、ソフトウェア開発プラットフォーム102は、アプリケーション開発、パフォーマンスチューニング、機能デバッグなどための一連のツールキットを提供する。アプリケーション開発ツールには、人工知能学習ライブラリ、人工知能ランタイムライブラリ、コンパイラ、特定の分野向け(ビデオ分析など)のソフトウェア開発ツールが含まれる。機能デバッグツールは、プログラミングフレームワークや人工知能学習ライブラリなどのさまざまなレベルのデバッグ要求を満たすことができ、パフォーマンスチューニングツールはパフォーマンス分析ツール、システム監視ツール等を含む。コンパイラは、C ++言語の従来のコンパイラを含んでもよいし、また、C系言語に基づく機械学習コンパイラを含んでもよいし、また、他の高水準言語又は特別に設計されたドメイン専用のプログラミング言語(Domain Specific Language)機械学習コンパイラを含んでもよい。任意選択で、ソフトウェア開発プラットフォームは、クラウド側デバイス101におけるプロセッサで実行されてもよいし、またはローカル(host)コンピュータデバイスのプロセッサ上で実行されてもよいし、当該コンピュータデバイスは、汎用プロセッサ(CPUなど)とディスプレイとを含み得るものであり、ここでは特に限定されない。さらに任意選択で、上述のソフトウェア開発プラットフォームは、ローカルコンピュータデバイスまたはクラウド側デバイスでクライアントの形態で実行されてもよいし、本願の実施例では限定されない。
図3に示すように、当該図面は概略に技術案について第1の適用シナリオを示している。ユーザは、デスクトップコンピュータでソフトウェア開発プラットフォームにログインし、ソフトウェア開発プラットフォームでアルゴリズムモデルに対応する人工知能学習タスクを生成し、クラウド側人工知能プロセッサで人工知能学習タスクの実行結果に基づいて人工知能学習タスクを調整する。
図4に示すように、当該図面は概略に技術案について第二の適用シナリオを示している。クラウド側デバイス101には、人工知能ソフトウェア開発クライアントが設えられる。具体的には、クラウド側デバイスは完全なコンピューターシステムであり、汎用プロセッサと少なくとも1つの人工知能プロセッサとを含んでもよい。例えば、人工知能プロセッサには8つのクラスター(cluster)を含めることができ、各クラスターはごとに4つの人工知能プロセッサコアが含まれる。実際には、ソフトウェア開発プラットフォーム102は、データブロックなどのツールによって保存されたユーザ記録を維持し、当該ユーザ記録はユーザ個人情報(アカウント情報など)およびユーザが必要とするサービス情報を含む。サービス情報は、デバッグ要求と端末側の人工知能プロセッサのデバイス情報とを含むがそれに限定されない。当該デバッグ要求は、機能デバッグとパフォーマンスデバッグとを含むがそれに限定されない。デバイス情報は、ハードウェアアーキテクチャ情報と動作環境パラメータとを含む。動作環境パラメータは、端末側人工知能プロセッサの動作周波数、オフチップメモリと端末側人工知能プロセッサとの間のメモリアクセス帯域幅、オンチップメモリサイズ、端末側人工知能プロセッサのコア数、および端末側人工知能プロセッサのオペレーターのタイプを含むがそれに限定されない。
【0024】
具体的な実現では、クラウド側デバイス101は人工知能プロセッサを備えており、当該人工知能プロセッサはクラウド側人工知能プロセッサと呼ばれる。クラウド側人工知能
プロセッサは、人工知能プロセッサチップ、フィールドプログラマブルゲートアレイ、およびシミュレータを含むがそれに限定されない。人工知能プロセッサチップは、再構成可能なチップまたは非再構成可能なチップであり得る。クラウド側デバイス101は、サーバーボードまたはサーバーボードクラスターであり得る。
【0025】
具体的な実現では、端末側デバイス103は人工知能プロセッサを備えており、当該人工知能プロセッサは端末側人工知能プロセッサと呼ばれる。端末側デバイスは、タブレットコンピューターや携帯電話などの端末デバイスであり得る。端末側デバイスは、カメラなどのエッジデバイスでもよい。本願の実施例では、端末側デバイス103は、テープアウトされていない状態のデバイスでもよいし、テープアウトされたデバイスでもよいことは注意されよう。
【0026】
本技術案の動作原理は、ソフトウェア開発プラットフォーム102で、ドライバーが端末側人工知能プロセッサのデバイス情報に従ってクラウド側デバイス103から端末側デバイス103と一致する人工知能プロセッサをスクリーニングすることである。スクリーニングされたクラウド側人工知能プロセッサのハードウェアアーキテクチャ情報は、対応する端末側人工知能プロセッサのハードウェアアーキテクチャ情報と互換性があり、かつクラウド側人工知能プロセッサの命令セットも、対応する端末側人工知能プロセッサの命令セットと互換性がある。ここで、対応する端末側人工知能プロセッサのハードウェアアーキテクチャ情報と互換性があるクラウド側人工知能プロセッサのハードウェアアーキテクチャ情報は、クラウド側人工知能プロセッサの計算能力は、端末側人工知能プロセッサの計算能力より大きいか等しいことを含んでもよい。
【0027】
ソフトウェア開発プラットフォーム102で、端末側人工知能プロセッサのデバイス情報に従って人工知能学習ライブラリのコンパイルインターフェースに対応するソフトウェアパラメータを設定し、プログラミングフレームワークによって取得されたアルゴリズムモデルを組み合わせ、設定された人工知能学習ライブラリのコンパイルインターフェースを呼び出してコンパイルすることにより、対応する端末側人工知能プロセッサのバイナリ命令を取得する。当該バイナリ命令はランタイムライブラリによって処理され、人工知能学習タスクが生成される。人工知能学習タスクはタスクキューに入れられ、最終的にドライバーによってタスクキューの内の人工知能学習タスクをタスクスケジューリングして、クラウド側人工知能プロセッサによって実行される。
【0028】
クラウド側人工知能プロセッサによって実行された人工知能学習タスクによれば、実行結果をソフトウェア開発プラットフォーム102にフィードバックする。任意選択で、ソフトウェア開発プラットフォーム102は、実行結果を表示することができる。実行結果に従って、ソフトウェア開発プラットフォーム102は、ユーザの操作命令を受け取り、ソフトウェア開発プラットフォーム102は、操作命令を実行する3つの方法のうちの少なくとも1つに従ってバイナリ命令を調整する。この3つの方法は、端末側人工知能プロセッサのハードウェアアーキテクチャ情報の調整、端末側人工知能プロセッサの動作環境パラメータの調整、および人工知能学習タスクの最適化に分かれる。調整されたバイナリ命令を人工知能学習タスクに変換してタスクキューに入れられ、ドライバーによってタスクキューの内の人工知能学習タスクをタスクスケジューリングして、クラウド側人工知能プロセッサによって実行される。クラウド側人工知能プロセッサからのフィードバックの結果は、期待のどおりまで実行する。
【0029】
本技術案では、端末側人工知能プロセッサのデバイス情報は人工知能学習ライブラリのコンパイルインターフェイスのソフトウェアパラメータに対応し、当該ソフトウェアパラメータには、RAMサイズ、キャッシュサイズ、キャッシュでキャッシュするかどうかなどのより多くの詳細情報が含まれる。これらの情報は、バイナリ命令の生成時に割り当て
られた操作ドメインに関連しているため、人工知能アルゴリズムモデルを変更しない場合に、端末側人工知能プロセッサのデバイス情報を変更することにより、バイナリ命令を調整して、人工知能学習タスクを調整できる。端末側人工知能プロセッサがテープアウトされたかどうかに関係なく、端末側人工知能プロセッサのデバイス情報に従ってクラウド側デバイス101から適応したクラウド側人工知能プロセッサは、端末側人工知能プロセッサをシミュレート、クラウド側人工知能プロセッサで対応する人工知能学習タスクを実行する。実行結果に従って、当該ソフトウェア開発プラットフォームでアルゴリズムモデルと人工知能プロセッサとの間の機能、パフォーマンス、および精度のデバッグを完成し、デバッグの完成後に生成されたオフライン実行ファイルは、互換性があるアーキテクチャ上の多種な端末側SoCチップで使用でき、それによる利点は、顧客がハードウェアエンティティを取得することなくて、アルゴリズムモデルと人工知能プロセッサとの間の機能、パフォーマンス、および精度を事前にデバッグできることであり、これにより、製品開発サイクルが大幅に短縮される。さらに、各端末側SoCチップ用に一連の開発環境を個別に開発または適応させる必要はない。
【0030】
さらに、本技術案では、クラウド側人工知能プロセッサのデバイス情報に対応する現在の動作環境パラメータは、実際の動作環境パラメータと同じであってもよいし、実際の動作パラメータと異なっていてもよい。クラウド側人工知能プロセッサによる特定の人工知能学習タスクに対する実行結果に応じて、端末側人工知能プロセッサのデバイス情報が期待された条件を満たすか否かを判断する。端末側人工知能プロセッサのデバイス情報が期待された条件を満たさない場合には、端末側人工知能プロセッサのデバイス情報を、当該端末側人工知能プロセッサのデバイス情報が期待された条件を満たすまでさらに調整してもよい。したがって、本技術案として、端末側人工知能プロセッサのアーキテクチャが設計段階の際に、端末側のSoCチップの設計仕様をもアプリケーションに基づいて評価できる。
【0031】
上記の説明に基づいて、
図5に示すように、本願によって提案されたデータ処理方法のフローチャートである。前記方法は、汎用プロセッサに適用され、
図1のソフトウェア開発プラットフォームに対応する。上述のように、当該汎用プロセッサは、クラウド側デバイス101の汎用プロセッサまたはローカルコンピュータデバイスの汎用プロセッサであり得る。含まれるものは:
【0032】
ステップ501):前記汎用プロセッサは、端末側人工知能プロセッサのデバイス情報に従ってバイナリ命令を生成し、前記バイナリ命令に従って人工知能学習タスクを生成する。
【0033】
本技術案では、ソフトウェア開発プラットフォーム102には、複数のプログラミングフレームワークを統合し、例えば、グーグルテンソル人工学習システムTensorFlow、ディープラーニングフレームワークCaffe、Caffe2、MXNetなどである。Caffeを例にとると、Caffeには、Blob、Layer、Netという3つのコアモジュールがある。Blobsはデータストレージ、データの相互作用と処理に使用され、Blobsにより、データメモリのインターフェイスを統一制定する。Layersは、ニューラルネットワークの核心であり、多くの層構造を定義し、それはBlobを入力および出力として扱う。NetsはLayersの集合であり、これらの層構造は結合することによりネットワークマップを形成する。
【0034】
本ステップとして、端末側人工知能プロセッサのデバイス情報に従って人工知能学習ライブラリのコンパイルインターフェースに対応するソフトウェアパラメータを設定し、プログラミングフレームワークによって取得されたアルゴリズムモデルを組み合わせ、設定された人工知能学習ライブラリのコンパイルインターフェースを呼び出してコンパイルす
ることにより、対応する端末側人工知能プロセッサのバイナリ命令を取得する。当該バイナリ命令はランタイムライブラリによって処理され、人工知能学習タスクを生成する。人工知能学習タスクはタスクキューに入れられ、最終的にドライバーによってタスクキューの内の人工知能学習タスクをタスクスケジューリングして、クラウド側人工知能プロセッサによって実行される。
【0035】
実際の運用では、人工知能学習ライブラリは、人工知能プロセッサでさまざまな人工知能学習アルゴリズムを高速化することために用いられる。ここで、人工知能学習アルゴリズムは、深層学習アルゴリズムを含むがそれに限定されなく、例えば、畳み込みニューラルネットワークアルゴリズム、回帰型ニューラルネットワークアルゴリズムなどである。具体的には、人工知能学習ライブラリは主に次の機能を含む。
【0036】
(1)各種類の基本的な演算子をサポートする。
具体的な実現では、基本的な演算子を組み合わせてさまざまな機械学習アルゴリズムを実現できるため、汎用性、柔軟性、およびスケーラビリティについて要望を満たす。
【0037】
具体的には、ここに係る様々なタイプの基本的な演算子は、一般的なニューラルネットワーク演算子1、行列、ベクトル、スカラー演算子2、および回帰型ニューラルネットワーク演算子3を含み得る。
図6に参照すると、本願の実施例によって提供された人工知能学習ライブラリがサポートする複数のタイプの基本的な演算子の概略図であり、
図6に示すように人工知能学習ライブラリがサポートする複数のタイプの基本的な演算子は、一般的なニューラルネットワーク演算子1を含み、当該ニューラルネットワーク演算子1は、畳み込み/逆畳み込み演算子11、プーリング演算子12、活性化演算子13、局所コントラスト正規化LRN(LRN、Local Response Normalization)/バッチ正規化演算子14、分類器(Softmax)演算子15、および全結合演算子16を含む。ここで、活性化演算子13は、ReLU、Sigmoid、Tanh、および他の補間により実現できる演算子を含むがそれに限定されない。行列、ベクトル、スカラー演算子2は、行列乗算演算子21、テンソル加算、減算演算子22、テンソル論理演算演算子23、テンソル(Tensor)変換演算子24、ROIPooling演算子25、およびProposal演算子26を含む。ここで、テンソル変換演算子24は、Crop、テンソル再整形Reshape、テンソル分割Slice、テンソル連結Concatなどを含むことができるがそれに限定されない。回帰型ニューラルネットワーク演算子3は、長・短期記憶ネットワークLSTM(LSTM、Long Short−Term Memory)演算子31、基本回帰型ニューラルネットワーク演算子RNN(Recurrent Neural Network、RNN)、回帰型ニューラルネットワークRNN演算子32、およびSVDF演算子33を含む。実際の運用では、ユーザは自身のニーズに応じて自由に新しい演算子を人工知能学習ライブラリに追加したり、人工知能学習ライブラリの異なるバージョンを変更したりできるが、ここでは詳しく説明せず、人工知能学習タスクをデバックする際に如何に開発プラットフォームで人工知能学習ライブラリに基づいて人工知能学習タスクを最適化することを説明する。
【0038】
(2)基本的な演算子の融合をサポートする。
具体的な実現では、融合された演算子は、コンパイル中にメモリの再利用、メモリアクセスの最適化、命令パイプライン、データタイプの最適化(適用可能なさまざまなデータ型に対して選択を行うなど)などのコンパイラ最適化方法を使用するため、融合演算子の全体的なパフォーマンスを大幅に向上させる。
【0039】
(3)オフライン実行ファイルの生成をサポートする。
ここで、オフライン実行ファイルの生成は、人工知能アルゴリズムモデル内の各コンピューティングノードのネットワーク重みと命令となどの必要なネットワーク構造情報を含
むことができ、命令は当該コンピューティングノードはどのようなコンピューティング機能を示すことができ、具体的には人工知能学習モデルにおける各コンピューティングノードのコンピューティング属性および各コンピューティングノードの間の接続関係などの情報を含む。
【0040】
具体的な実現では、オフライン実行ファイルは、人工知能学習ライブラリから分離され、人工知能ランタイムライブラリに基づいて個別に実行できる。実際の運用では、オフライン実行ファイルは上位ソフトウェアスタックから分離されているため、オフライン実行ファイルの実行についてパフォーマンスと汎用性を向上させる。
【0041】
ステップ502):前記汎用プロセッサは前記人工知能学習タスクを送信する。
【0042】
本技術案として、端末側人工知能プロセッサのデバイス情報に従ってクラウド側デバイス101から適応したクラウド側人工知能プロセッサは、端末側人工知能プロセッサをシミュレートすることができる。次いで、ソフトウェア開発プラットフォーム102で生成された人工知能学習タスクは、クラウド側人工知能プロセッサに送信されて実行される。
【0043】
ステップ503):前記汎用プロセッサは前記人工知能学習タスクに対応する実行結果を受信する。
【0044】
クラウド側人工知能プロセッサは人工知能学習タスクを実行する際に、実行結果を生成し、当該実行結果をソフトウェア開発プラットフォーム102にフィードバックして表示する。本技術案として、実行結果は、以下の1つまたは1つ以上のものを含むがそれに限定されず、前記人工知能学習タスクのクラウド側人工知能プロセッサでの実行時間が予想の要件を満たすか否かのことと、前記人工知能学習タスクが実行されているときのクラウド側人工知能処理システムの占用される負荷情報が予想の要件を満たすか否かのことと、前記人工知能学習タスクを実行した結果が予想の要件を満たすか否かのこととである。本技術案では、クラウド側の人工知能処理システムは、汎用プロセッサとクラウド側人工知能プロセッサを含んでいる。前記人工知能学習タスクを実行する際に、前記人工知能学習タスクを実行するときにクラウド側の人工知能プロセッサの負荷情報を知るだけでなく、実行プロセス中にメモリ使用量情報と汎用プロセッサ使用率を知ることも必要である。負荷情報が実行結果に含まれる理由は、人工知能学習タスクが汎用プロセッサで過大なリソースを必要とする場合、それを端末側デバイスで実行が不十分になるか実行できない可能性が高いである。
【0045】
ステップ504):前記汎用プロセッサは、前記実行結果に従ってオフライン実行ファイルを決定する。ここで、前記オフライン実行ファイルは、実行結果が事前設定された要件に満たしている場合に対応する前記端末側人工知能プロセッサのデバイス情報とバイナリ命令とに従って生成される。
【0046】
オフライン実行ファイルは、オフライン実行ファイルのバージョン情報、人工知能プロセッサのバージョン情報、バイナリ命令、定数テーブル、入力/出力データ規模、データレイアウト説明情報、およびパラメータ情報を含むことは明らかにされよう具体的には、オフライン実行ファイルのバージョン情報は、オフライン実行ファイルの異なるバージョンを表すものである。人工知能プロセッサのバージョン情報は、端末側人工知能プロセッサのハードウェアアーキテクチャ情報を指す。例えば、チップアーキテクチャのバージョン番号によりハードウェアアーキテクチャ情報を表してもよいし、機能説明によりアーキテクチャ情報を表してもよい。データレイアウト説明情報は、ハードウェアの特性に基づいて入出力データのレイアウトとタイプなどを前処理することを指す。定数テーブル、入出力データ規模、およびパラメータ情報は、開発された人工知能アルゴリズムモデルに基
づいて決定される。パラメータ情報は、人工知能アルゴリズムモデルにおける重みデータであり得る。定数テーブルには、バイナリ命令演算プロセスの実行に使用する必要があるデータが格納されている。
【0047】
端末側人工知能プロセッサのデバイス情報は、前記端末側人工知能プロセッサのハードウェアアーキテクチャ情報と動作環境パラメータとを含む。前記動作環境パラメータは、前記端末側人工知能プロセッサの動作周波数、オフチップメモリと端末側人工知能プロセッサとの間のメモリアクセス帯域幅、オンチップメモリサイズ、端末側人工知能プロセッサのコア数、および端末側人工知能プロセッサのオペレーターのタイプの内に少なくとも1つを含む。
【0048】
本技術案では、前記実行結果が事前設定された要件を満たしている場合に、事前設定された要件を満たすバイナリ命令に従って対応するオフライン実行ファイルを生成する。実行結果が事前設定された要件を満たしていない場合に、 機能デバッグツールおよび/またはパフォーマンスチューニングツールにより以下の最適化方法の内に少なくとも1つを、実行結果が事前設定された要件を満たすまで実行して、前記事前設定された要件を満たすバイナリ命令に従って対応するオフライン実行ファイルを生成する。ここで、前記最適化方法は、前記端末側人工知能プロセッサのハードウェアアーキテクチャ情報の調整、前記端末側人工知能プロセッサの動作環境パラメータの調整、および人工知能学習タスクの最適化を含む。
【0049】
具体的には、クラウド側人工知能プロセッサによってフィードバックされた実行結果が事前設定された要件を満たすと、現在実行されている人工知能学習タスクを対応するバイナリ命令がオフラインでオフライン実行ファイルに固定化する。
【0050】
クラウド側人工知能プロセッサによってフィードバックされた実行結果が事前設定された要件を満たしていない場合には、人工知能学習タスクに対するデバッグは2つのアプリケーションシナリオとする。第1のアプリケーションシナリオは、アプリケーションに基づいたチップ設計フェーズで、本技術案を利用してチップ設計仕様を評価する。この状況で、チップのハードウェアアーキテクチャ情報と動作環境パラメータとはどちらも変更可能である。次に、ソフトウェア開発プラットフォームで、前記端末側人工知能プロセッサのハードウェアアーキテクチャ情報の調整、端末側人工知能プロセッサの動作環境パラメータの調整、および人工知能学習タスクの最適化という3つの方法の内に少なくとも1つを含むものを実行することにより、人工知能学習タスクに対応するバイナリ命令を適宜に調整できる。毎回調整の後で、ドライバーによってタスクキューの内の調整された人工知能学習タスクをタスクスケジューリングして、対応するクラウド側人工知能プロセッサによって実行して、新たな実行結果を取得する。新たな実行結果がまだ期待どおりでない場合は、ユーザは実行結果が期待どおりになるまで上記の手順を繰り返すことができる。最終にデバッグで取得したバイナリ命令は、オフライン方式でオフライン実行ファイルに固定化される。
【0051】
第2のアプリケーションシナリオは、端末側人工知能プロセッサがテープアウトされているか否かに関係なく、ユーザはソフトウェア開発プラットフォームに基づいて設計開発を展開でき、端末側人工知能プロセッサと人工知能アルゴリズムモデルとの間の適応を実現できる。この状況で、実際には、他のアーキテクチャバージョンのチップ使用権を再購入しない限り、チップのハードウェアアーキテクチャ情報は簡単に変更されない。チップのハードウェアアーキテクチャ情報が変更されないと仮定すると、フトウェア開発プラットフォームで、現在のハードウェアアーキテクチャ情報に対応するチップにサポートされた動作環境パラメータの範囲内で動作環境パラメータを調整すること、および人工知能学習タスクの最適化という2つの方法の内に少なくとも1つを実行することにより、人工知
能学習タスクに対応するバイナリ命令を適宜に調整できる。毎回調整の後で、ドライバーによってタスクキューの内の調整された人工知能学習タスクをタスクスケジューリングして、対応するクラウド側人工知能プロセッサによって実行して、新たな実行結果を取得する。新たな実行結果がまだ期待どおりでない場合は、ユーザは実行結果が期待どおりになるまで上記の手順を繰り返すことができる。最終にデバッグで取得したバイナリ命令は、オフライン方式でオフライン実行ファイルに固定化される。
【0052】
重要なのは、オフライン実行ファイルをクラウド側人工知能プロセッサまたは端末側人工知能プロセッサで実行できるようにし、かつ人工知能学習タスクをクラウド側人工知能プロセッサで実行する際に生成された実行結果と端末側人工知能プロセッサで実行する際に生成された実行結果とは、特定の許容誤差範囲内または完全に一致しており、本技術案では、端末側人工知能プロセッサのデバイス情報に従ってクラウド側人工知能プロセッサの集合から対応する端末側人工知能プロセッサをシミュレートできるクラウド側人工知能プロセッサをスクリーニングし、スクリーニングされたクラウド側人工知能プロセッサのハードウェアアーキテクチャ情報は、対応する端末側人工知能プロセッサのハードウェアアーキテクチャ情報と互換性があり、クラウド側人工知能プロセッサの命令セットは、対応する端末側人工知能プロセッサの命令セットと互換性があるため、オフライン実行ファイルについてシームレスな移行を実現できる。
【0053】
本技術案では、異なる端末側人工知能プロセッサのデバイス情報は、ソフトウェア開発プラットフォーム102に事前に格納されてもよい。実際の必要に応じて、事前格納されたデバイス情報からターゲット情報を選択し、ターゲット情報に従ってクラウド側デバイス101から端末側人工知能プロセッサをシミュレートするクラウド側人工知能プロセッサを決定する。本技術案として、他の実行可能な解決策は、実際のニーズに応じて、毎回にデバイス情報を調整するたびに、ユーザがソフトウェア開発プラットフォーム102に異なるデバイス情報を設定し、ソフトウェア開発プラットフォーム102が端末側人工知能プロセッサのデバイス情報を受信し、現在の受信した端末側人工知能プロセッサのデバイス情報に従ってクラウド側デバイス101からクラウド側人工知能プロセッサを選択して、端末側人工知能プロセッサの人工知能プロセッサを置き換える。説明すべきなのは、前記端末側人工知能プロセッサのデバイス情報を取得する方法は単なる例示であり、網羅的ではなく、当業者は、本願の技術案の本質を理解した場合に、本願の技術案に基づいて他の変形または変換を生成すことが可能であり、例えば、端末側デバイス103は、リクエスト情報をソフトウェア開発プラットフォーム102に送信し、ソフトウェア開発プラットフォーム102はリクエスト情報を解析して端末側人工知能プロセッサのデバイス情報を取得する。しかしながら、実現された機能および達成された技術的効果が本願に類似している限り、それらはすべて本願の請求範囲内にあるべきである。
【0054】
実際の運用では、クラウド側デバイス101から端末側人工知能プロセッサをシミュレートするクラウド側人工知能プロセッサを選択する際に、現在の有効な端末側デバイス情報をドライバプログラムに書き込み、ドライバプログラムにおけるデバイス情報に従ってクラウド側人工知能プロセッサを適応する。クラウド側人工知能プロセッサを適応するプロセスは以下を含む。
【0055】
端末側人工知能プロセッサのードウェアアーキテクチャ情報に従ってクラウド側人工知能プロセッサをスクリーニングし、スクリーニングされたクラウド側人工知能プロセッサのハードウェアアーキテクチャ情報は、対応する端末側人工知能プロセッサのハードウェアアーキテクチャ情報と互換性があり、クラウド側人工知能プロセッサの命令セットは、対応する端末側人工知能プロセッサの命令セットと互換性がある。
【0056】
端末側人工知能プロセッサの動作環境パラメータに従ってスクリーニングされたクラウ
ド側人工知能プロセッサの周波数と帯域幅とに対して調整する。
【0057】
また、人工知能学習タスクの最適化に対する4つの方式があってもよい。第1の方式では、ユーザは、ソフトウェア開発プラットフォームでプログラミング言語に基づいてファイルをダイナミックリンクライブラリにコンパイルし、フレームワークで当該ダイナミックリンクライブラリを呼び出すことができる。
【0058】
第2の方式では、ユーザは、ソフトウェア開発プラットフォームでプログラミング言語に基づいて新たな演算子を開発し、ローカルにおいてすでに有した人工知能学習ライブラリと組み合わせて、新たなオフライン実行ファイルを取得できる。例えば、proposal演算子を例とする。Faster−R−CnnにおけるProposal演算子をPluginOp演算子に置き換え、専用なプログラミング言語で作られたpropposal_kernel.mlu演算子を呼び出し、Cambricon−CaffeフレームワークにおけるProposal演算子はPluginOpにより専用なプログラミング言語で実現されたProposalKernelに置き換えられて、専用なプログラミング言語を既存の人工知能学習ライブラリとリンクし、人工知能学習ライブラリにおける各機能とオンライン、オフライン、レイヤーバイレイヤー、フュージョンなどの動作モードをサポートする。
【0059】
第1の方式と第2の方式とから、フレームワークの内に多数の層と演算子とがサポートされ、一般的なモデルはすべてクラウドのサーバーボードで実行できる。しかしながら、アルゴリズムの更新は頻繁であるため、個人または組織は、カスタムな演算子とアルゴリズムとを蓄積する場合もあり、一つは、カスタムアルゴリズムを公開したくないことか、二つは、基礎となるライブラリにより直接に実際のアプリケーションへのサポート効率は要件を満たさないことであり、よって、専用なプログラミング言語を提供して、開発者が自主的なアルゴリズムを開発することを支援し、従来の開発モードにおいて柔軟性が欠如という問題点を解決する。
【0060】
第3の方式では、ユーザは、ソフトウェア開発プラットフォームで現在のローカル人工知能学習ライブラリのバージョンの1つを選択し、それに対応する人工知能ランタイムライブラリを照合し、現在のローカル人工知能学習ライブラリが要望を満たさない場合、ソフトウェア開発プラットフォームに介してリクエストを送信し、ローカル人工知能学習ライブラリのバージョンをアップグレードする目的を達成する。ソフトウェア開発プラットフォームのオペレーターは、リクエストに応じてソフトウェア開発プラットフォームに対応する新バージョンの人工知能学習ライブラリおよび対応する工知能ランタイムライブラリを提供し、ユーザは、ソフトウェア開発プラットフォームで最新バージョンの人工知能学習ライブラリおよび対応する工知能ランタイムライブラリを選択し、最新バージョンの人工知能学習ライブラリに基づいてデバッグされたバイナリ命令を取得する。
【0061】
第4の方式では、ユーザは人工知能アルゴリズムモデルを調整して、人工知能学習タスクを最適化する目的を達成できる。
【0062】
実際の運用では、上記の4つの人工知能学習タスクを最適化する方式の少なくとも1つが使用し、人工知能学習タスクを最適化するという目標を達成する。人工知能アルゴリズムモデルを調整するかどうかに関わらず、人工知能学習ライブラリの最適化および/または端末側人工知能プロセッサのデバイス情報に対する調整により、どちらも人工知能学習タスクを調整する目的を達成でき、端末側人工知能プロセッサと人工知能アルゴリズムモデル間の適応を実現する。
【0063】
図5に示す技術案に提供されたソフトウェア開発プラットフォームで、顧客は、当該ソ
フトウェア開発プラットフォームでアルゴリズムと人工知能プロセッサとの間の機能、パフォーマンス、および精度のデバッグを完成し、デバッグの完成後に生成されたオフライン実行ファイルは、互換性のあるアーキテクチャ上の多種な端末側SoCチップで使用でき、上記の利点は、顧客がハードウェアエンティティを取得する必要がなく、アルゴリズムと人工知能プロセッサとの間の機能、パフォーマンス、および精度を事前にデバッグできることであり、これにより、製品開発サイクルが大幅に短縮される。さらに、各端末側SoCチップ用に一連の開発環境を個別に開発または適応させる必要はない。
【0064】
図7に示すように、それは本願によって提供されたデータ処理方法の第2のフローチャートである。前記方法は、クラウド側人工知能プロセッサに適用する。それは以下を含む。
【0065】
ステップ701):人工知能学習タスクを受信する。ここで、前記人工知能学習タスクは、端末側人工知能プロセッサのデバイス情報によって生成されたバイナリ命令に従って決定される。
【0066】
ステップ702):前記人工知能学習タスクを実行して、実行結果を生成する。
【0067】
本ステップでは、前記実行結果は、以下の1つまたは1つ以上のものを含むがそれに限定されず、前記人工知能学習タスクのクラウド側人工知能プロセッサでの実行時間が予想の要件を満たすか否かのことと、前記人工知能学習タスクが実行されているときのクラウド側人工知能処理システムの占用される負荷情報が予想の要件を満たすか否かのことと、前記人工知能学習タスクを実行した結果が予想の要件を満たすか否かのことである。
【0068】
強調すべきなのは、
図5に示された関連する技術案はすべて、
図7に示された技術案に適用可能であるが、ここで説明は繰り返さない。
【0069】
クラウド側デバイス101に対しては、一つのアプリケーションシナリオは、クラウド側人工知能プロセッサの集合は、端末側人工知能プロセッサのすべてのバージョンのハードウェアアーキテクチャ情報が可能な限りカバーすることが明確されよう。例えば、モデルはハードウェアアーキテクチャ情報のバージョンに対応し、端末側人工知能プロセッサのモデルはA、B、およびCである。クラウド側人工知能プロセッサの集合には、モデルAの人工知能プロセッサ、モデルBの人工知能プロセッサ、およびモデルCの人工知能プロセッサのいずれも含まれる。もう一つのアプリケーションシナリオは、クラウド側人工知能プロセッサの集合の内に、人工知能プロセッサのハードウェアアーキテクチャは、高性能バージョンの機能、中性能バージョンの機能、および低性能バージョンの機能を実現できる。例えば、異なるアプリケーションシナリオと実際のニーズに応じて、人工知能プロセッサの一部の機能を無効にし、低性能バージョンの人工知能プロセッサまたは中性能バージョンの人工知能プロセッサに変換してさまざまな顧客の要望を満足する。この状況では、本技術案におけるソフトウェア開発プラットフォーム102はバイナリ命令を生成する際は端末側人工知能プロセッサのデバイス情報に基づいており、かつ、ドライバプログラムによりスクリーニングされたクラウド側人工知能プロセッサによってサポートされた異なる動作環境パラメータを変更することにより、高性能バージョンの人工知能プロセッサの内に一部の機能の一部が無効され、実現された機能のみが対応する端末側人工知能プロセッサの機能と適応する。したがって、高性能バージョンの人工知能プロセッサの動作環境パラメータの値の範囲には、端末側人工知能プロセッサでサポートされているすべての動作環境パラメータが含まれる。例えば、クラウド側人工知能プロセッサのオンチップメモリサイズは100Mであり、端末側人工知能プロセッサのオンチップメモリサイズはある100Mより小さい値でもよい。
【0070】
さらに、時分割多重方式を使用して、仮想マシン技術により、ユーザがクラウド側デバイス101の人工知能プロセッサのリソースを使用する時間帯に従って、クラウド側デバイス101の人工知能プロセッサを合理的に割り当て、リソースを異なる時間帯の人工知能学習タスクに割り当て、展開する必要があるクラウド側人工知能プロセッサの開発環境の数を減らしできる。
【0071】
さらに、クラウド側デバイス101の人工知能プロセッサの集合に、必ずしもチップエンティティである必要はなく、FPGAであってもよい。現代的なIC設計に検証された技術主流を参照しながら、ハードウェア記述言語(VerilogまたはVHDL)により完成された回路設計は、簡単な統合およびレイアウトに介して速やかにFPGAに書き込むことができる。本技術案として、クラウド側人工知能プロセッサに適応したチップエンティティがない場合は、FPGAを使用してユーザにサービスを提供できる。端末側人工知能プロセッサのデバイス情報に従って要求が適合したFPGAをスクリーニングして、当該FPGAは端末側人工知能プロセッサのハードウェアアーキテクチャ情報に対応するイメージファイルを有する。適応したFPGAが存在しない場合に、ソフトウェア開発プラットフォーム102は、端末側人工知能プロセッサのハードウェアアーキテクチャ情報に対応するイメージファイルをアイドルFPGAに書き込み、当該FPGAをソフトウェア開発プラットフォームから送信された人工知能学習タスクを実行させる。
【0072】
クラウド側人工知能プロセッサに対しては、より高い粒度のリソース構成を提供できる。例えば、ユーザAは、ソフトウェア開発プラットフォーム102でM個のコアに基づいて構成された端末側人工知能プロセッサにより人工知能学習タスクを生成し、適応されたクラウド側人工知能プロセッサは総数はN個のコアを有し、かつN個のコアの内にP個のコアは既にユーザBによって起動された人工知能学習タスクで使用される。M+P<=Nが満たされ、かつユーザAに対応する端末側人工知能プロセッサのデバイス情報とユーザBに対応する端末側人工知能プロセッサのデバイス情報が同じでなければならない場合、ソフトウェア開発プラットフォーム102における人工知能ランタイムライブラリは、異なるユーザによって起動された人工知能学習タスクを異なるコアに割り当て、各コアごとに異なる人工知能学習タスクを実行することにより、クラウド側人工知能プロセッサのリソースをより高い粒度な割り当てを実現する。
【0073】
また、クラウド側人工知能プロセッサに対して、従来の非再構成可能なアーキテクチャの人工知能プロセッサであってもいし、再構成可能なアーキテクチャの人工知能プロセッサであってもよい。再構成可能アーキテクチャの人工知能プロセッサに対しては 、ドライバーにおいてデバイス情報を使用して再構成可能チップ内の環境動作パラメータを調整し、ソフトウェア開発プラットフォーム102から送信された人工知能学習タスクに従って再構成可能チップの内部の対応する機能モジュールを呼び出す。つまり、実際の運用における差異に従って、再構成可能チップの内部の機能モジュールを調整し、再構成されたチップは端末側人工知能プロセッサを置き換える。
【0074】
上記のクラウド人工知能プロセッサの説明に基づいて、本技術案として、ソフトウェア開発プラットフォーム102は一定期間内の各時間帯で異なるハードウェアアーキテクチャ情報のクラウド側人工知能プロセッサを使用するユーザ数を統計し、ユーザの要望を満たす最小値Vを予想し、当該数字Vは配置されたクラウド側人工知能プロセッサの数の最小値である。これに基づいて、少数のW個人工知能プロセッサを耐障害性やユーザの急激な増加の場合を防ぐために冗長として追加し、よって(V+W)はクラウド側デバイス101に配置された必要な人工知能プロセッサの数である。同時に、ソフトウェア開発プラットフォーム102は、ユーザ量の変化を定期的に統計し、クラウド側デバイス101に配置された人工知能プロセッサの数を変更してユーザのニーズを満たし、かつクラウド側費用を削減する。
【0075】
総括して、前記説明により、リアルタイムの配置方法を利用して、ソフトウェア開発プラットフォームから送信された人工知能学習タスクに従ってクラウド側デバイス101を動的に調整し、ユーザが気付けないままに時分割多重方式を利用することによりユーザはクラウド側デバイス101の人工知能プロセッサリソースを使用する時間帯に従って、異なる開発環境を配置することにより、同じクラウド側人工知能プロセッサリソースを異なる時間帯の人工知能学習タスクに割り当て、クラウド側人工知能プロセッサの開発環境の数を減らすことができる。
【0076】
図8に示すように、それは本願によって提供されたデータ処理方法の第3のフローチャートである。前記方法は、端末側人工知能プロセッサに適用する。それは以下を含む。
【0077】
ステップ801):オフライン実行ファイルを読み込む。ここで、前記オフライン実行ファイルは、実行結果が事前設定された要件に満たしている場合に対応する前記端末側人工知能プロセッサのデバイス情報とバイナリ命令とに従って決定される。
【0078】
強調すべきなのは、
図5、
図7に示された関連する技術案はすべて、
図8に示された技術案に適用可能であるが、ここで説明は繰り返さない。
【0079】
端末側人工知能プロセッサに対して生成された人工知能学習タスクは、ソフトウェア開発プラットフォームでクラウド側人工知能プロセッサからフィードバックされた実行結果に従って人工知能学習タスクに対して最適化およびデバッグし、実行結果は期待された要件を満たした後、デバッグされた人工知能学習タスクのバイナリ命令は固定化処理によりオフライン実行ファイルに変更され、前のデバッグおよびパフォーマンス成果の固定化を実現する。その後、オフラインのアプリケーションを作成する必要があり、プログラミングフレームワークから切り離して実際のアプリケーションシナリオにおいて精度が正常であることを保証してから、端末側デバイス103にクロスコンパイルして実際に配置できる。
【0080】
図9に示すように、それは本願によって提供されたデータ処理の第4のフローチャートである。前記システムは、汎用プロセッサとクラウド側人工知能プロセッサとを含む。それは以下を含む。
【0081】
ステップa:前記汎用プロセッサは、端末側人工知能プロセッサのデバイス情報に従ってバイナリ命令を生成し、前記バイナリ命令に従って人工知能学習タスクを生成する。前記人工知能学習タスクをクラウド側人工知能プロセッサに送信して実行する。
【0082】
ステップb:前記クラウド側人工知能プロセッサは人工知能学習タスクを受信し、前記人工知能学習タスクを実行し、実行結果を生成する。
【0083】
ステップc:前記汎用プロセッサは前記人工知能学習タスクに対応する実行結果を受信し、前記実行結果に従ってオフライン実行ファイルを決定する。ここで、前記オフライン実行ファイルは、実行結果が事前設定された要件に満たしている場合に対応する前記端末側人工知能プロセッサのデバイス情報とバイナリ命令とに従って生成される。
【0084】
強調すべきなのは、
図5、
図7に示された関連する技術案はすべて、
図9に示された技術案に適用可能であるが、ここで説明は繰り返さない。
【0085】
図10に示すように、一つのデータ処理装置の機能ブロック図である。前記装置は、メモリおよび汎用プロセッサを備え、前記メモリは、前記汎用プロセッサで実行できるコン
ピュータプログラムを格納し、前記汎用プロセッサは前記コンピュータプログラムを実行する際に実現されたデータ処理フローは以下を含む。
【0086】
端末側人工知能プロセッサのデバイス情報に従ってバイナリ命令を生成し、前記バイナリ命令に従って人工知能学習タスクを生成する。
【0087】
前記人工知能学習タスクを、クラウド側人工知能プロセッサに送信して実行する。
【0088】
前記人工知能学習タスクに対応する実行結果を受信する。
【0089】
前記実行結果に従ってオフライン実行ファイルを決定する。ここで、前記オフライン実行ファイルは、実行結果が事前設定された要件に満たしている場合に対応する前記端末側人工知能プロセッサのデバイス情報とバイナリ命令とに従って生成される。
【0090】
任意選択で、前記デバイス情報は、前記端末側人工知能プロセッサのハードウェアアーキテクチャ情報と動作環境パラメータとを含む。
任意選択で、前記動作環境パラメータは、前記端末側人工知能プロセッサの動作周波数、オフチップメモリと端末側人工知能プロセッサとの間のメモリアクセス帯域幅、オンチップメモリサイズ、端末側人工知能プロセッサのコア数、および端末側人工知能プロセッサのオペレーターのタイプの内に少なくとも1つを含む。
任意選択で、前記汎用プロセッサがコンピュータプログラムを実行する際にデータ処理フローを実現することは、さらに以下を含む。
前記端末側人工知能プロセッサのデバイス情報を受信する。
任意選択で、前記汎用プロセッサがコンピュータプログラムを実行する際にデータ処理フローを実現することは、さらに以下を含む。
デバイス情報をドライバプログラムに書き込み、前記ドライバプログラムにおけるデバイス情報に従ってクラウド側人工知能プロセッサを適応する。
任意選択で、前記汎用プロセッサが前記実行結果に従って前記オフライン実行ファイルを決定する際に、前記コンピュータプログラムを実行する際にデータ処理フローを実現することは、以下を含む。
前記実行結果が事前設定された要件を満たしている場合に、事前設定された要件を満たすバイナリ命令に従って対応するオフライン実行ファイルを生成する。
任意選択で、前記汎用プロセッサが前記実行結果に従って前記オフライン実行ファイルを決定する際に、前記コンピュータプログラムを実行する際にデータ処理フローを実現することは、さらに以下を含む。
実行結果が事前設定された要件を満たしていない場合に、以下の最適化方法の内に少なくとも1つを、実行結果が事前設定された要件を満たすまで実行して、前記事前設定された要件を満たすバイナリ命令に従って対応するオフライン実行ファイルを生成する。ここで、前記最適化方法は、以下を含む。
前記端末側人工知能プロセッサのハードウェアアーキテクチャ情報を調整する。
前記端末側人工知能プロセッサの動作環境パラメータを調整する。
または、人工知能学習タスクを最適化する。
任意選択で、前記汎用プロセッサが人工知能学習タスクを最適化する際にデータ処理フローを実現することは、以下を含む。
専用のプログラミング言語により人工知能学習タスクを最適化する。
任意選択で、前記汎用プロセッサが人工知能学習タスクを最適化する際にデータ処理フローを実現することは、さらに以下を含む。
人工知能学習ライブラリのバージョンを更新することにより人工知能学習タスクを最適化する。
任意選択で、前記汎用プロセッサが人工知能学習タスクを最適化する際にデータ処理フ
ローを実現することは、さらに以下を含む。
人工知能アルゴリズムモデルを調整する。
任意選択で、前記実行結果は、以下の1つまたは1つ以上のものを含むがそれに限定されず、前記人工知能学習タスクのクラウド側人工知能プロセッサでの実行時間が予想の要件を満たすか否かのことと、前記人工知能学習タスクが実行されているときのクラウド側人工知能処理システムの占用される負荷情報が予想の要件を満たすか否かのことと、前記人工知能学習タスクを実行した結果が予想の要件を満たすか否かのこととである。
【0091】
そのメモリと汎用プロセッサは、具体的な機能を実現し、本明細書における前述の実施形態と比較して説明することができ、かつ前述実施形態の技術的効果を達成することができ、ここで説明は繰り返さない。
【0092】
本実施形態では、前記メモリは、情報を格納するための物理装置を含んでもよいし、通常は、情報をデジタル化してから、電気的、磁気的または光学的方法を利用する媒体に格納する。実施形態に係るメモリは、RAM、ROMなどの電気エネルギー方式を使用して情報を保存するデバイスと、ハードディスク、フロッピーディスク、磁気テープ、磁気コアメモリ、磁気バブルメモリ、USBフラッシュドライブなどの磁気エネルギー方式を使用して情報を保存するデバイスと、CDやDVDなどの光学方式を使用して情報を保存するデバイスとをさらに含んでもよい。無論、量子メモリ、グラフェンメモリなどの他の方式のメモリもある。
【0093】
図11に示すように、一つの人工知能処理プロセッサの第1の機能ブロック図である。含まれるものは:
受信モジュール1101は、人工知能学習タスクを受信するために用いられる。ここで、前記人工知能学習タスクは、端末側人工知能プロセッサのデバイス情報によって生成されたバイナリ命令に従って決定される。
実行モジュール1102は、前記人工知能学習タスクを実行して、実行結果を生成するために用いられる。
【0094】
任意選択で、前記実行モジュールにより前記実行結果は、以下の1つまたは1つ以上のものを含むがそれに限定されず、前記人工知能学習タスクの前記クラウド側人工知能プロセッサでの実行時間が予想の要件を満たすか否かのことと、前記人工知能学習タスクが実行されているときのクラウド側人工知能処理システムの占用される負荷情報が予想の要件を満たすか否かのことと、前記人工知能学習タスクを実行した結果が予想の要件を満たすか否かのことである。
任意選択で、前記クラウド側人工知能プロセッサは、人工知能プロセッサのハードウェアエンティティ、フィールドプログラマブルゲートアレイ、およびシミュレータの内に少なくとも1つを含む。
任意選択で、前記人工知能プロセッサは、再構成可能なアーキテクチャの人工知能プロセッサである。
【0095】
図12に示すように、一つの人工知能処理プロセッサの第2の機能ブロック図である。含まれるものは:
取得モジュール1201は、オフライン実行ファイルを取得するために用いられる。ここで、前記オフライン実行ファイルは、実行結果が事前設定された要件に満たしている場合に対応する前記端末側人工知能プロセッサのデバイス情報とバイナリ命令とに従って決定される。
【0096】
任意選択で、さらに以下を含む。
送信モジュール、リクエスト情報を送信するために用いられ、ここで、前記リクエスト
情報は前記端末側人工知能プロセッサのデバイス情報を含む。
任意選択で、前記デバイス情報は、前記端末側人工知能プロセッサのハードウェアアーキテクチャ情報と動作環境パラメータとを含む。
任意選択で、前記動作環境パラメータは、前記端末側人工知能プロセッサの動作周波数、オフチップメモリと端末側人工知能プロセッサとの間のメモリアクセス帯域幅、オンチップメモリサイズ、端末側人工知能プロセッサのコア数、および端末側人工知能プロセッサのオペレーターのタイプの内に少なくとも1つを含む。
【0097】
図13に示すように、データ処理システムである。汎用プロセッサ1310とクラウド側人工知能プロセッサ1320とを含む。本実施例では、汎用プロセッサ1310およびクラウド側人工知能プロセッサ1320について具体的な実現は、前述の説明を参照すると理解されよう、ここで説明は繰り返さない。
【0098】
本実施例では、本願の実施例はさらに読み取り可能な記憶媒体を提供し、それはコンピュータプログラムを格納し、コンピュータプログラムを実行するフローは
図5、
図7、
図8、および
図9に示されたデータ処理方法を体現する。
【0099】
上記からわかるように、本願の実施例はデータ処理方法および関連製品を提供し、端末側人工知能プロセッサがテープアウトされているか否かに関係なく、本技術案は、人工知能アルゴリズムモデルと人工知能プロセッサとの間の適応デバッグ作業を事前に実現できる。
【0100】
純粋なコンピューター読み取り可能なプログラムコードによりクライアントとサーバーに実現することに加えて、本技術案におけるステップをクライアントとサーバーで論理ゲート、スイッチ、特定用途向け集積回路、プログラマブルロジックコントローラー、および組み込みマイクロコントローラーなどの形で完全に実現できることも、当業者には知られている。したがって、そのようなクライアントとサーバーはハードウェアコンポーネントと見なすことができ、そこに含まれるさまざまな機能を実現する装置もハードウェアコンポーネント内の構造と見なすことができる。また、さまざまな機能を実現するためのデバイスさえを、方法を実現するためのソフトウェアモジュールと見なしてもよいか、ハードウェアコンポーネント内の構造と見なしてもよい。
【0101】
上記の実施形態の説明から、本出願を、ソフトウェアに加えて必要な汎用ハードウェアプラットフォームによって実施できることは、当業者には明らかであろう。そのような理解に基づいて、本質的に本出願の技術案は、または関連技術に寄与する技術案の一部は、ROM/RAM、磁気ディスク、コンパクトディスクなどの記憶媒体に格納されるソフトウェア製品の形で具現化され得る。本開示の各実施形態またはその一部において説明される前記方法をコンピュータデバイス(パーソナルコンピュータ、サーバー、またはネットワークデバイスなどであってもよい)に実行させるための命令を含む。
【0102】
本明細書における各実施形態は漸進的に説明されており、各実施形態間の同一または類似の部分は相互に参照されでき、各実施形態は他の実施形態との違いに焦点を当てる。特に、クライアントとサーバーに対して実施形態については、前述方法の実施形態についての紹介を参照できる。
【0103】
本願は、プログラムモジュールなどのコンピューターによって実行されるコンピューター実行可能命令は一般的なコンテキストで説明できる。一般に、プログラムモジュールは、特定のタスクを実行したり、特定の抽象データタイプを実現したりするルーチン、プログラム、オブジェクト、コンポーネント、データ構造などを含む。本出願は、分散コンピューティング環境で実施することもでき、これらの分散コンピューティング環境では、通
信ネットワークを介して接続されたリモート処理デバイスによってタスクを実行する。分散コンピューティング環境では、プログラムモジュールは、ストレージデバイスを含むローカルコンピューター記憶媒体に配置してもよいか、リモートのコンピューター記憶媒体に配置してもよい。
【0104】
実施形態で本願を説明したものの、本願精神から逸脱せずにいろんな変形及び変化があり、添付された請求範囲はそれらの変形及び変化は本願精神から逸脱しないことを、当業者には明らかであろう。
【0105】
さらに、上記の内容は次の用語に従ってよりよく理解できる。
【0106】
A1.データ処理方法として、前記方法はデータ処理システムに用いられ、前記データシステムは、汎用プロセッサとクラウド側人工知能プロセッサとを含む。それは以下を含む。
前記汎用プロセッサは、端末側人工知能プロセッサのデバイス情報に従ってバイナリ命令を生成しつつ、前記バイナリ命令に従って人工知能学習タスクを生成する。前記人工知能学習タスクをクラウド側人工知能プロセッサに送信して実行する。
前記クラウド側人工知能プロセッサは人工知能学習タスクを受信し、前記人工知能学習タスクを実行し、実行結果を生成する。
前記汎用プロセッサは前記人工知能学習タスクに対応する実行結果を受信し、前記実行結果に従ってオフライン実行ファイルを決定する。ここで、前記オフライン実行ファイルは、実行結果が事前設定された要件に満たしている場合に対応する前記端末側人工知能プロセッサのデバイス情報とバイナリ命令とに従って生成される。
A2.A1に説明した方法によると、前記デバイス情報は、前記端末側人工知能プロセッサのハードウェアアーキテクチャ情報と動作環境パラメータとを含む。
A3.A2に説明した方法によると、前記動作環境パラメータは、前記端末側人工知能プロセッサの動作周波数、オフチップメモリと端末側人工知能プロセッサとの間のメモリアクセス帯域幅、オンチップメモリサイズ、端末側人工知能プロセッサのコア数、および端末側人工知能プロセッサのオペレーターのタイプの内に少なくとも1つを含む。
A4.A1に説明した方法によると、さらに以下を含む。
前記汎用プロセッサは、前記端末側人工知能プロセッサのデバイス情報を受信する。
A5.A4に説明した方法によると、さらに以下を含む。
前記汎用プロセッサは、デバイス情報をドライバプログラムに書き込み、前記ドライバプログラムにおけるデバイス情報に従ってクラウド側人工知能プロセッサを当てはめる。
A6.前記実行結果に従って前記オフライン実行ファイルを決定するA1に説明した前記方法は、以下を含む。
前記実行結果が事前設定された要件を満たしている場合に、事前設定された要件を満たすバイナリ命令に従って対応するオフライン実行ファイルを生成する。
A7.前記実行結果に従って前記オフライン実行ファイルを決定するA1に説明した前記方法は、さらに以下を含む。
実行結果が事前設定された要件を満たしていない場合に、以下の最適化方法の内に少なくとも1つを、実行結果が事前設定された要件を満たすまで実行して、前記事前設定された要件を満たすバイナリ命令に従って対応するオフライン実行ファイルを生成する。ここで、前記最適化方法は、以下を含む。
前記端末側人工知能プロセッサのハードウェアアーキテクチャ情報を調整する。
前記端末側人工知能プロセッサの動作環境パラメータを調整する。
または、人工知能学習タスクを最適化する。
A8.A7に説明した方法によると、前記人工知能学習タスクを最適化するステップは以下を含む。
専用のプログラミング言語により人工知能学習タスクを最適化する。
A9.A7またはA8に説明した方法によると、前記人工知能学習タスクを最適化するステップは以下を含む。
人工知能学習ライブラリのバージョンを更新することにより人工知能学習タスクを最適化する。
A10.A7−A9のいずれか1項に説明した方法によると、前記人工知能学習タスクを最適化するステップは以下をさらに含む。
人工知能アルゴリズムモデルを調整する。
A11.A1−A10のいずれか1項に説明した方法には、前記実行結果は、前記人工知能学習タスクのクラウド側人工知能プロセッサでの実行時間が予想の要件を満たすか否かのことと、前記人工知能学習タスクが実行されているときのクラウド側人工知能処理システムの占用される負荷情報が予想の要件を満たすか否かのことと、前記人工知能学習タスクを実行した結果が予想の要件を満たすか否かのこととの内に少なくとも1つを含む。
A12.A1に説明した方法によると、前記クラウド側人工知能プロセッサは、人工知能プロセッサのハードウェアエンティティ、フィールドプログラマブルゲートアレイ、およびシミュレータの内に少なくとも1つを含む。
A13.A12に説明した方法によると、前記人工知能プロセッサのハードウェアエンティティは、再構成可能なアーキテクチャの人工知能プロセッサハードウェアである。
【0107】
B14.データ処理装置であって、メモリ、汎用プロセッサ、およびクラウド側人工知能プロセッサを備え、前記メモリは、前記汎用プロセッサおよび/またはクラウド側人工知能プロセッサで実行されるコンピュータプログラムを格納し、
前記汎用プロセッサは、端末側人工知能プロセッサのデバイス情報に従ってバイナリ命令を生成しつつ、前記バイナリ命令に従って人工知能学習タスクを生成する。前記人工知能学習タスクをクラウド側人工知能プロセッサに送信して実行するために用いられる。
前記クラウド側人工知能プロセッサは人工知能学習タスクを受信し、前記人工知能学習タスクを実行し、実行結果を生成するために用いられる。
前記汎用プロセッサは前記人工知能学習タスクに対応する実行結果を受信し、前記実行結果に従ってオフライン実行ファイルを決定する。ここで、前記オフライン実行ファイルは、実行結果が事前設定された要件に満たしている場合に対応する前記端末側人工知能プロセッサのデバイス情報とバイナリ命令とに従って生成されるためにさらに用いられる。
B15.B14に説明した装置によると、前記デバイス情報は、前記端末側人工知能プロセッサのハードウェアアーキテクチャ情報と動作環境パラメータとを含む。
B16.B15に説明した装置によると、前記動作環境パラメータは、前記端末側人工知能プロセッサの動作周波数、オフチップメモリと端末側人工知能プロセッサとの間のメモリアクセス帯域幅、オンチップメモリサイズ、端末側人工知能プロセッサのコア数、および端末側人工知能プロセッサのオペレーターのタイプの内に少なくとも1つを含む。
B17.B14に説明した装置によると、前記汎用プロセッサがさらに以下のため用いられる。
前記端末側人工知能プロセッサのデバイス情報を受信する。
B18.B17に説明した装置によると、前記汎用プロセッサがさらに以下のため用いられる。
デバイス情報をドライバプログラムに書き込み、前記ドライバプログラムにおけるデバイス情報に従ってクラウド側人工知能プロセッサを当てはめる。
B19.B14に説明した装置によると、前記汎用プロセッサは前記実行結果に従って前記オフライン実行ファイルを決定し、さらに以下を含む。
前記実行結果が事前設定された要件を満たしている場合に、事前設定された要件を満たすバイナリ命令に従って対応するオフライン実行ファイルを生成する。
B20.B14に説明した装置によると、前記汎用プロセッサは前記実行結果に従って前記オフライン実行ファイルを決定し、さらに以下を含む。
実行結果が事前設定された要件を満たしていない場合に、以下の最適化方法の内に少な
くとも1つを、実行結果が事前設定された要件を満たすまで実行して、前記事前設定された要件を満たすバイナリ命令に従って対応するオフライン実行ファイルを生成する。ここで、前記最適化方法は、以下を含む。
前記端末側人工知能プロセッサのハードウェアアーキテクチャ情報を調整する。
前記端末側人工知能プロセッサの動作環境パラメータを調整する。
または、人工知能学習タスクを最適化する。
B21.B20に説明した装置によると、前記人工知能学習タスクを最適化するステップは以下を含む。
専用のプログラミング言語により人工知能学習タスクを最適化する。
B22.B20またはB21に説明した装置によると、前記人工知能学習タスクを最適化するステップは以下を含む。
人工知能学習ライブラリのバージョンを更新することにより人工知能学習タスクを最適化する。
B23.B20−B22のいずれか1項に説明した装置によると、前記人工知能学習タスクを最適化するステップは以下をさらに含む。
人工知能アルゴリズムモデルを調整する。
B24.B14−B23のいずれか1項に説明した装置によると、前記実行結果は、前記人工知能学習タスクのクラウド側人工知能プロセッサでの実行時間、前記人工知能学習タスクが実行されているときのクラウド側人工知能処理システムの占用される負荷情報、前記人工知能学習タスクを実行した結果が予想の要件を満たすか否かの内に少なくとも1つを含む。
B25.B14に説明した装置によると、前記クラウド側人工知能プロセッサは、人工知能プロセッサのハードウェアエンティティ、フィールドプログラマブルゲートアレイ、およびシミュレータの内に少なくとも1つを含む。
B26.B25に説明した装置によると、前記人工知能プロセッサのハードウェアエンティティは、再構成可能なアーキテクチャの人工知能プロセッサハードウェアである。
【0108】
C1.データ処理方法として、前記方法は汎用プロセッサに用いられ、それは以下を含む。
前記汎用プロセッサは、端末側人工知能プロセッサのデバイス情報に従ってバイナリ命令を生成し、前記バイナリ命令に従って人工知能学習タスクを生成する。
前記汎用プロセッサは、前記人工知能学習タスクを、クラウド側人工知能プロセッサに送信して実行する。
前記汎用プロセッサは、前記人工知能学習タスクに対応する実行結果を受信する。
前記汎用プロセッサは、前記実行結果に従ってオフライン実行ファイルを決定する。ここで、前記オフライン実行ファイルは、実行結果が事前設定された要件に満たしている場合に対応する前記端末側人工知能プロセッサのデバイス情報とバイナリ命令とに従って生成される。
C2.C1に説明した方法によると、前記デバイス情報は、前記端末側人工知能プロセッサのハードウェアアーキテクチャ情報と動作環境パラメータとを含む。
C3.C2に説明した方法によると、前記動作環境パラメータは、前記端末側人工知能プロセッサの動作周波数、オフチップメモリと端末側人工知能プロセッサとの間のメモリアクセス帯域幅、オンチップメモリサイズ、端末側人工知能プロセッサのコア数、および端末側人工知能プロセッサのオペレーターのタイプの内に少なくとも1つを含む。
C4.C1に説明した方法によると、さらに以下を含む。
前記汎用プロセッサは、前記端末側人工知能プロセッサのデバイス情報を受信する。
C5.C4に説明した方法によると、さらに以下を含む。
前記汎用プロセッサは、デバイス情報をドライバプログラムに書き込み、前記ドライバプログラムにおけるデバイス情報に従ってクラウド側人工知能プロセッサを当てはめる。
C6.前記実行結果に従って前記オフライン実行ファイルを決定するC1に説明した前
記方法は、以下を含む。
前記実行結果が事前設定された要件を満たしている場合に、事前設定された要件を満たすバイナリ命令に従って対応するオフライン実行ファイルを生成する。
C7.前記実行結果に従って前記オフライン実行ファイルを決定するC1に説明した前記方法は、さらに以下を含む。
実行結果が事前設定された要件を満たしていない場合に、以下の最適化方法の内に少なくとも1つを、実行結果が事前設定された要件を満たすまで実行して、前記事前設定された要件を満たすバイナリ命令に従って対応するオフライン実行ファイルを生成する。ここで、前記最適化方法は、以下を含む。
前記端末側人工知能プロセッサのハードウェアアーキテクチャ情報を調整する。
前記端末側人工知能プロセッサの動作環境パラメータを調整する。
または、人工知能学習タスクを最適化する。
C8.C7に説明した方法によると、前記人工知能学習タスクを最適化するステップは以下を含む。
専用のプログラミング言語により人工知能学習タスクを最適化する。
C9.C7またはC8に説明した方法によると、前記人工知能学習タスクを最適化するステップは以下を含む。
人工知能学習ライブラリのバージョンを更新することにより人工知能学習タスクを最適化する。
C10.C7−C9のいずれか1項に説明した方法によると、前記人工知能学習タスクを最適化するステップは以下をさらに含む。
人工知能アルゴリズムモデルを調整する。
C11.C1−C10のいずれか1項に説明した方法によると、前記実行結果は、前記人工知能学習タスクのクラウド側人工知能プロセッサでの実行時間、前記人工知能学習タスクが実行されるときのクラウド側人工知能処理システムの占用される負荷情報、前記人工知能学習タスクを実行した結果が予想の要件を満たすか否かの内に少なくとも1つを含む。
【0109】
D12.データ処理装置であって、前記装置は、メモリおよび汎用プロセッサを備え、前記メモリは、前記汎用プロセッサで実行できるコンピュータプログラムを格納し、前記汎用プロセッサは前記コンピュータプログラムを実行する際に実現されるデータ処理フローは以下を含む。
端末側人工知能プロセッサのデバイス情報に従ってバイナリ命令を生成し、前記バイナリ命令に従って人工知能学習タスクを生成する。
前記人工知能学習タスクを、クラウド側人工知能プロセッサに送信して実行する。
前記人工知能学習タスクに対応する実行結果を受信する。
前記実行結果に従ってオフライン実行ファイルを決定する。ここで、前記オフライン実行ファイルは、実行結果が事前設定された要件に満たしている場合に対応する前記端末側人工知能プロセッサのデバイス情報とバイナリ命令とに従って生成される。
D13.D12に説明した装置によると、前記デバイス情報は、前記端末側人工知能プロセッサのハードウェアアーキテクチャ情報と動作環境パラメータとを含む。
D14.D13に説明した装置によると、前記動作環境パラメータは、前記端末側人工知能プロセッサの動作周波数、オフチップメモリと端末側人工知能プロセッサとの間のメモリアクセス帯域幅、オンチップメモリサイズ、端末側人工知能プロセッサのコア数、および端末側人工知能プロセッサのオペレーターのタイプの内に少なくとも1つを含む。
D15.D12に説明した装置によると、前記汎用プロセッサがコンピュータプログラムを実行する際にデータ処理フローを実現することは、さらに以下を含む。
前記端末側人工知能プロセッサのデバイス情報を受信する。
D16.D12またはD15に説明した装置によると、前記汎用プロセッサがコンピュータプログラムを実行する際にデータ処理フローを実現することは、さらに以下を含む。
デバイス情報をドライバプログラムに書き込み、前記ドライバプログラムにおけるデバイス情報に従ってクラウド側人工知能プロセッサを当てはめる。
D17.D12に説明した装置によると、前記汎用プロセッサが前記実行結果に従って前記オフライン実行ファイルを決定する際に、前記コンピュータプログラムを実行する際にデータ処理フローを実現することは、以下を含む。
前記実行結果が事前設定された要件を満たしている場合に、事前設定された要件を満たすバイナリ命令に従って対応するオフライン実行ファイルを生成する。
D18.D12に説明した装置によると、前記汎用プロセッサが前記実行結果に従って前記オフライン実行ファイルを決定する際に、前記コンピュータプログラムを実行する際にデータ処理フローを実現することは、以下をさらに含む。
実行結果が事前設定された要件を満たしていない場合に、以下の最適化方法の内に少なくとも1つを、実行結果が事前設定された要件を満たすまで実行して、前記事前設定された要件を満たすバイナリ命令に従って対応するオフライン実行ファイルを生成する。ここで、前記最適化方法は、以下を含む。
前記端末側人工知能プロセッサのハードウェアアーキテクチャ情報を調整する。
前記端末側人工知能プロセッサの動作環境パラメータを調整する。
または、人工知能学習タスクを最適化する。
D19.D18に説明した装置によると、前記汎用プロセッサが人工知能学習タスクを最適化する際にデータ処理フローを実現することは、以下を含む。
専用のプログラミング言語により人工知能学習タスクを最適化する。
D20.D18またはD19に説明した装置によると、前記人工知能学習タスクを汎用プロセッサ最適化するステップは以下を含む。
人工知能学習ライブラリのバージョンを更新することにより人工知能学習タスクを最適化する。
D21.D18−D20のいずれか1項に説明した装置によると、前記汎用プロセッサが人工知能学習タスクを最適化する際にデータ処理フローを実現することは、以下をさらに含む。
人工知能アルゴリズムモデルを調整する。
D22.D12−D21のいずれか1項に説明した装置によると、前記実行結果は、前記人工知能学習タスクのクラウド側人工知能プロセッサでの実行時間が予想の要件を満たすか否かのことと、前記人工知能学習タスクが実行されるときのクラウド側人工知能処理システムの占用される負荷情報が予想の要件を満たすか否かのことと、前記人工知能学習タスクを実行した結果が予想の要件を満たすか否かのこととの内に少なくとも1つを含む。
【0110】
E23.データ処理方法として、前記方法はクラウド側人工知能プロセッサ用にいられ、それは以下を含む。
人工知能学習タスクを受信する。ここで、前記人工知能学習タスクは、端末側人工知能プロセッサのデバイス情報によって生成されたバイナリ命令に従って決定される。
前記人工知能学習タスクを実行して、実行結果を生成する。
E24.E23に説明した方法によると、前記実行結果は、前記人工知能学習タスクのクラウド側人工知能プロセッサでの実行時間が予想の要件を満たすか否かのことと、前記人工知能学習タスクが実行されるときのクラウド側人工知能処理システムの占用される負荷情報が予想の要件を満たすか否かのことと、前記人工知能学習タスクを実行した結果が予想の要件を満たすか否かのこととの内に少なくとも1つを含む。
E25.E23に説明した方法によると、前記クラウド側人工知能プロセッサは、人工知能プロセッサのハードウェアエンティティ、フィールドプログラマブルゲートアレイ、およびシミュレータの内に少なくとも1つを含む。
E26.E25に説明した方法によると、前記クラウド側人工知能プロセッサのハードウェアエンティティは、再構成可能なアーキテクチャの人工知能プロセッサハードウェア
である。
【0111】
F27人工知能プロセッサであって、それは以下を含む。
受信モジュールは、人工知能学習タスクを受信するために用いられる。ここで、前記人工知能学習タスクは、端末側人工知能プロセッサのデバイス情報によって生成されたバイナリ命令に従って決定される。
実行モジュールは、前記人工知能学習タスクを実行して、実行結果を生成するために用いられる。
F28.F27に説明した人工知能プロセッサによると、前記実行モジュールにより生成された実行結果は、前記人工知能学習タスクのクラウド側人工知能プロセッサでの実行時間、前記人工知能学習タスクが実行されるときのクラウド側人工知能処理システムの占用される負荷情報、前記人工知能学習タスクを実行した結果が予想の要件を満たすか否かの内に少なくとも1つを含む。
F29.F27に説明した人工知能プロセッサによると、前記クラウド側人工知能プロセッサは、人工知能プロセッサのハードウェアエンティティ、フィールドプログラマブルゲートアレイ、およびシミュレータの内に少なくとも1つを含む。
F30.F29に説明した人工知能プロセッサによると、前記クラウド側人工知能プロセッサのハードウェアエンティティは、再構成可能なアーキテクチャの人工知能プロセッサハードウェアである。
【0112】
G31.データ処理方法として、前記方法は端末側人工知能プロセッサ用にいられ、それは以下を含む。
オフライン実行ファイルを取得する。ここで、前記オフライン実行ファイルは、実行結果が事前設定された要件に満たしている場合に対応する前記端末側人工知能プロセッサのデバイス情報とバイナリ命令とに従って生成される。
G32.G31に説明した方法によると、前記方法はさらに以下を含む。
リクエスト情報を送信する。ここで、前記リクエスト情報は前記端末側人工知能プロセッサのデバイス情報を含む。
G33.G31に説明した方法によると、前記デバイス情報は、前記端末側人工知能プロセッサのハードウェアアーキテクチャ情報と動作環境パラメータとを含む。
G34.G33に説明した方法によると、前記動作環境パラメータは、前記端末側人工知能プロセッサの動作周波数、オフチップメモリと端末側人工知能プロセッサとの間のメモリアクセス帯域幅、オンチップメモリサイズ、端末側人工知能プロセッサのコア数、および端末側人工知能プロセッサのオペレーターのタイプの内に少なくとも1つを含む。
【0113】
H35人工知能プロセッサであって、それは以下を含む。
取得モジュールは、オフライン実行ファイルを取得するために用いられる。ここで、前記オフライン実行ファイルは、実行結果が事前設定された要件に満たしている場合に対応する前記端末側人工知能プロセッサのデバイス情報とバイナリ命令とに従って生成される。
H36.H35に説明した人工知能プロセッサによると、それは以下をさらに含む。
送信モジュール、リクエスト情報を送信するために用いられ、ここで、前記リクエスト情報は前記端末側人工知能プロセッサのデバイス情報を含む。
H37.H36に説明した人工知能プロセッサによると、前記デバイス情報は、前記端末側人工知能プロセッサのハードウェアアーキテクチャ情報と動作環境パラメータとを含む。
H38.H37に説明した人工知能プロセッサによると、前記動作環境パラメータは、前記端末側人工知能プロセッサの動作周波数、オフチップメモリと端末側人工知能プロセッサとの間のメモリアクセス帯域幅、オンチップメモリサイズ、端末側人工知能プロセッサのコア数、および端末側人工知能プロセッサのオペレーターのタイプの内に少なくとも
1つを含む。