(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2023036509
(43)【公開日】2023-03-14
(54)【発明の名称】携帯通信システム向けサービス性能としてのマシーンラーニング最適化法
(51)【国際特許分類】
G06N 20/00 20190101AFI20230307BHJP
【FI】
G06N20/00
【審査請求】有
【請求項の数】19
【出願形態】OL
(21)【出願番号】P 2022029140
(22)【出願日】2022-02-28
(31)【優先権主張番号】17/465630
(32)【優先日】2021-09-02
(33)【優先権主張国・地域又は機関】US
【公序良俗違反の表示】
(特許庁注:以下のものは登録商標)
1.JAVA
2.JAVASCRIPT
3.VisualBasic
(71)【出願人】
【識別番号】000005108
【氏名又は名称】株式会社日立製作所
(74)【代理人】
【識別番号】110000350
【氏名又は名称】ポレール弁理士法人
(72)【発明者】
【氏名】ジョイディープ アチャヤ
(72)【発明者】
【氏名】スダンシュ ガウア
(57)【要約】
【課題】本明細書に記載の実施例は、携帯端末により有効化されるアプリケーション用の携帯モバイルエッジコンピューティング内で実行されるマシーンラーニングモデルを選択するシステムと方法に関する。
【解決手段】
従来技術の実施例と対比して、本明細に記載の実施例は、携帯ワイヤレスチャンネルによる被受信データの各種データの段階的表現形式を考慮に入れ、また、これに応じて、サービスリソース割り当ても実行する。
【選択図】
図1
【特許請求の範囲】
【請求項1】
携帯ネットワークを介してデータが入手される一つ以上のランタイム環境に割り当てられたアプリケーションについて、複数から成るマシーンラーニングモデルの各々を訓練するステップであって、該アプリケーションについての前記複数から成るマシーンラーニングモデルそれぞれの訓練が別個に実行され、前記訓練ステップは、
複数から成る被訓練マシーンラーニングモデルを形成するため、複数のデータセットにより選択された前記複数から成るマシーンラーニングモデルそれぞれを訓練するステップであって、前記複数のデータセットは各々異なった段階的表現形式レベルと関連付けられるステップと;
前記複数から成る被訓練マシーンラーニングモデルの各々について、モデル遅延時間情報を出力するステップと;
前記アプリケーションに割り当てられたサービス品質(QoS)並びに前記複数から成るマシーンラーニングモデルそれぞれと関連付けられた前記モデル遅延時間情報に基づき、前記一つ以上のランタイム環境にリソースを割り当てるステップと;
前記複数から成る被訓練マシーンラーニングモデル各々並びに前記関連づけられたデータの段階的表現形式レベルをモデルカタログ内に記憶するステップとから成り、
前記データの段階的表現形式レベルは、アプリケーション層内で入手された信号レベルと干渉情報に基づき算定されることを特徴とする方法。
【請求項2】
さらに、前記アプリケーションを前記一つ以上のランタイム環境上で実行するステップを含み、前記アプリケーションを前記一つ以上のランタイム環境上で実行する前記実行ステップは、
前記アプリケーションに向けた前記被受信データについての前記データの段階的表現形式レベルに基づき、前記アプリケーションに向けた前記複数から成る被訓練マシーンラーニングモデルから、被訓練マシーンラーニングモデルを選択するステップと;
前記アプリケーションに割り当てられたQoSレベル及び前記アプリケーションに向けた前記被受信データについての前記データの段階的表現形式レベルに基づき、前記アプリケーションを実行するための前記リソースを前記被選択被訓練マシーンラーニングモデルに割り当てるステップと;
前記被割当リソースにより、前記被選択被訓練マシーンラーニングモデルを実行するステップ
とから成ることを特徴とする、請求項1記載の方法。
【請求項3】
さらに、前記アプリケーションに向けた前記被受信データについての前記データの段階的表現形式レベルに基づき、前記アプリケーションに向けた前記複数から成る被訓練マシーンラーニングモデルからの前記被訓練マシーンラーニングモデルの前記選択について、前記複数から成る被訓練マシーンラーニングモデルの複数モデルの選択を招く結果となり、
所定の時間間隔内において操作されるべき全てのアプリケーションに向けた前記複数から成る被訓練マシーンラーニングモデルの前記複数モデルへの前記リソースの被最適化割り当てを確定する構成の最適化問題を生成するステップと;
前記複数から成る被訓練マシーンラーニングモデルの前記複数モデルへの前記リソースの前記被最適化割り当てを確定するため、前記最適化問題を解くステップとから成り、
前記一つ以上のランタイム環境への前記リソース割り当ては、前記被最適化割り当てに従って実行されることを特徴とする、請求項2記載の方法。
【請求項4】
前記アプリケーションに向けた前記被受信データについての前記データの段階的表現形式レベルに基づき、前記アプリケーションに向けた前記複数から成る被訓練マシーンラーニングモデルから前記被訓練マシーンラーニングモデルを選択するステップは、
所定の時間間隔内において操作されるべき全てのアプリケーションのリストを確定するステップと;
前記所定の時間間隔内において操作されるべき全てのアプリケーションの前記リスト内の各アプリケーションについて、
前記各アプリケーションに割り当てられた該QoSレベル及び前記一つ以上のランタイム環境の前記アプリケーションに向けた前記被受信データについての前記現行データの段階的表現形式レベルを入手するステップと;
前記入手されたデータの段階的表現形式レベルに基づき、前記各アプリケーションと関連付けられた前記複数から成るマシーンラーニングモデルの対応モデルを確定することで、前記複数から成る被訓練マシーンラーニングモデルの前記複数モデルの前記選択を招く結果となるステップとから成り、
前記リソースの被最適化割り当てを確定する構成の前記最適化問題を生成するステップは、前記各アプリケーションに割り当てられた前記QoSレベルを利用することを特徴とする、請求項3記載の方法。
【請求項5】
前記アプリケーションに向けた前記被受信データについての前記データの段階的表現形式レベルに基づき、前記アプリケーションについての前記複数から成る被訓練マシーンラーニングモデルから前記被訓練マシーンラーニングモデルを選択する前記ステップは、前記複数から成る被訓練マシーンラーニングモデルを記憶する前記モデルカタログを参照し、前記モデルカタログ内の前記複数から成る被訓練マシーンラーニングモデルと関連付けられた前記モデル遅延時間情報及び精度に基づき、前記被訓練マシーンラーニングモデルを選択するステップを含み、前記アプリケーションに向けた前記被受信データについての前記データの段階的表現形式レベルに基づく前記アプリケーションの必要とされる精度を充足しない前記精度を持つ前記複数から成る被訓練マシーンラーニングモデルの幾つかが排除されることを特徴とする、請求項2記載の方法。
【請求項6】
前記一つ以上のランタイム環境は、一つ以上の仮想マシーンあるいはコンテナであることを特徴とする、請求項1記載の方法。
【請求項7】
前記リソースは、前記一つ以上のランタイム環境と関連付けられた演算リソース及び記憶リソースとから成ることを特徴とする、請求項1記載の方法。
【請求項8】
前記アプリケーションに割り当てられた前記サービス品質(QoS)レベル及び前記複数から成るマシーンラーニングモデルの各々と関連付けられた前記データの段階的表現形式レベルに基づき、前記一つ以上のランタイム環境に前記リソースを割り当てるステップは、
前記アプリケーションに割り当てられたアプリケーションレベルQoS遅延時間情報を入手するステップと;
前記複数から成るマシーンラーニングモデル各々のマシーンラーニングモデル事象毎に、毎秒当たりの浮動小数点演算の回数を入手するステップと;
前記アプリケーションレベルQoS遅延時間情報に基づき、前記アプリケーションに割り当てられた前記QoSレベルを充足するサービス遅延時間を確定するステップと;前記マシーンラーニングモデルを各々実行中のマシーンラーニングモデル事象毎の該浮動小数点演算の回数及び前記アプリケーションレベルQoS遅延時間情報に基づき、前記被割り当てリソースを算定するステップ
とから成る、請求項1記載の方法。
【請求項9】
さらに、前記複数から成るマシーンラーニングモデルを訓練するため、複数から成るデータの段階的表現形式レベルに亘りデータを仕切るステップを含み、
前記複数から成るマシーンラーニングモデル各々を訓練するステップは、前記複数から成るマシーンラーニングモデル各々と関連付けられた前記データの段階的表現形式レベルと同じデータの段階的表現形式レベルを持つ前記被仕切りデータにより、前記複数から成るマシーンラーニングモデル各々を訓練するステップを含むことを特徴とする、請求項1記載の方法。
【請求項10】
一つ以上のプロセッサーによりプロセスを実行するための指令を記憶する非一過性コンピュータ読み出し可能な媒体であって、
携帯ネットワークを介してデータが入手される一つ以上のランタイム環境に割り当てられたアプリケーションについて、複数から成るマシーンラーニングモデルの各々を訓練する指令であって、該アプリケーションについての前記複数から成るマシーンラーニングモデルそれぞれの訓練が別個に実行され、前記訓練指令は、
複数から成る被訓練マシーンラーニングモデルを形成するため、複数のデータセットにより選択された前記複数から成るマシーンラーニングモデルそれぞれを訓練する指令であって、前記複数のデータセットは各々異なった段階的表現形式レベルと関連付けられる指令と;
前記複数から成る被訓練マシーンラーニングモデルの各々について、モデル遅延時間情報を出力する指令と;
前記アプリケーションに割り当てられたサービス品質(QoS)並びに前記複数から成るマシーンラーニングモデルそれぞれと関連付けられた前記モデル遅延時間情報に基づき、前記一つ以上のランタイム環境にリソースを割り当てる指令と;
前記複数から成る被訓練マシーンラーニングモデル各々並びに前記関連づけられたデータの段階的表現形式レベルをモデルカタログ内に記憶する指令とから成り、
前記データの段階的表現形式レベルは、アプリケーション層内で入手された信号レベルと干渉情報に基づき算定されることを特徴とする媒体。
【請求項11】
さらに、前記アプリケーションを前記一つ以上のランタイム環境上で実行する指令を含み、前記アプリケーションを前記一つ以上のランタイム環境上で実行する前記実行指令は、
前記アプリケーションに向けた前記被受信データについての前記データの段階的表現形式レベルに基づき、前記アプリケーションに向けた前記複数から成る被訓練マシーンラーニングモデルから、被訓練マシーンラーニングモデルを選択する指令と;
前記アプリケーションに割り当てられたQoSレベル及び前記アプリケーションに向けた前記被受信データについての前記データの段階的表現形式レベルに基づき、前記アプリケーションを実行するための前記リソースを前記被選択被訓練マシーンラーニングモデルに割り当てる指令と;
前記被割当リソースにより、前記被選択被訓練マシーンラーニングモデルを実行する指令
とから成ることを特徴とする、請求項10記載の非一過性コンピュータ読み出し可能な媒体。
【請求項12】
さらに、前記アプリケーションに向けた前記被受信データについての前記データの段階的表現形式レベルに基づき、前記アプリケーションに向けた前記複数から成る被訓練マシーンラーニングモデルからの前記被訓練マシーンラーニングモデルの前記選択について、前記複数から成る被訓練マシーンラーニングモデルの複数モデルの選択を招く結果となり、
所定の時間間隔内において操作されるべき全てのアプリケーションに向けた前記複数から成る被訓練マシーンラーニングモデルの前記複数モデルへの前記リソースの被最適化割り当てを確定する構成の最適化問題を生成する指令と;
前記複数から成る被訓練マシーンラーニングモデルの前記複数モデルへの前記リソースの前記被最適化割り当てを確定するため、前記最適化問題を解く指令とから成り、
前記一つ以上のランタイム環境への前記リソース割り当ては、前記被最適化割り当てに従って実行されることを特徴とする、請求項11記載の非一過性コンピュータ読み出し可能な媒体。
【請求項13】
前記アプリケーションに向けた前記被受信データについての前記データの段階的表現形式レベルに基づき、前記アプリケーションに向けた前記複数から成る被訓練マシーンラーニングモデルから前記被訓練マシーンラーニングモデルを選択する指令は、
所定の時間間隔内において操作されるべき全てのアプリケーションのリストを確定する指令と;
前記所定の時間間隔内において操作されるべき全てのアプリケーションの前記リスト内の各アプリケーションについて、
前記各アプリケーションに割り当てられた該QoSレベル及び前記一つ以上のランタイム環境の前記アプリケーションに向けた前記被受信データについての前記現行データの段階的表現形式レベルを入手する指令と;
前記入手されたデータの段階的表現形式レベルに基づき、前記各アプリケーションと関連付けられた前記複数から成るマシーンラーニングモデルの対応モデルを確定することで、前記複数から成る被訓練マシーンラーニングモデルの前記複数モデルの前記選択を招く結果となる指令とから成り、
前記リソースの被最適化割り当てを確定する構成の前記最適化問題を生成する指令は、前記各アプリケーションに割り当てられた前記QoSレベルを利用することを特徴とする、請求項12記載の非一過性コンピュータ読み出し可能な媒体。
【請求項14】
前記アプリケーションに向けた前記被受信データについての前記データの段階的表現形式レベルに基づき、前記アプリケーションについての前記複数から成る被訓練マシーンラーニングモデルから前記被訓練マシーンラーニングモデルを選択する前記指令は、前記複数から成る被訓練マシーンラーニングモデルを記憶する前記モデルカタログを参照し、前記モデルカタログ内の前記複数から成る被訓練マシーンラーニングモデルと関連付けられた前記モデル遅延時間情報及び精度に基づき、前記被訓練マシーンラーニングモデルを選択する指令を含み、前記アプリケーションに向けた前記被受信データについての前記データの段階的表現形式レベルに基づく前記アプリケーションの必要とされる精度を充足しない前記精度を持つ前記複数から成る被訓練マシーンラーニングモデルの幾つかが排除されることを特徴とする、請求項11記載の非一過性コンピュータ読み出し可能な媒体。
【請求項15】
前記一つ以上のランタイム環境は、一つ以上の仮想マシーンあるいはコンテナであることを特徴とする、請求項10記載の非一過性コンピュータ読み出し可能な媒体。
【請求項16】
前記リソースは、前記一つ以上のランタイム環境と関連付けられた演算リソース及び記憶リソースとから成ることを特徴とする、請求項10記載の非一過性コンピュータ読み出し可能な媒体。
【請求項17】
前記アプリケーションに割り当てられた前記サービス品質(QoS)レベル及び前記複数から成るマシーンラーニングモデルの各々と関連付けられた前記データの段階的表現形式レベルに基づき、前記一つ以上のランタイム環境に前記リソースを割り当てる指令は、
前記アプリケーションに割り当てられたアプリケーションレベルQoS遅延時間情報を入手する指令と;
前記複数から成るマシーンラーニングモデル各々のマシーンラーニングモデル事象毎に、毎秒当たりの浮動小数点演算の回数を入手する指令と;
前記アプリケーションレベルQoS遅延時間情報に基づき、前記アプリケーションに割り当てられた前記QoSレベルを充足するサービス遅延時間を確定する指令と;
前記マシーンラーニングモデルを各々実行中のマシーンラーニングモデル事象毎の該浮動小数点演算の回数及び前記アプリケーションレベルQoS遅延時間情報に基づき、前記被割り当てリソースを算定する指令
とから成る、請求項10記載の非一過性コンピュータ読み出し可能な媒体。
【請求項18】
さらに、前記複数から成るマシーンラーニングモデルを訓練するため、複数から成るデータの段階的表現形式レベルに亘りデータを仕切る指令を含み、
前記複数から成るマシーンラーニングモデル各々を訓練する指令は、前記複数から成るマシーンラーニングモデル各々と関連付けられた前記データの段階的表現形式レベルと同じデータの段階的表現形式レベルを持つ前記被仕切りデータにより、前記複数から成るマシーンラーニングモデル各々を訓練する指令を含むことを特徴とする、請求項10記載の非一過性コンピュータ読み出し可能な媒体。
【請求項19】
複数から成る被訓練マシーンラーニングモデルを形成するため、複数のデータセットにより選択された複数から成るマシーンラーニングモデルそれぞれを訓練するに当たって、前記複数のデータセットは各々異なった段階的表現形式レベルと関連付けられることによって;
前記複数から成る被訓練マシーンラーニングモデルの各々について、モデル遅延時間情報を出力することによって;
アプリケーションに割り当てられたサービス品質(QoS)並びに前記複数から成るマシーンラーニングモデルそれぞれと関連付けられた前記モデル遅延時間情報に基づき、一つ以上のランタイム環境にリソースを割り当てることによって;
前記複数から成る被訓練マシーンラーニングモデル各々並びに前記関連づけられたデータの段階的表現形式レベルをモデルカタログ内に記憶することにより、
携帯ネットワークを介してデータが入手される前記一つ以上のランタイム環境に割り当てられた前記アプリケーションについて、前記複数から成るマシーンラーニングモデルの各々を訓練するに当たって、前記アプリケーションについての前記複数から成るマシーンラーニングモデルそれぞれの訓練が別個に実行されるプロセッサーから成り、
前記データの段階的表現形式レベルは、前記アプリケーション層内で入手された信号レベルと干渉情報に基づき算定されることを特徴とする装置。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、概して、携帯通信ネットワークシステムに向けられ、より詳しくは、該システム内のマシーンラーニングモデルのアプリケーションに向けられる。
【背景技術】
【0002】
4Gを超える長期進化(LTE)システム(例えば、5G並びにこれを越えるシステム)等の携帯通信システムは、そのユビキタスな接続性と電話会社ネットワークの末端においてスケーラブルなアプリケーションをサポートする能力により、数多くの産業上のモノのインターネット(IoT)について急展開されている。これらのアプリケーションは、マシーンラーニング(ML)モデルにより賄われる必要がある。該システム内のワイヤレス携帯ネットワークの時間に応じて変化する性質により、これらのモデルに入力される被受信データの段階的な表現形式が予期せぬ形で変化する場合がある。
【発明の概要】
【発明が解決しようとする課題】
【0003】
従来技術においては、被受信データの段階的表現形式における現象を活発に議論することなくMLモデルが展開されている。このような従来技術では、全ての段階的表現形式にロブストな単一モデルを訓練しようと試みているが、データの段階的な表現形式が異なるケースを考察するのが関の山である。
【課題を解決するための手段】
【0004】
このモデル性能は、データの段階的表現形式の異なるグループについて異なったMLモデルを訓練し、次に、データの段階的表現形式に基づき、かつまた、アプリケーションのサービス品質(QoS)に基づき、該モデルを実行するためのサービスプラットフォームリソース(仮想マシーン(VM)あるいはコンテナの演算及び記憶リソース等)を選択する。
【発明の効果】
【0005】
以上により、課題を改善することが可能とされる。本明細書に記載の実施例は、上記の側面に焦点を当てている。
【0006】
本実施例は、アプリケーション層内の信号レベル及び干渉情報を入手する機能の利用を介して、携帯通信システム内の被受信データの段階的表現形式に対処している。このような実施例は、携帯通信システム内に形成された機能を利用することで、4Gを超えるLTEシステム等の該システム内で利用可能となる。
【0007】
MLモデルの訓練並びに操作についての実施例において、その各々について、携帯端末により有効化されるアプリケーションが割り当てられたランタイム環境(VMあるいはコンテナ等)がある。該アプリケーションは、各々、幾つかのMLモデルオプションを含むことができ、このMLモデルオプションは、それぞれ、適当なデータの段階的表現形式レベル(例えば、第一モデルAは、良好な品質の第一データセットBに向いており、また、第二モデルA’は、品質の劣る第二データセットB’に向いている)と連関されている。実施例において、アプリケーションに割り当てられたサービス品質QoSレベル並びに該アプリケーションに含まれるMLモデルに連関づけられた段階的表現形式に基づき該アプリケーションを実行する各ランタイム環境についての演算・記憶リソースについては、各アプリケーション・モデルに割り当てられたリソースを利用して、別個に、該MLモデル(A及びA’)各々を訓練する構成とする。
【0008】
該MLモデル並びにアプリケーションの操作についての実施例において、現行データの段階的表現形式に基づき、該アプリケーションの各々について、該MLモデルの一つが選択され、アプリケーションのQoS(同時に操作される必要のある全てのアプリケーションを考慮して)並びにデータの段階的表現形式に基づき、該アプリケーション実行のためのリソースを被選択MLモデルに割り当て、かつ、該割り当てられたリソースを使用して、適宜、該アプリケーションを実行する。
【0009】
本願開示の側面には方法を含み、該方法は、携帯ネットワークを介してデータが入手される一つ以上のランタイム環境に割り当てられたアプリケーションについて、複数から成るマシーンラーニングモデルの各々を訓練するステップであって、該アプリケーションについての該複数から成るマシーンラーニングモデルそれぞれの訓練が別個に実行され、該訓練ステップは、複数から成る被訓練マシーンラーニングモデルを形成するため、複数のデータセットにより選択された該複数から成るマシーンラーニングモデルそれぞれを訓練するステップを含み、該複数のデータセットは各々異なった段階的表現形式レベルと関連付けられるステップと;該複数から成る被訓練マシーンラーニングモデルの各々について、モデル遅延時間情報を出力するステップと;該アプリケーションに割り当てられたサービス品質(QoS)並びに該複数から成るマシーンラーニングモデルそれぞれと関連付けられた該モデル遅延時間情報に基づき、該一つ以上のランタイム環境にリソースを割り当てるステップと;該複数から成る被訓練マシーンラーニングモデル各々並びに該関連づけられた段階的表現形式レベルをモデルカタログ内に記憶するステップとから成り、該データの段階的表現形式レベルは、該アプリケーション層内で入手された信号レベルと干渉情報に基づき算定されることを特徴とする。
【0010】
本願開示の側面にはコンピュータプログラムを含み、該プログラムは、携帯ネットワークを介してデータが入手される一つ以上のランタイム環境に割り当てられたアプリケーションについて、複数から成るマシーンラーニングモデルの各々を訓練する指令であって、該アプリケーションについての該複数から成るマシーンラーニングモデルそれぞれの訓練が別個に実行され、該訓練指令は、複数から成る被訓練マシーンラーニングモデルを形成するため、複数のデータセットにより選択された該複数から成るマシーンラーニングモデルそれぞれを訓練する指令を含み、該複数のデータセットは各々異なった段階的表現形式レベルと関連付けられる指令と;該複数から成る被訓練マシーンラーニングモデルの各々について、モデル遅延時間情報を出力する指令と;該アプリケーションに割り当てられたサービス品質(QoS)並びに該複数から成るマシーンラーニングモデルそれぞれと関連付けられた該モデル遅延時間情報に基づき、該一つ以上のランタイム環境にリソースを割り当てる指令と;該複数から成る被訓練マシーンラーニングモデル各々並びに該関連づけられた段階的表現形式レベルをモデルカタログ内に記憶する指令とから成り、該データの段階的表現形式レベルは、該アプリケーション層内で入手された信号レベルと干渉情報に基づき算定されることを特徴とする。該コンピュータプログラムは、非一過性コンピュータ読み出し可能な媒体内に記憶でき、また、一つ以上のプロセッサーにより実行可能である。
【0011】
本願開示の側面にはシステムを含み、該システムは、携帯ネットワークを介してデータが入手される一つ以上のランタイム環境に割り当てられたアプリケーションについて、複数から成るマシーンラーニングモデルの各々を訓練する手段であって、該アプリケーションについての該複数から成るマシーンラーニングモデルそれぞれの訓練が別個に実行され、該訓練手段は、複数から成る被訓練マシーンラーニングモデルを形成するため、複数のデータセットにより選択された該複数から成るマシーンラーニングモデルそれぞれを訓練する手段を含み、該複数のデータセットは各々異なった段階的表現形式レベルと関連付けられる手段と;該複数から成る被訓練マシーンラーニングモデルの各々について、モデル遅延時間情報を出力する手段と;該アプリケーションに割り当てられたサービス品質(QoS)並びに該複数から成るマシーンラーニングモデルそれぞれと関連付けられた該モデル遅延時間情報に基づき、該一つ以上のランタイム環境にリソースを割り当てる手段と;該複数から成る被訓練マシーンラーニングモデル各々並びに該関連づけられた段階的表現形式レベルをモデルカタログ内に記憶する手段とから成り、該データの段階的表現形式レベルは、該アプリケーション層内で入手された信号レベルと干渉情報に基づき算定されることを特徴とする。
【0012】
本願開示の側面には装置を含み、該装置は、複数から成る被訓練マシーンラーニングモデルを形成するため、複数のデータセットにより選択された複数から成るマシーンラーニングモデルそれぞれを訓練するに当たって、該複数のデータセットは各々異なった段階的表現形式レベルと関連付けられることによって;該複数から成る被訓練マシーンラーニングモデルの各々について、モデル遅延時間情報を出力することによって;該アプリケーションに割り当てられたサービス品質(QoS)並びに該複数から成るマシーンラーニングモデルそれぞれと関連付けられた該モデル遅延時間情報に基づき、該一つ以上のランタイム環境にリソースを割り当てることによって;該複数から成る被訓練マシーンラーニングモデル各々並びに該関連づけられた段階的表現形式レベルをモデルカタログ内に記憶することにより、携帯ネットワークを介してデータが入手される一つ以上のランタイム環境に割り当てられたアプリケーションについて、該複数から成るマシーンラーニングモデルの各々を訓練するに当たって、該アプリケーションについての該複数から成るマシーンラーニングモデルそれぞれの訓練が別個に実行される構成のプロセッサーを有し、該データの段階的表現形式レベルは、該アプリケーション層内で入手された信号レベルと干渉情報に基づき算定されることを特徴とする。
【図面の簡単な説明】
【0013】
【
図1】
図1は、実施例に基づくスマートファクトリー等の携帯端末により有効化される産業上のIoTアプリケーションシステムの一例を示す。
【0014】
【
図2】
図2は、実施例に基づく携帯サービス層についてのアーキテクチャー例を示す。
【0015】
【
図3】
図3は、実施例に基づく携帯サービス層向けサービス性能としてのMLモデルアーキテクチャー例を示す。
【0016】
【
図4】
図4は、実施例に基づくアプリケーションのQoS情報の一例を示す。
【0017】
【
図5】
図5は、実施例に基づく訓練サブシステムの一例を示す。
【0018】
【
図6】
図6は、実施例に基づくデータの段階的表現形式仕切りモジュールの一例を示す。
【0019】
【
図7】
図7は、実施例に基づくデータの段階的表現形式仕切りモジュールの第一ステップ例を示す。
【0020】
【
図8】
図8は、実施例に基づくデータの段階的表現形式仕切りモジュールの第二ステップ例を示す
【0021】
【
図9】
図9は、実施例に基づくデータの段階的表現形式仕切りモジュールの第三ステップ例を示す。
【0022】
【
図10】
図10は、実施例に基づく異なった「精度、遅延時間」特性を持った各種モデルアルゴリズムの一例を示す。
【0023】
【
図11】
図11は、実施例に基づく最終MLモデルセクションモジュールの出力例を示す。
【0024】
【
図12】
図12は、実施例に基づくMLモデルランタイムリソース決定モジュールの動作を示す。
【0025】
【
図13】
図13は、実施例に基づくMLカタログデータベースの一例を示す。
【0026】
【
図14】
図14は、実施例に基づく操作・テストタイムの間、実行される操作・テストサブシステムの詳細を示す。
【0027】
【
図15】
図15は、実施例に基づくMLモデル及びランタイムリソース選択モジュールのフローチャート例を示す。
【0028】
【
図16】
図16は、幾つかの実施例のための利用に適した演算装置例による演算環境例を示す。
【発明を実施するための形態】
【0029】
以下の詳細な説明は、本願の図面並びに実施形態の詳細を提供するものである。添付図面間の冗長な構成要素となる符号及び説明は省略される。以下の説明に亘って使用される用語は、例示としてのみ提示され、限定的な意味にとられてはならない。例えば、用語「自動」の使用は、本願の実施例を実施する当業者の所望の実施態様により、完全自動あるいは実施態様の一定側面に亘ってユーザー若しくは管理者を含めた半自動の意味合いを含んでよい。選択は、ユーザーインターフェースあるいはその他の入力手段を介してユーザーにより実行可能であり、若しくは、所望のアルゴリズムを介して実行可能である。本明細書に記載の実施形態は、それぞれ単独であるいは組合わせて利用可能であり、また、実施形態の機能面は、所望の実施態様に応じた任意の手段を介して実行可能である。
【実施例0030】
図1は、実施例に基づくスマートファクトリー等の携帯端末により有効化される産業上のIoTアプリケーションシステムの一例を示す。ファクトリーショップフロア101は、マシーンであってよい複数の資産101a~101e、労働者を含む作業セルとしてのアセンブリーラインを含んでよい。これら資産及びアセンブリーラインは、携帯端末により有効化されカメラ101f~101hにより絶えず監視されている。これらのカメラにより撮像されたデータは、ワイヤレス携帯ネットワーク102を介して、フィールド(例えば、ファクトリー内のデータセンター)内に局在する携帯モバイルエッジコンピューティング(MEC)サーバー103にストリーミングされる。該MECサーバー103は、該カメラ101f~101hと該MEC103との間のワイヤレスIPレベルデータ接続性を取り扱う接続性層1031並びに該データに基づきMLアプリケーションを構築するサービス層1032を含んでよい。接続性層1031からサービス層1032に取り交わされる情報1を符号105で示し、また、該情報は、該IPレベルデータ並びに接続性層状態に関する情報等のメタデータも含む。終端アプリケーション104は、ネットワーク接続106を介して、該MEC103に通信可能に接続されている。
【0031】
ワイヤレス携帯ネットワーク102の動的接続性状態により、幾つかの問題が発生し得る。該サービス層内の被受信データの段階的表現形式が、時間がたつにつれてランダムに変動する。例えば、被受信イメージがぼやけたり、セグメントが欠如したりあるいはノイズが入ったりする場合があり、これらは全て、段階的表現形式を低下せしめる。被受信データの段階的表現形式が、被送信データよりもはるかに見劣りする場合がある。このため、アプリケーションの遅延時間全体がランダムに増加する場合がある。このような問題に対処するため、以下の解決手段を提案する。
【0032】
図2は、実施例に基づく携帯サービス層についてのアーキテクチャー例を示す。
図1に該サービス層1032の詳細を示す。該サービス層1032は、幾つかのMLマイクロサービス203が、MLモデルオーケストレーター202の介助により実行されるハードウェアリソース(演算・記憶)オーケストレーター201を含んでよい。これらのマイクロサービスは、各MLモデルについての専用ランタイム環境(VM/コンテナ)であり、また、そのMLモデルアルゴリズム206が実行される割り当てられた演算リソース205を含んでよく、また、その関連データは、割り当てられた記憶リソース204内に記憶される。
【0033】
図3は、実施例に基づく携帯サービス層向けサービス性能としてのMLモデルアーキテクチャー例を示す。該アーキテクチャーは、次の構成要素を含んでよい。データ取込モジュール301は、該接続成層105からデータを取り込み、かつ、MLモデルが訓練可能となるように、適当な態様において、該データを事前処理する構成とする。該事前処理操作の一例としては、データフィルタリング、データ正規化、データ変換並びに該MLモデル内に確立されるその他の標準的手法であってよい。
【0034】
携帯無線情報モジュール302は、該携帯接続性層により提供される複数のAPIと相互作用し、該ワイヤレス携帯ネットワークのリアルタイムな無線レベル状態を入手する構成としてよい。無線レベル状態情報のタイプは、二つあってよい。第一タイプは、該被受信信号が、該MEC103に到達した時、サンプルカメラ(例えば、101f)からの該被受信信号の強さがどれくらいかに関する。これを、信号強度「S」と呼ぶ。第二タイプは、101fの該被受信信号に対して、他の全てのカメラ(本例では、101g、101h)により、どの程度の無線レベル干渉が生じたかである。これを、干渉Iと呼ぶ。これらの測定基準は双方ともに、該被受信データの段階的表現形式を確定し、延いては、利用される選択を確定するために利用されてよい。
【0035】
訓練サブシステム303は、データ取込モジュール301からデータ306を取り込む構成とし、また、携帯無線情報モジュール302からの携帯無線情報307に基づき、複数のMLモデルを訓練する。該訓練サブシステム303は、また、該携帯無線情報モジュール302からの該携帯無線情報307及び信号106を介した該アプリケーションの該QoS要件に基づき、該モデルを実行する該ランタイム環境(VMあるいはコンテナ等)に演算・記憶リソースを割り当てる。
【0036】
モデルカタログ305は、訓練サブシステム303からの該MLモデル及び該モデルのランタイム環境の関連リソースを記憶する構成とする。
【0037】
操作サブシステム304は、データ取込モジュール301から該データ306を取り込み、携帯無線情報モジュール302からの携帯無線情報307及び信号106を介した該アプリケーションの該QoS要件に基づき、該モデルカタログ305から単一の被訓練モデル及びその関連するランタイム環境を選択し、操作・テストを実行する構成とする。
【0038】
図4は、実施例に基づくアプリケーションのQoS情報106の一例を示す。該アプリケーションのQoS情報106は、幾つかの被定義QoSクラスを含んでよい。各クラスは、所望の実施態様に応じた最低限の精度と最大限の遅延時間と関連付けられる。
【0039】
精度に関しては、精度を捕捉するための幾つかの測定基準があってよく、また、その正確な手法は、所望のアプリケーションに依拠する必要がある。例えば、該アプリケーションが、入力イメージ(労働者、マシーン、アセンブリーライン)に基づき、複数の物体を分類している場合、該アルゴリズムが、全てのラベルを平均して分類する際に、精度はどの程度かを測定するmAP(平均精度の平均)を考慮に入れることができる。例えば、任意の所望の実施態様による該アルゴリズムの評価が、該アルゴリズムによる100万回の演算後、95%の精度で火災を検知可能であることが確定した場合、該アルゴリズムが検知するように訓練されたその他の物体の検知のため、そのような値を該mAPにおいて使用する。精度のためのその他の測定基準を、所望の実施態様(例えば、各種物体に適用される精度スコアの異なった重みづけ、精度百分率のパーセンテージによる標準偏差等)に応じて利用可能であり、また、本願開示はこれに限定されない。
【0040】
どのような測定基準が選択されても、精度(該語彙の広義の意味において)は、被受信データの品質と段階的表現形式及び該MLモデルの精度性能に依拠する。該被受信データの品質と段階的表現形式に関しては、データの量が多いほど、また、データの質が良好なほど、精度がより高まる結果となる。この点が、携帯チャンネルの無線状態が問題を引き起こし得るところである。該MLモデル(所与のデータ品質について)の精度性能に関して、精度は、データの所与の段階的表現形式について測定される(例えば、データの所与の段階的表現形式について、モデルが95%の精度で火災を検知する)。従って、データの各段階的表現形式レベルは、精度の各種レベルを生ぜしめ、また、必要とされる精度は、所望の実施態様に応じた現在のデータの段階的表現形式レベルに依拠して調整することもできる。
【0041】
遅延時間は、事象発生後に、該アルゴリズムが検知を行うために掛かった時間を表している。遅延時間は、該MLモデルの遅延時間性能に依拠し(例えば、モデルは、100回の反復処理後、95%の精度で火災を検出する)、ML事象(操作・テスト等)毎に、FLOP(浮動小数点演算)に関して測定可能である。例えば、モデルAは、100万回のFLOP後、95%の精度で火災を検出するが、モデルBは、200万回のFLOP後、99%の精度で火災を検出する。
【0042】
演算・記憶リソースを利用して、浮動小数点演算をどの程度素早く実行可能かを確定する該MLマイクロサービスを実行することができる。例えば、モデルBが選択される場合、ランタイムの間、各FLOPがより高速に実行されるように、より多くのリソースが、該モデルに割り当て可能となり、また、モデル双方の遅延時間全体が、時間単位で比較可能となる。このことは、該終端アプリケーション要件が、FLOPではなく、時間単位で記述されることから、重要な点となり得る。
【0043】
実施例において、上述した遅延時間測定基準は、主として、操作・テスト遅延時間であるが、本願開示はこれに限定されず、所望の実施態様に応じて、その他の遅延時間測定基準を使用してもよい。
【0044】
図5は、実施例に基づく訓練サブシステム303の一例を示す。該実施例は、以下のモジュールを含む。
【0045】
データの段階的表現形式仕切りモジュール401は、被受信イメージの被受信段階的表現形式の推定に基づきデータをグループ化する。この推定は、該携帯無線状態に依拠し、このため、該MECでは必ずしも正確には存知されない推定である。実施例は、
図6に基づき説明される技法を介してこのような課題に対処しており、該仕切りモジュールのステップ例を
図7~9に例示する。
【0046】
初期MLモデルアルゴリズム選択モジュール402は、該アプリケーション要件を充足する「精度、遅延時間」特性を有すると信ずる幾つかのMLモデルアルゴリズムを選択する。この信念は、先行知得(
図11において詳しく説明)に基づき、また、実際のデータセットのモジュール401に由来した異なるデータグループについて、その性能が演算される時点で、モジュール404においてアップデートされる。
【0047】
MLモデル訓練及び有効化モジュール403は、モジュール402において選択された初期のモデルセットを取り込み、モジュール401から入手されたデータ上で実行させる。ここで、ノード402において選択されたMLモデルアルゴリズムの実際の「精度、遅延時間」値が入手可能となり、本明細書に詳述した通りである。
【0048】
最終MLモデル選択モジュール404は、信号106を介して、該アプリケーションの該QoS要件を取り込み、どのMLアルゴリズムが、該アプリケーションの精度仕様を充足していないかを確定し、かつ、このようなアプリケーションをモジュール402において選択された初期のアルゴリズムセットから排除する。MLモデル訓練及び有効化モジュール403の出力例を
図11に例示し、アルゴリズムのモデル精度情報とモデル遅延時間情報を提供するものである。該信号106に基づき、該アプリケーションの必要とされるモデル精度及び必要とされるモデル遅延時間が入手可能となる。該アルゴリズムのモデル精度が、該必要とされるモデル精度よりも劣る場合、該アルゴリズムはモジュール404により排除され得る。
【0049】
MLモデルランタイムリソース決定モジュール405は、該アプリケーションレベル遅延時間要件を充足すべく、モジュール404からのモデルを実行するランタイム環境への演算・記憶リソースの割り当て方を決定する。なお、これらのリソースは、該操作・テストプロセスについて割り当てられ、訓練について割り当てられるものではない(該モジュールは、現時点において、該訓練サブシステムにあったとしても)ことに留意されたい。これは、アプリケーションのQoS遅延時間が、該操作・テストフェーズについてのみ向けられるためであり、リソースは、これに応じて割り当てられる必要がある。
【0050】
図6は、実施例に基づくデータの段階的表現形式仕切りモジュール401の一例を示す。第一ステップ401aとして、実施例は、カメラからの該無線信号の被受信信号レベル「S」及びその他の全てのカメラからの干渉「I」を確認する。なお、この情報は、MECのアプリケーションレベルで入手可能であることに留意されたい(例えば、5G等の規格により提供されるキーフィーチャーとして)。信号並びに干渉情報は、任意の携帯システムデザインにとって重要であるが、従前において、このような情報は、該接続性モジュール内に閉じ込められ、該サービス層に利用可能となることはなかった。この情報を利用して、本実施例は、所定の時間間隔に亘ってデータを収集し、該時間間隔の間、観察されたS及びIの組み合わせに基づき、初期グループ化を実行する。一例を
図7に例示する。
【0051】
第二ステップ401bとして、実施例は、以下の等式に示されるように、「S」及び「I」から被受信データの下式で示す段階的表現形式を推定可能となる。
【0052】
【0053】
ここで、Nは、本実施例が、本明細書に記載の手法に基づき、該MLモデルがどの程度良好に実行されたかの過去の履歴に基づいて学習可能な定数である。実施例は、入力時に、上記の等式により生成された値を取り、また、出力として離散レベル(本明細書においては、データの段階的表現形式レベルと呼ぶ)を生成する関数を適用する。該演算の結果例を
図8に例示する。
図8に例示される通り、幾つかの異なる「S」と「I」の組み合わせは、同じデータの段階的表現形式レベルを導出可能で、要は、肝心なのがその比率であるから、直感的に見て健全といえる。
【0054】
第三ステップ401cとして、実施例は、同じデータの段階的表現形式に属するデータをグループ化するように、データの第二グループ化を実行する。
図7及び8の例示に基づき、該グループ化は、
図9に例示されるように作出可能である。
【0055】
該初期MLモデルアルゴリズム選択モジュール402は、従来技術の任意の実施態様に基づき、アルゴリズムを選択する。各データの段階的表現形式について、該モジュールは、別個のモデルグループを考慮に入れ、また、各モデルグループは、複数のモデルアルゴリズムを含む。各種段階的表現形式について異なるモデルグループを持たせる(即ち、所与の段階的表現形式について一つ以上のモデル)主たる理由は、モデルについての精度性能は、データの段階的表現形式に依拠するため、各種段階的表現形式について異なったMLアルゴリズムを訓練するオプションの方が、被固定モデルを訓練するよりも良好であるからである。これほど多くのオプションを考慮に入れる理由は、該操作サブシステム304に関して、本明細書において説明するが、基本的な考え方は、該操作・テスト演算フェーズの間、一のモデルに割り当てられるリソースは、それ自体のアプリケーションのみならず、同時に予定に入れられる必要のあるその他のアプロケーション全てに依拠する必要がある点にある。このようなシナリオでは、(所与の段階的表現形式について)選択可能なモデルの大き目の蓄えを持つことで、操作サブシステム304の演算を最適化する際に有益となる。
【0056】
一のグループ内に複数のモデルを入手するため、実施例は、異なったMLモデルアルゴリズムを選択するかあるいはハイパーパラメータの選択の異なった同じMLモデルアルゴリズムを有してもよい。これは、モデルのハイパーパラメータの選択を異ならせることで(例えば、隠れ層の数、隠れ層毎のノード数等)、特定のMLモデルアルゴリズムの精度・段階的表現形式の相殺が可能となるからである。
図10は、実施例に基づく、異なる「精度、遅延時間」特性を持った各種モデルアルゴリズムの一例を示す。例えば、該アプリケーションが、イメージ認識と分類である場合、モデルアルゴリズムAは、YOLOを含み、アルゴリズムBはR-FCN、また、アルゴリズムCはRetinanetであってよい。これにより、各アルゴリズム内で、遅延時間と精度との間の相殺が行われてよい。なお、同図は一例であり、前述したアルゴリズムの何れかについて実際の性能を表出するものではないことに留意されたい。
【0057】
該MLモデル訓練及び有効化モジュール403内では、モジュール402において選択されたMLモデルの初期セットが訓練され、かつ、モジュール401からの実際のデータグループについて有効化される。
【0058】
該最終MLモデル選択モジュール404は、モジュール403から入力されたモデル評価、該アプリケーション精度要件を取り込み、また、該要件を充足するMLアルゴリズムのみを選択する。該モジュールの出力を
図11に例示し、該最終MLモデル選択モジュールの出力例を表形式で例示している。該表内の情報は、該データソース(カメラID)、アプリケーションのQoS情報、各種MLアルゴリズム501、502、503及び504等を含んでよい。各MLアルゴリズム情報について、以下の情報が更に記憶される。
【0059】
アルゴリズムID及びアルゴリズムタイプ:アルゴリズムタイプの例としては、YOLO、R-FCN、Retinanet等であってよい。
【0060】
隠れ層、隠れ層毎のノード等を含むアルゴリズムハイパーパラメータ。
【0061】
ハイパーパラメータ並びにデータの段階的表現形式の所与の選択についてのアルゴリズム精度。
【0062】
ハイパーパラメータ並びにデータの段階的表現形式の所与の選択についてのアルゴリズム遅延時間(即ち、MLモデル遅延時間情報)。
【0063】
図12は、実施例に基づくMLモデルランタイムリソース決定モジュール405の動作を示す。第一ステップ405aとして、実施例は、信号106から、(時間単位につていの)該アプリケーションレベルQoS遅延時間情報(以降「L1」と称呼)を入手する。第二ステップ405bとして、実施例は、モジュール404から、(FLOP単位についての)該MLモデル遅延時間情報(以降「F」と称呼)を入手する。第三ステップ405cとして、実施例は、ステップ405aにおいて入手された値と等しいかあるいはこれよりも短く、以降、「L2」と称呼される所望のサービス遅延時間(即ち、操作・テストの間、MLアルゴリズムにランタイム環境が割り当てられる時点での遅延時間)を確定する。第四ステップ405dとして、実施例は、該サービス遅延時間が充足されるように、該ランタイム環境の演算・記憶リソース「R」を選択する。これは、以下の式2、式3の通り実行される。
【0064】
【0065】
【0066】
Rは、一つのFLOPを実行するのにかかった時間であり、ステップ405dは、この値を充足するリソースを選択する必要がある。所望の実施態様に依拠して、所望の実施態様に応じた所望の任意関数に従い、Rを利用可能なメモリー及び演算リソースと連関させてもよい。
【0067】
モジュール405の結果は、MLカタログデータベース305内に記憶される。該データベースの一例を
図13に例示する。該モジュールは、601、602、603及び604で例示される各MLモデルアルゴリズムについてランタイムの間割り当てられる必要のあるリソースについての追加情報を含んだ該最終MLモデルアルゴリズム決定モジュール404に類似している。さらに、ここで、該情報のため、該遅延時間は、FLOPではなく、実際の時間単位で表示される。
【0068】
図14は、実施例に基づく操作・テストタイムの間、実行される操作・テストサブシステム304の詳細を示す。該システムは、以下のモジュールを有する。
【0069】
MLモデル及びランタイム選択モジュール701は、入力時に、該モデルカタログ305内に記憶された全てのモデルを取り込み、かつ、操作・テストの間、何れのモデルを利用するかを決定する。該操作・テスト決定については、該データ、無線状態及びアプリケーションのQoSを考慮に入れることができる。該ステップの重要な革新的な点は、全てのアプリケーションに亘る合同最適化が、所定の時間間隔内で同時に実行されることにある。各アプリケーションのランタイム環境に演算・記憶リソースを割り当てる必要があるが、該MEC内の全リソースは有限であるため、ここで、難問が立ちはだかる。したがって、該リソースが不十分である場合、各アプリケーションについて「最良の」MLモデル(例えば、最小の遅延時間と最高の精度)を割り当てることはあり得ないことになる。
【0070】
訓練フェーズ303の間は、訓練がオフラインで、したがって、同時に訓練される必要のあるMLモデルの概念がないため、このような状況は発生しない。訓練については、既存のリソース割り当て並びにMECのオーケストレーション手法で十分である。
【0071】
図15は、実施例に基づく該MLモデル及びランタイムリソース選択モジュール701のフローチャート例を示す。該合同最適化の詳細を
図15に例示する。
【0072】
第一ステップ701aとして、本実施例は、現在の時間間隔内で、操作される必要のある全てのアプリケーションのリストを確定する。該アプリケーションはN個あるとし、このアプリケーションにi=1,…,Nと番号を振る。また、ここでは、操作・テストについて議論しているため、該時間間隔は、数秒若しくは数分程度の短い間隔である。
【0073】
第二ステップ701bとして、各アプリケーションiについて、実施例は、該所定の時間間隔の間に、該アプリケーションiにより受信されたデータの該QoSレベルqi、該データの段階的表現形式レベルfiを入手する。現行ランタイム環境の該段階的表現形式レベルfiは被受信情報の該信号レベル及び干渉情報を利用することで算定可能である。該データの段階的表現形式レベルfiについては、本実施例は、カタログ305から対応するMLモデルを選択する。アプリケーションiについて、MLモデルのセットをMiとしよう。モデルMiセット内への記入項目としては、miで表し、モデルmiの精度値及び遅延時間値については、acc(mi)及びlat(mi)で表そう。
【0074】
第三ステップ701cとして、実施例は、各アプリケーションiについて、MLモデルの最適な割当を入手すべく、最適化問題を定式化する。この式は、次の式4~式6のように表される。
【0075】
【0076】
【0077】
【0078】
ここで、f(qi)は、qiの任意の連続増加関数である。
【0079】
第四ステップ701dとして、実施例は、最適モデルmiを入手すべく、該最適化問題を解く。
【0080】
MLモデル操作モジュール702は、ステップ701dから選択されたMLモデルが、ステップ701dでも選択された該リソースを利用して、実行されるモジュールである。
【0081】
該データが、ワイヤレス携帯チャンネルを介して送信されるとMLモデルの性能が劣化する。本実施例は、該規格により提供された各種機能を利用して、この課題を克服する解決手段を上梓し、かつ、該性能を向上せしめる。
【0082】
図16は、幾つかの実施例のための利用に適した
図1に例示されるMECサーバーあるいは装置103等の演算装置例による演算環境例を示す。
【0083】
演算環境1600内の演算装置1605は、一つ以上の処理ユニット、コア若しくはプロセッサー1610、メモリー1615(例えば、RAM、ROM及び/又は類似のメモリー)、内部記憶装置1620(例えば、磁気的記憶装置、光学的記憶装置、固体記憶装置及び/又は有機メモリー)及び/又はI/Oインターフェース1625を含んでよく、その何れも情報通信のための通信機構あるいはバス1630に接続若しくは該演算装置1605内に埋め込み可能である。I/Oインターフェース1625は、また、所望の実施態様に応じて、カメラからのイメージを受信しあるいはイメージをプロジェクター若しくはディスプレーに提供する構成とする。
【0084】
演算装置1605は、入力・ユーザーインターフェース1635及び出力装置・インターフェース1640に通信可能に接続されてよい。入力・ユーザーインターフェース1635及び出力装置・インターフェース1640の何れか一方あるいは双方ともに、有線あるいは無線インターフェースであってよく、また、取り外し可能であってよい。入力・ユーザーインターフェース1635は、入力を提供するために利用可能な物理的あるいは仮想的を問わず任意の装置、構成部品、センサーあるいはインターフェースを含んでよい(例えば、ボタン、タッチスクリーンインターフェース、キーボード、ポインター・カーソル制御、マイクロフォン、カメラ、点字、モーションセンサー、光学リーダー及び/又は類似の装置、構成部品、センサー、インターフェース)。出力装置・インターフェース1640は、ディスプレー、テレビ、モニター、プリンター、スピーカー、点字あるいは類似の機器を含んでよい。幾つかの実施例において、入力・ユーザーインターフェース1635及び出力装置・インターフェース1640は、該演算装置1605と共に埋め込まれるかあるいは該装置に物理的に接続されてもよい。その他の実施例においては、その他の演算装置が、演算装置1605向けの入力・ユーザーインターフェース1635及び出力装置・インターフェース1640として機能しあるいは、それらの機能を提供してもよい。
【0085】
演算装置1605の例としては、高度移動装置(例えば、スマートフォン、車両並びにその他の機械内装置、人及び動物が携行する装置及び類似の装置)、移動装置(例えば、タブレット、ノートブック、ラップトップ、パソコン、携帯テレビ、ラジオ及び類似の装置)並びに移動を意図しない装置(例えば、デスクトップコンピュータ、その他のコンピュータ、情報キオスク、埋め込まれたあるいは接続された一つ以上のプロセッサーを有するテレビ、ラジオ及び類似の装置)を含むが、これに限定される訳ではない。
【0086】
演算装置1605は、(例えば、I/Oインターフェース1625を介して)同じ型あるいは違う型の一つ以上の演算装置を含む任意数のネットワーク下の構成部品、装置及びシステムと通信するため、外部記憶装置1645及びネットワーク1650に通信可能に接続されてよい。演算装置1605あるいは任意の被接続演算装置は、サーバー、クライアントサーバー、シンサーバー、汎用機械、特殊用途機械として機能してよく、それらの役務を提供し、サーバー、クライアントサーバー、シンサーバー、汎用機械、特殊用途機械あるいは別の名称で呼ばれてよい。
【0087】
I/Oインターフェース1625は、演算環境1600内の少なくとも全ての被接続構成部品、装置及びネットワークとの情報をやり取りするため、任意の通信規格あるいはI/Oプロトコール若しくは規格(例えば、エサーネット、802.11x、ユニバーサル・システム・バス、WiMax、モデム、携帯ネットワークプロトコール及び類似のプロトコール、規格)を利用した有線及び/又は無線インターフェースを含むが、これに限定されるわけではない。ネットワーク1650は、任意のネットワークあるいはネットワークのコンビネーションであってよい(例えば、インターネット、ローカル・エリア・ネットワーク、ワイド・エリア・ネットワーク、電話網、携帯ネットワーク、サテライトネットワーク及び類似のネットワーク)。
【0088】
演算装置1605は、一過性媒体及び非一過性媒体を含むコンピュータにより利用可能な若しくはコンピュータにより読み出し可能な媒体を利用でき及び/又はこれらを利用して通信可能である。一過性媒体は、送信媒体(例えば、金属ケーブル、光ファイバー)、信号、搬送波及び類似の媒体を含む。一過性媒体は、磁気媒体(例えば、ディスク及びテープ)、光学媒体(例えば、CDROM、デジタルビデオディスク、ブルーレイディスク)、固体媒体(例えば、RAM、ROM、フラッシュメモリー、固体メモリー)及びその他の不揮発性記憶装置あるいはメモリーを含む。
【0089】
演算装置1605は、これを利用して、幾つかの演算環境例において、手法、方法、アプリケーション、プロセスあるいはコンピュータにより実行可能な指令を実行可能である。コンピュータにより実行可能な指令は、一過性媒体から読み出することができ、また、非一過性媒体に記憶され、かつ、非一過性媒体から読み出される。該実行可能な指令は、一つ以上の任意のプログラミング、スクリプト及びマシーン言語(例えば、C、C++、C#、Java、VisualBasic、Perl、JavaScript及びその他のマシーン言語)に由来してよい。
【0090】
プロセッサー1610は、ネイティブ環境あるいは仮想環境において、任意のオペレーティングシステム(OS)(図示なし)下で実行可能である。一つ以上のアプリケーションを展開可能で、論理ユニット1660,アプリケーションプログラミングインタフェース(API)ユニット1665、入力ユニット1670、出力ユニット1675及び各種ユニットが互いに通信し合い、該OSと通信し及びその他のアプリケーション(図示なし)と通信するためのユニット間通信機構1695を含む。上述したユニット及び要素は、デザイン、機能、構成あるいは実装面において可変で、ここに提供される明細に限定されない。
【0091】
幾つかの実施例において、APIユニット1665により、情報あるいは実行指令が受信されると、該情報は、一つ以上のユニット(例えば、論理ユニット1660、入力ユニット1670、出力ユニット1675)に通信されてよい。上述した幾つかの実施例において、論理ユニット1660は、該ユニット間の情報フローを制御し、APIユニット1665、入力ユニット1670、出力ユニット1675により提供されるサービスを指揮する構成としてもよい。例えば、一つ以上のプロセスあるいは実装フローは、論理ユニット1660単独であるいはAPIユニット1665と連携して制御されてよい。該入力ユニット1670は、本実施例において説明した算定のための入力を入手する構成とし、また、該出力ユニット1675は、実施例において説明した算定に基づき、出力を提供する構成としてよい。
【0092】
プロセッサー1610は、以下の側面を実行する構成としてよい。
【0093】
第一の側面において、プロセッサー1610は、コンピュータにより読み出し可能な媒体から方法あるいは指令を実行でき、該方法あるいは指令は、携帯ネットワークを介してデータが入手される一つ以上のランタイム環境に割り当てられたアプリケーションについて、複数から成るマシーンラーニングモデルの各々を訓練するステップあるいは指令であって、該アプリケーションについての該複数から成るマシーンラーニングモデルそれぞれの訓練が別個に実行され、該訓練ステップあるいは指令は、複数から成る被訓練マシーンラーニングモデルを形成するため、複数のデータセットにより選択された該複数から成るマシーンラーニングモデルそれぞれを訓練するステップあるいは指令であって、該複数のデータセットは各々異なった段階的表現形式レベルと関連付けられるステップあるいは指令と;該複数から成る被訓練マシーンラーニングモデルの各々について、モデル遅延時間情報を出力するステップあるいは指令と;該アプリケーションに割り当てられたサービス品質(QoS)並びに該複数から成るマシーンラーニングモデルそれぞれと関連付けられた該モデル遅延時間情報に基づき、該一つ以上のランタイム環境にリソースを割り当てるステップあるいは指令と;該複数から成る被訓練マシーンラーニングモデル各々並びに該関連づけられた段階的表現形式レベルをモデルカタログ内に記憶するステップあるいは指令とから成り、該データの段階的表現形式レベルは、
図5及び
図11に例示されるアプリケーション層内で入手された信号レベルと干渉情報に基づき算定されることを特徴とする。この側面を利用して、該マシーンラーニングモデルを訓練できる。
【0094】
第二の側面において、プロセッサー1610は、上述した側面の何れかによるコンピュータにより読み出し可能な媒体から方法あるいは指令を実行でき、さらに、該アプリケーションを該一つ以上のランタイム環境上で実行するステップあるいは指令であって、該アプリケーションを該一つ以上のランタイム環境上で実行する該実行ステップあるいは指令は、該アプリケーションに向けた該被受信データについての該データの段階的表現形式レベルに基づき、該アプリケーションに向けた該複数から成る被訓練マシーンラーニングモデルから、被訓練マシーンラーニングモデルを選択するステップあるいは指令と;該アプリケーションに割り当てられたQoSレベル及び該アプリケーションに向けた該被受信データについての該データの段階的表現形式レベルに基づき、該アプリケーションを実行するための該リソースを該被選択被訓練マシーンラーニングモデルに割り当てるステップあるいは指令と;該被割当リソースにより、該被選択被訓練マシーンラーニングモデルを実行するステップあるいは指令とから成る。この側面を利用して、
図3に例示される該アプリケーションを操作できる。
【0095】
第三の側面において、プロセッサー1610は、上述した側面の何れかによるコンピュータにより読み出し可能な媒体から方法あるいは指令を実行でき、さらに、該アプリケーションに向けた該被受信データについての該データの段階的表現形式レベルに基づき、該アプリケーションに向けた該複数から成る被訓練マシーンラーニングモデルからの該被訓練マシーンラーニングモデルの選択について、該複数から成る被訓練マシーンラーニングモデルの複数モデルの選択を招く結果となるステップあるいは指令と;所定の時間間隔内において操作されるべき全てのアプリケーションに向けた該複数から成る被訓練マシーンラーニングモデルの該複数モデルへの該リソースの被最適化割り当てを確定する構成の最適化問題を生成するステップあるいは指令と;該複数から成る被訓練マシーンラーニングモデルの該複数モデルへの該リソースの該被最適化割り当てを確定するため、該最適化問題を解くステップあるいは指令とから成り、該一つ以上のランタイム環境への該リソース割り当ては、
図15に例示される該被最適化割り当てに従って実行されることを特徴とする。この側面において、該最適化問題が、
図15のフローチャートを介して解かれると、その解により、
図11に例示される表からどのモデルを利用すべきかが確定する。利用すべきモデルが存知されると、これらのモデルの該遅延時間要件を充足すべく、リソース割り当てが行われる。
【0096】
第四の側面において、プロセッサー1610は、上述した側面の何れかによるコンピュータにより読み出し可能な媒体から方法あるいは指令を実行でき、該アプリケーションに向けた該被受信データについての該データの段階的表現形式レベルに基づき、該アプリケーションに向けた該複数から成る被訓練マシーンラーニングモデルから該被訓練マシーンラーニングモデルを選択するステップあるいは指令は、所定の時間間隔内において操作されるべき全てのアプリケーションのリストを確定するステップと;該所定の時間間隔内において操作されるべき全てのアプリケーションの該リスト内の各アプリケーションについて、該各アプリケーション割り当てられた該QoSレベル及び該一つ以上のランタイム環境の該アプリケーションに向けた該被受信データについての該現行データの段階的表現形式レベルを入手するステップあるいは指令と;該入手されたデータの段階的表現形式レベルに基づき、該各アプリケーションと関連付けられた該複数から成るマシーンラーニングモデルの対応モデルを確定することで、該複数から成る被訓練マシーンラーニングモデルの該複数モデルの該選択を招く結果となるステップあるいは指令とから成り、該リソースの被最適化割り当てを確定する構成の該最適化問題を生成するステップあるいは指令は、
図15に例示されるように、該各アプリケーションに割り当てられた該QoSレベルを利用することを特徴とする。この側面において、該アプリケーションに割り当てられるQoSレベルは、また、
図15に対応する該等式に記載のとおり、該最適化問題を確定するためにも利用される。
【0097】
第五の側面において、プロセッサー1610は、上述した側面の何れかによるコンピュータにより読み出し可能な媒体から方法あるいは指令を実行でき、該アプリケーションに向けた該被受信データについての該データの段階的表現形式レベルに基づき、該アプリケーションについての該複数から成る被訓練マシーンラーニングモデルから該被訓練マシーンラーニングモデルを選択する該ステップあるいは指令は、該複数から成る被訓練マシーンラーニングモデルを記憶する該モデルカタログを参照し、該モデルカタログ内の該複数から成る被訓練マシーンラーニングモデルと関連付けられた該モデル遅延時間情報及び精度に基づき、該被訓練マシーンラーニングモデルを選択するステップあるいは指令を含み、該アプリケーションに向けた該被受信データについての該データの段階的表現形式レベルに基づく該アプリケーションの必要とされる精度を充足しない該精度を持つ該複数から成る被訓練マシーンラーニングモデルの幾つかが、
図5、
図11、
図13及び
図14に例示されるように、排除されることを特徴とする。この側面において、
図5の403に例示される該プロセスの出力として、アルゴリズムの該精度及び遅延時間(FLOP表記)を提供する
図11の該情報が入手される。信号106から、該アプリケーションの該必要とされる精度及び必要とされる遅延時間が入手され、また、該精度が、該必要とされる精度よりも劣る場合には、該アルゴリズムは排除される。
【0098】
第六の側面において、プロセッサー1610は、上述した側面の何れかによるコンピュータにより読み出し可能な媒体から方法あるいは指令を実行でき、該一つ以上のランタイム環境は、本明細書に記載の一つ以上の仮想マシーンあるいはコンテナであることを特徴とする。
【0099】
第七の側面において、プロセッサー1610は、上述した側面の何れかによるコンピュータにより読み出し可能な媒体から方法あるいは指令を実行でき、該リソースは、本明細書に記載の該一つ以上のランタイム環境と関連付けられた演算リソース及び記憶リソースを含むことを特徴とする。
【0100】
第八の側面において、プロセッサー1610は、上述した側面の何れかによるコンピュータにより読み出し可能な媒体から方法あるいは指令を実行でき、該アプリケーションに割り当てられたサービス品質(QoS)レベル及び該複数から成るマシーンラーニングモデルの各々と関連付けられた該データの段階的表現形式レベルに基づき、該一つ以上のランタイム環境に該リソースを割り当てるステップあるいは指令は、該アプリケーションに割り当てられたアプリケーションレベルQoS遅延時間情報を入手するステップあるいは指令と;該複数から成るマシーンラーニングモデル各々のマシーンラーニングモデル事象毎に、毎秒当たりの浮動小数点演算の回数を入手するステップあるいは指令と;該アプリケーションレベルQoS遅延時間情報に基づき、該アプリケーションに割り当てられた該QoSレベルを充足するサービス遅延時間を確定するステップあるいは指令と;マシーンラーニングモデル事象毎の該浮動小数点演算の回数及び
図12に例示される該アプリケーションレベルQoS遅延時間情報に基づき、該被割り当てリソースを算定するステップあるいは指令から成る。この側面において、所望の実施態様に依拠して、
図12に記載の等式に従い、該モデル遅延時間情報(F)、サービス遅延時間(L2)及びアプリケーションレベルQoS遅延時間情報(L1)を利用可能である。
【0101】
第九側面において、プロセッサー1610は、上述した側面の何れかによるコンピュータにより読み出し可能な媒体から方法あるいは指令を実行でき、さらに、複数から成るマシーンラーニングモデルを訓練するため、複数から成るデータの段階的表現形式レベルに亘りデータを仕切るステップあるいは指令を含み、該複数から成るマシーンラーニングモデル各々を訓練するステップあるいは指令は、
図5及び7に例示される通り、該複数から成るマシーンラーニングモデル各々と関連付けられた該データの段階的表現形式レベルと同じデータの段階的表現形式レベルを持つ該被仕切りデータにより、該複数から成るマシーンラーニングモデル各々を訓練するステップあるいは指令を含む。
【0102】
詳細な説明には、アルゴリズム及びコンピュータ内の演算記号により表現されている箇所がある。これらのアルゴリズム的な描写及び記号は、その他の当業者に対して革新部分のエッセンスを届けるために、データ処理の当業者により利用される手段である。アルゴリズムは、一続きの所定ステップで、所望の最終状態あるいは結果を導くものである。実施例において、目に見える成果を達成するためには、実行されるステップには、有形量の物理的操作が必要となる。
【0103】
特に断らない限りにおいて、本開示から明らかなとおり、詳細な説明全体に亘って、「処理」、「演算」、「算定」、「確定」、「表示」その他類似の用語を利用する開示内容は、コンピュータシステムのレジスター及びメモリー内の物理(電子)量として表現されるデータを操作し、かつ、該データをコンピュータシステムのメモリーあるいはレジスター若しくはその他の情報記憶装置、送信装置あるいは表示装置内の物理量と同様に表現されるその他のデータに変換するコンピュータシステム若しくはその他の情報処理装置のアクション並びにプロセスが含まれるものと了解されたい。
【0104】
実施例は、また、本明細書の演算を実行するための装置に関してもよい。該装置は、所要の目的のため特別に構築されあるいは一つ以上のコンピュータプログラムにより選択的に起動されあるいは再構成される一つ以上の汎用コンピュータを含んでよい。このようなコンピュータプログラムは、コンピュータにより読み出し可能な記憶媒体あるいはコンピュータにより読み出し可能な信号媒体等のコンピュータにより読み出し可能な媒体内に記憶されてよい。コンピュータにより読み出し可能な記憶媒体は、光学ディスク、磁気ディスク、リードオンリーメモリー、ランダムアクセスメモリー、固体装置及びドライブあるいはその他任意タイプの電子情報を記憶するために適当な有形あるいは非一過性媒体を含むが、これに限定されるわけではない。コンピュータにより読み出し可能な信号媒体は、搬送波等の媒体を含んでよい。本明細書において開示されるアルゴリズム及びディスプレーは、内在的に、特定のコンピュータあるいはその他の装置に関連するものではない。コンピュータプログラムは、所望の実施態様の演算を実行する指令を含む純粋なソフトウェア実装を含むことができる。
【0105】
各種汎用システムを、本明細書の実施例によるプログラムあるいはモジュールと共に利用してもよく、あるいは、所望の方法ステップを実行するためのより特化した装置を構築することが使い勝手が良くなる場合もあろう。さらに、本実施例は、特定のプログラミング言語に関して記載されるものではない。本明細書に記載の実施例の教示内容を実行するためには、多種多様なプログラミング言語が利用されるものと了解されたい。該プログラミング言語の指令は、一つ以上の処理装置、例えば、中央処理ユニット(CPU)、プロセッサー若しくはコントローラーにより実行されてよい。
【0106】
従来既知の通り、上述した演算は、ハードウェア、ソフトウェア、あるいは、ソフトウェアとハードウェアの何らかのコンビネーションで実行可能である。本実施例の様々な側面は、回路及びロジック装置(ハードウェア)を利用して実行されてよいが、他方、その他の側面は、プロセッサーにより実行される場合に、該プロセッサーをして本願の実施例を実行する方法を実行せしめるマシーンにより読み出し可能な媒体(ソフトウェア)に記憶された指令を利用して実行されてよい。さらに、本願の幾つかの実施例は、ハードウェアのみで実行されてもよく、他方、その他の実施例は、ソフトウェアのみで実行されてもよい。さらにまた、本明細書に開示の各種機能は、単一ユニットで実行でき、あるいは、任意数の態様において、多数の構成部品に亘って分散されてもよい。ソフトウェアにより実行される場合、本方法は、汎用コンピュータ等のプロセッサーにより、コンピュータにより読み出し可能な媒体に記憶された指令に基づき実行されてよい。所望の場合、本指令は、被圧縮及び又は被暗号化フォーマットで該媒体に記憶されてもよい。
【0107】
さらに、本願のその他の実施例は、本明細書の考察と本願の教示内容の実施から当業者には自明となろう。本明細書に記載の実施例の各種側面及び/又は構成部品は単独で若しくはコンビネーションで利用されてよい。本明細書並びに実施例は、例示としてのみ考察されることを意図しており、本願の真の技術的範囲とその神髄は、以下の特許請求の範囲により明らかとなる。