(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-10-15
(45)【発行日】2024-10-23
(54)【発明の名称】学習装置、通信システム、学習方法及び学習プログラム
(51)【国際特許分類】
H03M 7/30 20060101AFI20241016BHJP
G06N 20/00 20190101ALI20241016BHJP
【FI】
H03M7/30 Z
G06N20/00 130
(21)【出願番号】P 2020069482
(22)【出願日】2020-04-08
【審査請求日】2023-03-06
(73)【特許権者】
【識別番号】000004237
【氏名又は名称】日本電気株式会社
(74)【代理人】
【識別番号】100103894
【氏名又は名称】家入 健
(72)【発明者】
【氏名】古市 英之
【審査官】阿部 弘
(56)【参考文献】
【文献】特開平07-160796(JP,A)
【文献】特開2018-153901(JP,A)
【文献】米国特許出願公開第2018/0275629(US,A1)
【文献】特許第6593519(JP,B1)
(58)【調査した分野】(Int.Cl.,DB名)
H03M 7/30
G06N 20/00
(57)【特許請求の範囲】
【請求項1】
ネットワークに伝送される通信データを取得する取得部と、
前記取得された通信データを教師データとして機械学習する学習部と、
を備
え、
前記ネットワークは第1の通信装置と第2の通信装置を含み、
前記取得部は、前記第1の通信装置から前記第2の通信装置へ送信された入力データと、前記第2の通信装置が前記入力データに基づいて出力する出力データとを取得し、
前記学習部は、前記取得された入力データと前記取得された出力データを教師データとして機械学習し、
前記学習部は、
前記取得された入力データを所定の変換方法で変換する変換部と、
前記変換後の入力データから変換前の入力データを推定する学習モデルを生成する生成部と、
前記学習モデルを用いて、前記変換後の入力データから変換前の入力データを推定する推定部と、
前記推定された入力データに基づく出力データと前記取得された出力データとを比較し、前記学習モデルを評価する評価部と、を備える、
学習装置。
【請求項2】
前記変換方法を設定し、前記評価
した結果に基づいて前記変換方法を調整する設定部と、
前記調整された変換方法に関する情報を前記第1の通信装置へ通知する通知部と、をさらに備える、
請求項
1に記載の学習装置。
【請求項3】
前記学習モデルを生成するための推定方法を設定し、前記評価
した結果に基づいて前記推定方法を調整する設定部と、
前記調整された推定方法に関する情報を前記第2の通信装置へ通知する通知部と、をさらに備える、
請求項
1に記載の学習装置。
【請求項4】
前記変換部による変換は、非可逆圧縮を含み、
前記評価した結果に応じて、前記非可逆圧縮に用いられる変数と前記学習モデルの生成における変数の少なくとも一方を調整する、
請求項1から請求項3のうちのいずれか1項に記載の学習装置。
【請求項5】
前記変換部による変換は、圧縮を含み、
前記第1の通信装置から送信された前記通信データを受信し、受信した前記通信データが、前記圧縮及び前記機械学習の対象となる第1の通信データであるか、前記圧縮及び前記機械学習の対象とならない第2の通信データであるかを識別する切替部を備え、
前記切替部は、前記第1の通信データを前記第2の通信装置へ送信するか、前記第2の通信データを前記第2の通信装置へ送信するか、前記第1の通信データと前記第2の通信データを多重して前記第2の通信装置へ送信するか、前記第1の通信データと前記第2の通信データをいずれも前記第2の通信装置へ送信しないかを切り替える、
請求項1から請求項3のうちのいずれか1項に記載の学習装置。
【請求項6】
第1の通信装置と第2の通信装置と学習装置とを備え、
前記学習装置は、
前記第1の通信装置と前記第2の通信装置を含むネットワークに伝送される通信データを取得する取得部と、
前記取得された通信データを教師データとして機械学習する学習部と、
を備
え、
前記取得部は、前記第1の通信装置から前記第2の通信装置へ送信された入力データと、前記第2の通信装置が前記入力データに基づいて出力する出力データとを取得し、
前記学習部は、前記取得された入力データと前記取得された出力データを教師データとして機械学習し、
前記学習部は、
前記取得された入力データを所定の変換方法で変換する変換部と、
前記変換後の入力データから変換前の入力データを推定する学習モデルを生成する生成部と、
前記学習モデルを用いて、前記変換後の入力データから変換前の入力データを推定する推定部と、
前記推定された入力データに基づく出力データと前記取得された出力データとを比較し、前記学習モデルを評価する評価部と、を備える、
通信システム。
【請求項7】
前記第1の通信装置と前記第2の通信装置との間の通信を中継する中継装置を備え、
前記中継装置は、前記学習装置を含む、
請求項
6に記載の通信システム。
【請求項8】
ネットワークに伝送される通信データを取得
することと、
前記取得された通信データを教師データとして機械学習する
ことと、
を含み、
前記ネットワークは第1の通信装置と第2の通信装置を含み、
前記取得することは、前記第1の通信装置から前記第2の通信装置へ送信された入力データと、前記第2の通信装置が前記入力データに基づいて出力する出力データとを取得することを含み、
前記機械学習することは、前記取得された入力データと前記取得された出力データを教師データとして機械学習することを含み、
前記機械学習することは、
前記取得された入力データを所定の変換方法で変換することと、
前記変換後の入力データから変換前の入力データを推定する学習モデルを生成することと、
前記学習モデルを用いて、前記変換後の入力データから変換前の入力データを推定することと、
前記推定された入力データに基づく出力データと前記取得された出力データとを比較し、前記学習モデルを評価することと、を含む、
学習方法。
【請求項9】
ネットワークに伝送される通信データを取得
することと、
前記取得された通信データを教師データとして機械学習する
ことと、
を含み、
前記ネットワークは第1の通信装置と第2の通信装置を含み、
前記取得することは、前記第1の通信装置から前記第2の通信装置へ送信された入力データと、前記第2の通信装置が前記入力データに基づいて出力する出力データとを取得することを含み、
前記機械学習することは、前記取得された入力データと前記取得された出力データを教師データとして機械学習することを含み、
前記機械学習することは、
前記取得された入力データを所定の変換方法で変換することと、
前記変換後の入力データから変換前の入力データを推定する学習モデルを生成することと、
前記学習モデルを用いて、前記変換後の入力データから変換前の入力データを推定することと、
前記推定された入力データに基づく出力データと前記取得された出力データとを比較し、前記学習モデルを評価することと、を含む、
処理をコンピュータに実行させるための学習プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、学習装置、通信システム、学習方法及び学習プログラムに関する。
【背景技術】
【0002】
近年、ネットワークカメラや各種センサ、コンピュータシステムなどによって得られた様々なデータが、無線や有線を含む通信システムを介して利用されている。また、カメラデバイスの高画質化を一例とするように、各種デバイスの高機能化・高性能化が進んでいる。さらに、それらを利用する利用者や、用途・サービスは拡大の一途をたどっている。このような背景から、通信システムが扱うデータ流通量は爆発的に増加しており、コストの増加や無線・有線の通信帯域の不足、システムリソースの不足といった問題が顕在化している。このため、サービス利用者に悪影響を及ぼさずに、通信データ量を削減する装置および通信方法が求められる。
【0003】
例えば、通信データ量の削減のために圧縮技術が利用されている。関連する技術として、特許文献1や2が知られている。特許文献1や2には、可逆圧縮または非可逆圧縮により圧縮した映像データや画像データを伝送する伝送システムが記載されている。
【先行技術文献】
【特許文献】
【0004】
【文献】特開2017-225021号公報
【文献】特開2012-135588号公報
【発明の概要】
【発明が解決しようとする課題】
【0005】
上記のように、例えば通信データを伝送する際に圧縮技術などの変換技術が利用されている。関連する技術では、オリジナルデータの同一性を維持するために、所定の可逆圧縮を利用することが前提となっている。しかしながら、関連する技術では、様々な方法で変換された通信データを伝送することが考慮されていないため、任意の通信データに対応することが困難であるという問題がある。
【0006】
本開示は、このような課題に鑑み、任意の通信データに対応することが可能な学習装置、通信システム、学習方法及び学習プログラムを提供することを目的とする。
【課題を解決するための手段】
【0007】
本開示に係る学習装置は、ネットワークに伝送される通信データを取得する取得部と、前記取得された通信データを教師データとして機械学習する学習部と、を備えるものである。
【0008】
本開示に係る通信システムは、第1の通信装置と第2の通信装置と学習装置とを備え、前記学習装置は、前記第1の通信装置と前記第2の通信装置を含むネットワークに伝送される通信データを取得する取得部と、前記取得された通信データを教師データとして機械学習する学習部と、を備えるものである。
【0009】
本開示に係る学習方法は、ネットワークに伝送される通信データを取得し、前記取得された通信データを教師データとして機械学習するものである。
【0010】
本開示に係る学習プログラムは、ネットワークに伝送される通信データを取得し、前記取得された通信データを教師データとして機械学習する処理をコンピュータに実行させるための学習プログラムである。
【発明の効果】
【0011】
本開示によれば、任意の通信データに対応することが可能な学習装置、通信システム、学習方法及び学習プログラムを提供することができる。
【図面の簡単な説明】
【0012】
【
図1】実施の形態に係る学習装置の概要を示す構成図である。
【
図2】実施の形態に係る通信システムの概要を示す構成図である。
【
図3】実施の形態1に係る通信システムの構成例を示す構成図である。
【
図4】実施の形態1に係る基地局の構成例を示す構成図である。
【
図5】実施の形態1に係る基地局の親局の構成例を示す構成図である。
【
図6】実施の形態1に係る基地局の親局の機能構成例を示す構成図である。
【
図7】実施の形態1に係る基地局の子局の構成例を示す構成図である。
【
図8】実施の形態1に係るコアネットワークの構成例を示す構成図である。
【
図9】実施の形態1に係るコアネットワークのユーザプレーン装置の構成例を示す構成図である。
【
図10】実施の形態1に係る通信システムの動作例を示すシーケンス図である。
【
図11】実施の形態1に係る通信システムの動作例を示すシーケンス図である。
【
図12】実施の形態1に係る通信システムの動作例を示すシーケンス図である。
【
図13】実施の形態2に係る基地局の構成例を示す構成図である。
【
図14】実施の形態2に係る基地局の他の構成例を示す構成図である。
【
図15】実施の形態3に係るコアネットワークのユーザプレーン装置の構成例を示す構成図である。
【
図16】実施の形態3に係る通信システムの動作例を示すシーケンス図である。
【
図17】実施の形態3に係る通信システムの動作例を示すシーケンス図である。
【
図18】実施の形態4に係る通信システムの構成例を示す構成図である。
【
図19】実施の形態4に係る通信システムの動作例を示すシーケンス図である。
【
図20】その他の実施の形態に係る通信システムの送信側装置及び受信側装置の例を示す表である。
【発明を実施するための形態】
【0013】
以下、図面を参照して実施の形態について説明する。説明の明確化のため、以下の記載及び図面は、適宜、省略、及び簡略化がなされている。各図面において、同一の要素には同一の符号が付されており、必要に応じて重複説明は省略されている。なお、構成図(ブロック図)に付された矢印は説明のための例示であり、信号の種類や方向を限定するものではない。
【0014】
(実施の形態の概要)
図1は、実施の形態に係る学習装置の概要を示しており、
図2は、実施の形態に係る学習装置を含む通信システムの概要を示している。
【0015】
図1に示すように、実施の形態に係る学習装置10は、取得部11と学習部12を備えている。取得部11は、ネットワークに伝送される通信データを取得する。学習部12は、取得部11により取得された通信データを教師データとして機械学習する。例えば、学習部12は、ネットワークの伝送前後の通信データを機械学習する。
【0016】
また、
図2に示すように、通信システム1は、学習装置10、通信装置(第1の通信装置)21、通信装置(第2の通信装置)22を備える。例えば、ネットワーク20は、通信装置21と通信装置22を含んでいる。例えば、取得部11は、ネットワーク20上で通信装置21から通信装置22へ伝送される通信データを取得する。例えば、基地局などの中継装置に学習装置10を設け、学習装置10は、通信を行いながら、その通信データを教師データとして機械学習を行う。
【0017】
このように、実施の形態では、ネットワークに伝送される通信データを教師データとして機械学習するため、例えば非可逆圧縮されたデータなど、任意の通信データに対応することができる。また、機械学習の結果を第1の通信装置(送信側の通信装置)と第2の通信装置(受信側の通信装置)に通知することにより、学習結果に応じた適切な方法で通信を行うことができる。例えば、圧縮方法や推定方法の変数やプログラムを通知することにより、送信側で非可逆圧縮されたデータや間引かれたデータを、受信側で適切に伸長・復元・補間等することができる。
【0018】
関連する技術における通信装置や通信方法では、通信データ量を削減するためには、データを可逆圧縮する必要がある。しかしながら、可逆圧縮は、非可逆圧縮に比べて、通信データ量を必要十分に削減することができない。一方で、非可逆圧縮を利用した場合には、例えば、画像データや動画データの画質が劣化するため、利用者やデータを扱うシステムが、画像・動画から確認したい対象物を識別することが困難である。
【0019】
また、関連するシステムやウェブサービスにおいて、単純に機械学習を適用したとしても、システムが利用するネットワークの通信データ量を削減することができない。この場合、予め学習データと教師データを用意して、モデルを作成する必要がある。このため、ユーザ要求やシステム要件について、変動が激しいことや、不確実で複雑であること、曖昧さを許容すること、といった現状のビジネス環境に対応することができない。なかでも、システムが利用している通信ネットワークでは、機械学習の方法を単純に利用することが困難である。
【0020】
そこで、実施の形態では、ネットワークに伝送されている通信データを機械学習することで、任意の方法で変換されたデータから変換前のデータを推定し、様々な通信データに適切に対応可能とする。
【0021】
(実施の形態1)
以下、図面を参照して実施の形態1について説明する。
図3は、本実施の形態に係る通信システムの構成例を示している。
図3に示すように、本実施の形態に係る通信システム100は、複数の端末101、基地局102、コアネットワーク103、データネットワーク104、サービス提供サーバ105、サービス利用者デバイス106を備えている。
【0022】
通信システム100では、端末101(送信側)が入力データを送信し、サービス提供サーバ105(受信側)が入力データを処理した出力データをサービス利用者デバイス106へ提供する。また、端末101が入力データを非可逆圧縮して送信し、サービス提供サーバ105が非可逆圧縮データを伸長・復元等し、伸長・復元等に基づいた出力データをサービス利用者デバイス106へ提供する。これらの圧縮方法と伸長・復元方法(推定方法)は、通信データやサービス利用者に提供する情報に基づいて決定される。本実施の形態では、基地局102において機械学習することで、圧縮方法及び推定方法を決定する。
【0023】
端末(第1の通信装置)101は、入力データを生成(取得)する入力装置である。例えば、端末101は、後述のように撮像デバイスやセンサデバイス等により取得されるデータから入力データを生成する。複数の端末101は、例えば無線通信端末であり、基地局102と無線により通信可能に接続される。端末101は、入力データを、基地局102、コアネットワーク103、データネットワーク104を介して、サービス提供サーバ105へ送信する。また、端末101は、基地局102から通知される圧縮方法にしたがって、入力データを圧縮(非可逆圧縮)する圧縮装置でもある。
【0024】
基地局102は、複数の端末101を収容可能な無線基地局である。基地局102は、複数の端末101及びコアネットワーク103と通信可能に接続され、複数の端末101とコアネットワーク103の間の通信を中継する中継装置である。本実施の形態では、基地局102は、通信データを機械学習する学習装置でもある。基地局102は、ネットワークに伝送される通信データを教師データとして、ネットワークの伝送前後の通信データを機械学習する。この例では、入力データと出力データを教師データとして機械学習する。基地局102は、機械学習した結果にしたがって、入力データを圧縮する圧縮方法を端末101へ通知し、圧縮されたデータから入力データを推定する推定方法をサービス提供サーバ105へ通知する。
【0025】
コアネットワーク103は、通信システム100のバックボーンとなるネットワークである。コアネットワーク103は、基地局102及びデータネットワーク104と通信可能に接続され、基地局102とデータネットワーク104の間の通信を中継する。
【0026】
データネットワーク104は、サービス提供サーバ105(サービス利用者デバイス106を含んでもよい)のデータを中継するためのネットワークである。データネットワーク104は、例えば、企業や事業者の専用ネットワークやイントラネット、インターネットなどである。データネットワーク104は、コアネットワーク103及びサービス提供サーバ105と通信可能に接続され、コアネットワーク103とサービス提供サーバ105の間の通信を中継する。
【0027】
サービス提供サーバ(第2の通信装置)105は、サービス利用者デバイス106にサービス(データ)を提供するサーバである。サービス提供サーバ105は、データネットワーク104及びサービス利用者デバイス106と通信可能に接続され、端末101からデータネットワーク104を介して入力データを受信し、入力データに基づいた出力データをサービス利用者デバイス106へ送信する。サービス提供サーバ105は、入力データから出力データを生成する出力データ生成処理(機能)を有する。また、サービス提供サーバ105は、基地局102から通知される推定方法にしたがって、圧縮されたデータから入力データを推定する推定装置(復元装置)でもある。
【0028】
サービス利用者デバイス106は、サービスの利用者が使用するデバイスである。サービス利用者デバイス106は、サービス提供サーバ105と通信可能に接続され、サービス提供サーバ105から出力データを受信する。なお、サービス提供サーバ105とサービス利用者デバイス106との間は、出力データを伝送可能に接続されていればよく、接続方法は限定されない。例えば、データネットワーク104を介して接続されてもよいし、他のネットワークを介して接続されてもよい。
【0029】
図4は、本実施の形態に係る基地局の構成例を示している。
図4に示すように、本実施の形態に係る基地局102は、親局201と1つまたは複数の子局202を備えている。親局201は、1つまたは複数の子局202を収容し、コアネットワーク103に接続される中央ユニット(Central Unit:CU)である。子局202は、複数の端末101との間でデータを送受信し、送受信したデータを親局201に転送する。
【0030】
図5は、本実施の形態に係る基地局に含まれる親局の詳しい構成例を示している。
図5に示すように、本実施の形態に係る親局201は、複数の子局インタフェース301、混合部302、非可逆圧縮部306、伝送部303、伝送部307、切替部304、コアネットワークインタフェース305、伝送部308、評価部310、分配部309、プロセッサ311、メモリ312を備えている。
【0031】
プロセッサ311及びメモリ312は、親局201の各インタフェース及び各部(機能)を制御する制御部を構成する。プロセッサ311は各インタフェース及び各部に接続されている。メモリ312にはソフトウェア(プログラム)が記憶されており、プロセッサ311がメモリ312のソフトウェアを実行することで(「ソフトウェア処理」と言う)、各インタフェース及び各部を制御する機能を実現する。
【0032】
子局インタフェース301は、子局202に接続されるインタフェースであり、子局202との間で端末101から受信するデータや端末101へ送信するデータを入出力する。混合部(混合機能)302は、複数の子局インタフェース301が子局202から受信したデータ(通信)を多重化(混合)し、多重化したデータを出力する。混合部302の多重化方法は、ソフトウェア処理によって制御される。伝送部(伝送機能)303は、混合部302から出力されたデータを切替部304へ伝送する。
【0033】
非可逆圧縮部(非可逆圧縮機能)306は、混合部302から出力されたデータを非可逆圧縮し、非可逆圧縮したデータを出力する。伝送部(伝送機能)307は、非可逆圧縮部306により非可逆圧縮されたデータを切替部304へ伝送する。
【0034】
切替部(切替機能)304は、伝送部303から伝送されたデータと伝送部307から伝送されたデータの伝送方法を切り替え、切り替えた方法でデータをコアネットワークインタフェース305へ送信する。切替部304は、伝送されたデータ(通信)が特定用途の端末101からのデータであるか否か、また、特定用途のサーバへ送信されるデータであるか否か識別する。また、切替部304は、伝送されるデータが圧縮されたデータか、圧縮されていないデータかを識別する。
【0035】
切替部304は、伝送部303のデータ(圧縮していないデータ)を送信するか、伝送部307のデータ(圧縮したデータ)を送信するか、双方を多重して送信するか、双方とも送信しないかを切り替える。切替部304は、通信データの送り先を切り替える。切替部304は、通信データの宛先を、ローカルサーバ602宛てに切り替えるか、サービス提供サーバ105宛てに切り替えるか、または、宛先を変更せずに伝送するかを選択する。切替部304は、送信するデータが圧縮していないデータか、圧縮したデータかを示すタグ情報を付与できる。なお、タグ情報を付与しなくてもよい。切替部304の動作は、ソフトウェア処理によって制御される。
【0036】
コアネットワークインタフェース305は、コアネットワーク103に接続されるインタフェースであり、コアネットワーク103との間でサービス提供サーバ105へ送信するデータやコアネットワーク103から受信するデータを入出力する。伝送部(伝送機能)308は、コアネットワークインタフェース305がコアネットワーク103から受信したデータを評価部310及び分配部309へ出力する。評価部(評価機能)310は、伝送部308から伝送されたデータを評価する。
【0037】
分配部(分配機能)309は、伝送部308から伝送されたデータを子局インタフェース301へ分配する。分配部309は、多重された複数の子局202との通信を、それぞれの子局202向けに分配する。分配部309の動作は、ソフトウェア処理によって制御される。
【0038】
子局202からの上り方向の通信は、子局インタフェース301、混合部302、伝送部303、切替部304、コアネットワークインタフェース305を介して、コアネットワーク103に伝送される。上り方向の通信はまた、子局インタフェース301、混合部302、非可逆圧縮部306、伝送部307、切替部304、コアネットワークインタフェース305を介して、コアネットワーク103に伝送される。コアネットワーク103からの下り方向の通信は、コアネットワークインタフェース305、伝送部308、分配部309、子局インタフェース301を介して、子局202に伝送される。下り方向の通信データの一部は、伝送部308から評価部310にも伝送される。
【0039】
図6は、親局201がハードウェアを含むソフトウェア処理によって実現する処理(機能)の構成例を示している。
図6に示すように、親局201は、データ送受信部211、機械学習処理部210、通知部217を備える。また、機械学習処理部210は、変数制御部212、非可逆圧縮処理部213、モデル生成処理部214、データ推定処理部215、評価処理部216を含む。
【0040】
本実施の形態に係る機械学習処理では、特定用途の端末から送信された通信を識別し、また、特定用途のサーバへ送信される通信を識別して、その通信データを教師データとして機械学習する。特に、教師データとして、入力データ(加工されていないデータ)をサービス提供サーバで処理した出力データを用いる。
【0041】
データ送受信部211は、端末101とサービス提供サーバ105との間でデータを送受信し、機械学習に必要なデータを取得する。例えば、データ送受信部211は、端末101からサービス提供サーバ105へ送信された入力データ(特定用途の端末から特定用途のサーバへ送信されたデータ)を取得し、サービス提供サーバ105から送信された出力データ(特定用途のサーバから特定用途のデバイスまたは基地局へ送信されたデータ)を取得する。また、データ送受信部211は、ローカルサーバ602に入力データの推定データを送信し、ローカルサーバ602から出力データの推定データを受信する。例えば、データ送受信部211は、ソフトウェア処理、子局インタフェース301、コアネットワークインタフェース305、伝送部303、伝送部307、伝送部308によって実現される。
【0042】
変数制御部(設定部)212は、機械学習に必要な変数(パラメータ)を制御する。例えば、変数制御部212は、非可逆圧縮処理部213における非可逆圧縮のための変数(圧縮方法、変換方法)を制御し、また、モデル生成処理部214におけるモデル生成のための変数(推定方法)を制御する。変数制御部212は、これらの変数を設定するとともに、評価結果に応じて変数を調整する。例えば、変数制御部212は、ソフトウェア処理によって実現される。
【0043】
非可逆圧縮処理部(変換部)213は、変数の設定にしたがった圧縮方法(変換方法)により、データを非可逆圧縮(変換)する。例えば、非可逆圧縮処理部213は、ソフトウェア処理と非可逆圧縮部306によって実現される。
【0044】
モデル生成処理部(生成部)214は、変数の設定にしたがった推定方法により、非可逆圧縮したデータから元のデータを生成(推定)するためのモデルを作る。モデルとは、機械学習の分野で定義されている学習モデルであり、与えられるデータから学習結果に応じたデータを予測可能とする。例えば、モデル生成処理部214は、ソフトウェア処理によって実現される。モデル生成処理部214は、生成したモデル214aをメモリ312に記憶し、機械学習に応じてモデル214aを更新する。
【0045】
データ推定処理部(推定部)215は、生成されたモデル214aを用いて、非可逆圧縮したデータ(変換後の入力データ)から元のデータ(変換前の入力データ)を推定する。例えば、データ推定処理部215は、ソフトウェア処理によって実現される。
【0046】
評価処理部(評価部)216は、生成されたモデル214aを評価する。評価処理部216は、モデル214aに基づいて推定されるデータを実際のデータと比べて、モデル214aを評価する。例えば、モデル214aにより推定されるデータをローカルサーバ602で処理した処理結果(推定された入力データに基づく出力データ、つまり、加工したデータを処理した結果)と、サービス提供サーバ105の処理結果(サービス提供サーバ105から取得された出力データ、つまり、加工されていないデータを処理した結果)を比較し、モデル214aを評価する。例えば、評価処理部216は、ソフトウェア処理と評価部310によって実現される。なお、親局201に評価部310を備えずに、ソフトウェア処理のみによって評価処理部216を実現してもよい。
【0047】
通知部217は、機械学習した結果(モデル214a)に応じて、入力データを圧縮する方法(調整及び学習された変換方法に関する情報)を端末101に通知し、また、入力データを推定する方法(調整及び学習された推定方法に関する情報)をサービス提供サーバ105に通知する。例えば、通知部217は、ソフトウェア処理、子局インタフェース301、コアネットワークインタフェース305によって実現される。
【0048】
図7は、本実施の形態に係る基地局に含まれる子局の詳しい構成例を示している。
図7に示すように、本実施の形態に係る子局202は、分配ユニット(Distributed Unit:DU)401と1つまたは複数の遠隔ユニット(Remote Unit:RU)402を備えている。分配ユニット401は、親局201に接続されるとともに、1つまたは複数の遠隔ユニット402に接続される。遠隔ユニット402は、複数の端末101に接続され、端末101と無線通信を行って、データを送受信する。
【0049】
図8は、本実施の形態に係るコアネットワークの詳しい構成例を示している。
図8に示すように、本実施の形態に係るコアネットワーク103は、制御プレーン装置501と、ユーザプレーン装置502を備えている。制御プレーン(Control Plane:C-Plane)は、コアネットワークのうち制御信号を伝送するネットワークであり、ユーザプレーン(User Plane:U-Plane)は、ユーザデータ(通信データ)を伝送するネットワークである。
【0050】
制御プレーン装置501は、コアネットワーク103の制御信号中継部であり、基地局102とデータネットワーク104の間で制御信号を中継する。制御プレーン装置501は、基地局102及びユーザプレーン装置502と接続され、さらに、ユーザプレーン装置502とデータネットワーク104を介して、サービス提供サーバ105と接続される。
【0051】
ユーザプレーン装置502は、コアネットワーク103のユーザデータ中継部であり、基地局102とデータネットワーク104の間でユーザデータを中継する。ユーザプレーン装置502は、基地局102、制御プレーン装置501及びデータネットワーク104に接続され、さらに、データネットワーク104を介して、サービス提供サーバ105と接続される。
【0052】
図9は、本実施の形態に係るユーザプレーン装置の詳しい構成例を示している。
図9に示すように、本実施の形態に係るユーザプレーン装置502は、複数のユーザプレーン部(U-Plane機能)603及び604と、ローカルエリアデータネットワーク601と、ローカルサーバ602を備える。
【0053】
ユーザプレーン部603及び604は、基地局102とデータネットワーク104の間で、ユーザデータを中継する。さらに、ユーザプレーン部603は、ローカルサーバ602との間でもユーザデータを中継する。ユーザプレーン部603は、基地局102、制御プレーン装置501、ユーザプレーン部604、及びローカルエリアデータネットワーク601に接続され、さらに、ローカルエリアデータネットワーク601を介して、ローカルサーバ602に接続される。ユーザプレーン部604は、ユーザプレーン部603、制御プレーン装置501、及びデータネットワーク104に接続される。
【0054】
ローカルエリアデータネットワーク601は、ユーザプレーン部603とローカルサーバ602に接続され、ユーザデータを中継する。ローカルサーバ602は、基地局102(親局201)とともに機械学習を行う。具体的には、ローカルサーバ602は、基地局102がモデルにより推定した入力データに基づいて出力データを生成する。ローカルサーバ(出力データ生成部)602は、サービス提供サーバ105と同じ方法(出力データ生成方法)により、入力データから出力データを生成する。
【0055】
<実施の形態1の動作>
次に、本実施の形態に係る通信システムの動作について説明する。
図10は、本実施の形態に係る通信システム100において、端末101からサービス提供サーバ105(サービス利用者デバイス106)までデータが送受信されるデータ送受信動作を示している。
【0056】
図10に示すように、データ送受信動作では、まず、端末101は、入力データを取得(生成)する(S101)。入力データは、サービス提供サーバ105で処理され、サービス利用者デバイス106に提供されるデータである。例えば、端末101は、各種デバイスから取得されるデータを入力データとする。各種デバイスは、端末101に接続されていてもよいし、端末101に内蔵されていてもよい。
【0057】
各種デバイスは、例えば、撮像デバイス、センサデバイス、マイクデバイス、読み取りデバイス、ユーザインタフェース、生体認証デバイス等である。撮像デバイスの場合、入力データは、撮像された動画や静止画のデータである。センサデバイスや測定器の場合、入力データは、測定された測定データであり、例えば、温度、湿度、高度、緯度経度、加速度、傾き、移動量、心拍数、生体データ、流量、圧力、電流値、電圧値、電磁気値、光量、線量、音量、酸性度、科学的・化学的データなどである。マイクデバイスの場合、入力データは、入力された音声データである。読み取りデバイスの場合、入力データは、取得された読み取りデータであり、例えば、バーコードのデータ、QRコード(登録商標)のデータ、RFIDデータ、磁気データなどである。ユーザインタフェースの場合、入力データは、ユーザが入力した入力操作データであり、例えば、キーボード入力によるテキストデータやペンタブレット入力による画像データなどである。生体認証デバイスの場合、入力データは、ユーザが入力した生体認証データであり、例えば、指紋、声紋、虹彩、静脈パターンなどである。
【0058】
また、入力データは、各種デバイスのデータに限らず、その他のハードウェアやソフトウェア処理が生成するデータでもよい。入力データは、端末101の外部のハードウェアやソフトウェア処理により生成されてもよいし、端末101の内部のハードウェアやソフトウェア処理により生成されてもよい。例えば、入力データの形式は、テキストデータ、バイナリデータ、数値データ等である。
【0059】
続いて、端末101とサービス提供サーバ105の間で入力データを送受信する(S102)。端末101が、生成した入力データをサービス提供サーバ105へ送信すると、入力データは、基地局102、コアネットワーク103のユーザプレーン装置502、データネットワーク104の順に転送され、サービス提供サーバ105で受信される。
【0060】
続いて、サービス提供サーバ105は、入力データに基づいて出力データを生成する(S103)。サービス提供サーバ105は、受信した入力データをソフトウェア処理し、入力データに基づいて出力データを生成する。例えば、出力データは、サービス利用者が所望するサービスのデータや情報、サービス利用者が所望するサービスに帰属するデータや情報、サービス利用者デバイス106を制御するデータや情報などである。例えば、サービス提供サーバ105は、端末101から動画や静止画のデータが入力されると、サービス利用者デバイス106用に入力データを所定の形式に変換して、出力データを生成する。出力データの生成処理は、サービスやサービス利用者(デバイス)ごとに決められていてもよいし、端末や入力データ(形式)ごとに決められていてもよい。
【0061】
続いて、サービス利用者デバイス106は、サービス提供サーバ105から出力データを取得する(S104)。例えば、サービス利用者デバイス106は、サービス提供サーバ105に対して、REST API(Representational State Transfer Application Programming Interface)にてHTTPメソッドのGET(リクエスト)を送信し、サービス提供サーバ105から出力データを取得する。サービス利用者デバイス106は、別のAPIによって、サービス利用者デバイス106がサービス提供サーバ105からデータを取得してもよいし、サービス提供サーバ105がサービス利用者デバイス106へ出力データを送付してもよい。
【0062】
図11は、本実施の形態に係る通信システム100における学習動作を示している。本実施の形態では、
図10で説明した通信(データ送受信)を行いながら、その通信データを機械学習する。
【0063】
図11に示すように、まず、基地局102(変数制御部212)は、いくつかの変数を取得する(S201)。取得するいくつかの変数は、機械学習処理で必要な変数であり、非可逆圧縮のパラメータや学習モデルのパラメータ等を含む。予め基地局102の内部のメモリに記憶された変数を取得してもよいし、外部の装置から変数を取得(受信)してもよい。
【0064】
続いて、
図10のS102と同様、端末101とサービス提供サーバ105の間でデータ送受信を行う(S202)。すなわち、端末101からサービス提供サーバ105へ入力データが送信され、基地局102は、端末101から送信された入力データを取得する。
【0065】
続いて、基地局102は、サービス提供サーバ105から出力データを取得する(S203)。サービス提供サーバ105は、
図10のS103と同様、入力データから出力データを生成し、基地局102は、
図10のS104と同様、サービス提供サーバ105から出力データを取得する。
【0066】
続いて、基地局102は、ユーザプレーン装置502のローカルサーバ602と連携して機械学習を行う(S204)。機械学習処理(S204)は、非可逆圧縮処理(S211)、モデル生成処理(S212)、入力データ推定処理(S213)、出力データ生成処理(S214)、評価処理(S215)を含む。
【0067】
機械学習処理では、まず、基地局102(非可逆圧縮処理部213)は、端末101から取得した入力データを非可逆圧縮する(S211)。非可逆圧縮処理は、例えば、入力データを間引く処理、量子化処理、フィルタリング処理、畳み込み処理、プ―リング処理などの処理であり、いずれかの1つの処理でもよいし、複数の処理を含んでもよい。入力データを間引く処理は、例えば、時間で分けられたデータ(時系列データ)を間引く、空間で分けられたデータを間引く、周波数で分けられたデータを間引く、直交符号化・ベクトル分解されたデータを間引く、などである。畳み込み処理は、畳み込み演算とも呼ばれ、例えば離散フーリエ変換などで用いられる処理である。プ―リング処理は、画像処理などに用いられる処理で、例えばウィンドウ内の平均値や最大値を得る処理である。
【0068】
基地局102は、取得された変数にしたがった圧縮方法で入力データを圧縮する。すなわち、非可逆圧縮処理において、どのような圧縮方法を用いるのか、どの程度圧縮するのか、圧縮されたデータ量をいくつ以上でいくつ未満にするか、などの圧縮方法を、S201で得たいくつかの変数によって制御する。
【0069】
続いて、基地局102(モデル生成処理部214)は、非可逆圧縮したデータから、入力データに相当するデータを推定するためのモデル214aを生成する(S212)。モデル生成処理は、例えば、ニューラルネットワークの生成処理や、ニューラルネットワークのノードの重みづけ、パラメータ設定等を含む。基地局102は、取得された変数にしたがった生成方法でモデル214aを生成する。すなわち、モデル生成処理において、どのような種類のモデルを生成するのか、モデルの入力値及び出力値を何にするのか、モデルの層やノードの数、重みをいくつにするのか、などのモデルの生成方法を、S201で得たいくつかの変数によって制御する。生成されたモデル214aはメモリに記憶され、次の機械学習で更新される。モデル生成処理は、機械学習を繰り返す際に、モデルを更新する更新処理でもある。
【0070】
続いて、基地局102(データ推定処理部215)は、生成されたモデル214aを用いて、非可逆圧縮したデータから入力データに相当するデータを推定(生成)する(S213)。基地局102は、モデル214aにS211で生成した非可逆圧縮データを入力して、入力データを推定し、推定した入力データをローカルサーバ602へ出力(送信)する。
【0071】
続いて、ローカルサーバ602は、入力データから出力データを生成する(S214)。ローカルサーバ602は、サービス提供サーバ105が出力データを得る処理(S103)と同じソフトウェア処理、またはそれに類するソフトウェア処理を有する。ローカルサーバ602は、サービス提供サーバ105と同様の処理によって、基地局102が推定した入力データから出力データを生成する。ローカルサーバ602は、入力データの推定データから出力データの推定データを生成し、生成した出力データの推定データを基地局102に提供(送信)する。
【0072】
続いて、基地局102(評価処理部216)は、出力データ(モデル)を評価する(S215)。基地局102は、S203でサービス提供サーバ105から得た出力データと、S214でローカルサーバ602から得た出力データの推定データを比較して、比較結果を示す評価値を出力する。評価値が小さいほど、実際の出力データと出力データの推定データの差が小さいことを示す。例えば評価値をメモリに記憶し、次の機械学習処理で使用する。なお、評価処理において、評価値に限らず、評価値といくつかの変数(評価結果に応じた変数)を出力してもよい。以降、「評価値」の記述は、評価値のみに限らず、評価値といくつかの変数を含む。
【0073】
さらに、S202~S204と同様、端末101とサービス提供サーバ105の間でデータが送受信され(S205)、基地局102は、サービス提供サーバ105から出力データを取得し(S206)、機械学習を行う(S207)。
【0074】
S207の機械学習処理とS204の機械学習処理の違いについて説明する。1つめの違いは、機械学習するデータの違いである。すなわち、S204では、S202で得た入力データと、S203で得た出力データを用いて機械学習する。これに対し、S207では、これらの入力データと出力データに加えて、S205で得た入力データと、S206で得た出力データも用いて機械学習する。
【0075】
2つめの違いは、機械学習の制御に用いる値の違いである。すなわち、S204では、S211の非可逆圧縮の制御とS212のモデル生成の制御を、S201で得た変数を用いて制御する。これに対し、S207は、S201で得た変数とS215で出力した評価値を用いて、S211及びS212の処理を制御する。つまり、S215の評価結果に応じて非可逆圧縮処理の変数を調整し、また、S215の評価結果に応じてモデル生成処理の変数を調整する。評価値に応じて、非可逆圧縮処理(圧縮方法)とモデル生成処理(推定方法)の両方を調整してもよいし、いずれか一方を調整してもよい。例えば、評価値に応じて、非可逆圧縮の圧縮率を変えたり、モデルの重みづけを変えたりしてもよい。
【0076】
本実施の形態では、評価値がある値(定数、またはS201のいくつかの変数のうちのひとつ)よりも小さくなるまで、S207の機械学習を繰り返す。S205で端末101からサービス提供サーバ105に通信があるたびに、S206及びS207の処理を行うことで、通信を妨げることなく、機械学習に用いるデータを増やし、モデルの精度を高めることができる。
【0077】
機械学習に用いるデータとは、端末101からの入力データと、基地局102が非可逆圧縮した入力データと、サービス提供サーバ105が入力データを処理して得られる出力データと、ローカルサーバ602が非可逆圧縮した入力データを処理して得られる出力データである。本実施の形態では、繰り返す回数がある値(定数、またはS201のいくつかの変数のうちのひとつ)を超えるまで、S206とS207を実施し、繰り返す回数がある値を超えた場合、S206とS207の実施を終了する。
【0078】
図12は、
図11における学習動作に続く動作であり、本実施の形態に係る送信側及び受信側の圧縮及び推定動作を示している。例えば、
図11の機械学習処理が終了すると、通信を行いながら、圧縮及び推定方法を切り替えることができる。
【0079】
図12に示すように、まず、基地局102は、入力データを非可逆圧縮する方法を端末101に通知する(S301)。端末101は、基地局102の非可逆圧縮部306と同じ機能、またはこれと類似する機能を備えている。このため、基地局102から非可逆圧縮部306の制御に用いたいくつかの変数(変換のためのパラメータ)を端末101に通知し、端末101がそれらの変数を用いることで、基地局102と同じ方法により非可逆圧縮を行うことができる。
【0080】
また、端末101は、非可逆圧縮部306と同じ機能、またはこれと類似する機能を、ソフトウェア処理によって実現してもよい。例えば、基地局102から非可逆圧縮部306と同じ機能、またはこれと類似する機能を実現するためプログラム(変換を実行するソフトウェア)を端末101に送信し、端末101がこのプログラムを実行することで、基地局102と同じ方法で非可逆圧縮を行ってもよい。
【0081】
続いて、基地局102は、入力データを推定する方法をサービス提供サーバ105に通知する(S302)。サービス提供サーバ105は、基地局102のデータ推定処理部215(及びモデル生成処理部214)と同様に、学習されたモデルを用いてデータを推定する機能を備えている。例えば、この機能は基地局102と同様に、ソフトウェア処理によって実現される。このため、基地局102から、
図11のS212で生成し学習したモデル214aを送信し、サービス提供サーバ105がそのモデルを用いて入力データを推定することで、基地局102と同じ方法により入力データを推定することができる。基地局102から、推定方法(モデル)のための変数(パラメータ)を送信してもよいし、推定方法を実行するプログラムを送信してもよい。この場合、サービス提供サーバ105は、受信した変数やプログラムによりモデルを生成してもよい。
【0082】
なお、この例では、圧縮方法の通知(S301)の後に、推定方法の通知(S302)を行っているが、推定方法の通知(S302)の後に、圧縮方法の通知(S301)を行ってもよい。
【0083】
その後、通知された圧縮方法及び推定方法を用いて、
図10と同様のデータ送受信動作が行われる。すなわち、
図10のS101と同様、端末101が入力データを取得すると、
図10のS102に代わって、S303によりデータが送受信される。
【0084】
S303のデータ送受信処理では、端末101は、S301で通知された圧縮方法によって入力データを非可逆圧縮し(S311)、非可逆圧縮されたデータ(変換後の入力データ)をサービス提供サーバ105へ送信する。サービス提供サーバ105は、基地局102等を介して非可逆圧縮されたデータを受信し、S302で通知された推定方法によって、受信されたデータから入力データ(変換前の入力データ)を推定(非可逆圧縮データを伸長・復元等)する(S312)。
【0085】
続いて、サービス提供サーバ105は、
図10と同様(手順を替えることなく)、S312で推定した入力データから出力データを生成する(S103)。さらに、サービス利用者デバイス106は、
図10と同様(手順を変えることなく)、サービス提供サーバ105から出力データを取得する(S104)。
【0086】
<実施の形態1の効果>
本実施の形態の効果について説明する。第1の効果は、システムやサーバが利用するネットワークの通信データ量を削減できることである。その理由は、本実施の形態の方法によれば、送信側が入力データを非可逆圧縮して送信し、受信側が入力データを推定(非可逆圧縮データを伸長・復元等)するためである。
【0087】
第2の効果は、圧縮した後の通信データ量を任意の量に制御できることである。その理由は、非可逆圧縮方法で圧縮することと、非可逆圧縮方法を変数で制御するためである。可逆圧縮方法は、情報(情報量)を削ることができないのに対し、非可逆圧縮方法は、情報(情報量)を削ることができるためである。
【0088】
第3の効果は、利用者の利便性を損なうことなく、通信データ量を削減できることである。その理由は、通信データを圧縮した際のサーバの出力データ、言い換えるとユーザが利用し得る情報そのものを機械学習に使うためである。ユーザが利用し得る情報を使うことによって、利用者の利便性が損なわれていないことを評価できるためである。本実施の形態では、データを処理した結果をもとに、機械学習のモデルを評価する。すなわち、加工されていない(元のままの)データを処理した結果と、加工したデータ(非可逆圧縮し、それを伸長・復元・補間等したデータ)を処理した結果との差をもとに、機械学習のモデルを評価する。
【0089】
第4の効果は、サービスを提供するシステムの端末やサーバ、それらソフトウェア処理が変更されても、通信装置及び通信方法を変更する必要がなく、サービス利用者に悪影響がないことである。その理由の1つ目は、本実施の形態の通信装置及び通信方法では、基地局またはコアネットワークの中に機械学習の機能・方法を持つためである。その理由の2つ目は、本実施の形態のローカルサーバがサービスを提供するサーバと同じソフトウェア処理、またはそれに類するソフトウェア処理を持つためである。その理由の3つ目は、本実施の形態の通信装置及び通信方法によれば、特定用途の端末から送信された通信であることを識別できるからである。また、特定用途のサーバへ送信される通信であることを識別できるからである。その理由の4つ目は、本実施の形態の通信装置及び通信方法では、通信を行いながら、その通信データを教師データとして機械学習を処理できるためである。その理由の5つ目は、本実施の形態の通信装置及び通信方法では、機械学習のモデルを生成した後、送信側の端末または通信装置が非可逆圧縮できるよう、変数やソフトウェアプログラムを伝えるためであり、また、受信側のサーバや通信装置が非可逆圧縮データを伸長・復元等できるよう、変数やソフトウェアプログラムを伝えるためである。
【0090】
(実施の形態1の変形例)
実施の形態1の変形例として、実施の形態1に係る評価処理部216の別の動作例について説明する。変形例では、評価処理部216は、
図11の評価処理(S215)において、以下の手順で統計学的仮説検定を処理する。
【0091】
まず、評価処理部216は、入力データ推定(S213)で得られたデータと、出力データ生成(S214)で得られたデータとの差を表す評価値を算出する。評価値の算出方法は、例えば、減算や、相関係数の算出、ビットごとの排他的論理和の合算、キャラクタ(文字)単位やワード単位に比較して差異があった数の集計等を含む。評価値の算出方法は、これらのうちの1つでもよいし、これらのうちのいくつかを組み合わせてもよい。評価値の算出方法は、変数aにより制御してもよい。
【0092】
評価処理部216は、算出した評価値(評価値データ)をメモリに記憶し、記憶された評価値は、次の機械学習処理で使用される。さらに、次の機械学習処理における評価処理で算出された評価値もメモリに記憶される。よって、入力データが通信され機械学習が繰り返される毎に、メモリには評価値データが増えてゆく(蓄積される)。
【0093】
メモリに記憶された評価値データの数が、予め与えられた変数bを超えた場合、評価処理部216は仮説検定を行う。具体的には、評価処理部216は予め与えられた変数cにしたがって、仮説検定の種類、確率分布の種類、分散値、棄却域、採択域、有意水準などの仮説検定に必要な値、要素を決める。そして、評価処理部216は、メモリに記憶された評価値の分布が、この確率分布に従っているか否かを検定する演算を行う。換言すると、評価処理部216は、確率分布に従っていないとする帰無仮説が棄却されるか否かを判定する。
【0094】
帰無仮説が棄却されない場合(確率分布に従っていない場合)、機械学習処理(S207)は、モデル生成の処理(機械学習処理)を続ける(反復する)。また、帰無仮説が棄却された場合(確率分布に従っている場合)、機械学習処理を終了し、圧縮方法通知(S301)と推定方法通知(S302)を処理する。
【0095】
例えば、メモリに記憶される評価値データの数は、変数dによって制御される。評価処理部216は、評価値データの数が変数dを超えた場合、最も古い評価値データから順に消去する。
【0096】
評価処理部216は、帰無仮説が棄却された後も、逐次的に統計学的仮説検定の処理を継続する。そして、帰無仮説が棄却されなくなった場合、機械学習処理(S204とS207)により、再びモデル生成の処理を行う。
【0097】
(実施の形態2)
次に、実施の形態2について説明する。本実施の形態は、実施の形態1における基地局に機械学習サーバを備える例である。その他は、実施の形態1と同様である。
【0098】
図13は、本実施の形態に係る基地局の構成例を示している。
図13に示すように、この例では、基地局1001は、親局1002、子局202、機械学習サーバ1004、レイヤ2スイッチ1003を備えている。子局202は、実施の形態1と同じ構成である。
【0099】
親局1002は、レイヤ2スイッチ1003を介してコアネットワーク103と接続され、また、レイヤ2スイッチ1003を介して機械学習サーバ1004と接続される。機械学習サーバ1004は、レイヤ2スイッチ1003を介してコアネットワーク103と接続される。
【0100】
レイヤ2スイッチ1003は、レイヤ2のスイッチ機能を有する。レイヤ2スイッチ1003は、コアネットワーク103、親局1002及び機械学習サーバ1004の間に接続され、各装置及びネットワークの通信を切り替えて中継する。なお、レイヤ2スイッチに限らず、その他の中継装置でもよい。例えば、レイヤ2スイッチ1003は、
図5の親局201の機能のうち、切替部304を有しており、切替部304の切替処理を実行する。切替処理は、デバイス(集積回路)やソフトウェア処理により実現される。切替部304の切替処理は、レイヤ2スイッチ1003と機械学習サーバ1004が備えていてもよい。
【0101】
機械学習サーバ1004は、機械学習処理を実行する学習装置である。機械学習サーバ1004は、
図6の親局201の処理部(ソフトウェア処理)のうち、機械学習処理部210を備えており、必要に応じてデータ送受信部211や通知部217を備える。すなわち、機械学習サーバ1004は、変数制御部212、非可逆圧縮処理部213、モデル生成処理部214、データ推定処理部215、評価処理部216を備え、実施の形態1と同様、
図11の機械学習処理(S204)を実行する。
【0102】
この例では、機械学習サーバ1004は、レイヤ2スイッチ1003を介して、端末101からの入力データを取得し、サービス提供サーバ105からの出力データを取得し、ローカルサーバ602に入力データの推定データを送信し、ローカルサーバ602から出力データの推定データを受信する。なお、親局1002は、実施の形態1の親局201の機能のうち、切替部304及び機械学習処理部210を除いた機能を有する。
【0103】
図14は、本実施の形態に係る他の基地局の構成例を示している。
図14に示すように、この例では、基地局1101は、親局1002、子局202、機械学習サーバ1004、スイッチ装置1102を備えている。
図13と比べて、レイヤ2スイッチ1003の代わりに、スイッチ装置1102を備える。
【0104】
スイッチ装置1102は、親局1002と子局202の間のインタフェースとスイッチ機能を有する。スイッチ装置1102は、親局1002と子局202の間に接続され、各装置の通信を切り替えて中継する。機械学習サーバ1004は、スイッチ装置1102を介して親局1002に接続され、親局1002を介してコアネットワーク103に接続される。
【0105】
この例では、機械学習サーバ1004は、スイッチ装置1102を介して、端末101からの入力データを取得し、スイッチ装置1102及び親局1002を介して、サービス提供サーバ105からの出力データを取得し、ローカルサーバ602に入力データの推定データを送信し、ローカルサーバ602から出力データの推定データを受信する。
【0106】
以上のように、実施の形態1における機械学習処理を基地局内の機械学習サーバにより実現してもよい。この場合でも、実施の形態1と同様の効果が得られるとともに、基地局の親局の負荷を軽減することができる。
【0107】
(実施の形態3)
次に、実施の形態3について説明する。本実施の形態は、実施の形態2における機械学習サーバをコアネットワークのユーザプレーン装置に備える例である。その他は、実施の形態1及び2と同様である。
【0108】
図15は、本実施の形態に係るユーザプレーン装置502の構成例を示している。
図15に示すように、ユーザプレーン装置502は、実施の形態1の
図9と同様に、複数のユーザプレーン部603及び604、ローカルエリアデータネットワーク601、ローカルサーバ602を備え、さらに、実施の形態2と同様の機械学習サーバ1004を備える。
【0109】
機械学習サーバ1004は、ローカルエリアデータネットワーク601と接続され、ローカルエリアデータネットワーク601を介して、ローカルサーバ602に接続され、ローカルエリアデータネットワーク601とユーザプレーン部603を介して、基地局102に接続される。機械学習サーバ1004及びローカルサーバ602は、任意の数の装置としてもよい。
【0110】
この例では、機械学習サーバ1004とローカルサーバ602を合わせて、1つのローカルサーバ1201を構成する。例えば、機械学習サーバ1004とローカルサーバ602をそれぞれ仮想サーバで構成し、仮想サーバを含むローカルサーバ1201を1つの物理サーバで構成してもよい。または、例えば、機械学習サーバ1004とローカルサーバ602のソフトウェア処理を、ローカルサーバ1201のソフトウェア処理で実現してもよい。
【0111】
図16及び
図17は、ローカルサーバ1201の動作を示している。
図16に示すように、ローカルサーバ1201は、実施の形態1の
図11と同様に、いくつかの変数を取得する(S201)。
【0112】
続いて、
図11と同様に、端末101とサービス提供サーバ105の間でデータ送受信を行う(S401)。S401では、この通信を妨げることなく、ローカルサーバ1201は入力データを取得する。具体的には、ユーザプレーン部603は、基地局102から受信したデータを、サービス提供サーバ105とローカルサーバ1201の両方に送信する。さらに、ローカルサーバ1201は、
図11と同様に、サービス提供サーバ105から出力データを取得する(S203)。
【0113】
続いて、ローカルサーバ1201は、S402とS403で機械学習処理を行う。本実施の形態に係る機械学習処理(S402、S403)は、
図11の機械学習処理(S204、S207)と同様に、非可逆圧縮処理(S211)、モデル生成処理(S212)、入力データ推定処理(S213)、出力データ生成処理(S214)、評価処理(S215)を含む。本実施の形態に係る機械学習処理(S402、S403)は、
図11の機械学習処理(S204、S207)と異なり、各処理(S211~S215)が基地局102との連携なしにローカルサーバ1201のみによって実行される。
【0114】
その後、
図17に示すように、ローカルサーバ1201は、実施の形態1の
図12と同様に、入力データを非可逆圧縮する方法を端末101に通知する(S301)。さらに、ローカルサーバ1201は、
図12と同様に、入力データを推定する方法をサービス提供サーバ105に通知する(S302)。その後、
図12と同様に、端末101が入力データを非可逆圧縮し、サービス提供サーバ105が入力データを推定する。
【0115】
以上のように、実施の形態2における機械学習サーバをコアネットワークに設けてもよく、また、機械学習サーバとローカルサーバを一つのサーバとしてもよい。この場合でも、実施の形態1及び2と同様の効果が得られるとともに、基地局の負荷を軽減し、また、一つのサーバで効率よく機械学習処理を行うことができる。
【0116】
(実施の形態4)
次に、実施の形態4について説明する。本実施の形態は、実施の形態1~3におけるサービス提供サーバとは別に入力データ推定サーバを備える例である。その他は、実施の形態1~3と同様である。
【0117】
図18は、本実施の形態に係る通信システム100の構成例を示している。
図18に示すように、通信システム100は、実施の形態1の
図3の構成に加えて、入力データ推定サーバ1301を備える。入力データ推定サーバ1301は、データネットワーク104に接続され、データネットワーク104を介して、コアネットワーク103やサービス提供サーバ105と接続される。入力データ推定サーバ1301は、学習結果(モデル)による推定方法に基づいて、圧縮されたデータから入力データを推定する推定装置である。
【0118】
図19は、入力データ推定サーバ1301の動作を示している。この例では、実施の形態3と同様に、ローカルサーバ1201が機械学習を行い、学習結果に応じて圧縮方法及び推定方法を通知する。なお、実施の形態1及び2と同様に、基地局102が機械学習を行い、学習結果に応じて圧縮方法及び推定方法を通知してもよい。
【0119】
ローカルサーバ1201は、
図17と同様に、入力データを非可逆圧縮する方法を端末101に通知する(S301)。また、ローカルサーバ1201は、
図17と同様に、入力データを推定する方法を入力データ推定サーバ1301に通知する(S302)。
【0120】
端末101は、
図12と同様、S301で通知された圧縮方法によって入力データを非可逆圧縮し(S311)、非可逆圧縮されたデータ(入力データ)を入力データ推定サーバ1301へ送信する。入力データ推定サーバ1301は、
図12と同様に、非可逆圧縮されたデータを受信し、S302で通知された推定方法によって、受信されたデータから入力データを推定(非可逆圧縮データを伸長・復元等)する(S312)。続いて、入力データ推定サーバ1301は、推定した入力データをサービス提供サーバ105に送信する(S501)。その後、サービス提供サーバ105は、推定した入力データから出力データを生成し(S103)、生成した出力データをサービス利用者デバイス106に提供する(S104)。
【0121】
以上のように、実施の形態1~3の通信システムにおいて、サービス提供サーバとは別に入力データ推定サーバを備えてもよい。この場合でも、実施の形態1~3と同様の効果が得られるとともに、サービス提供サーバの負荷を軽減することができる。
【0122】
(その他の実施の形態)
上記実施の形態では、
図12、
図17、
図19のS301において圧縮方法を端末101に通知し、端末101はこの圧縮方法で入力データを非可逆圧縮する。そして、
図12、
図17、
図19のS302において推定方法をサービス提供サーバ105、または入力データ推定サーバ1301に通知し、これらのサーバは入力データを推定(非可逆圧縮データを伸長・復元等)する。
【0123】
これらの例に限らず、その他の送信側装置と受信側装置において、端末101とサービス提供サーバ105または入力データ推定サーバ1301と同様に非可逆圧縮及び入力データ推定を行ってもよい。すなわち、S301において圧縮方法を送信側装置に通知し、送信側装置はこの圧縮方法で入力データを非可逆圧縮する。そして、S302において推定方法を受信側装置に通知し、受信側装置は入力データを推定(非可逆圧縮データを伸長・復元等)する。
【0124】
例えば、送信側装置は、非可逆圧縮する機能を備え、非可逆圧縮する機能はデバイス(集積回路)とソフトウェア処理のいずれか一方または両方により実現される。受信側装置は、入力データを推定(非可逆圧縮データを伸長・復元等)する機能を備え、この機能はデバイス(集積回路)とソフトウェア処理のいずれか一方または両方により実現される。
【0125】
図20は、この場合の送信側装置(データ圧縮装置)と受信側装置(データ復元装置)の具体的な組み合わせの例を示す。例えば、送信側装置は、端末、基地局の遠隔ユニット(RU)、基地局の分配ユニット(DU)、基地局の中央ユニット(CU)、ローカルサーバのうちのいずれかでもよい。また、受信側装置は、基地局の遠隔ユニット(RU)、基地局の分配ユニット(DU)、基地局の中央ユニット(CU)、ローカルサーバ、入力データ推定サーバ、サービス提供サーバのうちのいずれかでもよい。なお、無線通信ネットワークと装置の構成によっては、
図20の例に限らず、送信側装置のいずれかと受信側装置のいずれかを任意に組み合わせてもよい。
【0126】
また、さらに他の例として、上記実施の形態のソフトウェア処理のいくつかを、コアネットワーク103の制御プレーン装置501で実行してもよい。例えば、制御プレーン装置501は、ソフトウェア処理によって基地局102やユーザプレーン装置502を制御する。制御プレーン装置501は、上記実施の形態のいくつかの変数やソフトウェア、入力データ、出力データ、推定データを、基地局102やユーザプレーン装置502との間で伝達(入出力)してもよい。
【0127】
なお、本開示は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。例えば、上記実施の形態では、通信データを非可逆圧縮(間引き含む)する例について説明したが、その他の圧縮方法や変換方法(フォーマット変換、サイズ変換等)に適用してもよい。
【0128】
上述の実施形態における各構成は、ハードウェア又はソフトウェア、もしくはその両方によって構成され、1つのハードウェア又はソフトウェアから構成してもよいし、複数のハードウェア又はソフトウェアから構成してもよい。各装置の機能(処理)を、CPU(Central Processing Unit)やメモリ等を有するコンピュータにより実現してもよい。例えば、記憶装置に実施形態における方法を行うためのプログラムを格納し、各機能を、記憶装置に格納されたプログラムをCPUで実行することにより実現してもよい。
【0129】
これらのプログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、CD-ROM(Read Only Memory)、CD-R、CD-R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(random access memory))を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
【0130】
上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
(付記1)
ネットワークに伝送される通信データを取得する取得部と、
前記取得された通信データを教師データとして機械学習する学習部と、
を備える、学習装置。
(付記2)
前記学習部は、前記取得された通信データを教師データとして、前記ネットワークの伝送前後の通信データを機械学習する、
付記1に記載の学習装置。
(付記3)
前記ネットワークは第1の通信装置と第2の通信装置を含み、
前記取得部は、前記第1の通信装置から前記第2の通信装置へ送信された入力データと、前記第2の通信装置が前記入力データに基づいて出力する出力データとを取得し、
前記学習部は、前記取得された入力データと前記取得された出力データを教師データとして機械学習する、
付記2に記載の学習装置。
(付記4)
前記学習部は、
前記取得された入力データを所定の変換方法で変換する変換部と、
前記変換後の入力データから変換前の入力データを推定する学習モデルを生成する生成部と、
前記学習モデルを用いて、前記変換後の入力データから変換前の入力データを推定する推定部と、
前記推定された入力データに基づく出力データと前記取得された出力データとを比較し、前記学習モデルを評価する評価部と、を備える、
付記3に記載の学習装置。
(付記5)
前記第2の通信装置が実行する出力データ生成方法により、前記推定された入力データに基づく出力データを生成する出力データ生成部をさらに備える、
付記4に記載の学習装置。
(付記6)
前記変換方法を設定する設定部をさらに備え、
前記設定部は、前記評価結果に基づいて前記変換方法を調整する、
付記4または5に記載の学習装置。
(付記7)
前記調整された変換方法に関する情報を前記第1の通信装置へ通知する通知部をさらに備える、
付記6に記載の学習装置。
(付記8)
前記変換方法に関する情報は、前記変換方法のためのパラメータ、または、前記変換方法を実行するプログラムの情報を含む、
付記6または7に記載の学習装置。
(付記9)
前記所定の変換方法は、非可逆圧縮方法である、
付記4乃至8のいずれかに記載の学習装置。
(付記10)
前記学習モデルを生成するための推定方法を設定する設定部をさらに備え、
前記設定部は、前記評価結果に基づいて前記推定方法を調整する、
付記4または5に記載の学習装置。
(付記11)
前記調整された推定方法に関する情報を前記第2の通信装置へ通知する通知部をさらに備える、
付記10に記載の学習装置。
(付記12)
前記推定方法に関する情報は、前記推定方法のためのパラメータ、前記推定方法を実行するプログラムの情報、または、前記学習モデルの情報を含む、
付記10または11に記載の学習装置。
(付記13)
第1の通信装置と第2の通信装置と学習装置とを備え、
前記学習装置は、
前記第1の通信装置と前記第2の通信装置を含むネットワークに伝送される通信データを取得する取得部と、
前記取得された通信データを教師データとして機械学習する学習部と、
を備える、通信システム。
(付記14)
前記第1の通信装置と前記第2の通信装置との間の通信を中継する中継装置を備え、
前記中継装置は、前記学習装置を含む、
付記13に記載の通信システム。
(付記15)
前記学習部は、前記取得された通信データを教師データとして、前記ネットワークの伝送前後の通信データを機械学習する、
付記13または14に記載の通信システム。
(付記16)
前記取得部は、前記第1の通信装置から前記第2の通信装置へ送信された入力データと、前記第2の通信装置が前記入力データに基づいて出力する出力データとを取得し、
前記学習部は、前記取得された入力データと前記取得された出力データを教師データとして機械学習する、
付記15に記載の通信システム。
(付記17)
前記第2の通信装置の出力データ生成処理を実行する出力データ生成装置を備え、
前記学習装置は、前記出力データ生成装置が生成した出力データを用いて機械学習する、
付記16に記載の通信システム。
(付記18)
前記学習装置と前記出力データ生成装置とを含むサーバを備える、
付記17に記載の通信システム。
(付記19)
前記第1の通信装置は、前記機械学習の結果に基づいて、前記入力データを所定の変換方法で変換する、
付記16乃至18のいずれかに記載の通信システム。
(付記20)
前記第2の通信装置は、前記機械学習の結果に基づいて、前記変換後の入力データから変換前の入力データを推定する、
付記19に記載の通信システム。
(付記21)
前記機械学習の結果に基づいて、前記変換後の入力データから変換前の入力データを推定する推定装置を備える、
付記19に記載の通信システム。
(付記22)
ネットワークに伝送される通信データを取得し、
前記取得された通信データを教師データとして機械学習する、
学習方法。
(付記23)
前記機械学習では、前記取得された通信データを教師データとして、前記ネットワークの伝送前後の通信データを機械学習する、
付記22に記載の学習方法。
(付記24)
ネットワークに伝送される通信データを取得し、
前記取得された通信データを教師データとして機械学習する、
処理をコンピュータに実行させるための学習プログラム。
(付記25)
前記機械学習では、前記取得された通信データを教師データとして、前記ネットワークの伝送前後の通信データを機械学習する、
付記24に記載の学習プログラム。
【符号の説明】
【0131】
1 通信システム
10 学習装置
11 取得部
12 学習部
20 ネットワーク
21、22 通信装置
100 通信システム
101 端末
102 基地局
103 コアネットワーク
104 データネットワーク
105 サービス提供サーバ
106 サービス利用者デバイス
201 親局
202 子局
210 機械学習処理部
211 データ送受信部
212 変数制御部
213 非可逆圧縮処理部
214 モデル生成処理部
214a モデル
215 データ推定処理部
216 評価処理部
217 通知部
301 子局インタフェース
302 混合部
303 伝送部
304 切替部
305 コアネットワークインタフェース
306 非可逆圧縮部
307、308 伝送部
309 分配部
310 評価部
311 プロセッサ
312 メモリ
401 分配ユニット
402 遠隔ユニット
501 制御プレーン装置
502 ユーザプレーン装置
601 ローカルエリアデータネットワーク
602 ローカルサーバ
603、604 ユーザプレーン部
1001 基地局
1002 親局
1003 レイヤ2スイッチ
1004 機械学習サーバ
1101 基地局
1102 スイッチ装置
1201 ローカルサーバ
1301 入力データ推定サーバ