(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公表特許公報(A)
(11)【公表番号】
(43)【公表日】2024-05-01
(54)【発明の名称】トレーニングデータセット取得方法、無線伝送方法、装置及び通信機器
(51)【国際特許分類】
H04W 24/02 20090101AFI20240423BHJP
H04W 28/18 20090101ALI20240423BHJP
【FI】
H04W24/02
H04W28/18 110
【審査請求】有
【予備審査請求】未請求
(21)【出願番号】P 2023569669
(86)(22)【出願日】2022-05-11
(85)【翻訳文提出日】2023-11-09
(86)【国際出願番号】 CN2022092144
(87)【国際公開番号】W WO2022237822
(87)【国際公開日】2022-11-17
(31)【優先権主張番号】202110513732.0
(32)【優先日】2021-05-11
(33)【優先権主張国・地域又は機関】CN
(81)【指定国・地域】
【公序良俗違反の表示】
(特許庁注:以下のものは登録商標)
(71)【出願人】
【識別番号】517372494
【氏名又は名称】維沃移動通信有限公司
【氏名又は名称原語表記】VIVO MOBILE COMMUNICATION CO., LTD.
【住所又は居所原語表記】No.1, vivo Road, Chang’an, Dongguan,Guangdong 523863, China
(74)【代理人】
【識別番号】100098394
【氏名又は名称】山川 茂樹
(72)【発明者】
【氏名】サン,ブル
(72)【発明者】
【氏名】ジャン,ダージエ
(72)【発明者】
【氏名】ヤン,アン
(72)【発明者】
【氏名】ジー,ズーチャオ
【テーマコード(参考)】
5K067
【Fターム(参考)】
5K067EE02
5K067EE10
5K067HH22
(57)【要約】
本出願は、トレーニングデータセット取得方法、無線伝送方法、装置及び通信機器を開示し、通信技術分野に属する。本出願の実施例のトレーニングデータセット取得方法は、ニューラルネットワークの最適化目標に対する各伝送条件の寄与度に基づき、各前記伝送条件におけるトレーニングデータのデータ量を決定するステップと、各前記伝送条件におけるトレーニングデータのデータ量に基づき、各前記伝送条件におけるトレーニングデータを取得して、前記ニューラルネットワークをトレーニングするためのトレーニングデータセットを形成するステップと、を含み、ニューラルネットワークの最適化目標に対する伝送条件の前記寄与度は、前記ニューラルネットワークの最適化目標の値に対する前記伝送条件の影響度を表す。
【選択図】
図2
【特許請求の範囲】
【請求項1】
ニューラルネットワークの最適化目標に対する各伝送条件の寄与度に基づき、各前記伝送条件におけるトレーニングデータのデータ量を決定するステップと、
各前記伝送条件におけるトレーニングデータのデータ量に基づき、各前記伝送条件におけるトレーニングデータを取得して、前記ニューラルネットワークをトレーニングするためのトレーニングデータセットを形成するステップと、を含み、
ニューラルネットワークの最適化目標に対する伝送条件の前記寄与度は、前記ニューラルネットワークの最適化目標の値に対する前記伝送条件の影響度を表す、トレーニングデータセット取得方法。
【請求項2】
ニューラルネットワークの最適化目標に対する各伝送条件の寄与度に基づき、各前記伝送条件におけるトレーニングデータのデータ量を決定する前記ステップは、
各前記伝送条件の寄与度をソートするステップと、
等しい割合で混合する上で、前記ソートにおける大きい寄与度に対応する伝送条件におけるトレーニングデータのデータ量を減少させる操作と、前記ソートにおける小さい寄与度に対応する伝送条件におけるトレーニングデータのデータ量を増加させる操作とのうちの少なくとも1つを実行するステップと、を含む、請求項1に記載のトレーニングデータセット取得方法。
【請求項3】
前記伝送条件のタイプは、
信号対雑音比又は信号対干渉雑音比、
基準信号受信電力、
信号強度、
干渉強度、
端末の移動速度、
チャネルパラメータ、
端末の基地局からの距離、
セルサイズ、
キャリア周波数、
変調次数又は変調符号化ポリシー、
セルタイプ、
ステーション間隔、
天気と環境要因、
送信側又は受信側のアンテナ配置情報、
端末の能力又はタイプ、
基地局の能力又はタイプのうちの少なくとも1つを含む、請求項1又は2に記載のトレーニングデータセット取得方法。
【請求項4】
各前記伝送条件におけるトレーニングデータを取得して、前記ニューラルネットワークをトレーニングするためのトレーニングデータセットを形成する前記ステップは、
各前記伝送条件におけるトレーニングデータのデータ量に基づき、各前記伝送条件におけるデータを収集してキャリブレーションし、各前記伝送条件におけるトレーニングデータセットを構成するステップ、
又は、
各前記伝送条件における設定数のデータを収集し、各前記伝送条件におけるトレーニングデータのデータ量に基づき、前記設定数のデータから一部のデータを選択してキャリブレーションするか、又は前記設定数のデータを補完してキャリブレーションし、各前記伝送条件におけるトレーニングデータセットを構成するステップを含む、請求項1又は2に記載のトレーニングデータセット取得方法。
【請求項5】
前記ソートにおける大きい寄与度に対応する伝送条件におけるトレーニングデータのデータ量を減少させる操作と、前記ソートにおける小さい寄与度に対応する伝送条件におけるトレーニングデータのデータ量を増加させる操作とのうちの少なくとも1つを実行する前記ステップは、
前記ソートにおける大きい寄与度に対応する伝送条件におけるトレーニングデータのデータ量を減少させる操作と、前記ソートにおける小さい寄与度に対応する伝送条件におけるトレーニングデータのデータ量を増加させる操作とのうちの少なくとも1つを次のルールに従って実行するステップを含み、前記ルールは、
前記大きい寄与度の値が大きいほど、前記減少の幅が大きくなり、前記小さい寄与度の値が小さいほど、前記増加の幅が大きくなることを含む、請求項2に記載のトレーニングデータセット取得方法。
【請求項6】
前記ソートの結果が小さいものから大きいものへの場合、前記伝送条件におけるトレーニングデータのデータ量は前記ソートの方向に漸減し、前記ソートの結果が大きいものから小さいものへの場合、前記伝送条件におけるトレーニングデータのデータ量は前記ソートの方向に漸増する、請求項5に記載のトレーニングデータセット取得方法。
【請求項7】
前記ソートにおける大きい寄与度に対応する伝送条件におけるトレーニングデータのデータ量を減少させる操作と、前記ソートにおける小さい寄与度に対応する伝送条件におけるトレーニングデータのデータ量を増加させる操作とのうちの少なくとも1つを実行する前記ステップは、
前記ソートに基づいて基準寄与度を決定し、前記伝送条件の寄与度と前記基準寄与度を比較するステップと、
比較の結果に応じて、次の操作のうちの少なくとも1つを実行するステップと、を含み、前記操作は、
前記伝送条件の寄与度が前記基準寄与度よりも大きい場合、前記伝送条件の寄与度を前記大きい寄与度と決定し、前記伝送条件におけるトレーニングデータのデータ量を減少させる操作と、
前記伝送条件の寄与度が前記基準寄与度よりも大きくない場合、前記伝送条件の寄与度を前記小さい寄与度と決定し、前記伝送条件におけるトレーニングデータのデータ量を増加させる操作と、を含む、請求項2に記載のトレーニングデータセット取得方法。
【請求項8】
前記基準寄与度は、前記ソートの中央値、又は前記ソートにおける設定位置の寄与度、又は前記ソートにおける各寄与度の平均値、又は前記ソートにおける前記平均値に最も近い寄与度である、請求項7に記載のトレーニングデータセット取得方法。
【請求項9】
ニューラルネットワークの最適化目標に対する各伝送条件の寄与度に基づき、各前記伝送条件におけるトレーニングデータのデータ量を決定する前記ステップは、
実際の応用における各前記伝送条件の確率密度に基づき、各前記伝送条件に対応する重み付け係数を決定するステップと、
前記最適化目標に対する各前記伝送条件の寄与度を基に、前記重み付け係数と組み合わせて、各前記伝送条件におけるトレーニングデータのデータ量を決定するステップと、を含む、請求項1、2、5~8のいずれか1項に記載のトレーニングデータセット取得方法。
【請求項10】
前記重み付け係数と前記確率密度は関数的に漸増する関係にある、請求項9に記載のトレーニングデータセット取得方法。
【請求項11】
前記トレーニングデータセットを目標機器に送信するステップをさらに含み、前記目標機器は、前記トレーニングデータセットに基づいて前記ニューラルネットワークをトレーニングするために用いられる、請求項1、2、5~8、10のいずれか1項に記載のトレーニングデータセット取得方法。
【請求項12】
前記トレーニングデータセットを目標機器に送信する前記ステップは、
前記トレーニングデータセットを前記目標機器に直接送信し、又は前記トレーニングデータセットを設定変換後に前記目標機器に送信するステップを含み、前記設定変換は、特定の量子化、特定の圧縮、及び予め約束又は配置されたニューラルネットワークに従って処理することのうちの少なくとも1つを含む、請求項11に記載のトレーニングデータセット取得方法。
【請求項13】
ニューラルネットワークの最適化目標に対する各伝送条件の寄与度に基づき、各前記伝送条件におけるトレーニングデータのデータ量を決定するための第1処理モジュールと、
各前記伝送条件におけるトレーニングデータのデータ量に基づき、各前記伝送条件におけるトレーニングデータを取得して、前記ニューラルネットワークをトレーニングするためのトレーニングデータセットを形成するための第2処理モジュールと、を備え、
ニューラルネットワークの最適化目標に対する伝送条件の前記寄与度は、前記ニューラルネットワークの最適化目標の値に対する前記伝送条件の影響度を表す、トレーニングデータセット取得装置。
【請求項14】
前記第1処理モジュールは、
各前記伝送条件の寄与度をソートし、そして
等しい割合で混合する上で、前記ソートにおける大きい寄与度に対応する伝送条件におけるトレーニングデータのデータ量を減少させる操作と、前記ソートにおける小さい寄与度に対応する伝送条件におけるトレーニングデータのデータ量を増加させる操作とのうちの少なくとも1つを実行するために用いられる、請求項13に記載のトレーニングデータセット取得装置。
【請求項15】
前記伝送条件のタイプは、
信号対雑音比又は信号対干渉雑音比、
基準信号受信電力、
信号強度、
干渉強度、
端末の移動速度、
チャネルパラメータ、
端末の基地局からの距離、
セルサイズ、
キャリア周波数、
変調次数又は変調符号化ポリシー、
セルタイプ、
ステーション間隔、
天気と環境要因、
送信側又は受信側のアンテナ配置情報、
端末の能力又はタイプ、
基地局の能力又はタイプのうちの少なくとも1つを含む、請求項13又は14に記載のトレーニングデータセット取得装置。
【請求項16】
前記第2処理モジュールは、
各前記伝送条件におけるトレーニングデータのデータ量に基づき、各前記伝送条件におけるデータを収集してキャリブレーションし、各前記伝送条件におけるトレーニングデータセットを構成するために、
又は、
各前記伝送条件における設定数のデータを収集し、各前記伝送条件におけるトレーニングデータのデータ量に基づき、前記設定数のデータから一部のデータを選択してキャリブレーションするか、又は前記設定数のデータを補完してキャリブレーションし、各前記伝送条件におけるトレーニングデータセットを構成するために用いられる、請求項13又は14に記載のトレーニングデータセット取得装置。
【請求項17】
前記第1処理モジュールは、前記ソートにおける大きい寄与度に対応する伝送条件におけるトレーニングデータのデータ量を減少させる操作と、前記ソートにおける小さい寄与度に対応する伝送条件におけるトレーニングデータのデータ量を増加させる操作とのうちの少なくとも1つを実行する前記ステップに用いられる時、
前記ソートにおける大きい寄与度に対応する伝送条件におけるトレーニングデータのデータ量を減少させる操作と、前記ソートにおける小さい寄与度に対応する伝送条件におけるトレーニングデータのデータ量を増加させる操作とのうちの少なくとも1つを次のルールに従って実行するために用いられ、前記ルールは、
前記大きい寄与度の値が大きいほど、前記減少の幅が大きくなり、前記小さい寄与度の値が小さいほど、前記増加の幅が大きくなることを含む、請求項14に記載のトレーニングデータセット取得装置。
【請求項18】
前記ソートの結果が小さいものから大きいものへの場合、前記伝送条件におけるトレーニングデータのデータ量は前記ソートの方向に漸減し、前記ソートの結果が大きいものから小さいものへの場合、前記伝送条件におけるトレーニングデータのデータ量は前記ソートの方向に漸増する、請求項17に記載のトレーニングデータセット取得装置。
【請求項19】
前記第1処理モジュールは、前記ソートにおける大きい寄与度に対応する伝送条件におけるトレーニングデータのデータ量を減少させる操作と、前記ソートにおける小さい寄与度に対応する伝送条件におけるトレーニングデータのデータ量を増加させる操作とのうちの少なくとも1つを実行する前記ステップに用いられる時、
前記ソートに基づいて基準寄与度を決定し、前記伝送条件の寄与度と前記基準寄与度を比較し、そして
比較の結果に応じて、次の操作のうちの少なくとも1つを実行するために用いられ、前記操作は、
前記伝送条件の寄与度が前記基準寄与度よりも大きい場合、前記伝送条件の寄与度を前記大きい寄与度と決定し、前記伝送条件におけるトレーニングデータのデータ量を減少させる操作と、
前記伝送条件の寄与度が前記基準寄与度よりも大きくない場合、前記伝送条件の寄与度を前記小さい寄与度と決定し、前記伝送条件におけるトレーニングデータのデータ量を増加させる操作と、を含む、請求項14に記載のトレーニングデータセット取得装置。
【請求項20】
前記基準寄与度は、前記ソートの中央値、又は前記ソートにおける設定位置の寄与度、又は前記ソートにおける各寄与度の平均値、又は前記ソートにおける前記平均値に最も近い寄与度である、請求項19に記載のトレーニングデータセット取得装置。
【請求項21】
前記第1処理モジュールはさらに、
実際の応用における各前記伝送条件の確率密度に基づき、各前記伝送条件に対応する重み付け係数を決定し、そして
前記最適化目標に対する各前記伝送条件の寄与度を基に、前記重み付け係数と組み合わせて、各前記伝送条件におけるトレーニングデータのデータ量を決定するために用いられる、請求項13、14、17~20のいずれか1項に記載のトレーニングデータセット取得装置。
【請求項22】
前記重み付け係数と前記確率密度は関数的に漸増する関係にある、請求項21に記載のトレーニングデータセット取得装置。
【請求項23】
前記トレーニングデータセットを目標機器に送信するための送信モジュールをさらに備え、前記目標機器は、前記トレーニングデータセットに基づいて前記ニューラルネットワークをトレーニングするために用いられる、請求項13、14、17~20、22のいずれか1項に記載のトレーニングデータセット取得装置。
【請求項24】
前記送信モジュールは、
前記トレーニングデータセットを前記目標機器に直接送信し、又は前記トレーニングデータセットを設定変換後に前記目標機器に送信するために用いられ、前記設定変換は、特定の量子化、特定の圧縮、及び予め約束又は配置されたニューラルネットワークに従って処理することのうちの少なくとも1つを含む、請求項23に記載のトレーニングデータセット取得装置。
【請求項25】
ニューラルネットワークモデルに基づき、無線伝送演算を行い、前記無線伝送を実現するステップを含み、
前記ニューラルネットワークモデルは、予めトレーニングデータセットを利用してトレーニングされたものであり、前記トレーニングデータセットは、請求項1~12のいずれか1項に記載のトレーニングデータセット取得方法に基づいて取得される、無線伝送方法。
【請求項26】
ニューラルネットワークモデルに基づき、無線伝送演算を行う前記ステップの前に、
前記トレーニングデータセットに基づき、
単一の端末の集中トレーニング、
単一のネットワーク側機器の集中トレーニング、
複数の端末の共同分散トレーニング、
複数のネットワーク側機器の共同分散トレーニング、
単一のネットワーク側機器と複数の端末の共同分散トレーニング、
複数のネットワーク側機器と複数の端末の共同分散トレーニング、
複数のネットワーク側機器と単一の端末の共同分散トレーニング、を含むトレーニング方式のうちのいずれか1つを利用して、前記ニューラルネットワークモデルをトレーニングして取得するステップをさらに含む、請求項25に記載の無線伝送方法。
【請求項27】
前記ネットワーク側機器は、アクセスネットワーク機器、コアネットワーク機器、又はデータネットワーク機器である、請求項26に記載の無線伝送方法。
【請求項28】
前記分散トレーニングの過程で、各前記伝送条件におけるトレーニングデータの割合を、前記分散トレーニングを行う各主体間で共有するステップをさらに含む、請求項26又は27に記載の無線伝送方法。
【請求項29】
前記分散トレーニングが複数のネットワーク側機器の共同分散トレーニングである場合、前記複数のネットワーク側機器のうちのいずれか1つのネットワーク側機器により、各前記伝送条件におけるトレーニングデータの割合を計算して決定し、前記割合を第1設定タイプのインタフェースシグナリングを介して前記複数のネットワーク側機器のうち前記いずれか1つのネットワーク側機器以外の他のネットワーク側機器に送信する、請求項28に記載の無線伝送方法。
【請求項30】
前記第1設定タイプのインタフェースシグナリングは、Xnインタフェースシグナリング、N1インタフェースシグナリング、N2インタフェースシグナリング、N3インタフェースシグナリング、N4インタフェースシグナリング、N5インタフェースシグナリング、N6インタフェースシグナリング、N7インタフェースシグナリング、N8インタフェースシグナリング、N9インタフェースシグナリング、N10インタフェースシグナリング、N11インタフェースシグナリング、N12インタフェースシグナリング、N13インタフェースシグナリング、N14インタフェースシグナリング、N15インタフェースシグナリング、又はN22インタフェースシグナリングを含む、請求項29に記載の無線伝送方法。
【請求項31】
前記分散トレーニングが複数の端末の共同分散トレーニングである場合、前記複数の端末のうちのいずれか1つの端末により、各前記伝送条件におけるトレーニングデータの割合を計算して決定し、前記割合を第2設定タイプのインタフェースシグナリングを介して前記複数の端末のうち前記いずれか1つの端末以外の他の端末に送信する、請求項28に記載の無線伝送方法。
【請求項32】
前記第2設定タイプのインタフェースシグナリングは、PC5インタフェースシグナリング又はsidelinkインタフェースシグナリングを含む、請求項31に記載の無線伝送方法。
【請求項33】
前記分散トレーニングがネットワーク側機器と端末の共同分散トレーニングである場合、前記ネットワーク側機器及び端末のうちのいずれか1つのネットワーク側機器又はいずれか1つの端末により、各前記伝送条件におけるトレーニングデータの割合を計算して決定し、前記割合を第3設定タイプのシグナリングを介して前記ネットワーク側機器及び端末のうち前記いずれか1つのネットワーク側機器又はいずれか1つの端末以外の他のネットワーク側機器又は端末に送信する、請求項28に記載の無線伝送方法。
【請求項34】
前記第3設定タイプのシグナリングは、RRC、PDCCH層1シグナリング、PDSCH、MAC CE、SIB、Xnインタフェースシグナリング、N1インタフェースシグナリング、N2インタフェースシグナリング、N3インタフェースシグナリング、N4インタフェースシグナリング、N5インタフェースシグナリング、N6インタフェースシグナリング、N7インタフェースシグナリング、N8インタフェースシグナリング、N9インタフェースシグナリング、N10インタフェースシグナリング、N11インタフェースシグナリング、N12インタフェースシグナリング、N13インタフェースシグナリング、N14インタフェースシグナリング、N15インタフェースシグナリング、N22インタフェースシグナリング、PUCCH層1シグナリング、PUSCH、PRACHのMSG1、PRACHのMSG3、PRACHのMSG A、PC5インタフェースシグナリング、又はsidelinkインタフェースシグナリングを含む、請求項33に記載の無線伝送方法。
【請求項35】
前記伝送条件におけるリアルタイムデータを取得し、前記リアルタイムデータに基づき、トレーニング済みのニューラルネットワークモデルをオンラインで調整するステップをさらに含む、請求項26、27、29~34のいずれか1項に記載の無線伝送方法。
【請求項36】
前記伝送条件におけるリアルタイムデータを取得し、前記リアルタイムデータに基づき、トレーニング済みのニューラルネットワークモデルをオンラインで調整する前記ステップは、
各前記伝送条件におけるトレーニングデータの割合に基づき、各前記伝送条件におけるリアルタイムデータを取得するステップと、
前記伝送条件のうちのいずれか1つの伝送条件におけるリアルタイムデータの割合が、前記いずれか1つの伝送条件におけるトレーニングデータの割合よりも高い場合、前記トレーニング済みのニューラルネットワークモデルをオンラインで調整する過程で、前記いずれか1つの伝送条件におけるリアルタイムデータのうち、前記いずれか1つの伝送条件におけるトレーニングデータの割合を超過したデータを、前記トレーニング済みのニューラルネットワークモデルに入力しないステップと、を含む、請求項35に記載の無線伝送方法。
【請求項37】
各前記伝送条件におけるリアルタイムデータを取得する前記ステップは、
ネットワーク側機器及び端末のうちの少なくとも1つの各前記伝送条件におけるデータを、各前記伝送条件におけるリアルタイムデータとしてオンラインで収集するステップを含み、
トレーニング済みのニューラルネットワークモデルをオンラインで調整する前記ステップは、
前記ネットワーク側機器及び端末のうちの少なくとも1つの各前記伝送条件におけるデータに基づき、前記ネットワーク側機器又は前記端末を利用して、前記トレーニング済みのニューラルネットワークモデルをオンラインで調整するステップを含む、請求項36に記載の無線伝送方法。
【請求項38】
前記ネットワーク側機器又は前記端末がトレーニング段階で各前記伝送条件におけるトレーニングデータの割合を取得していない場合、各前記伝送条件におけるトレーニングデータの割合に基づき、各前記伝送条件におけるリアルタイムデータを取得する前記ステップの前に、
前記ネットワーク側機器により、Xnインタフェースシグナリング、N1インタフェースシグナリング、N2インタフェースシグナリング、N3インタフェースシグナリング、N4インタフェースシグナリング、N5インタフェースシグナリング、N6インタフェースシグナリング、N7インタフェースシグナリング、N8インタフェースシグナリング、N9インタフェースシグナリング、N10インタフェースシグナリング、N11インタフェースシグナリング、N12インタフェースシグナリング、N13インタフェースシグナリング、N14インタフェースシグナリング、N15インタフェースシグナリング、及びN22インタフェースシグナリングのうちのいずれか1つのインタフェースシグナリングを介して、前記トレーニング段階のネットワーク側機器から各前記伝送条件におけるトレーニングデータの割合を取得するステップ、
又は、前記ネットワーク側機器により、PUCCH層1シグナリング、PUSCH、PRACHのMSG1、PRACHのMSG3、及びPRACHのMSG Aのうちのいずれか1つのシグナリングを介して、前記トレーニング段階の端末から各前記伝送条件におけるトレーニングデータの割合を取得するステップ、
又は、前記端末により、PC5インタフェースシグナリング又はsidelinkインタフェースシグナリングを介して、前記トレーニング段階の端末から各前記伝送条件におけるトレーニングデータの割合を取得するステップ、
又は、前記端末により、RRC、PDCCH層1シグナリング、PUSCH、MAC CE、及びSIBのうちのいずれか1つのシグナリングを介して、前記トレーニング段階のネットワーク側機器から各前記伝送条件におけるトレーニングデータの割合を取得するステップ、をさらに含む、請求項37に記載の無線伝送方法。
【請求項39】
ニューラルネットワークモデルに基づき、無線伝送演算を行い、前記無線伝送を実現するための第3処理モジュールを備え、
前記ニューラルネットワークモデルは、予めトレーニングデータセットを利用してトレーニングされたものであり、前記トレーニングデータセットは、請求項1~12のいずれか1項に記載のトレーニングデータセット取得方法に基づいて取得される、無線伝送装置。
【請求項40】
前記トレーニングデータセットに基づき、
単一の端末の集中トレーニング、
単一のネットワーク側機器の集中トレーニング、
複数の端末の共同分散トレーニング、
複数のネットワーク側機器の共同分散トレーニング、
単一のネットワーク側機器と複数の端末の共同分散トレーニング、
複数のネットワーク側機器と複数の端末の共同分散トレーニング、
複数のネットワーク側機器と単一の端末の共同分散トレーニング、を含むトレーニング方式のうちのいずれか1つを利用して、前記ニューラルネットワークモデルをトレーニングして取得するためのトレーニングモジュールをさらに備える、請求項39に記載の無線伝送装置。
【請求項41】
前記ネットワーク側機器は、アクセスネットワーク機器、コアネットワーク機器、又はデータネットワーク機器である、請求項40に記載の無線伝送装置。
【請求項42】
前記分散トレーニングの過程で、各前記伝送条件におけるトレーニングデータの割合を、前記分散トレーニングを行う各主体間で共有するための第4処理モジュールをさらに備える、請求項40又は41に記載の無線伝送装置。
【請求項43】
前記分散トレーニングが複数のネットワーク側機器の共同分散トレーニングである場合、前記第4処理モジュールは、前記複数のネットワーク側機器のうちのいずれか1つのネットワーク側機器により、各前記伝送条件におけるトレーニングデータの割合を計算して決定し、前記割合を第1設定タイプのインタフェースシグナリングを介して前記複数のネットワーク側機器のうち前記いずれか1つのネットワーク側機器以外の他のネットワーク側機器に送信するために用いられる、請求項42に記載の無線伝送装置。
【請求項44】
前記第1設定タイプのインタフェースシグナリングは、Xnインタフェースシグナリング、N1インタフェースシグナリング、N2インタフェースシグナリング、N3インタフェースシグナリング、N4インタフェースシグナリング、N5インタフェースシグナリング、N6インタフェースシグナリング、N7インタフェースシグナリング、N8インタフェースシグナリング、N9インタフェースシグナリング、N10インタフェースシグナリング、N11インタフェースシグナリング、N12インタフェースシグナリング、N13インタフェースシグナリング、N14インタフェースシグナリング、N15インタフェースシグナリング、又はN22インタフェースシグナリングを含む、請求項43に記載の無線伝送装置。
【請求項45】
前記分散トレーニングが複数の端末の共同分散トレーニングである場合、前記第4処理モジュールは、前記複数の端末のうちのいずれか1つの端末により、各前記伝送条件におけるトレーニングデータの割合を計算して決定し、前記割合を第2設定タイプのインタフェースシグナリングを介して前記複数の端末のうち前記いずれか1つの端末以外の他の端末に送信するために用いられる、請求項42に記載の無線伝送装置。
【請求項46】
前記第2設定タイプのインタフェースシグナリングは、PC5インタフェースシグナリング又はsidelinkインタフェースシグナリングを含む、請求項45に記載の無線伝送装置。
【請求項47】
前記分散トレーニングがネットワーク側機器と端末の共同分散トレーニングである場合、前記第4処理モジュールは、前記ネットワーク側機器及び端末のうちのいずれか1つのネットワーク側機器又はいずれか1つの端末により、各前記伝送条件におけるトレーニングデータの割合を計算して決定し、前記割合を第3設定タイプのシグナリングを介して前記ネットワーク側機器及び端末のうち前記いずれか1つのネットワーク側機器又はいずれか1つの端末以外の他のネットワーク側機器又は端末に送信するために用いられる、請求項42に記載の無線伝送装置。
【請求項48】
前記第3設定タイプのシグナリングは、RRC、PDCCH層1シグナリング、PDSCH、MAC CE、SIB、Xnインタフェースシグナリング、N1インタフェースシグナリング、N2インタフェースシグナリング、N3インタフェースシグナリング、N4インタフェースシグナリング、N5インタフェースシグナリング、N6インタフェースシグナリング、N7インタフェースシグナリング、N8インタフェースシグナリング、N9インタフェースシグナリング、N10インタフェースシグナリング、N11インタフェースシグナリング、N12インタフェースシグナリング、N13インタフェースシグナリング、N14インタフェースシグナリング、N15インタフェースシグナリング、N22インタフェースシグナリング、PUCCH層1シグナリング、PUSCH、PRACHのMSG1、PRACHのMSG3、PRACHのMSG A、PC5インタフェースシグナリング、又はsidelinkインタフェースシグナリングを含む、請求項47に記載の無線伝送装置。
【請求項49】
前記伝送条件におけるリアルタイムデータを取得し、前記リアルタイムデータに基づき、トレーニング済みのニューラルネットワークモデルをオンラインで調整するための微調整モジュールをさらに備える、請求項40、41、43~48のいずれか1項に記載の無線伝送装置。
【請求項50】
前記微調整モジュールは、
各前記伝送条件におけるトレーニングデータの割合に基づき、各前記伝送条件におけるリアルタイムデータを取得し、そして
前記伝送条件のうちのいずれか1つの伝送条件におけるリアルタイムデータの割合が、前記いずれか1つの伝送条件におけるトレーニングデータの割合よりも高い場合、前記トレーニング済みのニューラルネットワークモデルをオンラインで調整する過程で、前記いずれか1つの伝送条件におけるリアルタイムデータのうち、前記いずれか1つの伝送条件におけるトレーニングデータの割合を超過したデータを、前記トレーニング済みのニューラルネットワークモデルに入力しないために用いられる、請求項49に記載の無線伝送装置。
【請求項51】
前記微調整モジュールは、各前記伝送条件におけるリアルタイムデータを取得する前記ステップに用いられる時、
ネットワーク側機器及び端末のうちの少なくとも1つの各前記伝送条件におけるデータを、各前記伝送条件におけるリアルタイムデータとしてオンラインで収集するために用いられ、
前記微調整モジュールは、トレーニング済みのニューラルネットワークモデルをオンラインで調整する前記ステップに用いられる時、
前記ネットワーク側機器及び端末のうちの少なくとも1つの各前記伝送条件におけるデータに基づき、前記ネットワーク側機器又は前記端末を利用して、前記トレーニング済みのニューラルネットワークモデルをオンラインで調整するために用いられる、請求項50に記載の無線伝送装置。
【請求項52】
前記ネットワーク側機器又は前記端末がトレーニング段階で各前記伝送条件におけるトレーニングデータの割合を取得していない場合、
前記ネットワーク側機器により、Xnインタフェースシグナリング、N1インタフェースシグナリング、N2インタフェースシグナリング、N3インタフェースシグナリング、N4インタフェースシグナリング、N5インタフェースシグナリング、N6インタフェースシグナリング、N7インタフェースシグナリング、N8インタフェースシグナリング、N9インタフェースシグナリング、N10インタフェースシグナリング、N11インタフェースシグナリング、N12インタフェースシグナリング、N13インタフェースシグナリング、N14インタフェースシグナリング、N15インタフェースシグナリング、及びN22インタフェースシグナリングのうちのいずれか1つのインタフェースシグナリングを介して、前記トレーニング段階のネットワーク側機器から各前記伝送条件におけるトレーニングデータの割合を取得し、
又は、前記ネットワーク側機器により、PUCCH層1シグナリング、PUSCH、PRACHのMSG1、PRACHのMSG3、及びPRACHのMSG Aのうちのいずれか1つのシグナリングを介して、前記トレーニング段階の端末から各前記伝送条件におけるトレーニングデータの割合を取得し、
又は、前記端末により、PC5インタフェースシグナリング又はsidelinkインタフェースシグナリングを介して、前記トレーニング段階の端末から各前記伝送条件におけるトレーニングデータの割合を取得し、
又は、前記端末により、RRC、PDCCH層1シグナリング、PUSCH、MAC CE、及びSIBのうちのいずれか1つのシグナリングを介して、前記トレーニング段階のネットワーク側機器から各前記伝送条件におけるトレーニングデータの割合を取得するための通信モジュールをさらに備える、請求項51に記載の無線伝送装置。
【請求項53】
プロセッサと、メモリと、前記メモリに記憶され、前記プロセッサによって実行可能なプログラムもしくはコマンドとを備え、前記プログラムもしくはコマンドが前記プロセッサによって実行されると、請求項1~12のいずれか1項に記載のトレーニングデータセット取得方法のステップが実現され、又は請求項25~38のいずれか1項に記載の無線伝送方法のステップが実現される、通信機器。
【請求項54】
プログラムもしくはコマンドが記憶されており、前記プログラムもしくはコマンドがプロセッサによって実行されると、請求項1~12のいずれか1項に記載のトレーニングデータセット取得方法が実現され、又は請求項25~38のいずれか1項に記載の無線伝送方法のステップが実現される、可読記憶媒体。
【請求項55】
プロセッサ及び通信インタフェースを備え、前記通信インタフェースと前記プロセッサが結合され、前記プロセッサがプログラムもしくはコマンドを実行し、請求項1~12のいずれか1項に記載のトレーニングデータセット取得方法を実現し、又は請求項25~38のいずれか1項に記載の無線伝送方法のステップを実現するために用いられる、チップ。
【発明の詳細な説明】
【技術分野】
【0001】
〔関連出願の相互参照〕
本出願は、2021年05月11日に提出された出願番号202110513732.0、発明の名称「トレーニングデータセット取得方法、無線伝送方法、装置及び通信機器」の中国特許出願の優先権を主張し、その内容は引用によって本出願に組み込まれる。
【0002】
本出願は、通信技術分野に属し、特に、トレーニングデータセット取得方法、無線伝送方法、装置及び通信機器に関する。
【背景技術】
【0003】
汎化とは、ニューラルネットワークがトレーニング(学習)の過程で遭遇していないデータに対しても合理的な出力を得ることができることをいう。現在、変化の多い無線伝送環境に対する汎化能力を実現するためには、環境の変化に応じてニューラルネットワークのパラメータを切り替える必要のない1つの共通のニューラルネットワークを、混合データに基づいてトレーニングすることができる。しかし、該ニューラルネットワークは、全ての伝送条件においても最適な性能を達成できるわけではない。
【発明の概要】
【0004】
本出願の実施例は、従来の無線伝送におけるニューラルネットワークの汎化能力不足等の問題を解決できる、トレーニングデータセット取得方法、無線伝送方法、装置及び通信機器を提供する。
【0005】
第1側面において、
ニューラルネットワークの最適化目標に対する各伝送条件の寄与度に基づき、各前記伝送条件におけるトレーニングデータのデータ量を決定するステップと、
各前記伝送条件におけるトレーニングデータのデータ量に基づき、各前記伝送条件におけるトレーニングデータを取得して、前記ニューラルネットワークをトレーニングするためのトレーニングデータセットを形成するステップと、を含み、
ニューラルネットワークの最適化目標に対する伝送条件の前記寄与度は、前記ニューラルネットワークの最適化目標の値に対する前記伝送条件の影響度を表す、トレーニングデータセット取得方法を提供する。
【0006】
第2側面において、
ニューラルネットワークの最適化目標に対する各伝送条件の寄与度に基づき、各前記伝送条件におけるトレーニングデータのデータ量を決定するための第1処理モジュールと、
各前記伝送条件におけるトレーニングデータのデータ量に基づき、各前記伝送条件におけるトレーニングデータを取得して、前記ニューラルネットワークをトレーニングするためのトレーニングデータセットを形成するための第2処理モジュールと、を備え、
ニューラルネットワークの最適化目標に対する伝送条件の前記寄与度は、前記ニューラルネットワークの最適化目標の値に対する前記伝送条件の影響度を表す、トレーニングデータセット取得装置を提供する。
【0007】
第3側面において、
ニューラルネットワークモデルに基づき、無線伝送演算を行い、前記無線伝送を実現するステップを含み、
前記ニューラルネットワークモデルは、予めトレーニングデータセットを利用してトレーニングされたものであり、前記トレーニングデータセットは、第1側面に記載のトレーニングデータセット取得方法に基づいて取得される、無線伝送方法を提供する。
【0008】
第4側面において、
ニューラルネットワークモデルに基づき、無線伝送演算を行い、前記無線伝送を実現するための第3処理モジュールを備え、
前記ニューラルネットワークモデルは、予めトレーニングデータセットを利用してトレーニングされたものであり、前記トレーニングデータセットは、第1側面に記載のトレーニングデータセット取得方法に基づいて取得される、無線伝送装置を提供する。
【0009】
第5側面において、プロセッサと、メモリと、前記メモリに記憶され、前記プロセッサによって実行可能なプログラムもしくはコマンドとを備え、前記プログラムもしくはコマンドが前記プロセッサによって実行されると、第1側面に記載の方法のステップが実現され、又は第3側面に記載の方法のステップが実現される、通信機器を提供する。
【0010】
第6側面において、プロセッサ及び通信インタフェースを備える通信機器であって、前記プロセッサが、ニューラルネットワークの最適化目標に対する各伝送条件の寄与度に基づき、各前記伝送条件におけるトレーニングデータのデータ量を決定し、そして各前記伝送条件におけるトレーニングデータのデータ量に基づき、各前記伝送条件におけるトレーニングデータを取得して、前記ニューラルネットワークをトレーニングするためのトレーニングデータセットを形成するために用いられ、ニューラルネットワークの最適化目標に対する伝送条件の前記寄与度は、前記ニューラルネットワークの最適化目標の値に対する前記伝送条件の影響度を表す、通信機器を提供する。
【0011】
第7側面において、プロセッサ及び通信インタフェースを備える通信機器であって、前記プロセッサが、ニューラルネットワークモデルに基づき、無線伝送演算を行い、前記無線伝送を実現するために用いられ、前記ニューラルネットワークモデルは、予めトレーニングデータセットを利用してトレーニングされたものであり、前記トレーニングデータセットは、第1側面に記載のトレーニングデータセット取得方法に基づいて取得される、通信機器を提供する。
【0012】
第8側面において、プログラムもしくはコマンドが記憶されており、前記プログラムもしくはコマンドがプロセッサによって実行されると、第1側面に記載の方法のステップが実現され、又は第3側面に記載の方法のステップが実現される、可読記憶媒体を提供する。
【0013】
第9側面において、プロセッサ及び通信インタフェースを備え、前記通信インタフェースと前記プロセッサが結合され、前記プロセッサがプログラムもしくはコマンドを実行し、第1側面に記載の方法を実現し、又は第3側面に記載の方法を実現するために用いられる、チップを提供する。
【0014】
第10側面において、非一時的記憶媒体に記憶されており、少なくとも1つのプロセッサによって実行されることで第1側面に記載のトレーニングデータセット取得方法のステップが実現され、又は第3側面に記載の無線伝送方法のステップが実現される、コンピュータプログラム/プログラム製品を提供する。
【0015】
本出願の実施例において、人工知能ベースの通信システムにおいてトレーニングデータセットを構築する時、ニューラルネットワークの最適化目標(目的関数又は損失関数とも呼ばれる)に対する異なる伝送条件のデータの寄与度に基づき、様々な伝送条件におけるデータを異なる割合で選択し、混合トレーニングデータセットを構築し、これによりニューラルネットワークの汎化能力を効果的に向上させることができる。
【図面の簡単な説明】
【0016】
【
図1】本出願の実施例を応用可能な無線通信システムの構造図である。
【
図2】本出願の実施例で提供されるトレーニングデータセット取得方法の手順模式図である。
【
図3】本出願の実施例で提供されるトレーニングデータセット取得装置の構造模式図である。
【
図4】本出願の実施例で提供される無線伝送方法の手順模式図である。
【
図5】本出願の実施例で提供される無線伝送方法におけるニューラルネットワークモデル構築の手順模式図である。
【
図6】本出願の実施例で提供されるトレーニングデータセット取得方法においてトレーニングデータの割合を決定する手順模式図である。
【
図7】本出願の実施例で提供される無線伝送方法におけるDMRSチャネル推定用のニューラルネットワークの構造模式図である。
【
図8】本出願の実施例で提供される無線伝送装置の構造模式図である。
【
図9】本出願の実施例で提供される通信機器の構造模式図である。
【
図10】本出願の実施例を実現する端末のハードウェア構造模式図である。
【
図11】本出願の実施例を実現するアクセスネットワーク機器のハードウェア構造模式図である。
【
図12】本出願の実施例を実現するコアネットワーク機器のハードウェア構造模式図である。
【発明を実施するための形態】
【0017】
以下において、本出願の実施例における図面を参照しながら、本出願の実施例における技術的解決手段を明確に説明し、当然ながら、説明される実施例は本出願の実施例の一部であり、全ての実施例ではない。当業者が本出願における実施例に基づいて得た他の全ての実施例は、いずれも本出願の保護範囲に属するものとする。
【0018】
本出願の明細書及び特許請求の範囲における用語「第1」、「第2」等は、特定の順序又は先後順序を記述するためのものではなく、類似する対象を区別するためのものである。このように使用される用語は、本出願の実施例がここで図示又は記述される以外の順序で実施できるように、適当な場合において互いに置き換えてもよいことを理解すべきであり、また、「第1」、「第2」で区別する対象は一般に一種類であり、対象の数を限定することがなく、例えば、第1対象は1つであってもよいし、複数であってもよい。また、明細書及び特許請求の範囲における「及び/又は」は、接続される対象のうちの少なくとも1つを意味し、符号の「/」は、一般的には前後の関連対象が「又は」という関係にあることを意味する。
【0019】
指摘しておきたいのは、本出願の実施例に記載される技術は、ロングタームエボリューション(Long Term Evolution,LTE)/LTEの進化型(LTE-Advanced,LTE-A)システムに限定されず、さらに、例えば、符号分割多元接続(Code Division Multiple Access,CDMA)、時分割多元接続(Time Division Multiple Access,TDMA)、周波数分割多元接続(Frequency Division Multiple Access,FDMA)、直交周波数分割多元接続(Orthogonal Frequency Division Multiple Access,OFDMA)、シングルキャリア周波数分割多元接続(Single-carrier Frequency-Division Multiple Access,SC-FDMA)のような他の無線通信システム及び他のシステムにも適用可能である点である。本出願の実施例における用語「システム」及び「ネットワーク」は、しばしば、互換的に使用され得る。記載された技術は、上記で言及されたシステム及びラジオ技術に使用され得ると共に、他のシステム及びラジオ技術にも使用され得る。以下の記述では例示するためにニューラジオ(New Radio,NR)システムについて説明し、且つ以下の説明の多くにおいてNR用語が使用されるが、これらの技術はNRシステム以外にも適用可能であり、例えば、第6世代(6th Generation,6G)通信システムにも適用可能である。
【0020】
図1は、本出願の実施例を応用可能な無線通信システムの構造図を示す。無線通信システムは端末101及びネットワーク側機器102を含む。端末101は端末機器又はユーザ端末(User Equipment,UE)と称されてもよく、端末101は、携帯電話、タブレットパソコン(Tablet Personal Computer)、ノートパソコンとも呼ばれるラップトップコンピュータ(Laptop Computer)、携帯情報端末(Personal Digital Assistant,PDA)、パームトップコンピュータ、ネットブック、ウルトラモバイルパーソナルコンピュータ(ultra-mobile personal computer,UMPC)、モバイルインターネット機器(Mobile Internet Device,MID)、ウェアラブル機器(Wearable Device)もしくは車載機器(VUE)、歩行者端末(PUE)等の端末側機器であってよく、ウェアラブル機器は、スマートウォッチ、リストバンド、ヘッドフォン、メガネ等を含む。説明すべきことは、本出願の実施例において端末101の具体的な種類が限定されない点である。ネットワーク側機器102は、アクセスネットワーク機器1021又はコアネットワーク機器1022又はデータネットワーク(data network,DN)機器1023であってもよい。そのうち、アクセスネットワーク機器1021は、無線アクセスネットワーク機器又は無線アクセスネットワーク(Radio Access Network,RAN)と呼ばれてもよく、アクセスネットワーク機器1021は、基地局又はRAN側でニューラルネットワークのトレーニングを担当するノード等であってもよい。基地局はノードB、進化型ノードB、アクセスポイント、トランシーバ基地局(Base Transceiver Station,BTS)、無線基地局、無線トランシーバ、基本サービスセット(Basic Service Set,BSS)、拡張サービスセット(Extended Service Set,ESS)、Bノード、進化型Bノード(eNB)、ホームBノード、ホーム進化型Bノード、WLANアクセスポイント、WiFiノード、送受信ポイント(Transmitting Receiving Point,TRP)又は当分野における他の何らかの適切な用語で呼ばれてもよく、同様な技術効果を達成することができれば、前記基地局は、特定の技術用語に限定されない。説明すべきことは、本出願の実施例において、単にNRシステムにおける基地局を例とするが、基地局の具体的な種類が限定されない点である。コアネットワーク機器1022は、コアネットワーク(Core Network,CN)又は5Gコア(5G core,5GC)ネットワークと呼ばれてもよい。コアネットワーク機器1022は、コアネットワークノード、コアネットワーク機能、モビリティ管理エンティティ(Mobility Management Entity,MME)、アクセスモビリティ管理機能(Access Management Function,AMF)、セッション管理機能(Session Management Function,SMF)、ユーザプレーン機能(User Plane Function,UPF)、ポリシー制御機能(Policy Control Function,PCF)、ポリシー及び課金ルール機能ユニット(Policy and Charging Rules Function,PCRF)、エッジアプリケーションサーバ発見機能(Edge Application Server Discovery Function,EASDF)、プリケーション機能(Application Function,AF)のうちの少なくとも1つを含んでもよいが、これらに限定されない。説明すべきことは、本出願の実施例において単に5Gシステムにおけるコアネットワーク機器を例とするが、これに限定されない点である。データネットワーク機器1023は、ネットワークデータ分析機能(Network Data Analytics Function,NWDAF)、統合データ管理(Unified Data Management,UDM)、統合データリポジトリ(Unified Data Repository,UDR)、及び非構造化データ記憶機能(Unstructured Data Storage Function,UDSF)のうちの少なくとも1つを含んでもよいが、これらに限定されない。説明すべきことは、本出願の実施例において単に5Gシステムにおけるデータネットワーク機器を例とするが、これに限定されない点である。
【0021】
以下において、図面を参照しながら、本出願の実施例で提供されるトレーニングデータセット取得方法、無線伝送方法、装置及び通信機器を、いくつかの実施例及びその応用シーンにより詳しく説明する。
【0022】
図2は、本出願の実施例で提供されるトレーニングデータセット取得方法の手順模式図を示し、該方法は端末及び/又はネットワーク側機器によって実行することができ、該端末は具体的には
図1に示す端末101であってもよく、該ネットワーク側機器は具体的には
図1に示すネットワーク側機器102であってもよい。
図2に示すように、該方法は、次のステップ201とステップ202を含む。
【0023】
ステップ201で、ニューラルネットワークの最適化目標に対する各伝送条件の寄与度に基づき、各前記伝送条件におけるトレーニングデータのデータ量を決定する。
ここで、ニューラルネットワークの最適化目標に対する伝送条件の前記寄与度は、前記ニューラルネットワークの最適化目標の値に対する前記伝送条件の影響度を表す。
【0024】
対象となる無線伝送環境の各伝送条件について、本出願の実施例では、ニューラルネットワークの最適化目標の値に対する各伝送条件の影響度、即ち最適化目標の値の大きさに対する伝送条件の値の影響度を事前にテストすることによって、ニューラルネットワークの最適化目標に対する各伝送条件の寄与度を決定することができると理解してよい。一般に、影響度が高いほど、伝送条件に対応する寄与度の値が大きくなり、逆に、寄与度の値が小さくなる。
【0025】
例えば、最適化目標が伝送条件の関数として表される場合、該関数が伝送条件に関する増加関数(例えば、スループットがSNRの増加関数)であれば、最適化目標の値を大きくする伝送条件の寄与度が高く、該関数が伝送条件に関する漸減関数(例えば、NMSEがSNRの漸減関数)であれば、最適化目標の値を小さくする伝送条件の寄与度が高い。
【0026】
選択的に、いずれか1つの伝送条件について、該伝送条件で最適化目標が達成可能な最適値に基づき、最適化目標に対する該伝送条件の寄与度を決定することができる。つまり、最適化目標に対する1つの特定の伝送条件の寄与度は、該特定の伝送条件で最適化目標が達成可能な最適値の大きさで判定することができ、該達成可能な最適値が大きいほど、最適化目標に対する該特定の伝送条件の影響度が大きく、対応する寄与度も大きくなる。
【0027】
各伝送条件の寄与度を決定した上で、本出願の実施例では、各伝送条件に対応する寄与度の値の大きさを基礎とし、各伝送条件に対応するトレーニングデータのデータ量をそれぞれ調整することができ、つまり、各伝送条件におけるトレーニングデータのデータ量と最適化目標に対する該伝送条件の寄与度とを関連付ける。ここで、該データ量は、各伝送条件ごとに用意する必要があるトレーニングデータの参照データ量(設定データ量とも呼ばれる)であり、トレーニングデータセットを実際に取得する際に、各伝送条件ごとにトレーニングデータを用意する際に、該データ量を参照する必要がある。
【0028】
ニューラルネットワークが様々な伝送条件に対してより優れた汎化能力を有するように、寄与度が大きい伝送条件のデータ量を減らすことで、これらの伝送条件の影響力を低減することができ、また、寄与度が小さい伝送条件のデータ量を増やすことで、これらの伝送条件の影響力を高めることができ、つまり、最適化目標に対する各伝送条件の影響をデータ量によって均衡させることが理解可能である。ここで、前記データ量は、データ量の絶対値であってもよいし、又はデータ量の相対的な割合であってもよい。
【0029】
ここで、伝送条件は、実際の無線伝送環境に関わる伝送媒体、伝送信号、伝送環境等のパラメータのことである。選択的に、前記伝送条件のタイプは、
信号対雑音比又は信号対干渉雑音比、
基準信号受信電力(Reference Signal Receiving Power,RSRP)、
信号強度、
干渉強度、
端末の移動速度、
チャネルパラメータ、
端末の基地局からの距離、
セルサイズ、
キャリア周波数、
変調次数又は変調符号化ポリシー、
セルタイプ、
ステーション間隔、
天気と環境要因、
送信側又は受信側のアンテナ配置情報、
端末の能力又はタイプ、
基地局の能力又はタイプのうちの少なくとも1つを含む。
【0030】
本出願の実施例に係る伝送条件のタイプは、上記に列挙した各伝送条件タイプのうちの1つまたは複数の組み合わせを含み得るが、これらに限定されないと理解してよい。
【0031】
ここで、干渉強度は、例えば、セル間の同一周波数干渉の強度、又はその他の干渉の大きさを表すことができる。チャネルパラメータは、例えば、パス数(又はLOSやNLOSシナリオ)、遅延(又は最大遅延)、ドップラー(又は最大ドップラー)、到来角(水平、垂直を含む)範囲、デパーチャ角(水平、垂直を含む)範囲、又はチャネル相関係数等である。セルタイプは、例えば、屋内セル、屋外セル、マクロセル、マイクロセル、又はピコセル等である。ステーション間隔は、例えば、ステーション間隔200メートル以内、200~500メートル、又は500メートル以上等に分けることができる。天気と環境要因等は、例えば、トレーニングデータが存在するネットワーク環境の温度及び/又は湿度等の情報であってもよい。送信側又は受信側のアンテナ配置情報は、例えば、アンテナの数及び/又はアンテナ偏波方式等であってもよい。UE能力/タイプは、例えば、Redcap UE及び/又はnormal UE等であってもよい。
【0032】
ステップ202で、各前記伝送条件におけるトレーニングデータのデータ量に基づき、各前記伝送条件におけるトレーニングデータを取得して、前記ニューラルネットワークをトレーニングするためのトレーニングデータセットを形成する。
【0033】
本出願の実施例では、各伝送条件におけるトレーニングデータのデータ量を取得した上で、つまり、参照データ量を取得した上で、各伝送条件に対応する該参照データ量を基準又は設定として、各伝送条件におけるトレーニングデータを取得し、最終的に取得された各伝送条件のトレーニングデータのデータ量を該基準又は設定に一致させると理解してよい。最後に、取得された各伝送条件におけるトレーニングデータを不均一に混合し、無線伝送環境における上記ニューラルネットワーク(ニューラルネットワークモデルとも呼ばれる)のトレーニングに使用できるトレーニングデータセットであるデータセットを得る。
【0034】
選択的に、各前記伝送条件におけるトレーニングデータを取得して、前記ニューラルネットワークをトレーニングするためのトレーニングデータセットを形成する前記ステップは、各前記伝送条件におけるトレーニングデータのデータ量に基づき、各前記伝送条件におけるデータを収集してキャリブレーションし、各前記伝送条件におけるトレーニングデータセットを構成するステップ、又は、各前記伝送条件における設定数のデータを収集し、各前記伝送条件におけるトレーニングデータのデータ量に基づき、前記設定数のデータから一部のデータを選択してキャリブレーションするか、又は前記設定数のデータを補完してキャリブレーションし、各前記伝送条件におけるトレーニングデータセットを構成するステップを含む。
【0035】
本出願の実施例では、決定された各伝送条件におけるトレーニングデータのデータ量に基づいてトレーニングデータセットを構築する際に、まず各伝送条件に必要なデータ量を算出し、それから該データ量に基づいて各伝送条件のデータを取得してもよいし、又は、まず各伝送条件ごとに大量のデータを取得し、つまり設定数のデータを取得し、次に各伝送条件に必要なデータ量を算出し、その後、予め取得した上記大量のデータから選択したり補足したりするようにしてもよいと理解してよい。
【0036】
ここで、後者の場合、k番目の伝送条件で予め取得した総データ量がMkで、計算によって決定された必要なデータ量がNkであると仮定する。Mk≧Nkであれば、このMk個のデータからNk個のデータをランダムに選択してトレーニングデータセットに入れる必要がある。Mk<Nkであれば、Nk-Mk個のデータをさらに取得し、Nk個のデータを補完してからトレーニングデータセットに入れる必要がある。ここで必要なデータ量は、前のステップで決定された各伝送条件におけるトレーニングデータのデータ量である。
【0037】
ここで、各伝送条件におけるデータを取得した後、これらのデータをキャリブレーションし、つまり、各伝送条件におけるデータにラベルを付加する必要があり、付加するラベルは該データに対応する伝送環境の真値である。例えば、DMRSチャネル推定のシナリオでは、伝送条件におけるデータであるDMRS信号に付加するラベルは、該DMRS信号に対応するチャネル真値である。
【0038】
説明すべきことは、本出願の実施例は、既存の無線伝送ネットワーク内の1つ又は複数のモジュールの機能を機械学習に置き換えることができるいかなるシナリオにも適用することができる点であり、つまり、機械学習を利用してニューラルネットワークをトレーニングするのであれば、いずれも本出願の実施例のトレーニングデータセット取得方法でトレーニングデータセットを構築することができる。応用シナリオは、例えば、物理層のパイロット設計、チャネル推定、信号検出、ユーザペアリング、HARQ及び測位等と、上位層のリソース割り当て、ハンドオーバ及びモビリティ管理等と、ネットワーク層のスケジューリング又はスライシング等であり、本出願の実施例では、具体的な無線伝送の応用シナリオについて制限しない。
【0039】
本出願の実施例は、人工知能ベースの通信システムにおいてトレーニングデータセットを構築する時、ニューラルネットワークの最適化目標(目的関数又は損失関数とも呼ばれる)に対する異なる伝送条件のデータの寄与度に基づき、様々な伝送条件におけるデータを異なる割合で選択し、混合トレーニングデータセットを構築し、これによりニューラルネットワークの汎化能力を効果的に向上させることができる。
【0040】
選択的に、ニューラルネットワークの最適化目標に対する各伝送条件の寄与度に基づき、各前記伝送条件におけるトレーニングデータのデータ量を決定する前記ステップは、各前記伝送条件の寄与度をソートするステップと、等しい割合で混合する上で、前記ソートにおける大きい寄与度に対応する伝送条件におけるトレーニングデータのデータ量を減少させる操作と、前記ソートにおける小さい寄与度に対応する伝送条件におけるトレーニングデータのデータ量を増加させる操作とのうちの少なくとも1つを実行するステップと、を含む。
【0041】
本出願の実施例では、各伝送条件におけるトレーニングデータのデータ量を決定する時、まず、等しい割合で混合した時の、ニューラルネットワークの最適化目標(又は目的関数、損失関数)に対する異なる伝送条件のデータの寄与度をソートし、その後、混合トレーニングデータセットを構築する時、上記ソートに基づき、ソートにおける小さい寄与度と大きい寄与度を決定することで、寄与度が低い伝送条件と寄与度が高い伝送条件をさらに決定することができ、また、全ての伝送条件のデータが十分であることを保証した前提で、寄与度が低い伝送条件のデータ量を増加させ、及び/又は寄与度が高い伝送条件のデータ量を減少させることができると理解してよい。
【0042】
ここで、閾値(即ち予め設定された閾値)を設定し、いずれかの伝送条件のデータ量が総データ量に占める割合が該閾値以上であるようにすることで、上記した「全ての伝送条件のデータが十分であることを保証した前提」を満たすことができる。
【0043】
本出願の実施例では、各伝送条件の寄与度をソートし、該ソートに基づいて対応する伝送条件のデータ量を調整することで、対応する伝送条件のデータ量の調整ポリシー(データ量を増加させる必要があるか減少させる必要があるか、増加又は減少の幅等を含む)をより明確且つ正確に決定することができ、これにより効率がより高く、結果がより正確になる。
【0044】
選択的に、前記ソートにおける大きい寄与度に対応する伝送条件におけるトレーニングデータのデータ量を減少させる操作と、前記ソートにおける小さい寄与度に対応する伝送条件におけるトレーニングデータのデータ量を増加させる操作とのうちの少なくとも1つを実行する前記ステップは、前記ソートにおける大きい寄与度に対応する伝送条件におけるトレーニングデータのデータ量を減少させる前記操作と、前記ソートにおける小さい寄与度に対応する伝送条件におけるトレーニングデータのデータ量を増加させる前記操作とのうちの少なくとも1つを次のルールに従って実行するステップを含み、前記ルールは、前記大きい寄与度の値が大きいほど、前記減少の幅が大きくなり、前記小さい寄与度の値が小さいほど、前記増加の幅が大きくなることを含む。
【0045】
本出願の実施例では、寄与度が低い伝送条件のデータ量を増加させ、寄与度が高い伝送条件のデータ量を減少させる時、伝送条件の寄与度が高くなるにつれて、伝送条件のトレーニングデータのデータ量が減少することを目標とすると理解してよい。したがって、伝送条件の寄与度が低いほど、それに応じて該伝送条件のデータ量は増加し、伝送条件の寄与度が高いほど、それに応じて該伝送条件のデータ量は減少する。
【0046】
本出願の実施例では、寄与度の値の大きさに基づき、対応する伝送条件のトレーニングデータのデータ量を比例的に増加又は減少させ、伝送条件の寄与度が高くなるにつれて、伝送条件のトレーニングデータのデータ量を減少させることができ、これにより、最終的なニューラルネットワークに対する各伝送条件の影響のバランスがより良くなり、ニューラルネットワーク汎化能力の改善により有利である。
【0047】
選択的に、前記ソートの結果が小さいものから大きいものへの場合、前記伝送条件におけるトレーニングデータのデータ量は前記ソートの方向に漸減し、前記ソートの結果が大きいものから小さいものへの場合、前記伝送条件におけるトレーニングデータのデータ量は前記ソートの方向に漸増する。
【0048】
上記実施例に基づいて各伝送条件のトレーニングデータのデータ量を決定する時、寄与度が小さいものから大きいものへとソートされる場合、対応する伝送条件のデータが全データに占める割合は、例えば、線形減少、等差減少、等比減少、指数関数的減少、又はベキ関数的減少等の任意の漸減方式であり得ると理解してよい。逆に、寄与度が大きいものから小さいものへとソートされる場合、対応する伝送条件のデータが全データに占める割合は、例えば、線形増加、等差増加、等比増加、指数関数的増加、又はベキ関数的増加等の任意の漸増方式であってもよい。
【0049】
選択的に、前記ソートにおける大きい寄与度に対応する伝送条件におけるトレーニングデータのデータ量を減少させる操作と、前記ソートにおける小さい寄与度に対応する伝送条件におけるトレーニングデータのデータ量を増加させる操作とのうちの少なくとも1つを実行する前記ステップは、前記ソートに基づいて基準寄与度を決定し、前記伝送条件の寄与度と前記基準寄与度を比較するステップと、
比較の結果に応じて、次の操作のうちの少なくとも1つを実行するステップと、を含み、前記操作は、
前記伝送条件の寄与度が前記基準寄与度よりも大きい場合、前記伝送条件の寄与度を前記大きい寄与度と決定し、前記伝送条件におけるトレーニングデータのデータ量を減少させる操作と、
前記伝送条件の寄与度が前記基準寄与度よりも大きくない場合、前記伝送条件の寄与度を前記小さい寄与度と決定し、前記伝送条件におけるトレーニングデータのデータ量を増加させる操作と、を含む。
【0050】
本出願の実施例では、ソートに基づいて各伝送条件におけるトレーニングデータのデータ量を調整する時、まずソートに基づいて、基準寄与度と呼ばれる寄与度の中間的な比較基準量を決定することができると理解してよい。選択的に、前記基準寄与度は、前記ソートの中央値、又は前記ソートにおける設定位置の寄与度、又は前記ソートにおける各寄与度の平均値、又は前記ソートにおける前記平均値に最も近い寄与度である。ここで、前記平均値は、算術平均値、幾何平均値、調和平均値、加重平均値、二乗平均値、又は指数平均値等であってもよい。
【0051】
次に、各伝送条件の寄与度を順に該基準寄与度と比較する。i番目の伝送条件の寄与度が該基準寄与度より大きければ、該i番目の伝送条件を上記実施例に記載の大きい寄与度と決定し、該i番目の伝送条件のデータ量を減少させる。逆に、i番目の伝送条件の寄与度が寄与度の中央値より小さければ、該i番目の伝送条件を上記実施例に記載の小さい寄与度と決定し、該i番目の伝送条件のデータ量を増加させる。
【0052】
本出願の実施例では、寄与度の中間的な比較基準量を決定することにより、他の寄与度を該比較基準量と比較するだけで、比較結果に応じて対応する伝送条件のデータ量を増加させるか減少させるかを決定することができ、アルゴリズムが簡単で、計算量が少ない。
【0053】
選択的に、ニューラルネットワークの最適化目標に対する各伝送条件の寄与度に基づき、各前記伝送条件におけるトレーニングデータのデータ量を決定する前記ステップは、実際の応用における各前記伝送条件の確率密度に基づき、各前記伝送条件に対応する重み付け係数を決定するステップと、前記最適化目標に対する各前記伝送条件の寄与度を基に、前記重み付け係数と組み合わせて、各伝送条件におけるトレーニングデータのデータ量を決定するステップと、を含む。
【0054】
異なる伝送条件のデータが総データ量に占める割合を決定する時、異なる伝送条件の実際の確率密度に基づいて重み付け項を設計し、確率密度が高い条件のデータ量を増加させ、確率密度が低い条件のデータ量を減少させることができると理解してよい。例えば、k番目のSNRの確率密度がpkであると仮定すると、対応する重み付け項はf(pk)であり、f(pk)はpkに関する増加関数である。該重み付け項を考慮すると、更新後のk番目のSNRのデータ量はf(pk)・Nkとなる。ここで、確率密度は、伝送条件が異なる環境において発生する確率を反映し、各伝送条件が異なる環境で同じ確率で存在するのではなく、一部の伝送条件は発生確率がやや高く、一部の伝送条件は発生確率がやや低い。
【0055】
選択的に、前記重み付け係数と前記確率密度は関数的に漸増する関係にある。つまり、重み付け項と確率密度の関係は、任意の増加関数の関係とすることができ、つまり、確率密度が高い重み付け項は大きく、確率密度が低い重み付け項は小さいことを保証する必要がある。
【0056】
本出願の実施例では、伝送条件の実際の確率密度に基づいて重み付け項を設計し、実際の環境によりよく適合することができる。
【0057】
選択的に、前記方法は、前記トレーニングデータセットを目標機器に送信するステップをさらに含み、前記目標機器は、前記トレーニングデータセットに基づいて前記ニューラルネットワークをトレーニングするために用いられる。
【0058】
本出願の実施例で得られたトレーニングデータセットは、ニューラルネットワークのトレーニングに使用することができ、且つ本出願の実施例のトレーニングデータセット取得方法は、データ収集側とニューラルネットワークトレーニング側が同一の実行側でないデータ伝送シナリオに応用できると理解してよい。本出願の実施例では、決定された混合データセットに占める割合でデータ収集とキャリブレーションを完了した後、トレーニングデータセットを構築し、該トレーニングデータセットを、ニューラルネットワークトレーニングプロセスを実行する必要がある他の機器である目標機器にフィードバックする。ここで、目標機器は、現在の機器とは異なる第2機器であり、得られたトレーニングデータセットを利用してニューラルネットワークモデルのトレーニングを完了するための端末又はネットワーク側機器であり得る。
【0059】
本出願の実施例では、取得されたトレーニングデータセットを現在の機器以外の第2機器に送信し、これにより、複数の機器間はデータ共有と共同トレーニングを実現することができ、それによって単一機器の演算量を効果的に低減し、演算効率を効果的に向上させることができる。
【0060】
選択的に、前記トレーニングデータセットを目標機器に送信する前記ステップは、前記トレーニングデータセットを前記目標機器に直接送信し、又は前記トレーニングデータセットを設定変換後に前記目標機器に送信するステップを含み、前記設定変換は、特定の量子化、特定の圧縮、及び予め約束又は配置されたニューラルネットワークに従って処理することのうちの少なくとも1つを含む。
【0061】
本出願では、トレーニングデータセットを他の機器に送信する時、送信方式は直接送信でも間接送信でもよいと理解してよい。間接送信とは、トレーニングデータセット内のトレーニングデータを変換してからフィードバックすることをいい、例えば、特定の量子化方式、特定の圧縮方式を採用し、あるいは予め約束又は配置されたニューラルネットワークに従って、送信されるトレーニングデータを処理してから送信することができる。
【0062】
本出願の実施例の技術的解決手段をさらに説明するために、以下に例を挙げて説明するが、本出願で保護を要求する範囲を限定するものではない。
【0063】
ニューラルネットワークの最適化目標(又は目的関数、損失関数)が平均二乗誤差(mean square error,MSE)又は正規化された平均二乗誤差(normalized mean square error,NMSE)等の最小化が必要な指標であり、伝送条件が信号対雑音比(signal to noise ratio,SNR)である応用シナリオを例とし、混合するのがK種の信号対雑音比のデータであるとし、データの総量をNall、k番目の信号対雑音比をSNRk、k番目の信号対雑音比のデータ量をNkと記する。
【0064】
まず、K種の信号対雑音比のデータをソートする。
データが等しい割合で混合される(即ちNk/Nall=1/K)と仮定し、上記した最小化が必要な指標に対するk番目のSNRのデータの寄与度をCkと記する。Ckが小さいものから大きいもの(又は大きいものから小さいもの)の順にSNRをソートする。
【0065】
次に、混合比率を決定する。
【0066】
(1)k番目のSNRについて、Ckが大きいほど、Nkの値は小さく調整される。Ckが小さいものから大きいものの順に従って、対応するNkの値を大きいものから小さいものにし、且つ漸減ルールは任意の漸減ルールであり得る。又は、Ckが大きいものから小さいものの順に従って、対応するNkの値を小さいものから大きいものにし、且つ漸増ルールは任意の漸増ルールであり得る。
【0067】
(2)データ量を調整した後、任意のSNRのデータが全データに占める割合が閾値γ以上であることを確認する。
【0068】
最適化される指標がMSE及びNMSEであることを例にし、一般に、SNRの低いデータはMSE又はNMSEに対する寄与度が大きく、SNRの高いデータはMSE又はNMSEに対する寄与度が小さい。したがって、最終的に決定された混合比率は、SNRの低いデータが総データ量に占める割合が最も低く、SNRが増加するにつれて、対応するデータ量も増加する。
【0069】
選択的に、異なる伝送条件のデータが総データ量に占める割合を決定する時、異なる伝送条件の実際の確率密度に基づいて重み付け項を設計することができる。k番目のSNRの確率密度がpkであると仮定すると、対応する重み付け項はf(pk)であり、f(pk)はpkに関する増加関数である。該重み付け項を考慮すると、更新後のk番目のSNRのデータ量はf(pk)・Nkとなる。
【0070】
また、ニューラルネットワークの最適化目標(又は目的関数、損失関数)が信号対干渉雑音比(signal to interference plus noise ratio,SINR)、スペクトル効率、又はスループット等の最大化が必要な指標であり、伝送条件が信号対雑音比(signal to noise ratio,SNR)である応用シナリオを例にし、混合するのがK種のSNRのデータであるとし、データの総量をNall、k番目の信号対雑音比をSNRk、k番目の信号対雑音比のデータ量をNkと記する。
【0071】
まず、K種の信号対雑音比のデータをソートする。
データが等しい割合で混合される(即ちNk/Nall=1/K)と仮定し、上記した最大化が必要な指標に対するk番目のSNRのデータの寄与度をCkと記する。Ckが小さいものから大きいもの(又は大きいものから小さいもの)の順にSNRをソートする。
【0072】
次に、混合比率を決定する。
【0073】
(1)k番目のSNRについて、Ckが大きいほど、Nkの値は小さく調整される。Ckが小さいものから大きいものの順に、対応するNkの値を大きいものから小さいものにし、且つ漸減ルールは任意の漸減ルールであり得る。又は、Ckが大きいものから小さいものの順に、対応するNkの値を小さいものから大きいものにし、且つ漸増ルールは任意の漸増ルールであり得る。
【0074】
(2)データ量を調整した後、任意のSNRのデータが全データに占める割合が閾値γ以上であることを確認する。
【0075】
最適化される指標がSINR、スペクトル効率又はスループットであることを例にし、一般に、SNRの低いデータは、SINR、スペクトル効率及びスループットに対する寄与度が小さく、SNRの高いデータは、SINR、スペクトル効率及びスループットに対する寄与度が大きい。したがって、SNRの低いデータが総データ量に占める割合が最も高く、SNRが減少するにつれて、対応するデータ量も減少する。
【0076】
選択的に、異なる伝送条件のデータが総データ量に占める割合を決定する時、異なる伝送条件の実際の確率密度に基づいて重み付け項を設計することができる。k番目のSNRの確率密度がpkであると仮定すると、対応する重み付け項はf(pk)であり、f(pk)はpkに関する増加関数である。該重み付け項を考慮すると、更新後の第k番目のSNRのデータ量はf(pk)・Nkとなる。
【0077】
説明すべきことは、本出願の実施例で提供されるトレーニングデータセット取得方法の実行主体が、トレーニングデータセット取得装置であってもよいし、又は、該トレーニングデータセット取得装置内の、トレーニングデータセット取得方法を実行するための制御モジュールであってもよい点である。本出願の実施例において、トレーニングデータセット取得装置がトレーニングデータセット取得方法を実行することを例として、本出願の実施例で提供されるトレーニングデータセット取得装置を説明する。
【0078】
本出願の実施例のトレーニングデータセット取得装置的構造は、本出願の実施例で提供されるトレーニングデータセット取得装置の構造模式図である
図3に示され、該装置は、上記した各トレーニングデータセット取得方法実施例におけるトレーニングデータセットの取得を実現するために用いることができ、該装置は、第1処理モジュール301及び第2処理モジュール302を備える。
【0079】
そのうち、第1処理モジュール301は、ニューラルネットワークの最適化目標に対する各伝送条件の寄与度に基づき、各前記伝送条件におけるトレーニングデータのデータ量を決定するために用いられ、
第2処理モジュール302は、各前記伝送条件におけるトレーニングデータのデータ量に基づき、各前記伝送条件におけるトレーニングデータを取得して、前記ニューラルネットワークをトレーニングするためのトレーニングデータセットを形成するために用いられ、
ここで、ニューラルネットワークの最適化目標に対する伝送条件の前記寄与度は、前記ニューラルネットワークの最適化目標の値に対する前記伝送条件の影響度を表す。
【0080】
選択的に、前記第1処理モジュールは、
各前記伝送条件の寄与度をソートし、そして
等しい割合で混合する上で、前記ソートにおける大きい寄与度に対応する伝送条件におけるトレーニングデータのデータ量を減少させる操作と、前記ソートにおける小さい寄与度に対応する伝送条件におけるトレーニングデータのデータ量を増加させる操作とのうちの少なくとも1つを実行するために用いられる。
【0081】
選択的に、前記伝送条件のタイプは、
信号対雑音比又は信号対干渉雑音比、
基準信号受信電力、
信号強度、
干渉強度、
端末の移動速度、
チャネルパラメータ、
端末の基地局からの距離、
セルサイズ、
キャリア周波数、
変調次数又は変調符号化ポリシー、
セルタイプ、
ステーション間隔、
天気と環境要因、
送信側又は受信側のアンテナ配置情報、
端末の能力又はタイプ、
基地局の能力又はタイプのうちの少なくとも1つを含む。
【0082】
選択的に、前記第2処理モジュールは、
各前記伝送条件におけるトレーニングデータのデータ量に基づき、各前記伝送条件におけるデータを収集してキャリブレーションし、各前記伝送条件におけるトレーニングデータセットを構成するために、
又は、
各前記伝送条件における設定数のデータを収集し、各前記伝送条件におけるトレーニングデータのデータ量に基づき、前記設定数のデータから一部のデータを選択してキャリブレーションするか、又は前記設定数のデータを補完してキャリブレーションし、各前記伝送条件におけるトレーニングデータセットを構成するために用いられる。
【0083】
選択的に、前記第1処理モジュールは、前記ソートにおける大きい寄与度に対応する伝送条件におけるトレーニングデータのデータ量を減少させる操作と、前記ソートにおける小さい寄与度に対応する伝送条件におけるトレーニングデータのデータ量を増加させる操作とのうちの少なくとも1つを実行する前記ステップに用いられる時、
前記ソートにおける大きい寄与度に対応する伝送条件におけるトレーニングデータのデータ量を減少させる操作と、前記ソートにおける小さい寄与度に対応する伝送条件におけるトレーニングデータのデータ量を増加させる操作とのうちの少なくとも1つを次のルールに従って実行するために用いられ、前記ルールは、
前記大きい寄与度の値が大きいほど、前記減少の幅が大きくなり、前記小さい寄与度の値が小さいほど、前記増加の幅が大きくなることを含む。
【0084】
選択的に、前記ソートの結果が小さいものから大きいものへの場合、前記伝送条件におけるトレーニングデータのデータ量は前記ソートの方向に漸減し、前記ソートの結果が大きいものから小さいものへの場合、前記伝送条件におけるトレーニングデータのデータ量は前記ソートの方向に漸増する。
【0085】
選択的に、前記第1処理モジュールは、前記ソートにおける大きい寄与度に対応する伝送条件におけるトレーニングデータのデータ量を減少させる操作と、前記ソートにおける小さい寄与度に対応する伝送条件におけるトレーニングデータのデータ量を増加させる操作とのうちの少なくとも1つを実行する前記ステップに用いられる時、
前記ソートに基づいて基準寄与度を決定し、前記伝送条件の寄与度と前記基準寄与度を比較し、そして
比較の結果に応じて、次の操作のうちの少なくとも1つを実行するために用いられ、前記操作は、
前記伝送条件の寄与度が前記基準寄与度よりも大きい場合、前記伝送条件の寄与度を前記大きい寄与度と決定し、前記伝送条件におけるトレーニングデータのデータ量を減少させる操作と、
前記伝送条件の寄与度が前記基準寄与度よりも大きくない場合、前記伝送条件の寄与度を前記小さい寄与度と決定し、前記伝送条件におけるトレーニングデータのデータ量を増加させる操作と、を含む。
【0086】
選択的に、前記基準寄与度は、前記ソートの中央値、又は前記ソートにおける設定位置の寄与度、又は前記ソートにおける各寄与度の平均値、又は前記ソートにおける前記平均値に最も近い寄与度である。
【0087】
選択的に、前記第1処理モジュールはさらに、
実際の応用における各前記伝送条件の確率密度に基づき、各前記伝送条件に対応する重み付け係数を決定し、そして
前記最適化目標に対する各前記伝送条件の寄与度を基に、前記重み付け係数と組み合わせて、各前記伝送条件におけるトレーニングデータのデータ量を決定するために用いられる。
【0088】
選択的に、前記重み付け係数と前記確率密度は関数的に漸増する関係にある。
【0089】
選択的に、前記装置は、
前記トレーニングデータセットを目標機器に送信するための送信モジュールをさらに備え、前記目標機器は、前記トレーニングデータセットに基づいて前記ニューラルネットワークをトレーニングするために用いられる。
【0090】
選択的に、前記送信モジュールは、
前記トレーニングデータセットを前記目標機器に直接送信し、又は前記トレーニングデータセットを設定変換後に前記目標機器に送信するために用いられ、前記設定変換は、特定の量子化、特定の圧縮、及び予め約束又は配置されたニューラルネットワークに従って処理することのうちの少なくとも1つを含む。
【0091】
本出願の実施例におけるトレーニングデータセット取得装置は、装置、オペレーティングシステムを備える装置又は電子機器であってもよいし、端末又はネットワーク側機器内の部材、集積回路又はチップであってもよい。該装置又は電子機器は、携帯型端末であってもよいし、非携帯型端末であってもよく、また以上で挙げられたネットワーク側機器102の種類を含んでもよいが、それらに限定されない。例として、携帯型端末は、以上で挙げられた端末101の種類を含んでもよいが、それらに限定されることがなく、非携帯型端末は、サーバ、ネットワークアタッチドストレージ(Network Attached Storage,NAS)、パーソナルコンピュータ(personal computer,PC)、テレビ(television,TV)、現金自動預払機又はキオスク等であってもよく、本出願の実施例では具体的に限定しない。
【0092】
本出願の実施例で提供されるトレーニングデータセット取得装置は、
図2の方法実施例において実現される各プロセスを実現し、同様な技術効果を達成することができる。重複を避けるために、ここでは詳細な説明を省略する。
【0093】
本出願の実施例は無線伝送方法をさらに提供し、該方法は端末及び/又はネットワーク側機器によって実行することができ、該端末は、具体的には
図1に示す端末101であってもよく、該ネットワーク側機器は具体的には
図1に示すネットワーク側機器102であってもよい。本出願の実施例で提供される無線伝送方法の手順模式図である
図4に示すように、該方法は次のステップ401を含む。
【0094】
ステップ401で、ニューラルネットワークモデルに基づき、無線伝送演算を行い、前記無線伝送を実現する。
ここで、前記ニューラルネットワークモデルは、予めトレーニングデータセットを利用してトレーニングされたものであり、前記トレーニングデータセットは、上記各実施例に記載のトレーニングデータセット取得方法に基づいて取得される。
【0095】
本出願の実施例では、事前に、上記した各トレーニングデータセット取得方法の実施例に従ってトレーニングデータセットを取得し(又は各伝送条件のデータ割合を取得しておいてもよく)、初期構築したニューラルネットワークを該トレーニングデータセットを利用してトレーニングし、ニューラルネットワークモデルを得ることができると理解してよい。その後、該ニューラルネットワークモデルを本出願の実施例の無線伝送演算プロセスに適用し、演算によって最終的に本出願の実施例の無線伝送を実現する。
【0096】
ここで、本出願の実施例の無線伝送の応用環境は、既存の無線伝送ネットワーク内の1つ又は複数のモジュールの機能を機械学習に置き換えることができるいかなる無線伝送環境であってもよく、つまり、無線伝送において機械学習を利用してニューラルネットワークをトレーニングするのであれば、いずれも本出願の上述したトレーニングデータセット取得方法実施例によってトレーニングデータセットを構築し、該トレーニングデータセットを利用してトレーニングされたニューラルネットワークモデルを無線伝送に用いることができる。無線伝送の応用環境は、例えば、物理層のパイロット設計、チャネル推定、信号検出、ユーザペアリング、HARQ及び測位等と、上位層のリソース割り当て、ハンドオーバ及びモビリティ管理等と、ネットワーク層のスケジューリング又はスライシング等であり、本出願の実施例では、具体的な無線伝送の応用シナリオについて制限しない。
【0097】
本出願の実施例では、ニューラルネットワークの最適化目標(目的関数又は損失関数とも呼ばれる)に対する異なる伝送条件のデータの寄与度に基づき、様々な伝送条件におけるデータを異なる割合で選択し、不均一に混合されるトレーニングデータセットを構築し、該不均一に混合されるトレーニングデータセットに基づいて、1つの共通のニューラルネットワークをトレーニングして、実際の異なる伝送条件での無線伝送に使用し、これにより、トレーニングされたニューラルネットワークは各伝送条件のいずれにおいても高い性能を達成することができる。
【0098】
選択的に、ニューラルネットワークモデルに基づき、無線伝送演算を行う前記ステップの前に、前記無線伝送方法は、
前記トレーニングデータセットに基づき、
単一の端末の集中トレーニング、
単一のネットワーク側機器の集中トレーニング、
複数の端末の共同分散トレーニング、
複数のネットワーク側機器の共同分散トレーニング、
単一のネットワーク側機器と複数の端末の共同分散トレーニング、
複数のネットワーク側機器と複数の端末の共同分散トレーニング、
複数のネットワーク側機器と単一の端末の共同分散トレーニング、を含むトレーニング方式のうちのいずれか1つを利用して、前記ニューラルネットワークモデルをトレーニングして取得するステップをさらに含む。
【0099】
ニューラルネットワークモデルを利用して無線伝送演算を行う前に、先にトレーニングデータセットを利用して該ニューラルネットワークモデルをトレーニングして取得する必要があると理解してよい。具体的には、ニューラルネットワークのトレーニング段階は、オフラインで実行することができ、実行主体は、ネットワーク側機器、又は端末側機器、又はネットワーク側機器-端末側機器の組み合わせであってもよい。選択的に、前記ネットワーク側機器は、アクセスネットワーク機器、コアネットワーク機器、又はデータネットワーク機器である。つまり、本出願の実施例のネットワーク側機器は、アクセスネットワーク内のネットワーク側機器、コアネットワーク機器及びデータネットワーク機器(data network,DN)のうちの1つ又は複数を含んでもよい。アクセスネットワーク内のネットワーク側機器は、基地局、又はRAN側でAIトレーニングを担当するノードであってもよく、又は
図1に列挙されたアクセスネットワーク機器1021のタイプ等に限定されない。コアネットワーク機器は、
図1に列挙されたコアネットワーク機器1022のタイプに限定されず、データネットワーク機器は、NWDAF、UDM、UDR又はUDSF等であってもよい。
【0100】
ここで、実行主体がネットワーク側機器である場合、単一のネットワーク側機器に基づく集中トレーニングであってもよいし、複数のネットワーク側機器に基づく分散トレーニング(例えば連合学習)であってもよい。実行主体が端末側機器である場合、単一の端末に基づく集中トレーニングであってもよいし、複数の端末に基づく分散トレーニング(例えば連合学習)であってもよい。実行主体がネットワーク側機器-端末側機器の組み合わせである場合、単一のネットワーク側機器と複数の端末機器の組み合わせであってもよいし、単一の端末機器と複数のネットワーク側機器の組み合わせであってもよいし、又は複数のネットワーク側機器と複数の端末側機器の組み合わせであってもよい。本出願ではトレーニングプロセスの実行主体について具体的に限定しない。
【0101】
選択的に、前記無線伝送方法は、前記分散トレーニングの過程で、各前記伝送条件におけるトレーニングデータの割合を、前記分散トレーニングを行う各主体間で共有するステップをさらに含む。
【0102】
本出願の実施例では、複数のネットワーク側機器、又は複数の端末機器、又はネットワーク側機器と端末機器の組み合わせを利用してニューラルネットワークモデルを共同トレーニングする時、各実行機器間で1セットの伝送条件のトレーニングデータの割合を共有すると理解してよい。
【0103】
本出願の実施例では、各実行主体間でトレーニングデータの割合を共有することによって、各実行主体は自身のデータを共有することなくニューラルネットワークモデルのトレーニングを実現することができ、単一の機器の計算能力やトレーニング能力が不十分であったり、又は機器間でデータを共有できなかったり(プライバシーの問題がある)、又は大量のデータを伝送する代価が非常に大きいという問題を解決することができる。
【0104】
選択的に、前記分散トレーニングが複数のネットワーク側機器の共同分散トレーニングである場合、前記複数のネットワーク側機器のうちのいずれか1つのネットワーク側機器により、各前記伝送条件におけるトレーニングデータの割合を計算して決定し、前記割合を第1設定タイプのインタフェースシグナリングを介して前記複数のネットワーク側機器のうち前記いずれか1つのネットワーク側機器以外の他のネットワーク側機器に送信する。
【0105】
複数のネットワーク側機器によるニューラルネットワークモデルの共同分散トレーニングの場合、全てのネットワーク側機器は同じデータ割合を共用すると理解してよい。且つこの複数のネットワーク側機器のうちの1つのネットワーク側機器によって各伝送条件におけるトレーニングデータの割合を計算して取得し、該割合を、ネットワーク側インタフェースシグナリングを介してこの複数のネットワーク側機器のうちの他のネットワーク側機器に共有することができる。該ネットワーク側インタフェースシグナリングは、事前に設定された第1設定タイプである。選択的に、前記第1設定タイプのインタフェースシグナリングは、Xnインタフェースシグナリング、N1インタフェースシグナリング、N2インタフェースシグナリング、N3インタフェースシグナリング、N4インタフェースシグナリング、N5インタフェースシグナリング、N6インタフェースシグナリング、N7インタフェースシグナリング、N8インタフェースシグナリング、N9インタフェースシグナリング、N10インタフェースシグナリング、N11インタフェースシグナリング、N12インタフェースシグナリング、N13インタフェースシグナリング、N14インタフェースシグナリング、N15インタフェースシグナリング、又はN22インタフェースシグナリングを含む。ここで、基地局間は、Xnインタフェースを利用し、データ割合の共有をXnインタフェースシグナリングを介して実現することができ、コアネットワーク機器間は、コアネットワーク機器間のN1、N2、N3、N4、N5、N6、N7、N8、N9、N10、N11、N12、N13、N14、N15又はN22インタフェースを利用し、データ割合の共有を対応するタイプのインタフェースシグナリングを介して実現することができる。
【0106】
例えば、ある1つのネットワーク側機器によってデータ割合情報を計算して決定し、その後Xnインタフェースシグナリング(Xnインタフェースシグナリングを含むがこれに限定されない)を介して該データ割合情報を他のネットワーク側機器に共有することができる。
【0107】
選択的に、前記分散トレーニングが複数の端末の共同分散トレーニングである場合、前記複数の端末のうちのいずれか1つの端末により、各前記伝送条件におけるトレーニングデータの割合を計算して決定し、前記割合を第2設定タイプのインタフェースシグナリングを介して前記複数の端末のうち前記いずれか1つの端末以外の他の端末に送信する。
【0108】
複数の端末によるニューラルネットワークモデルの共同分散トレーニングの場合、全ての端末は同じデータ割合を共用すると理解してよい。且つこの複数の端末のうちの1つの端末によって各伝送条件におけるトレーニングデータの割合を計算して取得し、該割合を、端末インタフェースシグナリングを介してこの複数の端末のうちの他の端末に共有することができる。該端末インタフェースシグナリングは、事前に設定された第2設定タイプである。選択的に、前記第2設定タイプのインタフェースシグナリングは、PC5インタフェースシグナリング又はsidelinkインタフェースシグナリングを含む。
【0109】
例えば、ある1つの端末機器によってデータ割合情報を計算して決定し、その後PC5インタフェースシグナリング(PC5インタフェースシグナリングを含むがこれに限定されない)を介して該データ割合情報を他の端末機器に共有する。
【0110】
選択的に、前記分散トレーニングがネットワーク側機器と端末の共同分散トレーニングである場合、前記ネットワーク側機器及び端末のうちのいずれか1つのネットワーク側機器又はいずれか1つの端末により、各前記伝送条件におけるトレーニングデータの割合を計算して決定し、前記割合を第3設定タイプのシグナリングを介して前記ネットワーク側機器及び端末のうち前記いずれか1つのネットワーク側機器又はいずれか1つの端末以外の他のネットワーク側機器又は端末に送信する。
【0111】
実行主体がネットワーク側機器-端末側機器の組み合わせである場合、全ての機器は同じデータ割合を共用すると理解してよい。且つネットワーク側機器-端末側機器の組み合わせのうちの1つの端末(又はネットワーク側機器)によって各伝送条件におけるトレーニングデータの割合を計算して取得し、該割合を、設定タイプのインタフェースシグナリングを介してネットワーク側機器-端末側機器の組み合わせのうちの他の機器に共有することができる。該設定タイプのインタフェースシグナリングは、事前に設定された第3設定タイプのインタフェースシグナリングである。
【0112】
選択的に、前記第3設定タイプのシグナリングは、RRC、PDCCH層1シグナリング、PDSCH、MAC CE、SIB、Xnインタフェースシグナリング、N1インタフェースシグナリング、N2インタフェースシグナリング、N3インタフェースシグナリング、N4インタフェースシグナリング、N5インタフェースシグナリング、N6インタフェースシグナリング、N7インタフェースシグナリング、N8インタフェースシグナリング、N9インタフェースシグナリング、N10インタフェースシグナリング、N11インタフェースシグナリング、N12インタフェースシグナリング、N13インタフェースシグナリング、N14インタフェースシグナリング、N15インタフェースシグナリング、N22インタフェースシグナリング、PUCCH層1シグナリング、PUSCH、PRACHのMSG1、PRACHのMSG3、PRACHのMSG A、PC5インタフェースシグナリング、又はsidelinkインタフェースシグナリングを含む。
【0113】
つまり、トレーニングに関与する複数のネットワーク側機器-端末側機器の間は、RRC、PDCCH層1シグナリング、PDSCH、MAC CE、SIB、Xnインタフェースシグナリング、N1インタフェースシグナリング、N2インタフェースシグナリング、N3インタフェースシグナリング、N4インタフェースシグナリング、N5インタフェースシグナリング、N6インタフェースシグナリング、N7インタフェースシグナリング、N8インタフェースシグナリング、N9インタフェースシグナリング、N10インタフェースシグナリング、N11インタフェースシグナリング、N12インタフェースシグナリング、N13インタフェースシグナリング、N14インタフェースシグナリング、N15インタフェースシグナリング、N22インタフェースシグナリング、PUCCH層1シグナリング、PUSCH、PRACHのMSG1、PRACHのMSG3、PRACHのMSG A、PC5インタフェースシグナリング、又はsidelinkインタフェースシグナリング等のシグナリング(これらを含むがこれらに限定されない)を介して、データ割合情報の共有を実現することができる。
【0114】
選択的に、前記伝送条件におけるリアルタイムデータを取得し、前記リアルタイムデータに基づき、トレーニング済みのニューラルネットワークモデルをオンラインで調整するステップをさらに含む。
【0115】
本出願の実施例では、上記各実施例に従って、オフラインで収集された大量のデータに基づいてネットワークを予備トレーニングして収束させた上で、リアルタイムで収集された伝送環境のオンラインデータを用いて、予備トレーニングされたニューラルネットワークのパラメータをfine-tuning(微調整ともいう)し、ニューラルネットワークを実際の環境に適合させると理解してよい。微調整は、予備トレーニングされたニューラルネットワークのパラメータを初期化として使用するトレーニングプロセスであると考えてよい。微調整段階では、一部の層のパラメータをフリーズすることができ、一般に、入力端に近い層をフリーズし、出力端に近い層をアクティブにし、このように、ネットワークが依然として収束できることを保証することができる。微調整段階のデータ量が少ないほど、より多くの層をフリーズし、出力端に近い少数の層のみを微調整することを推奨する。
【0116】
選択的に、トレーニングされたニューラルネットワークを実際の無線環境で微調整又はfine tuningする時、モデルトレーニング段階での異なる伝送条件のデータ混合比率をそのまま使用してもよいし、トレーニングされたニューラルネットワークを実際の無線環境で微調整する時、データ割合を制御することなく、実際の無線環境で生成されたデータを直接使用して微調整してもよい。
【0117】
本出願の実施例では、ニューラルネットワークモデルのオフライントレーニングを完了する上で、トレーニング済みのニューラルネットワークモデルをオンラインで微調整し、これにより、ニューラルネットワークをより実際の環境に適合させることができる。
【0118】
選択的に、前記伝送条件におけるリアルタイムデータを取得し、前記リアルタイムデータに基づき、トレーニング済みのニューラルネットワークモデルをオンラインで調整する前記ステップは、各前記伝送条件におけるトレーニングデータの割合に基づき、各前記伝送条件におけるリアルタイムデータを取得するステップと、前記伝送条件のうちのいずれか1つの伝送条件におけるリアルタイムデータの割合が、前記いずれか1つの伝送条件におけるトレーニングデータの割合よりも高い場合、前記トレーニング済みのニューラルネットワークモデルをオンラインで調整する過程で、前記いずれか1つの伝送条件におけるリアルタイムデータのうち、前記いずれか1つの伝送条件におけるトレーニングデータの割合を超過したデータを、前記トレーニング済みのニューラルネットワークモデルに入力しないステップと、を含む。
【0119】
上記実施例に従って、トレーニングされたニューラルネットワークモデルを実際の無線環境で微調整又はfine tuningする時、モデルトレーニング段階での異なる伝送条件のデータ混合比率をそのまま使用してもよいと理解してよい。つまり、トレーニング段階での各伝送条件におけるトレーニングデータの割合に基づき、オンライン微調整段階での各伝送条件におけるリアルタイムデータの割合又はデータ量を決定し、これを基に各伝送条件における対応する数量のリアルタイムデータを取得する。トレーニング段階の混合比率をそのまま使用する場合、実際の無線環境からのある伝送条件のデータ割合がモデルトレーニング段階での該伝送条件の割合を超えると、超過した部分のデータを微調整のためにネットワークに入力しない。
【0120】
本出願の実施例では、トレーニング段階のデータ割合をそのまま使用する時、該割合を超過した伝送条件のデータを微調整のためにニューラルネットワークモデルに入力せず、これにより、割合を超過したデータ量によるアンバランスの影響を回避することができる。
【0121】
選択的に、各前記伝送条件におけるリアルタイムデータを取得する前記ステップは、ネットワーク側機器及び端末のうちの少なくとも1つの各前記伝送条件におけるデータを、各前記伝送条件におけるリアルタイムデータとしてオンラインで収集するステップを含み、トレーニング済みのニューラルネットワークモデルをオンラインで調整する前記ステップは、前記ネットワーク側機器及び端末のうちの少なくとも1つの各前記伝送条件におけるデータに基づき、前記ネットワーク側機器又は前記端末を利用して、前記トレーニング済みのニューラルネットワークモデルをオンラインで調整するステップを含む。
【0122】
ニューラルネットワークのトレーニング段階と同様に、本出願の実施例のニューラルネットワークモデルの微調整又はfine tuning段階では、トレーニング段階のデータ割合をそのまま使用すると、実行主体はニューラルネットワークの入力端にあり、ネットワーク側機器及び/又は端末側機器であり得ると理解してよい。つまり、実行主体がネットワーク側機器である場合、ネットワーク側機器の各伝送条件のリアルタイムデータをオンラインで取得することができ、実行主体が端末機器である場合、端末側の各伝送条件のリアルタイムデータをオンラインで取得することができ、実行主体がネットワーク側機器及び端末の両方を含む場合、この両方の実行主体の各伝送条件のリアルタイムデータを取得する必要がある。
【0123】
その後、実際のオンライン微調整時、ネットワーク側機器又は端末が、自身の対応するリアルタイムデータに従ってニューラルネットワークモデルのオンライン微調整を行い、ネットワークパラメータを更新する。
【0124】
選択的に、前記ネットワーク側機器又は前記端末がトレーニング段階で各前記伝送条件におけるトレーニングデータの割合を取得していない場合、各前記伝送条件におけるトレーニングデータの割合に基づき、各前記伝送条件におけるリアルタイムデータを取得する前記ステップの前に、前記無線伝送方法は、
前記ネットワーク側機器により、Xnインタフェースシグナリング、N1インタフェースシグナリング、N2インタフェースシグナリング、N3インタフェースシグナリング、N4インタフェースシグナリング、N5インタフェースシグナリング、N6インタフェースシグナリング、N7インタフェースシグナリング、N8インタフェースシグナリング、N9インタフェースシグナリング、N10インタフェースシグナリング、N11インタフェースシグナリング、N12インタフェースシグナリング、N13インタフェースシグナリング、N14インタフェースシグナリング、N15インタフェースシグナリング、及びN22インタフェースシグナリングのうちのいずれか1つのインタフェースシグナリングを介して、前記トレーニング段階のネットワーク側機器から各前記伝送条件におけるトレーニングデータの割合を取得するステップ、
又は、前記ネットワーク側機器により、PUCCH層1シグナリング、PUSCH、PRACHのMSG1、PRACHのMSG3、及びPRACHのMSG Aのうちのいずれか1つのシグナリングを介して、前記トレーニング段階の端末から各前記伝送条件におけるトレーニングデータの割合を取得するステップ、
又は、前記端末により、PC5インタフェースシグナリング又はsidelinkインタフェースシグナリングを介して、前記トレーニング段階の端末から各前記伝送条件におけるトレーニングデータの割合を取得するステップ、
又は、前記端末により、RRC、PDCCH層1シグナリング、PUSCH、MAC CE、及びSIBのうちのいずれか1つのシグナリングを介して、前記トレーニング段階のネットワーク側機器から各前記伝送条件におけるトレーニングデータの割合を取得するステップをさらに含む。
【0125】
ニューラルネットワークモデルのオンライン微調整段階では、実行主体がトレーニング段階でデータ割合情報を取得していない場合、異なる実行主体のタイプ及び対象となるトレーニング段階の目標実行主体のタイプに応じて、最初にXnインタフェースシグナリングを介して、又はXnインタフェースシグナリング、N1インタフェースシグナリング、N2インタフェースシグナリング、N3インタフェースシグナリング、N4インタフェースシグナリング、N5インタフェースシグナリング、N6インタフェースシグナリング、N7インタフェースシグナリング、N8インタフェースシグナリング、N9インタフェースシグナリング、N10インタフェースシグナリング、N11インタフェースシグナリング、N12インタフェースシグナリング、N13インタフェースシグナリング、N14インタフェースシグナリング、N15インタフェースシグナリング及びN22インタフェースシグナリング等のインタフェースシグナリングを介して、又はPC5インタフェースシグナリングを介して、又はsidelinkインタフェースシグナリングを介して、又はRRC、PDCCH層1シグナリング、MAC CE又はSIB等のインタフェースシグナリング(これらを含むがこれらに限定されない)を介して、データ割合情報を取得してから、微調整又はfine tuningを行う必要があると理解してよい。
【0126】
本出願の実施例では、実行主体がトレーニング段階でデータ割合情報を取得していない場合、設定タイプのインタフェースシグナリングを介して他の実行主体からデータ割合情報を取得し、これにより、オンライン微調整段階のデータ割合情報の共有を実現し、ニューラルネットワークの汎化能力を保証することができる。
【0127】
本出願の実施例の技術的解決手段をさらに説明するために、以下に例を挙げて説明するが、本出願で保護を要求する範囲を限定するものではない。
【0128】
図5は、本出願の実施例で提供される無線伝送方法においてニューラルネットワークモデルを構築する手順模式図である。
図5は本出願の実施例で提供される無線伝送方法に係るモデル構築手順を示し、オフライン(offline)トレーニング段階(図の1の部分)と実際の伝送ネットワークでの微調整又はfine tuning段階(図の2の部分)に分けることができ、ここでオフライントレーニングの前に、まずトレーニングデータセットを構築して取得することができる。
【0129】
トレーニングデータセットを構築して取得する時、まず、全ての伝送条件のデータを等しい割合で混合して、等しい割合での各伝送条件のデータ量又はデータ割合を決定することができる。次に、混合内の全ての伝送条件を、ニューラルネットワークの最適化目標に対する寄与度でソートする。その後、全ての伝送条件のデータが十分であることを保証した前提で、寄与度が低い伝送条件のデータ量を増加させ、寄与度が高い伝送条件のデータ量を減少させることで、各伝送条件のデータの割合を決定し、さらに該割合に基づいて混合トレーニングデータセットを構築する。
【0130】
ここで、異なる伝送条件におけるデータ量を決定する時、「全ての伝送条件のデータが十分であることを保証する」ことは、閾値を設定し、いずれかの伝送条件のデータ量が総データ量に占める割合が該閾値以上であるようにすることであってもよい。
【0131】
「寄与度が低い伝送条件のデータ量を増加させ、寄与度が高い伝送条件のデータ量を減少させる」時、寄与度が低いほど、データ量は増加し、寄与度が高いほど、データ量は減少する。寄与度をソートする時、寄与度が小さいものから大きいものへとソートされる場合、対応する伝送条件のデータが全データに占める割合(即ち占有率)は、例えば、線形減少、等差減少、等比減少、指数関数的減少、又はベキ関数的減少等の任意の漸減方式であり得る。逆に、寄与度が大きいものから小さいものへとソートされる場合、対応する伝送条件のデータが全データに占める割合は、例えば、線形増加、等差増加、等比増加、指数関数的増加、又はベキ関数的増加等の任意の漸増方式であり得る。
【0132】
ここで、各伝送条件のデータの割合を決定する1つの実施可能な方式は、本出願の実施例で提供されるトレーニングデータセット取得方法においてトレーニングデータの割合を決定する手順模式図である
図6に示され、主に以下のステップを含む。
【0133】
ソート後に寄与度の中央値(中間値)を見つけ、各伝送条件の寄与度を順に該中央値と比較する。
【0134】
i番目の伝送条件の寄与度が寄与度の中央値より大きければ、全ての伝送条件のデータ量が十分であることを保証した前提で、該i番目の伝送条件のデータ量を減少させ、減少幅は、該i番目の伝送条件の寄与度と寄与度の中央値(中間値)の差に比例する。
i番目の伝送条件の寄与度が寄与度の中央値より小さければ、全ての伝送条件のデータ量が十分であることを保証した前提で、該i番目の伝送条件のデータ量を増加させ、増加幅は、寄与度の中央値(中間値)と該i番目の伝送条件の寄与度の差に比例する。
【0135】
トレーニングデータセットを取得した後、該トレーニングデータセットを利用して、ニューラルネットワークモデルのトレーニングをオフラインでループ繰り返しして、収束させ、トレーニング済みのニューラルネットワークモデルを得る。
【0136】
次に、実際の無線ネットワークのデータをリアルタイムで収集し、予備トレーニングされたニューラルネットワークモデルのパラメータを微調整(fine-tuning)し、ニューラルネットワークモデルを実際の環境に適合させる。オンライン微調整は、予備トレーニングされたニューラルネットワークのパラメータを初期化として使用する再トレーニングのプロセスと考えてよい。
【0137】
例えば、無線伝送における復調基準信号(Demodulation Reference Signal,DMRS)チャネル推定という具体的な応用シナリオを例とし、N_RB個のRBを含むシステムを考慮し、各RBはN_SC個のサブキャリアとN_Sym個のシンボルを含み、即ちシステムは合計でN_RE=N_RB*N_SC*N_Sym個の時間周波数リソースを含む。チャネル推定のために、各RBの周波数領域にN_SC_DMRS個を配置し、時間領域にN_Sym_DMRS個のDMRSを配置し、即ち、DMRSは合計でN_RE_DMRS=N_RB*N_SC_DMRS*N_Sym_DMRS個の時間周波数リソースを占有する。受信側は、受信したN_RE_DMRS個の時間周波数リソース位置のDMRS信号に基づき、全てのN_RE個の時間周波数リソースでのチャネル推定を回復する。
【0138】
上記プロセスを実現するニューラルネットワークの構造は、本出願の実施例で提供される無線伝送方法におけるDMRSチャネル推定用のニューラルネットワークの構造模式図である
図7に示され、ここで、ニューラルネットワークの入力情報は、N_RE_DMRS個のDMRSオーバーチャネルとノイズシンボルであり、ニューラルネットワークの出力情報は、全てのN_RE個の時間周波数リソースでのチャネル推定結果に対応するN_RE個のシンボルである。
【0139】
ニューラルネットワークをトレーニングする時、トレーニングデータは、ラベル付きのDMRS情報ペアであり、即ち1つのDMRS信号サンプル(N_RE_DMRS個のシンボルを含む)は、1つのラベル(該ラベルは、現在のDMRS信号サンプルに対応するチャネルの真値であり、合計でN_RE_DMRS個のシンボルである)に対応する。トレーニングの時、大量のラベル付きのDMRS情報ペアを使用してニューラルネットワークのパラメータを調整し、DMRS信号サンプルに基づくニューラルネットワークの出力とそのラベルとの正規化された平均二乗誤差NMSEを最小化する。
【0140】
【0141】
まず、ネットワーク側機器において、混合トレーニングデータセットを構築する時の各SNRのデータ割合を決定する。
【0142】
【0143】
【0144】
次に、ネットワーク側機器は、各SNRのデータ割合情報を、RRC、PDCCH層1シグナリング、MAC CE又はSIB等のインタフェースシグナリングを介して、共同トレーニングに関与する全ての端末に送信し、ニューラルネットワークの連合学習を行い、つまりオフライントレーニングを行う。
【0145】
ニューラルネットワークのオフライントレーニングを完了した後、トレーニング済みのニューラルネットワークを実際の無線ネットワークにおいてオンライン微調整する。データ割合情報は、オフライントレーニング段階で全ての端末に共有されているため、オンライン微調整段階では該データ割合をそのまま使用することができる。実際の無線環境からのあるSNRのデータ割合がモデルトレーニング段階での該SNRの割合を超えると、超過した部分のデータを微調整のためにニューラルネットワークに入力しない。
【0146】
本出願の実施例は、トレーニングされたニューラルネットワークモデルの変化する無線環境における汎化能力を高めることができる。
【0147】
説明すべきことは、本出願の実施例で提供される無線伝送方法の実行主体が、無線伝送装置であってもよいし、又は、該無線伝送装置内の、無線伝送方法を実行するための制御モジュールであってもよい点である。本出願の実施例において、無線伝送装置が無線伝送方法を実行することを例として、本出願の実施例で提供される無線伝送装置を説明する。
【0148】
本出願の実施例の無線伝送装置の構造は、本出願の実施例で提供される無線伝送装置の構造模式図である
図8に示され、該装置は、上記した各無線伝送方法実施例における無線伝送を実現するために用いることができ、該装置は、
ニューラルネットワークモデルに基づき、無線伝送演算を行い、前記無線伝送を実現するための第3処理モジュール801を備える。
ここで、前記ニューラルネットワークモデルは、予めトレーニングデータセットを利用してトレーニングされたものであり、前記トレーニングデータセットは、上記各実施例に記載のトレーニングデータセット取得方法に基づいて取得される。
【0149】
選択的に、前記無線伝送装置は、
前記トレーニングデータセットに基づき、
単一の端末の集中トレーニング、
単一のネットワーク側機器の集中トレーニング、
複数の端末の共同分散トレーニング、
複数のネットワーク側機器の共同分散トレーニング、
単一のネットワーク側機器と複数の端末の共同分散トレーニング、
複数のネットワーク側機器と複数の端末の共同分散トレーニング、
複数のネットワーク側機器と単一の端末の共同分散トレーニング、を含むトレーニング方式のうちのいずれか1つを利用して、前記ニューラルネットワークモデルをトレーニングして取得するためのトレーニングモジュールをさらに備える。
【0150】
選択的に、前記ネットワーク側機器は、アクセスネットワーク機器、コアネットワーク機器、又はデータネットワーク機器である。
【0151】
選択的に、前記無線伝送装置は、
前記分散トレーニングの過程で、各前記伝送条件におけるトレーニングデータの割合を、前記分散トレーニングを行う各主体間で共有するための第4処理モジュールをさらに備える。
【0152】
選択的に、前記分散トレーニングが複数のネットワーク側機器の共同分散トレーニングである場合、前記第4処理モジュールは、前記複数のネットワーク側機器のうちのいずれか1つのネットワーク側機器により、各前記伝送条件におけるトレーニングデータの割合を計算して決定し、前記割合を第1設定タイプのインタフェースシグナリングを介して前記複数のネットワーク側機器のうち前記いずれか1つのネットワーク側機器以外の他のネットワーク側機器に送信するために用いられる。
【0153】
選択的に、前記第1設定タイプのインタフェースシグナリングは、Xnインタフェースシグナリング、N1インタフェースシグナリング、N2インタフェースシグナリング、N3インタフェースシグナリング、N4インタフェースシグナリング、N5インタフェースシグナリング、N6インタフェースシグナリング、N7インタフェースシグナリング、N8インタフェースシグナリング、N9インタフェースシグナリング、N10インタフェースシグナリング、N11インタフェースシグナリング、N12インタフェースシグナリング、N13インタフェースシグナリング、N14インタフェースシグナリング、N15インタフェースシグナリング、又はN22インタフェースシグナリングを含む。
【0154】
選択的に、前記分散トレーニングが複数の端末の共同分散トレーニングである場合、前記第4処理モジュールは、前記複数の端末のうちのいずれか1つの端末により、各前記伝送条件におけるトレーニングデータの割合を計算して決定し、前記割合を第2設定タイプのインタフェースシグナリングを介して前記複数の端末のうち前記いずれか1つの端末以外の他の端末に送信するために用いられる。
【0155】
選択的に、前記第2設定タイプのインタフェースシグナリングは、PC5インタフェースシグナリング又はsidelinkインタフェースシグナリングを含む。
【0156】
選択的に、前記分散トレーニングがネットワーク側機器と端末の共同分散トレーニングである場合、前記第4処理モジュールは、前記ネットワーク側機器及び端末のうちのいずれか1つのネットワーク側機器又はいずれか1つの端末により、各前記伝送条件におけるトレーニングデータの割合を計算して決定し、前記割合を第3設定タイプのシグナリングを介して前記ネットワーク側機器及び端末のうち前記いずれか1つのネットワーク側機器又はいずれか1つの端末以外の他のネットワーク側機器又は端末に送信するために用いられる。
【0157】
選択的に、前記第3設定タイプのシグナリングは、RRC、PDCCH層1シグナリング、PDSCH、MAC CE、SIB、Xnインタフェースシグナリング、N1インタフェースシグナリング、N2インタフェースシグナリング、N3インタフェースシグナリング、N4インタフェースシグナリング、N5インタフェースシグナリング、N6インタフェースシグナリング、N7インタフェースシグナリング、N8インタフェースシグナリング、N9インタフェースシグナリング、N10インタフェースシグナリング、N11インタフェースシグナリング、N12インタフェースシグナリング、N13インタフェースシグナリング、N14インタフェースシグナリング、N15インタフェースシグナリング、N22インタフェースシグナリング、PUCCH層1シグナリング、PUSCH、PRACHのMSG1、PRACHのMSG3、PRACHのMSG A、PC5インタフェースシグナリング、又はsidelinkインタフェースシグナリングを含む。
【0158】
選択的に、前記無線伝送装置は、
前記伝送条件におけるリアルタイムデータを取得し、前記リアルタイムデータに基づき、トレーニング済みのニューラルネットワークモデルをオンラインで調整するための微調整モジュールをさらに備える。
【0159】
選択的に、前記微調整モジュールは、
各前記伝送条件におけるトレーニングデータの割合に基づき、各前記伝送条件におけるリアルタイムデータを取得し、そして
前記伝送条件のうちのいずれか1つの伝送条件におけるリアルタイムデータの割合が、前記いずれか1つの伝送条件におけるトレーニングデータの割合よりも高い場合、前記トレーニング済みのニューラルネットワークモデルをオンラインで調整する過程で、前記いずれか1つの伝送条件におけるリアルタイムデータのうち、前記いずれか1つの伝送条件におけるトレーニングデータの割合を超過したデータを、前記トレーニング済みのニューラルネットワークモデルに入力しないために用いられる。
【0160】
選択的に、前記微調整モジュールは、各前記伝送条件におけるリアルタイムデータを取得する前記ステップに用いられる時、
ネットワーク側機器及び端末のうちの少なくとも1つの各前記伝送条件におけるデータを、各前記伝送条件におけるリアルタイムデータとしてオンラインで収集するために用いられ、
前記微調整モジュールは、トレーニング済みのニューラルネットワークモデルをオンラインで調整する前記ステップに用いられる時、
前記ネットワーク側機器及び端末のうちの少なくとも1つの各前記伝送条件におけるデータに基づき、前記ネットワーク側機器又は前記端末を利用して、前記トレーニング済みのニューラルネットワークモデルをオンラインで調整するために用いられる。
【0161】
選択的に、前記無線伝送装置は、
前記ネットワーク側機器又は前記端末がトレーニング段階で各前記伝送条件におけるトレーニングデータの割合を取得していない場合、
前記ネットワーク側機器により、Xnインタフェースシグナリング、N1インタフェースシグナリング、N2インタフェースシグナリング、N3インタフェースシグナリング、N4インタフェースシグナリング、N5インタフェースシグナリング、N6インタフェースシグナリング、N7インタフェースシグナリング、N8インタフェースシグナリング、N9インタフェースシグナリング、N10インタフェースシグナリング、N11インタフェースシグナリング、N12インタフェースシグナリング、N13インタフェースシグナリング、N14インタフェースシグナリング、N15インタフェースシグナリング、及びN22インタフェースシグナリングのうちのいずれか1つのインタフェースシグナリングを介して、前記トレーニング段階のネットワーク側機器から各前記伝送条件におけるトレーニングデータの割合を取得し、
又は、前記ネットワーク側機器により、PUCCH層1シグナリング、PUSCH、PRACHのMSG1、PRACHのMSG3、及びPRACHのMSG Aのうちのいずれか1つのシグナリングを介して、前記トレーニング段階の端末から各前記伝送条件におけるトレーニングデータの割合を取得し、
又は、前記端末により、PC5インタフェースシグナリング又はsidelinkインタフェースシグナリングを介して、前記トレーニング段階の端末から各前記伝送条件におけるトレーニングデータの割合を取得し、
又は、前記端末により、RRC、PDCCH層1シグナリング、PUSCH、MAC CE、及びSIBのうちのいずれか1つのシグナリングを介して、前記トレーニング段階のネットワーク側機器から各前記伝送条件におけるトレーニングデータの割合を取得するための通信モジュールをさらに備える。
【0162】
本出願の実施例における無線伝送装置は、装置、オペレーティングシステムを備える装置又は電子機器であってもよいし、端末又はネットワーク側機器内の部材、集積回路又はチップであってもよい。該装置又は電子機器は、携帯型端末であってもよいし、非携帯型端末であってもよく、また以上で挙げられたネットワーク側機器102の種類を含んでもよいが、それらに限定されない。例として、携帯型端末は、以上で挙げられた端末101の種類を含んでもよいが、それらに限定されることがなく、非携帯型端末は、サーバ、ネットワークアタッチドストレージ(Network Attached Storage,NAS)、パーソナルコンピュータ(personal computer,PC)、テレビ(television,TV)、現金自動預払機又はキオスク等であってもよく、本出願の実施例では具体的に限定しない。
【0163】
本出願の実施例における無線伝送装置は、オペレーティングシステムを有する装置であってもよい。該オペレーティングシステムは、アンドロイド(Android)オペレーティングシステムであってもよく、iosオペレーティングシステムであってもよく、他の可能なオペレーティングシステムであってもよく、本発明の実施例では具体的に限定しない。
【0164】
本出願の実施例で提供される無線伝送装置は、
図4~
図7の無線伝送方法実施例において実現される各プロセスを実現し、同様な技術効果を達成することができる。重複を避けるために、ここでは詳細な説明を省略する。
【0165】
図9に示すように、本出願の実施例は、通信機器900をさらに提供し、該通信機器900は、プロセッサ901と、メモリ902と、メモリ902に記憶され、前記プロセッサ901によって実行可能なプログラムもしくはコマンドとを備える。例えば、該通信機器900が端末又はネットワーク側機器である時、該プログラムもしくはコマンドがプロセッサ901によって実行されると、上記したトレーニングデータセット取得方法実施例の各プロセスを実現し、同様な技術効果を達成することができ、又は上記した無線伝送方法実施例の各プロセスを実現し、同様な技術効果を達成することができる。重複を避けるために、ここでは詳細な説明を省略する。
【0166】
本出願の実施例は通信機器をさらに提供し、該通信機器は端末又はネットワーク側機器であってもよく、該通信機器はプロセッサ及び通信インタフェースを備え、ここでプロセッサが、ニューラルネットワークの最適化目標に対する各伝送条件の寄与度に基づき、各前記伝送条件におけるトレーニングデータのデータ量を決定し、そして各前記伝送条件におけるトレーニングデータのデータ量に基づき、各前記伝送条件におけるトレーニングデータを取得して、前記ニューラルネットワークをトレーニングするためのトレーニングデータセットを形成するために用いられ、ここで、ニューラルネットワークの最適化目標に対する伝送条件の前記寄与度は、前記ニューラルネットワークの最適化目標の値に対する前記伝送条件の影響度を表す。説明すべきことは、該通信機器の実施例は、上記したトレーニングデータセット取得方法実施例に対応し、上記した方法実施例の各実施プロセス及び実施形態は全て該通信機器の実施例に適用することができ、同様な技術効果を達成することができる点である。
【0167】
本出願の実施例は通信機器をさらに提供し、該通信機器は端末又はネットワーク側機器であってもよく、該通信機器はプロセッサ及び通信インタフェースを備え、ここでプロセッサが、ニューラルネットワークモデルに基づき、無線伝送演算を行い、前記無線伝送を実現するために用いられ、ここで、前記ニューラルネットワークモデルは、予めトレーニングデータセットを利用してトレーニングされたものであり、前記トレーニングデータセットは、上記各実施例に記載のトレーニングデータセット取得方法に基づいて取得される。説明すべきことは、該通信機器の実施例は上記した無線伝送方法実施例に対応し、上記した方法実施例の各実施プロセス及び実施形態は全て該通信機器の実施例に適用することができ、同様な技術効果を達成することができる点である。
【0168】
具体的には、
図10は本出願の実施例を実現する端末のハードウェア構造模式図である。該端末1000は、高周波ユニット1001、ネットワーク機器モジュール1002、オーディオ出力ユニット1003、入力ユニット1004、センサ1005、表示ユニット1006、ユーザ入力ユニット1007、インタフェースユニット1008、メモリ1009、及びプロセッサ1010等の部材の少なくとも一部を含むが、それらに限定されない。
【0169】
当業者であれば、端末1000は各部材に給電する電源(例えば、電池)をさらに含んでもよく、電源は電源管理システムによってプロセッサ1010に論理的に接続し、さらに電源管理システムによって充放電の管理、及び電力消費管理等の機能を実現できることが理解可能である。
図10に示す端末構造は端末を限定するものではなく、端末は図示より多く又はより少ない部材、又は一部の部材の組合せ、又は異なる部材配置を含んでもよく、ここでは詳細な説明を省略する。
【0170】
本出願の実施例において、入力ユニット1004は、ビデオキャプチャモード又は画像キャプチャモードで画像キャプチャ装置(例えば、カメラ)が取得したスチル画像又はビデオの画像データを処理するグラフィックスプロセッシングユニット(Graphics Processing Unit,GPU)10041、及びマイクロホン10042を含んでもよいことを理解すべきである。表示ユニット1006は表示パネル10061を含んでもよく、液晶ディスプレイ、有機発光ダイオード等の形態で表示パネル10061を配置することができる。ユーザ入力ユニット1007はタッチパネル10071及び他の入力機器10072を含む。タッチパネル10071はタッチスクリーンとも呼ばれる。タッチパネル10071は、タッチ検出装置及びタッチコントローラとの2つの部分を含んでもよい。他の入力機器10072は、物理キーボード、機能ボタン(例えば、音量制御ボタン、スイッチボタン等)、トラックボール、マウス、操作レバーを含んでもよいが、それらに限定されず、ここでは詳細な説明を省略する。
【0171】
本出願の実施例において、高周波ユニット1001はネットワーク機器からのダウンリンクデータを受信した後、プロセッサ1010で処理し、また、アップリンクのデータをネットワーク側機器に送信する。通常、高周波ユニット1001は、アンテナ、少なくとも1つの増幅器、受送信機、カプラー、低騒音増幅器、デュプレクサ等を含むが、それらに限定されない。
【0172】
メモリ1009は、ソフトウェアプログラムもしくはコマンド及び様々なデータを記憶するために用いることができる。メモリ1009は、オペレーティングシステム、少なくとも1つの機能に必要なアプリケーションもしくはコマンド(例えば、音声再生機能、画像再生機能等)等を記憶可能なプログラムもしくはコマンド記憶領域と、データ記憶領域とを主に含んでもよい。また、メモリ1009は、高速ランダムアクセスメモリを含んでもよく、非揮発性メモリをさらに含んでもよい。ここで、非揮発性メモリは、読み取り専用メモリ(Read-Only Memory,ROM)、プログラマブル読み取り専用メモリ(Programmable ROM,PROM)、消去可能プログラマブル読み取り専用メモリ(Erasable PROM,EPROM)、電気消去可能プログラマブル読み取り専用メモリ(Electrically EPROM,EEPROM)又はラッシュメモリであってもよく、例えば、少なくとも1つのディスク記憶装置、フラッシュメモリ、又は他の非揮発性ソリッドステート記憶装置である。揮発性メモリは、ランダムアクセスメモリ(Random Access Memory,RAM)、スタティックランダムアクセスメモリ(Static RAM,SRAM)、ダイナミックランダムアクセスメモリ(Dynamic RAM,DRAM)、同期ダイナミックランダムアクセスメモリ(Synchronous DRAM,SDRAM)、ダブルデータレート同期ダイナミックランダムアクセスメモリ(Double Data Rate SDRAM,DDRSDRAM)、強化型同期ダイナミックランダムアクセスメモリ(Enhanced SDRAM,ESDRAM)、同期接続ダイナミックランダムアクセスメモリ(Synch link DRAM,SLDRAM)、及びダイレクトラムバスランダムアクセスメモリ(Direct Rambus RAM,DRRAM)であってもよい。本出願の実施例におけるメモリ1009は、これらのメモリ及び他のいかなる適切なメモリを含むが、それらに限定されない。
【0173】
プロセッサ1010は、1つ又は複数の処理ユニットを含んでもよい。選択的に、プロセッサ1010に、オペレーティングシステム、ユーザインタフェース及びアプリケーションもしくはコマンド等を主に処理するアプリケーションプロセッサと、無線通信を主に処理するベースバンドプロセッサのようなモデムプロセッサとを統合することができる。上記モデムプロセッサはプロセッサ1010に統合されなくてもよいことが理解可能である。
【0174】
ここで、プロセッサ1010は、ニューラルネットワークの最適化目標に対する各伝送条件の寄与度に基づき、各前記伝送条件におけるトレーニングデータのデータ量を決定し、そして各前記伝送条件におけるトレーニングデータのデータ量に基づき、各前記伝送条件におけるトレーニングデータを取得して、前記ニューラルネットワークをトレーニングするためのトレーニングデータセットを形成するために用いられ、ここで、ニューラルネットワークの最適化目標に対する伝送条件の前記寄与度は、前記ニューラルネットワークの最適化目標の値に対する前記伝送条件の影響度を表す。
【0175】
本出願の実施例は、人工知能ベースの通信システムにおいてトレーニングデータセットを構築する時、ニューラルネットワークの最適化目標(目的関数又は損失関数とも呼ばれる)に対する異なる伝送条件のデータの寄与度に基づき、様々な伝送条件におけるデータを異なる割合で選択し、混合トレーニングデータセットを構築し、これによりニューラルネットワークの汎化能力を効果的に向上させることができる。
【0176】
選択的に、プロセッサ1010はさらに、各前記伝送条件の寄与度をソートし、そして、等しい割合で混合する上で、前記ソートにおける大きい寄与度に対応する伝送条件におけるトレーニングデータのデータ量を減少させる操作と、前記ソートにおける小さい寄与度に対応する伝送条件におけるトレーニングデータのデータ量を増加させる操作とのうちの少なくとも1つを実行するために用いられる。
【0177】
本出願の実施例では、各伝送条件の寄与度をソートし、該ソートに基づいて対応する伝送条件のデータ量を調整することで、対応する伝送条件のデータ量の調整ポリシー(データ量を増加させる必要があるか減少させる必要があるか、増加又は減少の幅等を含む)をより明確且つ正確に決定することができ、これにより効率がより高く、結果がより正確になる。
【0178】
選択的に、プロセッサ1010はさらに、各前記伝送条件におけるトレーニングデータのデータ量に基づき、各前記伝送条件におけるデータを収集してキャリブレーションし、各前記伝送条件におけるトレーニングデータセットを構成するために、又は、各前記伝送条件における設定数のデータを収集し、各前記伝送条件におけるトレーニングデータのデータ量に基づき、前記設定数のデータから一部のデータを選択してキャリブレーションするか、又は前記設定数のデータを補完してキャリブレーションし、各前記伝送条件におけるトレーニングデータセットを構成するために用いられる。
【0179】
選択的に、プロセッサ1010はさらに、前記ソートにおける大きい寄与度に対応する伝送条件におけるトレーニングデータのデータ量を減少させる操作と、前記ソートにおける小さい寄与度に対応する伝送条件におけるトレーニングデータのデータ量を増加させる操作とのうちの少なくとも1つを次のルールに従って実行するために用いられ、前記ルールは、前記大きい寄与度の値が大きいほど、前記減少の幅が大きくなり、前記小さい寄与度の値が小さいほど、前記増加の幅が大きくなることを含む。
【0180】
本出願の実施例では、寄与度の値の大きさに基づき、対応する伝送条件のトレーニングデータのデータ量を比例的に増加又は減少させ、伝送条件の寄与度が高くなるにつれて、伝送条件のトレーニングデータのデータ量を減少させることができ、これにより、最終的なニューラルネットワークに対する各伝送条件の影響のバランスがより良くなり、ニューラルネットワーク汎化能力の改善により有利である。
【0181】
選択的に、プロセッサ1010はさらに、前記ソートに基づいて基準寄与度を決定し、前記伝送条件の寄与度と前記基準寄与度を比較するために用いられ、前記伝送条件の寄与度が前記基準寄与度よりも大きい場合、前記伝送条件の寄与度を前記大きい寄与度と決定し、前記伝送条件におけるトレーニングデータのデータ量を減少させ、そうでなければ、前記伝送条件の寄与度を前記小さい寄与度と決定し、前記伝送条件におけるトレーニングデータのデータ量を増加させる。
【0182】
本出願の実施例では、寄与度の中間的な比較基準量を決定することにより、他の寄与度を該比較基準量と比較するだけで、比較結果に応じて対応する伝送条件のデータ量を増加させるか減少させるかを決定することができ、アルゴリズムが簡単で、計算量が少ない。
【0183】
選択的に、プロセッサ1010はさらに、実際の応用における各前記伝送条件の確率密度に基づき、各前記伝送条件に対応する重み付け係数を決定し、そして前記最適化目標に対する各前記伝送条件の寄与度を基に、前記重み付け係数と組み合わせて、各前記伝送条件におけるトレーニングデータのデータ量を決定するために用いられる。
【0184】
本出願の実施例では、伝送条件の実際の確率密度に基づいて重み付け項を設計し、実際の環境によりよく適合することができる。
【0185】
選択的に、高周波ユニット1001は、前記トレーニングデータセットを目標機器に送信するために用いられ、前記目標機器は、前記トレーニングデータセットに基づいて前記ニューラルネットワークをトレーニングするために用いられる。
【0186】
本出願の実施例では、取得されたトレーニングデータセットを現在の機器以外の第2機器に送信し、これにより、複数の機器間はデータ共有と共同トレーニングを実現することができ、それによって単一機器の演算量を効果的に低減し、演算効率を効果的に向上させることができる。
【0187】
選択的に、高周波ユニット1001は、前記トレーニングデータセットを前記目標機器に直接送信し、又は設定変換後のトレーニングデータセットを前記目標機器に送信するために用いられ、
プロセッサ1010はさらに、前記トレーニングデータセットに対して設定変換を行うために用いられ、前記設定変換は、特定の量子化、特定の圧縮、及び予め約束又は配置されたニューラルネットワークに従って処理することのうちの少なくとも1つを含む。
【0188】
選択的に、プロセッサ1010はさらに、ニューラルネットワークモデルに基づき、無線伝送演算を行い、前記無線伝送を実現するために用いられ、ここで、前記ニューラルネットワークモデルは、予めトレーニングデータセットを利用してトレーニングされたものであり、前記トレーニングデータセットは、上記した各トレーニングデータセット取得方法実施例に記載のトレーニングデータセット取得方法に基づいて取得される。
【0189】
本出願の実施例では、ニューラルネットワークの最適化目標(目的関数又は損失関数とも呼ばれる)に対する異なる伝送条件のデータの寄与度に基づき、様々な伝送条件におけるデータを異なる割合で選択し、不均一に混合されるトレーニングデータセットを構築し、該不均一に混合されるトレーニングデータセットに基づいて、1つの共通のニューラルネットワークをトレーニングして、実際の異なる伝送条件での無線伝送に使用し、これにより、トレーニングされたニューラルネットワークは各伝送条件のいずれにおいても高い性能を達成することができる。
【0190】
選択的に、プロセッサ1010はさらに、前記トレーニングデータセットに基づき、
単一の端末の集中トレーニング、
単一のネットワーク側機器の集中トレーニング、
複数の端末の共同分散トレーニング、
複数のネットワーク側機器の共同分散トレーニング、
単一のネットワーク側機器と複数の端末の共同分散トレーニング、
複数のネットワーク側機器と複数の端末の共同分散トレーニング、
複数のネットワーク側機器と単一の端末の共同分散トレーニング、を含むトレーニング方式のうちのいずれか1つを利用して、前記ニューラルネットワークモデルをトレーニングして取得するために用いられる。
【0191】
選択的に、高周波ユニット1001はさらに、前記分散トレーニングの過程で、各前記伝送条件におけるトレーニングデータの割合を、前記分散トレーニングを行う各主体間で共有するために用いられる。
【0192】
本出願の実施例では、各実行主体間でトレーニングデータの割合を共有することによって、各実行主体は自身のデータを共有することなくニューラルネットワークモデルのトレーニングを実現することができ、単一の機器の計算能力やトレーニング能力が不十分であったり、又は機器間でデータを共有できなかったり(プライバシーの問題がある)、又は大量のデータを伝送する代価が非常に大きいという問題を解決することができる。
【0193】
選択的に、プロセッサ1010はさらに、前記分散トレーニングが複数のネットワーク側機器の共同分散トレーニングである場合、前記複数のネットワーク側機器のうちのいずれか1つのネットワーク側機器により、各前記伝送条件におけるトレーニングデータの割合を計算して決定するために用いられ、
高周波ユニット1001はさらに、前記割合を第1設定タイプのインタフェースシグナリングを介して前記複数のネットワーク側機器のうち前記いずれか1つのネットワーク側機器以外の他のネットワーク側機器に送信するために用いられる。
【0194】
選択的に、プロセッサ1010はさらに、前記分散トレーニングが複数の端末の共同分散トレーニングである場合、前記複数の端末のうちのいずれか1つの端末により、各前記伝送条件におけるトレーニングデータの割合を計算して決定するために用いられ、
高周波ユニット1001はさらに、前記割合を第2設定タイプのインタフェースシグナリングを介して前記複数の端末のうち前記いずれか1つの端末以外の他の端末に送信するために用いられる。
【0195】
選択的に、プロセッサ1010はさらに、前記分散トレーニングがネットワーク側機器と端末の共同分散トレーニングである場合、前記ネットワーク側機器及び端末のうちのいずれか1つのネットワーク側機器又はいずれか1つの端末により、各前記伝送条件におけるトレーニングデータの割合を計算して決定するために用いられ、
高周波ユニット1001はさらに、前記割合を第3設定タイプのシグナリングを介して前記ネットワーク側機器及び端末のうち前記いずれか1つのネットワーク側機器又はいずれか1つの端末以外の他のネットワーク側機器又は端末に送信するために用いられる。
【0196】
選択的に、プロセッサ1010はさらに、前記伝送条件におけるリアルタイムデータを取得し、前記リアルタイムデータに基づき、トレーニング済みのニューラルネットワークモデルをオンラインで調整するために用いられる。
【0197】
本出願の実施例では、ニューラルネットワークモデルのオフライントレーニングを完了する上で、トレーニング済みのニューラルネットワークモデルをオンラインで微調整し、これにより、ニューラルネットワークをより実際の環境に適合させることができる。
【0198】
選択的に、プロセッサ1010はさらに、各前記伝送条件におけるトレーニングデータの割合に基づき、各前記伝送条件におけるリアルタイムデータを取得し、そして、前記伝送条件のうちのいずれか1つの伝送条件におけるリアルタイムデータの割合が、前記いずれか1つの伝送条件におけるトレーニングデータの割合よりも高い場合、前記トレーニング済みのニューラルネットワークモデルをオンラインで調整する過程で、前記いずれか1つの伝送条件におけるリアルタイムデータのうち、前記いずれか1つの伝送条件におけるトレーニングデータの割合を超過したデータを、前記トレーニング済みのニューラルネットワークモデルに入力しないために用いられる。
【0199】
本出願の実施例では、トレーニング段階のデータ割合をそのまま使用する時、該割合を超過した伝送条件のデータを微調整のためにニューラルネットワークモデルに入力せず、これにより、割合を超過したデータ量によるアンバランスの影響を回避することができる。
【0200】
選択的に、入力ユニット1004は、ネットワーク側機器及び端末のうちの少なくとも1つの各前記伝送条件におけるデータを、各前記伝送条件におけるリアルタイムデータとしてオンラインで収集するために用いられ、
プロセッサ1010はさらに、前記ネットワーク側機器及び端末のうちの少なくとも1つの各前記伝送条件におけるデータに基づき、前記ネットワーク側機器又は前記端末を利用して、前記トレーニング済みのニューラルネットワークモデルをオンラインで調整するために用いられる。
【0201】
選択的に、通信機器がネットワーク側機器である場合、高周波ユニット1001はさらに、Xnインタフェースシグナリング、N1インタフェースシグナリング、N2インタフェースシグナリング、N3インタフェースシグナリング、N4インタフェースシグナリング、N5インタフェースシグナリング、N6インタフェースシグナリング、N7インタフェースシグナリング、N8インタフェースシグナリング、N9インタフェースシグナリング、N10インタフェースシグナリング、N11インタフェースシグナリング、N12インタフェースシグナリング、N13インタフェースシグナリング、N14インタフェースシグナリング、N15インタフェースシグナリング、及びN22インタフェースシグナリングのうちのいずれか1つのネットワーク側インタフェースシグナリングを介して、前記トレーニング段階のネットワーク側機器から各前記伝送条件におけるトレーニングデータの割合を取得するために、又は、RRC、PDCCH層1シグナリング、MAC CE、及びSIBのうちのいずれか1つのインタフェースシグナリングを介して、前記トレーニング段階の端末から各前記伝送条件におけるトレーニングデータの割合を取得するために用いられる。
【0202】
通信機器が端末である場合、高周波ユニット1001はさらに、PC5インタフェースシグナリング又はsidelinkインタフェースシグナリングを介して、前記トレーニング段階の端末から各前記伝送条件におけるトレーニングデータの割合を取得するために、又は、RRC、PDCCH層1シグナリング、MAC CE、及びSIBのうちのいずれか1つのシグナリングを介して、前記トレーニング段階のネットワーク側機器から各前記伝送条件におけるトレーニングデータの割合を取得するために用いられる。
【0203】
本出願の実施例では、実行主体がトレーニング段階でデータ割合情報を取得していない場合、設定タイプのインタフェースシグナリングを介して他の実行主体からデータ割合情報を取得し、これにより、オンライン微調整段階のデータ割合情報の共有を実現し、ニューラルネットワークの汎化能力を保証することができる。
【0204】
具体的には、
図11は本出願の実施例を実現するアクセスネットワーク機器のハードウェア構造模式図である。
図11に示すように、該アクセスネットワーク機器1100はアンテナ1101、高周波装置1102及びベースバンド装置1103を備える。アンテナ1101は高周波装置1102に接続される。アップリンク方向において、高周波装置1102は、アンテナ1101を介して情報を受信して、受信した情報をベースバンド装置1103に送信して処理する。ダウンリンク方向において、ベースバンド装置1103は、送信対象となる情報を処理し、高周波装置1102に送信し、高周波装置1102は、受信した情報を処理してからアンテナ1101を介して送信する。
【0205】
帯域処理装置は、ベースバンド装置1103内に位置してもよい。以上の実施例においてネットワーク機器によって実行される方法はベースバンド装置1103において実現することができ、該ベースバンド装置1103はプロセッサ1104及びメモリ1105を備える。
【0206】
図11に示すように、ベースバンド装置1103は、例えば、少なくとも1つのベースバンドボードを含んでもよく、該ベースバンドボードに複数のチップが設置され、そのうちの1つのチップは、例えば、メモリ1105に接続され、メモリ1105内のプログラムを呼び出して以上の方法実施例に示したネットワーク側機器の動作を実行するプロセッサ1104である。
【0207】
該ベースバンド装置1103は、高周波装置1102と情報を交換するためのネットワークインタフェース1106をさらに含んでもよく、該インタフェースは、例えば、共通公衆無線インタフェース(common public radio interface,CPRIと略称)である。
【0208】
具体的には、本発明の実施例のアクセスネットワーク機器は、メモリ1105に記憶され、プロセッサ1104によって実行可能なコマンドもしくはプログラムをさらに備え、プロセッサ1104は、メモリ1105内のコマンドもしくはプログラムを呼び出して、
図3又は
図8に示す各モジュールによって実行される方法を実行し、同様な技術効果を達成する。重複を避けるために、ここでは詳細な説明を省略する。
【0209】
具体的には、
図12は、本出願の実施例を実現するコアネットワーク機器のハードウェア構造模式図である。
図12に示すように、該コアネットワーク機器1200は、プロセッサ1201、送受信機1202、メモリ1203、ユーザインタフェース1204及びバスインタフェースを含む。
【0210】
ここで、本出願の実施例において、コアネットワーク機器1200は、メモリ1203に記憶され、プロセッサ1201によって実行可能なコンピュータプログラムをさらに備え、コンピュータプログラムがプロセッサ1201によって実行されると、
図3又は
図8に示す各モジュールによって実行されることを実現し、同様な技術効果を達成する。重複を避けるために、ここでは詳細な説明を省略する。
【0211】
図12において、バスアーキテクチャは相互に接続されている任意数のバス及びブリッジを含んでもよく、具体的にはプロセッサ1201を代表とした1つ又は複数のプロセッサ及びメモリ1203を代表としたメモリの様々な回路によって一体に接続する。バスアーキテクチャはさらに、周辺機器、電圧レギュレータ及び電力管理回路等のような様々な他の回路を一体に接続することができ、これらはいずれも本分野に周知のことであるため、本出願の実施例ではさらに説明しない。バスインタフェースはインタフェースを提供する。送受信機1202は、送信機及び受信機を含む複数の部材であってもよく、伝送媒体で様々な他の装置と通信するためのユニットを提供する。ユーザ機器によっては、ユーザインタフェース1204は必要なデバイスを外部接続又は内部接続できるインタフェースであってもよく、接続デバイスは、キーパッド、ディスプレイ、スピーカ、マイクロフォン、操作レバー等を含むが、それらに限定されない。
【0212】
プロセッサ1201は、バスアーキテクチャの管理及び通常の処理を担当し、メモリ1203はプロセッサ1201が操作を実行する時に使用するデータを記憶することができる。
【0213】
本出願の実施例は可読記憶媒体をさらに提供し、前記可読記憶媒体には、プログラムもしくはコマンドが記憶されており、該プログラムもしくはコマンドがプロセッサによって実行されると、上記したトレーニングデータセット取得方法実施例の各プロセスが実現され、又は上記した無線伝送方法実施例の各プロセスが実現され、同様な技術効果を達成することができる。重複を避けるために、ここでは詳細な説明を省略する。
【0214】
ここで、前記プロセッサは上記実施例に記載の端末又はネットワーク側機器内のプロセッサである。前記可読記憶媒体は、コンピュータ読み取り専用メモリ(Read-Only Memory,ROM)、ランダムアクセスメモリ(Random Access Memory,RAM)、磁気ディスク又は光ディスク等のコンピュータ可読記憶媒体を含む。
【0215】
本出願の実施例はチップをさらに提供する。前記チップは、プロセッサ及び通信インタフェースを備え、前記通信インタフェースと前記プロセッサが結合され、前記プロセッサがプログラムもしくはコマンドを実行し、上記したトレーニングデータセット取得方法実施例の各プロセスを実現し、又は上記した無線伝送方法実施例の各プロセスを実現するために用いられ、同様な技術効果を達成することができる。重複を避けるために、ここでは詳細な説明を省略する。
【0216】
本出願の実施例で言及したチップはシステムレベルチップ、システムチップ、チップシステム又はシステムオンチップ等と呼ばれてもよいことを理解すべきである。
【0217】
説明すべきことは、本明細書において、用語「含む」、「からなる」又はその他のあらゆる変形は、非排他的包含を含むように意図され、それにより一連の要素を含むプロセス、方法、物品又は装置は、それらの要素のみならず、明示されていない他の要素、又はこのようなプロセス、方法、物品又は装置に固有の要素をも含む点である。特に断らない限り、語句「1つの……を含む」により限定される要素は、該要素を含むプロセス、方法、物品又は装置に別の同じ要素がさらに存在することを排除するものではない。また、指摘すべきことは、本出願の実施形態における方法及び装置の範囲は、図示又は検討された順序で機能を実行することに限定されず、係る機能に応じて実質的に同時に又は逆の順序で機能を実行することも含み得る点であり、例えば、説明されたものと異なる順番で、説明された方法を実行してもよく、さらに様々なステップを追加、省略、又は組み合わせてもよい。また、何らかの例を参照して説明した特徴は他の例において組み合わせられてもよい。
【0218】
以上の実施形態に対する説明によって、当業者であれば上記実施例の方法がソフトウェアと必要な共通ハードウェアプラットフォームとの組合せという形態で実現できることを明確に理解可能であり、当然ながら、ハードウェアによって実現してもよいが、多くの場合において前者はより好ましい実施形態である。このような見解をもとに、本出願の技術的解決手段は実質的に又は従来技術に寄与する部分はコンピュータソフトウェア製品の形で実施することができ、該コンピュータソフトウェア製品は、記憶媒体(例えば、ROM/RAM、磁気ディスク、光ディスク)に記憶され、端末(携帯電話、コンピュータ、サーバ、又はネットワーク機器等であってもよい)に本出願の各実施例に記載の方法を実行させる複数のコマンドを含む。
【0219】
以上、図面を参照しながら本出願の実施例を説明したが、本出願は上記の具体的な実施形態に限定されず、上記の具体的な実施形態は例示的なものに過ぎず、限定的なものではなく、本出願の示唆をもとに、当業者が本出願の趣旨及び特許請求の保護範囲から逸脱することなくなし得る多くの形態は、いずれも本出願の保護範囲に属するものとする。
【手続補正書】
【提出日】2023-11-09
【手続補正1】
【補正対象書類名】明細書
【補正対象項目名】全文
【補正方法】変更
【補正の内容】
【発明の詳細な説明】
【技術分野】
【0001】
〔関連出願の相互参照〕
本出願は、2021年05月11日に提出された出願番号202110513732.0、発明の名称「トレーニングデータセット取得方法、無線伝送方法、装置及び通信機器」の中国特許出願の優先権を主張し、その内容は引用によって本出願に組み込まれる。
【0002】
本出願は、通信技術分野に属し、特に、トレーニングデータセット取得方法、無線伝送方法、装置及び通信機器に関する。
【背景技術】
【0003】
汎化とは、ニューラルネットワークがトレーニング(学習)の過程で遭遇していないデータに対しても合理的な出力を得ることができることをいう。現在、変化の多い無線伝送環境に対する汎化能力を実現するためには、環境の変化に応じてニューラルネットワークのパラメータを切り替える必要のない1つの共通のニューラルネットワークを、混合データに基づいてトレーニングすることができる。しかし、該ニューラルネットワークは、全ての伝送条件においても最適な性能を達成できるわけではない。
【発明の概要】
【0004】
本出願の実施例は、従来の無線伝送におけるニューラルネットワークの汎化能力不足等の問題を解決できる、トレーニングデータセット取得方法、無線伝送方法、装置及び通信機器を提供する。
【0005】
第1側面において、
ニューラルネットワークの最適化目標に対する各伝送条件の寄与度に基づき、各前記伝送条件におけるトレーニングデータのデータ量を決定するステップと、
各前記伝送条件におけるトレーニングデータのデータ量に基づき、各前記伝送条件におけるトレーニングデータを取得して、前記ニューラルネットワークをトレーニングするためのトレーニングデータセットを形成するステップと、を含み、
ニューラルネットワークの最適化目標に対する伝送条件の前記寄与度は、前記ニューラルネットワークの最適化目標の値に対する前記伝送条件の影響度を表す、トレーニングデータセット取得方法を提供する。
【0006】
第2側面において、
ニューラルネットワークの最適化目標に対する各伝送条件の寄与度に基づき、各前記伝送条件におけるトレーニングデータのデータ量を決定するための第1処理モジュールと、
各前記伝送条件におけるトレーニングデータのデータ量に基づき、各前記伝送条件におけるトレーニングデータを取得して、前記ニューラルネットワークをトレーニングするためのトレーニングデータセットを形成するための第2処理モジュールと、を備え、
ニューラルネットワークの最適化目標に対する伝送条件の前記寄与度は、前記ニューラルネットワークの最適化目標の値に対する前記伝送条件の影響度を表す、トレーニングデータセット取得装置を提供する。
【0007】
第3側面において、
ニューラルネットワークモデルに基づき、無線伝送演算を行い、前記無線伝送を実現するステップを含み、
前記ニューラルネットワークモデルは、予めトレーニングデータセットを利用してトレーニングされたものであり、前記トレーニングデータセットは、第1側面に記載のトレーニングデータセット取得方法に基づいて取得される、無線伝送方法を提供する。
【0008】
第4側面において、
ニューラルネットワークモデルに基づき、無線伝送演算を行い、前記無線伝送を実現するための第3処理モジュールを備え、
前記ニューラルネットワークモデルは、予めトレーニングデータセットを利用してトレーニングされたものであり、前記トレーニングデータセットは、第1側面に記載のトレーニングデータセット取得方法に基づいて取得される、無線伝送装置を提供する。
【0009】
第5側面において、プロセッサと、メモリと、前記メモリに記憶され、前記プロセッサによって実行可能なプログラムもしくはコマンドとを備え、前記プログラムもしくはコマンドが前記プロセッサによって実行されると、第1側面に記載の方法のステップが実現され、又は第3側面に記載の方法のステップが実現される、通信機器を提供する。
【0010】
第6側面において、プロセッサ及び通信インタフェースを備える通信機器であって、前記プロセッサが、ニューラルネットワークの最適化目標に対する各伝送条件の寄与度に基づき、各前記伝送条件におけるトレーニングデータのデータ量を決定し、そして各前記伝送条件におけるトレーニングデータのデータ量に基づき、各前記伝送条件におけるトレーニングデータを取得して、前記ニューラルネットワークをトレーニングするためのトレーニングデータセットを形成するために用いられ、ニューラルネットワークの最適化目標に対する伝送条件の前記寄与度は、前記ニューラルネットワークの最適化目標の値に対する前記伝送条件の影響度を表す、通信機器を提供する。
【0011】
第7側面において、プロセッサ及び通信インタフェースを備える通信機器であって、前記プロセッサが、ニューラルネットワークモデルに基づき、無線伝送演算を行い、前記無線伝送を実現するために用いられ、前記ニューラルネットワークモデルは、予めトレーニングデータセットを利用してトレーニングされたものであり、前記トレーニングデータセットは、第1側面に記載のトレーニングデータセット取得方法に基づいて取得される、通信機器を提供する。
【0012】
第8側面において、プログラムもしくはコマンドが記憶されており、前記プログラムもしくはコマンドがプロセッサによって実行されると、第1側面に記載の方法のステップが実現され、又は第3側面に記載の方法のステップが実現される、可読記憶媒体を提供する。
【0013】
第9側面において、プロセッサ及び通信インタフェースを備え、前記通信インタフェースと前記プロセッサが結合され、前記プロセッサがプログラムもしくはコマンドを実行し、第1側面に記載の方法を実現し、又は第3側面に記載の方法を実現するために用いられる、チップを提供する。
【0014】
第10側面において、非一時的記憶媒体に記憶されており、少なくとも1つのプロセッサによって実行されることで第1側面に記載のトレーニングデータセット取得方法のステップが実現され、又は第3側面に記載の無線伝送方法のステップが実現される、コンピュータプログラム/プログラム製品を提供する。
【0015】
本出願の実施例において、人工知能ベースの通信システムにおいてトレーニングデータセットを構築する時、ニューラルネットワークの最適化目標(目的関数又は損失関数とも呼ばれる)に対する異なる伝送条件のデータの寄与度に基づき、様々な伝送条件におけるデータを異なる割合で選択し、混合トレーニングデータセットを構築し、これによりニューラルネットワークの汎化能力を効果的に向上させることができる。
【図面の簡単な説明】
【0016】
【
図1】本出願の実施例を応用可能な無線通信システムの構造図である。
【
図2】本出願の実施例で提供されるトレーニングデータセット取得方法の手順模式図である。
【
図3】本出願の実施例で提供されるトレーニングデータセット取得装置の構造模式図である。
【
図4】本出願の実施例で提供される無線伝送方法の手順模式図である。
【
図5】本出願の実施例で提供される無線伝送方法におけるニューラルネットワークモデル構築の手順模式図である。
【
図6】本出願の実施例で提供されるトレーニングデータセット取得方法においてトレーニングデータの割合を決定する手順模式図である。
【
図7】本出願の実施例で提供される無線伝送方法におけるDMRSチャネル推定用のニューラルネットワークの構造模式図である。
【
図8】本出願の実施例で提供される無線伝送装置の構造模式図である。
【
図9】本出願の実施例で提供される通信機器の構造模式図である。
【
図10】本出願の実施例を実現する端末のハードウェア構造模式図である。
【
図11】本出願の実施例を実現するアクセスネットワーク機器のハードウェア構造模式図である。
【
図12】本出願の実施例を実現するコアネットワーク機器のハードウェア構造模式図である。
【発明を実施するための形態】
【0017】
以下において、本出願の実施例における図面を参照しながら、本出願の実施例における技術的解決手段を明確に説明し、当然ながら、説明される実施例は本出願の実施例の一部であり、全ての実施例ではない。当業者が本出願における実施例に基づいて得た他の全ての実施例は、いずれも本出願の保護範囲に属するものとする。
【0018】
本出願の明細書及び特許請求の範囲における用語「第1」、「第2」等は、特定の順序又は先後順序を記述するためのものではなく、類似する対象を区別するためのものである。このように使用される用語は、本出願の実施例がここで図示又は記述される以外の順序で実施できるように、適当な場合において互いに置き換えてもよいことを理解すべきであり、また、「第1」、「第2」で区別する対象は一般に一種類であり、対象の数を限定することがなく、例えば、第1対象は1つであってもよいし、複数であってもよい。また、明細書及び特許請求の範囲における「及び/又は」は、接続される対象のうちの少なくとも1つを意味し、符号の「/」は、一般的には前後の関連対象が「又は」という関係にあることを意味する。
【0019】
指摘しておきたいのは、本出願の実施例に記載される技術は、ロングタームエボリューション(Long Term Evolution,LTE)/LTEの進化型(LTE-Advanced,LTE-A)システムに限定されず、さらに、例えば、符号分割多元接続(Code Division Multiple Access,CDMA)、時分割多元接続(Time Division Multiple Access,TDMA)、周波数分割多元接続(Frequency Division Multiple Access,FDMA)、直交周波数分割多元接続(Orthogonal Frequency Division Multiple Access,OFDMA)、シングルキャリア周波数分割多元接続(Single-carrier Frequency-Division Multiple Access,SC-FDMA)のような他の無線通信システム及び他のシステムにも適用可能である点である。本出願の実施例における用語「システム」及び「ネットワーク」は、しばしば、互換的に使用され得る。記載された技術は、上記で言及されたシステム及びラジオ技術に使用され得ると共に、他のシステム及びラジオ技術にも使用され得る。以下の記述では例示するためにニューラジオ(New Radio,NR)システムについて説明し、且つ以下の説明の多くにおいてNR用語が使用されるが、これらの技術はNRシステム以外にも適用可能であり、例えば、第6世代(6th Generation,6G)通信システムにも適用可能である。
【0020】
図1は、本出願の実施例を応用可能な無線通信システムの構造図を示す。無線通信システムは端末101及びネットワーク側機器102を含む。端末101は端末機器又はユーザ端末(User Equipment,UE)と称されてもよく、端末101は、携帯電話、タブレットパソコン(Tablet Personal Computer)、ノートパソコンとも呼ばれるラップトップコンピュータ(Laptop Computer)、携帯情報端末(Personal Digital Assistant,PDA)、パームトップコンピュータ、ネットブック、ウルトラモバイルパーソナルコンピュータ(ultra-mobile personal computer,UMPC)、モバイルインターネット機器(Mobile Internet Device,MID)、ウェアラブル機器(Wearable Device)もしくは車載機器(VUE)、歩行者端末(PUE)等の端末側機器であってよく、ウェアラブル機器は、スマートウォッチ、リストバンド、ヘッドフォン、メガネ等を含む。説明すべきことは、本出願の実施例において端末101の具体的な種類が限定されない点である。ネットワーク側機器102は、アクセスネットワーク機器1021又はコアネットワーク機器1022又はデータネットワーク(data network,DN)機器1023であってもよい。そのうち、アクセスネットワーク機器1021は、無線アクセスネットワーク機器又は無線アクセスネットワーク(Radio Access Network,RAN)と呼ばれてもよく、アクセスネットワーク機器1021は、基地局又はRAN側でニューラルネットワークのトレーニングを担当するノード等であってもよい。基地局はノードB、進化型ノードB、アクセスポイント、トランシーバ基地局(Base Transceiver Station,BTS)、無線基地局、無線トランシーバ、基本サービスセット(Basic Service Set,BSS)、拡張サービスセット(Extended Service Set,ESS)、Bノード、進化型Bノード(eNB)、ホームBノード、ホーム進化型Bノード、WLANアクセスポイント、WiFiノード、送受信ポイント(Transmitting Receiving Point,TRP)又は当分野における他の何らかの適切な用語で呼ばれてもよく、同様な技術効果を達成することができれば、前記基地局は、特定の技術用語に限定されない。説明すべきことは、本出願の実施例において、単にNRシステムにおける基地局を例とするが、基地局の具体的な種類が限定されない点である。コアネットワーク機器1022は、コアネットワーク(Core Network,CN)又は5Gコア(5G core,5GC)ネットワークと呼ばれてもよい。コアネットワーク機器1022は、コアネットワークノード、コアネットワーク機能、モビリティ管理エンティティ(Mobility Management Entity,MME)、アクセスモビリティ管理機能(Access Management Function,AMF)、セッション管理機能(Session Management Function,SMF)、ユーザプレーン機能(User Plane Function,UPF)、ポリシー制御機能(Policy Control Function,PCF)、ポリシー及び課金ルール機能ユニット(Policy and Charging Rules Function,PCRF)、エッジアプリケーションサーバ発見機能(Edge Application Server Discovery Function,EASDF)、プリケーション機能(Application Function,AF)のうちの少なくとも1つを含んでもよいが、これらに限定されない。説明すべきことは、本出願の実施例において単に5Gシステムにおけるコアネットワーク機器を例とするが、これに限定されない点である。データネットワーク機器1023は、ネットワークデータ分析機能(Network Data Analytics Function,NWDAF)、統合データ管理(Unified Data Management,UDM)、統合データリポジトリ(Unified Data Repository,UDR)、及び非構造化データ記憶機能(Unstructured Data Storage Function,UDSF)のうちの少なくとも1つを含んでもよいが、これらに限定されない。説明すべきことは、本出願の実施例において単に5Gシステムにおけるデータネットワーク機器を例とするが、これに限定されない点である。
【0021】
以下において、図面を参照しながら、本出願の実施例で提供されるトレーニングデータセット取得方法、無線伝送方法、装置及び通信機器を、いくつかの実施例及びその応用シーンにより詳しく説明する。
【0022】
図2は、本出願の実施例で提供されるトレーニングデータセット取得方法の手順模式図を示し、該方法は端末及び/又はネットワーク側機器によって実行することができ、該端末は具体的には
図1に示す端末101であってもよく、該ネットワーク側機器は具体的には
図1に示すネットワーク側機器102であってもよい。
図2に示すように、該方法は、次のステップ201とステップ202を含む。
【0023】
ステップ201で、ニューラルネットワークの最適化目標に対する各伝送条件の寄与度に基づき、各前記伝送条件におけるトレーニングデータのデータ量を決定する。
ここで、ニューラルネットワークの最適化目標に対する伝送条件の前記寄与度は、前記ニューラルネットワークの最適化目標の値に対する前記伝送条件の影響度を表す。
【0024】
対象となる無線伝送環境の各伝送条件について、本出願の実施例では、ニューラルネットワークの最適化目標の値に対する各伝送条件の影響度、即ち最適化目標の値の大きさに対する伝送条件の値の影響度を事前にテストすることによって、ニューラルネットワークの最適化目標に対する各伝送条件の寄与度を決定することができると理解してよい。一般に、影響度が高いほど、伝送条件に対応する寄与度の値が大きくなり、逆に、寄与度の値が小さくなる。
【0025】
例えば、最適化目標が伝送条件の関数として表される場合、該関数が伝送条件に関する増加関数(例えば、スループットがSNRの増加関数)であれば、最適化目標の値を大きくする伝送条件の寄与度が高く、該関数が伝送条件に関する漸減関数(例えば、NMSEがSNRの漸減関数)であれば、最適化目標の値を小さくする伝送条件の寄与度が高い。
【0026】
選択的に、いずれか1つの伝送条件について、該伝送条件で最適化目標が達成可能な最適値に基づき、最適化目標に対する該伝送条件の寄与度を決定することができる。つまり、最適化目標に対する1つの特定の伝送条件の寄与度は、該特定の伝送条件で最適化目標が達成可能な最適値の大きさで判定することができ、該達成可能な最適値が大きいほど、最適化目標に対する該特定の伝送条件の影響度が大きく、対応する寄与度も大きくなる。
【0027】
各伝送条件の寄与度を決定した上で、本出願の実施例では、各伝送条件に対応する寄与度の値の大きさを基礎とし、各伝送条件に対応するトレーニングデータのデータ量をそれぞれ調整することができ、つまり、各伝送条件におけるトレーニングデータのデータ量と最適化目標に対する該伝送条件の寄与度とを関連付ける。ここで、該データ量は、各伝送条件ごとに用意する必要があるトレーニングデータの参照データ量(設定データ量とも呼ばれる)であり、トレーニングデータセットを実際に取得する際に、各伝送条件ごとにトレーニングデータを用意する際に、該データ量を参照する必要がある。
【0028】
ニューラルネットワークが様々な伝送条件に対してより優れた汎化能力を有するように、寄与度が大きい伝送条件のデータ量を減らすことで、これらの伝送条件の影響力を低減することができ、また、寄与度が小さい伝送条件のデータ量を増やすことで、これらの伝送条件の影響力を高めることができ、つまり、最適化目標に対する各伝送条件の影響をデータ量によって均衡させることが理解可能である。ここで、前記データ量は、データ量の絶対値であってもよいし、又はデータ量の相対的な割合であってもよい。
【0029】
ここで、伝送条件は、実際の無線伝送環境に関わる伝送媒体、伝送信号、伝送環境等のパラメータのことである。選択的に、前記伝送条件のタイプは、
信号対雑音比又は信号対干渉雑音比、
基準信号受信電力(Reference Signal Receiving Power,RSRP)、
信号強度、
干渉強度、
端末の移動速度、
チャネルパラメータ、
端末の基地局からの距離、
セルサイズ、
キャリア周波数、
変調次数又は変調符号化ポリシー、
セルタイプ、
ステーション間隔、
天気と環境要因、
送信側又は受信側のアンテナ配置情報、
端末の能力又はタイプ、
基地局の能力又はタイプのうちの少なくとも1つを含む。
【0030】
本出願の実施例に係る伝送条件のタイプは、上記に列挙した各伝送条件タイプのうちの1つまたは複数の組み合わせを含み得るが、これらに限定されないと理解してよい。
【0031】
ここで、干渉強度は、例えば、セル間の同一周波数干渉の強度、又はその他の干渉の大きさを表すことができる。チャネルパラメータは、例えば、パス数(又はLOSやNLOSシナリオ)、遅延(又は最大遅延)、ドップラー(又は最大ドップラー)、到来角(水平、垂直を含む)範囲、デパーチャ角(水平、垂直を含む)範囲、又はチャネル相関係数等である。セルタイプは、例えば、屋内セル、屋外セル、マクロセル、マイクロセル、又はピコセル等である。ステーション間隔は、例えば、ステーション間隔200メートル以内、200~500メートル、又は500メートル以上等に分けることができる。天気と環境要因等は、例えば、トレーニングデータが存在するネットワーク環境の温度及び/又は湿度等の情報であってもよい。送信側又は受信側のアンテナ配置情報は、例えば、アンテナの数及び/又はアンテナ偏波方式等であってもよい。UE能力/タイプは、例えば、Redcap UE及び/又はnormal UE等であってもよい。
【0032】
ステップ202で、各前記伝送条件におけるトレーニングデータのデータ量に基づき、各前記伝送条件におけるトレーニングデータを取得して、前記ニューラルネットワークをトレーニングするためのトレーニングデータセットを形成する。
【0033】
本出願の実施例では、各伝送条件におけるトレーニングデータのデータ量を取得した上で、つまり、参照データ量を取得した上で、各伝送条件に対応する該参照データ量を基準又は設定として、各伝送条件におけるトレーニングデータを取得し、最終的に取得された各伝送条件のトレーニングデータのデータ量を該基準又は設定に一致させると理解してよい。最後に、取得された各伝送条件におけるトレーニングデータを不均一に混合し、無線伝送環境における上記ニューラルネットワーク(ニューラルネットワークモデルとも呼ばれる)のトレーニングに使用できるトレーニングデータセットであるデータセットを得る。
【0034】
選択的に、各前記伝送条件におけるトレーニングデータを取得して、前記ニューラルネットワークをトレーニングするためのトレーニングデータセットを形成する前記ステップは、各前記伝送条件におけるトレーニングデータのデータ量に基づき、各前記伝送条件におけるデータを収集してキャリブレーションし、各前記伝送条件におけるトレーニングデータセットを構成するステップ、又は、各前記伝送条件における設定数のデータを収集し、各前記伝送条件におけるトレーニングデータのデータ量に基づき、前記設定数のデータから一部のデータを選択してキャリブレーションするか、又は前記設定数のデータを補完してキャリブレーションし、各前記伝送条件におけるトレーニングデータセットを構成するステップを含む。
【0035】
本出願の実施例では、決定された各伝送条件におけるトレーニングデータのデータ量に基づいてトレーニングデータセットを構築する際に、まず各伝送条件に必要なデータ量を算出し、それから該データ量に基づいて各伝送条件のデータを取得してもよいし、又は、まず各伝送条件ごとに大量のデータを取得し、つまり設定数のデータを取得し、次に各伝送条件に必要なデータ量を算出し、その後、予め取得した上記大量のデータから選択したり補足したりするようにしてもよいと理解してよい。
【0036】
ここで、後者の場合、k番目の伝送条件で予め取得した総データ量がMkで、計算によって決定された必要なデータ量がNkであると仮定する。Mk≧Nkであれば、このMk個のデータからNk個のデータをランダムに選択してトレーニングデータセットに入れる必要がある。Mk<Nkであれば、Nk-Mk個のデータをさらに取得し、Nk個のデータを補完してからトレーニングデータセットに入れる必要がある。ここで必要なデータ量は、前のステップで決定された各伝送条件におけるトレーニングデータのデータ量である。
【0037】
ここで、各伝送条件におけるデータを取得した後、これらのデータをキャリブレーションし、つまり、各伝送条件におけるデータにラベルを付加する必要があり、付加するラベルは該データに対応する伝送環境の真値である。例えば、DMRSチャネル推定のシナリオでは、伝送条件におけるデータであるDMRS信号に付加するラベルは、該DMRS信号に対応するチャネル真値である。
【0038】
説明すべきことは、本出願の実施例は、既存の無線伝送ネットワーク内の1つ又は複数のモジュールの機能を機械学習に置き換えることができるいかなるシナリオにも適用することができる点であり、つまり、機械学習を利用してニューラルネットワークをトレーニングするのであれば、いずれも本出願の実施例のトレーニングデータセット取得方法でトレーニングデータセットを構築することができる。応用シナリオは、例えば、物理層のパイロット設計、チャネル推定、信号検出、ユーザペアリング、HARQ及び測位等と、上位層のリソース割り当て、ハンドオーバ及びモビリティ管理等と、ネットワーク層のスケジューリング又はスライシング等であり、本出願の実施例では、具体的な無線伝送の応用シナリオについて制限しない。
【0039】
本出願の実施例は、人工知能ベースの通信システムにおいてトレーニングデータセットを構築する時、ニューラルネットワークの最適化目標(目的関数又は損失関数とも呼ばれる)に対する異なる伝送条件のデータの寄与度に基づき、様々な伝送条件におけるデータを異なる割合で選択し、混合トレーニングデータセットを構築し、これによりニューラルネットワークの汎化能力を効果的に向上させることができる。
【0040】
選択的に、ニューラルネットワークの最適化目標に対する各伝送条件の寄与度に基づき、各前記伝送条件におけるトレーニングデータのデータ量を決定する前記ステップは、各前記伝送条件の寄与度をソートするステップと、等しい割合で混合する上で、前記ソートにおける大きい寄与度に対応する伝送条件におけるトレーニングデータのデータ量を減少させる操作と、前記ソートにおける小さい寄与度に対応する伝送条件におけるトレーニングデータのデータ量を増加させる操作とのうちの少なくとも1つを実行するステップと、を含む。
【0041】
本出願の実施例では、各伝送条件におけるトレーニングデータのデータ量を決定する時、まず、等しい割合で混合した時の、ニューラルネットワークの最適化目標(又は目的関数、損失関数)に対する異なる伝送条件のデータの寄与度をソートし、その後、混合トレーニングデータセットを構築する時、上記ソートに基づき、ソートにおける小さい寄与度と大きい寄与度を決定することで、寄与度が低い伝送条件と寄与度が高い伝送条件をさらに決定することができ、また、全ての伝送条件のデータが十分であることを保証した前提で、寄与度が低い伝送条件のデータ量を増加させ、及び/又は寄与度が高い伝送条件のデータ量を減少させることができると理解してよい。
【0042】
ここで、閾値(即ち予め設定された閾値)を設定し、いずれかの伝送条件のデータ量が総データ量に占める割合が該閾値以上であるようにすることで、上記した「全ての伝送条件のデータが十分であることを保証した前提」を満たすことができる。
【0043】
本出願の実施例では、各伝送条件の寄与度をソートし、該ソートに基づいて対応する伝送条件のデータ量を調整することで、対応する伝送条件のデータ量の調整ポリシー(データ量を増加させる必要があるか減少させる必要があるか、増加又は減少の幅等を含む)をより明確且つ正確に決定することができ、これにより効率がより高く、結果がより正確になる。
【0044】
選択的に、前記ソートにおける大きい寄与度に対応する伝送条件におけるトレーニングデータのデータ量を減少させる操作と、前記ソートにおける小さい寄与度に対応する伝送条件におけるトレーニングデータのデータ量を増加させる操作とのうちの少なくとも1つを実行する前記ステップは、前記ソートにおける大きい寄与度に対応する伝送条件におけるトレーニングデータのデータ量を減少させる前記操作と、前記ソートにおける小さい寄与度に対応する伝送条件におけるトレーニングデータのデータ量を増加させる前記操作とのうちの少なくとも1つを次のルールに従って実行するステップを含み、前記ルールは、前記大きい寄与度の値が大きいほど、前記減少の幅が大きくなり、前記小さい寄与度の値が小さいほど、前記増加の幅が大きくなることを含む。
【0045】
本出願の実施例では、寄与度が低い伝送条件のデータ量を増加させ、寄与度が高い伝送条件のデータ量を減少させる時、伝送条件の寄与度が高くなるにつれて、伝送条件のトレーニングデータのデータ量が減少することを目標とすると理解してよい。したがって、伝送条件の寄与度が低いほど、それに応じて該伝送条件のデータ量は増加し、伝送条件の寄与度が高いほど、それに応じて該伝送条件のデータ量は減少する。
【0046】
本出願の実施例では、寄与度の値の大きさに基づき、対応する伝送条件のトレーニングデータのデータ量を比例的に増加又は減少させ、伝送条件の寄与度が高くなるにつれて、伝送条件のトレーニングデータのデータ量を減少させることができ、これにより、最終的なニューラルネットワークに対する各伝送条件の影響のバランスがより良くなり、ニューラルネットワーク汎化能力の改善により有利である。
【0047】
選択的に、前記ソートの結果が小さいものから大きいものへの場合、前記伝送条件におけるトレーニングデータのデータ量は前記ソートの方向に漸減し、前記ソートの結果が大きいものから小さいものへの場合、前記伝送条件におけるトレーニングデータのデータ量は前記ソートの方向に漸増する。
【0048】
上記実施例に基づいて各伝送条件のトレーニングデータのデータ量を決定する時、寄与度が小さいものから大きいものへとソートされる場合、対応する伝送条件のデータが全データに占める割合は、例えば、線形減少、等差減少、等比減少、指数関数的減少、又はベキ関数的減少等の任意の漸減方式であり得ると理解してよい。逆に、寄与度が大きいものから小さいものへとソートされる場合、対応する伝送条件のデータが全データに占める割合は、例えば、線形増加、等差増加、等比増加、指数関数的増加、又はベキ関数的増加等の任意の漸増方式であってもよい。
【0049】
選択的に、前記ソートにおける大きい寄与度に対応する伝送条件におけるトレーニングデータのデータ量を減少させる操作と、前記ソートにおける小さい寄与度に対応する伝送条件におけるトレーニングデータのデータ量を増加させる操作とのうちの少なくとも1つを実行する前記ステップは、前記ソートに基づいて基準寄与度を決定し、前記伝送条件の寄与度と前記基準寄与度を比較するステップと、
比較の結果に応じて、次の操作のうちの少なくとも1つを実行するステップと、を含み、前記操作は、
前記伝送条件の寄与度が前記基準寄与度よりも大きい場合、前記伝送条件の寄与度を前記大きい寄与度と決定し、前記伝送条件におけるトレーニングデータのデータ量を減少させる操作と、
前記伝送条件の寄与度が前記基準寄与度よりも大きくない場合、前記伝送条件の寄与度を前記小さい寄与度と決定し、前記伝送条件におけるトレーニングデータのデータ量を増加させる操作と、を含む。
【0050】
本出願の実施例では、ソートに基づいて各伝送条件におけるトレーニングデータのデータ量を調整する時、まずソートに基づいて、基準寄与度と呼ばれる寄与度の中間的な比較基準量を決定することができると理解してよい。選択的に、前記基準寄与度は、前記ソートの中央値、又は前記ソートにおける設定位置の寄与度、又は前記ソートにおける各寄与度の平均値、又は前記ソートにおける前記平均値に最も近い寄与度である。ここで、前記平均値は、算術平均値、幾何平均値、調和平均値、加重平均値、二乗平均値、又は指数平均値等であってもよい。
【0051】
次に、各伝送条件の寄与度を順に該基準寄与度と比較する。i番目の伝送条件の寄与度が該基準寄与度より大きければ、該i番目の伝送条件を上記実施例に記載の大きい寄与度と決定し、該i番目の伝送条件のデータ量を減少させる。逆に、i番目の伝送条件の寄与度が寄与度の中央値より小さければ、該i番目の伝送条件を上記実施例に記載の小さい寄与度と決定し、該i番目の伝送条件のデータ量を増加させる。
【0052】
本出願の実施例では、寄与度の中間的な比較基準量を決定することにより、他の寄与度を該比較基準量と比較するだけで、比較結果に応じて対応する伝送条件のデータ量を増加させるか減少させるかを決定することができ、アルゴリズムが簡単で、計算量が少ない。
【0053】
選択的に、ニューラルネットワークの最適化目標に対する各伝送条件の寄与度に基づき、各前記伝送条件におけるトレーニングデータのデータ量を決定する前記ステップは、実際の応用における各前記伝送条件の確率密度に基づき、各前記伝送条件に対応する重み付け係数を決定するステップと、前記最適化目標に対する各前記伝送条件の寄与度を基に、前記重み付け係数と組み合わせて、各伝送条件におけるトレーニングデータのデータ量を決定するステップと、を含む。
【0054】
異なる伝送条件のデータが総データ量に占める割合を決定する時、異なる伝送条件の実際の確率密度に基づいて重み付け項を設計し、確率密度が高い条件のデータ量を増加させ、確率密度が低い条件のデータ量を減少させることができると理解してよい。例えば、k番目のSNRの確率密度がpkであると仮定すると、対応する重み付け項はf(pk)であり、f(pk)はpkに関する増加関数である。該重み付け項を考慮すると、更新後のk番目のSNRのデータ量はf(pk)・Nkとなる。ここで、確率密度は、伝送条件が異なる環境において発生する確率を反映し、各伝送条件が異なる環境で同じ確率で存在するのではなく、一部の伝送条件は発生確率がやや高く、一部の伝送条件は発生確率がやや低い。
【0055】
選択的に、前記重み付け係数と前記確率密度は関数的に漸増する関係にある。つまり、重み付け項と確率密度の関係は、任意の増加関数の関係とすることができ、つまり、確率密度が高い重み付け項は大きく、確率密度が低い重み付け項は小さいことを保証する必要がある。
【0056】
本出願の実施例では、伝送条件の実際の確率密度に基づいて重み付け項を設計し、実際の環境によりよく適合することができる。
【0057】
選択的に、前記方法は、前記トレーニングデータセットを目標機器に送信するステップをさらに含み、前記目標機器は、前記トレーニングデータセットに基づいて前記ニューラルネットワークをトレーニングするために用いられる。
【0058】
本出願の実施例で得られたトレーニングデータセットは、ニューラルネットワークのトレーニングに使用することができ、且つ本出願の実施例のトレーニングデータセット取得方法は、データ収集側とニューラルネットワークトレーニング側が同一の実行側でないデータ伝送シナリオに応用できると理解してよい。本出願の実施例では、決定された混合データセットに占める割合でデータ収集とキャリブレーションを完了した後、トレーニングデータセットを構築し、該トレーニングデータセットを、ニューラルネットワークトレーニングプロセスを実行する必要がある他の機器である目標機器にフィードバックする。ここで、目標機器は、現在の機器とは異なる第2機器であり、得られたトレーニングデータセットを利用してニューラルネットワークモデルのトレーニングを完了するための端末又はネットワーク側機器であり得る。
【0059】
本出願の実施例では、取得されたトレーニングデータセットを現在の機器以外の第2機器に送信し、これにより、複数の機器間はデータ共有と共同トレーニングを実現することができ、それによって単一機器の演算量を効果的に低減し、演算効率を効果的に向上させることができる。
【0060】
選択的に、前記トレーニングデータセットを目標機器に送信する前記ステップは、前記トレーニングデータセットを前記目標機器に直接送信し、又は前記トレーニングデータセットを設定変換後に前記目標機器に送信するステップを含み、前記設定変換は、特定の量子化、特定の圧縮、及び予め約束又は配置されたニューラルネットワークに従って処理することのうちの少なくとも1つを含む。
【0061】
本出願では、トレーニングデータセットを他の機器に送信する時、送信方式は直接送信でも間接送信でもよいと理解してよい。間接送信とは、トレーニングデータセット内のトレーニングデータを変換してからフィードバックすることをいい、例えば、特定の量子化方式、特定の圧縮方式を採用し、あるいは予め約束又は配置されたニューラルネットワークに従って、送信されるトレーニングデータを処理してから送信することができる。
【0062】
本出願の実施例の技術的解決手段をさらに説明するために、以下に例を挙げて説明するが、本出願で保護を要求する範囲を限定するものではない。
【0063】
ニューラルネットワークの最適化目標(又は目的関数、損失関数)が平均二乗誤差(mean square error,MSE)又は正規化された平均二乗誤差(normalized mean square error,NMSE)等の最小化が必要な指標であり、伝送条件が信号対雑音比(signal to noise ratio,SNR)である応用シナリオを例とし、混合するのがK種の信号対雑音比のデータであるとし、データの総量をNall、k番目の信号対雑音比をSNRk、k番目の信号対雑音比のデータ量をNkと記する。
【0064】
まず、K種の信号対雑音比のデータをソートする。
データが等しい割合で混合される(即ちNk/Nall=1/K)と仮定し、上記した最小化が必要な指標に対するk番目のSNRのデータの寄与度をCkと記する。Ckが小さいものから大きいもの(又は大きいものから小さいもの)の順にSNRをソートする。
【0065】
次に、混合比率を決定する。
【0066】
(1)k番目のSNRについて、Ckが大きいほど、Nkの値は小さく調整される。Ckが小さいものから大きいものの順に従って、対応するNkの値を大きいものから小さいものにし、且つ漸減ルールは任意の漸減ルールであり得る。又は、Ckが大きいものから小さいものの順に従って、対応するNkの値を小さいものから大きいものにし、且つ漸増ルールは任意の漸増ルールであり得る。
【0067】
(2)データ量を調整した後、任意のSNRのデータが全データに占める割合が閾値γ以上であることを確認する。
【0068】
最適化される指標がMSE及びNMSEであることを例にし、一般に、SNRの低いデータはMSE又はNMSEに対する寄与度が大きく、SNRの高いデータはMSE又はNMSEに対する寄与度が小さい。したがって、最終的に決定された混合比率は、SNRの低いデータが総データ量に占める割合が最も低く、SNRが増加するにつれて、対応するデータ量も増加する。
【0069】
選択的に、異なる伝送条件のデータが総データ量に占める割合を決定する時、異なる伝送条件の実際の確率密度に基づいて重み付け項を設計することができる。k番目のSNRの確率密度がpkであると仮定すると、対応する重み付け項はf(pk)であり、f(pk)はpkに関する増加関数である。該重み付け項を考慮すると、更新後のk番目のSNRのデータ量はf(pk)・Nkとなる。
【0070】
また、ニューラルネットワークの最適化目標(又は目的関数、損失関数)が信号対干渉雑音比(signal to interference plus noise ratio,SINR)、スペクトル効率、又はスループット等の最大化が必要な指標であり、伝送条件が信号対雑音比(signal to noise ratio,SNR)である応用シナリオを例にし、混合するのがK種のSNRのデータであるとし、データの総量をNall、k番目の信号対雑音比をSNRk、k番目の信号対雑音比のデータ量をNkと記する。
【0071】
まず、K種の信号対雑音比のデータをソートする。
データが等しい割合で混合される(即ちNk/Nall=1/K)と仮定し、上記した最大化が必要な指標に対するk番目のSNRのデータの寄与度をCkと記する。Ckが小さいものから大きいもの(又は大きいものから小さいもの)の順にSNRをソートする。
【0072】
次に、混合比率を決定する。
【0073】
(1)k番目のSNRについて、Ckが大きいほど、Nkの値は小さく調整される。Ckが小さいものから大きいものの順に、対応するNkの値を大きいものから小さいものにし、且つ漸減ルールは任意の漸減ルールであり得る。又は、Ckが大きいものから小さいものの順に、対応するNkの値を小さいものから大きいものにし、且つ漸増ルールは任意の漸増ルールであり得る。
【0074】
(2)データ量を調整した後、任意のSNRのデータが全データに占める割合が閾値γ以上であることを確認する。
【0075】
最適化される指標がSINR、スペクトル効率又はスループットであることを例にし、一般に、SNRの低いデータは、SINR、スペクトル効率及びスループットに対する寄与度が小さく、SNRの高いデータは、SINR、スペクトル効率及びスループットに対する寄与度が大きい。したがって、SNRの低いデータが総データ量に占める割合が最も高く、SNRが減少するにつれて、対応するデータ量も減少する。
【0076】
選択的に、異なる伝送条件のデータが総データ量に占める割合を決定する時、異なる伝送条件の実際の確率密度に基づいて重み付け項を設計することができる。k番目のSNRの確率密度がpkであると仮定すると、対応する重み付け項はf(pk)であり、f(pk)はpkに関する増加関数である。該重み付け項を考慮すると、更新後の第k番目のSNRのデータ量はf(pk)・Nkとなる。
【0077】
説明すべきことは、本出願の実施例で提供されるトレーニングデータセット取得方法の実行主体が、トレーニングデータセット取得装置であってもよいし、又は、該トレーニングデータセット取得装置内の、トレーニングデータセット取得方法を実行するための制御モジュールであってもよい点である。本出願の実施例において、トレーニングデータセット取得装置がトレーニングデータセット取得方法を実行することを例として、本出願の実施例で提供されるトレーニングデータセット取得装置を説明する。
【0078】
本出願の実施例のトレーニングデータセット取得装置的構造は、本出願の実施例で提供されるトレーニングデータセット取得装置の構造模式図である
図3に示され、該装置は、上記した各トレーニングデータセット取得方法実施例におけるトレーニングデータセットの取得を実現するために用いることができ、該装置は、第1処理モジュール301及び第2処理モジュール302を備える。
【0079】
そのうち、第1処理モジュール301は、ニューラルネットワークの最適化目標に対する各伝送条件の寄与度に基づき、各前記伝送条件におけるトレーニングデータのデータ量を決定するために用いられ、
第2処理モジュール302は、各前記伝送条件におけるトレーニングデータのデータ量に基づき、各前記伝送条件におけるトレーニングデータを取得して、前記ニューラルネットワークをトレーニングするためのトレーニングデータセットを形成するために用いられ、
ここで、ニューラルネットワークの最適化目標に対する伝送条件の前記寄与度は、前記ニューラルネットワークの最適化目標の値に対する前記伝送条件の影響度を表す。
【0080】
選択的に、前記第1処理モジュールは、
各前記伝送条件の寄与度をソートし、そして
等しい割合で混合する上で、前記ソートにおける大きい寄与度に対応する伝送条件におけるトレーニングデータのデータ量を減少させる操作と、前記ソートにおける小さい寄与度に対応する伝送条件におけるトレーニングデータのデータ量を増加させる操作とのうちの少なくとも1つを実行するために用いられる。
【0081】
選択的に、前記伝送条件のタイプは、
信号対雑音比又は信号対干渉雑音比、
基準信号受信電力、
信号強度、
干渉強度、
端末の移動速度、
チャネルパラメータ、
端末の基地局からの距離、
セルサイズ、
キャリア周波数、
変調次数又は変調符号化ポリシー、
セルタイプ、
ステーション間隔、
天気と環境要因、
送信側又は受信側のアンテナ配置情報、
端末の能力又はタイプ、
基地局の能力又はタイプのうちの少なくとも1つを含む。
【0082】
選択的に、前記第2処理モジュールは、
各前記伝送条件におけるトレーニングデータのデータ量に基づき、各前記伝送条件におけるデータを収集してキャリブレーションし、各前記伝送条件におけるトレーニングデータセットを構成するために、
又は、
各前記伝送条件における設定数のデータを収集し、各前記伝送条件におけるトレーニングデータのデータ量に基づき、前記設定数のデータから一部のデータを選択してキャリブレーションするか、又は前記設定数のデータを補完してキャリブレーションし、各前記伝送条件におけるトレーニングデータセットを構成するために用いられる。
【0083】
選択的に、前記第1処理モジュールは、前記ソートにおける大きい寄与度に対応する伝送条件におけるトレーニングデータのデータ量を減少させる操作と、前記ソートにおける小さい寄与度に対応する伝送条件におけるトレーニングデータのデータ量を増加させる操作とのうちの少なくとも1つを実行する前記ステップに用いられる時、
前記ソートにおける大きい寄与度に対応する伝送条件におけるトレーニングデータのデータ量を減少させる操作と、前記ソートにおける小さい寄与度に対応する伝送条件におけるトレーニングデータのデータ量を増加させる操作とのうちの少なくとも1つを次のルールに従って実行するために用いられ、前記ルールは、
前記大きい寄与度の値が大きいほど、前記減少の幅が大きくなり、前記小さい寄与度の値が小さいほど、前記増加の幅が大きくなることを含む。
【0084】
選択的に、前記ソートの結果が小さいものから大きいものへの場合、前記伝送条件におけるトレーニングデータのデータ量は前記ソートの方向に漸減し、前記ソートの結果が大きいものから小さいものへの場合、前記伝送条件におけるトレーニングデータのデータ量は前記ソートの方向に漸増する。
【0085】
選択的に、前記第1処理モジュールは、前記ソートにおける大きい寄与度に対応する伝送条件におけるトレーニングデータのデータ量を減少させる操作と、前記ソートにおける小さい寄与度に対応する伝送条件におけるトレーニングデータのデータ量を増加させる操作とのうちの少なくとも1つを実行する前記ステップに用いられる時、
前記ソートに基づいて基準寄与度を決定し、前記伝送条件の寄与度と前記基準寄与度を比較し、そして
比較の結果に応じて、次の操作のうちの少なくとも1つを実行するために用いられ、前記操作は、
前記伝送条件の寄与度が前記基準寄与度よりも大きい場合、前記伝送条件の寄与度を前記大きい寄与度と決定し、前記伝送条件におけるトレーニングデータのデータ量を減少させる操作と、
前記伝送条件の寄与度が前記基準寄与度よりも大きくない場合、前記伝送条件の寄与度を前記小さい寄与度と決定し、前記伝送条件におけるトレーニングデータのデータ量を増加させる操作と、を含む。
【0086】
選択的に、前記基準寄与度は、前記ソートの中央値、又は前記ソートにおける設定位置の寄与度、又は前記ソートにおける各寄与度の平均値、又は前記ソートにおける前記平均値に最も近い寄与度である。
【0087】
選択的に、前記第1処理モジュールはさらに、
実際の応用における各前記伝送条件の確率密度に基づき、各前記伝送条件に対応する重み付け係数を決定し、そして
前記最適化目標に対する各前記伝送条件の寄与度を基に、前記重み付け係数と組み合わせて、各前記伝送条件におけるトレーニングデータのデータ量を決定するために用いられる。
【0088】
選択的に、前記重み付け係数と前記確率密度は関数的に漸増する関係にある。
【0089】
選択的に、前記装置は、
前記トレーニングデータセットを目標機器に送信するための送信モジュールをさらに備え、前記目標機器は、前記トレーニングデータセットに基づいて前記ニューラルネットワークをトレーニングするために用いられる。
【0090】
選択的に、前記送信モジュールは、
前記トレーニングデータセットを前記目標機器に直接送信し、又は前記トレーニングデータセットを設定変換後に前記目標機器に送信するために用いられ、前記設定変換は、特定の量子化、特定の圧縮、及び予め約束又は配置されたニューラルネットワークに従って処理することのうちの少なくとも1つを含む。
【0091】
本出願の実施例におけるトレーニングデータセット取得装置は、装置、オペレーティングシステムを備える装置又は電子機器であってもよいし、端末又はネットワーク側機器内の部材、集積回路又はチップであってもよい。該装置又は電子機器は、携帯型端末であってもよいし、非携帯型端末であってもよく、また以上で挙げられたネットワーク側機器102の種類を含んでもよいが、それらに限定されない。例として、携帯型端末は、以上で挙げられた端末101の種類を含んでもよいが、それらに限定されることがなく、非携帯型端末は、サーバ、ネットワークアタッチドストレージ(Network Attached Storage,NAS)、パーソナルコンピュータ(personal computer,PC)、テレビ(television,TV)、現金自動預払機又はキオスク等であってもよく、本出願の実施例では具体的に限定しない。
【0092】
本出願の実施例で提供されるトレーニングデータセット取得装置は、
図2の方法実施例において実現される各プロセスを実現し、同様な技術効果を達成することができる。重複を避けるために、ここでは詳細な説明を省略する。
【0093】
本出願の実施例は無線伝送方法をさらに提供し、該方法は端末及び/又はネットワーク側機器によって実行することができ、該端末は、具体的には
図1に示す端末101であってもよく、該ネットワーク側機器は具体的には
図1に示すネットワーク側機器102であってもよい。本出願の実施例で提供される無線伝送方法の手順模式図である
図4に示すように、該方法は次のステップ401を含む。
【0094】
ステップ401で、ニューラルネットワークモデルに基づき、無線伝送演算を行い、前記無線伝送を実現する。
ここで、前記ニューラルネットワークモデルは、予めトレーニングデータセットを利用してトレーニングされたものであり、前記トレーニングデータセットは、上記各実施例に記載のトレーニングデータセット取得方法に基づいて取得される。
【0095】
本出願の実施例では、事前に、上記した各トレーニングデータセット取得方法の実施例に従ってトレーニングデータセットを取得し(又は各伝送条件のデータ割合を取得しておいてもよく)、初期構築したニューラルネットワークを該トレーニングデータセットを利用してトレーニングし、ニューラルネットワークモデルを得ることができると理解してよい。その後、該ニューラルネットワークモデルを本出願の実施例の無線伝送演算プロセスに適用し、演算によって最終的に本出願の実施例の無線伝送を実現する。
【0096】
ここで、本出願の実施例の無線伝送の応用環境は、既存の無線伝送ネットワーク内の1つ又は複数のモジュールの機能を機械学習に置き換えることができるいかなる無線伝送環境であってもよく、つまり、無線伝送において機械学習を利用してニューラルネットワークをトレーニングするのであれば、いずれも本出願の上述したトレーニングデータセット取得方法実施例によってトレーニングデータセットを構築し、該トレーニングデータセットを利用してトレーニングされたニューラルネットワークモデルを無線伝送に用いることができる。無線伝送の応用環境は、例えば、物理層のパイロット設計、チャネル推定、信号検出、ユーザペアリング、HARQ及び測位等と、上位層のリソース割り当て、ハンドオーバ及びモビリティ管理等と、ネットワーク層のスケジューリング又はスライシング等であり、本出願の実施例では、具体的な無線伝送の応用シナリオについて制限しない。
【0097】
本出願の実施例では、ニューラルネットワークの最適化目標(目的関数又は損失関数とも呼ばれる)に対する異なる伝送条件のデータの寄与度に基づき、様々な伝送条件におけるデータを異なる割合で選択し、不均一に混合されるトレーニングデータセットを構築し、該不均一に混合されるトレーニングデータセットに基づいて、1つの共通のニューラルネットワークをトレーニングして、実際の異なる伝送条件での無線伝送に使用し、これにより、トレーニングされたニューラルネットワークは各伝送条件のいずれにおいても高い性能を達成することができる。
【0098】
選択的に、ニューラルネットワークモデルに基づき、無線伝送演算を行う前記ステップの前に、前記無線伝送方法は、
前記トレーニングデータセットに基づき、
単一の端末の集中トレーニング、
単一のネットワーク側機器の集中トレーニング、
複数の端末の共同分散トレーニング、
複数のネットワーク側機器の共同分散トレーニング、
単一のネットワーク側機器と複数の端末の共同分散トレーニング、
複数のネットワーク側機器と複数の端末の共同分散トレーニング、
複数のネットワーク側機器と単一の端末の共同分散トレーニング、を含むトレーニング方式のうちのいずれか1つを利用して、前記ニューラルネットワークモデルをトレーニングして取得するステップをさらに含む。
【0099】
ニューラルネットワークモデルを利用して無線伝送演算を行う前に、先にトレーニングデータセットを利用して該ニューラルネットワークモデルをトレーニングして取得する必要があると理解してよい。具体的には、ニューラルネットワークのトレーニング段階は、オフラインで実行することができ、実行主体は、ネットワーク側機器、又は端末側機器、又はネットワーク側機器-端末側機器の組み合わせであってもよい。選択的に、前記ネットワーク側機器は、アクセスネットワーク機器、コアネットワーク機器、又はデータネットワーク機器である。つまり、本出願の実施例のネットワーク側機器は、アクセスネットワーク内のネットワーク側機器、コアネットワーク機器及びデータネットワーク機器(data network,DN)のうちの1つ又は複数を含んでもよい。アクセスネットワーク内のネットワーク側機器は、基地局、又はRAN側でAIトレーニングを担当するノードであってもよく、又は
図1に列挙されたアクセスネットワーク機器1021のタイプ等に限定されない。コアネットワーク機器は、
図1に列挙されたコアネットワーク機器1022のタイプに限定されず、データネットワーク機器は、NWDAF、UDM、UDR又はUDSF等であってもよい。
【0100】
ここで、実行主体がネットワーク側機器である場合、単一のネットワーク側機器に基づく集中トレーニングであってもよいし、複数のネットワーク側機器に基づく分散トレーニング(例えば連合学習)であってもよい。実行主体が端末側機器である場合、単一の端末に基づく集中トレーニングであってもよいし、複数の端末に基づく分散トレーニング(例えば連合学習)であってもよい。実行主体がネットワーク側機器-端末側機器の組み合わせである場合、単一のネットワーク側機器と複数の端末機器の組み合わせであってもよいし、単一の端末機器と複数のネットワーク側機器の組み合わせであってもよいし、又は複数のネットワーク側機器と複数の端末側機器の組み合わせであってもよい。本出願ではトレーニングプロセスの実行主体について具体的に限定しない。
【0101】
選択的に、前記無線伝送方法は、前記分散トレーニングの過程で、各前記伝送条件におけるトレーニングデータの割合を、前記分散トレーニングを行う各主体間で共有するステップをさらに含む。
【0102】
本出願の実施例では、複数のネットワーク側機器、又は複数の端末機器、又はネットワーク側機器と端末機器の組み合わせを利用してニューラルネットワークモデルを共同トレーニングする時、各実行機器間で1セットの伝送条件のトレーニングデータの割合を共有すると理解してよい。
【0103】
本出願の実施例では、各実行主体間でトレーニングデータの割合を共有することによって、各実行主体は自身のデータを共有することなくニューラルネットワークモデルのトレーニングを実現することができ、単一の機器の計算能力やトレーニング能力が不十分であったり、又は機器間でデータを共有できなかったり(プライバシーの問題がある)、又は大量のデータを伝送する代価が非常に大きいという問題を解決することができる。
【0104】
選択的に、前記分散トレーニングが複数のネットワーク側機器の共同分散トレーニングである場合、前記複数のネットワーク側機器のうちのいずれか1つのネットワーク側機器により、各前記伝送条件におけるトレーニングデータの割合を計算して決定し、前記割合を第1設定タイプのインタフェースシグナリングを介して前記複数のネットワーク側機器のうち前記いずれか1つのネットワーク側機器以外の他のネットワーク側機器に送信する。
【0105】
複数のネットワーク側機器によるニューラルネットワークモデルの共同分散トレーニングの場合、全てのネットワーク側機器は同じデータ割合を共用すると理解してよい。且つこの複数のネットワーク側機器のうちの1つのネットワーク側機器によって各伝送条件におけるトレーニングデータの割合を計算して取得し、該割合を、ネットワーク側インタフェースシグナリングを介してこの複数のネットワーク側機器のうちの他のネットワーク側機器に共有することができる。該ネットワーク側インタフェースシグナリングは、事前に設定された第1設定タイプである。選択的に、前記第1設定タイプのインタフェースシグナリングは、Xnインタフェースシグナリング、N1インタフェースシグナリング、N2インタフェースシグナリング、N3インタフェースシグナリング、N4インタフェースシグナリング、N5インタフェースシグナリング、N6インタフェースシグナリング、N7インタフェースシグナリング、N8インタフェースシグナリング、N9インタフェースシグナリング、N10インタフェースシグナリング、N11インタフェースシグナリング、N12インタフェースシグナリング、N13インタフェースシグナリング、N14インタフェースシグナリング、N15インタフェースシグナリング、又はN22インタフェースシグナリングを含む。ここで、基地局間は、Xnインタフェースを利用し、データ割合の共有をXnインタフェースシグナリングを介して実現することができ、コアネットワーク機器間は、コアネットワーク機器間のN1、N2、N3、N4、N5、N6、N7、N8、N9、N10、N11、N12、N13、N14、N15又はN22インタフェースを利用し、データ割合の共有を対応するタイプのインタフェースシグナリングを介して実現することができる。
【0106】
例えば、ある1つのネットワーク側機器によってデータ割合情報を計算して決定し、その後Xnインタフェースシグナリング(Xnインタフェースシグナリングを含むがこれに限定されない)を介して該データ割合情報を他のネットワーク側機器に共有することができる。
【0107】
選択的に、前記分散トレーニングが複数の端末の共同分散トレーニングである場合、前記複数の端末のうちのいずれか1つの端末により、各前記伝送条件におけるトレーニングデータの割合を計算して決定し、前記割合を第2設定タイプのインタフェースシグナリングを介して前記複数の端末のうち前記いずれか1つの端末以外の他の端末に送信する。
【0108】
複数の端末によるニューラルネットワークモデルの共同分散トレーニングの場合、全ての端末は同じデータ割合を共用すると理解してよい。且つこの複数の端末のうちの1つの端末によって各伝送条件におけるトレーニングデータの割合を計算して取得し、該割合を、端末インタフェースシグナリングを介してこの複数の端末のうちの他の端末に共有することができる。該端末インタフェースシグナリングは、事前に設定された第2設定タイプである。選択的に、前記第2設定タイプのインタフェースシグナリングは、PC5インタフェースシグナリング又はsidelinkインタフェースシグナリングを含む。
【0109】
例えば、ある1つの端末機器によってデータ割合情報を計算して決定し、その後PC5インタフェースシグナリング(PC5インタフェースシグナリングを含むがこれに限定されない)を介して該データ割合情報を他の端末機器に共有する。
【0110】
選択的に、前記分散トレーニングがネットワーク側機器と端末の共同分散トレーニングである場合、前記ネットワーク側機器及び端末のうちのいずれか1つのネットワーク側機器又はいずれか1つの端末により、各前記伝送条件におけるトレーニングデータの割合を計算して決定し、前記割合を第3設定タイプのシグナリングを介して前記ネットワーク側機器及び端末のうち前記いずれか1つのネットワーク側機器又はいずれか1つの端末以外の他のネットワーク側機器又は端末に送信する。
【0111】
実行主体がネットワーク側機器-端末側機器の組み合わせである場合、全ての機器は同じデータ割合を共用すると理解してよい。且つネットワーク側機器-端末側機器の組み合わせのうちの1つの端末(又はネットワーク側機器)によって各伝送条件におけるトレーニングデータの割合を計算して取得し、該割合を、設定タイプのインタフェースシグナリングを介してネットワーク側機器-端末側機器の組み合わせのうちの他の機器に共有することができる。該設定タイプのインタフェースシグナリングは、事前に設定された第3設定タイプのインタフェースシグナリングである。
【0112】
選択的に、前記第3設定タイプのシグナリングは、RRC、PDCCH層1シグナリング、PDSCH、MAC CE、SIB、Xnインタフェースシグナリング、N1インタフェースシグナリング、N2インタフェースシグナリング、N3インタフェースシグナリング、N4インタフェースシグナリング、N5インタフェースシグナリング、N6インタフェースシグナリング、N7インタフェースシグナリング、N8インタフェースシグナリング、N9インタフェースシグナリング、N10インタフェースシグナリング、N11インタフェースシグナリング、N12インタフェースシグナリング、N13インタフェースシグナリング、N14インタフェースシグナリング、N15インタフェースシグナリング、N22インタフェースシグナリング、PUCCH層1シグナリング、PUSCH、PRACHのMSG1、PRACHのMSG3、PRACHのMSG A、PC5インタフェースシグナリング、又はsidelinkインタフェースシグナリングを含む。
【0113】
つまり、トレーニングに関与する複数のネットワーク側機器-端末側機器の間は、RRC、PDCCH層1シグナリング、PDSCH、MAC CE、SIB、Xnインタフェースシグナリング、N1インタフェースシグナリング、N2インタフェースシグナリング、N3インタフェースシグナリング、N4インタフェースシグナリング、N5インタフェースシグナリング、N6インタフェースシグナリング、N7インタフェースシグナリング、N8インタフェースシグナリング、N9インタフェースシグナリング、N10インタフェースシグナリング、N11インタフェースシグナリング、N12インタフェースシグナリング、N13インタフェースシグナリング、N14インタフェースシグナリング、N15インタフェースシグナリング、N22インタフェースシグナリング、PUCCH層1シグナリング、PUSCH、PRACHのMSG1、PRACHのMSG3、PRACHのMSG A、PC5インタフェースシグナリング、又はsidelinkインタフェースシグナリング等のシグナリング(これらを含むがこれらに限定されない)を介して、データ割合情報の共有を実現することができる。
【0114】
選択的に、前記伝送条件におけるリアルタイムデータを取得し、前記リアルタイムデータに基づき、トレーニング済みのニューラルネットワークモデルをオンラインで調整するステップをさらに含む。
【0115】
本出願の実施例では、上記各実施例に従って、オフラインで収集された大量のデータに基づいてネットワークを予備トレーニングして収束させた上で、リアルタイムで収集された伝送環境のオンラインデータを用いて、予備トレーニングされたニューラルネットワークのパラメータをfine-tuning(微調整ともいう)し、ニューラルネットワークを実際の環境に適合させると理解してよい。微調整は、予備トレーニングされたニューラルネットワークのパラメータを初期化として使用するトレーニングプロセスであると考えてよい。微調整段階では、一部の層のパラメータをフリーズすることができ、一般に、入力端に近い層をフリーズし、出力端に近い層をアクティブにし、このように、ネットワークが依然として収束できることを保証することができる。微調整段階のデータ量が少ないほど、より多くの層をフリーズし、出力端に近い少数の層のみを微調整することを推奨する。
【0116】
選択的に、トレーニングされたニューラルネットワークを実際の無線環境で微調整又はfine tuningする時、モデルトレーニング段階での異なる伝送条件のデータ混合比率をそのまま使用してもよいし、トレーニングされたニューラルネットワークを実際の無線環境で微調整する時、データ割合を制御することなく、実際の無線環境で生成されたデータを直接使用して微調整してもよい。
【0117】
本出願の実施例では、ニューラルネットワークモデルのオフライントレーニングを完了する上で、トレーニング済みのニューラルネットワークモデルをオンラインで微調整し、これにより、ニューラルネットワークをより実際の環境に適合させることができる。
【0118】
選択的に、前記伝送条件におけるリアルタイムデータを取得し、前記リアルタイムデータに基づき、トレーニング済みのニューラルネットワークモデルをオンラインで調整する前記ステップは、各前記伝送条件におけるトレーニングデータの割合に基づき、各前記伝送条件におけるリアルタイムデータを取得するステップと、前記伝送条件のうちのいずれか1つの伝送条件におけるリアルタイムデータの割合が、前記いずれか1つの伝送条件におけるトレーニングデータの割合よりも高い場合、前記トレーニング済みのニューラルネットワークモデルをオンラインで調整する過程で、前記いずれか1つの伝送条件におけるリアルタイムデータのうち、前記いずれか1つの伝送条件におけるトレーニングデータの割合を超過したデータを、前記トレーニング済みのニューラルネットワークモデルに入力しないステップと、を含む。
【0119】
上記実施例に従って、トレーニングされたニューラルネットワークモデルを実際の無線環境で微調整又はfine tuningする時、モデルトレーニング段階での異なる伝送条件のデータ混合比率をそのまま使用してもよいと理解してよい。つまり、トレーニング段階での各伝送条件におけるトレーニングデータの割合に基づき、オンライン微調整段階での各伝送条件におけるリアルタイムデータの割合又はデータ量を決定し、これを基に各伝送条件における対応する数量のリアルタイムデータを取得する。トレーニング段階の混合比率をそのまま使用する場合、実際の無線環境からのある伝送条件のデータ割合がモデルトレーニング段階での該伝送条件の割合を超えると、超過した部分のデータを微調整のためにネットワークに入力しない。
【0120】
本出願の実施例では、トレーニング段階のデータ割合をそのまま使用する時、該割合を超過した伝送条件のデータを微調整のためにニューラルネットワークモデルに入力せず、これにより、割合を超過したデータ量によるアンバランスの影響を回避することができる。
【0121】
選択的に、各前記伝送条件におけるリアルタイムデータを取得する前記ステップは、ネットワーク側機器及び端末のうちの少なくとも1つの各前記伝送条件におけるデータを、各前記伝送条件におけるリアルタイムデータとしてオンラインで収集するステップを含み、トレーニング済みのニューラルネットワークモデルをオンラインで調整する前記ステップは、前記ネットワーク側機器及び端末のうちの少なくとも1つの各前記伝送条件におけるデータに基づき、前記ネットワーク側機器又は前記端末を利用して、前記トレーニング済みのニューラルネットワークモデルをオンラインで調整するステップを含む。
【0122】
ニューラルネットワークのトレーニング段階と同様に、本出願の実施例のニューラルネットワークモデルの微調整又はfine tuning段階では、トレーニング段階のデータ割合をそのまま使用すると、実行主体はニューラルネットワークの入力端にあり、ネットワーク側機器及び/又は端末側機器であり得ると理解してよい。つまり、実行主体がネットワーク側機器である場合、ネットワーク側機器の各伝送条件のリアルタイムデータをオンラインで取得することができ、実行主体が端末機器である場合、端末側の各伝送条件のリアルタイムデータをオンラインで取得することができ、実行主体がネットワーク側機器及び端末の両方を含む場合、この両方の実行主体の各伝送条件のリアルタイムデータを取得する必要がある。
【0123】
その後、実際のオンライン微調整時、ネットワーク側機器又は端末が、自身の対応するリアルタイムデータに従ってニューラルネットワークモデルのオンライン微調整を行い、ネットワークパラメータを更新する。
【0124】
選択的に、前記ネットワーク側機器又は前記端末がトレーニング段階で各前記伝送条件におけるトレーニングデータの割合を取得していない場合、各前記伝送条件におけるトレーニングデータの割合に基づき、各前記伝送条件におけるリアルタイムデータを取得する前記ステップの前に、前記無線伝送方法は、
前記ネットワーク側機器により、Xnインタフェースシグナリング、N1インタフェースシグナリング、N2インタフェースシグナリング、N3インタフェースシグナリング、N4インタフェースシグナリング、N5インタフェースシグナリング、N6インタフェースシグナリング、N7インタフェースシグナリング、N8インタフェースシグナリング、N9インタフェースシグナリング、N10インタフェースシグナリング、N11インタフェースシグナリング、N12インタフェースシグナリング、N13インタフェースシグナリング、N14インタフェースシグナリング、N15インタフェースシグナリング、及びN22インタフェースシグナリングのうちのいずれか1つのインタフェースシグナリングを介して、前記トレーニング段階のネットワーク側機器から各前記伝送条件におけるトレーニングデータの割合を取得するステップ、
又は、前記ネットワーク側機器により、PUCCH層1シグナリング、PUSCH、PRACHのMSG1、PRACHのMSG3、及びPRACHのMSG Aのうちのいずれか1つのシグナリングを介して、前記トレーニング段階の端末から各前記伝送条件におけるトレーニングデータの割合を取得するステップ、
又は、前記端末により、PC5インタフェースシグナリング又はsidelinkインタフェースシグナリングを介して、前記トレーニング段階の端末から各前記伝送条件におけるトレーニングデータの割合を取得するステップ、
又は、前記端末により、RRC、PDCCH層1シグナリング、PUSCH、MAC CE、及びSIBのうちのいずれか1つのシグナリングを介して、前記トレーニング段階のネットワーク側機器から各前記伝送条件におけるトレーニングデータの割合を取得するステップをさらに含む。
【0125】
ニューラルネットワークモデルのオンライン微調整段階では、実行主体がトレーニング段階でデータ割合情報を取得していない場合、異なる実行主体のタイプ及び対象となるトレーニング段階の目標実行主体のタイプに応じて、最初にXnインタフェースシグナリングを介して、又はXnインタフェースシグナリング、N1インタフェースシグナリング、N2インタフェースシグナリング、N3インタフェースシグナリング、N4インタフェースシグナリング、N5インタフェースシグナリング、N6インタフェースシグナリング、N7インタフェースシグナリング、N8インタフェースシグナリング、N9インタフェースシグナリング、N10インタフェースシグナリング、N11インタフェースシグナリング、N12インタフェースシグナリング、N13インタフェースシグナリング、N14インタフェースシグナリング、N15インタフェースシグナリング及びN22インタフェースシグナリング等のインタフェースシグナリングを介して、又はPC5インタフェースシグナリングを介して、又はsidelinkインタフェースシグナリングを介して、又はRRC、PDCCH層1シグナリング、MAC CE又はSIB等のインタフェースシグナリング(これらを含むがこれらに限定されない)を介して、データ割合情報を取得してから、微調整又はfine tuningを行う必要があると理解してよい。
【0126】
本出願の実施例では、実行主体がトレーニング段階でデータ割合情報を取得していない場合、設定タイプのインタフェースシグナリングを介して他の実行主体からデータ割合情報を取得し、これにより、オンライン微調整段階のデータ割合情報の共有を実現し、ニューラルネットワークの汎化能力を保証することができる。
【0127】
本出願の実施例の技術的解決手段をさらに説明するために、以下に例を挙げて説明するが、本出願で保護を要求する範囲を限定するものではない。
【0128】
図5は、本出願の実施例で提供される無線伝送方法においてニューラルネットワークモデルを構築する手順模式図である。
図5は本出願の実施例で提供される無線伝送方法に係るモデル構築手順を示し、オフライン(offline)トレーニング段階(図の1の部分)と実際の伝送ネットワークでの微調整又はfine tuning段階(図の2の部分)に分けることができ、ここでオフライントレーニングの前に、まずトレーニングデータセットを構築して取得することができる。
【0129】
トレーニングデータセットを構築して取得する時、まず、全ての伝送条件のデータを等しい割合で混合して、等しい割合での各伝送条件のデータ量又はデータ割合を決定することができる。次に、混合内の全ての伝送条件を、ニューラルネットワークの最適化目標に対する寄与度でソートする。その後、全ての伝送条件のデータが十分であることを保証した前提で、寄与度が低い伝送条件のデータ量を増加させ、寄与度が高い伝送条件のデータ量を減少させることで、各伝送条件のデータの割合を決定し、さらに該割合に基づいて混合トレーニングデータセットを構築する。
【0130】
ここで、異なる伝送条件におけるデータ量を決定する時、「全ての伝送条件のデータが十分であることを保証する」ことは、閾値を設定し、いずれかの伝送条件のデータ量が総データ量に占める割合が該閾値以上であるようにすることであってもよい。
【0131】
「寄与度が低い伝送条件のデータ量を増加させ、寄与度が高い伝送条件のデータ量を減少させる」時、寄与度が低いほど、データ量は増加し、寄与度が高いほど、データ量は減少する。寄与度をソートする時、寄与度が小さいものから大きいものへとソートされる場合、対応する伝送条件のデータが全データに占める割合(即ち占有率)は、例えば、線形減少、等差減少、等比減少、指数関数的減少、又はベキ関数的減少等の任意の漸減方式であり得る。逆に、寄与度が大きいものから小さいものへとソートされる場合、対応する伝送条件のデータが全データに占める割合は、例えば、線形増加、等差増加、等比増加、指数関数的増加、又はベキ関数的増加等の任意の漸増方式であり得る。
【0132】
ここで、各伝送条件のデータの割合を決定する1つの実施可能な方式は、本出願の実施例で提供されるトレーニングデータセット取得方法においてトレーニングデータの割合を決定する手順模式図である
図6に示され、主に以下のステップを含む。
【0133】
ソート後に寄与度の中央値(中間値)を見つけ、各伝送条件の寄与度を順に該中央値と比較する。
【0134】
i番目の伝送条件の寄与度が寄与度の中央値より大きければ、全ての伝送条件のデータ量が十分であることを保証した前提で、該i番目の伝送条件のデータ量を減少させ、減少幅は、該i番目の伝送条件の寄与度と寄与度の中央値(中間値)の差に比例する。
i番目の伝送条件の寄与度が寄与度の中央値より小さければ、全ての伝送条件のデータ量が十分であることを保証した前提で、該i番目の伝送条件のデータ量を増加させ、増加幅は、寄与度の中央値(中間値)と該i番目の伝送条件の寄与度の差に比例する。
【0135】
トレーニングデータセットを取得した後、該トレーニングデータセットを利用して、ニューラルネットワークモデルのトレーニングをオフラインでループ繰り返しして、収束させ、トレーニング済みのニューラルネットワークモデルを得る。
【0136】
次に、実際の無線ネットワークのデータをリアルタイムで収集し、予備トレーニングされたニューラルネットワークモデルのパラメータを微調整(fine-tuning)し、ニューラルネットワークモデルを実際の環境に適合させる。オンライン微調整は、予備トレーニングされたニューラルネットワークのパラメータを初期化として使用する再トレーニングのプロセスと考えてよい。
【0137】
例えば、無線伝送における復調基準信号(Demodulation Reference Signal,DMRS)チャネル推定という具体的な応用シナリオを例とし、N_RB個のRBを含むシステムを考慮し、各RBはN_SC個のサブキャリアとN_Sym個のシンボルを含み、即ちシステムは合計でN_RE=N_RB*N_SC*N_Sym個の時間周波数リソースを含む。チャネル推定のために、各RBの周波数領域にN_SC_DMRS個を配置し、時間領域にN_Sym_DMRS個のDMRSを配置し、即ち、DMRSは合計でN_RE_DMRS=N_RB*N_SC_DMRS*N_Sym_DMRS個の時間周波数リソースを占有する。受信側は、受信したN_RE_DMRS個の時間周波数リソース位置のDMRS信号に基づき、全てのN_RE個の時間周波数リソースでのチャネル推定を回復する。
【0138】
上記プロセスを実現するニューラルネットワークの構造は、本出願の実施例で提供される無線伝送方法におけるDMRSチャネル推定用のニューラルネットワークの構造模式図である
図7に示され、ここで、ニューラルネットワークの入力情報は、N_RE_DMRS個のDMRSオーバーチャネルとノイズシンボルであり、ニューラルネットワークの出力情報は、全てのN_RE個の時間周波数リソースでのチャネル推定結果に対応するN_RE個のシンボルである。
【0139】
ニューラルネットワークをトレーニングする時、トレーニングデータは、ラベル付きのDMRS情報ペアであり、即ち1つのDMRS信号サンプル(N_RE_DMRS個のシンボルを含む)は、1つのラベル(該ラベルは、現在のDMRS信号サンプルに対応するチャネルの真値であり、合計でN_RE_DMRS個のシンボルである)に対応する。トレーニングの時、大量のラベル付きのDMRS情報ペアを使用してニューラルネットワークのパラメータを調整し、DMRS信号サンプルに基づくニューラルネットワークの出力とそのラベルとの正規化された平均二乗誤差NMSEを最小化する。
【0140】
【0141】
まず、ネットワーク側機器において、混合トレーニングデータセットを構築する時の各SNRのデータ割合を決定する。
【0142】
【0143】
【0144】
次に、ネットワーク側機器は、各SNRのデータ割合情報を、RRC、PDCCH層1シグナリング、MAC CE又はSIB等のインタフェースシグナリングを介して、共同トレーニングに関与する全ての端末に送信し、ニューラルネットワークの連合学習を行い、つまりオフライントレーニングを行う。
【0145】
ニューラルネットワークのオフライントレーニングを完了した後、トレーニング済みのニューラルネットワークを実際の無線ネットワークにおいてオンライン微調整する。データ割合情報は、オフライントレーニング段階で全ての端末に共有されているため、オンライン微調整段階では該データ割合情報をそのまま使用することができる。実際の無線環境からのあるSNRのデータ割合がモデルトレーニング段階での該SNRの割合を超えると、超過した部分のデータを微調整のためにニューラルネットワークに入力しない。
【0146】
本出願の実施例は、トレーニングされたニューラルネットワークモデルの変化する無線環境における汎化能力を高めることができる。
【0147】
説明すべきことは、本出願の実施例で提供される無線伝送方法の実行主体が、無線伝送装置であってもよいし、又は、該無線伝送装置内の、無線伝送方法を実行するための制御モジュールであってもよい点である。本出願の実施例において、無線伝送装置が無線伝送方法を実行することを例として、本出願の実施例で提供される無線伝送装置を説明する。
【0148】
本出願の実施例の無線伝送装置の構造は、本出願の実施例で提供される無線伝送装置の構造模式図である
図8に示され、該装置は、上記した各無線伝送方法実施例における無線伝送を実現するために用いることができ、該装置は、
ニューラルネットワークモデルに基づき、無線伝送演算を行い、前記無線伝送を実現するための第3処理モジュール801を備える。
ここで、前記ニューラルネットワークモデルは、予めトレーニングデータセットを利用してトレーニングされたものであり、前記トレーニングデータセットは、上記各実施例に記載のトレーニングデータセット取得方法に基づいて取得される。
【0149】
選択的に、前記無線伝送装置は、
前記トレーニングデータセットに基づき、
単一の端末の集中トレーニング、
単一のネットワーク側機器の集中トレーニング、
複数の端末の共同分散トレーニング、
複数のネットワーク側機器の共同分散トレーニング、
単一のネットワーク側機器と複数の端末の共同分散トレーニング、
複数のネットワーク側機器と複数の端末の共同分散トレーニング、
複数のネットワーク側機器と単一の端末の共同分散トレーニング、を含むトレーニング方式のうちのいずれか1つを利用して、前記ニューラルネットワークモデルをトレーニングして取得するためのトレーニングモジュールをさらに備える。
【0150】
選択的に、前記ネットワーク側機器は、アクセスネットワーク機器、コアネットワーク機器、又はデータネットワーク機器である。
【0151】
選択的に、前記無線伝送装置は、
前記分散トレーニングの過程で、各前記伝送条件におけるトレーニングデータの割合を、前記分散トレーニングを行う各主体間で共有するための第4処理モジュールをさらに備える。
【0152】
選択的に、前記分散トレーニングが複数のネットワーク側機器の共同分散トレーニングである場合、前記第4処理モジュールは、前記複数のネットワーク側機器のうちのいずれか1つのネットワーク側機器により、各前記伝送条件におけるトレーニングデータの割合を計算して決定し、前記割合を第1設定タイプのインタフェースシグナリングを介して前記複数のネットワーク側機器のうち前記いずれか1つのネットワーク側機器以外の他のネットワーク側機器に送信するために用いられる。
【0153】
選択的に、前記第1設定タイプのインタフェースシグナリングは、Xnインタフェースシグナリング、N1インタフェースシグナリング、N2インタフェースシグナリング、N3インタフェースシグナリング、N4インタフェースシグナリング、N5インタフェースシグナリング、N6インタフェースシグナリング、N7インタフェースシグナリング、N8インタフェースシグナリング、N9インタフェースシグナリング、N10インタフェースシグナリング、N11インタフェースシグナリング、N12インタフェースシグナリング、N13インタフェースシグナリング、N14インタフェースシグナリング、N15インタフェースシグナリング、又はN22インタフェースシグナリングを含む。
【0154】
選択的に、前記分散トレーニングが複数の端末の共同分散トレーニングである場合、前記第4処理モジュールは、前記複数の端末のうちのいずれか1つの端末により、各前記伝送条件におけるトレーニングデータの割合を計算して決定し、前記割合を第2設定タイプのインタフェースシグナリングを介して前記複数の端末のうち前記いずれか1つの端末以外の他の端末に送信するために用いられる。
【0155】
選択的に、前記第2設定タイプのインタフェースシグナリングは、PC5インタフェースシグナリング又はsidelinkインタフェースシグナリングを含む。
【0156】
選択的に、前記分散トレーニングがネットワーク側機器と端末の共同分散トレーニングである場合、前記第4処理モジュールは、前記ネットワーク側機器及び端末のうちのいずれか1つのネットワーク側機器又はいずれか1つの端末により、各前記伝送条件におけるトレーニングデータの割合を計算して決定し、前記割合を第3設定タイプのシグナリングを介して前記ネットワーク側機器及び端末のうち前記いずれか1つのネットワーク側機器又はいずれか1つの端末以外の他のネットワーク側機器又は端末に送信するために用いられる。
【0157】
選択的に、前記第3設定タイプのシグナリングは、RRC、PDCCH層1シグナリング、PDSCH、MAC CE、SIB、Xnインタフェースシグナリング、N1インタフェースシグナリング、N2インタフェースシグナリング、N3インタフェースシグナリング、N4インタフェースシグナリング、N5インタフェースシグナリング、N6インタフェースシグナリング、N7インタフェースシグナリング、N8インタフェースシグナリング、N9インタフェースシグナリング、N10インタフェースシグナリング、N11インタフェースシグナリング、N12インタフェースシグナリング、N13インタフェースシグナリング、N14インタフェースシグナリング、N15インタフェースシグナリング、N22インタフェースシグナリング、PUCCH層1シグナリング、PUSCH、PRACHのMSG1、PRACHのMSG3、PRACHのMSG A、PC5インタフェースシグナリング、又はsidelinkインタフェースシグナリングを含む。
【0158】
選択的に、前記無線伝送装置は、
前記伝送条件におけるリアルタイムデータを取得し、前記リアルタイムデータに基づき、トレーニング済みのニューラルネットワークモデルをオンラインで調整するための微調整モジュールをさらに備える。
【0159】
選択的に、前記微調整モジュールは、
各前記伝送条件におけるトレーニングデータの割合に基づき、各前記伝送条件におけるリアルタイムデータを取得し、そして
前記伝送条件のうちのいずれか1つの伝送条件におけるリアルタイムデータの割合が、前記いずれか1つの伝送条件におけるトレーニングデータの割合よりも高い場合、前記トレーニング済みのニューラルネットワークモデルをオンラインで調整する過程で、前記いずれか1つの伝送条件におけるリアルタイムデータのうち、前記いずれか1つの伝送条件におけるトレーニングデータの割合を超過したデータを、前記トレーニング済みのニューラルネットワークモデルに入力しないために用いられる。
【0160】
選択的に、前記微調整モジュールは、各前記伝送条件におけるリアルタイムデータを取得する前記ステップに用いられる時、
ネットワーク側機器及び端末のうちの少なくとも1つの各前記伝送条件におけるデータを、各前記伝送条件におけるリアルタイムデータとしてオンラインで収集するために用いられ、
前記微調整モジュールは、トレーニング済みのニューラルネットワークモデルをオンラインで調整する前記ステップに用いられる時、
前記ネットワーク側機器及び端末のうちの少なくとも1つの各前記伝送条件におけるデータに基づき、前記ネットワーク側機器又は前記端末を利用して、前記トレーニング済みのニューラルネットワークモデルをオンラインで調整するために用いられる。
【0161】
選択的に、前記無線伝送装置は、
前記ネットワーク側機器又は前記端末がトレーニング段階で各前記伝送条件におけるトレーニングデータの割合を取得していない場合、
前記ネットワーク側機器により、Xnインタフェースシグナリング、N1インタフェースシグナリング、N2インタフェースシグナリング、N3インタフェースシグナリング、N4インタフェースシグナリング、N5インタフェースシグナリング、N6インタフェースシグナリング、N7インタフェースシグナリング、N8インタフェースシグナリング、N9インタフェースシグナリング、N10インタフェースシグナリング、N11インタフェースシグナリング、N12インタフェースシグナリング、N13インタフェースシグナリング、N14インタフェースシグナリング、N15インタフェースシグナリング、及びN22インタフェースシグナリングのうちのいずれか1つのインタフェースシグナリングを介して、前記トレーニング段階のネットワーク側機器から各前記伝送条件におけるトレーニングデータの割合を取得し、
又は、前記ネットワーク側機器により、PUCCH層1シグナリング、PUSCH、PRACHのMSG1、PRACHのMSG3、及びPRACHのMSG Aのうちのいずれか1つのシグナリングを介して、前記トレーニング段階の端末から各前記伝送条件におけるトレーニングデータの割合を取得し、
又は、前記端末により、PC5インタフェースシグナリング又はsidelinkインタフェースシグナリングを介して、前記トレーニング段階の端末から各前記伝送条件におけるトレーニングデータの割合を取得し、
又は、前記端末により、RRC、PDCCH層1シグナリング、PUSCH、MAC CE、及びSIBのうちのいずれか1つのシグナリングを介して、前記トレーニング段階のネットワーク側機器から各前記伝送条件におけるトレーニングデータの割合を取得するための通信モジュールをさらに備える。
【0162】
本出願の実施例における無線伝送装置は、装置、オペレーティングシステムを備える装置又は電子機器であってもよいし、端末又はネットワーク側機器内の部材、集積回路又はチップであってもよい。該装置又は電子機器は、携帯型端末であってもよいし、非携帯型端末であってもよく、また以上で挙げられたネットワーク側機器102の種類を含んでもよいが、それらに限定されない。例として、携帯型端末は、以上で挙げられた端末101の種類を含んでもよいが、それらに限定されることがなく、非携帯型端末は、サーバ、ネットワークアタッチドストレージ(Network Attached Storage,NAS)、パーソナルコンピュータ(personal computer,PC)、テレビ(television,TV)、現金自動預払機又はキオスク等であってもよく、本出願の実施例では具体的に限定しない。
【0163】
本出願の実施例における無線伝送装置は、オペレーティングシステムを有する装置であってもよい。該オペレーティングシステムは、アンドロイド(Android)オペレーティングシステムであってもよく、iosオペレーティングシステムであってもよく、他の可能なオペレーティングシステムであってもよく、本発明の実施例では具体的に限定しない。
【0164】
本出願の実施例で提供される無線伝送装置は、
図4~
図7の無線伝送方法実施例において実現される各プロセスを実現し、同様な技術効果を達成することができる。重複を避けるために、ここでは詳細な説明を省略する。
【0165】
図9に示すように、本出願の実施例は、通信機器900をさらに提供し、該通信機器900は、プロセッサ901と、メモリ902と、メモリ902に記憶され、前記プロセッサ901によって実行可能なプログラムもしくはコマンドとを備える。例えば、該通信機器900が端末又はネットワーク側機器である時、該プログラムもしくはコマンドがプロセッサ901によって実行されると、上記したトレーニングデータセット取得方法実施例の各プロセスを実現し、同様な技術効果を達成することができ、又は上記した無線伝送方法実施例の各プロセスを実現し、同様な技術効果を達成することができる。重複を避けるために、ここでは詳細な説明を省略する。
【0166】
本出願の実施例は通信機器をさらに提供し、該通信機器は端末又はネットワーク側機器であってもよく、該通信機器はプロセッサ及び通信インタフェースを備え、ここでプロセッサが、ニューラルネットワークの最適化目標に対する各伝送条件の寄与度に基づき、各前記伝送条件におけるトレーニングデータのデータ量を決定し、そして各前記伝送条件におけるトレーニングデータのデータ量に基づき、各前記伝送条件におけるトレーニングデータを取得して、前記ニューラルネットワークをトレーニングするためのトレーニングデータセットを形成するために用いられ、ここで、ニューラルネットワークの最適化目標に対する伝送条件の前記寄与度は、前記ニューラルネットワークの最適化目標の値に対する前記伝送条件の影響度を表す。説明すべきことは、該通信機器の実施例は、上記したトレーニングデータセット取得方法実施例に対応し、上記した方法実施例の各実施プロセス及び実施形態は全て該通信機器の実施例に適用することができ、同様な技術効果を達成することができる点である。
【0167】
本出願の実施例は通信機器をさらに提供し、該通信機器は端末又はネットワーク側機器であってもよく、該通信機器はプロセッサ及び通信インタフェースを備え、ここでプロセッサが、ニューラルネットワークモデルに基づき、無線伝送演算を行い、前記無線伝送を実現するために用いられ、ここで、前記ニューラルネットワークモデルは、予めトレーニングデータセットを利用してトレーニングされたものであり、前記トレーニングデータセットは、上記各実施例に記載のトレーニングデータセット取得方法に基づいて取得される。説明すべきことは、該通信機器の実施例は上記した無線伝送方法実施例に対応し、上記した方法実施例の各実施プロセス及び実施形態は全て該通信機器の実施例に適用することができ、同様な技術効果を達成することができる点である。
【0168】
具体的には、
図10は本出願の実施例を実現する端末のハードウェア構造模式図である。該端末1000は、高周波ユニット1001、ネットワーク機器モジュール1002、オーディオ出力ユニット1003、入力ユニット1004、センサ1005、表示ユニット1006、ユーザ入力ユニット1007、インタフェースユニット1008、メモリ1009、及びプロセッサ1010等の部材の少なくとも一部を含むが、それらに限定されない。
【0169】
当業者であれば、端末1000は各部材に給電する電源(例えば、電池)をさらに含んでもよく、電源は電源管理システムによってプロセッサ1010に論理的に接続し、さらに電源管理システムによって充放電の管理、及び電力消費管理等の機能を実現できることが理解可能である。
図10に示す端末構造は端末を限定するものではなく、端末は図示より多く又はより少ない部材、又は一部の部材の組合せ、又は異なる部材配置を含んでもよく、ここでは詳細な説明を省略する。
【0170】
本出願の実施例において、入力ユニット1004は、ビデオキャプチャモード又は画像キャプチャモードで画像キャプチャ装置(例えば、カメラ)が取得したスチル画像又はビデオの画像データを処理するグラフィックスプロセッシングユニット(Graphics Processing Unit,GPU)10041、及びマイクロホン10042を含んでもよいことを理解すべきである。表示ユニット1006は表示パネル10061を含んでもよく、液晶ディスプレイ、有機発光ダイオード等の形態で表示パネル10061を配置することができる。ユーザ入力ユニット1007はタッチパネル10071及び他の入力機器10072を含む。タッチパネル10071はタッチスクリーンとも呼ばれる。タッチパネル10071は、タッチ検出装置及びタッチコントローラとの2つの部分を含んでもよい。他の入力機器10072は、物理キーボード、機能ボタン(例えば、音量制御ボタン、スイッチボタン等)、トラックボール、マウス、操作レバーを含んでもよいが、それらに限定されず、ここでは詳細な説明を省略する。
【0171】
本出願の実施例において、高周波ユニット1001はネットワーク機器からのダウンリンクデータを受信した後、プロセッサ1010で処理し、また、アップリンクのデータをネットワーク側機器に送信する。通常、高周波ユニット1001は、アンテナ、少なくとも1つの増幅器、受送信機、カプラー、低騒音増幅器、デュプレクサ等を含むが、それらに限定されない。
【0172】
メモリ1009は、ソフトウェアプログラムもしくはコマンド及び様々なデータを記憶するために用いることができる。メモリ1009は、オペレーティングシステム、少なくとも1つの機能に必要なアプリケーションもしくはコマンド(例えば、音声再生機能、画像再生機能等)等を記憶可能なプログラムもしくはコマンド記憶領域と、データ記憶領域とを主に含んでもよい。また、メモリ1009は、高速ランダムアクセスメモリを含んでもよく、非揮発性メモリをさらに含んでもよい。ここで、非揮発性メモリは、読み取り専用メモリ(Read-Only Memory,ROM)、プログラマブル読み取り専用メモリ(Programmable ROM,PROM)、消去可能プログラマブル読み取り専用メモリ(Erasable PROM,EPROM)、電気消去可能プログラマブル読み取り専用メモリ(Electrically EPROM,EEPROM)又はラッシュメモリであってもよく、例えば、少なくとも1つのディスク記憶装置、フラッシュメモリ、又は他の非揮発性ソリッドステート記憶装置である。揮発性メモリは、ランダムアクセスメモリ(Random Access Memory,RAM)、スタティックランダムアクセスメモリ(Static RAM,SRAM)、ダイナミックランダムアクセスメモリ(Dynamic RAM,DRAM)、同期ダイナミックランダムアクセスメモリ(Synchronous DRAM,SDRAM)、ダブルデータレート同期ダイナミックランダムアクセスメモリ(Double Data Rate SDRAM,DDRSDRAM)、強化型同期ダイナミックランダムアクセスメモリ(Enhanced SDRAM,ESDRAM)、同期接続ダイナミックランダムアクセスメモリ(Synch link DRAM,SLDRAM)、及びダイレクトラムバスランダムアクセスメモリ(Direct Rambus RAM,DRRAM)であってもよい。本出願の実施例におけるメモリ1009は、これらのメモリ及び他のいかなる適切なメモリを含むが、それらに限定されない。
【0173】
プロセッサ1010は、1つ又は複数の処理ユニットを含んでもよい。選択的に、プロセッサ1010に、オペレーティングシステム、ユーザインタフェース及びアプリケーションもしくはコマンド等を主に処理するアプリケーションプロセッサと、無線通信を主に処理するベースバンドプロセッサのようなモデムプロセッサとを統合することができる。上記モデムプロセッサはプロセッサ1010に統合されなくてもよいことが理解可能である。
【0174】
ここで、プロセッサ1010は、ニューラルネットワークの最適化目標に対する各伝送条件の寄与度に基づき、各前記伝送条件におけるトレーニングデータのデータ量を決定し、そして各前記伝送条件におけるトレーニングデータのデータ量に基づき、各前記伝送条件におけるトレーニングデータを取得して、前記ニューラルネットワークをトレーニングするためのトレーニングデータセットを形成するために用いられ、ここで、ニューラルネットワークの最適化目標に対する伝送条件の前記寄与度は、前記ニューラルネットワークの最適化目標の値に対する前記伝送条件の影響度を表す。
【0175】
本出願の実施例は、人工知能ベースの通信システムにおいてトレーニングデータセットを構築する時、ニューラルネットワークの最適化目標(目的関数又は損失関数とも呼ばれる)に対する異なる伝送条件のデータの寄与度に基づき、様々な伝送条件におけるデータを異なる割合で選択し、混合トレーニングデータセットを構築し、これによりニューラルネットワークの汎化能力を効果的に向上させることができる。
【0176】
選択的に、プロセッサ1010はさらに、各前記伝送条件の寄与度をソートし、そして、等しい割合で混合する上で、前記ソートにおける大きい寄与度に対応する伝送条件におけるトレーニングデータのデータ量を減少させる操作と、前記ソートにおける小さい寄与度に対応する伝送条件におけるトレーニングデータのデータ量を増加させる操作とのうちの少なくとも1つを実行するために用いられる。
【0177】
本出願の実施例では、各伝送条件の寄与度をソートし、該ソートに基づいて対応する伝送条件のデータ量を調整することで、対応する伝送条件のデータ量の調整ポリシー(データ量を増加させる必要があるか減少させる必要があるか、増加又は減少の幅等を含む)をより明確且つ正確に決定することができ、これにより効率がより高く、結果がより正確になる。
【0178】
選択的に、プロセッサ1010はさらに、各前記伝送条件におけるトレーニングデータのデータ量に基づき、各前記伝送条件におけるデータを収集してキャリブレーションし、各前記伝送条件におけるトレーニングデータセットを構成するために、又は、各前記伝送条件における設定数のデータを収集し、各前記伝送条件におけるトレーニングデータのデータ量に基づき、前記設定数のデータから一部のデータを選択してキャリブレーションするか、又は前記設定数のデータを補完してキャリブレーションし、各前記伝送条件におけるトレーニングデータセットを構成するために用いられる。
【0179】
選択的に、プロセッサ1010はさらに、前記ソートにおける大きい寄与度に対応する伝送条件におけるトレーニングデータのデータ量を減少させる操作と、前記ソートにおける小さい寄与度に対応する伝送条件におけるトレーニングデータのデータ量を増加させる操作とのうちの少なくとも1つを次のルールに従って実行するために用いられ、前記ルールは、前記大きい寄与度の値が大きいほど、前記減少の幅が大きくなり、前記小さい寄与度の値が小さいほど、前記増加の幅が大きくなることを含む。
【0180】
本出願の実施例では、寄与度の値の大きさに基づき、対応する伝送条件のトレーニングデータのデータ量を比例的に増加又は減少させ、伝送条件の寄与度が高くなるにつれて、伝送条件のトレーニングデータのデータ量を減少させることができ、これにより、最終的なニューラルネットワークに対する各伝送条件の影響のバランスがより良くなり、ニューラルネットワーク汎化能力の改善により有利である。
【0181】
選択的に、プロセッサ1010はさらに、前記ソートに基づいて基準寄与度を決定し、前記伝送条件の寄与度と前記基準寄与度を比較するために用いられ、前記伝送条件の寄与度が前記基準寄与度よりも大きい場合、前記伝送条件の寄与度を前記大きい寄与度と決定し、前記伝送条件におけるトレーニングデータのデータ量を減少させ、そうでなければ、前記伝送条件の寄与度を前記小さい寄与度と決定し、前記伝送条件におけるトレーニングデータのデータ量を増加させる。
【0182】
本出願の実施例では、寄与度の中間的な比較基準量を決定することにより、他の寄与度を該比較基準量と比較するだけで、比較結果に応じて対応する伝送条件のデータ量を増加させるか減少させるかを決定することができ、アルゴリズムが簡単で、計算量が少ない。
【0183】
選択的に、プロセッサ1010はさらに、実際の応用における各前記伝送条件の確率密度に基づき、各前記伝送条件に対応する重み付け係数を決定し、そして前記最適化目標に対する各前記伝送条件の寄与度を基に、前記重み付け係数と組み合わせて、各前記伝送条件におけるトレーニングデータのデータ量を決定するために用いられる。
【0184】
本出願の実施例では、伝送条件の実際の確率密度に基づいて重み付け項を設計し、実際の環境によりよく適合することができる。
【0185】
選択的に、高周波ユニット1001は、前記トレーニングデータセットを目標機器に送信するために用いられ、前記目標機器は、前記トレーニングデータセットに基づいて前記ニューラルネットワークをトレーニングするために用いられる。
【0186】
本出願の実施例では、取得されたトレーニングデータセットを現在の機器以外の第2機器に送信し、これにより、複数の機器間はデータ共有と共同トレーニングを実現することができ、それによって単一機器の演算量を効果的に低減し、演算効率を効果的に向上させることができる。
【0187】
選択的に、高周波ユニット1001は、前記トレーニングデータセットを前記目標機器に直接送信し、又は設定変換後のトレーニングデータセットを前記目標機器に送信するために用いられ、
プロセッサ1010はさらに、前記トレーニングデータセットに対して設定変換を行うために用いられ、前記設定変換は、特定の量子化、特定の圧縮、及び予め約束又は配置されたニューラルネットワークに従って処理することのうちの少なくとも1つを含む。
【0188】
選択的に、プロセッサ1010はさらに、ニューラルネットワークモデルに基づき、無線伝送演算を行い、前記無線伝送を実現するために用いられ、ここで、前記ニューラルネットワークモデルは、予めトレーニングデータセットを利用してトレーニングされたものであり、前記トレーニングデータセットは、上記した各トレーニングデータセット取得方法実施例に記載のトレーニングデータセット取得方法に基づいて取得される。
【0189】
本出願の実施例では、ニューラルネットワークの最適化目標(目的関数又は損失関数とも呼ばれる)に対する異なる伝送条件のデータの寄与度に基づき、様々な伝送条件におけるデータを異なる割合で選択し、不均一に混合されるトレーニングデータセットを構築し、該不均一に混合されるトレーニングデータセットに基づいて、1つの共通のニューラルネットワークをトレーニングして、実際の異なる伝送条件での無線伝送に使用し、これにより、トレーニングされたニューラルネットワークは各伝送条件のいずれにおいても高い性能を達成することができる。
【0190】
選択的に、プロセッサ1010はさらに、前記トレーニングデータセットに基づき、
単一の端末の集中トレーニング、
単一のネットワーク側機器の集中トレーニング、
複数の端末の共同分散トレーニング、
複数のネットワーク側機器の共同分散トレーニング、
単一のネットワーク側機器と複数の端末の共同分散トレーニング、
複数のネットワーク側機器と複数の端末の共同分散トレーニング、
複数のネットワーク側機器と単一の端末の共同分散トレーニング、を含むトレーニング方式のうちのいずれか1つを利用して、前記ニューラルネットワークモデルをトレーニングして取得するために用いられる。
【0191】
選択的に、高周波ユニット1001はさらに、前記分散トレーニングの過程で、各前記伝送条件におけるトレーニングデータの割合を、前記分散トレーニングを行う各主体間で共有するために用いられる。
【0192】
本出願の実施例では、各実行主体間でトレーニングデータの割合を共有することによって、各実行主体は自身のデータを共有することなくニューラルネットワークモデルのトレーニングを実現することができ、単一の機器の計算能力やトレーニング能力が不十分であったり、又は機器間でデータを共有できなかったり(プライバシーの問題がある)、又は大量のデータを伝送する代価が非常に大きいという問題を解決することができる。
【0193】
選択的に、プロセッサ1010はさらに、前記分散トレーニングが複数のネットワーク側機器の共同分散トレーニングである場合、前記複数のネットワーク側機器のうちのいずれか1つのネットワーク側機器により、各前記伝送条件におけるトレーニングデータの割合を計算して決定するために用いられ、
高周波ユニット1001はさらに、前記割合を第1設定タイプのインタフェースシグナリングを介して前記複数のネットワーク側機器のうち前記いずれか1つのネットワーク側機器以外の他のネットワーク側機器に送信するために用いられる。
【0194】
選択的に、プロセッサ1010はさらに、前記分散トレーニングが複数の端末の共同分散トレーニングである場合、前記複数の端末のうちのいずれか1つの端末により、各前記伝送条件におけるトレーニングデータの割合を計算して決定するために用いられ、
高周波ユニット1001はさらに、前記割合を第2設定タイプのインタフェースシグナリングを介して前記複数の端末のうち前記いずれか1つの端末以外の他の端末に送信するために用いられる。
【0195】
選択的に、プロセッサ1010はさらに、前記分散トレーニングがネットワーク側機器と端末の共同分散トレーニングである場合、前記ネットワーク側機器及び端末のうちのいずれか1つのネットワーク側機器又はいずれか1つの端末により、各前記伝送条件におけるトレーニングデータの割合を計算して決定するために用いられ、
高周波ユニット1001はさらに、前記割合を第3設定タイプのシグナリングを介して前記ネットワーク側機器及び端末のうち前記いずれか1つのネットワーク側機器又はいずれか1つの端末以外の他のネットワーク側機器又は端末に送信するために用いられる。
【0196】
選択的に、プロセッサ1010はさらに、前記伝送条件におけるリアルタイムデータを取得し、前記リアルタイムデータに基づき、トレーニング済みのニューラルネットワークモデルをオンラインで調整するために用いられる。
【0197】
本出願の実施例では、ニューラルネットワークモデルのオフライントレーニングを完了する上で、トレーニング済みのニューラルネットワークモデルをオンラインで微調整し、これにより、ニューラルネットワークをより実際の環境に適合させることができる。
【0198】
選択的に、プロセッサ1010はさらに、各前記伝送条件におけるトレーニングデータの割合に基づき、各前記伝送条件におけるリアルタイムデータを取得し、そして、前記伝送条件のうちのいずれか1つの伝送条件におけるリアルタイムデータの割合が、前記いずれか1つの伝送条件におけるトレーニングデータの割合よりも高い場合、前記トレーニング済みのニューラルネットワークモデルをオンラインで調整する過程で、前記いずれか1つの伝送条件におけるリアルタイムデータのうち、前記いずれか1つの伝送条件におけるトレーニングデータの割合を超過したデータを、前記トレーニング済みのニューラルネットワークモデルに入力しないために用いられる。
【0199】
本出願の実施例では、トレーニング段階のデータ割合をそのまま使用する時、該割合を超過した伝送条件のデータを微調整のためにニューラルネットワークモデルに入力せず、これにより、割合を超過したデータ量によるアンバランスの影響を回避することができる。
【0200】
選択的に、入力ユニット1004は、ネットワーク側機器及び端末のうちの少なくとも1つの各前記伝送条件におけるデータを、各前記伝送条件におけるリアルタイムデータとしてオンラインで収集するために用いられ、
プロセッサ1010はさらに、前記ネットワーク側機器及び端末のうちの少なくとも1つの各前記伝送条件におけるデータに基づき、前記ネットワーク側機器又は前記端末を利用して、前記トレーニング済みのニューラルネットワークモデルをオンラインで調整するために用いられる。
【0201】
選択的に、通信機器がネットワーク側機器である場合、高周波ユニット1001はさらに、Xnインタフェースシグナリング、N1インタフェースシグナリング、N2インタフェースシグナリング、N3インタフェースシグナリング、N4インタフェースシグナリング、N5インタフェースシグナリング、N6インタフェースシグナリング、N7インタフェースシグナリング、N8インタフェースシグナリング、N9インタフェースシグナリング、N10インタフェースシグナリング、N11インタフェースシグナリング、N12インタフェースシグナリング、N13インタフェースシグナリング、N14インタフェースシグナリング、N15インタフェースシグナリング、及びN22インタフェースシグナリングのうちのいずれか1つのネットワーク側インタフェースシグナリングを介して、前記トレーニング段階のネットワーク側機器から各前記伝送条件におけるトレーニングデータの割合を取得するために、又は、PUCCH層1シグナリング、PUSCH、PRACHのMSG1、PRACHのMSG3、及びPRACHのMSG Aのうちのいずれか1つのシグナリングを介して、前記トレーニング段階の端末から各前記伝送条件におけるトレーニングデータの割合を取得するために用いられる。
【0202】
通信機器が端末である場合、高周波ユニット1001はさらに、PC5インタフェースシグナリング又はsidelinkインタフェースシグナリングを介して、前記トレーニング段階の端末から各前記伝送条件におけるトレーニングデータの割合を取得するために、又は、RRC、PDCCH層1シグナリング、PUSCH、MAC CE、及びSIBのうちのいずれか1つのシグナリングを介して、前記トレーニング段階のネットワーク側機器から各前記伝送条件におけるトレーニングデータの割合を取得するために用いられる。
【0203】
本出願の実施例では、実行主体がトレーニング段階でデータ割合情報を取得していない場合、設定タイプのインタフェースシグナリングを介して他の実行主体からデータ割合情報を取得し、これにより、オンライン微調整段階のデータ割合情報の共有を実現し、ニューラルネットワークの汎化能力を保証することができる。
【0204】
具体的には、
図11は本出願の実施例を実現するアクセスネットワーク機器のハードウェア構造模式図である。
図11に示すように、該アクセスネットワーク機器1100はアンテナ1101、高周波装置1102及びベースバンド装置1103を備える。アンテナ1101は高周波装置1102に接続される。アップリンク方向において、高周波装置1102は、アンテナ1101を介して情報を受信して、受信した情報をベースバンド装置1103に送信して処理する。ダウンリンク方向において、ベースバンド装置1103は、送信対象となる情報を処理し、高周波装置1102に送信し、高周波装置1102は、受信した情報を処理してからアンテナ1101を介して送信する。
【0205】
帯域処理装置は、ベースバンド装置1103内に位置してもよい。以上の実施例においてネットワーク機器によって実行される方法はベースバンド装置1103において実現することができ、該ベースバンド装置1103はプロセッサ1104及びメモリ1105を備える。
【0206】
図11に示すように、ベースバンド装置1103は、例えば、少なくとも1つのベースバンドボードを含んでもよく、該ベースバンドボードに複数のチップが設置され、そのうちの1つのチップは、例えば、メモリ1105に接続され、メモリ1105内のプログラムを呼び出して以上の方法実施例に示したネットワーク側機器の動作を実行するプロセッサ1104である。
【0207】
該ベースバンド装置1103は、高周波装置1102と情報を交換するためのネットワークインタフェース1106をさらに含んでもよく、該インタフェースは、例えば、共通公衆無線インタフェース(common public radio interface,CPRIと略称)である。
【0208】
具体的には、本発明の実施例のアクセスネットワーク機器は、メモリ1105に記憶され、プロセッサ1104によって実行可能なコマンドもしくはプログラムをさらに備え、プロセッサ1104は、メモリ1105内のコマンドもしくはプログラムを呼び出して、
図3又は
図8に示す各モジュールによって実行される方法を実行し、同様な技術効果を達成する。重複を避けるために、ここでは詳細な説明を省略する。
【0209】
具体的には、
図12は、本出願の実施例を実現するコアネットワーク機器のハードウェア構造模式図である。
図12に示すように、該コアネットワーク機器1200は、プロセッサ1201、送受信機1202、メモリ1203、ユーザインタフェース1204及びバスインタフェースを含む。
【0210】
ここで、本出願の実施例において、コアネットワーク機器1200は、メモリ1203に記憶され、プロセッサ1201によって実行可能なコンピュータプログラムをさらに備え、コンピュータプログラムがプロセッサ1201によって実行されると、
図3又は
図8に示す各モジュールによって実行されることを実現し、同様な技術効果を達成する。重複を避けるために、ここでは詳細な説明を省略する。
【0211】
図12において、バスアーキテクチャは相互に接続されている任意数のバス及びブリッジを含んでもよく、具体的にはプロセッサ1201を代表とした1つ又は複数のプロセッサ及びメモリ1203を代表としたメモリの様々な回路によって一体に接続する。バスアーキテクチャはさらに、周辺機器、電圧レギュレータ及び電力管理回路等のような様々な他の回路を一体に接続することができ、これらはいずれも本分野に周知のことであるため、本出願の実施例ではさらに説明しない。バスインタフェースはインタフェースを提供する。送受信機1202は、送信機及び受信機を含む複数の部材であってもよく、伝送媒体で様々な他の装置と通信するためのユニットを提供する。ユーザ機器によっては、ユーザインタフェース1204は必要なデバイスを外部接続又は内部接続できるインタフェースであってもよく、接続デバイスは、キーパッド、ディスプレイ、スピーカ、マイクロフォン、操作レバー等を含むが、それらに限定されない。
【0212】
プロセッサ1201は、バスアーキテクチャの管理及び通常の処理を担当し、メモリ1203はプロセッサ1201が操作を実行する時に使用するデータを記憶することができる。
【0213】
本出願の実施例は可読記憶媒体をさらに提供し、前記可読記憶媒体には、プログラムもしくはコマンドが記憶されており、該プログラムもしくはコマンドがプロセッサによって実行されると、上記したトレーニングデータセット取得方法実施例の各プロセスが実現され、又は上記した無線伝送方法実施例の各プロセスが実現され、同様な技術効果を達成することができる。重複を避けるために、ここでは詳細な説明を省略する。
【0214】
ここで、前記プロセッサは上記実施例に記載の端末又はネットワーク側機器内のプロセッサである。前記可読記憶媒体は、コンピュータ読み取り専用メモリ(Read-Only Memory,ROM)、ランダムアクセスメモリ(Random Access Memory,RAM)、磁気ディスク又は光ディスク等のコンピュータ可読記憶媒体を含む。
【0215】
本出願の実施例はチップをさらに提供する。前記チップは、プロセッサ及び通信インタフェースを備え、前記通信インタフェースと前記プロセッサが結合され、前記プロセッサがプログラムもしくはコマンドを実行し、上記したトレーニングデータセット取得方法実施例の各プロセスを実現し、又は上記した無線伝送方法実施例の各プロセスを実現するために用いられ、同様な技術効果を達成することができる。重複を避けるために、ここでは詳細な説明を省略する。
【0216】
本出願の実施例で言及したチップはシステムレベルチップ、システムチップ、チップシステム又はシステムオンチップ等と呼ばれてもよいことを理解すべきである。
【0217】
説明すべきことは、本明細書において、用語「含む」、「からなる」又はその他のあらゆる変形は、非排他的包含を含むように意図され、それにより一連の要素を含むプロセス、方法、物品又は装置は、それらの要素のみならず、明示されていない他の要素、又はこのようなプロセス、方法、物品又は装置に固有の要素をも含む点である。特に断らない限り、語句「1つの……を含む」により限定される要素は、該要素を含むプロセス、方法、物品又は装置に別の同じ要素がさらに存在することを排除するものではない。また、指摘すべきことは、本出願の実施形態における方法及び装置の範囲は、図示又は検討された順序で機能を実行することに限定されず、係る機能に応じて実質的に同時に又は逆の順序で機能を実行することも含み得る点であり、例えば、説明されたものと異なる順番で、説明された方法を実行してもよく、さらに様々なステップを追加、省略、又は組み合わせてもよい。また、何らかの例を参照して説明した特徴は他の例において組み合わせられてもよい。
【0218】
以上の実施形態に対する説明によって、当業者であれば上記実施例の方法がソフトウェアと必要な共通ハードウェアプラットフォームとの組合せという形態で実現できることを明確に理解可能であり、当然ながら、ハードウェアによって実現してもよいが、多くの場合において前者はより好ましい実施形態である。このような見解をもとに、本出願の技術的解決手段は実質的に又は従来技術に寄与する部分はコンピュータソフトウェア製品の形で実施することができ、該コンピュータソフトウェア製品は、記憶媒体(例えば、ROM/RAM、磁気ディスク、光ディスク)に記憶され、端末(携帯電話、コンピュータ、サーバ、又はネットワーク機器等であってもよい)に本出願の各実施例に記載の方法を実行させる複数のコマンドを含む。
【0219】
以上、図面を参照しながら本出願の実施例を説明したが、本出願は上記の具体的な実施形態に限定されず、上記の具体的な実施形態は例示的なものに過ぎず、限定的なものではなく、本出願の示唆をもとに、当業者が本出願の趣旨及び特許請求の保護範囲から逸脱することなくなし得る多くの形態は、いずれも本出願の保護範囲に属するものとする。
【手続補正2】
【補正対象書類名】特許請求の範囲
【補正対象項目名】全文
【補正方法】変更
【補正の内容】
【特許請求の範囲】
【請求項1】
ニューラルネットワークの最適化目標に対する各伝送条件の寄与度に基づき、各前記伝送条件におけるトレーニングデータのデータ量を決定するステップと、
各前記伝送条件におけるトレーニングデータのデータ量に基づき、各前記伝送条件におけるトレーニングデータを取得して、前記ニューラルネットワークをトレーニングするためのトレーニングデータセットを形成するステップと、を含み、
ニューラルネットワークの最適化目標に対する伝送条件の前記寄与度は、前記ニューラルネットワークの最適化目標の値に対する前記伝送条件の影響度を表す、トレーニングデータセット取得方法。
【請求項2】
ニューラルネットワークの最適化目標に対する各伝送条件の寄与度に基づき、各前記伝送条件におけるトレーニングデータのデータ量を決定する前記ステップは、
各前記伝送条件の寄与度をソートするステップと、
等しい割合で混合する上で、前記ソートにおける大きい寄与度に対応する伝送条件におけるトレーニングデータのデータ量を減少させる操作と、前記ソートにおける小さい寄与度に対応する伝送条件におけるトレーニングデータのデータ量を増加させる操作とのうちの少なくとも1つを実行するステップと、を含む、請求項1に記載のトレーニングデータセット取得方法。
【請求項3】
前記伝送条件のタイプは、
信号対雑音比又は信号対干渉雑音比、
基準信号受信電力、
信号強度、
干渉強度、
端末の移動速度、
チャネルパラメータ、
端末の基地局からの距離、
セルサイズ、
キャリア周波数、
変調次数又は変調符号化ポリシー、
セルタイプ、
ステーション間隔、
天気と環境要因、
送信側又は受信側のアンテナ配置情報、
端末の能力又はタイプ、
基地局の能力又はタイプのうちの少なくとも1つを含む、請求項1に記載のトレーニングデータセット取得方法。
【請求項4】
各前記伝送条件におけるトレーニングデータを取得して、前記ニューラルネットワークをトレーニングするためのトレーニングデータセットを形成する前記ステップは、
各前記伝送条件におけるトレーニングデータのデータ量に基づき、各前記伝送条件におけるデータを収集してキャリブレーションし、各前記伝送条件におけるトレーニングデータセットを構成するステップ、
又は、
各前記伝送条件における設定数のデータを収集し、各前記伝送条件におけるトレーニングデータのデータ量に基づき、前記設定数のデータから一部のデータを選択してキャリブレーションするか、又は前記設定数のデータを補完してキャリブレーションし、各前記伝送条件におけるトレーニングデータセットを構成するステップを含む、請求項1に記載のトレーニングデータセット取得方法。
【請求項5】
前記ソートにおける大きい寄与度に対応する伝送条件におけるトレーニングデータのデータ量を減少させる操作と、前記ソートにおける小さい寄与度に対応する伝送条件におけるトレーニングデータのデータ量を増加させる操作とのうちの少なくとも1つを実行する前記ステップは、
前記ソートにおける大きい寄与度に対応する伝送条件におけるトレーニングデータのデータ量を減少させる操作と、前記ソートにおける小さい寄与度に対応する伝送条件におけるトレーニングデータのデータ量を増加させる操作とのうちの少なくとも1つを次のルールに従って実行するステップを含み、前記ルールは、
前記大きい寄与度の値が大きいほど、前記減少の幅が大きくなり、前記小さい寄与度の値が小さいほど、前記増加の幅が大きくなることを含む、請求項2に記載のトレーニングデータセット取得方法。
【請求項6】
前記ソートの結果が小さいものから大きいものへの場合、前記伝送条件におけるトレーニングデータのデータ量は前記ソートの方向に漸減し、前記ソートの結果が大きいものから小さいものへの場合、前記伝送条件におけるトレーニングデータのデータ量は前記ソートの方向に漸増する、請求項5に記載のトレーニングデータセット取得方法。
【請求項7】
前記ソートにおける大きい寄与度に対応する伝送条件におけるトレーニングデータのデータ量を減少させる操作と、前記ソートにおける小さい寄与度に対応する伝送条件におけるトレーニングデータのデータ量を増加させる操作とのうちの少なくとも1つを実行する前記ステップは、
前記ソートに基づいて基準寄与度を決定し、前記伝送条件の寄与度と前記基準寄与度を比較するステップと、
比較の結果に応じて、次の操作のうちの少なくとも1つを実行するステップと、を含み、前記操作は、
前記伝送条件の寄与度が前記基準寄与度よりも大きい場合、前記伝送条件の寄与度を前記大きい寄与度と決定し、前記伝送条件におけるトレーニングデータのデータ量を減少させる操作と、
前記伝送条件の寄与度が前記基準寄与度よりも大きくない場合、前記伝送条件の寄与度を前記小さい寄与度と決定し、前記伝送条件におけるトレーニングデータのデータ量を増加させる操作と、を含む、請求項2に記載のトレーニングデータセット取得方法。
【請求項8】
前記基準寄与度は、前記ソートの中央値、又は前記ソートにおける設定位置の寄与度、又は前記ソートにおける各寄与度の平均値、又は前記ソートにおける前記平均値に最も近い寄与度である、請求項7に記載のトレーニングデータセット取得方法。
【請求項9】
ニューラルネットワークの最適化目標に対する各伝送条件の寄与度に基づき、各前記伝送条件におけるトレーニングデータのデータ量を決定する前記ステップは、
実際の応用における各前記伝送条件の確率密度に基づき、各前記伝送条件に対応する重み付け係数を決定するステップと、
前記最適化目標に対する各前記伝送条件の寄与度を基に、前記重み付け係数と組み合わせて、各前記伝送条件におけるトレーニングデータのデータ量を決定するステップと、を含む、請求項1に記載のトレーニングデータセット取得方法。
【請求項10】
前記重み付け係数と前記確率密度は関数的に漸増する関係にある、請求項9に記載のトレーニングデータセット取得方法。
【請求項11】
前記トレーニングデータセットを目標機器に送信するステップをさらに含み、前記目標機器は、前記トレーニングデータセットに基づいて前記ニューラルネットワークをトレーニングするために用いられる、請求項1に記載のトレーニングデータセット取得方法。
【請求項12】
前記トレーニングデータセットを目標機器に送信する前記ステップは、
前記トレーニングデータセットを前記目標機器に直接送信し、又は前記トレーニングデータセットを設定変換後に前記目標機器に送信するステップを含み、前記設定変換は、特定の量子化、特定の圧縮、及び予め約束又は配置されたニューラルネットワークに従って処理することのうちの少なくとも1つを含む、請求項11に記載のトレーニングデータセット取得方法。
【請求項13】
ニューラルネットワークモデルに基づき、無線伝送演算を行い、前記無線伝送を実現するステップを含み、
前記ニューラルネットワークモデルは、予めトレーニングデータセットを利用してトレーニングされたものであり、前記トレーニングデータセットは、請求項1~12のいずれか1項に記載のトレーニングデータセット取得方法に基づいて取得される、無線伝送方法。
【請求項14】
プロセッサと、メモリと、前記メモリに記憶され、前記プロセッサによって実行可能なプログラムもしくはコマンドとを備え、前記プログラムもしくはコマンドが前記プロセッサによって実行されると、請求項1~12のいずれか1項に記載のトレーニングデータセット取得方法のステップが実現される、通信機器。
【請求項15】
プロセッサと、メモリと、前記メモリに記憶され、前記プロセッサによって実行可能なプログラムもしくはコマンドとを備え、前記プログラムもしくはコマンドが前記プロセッサによって実行されると、請求項13に記載の無線伝送方法のステップが実現される、通信機器。
【国際調査報告】