(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公表特許公報(A)
(11)【公表番号】
(43)【公表日】2025-01-17
(54)【発明の名称】モデルのためのデータ処理方法、及び装置
(51)【国際特許分類】
H04W 28/06 20090101AFI20250109BHJP
G06N 20/00 20190101ALI20250109BHJP
【FI】
H04W28/06 110
G06N20/00
【審査請求】有
【予備審査請求】未請求
(21)【出願番号】P 2024539843
(86)(22)【出願日】2022-12-30
(85)【翻訳文提出日】2024-08-09
(86)【国際出願番号】 CN2022144185
(87)【国際公開番号】W WO2023125985
(87)【国際公開日】2023-07-06
(31)【優先権主張番号】202111658528.4
(32)【優先日】2021-12-31
(33)【優先権主張国・地域又は機関】CN
(81)【指定国・地域】
(71)【出願人】
【識別番号】503433420
【氏名又は名称】華為技術有限公司
【氏名又は名称原語表記】HUAWEI TECHNOLOGIES CO.,LTD.
【住所又は居所原語表記】Huawei Administration Building, Bantian, Longgang District, Shenzhen, Guangdong 518129, P.R. China
(74)【代理人】
【識別番号】110004381
【氏名又は名称】弁理士法人ITOH
(72)【発明者】
【氏名】チャイ,シヤオムオン
(72)【発明者】
【氏名】スゥン,イエン
(72)【発明者】
【氏名】ウー,イーチュイン
【テーマコード(参考)】
5K067
【Fターム(参考)】
5K067HH21
(57)【要約】
モデルのためのデータ処理方法及び装置が提供される。方法は、第1ノードがモデルのためのデータ処理方法を決定することと、第1ノードが、モデルのためのデータ処理方法に従って、次の、モデル訓練の実行、又はモデル推論の実行、のうちの少なくとも1つを実行することとを含む。方法及び装置に基づいて、異なる無線リソース設定のための推論タスクは、モデルの訓練及び保持のためのオーバーヘッドが削減されるように、1つのモデルを使用することによって完了することができる。
【特許請求の範囲】
【請求項1】
モデルのためのデータ処理方法であって、
前記モデルのための前記データ処理方法を決定することと、
前記モデルのための前記データ処理方法に従って、次の、モデル訓練の実行、又はモデル推論の実行、のうちの少なくとも1つを実施することと、を有し、
前記モデルのための前記データ処理方法は、次の、前記モデルのための入力データパディング方法、又は前記モデルのための出力データトランケーション方法、のうちの少なくとも1つを有するか、あるいは、前記モデルのための前記データ処理方法は、次の、前記モデルのための入力データトランケーション方法、又は前記モデルのための出力データパディング方法、のうちの少なくとも1つを有する、
方法。
【請求項2】
前記した、前記モデルのための前記データ処理方法を決定することは、
第1ノードから、前記モデルのための前記データ処理方法を指示する指示情報を受け取ることと、
プロトコルで定義されているように前記モデルのための前記データ処理方法を決定することと、を有する、
請求項1に記載の方法。
【請求項3】
前記入力データパディング方法又は前記出力データパディング方法は、次の、パディングされたデータの長さ、パディングデータタイプ、又はデータパディング規則、のうちの少なくとも1つを有する、
請求項1又は2に記載の方法。
【請求項4】
前記出力データトランケーション方法又は前記入力データトランケーション方法は、次の、トランケーション後のデータの長さ、又はデータトランケーション規則、のうちの少なくとも1つを有する、
請求項1乃至3のうちいずれか一項に記載の方法。
【請求項5】
前記モデルのための前記データ処理方法に従って前記モデル推論を実行することは、
第2入力データを取得するよう、前記入力データパディング方法に従って第1入力データに対してデータパディングを実行することと、
前記第2入力データ及び前記モデルに基づき第1出力データを決定することと、
前記出力データトランケーション方法に従って前記第1出力データに対してデータトランケーションを実行することと、を有する、
請求項1乃至4のうちいずれか一項に記載の方法。
【請求項6】
前記モデルのための前記データ処理方法に従って前記モデル訓練を実行することは、
第2入力訓練データを取得するよう、前記入力データパディング方法に従って第1入力訓練データに対してデータパディングを実行することと、
前記第2入力訓練データ及び前記モデルに基づき第1出力訓練データを決定することと、
第2出力訓練データを取得するよう、前記出力データトランケーション方法に従って前記第1出力訓練データに対してデータトランケーションを実行することと、
前記第2出力訓練データに基づき前記モデルに対してパラメータ調整を実行することと、を有する、
請求項1乃至5のうちいずれか一項に記載の方法。
【請求項7】
前記モデルのための前記データ処理方法に従って前記モデル推論を実行することは、
第2入力データを取得するよう、前記入力データトランケーション方法に従って第1入力データに対してデータトランケーションを実行することと、
前記第2入力データ及び前記モデルに基づき第1出力データを決定することと、
前記出力データパディング方法に従って前記第1出力データに対してデータパディングを実行することと、を有する、
請求項1乃至4のうちいずれか一項に記載の方法。
【請求項8】
前記モデルのための前記データ処理方法に従って前記モデル訓練を実行することは、
第2入力訓練データを取得するよう、前記入力データトランケーション方法に従って第1入力訓練データに対してデータトランケーションを実行することと、
前記第2入力訓練データ及び前記モデルに基づき第1出力訓練データを決定することと、
第2出力訓練データを取得するよう、前記出力データパディング方法に従って前記第1出力訓練データに対してデータパディングを実行することと、
前記第2出力訓練データに基づき前記モデルに対してパラメータ調整を実行することと、を有する、
請求項1乃至4又は請求項7のいずれか一項に記載の方法。
【請求項9】
前記モデルは第1サブモデルを有し、前記モデルのための前記データ処理方法に従って前記モデル推論を実行することは、
前記第1サブモデルの第1出力データを決定することと、
前記出力データトランケーション方法に従って前記第1出力データに対してデータトランケーションを実行することと、を有する、
請求項1乃至4のうちいずれか一項に記載の方法。
【請求項10】
前記モデルは第2サブモデルを有し、前記モデルのための前記データ処理方法に従って前記モデル推論を実行することは、
第2入力データを取得するよう、前記入力データパディング方法に従って第1入力データに対してデータパディングを実行することと、
前記第2入力データ及び前記第2サブモデルに基づき第1出力データを決定することと、を有する、
請求項1乃至4又は請求項9のうちいずれか一項に記載の方法。
【請求項11】
前記モデルは第1サブモデル及び第2サブモデルを有し、前記モデルのための前記データ処理方法に従って前記モデル訓練を実行することは、
前記第1サブモデルの入力訓練データ及び前記第1サブモデルに基づき前記第1サブモデルの第1出力訓練データを決定することと、
前記第2サブモデルの第1入力訓練データを取得するよう、前記出力データトランケーション方法に従って前記第1出力訓練データに対してデータトランケーションを実行することと、
第2入力訓練データを取得するよう、前記入力データパディング方法に従って前記第2サブモデルの前記第1入力訓練データに対してデータパディングを実行することと、
前記第2入力訓練データ及び前記第2サブモデルに基づき前記第2サブモデルの出力訓練データを決定することと、
前記第1サブモデルの前記入力訓練データ及び前記第2サブモデルの前記出力訓練データに基づき、次の、前記第1サブモデルのモデルパラメータ、又は前記第2サブモデルのモデルパラメータ、のうちの少なくとも1つを調整することと、を有する、
請求項1乃至4、請求項9、又は請求項10のうちいずれか一項に記載の方法。
【請求項12】
モデルのためのデータ処理方法であって、
前記モデルのための前記データ処理方法を指示する指示情報を第2ノードへ送ることを有し、
前記モデルのための前記データ処理方法は、次の、前記モデルのための入力データパディング方法、又は前記モデルのための出力データトランケーション方法、のうちの少なくとも1つを有するか、あるいは、前記モデルのための前記データ処理方法は、次の、前記モデルのための入力データトランケーション方法、又は前記モデルのための出力データパディング方法、のうちの少なくとも1つを有する、
方法。
【請求項13】
前記入力データパディング方法又は前記出力データパディング方法は、次の、パディングされたデータの長さ、パディングデータタイプ、又はデータパディング規則、のうちの少なくとも1つを有する、
請求項12に記載の方法。
【請求項14】
前記出力データトランケーション方法又は前記入力データトランケーション方法は、次の、トランケーション後のデータの長さ、又はデータトランケーション規則、のうちの少なくとも1つを有する、
請求項12又は13に記載の方法。
【請求項15】
請求項1乃至11のうちいずれか一項に記載の方法を実施するよう構成されたユニットを有する通信装置。
【請求項16】
プロセッサ及びメモリを有し、
前記プロセッサは、前記メモリへ結合され、
前記プロセッサは、請求項1乃至11のうちいずれか一項に記載の方法を実施するよう構成される、
通信装置。
【請求項17】
請求項12乃至14のうちいずれか一項に記載の方法を実施するよう構成されたユニットを有する通信装置。
【請求項18】
プロセッサ及びメモリを有し、
前記プロセッサは、前記メモリへ結合され、
前記プロセッサは、請求項12乃至14のうちいずれか一項に記載の方法を実施するよう構成される、
通信装置。
【請求項19】
請求項15又は16に記載の通信装置と、
請求項17又は18に記載の通信装置と
を有する通信システム。
【請求項20】
命令を記憶するコンピュータ可読記憶媒体であって、
前記命令がコンピュータで実行されると、前記コンピュータは、請求項1乃至11のうちいずれか一項に記載の方法、又は請求項12乃至14のうちいずれか一項に記載の方法を実行することができる、
コンピュータ可読記憶媒体。
【請求項21】
命令を有し、
前記命令がコンピュータで実行されると、前記コンピュータは、請求項1乃至11のうちいずれか一項に記載の方法、又は請求項12乃至14のうちいずれか一項に記載の方法を実行することができる、
コンピュータプログラム製品。
【発明の詳細な説明】
【技術分野】
【0001】
本願は、通信技術の分野に、特に、モデルのためのデータ処理方法及び装置に関係がある。
【背景技術】
【0002】
無線通信ネットワークでは、例えば、移動体通信網では、ネットワークによってサポートされるサービスがますます多様化しているので、満足される必要がある要求もますます多様化している。例えば、ネットワークは、超高速、超低遅延、及び/又は超大規模接続をサポートする能力を有する必要がある。この特徴は、ネットワーク計画、ネットワーク構成、及び/又はリソーススケジューリングをますます複雑にしている。その上、ネットワーク機能は、例えば、ますます高いスペクトルをサポートすること、並びに高次の多入力多出力(multiple-input multiple-output,MIMO)技術、ビームフォーミング、及び/又はビーム管理などの新しい技術をサポートすることは、ますます強力になっているので、ネットワークエネルギの節約は注目の研究テーマになっている。これらの新しい要求、新しいシナリオ、及び新しい特徴は、ネットワークの計画、運用、及び保守、並びに効率的な運用に前例のない課題をもたらす。この課題を満足するために、人工知能技術が、ネットワークインテリジェンスを実装するように、無線通信ネットワークに導入されることがある。これに基づき、ネットワークにおいて人工知能をいかに有効に実装するかは、研究する価値のある問題である。
【発明の概要】
【0003】
本願は、1つのモデルを使用することによって異なる無線リソース設定のための推論タスクを完了し、それによってモデルの訓練及び保持のためのオーバーヘッドを減らすように、モデルのためのデータ処理方法及び装置を提供する。
【0004】
第1の態様に従って、モデルのためのデータ処理方法が提供される。方法は第1ノードによって実行され、第1ノードはモデル訓練ノード、モデル推論ノード、などである。代替的に、方法は、第1ノードにおいて構成されているコンポーネント(プロセッサ、チップ、又は他のコンポーネント)によって実行されてもよく、あるいは、ソフトウェアモジュールなどによって実行されてもよい。方法は、モデルのためのデータ処理方法を決定することと、モデルのためのデータ処理方法に従って、次の、モデル訓練の実行、又はモデル推論の実行、のうちの少なくとも1つを実施することと、を含む。
【0005】
任意に、モデルのためのデータ処理方法は、次の、モデルのための入力データパディング方法、又はモデルのための出力データトランケーション方法、のうちの少なくとも1つを含むか、あるいは、モデルのためのデータ処理方法は、次の、モデルのための入力データトランケーション方法、又はモデルのための出力データパディング方法、のうちの少なくとも1つを含む。
【0006】
上記の方法に従って、第1ノードがモデル推論ノードであるとき、モデル推論ノードは、データ処理方法に従って、同じモデルを使用することによって異なる無線リソース設定のための推論タスクを完了し得る。対応するモデルが無線リソース設定ごとに別々に設定される方法と比較して、この方法は、モデルの訓練及びモデルの保持のためのオーバーヘッドを減らすことができる。
【0007】
設計において、モデルのためのデータ処理方法を決定することは、第2ノードから、モデルのためのデータ処理方法を指示する指示情報を受け取ることを含む。第1ノードは第2ノードとは異なる。例えば、第1ノードはモデル推論ノード又はモデル訓練ノードであり、他のノード(例えば、第2ノード)から、モデルのためのデータ処理方法を指示する指示情報を受け取り得る。例えば、第2ノードはOAMである。代替的に、第1ノードがモデル推論ノードであるとき、第2ノードはモデル訓練ノードであってよい。この場合に、モデル推論ノードは、モデル訓練ノードから指示情報などを受け取り得る。代替的に、モデルのためのデータ処理方法は、プロトコルで定義されるように決定される。
【0008】
上記の方法に従って、モデル訓練ノード又はモデル推論ノードは、プロトコルで定義されるようにモデルのためのデータ処理方法を取得し得る。代替的に、モデル訓練ノード又はモデル推論ノードは、他のノードから指示を受け取り、他のノードからの指示に基づきモデルのためのデータ処理方法などを決定する。モデル訓練ノード又はモデル推論ノードは、モデルのためのデータ処理方法を柔軟に決定し得る。
【0009】
設計において、入力データパディング方法又は出力データパディング方法は、次の、パディングされたデータの長さ、パディングデータタイプ、又はデータパディング規則、のうちの少なくとも1つを含む。
【0010】
設計において、出力データトランケーション方法又は入力データトランケーション方法は、次の、トランケーション後のデータの長さ、又はデータトランケーション規則、のうちの少なくとも1つを含む。
【0011】
設計において、モデルのためのデータ処理方法に従ってモデル推論を実行することは、第2入力データを取得するよう、入力データパディング方法に従って第1入力データに対してデータパディングを実行することと、第2入力データ及びモデルに基づき第1出力データを決定することと、出力データトランケーション方法に従って第1出力データに対してデータトランケーションを実行することと、を含む。
【0012】
モデル推論ノードが入力データにパディングし、出力データをトランケーションする上記の方法に従って、異なる無線リソース設定のための推論タスクは、モデルの訓練及び保持のためのオーバーヘッドが減るように、1つのモデルを使用することによって完了することができる。任意に、この設計では、モデルの入力長さは、全ての潜在的な無線リソース設定の中で最大の入力データ長さを持った入力データの長さよりも長いか又はそれに等しく、モデルの出力長さは、全ての潜在的な無線リソース設定の中で最大出力データ長さを持った出力データの長さよりも長いか又はそれに等しい。
【0013】
設計において、モデルのためのデータ処理方法に従ってモデル訓練を実行することは、第2入力訓練データを取得するよう、入力データパディング方法に従って第1入力訓練データに対してデータパディングを実行することと、第2入力訓練データ及びモデルに基づき第1出力訓練データを決定することと、第2出力訓練データを取得するよう、出力データトランケーション方法に従って第1出力訓練データに対してデータトランケーションを実行することと、第2出力訓練データに基づきモデルに対してパラメータ調整を実行することと、を含む。
【0014】
上記の方法に従って、モデル訓練プロセスでは、複数の無線リソース設定での訓練データが可能な限り収集され、各無線リソース設定での訓練データは、データ処理方法を使用することによって別々に処理され、AIモデルは、AIモデルが条件を満足するまで、処理された訓練データに基づき訓練され、この場合に、モデル訓練は終了する。モデル訓練プロセスにおける学習方法は限定されない。例えば、学習方法は、教師あり学習(ラベル学習)法、教師なし学習(非ラベル学習)法、又は強化学習法である。この方法を使用することによって訓練されたモデルは、様々な無線リソース設定での推論タスクを満足することができ、それによって、モデル訓練のためのオーバーヘッドを低減させる。
【0015】
設計において、モデルのためのデータ処理方法に従ってモデル推論を実行することは、第2入力データを取得するよう、入力データトランケーション方法に従って第1入力データに対してデータトランケーションを実行することと、第2入力データ及びモデルに基づき第1出力データを決定することと、出力データパディング方法に従って第1出力データに対してデータパディングを実行することと、を含む。
【0016】
モデル推論ノードが入力データをトランケーションし、出力データにパディングする上記の方法に従って、異なる無線リソース設定のための推論タスクは、モデルの訓練及び保持のためのオーバーヘッドが減るように、1つのモデルを使用することによって完了することができる。
【0017】
設計において、モデルのためのデータ処理方法に従ってモデル訓練を実行することは、第2入力訓練データを取得するよう、入力データトランケーション方法に従って第1入力訓練データに対してデータトランケーションを実行することと、第2入力訓練データ及びモデルに基づき第1出力訓練データを決定することと、第2出力訓練データを取得するよう、出力データパディング方法に従って第1出力訓練データに対してデータパディングを実行することと、第2出力訓練データに基づきモデルに対してパラメータ調整を実行することと、を含む。
【0018】
上記の設計に従って、モデル訓練プロセスでモデルパラメータを調整することは、ニューラルネットワーク要素の出力と理想的な目標値との間の差が可能な限り小さくなるように、次の、ニューラルネットワークのレイヤの数、ニューラルネットワークの幅、レイヤ間の接続関係、ニューロンの重み値、ニューロンの活性化関数、又は活性化関数内のオフセット、のうちの少なくとも1つを調整することを含む。
【0019】
設計において、モデルは第1サブモデルを含む。モデルのためのデータ処理方法に従ってモデル推論を実行することは、第1サブモデルの第1出力データを決定することと、出力データトランケーション方法に従って第1出力データに対してデータトランケーションを実行することと、を含む。
【0020】
設計において、モデルは第2サブモデルを含む。モデルのためのデータ処理方法に従ってモデル推論を実行することは、第2入力データを取得するよう、入力データパディング方法に従って第1入力データに対してデータパディングを実行することと、第2入力データ及び第2サブモデルに基づき第1出力データを決定することと、を含む。
【0021】
上記の方法に従って、ペアで使用される複数のタイプのサブモデルが同時に訓練され得る。例えば、第1サブモデルは端末側に配備されてよく、第2サブモデルは基地局側に配備されてよい。その上、第1サブモデルの出力データは、インターフェースオーバーヘッドが低減され得るように、トランケーションされる。
【0022】
設計において、モデルは第1サブモデル及び第2サブモデルを含む。モデルのためのデータ処理方法に従ってモデル訓練を実行することは、第1サブモデルの入力訓練データ及び第1サブモデルに基づき第1サブモデルの第1出力訓練データを決定することと、第2サブモデルの第1入力訓練データを取得するよう、出力データトランケーション方法に従って第1出力訓練データに対してデータトランケーションを実行することと、第2入力訓練データを取得するよう、入力データパディング方法に従って第2サブモデルの第1入力訓練データに対してデータパディングを実行することと、第2入力訓練データ及び第2サブモデルに基づき第2サブモデルの出力訓練データを決定することと、第1サブモデルの入力訓練データ及び第2サブモデルの出力訓練データに基づき、次の、第1サブモデルのモデルパラメータ、又は第2サブモデルのモデルパラメータ、のうちの少なくとも1つを調整することと、を含む。
【0023】
第2の態様に従って、モデルのためのデータ処理方法が提供される。方法は第1ノードによって実行され、第1ノードはモデル訓練ノード、モデル推論ノード、などである。代替的に、方法は、第1ノードにおいて構成されているコンポーネント(プロセッサ、チップ、又は他のコンポーネント)によって実行されてもよく、あるいは、ソフトウェアモジュールなどによって実行されてもよい。方法は、モデルのためのデータ処理方法を指示する指示情報を第2ノードへ送ることを含む。
【0024】
モデルのためのデータ処理方法は、次の、モデルのための入力データパディング方法、又はモデルのための出力データトランケーション方法、のうちの少なくとも1つを含むか、あるいは、モデルのためのデータ処理方法は、次の、モデルのための入力データトランケーション方法、又はモデルのための出力データパディング方法、のうちの少なくとも1つを含む。
【0025】
上記の方法に従って、例において、第1ノードはモデル訓練ノードである。モデル訓練ノードは、モデル訓練の間に使用されるデータ処理方式に基づきデータ処理方法を決定し、データ処理方法をモデル推論ノードに指示し得る。モデル推論を実行するとき、モデル推論ノードは、訓練中に使用されたのと同じようにデータを処理するので、モデル推論ノードは、モデルを正確に使用してモデル推論を実行することができ、それによって、モデル推論の出力結果の正確さ及び推論の速度を向上させる。
【0026】
設計において、入力データパディング方法又は出力データパディング方法は、次の、パディングされたデータの長さ、パディングデータタイプ、又はデータパディング規則、のうちの少なくとも1つを含む。
【0027】
設計において、出力データトランケーション方法又は入力データトランケーション方法は、次の、トランケーション後のデータの長さ、又はデータトランケーション規則、のうちの少なくとも1つを含む。
【0028】
第3の態様に従って、装置が提供される。有利な効果については、第1の態様の記載を参照されたい。装置は第1ノードであってよく、第1ノードはモデル訓練ノード又はモデル推論ノードであってよい。代替的に、装置は、第1ノードにおいて構成されている装置であるか、あるいは、第1ノードと一致して使用できる装置である。設計において、装置は、第1の態様で記載されている方法/操作/ステップ/動作と一対一の対応にあるユニットを含み得る。ユニットは、ハードウェア回路、ソフトウェア、又はハードウェア回路とソフトウェアとの組み合わせを使用することによって実施されてよい。
【0029】
例えば、装置は処理ユニットを含んでもよく、処理ユニットは、第1の態様の任意の設計例における対応する機能を実行し得る。具体的に、それは次の通りである。
【0030】
処理ユニットは、モデルのためのデータ処理方法を決定し、モデルのためのデータ処理方法に従って、次の、モデル訓練の実行、又はモデル推論の実行、のうちの少なくとも1つを実施するよう構成され、
モデルのためのデータ処理方法は、次の、モデルのための入力データパディング方法、又はモデルのための出力データトランケーション方法、のうちの少なくとも1つを含むか、あるいは、モデルのためのデータ処理方法は、次の、モデルのための入力データトランケーション方法、又はモデルのための出力データパディング方法、のうちの少なくとも1つを含む。
【0031】
処理ユニットの具体的な実行プロセスについては、第1の態様を参照されたい。詳細はここで再び記載されない。
【0032】
例えば、装置は、第1の態様で記載されている方法を実施するよう構成されたプロセッサを含む。装置は、命令及び/又はデータを記憶するよう構成されたメモリを更に含んでもよい。メモリはプロセッサへ結合される。プロセッサがメモリに記憶されているプログラム命令を実行すると、第1の態様で記載されている方法が実施され得る。可能な設計において、装置は、
プログラム命令を記憶するよう構成されたメモリと、
モデルのためのデータ処理方法を決定し、モデルのためのデータ処理方法に従って、次の、モデル訓練の実行、又はモデル推論の実行、のうちの少なくとも1つを実施するよう構成されたプロセッサと、を含み、
モデルのためのデータ処理方法は、次の、モデルのための入力データパディング方法、又はモデルのための出力データトランケーション方法、のうちの少なくとも1つを含むか、あるいは、モデルのためのデータ処理方法は、次の、モデルのための入力データトランケーション方法、又はモデルのための出力データパディング方法、のうちの少なくとも1つを含む。
【0033】
プロセッサの具体的な実行プロセスについては、第1の態様の記載を参照されたい。詳細は再び記載されない。
【0034】
第4の態様に従って、装置が提供される。有利な効果については、第2の態様の記載を参照されたい。装置は第1ノードであってよく、第1ノードはモデル訓練ノードであってよい。代替的に、装置は、第1ノードにおいて構成されている装置であるか、あるいは、第1ノードと一致して使用できる装置などである。設計において、装置は、第2の態様で記載されている方法/操作/ステップ/動作と一対一の対応にあるユニットを含み得る。ユニットは、ハードウェア回路、ソフトウェア、又はハードウェア回路とソフトウェアとの組み合わせを使用することによって実施されてよい。
【0035】
例えば、装置は通信ユニットを含んでもよく、通信ユニットは、第2の態様の任意の設計例における対応する機能を実行し得る。具体的に、それは次の通りである。
【0036】
通信ユニットは、モデルのためのデータ処理方法を指示する指示情報を第2ノードへ送るよう構成され、
モデルのためのデータ処理方法は、次の、モデルのための入力データパディング方法、又はモデルのための出力データトランケーション方法、のうちの少なくとも1つを含むか、あるいは、モデルのためのデータ処理方法は、次の、モデルのための入力データトランケーション方法、又はモデルのための出力データパディング方法、のうちの少なくとも1つを含む。
【0037】
通信ユニットの具体的な実行プロセスについては、第2の態様を参照されたい。詳細はここで再び記載されない。
【0038】
例えば、装置は、第1の態様で記載されている方法を実施するように通信インターフェースを制御するよう構成されたプロセッサを含む。装置は、命令及び/又はデータを記憶するよう構成されたメモリを更に含んでもよい。メモリはプロセッサへ結合される。プロセッサがメモリに記憶されているプログラム命令を実行すると、第2の態様で記載されている方法が実施され得る。可能な設計において、装置は、通信インターフェースを更に含んでもよく、通信インターフェースは、装置によって、他のデバイスと通信するために使用される。例えば、通信インターフェースは、トランシーバ、回路、バス、モジュール、ピン、又は他のタイプの通信インターフェースであってよく、他のデバイスはモデル推論ノードなどであってよい。可能な設計において、装置は、
プログラム命令を記憶するよう構成されたメモリと、
モデルのためのデータ処理方法を指示する指示情報を第2ノードへ送るように通信インターフェースを制御するよう構成されたプロセッサと、を含み、
モデルのためのデータ処理方法は、次の、モデルのための入力データパディング方法、又はモデルのための出力データトランケーション方法、のうちの少なくとも1つを含むか、あるいは、モデルのためのデータ処理方法は、次の、モデルのための入力データトランケーション方法、又はモデルのための出力データパディング方法、のうちの少なくとも1つを含む。
【0039】
通信インターフェース及びプロセッサの具体的な実行プロセスについては、第2の態様の記載を参照されたい。詳細は再び記載されない。
【0040】
第5の態様に従って、本願は、命令を含むコンピュータ可読記憶媒体を更に提供する。命令がコンピュータで実行されると、コンピュータは、第1の態様又は第2の態様における方法を実行することができる。
【0041】
第6の態様に従って、本願はチップシステムを更に提供する。チップシステムはプロセッサを含み、メモリを更に含んでもよく、第1の態様又は第2の態様における方法を実施するよう構成される。チップシステムはチップを含んでよく、あるいは、チップ及び他のディスクリート部品を含んでもよい。
【0042】
第7の態様に従って、本願は、命令を含むコンピュータプログラム製品を更に提供する。命令がコンピュータで実行されると、コンピュータは、第1の態様又は第2の態様における方法を実行することができる。
【0043】
第8の態様に従って、本願はシステムを更に提供する。システムは、第3の態様における装置と、第4の態様における装置とを含む。
【図面の簡単な説明】
【0044】
【
図2】本願に係るAIモデルのデプロイの図である。
【
図3】本願に係るAIモデルのデプロイの図である。
【
図4a】本願に係る通信システムのアーキテクチャの図である。
【
図4b】本願に係る通信システムのアーキテクチャの図である。
【
図4c】本願に係る帯域幅ごとのAIモデルの訓練の図である。
【
図5】本願に係るAIモデルの適用アーキテクチャの図である。
【
図7】本願に係るニューロンネットワークの図である。
【
図8】本願に係るモデルのためのデータ処理方法のフローチャートである。
【
図9A】本願に係るモデルのためのデータ処理方法のフローチャートである。
【
図9B】モデル訓練フェーズにおけるデータ処理プロセスを示す。
【
図9C】モデル推論フェーズにおけるデータ処理プロセスを示す。
【
図12】本願に係るCSIフィードバックプロシージャの図である。
【
図13】本願に係るCSIフィードバックプロシージャにおけるデータ処理の図である。
【
図14】本願に係るTransformerモデルの図である。
【
図15】本願に係る、原データをベクトルに分割する図である。
【
図16】本願に係る、原データをベクトルに分割する図である。
【発明を実施するための形態】
【0045】
図1は、本願が適用される通信システム1000のアーキテクチャの図である。
図1に示されるように、通信システムは無線アクセスネットワーク100及びコアネットワーク200を含む。任意に、通信システム1000はインターネット300を更に含んでもよい。無線アクセスネットワーク100は少なくとも1つのアクセスネットワークデバイス(例えば、
図1の110a及び110b)を含んでよく、更には少なくとも1つの端末(例えば、
図1の120a~120j)を含んでもよい。端末は無線方式でアクセスネットワークデバイスに接続され、アクセスネットワークデバイスは無線又は有線方式でコアネットワークに接続される。コアネットワークデバイス及びアクセスネットワークデバイスは、互いに独立している異なる物理デバイスであってよく、あるいは、コアネットワークデバイスの機能及びアクセスネットワークデバイスの論理機能は同じ物理デバイスに組み込まれてもよく、あるいは、コアネットワークデバイスの機能の一部及びアクセスネットワークデバイスの機能の一部は1つの物理デバイスに組み込まれてもよい。端末デバイスは有線又は無線方式で互いに接続されてよく、アクセスネットワークデバイスは有線又は無線方式で互いに接続されてよい。
図1は単なる線図である。通信システムは他のネットワークデバイスを更に含んでもよく、例えば、無線リレーデバイス、無線バックホールデバイス、などを更に含んでもよいが、これらは
図1に示されていない。
【0046】
アクセスネットワークデバイスは基地局(base station)、エボルブド・ノードB(evolved NodeB,eNodeB)、送受信ポイント(transmission reception point,TRP)、第5世代(5th generation,5G)移動体通信システムにおける次世代ノードB(next generation NodeB,gNB)、オープン無線アクセスネットワーク(open radio access network,O-RAN)におけるアクセスネットワークデバイス、第6世代(6th generation,6G)移動体通信システムにおける次世代基地局、将来の移動体通信システムにおける基地局、ワイヤレス・フィデリティ(wireless fidelity,Wi-Fi)システムにおけるアクセスノード、などであってよく、あるいは、モジュール又はユニットであってよく、例えば、基地局の機能の一部を実現する中央ユニット(central unit,CU)、分散ユニット(distributed unit,DU)、中央ユニット制御プレーン(CU control plane,CU-CP)モジュール、又は中央ユニットユーザプレーン(CU user plane,CU-UP)モジュールであってもよい。アクセスネットワークデバイスはマクロ基地局(例えば、
図1の110a)であってよく、あるいは、ミクロ基地局又は屋内基地局(例えば、
図1の110b)であってよく、あるいは、リレーノード、ドナーノード、などであってもよい。アクセスネットワークデバイスによって使用される具体的な技術及び具体的なデバイス形態は、本願で限定されない。
【0047】
本願において、アクセスネットワークデバイスの機能を実装するよう構成される装置は、アクセスネットワークデバイスであってよく、あるいは、例えば、アクセスネットワークデバイスが機能を実装するのをサポートすることができる装置、例えば、チップシステム、ハードウェア回路、ソフトウェアモジュール、又はハードウェア回路とソフトウェアモジュールとの組み合わせであってよく、ここで、装置は、アクセスネットワークデバイスにインストールされてよく、あるいは、使用のためにアクセスネットワークデバイスと適合されてもよい。本願では、チップシステムはチップを含んでもよく、あるいは、チップ及び他のディスクリート部品を含んでもよい。記載を容易にするために、以下は、アクセスネットワークデバイスの機能を実装するよう構成される装置がアクセスネットワークデバイスであり、アクセスネットワークデバイスが基地局である例を使用することによって、本願で提供される技術的解決法を記載する。
【0048】
(1)プロトコルレイヤ構造
【0049】
アクセスネットワークデバイスと端末デバイスとの間の通信は、特定のプロトコルレイヤ構造に従う。プロトコルレイヤ構造は、制御プレーンプロトコルレイヤ構造及びユーザプレーンプロトコルレイヤ構造を含み得る。例えば、制御プレーンプロトコルレイヤ構造は、無線リソース制御(radio resource control,RRC)レイヤ、パケットデータコンバージェンスプロトコル(packet data convergence protocol,PDCP)レイヤ、無線リンク制御(radio link control,RLC)レイヤ、媒体アクセス制御(media access control,MAC)レイヤ、及び物理レイヤなどのプロトコルレイヤの機能を含み得る。例えば、ユーザプレーンプロトコルレイヤ構造は、PDCPレイヤ、RLCレイヤ、MACレイヤ、及び物理レイヤなどのプロトコルレイヤの機能を含み得る。可能な実施において、サービスデータ適応プロトコル(service layer adaptation protocol,SDAP)レイヤがPDCPレイヤの上に更に含まれてもよい。
【0050】
任意に、アクセスネットワークデバイスと端末デバイスとの間のプロトコルレイヤ構造は、AI機能に関連したデータを伝送するよう構成される人工知能(artificial intelligence,AI)レイヤを更に含んでもよい。
【0051】
(2)中央ユニット(central unit,CU)及び分散ユニット(distributed unit,DU)
【0052】
アクセスデバイスはCU及びDUを含み得る。複数のDUが中央集権方式で1つのCUによって制御され得る。例えば、CUとDUとの間のインターフェースはF1インターフェースと呼ばれることがある。制御プレーン(control plane,CP)インターフェースはF1-Cであってよく、ユーザプレーン(user plane,UP)インターフェースはF1-Uであってよい。各インターフェースの具体的な名称は本願で限定されない。CU及びDUは、無線ネットワークのプロトコルレイヤに基づいた分割により取得され得る。例えば、PDCPレイヤ及びPDCPレイヤの上のプロトコルレイヤの機能はCUでセットされ、PDCPレイヤの下のプロトコルレイヤ(例えば、RLCレイヤ及びMACレイヤ)の機能はDUでセットされる。他の例として、PDCPレイヤの上のプロトコルレイヤの機能はCUでセットされ、PDCPレイヤ及びPDCPレイヤの下のプロトコルレイヤの機能はDUでセットされる。これは限定されない。
【0053】
プロトコルレイヤに基づいたCU及びDUの処理機能の上記の分割は、一例にすぎず、CU及びDUの処理機能は、代替的に、他の様態で分割されてもよい。例えば、CU又はDUは、分割により、より多くのプロトコルレイヤの機能を備えてもよく、他の例として、CU又はDUは、代替的に、分割により、プロトコルレイヤの処理機能の一部を備えてもよい。設計において、RLCレイヤの機能の一部及びRLCレイヤの上のプロトコルレイヤの機能はCUでセットされ、RLCレイヤの残りの機能及びRLCレイヤの下のプロトコルレイヤの機能はDUでセットされる。他の設計では、CU又はDUの機能の分割は、代替的に、サービスタイプ又は他のシステム要件に基づき実行されてもよい。例えば、分割は遅延に基づき実行されてもよい。処理時間が遅延要件を満足する必要がある機能はDUでセットされ、処理時間が遅延要件を満足する必要がない機能はCUでセットされる。他の設計では、CUは、代替的に、コアネットワークの1つ以上の機能を有してもよい。例えば、CUは、中央集権的な管理を促すようネットワーク側で展開され得る。他の設計では、DUの無線ユニット(radio unit,RU)は遠隔で展開される。任意に、RUは無線周波数機能を有してもよい。
【0054】
任意に、DU及びRUは物理レイヤ(physical layer,PHY)で分割されてもよい。例えば、DUはPHYレイヤの上位レイヤ機能を実装してよく、RUはPHYレイヤの下位レイヤ機能を実装してよい。PHYレイヤが送信のために使用されるとき、PHYレイヤの機能は次の機能:巡回冗長検査(cyclic redundancy check,CRC)コードの追加、チャネル符号化、レートマッチング、スクランブリング、変調、レイヤマッピング、プレコーディング、リソースマッピング、物理アンテナマッピング、又は無線周波数送信、のうちの少なくとも1つを含み得る。PHYレイヤが受信のために使用されるとき、PHYレイヤの機能は、次の機能:CRC、チャネル復号化、デレートマッチング、デスクランブリング、復調、レイヤデマッピング、チャネル検出、リソースデマッピング、物理アンテナデマッピング、又は無線周波数受信、のうちの少なくとも1つを含み得る。PHYレイヤの上位レイヤ機能はPHYレイヤの機能の一部を含み得る。例えば、機能の一部はMACレイヤにより近い。PHYレイヤの下位レイヤ機能はPHYレイヤの機能の他の部分を含み得る。例えば、機能の当該部分は無線周波数機能により近い。例えば、PHYレイヤの上位レイヤ機能は、CRCコードの追加、チャネル符号化、レートマッチング、スクランブリング、変調、及びレイヤマッピングを含んでよく、PHYレイヤの下位レイヤ機能は、プレコーディング、リソースマッピング、物理アンテナマッピング、及び無線周波数送信の機能を含んでよい。代替的に、PHYレイヤの上位レイヤ機能は、CRCコードの追加、チャネル符号化、レートマッチング、スクランブリング、変調、レイヤマッピング、及びプレコーディングを含んでよく、PHYレイヤの下位レイヤ機能は、リソースマッピング、物理アンテナマッピング、及び無線周波数送信の機能を含んでよい。例えば、PHYレイヤの上位レイヤ機能は、CRC、チャネル復号化、デレートマッチング、復号化、復調、及びレイヤデマッピングを含んでよく、PHYレイヤの下位レイヤ機能は、チャネル検出、リソースデマッピング、物理アンテナデマッピング、及び無線周波数受信の機能を含んでよい。代替的に、PHYレイヤの上位レイヤ機能は、CRC、チャネル復号化、デレートマッチング、復号化、復調、レイヤデマッピング、及びチャネル検出を含んでよく、PHYレイヤの下位レイヤ機能は、リソースデマッピング、物理アンテナデマッピング、及び無線周波数受信の機能を含んでよい。
【0055】
例えば、CUの機能は1つのエンティティによって実施されてよく、あるいは、異なるエンティティによって実施されてもよい。例えば、CUの機能は更に分割されてもよく、すなわち、制御プレーン及びユーザプレーンは分離され、制御プレーンCUエンティティ(つまり、CU-CPエンティティ)及びユーザプレーンCUエンティティ(つまり、CU-UPエンティティ)である異なるエンティティによって実施される。CU-CPエンティティ及びCU-UPエンティティは、アクセスネットワークデバイスの機能を一緒に実現するよう、DUへ結合され得る。
【0056】
任意に、DU、CU、CU-CP、CU-UP、及びRUのうちのいずれか1つはソフトウェアモジュール、ハードウェア構造、又はソフトウェアモジュールとハードウェア構造との組み合わせであってよい。これは限定されない。異なるエンティティは異なる形態で存在してもよい。これは限定されない。例えば、DU、CU、CU-CP、及びCU-UPはソフトウェアモジュールであり、RUはハードウェア構造である。これらのモジュール及びこれらのモジュールによって実行される方法も本開示の保護の範囲内に入る。
【0057】
可能な実施において、アクセスネットワークデバイスはCU-CP、CU-UP、DU、及びRUを含む。例えば、本願はDU、又はDUとRU、又はCU-CPとDUとRU、又はCU-UPとDUとRUによって実行される。これは限定されない。モジュールによって実行される方法も本願の保護の範囲に入る。
【0058】
端末デバイスは、代替的に、端末、ユーザ装置(user equipment,UE)、移動局、移動端末デバイス、などとも呼ばれ得る。端末デバイスは、例えば、次のシナリオ:デバイス・ツー・デバイス(device-to-device,D2D)、ビークル・ツー・エブリシング(vehicle-to-everything,V2X)、マシンタイプ通信(machine-type communication,MTC)、インターネット・オブ・シングス(internet of things,IOT)、仮想現実、拡張現実、産業制御、自動運転、遠隔医療、スマートグリッド、スマートファニチャ、スマートオフィス、スマートウェアラブル、スマート輸送、スマートシティ、など、のうちの少なくとも1つを含むがこれらに限定されない様々なシナリオにおける通信に広く使用され得る。端末デバイスは携帯電話、タブレットコンピュータ、無線トランシーバ機能を備えたコンピュータ、ウェアラブルデバイス、車両、無人航空機、ヘリコプター、飛行機、船舶、ロボット、ロボットアーム、スマートホームデバイス、などであってよい。端末デバイスによって使用される具体的な技術及び具体的なデバイス形態は本願で限定されない。
【0059】
本願で、端末デバイスの機能を実装するよう構成される装置は、端末デバイスであってよく、あるいは、端末デバイスが機能を実装するのをサポートすることができる装置、例えば、チップシステム、ハードウェア回路、ソフトウェアモジュール、又はハードウェア回路とソフトウェアモジュールとの組み合わせであってよい。装置は、端末デバイスにインストールされてよく、あるいは、使用のために端末デバイスと適合されてもよい。記載を容易にするために、以下は、端末デバイスの機能を実装するよう構成される装置が端末デバイスであって、端末デバイスがUEである例を使用することによって、本願で提供される技術的解決法を記載する。
【0060】
基地局及び端末デバイスは固定されていてよく、又は移動可能であってよい。基地局及び/又は端末デバイスは、屋内又は屋外シナリオ、及び手持ち又は車載シナリオを含め、地上に展開されてよく、あるいは、水上に展開されてもよく、あるいは、空中で飛行機、風船、及び人工衛星に配備されてもよい。基地局及び端末デバイスの適用シナリオは本願で限定されない。基地局及び端末デバイスは同じシナリオ又は異なるシナリオにおいて展開されてもよい。例えば、基地局及び端末デバイスは両方とも地上に展開され、あるいは、基地局は地上に展開され、端末は水上に展開される。例は1つずつ記載されない。
【0061】
基地局及び端末デバイスの役割は相対的であってよい。例えば、
図1のヘリコプター又は無人航空機120iは移動基地局として構成され得る。120iを介して無線アクセスネットワーク100にアクセスする端末デバイス120jの場合、端末デバイス120iは基地局である。しかし、基地局110aの場合、120iは端末デバイスである。言い換えれば、110a及び120iは無線エアインターフェースプロトコルに基づき互いに通信する。110a及び120iは、代替的に、基地局間のインターフェースプロトコルに基づき互いに通信し得る。この場合に、110aに対して、120iも基地局である。従って、基地局及び端末デバイスは両方とも通信装置と総称されることがある。
図1の110a及び110bは、基地局の機能を有する通信装置と呼ばれることがあり、
図1の120a~120jは、端末デバイスの機能を有する通信装置と呼ばれることがある。
【0062】
本願では、独立したネットワーク要素(例えば、AIネットワーク要素又はAIノードと呼ばれる)が、AI関連動作を実装するために、
図1に示される通信システムに導入され得る。AIネットワーク要素は、通信システム内でアクセスネットワークデバイスに直接接続されてよく、あるいは、サードパーティネットワーク要素を介してアクセスネットワークデバイスに間接的に接続されてもよい。サードパーティネットワーク要素は、認証管理機能(authentication management function、AMF)又はユーザプレーン機能(user plane function,UPF)などのコアネットワーク要素であってよい。代替的に、AI機能、AIモジュール、又はAIエンティティは、AI関連動作を実装するために通信システム内の他のネットワーク要素において構成されてもよい。例えば、他のネットワーク要素はアクセスネットワークデバイス(例えば、gNB)、コアネットワークデバイス、又は運用、管理、及び保守(operation, administration and maintenance,OAM)であってよい。この場合に、AI関連動作を実行するネットワーク要素は、内蔵型のAI機能を備えたネットワーク要素である。OAMは、アクセスネットワークデバイス及び/又はコアネットワークデバイスに対して運用、管理、保守などを実行するよう構成される。
【0063】
本願において、
図2又は
図3に示されるように、AIモデルは、コアネットワークデバイス、アクセスネットワークデバイス、端末デバイス、OAM、などのうちの少なくとも1つでデプロイされてよく、対応する機能は、AIモデルを使用することによって実施される。本願において、異なるノードにデプロイされているAIモデルは、同じであっても又は異なってもよい。モデルが異なることは、次の:モデルの構造パラメータ、例えば、レイヤの数及び/又はモデルの重み値、のうちの少なくとも1つが異なること;モデルの入力パラメータが異なること;モデルの出力パラメータが異なること;などを含む。モデルの入力パラメータ及び/又はモデルの出力パラメータが異なることは、次のように記載され得る:モデルの機能が異なる。
図2とは異なり、
図3では、アクセスネットワークデバイスは、機能に関してCU及びDUに分けられている。任意に、CU及びDUは、O-RANアーキテクチャにおけるCU及びDUであってよい。1つ以上のAIモデルがCUにおいてデプロイされてよい。更に/代替的に、1つ以上のAIモデルがDUにおいてデプロイされてよい。任意に、
図3のCUは、CU-CP及びCU-UPに更に分けられてもよい。任意に、1つ以上のAIモデルはCU-CPにおいてデプロイされてよい。更に/代替的に、1つ以上のAIモデルはCU-UPにおいてデプロイされてよい。任意に、
図2又は
図3において、アクセスネットワークデバイスのOAM及びコアネットワークデバイスのOAMは別々に独立してデプロイされてよい。
【0064】
任意に、
図4aは、本願に係る通信システムのアーキテクチャである。
図4aに示されるように、第1の設計では、アクセスネットワークデバイスは、モデルの訓練及び推論を行うよう構成される準リアルタイムアクセスネットワークインテリジェントコントローラ(RAN intelligent controller,RIC)モジュールを含む。例えば、準リアルタイムRICは、AIモデルを訓練し、AIモデルを使用することによって推論を行うよう構成され得る。例えば、準リアルタイムRICは、CU、DU、又はRUのうちの少なくとも1つからネットワーク側及び/又は端末側での情報を取得でき、情報は、訓練データ又は推論データとして使用され得る。任意に、準リアルタイムRICは、CU、DU、RU、又は端末デバイスのうちの少なくとも1つへ推論結果を提示し得る。任意に、CU及びDUは、推論効果を交換し得る。任意に、DU及びRUは、推論結果を交換し得る。例えば、準リアルタイムRICは、推論結果をDUに提示し、DUは、推論結果をRUに転送する。
【0065】
代替的に、第2の設計では、
図4aに示されるように、非リアルタイムRIC(任意に、非リアルタイムRICはOAM又はコアネットワークデバイスに位置してよい)は、アクセスネットワークデバイスの外に含まれ、モデルの訓練及び推論を行うよう構成される。例えば、非リアルタイムRICは、AIモデルを訓練し、モデルを使用することによって推論を行うよう構成される。例えば、非リアルタイムRICは、CU、DU、又はRUのうちの少なくとも1つからネットワーク側及び/又は端末側での情報を取得し得る。情報は訓練データ又は推論データとして使用されてよく、推論結果は、CU、DU、RUのうちの少なくとも1つ、又は端末デバイスのうちの少なくとも1つに提示され得る。任意に、CU及びDUは、推論結果を交換し得る。任意に、DU及びRUは、推論結果を交換し得る。例えば、非リアルタイムRICは、推論結果をDUに提示し、DUは、推論結果をRUに転送する。
【0066】
代替的に、第3の設計では、
図4aに示されるように、アクセスネットワークデバイスは準リアルタイムRICを含み、非リアルタイムRIC(任意に、非リアルタイムRICはOAM又はコアネットワークデバイスに位置してよい)は、アクセスネットワークデバイスの外に含まれる。上記の第2の設計と同じく、非リアルタイムRICは、モデルの訓練及び推論を行うよう構成され得る。更に/代替的に、上記の第1の設計と同じく、準リアルタイムRICは、モデルの訓練及び推論を行うよう構成され得る。更に/代替的に、非リアルタイムRICはモデルの訓練を行い、準リアルタイムRICは、非リアルタイムRICからAIモデル情報を取得し、CU、DU、又はRUからネットワーク側及び/又は端末側での情報を取得し、当該情報及びAIモデル情報を使用することによって推論結果を取得し得る。任意に、準リアルタイムRICは、CU、DU、RU、又は端末デバイスのうちの少なくとも1つに推論結果を提示し得る。任意に、CU及びDUは、推論結果を交換し得る。任意に、DU及びRUは、推論結果を交換し得る。例えば、準リアルタイムRICは、推論結果をDUに提示し、DUは、推論結果をRUに転送する。例えば、準リアルタイムRICは、モデルAを訓練し、モデルAを使用することによって推論を行うよう構成される。例えば、非リアルタイムRICは、モデルBを訓練し、モデルBを使用することによって推論を行うよう構成される。例えば、非リアルタイムRICは、モデルCを訓練し、モデルCに関する情報を準リアルタイムRICに送るよう構成される。準リアルタイムRICは、モデルCを使用することによって推論を行う。
【0067】
図4bは、本願に係る他の通信システムのアーキテクチャである。
図4aのCUと比較して、
図4bのCUは、CU-CP、CU-UPなどに分離されている。
【0068】
無線ネットワークデバイスにおいて、AIモデルが使用される場合、解決される必要がある問題は、無線ネットワークでの柔軟かつ可変な信号フォーマットとAIモデルの固定入力フォーマット及び固定出力フォーマットとの間の衝突である。例えば、無線信号の帯域幅は基地局によって柔軟にスケジューリングされる。1つのスロット内でスケジューリングされ得る帯域幅は4つのリソースブロック(resource blocks,RB)であり、次のスロット内でスケジューリングされ得る帯域幅は8つのRBに変化することがある。しかし、AIモデルの入力フォーマットは固定であり、信号の帯域幅に応じて変化することができない。例えば、AIモデルの入力フォーマットが4RBに対応する場合、AIモデルは、入力帯域幅が4RBである信号しかサポートせず、入力帯域幅が8RBである信号を処理することができない。上記の問題を解決するために、解決法が提供される:AIモデルは帯域幅ごとに訓練される。
図4cに示されるように、AIモデルは、入力帯域幅が4RBである信号と、入力帯域幅が8RBである信号とについて、別々に訓練される。これにより、訓練及び保持の両方のためのオーバーヘッドは高くなる。
【0069】
本願では、解決法が提供される。解決法において、AIモデルは訓練され、AIモデルは、複数のフォーマットでの入力データ及び出力データに適用可能である。具体的に、訓練の間、異なるフォーマットなどでのデータ(例えば、入力データ及び/又は出力データ)は、AIモデルを一緒に訓練するために、パディング、トランケーション、などにより同じフォーマットのデータに変換される。AIモデルは複数のフォーマットに適用可能である。AIモデルが使用されるか又は推論を実行する場合、入力データ及び/又は出力データは、訓練中に使用されたのと同じデータ処理方法を使用することによって、AIモデルに適合する入力データ及び/又は出力データに変換され、それにより、異なる無線リソース設定のための推論タスクが、同じAIモデルを使用することによって完了され、訓練及び保持のためのオーバーヘッドは低減される。なお、少なくとも2つの例が本願の解決法に含まれる。例えば、AIモデルは、全てのフォーマットでの入力データ及び/又は出力データについて訓練される。例えば、無線ネットワーク内のスケジューリングされた帯域幅は、4RB、8RB、16RB、及び32RBを含む。この場合、AIモデルは、上記4つのスケジューリングされた帯域幅について訓練される。以下の記載では、この例が単に説明のために使用されている。代替的に、AIモデルは、いくつかのフォーマットの入力データ及び/又は出力データについて設計され、他のフォーマットでの入力データ及び/又は出力データについては、他のAIモデルが設計される。例えば、第1AIモデルは、4RB及び8RBのスケジューリングされた帯域幅について訓練される。言い換えれば、第1AIモデルは、4RB及び8RBの信号入力に適用可能である。第2AIモデルは、16RB及び32RBのスケジューリングされた帯域幅について訓練される。言い換えれば、第2AIモデルは、16RB及び32RBの信号の入力に適用可能である、など。
【0070】
理解を容易にするために、本願での用語又は概念が最初に記載される。
【0071】
1.AIモデル
【0072】
AIモデルは、AI機能の具体的な実施である。AIモデルは、モデルの入力及び出力の間のマッピング関係を表す。AIモデルはニューラルネットワーク、線形回帰モデル、決定木モデル、サポートベクターマシン(support vector machine,SVM)、ベイズネットワーク、Q学習モデル、他の機械学習モデル、などであってよい。本願において、AI機能は、次の:データ収集(訓練データ及び/又は推論データの収集)、データ前処理、モデル訓練(又はモデル学習と呼ばれる)、モデル情報リリース(設定モデル情報)、モデル検証、モデル推論、又は推論結果リリース、のうちの少なくとも1つを含み得る。推論は、代替的に予測と呼ばれることがある。本願において、AIモデルは、略してモデルと呼ばれることがある。
【0073】
AIモデル設計は主に、データ収集セクション(例えば、データ源が訓練データ及び/又は推論データを収集してよい)、モデル訓練セクション、及びモデル推論セクションを含む。更に、AIモデル設計は、推論結果応用セクションを更に含んでもよい。任意に、AIモデル設計は、モデル試験セクションを更に含んでもよい。
図5は、AIモデルの適用アーキテクチャの図である。データ源(data source)は、訓練データ及び推論データを供給するよう構成される。モデル訓練セクションでは、モデル訓練ノード(モデル訓練ホスト)が、AIモデルを取得するよう、データ源によって供給された訓練データ(training data)を解析又は訓練する。任意に、モデル訓練ノードによる訓練を経たAIモデルは、訓練データを使用することによるモデル訓練ノードによる学習を経たモデルの入力及び出力の間のマッピング関係を取得することと同等である。AIモデルは、モデル推論ノード(モデル推論ホスト)でデプロイされる。任意に、モデル訓練ノードは更に、モデル推論ノードでデプロイされるAIモデルを更新し得る。モデル推論ノードは更に、デプロイされたモデルの関連情報をモデル訓練ノードにフィードバックしてもよく、それにより、モデル訓練ノードは、デプロイされたAIモデルを最適化又は更新などする。
【0074】
モデル推論セクションでは、モデル推論ノードがAIモデルを使用して、データ源によって供給された推論データに基づき推論を行い、推論結果を取得する。方法は次の通りに実施され得る:モデル推論ノードは推論データをAIモデルに入力し、AIモデルを使用することによって出力を取得する。出力は推論結果である。推論結果は、動作の主体によって実行(作動)された設定パラメータ、及び/又は動作の主体によって実行された動作を示し得る。推測結果は、動作の主体によって使用(作動)される設定パラメータ及び/又は動作の主体によって実行される操作を示し得る。推測結果は、アクター(actor)エンティティによって中心的に計画され、動作のために動作の1つ以上の主体(例えば、ネットワークエンティティ)へ送られ得る。任意に、アクターエンティティ又は動作の主体は更に、モデルのパフォーマンスをデータ源にフィードバックしてもよく、モデルのパフォーマンスは、その後のモデル更新訓練を助けるために、訓練データとして使用される。
【0075】
2.ニューラルネットワーク(neural network,NN)
【0076】
AIモデルはニューラルネットワーク又は他の機械学習モデルであってよい。ニューラルネットワークが例として使用される。ニューラルネットワークは、機械学習技術の具体的な実施形態である。普遍近似定理に従って、ニューラルネットワークは、任意の連続関数に理論上近似でき、それにより、ニューラルネットワークは、任意のマッピングを学習する機能を有する。従って、ニューラルネットワークは、複雑な高次問題に対して抽象モデリングを正確に実行することができる。
【0077】
ニューラルネットワークのアイデアは、脳組織のニューロン構造に由来する。各ニューロンは、ニューロンの入力値に対して加重加算演算を実行し、加重加算の結果を活性化関数を通じて出力する。
図6は、ニューロンの構造の図である。ニューロンの入力はx=[x
0,x
1,・・・,x
n]であり、入力に対応する重みはw=[w,w
1,・・・,w
n]であり、加重加算のバイアスはbであると仮定される。活性化関数の形式は多様であることができる。あるニューロンの活性化関数がy=f(z)=max(0,z)である場合、ニューロンの出力は、
【数1】
である。他の例として、あるニューロンの活性化関数がy=f(z)=zである場合、ニューロンの出力は、
【数2】
であり、このとき、wi、xi、及びbは、小数、整数(0、正の整数、負の整数、などを含む)、複素数などの、様々なとり得る値であってよい。ニューロンネットワーク内の異なるニューロンの活性化関数は、同じであっても又は異なってもよい。
【0078】
ニューラルネットワークは一般的にマルチレイヤ構造を含み、各レイヤは1つ以上のニューロンを含む。ニューラルネットワークの深さ及び/又は幅が増すと、ニューラルネットワークの表現能力が向上し、複雑なシステムのためのより強力な情報抽出能力及び抽象モデリング能力を提供することができる。ニューラルネットワークの深さは、ニューラルネットワークに含まれるレイヤの数を指すことがあり、各レイヤに含まれるニューロンの数はレイヤの幅と呼ばれることがある。
図7は、ニューラルネットワークのレイヤ関係の図である。実施において、ニューラルネットワークは入力レイヤ及び出力レイヤを含む。受け取った入力に対してニューロン処理を実行した後、ニューラルネットワークの入力レイヤは出力レイヤへ結果を転送し、出力レイヤはニューラルネットワークの出力結果を得る。他の実施では、ニューラルネットワークは入力レイヤ、隠れレイヤ、及び出力レイヤを含む。受け取った入力に対してニューロン処理を実行した後、ニューラルネットワークの入力レイヤは結果を中間の隠れレイヤへ転送する。次いで、隠れレイヤは計算結果を出力レイヤ又は隣接する隠れレイヤへ転送する。最終的に、出力レイヤはニューラルネットワークの出力結果を得る。ニューラルネットワークは1つの隠れレイヤ又は順次接続されている複数の隠れレイヤを含み得る。これは限定されない。ニューラルネットワークの訓練プロセスで、損失関数が定義され得る。損失関数は、ニューラルネットワークの出力値と理想的な目標値との間のギャップ又は差を表す。損失関数の具体的な形式は本願で限定されない。ニューラルネットワークの訓練プロセスは、ニューラルネットワークのレイヤの数及び幅、ニューロンの重み値、及び/又はニューロンの活性化関数におけるパラメータなどのニューラルネットワークパラメータを調整して、損失関数の値が閾値よりも小さいか又は目標要件を満たすようにするプロセスである。
【0079】
3.AIモデル訓練
【0080】
AIモデルの訓練プロセスでは、損失関数が定義されることがある。損失関数は、AIモデルの出力値と理想的な目標値との間のギャップ又は差を表す。損失関数の具体的な形式は本願で限定されない。AIモデルの訓練プロセスは、1つ以上の訓練データについて、損失関数の値又は加重加算値(例えば、平均値)が閾値よりも小さいか又は目標要件を満たすことができるように、AIモデルの一部又は全てのパラメータが調整されるプロセスである。AIモデルがニューラルネットワークである場合、次のパラメータ:ニューラルネットワークの層の数、ニューラルネットワークの幅、層間の接続関係、ニューロンの重み値、ニューロンの活性化関数、又は活性化関数におけるオフセット、のうちの1つ以上が訓練プロセスで調整されてよく、それにより、ニューラルネットワークの出力と理想的な目標値との間の差は可能な限り小さくなる。
【0081】
設計において、AIモデルがニューラルネットワークfθ(・)である例が使用される。モデル訓練ノードは訓練データを収集し、このとき、訓練データは訓練サンプル及びラベルを含む。例えば、訓練サンプルxは入力として使用され、推論結果fθ(x)は、ニューラルネットワークfθ(・)が訓練サンプルxを処理した後の出力であり、推論結果fθ(x)と訓練サンプルxのラベルとの間の差は、損失関数を使用することによって計算により取得される。モデル訓練ノードは、損失関数を使用することによって取得された差に基づき、モデル最適化アルゴリズムを使用することによってネットワークパラメータを最適化し得る。ニューラルネットワークは、大量の訓練データを使用することによって訓練され、それにより、訓練サンプル(例えば、1つ以上の訓練サンプル)のグループについて、各訓練サンプルのニューラルネットワークの出力と訓練サンプルのラベルとの間の差は閾値よりも小さくなるか又は目標要件を満足し、あるいは、全ての訓練サンプルのニューラルネットワークの出力と全ての訓練サンプルのラベルとの間の差の加重加算値(例えば、平均値)は閾値よりも小さくなるか又は目標要件を満足し、ニューラルネットワークの訓練は完了する。
【0082】
なお、教師あり学習の訓練方法が上記のプロセスでは説明されているが、本願を限定する意図はない。本願では、AIモデル訓練は、代替的に、教師なし学習を使用することによって実行されてもよい。訓練サンプルの内部モードが、訓練サンプルに基づいたAIモデル訓練を完了するために、アルゴリズムを使用することによって学習される。AIモデル訓練は更に、強化学習を使用することによって実行されてもよい。環境によってフィードバックされた励起信号は、問題解決方針を学習し、AIモデルを最適化するなどのために、環境との相互作用を通じて取得される。本願では、モデル訓練方法は限定されない。
【0083】
図8に示されるように、モデルのためのデータ処理方法のプロシージャが提供される。方法はモデル訓練ノード又はモデル推論ノードによって実行される。モデル訓練ノード及びモデル推論ノードは同じノード、異なるノード、などであってよいことが理解され得る。これは限定されない。プロシージャは少なくとも次のステップを含む。
【0084】
ステップ801:第1ノードは、AIモデルのためのデータ処理方法を決定する。
【0085】
第1ノードは、モデル訓練ノード、モデル推論ノード、などである。例えば、第1ノードは、他のノード(例えば、第2ノード)から指示情報を受け取り、このとき、指示情報は、AIモデルのためのデータ処理方法を指示する。代替的に、第1ノードは、プロトコルで定義されるようにAIモデルのためのデータ処理方法を決定する。代替的に、第1ノードは、AIモデルのためのデータ処理方法を決定する。例えば、モデル推論ノードは、収集された訓練データのフォーマット、訓練対象AIモデルのフォーマット、などに基づきAIモデルのためのデータ処理方法などを決定し得る。詳細については、以下の記載を参照されたい。
【0086】
ステップ802:第1ノードは、AIモデルのためのデータ処理方法に従って、次の:モデル訓練の実行、又はモデル推論の実行、のうちの少なくとも1つを実施する。
【0087】
図9Aに示されるように、モデル訓練ノード及びモデル推論ノードが別々にデプロイされ、モデル訓練ノードがAIモデルのためのデータ処理方法をモデル推論ノードに示す例が、データ処理方法のプロシージャを提供するために使用される。プロシージャは少なくとも次のステップを含む。
【0088】
ステップ901:訓練データを収集する。
【0089】
本願において、訓練データを収集するエンティティは、モデル訓練ノード、他のAIエンティティ、AIモジュール、などであってよい。本願において、収集された訓練データは、無線ネットワーク内のデータ、例えば、無線チャネル情報、受信信号、参照信号、及び参照信号受信電力(reference signal received power,RSRP)を含むが、これらに限られない。無線チャネル情報は、推定チャネル応答、チャネル特徴、などを含み得る。データの直接的な取得者(又は推定者、測定者、収集者、などと呼ばれる)は、UE又は基地局であってよい。データを収集するエンティティ又はモジュールがデータの直接的な取得者とは異なる場合、データの直接的な取得者は、データを、データを収集するエンティティ又はモジュールへ送る。収集された訓練データは、異なるUEの測定データ、又は異なる地理的位置及び異なるチャネル環境でUEによって取得された測定データを含み得る。収集されたデータは、実際のネットワーク内でUE又は基地局によって取得された実際のデータであってよく、あるいは、エミュレーションプラットフォーム又はシミュレーションプラットフォームを使用することによって生成された仮想データ、などであってもよい。これは限定されない。
【0090】
本願の目的は、複数の無線リソース設定に適応するAIモデルを訓練することである。従って、収集された訓練データは、複数の無線リソース設定でのデータを含む。例えば、収集された訓練データは、複数の帯域幅又は複数の参照信号パターンでの受信信号又は無線チャネル情報を含む。複数の無線リソース設定でのデータは、代替的に、同じ無線リソース設定でのデータに対してデータエンハンスメント方法を使用することによって生成されてもよい。例えば、同じ帯域幅での無線チャネルは、異なる帯域幅での無線チャネルにトランケーションされる。
【0091】
任意に、本願において、収集された訓練データの具体的な種類は、AIモデルの関数に関係がある。例えば、周波数領域チャネル推定のためのAIモデルの場合、AIモデルによって必要とされる訓練データは、受信された参照信号Y及び元の参照信号Sを少なくとも含む。AIモデルのために、様々な無線リソース設定での参照信号Y及び元の参照信号Sが訓練データとして収集され得る。例えば、異なる帯域幅及び/又は異なる参照信号タイプでの参照信号Y及び元の参照信号Sが収集され得る。
【0092】
他の例として、チャネル状態情報(channel state information,CSI)フィードバックに使用されるAIモデルの場合、AIモデルによって必要とされる訓練データは、チャネル応答H及びチャネル特徴Wを少なくとも含み、異なる帯域幅及び/又は異なるアンテナポート数でのチャネル応答H又はチャネル特徴Wが収集され得る。
【0093】
他の例として、ビーム管理に使用されるAIモデルの場合、AIモデルによって必要とされる訓練データは、チャネル応答H、受信信号Y、又は受信信号YのRSRPを少なくとも含み、異なる帯域幅及び/又は異なるアンテナポート数でのチャネル応答H、受信信号Y、又はRSRPが収集され得る。
【0094】
他の例として、位置決め関連AIモデルの場合、AIモデルによって必要とされる訓練データは、チャネル応答Hを少なくとも含み、異なる帯域幅及び/又は異なるアンテナポート数でのチャネル応答Hが収集され得る。
【0095】
ステップ902:収集された訓練データを処理することを含むモデル訓練を実行する。
【0096】
本願では、上記のデータ収集フェーズで収集された訓練データが複数のフォーマットを含むので、モデル訓練フェーズでは、収集された訓練データは、訓練データのフォーマットを統一するよう処理される必要がある。
【0097】
AIモデル推論フェーズでのAIモデルの入力データ及び出力データを区別するために、AIモデル訓練フェーズでのAIモデルの入力データは、入力訓練データと呼ばれ、AIモデル訓練フェーズでのAIモデルの出力データは、出力訓練データと呼ばれる。更に、本願では、訓練データを処理するプロセスが含まれる。従って、元々収集されていた訓練データ(つまり、原データ)、すなわち、処理前の訓練データは、第1入力訓練データと呼ばれることがあり、処理済みの訓練データは、第2入力訓練データと呼ばれることがある。第2入力訓練データは、AIモデルの入力訓練データとして使用され得る。AIモデルの出力データは、第1出力訓練データと呼ばれ、AIモデルの出力データが処理された後に取得されるデータは、第2出力訓練データと呼ばれるか、又は目標データと呼ばれる。
【0098】
例えば、本願のデータ処理方法は、次の:入力データ処理方法又は出力データ処理方法、のうちの少なくとも1つを含む。
図9Bに示されるように、モデル訓練ノードは、第2入力訓練データを取得するよう、収集された第1入力訓練データに対して入力データ処理を実行し;第2入力訓練データ及びAIモデルに基づき第1出力訓練データを取得し;第2出力訓練データを取得するよう、第1出力訓練データに対して出力データ処理を実行し;第2出力訓練データに基づき、目標関数が要件を満足するかどうかを決定し得る。目標関数が要件を満足する場合、AIモデルは出力され、AIモデルの訓練は完了する。代替的に、目標関数が要件を満足しない場合、AIモデルのパラメータは更新され、AIモデルの訓練は続く。目標関数は、代替的に、損失関数と呼ばれ得る。例えば、AIモデルはニューラルネットワークである。この場合、調整されたパラメータは、次の:ニューラルネットワークの層の数、ニューラルネットワークの幅、層間の接続関係、ニューロンの重み値、ニューロンの活性化関数、活性化関数のオフセット、など、のうちの1つ以上を含み得る。教師あり学習が上記の訓練プロセスで使用されてよい。モデル訓練ノードは、第2出力訓練データ及び対応するラベルに基づき損失関数の値を決定し得る。損失関数の値が閾値よりも小さいか又は目標要件を満足する場合、AIモデルの訓練は終了する。代替的に、損失関数の値が閾値以上であるか又は要件を満足しない場合、AIモデルの訓練は続く。教師あり学習のそれとは異なり、教師なし学習プロセスでは、ラベルがない。この場合、モデル訓練ノードは、第2出力訓練データに基づき損失関数の値を決定し得る。教師あり学習及び教師なし学習において、損失関数は異なる設計を有する。モデル訓練プロセスにおいて、他のモデル訓練方法、例えば、強化学習が代替的に使用されてもよいことが理解され得る。これは限定されない。
【0099】
例えば、モデル訓練ノードが第1入力訓練データに対して入力データ処理を実行するプロセスは、AIモデルの入力フォーマット及び出力フォーマットを決定することと、AIモデルの入力フォーマットに基づき第1入力訓練データを処理して第2入力訓練データを取得することとを含む。任意に、第2入力訓練データのフォーマットは、AIモデルの入力フォーマットと同じである。第1出力訓練データは、第2入力訓練データ及びAIモデルに基づき決定される。任意に、第1出力訓練データのフォーマットは、AIモデルの出力フォーマットと同じである。第1出力訓練データに対して出力データ処理を実行するプロセスは、第1出力訓練データを処理して第2出力訓練データを取得することを含む。例えば、処理は、第2出力訓練データを取得するよう、訓練データ内のラベルのフォーマットに基づき第1出力訓練データに対して実行されてよい。任意に、第2出力訓練データのフォーマットは、対応するラベルのフォーマットと同じである。代替的に、教師なし学習シナリオでは、訓練データにはラベルが存在しない。この場合、処理は、第2出力訓練データを取得するよう、無線リソース設定に基づき第1出力訓練データに対して実行されてよく、このとき、第2出力訓練データは、対応する無線リソースの設定を満足する。代替的に、第1出力訓練データは、第2出力訓練データなどを取得するよう、AIモデルの損失関数に基づき処理される。例えば、無線リソース設定において、AIモデルは、長さがBビットであるチャネル状態情報をフィードバックする必要がある。この場合、AIモデルによって出力される第1出力訓練データの長さは、Bビットの長さにトランケーションされる。AIモデルのパラメータは第2出力訓練データに基づき調整される。例えば、教師あり学習が例として使用される。モデル訓練ノードは、第2出力訓練データ及び訓練データ内のラベルに基づき損失関数の値を計算し得る。損失関数の値が閾値よりも小さいか又は目標要件を満足する場合、AIモデルの訓練は完了する。代替的に、損失関数の値が閾値以上であるか又は目標要件を満足しない場合、AIモデルパラメータは調整され、AIモデルの訓練は続く。
【0100】
第1入力訓練データを処理する上記のプロセス及び第1出力訓練データを処理するプロセスは必ずしも実行される必要がないことが理解されるべきである。収集された訓練データは複数のフォーマットを含む。従って、特定のフォーマットでの入力訓練データについては、入力訓練データのフォーマットがAIモデルの入力フォーマットと同じである場合、そのフォーマットでの入力訓練データは直接AIモデルに入力されてよく、入力訓練データはもはや処理される必要がない。言い換えれば、第1入力訓練データは処理されなくてもよく、第1出力訓練データは第1入力訓練データ及びAIモデルに基づき直接決定される。同様に、第1AIモデルの出力は第1出力訓練データと呼ばれる。第1出力訓練データのフォーマットが要件を満足する、例えば、ラベルのフォーマットと同じであるか、又は無線リソース設定のフォーマットを満足する場合、第1出力訓練データはもはやこれ以上処理されなくてもよい。
【0101】
本願において、AIモデルの入力フォーマット及び出力フォーマットは、無線リソース設定に関係があり得る。例えば、AIモデルの入力データはパディングされ、AIモデルの出力データはトランケーションされる。AIモデルの入力データの長さは、AIモデルの適用シナリオにおける全ての潜在的な無線リソース設定の中で最長である訓練サンプルの長さよりも長いか又はそれに等しいことがあり、AIモデルの出力データの長さは、AIモデルの適用シナリオにおける全ての潜在的な無線リソース設定の中で最長であるラベルの長さよりも長いか又はそれに等しいことがある、など。
【0102】
なお、本願の記載中、フォーマットは、次元及び/又は長さなどの2つの意味を含み得る。無線信号処理では、通常、処理される必要があるオブジェクトは無線信号、無線チャネル、などである。無線信号又は無線チャネルの次元は、通常、時間領域、周波数領域、及び/又は空間周波数などの次元を含む。本願において、元々収集されていた第1入力訓練データの次元は、次元がAIモデルの入力次元要件を満足するように変換されてよく、かつ/あるいは、各次元における信号の長さは、長さが各次元での長さについてのAIモデルの入力の要件を満足するように処理される。本願の記載中、入力データの長さ及び出力データの長さを処理するプロセスが主に記載され、1次元データの長さの処理が例として使用される。続く記載では、別段特定されない限り、記載されている長さは、1次元データの長さである。多次元データの長さの処理の方法は、1次元データの長さの処理の方法を直接拡張することによって取得され得る。
【0103】
ステップ903:モデル訓練ノードはAIモデル及び指示情報をモデル推論ノードへ送り、このとき、指示情報は、AIモデルのためのデータ処理方法を指示し、AIモデルのためのデータ処理方法は、代替的に、AIモデル使用法と呼ばれ得る。
【0104】
本願において、モデル訓練ノードがモデル推論ノードとは異なる場合、モデルデプロイが実行される必要がある。具体的に言えば、モデル訓練ノードは、訓練されたAIモデルをモデル推論ノードへ送る必要がある。例えば、モデル訓練ノードは、AIモデルに関する情報をモデル推論ノードへ送ってよい。AIモデルに関する情報は、次の:モデルのパラメータ、モデルの入力フォーマット、モデルの出力フォーマット、など、のうちの少なくとも1つを含む。ニューラルネットワークが例として使用される。モデルのパラメータは、次の:ニューラルネットワークの層の数、ニューラルネットワークの幅、層間の接続関係、ニューロンの重み、ニューロンの活性化関数、活性化関数のオフセット、など、のうちの少なくとも1つを含む。モデル推論ノードは、AIモデルに関する情報に基づきAIモデルを回復又は決定する。
【0105】
更に、本願において,AIモデル使用法(つまり、AIモデルのためのデータ処理方法)は、モデル推論ノードがAIモデルを正しく使用して推論タスクを完了することができるように、モデル推論ノードに更に指示されてよい。代替的に、AIモデル使用法は予め定義されてもよい。モデル推論ノードがAIモデル使用法を取得する方法は本願で限定されない。
【0106】
本願において、AIモデルのためのデータ処理方法は、次の:入力データ処理方法又は出力データ処理方法、のうちの少なくとも1つを含む。入力データ処理方法は、次の:データパディング方法又はデータトランケーション方法、のうちの少なくとも1つを含む。出力データ処理方法は、次の:データパディング方法又はデータトランケーション方法、のうちの少なくとも1つを含む。データパディング方法は、次の:パディング規則(又はパディング位置、つまり、特定の長さのデータがパディングされる特定の位置)、パディング後に取得される長さ、及びパディングデータタイプ(つまり、パディング値)、のうちの少なくとも1つを含む。データトランケーション方法は、次の:トランケーション規則(又はトランケーション位置、つまり、特定の長さのデータがトランケーションされる特定の位置)、又はトランケーション後に取得される長さ、のうちの少なくとも1つを含む。
【0107】
本願において、複数のデータ処理方法が予め決定されてよく、モデル訓練ノードは、複数のデータ処理方法のうちの1つをモデル推論ノードに指示し得る。例えば、n個のデータ処理方法が予め決定され、n個のデータ処理方法は異なるインデックスに対応する。モデル訓練ノードは、特定のデータ処理方法のインデックスをモデル推論ノードに具体的に指示し得る。代替的に、モデル訓練ノードは、モデル推論ノードに対して、データ処理方法に対応するパラメータ、例えば、入力データに対するパディング値及びパディング位置、並びに/又は出力データに対するトランケーション位置を直接指示してもよい。
【0108】
ステップ904:モデル推論ノードは、AIモデルのためのデータ処理方法に従ってモデル推論を実行する。
【0109】
本願において、モデル推論ノードは、AIモデルのための、モデル訓練ノードによって指示されたデータ処理方法に従って、モデル推論を実行して、異なる無線リソース設定のための推論タスクを完了し得る。言い換えれば、モデル推論ノードは、訓練データ処理方法のそれと同じ規則を使用することによって、モデル推論の間にデータを処理する。
【0110】
記載を容易にするために、モデル推論フェーズにおいて、初期入力データは第1入力データ又は原データと呼ばれ、AIモデルの、第1入力データが処理された後に取得された入力データは、第2入力データと呼ばれる。AIモデルの出力データは、第1出力データと呼ばれる。第1出力データが処理された後に取得されるデータは、第2出力データ又は目標データと呼ばれる。
【0111】
設計において、AIモデルのための、モデル推論ノードによって指示されたデータ処理方法は、次の:入力データ処理方法又は出力データ処理方法、のうちの少なくとも1つを含む。入力データ処理方法は、モデル訓練フェーズでの入力訓練データ処理方法と同じであるか又はそれに対応する。出力データ処理方法は、モデル推論フェーズでの出力訓練データ処理方法と同じであるか又はそれに対応する。例えば、
図9Cに示されるように、モデル推論ノードは、AIモデルのためのデータ処理方法における入力データ処理方法に従って第1入力データを処理して、第2入力データを取得し得る。第2入力データのフォーマットは、AIモデルのフォーマットと同じである。第1出力データは、第2入力データ及びAIモデルに基づき決定される。第1出力データのフォーマットは、AIモデルの出力フォーマットと同じである。第1出力データは、AIモデルのためのデータ処理方法における出力データ処理方法に基づき処理されて、第2出力データが決定される。第2出力データは、AIモデルの推論結果と見なすことができる。
【0112】
上記の訓練プロセスと同様に、モデル推論ノードが第1入力データを処理して第2入力データを決定するプロセス、及びモデル推論ノードが第1出力データを処理して第2出力データを取得するプロセスは、必ずしも実行されず、代替的に、実行されなくてもよい。例えば、第1入力データがAIモデルの入力フォーマットと一致するか、又は入力データ処理方法で指示されたパディングデータの長さと同じである場合、第1入力データはもはや処理されなくてもよく、第1入力データはAIモデルの入力データとして直接使用され得る。AIモデルの出力データが無線リソース設定の長さを満たすか、又は対応するラベルの長さと同じであるか、あるいは、AIモデルの出力データが、出力データ処理方法で指示されたトランケーション後のデータの長さと同じである、などの場合、第1出力データは処理される必要がなく、第1出力データはAI推論の推論結果などとして直接使用されてもよい。
【0113】
上記の設計では、異なる無線リソース設定のための推論タスクは、1つのAIモデルを使用することによって完了でき、無線リソース設定ごとに1つのAIモデルを訓練及びデプロイする必要がなく、それによって、訓練及び保持のためのオーバーヘッドなどを減らす。
【0114】
上述されたように、AIモデルのためのデータ処理方法は、次の:AIモデルのための入力データ処理方法、又はAIモデルのための出力データ処理方法、のうちの少なくとも1つを含む。設計において、AIモデルのための入力データ処理方法が入力データパディング方法であり、AIモデルのための出力データ処理方法が出力データトランケーション方法であるプロセスが、主に記載される。代替的に、それは、次のように記載されてもよい:AIモデルのためのデータ処理方法は、次の:AIモデルのための入力データパディング方法又はAIモデルのための出力データトランケーション方法、のうちの少なくとも1つを含む。
【0115】
この設計では、モデル訓練ノードがAIモデルのためのデータ処理方法に従ってモデル訓練を実行するプロセスは、モデル訓練ノードが、入力データパディング方法に従って第1入力訓練データにパディングして第2入力訓練データを取得し、第2入力訓練データ及びAIモデルに基づき第1出力訓練データを決定し、出力データトランケーション方法に従って第1出力訓練データをトランケーションして第2出力訓練データを取得することを含む。第2出力訓練データに基づきAIモデルに対してパラメータ調整が実行される。
【0116】
入力データパディング方法は、次の項目のうちの1つを含み得る:
パディングされたデータの長さ,この項目が設定されない場合、パディングされた入力訓練データの長さはデフォルトでAIモデルの入力データの長さと同じであり、つまり、AIモデルの入力フォーマットに適合する;
パディングデータタイプ,例えば、パディングデータタイプは0であってよく、あるいは、極めて大きい正の数又は極めて小さい負の数であってよい;又は
データパディング規則,例えば、パディングは、等しい間隔で又は等しくない間隔で入力訓練データの前、後ろ、真ん中、又は両側で行われる。
【0117】
出力データトランケーション方法は、次の項目のうちの少なくとも1つを含み得る:
トランケーション後のデータの長さ,この項目が設定されない場合、トランケーションされた出力データの長さは、デフォルトでラベルの長さと同じであり、つまり、ラベルのフォーマットに適合する;又は
データトランケーション規則,例えば、トランケーションは、等しい間隔で又は等しくない間隔で出力データの前、後ろ、真ん中、又は両側で行われる。
【0118】
例えば、モデル訓練ノードは、十分な訓練データを収集し得る。教師あり学習が例として使用される。訓練データは訓練サンプル及びラベルを含む。訓練サンプルは、代替的に、第1入力訓練データと呼ばれることがあり、第1入力訓練データは、モデル訓練のためにAIモデルに入力される必要があるデータであり得る。AIモデルの入力データの長さ及びAIモデルの出力データの長さが決定される。AIモデルの入力データの長さは、収集された訓練データの訓練サンプルの中で最長である訓練サンプルの長さよりも長いか又はそれに等しく、AIモデルの出力データの長さは、収集された訓練データのラベルの中で最長であるラベルの長さよりも長いか又はそれに等しい。言い換えれば、AIモデルの入力データの長さは、AIモデルの適用シナリオにおける全ての潜在的な無線リソース設定の中で最長である原データの長さよりも長いか又はそれに等しく、AIモデルの出力データの長さは、AIモデルの適用シナリオにおける全ての潜在的な無線リソース設定の中で最長である目標データの長さよりも長いか又はそれに等しい。モデル訓練ノードは、第2入力訓練データを取得するよう、入力データ処理方法に従って第1入力訓練データにパディングする。第2入力訓練データは、パディングされた第1入力訓練データと呼ばれることがあり、第2入力訓練データの長さは、AIモデルの入力データの長さと同じである。具体的に、パディングは、入力データパディング方法におけるパディングデータのタイプ、データパディング規則、などに基づき、入力訓練データに対して実行され得る。例えば、AIモデルの入力データの周波数領域長さは8RBであり、第1入力訓練データの周波数領域長さは4RBである。本願では、第1入力訓練データの周波数領域長さは4RBから8RBにパディングされ得る。第1入力訓練データの周波数領域長さを4RBから8RBにパディングする具体的なプロセスは、入力データパディング方法におけるパディングデータタイプ(例えば、特定のパディング値)及びデータパディング規則(例えば、前方でのパディング、後方でのパディング、又は等間隔のパディング)に基づき決定され得る。第1出力訓練データは、第2入力訓練データ及びAIモデルに基づき決定される。第1出力訓練データは、第2出力訓練データを取得するよう、出力データトランケーション方法に従ってトランケーションされる。例えば、第2出力訓練データの長さは、ラベルの長さに等しい。具体的に、第1出力訓練データをトランケーションする方法は、出力データトランケーション方法におけるトランケーション規則に基づき決定され得る。例えば、トランケーションは、第1出力訓練データの前方若しくは後方で、又は等間隔で実行される。第2出力訓練データに基づきAIモデルに対してパラメータ調整が実行される。例えば、本願では、損失関数の値が、第2出力訓練データ及びラベルに基づき計算され得る。損失関数の値が閾値よりも小さいか又は目標要件を満たす場合、AIモデルの訓練は完了する。代替的に、損失関数の値が閾値以上であるか又は目標要件を満たさない場合、AIモデルのパラメータは調整され、AIモデルの訓練は続く。
【0119】
本願では、モデル訓練ノードは、訓練されたAIモデルをモデル推論ノードへ送ってよい。モデル推論ノードは、AIモデルのためのデータ処理方法に従ってAIモデルに対してデータ推論を実行し得る。この設計では、モデル推論ノードがAIモデルのためのデータ処理方法に基づきモデル推論を実行するプロセスは:
第2入力データを取得するよう、入力データパディング方法に従って第1入力データにパディングすることと、
第2入力データ及びAIモデルに基づき第1出力データを決定することと、
出力データトランケーション方法に従って第1出力データをトランケーションすることと、を含み、
トランケーションは、代替的に、抽出と呼ばれることがあり、トランケーションされた第1出力データは第2出力データと呼ばれてよく、第2出力データはAIモデルの推論結果である。
【0120】
任意に、モデル推論プロセスにおいて入力データにパディングし、出力データをトランケーションするプロセスは、モデル訓練フェーズにおいて入力訓練データにパディングし、出力訓練データをトランケーションするプロセスと同じである。
【0121】
同じAIモデルを使用することによる異なる帯域幅及び異なる参照信号パターンでのチャネル推定について記載するために、周波数領域チャネル推定シナリオが例として使用される。このシナリオでは、AIモデルの入力データはパディングされ、AIモデルの出力データはトランケーションされる。
【0122】
理解を容易にするために、チャネル推定プロセスが最初に記載される。単一UE単一アンテナ直交周波数分割多重化(orthogonal frequency division multiplexing,OFDM)シンボルを有する無線信号の伝搬モデルは、
【数3】
である。Yは受信信号を表し、Sは送信信号を表し、Sは、チャネル推定シナリオにおける参照信号を表し、バーHは、参照信号が位置しているリソース要素(resource element,RE)の周波数領域チャネル(応答)を表し、nはノイズを表し、・は要素乗算、すなわち、2つのベクトル又は行列内で同じインデックスを持った要素を乗算することを表す。Y、バーH、及びSの夫々の長さはLであり、Lは、参照信号によって占有されるREの数である。チャネル推定プロセスは次の通りである:周波数領域チャネル応答Hは、受信信号Y及び参照信号Sを使用することによって推定される。Hは、スケジューリングされた帯域幅内の全てのREでのチャネルを表し、バーHは、Hの一部である。このシナリオで、モデル訓練プロセス及びモデル推論プロセスにおいて、AIモデルの入力データは受信信号Y及び参照信号Sであり、このとき、参照信号Sは知られており、AIモデルの出力データは周波数領域チャネル応答Hである。
【0123】
本願において、基地局によってスケジューリングされた周波数領域チャネルの帯域幅は異なってもよい。例えば、基地局によってスケジューリングされた周波数領域チャネルの帯域幅は、4つのリソースブロック(resource blocks,RB)、8つのRB、16個のRB、などであってよい。同じスケジューリングされた帯域幅について、UEは、異なるタイプの参照信号、例えば、type-1参照信号及びtype-2参照信号を基地局へ送信してもよい。本願において、Hの長さは、スケジューリングされた帯域幅に依存し、Y、バーH、及びSの夫々の長さは、スケジューリングされた帯域幅及び参照信号パターンに依存する。例えば、基地局によってスケジューリングされた帯域幅はk個のRBにセットされる。1つのRBは12個のREを含むので、Hの長さは12kである。
図10に示されるように、type-1参照信号は、1REの間隔で1つのREを占有するので、type-1参照信号は、各RBにおいて6つのREを占有する。
図11に示されるように、type-2参照信号は、4REの間隔で2つのREを占有するので、type-2参照信号は、各RBにおいて4つのREを占有する。スケジューリングされた帯域幅がk個のRBである場合、type-1参照信号のY、バーH、及びSの夫々の長さは6kであり、type-1参照信号のY、バーH、及びSの夫々の長さは4kである。
【0124】
周波数領域チャネル推定がAI方式で実行される場合、AIモデルの入力データはY及びSである。type-1参照信号のY及びSの夫々の長さは6kであり、type-2参照信号のY及びSの夫々の長さは4kであり、このとき、kは、基地局によってスケジューリングされた周波数領域チャネル帯域幅である。AIモデル設計の間、AIモデルは、異なるスケジューリングされた帯域幅及び異なるタイプの参照信号に基づき別々に設計される必要があることが分かる。この設計では、AIモデルは設計され、AIは、異なるスケジューリングされた帯域幅及び異なるタイプの参照信号でのチャネル推定に適用可能であることができ、それによって、AIモデルの訓練及び保持のためのオーバーヘッドを低減させる。
【0125】
続いて、チャネル推定プロセスは、訓練データ収集、訓練データ処理、モデル訓練、モデルデプロイ、モデル推論、などに関して記載される。
【0126】
訓練データ収集
【0127】
訓練データセットは、AIモデルの適用シナリオに基づいて決定される。訓練データセットは、AIモデルが様々な無線リソース設定で優れたパフォーマンスを達成することができるように、可能な限りの多くの適用シナリオにおける全ての可能な無線リソース設定での訓練データを含み得る。各訓練データは訓練サンプル及びラベルを含む。訓練サンプルは、代替的に、第1入力訓練データと呼ばれてもよく、受信信号Y及び原信号Sを含む。ラベルは周波数領域チャネル応答である。例えば、AIモデルが訓練されると期待される場合、チャネル推定は、スケジューリングされた帯域幅が4RB及び8RBである帯域幅内のtype-1参照信号及びtype-2参照信号に対して実行され得る。この場合、訓練データは、4RBのスケジューリングされた帯域幅内でtype-1参照信号に対応する訓練データ及びtype-2参照信号に対応する訓練データと、8RBのスケジューリングされた帯域幅内でtype-1参照信号に対応する訓練データ及びtype-2参照信号に対応する訓練データとを含む。各訓練データは訓練サンプル(Y,S)及びラベル(H)を含む。
【0128】
訓練データ処理
【0129】
訓練データ処理は、第1入力訓練データにパディングすることを含み、パディングされた入力訓練データは、第2入力訓練データと呼ばれ、第2入力訓練データの長さは、AIモデルの入力データの長さと同じである。第1出力訓練データは、第2入力訓練データ及びAIモデルに基づき決定される。第1出力訓練データは、第2出力訓練データを決定するようトランケーションされ、第2出力訓練データの長さは、ラベルの長さと同じである。
【0130】
本願において、第1入力訓練データにパディングするプロセスは、次を含む。最初に、異なるタイプの参照信号ごとに、パディングは、参照信号のパターンに基づき実行されてよく、Y及びSは、Hの長さと同じ長さを有するようパディングされる。パディング後、Y及びSの実際な値は、参照信号が位置しているREに対応する位置にのみあり、パディング値は残りのRE位置にある。次いで、パディングされたY及びSは、AIモデルの入力データの長さ、つまり、AIモデルによってサポートされている周波数領域帯域幅に基づき、再びパディングされる。このときのパディング規則は、前方でのパディング、後方でのパディング、中間でのパディング、両側でのパディング、などのうちの1つ以上であってよい。これは限定されない。パディング値は0、又は極めて大きい正の数、又は極めて小さい負の数であってよい。パディングされたデータの長さ、つまり、第2入力訓練データの長さは、AIモデルの入力データの長さと同じである。
【0131】
例えば、収集された訓練データ、つまり第1入力訓練データ内の訓練サンプルは:
4RBのスケジューリングされた帯域幅内のtype-1参照信号に対応する受信信号
【数4】
このとき、Y
iは、番号がiである受信信号Yを表し、y
j
iは、番号がiである受信信号Yにおけるj番目の要素を表す;
4RBのスケジューリングされた帯域幅内のtype-2参照信号に対応する受信信号
【数5】
8RBのスケジューリングされた帯域幅内のtype-1参照信号に対応する受信信号
【数6】
8RBのスケジューリングされた帯域幅内のtype-2参照信号に対応する受信信号
【数7】
を含む。
【0132】
第1入力訓練データはパディングされ、このとき、パディングデータは0であってよく、パディングされた入力訓練データの長さは96REである。任意に、訓練シナリオでは、スケジューリングされた最大帯域幅は8RB、つまり96REであるから、AIモデルの入力データの長さは96REとして設計されると考えることができる。本願において、訓練データ内の訓練サンプルの長さは、AIモデルの入力データの長さ96REと同じであるようパディングされる。
【0133】
本願において、参照信号の異なるタイプの夫々のYは、最初に、ラベルHの長さと同じ長さを有するようパディングされてよく、次いで、Yは再びパディングされる。具体的に、パディングは、Yの後に実行されてもよい。複数の、パディングされた第1入力訓練データ、つまり複数の第2入力訓練データは、夫々、次の通りである:
4RBのスケジューリングされた帯域幅内のtype-1参照信号に対応するY
1がパディングされた後に取得される
【数8】
4RBのスケジューリングされた帯域幅内のtype-2参照信号に対応するY
1がパディングされた後に取得される
【数9】
8RBのスケジューリングされた帯域幅内のtype-1参照信号に対応するY
3がパディングされた後に取得される
【数10】
8RBのスケジューリングされた帯域幅内のtype-2参照信号に対応するY
4がパディングされた後に取得される
【数11】
【0134】
Sにパディングする方法は、Yにパディングする上記の方法と同様である。パディングされたS及びパディングされたYは、第2入力訓練データと呼ばれ得る。パディングされたY及びパディングされたSはAIモデルに入力される。AIモデルの出力は第1出力訓練データと呼ばれ、第1出力訓練データの長さは、AIモデルの出力データの長さと同じである。第1出力訓練データはトランケーションされる。トランケーションされた出力訓練データは、第2出力訓練データと呼ばれてもよく、第2出力訓練データの長さは、ラベル(周波数領域チャネル応答H)の長さと同じである。第1出力データに対するトランケーション規則は、前方でのトランケーション、後方でのトランケーション、中間でのトランケーション、両側でのトランケーション、などのうちの1つ以上であってよい。これは限定されない。任意に、トランケーション規則は、パディング規則と無関係であってよく、あるいは、パディング規則と一致してもよい。例えば、第1入力訓練データが第1入力訓練データの後方でパディングされる場合、第1出力訓練データは、第1出力訓練データの前方でトランケーションされる。
【0135】
例えば、4RBのスケジューリングされた帯域幅において、AIモデルの出力データの長さは96REであり、AIモデルのラベル(周波数領域チャネル応答H)の長さは48REである、と仮定される。この場合、AIモデルの出力データにおける最初の48個の要素が、4RBのラベルHと対比されるように、トランケーションされ得る。8RBのスケジューリングされた帯域幅では、AIモデルの出力データはトランケーションされる必要がなく、AIモデルの出力データは、8RBのラベルHなどと直接比較され得る。
【0136】
モデル訓練
【0137】
モデル訓練プロセスにおいて、モデル訓練ノードはAIモデルの構造を決定してよく、構造は、AIモデルの入力フォーマット及び出力フォーマットを含む。AIモデルの入力フォーマットにおける入力データの長さは、訓練データの中で最長である訓練サンプルの長さよりも長いか又はそれに等しい。AIモデルの出力フォーマットにおける出力データの長さは、訓練データの中で最長であるラベルの長さよりも長いか又はそれに等しい。AIモデルは、複数の帯域幅及び複数の異なるタイプの参照信号を含む上記の収集された訓練データが処理された後に取得された訓練データを使用することによって、訓練される。AIモデルの訓練プロセスにおいて、訓練サンプル、つまり第1入力訓練データはパディングされる。パディングされた入力訓練データの長さは、AIモデルの入力データの長さと同じである。AIモデルの第1出力訓練データはトランケーションされ、トランケーションされた出力訓練データの長さは、対応するラベルの長さと同じである。モデル訓練ノードは、第2出力訓練データ及びラベルに基づき損失関数の値を決定し得る。損失関数の値が閾値よりも小さいか又は目標要件を満足する場合、AIモデルの訓練は完了する。代替的に、損失関数の値が閾値以上であるか又は目標要件を満足しない場合、AIモデルのパラメータは調整され、AIモデルの訓練は続く。
【0138】
モデルデプロイ
【0139】
本願において、モデル訓練ノードは、訓練されたAIモデルをモデル推論ノードへ送る必要があり、更には、AIモデルのためのデータ処理方法をモデル推論ノードに指示して、モデル推論ノードが同じAIモデルを正しく用いて、異なる帯域幅及び異なるタイプの参照信号でのチャネル推定タスクを完了できるようにする必要がある。例えば、モデルデプロイホストは、指示情報をモデル推論ノードへ送信してよく、このとき、指示情報は、AIモデルのためのデータ処理方法を指示し、指示情報は、入力データパディング規則、出力データトランケーション規則、などを指示し得る。
【0140】
モデル推論
【0141】
モデル推論ノードは、異なる帯域幅及び異なるタイプの参照信号でのチャネル推定タスクを完了するために、AIモデルのための、モデル訓練ノードによって指示されたデータ処理方法に従って、モデル推論を実行する。例えば、入力データは、モデル訓練プロセスでのパディング規則と同じパディング規則を使用することによってパディングされ、出力データは、モデル訓練プロセスでのトランケーション規則と同じトランケーション規則を使用することによってトランケーションされる。
【0142】
本願において、周波数領域チャネル推定が、AIモデルを使用することによってチャネル推定を行うプロセスについて記載するために、一例として使用される。チャネル推定は他のシナリオも含むことが理解されるべきである。各シナリオにおいて、入力データ及び出力データは異なる。例えば、従来方法を使用することによって大まかに推定されたチャネルに対して更なるチャネル推定が実行される必要があるシナリオでは、入力データは、参照信号によって占有されるRE上のノイズを含むチャネルであり、出力データは、スケジューリングされた帯域幅内の全てのRE上のチャネルである。推論結果を取得するために、入力データはパディングされる必要があり、出力データはトランケーションされる必要がある。他の例として、遅延領域チャネル推定のシナリオでは、入力データは受信信号及び参照信号であり、出力データは遅延領域チャネルである。入力データはパディングされる必要があり、出力データなどに対してはデータのトランケーションは実行される必要がない。
【0143】
本願において、AIモデルの入力データはパディングされ、AIモデルの出力データはトランケーションされ、それにより、複数の帯域幅及び異なる参照信号パターンの場合におけるチャネル推定タスクは、1つのAIモデルを使用することによって完了することができる。
【0144】
同じAIモデルを使用することによって異なる帯域幅及び/又は異なるアンテナポート(チャネル特徴長さ)で実行されるCSIフィードバックについて記載するために、CSIフィードバックシナリオが例として使用される。このシナリオでは、AIモデルの入力データはパディングされ、AIモデルの出力データはトランケーションされる。
【0145】
理解を容易にするために、
図12に示されるように、AIベースのCSIフィードバックプロシージャが最初に記載される。
【0146】
UEは、ダウンリンクチャネル応答H又はダウンリンクチャネルの特徴情報Wを取得する。第1サブモデルがUEでデプロイされ、第1サブモデルはサブモデルfと呼ばれ得る。ダウンリンクチャネル応答H又はダウンリンクチャネルの特徴情報Wは、サブモデルfの入力として使用され、サブモデルfの出力は、CSIに対応するフィードバックビットBである。フィードバックビットBは基地局へ送信される。第2サブモデルが基地局ではデプロイされ、第2サブモデルはサブモデルgと呼ばれ得る。フィードバックビットBはサブモデルgの入力として使用され、サブモデルgの出力は、
【数12】
である。
【0147】
ダウンリンクチャネル応答Hの次元は、帯域幅×アンテナポート数であり、このとき、アンテナポートには、基地局のアンテナポート及び/又はUEのアンテナポートが含まれる。CSIフィードバックのために基地局によって設定される帯域幅は異なってもよく、例えば、4RB又は8RBであってよい。1RBの粒度が例として使用される。この場合、帯域幅次元でのダウンリンクチャネルの長さは4又は8になる。CSIフィードバックのために基地局によって設定されるアンテナポート数は異なってもよく、例えば、16ポート又は32ポートであってよい。この場合、アンテナポート次元でのダウンリンクチャネルの長さは4又は8になる。
【0148】
ダウンリンクチャネルの特徴情報Wの次元は、サブ帯域の数×固有ベクトル長(基地局のアンテナポート数)である。基地局によって設定されるサブ帯域の数は異なってもよく、例えば、6サブ帯域又は12サブ帯域であってよい。この場合、特徴情報であるサブ帯域次元におけるダウンリンクチャネルの長さは6又は12になる。CSIフィードバックのために基地局によって設定される固有ベクトル長は異なってもよく、例えば、16又は32であってよい。この場合、特徴情報である固有ベクトル次元におけるダウンリンクチャネルの長さは16又は32になる。
【0149】
ダウンリンクチャネルの特徴情報Wは、ダウンリンクチャネル応答Hに基づき計算により取得される。具体的な計算方法は次の通りである。
【0150】
共分散行列R
UUは、各サブ帯域のダウンリンクチャネル応答Hについて計算され、
【数13】
であり、このとき、H
iは、i番目の単位帯域幅でのチャネルであり、Mはサブ帯域粒度、つまり、各サブ帯域に含まれる単位帯域幅の数である。例えば、単位帯域幅がRBである場合、H
iはi番目のRBでのチャネルであり、サブ帯域粒度が4RBである場合、Mは4に等しい。
【0151】
固有値分解が、各サブ帯域の共分散行列に対して実行され、
【数14】
であり、このとき、λにはR
UUの少なくとも1つの固有値が含まれ、
【数15】
は、全ての固有値に対応する固有ベクトルを含む行列である。最大固有値に対応する固有ベクトルV
mは、当該サブ帯域のチャネルの固有ベクトルである。全てのサブ帯域の固有ベクトルはその後に行列、つまり、ダウンリンクチャネルの固有ベクトル行列Vにまとめられ、これは、代替的に、ダウンリンクチャネルの特徴情報Wとも呼ばれ得る。
【0152】
任意に、ダウンリンクチャネルの特徴行列Vは更に処理され、よりスパースな空間に投影され得る。例えば、夫々空間領域基底S及び周波数領域基底FであるDFT基底の2グループが、離散フーリエ変換(discrete Fourier transform,DFT)式を使用することによって生成される。空間-周波数結合投影については、次の式:C=SH*V*Fを参照されたく、このとき、SHは、Sの共役転置行列である。投影後に取得されたCは、代替的に、ダウンリンクチャネルの特徴情報Wとも呼ばれ得る。投影後、Vのサブ帯域次元は遅延次元に変換され、Vの固有ベクトル(基地局のアンテナポート)次元はビーム(角度)次元に変換されるが、次元の長さは変わらないままである。従って、ダウンリンクチャネルの特徴情報Wが投影の前又は後に取得されるかどうかにかかわらず、ダウンリンクチャネルの特徴情報Wの次元は、サブ帯域の数×固有ベクトル長(基地局のアンテナポート数)と記述される。
【0153】
訓練データ収集
【0154】
このシナリオでは、訓練サンプル及びラベルは両方とも、ダウンリンクチャネル応答H又はダウンリンクチャネルの特徴情報Wである。訓練データは、異なる次元においてダウンリンクチャネル応答H又はダウンリンクチャネルの特徴情報Wを含み得る。具体的な次元は上で示されている。
【0155】
訓練データ処理
【0156】
訓練データ処理は、第1入力訓練データにパディングすることを含み、パディングされた入力訓練データは第2入力訓練データと呼ばれ、第2入力訓練データの長さは、AIモデルの入力データの長さと同じである。第1出力訓練データは、第2入力訓練データ及びAIモデルに基づき決定される。第1出力訓練データは、第2出力訓練データを決定するようトランケーションされ、第2出力訓練データの長さは、ラベルの長さと同じである。
【0157】
この実施形態では、第1入力訓練データがダウンリンクチャネル応答Hである場合、ダウンリンクチャネル応答Hは、帯域幅次元及び/又はアンテナポート次元においてパディングされる必要がある。第1入力訓練データがダウンリンクチャネルの特徴情報Wである場合、ダウンリンクチャネルの特徴情報Wは、第2入力訓練データを取得するよう、サブ帯域次元及び/又は固有ベクトル次元においてパディングされる必要があり、第2入力訓練データの長さは、AIモデルの入力データの長さと同じである。第1出力訓練データは、第2入力訓練データ及びAIモデルに基づき決定される。ラベルがダウンリンクチャネル応答Hである場合、第1出力訓練データは、帯域幅次元及び/又はアンテナポート次元においてトランケーションされる必要がある。ラベルがダウンリンクチャネルの特徴情報Wである場合、第1出力訓練データは、第2出力訓練データを取得するよう、サブ帯域次元及び/又は固有ベクトル次元においてトランケーションされる必要があり、第2出力訓練データの長さは、ラベルの長さと同じである。
【0158】
具体的なパディング方法及び具体的なトランケーション方法は、上記の実施形態におけるそれらと同様である。詳細は再び記載されない。
【0159】
モデル訓練
【0160】
モデル訓練プロセスにおいて、モデル訓練ノードはAIモデルの構造を決定してよく、構造は、AIモデルの入力フォーマット及び出力フォーマットを含む。AIモデルの入力フォーマットにおける入力データの長さは、訓練データの中で最長である訓練サンプルの長さよりも長いか又はそれに等しい。AIモデルの出力フォーマットにおける出力データの長さは、訓練データの中で最長であるラベルの長さよりも長いか又はそれに等しい。AIモデルは、複数の帯域幅及び複数の異なるタイプの参照信号を含む上記の収集された元の訓練データが処理された後に取得された訓練データを使用することによって、あるいは、複数個のサブ帯域及び/又は複数の固有ベクトル長を含む上記の収集された元の訓練データが処理された後に取得された訓練データを使用することによって、訓練される。AIモデルの訓練プロセスにおいて、訓練サンプル、つまり第1入力訓練データはパディングされる。パディングされた入力訓練データの長さは、AIモデルの入力データの長さと同じである。AIモデルの第1出力訓練データはトランケーションされ、トランケーションされた出力訓練データの長さは、対応するラベルの長さと同じである。モデル訓練ノードは、第2出力訓練データ及びラベルに基づき損失関数の値を決定し得る。損失関数の値が閾値よりも小さいか又は目標要件を満足する場合、AIモデルの訓練は完了する。代替的に、損失関数の値が閾値以上であるか又は目標要件を満足しない場合、AIモデルのパラメータは調整され、AIモデルの訓練は続く。
【0161】
モデルデプロイ
【0162】
本願において、モデル訓練ノードは、訓練されたAIモデルをモデル推論ノードへ送る必要があり、更には、AIモデルのためのデータ処理方法をモデル推論ノードに指示して、モデル推論ノードが同じAIモデルを正しく用いて、異なる帯域幅及び/又は異なるアンテナポート数でのCSIフィードバック推定タスクを完了できるように、あるいは、モデル推論ノードが同じAIモデルを用いて、異なる数のサブ帯域及び/又は異なる固有ベクトル長でのCSIフィードバックタスクを完了することができるようにする必要がある。例えば、モデルデプロイホストは、指示情報をモデル推論ノードへ送信してよく、このとき、指示情報は、AIモデルのためのデータ処理方法を指示し、指示情報は、入力データパディング規則、出力データトランケーション規則、などを指示し得る。
【0163】
モデル推論
【0164】
モデル推論ノードは、異なる帯域幅及び/又は異なるアンテナポート数でのCSIフィードバックタスクを完了するために、あるいは、異なる数のサブ帯域及び/又は異なる固有ベクトル長でのCSIフィードバックタスクを完了するために、AIモデルのための、モデル訓練ノードによって指示されたデータ処理方法に従って、モデル推論を実行する。例えば、入力データは、モデル訓練プロセスでのパディング規則と同じパディング規則を使用することによってパディングされ、出力データは、モデル訓練プロセスでのトランケーション規則と同じトランケーション規則を使用することによってトランケーションされる。
【0165】
CSIフィードバックシナリオでは、AIモデルのための入力データ処理方法は、AIモデルの入力データがダウンリンクチャネル又はダウンリンクチャネルの特徴情報であるかどうか、ダウンリンクチャネルの特徴情報がダウンリンクチャネルの特徴行列又はスパース投影後に取得された特徴行列であるかどうか、などを更に指示し得る。AIモデルのための出力データ処理方法は、AIモデルの出力データがダウンリンクチャネル又はダウンリンクチャネルの特徴情報であるかどうか、ダウンリンクチャネルの特徴情報がダウンリンクチャネルの特徴行列又はスパース投影後に取得された特徴行列であるかどうか、などを更に指示し得る。
【0166】
上述されたように、AIモデルのためのデータ処理方法は、次の:AIモデルのための入力データ処理方法、又はAIモデルのための出力データ処理方法、のうちの少なくとも1つを含む。この設計では、AIモデルのための入力データ処理方法が入力データトランケーション方法であり、AIモデルのための出力データ処理方法が出力データパディング方法であることが、主に記載される。代替的に、それは、次のように記載されてもよい:AIモデルのためのデータ処理方法は、次の:AIモデルのための入力データトランケーション方法又はAIモデルのための出力データパディング方法、のうちの少なくとも1つを含む。
【0167】
この設計では、モデル訓練ノードがAIモデルのためのデータ処理方法に従ってモデル訓練を実行することは、入力データトランケーション方法に従って第1入力訓練データをトランケーションして第2入力訓練データを取得し、第2入力訓練データ及びAIモデルに基づき第1出力訓練データを決定し、出力データパディング方法に従って第1出力訓練データにパディングして第2出力訓練データを取得し、第2出力訓練データに基づきAIモデルに対してパラメータ調整を実行することを含む。
【0168】
この設計では、モデル推論ノードがAIモデルのためのデータ処理方法に従ってモデル推論を実行することは、入力データトランケーション方法に従って第1入力データをトランケーションして第2入力データを取得し、第2入力データ及びAIモデルに基づき第1出力データを決定し、出力データパディング方法に従って第1出力データにパディングすることを含む。パディングされた第1出力データは、第2出力データと呼ばれることがあり、第2出力データは、AIモデルの推論結果と呼ばれることがある。
【0169】
この設計では、入力データトランケーション方法は、次の:トランケーション後に取得された長さ、又はデータトランケーション規則、のうちの少なくとも1つを含み得る。出力データパディング方法は、次の:パディング後に取得された長さ、パディングデータタイプ、データパディング規則、など、のうちの少なくとも1つを含み得る。具体的なトランケーション及びパディングの説明については、上記の設計を参照されたい。
【0170】
例えば、入力データ内の部分データが有効なデータであり、入力データ内の残りの部分は無効なデータであるか、あるいは、入力データのエネルギが主に部分データに集中している場合、入力データはモデル推論プロセス又はモデル訓練プロセスでトランケーションされ得る。異なる長さの入力データは、統一された長さを有するようトランケーションされる。トランケーションされた入力データの長さは、AIモデルの入力データの長さと同じである。出力データは、トランケーションされた入力データ及びAIモデルに基づき決定される。次いで、AIモデルの出力データはパディングされる。
【0171】
CSIフィードバックシナリオが例として使用される。ダウンリンクチャネルの特徴情報Wがスパース投影後に取得された特徴行列である場合、Wは角度領域及び/又は遅延領域で疎であり、すなわち、Wの次元はサブ帯域の数×固有ベクトル長であるが、行列内のほとんどの要素の値は小さく、行例の総エネルギはいくつかの角度及び遅延パスに主に集中している。この場合、ダウンリンクチャネルの特徴情報Wはトランケーションされてよく、大きい値を持ったいくつかの要素のみが、第2入力データを取得するよう留保される。第1出力データは、第2入力データ及びAIに基づき決定され、次いで、第1出力データは、第2出力データ、つまり、AIモデルを使用することによってリストアされたダウンリンクチャネルの特徴情報
【数16】
を取得するよう、パディングされる。
【0172】
上記の設計では、入力データはトランケーションされ、出力データはパディングされ、それにより、異なるシナリオでのタスク推論は、1つのAIモデルを使用することによって完了できる。
【0173】
他の設計では、AIモデルは第1サブモデル及び第2サブモデルを含む。AIモデルのためのデータ処理方法は、次の:第1サブモデルの出力に対するデータトランケーションの実行、又は第2サブモデルの入力に対するデータパディングの実行、のうちの少なくとも1つを含む。代替的に、それは次のように記載されてもよい:AIモデルのためのデータ処理方法は、次の、AIモデル(例えば、第1サブモデル)のための出力データトランケーション方法、又はAIモデル(例えば、第2サブモデル)のための入力データパディング方法、のうちの少なくとも1つを含む。
【0174】
この設計では、モデル訓練ノードがAIモデルのためのデータ処理方法に従ってモデル訓練を実行することは、第1サブモデルの入力訓練データ及び第1サブモデルに基づき第1サブモデルの第1出力訓練データを決定することと、第1サブモデルの第2出力訓練データを取得し、第1サブモデルの第2出力訓練データに基づき第2サブモデルの第1入力訓練データを取得するよう、出力データトランケーション方法に従って第1出力訓練データに対してデータトランケーションを実行することと、第2入力訓練データを取得するよう、入力データパディング方法に従って第2サブモデルの第1入力訓練データに対してデータパディングを実行することと、第2入力訓練データ及び第2サブモデルに基づき第2サブモデルの出力訓練データを決定することと、第1サブモデルの入力訓練データ及び第2サブモデルの出力訓練データに基づき、次の、第1サブモデルのモデルパラメータ、又は第2サブモデルのモデルパラメータ、のうちの少なくとも1つを調整することと、を含む。
【0175】
モデル推論ノードがAIモデルのためのデータ処理方法に従ってモデル推論を実行することは、第1サブモデルの第1出力データを決定し、出力データトランケーション方法に従って第1出力データに対してデータトランケーションを実行することを含む。モデル推論ノードがAIモデルのためのデータ処理方法に従ってモデル推論を実行することは、入力データパディング方法に従って第1入力データにパディングして第2入力データを取得し、第2入力データ及び第2サブモデルに基づき第1出力データを決定することを含む。具体的な入力データパディング方法及び具体的な出力データトランケーション方法については、上記の設計の説明を参照されたい。
【0176】
本願では、第1サブモデルのモデル推論ノード及び第2サブモデルのモデル推論ノードは、同じノード又は異なるノードであってよい。これは限定されない。例えば、ダウンリンクチャネル測定シナリオでは、第1サブモデルの推論ノードはUEであり、第2サブモデルの推論ノードは基地局であってよい、など。代替的に、アップリンクチャネル測定シナリオでは、第1サブモデルの推論ノードは基地局であり、第2サブモデルの推論ノードはUEであってよい、など。
【0177】
ダウンリンクチャネルのCSIフィードバックシナリオが、同じAIモデルを使用することによってフィードバックビットの異なる長さの場合におけるCSIフィードバックについて説明するために、例として使用される。
【0178】
無線ネットワークにおいて、フィードバックビットBの長さは基地局によって決定され、通常は固定されない。例えば、基地局がより高いCSI回復精度を得ることを期待する場合、UEは、より多くのフィードバックビットをフィードバックし得る。この場合、フィードバックビットBの長さは長い。代替的に、基地局がCSIフィードバックオーバーヘッドを減らすことを期待する場合、UEは、より少ないフィードバックビットをフィードバックし得る。この場合、フィードバックビットBの長さは短い。設計において、フィードバックビットBの長さは固定されないので、各フィードバックビットBについて、互いに対応するサブモデルf及びサブモデルgの対は訓練される必要がある。その結果、AIモデルの訓練及び保持のためのオーバーヘッドは高い。
【0179】
本願では、AIモデルが設計されてよく、AIモデルは、フィードバックビットBの異なる長さの場合に適用可能であり得る。続いて、本願は、訓練データ収集、訓練データ処理、モデル訓練、モデルデプロイ、モデル推論、などに関して記載される。
【0180】
訓練データ収集
【0181】
CSIフィードバックシナリオでは、フィードバックビットは、CSIフィードバックAIモデル全体の中間結果であり、サブモデルfの出力データ及びサブモデルgの入力データとしても考えることができる。本願では、フィードバックビットBは訓練データとしても考えられる。
【0182】
訓練データセットは、AIモデルの適用シナリオに基づいて決定される。訓練データセットは、AIモデルが様々な長さのフィードバックビットBで優れたパフォーマンスを達成することができるように、当該適用シナリオにおけるフィードバックビットBの全てのとり得る長さの訓練データを含む。本願において、訓練データの夫々は訓練サンプル、フィードバックビットB、及びラベルを含む。訓練サンプル及びラベルは、同じであり、両方ともダウンリンクチャネル又はダウンリンクチャネルの特徴情報Hである。例えば、フィードバックビットBの長さが20、30、及び40であるCSIフィードバックに適用可能であり得るAIモデルが訓練されると期待される場合、訓練データは、長さが20、40、及び60であるフィードバックビットBを含む。確かに、訓練データは、全ての長さのフィードバックビットBに対応する訓練サンプル及びラベルを含む必要が更にある。例えば、長さが20であるフィードバックビットBの場合、訓練データは訓練サンプル、フィードバックビットB(20)及びラベルを含む必要がある。訓練サンプルは、UEによって取得されたダウンリンクチャネル又はダウンリンクチャネルの特徴情報Hであってよく、ラベルは、基地局によって正確にリストアされたダウンリンクチャネル又はダウンリンクチャネルの特徴情報
【数17】
であってよい。
【0183】
訓練データ処理
【0184】
本願では、
図13に示されるように、訓練データ処理は、サブモデルfの出力データの長さがフィードバックビットBの長さが同じであることができるようサブモデルfの出力データをトランケーションし、フィードバックビットBの長さがサブモデルgの入力データの長さと同じであることができるようにするようフィードバックビットBにパディングすることを含む。
【0185】
本願において、トランケーション規則は、前方でのトランケーション、後方でのトランケーション、中間でのトランケーション、両側でのトランケーション、等しい間隔のトランケーション、等しくない間隔のトランケーション、などのうちの1つ以上であってよい。これは限定されない。
【0186】
例えば、サブモデルfの出力データはA=[A1,A2,・・・,A60]である。
【0187】
フィードバックビットBの長さが20である場合、20個の要素が、サブモデルfの出力データAからトランケーションされ得る。例えば、最初の20個の要素がAからトランケーションされてよく、トランケーションされた出力データはフィードバックビットB=[A1,A2,・・・,A20]である。代替的に、1つの要素が、3要素の間隔でAからトランケーションされ、フィードバックビットはB=[A1,A4,・・・,A58]である。
【0188】
フィードバックビットBの長さが40である場合、40個の要素がAからトランケーションされ得る。例えば、最初の40個の要素がAからトランケーションされ、フィードバックビットはB=[A1,A2,・・・,A40]である。代替的に、2つの要素が、3要素の間隔でAからトランケーションされ、フィードバックビットはB=[A1,A2,A4,A5,・・・,A58,A60]である。
【0189】
フィードバックビットの長さが60である場合、データトランケーションはAに対して実行されなくてもよく、フィードバックビットはB=[A1,A2,・・・,A60]である。
【0190】
トランケーション後、訓練データは、異なる長さのフィードバックビットを含むので、訓練データはパディングされる必要がある。パディングされたデータは、サブモデルgの入力として使用される。パディング規則は、前方でのパディング、後方でのパディング、中間でのパディング、両側でのパディング、等しい間隔のパディング、又は等しくない間隔のパディングのうちの1つ以上であってよい。これは限定されない。パディング値は0、又は極めて大きい正の数、又は極めて小さい負の数などであってよい。これは限定されない。
【0191】
例えば、フィードバックビットBの長さが20であり、サブモデルgの第1入力データがフィードバックビットB=[A1,A2,・・・,A20]であり、サブモデルfの入力長さが60である場合、サブモデルgのパディングされた入力データはC=[A1,A2,・・・,A20,0,0,・・・,0]である。
【0192】
フィードバックビットBの長さが40であり、サブモデルgの第1入力データがフィードバックビットB=[A1,A2,・・・,A40]であり、サブモデルfの入力長さが60である場合、サブモデルgのパディングされた入力データはC=[A1,A2,・・・,A40,0,0,・・・,0]である。
【0193】
フィードバックビットBの長さが60であり、サブモデルfの入力データの長さが60である場合、フィードバックビットBはもはやパディングされず、サブモデルgの入力はC=B=[A1,A2,・・・,A60]である。
【0194】
パディング規則はトランケーション規則と無関係であってよく、あるいは、トランケーション規則と一致してもよい。例えば、サブモデルfの出力データの前方にある要素がトランケーションされている場合、フィードバックビットは、フィードバックビットの後方にパディングされ得る、など。
【0195】
なお、本願では、フィードバックビットBが訓練データとして見なされているが、実際には、フィードバックビットBはAIモデルによって生成された中間結果であり、すなわち、フィードバックビットBは訓練又は推論プロセスでのみ生成される。フィードバックビットBに対する上記のトランケーション操作及びパディング操作は、訓練又は推論プロセスで行われる。
【0196】
モデル訓練
【0197】
AIモデルの入力データの長さ及び出力データの長さが決定される。サブモデルfの出力データの長さは、訓練データの中で最長であるフィードバックビットBの長さよりも長いか又はそれに等しく、サブモデルgの入力データの長さは、訓練データの中で最長であるフィードバックビットBの長さよりも長いか又はそれに等しい。
【0198】
サブモデルf及びサブモデルgは、複数の長さのフィードバックビットBを含む上記の訓練データが処理された後に取得された訓練データを使用することによって、訓練される。上述されたように、訓練データは、訓練サンプル、ラベル、及びフィードバックビットBを含む。モデル訓練プロセスは、次の:入力訓練データ(例えば、訓練サンプル)をサブモデルfに入力して、サブモデルfの第1出力訓練データを取得することと、サブモデルfの第2出力データを取得するよう、サブモデルfの第1出力訓練データをトランケーションし、第1出力訓練データの長さが目標長さにトランケーションされ、目標長さがAIモデルの適用シナリオにおけるフィードバックビットの全ての可能性がある長さであることと、サブモデルfの第2出力データに基づきサブモデルgの第1入力訓練データを取得することと、第1入力訓練データにパディングし、パディングされた第1入力訓練データの長さがサブモデルgの入力長さと同じであり、パディングされた第1入力訓練データが第2入力訓練データと呼ばれることと、第2入力訓練データ及びサブモデルgに基づきサブモデルgの出力訓練データを取得することと、サブモデルfの入力訓練データ及びサブモデルgの出力訓練データに基づき、次の:サブモデルfのパラメータ、又はサブモデルgのパラメータ、のうちの少なくとも1つを調整することとを含む。例えば、第1サブモデルfのものである、1つの入力訓練データ(すなわち、訓練サンプル)及び対応するラベルが決定され、損失関数の値が、ラベル及びサブモデルgの出力訓練データに基づき決定され、損失関数の値が閾値よりも小さいか又は目標要件を満足する場合、サブモデルf及びサブモデルgの訓練は完了し、あるいは、損失関数の値が閾値以上であるか又は目標要件を満足しない場合、サブモデルfのパラメータ及び/又はサブモデルgのパラメータは調整され、サブモデルf及びサブモデルgの訓練は続く。
【0199】
モデルデプロイ
【0200】
モデル訓練を実行するノードがモデル推論を実行するノードとは異なる場合、モデルデプロイが実行される必要がある。具体的に言えば、モデル訓練ノードは、訓練されたAIモデルをモデル推論ノードへ送る必要がある。本願において、モデル訓練ノードは、AIモデルをモデル推論ノードへ送る必要があり、更には、AIモデルのためのデータ処理方法をモデル推論ノードに指示して、モデル推論ノードが同じAIモデルを正しく用いて、異なる長さのフィードバックビットBでのCSIフィードバックタスクを完了できるようにする必要がある。AIモデルのためのデータ処理方法は、データパディング規則、データトランケーション規則、などを含む。
【0201】
モデル推論
【0202】
モデル推論ノードは、AIモデルのための、モデル訓練ノードによって指示されたデータ処理方法に従って、フィードバックビットBの異なる長さでのCSIフィードバックタスクを完了するために、AIモデルを正しく使用し得る。言い換えれば、モデル推論ノードは、訓練データ処理方法の規則と同じ規則を使用することによって、モデル推論中にデータを処理する。例えば、UEがサブモデルfを使用する場合、UEはダウンリンクチャネル応答Hを取得し、ダウンリンクチャネル応答Hをサブモデルfに入力して、サブモデルfの出力データを取得する。UEは、基地局によって設定されたフィードバックビットBの長さに基づいて、かつ、訓練中にサブモデルfの出力データのために使用されたのと同じトランケーション規則を使用することによって、推論中にサブモデルfの出力データをトランケーションして、推論のためのフィードバックビットBを取得する。UEはフィードバックビットBを基地局にフィードバックする。基地局は、訓練中にフィードバックビットBにパディングするために使用されたのと同じパディング方式で、推論中にフィードバックビットにパディングし、次いで、サブモデルBを使用することによってダウンリンクチャネル応答Hをリストアする。
【0203】
この設計では、サブモデルfの出力は、異なる長さのフィードバックビットBにトランケーションされ、異なる長さのフィードバックビットBは、サブモデルgの同じ長さの入力データにパディングされ、それにより、複数の長さのフィードバックビットBの場合におけるCSIフィードバックに使用され得るAIモデルは訓練され得る。
【0204】
本願では、第1サブモデルの第1出力データが訓練され、第2サブモデルの入力データがパディングされる例が、説明のために使用され、本願を限定する意図はない。例えば、設計において、第1サブモデルの出力データはパディングされてよく、第2サブモデルの入力データはトランケーションされてよい、など。更に、本願では、第1サブモデルの出力データ及び第2サブモデルの入力のデータを処理するプロセスが、主に記載される。本願では、第1サブモデルの入力データ及び第2サブモデルの出力データが処理されるかどうかは限定されない。例えば、設計において、第1サブモデルの第1入力データは、第1サブモデルの第2入力データを取得するよう処理されてよく、第1サブモデルの第1出力データは、第1サブモデルの第2入力データ及び第1サブモデルに基づき決定され、第1サブモデルの第1出力データは、第1サブモデルの第2出力データを取得するようトランケーション(又はパディング)される。第2サブモデルの第1入力データは、第1サブモデルの第2出力データに基づき取得される。第2サブモデルの第1入力データは、第2サブモデルの第2入力データを取得するようパディング(又はトランケーション)される。第2サブモデルの第1出力データは、第2サブモデルの第2入力データ及び第2サブモデルに基づき取得される。第2サブモデルの第1出力データは、第2サブモデルの第2出力データを取得するよう処理される。第1サブモデルの第1入力データを処理する方式及び第2サブモデルの第1出力データを処理する方式は限定されない。例えば、本願は、入力データ及び出力データを処理する上記のプロセスと組み合わされてよい。例えば、第1サブモデルの第1入力データはパディング又はトランケーションされ、第2サブモデルの第1出力データはトランケーション又はパディングされる。
【0205】
他の設計では、AIモデルのためのデータ処理方法は、次の、入力データ分割方法又は出力データ再組み立て方法、のうちの少なくとも1つを含む。
【0206】
この設計では、モデル訓練ノードがAIモデルのためのデータ処理方法に従ってモデル訓練を実行することは、入力データ分割方法に従って第1入力訓練データに対してデータ分割を実行して、第2入力訓練データを取得することと、第2入力訓練データ及びAIモデルに基づき第1出力訓練データを決定することと、出力データ再組み立て方法に従って第1出力訓練データに対してデータ再組み立てを実行して、第2出力訓練データを取得することと、第2出力訓練データに基づきAIモデルに対してパラメータ調整を実行することとを含む。
【0207】
モデル推論ノードがAIモデルのためのデータ処理方法に従ってモデル推論を実行することは、入力データ分割方法に従って第1入力データに対してデータ分割を実行して、第2入力データを取得することと、第1入力データ及びAIモデルに基づき第1出力データを取得することと、出力データ再組み立て方法に従って第1出力データに対してデータ再組み立てを実行して、第2出力データを取得することとを含む。
【0208】
例えば、入力データ及び/又は出力データが処理される必要があるTransformerなどのAIモデルが、説明のための例として使用される。
【0209】
Transformerは、シーケンス・ツー・シーケンスAIモデルであり、翻訳などの自然言語処理分野に適用された最も古いものである。センテンスの長さは様々であり、Transformerの特徴の1つは、Transformerが任意の長さの入力をサポートすることである。従って、理論上、Transformerは、異なる無線リソース設定のための信号処理に適用可能であり得る。
図14に示されるように、Transformerの入力及び出力は両方ともベクトルセットである。無線信号処理では、通常、処理される必要がある対象は無線信号、無線チャネル、などである。無線信号又は無線チャネルの次元には、通常、時間領域、周波数領域、空間領域、などがある。従って、Transformerが無線信号処理に適用される場合、原データは処理され、ベクトルセットに変換され、Transformerに入力される必要がある。次いで、Transformerによって出力されたベクトルセットは目標データに変換される。
【0210】
原データをベクトルセットに変換し、ベクトルセットを目標データに変換する複数の方法が存在し得る。例えば、原データが12個のサブキャリア及び14個のOFDMシンボルである無線チャネルが例として使用される。
図15に示されるように、時間領域次元において、12×14の原データは、次元が12である14個のベクトルに直接分割され得る。代替的に、
図16に示されるように、12×14の原データは、最初に、2×7の12個の行列に分けられてよく、次いで、2×7の各行列は、次元が14であるベクトルに変換される。確かに、他の分割方法が更に使用されてもよい。同様に、Transformerによって出力された複数のベクトル目標データに組み立て直す複数の方法が存在する。
【0211】
複数の原データ分割方法及び複数の目標データ再組み立て方法が存在する。従って、モデル訓練ノードは、訓練されたAIモデルをモデル推論ノードへ送る必要があり、更には、訓練中の原データ分割方法及び目標データ再組み立て方法をモデル推論ノードに通知して、モデル推論ノードがAIモデルを正しく用いてモデル推論を完了することができることを確かにする必要がある。モデル推論ノードは、訓練中に使用されたのと同じ方法を使用することによって、原データを分割し、AIモデルの出力データを組み立て直す。
【0212】
本願において、入力及び出力が特定の要件に従うTransformerなどのAIモデルの場合、モデル訓練ノードは、モデル推論ノードに対して、原データ分割方法と、AIの出力データを組み立て直す方法とを指示し、それにより、AIモデルは無線ネットワーク内で信号を正確に処理することができる。
【0213】
上記の方法における機能を実装するために、モデル訓練ノード及びモデル利用ノードは、機能を実行するための対応するハードウェア構造及び/又はソフトウェアモジュールを含むことが理解され得る。当業者であれば、本願で記載される例におけるユニット及び方法ステップを参照して、本願がハードウェア又はハードウェアとコンピュータソフトウェアとの組み合わせによって実装され得ることに容易に気付くはずである。機能がハードウェア又はコンピュータソフトウェアによって駆動されるハードウェアによって実行されるかどうかは、技術的解決法の特定の適用シナリオ及び設計制約に依存する。
【0214】
図17及び
図18は、夫々、本願に従う可能な通信装置の可能な構造の図である。これらの通信装置は、上記の方法におけるモデル訓練ノード又はモデル推論ノードの機能を実装するよう構成されてよく、従って、上記の方法の有利な効果を実現することもできる。
【0215】
図17に示されるように、通信装置1700は処理ユニット1710及びトランシーバユニット1720を含む。通信装置1700は、
図8に示されている方法における第1ノードの機能を実装するよう構成される。第1ノードはモデル訓練ノード又はモデル推論ノードであってよい。通信装置1700が
図8に示される方法における第1ノードの機能を実装するよう構成される場合に、それは次の通りである。
【0216】
設計において、処理ユニット1710は、モデルのためのデータ処理方法を決定し、モデルのためのデータ処理方法に従って、次の:モデル訓練の実行又はモデル推論の実行、のうちの少なくとも1つを実施するよう構成され、このとき、
モデルのためのデータ処理方法は、次の:モデルのための入力データパディング方法又はモデルのための出力データトランケーション方法、のうちの少なくとも1つを含むか、あるいは、モデルのためのデータ処理方法は、次の:モデルのための入力データトランケーション方法又はモデルのための出力データパディング方法、のうちの少なくとも1つを含む。
【0217】
他の設計では、トランシーバユニット1720は、指示情報を第2ノードへ送るよう構成され、指示情報は、モデルのためのデータ処理方法を指示し、このとき、
モデルのためのデータ処理方法は、次の:モデルのための入力データパディング方法又はモデルのための出力データトランケーション方法、のうちの少なくとも1つを含むか、あるいは、モデルのためのデータ処理方法は、次の:モデルのための入力データトランケーション方法又はモデルのための出力データパディング方法、のうちの少なくとも1つを含む。
【0218】
処理ユニット1710及びトランシーバユニット1720のより詳細な記載については、
図8に示される方法の関連する記載を直接参照されたい。詳細はここで記載されない。
【0219】
図18に示されるように、通信装置1800はプロセッサ1810及びインターフェース回路1820を含む。プロセッサ1810及びインターフェース回路1820は互いに結合される。インターフェース回路1820はトランシーバ又は入力/出力インターフェースであってよいことが理解され得る。任意に、通信装置1800は、プロセッサ1810によって実行される命令を記憶するか、又はプロセッサ1810による命令の実行に必要な入力データを記憶するか、又はプロセッサ1810が命令を実行した後に生成されるデータを記憶するよう構成されるメモリ1830を更に含んでもよい。
【0220】
通信装置1800が上記の方法を実装するよう構成される場合、プロセッサ1810は、処理ユニット1710の機能を実装するよう構成され、インターフェース回路1820は、トランシーバユニット1720の機能を実装するよう構成される。
【0221】
通信装置が第1ノードに適用されるモジュールである場合、第1ノードのモジュールは、上記の方法における第1ノードの機能を実装する。第1ノードのモジュールは、第1ノードの他のモジュール(例えば、無線周波数モジュール又はアンテナ)から情報を受信し、このとき、情報は、第2ノードによって第1ノードへ送られる。代替的に、第1ノードのモジュールは、情報を第1ノードの他のモジュール(例えば、無線周波数モジュール又はアンテナ)へ送り、このとき、情報は、第1ノードによって第2ノードへ送られる。ここでの第1ノードのモジュールは、第1ノードのベースバンドチップであってよく、あるいは、他のモジュールであってもよい。
【0222】
本願のプロセッサは中央演算処理装置(central processing unit,CPU)であってよく、あるいは、他の汎用プロセッサ、デジタル信号プロセッサ(digital signal processor,DSP)、若しくは特定用途向け集積回路(application-specific integrated circuit,ASIC)、フィールド・プログラマブル・ゲート・アレイ(field programmable gate array,FPGA)、若しくは他のプログラム可能なロジックデバイス、トランジスタロジックデバイス、ハードウェア部品、又はそれらの任意の組み合わせであってもよい。汎用プロセッサはマイクロプロセッサであってよく、あるいは、任意の通常のプロセッサであってもよい。
【0223】
本願のメモリはランダム・アクセス・メモリ、フラッシュメモリ、リード・オンリー・メモリ、プログラム可能リード・オンリー・メモリ、消去可能なプログラム可能リード・オンリー・メモリ、電気的消去可能なプログラム可能リード・オンリー・メモリ、レジスタ、ハードディスク、リムーバブルハードディスク、CD-ROM、又は当該技術でよく知られている任意の他の形態の記憶媒体であってよい。
【0224】
例えば、記憶媒体はプロセッサへ結合され、それにより、プロセッサは記憶媒体から情報を読み出したり、情報を記憶媒体書き込んだりすることができる。記憶媒体は、代替的に、プロセッサのコンポーネントであってもよい。プロセッサ及び記憶媒体はASICに配置されてもよい。更に、ASICは基地局又は端末に位置してよい。確かに、プロセッサ及び記憶媒体は基地局又は端末に別個のコンポーネントとして存在してよい。
【0225】
本願の方法の一部又は全てはソフトウェア、ハードウェア、ファームウェア、又はそれらの任意の組み合わせによって実施され得る。ソフトウェアが方法を実施するために使用される場合、方法の一部又は全てはコンピュータプログラム製品の形で実施されてよい。コンピュータプログラム製品は1つ以上のコンピュータプログラム又は命令を含む。コンピュータプログラム又は命令がコンピュータにロードされて実行されるとき、本願に従うプロシージャ又は機能の全て又は一部が実行される。コンピュータは汎用コンピュータ、専用コンピュータ、コンピュータネットワーク、ネットワークデバイス、ユーザ装置、コアネットワークデバイス、OAM、又は他のプログラム可能な装置であってよい。コンピュータプログラム又は命令は、コンピュータ可読記憶媒体に記憶されてよく、あるいは、コンピュータ可読記憶媒体から他のコンピュータ可読記憶媒体へ伝送されてよい。例えば、コンピュータプログラム又は命令は1つのウェブサイト、コンピュータ、サーバ、又はデータセンターから他のウェブサイト、コンピュータ、サーバ、又はデータセンターへ有線又は無線方式で伝送されてよい。コンピュータ可読記憶媒体は、コンピュータがアクセスできる任意の有用な媒体、又はデータ記憶デバイス、例えば、1つ以上の有用な媒体を組み込んだサーバ又はデータセンターであってよい。有用な媒体は、磁気媒体、例えばフロッピーディスク、ハードディスク、又は磁気テープであってよく、あるいは、光学媒体、例えばデジタルビデオディスクであってよく、あるいは、半導体媒体、例えばソリッドステートドライブであってよい。コンピュータ可読記憶媒体は揮発性又は不揮発性記憶媒体であってよく、あるいは、2種類の記憶媒体、つまり、揮発性記憶媒体と不揮発性記憶媒体を含んでもよい。
【0226】
本願で、別なふうに述べられない限り又は論理的矛盾がない限り、異なる実施形態における用語及び/又は記載は一貫性があり、相互参照されてよく、異なる実施形態における技術的特徴は、新しい実施形態を形成するように、その内部の論理的な関係に基づいて組み合わされてよい。
【0227】
本願で、「少なくとも1つ」は1つ以上を意味し、「複数」は2つ以上を意味する。「及び/又は」は、関連するオブジェクトどうしの関連付け関係を記述し、3つの関係が存在する可能性があることを表す。例えば、A及び/又はBは、次の場合、Aが単独で存在、AとBの両方が存在、及びBが単独で存在を表すことができ、A及びBは単数又は複数であってよい。本願のテキスト記載において、「/」の文字は、通常、関連するオブジェクトどうしの「又は」関係を示す。本願中の式において、「/」の文字は、関連するオブジェクトどうしの「除算」関係を示す。「A、B又はCのうちの少なくとも1つを含む」とは、Aを含むこと、Bを含むこと、Cを含むこと、AとBを含むこと、AとCを含むこと、BとCを含むこと、AとBとCを含むことを示し得る。
【0228】
本願で使用される様々な数字は、記載を容易にするために区別されているに過ぎず、本願の範囲を限定する意図はないことが理解され得る。上記のプロセスの連続番号は実行順序を意味するものではなく、プロセスの実行順序は、プロセスの機能及び内部ロジックに基づき決定されるべきである。
【0229】
[関連出願の相互参照]
本願は、2021年12月31日に中国国家知識産権局に出願された、発明の名称が「DATA PROCESSING METHOD FOR MODEL, AND APPARATUS」である中国特許出願第202111658528.4号の優先権を主張するものであり、先の中国特許出願は、その全文を参照により本願に援用される。
【手続補正書】
【提出日】2024-08-09
【手続補正1】
【補正対象書類名】特許請求の範囲
【補正対象項目名】全文
【補正方法】変更
【補正の内容】
【特許請求の範囲】
【請求項1】
モデルのためのデータ処理方法であって、
前記モデルのための前記データ処理方法を決定することと、
前記モデルのための前記データ処理方法に従って、次の、モデル訓練の実行、又はモデル推論の実行、のうちの少なくとも1つを実施することと、を有し、
前記モデルのための前記データ処理方法は、次の、前記モデルのための入力データパディング方法、又は前記モデルのための出力データトランケーション方法、のうちの少なくとも1つを有するか、あるいは、前記モデルのための前記データ処理方法は、次の、前記モデルのための入力データトランケーション方法、又は前記モデルのための出力データパディング方法、のうちの少なくとも1つを有する、
方法。
【請求項2】
前記した、前記モデルのための前記データ処理方法を決定することは、
第1ノードから、前記モデルのための前記データ処理方法を指示する指示情報を受け取ることと、
プロトコルで定義されているように前記モデルのための前記データ処理方法を決定することと、を有する、
請求項1に記載の方法。
【請求項3】
前記入力データパディング方法又は前記出力データパディング方法は、次の、パディングされたデータの長さ、パディングデータタイプ、又はデータパディング規則、のうちの少なくとも1つを有する、
請求項
1に記載の方法。
【請求項4】
前記出力データトランケーション方法又は前記入力データトランケーション方法は、次の、トランケーション後のデータの長さ、又はデータトランケーション規則、のうちの少なくとも1つを有する、
請求項1乃至3のうちいずれか一項に記載の方法。
【請求項5】
前記モデルのための前記データ処理方法に従って前記モデル推論を実行することは、
第2入力データを取得するよう、前記入力データパディング方法に従って第1入力データに対してデータパディングを実行することと、
前記第2入力データ及び前記モデルに基づき第1出力データを決定することと、
前記出力データトランケーション方法に従って前記第1出力データに対してデータトランケーションを実行することと、を有する、
請求項1乃至
3のうちいずれか一項に記載の方法。
【請求項6】
前記モデルのための前記データ処理方法に従って前記モデル訓練を実行することは、
第2入力訓練データを取得するよう、前記入力データパディング方法に従って第1入力訓練データに対してデータパディングを実行することと、
前記第2入力訓練データ及び前記モデルに基づき第1出力訓練データを決定することと、
第2出力訓練データを取得するよう、前記出力データトランケーション方法に従って前記第1出力訓練データに対してデータトランケーションを実行することと、
前記第2出力訓練データに基づき前記モデルに対してパラメータ調整を実行することと、を有する、
請求項1乃至
3のうちいずれか一項に記載の方法。
【請求項7】
前記モデルのための前記データ処理方法に従って前記モデル推論を実行することは、
第2入力データを取得するよう、前記入力データトランケーション方法に従って第1入力データに対してデータトランケーションを実行することと、
前記第2入力データ及び前記モデルに基づき第1出力データを決定することと、
前記出力データパディング方法に従って前記第1出力データに対してデータパディングを実行することと、を有する、
請求項1乃至
3のうちいずれか一項に記載の方法。
【請求項8】
前記モデルのための前記データ処理方法に従って前記モデル訓練を実行することは、
第2入力訓練データを取得するよう、前記入力データトランケーション方法に従って第1入力訓練データに対してデータトランケーションを実行することと、
前記第2入力訓練データ及び前記モデルに基づき第1出力訓練データを決定することと、
第2出力訓練データを取得するよう、前記出力データパディング方法に従って前記第1出力訓練データに対してデータパディングを実行することと、
前記第2出力訓練データに基づき前記モデルに対してパラメータ調整を実行することと、を有する、
請求項1乃至
3のいずれか一項に記載の方法。
【請求項9】
前記モデルは第1サブモデルを有し、前記モデルのための前記データ処理方法に従って前記モデル推論を実行することは、
前記第1サブモデルの第1出力データを決定することと、
前記出力データトランケーション方法に従って前記第1出力データに対してデータトランケーションを実行することと、を有する、
請求項1乃至
3のうちいずれか一項に記載の方法。
【請求項10】
前記モデルは第2サブモデルを有し、前記モデルのための前記データ処理方法に従って前記モデル推論を実行することは、
第2入力データを取得するよう、前記入力データパディング方法に従って第1入力データに対してデータパディングを実行することと、
前記第2入力データ及び前記第2サブモデルに基づき第1出力データを決定することと、を有する、
請求項1乃至
3のうちいずれか一項に記載の方法。
【請求項11】
前記モデルは第1サブモデル及び第2サブモデルを有し、前記モデルのための前記データ処理方法に従って前記モデル訓練を実行することは、
前記第1サブモデルの入力訓練データ及び前記第1サブモデルに基づき前記第1サブモデルの第1出力訓練データを決定することと、
前記第2サブモデルの第1入力訓練データを取得するよう、前記出力データトランケーション方法に従って前記第1出力訓練データに対してデータトランケーションを実行することと、
第2入力訓練データを取得するよう、前記入力データパディング方法に従って前記第2サブモデルの前記第1入力訓練データに対してデータパディングを実行することと、
前記第2入力訓練データ及び前記第2サブモデルに基づき前記第2サブモデルの出力訓練データを決定することと、
前記第1サブモデルの前記入力訓練データ及び前記第2サブモデルの前記出力訓練データに基づき、次の、前記第1サブモデルのモデルパラメータ、又は前記第2サブモデルのモデルパラメータ、のうちの少なくとも1つを調整することと、を有する、
請求項1乃至
3のうちいずれか一項に記載の方法。
【請求項12】
モデルのためのデータ処理方法であって、
前記モデルのための前記データ処理方法を指示する指示情報を第2ノードへ送ることを有し、
前記モデルのための前記データ処理方法は、次の、前記モデルのための入力データパディング方法、又は前記モデルのための出力データトランケーション方法、のうちの少なくとも1つを有するか、あるいは、前記モデルのための前記データ処理方法は、次の、前記モデルのための入力データトランケーション方法、又は前記モデルのための出力データパディング方法、のうちの少なくとも1つを有する、
方法。
【請求項13】
前記入力データパディング方法又は前記出力データパディング方法は、次の、パディングされたデータの長さ、パディングデータタイプ、又はデータパディング規則、のうちの少なくとも1つを有する、
請求項12に記載の方法。
【請求項14】
前記出力データトランケーション方法又は前記入力データトランケーション方法は、次の、トランケーション後のデータの長さ、又はデータトランケーション規則、のうちの少なくとも1つを有する、
請求項12又は13に記載の方法。
【請求項15】
請求項
1に記載の方法を実施するよう構成されたユニットを有する通信装置。
【請求項16】
プロセッサ及びメモリを有し、
前記プロセッサは、前記メモリへ結合され、
前記プロセッサは、請求項
1に記載の方法を実施するよう構成される、
通信装置。
【請求項17】
請求項
12に記載の方法を実施するよう構成されたユニットを有する通信装置。
【請求項18】
プロセッサ及びメモリを有し、
前記プロセッサは、前記メモリへ結合され、
前記プロセッサは、請求項
12に記載の方法を実施するよう構成される、
通信装置。
【請求項19】
請求項15又は16に記載の通信装置と、
請求項17又は18に記載の通信装置と
を有する通信システム。
【請求項20】
命令を記憶するコンピュータ可読記憶媒体であって、
前記命令がコンピュータで実行されると、前記コンピュータは、請求項
1に記載の方
法を実行することができる、
コンピュータ可読記憶媒体。
【請求項21】
命令を記憶するコンピュータ可読記憶媒体であって、
前記命令がコンピュータで実行されると、前記コンピュータは、請求項12に記載の方法を実行することができる、
コンピュータ可読記憶媒体。
【請求項22】
命令を有し、
前記命令がコンピュータで実行されると、前記コンピュータは、請求項
1に記載の方
法を実行することができる、
コンピュータプログラ
ム。
【請求項23】
命令を有し、
前記命令がコンピュータで実行されると、前記コンピュータは、請求項12に記載の方法を実行することができる、
コンピュータプログラム。
【手続補正2】
【補正対象書類名】明細書
【補正対象項目名】0133
【補正方法】変更
【補正の内容】
【0133】
本願において、参照信号の異なるタイプの夫々のYは、最初に、ラベルHの長さと同じ長さを有するようパディングされてよく、次いで、Yは再びパディングされる。具体的に、パディングは、Yの後に実行されてもよい。複数の、パディングされた第1入力訓練データ、つまり複数の第2入力訓練データは、夫々、次の通りである:
4RBのスケジューリングされた帯域幅内のtype-1参照信号に対応するY
1がパディングされた後に取得される
【数8】
4RBのスケジューリングされた帯域幅内のtype-2参照信号に対応するY
2
がパディングされた後に取得される
【数9】
8RBのスケジューリングされた帯域幅内のtype-1参照信号に対応するY
3がパディングされた後に取得される
【数10】
8RBのスケジューリングされた帯域幅内のtype-2参照信号に対応するY
4がパディングされた後に取得される
【数11】
【手続補正3】
【補正対象書類名】明細書
【補正対象項目名】0147
【補正方法】変更
【補正の内容】
【0147】
ダウンリンクチャネル応答Hの次元は、帯域幅×アンテナポート数であり、このとき、アンテナポートには、基地局のアンテナポート及び/又はUEのアンテナポートが含まれる。CSIフィードバックのために基地局によって設定される帯域幅は異なってもよく、例えば、4RB又は8RBであってよい。1RBの粒度が例として使用される。この場合、帯域幅次元でのダウンリンクチャネルの長さは4又は8になる。CSIフィードバックのために基地局によって設定されるアンテナポート数は異なってもよく、例えば、16ポート又は32ポートであってよい。この場合、アンテナポート次元でのダウンリンクチャネルの長さは16又は32になる。
【手続補正4】
【補正対象書類名】明細書
【補正対象項目名】0213
【補正方法】変更
【補正の内容】
【0213】
上記の方法における機能を実装するために、モデル訓練ノード及びモデル推論ノードは、機能を実行するための対応するハードウェア構造及び/又はソフトウェアモジュールを含むことが理解され得る。当業者であれば、本願で記載される例におけるユニット及び方法ステップを参照して、本願がハードウェア又はハードウェアとコンピュータソフトウェアとの組み合わせによって実装され得ることに容易に気付くはずである。機能がハードウェア又はコンピュータソフトウェアによって駆動されるハードウェアによって実行されるかどうかは、技術的解決法の特定の適用シナリオ及び設計制約に依存する。
【手続補正5】
【補正対象書類名】明細書
【補正対象項目名】0229
【補正方法】削除
【補正の内容】
【国際調査報告】