(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公表特許公報(A)
(11)【公表番号】
(43)【公表日】2025-01-17
(54)【発明の名称】通信方法および装置
(51)【国際特許分類】
H04W 24/02 20090101AFI20250109BHJP
H04W 72/0453 20230101ALI20250109BHJP
H04B 7/0417 20170101ALI20250109BHJP
【FI】
H04W24/02
H04W72/0453
H04B7/0417
【審査請求】有
【予備審査請求】未請求
(21)【出願番号】P 2024539726
(86)(22)【出願日】2022-12-28
(85)【翻訳文提出日】2024-08-08
(86)【国際出願番号】 CN2022142946
(87)【国際公開番号】W WO2023125699
(87)【国際公開日】2023-07-06
(31)【優先権主張番号】202111663303.8
(32)【優先日】2021-12-31
(33)【優先権主張国・地域又は機関】CN
(81)【指定国・地域】
(71)【出願人】
【識別番号】503433420
【氏名又は名称】華為技術有限公司
【氏名又は名称原語表記】HUAWEI TECHNOLOGIES CO.,LTD.
【住所又は居所原語表記】Huawei Administration Building, Bantian, Longgang District, Shenzhen, Guangdong 518129, P.R. China
(74)【代理人】
【識別番号】100110364
【氏名又は名称】実広 信哉
(74)【代理人】
【識別番号】100133569
【氏名又は名称】野村 進
(72)【発明者】
【氏名】杭 ▲海▼存
(72)【発明者】
【氏名】▲張▼ 文▲凱▼
(72)【発明者】
【氏名】▲陳▼ 家▲シュアン▼
(72)【発明者】
【氏名】梁 ▲ジン▼
(72)【発明者】
【氏名】▲呉▼ ▲芸▼群
(72)【発明者】
【氏名】▲陳▼ 志堂
(72)【発明者】
【氏名】金 黄平
【テーマコード(参考)】
5K067
【Fターム(参考)】
5K067AA11
5K067DD11
5K067EE02
5K067EE10
5K067HH21
5K067KK01
5K067LL11
(57)【要約】
本開示は、通信方法および装置に関する。端末デバイスは、M個の第1のダウンリンクチャネルサブデータを取得し、各第1のダウンリンクチャネルサブデータは、M個のデータ空間内の1つのデータ空間に対応する。M個の第1のダウンリンクチャネルサブデータ内の第iの第1のダウンリンクチャネルサブデータに関して、端末デバイスは、第iのデータ空間に対応する第1の辞書に基づいて、第iの第1のダウンリンクチャネルサブデータに対応する第1の情報を決定し、合計でM個の第1の情報が決定される。端末デバイスは、M個の第1の情報を示すために、第1の指示情報を送信する。異なるデータ空間は、異なるチャネル環境情報を表すことができる。端末デバイスは、異なるデータ空間に対応する第1の情報をフィードバックし、これにより、アクセスネットワークデバイスは、第1の情報と環境情報との対応関係を決定することができる。この場合、端末デバイスによってフィードバックされる第1の情報は実際の通信環境を反映することができ、端末デバイスによってフィードバックされる第1の情報の精度は改善される。
【特許請求の範囲】
【請求項1】
M個の第1のダウンリンクチャネルサブデータを取得するステップであって、前記第1のダウンリンクチャネルサブデータの各々はM個のデータ空間内の1つのデータ空間に対応し、Mは1より大きい整数である、ステップと、
前記M個の第1のダウンリンクチャネルサブデータ内の第iの第1のダウンリンクチャネルサブデータに関して、前記M個のデータ空間内の第iのデータ空間に対応する第1の辞書に基づいて、前記第iの第1のダウンリンクチャネルサブデータに対応する第1の情報を決定するステップであって、合計でM個の前記第1の情報が決定され、iは1~Mの整数であり、前記第iの第1のダウンリンクチャネルサブデータは前記第iのデータ空間に対応し、前記第1の辞書は複数の要素を含み、前記第iの第1のダウンリンクチャネルサブデータに対応する前記第1の情報は、前記複数の要素内のP個の要素に対応し、Pは正の整数である、ステップと、
第1の指示情報を送信するステップであって、前記第1の指示情報は前記M個の第1の情報を示す、ステップと
を含む通信方法。
【請求項2】
前記第1の指示情報は前記M個の第1の情報の識別子を示し、前記第1の指示情報を送信するステップは、
前記M個の第1の情報の前記識別子を第1の順序で送信するステップであって、前記第1の順序は前記M個のデータ空間の配置順序である、ステップ
を含む、請求項1に記載の方法。
【請求項3】
前記第1の順序は事前定義された順序であるか、
第2の指示情報が受信され、前記第2の指示情報が前記第1の順序を示すか、または
前記第1の順序が決定され、第3の指示情報が送信され、前記第3の指示情報が前記第1の順序を示す、
請求項2に記載の方法。
【請求項4】
前記M個の第1のダウンリンクチャネルサブデータは、第1のダウンリンクチャネルデータに基づいて取得され、
前記第1のダウンリンクチャネルデータは前処理結果であるか、
前記第1のダウンリンクチャネルデータは、前処理結果におけるF個の連続したデータ列を含むか、または
前記第1のダウンリンクチャネルデータは、前処理結果を圧縮することによって取得される圧縮情報であり、
前記前処理結果は、第2のダウンリンクチャネルデータを前処理することによって取得される、
請求項1から3のいずれか一項に記載の方法。
【請求項5】
前記M個のデータ空間の分割方法は事前定義されるか、
第4の指示情報が受信され、前記第4の指示情報が前記M個のデータ空間の分割方法を示すか、または
前記M個のデータ空間の分割方法が決定され、第5の指示情報が送信され、前記第5の指示情報が前記M個のデータ空間の前記分割方法を示す、
請求項1から4のいずれか一項に記載の方法。
【請求項6】
第1の指示情報を受信するステップであって、前記第1の指示情報はM個の第1の情報を示し、Mは1より大きい整数である、ステップと、
前記M個の第1の情報内の第iの第1の情報に関して、M個のデータ空間内の第iのデータ空間に対応する第1の辞書に基づいて、第iの第2のダウンリンクチャネルサブデータを再構築するステップであって、合計でM個の前記第2のダウンリンクチャネルサブデータが取得され、前記第iの第1の情報は前記第iのデータ空間に対応し、iは1~Mの整数であり、前記第1の辞書は複数の要素を含み、前記第iの第2のダウンリンクチャネルサブデータに対応する前記第1の情報は前記複数の要素内のP個の要素に対応する、ステップと、
前記M個の第2のダウンリンクチャネルサブデータに基づいてダウンリンクチャネル情報を再構築するステップと
を含む通信方法。
【請求項7】
第1の指示情報を受信する前記ステップは、
前記M個の第1の情報の識別子を第1の順序で受信するステップであって、前記第1の順序は前記M個のデータ空間の配置順序である、ステップ
を含む、請求項6に記載の方法。
【請求項8】
前記第1の順序は事前定義された順序であるか、
第2の指示情報が送信され、前記第2の指示情報が前記第1の順序を示すか、または
第3の指示情報が受信され、前記第3の指示情報が前記第1の順序を示す、
請求項7に記載の方法。
【請求項9】
前記M個のデータ空間はM個の辞書に対応し、前記データ空間の各々は1つの前記辞書に対応するか、または前記M個のデータ空間はすべて同じ辞書に対応する、請求項6から8のいずれか一項に記載の方法。
【請求項10】
前記M個の第2のダウンリンクチャネルサブデータに基づいてダウンリンクチャネル情報を再構築する前記ステップは、
前記M個の第2のダウンリンクチャネルサブデータに基づいて圧縮情報を取得するステップと、
前記圧縮情報に基づいて前記ダウンリンクチャネル情報を取得するステップと
を含む、請求項6から9のいずれか一項に記載の方法。
【請求項11】
前記M個のデータ空間の分割方法は事前定義されるか、
第4の指示情報が送信され、前記第4の指示情報が前記M個のデータ空間の分割方法を示すか、または
第5の指示情報が受信され、前記第5の指示情報が前記M個のデータ空間の分割方法を示す、
請求項6から10のいずれか一項に記載の方法。
【請求項12】
請求項1から5のいずれか一項に記載の方法を実施するように構成された、または請求項6から11のいずれか一項に記載の方法を実施するように構成された通信装置。
【請求項13】
プロセッサとメモリとを備える通信装置であって、前記メモリは前記プロセッサに結合され、前記プロセッサは、請求項1から5のいずれか一項に記載の方法を実行するように構成されるか、または請求項6から11のいずれか一項に記載の方法を実行するように構成される、通信装置。
【請求項14】
コンピュータ可読記憶媒体であって、前記コンピュータ可読記憶媒体は、コンピュータプログラムを記憶するように構成され、前記コンピュータプログラムがコンピュータ上で動作されるとき、前記コンピュータは、請求項1から5のいずれか一項に記載の方法を実行することを可能にされるか、または前記コンピュータは、請求項6から11のいずれか一項に記載の方法を実行することを可能にされる、コンピュータ可読記憶媒体。
【請求項15】
請求項1から5のいずれか一項に記載の方法を実施するように構成された装置、および/または請求項6から11のいずれか一項に記載の方法を実施するように構成された装置を備える通信システム。
【発明の詳細な説明】
【技術分野】
【0001】
関連出願の相互参照
本出願は、2021年12月31日に中国国家知識産権局に出願された、「通信方法および装置」と題された中国特許出願第202111663303.8号の優先権を主張するものであり、その全体は参照によりここに組み込まれる。
【0002】
本開示は、通信技術の分野に関し、特に、通信方法および装置に関する。
【背景技術】
【0003】
第5世代(the 5th generation、5G)移動通信システムは、システム容量およびスペクトル効率などに対してより高い要件を有する。5G通信システムでは、大規模多入力多出力(massive multiple-input multiple-output、massive-MIMO)技術の適用は、システムのスペクトル効率を改善する上で重要な役割を果たす。基地局は、massive-MIMO技術を使用して、高品質のサービスをより多くのユーザ機器(user equipment、UE)に同時に提供することができる。重要なステップは、基地局が複数のUEのダウンリンクデータをプリコーディングすることである。プリコーディングによって、空間多重化(spatial multiplexing)が実施されることができ、UE間の干渉が低減され、受信機における信号対干渉雑音比(signal to interference plus noise ratio、SINR)が増加し、システムスループットを改善する。UEのダウンリンクデータをより正確にプリコーディングするために、基地局は、ダウンリンクチャネルのチャネル状態情報(channel state information、CSI)を取得し、CSIに基づいてダウンリンクチャネルを再構築し、再構築されたダウンリンクチャネルを使用してプリコーディング行列を決定して、プリコーディングを実行し得る。したがって、UEによってフィードバックされるCSIをより正確にする方法は、研究する価値のある技術的問題である。
【発明の概要】
【0004】
本開示は、UEによってフィードバックされるCSIの精度を改善するために通信方法および装置を提供する。
【課題を解決するための手段】
【0005】
第1の態様によれば、第1の通信方法が提供される。本方法は、端末デバイス側で実行され得る。本方法は、ソフトウェア、ハードウェア、またはソフトウェアとハードウェアとの組合せを使用して実行され得る。例えば、本方法は、端末デバイス、回路システム、または端末デバイスを含む大型デバイスによって実行される。回路システムは、端末デバイスの機能を実施することができる。本方法は、M個の第1のダウンリンクチャネルサブデータを取得するステップであって、各第1のダウンリンクチャネルサブデータはM個のデータ空間内の1つのデータ空間に対応し、Mは1より大きい整数である、ステップと、M個の第1のダウンリンクチャネルサブデータ内の第iの第1のダウンリンクチャネルサブデータに関して、M個のデータ空間内の第iのデータ空間に対応する第1の辞書に基づいて、第iの第1のダウンリンクチャネルサブデータに対応する第1の情報を決定するステップであって、合計でM個の第1の情報が決定され、iは1~Mの整数であり、第iの第1のダウンリンクチャネルサブデータは第iのデータ空間に対応し、第1の辞書は複数の要素を含み、第iの第1のダウンリンクチャネルサブデータに対応する第1の情報は、複数の要素内のP個の要素に対応し、Pは正の整数である、ステップと、第1の指示情報を送信するステップであって、第1の指示情報はM個の第1の情報を示す、ステップとを含む。
【0006】
本開示では、端末デバイスによって取得されるM個の第1のダウンリンクチャネルサブデータの各々は、M個のデータ空間内の1つのデータ空間に対応し得、すべての第1のダウンリンクチャネルサブデータに対応する第1の情報は、異なるデータ空間に対応する辞書に基づいて決定され得る。異なるデータ空間は異なる位置情報を表すことができ、すなわち、異なるデータ空間は異なるチャネル環境情報を表すことができる。端末デバイスは、異なるデータ空間に対応する第1の情報をフィードバックし、これにより、アクセスネットワークデバイスは、第1の情報と環境情報との対応関係を決定することができる。この場合、端末デバイスによってフィードバックされる第1の情報は実際の通信環境を反映することができ、端末デバイスによってフィードバックされる第1の情報の精度は改善される。アクセスネットワークデバイスは、端末デバイスによってフィードバックされた第1の情報に基づいて正確なダウンリンクチャネルを再構築することができる。
【0007】
任意選択の実施態様では、第1の指示情報はM個の第1の情報の識別子を示し、第1の情報を送信するステップは、M個の第1の情報の識別子を第1の順序で送信するステップであって、第1の順序はM個のデータ空間の配置順序である、ステップを含む。第1の順序は、端末デバイスが特定のデータ空間に対応する第1の情報の識別子を最初に送信し、特定のデータ空間に対応する第1の情報の識別子を次に送信することを指定する。端末デバイスおよびアクセスネットワークデバイスに関して、第1の順序は既知である。したがって、M個の第1の情報の識別子を受信した後、アクセスネットワークデバイスは、対応エラーを回避するために、データ空間と第1の情報の識別子との対応関係をさらに決定することができる。
【0008】
任意選択の実施態様では、第1の順序は事前定義された順序であるか、第2の指示情報が受信され、第2の指示情報が第1の順序を示すか、または第1の順序が決定され、第3の指示情報が送信され、第3の指示情報が第1の順序を示す。例えば、第1の順序はプロトコルで事前定義された順序であり、端末デバイスおよびアクセスネットワークデバイスは、プロトコルに従って第1の順序を決定することができる。あるいは、第1の順序は、端末デバイスおよびアクセスネットワークデバイスにおいて事前構成されてもよい。あるいは、第1の順序は、アクセスネットワークデバイスによって決定されてもよい。第1の順序を決定した後、アクセスネットワークデバイスは、第2の指示情報を端末デバイスに送信し得、これにより、端末デバイスは、第2の指示情報に基づいて第1の順序を決定することができる。あるいは、第1の順序は、端末デバイスによって決定されてもよい。第1の順序を決定した後、端末デバイスは、第3の指示情報をアクセスネットワークデバイスに送信し得、これにより、アクセスネットワークデバイスは、第3の指示情報に基づいて第1の順序を決定することができる。第1の順序を決定する方法は柔軟であることが知られることができる。
【0009】
任意選択の実施態様では、M個の第1のダウンリンクチャネルサブデータは、第1のダウンリンクチャネルデータに基づいて取得され、第1のダウンリンクチャネルデータは前処理結果であるか、第1のダウンリンクチャネルデータは、前処理結果におけるF個の連続したデータ列を含むか、または第1のダウンリンクチャネルデータは、前処理結果を圧縮することによって取得される圧縮情報であり、前処理結果は、第2のダウンリンクチャネルデータを前処理することによって取得される。第2のダウンリンクチャネルデータの前処理結果は、第1のダウンリンクチャネルデータとして直接使用されてもよく、前処理結果に対して過剰な処理を実行する必要はない。これは簡単である。あるいは、周波数領域方向(遅延領域)では、一般にエネルギーは主に遅延=0付近に集中し、別の領域のエネルギーは基本的に無視され得ることが考えられる。したがって、端末デバイスは、第1のダウンリンクチャネルデータとして、遅延=0の両側のF個の連続した列を選択し得、残りの部分の係数はデフォルトで0であり得る。この場合、第1のダウンリンクチャネルデータを処理する複雑さが低減されることができる。あるいは、第1のダウンリンクチャネルデータを取得するために前処理結果が圧縮されてもよく、これにより、第1のダウンリンクチャネルデータを処理する複雑さが低減されることができる。ダウンリンクチャネルデータを前処理するプロセスは、例えば、ダウンリンクチャネルデータに対して空間周波数結合射影を実行することを含む。
【0010】
任意選択の実施態様では、M個のデータ空間の分割方法は事前定義されるか、第4の指示情報が受信され、第4の指示情報がM個のデータ空間の分割方法を示すか、またはM個のデータ空間の分割方法が決定され、第5の指示情報が送信され、第5の指示情報がM個のデータ空間の分割方法を示す。例えば、M個のデータ空間の分割方法がプロトコルで事前定義されている場合、端末デバイスとアクセスネットワークデバイスとの両方が、プロトコルに従ってM個のデータ空間の分割方法を決定し得る。あるいは、M個のデータ空間の分割方法は、アクセスネットワークデバイスによって決定される。アクセスネットワークデバイスは、第4の指示情報を端末デバイスに送信し得、これにより、端末デバイスは、第4の指示情報に基づいてM個のデータ空間の分割方法を決定することができる。あるいは、M個のデータ空間の分割方法はUEによって決定されてもよい。UEは、第5の指示情報をアクセスネットワークデバイスに送信し得、これにより、アクセスネットワークデバイスは、第5の指示情報に基づいてM個のデータ空間の分割方法を決定し得る。データ空間を分割する方法は柔軟であることが知られることができる。
【0011】
第2の態様によれば、第2の通信方法が提供される。本方法は、アクセスネットワークデバイス側で実行され得る。本方法は、ソフトウェア、ハードウェア、またはソフトウェアとハードウェアとの組合せを使用して実行され得る。例えば、本方法は、アクセスネットワークデバイス、アクセスネットワークデバイスを含む大型デバイス、または回路システムによって実行される。回路システムは、アクセスネットワークデバイスの機能を実施することができる。あるいは、本方法は、アクセスネットワークデバイスとは独立したAIモジュールの支援を受けて、アクセスネットワークデバイスまたはアクセスネットワークデバイスのネットワーク要素によって実行される。これは限定されない。例えば、アクセスネットワークデバイスは、アクセスネットワークデバイス、例えば基地局である。本方法は、第1の指示情報を受信するステップであって、第1の指示情報はM個の第1の情報を示し、Mは1より大きい整数である、ステップと、M個の第1の情報内の第iの第1の情報に関して、M個のデータ空間内の第iのデータ空間に対応する第1の辞書に基づいて、第iの第2のダウンリンクチャネルサブデータを再構築するステップであって、合計でM個の第2のダウンリンクチャネルサブデータが取得され、第iの第1の情報は第iのデータ空間に対応し、iは1~Mの整数であり、第1の辞書は複数の要素を含み、第iの第2のダウンリンクチャネルサブデータに対応する第1の情報は複数の要素内のP個の要素に対応する、ステップと、M個の第2のダウンリンクチャネルサブデータに基づいてダウンリンクチャネル情報を再構築するステップとを含む。
【0012】
任意選択の実施態様では、第1の指示情報を受信するステップは、M個の第1の情報の識別子を第1の順序で受信するステップであって、第1の順序はM個のデータ空間の配置順序である、ステップを含む。
【0013】
任意選択の実施態様では、第1の順序は事前定義された順序であるか、第2の指示情報が送信され、第2の指示情報が第1の順序を示すか、または第3の指示情報が受信され、第3の指示情報が第1の順序を示す。
【0014】
任意選択の実施態様では、M個のデータ空間はM個の辞書に対応し、各データ空間は1つの辞書に対応し、M個のデータ空間はすべて同じ辞書に対応し、またはM個のデータ空間に対応する辞書の数は1より大きくかつM未満である。言い換えれば、データ空間は辞書に1対1で対応し、これにより、辞書に基づいて決定される第1の情報の精度が改善されることができ、すべてのデータ空間は1つの辞書に一律に対応し得、辞書を取得するためのトレーニングに使用されるサンプルがより豊富になり得、これにより、辞書に含まれる内容がより詳しくなり、またはデータ空間に対応する辞書の数がデータ空間の数より少なくなり得、例えば、1つの辞書が複数のデータ空間に対応し得、これにより、複雑さがある程度低減されることができる。
【0015】
任意選択の実施態様では、M個の第2のダウンリンクチャネルサブデータに基づいてダウンリンクチャネル情報を再構築するステップは、M個の第2のダウンリンクチャネルサブデータに基づいて圧縮情報を取得するステップと、圧縮情報に基づいてダウンリンクチャネル情報を取得するステップとを含む。
【0016】
任意選択の実施態様では、M個のデータ空間の分割方法は事前定義されるか、第4の指示情報が送信され、第4の指示情報がM個のデータ空間の分割方法を示すか、または第5の指示情報が受信され、第5の指示情報がM個のデータ空間の分割方法を示す。
【0017】
第2の態様または第2の態様の様々な任意選択の実施態様によってもたらされる技術的効果については、第1の態様または対応する実施態様の技術的効果の説明を参照されたい。
【0018】
第3の態様によれば、通信装置が提供される。通信装置は、第1の態様による方法を実施し得る。通信装置は、端末デバイスの機能を有する。任意選択の実施態様では、本装置は、第1の態様で説明された方法/動作/ステップ/アクションを実行するための1対1対応のモジュールを含んでもよい。モジュールは、ハードウェア回路であってもよいし、またはソフトウェアであってもよいし、またはソフトウェアと組み合わせたハードウェア回路によって実施されてもよい。任意選択の実施態様では、通信装置は、ベースバンド装置および無線周波数装置を含む。別の任意選択の実施態様では、通信装置は、処理ユニット(処理モジュールと呼ばれることもある)およびトランシーバユニット(トランシーバモジュールと呼ばれることもある)を含む。トランシーバユニットは、送信機能および受信機能を実施することができる。トランシーバユニットが送信機能を実施するとき、トランシーバユニットは、送信ユニット(送信モジュールと呼ばれることもある)と呼ばれ得る。トランシーバユニットが受信機能を実施するとき、トランシーバユニットは、受信ユニット(受信モジュールと呼ばれることもある)と呼ばれ得る。送信ユニットおよび受信ユニットは同じ機能モジュールであってもよく、この機能モジュールはトランシーバユニットと呼ばれる。この機能モジュールは、送信機能および受信機能を実施することができる。あるいは、送信ユニットおよび受信ユニットは異なる機能モジュールであってもよく、トランシーバユニットはこれらの機能モジュールの総称である。
【0019】
処理ユニットは、M個の第1のダウンリンクチャネルサブデータを取得し、各第1のダウンリンクチャネルサブデータは、M個のデータ空間内の1つのデータ空間に対応し、Mは1より大きい整数である、ように構成される。M個の第1のダウンリンクチャネルサブデータ内の第iの第1のダウンリンクチャネルサブデータに関して、処理ユニットは、M個のデータ空間内の第iのデータ空間に対応する第1の辞書に基づいて、第iの第1のダウンリンクチャネルサブデータに対応する第1の情報を決定し、合計でM個の第1の情報が決定され、iは1~Mの整数であり、第iの第1のダウンリンクチャネルサブデータは第iのデータ空間に対応し、第1の辞書は複数の要素を含み、第iの第1のダウンリンクチャネルサブデータに対応する第1の情報は複数の要素内のP個の要素に対応し、Pは正の整数である、ようにさらに構成される。トランシーバユニットは、第1の指示情報を送信し、第1の指示情報はM個の第1の情報を示す、ように構成される。
【0020】
別の例では、通信装置は、第1の態様による方法を実施するために、メモリに結合され、メモリ内の命令を実行するように構成されたプロセッサを含む。任意選択で、通信装置は、別の構成要素、例えば、アンテナ、入力/出力モジュール、およびインターフェースをさらに含む。これらの構成要素は、ハードウェア、ソフトウェア、またはソフトウェアとハードウェアとの組合せであってもよい。
【0021】
第4の態様によれば、通信装置が提供される。通信装置は、第2の態様による方法を実施し得る。通信装置は、アクセスネットワークデバイスの機能を有する。アクセスネットワークデバイスは、例えば、基地局、または基地局内のベースバンド装置である。任意選択の実施態様では、本装置は、第2の態様で説明された方法/動作/ステップ/アクションを実行するための1対1対応のモジュールを含んでもよい。モジュールは、ハードウェア回路であってもよいし、またはソフトウェアであってもよいし、またはソフトウェアと組み合わせたハードウェア回路によって実施されてもよい。任意選択の実施態様では、通信装置は、ベースバンド装置および無線周波数装置を含む。別の任意選択の実施態様では、通信装置は、処理ユニット(処理モジュールと呼ばれることもある)およびトランシーバユニット(トランシーバモジュールと呼ばれることもある)を含む。トランシーバユニットの実施態様については、第3の態様の関連する説明を参照されたい。
【0022】
トランシーバユニットは、第1の指示情報を受信し、第1の指示情報はM個の第1の情報を示し、Mは1より大きい整数である、ように構成される。M個の第1の情報内の第iの第1の情報に関して、処理ユニットは、M個のデータ空間内の第iのデータ空間に対応する第1の辞書に基づいて第iの第2のダウンリンクチャネルサブデータを再構築し、合計でM個の第2のダウンリンクチャネルサブデータが取得され、第iの第1の情報は第iのデータ空間に対応し、iは1~Mの整数であり、第1の辞書は複数の要素を含み、第iの第2のダウンリンクチャネルサブデータに対応する第1の情報は、複数の要素内のP個の要素に対応する、ように構成される。処理ユニットは、M個の第2のダウンリンクチャネルサブデータに基づいてダウンリンクチャネル情報を再構築するようにさらに構成される。
【0023】
別の例では、通信装置は、第2の態様による方法を実施するために、メモリに結合され、メモリ内の命令を実行するように構成されたプロセッサを含む。任意選択で、通信装置は、別の構成要素、例えば、アンテナ、入力/出力モジュール、およびインターフェースをさらに含む。これらの構成要素は、ハードウェア、ソフトウェア、またはソフトウェアとハードウェアとの組合せであってもよい。
【0024】
第5の態様によれば、コンピュータ可読記憶媒体が提供される。コンピュータ可読記憶媒体は、コンピュータプログラムまたは命令を記憶するように構成され、コンピュータプログラムまたは命令が動作されるとき、第1の態様および/または第2の態様による方法が実施される。
【0025】
第6の態様によれば、命令を含むコンピュータプログラム製品が提供される。コンピュータプログラム製品がコンピュータ上で動作するとき、第1の態様および/または第2の態様による方法が実施される。
【0026】
第7の態様によれば、チップシステムが提供される。チップシステムは、プロセッサを含み、メモリをさらに含んでもよく、チップシステムは、第1の態様および/または第2の態様による方法を実施するように構成される。チップシステムは、チップを含んでもよいし、またはチップおよび別の個別の構成要素を含んでもよい。
【0027】
第8の態様によれば、第3の態様による通信装置と第4の態様による通信装置とを含む通信システムが提供される。
【図面の簡単な説明】
【0028】
【
図2】CSIフィードバックメカニズムのフローチャートである。
【
図4A】通信システムにおけるAIのアプリケーションフレームワークの図である。
【
図4B】通信システムにおけるAIのアプリケーションフレームワークの図である。
【
図4C】通信システムにおけるAIのアプリケーションフレームワークの図である。
【
図4D】通信システムにおけるAIのアプリケーションフレームワークの図である。
【
図4E】通信システムにおけるAIのアプリケーションフレームワークの図である。
【
図7】UEとアクセスネットワークデバイスとの両方が圧縮情報を処理するときに使用される通信方法の図である。
【
図9A】ネットワークトレーニング段階およびネットワーク推論段階の図である。
【
図9B】ネットワークトレーニング段階の図である。
【
図9C】ネットワークトレーニング段階の図である。
【
図9D】ネットワークトレーニング段階の図である。
【
図10】さらに別の通信方法のフローチャートである。
【
図11】ネットワークトレーニング段階およびネットワーク推論段階の別の図である。
【発明を実施するための形態】
【0029】
本開示の目的、技術的解決策、および利点をより明確にするために、以下は、添付の図面を参照して本開示について詳細にさらに説明する。
【0030】
本開示で提供される技術は、
図1に示されている通信システム10に適用され得る。通信システム10は、1つ以上の通信装置30(例えば、端末デバイス)を含む。1つ以上の通信装置30は、複数の通信デバイス間の通信を実施するために、1つ以上のアクセスネットワーク(radio access network、RAN)デバイス20を介して1つ以上のコアネットワーク(core network、CN)デバイスに接続される。例えば、通信システム10は、第4世代(the 4th generation、4G)(ロングタームエボリューション(long term evolution、LTE)を含む)アクセス技術をサポートする通信システム、5G(新無線(new radio、NR)と呼ばれることもある)アクセス技術をサポートする通信システム、ワイヤレスフィデリティ(wireless fidelity、Wi-Fi)システム、第3世代パートナーシッププロジェクト(3rd generation partnership project、3GPP(登録商標))に関連するセルラーシステム、複数の無線技術の集合をサポートする通信システム、または未来指向の発展システムなどである。これは限定されない。
【0031】
以下は、
図1の端末デバイスおよびRANについて別々に詳細に説明する。
【0032】
1.端末デバイス
端末デバイスは、簡単に端末と呼ばれ得る。端末デバイスは、ワイヤレストランシーバ機能を有するデバイスであり得る。端末デバイスは、移動式または固定式であってもよい。端末デバイスは、陸上に配置されてもよく、この配置は、屋内もしくは屋外、またはハンドヘルドもしくは車載の配置を含み、水上(例えば、船舶)に配置されてもよく、または空中(例えば、航空機、気球、もしくは衛星)に配置されてもよい。端末デバイスは、携帯電話(mobile phone)、タブレットコンピュータ(pad)、ワイヤレストランシーバ機能を有するコンピュータ、仮想現実(virtual reality、VR)端末デバイス、拡張現実(augmented reality、AR)端末デバイス、産業制御(industrial control)のワイヤレス端末デバイス、自動運転(self driving)のワイヤレス端末デバイス、遠隔医療(remote medical)のワイヤレス端末デバイス、スマートグリッド(smart grid)のワイヤレス端末デバイス、輸送安全性(transportation safety)のワイヤレス端末デバイス、スマートシティ(smart city)のワイヤレス端末デバイス、および/またはスマートホーム(smart home)のワイヤレス端末デバイスを含み得る。あるいは、端末デバイスは、セルラー電話、コードレス電話、セッション開始プロトコル(session initiation protocol、SIP)電話、ワイヤレスローカルループ(wireless local loop、WLL)局、携帯情報端末(personal digital assistant、PDA)、ワイヤレス通信機能を有するハンドヘルドデバイスもしくはコンピューティングデバイス、車載デバイス、ウェアラブルデバイス、第5世代(the 5th generation、5G)ネットワークにおける端末デバイス、またはさらなる発展型公衆陸上移動体ネットワーク(public land mobile network、PLMN)における端末デバイスなどであってもよい。端末デバイスは、ユーザ機器(user equipment、UE)と呼ばれることもあり得る。任意選択で、端末デバイスは、異なる技術を使用する複数のアクセスネットワークデバイスと通信してもよい。例えば、端末デバイスは、LTEをサポートするアクセスネットワークデバイスと通信してもよいし、または5Gをサポートするアクセスネットワークデバイスと通信してもよいし、またはLTEをサポートするアクセスネットワークデバイスおよび5Gをサポートするアクセスネットワークデバイスへの二重接続を実施してもよい。これは、本開示では限定されない。
【0033】
本開示では、端末デバイスの機能を実施するように構成された装置は、端末デバイスであってもよいし、またはその機能を実施する際に端末デバイスをサポートすることができる装置、例えば、チップシステム、ハードウェア回路、ソフトウェアモジュール、もしくはハードウェア回路およびソフトウェアモジュールであってもよい。この装置は、端末デバイスに組み込まれてもよいし、または使用のために端末デバイスに適合されてもよい。本開示で提供される技術的解決策では、端末デバイスの機能を実施するように構成された装置が端末デバイスであり、端末デバイスがUEである例が、本開示で提供される技術的解決策を説明するために使用される。
【0034】
本開示では、チップシステムは、チップを含んでもよいし、またはチップおよび別の個別の構成要素を含んでもよい。
【0035】
2.RAN
RANは、1つ以上のRANデバイス、例えばRANデバイス20を含んでもよい。RANデバイスと端末デバイスとの間のインターフェースは、Uuインターフェース(またはエアインターフェースと呼ばれる)であってもよい。将来の通信では、これらのインターフェースの名称は変更されないままであり得るし、または他の名称に置き換えられ得る。これは、本開示では限定されない。
【0036】
RANデバイスは、端末デバイスが無線ネットワークにアクセスすることを可能にするノードまたはデバイスである。RANデバイスは、ネットワークデバイスまたは基地局とも呼ばれ得る。RANデバイスは、例えば、基地局、5Gにおける次世代ノードB(generation NodeB、gNB)、発展型ノードB(evolved NodeB、eNB)、無線ネットワークコントローラ(radio network controller、RNC)、ノードB(NodeB、NB)、基地局コントローラ(base station controller、BSC)、基地トランシーバ局(base transceiver station、BTS)、ホーム基地局(例えば、home evolved NodeBもしくはhome NodeB、HNB)、ベースバンドユニット(baseband unit、BBU)、送受信ポイント(transmitting and receiving point、TRP)、送信ポイント(transmitting point、TP)、および/またはモバイル交換センターを含むが、これらに限定されない。あるいは、アクセスネットワークデバイスは、中央ユニット(central unit、CU)、分散ユニット(distributed unit、DU)、中央ユニット制御プレーン(CU control plane、CU-CP)ノード、中央ユニットユーザプレーン(CU user plane、CU-UP)ノード、統合アクセスおよびバックホール(integrated access and backhaul、IAB)、またはクラウド無線アクセスネットワーク(cloud radio access network、CRAN)シナリオにおける無線コントローラなどのうちの少なくとも1つであってもよい。あるいは、アクセスネットワークデバイスは、中継局、アクセスポイント、車載デバイス、端末デバイス、ウェアラブルデバイス、5Gネットワーク内のアクセスネットワークデバイス、または将来の発展型公衆陸上移動体ネットワーク(public land mobile network、PLMN)内のアクセスネットワークデバイスなどであってもよい。
【0037】
本開示では、アクセスネットワークデバイスの機能を実施するように構成された装置は、アクセスネットワークデバイスであってもよいし、またはその機能を実施する際にアクセスネットワークデバイスをサポートすることができる装置、例えば、チップシステム、ハードウェア回路、ソフトウェアモジュール、もしくはハードウェア回路およびソフトウェアモジュールであってもよい。この装置は、アクセスネットワークデバイスに組み込まれてもよいし、または使用のためにアクセスネットワークデバイスに適合されてもよい。本開示で提供される技術的解決策では、アクセスネットワークデバイスの機能を実施するように構成された装置がアクセスネットワークデバイスであり、アクセスネットワークデバイスが基地局である例が、本開示で提供される技術的解決策を説明するために使用される。
【0038】
(1)プロトコル層構造
アクセスネットワークデバイスと端末デバイスとの間の通信は、指定されたプロトコル層構造に準拠する。プロトコル層構造は、制御プレーンプロトコル層構造およびユーザプレーンプロトコル層構造を含み得る。例えば、制御プレーンプロトコル層構造は、以下のうちの少なくとも1つ、すなわち、無線リソース制御(radio resource control、RRC)層、パケットデータコンバージェンスプロトコル(packet data convergence protocol、PDCP)層、無線リンク制御(radio link control、RLC)層、媒体アクセス制御(media access control、MAC)層、または物理層(physical、PHY)などのうちの少なくとも1つを含み得る。例えば、ユーザプレーンプロトコル層構造は、以下のうちの少なくとも1つ、すなわち、サービスデータ適応プロトコル(service data adaptation protocol、SDAP)層、PDCP層、RLC層、MAC層、および物理層などのうちの少なくとも1つを含み得る。
【0039】
アクセスネットワークデバイスと端末デバイスとの間のプロトコル層構造は、アクセス層(access stratum、AS)構造と考えられ得る。任意選択で、非アクセス層(non-access stratum、NAS)が、ASの上にさらに存在してもよく、アクセスネットワークデバイスによって、コアネットワークデバイスからの情報を端末デバイスに転送するために使用されるか、またはアクセスネットワークデバイスによって、端末デバイスからの情報をコアネットワークデバイスに転送するために使用される。この場合、端末デバイスとコアネットワークデバイスとの間に論理インターフェースがあると考えられ得る。任意選択で、アクセスネットワークデバイスは、透過的伝送方法で端末デバイスとコアネットワークデバイスとの間で情報を転送してもよい。例えば、NASメッセージは、RRCシグナリングの要素として、RRCシグナリングにマッピングされてもよいし、または含まれてもよい。
【0040】
任意選択で、アクセスネットワークデバイスと端末デバイスとの間のプロトコル層構造は、人工知能(artificial intelligence、AI)機能に関連するデータを伝送するように構成されたAI層をさらに含んでもよい。
【0041】
(2)中央ユニット(central unit、CU)および分散ユニット(distributed unit、DU)
RANデバイスは、CUおよびDUを含み得る。この設計は、CUおよびDU分離と呼ばれ得る。複数のDUは、1つのCUによって集中的に制御され得る。例えば、CUとDUとの間のインターフェースは、F1インターフェースと呼ばれ得る。制御プレーン(control panel、CP)インターフェースはF1-Cであり得、ユーザプレーン(user panel、UP)インターフェースはF1-Uであり得る。インターフェースの具体的な名称は、本開示では限定されない。CUおよびDUは、ワイヤレスネットワークのプロトコル層に従って分類され得る。例えば、PDCP層およびPDCP層より上位のプロトコル層(RRC層およびSDAP層など)の機能はCUに設定され、PDCP層より下位のプロトコル層(RLC層、MAC層、およびPHY層など)の機能はDUに設定される。別の例では、PDCP層より上位のプロトコル層の機能はCUに設定され、PDCP層およびPDCP層より下位のプロトコル層の機能はDUに設定される。
【0042】
プロトコル層に基づくCUおよびDUの前述の処理機能の分割は例にすぎず、分割は、あるいは、別の方法で実行されてもよい。例えば、CUまたはDUは、分割によってより多くのプロトコル層の機能を有してもよく、別の例では、CUまたはDUは、あるいは、分割によってプロトコル層の処理機能の一部を有してもよい。一設計では、RLC層の機能の一部およびRLC層より上位のプロトコル層の機能がCUに設定され、RLC層の残りの機能およびRLC層より下位のプロトコル層の機能がDUに設定される。別の設計では、CUまたはDUの機能の分割は、あるいは、サービスタイプまたは他のシステム要件に基づいて実行されてもよい。例えば、分割は、レイテンシに基づいて実行されてもよい。処理時間がレイテンシ要件を満たす必要がある機能がDUに設定され、処理時間がレイテンシ要件を満たす必要がない機能がCUに設定される。
【0043】
任意選択で、CUはコアネットワークの1つ以上の機能を有してもよい。例えば、集中管理を容易にするために、CUはネットワーク側に配されてもよい。
【0044】
任意選択で、DUの無線ユニット(radio unit、RU)は遠隔に配される。RUは無線周波数機能を有する。例えば、DUおよびRUは、PHY層において分割されてもよい。例えば、DUは、PHY層の上位層の機能を実施してもよく、RUは、PHY層の下位層の機能を実施してもよい。PHY層が送信に使用されるとき、PHY層の機能は、以下の機能、すなわち、巡回冗長検査(cyclic redundancy check、CRC)ビットの追加、チャネル符号化、レートマッチング、スクランブリング、変調、層マッピング、プリコーディング、リソースマッピング、物理アンテナマッピング、または無線周波数送信のうちの少なくとも1つを含み得る。PHY層が受信に使用されるとき、PHY層の機能は、以下の機能、すなわち、CRC検査、チャネル復号、デレートマッチング、デスクランブリング、復調、層デマッピング、チャネル検出、リソースデマッピング、物理アンテナデマッピング、または無線周波数受信のうちの少なくとも1つを含み得る。PHY層の上位層の機能は、PHY層の機能の一部を含み得る。機能の一部はMAC層に近い。PHY層の下位層の機能は、PHY層の機能の他の部分を含み得る。例えば、機能の一部は無線周波数機能により近い。例えば、PHY層の上位層の機能は、CRCビットの追加、チャネル符号化、レートマッチング、スクランブリング、変調、および層マッピングを含み得、PHY層の下位層の機能は、プリコーディング、リソースマッピング、物理アンテナマッピング、および無線周波数送信の機能を含み得る。あるいは、PHY層の上位層の機能は、CRCビットの追加、チャネル符号化、レートマッチング、スクランブリング、変調、層マッピング、およびプリコーディングを含んでもよく、PHY層の下位層の機能は、リソースマッピング、物理アンテナマッピング、および無線周波数送信の機能を含んでもよい。例えば、PHY層の上位層の機能は、CRC検査、チャネル復号、デレートマッチング、復号、復調、および層デマッピングを含み得、PHY層の下位層の機能は、チャネル検出、リソースデマッピング、物理アンテナデマッピング、および無線周波数受信の機能を含み得る。あるいは、PHY層の上位層の機能は、CRC検査、チャネル復号、デレートマッチング、復号、復調、層デマッピング、およびチャネル検出を含んでもよく、PHY層の下位層の機能は、リソースデマッピング、物理アンテナデマッピング、および無線周波数受信の機能を含んでもよい。
【0045】
任意選択で、CUの機能はさらに分割されてもよい。具体的には、CUの制御プレーンおよびユーザプレーンは、異なるエンティティ、すなわち、制御プレーンCUエンティティ(CU-CP entity)およびユーザプレーンCUエンティティ(CU-UP entity)によって分離され、実施される。CU-CPエンティティおよびCU-UPエンティティは、RANデバイスの機能を一緒に遂行するために、DUに別々に結合または接続され得る。
【0046】
前述のアーキテクチャでは、CUによって生成されたシグナリングは、DUを介して端末デバイスに送信され得るし、または端末デバイスによって生成されたシグナリングは、DUを介してCUに送信され得る。例えば、RRC層またはPDCP層でのシグナリングは、最終的に物理層でのシグナリングとして処理され、端末デバイスに送信され得、または物理層で受信されたシグナリングから変換される。このアーキテクチャでは、RRC層またはPDCP層でのシグナリングは、DUを介して送信されるか、またはDUおよびRUを介して送信されると考えられ得る。
【0047】
任意選択で、DU、CU、CU-CP、CU-UP、およびRUのいずれか1つは、ソフトウェアモジュール、ハードウェア構造、またはソフトウェアモジュールとハードウェア構造との組合せであってもよい。これは限定されない。異なるエンティティは異なる形態で存在してもよく、これは限定されない。例えば、DU、CU、CU-CP、およびCU-UPはソフトウェアモジュールであり、RUはハードウェア構造である。これらのモジュールおよびこれらのモジュールによって実行される方法も、本開示の保護範囲内にある。例えば、本開示の方法がアクセスネットワークデバイスによって実行されるとき、本方法は、具体的には、CU、CU-CP、CU-UP、DU、RU、または以下で説明されるほぼリアルタイムのRICのうちの少なくとも1つによって実行され得る。モジュールによって実行される方法も、本開示の保護範囲内にある。
【0048】
本開示におけるネットワークデバイスは主にアクセスネットワークデバイスであるため、以下では、別段に指定されない限り、「ネットワークデバイス」は「アクセスネットワークデバイス」を指し得ることに留意されたい。
【0049】
図1に示されている通信システム内のデバイスの数は例として使用されているにすぎず、本開示はこれに限定されないことを理解されたい。実際の適用では、通信システムは、より多くの端末デバイスおよびより多くのRANデバイスをさらに含んでもよく、別のデバイスをさらに含んでもよく、例えば、コアネットワークデバイス、および/または人工知能機能を実施するように構成されたノードを含んでもよい。
【0050】
図1に示されているネットワークアーキテクチャは、様々な無線アクセス技術(radio access technology、RAT)の通信システム、例えば4G通信システム、もしくは5G(もしくは新無線(new radio、NR)と呼ばれる)通信システム、もしくはLTE通信システムと5G通信システムとの間の移行システム、または将来の通信システム、例えば6G通信システムに適用可能である。移行システムは、4.5G通信システムとも呼ばれ得る。本開示で説明されているネットワークアーキテクチャおよびサービスシナリオは、本開示における技術的解決策をより明確に説明することを意図されており、本開示で提供される技術的解決策に対する限定を構成するものではない。当業者は、ネットワークアーキテクチャの発展および新しいサービスシナリオの出現により、本開示で提供される技術的解決策が同様の技術的問題にも適用可能であることを知り得る。
【0051】
アクセスネットワークデバイスと端末デバイスとの間の通信に加えて、本開示で提供される方法は、他の通信デバイス間の通信、例えば、ワイヤレスバックホールリンクにおけるマクロ基地局とマイクロ基地局との間の通信、例えば、サイドリンク(sidelink、SL)における第1の端末デバイスと第2の端末デバイスとの間の通信にも使用され得る。これは限定されない。本開示は、ネットワークデバイスと端末デバイスとの間の通信を例として使用して説明される。
【0052】
データを端末デバイスに送信するとき、アクセスネットワークデバイスは、端末デバイスによってフィードバックされたチャネル状態情報(channel state information、CSI)に基づいてプリコーディングを実行し得る。本開示の理解を容易にするために、以下は、本開示におけるいくつかの技術用語について簡単に説明する。
【0053】
1.プリコーディング技術
チャネル状態情報が既知であるとき、アクセスネットワークデバイスは、チャネル条件に一致するプリコーディング行列を使用して、送信されるべき信号を処理し得る。プリコーディングされた送信されるべき信号は、この技術を使用してチャネルに適応することができ、これにより、端末デバイスによって受信される信号の品質(例えば、信号対干渉雑音比(signal to interference plus noise ratio、SINR))が改善され、システムスループットを改善する。プリコーディング技術が使用され、これにより、伝送デバイス(例えば、アクセスネットワークデバイス)および複数の受信デバイス(例えば、端末デバイス)は、同じ時間周波数リソースでの伝送を効果的に実行することができ、すなわち、マルチユーザ多入力多出力(multiple user multiple-input multiple-output、MU-MIMO)が効果的に実施される。プリコーディング技術が使用され、これにより、伝送デバイス(例えば、アクセスネットワークデバイス)および受信デバイス(例えば、端末デバイス)は、同じ時間周波数リソースでのマルチデータストリーム伝送を効果的に実行することができ、すなわち、シングルユーザ多入力多出力(single user multiple-input multiple-output、SU-MIMO)が効果的に実施される。プリコーディング技術の関連する説明は、理解を容易にするための例にすぎず、本開示の保護範囲を限定することを意図されていないことに留意されたい。具体的な実施プロセスでは、伝送デバイスは、あるいは、別の方法でプリコーディングを実行してもよい。例えば、チャネル情報(例えば、チャネル行列であるが、これに限定されない)が取得されることができないとき、事前設定プリコーディング行列を使用して、または重み付け処理方法でプリコーディングが実行される。簡潔にするために、その具体的な内容は本明細書では再び説明されない。
【0054】
2.CSIフィードバック(CSI feedback)
CSIフィードバックは、CSI報告(CSI report)とも呼ばれ得る。CSIフィードバックは、ワイヤレス通信システムにおいて、データ(例えば、物理ダウンリンク共有チャネル(physical downlink shared channel、PDSCH)で搬送されるデータであるが、これに限定されない)の受信機(例えば、端末デバイス)が、通信リンクのチャネル属性を記述するために使用される情報を伝送機(例えば、アクセスネットワークデバイス)に報告することである。例えば、CSI報告は、ダウンリンクチャネル行列、プリコーディング行列インジケータ(precoding matrix indicator、PMI)、ランクインジケータ(rank indicator、RI)、またはチャネル品質インジケータ(channel quality indicator、CQI)などの情報のうちの1つ以上を含む。上記されたCSIに含まれる前述の内容は、説明のための例にすぎず、本開示に対するいかなる限定も構成しない。CSIは、前述の記載された内容のうちの1つ以上を含んでもよいし、または前述の記載された内容とは異なり、かつCSIを表すために使用される情報を含んでもよい。これは、本開示では限定されない。
【0055】
3.ニューラルネットワーク(neural network、NN)。
ニューラルネットワークは、機械学習技術の具体的な実施の形態である。普遍的な近似定理によれば、ニューラルネットワークは任意の連続関数に理論的に近似し得、これにより、ニューラルネットワークは、任意のマッピングを学習する能力を有する。従来の通信システムでは、通信モジュールを豊かな専門知識をもって設計される必要がある。しかしながら、ニューラルネットワークに基づく深層学習通信システムは、多数のデータセットから暗黙のパターン構造を自動的に発見し、データ間のマッピング関係を確立し、従来のモデリング方法より良好なパフォーマンスを獲得し得る。
【0056】
例えば、ディープニューラルネットワーク(deep neural network、DNN)は、多数の層を有するニューラルネットワークである。異なるネットワーク構造および/または使用シナリオに基づいて、DNNは、多層パーセプトロン(multi-layer perceptron、MLP)、畳込みニューラルネットワーク(convolutional neural network、CNN)、およびリカレントニューラルネットワーク(recurrent neural network、RNN)などを含んでもよい。DNNの具体的な形態は、本開示では限定されない。
【0057】
4.オートエンコーダ(auto-encoder、AE)ネットワーク、または略してAE。
AEネットワークは、エンコーダ(encoder)および対応するデコーダ(decoder)を含み得る。例えば、エンコーダおよび/またはデコーダは、ニューラルネットワーク(DNNのような)を使用して実施される。この場合、エンコーダはエンコーダネットワークとも呼ばれ得、デコーダはデコーダネットワークとも呼ばれ得る。例えば、AEネットワークでは、エンコーダおよび対応するデコーダは、共同トレーニングによって取得され得る。トレーニングによって取得されたエンコーダおよびデコーダは、情報の符号化および復号に使用され得る。
【0058】
本開示では、別段に指定されない限り、名詞の数は「単数名詞または複数名詞」、すなわち「1つ以上」を表す。「少なくとも1つ」は1つ以上を意味し、「複数の」は2つ以上のを意味する「および/または」は、関連付けられた対象を説明するための関連付け関係であり、3つの関係が存在し得ることを示す。例えば、Aおよび/またはBは、以下の場合、すなわち、Aのみが存在する、AとBとの両方が存在する、およびBのみが存在する、を示し得、AおよびBは単数形であっても複数形であってもよい。特徴を表すとき、記号「/」は、関連付けられた対象間の「または」関係を表し得る。例えば、A/BはAまたはBを示す。演算を表すとき、記号「/」は除算をさらに表し得る。加えて、本開示では、記号「×」は記号「*」にも置き換えられ得る。
【0059】
本開示における「第1の」および「第2の」などの序数は、複数の対象を区別するために使用され、複数の対象のサイズ、内容、順序、時系列、適用シナリオ、優先度、または重要度などを限定することを意図されていない。例えば、第1の指示情報と第2の指示情報とは、同じ指示情報であってもよいし、または異なる指示情報であってもよい。加えて、このタイプの名称は、2つの指示情報の異なるサイズ、伝送モード、指示内容、優先度、適用シナリオ、または重要度などを示すものではない。
【0060】
可能な実施態様では、CSIフィードバックメカニズムは、
図2に示されている手順を使用する。
【0061】
S21:基地局はシグナリングを送信し、これに対応して、UEは基地局からシグナリングを受信する。
【0062】
シグナリングは、チャネル測定情報を構成するために使用される。例えば、シグナリングは、以下のうちの少なくとも1つ、すなわち、チャネル測定を実行するための時間情報、チャネル測定を実行するための参照信号(reference signal、RS)のタイプ、参照信号の時間領域リソース、参照信号の周波数領域リソース、および測定数の報告条件などのうちの少なくとも1つをUEに通知する。
【0063】
S22:基地局は参照信号をUEに送信し、これに対応して、UEは基地局から参照信号を受信する。
【0064】
UEは、CSIを取得するために参照信号を測定する。
【0065】
S23:UEはCSIを基地局に送信し、これに対応して、基地局はUEからCSIを受信する。
【0066】
S24:基地局は、CSIに基づいてデータをUEに送信し、これに対応して、UEは、基地局からデータを受信する。
【0067】
基地局は、CSIに基づいてプリコーディング行列を決定し、プリコーディング行列を使用して、UEに送信されるべきデータに対してプリコーディングを実行する。基地局によってUEに送信されるデータは、ダウンリンクチャネルで搬送され、例えばPDSCHで搬送される。
【0068】
UEによってフィードバックされるCSIの精度がより高いとき、情報はより豊富であり、CSIに基づいて基地局によって再構築されたダウンリンクチャネルはより正確である。この場合、基地局によって決定されたプリコーディング行列はより正確であり、ダウンリンク空間多重化パフォーマンスはより良好であり、UEの受信信号対干渉雑音比はより高く、システムスループットはより高い。一方、MIMOシステムのアンテナアレイの規模が連続的に増加するにつれて、サポートされることができるアンテナポートの数も増加する。完全なダウンリンクチャネル行列のサイズはアンテナポートの数に正比例するため、大規模MIMOシステムでは、UEによってフィードバックされるCSIに高い精度を持たせるために、膨大なフィードバックオーバーヘッドが必要とされる。膨大なフィードバックオーバーヘッドに起因して、データ伝送に利用可能なリソースが低減される。その結果、システム容量が低減される。したがって、システム容量を改善するために、CSIフィードバックオーバーヘッドを低減する方法が研究される必要がある。二領域圧縮コードブックに基づいてCSIをフィードバックすることは、フィードバックオーバーヘッドを効果的に低減することができる方法である。
【0069】
二領域圧縮コードブックは、一般に、想定されるアンテナパネル形態およびサブバンドの数などの要因に基づいて設計される。しかしながら、実際の通信環境では、チャネル環境が複雑で変化しやすく、実際のアンテナパネル形態が多様であるため、固定アンテナパネル形態およびサブバンドの数について決定されたコードブックは、実際の通信環境を必ずしも満たし得ず、UEによってフィードバックされるCSIの精度が低下する。したがって、UEによってフィードバックされるCSIをより正確にする方法は、研究する価値のある技術的問題である。
【0070】
これを考慮して、本開示の技術的解決策が提供される。本開示では、UEによって取得されるM個の第1のダウンリンクチャネルサブデータの各々は、M個のデータ空間内の1つのデータ空間に対応し得、すべての第1のダウンリンクチャネルサブデータに対応する第1の情報は、異なるデータ空間に対応する辞書に基づいて決定され得る。異なるデータ空間は異なる位置情報を表すことができ、すなわち、異なるデータ空間は異なるチャネル環境情報を表すことができる。UEは、異なるデータ空間に対応する第1の情報をフィードバックし、これにより、アクセスネットワークデバイスは、第1の情報と環境情報との対応関係を決定することができる。この場合、UEによってフィードバックされる第1の情報は実際の通信環境を反映することができ、UEによってフィードバックされる第1の情報の精度は改善される。アクセスネットワークデバイスは、UEによってフィードバックされた第1の情報に基づいて正確なダウンリンクチャネルを再構築することができる。
【0071】
図3は、本開示で提供される通信システム10における通信ネットワークアーキテクチャを示す。これ以降に提供されるいずれの実施形態も、このアーキテクチャに適用可能である。
図3に含まれるネットワークデバイスは、例えば、通信システム10に含まれるアクセスネットワークデバイス20であり、
図3に含まれる端末デバイスは、例えば、通信システム10に含まれる通信装置30である。ネットワークデバイスは、端末デバイスと通信することができる。
【0072】
本開示は、機械学習技術に関連し得る。機械学習技術は、AI技術の具体的な実施態様である。理解を容易にするために、以下はAI技術について説明する。説明は、本開示を限定することを意図されていないことが理解され得る。
【0073】
AIは、人間の脳を模擬して複雑な計算を実行する技術である。データストレージおよび能力の改善に伴い、AIはますます適用されている。
【0074】
本開示では、AI機能を実施するために、独立したネットワーク要素(例えば、AIネットワーク要素、AIノード、またはAIデバイスと呼ばれる)が、
図1に示されている通信システムに導入され得る。AIネットワーク要素は、アクセスネットワークデバイスに直接接続されてもよいし、またはサードパーティネットワーク要素を介してアクセスネットワークデバイスに間接的に接続されてもよい。任意選択で、サードパーティネットワーク要素はコアネットワーク要素であってもよい。あるいは、AIエンティティは、AI関連動作を実施するために、通信システム内の別のネットワーク要素に構成または配されてもよい。AIエンティティはまた、AIモジュール、AIユニットと、または別の名称で呼ばれ得、AI機能の一部または全部を実施するように主に構成される。AIエンティティの具体的な名称は、本開示では限定されない。任意選択で、別のネットワーク要素は、アクセスネットワークデバイス、コアネットワークデバイス、またはネットワーク管理デバイス(operation,administration and maintenance、OAM)などであってもよい。この場合、AI機能を実行するネットワーク要素は、内蔵AI機能を有するネットワーク要素である。
【0075】
本開示では、AI機能は、以下のうちの少なくとも1つ、すなわち、データ収集、モデルトレーニング(もしくはモデル学習)、モデル情報リリース、モデル推論(もしくはモデル推論、推論、もしくは予測などと呼ばれる)、モデル監視もしくはモデル検査、または推論結果リリースなどのうちの少なくとも1つを含み得る。AI機能は、AI(関連)動作またはAI関連機能とも呼ばれ得る。
【0076】
本開示では、OAMネットワーク要素(コアネットワークデバイスのネットワーク管理デバイス)は、コアネットワークデバイスを運用、管理、および/もしくは保守するように構成され、ならびに/またはOAMネットワーク要素(アクセスネットワークデバイスのネットワーク管理デバイス)は、アクセスネットワークデバイスを運用、管理、および/もしくは保守するように構成される。例えば、本開示は、第1のOAMネットワーク要素および第2のOAMネットワーク要素を含み、第1のOAMネットワーク要素はコアネットワークデバイスのネットワーク管理デバイスであり、第2のOAMネットワーク要素はアクセスネットワークデバイスのネットワーク管理デバイスである。任意選択で、第1のOAMネットワーク要素および/または第2のOAMネットワーク要素はAIエンティティを含む。別の例では、本開示は第3のOAMネットワーク要素を含み、第3のOAMネットワーク要素は、コアネットワークデバイスとアクセスネットワークデバイスとの両方のネットワーク管理デバイスである。任意選択で、第3のOAMネットワーク要素はAIエンティティを含む。
【0077】
図4Aは、通信システムにおけるAIの第1のアプリケーションフレームワークの図である。データソース(data source)は、トレーニングデータおよび推論データを記憶するために使用される。モデルトレーニングノード(model training host)は、AIモデルを取得するために、データソースによって提供されたトレーニングデータ(training data)に対してトレーニングまたは更新トレーニングを実行し、モデル推論ノード(model inference host)にAIモデルを配置する。AIモデルは、モデルの入力と出力との間のマッピング関係を表す。モデルトレーニングノードによる学習によってAIモデルを取得することは、トレーニングデータを使用してモデルトレーニングノードによる学習によってモデルの入力と出力との間のマッピング関係を取得することと等価である。モデル推論ノードは、データソースによって提供された推論データに基づいて推論を実行して推論結果を取得するためにAIモデルを使用する。この方法はまた、以下のように説明され得、モデル推論ノードは、推論データをAIモデルに入力し、AIモデルを介して出力を取得する。出力は推論結果である。推論結果は、アクションの対象によって使用される(作用される)構成パラメータ、および/またはアクションの対象によって実行される動作を示し得る。推論結果は、アクター(actor)エンティティによって均等に計画され、アクションのためにアクションの1つ以上の対象(例えば、コアネットワーク要素、基地局、またはUE)に送信され得る。任意選択で、モデル推論ノードは、モデル推論ノードの推論結果をモデルトレーニングノードにフィードバックしてもよい。このプロセスは、モデルフィードバックと呼ばれ得る。フィードバックされた推論結果は、AIモデルを更新するためにモデルトレーニングノードによって使用され、更新されたAIモデルはモデル推論ノードに配置される。任意選択で、アクションの対象は、アクションの対象によって収集されたネットワークパラメータをデータソースにフィードバックしてもよい。このプロセスは、パフォーマンスフィードバックと呼ばれ得、フィードバックされたネットワークパラメータは、トレーニングデータまたは推論データとして使用され得る。
【0078】
例えば、AIモデルは、AEネットワーク内のデコーダネットワークを含む。デコーダネットワークは、アクセスネットワークデバイス側に配置される。デコーダネットワークの推論結果は、例えば、ダウンリンクチャネル行列の再構築に使用される。AIモデルは、AEネットワーク内のエンコーダネットワークを含む。エンコーダネットワークはUE側に配置される。エンコーダネットワークの推論結果は、例えば、ダウンリンクチャネル行列の符号化に使用される。
【0079】
図4Aに示されているアプリケーションフレームワークは、
図1に示されているネットワーク要素に配置され得る。例えば、
図4Aのアプリケーションフレームワークは、
図1における端末デバイス、アクセスネットワークデバイス、コアネットワークデバイス(図示せず)、または独立して配置されたAIネットワーク要素(図示せず)のうちの少なくとも1つに配置され得る。例えば、AIネットワーク要素(モデルトレーニングノードと考えられ得る)は、モデルを取得するために、端末デバイスおよび/またはアクセスネットワークデバイスによって提供されるトレーニングデータ(training data)を分析またはトレーニングし得る。端末デバイス、アクセスネットワークデバイス、またはコアネットワークデバイスのうちの少なくとも1つ(モデル推論ノードと考えられ得る)は、モデルの出力を取得するために、モデルおよび推論データを使用して推論を実行し得る。推論データは、端末デバイスおよび/またはアクセスネットワークデバイスによって提供され得る。モデルの入力は推論データを含み、モデルの出力は、モデルに対応する推論結果である。端末デバイス、アクセスネットワークデバイス、またはコアネットワークデバイスのうちの少なくとも1つ(アクションの対象と考えられ得る)は、推論結果に基づいて対応する動作を実行し得る。モデル推論ノードとアクションの対象とは同じであってもよいし、または異なってもよい。これは限定されない。
【0080】
図4B~
図4Eを参照して、以下は、例を使用して、本開示で提供される方法が適用されることができるネットワークアーキテクチャについて説明する。
【0081】
図4Bに示されているように、第1の可能な実施態様では、アクセスネットワークデバイスは、モデルトレーニングおよび推論を実行するように構成されたほぼリアルタイムの無線アクセスネットワークインテリジェントコントローラ(RAN intelligent controller、RIC)モジュールを含む。例えば、ほぼリアルタイムのRICは、AIモデルをトレーニングし、AIモデルを使用して推論を実行するように構成され得る。例えば、ほぼリアルタイムのRICは、CU、DU、またはRUのうちの少なくとも1つからネットワーク側または端末側の情報を取得してもよく、この情報は、トレーニングデータまたは推論データとして使用されてもよい。任意選択で、ほぼリアルタイムのRICは、CU、DU、RU、または端末デバイスのうちの少なくとも1つに推論結果を提出してもよい。任意選択で、CUとDUとは推論結果を交換してもよい。任意選択で、DUとRUとは推論結果を交換してもよい。例えば、ほぼリアルタイムのRICは、推論結果をDUに提出し、DUは、推論結果をRUに転送する。
【0082】
図4Bに示されているように、第2の可能な実施態様では、非リアルタイムRICは、アクセスネットワークデバイスの外部に置かれ(任意選択で、非リアルタイムRICは、OAMネットワーク要素またはコアネットワークデバイスに置かれてもよい)、モデルトレーニングおよび推論を実行するように構成される。例えば、非リアルタイムRICは、AIモデルをトレーニングし、モデルを使用して推論を実行するように構成される。例えば、非リアルタイムRICは、CU、DU、またはRUのうちの少なくとも1つからネットワーク側および/または端末側の情報を取得し得る。この情報は、トレーニングデータまたは推論データとして使用されてもよく、推論結果は、CU、DU、RU、または端末デバイスのうちの少なくとも1つに提出されてもよい。任意選択で、CUとDUとは推論結果を交換してもよい。任意選択で、DUとRUとは推論結果を交換してもよい。例えば、非リアルタイムRICは、推論結果をDUに提出し、DUは、推論結果をRUに転送する。
【0083】
図4Bに示されているように、第3の可能な実施態様では、アクセスネットワークデバイスは、ほぼリアルタイムのRICを含み、非リアルタイムRICは、アクセスネットワークデバイスの外部に置かれる(任意選択で、非リアルタイムRICは、OAMネットワーク要素またはコアネットワークデバイスに置かれてもよい)。第2の可能な実施態様における非リアルタイムRICと同じように、非リアルタイムRICは、モデルトレーニングおよび推論を実行するように構成され得、ならびに/または第1の可能な実施態様におけるほぼリアルタイムのRICと同じように、ほぼリアルタイムのRICは、モデルトレーニングおよび推論を実行するように構成され得、ならびに/または非リアルタイムRICはモデルトレーニングを実行し、ほぼリアルタイムのRICは、非リアルタイムRICからAIモデル情報を取得し、CU、DU、もしくはRUのうちの少なくとも1つからネットワーク側および/もしくは端末側の情報を取得し、情報およびAIモデル情報に基づいて推論結果を取得し得る。任意選択で、ほぼリアルタイムのRICは、CU、DU、RU、または端末デバイスのうちの少なくとも1つに推論結果を提出してもよい。任意選択で、CUとDUとは推論結果を交換してもよい。任意選択で、DUとRUとは推論結果を交換してもよい。例えば、ほぼリアルタイムのRICは、推論結果をDUに提出し、DUは、推論結果をRUに転送する。例えば、ほぼリアルタイムのRICは、モデルAをトレーニングし、モデルAを使用して推論を実行するように構成される。例えば、非リアルタイムRICは、モデルBをトレーニングし、モデルBを使用して推論を実行するように構成される。例えば、非リアルタイムRICは、モデルCをトレーニングし、モデルCに関する情報をほぼリアルタイムのRICに送信するように構成され、ほぼリアルタイムのRICは、モデルCを使用して推論を実行する。
【0084】
図4Cは、本開示による方法が適用されることができるネットワークアーキテクチャの例示的な図である。
図4Bと比較して、
図4Cでは、CUは、CU-CPとCU-UPとに分離されている。
【0085】
図4Dは、本開示による方法が適用されることができるネットワークアーキテクチャの例示的な図である。
図4Dに示されているように、任意選択で、アクセスネットワークデバイスは、1つ以上のAIエンティティを含み、AIエンティティの機能は、ほぼリアルタイムのRICの機能と同様である。任意選択で、OAMネットワーク要素は1つ以上のAIエンティティを含み、AIエンティティの機能は、非リアルタイムRICの機能と同様である。任意選択で、コアネットワークデバイスは1つ以上のAIエンティティを含み、AIエンティティの機能は非リアルタイムRICの機能と同様である。OAMネットワーク要素およびコアネットワークデバイスがそれぞれ、AIエンティティを含むとき、OAMおよびコアネットワークデバイスのAIエンティティを使用してトレーニングすることによって取得されたモデルは異なり、および/または推論に使用されるモデルは異なる。
【0086】
本開示では、モデルの違いは、以下の違い、すなわち、モデルの構造パラメータ(例えば、ニューラルネットワーク層数、ニューラルネットワーク幅、層間の接続関係、ニューロンの重み、ニューロンの活性化関数、もしくは活性化関数におけるバイアスのうちの少なくとも1つ)、モデルの入力パラメータ(例えば、入力パラメータのタイプおよび/もしくは入力パラメータの次元)、またはモデルの出力パラメータ(例えば、出力パラメータのタイプおよび/もしくは出力パラメータの次元)のうちの少なくとも1つの違いを含む。
【0087】
図4Eは、本開示による方法が適用されることができるネットワークアーキテクチャの例示的な図である。
図4Dと比較して、
図4Eでは、アクセスネットワークデバイスはCUとDUとに分離されている。任意選択で、CUはAIエンティティを含んでもよく、AIエンティティの機能は、ほぼリアルタイムのRICの機能と同様である。任意選択で、DUはAIエンティティを含んでもよく、AIエンティティの機能は、ほぼリアルタイムのRICの機能と同様である。CUおよびDUがそれぞれ、AIエンティティを含むとき、CUおよびDUのAIエンティティを使用してトレーニングすることによって取得されたモデルは異なり、および/または推論に使用されるモデルは異なる。任意選択で、
図4EのCUは、CU-CPとCU-UPとにさらに分割されてもよい。任意選択で、1つ以上のAIモデルはCU-CPに配置されてもよい。任意選択で、1つ以上のAIモデルはCU-UPに配置されてもよい。
【0088】
図4Dまたは
図4Eでは、アクセスネットワークデバイスのOAMネットワーク要素およびコアネットワークデバイスのOAMネットワーク要素は一律に配置されている。あるいは、上記で説明されたように、
図4Dまたは
図4Eでは、アクセスネットワークデバイスのOAMネットワーク要素およびコアネットワークデバイスのOAMネットワーク要素は別々に配置されてもよい。
【0089】
本開示では、1つのモデルは、推論によって1つの出力を取得し得、出力は1つ以上のパラメータを含む。異なるモデルの学習プロセスもしくはトレーニングプロセスは、異なるデバイスもしくはノードに配置されてもよいし、または同じデバイスもしくはノードに配置されてもよい。異なるモデルの推論プロセスは、異なるデバイスもしくはノードに配置されてもよいし、または同じデバイスもしくはノードに配置されてもよい。
【0090】
任意選択で、AIモデルは、AEネットワーク内のデコーダネットワークを含む。ネットワーク側では、デコーダネットワークの推論結果は、例えば、ダウンリンクチャネル行列の再構築に使用される。任意選択で、AIモデルは、AEネットワーク内のエンコーダネットワークを含み、エンコーダネットワークのモデル情報は、UEが推論を実行するためにUEに送信されてもよい。
【0091】
図4A~
図4Eのフレームワークでは、AIモデルは、略してモデルまたはネットワークモデルなどと呼ばれ得、入力パラメータ(例えば、入力行列)から出力パラメータ(例えば、出力行列)へのマッピングと考えられ得ることに留意されたい。例えば、ネットワーク側のデコーダネットワークに関して、入力行列は、受信されたCSIに基づいて決定された行列であってもよい。トレーニングデータは、既知の入力行列を含んでもよく、または既知の入力行列および対応する出力行列を含んでもよく、AIモデルをトレーニングするために使用される。トレーニングデータは、アクセスネットワークデバイス、CU、CU-CP、CU-UP、DU、RU、UE、および/もしくは別のエンティティからのデータ、ならびに/またはAI技術を使用して推論されたデータであってもよい。これは限定されない。推論データは、入力行列を含み、モデルを使用して出力行列を推論するために使用される。推論データは、アクセスネットワークデバイス、CU、CU-CP、CU-UP、DU、RU、UE、および/または別のエンティティからのデータであってもよい。推論された行列は、ポリシー情報と考えられてもよく、アクションの対象に送信される。推論された行列は、さらなる処理のために、例えば、ダウンリンクチャネル行列の再構築のために、アクセスネットワークデバイス、CU、CU-CP、CU-UP、DU、RU、またはUEなどに送信され得る。
【0092】
本開示では、AEネットワーク内のデコーダネットワークがネットワーク側に配置される場合、デコーダネットワークは、アクセスネットワークデバイス(例えば、基地局)内もしくはアクセスネットワークデバイスの外部に配置されてもよく、例えば、OAMネットワーク要素、AIネットワーク要素、もしくはコアネットワークデバイスに配置されてもよく、またはRU、DU、もしくはほぼリアルタイムのRICに配置されてもよい。これは限定されない。デコーダネットワークの推論結果は、推論によってアクセスネットワークデバイスによって取得されてもよいし、または非リアルタイムRICが推論を実行した後にアクセスネットワークデバイスに送信されてもよい。説明を簡潔にするために、本開示は、デコーダネットワークがアクセスネットワークデバイスに配置される例を使用して説明される。
【0093】
本開示では、AEネットワーク内のエンコーダネットワークが端末側に配置される場合、エンコーダネットワークはUE内に配置されてもよく、UEは、エンコーダネットワークを使用して推論を実行してもよい。
【0094】
以下は、添付の図面を参照して、本開示で提供される方法について説明する。これらの方法に含まれるステップまたは動作は例にすぎず、他の動作または様々な動作の変形が、本開示においてさらに実行されてもよい。加えて、ステップは、本開示で提示されている順序とは異なる順序で実行されてもよく、場合によっては、すべての動作が実行される必要はない。
【0095】
図5は、本開示による通信方法のフローチャートである。
【0096】
S501:UEは、M個の第1のダウンリンクチャネルサブデータを取得し、各第1のダウンリンクチャネルサブデータは、M個のデータ空間内の1つのデータ空間に対応する。Mは1より大きい整数である。
【0097】
M個の第1のダウンリンクチャネルサブデータは、例えば、第1のダウンリンクチャネルデータに基づいて取得される。例えば、M個の第1のダウンリンクチャネルサブデータを取得するために、UEは、第1のダウンリンクチャネルデータを分割してM個のデータ空間に割り当て得、またはそれは、UEが、第1のダウンリンクチャネルデータをM個の部分に分割し得ることとして理解される。各第1のダウンリンクチャネルサブデータが1つのデータ空間に対応することは、データ空間が第1のダウンリンクチャネルサブデータに1対1で対応することとしても理解され得る。第1のダウンリンクチャネルデータは、例えば、元のダウンリンクチャネルデータ(または元のダウンリンクチャネル行列もしくはダウンリンクチャネル応答と呼ばれる)である。言い換えれば、元のダウンリンクチャネルデータを取得した後、UEは、元のダウンリンクチャネルデータに対して他の処理を実行することなく、元のダウンリンクチャネルデータをM個の部分に直接分割し得る。この場合、処理ステップが低減されることができる。あるいは、第1のダウンリンクチャネルデータは、第2のダウンリンクチャネルデータを前処理することによって取得されるデータであってもよく、第2のダウンリンクチャネルデータは、元のダウンリンクチャネル行列に基づいて取得される。この場合、元のダウンリンクチャネルデータは、UEによって第1のダウンリンクチャネルデータを処理するプロセスを簡略化するために、前処理プロセスによって簡略化されることができる。あるいは、第1のダウンリンクチャネルデータは、ニューラルネットワークによって出力されたデータであってもよく、例えば、元のダウンリンクチャネル行列などの内容はUEには見えず、UEは、ニューラルネットワークによって出力された第1のダウンリンクチャネルデータを直接取得する。
【0098】
第1のダウンリンクチャネルデータが、第2のダウンリンクチャネルデータを前処理することによって取得される場合、前処理プロセスが含まれる。第2のダウンリンクチャネルデータは、元のダウンリンクチャネル行列に基づいて取得される。例えば、第2のダウンリンクチャネルデータは元のダウンリンクチャネル行列であるか、または第2のダウンリンクチャネルデータは、元のダウンリンクチャネル行列を処理することによって取得される固有ベクトルである。第2のダウンリンクチャネルデータの異なる実施態様では、前処理プロセスは異なり得る。これらは以下で説明される。
【0099】
1.第2のダウンリンクチャネルデータは元のダウンリンクチャネル行列である。例えば、元のダウンリンクチャネル行列は、第1のダウンリンクチャネル行列と呼ばれる。
【0100】
例えば、第1のダウンリンクチャネル行列の次元は、[Ntx,Nrx,NRB]であり、Ntxは、ダウンリンク信号の伝送機(例えば、アクセスネットワークデバイス)におけるアンテナまたはポートの数を表し、Nrxは、ダウンリンク信号の受信機(例えば、UE)におけるアンテナまたはポートの数を表し、NRBは、周波数領域ユニットの数、例えば、リソースブロック(resource block、RB)の数またはサブバンドの数を表す。
【0101】
任意選択で、さらに、UEは、変換されたデータを取得するために、すなわち、変換された第1のダウンリンクチャネル行列を取得するために、第1のダウンリンクチャネル行列に対して次元変換処理を実行してもよい。変換された第1のダウンリンクチャネル行列の次元は、[N
tx*N
rx,N
RB]または[N
tx,N
rx,N
RB]である。例えば、行列はHで表され、Hは複素行列、すなわち
【数1】
である。任意選択で、第1のダウンリンクチャネルデータは、例えば、行列Hである。
【0102】
任意選択で、さらに、離散フーリエ変換(discrete Fourier transform、DFT)によって、2つのグループのDFT基底、すなわち、空間領域基底
【数2】
および周波数領域基底
【数3】
が生成されてもよい。空間領域基底はN
tx N
rx N
tx N
rx*1 DFT列ベクトルであり、周波数領域基底はN
rb N
rb*1 DFT列ベクトルである。UEは、空間領域基底および周波数領域基底に基づいて、次元低減された第1のダウンリンクチャネル行列Hに対して空間周波数結合射影を実行し得る。空間周波数結合射影の方法については、以下の式を参照されたい。
【数4】
(式1)
【0103】
複素行列C
complexが取得された後、第2のダウンリンクチャネルデータの前処理プロセスが完了する。ここでは、S
HはSのエルミート(Hermitian)行列であり、これは自己共役行列とも呼ばれ、行列Sに対して共役転置を実行することによって取得され得る。N
sbは周波数領域サブバンドの数を表し、例えば、N
sb=N
rb/aであり、aは、周波数領域サブバンド粒度またはサブバンド帯域幅、すなわち、各サブバンドに含まれるRBの数を表す。共通周波数領域サブバンド粒度は、1RB、2RB、4RB、または8RBなどである。これはここでは限定されない。例えば、周波数領域サブバンド粒度が4RBである場合、N
sb=N
rb/4である。Sは空間領域基底を表し、Sの具体的な形式はアンテナパネルに関連する。アンテナパネルが二重偏波であり、水平要素がNhであり、垂直要素がNvであると想定され、取得されるSの表現形式は以下の通りである。
【数5】
(式2)
【0104】
Fは周波数領域基底を表し、Fの表現形式はサブバンドNsbに関連する。例えば、Fは、以下の式を満たし得る。
F=DFT(Nsb) (式3)
【0105】
任意選択で、DFTプロセスにおいて、オーバーサンプリング係数がさらに追加されてもよい。例えば、直交空間領域基底の複数のグループ{S1,S2,S3 …}および直交周波数領域基底の複数のグループ{F1,F2,F3 …}がオーバーサンプリング方法で生成されてもよく、SiおよびFjのグループが、本開示の空間領域基底および周波数領域基底としてこれらのグループから選択される。例えば、正確な射影方向を有するグループが、これらのグループから選択されてもよい。例えば、空間領域および周波数領域のオーバーサンプリング係数はそれぞれ4である。
【0106】
任意選択で、第1のダウンリンクチャネルデータは、例えば、第2のダウンリンクチャネルデータを前処理することによって取得される複素行列、例えば、複素行列Ccomplexである。
【0107】
2.第2のダウンリンクチャネルデータは、第1のダウンリンクチャネル行列を処理することによって取得される固有ベクトルである。
【0108】
この場合、第1のダウンリンクチャネル行列は、固有ベクトルを取得するために最初に処理される必要があり、次に、固有ベクトルは、第1のダウンリンクチャネルデータを取得するために前処理される。あるいは、固有ベクトルを取得するために第1のダウンリンクチャネル行列を処理するプロセスと、第1のダウンリンクチャネルデータを取得するために固有ベクトルを前処理するプロセスとは両方とも、第1のダウンリンクチャネル行列の前処理プロセスと考えられることが理解され得る。
【0109】
例えば、第1のダウンリンクチャネル行列の次元は[Ntx,Nrx,NRB]であり、次元低減が、ダウンリンクチャネルの固有部分空間行列(または略して固有部分空間と呼ばれる)を取得するために、特異値分解(singular value decomposition、SVD)によって[Ntx,Nrx,NRB]次元の第1のダウンリンクチャネル行列に対して実行される。固有部分空間の次元は[Ntx,Nsb]である。SVDによって第1のダウンリンクチャネル行列に対して次元低減を実行するとき、UEは、第1のダウンリンクチャネル行列の異なるランク(rank)を別々に処理し得、異なるrankは、異なるストリームまたは異なる層(layer)としても理解され得る。1つのチャネル情報(または1つのチャネル推定結果)は、1つ以上の層に対応し得る。以下は、UEが第1のダウンリンクチャネル行列の第Lの層を処理するプロセスについて説明する。複数の方法があり得る。これは限定されない。
【0110】
第Lの層における各サブバンドは、RBを含み得、UEは、RBのダウンリンクチャネルを参照して、1つのサブバンドの等価なダウンリンクチャネルを計算し得る。第Lの層のサブバンドc内の第kのRBに対応するダウンリンクチャネルはH
kと表されると想定され、サブバンドcの等価なダウンリンクチャネルは、以下のように表され得る。
【数6】
(式4)
【0111】
UEは、
【数7】
に対してSVDを実行し、以下が取得されることができる。
【数8】
(式5)
【0112】
具体的には、
【数9】
である。ここでは、H
kの次元は[N
tx*N
rx]であり、
【数10】
の次元は[N
tx*N
tx]である。行列
【数11】
の第kの列は、サブバンドcに対応する第Lの層の固有ベクトル(混乱を避けるために、サブバンドに対応する固有ベクトルはサブ固有ベクトルと呼ばれる)として使用され得、第Lの層の固有ベクトルの次元は[N
tx*1]であり、すなわち、第Lの層のサブバンドcのサブ固有ベクトルは
【数12】
である。第Lの層の各サブバンドのサブ固有ベクトルも同様の方法で取得され得る。これらのサブ固有ベクトルは、固有ベクトルを取得するために連結され、固有ベクトルは、本開示における入力データとして使用され得る。例えば、固有ベクトルは、V=[V
1 V
2…V
a]と表され得る。任意選択で、第1のダウンリンクチャネルデータは、例えば、固有ベクトルVであり、固有ベクトルVの次元は[N
rx,N
RB]である。
【0113】
任意選択で、さらに、固有ベクトル
【数13】
は複素行列であり、DFT基底の2つのグループ、すなわち、空間領域基底
【数14】
および周波数領域基底
【数15】
がDFTによって生成されてもよいと想定される。空間領域基底はN
tx N
tx*1のDFT列ベクトルであり、周波数領域基底はN
sb N
sb*1のDFT列ベクトルである。UEは、空間領域基底および周波数領域基底に基づいて、次元低減されたダウンリンクチャネル行列Hに対して空間周波数結合射影を実行し得る。空間周波数結合射影の方法については、以下の式を参照されたい。
【数16】
(式6)
【0114】
取得された複素行列Ccomplexは、元のダウンリンクチャネルの固有部分空間のスパース表現であり、複素行列の次元は、空間周波数結合射影前に存在した固有ベクトルの次元と一致し、Ntx*Nsbである。複素行列Ccomplexが取得された後、第2のダウンリンクチャネルデータの前処理プロセスが完了する。SH、Nsb、および空間領域基底Sなどのパラメータの説明については、前述の説明を参照されたい。
【0115】
任意選択で、DFTプロセスにおいて、オーバーサンプリング係数がさらに追加されてもよい。例えば、直交空間領域基底の複数のグループ{S1,S2,S3 …}および直交周波数領域基底の複数のグループ{F1,F2,F3 …}がオーバーサンプリング方法で生成されてもよく、SiおよびFjのグループが、本開示の空間領域基底および周波数領域基底としてこれらのグループから選択される。例えば、正確な射影方向を有するグループが、これらのグループから選択されてもよい。例えば、空間領域および周波数領域のオーバーサンプリング係数はそれぞれ4である。2つの方法のいずれかで複素行列Ccomplexを取得した後、UEは、複素行列Ccomplexに基づいて第1のダウンリンクチャネルデータを取得し得る。任意選択で、UEが複素行列Ccomplexに基づいて第1のダウンリンクチャネルデータを取得する方法は、UEが、複素行列Ccomplexを第1のダウンリンクチャネルデータとして直接使用すること、すなわち、第1のダウンリンクチャネルデータが第2のダウンリンクチャネルデータを前処理した結果であることである。
【0116】
あるいは、UEが複素行列Ccomplexに基づいて第1のダウンリンクチャネルデータを取得する別の方法は、UEが、第1のダウンリンクチャネルデータとして複素行列Ccomplexから一部のデータを選択し得ることである。例えば、周波数領域方向(遅延領域)では、一般にエネルギーは主に遅延=0付近に集中し、別の領域のエネルギーは基本的に無視され得る。したがって、UEは、第1のダウンリンクチャネルデータとして、遅延=0の両側のF個の連続した列を選択し得、残りの部分の係数はデフォルトで0であり得る。例えば、UEは、第1のダウンリンクチャネルデータとして、複素行列CcomplexからF個の連続した列を選択してもよく、複素行列Ccomplexから選択されていない列を処理しなくてもよい。この場合、エネルギー分布が考えられ、処理オーバーヘッドが低減されることができる。
【0117】
例えば、Fは正の整数であり、Fの値はプロトコルで事前定義されてもよいし、または異なるFが、異なるオーバーヘッドに基づいて決定されてもよい。例えば、オーバーヘッドとFとの間のマッピング関係がプロトコルで提供されてもよく、これにより、UEおよびアクセスネットワークデバイスは、現在のオーバーヘッド要件に基づいて同じFを決定することができる。あるいは、Fの値は、アクセスネットワークデバイスによって示されてもよい。例えば、アクセスネットワークデバイスは、Fの値を示す情報をUEに送信する。UEは、情報を受信した後にFの値を決定することができる。あるいは、Fの値は、UEによって決定されてもよい。例えば、UEは、エアインターフェース伝送への影響を低減するために、チャネル状態および/またはネットワーク形態などの要因に基づいてFの値を決定する。Fの値を決定した後、UEは、Fの値を示す情報をアクセスネットワークデバイスに送信し得る。アクセスネットワークデバイスは、情報を受信した後にFの値を決定することができる。
【0118】
あるいは、UEが複素行列Ccomplexに基づいて第1のダウンリンクチャネルデータを取得するさらに別の方法は、UEが、圧縮された情報を取得するために、複素行列Ccomplexに対して圧縮処理を実行し得、圧縮情報が第1のダウンリンクチャネルデータとして使用され得ることである。例えば、UEは、複素行列Ccomplexをエンコーダネットワークに入力し得、エンコーダネットワークは、複素行列Ccomplexに対して圧縮処理を実行し、エンコーダネットワークは、圧縮情報を出力する。このようにして、第1のダウンリンクチャネルデータは圧縮によって取得される。これは、UEによって第1のダウンリンクチャネルデータを処理する複雑さを低減することができる。
【0119】
前述のプロセスは、第1のダウンリンクチャネルデータを取得することである。第1のダウンリンクチャネルデータを取得した後、UEは、M個の第1のダウンリンクチャネルサブデータを取得するために、第1のダウンリンクチャネルデータを分割してM個のデータ空間に割り当て得る。第1のダウンリンクチャネルサブデータは、データ空間に1対1で対応する。例えば、M個の第1のダウンリンクチャネルサブデータ内の第iの第1のダウンリンクチャネルサブデータは、M個のデータ空間内の第iのデータ空間に対応し、iは1~Mの整数であり得る。
【0120】
本開示では、M個のデータ空間が含まれ、M個のデータ空間は辞書に対応し得る。例えば、M個のデータ空間はN個の辞書に対応し得、Nは、1以上かつM以下の整数である。任意選択で、N=Mであり、すなわち、データ空間は辞書に1対1で対応し、各データ空間は1つの辞書に対応するか、またはN=1であり、すなわち、M個のデータ空間はすべて、同じ辞書に対応し、辞書は各データ空間に対応すると考えられ得る。任意選択で、N=M/2であり、2つのデータ空間ごとに1つの辞書に対応する。他の可能な場合は1つずつ説明されない。異なるデータ空間は、同じ辞書に対応してもよいし、または異なる辞書に対応してもよい。これは限定されない。辞書の使用は、以下のS502で説明される。加えて、M個のデータ空間(またはM個のデータ空間の分割方法)も辞書のトレーニングプロセスに含まれる。辞書のトレーニングプロセスは、後続の実施形態で説明される。したがって、M個のデータ空間の分割方法なども、後続の実施形態で説明される。
【0121】
辞書に記憶された変数は、{データ空間のインデックス,要素のインデックス,要素}のうちの少なくとも1つを含み、すなわち、辞書に記憶された変数は、データ空間のインデックス、要素のインデックス、または要素のうちの1つ以上を含み得る。加えて、辞書は、他の情報をさらに含んでもよいし、または他の情報を含まなくてもよい。これは限定されない。辞書に含まれるデータ空間のインデックスは、辞書に対応するデータ空間のインデックスである。例えば、辞書がデータ空間に1対1で対応する場合、1つの辞書は1つのデータ空間に対応し、辞書は、辞書に対応するデータ空間のインデックスを含む。あるいは、M個のデータ空間がすべて、同じ辞書に対応する場合、辞書はM個のデータ空間に対応し、辞書はデータ空間のインデックスを含まなくてもよい。要素は、例えばベクトルであり、辞書は、複数の要素を含んでもよい。各要素は対応するインデックスを有してもよい、すなわち、要素は要素のインデックスに1対1で対応してもよい。Nが1より大きい場合、異なる辞書に含まれる要素のインデックスが再利用されてもよい。例えば、各辞書内の要素のインデックスは1または0から始まってもよく、すなわち、異なる辞書に含まれる要素は独立して番号付けされる。あるいは、異なる辞書に含まれる要素のインデックスは異なってもよく、すなわち、異なる辞書に含まれる要素は一緒に番号付けされる。例えば、第1の辞書内の要素のインデックスは0~d-1であり、第2の辞書内の要素のインデックスはdから始まる。
図6は、N個の辞書の図である。
図6では、N=Mが例として使用され、すなわち、合計でM個の辞書が含まれている。
図6では、各辞書の0~3は、要素のインデックスを表す。ここでは、各辞書に含まれる要素のインデックスの数が4であることが例として使用される。これは実際には限定されない。加えて、異なる辞書に含まれる要素の数は同じであってもよいし、または異なってもよい。
【0122】
任意選択で、辞書表現方法は、Nが1とMとの間である場合、辞書は{辞書のインデックス,要素のインデックス,要素}を含み得、辞書のインデックスとデータ空間のインデックスとの対応関係は、アクセスネットワークデバイスと端末デバイスとの間で相互運用可能であり得ることをさらに含む。N=1である場合、辞書のインデックスは省略されることができる。デフォルトでは、すべてのデータ空間のインデックスが辞書に対応する。M>N>1である場合、辞書のインデックスとデータ空間のインデックスとの対応関係は、プロトコルで事前定義されたデフォルト規則であり得る。例えば、M=4およびN=2であり、規則において、データ空間のインデックス0およびデータ空間のインデックス2は辞書のインデックス0に対応し、データ空間のインデックス1およびデータ空間のインデックス3は辞書のインデックス1に対応する。あるいは、M>N>1である場合、アクセスネットワークデバイスは、辞書のインデックスとデータ空間のインデックスとの対応関係をUEに示してもよい。あるいは、M>N>1である場合、UEは、辞書のインデックスとデータ空間のインデックスとの対応関係をアクセスネットワークデバイスに報告してもよい。M=Nである場合、辞書のインデックスは、データ空間のインデックスに1対1で対応してもよく、または辞書は{データ空間のインデックス,要素のインデックス,要素}を含んでもよい。
【0123】
S502:UEは、M個のデータ空間内の第iのデータ空間に対応する第1の辞書に基づいて、M個の第1のダウンリンクチャネルサブデータ内の第iの第1のダウンリンクチャネルサブデータに対応する第1の情報を決定する。iは1~Mの整数である。したがって、UEは合計でM個の第1の情報を決定する。
【0124】
第iの第1のダウンリンクチャネルサブデータは、M個のデータ空間内の第iのデータ空間に対応する。例えば、第1のダウンリンクチャネルデータが分割されてM個のデータ空間に割り当てられる場合、M個の第1のダウンリンクチャネルサブデータが取得され、第iの第1のダウンリンクチャネルサブデータは、分割されて第iのデータ空間に割り当てられた、第1のダウンリンクチャネルデータの部分である。例えば、N=Mであり、各データ空間は、データ空間に対応する辞書を有する。この場合、第1の辞書は、例えば、M個のデータ空間内の第iのデータ空間に対応する辞書であり、すなわち、UEは、第iのデータ空間に対応する第1の辞書に基づいて、第iの第1のダウンリンクチャネルサブデータに対応する第1の情報を決定し得る。iが1~Mの整数である場合、異なるデータ空間に対応する辞書は第1の辞書と呼ばれ得、異なるデータ空間に対応する第1の辞書は同じであってもよいし、または異なってもよい。あるいは、N=1であり、1つの辞書がM個のデータ空間に対応する場合、第1の辞書は辞書である。M個のデータ空間内の任意のデータ空間に関して、第1の辞書が使用され、UEは、第1の辞書に基づいて、第iの第1のダウンリンクチャネルサブデータに対応する第1の情報を決定し得る。
【0125】
N=1である場合、UEは、辞書が第iのデータ空間に対応する第1の辞書であると決定し得る。あるいは、M=Nであり、辞書がデータ空間に1対1で対応する場合、UEは、第iのデータ空間に対応する第1の辞書を決定することができる。あるいは、M>N>1である場合、UEは、辞書のインデックスとデータ空間のインデックスとの対応関係に基づいて、第iのデータ空間に対応する第1の辞書を決定してもよい。例えば、M=4であり、N=2である。対応関係は、データ空間のインデックス0およびデータ空間のインデックス2が辞書のインデックス0に対応し、データ空間のインデックス1およびデータ空間のインデックス3が辞書のインデックス1に対応することを指定する。iはデータ空間のインデックスと等価である。この場合、UEは、iの値および対応関係に基づいて、第iのデータ空間に対応する第1の辞書を決定し得る。例えば、i=1である場合、UEは、第1のデータ空間に対応する第1の辞書が辞書のインデックス1によって示される辞書であると決定し得る。
【0126】
辞書の前述の説明から、第1の辞書は複数の要素を含み得、UEは、複数の要素から、第iの第1のダウンリンクチャネルサブデータに対応するP個の要素を決定し得、Pは正の整数であることが知られることができる。例えば、第1の辞書に含まれる複数の要素のうち、第iのサブデータに最も関連するP個の要素は、第iの第1のダウンリンクチャネルサブデータに対応するP個の要素であり、P個の要素は、第iの第1のダウンリンクチャネルサブデータに対応する第1の情報として使用され得る。Pが1より大きい場合、P個の要素は、第1の組合せ方法で第1の情報を形成し得る。例えば、第1の組合せ方法は、P個の要素を乗算することであり、または第1の組合せ方法は、P個の要素に対して重み付け加算を実行する(例えば、平均化する、もしくは他の可能な重み値を使用して重み付け加算を実行する)こと、またはP個の要素を直列に接続することである。第1の組合せ方法は限定されない。例えば、第1の組合せ方法は、プロトコルで事前定義されるか、またはアクセスネットワークデバイスによって決定されてUEに通知されるか、またはUEによって決定されてアクセスネットワークデバイスに通知される。M個の第1のダウンリンクチャネルサブデータに関して、UEは、M個の第1のダウンリンクチャネルサブデータに対応する第1の情報を決定し得、UEは、合計でM個の第1の情報を決定し得、M個の第1の情報はM個の要素である。
【0127】
S503:UEは第1の指示情報を送信する。例えば、UEは、第1の指示情報をアクセスネットワークデバイスに送信し、これに対応して、アクセスネットワークデバイスは、UEから第1の指示情報を受信し得る。第1の指示情報は、M個の第1の情報を示し得、アクセスネットワークデバイスは、第1の指示情報に基づいてM個の第1の情報を決定し得る。
【0128】
任意選択で、第1の指示情報は、M個の第1の情報の識別子を含み、これにより、M個の第1の情報が示されることができる。1つの第1の情報の識別子は、例えば、対応する辞書内の第1の情報のインデックスである。例えば、M個の第1の情報は、第iの第1のダウンリンクチャネルサブデータに対応する第1の情報を含み、第1の情報の識別子は、第1の辞書内の第1の情報のインデックスである。M個の第1の情報を決定した後、UEは、M個の第1の情報の識別子を決定し得、例えば、UEは、合計でM個の識別子を決定し得、UEは、M個の識別子をアクセスネットワークデバイスに送信し得る。UEがM個の第1の情報の識別子を送信する場合、UEがCSIを送信することが考えられ得、すなわち、M個の第1の情報の識別子がCSIとして使用され得、またはM個の第1の情報の識別子がPMIとして使用され得、またはM個の第1の情報の識別子がPMIもしくはCSIの識別子と同様の機能を実施することができる。
【0129】
あるいは、第1の指示情報は、M個の第1の情報の識別子を含まなくてもよく、別の方法で第1の情報を示してもよい。例えば、辞書要素間に異なる組合せ関係があり、各組合せ関係は、N個の辞書の各々に1つの要素を含み得る。各組合せ関係は、1つの指示情報に対応し得る。UEが特定の指示情報を送信する場合、それは、指示情報に対応する組合せ関係が示されていることを示す。例えば、第1の指示情報がM個の第1の情報の組合せ関係に対応する場合、UEによって送信される第1の指示情報は、M個の第1の情報を示し得る。
【0130】
任意選択で、M個の第1の情報の識別子を送信するとき、UEは、第1の順序で識別子を送信してもよい。第1の順序はM個のデータ空間の配置順序であり、すなわち、第1の順序は、UEが特定のデータ空間に対応する第1の情報の識別子を最初に送信し、特定のデータ空間に対応する第1の情報の識別子を次に送信することを指定する。例えば、M=4であり、M個のデータ空間はデータ空間1~データ空間4であり、第1の順序は2-1-4-3である。M個の第1の情報の識別子を送信するとき、UEは、最初にデータ空間2に対応する第1の情報の識別子を送信し、次にデータ空間1に対応する第1の情報の識別子を送信し、次にデータ空間4に対応する第1の情報の識別子を送信し、最後にデータ空間3に対応する第1の情報の識別子を送信する。UEおよびアクセスネットワークデバイスに関して、第1の順序は既知である。したがって、M個の第1の情報の識別子を受信した後、アクセスネットワークデバイスは、対応エラーを回避するために、データ空間と第1の情報の識別子との対応関係をさらに決定することができる。
【0131】
例えば、第1の順序はプロトコルで事前定義された順序であり、UEおよびアクセスネットワークデバイスは、プロトコルに従って第1の順序を決定することができる。あるいは、第1の順序は、UEおよびアクセスネットワークデバイスにおいて事前構成されてもよい。あるいは、第1の順序は、アクセスネットワークデバイスによって決定されてもよい。第1の順序を決定した後、アクセスネットワークデバイスは、第2の指示情報をUEに送信し得、第2の指示情報は第1の順序を示し、UEは、第2の指示情報に基づいて第1の順序を決定することができる。あるいは、第1の順序はUEによって決定されてもよい。第1の順序を決定した後、UEは、第3の指示情報をアクセスネットワークデバイスに送信し得、第3の指示情報は第1の順序を示し、アクセスネットワークデバイスは、第3の指示情報に基づいて第1の順序を決定することができる。
【0132】
S504:M個の第1の情報内の第iの第1の情報に関して、アクセスネットワークデバイスは、M個のデータ空間内の第iのデータ空間に対応する第1の辞書に基づいて第iの第2のダウンリンクチャネルサブデータを再構築する。iが1~Mの整数である場合、アクセスネットワークデバイスは、合計でM個の第2のダウンリンクチャネルサブデータを取得し得る。
【0133】
例えば、アクセスネットワークデバイスが、第1の順序でM個の第1の情報の識別子を受信する場合、アクセスネットワークデバイスは、データ空間と第1の情報の識別子との対応関係を決定することができ、これにより、アクセスネットワークデバイスは、データ空間に対応する辞書に基づいて、第1の情報の識別子に対応する第1の情報を決定することができ、アクセスネットワークデバイスによって決定された第1の情報は、アクセスネットワークデバイスによって再構築された第2のダウンリンクチャネルサブデータと考えられる。例えば、N=Mであり、データ空間は辞書に1対1で対応し、第iのデータ空間に対応する辞書は、例えば第1の辞書である。この場合、第iの第1の情報の識別子に関して、アクセスネットワークデバイスは、第1の辞書において第iの第1の情報の識別子に対応する第1の情報を決定するために、すなわち、第iの第1の情報に対応する第2のダウンリンクチャネルサブデータ(第iの第2のダウンリンクチャネルサブデータ)を再構築するために、第1の辞書において第iの第1の情報の識別子を決定し得る。別の例では、N=1であり、M個のデータ空間はすべて、第1の辞書に対応する。この場合、第iの第1の情報の識別子に関して、アクセスネットワークデバイスは、第1の辞書において第iの第1の情報の識別子に対応する第1の情報を決定するために、すなわち、第iの第1の情報に対応する第2のダウンリンクチャネルサブデータ(第iの第2のダウンリンクチャネルサブデータ)を再構築するために、第1の辞書において第iの第1の情報の識別子を決定し得る。別の例では、M>N>1である。この場合、第iの第1の情報の識別子に関して、アクセスネットワークデバイスは、第1の順序で、第iの第1の情報の識別子に対応するデータ空間、例えば、第iのデータ空間を決定することができる。アクセスネットワークデバイスは、辞書のインデックスとデータ空間のインデックスとの対応関係に基づいて、第iのデータ空間に対応する辞書、例えば第1の辞書をさらに決定し得る。この場合、アクセスネットワークデバイスは、第1の辞書において第iの第1の情報の識別子に対応する第1の情報を決定し得る、すなわち、第iの第1の情報に対応する第2のダウンリンクチャネルサブデータ(第iの第2のダウンリンクチャネルサブデータ)を再構築し得る。
【0134】
理想的な状態では、アクセスネットワークデバイスによって取得されるM個の第2のダウンリンクチャネルサブデータとUEによって取得されるM個の第1のダウンリンクチャネルサブデータとは、同じデータであり得る。例えば、第iの第1のダウンリンクチャネルサブデータと第iの第2のダウンリンクチャネルサブデータとは同じデータである。実際の適用では、アクセスネットワークデバイスによって取得されるM個の第2のダウンリンクチャネルサブデータとUEによって取得されるM個の第1のダウンリンクチャネルサブデータとの間にはずれがあり得る。UEが辞書に基づいて第1の情報を取得するプロセスは、M個の第1のダウンリンクチャネルサブデータが量子化されるプロセスと等価である。言い換えれば、UEは、量子化情報をアクセスネットワークデバイスに送信し、アクセスネットワークデバイスは、量子化情報および辞書に基づいてM個の第2のダウンリンクチャネルサブデータを再構築する。量子化および再構築プロセスにはいくらかの損失があり得る。したがって、M個の第2のダウンリンクチャネルサブデータとM個の第1のダウンリンクチャネルサブデータとの間には一定のずれがあり得る。例えば、第iの第1のダウンリンクチャネルサブデータと第iの第2のダウンリンクチャネルサブデータとは異なるデータであり得る。しかしながら、辞書精度の改善および伝送品質の改善などにより、M個の第2のダウンリンクチャネルサブデータとM個の第1のダウンリンクチャネルサブデータとの間のずれは減少傾向にあり得る。
【0135】
S505:アクセスネットワークデバイスは、M個の第2のダウンリンクチャネルサブデータに基づいてダウンリンクチャネル情報を再構築する。言い換えれば、アクセスネットワークデバイスは、M個の第2のダウンリンクチャネルサブデータに基づいてダウンリンクチャネル行列を再構築し、例えば、第1のダウンリンクチャネル行列を再構築する。
【0136】
S501において、UEが、第1のダウンリンクチャネルデータとして複素行列C
complexを使用するか、または第1のダウンリンクチャネルデータとして複素行列C
complexからF個の連続した列を選択する場合、M個の第2のダウンリンクチャネルサブデータを取得した後、アクセスネットワークデバイスは、M個の第2のダウンリンクチャネルサブデータを連結し得、取得される情報は、例えば、角度遅延領域係数と呼ばれ、角度遅延領域係数は行列であり、
【数17】
と表され得る。
【0137】
あるいは、S501において、UEが、複素行列C
complexを圧縮して圧縮情報を取得し、圧縮情報を第1のダウンリンクチャネルデータとして使用する場合、アクセスネットワークデバイスによって取得されるM個の第2のダウンリンクチャネルサブデータは、実際にはM個の圧縮されたサブ情報である。任意選択で、アクセスネットワークデバイスは、K個の再構築された情報を取得するために、M個の圧縮されたサブ情報を再構築してもよく、Kは正の整数であり、KはMに等しくてもよいし、またはMに等しくなくてもよい。例えば、UEが、エンコーダネットワークを介して圧縮情報を取得する場合、エンコーダネットワークに対応するデコーダネットワークはアクセスネットワークデバイス側に設定されてもよい。アクセスネットワークデバイスは、M個の第2のダウンリンクチャネルサブデータをデコーダネットワークに入力してもよく、デコーダネットワークは、K個の再構築された情報を出力してもよい。アクセスネットワークデバイスは、
【数18】
と表され得る、行列である角度遅延領域係数を取得するために、K個の再構築された情報を連結してもよい。
【0138】
図7は、UEが第1のダウンリンクチャネルデータとして圧縮情報を使用し、アクセスネットワークデバイスが圧縮情報を再構築する必要がある図である。
図7では、例えば、UEは第2のダウンリンクチャネルデータをエンコーダネットワークに入力し、エンコーダネットワークは第2のダウンリンクチャネルデータを圧縮し、エンコーダネットワークは圧縮情報を出力し、圧縮情報は第1のダウンリンクチャネルデータとして使用され得る。あるいは、
図7では、UEは複素行列C
complexをエンコーダネットワークに入力してもよく、エンコーダネットワークは複素行列C
complexを圧縮し、エンコーダネットワークは圧縮情報を出力し、圧縮情報は第1のダウンリンクチャネルデータとして使用されてもよい。UEは、圧縮情報を分割してM個のデータ空間に割り当てる。
図7では、M=4が例として使用され、この場合、UEは4つの第1のダウンリンクチャネルサブデータを取得する。UEは、4つの第1の情報の識別子を取得するために、4つの辞書に基づいて4つの第1のダウンリンクチャネルサブデータを処理する。
図7では、丸は辞書を表し、C
Mは、第Mの辞書に含まれる要素の数を表し、log
2C
Mは、第Mの辞書に対応する伝送ビット数を表す。任意選択で、
図7では、辞書に対応する伝送ビット数は、切上げによって取得されてもよい。例えば、
図7では、log
2C
Mは
【数19】
に置き換えられてもよく、log
2C
1は
【数20】
に置き換えられてもよい。あるいは、
図7では、辞書に対応する伝送ビット数は、あるいは、切捨てによって取得されてもよい。これは具体的に限定されない。1つの第1の情報は、対応する辞書において1つの第1のダウンリンクチャネルサブデータに対応する要素である。
図7では、N=Mが例として使用されている。UEは、4つの第1の情報の識別子をアクセスネットワークデバイスに送信する。4つの第1の情報の識別子を受信した後、アクセスネットワークデバイスは、4つの辞書に基づいて4つの圧縮されたサブ情報を再構築し得る。アクセスネットワークデバイスは、再構築された情報を取得するために、4つの圧縮されたサブ情報に対して連結などの処理を実行し、次に、取得された情報をデコーダネットワークに入力する。アクセスネットワークデバイスは、再構築された情報に基づいてダウンリンクチャネル情報を再構築し得る。エンコーダネットワークが複素行列C
complexを圧縮するとき、コードブックが必要とされ得る。これに対応して、デコーダネットワークが圧縮情報を再構築するとき、コードブックも必要とされ得る。あるいは、コードブックは辞書とも呼ばれ得るが、辞書は、本開示で説明されているN個の辞書とは異なる。
【0139】
角度遅延領域係数が取得される方法に関係なく、アクセスネットワークデバイスは、角度遅延領域係数
【数21】
に基づいてダウンリンクチャネル情報を再構築し得る。理想的な状態では、再構築されたダウンリンクチャネル情報と第1のダウンリンクチャネル行列とは同じ情報であり得る。
【0140】
例えば、第1のダウンリンクチャネルデータが第1のダウンリンクチャネル行列
【数22】
である場合、アクセスネットワークデバイスは、再構築されたダウンリンクチャネル(または再構築されたダウンリンクチャネル)を取得するために、
【数23】
に対して逆変換を実行する。例えば、アクセスネットワークデバイスが
【数24】
に対して逆変換を実行する方法は以下の通りである。
【数25】
(式7)
【0141】
【数26】
は再構築されたダウンリンクチャネルを表し、式7の
【数27】
の次元はN
tx N
rx*N
RBである。例えば、
【数28】
は、再構築されたダウンリンクチャネル情報として直接使用されてもよく、または
【数29】
の次元は、行列変換などの方法で、第1のダウンリンクチャネル行列の次元と同じ次元に変換されてもよく、次元変換によって取得された情報は再構築されたダウンリンクチャネル情報である。
【0142】
別の例では、第1のダウンリンクチャネルデータが、第1のダウンリンクチャネル行列
【数30】
に基づいて取得された固有ベクトルである場合、アクセスネットワークデバイスは、再構築されたダウンリンクチャネルの固有部分空間を取得するために、
【数31】
に対して逆変換を実行する。例えば、アクセスネットワークデバイスが
【数32】
に対して逆変換を実行する方法は以下の通りである。
【数33】
(式8)
【0143】
【数34】
は再構築されたダウンリンクチャネルの固有部分空間を表し、式8の
【数35】
の次元はN
tx*N
rbである。例えば、
【数36】
は、再構築されたダウンリンクチャネル情報として直接使用され得る。
【0144】
本開示では、UEは、第1のダウンリンクチャネルデータを分割してM個のデータ空間に割り当て得、異なるデータ空間に対応する辞書に基づいて、各第1のダウンリンクチャネルサブデータに対応する第1の情報を決定し得る。異なるデータ空間は異なる位置情報を表すことができ、すなわち、異なるチャネル環境情報を表すことができる。UEは、異なるデータ空間に対応する第1の情報をフィードバックし、これにより、アクセスネットワークデバイスは、第1の情報と環境情報との対応関係を決定することができる。この場合、UEによってフィードバックされる第1の情報は実際の通信環境を反映することができ、UEによってフィードバックされる第1の情報の精度は改善される。アクセスネットワークデバイスは、UEによってフィードバックされた第1の情報に基づいて正確なダウンリンクチャネルを再構築することができる。
【0145】
図5に示されている実施形態は、ネットワーク推論プロセスを説明している。辞書が、ネットワーク推論プロセスに含まれ、辞書は、ネットワークトレーニングによって取得され得る。辞書を取得するためにトレーニングするための複数の方法があり得る。例えば、エンコーダネットワークがUE側に配されず、デコーダネットワークがアクセスネットワークデバイス側に配されない場合、またはエンコーダネットワークがUE側に配され、デコーダネットワークがアクセスネットワークデバイス側に配される場合であっても、エンコーダネットワークおよびデコーダネットワークは、辞書と共にトレーニングさてもよいし、または辞書と共にトレーニングされなくてもよい。辞書のみがトレーニングによって取得される必要があり、エンコーダ/デコーダネットワークが取得される必要がない場合、本開示において以下で説明される別の通信方法への参照がなされ得る。本方法ではネットワークトレーニングプロセスが説明され、辞書はトレーニングプロセスで取得され得る。
図8は、方法のフローチャートである。
【0146】
S801:第1のノードは、M個の第3のダウンリンクチャネルサブデータを取得する。各第3のダウンリンクチャネルサブデータは、M個のデータ空間内の1つのデータ空間に対応する。本開示におけるM個のデータ空間と、
図5に示されている実施形態におけるM個のデータ空間とは、特徴において同じであってもよい。
【0147】
M個の第3のダウンリンクチャネルサブデータは、例えば、第3のダウンリンクチャネルデータに基づいて取得される。例えば、M個の第3のダウンリンクチャネルサブデータを取得するために、UEもしくは第1のノードは、第3のダウンリンクチャネルデータを分割してM個のデータ空間に割り当て得、またはそれは、UEもしくは第1のノードが、第3のダウンリンクチャネルデータをM個の部分に分割し得ることとして理解される。第3のダウンリンクチャネルデータは、例えば、元のダウンリンクチャネルデータである。例えば、この実施形態における元のダウンリンクチャネルデータは、第3のダウンリンクチャネル行列と呼ばれる。あるいは、第3のダウンリンクチャネルデータは、第4のダウンリンクチャネルデータを前処理することによって取得されるデータであってもよく、第4のダウンリンクチャネルデータは、第3のダウンリンクチャネル行列に基づいて取得される。あるいは、第3のダウンリンクチャネルデータは、ニューラルネットワークによって出力されたデータであってもよい。第3のダウンリンクチャネル行列は、トレーニングデータと考えられ得、またはトレーニングサンプルと呼ばれ得る。例えば、第3のダウンリンクチャネル行列は1つ以上のトレーニングデータを含むと考えられ得る。例えば、第3のダウンリンクチャネル行列は実際には1つ以上のダウンリンクチャネルサブ行列を含み、1つのダウンリンクチャネルサブ行列は1つのトレーニングデータと考えられ得る。ここでの第3のダウンリンクチャネルサブ行列は、互いに独立し得、大きな行列に含まれない。言い換えれば、第3のダウンリンクチャネル行列は、大きな行列とは考えられず、第3のダウンリンクチャネル行列は、1つ以上の第3のダウンリンクチャネルサブ行列の結合名として理解され得る。
【0148】
第3のダウンリンクチャネルデータが、第4のダウンリンクチャネルデータを前処理することによって取得される場合、前処理プロセスが含まれる。第4のダウンリンクチャネルデータの前処理プロセスについては、
図5に示されている実施形態のS501における第2のダウンリンクチャネルデータの前処理プロセスの説明を参照されたい。
【0149】
本開示では、第1のノードは、例えば、UEもしくはアクセスネットワークデバイスであり、またはサードパーティデバイス(例えば、AIノード)であってもよい。トレーニングプロセスは、オンライントレーニングプロセスまたはオフライントレーニングプロセスであってもよい。
【0150】
第3のダウンリンクチャネルデータを取得した後、第1のノードは、M個の第3のダウンリンクチャネルサブデータを取得するために、第3のダウンリンクチャネルデータを分割してM個のデータ空間に割り当て得る。第3のダウンリンクチャネルサブデータは、データ空間に1対1で対応する。例えば、M個の第3のダウンリンクチャネルサブデータ内の第iの第3のダウンリンクチャネルサブデータは、M個のデータ空間内の第iのデータ空間に対応し、iは1~Mの整数であり得る。
【0151】
第3のダウンリンクチャネルデータを分割してM個のデータ空間に割り当てるために、第1のノードは、最初に、M個のデータ空間を決定する、すなわち、M個のデータ空間の分割方法を決定する必要がある。例えば、第1のノードは、UEまたはアクセスネットワークデバイスである。例えば、M個のデータ空間の分割方法がプロトコルで事前定義されている場合、UEとアクセスネットワークデバイスとの両方が、プロトコルに従ってM個のデータ空間の分割方法を決定し得る。あるいは、M個のデータ空間の分割方法は、アクセスネットワークデバイスによって決定される。アクセスネットワークデバイスは、第4の指示情報をUEに送信し得、第4の指示情報は、M個のデータ空間の分割方法を示し得、UEは、第4の指示情報に基づいてM個のデータ空間の分割方法を決定することができる。あるいは、M個のデータ空間の分割方法はUEによって決定されてもよい。UEは、第5の指示情報をアクセスネットワークデバイスに送信し得、第5の指示情報は、M個のデータ空間の分割方法を示し得、アクセスネットワークデバイスは、第5の指示情報に基づいてM個のデータ空間の分割方法を決定し得る。
【0152】
本開示では、例えば、M個のデータ空間の分割方法は、プロトコルで以下のように指定され、M=4であり、これらの4つのデータ空間は、それぞれ1つのデータの4つの部分を含む。4つの部分は、データに含まれる偏波1の実部、データに含まれる偏波1の虚部、データに含まれる偏波2の実部、およびデータに含まれる偏波2の虚部である。例えば、第3のダウンリンクチャネルデータが分割されて4つのデータ空間に割り当てられる場合、分割によって取得される4つの第3のダウンリンクチャネルサブデータは、それぞれ、第3のダウンリンクチャネルデータに含まれる偏波1の実部、第3のダウンリンクチャネルデータに含まれる偏波1の虚部、第3のダウンリンクチャネルデータに含まれる偏波2の実部、および第3のダウンリンクチャネルデータに含まれる偏波2の虚部を含む。アンテナ形態の観点から、アンテナ素子は二重偏波であり、偏波1および偏波2は2つの偏波方向を表す。2つの偏波方向は互いに独立していると考えられ得る。複素数の観点から、データは実部および虚部を含み、実部の処理プロセスと虚部の処理プロセスとは互いに独立している。したがって、データ空間は、アンテナ偏波方向ならびに複素数の実部および虚部に基づいて分割され得、これにより、各データ空間は独立して処理されることができる。データ空間は分割され、各データ空間のサイズは元のデータの1/Mであり、異なるデータ空間は異なる環境情報を表すことができる。任意選択で、データ空間の分割方法は、あるいは、不等分割方法であってもよい。これは限定されない。
【0153】
任意選択で、ネットワーク推論段階では、UEおよびアクセスネットワークデバイスはまた、M個のデータ空間の分割方法を決定してもよく、決定方法は本開示におけるものと同様である。あるいは、第1のノードは、M個のデータ空間の分割方法をUEおよび/またはアクセスネットワークデバイスに示し得る。言い換えれば、
図5に示されている実施形態では、第1のダウンリンクチャネルデータを分割してM個のデータ空間に割り当てるために、UEはまた、M個のデータ空間の分割方法を最初に決定する必要がある。この場合、本開示で提供されるM個のデータ空間の分割方法が使用され得る。ネットワーク推論段階およびネットワークトレーニング段階において、M個のデータ空間の適用される分割方法は一致する。
【0154】
S802:第1のノードは、N個の辞書を取得するためにクラスタリング(clustering)トレーニングを実行する。
【0155】
図5に示されている実施形態で説明されたように、NはMに等しくてもよく、または1に等しくてもよく、またはM>N>1であってもよい。これらの解決策では、第1のノードのトレーニングプロセスは異なり得る。以下は、これらについて別々に説明する。
【0156】
1.N=M、すなわち、データ空間は辞書に1対1で対応する。
【0157】
第1のノードは、第iのデータ空間に対応する辞書(例えば、第1の辞書)を取得するために、M個の第3のダウンリンクチャネルサブデータ内の第iの第3のダウンリンクチャネルサブデータに基づいてクラスタリングトレーニングを実行し得、第iの第3のダウンリンクチャネルサブデータは第iのデータ空間に対応する。言い換えれば、第1のノードは、各データ空間に対応する辞書を取得するために、各データ空間において別々にトレーニングを実行し得、合計でM個の辞書が取得され得る。クラスタリングは、同じクラスタ内のデータオブジェクトが可能な限り類似し、同じクラスタ内にないデータオブジェクトが可能な限り異なるように、特定の基準(例えば、距離)に基づいてデータセットを異なるクラスまたはクラスタに分割することである。言い換えれば、クラスタリング後、同じクラスのデータは可能な限り集約されることができ、異なるクラスのデータは可能な限り分離されることができる。データの各クラスは、クラス中心値を有する。本開示においてクラスタリング方法でネットワークモデルトレーニングが実行される場合、辞書に含まれる要素はクラス中心値とも呼ばれ得る。
【0158】
データ空間におけるトレーニングは、データ空間に対応する要素を取得することであり、これらの要素は、データ空間に対応する辞書に含まれる要素として使用され得る。
【0159】
1つのデータ空間に対応する辞書に含まれる要素の数は、データ空間に対応するビットオーバーヘッドに関連し得る。例えば、ビットオーバーヘッドは48ビット(bit)であり、これは、M個のデータ空間に対応する総伝送オーバーヘッドである。例えば、すべてのデータ空間に対応するビットオーバーヘッドは等しい。合計で4つのデータ空間があり、各データ空間に対応する伝送オーバーヘッドは総ビットオーバーヘッドの1/Mであると想定される。この場合、1つのデータ空間に対応するビットオーバーヘッドは12bitsである。12bitsは、最大212個の識別子を搬送し得る。したがって、第1の辞書に含まれる要素の数は212以下である必要がある。異なるビットオーバーヘッドは異なる数の要素に対応することが知られることができる。任意選択で、第1のノードは、異なるビットオーバーヘッドに基づいて異なる辞書を別々にトレーニングしてもよく、ビットオーバーヘッドは辞書に1対1で対応してもよい。言い換えれば、第1のノードは、1つのデータ空間に関して1つ以上の辞書をトレーニングしてもよい。複数の辞書がトレーニングされる場合、複数の辞書は異なるビットオーバーヘッドに対応し得、これにより、UEは、ネットワーク推論を実行するときに現在のビットオーバーヘッドに基づいて適切な辞書を選択し得る。
【0160】
例えば、ネットワーク推論プロセスでは、データ空間に対応するビットオーバーヘッドは、一般に、ネットワーク側で決定され、例えば、アクセスネットワークデバイスによって決定される。アクセスネットワークデバイスは、アクセスネットワークデバイスとUEとの間のリアルタイムチャネル状態に基づいてビットオーバーヘッドを決定し得る。UEが
図5に示されている実施形態におけるネットワーク推論プロセスを実行するとき、アクセスネットワークデバイスは、現在の伝送のビットオーバーヘッドを決定するために、最初に情報をUEに配信し得る。この情報は、M個のデータ空間に対応する総ビットオーバーヘッドを示し得、または1つのデータ空間に対応するビットオーバーヘッドを決定し得る。UEは、アクセスネットワークデバイスによって示されるビットオーバーヘッドに基づいて適切な辞書を選択し得る。例えば、アクセスネットワークデバイスが、総ビットオーバーヘッドが48bitsであり、M=4であることを示す場合、UEは、各データ空間の伝送オーバーヘッドが48/4=12bitsであると決定し得る。例えば、UEが第iのデータ空間に対応する辞書を決定するときに、第iのデータ空間が複数の辞書に対応する(異なる辞書が異なるビットオーバーヘッドに対応する)場合、UEは、ネットワーク推論を実行するために辞書から12bitsに対応する辞書を選択し得る。
【0161】
加えて、第1のノードは、第iの第3のダウンリンクチャネルサブデータの次元に基づいて、第1の辞書に含まれる要素の次元をさらに決定し得る。第1の辞書に含まれる要素の次元は、第1の辞書の深度とも考えられ得、第1の辞書をトレーニングするために使用されるダウンリンクチャネルサブデータの次元に関連する。したがって、第1のノードは、第iの第3のダウンリンクチャネルサブデータの次元に基づいて、第1の辞書に含まれる要素の次元を決定し得る。例えば、第1のノードは、第iの第3のダウンリンクチャネルサブデータをベクトルに変換し得、ベクトルの長さは、第1の辞書に含まれる要素の次元である。例えば、第iの第3のダウンリンクチャネルサブデータは、第3のダウンリンクチャネルデータに含まれる偏波1の実部であり、この部分は、例えば、次元が[16,13]である行列である。第1のノードは、この行列を長さが16×13のベクトルに変換し得る。この場合、第1の辞書に含まれる要素の次元は、16×13である。
【0162】
第1のノードは、行列を行ごとにベクトルに変換してもよいし、または行列を列ごとにベクトルに変換してもよい。ネットワーク推論プロセスでは、UEもこの変換プロセスを実行する必要がある。アクセスネットワークデバイスが正確なダウンリンクチャネル情報を再構築することを可能にするために、UEの変換シーケンスが、UEとアクセスネットワークデバイスとの両方によって知られる必要がある。例えば、UEの変換シーケンスはプロトコルで事前定義されてもよいし、またはUEの変換シーケンスはアクセスネットワークデバイスによって決定され、UEに通知されてもよいし、またはUEの変換シーケンスはUEによって決定され、アクセスネットワークデバイスに通知されてもよい。ネットワーク推論プロセスにおける変換シーケンスは、ネットワークトレーニングプロセスにおける変換シーケンスと一致し得る。
【0163】
第1の辞書に含まれる要素の数および第1の辞書に含まれる要素の次元を決定した後、第1のノードは、第1の辞書を取得するために、第iの第3のダウンリンクチャネルサブデータに基づいてクラスタリングトレーニングを実行し得る。各データ空間に関して、第1のノードは、M個の辞書を取得するために、同様の方法でトレーニングを実行し得る。
【0164】
2.N=1、すなわち、M個のデータ空間は1つの辞書に対応する。例えば、この辞書は第1の辞書と呼ばれる。
【0165】
第1のノードは、M個のデータ空間に対応する辞書(例えば、第1の辞書)を取得するために、M個の第3のダウンリンクチャネルサブデータに基づいてクラスタリングトレーニングを実行し得る。言い換えれば、M個の第3のダウンリンクチャネルサブデータを取得した後、第1のノードは、辞書を取得するために統合トレーニングを実行し得、辞書はM個のデータ空間のすべてに対応する。M個の第3のダウンリンクチャネルサブデータは、辞書をトレーニングするために使用される。辞書に関して、それは、サンプリングされたデータ(またはトレーニングデータ)がM-1倍だけ増加されることと等価であり、トレーニングデータはより豊かであり、これにより、辞書に含まれる要素はより豊富で詳しく、これは、アクセスネットワークデバイスがより正確なダウンリンクチャネル情報を再構築するのに役立つ。
【0166】
M個の第3のダウンリンクチャネルサブデータは、M個のデータ空間に対応する要素を取得するためにトレーニングを実行するために使用され、これらの要素は、トレーニングによって取得された辞書に含まれる要素として使用され得る。
【0167】
任意選択で、第1のノードは、異なるビットオーバーヘッドに基づいて異なる辞書を別々にトレーニングしてもよく、ビットオーバーヘッドは辞書に1対1で対応してもよい。言い換えれば、第1のノードは、1つ以上の辞書をトレーニングしてもよい。複数の辞書がトレーニングされる場合、複数の辞書は異なるビットオーバーヘッドに対応し得、これにより、UEは、ネットワーク推論を実行するときに現在のビットオーバーヘッドに基づいて適切な辞書を選択し得る。
【0168】
加えて、第1のノードは、第3のダウンリンクチャネルデータの次元に基づいて、第1の辞書に含まれる要素の次元をさらに決定し得る。決定方法については、前述の説明を参照されたい。第1の辞書は、例えば、トレーニングによって第1のノードにより取得される辞書である。
【0169】
第1の辞書に含まれる要素の数および第1の辞書に含まれる要素の次元を決定した後、第1のノードは、第1の辞書を取得するために、M個の第3のダウンリンクチャネルサブデータに基づいてクラスタリングトレーニングを実行し得る。
【0170】
あるいは、N=1のとき、第1のノードは、すべてのデータ空間において別々にトレーニングを実行してもよい。例えば、第1のノードは、N=Mのときに使用されるトレーニング方法を使用するが、トレーニング中に条件が追加される必要があり、すなわち、すべてのデータ空間におけるトレーニングによって取得される辞書は同じである。この場合、第1のノードはトレーニングによってN個の辞書を取得し得るが、N個の辞書は同じである。これは、第1のノードが依然として1つの辞書を取得することと等価である。
【0171】
3.M>N>1、すなわち、M個のデータ空間は、N個の辞書に対応する。
【0172】
第1のノードは、N個の辞書内の1つの辞書(例えば、第1の辞書)を取得するために、M個の第3のダウンリンクチャネルサブデータ内の少なくとも1つの第3のダウンリンクチャネルサブデータに基づいてクラスタリングトレーニングを実行し得る。例えば、第3のダウンリンクチャネルサブデータがデータ空間に1対1で対応する場合、少なくとも1つの第3のダウンリンクチャネルサブデータは少なくとも1つのデータ空間に対応する。1つの辞書は、1つ以上のデータ空間に対応し得る。例えば、辞書のインデックスとデータ空間のインデックスとの間に対応関係がある。この場合、辞書をトレーニングするとき、第1のノードは、辞書に対応するデータ空間において第3のダウンリンクチャネルサブデータに基づいてトレーニングを実行する。
【0173】
任意選択で、第1のノードは、異なるビットオーバーヘッドに基づいて異なる辞書を別々にトレーニングしてもよく、ビットオーバーヘッドは辞書に1対1で対応してもよい。言い換えれば、1つの辞書は1つ以上のデータ空間に対応する。1つ以上のデータ空間に関して、第1のノードは、異なるビットオーバーヘッドに基づいて1つ以上の辞書をトレーニングし得る。複数の辞書がトレーニングされる場合、複数の辞書は異なるビットオーバーヘッドに対応し得、これにより、UEは、ネットワーク推論中に現在のビットオーバーヘッドに基づいて適切な辞書を選択し得る。
【0174】
加えて、第1のノードは、第3のダウンリンクチャネルデータの次元に基づいて、第1の辞書に含まれる要素の次元をさらに決定し得る。決定方法については、前述の説明を参照されたい。第1の辞書は、例えば、トレーニングによって第1のノードにより取得される辞書である。
【0175】
第1の辞書に含まれる要素の数および第1の辞書に含まれる要素の次元を決定した後、第1のノードは、第1の辞書を取得するために、少なくとも1つの第3のダウンリンクチャネルサブデータに基づいてクラスタリングトレーニングを実行し得る。
【0176】
本開示で適用され得る複数のクラスタリングトレーニング方法、例えばK-Meansクラスタリング方法があり得る。加えて、ニューラルネットワークのトレーニングプロセスにおいて、損失関数が定義されてもよく、損失関数は、理想的な目標値とニューラルネットワークの出力値との間のギャップまたは差を記述する。クラスタリングトレーニングプロセスにおいて、損失関数は使用されなくてもよいし、または損失関数は使用されてもよい。例えば、損失関数は、クラスタリング中心と複数のトレーニングサンプルの各々との間の距離の最小値を目標として使用するか、またはクラスタリング中心に最も関連し、かつ複数のトレーニングサンプル内にあるトレーニングサンプルを目標として使用する。加えて、損失関数は別の関数であってもよく、損失関数の実施態様は本開示では限定されない。辞書のトレーニングプロセスは、損失関数の値が閾値未満になるように、または損失関数の値が目標要件を満たすように辞書のパラメータが調整されるプロセスである。辞書のパラメータが調整されることは、例えば、辞書の要素が調整されることを含む。
【0177】
辞書に含まれる内容は、
図5に示されている実施形態で説明されており、詳細は再び説明されない。
【0178】
前述のプロセスでは、第1のノードは、トレーニングによってN個の辞書を取得し、これにより、UEは、
図5に示されている実施形態におけるネットワーク推論プロセスでN個の辞書を使用することができ、アクセスネットワークデバイスも、ダウンリンクチャネル情報を再構築する最中にN個の辞書を使用することができる。データ空間およびN個の辞書は分割され、これにより、ダウンリンクチャネルに対応する環境情報が反映されることができ、これは、アクセスネットワークデバイスがより正確なダウンリンクチャネル情報を再構築するのに役立つ。
【0179】
理解を容易にするために、以下は、本開示におけるネットワークトレーニングプロセスおよびネットワーク推論プロセスを説明するためにいくつかの添付の図面を例として使用する。
【0180】
図9Aは、本開示によるトレーニングプロセスおよびネットワーク推論プロセスの図である。
図9Aおよび後続の添付の図面におけるトレーニングプロセスでは、UEがトレーニングプロセスを実行する例が使用される。第3のダウンリンクチャネルデータからq
1~q
4へのプロセス、すなわち、情報がアクセスネットワークデバイスに送信される前のプロセスは、トレーニングプロセスと考えられ得る。
図9Aのプロセス全体はネットワーク推論プロセスとも考えられ得、ネットワーク推論プロセスはデータの処理プロセスとも考えられ得る。もちろん、データは、実際にはトレーニングに使用されるトレーニングデータではないが、データの処理プロセスはトレーニングデータの処理プロセスと同様である。トレーニングプロセスは、複数のトレーニングデータに対してクラスタリングトレーニングを実行することによって辞書を取得することを含む。処理プロセスは、取得された辞書を使用してダウンリンクチャネルデータを表すと考えられ得る。
【0181】
トレーニングプロセスでは、トレーニングデータは元のダウンリンクチャネルデータであり、元のダウンリンクチャネルデータは実際には複数のトレーニングデータ(またはトレーニングサンプルと呼ばれる)を含むと想定される。UEは、固有ベクトルを取得するために元のダウンリンクチャネルデータ内の各トレーニングデータを処理し、固有ベクトルの次元は[Ntx=32,Nsb=13]である。UEは、固有ベクトルのスパース係数を取得するために固有ベクトルを前処理し、複数のトレーニングデータに対応する固有ベクトルのスパース係数は、第3のダウンリンクチャネルデータとして使用され得る。実数トレーニングがネットワークトレーニングに使用されるため、データ入力は実部と虚部との2つの部分に分割され、第3のダウンリンクチャネルデータの次元は、例えば[E,2,32,13]である。第3のダウンリンクチャネルデータの次元における「E」は、トレーニングデータの量と考えられる。言い換えれば、この場合、第3のダウンリンクチャネルデータはE個のトレーニングデータを含むと考えられ得、Eは正の整数である。第3のダウンリンクチャネルデータの次元において、「2」は実部および虚部を表し、「32」はNtxを表し、「13」はNsbを表す。
【0182】
第3のダウンリンクチャネルデータは分割されてM個のデータ空間に割り当てられ、すなわち、第3のダウンリンクチャネルデータは、M個の部分に分割される。
図9Aでは、M=4が例として使用されており、この場合、4つの第3のダウンリンクチャネルサブデータが分割によって取得され得る。4つの第3のダウンリンクチャネルサブデータは、y
1、y
2、y
3、およびy
4である。y
1、y
2、y
3、およびy
4の次元はそれぞれ、[S,16×13]であり、Sは、1つの第3のダウンリンクチャネルサブデータに対応するトレーニングデータの量を表し、16×13は、例えば、トレーニング対象辞書の次元である。
図9Aのq
1~q
4は、4つのトレーニング対象辞書を表しており、すなわち、
図9Aでは、N=Mが例として使用されている。UEは、クラスタリング方法で4つの辞書をトレーニングする。任意選択で、オフライントレーニング方法では、4つの辞書に関する情報は、プロトコルで合意されてもよいし、またはUEによってアクセスネットワークデバイスに送信されてもよい。オンライントレーニング方法では、4つの辞書に関する情報は、UEによってアクセスネットワークデバイスに送信されてもよい。
【0183】
推論プロセスでは、例えば、UEは、4つの第1のダウンリンクチャネルサブデータとトレーニングによって取得された4つの辞書とに基づいて4つの第1の情報を取得し得、1つの第1の情報は、対応する辞書において1つの第1のダウンリンクチャネルサブデータに対応する要素である。
【0184】
例えば、UEは、4つの第1の情報の識別子をアクセスネットワークデバイスに送信し、各第1の情報の識別子はXビットを占有し得る。4つの第1の情報の識別子を受信した後、アクセスネットワークデバイスは、4つの辞書に基づいて4つの第1の情報を再構築し得る。次に、アクセスネットワークデバイスは、ダウンリンクチャネル情報を再構築する、すなわち、ダウンリンクチャネル行列を再構築するために、4つの第1の情報に対して連結などの処理を実行する。
【0185】
図9Bは、本開示によるトレーニングプロセスの別の図である。UEは、固有ベクトルを取得するために元のダウンリンクチャネルデータ内の各トレーニングデータを処理し、固有ベクトルの次元は[N
tx=32,N
sb=13]であると想定される。UEは、固有ベクトルのスパース係数を取得するために固有ベクトルを前処理し、元のダウンリンクチャネルデータに含まれる複数のトレーニングデータに対応する固有ベクトルのスパース係数は、第3のダウンリンクチャネルデータとして使用され得る。実数トレーニングがネットワークトレーニングに使用されるため、データ入力は実部と虚部との2つの部分に分割され、第3のダウンリンクチャネルデータの次元は、例えば[E,2,32,13]である。ここでは、Eはトレーニングデータの量であり、Eは正の整数である。
【0186】
第3のダウンリンクチャネルデータは分割されてM個のデータ空間に割り当てられ、すなわち、第3のダウンリンクチャネルデータは、M個の部分に分割される。
図9Bでは、M=4が例として使用されており、この場合、分割によって取得される4つの第3のダウンリンクチャネルサブデータは一律にy
1と表され得、すなわち、y
1は4つの第3のダウンリンクチャネルサブデータを含むと考えられ得る。y
1の次元は[4×S,16×13]であり、Sは、1つの第3のダウンリンクチャネルサブデータに対応するトレーニングデータの量を表し、4つの第3のダウンリンクチャネルサブデータに対応するトレーニングデータの量は4×Sである。加えて、16×13は、例えば、トレーニング対象辞書の次元である。
図9Bでは、q
1は、M個のデータ空間が一律に対応するトレーニング対象辞書を表し、すなわち、
図9Bでは、N=1が例として使用されている。UEは、クラスタリング方法で辞書をトレーニングする。
【0187】
ネットワーク推論プロセスにおいて、各データ空間に関して、UEは、対応する辞書において対応する第1の情報を独立して見つけ得る。
図9Bに示されているように、M個のデータ空間が1つの辞書に一律に対応する場合、ネットワーク推論プロセスにおいて、各データ空間に関して、UEは、
図9Bのトレーニングによって取得された辞書において対応する第1の情報を見つけ得る。
図9Bが引き続き例として使用される。この場合、UEは4つの第1の情報を決定し得る。例えば、UEは、4つの第1の情報の識別子をアクセスネットワークデバイスに送信する。4つの第1の情報の識別子を受信した後、アクセスネットワークデバイスは、4つの辞書に基づいて4つの第1の情報を再構築し得る。次に、アクセスネットワークデバイスは、ダウンリンクチャネル情報を再構築する、すなわち、ダウンリンクチャネル行列を再構築するために、4つの第1の情報に対して連結などの処理を実行する。
【0188】
図9Aおよび
図9Bでは、第3のダウンリンクチャネルデータが元のダウンリンクチャネルデータ(または固有ベクトル)の前処理結果である例が使用されている。
図5に示されている実施形態の説明から、第3のダウンリンクチャネルデータは、あるいは、前処理結果から抽出されたF個の連続したデータ列であってもよいことが知られることができる。この場合、辞書に含まれる要素の次元が変化し得る。例えば、第iの第3のダウンリンクチャネルサブデータが、前処理結果から抽出されたF個のデータ列を分割することによって取得されたM個のデータのうちの1つである場合、第iの第3のダウンリンクチャネルサブデータは、例えば、次元が[16,F]である行列であり、UEは、この行列を長さが16×Fであるベクトルに変換し得る。この場合、第1の辞書に含まれる要素の次元は16×Fである。Fは、一般に、サブバンドの数より少ない。この場合、辞書によって占有される記憶空間は低減されることができる。
【0189】
図9Cは、本開示によるトレーニングプロセスのさらに別の図である。UEは、固有ベクトルを取得するために元のダウンリンクチャネルデータ内の各トレーニングデータを処理し、固有ベクトルの次元は[N
tx=32,N
sb=13]であると想定される。UEは、固有ベクトルのスパース係数を取得するために固有ベクトルを前処理し、元のダウンリンクチャネルデータに含まれる複数のトレーニングデータに対応する固有ベクトルのスパース係数は、第3のダウンリンクチャネルデータとして使用され得る。実数トレーニングがネットワークトレーニングに使用されるため、データ入力は実部と虚部との2つの部分に分割され、第3のダウンリンクチャネルデータの次元は、例えば[E,2,32,13]である。ここでは、Eはトレーニングデータの量であり、Eは正の整数である。M個の第3のダウンリンクチャネルサブデータを取得するために、F個の連続したデータ列が第3のダウンリンクチャネルデータから抽出され、F個の連続したデータ列は分割されてM個のデータ空間に割り当てられる。
図9Cでは、M=4が例として使用されており、分割によって取得される4つの第3のダウンリンクチャネルサブデータは、y
1、y
2、y
3、およびy
4である。y
1、y
2、y
3、およびy
4の次元はそれぞれ、[S,16×F]である。
図9Cのq
1~q
4は4つの辞書を表しており、すなわち、
図9Cでは、N=Mが例として使用されている。UEは、クラスタリング方法で4つの辞書をトレーニングする。
【0190】
ネットワーク推論プロセスにおいて、各データ空間に関して、UEは、対応する辞書において対応する第1の情報を独立して見つけ得る。
図9Cが引き続き例として使用される。この場合、UEは、
図9Cのトレーニングによって取得された4つの辞書に基づいて4つの第1の情報を決定し得る。例えば、UEは、4つの第1の情報の識別子をアクセスネットワークデバイスに送信する。4つの第1の情報の識別子を受信した後、アクセスネットワークデバイスは、4つの辞書に基づいて4つの第1の情報を再構築し得る。次に、アクセスネットワークデバイスは、ダウンリンクチャネル情報を再構築する、すなわち、ダウンリンクチャネル行列を再構築するために、4つの第1の情報に対して連結などの処理を実行する。
【0191】
図9Dは、本開示によるトレーニングプロセスのまた別の図である。UEは、固有ベクトルを取得するために元のダウンリンクチャネルデータ内の各トレーニングデータを処理し、固有ベクトルの次元は[N
tx=32,N
sb=13]であると想定される。UEは、固有ベクトルのスパース係数を取得するために固有ベクトルを前処理し、元のダウンリンクチャネルデータに含まれる複数のトレーニングデータに対応する固有ベクトルのスパース係数は、第3のダウンリンクチャネルデータとして使用され得る。実数トレーニングがネットワークトレーニングに使用されるため、データ入力は実部と虚部との2つの部分に分割され、第3のダウンリンクチャネルデータの次元は、例えば[E,2,32,13]である。
【0192】
M個の第3のダウンリンクチャネルサブデータを取得するために、F個の連続したデータ列が第3のダウンリンクチャネルデータから抽出され、F個の連続したデータ列は分割されてM個のデータ空間に割り当てられる。
図9Dでは、M=4が例として使用されている。これら4つの第3のダウンリンクチャネルサブデータは、一律にy
1と表され得、y
1の次元は[4×S,16×13]である。
図9Bでは、q
1は、M個のデータ空間が一律に対応する辞書を表し、すなわち、
図9Cでは、N=1が例として使用されている。UEは、クラスタリング方法で辞書をトレーニングする。
【0193】
ネットワーク推論プロセスにおいて、各データ空間に関して、UEは、対応する辞書において対応する第1の情報を独立して見つけ得る。
図9Dに示されているように、M個のデータ空間が1つの辞書に一律に対応する場合、ネットワーク推論プロセスにおいて、各データ空間に関して、UEは、
図9Dのトレーニングによって取得された辞書において対応する第1の情報を見つけ得る。
図9Dが引き続き例として使用される。この場合、UEは4つの第1の情報を決定し得る。例えば、UEは、4つの第1の情報の識別子をアクセスネットワークデバイスに送信する。4つの第1の情報の識別子を受信した後、アクセスネットワークデバイスは、4つの辞書に基づいて4つの第1の情報を再構築し得る。次に、アクセスネットワークデバイスは、ダウンリンクチャネル情報を再構築する、すなわち、ダウンリンクチャネル行列を再構築するために、4つの第1の情報に対して連結などの処理を実行する。
【0194】
図8に示されている実施形態で説明されたネットワークトレーニングプロセスは、トレーニングによって辞書を取得するプロセスである。前述はまた、エンコーダネットワークがUE側に設定されてもよく、エンコーダネットワークに対応するデコーダネットワークがアクセスネットワークデバイス側に設定されてもよいという情報を説明している。この場合、別のネットワークトレーニングプロセスは、エンコーダネットワーク、デコーダネットワーク、および辞書を一緒にトレーニングするプロセスである。以下は、本開示におけるさらに別の通信方法について説明する。本方法では、共同トレーニングプロセスが説明される。
図10は、本方法のフローチャートである。
【0195】
S1001:第2のノードは、第5のダウンリンクチャネルデータを取得する。
【0196】
第5のダウンリンクチャネルデータは、例えば、元のダウンリンクチャネルデータである。あるいは、第5のダウンリンクチャネルデータは、元のダウンリンクチャネルデータを前処理することによって取得されるデータであってもよい。あるいは、第5のダウンリンクチャネルデータは、ニューラルネットワークによって出力されたデータであってもよい。元のダウンリンクチャネルデータは、トレーニングデータと考えられ得、またはトレーニングサンプルと呼ばれ得る。辞書をトレーニングするプロセスでは、第2のノードはトレーニングサンプルをトレーニングする必要がある。元のダウンリンクチャネルデータは、1つ以上のトレーニングデータを含み得る。
【0197】
第5のダウンリンクチャネルデータが、元のダウンリンクチャネルデータを前処理することによって取得される場合、前処理プロセスが含まれる。元のダウンリンクチャネルデータの前処理プロセスについては、
図5に示されている実施形態のS501における第2のダウンリンクチャネルデータの前処理プロセスの説明を参照されたい。
【0198】
本開示では、第2のノードは、例えば、UEもしくはアクセスネットワークデバイスであり、またはサードパーティデバイス(例えば、AIノード)であってもよい。トレーニングプロセスは、オンライントレーニングプロセスまたはオフライントレーニングプロセスであってもよい。
図8に示されている実施形態における第2のノードおよび第1のノードは、同じノードであってもよいし、または異なるノードであってもよい。
【0199】
第2のノードは、第5のダウンリンクチャネルデータを使用して、エンコーダネットワーク、辞書、およびデコーダネットワークに対して共同トレーニングを実行し得る。以下は、S1002~S1006を実行することによるトレーニングプロセスについて説明する。
【0200】
S1002:第2のノードは、エンコーダネットワークによって出力される第6のダウンリンクチャネルデータを取得するために、第5のダウンリンクチャネルデータをエンコーダネットワークに入力する。
【0201】
エンコーダネットワークは、トレーニングされる必要があるエンコーダネットワークである。第2のノードは、第5のダウンリンクチャネルデータをエンコーダネットワークに入力し、エンコーダネットワークは、第5のダウンリンクチャネルデータに対して圧縮などの処理を実行し得る。処理後、エンコーダネットワークは、第6のダウンリンクチャネルデータを出力する。
【0202】
S1003:第2のノードは、M個の第6のダウンリンクチャネルサブデータを取得する。各第6のダウンリンクチャネルサブデータは、M個のデータ空間内の1つのデータ空間に対応する。本開示におけるM個のデータ空間と、
図5に示されている実施形態におけるM個のデータ空間とは、特徴において同じであってもよい。
【0203】
M個の第6のダウンリンクチャネルサブデータは、第6のダウンリンクチャネルデータに基づいて取得される。例えば、M個の第6のダウンリンクチャネルサブデータは、第6のダウンリンクチャネルデータを分割してM個のデータ空間に割り当てることによって取得され得る。S1001のさらなる内容については、
図8に示されている実施形態のS801を参照されたい。
【0204】
S1004:第2のノードは、M個の第6のダウンリンクチャネルサブデータおよびN個のトレーニング対象辞書に基づいてM個の第3の情報を取得する。
【0205】
例えば、辞書をトレーニングするプロセスでは、第2のノードは、M個のデータ空間内の第iのデータ空間に基づいて、トレーニング対象辞書をトレーニングし、iは1~Mの整数であり、第2のノードは、M個のトレーニング対象辞書をトレーニングし得る。第2のノードは、M個のデータ空間内の第iのデータ空間に基づいて、データ空間に対応するトレーニング対象辞書をトレーニングする。例えば、トレーニング方法において、M個の第6のダウンリンクチャネルサブデータ内の第iの第6のダウンリンクチャネルサブデータに関して、第2のノードが、第iのデータ空間に対応するトレーニング対象辞書に基づいて、第iの第6のダウンリンクチャネルサブデータに対応する第3の情報を取得する場合、第2のノードは、合計でM個の第3の情報を取得し得る。例えば、第iの第6のダウンリンクチャネルサブデータに対応する第3の情報は、第iのデータ空間に対応するトレーニング対象辞書において第iの第6のダウンリンクチャネルサブデータに対応する要素である。
【0206】
トレーニングが始まる前に、初期モデルが、トレーニング対象辞書として設定され得、元のダウンリンクチャネルデータを使用して、初期モデルに対して複数回のトレーニング(ここでは、1つのトレーニングデータを使用してトレーニングするプロセスは、1回のトレーニングプロセスと考えられ得る)が実行される。トレーニングが完了した後、ネットワーク推論段階で使用される辞書が取得され得る。したがって、第iのデータ空間に対応するトレーニング対象辞書は、初期モデルであってもよいし、または初期モデルに対して少なくとも1回のトレーニングを実行することによって取得された中間モデルであってもよい。
【0207】
任意選択で、辞書をトレーニングするプロセスにおいて、第2のノードは、M個のデータ空間に基づいてトレーニング対象辞書をさらにトレーニングしてもよく、第2のノードは、トレーニングによってM個の同じ辞書または1つの辞書を取得してもよい。第2のノードは、M個のデータ空間に基づいて、トレーニング対象辞書をトレーニングする。例えば、トレーニング方法において、M個の第6のダウンリンクチャネルサブデータ内の第iの第6のダウンリンクチャネルサブデータに関して、第2のノードが、トレーニング対象辞書に基づいて、第iの第6のダウンリンクチャネルサブデータに対応する第3の情報を取得する場合、第2のノードは、合計でM個の第3の情報を取得し得る。例えば、第iの第6のダウンリンクチャネルサブデータに対応する第3の情報は、トレーニング対象辞書において第iの第6のダウンリンクチャネルサブデータに対応する要素である。
【0208】
S1005:M個の第3の情報内の第iの第3の情報に関して、第2のノードは、M個のデータ空間内の第iのデータ空間に対応するトレーニング対象辞書に基づいて第iの第5のダウンリンクチャネルサブデータを再構築する。iが1~Mの整数である場合、第2のノードは、合計でM個の第5のダウンリンクチャネルサブデータを取得し得る。
【0209】
理想的な状態では、第2のノードによって取得されるM個の第5のダウンリンクチャネルサブデータおよび第2のノードによって取得されるM個の第6のダウンリンクチャネルサブデータは、同じデータであり得る。例えば、第iの第6のダウンリンクチャネルサブデータと第iの第5のダウンリンクチャネルサブデータとは同じデータである。実際の適用では、M個の第6のダウンリンクチャネルサブデータとM個の第5のダウンリンクチャネルサブデータとの間にはずれがあり得る。内容については、
図5に示されている実施形態のS504を参照されたい。
【0210】
S1005のさらなる内容については、
図5に示されている実施形態のS504を参照されたい。
【0211】
S1006:第2のノードは、デコーダネットワークによって出力されるL個の再構築された情報を取得するために、M個の第5のダウンリンクチャネルサブデータをデコーダネットワークに入力し、Lは正の整数である。あるいは、第2のノードは、デコーダネットワークによって出力される第1の再構築された情報を取得するために、M個の第5のダウンリンクチャネルサブデータを連結し、連結されたダウンリンクチャネルサブデータをデコーダネットワークに入力する。
【0212】
デコーダネットワークは、トレーニングされる必要があるデコーダネットワークであり、S1002のエンコーダネットワークに対応するデコーダネットワークでもある。
【0213】
例えば、元のダウンリンクチャネルデータは複数のトレーニングデータを含み、複数のトレーニングデータのうちの1つはトレーニングサブデータおよびラベルを含み得る。第2のノードは、符号化データを取得するためにトレーニングサブデータをエンコーダネットワークに入力し得、符号化データがデコーダネットワークによって処理された後、デコーダネットワークは推論結果(例えば、本開示で説明されているL個の再構築された情報または第1の再構築された情報)を出力し得る。第2のノードは、損失関数に従って推論結果とラベルとの間の誤差を計算し得る。誤差に基づいて、第2のノードは、逆伝播最適化アルゴリズム(またはモデル最適化アルゴリズムなどと呼ばれる)に従って、エンコーダネットワークおよび/またはデコーダネットワークのパラメータを最適化し得る。エンコーダネットワークおよびデコーダネットワークは、大量のトレーニングデータを使用してトレーニングされ、これにより、ニューラルネットワークトレーニングは、デコーダネットワークの出力とラベルとの差が事前設定値未満になった後に完了する。
【0214】
エンコーダネットワークおよびデコーダネットワークの前述のトレーニングプロセスでは、教師あり学習トレーニング方法が使用され、すなわち、損失関数が、トレーニングデータおよびラベルに基づいてエンコーダネットワークおよびデコーダネットワークのトレーニングを実施するために使用されることに留意されたい。あるいは、インテリジェントモデルのトレーニングプロセスでは、教師なし学習が使用されてもよく、トレーニングデータに基づいてインテリジェントモデルのトレーニングを遂行するために、アルゴリズムが、トレーニングデータの内部パターンを学習するために使用される。インテリジェントモデルのトレーニングプロセスでは、あるいは、強化学習が使用されてもよく、問題解決ポリシーを学習し、モデルを最適化するために、環境によってフィードバックされる励起信号が、環境との相互作用によって取得される。本開示では、モデルトレーニング方法およびモデルタイプなどは限定されない。
【0215】
前述の説明から、エンコーダネットワークおよびデコーダネットワークをトレーニングするとき、第2のノードは損失関数に従ってトレーニングを実行し得ることが知られることができる。任意選択で、M個のデータ空間に対して同じ損失関数が設定されてもよい。言い換えれば、M個のデータ空間内のすべてのデータ空間に関して、第2のノードは、この損失関数に従って共同トレーニングを実行してもよい。例えば、デコーダネットワークがL個の再構築された情報を出力する場合、第5のダウンリンクチャネルデータと、デコーダネットワークによって再構築されたL個の再構築された情報を連結することによって取得されたデータとの間の平均二乗誤差(mean square error、MSE)が損失関数として使用されてもよいし、または第3のダウンリンクチャネルデータと、デコーダネットワークによって再構築されたL個の再構築された情報を連結することによって取得されたデータとの間の相関が損失関数として使用されてもよい。あるいは、デコーダネットワークが第1の再構築された情報を出力する場合、第1の再構築された情報と第5のダウンリンクチャネルデータとの間のMSEが損失関数として使用されてもよいし、または第1の再構築された情報と第3のダウンリンクチャネルデータとの間の相関が損失関数として使用されてもよいなどである。
【0216】
あるいは、異なる損失関数が、それぞれ異なるデータ空間に対して設定されてもよい。例えば、デコーダネットワークがL個の再構築された情報を出力する場合、デコーダネットワークによって再構築された再構築された情報とエンコーダネットワークに入力されたデータとの間のMSEが、データ空間に対応する損失関数として使用されてもよい。損失関数に対応する、デコーダネットワークによって再構築された再構築された情報は、データ空間に対応する、デコーダネットワークによって再構築された再構築された情報である。エンコーダネットワークに入力された、損失関数に対応するデータは、エンコーダネットワークに入力された第5のダウンリンクチャネルデータ内の、データ空間に対応するデータである。
【0217】
前述のプロセスでは、第2のノードは、N個の辞書を取得し、エンコーダネットワークおよび対応するデコーダネットワークを取得するために、エンコーダネットワーク、デコーダネットワーク、および辞書に対して共同トレーニングを実行する。この場合、UEは、
図5に示されている実施形態におけるネットワーク推論プロセスにおいてN個の辞書およびエンコーダネットワークを使用することができ、アクセスネットワークデバイスも、ダウンリンクチャネル情報を再構築する最中にN個の辞書およびデコーダネットワークを使用することができる。データ空間およびN個の辞書は分割され、これにより、ダウンリンクチャネルに対応する環境情報が反映されることができ、これは、アクセスネットワークデバイスがより正確なダウンリンクチャネル情報を再構築するのに役立つ。
図5に示されている実施形態においてエンコーダネットワークおよびデコーダネットワークが使用されない場合、
図8に示されている実施形態で提供されるネットワークトレーニング方法が、辞書を個別にトレーニングするために使用され得る。
図5に示されている実施形態においてエンコーダネットワークおよびデコーダネットワークが使用される必要がある場合、
図10に示されている実施形態で提供されるネットワークトレーニング方法が、共同トレーニングによってエンコーダネットワーク、デコーダネットワーク、および辞書を取得するために使用され得る。
【0218】
例えば、
図11は、本開示によるトレーニングプロセスおよびネットワーク推論プロセスの図である。トレーニングプロセスでは、例えば、エンコーダネットワーク、デコーダネットワーク、および辞書が共同トレーニングによって取得され、エンコーダネットワーク、デコーダネットワーク、および辞書がネットワーク推論プロセスで使用され得る。第3のダウンリンクチャネルデータからq
1~q
4へのプロセス、すなわち、情報がアクセスネットワークデバイスに送信される前のプロセスは、トレーニングプロセスと考えられ得る。
図11のプロセス全体はネットワーク推論プロセスとも考えられ得、ネットワーク推論プロセスはトレーニングデータの処理プロセスとも考えられ得る。もちろん、データは、実際にはトレーニングに使用されるトレーニングデータではないが、データの処理プロセスはトレーニングデータの処理プロセスと一致する。
【0219】
トレーニングプロセスにおいて、元のダウンリンクチャネルデータは複数のトレーニングデータを含み得ると想定される。UEは、固有ベクトルを取得するために元のダウンリンクチャネルデータ内の各トレーニングデータを処理し、固有ベクトルの次元は[Ntx=32,Nsb=13]である。UEは、固有ベクトルのスパース係数を取得するために、固有ベクトルを前処理する。UEは、圧縮情報を取得するために、エンコーダネットワークを使用して固有ベクトルのスパース係数を圧縮する。複数のトレーニングデータに対応する圧縮情報は、第3のダウンリンクチャネルデータとして使用され得る。
【0220】
UEは、4つの第3のダウンリンクチャネルサブデータを取得するために、第3のダウンリンクチャネルデータを分割して4つのデータ空間に割り当て、4つの第3のダウンリンクチャネルサブデータは、y
1、y
2、y
3、およびy
4である。y
1、y
2、y
3、およびy
4の次元はそれぞれ、[S,16×13]であり、Sは、1つの第3のダウンリンクチャネルサブデータに対応するトレーニングデータの量を表し、16×13は、例えば、トレーニング対象辞書の次元である。
図11のq
1~q
4は、4つのトレーニング対象辞書を表しており、すなわち、
図11では、N=Mが例として使用されている。UEは、クラスタリング方法で4つの辞書をトレーニングする。
【0221】
推論プロセスでは、例えば、UEは、4つのトレーニング対象辞書および4つの第1のダウンリンクチャネルサブデータに基づいて4つの第1の情報を取得し得る。1つの第1の情報は、対応する辞書において1つの第1のダウンリンクチャネルサブデータに対応する要素である。
【0222】
例えば、UEは、4つの第1の情報の識別子をアクセスネットワークデバイスに送信し、各第1の情報の識別子はXビットを占有し得る。4つの第1の情報の識別子を受信した後、アクセスネットワークデバイスは、4つの辞書に基づいて4つの圧縮されたサブ情報を再構築し得る。アクセスネットワークデバイスは、デコーダネットワークによって出力される再構築された情報を取得するために、4つの圧縮されたサブ情報に対して連結などの処理を実行し、次に、処理結果をデコーダネットワークに入力する。デコーダネットワークによって出力された再構築された情報を取得した後、アクセスネットワークデバイスは、再構築された情報に基づいてダウンリンクチャネル情報を再構築し得る。
図10に示されている実施形態における損失関数は、トレーニングプロセスで適用され得、これにより、トレーニングによって取得されるエンコーダ/デコーダネットワークのパフォーマンスがより良好になる。
【0223】
本開示で提供される通信装置は、前述の方法実施形態に基づいて説明される。
【0224】
前述の方法で機能を実施するために、アクセスネットワークデバイスおよびUEなどは、機能を実行するための対応するハードウェア構造および/またはソフトウェアモジュールを含むことが理解され得る。当業者は、本開示に説明されている例におけるユニットおよび方法ステップを参照して、本開示がハードウェアまたはハードウェアとコンピュータソフトウェアとの組合せによって実施されることができることを容易に認識するはずである。機能がハードウェアによって実行されるか、それともコンピュータソフトウェアによって駆動されるハードウェアによって実行されるかは、技術的解決策の特定の適用シナリオおよび設計制約に依存する。
【0225】
本開示は、通信装置を提供する。通信装置は、例えば、処理ユニットおよびトランシーバユニット(または通信ユニットと呼ばれる)を含む。処理ユニットは、
図5に示されている実施形態、
図8に示されている実施形態、または
図10に示されている実施形態におけるUEの処理機能を実施するように構成されてもよく、トランシーバユニットは、
図5に示されている実施形態、
図8に示されている実施形態、または
図10に示されている実施形態におけるUEのトランシーバ機能の全部または一部を実施するように構成されてもよい。あるいは、処理ユニットは、
図5に示されている実施形態、
図8に示されている実施形態、または
図10に示されている実施形態においてアクセスネットワークデバイスによって実施される処理機能を実施するように構成されてもよく、トランシーバユニットは、
図5に示されている実施形態、
図8に示されている実施形態、または
図10に示されている実施形態におけるアクセスネットワークデバイスのトランシーバ機能の全部または一部を実施するように構成されてもよい。
【0226】
任意選択で、処理ユニットおよび/またはトランシーバユニットは、仮想モジュールを使用して実施されてもよい。例えば、処理ユニットは、ソフトウェア機能ユニットまたは仮想装置を使用して実施されてもよく、トランシーバユニットは、ソフトウェア機能ユニットまたは仮想装置を使用して実施されてもよい。あるいは、処理ユニットおよび/またはトランシーバユニットは、物理装置(例えば、回路システムおよび/またはプロセッサ)を使用して実施されてもよい。以下は、処理ユニットおよびトランシーバユニットが物理装置を使用して実施される場合について説明する。
【0227】
図12は、本開示による通信装置の構造の図である。通信装置1200は、
図5に示されている実施形態、
図8に示されている実施形態、もしくは
図10に示されている実施形態におけるUE、UEの回路システム、またはUEで使用されることができる回路システムなどであってもよく、前述の方法実施形態におけるUEに対応する方法を実施するように構成される。あるいは、通信装置1200は、
図5に示されている実施形態、
図8に示されている実施形態、もしくは
図10に示されている実施形態におけるアクセスネットワークデバイス、アクセスネットワークデバイスの回路システム、またはアクセスネットワークデバイスで使用されることができる回路システムなどであってもよく、前述の方法実施形態におけるアクセスネットワークデバイスに対応する方法を実施するように構成される。具体的な機能については、前述の方法実施形態の説明を参照されたい。例えば、回路システムはチップシステムである。
【0228】
通信装置1200は、1つ以上のプロセッサ1201を含む。プロセッサ1201は、特定の制御機能を実施し得る。プロセッサ1201は、汎用プロセッサまたは専用プロセッサなどであってもよい。例えば、プロセッサ1201は、ベースバンドプロセッサおよび中央処理装置などを含む。ベースバンドプロセッサは、通信プロトコルおよび通信データを処理するように構成され得る。中央処理装置は、通信装置1200を制御し、ソフトウェアプログラムを実行し、および/またはデータを処理するように構成され得る。異なるプロセッサは、独立した構成要素であってもよいし、または1つ以上の処理回路に配されてもよい、例えば、1つ以上の特定用途向け集積回路に集積されてもよい。
【0229】
任意選択で、通信装置1200は、命令1204を記憶するために1つ以上のメモリ1202を含む。命令1204は、通信装置1200が前述の方法実施形態で説明された方法を実行するように、プロセッサ上で動作され得る。任意選択で、メモリ1202はデータをさらに記憶してもよい。プロセッサとメモリとは別々に配されてもよいし、または一緒に統合されてもよい。メモリは、不揮発性メモリ、例えばハードディスクドライブ(hard disk drive、HDD)もしくはソリッドステートドライブ(solid-state drive、SSD)であってもよいし、または揮発性メモリ(volatile memory)、例えばランダムアクセスメモリ(random access memory、RAM)であってもよい。メモリは、命令またはデータ構造の形態のしかるべきプログラムコードを保持または記憶することができる、コンピュータによってアクセスされることができる任意の他の媒体であるが、これに限定されない。あるいは、本開示のメモリは、記憶機能を実施することができる回路または任意の他の装置であってもよく、プログラム命令および/またはデータを記憶するように構成される。
【0230】
任意選択で、通信装置1200は命令1203(コードまたはプログラムと呼ばれることもあり得る)を記憶してもよい。命令1203は、通信装置1200が前述の実施形態で説明された方法を実行するように、プロセッサ上で動作され得る。プロセッサ1201はデータを記憶し得る。
【0231】
例えば、処理ユニットは、1つ以上のプロセッサ1201を使用して実施されるか、または処理ユニットは、1つ以上のプロセッサ1201および1つ以上のメモリ1202を使用して実施されるか、または処理ユニットは、1つ以上のプロセッサ1201、1つ以上のメモリ1202、および命令1203を使用して実施される。
【0232】
任意選択で、通信装置1200は、トランシーバ1205およびアンテナ1206をさらに含んでもよい。トランシーバ1205は、トランシーバユニット、トランシーバ、トランシーバ回路、トランシーバ機、または入力/出力インターフェースなどと呼ばれ得、アンテナ1206を介して通信装置1200のトランシーバ機能を実施するように構成される。例えば、トランシーバユニットは、トランシーバ1205を使用して実施されるか、またはトランシーバユニットは、トランシーバ1205およびアンテナ1206を使用して実施される。
【0233】
任意選択で、通信装置1200は、以下の構成要素、すなわち、ワイヤレス通信モジュール、オーディオモジュール、外部メモリインターフェース、内部メモリ、ユニバーサルシリアルバス(universal serial bus、USB)インターフェース、電力管理モジュール、アンテナ、スピーカ、マイクロフォン、入力/出力モジュール、センサモジュール、モータ、カメラ、またはディスプレイなどのうちの1つ以上をさらに含んでもよい。一部の実施形態では、通信装置1200は、より多くのもしくはより少ない構成要素、または構成要素の一部の統合、または構成要素の一部からの分割を含んでもよいことが理解され得る。これらの構成要素は、ハードウェア、ソフトウェア、またはソフトウェアとハードウェアとの組合せによって実施されてもよい。
【0234】
本開示で説明されているプロセッサ1201およびトランシーバ1205は、集積回路(integrated circuit、IC)、アナログIC、無線周波数集積回路(radio frequency identification、RFID)、混合信号IC、特定用途向け集積回路(application specific integrated circuit、ASIC)、プリント回路基板(printed circuit board、PCB)、または電子デバイスなどにおいて実施されてもよい。本明細書で説明されている通信装置は、独立したデバイス(例えば、独立した集積回路もしくは携帯電話)であってもよいし、または大型デバイスの一部(例えば、別のデバイスに組み込まれ得るモジュール)であってもよい。詳細については、前述の実施形態におけるUEおよびアクセスネットワークデバイスの説明を参照されたい。ここでは詳細は再び説明されない。
【0235】
本開示は端末デバイスを提供し、端末デバイスは前述の実施形態で使用され得る。端末デバイスは、
図5に示されている実施形態、
図8に示されている実施形態、または
図10に示されている実施形態におけるUEの機能を実施するための対応する手段(means)、ユニット、および/または回路を含む。例えば、端末デバイスは、トランシーバ機能を実施する際に端末デバイスをサポートするように構成されたトランシーバモジュール(またはトランシーバユニットと呼ばれる)と、信号を処理する際に端末デバイスをサポートするように構成された処理モジュール(または処理ユニットと呼ばれる)とを含む。
【0236】
本開示は、アクセスネットワークデバイスをさらに提供し、アクセスネットワークデバイスは、前述の実施形態で使用されてもよい。アクセスネットワークデバイスは、
図5に示されている実施形態、
図8に示されている実施形態、または
図10に示されている実施形態におけるアクセスネットワークデバイスの機能を実施するための対応する手段(means)、ユニット、および/または回路を含む。例えば、アクセスネットワークデバイスは、トランシーバ機能を実施する際にアクセスネットワークデバイスをサポートするように構成されたトランシーバモジュール(またはトランシーバユニットと呼ばれる)と、信号を処理する際にアクセスネットワークデバイスをサポートするように構成された処理モジュール(または処理ユニットと呼ばれる)とを含む。
【0237】
本開示で提供される技術的解決策の全部または一部は、ソフトウェア、ハードウェア、ファームウェア、またはこれらの任意の組合せを使用して実施されてもよい。ソフトウェアが、実施形態を実施するために使用されるとき、実施形態の全部または一部は、コンピュータプログラム製品の形態で実施されてもよい。コンピュータプログラム製品は、1つ以上のコンピュータ命令を含む。コンピュータプログラム命令がコンピュータ上でロードされて実行されるとき、本開示による手順または機能が全体的または部分的に生成される。コンピュータは、汎用コンピュータ、専用コンピュータ、コンピュータネットワーク、アクセスネットワークデバイス、端末デバイス、AIノード、または別のプログラマブル装置であってもよい。コンピュータ命令は、コンピュータ可読記憶媒体に記憶されてもよいし、またはあるコンピュータ可読記憶媒体から別のコンピュータ可読記憶媒体に伝送されてもよい。例えば、コンピュータ命令は、有線(例えば、同軸ケーブル、光ファイバ、もしくはデジタル加入者回線(digital subscriber line、DSL))またはワイヤレス(例えば、赤外線、無線、もしくはマイクロ波)の方法で、あるウェブサイト、コンピュータ、サーバ、またはデータセンタから別のウェブサイト、コンピュータ、サーバ、またはデータセンタに伝送されてもよい。コンピュータ可読記憶媒体は、コンピュータによってアクセス可能な任意の使用可能な媒体、または1つ以上の使用可能な媒体を組み込んだ、サーバもしくはデータセンタなどのデータ記憶デバイスであってもよい。使用可能な媒体は、磁気媒体(例えば、フロッピーディスク、ハードディスクドライブ、もしくは磁気テープ)、光学媒体(例えば、デジタルビデオディスク(digital video disc、DVD))、または半導体媒体などであってもよい。
【0238】
前述の説明は、本開示の特定の実施態様にすぎず、本開示の保護範囲を限定することを意図されていない。本開示に開示されている技術的範囲内で当業者によって容易に考え出されるいかなる変形または置換も、本開示の保護範囲内にあるものとする。したがって、本開示の保護範囲は、特許請求の範囲の保護範囲に従うものとする。
【符号の説明】
【0239】
10 通信システム
20 アクセスネットワークデバイス
30 通信装置
1200 通信装置
1201 プロセッサ
1202 メモリ
1203 命令
1204 命令
1205 トランシーバ
1206 アンテナ
【手続補正書】
【提出日】2024-08-08
【手続補正1】
【補正対象書類名】特許請求の範囲
【補正対象項目名】全文
【補正方法】変更
【補正の内容】
【特許請求の範囲】
【請求項1】
M個の第1のダウンリンクチャネルサブデータを取得するステップであって、前記第1のダウンリンクチャネルサブデータの各々はM個のデータ空間内の1つのデータ空間に対応し、Mは1より大きい整数である、ステップと、
前記M個の第1のダウンリンクチャネルサブデータ内の第iの第1のダウンリンクチャネルサブデータに関して、前記M個のデータ空間内の第iのデータ空間に対応する第1の辞書に基づいて、前記第iの第1のダウンリンクチャネルサブデータに対応する第1の情報を決定するステップであって、合計でM個の前記第1の情報が決定され、iは1~Mの整数であり、前記第iの第1のダウンリンクチャネルサブデータは前記第iのデータ空間に対応し、前記第1の辞書は複数の要素を含み、前記第iの第1のダウンリンクチャネルサブデータに対応する前記第1の情報は、前記複数の要素内のP個の要素に対応し、Pは正の整数である、ステップと、
第1の指示情報を送信するステップであって、前記第1の指示情報は前記M個の第1の情報を示す、ステップと
を含む通信方法。
【請求項2】
前記第1の指示情報は前記M個の第1の情報の識別子を示し、前記第1の指示情報を送信するステップは、
前記M個の第1の情報の前記識別子を第1の順序で送信するステップであって、前記第1の順序は前記M個のデータ空間の配置順序である、ステップ
を含む、請求項1に記載の方法。
【請求項3】
前記第1の順序は事前定義された順序であるか、
第2の指示情報が受信され、前記第2の指示情報が前記第1の順序を示すか、または
前記第1の順序が決定され、第3の指示情報が送信され、前記第3の指示情報が前記第1の順序を示す、
請求項2に記載の方法。
【請求項4】
前記M個の第1のダウンリンクチャネルサブデータは、第1のダウンリンクチャネルデータに基づいて取得され、
前記第1のダウンリンクチャネルデータは前処理結果であるか、
前記第1のダウンリンクチャネルデータは、前処理結果におけるF個の連続したデータ列を含むか、または
前記第1のダウンリンクチャネルデータは、前処理結果を圧縮することによって取得される圧縮情報であり、
前記前処理結果は、第2のダウンリンクチャネルデータを前処理することによって取得される、
請求項
1に記載の方法。
【請求項5】
前記M個のデータ空間の分割方法は事前定義されるか、
第4の指示情報が受信され、前記第4の指示情報が前記M個のデータ空間の分割方法を示すか、または
前記M個のデータ空間の分割方法が決定され、第5の指示情報が送信され、前記第5の指示情報が前記M個のデータ空間の前記分割方法を示す、
請求項
1に記載の方法。
【請求項6】
第1の指示情報を受信するステップであって、前記第1の指示情報はM個の第1の情報を示し、Mは1より大きい整数である、ステップと、
前記M個の第1の情報内の第iの第1の情報に関して、M個のデータ空間内の第iのデータ空間に対応する第1の辞書に基づいて、第iの第2のダウンリンクチャネルサブデータを再構築するステップであって、合計でM個の前記第2のダウンリンクチャネルサブデータが取得され、前記第iの第1の情報は前記第iのデータ空間に対応し、iは1~Mの整数であり、前記第1の辞書は複数の要素を含み、前記第iの第2のダウンリンクチャネルサブデータに対応する前記第1の情報は前記複数の要素内のP個の要素に対応する、ステップと、
前記M個の第2のダウンリンクチャネルサブデータに基づいてダウンリンクチャネル情報を再構築するステップと
を含む通信方法。
【請求項7】
第1の指示情報を受信する前記ステップは、
前記M個の第1の情報の識別子を第1の順序で受信するステップであって、前記第1の順序は前記M個のデータ空間の配置順序である、ステップ
を含む、請求項6に記載の方法。
【請求項8】
前記第1の順序は事前定義された順序であるか、
第2の指示情報が送信され、前記第2の指示情報が前記第1の順序を示すか、または
第3の指示情報が受信され、前記第3の指示情報が前記第1の順序を示す、
請求項7に記載の方法。
【請求項9】
前記M個のデータ空間はM個の辞書に対応し、前記データ空間の各々は1つの前記辞書に対応するか、または前記M個のデータ空間はすべて同じ辞書に対応する、請求項
6に記載の方法。
【請求項10】
前記M個の第2のダウンリンクチャネルサブデータに基づいてダウンリンクチャネル情報を再構築する前記ステップは、
前記M個の第2のダウンリンクチャネルサブデータに基づいて圧縮情報を取得するステップと、
前記圧縮情報に基づいて前記ダウンリンクチャネル情報を取得するステップと
を含む、請求項
6に記載の方法。
【請求項11】
前記M個のデータ空間の分割方法は事前定義されるか、
第4の指示情報が送信され、前記第4の指示情報が前記M個のデータ空間の分割方法を示すか、または
第5の指示情報が受信され、前記第5の指示情報が前記M個のデータ空間の分割方法を示す、
請求項
6に記載の方法。
【請求項12】
請求項1から5のいずれか一項に記載の方法を実施するように構成された、または請求項6から11のいずれか一項に記載の方法を実施するように構成された通信装置。
【請求項13】
プロセッサとメモリとを備える通信装置であって、前記メモリは前記プロセッサに結合され、前記プロセッサは、請求項1から5のいずれか一項に記載の方法を実行するように構成されるか、または請求項6から11のいずれか一項に記載の方法を実行するように構成される、通信装置。
【請求項14】
コンピュータ可読記憶媒体であって、前記コンピュータ可読記憶媒体は、コンピュータプログラムを記憶するように構成され、前記コンピュータプログラムがコンピュータ上で動作されるとき、前記コンピュータは、請求項1から5のいずれか一項に記載の方法を実行することを可能にされるか、または前記コンピュータは、請求項6から11のいずれか一項に記載の方法を実行することを可能にされる、コンピュータ可読記憶媒体。
【請求項15】
請求項1から5のいずれか一項に記載の方法を実施するように構成された装置、および/または請求項6から11のいずれか一項に記載の方法を実施するように構成された装置を備える通信システム。
【国際調査報告】