(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公表特許公報(A)
(11)【公表番号】
(43)【公表日】2024-12-26
(54)【発明の名称】通信方法及び機器
(51)【国際特許分類】
H04W 24/02 20090101AFI20241219BHJP
G06N 20/00 20190101ALI20241219BHJP
【FI】
H04W24/02
G06N20/00 130
【審査請求】有
【予備審査請求】未請求
(21)【出願番号】P 2024537035
(86)(22)【出願日】2022-12-20
(85)【翻訳文提出日】2024-07-30
(86)【国際出願番号】 CN2022140221
(87)【国際公開番号】W WO2023116655
(87)【国際公開日】2023-06-29
(31)【優先権主張番号】202111564623.8
(32)【優先日】2021-12-20
(33)【優先権主張国・地域又は機関】CN
(81)【指定国・地域】
(71)【出願人】
【識別番号】503433420
【氏名又は名称】華為技術有限公司
【氏名又は名称原語表記】HUAWEI TECHNOLOGIES CO.,LTD.
【住所又は居所原語表記】Huawei Administration Building, Bantian, Longgang District, Shenzhen, Guangdong 518129, P.R. China
(74)【代理人】
【識別番号】100107766
【氏名又は名称】伊東 忠重
(74)【代理人】
【識別番号】100229448
【氏名又は名称】中槇 利明
(72)【発明者】
【氏名】チャイ,シヤオムオン
(72)【発明者】
【氏名】スゥン,イエン
(72)【発明者】
【氏名】スゥン,ヤーチイ
(72)【発明者】
【氏名】ウー,イーチュイン
【テーマコード(参考)】
5K067
【Fターム(参考)】
5K067AA21
5K067EE02
5K067EE10
(57)【要約】
本開示は、トレーニングデータの送信オーバヘッドを低減し、人工知能モデルの性能を向上させる通信方法及び機器を提供する。当該方法は、第1ノードから第1データ及び第1情報を取得するステップであって、前記第1情報は、前記第1データのデータ拡張方法を示す、ステップと、前記第1データ及び前記第1情報に基づいて、モデルの第1トレーニングデータセットを決定するステップと、を含む方法。
【特許請求の範囲】
【請求項1】
通信方法であって、
第1ノードから第1データ及び第1情報を取得するステップであって、前記第1情報は、前記第1データのデータ拡張方法を示す、ステップと、
前記第1データ及び前記第1情報に基づいて、モデルの第1トレーニングデータセットを決定するステップと、
を含む方法。
【請求項2】
前記第1ノードに第2情報を送信するステップであって、前記第2情報は、以下:前記第1データの種類、前記第1トレーニングデータセットに対応するシナリオ、前記第1データのデータ量、又は第2ノードによってサポートされるデータ拡張方法、のうちの少なくとも1つを示し、前記第2ノードは、前記モデルをトレーニングするために使用される、ステップ、
を更に含む請求項1に記載の方法。
【請求項3】
前記モデルの性能が性能要件を満たさない場合に、前記第1ノードから第2データを取得するステップであって、前記モデルは、前記第1トレーニングデータセットに基づくトレーニングによって取得され、前記第2データは、前記モデルの更新トレーニングを実行するために使用される、ステップ、
を更に含む請求項1又は2に記載の方法。
【請求項4】
前記第1ノードから第2データを取得するステップは、
前記第1ノードに第3情報を送信するステップであって、前記第3情報は、前記モデルの性能が前記性能要件を満たさないことを示し、及び/又は、前記第3情報は、前記第2データを要求するために使用される、ステップと、
前記第1ノードから前記第2データを受信するステップと、
を含む、請求項3に記載の方法。
【請求項5】
前記第1ノードから、前記性能要件を示す情報を取得するステップ、
を更に含む請求項3又は4に記載の方法。
【請求項6】
第4情報を前記第1ノードに送信するステップであって、前記第4情報は、前記第1データの前記データ拡張方法を要求するために使用される、ステップ、
を更に含む請求項1~5のいずれか一項に記載の方法。
【請求項7】
前記第4情報は、第1データ拡張方法の指示情報を含み、
前記第1情報は、肯定応答情報を含み、前記肯定応答情報は、前記第1データの前記データ拡張方法が前記第1データ拡張方法を含むことを示す、又は、
前記第1情報は、否定応答情報及び第2データ拡張方法の指示情報を含み、前記否定応答情報は、前記第1データの前記データ拡張方法が前記第1データ拡張方法を含まないことを示し、前記第1データの前記データ拡張方法が前記第2データ拡張方法を含む、
請求項6に記載の方法。
【請求項8】
通信方法であって、
第1データ及び第1情報を決定するステップであって、前記第1情報が第1データのデータ拡張方法を示す、ステップと、
第2ノードに前記第1データ及び前記第1情報を送信するステップであって、前記第1データ及び前記第1情報は、モデルの第1トレーニングデータセットを決定するために使用される、ステップと、
を含む方法。
【請求項9】
第2情報を取得するステップであって、前記第2情報は、以下:前記第1データの種類、前記第1トレーニングデータセットに対応するシナリオ、前記第1データのデータ量、又は前記第2ノードによってサポートされるデータ拡張方法、のうちの少なくとも1つを示す、ステップ、
を更に含む請求項8に記載の方法。
【請求項10】
前記第2ノードに第2データを送信するステップであって、前記第2データは、モデルの更新トレーニングを実行するために使用される、ステップ、
を更に含む請求項8又は9に記載の方法。
【請求項11】
前記第2ノードに第2データを送信するステップの前に、前記方法は、
前記第2ノードから第3情報を受信するステップであって、前記第3情報は、前記モデルの性能が性能要件を満たさないことを示し、及び/又は、前記第3情報は、前記第2データを要求するために使用される、ステップ、
を更に含む、請求項10に記載の方法。
【請求項12】
前記第2ノードに、前記性能要件を示す情報を送信するステップ、
を更に含む請求項11に記載の方法。
【請求項13】
前記第2ノードから第4情報を受信するステップであって、前記第4情報は、前記第1データの前記データ拡張方法を要求するために使用される、ステップ、
を更に含む請求項8~12のいずれか一項に記載の方法。
【請求項14】
前記第4情報は、第1データ拡張方法の指示情報を含み、
前記第1情報は、肯定応答情報を含み、前記肯定応答情報は、前記第1データの前記データ拡張方法が前記第1データ拡張方法を含むことを示す、又は、
前記第1情報は、否定応答情報及び第2データ拡張方法の指示情報を含み、前記否定応答情報は、前記第1データの前記データ拡張方法が前記第1データ拡張方法を含まないことを示し、前記第1データの前記データ拡張方法が前記第2データ拡張方法を含む、
請求項13に記載の方法。
【請求項15】
請求項1~7のいずれか一項に記載の方法を実施するよう構成される通信機器。
【請求項16】
請求項8~14のいずれか一項に記載の方法を実施するよう構成される通信機器。
【請求項17】
通信機器であって、プロセッサを含み、前記プロセッサはメモリに結合され、前記プロセッサは、請求項1~7のいずれか一項に記載の方法を実行するよう構成される、通信機器。
【請求項18】
通信機器であって、プロセッサを含み、前記プロセッサはメモリに結合され、前記プロセッサは、請求項8~14のいずれか一項に記載の方法を実行するよう構成される、通信機器。
【請求項19】
通信システムであって、請求項15又は17に記載の通信機器と、請求項16又は18に記載の通信機器と、を含む通信システム。
【請求項20】
コンピュータ可読記憶媒体であって、前記コンピュータ可読記憶媒体は命令を格納し、前記命令がコンピュータ上で実行されると、前記コンピュータは請求項1~7のいずれか一項に記載の方法又は請求項8~14のいずれか一項に記載の方法を実行可能にされる、コンピュータ可読記憶媒体。
【請求項21】
コンピュータプログラムプロダクトであって、命令を含み、前記命令がコンピュータ上で実行されると、前記コンピュータは、請求項1~7のいずれか一項に記載の方法又は請求項8~14のいずれか一項に記載の方法を実行可能にされる、コンピュータプログラムプロダクト。
【発明の詳細な説明】
【技術分野】
【0001】
[関連出願]
本願は、参照により全体がここに組み込まれる、中国特許出願番号202111564623.8号、中国国家知識産権局に2021年12月20日に出願、名称「COMMUNICATION METHOD AND APPARATUS」の優先権を主張する。
【0002】
[技術分野]
本開示は、通信技術の分野に関し、特に、通信方法及び機器に関する。
【背景技術】
【0003】
無線通信ネットワーク、例えば、移動通信ネットワークにおいて、ネットワークがサポートするサービスはますます多様化しており、従って、満たす必要のある要件はますます多様化している。例えば、ネットワークは、超高速、超低遅延、及び/又は超大規模接続をサポートできる必要がある。この特徴は、ネットワーク計画、ネットワーク構成、及び/又はリソーススケジューリングをますます複雑にしている。また、ネットワーク機能はますます強力になっており、例えば、ますます高いスペクトルをサポートし、高次多入力多出力(multiple-input multiple-output, MIMO)技術、ビームフォーミング、及び/又はビーム管理のような新しい技術をサポートするため、ネットワークの省エネルギは、ホットな研究トピックになっている。これらの新しい要件、シナリオ、及び特徴は、ネットワークの計画、運用と保守、及び効率的な運用に前例のない課題をもたらす。この課題に対処するために、人工知能技術を無線通信ネットワークに導入して、ネットワークインテリジェンスを実装することができる。これに基づいて、ネットワークに人工知能を効果的に実装する方法は、研究に値する問題である。
【発明の概要】
【0004】
本開示は、トレーニングデータの送信オーバヘッドを低減し、人工知能モデルの性能を向上させる通信方法及び機器を提供する。
【0005】
第1態様によれば、本開示は、第1ノードから第1データを取得するステップと、前記第1データ及び前記第1データのデータ拡張方法に基づいて、モデルの第1トレーニングデータセットを決定するステップと、を含む通信方法を提供する。任意で、前記第1データのデータ拡張方法は、前記第1ノードによって示されてもよい。例えば、前記通信方法は、代替として、第1ノードから第1データ及び第1情報を取得するステップであって、前記第1情報は、前記第1データのデータ拡張方法を示す、ステップと、前記第1データ及び前記第1情報代替として次のように理解さ基づいて、モデルの第1トレーニングデータセットを決定するステップと、として理解できる。任意で、前記第1データのデータ拡張方法は、プロトコルで合意されてもよい。
【0006】
前記第1データのデータ拡張方法は、前記第1データに適応する1つ以上のデータ拡張方法として理解されてもよく、前記データ拡張方法は、データ拡大方法、データ処理方法、データ前処理方法、又は別の名称として記述されてもよい。
【0007】
この設計では、少量のトレーニングデータが送信され、モデルトレーニングに実際に使用されるトレーニングデータがデータ拡張方法で生成される。これにより、トレーニングデータ送信のオーバヘッドを削減し、モデルトレーニングの効率と性能を向上させることができる。
【0008】
可能な設計では、第1データのデータ拡張方法は、第1データの種類及び/又はモデル適用シナリオに基づいて決定され、モデル適用シナリオは、第1トレーニングデータに対応するシナリオとして更に記述されてもよい。
【0009】
可能な設計では、第1情報は、1つ以上の識別子を含み、識別子は、第1データのデータ拡張方法を示す。
【0010】
可能な設計では、第1情報は、第1データのデータ拡張方法のパラメータを含む。
【0011】
可能な設計では、前記通信方法は、前記第1ノードに第2情報を送信するステップであって、前記第2情報は、以下:前記第1データの種類、前記第1トレーニングデータセットに対応するシナリオ、前記第1データのデータ量、又は第2ノードによってサポートされるデータ拡張方法、のうちの少なくとも1つを示し、前記第2ノードは、前記モデルをトレーニングするために使用される、ステップ、
を更に含む。この設計では、前記第2情報は、前記第1データを取得するための関連要件を示し、適切なトレーニングデータを取得するのを助ける、すなわち、前記モデルトレーニングデータの有効性を向上させる。
【0012】
可能な設計では、前記第1データの種類は、チャネルデータを含むことができる。
【0013】
可能な設計では、前記第1トレーニングデータセットに対応するシナリオを使用して、前記第1データの収集範囲を決定する。例えば、前記第1データは、前記第1データセットに対応するシナリオのデータであってもよい。この例では、前記第1トレーニングデータセットに対応するシナリオは、前記第1データに対応するシナリオとして記述することもできる。
【0014】
可能な設計では、前記通信方法は、前記第1ノードから第2データを取得するステップであって、前記モデルは、前記第1トレーニングデータセットに基づくトレーニングによって取得され、前記第2データは、前記モデルの更新トレーニングを実行するために使用される、ステップ、を更に含む。任意で、前記方法のトリガ条件は、前記モデルの性能が性能要件を満たさないこと、つまり、前記モデルの性能が性能要件を満たさない場合に、前記第2データが前記第1ノードから取得されること、を含む。前記第1ノードは、前記モデルの性能が前記性能要件を満たしていないと決定してもよく、又は、前記モデルをトレーニングするノード、例えば前記第2ノードは、前記モデルの性能が前記性能要件を満たしていないと決定してもよい。
【0015】
可能な設計では、前記第1ノードから第2データを取得するステップは、
前記第1ノードに第3情報を送信するステップであって、前記第3情報は、前記モデルの性能が前記性能要件を満たさないことを示し、及び/又は、前記第3情報は、前記第2データを要求するために使用される、ステップと、
前記第1ノードから前記第2データを受信するステップと、
を更に含んでよい。
【0016】
この設計では、最初に、前記データ拡張方法で取得されたトレーニングデータを使用して前記モデルトレーニングが実行され、次に、前記モデルの性能を参照して、前記モデルの更新トレーニングのために、より多くのトレーニングデータが取得される。これにより、トレーニングデータ送信のオーバヘッドを低減する際に、モデルの性能を更に保証することができる。
【0017】
可能な設計では、前記通信方法は、前記第1ノードから、前記性能要件を示す情報を取得するステップを更に含む。
【0018】
可能な設計では、前記方法は、前記第1ノードに第4情報を送信するステップであって、前記第4情報は、前記第1データの前記データ拡張方法を要求するために使用される、ステップを更に含む。
【0019】
可能な設計では、前記第4情報は、第1データ拡張方法の指示情報を含み、
前記第1情報は、肯定応答情報を含み、前記肯定応答情報は、前記第1データの前記データ拡張方法が前記第1データ拡張方法を含むことを示す、又は、
前記第1情報は、否定応答情報及び第2データ拡張方法の指示情報を含み、前記否定応答情報は、前記第1データの前記データ拡張方法が前記第1データ拡張方法を含まないことを示し、前記第1データの前記データ拡張方法が前記第2データ拡張方法を含む。この設計では、前記第1ノードは、使用する予定のデータ拡張方法が前記第1データに適用可能であるかどうかを決定し、次に、前記データ拡張方法を示す。これにより、前記第1データに適応するデータ拡張方法が実際に使用されることを保証し、前記モデルの性能を向上させるのに役立つ。
【0020】
第2態様によると、本開示は、通信方法であって、
第1データ及び第1情報を決定するステップであって、前記第1情報が第1データのデータ拡張方法を示す、ステップと、
第2ノードに前記第1データ及び前記第1情報を送信するステップであって、前記第1データ及び前記第1情報は、モデルの第1トレーニングデータセットを決定するために使用される、ステップと、
を含む方法を提供する。
【0021】
前記第1データのデータ拡張方法の内容説明については、第1態様を参照されたい。詳細は、ここでは再度説明しない。
【0022】
可能な設計では、前記方法は、第2情報を取得するステップであって、前記第2情報は、以下:前記第1データの種類、前記第1トレーニングデータセットに対応するシナリオ、前記第1データのデータ量、又は前記第2ノードによってサポートされるデータ拡張方法、のうちの少なくとも1つを示す、ステップを更に含む。前述の設計における前記第1データ及び前記第1情報は、前記第2情報によって決定されてもよい。
【0023】
前記第1データの種類及び前記第1トレーニングデータセットに対応するシナリオの内容説明については、第1態様を参照されたい。詳細は、ここでは再度説明しない。
【0024】
可能な設計では、前記方法は、前記第2ノードに第2データを送信するステップであって、前記第2データは、モデルの更新トレーニングを実行するために使用される、ステップを更に含む。具体的には、前記モデルの性能が前記性能要件を満たしていない場合、前記第2データを前記第2ノードに送信することができる。任意で、前記第1ノードは、前記モデルの性能が前記性能要件を満たしていないと決定してもよく、又は、前記モデルをトレーニングするノード、例えば前記第2ノードは、前記モデルの性能が前記性能要件を満たしていないと決定してもよい。
【0025】
可能な設計では、前記第2ノードに第2データを送信するステップの前に、前記方法は、
前記第2ノードから第3情報を受信するステップであって、前記第3情報は、前記モデルの性能が前記性能要件を満たさないことを示し、及び/又は、前記第3情報は、前記第2データを要求するために使用される、ステップ、
を更に含む。
【0026】
可能な設計では、性前記能要件を示す情報を第2ノードに送信する。
【0027】
可能な設計では、前記方法は、前記第2ノードから第4情報を受信するステップであって、前記第4情報は、前記第1データの前記データ拡張方法を要求するために使用される、ステップを更に含む。
【0028】
前記第4情報及び前記第1情報の内容説明については、第1態様を参照されたい。詳細は、ここでは再度説明しない。
【0029】
第3態様によると、本開示は、通信機器を提供する。前記通信機器は、第2ノード、前記第2ノード内の機器、又は前記第2ノードと共に使用される機器であってもよい。設計において、前記通信機器は、第1態様に記載の方法/動作/ステップ/アクションと1対1で対応するモジュールを含んでもよい。前記モジュールは、ハードウェア回路、ソフトウェア、又はソフトウェアとハードウェア回路の組み合わせにより実装されてよい。可能な設計では、前記通信機器は、処理モジュールと通信モジュールを含んでよい。
【0030】
一例において、前記通信モジュールは、前記第1ノードから第1データを取得するように構成される。前記処理モジュールは、前記第1データ及び前記第1データのデータ拡張方法に基づいてモデルの第1トレーニングデータセットを決定するように構成される。
【0031】
具体的に、前記第1データのデータ拡張方法は、前記第1ノードによって示されてもよい。別の例では、前記通信モジュールは、第1ノードから第1データ及び第1情報を取得するように構成され、前記第1情報は、前記第1データのデータ拡張方法を示し、前記処理モジュールは、前記第1データ及び前記第1情報に基づいて、モデルの第1トレーニングデータセットを決定するように構成される。
【0032】
具体的に、前記第1データのデータ拡張方法は、プロトコルで合意されてもよい。
【0033】
可能な設計では、前記通信モジュールは、前記第1ノードに第2情報を送信するように構成され、前記第2情報は、以下:前記第1データの種類、前記第1トレーニングデータセットに対応するシナリオ、前記第1データのデータ量、又は第2ノードによってサポートされるデータ拡張方法、のうちの少なくとも1つを示し、前記第2ノードは、前記モデルをトレーニングするために使用される、ステップ、
を更に含む。
【0034】
可能な設計では、前記通信モジュールは、前記第1ノードから第2データを取得するように構成され、前記モデルは、前記第1トレーニングデータセットに基づくトレーニングによって取得され、前記第2データは、前記モデルの更新トレーニングを実行するために使用される。任意で、前記モデルの性能が性能要件を満たしていない場合、前記通信モジュールは、前記第1ノードから前記第2データを取得するように構成される。前記第1ノードは、前記モデルの性能が前記性能要件を満たしていないと決定してもよく、又は、前記モデルをトレーニングするノード、例えば前記第2ノードは、前記モデルの性能が前記性能要件を満たしていないと決定してもよい。
【0035】
可能な設計では、前記通信モジュールは、前記第1ノードに第3情報を送信、前記第3情報は、前記モデルの性能が前記性能要件を満たさないことを示し、及び/又は、前記第3情報は、前記第2データを要求するために使用され、
前記第1ノードから前記第2データを受信する、
ように更に構成される。
【0036】
可能な設計では、前記通信モジュールは、前記第1ノードから、前記性能要件を示す情報を取得するように構成される。
【0037】
可能な設計では、前記通信モジュールは、前記第1ノードに第4情報を送信し、前記第4情報は、前記第1データの前記データ拡張方法を要求するために使用される、ように構成される。
【0038】
前記第4情報及び前記第1情報の内容説明については、第1態様を参照されたい。詳細は、ここでは再度説明しない。
【0039】
第4態様によると、本開示は、通信機器を提供する。前記通信機器は、第1ノード、前記第1ノード内の機器、又は前記第1ノードと共に使用される機器であってもよい。設計において、前記通信機器は、第2態様に記載の方法/動作/ステップ/アクションと1対1で対応するモジュールを含んでもよい。前記モジュールは、ハードウェア回路、ソフトウェア、又はソフトウェアとハードウェア回路の組み合わせにより実装されてよい。可能な設計では、前記通信機器は、処理モジュールと通信モジュールを含んでよい。一例は以下の通りである:
処理モジュールは、第1データ及び第1情報を決定するように構成され、前記第1情報が第1データのデータ拡張方法を示し、
通信モジュールは、第2ノードに前記第1データ及び前記第1情報を送信するように構成され、前記第1データ及び前記第1情報は、モデルの第1トレーニングデータセットを決定するために使用される。
【0040】
可能な設計では、前記処理モジュールは、前記通信モジュールを用いて第2情報を取得するように更に構成され、前記第2情報は、以下:前記第1データの種類、前記第1トレーニングデータセットに対応するシナリオ、前記第1データのデータ量、又は前記第2ノードによってサポートされるデータ拡張方法、のうちの少なくとも1つを示し、前記通信モジュールは、前記前記第2情報に基づき、前記第1データと前記第1情報を決定するように更に構成される。
【0041】
可能な設計では、前記通信モジュールは、前記第2ノードに第2データを送信するように更に構成され、前記第2データは、モデルの更新トレーニングを実行するために使用される。具体的には、前記モデルの性能が前記性能要件を満たしていない場合、前記第2データを前記第2ノードに送信することができる。任意で、前記第1ノードは、前記モデルの性能が前記性能要件を満たしていないと決定してもよく、又は、前記モデルをトレーニングするノード、例えば前記第2ノードは、前記モデルの性能が前記性能要件を満たしていないと決定してもよい。
【0042】
可能な設計では、前記第2ノードに第2データを送信する前に、前記通信モジュールは、
前記第2ノードから第3情報を受信するように更に構成され、前記第3情報は、前記モデルの性能が前記性能要件を満たさないことを示し、及び/又は、前記第3情報は、前記第2データを要求するために使用される。
【0043】
可能な設計では、前記通信モジュールは、前記第2ノードに、前記性能要件を示す情報を送信するように更に構成される。
【0044】
可能な設計では、前記通信モジュールは、前記第2ノードから第4情報を受信するように更に構成され、前記第4情報は、前記第1データの前記データ拡張方法を要求するために使用される。
【0045】
前記第4情報及び前記第1情報の内容説明については、第1態様を参照されたい。詳細は、ここでは再度説明しない。
【0046】
第5態様によると、本開示は、通信機器を提供する。前記通信機器は、第1態様による方法を実施するよう構成されるプロセッサを含む。前記通信機器は、命令及びデータを格納するよう構成されるメモリを更に含んでよい。メモリは、プロセッサに結合される。前記メモリに格納された前記命令を実行すると、前記プロセッサは、第1態様に記載された方法を実施することができる。前記通信機器は、通信インタフェースを更に含んでよい。前記通信インタフェースは、別の装置と通信するために前記機器により使用される。例えば、前記通信インタフェースは、トランシーバ、回路、バス、モジュール、ピン、又は別の種類の通信インタフェースであってよい。可能な設計では、前記通信機器は、プログラム命令を格納するように構成されたメモリと、前記通信インタフェースを介して第1ノードから第1データを取得するように構成されたプロセッサとを含み、前記プロセッサは、前記第1データ及び前記第1データのデータ拡張方法に基づいてモデルの第1トレーニングデータセットを決定するように更に構成される。
【0047】
可能な別の設計では、前記通信機器は、プログラム命令を格納するように構成されたメモリと、前記通信インタフェースを介して第1ノードから第1データ及び第1情報を取得するように構成されたプロセッサと、を含み、前記第1情報は、前記第1データのデータ拡張方法を示し、前記プロセッサは、前記第1データ及び前記第1情報に基づいて、モデルの第1トレーニングデータセットを決定するように更に構成される。
【0048】
第6態様によると、本開示は、通信機器を提供する。前記通信機器は、第2態様による方法を実施するよう構成されるプロセッサを含む。前記通信機器は、命令及びデータを格納するよう構成されるメモリを更に含んでよい。メモリは、プロセッサに結合される。前記メモリに格納された前記命令を実行すると、前記プロセッサは、第2態様に記載された方法を実施することができる。前記通信機器は、通信インタフェースを更に含んでよい。前記通信インタフェースは、別の装置と通信するために前記機器により使用される。例えば、前記通信インタフェースは、トランシーバ、回路、バス、モジュール、ピン、又は別の種類の通信インタフェースであってよい。可能な設計では、前記通信機器は、プログラム命令を格納するように構成されたメモリと、第1データ及び第1情報を決定するように構成されたプロセッサと、を含み、前記第1情報は、前記第1データのデータ拡張方法を示し、前記プロセッサは、更に、前記第1データ及び前記第1情報を前記通信インタフェースを介して第2ノードに送信するように構成され、前記第1データ及び前記第1情報は、モデルの第1トレーニングデータセットを決定するために使用される。
【0049】
第7態様によると、本開示は、通信システムであって、第3態様又は第4態様に記載された通信機器と、第4態様又は第6態様に記載された通信機器と、を含む通信システムを提供する。
【0050】
第8態様によると、本開示は、コンピュータプログラムを更に提供する。前記コンピュータプログラムがコンピュータで実行されると、前記コンピュータは、第1態様又は第2態様で提供される方法を実行可能にされる。
【0051】
第9態様によると、本開示は、命令を含むコンピュータプログラムプロダクトを更に提供する。前記命令がコンピュータ上で実行すると、該コンピュータは、第1態様又は第2態様で提供された方法を実行可能にされる。
【0052】
第10態様によると、本開示は、コンピュータ可読記憶媒体を更に提供し、前記コンピュータ可読記憶媒体は、コンピュータプログラム又は命令を格納する。前記コンピュータプログラム又は前記命令がコンピュータで実行されると、前記コンピュータは、第1態様又は第2態様で提供される方法を実行可能にされる。
【0053】
第11態様によると、本開示は、チップを更に提供する。前記チップは、前記メモリに格納されたコンピュータプログラムを読み出し、第1態様又は第2態様で提供された方法を実行するように構成される。
【0054】
第12態様によれば、本開示は、チップシステムを更に提供する。前記チップシステムは、第1態様又は第2態様で提供された方法を実施する際にコンピュータ機器をサポートするように構成されるプロセッサを含む。可能な設計では、前記チップシステムは、メモリを更に含み、前記メモリは、前記コンピュータ機器のために必要なプログラム及びデータを格納するよう構成される。チップシステムは、チップを含んでよく、又はチップ及び別の個別コンポーネントを含んでよい。
【図面の簡単な説明】
【0055】
【0056】
【0057】
【
図2B】ニューラルネットワークの層関係の図である。
【0058】
【
図3A】本開示によるAIアプリケーションフレームワークの図である。
【0059】
【
図3B】幾つかのネットワークアーキテクチャの図である。
【
図3C】幾つかのネットワークアーキテクチャの図である。
【
図3D】幾つかのネットワークアーキテクチャの図である。
【
図3E】幾つかのネットワークアーキテクチャの図である。
【0060】
【
図4】本開示による通信方法の概略フローチャートである。
【0061】
【0062】
【0063】
【0064】
【0065】
【
図9】本開示による通信方法の概略フローチャートである。
【
図10】本開示による通信方法の概略フローチャートである。
【0066】
【
図11】本開示によるモデルトレーニング効果の図である。
【0067】
【発明を実施するための形態】
【0068】
本開示の目的、技術的ソリューション、及び利点を明確にするために、以下は、添付の図面を参照して本開示を詳細に説明する。
【0069】
本開示は、1つ以上の(項目)を示す少なくとも1つの(項目)に関する。複数の(項目)とは、2つの(項目)又は2つより多くの(項目)を意味する。用語「及び/又は」は、関連付けられたオブジェクトを説明する関連付け関係を記述し、3つの関係が存在し得ることを表す。例えば、A及び/又はBは、以下の3つの場合を表してよい。Aのみが存在する、A及びBの両方が存在する、並びに、Bのみが存在する。文字「/」は、通常、関連付けられたオブジェクトの間の「又は」の関係を示す。更に、第1及び第2のような用語は、本開示においてオブジェクトを記述するために使用され得るが、これらのオブジェクトは、これらの用語によって限定されないことを理解されたい。これらの用語は、単に、オブジェクトを互いに区別するために使用される。
【0070】
本開示の説明において言及される用語「含む(including)」、「有する(having)」、及びそれらの他の変形は、非排他的な包含をカバーすることを意図している。例えば、一連のステップ又はユニットを含むプロセス、方法、システム、プロダクト、又は装置は、リストされたステップ又はユニットに限定されず、任意でリストされていない他のステップ又はユニットを更に含むか、又は任意でプロセス、方法、プロダクト、又は装置の別の固有のステップ又はユニットを更に含む。留意すべきことに、本開示では、「例」又は「例えば」のような用語は、例、図示、又は説明を表すために使用される。本開示の例において「例」又は「例えば」として記載される任意方法又は設計方式は、別の方法又は設計方式より好適である又はより多くの利点を有するとして説明されるべきではない。正確には、単語「例」、「例えば」、等は、特定の方法で関連する概念を提示することを意図している。
【0071】
本開示で提供される技術は、様々な通信システムに適用することができる。例えば、通信システムは、第3世代(3rd generation, 3G)通信システム(例えば、ユニバーサル移動通信システム(universal mobile telecommunications system, UMTS))、第4世代(4th generation, 4G)通信システム(例えば、ロングタームエボリューション(long term evolution, LTE)システム)、第5世代(5th generation, 5G)通信システム、マイクロ波アクセスのためのワールドワイドインターオペラビリティ(worldwide interoperability for microwave access, WiMAX)又はワイヤレスローカルエリアネットワーク(wireless local area network, WLAN)システム、又は複数のシステムを統合するシステム、又は将来の通信システム、例えば6G通信システムであってもよい。5G通信システムは、新無線(new radio, NR)システムとも呼ばれてよい。
【0072】
通信システム内のネットワーク要素は、別のネットワーク要素に信号を送信することも、別のネットワーク要素から信号を受信することもできる。信号は、情報、シグナリング、データなどを含んでもよい。ネットワーク要素は、代替として、エンティティ、ネットワークエンティティ、装置、通信装置、通信モジュール、ノード、通信ノードなどに置き換えてもよい。ネットワーク要素は、本開示において説明のための例として使用される。例えば、通信システムは、少なくとも1つの端末装置及び少なくとも1つのアクセスネットワーク装置を含んでもよい。アクセスネットワーク装置は、端末装置にダウンリンク信号を送信し、及び/又は端末装置は、アクセスネットワーク装置にアップリンク信号を送信してもよい。更に、通信システムが複数の端末装置を含む場合、複数の端末装置は、互いに信号を送信してもよい、言い換えれば、信号送信ネットワーク要素及び信号受信ネットワーク要素の両方が端末装置であってもよいことが理解され得る。
【0073】
図1Aは、通信システムを示す。例えば、通信システムは、アクセスネットワーク装置110と、2つの端末装置、すなわち、端末装置120及び端末装置130とを含む。端末装置120及び端末装置130の少なくとも一方は、アップリンクデータをアクセスネットワーク装置110に送信することができ、アクセスネットワーク装置110は、アップリンクデータを受信することができる。アクセスネットワーク装置は、ダウンリンクデータを端末装置120及び端末装置130の少なくとも一方に送信することができる。
【0074】
以下、
図1Aにおける端末装置及びアクセスネットワーク装置について詳細に説明する。
【0075】
(1)アクセスネットワーク装置
【0076】
アクセスネットワーク装置は、基地局(base station, BS)であってよい。アクセスネットワーク装置は、ネットワーク装置、アクセスノード(access node, AN)、又は無線アクセスノード(radio access node, RAN)とも呼ばれる。アクセスネットワーク装置は、コアネットワーク(LTEコアネットワーク又は5Gコアネットワーク)に接続されてもよく、アクセスネットワーク装置は、端末装置に無線アクセスサービスを提供してもよい。アクセスネットワーク装置は、限定ではないが、以下:5Gにおける次世代NodeB(generation NodeB, gNB)、オープン無線アクセスネットワーク(open radio access network, O-RAN)、又はアクセスネットワーク装置に含まれるモジュール、進化型NodeB(evolved NodeB, eNB)、無線ネットワーク制御部(radio network controller, RNC)、NodeB(NodeB, NB)、基地局制御部(base station controller, BSC)、基地トランシーバ局(base transceiver station, BTS)、ホーム基地局(例えば、home evolved NodeB又はhome NodeB, HNB)、ベースバンドユニット(base band unit, BBU)、送受信点(transmission reception point, TRP)、送信点(transmitting point, TP)、及び/又はモバイル交換局、のうちの少なくとも1つを含む。代替として、アクセスネットワーク装置は、無線ユニット(radio unit, RU)、中央ユニット(central unit, CU)、分散ユニット(distributed unit, DU)、中央ユニット制御プレーン(CU control plane, CU-CP)ノード、中央ユニットユーザプレーン(CU user plane, CU-UP)ノードであってもよい。代替として、アクセスネットワーク装置は、中継局、アクセスポイント、車載装置、ウェアラブル装置、将来の進化型公衆陸上移動網(public land mobile network, PLMN)におけるアクセスネットワーク装置、等であってよい。
【0077】
本開示において、アクセスネットワーク装置の機能を実現する通信機器は、アクセスネットワーク装置であってもよいし、アクセスネットワーク装置の一部の機能を有するネットワーク装置であってもよいし、アクセスネットワーク装置の機能の実現を支援できる機器、例えば、チップシステム、ハードウェア回路、ソフトウェアモジュール、又はハードウェア回路及びソフトウェアモジュールであってもよい。機器は、アクセスネットワーク装置に搭載されてもよいし、アクセスネットワーク装置に合わせて使用されてもよい。本開示の方法では、アクセスネットワーク装置の機能を実現するように構成される通信機器がアクセスネットワーク装置である例を用いて説明する。
【0078】
(2)端末装置
【0079】
端末装置は、端末、ユーザ機器(user equipment, UE)、移動局(mobile station, MS)、移動端末(mobile terminal, MT)、等とも呼ばれる。端末装置は、ユーザに音声及び/又はデータ接続を提供する装置であってもよい。端末装置は、アクセスネットワーク装置を通じて、1つ以上のコアネットワークと通信してよい。端末装置は、無線接続機能を備えたハンドヘルド装置、無線モデムに接続された別の処理装置、車載装置などを含む。代替として、端末装置は、携帯型、ポケットサイズ、ハンドヘルド型、コンピュータ内蔵型、又は車載型のモバイル機器であってもよい。端末装置の幾つかの例は、個人通信サービス(personal communication service, PCS)電話、コードレス電話、セッション開始プロトコル(session initiation protocol, SIP)電話、無線ローカルループ(wireless local loop, WLL)局、パーソナルデジタルアシスタント(personal digital assistant, PDA)、無線ネットワークカメラ、携帯電話(mobile phone)、タブレットコンピュータ、ノートブックコンピュータ、パームトップコンピュータ、モバイルインターネット装置(mobile internet device, MID)、スマートウォッチのようなウェアラブル装置、仮想現実(virtual reality, VR)装置、拡張現実(augmented reality, AR)装置、産業制御(industrial control)における無線端末、車両インターネットシステムにおける端末、自動運転(self driving)における無線端末、スマートグリッド(smart grid)における無線端末、輸送安全(transportation safety)における無線端末、スマートフューラーのようなスマートシティ(smart city)における無線端末、高速鉄道における端末装置、及びスマート音響、スマートコーヒーマシン、スマートプリンタ等のようなスマートホーム(smart home)における無線端末である。
【0080】
本開示において、端末装置の機能を実現するように構成される通信機器は、端末装置であってもよいし、端末の一部の機能を有する端末装置であってもよいし、端末装置の機能の実現を支援できる機器、例えばチップシステムであってもよい。機器は、端末装置に搭載されてもよいし、端末装置に合わせて使用されてもよい。本開示では、チップシステムは、チップを含んでよく、又はチップ及び別の個別コンポーネントを含んでよい。本開示で提供する技術的ソリューションでは、端末装置の機能を実現するように構成される通信機器が端末装置又はUEである例を用いて説明する。
【0081】
(3)アクセスネットワーク装置と端末装置との間のプロトコル層構造
【0082】
アクセスネットワーク装置と端末装置との間の通信は、所定のプロトコル層構造に従う。プロトコル層構造は、制御プレーンプロトコル層構造及びユーザプレーンプロトコル層構造を含むことができる。例えば、制御プレーンプロトコル層の構造は、無線リソース制御(radio resource control, RRC)層、パケットデータコンバージェンスプロトコル(packet data convergence protocol, PDCP)層、無線リンク制御(radio link control, RLC)層、媒体アクセス制御(Media Access Control, MAC)層、及び物理層のようなプロトコル層の機能を含んでよい。例えば、ユーザプレーンプロトコル層の構造は、PDCP層、RLC層、MAC層、及び物理層のようなプロトコル層の機能を含むことができる。可能な実装では、サービスデータアダプテーションプロトコル(service data adaptation protocol, SDAP)層が、PDCP層の上に更に含まれてもよい。
【0083】
任意で、アクセスネットワーク装置と端末装置との間のプロトコル層構造は、人工知能(人工知能、AI)機能に関連するデータを送信するために使用されるAI層を更に含んでもよい。
【0084】
アクセスネットワーク装置と端末装置との間のデータ送信を例として用いる。データ送信は、ユーザプレーンプロトコル層、例えば、SDAP層、PDCP層、RLC層、MAC層及び物理層を通過する必要がある。SDAP層、PDCP層、RLC層、MAC層及び物理層をまとめてアクセスストラタムと呼ぶこともできる。データ送信方向は送信又は受信を含むため、各層は更に送信部と受信部に分割される。ダウンリンクデータ送信が例として使用される。PDCP層は、上位層からデータを取得した後、RLC層及びMAC層にデータを送信し、MAC層はトランスポートブロックを生成し、次に、物理層を介して無線伝送を行う。データは、各層において相応してカプセル化される。例えば、ある層が上位層から受信したデータは、その層のサービスデータユニット(service data unit, SDU)として、プロトコルデータユニット(protocol data unit, PDU)にカプセル化され、次の層に転送されると考えられる。
【0085】
例えば、端末装置は、更に、アプリケーション層と、非アクセスストラタムとを有することができる。アプリケーション層は、端末装置にインストールされたアプリケーションにサービスを提供するために使用することができる。例えば、端末装置によって受信されたダウンリンクデータは、物理層からアプリケーション層に順次送信され、アプリケーション層によってアプリケーションに提供されることができる。他の例として、アプリケーション層は、アプリケーションによって生成されたデータを取得し、物理層に順次送信し、他の通信機器にデータを送信することができる。非アクセスストラタムは、ユーザデータを転送するように構成されてもよい。例えば、非アクセスストラタムは、アプリケーション層から受信したアプリンクデータをSDAP層に転送し、又はSDAP層から受信したダウンリンクデータをアプリケーション層に転送する。
【0086】
(4)アクセスネットワーク装置の構造
【0087】
アクセスネットワーク装置は、中央ユニット(central unit, CU)及び分散ユニット(distributed unit, DU)を含んでもよい。複数のDUは、集中型の方法で1つのCUにより制御されてよい。例えば、CUとDUとの間のインタフェースをF1インタフェースと呼ぶことがある。制御プレーン(control plane, CP)インタフェースはF1-Cであり、ユーザプレーン(user plane, UP)インタフェースはF1-Uである。CUとDUは、無線ネットワークのプロトコル層に基づいて分割されてもよい。例えば、PDCP層及びPDCP層より上位のプロトコル層の機能をCUに配置し、PDCP層より下位のプロトコル層(例えば、RLC層及びMAC層)の機能をDUに配置する。他の例として、PDCP層より上位のプロトコル層の機能をCUに配置し、PDCP層及びPDCP層より下位のプロトコル層の機能をDUに配置する。
【0088】
なお、上述したプロトコル層に基づくCUとDUの処理機能分割は単なる一例であり、他の分割も可能である。例えば、より多くのプロトコル層の機能を持つようにCU又はDUを分割してもよい。他の例として、プロトコル層の一部の処理機能を持つようにCU又はDUを分割してもよい。RLC層の一部の機能とRLC層より上位のプロトコル層の機能をCUに構成し、残りのRLC層の機能とRLC層より下位のプロトコル層の機能をDUに構成する設計もある。また、サービス種別や他のシステム要件に基づいてCU又はDUの機能を分割する設計もある。例えば、レイテンシに基づいて分割する設計もある。処理時間が遅延要件に適合する必要のある機能は、DUに設定され、処理時間が遅延要件に満たす必要のない機能はCUに設定される。また、コアネットワークの1つ以上の機能をCUに持たせる別の設計もある。例えば、集中管理を容易にするために、ネットワーク側にCUを配置してもよい。また、DUのRUを遠隔配置する別の設計もある。RUは無線周波数機能を有する。
【0089】
任意で、DUとRUを物理層(physical layer, PHY)で区別してもよい。例えば、DUはPHY層の上位層機能を実装し、RUはPHY層の下位層機能を実装してもよい。送信に使用される場合、PHY層の機能には、巡回冗長検査(cyclic redundancy check, CRC)符号追加、チャネルコーディング、レートマッチング、スクランブリング、変調、レイヤマッピング、プリコーディング、リソースマッピング、物理アンテナマッピング、及び/又は無線周波数送信機能が含まれる。受信に使用される場合、PHY層の機能には、CRC、チャネル復号、レートデマッチング、デスクランブリング、復調、レイヤデマッピング、チャネル検出、リソースデマッピング、物理アンテナデマッピング、及び/又は無線周波数受信機能が含まれる。PHY層の上位層機能には、PHY層の機能の一部が含まれてもよい。例えば、機能の一部はMAC層に近い。PHY層の下位層機能には、PHY層の機能の別の部分が含まれてもよい。例えば、機能の一部は無線周波数機能に近い。例えば、PHY層の上位層機能には、CRC符号追加、チャネルコーディング、レートマッチング、スクランブリング、変調、レイヤマッピングが含まれ、PHY層の下位層機能には、プリコーディング、リソースマッピング、物理アンテナマッピング、無線周波数送信機能が含まれる。或いは、PHY層の上位層機能は、CRC符号追加、チャネルコーディング、レートマッチング、スクランブリング、変調、レイヤマッピング、及びプリコーディングを含むことができる。PHY層の下位層機能は、リソースマッピング、物理アンテナマッピング、及び無線周波数送信機能を含むことができる。
【0090】
例えば、CUの機能は、1つのエンティティによって実装されてもよいし、異なるエンティティによって実装されてもよい。例えば、CUの機能は、更に分割されてもよい。すなわち、制御プレーンとユーザプレーンを分離して、制御プレーンCUエンティティ(つまり、CU-CPエンティティ)とユーザプレーンCUエンティティ(つまり、CU-UPエンティティ)の異なるエンティティによって実装されてもよい。CU-CPエンティティとCU-UPエンティティは、DUに結合されて、アクセスネットワーク装置の機能を共同で完成させることができる。
【0091】
前述のアーキテクチャでは、CUにより生成されるシグナリングは、DUを通じて端末装置へ送信されてよく、又は、端末装置により生成されるシグナリングは、DUを通じてCUへ送信されてよい。例えば、RRC又はPDCP層におけるシグナリングは、最終的に、物理層におけるシグナリングとして処理され、端末装置へ送信される、又は、物理層から受信したシグナリングから変換される。このようなアーキテクチャに基づき、RRC層又はPDCP層におけるシグナリングは、DUを用いて送信される、又はDU及びRUを用いて送信される、と考えられてよい。
【0092】
任意に、DU、CU、CU-CP、CU-UP、及びRUのいずれかが、ソフトウェアモジュール、ハードウェア構造、又はソフトウェアモジュールとハードウェア構造の組み合わせであってもよい。これは、限定されない。異なるエンティティが異なる形態で存在してもよいが、これに限定されない。例えば、DU、CU、CU-CP、CU-UPはソフトウェアモジュールであり、RUはハードウェア構造である。これらのモジュール及びこれらのモジュールによって実行される方法もまた、本開示の保護範囲に含まれる。
【0093】
図1Aに示された通信システムにおける装置の数及び種類は、単に一例として使用され、本開示はそれに限定されないことを理解されたい。実際の適用において、通信システムは、より多くの端末装置及びより多くのアクセスネットワーク装置を更に含むことができ、別のネットワーク要素を更に含むことができ、例えば、人工知能機能を実装するように構成されたコアネットワーク装置及び/又はネットワーク要素を含むことができる。
【0094】
本開示で提供される方法は、アクセスネットワーク装置と端末装置との間の通信に使用することができ、他の通信機器間の通信、例えば、無線バックホールリンクにおけるマクロ基地局とマイクロ基地局との間の通信、別の例として、サイドリンク(sidelink, SL)における2つの端末装置間の通信、に使用することもできる。これは、限定されない。
【0095】
本開示で提供される方法は、人工知能(artificial Intelligence, AI)に関する。AIは、様々な可能な技術を用いて、例えば、機械学習技術を用いて実装することができる。本開示において、上記通信システムは、人工知能機能を実装するネットワーク要素を含むこともできる。例えば、AI機能(AIモジュール又はAIエンティティ)は、AI関連の動作を実装するために、通信システム内の既存のネットワーク要素に構成することができる。例えば、5G新無線(new radio, NR)システムにおいて、既存のネットワーク要素は、アクセスネットワーク装置(例えばgNB)、端末装置、コアネットワーク装置、ネットワーク管理システム等であってよい。ネットワーク管理システムは、オペレータのネットワーク運用の実際の要件に基づいて、ネットワーク管理作業を運用(Operation)、管理(Administration)、保守(Maintenance)の3つのタイプに分類することができる。ネットワーク管理システムは、運用、管理、及び保守(operation, administration, and maintenance, OAM)ネットワーク要素と呼ばれることもあり、略してOAMと呼ばれる。運用は、主にネットワーク及びサービスに関する分析、予測、計画、及び構成の日常作業を達成することである。保守は、主にネットワーク及びネットワークのサービスで行われるテスト又は障害管理などの日常運用活動である。ネットワーク管理システムは、ネットワークの稼働状態を検出し、ネットワーク接続及び性能を最適化し、ネットワークの稼働安定性を改善し、ネットワーク保守コストを削減することができる。或いは、独立したネットワーク要素を通信システムに導入して、AI関連の操作を実行してもよい。独立したネットワーク要素は、AIネットワーク要素、AIノードなどと呼ばれてもよい。ネットワーク要素の名称は、本開示では限定されない。AIネットワーク要素は、通信システム内のアクセスネットワーク装置に直接接続されてもよいし、第3者のネットワーク要素を介してアクセスネットワーク装置に間接的に接続されてもよい。第3者ネットワーク要素は、認証管理機能(authentication management function, AMF)ネットワーク要素やユーザプレーン機能(user plane function, UPF)ネットワーク要素などのコアネットワーク要素、OAM、クラウドサーバ、又は他のネットワーク要素であってもよい。これは、限定されない。例えば、
図1B参照する。
図1Aに示す通信システムには、AIネットワーク要素140が導入されている。AI関連の動作を行うネットワーク要素は、AI機能を内蔵したネットワーク要素、又は前述のAIネットワーク要素である。これは、本実施開示では限定されない。AI-関連する動作は、AI機能と呼ばれてもよい。AI機能の具体的な説明については、以下を参照されたい。
【0096】
以下では、理解を容易にするために、本開示におけるAIの用語をA1~A3を参照して説明する。なお、これらの説明は、本開示を限定するものではない。
【0097】
A1:AIモデル
【0098】
AIモデルは、AI機能の特定の実装である。AIモデルは、モデルの入力と出力との間のマッピング関係を表す。AIモデルは、ニューラルネットワーク、線形回帰モデル、決定木モデル、サポートベクトルマシン(support vector machine, SVM)、ベイジアン(Bayesian)ネットワーク、Q学習モデル、又は他の機械学習モデルであってもよい。本開示において、AI機能は、データ収集(トレーニングデータ及び/又は推論データの収集)、データ前処理、モデルトレーニング(又はモデル学習と称する)、モデル情報リリース(モデル情報構成)、モデル検証、モデル推論、又は推論結果リリースのうちの少なくとも1つを含むことができる。推論は、予測と呼ばれてもよい。本開示では、AIモデルは、略してモデルと呼ばれてよい。
【0099】
従来の通信システムは、豊富な専門知識を有する通信モジュールを設計する必要がある。しかし、(ニューラルネットワークのような)機械学習技術に基づく深層学習通信システムは、大量のデータセットから自動的に暗黙的なパターン構造を発見し、データ間のマッピング関係を確立し、従来のモデリング手法よりも優れた性能を得ることができる。
【0100】
A2:ニューラルネットワーク
【0101】
ニューラルネットワークは、AIや機械学習技術の具体的な実装形態である。普遍近似定理によれば、ニューラルネットワークは、理論的には任意の連続関数に近似することができ、ニューラルネットワークは任意のマッピングを学習する能力を持つようになる。
【0102】
ニューラルネットワークは、脳組織のニューロン構造から発想されている。例えば、各ニューロンは、ニューロンの入力値に対して加重和演算を行い、活性化関数を用いて演算結果を出力する。
図2Aは、ニューロン構造の図である。ニューロンの入力値を以下とし:
【数1】
入力値に対応する重みを以下とする:
【数2】
ここで、w
iは、x
iの重みであり、x
iを重み付けするために使用される。重みに基づいて入力値に対して加重和演算を行うためのオフセットは、例えばbである。活性化関数は、複数の形式があってもよい。ニューロンの活性化関数を以下:
【数3】
ニューロンの出力を以下とする:
【数4】
別の例として、ニューロンの活性化関数が以下である場合:
【数5】
ニューロンの出力は以下となる:
【数6】
bは、10進数、整数(例えば、0、正の整数、負の整数)、又は複素数などの任意の可能な値であってもよい。ニューラルネットワーク内の異なるニューロンの活性化関数は、同じであっても異なっていてもよい。
【0103】
ニューラルネットワークは一般に複数の層を含み、各層は1つ以上のニューロンを含むことができる。ニューラルネットワークの深さ及び/又は幅を増加させて、ニューラルネットワークの表現能力を向上させ、複雑なシステムに対してより強力な情報抽出及び抽象化モデリング能力を提供することができる。ニューラルネットワークの深さは、ニューラルネットワークに含まれる層の数であり、各層に含まれるニューロンの数を層の幅と呼ぶことができる。一実装では、ニューラルネットワークは入力層及び出力層を含む。ニューラルネットワークの入力層は、受け取った入力情報に対してニューロン処理を行い、処理結果を出力層に転送し、出力層はニューラルネットワークの出力結果を得る。別の実装では、ニューラルネットワークは入力層、隠れ層、及び出力層を含む。
図2Bを参照する。ニューラルネットワークの入力層は、受け取った入力情報に対してニューロン処理を行い、処理結果を中間の隠れ層に転送する。隠れ層は、受け取った処理結果に対して計算を行い、計算結果を得る。隠れ層は、計算結果を出力層又は隣接する隠れ層に転送する。最後に、出力層は、ニューラルネットワークの出力結果を得る。1つのニューラルネットワークは、1つの隠れ層を含んでもよいし、複数の隠れ層が順次接続されていてもよい。これは、限定されない。
【0104】
本開示におけるニューラルネットワークは、例えば、深層ニューラルネットワーク(deep neural network, DNN)である。ネットワーク構成方法に基づいて、DNNは、順伝播型ニューラルネットワーク(feedforward neural network, FNN)、畳み込みニューラルネットワーク(convolutional neural network, CNN)、回帰ニューラルネットワーク(recurrent neural network, RNN)を含んでもよい。
【0105】
A3:トレーニングデータと推論データ
【0106】
トレーニングデータは、AIモデルの入力を含んでもよいし、AIモデルの入力と目標出力(ラベル)を含んでもよく、AIモデルのトレーニングに用いられる。例えば、トレーニングデータは、複数のトレーニングサンプルを含み、各トレーニングサンプルは、ニューラルネットワークの1回の入力である。トレーニングデータは、トレーニングサンプルのセットとして理解されることもあり、トレーニングデータセットと呼ばれることもある。トレーニングデータセットは、機械学習の重要な部分の1つである。モデルトレーニングは、本質的に、出力がAIモデルの目標出力に可能な限り近づくように、トレーニングデータの幾つかの特徴を学習することである。例えば、AIモデルの出力と目標出力の差は可能な限り小さくなる。目標出力は、ラベルと呼ばれることもある。トレーニングデータセットの構成と選択によって、トレーニング済みAIモデルの性能がある程度決定される。
【0107】
更に、(ニューラルネットワークなどの)AIモデルのトレーニングプロセスで、損失関数を定義することができる。損失関数は、AIモデルの出力値と目標出力値との差を記述する。本開示は、損失関数の特定の形式を制限するものではない。AIモデルのトレーニングプロセスは、損失関数の値が閾値未満になるように、又は損失関数の値が目標要件を満たすように、AIモデルのパラメータを調整するプロセスである。例えば、AIモデルがニューラルネットワークであり、ニューラルネットワークのパラメータを調整することは、ニューラルネットワークの層数、幅、ニューロンの重み、又はニューロンの活性化関数のパラメータ、の少なくとも1つを調整することを含む。
【0108】
推論データは、トレーニングされたAIモデルの入力として使用することができ、AIモデル推論に使用される。モデル推論プロセスでは、推論データがAIモデルに入力され、対応する出力が推論結果であることを得ることができる。
【0109】
A4:AIモデル設計
【0110】
AIモデル設計には、主にデータ収集段階(例えば、トレーニングデータ及び/又は推論データの収集)、モデルトレーニング段階、モデル推論段階が含まれる。更に、推論結果適用段階が含まれる場合もある。
図3Aは、AIアプリケーションフレームワークを示している。上記データ収集段階では、データソース(data source)を用いて、トレーニングデータと推論データを提供する。モデルトレーニング段階では、データソースが提供するトレーニングデータ(training data)を分析又はトレーニングしてAIモデルを得る。AIモデルは、モデルの入力と出力との間のマッピング関係を表す。モデルトレーニングホストによる学習によってAIモデルを得ることは、トレーニングデータを用いた学習によってモデルの入力と出力との間のマッピング関係を得ることに相当する。モデル推論段階では、モデルトレーニング段階でトレーニングされたAIモデルを用いて、データソースが提供する推論データに基づいて推論を行い、推論結果を得る。この段階は、以下のように理解することもできる。推論データがAIモデルに入力され、AIモデルを用いて出力が得られ、出力が推論結果である。推論結果は、アクターオブジェクトによって使用される(作用する)構成パラメータ、及び/又はアクター(actor)オブジェクトによって実行される操作を示す場合がある。推論結果は、推論結果適用段階でリリースされる。例えば、推論結果は、アクター(actor)エンティティによって一様に計画される場合がある。例えば、アクターエンティティは、アクションのために推論結果を1つ以上のアクターオブジェクト(例えば、コアネットワーク装置、アクセスネットワーク装置、又は端末装置)に送信する場合がある。別の例として、アクターエンティティは、モデルの後続の更新トレーニングを容易にするために、モデルの性能をデータソースに更にフィードバックする場合がある。
【0111】
無線通信システムでは、
図3Aに示す段階を同じネットワーク要素によって実装することができる。つまり、1つのネットワーク要素がデータ収集、モデルトレーニング、モデル推論、及び推論結果のリリースを担当する場合がある。或いは、異なる段階を異なるネットワーク要素又はノードによって実装することもできる。例えば、データ収集段階を実行するノードと、モデルトレーニング段階を実行するノードは異なる。モデルをより正確にしたり、より強力な汎化能力を備えたりするには、モデルトレーニングのために大量のトレーニングデータが必要である。しかしながら、トレーニングデータのようなデータが異なるノード間で送信される場合、無線インタフェースオーバヘッドが生じる。送信されるトレーニングデータの量が多いほど、無線インタフェースオーバヘッドが高くなる。
【0112】
これに基づいて、本開示は、データ送信の無線インタフェースオーバヘッドを低減し、モデルトレーニングの効率と性能を最大限に確保するための通信方法を提供する。本開示において、
図3Aのデータソースは、モデルトレーニングホストに対して比較的少量のトレーニングデータを提供することができる。モデルトレーニング段階において、モデルトレーニングホストは、データソースによって提供される少量のトレーニングデータと、少量のトレーニングデータのデータ拡張方法とに基づいて、モデルトレーニングに実際に使用されるトレーニングデータを生成し、モデルトレーニングを実施することができる。少量のトレーニングデータは、モデルトレーニングに使用されるトレーニングデータに対するものであり、トレーニングデータのデータ量が少ないことを意味するものではなく、言い換えれば、トレーニングデータのデータ量は、モデルトレーニングに使用されるトレーニングデータのデータ量よりも少ないことを理解することができる。任意で、
図3Aに示すように、少量のトレーニングデータのデータ拡張方法は、データソースによって提供されてもよいし、少量のトレーニングデータのデータ拡張方法は、少量のトレーニングデータに対して拡張処理を実行するために使用することができる所定の方法であってもよい。
【0113】
以下は、
図3Bから
図3Eを参照して、本開示で提供される通信方法を適用することができるネットワークアーキテクチャについて説明する。
【0114】
図3Bに示すように、第1の可能な実施形態では、アクセスネットワーク装置は、モデル学習及び/又は推論を実行するように構成された近リアルタイム無線アクセスネットワークインテリジェントコントローラ(RAN intelligent controller, RIC)モジュールを含む。例えば、近リアルタイムRICは、CU、DU、及びRUの少なくとも1つからネットワーク側及び/又は端末側の情報を取得してもよい。情報は、少量のトレーニングデータ、少量のトレーニングデータのデータ拡張方法の指示情報、又は推論データを含んでもよい。例えば、近リアルタイムRICは、少量のトレーニングデータと、その少量のトレーニングデータのデータ拡張方法とに基づいて、モデルトレーニングに用いるトレーニングデータを決定し、モデルトレーニングを行うように構成されてもよい。更に、近リアルタイムRICは、トレーニング済みモデルを用いて推論を行ってもよい。更に、任意で、近リアルタイムRICは、推論結果をCU、DU及びRUの少なくとも1つに提出してもよい。任意で、CU及びDUは、推論結果を交換してもよい。任意で、DU及びRUは、推論結果を交換してもよい。例えば、近リアルタイムRICは、推論結果をDUに提出し、DUは、推論結果をRUに提出する。
【0115】
図3Bに示すように、第2の可能な実装において、アクセスネットワーク装置は、モデル学習及び推論を実行するように構成された非リアルタイムRICを含んでもよい(任意で、非リアルタイムRICをOAM又はコアネットワーク装置に配置してもよい)。例えば、非リアルタイムRICは、CU、DU、及びRUの少なくとも1つからネットワーク側及び/又は端末側の情報を取得してもよい。情報は、少量のトレーニングデータ、少量のトレーニングデータのデータ拡張方法の指示情報、又は推論データを含んでもよい。例えば、非リアルタイムRICは、少量のトレーニングデータと、その少量のトレーニングデータのデータ拡張方法とに基づいて、モデルトレーニングに用いるトレーニングデータを決定し、モデルトレーニングを行うように構成される。更に、非リアルタイムRICは、トレーニング済みモデルを用いて推論を行ってもよい。更に、任意で、非リアルタイムRICは、推論結果をCU、DU及びRUの少なくとも1つに提出してもよい。任意で、CU及びDUは、推論結果を交換してもよい。任意で、DU及びRUは、推論結果を交換してもよい。例えば、非リアルタイムRICは、推論結果をDUに提出し、DUは、推論結果をRUに提出する。
【0116】
図3Bに示すように、第3の可能な実装では、アクセスネットワーク装置が近リアルタイムRICを含み、非リアルタイムRICはアクセスネットワーク装置の外部に配置される(任意で、非リアルタイムRICをOAM又はコアネットワーク装置に配置してもよい)。第2の可能な実装と同様に、非リアルタイムRICは、モデル学習及び/又は推論を実行するように構成されてもよい。及び/又は第1の可能な実装と同様に、近リアルタイムRICは、モデル学習及び/又は推論を実行するように構成されてもよい。及び/又は近リアルタイムRICは、非リアルタイムRICからAIモデル情報を取得し、CU、DU、及びRUの少なくとも1つからネットワーク側及び/又は端末側の情報を取得し、情報及びAIモデル情報を用いて推論結果を取得してもよい。任意で、近リアルタイムRICは、推論結果をCU、DU及びRUの少なくとも1つに提出してもよい。任意で、CU及びDUは、推論結果を交換してもよい。任意で、DU及びRUは、推論結果を交換してもよい。例えば、近リアルタイムRICは、推論結果をDUに提出し、DUは、推論結果をRUに提出する。例えば、近リアルタイムRICは、少量のトレーニングデータと、その少量のトレーニングデータのデータ拡張方法とに基づいて、モデルトレーニングに用いるトレーニングデータを決定し、モデルトレーニングを実行し、トレーニング済みモデルを用いて推論を行うように構成される。例えば、非リアルタイムRICは、少量のトレーニングデータと、その少量のトレーニングデータのデータ拡張方法とに基づいて、モデルトレーニングに用いるトレーニングデータを決定し、モデルトレーニングを実行し、トレーニング済みモデルを用いて推論を行うように構成される。例えば、非リアルタイムRICは、少量のトレーニングデータと、その少量のトレーニングデータのデータ拡張方法とに基づいて、モデルトレーニングに用いるトレーニングデータを決定し、モデルトレーニングを行い、近リアルタイムRICにトレーニング済みモデルを提出するように構成される。近リアルタイムRICは、トレーニング済みモデルを用いて推論を行う。
【0117】
図3Cは、本開示で提供される方法が適用可能なネットワークアーキテクチャの例示的な図である。
図3Bと比較して、
図3Cでは、CUがCU-CPとCU-UPに分離されている。
【0118】
図3Dは、本開示で提供される方法が適用可能なネットワークアーキテクチャの例示的な図である。
図3Dに示すように、任意で、アクセスネットワーク装置は、1つ以上のAIエンティティを含み、AIエンティティの機能は、前述の近リアルタイムRICの機能と同様である。任意で、OAMは、1つ以上のAIエンティティを含み、AIエンティティの機能は、前述の非リアルタイムRICの機能と同様である。任意で、コアネットワーク装置は、1つ以上のAIエンティティを含み、AIエンティティの機能は、前述の非リアルタイムRICの機能と同様である。OAM及びコアネットワーク装置が各々AIエンティティを含む場合、OAM及びコアネットワーク装置のAIエンティティによるトレーニングによって得られるモデルは異なり、及び/又は推論に使用されるモデルは異なる。
【0119】
本開示において、モデルは、モデルの構造パラメータ(例えば、モデルの重み及び/又は層数)、モデルの入力パラメータ、又はモデルの出力パラメータ、の少なくとも1つに関して異なる。
【0120】
図3Eは、本開示で提供される方法が適用可能なネットワークアーキテクチャの例示的な図である。
図3Dと比較して、
図3Eでは、アクセスネットワーク装置がCUとDUに分離されている。任意で、CUはAIエンティティを含み、AIエンティティの機能は、前述の近リアルタイムRICの機能と同様である。任意で、DUはAIエンティティを含み、AIエンティティの機能は、前述の近リアルタイムRICの機能と同様である。CU及びDUが各々AIエンティティを含む場合、CU及びDUのAIエンティティによるトレーニングによって得られるモデルは異なり、及び/又は推論に使用されるモデルは異なる。任意で、
図3EのCUは、CU-CPとCU-UPに更に分離されてよい。任意に、1つ以上のAIモデルをCU-CPに配置することができる。及び/又は1つ以上のAIモデルをCU-UPに配置することができる。任意で、
図3D又は
図3Eにおいて、アクセスネットワーク装置のOAMとコアネットワーク装置のOAMを別々に配置することができる。
【0121】
本開示では、1つのモデルを使用して推論によって1つのパラメータ又は複数のパラメータを得ることができる。異なるモデルの学習プロセスを異なる装置又はノードに配置することができ、又は同じ装置又はノードに配置することができる。異なるモデルの推論プロセスを異なる装置又はノードに配置することができ、又は同じ装置又はノードに配置することができる。
【0122】
以下は、ソリューション1~ソリューション3を参照して、本開示で提供される通信方法を詳細に説明する。これらの方法に含まれるステップ又は動作は単なる例であり、本開示では、他の動作又は様々な動作の変形を更に実施することができる。また、これらのステップは、本開示で提示されるシーケンスとは異なるシーケンスで実施されてもよく、本開示の全ての動作が実施されなくてもよい。
【0123】
ソリューション1:
【0124】
図4は、通信方法を示す。第1ノードは、データ収集段階を実行する前述のノードに対応し、又は、第1ノードは、前述のデータ収集段階で収集されたデータを転送又は管理できるノードに対応し、第2ノードは、モデルトレーニング段階を実行する前述のノードに対応する。方法は、主に以下のステップを含む。
【0125】
S401:第2ノードは、第1ノードから第1データ及び第1情報を取得し、第1情報は、第1データのデータ拡張方法を示す。
【0126】
第1ノードは、データ収集ノードであってもよく、トレーニングデータを収集する(これは、例えば、収集する又は測定するとして記述することもできる)機能を有する。第2ノードは、1つ以上のデータ収集ノードから関連データを取得してもよい。例えば、S401における第1ノードは、複数のデータ収集ノードにおける第1データ及び第1情報を提供可能なノードであってもよい。或いは、第1ノードがデータ管理ノードであってもよく、データ管理ノードは、1つ以上のデータ収集ノードに接続され、データ収集ノードは、トレーニングデータを収集する機能を有し、データ管理ノードは、データ管理ノードに接続されたデータ収集ノードが収集したトレーニングデータを管理してもよい。第2ノードは、1つ以上のデータ管理ノードから関連データを取得してもよい。例えば、S401における第1ノードは、複数のデータ管理ノードにおける第1データ及び第1情報を提供可能なノードであってもよい。異なるデータ管理ノードに接続されたデータ収集ノードは、重複してもよいし、重複しなくてもよい。これは、本実施開示では限定されない。第2ノードは、モデルをトレーニングするために使用され、又はモデルトレーニングホスト(model training host)と呼ばれる。以下に例を示すが、これに限定されない。第1ノードは、端末装置であってもよく、第2ノードは、アクセスネットワーク装置、分離アーキテクチャにおけるアクセスネットワーク装置のCU、又は分離アーキテクチャにおけるアクセスネットワーク装置のDUであってもよい。第1ノードは、アクセスネットワーク装置、分離アーキテクチャにおけるアクセスネットワーク装置のCU、又は分離アーキテクチャにおけるアクセスネットワーク装置のDUであってもよく、第2ノードは端末装置である。第1ノードは、端末装置、アクセスネットワーク装置、分離アーキテクチャにおけるアクセスネットワーク装置のCU、又は分離アーキテクチャにおけるアクセスネットワーク装置のDUであってもよく、第2ノードは、AIネットワーク要素又はコアネットワーク要素である。第1ノードは、コアネットワーク装置であってもよく、第2ノードは、アクセスネットワーク装置、分離アーキテクチャにおけるアクセスネットワーク装置のCU、又は分離アーキテクチャにおけるアクセスネットワーク装置のDUであってもよい。又は、第1ノードは、データ(例えば、トレーニングデータ)を提供できる第3者ノードであってもよく、第2ノードは、端末装置、アクセスネットワーク装置、分離アーキテクチャにおけるアクセスネットワーク装置のCU又はDU、AIネットワーク要素、又はコアネットワーク要素であってもよい。
【0127】
任意で、第1ノードは、1つのシグナリングを使用して第1データと第1情報を第2ノードに送信してもよいし、異なるシグナリングを使用して第1データと第1情報を別々に送信してもよい。第1データと第1情報が異なるシグナリングで配信される場合、第1データと第1情報との間に関連付け関係が確立されてもよい。つまり、第1情報は、第1データのデータ拡張方法を示す。
【0128】
具体的には、第1データは、第1ノードに記憶されている又は第1ノードによって取得可能な少量のトレーニングデータであってもよい。第1データのデータ拡張方法は、第1データに対して拡張処理を行う場合に適用可能なデータ拡張方法として理解することができ、又は、第1データに適応するデータ拡張方法と呼ぶことができる。任意で、第1ノードは、第1データに適応するデータ拡張方法の全部又は一部の識別子を第1情報に追加して、第1データのデータ拡張方法を第2ノードに示すことができる。第1ノード及び第2ノードの両方は、データ拡張方法の識別子に基づいて、対応するデータ拡張方法を決定することができる。又は、第1ノードは、第1情報に他の情報を追加して、第1データのデータ拡張方法を第2ノードに示すことができる。これは、本実施開示では限定されない。
【0129】
任意で、異なるデータタイプが異なるデータ拡張方法と適応するか、又は異なる適用シナリオのデータが異なるデータ拡張方法と適応する。本方法は、異なるデータタイプが同じデータ拡張方法と適応する可能性を排除しないことを理解することができる。例えば、第1データタイプと適応するデータ拡張方法は、第2データタイプと適応するデータ拡張方法とは異なり、第2データタイプと適応するデータ拡張方法は、第3データタイプと適応するデータ拡張方法と同じである。本方法は、異なる適用シナリオのデータが同じデータ拡張方法と適応することを排除しない。例えば、第1適用シナリオのデータに適合するデータ拡張方法は、第2適用シナリオのデータに適合するデータ拡張方法と同じであり、第2適用シナリオのデータに適合するデータ拡張方法は、第3適用シナリオのデータに適合するデータ拡張方法とは異なる。本明細書における適用シナリオは、モデルの適用シナリオ又はモデルのアプリケーション分野として理解することができる。
【0130】
例えば、画像処理分野における画像データの場合、利用可能なデータ拡張方法は、幾何学的変換(例えば、回転、トリミング、及び/又はスケーリング)、色変換、ノイズ付加などの少なくとも1つを含む。例えば、第1データは画像を含み、画像のデータ拡張方法は回転を含み、続く第1トレーニングデータセットは、画像に対して90度、180度、及び270度の回転を実行することによって得られた3つの新しい画像を含むことができる。任意で、第1トレーニングデータセットは、第1データの中の画像を更に含むことができる。
【0131】
例えば、自然言語処理分野における言語データの場合、利用可能なデータ拡張方法は、同義語置換、逆翻訳などを含む。例えば、第1データは中国語のセグメントを含み、対応するデータ拡張方法は逆翻訳である。例えば、中国語のセグメントが英語に翻訳され、その後、英語が中国語に逆に翻訳され、中国語の新しいセグメントが得られる。この例では、第1トレーニングデータセットは、中国語の新しいセグメントを含むことができ、任意で、第1トレーニングデータセットは、第1データの中の中国語のセグメントを更に含むことができる。
【0132】
例えば、チャネルデータの場合、利用可能なデータ拡張方法は、以下の1つ以上を含むが、これらに限定されない:チャネルフリッピング、チャネルインターセプト、チャネルスケーリング、チャネルシフト、ノイズ追加、チャネル間置換、仮想伝送、又は生成AIモデルを使用して実行されるデータ拡張。以下では、理解を容易にするために、添付の図面を参照して、チャネルデータに適用可能なデータ拡張方法について説明する。
【0133】
チャネルフリッピングは、時間ドメイン、遅延ドメイン、周波数ドメイン、ドップラードメイン、アンテナドメイン(又は空間ドメイン)、又は角度ドメイン(又はビームドメイン)の1つ以上の次元において、最も低いインデックスを持つチャネル要素と最も高いインデックスを持つチャネル要素の位置が交換され、2番目に低いインデックスを持つチャネル要素と2番目に高いインデックスを持つチャネル要素の位置が交換され、以降同様にすることを意味し得る。例えば、
図5Aは、72個のサブキャリアを含む周波数ドメインチャネルを示す。1から72までのサブキャリアインデックスの順序の周波数ドメインチャネルが周波数ドメイン次元で反転され、言い換えれば、
図5Bに示す新しい周波数ドメインチャネルが、72から1までのサブキャリアインデックスの順序で生成され得る。この例では、第1データは、
図5Aに示す周波数ドメインチャネルを含み、第1トレーニングデータセットは、
図5Bに示す新しい周波数ドメインチャネルを含み、任意で、
図5Aに示す周波数ドメインチャネルを更に含む。
【0134】
チャネルインターセプトは、連続するインデックスを有する複数の連続するチャネル要素が、時間ドメイン、遅延ドメイン、周波数ドメイン、ドップラードメイン、アンテナドメイン(又は空間ドメイン)、又は角度ドメイン(又はビームドメイン)の1つ以上の次元でインターセプトされることを意味し得る。例えば、インデックス11から始まりインデックス46までの36個の連続するサブキャリアのチャネル要素が、
図5Aに示す72個のサブキャリアからインターセプトされる場合、36個のサブキャリアのチャネル要素を含む新しい周波数ドメインチャネルが形成され得る。この例では、第1データは、
図5Aに示す周波数ドメインチャネルを含み、第1トレーニングデータセットは、36個のサブキャリアのチャネル要素を含む新しい周波数ドメインチャネルを含む。
【0135】
チャネルスケーリングは、時間ドメイン、遅延ドメイン、周波数ドメイン、ドップラードメイン、アンテナドメイン(又は空間ドメイン)、又は角度ドメイン(又はビームドメイン)の1つ以上の次元におけるチャネル要素のインデックスに基づいて、複数のチャネル要素が等間隔で抽出されることを意味し得る。例えば、上記のチャネル要素は、具体的にはサブキャリアである。また、
図5Aに示す72個のサブキャリアのうち、サブキャリア10からサブキャリア70までのサブキャリアから、2つのインデックスごとにインデックスが10、12、14、...、70のサブキャリアを抽出し、30個のサブキャリアを含む新たな周波数ドメインチャネルを形成する。或いは、時間ドメイン、遅延ドメイン、周波数ドメイン、ドップラードメイン、アンテナドメイン(又は空間ドメイン)、角度ドメイン(又はビームドメイン)の1つ以上の次元において、チャネル要素のインデックスに基づいて、インデックスが隣接する2個のチャネル要素ごとに同量のチャネル要素を補間する。補間方法は、多項式補間、線形補間、三次補間などであってもよい。例えば、
図5Aに示す72個のサブキャリアのうち、インデックスが隣接する2個のサブキャリアごとに新たなチャネルデータを挿入すれば、143個のサブキャリアを含む新たな周波数ドメインチャネルが形成される。この例では、第1データは、
図5Aに示す周波数ドメインチャネルを含み、第1トレーニングデータセットは、143個のサブキャリアを含む新しい周波数ドメインチャネルを含む。
【0136】
チャネルシフトとは、遅延ドメイン、ドップラードメイン、及び角度ドメイン(又はビームドメイン)の1つ以上の次元において、チャネル要素が全体としてインデックスの小さい方向又は大きい方向にシフトすること、又は周期的にシフトすることを意味してもよい。例えば、
図6Aは、81個の遅延タップ(delay taps)を含む遅延ドメインチャネルを示しており、遅延ドメインチャネルが全体としてインデックスの大きい方向に10個の遅延タップ分シフトすることにより、
図6Bに示す91個の遅延タップを含む新たな遅延ドメインチャネルが得られる。この例では、第1データは、
図6Aに示す遅延ドメインチャネルを含み、第1トレーニングデータセットは、
図6Bに示す新しい遅延ドメインチャネルを含み、任意で、
図6Aに示す遅延ドメインチャネルを更に含む。
【0137】
ノイズ付加は、時間ドメイン、遅延ドメイン、周波数ドメイン、ドップラードメイン、アンテナドメイン(又は空間ドメイン)、及び角度ドメイン(又はビームドメイン)の1つ以上の次元において、特定の分布に従うノイズが重畳されることを意味し得る。例えば、
図6Aに示す遅延ドメインチャネルに、平均値0、分散0.01の白色ガウス雑音が重畳され、
図7に示す新たな遅延ドメインチャネルが得られる。この例では、第1データは、
図6Aに示す遅延ドメインチャネルを含み、第1トレーニングデータセットは、
図7に示す新しい遅延ドメインチャネルを含み、任意で、
図6Aに示す遅延ドメインチャネルを更に含む。
【0138】
チャネル間置換は、2つのチャネルデータにおいて同一のインデックスを有する複数のチャネル要素を、遅延ドメイン、ドップラードメイン、及び角度ドメイン(又はビームドメイン)の1つ以上の次元で交換することを意味してもよい。例えば、
図8Aの(a)に示される遅延ドメインチャネルと
図8Aの(b)に示される遅延ドメインチャネルについて、2つのチャネルの最初の10個の遅延タップインデックスを有するチャネル要素を交換する。交換後、
図8Aの(a)は、
図8Bの(a)に示される新しい遅延ドメインチャネルとなり、
図8Aの(b)は、
図8Bの(b)に示される新しい遅延ドメインチャネルとなる。この例では、第1データは、
図8Aに示す遅延ドメインチャネルを含み、第1トレーニングデータセットは、
図8Bに示す新しい遅延ドメインチャネルを含み、任意で、
図8Aに示す遅延ドメインチャネルを更に含む。
【0139】
仮想伝送とは、予め設定された方法又はランダム生成の方法に基づいて複数の仮想送信信号(データ信号及び/又は参照信号)を取得し、複数の送信信号及びチャネルデータに基づいて計算により複数の送信信号に対応する仮想受信信号を取得することを意味してもよい。又は、予め設定された方法又はランダム生成の方法に基づいて複数の仮想送信信号(データ信号及び/又は参照信号)を取得し、プリコーディングベクトル(プリコーディング行列又はビームベクトルとも呼ばれる)を用いて複数の仮想送信信号をプリコーディングして複数のプリコーディングされた送信信号を取得してもよい。複数のプリコーディングされた送信信号に対応する仮想受信信号は、複数のプリコーディングされた送信信号及びチャネルデータに基づいて計算により取得される。具体的には、1つのチャネルデータに基づいて全ての仮想送信信号に対応する仮想受信信号を生成してもよいし、複数のチャネルデータにおける各チャネルデータに基づいて各仮想送信信号に対応する仮想受信信号を生成して、{仮想送信信号、仮想受信信号、チャネルデータ}の複数のグループを得てもよい。例えば、仮想送信信号セットSが予め設定されており、Sは仮想送信信号を含む。チャネルデータセットH(Hはb個のチャネルデータを含む)によれば、仮想伝送モデルは、y=h*s+nで表され、yは受信信号であり、hはチャネルデータセットH内の任意のチャネルデータであり、sは仮想送信信号セット内の任意の信号であり、nはノイズである。この場合、受信信号セットを生成することができ、受信信号セットはa*b個の受信信号を含む。a及びbは正の整数である。この例では、第1データは、前述の1つ以上のチャネルデータを含むことができ、第1トレーニングデータセットは、{仮想送信信号、仮想受信信号、チャネルデータ}の複数のグループを含む。別の例では、仮想送信信号セットS及びプリコーディング行列セットWが予め設定され、Sは仮想送信信号を含み、Wはq個のプリコーディング行列を含む。a及びqは正の整数である。任意で、aは1に等しい。チャネルデータセットH(Hはb個のチャネルデータを含む)によれば、仮想伝送モデルは、y=h*w*s+nとして表すことができ、ここで、yは受信信号、bは正の整数、hはチャネルデータセットH内の任意のチャネルデータ、wはW内の任意のプリコーディングベクトル、sは仮想送信信号セット内の任意の信号、nはノイズである。この場合、受信信号セットを生成することができ、受信信号セットはa*b*q個の受信信号を含む。この例では、第1データは、前述の1つ以上のチャネルデータを含むことができ、第1トレーニングデータセットは、{仮想送信信号、プリコーディング行列、仮想受信信号、チャネルデータ}の複数のグループを含む。本開示において、正の整数は、1、2、3、4、又はより大きな整数であり得る。これは、限定されない。
【0140】
生成AIモデル、例えば敵対的生成ネットワーク(generative adversarial network, GAN)のような生成AIモデルを用いて、既存のトレーニングデータ(すなわち、前述の第1データ)と分布が同じであるより多くのトレーニングデータを生成することにより、データ拡張が行われる。この例では、第1トレーニングデータセットは、前述のより多くのトレーニングデータを含み、任意で、第1データを更に含んでもよい。
【0141】
任意で、第1情報は、データ拡張方法のパラメータを更に含み、第2ノードは、データ拡張方法のパラメータに基づいて、第1データに対して対応するデータ拡張処理を具体的に実行してもよい。前述のチャネルデータに対応するデータ拡張方法を例として用いる。第1情報は、以下の1つ以上を更に含むことができる:生成AIモデルの情報の一部又は全部;データ拡張の次元;チャネルインターセプトにおけるチャネル要素の開始インデックス、長さ、又は終了インデックスの少なくとも2つ;チャネルスケーリングの粒度、例えば、抽出間隔、補間のためのチャネル要素の量、又は補間方法;チャネルシフトの距離;ノイズ分布情報;チャネル間置換のパターン;仮想伝送で使用される仮想送信信号及び/又はプリコーディングベクトルに関する情報(例えば、プリコーディングベクトルの値及び/又は長さ)など;データセット内のチャネルのフォーマット及び/又はフォーマット変換方法;第1データに対応する収集範囲、例えばセルエッジ、セル中心、又はマルチパス遅延範囲;など。
【0142】
S402:第2ノードは、第1データ及び第1情報に基づいて、モデルの第1トレーニングデータセットを決定する。
【0143】
具体的に、第2ノードは、第1データ及び第1データのデータ拡張方法に基づいて、モデルの第1トレーニングデータセットを決定する。第1データのデータ拡張方法は、S401の第1情報が示すデータ拡張方法に対応する。
【0144】
任意で、第1情報は、第1データに適応する複数のデータ拡張方法を示す。第2ノードは、複数のデータ拡張方法におけるデータ拡張方法の一部又は全部に基づいて第1データに対してデータ拡張処理を行い、モデルの第1トレーニングデータセットを得ることができる。例えば、第2ノードは、第2ノードがサポートするデータ拡張方法、モデルトレーニング要件及び/又はモデル適用シナリオに基づいて、第1情報が示すデータ拡張方法において実際に使用されるデータ処理方法を決定することができる。実際に使用されるデータ処理方法は、第1情報が示すデータ拡張方法におけるデータ拡張方法の一部又は全部を含み、その後、実際に使用されるデータ処理方法に基づいて第1データに対してデータ拡張処理を行うことができることが理解され得る。データ拡張処理中に、モデルトレーニング要件及び/又はモデル適用シナリオを考慮することにより、モデルトレーニング要件及び/又はモデル適用シナリオを満たす第1トレーニングデータセットを得ることができる。データ拡張処理中に、第2ノードのデータ拡張方法をサポートする能力を考慮することにより、データ拡張処理の有効性を確保することができる。
【0145】
任意で、モデルの第1トレーニングデータセットは、第1データ及び第1データに対してデータ拡張処理を行って得られた新たなデータを含むことができる。又は、モデルの第1トレーニングデータセットは、第1データに対してデータ拡張処理を行って得られた新たなデータのみを含むことができる。これは、本実施開示では限定されない。
【0146】
S403:第2ノードは、第1トレーニングデータセットに基づいてモデルをトレーニングする。
【0147】
具体的には、モデルをトレーニングする場合、第2ノードは、教師あり学習又は教師なし学習を使用することができる。これは、限定されない。関連する損失関数は限定されず、例えば、モデルの構造タイプ、モデルの第1トレーニングデータセット、及び/又はモデル適用シナリオなどの要因によって決定されてもよい。モデルの構造タイプの幾つかの例は、CNN、RNN、及びFNNである。
【0148】
任意で、
図4において、S403の後、第2ノードは、第1ノードから第2データを更に取得し、第2データを使用してモデルの更新トレーニングを実行してもよいし、第2ノードは、モデルの更新トレーニングを実行するために更にトレーニングデータを取得すると理解してもよい。更新トレーニングプロセスは、第1トレーニングデータセットに基づくトレーニングによって得られたモデルの性能が性能要件を満たさない場合に適用されてもよいが、これに限定されない。性能要件は、参照性能と呼ばれることもある。性能要件は、予め設定された性能指標であってもよいし、第1ノードによって第2ノードに示されてもよい。例えば、第1ノードは、性能要件を示す情報を第2ノードに送信する。具体的には、第1ノードは、過去にトレーニングされた別のモデルの性能に基づいて性能要件を決定してもよい。
【0149】
例えば、第2ノードは、第1トレーニングデータセットに基づくトレーニングによって得られたモデルの性能が性能要件を満たすかどうかを決定してもよい。モデルの性能が性能要件を満たさない場合、第2ノードは、第1ノードから第2データを取得する。或いは、第2ノードは、第1ノードに、モデルトレーニング結果を送信してもよい。モデルトレーニング結果は、第1トレーニングデータセットに基づくトレーニングによって得られたモデルの性能を示す。第1ノードは、モデルの性能が性能要件を満たすかどうかを決定し、モデルの性能が性能要件を満たさない場合に、第2データを第2ノードに送信してもよい。
【0150】
例えば、S403の後、
図4は、以下の任意のステップS404~S406を更に示す。
【0151】
S404:第2ノードは、第1ノードに第3情報を送信する。
【0152】
任意の実装において、第3情報は、モデルトレーニング結果を示してもよい。すなわち、第3情報は、第1トレーニングデータセットに基づくトレーニングによって得られたモデルの性能を示す。具体的には、第3情報は、モデルトレーニングが完了した後の損失関数の結果値を含んでもよい。すなわち、第2ノードは、第3情報を用いて、モデルトレーニングが完了した後の損失関数の結果を示し、モデルの性能を反映してもよい。或いは、第3情報は、具体的に、事前定義された又は事前構成されたテストセットでのトレーニングによって得られたモデルのテスト性能を示してもよい。例えば、第3情報は、テスト性能に対応するパラメータ値を含む。例えば、第3情報は、テスト性能に対応する性能レベルを含み、性能レベルは、例えば、良い/悪い、又は、適格/不適格である。例えば、第3情報は、テスト性能に対応する性能レベルの指示情報を含む。例えば、第3情報が第1値を含む場合、テスト性能に対応する性能レベルが良好であることを示す。又は、第3情報が第2値を含む場合、テスト性能に対応する性能レベルが粗悪であることを示す。或いは、第3情報は、具体的に、トレーニングによって得られたモデルが事前定義された又は事前構成された性能要件を満たすかどうかを示してもよい。例えば、第3情報が第3値を含む場合、トレーニングによって得られたモデルが事前定義された又は事前構成された性能要件を満たすことを示す。或いは、第3情報が第4値を含む場合、トレーニングによって得られたモデルが事前定義された又は事前構成された性能要件を満たさないことを示す。或いは、第3情報は、具体的に、トレーニングによって得られたモデルが複数の事前定義された又は事前構成された性能レベルを満たすことを示してもよい。例えば、モデルが複数の事前構成された性能レベルの中の第1性能レベルを満たし、第3情報が複数の事前構成された性能レベルの中の第1性能レベルの識別子を含む。
【0153】
他の任意の実装では、第3情報は、モデルが性能要件を満たさないことを示し、及び/又は第3情報が第2データを要求するために使用される。具体的には、第3情報は、第4値を含み、トレーニングによって得られたモデルが事前定義された又は事前構成された性能要件を満たさないことを示す。及び/又は第3情報は、第1フラグビット(又は第1フィールドと呼ばれる)を含み、第1フラグビットの値が事前定義されていてもよく、第2データを要求することを示す。
【0154】
S405:第1ノードは、第2ノードに第2データを送信する。
【0155】
具体的には、第1ノードは、第3情報に基づいて、モデルが性能要件を満たしていないと決定してもよい。モデルは、第1トレーニングデータセットに基づくトレーニングによって得られる。
【0156】
S406:第2ノードは、第2データ及び第1トレーニングデータセットに基づき、モデルに対して更新トレーニングを実行する。
【0157】
本開示では、第2ノードは、第1ノードから少量のトレーニングデータと少量のデータ拡張方法を取得し、モデルトレーニングに実際に使用するトレーニングデータを生成する。これにより、トレーニングデータ送信のオーバヘッドを削減し、モデルトレーニングの効率と性能を向上させることができる。
【0158】
ソリューション2:
【0159】
図9は、通信方法を示す。第1ノードは、データ収集段階を実行する前述のノードに対応し、又は、第1ノードは、前述のデータ収集段階で収集されたデータを転送又は管理できるノードに対応し、第2ノードは、モデルトレーニング段階を実行する前述のノードに対応する。方法は、主に以下のステップを含む。
【0160】
S901:第2ノードは、第1ノードに第2情報を送信する。
【0161】
第1ノード及び第2ノードの定義については、S401を参照して理解されたい。本開示において詳細はここで再び記載されない。
【0162】
具体的に、第2情報は、以下のうちの少なくとも1つを示す:
第1データの種類であって、例えば、チャネルデータ、受信信号データ、受信信号強度データ、受信信号品質データ、受信信号電力データ、位置データ、移動軌跡データ、干渉信号データ、のうちの1つ以上。位置データ又は移動軌跡データは、ユーザによって許可された情報、感度低下することによって得られた情報、又はユーザプライバシー情報から切り離された情報、のうちの1つ以上である。チャネルデータの種類は、具体的には、特定の形式のチャネルデータ、時間ドメインチャネルデータ、周波数ドメインチャネルデータ、遅延ドメインチャネルデータ、空間ドメインチャネルデータ、角度ドメインチャネルデータなどに分類することができる。或いは、第1データの種類は、S401に示す画像データ又は言語データであってもよい。
【0163】
第1トレーニングデータセットに対応するシナリオは、モデル適用シナリオとして理解することもできる。第1トレーニングデータセットに対応するシナリオを使用して、第1データの収集範囲を決定することができる。任意で、第1データは、第1トレーニングデータセットに対応するシナリオのデータであってもよいし、第1データは、第1トレーニングデータセットに対応するシナリオのデータでなくてもよいが、第1データは、第1データに対して関連するデータ拡張方法(例えば、第1情報によって示される)でデータ拡張処理を行った後、第1トレーニングデータセットに対応するシナリオのデータに変換することができる。第1トレーニングデータセットに対応するシナリオとしては、例えば、無線信号受信強度に基づいて分類されるシナリオ、例えば、セルエッジ又はセル中心;無線チャネル環境に基づいて分類されるシナリオ、例えば、散乱量が多いシナリオ又は散乱量が少ないシナリオ;測定されたマルチパス遅延範囲に基づいて分類されるシナリオ、例えば、マルチパス遅延が長いシナリオ又はマルチパス遅延が短いシナリオ;又は、ショッピングモール又は高速鉄道などの実際の場所;が挙げられる。
【0164】
第1データのデータ量について、具体的には、第2ノードは、第2情報に、第2ノードがサポートするトレーニングデータセットのサイズ、第2ノードの計算能力、又は第2ノードの記憶能力などの指示情報を含め、上述の指示情報に基づいて第1データのデータ量を決定するように第1ノードに指示してもよい。
【0165】
第2ノードがサポートするデータ拡張方法では、
任意で、第2情報は、第2ノードの能力情報として理解されてもよく、第2ノードの能力に適合する第1データ及びデータ拡張方法を提供するように第1ノードに指示してもよい。
【0166】
S902:第1ノードは、第2ノードに第1データ及び第1情報を送信する。
【0167】
具体的には、第1ノードは、第2情報に基づいて、送信すべき第1データを決定してもよい。例えば、第2情報が第1データのデータ量を示す情報を含む場合、第1ノードは、第2情報に基づいて、送信すべき第1データのデータ量(又はサイズと呼ばれる)を決定してもよい。及び/又は、第2情報が、第2ノードがサポートするデータ拡張方法を示す情報を含む場合、第1ノードは、第2情報に基づいて、第1情報が示すデータ拡張方法を決定してもよい。
【0168】
また、第1データ及び第1情報の説明については、S401の説明を参照して理解されたい。本開示において詳細はここで再び記載されない。
【0169】
S903:第2ノードは、第1データ及び第1情報に基づいて、モデルの第1トレーニングデータセットを決定する。
【0170】
このステップの実装については、上述のS402を参照する。本開示において詳細はここで再び記載されない。
【0171】
S904:第2ノードは、第1トレーニングデータセットに基づいてモデルをトレーニングする。
【0172】
任意で、
図4において説明したように、
図9において、S904の後、第2ノードは、第1ノードから第2データを更に取得し、第2データを使用してモデルの更新トレーニングを実行してもよいし、第2ノードは、モデルの更新トレーニングを実行するために更にトレーニングデータを取得すると理解してもよい。
【0173】
例えば、S904の後、
図9は、以下の任意のステップS905~S907を更に示す。
【0174】
S905:第2ノードは、第1ノードに第3情報を送信する。
【0175】
第3情報の定義については、理解のためにS404の説明を参照されたい。本開示において詳細はここで再び記載されない。
【0176】
S906:第1ノードは、第2ノードに第2データを送信する。
【0177】
具体的には、第1ノードは、第3情報に基づいて、モデルが性能要件を満たしていないと決定してもよい。モデルは、第1トレーニングデータセットに基づくトレーニングによって得られる。
【0178】
S907:第2ノードは、第2データ及び第1トレーニングデータセットに基づき、モデルに対して更新トレーニングを実行する。
【0179】
本開示では、第1ノードは、第2ノードの能力を考慮し、第2ノードに対して適切なトレーニングデータと適切なデータ拡張方法を提供し、第2ノードがモデルトレーニングに実際に使用されるトレーニングデータを生成できるようにする。これにより、トレーニングデータ送信のオーバヘッドを削減し、モデルトレーニングの効率と性能を向上させることができる。
【0180】
ソリューション3:
【0181】
図10は、通信方法を示す。第1ノードは、データ収集段階を実行する前述のノードに対応し、又は、第1ノードは、前述のデータ収集段階で収集されたデータを転送又は管理できるノードに対応し、第2ノードは、モデルトレーニング段階を実行する前述のノードに対応する。方法は、主に以下のステップを含む。
【0182】
任意で、S1001で、第2ノードは、第1ノードに第2情報を送信する。
【0183】
このステップを実行する場合、このステップの実装については、上述のS401を参照する。本開示において詳細はここで再び記載されない。
【0184】
更に、第1ノード及び第2ノードの定義については、S401を参照して理解されたい。本開示において詳細はここで再び記載されない。
【0185】
S1002:第1ノードは、第2ノードに第1データを送信する。
【0186】
第1データの決定については、S902の説明を参照して理解されたい。本開示において詳細はここで再び記載されない。S1003:第2ノードは、第1ノードに第4情報を送信し、第4情報は、第1データのデータ拡張方法を要求するために使用される。
【0187】
なお、S1003とS1002とは、順不同であってもよい。或いは、S1003をS1002の前に実行してもよい。或いは、S1002をS1003の前に実行してもよい。例えば、S1003の前にS1002を実行する場合、S1003を実行する理由は、第1データのデータ量がモデルトレーニングのデータ量要件を満たすことができないためであり、第2ノードは、第4情報を送信することにより、第1ノードに第1データのデータ拡張方法を要求することができる。
【0188】
任意で、第4情報は、第1データ拡張方法の指示情報を含む。第1データ拡張方法は、第2ノードが第1データに対して使用することを意図している(計画又は期待している)データ拡張方法と理解することができる。
【0189】
S1004:第1ノードは、第2ノードに第1情報を送信する。第1情報は、第1データのデータ拡張方法を示す。
【0190】
第4情報が第1データ拡張方法の指示情報を含む場合、第1ノードは、第1データ拡張方法が第1データに適応するデータ拡張方法であるかどうかを更に決定することができる。
【0191】
第1データ拡張方法が第1データに適応する場合、第1ノードは、第1情報に肯定応答情報を含むことができ、肯定応答情報は、第1データのデータ拡張方法が第1データ拡張方法を含むことを示す。或いは、第1データ拡張方法が第1データに適応しない場合、第1ノードは、第1情報に否定応答情報及び/又は第2データ拡張方法の指示情報を含み、第1データのデータ拡張方法が第1データ拡張方法を含まないことを示す。
【0192】
具体的には、第1情報が否定応答情報のみを含み、否定応答情報は、第1データのデータ拡張方法が第1データ拡張方法を含まないことを示す。この場合、第2ノードは、第2ノードが第1データに対して使用しようとするデータ拡張方法を再決定し、ステップS1003に基づいて、第1ノードに対して、第1データのデータ拡張方法が第2ノードが使用しようとするデータ拡張方法を含むことを第1ノードが示すまで、第4情報を伝達する要求を開始してもよい。或いは、第1情報が第2データ拡張方法の指示情報のみを含んでもよい。この場合、第1ノードは、第1データのデータ拡張方法が第1データ拡張方法を含まないことを暗黙的に示し、第1データのデータ拡張方法が第2データ拡張方法を含むと理解することができる。この場合、第2ノードは、第1情報に基づいて、第1データのデータ拡張方法が第2データ拡張方法を含むことを決定してもよい。或いは、第1情報は、前述の否定応答情報と第2データ拡張方法の指示情報とを含んでもよい。この場合、第1情報が否定応答情報を含むことは、第1ノードが、第1データのデータ拡張方法が第1データ拡張方法を含まないことを明示的に示していることと理解でき、第1情報が第2データ拡張方法の指示情報を含むことは、第1ノードが、第1データのデータ拡張方法が第2データ拡張方法を含むことを示していることと理解することができる。この場合、第2ノードは、第1情報に基づいて、第1データのデータ拡張方法が第2データ拡張方法を含むことを決定してよい。
【0193】
S1005:第2ノードは、第1データ及び第1情報に基づいて、モデルの第1トレーニングデータセットを決定する。
【0194】
このステップの実装については、上述のS402を参照する。本開示において詳細はここで再び記載されない。
【0195】
S1006:第2ノードは、第1トレーニングデータセットに基づいてモデルをトレーニングする。
【0196】
任意で、
図4において説明したように、
図10において、S1006の後、第2ノードは、第1ノードから第2データを更に取得し、第2データを使用してモデルの更新トレーニングを実行してもよいし、第2ノードは、モデルの更新トレーニングを実行するために更にトレーニングデータを取得すると理解してもよい。例えば、S1006の後、
図10は、以下の任意のステップS1007~S1009を更に示す。
【0197】
S1007:第2ノードは、第1ノードに第3情報を送信する。
【0198】
第3情報の定義については、理解のためにS404の説明を参照されたい。本開示において詳細はここで再び記載されない。
【0199】
S1008:第1ノードは、第2ノードに第2データを送信する。
【0200】
具体的には、第1ノードは、第3情報に基づいて、モデルが性能要件を満たしていないと決定してもよい。モデルは、第1トレーニングデータセットに基づくトレーニングによって得られる。
【0201】
S1009:第2ノードは、第2データ及び第1トレーニングデータセットに基づき、モデルに対して更新トレーニングを実行する。
【0202】
本開示では、第2ノードは、第1ノードから提供された少量のトレーニングデータを取得した後、適応したデータ拡張方法を取得し、その後、実際にモデルトレーニングに使用されるトレーニングデータを生成する。これにより、トレーニングデータ送信のオーバヘッドを削減し、モデルトレーニングの効率と性能を向上させることができる。
【0203】
更に、
図11は、ソリューション1、ソリューション2、ソリューション3のモデルトレーニング効果を示している。ソリューション1では、大量のトレーニングデータを用いてモデルトレーニングを行う。ソリューション2では、少量のトレーニングデータと少量のデータ拡張方法に基づいてモデルトレーニングを行う。ソリューション3では、少量のトレーニングデータを用いてモデルトレーニングを行う。例えば、チャネル推定シナリオにおいて、水平座標は信号対雑音比(signal-to-noise ratio, SNR)を表し、垂直座標はモデルの性能を表す。推定チャネルと実チャネルとの間の誤差は、例えば正規化平均二乗誤差(normalized mean square error, NMSE)で表される。NMSEが小さいほど推定チャネルが実チャネルに近いことを示し、モデルの性能が良いことを示す。ソリューション1では、5万個の異なるチャネルサンプルをトレーニングして得られたモデルを使用する。ソリューション2では、ソリューション1で使用した5000個のチャネルサンプルのうちの1000個のチャネルサンプルを使用して、ノイズ付加のデータ拡張方法で5万個のトレーニングデータを生成し、5万個のトレーニングデータをトレーニングして得られたモデルを使用する。ソリューション3では、1000個の異なるチャネルサンプルをトレーニングして得られたモデルを使用する。
図11から、ソリューション2のトレーニングにより得られるモデルの性能は、ソリューション1のトレーニングにより得られるモデルの性能に近似していることが分かる。すなわち、適切なデータ拡張方法を用いることにより、大量のトレーニングデータを用いてトレーニングしたAIモデルと同様の性能を、少量のトレーニングデータのみを用いてトレーニングすることにより得ることができ、トレーニングデータの収集、保存、伝送のオーバヘッドを大幅に低減することができる。
【0204】
以上は、第1ノードと第2ノードとの相互作用の観点から、本開示において提供される方法を個別に説明した。これらの方法における機能を実現するために、第1ノード及び第2ノードは、ハードウェア構造及び/又はソフトウェアモジュールを含み、ハードウェア構造、ソフトウェアモジュール、又はハードウェア構造とソフトウェアモジュールの組み合わせの形態で機能を実現することができる。上記機能のうちの機能が、ハードウェア構造、ソフトウェアモジュール、又はハードウェア構造とソフトウェアモジュールの組み合わせを用いて実行されるかどうかは、技術的ソリューションの特定の用途及び設計制約に依存する。
【0205】
同様の概念に基づいて、
図12を参照されたい。本願は、通信機器1200を提供する。通信機器1200は、処理モジュール1201と通信モジュール1202とを含む。通信機器1200は、第1ノードであってもよいし、第1ノードで使用される又は第1ノードに適応して使用される、第1ノード側で行われる通信方法を実現可能な通信機器であってもよい。代替として、通信機器1200は、第2ノードであってもよいし、第2ノードで使用される又は第2ノードに適応して使用される、第2ノード側で行われる通信方法を実現可能な通信機器であってもよい。
【0206】
通信モジュールは、トランシーバモジュール、トランシーバ、トランシーバマシン、トランシーバ機器などとも呼ばれる。処理モジュールは、プロセッサ、処理ボード、処理ユニット、処理機器、等と呼ばれてもよい。任意で、通信モジュールは、上記の方法において、第1ノード側又は第2ノード側で送信動作及び受信動作を行うように構成される。通信モジュール内にあり受信機能を実装するよう構成されるコンポーネントは、受信ユニットと考えられてよく、通信モジュール内にあり送信機能を実装するよう構成されるコンポーネントは送信ユニットと考えられてよい。言い換えると、通信モジュールは、受信ユニットと送信ユニットとを含む。
【0207】
通信機器1200が第1ノードに用いられる場合、処理モジュール1201は、
図4、
図9又は
図10に示す実施形態における第1ノードの処理機能を実施するように構成され、通信モジュール1202は、
図4、
図9又は
図10に示す実施形態における第1ノードの送受信機能を実施するように構成されてもよい。また、通信機器は、概要における第3態様及び第3態様における可能な設計を参照して理解することができる。
【0208】
通信機器1200が第2ノードに用いられる場合、処理モジュール1201は、
図4、
図9又は
図10に示す実施形態における第2ノードの処理機能を実施するように構成され、通信モジュール1202は、
図4、
図9又は
図10に示す実施形態における第2ノードの送受信機能を実施するように構成されてもよい。また、通信機器は、概要における第4態様及び第4態様における可能な設計を参照して理解することができる。
【0209】
なお、通信モジュール及び/又は処理モジュールは、仮想モジュールを用いて実施されてもよい。例えば、処理モジュールをソフトウェア機能ユニット又は仮想機器を用いて実施し、通信モジュールをソフトウェア機能ユニット又は仮想機器を用いて実施してもよい。また、代替として、処理モジュール又は通信モジュールをエンティティ機器を用いて実施してもよい。例えば、チップ/チップ回路を用いて実装する場合、通信モジュールは入出力回路及び/又は通信インタフェースであってもよく、入力動作(上述の受信動作に相当)や出力動作(上述の送信動作に相当)を行う。処理モジュールは、集積プロセッサ、マイクロプロセッサ、又は集積回路である。
【0210】
本開示におけるモジュールへの分割は一例であり、単に論理的機能への分割であり、実際の実装では他の分割であってもよい。更に、本開示の実施形態における機能モジュールは、1つのプロセッサに統合されてよく、又は、モジュールの各々は物理的に単独で存在してよく、又は、2つ以上のモジュールが1つのモジュールに統合されてよい。統合されたモジュールは、ハードウェアの形式で実装されてよく、又はソフトウェア機能モジュールの形式で実装されてよい。
【0211】
同じ技術的概念に基づいて、本開示は更に通信機器1300を提供する。例えば、通信機器1300はチップ又はチップシステムであってよい。任意で、本開示では、チップシステムは、チップを含んでよく、又はチップ及び別の個別コンポーネントを含んでよい。
【0212】
通信機器は、
図1A又は
図1Bに示される通信システムにおけるネットワーク要素の機能を実装するよう構成されてよい。通信機器1300は、少なくとも1つのプロセッサ1310を含んでよい。プロセッサ1310は、メモリに結合される。任意で、メモリは、機器内に配置されてもよく、メモリは、プロセッサと統合されてもよく、メモリは、機器の外部に配置されてもよい。例えば、機器1300は、少なくとも1つのメモリ1320を更に含むことができる。メモリ1320は、コンピュータプログラム、コンピュータプログラム又は命令、及び/又は前述の実施形態のいずれかを実施するために必要なデータを格納する。プロセッサ1310は、メモリ1320に格納されたコンピュータプログラムを実行して、前述の実施形態のいずれかの方法を達成することができる。
【0213】
通信機器1300は、更に通信インタフェース1330を含むことができ、通信機器1300は、通信インタフェース1330を介して他の装置と情報を交換することができる。例えば、通信インタフェース1330は、トランシーバ、回路、バス、モジュール、ピン、又は別の種類の通信インタフェースであってよい。通信機器1300がチップ型の機器又は回路である場合、機器1300内の通信インタフェース1330は、代替として、入出力回路であってもよく、情報(又は受信情報と呼ばれる)を入力し、情報(又は送信情報と呼ばれる)を出力してもよい。プロセッサは、集積プロセッサ、マイクロプロセッサ、集積回路、又は論理回路である。プロセッサは、入力情報に基づいて出力情報を決定することができる。
【0214】
本開示における結合は、機器、ユニット、又はモジュールの間の間接結合又は通信接続であってよく、電気的、機械的、又は別の形式であってよく、機器、ユニット、及びモジュールの間の情報相互作用のために使用される。プロセッサ1310は、メモリ1320及び通信インタフェース1330と協働して動作することができる。プロセッサ1310、メモリ1320、及び通信インタフェース1330間の特定の接続媒体は、本開示において限定されない。
【0215】
任意で、
図13を参照する。プロセッサ1310、メモリ1320、及び通信インタフェース1330は、バス1340を介して互いに接続される。バス1340は、周辺コンポーネントインタフェース(Peripheral Component Interconnect, PCI)バス、拡張工業標準アーキテクチャ(Extended Industry Standard Architecture, EISA)バス、等であってよい。バスは、アドレスバス、データバス、制御バス、等に分類されてよい。提示を容易にするために、1本の太線だけが、
図13でバスを表すために使用されるが、これは、1本のなすのみ又は1種類のバスのみが存在することを意味しない。
【0216】
本開示において、プロセッサは、汎用プロセッサ、デジタル信号プロセッサ、特定用途向け集積回路、フィールドプログラマブルゲートアレイ又は別のプログラマブルロジック装置、個別ゲート又はトランジスタロジック装置、又は個別ハードウェアコンポーネントであってもよい。プロセッサは、本開示で開示された方法、ステップ、論理ブロック図を実装し又は実行することができる。汎用プロセッサは、マイクロプロセッサ又は任意の従来のプロセッサ、等であってよい。本開示を参照して開示された方法のステップは、ハードウェアプロセッサにより直接実行されてよく、又はプロセッサ内のハードウェアとソフトウェアモジュールとの結合を用いて実行されてよい。
【0217】
本開示では、メモリは、ハードディスクドライブ(hard disk drive, HDD)又は個体ドライブ(solid-state drive, SSD)のような不揮発性メモリであってよく、又はランダムアクセスメモリ(random-access memory, RAM)のような揮発性メモリ(volatile memory)であってよい。メモリは、期待されるプログラムコードを命令又はデータ構造の形式で運び又は格納でき、及びコンピュータによりアクセス可能な、任意の他の媒体であるが、これに限定されない。本開示のメモリは、代替として、記憶機能を実装可能でありプログラム命令及び/又はデータを格納するよう構成される、回路又は任意の他の機器であってよい。
【0218】
可能な実装では、通信機器1300は、第2ノードで使用されてもよい。具体的には、通信機器1300は、第2ノードであってもよいし、第2ノードをサポートし、前述の実施形態のいずれかにおける第2ノードの機能を実装することができる機器であってもよい。メモリ1320は、前述の実施形態のいずれかにおける第2ノードの機能を実装するためのコンピュータプログラム(又は命令)及び/又はデータを格納する。プロセッサ1310は、メモリ1320に格納されたコンピュータプログラムを実行して、前述の実施形態のいずれかにおいて、第2ノードにより実行される方法を達成することができる。第2ノードで使用されると、通信機器1300の通信インタフェースは、第1ノードと対話し、第1ノードに情報を送信し、又は第1ノードから情報を受信するように構成されてもよい。
【0219】
別の可能な実装では、通信機器1300は、第1ノードで使用されてもよい。具体的には、通信機器1300は、第1ノードであってもよいし、第1ノードをサポートし、前述の実施形態のいずれかにおける第1ノードの機能を実装することができる機器であってもよい。メモリ1320は、前述の実施形態のいずれかにおける第1ノードの機能を実装するためのコンピュータプログラム(又は命令)及び/又はデータを格納する。プロセッサ1310は、メモリ1320に格納されたコンピュータプログラムを実行して、前述の実施形態のいずれかにおいて、第1ノードにより実行される方法を達成することができる。第1ノードで使用されると、通信機器1300の通信インタフェースは、第2ノードと対話し、第2ノードに情報を送信し、又は第2ノードから情報を受信するように構成されてもよい。
【0220】
本実施形態で提供される通信機器1300は、第2ノードによって実行される方法を達成するために第2ノードにおいて使用されてもよいし、第1ノードによって実行される方法を達成するために第1ノードにおいて使用されてもよい。従って、本実施形態によって達成され得る技術的効果については、前述の方法の例を参照されたい。詳細は、ここでは再度説明しない。
【0221】
本開示は、前述の実施形態に基づいて、第2ノードと第1ノードとを含む通信システムを提供する。第2ノード及び第1ノードは、
図4、
図9、又は
図10に示す実施形態で提供される通信方法を実施することができる。
【0222】
本開示で提供される技術的ソリューションの全て又は一部は、ソフトウェア、ハードウェア、ファームウェア、又はそれらの任意の組み合わせを使用することによって実施することができる。ソフトウェアが技術的ソリューションを実施するために使用される場合、技術的ソリューションの全部又は一部は、コンピュータプログラムプロダクトの形式で実施することができる。コンピュータプログラムプロダクトは、1つ以上のコンピュータ命令を含む。コンピュータプログラム命令は、コンピュータ上にロードされ実行されると、本開示による手順又は機能が全部又は部分的に生成される。コンピュータは、汎用コンピュータ、専用コンピュータ、コンピュータネットワーク、第1ノード、第2ノード、又は別のプログラマブル機器であってよい。コンピュータ命令は、コンピュータ可読記憶媒体に格納されてよく、又はコンピュータ可読記憶媒体から別のコンピュータ可読記憶媒体へ送信されてよい。例えば、コンピュータ命令は、ウェブサイト、コンピュータ、サーバ、又はデータセンタから、別のウェブサイト、コンピュータ、サーバ、又はデータセンタへ、有線(例えば、同軸ケーブル、光ファイバ、又はデジタル加入者回線(digital subscriber line, DSL))又は無線(例えば、赤外線、無線、又はマイクロ波)方式で送信されてよい。コンピュータ可読記憶媒体は、データ記憶装置、例えば、コンピュータによりアクセス可能な任意の使用可能媒体、又は1つ以上の使用可能媒体を統合するサーバ若しくはデータセンタであってよい。使用可能媒体は、磁気媒体(例えば、フロッピーディスク、ハードディスク、又は磁気テープ)、光媒体(例えば、デジタルバーサタイルディスク(digital video disc, DVD)、半導体媒体、等であってよい。
【0223】
本開示では、論理的矛盾がないことを前提として、実施形態を相互に参照することができる。例えば、方法の実施形態における方法及び/又は用語を相互に参照することができる。例えば、機器の実施形態における機能及び/又は用語を相互に参照することができる。例えば、機器の実施形態及び方法の実施形態における機能及び/又は用語を相互に参照することができる。
【0224】
明らかに、当業者は、本開示の範囲から逸脱することなく、種々の変更及び変形を本開示に対して行うことができる。本開示は、本開示のこれらの変更及び変形が本開示の以下の特許請求の範囲により定められる保護範囲本開示の及びそれらの均等な技術の範囲内に含まれるならば、それらをカバーすることを意図する。
【手続補正書】
【提出日】2024-07-30
【手続補正1】
【補正対象書類名】特許請求の範囲
【補正対象項目名】全文
【補正方法】変更
【補正の内容】
【特許請求の範囲】
【請求項1】
通信方法であって、
第1ノードから第1データ及び第1情報を取得するステップであって、前記第1情報は、前記第1データのデータ拡張方法を示す、ステップと、
前記第1データ及び前記第1情報に基づいて、モデルの第1トレーニングデータセットを決定するステップと、
を含む方法。
【請求項2】
前記第1ノードに第2情報を送信するステップであって、前記第2情報は、以下:前記第1データの種類、前記第1トレーニングデータセットに対応するシナリオ、前記第1データのデータ量、又は第2ノードによってサポートされるデータ拡張方法、のうちの少なくとも1つを示し、前記第2ノードは、前記モデルをトレーニングするために使用される、ステップ、
を更に含む請求項1に記載の方法。
【請求項3】
前記モデルの性能が性能要件を満たさない場合に、前記第1ノードから第2データを取得するステップであって、前記モデルは、前記第1トレーニングデータセットに基づくトレーニングによって取得され、前記第2データは、前記モデルの更新トレーニングを実行するために使用される、ステップ、
を更に含む請求項
1に記載の方法。
【請求項4】
前記第1ノードから第2データを取得するステップは、
前記第1ノードに第3情報を送信するステップであって、前記第3情報は、前記モデルの性能が前記性能要件を満たさないことを示し、及び/又は、前記第3情報は、前記第2データを要求するために使用される、ステップと、
前記第1ノードから前記第2データを受信するステップと、
を含む、請求項3に記載の方法。
【請求項5】
前記第1ノードから、前記性能要件を示す情報を取得するステップ、
を更に含む請求項
3に記載の方法。
【請求項6】
第4情報を前記第1ノードに送信するステップであって、前記第4情報は、前記第1データの前記データ拡張方法を要求するために使用される、ステップ、
を更に含む請求項
1に記載の方法。
【請求項7】
前記第4情報は、第1データ拡張方法の指示情報を含み、
前記第1情報は、肯定応答情報を含み、前記肯定応答情報は、前記第1データの前記データ拡張方法が前記第1データ拡張方法を含むことを示す、又は、
前記第1情報は、否定応答情報及び第2データ拡張方法の指示情報を含み、前記否定応答情報は、前記第1データの前記データ拡張方法が前記第1データ拡張方法を含まないことを示し、前記第1データの前記データ拡張方法が前記第2データ拡張方法を含む、
請求項6に記載の方法。
【請求項8】
通信方法であって、
第1データ及び第1情報を決定するステップであって、前記第1情報が第1データのデータ拡張方法を示す、ステップと、
第2ノードに前記第1データ及び前記第1情報を送信するステップであって、前記第1データ及び前記第1情報は、モデルの第1トレーニングデータセットを決定するために使用される、ステップと、
を含む方法。
【請求項9】
第2情報を取得するステップであって、前記第2情報は、以下:前記第1データの種類、前記第1トレーニングデータセットに対応するシナリオ、前記第1データのデータ量、又は前記第2ノードによってサポートされるデータ拡張方法、のうちの少なくとも1つを示す、ステップ、
を更に含む請求項8に記載の方法。
【請求項10】
前記第2ノードに第2データを送信するステップであって、前記第2データは、モデルの更新トレーニングを実行するために使用される、ステップ、
を更に含む請求項
8に記載の方法。
【請求項11】
前記第2ノードに第2データを送信するステップの前に、前記方法は、
前記第2ノードから第3情報を受信するステップであって、前記第3情報は、前記モデルの性能が性能要件を満たさないことを示し、及び/又は、前記第3情報は、前記第2データを要求するために使用される、ステップ、
を更に含む、請求項10に記載の方法。
【請求項12】
前記第2ノードに、前記性能要件を示す情報を送信するステップ、
を更に含む請求項11に記載の方法。
【請求項13】
前記第2ノードから第4情報を受信するステップであって、前記第4情報は、前記第1データの前記データ拡張方法を要求するために使用される、ステップ、
を更に含む請求項
8に記載の方法。
【請求項14】
前記第4情報は、第1データ拡張方法の指示情報を含み、
前記第1情報は、肯定応答情報を含み、前記肯定応答情報は、前記第1データの前記データ拡張方法が前記第1データ拡張方法を含むことを示す、又は、
前記第1情報は、否定応答情報及び第2データ拡張方法の指示情報を含み、前記否定応答情報は、前記第1データの前記データ拡張方法が前記第1データ拡張方法を含まないことを示し、前記第1データの前記データ拡張方法が前記第2データ拡張方法を含む、
請求項13に記載の方法。
【請求項15】
請求項1~7のいずれか一項に記載の方法を実施するよう構成される通信機器。
【請求項16】
請求項8~14のいずれか一項に記載の方法を実施するよう構成される通信機器。
【請求項17】
通信機器であって、プロセッサを含み、前記プロセッサはメモリに結合され、前記プロセッサは、請求項1~7のいずれか一項に記載の方法を実行するよう構成される、通信機器。
【請求項18】
通信機器であって、プロセッサを含み、前記プロセッサはメモリに結合され、前記プロセッサは、請求項8~14のいずれか一項に記載の方法を実行するよう構成される、通信機器。
【請求項19】
通信システムであって、
請求項1~7のいずれか一項に記載の方法を実行するよう構成される通信機器と、
請求項8~14のいずれか一項に記載の方法を実行するよう構成される通信機器と、を含む通信システム。
【請求項20】
コンピュータ可読記憶媒体であって、前記コンピュータ可読記憶媒体は命令を格納し、前記命令がコンピュータ上で実行されると、前記コンピュータは請求項1~7のいずれか一項に記載の方法又は請求項8~14のいずれか一項に記載の方法を実行可能にされる、コンピュータ可読記憶媒体。
【請求項21】
コンピュータプログラム
であって、
前記コンピュータプログラムがコンピュータ上で実行されると、前記コンピュータは、請求項1~7のいずれか一項に記載の方法又は請求項8~14のいずれか一項に記載の方法を実行可能にされる、コンピュータプログラム
。
【国際調査報告】