IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 華為技術有限公司の特許一覧

<>
  • 特表-通信方法および通信装置 図1
  • 特表-通信方法および通信装置 図2A
  • 特表-通信方法および通信装置 図2B
  • 特表-通信方法および通信装置 図2C
  • 特表-通信方法および通信装置 図2D
  • 特表-通信方法および通信装置 図2E
  • 特表-通信方法および通信装置 図2F
  • 特表-通信方法および通信装置 図3
  • 特表-通信方法および通信装置 図4
  • 特表-通信方法および通信装置 図5A
  • 特表-通信方法および通信装置 図5B
  • 特表-通信方法および通信装置 図5C
  • 特表-通信方法および通信装置 図6
  • 特表-通信方法および通信装置 図7
  • 特表-通信方法および通信装置 図8
  • 特表-通信方法および通信装置 図9
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公表特許公報(A)
(11)【公表番号】
(43)【公表日】2024-11-15
(54)【発明の名称】通信方法および通信装置
(51)【国際特許分類】
   H04W 16/22 20090101AFI20241108BHJP
   G06N 3/08 20230101ALI20241108BHJP
【FI】
H04W16/22
G06N3/08
【審査請求】有
【予備審査請求】未請求
(21)【出願番号】P 2024532663
(86)(22)【出願日】2022-12-02
(85)【翻訳文提出日】2024-07-10
(86)【国際出願番号】 CN2022136138
(87)【国際公開番号】W WO2023098860
(87)【国際公開日】2023-06-08
(31)【優先権主張番号】202111462667.X
(32)【優先日】2021-12-02
(33)【優先権主張国・地域又は機関】CN
(81)【指定国・地域】
(71)【出願人】
【識別番号】503433420
【氏名又は名称】華為技術有限公司
【氏名又は名称原語表記】HUAWEI TECHNOLOGIES CO.,LTD.
【住所又は居所原語表記】Huawei Administration Building, Bantian, Longgang District, Shenzhen, Guangdong 518129, P.R. China
(74)【代理人】
【識別番号】100132481
【弁理士】
【氏名又は名称】赤澤 克豪
(74)【代理人】
【識別番号】100115635
【弁理士】
【氏名又は名称】窪田 郁大
(72)【発明者】
【氏名】▲孫▼ ▲イエン▼
(72)【発明者】
【氏名】柴 ▲暁▼萌
(72)【発明者】
【氏名】▲孫▼ 雅▲キ▼
(72)【発明者】
【氏名】邱 宇▲ホン▼
(72)【発明者】
【氏名】▲呉▼ ▲芸▼群
【テーマコード(参考)】
5K067
【Fターム(参考)】
5K067DD11
(57)【要約】
本開示は、通信方法および通信装置を提供する。本方法は、以下を含む。すなわち、本通信装置が第一の情報を受信し、第一の情報が第一のインテリジェントモデルの訓練ポリシーを示す。本通信装置は、訓練ポリシーに従って、第一のインテリジェントモデルに対してモデル訓練を実行する。このようにして、エアー・インターフェース・リソースのオーバーヘッドを低減しつつ、通信性能要件を満たすインテリジェントモデルを取得することができる。
【特許請求の範囲】
【請求項1】
通信方法であって、
第一の情報を受信するステップであって、前記第一の情報は、第一のインテリジェントモデルの訓練ポリシーを示す、ステップと、
前記訓練ポリシーに従って、前記第一のインテリジェントモデルに対してモデル訓練を実行するステップと
を備える、方法。
【請求項2】
前記訓練ポリシーは、
モデル訓練手法、損失関数情報、モデル初期化手法、モデル最適化アルゴリズムのタイプ、または最適化アルゴリズムのパラメータ
のうちの一つまたは複数を含む、請求項1に記載の方法。
【請求項3】
前記モデル最適化アルゴリズムは、適応的モーメント推定アルゴリズム、確率的勾配降下アルゴリズム、またはバッチ勾配降下アルゴリズムであり、および/または
前記最適化アルゴリズムのパラメータは、学習率、反復回数、またはバッチに処理されるデータ量のうちの一つまたは複数を含む、請求項2に記載の方法。
【請求項4】
前記方法は、
第二の情報を取得するステップであって、前記第二の情報は、前記第一のインテリジェントモデルの構成を示す、ステップ
をさらに備える、請求項1ないし3の何れか一つに記載の方法。
【請求項5】
前記第二の情報は、前記第一のインテリジェントモデルの以下の構成情報の、すなわち、
ネットワーク層の構成情報、入力データの次元、または出力データの次元
のうちの一つまたは複数を特に示す、請求項4に記載の方法。
【請求項6】
前記ネットワーク層の構成情報は、
前記第一のインテリジェントモデルに構成されるニューラルネットワーク層の数量、前記ニューラルネットワーク層のタイプ、前記ニューラルネットワーク層の使用方式、前記ニューラルネットワーク層の間のカスケード関係、前記ニューラルネットワーク層の入力データの次元、または前記ニューラルネットワーク層の出力データの次元
のうちの一つまたは複数を含む、請求項5に記載の方法。
【請求項7】
前記方法は、
第三の情報を受信するステップであって、前記第三の情報は、訓練データセットに関する情報を示し、前記訓練データセットは、前記第一のインテリジェントモデルを訓練するために使用される、ステップ
をさらに備える、請求項1ないし6の何れか一つに記載の方法。
【請求項8】
前記訓練データセットは、訓練サンプルを含むか、または訓練サンプルおよびラベルを含む、請求項7に記載の方法。
【請求項9】
前記方法は、
能力情報を送信するステップであって、前記能力情報は、インテリジェントモデルを稼働させるための能力を示す、ステップ
をさらに備える、請求項1ないし8の何れか一つに記載の方法。
【請求項10】
前記能力情報は、以下の能力、すなわち、
前記インテリジェントモデルの稼働をサポートするか否か、稼働することができる前記インテリジェントモデルのタイプ、データ処理能力、またはストレージ能力
のうちの一つまたは複数を特に示す、請求項9に記載の方法。
【請求項11】
前記方法は、
第四の情報を受信するステップであって、前記第四の情報は、テスト情報を示し、前記テスト情報は、前記第一のインテリジェントモデルの性能をテストするために使用される、ステップ
をさらに備える、請求項1ないし10の何れか一つに記載の方法。
【請求項12】
前記テスト情報は、
テストデータ情報、性能評価方式、または性能評価パラメータ
のうちの一つまたは複数を含む、請求項11に記載の方法。
【請求項13】
前記方法は
第五の情報を送信するステップであって、前記第五の情報は、前記第一のインテリジェントモデルのテスト結果を示す、ステップ、および/または、
第六の情報を送信するステップであって、前記第六の情報は、推論データを示し、前記推論データは、前記第一のインテリジェントモデルに対するテストデータを推論することによって得られ、前記テスト情報は、前記テストデータを含む、ステップ
をさらに備える、
請求項11または12に記載の方法。
【請求項14】
前記方法は、
第七の情報を受信するステップであって、前記第七の情報は、前記第一のインテリジェントモデルの更新済み訓練ポリシーを示し、および/または、前記第一のインテリジェントモデルの更新済み構成を示す、ステップ
をさらに備える、請求項13に記載の方法。
【請求項15】
前記第七の情報は、前記第一のインテリジェントモデルの訓練ポリシーにおける少なくとも一つの変形、および/または、前記第一のインテリジェントモデルの構成における少なくとも一つの変形を特に示す、請求項14に記載の方法。
【請求項16】
通信方法であって、
第一の情報を送信するステップであって、前記第一の情報は、第一のインテリジェントモデルの訓練ポリシーを示す、ステップ
を備える、方法。
【請求項17】
前記訓練ポリシーは、
モデル訓練手法、損失関数情報、モデル初期化手法、モデル最適化アルゴリズムのタイプ、または最適化アルゴリズムのパラメータ
のうちの一つまたは複数を含む、請求項16に記載の方法。
【請求項18】
前記モデル最適化アルゴリズムのタイプは、適応的モーメント推定アルゴリズム、確率的勾配降下アルゴリズム、またはバッチ勾配降下アルゴリズムであり、および/または
前記最適化アルゴリズムのパラメータは、学習率、反復回数、またはバッチに処理されるデータ量のうちの一つまたは複数を含む、
請求項17に記載の方法。
【請求項19】
前記方法は、
第二の情報を送信するステップであって、前記第二の情報は、前記第一のインテリジェントモデルの構成を示す、ステップ
をさらに備える、請求項16ないし18の何れか一つに記載の方法。
【請求項20】
前記第二の情報は、前記第一のインテリジェントモデルの以下の構成情報、すなわち、
ネットワーク層の構成情報、入力データの次元、または出力データの次元
のうちの一つまたは複数を特に示す、請求項19に記載の方法。
【請求項21】
前記ネットワーク層の構成情報は、
前記第一のインテリジェントモデルに構成されるニューラルネットワーク層の数量、前記ニューラルネットワーク層のタイプ、前記ニューラルネットワーク層の使用方式、前記ニューラルネットワーク層の間のカスケード関係、前記ニューラルネットワーク層の入力データの次元、または前記ニューラルネットワーク層の出力データの次元
のうちの一つまたは複数を含む、請求項20に記載の方法。
【請求項22】
前記方法は、
第三の情報を送信するステップであって、前記第三の情報は、訓練データセットに関する情報を示し、前記訓練データセットは、前記第一のインテリジェントモデルを訓練するために使用される、ステップ
をさらに備える、請求項16ないし21の何れか一つに記載の方法。
【請求項23】
前記訓練データセットは、訓練サンプルを含むか、または訓練サンプルおよびラベルを含む、請求項22に記載の方法。
【請求項24】
前記方法は、
能力情報を受信するステップであって、前記能力情報は、インテリジェントモデルを稼働させるための能力を示す、ステップ
をさらに備える、請求項16ないし23の何れか一つに記載の方法。
【請求項25】
前記能力情報は、以下の能力、すなわち、
前記インテリジェントモデルの稼働をサポートするか否か、稼働することができる前記インテリジェントモデルのタイプ、データ処理能力、またはストレージ能力
のうちの一つまたは複数を示す、請求項24に記載の方法。
【請求項26】
前記方法は、
第四の情報を送信するステップであって、前記第四の情報は、前記第一のインテリジェントモデルの性能をテストするためのテスト情報を示す、ステップ
をさらに備える、請求項16ないし25の何れか一つに記載の方法。
【請求項27】
前記テスト情報は、
テストデータ情報、性能評価方式、または性能評価パラメータ
のうちの一つまたは複数を含む、請求項26に記載の方法。
【請求項28】
前記方法は、
第五の情報を受信するステップであって、前記第五の情報は、前記第一のインテリジェントモデルのテスト結果を示す、ステップ、および/または、
第六の情報を受信するステップであって、前記第六の情報は、推論データを示し、前記推論データは、前記第一のインテリジェントモデルによるテストデータの推論によって得られ、前記テスト情報は、前記テストデータを含む、ステップ
をさらに備える、請求項26または27に記載の方法。
【請求項29】
前記方法は、
第七の情報を送信するステップであって、前記第七の情報は、前記第一のインテリジェントモデルの更新済み訓練ポリシーを示し、および/または、前記第一のインテリジェントモデルの更新済み構成を示す、ステップ
をさらに備える、請求項28に記載の方法。
【請求項30】
前記第七の情報は、前記訓練ポリシーにおける少なくとも一つのパラメータの変形、および/または、前記第一のインテリジェントモデルの構成における少なくとも一つのパラメータの変形を特に示す、請求項29に記載の方法。
【請求項31】
通信方法であって、
第二の情報を受信するステップであって、前記第二の情報は、第一のインテリジェントモデルの構成を示し、前記第二の情報は、前記第一のインテリジェントモデルの構成情報、すなわち、ネットワーク層の構成情報、入力データの次元、または出力データの次元のうちの一つまたは複数を含む、ステップと、
前記第二の情報に基づいて、前記第一のインテリジェントモデルの構成を決定するステップと、
前記第一のインテリジェントモデルに対してモデル訓練を実行するステップと
を備える、方法。
【請求項32】
前記方法は、
第一の情報を取得するステップであって、前記第一の情報は、前記第一のインテリジェントモデルの訓練ポリシーを示す、ステップ
をさらに備え、
前記第一のインテリジェントモデルに対してモデル訓練を実行するステップは、
前記訓練ポリシーに従って、前記第一のインテリジェントモデルに対してモデル訓練を実行するステップ
を含む、
請求項31に記載の方法。
【請求項33】
前記訓練ポリシーは、
モデル訓練手法、損失関数情報、モデル初期化方法、モデル最適化アルゴリズムのタイプ、または最適化アルゴリズムのパラメータ
のうちの一つまたは複数を含む、請求項32に記載の方法。
【請求項34】
前記方法は、
第三の情報を受信するステップであって、前記第三の情報は、訓練データセットに関する情報を示し、前記訓練データセットは、前記第一のインテリジェントモデルを訓練するために使用される、ステップ
をさらに備える、請求項31ないし33の何れか一つに記載の方法。
【請求項35】
前記訓練データセットは、訓練サンプルを含むか、または訓練サンプルおよびラベルを含む、請求項34に記載の方法。
【請求項36】
前記方法は、
能力情報を送信するステップであって、前記能力情報は、インテリジェントモデルを稼働させるための能力を示す、ステップ
をさらに備える、請求項31ないし35の何れか一つに記載の方法。
【請求項37】
前記能力情報は、以下の能力、すなわち、
前記インテリジェントモデルの稼働をサポートするか否か、稼働することができる前記インテリジェントモデルのタイプ、データ処理能力、またはストレージ能力
のうちの一つまたは複数を示す、請求項36に記載の方法。
【請求項38】
前記方法は、
第四の情報を受信するステップであって、前記第四の情報は、テスト情報を示し、前記テスト情報は、前記第一のインテリジェントモデルの性能をテストするために使用される、ステップ
をさらに備える、請求項31ないし37の何れか一つに記載の方法。
【請求項39】
前記テスト情報は、
テストデータ情報、性能評価方式、または性能評価パラメータ
のうちの一つまたは複数を含む、請求項38に記載の方法。
【請求項40】
前記方法は、
第五の情報を送信するステップであって、前記第五の情報は、前記第一のインテリジェントモデルのテスト結果を示す、ステップ、および/または、
第六の情報を送信するステップであって、前記第六の情報は、推論データを示し、前記推論データは、前記第一のインテリジェントモデルによってテストデータを推論することによって得られ、前記テスト情報は、前記テストデータを含む、ステップ
をさらに備える、請求項38または39に記載の方法。
【請求項41】
前記方法は、
第七の情報を受信するステップであって、前記第七の情報は、前記第一のインテリジェントモデルの更新済み訓練ポリシーを示し、および/または、前記第一のインテリジェントモデルの更新済み構成を示す、ステップと
をさらに備える、請求項31ないし40の何れか一つに記載の方法。
【請求項42】
前記第七の情報は、前記第一のインテリジェントモデルの訓練ポリシーにおける少なくとも一つの変形、および/または前記第一のインテリジェントモデルの構成における少なくとも一つの変形を特に示す、請求項41に記載の方法。
【請求項43】
通信方法であって
第二の情報を送信するステップであって、前記第二の情報は、第一のインテリジェントモデルの構成を示し、前記第二の情報は、前記第一のインテリジェントモデルの以下の構成情報、すなわち、ネットワーク層の構成情報、入力データの次元、または出力データの次元のうちの一つまたは複数を含む、ステップ
を備える、方法。
【請求項44】
前記方法は、
第一の情報を送信するステップであって、前記第一の情報は、前記第一のインテリジェントモデルの訓練ポリシーを示す、ステップ
をさらに備える、請求項43に記載の方法。
【請求項45】
前記訓練ポリシーは、
モデル訓練手法、損失関数情報、モデル初期化手法、モデル最適化アルゴリズムのタイプ、または最適化アルゴリズムのパラメータ
のうちの一つまたは複数を含む、請求項44に記載の方法。
【請求項46】
前記方法は、
第三の情報を送信するステップであって、前記第三の情報は、訓練データセットに関する情報を示し、前記訓練データセットは、前記第一のインテリジェントモデルを訓練するために使用される、ステップ
をさらに備える、請求項43ないし45の何れか一つに記載の方法。
【請求項47】
前記訓練データセットは、訓練サンプルを含むか、または訓練サンプルおよびラベルを含む、請求項46に記載の方法。
【請求項48】
前記方法は、
能力情報を受信するステップであって、前記能力情報は、インテリジェントモデルを稼働させるための能力を示す、ステップ
をさらに備える、請求項43ないし47の何れか一つに記載の方法。
【請求項49】
前記能力情報は、以下の能力、すなわち、
前記インテリジェントモデルの稼働をサポートするか否か、稼働することができる前記インテリジェントモデルのタイプ、データ処理能力、またはストレージ能力
のうちの一つまたは複数を示す、請求項43に記載の方法。
【請求項50】
前記方法は、
第四の情報を送信するステップであって、前記第四の情報は、テスト情報を示し、前記テスト情報は、前記第一のインテリジェントモデルの性能をテストするために使用される、ステップ
をさらに備える、請求項43ないし49の何れか一つに記載の方法。
【請求項51】
前記テスト情報は、
テストデータ情報、性能評価手法、または性能評価パラメータ
のうちの一つまたは複数を含む、請求項50に記載の方法。
【請求項52】
前記方法は、
第五の情報を受信するステップであって、前記第五の情報は、前記第一のインテリジェントモデルのテスト結果を示す、ステップ、および/または、
第六の情報を受信するステップであって、前記第六の情報は、推論データを示し、前記推論データは、前記第一のインテリジェントモデルに対するテストデータを推論することによって得られ、前記テスト情報は、前記テストデータを含む、ステップ
をさらに備える、請求項50または51に記載の方法。
【請求項53】
前記方法は、
第七の情報を送信するステップであって、前記第七の情報は、前記第一のインテリジェントモデルの更新済み訓練ポリシーを示し、および/または、前記第一のインテリジェントモデルの更新済み構成を示す、ステップ
をさらに備える、請求項43ないし52の何れか一つに記載の方法。
【請求項54】
前記第七の情報は、前記訓練ポリシーにおける少なくとも一つの変形、および/または、前記第一のインテリジェントモデルの構成における少なくとも一つの変形を特に示す、請求項53に記載の方法。
【請求項55】
通信装置であって、請求項1ないし15、または請求項31ないし42の何れか一つに記載の方法を実装するように構成される、通信装置。
【請求項56】
プロセッサおよびメモリを備える通信装置であって、前記メモリは、前記プロセッサに結合され、前記プロセッサは、請求項1ないし15、または請求項31ないし42の何れか一つに記載の方法を実行するように構成される、通信装置。
【請求項57】
プロセッサおよび通信インターフェースを備える通信装置であって、前記プロセッサは、前記通信インターフェースを介して、請求項1ないし15、または請求項31ないし42の何れか一つに記載の方法を実行する、通信装置。
【請求項58】
通信装置であって、請求項16ないし30、または請求項43ないし54の何れか一つに記載の方法を実装するように構成される、通信装置。
【請求項59】
プロセッサおよびメモリを備える通信装置であって、前記メモリは、前記プロセッサに結合され、前記プロセッサは、請求項16ないし30、または請求項43ないし54の何れか一つに記載の方法を実行するように構成される、通信装置。
【請求項60】
プロセッサおよび通信インターフェースを備える通信装置であって、前記プロセッサは、前記通信インターフェースを介して、請求項16ないし30、または請求項43ないし54の何れか一つに記載の方法を実行する、通信装置。
【請求項61】
通信システムであって、請求項55ないし57の何れか一つに記載の通信装置と、請求項58ないし60の何れか一つに記載の通信装置とを備える、通信システム。
【請求項62】
命令を格納するコンピュータ可読記憶媒体であって、前記命令がコンピュータ上で実行されると、前記コンピュータは、請求項1ないし54の何れか一つに記載の方法を実行することが可能になる、コンピュータ可読記憶媒体。
【請求項63】
命令を含むコンピュータプログラム製品であって、前記命令がコンピュータ上で実行されると、前記コンピュータは、請求項1ないし54の何れか一つに記載の方法を実行することが可能になる、コンピュータプログラム製品。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、通信分野に関し、より具体的には、通信方法および通信装置に関する。
【背景技術】
【0002】
本出願は、2021年12月2日に中国国家知識産権局に出願され、「通信方法および通信装置」と題する中国特許出願第202111462667.X号の優先権を主張するものであり、これは、その全体が参照により本明細書に組み込まれる。
【0003】
無線通信ネットワーク(例えば、移動通信ネットワークなど)では、ネットワークによってサポートされるサービスが、ますます多様化されており、そのため、満たされる必要がある要件も、ますます多様化している。例えば、ネットワークは、超高速、超低遅延、および/または大量接続をサポートすることが可能である必要があり、そのため、ネットワーク計画、ネットワーク構成、および/またはリソーススケジューリングが、ますます複雑になっている。さらに、ネットワークは、ますます強力な機能を有するようになり、例えば、ますます高いスペクトルをサポートし、高次の多入力多出力(multiple-input multiple-output,MIMO)技術、ビームフォーミング、および/またはビーム管理などの新技術をサポートするため、ネットワークの省エネルギーが、注目の研究テーマとなっている。これらの新しい要件、シナリオ、および機能は、ネットワーク計画、操作および保守、ならびに効率的な運用に対して、これまでに無い課題をもたらす。このような課題に対応するために、人工知能技術が無線通信ネットワークに導入されて、ネットワーク・インテリジェンスを実装することがある。これを踏まえ、どのようにして人工知能を効果的にネットワークに実装するかということは、研究に値する課題である。
【発明の概要】
【0004】
本開示では、通信方法および通信装置を提供して、エアー・インターフェース・リソースのオーバーヘッドを低減しつつ、通信性能要件を満たすインテリジェントモデルを取得する。
【0005】
第一の態様によれば、通信方法が提供される。本方法は、端末、または端末に配置される(もしくは使用される)モジュール(例えば、チップなど)によって実行され得る。
【0006】
本方法は、以下を含む。すなわち、第一の情報を受信するステップであって、第一の情報が、第一のインテリジェントモデルの訓練ポリシーを示す、ステップ。および、訓練ポリシーに従って第一のインテリジェントモデルに対してモデル訓練を実行するステップ。
【0007】
上述した解決策に基づいて、ネットワークは、インテリジェントモデルの訓練ポリシーを端末に通知し得て、その端末は、ネットワークによって提供された訓練ポリシーに従ってインテリジェントモデルに対する訓練を実行する。これは、アクセスネットワークノードがインテリジェントモデルのモデルパラメータ(例えば、各ニューロンの重み、活性化関数、およびオフセットなど)を端末に送信する際に発生するエアー・インターフェース・リソース・オーバーヘッドを低減させ、これにより、端末による訓練を通して得られるモデルが、ネットワークによって使用されるモデルと整合し、サービスデータの伝送効率に対する影響を最小限にしつつ、実際の通信の性能要件を満たすことができるようになる。
【0008】
第一の態様に関連して、第一の態様における幾つかの実装では、訓練ポリシーは、以下のうちの一つまたは複数を含む。すなわち、
モデル訓練手法、損失関数情報、モデル初期化手法、モデル最適化アルゴリズムのタイプ、または最適化アルゴリズムのパラメータ。
【0009】
任意選択で、モデル訓練手法は、教師あり学習、教師なし学習、または強化学習のうちの一つであってもよいが、これらに限定されない。
【0010】
任意選択で、損失関数情報は、第一のインテリジェントモデルの訓練に使用される損失関数を示し得て、この損失関数は、クロスエントロピー損失関数、または二次損失関数であってもよいが、これらに限定されない。あるいは、損失関数は、機械学習インテリジェントモデルであってもよい。
【0011】
任意選択で、モデル初期化手法は、第一のインテリジェントモデルの各ニューロンの重みの初期化手法であってもよい。一例では、第一の情報は、モデル初期化手法が、各ニューロンの初期重みがプリセット範囲内のランダム値であることを示し得る。任意選択で、第一の情報は、プリセット範囲内の開始値および終了値を含む。別の例では、第一の情報は、ニューロンの初期重みが0であることを示し得る。さらに別の例では、第一の情報は、ニューロンの初期重みがプリセット関数を使用することによって生成されることを示し得る。さらに別の例では、第一の情報は、事前定義された複数の初期化手法のうちの一つの識別情報を示し得る。
【0012】
任意選択で、モデル最適化アルゴリズムのタイプは、適応的モーメント推定(adaptive momentum estimation,ADAM)アルゴリズム、確率的勾配降下(stochastic gradient descent,SGD)アルゴリズム、またはバッチ勾配降下(batch gradient descent,BGD)アルゴリズムであってもよい。
【0013】
任意選択で、最適化アルゴリズムのパラメータは、以下のうちの一つまたは複数を含み得るが、これらに限定されない。すなわち、
学習率、反復回数、またはバッチに処理されるデータ量。
【0014】
第一の態様に関連して、第一の態様における幾つかの実装では、本方法は、以下をさらに含む。すなわち、第二の情報を取得するステップであって、第二の情報が、第一のインテリジェントモデルの構成を示す、ステップ。
【0015】
上述した解決策に基づいて、アクセスネットワークノードは、第一のインテリジェントモデルの構成を端末に通知し、その端末は、アクセスネットワークノードの指示に基づいて、その構成を有する初期の第一のインテリジェントモデルを生成し、指示された訓練ポリシーに従って第一のインテリジェントモデルを訓練し、これにより、端末による訓練を通して得られた第一のインテリジェントモデルは、ネットワーク機器によって使用されるモデルと整合し、アクセスネットワークノードの性能要件を満たすことができるようになる。このようにして、第一のインテリジェントモデルは、無線通信性能を改善するために使用することができる。
【0016】
第一の態様に関連して、第一の態様における幾つかの実装では、第二の情報は、第一のインテリジェントモデルの以下の構成情報のうちの一つまたは複数を特に示す。すなわち、
ネットワーク層の構成情報、入力データの次元、または出力データの次元
である。
【0017】
上述した解決策に基づいて、アクセスネットワークノードは、第二の情報を使用することによって、ネットワーク層の構成情報(例えば、ニューラルネットワーク層の数量、およびニューラルネットワーク層のタイプなど)、入力データの次元、ならびに出力データの次元のうちの一つまたは複数を端末に通知し得る。構成情報の情報量は、ニューラルネットワークにおける各ニューロンの重み、活性化関数、オフセット、および同様のものの情報量よりもはるかに少なく、これにより、リソース使用量は、低減することができ、その端末は、訓練を通して、性能要件を満たす第一のインテリジェントモデルを取得する。
【0018】
第一の態様に関連して、第一の態様における幾つかの実装では、ネットワーク層の構成情報は、以下のうちの一つまたは複数を含む。すなわち、
第一のインテリジェントモデルに含まれるニューラルネットワーク層の数量、ニューラルネットワーク層のタイプ、ニューラルネットワーク層を使用する手法、ニューラルネットワーク層の間のカスケード関係、ニューラルネットワーク層の入力データの次元、またはニューラルネットワーク層の出力データの次元
である。
【0019】
第一の態様に関連して、第一の態様における幾つかの実装では、本方法は、以下をさらに含む。すなわち、第三の情報を受信するステップであって、第三の情報は、訓練データセットに関する情報を示し、この訓練データセットは、第一のインテリジェントモデルを訓練するために使用される、ステップ。
【0020】
任意選択で、訓練データセットは、訓練サンプルを含んでもよいし、または訓練サンプルおよびラベルを含んでもよい。
【0021】
任意選択で、訓練データセットに関する情報は、訓練サンプルのタイプを示してもよいし、または訓練サンプルのタイプおよびラベルのタイプを示してもよい。任意選択で、訓練データセットに関する情報は、第一のインテリジェントモデルの使用を示してもよい。任意選択で、第三の情報は、訓練データセットを含んでもよい。
【0022】
上述した解決策に基づいて、アクセスネットワークノードは、端末によって使用された訓練データセットを端末にさらに通知して、第一のインテリジェントモデルを訓練し得る。このようにして、端末による訓練を通して得られた第一のインテリジェントモデルは、アクセスネットワークノードの要件にもっと近くなることができ、換言すると、アクセスネットワークノードのインテリジェントモデルとより良く整合することができる。
【0023】
第一の態様に関連して、第一の態様における幾つかの実装では、本方法は、以下をさらに含む。すなわち、能力情報を送信するステップであって、能力情報は、インテリジェントモデルを稼働させるための能力を示す、ステップ。
【0024】
上述した解決策に基づいて、端末は、能力情報を使用することによって、アクセスネットワークノードに対して、インテリジェントモデルを稼働させるための端末の能力を示し得て、これにより、アクセスネットワークノードは、その端末の能力に基づいて端末に対して、端末の能力要件を満たす訓練ポリシーおよび/またはモデル構成を示し得る。
【0025】
第一の態様に関連して、第一の態様における幾つかの実装では、能力情報は、以下の能力のうちの一つまたは複数を特に示す。すなわち、インテリジェントモデルの稼働をサポートするか否か、稼働することができるインテリジェントモデルのタイプ、データ処理、またはデータ記憶能力
である。
【0026】
第一の態様に関連して、第一の態様における幾つかの実装では、本方法は、以下をさらに含む。すなわち、第四の情報を受信するステップであって、第四の情報は、テスト情報を示し、このテスト情報は、第一のインテリジェントモデルの性能をテストするために使用される、ステップ。
【0027】
上述した解決策に基づいて、アクセスネットワークノードは、テスト情報を端末にさらに送信し得て、これにより、その端末は、テスト情報に基づいて、第一のインテリジェントモデルをテストできるようになる。
【0028】
第一の態様に関連して、第一の態様における幾つかの実装では、テスト情報は、以下のうちの一つまたは複数を含む。すなわち、
テストデータ情報、性能評価手法、または性能評価パラメータ
である。
【0029】
第一の態様に関連して、第一の態様における幾つかの実装では、本方法は、以下をさらに含む。すなわち、第五の情報を送信するステップであって、第五の情報は、第一のインテリジェントモデルのテスト結果を示す、ステップ。
【0030】
上述した解決策に基づいて、第一のインテリジェントモデルをテスト情報に基づいてテストした後、端末は、訓練済みの第一のインテリジェントモデルが性能要件を満たすか否かを判定し、第五の情報を使用することによって、テスト結果をアクセスネットワークノードに通知する。
【0031】
第一の態様に関連して、第一の態様における幾つかの実装では、本方法は、以下をさらに含む。すなわち、第六の情報を送信するステップであって、第六の情報は、推論データを示し、この推論データは、第一のインテリジェントモデルによるテストデータに基づく推論を通して取得され、そのテスト情報は、テストデータを含む、ステップ。
【0032】
上述した解決策に基づいて、端末は、テストデータを推論して、推論データを取得し、第六の情報を使用することによって、推論データをアクセスネットワークノードに送信し得て、これにより、アクセスネットワークノードは、その推論データに基づいて、端末によって訓練された第一のインテリジェントモデルが性能要件を満たすか否かを判定することができる。
【0033】
第一の態様に関連して、第一の態様における幾つかの実装では、本方法は、以下をさらに含む。すなわち、第七の情報を受信するステップであって、第七の情報は、第一のインテリジェントモデルの更新済み訓練ポリシーを示し、および/または第一のインテリジェントモデルの更新済み構成を示す。
【0034】
上述した解決策に基づいて、アクセスネットワークノードが、端末によって訓練された第一のインテリジェントモデルが性能要件を満たさないと判定した場合、アクセスネットワークノードは、第七の情報を使用することによって、更新済み訓練ポリシーおよび/または更新済みモデル構成を端末に通知し、その端末は、第七の情報に基づいて、第一のインテリジェントモデルを再度訓練し得る。
【0035】
第一の態様に関連して、第一の態様における幾つかの実装では、第七の情報は、訓練ポリシーにおける少なくとも一つの変形、および/または第一のインテリジェントモデルの構成における少なくとも一つの変形を特に示す。
【0036】
上述した解決策に基づいて、第七の情報は、訓練ポリシーにおける少なくとも一つの変形、および/またはモデル構成における少なくとも一つの変形を特に示し得て、これにより、情報オーバーヘッドを低減することができる。
【0037】
第二の態様によれば、通信方法が提供される。本方法は、アクセスネットワークノード、またはアクセスネットワークノードに配置された(もしくは使用された)モジュール(例えば、チップなど)によって実行され得る。
【0038】
本方法は、以下を含む。すなわち、第一の情報を送信するステップであって、第一の情報は、第一のインテリジェントモデルの訓練ポリシーを示す、ステップ。
【0039】
訓練ポリシーは、第一の態様において説明された訓練ポリシーと同じである。簡潔にするために、詳細については、本明細書では改めて説明しない。
【0040】
第二の態様に関連して、第二の態様における幾つかの実装では、本方法は、以下をさらに含む。すなわち、第二の情報を送信するステップであって、第二の情報は、第一のインテリジェントモデルの構成を示す、ステップ。
【0041】
第二の情報によって特に示される構成情報は、第一の態様において説明されたものと同じである。簡潔にするために、詳細については、本明細書では改めて説明しない。
【0042】
第二の態様に関連して、第二の態様における幾つかの実装では、本方法は、以下をさらに含む。すなわち、第三の情報を送信するステップであって、第三の情報は、訓練データセットに関する情報を示し、この訓練データセットは、第一のインテリジェントモデルを訓練するために使用される、ステップ。
【0043】
第二の態様に関連して、第二の態様における幾つかの実装では、本方法は、以下をさらに含む。すなわち、能力情報を受信するステップであって、能力情報は、インテリジェントモデルを稼働させる能力を示す、ステップ。
【0044】
本方法によれば、第一のインテリジェントモデルの訓練ポリシーおよび/または構成は、能力情報に基づいて決定され得る。
【0045】
能力情報によって特に示される能力は、第一の態様において説明されたものと同じである。簡潔にするために、詳細については、本明細書では改めて説明しない。
【0046】
第二の態様に関連して、第二の態様における幾つかの実装では、第一のインテリジェントモデルの訓練ポリシーおよび/または構成が能力情報に基づいて決定されることは、以下をさらに含む。すなわち、第一のインテリジェントモデルの構成は、能力情報に基づいて決定されること。および/または、第一のインテリジェントモデルは、訓練ポリシーに従って訓練されること。
【0047】
第二の態様に関連して、第二の態様における幾つかの実装では、本方法は、以下をさらに含む。すなわち、
第四の情報を送信するステップであって、第四の情報は、第一のインテリジェントモデルの性能をテストするためのテスト情報を示す、ステップ。
【0048】
テスト情報に含まれるコンテンツは、第一の態様において説明されたものと同じである。簡潔にするために、詳細については、本明細書では改めて説明しない。
【0049】
第二の態様に関連して、第二の態様における幾つかの実装では、本方法は、以下をさらに含む。すなわち、
第五の情報を受信するステップであって、第五の情報は、第一のインテリジェントモデルのテスト結果を示す、ステップ。および/または、
第六の情報を受信するステップであって、第六の情報は、推論データを示し、この推論データは、第一のインテリジェントモデルによるテストデータに基づく推論を通して得られ、そのテスト情報はテストデータを含む、ステップ。
【0050】
第二の態様に関連して、第二の態様における幾つかの実装では、第七の情報は、訓練ポリシーにおける少なくとも一つのパラメータの変形、および/または第一のインテリジェントモデルの構成における少なくとも一つのパラメータの変形を特に示す。
【0051】
第三の態様によれば、通信方法が提供される。本方法は、端末、または端末に配置された(もしくは使用された)モジュール(例えば、チップなど)によって実行され得る。以下に、本方法が端末によって実行される例を使用して説明する。
【0052】
本方法は、以下を含む。すなわち、第二の情報を受信するステップであって、第二の情報は、第一のインテリジェントモデルの構成を示し、第二の情報は、以下の第一のインテリジェントモデルの構成情報、すなわち、ネットワーク層の構成情報、入力データの次元、または出力データの次元のうちの一つまたは複数を含む、ステップ。第二の情報に基づいて、第一のインテリジェントモデルの構成を決定するステップ。および、第一のインテリジェントモデルに対してモデル訓練を実行するステップ。
【0053】
ネットワーク層の構成情報は、第一の態様において説明されたものと同じである。簡潔にするために、詳細については、本明細書では改めて説明しない。
【0054】
第三の態様に関連して、第三の態様における幾つかの実装では、本方法は、以下をさらに含む。すなわち、第一の情報を取得するステップであって、第一の情報は、第一のインテリジェントモデルの訓練ポリシーを示し、第一のインテリジェントモデルに対してモデル訓練を実行するステップは、訓練ポリシーに従って第一のインテリジェントモデルに対してモデル訓練を実行するステップを含む、ステップ。
【0055】
訓練ポリシーは、第一の態様において説明されたものと同じである。簡潔にするために、詳細については、本明細書では改めて説明しない。
【0056】
第三の態様に関連して、第三の態様における幾つかの実装では、本方法は、以下をさらに含む。すなわち、第三の情報を受信するステップであって、第三の情報は、訓練データセットに関する情報を示し、その訓練データセットは、第一のインテリジェントモデルを訓練するために使用される、ステップ。
【0057】
第三の態様に関連して、第三の態様における幾つかの実装では、本方法は、以下をさらに含む。すなわち、能力情報を送信するステップであって、能力情報は、インテリジェントモデルを稼働させる能力を示す、ステップ。
【0058】
能力情報は、第一の態様において説明されたものと同じである。簡潔にするために、詳細については、本明細書では改めて説明しない。
【0059】
第三の態様に関連して、第三の態様における幾つかの実装では、本方法は、以下をさらに含む。すなわち、第四の情報を受信するステップであって、第四の情報は、テスト情報を示し、このテスト情報は、第一のインテリジェントモデルの性能をテストするために使用される、ステップ。
【0060】
テスト情報は、第一の態様において説明されたものと同じである。簡潔にするために、詳細については、本明細書では改めて説明しない。
【0061】
第三の態様に関連して、第三の態様における幾つかの実装では、本方法は、以下をさらに含む。すなわち、第五の情報を送信するステップであって、第五の情報は、第一のインテリジェントモデルのテスト結果を示す、ステップ。および/または、第六の情報を送信するステップであって、第六の情報は、推論データを示し、この推論データは、第一のインテリジェントモデルによるテストデータに基づく推論を通して取得され、そのテスト情報はテストデータを含む、ステップ。
【0062】
第三の態様に関連して、第三の態様における幾つかの実装では、本方法は、以下をさらに含む。すなわち、第七の情報を受信するステップであって、第七の情報は、第一のインテリジェントモデルの更新済み訓練ポリシーを示し、および/または、第一のインテリジェントモデルの更新済み構成を示す、ステップ。
【0063】
第三の態様に関連して、第三の態様における幾つかの実装では、第七の情報は、訓練ポリシーにおける少なくとも一つの変形、および/または第一のインテリジェントモデルの構成における少なくとも一つの変形を特に示す。
【0064】
第四の態様によれば、通信方法が提供される。本方法は、アクセスネットワークノード、またはアクセスネットワークノードに配置された(もしくは使用された)モジュール(例えば、チップなど)によって実行され得る。
【0065】
本方法は、以下を含む。すなわち、第二の情報を送信するステップであって、第二の情報は、第一のインテリジェントモデルの構成を示し、第二の情報は、以下の第一のインテリジェントモデルの構成情報、すなわち、ネットワーク層の構成情報、入力データの次元、または出力データの次元のうちの一つまたは複数を含む、ステップ。
【0066】
ネットワーク層の構成情報は、第一の態様において説明されたものと同じである。簡潔にするために、詳細については、本明細書では改めて説明しない。
【0067】
第四の態様に関連して、第四の態様における幾つかの実装では、本方法は、以下をさらに含む。すなわち、第一の情報を送信するステップであって、第一の情報は、第一のインテリジェントモデルの訓練ポリシーを示す、ステップ。
【0068】
訓練ポリシーは、第一の態様において説明されたものと同じである。簡潔にするために、詳細については、本明細書では改めて説明しない。
【0069】
第四の態様に関連して、第四の態様における幾つかの実装では、本方法は、以下をさらに含む。すなわち、第三の情報を送信するステップであって、第三の情報は、訓練データセットに関する情報を示し、その訓練データセットは、第一のインテリジェントモデルを訓練するために使用される、ステップ。
【0070】
第四の態様に関連して、第四の態様における幾つかの実装では、本方法は、以下をさらに含む。すなわち、能力情報を受信するステップであって、能力情報は、インテリジェントモデルを稼働させるための能力を示す、ステップ。
【0071】
能力情報は、第一の態様において説明されたものと同じである。簡潔にするために、詳細については、本明細書では改めて説明しない。
【0072】
第四の態様に関連して、第四の態様における幾つかの実装では、本方法は、以下をさらに含む。すなわち、第四の情報を送信するステップであって、第四の情報は、テスト情報を示し、このテスト情報は、第一のインテリジェントモデルの性能をテストするために使用される、ステップ。
【0073】
テスト情報は、第一の態様において説明されたものと同じである。簡潔にするために、詳細については、本明細書では改めて説明しない。
【0074】
第四の態様に関連して、第四の態様における幾つかの実装では、本方法は、以下をさらに含む。すなわち、第五の情報を受信するステップであって、第五の情報は、第一のインテリジェントモデルのテスト結果を示す、ステップ。および/または、第六の情報を受信するステップであって、第六の情報は、推論データを示し、この推論データは、第一のインテリジェントモデルによるテストデータに基づく推論を通して取得され、そのテスト情報は、テストデータを含む、ステップ。
【0075】
第四の態様に関連して、第四の態様における幾つかの実装では、本方法は、以下をさらに含む。すなわち、第七の情報を送信するステップであって、第七の情報は、第一のインテリジェントモデルの更新済み訓練ポリシーを示し、および/または第一のインテリジェントモデルの更新済み構成を示す、ステップ。
【0076】
第四の態様に関連して、第四の態様における幾つかの実装では、第七の情報は、訓練ポリシーにおける少なくとも一つの変形、および/または第一のインテリジェントモデルの構成における少なくとも一つの変形を特に示す。
【0077】
第五の態様によれば、通信装置が提供される。設計では、本装置は、第一の態様において説明された方法/操作/手順/動作を実行するために対応するモジュールを含み得る。これらのモジュールは、ハードウェア回路であってもよく、ソフトウェアであってもよいし、またはハードウェア回路およびソフトウェアを組み合わせて使用することによって実装されてもよい。設計では、本装置は、以下を含む。すなわち、第一の情報を受信するように構成されるトランシーバユニットであって、第一の情報は、第一のインテリジェントモデルの訓練ポリシーを示す、トランシーバユニット。および、訓練ポリシーに従って第一のインテリジェントモデルに対してモデル訓練を実行するように構成される処理ユニット。
【0078】
第六の態様によれば、通信装置が提供される。設計では、本装置は、第二の態様において説明された方法/操作/手順/動作を実行するために対応するモジュールを含み得る。これらのモジュールは、ハードウェア回路であってもよく、ソフトウェアであってもよいし、またはハードウェア回路およびソフトウェアを組み合わせて使用することによって実装されてもよい。設計では、本装置は、以下を含む。すなわち、第一のインテリジェントモデルの訓練ポリシーを決定するように構成される処理ユニット。および、第一の情報を送信するように構成されるトランシーバユニットであって、第一の情報は、第一のインテリジェントモデルの訓練ポリシーを示す、トランシーバユニット。
【0079】
第七の態様によれば、通信装置が提供される。設計では、本装置は、第三の態様において説明された方法/操作/手順/動作を実行するために対応するモジュールを含み得る。これらのモジュールは、ハードウェア回路であってもよく、ソフトウェアであってもよいし、またはハードウェア回路およびソフトウェアを組み合わせて使用することによって実装されてもよい。設計では、本装置は、以下を含む。すなわち、第二の情報を受信するように構成されるトランシーバユニットであって、第二の情報は、第一のインテリジェントモデルの構成を示し、第二の情報は、第一のインテリジェントモデルの以下の構成情報、すなわち、ネットワーク層の構成情報、入力データの次元、または出力データの次元のうちの一つまたは複数を含む、トランシーバユニット。および、第二の情報に基づいて第一のインテリジェントモデルの構成を決定するように構成される処理ユニット。この処理ユニットは、第一のインテリジェントモデルに対してモデル訓練を実行するようにさらに構成される。
【0080】
第八の態様によれば、通信装置が提供される。設計では、本装置は、第四の態様において説明された方法/動作/手順/動作を実行するために対応するモジュールを含み得る。これらのモジュールは、ハードウェア回路であってもよく、ソフトウェアであってもよいし、またはハードウェア回路およびソフトウェアを組み合わせて使用することによって実装されてもよい。設計では、本装置は、以下を含む。すなわち、第一のインテリジェントモデルの構成を決定するように構成される処理ユニット。および、第二の情報を受信するように構成されるトランシーバユニットであって、第二の情報は、第一のインテリジェントモデルの構成を示し、第二の情報は、第一のインテリジェントモデルの以下の構成情報、すなわち、ネットワーク層の構成情報、入力データの次元、または出力データの次元のうちの一つまたは複数を含む、トランシーバユニット。
【0081】
第九の態様によれば、通信装置が提供される。本装置はプロセッサを含む。このプロセッサは、第一の態様または第三の態様と、第一の態様または第三の態様における可能な実装とのうちの何れか一つによる方法を実装し得る。任意選択で、本通信装置は、メモリをさらに含む。プロセッサは、そのメモリに結合され、メモリ内の命令を実行して、第一の態様または第三の態様と、第一の態様または第三の態様における可能な実装とのうちの何れか一つによる方法を実装するように構成され得る。任意選択で、本通信装置は、通信インターフェースをさらに含む。プロセッサは、その通信インターフェースに結合される。本開示では、通信インターフェースは、トランシーバ、ピン、回路、バス、モジュール、または別のタイプの通信インターフェースであってよい。これは限定されない。
【0082】
実装では、本通信装置は、端末である。本通信装置が端末である場合、通信インターフェースは、トランシーバまたは入出力インターフェースとし得る。
【0083】
別の実装では、本通信装置は、端末に配置されたチップである。本通信装置が端末に配置されたチップである場合、通信インターフェースは、入出力インターフェースとし得る。
【0084】
任意選択で、トランシーバは、トランシーバ回路であってもよい。任意選択で、入出力インターフェースは、入出力回路であってもよい。
【0085】
第十の態様によれば、通信装置が提供される。本装置は、プロセッサを含む。このプロセッサは、第二の態様または第四の態様と、第二の態様または第四の態様における可能な実装とのうちの何れか一つによる方法を実装し得る。任意選択で、本通信装置は、メモリをさらに含む。プロセッサは、そのメモリに結合され、メモリ内の命令を実行して、第二の態様または第四の態様と、第二の態様または第四の態様における可能な実装とのうちの何れか一つによる方法を実装するように構成され得る。任意選択で、本通信装置は、通信インターフェースをさらに含む。プロセッサは、その通信インターフェースに結合される。
【0086】
実装では、本通信装置は、アクセスネットワークノードである。本通信装置がアクセスネットワークノードである場合、通信インターフェースは、トランシーバであってもよいし、または入出力インターフェースであってもよい。
【0087】
別の実装では、本通信装置は、アクセスネットワークノードに配置されたチップである。本通信装置が第一のアクセスネットワークノードに配置されたチップである場合、通信インターフェースは、入出力インターフェースとし得る。
【0088】
任意選択で、トランシーバは、トランシーバ回路であってもよい。任意選択で、入出力インターフェースは、入出力回路であってもよい。
【0089】
第十一の態様によれば、プロセッサが提供される。本プロセッサは、入力回路、出力回路、および処理回路を含む。この処理回路は、入力回路を介して信号を受信し、出力回路を介して信号を送信して、プロセッサが、第一の態様ないし第四の態様と、第一の態様ないし第四の態様における可能な実装とのうちの何れか一つによる方法を実行することを可能にするように構成される。
【0090】
特定の実装中、プロセッサは、一つまたは複数のチップであってよく、入力回路は、入力ピンであってよく、出力回路は、出力ピンであってよく、処理回路は、トランジスタ、ゲート回路、トリガー、任意の論理回路、または同様のものであってよい。入力回路によって受信された入力信号は、例えば、受信機によって受信および入力されてよいが、これらに限定されない。出力回路によって出力された信号は、例えば、送信機に出力され、送信機によって送信されてよいが、これらに限定されない。また、入力回路および出力回路は、同じ回路であってよく、この回路は、異なる時点で入力回路および出力回路として使用される。プロセッサおよび種々の回路における特定の実装は、本開示では限定されない。
【0091】
第十二の態様によれば、コンピュータプログラム製品が提供される。本コンピュータプログラム製品は、コンピュータプログラム(コードまたは命令と呼ばれることもある)を含む。コンピュータプログラムが実行されると、コンピュータは、第一の態様ないし第四の態様と、第一の態様ないし第四の態様における可能な実装とのうちの何れか一つによる方法を実行することが可能になる。
【0092】
第十三の態様によれば、コンピュータ可読記憶媒体が提供される。本コンピュータ可読記憶媒体は、コンピュータプログラム(コードまたは命令と呼ばれることもある)を格納する。コンピュータプログラムがコンピュータ上で稼働されると、そのコンピュータは、第一の態様ないし第四の態様と、第一の態様ないし第四の態様における可能な実装とのうちの何れか一つによる方法を実行することが可能になる。
【0093】
第十四の態様によれば、通信システムが提供される。本通信システムは、端末の方法を実装するように構成される、上述した装置のうちの少なくとも一つと、アクセスネットワークノードの方法を実装するように構成される、上述した装置のうちの少なくとも一つとを含む。
【図面の簡単な説明】
【0094】
図1】本開示による、通信システムの図である。
図2A】本開示による、通信システムにおけるAIのアプリケーションフレームワークを例示する図である。
図2B】本開示による、ネットワークアーキテクチャを示す図である。
図2C】本開示による、ネットワークアーキテクチャを示す図である。
図2D】本開示による、ネットワークアーキテクチャを示す図である。
図2E】本開示による、ネットワークアーキテクチャを示す図である。
図2F】本開示による、ニューラルネットワーク層の間の関係を示す図である。
図3】本開示による、インテリジェントモデルの訓練プロセスを示す図である。
図4】本開示による、通信方法を示す概略フローチャートである。
図5A】本開示による、ドロップアウト手法を使用しないニューロンの入出力関係を示す図である。
図5B】本開示による、ドロップアウト手法を使用するニューロンの入出力関係を示す図である。
図5C】本開示による、通信方法を示す別の概略フローチャートである。
図6】本開示による、通信方法を示す別の概略フローチャートである。
図7】本開示による、通信装置の一例を示す概略ブロック図である。
図8】本開示による、端末装置の一例の構成を示す図である。
図9】本開示による、ネットワーク機器の一例の構成を示す模式図である。
【発明を実施するための形態】
【0095】
本開示では、「少なくとも一つの」が、「一つまたは複数」とさらに記載されることがあり、「複数の」が、二つ、三つ、または四つ、またはそれ以上のことがある。これは限定されない。「/」は、関連するオブジェクト間の「または」関係を表し得る。例えば、A/Bは、AまたはBを表し得る。「および/または」は、関連するオブジェクト間に三つの関係が存在することを表すために使用され得る。例えば、Aおよび/またはBは、以下の三つの場合を表し得る。すなわち、Aのみが存在すること、AおよびBの両方が存在すること、ならびにBのみが存在すること、であり、AおよびBは、単数形であってもよいし、または複数形であってもよい。本開示における技法的解決策の説明を容易にするために、「第一の」、「第二の」、「A」、または「B」などの用語が、同一の機能または同様の機能を伴う技法的特徴を区別するために使用されることがある。「第一の」、「第二の」、「A」、または「B」などの用語は、数量および実行順序を限定しない。また、「第一の」、「第二の」、「A」、または「B」などの用語は、明確に異なるものであることを限定しない。「例」または「例えば」などの用語は、例示、例証、または説明を表すために使用される。「例」または「例えば」として説明される如何なる設計解決策も、別の設計解決策よりも好ましい、または有利であるものと説明されるべきではない。「例」および「例えば」などの用語は、理解し易くするために、具体的な態様において関連する概念を提示するために使用される。
【0096】
図1は、本開示を適用することができる通信システム1000のアーキテクチャを示す図である。図1に示されるように、通信システムは、無線アクセスネットワーク(radio access network,RAN)100およびコアネットワーク(core network,CN)200を含む。任意選択で、通信システム1000は、インターネット300をさらに含み得る。無線アクセスネットワーク100は、少なくとも一つのアクセスネットワークノード(例えば、図1における110aおよび110bなど)を含み得て、さらに少なくとも一つの端末(例えば、図1における120aないし120jなど)を含み得る。端末は、無線通信方式においてアクセスネットワークノードに接続される。アクセスネットワークノードは、無線通信方式または有線通信方式においてコアネットワークに接続される。コアネットワーク機器およびアクセスネットワークノードは、相互に独立した別々の物理デバイスであってよいし、またはコアネットワーク機器の機能とアクセスネットワークノードの機能とを統合する同一の物理デバイスであってよいし、または別の可能な実例であってよい。例えば、一方の物理デバイスがアクセスネットワークノードの機能とコアネットワーク機器の機能の一部分とを統合してもよく、他方の物理デバイスがコアネットワーク機器の機能の残りの一部分を実装する。コアネットワーク機器およびアクセスネットワークノードの物理的存在形態は、本開示において限定されない。端末は、別の端末と有線方式において接続されてもよいし、または無線方式において接続されてもよい。アクセスネットワークノードは、有線手法において別のアクセスネットワークノードに接続されてもよいし、無線方式において別のアクセスネットワークノードに接続されてもよい。図1は、単なる図である。通信システムは、別のネットワーク機器をさらに含むことがあり、例えば、無線中継機器、無線バックホール機器、および同様のものをさらに含んでもよい。
【0097】
アクセスネットワークノードは、アクセスネットワーク機器とし得て、例えば、基地局(base station)、ノードB(NodeB)、進化型NodeB(evolved NodeB、eNodeB、またはeNB)、送受信点(transmission reception point,TRP)、第5世代(5th generation,5G)移動通信システムの次世代NodeB(next generation NodeB,gNB)、オープン無線アクセスネットワーク(open radio access network,O-RAN、またはopen RAN)のアクセスネットワークノード、第6世代(6th generation,6G)移動通信システムの次世代基地局、将来の移動通信システムの基地局、または無線フィデリティ(wireless fidelity,Wi-Fi)システムのアクセスノードであってよい。あるいは、アクセスネットワークノードは、基地局の機能の一部を補完するモジュールまたはユニットであってもよく、例えば、中央ユニット(central unit,CU)、分散ユニット(distributed unit,DU)、中央ユニット制御プレーン(central unit control plane,CU-CP)モジュール、または中央ユニットユーザープレーン(central unit user plane,CU-UP)モジュールであってもよい。アクセスネットワークノードは、マクロ基地局(例えば、図1における110aなど)であってもよいし、マイクロ基地局もしくは屋内基地局(例えば、図1における110bなど)であってもよいし、または中継ノード、ドナーノード、または同様のものであってもよい。アクセスネットワークノードによって使用される具体的な技術および具体的なデバイス形態は、本開示では限定されない。5Gシステムは、新無線(new radio,NR)システムと呼ばれることもある。
【0098】
本開示では、アクセスネットワークノードの機能を実装するように構成される装置は、アクセスネットワークノードであってもよいし、または、機能を実装する際にアクセスネットワークノードをサポートすることができる装置、例えば、チップシステム、ハードウェア回路、ソフトウェアモジュール、またはハードウェア回路+ソフトウェアモジュールであってもよい。この装置は、アクセスネットワークノードに設置されてもよいし、または整合方式においてアクセスネットワークノードと共に使用されてもよい。本開示では、チップシステムは、チップを含んでもよいし、またはチップおよび別のディスクリート・コンポーネントを含んでもよい。説明を容易にするために、以下では、アクセスネットワークノードの機能を実装するように構成される装置がアクセスネットワークノードであり、また任意選択で、このアクセスネットワークノードが基地局である例を使用することによって、本開示に提供される技法的解決策を説明する。
【0099】
端末は、端末機器、ユーザー機器(user equipment,UE)、移動局、移動端末、または同様のものと呼ばれることもある。端末は、通信用に種々のシナリオにおいて広く使用され得る。例えば、シナリオは、以下のシナリオのうちの少なくとも一つを含むが、これらに限定されない。すなわち、拡張モバイルブロードバンド(enhanced mobile broadband,eMBB)、超信頼低遅延通信(ultra-reliable low-latency communication,URLLC)、大規模マシン型通信(massive machine-type communication,mMTC)、端末間通信(device-to-device,D2D)、車車間/路車間通信(vehicle-to-everything, V2X)、マシン型通信(machine-type communication,MTC)、モノのインターネット(internet of things,IOT)、仮想現実、拡張現実、産業制御、自動運転、遠隔医療、スマートグリッド、スマート家具、スマートオフィス、スマートウェアラブル、インテリジェント輸送、スマートシティ、または同様のものである。端末は、携帯電話、タブレットコンピュータ、無線トランシーバ機能付きコンピュータ、ウェアラブル機器、車両、無人航空機、ヘリコプター、飛行機、船舶、ロボット、ロボットアーム、スマートホームデバイス、または同様のものであってよい。端末によって使用される具体的な技術および具体的なデバイス形態は、本開示では限定されない。
【0100】
本開示では、端末の機能を実装するように構成される装置は、端末であってもよいし、または、機能を実装する際に端末機器をサポートすることができる装置、例えば、チップシステム、ハードウェア回路、ソフトウェアモジュール、もしくはハードウェア回路+ソフトウェアモジュールなどであってもよい。この装置は、端末に組み込まれてもよいし、または整合方式において端末と共に使用されてもよい。説明を容易にするために、以下では、端末の機能を実装するように構成される装置が端末である例を使用することによって、また任意選択で、端末がUEである例を使用することによって、本開示に提供される技法的解決策を説明する。
【0101】
基地局および/または端末は、固定位置にあってもよいし、または移動可能であってもよい。基地局および/または端末は、陸上、屋内、もしくは屋外に配備されてもよいし、または、手持ち、もしくは車両搭載されてもよいし、水上に配置されてもよいし、飛行機、気球、もしくは空中の衛星上に配備されてもよい。基地局および端末に対する環境/シナリオは、本開示では限定されない。基地局および端末は、同じ環境/シナリオに配備されてもよいし、または異なる環境/シナリオに配備されてもよい。例えば、基地局および端末は、両方とも陸上に配置される。あるいは、基地局は陸上に配置され、端末は水上に配置される。これらの例は、一つ一つ提供されるわけではない。
【0102】
基地局および端末の役割は、相対的なものであり得る。例えば、図1におけるヘリコプターまたは無人航空機120iは、移動基地局として構成され得る。無線アクセスネットワーク100に120iを介してアクセスする端末120jに対して、端末120iは基地局となり、一方、基地局110aに対しては、120iは端末になり得る。換言すると、110aおよび120iは、無線エアー・インターフェースプロトコルに従って相互に通信し得る。あるいは、110aおよび120iは、基地局間のインターフェースプロトコルに従って相互に通信する。この場合には110aに対して、120iは基地局にもなる。そのため、基地局および端末は、総称として通信装置(または通信機器)と呼ばれることがある。図1における110aおよび110bは、基地局機能を有する通信装置と呼ばれることがあり、図1における120aないし120jは、端末機能を有する通信装置と呼ばれることがある。
【0103】
任意選択で、アクセスネットワークノードおよび端末の間のプロトコル層構成は、人工知能(artificial intelligence,AI)機能に関連するデータの伝送に使用されるAI層を含み得る。
【0104】
本開示では、独立したネットワーク要素(例えば、AIエンティティ、AIネットワーク要素、AIノード、またはAIデバイスなどと呼ばれる)が、AI関連の動作を実装するために、図1に示される通信システムに導入され得る。AIネットワーク要素は、基地局に直接接続されてもよいし、またはサードパーティネットワーク要素を介して基地局に間接的に接続されてもよい。任意選択で、サードパーティネットワーク要素は、コアネットワーク要素であってもよく、例えば、アクセスおよびモビリティ管理機能(access and mobility management function,AMF)ネットワーク要素、またはユーザープレーン機能(user plane function,UPF)ネットワーク要素であってよい。あるいは、AIエンティティ(AIモジュールまたは別の名称で呼ばれることもある)が、通信システム内のネットワーク要素に配置されて、AI関連動作を実装してもよい。任意選択で、AIエンティティが配置されるネットワーク要素は、基地局、コアネットワーク機器、運用、管理、および保守(operations, administration, and maintenance,OAM)デバイス、または同様のものであってもよい。OAMは、コアネットワーク機器の運用、管理、および/または保守(an operations, administration, and maintenance system of the core network device)のために構成され、および/またはアクセスネットワークノードの運用、管理、および/または保守(an operations, administration, and maintenance system of the access network node)のために構成される。
【0105】
任意選択で、AIに整合して、AIをサポートするために、AIエンティティは、端末または端末チップに統合されてもよい。
【0106】
任意選択で、本開示では、AIエンティティは、別の名称、例えば、AIモジュールまたはAIユニットなどと呼ばれることもあり、AI機能(またはAI関連動作と呼ばれる)を実装するように主に構成される。AIエンティティの特定の名称は、本開示では限定されない。
【0107】
本開示では、AIモデルは、AI機能を実装するための特定の方法である。AIモデルは、モデルの入力および出力の間のマッピング関係を表す。AIモデルは、ニューラルネットワーク、線形回帰モデル、決定木モデル、SVDクラスタリングモデル、または別の機械学習モデルであってよい。AIモデルは、略してインテリジェントモデル、モデル、または別の名称で呼ばれることがある。これは限定されない。AI関連動作は、以下のうちの少なくとも一つを含み得る。すなわち、データ収集、モデル訓練、モデル情報リリース、モデルテスト(またはモデルチェックと呼ばれる)、モデル推論(またはモデル推論、推論、予測、もしくは同様のものと呼ばれる)、推論結果リリース、または同様のもの、である。
【0108】
図2Aは、通信システムにおけるAIの第一のアプリケーションフレームワークの一例を示す図である。図2Aにおいて、データソース(data source)が、訓練データおよび推論データを格納するために使用される。モデル訓練ホスト(model training host)は、データソースによって提供される訓練データ(training data)を分析または訓練して、AIモデルを取得し、そのAIモデルをモデル推論ホスト(model inference host)に配備する。AIモデルは、モデルの入力および出力の間のマッピング関係を表す。モデル訓練ホストによる学習を通じてAIモデルを取得することは、訓練データを使用することによって、モデル訓練ホストによる学習を通じてモデルの入力および出力の間のマッピング関係を取得することと同等である。モデル推論ホストは、AIモデルを使用して、データソースによって提供される推論データに基づいて推論を実行し、推論結果を取得する。また、本方法は、以下のように説明され得る。すなわち、モデル推論ホストは、推論データをAIモデルに入力し、そのAIモデルを使用することによって出力を取得し、その出力は、推論結果になる。この推論結果は、実行オブジェクトによって使用される(作動される)構成パラメータ、および/または実行オブジェクトによって実行される動作を示し得る。また、推論結果は、アクター(actor)エンティティによって一律に計画され、実行のために一つまたは複数の実行オブジェクト(例えば、ネットワーク要素など)に送信され得る。任意選択で、モデル推論ホストは、モデル推論ホストの推論結果をモデル訓練ホストにフィードバックし得る。このプロセスは、モデルフィードバックと呼ばれることがある。フィードバックパラメータは、AIモデルを更新し、更新済みのAIモデルをモデル推論ホストに配置するために、モデル訓練ホストによって使用される。任意選択で、実行オブジェクトは、実行オブジェクトによって収集されたネットワークパラメータをデータソースにフィードバックし得る。このプロセスは、性能フィードバックと呼ばれることがある。フィードバック済みのパラメータは、訓練データまたは推論データとして使用され得る。
【0109】
本開示では、図2Aに示されるアプリケーションフレームワークは、図1に示されるネットワーク要素に配置され得る。例えば、図2Aにおけるアプリケーションフレームワークは、図1における端末機器、アクセスネットワーク機器、コアネットワーク機器、または独立配備されたAIネットワーク要素(図示されない)、のうちの少なくとも一つに配備され得る。例えば、AIネットワーク要素(モデル訓練ホストと見做され得る)は、端末機器および/またはアクセスネットワーク機器によって提供される訓練データ(training data)に対して分析または訓練を実行して、モデルを取得し得る。端末機器、アクセスネットワーク機器、またはコアネットワーク機器のうちの少なくとも一つ(モデル推論ホストと見做され得る)は、モデルおよび推論データを使用することによって推論を実行して、モデルの出力を取得し得る。推論データは、端末機器および/またはアクセスネットワーク機器によって提供され得る。モデルの入力は、推論データを含み、モデルの出力は、モデルに対応する推論結果になる。端末機器、アクセスネットワーク機器、またはコアネットワーク機器のうちの少なくとも一つ(実行オブジェクトと見做され得る)は、推論データおよび/または推論結果に基づいて、対応する動作を実行し得る。モデル推論ホストおよび実行オブジェクトは、同じであってもよいし、または異なっていてもよい。これは、限定されない。
【0110】
図2Bないし図2Eを参照して、以下では、本開示に提供される通信解決策を適用することができるネットワークアーキテクチャについて説明する。
【0111】
図2Bに示されるように、第一の可能な実装では、アクセスネットワーク機器は、モデル学習および推論を実行するように構成される、準リアルタイム・アクセスネットワーク・インテリジェント制御(RAN intelligent controller,RIC)モジュールを含む。例えば、準リアルタイムRICは、AIモデルを訓練し、そのAIモデルを推論に使用するように構成され得る。例えば、準リアルタイムRICは、CU、DU、またはRUのうちの少なくとも一つからネットワーク側および/または端末側にある情報を取得し得る。この情報は、訓練データとして使用されてもよいし、または推論データとして使用されてもよい。任意選択で、準リアルタイムRICは、推論結果をCU、DU、またはRUのうちの少なくとも一つに提出し得る。任意選択で、CUおよびDUは、推論結果を交換し得る。任意選択で、DUおよびRUは、推論結果を交換し得る。例えば、準リアルタイムRICは、推論結果をDUに提出し、DUは、その推論結果をRUに転送する。
【0112】
図2Bに示されるように、第二の可能な実装では、非リアルタイムRIC(任意選択で、非リアルタイムRICは、OAMまたはコアネットワーク機器に配置され得る)がアクセスネットワークの外部にあり、モデル学習および推論を実行するように構成される。例えば、非リアルタイムRICは、AIモデルを訓練し、そのモデルを推論に使用するように構成される。例えば、非リアルタイムRICは、ネットワーク側および/または端末側にある情報をCU、DU、またはRUのうちの少なくとも一つから取得し得る。この情報は、訓練データとして使用されもよいし、または推論データとして使用されてもよく、推論結果は、CU、DU、またはRUのうちの少なくとも一つに提出されてよい。任意選択で、CUおよびDUは、推論結果を交換し得る。任意選択で、DUおよびRUは、推論結果を交換し得る。例えば、非リアルタイムRICは、推論結果をDUに提出し、DUは、その推論結果をRUに転送する。
【0113】
図2Bに示されるように、第三の可能な実装では、アクセスネットワーク機器が、準リアルタイムRICを含み、非リアルタイムRIC(任意選択で、非リアルタイムRICはOAMまたはコアネットワーク機器に設置され得る)が、アクセスネットワークの外部にある。第二の可能な実装と同様に、非リアルタイムRICは、モデル学習および推論を実行するように構成され得る。追加的/代替的に、第一の可能な実装と同様に、準リアルタイムRICは、モデル学習および推論を実行するように構成され得る。追加的/代替的に、準リアルタイムRICは、非リアルタイムRICからAIモデル情報を取得し、CU、DU、またはRUのうちの少なくとも一つからネットワーク側および/または端末側にある情報を取得し、その情報およびAIモデル情報を使用することによって推論結果を取得し得る。任意選択で、準リアルタイムRICは、推論結果をCU、DU、またはRUのうちの少なくとも一つに提出し得る。任意選択で、CUおよびDUは、推論結果を交換し得る。任意選択で、DUおよびRUは、推論結果を交換し得る。例えば、準リアルタイムRICは、推論結果をDUに提出し、DUは、その推論結果をRUに提出する。例えば、準リアルタイムRICは、モデルAを訓練するように、およびそのモデルAを推論に使用するように構成される。例えば、非リアルタイムRICは、モデルBを訓練し、そのモデルBを推論に使用するように構成される。例えば、非リアルタイムRICは、モデルCを訓練するように構成され、準リアルタイムRICにモデルCに関する情報を提出し、準リアルタイムRICは、モデルCを推論に使用する。
【0114】
図2Cは、本開示に提供される方法を適用することができるネットワークアーキテクチャの一例を示す図である。図2Bと比較して、図2Cでは、CUは、CU-CPおよびCU-UPに分割される。
【0115】
図2Dは、本開示に提供される方法を適用することができるネットワークアーキテクチャの一例を示す図である。図2Dに示されるように、任意選択で、アクセスネットワーク機器は、一つまたは複数のAIエンティティを含み、AIエンティティの機能は、上述した準リアルタイムRICの機能と同様である。任意選択で、OAMは、一つまたは複数のAIエンティティを含み、AIエンティティの機能は、上述した非リアルタイムRICの機能と同様である。任意選択で、コアネットワーク機器は、一つまたは複数のAIエンティティを含み、AIエンティティの機能は、上述した非リアルタイムRICの機能と同様である。OAMおよびコアネットワーク機器がAIエンティティをそれぞれ含む場合、OAMおよびコアネットワーク機器のAIエンティティによる訓練を通して得られるモデルは、それぞれ異なっており、かつ/または推論に使用されるモデルは、それぞれ異なっている。
【0116】
本開示では、モデル差異は、以下の差異のうちの少なくとも一つを含む。すなわち、モデルの構成パラメータ(例えば、モデル層の数量、モデル幅、層間の接続関係、ニューロンの重み、ニューロンの活性化関数、もしくは活性化関数内のオフセット、のうちの少なくとも一つなど)、モデルの入力パラメータ(例えば、入力パラメータのタイプ、および/もしくは入力パラメータの次元など)、またはモデルの出力パラメータ(例えば、出力パラメータのタイプ、および/もしくは出力パラメータの次元など)、である。
【0117】
図2Eは、本開示に提供される方法を適用することができるネットワークアーキテクチャの一例を示す図である。図2Dと比較して、図2Eにおけるアクセスネットワーク機器は、CUおよびDUに分割される。任意選択で、CUは、AIエンティティを含み得て、AIエンティティの機能は、準リアルタイムRICの機能と同様である。任意選択で、DUは、AIエンティティを含み得て、AIエンティティの機能は、準リアルタイムRICの機能と同様である。CUおよびDUがAIエンティティをそれぞれ含む場合、CUおよびDUのAIエンティティによる訓練を通して得られるモデルは、それぞれ異なり、および/または推論に使用されるモデルは、それぞれ異なる。任意選択で、図2EにおけるCUは、CU-CPおよびCU-UPにさらに分割され得る。任意選択で、一つまたは複数のAIモデルは、CU-CPに配備され得る。任意選択で、一つまたは複数のAIモデルは、CU-UPに配備され得る。
【0118】
任意選択で、上述されるように、図2Dまたは図2Eにおいて、アクセスネットワーク機器のOAMと、コアネットワーク機器のOAMとは、別々に配備され得る。図2Dまたは図2Eにおいて、コアネットワーク機器は、例えば、含む一つまたは複数のモジュールを含み得る。
【0119】
本開示では、一つのパラメータまたは複数のパラメータが、一つのモデルを使用することによる推論を通じて取得され得る。異なるモデルの学習プロセスは、異なるデバイスもしくはノードに配置されてもよいし、または同じデバイスもしくはノードに配置されてもよい。異なるモデルの推論プロセスは、異なるデバイスもしくはノードに配置されてもよいし、または同じデバイスもしくはノードに配置されてもよい。
【0120】
本開示において説明されるネットワークアーキテクチャおよびサービスシナリオは、本開示における技法的解決策をより明確に説明することを意図しており、本開示に提供される技法的解決策に対して限定を構成するものではない。当業者であれば、ネットワークアーキテクチャの進展および新たなサービスシナリオの出現に伴い、本開示に提供される技法的解決策が、同様の技法的問題にも適用可能であると理解し得る。
【0121】
本開示における方法を説明する前に、人工知能に関する幾つかの関連知識について、最初に簡単に説明する。人工知能は、マシンに人間の知能を付与することができる。例えば、マシンは、コンピュータソフトウェアおよびハードウェアを使用することによって、幾つかの知的な人間の行動のシミュレーションを行うことができる。人工知能を実装するために、機械学習法または別の方法が使用され得る。これは、限定されない。
【0122】
ニューラルネットワーク(neural network,NN)は、機械学習の特定の実装である。一般近似定理によれば、ニューラルネットワークは、理論的に任意の連続関数を近似することができ、これにより、ニューラルネットワークは、任意のマッピングを学習することができるようになる。そのため、ニューラルネットワークは、複雑な高次元問題に対して抽象的なモデル化を正確に実行することができる。換言すると、インテリジェントモデルは、ニューラルネットワークを使用することによって実装され得る。
【0123】
ニューラルネットワークの概念は、脳組織のニューロン構成に由来している。各ニューロンは、ニューロンの入力値に対して加重和演算を実行し、活性化関数を通して加重和の結果を出力する。ニューロンの入力がx=[x,...,x]であり、入力に対応する重み(またはウェイトと呼ばれる)がw=[w,...,w]であり、加重和のオフセットがbである、と仮定される。活性化関数の形式は、多様であり得る。ニューロンの活性化関数がy=f(z)=max(0,z)である場合、ニューロンの出力は
【0124】
【数1】
【0125】
になる。別の例として、ニューロンの活性化関数がy=f(z)=zである場合、ニューロンの出力は、
【0126】
【数2】
【0127】
になる。ニューロンの入力x内の要素x、重みwの要素w、またはオフセットbは、十進数、整数(0、正の整数、負の整数、もしくは同様のものを含む)、または複素数などの、種々の可能な値を取り得る。ニューラルネットワーク内の異なるニューロンの活性化関数は、同じであってもよいし、または異なっていてもよい。
【0128】
ニューラルネットワークは、一般に、多層構成を含み、各層は、一つまたは複数のニューロンを含み得る。ニューラルネットワークの深さ、および/または幅を増加させることは、ニューラルネットワークの表現能力を向上させ、より強力な情報抽出および抽象モデル化能力を複雑なシステムに提供することができる。ニューラルネットワークの深さは、ニューラルネットワークに含まれる層の数量を示し、各層に含まれるニューロンの数量は、層の幅と呼ばれることがある。図2Fは、ニューラルネットワークの層関係を示す図である。
【0129】
実装では、ニューラルネットワークは、入力層および出力層を含む。受け取り済みの入力に対してニューロン処理を実行した後、ニューラルネットワークの入力層が、結果を出力層に転送し、出力層が、ニューラルネットワークの出力結果を取得する。
【0130】
別の実装では、ニューラルネットワークは、入力層、隠れ層、および出力層を含む。ニューラルネットワークの入力層が、受け取り済みの入力に対してニューロン処理を実行し、次いで、結果を中間の隠れ層に転送する。次いで、隠れ層が、計算結果を出力層または隣接する隠れ層に転送する。最後に、出力層が、ニューラルネットワークの出力結果を取得する。一つのニューラルネットワークは、順次に接続される一つまたは複数の隠れ層を含み得る。これは、限定されない。
【0131】
AIモデルの訓練プロセスでは、損失関数が定義され得る。損失関数は、AIモデルの出力値と理想的な目標値との間の差を説明する。損失関数の特定の形式は、本開示では限定されない。AIモデルの訓練プロセスは、AIモデルのパラメータの一部または全部を調整するプロセスであり、これにより、損失関数の値は、閾値未満になるように、または目標要件を満たすようになる。例えば、AIモデルは、ニューラルネットワークである。ニューラルネットワークの訓練プロセスでは、以下のパラメータのうちの一つまたは複数が調整され得て、これにより、ニューラルネットワークの出力と理想的な目標値との差は、可能な限り小さくなる。すなわち、ニューラルネットワークの層の数量、ニューラルネットワークの幅、層間の接続関係、ニューロンの重み、ニューロンの活性化関数、または活性化関数のオフセット、である。
【0132】
図3は、インテリジェントモデルの訓練プロセスの一例を示す図である。図3に示されるように、インテリジェントモデルがニューラルネットワークモデルであり、そのニューラルネットワークfθ(・)が、4層の畳み込み層を有するネットワークと、4層の完全接続層を有するネットワークとを含み得るという例を使用して説明する。AIエンティティは、訓練データを基本データセット(例えば、チャネルデータのセットなど)から取得し得る。訓練データは、訓練サンプルおよびラベルを含み得る。入力として使用されると、サンプルxが、ニューラルネットワークfθ(・)によって処理され、次いで、推論結果fθ(x)が出力される。推論結果およびラベルの間の誤差は、損失関数を使用することによって計算を通して取得される。AIエンティティは、損失関数を使用することによって得られる誤差に基づいて、逆伝搬最適化アルゴリズム(モデル最適化アルゴリズムと呼ばれることがある)を使用することによって、ネットワークパラメータθを最適化し得る。ニューラルネットワークは、大量の訓練データを使用することによって訓練され、これにより、ニューラルネットワークの訓練は、ニューラルネットワークの出力およびラベルの差がプリセット値未満になった後に完了するようになる。
【0133】
図3に示される訓練プロセスでは、教師あり学習の訓練手法が使用されており、換言すると、損失関数を使用することによって、モデル訓練がサンプルおよびラベルに基づいて実装されることは、留意されるべきである。インテリジェントモデルの訓練プロセスは、代替的に、教師なし学習を使用してもよい。サンプルの内部パターンは、サンプルに基づくインテリジェントモデルの訓練を完了するために、アルゴリズムを使用することによって学習される。インテリジェントモデルの訓練プロセスは、代替的に、強化学習を使用してもよい。環境によってフィードバックされる励起信号は、問題解決ポリシーを学習させ、モデルを最適化するために、環境との相互作用を通じて取得される。モデル訓練方法およびモデルタイプは、本開示では限定されない。
【0134】
訓練済みのAIモデルは、推論タスクを実行することができる。実際のデータが処理のためにAIモデルに入力された後に、対応する推論結果が取得される。任意選択で、一つのパラメータまたは複数のパラメータが、一つのAIモデルを使用することによる推論にを通して取得され得る。
【0135】
無線通信システムにおいて人工知能を適用すると、通信システムの性能を大幅に向上させることができる。ほとんどのシナリオにおいて、ネットワーク側および端末は、無線通信性能を改善するために、マッチング人工知能モデルを使用する必要がある。例えば、端末は、圧縮エンコーダモデルを使用することによって、アップリンク情報に対する圧縮符号化を実行し、次いで、符号化アップリンク情報をネットワーク側に送信し得て、ネットワーク側は、マッチングデコーダモデルを使用することによって、復号化アップリンク情報を復号して、端末によって送信されたアップリンク情報を取得する。無線通信の分野における人工知能の適用は、通常、複雑な非線形関数フィットに関連する。インテリジェントモデルの規模は、通常大きくなり、例えば、モデル層の数量が大きくなり、モデルパラメータの数量が大きくなる。例えば、CSIフィードバック圧縮を実装するエンコーダモデルの畳み込みニューラルネットワーク(convolutional neural network,CNN)は、15層のニューラルネットワーク層を含み得る。
【0136】
性能要件を満たすために、端末によって使用されるインテリジェントモデルは、通常、ネットワークによって指定される。ネットワーク側は、事前定義された複数のモデルから一つのモデルを選択し、そのモデルの識別子を端末に通知し得て、これにより、端末は、識別子に基づいて、使用対象のモデルを決定できるようになる。しかしながら、端末には種々のタイプがあり、チャネル環境は複雑で変化し易く、事前定義されたモデルの数量は限られている。そのため、全ての環境において良好な通信性能を確保することができない。通信性能を確保するために、ネットワーク側は、代替的に、端末にインテリジェントモデルを端末に供給することがある。しかしながら、インテリジェントモデルのパラメータの数量が大きくなり、大量のエアー・インターフェース・リソースが占有される必要があり、これは、サービスデータの伝送効率に影響を及ぼす。端末がネットワークからモデルをダウンロードする場合、その端末は、モデルの構成パラメータ、各ニューロンの重み、活性化関数、オフセット、および同様のものをダウンロードする必要がある。パラメータの総量は、数十万個の浮動小数点数に達する。この場合、エアー・インターフェース・リソースのオーバーヘッドが膨大になり、これにより、サービスデータのエアー・インターフェース・リソースが低減され、サービスデータの伝送効率が低下することになる。この問題に対して、本開示は、以下を提案する。すなわち、ネットワークは、インテリジェントモデルの訓練ポリシーを端末に通知し得て、その端末は、ネットワークによって提供される訓練ポリシーに従ってインテリジェントモデルを訓練し、これにより、端末による訓練を通して得られるモデルは、ネットワークによって使用されるモデルと整合することができ、それによって、期待される性能要件を満たすようになること、である。
【0137】
以下では、添付の図面を参照して、本開示に提供される通信方法を説明する。端末およびアクセスネットワークノードの間の相互作用を例として本明細書では使用するが、本出願がこれに限定されないことは、留意されるべきである。本開示に提供される通信方法は、任意の二つのノード間において使用され得る。一方のノードは、インテリジェントモデルの訓練ポリシーおよび/またはモデル構成を他方のノードから取得し、その訓練ポリシーに従って、および/またはモデル構成に基づいて、モデル訓練を実行する。本開示では、上述されるように、アクセスネットワークノードにおける一つまたは複数のモジュール(RU、DU、CU、CU-CP、CU-UP、または準リアルタイムRICなど)は、アクセスネットワークノードの対応する方法または動作を実装し得る。
【0138】
図4は、本開示による、通信方法400を示す模式的フローチャートである。
【0139】
S401:アクセスネットワークノードは、第一の情報を端末に送信し、第一の情報は、第一のインテリジェントモデルの訓練ポリシーを示す。
【0140】
これに応じて、その端末は、アクセスネットワークノードから第一の情報を受信する。この端末は、第一の情報に基づいて、第一のインテリジェントモデルの訓練ポリシーを決定する。
【0141】
本開示では、限定ではなく例として、訓練ポリシーは、以下のうちの一つまたは複数を含む。すなわち、
モデル訓練手法、損失関数情報、モデル初期化手法、モデル最適化アルゴリズムのタイプ、または最適化アルゴリズムのパラメータ
である。
【0142】
以下、上述した訓練ポリシーについて、一つずつ説明する。
【0143】
(1)モデル訓練手法
【0144】
第一の情報は、端末が第一のインテリジェントモデルを訓練する訓練手法を示し得て、その端末は、第一の情報によって示されるモデル訓練手法において第一のインテリジェントモデルを訓練し得て、これにより、訓練を通して得られる第一のインテリジェントモデルは、ネットワーク側にあるインテリジェントモデルと整合することができるようになる。このようにして、無線通信性能が向上する。
【0145】
例えば、第一の情報は、教師あり学習、教師なし学習、または強化学習のうちの一つにおいて、第一のインテリジェントモデルを訓練するように端末に指示し得る。ただし、本開示は、これに限定されない。
【0146】
(2)損失関数情報
【0147】
第一の情報は、損失関数情報を含み得る。第一の情報を受信した後、端末は、損失関数情報に基づいて、第一のインテリジェントモデルを訓練するために使用される損失関数を取得し得る。
【0148】
アクセスネットワークノードは、損失関数情報を使用することによって、使用される損失関数を端末に通知し得る。損失関数情報は、損失関数を直接的に示し得て、または損失関数情報は、事前定義された複数の損失関数のうちの一つの識別情報を示し得る。
【0149】
一例では、端末は、教師あり学習の手法において、第一のインテリジェントモデルを訓練し得る。例えば、教師あり学習の訓練手法は、事前定義され得て、またはアクセスネットワークノードは、第一の情報を使用することによって、モデル訓練手法が教師あり学習の訓練手法であることを示す。例えば、教師あり学習のモデル訓練手法の訓練目的は、損失関数の値が最小値に達することを可能にすることである。特定の実装では、訓練を通して得られる損失関数の値が第一の閾値以下になると、モデル訓練が完了し得る。任意選択で、第一の閾値は、事前定義されていてもよいし、または損失関数情報によって示されてもよい。
【0150】
例えば、損失関数は、以下のクロスエントロピー損失関数とし得る。すなわち、
【0151】
【数3】
【0152】
である。
【0153】
log(A)は、Aの対数の計算を表し、Σは、nの値範囲に基づくBの総和を表す。
【0154】
あるいは、損失関数は、以下の二次損失関数とし得る。すなわち、
【0155】
【数4】
【0156】
である。
【0157】
はサンプルであり、yはn番目のサンプルのラベルであり、fθ(x)は入力データxに対するモデルの出力結果である。
【0158】
別の例では、端末は、教師なし学習の方法において、第一のインテリジェントモデルを訓練し得る。教師なし学習については、損失関数は、モデル性能を評価するために使用される関数とし得る。例えば、教師なし学習のモデル訓練手法の訓練目的は、損失関数の値が最大値に達することを可能にすることである。特定の実装では、訓練を通して得られる損失関数の値が第二の閾値以上になると、モデル訓練が完了し得る。任意選択で、第二の閾値は、事前定義されていてもよいし、または損失関数情報によって示されてもよい。
【0159】
例えば、第一のインテリジェントモデルがチャネル応答に基づいて伝送電力を推論するために使用される場合、第一のインテリジェントモデルの入力は、チャネル応答hであり、第一のインテリジェントモデルの推論結果は、送信電力Pである。この場合、損失関数は、データスループットを計算するための関数とし得る。例えば、損失関数は、以下のようにし得る。すなわち、
【0160】
【数5】
【0161】
log(A)はAの対数の計算を表し、Nは雑音電力である。
【0162】
損失関数は、上述した数式とし得る。任意選択で、損失関数は、代替的に、機械学習インテリジェントモデルとし得る。損失関数モデルの複雑度およびパラメータ量は、第一のインテリジェントモデルの複雑度およびパラメータ量よりもはるかに小さくなる。損失関数情報は、損失関数の構成情報および/またはパラメータ情報を含み得て、これにより、端末は、第一の情報を受信した後に損失関数モデルを取得し、損失関数に基づいて第一のインテリジェントモデルを訓練することができるようになり、それによって、端末のモデル訓練効果を向上させる。
【0163】
例えば、教師なし学習の学習方法が使用される場合、損失関数は、システムスループット、信号ビット誤り率、信号対干渉+雑音比、などについての非線形性能測定モデルとし得る。
【0164】
(3)モデル初期化手法
【0165】
第一の情報は、モデル初期化手法を示し得て、端末は、第一の情報によって示されるモデル初期化手法に基づいて、第一のインテリジェントモデルを初期化し得る。
【0166】
一例では、第一のインテリジェントモデルは、ニューラルネットワークモデルとし得て、第一の情報は、第一のインテリジェントモデルにおけるニューロンの重みの初期化手法を示し得る。例えば、アクセスネットワークノードは、端末に、各ニューロンの重みとして値をランダムに選択することを示してもよいし、または全てのニューロンの重みが0であること、もしくはニューロンの重みがプリセット関数を使用することによって生成されること、または同様のことを示してもよい。
【0167】
例えば、アクセスネットワークノードは、第一の情報を使用することによって、端末に、ニューロンの重みとして[zmin,zmax]の範囲内の値をランダムに選択することを示し得る。例えば、第一の情報は、zminおよびzmaxを示し得る。第一の情報を受信した後、端末は、各ニューロンについて「zmin,zmax」の範囲内の値を選択し、その値をニューロンの重みの初期値として使用する。
【0168】
別の例として、第一の情報は、事前定義された複数の初期化手法のうちの一つの識別情報を示す。例えば、第一の情報は、2ビット指示フィールドを含んで、ニューロンの重みの初期化手法を示す。2ビット指示「00」は、ニューロンの重みの初期値がランダムに選択されることを表す。任意選択で、端末は、各ニューロンについてプリセット値範囲内の重みを選択し得て、または、第一の情報が手法を示す場合、第一の情報は、その値範囲内の終点値をさらに含み、端末は、そのニューロンについて第一の情報によって指示される値範囲内の重みを選択する。2ビット指示「01」は、全ニューロンの初期値が「0」に設定されることを表す。2ビット指示「10」は、初期値列がプリセット関数を使用することによって生成され、その列内の各値が一つのニューロンの初期値として使用されることを表す。
【0169】
(4)モデル最適化アルゴリズムのタイプ
【0170】
図3に示される例では、モデル訓練において、訓練装置は、モデル最適化アルゴリズムを使用することによって、損失関数の出力値に基づいて、インテリジェントモデルの最適化パラメータを取得し得る。最適化パラメータに基づいてインテリジェントモデルを更新した後、訓練装置は、パラメータが更新済みであるインテリジェントモデルに対して、次のモデル訓練を実行する。アクセスネットワークノードは、第一の情報を使用することによって、第一のインテリジェントモデルの最適化アルゴリズムを端末に通知し得る。
【0171】
例えば、第一の情報は、事前定義された複数のタイプのモデル最適化アルゴリズム内の一つの最適化アルゴリズムのタイプを示し得る。第一のインテリジェントモデルを訓練する場合、端末は、第一の情報によって指示されるモデル最適化アルゴリズムを使用することによって、モデル最適化を実行し得る。限定ではなく例として、モデル最適化アルゴリズムは、以下のアルゴリズムのうちの一つまたは複数を含み得るが、これらに限定されない。すなわち、
適応的モーメント推定(adaptive momentum estimation,ADAM)アルゴリズム、確率的勾配降下(stochastic gradient descent,SGD)アルゴリズム、またはバッチ勾配降下(batch gradient descent,BGD)アルゴリズム
である。
【0172】
任意選択で、通信プロトコルは、複数タイプのモデル最適化アルゴリズムを事前定義してよく、また、各タイプのモデル最適化アルゴリズムのパラメータは、事前定義されてよい。端末は、第一の情報によって指示されるモデル最適化アルゴリズムのタイプの識別情報に基づいて、最適化アルゴリズムのタイプと、最適化アルゴリズムの事前定義されたパラメータとを決定し得る。第一のインテリジェントモデルの訓練中、端末は、モデル最適化アルゴリズムを使用することによって、モデルの重みを更新する。あるいは、最適化アルゴリズムのパラメータは、第一の情報によって指示され得る。詳細については、以下の説明を参照されたい。
【0173】
(5)最適化アルゴリズムのパラメータ
【0174】
第一の情報は、モデル最適化アルゴリズムのパラメータを示し得る。モデル最適化アルゴリズムのタイプは、第一の情報を使用することによって、アクセスネットワークノードによって示されてもよいし、またはモデル最適化アルゴリズムのタイプは、事前構成されてもよい。
【0175】
限定ではなく例として、モデル最適化アルゴリズムのパラメータは、以下のパラメータのうちの一つまたは複数を含み得るが、これらに限定されない。すなわち、
学習率、反復回数、またはバッチに処理されるデータ量
である。
【0176】
学習率は、モデル訓練における勾配降下ステップを表すパラメータである。学習率は、固定値であってよく、アクセスネットワークノードは、第一の情報を使用することによって、学習率の値を端末に通知し得る。例えば、学習率は、0.001に設定され得る。あるいは、学習率は、反復ステップと共に徐々に減少する値に設定され得る。第一の情報は、学習率と、各反復を通して得られる学習率の減少値とを示し得る。例えば、第一の情報は、初期値が0.1であり、各反復の後にその値が0.01だけ減少することを示し得る。反復回数は、訓練データセットを反復する回数である。バッチに処理されるデータの量は、各モデル訓練中に訓練データセットから選択されて、勾配降下更新に使用される訓練データの量である。
【0177】
上述した説明によれば、第一の情報によって示される第一のインテリジェントモデルの訓練ポリシーは、上述したポリシー(1)ないし(5)のうちの一つまたは複数を含み得るが、これらに限定さない。このようにして、端末は、訓練ポリシーに従って第一のインテリジェントモデルを訓練して、ネットワークに整合するインテリジェントモデルを取得することができる。
【0178】
アクセスネットワークノードが訓練ポリシー(1)から(5)のうちの一つまたは複数が示されていないことを端末に通知した場合には、端末は、それだけに限定されないが以下のようにして、アクセスネットワークノードによって示されていない訓練ポリシーを決定し得ることに留意されたい。
【0179】
実装では、端末は、上述した訓練ポリシーのうちの一つまたは複数を用いて、事前構成され得る。アクセスネットワークノードがポリシーのうちの一つまたは複数を指示しない場合、端末は、事前構成された訓練ポリシーに従ってモデル訓練を実行する。事前構成された訓練ポリシーは、プロトコルにおいて定義されてもよいし、または事前構成された訓練ポリシーは、端末製造実装に基づいて製造者によって構成されてもよい。
【0180】
別の実装では、端末は、アクセスネットワークノードによって指示された一つまたは複数の訓練ポリシーに基づいて、アクセスネットワークノードによって指示されていない一つまたは複数の訓練ポリシーを決定し得る。換言すると、複数の訓練ポリシー間に関連関係が存在し得る。アクセスネットワークノードは、訓練ポリシーを指示することによって、その訓練ポリシーに関連する別の訓練ポリシーを暗黙的に指示する。関連関係は、プロトコルにおいて合意されてもよいし、またはアクセスネットワークノードによって事前に端末に通知されてもよい。これは、限定されない。
【0181】
例えば、アクセスネットワークノードは、第一の情報を使用することによって、モデル訓練手法を指示し得るが、損失関数情報を指示することなく、端末は、アクセスネットワークノードによって指示されたモデル訓練手法に基づいて、損失関数を決定する。第一の情報が、モデル訓練手法が教師あり学習の手法であることを指示する場合、端末は、損失関数がクロスエントロピー損失関数であると決定してもよいし、または端末は、損失関数が二次損失関数であると決定してもよい。ただし、本出願は、これらに限定されない。
【0182】
任意選択で、アクセスネットワークノードは、第二の情報を端末にさらに送信し得て、この第二の情報は、第一のインテリジェントモデルの構成を示す。
【0183】
第一のインテリジェントモデルの訓練ポリシーを端末に通知することに加えて、アクセスネットワークノードは、第二の情報を使用することによって、第一のインテリジェントモデルの構成を端末にさらに通知する。第二の情報を受信した後、端末は、第二の情報に基づいて、その構成を有する最初の第一のインテリジェントモデル(または、訓練前の第一のインテリジェントモデルと呼ばれる)を生成し、第一の情報によって指示された訓練ポリシーを使用することによって、第一のインテリジェントモデルを訓練し、これにより、訓練済みの第一のインテリジェントモデルは、アクセスネットワークノードによって使用されるモデルと整合することができるようになる。
【0184】
アクセスネットワークノードは、事前定義された複数のインテリジェントモデルの構成内の一つの構成の識別情報を指示し、その構成を使用するインテリジェントモデルを端末に通知し得る。あるいは、アクセスネットワークノードは、第一のインテリジェントモデルの構成パラメータを指示し得る。
【0185】
限定ではなく例として、第二の情報は、第一のインテリジェントモデルの以下の構成情報のうちの一つまたは複数を特に示し得る。すなわち、
ネットワーク層の構成情報、入力データの次元、または出力データの次元
である。
【0186】
例えば、第二の情報は、第一のインテリジェントモデルの入力データの次元、すなわち、訓練サンプルの次元を示し得る。第一のインテリジェントモデルがニューラルネットワークモデルであって、入力層および出力層を含む場合、入力データの次元は、第一のインテリジェントモデルの入力層における入力データの次元である。
【0187】
別の例として、第二の情報は、第一のインテリジェントモデルの出力データの次元、すなわち、第一のインテリジェントモデルによって出力される推論データの次元を示し得る。第一のインテリジェントモデルがニューラルネットワークモデルである場合、出力データの次元は、第一のインテリジェントモデルの出力層における出力データの次元である。
【0188】
第二の情報は、第一のインテリジェントモデルのネットワーク層の構成情報を含み得て、このネットワーク層の構成情報は、以下のうちの一つまたは複数を含み得て、これらに限定されない。
【0189】
第一のインテリジェントモデルに含まれるニューラルネットワーク層の数量、ニューラルネットワーク層のタイプ、ニューラルネットワーク層を使用する手法、ニューラルネットワーク層の間のカスケード関係、ニューラルネットワーク層の入力データの次元、またはニューラルネットワーク層の出力データの次元。
【0190】
例えば、アクセスネットワークノードは、第一のインテリジェントモデルに含まれるニューラルネットワーク層の数量を指示し得て、各ニューラルネットワーク層のタイプ、例えば、CNNニューラルネットワーク層、FNNニューラルネットワーク層、または次元変換ニューラルネットワーク層を指示し得る。
【0191】
ネットワーク層の構成情報が、第一のインテリジェントモデルにおけるニューラルネットワーク層のタイプがCNNであることを示す場合、CNNは、フィルタによって実装され得る。アクセスネットワークノードは、ネットワーク層の構成情報を使用することによって、CNNを実装するためのフィルタ(Filter)のタイプを端末にさらに通知し得る。例えば、フィルタのタイプは、フィルタの次元とし得る。例えば、ネットワーク層の構成情報は、フィルタの次元が3×3、5×5、3×3×3、または同様のものであることを示し得る。
【0192】
次元変換ニューラルネットワーク層は、データ次元を変換するために使用される。例えば、次元変換ニューラルネットワーク層は、二つのニューラルネットワーク層の間に配置され得る。次元変換ニューラルネットワーク層は、以下を行うために使用される。すなわち、入力データ(すなわち、前段のニューラルネットワーク層の出力データなど)の次元を変換して、次段のニューラルネットワーク層の入力データの次元を取得し、次元変換を通して得られるデータを次段のニューラルネットワーク層に出力すること。例えば、ニューラルネットワーク層Aの出力データの次元が3×3×10であり、ニューラルネットワーク層Bの入力データの次元が30×3であることが要求される。この場合、次元変換ニューラルネットワーク層は、二つのニューラルネットワーク層の間に設定され、ニューラルネットワーク層Aによって出力される3×3×10データは、30×3データに変換され、その30×3データは、ニューラルネットワーク層Bに出力される。このようにして、次元変換によって得られるデータを、ニューラルネットワーク層Bによって引き続き処理することができる。
【0193】
アクセスネットワークノードは、第二の情報を使用することによって、ニューラルネットワーク層を使用する手法を端末にさらに通知し得て、例えば、ニューラルネットワーク内の一つまたは複数のニューラルネットワーク層が一時的なドロップアウト(dropout)手法を使用するか否かを端末に通知し得る。ドロップアウト手法とは、モデル訓練中に、ニューラルネットワーク層における一つまたは複数のニューロンが現在の訓練をスキップするためにランダムに選択されて得て、一つまたは複数のニューロンが次の訓練においてモデル訓練に復帰し得ることを意味する。
【0194】
例えば、CNNニューラルネットワーク層がドロップアウト手法を使用しない場合、ニューラルネットワーク層におけるニューロンの入出力関係は、図5Aにおいて示され得る。CNNニューラルネットワーク層がドロップアウト手法を使用する場合、ニューラルネットワーク層におけるニューロンの入出力関係は、図5Bにおいて示され得る。端末は、CNNニューラルネットワーク層における複数のニューロンをランダムに選択し、そのニューロンをモデル訓練から係合解除し得て、そのニューロンの出力は0に設定され、モデル訓練から係合解除されたニューロンの重みは、現在の訓練では更新されることなく、この重みは、次の訓練においてニューロンがモデル訓練に係合されると、引き続き使用される。
【0195】
アクセスネットワークノードは、第一のインテリジェントモデルにおけるニューラルネットワーク層の入力データの次元、および/または出力データの次元を端末にさらに通知し得る。追加的/代替的に、アクセスネットワークノードは、ニューラルネットワーク層の間のカスケード関係を端末にさらに通知し得る。例えば、ニューラルネットワーク層の間のカスケード関係は、第一のインテリジェントモデルにおけるニューラルネットワーク層の配列順序とし得る。
【0196】
表1は、ニューラルネットワーク構成の一例を示している。アクセスネットワークノードは、表1に示されるニューラルネットワーク構成を端末に通知し得る。ただし、本開示は、これらに限定されない。例えば、第二の情報は、第一のインテリジェントモデルにおけるニューラルネットワーク層の数量が6層であることを示し、各ニューラルネットワーク層のタイプを通知する。例えば、ニューラルネットワーク層のタイプは、入力層、CNN層、形状変換層、FNN層、および出力層を含む。第二の情報は、ニューラルネットワーク層の間のカスケード関係をさらに示し得る。例えば、第二の情報は、6層のニューラルネットワーク層の配列順序が、入力層、CNN層、CNN層、形状変換層、FNN層、および出力層であってよいことを示し得る。さらに、第二の情報は、表1に示されるように、各ニューラルネットワーク層の入力次元および出力次元をさらに示し得て、Nはアンテナの数量であり、Nscはサブキャリアの数量である。第二の情報は、二つのCNN層具体的には、第二の層および第三の層を実装するフィルタが3×3フィルタであること、ならびに第二、第三、第四、および第五のニューラルネットワーク層がドロップアウト手法を使用し得ることを端末にさらに通知し得る。ただし、本開示は、これらに限定されない。第一のインテリジェントモデルの構成の一部は、事前定義されてよく、別の一部は、第二の情報を使用することによって、アクセスネットワークノードによって指示されてよい。例えば、アクセスネットワークノードは、表1に示される構成パラメータの一部または全部を端末に通知し得る。表1に示されるN/Aは、パラメータがこの行では適用可能ではない(または構成されていない)ことを示す。
【0197】
【表1】
【0198】
端末は、表1に示されるとともに、第二の情報によって指示される第一のインテリジェントモデルの構成に基づいて、初期の第一のインテリジェントモデルを生成し得る。端末は、最初に、第二の情報に基づいて、第一のインテリジェントモデルが6層のニューラルネットワーク層を含むことを決定し、第二の情報に基づいて、6層のニューラルネットワーク層の各々のタイプ、入力次元、および出力次元を指示して、タイプ要件および次元要件を満たす6層のニューラルネットワーク層、すなわち、入力層、CNN層、CNN層、形状変換層、FNN層、および出力層を生成し得る。端末は、3×3フィルタを使用することによって、第二の情報の指示に基づいて、二つのCNN層を実装する。6層のニューラルネットワーク層を取得した後で、端末は、第二の情報によって指示されたカスケード関係に基づいて、6層のニューラルネットワーク層の配列順序を決定して、初期の第一のインテリジェントモデルを取得する。第一のインテリジェントモデルを訓練するプロセスでは、第2、第3、第4、および第五のニューラルネットワーク層におけるニューロンは、ドロップアウト手法における各訓練では、ランダムに選択され、現在の訓練から係合解除される。
【0199】
任意選択で、アクセスネットワークノードは、第三の情報を端末に送信し、第三の情報は、訓練データセットに関する情報を示し、訓練データセットは、第一のインテリジェントモデルを訓練するために使用される。
【0200】
一例では、第三の情報は、プリセット訓練データセットの識別情報を示し得て、これにより、第三の情報を受信した後に、端末は、識別情報に対応する訓練データセットを使用することによって、第一のインテリジェントモデルを訓練する。
【0201】
例えば、プロトコルが複数の訓練データセットを事前定義し得て、各訓練データセットは、1個の識別情報に対応する。アクセスネットワークノードは、第三の情報を使用することによって、複数の訓練データセットのうちの一つの識別情報を指示し得る。端末は、その識別情報に基づいて、識別情報に対応する訓練データセットを使用することによって、第一のインテリジェントモデルを訓練することを決定する。
【0202】
別の例では、訓練データセットに関する情報は、訓練サンプルのタイプ、または訓練サンプルのタイプおよびラベルのタイプを示し得る。
【0203】
例えば、第一のインテリジェントモデルの訓練手法は、教師なし学習の手法であり、第三の情報は、訓練サンプルのタイプを示し得る。例えば、第一のインテリジェントモデルは、入力チャネルデータに基づいて、伝送電力を推測し得る。この場合、第三の情報は、訓練サンプルのタイプがチャネルデータであることを示し、端末は、そのチャネルデータを使用することによって、第一のインテリジェントモデルを訓練し得る。チャネルデータは、アクセスネットワークノードによって送信された基準信号に基づいて、端末による測定を通じて取得されてもよいし、または端末において事前構成されていてもよい。ただし、本出願は、これらに限定されない。
【0204】
別の例として、第一のインテリジェントモデルの訓練手法は、教師なし学習の手法である。第三の情報は、訓練サンプルのタイプおよびラベルのタイプを示し得る。端末は、訓練サンプルのタイプおよびラベルのタイプに基づいて、訓練データセットを決定し得る。訓練データセットに含まれるデータは、端末およびアクセスネットワークノードの間の通信中に収集されるデータであってもよいし、または端末において事前構成された対応するタイプのデータであってもよい。例えば、第一のインテリジェントモデルは、データのチャネル符号化機能を実装し、換言すると、入力された事前符号化データに基づく推論を通して符号化データを出力する。第三の情報は、訓練サンプルのタイプがチャネル符号化前のデータであり、ラベルのタイプがチャネル符号化後のデータであることを示し得る。
【0205】
別の例では、訓練データセットに関する情報は、第一のインテリジェントモデルの使用をさらに示し得る。例えば、訓練データセットに関する情報は、第一のインテリジェントモデルが圧縮符号化、復号化、または伝送電力の推論に使用されることを示す。端末は、第一のインテリジェントモデルの使用に基づいて、対応する訓練データセットを決定する。
【0206】
例えば、第三の情報は、第一のインテリジェントモデルの使用が圧縮符号化であり、第一のインテリジェントモデルの訓練手法が教師あり学習であることを示し得る。この場合、端末は、第一のインテリジェントモデルの使用に基づいて、第一のインテリジェントモデルを訓練するために使用される訓練サンプルのタイプが圧縮符号化前の情報データであり、ラベルが圧縮符号化後の圧縮データであることを決定して、第一のインテリジェントモデルのものであって、訓練サンプルおよびラベルを含む訓練データセットを決定し得る。訓練データセットに含まれるデータは、端末およびアクセスネットワークノードの間の通信中に収集されるデータであってもよいし、または端末において事前構成された対応するタイプのデータであってもよい。ただし、本出願は、これらに限定されない。
【0207】
別の例では、第三の情報は、訓練データセットを含み得る。例えば、訓練データセットは、訓練サンプル、または訓練サンプルおよびラベルを含み得る。換言すると、端末は、ネットワークから訓練データセットを取得し得る。
【0208】
例えば、第一のインテリジェントモデルの訓練手法は、教師あり学習の手法であり、第三の情報内の訓練データセットは、訓練サンプルおよびラベルを含む。第一のインテリジェントモデルの訓練手法は、教師なし学習の手法であり、第三の情報内の訓練データセットは、訓練サンプルを含むが、ラベルを含まない。
【0209】
端末は、狭いリソース帯域幅における訓練データセット内の訓練データをダウンロードしつつ、第一のインテリジェントモデルを訓練し得て、これにより、リソース使用量を低減することができ、サービスデータの伝送速度に影響を与えないようになる。
【0210】
本開示では、アクセスネットワークノードは、端末の能力情報に基づいて、および/またはアクセスネットワークノードおよび端末の間の環境データ(チャネルデータなど)に基づいて、第一のインテリジェントモデルの訓練ポリシー、モデル構成、または訓練データセットのうちの一つまたは複数を決定し得る。あるいは、アクセスネットワークノードは、ネットワークにおけるサードパーティノードから、第一のインテリジェントモデルの訓練ポリシーおよび/またはモデル構成を取得し、次いで、訓練ポリシーおよび/またはモデル構成を端末に転送し得る。換言すると、アクセスネットワークノードによって端末に送信される情報(第一の情報、第二の情報、および第三の情報を含むが、これらに限定されない)は、アクセスネットワークノードによって生成されてもよいし、またはアクセスネットワークノードによってサードパーティノードから取得された後に端末へ転送されてもよい。例えば、サードパーティノードは、AI機能を有するノードであってもよいし、またはネットワークにおいてAIエンティティと共に構成されるノードであってもよい。例えば、サードパーティノードは、非リアルタイムRICであってよく、この非リアルタイムRICは、OAMに含まれてよく、サードパーティノードは、実際にはOAMであってよい。任意選択で、アクセスネットワークノードは、端末から能力情報を受信し、この能力情報は、インテリジェントモデルを稼働させるための端末の能力を示す。
【0211】
限定ではなく例として、能力情報は、端末の以下の能力のうちの一つまたは複数を特に示す。すなわち、
インテリジェントモデルの稼働をサポートするか否か、データ処理能力、ストレージ能力、稼働することができるインテリジェントモデルのタイプ、プロセッサの消費電力、またはバッテリ容量
である。
【0212】
例えば、能力情報は、端末がインテリジェントモデルの稼働をサポートするか否かを示し得る。能力情報を受信した後、アクセスネットワークノードが、能力情報に基づいて、端末がインテリジェントモデルをサポートしていると判定した場合、アクセスネットワークノードは、第一の情報を端末に送信して、第一のインテリジェントモデルを訓練するためのポリシーを端末に通知する。
【0213】
別の例として、アクセスネットワークノードは、第二の情報を使用することによって、第一のインテリジェントモデルの構成を端末に通知する必要がある。能力情報は、端末によってサポートされる機械学習モデルのオペレータライブラリ情報を示し得る。オペレータライブラリ情報は、端末によってサポートすることができる基本インテリジェントモデル演算ユニットのセットを示し得るか、またはオペレータライブラリ情報は、端末によってサポートされない基本インテリジェントモデル演算ユニットを示し得る。アクセスネットワークノードは、能力情報に基づいて、端末によってサポートされるモデルのオペレータライブラリ情報を確認して、第一のインテリジェントモデルの構成を決定し得る。
【0214】
例えば、インテリジェントモデル演算ユニットは、以下のうちの一つまたは複数を含み得るが、これらに限定されない。すなわち、
一次元CNNユニット(conv1d)、二次元CNNユニット(conv2d)、三次元CNNユニット(conv3d)、プーリング(pooling)層、プーリング演算、またはシグモイド(sigmoid)活性化関数
である。
【0215】
別の例として、能力情報は、端末のデータ処理能力を示す。例えば、能力情報は、プロセッサのタイプ、プロセッサの動作速度、プロセッサによって処理することができるデータ量、および同様のものを示し得る。例えば、プロセッサのタイプは、グラフィック処理ユニット(graphics processing unit,GPU)のタイプ、および/または中央処理ユニット(central processing unit,CPU)のタイプを含み得る。アクセスネットワークノードは、端末のデータ処理能力に基づいて、第一のインテリジェントモデルの訓練ポリシー、モデル構成、または訓練データセットのうちの一つまたは複数を決定し得る。
【0216】
実装では、アクセスネットワークノードは、端末の能力情報に基づいて、および/またはアクセスネットワークノードおよび端末の間の環境データ(チャネルデータなど)に基づいて、端末能力および/またはチャネル条件を満たすインテリジェントモデルを、訓練を通して取得し得る。アクセスネットワークノードは、インテリジェントモデルを訓練するための訓練ポリシーを端末に通知し、これにより、端末は、その訓練ポリシーを使用することによって、第一のインテリジェントモデルを訓練し、端末による訓練を通して得られる第一のインテリジェントモデルが、アクセスネットワークノードによる訓練を通して得られるインテリジェントモデルと可能な限り同じものになる。このようにして、アクセスネットワークノードとの通信のプロセスにおいて、端末によって適用される第一のインテリジェントモデルは、アクセスネットワークノードによって使用されるインテリジェントモデルと整合することができ、それによって通信性能を向上させる。
【0217】
例えば、第一のインテリジェントモデルは、圧縮符号化モデルであり、アクセスネットワークノードは、端末の能力情報およびチャネルデータに基づいて、相互に整合する、アクセスネットワークノードによって使用される圧縮復号化モデルと、端末によって使用される圧縮符号化モデルとを、訓練を通して取得し得る。アクセスネットワークノードは、圧縮符号化モデルを訓練するために、アクセスネットワークノードによって使用される訓練ポリシーを端末に通知する。例えば、アクセスネットワークノードは、アクセスネットワークノードによって使用される初期化手法が、ニューロンの重みとして[zmin,zmax]の範囲内において値がランダムに選択されるものであり、モデル訓練手法が教師あり学習の手法であり、損失関数がクロスエントロピー損失関数であり、最適化アルゴリズムが確率的勾配降下アルゴリズムであることを端末に通知する。アクセスネットワークノードの訓練ポリシーを取得した後、端末は、その訓練ポリシーに従って圧縮符号化モデルを訓練し、これにより、端末による訓練を通して得られる圧縮符号化モデルは、アクセスネットワークノードによる訓練を通して得られる圧縮符号化モデルと可能な限り同じものになる。このようにして、通信において端末によって使用される圧縮符号化モデルは、通信においてアクセスネットワークノードによって使用される圧縮復号化モデルと整合する。
【0218】
任意選択で、アクセスネットワークノードは、インテリジェントモデルの構成を第一のインテリジェントモデルの構成として端末にさらに通知し得て、および/または、アクセスネットワークノードは、インテリジェントモデルを訓練するために、アクセスネットワークノードによって使用される訓練データセットに関する情報を端末にさらに示し得る。
【0219】
別の実装では、ネットワークにおけるサードパーティノードは、アクセスネットワークノードから端末の能力情報を取得し得て、および/またはアクセスネットワークノードおよび端末の間の環境データを取得し得て、また、取得された情報に基づいて、相互に整合する、アクセスネットワークノードによって適用されるインテリジェントモデルと、端末によって適用されるインテリジェントモデルとを、訓練を通して取得し得る。サードパーティノードは、アクセスネットワークノードによって適用されるインテリジェントモデルをアクセスネットワークノードに送信し、インテリジェントモデルを訓練するために、端末によって使用される訓練ポリシーをアクセスネットワークノードに通知し、次いで、アクセスネットワークノードは、第一の情報を使用することによって、訓練ポリシーを端末に転送する。任意選択で、サードパーティノードは、アクセスネットワークノードを使用することによって、インテリジェントモデルの構成、および/または訓練データセットに関する情報を端末にさらに通知し得る。
【0220】
S402:端末は、訓練ポリシーに従って、第一のインテリジェントモデルに対してモデル訓練を実行する。
【0221】
端末は、第一のインテリジェントモデルの訓練ポリシー、例えば、モデル訓練手法、損失関数、モデル初期化手法、モデル最適化アルゴリズムのタイプ、および最適化アルゴリズムのパラメータを決定し得る。訓練ポリシーの一部または全部は、アクセスネットワークノードからの第一の情報に基づいて、端末によって決定され得る。アクセスネットワークノードによって指示されない訓練ポリシーは、事前構成された情報、またはアクセスネットワークノードによって指示された関連する訓練ポリシーに基づいて、端末によって取得され得る。
【0222】
任意選択で、端末は、第一のインテリジェントモデルの構成を取得し、その構成に基づいて、第一のインテリジェントモデルを決定し得る。
【0223】
実装では、端末は、アクセスネットワークノードから第二の情報を受信し得て、第二の情報は、第一のインテリジェントモデルの構成を示し、端末は、第二の情報に基づいて、初期の第一のインテリジェントモデル(または訓練前の第一のインテリジェントモデルと呼ばれる)を決定する。
【0224】
端末が第二の情報に基づいて初期の第一のインテリジェントモデルを取得する特定の実装については、上述した説明を参照されたい。簡潔にするために、詳細については、本明細書では改めて説明しない。
【0225】
別の実装では、端末は、事前構成された情報から第一のインテリジェントモデルの構成を取得し、初期の第一のインテリジェントモデルを決定する。任意選択で、端末は、アクセスネットワークノードから第三の情報を受信し得て、第三の情報は、訓練データセットに関する情報を示す。
【0226】
端末は、第三の情報に基づいて、訓練データセットを取得し、第一の情報によって指示された訓練ポリシーを使用することによって、その訓練データセットに基づいて、第一のインテリジェントモデルに対してモデル訓練を実行する。ただし、本開示は、これらに限定されない。端末は、端末に格納されたデータセットに基づいて、第一のインテリジェントモデルに対してモデル訓練をさらに実行し得る。
【0227】
第一のインテリジェントモデルの訓練ポリシーおよび訓練データセットを取得し、第一のインテリジェントモデルの構成に基づいて、初期の第一のインテリジェントモデルを取得した後に、端末は、第一のインテリジェントモデルに対するモデル訓練の実行を開始し得る。
【0228】
例えば、端末は、訓練ポリシーに従って、モデル訓練手法が教師あり学習の手法であり、訓練データセットが訓練サンプルおよびラベルを含むと決定する。端末は、各訓練において訓練サンプルを第一のインテリジェントモデルに入力する。第一のインテリジェントモデルは、訓練サンプルを処理し、その後、推論結果を出力する。端末は、損失関数を使用することによる推論結果およびラベルに基づいて、損失関数によって出力される損失値を取得する。次いで、第一のインテリジェントモデルのパラメータが、モデル最適化アルゴリズムを使用することによる損失値に基づいて最適化されて、パラメータが更新されている第一のインテリジェントモデルを取得する。パラメータが更新されている第一のインテリジェントモデルは、次のモデル訓練に適用される。複数回の反復訓練の後、損失関数によって出力される損失値が第一の閾値以下である場合、端末は、第一のインテリジェントモデルの訓練が完了していると決定し、訓練済みの第一のインテリジェントモデルが取得される。
【0229】
別の例として、端末は、訓練ポリシーに従って、モデル訓練手法が教師なし学習の手法であり、訓練データセットが訓練サンプルを含むことを決定する。端末は、各訓練において訓練サンプルを第一のインテリジェントモデルに入力する。第一のインテリジェントモデルは、訓練サンプルを処理し、その後、推論結果を出力する。端末は、損失関数を使用することによる推論結果に基づいて、損失関数の出力値を取得する。次いで、第一のインテリジェントモデルのパラメータが、モデル最適化アルゴリズムを使用することによる損失関数の出力値に基づいて最適化されて、パラメータが更新されている第一のインテリジェントモデルを取得する。パラメータが更新されている第一のインテリジェントモデルは、次のモデル訓練に適用される。複数回の反復訓練の後、損失関数の出力値が第二の閾値以上である場合、端末は、第一のインテリジェントモデルの訓練が完了していると決定し、訓練済みの第一のインテリジェントモデルが取得される。上述した解決策に基づいて、ネットワークは、インテリジェントモデルの訓練ポリシーを端末に通知し得て、端末は、ネットワークによって提供された訓練ポリシーに従って、インテリジェントモデルを訓練し、これにより、端末による訓練を通して得られるモデルは、ネットワークによって使用されるモデルと整合することができ、それによって期待される性能要件を満たすようになる。これは、アクセスネットワークノードが第一のインテリジェントモデルのモデルパラメータ(例えば、各ニューロンの重み、活性化関数、およびオフセットなど)を端末に送信する際に発生するエアー・インターフェース・リソース・オーバーヘッドを低減させる。
【0230】
図5Cは、本開示による、通信方法500を示す模式的フローチャートである。図5Cに示される方法にあって、図4に示される方法にあるものと同じである部分については、図4に示される方法における説明を参照することに留意されたいことは、留意されるべきである。簡潔にするために、詳細については、本明細書では改めて説明しない。
【0231】
S501:アクセスネットワークノードは、第一の情報を端末に送信し、第一の情報は、第一のインテリジェントモデルの訓練ポリシーを示す。
【0232】
特定の実装については、ステップS401を参照されたい。詳細については、本明細書では改めて説明しない。
【0233】
S502:端末は、訓練ポリシーに従って第一のインテリジェントモデルを訓練する。
【0234】
端末は、第一のインテリジェントモデルの構成を取得し、第一のインテリジェントモデルを決定し、訓練データセットおよび訓練ポリシーを使用することによって、第一のインテリジェントモデルを訓練し得る。特定の実装については、ステップS402を参照されたい。詳細については、本明細書では改めて説明しない。
【0235】
S503:アクセスネットワークノードは、第四の情報を端末に送信し、第四の情報は、テスト情報を示し、このテスト情報は、第一のインテリジェントモデルの性能をテストするために使用される。
【0236】
これに応じて、端末は、第四の情報をアクセスネットワークノードから受信する。第四の情報を受信した後、端末は、第四の情報に基づいて、訓練済みの第一のインテリジェントモデルをテストする。
【0237】
限定ではなく例として、テスト情報は、以下のうちの一つまたは複数を含む。すなわち、
テストデータ情報、性能評価手法、または性能評価パラメータ
である。
【0238】
任意選択で、テスト情報が、テストデータ情報、性能評価手法、および性能評価パラメータのうちの一つまたは二つを含む、例えば、テストデータ情報および性能評価手法を含む場合、含まれていない残りの項目、例えば、性能評価パラメータは、プロトコルにおいで合意されてもよいし、または別の手法において決定されてもよい。これは、限定されない。あるいは、以下の例では、端末は、性能評価手法および/または性能評価パラメータを確認する必要がなく、アクセスネットワークノードが性能評価を実行する。
【0239】
テストデータ情報は、テストデータ、テストデータのタイプ、ラベルデータ、またはラベルデータのタイプのうちの一つまたは複数を示す。性能評価手法は、推論データおよびラベルデータの間の損失値を計算する手法とし得る。性能評価パラメータは、損失値を評価するための閾値であってもよいし、または別のパラメータであってもよい。ただし、本開示は、これらに限定されない。性能評価手法は、代替的に、評価関数、または同様のものとし得る。
【0240】
S504:端末は、第五の情報および/または第六の情報をアクセスネットワークノードに送信し、第五の情報は、第一のインテリジェントモデルのテスト結果を示し、第六の情報は、推論データを示す。
【0241】
推論データは、第一のインテリジェントモデルによってテストデータを推論することによって取得され、第四の情報によって示されるテスト情報は、そのテストデータを含む。
【0242】
実装では、端末は、第五の情報をアクセスネットワークノードに送信し得て、第五の情報は、第一のインテリジェントモデルのテスト結果を示し得る。
【0243】
例えば、テスト結果は、第一のインテリジェントモデルの性能が要件を満たすか、または満たさないかということとし得る。アクセスネットワークノードによって端末に送信されるテスト情報は、テストデータ、チェックデータ、およびチェック閾値を含み得る。端末は、そのテストデータを、訓練済みの第一のインテリジェントモデルの入力として使用して、第一のインテリジェントモデルによるテストデータの推論によって得られる推論データを取得し得る。端末は、推論データおよびチェックデータの間の損失値を計算する。例えば、端末は、第一のインテリジェントモデルの訓練時に使用される損失関数を使用することによって、計算を通して推論データおよびチェックデータの間の損失値を取得し得る。ただし、本出願は、これらに限定されない。端末は、損失値をチェック閾値と比較する。損失値がチェック閾値未満である場合、端末は、訓練済みの第一のインテリジェントモデルが要件を満たし、実際の通信に適用され得ることを決定し、次いで、第五の情報を使用することによって、アクセスネットワークノードに通知し得る。あるいは、損失値がチェック閾値を超える場合、端末は、第五の情報を使用することによって、訓練済みの第一のインテリジェントモデルが要件を満たさないことをアクセスネットワークノードに通知し得る。
【0244】
別の例として、テスト結果は、推論データおよびチェックデータの間の損失値とし得る。例えば、第四の情報を使用することによって、アクセスネットワークノードによってテストデータおよびチェックデータを指示することに加えて、第四の情報は、性能評価手法が推論データおよびチェックデータの間の損失値を計算することであることをさらに示す。端末は、第四の情報によって指示されたテストデータに基づいて、訓練済みの第一のインテリジェントモデルの使用による推論を通して推論データを取得し、推論データおよびラベルデータの間の損失値を計算し、第五の情報を使用することによって、損失値をアクセスネットワークノードに通知する。ネットワークは、損失値に基づいて、端末による訓練を通して得られる第一のインテリジェントモデルの性能が要件を満たすか否かを判定する。例えば、アクセスネットワークノードまたはネットワークにおけるサードパーティノードは、性能が要件を満たすか否かを判定し得て、サードパーティノードは、アクセスネットワークノードによる転送を通じて損失値を取得し得る。
【0245】
別の実装では、端末は、第六の情報をアクセスネットワークノードに送信し得て、第六の情報は、第一のインテリジェントモデルの推論データを示す。
【0246】
例えば、第四の情報は、テストデータを示し、端末は、訓練済みの第一のインテリジェントモデルを使用することによって、テストデータを推論して、第一のインテリジェントモデルによって出力される推論データを取得し、また端末は、取得済みの推論データをアクセスネットワークノードに送信する。ネットワークノード(例えば、ネットワークにおけるアクセスネットワークノードまたはサードパーティノードなど)は、その推論データに基づいて、訓練済みの第一のインテリジェントモデルの性能が要件を満たすか否かを判定する。
【0247】
別の実装では、端末は、第五の情報および第六の情報をアクセスネットワークノードに送信し得る。
【0248】
換言すると、端末は、テスト結果をアクセスネットワークノードに送信し、推論データをアクセスネットワークノードに送信する。アクセスネットワークノードは、テスト結果および推論データを参照して、端末による訓練を通して得られる第一のインテリジェントモデルを実際の通信において使用するか否かを判定し得る。ただし、本開示は、これらに限定されない。
【0249】
任意選択で、アクセスネットワークノードは、第七の情報を端末に送信し、第七の情報は、第一のインテリジェントモデルの更新済み訓練ポリシーを示し、および/または、第一のインテリジェントモデルの更新済み構成を示す。
【0250】
これに応じて、端末は、アクセスネットワークノードから第七の情報を受信する。端末は、第七の情報に基づいて、第一のインテリジェントモデルを再度訓練する。
【0251】
実装では、第五の情報および/または第六の情報を端末から受信した後、アクセスネットワークノードは、端末による訓練を通して得られる第一のインテリジェントモデルの性能が要件を満たさないと判定する。この場合、アクセスネットワークノードは、第七の情報を端末に送信して、第一のインテリジェントモデルの更新済み訓練ポリシー、および/または第一のインテリジェントモデルの更新済み構成を端末に通知し得る。
【0252】
別の実装では、端末が訓練済みの第一のインテリジェントモデルを通信に使用する場合、アクセスネットワークノードは、通信性能に基づいて、第一のインテリジェントモデルを更新する必要があると決定し、またアクセスネットワークノードは、第七の情報を端末に送信し得る。
【0253】
例えば、端末が一定期間、モデルを適用した後に、状況が発生する、例えば、チャネル環境が変化することがあり、これにより、第一のインテリジェントモデルの性能は、要件をもはや満たさなくなる。アクセスネットワークノードは、第七の情報を端末に送信し得て、次いで、端末は、第一のインテリジェントモデルに対してモデル訓練を再度実行し、これにより、再訓練を通して得られる第一のインテリジェントモデルは、変化した環境に適合するようになる。
【0254】
第七の情報が訓練ポリシーを示す手法は、第一の情報が訓練ポリシーを示す手法と同じであってよく、第七の情報がモデル構成を示す手法は、第二の情報がモデル構成を示す手法と同じであってよい。あるいは、第七の情報は、訓練ポリシーのうちの少なくとも一つの変形、および/または第一のインテリジェントモデルの構成のうちの少なくとも一つの変形を特に示してもよい。
【0255】
例えば、第七の情報は、訓練ポリシーにおける少なくとも一つの変形を示す。第七の情報を受信した後、端末は、第七の情報によって指示された変形に基づいて、更新済み訓練ポリシーを決定する。例えば、アクセスネットワークノードが最適化アルゴリズムのパラメータを調整し(例えば、学習率が、第一の情報によって指示された0.1から0.01に変化するなど)、訓練ポリシーの中で、最適化アルゴリズムのパラメータだけが変化し、残りの訓練ポリシーは変化しない。この場合、第七の情報は、更新された学習率が0.01であることを示し得る。別の例として、第一の情報は、バッチに処理されるデータ量がN個であることを示し、換言すると、N個の訓練データが勾配降下更新のために毎回選択され、アクセスネットワークノードは、バッチに処理されるデータ量をMになるように調整する。この場合、アクセスネットワークノードは、第七の情報を使用することによって、バッチに処理されるデータ量がMになるように調整されることを示し得て、または第七の情報は、バッチに処理されるデータ量がQだけ増加することを示し得る。ここで、Q=M-Nである。第七の情報を受信した後、端末は、バッチに処理されるデータ量をN+QへQだけ増加させ、これにより、M個の訓練データが勾配降下更新のために毎回選択されるようになる。ただし、本開示は、これらに限定されない。
【0256】
追加的/代替的に、第七の情報は、モデル構成における少なくとも一つの変形を示し得る。特定の手法は、訓練ポリシーにおける少なくとも一つの変形を示す手法と同様である。実装については、上述した説明を参照されたい。詳細については、本明細書では改めて説明しない。
【0257】
上述した解決策に基づいて、アクセスネットワークノードによって指示された訓練ポリシーに従って、端末がモデル訓練を実行した後に、アクセスネットワークノードは、テスト情報を端末に送信し得て、端末は、そのテスト情報に基づいて、訓練済みの第一のインテリジェントモデルをテストし、端末またはアクセスネットワークノードは、テスト結果および/または推論データに基づいて、訓練済みの第一のインテリジェントモデルの性能が要件を満たすか否かを判定し得る。性能が要件を満たす場合、第一のインテリジェントモデルが実際の通信に適用されて、無線通信性能(例えば、通信信頼性など)を向上させる目的を達成することができる。
【0258】
図6は、本開示による、通信方法を示す別の模式的フローチャートである。図6に示される方法における部分と、別の方法における同じ部分とは、相互に参照されてもよいし、または組み合わせて実装されてもよいは、留意されるべきである。簡潔にするために、詳細については、本明細書では改めて説明しない。
【0259】
S601:アクセスネットワークノードは、第二の情報を端末に送信し、第二の情報は、第一のインテリジェントモデルの構成を示し、第二の情報は、第一のインテリジェントモデルの以下の構成情報のうちの一つまたは複数を含む。すなわち、ネットワーク層の構成情報、入力データの次元、または出力データの次元、である。
【0260】
これに応じて、端末は、アクセスネットワークノードから第二の情報を受信する。
【0261】
第一のインテリジェントモデルにおけるネットワーク層の構成情報は、以下のうちの一つまたは複数を含み得るが、これらに限定されない。
【0262】
第一のインテリジェントモデルに含まれるニューラルネットワーク層の数量、ニューラルネットワーク層のタイプ、ニューラルネットワーク層を使用する手法、ニューラルネットワーク層の間のカスケード関係、ニューラルネットワーク層の入力データの次元、またはニューラルネットワーク層の出力データの次元。
【0263】
S602:端末は、第二の情報に基づいて、第一のインテリジェントモデルを決定する。
【0264】
第二の情報を受信した後、端末は、第二の情報によって指示された第一のインテリジェントモデルの構成に基づいて、その構成を有する第一のインテリジェントモデルを生成し得る。
【0265】
S603:端末は、第一のインテリジェントモデルに対してモデル訓練を実行する。
【0266】
ステップS602において第一のインテリジェントモデルを決定した後、端末は、第一のインテリジェントモデルを訓練する。
【0267】
上述した解決策に基づいて、アクセスネットワークノードは、第一のインテリジェントモデルの構成を端末に通知し、端末は、アクセスネットワークノードの指示に基づいて、その構成を有する第一のインテリジェントモデルを生成し、これにより、端末によって使用される第一のインテリジェントモデルの構成は、アクセスネットワークノードの要件を満たすことができるようになる。このようにして、第一のインテリジェントモデルは、無線通信性能を向上させるために使用することができる。第一のインテリジェントモデルを訓練した後、端末は、第一のインテリジェントモデルを通信に適用し得る。これは、アクセスネットワークノードが第一のインテリジェントモデルのモデルパラメータ(例えば、各ニューロンの重み、活性化関数、およびオフセットなど)を端末に通知する際に発生するエアー・インターフェース・リソース・オーバーヘッドを低減させることができる。
【0268】
端末は、端末およびアクセスネットワークノードによって合意されている、事前定義された訓練ポリシーを使用することによって、第一のインテリジェントモデルを訓練してもよいし、またはアクセスネットワークノードは、第一の情報を使用することによって、第一のインテリジェントモデルの訓練ポリシーを端末に通知してもよい。
【0269】
第一のインテリジェントモデルを訓練するために端末によって使用される訓練データセットは、端末によって事前に格納されてもよいし、またはアクセスネットワークノードから受信されてもよい。
【0270】
上記では、図4ないし図6を参照して、本開示に提供される方法について詳細に説明している。以下の添付図面では、本開示に提供される通信装置および通信機器について説明する。本開示に提供される方法における上述した機能を実装するために、各ネットワーク要素は、ハードウェア構成および/またはソフトウェアモジュールを含み、ハードウェア構成、ソフトウェアモジュール、またはハードウェア構成およびソフトウェアモジュールを組み合わせる形態において、上述した機能を実装し得る。上述した機能内の一機能が、ハードウェア構成、ソフトウェアモジュール、またはハードウェア構成およびソフトウェアモジュールの組み合わせを使用することによって実行されるか否かは、特定の用途および技法的解決策の設計制約に依存する。
【0271】
図7は、本開示による、通信装置を示す模式的ブロック図である。図7に示されるように、通信装置700は、トランシーバユニット720を含み得る。
【0272】
可能な設計では、通信装置700は、上述した方法における端末機器、または端末機器に配置される(もしくは使用される)チップ、または端末機器によって実行される方法を実装することができる別の装置、モジュール、回路、ユニット、もしくは同様のものに対応し得る。
【0273】
通信装置700は、図4図5C、および図6に示される方法における端末機器によって実行される方法を実行するように構成されるユニットを含み得ることは、理解されるべきである。さらに、通信装置700内のユニット、ならびに上述した他の動作および/または機能は、図4図5C、および図6に示される方法の対応するプロセスを実装することをそれぞれ意図している。
【0274】
任意選択で、通信装置700は、処理ユニット710をさらに含み得る。処理ユニット710は、命令またはデータを処理して、対応する動作を実行するように構成され得る。
【0275】
通信装置700が端末機器に配置される(または使用される)チップである場合、通信装置700内のトランシーバユニット720は、チップ内の入出力インターフェースまたは回路とし得て、通信装置700内の処理ユニット710は、チップ内のプロセッサとし得ることは、さらに理解されるべきである。
【0276】
任意選択で、通信装置700は、ストレージユニット730をさらに含み得る。ストレージユニット730は、命令またはデータを格納するように構成され得る。処理ユニット710は、ストレージユニットに格納された命令またはデータを実行して、対応する動作を通信装置が実装することを可能にし得る。
【0277】
通信装置700内のトランシーバユニット720は、通信インターフェース(例えば、トランシーバまたは入出力インターフェースなど)を介して実装され得て、例えば、図8に示される端末機器800内のトランシーバ810に対応し得ることは、理解されるべきである。通信装置700内の処理ユニット710は、少なくとも一つのプロセッサを使用することによって実装され得て、例えば、図8に示される端末機器800内のプロセッサ820に対応し得る。あるいは、通信装置700内の処理ユニット710は、少なくとも一つの論理回路を使用することによって実装され得る。通信装置700内のストレージユニット730は、図8に示される端末機器800内のメモリに対応し得る。
【0278】
ユニットが上述した対応する手順を実行する特定のプロセスは、上述した方法において詳細に説明されることは、さらに理解されるべきである。簡潔にするために、詳細については、本明細書では改めて説明しない。
【0279】
別の可能な設計では、通信装置700は、上述した方法におけるアクセスネットワークノード、またはアクセスネットワークノードに配置される(もしくは使用される)チップ、またはアクセスネットワークノードによって実行される方法を実装することができる、別の装置、モジュール、回路、ユニット、または同様のものに対応し得る。
【0280】
通信装置700は、図4図5C、および図6に示される方法におけるアクセスネットワークノードによって実行される方法を実行するように構成されるユニットを含み得ることは、理解されるべきである。さらに、通信装置700内のユニットと、上述した他の動作および/または機能とは、図4図5C、および図6に示される方法の対応するプロセスを実装することをそれぞれ意図している。
【0281】
任意選択で、通信装置700は、処理ユニット710をさらに含み得る。処理ユニット710は、命令またはデータを処理して、対応する動作を実行するように構成され得る。
【0282】
通信装置700がアクセスネットワークノードに配置される(または使用される)チップである場合、通信装置700内のトランシーバユニット720は、チップ内の入出力インターフェースまたは回路とし得て、通信装置700内の処理ユニット710は、チップ内のプロセッサとし得ることは、さらに理解されるべきである。
【0283】
任意選択で、通信装置700は、ストレージユニット730をさらに含み得る。ストレージユニット730は、命令またはデータを格納するように構成され得る。処理ユニット710は、ストレージユニッに格納された命令またはデータを実行して、対応する動作を通信装置が実装することを可能にし得る。
【0284】
通信装置700がアクセスネットワークノードである場合、通信装置700内のトランシーバユニット720は、通信インターフェース(例えば、トランシーバまたは入出力インターフェースなど)を介して実装され得て、例えば、図9に示されるネットワーク機器900内のトランシーバ910に対応し得ることは、理解されるべきである。通信装置700内の処理ユニット710は、少なくとも一つのプロセッサを使用することによって実装され得て、例えば、図9に示されるネットワーク機器900内のプロセッサ920に対応し得る。あるいは、通信装置700内の処理ユニット710は、少なくとも一つの論理回路を使用することによって実装され得る。通信装置700内のストレージユニット730は、図9に示されるネットワーク機器900内のメモリに対応し得る。
【0285】
ユニットが上述した対応する手順を実行する特定のプロセスは、上述した方法において詳細に説明されることは、さらに理解されるべきである。簡潔にするために、詳細については、本明細書では改めて説明しない。
【0286】
図8は、本開示による、端末機器800の構成を示す図である。端末機器800は、上述した方法における端末機器の機能を実行するために、図1に示されるシステムに使用され得る。その図に示されるように、端末機器800は、プロセッサ820およびトランシーバ810を含む。任意選択で、端末機器800は、メモリをさらに含む。プロセッサ820、トランシーバ810、およびメモリは、内部接続経路を介して相互に通信して、制御信号および/またはデータ信号の伝送を実行し得る。メモリは、コンピュータプログラムを格納するように構成され、プロセッサ820は、メモリ内のコンピュータプログラムを実行して、信号を受信および送信するためにトランシーバ810を制御するように構成される。
【0287】
プロセッサ820は、端末機器の内部に実装される動作であって、上述した方法において説明される動作を実行するように構成され得る。トランシーバ810は、端末機器によってネットワーク機器との間で送信または受信される動作であって、上述した方法において説明される動作を実行するように構成され得る。詳細については、上述した方法における説明を参照されたい。詳細については、本明細書では改めて説明しない。
【0288】
任意選択で、端末機器800は、端末機器内の種々のコンポーネントまたは回路に電力を供給するように構成される電源をさらに含み得る。
【0289】
図9は、本開示による、ネットワーク機器900の構成を示す図である。ネットワーク機器900は、図1に示されるシステムでは、上述した方法におけるネットワーク機器の機能を実行するために使用され得る。その図に示されるように、ネットワーク機器900は、プロセッサ920およびトランシーバ910を含む。任意選択で、ネットワーク機器900は、メモリをさらに含む。プロセッサ920、トランシーバ910、およびメモリは、内部接続経路を介して相互に通信して、制御信号および/またはデータ信号の伝送を実行し得る。メモリは、コンピュータプログラムを格納するように構成され、プロセッサ920は、メモリ内のコンピュータプログラムを実行して、信号を受信および送信するためにトランシーバ910を制御するように構成される。
【0290】
プロセッサ920は、ネットワーク機器の内部に実装される動作であって、上述した方法において説明される動作を実行するように構成され得る。トランシーバ910は、ネットワーク機器によって端末機器との間で送信または受信される動作であって、上述した方法において説明される動作を実行するように構成され得る。詳細については、上述した方法における説明を参照されたい。詳細については、本明細書では改めて説明しない。
【0291】
任意選択で、ネットワーク機器900は、ネットワーク機器内の種々のコンポーネントまたは回路に電力を供給するように構成される電源をさらに含み得る。
【0292】
図8に示される端末機器と、図9に示されるネットワーク機器とでは、プロセッサおよびメモリが、一つの処理装置になるように組み合わされ得て、プロセッサは、メモリに格納されたプログラムコードを実行して、上述した機能を実装するように構成される。特定の実装中、メモリは、プロセッサに一体化されてもよいし、プロセッサから独立していてもよい。プロセッサは、図7における処理ユニットに対応し得る。トランシーバは、図7におけるトランシーバユニットに対応し得る。トランシーバ810は、受信機(または受信機械もしくは受信回路と呼ばれる)および送信機(または送信機械もしくは送信回路と呼ばれる)を含み得る。受信機は、信号を受信するように構成され、送信機は、信号を送信するように構成される。
【0293】
本開示では、プロセッサは、汎用プロセッサ、デジタル信号プロセッサ、特定用途向け集積回路、フィールドプログラマブルゲートアレイもしくは別のプログラマブル論理デバイス、ディスクリートゲートもしくはトランジスタ論理デバイス、またはディスクリートハードウェアコンポーネントとし得て、本開示における方法、手順、および論理ブロック図を実装または実行し得る。汎用プロセッサは、マイクロプロセッサ、任意の従来型プロセッサ、または同様のものとし得る。本開示における方法の手順は、ハードウェアプロセッサによって直接的に実行されてよいし、または、プロセッサ内のハードウェアとソフトウェアモジュールとの組み合わせによって実行されてもよい。
【0294】
本開示では、メモリは、不揮発性メモリ、例えば、ハードディスクドライブ(hard disk drive,HDD)もしくはソリッドステートドライブ(solid-state drive,SSD)であってよいし、または揮発性メモリ(volatile memory)、例えば、ランダムアクセスメモリ(random access memory,RAM)であってもよい。メモリは、命令またはデータ構成の形態において、期待されるプログラムコードを伝達または格納することができ、コンピュータによってアクセスすることができる、他の任意の媒体であるが、これらに限定されない。あるいは、本出願におけるメモリは、ストレージ機能を実装することができ、プログラム命令および/もしくはデータを格納するように構成される、回路または他の任意の装置とし得る。
【0295】
本開示は、プロセッサおよび(通信)インターフェースを含む処理装置をさらに提供する。プロセッサは、上述した方法のうちの何れか一つによる方法を実行するように構成される。
【0296】
処理装置は、一つまたは複数のチップとし得ることは、理解されるべきである。例えば、処理装置は、フィールドプログラマブルゲートアレイ(field programmable gate array,FPGA)、特定用途向け集積チップ(application-specific integrated circuit,ASIC)、システムオンチップ(system on chip,SoC)、中央処理ユニット(central processing unit,CPU)、ネットワークプロセッサ(network processor,NP)、デジタル信号処理回路(digital signal processor,DSP)、マイクロコントローラユニット(microcontroller unit,MCU)、プログラマブル論理デバイス(programmable logic device,PLD)、または別の集積チップとし得る。
【0297】
本開示に提供される方法によれば、本開示は、コンピュータプログラム製品をさらに提供する。コンピュータプログラム製品は、コンピュータプログラムコードを含む。コンピュータプログラムコードが一つまたは複数のプロセッサによって実行される場合、プロセッサを含む装置は、図4図5C、および図6に示される方法を実行することが可能になる。
【0298】
本開示に提供される技法的解決策は、ソフトウェア、ハードウェア、ファームウェア、またはこれらの任意の組合せを使用することによって、全体的または部分的に実装され得る。技法的解決策を実装するためにソフトウェアが使用される場合、その技法的解決策は、コンピュータプログラム製品の形態において全体的または部分的に実装され得る。コンピュータプログラム製品は、一つまたは複数のコンピュータ命令を含む。コンピュータプログラム命令がコンピュータ上にロードされて実行されると、本発明による処理または機能が、全体的または部分的に生成される。コンピュータ命令は、コンピュータ可読記憶媒体に格納されてもよいし、または一方のコンピュータ可読記憶媒体から他方のコンピュータ可読記憶媒体に送信されてもよい。コンピュータ可読記憶媒体は、コンピュータによってアクセス可能である任意の使用可能媒体であってもよいし、または一つもしくは複数の使用可能な媒体を一体化するデータ記憶デバイス、例えば、サーバもしくはデータセンターであってもよい。使用可能媒体は、磁気媒体(例えば、フロッピーディスク、ハードディスク、または磁気テープなど)、光学媒体(例えば、デジタルビデオディスク(digital video disc,DVD)など)、半導体媒体、または同様のものであってよい。
【0299】
本開示に提供される方法によれば、本開示は、コンピュータ可読記憶媒体をさらに提供する。コンピュータ可読記憶媒体は、プログラムコードを格納する。プログラムコードが一つまたは複数のプロセッサによって実行されると、プロセッサを含む装置は、図4図5C、および図6に示される方法を実行することが可能になる。
【0300】
本開示に提供される方法によれば、本開示は、上述した一つまたは複数の装置を含むシステムをさらに提供する。
【0301】
本開示に提供される幾つかの実施形態では、開示されるシステム、装置、および方法は、別の態様において実装されてもよいことは、理解されるべきである。例えば、説明された装置は、単なる一例である。例えば、ユニットに分割することは、単なる論理機能分割であり、実際の実装では別の分割手法が存在し得る。例えば、複数のユニットまたはコンポーネントは、別のシステムと組み合わされてもよいし、もしくは別にシステムに統合されてもよく、または幾つかの機能は、無視されてもよいし、もしくは実行されなくてもよい。さらに、表示または説明された相互結合、または直接結合、または通信接続は、幾つかのインターフェースを使用することによって実装されることがある。装置間またはユニット間の間接的結合、または通信接続は、電子的形態、機械的形態、または別の形態において実装されてよい。
【0302】
別々の部分として説明されたユニットは、物理的に別個であってもよいし、または別個でなくてもよく、ユニットとして表示された部分は、物理的なユニットであってもよいし、または物理的なユニットでなくてもよく、一つの位置に配置されてもよいし、または複数のネットワークユニットに分散されてもよい。ユニットの一部または全部は、解決策の目的を達成するために、実際の要件に基づいて選択され得る。
【0303】
上述した説明は、本開示の単なる特定の実装であるが、本開示の保護範囲を限定することを意図していない。本開示に開示された技法的範囲内において当業者によって容易に考え出される如何なる変形または置換も、本開示の保護範囲に含まれるものとする。したがって、本開示の保護範囲は、請求項の保護範囲に従うものとする。
図1
図2A
図2B
図2C
図2D
図2E
図2F
図3
図4
図5A
図5B
図5C
図6
図7
図8
図9
【手続補正書】
【提出日】2024-07-10
【手続補正1】
【補正対象書類名】特許請求の範囲
【補正対象項目名】全文
【補正方法】変更
【補正の内容】
【特許請求の範囲】
【請求項1】
通信方法であって、
第一の情報を受信するステップであって、前記第一の情報は、第一のインテリジェントモデルの訓練ポリシーを示す、ステップと、
前記訓練ポリシーに従って、前記第一のインテリジェントモデルに対してモデル訓練を実行するステップと
を備える、方法。
【請求項2】
前記訓練ポリシーは、
モデル訓練手法、損失関数情報、モデル初期化手法、モデル最適化アルゴリズムのタイプ、または最適化アルゴリズムのパラメータ
のうちの一つまたは複数を含む、請求項1に記載の方法。
【請求項3】
前記モデル最適化アルゴリズムは、適応的モーメント推定アルゴリズム、確率的勾配降下アルゴリズム、またはバッチ勾配降下アルゴリズムであり、および/または
前記最適化アルゴリズムのパラメータは、学習率、反復回数、またはバッチに処理されるデータ量のうちの一つまたは複数を含む、請求項2に記載の方法。
【請求項4】
前記方法は、
第二の情報を取得するステップであって、前記第二の情報は、前記第一のインテリジェントモデルの構成を示す、ステップ
をさらに備える、請求項1に記載の方法。
【請求項5】
前記第二の情報は、前記第一のインテリジェントモデルの以下の構成情報、すなわち、
ネットワーク層の構成情報、入力データの次元、または出力データの次元
のうちの一つまたは複数を特に示す、請求項4に記載の方法。
【請求項6】
前記ネットワーク層の構成情報は、
前記第一のインテリジェントモデルに構成されるニューラルネットワーク層の数量、前記ニューラルネットワーク層のタイプ、前記ニューラルネットワーク層の使用方式、前記ニューラルネットワーク層の間のカスケード関係、前記ニューラルネットワーク層の入力データの次元、または前記ニューラルネットワーク層の出力データの次元
のうちの一つまたは複数を含む、請求項5に記載の方法。
【請求項7】
前記方法は、
第三の情報を受信するステップであって、前記第三の情報は、訓練データセットに関する情報を示し、前記訓練データセットは、前記第一のインテリジェントモデルを訓練するために使用される、ステップ
をさらに備える、請求項1に記載の方法。
【請求項8】
前記訓練データセットは、訓練サンプルを含むか、または訓練サンプルおよびラベルを含む、請求項7に記載の方法。
【請求項9】
前記方法は、
能力情報を送信するステップであって、前記能力情報は、インテリジェントモデルを稼働させるための能力を示す、ステップ
をさらに備える、請求項1に記載の方法。
【請求項10】
前記能力情報は、以下の能力、すなわち、
前記インテリジェントモデルの稼働をサポートするか否か、稼働することができる前記インテリジェントモデルのタイプ、データ処理能力、またはストレージ能力
のうちの一つまたは複数を特に示す、請求項9に記載の方法。
【請求項11】
前記方法は、
第四の情報を受信するステップであって、前記第四の情報は、テスト情報を示し、前記テスト情報は、前記第一のインテリジェントモデルの性能をテストするために使用される、ステップ
をさらに備える、請求項1に記載の方法。
【請求項12】
前記テスト情報は、
テストデータ情報、性能評価方式、または性能評価パラメータ
のうちの一つまたは複数を含む、請求項11に記載の方法。
【請求項13】
前記方法は
第五の情報を送信するステップであって、前記第五の情報は、前記第一のインテリジェントモデルのテスト結果を示す、ステップ、および/または、
第六の情報を送信するステップであって、前記第六の情報は、推論データを示し、前記推論データは、前記第一のインテリジェントモデルに対するテストデータを推論することによって得られ、前記テスト情報は、前記テストデータを含む、ステップ
をさらに備える、
請求項11に記載の方法。
【請求項14】
前記方法は、
第七の情報を受信するステップであって、前記第七の情報は、前記第一のインテリジェントモデルの更新済み訓練ポリシーを示し、および/または、前記第一のインテリジェントモデルの更新済み構成を示す、ステップ
をさらに備える、請求項13に記載の方法。
【請求項15】
前記第七の情報は、前記第一のインテリジェントモデルの訓練ポリシーにおける少なくとも一つの変形、および/または、前記第一のインテリジェントモデルの構成における少なくとも一つの変形を特に示す、請求項14に記載の方法。
【請求項16】
通信方法であって、
第一の情報を送信するステップであって、前記第一の情報は、第一のインテリジェントモデルの訓練ポリシーを示す、ステップ
を備える、方法。
【請求項17】
前記訓練ポリシーは、
モデル訓練手法、損失関数情報、モデル初期化手法、モデル最適化アルゴリズムのタイプ、または最適化アルゴリズムのパラメータ
のうちの一つまたは複数を含む、請求項16に記載の方法。
【請求項18】
前記モデル最適化アルゴリズムのタイプは、適応的モーメント推定アルゴリズム、確率的勾配降下アルゴリズム、またはバッチ勾配降下アルゴリズムであり、および/または
前記最適化アルゴリズムのパラメータは、学習率、反復回数、またはバッチに処理されるデータ量のうちの一つまたは複数を含む、
請求項17に記載の方法。
【請求項19】
前記方法は、
第二の情報を送信するステップであって、前記第二の情報は、前記第一のインテリジェントモデルの構成を示す、ステップ
をさらに備える、請求項16に記載の方法。
【請求項20】
前記第二の情報は、前記第一のインテリジェントモデルの以下の構成情報、すなわち、
ネットワーク層の構成情報、入力データの次元、または出力データの次元
のうちの一つまたは複数を特に示す、請求項19に記載の方法。
【請求項21】
前記ネットワーク層の構成情報は、
前記第一のインテリジェントモデルに構成されるニューラルネットワーク層の数量、前記ニューラルネットワーク層のタイプ、前記ニューラルネットワーク層の使用方式、前記ニューラルネットワーク層の間のカスケード関係、前記ニューラルネットワーク層の入力データの次元、または前記ニューラルネットワーク層の出力データの次元
のうちの一つまたは複数を含む、請求項20に記載の方法。
【請求項22】
前記方法は、
第三の情報を送信するステップであって、前記第三の情報は、訓練データセットに関する情報を示し、前記訓練データセットは、前記第一のインテリジェントモデルを訓練するために使用される、ステップ
をさらに備える、請求項16に記載の方法。
【請求項23】
前記訓練データセットは、訓練サンプルを含むか、または訓練サンプルおよびラベルを含む、請求項22に記載の方法。
【請求項24】
前記方法は、
能力情報を受信するステップであって、前記能力情報は、インテリジェントモデルを稼働させるための能力を示す、ステップ
をさらに備える、請求項16に記載の方法。
【請求項25】
前記能力情報は、以下の能力、すなわち、
前記インテリジェントモデルの稼働をサポートするか否か、稼働することができる前記インテリジェントモデルのタイプ、データ処理能力、またはストレージ能力
のうちの一つまたは複数を示す、請求項24に記載の方法。
【請求項26】
前記方法は、
第四の情報を送信するステップであって、前記第四の情報は、前記第一のインテリジェントモデルの性能をテストするためのテスト情報を示す、ステップ
をさらに備える、請求項16に記載の方法。
【請求項27】
前記テスト情報は、
テストデータ情報、性能評価方式、または性能評価パラメータ
のうちの一つまたは複数を含む、請求項26に記載の方法。
【請求項28】
前記方法は、
第五の情報を受信するステップであって、前記第五の情報は、前記第一のインテリジェントモデルのテスト結果を示す、ステップ、および/または、
第六の情報を受信するステップであって、前記第六の情報は、推論データを示し、前記推論データは、前記第一のインテリジェントモデルによるテストデータの推論によって得られ、前記テスト情報は、前記テストデータを含む、ステップ
をさらに備える、請求項26に記載の方法。
【請求項29】
前記方法は、
第七の情報を送信するステップであって、前記第七の情報は、前記第一のインテリジェントモデルの更新済み訓練ポリシーを示し、および/または、前記第一のインテリジェントモデルの更新済み構成を示す、ステップ
をさらに備える、請求項28に記載の方法。
【請求項30】
前記第七の情報は、前記訓練ポリシーにおける少なくとも一つのパラメータの変形、および/または、前記第一のインテリジェントモデルの構成における少なくとも一つのパラメータの変形を特に示す、請求項29に記載の方法。
【請求項31】
通信方法であって、
第二の情報を受信するステップであって、前記第二の情報は、第一のインテリジェントモデルの構成を示し、前記第二の情報は、前記第一のインテリジェントモデルの構成情報、すなわち、ネットワーク層の構成情報、入力データの次元、または出力データの次元のうちの一つまたは複数を含む、ステップと、
前記第二の情報に基づいて、前記第一のインテリジェントモデルの構成を決定するステップと、
前記第一のインテリジェントモデルに対してモデル訓練を実行するステップと
を備える、方法。
【請求項32】
前記方法は、
第一の情報を取得するステップであって、前記第一の情報は、前記第一のインテリジェントモデルの訓練ポリシーを示す、ステップ
をさらに備え、
前記第一のインテリジェントモデルに対してモデル訓練を実行するステップは、
前記訓練ポリシーに従って、前記第一のインテリジェントモデルに対してモデル訓練を実行するステップ
を含む、
請求項31に記載の方法。
【請求項33】
前記訓練ポリシーは、
モデル訓練手法、損失関数情報、モデル初期化方法、モデル最適化アルゴリズムのタイプ、または最適化アルゴリズムのパラメータ
のうちの一つまたは複数を含む、請求項32に記載の方法。
【請求項34】
前記方法は、
第三の情報を受信するステップであって、前記第三の情報は、訓練データセットに関する情報を示し、前記訓練データセットは、前記第一のインテリジェントモデルを訓練するために使用される、ステップ
をさらに備える、請求項31に記載の方法。
【請求項35】
前記訓練データセットは、訓練サンプルを含むか、または訓練サンプルおよびラベルを含む、請求項34に記載の方法。
【請求項36】
前記方法は、
能力情報を送信するステップであって、前記能力情報は、インテリジェントモデルを稼働させるための能力を示す、ステップ
をさらに備える、請求項31に記載の方法。
【請求項37】
前記能力情報は、以下の能力、すなわち、
前記インテリジェントモデルの稼働をサポートするか否か、稼働することができる前記インテリジェントモデルのタイプ、データ処理能力、またはストレージ能力
のうちの一つまたは複数を示す、請求項36に記載の方法。
【請求項38】
前記方法は、
第四の情報を受信するステップであって、前記第四の情報は、テスト情報を示し、前記テスト情報は、前記第一のインテリジェントモデルの性能をテストするために使用される、ステップ
をさらに備える、請求項31に記載の方法。
【請求項39】
前記テスト情報は、
テストデータ情報、性能評価方式、または性能評価パラメータ
のうちの一つまたは複数を含む、請求項38に記載の方法。
【請求項40】
前記方法は、
第五の情報を送信するステップであって、前記第五の情報は、前記第一のインテリジェントモデルのテスト結果を示す、ステップ、および/または、
第六の情報を送信するステップであって、前記第六の情報は、推論データを示し、前記推論データは、前記第一のインテリジェントモデルによってテストデータを推論することによって得られ、前記テスト情報は、前記テストデータを含む、ステップ
をさらに備える、請求項38に記載の方法。
【請求項41】
前記方法は、
第七の情報を受信するステップであって、前記第七の情報は、前記第一のインテリジェントモデルの更新済み訓練ポリシーを示し、および/または、前記第一のインテリジェントモデルの更新済み構成を示す、ステップと
をさらに備える、請求項31に記載の方法。
【請求項42】
前記第七の情報は、前記第一のインテリジェントモデルの訓練ポリシーにおける少なくとも一つの変形、および/または前記第一のインテリジェントモデルの構成における少なくとも一つの変形を特に示す、請求項41に記載の方法。
【請求項43】
通信方法であって
第二の情報を送信するステップであって、前記第二の情報は、第一のインテリジェントモデルの構成を示し、前記第二の情報は、前記第一のインテリジェントモデルの以下の構成情報、すなわち、ネットワーク層の構成情報、入力データの次元、または出力データの次元のうちの一つまたは複数を含む、ステップ
を備える、方法。
【請求項44】
前記方法は、
第一の情報を送信するステップであって、前記第一の情報は、前記第一のインテリジェントモデルの訓練ポリシーを示す、ステップ
をさらに備える、請求項43に記載の方法。
【請求項45】
前記訓練ポリシーは、
モデル訓練手法、損失関数情報、モデル初期化手法、モデル最適化アルゴリズムのタイプ、または最適化アルゴリズムのパラメータ
のうちの一つまたは複数を含む、請求項44に記載の方法。
【請求項46】
前記方法は、
第三の情報を送信するステップであって、前記第三の情報は、訓練データセットに関する情報を示し、前記訓練データセットは、前記第一のインテリジェントモデルを訓練するために使用される、ステップ
をさらに備える、請求項43に記載の方法。
【請求項47】
前記訓練データセットは、訓練サンプルを含むか、または訓練サンプルおよびラベルを含む、請求項46に記載の方法。
【請求項48】
前記方法は、
能力情報を受信するステップであって、前記能力情報は、インテリジェントモデルを稼働させるための能力を示す、ステップ
をさらに備える、請求項43に記載の方法。
【請求項49】
前記能力情報は、以下の能力、すなわち、
前記インテリジェントモデルの稼働をサポートするか否か、稼働することができる前記インテリジェントモデルのタイプ、データ処理能力、またはストレージ能力
のうちの一つまたは複数を示す、請求項48に記載の方法。
【請求項50】
前記方法は、
第四の情報を送信するステップであって、前記第四の情報は、テスト情報を示し、前記テスト情報は、前記第一のインテリジェントモデルの性能をテストするために使用される、ステップ
をさらに備える、請求項43に記載の方法。
【請求項51】
前記テスト情報は、
テストデータ情報、性能評価手法、または性能評価パラメータ
のうちの一つまたは複数を含む、請求項50に記載の方法。
【請求項52】
前記方法は、
第五の情報を受信するステップであって、前記第五の情報は、前記第一のインテリジェントモデルのテスト結果を示す、ステップ、および/または、
第六の情報を受信するステップであって、前記第六の情報は、推論データを示し、前記推論データは、前記第一のインテリジェントモデルに対するテストデータを推論することによって得られ、前記テスト情報は、前記テストデータを含む、ステップ
をさらに備える、請求項50に記載の方法。
【請求項53】
前記方法は、
第七の情報を送信するステップであって、前記第七の情報は、前記第一のインテリジェントモデルの更新済み訓練ポリシーを示し、および/または、前記第一のインテリジェントモデルの更新済み構成を示す、ステップ
をさらに備える、請求項43に記載の方法。
【請求項54】
前記第七の情報は、前記訓練ポリシーにおける少なくとも一つの変形、および/または、前記第一のインテリジェントモデルの構成における少なくとも一つの変形を特に示す、請求項53に記載の方法。
【請求項55】
通信装置であって、請求項1ないし15、または請求項31ないし42の何れか一つに記載の方法を実装するように構成されるモジュールを備える、通信装置。
【請求項56】
プロセッサおよびメモリを備える通信装置であって、前記メモリは、前記プロセッサに結合され、前記プロセッサは、請求項1ないし15、または請求項31ないし42の何れか一つに記載の方法を実行するように構成される、通信装置。
【請求項57】
プロセッサおよび通信インターフェースを備える通信装置であって、前記プロセッサは、前記通信インターフェースを介して、請求項1ないし15、または請求項31ないし42の何れか一つに記載の方法を実行する、通信装置。
【請求項58】
通信装置であって、請求項16ないし30、または請求項43ないし54の何れか一つに記載の方法を実装するように構成されるモジュールを備える、通信装置。
【請求項59】
プロセッサおよびメモリを備える通信装置であって、前記メモリは、前記プロセッサに結合され、前記プロセッサは、請求項16ないし30、または請求項43ないし54の何れか一つに記載の方法を実行するように構成される、通信装置。
【請求項60】
プロセッサおよび通信インターフェースを備える通信装置であって、前記プロセッサは、前記通信インターフェースを介して、請求項16ないし30、または請求項43ないし54の何れか一つに記載の方法を実行する、通信装置。
【請求項61】
通信システムであって、請求項1ないし15、または請求項31ないし42の何れか一つに記載の方法を実行するように構成される通信装置と、請求項16ないし30、または請求項43ないし54の何れか一つに記載の方法を実行するように構成される通信装置とを備える、通信システム。
【請求項62】
命令を格納するコンピュータ可読記憶媒体であって、前記命令がコンピュータ上で実行されると、前記コンピュータは、請求項1ないし54の何れか一つに記載の方法を実行することが可能になる、コンピュータ可読記憶媒体。
【請求項63】
命令を含むコンピュータプログラムであって、前記命令がコンピュータ上で実行されると、前記コンピュータは、請求項1ないし54の何れか一つに記載の方法を実行することが可能になる、コンピュータプログラム。
【手続補正2】
【補正対象書類名】明細書
【補正対象項目名】0118
【補正方法】変更
【補正の内容】
【0118】
任意選択で、上述されるように、図2Dまたは図2Eにおいて、アクセスネットワーク機器のOAMと、コアネットワーク機器のOAMとは、別々に配備され得る。図2Dまたは図2Eにおいて、コアネットワーク機器は、例えば、一つまたは複数のAIエンティティを含む一つまたは複数のモジュールを含み得る。

【国際調査報告】