IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 緯創資通股▲ふん▼有限公司の特許一覧

<>
  • 特開-前置補償方法及びその前置補償回路 図1
  • 特開-前置補償方法及びその前置補償回路 図2
  • 特開-前置補償方法及びその前置補償回路 図3
  • 特開-前置補償方法及びその前置補償回路 図4
  • 特開-前置補償方法及びその前置補償回路 図5
  • 特開-前置補償方法及びその前置補償回路 図6
  • 特開-前置補償方法及びその前置補償回路 図7
  • 特開-前置補償方法及びその前置補償回路 図8
  • 特開-前置補償方法及びその前置補償回路 図9
  • 特開-前置補償方法及びその前置補償回路 図10
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024082216
(43)【公開日】2024-06-19
(54)【発明の名称】前置補償方法及びその前置補償回路
(51)【国際特許分類】
   H03F 1/32 20060101AFI20240612BHJP
   H03F 3/24 20060101ALI20240612BHJP
【FI】
H03F1/32 141
H03F3/24
【審査請求】有
【請求項の数】5
【出願形態】OL
(21)【出願番号】P 2023057156
(22)【出願日】2023-03-31
(31)【優先権主張番号】111147015
(32)【優先日】2022-12-07
(33)【優先権主張国・地域又は機関】TW
(71)【出願人】
【識別番号】504429600
【氏名又は名称】緯創資通股▲ふん▼有限公司
【氏名又は名称原語表記】WISTRON CORPORATION
(74)【代理人】
【識別番号】100107766
【弁理士】
【氏名又は名称】伊東 忠重
(74)【代理人】
【識別番号】100070150
【弁理士】
【氏名又は名称】伊東 忠彦
(74)【代理人】
【識別番号】100135079
【弁理士】
【氏名又は名称】宮崎 修
(72)【発明者】
【氏名】陳 志明
【テーマコード(参考)】
5J500
【Fターム(参考)】
5J500AA01
5J500AA41
5J500AC21
5J500AF08
5J500AF17
5J500AK33
5J500AK34
5J500AK53
5J500AM08
5J500AM13
5J500AM20
5J500AS14
5J500AT01
5J500AT02
5J500NG03
5J500NG06
5J500NN02
5J500NN16
(57)【要約】
【課題】電力増幅器の非線形性を補償するよう電力増幅器へ結合される前置補償回路のための前置補償方法を提供する。
【解決手段】方法は、前置補償回路によって受信された第1入力信号を第1プリディストーション出力信号に変換するよう少なくとも1つのパラメータ又は少なくとも1つのハイパーパラメータに従ってプリディストーションを実行するステップと、ベイズ最適化、因果ベイズ最適化、又は動的因果ベイズ最適化に従って少なくとも1つのパラメータ又は少なくとも1つのハイパーパラメータを更新するステップと、前置補償回路によって受信された第2入力信号を第2プリディストーション出力信号に変換するよう、更新された少なくとも1つのパラメータ又は更新された少なくとも1つのハイパーパラメータに従ってプリディストーションを実行するステップとを含む。
【選択図】図3
【特許請求の範囲】
【請求項1】
電力増幅器へ結合される前置補償回路のための前置補償方法であって、
前記前置補償回路によって受信された第1入力信号を第1プリディストーション出力信号に変換するよう少なくとも1つのパラメータ又は少なくとも1つのハイパーパラメータに従ってプリディストーションを実行するステップと、
ベイズ最適化、因果ベイズ最適化、又は動的因果ベイズ最適化に従って前記少なくとも1つのパラメータ又は前記少なくとも1つのハイパーパラメータを更新するステップと、
前記前置補償回路によって受信された第2入力信号を第2プリディストーション出力信号に変換するよう、更新された前記少なくとも1つのパラメータ又は更新された前記少なくとも1つのハイパーパラメータに従ってプリディストーションを実行するステップと
を有する前置補償方法。
【請求項2】
前記ベイズ最適化、前記因果ベイズ最適化、又は前記動的因果ベイズ最適化に従って前記少なくとも1つのパラメータ又は前記少なくとも1つのハイパーパラメータを更新する前記ステップは、
前記前置補償回路の前記少なくとも1つのパラメータ又は前記少なくとも1つのハイパーパラメータを決定するよう前記ベイズ最適化、前記因果ベイズ最適化、又は前記動的因果ベイズ最適化を少なくとも1つのデータに適用することを有し、
前記少なくとも1つのデータは、前記第1プリディストーション出力信号又は前記第1プリディストーション出力信号に対応する前記電力増幅器によって出力された出力信号から取り出される、
請求項1に記載の前置補償方法。
【請求項3】
前記ベイズ最適化、前記因果ベイズ最適化、又は前記動的因果ベイズ最適化に従って前記少なくとも1つのパラメータ又は前記少なくとも1つのハイパーパラメータを更新する前記ステップは、
前記因果ベイズ最適化又は前記動的因果ベイズ最適化に従って複数の独立変数から複数の独立変数最適値をまとめて探すことを有し、
前記複数の独立変数最適値は、前記少なくとも1つのパラメータ又は前記少なくとも1つのハイパーパラメータを有し、
損失関数及び前記少なくとも1つの独立変数について構成される因果グラフの因果構造と、前記因果グラフの複数の因果変数とが一緒に決定され、
前記損失関数は、出力信号又は前記出力信号に対応するラベルの関数である、
請求項1に記載の前置補償方法。
【請求項4】
前記ベイズ最適化、前記因果ベイズ最適化、又は前記動的因果ベイズ最適化に従って前記少なくとも1つのパラメータ又は前記少なくとも1つのハイパーパラメータを更新する前記ステップは、
前記動的因果ベイズ最適化に従って少なくとも1つの独立変数から少なくとも1つの独立変数最適値を探すことを有し、
前記少なくとも1つの独立変数最適値は、前記少なくとも1つのパラメータ又は前記少なくとも1つのハイパーパラメータを有し、
第2時点での第2損失関数は、前記第2時点での前記少なくとも1つの独立変数、第1時点での前記少なくとも1つの独立変数、又は前記第1時点での第1損失関数の関数である、
請求項1に記載の前置補償方法。
【請求項5】
電力増幅器へ結合される前置補償回路であって、
デジタルプリディストーションアクチュエータであり、当該デジタルプリディストーションアクチュエータによって受信された第1入力信号を第1プリディストーション出力信号に変換するよう少なくとも1つのパラメータ又は少なくとも1つのハイパーパラメータに従ってプリディストーションを実行するよう構成される前記デジタルプリディストーションアクチュエータと、
ベイズ最適化、因果ベイズ最適化、又は動的因果ベイズ最適化に従って前記少なくとも1つのパラメータ又は前記少なくとも1つのハイパーパラメータを更新するよう構成される訓練モジュールと
を有し、
前記デジタルプリディストーションアクチュエータは、当該デジタルプリディストーションアクチュエータによって受信された第2入力信号を第2プリディストーション出力信号に変換するよう、更新された前記少なくとも1つのパラメータ又は更新された前記少なくとも1つのハイパーパラメータに従ってプリディストーションを実行する、
前置補償回路。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、前置補償方法及びその前置補償回路に関係があり、より具体的には、計算複雑性を低減する又は精度若しくは効率を改善する前置補償方法及び前置補償回路に関係がある。
【背景技術】
【0002】
電力増幅器は、本質的に非線形である。非線形性は、ビットエラーレート(BER)及びデータスループットを低下させる。非線形性を低減させるよう、電力増幅器(PA)はより低い電力で稼働され、その結果、効率が下がる。
【0003】
他方で、デジタルプリディストーション(DPD)は、最も費用対効果の高い線形化手法の1つである。デジタルプリディストータ(又はそのアルゴリズム)は、デジタルプリディストータの配置を成功させるために、PAの動作を正確に分析又はモデル化する必要がある。信号帯域幅が広くなるにつれて、より複雑な周波数、電気的、及び熱的挙動を持つPAはメモリ効果を示す傾向がある。従って、より進歩したDPDアルゴリズムが必要である。DPD実施のための大部分の一般的なアルゴリズムは、Volterra級数及びその派生物である。しかし、Volterra級数の多数の係数はそれを実際の応用にとって魅力的でないものにする。これは、係数が多いと計算負荷が増大し、未知の係数の統計的信頼性のためにより多くの入力/出力データが必要になるからである。従って、DPDに関しては未だ改善の余地がある。
【発明の概要】
【発明が解決しようとする課題】
【0004】
本発明の主な目的は、計算複雑性を低減するよう又は精度若しくは効率を改善するよう前置補償方法及び前置補償回路を提供することである。
【課題を解決するための手段】
【0005】
本発明の実施形態は、電力増幅器へ結合される前置補償回路のための前置補償方法であって、前記前置補償回路によって受信された第1入力信号を第1プリディストーション出力信号に変換するよう少なくとも1つのパラメータ又は少なくとも1つのハイパーパラメータに従ってプリディストーションを実行するステップと、ベイズ最適化、因果ベイズ最適化、又は動的因果ベイズ最適化に従って前記少なくとも1つのパラメータ又は前記少なくとも1つのハイパーパラメータを更新するステップと、前記前置補償回路によって受信された第2入力信号を第2プリディストーション出力信号に変換するよう、更新された前記少なくとも1つのパラメータ又は更新された前記少なくとも1つのハイパーパラメータに従ってプリディストーションを実行するステップとを有する前置補償方法を開示する。
【0006】
本発明の実施形態は、電力増幅器へ結合される前置補償回路であって、デジタルプリディストーションアクチュエータであり、当該デジタルプリディストーションアクチュエータによって受信された第1入力信号を第1プリディストーション出力信号に変換するよう少なくとも1つのパラメータ又は少なくとも1つのハイパーパラメータに従ってプリディストーションを実行するよう構成される前記デジタルプリディストーションアクチュエータと、ベイズ最適化、因果ベイズ最適化、又は動的因果ベイズ最適化に従って前記少なくとも1つのパラメータ又は前記少なくとも1つのハイパーパラメータを更新するよう構成される訓練モジュールとを有し、前記デジタルプリディストーションアクチュエータは、当該デジタルプリディストーションアクチュエータによって受信された第2入力信号を第2プリディストーション出力信号に変換するよう、更新された前記少なくとも1つのパラメータ又は更新された前記少なくとも1つのハイパーパラメータに従ってプリディストーションを実行する、前置補償回路を開示する。
【0007】
本発明のこれら及び他の目的は、様々な図及び図面に示される好ましい実施形態の以下の詳細な説明を読めば、当業者にはきっと明らかになるであろう。
【図面の簡単な説明】
【0008】
図1】本発明の実施形態に係る増幅回路の模式図である。
図2】本発明の実施形態に係る増幅回路20のための間接学習アーキテクチャの模式図である。
図3】本発明の実施形態に係る増幅回路のための回帰型間接学習アーキテクチャの模式図である。
図4】本発明の実施形態に係る回帰型DPD-PAカスケードモデルの模式図である。
図5】本発明の実施形態に係る損失関数と、パラメータと、ハイパーパラメータとの間の関係の模式図である。
図6】本発明の実施形態に係る1次元問題のためのベイズ最適化の模式図である。
図7】本発明の実施形態に係る因果グラフの部分の模式図である。
図8】本発明の実施形態に係るグラウンディングデータ及び因果グラフの部分の模式図である。
図9】本発明の実施形態に係る因果変数及びサブデータの模式図である。
図10】ベイズ最適化、因果ベイズ最適化、及び動的因果ベイズ最適化の模式図である。
【発明を実施するための形態】
【0009】
図1は、本発明の実施形態に係る増幅回路10の模式図である。増幅回路10の前置補償回路120は、時間、温度、異なる動作チャネルにより変化する増幅回路10の電力増幅器(power amplifier,PA)150の非線形性の変動に適応することができ、前置補償回路120は、デジタルプリディストータと見なされ又はそのようなものとして機能し得る。
【0010】
デジタルプリディストーション(digital pre-distortionDPD)は、信号がデジタル-アナログコンバータ(DAC)に入る前に入力での複素波形を変更することによって、PA150の非線形性を補正し得る。他の態様では、PA150の非線形性は、前置補償回路120のプリディストーション出力信号z(t)の波形を補正し得るので、前置補償回路120及びPA150のカスケード/組み合わせが線形性を達成し得る。結果として、前置補償回路120の後のPA150の出力信号y(t)は、高度に線形な成分に由来するように見え、入力信号x(t)は、一定の利得で増幅され得る。図1で破線により示されるように、前置補償回路120は、PA150の逆と見なされてもよい。つまり、前置補償回路120は、本質的に、入力信号x(t)とPA150との間に非線形関数(例えば、PA150の逆関数)を挿入して、(線形な)出力信号y(t)を生成する。例えば、PA150の応答関数fPAは、y(t)=fPA(z(t))を満足し、前置補償回路120の応答関数fDPDは、z(t)=fDPD(x(t))を満足し、このとき、fDPD=G×fPA -1であり、Gは実質的に一定である。
【0011】
図2は、本発明の実施形態に係る増幅回路20のための間接学習アーキテクチャの模式図である。増幅回路20は、ピーク対平均電力費(peak-to-average power ratio,PAPR)を低減するための波高因子低減(crest-factor reduction,CFR)210、前置補償回路220、DAC230、アップコンバータ240、PA250、ダウンコンバータ260、及びアナログ-デジタルコンバータ(ADC)270を含み得る。
【0012】
DPD(機能)は、ソフトウェアによりアルゴリズム的に定義されてよい。間接学習アーキテクチャにおいて、アルゴリズムは、プリディストーション及び訓練のための2つの同じメモリ多項式モデルを使用してよい。例えば、前置補償回路220は、DPDアクチュエータ221及び訓練モジュール222を含んでよい。DPDアクチュエータ221は、実時間において入力信号x(t)のプリディストーションを実行するよう構成される。DPDアクチュエータ221は、高速で各入力信号x(t)に対して同じ/類似した計算を実行するので、DPDアクチュエータ221がフィールド・プログラマブル・ゲート・アレイ(FPGA)、特定用途向け集積回路(ASIC)、又は他の回路によって実装されることは適切である。訓練モジュール222は、PA250の出力信号y(t)の観察に基づきDPDアクチュエータ221のパラメータ又はハイパーパラメータを更新する(図2で破線によって示されている。)。訓練モジュール222は比較的に複雑な計算を伴うので、訓練モジュール222がデジタル信号プロセッサ(DSP)又は他の回路によって実装されることは適切である。
【0013】
前置補償回路220を訓練するために間接学習アーキテクチャを使用することは、前置補償回路220が入力信号x(t)及びPA250の出力信号y(t)に従って直接に(つまり、DPDアクチュエータ221のパラメータ又はハイパーパラメータを発見/決定するために)構成されることを可能にする。訓練モジュール222のフィードバック経路は、その入力としてy(t)/Gを取り、その出力として^z(t)を取ってよく、このとき、Gは、線形化後のPA250の利得を制御する。DPDアクチュエータ221は、フィードバック経路のコピー(つまり、訓練モジュール222のコピー)と見なされてもよく、それは、その入力として入力信号x(t)を取り、その出力としてプリディストーション出力信号z(t)を取ってよい。理想はy(t)=G×x(t)を作ることであり、これは、z(t)=^z(t)にならしめ、プリディストーション出力信号z(t)と出力^z(t)との間の誤差信号e(t)にe(t)=0を満足させる。アルゴリズムは、プリディストーション出力信号z(t)と出力^z(t)との間の差に等しい誤差信号e(t)又は誤差信号e(t)の二乗(つまり、||e(t)||)が最小にされるときに収束する。
【0014】
メモリ効果に起因して、PA250は、メモリを備えた非線形システムになる。つまり、PA250によって(現在/瞬間的に)入力される出力信号y(t)は、現在の入力に依存するだけではなく、前/過去の入力値の関数でもある。例えば、それは、y(t)=fPA(z(τ))を満足し、このとき、τ∈(-∞,t)である。
【0015】
メモリ効果に関して、図3は、本発明の実施形態に係る増幅回路30のための回帰型間接学習アーキテクチャの模式図である。増幅回路30の構造は、増幅回路20のそれと基本的に類似している(なお、CRF210、DAC230、アップコンバータ240、ダウンコンバータ260、及びADC270は図示せず。)。違いは主に信号伝送にある。
【0016】
具体的には、増幅回路30の前置補償回路320のDPDアクチュエータ321によって受信された入力信号x(t)は、DPDアクチュエータ321のパラメータ及びハイパーパラメータを使用してDPDアクチュエータ321によってプリディストーションされ、それによって、プリディストーション出力信号z(t)が出力される。プリディストーション出力信号z(t)は、PA350の出力部で出力信号y(t)を供給するよう増幅回路30のPA350によって増幅される。前置補償回路320の訓練モジュール322は、DPDアクチュエータ321によって導入されるプリディストーションがPA350の非線形性を補償し得る(つまり、プリディストーションは、PA350の非線形性から生じる歪みの逆である。)ように、パラメータ及びハイパーパラメータを計算/訓練する。訓練モジュール322は、PA350の出力部からの出力信号y(t)を表す(デジタル)信号S4を受信し得る。訓練モジュール322によって出力される信号S1と信号S2との間の差に応じて、前置補償回路320の結合器223(減算ユニット/回路であってよい。)は、誤差信号S3を出力する。訓練モジュール322は、誤差信号S3を観察し、損失関数又は誤差信号S3を最小限にするよう(例えば、誤差信号S3をゼロにするよう)パラメータ及びハイパーパラメータを適応的に設定する。損失関数は、モデルの出力^y(t)(例えば、推定値)の関数、又は出力^y(t)に対応するラベル(例えば、期待値)の関数であってよい。例えば、損失関数は、出力^y(t)とラベルとの間の差に等しくてよい。ラベルは、入力信号x(t)の関数であってよい。
【0017】
一実施形態で、訓練モジュール322の信号S1は、例えば、出力信号y(t)に対応する出力^z(t)(図3で破線によって示される。)と、出力信号y(t-1)に対応する出力^y(t-1)(図3で点線によって示される。)とに分けられ得る。信号S2は、例えば、プリディストーション出力信号z(t)(図3で他の実線によって示される。)と、出力信号y(t-1)(図3で他の点線によって示される。)とに分けられ得る。結合器223は、信号^z(t)及びz(t)に応答して、e(t)=z(t)-^z(t)を満足する、誤差信号S3のうちの誤差信号e(t)(図3で更なる他の実線によって示される。)を出力し、信号^y(t-1)及びy(t-1)に応答して、e(t-1)=y(t-1)-^y(t-1)を満足する、誤差信号S3のうちの信号e(t-1)(図3で更なる他の点線によって示される。)を出力し得る。言い換えると、メモリ効果に関する限り、本発明の実施形態における回帰型間接学習アーキテクチャは、誤差信号S3の2種類の信号(又はより多くの種類の誤差信号)を考慮して損失関数を最小化する。従って、本発明の実施形態は、PA350のためのDPDアクチュエータ321のプリディストーション出力信号z(t)を考慮するだけではなく、PA350のためのDPDアクチュエータ321の前のプリディストーション出力信号z(t-1)からz(t-k)のうちの少なくとも1つも考慮し、このとき、kは正の整数である。PA350は、プリディストーション出力信号z(t)にだけでなく、前にPA350から出力された前の出力信号y(t-1)からy(t-k)のうちの少なくとも1つにも従って、作動する。
【0018】
他の実施形態では、訓練モジュール322の信号S1は、例えば、^z(t)+^y(t-1)/G、^z(t)+^z(t-1)、又はa×^z(t)+a×^z(t-1)+a×^z(t-2)・・・+a×^z(t-k)であってよく、このとき、係数aからaは実数である。言い換えると、信号S1は、PA350の現在の出力信号y(t)に関係があるだけではなく、過去にPA350から出力された前の出力信号y(t-1)、y(t-2)、・・・、又はy(t-k)にも関係がある。信号S2は、例えば、z(t)+y(t-1)/G、z(t)+z(t-1)、又はa×z(t)+a×z(t-1)+a×z(t-2)・・・+a×z(t-k)であってよい。言い換えると、信号S2は、現在のプリディストーション出力信号z(t)に関係があるだけではなく、前のプリディストーション出力信号z(t-1)、z(t-2)、・・・、又はz(t-k)にも関係がある。信号S1と信号S2との間の誤差信号S3は、例えば、e(t)+e(t-1)又はb×e(t)+b×e(t-1)+b×e(t-2)・・・+b×e(t-k)であってよく、このとき、係数bからbは実数である。言い換えると、信号S3は、誤差信号e(t)に関係があるだけではなく、前の誤差信号e(t-1)、e(t-2)、・・・、又はe(t-k)にも関係がある。DPDアクチュエータ321の応答関数PA-1のパラメータ又はハイパーパラメータは、損失関数を最小化することによって決定/取得されてよい。その結果、出力信号y(t)の最終的な非線形性を低減し得るプリディストーション出力信号z(t)が決定/取得され得る。
【0019】
上記の通りに、本発明は、Volterra級数モデルの代わりに回帰型DPD-PAカスケードモデルを採用し得る。例えば、図4は、本発明の実施形態に係る回帰型DPD-PAカスケードモデル40の模式図である。回帰型DPD-PAカスケードモデル40は増幅回路30において使用されてよい。図4に示されるように、回帰型ニューラルネットワーク(recurrent neural network,RNN)と同様に、回帰型DPD-PAカスケードモデル40は、図4の最も右側にある応答関数PA(第1応答関数PAと呼ばれる。)が、対応する重みWを乗じられた左の応答関数PAの出力信号y(t-1)と、対応する重みSを乗じられた下の応答関数PA-1(前の/第1応答関数PA)のプリディストーション出力信号z(t)とを受け取るように、重みV、W、S、及びUを含んでよい。RNNと同様に、DPDアクチュエータ321とPA350とのカスケードは、前の出力が入力として使用されることを可能にするので、前の出力から学習されたものとともに現在の入力に基づき決定が行われ得る。DPDアクチュエータ321の応答関数PA-1は、PA350の応答関数PAの逆数のコピーであってよい。DPDアクチュエータ321の応答関数PA-1は、間隔をあけるのとは対照的に、PA350の応答関数PAの逆数のコピーによって実時間で更新され得る。
【0020】
回帰型DPD-PAカスケードモデル40の訓練が始まる前に、CFR210はオフされてもよい。さもなければ、CFR210は、回帰型DPD-PAカスケードモデル40の訓練に影響を及ぼす可能性がある。つまり、前置補償回路220の訓練は、PA250の全ての特性が前置補償回路220を訓練するために取得され得るように、CFR210が無効にされた状態でPA250のサンプルが収集されるときに起こる。
【0021】
回帰型DPD-PAカスケードモデル40の訓練(段階)において、最初に、入力信号x(t)のサンプルに対応するプリディストーション出力信号z(t)及び出力信号y(t)が、訓練モジュール322及びDPDアクチュエータ321の(最初の)応答関数PA-1に従って生成される。プリディストーション出力信号z(t)及び出力信号y(t)は、訓練モジュール322を更新するために訓練モジュール322でのインクリメンタル学習に使用されてよい(つまり、図4の応答関数PA-1は、インクリメンタル学習の後に他の応答関数PA-1で置き換えられる。)。本発明は、入力信号x(t)が図4の回帰型DPD-PAカスケードモデル40により出力信号y(t)に変換される方法を決定/評価し、次いで、訓練モジュール322の応答関数PA-1をDPDアクチュエータ321の応答関数PA-1にコピーする。反復後、(最終的な)応答関数PA-1(つまり、図4の右手下隅にある応答関数PA-1)が、入力信号x(t)を最適に出力信号y(t)に変換するために、決定されてよい。言い換えると、図4に示されるように、信号x、z、yのサンプルは、回帰型DPD-PAカスケードモデル40を訓練するために使用され得るので、応答関数PA-1(つまり、逆関数fPA -1)のためのモデルのパラメータ又はハイパーパラメータは、前置補償回路320を更新するよう計算される。
【0022】
前置補償回路320が、時点tからt-kについて訓練された応答関数PA-1のためのモデルのパラメータ又はハイパーパラメータによって更新された後、訓練(段階)は完了し、CFR210は、回帰型DPD-PAカスケードモデル40を試験するためにオンされてよい。
【0023】
より具体的に、訓練(段階)において、回帰型DPD-PAカスケードモデル40は、計算複雑性を減らすために、誤差逆伝播法(backward propagation)を用いて回帰型DPD-PAカスケードモデル40を訓練する代わりに、動的因果ベイズ最適化(Dynamic Causal Bayesian Optimization)(又はベイズ最適化、因果ベイズ最適化)を用いて回帰型DPD-PAカスケードモデル40のパラメータ/ハイパーパラメータを最適化し得る。
【0024】
ベイズ最適化を例とされたい。ベイズ最適化は、式が不明である関数の極値問題を解くためのブラックボックス最適化アルゴリズムである。例えば、L(P,P,・・・,P,HP,HP,・・・,HP)=uef(P,P,・・・,P,HP,HP,・・・HP)であり、このとき、L()は、モデルの損失関数(目的関数として機能してもよい。)を表すことができ、uef()は、式が不明である関数を表すことができ、PからPは、モデルのパラメータをあらわすことができ、HPからHPは、モデルのハイパーパラメータを表すことができ、m及びnは正の整数である。言い換えると、モデルの損失関数L()、パラメータ及びハイパーパラメータの間の関係関数uef()の式は不明である。損失関数L()を最小化/最大化する任意の時点でのパラメータ及びハイパーパラメータは、ベイズ最適化を使用することによって計算され得る。このようにして、前置補償回路320は、前置補償回路320及びPA350の非線形性を1つの線形結果にまとめるよう(つまり、非線形性を補償するよう)更新されてよい。
【0025】
例えば、図5は、本発明の実施形態に係る、損失関数L()と、パラメータPからPと、ハイパーパラメータHPからHPとの間の関係の模式図である。しかし、図5は、損失関数L()と、パラメータPからPと、ハイパーパラメータHPからHPとの間に関係があることを特定するための例示にすぎず、損失関数L()と、パラメータPからPと、ハイパーパラメータHPからHPとの間の関係関数uef()の式は、ほとんどの場合に不明である。図5の水平軸上の1つの単一点の座標は、パラメータPからP及びハイパーパラメータHPからHPによって形成/構成される多次元空間内の点に対応し得る。
【0026】
関係関数uef()の式は不明であるから、ベイズ最適化は、極値点を求めるために、部分的/有限なサンプリング点を用いて関係関数uef()に大まかに適合し、前のサンプリング点の情報を利用して次のサンプリング点を決定し得る。例えば、図6は、本発明の実施形態に係る、1次元問題のためのベイズ最適化の模式図であり、太い実線は、損失関数L()の推定関数値を表し、黒点P1からP5は、夫々、発見されたサンプリング点を表し、2本の点線によって囲まれているエリアは、各点での損失関数L()の変動幅(平均値に中心があり、標準偏差に比例する。)を表し、細い実線は、獲得関数(acquisition function)を表す。ベイズ最適化の考えは、最初に初期候補解セット(例えば、黒点P1に対応する損失関数L()、パラメータ、及びハイパーパラメータ)を生成し、次いで、初期候補解セットに基づき、極値を有する可能性がある次のサンプリング点(例えば、黒点P2)を探し、反復が終了するまで、極値を有する可能性がある次のサンプリング点(例えば、黒点P3~P5)を繰り返し探し、探された全てのサンプリング点(例えば、黒点P1~P5)を候補解セットに加えることである。最終的に、(大域的)極値点が、候補解セットのサンプリング点から問題の解として見つけられ(例えば、黒点P5に対応する損失関数L()、パラメータ及びハイパーパラメータ)、それによって、前置補償回路320を更新するために使用されるパラメータPからP及びハイパーパラメータHPからHPを見つける。
【0027】
ベイズ最適化は、既に発見されているサンプリング点(例えば、黒点P1)に従って次のサンプリング点(例えば、黒点P2)を決定するよう、発見されたサンプリング点の関数値(例えば、黒点P1に対応する損失関数)に基づき、真の損失関数の平均値及び分散を推定する。図6において太い実線で表されている推定された損失関数(つまり、各点での損失関数の平均値)は、サンプリング点(例えば、黒点P1~P4)を通り、分散は最小化される。分散は、推定された目的関数がサンプリング点(例えば、黒点P1~P4)から離れると大きくなる。図6において細い実線で表されている獲得関数は、平均値及び分散に従って構成され得、つまり、獲得関数は、平均値及び分散の関数であることができる。点(例えば、黒点P1~P5のうちの1つ)が損失関数の極値点である可能性の推定は、その点が検索する価値がある程度を反映する。獲得関数の相対的な極値点は、損失関数の次のサンプリング点に対応し得る。例えば、図6において長方形ボックスで表されてる点P5は、獲得関数の最大点であり、(最大点に対応するパラメータPからP及びハイパーパラメータHPからHPに従って)損失関数の次のサンプリング点(つまり、黒点P5)に対応し得る。
【0028】
一実施形態で、黒点P1~P5のうちの1つに対応する損失関数L()、パラメータPからP、及びハイパーパラメータHPからHPは、入力信号x(t)からx(t-k)、プリディストーション出力信号z(t)からz(t-k)、出力信号y(t)からy(t-k)、信号^z(t)から^z(t-k)、^y(t)から^y(t-k)、他の信号、又は内部に記憶されている他のデータから取得され得るが、それらに限られない。一実施形態で、信号^y(t)から^y(t-k)は、信号^z(t)から^z(t-k)の関数であってよい。
【0029】
本発明のアルゴリズムは、サンプリング点の集合における損失関数L()の関数に基づきいずれかの点での損失関数L()の関数値の確率分布を予測するためにガウス過程回帰(Gaussian process regression)を使用してもよい。ガウス過程回帰は、既知の分散の独立した正規分布ノイズを伴う観測に拡張されてもよい。分散は不明な場合があるため、ノイズは共通分散であり、ノイズにはハイパーパラメータとして分散が含まれている、と仮定され得る。本発明は、信号対干渉プラス雑音比(Signal to Interference plus Noise Ratio,SINR)のノイズではなくドリフト値である、ノイズを含むガウス過程の事後平均を使用する。一実施形態で、温度及び湿度などの環境因子又はPA350自体が、PA350の利得に影響を及ぼして、特定のパラメータ及びハイパーパラメータに関して損失関数のドリフト値を引き起こす可能性がある。言い換えると、選択されたサンプリング点(例えば、黒点P5)は、関数関係uef()の所望の/予想される極値を選択/対応しないかもしれないが、関数関係uef()の所望の/予想される極値に近い比較的最適化された極値を選択/対応するかもしれない。
【0030】
ガウス過程回帰の結果に従って、獲得関数(損失関数の各点が探索する価値がある程度を測定するために使用される。)は、損失関数の次のサンプリング点を決定するために、獲得関数の(相対的な)極値を解くよう構成され得る。獲得関数は、例えば、知識勾配(knowledge gradient,KG)、エントロピ探索(entropy search,ES)、又は予測エントロピ探索(predictive entropy search,PES)であってよい。その後、(開始以来発見された)サンプリング点の集合の損失関数の極値は、損失関数の極値として返される(例えば、最適なパラメータ及び最適なハイパーパラメータに応答して最小損失関数)。前置補償回路320を更新するためのパラメータPからP及びハイパーパラメータHPからHPはこのようにして発見され得る。
【0031】
一実施形態で、(パラメータPからP及びハイパーパラメータHPからHPに加えて)本発明のアルゴリズムによって考慮される多数の独立変数が存在し得る。空間次元が大きくなると、ベイズ最適化のパフォーマンスは指数関数的に低下する場合がある。従って、本発明のアルゴリズムは、因果ベイズ最適化(Causal Bayesian Optimization,CBO)に拡張してもよい。言い換えると、本発明は、損失関数L()がパラメータPからP、ハイパーパラメータHPからHP、及び他の独立変数に関係がある場合に、最適な/最小の損失関数を計算するために因果ベイズ最適化を使用してもよい。
【0032】
具体的に、本発明は、損失関数L()、パラメータPからP、ハイパーパラメータHPからHP、及び/又は他の独立変数の間の因果関係(例えば、損失関数L()、パラメータPからP、ハイパーパラメータHPからHP、及び/又は他の独立変数の因果グラフ)を見つけ得る。従って、損失関数L()、パラメータPからP、ハイパーパラメータHPからHP、及び他の独立変数は、因果変数と見なされてよい。例えば、図7は、本発明の実施形態に係る因果グラフCG1の部分の模式図である。因果変数として機能する損失関数L()、パラメータPからP、ハイパーパラメータHPからHPは、因果モデルによって使用される因果グラフCG1を構成し、このとき、qは正の整数である。図7に示されるように、因果ベイズ最適化によって見つけられる因果次元(causal dimensionality)はm+n+qであってよいので、最適化のために因果ベイズ最適化の損失関数L()に供給されるm+n+q個の独立変数が存在する。従って、損失関数L()を最小化することができるm+n+q個の因果変数の値が計算される。因果グラフCG1は、最適な意思決定ストラテジについて推論する能力を大幅に向上させ、それによって、最適化コストを削減しかつ次善の解を回避することができる。
【0033】
一実施形態で、最適化のための因果モデルは、損失関数、パラメータ、ハイパーパラメータ、及び他の独立変数の因果グラフを取得/導出するよう最大事後確率(maximum a posterior,MAP)及び点推定(point estimation)に基づき選択されてもよい。従って、因果モデルの因果グラフの因果変数(例えば、因果変数の数、因果変数がどのような属性を有しているか、又は因果変数の属性の数)及び因果グラフの因果構造(例えば、どのように属性が互いに接続しているか)は(一度に又は一遍に)一緒に決定/発見/生成される。同時に/並行して因果変数及び因果構造を決定することは、最初に因果変数を、次いで因果構造を決定することによって引き起こされる問題を回避し得る。
【0034】
例えば、図8は、本発明の実施形態に係る因果グラフCG2の部分及びグラウンディングデータ(grounding data)80gの模式図である。図8において、(a)及び(b)は夫々、グラウンディングデータ80g及び因果グラフCG2の2つの可能性を表す。因果グラフCG2は、因果グラフCG1として機能してもよい。一実施形態で、グラウンディングデータ80gは、全ての可観測サンプルの空間から取得又は導出されてよく、従って、観測データと呼ばれることがある。一実施形態で、グラウンディングデータ80gは、全てのディープラーニングモデルに対応してよい。一実施形態で、グラウンディングデータ80gは、収集されている全てのデータから取得又は導出されてよい。一実施形態で、グラウンディングデータ80gは、如何なる方法でも如何なる時点でも送信される全てのデータ(例えば、らべル、モデルの出力^y(t)から^y(t-k)、入力信号x(t)からx(t-k)、プリディストーション出力信号z(t)からz(t-k))を含むか、又はそれらに関連することができる。
【0035】
図8において、因果グラフCG2の因果構造は、因果変数(例えば、因果変数cv(i-1)、cv、cv(j-1)、及びcv)の間の関係を提示し得る。観測関数f(i-1)、f、f(j-1)、及びfは、グラウンディングデータ80gのサブデータw(i-1)、w、w(j-1)、及びwを因果変数cv(i-1)、cv、cv(j-1)、及びcvにマッピングして、因果変数cv(i-1)、cv、cv(j-1)、cvとサブデータw(i-1)、w、w(j-1)、wとの間の関係を示すために使用されてよい。ここで、i、jは正の整数である。ここでのマッピングは、グラウンディングデータ80g(全体)ではなく、対応するサブデータ(例えば、w(i-1)、w、w(j-1)、w)(例えば、図8でフレームに入れられたエリア)に基づく。例えば、因果変数cv(i-1)がパラメータPに対応する場合に、サブデータw(i-1)は、因果変数cv(i-1)(の属性)に関連がある(例えば、サブデータw(i-1)は、パラメータPに関する全てのデータに関連がある。)。
【0036】
一実施形態で、グラウンディングデータ80gのサブデータwを観測関数f及び因果グラフCGの因果構造Cに割り当てる事後確率P(f,C|w)は、グラウンディングデータ80gのサブデータwに基づき対応する因果構造C及び対応する因果変数cvを決定/導出/選択するために最大化され得る。従って、因果モデルの推測は、(例えば、因果構造のための)ベイジアンネットワークを観測関数(例えば、f(i-1)、f、f(j-1)、及びf)とく見合わせることによって記載され得る。注目すべきは、対応する因果グラフ(例えば、CG)の因果変数(例えば、cv(i-1)、cv、cv(j-1)、及びcv)及び対応する因果構造(例えば、C)は、一緒に取得/決定される点である(つまり、因果変数(例えば、cv(i-1)、cv、cv(j-1)、及びcv)は、因果構造(例えば、C)とともに/一緒に学習される)。故に、因果変数(例えば、cv(i-1)、cv、cv(j-1)、及びcv)及び因果構造(例えば、C)は互いに相互作用/影響/制約する可能性がある。
【0037】
一実施形態で、事後確率P(f,C|w,Int)は、ベイジアン規則に従ってP(f,C|w,Int)∝P(f,C)P(w|f,C,Int)を満足し得る。このとき、fは、対応する観測関数を表すことができ、Cは、対応する因果構造を表すことができ、wは、グラウンディングデータ80gの部分(例えば、サブデータ)を表すことができ、Intは、介入(intervention)を表すことができる。一実施形態で、事後確率P(f,C|w)は、P(f,C)P(w|f,C)又は
【数1】
に比例し得る。このとき、wi,tは、ある時点tでの因果変数cvに対応するサブデータを表すことができ、Cは因果構造を表し、st-1は、ある時点t-1での(全ての因果変数の)状態を表すことができる。Tは、現在/目下の時点を表すことができ、γは、0.5などの実数であることができるがそれに限られない。一実施形態で、P(w|f,C)は、
【数2】
であることができる。一実施形態で、P(wi,t|st-1,C,f)は、
【数3】
であることができる。このとき、si,tは、ある時点tでの因果変数cvの状態を表すことができ、sは、ある時点tでの状態を表すことができ、Ncvは、全ての因果変数(因果変数cv(i-1)、cv、cv(j-1)、及びcvを含む。)の総数を表すことができ、Ncvは正の整数であり、RStは、グラウンディングデータ80g内の因果変数cvの状態sと互換性があるサブデータwのデータ量を表すことができる。一実施形態で、本発明は、頻繁に使用されるグラウンディングデータ80g内のデータ(例えば、サブデータw)がめったに使用されないものよりも細かい断片に切断され得るように、データ量RStを最小化する因果変数cvを選択/発見し得る。
【0038】
上記の通り、ベイズ確立メカニズムは、因果変数(例えば、因果変数cv(i-1)、cv、cv(j-1)、及びcvを含む。)の数、因果変数の状態、因果変数の因果構造、又は因果変数のための観測関数(例えば、観測関数f(i-1)、f、f(j-1)、及びfを含む。)を組み合わせ、関連する共同推論を引き出してグラウンディングデータ80gを説明/解釈し、それによって因果グラフCG2を生成し得る。因果グラフCG2の因果変数(例えば、因果変数cv(i-1)、cv、cv(j-1)、及びcvを含む。)(又は因果変数の数)及び因果構造(例えば、C)は同時に決定され、それによって図8の(a)を(b)と区別し、また逆も然りである。
【0039】
図8に示されるように、各因果変数(例えば、cv)は観測関数(例えば、f)に対応し得る。一実施形態で、観測関数(例えば、f)は、高次元環境変数(例えば、因果変数cvの属性)を予測するために、因果的意味的生成(causal semantic generative,CSG)モデルを用いて計算/導出されてよい。因果変数(例えば、cv(i-1)、cv、cv(j-1)、及びcv)が手動で定義される(例えば、因果変数は、ドメインエキスパートによって(非自動的かつ個別的に)定義されるか、あるいは、ドメインエキスパートによって記述/提供された規則を持ったプログラムを使用することによって自動的に定義される。)場合に、各因果変数(例えば、cv)は、因果変数を対応するサブデータ(例えば、w)(例えば、図8においてフレームに入れられたエリア)にグラウンディングするよう専用の因果的意味的生成観測関数を有し得る。これは、サブデータ(例えば、図8においてフレームに入れられたエリアに対応するサブデータw(i-1)、w、w(j-1)、又はw)がドメインエキスパートからの特定の因果変数の定義に基づき決定されることを意味する。更に、因果的意味的生成モデルは、因果変数(例えば、cv)要因を変動要因と見なすことを回避することができ、意味的要因を因果変数(例えば、cv)の要因であると正確に決定することができる。一実施形態で、変動要因及び意味的要因は、観測データを構成する/観測データに属することができる。一実施形態で、因果的意味的生成モデルは、主に因果不変性原理に基づいており、変分ベイズを含む。
【0040】
一実施形態で、観測関数fはsi,t=f(wi,t)を満足し得る。一実施形態で、観測関数fは、多変量ガウス分布を用いて実施されてもよい。例えば、観測関数fは、
【数4】
を満足し得る。代替的に、観測関数fは、
【数5】
に関連があり得る。このとき、zは、グラウンディングデータ80g内のサブデータを表すことができ(因果変数cvに寄与しない。)、μwi、μは、ゼロベクトルとして固定された平均値を表すことができ、Σは、例えば、Σ=LLを満足するよう、コレスキー分解によってパラメータ化され得る。行列Lは、正の対角線を有する下三角行列であることができ、例えば、
【数6】
を満足するようパラメータ化され得る。行列Lwiwi、Lzzは、より小さい下三角行列であることができる。行列Mzwiは、如何なる任意の行列であってもよい。行列Lwiwi、Lzzの夫々は、正の対角要素(指数マップにより保証される。)と下三角行列(正の対角要素を含まない。)との和によってパラメータ化され得る。
【0041】
一実施形態で、因果変数(例えば、cv)とサブデータ(例えば、w)との間の関係は不明な場合があるが、因果変数は、因果的意味的生成モデルを用いてサブデータから予測/推測され得る。例えば、図9は、本発明の実施形態に係る因果変数cv及びサブデータwの模式図であり、(a)、(b)、(c)及び(d)は夫々、因果的意味的生成モデルの構造可能性を表し、scは意味的要因を表すことができ、vは変動要因を表すことができ、実線矢印は、因果メカニズムp(w|sc,v)及びp(cv|sc)を表すことができ、破線矢印は、学習のための推論モデルq(sc,v|w)を表すことができる。図9の(a)において、意味的要因scと変動要因vとの間の無指向実線は、ドメイン固有のプライア(prior)p(sc,v)を表し得る。図9の(a)における意味的要因scと変動要因vとの間の無指向実線と比較して、図9の(b)は、分布から外れた汎化性能(generalization performance)を改善するために介入(intervention)を反映するよう独立プライアp(sc,v):=p(sc)p(v)を導入する。図9の(a)における意味的要因scと変動要因vとの間の無指向実線と比較して、図9の(c)は、教師なしデータを利用するために因果不変性原理に従って介入を反映するよう意味的要因scと変動要因vとの間に破線によって示されたプライアp(sc,v)を導入する。一実施形態で、本発明は、尤度を最大化することによって因果的意味的生成モデルp:=<p(sc,v)、p(w|sc,v)、p(cv|sc)>をサブデータに当てはめ、変分推論(variational inference)及び証拠下限(evidence lower bound,ELBO)を用いて計算を実行し、モンテカルロを使用して、再パラメータ化トリック(reparameterization tricks)を適用した後に期待値を推定し得る。
【0042】
一実施形態で、因果ベイズ最適化は、損失関数に直接関係がある因果変数(例えば、損失関数L()を直接指し示すか又はそれに影響する、因果グラフCG1内のパラメータPからP、ハイパーパラメータHPからHP、及び/又は独立変数OからO)に対してのみ最適化を実行してよい。言い換えると、因果ベイズ最適化の因果固有次元(causal intrinsic dimensionality)は、パラメータPからP、ハイパーパラメータHPからHP、及び/又は独立変数OからOの要因である因果変数の数よりもむしろ、損失関数L()の要因/親であるパラメータPからP、ハイパーパラメータHPからHP、及び独立変数OからOの数によって与えられ、それによって、最適な意思決定ストラテジについて推論する能力を向上させる。
【0043】
一実施形態で、因果変数(パラメータPからP、ハイパーパラメータHPからHP、因果変数となる独立変数OからO、又は因果変数cv(i-1)、cv、cv(j-1)、cv)は、(例えば、ドメインエキスパートによって)手動で定義される。例えば、因果変数は、ドメインエキスパートによって(自動的かつ個別的に)定義され、代替的には、因果変数は、ドメインエキスパートによって記述された規則を持ったプログラムを用いて自動的に定義される。一実施形態で、サブデータ(図8においてフレームに入れられたエリアに対応するサブデータw(i-1)、w、w(j-1)、又はw)は、ドメインエキスパートによる特定の因果変数の定義に従って定義/決定される。
【0044】
因果ベイズ最適化は、出力である変数(例えば、損失関数L())及び入力である因果変数(例えば、パラメータPからP、ハイパーパラメータHPからHP、及び/又は独立変数OからO)を普遍の独立変数として扱い、出力である因果変数及び入力である因果変数の両方における時間的進化の存在(例えば、出力である因果変数及び入力である因果変数が時間とともに変化するかどうか)を無視するので、因果変数の間に存在する時間依存構造を壊す。時間を無視することは問題を大幅に簡単にする一方で、全ての時点で最適な介入を特定することはできず、(特に、非定常シナリオでは)任意の時点で現在の最適解を提供するのではなく準最適解につながる可能性がある。よって、本発明は、因果変数の間の因果関係を提供/説明し、因果関係が時間とともに進化/変化し得る動的因果ベイズ最適化に拡張することができるので、因果グラフ内の全ての因果効果が時間とともに変化するシナリオを容易にする。
【0045】
例えば、図10は、ベイズ最適化、因果ベイズ最適化、及び動的因果ベイズ最適化の模式図である。図10において、XからXは、3つの異なる時点での因果変数を表す。YからYは、3つの異なる時点での他の因果変数を表す。ZからZは、3つの異なる時点での別の因果変数を表す。しかし、本発明は、そのように制限されず、より多くの時点及びより多くの因果変数に拡張することができる。動的因果ベイズ最適化は、因果変数の間の因果関係を説明するようベイズ最適化と因果ベイズ最適化とを組み合わせ、因果関係は時間とともに進化し得る。例えば、動的因果ベイズ最適化では、図10に示されるように、第1時点での因果変数Yは、第1時点での因果変数Zの関数であるから、因果変数Yの極値(損失関数L()を表すか又はそれに対応し得る。)は、因果変数Yに直接関係がある因果変数Zのみを使用することによって見つけられ、因果固有次元は1である。同様に、第2時点での因果変数Yは、第2時点での因果変数Z及び第1時点での因果変数Yの関数であるから、因果変数Yの極値(損失関数L()を表すか又はそれに対応し得る。)は、因果変数Yに直接関係がある因果変数Y及びZのみを使用することによって見つけられ、因果固有次元は2である。同様に、第3時点での因果変数Yは、第3時点での因果変数Z及び第2時点での因果変数Yの関数であるから、因果変数Yの極値(損失関数L()を表すか又はそれに対応し得る。)は、因果変数Yに直接関係がある因果変数Y及びZのみを使用することによって見つけられ、因果固有次元は2である。言い換えると、ある時点で独立変数として機能する因果変数は、前の時点での因果変数の関数である(依存変数又は独立変数のどちらかとして機能する。)ので、前者(つまり、特定の時点で依存変数として機能する因果変数)の極値は、前者に直接関係がある後者(つまり、前の時点で依存変数又は独立変数のどちらかとして機能する因果変数)のみを使用することによって見つけられ得る。
【0046】
本発明の実施形態における前置補償方法は、増幅回路10乃至30又は回帰型DPD-PAカスケードモデル40に利用可能であり、処理回路によって実行されかつ記憶回路に記憶され得るコードにコンパイルされてもよい。前置補償のステップは、次のステップを含み得る。
【0047】
ステップS10:開始。
【0048】
ステップS12:DPDアクチュエータ321(又は221)は、DPDアクチュエータ321によって受信された入力信号x(t)をプリディストーション出力信号z(t)に変換するために、少なくとも1つのパラメータ又は少なくとも1つのハイパーパラメータに従ってプリディストーションを行う。
【0049】
ステップS14:訓練モジュール322(又は222)は、ベイズ最適化、因果ベイズ最適化、又は動的ベイズ最適化に従ってDPDアクチュエータ321の少なくとも1つのパラメータ又は少なくとも1つのハイパーパラメータを決定、計算、又は更新する。訓練モジュール322は、少なくとも1つのパラメータ又は少なくとも1つのハイパーパラメータを決定するために、ベイズ最適化、因果ベイズ最適化、又は動的ベイズ最適化を少なくとも1つのデータに適用してよい。少なくとも1つのデータは、プリディストーション出力信号z(t)(入力信号x(t)に応答してDPDアクチュエータ321によって出力される。)又は出力信号y(t)(プリディストーション出力信号z(t)に応答してPA350(又は250)によって出力される。)から抽出/取得されてよい。代替的に、少なくとも1つのデータは、入力信号x(t-1)、・・・、又はx(t-k)(入力信号x(t)より前にDPDアクチュエータ321によって受信される。)、プリディストーション出力信号z(t-1)、・・・、又はz(t-k)(入力信号x(t-1)、・・・、又はx(t-k)に応答して、プリディストーション出力信号z(t)より前にDPDアクチュエータ321によって出力される。)、あるいは出力信号y(t-1)、・・・、又はy(t-k)(プリディストーション出力信号z(t-1)、・・・、又はz(t-k)に応答して、出力信号y(t)より前にPA350によって出力される。)から抽出/取得されてもよい。代替的に、少なくとも1つのデータは、入力信号x(t)又は出力信号y(t)に対応するラベルから抽出/取得されてもよい。
【0050】
ステップ16:DPDアクチュエータ321は、DPDアクチュエータ321によって受信された入力信号x(t+1)をプリディストーション出力信号z(t+1)に変換するために、更新された少なくとも1つパラメータ又は更新された少なくとも1つのハイパーパラメータに従ってプリディストーションを実行する。
【0051】
ステップ18:終了。
【0052】
一実施形態で、記憶回路は、画像データ又は命令を記憶するよう構成される。記憶回路は、リードオンリーメモリ(ROM)、フラッシュメモリ、ランダムアクセスメモリ(RAM)、ハードディスク、不揮発性記憶デバイス、非一時的コンピュータ可読媒体であってよいが、これらに限られない。一実施形態で、処理回路は、(記憶回路に記憶されている)命令を実行するよう構成される。処理回路は、マイクロプロセッサ、又は特定用途向け集積回路(ASIC)であってよいが、これらに限られない。増幅回路10、20、又は30は、ラジオユニット(RU)で利用されてもよいが、これに限られない。
【0053】
実施形態において、前置補償回路は、電力増幅器の非線形性を補償するよう構成される。実施形態において、第1入力信号(x(t-1))に対する第1出力信号(y(t-1))の第1比(G)は、第2入力信号(x(t))に対する第2出力信号(y(t))の第2比(G)に等しく、このとき、第1出力信号は、第1プリディストーション出力信号(z(t-1))に対応して電力増幅器によって出力され、第2出力信号は、第2プリディストーション出力信号(z(t))に対応して電力増幅器によって出力される。
【0054】
実施形態において、ベイズ最適化、因果ベイズ最適化、又は動的ベイズ最適化に従って少なくとも1つのパラメータ又は少なくとも1つのハイパーパラメータを更新するステップは、前置補償回路の少なくとも1つのパラメータ又は少なくとも1つのハイパーパラメータを決定するようベイズ最適化、因果ベイズ最適化、又は動的ベイズ最適化を適用することを有し、このとき、少なくとも1つのデータは、第1プリディストーション出力信号又は第1プリディストーション出力信号に対応して電力増幅器によって出力された第1出力信号から抽出される。少なくとも1つのデータは、第1入力信号より前に前置補償回路によって受信される少なくとも1つの前の入力信号(例えば、x(t-2)、・・・、又はx(t-k))、第1プリディストーション出力信号より前に前置補償回路によって少なくとも1つの前の入力信号に対応して出力された少なくとも1つの前のプリディストーション出力信号(例えば、z(t-2)、・・・、又はz(t-k))、又は電力増幅器によって少なくとも1つの前のプリディストーション出力信号に対応して出力された少なくとも1つの前の出力信号(例えば、y(t-2)、・・・、又はy(t-k))、あるいは第1入力信号又は第1出力信号に対応するラベルから更に抽出される。
【0055】
実施形態において、ベイズ最適化、因果ベイズ最適化、又は動的因果ベイズ最適化に従って少なくとも1つのパラメータ又は少なくとも1つのハイパーパラメータを更新するステップは、ベイズ最適化、因果ベイズ最適化、又は動的因果ベイズ最適化に従って複数の独立変数最適値をまとめて決定することを有し、複数の独立変数最適値は、少なくとも1つのパラメータ、少なくとも1つのハイパーパラメータ、及び少なくとも1つの第1独立変数最適値を有する。
【0056】
実施形態において、ベイズ最適化、因果ベイズ最適化、又は動的因果ベイズ最適化に従って少なくとも1つのパラメータ又は少なくとも1つのハイパーパラメータを更新するステップは、因果ベイズ最適化又は動的ベイズ最適化に従って複数の独立変数から複数の独立変数最適値をまとめて探すことを有し、複数の独立変数最適値は、少なくとも1つのパラメータ又は少なくとも1つのハイパーパラメータを有し、因果グラフの因果構造と、損失関数及び少なくとも1つの独立変数を有する因果グラフの複数の因果変数とは、一緒に決定され、損失関数は、第1出力信号又は第1出力信号に対応するラベルの関数である。因果グラフは、最大事後確率(maximum a posterior,MAP)及び点推定(point estimation)に基づき生成される。グラウンディングデータ内の複数のサブデータは、最大事後確率及び点推定に基づきグラウンディングデータから因果グラフを生成するよう、複数の観測関数を使用することによって因果グラフの複数の因果変数にマッピングされる。複数の観測関数は、因果的意味的生成モデルに基づき取得される。ベイズ最適化、因果ベイズ最適化、又は動的因果ベイズ最適化に従って少なくとも1つのパラメータ又は少なくとも1つのハイパーパラメータを更新するステップは、前置補償回路の少なくとも1つのパラメータ又は少なくとも1つのハイパーパラメータを決定するよう因果ベイズ最適化又は動的因果ベイズ最適化を少なくとも1つのデータに適用することを有し、グラウンディングデータが少なくとも1つのデータを含む。
【0057】
実施形態において、複数の独立変数最適値は、因果ベイズ最適化又は動的因果ベイズ最適化に従って複数の独立変数から一緒に見つけられ、複数の独立変数最適値は、少なくとも1つのパラメータ又は少なくとも1つのハイパーパラメータを有し、因果グラフの因果構造と、損失関数及び少なくとも1つの独立変数を有する因果グラフの複数の因果変数とは、一緒に決定され、損失関数は、第1出力信号又は第1出力信号に対応するラベルの関数であり、グラウンディングデータの複数のサブセットを複数の観測関数及び因果グラフの因果構造に割り当てる複数の事後確率は、因果グラフを生成するよう最大化される。複数の事後確率のうちの1つは、
【数7】
に比例し、このとき、wi,tは複数のサブデータのうちの1つを表し、該1つのサブデータは、ある時点tでの、複数の因果変数のうちの1つに対応し、st-1は、ある時点t-1での少なくとも1つの状態を表し、Cは因果構造を表し、fは、観測関数のうちの対応する1つを表し、Tは現在の時点を表し、γは実数である。
【0058】
要約すると、本発明は、動的因果ベイズ最適化によって訓練された回帰型DPD-PAカスケードモデルを提案する(DPDは実際には「PA-1のコピー」である。)。このようにして、計算複雑性及び計算は大幅に低減され得る。DPDは、間隔をあけるのとは対照的に実時間でPA-1のコピーによって更新され得る。これにより、非線形性のような電力増幅器の欠陥を有効に補償することができる。
【0059】
当業者であれば、デバイス及び方法の多数の変更及び代替が、本発明の教示を維持したままで行われ得る、と容易に認識するだろう。従って、上記の開示は、添付の特許請求の範囲の範囲及び境界によってのみ制限されるものとして解釈されるべきである。
【符号の説明】
【0060】
10,20,30 増幅回路
120,220,320 前置補償回路
150,250,350 PA
210 CFR
221 DPDアクチュエータ
222 訓練モジュール
223 結合器(減算ユニット)
230 DAC
240 アップコンバータ
260 ダウンコンバータ
270 ADC
40 回帰型DPD-PAカスケードモデル
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
【手続補正書】
【提出日】2024-05-02
【手続補正1】
【補正対象書類名】特許請求の範囲
【補正対象項目名】全文
【補正方法】変更
【補正の内容】
【特許請求の範囲】
【請求項1】
電力増幅器へ結合され、デジタルプリディストーションアクチュエータ及び訓練モジュールを有する前置補償回路のための前置補償方法であって、
前記デジタルプリディストーションアクチュエータが、前記前置補償回路によって受信された第1入力信号を第1プリディストーション出力信号に変換するよう少なくとも1つのパラメータに従ってプリディストーションを実行するステップと、
前記訓練モジュールが、該訓練モジュールの少なくとも1つのハイパーパラメータをベイズ最適化、因果ベイズ最適化、又は動的因果ベイズ最適化に従って最適化することによって、前記少なくとも1つのパラメータを更新するステップと、
前記デジタルプリディストーションアクチュエータが、前記前置補償回路によって受信された第2入力信号を第2プリディストーション出力信号に変換するよう、更新された前記少なくとも1つのパラメータに従ってプリディストーションを実行するステップと
を有し、
前記デジタルプリディストーションアクチュエータは、前記訓練モジュールのコピーであるよう構成され、前記少なくとも1つのパラメータは、前記第1プリディストーション出力信号に対応する前記電力増幅器によって出力された出力信号に基づき前記訓練モジュールによって生成された出力と前記第1プリディストーション出力信号との間の誤差信号が最小になるように更新される、前置補償方法。
【請求項2】
前記訓練モジュールが、該訓練モジュールの少なくとも1つのハイパーパラメータを前記ベイズ最適化、前記因果ベイズ最適化、又は前記動的因果ベイズ最適化に従って最適化することによって、前記少なくとも1つのパラメータを更新する前記ステップは、
前記前置補償回路の前記少なくとも1つのパラメータ又は前記少なくとも1つのハイパーパラメータを決定するよう前記ベイズ最適化、前記因果ベイズ最適化、又は前記動的因果ベイズ最適化を少なくとも1つのデータに適用することを有し、
前記少なくとも1つのデータは、前記第1プリディストーション出力信号又は前記第1プリディストーション出力信号に対応する前記電力増幅器によって出力された出力信号から取り出される、
請求項1に記載の前置補償方法。
【請求項3】
前記訓練モジュールが、該訓練モジュールの少なくとも1つのハイパーパラメータを前記ベイズ最適化、前記因果ベイズ最適化、又は前記動的因果ベイズ最適化に従って最適化することによって、前記少なくとも1つのパラメータを更新する前記ステップは、
前記因果ベイズ最適化又は前記動的因果ベイズ最適化に従って複数の独立変数から複数の独立変数最適値をまとめて探すことを有し、
前記複数の独立変数最適値は、前記少なくとも1つのパラメータ又は前記少なくとも1つのハイパーパラメータを有し、
損失関数及び前記複数の独立変数について構成される因果グラフの因果構造と、前記因果グラフの複数の因果変数とが一緒に決定され、
前記損失関数は、出力信号又は前記出力信号に対応するラベルの関数である、
請求項1に記載の前置補償方法。
【請求項4】
前記訓練モジュールが、該訓練モジュールの少なくとも1つのハイパーパラメータを前記ベイズ最適化、前記因果ベイズ最適化、又は前記動的因果ベイズ最適化に従って最適化することによって、前記少なくとも1つのパラメータを更新する前記ステップは、
前記動的因果ベイズ最適化に従って少なくとも1つの独立変数から少なくとも1つの独立変数最適値を探すことを有し、
前記少なくとも1つの独立変数最適値は、前記少なくとも1つのパラメータ又は前記少なくとも1つのハイパーパラメータを有し、
第2時点での第2損失関数は、前記第2時点での前記少なくとも1つの独立変数、第1時点での前記少なくとも1つの独立変数、又は前記第1時点での第1損失関数の関数である、
請求項1に記載の前置補償方法。
【請求項5】
電力増幅器へ結合される前置補償回路であって、
デジタルプリディストーションアクチュエータ及び訓練モジュールを有し、
前記デジタルプリディストーションアクチュエータは、当該デジタルプリディストーションアクチュエータによって受信された第1入力信号を第1プリディストーション出力信号に変換するよう少なくとも1つのパラメータに従ってプリディストーションを実行するよう構成され、
前記訓練モジュールは、前記訓練モジュールの少なくとも1つのハイパーパラメータをベイズ最適化、因果ベイズ最適化、又は動的因果ベイズ最適化に従って最適化することによって、前記少なくとも1つのパラメータを更新するよう構成され、
前記デジタルプリディストーションアクチュエータは、当該デジタルプリディストーションアクチュエータによって受信された第2入力信号を第2プリディストーション出力信号に変換するよう、更新された前記少なくとも1つのパラメータに従ってプリディストーションを実行するよう更に構成され、
前記デジタルプリディストーションアクチュエータは、前記訓練モジュールのコピーであるよう構成され、前記少なくとも1つのパラメータは、前記第1プリディストーション出力信号に対応する前記電力増幅器によって出力された出力信号に基づき前記訓練モジュールによって生成された出力と前記第1プリディストーション出力信号との間の誤差信号が最小になるように更新される
前置補償回路。
【手続補正2】
【補正対象書類名】明細書
【補正対象項目名】0034
【補正方法】変更
【補正の内容】
【0034】
例えば、図8は、本発明の実施形態に係る因果グラフCG2の部分及びグラウンディングデータ(grounding data)80gの模式図である。図8において、(a)及び(b)は夫々、グラウンディングデータ80g及び因果グラフCG2の2つの可能性を表す。因果グラフCG2は、因果グラフCG1として機能してもよい。一実施形態で、グラウンディングデータ80gは、全ての可観測サンプルの空間から取得又は導出されてよく、従って、観測データと呼ばれることがある。一実施形態で、グラウンディングデータ80gは、全てのディープラーニングモデルに対応してよい。一実施形態で、グラウンディングデータ80gは、収集されている全てのデータから取得又は導出されてよい。一実施形態で、グラウンディングデータ80gは、如何なる方法でも如何なる時点でも送信される全てのデータ(例えば、べル、モデルの出力^y(t)から^y(t-k)、入力信号x(t)からx(t-k)、プリディストーション出力信号z(t)からz(t-k))を含むか、又はそれらに関連することができる。
【手続補正3】
【補正対象書類名】明細書
【補正対象項目名】0038
【補正方法】変更
【補正の内容】
【0038】
上記の通り、ベイズ確率メカニズムは、因果変数(例えば、因果変数cv(i-1)、cv、cv(j-1)、及びcvを含む。)の数、因果変数の状態、因果変数の因果構造、又は因果変数のための観測関数(例えば、観測関数f(i-1)、f、f(j-1)、及びfを含む。)を組み合わせ、関連する共同推論を引き出してグラウンディングデータ80gを説明/解釈し、それによって因果グラフCG2を生成し得る。因果グラフCG2の因果変数(例えば、因果変数cv(i-1)、cv、cv(j-1)、及びcvを含む。)(又は因果変数の数)及び因果構造(例えば、C)は同時に決定され、それによって図8の(a)を(b)と区別し、また逆も然りである。