IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 日本電気株式会社の特許一覧

特許7400824パラメータ決定装置、信号送信装置、パラメータ決定方法、信号送信方法、及び、記録媒体
<>
  • 特許-パラメータ決定装置、信号送信装置、パラメータ決定方法、信号送信方法、及び、記録媒体 図1
  • 特許-パラメータ決定装置、信号送信装置、パラメータ決定方法、信号送信方法、及び、記録媒体 図2
  • 特許-パラメータ決定装置、信号送信装置、パラメータ決定方法、信号送信方法、及び、記録媒体 図3
  • 特許-パラメータ決定装置、信号送信装置、パラメータ決定方法、信号送信方法、及び、記録媒体 図4
  • 特許-パラメータ決定装置、信号送信装置、パラメータ決定方法、信号送信方法、及び、記録媒体 図5
  • 特許-パラメータ決定装置、信号送信装置、パラメータ決定方法、信号送信方法、及び、記録媒体 図6
  • 特許-パラメータ決定装置、信号送信装置、パラメータ決定方法、信号送信方法、及び、記録媒体 図7
  • 特許-パラメータ決定装置、信号送信装置、パラメータ決定方法、信号送信方法、及び、記録媒体 図8
  • 特許-パラメータ決定装置、信号送信装置、パラメータ決定方法、信号送信方法、及び、記録媒体 図9
  • 特許-パラメータ決定装置、信号送信装置、パラメータ決定方法、信号送信方法、及び、記録媒体 図10
  • 特許-パラメータ決定装置、信号送信装置、パラメータ決定方法、信号送信方法、及び、記録媒体 図11
  • 特許-パラメータ決定装置、信号送信装置、パラメータ決定方法、信号送信方法、及び、記録媒体 図12
  • 特許-パラメータ決定装置、信号送信装置、パラメータ決定方法、信号送信方法、及び、記録媒体 図13
  • 特許-パラメータ決定装置、信号送信装置、パラメータ決定方法、信号送信方法、及び、記録媒体 図14
  • 特許-パラメータ決定装置、信号送信装置、パラメータ決定方法、信号送信方法、及び、記録媒体 図15
  • 特許-パラメータ決定装置、信号送信装置、パラメータ決定方法、信号送信方法、及び、記録媒体 図16
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2023-12-11
(45)【発行日】2023-12-19
(54)【発明の名称】パラメータ決定装置、信号送信装置、パラメータ決定方法、信号送信方法、及び、記録媒体
(51)【国際特許分類】
   G06N 3/08 20230101AFI20231212BHJP
【FI】
G06N3/08
【請求項の数】 30
(21)【出願番号】P 2021546587
(86)(22)【出願日】2020-09-02
(86)【国際出願番号】 JP2020033192
(87)【国際公開番号】W WO2021054118
(87)【国際公開日】2021-03-25
【審査請求日】2022-03-04
(31)【優先権主張番号】P 2019169715
(32)【優先日】2019-09-18
(33)【優先権主張国・地域又は機関】JP
(73)【特許権者】
【識別番号】000004237
【氏名又は名称】日本電気株式会社
(74)【代理人】
【識別番号】100104765
【弁理士】
【氏名又は名称】江上 達夫
(74)【代理人】
【識別番号】100107331
【弁理士】
【氏名又は名称】中村 聡延
(74)【代理人】
【識別番号】100131015
【弁理士】
【氏名又は名称】三輪 浩誉
(72)【発明者】
【氏名】谷尾 真明
(72)【発明者】
【氏名】神谷 典史
(72)【発明者】
【氏名】石井 直人
【審査官】渡辺 順哉
(56)【参考文献】
【文献】特開平07-121494(JP,A)
【文献】YU, Zhijian,A Generalized Digital Predistortion Model Based on Artificial Neural Networks,2018 Asia-Pacific Microwave Conference (APMC)[online],2018年11月,pp.935-937,[retrieved on 2019.11.25], Retrieved from the Internet: <URL: https://ieeexplore.ieee.org/document/8617423>
【文献】谷口敦司 ほか,重み係数のスパース化による深層ニューラルネットワークのコンパクト化技術,東芝レビュー,2019年07月,Vol.74, No.4,pp.42-45,ISSN 2432-1168
(58)【調査した分野】(Int.Cl.,DB名)
G06N 3/00-99/00
(57)【特許請求の範囲】
【請求項1】
複数の層を備えるニューラルネットワークのパラメータを決定するパラメータ決定装置であって、
学習用信号及び教師用信号に基づいて、前記複数の層のうちの第j-1(但し、jは、「2≦j≦前記層の数」という条件を満たす整数)番目の層と前記第j-1番目の層の出力が入力される第j番目の層との間の重みを学習する第1学習手段と、
前記第1学習手段が学習した重みに基づいて、前記第j-1番目の層に含まれる複数のノードと前記第j番目の層に含まれる複数のノードとを夫々連結する複数の接続経路の中から、前記ニューラルネットワークにおいて有効な接続経路として用いられる有効経路を前記j番目の層に含まれる各ノードにおいて少なくとも一つずつ、前記パラメータの一部として選択する選択手段と、
前記学習用信号、前記教師用信号及び前記有効経路に基づいて、前記j-1番目の層と前記j番目の層との間の重み及び前記j番目の層で付加されるバイアスの少なくとも一方を、前記パラメータの一部として学習する第2学習手段と
を備えるパラメータ決定装置。
【請求項2】
変数jが3以上の整数である場合には、前記第2学習手段は、前記学習用信号、前記教師用信号、前記有効経路、並びに、前記複数の層のうちの第1番目の層から第j-1番目の層までの間のネットワーク構造に関する前記パラメータに基づいて、前記j-1番目の層と前記j番目の層との間の重み及び前記j番目の層で付加されるバイアスの少なくとも一方を学習する
請求項1に記載のパラメータ決定装置。
【請求項3】
変数jが3以上の整数である場合には、前記第2学習手段は、前記複数の層のうちの第1番目の層から第j-1番目の層までの間のネットワーク構造に関する前記パラメータを固定したまま、前記教師用信号と、前記学習用信号が入力された前記ニューラルネットワークからの出力との差分が小さくなるように、前記j-1番目の層と前記j番目の層との間の重み及び前記j番目の層で付加されるバイアスの少なくとも一方を学習する
請求項1又は2に記載のパラメータ決定装置。
【請求項4】
前記第1学習手段、前記選択手段及び前記第2学習手段を備えるパラメータ決定ユニットを複数備え、
前記複数のパラメータ決定ユニットは、夫々、異なる複数の層に関連する前記パラメータを決定する
請求項1から3のいずれか一項に記載のパラメータ決定装置。
【請求項5】
前記第1学習手段は、前記j-1番目の層と前記j番目の層との間の重みを学習する都度、(i)前記学習した重みに基づいて、前記第j番目の層に含まれる複数のノードと前記第j-1番目の層に含まれる複数のノードとを夫々連結する複数の接続経路の一部を限定経路として選択し、(ii)前記限定経路に対応する重みが前記複数の接続経路のうちの前記限定経路以外の接続経路に対応する重みよりも相対的に大きくなる学習が行われるように、前記j-1番目の層と前記j番目の層との間の重みを学習するために用いる目的関数を更新し、更新した前記目的関数を用いて前記j-1番目の層と前記j番目の層との間の重みを再度学習する
請求項1から4のいずれか一項に記載のパラメータ決定装置。
【請求項6】
前記目的関数は、学習誤差と、前記j-1番目の層と前記j番目の層との間の重みの絶対値の総和が大きくなるほど大きくなる正則化項とが加算された関数であり、
前記第1学習手段は、前記正則化項のうちの前記限定経路に対応する重みの絶対値又は前記絶対値のべき乗の総和が大きくなるほど大きくなる正則化項成分が小さくなるように前記目的関数を更新する
請求項5に記載のパラメータ決定装置。
【請求項7】
前記第1学習手段は、前記正則化項成分に対して0以上且つ1以下の係数を掛け合わせることで、前記正則化項成分が小さくなるように前記目的関数を更新し、
前記第1学習手段は、前記目的関数を新たに更新する際に、前記目的関数を前回更新する際に用いた前記係数以下の前記係数を前記正則化項成分に掛け合わせることで、前記目的関数を更新する
請求項6に記載のパラメータ決定装置。
【請求項8】
前記第2学習手段は、前記j-1番目の層と前記j番目の層との間の重み及び前記j番目の層で付加されるバイアスの少なくとも一方の学習が完了したときに学習誤差が目標値を下回る場合には、重みの絶対値が最も小さい一の有効経路を削除し、前記j-1番目の層と前記j番目の層との間の重み及び前記j番目の層で付加されるバイアスの少なくとも一方を再度学習する
請求項1から7のいずれか一項に記載のパラメータ決定装置。
【請求項9】
前記第2学習手段は、前記j-1番目の層と前記j番目の層との間の重み及び前記j番目の層で付加されるバイアスの少なくとも一方の学習が完了したときに学習誤差が目標値を下回る場合には、前記第j番目の層に含まれる複数のノードの中から、出力ベクトルの一次独立性が最も低い一のノードを削除し、前記j-1番目の層と前記j番目の層との間の重み及び前記j番目の層で付加されるバイアスの少なくとも一方を再度学習する
請求項1から8のいずれか一項に記載のパラメータ決定装置。
【請求項10】
前記パラメータ決定装置は、前記ニューラルネットワークとして、信号受信装置に対して送信信号を送信する信号送信装置に実装されるニューラルネットワークの前記パラメータを決定する
請求項1から9のいずれか一項に記載のパラメータ決定装置。
【請求項11】
前記学習用信号及び前記教師用信号の少なくとも一方は、前記送信信号及び前記信号受信装置が受信した受信信号の少なくとも一方に基づく信号である
請求項10に記載のパラメータ決定装置。
【請求項12】
前記信号送信装置は、
入力信号に対して歪み補償を実行することで、歪み補償信号を生成する歪み補償手段と、
前記歪み補償信号を対象に所定動作を行うことで前記送信信号を生成する信号生成手段と
を備え、
前記パラメータ決定装置は、前記ニューラルネットワークとして、前記歪み補償手段に実装されるニューラルネットワークの前記パラメータを決定する
請求項11に記載のパラメータ決定装置。
【請求項13】
前記学習用信号及び前記教師用信号の少なくとも一方は、前記入力信号、前記歪み補償信号、前記送信信号及び前記信号受信装置が受信した受信信号の少なくとも一つに基づく信号である
請求項12に記載のパラメータ決定装置。
【請求項14】
パラメータ決定装置によって決定されたパラメータによって定義され且つ複数の層を備えるニューラルネットワークを用いて入力信号に対して歪み補償を実行することで、歪み補償信号を生成する歪み補償手段と、
前記歪み補償信号を対象に所定動作を行うことで、信号受信装置に送信する送信信号を生成する信号生成手段と
を備え、
前記パラメータ決定装置は、
学習用信号及び教師用信号に基づいて、前記複数の層のうちの第j-1(但し、jは、「2≦j≦前記層の数」という条件を満たす整数)番目の層と前記第j-1番目の層の出力が入力される第j番目の層との間の重みを学習する第1学習手段と、
前記第1学習手段が学習した重みに基づいて、前記第j-1番目の層に含まれる複数のノードと前記第j番目の層に含まれる複数のノードとを夫々連結する複数の接続経路の中から、前記ニューラルネットワークにおいて有効な接続経路として用いられる有効経路を前記j番目の層に含まれる各ノードにおいて少なくとも一つずつ、前記パラメータの一部として選択する選択手段と、
前記学習用信号、前記教師用信号及び前記有効経路に基づいて、前記j-1番目の層と前記j番目の層との間の重み及び前記j番目の層で付加されるバイアスの少なくとも一方を、前記パラメータの一部として学習する第2学習手段と
を備える信号送信装置。
【請求項15】
前記学習用信号及び前記教師用信号に基づいて、前記j-1番目の層と前記j番目の層との間の重み及び前記j番目の層で付加されるバイアスの少なくとも一方を、前記パラメータの一部として学習する学習手段を更に備える
請求項14に記載の信号送信装置。
【請求項16】
ニューラルネットワークを用いて入力信号に対して歪み補償を実行することで、歪み補償信号を生成する歪み補償手段と、
前記歪み補償信号を対象に所定動作を行うことで、信号受信装置に送信する送信信号を生成する信号生成手段と、
学習用信号及び教師用信号に基づいて、前記ニューラルネットワークが備える複数の層のうちの第j-1(但し、jは、「2≦j≦前記層の数」という条件を満たす整数)番目の層と前記第j-1番目の層の出力が入力される第j番目の層との間の重み及び前記j番目の層で付加されるバイアスの少なくとも一方を、前記ニューラルネットワークのパラメータの少なくとも一部として学習する学習手段と
を備え
前記歪み補償手段は、冗長化された複数のニューラルネットワークのうちの一のニューラルネットワークを用いて前記歪み補償を実行し、
前記歪み補償手段は、前記学習手段が学習したパラメータを、前記複数のニューラルネットワークのうちの前記一のニューラルネットワークとは異なる他のニューラルネットワークに適用した後に、前記一のニューラルネットワークに代えて前記他のニューラルネットワークを用いて前記歪み補償を実行する
号送信装置。
【請求項17】
前記学習手段は、所定の学習開始条件が成立した場合に、前記j-1番目の層と前記j番目の層との間の重み及び前記j番目の層で付加されるバイアスの少なくとも一方を学習する
請求項15又は16に記載の信号送信装置。
【請求項18】
前記学習手段は、
前記学習用信号及び前記教師用信号に基づいて、前記第j-1番目の層と前記第j番目の層との間の重みを暫定的に学習し、
前記暫定的に学習した重みに基づいて、前記第j-1番目の層に含まれる複数のノードと前記第j番目の層に含まれる複数のノードとを夫々連結する複数の接続経路の中から、前記ニューラルネットワークにおいて有効な接続経路として用いられる有効経路を前記j番目の層に含まれる各ノードにおいて少なくとも一つずつ、前記パラメータの一部として選択し、
前記学習用信号、前記教師用信号及び前記有効経路に基づいて、前記j-1番目の層と前記j番目の層との間の重み及び前記j番目の層で付加されるバイアスの少なくとも一方を学習する
請求項15から17のいずれか一項に記載の信号送信装置。
【請求項19】
前記学習手段は、所定の学習開始条件が成立した場合に、前記第j-1番目の層と前記第j番目の層との間の重みを暫定的に学習し、且つ、前記暫定的に学習した重みに基づいて前記有効経路を選択する
請求項18に記載の信号送信装置。
【請求項20】
前記送信信号を監視する監視手段を備え、
前記学習開始条件は、前記監視手段が監視している前記送信信号の特性に基づいて定まる条件を含む
請求項17又は19に記載の信号送信装置。
【請求項21】
前記学習開始条件は、前記監視手段が監視している前記送信信号の歪みが許容値以上に大きくなるという条件を含む
請求項20に記載の信号送信装置。
【請求項22】
前記学習用信号及び前記教師用信号の少なくとも一方は、前記入力信号、前記歪み補償信号、前記送信信号及び前記信号受信装置が受信した受信信号の少なくとも一つに基づく信号である
請求項14から21のいずれか一項に記載の信号送信装置。
【請求項23】
前記歪み補償は、前記所定動作に起因して前記送信信号に生ずる歪み、及び、前記信号生成手段から前記信号受信装置に至る信号伝搬経路で前記送信信号に生ずる歪みの少なくとも一方を補償する
請求項14から22のいずれか一項に記載の信号送信装置。
【請求項24】
前記信号送信装置は、前記信号伝搬経路の少なくとも一部を含む
請求項23に記載の信号送信装置。
【請求項25】
複数の層を備えるニューラルネットワークのパラメータを決定するパラメータ決定方法であって、
学習用信号及び教師用信号に基づいて、前記複数の層のうちの第j-1(但し、jは、「2≦j≦前記層の数」という条件を満たす整数)番目の層と前記第j-1番目の層の出力が入力される第j番目の層との間の重みを学習することと、
学習した重みに基づいて、前記第j-1番目の層に含まれる複数のノードと前記第j番目の層に含まれる複数のノードとを夫々連結する複数の接続経路の中から、前記ニューラルネットワークにおいて有効な接続経路として用いられる有効経路を前記j番目の層に含まれる各ノードにおいて少なくとも一つずつ、前記パラメータの一部として選択することと、
前記学習用信号、前記教師用信号及び前記有効経路に基づいて、前記j-1番目の層と前記j番目の層との間の重み及び前記j番目の層で付加されるバイアスの少なくとも一方を、前記パラメータの一部として学習することと
を含むパラメータ決定方法。
【請求項26】
パラメータ決定装置によって決定されたパラメータによって定義され且つ複数の層を備えるニューラルネットワークを用いて入力信号に対して歪み補償を実行することで、歪み補償信号を生成することと、
前記歪み補償信号を対象に所定動作を行うことで、信号受信装置に送信する送信信号を生成することと
を含み、
前記パラメータ決定装置は、
学習用信号及び教師用信号に基づいて、前記複数の層のうちの第j-1(但し、jは、「2≦j≦前記層の数」という条件を満たす整数)番目の層と前記第j-1番目の層の出力が入力される第j番目の層との間の重みを学習する第1学習手段と、
前記第1学習手段が学習した重みに基づいて、前記第j-1番目の層に含まれる複数のノードと前記第j番目の層に含まれる複数のノードとを夫々連結する複数の接続経路の中から、前記ニューラルネットワークにおいて有効な接続経路として用いられる有効経路を前記j番目の層に含まれる各ノードにおいて少なくとも一つずつ、前記パラメータの一部として選択する選択手段と、
前記学習用信号、前記教師用信号及び前記有効経路に基づいて、前記j-1番目の層と前記j番目の層との間の重み及び前記j番目の層で付加されるバイアスの少なくとも一方を、前記パラメータの一部として学習する第2学習手段と
を備える信号送信方法。
【請求項27】
ニューラルネットワークを用いて入力信号に対して歪み補償を実行することで、歪み補償信号を生成することと、
前記歪み補償信号を対象に所定動作を行うことで、信号受信装置に送信する送信信号を生成することと、
学習用信号及び教師用信号に基づいて、前記ニューラルネットワークが備える複数の層のうちの第j-1(但し、jは、「2≦j≦前記層の数」という条件を満たす整数)番目の層と前記第j-1番目の層の出力が入力される第j番目の層との間の重み及び前記j番目の層で付加されるバイアスの少なくとも一方を、前記ニューラルネットワークのパラメータの少なくとも一部として学習することと
を含み、
前記歪み補償は、冗長化された複数のニューラルネットワークのうちの一のニューラルネットワークを用いて実行され、
前記学習したパラメータが、前記複数のニューラルネットワークのうちの前記一のニューラルネットワークとは異なる他のニューラルネットワークに適用された後に、前記歪み補償は、前記一のニューラルネットワークに代えて前記他のニューラルネットワークを用いて前記歪み補償を実行される
号送信方法。
【請求項28】
コンピュータに、複数の層を備えるニューラルネットワークのパラメータを決定するパラメータ決定方法を実行させるコンピュータプログラムであって、
前記パラメータ決定方法は、
学習用信号及び教師用信号に基づいて、前記複数の層のうちの第j-1(但し、jは、「2≦j≦前記層の数」という条件を満たす整数)番目の層と前記第j-1番目の層の出力が入力される第j番目の層との間の重みを学習することと、
学習した重みに基づいて、前記第j-1番目の層に含まれる複数のノードと前記第j番目の層に含まれる複数のノードとを夫々連結する複数の接続経路の中から、前記ニューラルネットワークにおいて有効な接続経路として用いられる有効経路を前記j番目の層に含まれる各ノードにおいて少なくとも一つずつ、前記パラメータの一部として選択することと、
前記学習用信号、前記教師用信号及び前記有効経路に基づいて、前記j-1番目の層と前記j番目の層との間の重み及び前記j番目の層で付加されるバイアスの少なくとも一方を、前記パラメータの一部として学習することと
を含むコンピュータプログラム。
【請求項29】
コンピュータに信号送信方法を実行させるコンピュータプログラムであって、
前記信号送信方法は、
パラメータ決定装置によって決定されたパラメータによって定義され且つ複数の層を備えるニューラルネットワークを用いて入力信号に対して歪み補償を実行することで、歪み補償信号を生成することと、
前記歪み補償信号を対象に所定動作を行うことで、信号受信装置に送信する送信信号を生成することと
を含み、
前記パラメータ決定装置は、
学習用信号及び教師用信号に基づいて、前記複数の層のうちの第j-1(但し、jは、「2≦j≦前記層の数」という条件を満たす整数)番目の層と前記第j-1番目の層の出力が入力される第j番目の層との間の重みを学習する第1学習手段と、
前記第1学習手段が学習した重みに基づいて、前記第j-1番目の層に含まれる複数のノードと前記第j番目の層に含まれる複数のノードとを夫々連結する複数の接続経路の中から、前記ニューラルネットワークにおいて有効な接続経路として用いられる有効経路を前記j番目の層に含まれる各ノードにおいて少なくとも一つずつ、前記パラメータの一部として選択する選択手段と、
前記学習用信号、前記教師用信号及び前記有効経路に基づいて、前記j-1番目の層と前記j番目の層との間の重み及び前記j番目の層で付加されるバイアスの少なくとも一方を、前記パラメータの一部として学習する第2学習手段と
を備えるコンピュータプログラム。
【請求項30】
コンピュータに信号送信方法を実行させるコンピュータプログラムであって、
前記信号送信方法は、
ニューラルネットワークを用いて入力信号に対して歪み補償を実行することで、歪み補償信号を生成することと、
前記歪み補償信号を対象に所定動作を行うことで、信号受信装置に送信する送信信号を生成することと、
学習用信号及び教師用信号に基づいて、前記ニューラルネットワークが備える複数の層のうちの第j-1(但し、jは、「2≦j≦前記層の数」という条件を満たす整数)番目の層と前記第j-1番目の層の出力が入力される第j番目の層との間の重み及び前記j番目の層で付加されるバイアスの少なくとも一方を、前記ニューラルネットワークのパラメータの少なくとも一部として学習することと
を含み、
前記歪み補償は、冗長化された複数のニューラルネットワークのうちの一のニューラルネットワークを用いて実行され、
前記学習したパラメータが、前記複数のニューラルネットワークのうちの前記一のニューラルネットワークとは異なる他のニューラルネットワークに適用された後に、前記歪み補償は、前記一のニューラルネットワークに代えて前記他のニューラルネットワークを用いて前記歪み補償を実行される
ンピュータプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、ニューラルネットワークのパラメータを決定するパラメータ決定装置、パラメータ決定方法及び記録媒体、並びに、信号を送信する信号送信装置、信号送信方法及び記録媒体の技術分野に関する。
【背景技術】
【0002】
近年、様々な技術分野において、ニューラルネットワークの活用が検討されている。例えば、移動体通信システム等の無線通信システムでは、ニューラルネットワークを用いて、デジタルプリディストーション(DPD:Digital Pre-Distortion)方式の歪み補償回路が構築されている(非特許文献1参照)。
【0003】
その他、本願発明に関連する先行技術文献として、特許文献1から特許文献3及び非特許文献1から非特許文献7があげられる。
【先行技術文献】
【特許文献】
【0004】
【文献】特開2009-64216号公報
【文献】特開平11-134003号公報
【文献】特開平8-249007号公報
【非特許文献】
【0005】
【文献】Zhijian Yu、“A Generalized Digital Predistortion Model Based on Artificial Neural Networks”、Proceedings of 2018 Asia-Pacific Microwave Conference、pp.935-937頁、2018年11月
【文献】J.Kim,K.Konstantinou、“Digital Predistortion of wide band signals based on power amplifier with memory”、IET Electron Ketter、Vol.37 No.23、pp.1417-1418、2001年11月
【文献】Dennis R.Morgan,Zhengxiang Ma,Jaehyeong Kim,Michael G.Zierdt,Hohn Pastalan、“A Generalized Memory Polynomial Model for Digital Predistortion of RF Power Amplifiers”、IEEE Transaction on Signal Processing、Vol.54 No.10、pp.3852-3860、2006年10月
【文献】Meenakshi Rawat,Fadhel M.Ghannouchi、“A Mutual Distortion and Impairment Compensator for Wideband Direct-Conversion Transmitters Using Neural Networks”、IEEE Transaction on Broadcast、Vol.58 No.2、pp.168-177、2012年1月
【文献】Song Han,Jeff Pool,John Tran,William J.Dally、“Learning both Weights and Connections for Efficient Neural Networks”、In Advances in Neural Information Processing Systems、2015年
【文献】Alireza Aghasi,Nam Nguyen,Justin Romberg、“Net-Trim:A Layer-wise Convex Pruning of Deep Neural Networks”、arXiv preprint arXiv:1611.05162、2016年
【文献】Jessica Chani-Cahuana,Per Niklas Landin,Christian Fager,Thomas Eriksson、“Iterative Learning Control for RF Power Amplifier Linearization”、IEEE Transaction on Microwave Theory and Techniques、Vol.64 No.9、pp.2778-2789、2016年9月
【発明の概要】
【発明が解決しようとする課題】
【0006】
ニューラルネットワークを用いて構築される装置は、ニューラルネットワークのネットワーク構造の複雑さに起因して演算量(つまり、計算量)が相対的に多くなってしまうという技術的問題を有する。このため、必要な演算量が相対的に少ないニューラルネットワークを構築することが望まれる。
【0007】
本発明は、上述した技術的問題を解決可能なパラメータ決定装置、パラメータ決定方法及び記録媒体を提供することを課題とする。一例として、本発明は、必要な演算量が相対的に少ないニューラルネットワークを構築可能なパラメータ決定装置、パラメータ決定方法、及び、記録媒体、並びに、必要な演算量が相対的に少ないニューラルネットワークを用いて信号を送信する信号送信装置、信号送信方法及び記録媒体を提供することを課題とする。
【課題を解決するための手段】
【0008】
パラメータ決定装置の一態様は、複数の層を備えるニューラルネットワークのパラメータを決定するパラメータ決定装置であって、学習用信号及び教師用信号に基づいて、前記複数の層のうちの第j-1(但し、jは、「2≦j≦前記層の数」という条件を満たす整数)番目の層と前記第j-1番目の層の出力が入力される第j番目の層との間の重みを学習する第1学習手段と、前記第1学習手段が学習した重みに基づいて、前記第j-1番目の層に含まれる複数のノードと前記第j番目の層に含まれる複数のノードとを夫々連結する複数の接続経路の中から、前記ニューラルネットワークにおいて有効な接続経路として用いられる有効経路を前記j番目の層に含まれる各ノードにおいて少なくとも一つずつ、前記パラメータの一部として選択する選択手段と、前記学習用信号、前記教師用信号及び前記有効経路に基づいて、前記j-1番目の層と前記j番目の層との間の重み及び前記j番目の層で付加されるバイアスの少なくとも一方を、前記パラメータの一部として学習する第2学習手段とを備える。
【0009】
信号送信装置の一の態様は、パラメータ決定装置によって決定されたパラメータによって定義される前記ニューラルネットワークを用いて入力信号に対して歪み補償を実行することで、歪み補償信号を生成する歪み補償手段と、前記歪み補償信号を対象に所定動作を行うことで、信号受信装置に送信する送信信号を生成する信号生成手段とを備え、前記パラメータ決定装置は、学習用信号及び教師用信号に基づいて、前記複数の層のうちの第j-1(但し、jは、「2≦j≦前記層の数」という条件を満たす整数)番目の層と前記第j-1番目の層の出力が入力される第j番目の層との間の重みを学習する第1学習手段と、前記第1学習手段が学習した重みに基づいて、前記第j-1番目の層に含まれる複数のノードと前記第j番目の層に含まれる複数のノードとを夫々連結する複数の接続経路の中から、前記ニューラルネットワークにおいて有効な接続経路として用いられる有効経路を前記j番目の層に含まれる各ノードにおいて少なくとも一つずつ、前記パラメータの一部として選択する選択手段と、前記学習用信号、前記教師用信号及び前記有効経路に基づいて、前記j-1番目の層と前記j番目の層との間の重み及び前記j番目の層で付加されるバイアスの少なくとも一方を、前記パラメータの一部として学習する第2学習手段とを備える。
【0010】
信号送信装置の他の態様は、ニューラルネットワークを用いて入力信号に対して歪み補償を実行することで、歪み補償信号を生成する歪み補償手段と、前記歪み補償信号を対象に所定動作を行うことで、信号受信装置に送信する送信信号を生成する信号生成手段と、学習用信号及び教師用信号に基づいて、前記ニューラルネットワークが備える複数の層のうちの第j-1(但し、jは、「2≦j≦前記層の数」という条件を満たす整数)番目の層と前記第j-1番目の層の出力が入力される第j番目の層との間の重み及び前記j番目の層で付加されるバイアスの少なくとも一方を、前記ニューラルネットワークのパラメータの少なくとも一部として学習する学習手段とを備える。
【0011】
パラメータ決定方法の一の態様は、複数の層を備えるニューラルネットワークのパラメータを決定するパラメータ決定方法であって、学習用信号及び教師用信号に基づいて、前記複数の層のうちの第j-1(但し、jは、「2≦j≦前記層の数」という条件を満たす整数)番目の層と前記第j-1番目の層の出力が入力される第j番目の層との間の重みを学習することと、前記第1学習手段が学習した重みに基づいて、前記第j-1番目の層に含まれる複数のノードと前記第j番目の層に含まれる複数のノードとを夫々連結する複数の接続経路の中から、前記ニューラルネットワークにおいて有効な接続経路として用いられる有効経路を前記j番目の層に含まれる各ノードにおいて少なくとも一つずつ、前記パラメータの一部として選択することと、前記学習用信号、前記教師用信号及び前記有効経路に基づいて、前記j-1番目の層と前記j番目の層との間の重み及び前記j番目の層で付加されるバイアスの少なくとも一方を、前記パラメータの一部として学習することとを含む。
【0012】
信号送信方法の一の態様は、パラメータ決定装置によって決定されたパラメータによって定義される前記ニューラルネットワークを用いて入力信号に対して歪み補償を実行することで、歪み補償信号を生成することと、前記歪み補償信号ことで、信号受信装置に送信する送信信号を生成することとを含み、前記パラメータ決定装置は、学習用信号及び教師用信号に基づいて、前記複数の層のうちの第j-1(但し、jは、「2≦j≦前記層の数」という条件を満たす整数)番目の層と前記第j-1番目の層の出力が入力される第j番目の層との間の重みを学習する第1学習手段と、前記第1学習手段が学習した重みに基づいて、前記第j-1番目の層に含まれる複数のノードと前記第j番目の層に含まれる複数のノードとを夫々連結する複数の接続経路の中から、前記ニューラルネットワークにおいて有効な接続経路として用いられる有効経路を前記j番目の層に含まれる各ノードにおいて少なくとも一つずつ、前記パラメータの一部として選択する選択手段と、前記学習用信号、前記教師用信号及び前記有効経路に基づいて、前記j-1番目の層と前記j番目の層との間の重み及び前記j番目の層で付加されるバイアスの少なくとも一方を、前記パラメータの一部として学習する第2学習手段とを備える。
【0013】
信号送信方法の他の態様は、ニューラルネットワークを用いて入力信号に対して歪み補償を実行することで、歪み補償信号を生成することと、前記歪み補償信号を対象に所定動作を行うことで、信号受信装置に送信する送信信号を生成することと、学習用信号及び教師用信号に基づいて、前記ニューラルネットワークが備える複数の層のうちの第j-1(但し、jは、「2≦j≦前記層の数」という条件を満たす整数)番目の層と前記第j-1番目の層の出力が入力される第j番目の層との間の重み及び前記j番目の層で付加されるバイアスの少なくとも一方を、前記ニューラルネットワークのパラメータの少なくとも一部として学習することとを含む。
【0014】
記録媒体の第1の態様は、コンピュータに、複数の層を備えるニューラルネットワークのパラメータを決定するパラメータ決定方法を実行させるコンピュータプログラムが記録された記録媒体であって、前記パラメータ決定方法は、学習用信号及び教師用信号に基づいて、前記複数の層のうちの第j-1(但し、jは、「2≦j≦前記層の数」という条件を満たす整数)番目の層と前記第j-1番目の層の出力が入力される第j番目の層との間の重みを学習することと、前記第1学習手段が学習した重みに基づいて、前記第j-1番目の層に含まれる複数のノードと前記第j番目の層に含まれる複数のノードとを夫々連結する複数の接続経路の中から、前記ニューラルネットワークにおいて有効な接続経路として用いられる有効経路を前記j番目の層に含まれる各ノードにおいて少なくとも一つずつ、前記パラメータの一部として選択することと、前記学習用信号、前記教師用信号及び前記有効経路に基づいて、前記j-1番目の層と前記j番目の層との間の重み及び前記j番目の層で付加されるバイアスの少なくとも一方を、前記パラメータの一部として学習することとを含む。
【0015】
記録媒体の第2の態様は、コンピュータに信号送信方法を実行させるコンピュータプログラムが記録された記録媒体であって、前記信号送信方法は、パラメータ決定装置によって決定されたパラメータによって定義される前記ニューラルネットワークを用いて入力信号に対して歪み補償を実行することで、歪み補償信号を生成することと、前記歪み補償信号を対象に所定動作を行うことで、信号受信装置に送信する送信信号を生成することとを含み、前記パラメータ決定装置は、学習用信号及び教師用信号に基づいて、前記複数の層のうちの第j-1(但し、jは、「2≦j≦前記層の数」という条件を満たす整数)番目の層と前記第j-1番目の層の出力が入力される第j番目の層との間の重みを学習する第1学習手段と、前記第1学習手段が学習した重みに基づいて、前記第j-1番目の層に含まれる複数のノードと前記第j番目の層に含まれる複数のノードとを夫々連結する複数の接続経路の中から、前記ニューラルネットワークにおいて有効な接続経路として用いられる有効経路を前記j番目の層に含まれる各ノードにおいて少なくとも一つずつ、前記パラメータの一部として選択する選択手段と、前記学習用信号、前記教師用信号及び前記有効経路に基づいて、前記j-1番目の層と前記j番目の層との間の重み及び前記j番目の層で付加されるバイアスの少なくとも一方を、前記パラメータの一部として学習する第2学習手段とを備える。
【0016】
記録媒体の第3の態様は、コンピュータに信号送信方法を実行させるコンピュータプログラムが記録された記録媒体であって、前記信号送信方法は、ニューラルネットワークを用いて入力信号に対して歪み補償を実行することで、歪み補償信号を生成することと、前記歪み補償信号を対象に所定動作を行うことで、信号受信装置に送信する送信信号を生成することと、学習用信号及び教師用信号に基づいて、前記ニューラルネットワークが備える複数の層のうちの第j-1(但し、jは、「2≦j≦前記層の数」という条件を満たす整数)番目の層と前記第j-1番目の層の出力が入力される第j番目の層との間の重み及び前記j番目の層で付加されるバイアスの少なくとも一方を、前記ニューラルネットワークのパラメータの少なくとも一部として学習することとを含む。
【発明の効果】
【0017】
上述したパラメータ決定装置、パラメータ決定方法及び記録媒体のそれぞれの一の態様によれば、必要な演算量が相対的に少ないニューラルネットワークが適切に構築される。また、上述した信号送信装置、信号送信方法及び記録媒体のそれぞれの一の態様によれば、必要な演算量が相対的に少ないニューラルネットワークを用いて信号が送信される。
【図面の簡単な説明】
【0018】
図1図1は、本実施形態の信号送信装置の構成を示すブロック図である。
図2図2は、歪み補償回路の構成を示すブロック図である。
図3図3は、本実施形態のパラメータ決定装置のハードウェア構成を示すブロック図である。
図4図4は、本実施形態のパラメータ決定装置のCPU内で実現される機能ブロックを示すブロック図である。
図5図5は、パラメータ決定部の構成を示すブロック図である。
図6図6は、パラメータ決定部の動作の流れを示すフローチャートである。
図7図7は、第1変形例のパラメータ決定部の動作の流れを示すフローチャートである。
図8図8は、第2変形例のパラメータ決定部の構成を示すブロック図である。
図9図9は、第2変形例のパラメータ決定部の動作の流れを示すフローチャートである。
図10図10は、第3変形例のパラメータ決定部の構成を示すブロック図である。
図11図11は、第3変形例のパラメータ決定部の動作の流れを示すフローチャートである。
図12図12は、第1変形例の信号送信装置の構成を示すブロック図である。
図13図13は、第2変形例の信号送信装置の構成を示すブロック図である。
図14図14は、第2変形例の歪み補償回路の構成の他の例を示すブロック図である。
図15図15は、第2変形例の信号送信装置内に実装される、ニューラルネットワークのパラメータを更新するための機能ブロックの他の例を示すブロック図である。
図16図16は、第2変形例の信号送信装置内に実装される、ニューラルネットワークのパラメータを更新するための機能ブロックの他の例を示すブロック図である。
【発明を実施するための形態】
【0019】
以下、図面を参照しながら、パラメータ決定装置、信号送信装置、パラメータ決定方法、信号送信方法及び記録媒体の実施形態について説明する。
【0020】
(1)信号送信装置1
はじめに、図1を参照しながら、本実施形態の信号送信装置1について説明する。図1は、本実施形態の信号送信装置1の構成を示すブロック図である。
【0021】
図1に示すように、信号送信装置1は、通信回線を介して、不図示の信号受信装置に対して送信信号zを送信する。通信回線は、典型的には、無線通信回線であるが、その少なくとも一部が有線通信回線であってもよい。送信信号zを送信するために、信号送信装置1は、歪み補償回路(DPD:Digital Pre-Distortion)11と、パワーアンプ(PA:Power Amplifier)12とを備える。
【0022】
歪み補償回路11は、入力信号xに対して歪み補償を施すことで、歪み補償信号yを生成する。歪み補償回路11は、パワーアンプ12の動作に起因して送信信号zに生ずる歪みを補償する(典型的には、低減する又は相殺する)ための歪み補償を入力信号xに施すことで、歪み補償信号yを生成する。本実施形態では、歪み補償回路11は、例えば、DPD方式の歪み補償回路であってもよい。特に、歪み補償回路11は、入力信号xに対してパワーアンプ12の逆歪み特性を作用させた歪み補償信号yを生成してもよい。この場合、信号送信装置1の低消費電力化及び低歪化の両立が可能となる。具体的には、信号送信装置1の効率の向上及び信号送信装置1の増幅特性の線形性の確保が両立される。
【0023】
パワーアンプ12は、歪み補償回路11から出力される歪み補償信号yを対象に所定動作を行う。具体的には、パワーアンプ12は、歪み補償信号yを増幅する。パワーアンプ12が増幅した歪み補償信号yは、送信信号zとして、通信回線を介して、信号受信装置へと送信される。ここで、上述したように歪み補償回路11がDPD方式の歪み補償回路である場合には、パワーアンプ12における信号の歪みが歪み補償回路11における信号の逆歪みによって相殺されるので、パワーアンプ12は、入力信号xに対して線形な送信信号zを出力する。
【0024】
本実施形態では特に、歪み補償回路11は、ニューラルネットワーク112(図2参照)を用いて、入力信号xに対して歪み補償を施す。以下、このような歪み補償回路11の構成について、図2を参照しながら更に詳細に説明する。図2は、歪み補償回路11の構成を示すブロック図である。
【0025】
図2に示すように、歪み補償回路11は、信号生成部111と、ニューラルネットワーク112とを備える。
【0026】
信号生成部111は、歪み補償回路11に入力された入力信号xから、ニューラルネットワーク112に入力される複数の信号(典型的には、夫々異なる遅延が付与された複数の信号)を生成する。尚、入力信号xは、例えば、時刻tに歪み補償回路11に入力された入力信号xの複素信号を意味する。
【0027】
信号生成部111は、入力信号xから、ニューラルネットワーク112に入力される複数の信号を生成することができる限りは、どのような方法で複数の信号を生成してもよい。図2に示す例では、信号生成部111は、入力信号xに基づいて、入力信号xt-1から入力信号xt-M(1)/2を生成する。尚、変数M(1)は、後述するニューラルネットワーク112の入力層112Iに含まれるノード(つまり、ニューロン)N(1)の総数を示す。記号「/」は、割り算を表す(以下同様)。入力信号xに基づいて入力信号xt-1から入力信号xt-M(1)/2を生成するために、信号生成部111は、M(1)/2個の遅延器1111(具体的には、遅延器1111から1111M(1)/2)を備える。遅延器1111(尚、変数hは、tからt-M(1)/2までの整数)は、入力信号Xt-h+1に遅延を付与して入力信号Xt-hを生成する。更に、信号生成部111は、入力信号xt-hから、入力信号xt-hのI軸信号成分に相当する入力信号It-hと、入力信号xt-hのQ軸信号成分に相当する入力信号Qt-hとを生成する。入力信号xt-hのI軸信号成分は、入力信号xt-hの波形の同相(In-phase)成分に相当する。入力信号xt-hのQ軸信号成分は、入力信号xt-hの波形の直交位相(Quadrature)成分に相当する。入力信号xt-hから入力信号It-h及びQt-hを生成するために、信号生成部111は、M(1)/2+1個の信号変換器1112(具体的には、信号変換器1112から1112M(1)/2)を備える。信号変換器1112は、入力信号xt-hから入力信号It-h及びQt-hを生成する。その結果、ニューラルネットワーク112には、入力信号IからIM(1)/2及び入力信号QからQM(1)/2が入力される。
【0028】
尚、信号生成部111は、入力信号xに基づいて入力信号xt-1から入力信号xt-M(1)を生成し、生成した入力信号xから入力信号xt-M(1)の振幅値をニューラルネットワーク112に入力してもよい。また、信号生成部111は、入力信号xから入力信号xt-M(1)の振幅値と入力信号Iから入力信号It-M(1)及び入力信号Qから入力信号Qt-M(1)とを混合してニューラルネットワーク112に入力してもよい。信号生成部111は、入力信号xから入力信号xt-M(1)の振幅値と入力信号Iから入力信号It-M(1)及び入力信号Qから入力信号Qt-M(1)とを用いた演算値(例えば、べき乗値等)をニューラルネットワーク112に入力してもよい。
【0029】
ニューラルネットワーク112は、入力信号Iから入力信号It-M(1)/2及び入力信号Qから入力信号Qt-M(1)/2に基づいて、歪み補償信号y(つまり、歪み補償が施された入力信号x)を生成する。ニューラルネットワーク112は、入力層112Iと、少なくとも一つの中間層(つまり、隠れ層)112Mと、出力層112Oとを備える。図2に示す例では、ニューラルネットワーク112は、2つの中間層112M(具体的には、第1の中間層112M(2)及び第2の中間層112M(3))備えるが、1つの又は3つ以上の中間層112Mを備えていてもよい。
【0030】
入力層112Iは、ニューラルネットワーク112の1番目の層である。入力層112Iは、M(1)個のノードN(1)を備える。以下では、M(1)個のノードN(1)を、夫々、ノードN (1)からノードNM(1) (1)と表記して互いに区別する。変数M(1)は、典型的には、2以上の整数である。第1の中間層112M(2)は、ニューラルネットワーク112の2番目の層である。第1の中間層112M(2)は、M(2)個のノードN(2)を備える。以下では、M(2)個のノードN(2)を、夫々、ノードN (2)からノードNM(2) (2)と表記して互いに区別する。変数M(2)は、典型的には、2以上の整数である。第2の中間層112M(3)は、ニューラルネットワーク112の3番目の層である。第2の中間層112M(3)は、M(3)個のノードN(3)を備える。以下では、M(3)個のノードN(3)を、夫々、ノードN (3)からノードNM(3) (3)と表記して互いに区別する。変数M(3)は、典型的には、2以上の整数である。出力層112Oは、ニューラルネットワーク112の4番目の層である。出力層112Oは、M(4)個のノードN(4)を備える。以下では、M(4)個のノードN(4)を、夫々、ノードN (4)からノードNM(4) (4)と表記して互いに区別する。変数M(4)は、典型的には、2以上の整数であるが、1であってもよい。図2に示す例では、変数M(4)が2であり、出力層112Oは、ノードN (4)及びノードN (4)を備える。
【0031】
入力層112IのノードN (1)からノードNM(1) (1)には、夫々、入力信号Iから入力信号It-M(1)/2及び入力信号Qから入力信号Qt-M(1)/2が入力される。図2に示す例では、kが奇数である場合には、入力層112Iの第k番目のノードN (1)には、入力信号It-(k-1)/2が入力される。kが偶数である場合には、入力層112Iの第k番目のノードN (1)には、入力信号Qt-(k-2)/2が入力される。第k番目のノードN (1)の出力H (1)は、第k番目のノードN (1)の入力と同じであってもよい。尚、変数kは、1以上且つM(1)以下の整数を示す。或いは、第k番目のノードN (1)の出力H (1)は、数式1で示されてもよい。数式1における「real(x)」は、複素入力信号xの実部を出力する関するであり、「imag(x)」は、複素入力信号xの虚部を出力する関数である。入力層112Iの第k番目のノードN (1)の出力H (1)は、入力層112Iの第k番目のノードN (1)と第1の中間層112M(2)のノードN (2)からノードNM(2) (2)とを夫々接続するM(2)個の接続経路を介して、ノードN (2)からノードNM(2) (2)の夫々に入力される。尚、数式1内の変数kは、例外的に、1以上且つM(1)/2以下の整数を示す。
【0032】
【数1】
【0033】
第1の中間層112M(2)のm番目のノードN (2)の出力H (2)は、数式2で示される。数式2における「wk、m (2)」は、入力層112Iの第k番目のノードN (1)と第1の中間層112M(2)のm番目のノードN (2)との間の接続経路における重みを示す。数式2における「b (2)」は、第1の中間層112M(2)のm番目のノードN (2)で用いられる(つまり、付加される)バイアスを示す。数式2における「f」は、活性化関数を示す。活性化関数として、例えば、シグモイド関数又はReLu(Rectified Linear Unit)関数が用いられてもよい。第1の中間層112M(2)のm番目のノードN (2)の出力H (2)は、第1の中間層112M(2)のm番目のノードN (2)と第2の中間層112M(3)のノードN (3)からノードNM(2) (3)とを夫々接続するM(3)個の接続経路を介して、ノードN (3)からノードNM(2) (3)の夫々に入力される。尚、変数mは、1以上且つM(2)以下の整数を示す。
【0034】
【数2】
【0035】
第2の中間層112M(3)のn番目のノードN (3)の出力H (3)もまた、数式2で示される。但し、出力H (3)を数式2で示す場合には、数式2における「H (1)」及び「H (2)」は、夫々、H (2)及びH (3)に置き換えられ、数式2における「wk、m (2)」は、第1の中間層112M(2)のm番目のノードN (2)と第2の中間層112M(3)のn番目のノードN (3)との間の接続経路における重みwm、n (3)に置き換えられ、且つ、数式2における「b (2)」は、第2の中間層112M(3)のn番目のノードN (3)で用いられる(つまり、付加される)バイアスb (3)に置き換えられる。第2の中間層112M(3)のn番目のノードN (3)の出力H (3)は、第2の中間層112M(3)のn番目のノードN (3)と出力層112OのノードN (4)からノードN (4)とを夫々接続するM(4)個の接続経路を介して、ノードN (4)からノードN (4)の夫々に入力される。尚、変数nは、1以上且つM(3)以下の整数を示す。
【0036】
出力層112O(4)のo番目のノードN (4)の出力H (4)もまた、数式2で示される。但し、出力H (4)を数式2で示す場合には、数式2における「H (1)」及び「H (2)」は、夫々、H (3)及びH (4)に置き換えられ、数式2における「wk、m (2)」は、第2の中間層112M(3)のn番目のノードN (3)と出力層112Oのo番目のノードN (4)との間の接続経路における重みwn、o (4)に置き換えられ、且つ、数式2における「b (2)」は、出力層112Oのo番目のノードN (4)で用いられる(つまり、付加される)バイアスb (4)に置き換えられる。尚、変数oは、1以上且つM(4)以下の整数を示す。
【0037】
出力層112Oの出力は、最終的な出力信号yに相当する。出力信号yは、時刻tの入力信号xから生成される歪み補償信号yに相当する。尚、出力層112Oは、活性化関数fを含んでいなくてもよい。この場合、出力層112Oの出力は、第2の中間層112M(3)のノードN (3)からノードNM(3) (3)の出力を基底とする線形和であってもよい。
【0038】
このようなニューラルネットワーク112の特性(実質的には、構造)は、例えば、上述した重みw、上述したバイアスb、及び、ノードNの接続態様CAというパラメータによって決定される。
【0039】
重みwは、入力層112Iと第1の中間層112M(2)との間の重みw(2)を含む。重みw(2)は、入力層112Iと第1の中間層112M(2)との間のM(1)×M(2)個の接続経路に夫々対応するM(1)×M(2)個の重みwk、m (2)(1≦k≦M(1)、1≦m≦M(2))を含む。つまり、重みw(2)は、M(1)×M(2)個の重みwk、m (2)によって定まるベクトルである。重みwは、更に、第1の中間層112M(2)と第2の中間層112M(3)との間の重みw(3)を含む。重みw(3)は、第1の中間層112M(2)と第2の中間層112M(3)との間のM(2)×M(3)個の接続経路に夫々対応するM(2)×M(3)個の重みwm、n (3)(1≦m≦M(2)、1≦n≦M(3))を含む。つまり、重みw(3)は、M(2)×M(3)個の重みwm、n (3)によって定まるベクトルである。重みwは、更に、第2の中間層112M(3)と出力層112Oとの間の重みw(4)を含む。重みw(4)は、第2の中間層112M(3)と出力層112Oとの間のM(3)×M(4)個の接続経路に夫々対応するM(3)×M(4)個の重みwn、o (4)(1≦n≦M(3)、1≦o≦M(4))を含む。つまり、重みw(4)は、M(3)×M(4)個の重みwn、o (4)によって定まるベクトルである。
【0040】
接続態様CAは、入力層112Iに含まれるノードN (1)からノードNM(1) (1)と第1の中間層112M(2)に含まれるノードN (2)からノードNM(2) (2)との接続態様CA(2)を含む。接続態様CAは、更に、第1の中間層112M(2)に含まれるノードN (2)からノードNM(2) (2)と第2の中間層112M(3)に含まれるノードN (3)からノードNM(3) (3)との接続態様CA(3)を含む。接続態様CAは、更に、第2の中間層112M(3)に含まれるノードN (3)からノードNM(3) (3)と出力層112Oに含まれるノードN (4)からノードNM(4) (4)との接続態様CA(4)とを含む。
【0041】
尚、ここで言う一の層のノードNと他の層のノードNとの接続態様は、一の層のノードNと他の層のノードNとの接続の有無を示す情報である。つまり、ここで言う一の層のノードNと他の層のノードNとの接続態様は、一の層のノードNの出力が他の層のノードNに入力される接続経路が存在するか否かを示す情報である。
【0042】
バイアスbは、第1の中間層112M(2)で付加されるバイアスb(2)と、第2の中間層112M(3)で付加されるバイアスb(3)と、出力層112Oで付加されるバイアスb(4)とを含む。バイアス(2)は、第1の中間層112M(2)に含まれるノードN (2)からノードNM(2) (2)で夫々付加されるM(2)個のバイアスb (2)(1≦m≦M(2))を含む。つまり、バイアスb(2)は、M(2)個のバイアスb (2)によって定まるベクトルである。バイアスb(3)は、第2の中間層112M(3)に含まれるノードN (3)からノードNM(3) (3)で夫々付加されるM(3)個のバイアスb (3)(1≦n≦M(3))を含む。つまり、バイアスb(3)は、M(3)個のバイアスb (3)によって定まるベクトルである。バイアスb(4)は、出力層112Oに含まれるノードN (4)からノードNM(4) (4)で夫々付加されるM(4)個のバイアスb (4)(1≦o≦M(4))を含む。つまり、バイアスb(4)は、M(4)個のバイアスb (4)によって定まるベクトルである。
【0043】
これらのパラメータは、後述するパラメータ決定装置2によって決定される。この場合、パラメータ決定装置2が学習を担う装置に相当し、学習で得られたパラメータを用いて信号送信装置1(特に、歪み補償回路11)において推論が行われるとも言える。以下、パラメータ決定装置2について更に説明する。
【0044】
(2)パラメータ決定装置2
(2-1)パラメータ決定装置2のハードウェア構成
はじめに、図3を参照しながら、本実施形態のパラメータ決定装置2のハードウェア構成について説明する。図3は、第1実施形態のパラメータ決定装置2のハードウェア構成を示すブロック図である。
【0045】
図3に示すように、パラメータ決定装置2は、CPU(Central Processing Unit)21と、RAM(Random Access Memory)22と、ROM(Read Only Memory)23と、記憶装置24とを備えている。更に、パラメータ決定装置2は、入力装置25と、出力装置26とを備えていてもよい。CPU21と、RAM22と、ROM23と、記憶装置24と、入力装置25と、出力装置26とは、データバス27を介して接続されている。
【0046】
CPU21は、コンピュータプログラムを読み込む。例えば、CPU21は、RAM22、ROM23及び記憶装置24のうちの少なくとも一つが記憶しているコンピュータプログラムを読み込んでもよい。例えば、CPU21は、コンピュータで読み取り可能な記録媒体が記憶しているコンピュータプログラムを、図示しない記録媒体読み取り装置を用いて読み込んでもよい。CPU21は、通信ネットワークインタフェースを介して、パラメータ決定装置2の外部に配置される不図示の装置からコンピュータプログラムを取得してもよい(つまり、読み込んでもよい)。CPU21は、読み込んだコンピュータプログラムを実行することで、RAM22、記憶装置24、入力装置25及び出力装置26を制御する。本実施形態では特に、CPU21が読み込んだコンピュータプログラムを実行すると、CPU21内には、ニューラルネットワーク112のパラメータを決定するための論理的な機能ブロックが実現される。つまり、CPU21は、ニューラルネットワーク112のパラメータを決定するための論理的な機能ブロックを実現するためのコントローラとして機能可能である。尚、CPU21内で実現される機能ブロックの構成については、後に図4を参照しながら詳述する。
【0047】
RAM22は、CPU21が実行するコンピュータプログラムを一時的に記憶する。RAM22は、CPU21がコンピュータプログラムを実行している際にCPU21が一時的に使用するデータを一時的に記憶する。RAM22は、例えば、D-RAM(Dynamic RAM)であってもよい。
【0048】
ROM23は、CPU21が実行するコンピュータプログラムを記憶する。ROM23は、その他に固定的なデータを記憶していてもよい。ROM23は、例えば、P-ROM(Programmable ROM)であってもよい。
【0049】
記憶装置24は、パラメータ決定装置2が長期的に保存するデータを記憶する。記憶装置24は、CPU21の一時記憶装置として動作してもよい。記憶装置24は、例えば、ハードディスク装置、光磁気ディスク装置、SSD(Solid State Drive)及びディスクアレイ装置のうちの少なくとも一つを含んでいてもよい。
【0050】
入力装置25は、パラメータ決定装置2のユーザからの入力指示を受け取る装置である。入力装置25は、例えば、キーボード、マウス及びタッチパネルのうちの少なくとも一つを含んでいてもよい。
【0051】
出力装置26は、パラメータ決定装置2に関する情報を外部に対して出力する装置である。例えば、出力装置26は、パラメータ決定装置2に関する情報を表示可能な表示装置であってもよい。
【0052】
(2-2)CPU21の機能ブロック
続いて、図4を参照しながら、CPU21内で実現される機能ブロックについて説明する。図4は、CPU21内で実現される機能ブロックを示すブロック図である。
【0053】
図4に示すように、CPU21内には、ニューラルネットワーク112のパラメータを決定するための論理的な機能ブロックとして、少なくとも一つのパラメータ決定部211が実現される。パラメータ決定部211の数は、ニューラルネットワーク112を構成する層の数よりも一つ少ない。言い換えれば、パラメータ決定部211の数は、ニューラルネットワーク112に含まれる中間層112M及び出力層112Oの数と同じになる。図4に示す例では、CPU21内には、3つのパラメータ決定部211(具体的には、パラメータ決定部211(2)、パラメータ決定部211(3)及びパラメータ決定部211(4))が実現されている。これは、図2に示すように、ニューラルネットワーク112が四つの層(具体的には、一つの入力層112I、二つの中間層112M及び一つの出力層112O)を備えているからである。
【0054】
尚、図3は、パラメータを決定するための論理的な機能ブロックを概念的に(言い換えれば、簡略的に)示すに過ぎない。つまり、図3に示す機能ブロックがそのままCPU21に実現される必要はなく、図3に示す機能ブロックが行う動作をCPU21が行うことができる限りは、CPU21内に実現される機能ブロックの構成が図3に示す構成に限定されることはない。
【0055】
パラメータ決定部211(2)は、入力層112Iと第1の中間層112M(2)との間におけるネットワーク構造NS(以降、ネットワーク構造NS(2)と称する、図2参照)を定めるパラメータを決定する。ネットワーク構造NS(2)を定めるパラメータは、入力層112Iと第1の中間層112M(2)との間の重みw(2)(つまり、M(1)×M(2)個の重みwk、m (2))、入力層112Iに含まれるノードN (1)からノードNM(1) (1)と第1の中間層112M(2)に含まれるノードN (2)からノードNM(2) (2)との接続態様CA(2)、及び、第1の中間層112M(2)で付加されるバイアスb(2)(つまり、M(2)個のバイアスb (2))を含む。
【0056】
パラメータ決定部211(3)は、第1の中間層112M(2)と第2の中間層112M(3)との間のネットワーク構造NS(以降、ネットワーク構造NS(3)と称する、図2参照)を定めるパラメータを決定する。ネットワーク構造NS(3)を定めるパラメータは、第1の中間層112M(2)と第2の中間層112M(3)との間の重みw(3)(つまり、M(2)×M(3)個の重みwm、n (3))、第1の中間層112M(2)に含まれるノードN (2)からノードNM(2) (2)と第2の中間層112M(3)に含まれるノードN (3)からノードNM(3) (3)との接続態様CA(3)、及び、第2の中間層112M(3)で付加されるバイアスb(3)(つまり、M(3)個のバイアスb (3))を含む。
【0057】
パラメータ決定部211(4)は、第2の中間層112M(3)と出力層112Oとの間のネットワーク構造NS(以降、ネットワーク構造NS(4)と称する、図2参照)を定めるパラメータを決定する。ネットワーク構造NS(4)を定めるパラメータは、第2の中間層112M(3)と出力層112Oとの間の重みw(4)(つまり、M(3)×M(4)個の重みwn、o (4)(1≦n≦M(3)、1≦o≦M(2)))、第2の中間層112M(3)に含まれるノードN (3)からノードNM(3) (3)と出力層112Oに含まれるノードN (4)からノードNM(4) (4)との接続態様CA(4)、及び、出力層112Oで付加されるバイアスb(4)(つまり、M(4)個のバイアスb (4)(1≦o≦M(4)))を含む。
【0058】
各パラメータ決定部211は、学習用信号(つまり、学習データ)と教師用信号(つまり、正解データ)とに基づいて、各パラメータ決定部211に対応するネットワーク構造NS(つまり、各パラメータ決定部211に対応する2つの層の間のネットワーク構造NS)に関するパラメータを決定する。学習用信号及び教師用信号の夫々は、例えば、入力信号x、歪み補償信号y及び送信信号zのうちの少なくとも一つに基づく信号であってもよい。学習用信号及び教師用信号の夫々は、例えば、入力信号x、歪み補償信号y及び送信信号zのうちの少なくとも一つを用いて生成される信号であってもよい。学習用信号及び教師用信号を生成する方法は、歪み補償回路11における歪み補償のためのアルゴリズムに応じて選択されてもよい。例えば、indirect learning方式が用いられる場合には、送信信号zに相当する信号が学習用信号として用いられ、歪み補償信号y又は入力信号xに相当する信号が教師用信号として用いられてもよい。つまり、ある学習用信号がパワーアンプ12から送信信号zとして出力される場合に歪み補償回路11から出力されるべき歪み補償信号y又は歪み補償回路11に入力されるべき入力信号xが、教師用信号として用いられてもよい。或いは、例えば、direct learning方式が用いられる場合には、入力信号xに相当する信号が学習用信号として用いられ、歪み補償信号yに相当する信号が教師用信号として用いられてもよい。つまり、ある学習用信号が歪み補償回路11に入力された場合に歪み補償回路11から出力されるべき歪み補償信号y(例えば、ILC(Iterative Learning control)を適用することで得られた歪み補償信号y)が、教師用信号として用いられてもよい。
【0059】
各パラメータ決定部211は、学習用信号及び教師用信号に加えて、各パラメータ決定部211に対応するネットワーク構造MSよりも前段のネットワーク構造NSに関するパラメータにも基づいて、各パラメータ決定部211に対応するネットワーク構造NSのパラメータを決定する。つまり、各パラメータ決定部211は、学習用信号及び教師用信号に加えて、入力層112Iと各パラメータ決定部211に対応する二つの層のうちの前段側の層との間のネットワーク構造NSに関するパラメータにも基づいて、各パラメータ決定部211に対応する層のパラメータを決定する。具体的には、入力層112Iが第1番目の層に相当するがゆえに、入力層112Iと第1の中間層112M(2)との間のネットワーク構造NS(2)の前段には、ニューラルネットワーク112Iを構成する他のネットワーク構造NSが存在しない。このため、パラメータ決定部211(2)は、ネットワーク構造NS(2)に関するパラメータを決定する際に、他のネットワーク構造NSのパラメータを考慮しなくてもよい。また、第1の中間層112M(2)と第2の中間層112M(3)との間のネットワーク構造NS(3)の前段には、ネットワーク構造NS(2)が存在する。このため、パラメータ決定部211(3)は、ネットワーク構造NS(3)に関するパラメータを決定する際に、ネットワーク構造NS(2)に関するパラメータを考慮する。従って、パラメータ決定部211(2)が決定したパラメータに関する情報は、パラメータ決定部211(3)に出力される。また、第2の中間層112M(3)と出力層112Oとの間のネットワーク構造NS(4)の前段には、ネットワーク構造NS(2)及びネットワーク構造NS(3)が存在する。このため、パラメータ決定部211(4)は、ネットワーク構造NS(4)に関するパラメータを決定する際に、ネットワーク構造NS(2)に関するパラメータ及びネットワーク構造NS(3)に関するパラメータを考慮する。従って、パラメータ決定部211(2)が決定したパラメータに関する情報及びパラメータ決定部211(3)が決定したパラメータに関する情報は、パラメータ決定部211(4)に出力される。
【0060】
(2-3)パラメータ決定部211の構成
続いて、図5を参照しながら、パラメータ決定部211の構成(つまり、パラメータ決定部211の内部で実現される機能ブロック)について説明する。図5は、パラメータ決定部211の構成を示すブロック図である。
【0061】
図5に示すように、パラメータ決定部211(j)(尚、jは、2以上且つニューラルネットワーク112に含まれる層の数以下の整数であり、図4に示す例では、2、3又は4)、第1学習部2111と、接続経路選択部2112と、第2学習部2113とを備える。第1学習部2111、接続経路選択部2112及び第2学習部2113の夫々の動作については、図6等を参照しながら後に詳述する。
【0062】
(2-4)パラメータ決定部211の動作
続いて、図6を参照しながら、パラメータ決定部211の動作について説明する。図6は、パラメータ決定部211の動作の流れを示すフローチャートである。以下では、パラメータ決定部211(j)の動作の流れについて具体的に説明する。つまり、以下では、パラメータ決定部211(j)が、第j-1番目の層と第j番目の層との間のネットワーク構造NS(j)に関するパラメータを決定する動作の流れについて具体的に説明する。
【0063】
図6に示すように、まず、第1学習部2111は、パラメータ決定部211(j)に対応するネットワーク構造NS(j)における重みw(j)を学習する(つまり、更新する又は決定する)(ステップS11)。尚、第1学習部2111は、重みw(j)に加えて、パラメータ決定部211(j)に対応するネットワーク構造NS(j)におけるバイアスb(j)を学習してもよい。この際、重みw(j)及びバイアスb(j)の初期値は、乱数を用いて決定されてもよい。
【0064】
尚、後に詳述するように、第1学習部2111が学習した重みw(j)は、接続経路選択部2112によって参照されるパラメータであり、ニューラルネットワーク112の重みw(j)として実際に用いられない。このため、説明の便宜上、第1学習部2111が学習した重みw(j)を“w’(j)”と表記して、ニューラルネットワーク112の実際の重みw(j)(つまり、第2学習部2113が学習した重みw(j))と区別する。
【0065】
具体的には、j=2である場合には、第1学習部2111は、学習用信号及び教師用信号に基づいて、重みw’(2)を学習する。このため、パラメータ決定部211(2)の第1学習部2111には、学習用信号と、教師用信号とが入力される。j≧3である場合には、第1学習部2111は、学習用信号及び教師用信号と、パラメータ決定部211(j)に対応するネットワーク構造NS(j)の前段に位置するネットワーク構造NS(2)からネットワーク構造NS(j-1)の夫々のパラメータとに基づいて、重みw’(j)を学習する。つまり、第1学習部2111は、学習用信号及び教師用信号と、重みw(2)から重みw(j-1)、バイアスb(2)からバイアスb(j-1)及び接続態様CA(2)からCA(j-1))に基づいて、重みw’(j)を学習する。このため、パラメータ決定部211(j)の第1学習部2111には、学習用信号と、教師用信号と、ネットワーク構造NS(2)からネットワーク構造NS(j-1)の夫々のパラメータとが入力される。
【0066】
第1学習部2111は、ニューラルネットワーク112と同じ構成を有する学習用のニューラルネットワークに学習用信号を入力する。その上で、第1学習部2111は、学習用のニューラルネットワークが出力する信号と教師用信号との誤差(つまり、学習誤差)が小さくなるように(好ましくは、最少になるように)、学習用のニューラルネットワークの重みw’(j)を変更する。学習誤差として、学習用のニューラルネットワークが出力する信号と教師用信号との二乗誤差が用いられてもよい。一例として、学習誤差として、数式3に示す誤差が用いられてもよい。ただし、wはネットワーク構造全体の重みを値として持つベクトル、bはネットワーク全体のバイアスを値をとして持つベクトルであり、数式3における「E(w、b)」は、重みwとバイアスbを変数とした学習誤差を示す。数式3における「Y’(w、b)」は、学習用のニューラルネットワークが出力する信号を示す。数式3における「Y」は、教師用信号を示す。尚、誤差を示すために用いるノルムとしては、任意のノルムを用いることが可能である。例えば、誤差を示すために用いるノルムとして、L1ノルム又はL2ノルムが用いられてもよい。
【0067】
【数3】
【0068】
ネットワーク構造NS(2)からネットワーク構造NS(j-1)の夫々のパラメータが入力される場合には、第1学習部2111は、ネットワーク構造NS(2)からネットワーク構造NS(j-1)の夫々のパラメータを固定したまま(つまり、変更することなく)、重みw’(j)を学習する。つまり、第1学習部2111は、数式4に示す制約条件を満たしながら、重みw’(j)を学習する。数式4における「const」は、一定であるという意味である。このため、数奇4に示す制約条件は、「ネットワーク構造NS(2)からネットワーク構造NS(j-1)の夫々のパラメータを変更しない」という制約条件を意味している。
【0069】
【数4】
【0070】
第1学習部2111による重みw’(j)の学習が完了した後、続いて、接続経路選択部2112は、第1学習部2111が学習した重みw’(j)に基づいて、パラメータ決定部211(j)に対応する2つの層に含まれる複数のノードを接続する複数の接続経路の中から、ニューラルネットワーク112において有効な接続経路として用いられる有効経路を選択する(ステップS12)。
【0071】
具体的には、接続経路選択部2112は、第j番目の層に含まれる各ノードN(j)と第j-1番目の層に含まれるM(j-1)個のノードN(j-1)とを接続するM(j-1)個の接続経路の中から、1個以上且つM(j-1)個未満の数の接続経路を、有効経路として選択する。このため、M(j-1)個の接続経路のうちの少なくとも一つは、有効経路として選択されることはない。接続経路選択部2112は、このような有効経路を選択する動作を、第j番目の層に含まれるM(j)個のノードN(j)の夫々を対象に行う。つまり、接続経路選択部2112は、第j番目の層の第1番目のノードN (j)に接続する少なくとも一つの有効経路を選択し、第j番目の層の第2番目のノードN (j)に接続する少なくとも一つの有効経路を選択し、・・・、第j番目の層の第M(j)番目のノードNM(j) (j)に接続する少なくとも一つの有効経路を選択する。
【0072】
接続経路選択部2112は、M(j-1)個の接続経路の中から、各接続経路に対応する重みw’(j)の絶対値が大きい順に、1個以上且つM(j-1)個未満の数の接続経路を、有効経路として選択する。つまり、接続経路選択部2112は、M(j-1)個の接続経路の中から、選択されない接続経路と比較して重みw’(j)の絶対値が大きい1個以上且つM(j-1)個未満の数の接続経路を、有効経路として選択する。なぜならば、重みw’(j)が相対的に小さい接続経路は、重みw’(j)が相対的に大きい接続経路と比較して、ニューラルネットワーク112の出力に対する寄与度が小さいからである。具体的には、接続経路選択部2112は、数式5に基づいて、有効経路を選択する。数式5における「IU (j)」は、第j番目の層の第r番目のノードN (j)を対象に選択された有効経路のインデックス(具体的には、選択された有効経路が接続する第j-1番目の層のノードNのインデックス番号)を示す。尚、変数rは、1以上且つM(j)以下の整数である。数式5における「w’s、r (j)」は、第j番目の層の第r番目のノードN (j)と第j-1番目の層の第s番目のノードN (j-1)との間の接続経路における重みを示す。数式5における「NU (j)」は、選択される有効経路の数を示す。数式5における「argmax」は、値の大きい上位q個のインデックスを返す関数であり、数式5における「argmax」は、最大値のインデックスを返す関数である。これらを用いて数式5の「IU (j)」は、式6及び数式7によって帰納的に定義される。
【0073】
【数5】
【0074】
【数6】
【0075】
【数7】
【0076】
選択される有効経路の数NU (j)は、1以上の値である。選択される有効経路の数NU (j)として、デフォルトの初期値(但し、M(j-1)未満の値)が用いられてもよい。或いは、接続経路選択部2112は、パラメータの学習結果に基づいて、選択される有効経路の数NU (j)を変更してもよい。例えば、パラメータの学習の結果、学習誤差がターゲット値(つまり、目標値)を上回った場合には、接続経路選択部2112は、パラメータの学習結果に基づいて、選択される有効経路の数NU (j)を変更してもよい(例えば、1だけ増やしてもよい)。この際、接続経路選択部2112は、学習誤差がターゲット値を下回るように、選択される有効経路の数NU (j)を変更してもよい。一方で、例えば、パラメータの学習の結果、学習誤差がターゲット値を下回った場合には、接続経路選択部2112は、選択される有効経路の数NU (j)を変更しなくてもよい。
【0077】
一方で、接続経路選択部2112が選択しなかった接続経路は、ニューラルネットワーク112において有効な接続経路としてとして用いられない。つまり、パラメータ決定装置2が決定したパラメータに基づくニューラルネットワーク112では、接続経路選択部2112が選択しなかった接続経路を介してノードが接続されることはない。このため、有効経路を選択する動作は、実質的には、接続態様CA(j)を決定する動作と等価である。従って、接続経路選択部2112は、有効経路に関する情報(例えば、上述したインデックスIU (j))を、接続態様CA(j)として出力してもよい。
【0078】
その後、接続経路選択部2112による有効経路の選択が完了した後には、第2学習部2113は、パラメータ決定部211(j)に対応するネットワーク構造NS(j)のパラメータを学習する(つまり、更新する又は決定する)(ステップS13)。具体的には、第2学習部2113は、パラメータ決定部211(j)に対応するネットワーク構造NS(j)における重みw(j)及びバイアスb(j)の少なくとも一方を学習する。好ましくは、第2学習部2113は、重みw(j)及びバイアスb(j)の双方を学習する。以下では、説明の便宜上、第2学習部2113は、重みw(j)及びバイアスb(j)の双方を学習するものとする。
【0079】
具体的には、j=2である場合には、第2学習部2113は、学習用信号及び教師用信号に基づいて、重みw(2)及びバイアスb(2)を学習する。このため、パラメータ決定部211(2)の第2学習部2113には、学習用信号と、教師用信号とが入力される。j≧3である場合には、第2学習部2113は、学習用信号及び教師用信号と、パラメータ決定部211(j)に対応するネットワーク構造NS(j)よりも前段に位置するネットワーク構造NS(2)からネットワーク構造NS(j-1)の夫々のパラメータとに基づいて、重みw(j)及びバイアスb(j)を学習する。つまり、第2学習部2113は、学習用信号及び教師用信号と、重みw(2)から重みw(j-1)、バイアスb(2)からバイアスb(j-1)及び接続態様CA(2)から接続態様CA(j-1)とに基づいて、重みw(j)及びバイアスb(j)を学習する。このため、パラメータ決定部211(j)の第2学習部2113には、学習用信号と、教師用信号と、ネットワーク構造NS(2)からネットワーク構造NS(j-1)の夫々のパラメータとが入力される。
【0080】
第2学習部2113は、第1学習部2111が学習に用いた学習用のニューラルネットワークに学習用信号を入力する。その上で、第2学習部2113は、学習用のニューラルネットワークが出力する信号と教師用信号との誤差が小さくなるように(好ましくは、最少になるように)、学習用のニューラルネットワークの重みw(j)及びバイアスb(j)を変更する。その結果、学習用のニューラルネットワークの重みw(j)及びバイアスb(j)の学習が完了する。学習用のニューラルネットワークの重みw(j)及びバイアスb(j)は、ニューラルネットワーク112の重みw(j)及びバイアスb(j)として利用可能である。
【0081】
第2学習部2113は、接続経路選択部2112が選択しなかった接続経路を、有効な接続経路として用いない。つまり、第2学習部2113は、接続経路選択部2112が選択しなかった接続経路を介してノードNが接続されていないという条件下で、パラメータを学習する。このため、第2学習部2113は、第1学習部2111が用いた上述した数式4に示す制約条件に加えて、数式8に示す制約条件を満たしながら、重みw(j)及びバイアスb(j)を学習する。尚、数式8は、接続経路選択部2112が選択しなかった接続経路を介してノードが接続されていない(つまり、当該接続経路の重みwがゼロである)という制約条件を示している。数式8に含まれる数式9の表記は、IU (j)に含まれないインデックスを表している。数式8における「ws、r (j)=0」は、上記IU (j)で選択されなかった重みを0とすることを意味する。
【0082】
【数8】
【0083】
【数9】
【0084】
以上説明した図3に示す動作が、複数のパラメータ決定部211によって順に行われる。具体的には、まずは、パラメータ決定部211(2)が、重みw(2)、バイアスb(2)及び接続態様CA(2)を学習する。その後、パラメータ決定部211(2)が学習した重みw(2)、バイアスb(2)及び接続態様CA(2)を用いて、パラメータ決定部211(3)が、重みw(3)、バイアスb(3)及び接続態様CA(3)を学習する。その後、パラメータ決定部211(2)が学習した重みw(2)、バイアスb(2)及び接続態様CA(2)とパラメータ決定部211(3)が学習した重みw(3)、バイアスb(3)及び接続態様CA(3)とを用いて、パラメータ決定部211(4)が、重みw(4)、バイアスb(4)及び接続態様CA(4)を学習する。
【0085】
但し、第2の中間層112M(3)と出力層112Oとの間のネットワーク構造NS(4)に関するパラメータを学習するパラメータ決定部211(4)は、他のパラメータ決定部211とは異なる方法でパラメータを学習してもよい。なぜならば、上述したように、出力層112Oは、活性化関数fを含まない場合があるからである。例えば、出力層112Oが活性化関数fを含まない場合には、パラメータ決定部211(4)は、圧縮センシングで用いられる最適化手法を用いてパラメータを学習してもよい。尚、圧縮センシングで用いられる最適化手法の一例として、OMP法(直交マッチング追跡法:Orthogonal Matching Pursuit)、LS(Least Support)-OMP法及びBS法(Basis Pursuit)の少なくとも一つがあげられる。
【0086】
このようなパラメータ決定装置2は、信号送信装置1の出荷前に、ニューラルネットワーク112のパラメータを決定してもよい。その結果、例えば製造工場において、パラメータ決定装置2が決定したパラメータに基づくニューラルネットワーク112が実装された信号送信装置1が出荷される。この場合、典型的には、パラメータ決定装置2は、信号送信装置1の外部の装置(典型的には、GPU(Graphic Processing Unit)等の相対的に高速な演算装置を用いて実装されてもよい。但し、後に詳述するように、パラメータ決定装置2の少なくとも一部が、信号送信装置1に実装されていてもよい。パラメータ決定装置2は、信号送信装置1の出荷後に(例えば、信号送信装置1の運用中に)、ニューラルネットワーク112のパラメータを決定してもよい。
【0087】
(2-5)パラメータ決定装置2の技術的効果
以上説明した第1実施形態のパラメータ決定装置2によれば、全層に渡って少ない接続(=低演算量)で、かつ学習誤差の小さい(すなわち、歪み補償回路11において、歪補償性能が高い)ニューラルネットワーク112が得られる。
【0088】
具体的には、パラメータ決定装置2は、ノードNの接続経路の選択を制約条件として加えた学習(つまり、上述した数式8に示す制約条件を用いた学習)を行うことで、スパースな構造を有するニューラルネットワーク112を構築できるように、ニューラルネットワーク112のパラメータを決定することができる。一例として、パラメータ決定装置2は、ニューラルネットワーク112を用いた信号送信装置1においてパワーアンプ12の物理モデルが持つべき制約に基づく制約条件(具体的には、ノードNの接続経路の選択に関する制約条件)を用いた学習を行うことで、物理モデルとして元来あるべきスパースな構造を有するニューラルネットワーク112を構築できるように、ニューラルネットワーク112のパラメータを決定することができる。具体的には、パワーアンプ12の物理モデルの基底(多項式)がニューラルネットワーク112のノードNの出力に対応すると仮定した場合、第j番目の層における一つのノードN(j)と第j-1番目の層における複数のノードN(j-1)との接続数は、ニューラルネットワーク112で表現可能な接続数(具体的には、第j-1番目の層に含まれるノードN(j-1)の数)と比べて少なくなる。この点に着目し、パラメータ決定装置2は、物理モデルに近づけるために第j-1番目の層に含まれるノードN(j-1)からの接続数を制限した上で(具体的には、第j-1番目の層のノードN(j-1)の数未満に制限した上で)、パラメータを学習する。その結果、性能(歪み補償特性)を保ちつつ、最大限のスパースな構造を持つニューラルネットワーク112が得られる。このため、パラメータ決定装置2は、ニューラルネットワーク112から物理モデルに基づいたスパースなモデルを抽出する動作を行っているとも言える。
【0089】
(3)パラメータ決定装置2の変形例
続いて、パラメータ決定装置2の変形例について説明する。尚、以下では、既に説明済みの構成要件については、同一の参照符号を付してその詳細な説明を省略する。同様に、既に説明済みの処理については、同一のステップ番号を付してその詳細な説明を省略する。
【0090】
(3-1)第1変形例のパラメータ決定装置2a
初めに、第1変形例のパラメータ決定装置2aについて説明する。第1変形例のパラメータ決定装置2aは、上述したパラメータ決定装置2と同様の構成を有する。第1変形例のパラメータ決定装置2aは、上述したパラメータ決定装置2と比較して、パラメータ決定部211が行う動作が部分的に異なるという点で異なる。従って、以下では、図7を参照しながら、第1変形例のパラメータ決定部211が行う動作について説明する。図7は、第1変形例のパラメータ決定部211が行う動作の流れを示すフローチャートである。
【0091】
図7に示すように、第1変形例では、第1学習部2111は、まず、上述した数式4に示す制約条件を満たしながら、ネットワーク構造NS(j)における重み’w(j)を1回だけ更新する(ステップS111a)。尚、重みw’(j)の更新方法については、更新する回数が1回だけであるという点を除いて、図6のステップS11における重みw’(j)の更新方法と同一であってもよい。
【0092】
但し、第1変形例では、重みw’(j)を更新する際に、正則化項が用いられる。つまり、第1学習部2111は、正則化項が追加された目的関数を用いて、重みw’(j)を更新する。一例として、第1学習部2111は、重みwに関する正則化項と、バイアスbに関する正則化項とが追加された目的関数を用いて、重みw’(j)を更新してもよい。但し、バイアスbに関する正則化項は追加されなくてもよい。このような目的関数の一例が数式10に示されている。数式10における「L(w、b)」は、目的関数を示す。数式10における「λ (l)」は、第l-1番目の層と第l番目の層との間の重みw(l)に関する正則化パラメータである。数式10における「λb (l)」は、第l-1番目の層と第l番目の層との間のバイアスb(l)に関する正則化パラメータである。数式10における「L」は、ニューラルネットワーク112を構成する層の数を示す定数である。尚、目的関数L(w、b)におけるノルムとしては、任意のノルムを用いることが可能である。例えば、目的関数L(w、b)におけるノルムとして、L1ノルム又はL2ノルムが用いられてもよい。例えば、目的関数L(w、b)におけるノルムとして、Lp(但し、pは3以上の整数)ノルムが用いられてもよい。この場合、正則化項は、重みw(l)の絶対値又は当該絶対値のべき乗の総和が大きくなるほど大きくなる成分であるとも言える。
【0093】
【数10】
【0094】
正則化パラメータλ (l)及びλb (l)の夫々として、デフォルトの初期値が用いられてもよい。或いは、接続経路選択部2112は、パラメータの学習結果に基づいて、正則化パラメータλ (l)及びλb (l)の少なくとも一方を変更してもよい。例えば、パラメータの学習の結果、学習誤差がターゲット値を上回った場合には、パラメータ決定部211は、パラメータの学習結果に基づいて、正則化パラメータλ (l)及びλb (l)の少なくとも一方を変更してもよい。この際、パラメータ決定部211は、学習誤差がターゲット値を下回るように、正則化パラメータλ (l)及びλb (l)の少なくとも一方を変更してもよい。一方で、例えば、パラメータの学習の結果、学習誤差がターゲット値を下回った場合には、パラメータ決定部211は、正則化パラメータλ (l)及びλb (l)の少なくとも一方を変更しなくてもよい。
【0095】
第1変形例では、第1学習部2111は、上述した数式4に示す制約条件を満たしながら、数式9に示す目的関数L(w、b)を用いて、重みw’(j)を更新する。この際、目的関数L(w、b)に関する最適化問題を解くためのアルゴリズムとして、ニューラルネットワークの学習に用いられる任意のアルゴリズムが利用可能である。一例として、第1学習部2111は、確率的勾配降下法(SGD:Stochastic Gradient Descent)及びADAM(Adaptive Moment Estimation)の少なくとも一方を用いてもよい。
【0096】
第1学習部2111は、ニューラルネットワークの学習におけるバッチ1個単位で、重みw’(j)を更新してもよい。第1学習部2111は、エポックの単位で、重みw’(j)を更新してもよい。後述する第2及び第3変形例においても同様である。
【0097】
その後、第1学習部2111は、学習誤差がターゲット値以上であるか否かを判定する(ステップS112a)。ステップS112aにおける判定の結果、学習誤差がターゲット値を下回ると判定された場合には(ステップS112a:No)、第1学習部2111は、重みw’(j)の学習を終了する。その後は、第1変形例においても、接続経路選択部2112が有効経路を選択し(ステップS12)、第2学習部2113が重みw(j)及びバイアスb(j)を学習する(ステップS13)。
【0098】
一方で、ステップS112aにおける判定の結果、学習誤差がターゲット値以上であると判定された場合には(ステップS112a:Yes)、第1学習部2111は、パラメータ決定部211(j)に対応する2つの層に含まれる複数のノードを接続する複数の接続経路の中から、重みw’(j)が相対的に大きくなるように更新しやすくする接続経路(以降、“限定経路”と称する)を選択する(ステップS113a)。
【0099】
具体的には、第1学習部2111は、第j番目の層に含まれる各ノードN(j)と第j-1番目の層に含まれるM(j-1)個のノードN(j-1)とを接続するM(j-1)個の接続経路の中から、1個以上且つM(j-1)個未満の数の接続経路を、限定経路として選択する。このため、M(j-1)個の接続経路のうちの少なくとも一つは、限定経路として選択されることはない。第1学習部2111は、このような限定経路を選択する動作を、第j番目の層に含まれるM(j)個のノードN(j)の夫々を対象に行う。つまり、第1学習部2111は、第j番目の層の第1番目のノードN (j)に接続する少なくとも一つの限定経路を選択し、第j番目の層の第2番目のノードN (j)に接続する少なくとも一つの限定経路を選択し、・・・、第j番目の層の第M(j)番目のノードNM(j) (j)に接続する少なくとも一つの限定経路を選択する。
【0100】
第1学習部2111は、各ノードN(j)におけるM(j-1)個の接続経路の中から、各接続経路に対応する重みw’(j)の絶対値が大きい順に、1個以上且つM(j-1)個未満の数の接続経路を、限定経路として選択する。言い換えれば、接続経路選択部2112は、M(j-1)個の接続経路の中から、選択されない接続経路と比較して重みw’(j)の絶対値が大きい1個以上且つM(j-1)個未満の数の接続経路を、限定経路として選択する。つまり、第1学習部2111は、接続経路選択部2112が有効経路を選択する方法と同様の方法で、限定経路を選択する。
【0101】
具体的には、第1学習部2111は、数式11に基づいて、限定経路を選択する。数式10における「IU p、(j)」は、第j番目の層の第r番目のノードN (j)を対象に選択された限定経路のインデックス(具体的には、選択された限定経路が接続する第j-1番目の層のノードNのインデックス番号)を示す。数式11における「NU p、(j)」は、選択される限定経路の数を示す。
【0102】
【数11】
【0103】
選択される限定経路の数NU p、(j)は、1以上の値である。選択される限定経路の数NU p、(j)として、デフォルトの初期値(但し、M(j-1)未満の値)が用いられてもよい。但し、限定経路の数NU p、(j)は、上述した接続経路選択部2112が選択する有効経路の数NU (j)以下となる値に設定される。例えば、限定経路の数NU p、(j)は、有効経路の数NU (j)と同じ値に設定されてもよい。例えば、限定経路の数NU p、(j)は、有効経路の数NU (j)よりも所定数(例えば、1)だけ小さい値に設定されてもよい。例えば、限定経路の数NU p、(j)は、1に設定されてもよい。例えば、限定経路の数NU p、(j)は、1と有効経路の数NU (j)から1を減算した値のうちの大きい方の値に設定されてもよい。
【0104】
その後、第1学習部2111は、限定経路の重みw’(j)が限定経路以外の接続経路の重みw’(j)よりも大きくなる学習が行われやすくなるように、目的関数L(w、b)を更新する(ステップS114a)。つまり、第1学習部2111は、限定経路の重みw’(j)が、その他の接続経路の重みw’(j)よりも大きくなりやすくなるように、目的関数L(w、b)を更新する。ここで、正則化パラメータλ (j)は、重みw’(j)を相対的に小さくするために用いられる。正則化パラメータλ (j)は、重みw’(j)を相対的に小さくするための制約に相当する。このため、正則化パラメータλ (j)による制約が緩和されれば、重みw’(j)が相対的に大きくなりやすくなる。具体的には、正則化パラメータλ (j)が小さくなれば、重みw’(j)が相対的に大きくなりやすくなる。このため、第1学習部2111は、限定経路の重みw’(j)に関する正則化項が、その他の接続経路の重みw’(j)の正則化項よりも小さくなるように、目的関数L(w、b)を更新してもよい。一例として、第1学習部2111は、数式10に示す目的関数L(w、b)を、数式12に示す目的関数L’(w、b)に更新してもよい。
【0105】
【数12】
【0106】
数式12おける「α」は、0以上且つ1以下の値である。αが小さくなればなるほど、限定経路の重みw’(j)に関する正則化項が小さくなる。その結果、αが小さくなればなるほど、限定経路の重みw’(j)が更新されやすくなる。
【0107】
その後、第1学習部2111は、ステップS111aの処理を再度行う。つまり、第1学習部2111は、更新された目的関数L’(w、b)を用いて、重みw’(j)を再び1回だけ更新する(ステップS111a)。以上の動作が、学習誤差がターゲット値を下回るまで繰り返される。具体的には、第1学習部2111は、学習誤差がターゲット値を下回るまで目的関数L(w、b)を更新する。
【0108】
数式10に示す目的関数L(w、b)が数式12に示す目的関数L’(w、b)に更新された後の目的関数L’(w、b)の更新は、変数αの更新を含んでいてもよい。第1学習部2111は、学習誤差がターゲット値を下回るまで変数αを更新してもよい。この際、第1学習部2111は、変数αが単調減少するように変数αを更新してもよい。例えば、第1学習部2111は、初期値が1に設定された変数αが単調減少するように変数αを更新してもよい。例えば、第1学習部2111は、変数αを更新する都度変数αに対して1未満の数を掛け合わせるように、変数αを更新してもよい。第1学習部2111は、変数αを更新する都度変数αから所定量を引くように、変数αを更新してもよい。このように変数αが単調減少する場合には、第1学習部2111による重みw’(j)の学習が進むにつれて、正則化項による制約が徐々に緩和されていく。つまり、第1学習部2111による重みw’(j)の学習が進むにつれて、限定経路を選択することで得られる効果が強くなっていく。
【0109】
以上説明した第1変形例のパラメータ決定装置2aによれば、パラメータ決定装置2が享受可能な効果と同様の効果を享受することができる。更に、パラメータ決定装置2aでは、第1学習部2111が、重みw’(j)が相対的に更新されやすくなる限定経路を選択することができる。このため、第1学習部2111による重みw’(j)の学習が終了した時点で、接続経路選択部2112が有効経路として選択しないであろうと推定される接続経路の重みw’(j)は、接続経路選択部2112が有効経路として選択するであろうと推定される接続経路の重みw’(j)よりも十分に小さくなる。このため、重みw’(j)が相対的に大きい接続経路を接続経路選択部2112が選択しない(つまり、削除する)という技術的不都合が発生する可能性が小さくなる。仮に重みw’(j)が相対的に大きい接続経路を接続経路選択部2112が選択しない(つまり、削除する)と、その接続経路を用いないことによる学習誤差への影響が相対的に大きくなる。つまり、接続経路選択部2112による有効経路の選択の妥当性が低くなり、結果として、学習効果の劣化につながる。しかるに、第1変形例では、このような学習効果の劣化が生ずる可能性が小さくなる。
【0110】
尚、第1学習部2111が用いた目的関数L(w、b)は、第2学習部2113がパラメータを学習する際に用いられてもよい。この場合、変数αとして、第1学習部2111による重みw’(j)の学習が終了した時点での変数αが用いられてもよい。後述する第2変形例及び第3変形例においても同様である。
【0111】
また、数式12において、数式10のバイアスbの正則化項(数式13参照)を加えたものを目的関数として使用しても良い。
【0112】
【数13】
【0113】
(3-2)第2変形例のパラメータ決定装置2b
続いて、第2変形例のパラメータ決定装置2bについて説明する。第2変形例のパラメータ決定装置2bは、上述したパラメータ決定装置2と比較して、パラメータ決定部211に代えて、パラメータ決定部211bを備えているという点で異なる。パラメータ決定装置2bのその他の構成要件は、上述したパラメータ決定装置2のその他の構成要件と同一であってもよい。従って、以下、図8を参照しながら、第2変形例のパラメータ決定部211bについて説明する。図8は、第2変形例のパラメータ決定部211bの構成を示すブロック図である。
【0114】
図8に示すように、パラメータ決定部211bは、パラメータ決定部211と比較して、弱接続削除部2114bを備えているという点で異なる。パラメータ決定部211bのその他の構成要件は、上述したパラメータ決定部211のその他の構成要件と同一であってもよい。
【0115】
弱接続削除部2114bは、第2学習部2113がパラメータを学習する過程で、接続経路選択部2112が有効経路として選択した接続経路であっても、当該接続経路が弱接続条件を満たす場合には、当該接続経路を削除する(つまり、有効経路の指定から外す)。以下、図9を参照しながら、このような動作を行う第2変形例のパラメータ決定部211bの動作について説明する。図9は、第2変形例のパラメータ決定部211bの動作の流れを示すフローチャートである。
【0116】
図9に示すように、第2変形例でも、第1学習部2111が重みw’(j)を学習し(ステップS11)、接続経路選択部2112が有効経路を選択し(ステップS12)、第2学習部2113が重みw(j)及びバイアスb(j)を学習する(ステップS13)。
【0117】
その後、第2学習部2113は、学習誤差がターゲット値未満であるか否かを判定する(ステップS132b)。ステップS132bにおける判定の結果、学習誤差がターゲット値未満でないと判定された場合には(ステップS132b:No)、有効経路の削除の余地が相対的に少ないと推定される。つまり、有効経路を削除してしまうと、学習誤差が意図しないほどに大きくなってしまう可能性があると推定される。この場合、第2学習部2113は、重みw(j)及びバイアスb(j)の学習を終了する。
【0118】
一方で、ステップS132bにおける判定の結果、学習誤差がターゲット値未満であると判定された場合には(ステップS132b:Yes)、有効経路の削除の余地が相対的に大きいと推定される。つまり、有効経路を削除したとしても、学習誤差をターゲット値未満のまま維持することができる可能性があると推定される。そこで、弱接続削除部2114bは、複数の有効経路の中から、重みw(j)の絶対値が最小となる有効経路を削除する(ステップS133b)。
【0119】
具体的には、弱接続削除部2114bは、第j番目の層の第r番目のノードN (j)と第j-1番目の層の第s番目のノードN (j-1)との間の接続経路(有効経路)の接続強度Rs、rを、全てのノードN (j)とノードN (j-1)との組み合わせを対象に算出する。接続強度Rs、rは、ノードN (j)とノードN (j-1)との間の接続経路の重みws、r (j)の絶対値|ws,r (j)|に基づく指標である。例えば、接続強度Rs、rは、ノードN (j)につながる接続経路の重みw(j)の最大値の絶対値|wsmax,r (j)|に対するノードN (j)とノードN (j-1)との間の接続経路の重みws、r (j)の絶対値|ws,r (j)|の比であってもよい。つまり、弱接続削除部2114bは、数式14を用いて、接続強度Rs、rを算出してもよい。但し、接続強度Rs、rは、重みw(j)の絶対値と相関を有する限りは、どのような値であってもよい。例えば、重みw(j)の絶対値そのものが、接続強度Rs、rとして用いられてもよい。
【0120】
【数14】
【0121】
その後、弱接続削除部2114bは、複数の有効経路(つまり、未だ削除されていない接続経路)の中から、接続強度Rs、rが最小となる有効経路を特定する。この場合、弱接続削除部2114bは、数式15を用いて、接続強度Rs、rが最小となる有効経路を特定してもよい。数式15における「smin」は、第j-1番目の層に含まれる、接続強度Rs、rが最小となる有効経路につながるノードNsmin (j-1)のインデックスを示す。数式13における「rmin」は、第j番目の層に含まれる、接続強度Rs、rが最小となる有効経路につながるノードNrmin (j)のインデックスを示す。数式13における「argmin」は、最小値のインデックスを返す関数である。
【0122】
【数15】
【0123】
その後、弱接続削除部2114bは、特定した有効経路のラベルsminを、有効経路を示すインデックスIUrmin (j)から削除する。つまり、弱接続削除部2114bは、数式16を用いて、インデックスIUrmin (j)を更新する。その結果、数式8に示す制約条件は、特定した有効経路の重みwsmin,rmin (j)が新たにゼロになるという条件に更新される。
【0124】
【数16】
【0125】
尚、接続経路の除去に起因して、第j-1番目の層のノードN(j-1)からの出力が入力されなくなったノードN(j)が第j番目の層に発生した場合には、当該ノードN(j)そのものが削除されてもよい。
【0126】
その後、第2学習部2113は、ステップS13の処理を再度行う。つまり、第2学習部2113は、更新されたインデックスIUrmin (j)に基づく制約条件を満たしながら、重みw(j)及びバイアスb(j)を学習する(ステップS13)。以上の動作が、学習誤差がターゲット値以上になるまで繰り返される。
【0127】
以上説明した第2変形例のパラメータ決定装置2bによれば、パラメータ決定装置2が享受可能な効果と同様の効果を享受することができる。更に、パラメータ決定装置2bでは、第2学習部2113がパラメータを学習する過程で、接続経路選択部2112が選択した有効経路の一部が削除される。つまり、第2学習部2113がパラメータを学習する過程で、不要な(つまり、ニューラルネットワーク112の出力に対する寄与度が相対的に小さい)有効経路が削除される。その結果、ニューラルネットワーク112の演算量がより一層低減される。
【0128】
尚、第2変形例のパラメータ決定装置2bは、第1変形例のパラメータ決定装置2aと同様の動作(つまり、限定経路を選択しながら、正則化パラメータを含む目的関数で重みw(j)を学習する動作)を行ってもよい。
【0129】
(3-3)第3変形例のパラメータ決定装置2c
続いて、第3変形例のパラメータ決定装置2cについて説明する。第3変形例のパラメータ決定装置2cは、上述したパラメータ決定装置2と比較して、パラメータ決定部211に代えて、パラメータ決定部211cを備えているという点で異なる。パラメータ決定装置2cのその他の構成要件は、上述したパラメータ決定装置2のその他の構成要件と同一であってもよい。従って、以下、図10を参照しながら、第3変形例のパラメータ決定部211cについて説明する。図10は、第3変形例のパラメータ決定部211cの構成を示すブロック図である。
【0130】
図10に示すように、パラメータ決定部211cは、パラメータ決定部211と比較して、非独立ノード削除部2115cを備えているという点で異なる。パラメータ決定部211cのその他の構成要件は、上述したパラメータ決定部211のその他の構成要件と同一であってもよい。
【0131】
非独立ノード削除部2115cは、第2学習部2113がパラメータを学習する過程で、一次独立性が最も小さい(言い換えれば、直交度合いが最も小さい)ノードN(j)を削除する。つまり、非独立ノード削除部2115cは、他のノードN(j)の出力(出力ベクトル)の線形和でその出力(出力ベクトル)が実質的に表現できる可能性が最も高いノードN(j)を削除する。このような一次独立性が最も小さいノードN(j)が削除されたとしても、当該ノードN(j)の出力が他のノードN(j)の出力(出力ベクトル)の線形和で実質的に表現できる限りは、ニューラルネットワーク112の出力に大きな影響が生ずることは殆どない。以下、図11を参照しながら、このような動作を行う第3変形例のパラメータ決定部211cの動作について説明する。図11は、第3変形例のパラメータ決定部211cの動作の流れを示すフローチャートである。
【0132】
図11に示すように、第3変形例でも、第2変形例と同様に、第1学習部2111が重みw’(j)を学習し(ステップS11)、接続経路選択部2112が有効経路を選択し(ステップS12)、第2学習部2113が重みw(j)及びバイアスb(j)を学習し(ステップS13)、第2学習部2113は、学習誤差がターゲット値未満であるか否かを判定する(ステップS132b)。
【0133】
ステップS132bにおける判定の結果、学習誤差がターゲット値未満でないと判定された場合には(ステップS132b:No)、ノードN(j)の削除の余地が相対的に小さいと推定される。つまり、ノードN(j)を削除してしまうと、学習誤差が意図しないほどに大きくなってしまう可能性があると推定される。この場合、第2学習部2113は、重みw(j)及びバイアスb(j)の学習を終了する。
【0134】
一方で、ステップS132bにおける判定の結果、学習誤差がターゲット値未満であると判定された場合には(ステップS132b:Yes)、ノードN(j)の削除の余地が相対的に大きいと推定される。つまり、ノードN(j)を削除したとしても、学習誤差をターゲット値未満のまま維持することができる可能性があると推定される。そこで、非独立ノード削除部2115cは、第j番目の層のノードN(j)の中から、一次独立性が最も小さい(言い換えれば、直交度合いが最も小さい)一のノードN(j)を削除する(ステップS133c)。
【0135】
具体的には、非独立ノード削除部2115cは、第j番目の層の第r番目のノードN (j)の独立度D(つまり、一次独立であるか否かを示す指標)を、全てのノードN (j)を対象に算出する。独立度Dは、例えば、ノードN (j)の出力H (j)の残差ノルムであってもよい。この場合、独立度Dは、以下の手順を経て算出されてもよい。まず、非独立ノード削除部2115cは、第j番目の層のM(j)個のノードN (j)からNM(j) (j)の出力H (j)からHM(j) (j)を束ねた行列Xを、X=[H (j)、H (j)、・・・、HM(j) (j)]と定義する。更に、非独立ノード削除部2115cは、出力H (j)以外の他の出力H(j)が張るベクトル空間Xmを、Xm=X/H (j)と定義する。更に、非独立ノード削除部2115cは、出力H (j)からベクトル空間Xmの線形和(つまり、ベクトル空間Xmの基底ベクトルの線形和)を差し引いた残差ベクトルrがベクトル空間Xmに直交するように残差ベクトルrを定義する。その上で、非独立ノード削除部2115cは、残差ベクトルrのノルムと出力H (j)のノルムとの比を、独立度Dとして算出する。この場合、非独立ノード削除部2115cは、数式17及び数式18を用いて、独立度Dを算出していると言える。このような独立度Dは、ノードN (j)の一次独立性が小さくなるほど小さくなる。
【0136】
【数17】
【0137】
【数18】
【0138】
その後、非独立ノード削除部2115cは、第j番目の層の複数のノードN(j)の中から、独立度Dが最小となるノードNrmin (j)を特定する。この場合、非独立ノード削除部2115cは、数式19を用いて、独立度Dが最小となるノードNrmin (j)を特定してもよい。数式19における「rmin」は、第j番目の層に含まれる、独立度Dが最小となるノードNrmin (j)のインデックスを示す。
【0139】
【数19】
【0140】
ノードNrmin (j)は、一次独立性が最も小さい(言い換えれば、低い)ノードNに相当する。つまり、ノードNrmin (j)は、直交度合いが最も小さい(言い換えれば、低い)ノードNに相当する。このため、非独立ノード削除部2115cは、特定したノードNrmin (j)を削除する。更に、非独立ノード削除部2115cは、特定したノードNrmin (j)に関連する重みws、rmin (j)及びバイアスbrmin (j)も削除する。更に、非独立ノード削除部2115cは、特定したノードNrmin (j)に関連する接続対象CA(j)を更新してもよい。
【0141】
その後、第2学習部2113は、ステップS13の処理を再度行う。つまり、第2学習部2113は、ノードNrmin (j)に合わせてインデックスIU (j)を更新し且つノードN(j)の総数M(j)を更新した上で、重みw(j)及びバイアスb(j)を再び学習する(ステップS13)。以上の動作が、学習誤差がターゲット値以上になるまで繰り返される。
【0142】
以上説明した第3変形例のパラメータ決定装置2cによれば、パラメータ決定装置2が享受可能な効果と同様の効果を享受することができる。更に、パラメータ決定装置2cでは、第2学習部2113がパラメータを学習する過程で、ノードNの一部が削除される。つまり、第2学習部2113がパラメータを学習する過程で、不要な(つまり、ニューラルネットワーク112の出力に対する寄与度が相対的に小さい)ノードNの一部が削除される。その結果、ニューラルネットワーク112の演算量がより一層低減される。
【0143】
尚、第3変形例のパラメータ決定装置2cは、第1変形例のパラメータ決定装置2aと同様の動作(つまり、限定経路を選択しながら、正則化パラメータを含む目的関数で重みw(j)を学習する動作)を行ってもよい。第3変形例のパラメータ決定装置2bは、第2変形例のパラメータ決定装置2bと同様の動作(つまり、有効経路を削除する動作)を行ってもよい。
【0144】
(4)信号送信装置1の変形例
続いて、信号送信装置1の変形例について説明する。
【0145】
(4-1)第1変形例の信号送信装置1a
初めに、図12を参照しながら、第1変形例の信号送信装置1aについて説明する。図12は、第1変形例の信号送信装置1aの構成を示すブロック図である。
【0146】
図12に示すように、信号送信装置1aは、信号送信装置1と比較して、光通信網(例えば、光回線)を介して送信信号zを送信する装置であってもよいという点で異なる。この場合、信号送信装置1aは、信号送信装置1と比較して、パワーアンプ12が出力する送信zを光信号に変換するE・O変換器13aを更に備えているという点で異なる。その結果、光信号に変換された送信信号zが、光ファイバ等の信号伝搬経路14a(つまり、光通信網の少なくとも一部を構成する信号伝搬経路)を介して送信される。この信号伝送経路14の一部又は全部は、信号送信装置1aを構成する構成要件であってもよい。或いは、この信号伝送経路14は、信号送信装置1aとは別個の構成要件であってもよい。
【0147】
送信信号zを受信する信号受信装置3aは、O・E変換器31aを用いて、光信号である送信信号zを電気信号に変換し、その後、電気信号に変換された送信信号zを受信部32aで受信する。
【0148】
歪み補償回路11は、パワーアンプ12の動作に起因して送信信号zに生ずる歪みに加えて又は代えて、信号伝搬経路14aでの送信信号zの送信に起因して生ずる歪みを(つまり、信号伝搬経路14aで送信信号zに生ずる歪み)を補償するための歪み補償を入力信号xに施してもよい。その結果、光通信網(例えば、光回線)を介して送信信号zが送信される場合であっても、送信信号zの歪みが適切に補償される。この場合、信号伝搬経路14aで送信信号zに歪みが生ずることを考慮して、上述した学習用信号及び教師用信号の夫々は、例えば、入力信号x、歪み補償信号y及び送信信号zのうちの少なくとも一つに加えて又は代えて、信号受信装置3aが受信した受信信号(つまり、信号伝搬経路14aで送信信号zに生じた歪みを含む信号)に基づく信号であってもよい。
【0149】
尚、光信号に変換された送信信号zが送信される場合には、信号生成部111は、上述した各種信号に代えて、入力信号xのX偏波成分及びY偏波成分を、ニューラルネットワーク112に入力してもよい。
【0150】
(4-2)第2変形例の信号送信装置1b
続いて、図13を参照しながら、第2変形例の信号送信装置1bについて説明する。図13は、第2変形例の信号送信装置1bの構成を示すブロック図である。
【0151】
図13に示すように、信号送信装置1bは、信号送信装置1と比較して、ニューラルネットワーク112のパラメータを決定するための機能ブロックが信号送信装置1b内に実現されているという点で異なる。具体的には、信号送信装置1bはCPU15bを備えている。CPU15bは、コンピュータプログラムを読み込む。CPU15bが読み込むコンピュータプログラムは、CPU21が読み込むコンピュータプログラムと同様に、任意の記録媒体に記録されていてもよい。CPU15bは、読み込んだコンピュータプログラムを実行することで、歪み補償回路11及びパワーアンプ12を制御してもよい。特に、CPU15bが読み込んだコンピュータプログラムを実行すると、CPU15b内には、ニューラルネットワーク112のパラメータを決定するための論理的な機能ブロックが実現される。具体的には、図13に示すように、CPU15b内に、CPU21内に実現される機能ブロックと同様の機能ブロックが実現される。この場合、実質的には、パラメータ決定装置2が、信号送信装置1bに実装されているとも言える。
【0152】
この場合、信号送信装置1b自身が、ニューラルネットワーク112のパラメータを更新することができる。このため、信号送信装置1bが出荷された後に、ニューラルネットワーク112のパラメータが更新可能となる。例えば、信号送信装置1bがその設置場所に設置される際に、信号送信装置1bの実際の使用状況に合わせてニューラルネットワーク112のパラメータが更新(言い換えれば、調整)されてもよい。例えば、信号送信装置1bの運用が開始された後に、信号送信装置1bが実際に送信する送信信号zの特性に合わせてニューラルネットワーク112のパラメータが更新されてもよい。例えば、信号送信装置1bの運用が開始された後に、信号送信装置1bの経時劣化(つまり、ドリフト)に合わせてニューラルネットワーク112のパラメータが更新されてもよい。その結果、信号送信装置1bが出荷された後においても、歪補償回路11の歪補償性能が相対的に高い状態を維持することができる。
【0153】
更には、信号送信装置1bは、信号送信装置1bに実際に入力される入力信号x、信号送信装置1bに実際に生成する歪み補償信号y、及び、信号送信装置1bが実際に送信する送信信号zの少なくとも一つに基づく学習用信号及び教師用信号を用いて、ニューラルネットワーク112のパラメータを更新することができる。このため、信号送信装置1bは、信号送信装置1bの実際の使用状況に合わせてニューラルネットワーク112のパラメータを適切に更新することができる。
【0154】
信号送信装置1b自身が決定したパラメータは、所望のタイミングでニューラルネットワーク112に反映されてもよい。但し、新たなパラメータのニューラルネットワーク112に対する反映が完了するまでは、信号送信装置1bが送信信号zを送信できなくなる期間が生ずる可能性がある。そこで、図14に示すように、歪み補償回路11は、複数のニューラルネットワーク112を備える冗長化構成を採用していてもよい。図14は、歪み補償回路11が二つのニューラルネットワーク112#1及び112#2を備える例を示している。この場合、一のニューラルネットワーク112が歪み補償を行っている間に、信号送信装置1b自身が決定したパラメータが他のニューラルネットワーク112に反映されてもよい。つまり、一のニューラルネットワーク112(例えば、ニューラルネットワーク112#1)が歪み補償を行っている間に、他のニューラルネットワーク112(例えば、ニューラルネットワーク112#2)のパラメータが、信号送信装置1b自身が決定したパラメータに更新されてもよい。その後、歪み補償回路11の状態が、一のニューラルネットワーク112が歪み補償を行っている状態から、新たなパラメータが反映された他のニューラルネットワーク112が歪み補償を行っている状態に切り替えられてもよい。その結果、信号送信装置1bが送信信号zを送信できなくなる期間を短くする又はなくすことができる。
【0155】
CPU15b内には、信号送信装置1bが実際に送信する送信信号zを監視するための監視部151b(図13参照)が実現されてもよい。この場合、信号送信装置1bは、監視部151bの監視結果に基づいて、ニューラルネットワーク112のパラメータを更新するか否かを決定してもよい。例えば、監視部151bが監視している送信信号zの特性に関する所定の更新開始条件が成立した場合には、信号送信装置1bは、ニューラルネットワーク112のパラメータを更新すると決定してもよい。一方で、例えば、監視部151bが監視している送信信号zの特性に関する所定の更新開始条件が成立していない場合には、信号送信装置1bは、ニューラルネットワーク112のパラメータを更新しないと決定してもよい。更新開始条件の一例として、送信信号zの歪みが許容値以上に大きくなるという条件があげられる。
【0156】
尚、上述した説明では、パラメータ決定装置2のCPU21内に実現される機能ブロックの全てが信号送信装置1bに実装されている。しかしながら、パラメータ決定装置2のCPU21内に実現される機能ブロックの一部が信号送信装置1bに実装される一方で、パラメータ決定装置2のCPU21内に実現される機能ブロックの他の一部が信号送信装置1bに実装されなくてもよい。その結果、信号送信装置1bのCPU15bの処理速度がそれほど速くない場合であっても、信号送信装置1bは、パラメータを相応に更新することができる。つまり、処理速度がそれほど早くないCPU15b(或いは、任意の演算装置)しか備えていない信号送信装置1bに対して、パラメータを更新するための機能を実装することができる。一例として、例えば、図15に示すように、信号送信装置1bには、第2学習部2113に相当する機能ブロックが実装される一方で、第1学習部2111及び接続経路選択部2112に相当する機能ブロックが実装されなくてもよい。こ例えば、信号送信装置1bには、出力層112Oに相対的に近い一部のネットワーク構造NSのパラメータを更新するための機能ブロックが実装される一方で、出力層112Oから相対的に遠い他の一部のネットワーク構造NSのパラメータを更新するための機能ブロックが実装されなくてもよい。一例として、信号送信装置1bには、出力層112Oと第2の中間層112M(3)との間のネットワーク構造NS(4)のパラメータを更新するための機能ブロックが実装される一方で、第2の中間層112M(3)と入力層112Iの間のネットワーク構造NS(3)及びネットワーク構造NS(2)のパラメータを更新するための機能ブロックが実装されなくてもよい。つまり、図16に示すように、信号送信装置1bには、パラメータ決定部(4)に相当する機能ブロックが実装される一方で、パラメータ決定部(3)及びパラメータ決定部(2)に相当する機能ブロックが実装されなくてもよい。いずれの場合においても、パラメータ決定装置2のCPU21内に実現される機能ブロックの全てが信号送信装置1bに実装される場合と比較して、パラメータの更新に要する処理負荷が軽減される。
【0157】
(5)付記
以上説明した実施形態に関して、更に以下の付記を開示する。
[付記1]
複数の層を備えるニューラルネットワークのパラメータを決定するパラメータ決定装置であって、
学習用信号及び教師用信号に基づいて、前記複数の層のうちの第j-1(但し、jは、「2≦j≦前記層の数」という条件を満たす整数)番目の層と前記第j-1番目の層の出力が入力される第j番目の層との間の重みを学習する第1学習手段と、
前記第1学習手段が学習した重みに基づいて、前記第j-1番目の層に含まれる複数のノードと前記第j番目の層に含まれる複数のノードとを夫々連結する複数の接続経路の中から、前記ニューラルネットワークにおいて有効な接続経路として用いられる有効経路を前記j番目の層に含まれる各ノードにおいて少なくとも一つずつ、前記パラメータの一部として選択する選択手段と、
前記学習用信号、前記教師用信号及び前記有効経路に基づいて、前記j-1番目の層と前記j番目の層との間の重み及び前記j番目の層で付加されるバイアスの少なくとも一方を、前記パラメータの一部として学習する第2学習手段と
を備えるパラメータ決定装置。
[付記2]
変数jが3以上の整数である場合には、前記第2学習手段は、前記学習用信号、前記教師用信号、前記有効経路、並びに、前記複数の層のうちの第1番目の層から第j-1番目の層までの間のネットワーク構造に関する前記パラメータに基づいて、前記j-1番目の層と前記j番目の層との間の重み及び前記j番目の層で付加されるバイアスの少なくとも一方を学習する
付記1に記載のパラメータ決定装置。
[付記3]
変数jが3以上の整数である場合には、前記第2学習手段は、前記複数の層のうちの第1番目の層から第j-1番目の層までの間のネットワーク構造に関する前記パラメータを固定したまま、前記教師用信号と、前記学習用信号が入力された前記ニューラルネットワークからの出力との差分が小さくなるように、前記j-1番目の層と前記j番目の層との間の重み及び前記j番目の層で付加されるバイアスの少なくとも一方を学習する
付記1又は2に記載のパラメータ決定装置。
[付記4]
前記第1学習手段、前記選択手段及び前記第2学習手段を備えるパラメータ決定ユニットを複数備え、
前記複数のパラメータ決定ユニットは、夫々、異なる複数の層に関連する前記パラメータを決定する
付記1から3のいずれか一項に記載のパラメータ決定装置。
[付記5]
前記第1学習手段は、前記j-1番目の層と前記j番目の層との間の重みを学習する都度、(i)前記学習した重みに基づいて、前記第j番目の層に含まれる複数のノードと前記第j-1番目の層に含まれる複数のノードとを夫々連結する複数の接続経路の一部を限定経路として選択し、(ii)前記限定経路に対応する重みが前記複数の接続経路のうちの前記限定経路以外の接続経路に対応する重みよりも相対的に大きくなる学習が行われるように、前記j-1番目の層と前記j番目の層との間の重みを学習するために用いる目的関数を更新し、更新した前記目的関数を用いて前記j-1番目の層と前記j番目の層との間の重みを再度学習する
付記1から4のいずれか一項に記載のパラメータ決定装置。
[付記6]
前記目的関数は、学習誤差と、前記j-1番目の層と前記j番目の層との間の重みの絶対値の総和が大きくなるほど大きくなる正則化項とが加算された関数であり、
前記第1学習手段は、前記正則化項のうちの前記限定経路に対応する重みの絶対値又は前記絶対値のべき乗の総和が大きくなるほど大きくなる正則化項成分が小さくなるように前記目的関数を更新する
付記5に記載のパラメータ決定装置。
[付記7]
前記第1学習手段は、前記正則化項成分に対して0以上且つ1以下の係数を掛け合わせることで、前記正則化項成分が小さくなるように前記目的関数を更新し、
前記第1学習手段は、前記目的関数を新たに更新する際に、前記目的関数を前回更新する際に用いた前記係数以下の前記係数を前記正則化項成分に掛け合わせることで、前記目的関数を更新する
付記6に記載のパラメータ決定装置。
[付記8]
前記第2学習手段は、前記j-1番目の層と前記j番目の層との間の重み及び前記j番目の層で付加されるバイアスの少なくとも一方の学習が完了したときに学習誤差が目標値を下回る場合には、重みの絶対値が最も小さい一の有効経路を削除し、前記j-1番目の層と前記j番目の層との間の重み及び前記j番目の層で付加されるバイアスの少なくとも一方を再度学習する
付記1から7のいずれか一項に記載のパラメータ決定装置。
[付記9]
前記第2学習手段は、前記j-1番目の層と前記j番目の層との間の重み及び前記j番目の層で付加されるバイアスの少なくとも一方の学習が完了したときに学習誤差が目標値を下回る場合には、前記第j番目の層に含まれる複数のノードの中から、出力ベクトルの一次独立性が最も低い一のノードを削除し、前記j-1番目の層と前記j番目の層との間の重み及び前記j番目の層で付加されるバイアスの少なくとも一方を再度学習する
付記1から8のいずれか一項に記載のパラメータ決定装置。
[付記10]
前記パラメータ決定装置は、前記ニューラルネットワークとして、信号受信装置に対して送信信号を送信する信号送信装置に実装されるニューラルネットワークの前記パラメータを決定する
付記1から9のいずれか一項に記載のパラメータ決定装置。
[付記11]
前記学習用信号及び前記教師用信号の少なくとも一方は、前記送信信号及び前記信号受信装置が受信した受信信号の少なくとも一方に基づく信号である
付記10に記載のパラメータ決定装置。
[付記12]
前記信号送信装置は、
入力信号に対して歪み補償を実行することで、歪み補償信号を生成する歪み補償手段と、
前記歪み補償信号を対象に所定動作を行うことで前記送信信号を生成する信号生成手段と
を備え、
前記パラメータ決定装置は、前記ニューラルネットワークとして、前記歪み補償手段に実装されるニューラルネットワークの前記パラメータを決定する
付記11に記載のパラメータ決定装置。
[付記13]
前記学習用信号及び前記教師用信号の少なくとも一方は、前記入力信号、前記歪み補償信号、前記送信信号及び前記信号受信装置が受信した受信信号の少なくとも一つに基づく信号である
付記12に記載のパラメータ決定装置。
[付記14]
パラメータ決定装置によって決定されたパラメータによって定義される前記ニューラルネットワークを用いて入力信号に対して歪み補償を実行することで、歪み補償信号を生成する歪み補償手段と、
前記歪み補償信号を対象に所定動作を行うことで、信号受信装置に送信する送信信号を生成する信号生成手段と
を備え、
前記パラメータ決定装置は、
学習用信号及び教師用信号に基づいて、前記複数の層のうちの第j-1(但し、jは、「2≦j≦前記層の数」という条件を満たす整数)番目の層と前記第j-1番目の層の出力が入力される第j番目の層との間の重みを学習する第1学習手段と、
前記第1学習手段が学習した重みに基づいて、前記第j-1番目の層に含まれる複数のノードと前記第j番目の層に含まれる複数のノードとを夫々連結する複数の接続経路の中から、前記ニューラルネットワークにおいて有効な接続経路として用いられる有効経路を前記j番目の層に含まれる各ノードにおいて少なくとも一つずつ、前記パラメータの一部として選択する選択手段と、
前記学習用信号、前記教師用信号及び前記有効経路に基づいて、前記j-1番目の層と前記j番目の層との間の重み及び前記j番目の層で付加されるバイアスの少なくとも一方を、前記パラメータの一部として学習する第2学習手段と
を備える信号送信装置。
[付記15]
前記学習用信号及び前記教師用信号に基づいて、前記j-1番目の層と前記j番目の層との間の重み及び前記j番目の層で付加されるバイアスの少なくとも一方を、前記パラメータの一部として学習する学習手段を更に備える
付記14に記載の信号送信装置。
[付記16]
ニューラルネットワークを用いて入力信号に対して歪み補償を実行することで、歪み補償信号を生成する歪み補償手段と、
前記歪み補償信号を対象に所定動作を行うことで、信号受信装置に送信する送信信号を生成する信号生成手段と、
学習用信号及び教師用信号に基づいて、前記ニューラルネットワークが備える複数の層のうちの第j-1(但し、jは、「2≦j≦前記層の数」という条件を満たす整数)番目の層と前記第j-1番目の層の出力が入力される第j番目の層との間の重み及び前記j番目の層で付加されるバイアスの少なくとも一方を、前記ニューラルネットワークのパラメータの少なくとも一部として学習する学習手段と
を備える信号送信装置。
[付記17]
前記歪み補償手段は、冗長化された複数のニューラルネットワークのうちの一のニューラルネットワークを用いて前記歪み補償を実行し、
前記歪み補償手段は、前記学習手段が学習したパラメータを、前記複数のニューラルネットワークのうちの前記一のニューラルネットワークとは異なる他のニューラルネットワークに適用した後に、前記一のニューラルネットワークに代えて前記他のニューラルネットワークを用いて前記歪み補償を実行する
付記15又は16に記載の信号送信装置。
[付記18]
前記学習手段は、所定の学習開始条件が成立した場合に、前記j-1番目の層と前記j番目の層との間の重み及び前記j番目の層で付加されるバイアスの少なくとも一方を学習する
付記15から17のいずれか一項に記載の信号送信装置。
[付記19]
前記学習手段は、
前記学習用信号及び前記教師用信号に基づいて、前記第j-1番目の層と前記第j番目の層との間の重みを暫定的に学習し、
前記暫定的に学習した重みに基づいて、前記第j-1番目の層に含まれる複数のノードと前記第j番目の層に含まれる複数のノードとを夫々連結する複数の接続経路の中から、前記ニューラルネットワークにおいて有効な接続経路として用いられる有効経路を前記j番目の層に含まれる各ノードにおいて少なくとも一つずつ、前記パラメータの一部として選択し、
前記学習用信号、前記教師用信号及び前記有効経路に基づいて、前記j-1番目の層と前記j番目の層との間の重み及び前記j番目の層で付加されるバイアスの少なくとも一方を学習する
付記15から18のいずれか一項に記載の信号送信装置。
[付記20]
前記学習手段は、所定の学習開始条件が成立した場合に、前記第j-1番目の層と前記第j番目の層との間の重みを暫定的に学習し、且つ、前記暫定的に学習した重みに基づいて前記有効経路を選択する
付記19に記載の信号送信装置。
[付記21]
前記送信信号を監視する監視手段を備え、
前記学習開始条件は、前記監視手段が監視している前記送信信号の特性に基づいて定まる条件を含む
付記18又は20に記載の信号送信装置。
[付記22]
前記学習開始条件は、前記監視手段が監視している前記送信信号の歪みが許容値以上に大きくなるという条件を含む
付記21に記載の信号送信装置。
[付記23]
前記学習用信号及び前記教師用信号の少なくとも一方は、前記入力信号、前記歪み補償信号、前記送信信号及び前記信号受信装置が受信した受信信号の少なくとも一つに基づく信号である
付記14から22のいずれか一項に記載の信号送信装置。
[付記24]
前記歪み補償は、前記所定動作に起因して前記送信信号に生ずる歪み、及び、前記信号生成手段から前記信号受信装置に至る信号伝搬経路で前記送信信号に生ずる歪みの少なくとも一方を補償する
付記14から23のいずれか一項に記載の信号送信装置。
[付記25]
前記信号送信装置は、前記信号伝搬経路の少なくとも一部を含む
付記24に記載の信号送信装置。
[付記26]
複数の層を備えるニューラルネットワークのパラメータを決定するパラメータ決定方法であって、
学習用信号及び教師用信号に基づいて、前記複数の層のうちの第j-1(但し、jは、「2≦j≦前記層の数」という条件を満たす整数)番目の層と前記第j-1番目の層の出力が入力される第j番目の層との間の重みを学習することと、
前記第1学習手段が学習した重みに基づいて、前記第j-1番目の層に含まれる複数のノードと前記第j番目の層に含まれる複数のノードとを夫々連結する複数の接続経路の中から、前記ニューラルネットワークにおいて有効な接続経路として用いられる有効経路を前記j番目の層に含まれる各ノードにおいて少なくとも一つずつ、前記パラメータの一部として選択することと、
前記学習用信号、前記教師用信号及び前記有効経路に基づいて、前記j-1番目の層と前記j番目の層との間の重み及び前記j番目の層で付加されるバイアスの少なくとも一方を、前記パラメータの一部として学習することと
を含むパラメータ決定方法。
[付記27]
パラメータ決定装置によって決定されたパラメータによって定義される前記ニューラルネットワークを用いて入力信号に対して歪み補償を実行することで、歪み補償信号を生成することと、
前記歪み補償信号を対象に所定動作を行うことで、信号受信装置に送信する送信信号を生成することと
を含み、
前記パラメータ決定装置は、
学習用信号及び教師用信号に基づいて、前記複数の層のうちの第j-1(但し、jは、「2≦j≦前記層の数」という条件を満たす整数)番目の層と前記第j-1番目の層の出力が入力される第j番目の層との間の重みを学習する第1学習手段と、
前記第1学習手段が学習した重みに基づいて、前記第j-1番目の層に含まれる複数のノードと前記第j番目の層に含まれる複数のノードとを夫々連結する複数の接続経路の中から、前記ニューラルネットワークにおいて有効な接続経路として用いられる有効経路を前記j番目の層に含まれる各ノードにおいて少なくとも一つずつ、前記パラメータの一部として選択する選択手段と、
前記学習用信号、前記教師用信号及び前記有効経路に基づいて、前記j-1番目の層と前記j番目の層との間の重み及び前記j番目の層で付加されるバイアスの少なくとも一方を、前記パラメータの一部として学習する第2学習手段と
を備える信号送信方法。
[付記28]
ニューラルネットワークを用いて入力信号に対して歪み補償を実行することで、歪み補償信号を生成することと、
前記歪み補償信号を対象に所定動作を行うことで、信号受信装置に送信する送信信号を生成することと、
学習用信号及び教師用信号に基づいて、前記ニューラルネットワークが備える複数の層のうちの第j-1(但し、jは、「2≦j≦前記層の数」という条件を満たす整数)番目の層と前記第j-1番目の層の出力が入力される第j番目の層との間の重み及び前記j番目の層で付加されるバイアスの少なくとも一方を、前記ニューラルネットワークのパラメータの少なくとも一部として学習することと
を含む信号送信方法。
[付記29]
コンピュータに、複数の層を備えるニューラルネットワークのパラメータを決定するパラメータ決定方法を実行させるコンピュータプログラムであって、
前記パラメータ決定方法は、
学習用信号及び教師用信号に基づいて、前記複数の層のうちの第j-1(但し、jは、「2≦j≦前記層の数」という条件を満たす整数)番目の層と前記第j-1番目の層の出力が入力される第j番目の層との間の重みを学習することと、
前記第1学習手段が学習した重みに基づいて、前記第j-1番目の層に含まれる複数のノードと前記第j番目の層に含まれる複数のノードとを夫々連結する複数の接続経路の中から、前記ニューラルネットワークにおいて有効な接続経路として用いられる有効経路を前記j番目の層に含まれる各ノードにおいて少なくとも一つずつ、前記パラメータの一部として選択することと、
前記学習用信号、前記教師用信号及び前記有効経路に基づいて、前記j-1番目の層と前記j番目の層との間の重み及び前記j番目の層で付加されるバイアスの少なくとも一方を、前記パラメータの一部として学習することと
を含むコンピュータプログラム。
[付記30]
コンピュータに信号送信方法を実行させるコンピュータプログラムであって、
前記信号送信方法は、
パラメータ決定装置によって決定されたパラメータによって定義される前記ニューラルネットワークを用いて入力信号に対して歪み補償を実行することで、歪み補償信号を生成することと、
前記歪み補償信号を対象に所定動作を行うことで、信号受信装置に送信する送信信号を生成することと
を含み、
前記パラメータ決定装置は、
学習用信号及び教師用信号に基づいて、前記複数の層のうちの第j-1(但し、jは、「2≦j≦前記層の数」という条件を満たす整数)番目の層と前記第j-1番目の層の出力が入力される第j番目の層との間の重みを学習する第1学習手段と、
前記第1学習手段が学習した重みに基づいて、前記第j-1番目の層に含まれる複数のノードと前記第j番目の層に含まれる複数のノードとを夫々連結する複数の接続経路の中から、前記ニューラルネットワークにおいて有効な接続経路として用いられる有効経路を前記j番目の層に含まれる各ノードにおいて少なくとも一つずつ、前記パラメータの一部として選択する選択手段と、
前記学習用信号、前記教師用信号及び前記有効経路に基づいて、前記j-1番目の層と前記j番目の層との間の重み及び前記j番目の層で付加されるバイアスの少なくとも一方を、前記パラメータの一部として学習する第2学習手段と
を備えるコンピュータプログラム。
[付記31]
コンピュータに信号送信方法を実行させるコンピュータプログラムであって、
前記信号送信方法は、
ニューラルネットワークを用いて入力信号に対して歪み補償を実行することで、歪み補償信号を生成することと、
前記歪み補償信号を対象に所定動作を行うことで、信号受信装置に送信する送信信号を生成することと、
学習用信号及び教師用信号に基づいて、前記ニューラルネットワークが備える複数の層のうちの第j-1(但し、jは、「2≦j≦前記層の数」という条件を満たす整数)番目の層と前記第j-1番目の層の出力が入力される第j番目の層との間の重み及び前記j番目の層で付加されるバイアスの少なくとも一方を、前記ニューラルネットワークのパラメータの少なくとも一部として学習することと
を含むコンピュータプログラム。
[付記32]
コンピュータに、複数の層を備えるニューラルネットワークのパラメータを決定するパラメータ決定方法を実行させるコンピュータプログラムが記録された記録媒体であって、
前記パラメータ決定方法は、
学習用信号及び教師用信号に基づいて、前記複数の層のうちの第j-1(但し、jは、「2≦j≦前記層の数」という条件を満たす整数)番目の層と前記第j-1番目の層の出力が入力される第j番目の層との間の重みを学習することと、
前記第1学習手段が学習した重みに基づいて、前記第j-1番目の層に含まれる複数のノードと前記第j番目の層に含まれる複数のノードとを夫々連結する複数の接続経路の中から、前記ニューラルネットワークにおいて有効な接続経路として用いられる有効経路を前記j番目の層に含まれる各ノードにおいて少なくとも一つずつ、前記パラメータの一部として選択することと、
前記学習用信号、前記教師用信号及び前記有効経路に基づいて、前記j-1番目の層と前記j番目の層との間の重み及び前記j番目の層で付加されるバイアスの少なくとも一方を、前記パラメータの一部として学習することと
を含む記録媒体。
[付記33]
コンピュータに信号送信方法を実行させるコンピュータプログラムが記録された記録媒体であって、
前記信号送信方法は、
パラメータ決定装置によって決定されたパラメータによって定義される前記ニューラルネットワークを用いて入力信号に対して歪み補償を実行することで、歪み補償信号を生成することと、
前記歪み補償信号を対象に所定動作を行うことで、信号受信装置に送信する送信信号を生成することと
を含み、
前記パラメータ決定装置は、
学習用信号及び教師用信号に基づいて、前記複数の層のうちの第j-1(但し、jは、「2≦j≦前記層の数」という条件を満たす整数)番目の層と前記第j-1番目の層の出力が入力される第j番目の層との間の重みを学習する第1学習手段と、
前記第1学習手段が学習した重みに基づいて、前記第j-1番目の層に含まれる複数のノードと前記第j番目の層に含まれる複数のノードとを夫々連結する複数の接続経路の中から、前記ニューラルネットワークにおいて有効な接続経路として用いられる有効経路を前記j番目の層に含まれる各ノードにおいて少なくとも一つずつ、前記パラメータの一部として選択する選択手段と、
前記学習用信号、前記教師用信号及び前記有効経路に基づいて、前記j-1番目の層と前記j番目の層との間の重み及び前記j番目の層で付加されるバイアスの少なくとも一方を、前記パラメータの一部として学習する第2学習手段と
を備える記録媒体。
[付記34]
コンピュータに信号送信方法を実行させるコンピュータプログラムが記録された記録媒体であって、
前記信号送信方法は、
ニューラルネットワークを用いて入力信号に対して歪み補償を実行することで、歪み補償信号を生成することと、
前記歪み補償信号を対象に所定動作を行うことで、信号受信装置に送信する送信信号を生成することと、
学習用信号及び教師用信号に基づいて、前記ニューラルネットワークが備える複数の層のうちの第j-1(但し、jは、「2≦j≦前記層の数」という条件を満たす整数)番目の層と前記第j-1番目の層の出力が入力される第j番目の層との間の重み及び前記j番目の層で付加されるバイアスの少なくとも一方を、前記ニューラルネットワークのパラメータの少なくとも一部として学習することと
を含む記録媒体。
【0158】
本発明は、請求の範囲及び明細書全体から読み取るこのできる発明の要旨又は思想に反しない範囲で適宜変更可能であり、そのような変更を伴うパラメータ決定装置、パラメータ決定方法、信号送信方法、コンピュータプログラム及び記録媒体もまた本発明の技術思想に含まれる。
【0159】
法令で許容される限りにおいて、この出願は、2019年9月18日に出願された日本出願特願2019-169715を基礎とする優先権を主張し、その開示の全てをここに取り込む。また、法令で許容される限りにおいて、本願明細書に記載された全ての公開公報及び論文をここに取り込む。
【符号の説明】
【0160】
1 信号送信装置
11 歪み補償回路
112 ニューラルネットワーク
2 パラメータ決定装置
21 CPU
211 パラメータ決定部
2111 第1学習部
2112 接続経路選択部
2113 第2学習部
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14
図15
図16