IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ テラ クアンタム アーゲーの特許一覧

特開2024-72259ハイブリッド古典量子ソルバを用いて機械学習問題を解決するための方法
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024072259
(43)【公開日】2024-05-27
(54)【発明の名称】ハイブリッド古典量子ソルバを用いて機械学習問題を解決するための方法
(51)【国際特許分類】
   G06N 20/00 20190101AFI20240520BHJP
   G06N 10/20 20220101ALI20240520BHJP
【FI】
G06N20/00
G06N10/20
【審査請求】有
【請求項の数】15
【出願形態】OL
【外国語出願】
(21)【出願番号】P 2023189666
(22)【出願日】2023-11-06
(31)【優先権主張番号】22207380
(32)【優先日】2022-11-15
(33)【優先権主張国・地域又は機関】EP
(71)【出願人】
【識別番号】521124319
【氏名又は名称】テラ クアンタム アーゲー
【氏名又は名称原語表記】TERRA QUANTUM AG
(74)【代理人】
【識別番号】100109210
【弁理士】
【氏名又は名称】新居 広守
(72)【発明者】
【氏名】コードザンガネー・モハンマド
(72)【発明者】
【氏名】コシチキナ・ダリア
(72)【発明者】
【氏名】メルニコフ・アレクセイ
(57)【要約】      (修正有)
【課題】入力特徴ベクトルのラベリング関数を近似するためのハイブリッド量子古典計算システムを訓練する方法を提供する。
【解決手段】変分量子回路と、機械学習モデルと、変分量子回路によって生成された第1の出力および機械学習モデルによって生成された第2の出力を受信し、出力ラベルを生成するように構成されたラベリングモジュールとを備えるシステムにおいて、方法は、サンプルデータセットの入力特徴ベクトルを変分量子回路および機械学習モデルに提供するステップと、第1の出力および第2の出力をラベリングモジュールに提供するステップと、入力特徴ベクトルの出力ラベルのコスト関数の値に基づいて、変分パラメータ、機械学習パラメータおよび訓練可能な結合パラメータのパラメータ更新を決定するステップと、を含む反復プロセスを含む。
【選択図】図3
【特許請求の範囲】
【請求項1】
入力特徴ベクトルのラベリング関数を近似するためのハイブリッド量子古典計算システムを訓練するための方法であって、前記システムは、
量子ビットレジスタの量子ビットに対して作用する複数の量子ゲートであって、前記複数の量子ゲートが変分量子ゲートを備え、前記量子ビットレジスタの前記量子ビットに対して作用する前記変分量子ゲートのパラメータ化された作用が関連する変分パラメータに従ってパラメータ化される、複数の量子ゲートと、前記入力特徴ベクトルに従って前記量子ビットレジスタの前記量子ビットの状態を修正するための少なくとも1つの符号化ゲートとを備える、変分量子回路と、
古典処理システム上に実装され、パラメータ化伝達関数に従って前記入力特徴ベクトルを処理するように構成された機械学習モデルであって、前記パラメータ化伝達関数が機械学習パラメータによってパラメータ化される、機械学習モデルと、
古典処理システム上に実装され、前記変分量子回路によって生成された第1の出力および前記機械学習モデルによって生成された第2の出力を受信し、前記第1の出力と前記第2の出力との結合に基づいて出力ラベルを生成するように構成されたラベリングモジュールであって、前記結合が、訓練可能な結合パラメータに基づく、ラベリングモジュールと、を備え、
前記方法は、
前記サンプルデータセットの入力特徴ベクトルを前記変分量子回路および前記機械学習モデルに提供するステップと、
前記第1の出力および前記第2の出力を前記ラベリングモジュールに提供するステップと、
前記入力特徴ベクトルの前記出力ラベルのコスト関数の値に基づいて、前記変分パラメータ、前記機械学習パラメータ、および前記訓練可能な結合パラメータのパラメータ更新を決定するステップと、を含む
反復プロセスを含む方法。
【請求項2】
前記変分パラメータおよび前記機械学習パラメータを更新するための学習率が異なる、
請求項1に記載の方法。
【請求項3】
前記方法は、前記変分パラメータ、前記機械学習パラメータ、および前記訓練可能な結合パラメータの更新ベクトルを決定し、前記パラメータ更新を決定するステップは、前記変分パラメータおよび前記機械学習パラメータの異なる学習率係数を含む学習率ベクトルで前記更新ベクトルを乗算するステップを含む、
請求項2に記載の方法。
【請求項4】
前記更新ベクトルは、前記コスト関数に対する前記変分パラメータ、前記機械学習パラメータ、および前記訓練可能な結合パラメータの勾配である、
請求項3に記載の方法。
【請求項5】
前記パラメータ更新を決定するステップは、前記コスト関数の勾配および学習率に基づき、特に確率的勾配降下法に基づき、および/または特に前記コスト関数の以前に決定された勾配に基づくモーメント係数を含む、
請求項1から4のいずれか一項に記載の方法。
【請求項6】
前記パラメータ更新を決定するステップは、前記コスト関数の勾配にわたる移動平均および前記コスト関数の二乗勾配にわたる移動平均の更新関数に基づく、
請求項1から4のいずれか一項に記載の方法。
【請求項7】
前記方法は、前記ラベリング関数に対する前記変分パラメータおよび前記機械学習パラメータを更新するための学習率の最適比を決定するために、前記変分パラメータおよび前記機械学習パラメータを更新するための前記学習率の異なる比で前記ハイブリッド量子古典計算システムを訓練するステップを含む、
請求項1から4のいずれか一項に記載の方法。
【請求項8】
前記パラメータ更新を決定するステップは、パラメータ更新勾配の一部として前記変分パラメータの導関数のベクトルを決定するステップを含む、
請求項1から4のいずれか一項に記載の方法。
【請求項9】
前記変分パラメータの導関数の前記ベクトルを決定するステップは、前記反復プロセスの各反復において前記変分ゲートのサブセットまたは全てにパラメータシフトルールを適用するステップを含む、
請求項8に記載の方法。
【請求項10】
前記方法は、スケーリングされた入力特徴ベクトルを取得するために符号化係数ベクトルで前記入力特徴ベクトルを乗算し、前記変分量子回路内で前記スケーリングされた入力特徴ベクトルに基づいて前記少なくとも1つの符号化ゲートで前記入力特徴ベクトルを符号化するステップを含み、前記符号化係数ベクトルは、特に、前記反復プロセスの一部として更新される訓練可能なベクトルである、
請求項1から4のいずれか一項に記載の方法。
【請求項11】
前記少なくとも1つの符号化ゲートは、前記入力特徴ベクトルの値に比例する単一量子ビット回転を含む、
請求項1から4のいずれか一項に記載の方法。
【請求項12】
前記少なくとも1つの符号化ゲートは、前記変分量子回路の一部としてk回適用され、kは2より大きい整数値であり、前記変分量子回路は少なくとも2k個の変分パラメータによってパラメータ化される、
請求項1から4のいずれか一項に記載の方法。
【請求項13】
ラベルおよび対応する入力特徴ベクトルのサンプルデータセットに基づいて入力特徴ベクトルのラベリング関数を近似するためのハイブリッド量子古典計算システムであって、前記システムは、
量子ビットレジスタの量子ビットに対して作用する複数の量子ゲートであって、前記複数の量子ゲートが変分量子ゲートを備え、前記量子ビットレジスタの前記量子ビットに対して作用する前記変分量子ゲートのパラメータ化された作用が関連する変分パラメータに従ってパラメータ化される、複数の量子ゲートと、前記入力特徴ベクトルに従って前記量子ビットレジスタの前記量子ビットの状態を修正するための少なくとも1つの符号化ゲートとを備える、変分量子回路と、
パラメータ化伝達関数に従って前記入力特徴ベクトルを処理するように構成された機械学習モデルであって、前記パラメータ化伝達関数が機械学習パラメータによってパラメータ化される、機械学習モデルと、
前記変分量子回路によって生成された第1の出力および前記機械学習モデルによって生成された第2の出力を受信し、前記第1の出力と前記第2の出力との結合に基づいて出力ラベルを生成するように構成されたラベリングモジュールと、を備え、
前記変分パラメータ、前記機械学習パラメータ、および前記結合パラメータが共通の訓練アルゴリズムに基づいて取得され、前記変分パラメータ、前記機械学習パラメータ、および前記結合パラメータが、前記出力ラベルのコスト関数を極端化するために、反復的に一緒に更新される、
ハイブリッド量子古典計算システム。
【請求項14】
前記結合パラメータは、前記出力ラベルに対する前記第1の出力および前記第2の出力の相対的寄与の比を決定し、前記比は0.01よりも大きい、
請求項13に記載のハイブリッド量子古典計算システム。
【請求項15】
コンピュータプログラムであって、前記コンピュータプログラムが処理システムによって実行されると、処理システムに、請求項1から4のいずれか一項に記載の方法を実装させ、または請求項13もしくは14に記載のシステムを実装させる、機械可読命令を含むコンピュータプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、量子計算の分野に属する。より正確には、本発明は、訓練可能な近似器の一部としてのハイブリッド量子古典計算システムに関する。
【背景技術】
【0002】
量子コンピュータは、計算を実行するためにその状態および相互作用を制御することができる、制御可能な量子力学システムのプラットフォームを提供する。計算は、制御可能な量子力学システムの決定論的発展、例えば古典ビットの量子アナログとしての量子ビットによって実現され、量子力学システムの状態は、計算の結果を決定するために測定することができる。
【0003】
これらの量子ビットに対する制御動作は、量子ゲートと呼ばれる。量子ゲートは、単一量子ビット(いわゆる単一量子ビットゲート)の状態の変化を誘発するために、および複数の量子ビット(いわゆるマルチ量子ビットゲート)に作用するために、例えば複数の量子ビットの状態および量子ビットの状態の任意の結合をもつれさせるために、量子ビットに対してコヒーレントに作用することができる。例えば、単一量子ビットゲートは、選択可能な値、例えばπ/2だけ電子のスピン状態の回転を誘発し得る。マルチ量子ビットゲートは、2つの量子ビットの状態に対するコヒーレントなCNOT演算など、2つ以上の量子ビットに対してコヒーレントに作用し得る。計算を実行するために、量子コンピュータの量子ビットに複数の量子ゲートを並列にまたは順次適用することができる。最後に、量子ビットの状態は、計算の各可能な結果の確率を決定するために、量子ゲートのシーケンスを適用した後に繰り返し測定されてもよい。
【0004】
古典的なコンピュータ上では扱いにくいと考えられる問題の解を計算するために、量子コンピュータは、比較的少ない数の計算ステップで解を見出すために量子力学的状態の特殊な特性、特に異なる量子状態の重ね合わせおよびもつれを活用する。
【0005】
しかしながら、量子力学システムの重ね合わせ/もつれ状態は、本質的に揮発性であり(例えば、デコヒーレンスを被る)、これらのシステムの制御および測定は忠実度マージンの影響を受けるため、最先端の量子コンピュータは現在、制御可能な量子力学システムの数(量子ビット)、ならびに連続して実行される制御作用の数(量子ゲート)の両方において制限されている。
【0006】
これらの欠点にもかかわらず、目先の利用可能な量子プロセッサ、すなわち変分量子アルゴリズムなどのノイズ混じりの中規模量子(NISQ)デバイスのための有望な用途が存在する。変分量子アルゴリズムでは、量子ゲートの作用は、変分パラメータに関してパラメータ化され、変分パラメータは、機械学習と同様の方法で、古典的な計算リソースの助けを借りて体系的に変化させることができる。コストを最適解に対する変分量子回路の出力に帰属させる、コスト関数を極端化するために変分パラメータを変化させることによって、見えない問題に最適解を提供するように変分量子回路の出力を「訓練」することができる。異なる量子ビット間のもつれは、「量子超越性」を提供するために、大きな内部状態空間へのアクセスを与えることができる。
【0007】
例えば、Caroら(「Generalization in quantum machine learning from few training data」)は、訓練データセット上でパラメータ化された量子回路を変分的に最適化し、続いて試験データセットに対する予測を行う(すなわち、一般化する)ことを伴う量子機械学習(QML)方法を研究している。QMLにおける一般化性能は、限られた数Nの訓練データ点に対して訓練した後に研究され、変分QMLにおける一般化誤差に対する一般的な理論的限界が提供され、これは、十分に大きな訓練データセットに対する良好な性能が、高い確率で、以前は見えなかったデータ点に対する良好な性能を暗示することを保証する。
【先行技術文献】
【非特許文献】
【0008】
【非特許文献1】Caroら、「Generalization in quantum 機械学習 from few training data」
【発明の概要】
【発明が解決しようとする課題】
【0009】
しかしながら、量子デバイスは、依然として広く利用可能ではなく、実際の実装形態では、量子ビット数および回路深さの両方において制限される場合があり、これはまた、変分量子回路の一部としてのNISQデバイスの適用を制限する。
【0010】
この最先端技術の観点から、本発明の目的は、近似タスクのために比較的小さく実現可能な量子デバイスを効率的に利用することができる、量子回路ベースのアーキテクチャ、例えば量子ニューラルネットワークを含む、改良された分類器を提供することである。
【課題を解決するための手段】
【0011】
この目的は、独立請求項による、ハイブリッド量子古典近似システム、対応するデバイス、およびコンピュータプログラムを訓練するための方法によって解決される。従属請求項は、好適な実施形態に関する。
【0012】
第1の態様によれば、本発明は、入力特徴ベクトルのラベリング関数を近似するためのハイブリッド量子古典計算システムを訓練するための方法に関する。システムは、変分量子回路と、機械学習モデルと、ラベリングモジュールとを備える。変分量子回路は、量子ビットレジスタの量子ビットに対して作用する複数の量子ゲートであって、複数の量子ゲートは変分量子ゲートを備え、量子ビットレジスタの量子ビットに対する複数の量子ゲートのパラメータ化された作用は関連する変分パラメータに従ってパラメータ化される、複数の量子ゲートと、入力特徴ベクトルに従って量子ビットレジスタの量子ビットの状態を修正するための少なくとも1つの符号化ゲートとを備える。機械学習モデルは、古典処理システム上に実装され、パラメータ化伝達関数に従って入力特徴ベクトルを処理するように構成され、パラメータ化伝達関数は機械学習パラメータによってパラメータ化される。ラベリングモジュールは、古典処理システム上に実装され、変分量子回路によって生成された第1の出力および機械学習モデルによって生成された第2の出力を受信し、第1の出力と第2の出力との結合に基づいて出力ラベルを生成するように構成され、結合は、訓練可能な結合パラメータに基づく。方法は、サンプルデータセットの入力特徴ベクトルを変分量子回路および機械学習モデルに提供するステップと、第1の出力および第2の出力をラベリングモジュールに提供するステップと、入力特徴ベクトルの出力ラベルのコスト関数の値に基づいて、変分パラメータ、機械学習パラメータ、および訓練可能な結合パラメータのパラメータ更新を決定するステップとを含む反復プロセスを含む。
【0013】
ハイブリッド量子古典計算システムでは、変分量子回路および機械学習モデルは、入力特徴ベクトルを並列に処理することができ、変分量子回路および機械学習モデルのそれぞれの出力は、ラベルの近似を得るために結合することができる。結合は、出力特徴が、それぞれの結合パラメータによって定義される比に従って第1の出力および第2の出力にある程度基づくことができるように、第1の出力および第2の出力の線形結合であってもよい。
【0014】
機械学習モデルを定義する単一の中間ニューラル層を有する完全接続ネットワークは、矩形波の重ね合わせを適合させることによって任意の関数を近似することができる(Michael A.Nielsen.「Neural networks and deep learning」)。逆に、Schuldら(「Effect of data encoding on the expressive power of variational quantum-machine-learning models」)は、サンプルにわたってトランケーテッドフーリエ級数を適合させることによって、変分量子回路がユニバーサル近似器であり得ることを示した。本発明者らは、周期的特徴と非高調波/高周波特徴との混合に関する問題について、データを並列に処理する変分量子回路と機械学習モデルとの結合が、高調波特徴および非高調波特徴をそれぞれ効率的に近似できることを見出した。特に、このような結合デバイスは、限られた数のサンプルから未知の関数の高調波成分を一般化するためにNISQデバイスに実装された変分量子回路の能力を利用することができ、その一方で、機械学習モデルを使用して非高調波成分を効率的に適合することができる。
【0015】
原則として、任意のラベリング関数は、ハイブリッド量子古典計算システムを使用して近似され得るが、システムは、好ましくは、高調波成分と非高調波(高周波)成分との混合を含むラベリング関数に適用される。入力特徴ベクトルは、単一の値であってもよいが、一般に、変分量子回路および機械学習モデルを使用して対応する出力ラベルが近似される複数の値を含む。
【0016】
変分量子回路は複数の量子ビットを含むことができ、その量子状態は、単一量子ビットおよび/または複数の量子ビットに順次または並列に適用される量子ゲートの適用によって操作することができる。
【0017】
量子ビットは、各量子ビットの基底状態などの初期状態に初期化することができる。いくつかの実施形態では、基底状態への量子ビットの初期化の後、量子ビットレジスタ内の各量子ビットの重ね合わせ状態が、例えばアダマールゲートの適用を介して準備される。
【0018】
続いて、量子ビットの状態を出力状態に変換するために、複数の量子ゲートが出力状態に適用され得る。変分量子回路では、測定された出力が(変分)量子ゲートの可変作用をパラメータ化する変分パラメータの関数となるように、変分量子ネットワーク内の量子ゲートの少なくともいくつかの作用がパラメータ化される。(少なくとも部分的にパラメータ化された)量子ゲートの結合作用は、動作原理がニューラルネットワークの動作と似ているため、変分量子ネットワークと呼ばれてもよい。
【0019】
さらに、変分量子回路では、少なくとも1つの量子ゲートは符号化ゲートとして使用され、符号化ゲートの作用は入力特徴ベクトルに基づく。例えば、入力特徴ベクトルの値は、単一量子ビット回転を通じて入力特徴ベクトルの値に比例する1つの量子ビットの状態を回転させることによって、量子ビットに符号化され得る。
【0020】
2量子ビットゲートまたはマルチ量子ビットゲートは、量子ハードウェアによって提供される「量子超越性」を利用するなどのために、量子ビット間に重ね合わせ状態を作り出すことができる。例えば、変分量子回路が捕捉イオンシステムに基づいて量子デバイスに実装されるとき捕捉イオンシステム内の異なるイオンの状態は、共励起を通じて結合されてもよく、例えばMolmer-Sorensen相互作用を介して伝達されてもよい。別の例として、量子ビットレジスタ内の量子ビットの対は、CNOTゲートなどの2量子ビットゲートを実装するために、量子粒子の(調整可能な)最も近い隣接相互作用または交換を介してもつれる場合がある。
【0021】
いくつかの実施形態では、変分量子ネットワークは、量子ビットレジスタ内の量子ビットとリンクするために量子ビットに対して作用し得る、量子ゲートの層に関して定義され得る。
【0022】
量子ゲートの層は、量子ビットレジスタ内の量子ビットの状態に対する複数のコヒーレント動作の蓄積作用を含むことができる。1つの層内のコヒーレント動作の蓄積作用は、一般に、計算に関与する量子ビットレジスタの全ての量子ビットに対して作用すべきであり、言い換えると、量子ゲートの層は、量子ビットレジスタ内の全ての量子ビットの状態に直接影響を及ぼすべきである。各層は、少なくとも1つのマルチ量子ビットゲートおよび少なくとも1つの変分量子ゲート(原則として同じゲートであり得る)を含むべきである。
【0023】
変分量子回路は、一般に、例えばパウリ回転ゲートで構成された符号化ゲートと組み合わされた、単一量子ビットまたは2量子ビットの量子ゲート(適切な量子回路を構築するにはパウリ回転ゲート(RX,RY,RZ)、アダマール、CNOT、および恒等作用素(I)で十分であり得るが、他の量子ゲートも等しく利用され得る)を含む一連の訓練可能な層で構成され得る。
【0024】
当業者は、層内の量子ビットの状態に対するコヒーレント動作のシーケンスを短縮するために、層内の複数の量子ゲートが並列に量子ビットに適用され得ることを理解するだろう。次いで、量子ゲートの複数の層を量子ビットに引き続き適用することで変分量子ネットワークを形成することができ、変分量子ネットワークは、各層の変分パラメータによってパラメータ化される。
【0025】
層は、同じタイプの量子ゲートを含んでもよく、量子ビットレジスタに順次適用され得る。例えば、各層は、同じアーキテクチャの量子ゲートを特徴とし得るが、変分パラメータの異なる要素が層の変分ゲートに適用されてもよい。言い換えると、層は、同じ量子ゲートアーキテクチャを特徴とし得るが、各層内の量子ビットに対する量子ゲートの作用は、変分パラメータに基づいて異なってもよい。
【0026】
量子ゲートの層が量子ビットに対して作用した後、既知の初期状態に対する変分量子回路の特徴的な結果を得るために、量子ビットを測定することができる。量子力学的計算の結果は、量子ビットの計算基底状態を介して問題の古典解にリンクされ得る。計算基底状態は、各量子ビットの基底状態のテンソル積によって張られるヒルベルト空間の直交基底状態であり得る。
【0027】
変分量子ゲートの初期変分パラメータは、初期(ランダム)推測を符号化することができ、対応するラベルを決定するために、変分パラメータを用いた変分量子回路の評価の結果を(繰り返し)測定することができる。ラベルに基づいて、コストをラベルに帰属させるために、コスト関数を古典的に評価することができ、言い換えると、ラベルの良さの尺度が計算される。
【0028】
システムを訓練することにより、変分量子回路が出力ラベルの少なくとも一部を近似するように、変分パラメータを反復的に体系的に変化させてもよい。
【0029】
機械学習モデルは、訓練可能な機械学習パラメータに基づく伝達関数による入力特徴ベクトルの処理に基づいて、第2の出力を導出することができる。例えば、機械学習モデルは、入力層、少なくとも1つの隠れ層、および出力層に関して配置され得る複数の人工ニューロンを備えてもよく、人工ニューロンは、古典処理システムに実装することができ、訓練可能なパラメータ化伝達関数またはその一部を提供することができる。人工ニューロンは、その入力において1つ以上の特徴を提供することができ、活性化関数に従って対応する出力特徴を返すことができる。例えば、入力特徴は、重み係数を用いて内部的に乗算され、バイアスと合算されてもよく、内部重み付けおよびバイアスの結果は、少なくとも1つの入力特徴ベクトルに基づいて出力特徴を返すために、非線形活性化関数、例えばシグモイド、ロジスティック、またはReLUタイプの関数に供給されてもよい。
【0030】
一例として、機械学習モデルは、多層パーセプトロン(MLP)であってもよい。入力特徴ベクトルの値は、機械学習モデルの入力層で受信され、完全接続層の一部として、隠れ層の各人工ニューロンに渡されてもよい。隠れ層の出力特徴は、続いて出力層に渡されてもよく、出力層は、出力ラベルの構造を模倣する複数の人工ニューロンを備え得る。例えば、ラベルが所定感覚内の単一の数である場合、出力層は、先行する隠れ層の全ての人工ニューロンに接続され得る単一の人工ニューロンを備えてもよい。
【0031】
人工ニューラルネットワークの可変重み係数および/またはバイアスなどの機械学習モデルの訓練可能パラメータは、パラメータ化伝達関数に従って所与の入力特徴ベクトルに対する機械学習モデルの出力を決定し得る、機械学習パラメータを形成し得る。
【0032】
ラベリングモジュールは、変分量子回路および機械学習モデルによってそれぞれ生成される第1の出力および第2の出力を受信し、第1の出力および第2の出力の両方に基づいて出力ラベルを導出することができる。ラベリングモジュールは、原則として、機械学習モデル、例えば多層パーセプトロンであってもよく、および/または、例えば、変分量子回路から第1の出力を受信し、入力特徴ベクトルを処理する人工ニューロンの層の前半から第2の出力を受信する、人工ニューロンの層の後半の一部として、第2の出力を決定するために使用される機械学習モデルの一部を形成してもよい。
【0033】
いくつかの例では、出力ラベルは、出力ラベルに対する第1の出力および第2の出力の特徴のそれぞれの寄与を決定し得る、結合パラメータに基づく第1の出力および第2の出力の線形結合である。
【0034】
システムは、反復的に訓練することができ、以下ではまとめて訓練可能パラメータとも呼ばれる変分パラメータ、機械学習パラメータ、および結合パラメータは、出力ラベルが同じ入力特徴ベクトルのサンプルデータセットのラベルに近付くように、反復プロセスの各ステップにおいて一緒に最適化され得る。
【0035】
反復プロセスは、古典的な機械学習モデルの訓練を模倣することができ、出力ラベルは、コスト関数に基づくコスト値に関連付けられる。例えば、訓練は、ラベルおよび対応するサンプル入力特徴ベクトルのサンプルデータセットに基づくことができ、コスト関数は、出力ラベルに基づき、同じ入力特徴ベクトルのサンプルデータセットのサンプルラベルに基づく損失関数であってもよい。コスト関数は、同じ入力特徴ベクトルの出力ラベルとサンプルラベルとの間の平均二乗誤差であってもよい。当業者は、ハイブリッド量子古典計算システムが訓練される際に、例えば入力特徴および対応するラベルを含むサンプルデータセットのデータ点を取得し、続いてデータ点に基づいてハイブリッド量子古典計算システムを訓練することによって、サンプルデータセットが構築され得ることを理解するだろう。
【0036】
別の例では、最適なラベルは未知であるが、コストは、問題文に基づく候補解、例えば例示的な例として巡回セールスマン問題の移動時間に帰属する可能性があり、訓練可能パラメータは、コストが極端化(最大化または最小化)されるように変更され得る。
【0037】
訓練可能パラメータは、例えば確率的勾配降下法もしくは適応モーメント推定などの勾配ベースの最適化アルゴリズム、または疑似アニーリングなどの勾配なし最適化など、古典的な機械学習で利用される既知の技術で更新され得る。好ましくは、最適化アルゴリズムは勾配ベースであり、方法は、コスト関数によって出力ラベルに帰属するコストに対する訓練可能パラメータの勾配を決定するステップを含むことができる。
【0038】
好適な実施形態では、パラメータ更新を決定するステップは、パラメータ更新勾配の一部として変分パラメータの導関数のベクトルを決定するステップを含む。
【0039】
訓練可能パラメータは、パラメータ更新勾配に基づいて更新することができ、訓練可能パラメータのサブセットまたは全ては、勾配の値、および更新ステップのサイズを定量化する学習率の値に基づいて修正することができる。
【0040】
好適な実施形態では、パラメータ更新を決定するステップは、コスト関数の勾配および学習率に基づき、特に確率的勾配降下法に基づき、および/または特にコスト関数の以前に決定された勾配に基づくモーメント係数を含む。
【0041】
変分パラメータのコスト関数の勾配は、シフトされた変分パラメータに対するコスト関数の偏導関数を決定するために、シフトされた変分パラメータを用いて変分量子回路が評価される、パラメータシフトルールを通じてアクセス可能であってもよい。
【0042】
好適な実施形態では、変分パラメータの導関数のベクトルを決定するステップは、反復プロセスの各反復において変分ゲートのサブセットまたは全てにパラメータシフトルールを適用するステップを含む。
【0043】
具体的には、固有値±1/2を有する量子ゲート、例えば1/2{σ,σ,σ}における1量子ビット回転発生器では、変分パラメータθに対する関数fの偏導関数は、
【数1】
に従って決定することができる。
【0044】
機械学習パラメータに対するコスト関数の偏導関数は、既知の方法で決定することができる。したがって、ハイブリッド量子古典計算システムの異なる部分は、変分量子回路および機械学習モデルの両方の訓練可能パラメータに対するコスト関数の偏導関数で構成された勾配に基づいて、一緒に最適化することができる。例えば、量子力学ネットワークは、変分パラメータに対する量子ゲートの層の偏導関数を決定するために繰り返し評価することができ、勾配は、測定された偏導関数、ならびに機械学習パラメータの古典的に計算された導関数から、古典的に計算されてもよい。
【0045】
しかしながら、当業者は、線形近似による制約付き最適化(COBYLA)アルゴリズムまたは同様のアルゴリズムなどにおいてコスト関数を(ランダムに)サンプリングすることなどによって、導関数にアクセスすることなく最適化アルゴリズムにおいて変分パラメータを等しく最適化することができ、勾配は、コスト関数のエネルギー地形の推定に基づいて推定された勾配であってもよいことを理解するだろう。
【0046】
次いで、コスト関数は、例えば適応モーメントベースの更新関数を用いて、訓練可能パラメータに対するコスト関数の決定/推定された勾配に従って、訓練可能パラメータを反復的に更新することによって最小化/最大化することができる。
【0047】
好適な実施形態では、パラメータ更新を決定するステップは、コスト関数の勾配にわたる移動平均およびコスト関数の二乗勾配にわたる移動平均の更新関数に基づく。
【0048】
適応モーメントベースの更新関数は、コスト関数の勾配にわたる移動平均およびコスト関数の勾配にわたる移動平均の(要素)二乗に依存するため、変分パラメータの更新は、勾配の一次モーメントおよび二次モーメントによって平滑化することができ、「ノイズ混じりの」量子システムについても最適化された解に向かう降下を有効にする。
【0049】
好適な実施形態では、変分パラメータおよび機械学習パラメータを更新するための学習率は異なる。
【0050】
本発明者らは、変分量子回路および機械学習モデルの両方が出力ラベルに最適に寄与する訓練可能パラメータのセットに向かって訓練が収束するように、ハイブリッド量子古典計算システムの最適な性能が、訓練中に変分パラメータおよび機械学習パラメータが更新される相対速度の調整を必要とし得ることを見出した。例えば、変分量子回路および機械学習モデルは、異なる速度で個々の最適解に向かって収束することができる。学習率が正しく調整されない場合、訓練中に、システムは、変分量子回路および機械学習モデルの一方が最適に構成されたハイブリッド量子古典計算システムよりも出力ラベルにあまり寄与しない極小値に陥る可能性がある。
【0051】
いくつかの実施形態では、変分パラメータの学習率は、例えば、変分量子回路との高調波成分の適合を促進するために、機械学習パラメータの学習率よりも高い。
【0052】
好適な実施形態では、方法は、変分パラメータ、機械学習パラメータ、および訓練可能な結合パラメータの更新ベクトルを決定し、パラメータ更新を決定するステップは、変分パラメータおよび機械学習パラメータの異なる学習率係数を含む学習率ベクトルで更新ベクトルを乗算するステップを含む。
【0053】
更新ベクトルは勾配に基づくことができ、変分量子回路および機械学習モデルの固有の学習率の差を補償するため、および/または最初に変分量子回路を使用して高調波成分を適合させるためのバイアスを導入するなどのために、学習率ベクトルの機械学習パラメータおよび変分パラメータのそれぞれのエントリは異なってもよい。
【0054】
好適な実施形態では、更新ベクトルは、コスト関数に対する変分パラメータ、機械学習パラメータ、および訓練可能な結合パラメータの勾配である。
【0055】
あるいは、学習率は、無勾配最適化アルゴリズム、例えばアニーリングアルゴリズムの異なる減衰率に対応してもよい。
【0056】
異なる学習率は、機械学習モデルおよび変分パラメータの収束の個々の速度に基づいて推定されてもよく、過去の最適化結果に基づいてもよく、またはハイブリッド量子古典計算システムについて、例えば入力特徴ベクトルおよび対応するラベルのサンプルデータセットについて経験的に決定されてもよい。
【0057】
好適な実施形態では、方法は、ラベリング関数に対する変分パラメータおよび機械学習パラメータを更新するための学習率の最適比を決定するために、変分パラメータおよび機械学習パラメータを更新するための学習率の異なる比でハイブリッド量子古典計算システムを訓練するステップを含む。
【0058】
例えば、ハイブリッド量子古典計算システムは、毎回訓練可能パラメータの同じ、例えばランダムに決定された開始値を含む、固定初期化点で初期化されてもよく、訓練は、訓練中に使用されない入力特徴ベクトル(訓練データセットの一部ではない)のためにコスト関数の最終結果を記録している間、機械学習モデルおよび変分量子回路の学習率の異なる値で固定初期化点から繰り返されてもよい。実際には、1つの学習率、例えば変分パラメータに関連付けられた学習率は固定されてもよく、他の(1つまたは複数の)学習率、例えば、機械学習パラメータおよび結合パラメータの学習率は変更されてもよく、これらはいくつかの実施形態では、同じ学習率であっても異なる学習率であってもよい。
【0059】
コスト関数の結果的な値に基づいて、最適な学習率を選択することができ、ハイブリッド量子古典計算システムは、以前に決定された最適な学習率またはそれらの比に基づいて引き続き実施されるかまたはさらに訓練されてもよい。
【0060】
変分量子回路は、ラベリング関数の周期部分を近似するために変分量子回路が訓練され得るように、フーリエ級数をラベリング関数に適合させることができる。いくつかの実施形態では、入力特徴ベクトルは、変分量子回路における符号化の前に、符号化係数に従ってスケーリングされる。
【0061】
好適な実施形態では、方法は、スケーリングされた入力特徴ベクトルを取得するために符号化係数ベクトルで入力特徴ベクトルを乗算し、変分量子回路内でスケーリングされた入力特徴ベクトルに基づいて少なくとも1つの符号化ゲートで入力特徴ベクトルを符号化するステップを含み、符号化係数ベクトルは、特に、反復プロセスの一部として更新される訓練可能なベクトルである。
【0062】
例えば、符号化特徴ベクトルは、方法の一部として訓練され、ラベリング関数の周期性に従って入力特徴ベクトルまたはその一部を再スケーリングすることができる、スケーリング係数のベクトルであってもよい。
【0063】
好適な実施形態では、少なくとも1つの符号化ゲートは、入力特徴ベクトルの値に比例する単一量子ビット回転を含む。
【0064】
符号化ゲートは、入力特徴ベクトルが適切にスケーリングされた場合にラベリング関数の周期性を捕捉することができる回転角度として、例えばパウリ回転ゲート(RX,RY,RZなど)として値を符号化することができる。
【0065】
好適な実施形態では、少なくとも1つの符号化ゲートは、変分量子回路の一部としてk回適用され、kは2より大きい整数値であり、変分量子回路は少なくとも2k個の変分パラメータによってパラメータ化される。
【0066】
符号化ゲートを複数回適用することで、変分量子回路がより高次のフーリエ級数をラベリング関数に適合させ得るように、変分量子回路内への入力特徴ベクトルの再アップロードを実施することができる。具体的には、入力特徴をk回符号化することにより、変分量子回路は、k次のフーリエ級数をラベリング関数に適合させるのに適し得る。原則として、K+1個の複素フーリエ係数を適合させるために、少なくともM≧2K+1個の自由度(変分パラメータ)が必要とされ得る。したがって、変分量子回路における2k(または2k-1)個の変分パラメータにより、k次のフーリエ級数を適合させることができる。符号化ゲートは、複数のアプリケーションを実装するために並列に複数の量子ビットに適用されてもよく、または同じもしくは異なる量子ビットに連続して、例えば変分量子回路の層における符号化動作の一部として適用されてもよい。
【0067】
第2の態様によれば、本発明は、ラベルおよび対応する入力特徴ベクトルのサンプルデータセットに基づいて入力特徴ベクトルのラベリング関数を近似するためのハイブリッド量子古典計算システムに関する。システムは、変分量子回路と、機械学習モデルと、ラベリングモジュールとを備える。変分量子回路は、量子ビットレジスタの量子ビットに対して作用する複数の量子ゲートであって、複数の量子ゲートは変分量子ゲートを備え、量子ビットレジスタの量子ビットに対する複数の量子ゲートのパラメータ化された動作は関連する変分パラメータに従ってパラメータ化される、複数の量子ゲートと、入力特徴ベクトルに従って量子ビットレジスタの量子ビットの状態を修正するための少なくとも1つの符号化ゲートとを備える。機械学習モデルは、パラメータ化伝達関数に従って入力特徴ベクトルを処理するように構成され、パラメータ化伝達関数は機械学習パラメータによってパラメータ化される。ラベリングモジュールは、変分量子回路によって生成された第1の出力および機械学習モデルによって生成された第2の出力を受信し、結合パラメータに従って第1の出力と第2の出力との結合に基づいて出力ラベルを生成するように構成される。変分パラメータ、機械学習パラメータ、および結合パラメータは、共通の訓練アルゴリズムに基づいて取得され、変分パラメータ、機械学習パラメータ、および結合パラメータは、出力ラベルのコスト関数を極端化するために、反復的に一緒に更新される。
【0068】
ハイブリッド量子古典計算システムは、第1の態様による方法を使用してシステムを訓練することによって得ることができる。訓練可能パラメータは、変分パラメータおよび機械学習パラメータについて異なる学習率でシステムを訓練することによって取得することができる。
【0069】
好適な実施形では、結合パラメータは、出力ラベルに対する第1の出力および第2の出力の相対的寄与の比を決定し、比は0.01よりも大きい。
【0070】
比は、例えば第1および第2の出力が線形結合されるときの、第2の出力の少なくとも1つの要素と第1の出力の対応する要素との比として定義される。
【0071】
好適な実施形態では、少なくとも1つの符号化ゲートは、変分量子回路の一部としてk回適用され、kは2より大きい整数値であり、変分量子回路は少なくとも2k個の変分パラメータによってパラメータ化される。
【0072】
好適な実施形態では、システムは、訓練された機械学習モデルを実装するように構成された古典処理システムおよび/またはAI処理ハードウェアを備え、特にAI処理ハードウェアは、GPU、ニューラル処理ユニット、アナログメモリベースのハードウェア、またはニューロモルフィックハードウェアを備える。
【0073】
処理システムは、単一の処理ユニットを備えてもよく、または機能的に接続され得る複数の処理ユニットを備えてもよい。処理ユニットは、マイクロコントローラ、ASIC、PLA(CPLA)、FPGA、または前述のAI処理ハードウェアなどのソフトウェア、ハードウェア、ファームウェア、またはこれらの組み合わせに基づいて動作する処理デバイスを含む他の処理デバイスを備えることができる。処理デバイスは、統合メモリを含むか、または外部メモリと通信するか、またはその両方が可能であり、センサ、デバイス、アプリケーション、集積論理回路、他のコントローラなどに接続するためのインターフェースをさらに備えてもよく、インターフェースは、電気信号、光信号、無線信号、音響信号などの信号を受信または送信するように構成され得る。
【0074】
第3の態様によれば、本発明は、コンピュータプログラムであって、コンピュータプログラムが処理システムによって実行されると、処理システムに、第1または第2の態様の任意の実施形態による方法を実施させ、および/または第3の態様の任意の実施形態によるシステムを実装させる、機械可読命令を含むコンピュータプログラムに関する。
【0075】
コンピュータプログラムは、コンピュータプログラムが処理システムによって実行されると、処理システムに、第1の態様の任意の実施形態による方法を実施させ、および/または第2の態様の任意の実施形態によるシステムを実装させる、機械可読命令として非一時的媒体に記憶されてもよい。
【0076】
コンピュータプログラムは、ハイブリッド量子古典計算システムの訓練を調整することができ、およびまたは以前に取得された訓練可能パラメータに基づいて所与のラベリング関数を近似するためのハイブリッド量子古典計算システムを実装することができる。
【図面の簡単な説明】
【0077】
本発明による方法およびシステムの特徴および多くの利点は、添付の図面を参照して、好適な実施形態の詳細な説明から最もよく理解されるだろう。
図1】ハイブリッド量子古典計算システムの一例を概略的に示す図である。
図2】別のハイブリッド量子古典計算システムを概略的に示す図である。
図3】一例によるハイブリッド量子古典計算システムを訓練するための方法のフローチャートである。
図4】一例によるハイブリッド量子古典計算システムを構築するためのステップを示す図である。
図5】ハイブリッド量子古典計算システムを訓練するための別のフローチャートである。
図6A】ハイブリッド量子古典計算システムで近似される単一の入力特徴を有するラベリング関数の一例を示す図である。
図6B図6Aに示されるラベリング関数を近似するためのハイブリッド量子古典計算システムの概略的な例を示す図である。
図7A】機械学習モデルおよび変分量子回路の寄与率を機械学習パラメータの学習率の関数として示す図であり、図6Aのラベリング関数を予測するために図6Bのハイブリッド量子古典計算システムを訓練する例として、変分パラメータの学習率は固定されている。
図7B】機械学習モデルおよび変分量子回路の損失を比の関数として示す図であり、図6Aのラベリング関数を予測するために図6Bのハイブリッド量子古典計算システムを訓練する例として、変分パラメータの学習率は固定されている。
図8】一例による図6Bのハイブリッド量子古典計算システム、および図6Aのラベリング関数を予測するためのその構成要素の訓練中の損失の発展を示す図である。
図9A】一例による図6Bのハイブリッド量子古典計算システムおよびその構成要素による図6Aのラベリング関数およびラベリング関数の最適予測を示す図である。
図9B】一例による図6Bのハイブリッド量子古典計算システムおよびその構成要素による図6Aのラベリング関数およびラベリング関数の最適予測を示す図である。
図9C】一例による図6Bのハイブリッド量子古典計算システムおよびその構成要素による図6Aのラベリング関数およびラベリング関数の最適予測を示す図である。
図9D】一例による図6Bのハイブリッド量子古典計算システムおよびその構成要素による図6Aのラベリング関数およびラベリング関数の最適予測を示す図である。
図10A図6Aのラベリング関数を予測するために図6Bのハイブリッド量子古典計算システムを訓練する例による訓練中のエポックの関数として、比の発展を示す図である。
図10B図6Aのラベリング関数を予測するために図6Bのハイブリッド量子古典計算システムを訓練する例による訓練中のエポックの関数として、損失の発展を示す図である。
図11】2つの入力変数でラベリング関数を近似するためのハイブリッド量子古典計算システムの別の概略的な例を示す図である。
図12A】一例によるハイブリッド量子古典計算システムおよびその構成要素によるラベリング関数の等高線プロットおよび最適予測としての例示的なラベリング関数を示す図である。
図12B】一例によるハイブリッド量子古典計算システムおよびその構成要素によるラベリング関数の等高線プロットおよび最適予測としての例示的なラベリング関数を示す図である。
図12C】一例によるハイブリッド量子古典計算システムおよびその構成要素によるラベリング関数の等高線プロットおよび最適予測としての例示的なラベリング関数を示す図である。
図12D】一例によるハイブリッド量子古典計算システムおよびその構成要素によるラベリング関数の等高線プロットおよび最適予測としての例示的なラベリング関数を示す図である。
図13】一例によるハイブリッド量子古典計算システムおよびその構成要素の訓練中のエポックの関数としての損失の発展を示す図である。
図14】一例によるラベリング関数のための適切な処理ハードウェアを選択する方法のフローチャートである。
【発明を実施するための形態】
【0078】
図1は、変分量子回路12および機械学習モデル14を備えるハイブリッド量子古典計算システム10の一例を概略的に示す。システム10は、入力特徴ベクトル16を入力において受信し、入力特徴ベクトル16は、任意の適切なフォーマットで符号化された単一の値または複数の値の形態を取り得る。例えば、入力特徴ベクトル16は、処理システム内でビット列として符号化された単一の実数値であってもよい。入力特徴ベクトル16は、変分量子回路12および機械学習モデル14に並列に渡されて処理される。しかしながら、当業者は、必ずしも変分量子回路12および機械学習モデル14において入力特徴ベクトル16を同時に処理する必要はないことを理解するだろう。
【0079】
変分量子回路12は、少なくとも部分的に量子デバイス上に実装されてもよく、入力特徴ベクトル16またはそこから派生した特徴ベクトルは、量子デバイスの量子状態で符号化される。量子デバイスの量子状態は、変分量子ゲートの構成に基づいて操作することができ、その作用は変分パラメータによってパラメータ化することができる。量子デバイスの出力状態は(繰り返し)測定することができ、測定された出力状態に基づいて第1の出力を生成することができる。
【0080】
機械学習モデル14は、GPUおよび/またはAI処理デバイスを備え得る古典処理システムに実装することができ、各人工ニューロンについて訓練可能な重みおよび/またはバイアスによってパラメータすることができる活性化関数に基づいて入力を処理する人工ニューロンの層を有する内部多層パーセプトロン(MLP)に従って入力特徴ベクトル16を処理することができる。次いで、機械学習モデル14の第2の出力は、多層パーセプトロンの出力層における人工ニューロンの活性化に基づいて生成され得る。
【0081】
処理後、第1の出力および第2の出力は、ラベリングモジュール18に提供され得る。ラベリングモジュール18は、結合パラメータに従って、第1の出力および第2の出力に基づいて出力20を生成し得る。ラベリングモジュールは、多層パーセプトロンなどの機械学習モデルであってもよく、または古典処理システム内で、第1の出力と第2の出力との線形結合などの結合関数を実装してもよい。例えば、第1の出力および第2の出力は、線形結合関数
【数2】
に従って結合されてもよく、ここで
【数3】
はそれぞれ変分量子回路および機械学習モデルの第1および第2の出力ベクトルであり、α,βはn個の要素を有する出力特徴ベクトルのi番目の要素の結合パラメータであり、o1iおよびo2iはそれぞれ第1および第2の出力ベクトルのi番目の要素である。一例として、βは(1-α)とすることができる。
【0082】
結合パラメータ、機械学習パラメータ、および変分パラメータは、ラベリングモジュール18によって生成された出力20が、入力特徴ベクトル16を出力ラベルにマッピングする、一般的に未知のラベリング関数を近似するラベルとして使用され得るように、例えば確率的勾配降下法またはその変形に基づいて、一緒に訓練することができる。
【0083】
図2は、一例による、変分量子回路12(VQC)と、多層パーセプトロン(MLP)として実装された機械学習モデル14とを備える別のハイブリッド量子古典計算システム10を概略的に示す。入力特徴ベクトル16に符号化された入力データは、機械学習モデル14および変分量子回路12に並列に流入し、次いで結合されて出力20として使用され、出力の結合は、ラベリングモジュール18を実装する。結合は、訓練可能な重みを有する重み付き線形加算とすることができ、これにより、最終出力20に対する変分量子回路12および機械学習モデル14の寄与を決定し得る。
【0084】
図示の例で使用される変分量子回路12は、変分量子回路12を再アップロードする一般化されたデータであり、K個の量子ビット22が状態
【数4】
で初期化され、次いでユニタリU0,…,L(w0,…,L)によって記述される一連の変分ゲート24(層)およびユニタリS1,…,L(x)によって与えられる符号化ゲート26(層)が交互に適用される。符号化層Sは、入力特徴{x,…,x}を取り、その後量子ビット22の状態に適用されるユニタリ変換においてこれらを符号化する。変分層Uは、ネットワークの量子状態に適用することができる演算子として変分量子回路12モデルパラメータをカプセル化するユニタリであり、各々が複数の値を含み得る、すなわちwがベクトルであり得る変分パラメータw0,…,Lによってパラメータ化される。最後に、量子ビット22の量子状態は、量子情報がM個の古典出力に分解され、回路
【数5】
の期待値を取ることによって第1の出力q1,…,Mにマッピングすることができるように、少なくとも1つの検出器28によって測定され、ここで|Ψ(x,θ)>は測定前の量子回路の状態を示し、xは入力特徴ベクトルであり、θは変分パラメータである。
【0085】
変分量子回路12の古典出力q1,…,Mの数M、および量子ビット22の数Kは、出力ラベル38を決定するために量子ビット22のいくつかを測定すれば十分であり得るので、同じである必要はない。
【0086】
並行して、完全接続MLPはまた、入力層32にN個の特徴を取り込み、その出力はサイズFの隠れニューロン34の単一の層に渡すことができ、これは、サイズNxFの重み行列で入力特徴ベクトル16を乗算することによって実施することができ、各層kの各人工ニューロンjに関連付けられた重み
【数6】
がそれぞれの入力iに作用する。次いで、バイアスbがこれらの値に適用されてもよく、結果は活性化関数を使用してスケーリングされてもよく、例えば、
【数7】
ここでaは先行する層の活性化であり、σは、ReLU、ロジスティック、シグモイド、もしくは双曲線正接関数、または当該技術分野で既知の任意の他の非線形活性化関数など、任意の適切な活性化関数であり得る。非線形活性化関数は、他の線形システムに非線形性の尺度を提供することができる。ニューロン34の隠れ層内の人工ニューロンの活性化hは、{c,…,c}で示されるM個の出力を取得するために、(異なる活性化関数であってもよい)それら自体の重み、バイアス、および/または活性化関数を有し得る、出力層36の人工ニューロンにさらに伝搬することができる。
【0087】
変分量子回路12の出力{q1,…,M}は第1の出力を形成し、これは、出力ラベル38としての出力o,…,oを形成するために、例えば2対1線形重み層を使用して、機械学習モデル14の出力{c,…,c}によって形成された第2の出力と結合することができる。例えば、変分量子回路12の第1の出力および機械学習モデル14の第2の出力は、
【数8】
に従って結合することができ、M個の出力の全てについても同様であり、ここで({s},{s})は訓練可能な結合パラメータである。
【0088】
図3は、反復訓練プロセスのステップの例に従ってハイブリッド量子古典計算システム10を訓練するための方法のフローチャートを示す。方法は、サンプルデータセットの入力特徴ベクトル16を変分量子回路12および機械学習モデル14に提供するステップ(S10)と、第1の出力および第2の出力をラベリングモジュール18に提供するステップ(S12)とを含む。方法は、入力特徴ベクトル16の出力ラベルのコスト関数の値に基づいて、変分パラメータ、機械学習パラメータ、および訓練可能な結合パラメータのパラメータ更新を決定するステップ(S14)をさらに含む。
【0089】
ハイブリッド量子古典計算システム10は、複数のサンプル入力特徴ベクトル16および対応するサンプル出力ラベル38を含み得る、サンプルデータの訓練データセットに基づいて訓練することができる。最初に、ハイブリッド量子古典計算システム10の全ての訓練可能パラメータ、すなわち変分パラメータ、機械学習モデル14の機械学習パラメータ(例えば、多層パーセプトロンの重みおよびバイアス)、ならびに結合パラメータが、例えばランダム値として初期化され得る。さらに、出力ラベル38の品質を定量化するために、平均二乗誤差(MSE)などのコスト関数、すなわちコスト関数が選択されてもよい。
【0090】
続いて、サンプル入力特徴ベクトル16がハイブリッド量子古典計算システム10に渡されてもよく、コスト関数の勾配が、ハイブリッド量子古典計算システム10によって生成された出力ラベル38とサンプル出力ラベルとの間のMSEに基づいて追跡されてもよい。勾配は、ネットワーク内の全てのパラメータに関して決定されてもよく、全てのデータ点の平均勾配は、例えば適応モーメント推定アルゴリズム(Adam)などの最適化アルゴリズムに基づいて、訓練可能パラメータを更新するために使用されてもよい。反復訓練プロセスは、例えばコスト関数が特定の値に到達するか、プラトーに到達するか、またはパラメータ空間内の点の周りのループに陥った場合、訓練中の任意の時点で終了することができる。当業者は、各反復ステップでコスト関数を評価する必要はないが、訓練中に勾配を計算すれば十分であり得ることを理解するだろう。
【0091】
変分量子回路12は、訓練データセットのサンプルデータにわたってフーリエ級数を適合させることができる。
【0092】
【数9】
【0093】
ここで、フーリエ級数の次数Lは、変分量子回路12の一部として量子ビット22に符号化ゲート26を複数回適用することによって増加させることができる。同時に、機械学習モデル14は、結合訓練がラベリング関数を効率的に近似し得るように、一般的に未知のラベリング関数の非高調波成分を適合させることができる。
【0094】
ハイブリッド量子古典計算システム10の構成および訓練のハイパーパラメータは、ラベリング関数に基づいて選択することができる。
【0095】
図4は、一例による、並列の変分量子回路12および機械学習モデル14(並列ハイブリッド回路、PHN)を有するハイブリッド量子古典計算システム10を構築するためのステップを示す。
【0096】
ステップは、結合パラメータとして重み係数s,sの学習率を選択するステップを含み、学習率は、機械学習パラメータおよび/または変分パラメータに対して異なる学習率であってもよい。さらに、図示の例示的なステップは、訓練中に訓練可能パラメータを最適化するための最適化アルゴリズムを選択するステップを含む。
【0097】
さらに、ステップは、変分量子回路12(VQC)および機械学習モデル14、例えば単一の隠れ層を有する完全接続多層パーセプトロン(MLP)について、ハイパーパラメータを選択するステップを含む。
【0098】
変分量子回路12では、適切なハイパーパラメータを選択するためのステップは、データ再アップロードの一部として並列に繰り返されるかまたは実行され得る、符号化ゲート26としての単一量子ビット回転を介した角度埋め込みなど、符号化ルーチンの選択と、例えば変分層に関する、変分ゲート24の配置および数の設計とを含む。さらに、測定演算子、例えば量子ビット状態のZ軸上への投影が選択され、変分パラメータの学習率を選択することができる。
【0099】
機械学習モデル14では、適切なハイパーパラメータを選択するためのステップは、例えば訓練データセットおよびラベリング関数の詳細に基づいて、少なくとも1つの隠れ層34内の人工ニューロンの数を選択するステップを含むことができる。さらに、多層パーセプトロンの異なる層について活性化関数が選択されてもよく、例えば、隠れ層34にシグモイドまたはロジスティック活性化関数が選択されて出力層36にReLU関数が選択されてもよく、またはその逆であってもよく、機械学習パラメータの学習率が選択されてもよい。
【0100】
変分量子回路12を実装することの一部として、初期回路定義が量子回路実装デバイスに渡されてもよく、これは、量子ハードウェアのために変分量子回路12を最適化するなどのために、量子デバイスのアーキテクチャに基づいて変分量子回路12を適応させることができる。例えば、初期変分量子回路12がCNOT演算を指定するとき、ハードウェア実装は、単一量子ビット状態回転とマルチ量子ビット状態回転との結合を含み得る。さらに、ハードウェア効率の良い量子ゲートを有する変分量子回路12を実装するなどのために、複数のゲートを結合して量子ゲートの異なる配置にしてもよい。
【0101】
当業者は、ステップが説明目的のみのために示されており、部分的にのみ、または異なる順序で実行されてもよく、例えば学習率および/または最適化アルゴリズムが、最後のステップとして、または変分量子回路12のハードウェア実装の前に選択されてもよいことを理解するだろう。ハイブリッド量子古典計算システム10の構築後に、システム10は、ラベリング関数を近似するように訓練されてもよい。
【0102】
図5は、一例による、多層パーセプトロンとして実装された、並列の変分量子回路12および機械学習モデル14を有するハイブリッド量子古典計算システム10を訓練するためのフローチャートを示す。
【0103】
フローチャートは、変分量子回路12および機械学習モデル14の出力を線形結合するための結合パラメータを形成する、変分量子回路12(VQC)、機械学習モデル14、および訓練可能な重み係数のパラメータを初期化するステップで始まる。後続のステップは、ハイブリッド量子古典計算システム10によって生成された出力ラベル38を、平均二乗誤差(MSE)などの訓練データセットのサンプルラベルと比較するための、比較(コスト)関数の選択を含む。
【0104】
次いで、訓練アルゴリズムは、訓練データセットの入力特徴ベクトル16「x」および対応するサンプルラベル「y」を含むデータ点を反復的に選択し、それを変分量子回路12および機械学習モデル14に並列に渡し、そこでデータ点を個別に処理してそれぞれの出力を返す。
【0105】
機械学習モデル14は、入力特徴ベクトル16をその入力層32に渡し、その出力層36からの出力を回収する。変分量子回路12は、選択された符号化ルーチンを使用して入力特徴ベクトル16を符号化し、Z軸投影に基づいて、選択された測定演算子の期待値、例えば「0」または「1」状態にある量子ビット22の期待値を測定する。
【0106】
予測は、訓練可能な重みに従って変分量子回路12および機械学習モデル14の出力を線形結合することによって出力ラベル38として得られ、予測された出力ラベル38は、訓練データセットのサンプルラベル「y」と比較される。
【0107】
さらに、比較値(コスト)の勾配は、一部または全ての訓練可能パラメータに対して決定され得る。その後、例えば訓練データセットの全てのデータ点が渡されるまで、次のデータ点が処理され得る。
【0108】
計算された勾配に基づいて、処理されたデータ点の平均勾配を決定することができ、選択された最適化アルゴリズムおよび選択された学習率に基づいて訓練可能パラメータを更新するために使用することができ、これにより、訓練の1つのエポックを終了することができる。
【0109】
その後、訓練は、例えばパラメータ更新がもはや比較値を改善しないと判定されるまで、所定の数のエポックまで、または所定の比較値に到達するまで、最初のデータ点から再開することができる。
【0110】
図6Aは、ハイブリッド量子古典計算システム10で近似される単純なラベリング関数の一例を示す。ラベリング関数は、高周波摂動を有する単一周波数正弦関数であり、例は関数f(x)=sin(x)+0.05sin(8x)+0.03sin(16x)+0.01sin(32x)で生成され、ハイブリッド量子古典計算システム10を訓練するための訓練データセットとして、100個の均等に離間したデータサンプル(白丸)をこの分布から取った。サンプルは、ハイブリッド量子古典計算システム10の入力特徴として機能するために-1から1の間になるようにスケーリングされ、関数値(Y)は、それぞれの入力特徴xのサンプルラベルとして記録される。
【0111】
図6Bは、図6Aに示されるラベリング関数を近似するためのハイブリッド量子古典計算システム10の概略的な例を示す。ハイブリッド量子古典計算システム10は、本発明者らによってシミュレートされた量子デバイスに実装された変分量子ネットワーク12と、古典処理システムに実装された機械学習モデル14とを備える。
【0112】
変分量子回路12は、第1の出力30,qoutを生成するために量子状態がアダマールゲートを介して検出器28に渡される前に、変分パラメータw,w,wによってパラメータ化された複数の変分ゲート24と、角度埋め込みを介して入力特徴xを符号化する符号化ゲート26とが作用する、単一量子ビット22を備える。
【0113】
並行して、完全接続多層パーセプトロン(MLP)として実装された機械学習モデル14もまた入力層32に入力特徴xを取り込み、その出力特徴は隠れニューロン34の単一の層に渡され、そこで入力特徴xは、重みθ0,0,…,θ0,255で乗算され、バイアスb,…,b255に加算され、本例ではReLU関数によって実装される活性化関数に基づいて修正される。隠れニューロン34の結果的な活性化は、出力層36内で第2の出力coutを生成するために結合される前に、重みθ1,0,…,θ1,255で乗算される。
【0114】
続いて出力qout,coutは、入力特徴(x)に基づいて関数(Y)を示す出力ラベル38を取得するために、結合パラメータs,sに基づいて結合することができる。
【0115】
続いてハイブリッド量子古典計算システム10の個々の構成要素は、変分パラメータ(w,w,w)と機械学習パラメータ(θ0,0,…,θ0,255,b,…,b255,θ1,0,…,θ1,255,)との異なる学習率について訓練され、サンプルラベルと出力ラベル38との間の最終比s/sおよび平均二乗誤差(損失)が記録される。
【0116】
図7Aは、図6Aの関数を予測するために図6Bのハイブリッド量子古典計算システム10を訓練するときに得られた機械学習パラメータの学習率の関数としての最終比を示すが、変分パラメータの学習率は0.01で固定されたままである。結合パラメータは、機械学習パラメータと同じ速度で学習され、すなわち同じ更新ステップサイズで更新され、ハイブリッド量子古典計算システム10の訓練可能パラメータの一部を形成する。図7Bは、最終比の関数としての損失(平均二乗誤差)を示す。
【0117】
図7Aからわかるように、最終比は、機械学習パラメータおよび結合パラメータの学習率の選択によって影響を受け、高い訓練率(0.01超)および低い訓練率(10-5未満)の両方で低い(およそ0.01未満)。学習率の中間値では、変分量子回路12および機械学習モデル14の両方が最終出力ラベル38に寄与するように比が増加する(0.01超)。
【0118】
図7Bからわかるように、およそ0.07の中間比で最も低い損失が得られ、変分量子回路12と機械学習モデル14との最適な組み合わせが出力ラベル38の最良の近似を生み出すことを示しており、これは(相対)学習率の適切な選択によって見出すことができる。
【0119】
図8は、変分量子回路12のみ(点線)、機械学習モデル14のみ(破線)、およびハイブリッド量子古典計算システム10(実線)の訓練中の損失の発展を示す。
【0120】
曲線からわかるように、変分量子回路12の平均二乗誤差は、いくつかの訓練エポックのみ(500エポック未満)の後にプラトーに到達するが、機械学習モデル14の平均二乗誤差は、3000エポック後にのみプラトーに到達する。ハイブリッド量子古典計算システム10を形成する結合された変分量子回路12および機械学習モデル14は、約500エポック後に個々の構成要素よりも低い平均二乗誤差に到達するが、経時的に改善し続ける。
【0121】
結果として、個別に訓練されたとき、変分量子回路12の高速収束が、訓練中のハイブリッド量子古典計算システム10の最小値の検出を妨げないように、相対学習率のバランスを取ることによって最適な訓練を得ることができると推論することができる。
【0122】
図9A図9Dは、図6Aの関数を予測するために図6Bのハイブリッド量子古典計算システム10を訓練しているときに得ることができる、ハイブリッド量子古典計算システム10およびその構成要素によるラベリング関数の最適予測を示す。図9Aは、近似される元のラベリング関数(実線)を再現している。図9Dは、最適な学習率で訓練されたハイブリッド量子古典計算システム10の予測を示す。図9Bおよび図9Cは、訓練データセット内の100サンプルに基づいて出力ラベル38を近似するように個別に訓練されたときの、変分量子回路12(点線)および機械学習モデル14(破線)のみを使用して取得可能な最良の近似を示す。
【0123】
変分量子回路12によって生成される出力ラベル38は、いかなる高周波摂動も考慮しない単一周波数正弦関数である。機械学習モデル14によって生成された出力ラベル38は、ラベリング関数の概略を等しく近似することができるが、最も高い類似性は、変分量子回路12および機械学習モデル14を組み合わせたハイブリッド量子古典計算システム10を使用して得られる。
【0124】
図10A図10Bは、0.007の機械学習パラメータおよび結合パラメータの最適な学習率でのハイブリッド量子古典計算システム10の訓練中のエポックの関数としての比および損失の発展を示し、変分パラメータは0.01の学習率で学習される。比は最初に約0.03から約0.005に減少するが、損失は急速に低下する。続いて、比は再び増加するが、損失は減少し続け、損失は約0.08の最終比で最小になる。
【0125】
図11は、入力特徴ベクトル16の2つの入力特徴x,xを単一の出力ラベル38にマッピングするラベリング関数を近似するためのハイブリッド量子古典計算システム10の別の例を示す。ハイブリッド量子古典計算システム10は、図6Bのハイブリッド量子古典計算システム10と似ており、対応する要素は同じ参照符号で示され、その説明は繰り返されない。
【0126】
変分量子回路12は2つの量子ビット22を備え、複数の変分ゲート26および符号化ゲート24は、それぞれの量子状態に対して作用する。量子ビット22はCNOT演算40によってもつれ、最終的に、変分量子回路12の出力qを決定するために量子ビット22のうちの1つの状態が複数回測定され、この状態は、出力ラベルoを生成するために、機械学習モデル14として単一の隠れ層34を有する完全接続多層パーセプトロン(MLP)の出力cと結合される。MLPで利用される活性化関数を、第1の層および第2の層のReLUおよびシグモイドとしてそれぞれ選択した。
【0127】
ラベリング関数f(x,x)=sin(x)+sin(x)+0.8sin(x+x)+0.3sin(x-x)+0.09sin(8x+4x)+0.05sin(16x-12x)+0.04sin(12x+8x)を予測するためにハイブリッド量子古典計算システム10を訓練し、これは粗調和構造(最初の4項)ならびに高周波ノイズ(最後の3項)を含み、変分パラメータには0.01、他の全ての訓練可能パラメータには0.001の学習率を使用した。さらに、10エポックごとにγ=0.99で全ての学習率を乗算する学習率スケジューラでの訓練中に、Adamオプティマイザを使用した。ラベリング関数からの100個の等距離点から訓練データセットを構築した。
【0128】
図12Aは、等高線プロットとしてラベリング関数を示し、図12Bは、自身でラベリング関数を近似するように訓練されたときに図11に示される変分量子回路12によって生成される入力特徴x,xの関数として出力ラベル38を示し、図12Cは、自身でラベリング関数を近似するように訓練されたときに図11に示される機械学習モデル14によって生成された結果を示し、図12Dは、図11のハイブリッド量子古典計算システム10によって生成された出力を示す。等高線は、一定値を有する線を表し、同心円は、関数の強度の増加を示し、点線は負の値を示す一方で実線は正の値を示す。
【0129】
変分量子回路12の予測は、式(4)に従って平滑で凸状であり、機械学習モデル14は、ギザギザの形状を有するラベリング関数を近似するが、これはラベリング関数とあまり一致しない。両方の近似器を利用して、ハイブリッド量子古典計算システム10は、追加されたギザギザの縁を有する調和関数の混合を生成する。
【0130】
図13は、変分量子回路12(点線)自体、機械学習モデル14(破線)自体、およびハイブリッド量子古典計算システム10(実線)の訓練中のエポックの関数としての損失の発展を示す。
【0131】
曲線からわかるように、変分量子回路12は、いくつかの訓練エポックのみ(500エポック未満)の後にプラトーに到達するが、機械学習モデル14は、3000エポック後にのみプラトーに到達し、損失は、変分量子回路12(点線)自体のときよりもはるかに高い。
【0132】
ハイブリッド量子古典計算システム10を形成する結合された変分量子回路12および機械学習モデル14は、個々の構成要素よりも低い損失に迅速に到達するが、経時的に改善し続け、これは、ラベリング関数の低周波成分を迅速に近似する変分量子回路12として理解されてもよく、その一方で、機械学習モデル14は高周波摂動の特性を引き続き学習する。
【0133】
当業者は、ハイブリッド量子古典計算システム10が、例えば変分量子回路12が量子ビット22の増加を伴う可能な内部状態の指数関数的に増加する空間を提供することに起因して、出力ラベル38が大量の入力特徴に依存し得るとき、ならびに問題の基礎となるラベリング関数が高調波特徴および非高調波特徴の混合に関連付けられるときなど、特定のタイプの問題に対して最適に実行し得ることを理解するだろう。
【0134】
図14は、入力特徴ベクトル16「x」および対応する出力ラベル38「y」のデータセットとして提供されるラベリング関数に関してある程度の知識を与えられた、適切な処理ハードウェアを選択する方法のフローチャートを示す。訓練データセットは、機械学習モデル14および/または変分量子回路12のための最適な入力/出力構造に従って正規化することができ、続いて、周期的/高調波特徴の存在に基づいて機械学習パラダイムを選択することができる。
【0135】
データセットが完全に調和している場合、純粋な量子機械学習アルゴリズムは、データセットのための良好なラベリング関数に向かって迅速かつ効率的に収束することができる。データセットに対して特定の量子アーキテクチャが選択されてもよく、訓練された変分量子回路12でラベリング関数を近似するために量子最適化ルーチンが使用されてもよい。
【0136】
データセットがほとんどまたは完全に非調和的である場合、ラベリング関数を近似するために古典的なハードウェアが利用されてもよく、訓練後に機械学習モデル14が得られるように、適切なアーキテクチャおよび最適化ルーチンが選択されてもよい。
【0137】
ラベリング関数が高調波および非高調波/高周波特徴の混合を含む場合、ハイブリッド量子古典計算システム10は、例えば図4のように構築されてもよく、先行する例のように、ラベリング関数を近似するために結合訓練プロセスにおいて最適化されてもよい。
【0138】
当業者は、訓練サンプルの利用可能性または入力特徴ベクトルの複雑さなど、他の要因が決定プロセスを支配するか、または決定プロセスの要因になり得ることを理解するだろう。
【0139】
好適な実施形態の説明および図は、本発明およびこれに関連付けられた有益な効果を説明するのに役立つに過ぎず、いかなる限定も暗示するように理解されるべきではない。本発明の範囲は、添付の請求項によってのみ決定されるべきである。
【符号の説明】
【0140】
10 ハイブリッド量子古典計算システム
12 変分量子回路
14 機械学習モデル
16 入力特徴ベクトル
18 ラベリングモジュール
20 変分量子回路
22 量子ビット
24 変分ゲート
26 符号化ゲート
28 検出器
30 第1の出力
32 入力層
34 隠れ層
36 出力層
38 出力ラベル
40 CNOT演算
図1
図2
図3
図4
図5
図6A
図6B
図7A
図7B
図8
図9A
図9B
図9C
図9D
図10A
図10B
図11
図12A
図12B
図12C
図12D
図13
図14
【外国語明細書】
図1
図2
図3
図4
図5
図6A
図6B
図7A
図7B
図8
図9A
図9B
図9C
図9D
図10A
図10B
図11
図12A
図12B
図12C
図12D
図13
図14