IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 国立大学法人大阪大学の特許一覧

特開2024-164700リカレントニューラルネットワークシステム、プログラム、情報処理方法、情報処理装置及び学習方法
<>
  • 特開-リカレントニューラルネットワークシステム、プログラム、情報処理方法、情報処理装置及び学習方法 図1
  • 特開-リカレントニューラルネットワークシステム、プログラム、情報処理方法、情報処理装置及び学習方法 図2
  • 特開-リカレントニューラルネットワークシステム、プログラム、情報処理方法、情報処理装置及び学習方法 図3
  • 特開-リカレントニューラルネットワークシステム、プログラム、情報処理方法、情報処理装置及び学習方法 図4
  • 特開-リカレントニューラルネットワークシステム、プログラム、情報処理方法、情報処理装置及び学習方法 図5
  • 特開-リカレントニューラルネットワークシステム、プログラム、情報処理方法、情報処理装置及び学習方法 図6
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024164700
(43)【公開日】2024-11-27
(54)【発明の名称】リカレントニューラルネットワークシステム、プログラム、情報処理方法、情報処理装置及び学習方法
(51)【国際特許分類】
   G06N 3/044 20230101AFI20241120BHJP
   G06Q 50/26 20240101ALI20241120BHJP
【FI】
G06N3/044
G06Q50/26
【審査請求】未請求
【請求項の数】10
【出願形態】OL
(21)【出願番号】P 2023080371
(22)【出願日】2023-05-15
(71)【出願人】
【識別番号】504176911
【氏名又は名称】国立大学法人大阪大学
(74)【代理人】
【識別番号】100114557
【弁理士】
【氏名又は名称】河野 英仁
(74)【代理人】
【識別番号】100078868
【弁理士】
【氏名又は名称】河野 登夫
(72)【発明者】
【氏名】清水 雅樹
(72)【発明者】
【氏名】木村 直人
【テーマコード(参考)】
5L049
5L050
【Fターム(参考)】
5L049CC35
5L050CC35
(57)【要約】
【課題】誤差の蓄積が抑制されるリカレントニューラルネットワークシステム、プログラム、情報処理方法、情報処理装置及び学習方法を提供すること。
【解決手段】リカレントニューラルネットワークシステムは、第2時点の外力データと、前記第2時点よりも前の第1時点の隠れ層状態変数と、第1時点の実測データと第1時点の予測データの誤差の入力の下、第2時点の隠れ層状態変数を求め、第2時点の状態変数の下に第2時点の予測データを求めるリカレントニューラルネットワークシステム。
【選択図】図2
【特許請求の範囲】
【請求項1】
リカレントニューラルネットワークシステムであって、
第2時点の外力データと、前記第2時点よりも前の第1時点の隠れ層状態変数と、第1時点の実測データと第1時点の予測データとの誤差が入力の下、第2時点の隠れ層状態変数を求め、第2時点の隠れ層状態変数を下に第2時点の予測データを求める
リカレントニューラルネットワークシステム。
【請求項2】
初期時刻時点の前記隠れ層状態変数を調整パラメータの一部として学習してある
請求項1に記載のリカレントニューラルネットワークシステム。
【請求項3】
実測データが存在しない時点の次時点において、前記誤差の入力を遮蔽し、誤差がゼロの場合に同等となる
請求項1又は請求項2に記載のリカレントニューラルネットワークシステム。
【請求項4】
前記誤差を用いて学習される同期用リカレントニューラルネットワーク、及び、前記誤差を用いず学習される予測用リカレントニューラルネットワークを有し、
所定の時間間隔で、前記同期用リカレントニューラルネットワークの状態変数に基づいて、前記予測用リカレントニューラルネットワークの状態変数を書き換える
請求項1又は請求項2に記載のリカレントニューラルネットワークシステム。
【請求項5】
実測データが存在しない場合、前記同期用リカレントニューラルネットワークへの入力を遮蔽する
請求項4に記載のリカレントニューラルネットワークシステム。
【請求項6】
前記同期用リカレントニューラルネットワーク(式1から式4)からの誤差と、前記予測用リカレントニューラルネットワーク(式5から式8)からの誤差に関する重み付き総和誤差に対して、誤差最小化原理(式9)によりパラメータを調整する
請求項4に記載のリカレントニューラルネットワークシステム。
【数1】

【数2】

【数3】
【請求項7】
実測データの時系列データを取得し、
第2時点の外力データと、前記第2時点よりも前の第1時点の隠れ層状態変数と、第1時点の実測データと第1時点の予測データとの誤差が入力の下、第2時点の隠れ層状態変数を求め、第2時点の隠れ層状態変数を下に第2時点の予測データを求めるよう学習されたリカレントニューラルネットワークに、取得した実測データの時系列データを入力して予測データを出力する
処理をコンピュータに実行させるプログラム。
【請求項8】
コンピュータが、
実測データの時系列データを取得し、
第2時点の外力データと、前記第2時点よりも前の第1時点の隠れ層状態変数と、第1時点の実測データと第1時点の予測データとの誤差が入力の下、第2時点の隠れ層状態変数を求め、第2時点の隠れ層状態変数を下に第2時点の予測データを求めるよう学習されたリカレントニューラルネットワークに、取得した実測データの時系列データを入力して予測データを出力する
情報処理方法。
【請求項9】
実測データの時系列データを取得する取得部と、
第2時点の外力データと、前記第2時点よりも前の第1時点の隠れ層状態変数と、第1時点の実測データと第1時点の予測データとの誤差が入力の下、第2時点の隠れ層状態変数を求め、第2時点の隠れ層状態変数を下に第2時点の予測データを求めるよう学習されたリカレントニューラルネットワークに、取得した実測データの時系列データを入力して予測データを出力する出力部と
を備える情報処理装置。
【請求項10】
第2時点の外力データが入力される入力層と、隠れ層とを備えるリカレントニューラルネットワークシステムの学習方法であって、
前記隠れ層は、前記入力層からの前記第2時点の外力データと、前記第2時点よりも前の第1時点の隠れ層状態変数と、前記第1時点の実測データと該第1時点の予測データとの誤差とが入力され、前記第1時点の隠れ層出力及び前記誤差を用いて学習する学習方法。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、与えられた時系列データから、次以降の時刻に得られるデータを予測するリカレントニューラルネットワークシステム、プログラム、情報処理方法、情報処理装置及び学習方法に関する。
【背景技術】
【0002】
時系列データの生成過程を学習し、過去の時系列データを入力すると将来のデータを予測する学習モデルとして、RNN(Recurrent Neural Network)が提案されている(例えば、特許文献1)。RNNは過去の状態を現在の状態に反映するような再帰的な構造を持っている。RNNは入力データと前の状態を同時に考慮して、次の状態を計算するので、時系列予測に利用できる。
【先行技術文献】
【特許文献】
【0003】
【特許文献1】特開平9-282298号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
しかし、RNNにおいて、状態を定義する状態変数(隠れ層状態変数)の時間発展は実現象の時間発展を近似したものであるため、時系列予測を繰り返し行うと、RNNの状態変数に誤差が蓄積する。このため、長期的な将来予測を目的とするRNNの学習段階において、状態変数の時間発展やデータ出力過程の高精度な学習は困難となる。
【0005】
本発明はこのような状況に鑑みてなされたものである。その目的は、誤差の蓄積が抑制されるリカレントニューラルネットワークシステム、プログラム、情報処理方法、情報処理装置及び学習方法の提供である。
【課題を解決するための手段】
【0006】
本願の一態様に係るリカレントニューラルネットワークシステムは、第2時点の外力データと、前記第2時点よりも前の第1時点の隠れ層状態変数と、第1時点の実測データと第1時点の予測データとの誤差が入力の下、第2時点の隠れ層状態変数を求め、第2時点の隠れ層状態変数を下に第2時点の予測データを求める。
【発明の効果】
【0007】
本願の一態様にあっては、長期的な時系列予測を行う場合でも、誤差の蓄積を抑制しつつ、時系列データの生成過程のモデル化や将来予測が行える。
【図面の簡単な説明】
【0008】
図1】情報処理装置のハードウェア構成例を示すブロック図である。
図2】リカレントニューラルネットワークシステムの構成例を示す説明図である。
図3】学習処理の手順例を示すフローチャートである。
図4】予測処理の手順例を示すフローチャートである。
図5】観測量DBの例を示す説明図である。
図6】パラメータDBの例を示す説明図である。
【発明を実施するための形態】
【0009】
以下実施の形態を、図面を参照して説明する。本明細書で対象とする系について説明する。本明細書では状態変化が以下の式(10)に従う系を対象とする。
【0010】
ht=F(ht-1, at) (t=1, 2, 3,…) … (10)
【0011】
ここで、htは時刻tでの系の全状態、atは系への外力(外力データ)を表す。関数Fはこの系の時間発展を定義する関数である。この系において、式(11)に従う実測データutが得られるとする。関数Gは系の状態に応じて実測データを決定する関数である。
【0012】
ut=G(ht) … (11)
【0013】
本明細書で説明するアルゴリズムは、実測データutと外力データatの時系列データ(t=1, 2, 3,…)が与えられた場合において、関数FやG(又はそれに同相な関数)の近似関数を構築することで、将来予測を行うものである。詳細は後述する。
【0014】
図1は情報処理装置のハードウェア構成例を示すブロック図である。情報処理装置1はサーバコンピュータ、ワークステーション、PC(Personal Computer)等で構成する。情報処理装置1は制御部11、主記憶部12、補助記憶部13、入力部14、表示部15、通信部16及び読み取り部17を含む。各構成はバスBにより接続されている。なお、情報処理装置1を複数のコンピュータからなるマルチコンピュータ、ソフトウェアによって仮想的に構築された仮想マシン又は量子コンピュータで構成してもよい。また、情報処理装置1の機能をクラウドサービスで実現してもよい。
【0015】
制御部11は、一又は複数のCPU(Central Processing Unit)、MPU(Micro-Processing Unit)、GPU(Graphics Processing Unit)等の演算処理装置を有する。制御部11は、補助記憶部13に記憶された制御プログラム1P(プログラム、プログラム製品)を読み出して実行することにより、種々の情報処理、制御処理等を行い、取得部及び出力部等の機能部を実現する。
【0016】
主記憶部12は、SRAM(Static Random Access Memory)、DRAM(Dynamic Random Access Memory)、フラッシュメモリ等である。主記憶部12は主として制御部11が演算処理を実行するために必要なデータを一時的に記憶する。
【0017】
補助記憶部13はハードディスク又はSSD(Solid State Drive)等であり、制御部11が処理を実行するために必要な制御プログラム1Pや各種DB(Database)を記憶する。また、補助記憶部13は同期用リカレントニューラルネットワーク、予測用リカレントニューラルネットワークを記憶する。補助記憶部13は、観測量DB131及びパラメータDB132を記憶する。補助記憶部13は情報処理装置1と別体であって、情報処理装置1に外部接続された外部記憶装置であってもよい。補助記憶部13に記憶する各種DB等を、情報処理装置1とは異なるデータベースサーバやクラウドストレージに記憶してもよい。
【0018】
入力部14はキーボードやマウス等である。表示部15は液晶表示パネル又は有機EL(Electro Luminescence)表示パネル等で構成する。入力部14と表示部15とを一体化し、タッチパネルディスプレイを構成してもよい。なお、情報処理装置1は外部の表示装置(ディスプレイ装置)に表示を行ってもよい。
【0019】
通信部16はインターネットや公衆通信網等のネットワークを介して、他のコンピュータと通信を行う。制御部11が通信部16を用い、ネットワーク等を介して他のコンピュータから制御プログラム1Pをダウンロードし、補助記憶部13に記憶してもよい。
【0020】
読み取り部17はCD(Compact Disc)-ROM及びDVD(Digital Versatile Disc)-ROMを含む可搬型記憶媒体1aを読み取る。制御部11が読み取り部17を介して、制御プログラム1Pを可搬型記憶媒体1aより読み取り、補助記憶部13に記憶してもよい。また、半導体メモリ1bから、制御部11が制御プログラム1Pを読み込んでもよい。
【0021】
図2はリカレントニューラルネットワークシステムの構成例を示す説明図である。リカレントニューラルネットワークシステムは、CRNN(同期用リカレントニューラルネットワーク)とPRNN(予測用リカレントニューラルネットワーク)とを有する。CRNNとPRNNとは、例えば、リカレントニューラルネットワーク(Recurrent Neural Network:RNN)で構成する。図2では、それぞれのリカレントニューラルネットワークCRNNとPRNNとについて、時刻tから時刻t+pまでの間を示し、時系列データについて情報がどのようにネットワークを伝搬するのかを示している。pは要求される予測期間を表す。
【0022】
時刻t(第1時点)における実測データをut、外力データをatと表す。CRNNの時刻tにおける状態変数(隠れ層状態変数)をht *と表し、その状態を引数に関数G(ht *)で出力されるハットつきut *を事後予測データと呼ぶ。ht *は関数F(ht-1 *,att-1 *)で決定される。ここで、δt *は事後予測データの実測データに対する誤差、ハットつきut *- utである。時刻tでutが欠損の場合、δt *は0とする。このため、CRNNの時間間隔は実測データが与えられる時間間隔と一致する必要はない。δt *の入力により状態変数を修正することで、CRNNは状態変数と実現象との同調を長時間保つように学習できる。状態変数の修正に、誤差の成分数が十分でない場合、複数の過去の時刻の誤差を用いる。例えば2時刻分の誤差を用いる場合、ハットつきut-1 *- ut-1の成分とハットつきut *- utの成分を合わせて、δt *とする。
【0023】
PRNNは連続する予測期間における予測データを生成する。PRNNの時刻tにおける状態変数をhtと表し、その状態を引数に前記関数G(ht)で予測データ・ハットつきutが求められる。htは前記関数 F(ht-1,ハットつきat,0)で決定される。ハットつきのatはハットつきat=atあるいは外力データの予測値を表す。予測段階において将来の外力データが得られる場合、学習段階と予測段階のどちらにも、ハットつきatはatそのものを用いる。予測段階において将来の外力データが得られない場合、予測段階ではハットつきatは外力データの予測値とし、学習段階ではatあるいはその予測値の適切な方を用いる。予測期間の終了時には、PRNNの状態変数は同時刻のCRNNの状態変数によって上書きされ、次の予測期間の予測データの生成が行われる。
【0024】
本発明のリカレントニューラルネットワークは、与えられた時系列データより、前記関数F,Gと状態変数の初期値h0 *=h0を推定する時系列モデルである。具体的なモデル例を、以下の式(1)から式(8)に示す。式(1)から式(4)がCRNNの時間発展を示し、式(5)から式(8)がPRNNの時間発展を示す。
【0025】
【数1】
【0026】
【数3】
【0027】
学習段階ではT時刻分の連続する入力データ(実測データ、外力データ等)を本発明リカレントニューラルネットワークに入力して、ネットワークを順伝搬させる。このとき、必要となる予測期間毎に、CRNNの状態変数を用いてPRNNの状態変数を上書きする。図2の例では、式(5)において、pの整数倍となる時刻tでst=1である。
【0028】
前記順伝搬により得られたCRNNの誤差δt *とPRNNの誤差δtを用いて損失関数の最小化より、調整パラメータを求める。前記モデル例において、2乗誤差を損失関数に用いる場合、以下の誤差最小化原理、式(9)により調整パラメータW0,W1,W2,W3,b0,b1及びb2、並びに、状態変数の初期値h0(初期時刻時点の状態変数の値)を得る。学習データに、連続する時系列データが複数ある場合、全ての誤差の総和(重み付き総和誤差)を損失関数とする。
【0029】
【数2】
【0030】
式(9)を解くには、確率的勾配法のアルゴリズム(例えばAdam法)を使用する。調整パラメータW0、W1、W2、W3、b0、b1及びb2、並びに、状態変数の初期値h0を得られれば、学習は終了である。αはCRNNとPRNNの誤差の比を表し、最適化を補助するパラメータである。最終的な目標はα=0での最小化であるが、α=1の方が最小化は容易である。このため、勾配法の進行度合いに応じて、αの値は0から1までの区間で調整する。最も単純には、αはα=0.5(CRNNとPRNNの誤差を同等に扱う)のように固定する。
【0031】
図3は学習処理の手順例を示すフローチャートである。情報処理装置1の制御部11は学習データを取得する(ステップS1)。学習データは、実測データ(ut)および外力データ(at)を含む。制御部11は予測外力(=外力データの予測値)を使用するか否かを判定する(ステップS2)。制御部11は予測外力を使用しないと判定した場合(ステップS2でNO)、処理をステップS4へ進める。制御部11は予測外力を使用すると判定した場合(ステップS2でYES)、すなわちPRNNへの入力を外力データの予測値とする場合、この予測値(=予測外力)を算出する(ステップS3)。この算出には本発明を用いてもよい。制御部11は調整パラメータの初期値設定を行う(ステップS4)。制御部11は、CRNNとPRNNの順伝搬を計算する(ステップS5)。制御部11は、それぞれの誤差(δtとδt *)から損失関数の値を求める(ステップS6)。制御部11は学習を終了するか否かを判定する(ステップS7)。制御部11は、損失関数の値の最小化がこれ以上進まないと判定した場合、終了すると判定する。制御部11は学習を終了しないと判定した場合(ステップS7でNO)、すなわち損失関数の値の最小化が必要と判定した場合、損失関数の調整パラメータに関する勾配を求め、Adam法等の勾配法に従って、調整パラメータを更新し(ステップS8)、処理をステップS5へ戻す。制御部11はステップS5からステップS8の処理を繰り返し、損失関数が最小値となった調整パラメータを求める。制御部11は学習を終了すると判定した場合(ステップS7でYES)、調整パラメータ、状態変数の初期を、補助記憶部13に記憶し(ステップS9)、処理を終了する。
【0032】
予測段階では状態変数の時間発展関数Fと予測データの出力関数Gに関する調整パラメータは、学習段階で得たものを固定して用いる。時刻t+1(次時点、第2時点)から時刻t+pまでの予測を行う場合、時刻tまでの入力データを用いて状態変数の初期値h0のみを前記勾配法の最適化により求める。このh0=h0 *からCRNNの順伝搬を計算し、予測時刻直前の状態変数ht *を得る。次に、状態変数の初期値をht=ht *として、PRNNを時刻t+1から時刻t+pまで順伝搬させて、時刻t+1から時刻t+pまでの予測データを得る。
【0033】
続く時刻t+p+1以降の予測には以下の手順を行う。時刻t+1から時刻t+pまでの間に得られた入力データ(実測データと外力データ)を用いて、状態変数ht *からCRNNを時刻t+1から時刻t+pまで順伝搬させ、状態変数ht+p *を計算する。次に、状態変数の初期値をht+p =ht+p *と上書きして、PRNNを時刻t+p+1から時刻t+2pまで順伝搬させて、時刻t+p+1から時刻t+2pまでの予測データを得る。時刻t+2p+1以降の予測にも同様な処理を繰り返し行う。状態変数の初期値h0は新たな入力データが得られる度に求め直すことも可能である。
【0034】
図4は予測処理の手順例を示すフローチャートである。制御部11は、過去の入力データ(実測データと外力データ)を取得する(ステップS21)。制御部11は、状態遷移関数と予測データ出力関数に関するパラメータを学習段階で算出したものに固定し、入力データの下で、最適な状態変数の初期値h0を求める(ステップS22)。制御部11は、この状態変数の初期値から、CRNNを順伝搬させ、最新時刻の状態変数を計算する(ステップS23)。制御部11は、未来の時刻において、PRNNへ入力する外力データが取得できるか否かを判定する(ステップS24)。制御部11は外力データを取得可と判定した場合(ステップS24でYES)、処理をステップS26へ進める。制御部11は外力データを取得不可と判定した合場合(ステップS24でNO)、予測外力データを取得する(ステップS25)。制御部11は、外力データあるいは予測外力データを入力して、PRNNを必要時刻分(p時刻分)だけ順伝搬させ、予測データを計算する(ステップS26)。制御部11は終了するか否かを判定する(ステップS27)。制御部11は終了しないと判定した場合(ステップS27でNO)、p時刻分経過後、この間の入力データを追加取得する(ステップS28)。制御部11はh0の再計算が必要か否かを判定する(ステップS29)。制御部11は、取得した過去の時刻数が少ない場合、h0の再計算が必要と判定する。制御部11はh0の再計算が必要と判定した場合(ステップS29でYES)、処理をステップS22ヘ戻し、追加した入力データも含めてh0の最適化をやり直す。制御部11はh0の再計算が必要でないと判定した場合(ステップS29でNO)、処理をステップS23へ戻す。制御部11は終了すると判定した場合(ステップS27でYES)、処理を終了する。
【0035】
次に、CRNN及びPRNNを用いた時系列予測について、具体例を説明する。時系列予測の例として、ある河川の1時間毎の水位変化予測とする。日々、23時までの入力データの下で、翌0時から23時までの水位を1時間毎に予測する。河川の水位は、流域の雨量や、河口近辺であれば潮位に影響されるため、外力データは流域における複数地点の雨量、及び、河口近辺での潮位とする。予測段階のPRNNに外力データの観測量を用いることはできないため、雨量、潮位は予測値を求める必要がある。雨量、潮位について、本発明ネットワークを入力外力データ無しで用いることで、予測外力を得ることが可能である。例えば、格子上地点に配置された雨量の実測時系列データを与えた下で、各格子点に状態変数を定義した本発明ネットワークを用いる。状態変数の時間発展や予測雨量の出力関数は、近傍地点のみが影響する仮定の下、畳み込み層を用いることで調整パラメータを削減できる。学習段階において、PRNNに入力する雨量と潮位は、実測データと予測データのどちらも用いることが可能である。実現象のモデル化を重要視する場合は実測データを用い、予測性能を重要視する場合は予測データを用いる。CRNNに入力する雨量と潮位は、学習段階と予測段階ともに観測された雨量と潮位を用いる。
【0036】
図5は観測量DBの例を示す説明図である。観測量DB131は時系列データを記憶する。観測量DB131は予測対象となる観測量、外力に相当する観測量を記憶する。観測量DB131は、日付列、時刻列、水位列、雨量列及び潮位列を含む。日付列は測定日を記憶する。時刻列は測定時刻を記憶する。水位列は複数の列を含む。各列の名称は河川水位の観測所の名称となっており、各観測所での水位を記憶する。河川の水位とは、基準面から測った河川の水面の高さをいう。「基準面」の標高は、それぞれの水位観測所ごとにあらかじめ測量し、定められている。雨量列は複数の列を含む。各列の名称は雨量計が設置されている地点名となっており、各地点での雨量の観測値を記憶する。ここでは、直前の1時間の雨量を記憶するが、直前の10分間雨量とすることで、より瞬間的な外力データを用いてもよい。潮位列は複数の列を含む。各列の名称は観測地点の名称となっており、各地点での毎時の潮位を記憶する。例えば、毎時潮位は平滑値の1時間ごとの値である。平滑値とは、実測潮位から副振動や津波、波浪などの周期が約3時間までの成分を除いた潮位である。
【0037】
観測量DB131において、観測量は学習データとして使用される。雨量を実測データ、外力データをなしとし、本発明RNNで雨量予測モデルを作成する。潮位も同様に、潮位データから潮位予測モデルを作成する。雨量や潮位に欠損データが存在する場合、CRNNから出力される事後予測データを用いて欠損値を補間する。補間済の雨量と潮位を外力データ、水位を実測データとして本発明RNNで水位予測モデルを作成する。学習によって得られた、各モデルにおける状態遷移関数と予測データ出力関数の調整パラメータを保存する。以後、連続する時刻で予測を行う場合、CRNNの最終時刻における状態変数(例えば、2023年3月31日23時におけるCRNNの状態変数)を、予測段階の状態変数の初期値として保存する。
【0038】
図6はパラメータDBの例を示す説明図である。パラメータDB132の各セルは一般に複数の成分を含む。予測段階では、パラメータDB132に保存の各パラメータを用いる。例えば、2023年4月1日0時から23時までの24時刻分の予測雨量と予測潮位を、雨量モデルと潮位モデルのPRNNをそれぞれのh0を初期値として順伝搬させることで得る。ここで得られた予測雨量と予測潮位を水位モデルのPRNNに入力し、順伝搬によって同日の24時刻分の予測水位を求めることが出来る。次に、2023年4月1日23時を経過した時点で、同日の24時刻分の水位と雨量と潮位の実測値を取得する。雨量モデルと潮位モデルに予測値と実測値の誤差を入力し、各モデルのCRNNを順伝搬することで、2023年4月1日23時の時点での状態変数を得る。水位モデルには予測値と実測値の誤差と、雨量と潮位の実測値を入力し、CRNNを順伝搬することで、同時点の状態変数を得る。これら最新の状態変数を初期値として、2023年4月1日に行った手順と同様に、2023年4月2日の24時刻分の水位と雨量と潮位の予測値を求めることが出来る。以降、同じ手順を繰り返すことで、翌日の水位予測を継続して行える。
【0039】
本実施の形態は、以下の効果を奏する。CRNNの状態変数の時間発展を、直前の時点での誤差を用いた制御(以下、残差制御)を行っている。具体的には式(1)において、W3δt-1 *の項が相当する。通常のリカレントニューラルネットワークにおいては、直前の時点での実測データを入力することがよくある。残差制御はそれに比べて、少ないパラメータで実現象とモデルとの同期を保ち、状態変数における誤差の蓄積が抑制できる。また、残差がゼロのときには状態変数の時間発展に影響せず、実測データが存在して誤差が求められる時刻のみで状態変数の残差制御を行う。よって、欠損値がある場合はゼロを入力することで、矛盾が生じない。このため、状態変数の時間発展を実測データの時間間隔よりも短くすることが容易である。一般的に、短い時間間隔である方が、状態遷移関数が単純であるため、学習が容易になる。CRNN単体では通常、予測時では残差制御は行えないことに加え、残差最小化からは短期的予測が重要視され、過剰な残差制御に導くことが多い。そこで、残差制御を行わないPRNNを組み合わせて用い、PRNNの長期的な予測誤差の最小化をすることで、最適な残差制御の度合いを自動調整することが出来る。
【0040】
また、状態変数の初期値h0は、式(9)により、誤差が最小化されている。そのため、学習データが短い時系列データの集合である場合や、予測段階で与えられる過去の入力データが短い場合でも、精度のよいモデルの構築や予測が可能となる。
【0041】
各実施の形態で記載されている技術的特徴(構成要件)はお互いに組み合わせ可能であり、組み合わせすることにより、新しい技術的特徴を形成することができる。
今回開示された実施の形態はすべての点で例示であって、制限的なものではないと考えられるべきである。本発明の範囲は、上記した意味ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。
特許請求の範囲には他の2以上のクレームを引用するクレームを記載する形式(マルチクレーム形式)を用いているが、これに限るものではない。マルチクレームを少なくとも一つ引用するマルチクレーム(マルチマルチクレーム)を記載する形式を用いて記載しても良い。
【符号の説明】
【0042】
1 :情報処理装置
11 :制御部
12 :主記憶部
13 :補助記憶部
131 :観測量DB
132 :パラメータDB
14 :入力部
15 :表示部
16 :通信部
17 :読み取り部
1P :制御プログラム
1a :可搬型記憶媒体
1b :半導体メモリ
B :バス
図1
図2
図3
図4
図5
図6