(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2023100137
(43)【公開日】2023-07-18
(54)【発明の名称】予報支援装置、予報支援方法およびプログラム
(51)【国際特許分類】
G06Q 10/04 20230101AFI20230710BHJP
G06N 20/00 20190101ALI20230710BHJP
【FI】
G06Q10/04
G06N20/00 130
【審査請求】未請求
【請求項の数】9
【出願形態】OL
(21)【出願番号】P 2022000596
(22)【出願日】2022-01-05
(71)【出願人】
【識別番号】000004237
【氏名又は名称】日本電気株式会社
(71)【出願人】
【識別番号】504132272
【氏名又は名称】国立大学法人京都大学
(74)【代理人】
【識別番号】100106909
【弁理士】
【氏名又は名称】棚井 澄雄
(74)【代理人】
【識別番号】100134544
【弁理士】
【氏名又は名称】森 隆一郎
(74)【代理人】
【識別番号】100149548
【弁理士】
【氏名又は名称】松沼 泰史
(74)【代理人】
【識別番号】100162868
【弁理士】
【氏名又は名称】伊藤 英輔
(72)【発明者】
【氏名】谷本 啓
(72)【発明者】
【氏名】竹内 孝
【テーマコード(参考)】
5L049
【Fターム(参考)】
5L049AA04
(57)【要約】
【課題】予測を行う際に、予測値が公開されることの実際値への影響を予測値に反映させられるようにする。
【解決手段】予報支援装置が、予報値と、その予報値との予報が行われた場合の実際値とを含む学習データを取得するデータ取得手段と、前記学習データを用いて、予報値と、その予報値との予報が行われた場合の実際値との関係の学習を行う学習手段と、を備える。
【選択図】
図1
【特許請求の範囲】
【請求項1】
予報値と、その予報値との予報が行われた場合の実際値とを含む学習データを取得するデータ取得手段と、
前記学習データを用いて、予報値と、その予報値との予報が行われた場合の実際値との関係の学習を行う学習手段と、
を備える予報支援装置。
【請求項2】
予報が行なわれた場合に予報値と実際値とが一致すると推定される予報値を、前記関係に基づいて算出する不動点計算手段
を更に備える、請求項1に記載の予報支援装置。
【請求項3】
前記学習手段は、学習データに含まれる予報値の分布が、条件パラメタ値と従属関係にある場合または一様分布との比較で偏っている場合に、その予報値の分布の、条件パラメタ値に対する依存性または偏りに対して頑健に、予報値算出のための予報効果モデルの学習を行う、
請求項1または請求項2に記載の予報支援装置。
【請求項4】
前記学習手段は、ある予報値との予報が行われた場合の実際値と、その予報値との予報が行われた場合の前記実際値の推定値との大小関係と、前記実際値と、前記予報値との大小関係とが一致しない場合に評価が低くなる評価関数を用いて、前記学習を行う、
請求項1から3の何れか一項に記載の予報支援装置。
【請求項5】
前記学習手段は、予報値と実際値との関係について、任意の2つの予報値の間の距離よりも、そのそれぞれに対してその予報値との予報が行われた場合に推定される実際値の間の距離が、同等またはより大きい場合に評価が低くなる評価関数を用いて、前記学習を行う、
請求項1から4の何れか一項に記載の予報支援装置。
【請求項6】
前記データ取得手段は、第1の地点についての予報値と、前記第1の地点についてその予報値との予報が行われた場合の、第2の地点における実際値とを含む学習データを取得し、
前記学習手段は、第1の地点についての予報値と、前記第1の地点についてその予報値との予報が行われた場合の、第2の地点における実際値との関係の学習を行う、
請求項1から5の何れか一項に記載の予報支援装置。
【請求項7】
前記データ取得手段は、第1の時刻についての予報値と、前記第1の時刻についてその予報値との予報が行われた場合の、第2の時刻における実際値とを含む学習データを取得し、
前記学習手段は、第1の時刻についての予報値と、前記第1の時刻についてその予報値との予報が行われた場合の、第2の時刻における実際値との関係の学習を行う、
請求項1から6の何れか一項に記載の予報支援装置。
【請求項8】
予報支援装置が、
予報値と、その予報値との予報が行われた場合の実際値とを含む学習データを取得し、
前記学習データを用いて、予報値と、その予報値との予報が行われた場合の実際値との関係の学習を行う、
ことを含む予報支援方法。
【請求項9】
コンピュータに、
予報値と、その予報値との予報が行われた場合の実際値とを含む学習データを取得することと、
前記学習データを用いて、予報値と、その予報値との予報が行われた場合の実際値との関係の学習を行うことと、
を実行させるためのプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、予報支援装置、予報支援方法およびプログラムに関する。
【背景技術】
【0002】
道路交通量などの予測に関する技術が提案されている。例えば、特許文献1に記載の交通予測システムでは、所定タイミングにおける道路への所定の入口からの車両流入量を予測する予測モデルを作成する際に、その入口の周辺の所定の出口からの、所定タイミングより過去の車両流出量を用いて、予測モデルを作成する。そして、この交通予測システムでは、将来の予測対象タイミングにおける所定の入口からの車両流入量を予測する際に、予測モデルと、所定の出口からの予測対象タイミングより過去の車両流出量と、に基づいて、所定の入口からの車両流入量を予測する。
【先行技術文献】
【特許文献】
【0003】
【発明の概要】
【発明が解決しようとする課題】
【0004】
予測を行った場合に予測値を公開するか否かが、予測値に対応する実際値に影響を及ぼすことが考えられる。予測を行う際に、予測値が公開されることの実際値への影響を予測値に反映させることができれば、比較的高精度に予測を行えると期待される。
【0005】
本発明は、上述の課題を解決することのできる予報支援装置、予報支援方法およびプログラムを提供することを目的の1つとしている。
【課題を解決するための手段】
【0006】
本発明の第1の態様によれば、予報支援装置は、予報値と、その予報値との予報が行われた場合の実際値とを含む学習データを取得するデータ取得手段と、前記学習データを用いて、予報値と、その予報値との予報が行われた場合の実際値との関係の学習を行う学習手段と、を備える。
【0007】
本発明の第2の態様によれば、予報支援方法は、予報支援装置が、予報値と、その予報値との予報が行われた場合の実際値とを含む学習データを取得し、前記学習データを用いて、予報値と、その予報値との予報が行われた場合の実際値との関係の学習を行う、ことを含む。
【0008】
本発明の第3の態様によれば、プログラムは、コンピュータに、予報値と、その予報値との予報が行われた場合の実際値とを含む学習データを取得することと、前記学習データを用いて、予報値と、その予報値との予報が行われた場合の実際値との関係の学習を行うことと、を実行させるためのプログラムである。
【発明の効果】
【0009】
本発明によれば、予測を行う際に、予測値が公開されることの実際値への影響を予測値に反映させることができる。
【図面の簡単な説明】
【0010】
【
図1】実施形態に係る予報支援装置の機能構成の例を示す図である。
【
図2】実施形態における、予報値と実際値との関係の例を示す図である。
【
図3】実施形態に係る予報効果モデルの例を示す図である。
【
図4】実施形態における、予測値の分布の違いの例を示す図である。
【
図5】実施形態に係る予報支援装置が、予報値の分布の偏りに対して頑健に予報効果モデルの学習を行うためのモデルの構成の第一例を示す図である。
【
図6】実施形態に係る予報支援装置が、予報値の分布の偏りに対して頑健に予報効果モデルの学習を行うためのモデルの構成の第二例を示す図である。
【
図7】実施形態に係る予報支援装置が、予報値の分布の偏りに対して頑健に予報効果モデルの学習を行うためのモデルの構成の第三例を示す図である。
【
図8】実施形態に係る予報支援装置が、予報値の分布の偏りに対して頑健に予報効果モデルの学習を行うためのモデルの構成の第四例を示す図である。
【
図9】実施形態において予報の対象となる複数の地点の第一例を示す図である。
【
図10】実施形態において予報の対象となる複数の地点の第二例を示す図である。
【
図11】実施形態に係る予報支援装置の構成の例を示す図である。
【
図12】実施形態に係る予報支援方法における処理の手順の例を示す図である。
【
図13】少なくとも1つの実施形態に係るコンピュータの構成を示す概略ブロック図である。
【発明を実施するための形態】
【0011】
以下、本発明の実施形態を説明するが、以下の実施形態は請求の範囲に係る発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。
図1は、実施形態に係る予報支援装置の機能構成の例を示す図である。
図1に示す構成で、予報支援装置100は、通信部110と、表示部120と、操作入力部130と、記憶部180と、制御部190とを備える。制御部190は、データ取得部191と、学習部192と、不動点計算部193とを備える。
【0012】
予報支援装置100は、予報値を算出する。ここでいう予報は、予測結果を公開することである。ここでいう予報値は、予報にて予測結果として公開される値である。
予測が行われた場合に予測結果が公開されるか否かが、予測結果に対応する実際値に影響を及ぼすことが考えられる。例えば、道路交通情報で渋滞箇所を通過する所要時間が予報された場合、予報を知った何人かのドライバーが、渋滞が見込まれる場所または時刻を避けることで、渋滞が予報された場合のほうが予報されない場合よりも、渋滞が緩和されることが考えられる。
【0013】
そこで、予報支援装置100は、予報が行われることの実際値への影響が予報値に反映されるように、予報値を算出する。そのために、予報支援装置100は、予報値と、その予報値との予報が行われた場合の実際値とを含む学習データを用いて、予報が行われたことの影響が反映された予測値を算出するためのモデルの学習を行う。学習データに含まれる実際値として測定値が用いられていてもよい。
【0014】
予報が行われたことの影響が反映された予測値を算出するためのモデルを予報効果モデルとも称する。予報支援装置100は、予報効果モデルを用いて算出する予測値を、予報支援装置100による予報値として採用する。予報効果モデルは、予報値算出のためのモデルの例に該当する。
予報支援装置100によれば、予報が行われることの影響が反映された予報値を算出する点で、予報が行われる場合に、比較的高精度に予報値を算出できると期待される。
【0015】
以下では、予報支援装置100が、道路の混雑度の予報値を算出する場合を例に説明する。例えば、予報支援装置100が、指定された日時かつ指定された場所における渋滞の距離(渋滞の長さ)、または、その渋滞を通過するための所要時間を予報値として算出するようにしてもよい。
【0016】
ただし、予報支援装置100が予報値を算出する対象は、特定のものに限定されず、予報の有無によって実際値が異なり得るいろいろなものとすることができる。
例えば、予報支援装置100が株価または為替相場など金銭的な価格の予報値を算出するようにしてもよい。株価の場合、予報支援装置100が将来の株価予報値を高い価格と算出した場合、株式が買われて株価が上昇することが考えられる。一方、予報支援装置100が将来の株価予報値を安い価格と算出した場合、株式が売られて株価が低下することが考えられる。
【0017】
あるいは、予報支援装置100が所定の病気の感染者数の予報値を算出するようにしてもよい。予報支援装置100が、感染者数予報値を多い人数と算出した場合、感染に対する人々の警戒が高まって感染者数が減少することが考えられる。一方、予報支援装置100が、感染者数予報値を少ない人数と算出した場合、感染に対する人々の警戒が弱まり感染者数が増加することが考えられる。
【0018】
あるいは、予報支援装置100が、選挙の得票数予報値を算出するようにしてもよい。予報支援装置100が、ある候補者の得票数予報値を少ない票数と算出した場合、当選が難しいと判断した有権者が他の候補者に投票して、得票数予報値を少ない票数と算出された候補者の得票数が減少することが考えられる。
【0019】
あるいは、予報支援装置100が、商品の需要予測値を算出するようにしてもよい。予報支援装置100が、ある商品の売り上げ個数を多い個数と算出した場合、その商品が大量に入荷され纏めて陳列されることで目立つようになり、その商品が売れ易くなることが考えられる。さらに、ある顧客がその商品を購入することによって他の顧客への宣伝効果が生じ、その商品がより売れ易くなることが考えられる。
【0020】
通信部110は、他の装置と通信を行う。例えば、通信部110が、予報効果モデルの学習に用いられる学習データを、学習データを記憶するデータベース装置から受信するようにしてもよい。また、通信部110が、予報支援装置100が算出した予報値を、インターネットに接続された機器に送信するなど、予報を行うようにしてもよい。
表示部120は、例えば液晶パネルまたはLED(Light Emitting Diode、発光ダイオード)パネル等の表示画面を備え、各種画像を表示する。例えば、表示部120が、予報支援装置100が算出した予報値を表示するようにしてもよい。
【0021】
操作入力部130は、例えばキーボードおよびマウス等の入力デバイスを備え、ユーザ操作を受け付ける。例えば、操作入力部130が、予報値の算出を指示するユーザ操作を受け付けるようにしてもよい。また、操作入力部130が、予報効果モデルの学習開始を指示するユーザ操作を受け付けるようにしてもよい。
【0022】
記憶部180は、各種データを記憶する。例えば、記憶部180は、予報効果モデルを記憶する。記憶部180は、予報支援装置100が備える記憶デバイスを用いて構成される。
制御部190は、予報支援装置100の各部を制御して各種処理を実行する。制御部190の機能は、例えば、予報支援装置100が備えるCPU(Central Processing Unit、中央処理装置)が記憶部180からプログラムを読み出して実行することで実行される。
【0023】
データ取得部191は、予報効果モデルの学習のための学習データを取得する。特に、データ取得部191は、予報値と、その予報値との予報が行われた場合の実際値とを含む学習データを取得する。例えば、通信部110が学習データを受信する場合、データ取得部191が、通信部110による受信データから学習データを抽出するようにしてもよい。
データ取得部191は、データ取得手段の例に該当する。
【0024】
学習部192は、データ取得部191が取得する学習データを用いて、予報支援装置100について上述した予報効果モデルの学習を行う。予報効果モデルの学習は、予報効果モデルのパラメタ値を設定または更新することであってもよい。
学習部192は、予報効果モデルが、予報値の入力を受けて、その予報値との予報が行われた場合の予測値をより高精度に出力するように、予報効果モデルの学習を行う。学習部192による予報効果モデルの学習は、予報値と、その予報値との予報が行われた場合の実際値との関係の学習ともいえる。
学習部192は、学習手段の例に該当する。
【0025】
不動点計算部193は、予報が行なわれた場合に予報値と実際値とが一致すると推定される予報値を算出する。具体的には、不動点計算部193は、予報効果モデルを用いて、予報効果モデルに入力される予報値と、予報効果モデルが出力する予報値とが一致するような予報値を算出する。予報効果モデルに入力される予報値と、予報効果モデルが出力する予報値とが一致する場合の予報値を、不動点とも称する。
予報効果モデルが出力する予報値は、その予報値との予報が行われた場合の実際値の推定値ともいえる。
不動点計算部193は、不動点計算手段の例に該当する。
【0026】
図2は、予報値と実際値との関係の例を示す図である。
図2のグラフの横軸は、予報値を示す。予報値をy^と表記する。
図2のグラフの縦軸は、予報値がy^であるとの予報が行われた場合の実際値を示す。予報値がy^であるとの予報が行われた場合の実際値をyと表記する。
ここで、予報値y^と実際値yとの間に、式(1)で示される関係がある場合について考える。
【0027】
【0028】
xは、例えば予報の対象の日時および場所など、予報の条件を示すパラメタである。xを条件パラメタとも称する。条件パラメタxの値を条件パラメタ値と称する。条件パラメタ値もxで示す。
条件パラメタ値x、実際値yは、それぞれベクトルであってもよいしスカラであってもよい。条件パラメタ値xまたは実際値yがベクトルである場合、その次元数(ベクトルの要素数)は特定の次元数に限定されない。
予報値y^は、実際値yと同じタイプとする。例えば実際値yがベクトルで表される場合、予報値y^も実際値yと同じ次元数のベクトルで表されるものとする。
【0029】
図2の線L111は、条件パラメタ値xがある値に定められた場合の、予報値y^と実際値yとの関係の例を示している。
線L121は、y=y^となる線を表す。
点P11は、線L111と線L121との交点を表す。点P11における予報値y^を予報値y^
*と表記する。
点P11では、y=y^なので、予報値y^と、予報値y^との予報が行われた場合の実際値yとが一致する。すなわち、予報値y^
*では、式(2)が成立する。
【0030】
【0031】
したがって、予報支援装置100が予報値y^*を正確に求めることができる場合は、予報値y^*との予報を行うことで、正確に予報を行うことができる。例えば、関数fを正確に模擬する予報効果モデルが得られている場合、予報値y^*は、予報効果モデルに入力される予報値y^と、予報効果モデルが出力する予報値(実際値yの推定値)とが一致する予報値y^として得られる。予報支援装置100は、この予報値y^*を出力することで、予報値y^を正確に算出することができる。
この場合の予報値y^*は、不動点の例に該当する。
【0032】
あるいは、予報効果モデルは、不動点に該当する予報値y^
*を求められるものであればよく、式(1)の関数fで例示されるような、予報値y^と実際値yとの関係を正確に表している必要は無い。
図3は、予報効果モデルの例を示す図である。
図3のグラフの横軸は、予報値y^を示す。
図3のグラフの縦軸は、予報値がy^であるとの予報が行われた場合の実際値yを示す。
線L111、線L121および点P11は、
図2の場合と同様である。また、
図2の場合と同様、点P11における予報値y^を予報値y^
*と表記する。
【0033】
線L212は、予報効果モデルの例を表す。
図3の例では、予報効果モデルは、予報値がy^
*となる点P11では予報値y^と実際値yとの関係を正確に模擬する。一方、予報値y^
*以外の予報値y^では、線L111で示される実際値yと、線L212で示される予報効果モデルによる推定値とがずれている。
【0034】
上記のように、予報支援装置100は、予報値をy^
*と算出することで予報値y^を正確に算出することができる。したがって、
図3の例のように、予報値y^
*以外の予報値y^では予報効果モデルによる推定値が正確でない場合でも、予報支援装置100は、予報値y^を正確に算出することができる。
【0035】
予報支援装置100は、関数fで例示される予報値y^と実際値yとの関係を実際に得ることはできない場合にも適用可能である。例えば、予報支援装置100が、道路の混雑度の予報値を算出する場合、特定の日時かつ特定の場所について行われる予報は高々1通りのみである。したがって特定の日時かつ特定の場所について、複数の予報値y^それぞれに対する実際値yを測定することはできない。
【0036】
これに対し、予報支援装置100では、学習部192は、例えば同じ曜日の同じ時刻かつ同じ場所における予報値y^および実際値yなど、予報値y^と実際値yとの関係が同様であると考えられる複数個の、予報値y^と実際値yとの組み合わせを学習データとして用いることができる。これにより、学習部192は、複数の予報値y^それぞれに対する実際値yを用いて予報効果モデルの学習を行うことができる。そして、不動点計算部193は、予報効果モデルに入力される予報値y^と、予報効果モデルが出力する予報値とが一致する予報値y^*を、予報支援装置100による予報値y^として求めることができる。
このように、予報値y^と実際値yとの実際の関係が事後的にも定まらない場合でも、予報支援装置100は、予報が行われることの影響が反映された予報値を算出することができる。
【0037】
学習部192が、予報効果モデルによる予報値と実際値との関係が単調非増加になるように、予報効果モデルの学習を行うようにしてもよい。例えば、学習部192が、式(3)に示される項を含む目的関数を用いて、予報効果モデルの学習を行うようにしてもよい。
【0038】
【0039】
ここで、学習データDが式(4)のように表されるものとする。
【0040】
【0041】
nは、学習データのサンプルを識別する識別番号であり、n=1,2,・・・,Nである。Nは、学習データのサンプルの個数を示す正の整数である。すなわち、学習データDはN個のサンプルを含んで構成される。
xnは、予報の条件を示すパラメタxのサンプルである。y^nは、予報値y^のサンプルである。ynは、予報値y^nとの予報が行われた場合の実際値のサンプルである。
【0042】
式(3)は、予報効果モデルを示す関数fの傾き「∂f/∂y^」が0または負の場合は損失(Penalty)を0とし、傾き「∂f/∂y^」が正の場合はその値をサンプル数Nで除算した値を損失とする損失項を示す。学習部192が、式(3)を含む損失関数を最小化するように予報効果モデルの学習を行うことは、予報効果モデルが単調非増加となるように正規化を行うことに該当する。
【0043】
予報効果モデル(関数f)が単調非増加であることで、y=f(x,y^)と、y=y^との交点が1つのみ存在することとなる。予報支援装置100は、この点で、不動点の予報値y^*を安定的に求めることができる。
このように、学習時には、学習部192が予報効果モデルの学習を行う。運用時には、不動点計算部193が、予報効果モデルにおける不動点の予報値y^*を検出し、この予報値y^*で予報を行うことに決定する。
不動点計算部193が、ニュートン法など公知の解探索方法を用いて不動点の予報値y^*を探索するようにしてもよい。
【0044】
学習部192が、ある予報値y^との予報が行われた場合の実際値yと、その予報値y^との予報が行われた場合の実際値y^の推定値f(x,y^)との大小関係と、実際値yと、予報値y^との大小関係とが一致しない場合に評価が低くなる評価関数を用いて、学習を行うようにしてもよい。
これにより学習部192は、例えば
図3で、実際値y^の推定値f(x,y^)が線L212上で、線L121の左右どちら側にプロットされるかと、予報値y^が線L111上で線L121の左右どちら側にプロットされるかが一致するように、予測効果モデルの学習を行う。この点で、学習部192が、不動点計算部193が不動点を高精度に求められるように、予測効果モデルの学習を行うと期待される。
【0045】
学習部192による予報効果モデルの学習に関して、予報値y^に応じて実際値yが変動するため、学習データとして与えられる予報値y^と、予報支援装置100が出力する予報値とがずれることが考えられる。このずれは、学習データにおける予報値y^の分布と、運用時における予報値y^の分布とのずれに相当し、学習部192による予報効果モデルの学習の精度の低下につながる。
【0046】
図4は、予報値y^の分布の違いの例を示す図である。
図4のグラフの横軸は、予報値y^を示す。
図4のグラフの縦軸は、予報値がy^であるとの予報が行われた場合の実際値y、または、予報値y^の度数を示す。
ここで、条件パラメタ値xがある値のときに、予報値y^と実際値yとの間に線L111で近似される関係がある場合について考える。
【0047】
線L121は、y=y^となる線を表す。
点P11は、線L111と線L121との交点を表す。点P11における予報値y^を予報値y^*と表記する。
白三角形で示される点P21は、予報の効果を考慮しない場合の予報値および実際値の例を示す。白丸で示される点P22は、予報の効果を考慮する場合の予報値および実際値の例を示す。
【0048】
予報の効果を考慮する場合と比較すると、予報の効果を考慮しない場合は、比較的大きい予報値y^で予報が行われ、予報が行われた効果によって実際値yは比較的小さい値となっている。
線L311は、予報の効果を考慮しない場合の、予報値y^の度数分布の例を示している。この場合、予報値y^が比較的大きいところの分布が多くなっている。
【0049】
一方、予報の効果を考慮する場合、比較的小さい予報値y^で予報が行われ、予報値y^とおおよそ同じ実際値yとなっている。
線L312は、予報の効果を考慮する場合の、予報値y^の度数分布の例を示している。この場合、線L311で示される予報の効果を考慮しない場合よりも、予報値y^が小さいところの分布が多くなっている。
【0050】
予報支援装置100が、予報の効果を考慮しない場合の学習データを取得して予報効果モデルの学習を行い、運用時には、予報の効果を考慮した予報値y^を算出する場合、学習時と運用時とで予報値y^の分布のずれが生じる。学習時の予報値y^の分布が線L311で例示されるのに対し、運用時の予報値y^の分布は線L312で例示される。
【0051】
これに対し、学習部192が、この予報値y^の分布のずれに対して頑健(Robust)に、予報効果モデルの学習を行うようにしてもよい。例えば、学習データに示される予測値y^が一様分布であれば、通常の教師あり機械学習として比較的高精度に学習を行えると期待される。このことから、学習部192が、学習データに含まれる予報値y^の分布が一様分布との比較で偏っている場合に、その予報値の分布の偏りに対して頑健に、予報値算出のための予報効果モデルの学習を行うようにしてもよい。
【0052】
ここでいう、予報効果モデルの学習が、予報値y^の分布の偏りに対して頑健であるとは、学習データで与えられる予報値y^の分布のデータ上の偏りが、予報効果モデルが出力する予報値の精度に及ぼす影響が小さいことである。
以下では、モデルを示す関数の表記を用いてモデルを表記する場合がある。例えば、予報効果モデルを、予報効果モデルf、または、予報効果モデルf(x,y^)とも表記する。
予報効果モデルfが出力する、予報値y^との予報が行われた場合の実際値yの推定値を、推定値y^cとも表記する。
【0053】
図5は、予報支援装置100が、予報値y^の分布の偏りに対して頑健に予報効果モデルの学習を行うためのモデルの構成の第一例を示す図である。
図5の例では、予報効果モデルf(x,y^)に加えて基準モデルg(x)が設けられている。
基準モデルgは、条件パラメタ値xの入力を受けて基準値y^
bを出力する。
基準値y^
bは、条件パラメタ値xに応じて定まる値であり、いろいろな予報値y^に対する実際値yの平均的な値を示す。
【0054】
学習部192は、例えば、条件パラメタ値xと、予報値y^と、予報値y^との予報が行われた場合の実際値yとの組み合わせによる学習データのうち、条件パラメタ値xと、実際値yとを用いて、予報値y^を無視して、基準モデルgの学習を行う。ここでの予報値y^を無視することは、予報値y^を基準モデルgへの入力として用いないことである。
このように、学習部192が、実際値yを正解として基準モデルgの学習を行ってもよいことから、基準モデルgの出力値である基準値y^bは、基準モデルgによる実際値yの推定値に該当する。
【0055】
予報効果モデルfの使い方の1つとして、予報値y^と、予報値y^との予報が行われた場合の実際値yとが一致する不動点の予報値y^*を求めることが挙げられる。不動点の予報値y^*は、予報を高精度に行える予報値といえる。
この場合、予報値y^が大きいにもかかわらず、実際値yが小さいこと、および、予報値y^が小さいにもかかわらず、実際値yが大きいことを避けるように予報効果モデルfの学習を行うことが好ましいと考えられる。
【0056】
予報値y^が大きいにもかかわらず、実際値yが小さいこと、および、予報値y^が小さいにもかかわらず、実際値yが大きいことを避けるために、学習部192が、式(5)に示されるERの値が小さいほど評価が高くなる評価関数を用いて、予報効果モデルfの学習を行うようにしてもよい。
【0057】
【0058】
logは、対数関数を表す。Nは、学習に用いられるサンプルの個数を示す。ここでいうサンプルは、上記の式(4)で示されるような、学習データにおける個々のサンプルである。
sは、式(6)のように示される。
【0059】
【0060】
ここでのyは、サンプルに含まれる実際値であり、サンプルによって特定される条件パラメタ値xおよび予報値y^に対する予報効果モデルfの出力の正解値を示す。
基準モデルgは、上述したように、条件パラメタ値xと実際値yとの関係について学習したモデルである。基準モデルgの値は、条件パラメタ値xが定まったときの実際値yの平均として用いられる。
【0061】
Iは、引数値が真の場合に値が1となり、引数値が偽の場合に値が0となる関数である。したがって、I(y-g(x)≧0)の値は、y≧g(x)の場合に1となり、y<g(x)の場合に0となる。
vは、式(7)のように示される。
【0062】
【0063】
σはシグモイド関数を示す。したがって、vは、0<v<1の値をとり、式(5)の「log(v)」は負の値をとる。すなわち、log(v)<0である。また、f(x,y^)-g(x)の値が大きいほど、「log(v)」の値が大きくなる。すなわち、f(x,y^)-g(x)の値が大きいほど、「log(v)」は、大きさ|log(v)|が小さい負の値になる。
【0064】
式(6)より、y<g(x)の場合、s=0であり、式(5)の「s log(v)」の値は0になる。一方、y≧g(x)かつf(x,y^)<g(x)の場合、「s log(v)」の値は、比較的小さい負の値になり、y≧g(x)かつf(x,y^)≧g(x)の場合、「s log(v)」の値は、比較的大きい負の値になる。ここでいう小さい負の値とは、大きさ(絶対値)が大きい負の値であり、大きい負の値とは、大きさ(絶対値)が小さい負の値である。
このように、式(5)の「s log(v)」の値は、y≧g(x)かつf(x,y^)<g(x)の場合に比較的小さい負の値になり、それ以外の場合は0または0に近い負の値(比較的大きい負の値)になる。
【0065】
また、式(7)より、1-vは、0<1-v<1の値をとり、式(5)の「log(1-v)」は負の値をとる。また、f(x,y^)-g(x)の値が大きいほど、1-vの値が小さくなり、「log(1-v)」の値が小さくなる。すなわち、f(x,y^)-g(x)の値が大きいほど、「log(1-v)」は、大きさ|log(1-v)|が大きい負の値になる。
【0066】
式(6)より、y≧g(x)の場合、1-s=0であり、式(5)の「(1-s)(1-log(v))」の値は0になる。一方、y<g(x)かつf(x,y^)≧g(x)の場合、「(1-s)(1-log(v))」の値は、比較的小さい負の値になり、y<g(x)かつf(x,y^)<g(x)の場合、「(1-s)(1-log(v))」の値は、比較的大きい負の値になる。
このように、式(5)の「(1-s)(1-log(v))」の値は、y<g(x)かつf(x,y^)≧g(x)の場合に比較的小さい負の値になり、それ以外の場合は0または0に近い負の値(比較的大きい負の値)になる。
【0067】
したがって、予報効果モデルfの学習に用いられるサンプルのうち、「(y≧g(x)かつf(x,y^)<g(x))または(y<g(x)かつf(x,y^)≧g(x))」となるサンプルの割合が多いほど、ERの値が大きくなる。そこで、学習部192が、ERの値が小さくなるように予報効果モデルf(x,y^)の学習を行うことで、f(x,y^)≧g(x)の場合は、y≧g(x)であり、f(x,y^)<g(x)の場合は、y<g(x)であることが期待される。
【0068】
上記のように、学習部192が、ERの値が小さいほど評価が高くなる評価関数を用いて予報効果モデルfの学習を行うようにしてもよい。
例えば、学習部192が、式(8)に示されるLの値が小さいほど評価が高くなる評価関数を用いて予報効果モデルfの学習を行うようにしてもよい。
【0069】
【0070】
MSEは、モデルfの出力である推定値y^cと、正解値である実際値yとの平均二乗誤差(Mean Squared Error)を示す。Lの値が小さいほど、推定値y^cと実際値yとの平均二乗誤差が小さく、この点で、予報効果モデルfの精度が高い。また、Lの値が小さいほど、ERについて上述したように、f(x,y^)≧g(x)の場合は、y≧g(x)であり、f(x,y^)<g(x)の場合は、y<g(x)であることが期待される。
【0071】
学習部192が、関数値が小さいほど評価が高い評価関数(すなわち、損失関数)を用いて予報効果モデルfの学習を行う場合、Lを項の1つとして含む評価関数、または、Lに正の係数を乗算した項を含む評価関数を用いるようにしてもよい。
学習部192が、関数値が大きいほど評価が高い評価関数を用いて予報効果モデルfの学習を行う場合、-Lを項の1つとして含む評価関数、または、Lに負の係数を乗算した項を含む評価関数を用いるようにしてもよい。
Lの値を算出する処理は、式(8)に示す幾何平均を算出する処理に限定されず、例えば、算術平均を算出する処理、または、重み付き平均を算出する処理等であってもよい。
【0072】
学習部192は、まず、学習データを用いて基準モデルgの学習を行う。基準モデルgの学習を完了した後、学習部192は、学習データのサンプルごとに基準値y^bを算出する。データ取得部191は、そのサンプルに基準値y^bを含めた学習データを生成する。学習部192は、基準値y^bを含む学習データを用いて、予報効果モデルfの学習を行う。
【0073】
あるいは、データ取得部191が、基準値y^bを含む学習データを生成することに代えて、学習部192が、予報効果モデルfの学習にサンプルを適用する毎に、そのサンプルの場合の基準モデルgの出力(すなわち、基準値y^b)を算出するようにしてもよい。
【0074】
このように、予報支援装置100によれば、推定値y^cと基準値y^bとの大小関係と、実際値yと基準値y^bとの大小関係とが一致することが期待される。すなわち、推定値y^cが基準値y^bよりも大きいときは、実際値yも基準値y^bよりも大きいことが期待される。また、推定値y^cが基準値y^bよりも小さいときは、実際値yも基準値y^bよりも小さいことが期待される。
【0075】
予報支援装置100によれば、この点で、推定値y^cと実際値yとの誤差が小さく、推定値y^cを高精度に算出することができる。
また、基準モデルg(x)では予報値y^が引数に含まれないので、上記の大小関係で比較対象となるy^bは、予報値y^の分布にかかわらず一定である。また、基準値y^bの分布が異なる場合でも、上記の大小関係は同様であると期待される。予報支援装置100によれば、この点で、予報値のずれに頑健に予報効果モデルの学習を行うことができる。
【0076】
図6は、予報支援装置100が、予報値y^の分布の偏りに対して頑健に予報効果モデルの学習を行うためのモデルの構成の第二例を示す図である。
図6の例で、モデルφは、条件パラメタ値xと予報値y^との入力を受けて特徴表現を出力する。モデルφをφ(x,y^)とも表記する。モデルφが出力する特徴表現は、モデルφへの入力データである条件パラメタ値xおよび予報値y^の特徴を示すデータである。この特徴表現をΦと表記する。特徴表現は、実数ベクトルで示されていてもよい。この場合の実数ベクトルを特徴ベクトルとも称する。特徴表現を特徴量とも称する。
【0077】
モデルhは、特徴表現Φの入力を受けて推定値y^
cを出力する。モデルhを、h(Φ)とも表記する。
モデルφとモデルhとの組み合わせにて予報効果モデルfを構成する。
図6の例で、学習部192は、モデルφおよびモデルhの学習時と運用時との入力データの分布の違いに対応するように、モデルの学習(特にモデルφの学習)を行う。
【0078】
図4を参照して説明したように、学習データに示される予報値y^の分布と、推定値y^
cで示される運用時の予報値の分布とに、ずれがある。このため、学習データに示される予報値y^以外の予報値y^についても、予報効果モデルfの学習を行えることが好ましい。
そこで、学習部192は、予報値y^について一様分布(均等分布)に基づいて乱択(Random Sampling)された一様分布データを用いてモデルφの学習を行う。一様分布データをy^
randと表記する。
【0079】
学習部192は、学習データに含まれる予報値y^を用いた場合と、一様分布データy^randを用いた場合とで特徴表現Φの分布が同様になるように、モデルφの学習を行う。
学習データに含まれる予報値y^を用いた場合の特徴表現Φは、学習データのサンプルに含まれる、予報値y^と条件パラメタ値xとの組み合わせの入力を受けてモデルφが出力する特徴表現Φである。一様分布データy^randを用いた場合の特徴表現Φは、学習データのサンプルに含まれる、予報値y^と条件パラメタ値xとの組み合わせから、予報値y^を一様分布データy^randに置き換えた組み合わせの入力を受けてモデルφが出力する特徴表現Φである。
ここでは、一様分布データy^randを用いた場合の特徴表現をΦrandと表記して、学習データに含まれる予報値y^を用いた場合の特徴表現Φと区別する。
【0080】
学習部192は、さらに、学習後のモデルφが、学習データのサンプルに含まれる条件パラメタ値xおよび予報値y^の組み合わせの入力を受けて出力する特徴表現Φと、そのサンプルに含まれる実際値yとが紐付けられた学習データを用いて、モデルhの学習を行う。
【0081】
モデルφによって学習データに含まれる予報値y^が、一様分布データy^randの場合の特徴表現Φrandと同様の分布を示す特徴表現Φに変換される。これにより、学習部192は、学習データで示される予報値y^だけでなく、予報値y^の分布全体について、学習データに含まれる予報値y^と実際値yとの関係をモデルhに反映させるように、モデルhの学習を行うことができる。この点で、モデルφとモデルhとの組み合わせによる予報効果モデルfの精度が高いことが期待される。
【0082】
データ取得部191が、一様分布データy^randを取得する方法は、特定の方法に限定されない。例えば、データ取得部191が、予報値y^の一様分布のモデルが乱択するデータを一様分布データy^randとして取得するようにしてもよい。あるいは、データ取得部191が、予報支援装置100のユーザなど人が作成した一様分布データy^randを取得するようにしてもよい。
データ取得部191に代えて学習部192が一様分布データy^randを取得するようにしてもよい。
【0083】
モデルφの学習について、学習部192が、特徴表現Φの分布と特徴表現Φrandの分布との分布間距離が小さくなるように、モデルφの学習を行うようにしてもよい。例えば、学習部192が、特徴表現Φの分布と特徴表現Φrandの分布との分布間距離を含む評価関数を用いて、分布間距離を最小化するように、モデルφの学習を行うようにしてもよい。また、学習部192が、特徴表現Φの分布と特徴表現Φrandの分布との分布間距離が所定の閾値以下になるように、モデルφの学習を行うようにしてもよい。
この場合の分布間距離は、式(9)のように示される。
【0084】
【0085】
DIPM(Integral Probability Metric)は、引数に示される2つの分布の分布間距離を示す。「{φ(x,y^)}」は、学習データに含まれる予報値y^を用いた場合にモデルφが出力する特徴表現Φの集合を示す。「{φ(x,y^rand)}」は、一様分布データy^randを用いた場合にモデルφが出力する特徴表現Φrandの集合を示す。
分布間距離は、2つの分布の一致度合いを示す指標である。学習部192が用いる分布間距離は、特定のものに限定されない。例えば、学習部192が、分布間距離としてMMD(Maximum Mean Discrepancy)またはWasserstein距離を用いるようにしてもよいが、これらに限定されない。
【0086】
上記のように、モデルφは、条件パラメタ値xと予報値y^との入力に対して特徴表現Φを出力する。学習部192は、モデルφの学習を、条件パラメタ値xと学習データに含まれる予報値y^との入力に対してモデルφが出力する特徴表現Φの分布と、条件パラメタ値xと一様分布に基づき乱択された予報値y^randとの入力に対してモデルφが出力する特徴表現Φrandの分布との分布間距離が小さくなるように行う。
【0087】
学習済みのモデルφによれば、学習データに含まれる予報値y^が、一様分布データy^randの場合の特徴表現Φrandと同様の分布を示す特徴表現Φに変換される。これにより、学習部192は、学習データで示される予報値y^だけでなく、予報値y^の分布全体について、学習データに含まれる予報値y^と実際値yとの関係をモデルhに反映させるように、モデルhの学習を行うことができる。この点で、モデルφとモデルhとの組み合わせによる予報効果モデルfの精度が高いことが期待される。
このように、予報支援装置100によれば、予報値y^の分布の偏りに対して頑健に予報効果モデルの学習を行うことができる。
【0088】
図7は、予報支援装置100が、予報値y^の分布の偏りに対して頑健に予報効果モデルの学習を行うためのモデルの構成の第三例を示す図である。
図7の例で、モデルφ
xは、条件パラメタ値xの入力を受けて特徴表現を出力する。モデルφ
xが出力する特徴表現を、Φ
xと表記する。特徴表現Φ
xは、モデルφ
xへの入力データである条件パラメタ値xの特徴を示すデータである。
モデルφ
xを、φ
x(x)とも表記する。
【0089】
モデルφ
y^は、予報値y^の入力を受けて特徴表現を出力する。モデルφ
y^が出力する特徴表現を、Φ
y^と表記する。特徴表現Φ
y^は、モデルφ
y^への入力データである予報値y^の特徴を示すデータである。
モデルφ
y^を、φ
y^(y^)とも表記する。
図7の例では、モデルhは、特徴表現Φ
xと特徴表現Φ
y^との組み合わせによる特徴表現Φの入力を受けて推定値y^
cを出力する。
モデルφ
xとモデルφ
y^とモデルhとの組み合わせにて予報効果モデルfを構成する。
【0090】
学習部192は、特徴表現Φxと特徴表現Φy^とが確率変数として独立になるように、モデルφxおよびモデルφy^のうち少なくとも何れか一方の学習を行う。
これにより、条件パラメタ値xの値に依存しない特徴表現Φy^の分布を得られる。したがって、モデルφy^が、測定データでは条件パラメタ値xとの組み合わせにて得られる予報値y^から条件パラメタ値xに依存しない特徴を抽出して特徴表現Φy^として出力すると考えられる。これにより、学習部192は、学習データで示される条件パラメタ値xごとの予報値y^だけでなく、予報値y^の分布全体について、学習データに含まれる予報値y^と実際値yとの関係をモデルhに反映させるように、モデルhの学習を行うことができる。この点で、モデルφxとモデルφy^とモデルhとの組み合わせによる予報効果モデルfの精度が高いことが期待される。
【0091】
学習部192が、特徴表現Φxと特徴表現Φy^とが確率変数として独立になるように、モデルφxおよびモデルφy^のうち少なくとも何れか一方の学習を行う方法は、特定の方法に限定されない。例えば、学習部192が、HSIC(Hilbert-Schmidt Independence Criterion、ヒルベルト-シュミット独立基準)が小さくなるように、モデルφxおよびモデルφy^のうち少なくとも何れか一方の学習を行うようにしてもよい。
この場合のHSICは、式(10)のように示される。
【0092】
【0093】
「HSIC」は、ヒルベルト-シュミット独立基準の値を示す。「{φx(x)}」は、モデルφxが出力する特徴表現Φxの集合を示す。「{φy^(y^)}」は、モデルφy^が出力する特徴表現Φy^の集合を示す。
HSICによって測られる条件パラメタ値xと予報値y^との独立性が満たされない場合(すなわち、p(x,y^)≠p(x)p(y)の場合)、条件パラメタ値xの下での予報値y^の確立分布は、一様分布にはならない(すなわち、p(y^|x)≠Uniformである)。そこで上記の場合と同様、学習部192が、モデルφy^およびΦxの学習を、それらの出力である表現どうしの分布が独立となるように学習を行うことで、予報値y^の条件パラメタ値xに依存した偏りに対する頑健性が得られると期待される。
【0094】
あるいは、学習部192が、条件パラメタ値xと学習データに含まれる予報値y^との入力に対してモデルφy^が出力する特徴表現Φy^の分布と、条件パラメタ値xと一様分布に基づき乱択された予報値y^randとの入力に対してモデルφy^が出力する特徴表現Φrandの分布との分布間距離が小さくようにする方法以外の方法で、モデルφxおよびモデルφy^のうち少なくとも何れか一方の学習を行うようにしてもよい。
例えば、学習部192が、式(10)に示されるHSICが小さいほど評価が高くなる評価関数を用いて、モデルφxおよびモデルφy^のうち少なくとも何れか一方の学習を行うようにしてもよい。
この場合、条件パラメタ値xと予報値y^との独立性によって、予報値y^の分布の偏りに対するモデルφy^の頑健性が得られる。
【0095】
上記のように、モデルφxは、条件パラメタ値xの入力に対して特徴表現Φxを出力する。モデルφy^は、予報値y^の入力に対して特徴表現Φy^を出力する。学習部192は、特徴表現Φxの分布と、特徴表現Φy^の分布との独立性の評価指標を含む評価関数を用いて、評価指標が示す独立性が高くなるように、モデルφxまたはモデルφyの少なくとも何れか一方の学習を行う。
【0096】
これにより、条件パラメタ値xの値に依存しない特徴表現Φy^の分布を得られる。したがって、モデルφy^が、学習データでは条件パラメタ値xとの組み合わせにて得られる予報値y^から条件パラメタ値xに依存しない特徴を抽出して特徴表現Φy^として出力すると考えられる。これにより、学習部192は、学習データで示される条件パラメタ値xごとの予報値y^だけでなく、予報値y^の分布全体について、学習データに含まれる予報値y^と実際値yとの関係をモデルhに反映させるように、モデルhの学習を行うことができる。この点で、モデルφxとモデルφy^とモデルhとの組み合わせによる予報効果モデルfの精度が高いことが期待される。
このように、予報支援装置100によれば、予報値y^の分布の偏りに対して頑健に予報効果モデルの学習を行うことができる。
【0097】
図8は、予報支援装置100が、予報値y^の分布の偏りに対して頑健に予報効果モデルの学習を行うためのモデルの構成の第四例を示す図である。
図8の例で、モデルqは、条件パラメタ値xおよび予報値y^の入力を受けて、推定値y^
cから基準値y^
bを減算した差に相当する値を出力する。モデルqの出力をr
cと表記する。基準値y^
bを基準モデルgの出力「g(x)」で表して、r
cは、式(11)のように示される。
【0098】
【0099】
モデルqを、q(x,y^)とも表記する。
図8で「+」で示される加算モデルは、基準モデルg(x)の出力と、モデルq(x,y^)の出力とを足し合わせる。加算モデルの出力は、推定値y^
cに該当する。
基準モデルgとモデルqと加算モデルとの組み合わせにて予報効果モデルfを構成する。
この場合の予報効果モデルfは、式(12)のように示される。
【0100】
【0101】
ここで、基準モデルgによる演算は、条件パラメタ値xが示す条件下での、実際値yの条件付き平均と捉えることができ、式(13)のように示される。
【数13】
【0102】
「E」は期待値を示す。「y^~μ(y^|x)」は、予報値y^の分布が、条件パラメタ値xに応じた分布(学習データにおける予報値y^の分布)に従うことを示す。「E[y|x]」は、条件パラメタ値xについて条件付けされた予報値y^に対する実際値yの期待値を示す。
図8の例で、基準モデルgは、理想的には、実際値yのうち、条件パラメタ値xに基づき予報値y^には依存しない部分の値を出力するものと捉えることができる。そして、モデルqは、理想的には、実際値yのうち、条件パラメタ値xおよび予報値y^の両方に依存する部分の値を、基準モデルgの出力に対する補正値として出力するものと捉えることができる。
【0103】
データ取得部191は、式(11)に示されるように、学習データのサンプルに含まれる実際値yから、そのサンプルにおける基準モデルgの出力を減算した値rcを算出し、実際値yを算出した値rcで置き換えた学習データを生成する。ここで、実際値yは、推定値y^cの正解として式(11)に適用されている。
学習部192は、データ取得部191が生成した学習データを用いて、式(11)に示されるように、学習データのサンプルに含まれる実際値yから、そのサンプルにおける基準モデルgの出力を減算した値rcを出力するように、モデルqの学習を行う。
【0104】
ここで、条件パラメタ値x、および、予報値y^の両方の影響を受ける予報効果モデルf全体の学習では、入力データ空間が広く複雑な関数であるため十分なサンプルを得られず高精度に学習を行えないことが考えられる。例えば、
図4を参照して説明したように、学習データに示されない予報値y^について、学習データを十分に反映させることができない、といったことが考えられる。特に、学習時と運用時との予報値y^のずれによって、運用時に決定される予報値y^について、学習データを十分に反映させられないことが考えられる。
【0105】
これに対して、基準モデルgは予報値y^の入力を受けない。また、モデルqは、条件パラメタ値xの影響が一定程度予め除外された値rcを予測することのみが求められることから、予報効果モデルfの場合と比較して簡易な関数で表されるモデルで十分な近似精度を得られると考えられる。この点で、学習部192が、基準モデルgの学習およびモデルqの学習をより高精度に行えると期待される。
【0106】
ここでいう、関数が簡易であるとは、その関数をニューラルネットワークとして表現した場合のパラメタの二乗和が小さいことであってもよい。また、ここでいう、関数が簡易であるとは、小さい定数ρに関してρ-リプシッツ連続な関数であることであってもよい。
また、学習部192は、基準モデルg、予報効果モデルfの学習も教師有り学習で行うことができ、この点でも学習を高精度に行えること、および、学習部192の負荷が比較的小さいことが期待される。
【0107】
学習部192は、まず、学習データを用いて基準モデルgの学習を行う。そして、学習部192は、学習済みの基準モデルgを用いて、学習データのサンプルごとに基準値y^bを算出する。データ取得部191が、そのサンプルの実際値yを差分rcに置き換えた学習データを生成する。学習部192は、実際値yを差分rcに置き換えられた学習データを用いて、モデルqの学習を行う。
【0108】
上記のように、学習部192は、条件パラメタ値xに応じた基準値y^bを、基準モデルgを用いて算出する。データ取得部191は、条件パラメタ値xと、予報値y^と、その条件パラメタ値xおよびその予報値y^に応じた実際値yから基準値y^bが減算された差分rcとを含む学習データを取得する。学習部192は、データ取得部191が取得する学習データを用いて、モデルqの学習を行う。モデルqは、条件パラメタ値xと予報値y^との入力に対して実際値yから基準値y^bが減算された差分rcの推定値を出力する。
推定値y^cは、予報値y^との予報が行われた場合の、実際値yの推定値に該当する。
【0109】
モデルqが、条件パラメタ値xおよび予報値y^の入力を受けて差分rcを出力することで、予報効果モデルfが、条件パラメタ値xおよび予報値y^の入力を受けて推定値y^cを出力する場合よりも、条件パラメタ値xとモデルの出力との相関性が低い(小さい)ことが考えられる。このことから、モデルqでは、予報効果モデルfの場合と比較して簡易な関数で表されるモデルで十分な近似精度を得られると考えられる。
【0110】
また、学習部192は、差分rcを正解として用いる教師有り学習でモデルqの学習を行うことができる。この点で、学習部192がモデルqの学習を比較的高精度に行えると期待される。
また、上記の、式(12)のように、f(x,y^)=g(x)+q(x,y^)の形であって、g(x)がデータ分布上で予報値y^に関して周辺化した条件付き期待値をとったものを推定するように学習される場合、モデルqが基準モデルgの推定誤差に対して頑健であると期待される。「データ分布上で予報値y^に関して周辺化した条件付き期待値をとったもの」は、式(13)の右辺、すなわち、「Ey^~μ(y^|x)[y|x]」を意味する。ここでいう、モデルqが基準モデルgの推定誤差に対して頑健であることは、基準モデルgの推定誤差が、モデルqの推定に及ぼす影響が小さいことである。より具体的には、ここでいう頑健は、基準モデルgの推定値が真の値から微小に変化した場合の、モデルqの推定精度の悪化が小さいことである。
【0111】
また、交通量の予報などの用途では、基準モデルgが出力する基準値y^bは不要であり、モデルqが出力する差分rcがあればよい。この点で、g(x)の推定精度それ自体は問題にならない。
また、基準モデルgについても仮説空間が比較的小さいこと、および、教師有り学習で学習を行えることから、学習部192が基準モデルgの学習を比較的高精度に行えると期待される。この点で、学習部192が、基準モデルgを用いて、式(13)に基づいて基準値y^bを算出する場合、基準値y^bを高精度に計算できると期待される。
このように、予報支援装置100によれば、予報値y^の分布の偏りに対して頑健に予報効果モデルの学習を行うことができる。
【0112】
予報支援装置100が、複数の地点について予報の効果を考慮した予報値の学習を行うようにしてもよい。
図9は、予報の対象となる複数の地点の第一例を示す図である。
図9の例では、地点Aを含む道路と地点Bを含む道路とが並列的に設けられている。車両は、地点Aまたは地点Bの何れか一方を選択的に通過することができ、地点Aと地点Bとは代替関係にある。
【0113】
図9の例で、地点Aの渋滞が予報された場合、何人かのドライバーが、地点Aを回避して地点Bを通過することが考えられる。これにより、地点Aの交通量が減少し、地点Bの交通量が増加する。
このように、2つの地点が代替関係にある場合、ある地点についての予報の効果として、その地点の実際値の増減と、他の地点の実際値の増減とが逆になる。すなわち、予報が行われた地点の実際値が、予報が行われない場合よりも増加する場合、他の地点の実際値は、予報が行われない場合よりも減少する。また、予報が行われた地点の実際値が、予報が行われない場合よりも減少する場合、他の地点の実際値は、予報が行われない場合よりも増加する。
【0114】
場所的な代替関係だけでなく時間的な代替関係も考えられる。例えば、ある地点について夕方の渋滞が予報された場合、何人かのドライバーが、渋滞が解消した後の深夜に、その地点を通過することが考えられる。これにより、夕方の交通量が減少し、深夜の交通量が増加する。
【0115】
図10は、予報の対象となる複数の地点の第二例を示す図である。
図10の例では、地点Aと地点Bとが一本道の道路に含まれている。
図10の矢印の方向に地点Aを通過した車両は、途中で停まる場合および途中で引き返す場合を除いて、地点Bも通過することになる。
【0116】
図10の例で、地点Aの渋滞が予報された場合、何人かのドライバーが、渋滞が予想される時刻に地点Aを通過することを回避することが考えられる。これにより、地点A、B共に交通量が減少する。
図10の例のように一本道の場合だけでなく、地点Aと地点Bとの間に分岐がある場合も、地点Aについての予報の効果が、地点Bの交通量にも影響することが考えられる。
【0117】
データ取得部191は、この場合の入力データとして、式(4)に示される「D={xn,y^n,yn}」で、予報値y^nおよび実際値ynが、それぞれm地点分のデータを示すm次元ベクトルで表されているデータを取得するようにしてもよい。例えば、正の実数をR+と表記して、y^n,yn∈R+
mと表すことができる。
【0118】
学習部192は、上記の式(1)のように「y=f(x,y^)」と表される予報効果モデルfの学習を行う。ここでのyおよびy^は、いずれも、m地点分のデータを示すm次元ベクトルで表される。
予報効果モデルfは、グラフニューラルネットワーク(Graph Neural Network;GNN)を用いて構成されていてもよいが、これに限定されない。
学習部192が、一般的な教師有り学習の手法で、予報効果モデルfの学習を行うようにしてもよい。あるいは、学習部192が、
図5から
図8を参照して説明した何れかの手法で、予報効果モデルfの学習を行うようにしてもよい。
【0119】
また、学習部192が、関数の縮小写像性を課すペナルティを含む目的関数を用いて予報効果モデルfの学習を行うようにしてもよい。Xをn次元の実数ベクトルとして、x,y∈Xとすると、写像F:X→Xが縮小写像であることは、x,y∈Xに対してあるμ(0≦μ<1)が存在し、式(14)が成り立つことと同値である。
【0120】
【0121】
「||・||」は、Xのノルムを表す。
縮小写像では、バナッハの不動点定理により不動点がただ1つ存在し、式(15)で示される反復の収束先として不動点を求めることができる。
【0122】
【0123】
y^(k)は、k回目の繰り返しにおけるy^の値を示す。
例えば、学習部192が、式(16)で示されるペナルティ項を含む目的関数を用いるようにしてもよい。
【0124】
【0125】
Nは、サンプルの個数を表す正の整数である。nは、サンプルを識別する識別番号であり、n=1,2,・・・,Nである。
εは、マージンを表す定数であり、0≦ε<1である。例えば、εの値が0.1に設定されていてもよい。
y^1、y^2は、例えば学習データに含まれる予報値y^nの周囲から正規分布N(y^n,εI)に従ってサンプリングするなど、適当な方法で生成することができる。
【0126】
dとして任意の距離(Norm)を用いることができる。例えば、dとしてL2距離を用いるようにしてもよい。あるいは、dとして次元ごとに重み付けしたLp距離(残差のノルム)を用いるようにしてもよい。
ここで、道路の規模等の要因に応じて、ある地点での予報の効果が、他の地点で拡大されて表れることが考えられる。例えば、幹線道路の予報値を少し大きくすると、と近くの生活道路の混雑度が大きく上がることが考えられる。
このような場合に、予報の効果の影響の度合いの地点毎の違いを距離dに適切に反映させて縮小写像を得易くするために、式(17)に示されるように、地点ごとの車線数wiで重み付けされた距離dを用いるようにしてもよい。
【0127】
【0128】
iは、各地点を識別する識別番号である。
wiは、地点ごとの車線数に応じた重み係数である。
eiは、距離の計算対象となる地点ごとの値を表す。
pは乗数を表す。式(17)では、p乗およびp乗根による距離を用いているが、これに限定されない。
【0129】
不動点計算部193が不動点を求める方法は、上記の式(15)による不動点反復に限定されない。例えば、不動点計算部193が、ニュートン法を用いて不動点を探索するようにしてもよい。あるいは、不動点計算部193が、式(18)を用いたラインサーチにて不動点を探索するようにしてもよい。
【0130】
【0131】
αは、探索最適化のためのスカラの定数係数を示す。
なお、複数の地点のうち予報の対象とならない地点については、その地点の予報値が学習データに含まれていなくてもよい。
また、予報の対象の地点について予報の効果を検討する必要が無く、他の地点のみ予報の効果を検討ればよい場合、予報の対象の地点についての実際値が学習データに含まれていなくてもよい。例えば、A地点について交通量の予報を行って、B地点の交通量をある量にしたく、かつ、予報の精度を求められない場合、A地点の交通量の実際値が学習データに含まれていなくてもよい。
【0132】
不動点計算部193が、上記の式(12)のモデルq(x,y^)を用いて不動点y^*を計算するようにしてもよい。予測値y^に依存しない部分に相当する基準モデルg(x)が除かれている点で、モデルq(x,y^)が比較的簡単なモデルとなり、この点で、不動点計算部193が不動点y^*を高精度に計算できることが期待される。
この場合、学習部192が、モデルq(x,y^)が上述した単調非増加なモデルとなるように、モデルq(x,y^)の学習を行うようにしてもよい。また、学習部192が、モデルq(x,y^)に上記の縮小写像性を課すように、モデルq(x,y^)の学習を行うようにしてもよい。
【0133】
以上のように、データ取得部191は、予報値と、その予報値との予報が行われた場合の実際値とを含む学習データを取得する。学習部192は、得られた学習データを用いて、予報値と、その予報値との予報が行われた場合の実際値との関係の学習を行う。
予報支援装置100によれば、予測を行う際に、予測値が公開されることの実際値への影響を予測値に反映させることができる。すなわち、予報支援装置100によれば、ある予報値との予報が行われることの影響を考慮して予報値を決定することができる。予報支援装置100によれば、この点で、予報を高精度に行うことができる。
【0134】
また、不動点計算部193は、予報が行なわれた場合に予報値と実際値とが一致すると推定される予報値を、予報値と、その予報値との予報が行われた場合の実際値との関係に基づいて算出する。
予報支援装置100が、不動点計算部193が算出する予報値との予報を行うことで、予報値と実際値とが一致することが期待される。予報支援装置100によれば、この点で、予報を高精度に行うことができる。
【0135】
また、学習部192は、学習データに含まれる予報値の分布が、条件パラメタ値と従属関係にある場合または一様分布との比較で偏っている場合に、その予報値の、条件パラメタ値に対する依存性または分布の偏りに対して頑健に、予報値算出のための予報効果モデルの学習を行う。
これにより、予報支援装置100が決定する予報値について、学習時と運用時との予報値のずれの影響を除去または軽減することができる。予報支援装置100によれば、この点で、予報を高精度に行うことができる。
【0136】
また、学習部192は、ある予報値との予報が行われた場合の実際値と、その予報値との予報が行われた場合の実際値の推定値との大小関係と、その実際値と、その前記予報値との大小関係とが一致しない場合に評価が低くなる評価関数を用いて、予測効果モデルの学習を行う。
これにより学習部192が、不動点計算部193が不動点を高精度に求められるように、予測効果モデルの学習を行うと期待される。
【0137】
また、学習部192は、予報値と実際値との関係について、任意の2つの予報値の間の距離よりも、そのそれそれに対してその予報値との予報が行われた場合に推定される実際値の間の距離が、同等またはより大きい場合に評価が低くなる評価関数を用いて、学習を行う。
予報支援装置100によれば、予報効果モデルを縮小写像にて得られることが期待され、不動点が一意に求まることが期待される。予報支援装置100では、この不動点を予報値とすることができる点で、予報を高精度に行うことができる。
【0138】
また、データ取得部191は、第1の地点についての予報値と、第1の地点についてその予報値との予報が行われた場合の、第2の地点における実際値とを含む学習データを取得する。学習部192は、第1の地点についての予報値と、第1の地点についてその予報値との予報が行われた場合の、第2の地点における実際値との関係の学習を行う。
予報支援装置100によれば、ある地点についての予報を、他の地点についての予報の影響を考慮して行うことができる。予報支援装置100によれば、この点で、予報を高精度に行うことができる。
【0139】
また、データ取得部191は、第1の時刻についての予報値と、第1の時刻についてその予報値との予報が行われた場合の、第2の時刻における実際値とを含む学習データを取得する。学習部192は、第1の時刻についての予報値と、第1の時刻についてその予報値との予報が行われた場合の、第2の時刻における実際値との関係の学習を行う。
予報支援装置100によれば、ある時刻についての予報を、他の時刻についての予報の影響を考慮して行うことができる。予報支援装置100によれば、この点で、予報を高精度に行うことができる。
【0140】
図11は、実施形態に係る予報支援装置の構成の例を示す図である。
図11に示す構成で、予報支援装置610は、データ取得部611と、学習部612とを備える。
かかる構成で、データ取得部611は、予報値と、その予報値との予報が行われた場合の実際値とを含む学習データを取得する。学習部612は、得られた学習データを用いて、予報値と、その予報値との予報が行われた場合の実際値との関係の学習を行う。
データ取得部611は、データ取得手段の例に該当する。学習部612は、学習手段の例に該当する。
【0141】
予報支援装置610によれば、予測を行う際に、予測値が公開されることの実際値への影響を予測値に反映させることができる。すなわち、予報支援装置610によれば、ある予報値との予報が行われることの影響を考慮して予報値を決定することができる。予報支援装置610によれば、この点で、予報を高精度に行うことができる。
【0142】
データ取得部611の機能は、例えば
図2に示されるデータ取得部191等の機能を用いて実現することができる。学習部612の機能は、例えば
図2に示される学習部192等の機能を用いて実現することができる。
【0143】
図12は、実施形態に係る予報支援方法における処理の手順の例を示す図である。
図12に示す処理で、予報支援方法は、データを取得すること(ステップS611)と、学習を行うこと(ステップS612)とを含む。
データを取得すること(ステップS611)では、予報支援装置が、予報値と、その予報値との予報が行われた場合の実際値とを含む学習データを取得する。
学習を行うこと(ステップS612)では、予報支援装置が、得られた学習データを用いて、予報値と、その予報値との予報が行われた場合の実際値との関係の学習を行う。
【0144】
図12に示す予報支援方法によれば、予測を行う際に、予測値が公開されることの実際値への影響を予測値に反映させることができる。すなわち、
図12に示す予報支援方法によれば、ある予報値との予報が行われることの影響を考慮して予報値を決定することができる。
図12に示す予報支援方法によれば、この点で、予報を高精度に行うことができる。
【0145】
図13は、少なくとも1つの実施形態に係るコンピュータの構成を示す概略ブロック図である。
図13に示す構成で、コンピュータ700は、CPU710と、主記憶装置720と、補助記憶装置730と、インタフェース740と、不揮発性記録媒体750とを備える。
【0146】
上記の予報支援装置100および予報支援装置610のうち何れか1つ以上またはその一部が、コンピュータ700に実装されてもよい。その場合、上述した各処理部の動作は、プログラムの形式で補助記憶装置730に記憶されている。CPU710は、プログラムを補助記憶装置730から読み出して主記憶装置720に展開し、当該プログラムに従って上記処理を実行する。また、CPU710は、プログラムに従って、上述した各記憶部に対応する記憶領域を主記憶装置720に確保する。各装置と他の装置との通信は、インタフェース740が通信機能を有し、CPU710の制御に従って通信を行うことで実行される。また、インタフェース740は、不揮発性記録媒体750用のポートを有し、不揮発性記録媒体750からの情報の読出、および、不揮発性記録媒体750への情報の書込を行う。
【0147】
予報支援装置100がコンピュータ700に実装される場合、制御部190およびその各部の動作は、プログラムの形式で補助記憶装置730に記憶されている。CPU710は、プログラムを補助記憶装置730から読み出して主記憶装置720に展開し、当該プログラムに従って上記処理を実行する。
【0148】
また、CPU710は、プログラムに従って、記憶部180に対応する記憶領域を主記憶装置720に確保する。
通信部110による他の装置との通信は、インタフェース740が通信機能を有し、CPU710の制御に従って動作することで実行される。
表示部120による表示は、インタフェース740が表示装置を有し、CPU710の制御に従って各種画像を表示することで実行される。
操作入力部130によるユーザ操作の受け付けは、インタフェース740が例えばキーボードおよびマウスなどの入力デバイスを有してユーザ操作を受け付け、受け付けたユーザ操作を示す情報をCPU710へ出力することで実行される。
【0149】
予報支援装置610がコンピュータ700に実装される場合、データ取得部611、および、学習部612の動作は、プログラムの形式で補助記憶装置730に記憶されている。CPU710は、プログラムを補助記憶装置730から読み出して主記憶装置720に展開し、当該プログラムに従って上記処理を実行する。
【0150】
また、CPU710は、プログラムに従って、予報支援装置610が行う処理のための記憶領域を主記憶装置720に確保する。
予報支援装置610と他の装置との通信は、インタフェース740が通信機能を有し、CPU710の制御に従って動作することで実行される。
予報支援装置610とユーザとのインタラクションは、インタフェース740が入力デバイスおよび出力デバイスを有し、CPU710の制御に従って出力デバイスにて情報をユーザに提示し、入力デバイスにてユーザ操作を受け付けることで実行される。
【0151】
上述したプログラムのうち何れか1つ以上が不揮発性記録媒体750に記録されていてもよい。この場合、インタフェース740が不揮発性記録媒体750からプログラムを読み出すようにしてもよい。そして、CPU710が、インタフェース740が読み出したプログラムを直接実行するか、あるいは、主記憶装置720または補助記憶装置730に一旦保存して実行するようにしてもよい。
【0152】
なお、予報支援装置100、および、予報支援装置610が行う処理の全部または一部を実行するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより各部の処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM(Read Only Memory)、CD-ROM(Compact Disc Read Only Memory)等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。また上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよい。
【0153】
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。
【符号の説明】
【0154】
100、610 予報支援装置
110 通信部
120 表示部
130 操作入力部
180 記憶部
190 制御部
191、611 データ取得部
192、612 学習部
193 不動点計算部