IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 富士通株式会社の特許一覧

特許7529059浸水予測プログラム、浸水予測装置および機械学習方法
<>
  • 特許-浸水予測プログラム、浸水予測装置および機械学習方法 図1
  • 特許-浸水予測プログラム、浸水予測装置および機械学習方法 図2
  • 特許-浸水予測プログラム、浸水予測装置および機械学習方法 図3
  • 特許-浸水予測プログラム、浸水予測装置および機械学習方法 図4
  • 特許-浸水予測プログラム、浸水予測装置および機械学習方法 図5
  • 特許-浸水予測プログラム、浸水予測装置および機械学習方法 図6
  • 特許-浸水予測プログラム、浸水予測装置および機械学習方法 図7
  • 特許-浸水予測プログラム、浸水予測装置および機械学習方法 図8
  • 特許-浸水予測プログラム、浸水予測装置および機械学習方法 図9
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-07-29
(45)【発行日】2024-08-06
(54)【発明の名称】浸水予測プログラム、浸水予測装置および機械学習方法
(51)【国際特許分類】
   G08B 31/00 20060101AFI20240730BHJP
   G01W 1/00 20060101ALI20240730BHJP
【FI】
G08B31/00 B
G01W1/00 Z
【請求項の数】 5
(21)【出願番号】P 2022581146
(86)(22)【出願日】2021-02-15
(86)【国際出願番号】 JP2021005495
(87)【国際公開番号】W WO2022172442
(87)【国際公開日】2022-08-18
【審査請求日】2023-05-18
(73)【特許権者】
【識別番号】000005223
【氏名又は名称】富士通株式会社
(74)【代理人】
【識別番号】110002147
【氏名又は名称】弁理士法人酒井国際特許事務所
(72)【発明者】
【氏名】大石 裕介
(72)【発明者】
【氏名】新出 孝政
【審査官】飯島 尚郎
(56)【参考文献】
【文献】中国特許出願公開第111382716(CN,A)
【文献】中国特許出願公開第111505738(CN,A)
【文献】特許第6813865(JP,B1)
【文献】特開2008-84243(JP,A)
【文献】国際公開第2019/176826(WO,A1)
【文献】特開2022-065522(JP,A)
【文献】特開2019-138742(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
G08B 31/00
G01W 1/00
(57)【特許請求の範囲】
【請求項1】
対象地区に関する観測情報を取得し、
前記観測情報を第1の機械学習モデルに入力することによって、前記対象地区における浸水状況の予測結果を示す第1の画像を生成し、
前記第1の画像を第2の機械学習モデルに入力することによって、前記第1の画像より解像度の高い第2の画像を生成し、
前記対象地区の浸水予測結果として前記第2の画像を出力する、
処理をコンピュータに実行させることを特徴とする浸水予測プログラム。
【請求項2】
前記第1の画像は、前記対象地区を俯瞰した各地点の浸水状況を示す地図画像である、
ことを特徴とする請求項1に記載の浸水予測プログラム。
【請求項3】
対象地区に関する観測情報を取得し、
前記観測情報を第1の機械学習モデルに入力することによって、前記対象地区における浸水状況の予測結果を示す第1の画像を生成し、
前記第1の画像を第2の機械学習モデルに入力することによって、前記第1の画像より解像度の高い第2の画像を生成し、
前記対象地区の浸水予測結果として前記第2の画像を出力する、
処理を実行する制御部を含むことを特徴とする浸水予測装置。
【請求項4】
対象地区に関する観測情報と対応する浸水予測画像をダウンサンプリングし、
ダウンサンプリングされた浸水予測画像と前記観測情報に基づいて第1の機械学習モデルを生成し、
前記ダウンサンプリングされた浸水予測画像と、前記浸水予測画像とに基づいて、前記第1の機械学習モデルの出力を入力とし、入力された画像を高解像度化した画像を出力する第2の機械学習モデルを生成する、
処理をコンピュータが実行することを特徴とする機械学習方法。
【請求項5】
前記ダウンサンプリングする処理は、前記浸水予測画像について、特定の領域に含まれる画素からダウンサンプリングする際に、当該領域に含まれる画素の中で浸水予測の評価が最も悪い画素をサンプリングする
ことを特徴とする請求項に記載の機械学習方法。
【発明の詳細な説明】
【技術分野】
【0001】
本発明の実施形態は、浸水予測技術に関する。
【背景技術】
【0002】
従来、降水量や台風の状況などの観測情報から、その後に発生する浸水予測を行う技術が知られている。この浸水予測に関する従来技術としては、過去の雨量・水位データなどを機械学習させることで最適なパラメータを導き出す数理モデルを構築する。そして、構築した数理モデルを用いて、現在までの雨量・水位データや気象関連機関から各自治体へ配信される数時間先の気象(降雨予測)データなどをもとに今後の水位を精度よく予測する技術がある。また、都市内水域の面的な浸水状況をリアルタイム予測し、解析格子を定型5mおよび10mメッシュとした場合の評価結果を提示する従来技術がある。
【先行技術文献】
【非特許文献】
【0003】
【文献】過去の少ない雨量・水位データで河川の水位を予測できるAI技術を開発, 富士通株式会社 株式会社富士通研究所, PRESS RELEASE, インターネット<URL:https://pr.fujitsu.com/jp/news/2019/08/16-2.html>
【文献】木村誠; 城戸由能; 中北英一. 都市内水域における局所集中豪雨に対応したリアルタイム浸水予測手法に関する基礎的検討. 土木学会論文集 B1 (水工学), 2011, 67.4: I_931-I_936. インターネット<URL:https://www.jstage.jst.go.jp/article/jscejhe/67/4/67_4_I_931/_pdf/-char/ja>
【発明の概要】
【発明が解決しようとする課題】
【0004】
しかしながら、上記の従来技術では、機械学習モデルによる精度のよい浸水予測をメッシュ(解析格子)を細かくして面的に高解像度で行おうとすると、処理に要するデータ量が大きくなり、必要なメモリや計算量が多大なものとなるという問題がある。
【0005】
1つの側面では、浸水予測の計算コストを低減することを目的とする。
【課題を解決するための手段】
【0006】
1つの案では、浸水予測プログラムは、取得する処理と、生成する処理と、出力する処理とをコンピュータに実行させる。取得する処理は、対象地区に関する観測情報を取得する。生成する処理は、観測情報を第1の機械学習モデルに入力することによって、対象地区における浸水状況の予測結果を示す第1の画像を生成し、第1の画像を第2の機械学習モデルに入力することによって、第1の画像より解像度の高い第2の画像を生成する。出力する処理は、対象地区の浸水予測結果として第2の画像を出力する。
【発明の効果】
【0007】
浸水予測の計算コストを低減できる。
【図面の簡単な説明】
【0008】
図1図1は、実施形態にかかる浸水予測の概要(機械学習時)を説明する説明図である。
図2図2は、ダウンサンプリングおよび超解像を説明する説明図である。
図3図3は、実施形態にかかる浸水予測の概要(予測時)を説明する説明図である。
図4図4は、実施形態にかかる情報処理装置の機能構成例を示すブロック図である。
図5図5は、実施形態にかかる情報処理装置の機械学習時の動作例を示すフローチャートである。
図6図6は、ダウンサンプリングの概要を説明する説明図である。
図7図7は、実施形態にかかる情報処理装置の機械学習時の動作例を示すフローチャートである。
図8図8は、実施形態にかかる情報処理装置の予測時の動作例を示すフローチャートである。
図9図9は、コンピュータ構成の一例を示すブロック図である。
【発明を実施するための形態】
【0009】
以下、図面を参照して、実施形態にかかる浸水予測プログラム、浸水予測装置および機械学習方法を説明する。実施形態において同一の機能を有する構成には同一の符号を付し、重複する説明は省略する。なお、以下の実施形態で説明する浸水予測プログラム、浸水予測装置および機械学習方法は、一例を示すに過ぎず、実施形態を限定するものではない。また、以下の各実施形態は、矛盾しない範囲内で適宜組みあわせてもよい。
【0010】
実施形態では、浸水予測の対象地区について、降水量、水位などの対象地区の浸水に関連する観測情報をもとに、機械学習モデルを用いて、各地点の浸水状況の予測値を示す予測地図を求める。なお、浸水予測の対象地区は、行政等で区切られた特定の地域(例えば市域、町域)などである。また、観測情報は、対象地区に関連する河川や海域の水位、流量、流入量、排出量、対象地区を含む地域一帯の降水量などである。
【0011】
具体的には、実施形態では、対象地区に関する観測情報と、この観測情報に対応する予測地図とをもとに、観測情報の入力に対して予測地図を正解として出力するように機械学習を行い、機械学習モデルを作成する。そして、予測時には、対象地区に関する実際の観測情報を機械学習モデルに入力することで、機械学習モデルの出力より予測地図を得る。
【0012】
図1は、実施形態にかかる浸水予測の概要(機械学習時)を説明する説明図である。図1に示すように、S1では、実施形態にかかる情報処理装置は、機械学習に用いる訓練データのセットを準備する。
【0013】
具体的には、S1において、情報処理装置は、対象地区に関する観測情報D1より、シミュレーションなどを行って(S1a)、メッシュを細かくして得られた面的に高解像度(例えば5mメッシュ)な予測地図である高解像度浸水予測データD2を取得する。
【0014】
なお、高解像度浸水予測データD2は、各メッシュに対応する各地点の浸水状況(地面からの水位、床下浸水、床上浸水の有無など)の予測値が示された、観測情報D1に対応する正解の予測地図である。また、高解像度浸水予測データD2における各画素の画素値は、対象地区における各地点の浸水状況の予測値に対応する。
【0015】
情報処理装置による高解像度浸水予測データD2の取得方法は、観測情報D1からのシミュレーションにより取得するものに限定するものではない。例えば、S1aにおいて、情報処理装置は、実際の観測により得られた観測値(各地点の水位など)をもとに高解像度浸水予測データD2を取得してもよい。
【0016】
次いで、S1において、情報処理装置は、高解像度浸水予測データD2における予測地図についてダウンサンプリングを行うことで(S1b)、高解像度浸水予測データD2よりも低解像度な低解像度浸水予測データD3を取得する。
【0017】
図2は、ダウンサンプリングおよび超解像を説明する説明図である。図2に示すように、例えば、情報処理装置は、5mメッシュの高解像度浸水予測データD2についてダウンサンプリングすることで、50mメッシュの低解像度浸水予測データD3を得る。
【0018】
情報処理装置は、S1において、多様な事例における観測情報D1より、観測情報D1に対応する高解像度浸水予測データD2および低解像度浸水予測データD3のデータセットを訓練データとして準備する。
【0019】
次いで、情報処理装置は、準備した訓練データにおける観測情報D1と、低解像度浸水予測データD3とをもとにニューラルネットワークなどの回帰予測技術を用いた公知の機械学習を行うことで、第1の機械学習モデルM1を生成する(S2)。具体的には、情報処理装置は、観測情報D1を第1の機械学習モデルM1に入力した場合の第1の機械学習モデルM1からの出力が正解とする低解像度浸水予測データD3となるように、勾配法や誤差逆伝播法などの公知の手法を用いて第1の機械学習モデルM1のパラメータを設定する。
【0020】
また、情報処理装置は、準備した訓練データにおける低解像度浸水予測データD3と、高解像度浸水予測データD2とをもとにCNN(Convolutional Neural Network)などを用いた公知の超解像技術におけるモデルの機械学習を行うことで、第2の機械学習モデルM2を生成する(S3)。具体的には、第2の機械学習モデルM2は、1枚の画像から高解像度化(超解像)することで解像度をより高くした画像を得る単画像超解像手法を提供するCNNである。情報処理装置は、低解像度浸水予測データD3を第2の機械学習モデルM2に入力した場合の第2の機械学習モデルM2からの出力が正解とする低解像度浸水予測データD3となるように、勾配法や誤差逆伝播法などの公知の手法を用いて第2の機械学習モデルM2のパラメータを設定する。
【0021】
一般の超解像手法では、様々な画像(サブグリッドスケールの構造が異なる)を対象に高解像度化するので、多数の訓練データ(事例)を用いて機械学習を行うこととなる。これに対し、実施形態の超解像手法では、対象地区(サブグリッドスケール内の地形・建物形状が同じ)における各地点の予測値(画素値)が高解像度化の対象である。したがって、第2の機械学習モデルM2の生成においては、一般の超解像よりも少ない訓練データ(事例)で十分である。
【0022】
図3は、実施形態にかかる浸水予測の概要(予測時)を説明する説明図である。図3に示すように、予測時(S4)おいて、実施形態の情報処理装置は、気象関連機関などから配信される情報や測定装置からの測定データを収集して対象地区に関する観測情報D10を取得する。
【0023】
次いで、情報処理装置は、取得した観測情報D10を第1の機械学習モデルM1に入力することにより、対象地区における浸水状況の予測結果(予測地図)を示す低解像度浸水予測データD11を生成する。
【0024】
次いで、情報処理装置は、生成した低解像度浸水予測データD11を第2の機械学習モデルM2に入力することにより、低解像度浸水予測データD11より解像度の高い高解像度浸水予測データD12を生成する。具体的には、図2に示すように、情報処理装置は、低解像度浸水予測データD11を第2の機械学習モデルM2により高解像度化(超解像)して高解像度浸水予測データD12を得る。これにより、情報処理装置は、面的に高解像度(例えば5mメッシュ)な浸水状況の予測地図である高解像度浸水予測データD12を得ることができる。
【0025】
機械学習モデルにより観測情報D10から高解像度な予測地図である高解像度浸水予測データD12を直接求めようとすると(タスクA)、処理に要するデータ量が大きくなり、必要なメモリや計算量が多大なものとなる。この理由は、例えば、予測値をy、観測情報D10に含まれる観測値をxとすると、y=f(x)においてyがxに対して桁違いにデータの要素数が多いため、計算量が大きくなり、機械学習には膨大なデータ量を要するためである。
【0026】
そこで、実施形態の情報処理装置では、第1の機械学習モデルM1により観測情報D10から高解像度浸水予測データD12よりも解像度の粗い低解像度な予測地図である低解像度浸水予測データD11を得る(タスクB)。次いで、実施形態の情報処理装置は、第2の機械学習モデルM2により低解像度浸水予測データD11を高解像度化して高解像度浸水予測データD12を得る(タスクC)。
【0027】
一例として、観測情報D10から高解像度な予測地図である高解像度浸水予測データD12を直接求めようとするタスク(A)における機械学習時のデータ量(事例数)をN_Aとし、事例ごとのデータサイズをS_Aとする。また、観測情報D10から高解像度な予測地図である低解像度浸水予測データD11を求めようとするタスク(B)における機械学習時のデータ量(事例数)をN_Bとし、事例ごとのデータサイズをS_Bとする。また、低解像度浸水予測データD11から高解像度浸水予測データD12を求めようとするタスク(C)における機械学習時のデータ量(事例数)をN_Cとし、事例ごとのデータサイズをS_Cとする。
【0028】
タスク(B)は、多様な観測情報D10からの浸水の起こり方を機械学習するため、事例数はタスク(A)と同程度(N_A≒N_B)となる。しかしながら、機械学習に用いる事例ごとのデータ量は、高解像度浸水予測データD2よりダウンサンプリングした低解像度浸水予測データD3であるため、S_A>>S_Bとなる。
【0029】
タスク(C)は、低解像度浸水予測データD11を高解像度化した高解像度浸水予測データD12を求めるものであり、機械学習時には観測情報D1の違いは問題にならない。また、タスク(C)に関する機械学習では、同じ対象地区(サブグリッドスケール内の地形・建物形状が同じ)における各地点の予測値(画素値)が高解像度化の対象であるので、事例数は少なくてよい(N_A>>N_C)。
【0030】
このため、タスク(B)+タスク(C)における機械学習時のデータサイズ(事例数×事例ごとのデータ量)と、タスク(A)における機械学習時のデータサイズとを比較すると次のとおりである。
N_A×S_A>>N_B×S_B+N_C×S_C
【0031】
すなわち、タスク(B)+タスク(C)の方が、タスク(A)よりもデータサイズが小さくなる。具体的には、100倍程度の差が出る場合がある。このため、実施形態の情報処理装置では、機械学習時におけるデータ量を抑え、計算量が大きくなることを抑止できる。
【0032】
図4は、実施形態にかかる情報処理装置の機能構成例を示すブロック図である。図4に示すように、情報処理装置1は、通信部10、表示部11、操作部12、入出力部13、記憶部14および制御部15を有する。この情報処理装置1は、浸水予測装置の一例であり、例えばPC(Personal Computer)などを適用できる。
【0033】
通信部10は、例えば、NIC(Network Interface Card)等によって実現される。通信部10は、図示しないネットワークを介して他の情報処理装置と有線または無線で接続され、他の情報処理装置との間で情報の通信を司る通信インタフェースである。
【0034】
表示部11は、各種情報を表示するための表示デバイスである。表示部11は、例えば、表示デバイスとして液晶ディスプレイ等によって実現される。表示部11は、制御部15から入力された表示画面等の各種画面を表示する。
【0035】
操作部12は、情報処理装置1のユーザから各種操作を受け付ける入力デバイスである。操作部12は、例えば、入力デバイスとして、キーボードやマウス等によって実現される。操作部12は、ユーザによって入力された操作を操作情報として制御部15に出力する。なお、操作部12は、入力デバイスとして、タッチパネル等によって実現されるようにしてもよく、表示部11の表示デバイスと、操作部12の入力デバイスとは、一体化されるようにしてもよい。
【0036】
入出力部13は、例えば、メモリカードR/W(Reader/Writer)である。入出力部13は、通信部10で受信する観測情報141等の代わりに、メモリカードに記憶された観測情報141等を読み出して記憶部14に格納するようにしてもよい。また、入出力部13は、例えば、制御部15から出力された予測結果をメモリカードに記憶する。なお、メモリカードとしては、例えばSDメモリカード等を用いることができる。
【0037】
記憶部14は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、ハードディスクや光ディスク等の記憶装置によって実現される。記憶部14は、観測情報141、訓練データ142、予測データ143、第1の機械学習モデル情報144および第2の機械学習モデル情報145などを格納する。
【0038】
観測情報141は、サーバなどより取得した、対象地区に関する観測情報であり、前述した観測情報D1、D10に対応する。
【0039】
訓練データ142は、第1の機械学習モデルM1および第2の機械学習モデルM2の機械学習に用いるデータである。具体的には、訓練データ142は、機械学習に用いる事例ごとに、前述した観測情報D1と、観測情報D1に対応する高解像度浸水予測データD2および低解像度浸水予測データD3をセットとしたデータである。
【0040】
予測データ143は、観測情報D10からの予測結果を示すデータである。具体的には、予測データ143は、観測情報D10を第1の機械学習モデルM1に入力することにより得られた低解像度浸水予測データD11、低解像度浸水予測データD11を第2の機械学習モデルM2に入力することにより得られた高解像度浸水予測データD12に対応する。
【0041】
第1の機械学習モデル情報144は、第1の機械学習モデルM1に関する情報であり、ニューラルネットワークなどの第1の機械学習モデルM1を構築するためのパラメータ等である。第2の機械学習モデル情報145は、第2の機械学習モデルM2に関する情報であり、CNNなどの第2の機械学習モデルM2を構築するためのパラメータ等である。
【0042】
制御部15は、情報処理装置1の動作を統括する処理部である。制御部15は、取得部151、訓練データ作成部152、第1の機械学習部153、第2の機械学習部154、推定部155および出力部156を有する。制御部15は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)などによって実現できる。また、制御部15は、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)などのハードワイヤードロジックによっても実現できる。
【0043】
取得部151は、観測情報141を取得する処理部である。例えば、取得部151は、対象地区に関する観測情報141を提供する特定のサーバとの通信部10を介した通信により観測情報141を取得する。取得部151は、取得した観測情報141を記憶部14に格納する。
【0044】
訓練データ作成部152は、第1の機械学習モデルM1および第2の機械学習モデルM2の機械学習に用いる訓練データ142を作成する処理部である。具体的には、訓練データ作成部152は、観測情報D1(141)よりシミュレーションなどを行って、観測情報D1に対応する高解像度浸水予測データD2を得る。なお、訓練データ作成部152は、観測情報D1に含まれる観測値をそのまま適用して高解像度浸水予測データD2を得てもよい。
【0045】
次いで、訓練データ作成部152は、高解像度浸水予測データD2における予測地図についてダウンサンプリングを行うことで、高解像度浸水予測データD2よりも低解像度な低解像度浸水予測データD3を取得する。次いで、訓練データ作成部152は、観測情報D1と、この観測情報D1に対応する高解像度浸水予測データD2および低解像度浸水予測データD3とをセットとした訓練データ142を記憶部14に格納する。訓練データ作成部152は、上記の処理を機械学習に用いる事例数分行うことで、事例数分の訓練データ142を作成する。
【0046】
第1の機械学習部153は、訓練データ142をもとに第1の機械学習モデルM1を生成する処理部である。具体的には、第1の機械学習部153は、訓練データ142に含まれる事例ごとに、観測情報D1および低解像度浸水予測データD3を読み出す。次いで、第1の機械学習部153は、読み出した観測情報D1を第1の機械学習モデルM1に入力した場合の第1の機械学習モデルM1からの出力が正解とする低解像度浸水予測データD3となるように第1の機械学習モデルM1のパラメータを設定(調整)する。
【0047】
次いで、第1の機械学習部153は、訓練データ142として準備された所定数の各事例について上記の処理を行った後、第1の機械学習モデルM1のパラメータを第1の機械学習モデル情報144として記憶部14に格納する。
【0048】
第2の機械学習部154は、訓練データ142をもとに第2の機械学習モデルM2を生成する処理部である。具体的には、第2の機械学習部154は、訓練データ142に含まれる事例ごとに、低解像度浸水予測データD3および高解像度浸水予測データD2を読み出す。次いで、第2の機械学習部154は、読み出した低解像度浸水予測データD3を第2の機械学習モデルM2に入力した場合の第2の機械学習モデルM2からの出力が正解とする高解像度浸水予測データD2となるように第2の機械学習モデルM2のパラメータを設定(調整)する。
【0049】
次いで、第2の機械学習部154は、訓練データ142として準備された所定数の各事例について上記の処理を行った後、第2の機械学習モデルM2のパラメータを第2の機械学習モデル情報145として記憶部14に格納する。
【0050】
推定部155は、対象地区の観測情報141(D10)をもとに、対象地区における浸水状況の予測地図である高解像度浸水予測データD12を推定する処理部である。具体的には、推定部155は、記憶部14より読み出した第1の機械学習モデル情報144をもとに第1の機械学習モデルM1を構築する。次いで、推定部155は、観測情報D10を第1の機械学習モデルM1に入力することで低解像度浸水予測データD11を生成する。推定部155は、生成した低解像度浸水予測データD11を予測データ143として記憶部14に格納する。
【0051】
次いで、推定部155は、記憶部14より読み出した第2の機械学習モデル情報145をもとに第2の機械学習モデルM2を構築する。次いで、推定部155は、低解像度浸水予測データD11を第2の機械学習モデルM2に入力することで高解像度化した高解像度浸水予測データD12を生成する。推定部155は、生成した高解像度浸水予測データD12を予測データ143として記憶部14に格納する。
【0052】
出力部156は、推定部155の推定結果を出力する処理部である。具体的には、出力部156は、記憶部14より予測データ143に含まれる高解像度浸水予測データD12を読み出し、高解像度浸水予測データD12をもとに対象地区における各地点の浸水状況を示す予測地図の表示画面を生成する。次いで、出力部156は、生成した表示画面のデータを表示部11に出力し、予測地図を表示デバイスに表示させる。
【0053】
なお、出力部156における出力先は、表示部11に限定しない。例えば、出力部156は、記憶部14より読み出した高解像度浸水予測データD12を入出力部13を介してメモリカードに出力してもよい。
【0054】
図5は、実施形態にかかる情報処理装置1の機械学習時の動作例を示すフローチャートである。なお、図5に示すフローチャートでは、観測情報D1をもとにしたシミュレーションにより訓練データ142を作成するものとする。
【0055】
図5に示すように、処理が開始されると、訓練データ作成部152は、訓練データ142(D1)をもとに、さまざまなタイプ(例えば気象条件などを異ならせる)のシミュレーションをN回実施し(S10)、Nセットの高解像度浸水予測データD2を取得する。
【0056】
次いで、訓練データ作成部152は、Nセットの高解像度浸水予測データD2について、高解像度浸水予測データD2から低解像度浸水予測データD3をダウンサンプリングにより取得する(S11)。
【0057】
図6は、ダウンサンプリングの概要を説明する説明図である。図6に示すように、訓練データ作成部152は、所定のスケール(例えば5mメッシュ→50mメッシュ)でのダウンサンプリングを行うことで、高解像度浸水予測データD2より低解像度浸水予測データD3を取得する。
【0058】
ここで、訓練データ作成部152は、高解像度浸水予測データD2の特定の領域に含まれる画素からダウンサンプリングする際に、その領域に含まれる画素の中で浸水予測の評価が最も悪い画素をサンプリングすることで、低解像度浸水予測データD3を取得する。ここでいう、浸水評価の良し悪しは、地面からの水位の高さを意味するものであり、水位が高いほど評価が悪い(床下浸水より床上浸水の方が評価が悪い)ものとする。これにより、訓練データ作成部152は、ダウンサンプリングによって浸水予測の評価が最も悪い画素が除かれることを抑止する。
【0059】
具体的には、ケースC1では、特定の領域の高解像度浸水予測データD2aにおいて、右斜めの網掛け部分(予測値a)と、左斜めの網掛け部分(予測値b)とが含まれており、予測値bの方がaより評価が悪いものとする。この場合、訓練データ作成部152は、評価が悪い予測値bをサンプリングする。すなわち、訓練データ作成部152は、高解像度浸水予測データD2aより予測値bを1画素分とする低解像度浸水予測データD3aにダウンサンプリングする。
【0060】
同様に、ケースC2では、特定の領域の高解像度浸水予測データD2bにおいて、右斜めの網掛け部分(予測値a)と、左斜めの網掛け部分(予測値b)とが含まれている。したがって、訓練データ作成部152は、高解像度浸水予測データD2bより予測値bを1画素分とする低解像度浸水予測データD3bにダウンサンプリングする。
【0061】
ケースC3では、特定の領域の高解像度浸水予測データD2cにおいて、右斜めの網掛け部分(予測値a)を含むが、左斜めの網掛け部分(予測値b)が含まれていない。したがって、訓練データ作成部152は、高解像度浸水予測データD2cより予測値aを1画素分とする低解像度浸水予測データD3cにダウンサンプリングする。
【0062】
次いで、訓練データ作成部152は、Nセットの観測情報D1と、低解像度浸水予測データD3を訓練データ142として準備する(S12)。次いで、第1の機械学習部153は、Nセットの訓練データ142をN=N_train+N_testに分割する(S13)。
【0063】
次いで、第1の機械学習部153は、N_trainの観測情報D1と、低解像度浸水予測データD3の組で第1の機械学習モデルM1の機械学習を行う。また、第1の機械学習部153は、N_testの観測情報D1と、低解像度浸水予測データD3の組で機械学習後の第1の機械学習モデルM1のバリデーション(検証)を行う。第1の機械学習部153は、バリデーションによって予測に含まれる誤差が所定範囲内と確認された第1の機械学習モデルM1を採用し、第1の機械学習モデルM1を構築する(S14)。
【0064】
また、S11に次いで、訓練データ作成部152は、Mセットの高解像度浸水予測データD2と、低解像度浸水予測データD3を訓練データ142として準備する(S15)。次いで、第2の機械学習部154は、Mセットの訓練データ142をM=M_train+M_testに分割する(S16)。なお、セット数については、M<<Nである。
【0065】
次いで、第2の機械学習部154は、M_trainの高解像度浸水予測データD2と、低解像度浸水予測データD3の組で第2の機械学習モデルM2の機械学習を行う。また、第2の機械学習部154は、M_testの高解像度浸水予測データD2と、低解像度浸水予測データD3の組で機械学習後の第2の機械学習モデルM2のバリデーション(検証)を行う。第2の機械学習部154は、バリデーションによって予測に含まれる誤差が所定範囲内と確認された第2の機械学習モデルM2を採用し、第2の機械学習モデルM2を構築する(S17)。
【0066】
S14、S17に次いで、制御部15は、構築した第1の機械学習モデルM1および第2の機械学習モデルM2に関する第1の機械学習モデル情報144および第2の機械学習モデル情報145を記憶部14に格納し、処理を終了する。なお、第1の機械学習部153によるS13、S14の処理と、第2の機械学習部154によるS16、S17の処理は、並列に行ってもよい。
【0067】
図7は、実施形態にかかる情報処理装置1の機械学習時の動作例を示すフローチャートである。なお、図7に示すフローチャートでは、シミュレーションを行わず、観測情報D1に含まれる観測データを採用して訓練データ142を作成するものとする。
【0068】
図7に示すように、処理が開始されると、訓練データ作成部152は、さまざまなタイプの観測情報D1をN件準備する(S10a)。ここで、観測情報D1には、高解像度浸水予測データD2に対応する高解像度浸水観測データ(実測の浸水状況地図)も含まれているものとする。
【0069】
訓練データ作成部152は、Nセットの観測情報D1について、高解像度浸水観測データから低解像度浸水観測データをダウンサンプリングする(S11a)。次いで、訓練データ作成部152は、Nセットの観測情報D1と、低解像度浸水観測データを訓練データ142として準備する(S12a)。以後、第1の機械学習部153は、準備した訓練データ142をもとに、前述したS13、S14と同様に処理を行い、第1の機械学習モデルM1を構築する。
【0070】
また、S11aに次いで、訓練データ作成部152は、Mセットの高解像度浸水観測データと、低解像度浸水観測データを訓練データ142として準備する(S15a)。以後、第2の機械学習部154は、準備した訓練データ142をもとに、前述したS16、S17と同様に処理を行い、第2の機械学習モデルM2を構築する。
【0071】
図8は、実施形態にかかる情報処理装置1の予測時の動作例を示すフローチャートである。図8に示すように、処理が開始されると、取得部151は、対象地区に関する観測情報を提供する特定のサーバなどにより、災害発生時の観測情報D10を取得する(S20)。
【0072】
次いで、推定部155は、第1の機械学習モデル情報144より第1の機械学習モデルM1を構築する。次いで、推定部155は、取得した観測情報D10を構築した第1の機械学習モデルM1に入力することで低解像度浸水予測データD11を取得する(S21)。
【0073】
次いで、推定部155は、第2の機械学習モデル情報145より第2の機械学習モデルM2を構築する。次いで、推定部155は、S21で取得した低解像度浸水予測データD11を構築した第2の機械学習モデルM2に入力することで高解像度浸水予測データD12を取得する(S22)。出力部156は、S22で取得した高解像度浸水予測データD12を表示部11に出力し(S23)、災害発生時の観測情報D10に基づく予測地図の表示を行う。
【0074】
以上のように、情報処理装置1は、対象地区に関する観測情報D10を取得する。情報処理装置1は、取得した観測情報D10を第1の機械学習モデルM1に入力することによって、対象地区における浸水状況の予測結果を示す第1の画像(低解像度浸水予測データD11)を生成する。情報処理装置1は、第1の画像を第2の機械学習モデルM2に入力することによって、第1の画像より解像度の高い第2の画像(高解像度浸水予測データD12)を生成する。情報処理装置1は、対象地区の浸水予測結果として生成した第2の画像を出力する。
【0075】
これにより、情報処理装置1は、機械学習モデルを用いた精度のよい浸水予測を、処理に要するメモリや計算量の増加を抑えつつ、高解像度で行うことができる。このようにして、情報処理装置1は、浸水予測の高精度化を支援できる。
【0076】
情報処理装置1が生成する第1の画像は、対象地区を俯瞰した各地点の浸水状況を示す地図画像である。これにより、情報処理装置1では、対象地区を俯瞰した各地点の浸水状況のより高精細な地図画像を得ることができる。
【0077】
また、情報処理装置1は、対象地区に関する観測情報D1と対応する浸水予測画像(高解像度浸水予測データD2)をダウンサンプリングする。情報処理装置1は、ダウンサンプリングされた浸水予測画像(低解像度浸水予測データD3)と観測情報D1に基づいて第1の機械学習モデルM1を生成する。情報処理装置1は、ダウンサンプリングされた浸水予測画像(低解像度浸水予測データD3)と、もとの浸水予測画像(高解像度浸水予測データD2)とに基づいて、第1の機械学習モデルM1の出力を入力とし、入力された画像を高解像度化した画像を出力する第2の機械学習モデルM2を生成する。
【0078】
これにより、情報処理装置1は、処理に要するメモリや計算量の増加を抑えつつ、精度のよい浸水予測を高解像度で行う機械学習モデルを作成することができる。このようにして、情報処理装置1は、浸水予測の高精度化を支援できる。
【0079】
また、情報処理装置1は、浸水予測画像(高解像度浸水予測データD2)について、特定の領域に含まれる画素からダウンサンプリングする際に、その領域に含まれる画素の中で浸水予測の評価が最も悪い画素をサンプリングする。これにより、情報処理装置1では、ダウンサンプリングにより浸水予測の評価が最も悪い画素が除かれることを抑止できる。また、情報処理装置1は、このようにダウンサンプリングされた浸水予測画像(低解像度浸水予測データD3)を用いて第1の機械学習モデルM1を作成することで、第1の機械学習モデルM1を用いた浸水予測において評価が最も悪くなるようなワーストケースを的確に予測できるようになる。
【0080】
なお、図示した各装置の各構成要素は、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。例えば、情報処理装置1における機械学習に関する機能構成(例えば、訓練データ作成部152、第1の機械学習部153および第2の機械学習部154)と、予測に関する機能構成(例えば、推定部155および出力部156)とは、分離した構成であってもよく、それぞれが独立した装置構成で実現してもよい。
【0081】
また、情報処理装置1で行われる各種処理機能は、CPU(またはMPU、MCU(Micro Controller Unit)等のマイクロ・コンピュータ)あるいはGPU(Graphics Processing Unit)上で、その全部または任意の一部を実行するようにしてもよい。また、各種処理機能は、CPU(またはMPU、MCU等のマイクロ・コンピュータ)あるいはGPUで解析実行されるプログラム上、またはワイヤードロジックによるハードウエア上で、その全部または任意の一部を実行するようにしてもよいことは言うまでもない。また、情報処理装置1で行われる各種処理機能は、クラウドコンピューティングにより、複数のコンピュータが協働して実行してもよい。
【0082】
ところで、上記の実施形態で説明した各種の処理は、予め用意されたプログラムをコンピュータで実行することで実現できる。そこで、以下では、上記の実施形態と同様の機能を有するプログラムを実行するコンピュータ(ハードウエア)の一例を説明する。図9は、コンピュータ構成の一例を示すブロック図である。
【0083】
図9に示すように、コンピュータ200は、各種演算処理を実行するCPU201と、画像処理や機械学習処理等の所定の演算処理に特化したGPU201aと、データ入力を受け付ける入力装置202と、モニタ203と、スピーカ204とを有する。また、コンピュータ200は、記憶媒体からプログラム等を読み取る媒体読取装置205と、各種装置と接続するためのインタフェース装置206と、有線または無線により外部機器と通信接続するための通信装置207とを有する。また、コンピュータ200は、各種情報を一時記憶するRAM208と、ハードディスク装置209とを有する。また、コンピュータ200内の各部(201~209)は、バス210に接続される。
【0084】
ハードディスク装置209には、上記の実施形態で説明した制御部15における取得部151、訓練データ作成部152、第1の機械学習部153、第2の機械学習部154、推定部155および出力部156等における各種の処理を実行するためのプログラム211が記憶される。また、ハードディスク装置209には、プログラム211が参照する観測情報などの各種データ212が記憶される。入力装置202は、例えば、操作者から操作情報の入力を受け付ける。モニタ203は、例えば、操作者が操作する各種画面を表示する。インタフェース装置206は、例えば印刷装置等が接続される。通信装置207は、LAN(Local Area Network)等の通信ネットワークと接続され、通信ネットワークを介した外部機器との間で各種情報をやりとりする。
【0085】
CPU201あるいはGPU201aは、ハードディスク装置209に記憶されたプログラム211を読み出して、RAM208に展開して実行することで、取得部151、訓練データ作成部152、第1の機械学習部153、第2の機械学習部154、推定部155および出力部156等に関する各種の処理を行う。なお、プログラム211は、ハードディスク装置209に記憶されていなくてもよい。例えば、コンピュータ200が読み取り可能な記憶媒体に記憶されたプログラム211を読み出して実行するようにしてもよい。コンピュータ200が読み取り可能な記憶媒体は、例えば、CD-ROMやDVDディスク、USB(Universal Serial Bus)メモリ等の可搬型記録媒体、フラッシュメモリ等の半導体メモリ、ハードディスクドライブ等が対応する。また、公衆回線、インターネット、LAN等に接続された装置にこのプログラム211を記憶させておき、コンピュータ200がこれらからプログラム211を読み出して実行するようにしてもよい。
【符号の説明】
【0086】
1…情報処理装置
10…通信部
11…表示部
12…操作部
13…入出力部
14…記憶部
15…制御部
141…観測情報
142…訓練データ
143…予測データ
144…第1の機械学習モデル情報
145…第2の機械学習モデル情報
151…取得部
152…訓練データ作成部
153…第1の機械学習部
154…第2の機械学習部
155…推定部
156…出力部
200…コンピュータ
201…CPU
201a…GPU
202…入力装置
203…モニタ
204…スピーカ
205…媒体読取装置
206…インタフェース装置
207…通信装置
208…RAM
209…ハードディスク装置
210…バス
211…プログラム
212…各種データ
C1~C3…ケース
D1、D10…観測情報
D2、D2a~D2c、D12…高解像度浸水予測データ
D3、D3a~D3c、D11…低解像度浸水予測データ
M1…第1の機械学習モデル
M2…第2の機械学習モデル
図1
図2
図3
図4
図5
図6
図7
図8
図9