IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 独立行政法人防災科学技術研究所の特許一覧

特開2025-4358浸水被害推定システム、浸水被害推定プログラム、及び、浸水被害推定方法
<>
  • 特開-浸水被害推定システム、浸水被害推定プログラム、及び、浸水被害推定方法 図1
  • 特開-浸水被害推定システム、浸水被害推定プログラム、及び、浸水被害推定方法 図2
  • 特開-浸水被害推定システム、浸水被害推定プログラム、及び、浸水被害推定方法 図3
  • 特開-浸水被害推定システム、浸水被害推定プログラム、及び、浸水被害推定方法 図4
  • 特開-浸水被害推定システム、浸水被害推定プログラム、及び、浸水被害推定方法 図5
  • 特開-浸水被害推定システム、浸水被害推定プログラム、及び、浸水被害推定方法 図6
  • 特開-浸水被害推定システム、浸水被害推定プログラム、及び、浸水被害推定方法 図7
  • 特開-浸水被害推定システム、浸水被害推定プログラム、及び、浸水被害推定方法 図8
  • 特開-浸水被害推定システム、浸水被害推定プログラム、及び、浸水被害推定方法 図9
  • 特開-浸水被害推定システム、浸水被害推定プログラム、及び、浸水被害推定方法 図10
  • 特開-浸水被害推定システム、浸水被害推定プログラム、及び、浸水被害推定方法 図11
  • 特開-浸水被害推定システム、浸水被害推定プログラム、及び、浸水被害推定方法 図12
  • 特開-浸水被害推定システム、浸水被害推定プログラム、及び、浸水被害推定方法 図13
  • 特開-浸水被害推定システム、浸水被害推定プログラム、及び、浸水被害推定方法 図14
  • 特開-浸水被害推定システム、浸水被害推定プログラム、及び、浸水被害推定方法 図15
  • 特開-浸水被害推定システム、浸水被害推定プログラム、及び、浸水被害推定方法 図16
  • 特開-浸水被害推定システム、浸水被害推定プログラム、及び、浸水被害推定方法 図17
  • 特開-浸水被害推定システム、浸水被害推定プログラム、及び、浸水被害推定方法 図18
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2025004358
(43)【公開日】2025-01-15
(54)【発明の名称】浸水被害推定システム、浸水被害推定プログラム、及び、浸水被害推定方法
(51)【国際特許分類】
   G06Q 50/26 20240101AFI20250107BHJP
   G06Q 10/04 20230101ALI20250107BHJP
   G01W 1/00 20060101ALI20250107BHJP
【FI】
G06Q50/26
G06Q10/04
G01W1/00 Z
【審査請求】未請求
【請求項の数】9
【出願形態】OL
(21)【出願番号】P 2023103989
(22)【出願日】2023-06-26
【新規性喪失の例外の表示】特許法第30条第2項適用申請有り (1)刊行物により公開、米国Esri社、Esriプレカンファレンスセミナーポスター、令和4年7月11日~15日 (2)電気通信回線を通じて公開、https://midoplat.bosai.go.jp/web/shinsui/index.html、令和4年7月9日 (3)集会により公開、世界銀行主催 カンボジア道路連結改善プロジェクトワークショップ、令和4年7月26日 (4)学会により公開、The 12th International Conference of the International Society for the INTEGRATED DISASTER RISK MANAGEMENT、令和4年9月22日 (5)学会により公開、The 9th International Conference on Flood Management、令和5年2月19日
(71)【出願人】
【識別番号】501138231
【氏名又は名称】国立研究開発法人防災科学技術研究所
(74)【代理人】
【識別番号】100139103
【弁理士】
【氏名又は名称】小山 卓志
(74)【代理人】
【識別番号】100139114
【弁理士】
【氏名又は名称】田中 貞嗣
(74)【代理人】
【識別番号】100214260
【弁理士】
【氏名又は名称】相羽 昌孝
(74)【代理人】
【識別番号】100227455
【弁理士】
【氏名又は名称】莊司 英史
(72)【発明者】
【氏名】平野 洪賓
(72)【発明者】
【氏名】ピー・シー・シャクティ
(72)【発明者】
【氏名】飯塚 聡
【テーマコード(参考)】
5L010
5L049
5L050
【Fターム(参考)】
5L010AA04
5L049AA04
5L049CC35
5L050CC35
(57)【要約】      (修正有)
【課題】端末の簡単な操作で浸水範囲と浸水深さの分布を即時に推定する浸水被害推定システム、浸水被害推定方法及びプログラムを提供する。
【解決手段】浸水被害推定システム1は、ユーザが選択した地図情報上の参考地点の浸水深入力情報を取得するための浸水深情報入力装置2と、浸水深情報入力装置2が取得した浸水深入力情報に基づいて、参考地点の浸水深情報を推定する浸水深推定装置4と、浸水深推定装置4が推定した参考地点の浸水深情報、参考地点を含む対象範囲及び土地の標高を示す標高情報に基づいて、対象範囲内の水面の標高を示す水面標高を取得し、対象範囲内の浸水深分布を推定する浸水状況推定装置5と、浸水状況推定装置5が推定した浸水深分布を表示するユーザ端末装置8と、を備える。
【選択図】図1
【特許請求の範囲】
【請求項1】
ユーザが選択した地図情報上の参考地点の浸水深入力情報を取得するための浸水深情報入力装置と、
前記浸水深情報入力装置が取得した前記浸水深入力情報に基づいて、前記参考地点の浸水深情報を推定する浸水深推定装置と、
前記浸水深推定装置が推定した前記参考地点の前記浸水深情報、前記参考地点を含む対象範囲、及び、土地の標高を示す標高情報に基づいて、前記対象範囲内の水面の標高を示す水面標高を取得し、前記対象範囲内の浸水深分布を推定する浸水状況推定装置と、
前記浸水状況推定装置が推定した前記浸水深分布を表示するユーザ端末装置と、
を備える
ことを特徴とする浸水被害推定システム。
【請求項2】
前記浸水状況推定装置は、
前記浸水深情報入力装置において取得された前記参考地点の位置を前記地図情報に基づいて特定し、特定した位置情報を取得する参考地点取得部と、
前記浸水深推定装置が推定した前記参考地点の前記浸水深情報を取得する浸水深取得部と、
入力された前記対象範囲を取得する対象範囲取得部と、
前記浸水深情報及び前記標高情報に基づいて、前記対象範囲内の前記水面標高を取得し、前記対象範囲内の浸水深分布を推定する水面標高取得部と、
を有する
ことを特徴とする請求項1に記載の浸水被害推定システム。
【請求項3】
前記浸水状況推定装置が推定した前記浸水深分布及び社会的情報に基づいて、前記対象範囲内の道路冠水情報及び浸水建物棟数の少なくとも1つを含む浸水被害分布を推定する浸水被害推定装置を備え、
前記ユーザ端末装置は、前記浸水被害推定装置が推定した前記道路冠水情報及び前記浸水建物棟数の少なくとも1つを表示する
ことを特徴とする請求項1に記載の浸水被害推定システム。
【請求項4】
前記浸水被害推定装置が推定した前記浸水被害分布に含まれる前記道路冠水情報及び前記社会的情報に基づいて、前記ユーザが選択した前記地図情報上の出発地から前記地図情報上の目的地に向かう避難ルート及び救助ルートの少なくとも1つを推定するルート推定装置を備え、
前記ユーザ端末装置は、前記ルート推定装置が推定した前記避難ルート及び前記救助ルートの少なくとも1つを表示する
ことを特徴とする請求項3に記載の浸水被害推定システム。
【請求項5】
前記浸水深情報入力装置が取得した前記浸水深入力情報に対する機械学習の学習フェーズの主体として動作する機械学習装置を備え、
前記浸水深推定装置は、前記浸水深情報入力装置が入力した前記浸水深入力情報を前記機械学習装置から提供された学習モデルに入力することにより、前記参考地点の前記浸水深情報を推定する
ことを特徴とする請求項1に記載の浸水被害推定システム。
【請求項6】
前記浸水深入力情報は、画像データであり、
前記機械学習装置は、
入力データとしての前記画像データと、出力データとしての前記浸水深情報とで構成される複数の学習用データを取得する学習用データ取得部と、
前記複数の学習用データに含まれる前記画像データと前記浸水深情報との相関関係を前記学習モデルに学習させる機械学習部と、
を有する
ことを特徴とする請求項5に記載の浸水被害推定システム。
【請求項7】
前記浸水深推定装置は、
前記浸水深情報入力装置から前記画像データを取得する画像データ取得部と、
前記画像データ取得部により取得された前記画像データと前記学習モデルに基づいて前記浸水深情報を生成する浸水深情報生成部と、
を有する
ことを特徴とする請求項6に記載の浸水被害推定システム。
【請求項8】
コンピュータを請求項1乃至7のいずれか一項に記載の浸水被害推定システムとして機能させる浸水被害推定プログラム。
【請求項9】
ユーザが選択した地図情報上の参考地点の浸水深入力情報を取得するステップと、
前記浸水深入力情報に対する機械学習の学習フェーズを実行するステップと、
前記浸水深入力情報を前記機械学習の学習フェーズから提供された学習モデルに入力することにより、前記参考地点の浸水深情報を推定するステップと、
前記参考地点の前記浸水深情報、前記参考地点を含む対象範囲、及び、土地の標高を示す標高情報に基づいて、前記対象範囲内の水面の標高を示す水面標高を取得し、前記対象範囲内の浸水深分布を推定するステップと、
前記推定した前記浸水深分布を表示するステップと、
を有する
ことを特徴とする浸水被害推定方法。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、浸水の被害状況を推定する浸水被害推定システム、浸水被害推定プログラム、及び、浸水被害推定方法に関する。
【背景技術】
【0002】
近年、地球温暖化に起因する豪雨の増加によって浸水被害が多発している。水害発生時の自治体の災害対応において、早期に浸水範囲を把握することは災害対応や被害軽減において重要である。
【0003】
従来、対象地域の地形及び降雨データを正しく且つリアルタイムに認識して演算処理することにより浸水状況と浸水被害状況を予測するシステムが開示されている(特許文献1参照)。
【先行技術文献】
【特許文献】
【0004】
【特許文献1】特開2002-298063号公報
【発明の概要】
【発明が解決しようとする課題】
【0005】
しかしながら、特許文献1に記載の技術は、リアル浸水マップシステムを所持した利用者が、各種プログラムと各種プログラムに必要な各種データとが記憶された演算処理装置を用いて解析を行うものであり、システムを揃える必要があり、使用方法が難しく、演算量も多いものであった。
【0006】
本発明は、従来技術と比較して、ブラウザ上の簡単な操作で浸水範囲と浸水深分布を即時に推定することができる浸水被害推定システム、浸水被害推定プログラム、及び、浸水被害推定方法を提供することを目的とする。
【課題を解決するための手段】
【0007】
本発明にかかる浸水被害推定システムは、
ユーザが選択した地図情報上の参考地点の浸水深入力情報を取得するための浸水深情報入力装置と、
前記浸水深情報入力装置が取得した前記浸水深入力情報に基づいて、前記参考地点の浸水深情報を推定する浸水深推定装置と、
前記浸水深推定装置が推定した前記参考地点の前記浸水深情報、前記参考地点を含む対象範囲、及び、土地の標高を示す標高情報に基づいて、前記対象範囲内の水面の標高を示す水面標高を取得し、前記対象範囲内の浸水深分布を推定する浸水状況推定装置と、
前記浸水状況推定装置が推定した前記浸水深分布を表示するユーザ端末装置と、
を備える
ことを特徴とする。
【発明の効果】
【0008】
このような浸水被害推定システムによれば、ブラウザ上の簡単な操作で浸水範囲と浸水深分布を即時に推定することができる。
【図面の簡単な説明】
【0009】
図1】本実施形態の浸水被害推定システム1の一例を示す全体構成図である。
図2】本実施形態の機械学習装置3の一例を示すブロック図である。
図3】本実施形態の学習モデル10及び学習用データ11の一例を示す図である。
図4】本実施形態の機械学習装置3による機械学習方法の一例を示すフローチャートである。
図5】本実施形態の浸水深推定装置4の一例を示すブロック図である。
図6】本実施形態の浸水状況推定装置5の一例を示すブロック図である。
図7】本実施形態の浸水被害推定装置6の一例を示すブロック図である。
図8】本実施形態のルート推定装置7の一例を示すブロック図である。
図9】本実施形態のユーザ端末装置8の一例を示すブロック図である。
図10】本実施形態のコンピュータ900の一例を示すハードウエア構成図である。
図11】本実施形態の浸水被害推定方法の一例を示すフローチャート図である。
図12】本実施形態の浸水被害推定方法で用いる参考地点91の一例を示す。
図13】本実施形態の浸水被害推定方法で用いる浸水深取得方法の一例を示す。
図14】本実施形態の浸水被害推定方法で用いる対象範囲92の一例を示す。
図15】本実施形態の浸水被害推定方法で用いる浸水深分布94の一例を示す。
図16】本実施形態の浸水被害推定方法で用いる浸水被害分布95の一例を示す。
図17】本実施形態の浸水被害推定方法で用いる避難ルートの一例を示す。
図18】浸水状況の把握にかかる時間を比較したグラフを示す。
【発明を実施するための形態】
【0010】
以下、図面を参照して本発明を実施するための実施形態について説明する。以下では、本発明の目的を達成するための説明に必要な範囲を模式的に示し、本発明の該当部分の説明に必要な範囲を主に説明することとし、説明を省略する箇所については公知技術によるものとする。
【0011】
(浸水被害推定システム1)
図1は、本実施形態の浸水被害推定システム1の一例を示す全体構成図である。
【0012】
本実施形態の浸水被害推定システム1は、ユーザが選択した地図情報上の参考地点91の浸水深入力情報を取得するための浸水深情報入力装置2と、浸水深情報入力装置2が入力した浸水深入力情報に基づいて、参考地点91の浸水深を推定する浸水深推定装置4と、浸水深推定装置4が推定した参考地点91の浸水深情報112、参考地点91を含む対象範囲92、及び、土地の標高を示す標高情報522に基づいて、対象範囲92内の水面の標高を示す水面標高93を取得し、対象範囲92内の浸水深分布94を推定する浸水状況推定装置5と、浸水状況推定装置5が推定した浸水深分布94を表示するユーザ端末装置8と、を備える。
【0013】
また、浸水被害推定装置6は、浸水状況推定装置5が推定した対象範囲92内の浸水深分布94、及び、道路や建物等の社会的情報623に基づいて、対象範囲92内の道路冠水情報及び浸水建物棟数の少なくとも1つを含む浸水被害分布95を推定する。さらに、ルート推定装置7は、浸水被害分布95及び社会的情報623に基づいて、ユーザが選択した地図情報上の出発地から地図情報上の目的地に向かう避難ルート及び救助ルートの少なくとも1つを推定する。また、機械学習装置3は、浸水深情報入力装置2が入力した浸水深入力情報に対する機械学習の学習フェーズの主体として動作する。
【0014】
浸水深情報入力装置2、機械学習装置3、浸水深推定装置4、浸水状況推定装置5、浸水被害推定装置6、ルート推定装置7、及び、ユーザ端末装置8は、例えば、汎用又は専用のコンピュータ(後述の図8参照)で構成されるとともに、有線又は無線のネットワーク9に接続されて、各種のデータを相互に送受信可能に構成される。なお、浸水深情報入力装置2、機械学習装置3、浸水深推定装置4、浸水状況推定装置5、浸水被害推定装置6、ルート推定装置7、及び、ユーザ端末装置8の数やネットワーク9の接続数又は接続構成は、図1の例に限られず、適宜変更してもよい。例えば、それぞれの装置は、1つ又は複数のサーバを、共通に又は組み合わせて構成してもよい。
【0015】
(浸水深情報入力装置2)
浸水深情報入力装置2は、ユーザが選択した参考地点91の浸水深入力情報を取得する。本実施形態の浸水深情報入力装置2は、カメラまたはビデオカメラ等の撮像装置であって、カメラ単体又はスマートフォン等に付属したカメラでもよい。本実施形態の浸水深入力情報は、カメラ等によって撮像された画像データ111でよい。浸水深情報入力装置2は取得した参考地点91の浸水深入力情報を機械学習装置3に送信する。浸水深情報入力装置2は取得した時間も送信すると好ましい。
【0016】
(機械学習装置3)
図2は、本実施形態の機械学習装置3の一例を示すブロック図である。図3は、本実施形態の学習モデル10及び学習用データ11の一例を示す図である。機械学習装置3は、制御部30、通信部31、学習用データ記憶部32、学習済みモデル記憶部33、入力部34、及び、出力部35を備える。
【0017】
制御部30は、学習用データ取得部301及び機械学習部302として機能する。通信部31は、ネットワーク9を介して外部装置(例えば、浸水深情報入力装置2、浸水深推定装置4、浸水状況推定装置5、浸水被害推定装置6、ルート推定装置7、及び、ユーザ端末装置8等)と接続され、各種のデータを送受信する通信インターフェースとして機能する。入力部34は、各種の入力操作を受け付けるとともに、出力部35は、表示画面や音声を介して各種の情報を出力することで、ユーザインターフェースとして機能する。
【0018】
学習用データ取得部301は、入力データとしての画像データ111と、出力データとしての浸水深情報112で構成される学習用データ11を取得する。学習用データ取得部301は、例えば、通信部31及びネットワーク9を介して接続される外部装置と連携して学習用データ11を取得してもよいし、入力部34及び出力部35を介して入力操作を受け付けることにより学習用データ11を取得してもよい。学習用データ11は、教師あり学習における教師データ(トレーニングデータ)、検証データ及びテストデータとして用いられるデータである。また、浸水深情報112は、教師あり学習における正解ラベルとして用いられるデータである。
【0019】
学習用データ記憶部32は、学習用データ取得部301で取得した学習用データ11を複数組記憶するデータベースである。なお、学習用データ記憶部32を構成するデータベースの具体的な構成は適宜設計すればよい。
【0020】
機械学習部302は、学習用データ記憶部32に記憶された複数組の学習用データ11を用いて機械学習を実施する。すなわち、機械学習部302は、学習モデル10に学習用データ11を複数組入力し、学習用データ11に含まれる画像データ111と浸水深情報112との相関関係を学習モデル10に学習させることで、学習済みの学習モデル10を生成する。
【0021】
学習済みモデル記憶部33は、機械学習部302により生成された学習済みの学習モデル10(具体的には、調整済みの重みパラメータ群)を記憶するデータベースである。学習済みモデル記憶部33に記憶された学習済みの学習モデル10は、ネットワーク9や記録媒体等を介して実システム(例えば、浸水深推定装置4)に提供される。なお、図2では、学習用データ記憶部32と、学習済みモデル記憶部33とが別々の記憶部として示されているが、これらは単一の記憶部で構成されてもよい。
【0022】
図3に示すように、学習モデル10の機械学習に用いられる複数の学習用データ11は、それぞれ画像データ111と浸水深情報112とで構成される。
【0023】
学習用データ11を構成する画像データ111は、浸水深情報入力装置2により撮影されたものである。画像データ111は、参考地点91が含まれており、少なくとも浸水深が0cmの画像を含む。例えば、図3の上方の画像データ111aは、浸水時の画像であり、図3の下方の画像データ111nは、浸水深が0cmの浸水無しの画像である。この例のように、同じ参考点の浸水深が0cmとその他の画像を学習することが好ましい。
【0024】
学習用データ11を構成する浸水深情報112は、少なくとも対象物情報、対象部情報及び深さ情報を含む。対象物情報は、水面の高さを比較する際に対象となる物であって、例えば、電柱、建築物、塀、木、土手等の高さがわかる物であればよい。対象部情報は、水面又は地面である。水深情報は、水面の高さである。対象部情報が地面の時、水深情報は0cmとなる。例えば、図3の上方の浸水深情報112aは、対象物が電柱、対象部が水面、浸水深が50cmである。また、図3の下方の浸水深情報112nは、対象物が電柱、対象部が水面、浸水深が0cmである。
【0025】
学習モデル10は、例えば、ニューラルネットワークの構造を採用したものであり、入力層101、中間層102、及び、出力層103を備える。各層の間には、各ニューロンをそれぞれ接続するシナプス(不図示)が張られており、各シナプスには、重みがそれぞれ対応付けられている。各シナプスの重みからなる重みパラメータ群が、機械学習により調整される。
【0026】
入力層101は、入力データとしての画像データ111の最大ピクセル数に対応する数のニューロンを有し、各ピクセルの値が各ニューロンにそれぞれ入力される。出力層103は、出力データとしての浸水深情報112に対応する数のニューロンを有し、画像データ111に対する浸水深情報112の予測結果(推論結果)が、出力データとして出力される。
【0027】
なお、学習済みモデル記憶部33に記憶される学習モデル10の数は1つに限定されず、例えば、機械学習の手法、対象物の違い、浸水深情報入力装置2の仕様(解像度やイメージセンサの種類等)の違い、浸水深情報112に含まれるデータの種類等のように、条件が異なる複数の学習モデル10が記憶されてもよい。その場合には、学習用データ記憶部32には、条件が異なる複数の学習モデル10にそれぞれ対応するデータ構成を有する複数種類の学習用データ11が記憶されるようにすればよい。
【0028】
(機械学習方法)
図4は、本実施形態の機械学習装置3による機械学習方法の一例を示すフローチャートである。
【0029】
まず、ステップS110において、学習用データ取得部301は、機械学習を開始するための事前準備として、所望の数の学習用データ11を取得し、その取得した学習用データ11を学習用データ記憶部32に記憶する。ここで準備する学習用データ11の数は、最終的に得られる学習モデル10に求められる推論精度を考慮して設定すればよい。
【0030】
次に、ステップS120において、機械学習部302は、機械学習を開始すべく、学習前の学習モデル10を準備する。ここで準備する学習前の学習モデル10は、ニューラルネットワークモデルで構成されており、各シナプスの重みが初期値に設定されている。
【0031】
次に、ステップS130において、機械学習部302は、学習用データ記憶部32に記憶された複数組の学習用データ11から、例えば、ランダムに1組の学習用データ11を取得する。
【0032】
次に、ステップS140において、機械学習部302は、1組の学習用データ11に含まれる入力データ(画像データ111)を、準備された学習前(又は学習中)の学習モデル10の入力層101に入力する。その結果、学習モデル10の出力層103から推論結果として出力データ(浸水深情報112)が出力されるが、当該出力データは、学習前(又は学習中)の学習モデル10によって生成されたものである。そのため、学習前(又は学習中)の状態では、推論結果として出力された出力データは、学習用データ11に含まれる正解ラベル(浸水深情報112)とは異なる情報を示す。
【0033】
次に、ステップS150において、機械学習部302は、ステップS130において取得された1組の学習用データ11に含まれる正解ラベルと、ステップS140において出力層103から推論結果として出力された出力データとを比較し、各シナプスの重みを調整する処理(バックプロパゲーション)を実施することで、機械学習を実施する。これにより、機械学習部302は、入力データと出力データとの相関関係を学習モデル10に学習させる。
【0034】
次に、ステップS160において、機械学習部302は、所定の学習終了条件が満たされたか否かを、例えば、学習用データ11に含まれる正解ラベルと、推論結果として出力された出力データとに基づく誤差関数の評価値や、学習用データ記憶部32内に記憶された未学習の学習用データ11の残数に基づいて判定する。
【0035】
ステップS160において、機械学習部302が、学習終了条件が満たされておらず、機械学習を継続すると判定した場合(ステップS160でNo)、ステップS130に戻り、学習中の学習モデル10に対してステップS130~S150の工程を未学習の学習用データ11を用いて複数回実施する。一方、ステップS160において、機械学習部302が、学習終了条件が満たされて、機械学習を終了すると判定した場合(ステップS160でYes)、ステップS170に進む。
【0036】
そして、ステップS170において、機械学習部302は、各シナプスに対応付けられた重みを調整することで生成された学習済みの学習モデル10(調整済みの重みパラメータ群)を学習済みモデル記憶部33に記憶し、図15に示す一連の機械学習方法を終了する。機械学習方法において、ステップS110が学習用データ記憶工程、ステップS120~S160が機械学習工程、ステップS170が学習済みモデル記憶工程に相当する。
【0037】
以上のように、本実施形態に係る機械学習装置3及び機械学習方法によれば、浸水深情報入力装置2により撮影された画像データ111から、浸水深情報112を予測(推論)することが可能な学習モデル10を提供することができる。
【0038】
(浸水深推定装置4)
図5は、本実施形態の浸水深推定装置4の一例を示すブロック図である。浸水深推定装置4は、浸水深情報入力装置2が入力した浸水深入力情報を機械学習装置3から提供された学習モデル10に入力することにより、参考地点91の浸水深を推定する。浸水深推定装置4は、各種情報を取得、生成又は処理する制御部40と、浸水深情報入力装置2、機械学習装置3、浸水状況推定装置5、浸水被害推定装置6、ルート推定装置7、及びユーザ端末装置8等と接続され、各種のデータを送受信する通信インターフェースとして機能する通信部41と、浸水深推定装置4の動作で使用される各種のプログラム(オペレーティングシステムやユーザ端末プログラム等)やデータ(学習モデル10)等の各種情報を記憶する記憶部42と、を備える。
【0039】
制御部40は、画像データ取得部401及び浸水深情報生成部402として機能する。入力部44は、各種の入力操作を受け付けるとともに、出力部45は、表示画面や音声を介して各種の情報を出力することで、ユーザインターフェースとして機能する。
【0040】
画像データ取得部401は、浸水深情報入力装置2により撮影された画像データ111を取得する。本実施形態では、画像データ取得部401は、浸水深情報入力装置2から通信部41及びネットワーク9を介して画像データ111を取得(受信)する。
【0041】
浸水深情報生成部402は、画像データ取得部401により取得された画像データ111及び記憶部42に記憶した学習モデル10に基づいて、浸水深情報112を生成する。生成された浸水深情報112は、機械学習装置3の学習用データ記憶部32に学習用データ11として記憶する。
【0042】
記憶部42は、浸水深推定装置4の動作で使用される各種のプログラム(オペレーティングシステムやユーザ端末プログラム等)やデータ(学習モデル10)等の各種情報等を予め記憶している。また、浸水深情報生成部402により生成された浸水深情報112を作業が完了した記録として記憶する。記憶部42は、外部コンピュータ(例えば、サーバ型コンピュータやクラウド型コンピュータ)の記憶部で代用されてもよく、その場合には、制御部40は、当該外部コンピュータにアクセスすればよい。
【0043】
(浸水状況推定装置5)
図6は、本実施形態の浸水状況推定装置5の一例を示すブロック図である。浸水状況推定装置5は、ユーザが入力した参考地点91、浸水深推定装置4が推定した参考地点91の浸水深、ユーザが入力した対象範囲92、並びに、地図情報521、標高情報522、社会的情報623等の各種情報に基づいて、対象範囲92内の水面標高93を取得し、対象範囲92内の浸水深分布94を推定する。
【0044】
浸水状況推定装置5は、各種情報を取得、生成又は処理する制御部50と、浸水深情報入力装置2、機械学習装置3、浸水深推定装置4、浸水被害推定装置6、ルート推定装置7及びユーザ端末装置8等と接続され、各種のデータを送受信する通信インターフェースとして機能する通信部51と、浸水状況推定装置5の動作で使用される各種のプログラム(オペレーティングシステムやユーザ端末プログラム等)やデータ(学習モデル10)等の各種情報を記憶する記憶部52と、を備える。
【0045】
制御部50は、参考地点取得部501、浸水深取得部502、対象範囲取得部503、水面標高取得部504及び浸水深分布生成部505として機能する。入力部54は、各種の入力操作を受け付けるとともに、出力部55は、表示画面や音声を介して各種の情報を出力することで、ユーザインターフェースとして機能する。
【0046】
参考地点取得部501は、ユーザが浸水深情報入力装置2において入力した参考地点91を記憶部52に記憶された地図情報521に基づいて位置を特定し、特定した位置情報を取得する。位置情報は、緯度経度等でよい。また、参考地点取得部501は、地図情報521で位置を特定した複数の参考地点91を予め記憶部52に記憶させておき、複数の参考地点91の中からユーザに1つの参考地点91を選択させるようにしてもよい。
【0047】
浸水深取得部502は、浸水深推定装置4が推定した参考地点91の浸水深情報112を取得する。なお、他の実施形態として、機械学習装置3及び浸水深推定装置4を用いない場合には、ユーザが浸水深情報入力装置2から直接浸水深を入力し、ユーザが入力した浸水深を浸水深情報112としてもよい。
【0048】
対象範囲取得部503は、ユーザが入力した対象範囲92を取得する。対象範囲92の入力は、ユーザが地図上でマウス等を用いて選択すればよく、例えば、画面に表示された地図をドラッグで囲む場合、又は、ハザードマップ等の事前に作成したポリゴンデータを利用する場合等でよい。
【0049】
水面標高取得部504は、浸水深情報112及び記憶部52に記憶された標高情報522に基づいて、対象範囲92内の浸水の水面標高93を取得する。水面標高93は、対象範囲92内で一様に広がると仮定する。
【0050】
浸水深分布生成部505は、対象範囲92内の浸水深分布94を生成する。浸水深分布94は、画面に表示された地図上に表示される。
【0051】
記憶部52は、浸水状況推定装置5の動作で使用される各種のプログラム(オペレーティングシステムやユーザ端末プログラム等)やデータ(学習モデル10)等の各種情報等を予め記憶している。また、浸水状況推定装置5により生成された浸水深分布94を作業が完了した記録として記憶する。記憶部52は、外部コンピュータ(例えば、サーバ型コンピュータやクラウド型コンピュータ)の記憶部52で代用されてもよく、その場合には、制御部50は、当該外部コンピュータにアクセスすればよい。
【0052】
地図情報521は、画面の背景に用いるものであり、参考地点91及び対象範囲92を設定及び確認できるものであれば何でもよく、例えば、国土地理院の地理院地図等でよい。標高情報522は、参考地点91及び対象範囲92内の標高を確認できるものであれば何でもよく、例えば、基盤地図情報数値標高5mメッシュモデル等を用いればよい。
【0053】
(浸水被害推定装置6)
図7は、本実施形態の浸水被害推定装置6の一例を示すブロック図である。浸水被害推定装置6は、浸水状況推定装置5の浸水深分布生成部505が生成した浸水深分布94、地図情報621、標高情報622、社会的情報623等の各種情報に基づいて、道路の冠水や浸水した建物等の浸水被害を推定する。
【0054】
浸水被害推定装置6は、各種情報を取得、生成又は処理する制御部60と、浸水深情報入力装置2、機械学習装置3、浸水深推定装置4、浸水状況推定装置5、ルート推定装置7及びユーザ端末装置8等と接続され、各種のデータを送受信する通信インターフェースとして機能する通信部51と、浸水被害推定装置6の動作で使用される各種のプログラム(オペレーティングシステムやユーザ端末プログラム等)やデータ(学習モデル10)等の各種情報を記憶する記憶部62と、を備える。
【0055】
制御部60は、浸水被害推定部601として機能する。入力部64は、各種の入力操作を受け付けるとともに、出力部65は、表示画面や音声を介して各種の情報を出力することで、ユーザインターフェースとして機能する。
【0056】
浸水被害推定部601は、浸水深情報112及び記憶部62に記憶された社会的情報623に基づいて、対象範囲92内の道路等における水面標高93を取得し、対象範囲92内の被害状況を推定する。社会的情報623は、道路、鉄道、水道、電力網、港湾、ダム等の産業基盤となる施設、及び、学校、病院等の生活基盤となる施設等を含むインフラ設備情報、並びに、人口等の統計情報を用いればよい。例えば、国土地理院が提供している数値地図(国土基本情報)の道路中心線データ又は国土地理院基盤地図情報建築物の外周線データ等を用いればよい。
【0057】
(ルート推定装置7)
図8は、本実施形態のルート推定装置7の一例を示すブロック図である。ルート推定装置7は、浸水被害推定装置6の浸水被害推定部601が推定した浸水被害分布95、地図情報621、標高情報622、社会的情報623等の各種情報に基づいて、ユーザが指定した出発地点から目的地点までのアクセスルートを推定する。
【0058】
ルート推定装置7は、各種情報を取得、生成又は処理する制御部70と、浸水深情報入力装置2、機械学習装置3、浸水深推定装置4、浸水状況推定装置5、浸水被害推定装置6及びユーザ端末装置8等と接続され、各種のデータを送受信する通信インターフェースとして機能する通信部71と、ルート推定装置7の動作で使用される各種のプログラム(オペレーティングシステムやユーザ端末プログラム等)やデータ(学習モデル10)等の各種情報を記憶する記憶部72と、を備える。
【0059】
制御部70は、避難ルート推定部701として機能する。入力部74は、各種の入力操作を受け付けるとともに、出力部75は、表示画面や音声を介して各種の情報を出力することで、ユーザインターフェースとして機能する。
【0060】
避難ルート推定部701は、浸水被害分布95及び記憶部72に記憶された社会的情報723に基づいて、ユーザが対象範囲92内において指定した出発地点と目的地点とを結ぶ適切なアクセスルートを推定する。ユーザは、出発地点と目的地点として、地図上の所定の地点を指定してもよいし、予め記憶された避難所等の地点を選択してもよい。適切なアクセスルートは、時間、安全度、避難所の人数等の状況に基づいて、避難ルート推定部701が設定すればよい。
【0061】
(ユーザ端末装置8)
図9は、ユーザ端末装置8の一例を示すブロック図である。ユーザ端末装置8は、浸水被害を推定する際に使用し、浸水状況推定装置5、浸水被害推定装置6及びルート推定装置7等を作動させる。本実施形態のユーザ端末装置8は、据置型のパソコン、又は、携帯型のスマートフォン、タブレット等の装置である。ユーザ端末装置8は、制御部80と、通信部81と、記憶部82と、画像撮影部83と、入力部84と、出力部85と、を備える。
【0062】
制御部80は、画像データ送信処理部801、浸水深情報処理部802、浸水被害情報処理部803として機能する。通信部81は、ネットワーク9を介して外部装置(例えば、浸水深情報入力装置2、機械学習装置3、浸水深推定装置4、浸水状況推定装置5、浸水被害推定装置6、ルート推定装置7等)と接続され、各種のデータを送受信する通信インターフェースとして機能する。記憶部82は、ユーザ端末装置8の動作で使用される各種のプログラム(オペレーティングシステムやユーザ端末プログラム等)やデータ等を記憶する。なお、本実施形態のユーザ端末装置8は、ネットワーク9のWEBサイトを閲覧するためのブラウザを使用して、浸水被害推定システム1を操作することができる。
【0063】
画像撮影部83は、所定の解像度(画素数)を有するCMOSセンサやCCDセンサ等のカメラ(イメージセンサ)で構成される。このカメラによって参考地点91を撮影することで、ユーザ端末装置8は、浸水深情報入力装置2として使用することが可能である。
【0064】
入力部84は、キーボード、タッチパネル、音声入力用のマイク等でよく、各種の入力操作を受け付ける。本実施形態の入力部84は、浸水深の数値、対象範囲92の境界線等を入力する。出力部85は、表示画面や音声を介して各種の情報を出力することで、ユーザインターフェースとして機能し、液晶又は有機EL等のディスプレイ、若しくは、スピーカー等でよい。出力部85は、浸水状況推定装置5、浸水被害推定装置6及びルート推定装置7の操作画面及び推定結果等を表示する。
【0065】
画像データ送信処理部801は、画像撮影部83により撮影された画像データ111を浸水深情報入力装置2に通信部81及びネットワーク9を介して送信する。
【0066】
浸水深情報処理部802は、ユーザが入力部84から浸水深情報112を入力した場合に、浸水深情報112を浸水深推定装置4に通信部81及びネットワーク9を介して送信する。
【0067】
浸水被害情報処理部803は、浸水状況推定装置5、浸水被害推定装置6及びルート推定装置7から受信した推進被害情報を処理し、ユーザ端末装置8の出力部85による音声や表示画面を介してユーザに通知する。
【0068】
(各装置のハードウエア構成)
図10は、コンピュータ900の一例を示すハードウエア構成図である。浸水深情報入力装置2、機械学習装置3、浸水深推定装置4、浸水状況推定装置5、浸水被害推定装置6、ルート推定装置7、及び、ユーザ端末装置8等は、汎用又は専用のコンピュータ900により構成される。コンピュータ900は、浸水被害推定プログラムによって、浸水被害推定システム1として機能する。
【0069】
コンピュータ900は、図8に示すように、その主要な構成要素として、バス910、プロセッサ912、メモリ914、入力デバイス916、出力デバイス917、表示デバイス918、ストレージ装置920、通信I/F(インターフェース)部922、外部機器I/F部924、I/O(入出力)デバイスI/F部926、及び、メディア入出力部928を備える。なお、上記の構成要素は、コンピュータ900が使用される用途に応じて適宜省略されてもよい。
【0070】
プロセッサ912は、1つ又は複数の演算処理装置(CPU(Central Processing Unit)、MPU(Micro-Processing Unit)、DSP(Digital Signal Processor)、GPU(Graphics Processing Unit)、NPU(Neural Processing Unit)等)で構成され、コンピュータ900全体を統括する制御部として動作する。メモリ914は、各種のデータ及びプログラム930を記憶し、例えば、メインメモリとして機能する揮発性メモリ(DRAM、SRAM等)と、不揮発性メモリ(ROM)、フラッシュメモリ等とで構成される。
【0071】
入力デバイス916は、例えば、キーボード、マウス、テンキー、電子ペン等で構成され、入力部として機能する。出力デバイス917は、例えば、音(音声)出力装置、バイブレーション装置等で構成され、出力部として機能する。表示デバイス918は、例えば、液晶ディスプレイ、有機ELディスプレイ、電子ペーパー、プロジェクタ等で構成され、出力部として機能する。入力デバイス916及び表示デバイス918は、タッチパネルディスプレイのように、一体的に構成されていてもよい。ストレージ装置920は、例えば、HDD、SSD等で構成され、記憶部として機能する。ストレージ装置920は、オペレーティングシステムやプログラム930の実行に必要な各種のデータを記憶する。
【0072】
通信I/F部922は、インターネットやイントラネット等のネットワーク940(図1のネットワーク9と同じであってもよい)に有線又は無線により接続され、所定の通信規格に従って他のコンピュータとの間でデータの送受信を行う通信部として機能する。外部機器I/F部924は、カメラ、プリンタ、スキャナ、リーダライタ等の外部機器950に有線又は無線により接続され、所定の通信規格に従って外部機器950との間でデータの送受信を行う通信部として機能する。I/OデバイスI/F部926は、各種のセンサ、アクチュエータ等のI/Oデバイス960に接続され、I/Oデバイス960との間で、例えば、センサによる検出信号やアクチュエータへの制御信号等の各種の信号やデータの送受信を行う通信部として機能する。メディア入出力部928は、例えば、DVDドライブ、CDドライブ等のドライブ装置、メモリカードスロット、USBコネクタで構成され、DVD、CD、メモリカード、USBメモリ等のメディア(非一時的な記憶媒体)970に対してデータの読み書きを行う。
【0073】
上記構成を有するコンピュータ900において、プロセッサ912は、ストレージ装置920に記憶されたプログラム930をメモリ914に呼び出して実行し、バス910を介してコンピュータ900の各部を制御する。なお、プログラム930は、ストレージ装置920に代えて、メモリ914に記憶されていてもよい。プログラム930は、インストール可能なファイル形式又は実行可能なファイル形式でメディア970に記録され、メディア入出力部928を介してコンピュータ900に提供されてもよい。プログラム930は、通信I/F部922を介してネットワーク940経由でダウンロードすることによりコンピュータ900に提供されてもよい。また、コンピュータ900は、プロセッサ912がプログラム930を実行することで実現する各種の機能を、例えば、FPGA(Field-Programmable Gate Array)、ASIC(Application Specific Integrated Circuit)等のハードウエアで実現するものでもよい。
【0074】
コンピュータ900は、例えば、据置型コンピュータや携帯型コンピュータで構成され、任意の形態の電子機器である。コンピュータ900は、クライアント型コンピュータでもよいし、サーバ型コンピュータやクラウド型コンピュータでもよいし、例えば、制御盤、コントローラ(マイコン、プログラマブルロジックコントローラ、シーケンサを含む)等と呼ばれる組込型コンピュータでもよい。コンピュータ900は、浸水深情報入力装置2、機械学習装置3、浸水深推定装置4、浸水状況推定装置5、浸水被害推定装置6、ルート推定装置7、及び、ユーザ端末装置8等以外の装置にも適用されてもよい。
【0075】
このように、本実施形態の浸水被害推定システム1によれば、端末の簡単な操作で浸水範囲と浸水深分布94を即時に推定することができる。
【0076】
(浸水被害推定方法)
図11は、本実施形態の浸水被害推定方法の一例を示すフローチャート図である。以下では、浸水被害推定システム1が浸水被害を推定する例として説明する。ユーザは、ユーザ端末装置8のブラウザを開き、浸水被害推定システム1を使用すればよい。
【0077】
まず、ステップST1において、浸水状況推定装置5は、参考地点91を取得する(ST1)。参考地点91は、ユーザが浸水深情報112を知りたい若しくは知っている位置である。参考地点91は、ユーザがユーザ端末装置8のディスプレイに表示した地図上に入力することで位置を特定する。ユーザは、予め、住所又は地名等を入力し、画面の表示範囲を狭めてもよい。
【0078】
図12は、本実施形態の浸水被害推定方法で用いる参考地点91の一例を示す。本実施形態の参考地点91は、地図上に×で示されるが、区別できる記号であれば何でもよい。参考地点91は、ユーザがユーザ端末装置8のディスプレイに表示した地図にタッチすることで位置を特定すればよい。また、予め地図上に複数の参考地点91の候補が表示されるように設定し、ユーザがそのうちの1つを選択するようにしてもよい。例えば、参考地点91の候補は、カメラが設置された位置でよい。参考地点91の位置は、タッチされた位置で特定してもよく、複数の参考地点91の候補のうち、タッチされた位置から一番近い参考地点91の位置に特定してもよい。
【0079】
さらに、ユーザがユーザ端末装置8で画像を撮影した地点を参考地点91にしてもよい。この場合、ユーザ端末装置8が浸水深情報入力装置2として用いられ、ユーザ端末装置8の位置情報を用いて、参考地点91の位置を特定してもよい。
【0080】
次に、ステップST2において、浸水状況推定装置5は、ステップ1で得られた参考地点91の浸水深を取得する(ST2)。本実施形態の浸水状況推定装置5は、浸水深推定装置4が推定した浸水深を取得する。本実施形態の浸水深推定装置4は、ステップ1で得られた参考地点91の画像に対して、機械学習装置3が学習した学習モデル10を用いて、浸水深を推定する。
【0081】
図13は、本実施形態の浸水被害推定方法で用いる浸水深取得方法の一例を示す。本実施形態の浸水深推定装置4は、浸水深情報入力装置2から入力された図11(a)に示した参考地点91の画像と図11(b)に示した浸水の無い画像に対して、学習モデル10を用いて、浸水深を推定する。浸水深推定装置4によって推定された浸水深は、浸水状況推定装置5に送信される。
【0082】
次に、ステップST3において、浸水状況推定装置5は、対象範囲92を取得する(ST3)。対象範囲92は、ユーザが浸水深情報112を知りたい範囲である。対象範囲92は、参考地点91を囲むように設定される。参考地点91の浸水深情報112に基づいて参考地点内の浸水深を推定することができる。
【0083】
図14は、本実施形態の浸水被害推定方法で用いる対象範囲92一例を示す。本実施形態の対象範囲92は、ユーザがユーザ端末装置8のディスプレイに表示した地図の所定の範囲の外周をドラッグすることで、位置及び範囲を特定する。図12では、参考地点91を示す×印を囲むように形成された線が対象範囲92の外周を示す。
【0084】
次に、ステップST4において、浸水状況推定装置5は、水面標高93を取得する(ST4)。浸水状況推定装置5は、対象範囲92の浸水深情報112、地図情報521及び標高情報522に基づいて対象範囲92の水面標高93を取得する。水面標高93は、参考地点91の浸水深情報112及び標高情報522に基づいて取得する。
【0085】
次に、ステップST5において、浸水深分布生成部505は、対象範囲92の水面標高93と標高情報522に基づいて浸水深分布94を生成する(ST5)。
【0086】
図15は、本実施形態の浸水被害推定方法で用いる浸水深分布94の一例を示す。本実施形態の浸水深分布94は、対象範囲内の浸水深を、深さに応じて色分け又は濃淡にして表示される。このように、浸水深分布94を作成することで、一目で危険な場所が理解できる。
【0087】
次に、ステップST5において、浸水被害推定装置6は、浸水被害分布95を取得する(ST5)。浸水被害推定装置6は、対象範囲92の水面標高93及び社会的情報623に基づいて浸水被害分布95を取得する。浸水被害分布95は、例えば、道路等が冠水しているか等、どのような状況にあるのか推定するものである。
【0088】
図16は、本実施形態の浸水被害推定方法で用いる浸水被害分布95の一例を示す。
本実施形態の浸水被害分布95は、浸水被害推定装置6が推定した対象範囲92内の道路上の浸水深を、深さに応じて色分け又は濃淡にして表示される。このように、浸水被害分布95を作成することで、一目で危険な場所が理解できる。
【0089】
このように、本実施形態の浸水被害推定方法によれば、端末の簡単な操作で浸水範囲と浸水深分布94を即時に推定することができる。また、浸水被害分布95を推定することができる。浸水被害分布95は、道路の冠水状況、浸水建物の棟数等を表示してもよい。さらに、経済損失の試算結果によって被害のランク分けを表示してもよい。
【0090】
図17は、本実施形態の浸水被害推定方法で用いる避難ルート分布96の一例を示す。
本実施形態の避難ルート分布96は、ルート推定装置7が推定した対象範囲92内において、ユーザが指定した出発地点から目的地点までのアクセスルートを表示する。このように、避難ルート分布96を推定することで、ユーザが避難ルートを一目で理解できる。
【0091】
このように、本実施形態の浸水被害推定方法によれば、端末からブラウザを簡単に操作することで避難ルート分布96を即時に推定することができる。ユーザは、出発地点と目的地点として、地図上の所定の地点を指定してもよいし、予め記憶された避難所等の地点を選択してもよい。適切なアクセスルートは、時間、安全度、避難所の人数等の状況に基づいて、避難ルート推定部701が設定すればよい。
【0092】
図18は、浸水状況の把握にかかる時間を比較したグラフを示す。ドローンを利用した空中写真による浸水状況の把握は、天候等を考慮して最短でも3時間程度を要する。これに対して、本実施形態の浸水被害推定システム1において、場所を特定可能なSNSを用いた場合、浸水状況の把握は2時間半で済み、GPS情報付きのSNSの場合、浸水状況の把握は1時間半で済む。また、位置情報が明確なIoTカメラ等によって通報された場合には、1時間もかからず、数分から数十分以内に浸水状況を把握することができる。さらに、本実施形態の浸水被害推定システム1は、カメラ、SNS等による通報を浸水の初動から被災調査の段階まで活用することができる。
【0093】
以上、本実施形態の浸水被害推定システム1は、ユーザが選択した地図情報521上の参考地点91の浸水深入力情報を取得するための浸水深情報入力装置2と、浸水深情報入力装置2が入力した浸水深入力情報に基づいて、参考地点91の浸水深情報112を推定する浸水深推定装置4と、浸水深推定装置4が推定した参考地点91の浸水深情報112、参考地点91を含む対象範囲92、及び、土地の標高を示す標高情報522に基づいて、対象範囲92内の水面の標高を示す水面標高93を取得し、対象範囲92内の浸水深分布94を推定する浸水状況推定装置5と、浸水状況推定装置5が推定した浸水深分布94を表示するユーザ端末装置8と、を備える。したがって、本実施形態の浸水被害推定システム1によれば、ブラウザ上の簡単な操作で浸水範囲と浸水深分布94を即時に推定することができる。
【0094】
また、本実施形態の浸水被害推定システム1では、浸水状況推定装置5は、浸水深情報入力装置2が取得した参考地点91の位置を地図情報521に基づいて特定し、特定した位置情報を取得する参考地点取得部501と、浸水深推定装置4が推定した参考地点91の浸水深情報112を取得する浸水深取得部502と、入力された対象範囲92を取得する対象範囲取得部503と、浸水深情報112及び標高情報522に基づいて、対象範囲内の水面標高93を取得する水面標高取得部504と、対象範囲内の浸水深分布94を推定する浸水深分布生成部505と、を有する。したがって、本実施形態の浸水被害推定システム1によれば、浸水深分布94を迅速且つ適切に生成することができる。
【0095】
また、本実施形態の浸水被害推定システム1は、浸水状況推定装置5が推定した浸水深分布94及び社会的情報623に基づいて、対象範囲内の道路冠水情報及び浸水建物棟数の少なくとも1つを含む浸水被害分布95を推定する浸水被害推定装置6を備え、ユーザ端末装置8は、浸水被害推定装置6が推定した道路冠水情報及び浸水建物棟数の少なくとも1つを表示する。したがって、本実施形態の浸水被害推定システム1によれば、道路や建物の被害状況を迅速且つ適切に推定することができる。
【0096】
また、本実施形態の浸水被害推定システム1は、浸水被害推定装置6が推定した浸水被害分布95及び道路冠水情報及び社会的情報723に基づいて、ユーザが選択した地図情報721上の出発地から地図情報721上の目的地に向かう避難ルート及び救助ルートの少なくとも1つを推定するルート推定装置7を備え、ユーザ端末装置8は、ルート推定装置7が推定した避難ルート及び救助ルートの少なくとも1つを表示する。したがって、本実施形態の浸水被害推定システム1によれば、避難ルート又は救助ルートを迅速且つ適切に推定することができる。
【0097】
また、本実施形態の浸水被害推定システム1では、浸水深情報入力装置2が取得した浸水深入力情報に対する機械学習の学習フェーズの主体として動作する機械学習装置3を備え、浸水深推定装置4は、浸水深情報入力装置2が取得した浸水深入力情報を機械学習装置3から提供された学習モデル10に入力することにより、参考地点91の浸水深情報112を推定する。したがって、本実施形態の浸水被害推定システム1によれば、機械学習により、浸水深を迅速且つ適切に推定することができる。
【0098】
また、本実施形態の浸水被害推定システム1では、浸水深入力情報は、画像データ111であり、機械学習装置3は、入力データとしての画像データ111と、出力データとしての浸水深情報112とで構成される複数の学習用データ11を取得する学習用データ取得部301と、複数の学習用データ11に含まれる画像データ111と浸水深情報112との相関関係を学習モデル10に学習させる機械学習部302と、を有する。したがって、本実施形態の浸水被害推定システム1によれば、機械学習により、画像データ111から浸水深情報112を迅速且つ適切に推定することができる。
【0099】
また、本実施形態の浸水被害推定システム1では、浸水深推定装置4は、浸水深情報入力装置2から画像データ111を取得する画像データ取得部401と、画像データ取得部401により取得された画像データ111と学習モデル10に基づいて浸水深情報112を生成する浸水深情報生成部402と、を有する。
【0100】
なお、この実施形態によって本発明は限定されるものではない。すなわち、実施形態の説明に当たって、例示のために特定の詳細な内容が多く含まれるが、当業者であれば、これらの詳細な内容に色々なバリエーションや変更を加えてもよい。
【0101】
例えば、本実施形態の浸水被害推定システム1は、シミュレーションとして使用することもできる。シミュレーションとして使用する場合、機械学習装置3及び浸水深推定装置4は用いず、ユーザが浸水深情報入力装置2に仮定した浸水深を入力し、ユーザが入力した浸水深を浸水深情報112とすればよい。
【符号の説明】
【0102】
1…浸水被害推定システム、2…浸水深情報入力装置、3…機械学習装置、4…浸水深推定装置、5…浸水状況推定装置、6…浸水被害推定装置、7…避難ルート推定装置、8…ユーザ端末装置、9…ネットワーク、
10…学習モデル、11…学習用データ
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14
図15
図16
図17
図18