IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 株式会社竹中工務店の特許一覧

<>
  • 特開-水位推定装置及び水位推定プログラム 図1
  • 特開-水位推定装置及び水位推定プログラム 図2
  • 特開-水位推定装置及び水位推定プログラム 図3
  • 特開-水位推定装置及び水位推定プログラム 図4
  • 特開-水位推定装置及び水位推定プログラム 図5
  • 特開-水位推定装置及び水位推定プログラム 図6
  • 特開-水位推定装置及び水位推定プログラム 図7
  • 特開-水位推定装置及び水位推定プログラム 図8
  • 特開-水位推定装置及び水位推定プログラム 図9
  • 特開-水位推定装置及び水位推定プログラム 図10
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024047391
(43)【公開日】2024-04-05
(54)【発明の名称】水位推定装置及び水位推定プログラム
(51)【国際特許分類】
   G06T 7/70 20170101AFI20240329BHJP
   G01W 1/00 20060101ALI20240329BHJP
【FI】
G06T7/70 Z
G01W1/00 Z
【審査請求】未請求
【請求項の数】5
【出願形態】OL
(21)【出願番号】P 2022152981
(22)【出願日】2022-09-26
(71)【出願人】
【識別番号】000003621
【氏名又は名称】株式会社竹中工務店
(74)【代理人】
【識別番号】110001519
【氏名又は名称】弁理士法人太陽国際特許事務所
(72)【発明者】
【氏名】古川 靖英
(72)【発明者】
【氏名】向井 一洋
(72)【発明者】
【氏名】藤原 邦彦
(72)【発明者】
【氏名】井上 修作
(72)【発明者】
【氏名】木村 文
(72)【発明者】
【氏名】伊勢田 元
【テーマコード(参考)】
5L096
【Fターム(参考)】
5L096FA02
5L096KA04
(57)【要約】
【課題】水害の発生前の撮影画像を要することなく、水害の発生時における水位を面的に推定することができる水位推定装置及び水位推定プログラムを得る。
【解決手段】水位推定装置10は、対象領域を撮影して得られた撮影画像情報を取得する取得部11Aと、撮影画像情報が示す画像から予め定められた対象物を複数検出する検出部11Bと、検出した複数の対象物の画像での水面からの高さを、対応する対象物の実際の高さから減じることで、複数の対象物の各々の位置における水位を導出する導出部11Cと、導出した複数の水位を、対応する対象物の位置と関連付けて提示する提示部11Dと、を備える。
【選択図】図4
【特許請求の範囲】
【請求項1】
対象領域を撮影して得られた撮影画像情報を取得する取得部と、
前記撮影画像情報が示す画像から予め定められた対象物を複数検出する検出部と、
検出した複数の前記対象物の前記画像での水面からの高さを、対応する前記対象物の実際の高さから減じることで、前記複数の対象物の各々の位置における水位を導出する導出部と、
導出した複数の水位を、対応する前記対象物の位置と関連付けて提示する提示部と、
を備えた水位推定装置。
【請求項2】
前記検出部は、前記撮影画像情報を入力情報とし、前記対象物を示す画像が分離された画像情報を出力情報として機械学習されたセグメンテーションモデルを用いて前記対象物を検出する、
請求項1に記載の水位推定装置。
【請求項3】
前記導出部は、水に浮遊している前記対象物の水位を、導出対象から除外する、
請求項1に記載の水位推定装置。
【請求項4】
前記対象物は、車両、建物、標識、信号機、縁石、及びガードレールの少なくとも1つを含む、
請求項1から請求項3の何れか1項に記載の水位推定装置。
【請求項5】
対象領域を撮影して得られた撮影画像情報を取得し、
前記撮影画像情報が示す画像から予め定められた対象物を複数検出し、
検出した複数の前記対象物の前記画像での水面からの高さを、対応する前記対象物の実際の高さから減じることで、前記複数の対象物の各々の位置における水位を導出し、
導出した複数の水位を、対応する前記対象物の位置と関連付けて提示する、
処理をコンピュータに実行させるための水位推定プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、水位推定装置及び水位推定プログラムに関する。
【背景技術】
【0002】
近年、気候変動に伴う水害の激甚化が進んでいる。具体的には、1時間あたりの降水量が80mm以上の年間発生回数は増加(信頼度水準99%で統計的に有意)している。また、1時間あたりの降水量が80mm以上のアメダス1000地点あたりの年間発生回数は、1976年から2016年では10年あたり約2回の割合で増加している(国土交通省 気象庁ホームページ 2017年7月)。このような状況下で、シミュレーションによる冠水の水深解析や、水害被害予測が公表されている。
【0003】
これらのシミュレーションや被害予測は、GIS(Geographic Information System、地理情報システム)やスーパーコンピュータの展開により精度が向上しているが、実現象の結果(豪雨時の路面上の水位)との比較や、それを踏まえての改良が不十分である。
【0004】
従来、水害に対する対策の実施に寄与することのできる技術として、以下の技術があった。
【0005】
特許文献1には、災害発生後の応急対応時、復旧・復興時における対策立案や活動等を正確かつ迅速に、さらに系統的に行うことを目的とした災害対策支援方法が開示されている。
【0006】
この災害対策支援方法は、所定の軌道回帰日数を持つ人工衛星に搭載したレーダ装置により、災害発生後の応急対応時、復旧・復興時にわたって撮影対象を撮影し、撮影の結果得られたレーダ画像データをデータ解析装置が利用して必要な情報を提供する災害対策支援方法であって、災害発生後、レーダ装置が、撮影対象を撮影可能な人工衛星の複数の軌道のうち任意の軌道から軌道回帰日数よりも短い日数で撮影対象を撮影してレーダ画像データを取得し、データ解析装置がレーダ装置から上記災害発生後のレーダ画像データを受信する。そして、データ解析装置が、平常時に予め生成された撮影対象を含む画像データと災害発生後のレーダ画像データの差分から変化域を抽出し、抽出した変化域から応急対応時の変化抽出図を作成する。さらに、災害発生後のレーダ画像データの取得後、レーダ装置が、定期的に撮影対象のレーダ画像データを取得し、データ解析装置が、災害発生後に定期的に撮影されたレーダ画像データをレーダ装置から取得する。そして、データ解析装置が、災害発生後のレーダ画像データと災害発生後に定期的に撮影されたレーダ画像データとの差分から変化域を抽出し、抽出した変化域から復旧・復興時の変化抽出図を作成する。
【0007】
また、特許文献2には、災害発生時にはその災害量を直ぐに、かつ精度良く安全に得ることができるようにすることを目的としたヘリコプター撮影による災害の被災量計測方法が開示されている。
【0008】
この被災量計測方法は、ヘリコプターにデジタルカメラ、GPSを搭載して崩落前の斜面を、多数の崩壊前基準点を含むような飛行ルートで斜めに撮影させて崩落前のステレオ画像を取得し、前記斜面が崩落したとき、該崩落後の斜面を前記飛行ルートで前記デジタルカメラで斜めに撮影させて崩落後のステレオ画像を取得し、前記崩落発生前のステレオ画像と、前記崩落後のステレオ画像とを用いて崩落の被災量を算出する。
【0009】
更に、特許文献3には、地上の対象物の測定や判定を効率的かつ精度高く行うことができるようにすることを目的とした変状度判定方法が開示されている。
【0010】
この変状度判定方法は、合成開口レーダを用いて測定される地表面上の対象物の変位量を取得する工程と、前記変位量と変状判定基準とを用いて前記対象物の変状度を判定する工程と、を備えている。
【先行技術文献】
【特許文献】
【0011】
【特許文献1】国際公開第2008/016153号
【特許文献2】特開2002-328021号公報
【特許文献3】特開2017-215248号公報
【発明の概要】
【発明が解決しようとする課題】
【0012】
しかしながら、特許文献1~特許文献3の各文献に開示されている技術では、災害が発生する前後の画像を比較することで、災害の発生状況を検出するものとされている。このため、上記各文献に開示されている技術を水害の発生状況の検出に適用する場合、対象とする領域における水害の発生前の撮影画像が必要とされる、という問題点があった。
【0013】
本開示は、以上の事情を鑑みて成されたものであり、水害の発生前の撮影画像を要することなく、水害の発生時における水位を面的に推定することができる水位推定装置及び水位推定プログラムを提供することを目的とする。
【課題を解決するための手段】
【0014】
請求項1に記載の本発明に係る水位推定装置は、対象領域を撮影して得られた撮影画像情報を取得する取得部と、前記撮影画像情報が示す画像から予め定められた対象物を複数検出する検出部と、検出した複数の前記対象物の前記画像での水面からの高さを、対応する前記対象物の実際の高さから減じることで、前記複数の対象物の各々の位置における水位を導出する導出部と、導出した複数の水位を、対応する前記対象物の位置と関連付けて提示する提示部と、を備える。
【0015】
請求項1に記載の本発明に係る水位推定装置によれば、対象領域を撮影して得られた撮影画像情報を取得し、撮影画像情報が示す画像から予め定められた対象物を複数検出し、検出した複数の対象物の画像での水面からの高さを、対応する対象物の実際の高さから減じることで、複数の対象物の各々の位置における水位を導出し、導出した複数の水位を、対応する対象物の位置と関連付けて提示することで、水害の発生前の撮影画像を要することなく、水害の発生時における水位を面的に推定することができる。
【0016】
請求項2に記載の本発明に係る水位推定装置は、請求項1に記載の水位推定装置であって、前記検出部が、前記撮影画像情報を入力情報とし、前記対象物を示す画像が分離された画像情報を出力情報として機械学習されたセグメンテーションモデルを用いて前記対象物を検出するものである。
【0017】
請求項2に記載の本発明に係る水位推定装置によれば、撮影画像情報を入力情報とし、上記対象物を示す画像が分離された画像情報を出力情報として機械学習されたセグメンテーションモデルを用いて当該対象物を検出することで、人手によって対象物を指定する場合に比較して、より簡易に対象物を検出することができる。
【0018】
請求項3に記載の本発明に係る水位推定装置は、請求項1に記載の水位推定装置であって、前記導出部が、水に浮遊している前記対象物の水位を、導出対象から除外するものである。
【0019】
請求項3に記載の本発明に係る水位推定装置によれば、水に浮遊している上記対象物の水位を、導出対象から除外することで、より高精度に面的な水位を推定することができる。
【0020】
請求項4に記載の本発明に係る水位推定装置は、請求項1から請求項3の何れか1項に記載の水位推定装置であって、前記対象物が、車両、建物、標識、信号機、縁石、及びガードレールの少なくとも1つを含むものである。
【0021】
請求項4に記載の本発明に係る水位推定装置によれば、上記対象物が、車両、建物、標識、信号機、縁石、及びガードレールの少なくとも1つを含むことで、通常時から対象領域に存在する対象物を利用して水位を推定することができる。
【0022】
請求項5に記載の本発明に係る水位推定プログラムは、対象領域を撮影して得られた撮影画像情報を取得し、前記撮影画像情報が示す画像から予め定められた対象物を複数検出し、検出した複数の前記対象物の前記画像での水面からの高さを、対応する前記対象物の実際の高さから減じることで、前記複数の対象物の各々の位置における水位を導出し、導出した複数の水位を、対応する前記対象物の位置と関連付けて提示する、処理をコンピュータに実行させる。
【0023】
請求項5に記載の本発明に係る水位推定プログラムによれば、対象領域を撮影して得られた撮影画像情報を取得し、撮影画像情報が示す画像から予め定められた対象物を複数検出し、検出した複数の対象物の画像での水面からの高さを、対応する対象物の実際の高さから減じることで、複数の対象物の各々の位置における水位を導出し、導出した複数の水位を、対応する対象物の位置と関連付けて提示することで、水害の発生前の撮影画像を要することなく、水害の発生時における水位を面的に推定することができる。
【発明の効果】
【0024】
以上説明したように、本発明によれば、水害の発生前の撮影画像を要することなく、水害の発生時における水位を面的に推定することができる。
【図面の簡単な説明】
【0025】
図1】実施形態に係る水位推定システムの構成の一例を示すブロック図である。
図2】実施形態に係る水位推定装置のハードウェア構成の一例を示すブロック図である。
図3】実施形態に係る対象物推定モデルの説明に供する図であり、左図は撮影によって得られた画像の一例を示す図であり、右図は左図に示す画像の分類結果の一例を示す図である。
図4】実施形態に係る水位推定装置の機能的な構成の一例を示すブロック図である。
図5】第1実施形態に係る水位推定装置による水位推定方法の説明に供する側面図である。
図6】実施形態に係る高さ情報データベースの構成の一例を示す模式図である。
図7】第1実施形態に係る水位推定処理の一例を示すフローチャートである。
図8】実施形態に係る推定不能提示画面の構成の一例を示す正面図である。
図9】実施形態に係る水位提示画面の構成の一例を示す正面図である。
図10】第2実施形態に係る水位推定処理の一例を示すフローチャートである。
【発明を実施するための形態】
【0026】
以下、図面を参照して、本発明を実施するための形態例を詳細に説明する。
【0027】
[第1実施形態]
本実施形態では、本発明の撮影画像情報として、人工衛星による撮影によって得られた画像を示す画像情報を適用した場合について説明する。このように、本実施形態では、本発明の撮影画像情報として、人工衛星による撮影によって得られたものを適用した場合について説明するが、これに限るものではない。例えば、有人の飛行機や、無人の飛行機(所謂ドローン)等によって得られた航空写真を示す画像情報を、本発明の撮影画像情報として適用する形態としてもよい。
【0028】
まず、図1を参照して、本実施形態に係る水位推定システム1の構成を説明する。図1は、本実施形態に係る水位推定システム1の構成の一例を示すブロック図である。
【0029】
図1に示すように、本実施形態に係る水位推定システム1は、本システムの中心的な役割を担う水位推定装置10と、衛星画像提供サーバ80と、情報蓄積装置90と、を含む。
【0030】
本実施形態に係る衛星画像提供サーバ80は、人工衛星70と連携し、人工衛星70による撮影によって得られた画像情報を契約者に提供するサービスを実施するものである。そして、本実施形態に係る水位推定装置10は、衛星画像提供サーバ80によって提供された画像情報を用いて、水位推定システム1が対象としている領域(以下、「対象領域」という。)の水位を推定する。従って、人工衛星70による撮影範囲には、当該対象領域が含まれている。
【0031】
一方、本実施形態に係る情報蓄積装置90は、水位推定システム1で用いる各種情報を蓄積するものである。本実施形態に係る情報蓄積装置90は不揮発性の記憶部92を備えている。記憶部92はHDD(Hard Disk Drive)、SSD(Solid State Drive)、フラッシュメモリ等によって実現される。記憶媒体としての記憶部92には、高さ情報データベース92Aが記憶されている。高さ情報データベース92Aについては、詳細を後述する。
【0032】
また、記憶部92には、対象物推定モデル92B及び車種推定モデル92Cが記憶される。本実施形態に係る対象物推定モデル92Bは、衛星画像提供サーバ80から取得された撮影画像情報が示す撮影画像から、少なくとも車両を含む予め定められた種類の対象物を検出するものである。また、本実施形態に係る車種推定モデル92Cは、対象物推定モデル92Bによって検出された車両の車種を推定するものである。
【0033】
本実施形態に係る対象物推定モデル92Bは、上記撮影画像情報を入力情報とし、当該撮影画像情報が示す撮影画像から上記対象物の領域を種類別に分類したセグメンテーション画像を示す画像情報を出力情報としたセグメンテーションモデルである。
【0034】
本実施形態に係る水位推定システム1では、対象物推定モデル92Bとして、深層学習技術を用いたセマンティック・セグメンテーション(Semantic Segmentation)の手法を用いたモデルが適用されている。図3には、画像セグメンテーション技術による各要素別の分類前後の画像の例が示されている。なお、図3の左図が分類前の画像(図3では「原画像」と表記。)の例であり、図3の右図が当該画像に対する分類後の画像(図3では「セグメンテーション画像」と表記。)の例である。また、図3に示す例では、構成要素として、植生、歩道、車道、建物及び空を適用しており、各構成要素を異なる濃度で表している。
【0035】
また、本実施形態では、過去の水害の発生時において人工衛星による撮影によって得られた画像を用いた教師データを作成し、対象物推定モデル92Bを学習させている。但し、この形態に限らず、上述した各種飛行機による航空写真を用いて対象物推定モデル92Bを学習させる形態としてもよい。
【0036】
なお、深層学習技術を用いたセマンティック・セグメンテーションの技術は、「ICUC10_Fang-Ying GONG_GSV-ViewFactorMaps_6-10 August 2018,「Google Street Viewを用いた、気候研究における超過密都市環境の街路要素の定量化」」、「Badrinarayanan, V., Kendall, A., & Cipolla, R. (2017). Segnet: A deep convolutional encoder-decoder architecture for image segmentation. IEEE transactions on pattern analysis and machine intelligence, 39(12), 2481-2495.」、「Chen, L. C., Papandreou, G., Kokkinos, I., Murphy, K., & Yuille, A. L. (2017). Deeplab: Semantic image segmentation with deep convolutional nets, atrous convolution, and fully connected crfs. IEEE transactions on pattern analysis and machine intelligence, 40(4), 834-848.」等にも記載されており、広く知られている技術であることから、これ以上のここでの説明は省略する。
【0037】
このように、本実施形態に係る水位推定システム1では、対象物推定モデル92Bとして、深層学習技術を用いたセマンティック・セグメンテーションの手法を用いたモデルを適用しているが、この形態に限らない。例えば、インスタンス・セグメンテーション(Instance-aware Segmentation)等の他の画像セグメンテーション技術を適用したモデルを対象物推定モデル92Bとして適用する形態としてもよい。
【0038】
一方、本実施形態に係る車種推定モデル92Cは、対象物推定モデル92Bによって得られたセグメンテーション画像及び上記撮影画像情報を入力情報とし、当該セグメンテーション画像によって特定される、当該撮影画像情報が示す撮影画像における車両の各々の車種の推定結果、及び対応する車両の位置を示す情報(以下、「推定結果情報」という。)を出力情報としたモデルである。
【0039】
本実施形態に係る水位推定システム1では、車種推定モデル92Cとして、深層学習技術を用いたCNN(Convolutional Neural Network、畳み込みニューラルネットワーク)によるモデルが適用されている。CNNによるモデルについても広く知られている技術であるので、これ以上のここでの説明は省略する。このように、本実施形態に係る水位推定システム1では、車種推定モデル92CとしてCNNによるモデルを適用しているが、この形態に限らないことも言うまでもない。
【0040】
なお、本実施形態に係る対象物推定モデル92B及び車種推定モデル92Cは、完全に水没している対象物を除き、水没していないか、又は一部水没している対象物の検出、及び検出した車両の車種の特定を目的としている。このため、教師データとしても、一部水没している対象物も含めるものとしている。また、本実施形態では、対象物推定モデル92B及び車種推定モデル92Cの学習を、日本各地における衛星画像を用いて行うものとされているが、これに限るものではない。例えば、水位の推定の対象とする領域(後述する対象領域)のみの衛星画像を用いて、対象物推定モデル92B及び車種推定モデル92Cの学習を行う形態としてもよい。
【0041】
水位推定装置10と、衛星画像提供サーバ80と、情報蓄積装置90とは、ネットワークNを介して接続されており、水位推定装置10は、衛星画像提供サーバ80及び情報蓄積装置90とネットワークNを介して相互に通信可能とされている。なお、本実施形態では、ネットワークNとしてインターネット、電話回線等の公共の通信回線を適用しているが、この形態に限定されるものではない。ネットワークNとして、例えば、LAN(Local Area Network)、WAN(Wide Area Network)等の企業内の通信回線を適用してもよく、これらの公共の通信回線及び企業内の通信回線を組み合わせて適用してもよい。また、本実施形態では、ネットワークNとして有線の通信回線を適用しているが、この形態に限定されるものではなく、無線の通信回線を適用してもよく、有線及び無線の各通信回線を組み合わせて適用してもよい。
【0042】
次に、図2を参照して、本実施形態に係る水位推定装置10のハードウェア構成を説明する。図2は、本実施形態に係る水位推定装置10のハードウェア構成の一例を示すブロック図である。なお、水位推定装置10の例としては、パーソナルコンピュータ及びサーバコンピュータ等の各種コンピュータが挙げられる。
【0043】
本実施形態に係る水位推定装置10は、CPU(Central Processing Unit)11、一時記憶領域としてのメモリ12、不揮発性の記憶部13、キーボードとマウス等の入力部14、液晶ディスプレイ等の表示部15、媒体読み書き装置(R/W)16及び通信インタフェース(I/F)部18を備えている。CPU11、メモリ12、記憶部13、入力部14、表示部15、媒体読み書き装置16及び通信I/F部18はバスBを介して互いに接続されている。媒体読み書き装置16は、記録媒体17に書き込まれている情報の読み出し及び記録媒体17への情報の書き込みを行う。
【0044】
記憶部13はHDD、SSD、フラッシュメモリ等によって実現される。記憶媒体としての記憶部13には、水位推定プログラム13Aが記憶されている。水位推定プログラム13Aは、当該プログラム13Aが書き込まれた記録媒体17が媒体読み書き装置16にセットされ、媒体読み書き装置16が記録媒体17からの当該プログラム13Aの読み出しを行うことで、記憶部13へ記憶(インストール)される。CPU11は、水位推定プログラム13Aを記憶部13から順次読み出してメモリ12に展開し、水位推定プログラム13Aが有するプロセスを順次実行する。
【0045】
次に、図4を参照して、本実施形態に係る水位推定装置10の機能的な構成について説明する。図4は、本実施形態に係る水位推定装置10の機能的な構成の一例を示すブロック図である。
【0046】
図4に示すように、本実施形態に係る水位推定装置10は、取得部11A、検出部11B、導出部11C、及び提示部11Dを含む。水位推定装置10のCPU11が水位推定プログラム13Aを実行することで、取得部11A、検出部11B、導出部11C、及び提示部11Dとして機能する。
【0047】
本実施形態に係る取得部11Aは、対象領域を撮影して得られた撮影画像情報を取得する。なお、本実施形態に係る取得部11Aによる撮影画像情報の取得が、衛星画像提供サーバ80から行われる点は上述した通りである。
【0048】
また、本実施形態に係る検出部11Bは、取得部11Aによって取得された撮影画像情報が示す画像から予め定められた対象物を複数検出する。なお、本実施形態では、対象物として、車両、建物、標識、信号機、縁石、及びガードレールの6種類の全てを適用しているが、これに限るものではない。例えば、これらの対象物の何れか1種類、又は2種類から5種類までの組み合わせを上記対象物として適用する形態としてもよい。
【0049】
また、本実施形態に係る導出部11Cは、検出部11Bによって検出された複数の対象物の上記画像での水面からの高さを、対応する対象物の実際の高さから減じることで、複数の対象物の各々の位置における水位を導出する。そして、本実施形態に係る提示部11Dは、導出部11Cによって導出された複数の水位を、対応する対象物の位置と関連付けて提示する。
【0050】
なお、本実施形態では、提示部11Dによる提示として、表示部15による表示による提示を適用しているが、これに限るものではない。例えば、音声再生装置による音声による提示や、画像形成装置による印刷による提示を、提示部11Dによる提示として適用する形態としてもよい。
【0051】
ここで、本実施形態に係る検出部11Bは、上記撮影画像情報を入力情報とし、上記対象物を示す画像が分離された画像情報を出力情報として機械学習されたセグメンテーションモデル(本実施形態では、対象物推定モデル92B)を用いて当該対象物を検出する点は上述した通りである。
【0052】
更に、本実施形態に係る導出部11Cは、水に浮遊している上記対象物の水位を、導出対象から除外する。なお、本実施形態では、当該除外する水位の特定を、検出部11Bによって検出された全ての対象物について水位を導出し、周囲の水位と比較して、予め定められた閾値以上乖離している水位を特定することで行っているが、これに限るものではない。例えば、検出部11Bによって検出された全ての対象物について水位を導出し、導出した水位のうち、当該導出した水位の全体の平均値より大きく外れた水位を特定することで、上記除外する水位を特定する形態としてもよい。
【0053】
次に、図5を参照して、本実施形態に係る水位推定装置10による水位推定方法について、より具体的に説明する。図5は、本実施形態に係る水位推定装置10による水位推定方法の説明に供する側面図である。
【0054】
図5に示すように、本実施形態に係る水位推定システム1では、導出部11Cにより、対象領域50に対する人工衛星70による撮影によって得られた撮影画像情報を用いて、車両52A、52B、・・・等の対象物の水面からの高さh1を導出する。ここで、図5に示す例では、車両52Aが存在している位置の方が、車両52Bが存在している位置より低いため、車両52Aのみが水に浸っている状態となっている。この場合、車両52Aにおける高さh1は、車両52Aの実際の高さより小さくなる一方、車両52Bにおける高さh1は、車両52Bの実際の高さと等しくなる。
【0055】
そこで、本実施形態に係る導出部11Cでは、対象物について導出した高さh1を、当該対象物の実際の高さから減じることにより、当該対象物が存在している位置における水位を導出するものとしている。図5に示す例では、車両52Aが存在している位置における水位は水位h2となり、車両52Bが存在している位置における水位は0(零)となる。
【0056】
次に、図6を参照して、本実施形態に係る高さ情報データベース92Aについて説明する。図6は、本実施形態に係る高さ情報データベース92Aの構成の一例を示す模式図である。本実施形態に係る高さ情報データベース92Aは、上記対象物の高さを示す情報を記憶するためのものである。
【0057】
図6に示すように、本実施形態に係る高さ情報データベース92Aは、対象物、位置情報、車種、及び高さの各情報が関連付けられて記憶される。
【0058】
上記対象物は、上述した対象物の種類を示す情報であり、上記位置情報は、対応する対象物の位置を示す情報である。また、上記車種は、対応する車両の車種そのものを示す情報であり、上記高さは、対応する対象物の実際の高さを示す情報である。
【0059】
従って、上記位置情報については、車両等の移動を伴わない物のみが対象とされて登録され、上記車種については、対象物が車両である場合のみが対象とされて登録されるものとされている。
【0060】
次に、図7図9を参照して、本実施形態に係る水位推定装置10の水位推定処理の実行時における作用を説明する。図7は、本実施形態に係る水位推定処理の一例を示すフローチャートである。
【0061】
水位推定装置10のCPU11が水位推定プログラム13Aを実行することによって、図7に示す水位推定処理が実行される。図7に示す水位推定処理は、水位推定装置10のユーザ(本実施形態では、水位推定システム1の管理者)により、水位推定プログラム13Aの実行を開始する指示入力が入力部14を介して行われた場合に実行される。なお、錯綜を回避するために、以下では、高さ情報データベース92Aが既に構築されており、対象物推定モデル92B及び車種推定モデル92Cが学習済みである場合について説明する。
【0062】
図7のステップ100で、CPU11は、情報蓄積装置90の記憶部92から、高さ情報データベース92Aにおける全ての対象物に対応する情報(以下、「高さ情報」という。)を読み出す。また、ステップ100で、CPU11は、情報蓄積装置90の記憶部92から、対象物推定モデル92B及び車種推定モデル92Cを読み出す。
【0063】
ステップ102で、CPU11は、この時点の衛星画像を示す撮影画像情報を衛星画像提供サーバ80から取得する。ステップ104で、CPU11は、取得した撮影画像情報を対象物推定モデル92Bに入力することにより、上述したセグメンテーション画像を導出する。
【0064】
ステップ106で、CPU11は、導出したセグメンテーション画像に複数の対象物が存在するか否かを判定し、否定判定となった場合はステップ108に移行する。ステップ108で、CPU11は、予め定められた構成とされた推定不能提示画面を表示するように表示部15を制御し、ステップ110で、CPU11は、所定情報が入力されるまで待機する。
【0065】
図8には、本実施形態に係る推定不能提示画面の構成の一例が示されている。図8に示すように、本実施形態に係る推定不能提示画面では、面的な水位の推定ができない旨を示す情報が、対象物の多くが水没している可能性が高い旨を示す情報と共に表示される。
【0066】
一例として図8に示す推定不能提示画面が表示部15に表示されると、ユーザは、表示内容を把握した後、入力部14を用いて、当該画面に表示されている終了ボタン15Bを指定する。ユーザによって終了ボタン15Bが指定されると、ステップ110が肯定判定となってステップ128に移行する。
【0067】
一方、ステップ106において肯定判定となった場合、即ち、導出したセグメンテーション画像に対象物(以下、「検出対象物」という。)が複数存在する場合はステップ112に移行する。ステップ112で、CPU11は、検出対象物の中に車両が含まれるか否かを判定し、否定判定となった場合はステップ118に移行する一方、肯定判定となった場合はステップ114に移行する。
【0068】
ステップ114で、CPU11は、導出したセグメンテーション画像及び取得した撮影画像情報を車種推定モデル92Cに入力することで、上述した推定結果情報を導出する。
【0069】
ステップ116で、CPU11は、導出した推定結果情報に含まれる、撮影画像情報が示す撮影画像における全ての車両の車種に対応する高さを示す情報を、読み出した高さ情報から抽出する一方、当該撮影画像における全ての車両の高さh1を導出する。
【0070】
なお、本実施形態では、車両の高さh1を、セグメンテーション画像における、対応する車両の輪郭線及び当該車両の車種を用いて、当該車両に対する撮影角度及び撮影位置からの距離を考慮して、当該車両の鉛直方向の高さを推定することで、導出している。但し、車両の高さh1の導出方法は、この形態に限るものではない。例えば、セグメンテーション画像を用いて、撮影画像情報が示す撮影画像における車両の画像領域を抽出し、抽出した車両の画像領域の鉛直方向に対する高さを、上記撮影角度及び撮影位置からの距離を考慮して導出することで高さh1を導出する形態としてもよい。
【0071】
そして、CPU11は、図5を参照して説明したように、導出した高さh1を、対応する車種の高さから減じることで、上記撮影画像における車両の各々毎に、当該車両が存在する位置の水位h2を導出する。
【0072】
ステップ118で、CPU11は、検出対象物の中に車両以外の対象物が含まれるか否かを判定し、否定判定となった場合はステップ122に移行する一方、肯定判定となった場合はステップ120に移行する。
【0073】
ステップ120で、CPU11は、撮影画像情報が示す撮影画像における車両以外の検出対象物(以下、「非車両対象物」という。)に対応する高さを示す情報を、読み出した高さ情報から抽出する一方、当該撮影画像における全ての非車両対象物の高さh1を導出する。
【0074】
なお、本実施形態では、非車両対象物の高さh1も、セグメンテーション画像における、対応する非車両対象物の輪郭線を利用して導出しているが、これに限るものではない。例えば、撮影画像情報が示す撮影画像における非車両対象物の画像領域を利用して当該非車両対象物の高さh1を導出する形態としてもよいことも車両の場合と同様である。
【0075】
そして、CPU11は、図5を参照して説明したように、導出した高さh1を、対応する非車両対象物の高さから減じることで、上記撮影画像における非車両対象物の各々毎に、当該非車両対象物が存在する位置の水位h2を導出する。
【0076】
ステップ122で、CPU11は、以上の処理によって導出した車両及び非車両対象物の各々の水位から、明らかに誤っている水位を除外する処理を行う。本実施形態では、当該処理として、上述したように、水に浮遊している対象物の水位を除外する処理を適用しているが、これに限るものではない。例えば、導出した水位のうち、想定される水位から明らかに乖離している水位(例えば、負の値となった水位や、想定される最大水位を上回っている水位等)を除外する処理を、上記処理として適用する形態としてもよい。
【0077】
ステップ124で、CPU11は、以上の処理を経て得られた水位を用いて、予め定められた構成とされた水位提示画面を表示するように表示部15を制御し、ステップ126で、CPU11は、所定情報が入力されるまで待機する。
【0078】
図9には、本実施形態に係る水位提示画面の構成の一例が示されている。図9に示すように、本実施形態に係る水位提示画面では、対象領域の地図を示す地図画像15Aに対し、以上の処理を経て得られた水位を示す情報を、対応する位置に重ねた状態で表示する。従って、ユーザは、水位提示画面を参照することで、対象領域の各地の面的な水位を容易に把握することができる。
【0079】
一例として図9に示す水位提示画面が表示部15に表示されると、ユーザは、表示内容を把握した後、入力部14を用いて終了ボタン15Bを指定する。ユーザによって終了ボタン15Bが指定されると、ステップ126が肯定判定となってステップ128に移行する。
【0080】
ステップ128で、CPU11は、水位推定処理を終了するタイミングとして予め定められた終了タイミングが到来したか否かを判定し、否定判定となった場合はステップ102に戻る一方、肯定判定となった場合は水位推定処理を終了する。なお、本実施形態では、上記終了タイミングとして、ユーザによって水位推定プログラム13Aの実行を終了する指示入力が入力部14を介して行われたタイミングを適用しているが、これに限るものでないことは言うまでもない。
【0081】
以上説明したように、本実施形態によれば、対象領域を撮影して得られた撮影画像情報を取得し、撮影画像情報が示す画像から予め定められた対象物を複数検出し、検出した複数の対象物の画像での水面からの高さを、対応する対象物の実際の高さから減じることで、複数の対象物の各々の位置における水位を導出し、導出した複数の水位を、対応する対象物の位置と関連付けて提示している。従って、水害の発生前の撮影画像を要することなく、水害の発生時における水位を面的に推定することができる。
【0082】
また、本実施形態によれば、撮影画像情報を入力情報とし、上記対象物を示す画像が分離された画像情報を出力情報として機械学習されたセグメンテーションモデルを用いて当該対象物を検出している。従って、人手によって対象物を指定する場合に比較して、より簡易に対象物を検出することができる。
【0083】
また、本実施形態によれば、水に浮遊している上記対象物の水位を、導出対象から除外している。従って、より高精度に面的な水位を推定することができる。
【0084】
更に、本実施形態によれば、上記対象物が、車両、建物、標識、信号機、縁石、及びガードレールの少なくとも1つを含む。従って、通常時から対象領域に存在する対象物を利用して水位を推定することができる。対象物の利用に際しては、建物のCAD(Computer Aided Design)情報やBIM(Building Information Modeling)情報、縁石やガードレール等のCIM(Construction Information Modeling)情報を活用することで、その推定の精度を高めることができる。
【0085】
[第2実施形態]
本実施形態では、撮影画像情報として適用する情報として、人工衛星70による衛星画像を示す画像情報に代えて、車両のドライブレコーダによって得られる撮影画像を示す画像情報を適用する場合について説明する。なお、本実施形態に係る水位推定システム1の構成は、図1に示す第1実施形態に係る水位推定システム1から人工衛星70及び衛星画像提供サーバ80が除かれたものとされている点のみが異なるため、ここでの図示及び説明は省略する。また、本実施形態に係る水位推定装置10の構成も、図2及び図4に示す第1実施形態に係る水位推定装置10と略同様であるため、ここでの図示及び説明は省略する。
【0086】
本実施形態に係る水位推定システム1では、上述したように、人工衛星による衛星画像ではなく、車両のドライブレコーダによる撮影画像が適用される。このため、本実施形態に係る対象物推定モデル92B及び車種推定モデル92Cは、上記衛星画像に代えて、車両のドライブレコーダによる撮影画像を用いて機械学習が行われたものとされている。この際に用いられる撮影画像は、第1実施形態に係る衛星画像と同様に、教師データとして一部水没している対象物も含むものとしている。
【0087】
また、本実施形態では、対象物推定モデル92B及び車種推定モデル92Cの学習を、日本各地における車両のドライブレコーダによって得られた撮影画像を用いて行うものとされているが、これに限るものではない。例えば、対象領域のみにおいて車両のドライブレコーダによって得られた撮影画像を用いて、対象物推定モデル92B及び車種推定モデル92Cの機械学習を行う形態としてもよい。
【0088】
以下、図10を参照して、本実施形態に係る水位推定装置10の水位推定処理の実行時における作用を説明する。図10は、本実施形態に係る水位推定処理の一例を示すフローチャートであり、図7に示すフローチャートと同一の処理を行うステップには図7と同一のステップ番号を付して、その説明を極力省略する。
【0089】
図10に示すように、本実施形態に係る水位推定処理は、第1実施形態に係る水位推定処理に比較して、ステップ102の処理に代えて、ステップ103の処理が適用されている点のみが異なっている。
【0090】
即ち、本実施形態に係る水位推定処理では、ステップ103で、CPU11は、対象領域に存在する複数の車両から、ドライブレコーダによる撮影によって得られた画像情報を取得する。
【0091】
そして、ステップ104以降の処理では、複数の車両の各々から取得した複数の画像情報を上述した撮影画像情報として適用して、第1実施形態に係る水位推定処理と同様の処理を行う。この結果、複数の車両においてドライブレコーダにより撮影された画像に含まれる対象物の各々毎に水位が導出されるため、一例として図9に示すものと同様の水位提示画面が表示されることになる。
【0092】
なお、上記各実施形態では、AI(Artificial Intelligence、人工知能)によるモデルを用いて、対象物の検出及び車両の車種の特定を行う場合について説明したが、これに限るものではない。例えば、従来既知のパターン・マッチング技術を用いて、対象物の検出及び車両の車種の特定を行う形態としてもよく、回帰分析やクラスター分析等の統計的手法によって、対象物の検出及び車両の車種の特定を行う形態としてもよい。また、例えば、撮影画像情報が示す撮影画像を表示部15等によって表示させ、当該画像に対して、ユーザに対象物及び車両の車種の少なくとも一方を指定させる形態としてもよい。
【0093】
また、上記各実施形態では、本発明の水位推定装置を、水位推定装置10及び情報蓄積装置90の各装置を用いて構成した場合について説明したが、これに限るものではない。例えば、水位推定装置10及び情報蓄積装置90を一体化した単一の装置で本発明の水位推定装置を構成する形態としてもよい。更に、本発明の水位推定装置を複数のコンピュータにより構成し、当該複数のコンピュータによって水位推定処理を分散処理する形態としてもよい。
【0094】
また、上記第1実施形態では、撮影画像情報として衛星画像を示す画像情報を適用し、上記第2実施形態では、撮影画像情報としてドライブレコーダによる撮影画像を示す画像情報を適用した場合について説明したが、これに限るものではない。例えば、対象領域の各所に設けられている監視カメラによる撮影によって得られた画像情報を撮影画像情報として適用する形態としてもよい。更に、対象領域に存在する人が所持する、スマートフォンやタブレット端末等のモバイル端末に搭載されているカメラによる撮影によって得られた画像情報を撮影画像情報として適用する形態としてもよい。
【0095】
また、上記各実施形態では、水位提示画面として図9に示すものを適用した場合について説明したが、これに限るものではない。例えば、図9に示すものに代えて、各地の水位をグラフとして表示する形態としてもよい。
【0096】
また、上記各実施形態において、例えば、取得部11A、検出部11B、導出部11C、及び提示部11Dの各処理を実行する処理部(processing unit)のハードウェア的な構造としては、次に示す各種のプロセッサ(processor)を用いることができる。上記各種のプロセッサには、前述したように、ソフトウェア(プログラム)を実行して処理部として機能する汎用的なプロセッサであるCPUに加えて、FPGA(Field-Programmable Gate Array)等の製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、ASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が含まれる。
【0097】
処理部は、これらの各種のプロセッサのうちの1つで構成されてもよいし、同種又は異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせや、CPUとFPGAとの組み合わせ)で構成されてもよい。また、処理部を1つのプロセッサで構成してもよい。
【0098】
処理部を1つのプロセッサで構成する例としては、第1に、クライアント及びサーバ等のコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組み合わせで1つのプロセッサを構成し、このプロセッサが処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)等に代表されるように、処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、処理部は、ハードウェア的な構造として、上記各種のプロセッサの1つ以上を用いて構成される。
【0099】
更に、これらの各種のプロセッサのハードウェア的な構造としては、より具体的には、半導体素子などの回路素子を組み合わせた電気回路(circuitry)を用いることができる。
【符号の説明】
【0100】
1 水位推定システム
10 水位推定装置
11 CPU
11A 取得部
11B 検出部
11C 導出部
11D 提示部
12 メモリ
13 記憶部
13A 水位推定プログラム
14 入力部
15 表示部
15A 地図画像
15B 終了ボタン
16 媒体読み書き装置
17 記録媒体
18 通信I/F部
50 対象領域
52A、52B 車両
70 人工衛星
80 衛星画像提供サーバ
90 情報蓄積装置
92 記憶部
92A 高さ情報データベース
92B 対象物推定モデル
92C 車種推定モデル
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10