(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2023108676
(43)【公開日】2023-08-07
(54)【発明の名称】浸水状況表示システム
(51)【国際特許分類】
G06Q 50/26 20120101AFI20230731BHJP
【FI】
G06Q50/26
【審査請求】未請求
【請求項の数】4
【出願形態】OL
(21)【出願番号】P 2022009839
(22)【出願日】2022-01-26
(71)【出願人】
【識別番号】518044859
【氏名又は名称】ASATEC株式会社
(74)【代理人】
【識別番号】110000925
【氏名又は名称】弁理士法人信友国際特許事務所
(72)【発明者】
【氏名】朝日 恵太
【テーマコード(参考)】
5L049
【Fターム(参考)】
5L049CC35
(57)【要約】
【課題】ユーザがいる場所の高さを考慮した適切な浸水状況が表示される浸水状況表示システムを提供する。
【解決手段】サービス提供エリアの浸水被害の状況を予想したデータを蓄積したサーバと、サーバにアクセス可能なユーザ端末を使って、情報処理端末の周囲で予想される浸水被害状況を確認する浸水状況表示システムである。サーバは、サービス提供エリアごとに特徴点のデータと水位の3DCGデータを蓄積する。ユーザ端末は、サーバにアクセスして、現在位置のエリアの特徴点のデータと水位の3DCGデータを取得し、ユーザ端末に内蔵されたカメラで周囲を撮影したユーザ撮影画像から特徴点を抽出し、サーバから受信した特徴点と、ユーザ端末で抽出した特徴点との照合により、三次元空間内の撮影位置と姿勢を特定し、水位の3DCGデータを表示部に表示する。
【選択図】
図1
【特許請求の範囲】
【請求項1】
サービス提供エリアの浸水被害の状況を予想したデータを蓄積したサーバと、前記サーバにアクセス可能な情報処理端末を使って、前記情報処理端末の周囲で予想される浸水被害状況を確認する浸水状況表示システムであり、
前記サーバは、
サービス提供エリアを撮影した登録用画像から、サービス提供エリアの地面を含む三次元空間を生成する三次元空間生成部と、
前記三次元空間生成部が生成した三次元空間内の特徴点を前記登録用画像から抽出し、抽出した特徴点のデータに、前記三次元空間内の座標位置のデータを付加する特徴点抽出部と、
サービス提供エリアごとに前記特徴点のデータと浸水深さの予想データに伴い生成した水位の3DCGデータを蓄積する記憶部と、を備え、
前記情報処理端末は、
前記サーバにアクセスして、現在位置のエリアの前記特徴点のデータと前記水位の3DCGデータを取得し、
前記情報処理端末に内蔵されたカメラで周囲を撮影したユーザ撮影画像から、特徴点を抽出し、
前記サーバから受信した特徴点と、前記情報処理端末で抽出した特徴点との照合により、前記三次元空間内の撮影位置と姿勢を特定し、取得した前記水位の3DCGデータをユーザ撮影画像に合成して表示部に表示する
浸水状況表示システム。
【請求項2】
前記情報処理端末は、現在位置を判断する測位部を備え、
前記測位部が判断した現在位置の情報を前記サーバに送信して、現在位置のエリアの前記特徴点のデータを取得する
請求項1に記載の浸水状況表示システム。
【請求項3】
前記特徴点は、画像内の建造物の輪郭部分に現れる輝度又は色の大きな変化箇所を含む
請求項1または2に記載の浸水状況表示システム。
【請求項4】
前記サーバの三次元空間生成部と特徴点抽出部は、前記サーバに接続された別の端末が備える
請求項1~3のいずれか1項に記載の浸水状況表示システム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、津波や大雨などの浸水災害発生時の被害予想を表示する浸水状況表示システムに関する。
【背景技術】
【0002】
沿岸地域や河川流域などの浸水が予想される地域では、津波や大雨などの浸水災害発生時に、どの程度の高さの浸水があるのかを事前にシミュレーションできるようになっている。また、AR(Augmented Reality)技術やVR(Virtual Reality)技術の進展に伴って、事前にシミュレーションした浸水高さを、実際に浸水が予想される地域を撮影した画像に、浸水した状況を合成して表示することも行われている。
【0003】
特許文献1には、任意の地点で、スマートフォンを使って撮影を行うことで、撮影した画面上に、浸水状況を示す画像を合成して表示する技術の例が記載されている。
【先行技術文献】
【特許文献】
【0004】
【発明の概要】
【発明が解決しようとする課題】
【0005】
特許文献1に記載された技術は、撮影した画像から空間のメッシュ情報を取得し、空間のメッシュから地面を検出し、地面から1.5m、2m等の水位を指定し、指定した水位の浸水状況の仮想空間画像を合成している。
この特許文献1に記載された技術は、画像取得時の撮像高さとして、1.5mなどの固定値を端末に記憶させ、固定の撮像高さを使って、画像内の地面の高さを推定している。そして、推定した地面の高さと、対応したメッシュの空間が持つ浸水表面の標高との差から、浸水深を算出して、算出した浸水深の仮想空間画像を合成している。
【0006】
しかしながら、メッシュ情報で合成した場合、メッシュ情報のデータが面のデータのため、データ容量が非常に大きくなるため、情報を扱う際の処理に非常に大きな処理能力が必要になるという問題がある。そのため、メッシュ情報はデータが重たく、5m範囲以内であれば指定の位置に表示できるが、使用者が5m以上歩いた場合には、1m以上の差異が生じ、指定の場所からずれてしまう。
【0007】
さらに、特許文献1に記載された技術の場合、端末を持って周囲を撮影中のユーザが、地面の上に直接立っている状況を想定して、画像取得時の撮像高さを1.5mなどの固定値としている。このため、地面から離れた位置で周囲を撮影する場合には、合成される浸水深さの仮想空間画像が適切な深さではなくなり、浸水深さが乱れたものになる。
具体的には、建物の2階以上の階から周囲を撮影している場合や、歩道橋などの高い場所から周囲を撮影するような場合には、表示される浸水深さが本来のシミュレーションとは全く異なったものになり、ユーザを混乱させてしまう。
【0008】
浸水状況の表示は、浸水深さがどの程度であるかを表示するものであるため、ユーザによる撮影状況で表示される浸水深さが適切でないことは好ましくない。
例えば、スマートフォンを持ったユーザが、高い場所に避難した上で、現在の場所が安全かどうかを見ようとしても、表示される合成画像は、ユーザが地面の上に立っていることを想定したものであるため、高い場所に避難したことが考慮されない状態で浸水深さが表示される。このため、現在の場所が安全であっても、安全でないとの誤解を生じさせる場合が起こり得る。
【0009】
本発明は、ユーザがいる場所の高さを考慮した適切な浸水状況が表示される浸水状況表示システムを提供することを目的とする。
【課題を解決するための手段】
【0010】
本発明の浸水状況表示システムは、サービス提供エリアの浸水被害の状況を予想したデータを蓄積したサーバと、サーバにアクセス可能な情報処理端末を使って、情報処理端末の周囲で予想される浸水被害状況を確認する浸水状況表示システムである。
サーバは、サービス提供エリアを撮影した登録用画像から、サービス提供エリアの地面を含む三次元空間を生成する三次元空間生成部と、三次元空間生成部が生成した三次元空間内の特徴点を登録用画像から抽出し、抽出した特徴点のデータに、三次元空間内の座標位置のデータを付加する特徴点抽出部と、サービス提供エリアごとに前記特徴点のデータと浸水深さの予想データに伴い生成した水位の3DCGデータを蓄積する記憶部と、を備える。
情報処理端末は、サーバにアクセスして、現在位置のエリアの特徴点のデータと水位の3DCGデータを取得し、情報処理端末に内蔵されたカメラで周囲を撮影したユーザ撮影画像から特徴点を抽出し、サーバから受信した特徴点と、情報処理端末で抽出した特徴点との照合により、三次元空間内の撮影位置と姿勢を特定し、水位の3DCGデータを表示部に表示する。
【発明の効果】
【0011】
本発明によれば、ユーザがどの高さで撮影を行っても、撮影したユーザの撮影画像に、その画像で示されたエリアの浸水深さの予想データに基づいた適切な深さの浸水状況を示す画像が合成されるので、被害予想などを適切に判断することができる。例えば、情報処理端末を所持したユーザが、2階などの高い場所から窓の外の状況を撮影した場合でも、その窓の外を撮影した画像で示される空間の地面からの高さを正しく判断した上で、浸水状況を示す画像が合成されるので、被害予想などが適切に表示されるようになる。
【図面の簡単な説明】
【0012】
【
図1】本発明の一実施の形態例によるシステム構成例を示す図である。
【
図2】本発明の一実施の形態例による掲示例を示す図である。
【
図3】本発明の一実施の形態例によるサーバ及びユーザ端末のハードウェア構成例を示すブロック図である。
【
図4】本発明の一実施の形態例によるサーバでの処理例を示すフローチャートである。
【
図5】本発明の一実施の形態例によるユーザ端末での処理例を示すフローチャートである。
【
図6】本発明の一実施の形態例によるユーザ撮影画像からの特徴点の抽出と三次元空間の例を示す図である。
【
図7】本発明の一実施の形態例によるユーザ端末での表示画面の例を示す図である。
【発明を実施するための形態】
【0013】
以下、本発明の一実施の形態例(以下、「本例」と称する)の浸水状況表示システムを、添付図面を参照して説明する。
【0014】
[システム全体の構成と概要]
図1は、本例の浸水状況表示システムの全体の概要を示す図である。
本例の浸水状況表示システムは、サービス提供エリアの浸水被害の状況を予想したデータに基づいて、ユーザが所持するスマートフォンなどの情報処理端末(ユーザ端末)で撮影した画像内に、浸水被害状況の水位の3DCGデータを合成して表示するシステムである。
【0015】
図1に示すシステム構成について説明すると、本例のシステムを運営するサービス提供者(自治体,特定の事業者など)は、サービス提供エリアの浸水被害の予想データや特徴点のデータの登録を行う管理者端末10を備える。
管理者端末10は、サービス提供エリアの様々な箇所を撮影した画像を取得し、取得した画像を、ネットワークNを経由してサーバ20に送る。
また、管理者端末10は、様々な水位の3DCGデータを制作し、制作した水位の3DCGデータをサーバ20に送る。
【0016】
ネットワークNに接続されたサーバ20は、管理者端末10から送られた画像から特徴点を抽出する処理を行うと共に、管理者端末10から送られた画像で示される領域が含まれる三次元空間を生成する。このときの三次元空間には、地面が含まれる。そして、生成した三次元空間に抽出した特徴点を配置する。なお、ここでの特徴点としては、例えば画像内の建造物の輪郭部分に現れる輝度又は色の大きな変化箇所など、予め設定した閾値以上の変化がある箇所が該当する。
【0017】
サーバ20は、得られた三次元空間と特徴点のデータを保存する。データを保存する際には、サーバ20は、三次元空間の絶対的な座標位置と、三次元空間内の特徴点の座標位置の情報を付加する。また、それぞれの三次元空間には、浸水深さの予想データが付加される。さらに、サーバ20は、それぞれの三次元空間ごとに、予想浸水深さ(水位)に対応した三次元のコンピュータグラフィックデータである3DCGデータを紐付けて保存する。
このようにして、サービス提供エリアの様々な箇所の建造物などの特徴点がサーバ20に保存される。
【0018】
サーバ20に保存された特徴点などのデータは、ユーザ端末30で実行中の浸水被害予想表示用のアプリケーションプログラムにより読み出される。ユーザ端末30は、ユーザUが所持するスマートフォンなどの情報処理端末である。
なお、本例のシステムを運用するサービス提供者は、屋外などで浸水被害予想表示用のアプリケーションプログラムをダウンロードするための案内を掲示するのが好ましい。
例えば、電柱49に貼り付けた案内表示40に、アプリケーションプログラムをダウンロードするためのアクセス先を示した二次元バーコードなどを掲載することが好ましい。
【0019】
図2は、案内表示40の具体例を示したものである。案内表示40には、例えば「この地域は津波発生時、浸水の可能性があります。××アプリをダウンロードして、下記のコードを読み込んでください。」と記載される。さらに、案内表示40には、そのアプリケーションプログラムのイベントをダウンロードするためのアクセス先を示した二次元バーコード41も記載される。二次元バーコードとしては、例えばQRコード(登録商標)が使用される。
なお、二次元バーコードからアプリケーションプログラムのイベントをダウンロードするのは一例であり、アプリケーションプログラムを起動させた後にユーザ端末30で表示される画面上のユーザ操作に基づいて、イベントをダウンロードしてもよい。また、
図1や
図2に示すような屋外に設置された看板としての案内表示40を行う代わりに、配布したパンフレットなどに記載された二次元バーコードやアドレスから、イベントをダウンロードしてもよい。
【0020】
図1の説明に戻ると、ユーザ端末30は、浸水被害予想表示用のアプリケーションプログラムを起動させ、そのプログラム上での指示に基づいて、周囲の景色をカメラ34で撮影する。
例えば、ユーザUは、
図1に示す周囲の建物50を、ユーザ端末30に内蔵されたカメラ34で撮影する。
このとき、ユーザ端末30は、カメラ34で撮影した画像から、特徴点を抽出する処理を行う。そして、ユーザ端末30は、現在位置の情報を取得し、取得した現在位置の情報をサーバ20に送信し、サーバ20が保存した現在位置の近傍の三次元空間と特徴点のデータと水位の3DCGデータを取得する。現在位置の情報は、ユーザ端末30に内蔵された測位部37(
図3参照)で取得される。
【0021】
ユーザ端末30では、撮影画像から抽出した特徴点の配置関係が、サーバ20から送信された特徴点の配置関係と比較される。
そして、ユーザ端末30は、サーバ20から送信された特徴点の配置関係の中から、撮影画像から抽出した特徴点の配置関係と一致するものを探索する。
【0022】
この探索で、ユーザ端末30は、サーバ20が保存した三次元空間内のいずれの領域をどの方向から撮影したものかを判断する。そして、ユーザ端末30は、判断した三次元空間の特徴点に紐付いた水位の3DCGデータを取得して、取得した水位の3DCGデータを撮影画像に合成して表示する。
撮影画像に水位の3DCGデータを合成する際には、特徴点に紐付いた水位の3DCGデータを合成するため、撮影画像に地面が含まれていない場合でも、浸水状況を示す画像の浸水深さは、予想データで示される浸水深さを正しく反映したものになる。
なお、ここで説明した水位の3DCGデータの合成処理は、ユーザ端末30内での処理で行うようにしたが、一部又は全ての処理をサーバ20で行って、ユーザ端末30ではサーバ20で処理されたデータを取得して、撮影画像に水位の3DCGデータが合成された画像を表示するようにしてもよい。
【0023】
[サーバ及びユーザ端末の構成]
図3(a)は、サーバ20をコンピュータ装置で構成した場合のハードウェア構成例を示す。
サーバ20を構成するコンピュータ装置は、CPU(Central Processing Unit:中央処理ユニット)21、グラフィック処理部22、主記憶部23、不揮発性ストレージ24、及びネットワークインタフェース25を備える。
【0024】
CPU21は、浸水状況表示システム用のサーバ20としての処理を実行するソフトウェアのプログラムコードを主記憶部23または不揮発性ストレージ24から読み出して実行する演算処理部である。主記憶部23には、浸水状況表示システム用のサーバとしての処理を実行するプログラムが記録される。
また、主記憶部23には、CPU21の制御でプログラムを実行することで、各情報処理部が構成される。例えば、主記憶部23には、
図3(a)に示すように、三次元空間生成部26と特徴点抽出部27と三次元CGデータ生成部28とが構成される。
【0025】
不揮発性ストレージ24は、例えば、HDD(Hard Disk Drive)やSSD(Solid State Drive)などの大容量情報記憶部である。不揮発性ストレージ24には、プログラムのデータの他に、特徴点のデータ、三次元空間データ、3DCGデータなどが保存される。
ネットワークインタフェース25は、ネットワークNを介して接続された管理者端末10及びユーザ端末30とデータの伝送処理を行う。
【0026】
図3(b)は、スマートフォンなどの情報処理端末で構成されるユーザ端末30のハードウェア構成例を示す。
ユーザ端末30は、バスにそれぞれ接続されたCPU31、主記憶部32、不揮発性ストレージ33、カメラ34、通信部35、表示部36、及び測位部37を備える。
【0027】
CPU31は、ユーザ端末30としての処理を実行するソフトウェアのプログラムコードを主記憶部32または不揮発性ストレージ33から読み出して実行する演算処理部である。本例のシステムとして実行する場合には、主記憶部32に、浸水状況表示システム用のユーザ端末30としての処理を実行するプログラムが記録される。
また、主記憶部32には、CPU31の制御でプログラムを実行することで、各情報処理部が構成される。例えば、主記憶部32には、
図3(b)に示すように、三次元空間生成部38と特徴点抽出部39と三次元CGデータ取得部39aとが構成される。
【0028】
ユーザ端末30の特徴点抽出部39は、撮影画像から特徴点を抽出する処理の他、抽出した特徴点と、サーバ20からダウンロードした特徴点との照合処理も行う。
また、三次元空間生成部38は、特徴点抽出部39が複数の特徴点の一致を検出した場合に、その一致を検出した複数の特徴点について、撮影画像から得た特徴点と、サーバ20から取得した特徴点との歪み状況から、ユーザ端末30で撮影を行っている位置と撮影方向(姿勢)を算出する。そして、三次元空間生成部38は、撮影画像に浸水状況を示す画像を合成するのに適切な箇所を判断し、該当する水位の3DCGデータを撮影画像に合成する。
三次元CGデータ取得部39aは、現在位置のエリアの水位の3DCGデータをサーバ20から取得する。
【0029】
不揮発性ストレージ33は、例えば、半導体メモリなどの大容量情報記憶部である。不揮発性ストレージ33には、サーバ20からダウンロードしたプログラムのデータの他に、サーバ20からダウンロードした、特徴点のデータ、三次元空間データ、水位の3DCGデータなどが保存される。
通信部35は、無線伝送回線を経由してネットワークNと接続して、サーバ20などとデータの伝送処理を行う。
【0030】
表示部36は、各種情報の表示処理や、カメラ34が撮影した画像の表示処理を行う。本例のシステムで行われる浸水状況を描画して合成して表示する処理も、表示部36で行われる。また、表示部36にはタッチパネルが組み込まれ、表示部36はユーザによる操作を受付ける機能を有する。
測位部37は、例えばGPS(Global Positioning System)と称される測位システムを利用して、現在位置の測位を行う。測位部37がGPSを利用するのは一例であり、その他の測位システムを利用してもよい。
ユーザ端末30は、この測位部37で測位された位置情報から、該当する位置の近傍の特徴点と水位の3DCGデータをサーバ20からダウンロードする処理を行う。
【0031】
[データの登録処理の流れ]
図4は、サーバ20がデータを保存する処理の流れを示すフローチャートである。
まず、管理者端末10は、サービス提供エリアを複数の角度から撮影した複数枚の画像を得る(ステップS11)。
そして、管理者端末10は、撮影した画像を、サーバ20にアップロードし、サーバ20に画像を保存させる(ステップS12)。
【0032】
サーバ20の三次元空間生成部26(
図3)は、ステップS12で保存した画像から、サービス提供エリアの三次元空間を生成する(ステップS13)。さらに、サーバ20の特徴点抽出部27(
図3)は、三次元空間に存在する特徴点を、画像から抽出する(ステップS14)。
ここでの特徴点は、例えば画像内の建造物の角となるような輝度変化がしきい値以上に大きい箇所など、予め決められた条件を満たす箇所である。また、特徴点抽出部27は、抽出した特徴点のそれぞれについて、三次元空間内の座標位置のデータを付加し、特徴点のデータと、特徴点の座標位置のデータとをサーバ20に保存する。また、三次元CGデータ生成部28が様々な水位の3DCGデータを生成する。
【0033】
そして、管理者端末10は、サービス提供エリアの浸水状況の予想データをアップロードする(ステップS15)。サーバ20は、サービス提供エリアの浸水状況の予想データに基づいて、保存したそれぞれの特徴点のデータに、該当するエリアの水位の3DCGデータを紐付けさせて保存する。
なお、
図3に示す3次元空間の生成や特徴点の抽出などの処理は、管理者端末10などのサーバ20以外の端末が行って、サーバ20は、作成されたデータの保存だけを行うようにしてもよい。また、次に説明するユーザ端末30で行う処理の一部を、サーバ20が行うようにしてもよい。
【0034】
[ユーザ端末で行う処理]
図5は、ユーザ端末30で行う処理の流れを示すフローチャートである。
まず、ユーザUは、サーバ20が提供しているアプリケーションプログラムをユーザ端末30にダウンロードする(ステップS21)。
【0035】
そして、ユーザUは、ユーザ端末30でダウンロードしたアプリケーションプログラムを起動し、ユーザUが2次元バーコードの読み取り又はアプリケーションプログラムに従ったユーザ操作を行う(ステップS22)。
この2次元バーコードの読み取り又はアプリケーションプログラムに従った操作でイベントを立ち上げる(ステップS23)。このイベントの立ち上がりで、ユーザ端末30は測位部37が測位した現在位置の情報をサーバ20に送信し、現在位置の近傍の三次元空間に存在する特徴点のデータと、特徴点に紐付いた水位の3DCGデータを取得する。
イベントの立ち上げでカメラ機能が起動し、表示部に撮影画像を表示する(ステップS24)。このとき、表示部は、周囲の景色の撮影を促すガイド表示を行う。
【0036】
ステップS25でユーザ端末30による撮影が開始した後、ユーザ端末30は、撮影されたユーザ画像から特徴点を抽出する処理を行う(ステップS25)。ここで特徴点を抽出する処理は、サーバ20側で画像から特徴点を抽出する処理と同じであり、画像内で予め決められた条件に合致した輝度変化などがある箇所(画像内の角などの特徴がある箇所)を抽出する。
そして、ユーザ端末30は、サーバ20から受信した特徴点のデータと、ユーザ端末30で得た撮影画像から抽出した特徴点のデータとを照合する(ステップS26)。そして、ユーザ端末30は、ステップS27の照合で輝度変化などの特徴状態がほぼ一致する特徴点を探し出し、複数の特徴点が一致する範囲があるか否かを判断する(ステップS27)。
【0037】
ステップS27で一致する範囲がない場合(ステップS27のNO)、ユーザ端末30は、ステップS25での撮影画像からの特徴点の抽出処理に戻る。
また、ステップS27で一致する範囲がある場合(ステップS27のYES)、ユーザ端末30は、一致した複数の特徴点から得た撮影位置と撮影方向(姿勢)から見た三次元空間を判断し、該当する三次元空間の特徴点に紐付いた水位の3DCGデータを現在の撮影画像に合成し、ユーザ端末30の表示部36に表示させる(ステップS28)。
そして、ステップS28で表示を行った後、ステップS25での撮影画像からの特徴点の抽出処理に戻る。なお、現在の撮影画像に映っている領域の下端の地面からの高さが、予想データで示される浸水深さよりも高い場合には、水位の3DCGデータの合成は行われない。
【0038】
ステップS25での撮影画像からの特徴点の抽出処理から、ステップS28での合成までの処理は、ユーザ端末30での1フレームの撮影ごとに行われる。そして、ユーザUがカメラ機能で撮影する範囲を変化させることで、合成される水位の位置も対応してリアルタイムに変化する。
【0039】
[特徴点の抽出と三次元空間の例]
図6は、ユーザ端末30のカメラ34で撮影した画像から、特徴点を抽出し、三次元空間を判断する例を示す。
ここでは、ユーザ端末30は、建物51を撮影しているとする。このとき、ユーザ端末30では、建物51の外形の角や窓の隅などが、×印を付けて示すように特徴点として検出され、その特徴点の輝度変化などが撮影画像から得られる。
ここでは説明を簡単にするために建物51の特徴点だけを示すが、撮影画像に含まれる特徴点は、建物51以外の箇所でも全て抽出される。
【0040】
そして、撮影画像から抽出した特徴点のデータと、サーバ20から取得した特徴点のデータとの照合により、同じ特徴点どうしが比較され、サーバ20から取得した特徴点が含まれる三次元空間Vが判定される。この三次元空間Vには地面Gが含まれ、ユーザ端末30では、照合した特徴点の位置から、撮影画像の地面Gの位置が判定される。撮影画像に地面Gが含まれない場合には、撮影画像の各地点の地面Gからの高さが判定される。
したがって、ユーザ端末30は、特徴点とその特徴点に紐付いた水位の3DCGデータから、撮影画像に正確な浸水状況を示す画像を合成できるようになる。
【0041】
[ユーザ端末での表示例]
図7は、ユーザ端末30が
図5のフローチャートの流れで周囲を撮影して浸水予想の状況を表示させる場合の、ユーザ端末30の表示部36での表示例を示す。
表示部36には、カメラ34で撮影した周囲の建物50が、そのまま表示されると共に、浸水状況の予想データに基づいて、浸水状況画像61が描画されて、撮影画像に合成される。
【0042】
このとき撮影画像に合成される想定水位の3DCGデータ61は、実際の地面からの高さを示す浸水状況であり、例えば撮影範囲を上側に向けて、地面から離れた場合には、浸水面も合成されなくなる。
したがって、ユーザがどの高さで周囲の撮影を行っても、撮影したユーザ撮影画像に、その画像で示されたエリアの浸水深さの予想データに基づいた適切な深さの浸水状況を示す画像が合成され、被害予想などを適切に判断することができる。例えば、ユーザ端末30を所持したユーザが、2階などの高い場所から窓の外の状況を撮影した場合でも、その窓の外を撮影した画像で示される空間の高さ考慮した想定水位の3DCGデータが合成され、被害予想などを適切に表示することが可能になる。
【0043】
[変形例]
なお、ここまで説明した実施の形態例は、本発明を分かりやすく説明するために詳細に説明したものであり、説明した例に限定されるものではない。例えば、上述した実施の形態例では、情報処理端末であるユーザ端末は、スマートフォンとした例を説明したが、その他の情報処理端末でもよい。例えば、ユーザの頭部に装着する、いわゆるヘッドマウントディスプレイをユーザ端末として利用することもできる。
【0044】
また、上述した実施の形態例では、サーバ20が三次元空間生成機能と特徴点抽出機能を備えるようにしたが、これらの三次元空間生成機能と特徴点抽出機能は、管理者端末10などの別の端末が備えるようにして、サーバ20では三次元空間データや特徴点データの保持だけを行うようにしてもよい。
【符号の説明】
【0045】
10…管理者端末、20…サーバ、21…CPU、22…グラフィック処理部、23…主記憶部、24…不揮発性ストレージ、25…ネットワークインタフェース、26…三次元空間生成部、27…特徴点抽出部、28…水位3次元CGデータ生成部、30…ユーザ端末、31…CPU、32…主記憶部、33…不揮発性ストレージ、34…カメラ、35…通信部、36…表示部、37…測位部、38…三次元空間生成部、39…特徴点抽出部、39a…水位3次元CGデータ取得部、40…案内表示、41…二次元バーコード、49…電柱、50,51…建物、61…想定水位の3DCGデータ