IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 綜合警備保障株式会社の特許一覧

(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024108065
(43)【公開日】2024-08-09
(54)【発明の名称】遠隔監視装置
(51)【国際特許分類】
   H04N 7/18 20060101AFI20240802BHJP
   H04N 23/60 20230101ALI20240802BHJP
   H04N 23/63 20230101ALI20240802BHJP
   H04N 23/695 20230101ALI20240802BHJP
【FI】
H04N7/18 D
H04N7/18 E
H04N23/60 300
H04N23/63 310
H04N23/695
【審査請求】未請求
【請求項の数】9
【出願形態】OL
(21)【出願番号】P 2023012347
(22)【出願日】2023-01-30
(71)【出願人】
【識別番号】000202361
【氏名又は名称】綜合警備保障株式会社
(74)【代理人】
【識別番号】100179969
【弁理士】
【氏名又は名称】駒井 慎二
(72)【発明者】
【氏名】関谷 俊一
(72)【発明者】
【氏名】池田 康臣
【テーマコード(参考)】
5C054
5C122
【Fターム(参考)】
5C054CA04
5C054CC02
5C054CG02
5C054CH08
5C054EA01
5C054EA03
5C054EA05
5C054FC12
5C054FC13
5C054FC15
5C054FE02
5C054FE05
5C054FE12
5C054FE16
5C054FE22
5C054FE28
5C054FF02
5C054FF03
5C054GB01
5C054HA19
5C122DA11
5C122EA01
5C122FA18
5C122FH09
5C122FH18
5C122FK23
5C122FK35
5C122FK37
5C122FK41
5C122GC52
5C122GD11
5C122HB01
(57)【要約】
【課題】撮像部からの画像データの受信に問題がある場合に対処する。
【解決手段】遠隔監視装置は、監視エリアに対する各々の被撮像領域を撮像すると共に前記撮像により取得した画像データを送信する複数の撮像部の各々により送信された前記画像データを受信する受信部と、前記受信部により受信された前記複数の撮像部の各々の前記画像データに基づいて、前記監視エリアをリアルタイムに表示する表示部と、前記複数の撮像部の何れかの撮像部からの前記画像データの受信が遅延している場合、前記表示されている前記監視エリアにおいて、前記受信が遅延している前記画像データに対応する遅延画像部分に、前記画像データの受信が遅延していることが示されるように前記表示部を制御する制御部と、を備える。
【選択図】図15
【特許請求の範囲】
【請求項1】
監視エリアに対する各々の被撮像領域を撮像すると共に前記撮像により取得した画像データを送信する複数の撮像部の各々により送信された前記画像データを受信する受信部と、
前記受信部により受信された前記複数の撮像部の各々が撮像した前記画像データに基づいて、前記監視エリアを表示する表示部と、
前記複数の撮像部の何れかの撮像部が撮像した前記画像データの受信が遅延している場合、前記表示されている前記監視エリアの、前記受信が遅延している前記画像データに対応する遅延画像部分に、前記画像データの受信が遅延していることが示されるように前記表示部を制御する制御部と、
を備える遠隔監視装置。
【請求項2】
前記画像データの受信が遅延していることが示されることは、
前記遅延画像部分の表示態様が変えられること、
前記遅延画像部分に遅延時間が表示されること、および
前記遅延画像部分に前記遅延していることを示す文字が表示されること、
の少なくとも1つである、
請求項1に記載の遠隔監視装置。
【請求項3】
前記制御部は、前記表示されている前記監視エリアに人物が表示されている場合、前記人物に対応して前記人物の識別情報が表示されるように、前記表示部を制御する、請求項1または請求項2に記載の遠隔監視装置。
【請求項4】
前記監視エリアには、前記監視エリアを撮像すると共に前記撮像により取得した補完画像データを送信する補完撮像部が配置され、
前記受信部は、前記補完画像データを受信し、
前記制御部は、前記複数の撮像部の何れかの撮像部が撮像した前記画像データが受信されていない場合、該受信されていない前記何れかの撮像部が撮像した画像データに代わって前記補完画像データが用いられるように前記表示部を制御する、
請求項1または請求項2に記載の遠隔監視装置。
【請求項5】
前記補完撮像部は、前記複数の撮像部の各々の前記被撮像領域を撮像可能な位置に移動可能であり、
前記制御部は、前記複数の撮像部の何れかの撮像部が撮像した前記画像データが受信されていない場合、前記何れかの撮像部の前記被撮像領域を撮像可能な位置に移動するように前記補完撮像部を制御する、
請求項4に記載の遠隔監視装置。
【請求項6】
監視エリアに対する各々の被撮像領域を撮像すると共に前記撮像により取得した画像データを送信する複数の撮像部の各々により送信された前記画像データと、前記監視エリアを撮像すると共に前記撮像により取得した補完画像データを送信する補完撮像部により送信された前記補完画像データと、を受信する受信部と、
前記受信部により受信された前記複数の撮像部の各々の前記画像データに基づいて、前記監視エリアを表示する表示部と、
前記複数の撮像部の何れかの撮像部が撮像した前記画像データが受信されていない場合、前記何れかの撮像部から送信される画像データに代わって前記補完画像データが用いられるように前記表示部を制御する制御部と、
を備える遠隔監視装置。
【請求項7】
前記補完撮像部は、前記複数の撮像部の各々の前記被撮像領域を撮像可能な位置に移動可能であり、
前記制御部は、前記複数の撮像部の何れかの撮像部からの前記画像データが受信されていない場合、前記何れかの撮像部の前記被撮像領域を撮像可能な位置に移動するように前記補完撮像部を制御する、
請求項6に記載の遠隔監視装置。
【請求項8】
監視エリアに対する各々の被撮像領域を撮像すると共に前記撮像により取得した画像データを送信する複数の撮像部の各々により送信された前記画像データを受信する受信部と、
前記受信部により受信された前記複数の撮像部の各々の前記画像データに基づいて、前記監視エリアを表示する表示部と、
前記表示されている前記監視エリアに人物が表示されている場合、前記人物に対応して前記人物の識別情報が表示されるように、前記表示部を制御する制御部と、
を備える遠隔監視装置。
【請求項9】
前記表示部は、前記画像データに基づいて構築された前記監視エリアの仮想空間を表示する、請求項1、請求項6、または請求項8に記載の遠隔監視装置。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、遠隔監視装置に関する。
【背景技術】
【0002】
従来、視点位置(カメラ位置)を基準として監視エリアの3次元モデルから生成した2次元投影画像の所定領域に、当該カメラで撮像した撮像画像を合成する技術が開示されている(特許文献1)。
【先行技術文献】
【特許文献】
【0003】
【特許文献1】特開第2013-214944号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
しかし、上記従来技術では、カメラからの画像データの受信に障害があった場合、何ら対処していない。
【0005】
また、上記従来技術では、監視エリアに人物(不審者)が表示されている場合、何ら対処していない。
【0006】
本開示の技術は、撮像部からの画像データの受信に問題がある場合または監視エリアに人物が表示されている場合に対処することができる遠隔監視装置を提供することを目的とする。
【課題を解決するための手段】
【0007】
上記目的を達成するため本開示の技術の第1の態様の遠隔監視装置は、監視エリアに対する各々の被撮像領域を撮像すると共に前記撮像により取得した画像データを送信する複数の撮像部の各々により送信された前記画像データを受信する受信部と、前記受信部により受信された前記複数の撮像部の各々が撮像した前記画像データに基づいて、前記監視エリアを表示する表示部と、 前記複数の撮像部の何れかの撮像部からの前記画像データの受信が遅延している場合、前記表示されている前記監視エリアの、前記受信が遅延している前記画像データに対応する遅延画像部分に、前記画像データの受信が遅延していることが示されるように前記表示部を制御する制御部と、を備える。
【0008】
本開示の技術の第2の態様の遠隔監視装置は、監視エリアに対する各々の被撮像領域を撮像すると共に前記撮像により取得した画像データを送信する複数の撮像部の各々により送信された前記画像データと、前記監視エリアを撮像すると共に前記撮像により取得した補完画像データを送信する補完撮像部により送信された前記補完画像データと、を受信する受信部と、前記受信部により受信された前記複数の撮像部の各々の前記画像データに基づいて、前記監視エリアを表示する表示部と、前記複数の撮像部の何れかの撮像部が撮像した前記画像データが受信されていない場合、前記何れかの撮像部から送信される画像データに代わって前記補完画像データが用いられるように前記表示部を制御する制御部と、を備える。
【0009】
本開示の技術の第3の態様の遠隔監視装置は、監視エリアに対する各々の被撮像領域を撮像すると共に前記撮像により取得した画像データを送信する複数の撮像部の各々により送信された前記画像データを受信する受信部と、前記受信部により受信された前記複数の撮像部の各々の前記画像データに基づいて、前記監視エリアを表示する表示部と、前記表示されている前記監視エリアに人物が表示されている場合、前記人物に対応して前記人物の識別情報が表示されるように、前記表示部を制御する制御部と、を備える。
【発明の効果】
【0010】
本開示の技術は、撮像部からの画像データの受信に問題がある場合または監視エリアに人物が表示されている場合に対処することができる。
【図面の簡単な説明】
【0011】
図1】第1の実施の形態における遠隔監視システムのブロック図である。
図2】第1の実施の形態における現実世界の監視エリア10の一例の斜視図である。
図3】VR監視卓に設けられた遠隔監視装置50の一例の斜視図である。
図4】VR監視卓に設けられた遠隔監視装置50の一例の上面図である。
図5】遠隔監視装置50の電気系のハードウェア構成の一例を示すブロック図である。
図6】現実世界の監視エリア10を、仮想空間100にデジタルツイン方式でリアルタイムに構築する構築処理の流れの一例を示すフローチャートである。
図7A】(a)は、分割3次元モデルの各範囲10DM1~10DM4の一例を示し、(b)は、監視エリア10における監視セクション10s1~10s4の一例を示す図である。
図7B】構築された監視エリア10の仮想空間100、監視員の視点および視線方向の履歴を示した一例を示す概念図である。
図8】仮想空間100の第1の視点から第1の視線方向に仮想空間100を見たように、構築された仮想空間100から生成された画像の一例を示す概念図である。
図9】仮想空間100の第2の視点から第2の視線方向に仮想空間100を見たように、構築された仮想空間100から生成された画像の一例を示す概念図である。
図10】仮想空間100の第2の視点から第3の視線方向に仮想空間100を見たように、構築された仮想空間100から生成された画像の一例を示す概念図である。
図11A】人物の検知および画像受信の遅延への対処処理の一部の流れの一例を示すフローチャートである。
図11B】人物の検知および画像受信の遅延への対処処理の残りの流れの一例を示すフローチャートである。
図12】(a)は、現実世界の監視エリア10に3人の人物が侵入した状況における監視エリア10の仮想空間100の一例を示す斜視図であり、(b)は、現実世界の監視エリア10に3人の人物が侵入した状況における監視エリア10の仮想空間100の一例を示す上面図である。
図13】現実世界の監視エリア10に3人の人物が侵入した状況における監視エリア10の仮想空間100の監視画面の一例を示す斜視図である。
図14】現実世界の監視エリア10において一人の人物が第2の監視セクション104s2に移動した状況における監視エリア10の仮想空間100の一例を示す図である。
図15】現実世界の監視エリア10の第1の監視セクション104s1にいた人物が第2の監視セクション104s2に移動した状況で撮像部12Aが取得した画像データの受信が遅延した場合の仮想空間100の構築における対処内容を示す図である。
図16】第2の実施の形態における現実世界の監視エリア10の斜視図である。
図17】第2の実施の形態における図6のステップ82のサブルーチンを示すフローチャートである。
図18】第2の撮像部112Bの画像データの受信が途絶えた場合の監視エリア10の仮想空間100の様子を示す図である。
図19】現実世界の監視エリア10において、第2の撮像部112Bの撮像領域を撮像可能な位置に、撮像部の撮像機能を有するドロ-ンを飛行させる様子を示す図である。
図20】第2の撮像部112Bに代えてドロ-ンの撮像部150Cが撮像した画像データおよび点群データを用いて再現された監視エリア10の仮想空間100の様子を示す図である。
図21A】順次切り替え表示方式の場合の、監視エリア10の概念斜視図である。
図21B】順次切り替え表示方式の場合の、監視エリア10の仮想空間100における視点、視線方向を順次切り替える様子を示す図である。
図22】第2の変形例のヘッドマウントディスプレイを用いた場合の遠隔監視装置の一例を示す図である。
【発明を実施するための形態】
【0012】
以下、図面を参照して、本開示の技術の実施の形態を説明する。
【0013】
[第1の実施の形態]
第1の実施の形態を説明する。
(構成)
図1は、第1の実施の形態における遠隔監視システムのブロック図である。遠隔監視システムでは、監視センター300に、複数の監視員の各々が操作する複数の遠隔監視装置50が備えられている。ある監視員により操作される遠隔監視装置50では、例えば、地下1階および地上複数階からなる建物200Aの各階の監視エリアが監視される。他の監視員により操作される他の遠隔監視装置50では、他の建物200B、200C、200Dの各監視エリアが監視される。遠隔監視装置50は、監視員の操作によって、監視する対象の建物を状況に応じて選択したり切り替えたりすることができるようになっている。以下、遠隔監視装置50により、建物200Aの地下1階の監視エリア10が監視される場合を例にとり説明する。
【0014】
図2は、第1の実施の形態における現実世界の監視エリア10の一例の斜視図である。図2に示すように、監視エリア10は、例えば、百貨店の食品フロアであり、複数のショーケース14N1~14N5が配置されている。また、監視エリア10の天井には、複数の撮像部12A~12Dが異なる位置に設置されている。複数の撮像部12A~12Dの各々は、監視エリア10の被撮像領域を撮像すると共に当該撮像により取得した画像データを、監視エリア10から遠隔に位置する遠隔監視装置50(図3図5も参照)に、例えば、インターネット等を介して送信する。複数の撮像部12A~12Dの各々の撮像方向は、天井から床に向かう方向である。複数の撮像部12A~12Dの各々は、当該撮像方向を中心に所定の画角(例えば、180°)の被撮像領域を撮像可能である。なお、画角は、固定でもよく、また、変更可能であってもよい。画像データは、動画像の画像データである。即ち、複数の撮像部12A~12Dの各々は、所定のフレームレートで、監視エリア10を撮像し且つ当該撮像により取得した画像データを遠隔監視装置50に送信する。なお、複数の撮像部12A~12Dの各々は、例えば、3D-LiDAR(Light Detection And Ranging)カメラである。この場合、複数の撮像部12A~12Dは、撮像により画像データを取得すると同時に、点群データ(撮像部からの測距データ)を取得する。本実施の形態では、撮像部12A~12Dとして3D-LiDARカメラを使用する場合について説明する。
【0015】
図3は、VR(Virtual Reality)監視卓に設けられた遠隔監視装置50の一例の斜視図であり、図4は、VR監視卓に設けられた遠隔監視装置50の一例の上面図である。図3および図4に示すように遠隔監視装置50は、VR監視卓に設けられている。VR監視卓は、テーブル70、椅子72、および表示装置62を備えている。表示装置62は、左側スクリーン62L、中央スクリーン62C、および右側スクリーン62Rを備えている。テーブル70には、押しボタン64Aおよびジョイスティック64Bが設けられている。ジョイスティック64Bは、スティック状の操作部が前後および左右に倒されるように操作可能に構成されている。ジョイスティック64Bは、操作部が倒された方向に応じた指示(例えば、視点の移動、または視線方向の変更、指示内容一覧からの指示内容の選択、等)を、遠隔監視装置50に入力する。押しボタン64Aは、操作部が押下操作されたことに応じた指示(例えば、ジョイスティック64Bの操作対象を、視点の移動、または視線方向の変更のいずれかに切り替える指示、指示内容一覧から選択した指示の確定、等)を遠隔監視装置50に入力する。
【0016】
監視員は、椅子72に座り、押しボタン64Aおよびジョイスティック64Bを操作する。表示装置62は、詳細には後述するが複数の撮像部12A~12Dの各々から取得した画像データに基づいて構築された監視エリア10の仮想空間100(図7Bも参照)を表示する。監視員は、表示装置62に表示された監視エリア10の仮想空間100を見て、監視エリア10をリアルタイムに遠隔監視することができる。監視員は、押しボタン64Aおよびジョイスティック64Bを操作することにより、視点および視線方向を遠隔監視装置50に入力する。そうすると、監視エリア10の仮想空間100を入力された視点から入力された視線方向に見たような画像が仮想空間100から生成され、表示装置62に表示される。
【0017】
図5は、遠隔監視装置50の電気系のハードウェア構成の一例を示すブロック図である。図5に示すように、遠隔監視装置50は、コンピュータ52と、表示装置62と、押しボタン64Aおよびジョイスティック64Bと、通信I/F66とを含む。
【0018】
コンピュータ52は、プロセッサ54、NVM(Non-volatile memory)56、およびRAM(Random Access Memory)60を備えている。プロセッサ54、NVM56、およびRAM60は、バス68に接続されている。
【0019】
プロセッサ54は、DSP(Digital Signal Processor)、CPU(Central Processing Unit)、およびGPU(Graphics Processing Unit)を含む処理装置であり、DSPおよびGPUは、CPUの制御下で動作し、後述する処理の実行を担う。ここでは、プロセッサ54の一例として、DSP、CPU、およびGPUを含む処理装置を挙げているが、これはあくまでも一例に過ぎず、プロセッサ54は、GPU機能を統合した1つ以上のCPUおよびDSPであってもよいし、GPU機能を統合していない1つ以上のCPUおよびDSPであってもよいし、TPU(Tensor Processing Unit)が搭載されていてもよい。
【0020】
NVM56は、各種プログラムおよび各種パラメータ等を記憶する不揮発性の記憶装置である。NVM56としては、例えば、フラッシュメモリ(例えば、EEPROM(Electrically Erasable and Programmable Read Only Memory))が挙げられる。RAM60は、一時的に情報が記憶されるメモリであり、プロセッサ54によってワークメモリとして用いられる。RAM60としては、例えば、DRAM(Dynamic Random Access Memory)またはSRAM(Static Random Access Memory)等が挙げられる。
【0021】
本実施の形態では、NVM56には、遠隔監視プログラム58、具体的には、構築処理プログラム(図6参照)および対処処理プログラム(図11Aおよび図11B参照)が格納されている。プロセッサ54は、遠隔監視プログラム58をRAM60に展開して実行する。プロセッサ54が遠隔監視プログラム58を実行すると、プロセッサ54は、構築部54A、取込部54B、判断部54C、付与部54D、表示処理部54E、および計算部54Fとして機能する。
【0022】
表示装置62と、押しボタン64Aおよびジョイスティック64Bとは、バス68に接続されている。
【0023】
通信I/F66は、通信プロセッサおよびアンテナ等を含むインタフェースであり、バス68に接続されている。通信I/F66に対して適用される通信規格は、例えば、5G(5th Generation Mobile Communication System)、Wi-Fi(登録商標)、またはBluetooth(登録商標)等を含む無線通信規格である。遠隔監視装置50は、通信I/F66により、詳細には後述する複数の撮像部12A~12Dの各々により送信された画像データおよび点群データを受信する。
【0024】
通信I/F66は、本開示の技術の「受信部」の一例である。表示装置62は、本開示の技術の「表示部」の一例である。プロセッサ54は、本開示の技術の「制御部」の一例である。
【0025】
(作用)
次に、本実施の形態の作用を説明する。
【0026】
図6は、現実世界の監視エリア10を、仮想空間100にデジタルツイン方式でリアルタイムに構築する構築処理の流れの一例を示すフローチャートである。プロセッサ54は、遠隔監視プログラム58の構築処理プログラムを実行することにより、本構築処理を実行する。
【0027】
ステップ80で、構築部54Aは、監視エリア10を仮想空間100に再現する。具体的には、構築部54Aは、各撮像部12A~12Dが監視エリア10を予め撮像してNVM56に記憶しておいた所定の時点の画像データ(静止画像)および点群データ(撮像部からの測距データ)、ならびに各撮像部12A~12Dの設置位置、撮像方向、画角の情報を読み出す。ここで、所定の時点とは、監視員に対して監視エリア10の基準の状態として認識させるための画像データが取得可能な時点であり、例えば監視エリア10が無人の状態である時点である。構築部54Aは、まず監視エリア10の3次元モデル(ワイヤフレーム)を構築する。次に構築部54Aは、構築した3次元モデル(ワイヤフレーム)の対応する位置に、NVM56から読み出した画像データ(静止画像)、点群データ、それらを撮像した撮像部の設置位置、撮像方向、画角の情報に基づいて、テクスチャを合成する。具体的には、構築部54Aは、複数の撮像部12A~12Dの各々を中心とする範囲に4分割された監視エリア10のそれぞれの範囲10DM1~10DM4(図7A(a)も参照)を、複数の撮像部12A~12Dの各々に対応する分割3次元モデル(ワイヤフレーム)として構築する。なお、図7A(b)には、後述する監視セクション10s1~10s4も示している。構築部54Aは、その分割3次元モデル(ワイヤフレーム)の対応する位置に、NVM56から読み出した画像データ(静止画像)、点群データ、それらを撮像した撮像部の設置位置、撮像方向、画角の情報に基づいて、テクスチャを合成する。最後に、構築部54Aは、その合成した分割3次元モデルを組み合わせて、監視エリア10の全体の3次元モデル(仮想空間100)を構築する。以上により、監視エリア10が仮想空間100に再現される。なお、この段階では、仮想空間100にはまだ各撮像部12A~12Dが撮像したリアルタイムの画像データ(動画像)および点群データに基づくテクスチャは合成されていない。
【0028】
ステップ82で、構築部54Aは、各撮像部12A~12Dで撮像して得られたリアルタイムの画像データおよび点群データ(各撮像部からの測距データ)を取得する。
【0029】
ステップ84で、構築部54Aは、各撮像部12A~12Dから取得した画像データおよび点群データ、ならびにNVM56から読み出した各撮像部12A~12Dの設置位置、撮像方向、画角に基づいて、テクスチャを、仮想空間100に合成する。
【0030】
ステップ86で、構築部54Aは、監視員により押しボタン64Aおよびジョイスティック64Bが操作されて指定された視点および視線方向を特定する。
【0031】
ステップ88で、構築部54Aは、仮想空間100内の、特定された視点および視線方向で見たような画像(平面画像)を、仮想空間100から生成する。
【0032】
ステップ90で、構築部54Aは、仮想空間100から生成した、特定された視点および視線方向で仮想空間100を見たような画像(平面画像)を、表示装置62に表示する。
【0033】
ステップ92で、構築部54Aは、押しボタン64Aおよびジョイスティック64Bにより終了指示がされたか否かを判断する。
【0034】
終了指示がされたと判断されなかった場合(ステップ92:N)には、本構築処理は、ステップ82に戻って、以上の処理(ステップ82~92)を再度実行する。処理(ステップ82~92)が繰り返し実行されることにより、各撮像部12A~12Dからリアルタイムの画像データ(動画像)および点群データが取得され、それらに基づいて監視エリア10の仮想空間100にテクスチャが合成され、特定された視点および視線方向で見たような画像(平面画像)が、合成した仮想空間100から生成され、表示装置62に表示される。つまり、監視エリア10の仮想空間100がリアルタイムに動画像で表示される。
【0035】
終了指示がされたと判断された場合(ステップ92:Y)には、本構築処理は終了する。
【0036】
なお、構築部54Aがステップ88で生成しステップ90で表示する、特定された視点および視線方向で仮想空間100を見たような画像(平面画像)の画角は、監視員が押しボタン64Aおよびジョイスティック64Bを操作すること等により変更可能であってもよい。
【0037】
以上により、図7Bに示すように、図2に示す現実世界の監視エリア10に対応する仮想空間100が構築される。上記のように、監視エリア10に複数のショーケース14N1~14N5(図2参照)が配置されているので、仮想空間100にも複数のショーケース14N1~14N5が再現される。なお、現実世界の監視エリア10に存在する物体と、監視エリア10の仮想空間100に再現された物体で、対応するものには同じ符号を付すものとする。(例えば監視エリア10のショーケース14N1と仮想エリア100に再現されたショーケース14N1)
【0038】
上記のように構築部54Aは、各撮像部12A~12Dで撮像して得られた画像データに基づいて、テクスチャを仮想空間100に合成するので、監視員は、監視エリア10の仮想空間100を見ながら、現実世界の監視エリア10をリアルタイムに監視することができる。なお、上記の「リアルタイム」は、複数の撮像部12A~12Dが監視エリア10を撮像した時刻と略同じ時刻に、という意味で用いている。即ち、「リアルタイム」は、複数の撮像部12A~12Dが監視エリア10を撮像した時刻と、仮想空間100において当該事象が表示された時刻との間に時間的なずれがないことを意味しない。上記の「リアルタイム」は、各撮像部12A~12Dが撮像してから、監視エリア10の仮想空間100が構築され、構築された仮想空間100が表示されるまでの通信、処理に最低限必要な所要時間分のずれがあることも含めて用いている。
【0039】
上記のように監視エリア10の仮想空間100で監視員が現実世界の監視エリア10を監視する。具体的には、監視員は、押しボタン64Aおよびジョイスティック64Bを操作して、視点および視線方向の各々を指定する。これにより、視点および視線方向が遠隔監視装置50に入力され、特定される(ステップ86)。
【0040】
例えば、監視員は、図7Bに示した監視エリア10の仮想空間100において第1の視点p1および第1の視線方向d1を指定する。第1の視点p1および第1の視線方向d1が遠隔監視装置50に入力され、ステップ86で、第1の視点p1および第1の視線方向d1が特定される。ステップ88では、構築部54Aは、第1の視点p1から第1の視線方向d1に監視エリア10の仮想空間100を見たような画像(平面画像(図8参照))を、仮想空間100から生成し、ステップ90で、表示する。第1の視点p1は、ショーケース14N1とショーケース14N2との間の監視エリア10の手前の壁の位置であり、第1の視線方向はショーケース14N5に向かう方向である。よって、第1の視点p1から表示される画像には、ショーケース14N1とショーケース14N2とが手前に位置し、奥側に、ショーケース14N5と、ショーケース14N5の右隣りにショーケース14N3、14N4とが位置する。
【0041】
次に、監視員は、例えば、監視エリア10の第1の視点p1から、ショーケース14N1とショーケース14N2との間の通路に沿って、更に奥に進むように視点を変化させる。例えば、ショーケース14N5の手前の第2の視点p2まで進める。視点が変化される毎に、その変化した視点から視線方向に見たような画像が生成され、表示される。例えば、監視員は、第1の視点p1から奥に進んだ第2の視点p2および第1の視線方向d1と同じ第2の視線方向d2を指定する。これにより、図9に示すように、第2の視点p2から第2の視線方向d2に監視エリア10の仮想空間100を見たような画像が生成され、表示される。第2の視点p2はショーケース14N5の手前であり、第2の視線方向d2はショーケース14N5に向かう方向である。よって、表示される画像には、ショーケース14N5が正面に位置し、ショーケース14N5の右隣りにショーケース14N3、14N4が位置する。
【0042】
次に、監視員は、例えば、第2の視点p2から右側、即ち、ショーケース14N2とショーケース14N3の間の通路に沿って、監視エリア10を監視するため、まず、第2の視点p2において、第2の視線方向d2と直交する、第3の視線方向d3を指定する。これにより、図10に示すように、第2の視点p2から第2の視線方向d3に監視エリア10の仮想空間100を見たような画像が生成され、表示される。第2の視点p2はショーケース14N5の手前であり、第3の視線方向d3はショーケース14N2とショーケース14N3の間の通路に沿った方向である。よって、表示される画像には、ショーケース14N2とショーケース14N3の間の通路が正面に位置し、ショーケース14N3の左隣りにショーケース14N4が位置する。
【0043】
このように監視員は、視点および視線方向を変化させなら当該視点から当該視線方向に監視エリア10の仮想空間100を見たような画像を見ながら、監視エリア10を監視する。
【0044】
図11Aおよび図11Bは、人物の検知および画像データ受信の遅延の各々への対処処理の流れの一例を示すフローチャートである。なお、本対処処理は、所定時間毎に、構築処理(図6)に割り込んで実行される。プロセッサ54は、遠隔監視プログラム58の対処処理プログラムを実行することにより、本対処処理を実行する。
【0045】
図11Aのステップ112で、取込部54Bは、図2に示すように現実世界の監視エリア10に設置された撮像部12A~12Dを識別する変数c(c=1では撮像部12A、c=2では撮像部12B、c=3では撮像部12C、c=4では撮像部12Dがそれぞれ識別される)を0に初期化し、ステップ114で、取込部54Bは、変数cを1インクリメントする。
【0046】
ステップ116で、取込部54Bは、変数cで識別される撮像部cが撮像した画像データ(説明の便宜を図るため画像データcと表す)を取得する。例えば、変数c=1では、撮像部12Aが識別され、撮像部12Aが撮像した画像データを取得する。変数c=2では撮像部12Bが識別され、撮像部12Bが撮像した画像データを取得する。変数c=3では撮像部12Cが識別され、撮像部12Cが撮像した画像データを取得する。変数c=4では撮像部12Dが識別され、撮像部12Dが撮像した画像データを取得する。
【0047】
次に、ステップ118~124において、判断部54Cは画像データcにおける人物の検出に係る処理を行う。ステップ118で、判断部54Cは、ステップ116で取得された画像データcに人物が検出されたか否かを判断する。具体的には、判断部54Cは、AI(Artificial Intelligence)により画像データcに人物が検出されたか否かを判断する。より具体的には、画像データcを入力とし且つその入力された画像データcに人物の画像が含まれているか否かの結論を出力とする複数の教師データを用いて学習された学習済みモデルと、変数cで識別される撮像部cが撮像した画像データcとに基づいて、画像データcに人物の画像が含まれているか判断する。なお、ステップ118における判断部54Cの処理は、AIにより画像データcに人物が検出されたか否かを判断することに限定されない。例えば、所定時間間隔で画像データcを取得し、取得した画像データcの、直前に取得した画像データcとの差分から人物を検出したり、予め用意した人物の画像データと画像データcとのマッチングにより人物を検出したりしてもよい。
【0048】
人物が検出されなかった場合(ステップ118:N)には、本対処処理はステップ126に進む。人物が検出された場合(ステップ118:Y)には、本対処処理は、ステップ120に進む。
【0049】
図12および図13は、それぞれある時点における監視エリア10の斜視図(図12(a))、その監視エリア10の仮想空間100(図12(b))、および第1の視点p1から第1の視線方向d1に仮想空間100を見たような画像(図13)である。図14は、別の時点(例えば図12および図13の時点の1秒後)における、第1の視点p1から第1の視線方向d1に仮想空間100を見たような画像である。
なお、図12および図13に示す例では、監視セクション10s1に、一人の人物106h1が侵入し、監視セクション10s3には、二人に人物106h2,102h3が侵入している。また、図14に示す例では、監視セクション10s2に、一人の人物106h4が侵入し、監視セクション10s3には、二人に人物106h5,102h6が侵入している。図12には、容易に理解するために、図7B等に示す複数のショーケース14N1~14N5は省略している。
【0050】
ステップ120で、判断部54Cは、検出された人物の特徴(例えば、顔または服装等)から、ステップ118で検出された人物が新たな人物か否かを判断する。ステップ118で検出された人物が新たな人物であると判断された場合、本対処処理はステップ122に進み、ステップ118で検出された人物が新たな人物であると判断されなかった場合には、本対処処理は、ステップ122をスキップして、ステップ124に進む。
【0051】
ステップ122で、付与部54Dは、新たな人物に識別情報、例えば、ID(identifier)を付与する。ステップ124で、表示処理部54Eは、監視エリア10の仮想空間100において表示されている人物の位置に対応する位置にIDを表示する。
【0052】
図12および図13の例では、ステップ116において3人の人物106h1~106h3が撮像された画像データcから、ステップ118において人物が検出され、ステップ120においてそれらの人物が新たな人物と判断されて、ステップ122においてそれぞれの人物106h1~106h3にID108i1~108i3が付与され、ステップ124でそれぞれの人物106h1~106h3に対応してID108i1~108i3が表示された様子を示している。
【0053】
図14の例では、ステップ116において3人の人物106h4~106h6が撮像された画像データcから、ステップ118において人物が検出され、ステップ120において、それぞれの人物が新たな人物ではない(それより前の時点(この例では1秒前)に検出された人物106h1~106h3と同一人物である)と判断されて、ステップ124においてそれぞれの人物106h4~106h6に対応してID108i1~108i3が表示された様子を示している。
【0054】
監視員は、表示装置62に表示される図13に示した画像、および図14に示した画像を時系列で確認することによって、ID108i1が付与された人物が、監視エリア10の監視セクション104s1に侵入した後、監視セクション104s2に移動し侵入したことを認識することができる。また、ID108i2~108i3が付与された二人の人物は、監視エリア10の監視セクション104s3に侵入して移動はしていないことを認識することができる。
【0055】
次に、ステップ126~132において、判断部54Cは画像データcの受信の遅延に係る処理を行う。ステップ126で、判断部54Cは、撮像部cからの画像データcの受信に遅延が生じているか否かを判断する。
【0056】
ここで、画像データcの受信に遅延が生じているか否かの判断方法(第1の方法、第2の方法)を説明する。
【0057】
(第1の方法)
各撮像部12A~12Dは、画像データを送信する時に、撮像時刻も送信する。遠隔監視装置50は、画像データと撮像時刻とを受信するので、当該画像データを受信した時刻と撮像時刻との差を計算し、差が所定時間以上である場合に、画像データの受信に遅延が生じていると判断する。
【0058】
(第2の方法)
各撮像部12A~12Dは、画像データを所定時間間隔で送信する。遠隔監視装置50は、画像データの受信間隔と当該所定時間間隔との差を計算し、差が所定時間以上大きい場合に、画像データの受信に遅延が生じていると判断する。
【0059】
例えば、撮像部12Aが取得した画像データの受信に1秒の遅延が生じているとする。ステップ128で、計算部54Fは、遅延時間(上記各方法の何れかで計算された差)を取得する。ステップ130で、表示処理部54Eは、遅延時間Td(例えば「1秒」(図15も参照))を、撮像部c(例えば撮像部12A)が撮像した画像データcに基づいて、撮像部cによる被撮像領域に対応する仮想空間100の領域(合成されたテクスチャに対応する領域)に表示する。ステップ132で、表示処理部54Eは、撮像部cによる被撮像領域に対応する仮想空間100の領域(合成されたテクスチャに対応する領域)の表示態様、例えば、色を変える。
【0060】
より具体的には、表示処理部54Eは、表示処理部54Eは、図15に示すように、画像データcの受信に遅延が生じている撮像部c(例えば撮像部12A)による被撮像領域に対応する仮想空間100の領域に合成されたテクスチャ(例えば床、壁、ショーケース、人物等)を色付けする(例えば青色)。なお、図15に示す例では、ショーケース14N1および人物106h1が青色に色づけられている。
【0061】
撮像部cの画像データcに基づいて仮想空間100に合成されたテクスチャに対応する領域の表示する色を変えることに限定されず、これに代えまたはこれと共に、その領域の表示を点滅、あるいはその領域を指し示す矢印を表示させてもよい。また、表示する色を透過処理することによって、その色を重ねる対象の仮想空間100の領域、ショーケースおよび人物を監視員が見易くなるようにしてもよい。また、遅延時間を表示することに限定されず、これに代えまたはこれと共に、文字(例えば、「遅延しています」等)を表示してもよい。
【0062】
ステップ134で、判断部54Cは、変数cが、監視セクションの総数Cか否かを判断する。変数cが監視セクションの総数Cでない場合には、人物の検出を未だ判断しておらず、遅延の有無も判断していない撮像部cがあるので、本対処処理はステップ114に戻って以上の処理(ステップ114~ステップ134)を実行する。変数cが撮像部の総数Cである場合には、全ての撮像部が取得した画像データで人物の検出の有無および受信遅延の有無を判断しているので、本対処処理は次のステップ136へ進む。
【0063】
図11Bのステップ136~144で、判断部54Cは、図7A(b)に示すように監視エリア10の仮想空間100に予め設定された監視セクションごとに、ステップ118で検出された人物がその監視セクションに含まれているか否かを判断し、表示処理部54Eがその監視セクションの表示態様を変える処理を行う。
【0064】
図7A(b)は、監視エリア10の仮想空間100に設定された監視セクションの一例を示す仮想空間100の上面図である。なお、図7A(b)には、容易に理解するために、図7B等に示す複数のショーケース14N1~14N5は省略している。
【0065】
図7A(b)における左手前側の領域(上から見て略正方形の領域)には、第1の監視セクション104s1が設定されている。右手前側の領域(上から見て長方形の領域)には、第2の監視セクション104s2が設定されている。第2の監視セクション104s2の奥側の領域(上から見て長方形の領域)には、第3の監視セクション104s3が設定されている。第1の監視セクション104s1および第3の監視セクション104s3の奥側の上から見て矩形の小領域には、第4の監視セクション104s4が設定されている。第1の監視セクション104s1は、ショーケース14N1を含む領域を監視するためのセクションである。第2の監視セクション104s2は、ショーケース14N2を含む領域を監視するためのセクションである。第3の監視セクション104s3は、ショーケース14N3、14N4を含む領域を監視するためのセクションである。第4の監視セクション104s4は、ショーケース14N5を含む領域を監視するためのセクションである。変数s=1~4により、第1の監視セクション104s1~第4の監視セクション104s4が識別される。
【0066】
ステップ136で、取込部54Bは、図7A(b)に示すように監視エリア10の仮想空間100に予め設定された監視セクションを識別する変数s(s=1では監視セクション104s1が、s=2では監視セクション104s2が、s=3では監視セクション104s3が、s=4では監視セクション104s4がそれぞれ識別される)を0に初期化し、ステップ138で、取込部54Bは、変数sを1インクリメントする。
【0067】
ステップ140で、判断部54Cは、仮想空間100の変数sで識別される監視セクションsに、ステップ118で検出した人物が含まれているか否かを判断する。
【0068】
人物が含まれていない場合には、本対処処理はステップ144に進み、人物が含まれている場合には、本対処処理は、ステップ142に進む。
【0069】
ステップ142で、表示処理部54Eは、図15に示すように、人物が含まれる監視セクションの表示態様、例えば、床面の色を変える(例えば赤色)。図15に示す例では、人物106h4が監視セクション104s2において検出されているので、監視セクション104s2の床の色が、例えば、赤色に変えられる。
【0070】
なお、ステップ132で表示態様を変える仮想空間100の領域と、ステップ142で表示態様を変える仮想空間100の領域とが重複する部分の表示態様については、一方の表示態様を優先して表示することとしてもよいし、別の表示態様(例えば紫色)で表示することとしてもよい。
【0071】
監視セクションsの表示する色を変えることに限定されず、これに代えまたはこれと共に、監視セクションsの表示を点滅させてもよい。また、これと共に、文字(例えば、「侵入異常あり」等)を表示してもよい。
【0072】
ステップ144で、判断部54Cは、変数sが、監視セクションの総数Sか否かを判断する。変数sが監視セクションの総数Sでない場合には、検出された人物の有無を未だ判断していない監視セクションがあるので、本対処処理はステップ138に戻って以上の処理(ステップ138~ステップ144)を実行する。変数sが監視セクションの総数Sである場合には、全ての監視セクションで検出された人物の有無を判断しているので、本対処処理は終了する。
【0073】
(効果)
次に、本実施の形態の効果を説明する。
【0074】
図12図14に示すように、人物106h1~106h6が検出され、人物106h1と人物106h4、人物106h2と人物106h5、および人物106h3と人物106h6が、それぞれ同一人物で、人物106h1が第1の監視セクション104s1から第2の監視セクション104s2に移動し、撮像部12Aからの画像データの受信に遅延が生じている場合を考える。この場合、図15に示すように、第1の監視セクション104s1と第2の監視セクション104s2に、それぞれ人物106h1、人物106h4が表示される場合がある。しかし、上記のように、同一の人物には同一IDを表示する。よって、監視員が、第1の監視セクション104s1と第2の監視セクション104s2とに別々の人物(二人の人物)が侵入していると誤解することを防止することができる。
【0075】
また、上記のように第1の監視セクション104s1と第2の監視セクション104s2との各々に表示される人物に対応して同じIDを表示しているので、監視員は、違和感を覚える場合もある。しかし、本実施の形態では、上記のように撮像部12Aの画像の色を変えたり遅延時間を表示したりすることにより、その原因が、撮像部12Aからの画像データの受信に遅延が生じているためであることを理解する。よって、監視員に違和感を覚えさせることを防止することができる。
【0076】
[第2の実施の形態]
次に、本開示の技術の第2の実施の形態を説明する。
(構成)
図16は、第2の実施の形態における現実世界の監視エリア10の斜視図である。図16に示すように、第2の実施の形態における現実世界の監視エリア10には、第1の実施の形態における撮像部12A~12Dと同様の撮像部112A~112D、および撮像部112A~112Dと同様の撮像部150Cを有するドロ-ン150が配置されている。ドロ-ン150は、複数の撮像部112A~112Dの各々の撮像領域を撮像可能な位置に移動可能である。また、本実施の形態では、撮像部112A~112D、および撮像部150Cとして、3D-LiDARカメラを使用する場合について説明する。
【0077】
第2の実施の形態の遠隔監視装置50の構成は、第1の実施の形態の遠隔監視装置50の構成と同様であるので、その説明を省略する。
【0078】
(作用)
第2の実施の形態の遠隔監視装置50の作用は、第1の実施の形態の遠隔監視装置50の作用と略同様であるので、異なる作用部分について説明する。
【0079】
図17は、第1の実施の形態における図6のステップ82のサブルーチンを示すフローチャートである。
【0080】
ステップ82Aで、構築部54Aは、撮像部112A~112Dを識別する変数c(c=1では撮像部112A、c=2では撮像部112B、c=3では撮像部112C、c=4では撮像部112Dがそれぞれ識別される)を0に初期化し、ステップ82Bで、構築部54Aは、変数cを1インクリメントする。なお、ステップ82Cで、構築部54Aは、撮像部cが撮像した画像データcを取得する。
【0081】
ステップ82Dで、構築部54Aは、撮像部cが撮像した画像データcの受信が途絶えているか否かを判断する。撮像部cが撮像した画像データcの受信が途絶えていると判断されなかった場合には、本構築処理は、ステップ82E、82Fをスキップして、ステップ82Gに進む。撮像部cが撮像した画像データcの受信が途絶えていると判断された場合には、本構築処理は、ステップ82Eに進む。
【0082】
例えば、c=2で識別される撮像部112Bが撮像した画像データの受信が途絶えていると判断された場合には、図18に示すように、監視エリア10の仮想空間100には、第2の撮像部112Bが撮像した画像データに基づくテクスチャを合成する部分には何もテクスチャが合成されない。(図18の仮想空間100で、床面が塗られていない領域)
【0083】
なお、図18には、容易に理解するために、図7B等に示す複数のショーケース14N1~14N5は省略している。
【0084】
ステップ82Eで、構築部54Aは、撮像部112Bの位置付近にドロ-ン150を飛行させる。具体的には、ステップ82Dにおいて、c=2で識別される撮像部112Bが撮像した画像データの受信が途絶えていると判断された場合、図19に示すように、構築部54Aは、撮像部112Bの撮像領域をドローン150の撮像部150Cが撮像可能な、撮像部112Bの設置位置の直下に、ドロ-ン150を飛行させる。なお、NVM56には、現実世界の監視エリア10における撮像部112A~112Dの設置位置と、ドロ-ン150の配置位置とが記憶されている。構築部54Aは、NVM56から、現実世界の監視エリア10における撮像部112Bの設置位置とドロ-ン150の配置位置とを読み出し、ドロ-ン150に、配置位置から撮像部112Bの設置位置の直下に飛行するように指示する。これにより、ドロ-ン150は、撮像部112Bの設置位置の直下に移動し、当該位置で空中停止し、撮像部150Cにより撮像部112Bの撮像領域を撮像し、画像データおよび点群データ、ならびにドローン150の現在位置、撮像部150Cの撮像方向および画角を遠隔監視装置50に送信する。これ以降は、c=2の場合、撮像部150Cが識別されるようになる。
【0085】
ステップ82Fで、構築部54Aは、c=2の場合、ドロ-ン150の撮像部150Cが撮像した画像データ(補完画像データ)および点群データ、ならびにドローン150の現在位置、撮像部150Cの撮像方向および画角を取得する。これにより、図20に示すように、監視エリア10の仮想空間100には、欠落している撮像部112Bが撮像した画像データおよび点群データに基づくテクスチャ部分に、ドロ-ン150の撮像部150Cが撮像した画像データおよび点群データに基づくテクスチャが用いられる。なお、図20には、容易に理解するために、図7B等に示す複数のショーケース14N1~14N5は省略している。
【0086】
ステップ82Gで、構築部54Aは、変数cが撮像部の総数Cと同じか否かを判断する。変数cが撮像部の総数Cと同じと判断されなかった場合には、画像データの受信が途絶えているか否か判断していない撮像部があるので、本構築処理は、ステップ82Bに戻って、以上の処理(ステップ82D~82G)を繰り返す。変数cが撮像部の総数Cと同じと判断された場合には、画像データの受信が途絶えているか否か判断していない撮像部がないので、本構築処理は、ステップ82の処理(図6参照)が終了し、ステップ84に戻る。なお、撮像した画像データの受信が途絶えた一部の撮像部をドローン150の撮像部150Cに置き換えた場合、変数cで識別する撮像部を変更するので、総数Cは変化しない。
【0087】
なお、撮像部cが撮像した画像データcの受信が途絶えていると判断された場合、ドロ-ン150の撮像部150Cが撮像した画像データおよび点群データ、ならびにドローン150の現在位置、撮像部150Cの撮像方向および画角が取得されるまで、図18に示すように、仮想空間100のテクスチャ部分102B1、102B2には何もテクスチャが合成されない。そこで、予め撮像部cが撮像した現実世界の監視エリア10の画像データ(静止画)および点群データ、ならびに撮像部cの設置位置、撮像方向および画角を記憶しておく。そして、ドロ-ン150の撮像部150Cが撮像した画像データおよび点群データ、ならびにドローン150の現在位置、撮像部150Cの撮像方向および画角が取得されるまで、上記のようにテクスチャが何も合成されない部分(テクスチャ部分102B1、102B2)に、予め記憶しておいた撮像部cが撮像した画像データ(静止画)および点群データ、ならびに撮像部cの設置位置、撮像方向および画角に基づいて、当該画像が何も表示されない仮想空間100のテクスチャ部分102B1、102B2のテクスチャを合成してもよい。
【0088】
(効果)
以上説明したように第2の実施の形態では、撮像部が撮像した画像データの受信が途絶えた場合、ドロ-ンを、当該撮像部の撮像領域を撮像可能な位置に移動させ、ドロ-ンの撮像部により撮像されて得られた画像データで、当該撮像部の画像データを代替する。よって、本実施の形態は、監視員の遠隔監視を継続させることができる。
【0089】
[変形例]
次に、種々の変形例を説明する。
【0090】
(第1の変形例)
図21Aは、第1の変形例として、監視エリア10における各撮像部の設置位置に対応する、仮想空間100における視点を、順次切り替えて表示装置62に表示する順次切り替え表示方式の場合の、監視エリア10の概念斜視図である。図21Bは、その順次切り替え表示方式の場合の、監視エリア10の仮想空間100における視点、視線方向を順次切り替える様子を示す図である。なお、図21A図21Bには、容易に理解するために、図7B等に示す複数のショーケース14N1~14N5は省略している。
【0091】
第1の変形例では、監視エリア10の天井には、第1の実施の形態と同様の複数の撮像部12A~12Dが異なる位置に設置されている。具体的には、複数の撮像部12A~12Dの各々の撮像方向は、天井から床に向かう方向である。撮像部12Aの撮像方向は、撮像部12Aから、撮像部12Aの真下の床の位置22Aに向かう方向である。その他の撮像部12B~12Dの撮像方向も同様である。複数の撮像部12A~12Dの各々は、当該撮像方向を中心に180°の画角の領域を撮像可能である。これと対応して、監視エリア10の仮想空間100においては、図21Bに示すように、複数の撮像部12A~12Dの設置位置に対応する位置が、視点として順次切り替えて指定される。各視点における視線方向は、初期状態として現在の視点から次に切り替わる視点に向けた方向が指定される。視線方向は、押しボタン64Aおよびジョイスティック64Bを操作して、任意に変更することができる。
【0092】
監視員は、押しボタン64Aおよびジョイスティック64Bを操作して、表示装置62に表示する仮想空間100の視点を順次指定する。例えば、図21Bに示す例では、視点p100→視点p200→視点p300→視点p400順に視点が指定されている。
【0093】
視点p100が指定されると、遠隔監視装置50は、撮像部12A~撮像部12Aの真下の床の位置22Aに向かう撮像方向を中心に180°の画角の領域を撮像部12Aが撮像して得られた画像データ(動画像)および点群データ、ならびに撮像部12Aの設置位置、撮像方向および画角に基づいて、仮想空間100にテクスチャを合成し、その合成した仮想空間100を、視点p100、視線方向d100(即ち、視点p100から視点p200に向かう方向)で見たような画像(平面画像)を生成し、表示装置62に表示する。なお、当該画像(平面画像)には、ショーケース14N2が表示される。このとき、表示する画像(平面画像)中に他の視点が含まれる場合は、その視点の位置に、押しボタン64Aおよびジョイスティック64Bで選択可能なマークを表示する。このマークを選択することによって、対応する視点を指定する。
【0094】
次に、視点p200が指定されると、遠隔監視装置50は、撮像部12B~撮像部12Bの真下の床の位置22Bに向かう撮像方向を中心に180°の画角の領域を撮像部12Bが撮像して得られた画像データ(動画像)および点群データ、ならびに撮像部12Aの設置位置、撮像方向および画角に基づいて、仮想空間100にテクスチャを合成し、その合成した仮想空間100を、視点p200、視線方向d200(即ち、視点p200から視点p300に向かう方向)で見たような画像(平面画像)を生成し、表示装置62に表示する。なお、当該画像(平面画像)には、ショーケース14N3、14N4が表示される。
【0095】
更に、視点p300が指定されると、遠隔監視装置50は、撮像部12C~撮像部12Cの真下の床の位置22Cに向かう撮像方向を中心に180°の画角の領域を撮像部12Cが撮像して得られた画像データ(動画像)および点群データ、ならびに撮像部12Cの設置位置、撮像方向および画角に基づいて、仮想空間100にテクスチャを合成し、その合成した仮想空間100を、視点p300、視線方向d300(即ち、視点p300から視点p400に向かう方向)で見たような画像(平面画像)を生成し、表示装置62に表示する。なお、当該画像(平面画像)には、手前に、ショーケース14N3、14N4が、これらの奥側にショーケース14N5表示される。
【0096】
(第2の変形例)
図22は、第2の変形例のヘッドマウントディスプレイを用いた場合の遠隔監視装置を示す図である。第2の変形例では、上記各実施の形態のVR監視卓に代えて、ヘッドマウントディスプレイ62HDが用いられる。ヘッドマウントディスプレイ62HDは、表示スクリーン、および監視員の頭部の動きを検知する加速度センサが設けられており、加速度センサが検知した加速度情報に基づいて、指定する視点および視線方向を遠隔監視装置50に有線または無線で送信する。遠隔監視装置50は、指定された視点および視線方向に基づいて仮想空間100を当該視点および視線方向でみたような画像(平面画像)を生成し、ヘッドマウントディスプレイ62HDへ送信する。ヘッドマウントディスプレイ62Dは遠隔監視装置50から受信した当該画像(平面画像)を表示スクリーンに表示する。また、押しボタン64Aおよびジョイスティック64Bに代えて、押しボタン64Aおよびジョイスティック64Bの機能と同様の機能の第1の操作装置65Aおよび第2の操作装置65Bを備えている。第1の操作装置65Aおよび第2の操作装置65Bは、操作された内容を示す情報を、遠隔監視装置50に有線または無線で送信する。このようにして、監視員は、ヘッドマウントディスプレイ62HDの表示スクリーンに表示された監視エリア10の仮想空間100を見て、監視エリア10を遠隔監視することができる。
【0097】
(その他の変形例)
上記実施の形態では、遠隔監視装置50に含まれるコンピュータ52のプロセッサ54によって上記構築処理および対処処理が行われる形態例を挙げて説明したが、本開示の技術はこれに限定されず、上記構築処理および対処処理を行う装置は、遠隔監視装置50以外の更に設けた少なくとも1台のサーバおよび/または少なくとも1台のパーソナル・コンピュータ等でもよい。更に、上記構築処理および対処処理は、遠隔監視装置50および更に設けた少なくとも1台のサーバおよび/または少なくとも1台のパーソナル・コンピュータ等で分散して行われるようにしてもよい。
【0098】
上記実施の形態では、NVM56に遠隔監視プログラム58(具体的には、構築処理プログラム(図6参照)および対処処理プログラム(図11Aおよび図11B参照))が記憶されている形態例を挙げて説明したが、本開示の技術はこれに限定されない。例えば、遠隔監視プログラム58がSSD(Solid State Drive)またはUSB(Universal Serial Bus)メモリなどの可搬型の非一時的記憶媒体に記憶されていてもよい。非一時的記憶媒体に記憶されている遠隔監視プログラム58は、遠隔監視装置50に含まれるコンピュータ52にインストールされる。プロセッサ54は、遠隔監視プログラム58に従って上記構築処理および対処処理を実行する。
【0099】
また、ネットワークを介して遠隔監視装置50に接続される他のコンピュータまたはサーバ等の記憶装置に遠隔監視プログラム58を記憶させておき、遠隔監視プログラム58が他のコンピュータまたはサーバ等の記憶装置からダウンロードされ、コンピュータ52にインストールされるようにしてもよい。
【0100】
上記構築処理および対処処理を実行するハードウェア資源としては、次に示す各種のプロセッサを用いることができる。プロセッサとしては、例えば、ソフトウェア、すなわち、プログラムを実行することで、上記構築処理および対処処理を実行するハードウェア資源として機能する汎用的なプロセッサであるCPUが挙げられる。また、プロセッサとしては、例えば、FPGA(Field Programmable Gate Array)、PLD(Programmable Logic Device)、またはASIC(Application Specific Integrated Circuit)などの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路が挙げられる。何れのプロセッサにもメモリが内蔵または接続されており、何れのプロセッサもメモリを使用することで上記構築処理および対処処理を実行する。
【0101】
上記構築処理および対処処理を実行するハードウェア資源は、これらの各種のプロセッサのうちの1つで構成されてもよいし、同種または異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせ、またはCPUとFPGAとの組み合わせ)で構成されてもよい。
【0102】
1つのプロセッサで構成する例としては、第1に、1つ以上のCPUとソフトウェアの組み合わせで1つのプロセッサを構成し、このプロセッサが、上記構築処理および対処処理を実行するハードウェア資源として機能する形態がある。第2に、SoC(System on a chip)などに代表されるように、上記構築処理および対処処理を実行する複数のハードウェア資源を含むシステム全体の機能を1つのICチップで実現するプロセッサを使用する形態がある。このように、上記構築処理および対処処理は、ハードウェア資源として、上記各種のプロセッサの1つ以上を用いて実現される。
【0103】
更に、これらの各種のプロセッサのハードウェア的な構造としては、より具体的には、半導体素子などの回路素子を組み合わせた電気回路を用いることができる。また、上記構築処理および対処処理はあくまでも一例である。従って、主旨を逸脱しない範囲内において不要なステップを削除したり、新たなステップを追加したり、処理順序を入れ替えたりしてもよいことは言うまでもない。
【0104】
以上に示した記載内容および図示内容は、本開示の技術に係る部分についての詳細な説明であり、本開示の技術の一例に過ぎない。例えば、上記の構成、機能、作用、および効果に関する説明は、本開示の技術に係る部分の構成、機能、作用、および効果の一例に関する説明である。よって、本開示の技術の主旨を逸脱しない範囲内において、以上に示した記載内容および図示内容に対して、不要な部分を削除したり、新たな要素を追加したり、置き換えたりしてもよいことは言うまでもない。また、錯綜を回避し、本開示の技術に係る部分の理解を容易にするために、以上に示した記載内容および図示内容では、本開示の技術の実施を可能にする上で特に説明を要しない技術常識等に関する説明は省略されている。
【0105】
本明細書に記載された全ての文献、特許出願および技術規格は、個々の文献、特許出願および技術規格が参照により取り込まれることが具体的かつ個々に記された場合と同程度に、本明細書中に参照により取り込まれる。
【符号の説明】
【0106】
10 監視エリア
12A~12E 撮像部
54 プロセッサ
62 表示装置
66 通信I/F
100 仮想空間
150 ドロ-ン
図1
図2
図3
図4
図5
図6
図7A
図7B
図8
図9
図10
図11A
図11B
図12
図13
図14
図15
図16
図17
図18
図19
図20
図21A
図21B
図22