(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024108066
(43)【公開日】2024-08-09
(54)【発明の名称】遠隔監視装置
(51)【国際特許分類】
H04N 7/18 20060101AFI20240802BHJP
G08B 25/00 20060101ALI20240802BHJP
G08B 25/04 20060101ALI20240802BHJP
【FI】
H04N7/18 D
G08B25/00 510M
G08B25/04 E
【審査請求】未請求
【請求項の数】11
【出願形態】OL
(21)【出願番号】P 2023012348
(22)【出願日】2023-01-30
(71)【出願人】
【識別番号】000202361
【氏名又は名称】綜合警備保障株式会社
(74)【代理人】
【識別番号】100179969
【弁理士】
【氏名又は名称】駒井 慎二
(72)【発明者】
【氏名】関谷 俊一
(72)【発明者】
【氏名】池田 康臣
【テーマコード(参考)】
5C054
5C087
【Fターム(参考)】
5C054CA04
5C054CC02
5C054CG02
5C054CH08
5C054EA01
5C054EA03
5C054EA05
5C054FC12
5C054FC13
5C054FC15
5C054FE02
5C054FE12
5C054FE22
5C054FE28
5C054FF06
5C054GB01
5C054HA19
5C087AA02
5C087AA03
5C087AA32
5C087BB74
5C087DD05
5C087EE07
5C087FF01
5C087FF02
5C087FF04
5C087GG02
5C087GG08
5C087GG10
5C087GG66
5C087GG84
(57)【要約】
【課題】監視エリアに人物が侵入した場合に対処する。
【解決手段】遠隔監視装置は、 威嚇装置が配置された監視エリアを撮像すると共に前記撮像により取得した画像データを送信する複数の撮像部の各々により前記送信された前記画像データを受信する受信部と、前記受信部により受信された前記複数の撮像部の各々の前記画像データに基づいて、前記監視エリアを表示する表示部と、前記表示されている前記監視エリアに人物が表示されている場合、前記人物に対応して作動するように前記威嚇装置を制御する制御部と、を備える。
【選択図】
図13
【特許請求の範囲】
【請求項1】
威嚇装置が配置された監視エリアを撮像すると共に前記撮像により取得した画像データを送信する複数の撮像部の各々により前記送信された前記画像データを受信する受信部と、
前記受信部により受信された前記複数の撮像部の各々の前記画像データに基づいて、前記監視エリアを表示する表示部と、
前記表示されている前記監視エリアに人物が表示されている場合、前記人物に対応して作動するように前記威嚇装置を制御する制御部と、
を備える遠隔監視装置。
【請求項2】
威嚇装置が配置された監視エリアを撮像すると共に前記撮像により取得した画像データを送信する複数の撮像部の各々により前記送信された前記画像データを受信する受信部と、
前記受信部により受信された前記複数の撮像部の各々の前記画像データに基づいて、前記監視エリアを表示する表示部と、
前記威嚇装置の威嚇効果が増加するように指示するための指示部と、
前記表示されている前記監視エリアに人物が表示されている場合、前記人物に対応して作動すると共に、前記指示部により前記威嚇効果が増加するように指示された場合、前記威嚇効果が増加するように、前記威嚇装置を制御する制御部と、
を備える遠隔監視装置。
【請求項3】
前記監視エリアには、前記威嚇装置が複数設けられ、
前記制御部は、前記表示されている前記監視エリアに人物が表示されている場合、前記複数の威嚇装置の中で、前記人物の位置に関連する前記威嚇装置を作動させる、
請求項1または請求項2に記載の遠隔監視装置。
【請求項4】
前記人物の位置に関連する前記威嚇装置は、前記人物の位置に対応する位置に設けられた前記威嚇装置および前記人物が移動する先の位置に設けられた前記威嚇装置の少なくとも一方である、請求項3に記載の遠隔監視装置。
【請求項5】
前記威嚇装置は、前記監視エリアの中を移動可能であり、
前記制御部は、前記表示されている前記監視エリアに人物が表示されている場合、前記人物の位置に関連する位置に移動し且つ作動するように、前記威嚇装置を制御する、
請求項1または請求項2に記載の遠隔監視装置。
【請求項6】
前記人物の位置に関連する位置は、前記人物の位置および前記人物が移動する先の位置の少なくとも一方である、請求項5に記載の遠隔監視装置。
【請求項7】
威嚇装置が配置された監視エリアを撮像すると共に前記撮像により取得した画像データを送信する複数の撮像部の各々により前記送信された前記画像データを受信する受信部と、
前記受信部により受信された前記複数の撮像部の各々の前記画像データに基づいて、前記監視エリアを表示する表示部と、
前記威嚇装置の作動を指示するための指示部と、
前記指示部により前記作動が指示された場合、作動するように前記威嚇装置を制御する制御部と、
を備える遠隔監視装置。
【請求項8】
前記指示部は、前記威嚇装置の威嚇効果が増加するように指示し、
前記制御部は、前記指示部により前記威嚇効果が増加するように指示された場合、前記威嚇効果が増加するように、前記威嚇装置を制御する、
請求項7に記載の遠隔監視装置。
【請求項9】
前記監視エリアには、前記威嚇装置が複数設けられ、
前記制御部は、前記複数の威嚇装置の中で、前記作動が指示された前記威嚇装置が作動するように制御する、
請求項7または請求項8に記載の遠隔監視装置。
【請求項10】
前記威嚇装置は、前記監視エリアの中を移動可能であり、
前記制御部は、前記表示されている前記監視エリアに人物が表示されている場合、前記人物の位置に関連する位置に移動するように、前記威嚇装置を制御する、
請求項7に記載の遠隔監視装置。
【請求項11】
前記人物の位置に関連する位置は、前記人物の位置および前記人物が移動する先の位置の少なくとも一方である、請求項10に記載の遠隔監視装置。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、遠隔監視装置に関する。
【背景技術】
【0002】
従来、視点位置(カメラ位置)を基準に監視エリアの3次元モデルから生成した2次元投影画像の所定領域に、当該カメラで撮像した撮像画像を合成する技術が開示されている(特許文献1)。
【先行技術文献】
【特許文献】
【0003】
【発明の概要】
【発明が解決しようとする課題】
【0004】
しかし、上記従来技術では、監視エリアに人物(不審者)が侵入した場合に対処することができない。
【0005】
本開示の技術は、監視エリアに人物が侵入した場合に対処することができる遠隔監視装置を提供することを目的とする。
【課題を解決するための手段】
【0006】
上記目的を達成するため本開示の技術の第1の態様の遠隔監視装置は、威嚇装置が配置された監視エリアを撮像すると共に前記撮像により取得した画像データを送信する複数の撮像部の各々により前記送信された前記画像データを受信する受信部と、前記受信部により受信された前記複数の撮像部の各々の前記画像データに基づいて、前記監視エリアを表示する表示部と、前記表示されている前記監視エリアに人物が表示されている場合、前記人物に対応して作動するように前記威嚇装置を制御する制御部と、を備える。
【0007】
本開示の技術の第2の態様の遠隔監視装置は、威嚇装置が配置された監視エリアを撮像すると共に前記撮像により取得した画像データを送信する複数の撮像部の各々により前記送信された前記画像データを受信する受信部と、前記受信部により受信された前記複数の撮像部の各々の前記画像データに基づいて、前記監視エリアを表示する表示部と、前記威嚇装置の威嚇効果が増加するように指示するための指示部と、
前記表示されている前記監視エリアに人物が表示されている場合、前記人物に対応して作動すると共に、前記指示部により前記威嚇効果が増加するように指示された場合、前記威嚇効果が増加するように、前記威嚇装置を制御する制御部と、を備える。
【0008】
本開示の技術の第3の態様の遠隔監視装置は、威嚇装置が配置された監視エリアを撮像すると共に前記撮像により取得した画像データを送信する複数の撮像部の各々により前記送信された前記画像データを受信する受信部と、前記受信部により受信された前記複数の撮像部の各々の前記画像データに基づいて、前記監視エリアを表示する表示部と、前記威嚇装置の作動を指示するための指示部と、前記指示部により前記作動が指示された場合、作動するように前記威嚇装置を制御する制御部と、を備える。
【発明の効果】
【0009】
本開示の技術は、監視エリアに人物が侵入した場合に対処することができる。
【図面の簡単な説明】
【0010】
【
図1】第1の実施の形態における遠隔監視システムのブロック図である。
【
図2】第1の実施の形態における現実世界の監視エリア10の一例の斜視図である。
【
図3】VR監視卓に設けられた遠隔監視装置50の一例の斜視図である。
【
図4】VR監視卓に設けられた遠隔監視装置50の一例の上面図である。
【
図5】遠隔監視装置50の電気系のハードウェア構成の一例を示すブロック図である。
【
図6】現実世界の監視エリア10を、仮想空間100にデジタルツイン方式でリアルタイムに構築する構築処理の流れの一例を示すフローチャートである。
【
図7A】(a)は、分割3次元モデルの各範囲10DM1~10DM4の一例を示し、(b)は、監視エリア10における監視セクション10s1~10s4の一例を示す図である。
【
図7B】構築された監視エリア10の仮想空間100、監視員の視点および視線方向の履歴を示した一例を示す概念図である。
【
図8】仮想空間100の第1の視点から第1の視線方向に仮想空間100を見たように、構築された仮想空間100から生成された画像の一例を示す概念図である。
【
図9】仮想空間100の第2の視点から第2の視線方向に仮想空間100を見たように、構築された仮想空間100から生成された画像の一例を示す概念図である。
【
図10】仮想空間100の第2の視点から第3の視線方向に仮想空間100を見たように、構築された仮想空間100から生成された画像の一例を示す概念図である。
【
図11】人物検知および威嚇処理の流れの一例を示すフローチャートである。
【
図12】仮想空間100における監視エリア10に設定された監視セクションと各監視セクションに備えられた威嚇装置の一例を示す図である。
【
図13】人物が侵入した監視セクションの威嚇装置を作動させている一例を示す図である。
【
図14】第1の監視セクション104s1にいた人物が第2の監視セクション104s2に移動することを予測した場合に、第2の監視セクション1の威嚇装置を作動させている一例を示す図である。
【
図15】第2の実施の形態における威嚇処理の流れの一例を示すフローチャートである。
【
図16】第1の変形例における、威嚇装置を備えるドロ-ンが設けられた監視エリアを示す図である。
【
図17】ドロ-ンに備えられた監視装置を作動させる様子を示す図である。
【
図18A】第2の変形例の順次切り替え表示方式の場合の監視エリア10の概念斜視図である。
【
図18B】第2の変形例の順次切り替え表示方式の場合の、監視エリア10の仮想空間100における視点、視線方向を順次切り替える様子を示す図である。
【
図19】第3の変形例のヘッドマウントディスプレイを用いた場合の遠隔監視装置の一例を示す図である。
【発明を実施するための形態】
【0011】
以下、図面を参照して、本開示の技術の実施の形態を説明する。
【0012】
[第1の実施の形態]
第1の実施の形態を説明する。
(構成)
図1は、第1の実施の形態における遠隔監視システムのブロック図である。遠隔監視システムでは、監視センター300に、複数の監視員の各々が操作する複数の遠隔監視装置50が備えられている。ある監視員により操作される遠隔監視装置50では、例えば、地下1階および地上複数階からなる建物200Aの各階の監視エリアが監視される。他の監視員により操作される他の遠隔監視装置50では、他の建物200B、200C、200Dの各監視エリアが監視される。遠隔監視装置50は、監視員の操作によって、監視する対象の建物を状況に応じて選択したり切り替えたりすることができるようになっている。以下、遠隔監視装置50により、建物200Aの地下1階の監視エリア10が監視される場合を例にとり説明する。
【0013】
図2は、第1の実施の形態における現実世界の監視エリア10の一例の斜視図である。
図2に示すように、監視エリア10は、例えば、百貨店の食品フロアであり、複数のショーケース14N1~14N5が配置されている。また、監視エリア10の天井には、複数の撮像部12A~12Dが異なる位置に設置されている。複数の撮像部12A~12Dの各々は、監視エリア10の被撮像領域を撮像すると共に当該撮像により取得した画像データを、監視エリア10から遠隔に位置する遠隔監視装置50(
図3~
図5も参照)に、例えば、インターネット等を介して送信する。複数の撮像部12A~12Dの各々の撮像方向は、天井から床に向かう方向である。複数の撮像部12A~12Dの各々は、当該撮像方向を中心に所定の画角(例えば、180°)の被撮像領域を撮像可能である。なお、画角は、固定でもよく、また、変更可能であってもよい。画像データは、動画像の画像データである。即ち、複数の撮像部12A~12Dの各々は、所定のフレームレートで、監視エリア10を撮像し且つ当該撮像により取得した画像データを遠隔監視装置50に送信する。なお、複数の撮像部12A~12Dの各々は、例えば、3D-LiDAR(Light Detection And Ranging)カメラである。この場合、複数の撮像部12A~12Dは、撮像により画像データを取得すると同時に、点群データ(撮像部からの測距データ)を取得する。本実施の形態では、撮像部12A~12Dとして3D-LiDARカメラを使用する場合について説明する。
【0014】
監視エリア10の天井には、複数の威嚇装置25s1~25s4が異なる位置に設置されている。なお、詳細には後述するが、監視エリア10には監視セクション104s1~104s4が予め設定されている(
図12も参照)。威嚇装置25s1~25s4はそれぞれ、監視セクション104s1~104s4に対応して設置されている。威嚇装置は、例えば、スピーカーである。作動するとスピーカーからは、威嚇効果として、警告音が発せられる。
【0015】
図3は、VR(Virtual Reality)監視卓に設けられた遠隔監視装置50の一例の斜視図であり、
図4は、VR監視卓に設けられた遠隔監視装置50の一例の上面図である。
図3および
図4に示すように遠隔監視装置50は、VR監視卓に設けられている。VR監視卓は、テーブル70、椅子72、および表示装置62を備えている。表示装置62は、左側スクリーン62L、中央スクリーン62C、および右側スクリーン62Rを備えている。テーブル70には、押しボタン64Aおよびジョイスティック64Bが設けられている。ジョイスティック64Bは、スティック状の操作部が前後および左右に倒されるように操作可能に構成されている。ジョイスティック64Bは、操作部が倒された方向に応じた指示(例えば、視点の移動、または視線方向の変更、指示内容一覧からの指示内容の選択、等)を、遠隔監視装置50に入力する。押しボタン64Aは、操作部が押下操作されたことに応じた指示(例えば、ジョイスティック64Bの操作対象を、視点の移動、または視線方向の変更のいずれかに切り替える指示、指示内容一覧から選択した指示の確定、等)を遠隔監視装置50に入力する。
【0016】
監視員は、椅子72に座り、押しボタン64Aおよびジョイスティック64Bを操作する。表示装置62は、詳細には後述するが複数の撮像部12A~12Dの各々から取得した画像データに基づいて構築された監視エリア10の仮想空間100(
図7Bも参照)を表示する。監視員は、表示装置62に表示された監視エリア10の仮想空間100を見て、監視エリア10をリアルタイムに遠隔監視することができる。監視員は、押しボタン64Aおよびジョイスティック64Bを操作することにより、視点および視線方向を遠隔監視装置50に入力する。そうすると、監視エリア10の仮想空間100を入力された視点から入力された視線方向に見たような画像が仮想空間100から生成され、表示装置62に表示される。
【0017】
図5は、遠隔監視装置50の電気系のハードウェア構成の一例を示すブロック図である。
図5に示すように、遠隔監視装置50は、コンピュータ52と、表示装置62と、押しボタン64Aおよびジョイスティック64Bと、通信I/F66とを含む。
【0018】
コンピュータ52は、プロセッサ54、NVM(Non-volatile memory)56、およびRAM(Random Access Memory)60を備えている。プロセッサ54、NVM56、およびRAM60は、バス68に接続されている。
【0019】
プロセッサ54は、DSP(Digital Signal Processor)、CPU(Central Processing Unit)、およびGPU(Graphics Processing Unit)を含む処理装置であり、DSPおよびGPUは、CPUの制御下で動作し、後述する処理の実行を担う。ここでは、プロセッサ54の一例として、DSP、CPU、およびGPUを含む処理装置を挙げているが、これはあくまでも一例に過ぎず、プロセッサ54は、GPU機能を統合した1つ以上のCPUおよびDSPであってもよいし、GPU機能を統合していない1つ以上のCPUおよびDSPであってもよいし、TPU(Tensor Processing Unit)が搭載されていてもよい。
【0020】
NVM56は、各種プログラムおよび各種パラメータ等を記憶する不揮発性の記憶装置である。NVM56としては、例えば、フラッシュメモリ(例えば、EEPROM(Electrically Erasable and Programmable Read Only Memory))が挙げられる。RAM60は、一時的に情報が記憶されるメモリであり、プロセッサ54によってワークメモリとして用いられる。RAM60としては、例えば、DRAM(Dynamic Random Access Memory)またはSRAM(Static Random Access Memory)等が挙げられる。
【0021】
本実施形態では、NVM56には、遠隔監視プログラム58、具体的には、構築処理プログラム(
図6参照)および人物検知および威嚇処理プログラム(
図11参照)が格納されている。プロセッサ54は、遠隔監視プログラム58をRAM60に展開して実行する。プロセッサ54が遠隔監視プログラム58を実行すると、プロセッサ54は、構築部54A、取込部54B、判断部54C、作動部54D、および特定部54Eとして機能する。
【0022】
表示装置62と、押しボタン64Aおよびジョイスティック64Bとは、バス68に接続されている。
【0023】
通信I/F66は、通信プロセッサおよびアンテナ等を含むインタフェースであり、バス68に接続されている。通信I/F66に対して適用される通信規格は、例えば、5G(5th Generation Mobile Communication System)、Wi-Fi(登録商標)、またはBluetooth(登録商標)等を含む無線通信規格である。遠隔監視装置50は、通信I/F66により、詳細には後述する複数の撮像部12A~12Dの各々により送信された画像データおよび点群データを受信する。
【0024】
通信I/F66は、本開示の技術の「受信部」の一例である。表示装置62は、本開示の技術の「表示部」の一例である。プロセッサ54は、本開示の技術の「制御部」の一例である。
【0025】
(作用)
次に、本実施の形態の作用を説明する。
【0026】
図6は、現実世界の監視エリア10を、仮想空間100にデジタルツイン方式でリアルタイムに構築する構築処理の流れの一例を示すフローチャートである。プロセッサ54は、遠隔監視プログラム58の構築処理プログラムを実行することにより、本構築処理を実行する。
【0027】
ステップ80で、構築部54Aは、監視エリア10を仮想空間100に再現する。具体的には、構築部54Aは、各撮像部12A~12Dが監視エリア10を予め撮像してNVM56に記憶しておいた所定の時点の画像データ(静止画像)および点群データ(撮像部からの測距データ)、ならびに各撮像部12A~12Dの設置位置、撮像方向、画角の情報を読み出す。ここで、所定の時点とは、監視員に対して監視エリア10の基準の状態として認識させるための画像データが取得可能な時点であり、例えば監視エリア10が無人の状態である時点である。構築部54Aは、まず監視エリア10の3次元モデル(ワイヤフレーム)を構築する。次に構築部54Aは、構築した3次元モデル(ワイヤフレーム)の対応する位置に、NVM56から読み出した画像データ(静止画像)、点群データ、それらを撮像した撮像部の設置位置、撮像方向、画角の情報に基づいて、テクスチャを合成する。具体的には、構築部54Aは、複数の撮像部12A~12Dの各々を中心とする範囲に4分割された監視エリア10のそれぞれの範囲10DM1~10DM4(
図7A(a)も参照)を、複数の撮像部12A~12Dの各々に対応する分割3次元モデル(ワイヤフレーム)として構築する。なお、
図7A(b)には、後述する監視セクション10s1~10s4も示している。構築部54Aは、その分割3次元モデル(ワイヤフレーム)の対応する位置に、NVM56から読み出した画像データ(静止画像)、点群データ、それらを撮像した撮像部の設置位置、撮像方向、画角の情報に基づいて、テクスチャを合成する。最後に、構築部54Aは、その合成した分割3次元モデルを組み合わせて、監視エリア10の全体の3次元モデル(仮想空間100)を構築する。以上により、監視エリア10が仮想空間100に再現される。なお、この段階では、仮想空間100にはまだ各撮像部12A~12Dが撮像したリアルタイムの画像データ(動画像)および点群データに基づくテクスチャは合成されていない。
【0028】
ステップ82で、構築部54Aは、各撮像部12A~12Dで撮像して得られたリアルタイムの画像データおよび点群データ(各撮像部からの測距データ)を取得する。
【0029】
ステップ84で、構築部54Aは、各撮像部12A~12Dから取得した画像データおよび点群データ、ならびにNVM56から読み出した各撮像部12A~12Dの設置位置、撮像方向、画角に基づいて、テクスチャを、仮想空間100に合成する。
【0030】
ステップ86で、構築部54Aは、監視員により押しボタン64Aおよびジョイスティック64Bが操作されて指定された視点および視線方向を特定する。
【0031】
ステップ88で、構築部54Aは、仮想空間100内の、特定された視点および視線方向で見たような画像(平面画像)を、仮想空間100から生成する。
【0032】
ステップ90で、構築部54Aは、仮想空間100から生成した、特定された視点および視線方向で仮想空間100を見たような画像(平面画像)を、表示装置62に表示する。
【0033】
ステップ92で、構築部54Aは、押しボタン64Aおよびジョイスティック64Bにより終了指示がされたか否かを判断する。
【0034】
終了指示がされたと判断されなかった場合(ステップ92:N)には、本構築処理は、ステップ82に戻って、以上の処理(ステップ82~92)を再度実行する。処理(ステップ82~92)が繰り返し実行されることにより、各撮像部12A~12Dからリアルタイムの画像データ(動画像)および点群データが取得され、それらに基づいて監視エリア10の仮想空間100にテクスチャが合成され、特定された視点および視線方向で見たような画像(平面画像)が、合成した仮想空間100から生成され、表示装置62に表示される。つまり、監視エリア10の仮想空間100がリアルタイムに動画像で表示される。
【0035】
終了指示がされたと判断された場合(ステップ92:Y)には、本構築処理は終了する。
【0036】
なお、構築部54Aがステップ88で生成しステップ90で表示装置62に表示する、特定された視点および視線方向で仮想空間100を見たような画像(平面画像)の画角は、監視員が押しボタン64Aおよびジョイスティック64Bを操作すること等により変更可能であってもよい。
【0037】
以上により、
図7Bに示すように、
図2に示す現実世界の監視エリア10に対応する仮想空間100が構築される。上記のように、監視エリア10に複数のショーケース14N1~14N5(
図2参照)が配置されているので、仮想空間100にも複数のショーケース14N1~14N5が再現される。なお、現実世界の監視エリア10に存在する物体と、監視エリア10の仮想空間100に再現された物体で、対応するものには同じ符号を付すものとする。(例えば監視エリア10のショーケース14N1と仮想エリア100に再現されたショーケース14N1)
【0038】
上記のように構築部54Aは、各撮像部12A~12Dで撮像して得られた画像データに基づいて、テクスチャを仮想空間100に合成するので、監視員は、監視エリア10の仮想空間100を見ながら、現実世界の監視エリア10をリアルタイムに監視することができる。なお、上記の「リアルタイム」は、複数の撮像部12A~12Dが監視エリア10を撮像した時刻と略同じ時刻に、という意味で用いている。即ち、「リアルタイム」は、複数の撮像部12A~12Dが監視エリア10を撮像した時刻と、仮想空間100において当該事象が表示された時刻との間に時間的なずれがないことを意味しない。上記の「リアルタイム」は、各撮像部12A~12Dが撮像してから、監視エリア10の仮想空間100が構築され、構築された仮想空間100が表示されるまでの通信、処理に最低限必要な所要時間分のずれがあることも含めて用いている。
【0039】
上記のように監視エリア10の仮想空間100で監視員が現実世界の監視エリア10を監視する。具体的には、監視員は、押しボタン64Aおよびジョイスティック64Bを操作して、視点および視線方向の各々を指定する。これにより、視点および視線方向が遠隔監視装置50に入力され、特定される(ステップ86)。
【0040】
例えば、監視員は、
図7Bに示した監視エリア10の仮想空間100において第1の視点p1および第1の視線方向d1を指定する。第1の視点p1および第1の視線方向d1が遠隔監視装置50に入力され、ステップ86で、第1の視点p1および第1の視線方向d1が特定される。ステップ88では、構築部54Aは、第1の視点p1から第1の視線方向d1に監視エリア10の仮想空間100を見たような画像(平面画像(
図8参照))を、仮想空間100から生成し、ステップ90で、表示する。第1の視点p1は、ショーケース14N1とショーケース14N2との間の監視エリア10の手前の壁の位置であり、第1の視線方向はショーケース14N5に向かう方向である。よって、第1の視点p1から表示される画像には、ショーケース14N1とショーケース14N2とが手前に位置し、奥側に、ショーケース14N5と、ショーケース14N5の右隣りにショーケース14N3、14N4とが位置する。
【0041】
次に、監視員は、例えば、監視エリア10の第1の視点p1から、ショーケース14N1とショーケース14N2との間の通路に沿って、更に奥に進むように視点を変化させる。例えば、ショーケース14N5の手前の第2の視点p2まで進める。視点が変化される毎に、その変化した視点から視線方向に見たような画像が生成され、表示される。例えば、監視員は、第1の視点p1から奥に進んだ第2の視点p2および第1の視線方向d1と同じ第2の視線方向d2を指定する。これにより、
図9に示すように、第2の視点p2から第2の視線方向d2に監視エリア10の仮想空間100を見たような画像が生成され、表示される。第2の視点p2はショーケース14N5の手前であり、第2の視線方向d2はショーケース14N5に向かう方向である。よって、表示される画像には、ショーケース14N5が正面に位置し、ショーケース14N5の右隣りにショーケース14N3、14N4が位置する。
【0042】
次に、監視員は、例えば、第2の視点p2から右側、即ち、ショーケース14N2とショーケース14N3の間の通路に沿って、監視エリア10を監視するため、まず、第2の視点p2において、第2の視線方向d2と直交する、第3の視線方向d3を指定する。これにより、
図10に示すように、第2の視点p2から第2の視線方向d3に監視エリア10の仮想空間100を見たような画像が生成され、表示される。第2の視点p2はショーケース14N5の手前であり、第3の視線方向d3はショーケース14N2とショーケース14N3の間の通路に沿った方向である。よって、表示される画像には、ショーケース14N2とショーケース14N3の間の通路が正面に位置し、ショーケース14N3の左隣りにショーケース14N4が位置する。
なお、
図7A~
図10には、容易に理解するために、威嚇装置25s1~25s4(
図12等参照)は省略している。
【0043】
このように監視員は、視点および視線方向を変化させなら当該視点から当該視線方向に監視エリア10の仮想空間100を見たような画像を見ながら、監視エリア10を監視する。
【0044】
図11は、人物検知および威嚇処理の流れの一例を示すフローチャートである。なお、本対処処理は、所定時間毎に、構築処理(
図6)に割り込んで実行される。プロセッサ54は、遠隔監視プログラム58の人物検知および威嚇処理を実行することにより、本対処処理を実行する。
【0045】
図11のステップ112で、取込部54Bは、
図7A(b)に示すように監視エリア10の仮想空間100に予め設定された監視セクションを識別する変数s(s=1では監視セクション104s1が、s=2では監視セクション104s2が、s=3では監視セクション104s3が、s=4では監視セクション104s4がそれぞれ識別される)を0に初期化し、ステップ114で、取込部54Bは、変数sを1インクリメントする。
【0046】
図7A(b)における左手前側の領域(上から見て略正方形の領域)には、第1の監視セクション104s1が設定されている。右手前側の領域(上から見て長方形の領域)には、第2の監視セクション104s2が設定されている。第2の監視セクション104s2の奥側の領域(上から見て長方形の領域)には、第3の監視セクション104s3が設定されている。第1の監視セクション104s1および第3の監視セクション104s3の奥側の上から見て矩形の小領域には、第4の監視セクション104s4が設定されている。第1の監視セクション104s1は、ショーケース14N1を含む領域を監視するためのセクションである。第2の監視セクション104s2は、ショーケース14N2を含む領域を監視するためのセクションである。第3の監視セクション104s3は、ショーケース14N3、14N4を含む領域を監視するためのセクションである。第4の監視セクション104s4は、ショーケース14N5を含む領域を監視するためのセクションである。変数s=1~4により、第1の監視セクション104s1~第4の監視セクション104s4が識別される。
【0047】
ステップ116で、取込部54Bは、撮像部12A~12Dが撮像した画像データのうち、監視セクションsの画像データsを含むものを取得する。例えば、変数s=1では、第1の監視セクション104s1が識別される。監視エリア10の第1の監視セクション104s1の画像データs(変数s=1)は、撮像部12Aが撮像した画像データに含まれる。よって、変数s=1では、取込部54Bは撮像部12Aが撮像した画像データを取得する。
【0048】
変数s=2では、第2の監視セクション104s2が識別される。監視エリア10の第2の監視セクション104s2の画像データs(変数s=2)は、撮像部12A、12Bが撮像した画像データに含まれる。よって、変数s=2では、取込部54Bは撮像部12A、12Bが撮像した画像データを取得する。
【0049】
変数s=3では、第3の監視セクション104s3が識別される。監視エリア10の第3の監視セクション104s3の画像データs(変数s=3)は、撮像部12Cが撮像した画像データに含まれる。よって、変数s=3では、取込部54Bは撮像部12Cが撮像した画像データを取得する。
【0050】
変数s=4では、第4の監視セクション104s4が識別される。監視エリア10の第4の監視セクション104s4の画像データs(変数s=4)は、撮像部12Dが撮像した画像データに含まれる。よって、変数s=4では、取込部54Bは撮像部12Dが撮像した画像データを取得する。
【0051】
ステップ118で、判断部54Cは、ステップ116で取得された画像データに基づいて、変数sで識別される監視セクションsの画像に人物が検出されたか否かを判断する。具体的には、判断部54Cは、AI(Artificial Intelligence)により監視セクションsの画像に人物が検出されたか否かを判断する。より具体的には、監視セクションの画像データを入力とし且つその入力された画像データに人物の画像が含まれているか否かの結論を出力とする教師データを用いて学習された学習済みモデルと、変数sで識別される監視セクションsの画像とに基づいて、監視セクションsの画像に人物の画像が含まれているか判断する。なお、ステップ118における判断部54Cの処理は、AIにより監視セクションsの画像に人物が検出されたか否かを判断することに限定されない。例えば、所定時間間隔で監視セクションsの画像データsを取得し、取得した画像データsの、直前に取得した画像データsとの差分から人物を検出したり、予め用意した人物の画像データと監視セクションsの画像データsとのマッチングにより人物を検出したりしてもよい。
【0052】
人物が検出されなかった場合には、本対処処理はステップ126に進み、人物が検出された場合には、本対処処理は、ステップ120に進む。人物が検出された場合では、
図6のステップ90で、表示装置62に表示されている画像(監視エリア10の仮想空間100を、監視員により指定された視点および視線方向で見たような平面画像)には、当該人物が表示されている。つまり、人物が検出された場合では、表示装置62に表示されている監視エリア10の仮想空間100に人物が表示されている。
【0053】
ステップ120で、作動部54Dは、検出された人物の位置に関連する威嚇装置、具体的には、監視セクションsの威嚇装置sを作動させる。例えば、
図13に示すように、第1の監視セクション104s1の画像に人物が検出された場合、作動部54Dは、第1の監視セクション104s1の威嚇装置25s1を作動させる。なお、
図13には、容易に理解するために、
図7B等に示す複数のショーケース14N1~14N5および第1の監視セクション104s1以外の監視セクションの威嚇装置は省略している。
【0054】
ステップ122で、判断部54は、検出された人物が移動しているか否かを判断する。具体的には、判断部54Cは、人物が移動しているか否かをAI(Artificial Intelligence)により判断する。より具体的には、監視セクションの画像を入力とし且つ人物が移動しているか否かの結論を出力とする教師データを用いて学習された学習済みモデルと、変数sで識別される監視セクションsの画像とに基づいて、人物が移動しているか否かを判断する。なお、AIにより判断することに限定されない。例えば、画像の差分により、具体的には、所定時間間隔で監視セクションsの画像データsを2回取り込み、取り込んだ画像の差分から人物が移動しているか否かを判断したり、予め用意した移動している人物の画像と監視セクションsの画像との画像マッチングにより人物が移動しているか否かを判断したりしてもよい。
【0055】
検出された人物が移動していると判断された場合、人物検知および威嚇処理は、ステップ124に進む。検出された人物が移動していると判断されなかった場合、人物検知および威嚇処理は、ステップ124、126をスキップして、ステップ128に進む。
【0056】
ステップ124で、特定部54Eは、AI、画像差分、または画像マッチングにより、移動する先の監視セクションを特定し、ステップ126で、作動部54Dは、移動している人物の位置に関連する威嚇装置、例えば、移動先の監視セクションの威嚇装置を作動させる。例えば、
図14に示すように、移動先の監視セクションが第2の監視セクション104s2の場合、作動部54Dは、第2の監視セクション104s2の威嚇装置25s2を作動させる。なお、
図14には、容易に理解するために、
図7B等に示す複数のショーケース14N1~14N5および第1の監視セクション104s1および第2の監視セクション104s2以外の監視セクションの威嚇装置は省略している。
【0057】
ステップ128で、判断部54Cは、変数sが、監視セクションの総数Sか否かを判断する。変数sが監視セクションの総数Sでない場合には、人物の検出を未だ判断していない監視セクションがあるので、本対処処理はステップ114に戻って以上の処理(ステップ114~ステップ128)を実行する。変数sが監視セクションの総数Sである場合には、全ての監視セクションで人物の検出を判断しているので、本対処処理は終了する。
【0058】
なお、予測した移動先の監視セクションの威嚇装置を作動させた場合において、人物が当該移動先に監視セクションに移動した場合、元の監視セクションの威嚇装置の作動を停止する。
【0059】
(効果)
本実施の形態では、検出された人物の位置に関連する威嚇装置、具体的には、人物が検出された監視セクションの威嚇装置を作動させる。よって、本実施の形態では、侵入した人物を威嚇することができる。
【0060】
また、本実施の形態では、検出された人物が移動している場合、移動している人物の位置に関連する威嚇装置、具体的には、移動先の監視セクションの威嚇装置を作動させる。よって、本実施の形態では、侵入した人物を、移動先に先回りして威嚇することができ、威嚇効果を高めることができる。
【0061】
更に、従来は、侵入者を威嚇するためには、監視エリアに多数設置されたカメラや威嚇装置等の設置方向や設置角度、位置関係等を監視員が全て把握しなければならず、遠隔地から侵入者を適切に対処することは難しかった。しかし、本実施の形態によれば、監視員は仮想空間上でカメラや威嚇装置の設置方向や設置角度、位置関係等を把握することなく、遠隔地から侵入者に適切に対処することができる。
【0062】
[第2の実施の形態]
(構成)
第2の実施の形態における現実世界の監視エリア10および遠隔監視装置50の構成は、第1の実施の形態の監視エリア10および遠隔監視装置50と同様であるので、それらの説明を省略する。なお、第2の実施の形態におけるNVM56には、遠隔監視プログラム58として、上記構築処理プログラム(
図6参照)と、後述する威嚇処理プログラム(
図15参照)が記憶されている。
【0063】
(作用)
第2の実施の形態の遠隔監視装置50の作用は、第1の実施の形態の遠隔監視装置50の作用と略同様であるので、異なる作用部分について説明する。
【0064】
図15は、第2の実施の形態における威嚇処理を示すフローチャートである。プロセッサ54は、威嚇処理プログラムを実行することにより、威嚇処理を実行する。
【0065】
第1の実施の形態では、
図11に示す人物検知および威嚇処理において、プロセッサ54は、自動的に人物を検知し且つ自動的に威嚇装置を作動させる。
【0066】
これに対し第2の実施の形態では、人物検知および威嚇装置の作動の指示を、監視員が行う点で相違する。以下、具体的に、第2の実施の形態の威嚇処理を説明する。なお、本威嚇処理は、所定時間毎に、構築処理(
図6)に割り込んで実行される。
【0067】
ステップ142で、判断部54Cは、監視セクションが指定されたか否かを判断する。監視セクションが指定されたと判断された場合には、本威嚇処理は、ステップ144に進む。監視セクションが指定されたと判断されなかった場合には、本威嚇処理は終了する。
【0068】
上記のように監視員は、仮想空間100に再現された監視エリア10を見ながら、現実世界の監視エリア10をリアルタイムに監視することができる。現実世界の監視エリア10に人物が侵入すると、侵入した人物は、
図13に示すように、監視エリア10の仮想空間100に表示される。監視エリア10の仮想空間100に表示された人物106h1を見た、監視員は、現実世界の監視エリア10に人物106h1が侵入したこと、および、人物106h1が侵入した監視エリア10の第1のセクション104s1を認識することができる。なお、監視員は、監視エリア10に各監視セクションを覚えているが、監視エリア10に各監視セクションを示す情報を表示してもよい。この表示により監視員は、人物が侵入した監視セクションを確認することができる。そこで、監視員は、押しボタン64Aおよびジョイスティック64Bを操作して、人物が侵入した監視エリア10の監視セクションを指定する。
図13に示す例では、監視員は、人物106h1が侵入した監視エリア10の第1のセクション104s1を指定する。監視員が押しボタン64Aおよびジョイスティック64Bを操作して監視セクションを指定すると、監視セクションの情報が遠隔監視装置50に入力され、ステップ142が肯定判定となる。
【0069】
ステップ144で、作動部54Dは、指定された監視セクションの威嚇装置を作動させる。上記例(
図13参照)では、作動部54Dは、第1のセクション104s1の威嚇装置25s1を作動させる。
【0070】
上記のように監視員は、仮想空間100に再現された監視エリア10を見ながら、現実世界の監視エリア10をリアルタイムに監視しているので、威嚇装置を作動させた場合の人物の挙動を監視することができる。よって、監視員は、威嚇装置の威嚇効果が人物に効果的に発揮され、人物が出口から退避しようとしている様子、または、威嚇装置の威嚇効果では、人物を、出口から退避させることができていない様子を確認することができる。
【0071】
ステップ146で、判断部54Cは、威嚇効果を増加させる指示を受け付けたか否かを判断する。威嚇効果を増加させる指示を受け付けたと判断された場合には、本威嚇処理は、ステップ148に進む。威嚇効果を増加させる指示を受け付けたと判断されなかった場合には、本威嚇処理は、ステップ148をスキップしてステップ150に進む。
【0072】
上記のように監視員は、威嚇装置を作動させた場合の人物の挙動を監視することができる。監視者は、威嚇装置の現在のレベルの威嚇効果では、人物を、出口から退避させることができていないことを確認した場合には、押しボタン64Aおよびジョイスティック64Bを操作して、威嚇効果を増加させる指示を遠隔監視装置50に入力する。これにより、ステップ146が肯定判定となる。
【0073】
ステップ148で、作動部54Dは、威嚇効果を増加させる。上記例(
図13参照)では、作動部54Dは、第1のセクション104s1の威嚇装置25s1の威嚇効果を増加させる。具体的には、威嚇装置25s1がスピーカーの場合、警告音を一定量大きくする。なお、威嚇効果を増加させることは、警告音を一定量大きくすることに限定されず、警告音を徐々に大きくしたり、警告音を断続的に発生させたり、断続的に発生させる警告音を徐々に大きくしたり、してもよい。
【0074】
ステップ150で、判断部54Cは、終了か否かを判断する。終了と判断されなかった場合には、本威嚇処理は、ステップ146に戻って、以上の処理(ステップ146~150)が実行される。
【0075】
威嚇効果を増加させる指示が遠隔監視装置50に入力され、威嚇効果が増加しても、未だ、人物を、出口から退避させることができていないことを確認した監視員は、押しボタン64Aおよびジョイスティック64Bで、威嚇効果の増加を指示する。これにより、ステップ146が肯定判定となる。
【0076】
威嚇効果を増加させる指示が遠隔監視装置50に入力され、威嚇効果が増加し、人物を、出口から退避させることができたことを確認した監視員は、押しボタン64Aおよびジョイスティック64Bを操作し、終了の指示を入力する。これにより、ステップ150が肯定判定となって。本威嚇処理は終了する。
【0077】
(効果)
本実施の形態では、監視員は、監視エリア10を介して現実世界の監視エリア10に人物が侵入したことを確認すると、人物が侵入した監視セクションを指定し、遠隔監視装置50は、指定された監視セクションの威嚇装置を作動させることにより、侵入した人物に対して、追跡されているという心理的な効果を与える。よって、本実施の形態では、侵入した人物を威嚇することができる。
【0078】
また、本実施の形態では、監視員は、現在の威嚇効果では、人物を、出口から退避させることができていないことを確認すると、威嚇効果の増加を指示し、遠隔監視装置50は、威嚇装置による威嚇効果を増加させる。よって、本実施の形態は、威嚇効果を更に高めることができる。
【0079】
[変形例]
次に、変形例を説明する。
(第1の変形例)
図16は、第1の変形例における、威嚇装置を備えるドロ-ンが設けられた監視エリアを示す図である。
図16に示すように、第1の変形例の監視エリア10には、威嚇装置150s1を備えるドロ-ンが設けられている。威嚇装置150s1は、例えば、スピーカーである。作動するとスピーカーからは、威嚇効果として、警告音が発せられる。
【0080】
図17は、ドロ-ン150に備えられた監視装置を作動させる様子を示す図である。なお、
図17には、容易に理解するために、
図7B等に示す複数のショーケース14N1~14N5と、第1の監視セクション104s1および第2の監視セクション104s2以外の監視セクションの威嚇装置と、は省略している。
図11のステップ118で人物106h1が検出された場合、ステップ120で、威嚇装置25s1を作動させると共に、検出された人物に対応する位置にドロ-ン150を飛行させ、ドロ-ン150に備えられた監視装置150s1を作動させる。
【0081】
また、
図11のステップ122で、人物が移動していると判断した場合には、ステップ124で、移動する先の監視セクションを特定し、ステップ126で、移動する先の監視セクションの威嚇装置24s2を作動させると共に、移動する先の監視セクションにドロ-ンを飛行させ、ドロ-ン150に備えられた監視装置150s1を作動させる。
【0082】
なお、第1の変形例では、威嚇装置は、ドロ-ンに備えられた威嚇装置のみを利用し、第1の実施の形態における監視エリア10の天井に設置された複数の威嚇装置25s1~25s4を省略するようにしてもよい。
【0083】
なお、監視エリア10を移動可能な威嚇装置として、ドロ-ンに備えられた威嚇装置150s1を例にとり説明したが、本開示の技術はこれに限定されず、複数の車輪を備えて監視エリア10の床の上を移動可能なロボットに威嚇装置を備えるようにしてもよい。
【0084】
(第2の変形例)
図18Aは、第2の変形例として、監視エリア10における各撮像部の設置位置に対応する、仮想空間100における視点を、順次切り替えて表示装置62に表示する順次切り替え表示方式の場合の、監視エリア10の概念斜視図である。
図18Bは、その順次切り替え表示方式の場合の、監視エリア10の仮想空間100における視点、視線方向を順次切り替える様子を示す図である。なお、
図18A、
図18Bには、容易に理解するために、
図7B等に示す複数のショーケース14N1~14N5は省略している。
【0085】
第2の変形例では、監視エリア10の天井には、第1の実施の形態と同様の複数の撮像部12A~12Dが異なる位置に設置されている。具体的には、複数の撮像部12A~12Dの各々の撮像方向は、天井から床に向かう方向である。撮像部12Aの撮像方向は、撮像部12Aから、撮像部12Aの真下の床の位置22Aに向かう方向である。その他の撮像部12B~12Dの撮像方向も同様である。複数の撮像部12A~12Dの各々は、当該撮像方向を中心に180°の画角の領域を撮像可能である。これと対応して、監視エリア10の仮想空間100においては、
図18Bに示すように、複数の撮像部12A~12Dの設置位置に対応する位置が、視点として順次切り替えて指定される。各視点における視線方向は、初期状態として現在の視点から次に切り替わる視点に向けた方向が指定される。視線方向は、押しボタン64Aおよびジョイスティック64Bを操作して、任意に変更することができる。
【0086】
監視員は、押しボタン64Aおよびジョイスティック64Bを操作して、表示装置62に表示する仮想空間100の視点を順次指定する。例えば、
図18Bに示す例では、視点p100→視点p200→視点p300→視点p400順に視点が指定されている。
【0087】
視点p100が指定されると、遠隔監視装置50は、撮像部12A~撮像部12Aの真下の床の位置22Aに向かう撮像方向を中心に180°の画角の領域を撮像部12Aが撮像して得られた画像データ(動画像)および点群データ、ならびに撮像部12Aの設置位置、撮像方向および画角に基づいて、仮想空間100にテクスチャを合成し、その合成した仮想空間100を、視点p100、視線方向d100(即ち、視点p100から視点p200に向かう方向)で見たような画像(平面画像)を生成し、表示装置62に表示する。なお、当該画像(平面画像)には、ショーケース14N2が表示される。このとき、表示する画像(平面画像)中に他の視点が含まれる場合は、その視点の位置に、押しボタン64Aおよびジョイスティック64Bで選択可能なマークを表示する。このマークを選択することによって、対応する視点を指定する。
【0088】
次に、視点p200が指定されると、遠隔監視装置50は、撮像部12B~撮像部12Bの真下の床の位置22Bに向かう撮像方向を中心に180°の画角の領域を撮像部12Bが撮像して得られた画像データ(動画像)および点群データ、ならびに撮像部12Aの設置位置、撮像方向および画角に基づいて、仮想空間100にテクスチャを合成し、その合成した仮想空間100を、視点p200、視線方向d200(即ち、視点p200から視点p300に向かう方向)で見たような画像(平面画像)を生成し、表示装置62に表示する。なお、当該画像(平面画像)には、ショーケース14N3、14N4が表示される。
【0089】
更に、視点p300が指定されると、遠隔監視装置50は、撮像部12C~撮像部12Cの真下の床の位置22Cに向かう撮像方向を中心に180°の画角の領域を撮像部12Cが撮像して得られた画像データ(動画像)および点群データ、ならびに撮像部12Cの設置位置、撮像方向および画角に基づいて、仮想空間100にテクスチャを合成し、その合成した仮想空間100を、視点p300、視線方向d300(即ち、視点p300から視点p400に向かう方向)で見たような画像(平面画像)を生成し、表示装置62に表示する。なお、当該画像(平面画像)には、手前に、ショーケース14N3、14N4が、これらの奥側にショーケース14N5表示される。
【0090】
(第3の変形例)
図19は、第3の変形例のヘッドマウントディスプレイを用いた場合の遠隔監視装置を示す図である。第3の変形例では、上記各実施の形態のVR監視卓に代えて、ヘッドマウントディスプレイ62HDが用いられる。ヘッドマウントディスプレイ62HDは、表示スクリーン、および監視員の頭部の動きを検知する加速度センサが設けられており、加速度センサが検知した加速度情報に基づいて、指定する視点および視線方向を遠隔監視装置50に有線または無線で送信する。遠隔監視装置50は、指定された視点および視線方向に基づいて仮想空間100を当該視点および視線方向でみたような画像(平面画像)を生成し、ヘッドマウントディスプレイ62HDへ送信する。ヘッドマウントディスプレイ62Dは遠隔監視装置50から受信した当該画像(平面画像)を表示スクリーンに表示する。また、押しボタン64Aおよびジョイスティック64Bに代えて、押しボタン64Aおよびジョイスティック64Bの機能と同様の機能の第1の操作装置65Aおよび第2の操作装置65Bを備えている。第1の操作装置65Aおよび第2の操作装置65Bは、操作された内容を示す情報を、遠隔監視装置50に有線または無線で送信する。このようにして、監視員は、ヘッドマウントディスプレイ62HDの表示スクリーンに表示された監視エリア10の仮想空間100を見て、監視エリア10を遠隔監視することができる。
【0091】
(第4の変形例)
上記各例では、威嚇装置は、例えば、スピーカーであり、スピーカーから警告音を発生させている。本開示の技術はこれに限定されない。威嚇装置は、例えば、パトランプ(警告灯)、または、プロジェクションマッピング等でもよい。この場合、威嚇効果としては、パトランプ(警告灯)の点灯による回転発光演出、または、プロジェクションマッピングによる当該人物の表示等である。また、上記説明したドロ-ンおよびロボットの場合には、警告音を発生させることに限定されず、撮像部および投影部を更に備え、人物を撮像、撮影した人物を、監視エリア10の壁等に投影してもよい。
【0092】
(第5の変形例)
第1の実施の形態では、自動的に人物を検知し且つ自動的に威嚇装置を作動させ、第2の実施の形態では、人物検知および威嚇装置の作動の指示を、監視員が行う。本開示の技術はこれに限定されない。
【0093】
例えば、第1の実施の形態のように自動的に人物を検知し且つ自動的に威嚇装置を作動させ、更に、威嚇装置を作動させても、画像データに基づいて人物が移動しないことが判断された場合に、威嚇装置の威嚇効果を自動的に増加させたり、人物が移動しないことを認識した監視員が威嚇装置の作動の指示を行ったりしてもよい。
【0094】
また、人物の検知は自動で行い(
図11のステップ118)、威嚇装置の作動の指示および威嚇効果の増加を、監視員が行う(
図15のステップ144~148)ようにしてもよい。
【0095】
更に、人物検知および威嚇装置の作動の指示を、監視員が行い、威嚇装置の威嚇効果を自動的に増加させてもよい。
【0096】
以上のように、本開示の技術では、人物の検知、威嚇装置の作動、および威嚇装置の威嚇効果の各々を、自動または手動で行うようにしてもよい。
【0097】
(第6の変形例)
本開示の技術では更に、仮想空間上において、監視員が威嚇装置の位置を適切に把握できるようにするため、威嚇装置または威嚇装置が設置された位置を目立たせて表示するようにしてもよい。
【0098】
(第7の変形例)
本開示の技術では更に、火事、地震等の被災時において、仮想空間上で被災者の位置を特定しながら、当該威嚇装置から避難誘導メッセージを流すことで、適切に被災者を避難誘導するようにしてもよい。
【0099】
(その他の変形例)
上記実施の形態では、遠隔監視装置50に含まれるコンピュータ52のプロセッサ54によって上記構築処理、および人物検知および威嚇処理(
図11)または威嚇処理(
図15)が行われる形態例を挙げて説明したが、本開示の技術はこれに限定されず、上記構築処理、および人物検知および威嚇処理(
図11)または威嚇処理(
図15)を行う装置は、遠隔監視装置50以外の更に設けた少なくとも1台のサーバおよび/または少なくとも1台のパーソナル・コンピュータ等でもよい。更に、上記構築処理、および人物検知および威嚇処理(
図11)または威嚇処理(
図15)は、遠隔監視装置50および更に設けた少なくとも1台のサーバおよび/または少なくとも1台のパーソナル・コンピュータ等で分散して行われるようにしてもよい。
【0100】
上記実施の形態では、NVM56に遠隔監視プログラム58(具体的には、構築処理プログラム(
図6参照)および人物検知および威嚇処理プログラム(
図11)または威嚇処理プログラム(
図15参照))が記憶されている形態例を挙げて説明したが、本開示の技術はこれに限定されない。例えば、遠隔監視プログラム58がSSD(Solid State Drive)またはUSB(Universal Serial Bus)メモリなどの可搬型の非一時的記憶媒体に記憶されていてもよい。非一時的記憶媒体に記憶されている遠隔監視プログラム58は、遠隔監視装置50に含まれるコンピュータ52にインストールされる。プロセッサ54は、遠隔監視プログラム58に従って上記構築処理、および人物検知および威嚇処理(
図11)または威嚇処理(
図15)を実行する。
【0101】
また、ネットワークを介して遠隔監視装置50に接続される他のコンピュータまたはサーバ等の記憶装置に遠隔監視プログラム58を記憶させておき、遠隔監視プログラム58が他のコンピュータまたはサーバ等の記憶装置からダウンロードされ、コンピュータ52にインストールされるようにしてもよい。
【0102】
上記構築処理、および人物検知および威嚇処理(
図11)または威嚇処理(
図15)を実行するハードウェア資源としては、次に示す各種のプロセッサを用いることができる。プロセッサとしては、例えば、ソフトウェア、すなわち、プログラムを実行することで、上記構築処理、および人物検知および威嚇処理(
図11)または威嚇処理(
図15)を実行するハードウェア資源として機能する汎用的なプロセッサであるCPUが挙げられる。また、プロセッサとしては、例えば、FPGA(Field Programmable Gate Array)、PLD(Programmable Logic Device)、またはASIC(Application Specific Integrated Circuit)などの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路が挙げられる。何れのプロセッサにもメモリが内蔵または接続されており、何れのプロセッサもメモリを使用することで上記構築処理、および人物検知および威嚇処理(
図11)または威嚇処理(
図15)を実行する。
【0103】
上記構築処理、および人物検知および威嚇処理(
図11)または威嚇処理(
図15)を実行するハードウェア資源は、これらの各種のプロセッサのうちの1つで構成されてもよいし、同種または異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせ、またはCPUとFPGAとの組み合わせ)で構成されてもよい。
【0104】
1つのプロセッサで構成する例としては、第1に、1つ以上のCPUとソフトウェアの組み合わせで1つのプロセッサを構成し、このプロセッサが、上記構築処理、および人物検知および威嚇処理(
図11)または威嚇処理(
図15)を実行するハードウェア資源として機能する形態がある。第2に、SoC(System on a chip)などに代表されるように、上記構築処理、および人物検知および威嚇処理(
図11)または威嚇処理(
図15)を実行する複数のハードウェア資源を含むシステム全体の機能を1つのICチップで実現するプロセッサを使用する形態がある。このように、上記構築処理、および人物検知および威嚇処理(
図11)または威嚇処理(
図15)は、ハードウェア資源として、上記各種のプロセッサの1つ以上を用いて実現される。
【0105】
更に、これらの各種のプロセッサのハードウェア的な構造としては、より具体的には、半導体素子などの回路素子を組み合わせた電気回路を用いることができる。また、上記構築処理、および人物検知および威嚇処理(
図11)または威嚇処理(
図15)はあくまでも一例である。従って、主旨を逸脱しない範囲内において不要なステップを削除したり、新たなステップを追加したり、処理順序を入れ替えたりしてもよいことは言うまでもない。
【0106】
以上に示した記載内容および図示内容は、本開示の技術に係る部分についての詳細な説明であり、本開示の技術の一例に過ぎない。例えば、上記の構成、機能、作用、および効果に関する説明は、本開示の技術に係る部分の構成、機能、作用、および効果の一例に関する説明である。よって、本開示の技術の主旨を逸脱しない範囲内において、以上に示した記載内容および図示内容に対して、不要な部分を削除したり、新たな要素を追加したり、置き換えたりしてもよいことは言うまでもない。また、錯綜を回避し、本開示の技術に係る部分の理解を容易にするために、以上に示した記載内容および図示内容では、本開示の技術の実施を可能にする上で特に説明を要しない技術常識等に関する説明は省略されている。
【0107】
本明細書に記載された全ての文献、特許出願および技術規格は、個々の文献、特許出願および技術規格が参照により取り込まれることが具体的かつ個々に記された場合と同程度に、本明細書中に参照により取り込まれる。
【符号の説明】
【0108】
10 監視エリア
12A~12E 撮像部
25S1 威嚇装置
54 プロセッサ
62 表示装置
66 通信I/F
100 監視エリア