(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-08-01
(45)【発行日】2024-08-09
(54)【発明の名称】警備システム
(51)【国際特許分類】
G08B 25/00 20060101AFI20240802BHJP
G08B 25/10 20060101ALI20240802BHJP
H04M 1/72424 20210101ALI20240802BHJP
H04M 11/04 20060101ALI20240802BHJP
【FI】
G08B25/00 510M
G08B25/10
H04M1/72424
H04M11/04
(21)【出願番号】P 2023145436
(22)【出願日】2023-09-07
(62)【分割の表示】P 2019062233の分割
【原出願日】2019-03-28
【審査請求日】2023-09-07
(73)【特許権者】
【識別番号】000202361
【氏名又は名称】綜合警備保障株式会社
(74)【代理人】
【識別番号】100114306
【氏名又は名称】中辻 史郎
(72)【発明者】
【氏名】▲橋▼村 佳祐
(72)【発明者】
【氏名】荻野 純孝
(72)【発明者】
【氏名】河上 聖人
(72)【発明者】
【氏名】東 泉蕗
【審査官】飯島 尚郎
(56)【参考文献】
【文献】特開2005-197812(JP,A)
【文献】特開2018-112831(JP,A)
【文献】特開2017-207877(JP,A)
【文献】特開2014-007566(JP,A)
【文献】特開2019-030557(JP,A)
【文献】特開2018-060192(JP,A)
【文献】特開2007-251584(JP,A)
【文献】中国特許出願公開第108335458(CN,A)
【文献】国際公開第2016/116861(WO,A1)
【文献】特開2004-295200(JP,A)
【文献】特表2005-509225(JP,A)
【文献】特開2018-092341(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
G08B 23/00-31/00
H04M 1/72424
H04M 11/04
(57)【特許請求の範囲】
【請求項1】
通報者の携帯端末から通報情報を受信して警備員が所持する携帯端末に対し所定の指示を行う警備システムであって、
前記通報情報を受信したとき、該通報情報に含まれる前記通報者の顔を含む第1の画像と、前記通報者の周囲に所在する者の顔を含む第2の画像とを取得する取得部と、
前記第1の画像から前記通報者の顔の部分画像を切り出すとともに、前記第2の画像から前記通報者の周囲に所在する者の顔の部分画像を切り出す切出部と、
前記切出部により切り出された前記通報者の顔の部分画像、及び、前記通報者の周囲に所在する者の顔の部分画像にそれぞれ含まれる顔の表情を分類する分類処理部と、
前記分類処理部により分類された顔の表情に基づいて、事象の緊急度を算定する緊急度算定部と、
前記緊急度算定部により算定した緊急度に基づいて、所定の警備員が所持する携帯端末に対して指示を行う指示部と
を備えたことを特徴とする警備システム。
【請求項2】
前記分類処理部は、
顔の部分画像と分類結果からなる教師データにより学習された学習済モデルを用いて顔の表情を分類する
ことを特徴とする請求項1に記載の警備システム。
【請求項3】
前記学習済モデルから出力された分類結果は、表情の分類と該表情の分類に対応する確率を含み、
前記緊急度算定部は、前記表情の分類に対応する確率と所定値との比較結果に基づいて緊急度を算定する
ことを特徴とする請求項2に記載の警備システム。
【請求項4】
前記学習済モデルから出力された分類結果は、喜びを示す第1の確率、信頼を示す第2の確率、期待を示す第3の確率、恐れを示す第4の確率、驚きを示す第5の確率、悲しみを示す第6の確率、嫌悪を示す第7の確率、怒りを示す第8の確率を含み、
前記緊急度算定部は、
前記第4の確率、前記第5の確率、前記第6の確率、前記第8の確率が所定値以上である場合に緊急度を高くし、前記第1の確率、前記第2の確率、前記第3の確率、前記第7の確率が所定値以上である場合に緊急度を低くする
ことを特徴とする請求項2に記載の警備システム。
【請求項5】
前記指示部は、
前記緊急度が所定値以上である場合に、所定の警備員が所持する携帯端末に対して事象の発生位置への直行指示を行う
ことを特徴とする請求項1乃至4のいずれか一つに記載の警備システム。
【請求項6】
前記指示部は、
複数の異なる位置に所在する前記携帯端末から通報情報を受け付けた場合に、所定の警備員が所持する携帯端末に対してより緊急度が高い事象の発生位置への直行指示を行う
ことを特徴とする請求項1乃至5のいずれか一つに記載の警備システム。
【発明の詳細な説明】
【技術分野】
【0001】
この発明は、緊急度の高い事象が発生した位置に警備員を優先的に直行させることができる警備システムに関する。
【背景技術】
【0002】
従来、警備員による対処が必要となる火災・救急等の事案が発生した場合には、その発見者である警備員等は、自らが所有する携帯端末を用いてその事案内容及び発生位置を警備会社のセンタ(以下、「コントロールセンタ」と言う)に通報する。そして、かかる通報を受けたコントロールセンタは、警備員の状態や事案発生位置に応じて、適切な警備員へ直行指示を行うことにより、適切な駆け付け対処が行われる。
【0003】
ここで、特許文献1には、監視映像情報から人物の視線方向を求め、複数の人物の視線方向が特定位置に向いていることを判別して注目事象を検知し、注目事象の発生を通知する映像監視装置が開示されている。かかる特許文献1を用いることにより、コントロールセンタは、発生した事象の詳細を把握することができる。
【0004】
ところが、上記特許文献1のものは、映像監視装置が配設されていない位置で事象が発生した場合には、対応することができない。このため、特許文献2には、災害時に携帯端末の自撮りカメラ入出力画面の前方向を撮影した撮影画像を受信し、受信した撮影画像に基づいて携帯端末の利用者の緊急度を判定し、該緊急度を送信する安否確認装置が開示されている。かかる特許文献2を用いることにより、コントロールセンタは、発生した事象による緊急度を把握することができる。
【先行技術文献】
【特許文献】
【0005】
【文献】特開2018-148402号公報
【文献】特開2018-092341号公報
【発明の概要】
【発明が解決しようとする課題】
【0006】
しかしながら、上記特許文献2のものは、携帯端末の自撮りカメラ入出力画面の前方向に事象が写っていない場合には、緊急度を判定することができない。この際、携帯端末の操作者が、いたずら目的で通報ボタンを押下操作されたケースや、誤操作により通報ボタンを押下操作したケースを判別することができないため、他の箇所で緊急性の高い事象が発生しているにも関わらず、事象の発生していない位置に警備員を直行させる問題が生ずる可能性がある。このため、いかにして緊急度の高い事象が発生した位置に警備員を優先的に直行させるかが重要な課題となっている。
【0007】
本発明は、上記の課題(問題点)を解決するためになされたものであり、緊急度の高い事象が発生した位置に警備員を優先的に直行させることができる警備システムを提供することを目的とする。
【課題を解決するための手段】
【0008】
上述した課題を解決し、目的を達成するため、本発明は、通報者の携帯端末から通報情報を受信して警備員が所持する携帯端末に対し所定の指示を行う警備システムであって、前記通報情報を受信したとき、該通報情報に含まれる前記通報者の顔を含む第1の画像と、前記通報者の周囲に所在する者の顔を含む第2の画像とを取得する取得部と、前記第1の画像から前記通報者の顔の部分画像を切り出すとともに、前記第2の画像から前記通報者の周囲に所在する者の顔の部分画像を切り出す切出部と、前記切出部により切り出された前記通報者の顔の部分画像、及び、前記通報者の周囲に所在する者の顔の部分画像にそれぞれ含まれる顔の表情を分類する分類処理部と、前記分類処理部により分類された顔の表情に基づいて、事象の緊急度を算定する緊急度算定部と、前記緊急度算定部により算定した緊急度に基づいて、所定の警備員が所持する携帯端末に対して指示を行う指示部とを備えたことを特徴とする。
【0009】
また、本発明は、上記の発明において、前記分類処理部は、顔の部分画像と分類結果からなる教師データにより学習された学習済モデルを用いて顔の表情を分類することを特徴とする。
また、本発明は、上記の発明において、前記学習済モデルから出力された分類結果は、表情の分類と該表情の分類に対応する確率を含み、前記緊急度算定部は、前記表情の分類に対応する確率と所定値との比較結果に基づいて緊急度を算定することを特徴とする。
【0010】
また、本発明は、上記の発明において、前記学習済モデルから出力された分類結果は、喜びを示す第1の確率、信頼を示す第2の確率、期待を示す第3の確率、恐れを示す第4の確率、驚きを示す第5の確率、悲しみを示す第6の確率、嫌悪を示す第7の確率、怒りを示す第8の確率を含み、前記緊急度算定部は、前記第4の確率、前記第5の確率、前記第6の確率、前記第8の確率が所定値以上である場合に緊急度を高くし、前記第1の確率、前記第2の確率、前記第3の確率、前記第7の確率が所定値以上である場合に緊急度を低くすることを特徴とする。
【0011】
また、本発明は、上記の発明において、前記指示部は、前記緊急度が所定値以上である場合に、所定の警備員が所持する携帯端末に対して事象の発生位置への直行指示を行うことを特徴とする。
【0012】
また、本発明は、上記の発明において、前記指示部は、複数の異なる位置に所在する前記携帯端末から通報情報を受け付けた場合に、所定の警備員が所持する携帯端末に対してより緊急度が高い事象の発生位置への直行指示を行うことを特徴とする。
【発明の効果】
【0013】
本発明によれば、緊急度の高い事象が発生した位置に警備員を優先的に直行させることが可能となる。
【図面の簡単な説明】
【0014】
【
図1】
図1は、実施例1に係る警備システムのシステム構成及び概要を説明するための説明図である。
【
図2】
図2は、
図1に示した携帯端末の構成を示す機能ブロック図である。
【
図3】
図3は、
図2に示した携帯端末の動作を説明する説明図である。
【
図4】
図4は、
図1に示したコントロールセンタの構成を示すブロック図である。
【
図5】
図5は、顔の切出処理を説明するための説明図である。
【
図6】
図6は、クラスタリングの一例を示す図である。
【
図7】
図7は、学習済モデルを用いたクラスタリングを説明するための説明図である。
【
図8】
図8は、学習済モデルの構造の一例を示す図である。
【
図9】
図9は、
図1に示した警備システムの通報処理手順を示すフローチャートである。
【
図10】
図10は、実施例2に係る警備システムのシステム構成及び概要を説明するための説明図である。
【発明を実施するための形態】
【0015】
以下に、添付図面を参照して、本発明に係る警備システムの好適な実施例を詳細に説明する。なお、下記に示す実施例1では、クラスタリング及び緊急度の算定をコントロールセンタで行う場合を示し、下記に示す実施例2では、クラスタリング及び緊急度の算定を携帯端末で行う場合を示すこととする。
【実施例1】
【0016】
<システム構成と概要>
まず、本実施例1に係る警備システムのシステム構成と概要について説明する。ここでは、通報者A1、通報者A2、警備員B1及び警備員B2が、同じ携帯端末10を所持しているものとする。また、通報者A1及び通報者A2は、警備員、警備ボランティア又は一般ユーザのいずれであっても良いものとする。ただし、警備ボランティア又は一般ユーザである場合には、通報を行うための通報アプリを自ら所持する携帯端末10にインストールしているものとする。また、本実施例1では、説明の便宜上、警備本部を意味するコントロールセンタ20を図示するが、このコントロールセンタ20は、コンピュータからなる一種の管理装置を意味する。
【0017】
図1は、実施例1に係る警備システムのシステム構成及び概要を説明するための説明図である。
図1に示すように、通報者A1は、自らの周囲に警備対応を必要とする事案が発生したならば、通報者A1自身が所持する携帯端末10を操作して通報アプリを起動する。この通報アプリは、警備会社が運営するウエブサーバ等からダウンロードすることができる。
【0018】
そして、通報者A1が、携帯端末10の画面上に表示された通報ボタンを押下操作し、携帯端末10が通報操作を受け付けたならば(S11)、携帯端末10は、通報者A1自身の顔を撮影するインカメラを起動して顔画像を自動的に撮像するとともに、アウトカメラを起動して周囲の画像を自動的に撮像する(S12)。
【0019】
その後、携帯端末10は、インカメラ及びアウトカメラで撮像した画像を含む通報情報をコントロールセンタ20に送信する(S13)。なお、この通報情報には、通報者A1の識別情報、位置情報などを含む。
【0020】
コントロールセンタ20は、携帯端末10から通報情報を受信したならば、この通報情報に含まれる画像から顔の部分画像を切出処理する(S14)。具体的には、インカメラで撮像した画像に含まれる通報者A1の顔の部分画像、アウトカメラで撮像した画像に含まれる周囲に所在する者の顔の部分画像を切り出す。
【0021】
その後、コントロールセンタ20は、切出処理された顔の部分画像を学習済モデルに入力し、P1~P8の確率をそれぞれ出力するクラスタリング処理を行う(S15)。このP1は「喜び」を示す確率であり、P2は「信頼」を示す確率であり、P3は「期待」を示す確率であり、P4は「恐れ」を示す確率であり、P5は「驚き」を示す確率であり、P6は「悲しみ」を示す確率であり、P7は「嫌悪」を示す確率であり、P8は「怒り」を示す確率である。
【0022】
そして、コントロールセンタ20は、クラスタリング結果に基づいて緊急度を算定する(S16)。具体的には、P4、P5、P6、P8が所定値以上である場合に緊急度を高くし、P1、P2、P3、P7が所定値以上である場合に緊急度を低くすることになる。例えば、緊急度Kは、K=P4+P5+P6+P8-(P1+P2+P3+P7)により求めることができる。各確率に所定の係数を乗算することもできる。
【0023】
その後、コントロールセンタ20は、かかる緊急度が所定値以上である場合に、警備員B1の携帯端末10に通報者A1の位置に直行するよう指示を行い(S17)、携帯端末10上でこの指示内容を確認した警備員B1が通報者A1の位置に直行する(S18)。
【0024】
これに対して、通報者A1による通報と同じタイミングで、通報者A1と異なる場所に所在する他の通報者A2の携帯端末10が、画像を含む通報情報をコントロールセンタ20に送信し(S21)、コントロールセンタ20がこの通報情報を受信したならば、先ほど説明した手順で、顔画像の切り出し、クラスタリング処理、緊急度算定処理を行う。
【0025】
例えば、この通報者A2により通報された通報情報の緊急度が所定の閾値よりも低かったならば、コントロールセンタ20は、通報者A2に対して電話連絡を行うとともに(S22)、その電話連絡により警備員が通報者A2に対応する必要があることが判明した場合には、通報者A2への別途対応指示を警備員B2の携帯端末10に対して行う(S23)。つまり、緊急度が高くない場合には、警備員B2に対して直行指示を行わない。
【0026】
また、事象に対する発生位置への直行が可能な警備員が警備員B1のみであり、かつ、通報者A1により通報された通報情報の緊急度及び通報者A2により通報された通報情報の緊急度がともに閾値以上である場合には、警備員B1に対してより緊急度が高い通報者の位置へ直行するよう指示する。
【0027】
このように、本実施例1に係る警備システムは、各通報者A1,A2に所持された携帯端末10と、携帯端末10から通報情報を受信して警備員に対する所定の指示を行うコントロールセンタ(管理装置)20とを有する警備システムであって、携帯端末10は、通報操作を受け付けたことを条件として、インカメラ及びアウトカメラで画像を撮像し、撮像した画像を含む通報情報をコントロールセンタ20に通知し、コントロールセンタ20は、通報情報を受け付けた場合に、該通報情報に含まれる画像から顔の部分画像を切り出し、切り出した顔の部分画像を学習済モデルに入力してクラスタリングを行い、このクラスタリング結果に基づいて事象の緊急度を算定し、算定した緊急度に基づいて警備員B1、B2が所持する携帯端末10に対して指示を行うよう構成したので、いたずら目的又は誤操作により通報操作がなされた場合に警備員を直行させる事態を防止しつつ、緊急度の高い事象が発生した位置に警備員を優先的に直行させることが可能となる。
【0028】
<携帯端末10の構成>
次に、
図1に示した携帯端末10の構成について説明する。
図2は、
図1に示した携帯端末10の構成を示す機能ブロック図である。
図3は、
図2に示した携帯端末10の動作を説明する説明図である。
図2に示すように、携帯端末10は、表示操作部11と、インカメラ12aと、アウトカメラ12bと、マイク13と、GPSユニット14と、イヤホン15と、スピーカ16と、通信I/F部17と、記憶部18と、制御部19とを有する。
【0029】
表示操作部11は、入力デバイス及び表示デバイスを兼ねるタッチパネル式の液晶パネル等からなる。インカメラ12aは、操作者の顔画像を撮像する撮像装置であり、アウトカメラ12bは、周囲の画像を撮像する撮像装置である。マイク13は、集音デバイスであり、GPSユニット14は、GPS(Global Positioning System)により携帯端末10の現在位置を取得する装置である。イヤホン15は、操作者に耳に装着して音を伝達する音響デバイスであり、スピーカ16は、音を外部に出力する音響デバイスである。通信I/F部17は、音声通信及びデータ通信を行うための通信インターフェース部である。記憶部18は、ハードディスク装置又は不揮発性メモリからなる記憶デバイスであり、OS(Operating System)、システムプログラム、各種アプリ、各種データを記憶する。
【0030】
制御部19は、携帯端末10を全体制御する制御部であり、通報操作受付部19aと、撮像処理部19bと、通報情報送信部19cとを有する。実際には、携帯端末10のCPU(Central Processing Unit)が、本実施例1に係る通報アプリを不揮発性メモリ等から主記憶装置であるRAM上にロードして実行することにより、通報操作受付部19a、撮像処理部19b、通報情報送信部19cに対応するプロセスが形成される。
【0031】
通報操作受付部19aは、通報者による通報操作を受け付ける処理部であり、例えば、通報アプリを起動したならば表示操作部11に「通報ボタン」が表示される。通報者である操作者によりこの通報ボタンが押下操作されたならば、この押下操作を通報操作として受け付ける。
【0032】
撮像処理部19bは、通報操作の受け付けに連動してインカメラ12a及びアウトカメラ12bにて画像を撮像する処理部である。携帯端末の基本機能の一つにインカメラ12a又はアウトカメラ12bにて画像を撮像可能状態にする機能が存在するが、この基本機能とは異なり、この撮像処理部19bは、通報操作の受け付けに連動して自動撮像を行う。例えば、携帯端末10上で通報ボタンの押下操作を受け付けたならば、
図3に示すように、インカメラ12aで通報者の顔を自動的に撮像するとともに、アウトカメラ12bで周囲を自動的に撮像する。なお、ここでは表示操作部11上に「通報操作を受け付けました。画像を撮像し、コントロールセンタに送信します」とのメッセージを表示する状況を示している。
【0033】
通報情報送信部19cは、撮像処理部19bにより撮像された画像を含む通報情報をコントロールセンタ20に自動送信する処理部である。
【0034】
<コントロールセンタ20の構成>
次に、
図1に示したコントロールセンタ20の構成について説明する。
図4は、
図1に示したコントロールセンタ20の構成を示すブロック図である。同図に示すように、コントロールセンタ20は、入力部21と、表示部22と、通信I/F部23と、記憶部24と、制御部25とを有する。
【0035】
入力部21は、キーボードやマウス等の入力デバイスであり、表示部22は、液晶パネルやディスプレイ装置等の表示デバイスである。通信I/F部23は、ネットワークを介して携帯端末10等との通信を行うための通信デバイスである。
【0036】
記憶部24は、ハードディスク装置又はSSD等の二次記憶媒体であり、学習済モデル24a、教師データ24b等を記憶する。なお、本実施例1では、学習済モデル24aは、ソフトウエアにより形成されているものとする。このため、コントロールセンタ20が、学習済モデル24aを利用する場合には、学習済モデル24aを記憶部24から読み出して主記憶装置であるRAM(Random Access Memory)上に展開して動作実行させることになる。教師データ24bは、多層ニューラルネットワーク(CNN;Convolutional Neural Network)に教師あり学習を行わせるための教師データである。なお、学習済モデル24aの詳細な説明については後述する。
【0037】
制御部25は、コントロールセンタ20を全体制御する制御装置であり、顔切出処理部25a、クラスタリング処理部25b、緊急度算定部25c、指示部25d及び学習処理部25eを有する。実際には、コントロールセンタ20のCPU(Central Processing Unit)が、本実施例1に係る警備プログラムを不揮発性メモリ等から主記憶装置であるRAM上にロードして実行することにより、顔切出処理部25a、クラスタリング処理部25b、緊急度算定部25c、指示部25d及び学習処理部25eに対応するプロセスが形成される。
【0038】
顔切出処理部25aは、携帯端末10から受信した通報情報に含まれる画像から人の顔の部分画像を切り出す処理部である。例えば、人の顔の形状を示す様々な画素数のテンプレートを準備しておき、既存のテンプレートマッチング技術を用いて矩形形状の顔の部分画像を抽出することができる。なお、かかる処理に限定されるものではない。これにより、
図5に示した画像G1から顔の部分画像F1を抽出し、画像G2から顔の部分画像F2及び部分画像F3が抽出される。
【0039】
クラスタリング処理部25bは、深層学習で教師あり学習を行った学習済モデル24aに対して顔の部分画像を入力し、この顔の表情のクラスタリングを行う処理部である。
図7は、学習済モデル24aを用いたクラスタリングを説明するための説明図である。
図7に示すように、学習済モデル24aに顔の部分画像Fを入力すると、クラスタリング結果として確率P1~P8が出力される。なお、P1は「喜び」を示す確率であり、P2は「信頼」を示す確率であり、P3は「期待」を示す確率であり、P4は「恐れ」を示す確率であり、P5は「驚き」を示す確率であり、P6は「悲しみ」を示す確率であり、P7は「嫌悪」を示す確率であり、P8は「怒り」を示す確率である。
【0040】
緊急度算定部25cは、クラスタリング結果に基づいて緊急度を算定する処理部である。具体的には、P4、P5、P6、P8が所定値以上である場合に緊急度を高くし、P1、P2、P3、P7が所定値以上である場合に緊急度を低くする。この緊急度Kは、K=P4+P5+P6+P8-(P1+P2+P3+P7)により求めることができる。各確率に所定の係数を乗算することもできる。例えば、
図6に示すように、
図5に示す顔の部分画像F1が「恐れ」を示すP4の値が高くなり、部分画像F2及びF3が「驚き」を示すP5の値が高くなったならば、事象の緊急度は高くなる。
【0041】
指示部25dは、緊急度が所定の閾値(例えば、「0.8(80%)」)以上である場合に、警備員B1の携帯端末10に通報者A1の位置に直行するよう指示を行い、緊急度が所定の閾値(例えば、「0.8(80%)」)よりも低かったならば、警備員B2に対する直行指示を行なわず、通報者A2への電話連絡指示等の別途対応指示を警備員B2の携帯端末10に行う。
【0042】
なお、事象に対する発生位置への直行が可能な警備員が警備員B1のみであり、かつ、通報者A1により通報された通報情報の緊急度及び通報者A2により通報された通報情報の緊急度がともに閾値以上である場合には、警備員B1に対してより緊急度が高い通報者の位置へ直行するよう指示する。
【0043】
学習処理部25eは、深層学習を用いてCNNに教師あり学習を行って、学習済みデータを生成する処理部である。具体的には、多層ニューラルネットワーク(CNN)に教師あり学習をさせるためには、入力データと正解データ(分類結果)のセットからなる教師データが必要となる。このため、記憶部24に記憶した教師データ24bの入力データと、例えば(P1,P2,P3、P4,P5,P6,P7,P8)=(0,0,0、1,0,0,0,0)という正解データとを利用し、バックプロパゲーションと呼ばれる手法によってニューロン間のパスの重み等のパラメータを変動させ、もって多層ニューラルネットワーク(CNN)に学習させることが可能となる。
【0044】
<学習済モデル24aの構造>
次に、学習済モデル24aの構造の一例について説明する。
図8は、学習済モデル24aの構造の一例を示す図である。
図8に示す学習済モデル24aは、コンボリューション層(Convolution)、コンボリューション層(Convolution)、アベレージプーリング層(Average Pooling)、コンボリューション層(Convolution)、アベレージプーリング層(Average Pooling)、全結合層(Fully Connect)、全結合層(Fully Connect)及び出力層(Softmax)を有する。かかるコンボリューション層(Convolution)に対して顔の部分画像Fが入力されたならば、出力層(Softmax)から分類結果である8つの確率P1、P2、P3、P4、P5、P6。P7、P8が出力される。
【0045】
ここで、コンボリューション層は、局所的な特徴を抽出するために、前層で近くにあるノードにフィルタを畳み込んで特徴マップを生成する。アベレージプーリング層は、局所的な特徴をまとめあげるために、前層であるコンボリューション層から出力された特徴マップをさらに縮小して新たな特徴マップとする。このように、多層ニューラルネットワーク(CNN)の隠れ層は、コンボリューション層とアベレージプーリング層により形成される。全結合層は、特徴部分が取り出された特徴マップを一つのノードに結合し、所定の活性化関数によって変換された値を出力する。この活性化関数には、周知技術であるReLU(Rectified Linear Unit)等を用いることができる。出力層は、全結合層からの出力(特徴変数)を元に、ソフトマックス関数を用いて確率に変換し、それぞれ正しく分類される確率を出力する。また、オーバーフィッティングを避けるためにドロップアウト層を追加することもできる。なお、多層ニューラルネットワーク(CNN)の基本構造は周知技術であるため、ここではその詳細な説明を省略する。
【0046】
<通報処理手順>
次に、
図1に示した警備システムの通報処理手順について説明する。
図9は、
図1に示した警備システムの通報処理手順を示すフローチャートである。同図に示すように、携帯端末10は通報操作待ちの状態にあり(ステップS101;No)、通報操作を受け付けたならば(ステップS101;Yes)、インカメラ12a及びアウトカメラ12bで画像を撮像する(ステップS102)。そして、これらの画像を含む通報情報をコントロールセンタ20に送信する(ステップS103)。
【0047】
コントロールセンタ20は、通報情報の受信待ちの状態にあり(ステップS104;No)、通報情報を受信したならば(ステップS104;Yes)、通報情報に含まれる画像から人の顔の部分画像を切り出し(ステップS105)、この部分画像を学習済モデル24aに入力して、クラスタリング結果を取得する(ステップS106)。
【0048】
その後、コントロールセンタ20は、クラスタリング結果に基づいて緊急度を算定し(ステップS107)、緊急度が所定値以上であれば(ステップS108;Yes)、警備員の携帯端末10に対して直行指示を行う(ステップS109)。これに対して、緊急度が所定値未満であれば(ステップS108;No)、通報者に対して電話連絡を行うとともに、その電話連絡により警備員が通報者に対応する必要があることが判明した場合には、通報者への別途対応指示を警備員の携帯端末10に対して行う(ステップS110)。なお、通報者への電話連絡の結果、警備員による対応が不要であることが判明したならば、警備員の携帯端末10に対する別途対応指示は行わない。
【0049】
上述してきたように、本実施例1では、通報者に所持された携帯端末10と、携帯端末10から通報情報を受信して警備員に対する所定の指示を行うコントロールセンタ20とを有する警備システムであって、携帯端末10は、通報操作を受け付けたことを条件として、インカメラ及びアウトカメラで画像を撮像し、撮像した画像を含む通報情報をコントロールセンタ20に通知し、コントロールセンタ20は、通報情報を受け付けた場合に、該通報情報に含まれる画像から顔の部分画像を切り出し、切り出した顔の部分画像を学習済モデルに入力してクラスタリングを行い、このクラスタリング結果に基づいて事象の緊急度を算定し、算定した緊急度に基づいて警備員B1、B2が所持する携帯端末10に対して指示を行うよう構成したので、いたずら目的又は誤操作により通報操作がなされた場合に警備員を直行させる事態を防止しつつ、緊急度の高い事象が発生した位置に警備員を優先的に直行させることが可能となる。
【実施例2】
【0050】
ところで、上記の実施例1では、コントロールセンタ20においてフィルタリング処理及び緊急度の算定処理を行う場合を示したが、本発明はこれに限定されるものではなく、携帯端末においてフィルタリング処理及び緊急度の算定処理を行うこともできる。そこで、本実施例2では、携帯端末30においてフィルタリング処理及び緊急度の算定処理を行う場合について説明する。なお、実施例1と同様の部分についてはその詳細な説明を省略する。
【0051】
<システム構成と概要>
まず、本実施例2に係る警備システムのシステム構成と概要について説明する。
図10は、実施例2に係る警備システムのシステム構成及び概要を説明するための説明図である。
図10に示すように、通報者A1が、携帯端末30の画面上に表示された通報ボタンを押下操作し、携帯端末30が通報操作を受け付けたならば(S31)、携帯端末30は、通報者A1自身の顔を撮影するインカメラを起動して顔画像を自動的に撮像するとともに、アウトカメラを起動して周囲の画像を自動的に撮像する(S32)。
【0052】
その後、携帯端末30は、画像から顔の部分画像を切出処理する(S33)。具体的には、インカメラで撮像した画像に含まれる通報者A1の顔の部分画像、アウトカメラで撮像した画像に含まれる周囲に所在する者の顔の部分画像を切り出す。
【0053】
その後、携帯端末30は、切出処理された顔の部分画像を学習済モデルに入力し、P1~P8の確率をそれぞれ出力するクラスタリング処理を行い(S34)、クラスタリング結果に基づいて緊急度を算定する(S35)。かかるS33~S35の処理内容は、実施例1に示すコントロールセンタ20が行う処理と同様である。その後、携帯端末30は、この緊急度を含む通報情報をコントロールセンタ40に送信する(S36)。
【0054】
コントロールセンタ40は、通報情報を受信したならば、該通信情報に含まれる緊急度が所定値以上である場合に、警備員B1の携帯端末30に通報者A1の位置に直行するよう指示を行い(S37)、携帯端末30上でこの指示内容を確認した警備員B1が通報者A1の位置に直行する(S38)。
【0055】
これに対して、通報者A1による通報と同じタイミングで、通報者A1と異なる場所に所在する他の通報者A2の携帯端末30が、緊急度を含む通報情報をコントロールセンタ40に送信し(S41)、コントロールセンタ40がこの通報情報を受信したならば、通信情報に含まれる緊急度に基づいて、警備員に対する自動直行指示又は警備員B2に対する対応指示を行う。例えば、この通報情報の緊急度が所定の閾値よりも低かったならば、コントロールセンタ40は、通報者A2に対して電話連絡を行うとともに(S42)、その電話連絡により警備員が通報者A2に対応する必要があることが判明した場合には、通報者A2への別途対応指示を警備員B2の携帯端末30に対して行う(S43)。なお、通報者への電話連絡の結果、警備員による対応が不要であることが判明したならば、警備員の携帯端末30に対する別途対応指示は行わない。
【0056】
また、事象に対する発生位置への直行が可能な警備員が警備員B1のみであり、かつ、通報者A1により通報された通報情報の緊急度及び通報者A2により通報された通報情報の緊急度がともに閾値以上である場合には、警備員B1に対してより緊急度が高い通報者の位置へ直行するよう指示する。
【0057】
このように、本実施例2に係る警備システムは、各通報者A1,A2に所持された携帯端末30と、携帯端末30から通報情報を受信して警備員に対する所定の指示を行うコントロールセンタ(管理装置)40とを有する警備システムであって、携帯端末30は、通報操作を受け付けたことを条件として、インカメラ及びアウトカメラで画像を撮像し、撮像した画像から顔の部分画像を切り出し、切り出した顔の部分画像を学習済モデルに入力してクラスタリングを行い、このクラスタリング結果に基づいて事象の緊急度を算定し、算定した緊急度を含む通報情報をコントロールセンタ40に送信し、コントロールセンタ40は、通報情報を受け付けた場合に、該通報情報に含まれる緊急度に応じて警備員の携帯端末30に対して指示を行うよう構成したので、いたずら目的又は誤操作により通報操作がなされた場合に警備員を直行させる事態を防止しつつ、緊急度の高い事象が発生した位置に警備員を優先的に直行させることが可能となる。
【0058】
<携帯端末30の構成>
次に、
図10に示した携帯端末30の構成について説明する。
図11は、
図10に示した携帯端末30の構成を示す機能ブロック図である。なお、
図2に示す携帯端末10と同様の機能部については、同一の符号を付してその詳細な説明を省略する。
【0059】
図11に示すように、制御部19は、顔切出処理部31、クラスタリング処理部32、緊急度算定部33を有する。かかる顔切出処理部31、クラスタリング処理部32、緊急度算定部33は、
図4に示したコントロールセンタ20に図示された顔切出処理部25a、クラスタリング処理部25b、緊急度算定部25cにそれぞれ対応する処理を行う機能部である。
【0060】
このように、かかる携帯端末30は、携帯端末30上でそれぞれ緊急度の算定を行うよう構成されている。このため、コントロールセンタ40における処理負荷を軽減することができる。なお、かかる場合における携帯端末30の処理負荷を軽減するため、クラスタリング処理部32が使用する学習済モデルは、ASIC又はFPGAなどのハードウエア回路で実装することが望ましい。
【0061】
<通報処理手順>
次に、
図10に示した警備システムの通報処理手順について説明する。
図12は、
図10に示した警備システムの処理手順を示すフローチャートである。
図12に示すように、携帯端末30は通報操作待ちの状態にあり(ステップS201;No)、通報操作を受け付けたならば(ステップS201;Yes)、インカメラ12a及びアウトカメラ12bで画像を撮像する(ステップS202)。そして、撮像した画像から人の顔の部分画像を切り出し(ステップS203)、この部分画像を学習済モデル24aに入力して、クラスタリング結果を取得する(ステップS204)。その後、クラスタリング結果に基づいて緊急度を算定し(ステップS205)、算定した緊急度を含む通報情報をコントロールセンタ40に送信する(ステップS206)。なお、例えばインカメラ12a及びアウトカメラ12bで撮像した画像に3名の人物の顔画像が存在し、それぞれの緊急度が算定された場合には、3名分の緊急度をインカメラ12a又はアウトカメラ12bの識別情報に対応づけてコントロールセンタ40に送信する。
【0062】
コントロールセンタ40は、通報情報の受信待ちの状態にあり(ステップS207;No)、通報情報を受信したならば(ステップS207;Yes)、通報情報に含まれる緊急度が所定値以上であれば(ステップS208;Yes)、警備員の携帯端末30に対して直行指示を行う(ステップS209)。これに対して、緊急度が所定値未満であれば(ステップS208;No)、通報者に対して電話連絡を行うとともに、その電話連絡により警備員が通報者に対応する必要があることが判明した場合には、通報者への別途対応指示を警備員の携帯端末30に対して行う(ステップS210)。なお、通報者への電話連絡の結果、警備員による対応が不要であることが判明したならば、警備員の携帯端末30に対する別途対応指示は行わない。例えば、通報情報に含まれる緊急度が3つ存在する場合には、3つの緊急度の平均値を用いることができる。また、インカメラ12aに含まれる緊急度の重みを高くした重み付け平均値を用いることもできる。
【0063】
上述してきたように、本実施例2では、各通報者A1,A2に所持された携帯端末30と、携帯端末30から通報情報を受信して警備員に対する所定の指示を行うコントロールセンタ(管理装置)40とを有する警備システムであって、携帯端末30は、通報操作を受け付けたことを条件として、インカメラ及びアウトカメラで画像を撮像し、撮像した画像から顔の部分画像を切り出し、切り出した顔の部分画像を学習済モデルに入力してクラスタリングを行い、このクラスタリング結果に基づいて事象の緊急度を算定し、算定した緊急度を含む通報情報をコントロールセンタ40に送信し、コントロールセンタ40は、通報情報を受け付けた場合に、該通報情報に含まれる緊急度に応じて警備員の携帯端末30に対して指示を行うよう構成したので、いたずら目的又は誤操作により通報操作がなされた場合に警備員を直行させる事態を防止しつつ、緊急度の高い事象が発生した位置に警備員を優先的に直行させることが可能となる。
【0064】
なお、本実施例2では、携帯端末30上で算定した緊急度をコントロールセンタ40に送信する場合について説明したが、本発明はこれに限定されるものではなく、この緊急度を警備員相互で行うチャット通信、映像通信などに反映させ、通信相手の警備員に緊急度を把握させるよう構成することもできる。
【0065】
また、上記実施例1及び2では、携帯端末上で通報ボタンの押下操作(通報操作)を受け付けたことをトリガとしてインカメラ12a及びアウトカメラ12bで画像を撮像することとしたが、通報者の音声による通報指示をトリガとしてインカメラ12a及びアウトカメラ12bで画像を撮像することもできる。また、インカメラ12a及びアウトカメラ12bの両方で画像を撮像するのではなく、インカメラ12a及びアウトカメラ12bの一方のみで画像を撮像するよう構成することもできる。
【0066】
また、上記実施例1及び2では、携帯端末が、画像又は緊急度を含む通報情報をコントロールセンタに送信する場合を示したが、本発明はこれに限定されるものではなく、画像又は緊急度と通報情報とを別々にコントロールセンタに送信するよう構成することもできる。
【0067】
また、上記実施例1及び2では、携帯端末上で通報操作を受け付けた時点で画像を撮像することとしたが、本発明はこれに限定されるものではなく、通報操作を受け付けてから一定時間に撮像した複数の画像又は複数の緊急度をコントロールセンタに送信するよう構成することもできる。通報者等の一時点のみの表情で緊急度を判定することとすると、重大な事象の発生を見逃す可能性があるためである。
【0068】
また、上記実施例1及び2では、顔切出部が顔の部分画像を切り出す場合を示したが、本発明はこれに限定されるものではなく、画像に含まれる「火」、「煙」、「血液」、「倒れている人」なども切り出すこともできる。さらに、携帯端末上での通報操作に応答して撮像した画像又は該画像に基づく緊急度ではなく、携帯端末のマイクに入力される音情報又は音情報から算定される緊急度をコントロールセンタに送信することもできる。また、通報者の「手ぶれ」、「ボタンを押す強さ」などの情報を組み合わせることもできる。
【0069】
また、上記実施例1及び2では、深層学習を行ったCNNを学習済モデルとする場合を示したが、本発明はこれに限定されるものではなく、ランダムフォレストなどの機械学習を用いる場合に適用することもできる。また、上記実施例1及び2では、教師あり学習を行う場合を示したが、現場での教師なし学習を併用することもできる。
【0070】
また、いたずら目的又は誤操作であると判定された通報が一定回数行った通報者については、警備システムの利用を自動停止させるよう構成することもできる。
【0071】
なお、上記の実施例1及び2で図示した各構成は機能概略的なものであり、必ずしも物理的に図示の構成をされていることを要しない。すなわち、各装置の分散・統合の形態は図示のものに限られず、その全部又は一部を各種の負荷や使用状況などに応じて、任意の単位で機能的又は物理的に分散・統合して構成することができる。
【産業上の利用可能性】
【0072】
本発明に係る警備システムは、緊急度の高い事象が発生した位置に警備員を優先的に直行させる場合に有用である。
【符号の説明】
【0073】
A1、A2 通報者
B1、B2 警備員
F1、F2、F3 顔の部分画像
G1、G2 画像
10 携帯端末
11 表示操作部
12a インカメラ
12b アウトカメラ
13 マイク
14 GPSユニット
15 イヤホン
16 スピーカ
17 通信I/F部
18 記憶部
19 制御部
19a 通報操作受付部
19b 撮像処理部
19c 通報情報送信部
20 コントロールセンタ
21 入力部
22 表示部
23 通信I/F部
24 記憶部
24a 学習済モデル
24b 教師データ
25 制御部
25a 顔切出処理部
25b クラスタリング処理部
25c 緊急度算定部
25d 指示部
25e 学習処理部
30 携帯端末
31 顔切出処理部
32 クラスタリング処理部
33 緊急度算定部
40 コントロールセンタ