IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 日本電気株式会社の特許一覧

特開2024-9906監視装置、監視方法、およびプログラム
<>
  • 特開-監視装置、監視方法、およびプログラム 図1
  • 特開-監視装置、監視方法、およびプログラム 図2
  • 特開-監視装置、監視方法、およびプログラム 図3
  • 特開-監視装置、監視方法、およびプログラム 図4
  • 特開-監視装置、監視方法、およびプログラム 図5
  • 特開-監視装置、監視方法、およびプログラム 図6
  • 特開-監視装置、監視方法、およびプログラム 図7
  • 特開-監視装置、監視方法、およびプログラム 図8
  • 特開-監視装置、監視方法、およびプログラム 図9
  • 特開-監視装置、監視方法、およびプログラム 図10
  • 特開-監視装置、監視方法、およびプログラム 図11
  • 特開-監視装置、監視方法、およびプログラム 図12
  • 特開-監視装置、監視方法、およびプログラム 図13
  • 特開-監視装置、監視方法、およびプログラム 図14
  • 特開-監視装置、監視方法、およびプログラム 図15
  • 特開-監視装置、監視方法、およびプログラム 図16
  • 特開-監視装置、監視方法、およびプログラム 図17
  • 特開-監視装置、監視方法、およびプログラム 図18
  • 特開-監視装置、監視方法、およびプログラム 図19
  • 特開-監視装置、監視方法、およびプログラム 図20
  • 特開-監視装置、監視方法、およびプログラム 図21
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024009906
(43)【公開日】2024-01-23
(54)【発明の名称】監視装置、監視方法、およびプログラム
(51)【国際特許分類】
   H04N 7/18 20060101AFI20240116BHJP
   G08B 25/00 20060101ALI20240116BHJP
   G08B 13/196 20060101ALI20240116BHJP
【FI】
H04N7/18 D
G08B25/00 510M
G08B13/196
【審査請求】有
【請求項の数】7
【出願形態】OL
(21)【出願番号】P 2023175000
(22)【出願日】2023-10-10
(62)【分割の表示】P 2021572957の分割
【原出願日】2020-04-13
(31)【優先権主張番号】PCT/JP2020/001760
(32)【優先日】2020-01-20
(33)【優先権主張国・地域又は機関】JP
(71)【出願人】
【識別番号】000004237
【氏名又は名称】日本電気株式会社
(74)【代理人】
【識別番号】100110928
【弁理士】
【氏名又は名称】速水 進治
(72)【発明者】
【氏名】山崎 大輝
(72)【発明者】
【氏名】若草 龍司
(57)【要約】
【課題】歩行者や車に対して行われる犯罪行為が発生する可能性のある状況を検出する技術を提供する。
【解決手段】監視装置(100)は、道路周辺を撮像した画像を処理し、画像に含まれる人と車の相対距離が基準値以下の状態であることを検出する検出部(102)と、前記状態にあると検出された人の属性を用いて出力すべき情報の種類を選択し、選択した種類の情報を出力する出力部(104)と、を備える。
【選択図】図2
【特許請求の範囲】
【請求項1】
監視カメラから映像を取得する処理と、
前記映像に基づいて車と人との距離を取得する処理と、
前記車と人との距離が閾値以下である場合、前記人が車上荒らしを行う可能性がある人物であるかを判定するための情報を取得する処理と、
前記人が車上荒らしを行う可能性がある人物であるかを判定するための情報が所定の条件を満たす場合に通知を行う処理と、をコンピュータに実行させるプログラム。
【請求項2】
請求項1に記載のプログラムにおいて、
前記人が車上荒らしを行う可能性がある人物であるかを判定するための情報は、前記人の属性を含む、プログラム。
【請求項3】
請求項1に記載のプログラムにおいて、
前記人が車上荒らしを行う可能性がある人物であるかを判定するための情報は、前記車の移動に関する情報を含む、プログラム。
【請求項4】
請求項2に記載のプログラムにおいて、
前記所定の条件を満たす場合とは、前記人の属性が、予め定められた犯罪の加害者となる特徴を有する属性を含む場合を含む、プログラム。
【請求項5】
請求項3に記載のプログラムにおいて、
前記所定の条件を満たす場合とは、前記車の移動に関する情報が静止していることを示す場合を含む、プログラム。
【請求項6】
1以上のコンピュータが、
監視カメラから映像を取得し、
前記映像に基づいて車と人との距離を取得し、
前記車と人との距離が閾値以下である場合、前記人が車上荒らしを行う可能性がある人物であるかを判定するための情報を取得し、
前記人が車上荒らしを行う可能性がある人物であるかを判定するための情報が所定の条件を満たす場合に通知を行う、監視方法。
【請求項7】
監視カメラから映像を取得する映像取得手段と、
前記映像に基づいて車と人との距離を取得する距離取得手段と、
前記車と人との距離が閾値以下である場合、前記人が車上荒らしを行う可能性がある人物であるかを判定するための情報を取得する情報取得手段と、
前記人が車上荒らしを行う可能性がある人物であるかを判定するための情報が所定の条件を満たす場合に通知を行う通知手段と、を備える、監視装置。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、監視システム、監視装置、監視方法、およびプログラムに関する。
【背景技術】
【0002】
近年、街中への監視カメラの設置が進んでおり、防犯に活用されている。特許文献1には、防犯カメラの映像を解析して、駐車場等に侵入する行為などを検出し、直ちに警告およびその判断を下した映像を、監視員の居る監視室の表示装置や警備員、関係者の持つ携帯電話等に同時に送信する映像監視システムが記載されている。
【先行技術文献】
【特許文献】
【0003】
【特許文献1】特開2007-195130号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
しかしながら、上記文献には、誘拐や車上荒らしなど、歩行者や車に対して行われる犯罪行為を検出する技術については開示されていない。
【0005】
本発明は上記事情に鑑みてなされたものであり、その目的とするところは、歩行者や車に対して行われる犯罪行為が発生する可能性のある状況を検出する技術を提供することにある。
【課題を解決するための手段】
【0006】
本発明の各側面では、上述した課題を解決するために、それぞれ以下の構成を採用する。
【0007】
本開示におけるプログラムは、
監視カメラから映像を取得する処理と、
前記映像に基づいて車と人との距離を取得する処理と、
前記車と人との距離が閾値以下である場合、前記人が車上荒らしを行う可能性がある人物であるかを判定するための情報を取得する処理と、
前記人が車上荒らしを行う可能性がある人物であるかを判定するための情報が所定の条件を満たす場合に通知を行う処理と、をコンピュータに実行させる。
【0008】
本開示における監視方法は、
1以上のコンピュータが、
監視カメラから映像を取得し、
前記映像に基づいて車と人との距離を取得し、
前記車と人との距離が閾値以下である場合、前記人が車上荒らしを行う可能性がある人物であるかを判定するための情報を取得し、
前記人が車上荒らしを行う可能性がある人物であるかを判定するための情報が所定の条件を満たす場合に通知を行う。
【0009】
本開示における監視装置は、
監視カメラから映像を取得する映像取得手段と、
前記映像に基づいて車と人との距離を取得する距離取得手段と、
前記車と人との距離が閾値以下である場合、前記人が車上荒らしを行う可能性がある人物であるかを判定するための情報を取得する情報取得手段と、
前記人が車上荒らしを行う可能性がある人物であるかを判定するための情報が所定の条件を満たす場合に通知を行う通知手段と、を備える。
【0010】
なお、本発明の他の側面としては、上記方法を少なくとも1つのコンピュータに実行させるプログラムであってもよいし、このようなプログラムを記録したコンピュータが読み取り可能な記録媒体であってもよい。この記録媒体は、非一時的な有形の媒体を含む。
このコンピュータプログラムは、コンピュータにより実行されたとき、コンピュータに、監視装置上で、その監視方法を実施させるコンピュータプログラムコードを含む。
【0011】
なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、記録媒体、コンピュータプログラムなどの間で変換したものもまた、本発明の態様として有効である。
【0012】
また、本発明の各種の構成要素は、必ずしも個々に独立した存在である必要はなく、複数の構成要素が一個の部材として形成されていること、一つの構成要素が複数の部材で形成されていること、ある構成要素が他の構成要素の一部であること、ある構成要素の一部と他の構成要素の一部とが重複していること、等でもよい。
【0013】
また、本発明の方法およびコンピュータプログラムには複数の手順を順番に記載してあるが、その記載の順番は複数の手順を実行する順番を限定するものではない。このため、本発明の方法およびコンピュータプログラムを実施するときには、その複数の手順の順番は内容的に支障のない範囲で変更することができる。
【0014】
さらに、本発明の方法およびコンピュータプログラムの複数の手順は個々に相違するタイミングで実行されることに限定されない。このため、ある手順の実行中に他の手順が発生すること、ある手順の実行タイミングと他の手順の実行タイミングとの一部ないし全部が重複していること、等でもよい。
【発明の効果】
【0015】
上記各側面によれば、歩行者に対して行われる犯罪行為が発生する可能性のある状況を検出する技術を提供することができる。
【図面の簡単な説明】
【0016】
図1】実施形態に係る監視システムの概要を模式的に示す図である。
図2図1の監視装置の論理的な構成例を示す機能ブロック図である。
図3図1に示す監視システムの監視装置および画像処理装置をそれぞれ実現するコンピュータのハードウェア構成を例示するブロック図である。
図4】本実施形態の監視装置の動作例を示すフローチャートである。
図5】監視システムの論理的な構成例を示す機能ブロック図である。
図6】監視システムの動作の一例を示すフローチャートである。
図7】監視システムの動作の一例を示すフローチャートである。
図8】監視システムの論理的な構成例を示す機能ブロック図である。
図9】監視システムの動作の一例を示すフローチャートである。
図10】監視システムの動作の一例を示すフローチャートである。
図11】監視システムの論理的な構成例を示す機能ブロック図である。
図12】監視装置の動作の一例を示すフローチャートである。
図13】監視システムの動作の一例を示すフローチャートである。
図14】監視システムの動作の一例を示すフローチャートである。
図15】監視システムの論理的な構成例を示す機能ブロック図である。
図16】監視システムの動作の一例を示すフローチャートである。
図17】監視システムの動作の一例を示すフローチャートである。
図18】誘拐の場合の車と人の位置関係を説明するための図である。
図19】監視システムの動作の一例を示すフローチャートである。
図20】車上荒らしの場合の車と人の位置関係を説明するための図である。
図21】監視システムの動作の一例を示すフローチャートである。
【発明を実施するための形態】
【0017】
以下、本発明の実施の形態について、図面を用いて説明する。尚、すべての図面において、同様な構成要素には同様の符号を付し、適宜説明を省略する。
【0018】
実施形態において「取得」とは、自装置が他の装置や記憶媒体に格納されているデータまたは情報を取りに行くこと(能動的な取得)、および、自装置に他の装置から出力されるデータまたは情報を入力すること(受動的な取得)の少なくとも一方を含む。能動的な取得の例は、他の装置にリクエストまたは問い合わせしてその返信を受信すること、及び、他の装置や記憶媒体にアクセスして読み出すこと等がある。また、受動的な取得の例は、配信(または、送信、プッシュ通知等)される情報を受信すること等がある。さらに、「取得」とは、受信したデータまたは情報の中から選択して取得すること、または、配信されたデータまたは情報を選択して受信することであってもよい。
【0019】
(第1実施形態)
<システム概要>
図1は、実施形態に係る監視システム1の概要を模式的に示す図である。監視システム1は、街中に設置されている監視カメラ5で撮像された画像を、画像処理装置200が処理して車10と人20を認識し、画像処理装置200の処理結果を用いて監視装置100は誘拐や車上荒らしなどの犯罪行為を検出するシステムである。
【0020】
監視システム1は、監視装置100と、画像処理装置200と、少なくとも1台の監視カメラ5とを含む。監視カメラ5は、監視システム1に特化したものであってもよいし、例えば、以前から設置されているカメラを利用してもよい。
【0021】
監視カメラ5は、監視する場所を撮影し、画像を生成する。監視カメラ5は、レンズとCCD(Charge Coupled Device)イメージセンサといった撮像素子を備える。監視カメラ5は、画角に入る人物の動きに合わせて追従してカメラ本体やレンズの向きの制御、ズーム制御、焦点合わせ等を行う機構を備えてもよい。
【0022】
監視カメラ5は、少なくとも車10が通ることができる道路を含む範囲を撮影する。例えば、監視カメラ5は、道路の道幅が車10よりも広い道路を含む範囲を撮影する。また、監視カメラ5は、人20が通る歩道と、車10が通る車道から構成される道路を含む範囲を撮影してもよい。ただし、監視カメラ5は、道路に限定されず、車10と人20が進入することができる場所、例えば、駐車場などを撮影してもよい。なお、監視カメラ5は、移動している人20を撮影していてもよいし、静止している人20を撮影してもよい。監視カメラ5は、移動している車10を撮影してもよいし、静止している車10を撮影してもよい。
【0023】
監視カメラ5は、犯罪の発生しやすい場所、例えば、植え込み、フェンス、建物などの構造物の陰になる場所、人通りの少ない場所、過去に繰り返し犯罪が発生している場所などを含む範囲を撮影してもよい。
【0024】
監視カメラ5により生成される画像は、リアルタイムに監視装置100に送信されるのが好ましい。ただし、監視装置100に送信される画像は、監視カメラ5からすぐに送信されなくてもよく、所定の時間遅延した画像であってもよい。監視カメラ5で生成された画像は、一旦他の記憶装置に格納され、監視装置100が記憶装置から逐次または所定間隔毎に読み出してもよい。さらに、監視装置100に送信される画像は、動画像であるのが好ましいが、所定間隔毎のフレーム画像であってもよいし、静止画であってもよい。
【0025】
監視カメラ5と監視装置100の間の接続方式は、無線でも有線でもよい。無線接続の場合は、監視カメラ5と監視装置100はそれぞれ無線通信機能を有しているものとする。監視カメラ5は、例えばIP(Internet Protocol)カメラ等のネットワークカメラであってもよい。
【0026】
<機能構成例>
図2は、図1の監視装置100の論理的な構成例を示す機能ブロック図である。監視装置100は、検出部102と、出力部104と、を備える。検出部102は、画像に含まれる人20と車10の相対距離が基準値以下の状態(以下、接近状態とも呼ぶ)であることを検出する。出力部104は、接近状態にあると検出された人20の属性を用いて選択された出力すべき種類の情報を出力する。
【0027】
人20と車10の相対距離が基準値以下の状態とは、人20と車10との距離が基準値以下の状態である。人20と車10の相対距離が基準値以下の状態とは、人20と車10は、少なくともいずれか一方が移動して相対距離が徐々に短くなり基準値以下になる状態、つまり、時間経過とともに接近する状態であってもよい。検出部102は、人20が移動して車10に接近している状態を検出してもよいし、車10が移動して人20に接近している状態を検出してもよい。検出部102は、人20と車10がともに移動しており移動している人20の背後から車10が接近している状態を検出してもよい。検出部102は、移動している人20の正面から車10が接近している状態を検出してもよい。
【0028】
例えば、画像処理装置200は、この人20と車10の相対距離の変化について、画像内で特定された人20と車10のそれぞれの特徴部分の位置を時系列の複数の画像内で検出し、人20と車10の位置および相対位置関係の変化から、人20や車10の移動方向や、人20と車10の相対距離を推定することができる。検出部102は、画像処理装置200の処理結果に基づき、画像に含まれる人20と車10の相対距離が基準値以下の状態を検出する。
【0029】
人20の属性とは、性別、年齢、顔の特徴、身長、所持品、服装、状況など、画像から抽出される属性の少なくとも一方に基づき定められる。
【0030】
出力すべき情報の種類とは、例えば、誘拐発生の恐れ、車上荒らし発生の恐れなど犯罪の種類に関する情報である。出力すべき情報の種類に応じて、出力先や出力方法が異なってよい。
【0031】
出力先は、様々考えられるが、例えば、監視センタの表示装置の監視用のモニタ画面であってもよいし、警備員などが携帯している端末(不図示)であってもよいし、警察署の表示装置(不図示)の監視用のモニタ画面であってもよい。出力方法は、モニタ画面への表示、メールの送信、およびスピーカ(不図示)からの音声または警報音の出力の少なくともいずれか一つを含む。メールの送信先となるメールアドレス、携帯端末のIPアドレス、および携帯電話番号の少なくともいずれか一つの宛先は予め登録されていてよい。
【0032】
出力内容は、報知対象となった監視カメラ5の映像を選択された情報の種類を示す情報とともに出力されてもよい。監視センタであれば、複数の監視カメラ5の映像がマルチ表示されている状態から、当該報知対象となった監視カメラ5の映像を強調表示させてもよい。例えば、マルチ表示から当該報知対象となった監視カメラ5の映像のみを一画面表示、または拡大表示させてもよい。あるいは、マルチ表示の中の該当する画面の枠を強調表示したり、強調させる画像を重畳表示させたりしてもよい。
【0033】
監視カメラ5の映像以外にも、監視カメラ5の撮像画像の静止画、出力情報の種類を示す画像(アイコン、アニメーション等)、出力情報の種類を示す文字情報、犯罪の発生を報知する情報を表示してもよい。あるいは、出力情報の種類に応じた警報音、出力情報の種類を示す音声を監視センタのスピーカから出力してもよい。
【0034】
<ハードウェア構成例>
図3は、図1に示す監視システム1の監視装置100、および画像処理装置200をそれぞれ実現するコンピュータ1000のハードウェア構成を例示するブロック図である。
【0035】
コンピュータ1000は、バス1010、プロセッサ1020、メモリ1030、ストレージデバイス1040、入出力インタフェース1050、およびネットワークインタフェース1060を有する。
【0036】
バス1010は、プロセッサ1020、メモリ1030、ストレージデバイス1040、入出力インタフェース1050、およびネットワークインタフェース1060が、相互にデータを送受信するためのデータ伝送路である。ただし、プロセッサ1020などを互いに接続する方法は、バス接続に限定されない。
【0037】
プロセッサ1020は、CPU(Central Processing Unit) やGPU(Graphics Processing Unit)などで実現されるプロセッサである。
【0038】
メモリ1030は、RAM(Random Access Memory)などで実現される主記憶装置である。
【0039】
ストレージデバイス1040は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、メモリカード、又はROM(Read Only Memory)などで実現される補助記憶装置である。ストレージデバイス1040は監視システム1の監視装置100の各機能(例えば、検出部102、出力部104等)を実現するプログラムモジュールを記憶している。プロセッサ1020がこれら各プログラムモジュールをメモリ1030上に読み込んで実行することで、そのプログラムモジュールに対応する各機能が実現される。また、ストレージデバイス1040は、監視装置100が使用する各種情報を記憶する記憶部としても機能する。
【0040】
プログラムモジュールは、記録媒体に記録されてもよい。プログラムモジュールを記録する記録媒体は、非一時的な有形のコンピュータ1000が使用可能な媒体を含み、その媒体に、コンピュータ1000(プロセッサ1020)が読み取り可能なプログラムコードが埋め込まれてよい。
【0041】
入出力インタフェース1050は、コンピュータ1000と各種入出力機器とを接続するためのインタフェースである。
【0042】
ネットワークインタフェース1060は、コンピュータ1000を通信ネットワーク3に接続するためのインタフェースである。この通信ネットワーク3は、例えばLAN(Local Area Network)やWAN(Wide Area Network)である。ネットワークインタフェース1060が通信ネットワーク3に接続する方法は、無線接続であってもよいし、有線接続であってもよい。ただし、ネットワークインタフェース1060は用いられないことも有る。
【0043】
そして、コンピュータ1000は、入出力インタフェース1050またはネットワークインタフェース1060を介して、必要な機器(例えば、監視カメラ5、ディスプレイ(不図示)、スピーカ(不図示)など)に接続する。
【0044】
監視システム1は、監視装置100と、画像処理装置200との組み合わせにより実現されるため、それぞれを構成する複数のコンピュータ1000により実現される。監視装置100は、例えば、サーバコンピュータである。画像処理装置200は、監視装置100とは別体の装置であってもよいし、監視装置100の内部に含まれる装置であってもよいし、これらの組み合わせであってもよい。
【0045】
図2の本実施形態の監視装置100の各構成要素は、図3のコンピュータ1000のハードウェアとソフトウェアの任意の組合せによって実現される。そして、その実現方法、装置にはいろいろな変形例があることは、当業者には理解されるところである。各実施形態の監視装置100を示す機能ブロック図は、ハードウェア単位の構成ではなく、論理的な機能単位のブロックを示している。
【0046】
<動作例>
図4は、本実施形態の監視装置100の動作例を示すフローチャートである。検出部102は、道路周辺を撮像した画像の処理結果に基づき、画像に含まれる人20と車10の相対距離が基準値以下の状態であることを検出し(ステップS103)、出力部104は、人の属性を用いて選択された種類の情報を出力する(ステップS107)。
【0047】
本実施形態によれば、検出部102が、接近状態にある人20と車10を検出し、出力部104が、人20の属性に基づいて選択された情報を出力する。これによって、道路周辺を撮像している監視カメラ5の画像を用いて、誘拐または車上荒らしなどの歩行者または車に対して行われる犯罪行為が発生する可能性のある状況を検出することができる。
【0048】
(第2実施形態)
<機能構成例>
図5は、図1の監視システムの論理的な構成例を示す機能ブロック図である。なお、第1の実施形態では、画像処理装置200は監視装置100と別に設けられていたが、本実施形態では監視装置100に画像処理装置200の機能も有するものとして説明する。なお、監視装置100と画像処理装置200は、ハードウェアとして別であっても同じであってもよいことはいうまでもない。
【0049】
監視システム1は、監視装置100と、記憶装置300と、監視カメラ5と、を備える。
監視装置100は、監視カメラ5が生成した画像に基づき、監視に用いる情報を出力する。
記憶装置300は、画像処理を行う場合に必要なデータを記憶している。例えば、車10や人20を識別するための特徴量に関する情報や、人の属性を判別するために用いる特徴量の情報を記憶している。
監視装置100は、取得部120と、物体特定部122と、位置特定部124と、属性特定部126と、検出部102と、選択部128と、出力部104とを備える。
【0050】
取得部120は、監視カメラ5が生成した画像を取得する。
物体特定部122は、取得部120が取得した画像について、画像処理を行うことにより、物体を特定する。物体特定部122は、人20と車10を認識して特定する。
位置特定部124は、画像処理によって、物体特定部122が特定した人20及び車10の位置を特定する。
属性特定部126は、画像処理によって、物体特定部122が特定した人20の属性を特定する。属性特定部126は、人20が、第1の属性を有するか第2の属性を有するか特定する。
【0051】
第1の属性とは、犯罪の被害者となり得る可能性の高い属性である。例えば、第1の属性は「女性」や「男性」、「子供(例えば、推定年齢がX才以下等)」、「老人(例えば、推定年齢がY才以上等)」、「女の子(例えば、推定年齢がX才以下の女性等)」、「男の子(例えば、推定年齢がX才以下の男性等」、「観光客(例えば、スーツケースを所持した人物等)」、「単独行動(所定距離以内に人がいない等)」である。第1の属性は、性別、年齢、顔の特徴、身長、所持品、服装、状況など、画像から抽出される特徴に基づき定められる。(ただし、XとYは整数)
【0052】
第2の属性とは、第1の属性とは異なる属性である。第2の属性は、犯罪行為の加害者となる特徴を有する属性や、第1の属性を有する人以外、すなわち犯罪行為の被害者となり得る可能性の高い属性以外の属性である。
【0053】
例えば、第2の属性は、危険性を有する物体を所持する人(例えば、長い金属棒を所持する等)や、顔を遮蔽している人(例えば、覆面等をかぶっている人等)であってもよい。また、第2の属性も第1の属性と同様に、性別、年齢、顔の特徴、身長、所持品、服装、状況など、画像によって抽出される特徴に基づき定められる。
【0054】
なお、第1の属性を満たす人は犯罪の被害者となり得る可能性が高い属性であればよいため、地域における犯罪状況に応じて設定可能である。例えば、「男性」が犯罪の被害者となることが多い地域では、第1の属性を「男性」としてもよいし、「女性」が犯罪の被害者となることが多い地域では、第1の属性を「女性」としてもよい。
【0055】
検出部102は、物体特定部122が特定した人20に関する属性及び人20と車10の位置を取得する。
検出部102は、画像に含まれる人20と車10の各組みについて、位置に基づいて、相対距離が基準値以下の状態、つまり接近状態にあるか否かを判別する。
選択部128は、検出部102が接近状態にある人20と車10を検出した場合、接近状態にある人20の属性を取得する。選択部128は、検出された人20の属性を用いて、出力すべき情報の種類を選択する。
出力部104は、選択部128が選択した種類の情報を出力する。
【0056】
<動作例>
図6は、本実施形態の監視システム1の動作例を示すフローチャートである。
監視装置100は、監視カメラ5が撮影した画像を取得し、画像処理を行う(ステップS101)。具体的には、物体特定部122は、取得した画像から人20と車10をそれぞれ認識して特定する。そして、位置特定部124は、物体特定部122が特定した人20及び車10の位置を特定する。
次に、検出部102は、画像に含まれる人20と車10の相対距離が基準値以下の状態であることを検出する(ステップS103)。
【0057】
画像に含まれる人20と車10の相対距離が基準値以下の場合(ステップS103のYES)、属性特定部126は、物体特定部122が特定した人20の属性を特定する(ステップS104)。属性特定部126は、画像に含まれる人20を画像処理し、第1の属性を有するか第2の属性を有するか特定する。
ただし、人20の属性の特定のタイミングは、検出部102による人20と車10の接近状態が検出される前であってもよい。
そして、選択部128は、人20の属性に基づいて、出力すべき情報の種類を選択する(ステップS105)。
そして、出力部104は、選択した種類の情報を出力する(ステップS107)。
なお、出力部104は、検出部102が接近状態を検出した際の画像や音声や、検出部102が接近状態を検出した前後の映像も合わせて出力してもよい。
【0058】
検出部102が接近状態にある人20と車10を検出しない間は、ステップS101に戻り、処理を繰り返す。
【0059】
図7は、図6のステップS105の詳細な処理手順の一例を示すフローチャートである。属性特定部126は、検出部102が検出した人20の属性を判別する(ステップS111)。
ステップS111で、属性特定部126が、人20が第1の属性を有する人物であると判別した場合、選択部128は、人20が犯罪の被害を受ける可能性がある旨を示す種類の情報を選択する。例えば、選択部128は、人20の誘拐が発生する可能性がある旨を示す情報を選択する(ステップS115)。
【0060】
一方、ステップS111で、属性特定部126が、検出された人20が第2の属性を有する人物であると判別した場合、選択部128は、人20が車10に対し犯罪を行う可能性がある旨を示す種類の情報を選択する。例えば、選択部128は、人20が車上荒らしを行う可能性がある旨を示す情報を選択する(ステップS117)。換言すれば、選択部128は、人20が被害を受ける可能性があるか、車10が被害を受ける可能性があるか選択しているともいえる。
ステップS115およびステップS117の後は、図6のステップS107に戻る。
【0061】
図6に戻り、出力部104は、選択された種類の情報を、所定の出力先に出力する(ステップS107)。例えば、出力部104は選択された種類の情報を監視センタのサーバ220へ出力し、監視センタのサーバ220は、当該監視センタが有する表示装置のモニタ画面に誘拐が発生した恐れがあることを示す情報を出力してもよい。さらに、接近状態が検出された画像を表示してもよい。
【0062】
上記では、情報出力は、モニタ画面への表示を例示したが、犯罪の発生可能性を通知できればその他の手法でも構わない。
例えば、音声出力、警報音の出力、端末へのメール送信、通知など様々な方法で、出力部104が出力する選択した情報を出力してもよい。また、出力部104が選択した情報に応じて音声や警報音の変更、メール内容の変更、通知内容を変更させてもよい。
【0063】
本実施形態によれば、検出部102が、接近状態にある人20と車10を検出し、選択部128が、人20の属性に基づいて、犯罪の種類を選択し、出力部104が選択された情報を出力する。このように、道路周辺を撮像している監視カメラ5の画像を用いて、誘拐または車上荒らしなどの歩行者または車に対して行われる犯罪行為が発生する可能性のある状況を検出することができるため、犯罪行為の発生を検出することができる。また、監視カメラ5で監視されていることが周知されれば、犯罪の抑止効果も期待できる。
【0064】
また、検出部102が、車10と人20の接近状態を検出した場合に、出力部104は人20の属性に基づいて選択された情報を出力することが可能である。これにより車上荒らしなどの車10が被害を受ける可能性がある場合であっても、人20が車10の中に入る前に車上荒らしの可能性を報知することができる。例えば、出力部104は、その場所の近傍のスピーカなどから警告メッセージや警報音を出力することもできる。これにより防犯効果を向上させることができる。
【0065】
(第3実施形態)
<機能構成例>
図8は、図1の監視システムの論理的な構成例を示す機能ブロック図である。本実施形態の監視システム1は、出力すべき情報の種類の判別に人20の属性を用いる替わりに車10の移動速度を用いる点以外は上記実施形態と同様である。本実施形態の監視装置100は、図5の属性特定部126に代えて移動速度推定部130を備える。
なお、本実施形態の構成は、他の実施形態の構成の少なくともいずれか一つと矛盾を生じない範囲で組み合わせてもよい。
【0066】
監視装置100は、取得部120と、物体特定部122と、位置特定部124と、移動速度推定部130と、検出部102と、選択部128と、出力部104とを備える。
取得部120は、監視カメラ5が生成した画像を取得する。
物体特定部122は、取得部120が取得した画像について、画像処理を行うことにより、物体を特定する。物体特定部122は、人20と車10を認識して特定する。
位置特定部124は、画像処理によって、物体特定部122が特定した人20及び車10の位置を特定する。
【0067】
移動速度推定部130は、位置特定部124が特定した車10の特徴部分の位置を時系列の複数の画像内で検出し、車10の位置の変化から移動速度を推定する。また、移動速度推定部130は、画像内で特定された人20と車10のそれぞれの特徴部分の位置を時系列の複数の画像内で検出し、人20と車10の相対位置関係の変化から人20に対する車10の速度変化を推定してもよい。さらに、移動速度推定部130は、人20と車10のそれぞれの移動方向も同様に推定できる。
【0068】
例えば、移動速度推定部130は、人20に対して車10がどのような速度でどちらの方向から接近しているのか、あるいは、どのような速度でどちらの方向に離れていったか、などを推定することができる。
【0069】
例えば、誘拐の場合、車10は人20に後ろから低速で接近し、人20を車10に乗せてその場から走り去る。よって、移動速度推定部130は、車10の移動速度が低速であると推定し、かつ車10が人20へ接近する方向に移動していると推定した場合は誘拐の恐れがあると判別できる。また、車上荒らしの場合は、静止している車10に人20が接近し、その後人20が立ち去る。よって、移動速度推定部130は、車10が静止していると推定した場合は車上荒らしの恐れがあると判別できる。なお、車10の移動速度が通常の走行速度であれば、通常の通行であると判別できる。
【0070】
検出部102は、画像に含まれる人20と車10の各組みについて、位置に基づいて、相対距離が基準値以下の状態、つまり接近状態にあるか否かを判別する。
選択部128は、移動速度推定部130が推定した車10の移動速度を用いて、出力すべき情報の種類を選択する。
出力部104は、選択部128が選択した種類の情報を出力する。
【0071】
<動作例>
図9は、監視システム1の動作の一例を示すフローチャートである。図9のフローチャートは、図6のフローチャートのステップS101、ステップS103、およびステップS107を含むとともに、さらに、図6のステップS104およびステップS105に替えてステップS204およびステップS205を含む。
【0072】
監視装置100は、監視カメラ5が撮影した画像を取得し、画像処理を行う(ステップS101)。具体的には、物体特定部122は、取得した画像から人20と車10をそれぞれ認識して特定する。そして、位置特定部124は、物体特定部122が特定した人20及び車10の位置を特定する。
次に、検出部102は、画像に含まれる人20と車10の相対距離が基準値以下の状態であることを検出する(ステップS103)。
【0073】
画像に含まれる人20と車10の相対距離が基準値以下の場合(ステップS103のYES)、移動速度推定部130は車10の移動速度を推定する(ステップS204)。
そして、選択部128は、車10の移動速度に基づいて、出力すべき情報の種類を選択する(ステップS205)。
そして、出力部104は、選択した種類の情報を出力する(ステップS107)。
【0074】
図10は、図9のステップS205の詳細な処理手順の一例を示すフローチャートである。移動速度推定部130は、車10の移動速度を判別する(ステップS211)。ステップS211で、移動速度推定部130が、車10が低速で人20に接近していると判別した場合、選択部128は、人20が犯罪の被害を受ける可能性があると判別し、出力すべき情報の種類に人20が被害を受ける可能性がある旨を示す種類の情報を選択する。例えば、選択部128は、人20の誘拐が発生する可能性がある旨を示す情報を選択する(ステップS115)。一方、ステップS211で、移動速度推定部130が、車10は静止していると判別すると、選択部128は、人20が犯罪を行う可能性が発生すると判別し、出力すべき情報の種類に人20が犯罪を行う可能性がある旨を示す種類の情報を選択する。例えば、選択部128は、人20が車上荒らしを行う可能性がある旨を示す情報を選択する(ステップS117)。ステップS115およびステップS117の後は、図9のステップS107に戻る。
【0075】
また、ステップS211で移動速度推定部130が、車10の移動速度が低速で接近でも静止でもないと判別した場合、単なる車10の通過と判別できるので、図9のステップS107に戻る。
【0076】
図9に戻り、出力部104は、選択された種類の情報を出力する(ステップS107)。接近状態にある人20と車10が検出されない間は(ステップS103のNO)、ステップS101に戻り、処理を繰り返す。
【0077】
本実施形態によれば、検出部102は、接近状態にある人20と車10を検出し、選択部128は、車10の移動速度を用いて人20が犯罪の被害を受ける可能性があるか、人20が犯罪を行う可能性があるかを判別し、判別結果に基づく情報を選択する。そして出力部104は、選択した情報を出力する。このように、道路周辺を撮像している監視カメラ5の画像を用いて、誘拐または車上荒らしなどの犯罪行為の種類を検出することができる。また、監視カメラ5で監視されていることが周知されれば、犯罪の抑止効果も期待できる。
【0078】
(第4実施形態)
<機能構成例>
図11は、図1の監視システムの論理的な構成例を示す機能ブロック図である。本実施形態の監視システム1は、監視装置100が、第2実施形態の機能と第3実施形態の機能の両方を有する点以外は上記いずれかの実施形態と同様である。本実施形態の監視装置100は、他の実施形態の構成の少なくともいずれか一つと矛盾を生じない範囲で組み合わせてもよい。
【0079】
監視装置100は、取得部120と、物体特定部122と、位置特定部124と、属性特定部126と、移動速度推定部130と、検出部102と、選択部128と、出力部104とを備える。
【0080】
取得部120は、監視カメラ5が生成した画像を取得する。
物体特定部122は、取得部120が取得した画像について。画像処理を行うことにより、物体を特定する。物体特定部122は、人20と車10を認識して特定する。
位置特定部124は、画像処理によって、物体特定部122が特定した人20及び車10の位置を特定する。
【0081】
属性特定部126は、画像処理によって、人20の属性を特定する。属性特定部126は、人20が、第1の属性を有するか第2の属性を有するか特定する。
移動速度推定部130は、位置特定部124が特定した車10の特徴部分の位置を時系列の複数の画像内で検出し、車10の位置の変化から移動速度を推定する。
検出部102は、画像に含まれる人20と車10の各組みについて、位置に基づいて、相対距離が基準値以下の状態、つまり接近状態にあるか否かを判別する。
選択部128は、移動速度推定部130が推定した車10の移動速度及び属性特定部126が特定した属性を用いて、出力すべき情報の種類を選択する。
出力部104は、選択部128が選択した種類の情報を出力する。
【0082】
<動作例>
図12は、監視システム1の動作の一例を示すフローチャートである。図12のフローチャートは、図6のフローチャートのステップS101、ステップS103、ステップS104、およびステップS107、ならびに、図9のステップS204を含むとともに、さらに、図6のステップS105または図9のステップS205に替えてステップS305を含む。
【0083】
監視装置100は、監視カメラ5が撮影した画像を取得し、画像処理を行う(ステップS101)。具体的には、物体特定部122は、取得した画像から人20と車10をそれぞれ認識して特定する。そして、位置特定部124は、物体特定部122が特定した人20及び車10の位置を特定する。
次に、検出部102は、画像に含まれる人20と車10の相対距離が基準値以下の状態であることを検出する(ステップS103)。
【0084】
画像に含まれる人20と車10の相対距離が基準値以下の場合(ステップS103のYES)、属性特定部126は、物体特定部122が特定した人20の属性を特定する(ステップS104)。さらに、移動速度推定部130は位置特定部124が特定した車10の特徴部分の位置を時系列の複数の画像内で検出し、車10の位置の変化から車10の移動速度を推定する(ステップS204)。
そして、選択部128は、人20の属性及び車10の移動速度に基づいて、出力すべき情報の種類を選択する(ステップS305)。
そして、出力部104は、選択した種類の情報を出力する(ステップS107)。
【0085】
図13は、図12のステップS305の詳細な処理手順の一例を示すフローチャートである。属性特定部126は、物体特定部122によって特定された人20の属性を判別する(ステップS111)。ステップS111で、属性特定部126は、人20が第1の属性を有する人物であるか否か判別し、第1の属性を有する人物であると判別すると、ステップS121に進む。一方、ステップS111で、属性特定部126が、第2の属性を有する人物と判別した場合、ステップS123に進む。
【0086】
ステップS121で、移動速度推定部130が、車10が低速で人20に接近していると判別した場合(ステップS121のYES)、選択部128は、人20が犯罪の被害を受ける可能性があると判別し、出力すべき情報の種類に人20が被害を受ける可能性がある旨を示す種類の情報を選択する。例えば、選択部128は、人20の誘拐が発生する可能性がある旨を示す情報を選択する(ステップS115)。移動速度推定部130が、車10が低速で人20に接近していないと判別した場合(ステップS121のNO)、単なる車10の通過と判別できるので、図12のステップS107に戻る。
【0087】
ステップS123で、移動速度推定部130が、車10は静止していると判別した場合(ステップS123のYES)、選択部128は、車10は静止していると判別し、人20が犯罪を行う可能性が発生すると判別し、出力すべき情報の種類に人20が犯罪を行う可能性がある旨を示す種類の情報を選択する。例えば、選択部128は、人20が車上荒らしを行う可能性がある旨を示す情報を選択する(ステップS117)。移動速度推定部130が、車10は静止していないと判別した場合(ステップS123のNO)、単なる車10の通過と判別できるので、図12のステップS107に戻る。
ステップS115およびステップS117の後は、図12のステップS107に戻る。
【0088】
図14は、図12のステップS305の詳細な処理手順の他の例を示すフローチャートである。図14に示す処理手順は、図13とは、先に車10の移動速度を用いた判別を行い(ステップS211)、その後、人20の属性を用いた判別を行う(ステップS131およびステップS133)点以外は同じである。
【0089】
選択部128は、移動速度推定部130が推定した車10の移動速度に基づいて判別する(ステップS211)。ステップS211で移動速度推定部130が、車10が低速で人20に接近していると判別した場合、ステップS131に進む。ステップS211で移動速度推定部130が、車10が静止していると判別した場合、ステップS133に進む。また、ステップS211で移動速度推定部130が、車10の移動速度が低速で接近でも静止でもないと判別した場合、単なる車10の通過と判別できるので、図12のステップS107に戻る。
【0090】
ステップS131で、属性特定部126が、人20が第1の属性を有する人物と判別した場合(ステップS131のYES)、選択部128は、出力すべき情報の種類に人20が被害を受ける可能性がある旨を示す種類の情報を選択する。例えば、出力部104は、人20の誘拐が発生する可能性がある旨を示す情報を選択する(ステップS115)。人20が第1の属性を有する人物ではないと判別した場合(ステップS131のNO)、図12のステップS107に戻る。
【0091】
ステップS133で、属性特定部126が、人20が第2の属性を有する人物であると判別した場合(ステップS133のYES)、選択部128は、人20が犯罪を行う可能性が発生すると判別し、出力すべき情報の種類に人20が犯罪を行う可能性がある旨を示す種類の情報を選択する。例えば、選択部128は、人20が車上荒らしを行う可能性がある旨を示す情報を選択する(ステップS117)。属性特定部126が、人20が第2の属性を有する人物ではないと判別した場合(ステップS133のNO)、図12のステップS107に戻る。
ステップS115およびステップS117の後は、図12のステップS107に戻る。
【0092】
図12のステップS107では、図13または図14のフローチャートのステップS121、ステップS123、またはステップS211、ステップS131、ステップS133で単なる車10の通過または停車と判別した場合は、出力すべき情報の種類が選択されてないため、出力部104は、情報を出力せずに処理する。ただし、図13または図14のフローチャートのステップS121、ステップS123、またはステップS211、ステップS131、ステップS133で単なる車10の通過または停車と判別した場合に、それぞれ車10の通過または停車であることを出力すべき情報の種類として選択してもよい。その場合は、図12のステップS107において、出力部104は、それぞれ車10の通過または停車である旨の情報を選択して出力してもよい。
【0093】
本実施形態によれば、上記実施形態と同様な効果を奏するとともに、さらに、車10の移動速度と人20の属性の両方を用いて出力すべき情報の種類を選択できるので、より精度よく犯罪行為を検出できる可能性が高まる。
【0094】
(第5実施形態)
<機能構成例>
図15は、図1の監視システムの論理的な構成例を示す機能ブロック図である。本実施形態の監視システム1は、さらに、人20が単独行動か否かに応じて出力する情報の種類を選択する点以外は第2実施形態と同じである。本実施形態の監視装置100は、図5の第2実施形態の構成に加え、さらに人数特定部132を有する。ただし、本実施形態の監視装置100は、他の実施形態の構成の少なくともいずれか一つと矛盾を生じない範囲で組み合わせてもよい。
【0095】
監視装置100は、取得部120と、物体特定部122と、位置特定部124と、属性特定部126と、人数特定部132と、検出部102と、選択部128と、出力部104とを備える。
取得部120は、監視カメラ5が生成した画像を取得する。
【0096】
物体特定部122は、取得部120が取得した画像について、画像処理を行うことにより、物体を特定する。物体特定部122は、人20と車10を認識して特定する。
位置特定部124は、物体特定部122が特定した人20及び車10の位置を特定する。
属性特定部126は、画像処理によって、人20の属性を特定する。属性特定部126は、人20が、第1の属性を有するか第2の属性を有するか特定する。
【0097】
人数特定部132は、人20の人数を特定する。例えば、物体特定部122は、複数人の人20を特定したか判別する。物体特定部122が複数人の人20を特定した場合、人数特定部132は、人20の互いの距離が基準値以内の人がいるか判別する。例えば、人数特定部132は、位置特定部124が特定した人20の位置に基づき、複数人20の距離が基準値以内の人がいるか判別する。なおこの基準値は、車10と人20との相対距離の判別用の基準値と同じ値であってもよいし、異なる値であってもよい。
人数特定部132は、複数の人20の距離が基準値以内の人がいる場合、単独行動でないと判別する。人数特定部132は、複数の人20が存在しない、もしくは複数の人20の距離が基準値以内の人がいない場合に単独行動であると判別する。
【0098】
これは、特に、1人のときに誘拐が発生しやすいためである。ただし、単独行動は、1人だけでなく、2~3人の少人数であってもよい。
検出部102は、画像に含まれる人20と車10の各組みについて、位置に基づいて、相対距離が基準値以下の状態、つまり接近状態にあるか否かを判別する。
選択部128は、人数特定部132における判別結果が人20が単独行動か否かに応じて、出力すべき情報の種類を選択する。
出力部104は、選択部128が選択した種類の情報を出力する。
【0099】
<動作例>
図16は、監視システム1の動作の一例を示すフローチャートである。図16のフローチャートは、図13のフローチャートのステップS121の替わりにステップS141を含む。ただし、図16のフローチャートは、図13のステップS121を含んでもよい。ステップS121とステップS141の順序は特に限定されない。
【0100】
属性特定部126は、物体特定部122が特定した人20の属性を判別する(ステップS111)。ステップS111で、属性特定部126は、人20が第1の属性であると判別した場合、ステップS141に進む。一方、ステップS111で、属性特定部126が、人20が第2の属性であると判別した場合、ステップS123に進む。
【0101】
ステップS141で、人数特定部132が、人20が単独行動していると判別した場合(ステップS141のYES)、選択部128は、出力すべき情報の種類に人20が被害を受ける可能性がある旨を示す種類の情報を選択する。例えば、出力部104は、人20の誘拐が発生する可能性がある旨を示す情報を選択する(ステップS115)。人数特定部132が、人20が単独行動していないと判別した場合(ステップS141のNO)、単なる車10の通過と判別できるので、図12のステップS107に戻る。
【0102】
ステップS123以降の処理は、図13と同じであるので説明は省略する。
【0103】
図17は、監視システム1の動作の他の一例を示すフローチャートである。図17のフローチャートは、図16のフローチャートのステップS111とステップS141の順番を入れ替えている点以外は図16と同じである。図17のフローチャートは、図13のステップS121を含んでもよい。その場合、ステップS121とステップS141の順序は特に限定されない。
【0104】
人数特定部132は、人20が単独行動か否かを判別する(ステップS141)。ステップS141で人数特定部132が、人20は単独行動であると判別した場合(ステップS141のYES)、ステップS111に進む。ステップS141で人数特定部132が、人20は単独行動ではないと判別した場合(ステップS141のNO)、単なる車10の通過と判別できるので、図12のステップS107に戻る。
【0105】
ステップS111で属性特定部126は、物体特定部122が特定した人20の属性を判別する。ステップS111で、属性特定部126は、人20が第1の属性であると判別した場合、ステップS115に進む。一方、ステップS111で、属性特定部126が、人20が第2の属性であると判別した場合、ステップS123に進む。これ以降の処理は図16と同じであるので説明は省略する。
【0106】
本実施形態によれば、人数特定部132が、人20が単独行動か否かを判別し、単独行動の場合、誘拐である可能性が高いことを出力できる。他の条件と組み合わせることで、より判別の精度を向上でき、頻繁な報知を防ぐことができる。
【0107】
(第6実施形態)
<機能構成例>
本実施形態の監視システム1は、車10が静止状態にあり、その静止している車10からの人20の出入りを検出し、その結果を用いて出力すべき情報の種類を選択する構成を有する点で、上記第4実施形態と相違する。すなわち、検出部102の動作及び選択部128の動作が異なる。以下、第4実施形態の図11の機能ブロック図を用いて説明する。ただし、本実施形態の監視装置100は、他の実施形態の構成の少なくともいずれか一つと矛盾を生じない範囲で組み合わせてもよい。
【0108】
検出部102は、画像に含まれる人20と車10の各組みについて、位置に基づいて、相対距離が基準値以下の状態、つまり接近状態にあるか否かを判別する。また、検出部102が接近状態にあると判別した車10が、移動速度推定部130が推定した移動速度から静止状態であることを判別した場合に、検出部102は、さらに車10から人の出入りがあるか検出する。
選択部128は、検出部102による人の出入りの検出結果をさらに用いて、出力すべき情報の種類を選択する。
【0109】
例えば、図18に示すように、誘拐の場合、車10は人20に近づいて(図18(a)から図18(b))、車10の中から、腕だけ伸ばして人20を掴んで車10の中に引きずり込んで連れ去ることがある(図18(c))。つまり、誘拐の場合、静止した車10から人は出てこない。車上荒らしの場合、静止した車10から、運転手が出てくる可能性が高い。この状況を検出して誘拐と車上荒らしを判別する。
【0110】
<動作例>
図19は、監視システム1の動作の一例を示すフローチャートである。図19のフローチャートは、図14のフローチャートのステップS211、ステップS131、ステップS133、ステップS115、およびステップS117を含むとともに、さらに、ステップS151を含む。
【0111】
ステップS211で、移動速度推定部130は、車10が低速で移動していると推定し、かつ検出部102が、車10が人20に接近していると判別した場合、ステップS131に進み、属性特定部126は、人20の属性を判別する。
【0112】
次に、ステップS211で移動速度推定部130が、車10が静止していると判別した場合、ステップS151に進む。ステップS151では、検出部102は、静止している車10から人、つまり運転手が出てきているか否かを判別する。例えば、検出部102は、移動速度推定部130により車10が静止状態であると判別してから所定時間以内に人が車から出てきたか否かを判別することにより、人の出入りを検出することが可能である。
【0113】
検出部102が、所定時間以内に車10から人が出てきていないことを検出した場合(ステップS151のNO)、誘拐の可能性が高いため、ステップS131に進む。また、ステップS211で、移動速度推定部130が、車10の移動速度が低速で接近でも静止でもないと判別した場合、単なる車10の通過と判別できるので、図12のステップS107に戻る。ステップS131以降の処理は上記実施形態と同じであるので説明を省略する。
【0114】
一方、検出部102が、車10から人が出てきていることを検出した場合(ステップS151のYES)、属性特定部126は、接近状態の人20の属性を判別する(ステップS133)。そして、属性特定部126が、第2の属性を有する人物であると判別した場合(ステップS133のYES)、選択部128は、図14と同様に、人20が車上荒らしを行う可能性がある旨を示す情報を選択する(ステップS117)。
【0115】
本実施形態によれば、静止した車10の中から人が出てきたか否かを検出して処理すべき情報の種類を選択できる。よって、より判別の精度を向上させることができる。
【0116】
以上、図面を参照して本発明の実施形態について述べたが、これらは本発明の例示であり、上記以外の様々な構成を採用することもできる。
例えば、監視カメラ5の画像を用いて犯罪行為の検出を行っているため、当該犯罪行為が検出されたときの画像を記録することができるので、記録を犯罪発生時の証拠として利用できる。これにより、事件の早期解決、犯人逮捕および被害者の救出に繋げることができる。
【0117】
さらに、検出部102は、道路周辺を撮像する複数の監視カメラ5のうち、特定の監視カメラ5の画像を用いて処理を行ってもよい。上記したように、特に治安の悪い場所、頻繁に誘拐や車上荒らしなどの犯罪行為が発生している場所などに設置されている監視カメラ5の画像を用いて監視を行ってもよい。また、特定の監視カメラ5に優先順位を付けて、優先度高い監視カメラ5の監視時間の比率を他の監視カメラ5より長く設定してもよい。
【0118】
さらに、検出部102は、車10と人20との相対距離が基準値以下の状態にあることを検出した人20の顔画像を取得して記憶してもよい。顔画像は、図3のメモリ1030、またはストレージデバイス1040などに記憶することができる。
【0119】
図20に示すように、車上荒らしの場合、停止した車10から、始めに車10の所有者30が出てくる(図20(a))。検出部102は、車10から人が出てきたことを検出し、車10から出てきた人物A(車10の所有者)の顔画像を取得し、一時的に記憶しておく。
【0120】
さらに、監視を続け、検出部102は、車10に接近してくる人20を検出する(図20(b))。このとき、人20の顔画像を取得する。そして、検出部102は、画像処理装置200に、先に取得した人物Aの顔画像と後から取得した人20の顔画像を送信し、同一人物か否かを照合させてもよい。選択部128は照合結果を用いて出力すべき情報の種類を選択する。同一人物でない場合、車上荒らしと判別する(図20(c))。同一人物の場合は、持ち主と判別する。
【0121】
また、顔画像が撮影できなかった場合は、図20(b)で車10に接近した人20が、一旦車10の中に入った後、直ぐに(所定時間後)出てきたら、車上荒らしと判別してもよい。
【0122】
さらに、第5実施形態の図19で説明した停車した車10からの人の出入りを検出し、その結果を用いる例の他の処理手順も考えられる。図21は、監視システム1の動作の一例を示すフローチャートである。図21のフローチャートは、図14のフローチャートのステップS131の替わりにステップS151を含む。この例では、ステップS211で、検出部102が、車10が低速で人20に接近していると判別した場合、ステップS151に進み、車10から人が出てきているか否かを判別する。検出部102が、人が出てきたことを検出できない場合(ステップS151のNO)、誘拐の可能性が高いため、ステップS115に進む。検出部102が、人が出てきたことを検出した場合(ステップS151のYES)、単なる車10の停車と判別できるので、図12のステップS107に戻る。これら以外の処理は、図14と同じであるので説明は省略する。
【0123】
以上、実施形態および実施例を参照して本願発明を説明したが、本願発明は上記実施形態および実施例に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
なお、本発明において利用者に関する情報を取得および/または利用する場合は、これを適法に行うものとする。
【0124】
以下、参考形態の例を付記する。
1. 道路周辺を撮像した画像を処理し、前記画像に含まれる人と車の相対距離が基準値以下の状態であることを検知する検出手段と、
前記状態にあると検知された前記人の属性を用いて出力すべき情報の種類を選択し、選択した前記種類の情報を出力する出力手段と、を備える監視装置。
2. 1.に記載の監視装置において、
前記出力手段は、さらに前記状態にあると検知された前記車の移動速度を用いて前記出力すべき情報の種類を選択する、監視装置。
3. 道路周辺を撮像した画像を処理し、前記画像に含まれる人と車の相対距離が基準値以下の状態であることを検知する検出手段と、
前記状態にあると検知された前記車の移動速度を用いて、出力すべき情報の種類を選択し、選択した前記種類の情報を出力する出力手段と、を備える監視装置。
4. 1.から3.のいずれか一つに記載の監視装置において、
前記出力手段は、
さらに前記状態にあると検知された前記人が単独行動か否に応じて、前記出力すべき情報の種類を選択する、監視装置。
5. 1.から4.のいずれか一つに記載の監視装置において、
前記検出手段は、前記状態にあると検知された前記車は静止状態であり、前記車が静止してからの人の出入りを検知し、
前記出力手段は、前記検出手段による検知結果をさらに用いて、前記出力すべき情報の種類を選択する、監視装置。
6. 1.から5.のいずれか一つに記載の監視装置において、
前記検出手段は、前記道路周辺を撮像する複数のカメラのうち、特定のカメラの画像を用いて前記処理を行う、監視装置。
【0125】
7. 道路周辺を撮像する複数のカメラと、
複数のカメラが撮像した画像を監視する監視装置と、を備え、
前記監視装置は、
道路周辺を撮像した画像を処理し、前記画像に含まれる人と車の相対距離が基準値以下の状態であることを検知する検出手段と、
前記状態にあると検知された前記人の属性を用いて出力すべき情報の種類を選択し、選択した前記種類の情報を出力する出力手段と、を有する、監視システム。
8. 7.に記載の監視システムにおいて、
前記監視装置の前記出力手段は、さらに前記状態にあると検知された前記車の移動速度を用いて前記出力すべき情報の種類を選択する、監視システム。
9. 道路周辺を撮像する複数のカメラと、
複数のカメラが撮像した画像を監視する監視装置と、を備え、
前記監視装置は、
道路周辺を撮像した画像を処理し、前記画像に含まれる人と車の相対距離が基準値以下の状態であることを検知する検出手段と、
前記状態にあると検知された前記車の移動速度を用いて、出力すべき情報の種類を選択し、選択した前記種類の情報を出力する出力手段と、を有する、監視システム。
10. 7.から9.のいずれか一つに記載の監視システムにおいて、
前記監視装置の前記出力手段は、
さらに前記状態にあると検知された前記人が単独行動か否に応じて、前記出力すべき情報の種類を選択する、監視システム。
11. 7.から10.のいずれか一つに記載の監視システムにおいて、
前記監視装置の前記検出手段は、前記状態にあると検知された前記車は静止状態であり、前記車が静止してからの人の出入りを検知し、
前記監視装置の前記出力手段は、前記検出手段による検知結果をさらに用いて、前記出力すべき情報の種類を選択する、監視システム。
12 7.から11.のいずれか一つに記載の監視システムにおいて、
前記監視装置の前記検出手段は、前記道路周辺を撮像する複数のカメラのうち、特定のカメラの画像を用いて前記処理を行う、監視システム。
【0126】
13. 監視装置が、
道路周辺を撮像した画像を処理し、前記画像に含まれる人と車の相対距離が基準値以下の状態であることを検知し、
前記状態にあると検知された前記人の属性を用いて出力すべき情報の種類を選択し、選択した前記種類の情報を出力する、監視方法。
14. 13.に記載の監視方法において、
前記監視装置が、さらに前記状態にあると検知された前記車の移動速度を用いて前記出力すべき情報の種類を選択する、監視方法。
15. 監視装置が、
道路周辺を撮像した画像を処理し、前記画像に含まれる人と車の相対距離が基準値以下の状態であることを検知し、
前記状態にあると検知された前記車の移動速度を用いて、出力すべき情報の種類を選択し、選択した前記種類の情報を出力する、監視方法。
16. 13.から15.のいずれか一つに記載の監視方法において、
前記監視装置が、
さらに前記状態にあると検知された前記人が単独行動か否に応じて、前記出力すべき情報の種類を選択する、監視方法。
17. 13.から16.のいずれか一つに記載の監視方法において、
前記監視装置が、
前記状態にあると検知された前記車は静止状態であり、前記車が静止してからの人の出入りを検知し、
前記検知の結果をさらに用いて、前記出力すべき情報の種類を選択する、監視方法。
18. 13.から17.のいずれか一つに記載の監視方法において、
前記監視装置が、
前記道路周辺を撮像する複数のカメラのうち、特定のカメラの画像を用いて前記処理を行う、監視方法。
【0127】
19. コンピュータに、
道路周辺を撮像した画像を処理し、前記画像に含まれる人と車の相対距離が基準値以下の状態であることを検知する手順、
前記状態にあると検知された前記人の属性を用いて出力すべき情報の種類を選択し、選択した前記種類の情報を出力する手順、を実行させるためのプログラム。
20. 19.に記載のプログラムにおいて、
さらに前記状態にあると検知された前記車の移動速度を用いて前記出力すべき情報の種類を選択する手順をコンピュータに実行させるためのプログラム。
21. コンピュータに、
道路周辺を撮像した画像を処理し、前記画像に含まれる人と車の相対距離が基準値以下の状態であることを検知する手順、
前記状態にあると検知された前記車の移動速度を用いて、出力すべき情報の種類を選択し、選択した前記種類の情報を出力する手順、を実行させるためのプログラム。
22. 19.から21.のいずれか一つに記載のプログラムにおいて、
さらに前記状態にあると検知された前記人が単独行動か否に応じて、前記出力すべき情報の種類を選択する手順をコンピュータに実行させるためのプログラム。
23. 19.から22.のいずれか一つに記載のプログラムにおいて、
前記状態にあると検知された前記車は静止状態であり、前記車が静止してからの人の出入りを検知する手順、
前記検知する手順による検知結果をさらに用いて、前記出力すべき情報の種類を選択する手順、をコンピュータに実行させるためのプログラム。
24. 19.から23.のいずれか一つに記載のプログラムにおいて、
前記道路周辺を撮像する複数のカメラのうち、特定のカメラの画像を用いて前記処理を行う手順、をコンピュータに実行させるためのプログラム。
【0128】
以下、さらなる参考形態の例を付記する。
25. 道路周辺を撮像した画像を処理し、前記画像に含まれる人と車の相対距離が基準値以下の状態であることを検出する検出手段と、
前記状態にあると検出された前記人の属性を用いて選択された出力すべき種類の情報を出力する出力手段と、を備える監視装置。
26. 25.に記載の監視装置において、
カメラにより生成される前記道路周辺を撮像した前記画像を取得する取得手段と、
前記取得手段が取得した前記画像について、画像処理を行うことにより、人と車を認識して特定する物体特定手段と、
前記物体特定手段が特定した前記人と前記車について、前記画像処理を行うことにより、位置を特定する位置特定手段と、
前記位置特定手段が特定した前記人について、前記画像処理を行うことにより、属性を特定する属性特定手段と、
前記検出手段が前記状態にある人と車を検出した場合、当該検出された人について、特定された前記属性を用いて、出力すべき情報の前記種類を選択する選択手段と、を備え、
前記出力手段は、前記選択手段が選択した前記種類の情報を出力する、監視装置。
27. 25.または26.に記載の監視装置において、
カメラにより生成される前記道路周辺を撮像した前記画像を取得する取得手段と、
前記取得手段が取得した前記画像について、画像処理を行うことにより、人と車を認識して特定する物体特定手段と、
前記物体特定手段が特定した前記人と前記車について、前記画像処理を行うことにより位置を特定する位置特定手段と、
前記位置特定手段が特定した前記車について、当該車の位置の変化から移動速度を推定する移動速度推定手段と、
前記移動速度推定手段が推定した前記車の移動速度を用いて、出力すべき情報の前記種類を選択する選択手段と、を備え、
前記出力手段は、前記選択手段が選択した前記種類の情報を出力する、監視装置。
28. 25.から27.のいずれか一つに記載の監視装置において、
カメラにより生成される前記道路周辺を撮像した前記画像を取得する取得手段と、
前記取得手段が取得した前記画像について、画像処理を行うことにより、人と車を認識して特定する物体特定手段と、
前記物体特定手段が特定した前記人と前記車について、前記画像処理を行うことにより位置を特定する位置特定手段と、
前記物体特定手段が特定した前記人の人数を特定し、特定された前記人が単独行動か否かを判別する人数特定手段と、
前記人数特定手段の判別結果に応じて、出力すべき種類の前記情報を選択する選択手段と、を備え、
前記出力手段は、前記選択手段が選択した前記種類の情報を出力する、監視装置。
【0129】
31. 道路周辺を撮像する複数のカメラと、
複数のカメラが撮像した画像を監視する監視装置と、を備え、
前記監視装置は、
道路周辺を撮像した画像を処理し、前記画像に含まれる人と車の相対距離が基準値以下の状態であることを検出する検出手段と、
前記状態にあると検出された前記人の属性を用いて選択された出力すべき種類の情報を出力する出力手段と、を有する、監視システム。
32. 31.に記載の監視システムにおいて、
前記監視装置は、
カメラにより生成される前記道路周辺を撮像した前記画像を取得する取得手段と、
前記取得手段が取得した前記画像について、画像処理を行うことにより、人と車を認識して特定する物体特定手段と、
前記物体特定手段が特定した前記人と前記車について、前記画像処理を行うことにより、位置を特定する位置特定手段と、
前記位置特定手段が特定した前記人について、前記画像処理を行うことにより、属性を特定する属性特定手段と、
前記検出手段が前記状態にある人と車を検出した場合、当該検出された人について、特定された前記属性を用いて、出力すべき情報の前記種類を選択する選択手段と、を備え、
前記監視装置の前記出力手段は、前記選択手段が選択した前記種類の情報を出力する、監視システム。
33. 31.または32.に記載の監視システムにおいて、
前記監視装置は、
カメラにより生成される前記道路周辺を撮像した前記画像を取得する取得手段と、
前記取得手段が取得した前記画像について、画像処理を行うことにより、人と車を認識して特定する物体特定手段と、
前記物体特定手段が特定した前記人と前記車について、前記画像処理を行うことにより位置を特定する位置特定手段と、
前記位置特定手段が特定した前記車について、当該車の位置の変化から移動速度を推定する移動速度推定手段と、
前記移動速度推定手段が推定した前記車の移動速度を用いて、出力すべき情報の前記種類を選択する選択手段と、を備え、
前記監視装置の前記出力手段は、前記選択手段が選択した前記種類の情報を出力する、監視システム。
34. 31.から33.のいずれか一つに記載の監視システムにおいて、
前記監視装置は、
カメラにより生成される前記道路周辺を撮像した前記画像を取得する取得手段と、
前記取得手段が取得した前記画像について、画像処理を行うことにより、人と車を認識して特定する物体特定手段と、
前記物体特定手段が特定した前記人と前記車について、前記画像処理を行うことにより位置を特定する位置特定手段と、
前記物体特定手段が特定した前記人の人数を特定し、特定された前記人が単独行動か否かを判別する人数特定手段と、
前記人数特定手段の判別結果に応じて、出力すべき種類の前記情報を選択する選択手段と、を備え、
前記監視装置の前記出力手段は、前記選択手段が選択した前記種類の情報を出力する、監視システム。
35. 33.または33.を引用する34.に記載の監視システムにおいて、
前記監視装置の前記検出手段は、前記状態にあると検出した前記車が、前記移動速度推定手段が推定した前記移動速度から静止状態であることを判別した場合に、さらに、前記車からの人の出入りがあるか検出し、
前記監視装置の前記選択手段は、前記検出手段による前記人の出入りの検出結果をさらに用いて、出力すべき種類の前記情報を選択し、
前記監視装置の前記出力手段は、前記選択手段が選択した前記種類の情報を出力する、監視システム。
36. 31.から35.のいずれか一つに記載の監視システムにおいて、
前記監視装置の前記検出手段は、前記道路周辺を撮像する複数のカメラのうち、特定のカメラの画像を用いて前記処理を行う、監視システム。
【0130】
37. 監視装置が、
道路周辺を撮像した画像を処理し、前記画像に含まれる人と車の相対距離が基準値以下の状態であることを検出し、
前記状態にあると検出された前記人の属性を用いて選択された出力すべき種類の情報を出力する、監視方法。
38. 37.に記載の監視方法において、
前記監視装置が、
カメラにより生成される前記道路周辺を撮像した前記画像を取得し、
取得した前記画像について、画像処理を行うことにより、人と車を認識して特定し、
特定した前記人と前記車について、前記画像処理を行うことにより、位置を特定し、
特定した前記人について、前記画像処理を行うことにより、属性を特定し、
前記状態にある人と車を検出した場合、当該検出された人について、特定された前記属性を用いて、出力すべき情報の前記種類を選択し、
前記選択した種類の情報を出力する、監視方法。
39. 37.または38.に記載の監視方法において、
前記監視装置が、
カメラにより生成される前記道路周辺を撮像した前記画像を取得し、
取得した前記画像について、画像処理を行うことにより、人と車を認識して特定し、
特定した前記人と前記車について、前記画像処理を行うことにより位置を特定し、
特定した前記車について、当該車の位置の変化から移動速度を推定し、
推定した前記車の移動速度を用いて、出力すべき情報の前記種類を選択し、
前記選択した前記種類の情報を出力する、監視方法。
40. 37.から39.のいずれか一つに記載の監視方法において、
前記監視装置が、
カメラにより生成される前記道路周辺を撮像した前記画像を取得し、
取得した前記画像について、画像処理を行うことにより、人と車を認識して特定し、
特定した前記人と前記車について、前記画像処理を行うことにより位置を特定し、
特定した前記人の人数を特定し、特定された前記人が単独行動か否かを判別し、
前記判別の結果に応じて、出力すべき種類の前記情報を選択し、
選択した前記種類の情報を出力する、監視方法。
41. 39.および39.を引用する40.に記載の監視方法において、
前記監視装置が、
前記状態にあると検出した前記車が、推定した前記移動速度から静止状態であることを判別した場合に、さらに、前記車からの人の出入りがあるか検出し、
前記人の出入りの検出結果をさらに用いて、出力すべき種類の前記情報を選択し、
選択した前記種類の情報を出力する、監視方法。
42. 37.から41.のいずれか一つに記載の監視方法において、
前記監視装置が、
前記道路周辺を撮像する複数のカメラのうち、特定のカメラの画像を用いて前記処理を行う、監視方法。
【0131】
43. コンピュータに、
道路周辺を撮像した画像を処理し、前記画像に含まれる人と車の相対距離が基準値以下の状態であることを検出する手順、
前記状態にあると検出された前記人の属性を用いて選択された出力すべき種類の情報を出力する手順、を実行させるためのプログラム。
44. 43.に記載のプログラムにおいて、
カメラにより生成される前記道路周辺を撮像した前記画像を取得する手順、
前記取得する手順で取得した前記画像について、画像処理を行うことにより、人と車を認識して特定する手順、
前記人と車を特定する手順で特定した前記人と前記車について、前記画像処理を行うことにより、位置を特定する手順、
前記位置を特定する手順で特定した前記人について、前記画像処理を行うことにより、属性を特定する手順、
前記検出する手順で前記状態にある人と車を検出した場合、当該検出された人について、特定された前記属性を用いて、出力すべき情報の前記種類を選択する手順、
前記選択する手順で選択した前記種類の情報を出力する手順、をコンピュータに実行させるためのプログラム。
45. 43.または44.に記載のプログラムにおいて、
カメラにより生成される前記道路周辺を撮像した前記画像を取得する手順、
前記取得する手順で取得した前記画像について、画像処理を行うことにより、人と車を認識して特定する手順、
前記人と車を特定する手順で特定した前記人と前記車について、前記画像処理を行うことにより位置を特定する手順、
前記位置を特定する手順で特定した前記車について、当該車の位置の変化から移動速度を推定する手順、
前記移動速度を推定する手順で推定した前記車の移動速度を用いて、出力すべき情報の前記種類を選択する手順、
前記選択する手順で選択した前記種類の情報を出力する手順、をコンピュータに実行させるためのプログラム。
46. 43.から45.のいずれか一つに記載のプログラムにおいて、
カメラにより生成される前記道路周辺を撮像した前記画像を取得する手順、
前記取得する手順で取得した前記画像について、画像処理を行うことにより、人と車を認識して特定する手順、
前記人と車を特定する手順で特定した前記人と前記車について、前記画像処理を行うことにより位置を特定する手順、
前記人と車を特定する手順で特定した前記人の人数を特定し、特定された前記人が単独行動か否かを判別する手順、
前記判別の結果に応じて、出力すべき種類の前記情報を選択する手順、
前記選択する手順で選択した前記種類の情報を出力する手順、をコンピュータに実行させるためのプログラム。
47. 45.または45.を引用する46.に記載のプログラムにおいて、
前記状態にあると検出した前記車が、前記移動速度を推定する手順で推定した前記移動速度から静止状態であることを判別した場合に、さらに、前記車からの人の出入りがあるか検出する手順、
前記人の出入りの検出結果をさらに用いて、出力すべき種類の前記情報を選択する手順、
前記出力手段は、前記選択手段が選択した前記種類の情報を出力する手順、をコンピュータに実行させるためのプログラム。
48. 43.から47のいずれか一つに記載のプログラムにおいて、
前記道路周辺を撮像する複数のカメラのうち、特定のカメラの画像を用いて前記処理を行う手順、をコンピュータに実行させるためのプログラム。
【0132】
この出願は、2020年1月20日に出願された国際出願PCT/JP2020/001760号を基礎とする優先権を主張し、その開示の全てをここに取り込む。
【符号の説明】
【0133】
1 監視システム
3 通信ネットワーク
5 監視カメラ
10 車
20 人
30 所有者
100 監視装置
102 検出部
104 出力部
120 取得部
122 物体特定部
124 位置特定部
126 属性特定部
128 選択部
130 移動速度推定部
132 人数特定部
200 画像処理装置
220 サーバ
300 記憶装置
1000 コンピュータ
1010 バス
1020 プロセッサ
1030 メモリ
1040 ストレージデバイス
1050 入出力インタフェース
1060 ネットワークインタフェース
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14
図15
図16
図17
図18
図19
図20
図21