(58)【調査した分野】(Int.Cl.,DB名)
【発明を実施するための形態】
【0012】
<実施形態1>
実施形態1に係る監視装置は、カメラの映像から監視領域内の複数の移動体を検知し、複数の移動体の位置や移動情報の相互関係に基づいて事故や事件の発生の可能性を検出し、この検出結果を反映して映像を記録媒体に記録する。
【0013】
図1に示すように、監視装置1は、ネットワーク(NW)を介してカメラ2と接続されており、全体として監視システムを構成している。
【0014】
カメラ2は、街頭や建物入口付近等、所定の監視領域に設置されており、この監視領域の映像を撮像し、得た映像をネットワークを介して監視装置1に送信する。
【0015】
監視装置1は、ネットワークを介してカメラ2からの映像を受信し、後述する所定の処理、映像の表示、映像の記録等を実行する。監視装置1は、具体的にはパーソナルコンピュータやワークステーション等のコンピュータにより実現される。監視装置1は、大きく分けて表示部10、処理部11、記録部12とを有している。処理部10は、例えば図示しないROMに書き込まれているプログラムを読み出してカメラ2の映像を処理する。表示部11は、処理部10で処理された映像等を表示するもので、具体的にはビデオモニター等で実現される。記録部12は、処理部10で処理された映像を記録するもので、具体的にはハードディスクレコーダ等で実現される。
【0016】
ネットワークは、LANやインターネット網等の通信回線や同軸線等、種々のものを含む。
【0017】
図2は、監視装置1の処理部10の機能を示すブロック図である。
【0018】
図2に示すように、処理部10は、カメラ2から送信されてくる映像に対し、まずフレーム毎に表示処理を行う(100)。ここでは、例えば、カメラ2から映像がデジタル符号化されて送信されてくるのであれば、デジタル符号化された映像をフレーム毎に復号化し、映像として再現できるようにする。表示処理された映像は表示部11に送られる。
【0019】
また、処理部10は、表示処理された映像について、フレーム毎に移動体検知し(101)、フレーム単位での移動体の位置を導出する(102)。ここでは、まず、各フレームについて、フレーム内に存在する移動体を検知する。検知された移動体の、実際にカメラ1が設置されている監視領域を含む実世界に対応する座標上での位置をキャリブレーション技術により導出する。
ここで、処理部10が連続したフレームに渡って移動体検知を行う際、あるフレームで移動体検知を開始すると、検知されたこの移動体の検知が終了するまで、一の検知として識別する。例えば、移動体aが監視領域に入ってきたことにより、N番目のフレーム(Nは自然数)で移動体aの検知を開始し、(N+100)番目のフレームまで移動体aの検知が続いた場合、N〜(N+100)フレームに渡っての移動体aの検知をひとまとまりとして一の検知とする。具体的にはひとまとまりの検知にIDなどの識別情報を付せばよい。
同様に、処理部10が連続したフレームに渡って移動体の位置の導出を行う際、移動体の検知時にひとまとりとして一の検知として識別された複数フレームにおける移動体の位置をひとまとまりとして位置群として識別する。例えば、上記の通りN〜(N+100)フレームに渡っての移動体aの検知がひとまりとして識別されていれば、N〜(N+100)フレームに渡っての移動体aの連続した位置を位置群として識別する。具体的にはひとまとりの位置群にIDなどの識別情報を付せばよい。
【0020】
次に、処理部10は、フレーム毎に導出した移動体の位置の履歴を、連続する複数フレームに渡って取っていくことで、移動体の移動方向や移動速度といった移動情報を導出する(103)。ここでは、あるフレーム上での移動体の位置とこれに続くフレーム上での位置との差分から座標上での移動方向を求めることができる。また、フレーム間の位置の差分とフレームの遷移時間とから移動速度を求めることができる。
なお、移動体検知手法はフレーム間での輝度変化に基づく方法等種々の方法があるが公知なので詳述はしない。同様に、キャリブレーション手法も射影変換法等種々の方法があるが公知なので詳述はしない。これらの手法は、本願出願人が先に出願し公開されている以下の特許公開公報内にも記載がある。
・特開2004−110280号公報
・特開2005−003377号公報
・特開2006−245795号公報
・特開2009−210331号公報
【0021】
図3は、処理部10により作成された位置や移動情報の一例を可視化した図であり、二つの移動体a及び移動体bが検知されたときの位置や移動情報の例を示している
マップMは、カメラ2が設置されている監視領域を含む実世界に相当する座標上でのマップであり、カメラ2の監視領域がSで示されている。ここで、処理部10が導出した現フレームにおける移動体aの位置Paと、移動体bの位置Pbとをプロットして示している。また、移動体aと移動体bの位置の履歴を可視化するために、過去の複数フレームにおいて導出された移動体aの位置を結ぶことで移動履歴Haを作成し、同様に移動体bの位置を結ぶことで移動履歴Hbを作成する。また、例えば、移動情報として導出(103)した移動体aとbの移動方向を矢印で示し、移動体aとbの移動速度を数値で示している。
なお、本図では、移動体aとbとはともにほぼ同じ方向(図面上で上方向)に向かって移動しており、それぞれ2m/sと3m/sで移動していることを示している。
【0022】
フレーム内で複数の移動体の位置が導出されると、処理部10は、フレーム毎に、これら複数の移動体について位置の比較と移動情報の比較とを行い(104)、比較結果に基づいて、複数の移動体のうちいずれかが起こした事故や事件を検出する(105)。
【0023】
処理部10は、事故や事件が検知されたフレームに対しては事故や事件が発生した可能性がある旨の識別情報(フラグ)を立てて(106)、映像を記録部12に記録する。
【0024】
なお、処理部10は、事故や事件が検知されなかったフレームについては、フラグを立てずに記録部12に記録する。
なお、処理部10は、記録部12に記録された映像を読み出し、表示部11に表示させることができる。
【0025】
図4は、移動体の位置と移動情報の相対関係に基づく事故や事件の検出(105)を説明する図であり、二つの移動体a及び移動体bが検知された例を示している。
図4(a)に示すように、あるフレームにおいて、移動体aの位置Paと移動体bの位置Pbとが互いに所定の距離以上離間している場合、移動体aと移動体bのいずれも他方に対して危害を加えるような事故や事件は起こしていないとして、事故や事件の検知は行われない。
図4(b)に示すように、移動体aの位置Paと移動体bのPbとが所定距離以内であって、移動体a移動方向と移動体bの移動方向とが異なる方向にある場合、事故の検知を行う。これは移動体aと移動体bとが接近し衝突する事故が発生した可能性があるからである。
図4(c)に示すように、移動体aの位置Paと移動体bの位置Pbとが所定距離以内であって、かつ、移動体aと移動体bとが同じ移動方向にあり、さらに移動体aと移動体bとの間で移動速度に所定以上の差がある場合、事件の検知を行う。これは、移動速度が速い一方が遅い他方に対する「ひったくり」事件が発生した可能性があるからである。
【0026】
図5は、処理部10が移動体の相互関係に基づいて事故や事件の検知を行う処理を示すフローチャートである。
処理部10は、複数の移動体が検知されると、移動体間の距離が所定の距離以内であるか否かを判断する(S10)。
移動体間の距離が所定の距離以上離間していれば(S10:N)、事故や事件の検出は行わない。所定の距離以内であれば(S10:Y)、処理部10はさらに両移動体の移動方向を判断する(S11)。
両移動体の移動方向が異なっていれば(S11:N)、処理部10は移動体同士の衝突の可能性があるとして事故を検出する(S12)。
両移動体の移動方向がほぼ同じであれば(S11:Y)、処理部10はさらに両移動体の移動速度差を判断する(S13)。
両移動体の移動速度に所定以上の差がなければ(S13:N)、処理部10は事故や事件を検出しないが、所定以上の差があれば(S13:Y)、速い方の移動体が遅い方の移動体に対してひったくりを仕掛けた可能性があるとして事件を検出する(S14)。
【0027】
このように、処理部10は、移動体の相互関係(相互の距離、移動方向、移動速度)に基づいて、移動体間に事故や事件が発生した可能性を検出することができる。
【0028】
処理部10は、
図6に示すように、事故や事件を検出したフレームについてその旨の示すフラグを立て、フレームの日付、時刻、及び当該フレームの前後フレームを含む映像(対象映像)と対応付けて記録部12に記録する。対象映像は、事故や事件の発生が検出されたフレームと隣接フレームであって移動情報が導出された複数のフレームから成る映像である。より具体的には、処理部10が位置導出(102)の際にひとまとまりとして一の位置群として識別した複数フレームから成る映像である。
例えば、本図において、2010年02月15日の07:00:15のフレームにおいて衝突発生が検知されたフレームは、一の位置群として識別されている07:00:02〜07:01:18間の複数フレームから成る映像と対応付けられている。
なお、本図では、事故(衝突)の可能性を示すフラグを1として、事件(ひったくり)の可能性を示すフラグを2としている。
図7は、記録部12に記録された映像を処理部10が読み出し、表示部11に表示させた際の表示例を示す図である。
表示部11には、事故や事件のフラグが立てられたフレームの一覧Lが表示され、その隣に映像を表示するウインドウWが表示されている。
フラグが立てられたフレームが一覧表示されるため、監視者は映像を始めから最後まで見なくても、事故や事件が発生した可能性のある映像箇所を素早く見つけることができる。
監視者がフレーム一覧Lから所望のフレームを選択する操作を行うと、処理部10は、この選択操作に応答して、選択されたフレームを含む対象映像を記録部12から読み出し再生し、ウインドウWに表示させる。
こうすることで、監視者が事故や事件が発生した可能性のある所望のフレームを選択すると、この所望のフレームに含まれる移動体(事故や事件の原因となったであろう移動体)が監視領域内でどのような挙動をしたのかを表示でき、監視者が事故や事件の解明を素早く行うことができる。すなわち、対象映像は、事故や事件が発生に起因した移動体が監視領域に現れてから消えるまでの間の映像であるため、監視者は事故や事件が発生した状況を確認することができる。
【0029】
<実施形態2>
実施形態1に係る監視装置では、複数の移動体の位置と移動情報とに基づき事故又は事件の発生を判別しているが、実施形態2では、位置と移動情報とに基づき事件の発生の蓋然性の高さを判別する。
【0030】
実施形態2に係る監視装置は、実施形態1に係る監視装置の処理部10を処理部20に変更したものである。処理部20以外の構成については特に異なる点がないため、ここでは処理部20について詳しく説明する。
【0031】
処理部20は、フレーム表示処理(200)、移動体検知(201)、位置導出(202)、移動体情報の導出(203)、位置と移動情報の比較(204)を行った後、事件発生の蓋然性を検出し(205)、検出結果に応じてフレームに識別情報(フラグ)を立てる(206)。
フレーム表示処理(200)、移動体検知(201)、位置導出(202)、移動体情報の導出(203)、位置と移動情報の比較(204)は、実施形態1に係る処理部10が実行するフレーム表示処理(100)、移動体検知(101)、位置導出(102)、移動体情報の導出(103)、位置と移動情報の比較(104)と同様である。
【0032】
処理部20は、事件の発生蓋然性の検出(205)において、導出された複数の移動体の位置に基づく移動体間の距離の接近度と、導出された複数の移動体の移動情報に基づく移動体間の移動方向と移動速度の近似度とに応じて、事件の発生の蓋然性の高さを判別する。
【0033】
図9は、処理部20が上記接近度と近似度の判別を行うためのテーブルの例を示している。
図9に示すように、処理部20は、接近度と近似度とに基づきポイントを付与し、総合的なポイントの高さに応じて事件の発生の蓋然性の高さを判別する。
図9に示す例では、複数の移動体間の距離の近似度について、互いに1m以内であれば2ポイント、1m〜3m以内であれば1ポイント、3m以上であれば0ポイント付与する。また、複数の移動体間の移動方向の近似度について、互いに±30°以内であれば2ポイント、±30°〜±45°以内であれば1ポイント、±45°以上であれば0ポイントを付与する。また、複数の移動体間の移動速度の近似度については、互いに2.5m/h以上であれば2ポイント、2.5m/h未満であれば1ポイントを付与する。
ポイント付与後、処理部20は、例えば、距離の接近度と移動方向の近似度のいずれか一方に0ポイントがある場合には蓋然性を0(ゼロ)とし事件発生とは判別せず、いずれか一方に0ポイントが無い場合は全てのポイントの合計を蓋然性の高さとする。処理部20は、このように事件発生の蓋然性が導出されたフレームについて、蓋然性の高低を識別情報(フラグ)として付与し(206)、映像を記録部12に記録する。
【0034】
図10は、事件の発生の蓋然性の高低を識別情報として付与した例を示す図である。
時刻07:00:15のフレームでは、事件発生の蓋然性が4と判別されている。
図9のテーブルに従えば、例えば、移動体間の距離が1m〜3m以内であって(1ポイント)、移動方向の差が±30°〜±45°以内であって(1ポイント)、移動速度差が2.5m以上ある(2ポイント)あるような場合に相当する。
時刻07:22:09のフレームでは、事件発生の蓋然性が6と判別されている。
図9のテーブルに従えば、例えば、移動体間の距離が1m以上であって(2ポイント)、移動方向の差が±30°以内であって(2ポイント)、移動速度差が2.5m以上ある(2ポイント)あるような場合に相当する。
なお、処理部20がフラグを付して映像を記録部12に記録する際、フラグを付したフレームの前後フレームを含む映像(対象映像)と対応付けて記録するのは実施形態1と同様である。
【0035】
このように、処理部20は、複数の移動体間の位置の接近度と移動方向や移動速度の近似度に基づいて、事件の発生の蓋然性を判別することができ、監視者が事件の発生の可能性のある場面を効率的に探すことができる。
【0036】
図11は、このようにフラグを付した映像を記録部12から処理部20が読み出し、表示部11に表示させた際の表示例を示す図である。
表示部11にフレームの一覧LとウインドウWが表示され、フレーム一覧Lから選択されたフレームと対応付けられた対象映像がウインドウW上に表示されるのは実施形態1と同様であるが、本図に示すように、フレーム一覧Lにおいては、事件発生の蓋然性が高いフレームから順番にリスト表示される。
こうすることで、監視者は、事件発生の蓋然性の高い場面から映像を確認することができるため、犯罪捜査等をより効率的に行うことができる。
【0037】
<実施形態3>
実施形態1及び2に係る監視装置は、あるフレームにおける移動体間の位置と移動情報の相互関係に基づいて事故又は事件を検出していたが、実施形態3では、あるフレームにおける移動体間の位置と移動情報の相互関係に加え、後続のフレームでの移動体情報に基づいてさらに詳細な事故又は事件を検出する。
【0038】
図12は、実施形態3に係る処理部30の構成を示す図である。処理部30のフレーム表示処理(300)、移動体検知(301)、位置導出(302)、移動体情報導出(303)、位置と移動情報の比較(304)は、実施形態1に係る処理部10の表示処理(100)、移動体検知(101)、位置導出(102)、移動体情報導出(103)、位置と移動情報の比較(104)と同様であるが、その後の処理が異なっている。
処理部30は、あるフレームについて、導出した複数の移動体の位置と移動情報(移動方向、移動速度)とを比較し(304)、比較した結果事故又は事故発生の可能性がある場合はさらに、続く複数フレームでの移動情報を導出し(305)、導出結果に応じて詳細な事故又は事件を検出する(306)。
【0039】
図13〜15は、事件又は事故の検出(304〜305)を説明するための図であり、二つの移動体a及び移動体bが検出された例を示している。
【0040】
1.衝突事故の検出
図13に示すように、まず、あるフレームにおいて、移動体aの位置Paと移動体bの位置Pbとが所定距離以内である場合、このフレームで衝突事故が発生した可能性がある(304)。この場合、300〜303と同様の要領でさらに続くフレームで移動体aと移動体bの位置と移動情報とを導出し(305)、両移動体a及びbの移動速度が著しく0(ゼロ)に近くなった場合、移動体aと移動体bとが衝突事故を起こしたことを検出する(306)。例えば、N番目(Nは自然数)のフレームにおいて、衝突事故を起こした可能性があることを検出すると、(N+1)〜(N+M)(Mは自然数)番目のフレームについて両移動体の移動速度を検出し、両移動体の移動速度が0に近くなった場合、N番目のフレームで衝突事故が発生したことを検出し、N番目のフレームにその旨を示すフラグを立てる(307)。
このように判断するのは、衝突事故を起こしたのであれば、それまで移動していた移動体がともに停止する蓋然性が高いからである。
【0041】
2.轢き逃げ事故の検出
図14に示すように、まず、あるフレームにおいて、移動体aの位置Paと移動体bの位置Pbとが所定距離以内である場合、このフレームで衝突事故が発生した可能性がある(304)。この場合、300〜303と同様の要領でさらに続くフレームで移動体aと移動体bの位置と移動情報とを導出し(305)、移動体aの移動速度が著しく0(ゼロ)に近くなり、かつ、移動体bの移動速度が0以外である場合、移動体bが移動体a衝突した後逃走した(轢き逃げを起こした)を検出する(306)。例えば、N番目(Nは自然数)のフレーにおいて、衝突事故を起こした可能性があることを検出すると、(N+1)〜(N+M)(Mは自然数)番目のフレームについて両移動体の移動速度を検出し、移動体aの移動速度が0に近くなって移動体bの移動速度が0以外である場合、N番目のフレームで轢き逃げ事故が発生したことを検出し、N番目のフレームにその旨を示すフラグを立てる(307)。
このように判断するのは、轢き逃げ事故の場合、被害者はその場で重傷を受けるか死亡する等して動きが止まる一方、加害者はその場から立ち去る蓋然性が高いからである。
【0042】
3.引きずり事故の検出
図15に示すように、まず、あるフレームにおいて、移動体aの位置Paと移動体bの位置Pbとが所定距離以内である場合、このフレームで衝突事故が発生した可能性がある(304)。この場合、300〜303と同様の要領でさらに続くフレームで移動体aと移動体bの位置と移動情報とを導出し(305)、移動体aの移動情報が無くなり、つまり移動体検知されなくなり、かつ、移動体bのみ移動情報が得られ移動速度が0以外である場合、移動体bが移動体a衝突した後移動体aを引きずったまま逃走していることを検出する(306)。例えば、N番目(Nは自然数)のフレーにおいて、衝突事故を起こした可能性があることを検出すると、(N+1)〜(N+M)(Mは自然数)番目のフレームについて両移動体の移動情報を検出し、移動体aの移動情報が検出されず移動体bの移動速度が0以外である場合、N番目のフレームで引きずり事故が発生したことを検出し、N番目のフレームにその旨を示すフラグを立てる(307)。
このように判断するのは、引きずり事故の場合、被害者はその場で加害者の車両に巻き込まれ引きずられることから、両移動体が一つとして検出される蓋然性が高いからである。
【0043】
以上のように、処理部30は、あるフレームにおける移動体間の位置と移動情報の相互関係に加え、後続のフレームでの移動体情報に基づいてさらに詳細な事故又は事件を検出することができる。
なお、本実施形態においても、事故又は事件が発生した旨のフラグが立てられたフレームが記録部12において、事故や事件の発生が検出されたフレームと隣接フレームであって移動情報が導出された複数のフレームから成る対象映像と対応付けて記録されるのは実施形態1及び2と同様である。
<実施形態4>
実施形態1及び2に係る監視装置は、あるフレームにおける移動体間の位置と移動情報の相互関係に基づいて事故又は事件を検出していたが、実施形態3では、さらにフレーム内の事故又は事件が検出された場所に基づいて詳細な事故又は事件を検出する。
【0044】
図16は、実施形態4に係る処理部40の構成を示す図である。処理部40のフレーム表示処理(400)、移動体検知(401)、位置導出(402)、移動体情報導出(403)、位置と移動情報の比較(404)は、実施形態1に係る処理部10の表示処理(100)、移動体検知(101)、位置導出(102)、移動体情報導出(103)、位置と移動情報の比較(104)と同様であるが、その後の処理が異なっている。
処理部40は、あるフレームについて、導出した複数の移動体の位置と移動情報(移動方向、移動速度)とを比較し(404)、比較した結果事故又は事故発生の可能性がある場合はさらに、導出した移動体の位置の座標を比較し(405)、比較結果に基づいて事故又は事件の詳細を検出する(406)。
【0045】
図17は、カメラ2が設置されている監視領域を含む実世界に相当する座標上でのマップを示している。マップの中で、破線で表しているのが監視領域内に存在する横断歩道に相当する領域である。移動体がこの領域内の座標で検出された場合、当該移動体は監視領域内では横断歩道を通行する歩行者である蓋然性が高い。逆に、この破線で示した領域外の座標で検出された移動体は、監視領域の中では、横断歩道以外の道路を(車道)を通行する車両である蓋然性が高い。
そこで、監視装置1は予め、監視領域内において歩行者が歩行しそうな場所に相当する領域(歩行領域)の実世界の座標を記憶しておく。記憶する場所は記録部12であってもよいし、ROMやRAM等の記憶手段を監視装置1に設けておいてそこに記憶しておいてもよい。
【0046】
処理部40は、複数の移動体の位置と移動情報を比較し(404)、互いの位置とが所定距離内にある場合、例えば事故の発生と判断し、さらに、このときの互いの位置座標と記憶された座標とを比較する(405)。比較の結果、記憶された座標に含まれる場合は、監視領域内での横断歩道で事故が発生した蓋然性が高いため、歩行者と車両とによる接触事故である蓋然性が高いと判断しこれを検出する(406)。一方、比較の結果、記憶された座標に含まれない場合は、監視領域内での車道で事故が発生した蓋然性が高いため、車両同士による接触事故である蓋然性が高いと判断しこれを検出する(406)。
処理部40は、検出結果に応じて、歩行者と車両による接触事故である旨のフラグもしくは車両同士による接触事故である旨のフラグをフレームに付与する(407)。
このように、事故又は事件の発生位置を監視領域と対応する実世界の座標上で判断することで、より詳細な事故又は事件の発生を検出することができる。
なお、本実施形態においても、事故又は事件が発生した旨のフラグが立てられたフレームが記録部12において、事故や事件の発生が検出されたフレームと隣接フレームであって移動情報が導出された複数のフレームから成る対象映像と対応付けて記録されるのは実施形態1〜3と同様である。
【0047】
<補足>
以上、実施形態1〜4に基づき、監視装置について説明したが、本発明の監視装置の構成について以下の通り補足する。
1.処理部10〜40は、移動体の位置の位置の導出(102〜402)において、過去のフレームでの位置検出結果に基づき移動平均化した位置を導出するようにすれば、ごく一時的もしくは急峻は移動体の動きに敏感に反応しすぎることなく滑らかに位置を導出することができる。
2.処理部10〜40が移動体の検知(101〜401)を行う際、人物歩行像(シルエット)に着目した人物検出を利用してもよい。このような移動体検知については、例えば、特開2010−038835号公報に開示されている。
3.監視装置1は記録部12を備え、処理部10〜40は映像を記録部12に記録するようにしているがこれに限らない。例えば、監視装置1は、
図18に示すように、発報部22を備え、処理部10〜40は、事故又は事件の検出(105、205、306、406)を行ったとき、発報部22に発報させるようにしてもよい。発報部22は例えば、アラーム等の警告音を放音させるドライバで、外部のスピーカに警告音を鳴動させることができるものであればよい。
4.監視装置1はカメラ2と接続され、処理部10〜40は、カメラ2の撮像映像に基づいて監視領域内の移動体を検出する(101〜401)ようにしているが、これに限らない。例えば、監視装置1は、
図19に示すように、カメラの代わりに監視領域にレーザースキャナ(レーザーセンサ)3と接続し、処理部10〜40は、レーザースキャナ3のスキャン結果に基づいて移動体を検出するようにしてもよい。
レーザースキャナ3は、スキャン領域A内において一端から他端まで順次レーザー光を照射し、スキャン領域A内でレーザー光が物体に当たるのを検出する装置である。処理部10〜40は例えば、レーザースキャナ3が物体を検出した場合、これを移動体と検出し(101〜401)、スキャン領域Aに対応する実世界座標上での移動体の位置を導出する(102〜402)ようにすればよい。
このように構成した場合、上記補足3で説明したように、監視装置1には発報部を設け、処理部10〜40が事故又は事件の検出に応じて発報部から発報させるようにすればよい。
5.監視装置1とカメラ2とは便宜上、ネットワークを介して接続されている例を示したが、いわゆるインターネット網やLAN等の通信回線に限らない。同軸線などの有線接続手段や、Bluetooth(登録商標)や赤外線等の無線接続手段など、監視装置1とカメラ2間で信号のやり取りができる手段であればよい。上記補足で示したレーザースキャナ3との接続も同様である。
6.監視装置1がカメラ2とネットワークで接続されている例を示したが、監視装置1の一部又は全ての構成とカメラ2とは同じ筐体に格納し、カメラ2に監視装置1の機能の一部又は全部を実行させるようにしてもよい。例えば、
図20(a)及び(b)に示すように、カメラ2に処理部10を備え、カメラ2側で事故又は事件の検出を行い、検出結果に応じて監視装置1が表示や記録を行うようにしてもよいし、カメラ2に処理部10、表示部11、記録部12を備え、カメラ2が完全に監視装置として機能するようにしてもよい。
また、
図21に示すように、処理部の機能の一部をカメラ2に実行させ、残りの機能を監視装置1に実行させるようにしてもよい。
図21で示す例では、処理部10の処理のうち移動体検知処理101をカメラ2が実行し、残りの機能を監視装置1が実行する例を示しているがこれに限定されない。
【0048】
<まとめ>
以上のように、本発明の実施形態に係る監視装置1は、監視領域内で発生した複数の移動体間の事故又は事件を検出することができる。
特に、複数の移動体間の位置、移動情報(移動方向差、移動速度差)に基づいて検出を行うため、移動体が事故又は事件を起こした場合の動きの類型をデータベース化しておく必要が無く、簡素な構成で監視装置1を構成することができる。