(58)【調査した分野】(Int.Cl.,DB名)
監視エリア内を撮像する複数のカメラにおいて取得した映像から物体を検出する認識部と、前記複数のカメラで重複して撮像される監視エリアにおいて物体が検出される場合に、カメラ毎に前記物体の特徴量である認識結果を前記認識部において取得し、前記認識結果と前記認識結果の優先度とに基づいて、前記カメラ毎の映像に前記優先度に応じた優先順位をつける表示選択部と、を備え、前記表示選択部は、前記認識結果と前記認識結果の優先度とに基づいて、前記カメラ毎に前記物体に関する評価値を算出し、前記評価値に基づいて前記カメラ毎の映像に優先順位を設け、前記優先順位に応じて、前記カメラ毎の出力映像の出力形態を変化させることを特徴とする監視カメラ制御装置。
【発明を実施するための形態】
【0016】
以下、本発明の一実施形態について、添付図面を参照し詳細に説明する。
【0017】
図1は、本発明による一実施形態の監視カメラ制御装置及び映像監視システムを示すブロック図である。本実施例では、監視カメラ制御装置及び映像監視システムについては単に映像監視システムもしくは監視システムと記述する場合もある。
【0018】
この映像監視システムは、カメラ100〜102と、映像取得部103と、認識部104と、認識結果105と、表示選択部106と、カメラ配置情報107と、入力手段108と、映像表示部109と、表示手段110を備えている。
【0019】
この映像監視システムは電子計算機システムを適用した構成となる。この電子計算機システムのハードウェアは、CPU、メモリ、I/Oなどを含み、所定のソフトウェアが実行可能にインストールされることによって、各図にブロックで表現される各機能部が実現されている。
【0020】
カメラ100〜102は実施形態を簡便に表現するために、3台のカメラとして本実施例では述べているが、この構成に依存せず、カメラが2台以上設置される構成を想定している。カメラ100〜102は、ズーム機能を有するカメラレンズ、およびCMOS(Complementary Metal Oxide Semiconductor)やCCD(Charge Coupled Device)などの撮像素子(いずれも図示せず)を含む撮像機器である。このカメラ100〜102は、映像取得部103により映像信号を取得し、後述する認識部104と映像表示部109へ出力する。
【0021】
また、このカメラ100〜102は、雲台に載置され俯仰および旋回が可能なパンチルトズームカメラである。本実施例では記載していないが、カメラ100〜102の映像を記録装置や表示装置に転送し、映像を記録したり、監視員の目視確認に利用することは自明である。
【0022】
表示手段110は、液晶表示装置やCRT(Cathode Ray Tube)表示装置などの表示装置である。表示手段110を備える代わりに、RGB(Red-Green-Blue)モニタ出力、または、ネットワーク経由でのデータ出力や、携帯やタブレット等の端末を用いる構成としてもよい。
【0023】
様々なパラメータ設定はユーザインターフェースより実行される。映像取得部103や、認識部104、映像表示部109などに備えるユーザインターフェースは、マウスやキーボードなどの入力装置(図示せず)を含み、ユーザによるパラメータなどの入力を受け付ける。本発明の根幹部分の説明のため、表示選択部106にパラメータ等を入力する手段として入力手段108のみを記載しておく。
【0024】
次に、本発明の構成ブロックの詳細を説明する前に、本発明の監視システムにおいてカメラと移動物体との関係について
図2等を用いて説明する。
【0025】
図2は、本実施例の監視エリア205とそこに設置されたカメラ及び物体等の関係を図示したものである。監視エリア205には、カメラ200〜202(
図1のカメラ100〜102と同様)が設置され、物体203が存在する。また、棚などの調度品や壁や廊下などの建築構造物も監視エリア205には存在することが多く、構造物204として図示する。本実施例では物体203が人物である場合として、移動方向206の方向に移動しており、顔方向207を向いている。
【0026】
ここで、物体には、可動物体および静止物体が含まれる。可動物体とは、移動、変動し得る物体を指す。本実施例では、可動物体として人物を例に挙げているが、人物は、顔手足や人物全体として移動や変動をし得る物体であるためである。他にも、可動物体として、車両や、人が所持する鞄、パソコンの画面や、金庫の扉等が挙げられる。例えば、パソコンの画面や金庫の扉等は、人などによって画面の向きや画面表示、また金庫の扉が開く等変動し得る物体である。また、移動、変動することのない静止物体にも本発明は適用可能である。
【0027】
監視エリア205は、実空間等と同義で用いており、予めその座標系を(Xw、Yw、Zw)を定義する。
【0028】
次に、この監視エリア205を上から観察した場合について鳥瞰図として
図3に示す。
【0029】
ここでは新たに、各カメラに対応する撮像領域300〜302(画角と同義で用いる)を示す。その他については、
図2と同様であり、監視エリア205上に、物体203が存在し、移動方向206で移動し、顔方向207を向く形で図示される。
【0030】
図4は、各カメラ200〜202で撮像した映像を図示したものである。カメラ画像400〜402は、それぞれカメラ200〜202で撮像した映像を示し、これは、
図1の映像取得部103を通して取得され、映像表示部109を介して表示手段110に表示される。それぞれのカメラの設置状況や撮像領域300〜302により、物体203や構造物204を含んだ形で撮像される。カメラ200〜202との位置関係により、物体203や構造物204の見え方や、物体203の大きさ、移動方向206や顔方向207の見え方が異なる。
【0031】
図2〜
図4に記述した監視エリア205と物体203等を示すこれらの図では、物体203はカメラ200の方向に移動しており、顔方向207はカメラ201の方向を向いているものとする。また、物体203は、監視エリア205のXw−Yw空間の中心から右下に位置しており、カメラ202が最も近いカメラである。
【0032】
ここで、カメラと監視エリアとの対応関係を算出する一例について述べる。
【0033】
本実施例に限らずカメラと監視エリアの対応関係すなわちカメラパラメータを算出するために、簡易的に近似的に求める方法から詳細に求める方法まで存在する。この対応関係は、
図1に示すカメラ配置情報107を取得するために用いる。
【0034】
図5は、監視エリアとカメラで取得するカメラ画像上での対応点を示す図である。
【0035】
具体的には
図5に示すように、監視エリア501(監視エリア205、実空間と同義)とカメラ500で取得するカメラ画像502上での対応点を取る方法が考えられる。カメラ500は、監視エリア501上のある位置(Xc、Yc、Zc)に存在している。
【0036】
カメラ画像502上の任意のカメラ画像位置504と監視エリア501上の監視エリア位置505の対応は、画像上の位置と実空間での実測値から求めることができる。この対応点を取得したのちに、カメラパラメータを取得する方法として、例えば、「R. Y. Tsai, “A versatile camera calibration technique for high-accuracy 3D machine vision
metrology using off-the-shelf TV camera and lenses”IEEE Journal of Robotics and Automation, Vol.RA-3,No.4, pp. 323-344, 1987」等のカメラキャリブレーション技術について既存技術として知られているが、ここでは詳細の説明については省略する。この対応点によりカメラパラメータを求める方法では、4点以上を取得すればカメラパラメータを取得できることが知られている。
【0037】
この手続きにより、
図5に示すようにカメラ500の俯角θや、監視エリア501上での設置角度φ、カメラの高さHcを求めることができる。
【0038】
次に、
図1に示す認識部104から順に説明する。認識部104は映像取得部103で取得した複数の映像のうち任意の映像に対して認識処理を実行する。
【0039】
図6は、認識部104の処理を説明するフローチャートの例であり、本実施例における人物の顔及び顔方向の検出について示したものである。
【0040】
人物の顔を検出する手法は、広く提案されており、例えば「Paul. Viola, M. Jones:“Robust Real-Time Face Detection”,International Journal of Computer Vision (2004), Volume: 57, Issue:2, Publisher: Springer, Pages:137-154」等の既存技術が知られている。これらは、顔の画像特徴を学習サンプルから取得し、識別器を構築する。この識別器により画像上のどこに顔があるかを判断する。また前述の学習サンプルを正面や横向き等の様々な部分サンプルに分けた上で、それぞれの識別器を構築することで、顔方向を認識することも可能となる。以降、
図6に沿って述べる。
【0041】
S60は、画像全体を任意のウィンドウ(検知窓)で操作する手続きである。その後、ある任意の位置において、上述した識別器を用いて顔が検出されたかどうかを出力する(S61)。顔が検出されなかった場合、次の位置にウィンドウを移動し同様の処理を繰り返す。顔が検出された場合、顔の向きを検出する(S62)。この結果を所定のメモリ領域に出力する(S63)。以上の処理を全画像内で繰り返すことで、顔の位置及び顔方向を検出することができる。顔の位置を検出することで、人物の存在する位置も同時に検出することができる。最後に、画像全体の処理を確認する(S64)。
【0042】
ここでは、顔の検出を例に認識部104の詳細について述べたが、他にも画像上から情報を取得する方法が様々に存在する。例えば、顔検出ではなく、識別器を人物の全体を検出する形とすれば、人検出を実現することが可能であり、体の向きも同様に求めることができる。また、人物の画像上での位置が検出されれば、自ずとその大きさ(画像上での面積)を求めることも可能である。また、検出された領域を時刻の連続した複数フレーム(画像)に渡って移動した位置を求めることで、人物の追跡処理を実行することが可能である。
【0043】
また、車両であれば、ナンバープレートや運転手の顔など、任意の画像上の情報を取得することができる。
【0044】
さらに、上述の処理で検出された位置と
図5で述べた監視エリア501とカメラ画像502との対応関係を取ることで、監視エリア501上(
図2〜
図4の監視エリア205上も同様)の位置や可動方向(
図2〜
図4の移動方向206)、顔方向(
図2〜
図4の顔方向207)等について求めることができる。本構成を有することにより、監視エリア501とカメラ画像502との対応関係から、カメラ画像502内で右を向いている人が、監視エリアでどちらを向いているのかという方向が分かる。つまり、位置だけではなく方向も取得できる。
【0045】
図7は、認識部104で求めた結果を認識結果105に格納する際のデータ構造の例である。このデータは、物体ID(D70)、物体の実空間での位置(D71)、画像上での面積(D72)、顔方向(D73)、移動ベクトル(D74)、その他の情報(D75)から構成されている。
【0046】
面積(D72)は、物体を撮像するそれぞれのカメラによって異なるため、さらに面積・カメラ1(D76)、面積・カメラ2(D77)のように、物体が撮像されるカメラ毎に格納される。
【0047】
また、移動ベクトル74は、現時刻tから一定期間過去に遡った情報まで持ち、位置(t)(D79)のように格納され、それらの情報から移動方向(D78)も格納されている。移動方向(D78)は、位置(t)(D79)の情報の平均値などにより算出することができる。これらの情報も顔方向と同様に、
図5のように対応関係を求めることで、カメラ画像上の方向に対して、監視エリア上での移動方向を求めることができる。
【0048】
その他の情報(D75)についても、認識部104の処理を加えることにより、データに含めることができる。
【0049】
次に、
図1に示す表示選択部106について述べる。まず表示選択部106で用いるカメラ配置情報107について説明する。
【0050】
カメラ配置情報107は、カメラの位置関係を示す情報と、移動物体及びカメラ画像との関係を示すものが存在する。前者は上述したカメラと監視エリアの対応関係を求めることで取得することができ、当然ながら詳細に実測することでも求めることが可能である。後者は、カメラキャリブレーションによって取得することができる。
【0051】
図8は、本実施例におけるカメラの位置関係の情報の例を示したものである。
【0052】
カメラの位置関係は、任意に割り振られたカメラIDである(D80)、カメラの俯角(D81)、カメラの水平角(D82)、画角(D83)、設置位置(D84)で構成される。それぞれ角度及び絶対位置が格納されている。これによって、カメラの向く方向や撮像される映像について規定することができ、また、それぞれのカメラとの位置関係を把握することが可能となる。
【0053】
上述したようなカメラキャリブレーション技術によって求めた場合には、
図5に示す監視エリア501とカメラ画像502との透視投影変換のマトリクスが取得でき、実施形態によっては、この情報がカメラ配置情報107に格納されても良い。なお、カメラの位置関係においては、焦点距離、光軸方向の回転、撮像素子のサイズも関連するため、情報として加えることが可能である。
【0054】
図9は、
図2〜
図4に示した実施例における監視エリア205を上部から観察した鳥瞰図である。
【0055】
図9には、
図2〜
図4と同様に、カメラ200〜202、物体203、構造物204が示されている。ここで、認識部104を経て、移動方向206及び顔方向207も含むデータを取得したものとする。また、カメラ配置情報107から各カメラの位置関係も同様に取得している。
【0056】
カメラ200〜202は、監視エリア205のXw−Yw空間において、それぞれの位置で、φ
0〜φ
2の角度で設置されている。また、物体203は移動方向206の方向(角度θv)に移動しており、物体203の顔方向207はθfで定義される。
【0057】
これらの情報を用いて、表示選択部106によって表示する映像を判断するための処理を実行する。
【0058】
図10は、カメラ配置情報107のうち、物体203やカメラ位置等により求めた情報テーブルの例である。情報テーブルのカメラ評価項目(D1000)は、検出された物体とカメラとの距離(D1002)、検出された物体のカメラ画像上の面積(D1003)、顔方向(D1004)、移動方向(D1005)で構成される。評価値(D1001)は、各カメラ毎の評価値である。カメラ評価値(D1000)は、具体的には、上述した認識部104で求めた物体203のデータとカメラ位置等に基づいて算出され、これを各カメラ毎に算出、取得し、取得値(D1001)として示される。
【0059】
カメラとの距離(D1002)は、顔検出や人物検出により検出された画像上の位置と監視エリア205との関係により求められる。面積(D1003)も、同様に検出した領域から求める。顔方向(D1004)は、カメラ画像上の顔方向から監視エリア205上での顔方向θfを求めることができ、カメラ200〜202の方向φ
0〜φ
2との角度の差分によって算出することができる。例えばカメラ201(
図10中のカメラ2)における計算式を数1に示す。
【0060】
〔数1〕
カメラ2顔方向=(φ
1−θf) (1)
ここで、数1で求めた顔方向は、180degに近づくほど、カメラの撮像方向と顔方向が正対する、即ち顔方向がカメラ方向を向いているということになる。厳密にはカメラの俯角に対して顔の垂直方向の角度についても求めることも可能であるが、本実施例では簡単のため水平方向についてのみ記述する。
【0061】
また、移動方向(D1005)についても、同様の考え方で求めることができるため、ここでの説明は省略する。
【0062】
さらに、別の実施形態においては、物体の特定部位を検出した方向、例えば鞄などの所有物を持つ方向、手などの部位が撮像される方向など、所望の部位について定義することも可能である。また物体が車両の場合は、ナンバープレートや運転手の顔などを基準に情報テーブルを作成することもできる。また、ある特定の行動(イベント)が観察できる方向としても良い。例えば、人物がボタンを押す動作が撮像できる方向、商品を手に取る行動などがあげられる。
【0063】
この情報テーブルは、カメラ配置情報107に格納される。このように、予め取得したカメラ配置情報と認識結果を併せて用いることでより詳細に映像選択を決定するようにしたものである。また、カメラとの位置関係や認識処理の結果を、認識処理にフィードバックさせることで、認識処理に適切なカメラや映像上の位置を選択することができるため、認識処理をさらに精度よく実行することが可能である。
【0064】
次に表示選択部106について、
図10に示した情報テーブルを用いて映像表示を切り替える方法について述べる。
【0065】
図11は、同一物体を重複して検出した、各カメラから取得した映像情報を用いる際に、上述したカメラ評価項目のうち、優先的に取得したいカメラ評価項目の優先度を設定する、優先度設定画面1100の例である。これらの優先度は、例えば、
図1の入力手段108を介して設定される。画面にはそれぞれの優先度が設定でき、本実施例では0〜5までの優先度を設定することができる。0の場合は、情報を用いないことを示しており、5の場合は最も優先的に該当情報を利用することができる。ここでは、一つの情報のみを用いて出力する映像を選択することもでき、いくつかの情報を統合した評価値を求めることで映像選択の基準を作成することができる。
図11に示す例では、優先度は、距離dp=0、面積sp=1、顔方向θfp=3、移動方向θvp=1と設定されている。
【0066】
ここで、各カメラの距離をd、面積をs、顔方向をθf、移動方向をθvと定義し、
図1に示すカメラ配置情報107から各値に対して全カメラの順位付けを行う。カメラ1を例に全カメラに対するカメラ1の順位を定義すると、距離D1=3、面積S1=1、顔方向Θf1=1、移動方向Θv1=3となる。カメラ内の順位を表すものであるので、最小値は1、最大値はカメラ台数となる。
【0067】
各カメラのこれらの順位及びカメラ評価項目の優先度を元に、任意の物体毎に各カメラ毎の評価値を演算する方法について、数2に示す。評価値の演算は、
図1に示す表示選択部106において行われる。
【0068】
〔数2〕
評価値(カメラ1)
=(D1*dp+S1*sp+Θf1*θfp+Θv1*θvp)
(2)
数2によって、もっとも評価値が小さいものが、物体203を観察するのに適したカメラであると表示選択部106において決定することができる。
【0069】
例えば、
図4に示す映像に対して、
図10及び
図11に示す各カメラ毎のカメラ評価項目の情報テーブルやカメラ評価項目の優先度により算出した結果、
図4のカメラ画像401に示す映像が物体203を観察するのに最も適した映像であると算出される。
【0070】
なお、この各カメラ毎の評価値は物体毎に算出されるため、それぞれの移動物体に適したカメラの映像が評価値により定義される。複数の物体がある場合は、最も大きく撮像された人物に対して制御することや、入力画面などで選択した人に対してのみ、本発明の処理をするなどの対処方法がある。
【0071】
次に、
図12を用いて、
図1に示す映像表示部109について説明する。ここでは、表示選択部106によって、映像取得部103から得られる映像のうち優先的に表示すべきカメラ及びカメラから取得した映像が算出されているものとする。
図12に示す一部の映像例は、
図4に示した例と同様であり、カメラ2の映像で撮像される移動人物の顔方向がカメラ方向となっており、観察し易い映像となっている。
【0072】
図12は、監視システムのモニタリング画面の一部を示す。ここでは、監視エリアを撮像する各カメラの映像を小窓領域1200で表示したものであり、映像記録機器やマトリクススイッチャ等を通じて取得した映像が表示される。表示選択部106で選択された映像をさらに大窓領域1201で表示する。これらのマルチ画面出力の設定等についての詳細は記述しないが、利用するカメラ台数によって画面配置は任意に設定できる。
【0073】
物体を検出した検出枠1202を大窓領域1201に重畳して出力することで、監視員の注意を向かせることも可能である。また、顔検出の結果を用いて、付加情報1203を画面上に出力することも可能である。
【0074】
図12に示す画面例では、記録映像等を制御する再生制御部1204も持っており、記録映像の再生にも活用することが可能である。記録映像とともに、
図10に示す情報テーブルや認識結果105を保存しておけば、記録映像に対しても同様に人物を観察し易い映像を提示することを実現できる。また、優先度設定は設定ボタン1205などから設定することが可能である。
【0075】
図13に示す画面例は、カメラ配置情報107を用いて、視覚的にカメラと移動物体との位置関係を理解し易く表示する一例について示した図である。監視エリアやカメラの位置をCG等によって作成したデータを描画した画面に対して、カメラ画像1300〜1302をカメラ位置に近接した形で表示する。それぞれのカメラ画像は画面上での位置に従って、一定係数で大きさを変化させて表示させることも可能である。
【0076】
画面上には観察された物体1303が、認識部104で算出した位置に基づいて描画されている。この物体1303は、CG等で作成した人物のモデルではなく表示選択部106で算出されたカメラの映像に存在する移動人物を抽出して作成したデータを画面上に重畳させることで位置関係と物体1303の状況を同時に観察することが可能である。また、顔などの付加情報1304も併せて表示することで、より詳細に観察することも可能である。
【0077】
図14は、複数の物体が存在する場合について示した図である。
図14(a)は、カメラ画像1400a〜1402aまで
図13と同様に表示されている。また画面上には物体1403aと物体1404aが描画されている。
【0078】
この映像に対して、例えばカメラ2画像1400a及び移動物体1404aを中心に観察したい場合、ユーザによる指示によって視点を変換することができる。ユーザは観察したいカメラ画像か画面上に描画された移動物体の位置をマウス等の入力機器から指定すると、
図14(b)に示すように、カメラ1画像1400bを中心とした視点に切り替わる。視点の切り替えによって、移動物体1403b、移動物体1404bの位置も変更されるが、最も観察しやすい画像が重畳されている。また、各カメラの映像も視点からの距離に応じて画像サイズ等も変更させることが可能である。
【0079】
このように、映像の重要度や注目度などに応じて、表示する大きさや、重要な情報を付加した形で提示することや、カメラ配置と連動させた形式で映像を提示する表示方法により、監視エリア内の配置関係を視覚的にも認識することが可能である。このことによって、映像の重要性や監視エリアの対応関係を同時に把握することが可能であるため、監視員の負担低減に繋がり結果としてより頑健な監視システムを提供することが可能となる。また、優先順位に基づいて、映像表示の優先順位をつけることで、物体の観察に適した映像の提示や、記録、さらには記録した映像のうち観察したい映像を再生することも可能となる。
【0080】
本発明を適用できる検出物体としては、上述のように人物が挙げられ、認識処理により顔検出を実行し、複数カメラの映像から例えば顔が撮像された映像を選択して提示することが可能である。また、人物以外であっても、車両や、人が所持する鞄、パソコンの画面や、金庫の扉等に対しても本発明を適用することができる。車両であれば運転者の顔を監視する場合、鞄であれば鞄を所持している人物の顔や鞄自体を監視する場合など、観察したい部分を監視するのに適したカメラの映像を決定することができる。さらに、向きや画面表示が変更したパソコンの画面を監視する場合や、金庫の扉が開けられた場合など、動きや変化が生じた部分を観察するのに適したカメラを選択することもでき、常にパソコン画面を監視したり、金庫の扉が開けられたときだけ扉を監視するようにすることもできる。また、本発明は、可動物体に限らず、静止物体にも適用させることは可能である。例えば、固定設置されている金庫の監視で、扉側から側面に監視領域を切り替えたい場合、本発明の構成を採用すれば、側面を監視するのに適したカメラを選択し、監視画面を切り替えることができる。
【0081】
図15は、上述の実施例を映像データの検索に用いた構成図の例である。
図15に示した各機能ブロックは、
図1に示したものと多くは同様であるため、本実施例に関連する部分についてのみ説明する。
【0082】
映像取得部103により取得した映像は、映像データ1500に格納される。監視システムにおける検索機能は、この映像データ1500データを取得する手段の一つである。映像データ1500から取得したい映像の検索条件を入力手段1502を通じて、検索部1501に入力される。検索条件は例えば時間帯や対象となるカメラ、特定の人物など様々にあるが、ここでの検索部1501は、
図1の認識部104と同様に認識機能を備えることも可能である。この認識機能により取得される情報も同様に、
図7に示す認識結果と同様に取得することができる。
【0083】
ここで取得した認識結果は、前述の実施例と同様に、表示選択部106において前記カメラ毎の映像に優先順位をつけるために用い、観察し易い映像を選択し映像表示部109を通して、表示手段110にて表示することができる。
【0084】
なお、映像データ1500に映像データを格納する際に、同時に認識結果105を格納する形としても良い。この場合、検索部1501で認識処理を実行しなくて良いため、検索時間を短縮することが可能である。
【0085】
さらに、上述の実施例に基づき、認識性能の向上に用いた実施例について
図16を用いて説明する。各機能ブロックの一部は
図1に示すものと同様であるため、ここでの説明は省略する。映像取得部103で取得した映像は、複数カメラ認識部1600に送られる。本実施例では、複数カメラの映像を同時に処理する場合もあるため、認識部104と区別している。この複数カメラ認識部1600で処理した結果は映像選択部1601に送られる。ここでの映像選択部1601は、前述の表示選択部106と同様の構成である。すなわち、認識結果を取得した上で、認識処理に適した映像を選択することに利用するものである。
【0086】
複数カメラ認識部1600で処理した認識結果は、カメラ100〜102の設置状態によって高い性能が期待できるものとそうでないものが存在する。複数カメラ認識部1600で出力した結果により、映像選択部1601において、数2に示す方法と同様の評価値を算出して認識処理に適した映像を出力し、再び複数カメラ認識部1600にフィードバックすることで認識性能を向上させることが可能である。
【0087】
例えば顔検出を例にした場合、どのカメラが最も顔検出に適したものであるか、認識結果(認識率)によって決定することができる。更に、一つのカメラ画像上であっても、顔検出の良好な結果が期待できる領域とそうでない領域についても算出できる。そのため、本実施例では、複数カメラ認識部1600において、認識に適したカメラ及びカメラ画像内で認識に適した領域を定義することができ、より検出精度の高い監視システムを実現することが期待できる。
【0088】
また人物の検出位置についての精度について考慮する場合、
図4のカメラ画像400では縦方向の位置精度が高く、カメラ画像401では横方向の位置精度が高い。監視エリア上において、複数カメラに跨って観察される移動物体の位置を決定する場合、これらの情報に基づいて出力する結果を選択することもできる。これによって、精度の高い位置検出を行うことが可能である。