(58)【調査した分野】(Int.Cl.,DB名)
前記制御部は、前記ハードウェアフィルターが前記レンズ部を通過した光の可視光線帯域を遮断し、赤外線帯域を透過させる間に前記視程距離の測定周期ごとに前記ハードウェアフィルターが一時的に前記レンズ部を通過した光の赤外線帯域を遮断し、可視光線帯域を透過させるように、前記ハードウェアフィルターのフィルタリング帯域を制御し、
前記視程距離測定部は、前記視程距離の測定周期ごとに前記ハードウェアフィルターによって、前記レンズ部を通過した光の赤外線帯域が遮断され、可視光線帯域が透過された状態で、前記ISPによって生成されたカラー映像のピクセル値に基づいて前記レンズ部前方の視程距離を測定することを特徴とする請求項3に記載の監視カメラ。
【発明の概要】
【発明が解決しようとする課題】
【0005】
本発明が解決しようとする技術的課題は、監視カメラ前方の視程状態の変化に関係なく、常に目標物を識別するのに十分な鮮明度の映像を提供しつつも、監視カメラ前方の視程状態に関係なく、常に正確なオートフォーカシング機能を提供することができる監視カメラを提供することにある。
【0006】
本発明が解決しようとする他の技術的課題は、かような監視カメラが適用された映像監視システムを提供することにある。
また、前記のような技術的課題に限定されず、以下の説明からさらなる技術的課題も導出可能である。
【課題を解決するための手段】
【0007】
本発明の一側面による、視程状態の変化にロバストな複合フィルタリング基盤のオートフォーカシング機能を有する監視カメラは、少なくとも1つのレンズを含むレンズ部と、前記レンズ部前方の現在視程状態によって、前記レンズ部を通過した光の赤外線帯域と可視光線帯域のうち、いずれか1つを遮断し、他の1つを透過させるハードウェアフィルターと、前記ハードウェアフィルターを通過した光を電気的信号に変換するイメージセンサーと、前記イメージセンサーから出力された信号から、前記ハードウェアフィルターから出射された光の帯域によって、カラー映像または白黒映像を生成するISP(Image Signal Processor)と、前記レンズ部前方の現在視程状態によって、前記ISPにより生成されたカラー映像または白黒映像から前記レンズ部前方の視程距離を減少させる要素を除去することにより、前記ISPによって生成されたカラー映像または白黒映像をフィルタリングするソフトウェアフィルターと、前記ソフトウェアフィルターのフィルタリングの有無によって、前記ISPにより生成されたカラー映像の分析を用いて前記レンズ部のオートフォーカシングを行うか、前記ソフトウェアフィルターによってフィルタリングされたカラー映像または黒白映像の分析を用いて前記レンズ部のオートフォーカシングを行うオートフォーカシング部と、前記ハードウェアフィルターのフィルタリング帯域及び前記ソフトウェアフィルターのフィルタリングの有無によって、前記オートフォーカシング部に入力される映像が決定される複数のフィルタリングレベルのうち、前記レンズ部前方の現在視程状態に対応するいずれか1つのフィルタリングレベルによって前記ハードウェアフィルターのフィルタリング帯域と前記ソフトウェアフィルターのフィルタリングの有無を制御する制御部と、を含む。
前記監視カメラは、前記オートフォーカシング部の制御によって、前記レンズ部の少なくとも1つのレンズの位置を移動させるアクチュエータをさらに含み、前記オートフォーカシング部は、前記ISPによって生成されたカラー映像または黒白映像が、前記ソフトウェアフィルターによってフィルタリングされた場合、前記レンズ部の少なくとも1つのレンズと前記イメージセンサーとの距離が変化されるように、前記アクチュエータの動作を制御しつつ、前記ソフトウェアフィルターによってフィルタリングされたカラー映像または黒白映像の鮮明度変化を分析し、前記ソフトウェアフィルターによってフィルタリングされたカラー映像または黒白映像の鮮明度が最も高い瞬間の前記レンズ部の少なくとも1つのレンズの位置を、前記レンズ部のフォーカシング位置に決定する方式でオートフォーカシングを行うことができる。
【0008】
前記複数のフィルタリングレベルは、前記ハードウェアフィルターによって前記レンズ部を通過した光の赤外線帯域が遮断された状態で前記ISPから出力されるカラー映像が直接前記オートフォーカシング部に入力される第1フィルタリングレベル、前記ハードウェアフィルターによって前記レンズ部を通過した光の赤外線帯域が遮断された状態で前記ISPから出力されるカラー映像が前記ソフトウェアフィルターによってフィルタリングされた後に前記オートフォーカシング部に入力される第2フィルタリングレベル、及び前記ハードウェアフィルターによって前記レンズ部を通過した光の可視光線帯域が遮断された状態で前記ISPから出力される白黒映像が前記ソフトウェアフィルターによってフィルタリングされた後に前記オートフォーカシング部に入力される第3フィルタリングレベルを含むことができる。
【0009】
前記第3フィルタリングレベルでは、前記ISPから出力された白黒映像に前記視程距離を減少させる要素を除去するための所定の映像フィルタリングアルゴリズムが適用される方式で前記ソフトウェアフィルターによってフィルタリングされた白黒映像が前記オートフォーカシング部に入力され、前記複数のフィルタリングレベルは、前記ハードウェアフィルターによって前記レンズ部を通過した光の可視光線帯域が遮断された状態で前記ISPから出力された白黒映像の各ピクセルの輝度値が反転され、前記反転された輝度値を有する白黒映像に前記所定の映像フィルタリングアルゴリズムと同じ映像フィルタリングアルゴリズムが適用される方式で前記ソフトウェアフィルターによってフィルタリングされた映像が前記オートフォーカシング部に入力される第4フィルタリングレベルをさらに含むことができる。
【0010】
前記監視カメラは、前記ISPによって生成されたカラー映像または白黒映像のピクセル値に基づいて前記レンズ部前方の視程距離を測定する視程距離測定部をさらに含み、前記制御部は、前記第1フィルタリングレベル、前記第2フィルタリングレベル、及び前記第3フィルタリングレベルのうち、前記視程距離測定部で測定された視程距離によっていずれか1つのフィルタリングレベルを選択し、前記選択されたフィルタリングレベルによって前記ハードウェアフィルターのフィルタリング帯域と前記ソフトウェアフィルターのフィルタリングの有無を制御することができる。
【0011】
前記制御部は、前記ハードウェアフィルターが前記レンズ部を通過した光の可視光線帯域を遮断し、赤外線帯域を透過させる間に前記視程距離の測定周期ごとに前記ハードウェアフィルターが一時的に前記レンズ部を通過した光の赤外線帯域を遮断し、可視光線帯域を透過させるように前記ハードウェアフィルターのフィルタリング帯域を制御し、前記視程距離測定部は、前記視程距離の測定周期ごとに前記ハードウェアフィルターによって前記レンズ部を通過した光の赤外線帯域が遮断されて可視光線帯域が透過された状態で、前記ISPによって生成されたカラー映像のピクセル値に基づいて前記レンズ部前方の視程距離を測定することができる。
【0012】
前記視程距離測定部は、前記ハードウェアフィルターによって前記レンズ部を通過した光の赤外線帯域が遮断され、可視光線帯域が透過された状態では、前記ISPによって生成されたカラー映像のピクセル値に基づいて前記レンズ部前方の視程距離を減少させる要素の濃度を算出し、前記算出された濃度に反比例して前記レンズ部前方の視程距離を設定することにより、前記レンズ部前方の視程距離を測定し、前記ハードウェアフィルターによって前記レンズ部を通過した光の可視光線帯域が遮断され、赤外線帯域が透過された状態では、前記ISPによって生成された白黒映像のピクセル値に基づいて前記レンズ部前方の視程距離を減少させる要素の濃度を算出し、前記算出された濃度に加重値を加算した後、前記加重値が加算された濃度に反比例して前記レンズ部前方の視程距離を設定することにより、前記レンズ部前方の視程距離を測定することができる。
【0013】
前記監視カメンラは、前記ソフトウェアフィルターのフィルタリングの有無により、前記ISPによって生成されたカラー映像を圧縮するか、前記ソフトウェアフィルターによって、フィルタリングされたカラー映像または白黒映像を圧縮する圧縮部をさらに含み、前記制御部は、前記ハードウェアフィルターのフィルタリング帯域及び前記ソフトウェアフィルターのフィルタリングの有無によって、前記圧縮部と前記オートフォーカシング部に入力される映像が決定される複数のフィルタリングレベルのうち、前記レンズ部前方の現在視程状態に対応するいずれか1つのフィルタリングレベルによって、前記ハードウェアフィルターのフィルタリング帯域と前記ソフトウェアフィルターのフィルタリングの有無を制御することができる。
【0014】
本発明の他の側面による映像監視システムは、前記監視カメラを含む少なくとも1つの監視カメラと、前記少なくとも1つの監視カメラからネットワークを介して伝送されたカラー映像または白黒映像をユーザに表示するサーバを含む。
【発明の効果】
【0015】
ハードウェアフィルターがレンズ部前方の現在視程状態によって、レンズ部を通過した光の赤外線帯域と可視光線帯域のうち、いずれか1つを遮断し、他の1つを透過させ、ソフトウェアフィルターがレンズ部前方の現在視程状態により、ISP(Image Signal Processor)によって生成されたカラー映像または白黒映像からレンズ部前方の視程距離を減少させる要素を除去することで、ISPによって生成されたカラー映像または白黒映像をフィルタリングする複合フィルタリング方式に基づく複数のフィルタリングレベルのうち、レンズ部前方の現在視程状態に対応するいずれか1つのフィルタリングレベルによって、ハードウェアフィルターのフィルタリング帯域とソフトウェアフィルターのフィルタリングの有無が制御されることで、監視カメラ前方の視程状態に関係なく、常に目標物を識別するのに十分な鮮明度の映像を提供することができる。また、かような段階的複合フィルタリングを基盤に常に鮮明に提供される映像の分析を用いて、オートフォーカシングを行うことで、監視カメラ前方の視程状態に関係なく、常に正確なオートフォーカシング機能を提供することができ、結果として、監視カメラ前方の視程状態に影響を受けない高画質の映像を提供することができる。
【0016】
特に、複数のフィルタリングレベルは、ハードウェア的な光フィルタリングとソフトウェア的な映像フィルタリングとを複合させたフィルタリング方式を採択することで、ハードウェア的な光フィルタリングの限界とソフトウェア的な映像フィルタリングの限界とを互いに補い、その結果、ハードウェア的な光フィルタリングとソフトウェア的な映像フィルタリングのうち、いずれか1つの方式によって、フィルタリングされた映像よりも非常に優秀な鮮明度と非常に正確なオートフォーカシングが適用された映像を提供するだけではなく、映像フィルタリングの負荷が減少して低性能の監視カメラによっても映像がフィルタリングされる。また、本実施例での4段階のフィルタリングレベルは、監視カメラ側で映像圧縮前の原本映像に適用されるために、映像圧縮及び復元過程での映像損失による映像の鮮明度低下が発生せず、視程距離が非常に短い悪天候や夜間状態でも非常に優秀な鮮明度の映像を提供しつつも、非常に正確なオートフォーカシング機能を提供することができる。
【発明を実施するための形態】
【0018】
以下、添付図面に基づいて本発明の実施例を詳しく説明する。下記実施例は、前方の視程状態に関係なく、常に目標物を識別するのに十分な鮮明度の映像を提供しつつ前方の視程状態に関係なく、常に正確なオートフォーカシング機能を提供するように、視程状態の変化にロバストな複合フィルタリング方式の監視カメラ及びそれが適用された映像監視システムに関わるものであって、以下では、視程状態の変化にロバストな複合フィルタリング方式の監視カメラを「監視カメラ」と略称する。また、「視程(visibility)」とは、大気の混濁度を示す尺度であり、「視程距離」とは、正常な視力を有する者が水平方向に、ある目標物を認識することができる最大距離を意味し、「映像」という用語は、本発明の実施例が属する技術分野で通用されるところによって、モニタなどに表示された映像、そのような映像を示す二進データなどを包括する意味として使用する。
【0019】
図1は、本発明の一実施例による監視カメラ10の構成図である。
図1を参照すれば、本実施例による監視カメラ10は、レンズ部11、アクチュエータ111、ハードウェアフィルター12、イメージセンサー13、ISP(Image Signal Processor)14、ソフトウェアフィルター15、スイッチ151、圧縮部16、通信部17、オートフォーカシング部18、視程距離測定部19、及び制御部110で構成される。本実施例による監視カメラ10は、前記構成要素以外に、ハウジング、メモリなどをさらに備えてもよいが、本実施例の特徴が不明になることを防止するために、本実施例の特徴と関係ないカメラの一般的な構成要素についての説明は、省略する。前記構成要素の一部は、マイクロプロセッサー、コンピュータプログラムが保存されたメモリなどの組合せによって具現できる。
【0020】
レンズ部11は、少なくとも1つのレンズで構成される。一般に、監視カメラは、移動する物体を捕捉すれば、目標物体を拡大して撮影するズームイン機能と全体撮影面積を広げるズームアウト機能を支援し、かようなズームイン/ズームアウト機能を可能にするために、レンズ部11は、複数個のレンズで構成されることもある。例えば、レンズ部11は、円筒状鏡筒に内蔵される凸レンズ、凹レンズ、及び凸レンズで構成される。レンズ部11が1つのレンズで構成された場合、その1つのレンズの位置を移動させることで、レンズ部11の焦点位置を変更することができる。レンズ部11が複数個のレンズで構成された場合、それらのうち、いずれか1つまたは複数個のレンズの位置を移動させることで、レンズ部11の焦点位置を変更することができるが、かようなレンズをフォーカスレンズと称する。レンズ部11は、本実施例の特徴とは関連性がないので、本実施例の特徴が不明になることを防止するために、これ以上の詳細な説明は、省略する。
【0021】
アクチュエータ111は、オートフォーカシング部18の制御によって、レンズ部11の少なくとも1つのレンズの位置を移動させる。レンズ部11が1つのレンズで構成されるか、レンズ部11の複数個のレンズのうち、フォーカスレンズが1つのレンズで構成された場合、アクチュエータ111は、オートフォーカシング部18の制御によって、1つのレンズの位置を移動させる。レンズ部11のフォーカスレンズが複数個のレンズで構成された場合、アクチュエータ111は、オートフォーカシング部18の制御によって、フォーカスレンズに該当する複数個のレンズの位置を移動させる。アクチュエータ111は、レンズ部11の少なくとも1つのレンズの位置を移動させるための動力を提供するモータ、モータの回転運動をレンズの直線運動に変換するための手段などで構成されてもよい。
【0022】
ハードウェアフィルター12は、レンズ部11前方の現在視程状態によって、レンズ部11を通過した光の赤外線(infrared ray)帯域と可視光線(visible ray)帯域のうち、いずれか1つを遮断し、他の1つを透過させる。天気が晴れて視程状態が良好な場合、ハードウェアフィルター12は、レンズ部11を通過した光の赤外線帯域を遮断し、可視光線帯域を透過させる。夜間や悪天候によって、視程状態が不良な場合、ハードウェアフィルター12は、レンズ部11を通過した光の可視光線帯域を遮断し、赤外線帯域を透過させる。ハードウェアフィルター12によって、赤外線帯域がフィルタリングされ、可視光線帯域が透過されることにより、ハードウェアフィルター12から出射される可視光線帯域の光は、カラー映像の生成に使用され、ハードウェアフィルター12によって、可視光線帯域がフィルタリングされ、赤外線帯域が透過されることにより、ハードウェアフィルター12から出射される赤外線帯域の光は、白黒映像の生成に使用される。
【0023】
かようなハードウェアフィルター12は、光の特定帯域のみを透過させる光学フィルターの一種であり、様々な種類の誘電体(dielectric)を積層することで具現され、「誘電体フィルター」または「誘電体レンズ」とも称される。ハードウェアフィルター12は、四角平板状からなり、これに入射された光の赤外線帯域を遮断し、可視光線帯域を透過させる赤外線遮断領域と、これに入射された光の可視光線帯域を遮断し、赤外線帯域を透過させる領域で構成される。ハードウェアフィルター12は、制御部110の制御によって移動され、レンズ部11後方に赤外線遮断領域と可視光線遮断領域のうち、いずれか1つの領域が位置する。ハードウェアフィルター12は、四角平板状以外に、レンズの形態と類似した2枚の円板が接合された形態など多様な形態に形成されてもよい。
【0024】
レンズ部11後方にハードウェアフィルター12の赤外線遮断領域が位置すれば、ハードウェアフィルター12は、レンズ部11を通過した光の赤外線帯域を遮断し、可視光線帯域を透過させる。レンズ部11後方にハードウェアフィルター12の可視光線遮断領域が位置すれば、ハードウェアフィルター12は、レンズ部11を通過した光の可視光線帯域を遮断し、赤外線帯域を透過させる。かようなハードウェアフィルター12の移動のための駆動系は、非常に簡単な構造で具現されるので、非常に低廉な費用で経年変化による性能劣化がほとんど発生しない構造であって、レンズ部11を通過した光の赤外線帯域と可視光線帯域のうち、いずれか1つのみを選択的に透過させることができる。
【0025】
イメージセンサー13は、ハードウェアフィルター12を通過した光を電気的信号に変換する。イメージセンサー13は、CCD(Charge Coupled Device)センサーとCMOS(Complementary Metal−Oxide Semiconductor)センサーに分類される。かようなイメージセンサー13は、赤外線と可視光線にいずれも反応し、それを電気的信号に変換する。イメージセンサー13から出力された信号からカラー映像を生成する場合、イメージセンサー13に照射された赤外線は、カラー映像の画質を落とす要因として作用し、イメージセンサー13から出力された信号から白黒映像が生成される場合、イメージセンサー13に照射された可視光線は、白黒映像の画質を落とす要因として作用する。かような理由で、上述したように、ハードウェアフィルター12は、レンズ部11前方の視程状態によって、レンズ部11を通過した光の赤外線帯域と可視光線帯域のうち、いずれか1つを遮断し、他の1つを透過させる。
【0026】
ISP14は、イメージセンサー13から出力された信号から、ハードウェアフィルター12から出射された光の帯域によって、カラー映像または白黒映像を生成する。ハードウェアフィルター12によって、赤外線帯域がフィルタリングされ、可視光線帯域が透過されることにより、ハードウェアフィルター12から可視光線帯域の光が出射された場合、ISP14はイメージセンサー13から出力された信号からカラー映像を生成し、ハードウェアフィルター12によって、可視光線帯域がフィルタリングされ、赤外線帯域が透過されることにより、ハードウェアフィルター12から赤外線帯域の光が出射された場合、ISP14は、イメージセンサー13から出力された信号から白黒映像を生成する。ISP14は、基本的にイメージセンサー13から出力された信号のベイヤーパターン映像(Bayer pattern image)の各ピクセル値を補間(interpolate)することで、LVDS(Low Voltage Differential Signaling)形式のカラー映像または白黒映像を生成する。ISP14は、追加的に、かように生成されたカラー映像または白黒映像のノイズを除去し、逆光を補正し、色相を自然色に近く調整するなどの映像改善処理が可能である。
【0027】
ソフトウェアフィルター15は、レンズ部11前方の現在視程状態によって、ISP14によって生成されたカラー映像または白黒映像からレンズ部11前方の視程距離を減少させる要素を除去することで、ISP14によって生成されたカラー映像または白黒映像をフィルタリングする。レンズ部11前方の視程距離を減少させる要素としては、代表的に霧が挙げられ、それ以外にも、黄砂、降雨、降雪、夜間などが挙げられる。空気中に分布した霧粒子は、光の散乱を起こして映像を歪曲させる。以下では、かように距離を減少させる要素を簡略に「視程障害要素」とも称する。さらに詳細に説明すれば、ソフトウェアフィルター15は、レンズ部11前方の現在視程状態によって、ISP14によって生成されたカラー映像または白黒映像にレンズ部11前方の視程距離を減少させる要素を除去するための所定の映像フィルタリングアルゴリズムを適用することで、ISP14によって生成されたカラー映像または白黒映像をフィルタリングする。
【0028】
レンズ部11前方の視程距離を減少させる要素を除去するための所定の映像フィルタリングアルゴリズムの例としては、DCP(Dark Channel Prior)アルゴリズムを有することができる。DCPアルゴリズムは、霧のない正常な領域には、必ずRGB(Red Green Blue)全チャネルの最小値が「0」である値が存在するという統計的特性を用いて霧の濃度を予測し、かように予測された霧の濃度によって、映像から霧除去を行うアルゴリズムである。すなわち、ソフトウェアフィルター15は、レンズ部11前方の現在視程状態によって、ISP14によって生成されたカラー映像または白黒映像に、かようなDCPアルゴリズムを適用することで、ISP14によって生成されたカラー映像または白黒映像をフィルタリングすることができる。
【0029】
映像の改善効果をさらに向上させるために、DCPアルゴリズム以外に他の映像フィルタリングアルゴリズム、例えば、ヒストグラム平滑化(histogram equalization)アルゴリズムをさらに適用して、映像の鮮明度をさらに向上させることができる。ヒストグラム平滑化アルゴリズムは、映像のピクセルの明度値の頻度を棒グラフの形で示したヒストグラムを平滑化するアルゴリズムであって、映像の輝度分布を再分配して、明暗対比を最大化することで、映像の鮮明度が向上する。すなわち、ソフトウェアフィルター15は、レンズ部11前方の現在視程状態によって、ISP14によって生成されたカラー映像または白黒映像にDCPアルゴリズムとヒストグラム平滑化アルゴリズムを適用することで、ISP14によって生成されたカラー映像または白黒映像をフィルタリングすることができる。DCPアルゴリズムとヒストグラム平滑化アルゴリズムは、本実施例が属する技術分野で通常の知識を有する者に公知された技術なので、本実施例の特徴が不明になることを防止するために、これに係るさらに詳細な説明は、省略する。
【0030】
大韓民国登録特許第10−1426298号「霧除去率を高めた映像補正装置及び方法」、大韓民国登録特許第10−1534646号「映像から霧を除去するための映像処理装置及び方法」などの従来技術は、デジタルカメラから提供された映像に多様な霧除去アルゴリズムを適用した。一般的に、監視カメラ10のようなデジタルカメラは、映像を圧縮してPC(Personal Computer)のように映像表示機能を有する装置に伝送する。かような装置は、デジタルカメラによって圧縮された映像データを復元するが、この過程で映像損失が発生する。その結果、いくら優秀な霧除去アルゴリズムを適用するにしても、映像改善には限界があり、損失された映像から、ある程度の画質の映像を得るためには、プロセッサとメモリに非常に大きな負荷を誘発する高容量アルゴリズムが要求される。PCなどに比べて、非常に低い性能のデジタルカメラによっては、高容量アルゴリズムを円滑に実行することができない。
【0031】
本実施例において、ソフトウェアフィルター15は、映像データの圧縮前にISP14によって生成されたLVDS形式の無損失映像にDCPアルゴリズム、ヒストグラム平滑化アルゴリズムのような映像フィルタリングアルゴリズムを適用することで、映像フィルタリングアルゴリズムが小容量ファイルの場合にも、映像改善の効果が非常に卓越である。ISP14機能を行うマイクロプロセッサーがソフトウェアフィルター15の機能も共に行えるが、マイクロプロセッサーの性能限界によって、ソフトウェアフィルター15は、別途のDSP(Digital Signal Processor)として具現されることが望ましい。後述するように、ソフトウェアフィルター15は、複数のフィルタリングレベルのうち、レンズ部11前方の現在視程状態によって選択されたいずれか1つのフィルタリングレベルによって、ISP14によって生成されたLVDS形式の無損失映像に常に同じ映像フィルタリングアルゴリズムを適用する。これにより、ソフトウェアフィルター15は、比較的低い性能のDSPでも具現可能である。
【0032】
圧縮部16は、ISP14によって生成されたカラー映像または白黒映像に対するソフトウェアフィルター15のフィルタリングの有無によって、ISP14によって生成されたカラー映像を圧縮するか、ソフトウェアフィルター15によって、フィルタリングされたカラー映像または白黒映像を圧縮する。ISP14によって生成されたカラー映像がソフトウェアフィルター15によってフィルタリングされずに直接圧縮部16に入力された場合、圧縮部16は、ISP14によって生成されたカラー映像を圧縮する。ISP14によって生成されたカラー映像または白黒映像がソフトウェアフィルター15によってフィルタリングされた場合、圧縮部16は、ソフトウェアフィルター15によってフィルタリングされたカラー映像または白黒映像を圧縮する。圧縮部16は、H.264、HEVC(High Efficiency Video Codec)など多様なコデックスによって、ソフトウェアフィルター15によってフィルタリングされたカラー映像または白黒映像を圧縮することができる。
【0033】
通信部17は、圧縮部16によって圧縮された映像をユーザに監視カメラ10によって撮影された映像を表示する装置、例えば、管制センターのコンピュータに伝送する。かような映像表示装置と監視カメラ10が遠く離れている場合、インターネット、LANのようなネットワークを介して互いに通信する。通信部17は、圧縮部16によって圧縮された映像をTCP/IP(Transmission Control Protocol/Internet Protocol)によってネットワークを介して映像表示装置に伝送することができる。
【0034】
オートフォーカシング部18は、ISP14によって生成されたカラー映像または白黒映像に対するソフトウェアフィルター15のフィルタリングの有無によりISP14によって生成されたカラー映像の分析を用いてレンズ部11のオートフォーカシングを行うか、ソフトウェアフィルター15によってフィルタリングされたカラー映像または白黒映像の分析を用いてレンズ部11のオートフォーカシングを行う。ISP14によって生成されたカラー映像がソフトウェアフィルター15によってフィルタリングされず、直接オートフォーカシング部18に入力された場合、オートフォーカシング部18は、レンズ部11の少なくとも1つのレンズとイメージセンサー13との距離が変化されるように、アクチュエータ111の動作を制御しつつ、ISP14によって生成されたカラー映像の鮮明度変化を分析し、ISP14によって生成されたカラー映像の鮮明度が最も高い瞬間のレンズ部11の少なくとも1つのレンズの位置をレンズ部11のフォーカシング位置に決定する方式でオートフォーカシングを行う。
【0035】
例えば、オートフォーカシング部18は、レンズ部11の少なくとも1つのレンズとイメージセンサー13との距離が変化されるように、アクチュエータ111の動作を制御しつつ、レンズ部11の少なくとも1つのレンズが単位距離だけ移動する度にISP14によって生成されたカラー映像を入力され、このように入力されたカラー映像に対する離散ウェーブレット変換(discreet wavelet transform)を行い、離散ウェーブレット変換の結果値の低周波数成分と高周波数成分のうち、高周波数成分の大きさが最大となる瞬間のレンズ部11の少なくとも1つのレンズの位置をレンズ部11のフォーカシング位置に決定する方式でオートフォーカシングを行う。離散ウェーブレット変換の結果値の高周波数成分が大きいほど映像鮮明度が高くなるので、離散ウェーブレット変換の結果値の高周波数成分の大きさが最大となる瞬間のレンズ部11の少なくとも1つのレンズの位置がレンズ部11の焦点が最も正確に合わせられた位置となる。
【0036】
ISP14によって生成されたカラー映像または白黒映像がソフトウェアフィルター15によってフィルタリングされた場合、オートフォーカシング部18は、レンズ部11の少なくとも1つのレンズとイメージセンサー13との距離が変化されるように、アクチュエータ111の動作を制御しつつ、ソフトウェアフィルター15によってフィルタリングされたカラー映像または白黒映像の鮮明度変化を分析し、ソフトウェアフィルター15によってフィルタリングされたカラー映像または白黒映像の鮮明度が最も高い瞬間のレンズ部11の少なくとも1つのレンズの位置をレンズ部11のフォーカシング位置に決定する方式でオートフォーカシングを行う。
【0037】
例えば、オートフォーカシング部18は、レンズ部11の少なくとも1つのレンズとイメージセンサー13との距離が変化されるように、アクチュエータ111の動作を制御しつつ、レンズ部11の少なくとも1つのレンズが単位距離だけ移動する度に、ソフトウェアフィルター15によってフィルタリングされたカラー映像または白黒映像が入力され、このように入力されたカラー映像または白黒映像に対する離散ウェーブレット変換を行い、離散ウェーブレット変換の結果値の低周波数成分と高周波数成分のうち、高周波数成分の大きさが最大となる瞬間のレンズ部11の少なくとも1つのレンズの位置をレンズ部11のフォーカシング位置に決定する方式でオートフォーカシングを行う。オートフォーカシング部18は、前記のような方式以外にも手動方式の一種であるコントラスト検出方式、位相差検出方式など多様な方式を用いてオートフォーカシングを行ってもよい。
【0038】
視程距離測定部19は、ISP14によって生成されたカラー映像または白黒映像のピクセル値に基づいてレンズ部11前方の視程距離を測定する。大気成分を分析して視程距離を自動で算出する装備を用いてレンズ部11前方の視程距離を測定することもできるが、かような装備は、非常に高価である。かような理由で、一般的に多様な地域に分布されて設けられた監視カメラを地域別にまとめ、各地域ごとに1台ずつ設けられる。その結果、各監視カメラ別に視程距離を正確に測定することができないという問題点がある。かような問題点を解決するために、監視カメラの出力映像に基づいてソフトウェア的に視程距離を測定する技術が登場した。かような従来技術の例としては、大韓民国登録特許第10−0715140号「視程測定装置及びその方法」、大韓民国登録特許第10−1032160号「カメラを用いた道路視程測定システム及びその方法」などが挙げられる。
【0039】
従来技術は、デジタルカメラから提供された映像に基づいて視程を測定する。通常、監視カメラ10のようなデジタルカメラは、映像を圧縮して伝送するからデジタルカメラによって圧縮された映像データを復元するが、この過程で映像損失が発生する。その結果、優秀な視程距離測定アルゴリズムを適用するにしても、損失された映像から算出された視程距離の正確度には限界があった。本実施例において、視程距離測定部19は、映像データの圧縮前にISP14によって生成されたLVDS形式の無損失映像のピクセル値に基づいてレンズ部11前方の視程距離を測定するので、従来技術と同じアルゴリズムを用いるという前提の下にレンズ部11前方の視程距離は、従来技術に比べて、さらに正確に測定することができる。視程距離測定部19は、ソフトウェアフィルター15と同様に別途のDSPとして具現されることが望ましい。
【0040】
図2は、
図1に図示した監視カメラ10の段階的フィルタリング方式を示す図面である。
図2を参照すれば、レンズ部11前方の視程状態は、晴れ状態、煙霧状態、濃霧状態、及び夜間状態に区分される。本実施例による監視カメラ10は、かように区分された4段階の視程状態に対応する4段階のフィルタリングレベルにレンズ部11前方の現在視程状態によって映像を段階的にフィルタリングすることでレンズ部11前方の視程状態が変化しても、常に目標物を識別するのに十分な鮮明度の映像を提供することができる。特に、本実施例における4段階のフィルタリングレベルは、ハードウェア的な光フィルタリングとソフトウェア的な映像フィルタリングを複合させたフィルタリング方式を採択することで、ハードウェア的な光フィルタリングの限界とソフトウェア的な映像フィルタリングの限界とを互いに補い、その結果、ハードウェア的な光フィルタリングとソフトウェア的な映像フィルタリングのうち、いずれか1つの方式によって、フィルタリングされた映像よりも非常に優秀な鮮明度の映像を提供することができる。
【0041】
上述したように、本実施例は、ISP14によって生成されたカラー映像または白黒映像に対するソフトウェアフィルター15のフィルタリングの有無によってISP14により生成されたカラー映像の分析を用いてレンズ部11のオートフォーカシングを行うか、ソフトウェアフィルター15によってフィルタリングされたカラー映像または白黒映像の分析を用いてレンズ部11のオートフォーカシングを行う。このように本実施例は、上述したような段階的複合フィルタリング方式を基盤に監視カメラ前方の視程状態に関係なく、常に鮮明に提供されるカラー映像または白黒映像の分析を用いてオートフォーカシングを行う。映像の鮮明度が高いほど被写体の分別が容易になってオートフォーカシングの正確度が上昇するので、本実施例は、監視カメラ前方の視程状態に関係なく、常に正確なオートフォーカシング機能を提供することができる。オートフォーカシングの正確度が高いほど映像の画質が向上するので、結果として、監視カメラ前方の視程状態に影響を受けない高画質の映像を提供することができる。
【0042】
また、本実施例は、上述したような複合フィルタリング方式を基盤に監視カメラ前方の視程状態に関係なく、常に鮮明に提供されるカラー映像または白黒映像の分析を用いて一種の受動方式でオートフォーカシングを行う。すなわち、常に鮮明に提供されるカラー映像または白黒映像の鮮明度変化を分析してカラー映像または白黒映像の鮮明度が最も高い瞬間のレンズ部11の少なくとも1つのレンズの位置をレンズ部11のフォーカシング位置に決定する一種の受動方式でオートフォーカシングを行うので、被写体との距離測定のために超音波や赤外線を放出する能動方式の短所を有していない。したがって、本実施例は、監視カメラ前方の視程状態が不良な場合にも焦点をよく合わせるだけではなく、カメラと被写体との間に窓のような障害物がある場合にも、焦点をよく合わせることができる。
【0043】
上述したような特許文献を含む従来技術のほとんどは、映像内の視程障害要素の除去効果を高めるために、非常に複雑なアルゴリズムを採用しており、監視カメラ10のようにプロセッサの性能が劣る装置には適用できないという限界があった。本実施例は、監視カメラ10前方の視程状態によって、段階的に映像フィルタリングの負荷を最小にしつつも、視程障害要素の除去効果を極大化することができるハードウェア的な光フィルタリングとソフトウェア的な映像フィルタリングの最適の組合せに該当する4段階のフィルタリングレベルの複合フィルタリング方式を採択することで、映像フィルタリングの負荷が減少し、低性能の監視カメラによっても、映像がフィルタリングされ得る。例えば、霧など視程障害要素の濃度が高い場合、映像フィルタリングの負荷が増加するが、その際には、白黒映像を生成することにより、映像フィルタリングの負荷が減少する。
【0044】
また、本実施例における4段階のフィルタリングレベルは、監視カメラ10側で映像圧縮前の原本映像に適用されるので、映像圧縮及び復元過程における映像損失による映像の鮮明度低下が発生せず、視程距離が非常に短い悪天候や夜間状態でも、非常に優秀な鮮明度の映像を提供することができる。また、視程距離が非常に短い悪天候や夜間状態において映像の鮮明度が向上しただけオートフォーカシングの正確度も向上するので、視程距離が非常に短い悪天候や夜間状態でも非常に正確なオートフォーカシング機能を提供することができる。
【0045】
制御部110は、ハードウェアフィルター12のフィルタリング帯域及びソフトウェアフィルター15のフィルタリングの有無によって互いに異なって圧縮部16とオートフォーカシング18に入力される映像が決定される複数のフィルタリングレベルのうち、レンズ部11前方の現在視程状態に対応するいずれか1つのフィルタリングレベルによって、ハードウェアフィルター12のフィルタリング帯域とソフトウェアフィルター15のフィルタリングの有無を制御する。上述したように、複数のフィルタリングレベルは、4段階の視程状態に対応する第1フィルタリングレベル、第2フィルタリングレベル、第3フィルタリングレベル、及び第4フィルタリングレベルに区分され、レンズ部11前方の視程状態の変化に大きく影響を受けず、常に目標物を識別するのに十分な鮮明度の映像を提供するように各フィルタリングレベルごとにハードウェアフィルター12のフィルタリング帯域及びソフトウェアフィルター15のフィルタリングの有無のうち、少なくとも1つが異なって選択される。すなわち、制御部110は、第1フィルタリングレベル、第2フィルタリングレベル、第3フィルタリングレベル、第4フィルタリングレベルのうち、視程距離測定部19によって測定された視程距離によっていずれか1つのフィルタリングレベルを選択し、このように選択されたフィルタリングレベルによって、ハードウェアフィルター12のフィルタリング帯域とソフトウェアフィルター15のフィルタリングの有無を制御する。
【0046】
さらに詳細には、制御部110は、視程距離測定部19によって測定された視程距離によってレンズ部11後方にハードウェアフィルター12の赤外線遮断領域と可視光線遮断領域のうち、いずれか1つの領域が位置されるように、ハードウェアフィルター12の移動を制御することで、ハードウェアフィルター12のフィルタリング帯域を制御することができる。また、制御部110は、視程距離測定部19によって測定された視程距離によってISP14の映像出力端が圧縮部16の映像入力端とオートフォーカシング部18の映像入力端に連結されるか、ソフトウェアフィルター15の映像入力端に連結されるようにスィッチ151のスイッチングを制御することで、ソフトウェアフィルター15のフィルタリングの有無を制御することができる。スィッチ151の3つの接点のうち、信号が流入される接点には、ISP14の映像出力端が連結されており、信号が出力される2つの接点のうち、いずれか1つには、圧縮部16の映像入力端とオートフォーカシング部18の映像入力端が連結されており、他の1つには、ソフトウェアフィルター15の映像入力端とが連結されている。かようなスィッチ151は、スイッチングトランジスタの組合せで具現され、ソフトウェアフィルター15に内蔵されてもよく、ISP14とソフトウェアフィルター15との間に設けられてもよい。
【0047】
図3は、
図1に図示した監視カメラ10の第1フィルタリングレベルのフィルタリングの様子を示す図面である。本実施例において、「晴れ状態」とは、天気が晴れて霧、黄砂、降雨、降雪などによる映像歪曲がほとんどなく、監視カメラ10によって撮影された映像から侵入者など目標物の識別が容易である状態を意味し、レンズ部11前方の視程距離が「a」メートル以上である。例えば、「晴れ状態」は、レンズ部11前方の視程距離が1000メートル以上であり得る。かような「晴れ状態」では、複数のフィルタリングレベルのうち、第1フィルタリングレベルによってハードウェア的な光フィルタリングとソフトウェア的な映像フィルタリングが行われる。「晴れ状態」では、レンズ部11を通過した可視光線帯域の光から、何らのフィルタリング過程もなしに目標物を識別するのに十分な鮮明度の映像が生成される。また、ISP14から出力された映像には、霧のような視程障害要素がほとんどないので、ISP14から出力された映像がソフトウェアフィルター15によってフィルタリングされる場合、むしろ映像が歪曲される恐れがある。
【0048】
本実施例において、第1フィルタリングレベルは「晴れ状態」から監視カメラ10によってレンズ部11を通過した光から鮮明な映像が生成可能なように、ハードウェアフィルター12によってレンズ部11を通過した光の赤外線帯域が遮断され、可視光線帯域が透過された状態でISP14から出力されるカラー映像が直接圧縮部16とオートフォーカシング部18に入力されるフィルタリング方式を意味する。すなわち、制御部110は、視程距離測定部19によって測定された視程距離が「晴れ状態」に該当する「a」メートル以上の区間に属すれば、複数のフィルタリングレベルのうち、「晴れ状態」に適用される第1フィルタリングレベルを選択し、第1フィルタリングレベルによってレンズ部11後方にハードウェアフィルター12の赤外線遮断領域が位置するように、ハードウェアフィルター12の移動を制御すると共に、ISP14の映像出力端が圧縮部16の映像入力端とオートフォーカシング部18の映像入力端に連結されるようにスィッチ151のスイッチングを制御する。これにより、第1フィルタリングレベルにおいて、ハードウェアフィルター12は、レンズ部11を通過した光の赤外線帯域を遮断し、可視光線帯域を透過させ、ソフトウェアフィルター15は、ISP14から出力されたカラー映像をフィルタリングせず、ISP14から出力されたカラー映像は、そのまま圧縮部16とオートフォーカシング部18に出力される。
【0049】
図4は、
図1に図示した監視カメラ10の第2フィルタリングレベルのフィルタリングの様子を示す図面である。本実施例において、「煙霧状態」とは、レンズ部11前方に薄霧がかかって視程距離が減少した状態で、霧以外にも黄砂、降雨、降雪などによって薄霧がかかった程度で視程距離が減少した状態を意味し、レンズ部11前方の視程距離が「a」メートル未満であり、「b」メートル以上の状態である。例えば、「煙霧状態」は、レンズ部11前方の視程距離が1000メートル未満であり、300メートル以上の状態である。かような「煙霧状態」では、複数のフィルタリングレベルのうち、第2フィルタリングレベルによってハードウェア的な光フィルタリングとソフトウェア的な映像フィルタリングが行われる。「煙霧状態」では、レンズ部11を通過した可視光線帯域の光から、何らのフィルタリング過程なしに映像が生成する場合、薄霧など低濃度の視程障害要素が含まれた映像が生成される。その場合、レンズ部11から出射された可視光線帯域の光から生成されたカラー映像にDCPアルゴリズムのような映像フィルタリングアルゴリズムが適用されれば、目標物を識別するのに十分な鮮明度の映像が生成される。
【0050】
本実施例において、第2フィルタリングレベルは、「煙霧状態」で監視カメラ10によってレンズ部11を通過した光から鮮明な映像が生成されるように、ハードウェアフィルター12によってレンズ部11を通過した光の赤外線帯域が遮断され、可視光線帯域が透過された状態でISP14から出力されるカラー映像がソフトウェアフィルター15によってフィルタリングされた後、圧縮部16とオートフォーカシング部18に入力されるフィルタリング方式である。すなわち、制御部110は、視程距離測定部19によって測定された視程距離が「煙霧状態」に該当する「a」メートル未満であり、「b」メートル以上である区間に属すれば、複数のフィルタリングレベルのうち、「煙霧状態」に適用される第2フィルタリングレベルを選択し、第2フィルタリングレベルによってレンズ部11後方にハードウェアフィルター12の赤外線遮断領域が位置するように、ハードウェアフィルター12の移動を制御すると共に、ISP14の映像出力端がソフトウェアフィルター15の映像入力端に連結されるようにスィッチ151のスイッチングを制御する。これにより、第2フィルタリングレベルでハードウェアフィルター12は、レンズ部11を通過した光の赤外線帯域を遮断し、可視光線帯域を透過させ、ソフトウェアフィルター15は、ISP14から出力されたカラー映像をフィルタリングして圧縮部16とオートフォーカシング部18に出力する。
【0051】
図5は、
図1に図示した監視カメラ10の第3フィルタリングレベル及び第4フィルタリングレベルのフィルタリングの様子を示す図面である。本実施例において、「濃霧状態」とは、レンズ部11前方に濃い霧がかかって視程距離が減少した状態で、霧以外にも黄砂、降雨、降雪などによって濃い霧がかかった程度に視程距離が減少した状態を意味し、レンズ部11前方の視程距離が「b」メートル未満であり、「c」メートル以上の状態である。例えば、「濃霧状態」は、レンズ部11前方の視程距離が300メートル未満であり、10メートル以上であり得る。かような「濃霧状態」では、複数のフィルタリングレベルのうち、第3フィルタリングレベルによってハードウェア的な光フィルタリングとソフトウェア的な映像フィルタリングが行われる。「濃霧状態」では、レンズ部11を通過した可視光線帯域の光から何らのフィルタリング過程なしに映像が生成される場合、濃い霧など高濃度の視程障害要素が含まれた映像が生成される。視程障害要素の濃度が高い場合、視程障害要素による映像歪曲が非常にひどくて、ISP14から出力されたカラー映像がソフトウェアフィルター15によってフィルタリングされても、目標物を識別するのに十分な鮮明度の映像を生成することができない。
【0052】
本実施例において、「夜間状態」とは、夜間に太陽光が消えることにより、レンズ部11前方が暗くなって視程距離が減少した状態であり、夜間時間帯以外にも、昼間時間帯に悪天候によって夜間に太陽光が消えた程度に視程距離が減少した状態を意味し、レンズ部11前方の視程距離が「c」メートル未満の状態である。例えば、「夜間状態」は、レンズ部11前方の視程距離が10メートル未満の状態である。かような「夜間状態」では、複数のフィルタリングレベルのうち、第4フィルタリングレベルによってハードウェア的な光フィルタリングとソフトウェア的な映像フィルタリングが行われる。「夜間状態」では、レンズ部11を通過した可視光線帯域の光から何らのフィルタリング過程なしに映像が生成される場合、映像内の物体間の区別が不可能な暗い映像が生成される。かような暗い映像の場合、映像内の物体の輪郭が明確ではなく、ISP14から出力されたカラー映像がソフトウェアフィルター15によってフィルタリングされても、目標物を識別するのに十分な鮮明度の映像が生成されない。
【0053】
物体は、その温度によって多様な波長の赤外線を放射し、赤外線は、可視光線に比べて霧など視程障害要素によって散乱されないので、物体から放射された赤外線は、大部分霧など視程障害要素を透過してレンズ部11に到逹する。かような理由で、「濃霧状態」及び「夜間状態」では、レンズ部11から出射された可視光線帯域の光から生成されたカラー映像の画質よりは、レンズ部11から出射された赤外線帯域の光から生成された白黒映像の画質がさらに優秀である。また、レンズ部11から出射された赤外線帯域の光から生成された白黒映像にDCPアルゴリズムのような映像フィルタリングアルゴリズムが適用される場合、映像の画質がさらに改善される。これにより、本実施例において、第3フィルタリングレベル及び第4フィルタリングレベルは、基本的にハードウェアフィルター12によって、レンズ部11を通過した光の可視光線帯域が遮断され、赤外線帯域が透過された状態でISP14から出力された白黒映像がソフトウェアフィルター15によってフィルタリングされた後、圧縮部16とオートフォーカシング部18に入力されるフィルタリング方式である。
【0054】
「濃霧状態」では、ISP14から出力された白黒映像にDCPアルゴリズムのような映像フィルタリングアルゴリズムが適用されれば、目標物を識別するのに十分な鮮明度の映像が生成されるが、「夜間状態」では、ISP14から出力された白黒映像にかような映像フィルタリングアルゴリズムが適用されても、白黒映像自体の輝度が過度に暗くて、目標物を識別するのに十分な鮮明度の映像が生成されない場合が多い。これにより、本実施例は、「夜間状態」でISP14から出力された白黒映像の輝度を増加させるために、ISP14から出力された白黒映像の各ピクセルの輝度値を反転させる。ソフトウェアフィルター15は、最大輝度値からISP14から出力された白黒映像の各ピクセルの輝度値を減算し、その減算結果をISP14から出力された白黒映像の各ピクセルの輝度値に設定することで、ISP14から出力された白黒映像の各ピクセルの輝度値を反転させることができる。各ピクセルの輝度値の全体範囲が0〜255レベルに表現された場合、最大輝度値は255となりうる。
【0055】
本実施例において、第3フィルタリングレベルは、「濃霧状態」で監視カメラ10によってレンズ部11を通過した光から鮮明な映像が生成されるように、ハードウェアフィルター12によって、レンズ部11を通過した光の可視光線帯域が遮断され、赤外線帯域が透過された状態でISP14から出力された白黒映像にDCPアルゴリズムのような映像フィルタリングアルゴリズムが適用される方式でソフトウェアフィルター15によってフィルタリングされた白黒映像が圧縮部16とオートフォーカシング部18に入力されるフィルタリング方式である。すなわち、制御部110は、視程距離測定部19によって測定された視程距離が「濃霧状態」に該当する「b」メートル未満であり、「c」メートル以上の区間に属すれば、複数のフィルタリングレベルのうち、「濃霧状態」に適用される第3フィルタリングレベルを選択し、第3フィルタリングレベルによってレンズ部11後方にハードウェアフィルター12の可視光線遮断領域が位置するようにハードウェアフィルター12の移動を制御し、ISP14の映像出力端がソフトウェアフィルター15の映像入力端に連結されるようにスィッチ151のスイッチングを制御し、ISP14から出力された白黒映像が反転されない状態で映像フィルタリングアルゴリズムが適用されるようにソフトウェアフィルター15の動作を制御する。
【0056】
本実施例において、第4フィルタリングレベルは、「夜間状態」で監視カメラ10によってレンズ部11を通過した光から鮮明な映像が生成されるように、ハードウェアフィルター12によってレンズ部11を通過した光の可視光線帯域が遮断され、赤外線帯域が透過された状態でISP14から出力された白黒映像の各ピクセルの輝度値が反転され、このように反転された輝度値を有する白黒映像にDCPアルゴリズムのような映像フィルタリングアルゴリズムが適用される方式でソフトウェアフィルター15によってフィルタリングされた白黒映像が圧縮部16とオートフォーカシング部18に入力されるフィルタリング方式である。映像の全ピクセルに対する映像フィルタリングアルゴリズムの適用が完了した後には、白黒映像の各ピクセルの輝度値が再び反転されて圧縮部16とオートフォーカシング部18に入力される。すなわち、制御部110は、視程距離測定部19によって測定された視程距離が「夜間状態」に該当する「c」メートル未満の区間に属すれば、複数のフィルタリングレベルのうち、「夜間状態」に適用される第4フィルタリングレベルを選択し、第4フィルタリングレベルによってレンズ部11後方にハードウェアフィルター12の可視光線遮断領域が位置するように、ハードウェアフィルター12の移動を制御し、ISP14の映像出力端がソフトウェアフィルター15の映像入力端に連結されるように、スィッチ151のスイッチングを制御し、ISP14から出力された白黒映像が反転された状態で映像フィルタリングアルゴリズムが適用されるように、ソフトウェアフィルター15の動作を制御する。
【0057】
上述したような制御部110の制御によって、第3フィルタリングレベルでハードウェアフィルター12は、レンズ部11を通過した光の可視光線帯域を遮断し、赤外線帯域を透過させ、ソフトウェアフィルター15は、ISP14から出力された白黒映像に映像フィルタリングアルゴリズムを適用する方式でISP14から出力された白黒映像をフィルタリングして圧縮部16とオートフォーカシング部18に出力する。また、第4フィルタリングレベルでハードウェアフィルター12は、レンズ部11を通過した光の可視光線帯域を遮断し、赤外線帯域を透過させ、ソフトウェアフィルター15は、ISP14から出力された白黒映像の各ピクセルの輝度値を反転させ、このように反転された輝度値を有する白黒映像に映像フィルタリングアルゴリズムを適用する方式でISP14から出力された白黒映像をフィルタリングして圧縮部16とオートフォーカシング部18に出力する。上述したように、ソフトウェアフィルター15は、各フィルタリングレベルごとに他の映像フィルタリングアルゴリズムを使用せず、第2、3、4フィルタリングレベルで常に同じ映像フィルタリングアルゴリズムを使用するので、一般のコンピュータに比べて、低性能の監視カメラ10でも映像フィルタリングを円滑に行える。
【0058】
上述したように、第1、2フィルタリングレベルでは、ハードウェアフィルター12によって赤外線帯域がフィルタリングされ、可視光線帯域が透過されることにより、ISP14によってカラー映像が生成され、第3、4フィルタリングレベルでは、ハードウェアフィルター12によって可視光線帯域がフィルタリングされ、赤外線帯域が透過されることにより、ISP14によって白黒映像が生成される。カラー映像が白黒映像から変換される場合は、映像の画質、特に鮮明度が大幅に向上するので、ISP14から出力された白黒映像のピクセル値に基づいて視程距離を測定すれば、レンズ部11前方の視程状態が同一であるにもかかわらず、カラー映像のピクセル値に基づいて視程距離を測定する場合に比べて、視程距離が大幅に増加するという問題点がある。かような問題は、次のようにハードウェア的な方法とソフトウェア的な方法など2つの方法で解決される。
【0059】
まず、ハードウェア的な方法を見れば、次のようである。制御部110は、ハードウェアフィルター12がレンズ部11を通過した光の可視光線帯域を遮断し、赤外線帯域を透過させる間に視程距離測定部19の視程距離の測定周期ごとにハードウェアフィルター12が一時的にレンズ部11を通過した光の赤外線帯域を遮断し、可視光線帯域を透過させるようにハードウェアフィルター12のフィルタリング帯域を制御することができる。さらに詳細には、制御部110は、レンズ部11後方にハードウェアフィルター12の可視光線遮断領域が位置している間に視程距離測定部19の視程距離の測定周期(例えば、10sec)ごとにレンズ部11後方にハードウェアフィルター12の赤外線遮断領域を位置させた後、少しあとで(例えば、1ms)レンズ部11後方にハードウェアフィルター12の可視光線遮断領域が位置するようにハードウェアフィルター12の移動を制御することができる。
【0060】
視程距離測定部19は、視程距離の測定周期ごとにハードウェアフィルター12によってレンズ部11を通過した光の赤外線帯域が遮断され、可視光線帯域が透過された状態でISP14によって生成されたカラー映像のピクセル値に基づいてレンズ部11前方の視程距離を測定することができる。この方法によれば、視程距離測定部19の視程距離の測定周期ごとにISP14によって常にカラー映像が生成されるので、レンズ部11前方の視程状態に関係なく、常に視程距離が正確に測定されるこという長所がある。但し、視程距離測定部19によって視程距離が測定される区間には、白黒映像を生成することができないので、その区間の間に直前の白黒映像を保持する場合、映像停止現象などが発生してしまうという短所がある。また、ハードウェアフィルター12の移動が頻繁なので、ハードウェアフィルター12の移動に関わる駆動系の寿命が短くなるという短所がある。
【0061】
次いで、ソフトウェア的な方法をよく見れば、次の通りである。
視程距離測定部19は、ハードウェアフィルター12によってレンズ部11を通過した光の赤外線帯域が遮断され、可視光線帯域が透過された状態では、ISP14によって生成されたカラー映像のピクセル値に基づいてレンズ部11前方の視程距離を減少させる要素の濃度を算出し、かように算出された濃度に反比例して、レンズ部11前方の視程距離を設定することで、レンズ部11前方の視程距離を測定することができる。例えば、視程距離測定部19は、レンズ部11前方の視程距離の基準値からレンズ部11前方の視程距離を減少させる要素の濃度を減算し、その減算結果をレンズ部11前方の視程距離に設定することができる。レンズ部11前方の視程距離の基準値が過度に小さければ、レンズ部11前方の視程が良好であるにもかかわらず、視程が不良であると測定され、レンズ部11前方の視程距離の基準値が過度に大きければ、レンズ部11前方の視程が不良であるにもかかわらず、視程が良好であると測定される。レンズ部11前方の視程距離の基準値は、レンズ部11の性能などに比べて変化可能な値に数回の試験を通じて、レンズ部11前方の視程距離が正確に判別される値に設定されることが望ましい。
【0062】
視程距離測定部19は、ハードウェアフィルター12によってレンズ部11を通過した光の可視光線帯域が遮断され、赤外線帯域が透過された状態では、ISP14によって生成された白黒映像のピクセル値に基づいてレンズ部11前方の視程距離を減少させる要素の濃度を算出し、このように算出された濃度に加重値を加算した後で加重値が加算された濃度に反比例して、レンズ部11前方の視程距離を設定することで、レンズ部11前方の視程距離を測定することができる。ここで、加重値は、レンズ部11前方の視程状態が同じ条件でのISP14によって生成されたカラー映像と白黒映像との鮮明度差を意味する。例えば、視程距離測定部19は、レンズ部11前方の視程距離の基準値からレンズ部11前方の視程距離を減少させる要素の濃度と加重値の和を減算し、その減算結果をレンズ部11前方の視程距離に設定することができる。
【0063】
さらに詳細には、視程距離測定部19は、ISP14によって生成されたカラー映像または白黒映像のピクセル値の輝度変化度、及びISP14によって生成されたカラー映像または白黒映像内の物体の輪郭を示す画素の個数のうち、少なくとも1つからレンズ部11前方の視程距離を減少させる要素の濃度を算出することができる。天気が晴れて視程状態が良好な場合には、視程状態が不良な場合に比べて、映像のピクセル値の輝度が急変し、映像内の物体の輪郭(edge)が鮮明になり、物体の輪郭を示す画素の個数が増加する。例えば、天気が晴れて視程状態が良好な場合には、空と地面との輝度差が克明に示され、空と地面との境界を示す画素の個数が増加する。逆に、夜間や悪天候によって視程状態が不良な場合には、視程状態が良好な場合に比べて、映像のピクセル値の輝度が徐々に変わり、映像内の物体の輪郭がぼけて、物体の輪郭を示す画素数が減少する。例えば、レンズ部11前方の霧濃度が濃いほど映像のピクセル値の輝度差が減少し、物体の輪郭を示す画素の個数も減少する。
【0064】
図6は、
図1に図示した監視カメラ10が適用された映像監視システムの構成図である。
図6を参照すれば、本実施例による映像監視システムは、
図1に示した監視カメラ10を含む複数個の監視カメラ10、複数個のハブ20、及びサーバ30で構成される。複数個の監視カメラ10は、監視地域のあちこちに散発的に設けられ、上述したような実施例によって、これにより、撮影された映像をネットワークを介してサーバ30に伝送する。監視地域が非常に狭い場合であれば、一台の監視カメラ10だけ設ければよい。複数個のハブ20は、複数個の監視カメラ10をネットワークに接続させ、サーバ30をネットワークに接続させることで、複数個の監視カメラ10とサーバ30とのネットワーク通信を可能にする。
【0065】
サーバ30は、管制センターに設けられて複数個の監視カメラ10からネットワークを介して伝送されたカラー映像または白黒映像を受信し、かように受信されたカラー映像または白黒映像をユーザに表示する。サーバ30は、監視カメラ10のレンズ部11前方の現在視程状態によって監視カメラ10から伝送されたカラー映像または白黒映像からレンズ部11前方の視程距離を減少させる要素を除去することで、監視カメラ10から伝送されたカラー映像または白黒映像をフィルタリングすることができる。サーバ30のハードウェア的な性能は、監視カメラ10のハードウェア性能に比べて非常に優秀であるので、サーバ30では、高容量の映像フィルタリングアルゴリズムが円滑に実行される。例えば、監視カメラ10によって夜間または悪天候状況で撮影された白黒映像は、第4フィルタリングレベルによってフィルタリングされても、その鮮明度が不足することがあるので、サーバ30は、監視カメラ10から伝送された白黒映像に、監視カメラ10によって実行される映像フィルタリングアルゴリズムよりも高性能の映像フィルタリングアルゴリズムを適用することで、目標物を識別するのに十分な鮮明度の白黒映像をユーザに提供することができる。
【0066】
以上、本発明について望ましい実施例を中心に説明した。本発明が属する技術分野で通常の知識を有する者は、本発明が本発明の本質的な特性から外れない範囲で変形された形態に具現されることを理解できるであろう。したがって、開示した実施例は、限定的な観点ではなく、説明的な観点で考慮されねばならない。本発明の範囲は、前述した説明ではなく、特許請求の範囲に示されており、それと同等な範囲内にある全ての相違点は、本発明に含まれるものと解釈されねばならない。