【文献】
Wavelet Toolbox For Use with MATLAB User's Guide Version 1,1996年,p.2-43 - p.2-51,[online], [平成29年5月23日検索], インターネット<http://feihu.eng.ua.edu/NSF_TUES/w7_1a.pdf>
(58)【調査した分野】(Int.Cl.,DB名)
非可視光の画像データの前記連続フレームが、赤外線(IR)画像データの連続フレームを含み、前記ビデオプロセッサが、前記連続フレームのそれぞれにおける前記複数のウェーブレット周波数帯域を処理しダウンコンバートして、前記可視カラー画像に集合的に対応するそれぞれのRGB色空間信号を生成するように構成される、請求項1に記載のシステム。
前記画像処理システムが、グレースケール値のダイナミックレンジ及び分布に関して画像データの前記連続フレームのそれぞれを解析し、前記解析に基づいてIR画像データの前記連続フレームのそれぞれにおけるノイズを軽減し、前記解析に基づいて、一行ずつ、画像データの前記連続フレームのそれぞれにおける各画素の前記正規化を提供するように構成された前処理ステージを含む、請求項1に記載のシステム。
前記画像処理システムが、それぞれの色空間信号にマッピングされる複数のウェーブレット周波数帯域に前記正規化された画像データを分解するように構成された複数のdifference−of−Gaussian(DoG)フィルタを含むウェーブレット分解ステージを含む、請求項1に記載のシステム。
前記複数のDoGフィルタのそれぞれが、画像データの前記連続フレームのそれぞれに関連する異なるそれぞれの視覚的な詳細量に対応する前記それぞれの複数のウェーブレット帯域に前記正規化された画像データを分離するように構成される、請求項4に記載のシステム。
前記画像処理システムが、前記それぞれの複数のウェーブレット周波数帯域をウェーブレット分解画像として非線形的に処理して、それぞれの可視カラー画像を生成するように構成された複数の非線形マッピングコンポーネントを含むビデオプロセッサを含む、請求項1に記載のシステム。
前記複数の非線形マッピングコンポーネントのそれぞれが、第1のビット長さを有する前記それぞれの複数のウェーブレット帯域の処理された1つを、前記第1のビット長さより短い第2のビット長さを有する別個の色空間信号の前記それぞれの1つにダウンコンバートするように構成されたシグモイドコンポーネントを含む、請求項6に記載のシステム。
前記ウェーブレット強化コンポーネントが、高ダイナミックレンジ浮動小数点値に対応する前記第1のビット長さで前記複数のウェーブレット帯域に関連する各画素を提供するように構成され、前記シグモイドコンポーネントが、各画素を整数値として前記第2のビット長さに変換するように構成される、請求項8に記載のシステム。
プラットフォーム上に実装された、且つ請求項1に記載の人工視覚システムを含むナビゲーション支援システムであって、前記画像システムが、前記連続フレームの処理に基づいて状況認識(SA)データを生成し、前記可視カラー画像上で前記プラットフォームに対して前記SAデータを可視的に識別するように構成されるナビゲーション支援システム。
プロセッサによって実行された場合に、人工視覚システムにおいて単色赤外線(IR)画像データを可視画像に変換するための方法を実行するように構成される命令を格納するように構成された非一時的なコンピュータ可読媒体であって、前記方法が、
IRビデオソースを介してIR画像データの連続フレームを捕捉すること、
IR画像データの前記連続フレームのそれぞれにおける各画素を正規化すること、
IR画像データの正規化された連続フレームのそれぞれをそれぞれのRGB色空間信号にマッピングされた複数のウェーブレット周波数帯域に分解すること、
ビデオディスプレイシステムにおいて前記RGB色空間信号を組み合わせて、単色IR画像データの前記それぞれの連続フレームのそれぞれ関連する可視カラー画像を提供することを含む、非一時的なコンピュータ可読媒体。
IR画像データの前記正規化された連続フレームのそれぞれを分解することが、画像データの前記複数の連続フレームのそれぞれに関連する異なるそれぞれの視覚的な詳細量に対応する前記それぞれの複数のウェーブレット帯域に、IR画像データの前記正規化された前記連続フレームを分離するように構成された複数のdifference−of−Gaussian(DoG)フィルタを実装することを含む、請求項11に記載の非一時的なコンピュータ可読媒体。
単色IR画像データの前記正規化された連続フレームのそれぞれを分解することが、第1のビット長さを有する高ダイナミックレンジ浮動小数点値として複数のウェーブレット帯域を生成することを含み、前記方法が、複数のウェーブレット周波数帯域を前記第1のビット長さから、整数値に関連する第2のビット長さをそれぞれ有する前記それぞれのRGB色空間信号にダウンコンバートすることを更に含み、前記第2のビット長さが前記第1のビット長さより短い、請求項11に記載の非一時的なコンピュータ可読媒体。
【発明を実施するための形態】
【0007】
本発明は、一般に視覚システムに関し、特に人工視覚システムに関する。人工視覚システムは、例えば、航空機(例えばヘリコプタ)などの移動プラットフォーム上に実装することができる。人工視覚システムは、画像システムを含み、画像システムは、自立型画像システム(例えば画像システムパッケージ)とすることができる。画像システムは、前方監視赤外線(FLIR)ビデオソースとして構成することができるビデオソースであって、画像データの複数の連続フレームを補足するように構成されるビデオソースを含む。本明細書で説明されるように、用語「人工視覚システム」は、ユーザ自身の裸眼視力の代わりに又はそれに加えて、ユーザが見ることができるシーンの処理ビデオ画像を提供する視覚システムを指す。画像システムはまた、画像処理システムとして構成された1つ又は複数のプロセッサを含む。画像処理システムは、連続フレームを処理して画像データの連続フレームのそれぞれにおける各画素を個々に正規化し、正規化された画像データを複数のウェーブレット周波数帯域に分解し、連続フレームにおける複数のウェーブレット周波数帯域をそれぞれの可視カラー画像に変換するように構成される。
【0008】
例として、画像処理システムは、ウェーブレット強化コンポーネント及びビデオプロセッサを含むことができる。ウェーブレット強化コンポーネントは、グレースケール値のダイナミックレンジ及び分布に関して、画像データの連続フレームのそれぞれを解析するように構成された前処理ステージを含むことができる。前処理ステージはまた、ノイズ抑制を実行して、解析に基づいて、IR画像データの連続フレームのそれぞれにおけるノイズを実質的に軽減することができる。前処理ステージはまた、解析に基づいて、画像データの連続フレームのそれぞれにおける各画素の一行ずつの正規化を提供することができる。ウェーブレット強化コンポーネントはまた、画像データの連続フレームのそれぞれに関連する異なるそれぞれの視覚的な詳細量に対応する複数のウェーブレット周波数帯域に、正規化された画像データを分解する複数のdifference−of−Gaussian(DoG)又は他の同様のタイプのフィルタを含むことができるウェーブレット分解ステージを含むことができる。従って、複数のウェーブレット帯域は、それぞれ、RGB信号などのそれぞれの色空間信号に対応することができる。例として、色空間信号は、高ダイナミックレンジ浮動小数点値である画素値を有するように供給することができる。
【0009】
ビデオプロセッサは、複数の非線形マッピングコンポーネントを含む。複数の非線形マッピングコンポーネントのそれぞれは、大気減衰をシミュレートするように構成されたランプ関数を含むことができる。それぞれの複数のウェーブレット周波数帯域のそれぞれの1つに対応できる各画像は、異なるランプ関数に従うことができる。例として、大気は、レンジの関数として、青色成分よりも可視シーンの赤色成分をより激しく減衰させる可能性がある。非線形マッピングコンポーネントはまた、それぞれ、カラービデオディスプレイに供給できるRGB信号など、ウェーブレット周波数帯域整数色空間信号のランプ処理された1つをダウンコンバートするように構成されたシグモイドコンポーネントを含む。例として、シグモイドコンポーネントは、ウェーブレット帯域のランプ処理された1つを、各画素に関連する高ダイナミックレンジ浮動小数点値(例えば64ビット又は32ビット浮動小数点値)から、各画素に関連するより短いビット長さの整数値(例えば8ビット)にダウンコンバートすることができる。
【0010】
更に、画像処理システムは、連続フレームの安定化を提供するため、且つ/又はプラットフォームに関係のある連続フレームに関連する状況認識(SA)データを計算するためなど、最小ラグで連続フレームを処理するように構成することができる。画像処理システムはまた、視覚環境の低下(DVE:degraded visual environment)に基づく等、ビデオソースの環境ベースのオクルージョン(occlusion)に関して連続フレームを強化するこの等のために、連続フレームの連続する安定化された画像に基づいて、ラッキー領域画像処理(lucky region image processing)を提供するように構成することができる。強化は、自立型画像システム内に含まれる慣性測定ユニット(IMU:inertial measurement unit)によって生成されるなどの、プラットフォーム(即ち移動プラットフォーム)に関連する慣性データに基づくことができる。画像システムはまた、プラットフォーム(即ち移動プラットフォーム)のナビゲーション及び操縦でパイロットを支援すること等のために、連続フレームを可視画像に変換して、可視画像がビデオディスプレイシステムに表示されるようにすることができる。
【0011】
図1は、人工視覚システム10の例を示す。人工視覚システム10は、プラットフォームに実装することができる。例として、プラットフォームを静止プラットフォームとすることで、人工視覚システム10がセキュリティ目的で実装され得るようにすることができる。別の例として、人工視覚システム10は、航空機(例えばヘリコプタ)などの移動プラットフォームに実装されて、航空機を着陸させる目的など、低下した視覚環境(DVE)などにおいて移動プラットフォームのナビゲーション又は操縦で関係するパイロットを支援することができる。
【0012】
人工視覚システム10は、自立型パッケージとして構成できる画像システム12を含む。
図1の例において、画像システム12は、環境シーンの複数の連続フレームを捕捉するように構成されるビデオソース14を含む。例えば、ビデオソース14は、連続IR画像が連続フレームであるように、赤外線(IR)ビデオソースとして構成することができる。例として、画像システム12は、ビデオソース14が、ヘリコプタの機首など、移動プラットフォームの少なくとも1つの位置に実装されて、移動プラットフォームのパイロットとほぼ同じ視点から連続フレームを捕捉することができる。例として、画像システム12はまた、6つの運動度における移動(例えば、角度の偏揺れ、ピッチ、回転、及び三次元におけるベクトル線形運動)など、移動プラットフォーム内のセンサに関連する慣性データを生成するように構成される慣性測定ユニット(IMU)を含むことができる。
【0013】
画像システム12はまた、メモリ16と、1つ又は複数のプロセッサとして構成できる画像処理システム18と、を含む。メモリ16は、(例えば1つ又は複数の関連するプロセッサを介して)画像処理システム18を実行する命令を格納するように構成することができ、且つビデオソース14によって捕捉された1つ又は複数の連続フレーム及びその処理をバッファするように実装することができる。画像処理システム18は、連続フレームを処理するように、且つ処理された連続フレームを可視ビデオデータIMGとしてビデオディスプレイシステム20に供給するように構成される。例として、ビデオディスプレイシステム20は、移動プラットフォームをナビゲートする際にパイロットを支援するためなど、環境シーンを見るユーザに可視画像を供給するビデオモニタとして構成することができる。
【0014】
図1の例において、画像処理システム18は、ウェーブレット強化コンポーネント22及びビデオプロセッサ24を含む。ウェーブレット強化コンポーネント22は、画像データの連続フレームを処理して画像データの各フレームの画素を個々に正規化し、画像データのフレームを複数のウェーブレット周波数帯域に分解するように構成される。例として、ウェーブレット強化コンポーネント22は、フレームのそれぞれにおけるグレースケール値のダイナミックレンジ及び分布に関する画像データのフレームのそれぞれにおける画像解析、ノイズ抑制、並びに解析に基づいたグレースケール値の一行ごとの正規化を実行できる前処理ステージを含むことができる。別の例として、ウェーブレット強化コンポーネント22は、異なる画像詳細レベルにそれぞれ関連する別個のウェーブレット帯域に画像データを分離する複数のデジタルフィルタリング技術を実行するように構成されたウェーブレット分解ステージを含むことができる。従って、別個のウェーブレット帯域のそれぞれは、RGB色空間信号などの別個の色空間信号に関連付けることができる。ビデオプロセッサ24は、ウェーブレット帯域を処理してウェーブレット帯域を画像信号IMGに変換するように構成される。例として、ビデオプロセッサ24は、ランプ関数を実行して、別個のウェーブレット帯域の大気減衰をシミュレートするように構成される非線形マッピングコンポーネントと、ウェーブレット帯域を(例えば高ダイナミックレンジ浮動小数点値から各画素に関連する整数値に)ダウンコンバートして画像信号IMGを生成するシグモイドコンポーネントとを含むことができる。従って、ビデオプロセッサ24は、処理されたRGB色空間信号を画像信号IMGとしてビデオディスプレイシステム20に供給することができる。
【0015】
図2は、画像システム50の例を示す。画像システム50は、
図1の例における画像システム12に対応することができる。従って、画像システム50は、移動プラットフォームなどのプラットフォームに実装された自立型ユニットとして具体化されて、環境シーンの連続フレームを捕捉し、可視ビデオデータIMGをビデオディスプレイシステム(例えばビデオディスプレイシステム20)に供給することができる。従って、画像システム50は、移動プラットフォームのパイロットなどのユーザ用に人工視覚を提供することができる。
【0016】
画像システム50は、環境シーンにおける画像データの複数の連続IRフレームを捕捉するように構成される、前方監視赤外線(FLIR)ビデオソースなどのIRビデオソース52を含む。
図2の例において、ビデオソース52は、60フレーム/秒(fps)で供給される画素当たり14ビットのIR単色画像データに対応できる画像データVID
INITを生成する。例として、他の赤外線カメラが、他のフレームレート及びビット深度で画像を生成してもよい。画像データVID
INITは、画像処理システム54に供給される。画像処理システム54は、自立型画像システム50におけるシステムオンチップ(SOC)又はフィールドプログラマブルゲートアレイ(FPGA)配置におけるなど、1つ又は複数のプロセッサによって実行されるソフトウェアモジュールセットとして構成することができる。例として、画像処理システム54は、ビデオソース52内のSOC又はFPGA配置に含まれるなど、ビデオソース52の一部として構成することができる。
【0017】
図2の例において、画像処理システム54は、ウェーブレット強化コンポーネント56及びビデオプロセッサ58を含む。ウェーブレット強化コンポーネント56は、前処理ステージ60及びウェーブレット分解ステージ62を含む。画像データVID
INITは、前処理ステージ60に供給され、前処理ステージ60は、画像データVID
INITの連続フレームのそれぞれに対して個々に前処理を実行する。前処理は、連続フレームのそれぞれにおけるグレースケール画素の解析、及び解析に基づいた画素の正規化を含むことができる。従って、前処理ステージ60は、
図2の例に示されているウェーブレット分解ステージ62に、画像データの正規化されたフレームを信号VID
Nとして供給することができる。
【0018】
図2の例において、前処理ステージ60は、エントロピー解析器64、ノイズ抑制器66、及び行正規化器68を含む。画像データVID
INITの連続フレームは、正規化エントロピーN
Eによって特徴付けられ得るグレースケール分布及びダイナミックレンジに関して、画像データVID
INITにおける連続フレームのグレースケール解析用にエントロピー解析器64に最初に供給される。例として、エントロピー解析器64は、次のように、画像データVID
INITの連続フレームのそれぞれにおける正規化エントロピーN
Eを計算するように構成される。
【0019】
N
E=E{−p(i)Log
2[p(i)]} 式1
この式で、iは、画像データVID
INITの連続フレームの所与の1つを示し、
pは、グレースケール値の確率密度を示し、および
Eは、期待値を示す。
【0020】
従って、エントロピー解析器64は、プリセット値tに関して画像データVID
INITの連続画像のそれぞれにおける正規化エントロピーN
Eを測定することができる。正規化エントロピーN
Eがプリセット値tを超過する場合に、画像は、高エントロピーを有すると見なされる。反対に、正規化エントロピーN
Eが、プリセット値t以下である場合に、画像は、低エントロピーを有すると見なされる。
【0021】
ノイズ抑制器66は、決定された正規化エントロピーN
Eに基づいて、ノイズ抑制アルゴリズムを提供するように構成される。ノイズ抑制アルゴリズムは、決定された正規化エントロピーN
Eに基づいて、画像データの連続フレームのそれぞれにおいて、ノイズを実質的に軽減するように構成することができる。例として、ノイズ抑制器66は、ガウス分布の半径に関連付けることができる二次元ガウス関数G
HIGHを備えた高エントロピー画像として決定される画像データの所与のフレームを畳み込むように構成することができる。例として、二次元ガウス関数G
HIGHは、それぞれの画像フレームの画素に対して約0.5の半径を有することができる。同様に、ノイズ抑制器66は、二次元ガウス関数G
LOWを備えた低エントロピー画像として決定される画像データの所与のフレームを畳み込むように構成することができる。例として、二次元ガウス関数G
LOWは、それぞれの画像フレームの画素に対して約1.0の半径を有することができる。
【0022】
行正規化器68は、エントロピー解析器64によって提供される解析に基づいて、ノイズ抑制画像フレームの画素の正規化を提供するように構成することができる。例として、行正規化器68は、それぞれの画像フレームのそれぞれのビット深度によって可能にされた中間グレースケール値(例えばメジアン又は平均グレースケール値)に一層近いグレースケール値を有するグレースケール画像フレームの各行を正規化するように構成することができる。例えば、現在のグレースケール平均値(m)は、現在の画像の行グレースケール平均(m)とqの値との間にあり得る新しい平均グレースケール値(m’)に変更することができ、qは、所与のビット深度用の中間グレースケール値に対応することができる。例として、1024の許容可能なグレースケール値を有する10ビットの画像フレームに関して、qの値は、512とすることができる。新しい平均グレースケール値(m’)の計算例は、次のとおりである。
【0023】
m’=c
*m+(1−c)
*q 式2
この式で、cは、値0<c<1を備えた調整可能な所定の定数である。
従って、行正規化器68は、画像フレームにおける所与のシーンが、シーンにおける特徴と周囲温度との間でグレースケール値における非常に大きな広域の差異(例えばダイナミックレンジ)を有しないように、周囲シーンに一層近い所与の画像フレームにわたってグレースケール値を設定することができる。従って、行正規化器68は、所与の画像フレームにおいて一行ずつ(例えば上部から底部に)グレースケール値を正規化して、信号VID
Nとして
図2の例に示されている正規化された画像フレームを生成することができる。
【0024】
正規化された画像フレームVID
Nは、ウェーブレット分解ステージ62に供給される。ウェーブレット分解ステージ62は、異なる画像詳細レベルに対応するなど、別個の帯域通過特性を有する1つ又は複数のウェーブレット帯域に、正規化された画像フレームVID
Nを分解するように構成された少なくとも1つのdifference−of−Gaussian(DoG)フィルタ70を含む。例えば、DoGフィルタ70のそれぞれは、異なるガウス次元(例えば円形半径又は楕円軸)を有する帯域通過フィルタに対応することができる。従って、ウェーブレット分解のそれぞれは、画像フレームの異なる詳細レベル(例えば画像フレームの高詳細部分から画像フレームの低詳細部分まで)に関連する異なる周波数帯域に対応することができる。従って、ウェーブレット帯域のそれぞれは、別個の色空間信号(例えばRGB色信号の別個のそれぞれのチャネル)に対応することができる。ウェーブレット信号は、ウェーブレット分解ステージ62、及び従ってウェーブレット分解信号VID
CSとしてウェーブレット強化コンポーネント56から供給される。図の例2は、DoGフィルタ70の使用を示すが、代わりに様々な同様のフィルタが実装可能であることを理解されたい。
【0025】
ウェーブレット分解信号VID
CSは、ビデオプロセッサ58に供給される。ビデオプロセッサ58は、1つ又は複数の非線形マッピングコンポーネント72を含むように、
図2の例に示されている。例として、1つ又は複数のマッピングコンポーネント72のそれぞれは、ウェーブレット分解ステージ62におけるDoGフィルタ70のそれぞれの1つに対応し、且つウェーブレット分解信号VID
CSのそれぞれの1つに対応することができる。マッピングコンポーネント72のそれぞれは、ウェーブレット分解信号VID
CSのそれぞれの1つを処理して、ビデオディスプレイシステム20を介してカラービデオ画像のチャネルを構築するように構成される。例として、マッピングコンポーネント72のそれぞれは、ウェーブレット分解信号VID
CSのそれぞれの1つを処理して、所与の色周波数帯域に関して大気減衰をシミュレートするためなど、結果画像にわたって(例えば上部から底部に)それぞれの周波数帯域に関連する画素を分配し、高ダイナミックレンジ浮動小数点値から各関連画素用の整数値に処理ビデオをダウンコンバートするランプ関数及びシグモイドコンポーネントを含むことができる。例として、ビデオプロセッサ58は、ビデオディスプレイシステム20に供給される赤色空間信号、緑色空間信号、及び青色空間信号として3つのそれぞれのウェーブレット帯域を表す3つのマッピングコンポーネント72を含むことができる。処理されたウェーブレット帯域は、
図2の例において、ビデオプロセッサ58から画像信号IMGとして供給されるように示されている。
【0026】
図3は、画像処理システム100の例を示す。例として、画像処理システム100は、
図2の例における画像処理システム54の一部に対応することができる。従って、
図3の例の以下の説明において、
図2の例が参照されることになる。
【0027】
画像処理システム100は、ウェーブレット分解ステージ102及びビデオプロセッサ104を含む。例として、ウェーブレット分解ステージ102は、
図2の例におけるウェーブレット分解ステージ62、及び従ってウェーブレット強化コンポーネント56の一部に対応することができる。ウェーブレット分解ステージ102は、正規化された画像フレームデータVID
Nを受信し、正規化された画像フレームデータVID
Nは、ウェーブレット分解ステージ102の各部分である第1のDoGフィルタ106、第2のDoGフィルタ108、及び第3のDoGフィルタ110のそれぞれに供給される。例として、DoGフィルタ106、108及び110のそれぞれは、正規化された画像フレームデータVID
Nに関連する画像に対して、異なるガウス次元を有する帯域通過フィルタとして構成することができる。
【0028】
例えば、DoGフィルタ106、108及び110のそれぞれは、正規化された画像フレームデータVID
Nのそれぞれの画像フレームに関連する楕円軸の異なる寸法(例えば長軸及び短軸)に関連する次元を有することができる。従って、DoGフィルタ106、108及び110のそれぞれは、正規化された画像フレームデータVID
Nの画像フレームにおける異なるそれぞれの詳細レベルに関連する異なる周波数帯域に対応することができる。従って、DoGフィルタ106、108及び110のそれぞれは、異なる色空間信号(例えば赤色、緑色及び青色空間信号)に画像をマッピングすることができる。例として、第1のDoGフィルタ106は、画像フレームに関連する高詳細レベルを提供するように調整された楕円ガウス次元を有することができ、第3のDoGフィルタ110は、画像フレームに関連する低詳細レベルを提供するように調整された楕円ガウス次元を有することができ、第2のDoGフィルタ108は、第1及び第3のDoGフィルタ106及び110間にある画像フレームに関連する詳細レベルを提供するように調整された楕円ガウス次元を有することができる。DoGフィルタ106、108及び110のそれぞれは、(例えばRGB色空間信号にそれぞれ対応する)それぞれの信号VID
R、VID
G及びVID
Bとして
図3の例に示されている異なるそれぞれの周波数帯域への、正規化された画像フレームデータVID
Nの帯域通過フィルタリングを提供する。DoGフィルタ106、108及び110は、長軸及び短軸の寸法に対して楕円として
図3の例に示されているが、DoGフィルタ106、108及び110が、代わりに、円形半径などの他のジオメトリに関連する寸法を有し得ることを理解されたい。更に、DoGフィルタ106、108及び110のそれぞれが、並列に示されているが、DoGフィルタ106、108及び110が、カスケード配置など、他の方法で配置され得ることを理解されたい。例として、青色チャンネル用のフィルタは、赤色及び緑色チャネルのフィルタのカスケードとすることができる。
【0029】
ウェーブレット信号VID
R、VID
G及びVID
Bは、それぞれ、ビデオプロセッサ104に供給される。ビデオプロセッサ104は、第1の非線形マッピングコンポーネント112、第2の非線形マッピングコンポーネント114、及び第3の非線形マッピングコンポーネント116を含む。従って、マッピングコンポーネント112、114及び116は、それぞれのDoGフィルタ106、108及び110、並びに従ってそれぞれのウェーブレット信号VID
R、VID
G及びVID
Bにそれぞれ対応する。マッピングコンポーネント112、114及び116のそれぞれは、RAMP1、RAMP2及びRAMP3として
図3の例に示されているランプ関数118を含む。ランプ関数118は、色空間信号のそれぞれの周波数帯域に関して大気減衰をシミュレートするためなど、結果画像にわたって(例えば上部から底部に)ウェーブレット処理信号VID
R、VID
G及びVID
Bのそれぞれの1つに関連する画像データを分配するようにそれぞれ構成することができる。例えば、ランプ関数のそれぞれは、ウェーブレット信号VID
R、VID
G及びVID
Bのそれぞれの1つに対応する画像フレームの行のそれぞれにおけるグレースケール値に、所定の値セットを追加するように構成することができる。例として、それぞれのランプ関数118によって提供される所与のランプ値R
F1は、次のように表現することができる。
【0030】
R
F1=d
*[(2/(n−1))y−1] 式3
この式で、yは、画像フレームの所与の行に対応し(例えばy=0、...、n−1)、
nは、画像フレームの行の総数に対応し、
dは、マッピングコンポーネント112、114及び116の所与の1つに関連するそれぞれの色空間(例えば赤色、緑色又は青色)に対応する所定の変数に対応する。
【0031】
例として、dの値は、マッピングコンポーネントのそれぞれの1つに関連する色空間に依存して、正、負又はゼロである。従って、ランプ関数118のそれぞれは、ビデオソース12の前方監視特性に基づいて、大気減衰を違った風にシミュレートするためなど、結果画像信号IMGにおいて、それぞれのウェーブレット帯域VID
R、VID
G及びVID
Bによって表される別個の波長のそれぞれにおける大気減衰を異なる方法でシミュレートすることができる。ランプ関数118が適用される方法として式3が本明細書で説明されているが、行番号の負の指数関数又は画素に関連するシーンポイントへの距離の負の指数関数に基づいて、代替として他の数式が実行され得ることを理解されたい。
【0032】
ランプ関数118のそれぞれは、マッピングコンポーネント112、114及び116のそれぞれにおけるシグモイドコンポーネント120に出力を供給する。シグモイドコンポーネント120の各々は、それぞれのランプ処理されたウェーブレット信号VID
R、VID
G及びVID
Bを
図3の例にIMG
R、IMG
G及びIMG
Bとして示されている画像信号IMGのそれぞれの部分にダウンコンバートするように構成される。集合的に、画像信号IMG
R、IMG
G及びIMG
Bは、
図2の例における画像信号IMGとしてビデオプロセッサ104から供給することができる。例として、シグモイドコンポーネント120のそれぞれは、別々にランプに処理されたウェーブレット信号VID
R、VID
G及びVID
Bからそれぞれの画像信号IMG
R、IMG
G及びIMG
Bを供給するように、ほぼ同様に(例えば同じに)構成することができる。例えば、シグモイドコンポーネントは、次の式として表現されて、シグモイド関数y’’(x)に基づいて、各画素用に出力画素値y’’(x)を生成することができる。
【0033】
y’’(x)=255
*(y’(x)−y’(r))/(y’(s)−y’(r))
式4
y’(x)=255/(1+exp(−(u+v))) 式5
u=−8x/(r−s) 式6
v=4
*(r+s)/(r−s) 式7
これらの式で、rは、連続画像の入力ヒストグラムの所定のより低いクリッピングポイント値であり、
sは、連続画像の入力ヒストグラムの所定のより高いクリッピングポイント値であり、
xは、入力グレースケール値であり、y’’(x)は、8ビット/画素/カラーディスプレイ例における出力グレースケール値である。
【0034】
式4〜7によって提供される計算を実行することによって、シグモイドコンポーネント120は、高ダイナミックレンジ浮動小数点値を有するランプ処理されたウェーブレット信号VID
R、VID
G、VID
Bの各画素を、より小さいビット幅を備えた整数画素値として且つ従ってダウンコンバート法で、画像信号IMG
R、IMG
G及びIMG
Bの各画素に効果的且つ非線形的にマッピングする。式4〜7の例において、結果画像信号IMG
R、IMG
G及びIMG
Bは、浮動小数点値からなどで、8ビット/画素/色値を有する。従って、画像信号IMG
R、IMG
G及びIMG
Bは、ビデオディスプレイシステム20に所与の画像フレーム用の可視カラー画像に対応する画像信号IMGとして供給されて、各所与の画像フレーム用の可視カラー画像を表示することができる。
【0035】
ビデオディスプレイシステム20上で表示される可視カラー画像は、様々な人工視覚目的用に実装することができる。例として、人工視覚システム10は、移動プラットフォームなどのプラットフォームに実装されて、苛酷な条件においてナビゲートするために移動プラットフォーム(例えば航空機)のパイロットを支援する人工視覚を提供することができる。例えば、人工視覚システム10は、煙、雪、ダスト又は砂からもたらされるなど、低下した視覚環境(DVE)におけるナビゲーション支援用に実装することができる。例えば、本明細書で説明される画像処理システム(例えば
図2の例における画像処理システム54)は、2013年9月30日出願の「プラットフォームに実装される視覚システム(Platform−Mounted Artificial Vision System)」なる名称の米国特許出願第14/041,849号明細書に記載されている画像システムにおいて実装することができ、その米国特許出願は、その全体において参照により本明細書に援用される。
【0036】
図4は、画像システム150の別の例を示す。画像システム150は、
図1の例における画像システム10に対応することができる。従って、画像システム150は、移動プラットフォームなどのプラットフォームに実装される自立型ユニットとして具体化されて、実装環境シーンの連続フレームを捕捉し、可視ビデオデータIMGをビデオディスプレイシステム(例えばビデオディスプレイシステム20)に供給することができる。従って、画像システム150は、移動プラットフォームのパイロットなどのユーザに人工視覚を提供することができる。例えば、無人航空機システムの場合に、パイロットは、遠隔地にいることができる。
【0037】
画像システム150は、環境シーンの画像データにおける複数の連続IRフレームを捕捉するように構成されるFLIRビデオソース152を含む。
図4の例において、FLIRビデオソース152は、60フレーム/秒(fps)で供給される14ビットIR画像データに対応できる画像データVID
INITを生成する。例として、FLIRビデオソース152は、捕捉IR画像に対する画像前処理を実行して、画像データVID
INITが前処理されるように構成することができる。例えば、FLIRビデオソース152の前処理は、非均一性(例えば関連する焦点面アレイ(FPA)の作製中における変動に基づいた)及び画素誤差の補正を含むことができる。画像システム150はまた、画像システム150が実装され得る移動プラットフォーム(例えばヘリコプタの1つ又は複数の位置)の運動に関連する慣性データMVMTを生成するように構成されるIMU154を含む。IMU154によって生成された慣性データMVMTは、画像データVID
INITの処理用にFLIRビデオソース152の移動のより正確な測定値を供給するためなど、画像システム150の自立型パッケージ内に含まれることに基づいて、FLIRビデオソース152の6つの運動度(例えば、偏揺れ、ピッチ、回転、及び三次元におけるベクトル運動)における移動に関連付けることができる。
【0038】
画像データVID
INIT及び慣性データMVMTは、それぞれ、画像処理システム156に供給される。画像処理システム156は、自立型画像システム150におけるシステムオンチップ(SOC)配置におけるなど、1つ又は複数のプロセッサによって実行されるソフトウェアモジュール又はFPGAコードセットとして構成することができる。
図4の例において、画像データVID
INITは、安定化コンポーネント158に供給され、安定化コンポーネント158は、画像データVID
INITのビデオフレーム安定化を提供して安定化された画像データVID
STを生成するように構成される。例として、安定化コンポーネント158は、運動からの構造復元技術を用いて、慣性データMVMTに基づいて、画像データVID
INITの連続フレームのそれぞれのためにビデオソース152の姿勢を推定することができる。ひとたび安定化コンポーネント158がビデオソース152の姿勢を決定すると、2つの連続IR画像が、所与の姿勢から別の姿勢の視点に画像をレンダリングするために適用できる射影変換に対応するホモグラフィに基づいて、整列され得る。例として、安定化コンポーネント158は、画像データVID
INITの各IR画像内で検出される堅牢で顕著な特徴を用いて、ホモグラフィを推定することができる。計算は、利用可能な場合には慣性データを用いることができる。次に、現在のIR画像で検出される特徴は、前の画像で検出された特徴と相関させることができる。この相関から、ホモグラフィは、前のIR画像における画素に対して、現在のIR画像における重複する画素を空間的に整列させるように決定することができる。従って、ホモグラフィは、角度誤差を示すプラットフォーム/ビデオソース152及び/又はジンバルの移動によって引き起こされるフレームからフレームへの変位を捕捉することができる。従って、安定化された画像データVID
STは、現在のフレームと1つ又は複数の(例えば2つの)前のフレームとの間のホモグラフィを含むことができる。例として、画像処理システム156は、赤外線カメラ内に、別個のシャーシに、又はディスプレイ内に存在することができる。
【0039】
安定化された画像データVID
STは、合成視覚SAコンポーネント160に供給される。合成視覚SAコンポーネント160は、画像データVID
STの処理の際に支援すること、および移動プラットフォームのナビゲーション及び操縦のうちの少なくとも一方の際に支援することのうちの少なくとも一方で実施され得るように、慣性データMVMTに基づいて安定化された画像データVID
STを処理して、連続フレームに関連するSAデータを計算するように構成される。例えば、合成視覚SAは、レンジマップ生成装置、障害物検出装置、及び画像オーバレイコンポーネントを含んで、所与の時間量にわたって慣性データMVMTによって供給されるような移動プラットフォームの周知の運動に基づいて、三次元レンジマップにおける対象物の視運動を比較することによって、三次元レンジマップにおいて対象物へのレンジを計算することができる。このように、障害物の位置は、慣性データMVMTに基づき、安定化された画像データVID
STの連続的な安定化された画像に関連する視差に基づいて決定することができる。更に、画像オーバレイコンポーネントは、安定化された画像データVID
STが、障害物に関連するデータで注釈を付けられるように、検出された障害物までの距離を受動三次元レンジマップから抽出し、距離データを安定化された画像データVID
STに挿入することができる。例えば、障害物は、異なる色、輝度、テキストオーバーレイ(例えば情報を表示する)、グラフィカルキュー、電圧低下の記号表示、及び/又は他の情報を有することなどに基づいて、表示可視画像のそれぞれの背景と別個に表示可視画像上で強調することができる。従って、プラットフォームが、DVE状態(例えば電圧低下)において移動するとき、重ねられた障害の強調及び/又は他の情報は、慣性データMVMT及び障害への周知のレンジに基づいて更新することができ、従って別の状況ではDVE状態によって曖昧にされたであろう基準点としてパイロットによって使用され得る。
【0040】
画像データVID
SA及び慣性データMVMTは、ラッキー領域撮像コンポーネント162に供給される。ラッキー領域撮像コンポーネント162は、慣性データMVMTに基づいて画像データVID
SAの連続安定化フレームを再帰的に処理することに基づいて、ビデオソース152の環境ベースのオクルージョンに対して画像データVID
SAのフレームを強化するように構成される。例として、ビデオソース152の環境ベースのオクルージョンは、ビデオソース152が、砂(即ち電圧低下)、雪(即ちホワイトアウト)か、様々な他の視覚を損なう条件か、又は乱気流などの様々な大気の歪み条件によってオクルードされ得るような、プラットフォームがDVEに存在する結果であり得る。しかしながら、晴れた天候で且つ/又は高くて砂塵雲を引き起こさないように飛行する移動プラットフォーム(例えばヘリコプタ)用など、画像処理システム154が、DVE状態のない状態で、ラッキー領域撮像コンポーネント162による処理を省略してもよいことを理解されたい。
【0041】
強化画像データVID
LKは、ウェーブレット強化コンポーネント164に供給され、ウェーブレット強化コンポーネント164は、
図2の例におけるウェーブレット強化コンポーネント56に対応することができる。従って、前に説明したのと同様に、ウェーブレット強化コンポーネント164は、単色画像データVID
LKを高空間周波数帯域、中間空間周波数帯域、及び低空間周波数帯域に(例えばそれぞれのDoGフィルタを介して)分解するように構成される。
図4の例において、それぞれの空間周波数帯域は、別個の詳細レベルに関連する別個のそれぞれの色空間信号に対応する画像データVID
CSとして示されている。
【0042】
画像データVID
CSは、
図4の例において可視ビデオデータIMGとして示されている、可視画像としての表示に適したデータに画像データVID
CSを変換するように構成されるビデオプロセッサ166に供給される。例として、ビデオプロセッサ166は、
図2の例におけるビデオプロセッサ58に対応することができる。例えば、ビデオプロセッサ166は、それぞれの高空間周波数帯域、中間空間周波数帯域、及び低空間周波数帯域を処理して、ビデオディスプレイシステム(例えばビデオディスプレイシステム20)における表示に適したRGB色空間において画像データVID
CSを供給するように構成することができる。従って、可視ビデオデータIMGは、カラー画像としてビデオディスプレイシステム20に供給することができる。例えば、ビデオプロセッサ166は、高ダイナミックレンジ浮動小数点画素値を有することから、より小さいビット幅を有する整数画素値へと画像データVID
CSをダウンコンバートすることができる。従って、移動プラットフォームのパイロットは、可視ビデオデータIMGを介して供給される強化可視画像を用いて、移動プラットフォームをナビゲートする際に支援することができる。その結果、人工視覚システム10のパイロット又はユーザは、ビデオディスプレイシステム20を実装して、制限された肉眼視感度又は肉眼視感度がない状態(例えばDVE状態)において、シーンを見るか又は移動プラットフォームをナビゲートする際に支援することができる。
【0043】
上記で説明した前述の構造及び機能的特徴を考慮すれば、本発明の様々な態様による方法論は、
図5に関連して一層よく理解されよう。説明の簡略化のために、
図5の方法論は、連続的に実行されるように示され説明されているが、本発明が、示された順序によって制限されないことを理解されたい。何故なら、幾つかの態様は、本発明に従って、本明細書で示され説明されている順序とは異なる順序で且つ/又は他の態様と同時に行われ得るからである。更に、全ての示されている特徴が、本発明の態様に従って方法論を実行するために必要とされ得るわけではない。
【0044】
図5は、人工視覚システムにおいてIR画像データを可視画像に変換するための方法200の例を示す。202において、IR画像データ(例えば画像データVID
INIT)の連続フレームが、IRビデオソース(例えばビデオソース52)を介して捕捉される。204において、IR画像データの連続フレームのそれぞれにおける各画素は、(例えば前処理ステージ60を介して)正規化される。206において、IR画像データの正規化された連続フレームのそれぞれは、それぞれのRGB色空間信号(例えば画像信号IMG
R、IMG
G及びIMG
B)に対応する複数のウェーブレット周波数帯域(例えばウェーブレット帯域VID
R、VID
G及びVID
B)に分解される。208において、ビデオディスプレイシステム(例えばビデオディスプレイシステム20)においてRGB色空間信号が組み合わされて、IR画像データのそれぞれの連続フレームのそれぞれに関連する可視カラー画像が提供される。
【0045】
上記で説明したものは、本発明の例である。本発明を説明する目的でコンポーネント又は方法論の全ての考えられる組み合わせを説明することは、もちろん不可能であるが、しかし当業者は、本発明の多くの更なる組み合わせ及び置換が可能であることを理解されよう。従って、本発明は、添付の特許請求の範囲を含む本出願の範囲内に入る全てのかかる変更、修正及び変形を包含するように意図されている。