IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ サ−コス コーポレイションの特許一覧

特開2024-150529非生物学的な可動の空中ターゲットの早期検出のためのシステムおよび方法
<>
  • 特開-非生物学的な可動の空中ターゲットの早期検出のためのシステムおよび方法 図1
  • 特開-非生物学的な可動の空中ターゲットの早期検出のためのシステムおよび方法 図2
  • 特開-非生物学的な可動の空中ターゲットの早期検出のためのシステムおよび方法 図3
  • 特開-非生物学的な可動の空中ターゲットの早期検出のためのシステムおよび方法 図4
  • 特開-非生物学的な可動の空中ターゲットの早期検出のためのシステムおよび方法 図5
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024150529
(43)【公開日】2024-10-23
(54)【発明の名称】非生物学的な可動の空中ターゲットの早期検出のためのシステムおよび方法
(51)【国際特許分類】
   F41H 13/00 20060101AFI20241016BHJP
   B64U 10/25 20230101ALI20241016BHJP
   B64U 20/87 20230101ALI20241016BHJP
   G05D 1/683 20240101ALI20241016BHJP
   G08G 5/00 20060101ALI20241016BHJP
   F41H 11/02 20060101ALI20241016BHJP
   B64U 70/20 20230101ALI20241016BHJP
   G05D 1/46 20240101ALI20241016BHJP
   F41G 1/46 20060101ALI20241016BHJP
   B64U 101/18 20230101ALN20241016BHJP
   B64U 101/31 20230101ALN20241016BHJP
   B64U 101/16 20230101ALN20241016BHJP
【FI】
F41H13/00
B64U10/25
B64U20/87
G05D1/683
G08G5/00 A
F41H11/02
B64U70/20
G05D1/46
F41G1/46
B64U101:18
B64U101:31
B64U101:16
【審査請求】有
【請求項の数】21
【出願形態】OL
【外国語出願】
(21)【出願番号】P 2024111472
(22)【出願日】2024-07-11
(62)【分割の表示】P 2022559800の分割
【原出願日】2021-04-01
(31)【優先権主張番号】63/003,711
(32)【優先日】2020-04-01
(33)【優先権主張国・地域又は機関】US
(71)【出願人】
【識別番号】518429137
【氏名又は名称】サ-コス コーポレイション
(74)【代理人】
【識別番号】110004381
【氏名又は名称】弁理士法人ITOH
(72)【発明者】
【氏名】スミス,フレイザー エム.
(57)【要約】
【課題】UAVの早期検出および無効化に対する解決策を提供すること。
【解決手段】空中ターゲットについて、1つまたは複数のカメラで空中風景の所定のエリアをスキャンすることと、1つまたは複数のカメラで空中ターゲットの複数の画像をキャプチャすることと、ここで、1つまたは複数のカメラはプロセッサと通信している、を行うためのシステムおよび方法が開示される。空中ターゲットの2次元画像のジオメトリの変化を含む、空中ターゲットの複数の画像間の微視的な時間的変動が増幅される。
【選択図】図1
【特許請求の範囲】
【請求項1】
遠方の未知のターゲットを分類する方法であって、
空中ターゲットについて、1つまたは複数のカメラで空中風景の所定のエリアをスキャンすることと、
前記1つまたは複数のカメラで前記空中ターゲットの複数の画像をキャプチャすることであって、前記1つまたは複数のカメラはプロセッサと通信している、こと、
400nm~700nmの周波数範囲における前記空中ターゲットの前記複数の画像間の微視的な時間的変動を増幅させることであって、検出した少なくとも1つの前記微視的な時間的変動には、前記空中ターゲットの2次元画像のジオメトリの変化が含まれる、こと、
前記空中ターゲットの前記画像の前記ジオメトリの変化を検出した後に、700nm~1100nmの前記周波数範囲における前記空中ターゲットの強度値を検出すること、及び
前記空中ターゲットの前記強度値の時間変化率を連続的に示すプロファイルを、既知の空中の生物学的または非生物学的な対象の強度値の時間変化率を連続的に示すプロファイルと比較して、前記空中ターゲットが既知の生物学的な対象または非生物学的な対象であるかを判定すること、を含む、
方法。
【請求項2】
前記ターゲットの前記2次元画像の前記ジオメトリの検出した少なくとも1つの微視的な時間的変動の変化率のプロファイルを生成することと、
前記ターゲットの前記プロファイルを、複数の既知の空中の生物学的または非生物学的な対象の既存の集約プロファイルと比較することであって、前記集約プロファイルは、前記既知の空中の生物学的または非生物学的な対象の前記2次元画像のジオメトリの前記検出した少なくとも1つの微視的な時間的変動に対応する、こと、及び
前記空中ターゲットの前記プロファイルと前記複数の既知のターゲットの前記集約プロファイルとの間の差を検出し、前記空中ターゲットが前記既知のターゲットのうちの1つである確率を決定すること、をさらに含む、請求項1に記載の方法。
【請求項3】
前記空中ターゲットが非生物学的な対象である前記確率が所定の値を超えた場合、防御対策を実施することをさらに含む、請求項2に記載の方法。
【請求項4】
前記所定の値が50パーセントより大きい、請求項3に記載の方法。
【請求項5】
前記防御対策は、前記空中ターゲットに向けて妨害信号を伝搬すること、前記空中ターゲットに向けてミサイルを発射すること、前記空中ターゲットを捕獲するためのシステムを発射すること、および/または前記空中ターゲットを射撃すること、または他の手段によって前記空中ターゲットを無効にすることのうちの1つまたは複数を含む、請求項3に記載の方法。
【請求項6】
移動空中ターゲットを分類するように構成されたシステムであって、
1つまたは複数のプロセッサと通信しているカメラと、
前記1つまたは複数のプロセッサのうちの少なくとも1つに動作可能に結合され、命令が記憶されている1つまたは複数のメモリと、を備え、
前記命令が、前記1つまたは複数のプロセッサのうちの少なくとも1つによって実行されると、前記システムに、
前記移動空中ターゲットの複数の画像をキャプチャすることであって、前記画像は、400nm~700nmの範囲の第1の帯域および700nm~1100nmの範囲の第2の帯域の光の周波数においてキャプチャされる、こと、
前記移動空中ターゲットの前記複数の画像間の微視的な時間的変動を増幅させ、前記第1の帯域における前記移動空中ターゲットの2次元画像のジオメトリの検出した少なくとも1つの微視的な時間的変動の変化率のプロファイルを生成すること、及び
前記第2の帯域においてキャプチャされた前記移動空中ターゲットの前記画像に基づいて前記移動空中ターゲットの色強度値を測定し、前記色強度値の時間変化率を連続的に示すプロファイルを、空中の生物学的な対象および非生物学的な対象に対応する既知の色強度値の時間変化率を連続的に示すプロファイルと比較すること、を行わせる、
システム。
【請求項7】
前記1つまたは複数のメモリは、その上に記憶された命令をさらに含み、該命令が、前記1つまたは複数のプロセッサのうちの少なくとも1つによって実行されると、前記システムに、
前記対象の前記プロファイルを、複数の既知の可動の生物学的または非生物学的な対象の既存の集約プロファイルと比較することであって、前記集約プロファイルは、前記既知の可動の生物学的または非生物学的なターゲットの前記2次元画像のジオメトリの前記検出した少なくとも1つの微視的な時間的変動に対応する、こと、
前記移動空中ターゲットの前記プロファイルと前記複数の既知のターゲットの前記集約プロファイルとの間の差を検出すること、及び
前記移動空中ターゲットが前記既知のターゲットのうちの1つである確率を決定すること、を行わせる、請求項6に記載のシステム。
【請求項8】
前記移動空中ターゲットに向けられた無線信号を伝搬するように構成された送信機をさらに備える、請求項6に記載のシステム。
【請求項9】
前記カメラおよび送信機は、無人航空機に搭載される、請求項8に記載のシステム。
【請求項10】
前記1つまたは複数のメモリは、その上に記憶された命令をさらに含み、該命令が、前記1つまたは複数のプロセッサのうちの少なくとも1つによって実行されると、前記システムに、
前記無線信号を受けた前記移動空中ターゲットの前記プロファイルと、無線信号を受けた複数の既知の対象の集約プロファイルとの間の差を検出すること、及び
前記移動空中ターゲットが前記既知のターゲットのうちの1つである確率を決定することを行わせる、請求項8に記載のシステム。
【請求項11】
前記移動空中ターゲットに向けられたパーカッシブ信号を生成するように構成された発射体をさらに備える、請求項6に記載のシステム。
【請求項12】
発射体および前記カメラは、無人航空機に搭載される、請求項8に記載のシステム。
【請求項13】
前記1つまたは複数のメモリは、その上に記憶された命令をさらに含み、該命令が、前記1つまたは複数のプロセッサのうちの少なくとも1つによって実行されると、前記システムに、
パーカッシブ信号を受けた前記移動空中ターゲットの前記プロファイルと、前記パーカッシブ信号を受けた複数の既知の対象の集約プロファイルとの間の差を検出すること、及び
前記移動空中ターゲットが前記既知のターゲットのうちの1つである確率を決定すること、を行わせる、請求項8に記載のシステム。
【請求項14】
前記カメラは、約150~400nmの範囲の光の第1の波長帯域、約400~700nmの範囲の光の第2の波長帯域、および約700~1100nmの範囲の光の第3の波長帯域を検出するように構成される、請求項6に記載のシステム。
【請求項15】
前記システムは、各々が異なる視野を有して互いに離れて配置され、各々が前記プロセッサと通信するように構成された複数のカメラを備え、前記複数のカメラの各々の視野は、前記複数のカメラのうちの少なくとも1つの他のカメラの視野と重複し、前記カメラの各々は、前記移動空中ターゲットの複数の画像をキャプチャするように構成される、請求項6に記載のシステム。
【請求項16】
前記1つまたは複数のメモリは、その上に記憶された命令をさらに含み、該命令が、前記1つまたは複数のプロセッサのうちの少なくとも1つによって実行されると、前記システムに、
前記異なるカメラの各々からの前記移動空中ターゲットの前記複数の画像間の微視的な時間的変動を増幅させること、及び
前記カメラの各々からの前記移動空中ターゲットの2次元で示される前記ジオメトリの検出した少なくとも1つの微視的な時間的変動の変化率のプロファイルを生成すること、を行わせ、
前記ジオメトリの検出した少なくとも1つの微視的な時間的変動は、前記移動空中ターゲットの前記ジオメトリの変動を含む、請求項15に記載のシステム。
【請求項17】
カメラごとに前記移動空中ターゲットの2次元ジオメトリの変動は異なる、請求項15に記載のシステム。
【請求項18】
前記1つまたは複数のメモリは、その上に記憶された命令をさらに含み、該命令が、前記1つまたは複数のプロセッサのうちの少なくとも1つによって実行されると、前記システムに、
前記複数のカメラの各々からの前記移動空中ターゲットの前記画像の2次元ジオメトリの変動に基づいて前記移動空中ターゲットの移動方向を決定させる、請求項15に記載のシステム。
【請求項19】
前記1つまたは複数のメモリは、その上に記憶された命令をさらに含み、該命令が、前記1つまたは複数のプロセッサのうちの少なくとも1つによって実行されると、前記システムに、
前記複数のカメラの各々からの前記移動空中ターゲットの2次元ジオメトリの変動に基づいて前記移動空中ターゲットの移動速度を決定させる、請求項15に記載のシステム。
【請求項20】
1つまたは複数のコンピュータ可読媒体であって、
命令を記憶する1つまたは複数の非一時的なコンピュータ可読媒体を含み、
前記命令が、1つまたは複数のコンピューティングデバイスによって実行されると、前記1つまたは複数のコンピューティングデバイスのうちの少なくとも1つに、
空中ターゲットについて、空中風景の所定のエリアをスキャンすること、
前記空中ターゲットの複数の画像をキャプチャすること、
400nm~700nmの周波数範囲における前記空中ターゲットの前記複数の画像間の微視的な時間的変動を増幅させることであって、検出した少なくとも1つの前記微視的な時間的変動は、前記空中ターゲットの2次元画像のジオメトリの変化を含む、こと、
前記空中ターゲットの前記画像の前記ジオメトリの変化を検出した後に、700nm~1100nmの前記周波数範囲における前記空中ターゲットの強度値を検出すること、及び
前記空中ターゲットの前記強度値の時間変化率を連続的に示すプロファイルを、既知の空中の生物学的または非生物学的な対象の強度値の時間変化率を連続的に示すプロファイルと比較して、前記空中ターゲットが既知の生物学的な対象または非生物学的な対象であるかを判定すること、を行わせる、
1つまたは複数のコンピュータ可読媒体。
【請求項21】
前記記憶された命令が、1つまたは複数のコンピューティングデバイスによって実行されると、前記1つまたは複数のコンピューティングデバイスのうちの少なくとも1つに、
前記空中ターゲットの前記2次元画像の前記ジオメトリの検出した少なくとも1つの微視的な時間的変動の変化率のプロファイルを生成すること、
前記空中ターゲットの前記プロファイルを、複数の既知の空中の生物学的または非生物学的な対象の既存の集約プロファイルと比較することであって、前記集約プロファイルは、前記既知の空中の生物学的または非生物学的な対象の前記2次元画像のジオメトリの前記検出した少なくとも1つの微視的な時間的変動に対応する、こと、及び
前記空中ターゲットの前記プロファイルと前記複数の既知のターゲットの前記集約プロファイルとの間の差を検出し、前記空中ターゲットが前記既知のターゲットのうちの1つである確率を決定することとを行わせる、請求項20に記載の1つまたは複数のコンピュータ可読媒体。



【発明の詳細な説明】
【技術分野】
【0001】
[関連出願]
本出願は、2020年4月1日に出願された「System and Methods for Early Detection of Non-Biological Mobile Aerial Target」と題する米国仮出願第63/003,711号の利益を主張し、その全体は参照により本明細書に組み込まれる。
【0002】
[技術分野]
本技術は、非生物学的な可動の空中物体の早期検出および識別のための改善されたデバイス、方法、およびシステムに関する。より詳細には、本技術は、3次元空間における物体のジオメトリの微視的な変化に基づいて無人航空機の存在を検出するためのデバイス、方法、およびシステムに関する。
【背景技術】
【0003】
連邦航空局(FAA)は、米国で飛行している無人航空機(UAV)の数が30,000台にも上るとの見方を示している。これは、UAVによる攻撃または制限された空域へのUAVによる他の望ましくない侵入から第三者の安全性を維持することに関心がある者にとって問題である。UAVに取り付けられ得る自己推進式軍需品の範囲を考慮すると、UAVの早期検出が最も重要な関心事である。音響センサまたはレーダは、より小型のUAVの低速および低電磁シグネチャを検出できない場合がある。同様に、音響センサは、ターゲットUAVを識別しようとするセンサの対気速度およびベクトルと一致する対気速度およびベクトルを有するUAVを検出できない場合がある。赤外線センサおよび他のセンサは、遠く離れた距離にある生物学的なターゲットと非生物学的なターゲットとを区別することが困難な場合がある。UAV衝突を検出し回避するための研究が行われてきた。しかしながら、UAVの早期検出および無効化に対する解決策はない。
【発明の概要】
【0004】
本技術の範囲を限定するものではないが、本技術の一態様では、遠方の未知のターゲットを分類する方法であって、空中ターゲットについて、1つまたは複数のカメラで空中風景の所定のエリアをスキャンすることと、1つまたは複数のカメラで空中ターゲットの複数の画像をキャプチャすることとを含み、ここで、1つまたは複数のカメラはプロセッサと通信している、方法が開示される。空中ターゲットの複数の画像間の微視的な時間的変動が増幅され、ここで、少なくとも1つの微視的な時間的検出変動は、空中ターゲットの2次元画像のジオメトリの変化を含む。空中ターゲットの画像のジオメトリの変化を検出した後に、本方法は、空中ターゲットの強度値を検出することをさらに含む。
【0005】
本技術の別の態様では、ターゲットの2次元画像のジオメトリの少なくとも1つの微視的な時間的検出変動の変化率のプロファイルを生成することと、ターゲットのプロファイルを、複数の既知の空中の生物学的または非生物学的な対象の既存の集約プロファイルと比較することとを含む方法であって、ここで、集約プロファイルは、既知の空中の生物学的または非生物学的な対象の2次元画像のジオメトリの少なくとも1つの微視的な時間的検出変動に対応する、方法が開示される。本方法は、空中ターゲットのプロファイルと複数の既知のターゲットの集約プロファイルとの間の差を検出し、空中ターゲットが既知のターゲットのうちの1つである確率を決定することをさらに含む。
【0006】
本技術の別の態様では、移動空中ターゲットを分類するように構成されたシステムであって、1つまたは複数のプロセッサと通信しているカメラと、1つまたは複数のプロセッサのうちの少なくとも1つに動作可能に結合され、命令が記憶されている1つまたは複数のメモリとを備えるシステムが開示される。1つまたは複数のプロセッサのうちの少なくとも1つによって実行されると、命令は、システムに、移動空中ターゲットの複数の画像をキャプチャさせ、ここで、画像は、400nm~700nmの範囲の第1の帯域および700nm~1100nmの範囲の第2の帯域の光の周波数においてキャプチャされる。命令はさらに、システムに、ターゲットの複数の画像間の微視的な時間的変動を増幅させ、第1の帯域におけるターゲットの2次元画像のジオメトリの少なくとも1つの微視的な時間的検出変動の変化率のプロファイルを生成することを行わせる。そして、第2の帯域においてキャプチャされた空中ターゲットの画像に基づいて移動空中ターゲットの色強度値を測定させ、色強度値を、空中の生物学的な対象および非生物学的な対象に対応する既知の色強度値のプロファイルと比較させる。
【0007】
本技術の別の態様では、移動空中ターゲットを分類するように構成されたシステムであって、1つまたは複数のプロセッサと通信しているカメラと、1つまたは複数のプロセッサのうちの少なくとも1つに動作可能に結合され、命令が記憶されている1つまたは複数のメモリとを備えるシステムが開示される。1つまたは複数のプロセッサのうちの少なくとも1つによって実行されると、命令は、システムに、移動空中ターゲットの複数の画像をキャプチャすることと、ターゲットの複数の画像間の微視的な時間的変動を増幅させ、ターゲットの画像の2次元ジオメトリの少なくとも1つの微視的な時間的検出変動のプロファイルを生成することとを行わせ、ここで、2次元ジオメトリの少なくとも1つの微視的な時間的検出変動は、移動ターゲットの2次元ジオメトリの垂直変動を含む。
【0008】
本技術の別の態様では、移動空中ターゲットを分類するように構成されたシステムであって、1つまたは複数のプロセッサと通信しているカメラと、1つまたは複数のプロセッサのうちの少なくとも1つに動作可能に結合され、命令が記憶されている1つまたは複数のメモリとを備えるシステムが開示される。命令が1つまたは複数のプロセッサのうちの少なくとも1つによって実行されると、命令は、システムに、移動空中ターゲットの複数の画像をキャプチャすることと、ターゲットの複数の画像間の微視的な時間的変動を増幅させ、ターゲットの画像の2次元ジオメトリの少なくとも1つの微視的な時間的検出変動のプロファイルを生成することとを行わせ、ここで、ターゲットの画像の2次元ジオメトリの少なくとも1つの微視的な時間的検出変動は、移動ターゲットの2次元ジオメトリの変化の頻度(frequency)の変動を含む。
【0009】
本技術の別の態様では、命令を記憶する1つまたは複数の非一時的コンピュータ可読媒体を備える1つまたは複数のコンピュータ可読媒体が開示され、ここで、命令は、1つまたは複数のコンピューティングデバイスによって実行されると、1つまたは複数のコンピューティングデバイスのうちの少なくとも1つに、空中ターゲットについて、空中風景の所定のエリアをスキャンすることと空中ターゲットの複数の画像をキャプチャすることとを行わせる。それはまた、1つまたは複数のコンピューティングデバイスに、400nm~700nmの周波数範囲における空中ターゲットの複数の画像間の微視的な時間的変動を増幅させることを行わせ、ここで、少なくとも1つの微視的な時間的検出変動は、空中ターゲットの2次元画像のジオメトリの変化を含む。空中ターゲットの画像のジオメトリの変化を検出した後に、1つまたは複数のコンピューティングデバイスは、700nm~1100nmの周波数範囲における空中ターゲットの強度値を検出する。
【図面の簡単な説明】
【0010】
本技術は、添付の図面と併せて解釈される以下の説明および特許請求の範囲からより完全に明らかになるであろう。これらの図面は単に本技術の例示的な態様を示すものであり、したがって、本技術の範囲を限定するものと見なされるべきではないことを理解されたい。本技術の構成要素は、本明細書において一般的に説明され、図面に示されているように、多種多様な異なる構成で配置および設計され得ることが容易に理解されよう。それにもかかわらず、本技術は、添付の図面を用いて、追加の特異性および詳細をもって記載および説明される。
図1】固定位置にいる観察者の視点から見た、動いている物体のジオメトリの相対論的変化の一例である。
図2】UAVの複数の異なる図である。
図3】本技術の一態様による未知のターゲットビューの2-D断面ピクセルビューである。
図4】本技術の態様を示すフローチャートである。
図5】本技術の態様を示す複数の図である。
【発明を実施するための形態】
【0011】
本技術の例示的な態様の以下の詳細な説明は、本技術の一部を形成し、本技術を実施することができる例示的な態様が実例として示される添付の図面を参照する。これらの例示的な態様は、当業者が本技術を実施することができるように十分詳細に説明されるが、他の態様を実現することができること、および本技術の趣旨および範囲から逸脱することなく本技術に対して様々な変更を行うことができることを理解されたい。したがって、本技術の態様の以下のより詳細な説明は、特許請求される本技術の範囲を限定することを意図するものではなく、本技術の特徴および特性を説明し、本技術の最良の動作モードを示し、当業者が本技術を実施することを十分に可能にするために、限定ではなく例示のみを目的として提示される。したがって、本技術の範囲は特許請求の範囲によってのみ定義されるべきである。本技術の以下の詳細な説明および例示的な態様は、添付の図面および説明を参照することによって最もよく理解され、本技術の要素および特徴は、図面全体を通して数字によって指定され、本明細書で説明される。
【0012】
本明細書および特許請求の範囲で使用される場合、単数形「a」、「an」、および「the」は、文脈が明確に別様に指示しない限り、複数の指示対象を含む。したがって、例えば、「層(a layer)」への言及は、複数のそのような層を含む。
【0013】
説明および特許請求の範囲における「第1」、「第2」、「第3」、「第4」などの用語は、もしあれば、同様の要素を区別するために使用され、必ずしも特定の連続的または時系列的な順序を説明するために使用されるものではない。そのように使用される任意の用語は、本明細書で説明される実施形態が、例えば、本明細書で別様に説明されるかまたは図示される順序以外の順序で動作することができるように、適切な状況下で交換可能であることを理解されたい。同様に、方法が一連のステップを含むものとして本明細書で説明される場合、本明細書で提示されるそのようなステップの順序は、必ずしも、そのようなステップを実行することができる唯一の順序ではなく、述べられたステップのうちのいくつかは、場合によっては省略可能であり、および/または本明細書で説明されないいくつかの他のステップが、場合によっては方法に追加され得る。
【0014】
本明細書および特許請求の範囲における「左(left)」、「右(right)」、「前(front)」、「後(back)」、「上(top)」、「下(bottom)」、「上(over)」、「下(under)」などの用語は、もしあれば、説明の目的で使用されるものであり、必ずしも恒久的な相対位置を説明するために使用されるものではない。そのように使用される用語は、本明細書で説明される実施形態が、例えば、本明細書で別様に説明されるかまたは図示される向き以外の向きで動作可能であるように、適切な状況下で交換可能であることを理解されたい。互いに「隣接する」ものとして本明細書で説明される物体は、その語句が使用される文脈に適切なように、互いに物理的に接触しているか、互いに近接しているか、または互いに同じ一般的な領域もしくはエリア内にあることができる。
【0015】
本明細書で使用される場合、「実質的に(substantially)」という用語は、動作、特徴、特性、状態、構造、項目、または結果の完全なまたはほぼ完全な範囲または度合いを指す。例えば、「実質的に」包囲されている物体は、物体が完全に包囲されているか、ほぼ完全に包囲されているかのいずれかであることを意味する。絶対的な完全性からの逸脱の正確な許容度は、場合によっては、特定の文脈に依存し得る。しかしながら、一般的に言えば、完全に近いということは、絶対的および全体的な完全が得られたかのように、全体的な結果が同じになるようなものである。「実質的に」の使用は、動作、特徴、特性、状態、構造、項目、または結果の完全なまたはほぼ完全な欠如を指すために否定的な意味合いで使用される場合にも等しく適用可能である。例えば、粒子を「実質的に含まない」組成物は、粒子を完全に含まないか、または粒子を完全に含まない場合と効果が同じであるようにほぼ完全に粒子を含まないかのいずれかである。言い換えれば、成分または要素を「実質的に含まない」組成物とは、測定可能な効果がない限り、そのような項目を実際には含有することができる。
【0016】
本明細書で使用される場合、「約(about)」という用語は、所与の値が端点より「少し上」または「少し下」であり得ることを提供することによって、範囲の端点に柔軟性を提供するために使用される。別途明記しない限り、特定の数値または数値範囲に従った「約」という用語の使用は、「約」という用語を伴わないそのような数値用語または範囲に対するサポートを提供するとも理解されるべきである。例えば、便宜上および簡潔さのために、「約50オングストローム~約80オングストローム」の数値範囲は、「50オングストローム~80オングストローム」の範囲に対するサポートを提供するものとも理解されるべきである。
【0017】
本明細書で使用される場合、「断面」という用語は、撮像されるターゲットまたは物体の2次元プロファイルまたはシルエットを説明するために使用される。本明細書では、撮像された物体の切断プロファイルを説明するためには使用されない。
【0018】
別段の指定がない限り、「無線信号」という用語は、任意の周波数の無線信号を説明するために使用される。
【0019】
以下にまず技術の概要を提供し、次いで具体的な技術をさらに詳細に説明する。この最初の概要は、読者が本技術をより迅速に理解するのを助けることを意図しているが、本技術の重要な特徴または本質的な特徴を特定することを意図することも、特許請求される主題の範囲を限定することも意図することもしていない。
【0020】
大まかに言えば、本明細書で説明される技術は、遠方の空中物体を生物学的な空中ターゲット(例えば、鳥)またはUAVなどの非生物学的な空中ターゲットとして分類するように構成されたシステムに属する。カメラは、プロセッサに結合されるか、またはそうでなければプロセッサと通信しており、未知の空中ターゲットの少なくとも第1の画像および第2の画像をキャプチャするように構成される。実際には、カメラはターゲットのビデオをキャプチャするであろう。プロセッサは、対象の第1の画像と第2の画像(または複数の画像のうちの他の画像)との間の時間的変動を増幅させることと、ターゲットの画像のジオメトリの任意の数の異なる変動がターゲットの分類での使用のために考慮されるが、対象のジオメトリの少なくとも1つ微視的な時間的検出変動(例えば、2D画像のピクセル値の変化など)のプロファイルを生成することとを行うように構成された実行可能コードを含む。本明細書で使用される「微視的」という用語は、使用される測定単位の0.000001倍未満の測定値を指す。例えば、0.000001インチまたは0.000001メートルである。本技術の一態様では、変動は、同様の状況下で既知のターゲットの断面のジオメトリの既知の変動と相関されることが意図される。具体的には、プロセッサは、ターゲットを、一態様では、脅威をもたらし得るUAVとしてまたは鳥として分類するために使用される、カメラから遠く離れた距離にあるターゲットの画像のジオメトリの固有の変化を見る。この固有の変化には、ターゲットの前縁の変化率、ターゲットの2次元画像またはシルエットの部分の変化率、プロペラが存在する可能性があるエリアでの移動頻度、翼の垂直運動の頻度、全体的な熱シグネチャ(すなわち、赤外線波長の強度または値または「強度値」)間の差、または本体と翼との間、もしくは本体と(UAV上の)モータとの間などの熱シグネチャの差などが含まれるが、それらに限定されない。いずれかの欠如を含めて、速度、加速度、要するに、生物学的なシステムは、特定の定量化可能な性能のエンベロープ内で動作し、「遅すぎる」ようにも「速すぎる」ようにもなり得ない。真上にも横向きにも行くことはできない。その一般的な性能エンベロープは、生物学的なものを人工的なものから分離するためのフィルタリングアルゴリズムのサブセットとして使用することができる。別のサブセットは、物体の形状の変動の性質であり、すなわち、羽ばたいている翼は、動いており、所与の速度で移動しているが、例えば、クアッドコプター、ヘキサコプター、オクトコプター、または固定翼UAVは、視点の変化に基づいてのみ変化することができる比較的固定された断面を有し、これにより、生物学的な実体と対比して、人工機械では、その変数が変化することができる速度が制限される。コプターの場合、それらが視点に対してどれだけ回転しても、その形状はほぼ一定である。高フレームレートおよび毎秒30または60フレームのシャッター速度を有する高解像度カメラ(例えば、4Kビデオカメラ)を使用して、ターゲットの動きを分離し、断面形状の形状の変化の小さな変動を増幅させて検査する。有利なことに、カメラから遠く離れた(例えば、1キロメートルを超える)距離で見られる物体を、実際の脅威をもたらす前に潜在的な脅威として分類することができる。対策を講じる前に物体を脅威として分類することで、貴重なリソースを節約し、潜在的に生命および財産を守る。本技術の一態様では、空中物体が既知のまたは疑わしい防衛上の脅威に相当する非生物学的な物体である確率がしきい値(例えば、30%、40%、50%、60%など)を超える場合、脅威を無力化するための対策を講じることができる。そのような対策には、非生物学的な物体の方向に妨害信号を伝搬すること、物体にミサイルを発射すること、および/または他の方法で物体を撃ち落とすことが含まれるが、これらに限定されない。
【0021】
ターゲットの分類には、非生物学的な空中ターゲット(例えば、UAVまたは他の航空機)または生物学的な空中ターゲット(例えば、鳥)が含まれ得る。視覚化されたジオメトリ(例えば、ターゲットの画像の2D断面、輪郭、またはシルエット)の変動には、撮像されたターゲット全体の全体的な形状の変化、撮像されたターゲットの部分、撮像されたターゲットの前縁の形状の変化、または1つの分類もしくは別の分類を示唆するような動きを示す撮像されたターゲットの他の変化が含まれ得る。プロセッサは、撮像されたターゲットのプロファイルを既知の撮像されたターゲットの既存の集約プロファイルと比較するようにさらに構成される。既知の撮像されたターゲットの集約プロファイルは、主要ターゲットの断面形状における少なくとも1つの微視的な時間的検出変動に対応する。プロセスを用いて、主要ターゲットの分類が既知のターゲットの既知の特性に類似している(または類似していない)確率を決定する。例えば、検査されているターゲットの変動が、鳥の翼の移動頻度またはプロペラに相当するエリアでの動きの相関に関連する場合、正の分類が行われ得る。相関の確率は、既知のターゲットに関する既知のまたは予測される挙動の集約プロファイルを使用して計算される。例えば、未知のターゲットの画像の観察された断面形状の変化は、既知の翼運動パターンもしくは頻度および/または既知のプロペラ回転速度を有する既知のターゲット(すなわち、鳥またはUAV)の断面形状の集約プロファイルと比較される。端的に言えば、プロセッサは、ターゲットの断面形状のプロファイルと既知のターゲットの断面形状の集約プロファイルとの間の差異および/または類似性を検出し、両者間の類似性および/または差異を相関させるように構成される。
【0022】
本技術の一態様によれば、ターゲットの画像の任意の空間位置(例えば、ピクセル)における色値の時系列を取ることができ、関心のある所与の時間周波数帯域において微視的な変動を増幅させる。プロセッサ(またはユーザ)は、1つの非限定的な例として、妥当な鳥の羽ばたき速度、プロペラ回転速度、または妥当な熱シグネチャ(すなわち、強度値)を含む時間周波数の帯域を選択し、次いで増幅させることができる。この増幅により、これらの事象の異なる時間周波数に相当し得る時間的変動が分離され、明らかにされる。この用途では、より低い空間周波数を時間的にフィルタリングして、わずかな入力信号がカメラセンサおよび量子化ノイズを上回るようにすることができる。時間的フィルタリング手法は、色変動を増幅させるだけでなく、低振幅の動きを明らかにすることもできる。
【0023】
システムの数学的解析には、オプティカルフローの定式化で使用される明るさの恒常性の仮定(brightness constancy assumption)に関連した線形近似を採用することができる。本方法はまた、この近似が成り立つ条件を導き出すことができる。これにより、ターゲットが動いていても、特徴追跡または動き推定なしに動きを拡大するマルチスケール手法を実現することができる。実際、カメラの高いフレームレートおよびシャッター速度は、肉眼で観察可能な動きからの著しいモーションアーチファクトが最小限に抑えられるように、時間的に連続して撮影された第1の画像と第2の画像とを比較するであろう。本方法は、空間的マルチスケール方法で、経時的なピクセル値の変動を観察し、増幅させる。モーションマグニフィケーション(motion magnification)に対するオイラー手法(すなわち、本明細書で説明される手法)は、動きを明示的に推定するのではなく、固定位置における時間的色変化を増幅させることによって微小な動きを誇張する。本方法は、オプティカルフローアルゴリズムの基礎を形成する微分近似を採用し、合成画像内の増幅されたピクセルを示す画像を生成することができる。
【0024】
一態様では、本方法は、局所空間プーリングおよびバンドパスフィルタリングを用いて、動きに対応する信号を抽出して視覚的に明らかにすることができる。この最初の領域解析により、ターゲット(または観察されるターゲットのエリア)上の各位置でパルス信号を増幅および可視化することができる。動的環境における遠方のターゲットのほとんど目に見えない変化は、標準的な単眼ビデオシーケンスのオイラー時空間処理を通じて明らかにすることができる。システムはリアルタイムで実行することができる。時間的フィルタリングと空間的な動きとの間の関連性の分析は、本方法が小さな変位およびより低い空間周波数に適していることを示す。単一のフレームワークは、空間的な動きと純粋な時間的変化(例えば、プロペラの動き、物体の2D形状の変化、翼の動きなど)の両方を増幅させることができ、特定の時間周波数を増幅させるように調整することができる。
【0025】
本技術の一態様では、まず、システムの空間分解モジュールが、入力画像を異なる空間周波数帯域に分解し、次いで、これらの空間周波数帯域に同じ時間フィルタを適用する。次いで、出力されたフィルタリングされた空間帯域が、増幅係数によって増幅され、加算器によって元の信号に加算され、再構成モジュールによって折り畳まれて、出力画像が生成される。時間フィルタおよび増幅係数は、異なるアプリケーションをサポートするように調整することができる。出力画像は、異なるターゲットの基本または「予測」分類に関連する特定の数値に相関する。例えば、「通常の」環境下での鳥の羽ばたきのベースライン決定を測定し、「通常の」環境下と多様な環境下の両方でのターゲットの側方部分の垂直運動の頻度と比較することができる。同様に、ターゲットの画像の軌道、速度、またはジオメトリの変化率のベースライン決定を測定し、次いで、異なる環境の影響を受けた場合の予測軌道、予測速度、または断面形状の予測変化率と比較することができる。ターゲットは、例えば、電波妨害信号または電波傍受信号を受けることもあれば、パーカッシブ信号(すなわち、大きな音、超音波周波数、爆発、または生物学的な実体を破壊する任意の無線信号など)を受けることもあり、その後に、その挙動が観察される。端的に言えば、自律プログラミングを有するUAVは、パーカッシブ信号には反応しない可能性が高いが、電波傍受信号の影響を受ける可能性はある。一方、第三者によって制御されているUAVは、電波妨害信号を検出し、その飛行パターンを変更するか、またはそれがUAVであることを示唆するように挙動する可能性がある。同様に、鳥または他の生物学的な実体は、パーカッシブ(すなわち、生物学的に破壊的な)信号には反応する可能性が高いが、電波妨害信号または無線傍受信号の影響は受けない可能性が高いであろう。環境の影響に応答したターゲットの「挙動」間の変化の比較は、カメラから遠く離れた距離にあるターゲットの「肉眼」画像ではほぼ検出不可能であり得るが、システムは、システムによって誘発される環境の影響に応答した挙動のわずかな変化を観察することによって、カメラから遠く離れた距離にあるターゲットを分類することができる方法を提供する。
【0026】
一態様では、システムは、空間的処理と時間処理とを組み合わせて、対象のビデオ画像内のわずかな時間的変化を強調する。本方法は、ビデオシーケンスを異なる空間周波数帯域に分解する。これらの帯域は、(a)それらが異なる信号対ノイズ比を示す可能性がある、または(b)それらがモーションマグニフィケーションで使用される線形近似が成り立たない空間周波数を含む可能性があるので、異なって拡大される可能性がある。後者の場合、本方法は、アーチファクトを抑制するためにこれらの帯域の増幅を低減する。空間処理の目標が、複数のピクセルをプールすることによって時間的な信号対ノイズ比を増加させることであるとき、本方法は、ビデオのフレームを空間的にローパスフィルタリングし、計算効率のためにそれらをダウンサンプリングする。しかしながら、一般的な場合には、本方法は、完全なラプラシアンピラミッドを計算する。
【0027】
次いで、システムは、各空間帯域に対して時間処理を実行する。システムは、周波数帯域におけるピクセルの値に対応する時系列を考慮し、バンドパスフィルタを適用して、関心のある周波数帯域を抽出する。一例として、システムは、例えば、ユーザが特定の小鳥の羽ばたき周波数を拡大したい場合、毎秒2~5回の羽ばたきに相当する2~5Hzの範囲内の周波数を選択することができる。当然ながら、他の予想される羽ばたき周波数(例えば、より大きな鳥では6~10Hz)、または生物学的なターゲットと非生物学的なターゲットとを区別するのに有用な他の調和運動(harmonic movement)に対して、他の周波数レートを使用することができる。システムが羽ばたき速度を抽出する場合、その値の周りの狭い周波数帯域を用いることができる。時間処理は、すべての空間レベルおよび各レベル内のすべてのピクセルに対して均一である。次いで、本方法は、抽出されたバンドパス信号に拡大係数αを乗算する。この係数は、ユーザが指定することができ、自動的に減衰させることができる。次に、本方法は、拡大された信号を元の信号に加算し、空間ピラミッドを折り畳んで、最終的な出力を得る。本技術の一態様では、特定の周波数範囲で観察されるピクセル値の微視的な変化に「偽色」コーディングを与えて、識別された周波数範囲を示す可能性がある画像のエリアをさらに目立たせることおよび強調することができる。例えば、上記で参照した例では、ユーザは、拡大されることとなる2~5Hzの範囲内の周波数を選択することができる。その範囲内で生じる動きが増幅されるだけではなく、システムによって生成される1つまたは複数の画像は、増幅されたピクセルを他の隣接する増幅されていないピクセルと対比させるカラーコーディングを用いて、増幅されたエリアを強調する。
【0028】
自然なビデオは空間的および時間的に滑らかであり、フィルタリングはピクセルにわたって均一に実行されるので、本方法は、結果の時空間コヒーレンス性を暗黙的に維持する。本方法は、ラグランジュ法のように動きを追跡することなく、小さな動きを増幅させることができる。時間処理は、参照によりその全体が本明細書に組み込まれるWuらの米国公開第2014/0072190号に説明されているように、オプティカルフロー分析において一般的な1次テイラー級数展開に依存する分析を使用してモーションマグニフィケーションを生じさせる。
【0029】
オイラービデオマグニフィケーション(Eulerian video magnification)によって入力画像を処理するために、ユーザ(または事前にプログラムされたプロセッサ)は、(1)時間的バンドパスフィルタを選択し、(2)増幅係数αを選択し、(3)それを超えるとαの減衰バージョンが使用される空間周波数カットオフ(空間波長λcによって指定される)を選択し、(4)αの減衰の形態-すべてのλ<λcに対してαをゼロに強制するか、またはαをゼロまで線形にスケーリングするかのいずれか-を選択することができる。関心のある周波数帯域は、場合によっては自動的に選択することができるが、多くの場合、ユーザが自身の用途に対応する周波数帯域を制御することができることが重要である。1つの用途では、増幅係数およびカットオフ周波数はすべてユーザによってカスタマイズ可能である。本技術の一態様では、本明細書で説明されるカメラアセットは、光の様々な波長における光の波長を検出するように構成することができる。例えば、一態様では、カメラは、約150~400nmまたは300~400nmの範囲の光の第1の波長帯域、約400~700nmの範囲の光の第2の波長帯域、および約700~1100nmまたは700~1400nmの範囲の光の第3の波長帯域を検出するように構成することができる。有利なことに、光の従来の可視スペクトル(すなわち、400~700nm)では観測することができない可能性がある移動ターゲットの状態に関するデータを観察し、UAVの構成ならびにそのモータおよび/または他の熱発生機器の位置に応じて、そのコアでかなりの量の熱を発生させ、その翼では、例えば鳥よりもかなり少ない熱を発生させるUAVを区別することに関連して使用することができる。700~1100nmまたは700~1400nmの範囲の波長周波数でキャプチャおよび分析された画像を使用して、空中ターゲットの部分の熱シグネチャまたは強度値を測定することができる。
【0030】
一態様では、オイラービデオマグニフィケーションを使用して、ターゲットの画像の断面形状の変化または変化率を増幅させることができる。この態様では、時間フィルタは、広い周波数帯域に同調され、増幅係数は最大値に設定され得る。無関係な物体のモーションマグニフィケーションを抑制するために、ユーザによって与えられたマスクは、ジオメトリの変化がより容易に増幅および観察されるターゲットの前縁付近のエリアを増幅させる。固定位置から2次元物体を観察する場合、その物体の断面形状は時間とともに変化することとなる。例えば、図1は、単純な例の2Dボックスが観察者の右に移動するときの、固定された観察者の視点から見たそのボックスの形状の変化を示す。微視的な条件下では、物体の2D画像の前縁のピクセルは、より迅速に変化する可能性が最も高い。したがって、前縁の拡大は、ターゲットを分類するために使用することができる観察可能な時間的変動をより迅速に生成する可能性が最も高い。図2は、UAVの複雑なジオメトリを示すために、例示的なUAVの異なる視点の単純な図を開示する。カメラに対するUAVの移動方向に応じて、UAV(または他のターゲット)の前縁の断面形状は、固有の変化率を有することとなる。2Dボックスの例は、ここで使用されるプロセスを過度に単純化したものであるが、相対論的ジオメトリを十分に示す。実際には、ターゲットの前縁は、ターゲットのベクトルおよびカメラとのその空間的関係に応じて、ターゲットの上部、ターゲットの側部、ターゲットの底部、または側部と上部もしくは底部との組合せであり得る。いずれにしても、前縁は、カメラから離れるように移動しているターゲットの2D画像の縁部である。可能性は低いが、複数の画像が記録される瞬間にターゲットがカメラに向かって直接移動している場合には、ターゲットのすべての側部が比例して変化することとなる。観測されたターゲットに全く変化がない場合、システムは、ターゲットを空中に浮遊しているものと識別し、ターゲットをUAVとして分類する可能性が高いであろう。図3は、未知のターゲットの画像の断面のジオメトリの一例である。
【0031】
本技術の別の態様では、プロペラの動きを増幅させるためにオイラービデオマグニフィケーションを使用することができる。この態様では、時間フィルタは、予想されるプロペラ回転速度(例えば、30Hz(1,800rpm)または300Hz(18,000rpm)など)を含む周波数帯域に同調され、増幅係数はα=10に設定することができる。無関係な物体のモーションマグニフィケーションを抑制するために、ユーザによって与えられたマスクは、ターゲットの側方部分付のエリア、または別の態様では、プロペラが存在し得るターゲットの重心を増幅させる。プロペラの動きは、処理されていない入力ビデオではほとんどまたは全く見えないが、動きが拡大された出力では著しく目立つと考えられる。その動きは、非生物学的なターゲットの動きに対応する移動頻度に相当するので、より顕著であり、したがって、UAVを検出する際により有用である。
【0032】
一態様では、プロペラに対応する周波数帯域が識別された場合、システムは、正の「ヒット」または「脅威」指示を生成し、ターゲットを無力化するためにシステムを展開する。一態様では、認可されていないUAVの正のヒットまたは脅威が生成された場合、システムは、特定の用途に適合するように、ターゲットを探して破壊するために別個のUAVを展開するか、標的型ミサイルを発射するか、またはターゲットを破壊するための他の武器を発射する。
【0033】
同様に、本技術の他の態様では、ユーザによって与えられたマスクは、鳥の羽ばたきが予想されるターゲットの側方エリアを増幅させることができる。空間フィルタリングを方向性フィルタリングと組み合わせて、特定の移動方向または隣接するピクセル間の変化の方向を増幅させることができる。例えば、本技術の一態様によれば、図3に示すように、未知のターゲットの2Dピクセル化された画像は、上部境界、下部境界、対向する側部境界、および識別可能な重心を有する中央部分を含む。対向する側部境界から横方向に、2つの翼構造が延在する。この場合、遠く離れた距離では、観測者が、鳥またはUAVとしてのそのステータスにかかわらずターゲットの翼の任意の動きを検出すること、および/または物体を鳥またはUAVとして分類することは困難であり得る。空間フィルタは、ターゲットの翼エリア「A」に特に適用され得、方向性フィルタは、特定の方向のピクセルの変化のみを増幅させるために適用され得る。例えば、方向性フィルタは、鳥の翼の動きに起因し得る動きを強調するために、空間フィルタによって識別されたエリア「A」の上または下(「B」として示される)にあるピクセルの変化を増幅させるために適用され得る。同様に、方向性フィルタは、水平プロペラに起因し得る動きを強調するために、空間的にフィルタリングされたピクセルの側面に位置するピクセルの変化を増幅させるために適用され得る。当然ながら、未知のターゲットの他のわずかな動きも観察され、ターゲットを分類するために使用されてもよく、それには、ターゲットの縁部の任意の部分のピクセル値の変化が含まれるが、これに限定されない。
【0034】
未知のターゲットの個々の属性の評価が上記で説明されているが、未知のターゲットの正確な分類の確率を高めるために、1つまたは複数の異なる属性が未知のターゲットの任意の複数の画像において評価され得ることが理解されたい。例えば、本技術の一態様では、未知のターゲットの画像の一般的な断面形状の時間的変化が増幅され、ターゲットの翼の垂直運動の時間的変化と同様に評価される。2つの異なる変化が区別可能である態様では、2つの異なる変化は、2つの異なる非平行方向に生じる。例えば、変化の方向のうちの1つは、未知の物体の移動方向に対応し得、別の方向は、鳥の翼またはターゲットのプロペラの移動方向に対応し得、各々は、ターゲットをUAVまたは鳥として分類するのに役立つ。すなわち、方向D1における未知の物体の一般的な動きは、未知の物体の翼の断面形状の変化とは異なる。
【0035】
本技術の一態様では、プロセスは、増幅されるべき動きまたは信号を引き出すために時間的バンドパスフィルタを選択する。フィルタの選択は、一般に用途に依存する。モーションマグニフィケーションの場合、広い通過帯域を有するフィルタを使用することができる。色増幅の場合、狭い通過帯域が、よりノイズの少ない結果を生む。理想的なバンドパスフィルタは、鋭いカットオフ周波数を有する通過帯域を有するので、色増幅に使用することができる。低次IIRフィルタは、色増幅およびモーションマグニフィケーションの両方に有用であり得、リアルタイム実装に便利である。一般に、カットオフ周波数ωlおよびωhを有する2つの1次ローパスIIRフィルタを使用して、IIRバンドパスフィルタを構成することができる。プロセスは、所望の拡大値α、および空間周波数カットオフλcを選択する。所望の結果を達成するために、様々なαおよびλc値を使用することができる。ユーザは、ノイズの増加またはより多くのアーチファクトの導入を犠牲にして、特定の動きまたは色の変化を誇張するために、帯域を侵すより高いαを選択することができる。
【0036】
一態様では、システムは、ビデオを入力として取り込み、わずかな色の変化および微小な動きを誇張する。本方法は、動きを増幅させるために、特徴追跡またはオプティカルフロー計算を実行せず、時空間処理を使用して時間的な色変化を単に拡大する。固定された空間領域内のピクセルを時間的に処理するこのオイラーベースの方法は、情報信号を明らかにし、実世界ビデオ内の小さな動きを増幅させる。オイラーベースの方法は、2つ以上の画像のピクセル値を調べることから開始する。次いで、本方法は、調べられたピクセル値の時間的変動を決定する。本方法は、小さな時間的変動のみを増幅させるように設計される。本方法は、大きな時間的変動に適用することもできるが、本方法の利点は、小さな時間的変動に対して提供される。したがって、入力ビデオが画像間で小さな時間的変動を有するときに本方法を最適化することができる。次いで、本方法は、ピクセル値に信号処理を適用することができる。例えば、信号処理は、時間的変動が小さい場合であっても、決定された時間的変動を増幅させることができる。そのため、空中ターゲットの一般的な動きから存在するアーチファクトを最小限に抑えるために、高いキャプチャフレームレートおよびシャッター速度を有するカメラの使用が望ましい。
【0037】
本技術の一態様では、カメラは、友好的なUAVまたは他の航空機に搭載され、敵対するUAVアクティビティについて監視されるべき近傍周辺エリアに配置される。友好的なUAVは、所定のコースを移動し、経時的に3次元空間の所定のエリアをスキャンする自律機能を有し得る。別の態様では、友好的なUAVは、手動で操作されてもよい。一態様では、潜在的な敵対するUAVが検出された場合、友好的なUAVは、そのUAVがほぼ静止状態である制御システムに関与し、潜在的な敵対するUAVを記録し始める。別の態様では、友好的なUAVは、潜在的な敵対するUAVに向かう方向に移動し続ける。いずれの態様においても、友好的なUAVの動きは、それが小さくても大きくても、プロセッサによって考慮され、ノイズを最小限に抑えるために画像から差し引かれる。
【0038】
本技術の一態様では、互いに分離された複数のカメラを使用して、同じ未知のターゲットを撮像する。ジオメトリの微視的な時間的変動を拡大するために本出願で説明したものと同様の方法論を使用して、未知のターゲットの複数のプロファイルが取得され、未知のターゲットを分類するための追加のデータを提供する未知のターゲットの「三角測量」に使用される。未知のターゲットの分類に加えて、複数のプロファイルを組み合わせて、未知のターゲットの軌道および速度を予測することができる。例えば、本技術の一態様では、未知のターゲットの全体的な断面形状(すなわち、カメラによってキャプチャされた2D画像、プロファイル、またはターゲットのシルエット)の変化率を比較することによって、未知のターゲットのベクトルおよび速度を推定することができる。
【0039】
1つの例示的な態様では、2つのカメラ(システム内の「右」カメラおよび「左」カメラ)がある横方向距離Xだけ離れており、両方がある距離Yだけ離れた物体を見ている場合、これら2つのカメラは、接近している物体に異なる事柄が起こっていることを「見る」ことになる。一態様では、接近する物体が右カメラへの直線経路上にある場合、そのカメラは、水平方向の動き(すなわち、X方向の変位)を見ることはなく、代わりに、接近する物体がより大きくなっていることだけを見ることになる。左カメラは、同様に物体が大きくなるのを見るが、物体が近づくにつれて物体が右に変位することも見ることになる。この態様では、水平変位は、右カメラについては0であり、左カメラについては何らかの非0の正の数である。物体が右カメラの右に接近している場合、左カメラは依然として右カメラよりも大きな水平変位を見ることになる。この水平変位の差は、物体を水平面内に位置付け、垂直変位の差は、物体を垂直面内に位置付ける。垂直方向および水平方向の変化の組合せは、物体の経路を示し、瞬間的な結果はその実際の位置である。この技法では視差法が使用される。例えば、その全体が参照により本明細書に組み込まれる、Karl F. Kuhn & Theo Koupelis, In Quest Of The Universe (4th edition)を参照されたい。他の情報は、視差法を使用して「ステレオ導出」情報を補完するために使用され得る。例えば、一態様では、物体のサイズについて仮定がなされ(すなわち、商用UASは、高さが12インチと24インチとの間の範囲および何らかの同様の測定幅である)、システムは、その距離を近似的に推定することができ、その変化は、その前進速度の推定を可能にする。本方法は立体視と呼ばれることがある。例えば、両方ともその全体が参照により本明細書に組み込まれる、Howard IP, Rogers BJ (1995). Binocular Vision and Stereopsis. New York: Oxford University Press およびHoward IP, Rogers BJ (2012), Perceiving in Depth, Volume 3. New York: Oxford University Pressを参照されたい。
【0040】
本技術の一態様では、クライアントコンピュータ(複数可)/デバイスおよびサーバコンピュータ(複数可)は、本明細書で説明される方法およびプロセスを使用するためのアプリケーションプログラムなどを実行する処理、記憶、および入出力デバイスを提供する。クライアントコンピュータ(複数可)/デバイスはまた、通信ネットワークを通して、他のクライアントデバイス/プロセスおよびサーバコンピュータ(複数可)を含む他のコンピューティングデバイスに関連付けることができる。通信ネットワークは、リモートアクセスネットワーク、グローバルネットワーク(例えば、インターネット)、コンピュータの世界規模の集合体、ローカルエリアネットワークまたはワイドエリアネットワーク、および互いに通信するためにそれぞれのプロトコル(TCP/IP、Bluetooth(登録商標)など)を現在使用しているゲートウェイの一部であり得る。他の電子デバイス/コンピュータネットワークアーキテクチャも適している。
【0041】
一態様によれば、コンピュータはシステムバスを含むことができ、バスは、コンピュータまたは処理システムの構成要素間のデータ転送に使用されるハードウェアラインのセットである。バスは、本質的に、要素間での情報の転送を可能にするコンピュータシステムの異なる要素(例えば、プロセッサ、ディスクストレージ、メモリ、入力/出力ポート、ネットワークポートなど)を接続する共有コンジットである。システムバスには、様々な入力および出力デバイス(例えば、キーボード、マウス、ディスプレイ、プリンタ、スピーカなど)をコンピュータに接続するためのI/Oデバイスインターフェースが接続されている。ネットワークインターフェースにより、コンピュータは、ネットワークに接続された様々な他のデバイスに接続することを可能にする。メモリは、本開示の実施形態を実装するために使用されるコンピュータソフトウェア命令およびデータ(例えば、上で詳述されたコード)のための揮発性ストレージを提供する。ディスクストレージは、本開示の実施形態を実装するために使用されるコンピュータソフトウェア命令およびデータのための不揮発性ストレージを提供する。中央処理装置もシステムバスに接続され、コンピュータ命令の実行を提供する。
【0042】
一実施形態では、プロセッサルーチンおよびデータは、システムのためのソフトウェア命令の少なくとも一部を提供するコンピュータ可読媒体(例えば、1つまたは複数のDVD-ROM、CD-ROM、ディスケット、テープなどのリムーバブル記憶媒体)を含むコンピュータプログラム製品である。コンピュータプログラム製品は、当技術分野で周知なように、任意の適切なソフトウェアインストール手順によってインストールすることができる。別の態様では、ソフトウェア命令の少なくとも一部を、ケーブル、通信および/またはワイヤレス接続を介してダウンロードすることもできる。他の態様では、プログラムは、伝搬媒体上の伝搬信号(例えば、電波、赤外線波、レーザー波、音波、またはインターネットなどのグローバルネットワークもしくは他のネットワーク(複数可)を介して伝搬される電波)上で具現化されるコンピュータプログラム伝搬信号製品を含む。そのようなキャリア媒体または信号は、本技術のためのソフトウェア命令の少なくとも一部を提供する。代替の態様では、伝搬信号は、伝搬媒体上で搬送されるアナログ搬送波またはデジタル信号を含むことができる。例えば、伝搬信号は、グローバルネットワーク(例えば、インターネット)、電気通信ネットワーク、または他のネットワークを介して伝搬されるデジタル化された信号であり得る。一実施形態では、伝搬信号は、数ミリ秒、数秒、数分、またはそれ以上の期間にわたってネットワークを介してパケットで送信されるソフトウェアアプリケーションのための命令など、ある期間にわたって伝搬媒体を介して送信される信号を含むことができる。別の実施形態では、コンピュータプログラム製品のコンピュータ可読媒体は、コンピュータプログラム伝搬信号製品に関して上述したように、伝搬媒体を受け取り、伝搬媒体内に具現化される伝搬信号を識別することなどによって、コンピュータシステムが受け取って読み取ることができる伝搬媒体であり得る。一般的に言えば、「キャリア媒体」または過渡キャリアという用語は、前述の過渡信号、伝搬信号、伝搬媒体、記憶媒体などを包含する。
【0043】
本技術の一態様では、ターゲット観察に関連するベースラインデータのデータセットが収集され、ターゲットが分類された時点でターゲット特性のプロファイルが生成される。例えば、既知のターゲットのプロファイルは、異なる通常の気象条件下でのターゲットの速度および軌道を含み得る。図5は、ある時間(t)にわたって微視的に検出されたターゲットの変化(デルタ)に対して生成された一般的プロファイル200のグラフ表現を示す。同じ既知のターゲット(例えば、ガチョウ)のベースラインプロファイル(すなわち、履歴データの集約)のグラフィカル表現が210に示されている。集約された既知のターゲットプロファイルのグラフ表示が220に示されている。各表現において、同じ期間にわたって同じように微視的に検出された変化(例えば、羽ばたき)の変化(デルタ)が提示される。
【0044】
一態様では、集約は、ユーザが選択したカテゴリによって制限されたデータセットの正規化を含む。遠く離れた距離からの観測可能な幾何学的変動の有限集合が与えられると、データセットをカテゴリにグループ化することができる。非限定的な例示的なカテゴリには、軌道、速度、ターゲットの側方部分(すなわち、翼)の移動頻度、熱シグネチャ、人工的に誘発されたる環境の影響に対する反応などが含まれる。集約されたグループはさらに、特定の分析に適するようにサブクラスにグループ化することができる。1つの非限定的な例では、集約プロファイルは、冬期の数カ月の間のガチョウの羽ばたき周波数について生成される。集約プロファイルを、同じ冬期の数カ月の間に観察された特定のターゲットについてのベースライン比較として使用して、集約プロファイルからのターゲットの逸脱または集約プロファイルへの類似性を決定することができる。各カテゴリでは、可能であれば、データはタイムラインによってソートされる。集約プロファイルと特定のターゲットプロファイルとの比較が行われると、特定のターゲットプロファイルのデータを含むように集約プロファイルを修正することができる。
【0045】
図4を参照すると、本技術のための一般化されたアーキテクチャは、ターゲット(すなわち、UAVまたは鳥)の分類のために幾何学的条件の微視的な時間的変動を分析するためのシステム100を含む。ボックス102から開始して、1つまたは複数のカメラデバイス104、105は、ターゲットのジオメトリの微視的な時間的変動を含む画像をキャプチャするように構成される。カメラデバイス104、105の各々は、画像値の時系列を含む画像を生成する。
【0046】
ボックス102の右への分岐に続いて、カメラデバイス104、105の出力信号は、アーカイブデータベース106を作成するために、メモリ構成要素に送信され、そこに記憶され得る。データベース106は、ターゲットに関する既知のまたは予測された情報の測定値を収容することができる。例えば、既知のプロペラ回転速度、羽ばたき速度、環境の影響に基づいて予測される挙動などである。データベース106は、1つまたは複数のカメラ104、105からの信号を表す生データのセグメントと、タイプ、製造業者、モデル、センサID、サンプリング周波数、日付などのデータ収集システムに関する情報を含むことができるメタデータとを復号し、記憶することができる。関心のある1つまたは複数のデータセグメントは、108で表されるプロセッサに通信される。プロセッサ108は、カメラデバイス104、105によって生成されたデータを取得し、取得されたデータに基づいて計算を実行するように構成されたコンピューティングデバイスである。一実施形態では、コンピューティングデバイスは、少なくとも1つのプロセッサ108と、コンピューティングデバイスをデータベース106に結合するためのインターフェースと、非一時的コンピュータ可読媒体とを含むことができる。コンピュータ可読媒体は、プロセッサ108による実行に応答して、プロセッサ108に、取得されたデータに対して説明した算を実行させるコンピュータ実行可能命令を記憶することができる。適切なコンピューティングデバイスの一例は、本明細書で説明されるアクションを実行するように特にプログラムされたパーソナルコンピュータである。本開示の様々な実施形態では、ラップトップコンピュータ、スマートフォン、タブレットコンピュータ、クラウドコンピューティングプラットフォーム、組込みデバイスなどの任意の適切なコンピューティングデバイスを使用することができるので、この例は限定するものとして解釈されるべきではない。
【0047】
再び図4を参照すると、以下でより詳細に説明するように、アーカイブされたデータの時間セグメントは、本技術にしたがってさらに分析するための形式に前処理される(ボックス110)。その結果、ターゲット自体から取り出された「トレーニングデータ」(ボックス112)または「ベースラインデータ」と呼ぶことができる変更されたデータセットが得られる。トレーニングデータは、アーカイブからのカメラデータとターゲットの分類との間の相関を示すモデルを作成するために使用される。図4では、モデル生成は114で表され、コンピューティングデバイスに記憶された結果として得られたモデルは116で表される。ボックス102に戻ると、モデル116が生成されると、カメラデバイス104または105は、シリアルケーブル、USBケーブル、Bluetooth(登録商標)接続などのローカルネットワーク接続、ワイヤードローカルエリアネットワーク接続、WIFI接続、赤外線接続などによるリアルタイム接続によってプロセッサ108に結合され得る。別の実施形態では、カメラデバイス104、105は、インターネット、WiMAXネットワーク、3G、4G、または5Gネットワーク、GSMネットワークなどのワイドエリアネットワークによってプロセッサ108に結合され得る。カメラデバイス104、105はそれぞれ、各カメラデバイス104、105をプロセッサ108に結合するネットワークインターフェース構成要素を含むことができる。代替として、カメラデバイス104、105はそれぞれ、直接物理接続またはローカルネットワーク接続を介して共有ネットワーキングデバイスに結合され得、それは、ワイドエリアネットワークを介してプロセッサ108への接続を確立する。
【0048】
本技術の一態様では、ターゲットの測定された時間的変動とターゲット(例えば、UAVまたは鳥)の分類との相関は、重回帰分析によって確立することができる。分析のために、Yは、関心のある時間的変動を示す従属変数または基準変数を表し、X1,X2,X3,...,Xnは、Yの独立変数または予測変数(すなわち、1つまたは複数のセンサから導出されたデータ)を表すものとする。独立変数Xiの観測と結合されたYの観測が実験の事例または実行である。典型的には、任意の所与の変数に対する値の観察は、連続した完全に順序付けられたセットを形成する。変数がカテゴリ的または確率的である場合(医学的状態または有無を表す0または1など)、ロジスティック関数を使用して回帰モデルを表す。実験の実行では、これらの変数のスコア値が母集団から観察される。使用される任意のデータセットは、母集団または大きなグループからのサンプルであると考えられる。独立変数Xの時系列データに基づいて従属変数Yの時系列値を予測するために、回帰が使用される。理想的には、Xの時系列データは、定期的な間隔でサンプリングされ、Xiによって表される。従属変数Yの時系列データは、定期的にサンプリングされる必要はない。YiおよびXiの観測は、期間0<t<Tにわたって行われる。因果関係が仮定されており、Ytが存在すれば、重回帰においてXt,Xt-1,4 t-2,Xt-3,…X0を使用してそれを予測することができる。
【0049】
本技術の一態様によれば、時間t-Nと時間tとの間のN個のサンプルを取得するために、予測子の時間的変動がサンプリングされ得る。スペクトル分析(例示的な実施形態ではFFT)を使用して、重回帰分析で使用される波形周波数成分を取得することができる。重回帰分析の別の変数は、時間tにおける対象の状態の指標である。これは、ターゲットがUAVである可能性が高いか否かを示す時間的変動(すなわち、プロペラ回転)のバイナリインジケータであり得る。様々な観察は、線形関数における予測子の様々な係数の値を設定するために、重回帰においてを使用することができる。予測子の値は、予測子信号のスペクトル成分である。その結果が、プロセッサ内に常駐するモデルである。プロセッサは、カメラデバイスから処理されたデータから、時間遅延された、スペクトル分析された予測子データ信号を導出し、プロセッサおよびモデルを使用して、ターゲットの分類の予測を示す出力を提供する。分散型時間遅延回帰がデータに対して実行されるので、2つの波形間の相関が主張されるものの時間スケールは、それらのサンプリング周波数よりもはるかに長くなる可能性があり、予測子の数を管理することが望ましい可能性がある。予測子は、相関が疑われるものが適所にある時間遅延領域をカバーする必要がある。
【0050】
スペクトル情報(例えば、FFT)のを使用すると、使用する信号の帯域幅に対するモデルにおいて多くの予測子を使用する必要があると考えられる。しかしながら、重回帰は、多くの場合、使用する予測子がより少なくて済む場合に利益を得る。独立変数セットを減少させる目標は、代表的な予測子が使用されるとき、および予測子が類似した特性を有するグループに配置され得るときに達成することができる。本技術における類似したグループ(すなわち、集約データセットのサブクラス)への予測子の配置は、クラスタリングアルゴリズムの使用によって達成することができる。クラスタリングアルゴリズムは、通常、アルゴリズムによって見出されるべきクラスタの所望の数を表すパラメータkにしたがって、観測値のセットをグループ化する。階層的クラスタリングアルゴリズムは、ボトムアップおよびトップダウン方法を使用してkのすべての値についてクラスタリング問題を解決する。本開示で使用する1つの適切な階層的クラスタリングアルゴリズムは、AGNES(参照により本明細書に明示的に組み込まれる、L. Kaufman and P. J. Rousseeuw. Finding Groups in Data, An Introduction to Cluster Analysis, Hoboken, N.J., Wiley-Interscience, 2005を参照されたい)と呼ばれ、FFT係数に対して実行される重回帰から得られる3つの基準に基づいてスペクトル予測子をクラスタリングすることができる。クラスタリングする際に使用される類似性の尺度として、これらの基準は、FFTインデックス、回帰係数推定値自体、および回帰係数t値である。
【0051】
分析される本明細書で論じられる時間的変動は、分類のための時間的に隣接する2つの画像の比較に限定されない。むしろ、システムは、ユーザが指定した画像のグループ化にしたがって未知のターゲットの画像を常に評価するように構成される。一態様では、ユーザは、増幅システムに入力されるべき画像の数および期間を選択することができる。次いで、システムは、ユーザが入力した基準にしたがって任意の未知のターゲットを常に監視する。
【0052】
本技術の一態様では、非生物学的な空中実体を識別するための本明細書で説明されるシステムは、対策システムに結合される。対策システムは、陸上、海上、航空、または宇宙ベースであり得る。それは、カメラシステムに地理的に近接していてもよいし、地理的に離れていてもよい。一態様では、対策システムは、ターゲットを無効にするためにターゲットに向けて発射または射撃することができる発射体(例えば、ミサイル、弾丸など)を備える。別の態様では、対策システムは、レーザーまたはレーザー誘導発射体を備える。さらに別の態様では、対策システムは、ターゲットを捕獲するように構成されたUAVまたは他の航空機を備える。
【0053】
前述の詳細な説明は、特定の例示的な態様を参照して本技術を説明している。しかしながら、特許請求の範囲に記載される本技術の範囲から逸脱することなく、様々な修正および変更を行うことができることが理解されよう。詳細な説明および添付の図面は、限定的なものではなく、単に例示的なものと見なされるべきであり、すべてのそのような修正または変更は、もしあれば、本明細書で説明および記載された本技術の範囲内に入ることが意図される。
【0054】
より具体的には、本技術の例示的な態様が本明細書で説明されてきたが、本技術はこれらの態様に限定されるものではなく、前述の詳細な説明に基づいて当業者によって理解されるであろう修正、省略、(例えば、様々な態様にわたる態様の)組合せ、適合、および/または変更を有するありとあらゆる態様を含む。特許請求の範囲における限定は、特許請求の範囲において使用される言語に基づいて広く解釈されるべきであり、前述の詳細な説明において、または本出願の審査中に説明される例に限定されるべきではなく、これらの例は非排他的なものと解釈されるべきである。例えば、本開示において、「好ましくは」という用語は、それが「好ましくは、しかし限定されない」を意味することが意図される場合、非排他的である。任意の方法またはプロセスの請求項に記載される任意のステップは、任意の順序で実行することができ、請求項に提示される順序に限定されるものではない。ミーンズ・プラス・ファンクションまたはステップ・プラス・ファンクションの限定は、特定の請求項の限定について、以下の条件のすべてがその限定内に存在する場合にのみ使用される:a)「のための手段」または「のためのステップ」が明示的に記載されていること、および、b)対応する機能が明示的に記載されていること。ミーンズ・プラス・ファンクションをサポートする構造、材料、または動作は、本明細書の説明に明示的に記載されている。したがって、本技術の範囲は、上記の説明および実施例によってではなく、特許請求の範囲およびそれらの法的同等物によってのみ決定されるべきである。
【0055】
以下に、出願当初の特許請求の範囲の内容を実施例として記載しておく。
[実施例1]
遠方の未知のターゲットを分類する方法であって、
空中ターゲットについて、1つまたは複数のカメラで空中風景の所定のエリアをスキャンすることと、
前記1つまたは複数のカメラで前記空中ターゲットの複数の画像をキャプチャすることと、ここで、前記1つまたは複数のカメラはプロセッサと通信しており、
400nm~700nmの周波数範囲における前記空中ターゲットの前記複数の画像間の微視的な時間的変動を増幅させることと、ここで、前記少なくとも1つの微視的な時間的検出変動は、前記空中ターゲットの2次元画像のジオメトリの変化を含み、
前記空中ターゲットの前記画像の前記ジオメトリの変化を検出した後に、700nm~1100nmの前記周波数範囲における前記空中ターゲットの強度値を検出することと
を含む方法。
[実施例2]
前記ターゲットの前記2次元画像の前記ジオメトリの少なくとも1つの微視的な時間的検出変動の変化率のプロファイルを生成することと、
前記ターゲットの前記プロファイルを、複数の既知の空中の生物学的または非生物学的な対象の既存の集約プロファイルと比較することと、ここで、前記集約プロファイルは、前記既知の空中の生物学的または非生物学的な対象の前記2次元画像のジオメトリの前記少なくとも1つの微視的な時間的検出変動に対応し、
前記空中ターゲットの前記プロファイルと前記複数の既知のターゲットの前記集約プロファイルとの間の差を検出し、前記空中ターゲットが前記既知のターゲットのうちの1つである確率を決定することと
をさらに含む、実施例1に記載の方法。
[実施例3]
前記空中ターゲットが非生物学的な対象である前記確率が所定の値を超えた場合、防御対策を実施すること
をさらに含む、実施例2に記載の方法。
[実施例4]
前記所定の値が50パーセントより大きい、実施例3に記載の方法。
[実施例5]
前記防御対策は、前記空中ターゲットに向けて妨害信号を伝搬すること、前記空中ターゲットに向けてミサイルを発射すること、前記空中ターゲットを捕獲するためのシステムを発射すること、および/または前記空中ターゲットを射撃すること、または他の手段によって前記空中ターゲットを無効にすることのうちの1つまたは複数を含む、実施例3に記載の方法。
[実施例6]
前記空中ターゲットの前記強度値を、既知の空中の生物学的または非生物学的な対象の強度値のプロファイルと比較して、前記空中ターゲットが既知の生物学的または非生物学的な対象であるかを判定することをさらに含む、実施例1に記載の方法。
[実施例7]
移動空中ターゲットを分類するように構成されたシステムであって、
1つまたは複数のプロセッサと通信しているカメラと、
前記1つまたは複数のプロセッサのうちの少なくとも1つに動作可能に結合され、命令が記憶されている1つまたは複数のメモリと
を備え、前記命令は、前記1つまたは複数のプロセッサのうちの少なくとも1つによって実行されると、前記システムに、
前記移動空中ターゲットの複数の画像をキャプチャすることと、ここで、前記画像は、400nm~700nmの範囲の第1の帯域および700nm~1100nmの範囲の第2の帯域の光の周波数においてキャプチャされ、
前記ターゲットの前記複数の画像間の微視的な時間的変動を増幅させ、前記第1の帯域における前記ターゲットの前記2次元画像の前記ジオメトリの少なくとも1つの微視的な時間的検出変動の変化率のプロファイルを生成することと、
前記第2の帯域においてキャプチャされた前記空中ターゲットの前記画像に基づいて前記移動空中ターゲットの色強度値を測定し、前記色強度値を、空中の生物学的な対象および非生物学的な対象に対応する既知の色強度値のプロファイルと比較することと
を行わせる、システム。
[実施例8]
前記1つまたは複数のメモリは、それ上に記憶された命令であって、前記1つまたは複数のプロセッサのうちの少なくとも1つによって実行されると、前記システムに、前記対象の前記プロファイルを、複数の既知の可動の生物学的または非生物学的な対象の既存の集約プロファイルと比較することと、ここで、前記集約プロファイルは、前記既知の可動の生物学的または非生物学的なターゲットの前記2次元画像のジオメトリの前記少なくとも1つの微視的な時間的検出変動に対応し、前記移動空中ターゲットの前記プロファイルと前記複数の既知のターゲットの前記集約プロファイルとの間の差を検出することと、前記移動空中ターゲットが前記既知のターゲットのうちの1つである確率を決定することとを行わせる命令をさらに含む、実施例7に記載のシステム。
[実施例9]
前記移動空中ターゲットに向けられた無線信号を伝搬するように構成された送信機をさらに備える、実施例7に記載のシステム。
[実施例10]
前記カメラおよび送信機は、無人航空機に搭載される、実施例9に記載のシステム。
[実施例11]
前記1つまたは複数のメモリは、それ上に記憶された命令であって、前記1つまたは複数のプロセッサのうちの少なくとも1つによって実行されると、前記システムに、前記無線信号を受けた前記移動空中ターゲットの前記プロファイルと、無線信号を受けた複数の既知の対象の集約プロファイルとの間の差を検出することと、前記移動空中ターゲットが前記既知のターゲットのうちの1つである確率を決定することとを行わせる命令をさらに含む、実施例9に記載のシステム。
[実施例12]
前記移動空中ターゲットに向けられたパーカッシブ信号を生成するように構成された発射体をさらに備える、実施例7に記載のシステム。
[実施例13]
前記カメラおよび発射体は、無人航空機に搭載される、実施例9に記載のシステム。
[実施例14]
前記1つまたは複数のメモリは、それ上に記憶された命令であって、前記1つまたは複数のプロセッサのうちの少なくとも1つによって実行されると、前記システムに、前記パーカッシブ信号を受けた前記移動空中ターゲットの前記プロファイルと、パーカッシブ信号を受けた複数の既知の対象の集約プロファイルとの間の差を検出することと、前記移動空中ターゲットが前記既知のターゲットのうちの1つである確率を決定することとを行わせる命令をさらに含む、実施例9に記載のシステム。
[実施例15]
前記カメラは、約150~400nmの範囲の光の第1の波長帯域、約400~700nmの範囲の光の第2の波長帯域、および約700~1100nmの範囲の光の第3の波長帯域を検出するように構成される、実施例7に記載のシステム。
[実施例16]
前記システムは、各々が異なる視野を有して互いに離れて配置され、各々が前記プロセッサと通信するように構成された複数のカメラを備え、前記複数のカメラの各々の視野は、前記複数のカメラのうちの少なくとも1つの他のカメラの視野と重複し、前記カメラの各々は、前記移動空中ターゲットの複数の画像をキャプチャするように構成される、実施例7に記載のシステム。
[実施例17]
前記1つまたは複数のメモリは、それ上に記憶された命令であって、前記1つまたは複数のプロセッサのうちの少なくとも1つによって実行されると、前記システムに、前記異なるカメラの各々からの前記ターゲットの前記複数の画像間の微視的な時間的変動を増幅させ、前記カメラの各々からの前記2次元ターゲットの前記ジオメトリの少なくとも1つの微視的な時間的検出変動の変化率のプロファイルを生成することを行わせる命令をさらに含み、ここで、前記ジオメトリの少なくとも1つの微視的な時間的検出変動は、前記移動ターゲットの前記ジオメトリの変動を含む、実施例16に記載のシステム。
[実施例18]
カメラごとに前記移動ターゲットの前記2次元ジオメトリの前記変動は異なる、実施例16に記載のシステム。
[実施例19]
前記1つまたは複数のメモリは、それ上に記憶された命令であって、前記1つまたは複数のプロセッサのうちの少なくとも1つによって実行されると、前記システムに、前記複数のカメラの各々からの前記移動ターゲットの前記画像の前記2次元ジオメトリの前記変動に基づいて前記移動ターゲットの移動方向を決定させる命令をさらに含む、実施例16に記載のシステム。
[実施例20]
前記1つまたは複数のメモリは、それ上に記憶された命令であって、前記1つまたは複数のプロセッサのうちの少なくとも1つによって実行されると、前記システムに、前記複数のカメラの各々からの前記移動ターゲットの前記2次元ジオメトリの前記変動に基づいて前記移動ターゲットの移動速度を決定させる命令をさらに含む、実施例16に記載のシステム。
[実施例21]
移動空中ターゲットを分類するように構成されたシステムであって、
1つまたは複数のプロセッサと通信しているカメラと、
前記1つまたは複数のプロセッサのうちの少なくとも1つに動作可能に結合され、命令が記憶されている1つまたは複数のメモリと
を備え、前記命令は、前記1つまたは複数のプロセッサのうちの少なくとも1つによって実行されると、前記システムに、
前記移動空中ターゲットの複数の画像をキャプチャすることと、前記ターゲットの前記複数の画像間の微視的な時間的変動を増幅させ、前記ターゲットの前記画像の前記2次元ジオメトリの前記少なくとも1つの微視的な時間的検出変動のプロファイルを生成することを行わせ、ここで、前記2次元ジオメトリの前記少なくとも1つの微視的な時間的検出変動は、前記移動ターゲットの前記2次元ジオメトリの垂直変動を含む、
システム。
[実施例22]
前記少なくとも1つの微視的な時間的検出変動は、前記移動ターゲットの前記画像の前記2次元ジオメトリの垂直変動の頻度を含む、実施例21に記載のシステム。
[実施例23]
前記1つまたは複数のメモリは、それ上に記憶された命令であって、前記1つまたは複数のプロセッサのうちの少なくとも1つによって実行されると、前記システムに、前記移動ターゲットの前記画像の重心を近似させる命令をさらに含む、実施例21に記載のシステム。
[実施例24]
前記1つまたは複数のメモリは、それ上に記憶された命令であって、前記1つまたは複数のプロセッサのうちの少なくとも1つによって実行されると、前記システムに、前記移動ターゲットの前記画像の上端および下端を近似させる命令をさらに含む、実施例21に記載のシステム。
[実施例25]
前記1つまたは複数のメモリは、それ上に記憶された命令であって、前記1つまたは複数のプロセッサのうちの少なくとも1つによって実行されると、前記システムに、前記移動ターゲットの前記画像の側面を近似させる命令をさらに含む、実施例21に記載のシステム。
[実施例26]
前記複数の画像は複数の赤外線画像を含み、前記画像の前記2次元ジオメトリの前記少なくとも1つの微視的な時間的検出変動は、前記移動ターゲットの前記赤外線画像からの色の強度を評価することによって検出される、実施例21に記載のシステム。
[実施例27]
前記カメラは、無人航空機に搭載される、実施例21に記載のシステム。
[実施例28]
前記カメラは、固定構造に搭載される、実施例21に記載のシステム。
[実施例29]
移動空中ターゲットを分類するように構成されたシステムであって、
1つまたは複数のプロセッサと通信しているカメラと、
前記1つまたは複数のプロセッサのうちの少なくとも1つに動作可能に結合され、命令が記憶されている1つまたは複数のメモリと
を備え、前記命令は、前記1つまたは複数のプロセッサのうちの少なくとも1つによって実行されると、前記システムに、前記移動空中ターゲットの複数の画像をキャプチャすることと、前記ターゲットの前記複数の画像間の微視的な時間的変動を増幅させ、前記ターゲットの前記画像の前記2次元ジオメトリの前記少なくとも1つの微視的な時間的検出変動のプロファイルを生成することとを行わせ、ここで、前記ターゲットの前記画像の前記2次元ジオメトリの前記少なくとも1つの微視的な時間的検出変動は、前記移動ターゲットの前記2次元ジオメトリの変化の頻度の変動を含む、システム。
[実施例30]
1つまたは複数のコンピュータ可読媒体であって、
命令を記憶する1つまたは複数の非一時的コンピュータ可読媒体
を含み、前記命令は、1つまたは複数のコンピューティングデバイスによって実行されると、前記1つまたは複数のコンピューティングデバイスのうちの少なくとも1つに、
空中ターゲットについて、空中風景の所定のエリアをスキャンすることと、
前記空中ターゲットの複数の画像をキャプチャすることと、
400nm~700nmの周波数範囲における前記空中ターゲットの前記複数の画像間の微視的な時間的変動を増幅させることと、ここで、前記少なくとも1つの微視的な時間的検出変動は、前記空中ターゲットの2次元画像のジオメトリの変化を含み、
前記空中ターゲットの前記画像の前記ジオメトリの変化を検出した後に、700nm~1100nmの前記周波数範囲における前記空中ターゲットの強度値を検出することと
を行わせる、1つまたは複数のコンピュータ可読媒体。
[実施例31]
前記記憶された命令は、1つまたは複数のコンピューティングデバイスによって実行されると、前記1つまたは複数のコンピューティングデバイスのうちの少なくとも1つに、前記ターゲットの前記2次元画像の前記ジオメトリの少なくとも1つの微視的な時間的検出変動の変化率のプロファイルを生成することと、前記ターゲットの前記プロファイルを、複数の既知の空中の生物学的または非生物学的な対象の既存の集約プロファイルと比較することと、ここで、前記集約プロファイルは、前記既知の空中の生物学的または非生物学的な対象の前記2次元画像のジオメトリの前記少なくとも1つの微視的な時間的検出変動に対応し、前記空中ターゲットの前記プロファイルと前記複数の既知のターゲットの前記集約プロファイルとの間の差を検出し、前記空中ターゲットが前記既知のターゲットのうちの1つである確率を決定することとを行わせる、実施例30に記載の1つまたは複数のコンピュータ可読媒体。

図1
図2
図3
図4
図5
【外国語明細書】