(58)【調査した分野】(Int.Cl.,DB名)
【発明を実施するための形態】
【0016】
図1は、第1の実施形態の構成を示すブロック図である。
図1に示すように、飛行物体位置検知システム1は、監視領域の画像を撮影する第1カメラ11と、第1カメラ11の撮影領域を第1カメラ11と異なる向きに設置された第2カメラ12と、飛行物体位置検知装置20を備えている。本実施形態は、空港における滑走路離着陸エリアを監視エリアとした飛行物体位置検知システムの実施形態である。
【0017】
第1カメラ11は広角高解像度カメラであり、図示しない固定台に設置され、空港における滑走路離着陸エリアの一定の方位を定点監視するか、または任意の方位・仰角に旋回して映像を撮影する。第1カメラ11は、例えば毎秒60フレームの周期で画像を継続的に撮影し、撮影した撮像画像を有線または無線により飛行物体位置検知装置20へ伝送する機能を持つ。
【0018】
また第2カメラ12は、PTZ動作の指令を受信した場合、パン/チルト/ズーム動作(以降、PTZ動作と呼称する)を行うことが可能な、いわゆるPTZカメラである。第2カメラ12は、第1カメラ11と同様、図示しない固定台に設置され、空港における滑走路離着陸エリアの一定の方位を定点監視するか、または任意の方位・仰角に旋回して映像を撮影する。第2カメラ12は、第1カメラ11と同様、例えば毎秒60フレームの周期で画像を継続的に撮影し、撮影した撮像画像を有線または無線により飛行物体位置検知装置20へ伝送する機能を持つ。
【0019】
飛行物体位置検知装置20は、第1カメラ11から取得した画像中の飛行物体(以下、第1飛行物体ともいう)を検出する第1飛行物体位置検出部21と、エピポーラ線算出部22と、エピポーラ線に沿って第2カメラ12の向きを制御する第2カメラ制御部23を備えている。第1飛行物体位置検出部21が第1カメラ11から取得した画像中に飛行物体が存在することを検出すると、エピポーラ線算出部22に第1カメラ11から取得した画像中に存在する飛行物体の情報を送信する。また第1飛行物体位置検出部21は、第1カメラ11から取得した画像中に飛行物体が存在することを検出すると、同一判断部25に第1カメラ11から取得した画像中に存在する飛行物体の画像を送信する。
【0020】
第1飛行物体位置検出部21から第1飛行物体の情報を受信すると、エピポーラ線算出部22は、第1カメラ11からみた飛行物体の方向を示すエピポーラ線、すなわち第1カメラ11と飛行物体の2点を通る直線を求める。エピポーラ線算出部22は、求めたエピポーラ線を第2カメラ制御部23に送信する。
【0021】
第2カメラ制御部23は、エピポーラ線算出部22からエピポーラ線を受信すると、第2カメラ12がエピポーラ線に沿って撮影を行うよう第2カメラ12を制御する。第2カメラ制御部23は、第2カメラ12がエピポーラ線に沿って、例えば第1カメラ11から離れた端から撮影していく。ただし、時間経過とともに飛行物体が移動していくため、エピポーラ線算出部22は、飛行物体の移動にともなってエピポーラ線を推移させていく。第2カメラ制御部23は、飛行物体の移動に伴って推移するエピポーラ線に沿って第2カメラ12の撮影範囲を走査させていき、後述の第2飛行物体位置検出部24に飛行物体を探索させる。
【0022】
図2は、
図1の第2カメラ制御部23の動作を示す説明図である。
図2に示すように、例えば時刻t、t+τ、t+2τにおいてエピポーラ線算出部22から受信するエピポーラ線は、第1カメラで検出されている飛行物体が移動するため、異なる直線となる。まず第2カメラ制御部23は、時刻tにおいてその時のエピポーラ線上であって、第1カメラ11から離れた領域を撮影するよう第2カメラ12を制御する。次に時刻t+τでは、第2カメラ制御部23は、その時のエピポーラ線上であって、エピポーラ線に沿って時間τに対応する距離の分、第1カメラ11に近づいた領域を撮影するよう第2カメラ12を制御する。
時刻t+2τでは、第2カメラ制御部23は、さらに時間τに対応する距離の分その時のエピポーラ線に沿って第1カメラ11に近づいた領域を撮影するよう第2カメラ12を制御する。
【0023】
図1に戻り、第1の実施形態の構成をさらに説明する。飛行物体位置検知装置20は、第2カメラ12から取得した画像中の飛行物体(以下、第2飛行物体ともいう)を検出する第2飛行物体位置検出部24と、第1飛行物体と第2飛行物体が同一か判断する同一判断部25と、第1飛行物体と第2飛行物体が同一と判断された場合にその位置を算出する位置算出部26を備えている。
【0024】
第2飛行物体位置検出部24は、第2カメラ12から取得した画像中に飛行物体が存在することを検出すると、同一判断部25に第2カメラ12から取得した画像中に存在する飛行物体の画像を送信する。
【0025】
同一判断部25は、まず第1カメラ11から取得した画像中に存在する第1飛行物体の画像を第1飛行物体位置検出部21から受信する。その後、第2カメラ12から取得した画像中に存在する第2飛行物体の画像を第2飛行物体位置検出部24から受信すると、第1飛行物体と第2飛行物体が同一か判断する。
【0026】
第1飛行物体と第2飛行物体が同一と判断すると、同一判断部25は、第1カメラからみた第1飛行物体の方向及び第2カメラからみた第2飛行物体の方向を、位置算出部26に送信する。なお位置算出部26は、第1カメラからみた第1飛行物体の方向は、エピポーラ線算出部22から取得してもよいし、第2カメラからみた第2飛行物体の方向は第2カメラ制御部23から取得してもよい。
【0027】
同一判断部25から第1カメラからみた第1飛行物体の方向及び第2カメラからみた第2飛行物体の方向を受信すると、位置算出部26は、これらと、予め測定され記憶している第1カメラ11及び第2カメラ12の位置とに基づいて、三角測量の原理により飛行物体の位置を算出する。
【0028】
ここで同一判断部25の、第1飛行物体と第2飛行物体が同一か判断する動作について説明する。第1カメラ11と第2カメラ12のベースライン(第1カメラ11と第2カメラ12の間の距離)が離れており、また、カメラの向きが異なる場合、例えば、飛行物体が鳥である場合には、第1カメラ11が撮影した飛行物体の画像と第2カメラ12が撮影した飛行物体の画像は大きく異なっており、形状特徴等から同一物体であるかどうかを識別することが難しい。
【0029】
図3は、
図1の第1カメラ11及び第2カメラ12による飛行物体の画像の一例を示す図である。
図3は、例えば飛行物体が鳥であり、第1カメラ11が鳥の飛行方向前方から鳥を撮影し、第2カメラ12が鳥の飛行方向左側から鳥を撮影する場合の第1カメラ11による飛行物体の画像と第2カメラ12による飛行物体の画像の例を示している。
【0030】
飛行物体が鳥である場合、飛行物体の画像は鳥の羽ばたきに応じて、周期的に一定のパターンで変化する。
図4は、
図1の第1カメラ11及び第2カメラ12による飛行物体の画像の周期的変化の一例を示す図である。
図4に示すように、飛行物体の進行方向に垂直な方向について、鳥の胴体部分の中心から最も離れた鳥の外形の頂点を算出すると、この頂点位置は鳥の羽ばたきに応じて、上下に(正負に)周期的に変化する。以下、この飛行物体の進行方向に対する垂直方向の外形の頂点位置の周期的な変化パターンは飛翔パターンと呼称される。
【0031】
図6は、
図1の第1カメラ11及び第2カメラ12で検知された飛行物体の飛翔パターンの一例を示す図である。飛翔パターンの振幅は、カメラと鳥との距離や撮影する角度に応じて変動するが、飛翔パターンの周期や位相はカメラと鳥との距離や撮影する角度に依存しない。そのため、飛行物体が鳥である場合、第1カメラで検知された飛行物体の飛翔パターンの周期及び位相と第2カメラで検知された飛行物体の飛翔パターンの周期及び位相の類似度により同一の飛行物体か判断することができる。
【0032】
そこで同一判断部25は、まず第1飛行物体及び第2飛行物体の画像を受信したとき形状変化があるか判断し、形状変化があると判断した場合は、第1飛行物体及び第2飛行物体の飛翔パターンを生成する。すなわち同一判断部25は、第1飛行物体及び第2飛行物体の一連の画像から飛行物体の進行方向に垂直な方向について、一連の画像が撮影された各時刻で鳥の胴体部分の中心から最も離れた鳥の外形の頂点を算出し、第1飛行物体及び第2飛行物体の飛翔パターンを生成する。そして第1飛行物体の飛翔パターンと第2飛行物体の飛翔パターンの周期及び位相が一致又は類似しているか判断し、一致又は類似していると判断した場合、第1飛行物体と第2飛行物体が同一と判断する。
【0033】
なお、上記の飛翔パターンの計算方法は、あくまで一例である。飛翔パターンの計算方法は、上記の方式に限らず、周期的な変動を捕らえるものであれば何でもよい。例えば、飛翔パターンの計算方法は、飛行物体の画像領域の縦横比の周期的な変動をとらえるものであってもよい。
【0034】
また、同一判断部25は、飛行物体がドローン等のように、形状やサイズの変化がない飛行物体の場合、上記と異なる動作により第1飛行物体と第2飛行物体が同一か判断する。例えば同一判断部25は、まず第1飛行物体及び第2飛行物体の画像を受信したとき形状変化があるか判断し、形状変化がないと判断した場合は、仮に第1飛行物体と第2飛行物体が同一であるとして位置算出部26に仮の3次元位置を算出させる。すなわち、同一判断部25は、第1カメラからみた第1飛行物体の方向及び第2カメラからみた第2飛行物体の方向を位置算出部26に送信し、位置算出部26は、これらに基づいて仮の3次元位置を算出して同一判断部25に送信する。次に同一判断部25は、算出された仮の3次元位置に基づいて第1飛行物体の第1物体サイズ及び第2飛行物体の第2物体サイズを算出する。そして同一判断部25は、算出された仮の第1物体サイズ及び第2物体サイズが一致又は類似であるか判断し、一致又は類似であると判断した場合、第1飛行物体と第2飛行物体が同一と判断する。
【0035】
なお第1の実施形態及び後述の各実施形態の飛行物体位置検知システムの各構成要素は、機能単位のブロックを示している。本実施形態の飛行物体位置検知システムの各構成要素の一部又は全部は、例えば
図10に示すようなコンピュータ100とプログラムとの任意の組み合わせにより実現されてもよい。コンピュータ100は、一例として、以下のような構成を含む。
【0036】
・CPU(Central Processing Unit)101
・ROM(Read Only Memory)102
・RAM(Random Access Memory)103
・RAM103にロードされるプログラム104
・プログラム104を格納する記憶装置105
・記録媒体106の読み書きを行うドライブ装置107
・通信ネットワーク109と接続する通信インターフェース108
・データの入出力を行う入出力インターフェース110
・各構成要素を接続するバス111
本実施形態の飛行物体位置検知システムの各構成要素の機能は、これらの機能を実現するプログラム104をCPU101が取得して実行することで実現される。各装置の各構成要素の機能を実現するプログラム104は、例えば、予め記憶装置105やROM102やRAM103に格納されており、必要に応じてCPU101が読み出す。
【0037】
なお、プログラム104は、通信ネットワーク109を介してCPU101に供給されてもよいし、予め記録媒体106に格納されており、ドライブ装置107が当該プログラムを読み出してCPU101に供給してもよい。
【0038】
飛行物体位置検知システムの各構成要素の機能の実現方法には、様々な変形例がある。例えば、飛行物体位置検知システムの各構成要素の機能は、構成要素毎にそれぞれ別個のコンピュータとプログラムとの任意の組み合わせにより実現されてもよい。また、各装置が備える複数の構成要素の機能が、一つのコンピュータとプログラムとの任意の組み合わせにより実現されてもよい。
【0039】
また、飛行物体位置検知システムの各構成要素の一部又は全部は、その他の汎用または専用の回路(circuitry)、プロセッサ等やこれらの組み合わせによって実現されてもよい。これらは、単一のチップによって構成されてもよいし、バスを介して接続される複数のチップによって構成されてもよい。また各装置の各構成要素の一部又は全部は、上述した回路等とプログラムとの組み合わせによって実現されてもよい。
【0040】
飛行物体位置検知システムの各構成要素の一部又は全部が複数のコンピュータや回路等により実現される場合には、複数のコンピュータや回路等は、集中配置されてもよいし、分散配置されてもよい。例えば、コンピュータや回路等は、各々が通信ネットワークを介して接続される形態として実現されてもよい。
【0041】
次に本実施形態の動作について説明する。
図6は、
図1の動作を示すフローチャートである。
図6に示すように、まず第1カメラ11により監視領域が撮影されると第1飛行物体位置検出部21がその画像を第1カメラ11から取得し、取得した画像中に存在する飛行物体(第1飛行物体)を検出する(ステップS1)。
【0042】
次にエピポーラ線算出部22が第1カメラ11からみた飛行物体の方向を示すエピポーラ線を求める(ステップS2)。
【0043】
次に第2カメラ12がエピポーラ線に沿って撮影を行うよう第2カメラ制御部23が第2カメラを制御する(ステップS3)。例えば、第2カメラ制御部23は、第1カメラ11から遠い位置からエピポーラ線に沿って走査するよう第2カメラにPTZ指令を送信する。
【0044】
そして第2カメラ12が撮影した画像を第2飛行物体位置検出部24が取得し、その画像中の飛行物体(第2飛行物体)を検出する(ステップS4)。
【0045】
飛行物体が検出されると同一判断部25は第1カメラ11が撮影した画像中の飛行物体(第1飛行物体)と第2カメラ12が撮影した画像中の飛行物体(第2飛行物体)が同一か判断する(ステップS5)。
【0046】
ステップS5において、第1飛行物体と第2飛行物体が同一でないと判断されると、ステップS3に戻り、ステップS4で飛行物体を検出した領域に続く領域から第2カメラ12がエピポーラ線に沿って撮影を行うよう第2カメラ制御部23が第2カメラを制御する。
【0047】
ステップS5において、第1飛行物体と第2飛行物体が同一と判断されると、位置算出部26は、第1カメラからみた第1飛行物体の方向と、第2カメラからみた第2飛行物体の方向を取得する。そして、位置算出部26は、予め測定され記憶している第1カメラ11及び第2カメラ12の位置と、第1カメラからみた第1飛行物体の方向と、第2カメラからみた第2飛行物体の方向に基づいて、三角測量の原理により飛行物体の位置を算出する。(ステップS6)。
【0048】
以上説明したように、本実施形態によれば、第1カメラ11の画像中に飛行物体を検出すると、第1カメラ11からみた飛行物体の方向を示すエピポーラ線が求められ、第2カメラ12がエピポーラ線に沿って撮影を行うよう制御される。この構成により、第1カメラ11と第2カメラ12が離れて設置されても第2カメラ12が飛行物体を見失うおそれは少なく、対象領域が広範囲であっても飛行物体の3次元位置を高精度に測定することができる。
【0049】
次に第2の実施形態について説明する。
図7は、第2の実施形態の第1カメラ及び第2カメラの設置例を示す図である。
図7に示すように、本実施形態の飛行物体位置検知システムでは、第1カメラ11が複数の重点監視領域についてそれぞれ1台ずつ設置されるのに対し、1台の第2カメラ12が、各重点監視領域を撮影範囲に含むように設置されている。
【0050】
図8は、第2の実施形態の構成を示すブロック図である。
図8に示すように、本実施形態の飛行物体位置検知システム2は、第1カメラ11を複数備え、飛行物体位置検知装置27の第1飛行物体位置検出部28に複数の第1カメラが接続される。第1飛行物体位置検出部28は、優先順位にしたがって複数の第1カメラ11を順次切り替え、選択された1台の第1カメラ11から取得した画像について飛行物体が存在するか判断する。優先順位は、例えば空港の場合、飛行物体が検出されている第1カメラ11のうち離着陸予定時刻が近い監視エリアを撮影する第1カメラ11を優先して選択してもよい。第1飛行物体位置検出部28は、所定時間、飛行物体が検出されない場合は、次の優先順位の第1カメラ11を選択する。
【0051】
第1飛行物体位置検出部28は、選択した第1カメラ11から取得した画像中に飛行物体が存在することを検出すると、第1カメラ11の切り替えを停止する。
【0052】
その後、第1飛行物体位置検出部28は、第1の実施形態と同様に、エピポーラ線算出部22に選択された第1カメラ11から取得した画像中に存在する飛行物体の情報を送信する。また第1飛行物体位置検出部21は、選択された第1カメラ11から取得した画像中に飛行物体が存在することを検出すると、同一判断部25に選択された第1カメラ11から取得した画像中に存在する飛行物体の画像を送信する。
【0053】
エピポーラ線算出部22と、第2カメラ制御部23と、第2飛行物体位置検出部24と、同一判断部25と、位置算出部26は、第1の実施形態と同様に動作する。同一判断部25は、第1飛行物体と第2飛行物体が同一と判断し、その後、位置算出部26が飛行物体の位置を算出したことを検知して、第1飛行物体位置検出部28に飛行物体の位置を算出したことを通知する。
【0054】
第1飛行物体位置検出部28は、飛行物体位置の算出通知を受信してから所定時間、飛行物体を検知しなければ第1カメラ11の切り替えを再開する。
【0055】
なお
図8では第1飛行物体位置検出部28が第1カメラからの入力を順次切り替える構成として説明したが、これに限らず、例えば第1カメラ11と同数の第1飛行物体位置検出部28を備え、エピポーラ線算出部22が、複数の第1飛行物体位置検出部28からの入力を順次切り替える構成としてもよい。さらにエピポーラ線算出部22も第1カメラ11及び第1飛行物体位置検出部28と同数備え、第2カメラ制御部23が複数のエピポーラ線算出部22からの入力を順次切り替える構成としてもよい。
【0056】
本実施形態では、第1の実施形態と同様の効果を持つと共に、複数の重点監視領域のすべての地点にそれぞれ1台ずつ第1カメラを設置すればよく、それぞれに第1カメラと第2カメラを設置する必要がない。したがって本実施形態によれば、複数の広範囲な重点監視領域を監視する場合でも少ない台数で飛行物体を検出することができ、設置・運用・保守コストを抑えることが可能となる。
【0057】
次に第3の実施形態について図面を参照して詳細に説明する。
図9は、本発明の第3の実施形態の構成を示す図である。
【0058】
本実施形態の第1飛行物体位置検出部31は、入力処理部311、検出部312、方向抽出部313、追跡処理部314、記憶部315を備えている。
【0059】
入力処理部311は、1台以上の第1カメラ11が接続される。複数の第1カメラ11が接続される構成では、入力処理部311は、第2実施形態と同様に、優先順位にしたがって複数の第1カメラ11を順次切り替え、選択された1台の第1カメラ11から取得した画像についてから伝送された撮像画像を受信する。入力処理部311は、ファーストイン・ファーストアウト方式により常時3フレーム分の画像データを基にローリング・シャッタ現象に起因する映像の乱れを補正して検出部312に出力する。
【0060】
検出部312は、連続した3フレームの画像の差分情報から動いている物体の輪郭線を抽出する。また、検出部312は、この動いている物体の撮影時刻、位置、大きさ、画像、及び輝度勾配のヒストグラムであるHOG(Histograms of Oriented Gradients)特徴量をひとまとめにして第1カメラ11の飛行物体候補情報として記憶部315内に記録する。より詳細には、検出部312は、第1カメラ11から入力した撮像画像をもとに、連続した、または時系列的に一定間隔に抜き出した3枚の画像(それぞれフレームn−1,n,n+1とする)を輝度で2値化した上で、それぞれ差分画像m=n−(n−1)、m+1=(n+1)−nを生成する。さらに検出部312は、mとm+1の積画像D=m*(m+1)を生成することにより、3枚の元画像から飛行物体候補である動体を抽出する。積画像D上で抽出された動体については、検出部332は、それぞれ積画像D上での重心位置と形状、及び大きさを予め設定した基準値に正規化した上でHOG特徴量を計算し、飛行物体候補情報として記憶部315に記録する。
【0061】
また検出部312は、飛行物体候補情報のHOG特徴量をもとに、多クラスのSVM(Support Vector Machine)やニューラルネットワーク等の原理に基づく多値判別器により物体の種類を判定して第1飛行物体を検出する。検出部312は、例えば、動いている物体が鳥かもしくはその他の物体(航空機やドローン等)か、背景(樹木の揺れ、海面の白波、車両等)かを判定する。
【0062】
多値判別器の判別基準の学習には記憶部315内に記録された飛行物体判別ライブラリに収められた過去に得られた鳥やその他の物体(航空機、ドローン等)、背景の画像のHOG特徴量データベースが利用される。より詳細には、各飛行物体候補情報に対し、飛行物体判別ライブラリから生成された閾値を基準とする多値判別器を適用することで当該飛行物体候補情報が飛行物体か否かの判定を行う。
【0063】
上記判定で飛行物体以外の物体と判断されたものは飛行物体候補情報を削除する。また飛行物体と判断されたものは、後段の処理へ廻される。
【0064】
方向抽出部313は、第1カメラ11からみた第1飛行物体の方向、すなわち、仰角および方位角を算出する。より詳細には、方向抽出部313は、飛行物体候補情報に含まれる飛行物体の画像中の位置に対し、第1カメラ11の外部パラメータ(設置位置・向き)および内部パラメータ(撮像素子の主点位置・傾き・およびレンズの焦点距離・レンズの歪み)から、第1カメラ11に対する飛行物体の方向(仰角および方位角)を算出する。
【0065】
追跡処理部314は、飛行物体候補情報と飛行物体の方向を連続的に得て、飛行物体の追跡処理を行う。一般的にはカルマンフィルタやパーティクルフィルタを用いた追跡処理がある。特に飛行物体を鳥に限定した場合、鳥の飛行が直線的であることが多いため等速直線運動のモデルが当てはめられる。また追跡処理部314は、過去の第1飛行物体の方向等及び画像情報を含む第1飛行物体の追跡処理情報を記憶部315内に記録する。
【0066】
さらに追跡処理部314は、もし、サイズ推定部351から飛行物体のサイズの推定値が伝送されてきた場合、飛行物体のサイズの推定値を記憶部315内に追加し、これを利用して飛行物体の位置の計算に利用する機能も備えてもよい。すなわち、追跡処理部314は、一度、飛行物体のサイズの推定値を得ることができると、飛行物体の位置の3次元座標の推定値を得る機能を備えてもよい。
【0067】
追跡処理部314は、サイズ推定部351から第1飛行物体のサイズの推定値が伝送されていない場合は、第1飛行物体の追跡処理情報をエピポーラ線算出部22および同一判断部35に伝送する。
【0068】
エピポーラ線算出部22は、第1飛行物体位置検出部31の追跡処理部314で追跡処理された第1飛行物体について第1カメラ11から見た飛行物体の方向(仰角および方位角)を示すエピポーラ線を、まずは第1カメラ11のカメラ座標系において求める。そしてエピポーラ線算出部22は、第2カメラ12のカメラ座標系に座標変換して第2カメラ制御部23に伝送する。
【0069】
第2カメラ制御部23は、エピポーラ線に沿って第2カメラ12が撮影を行うようにパン/チルト/ズーム動作(以降、PTZ動作と呼称する)を指令する。第2カメラ制御部23は、エピポーラ線のうち現実的な有限の範囲内のみを第2カメラ12が撮影するようなPTZ動作を指令する。第2カメラ制御部23は、サイズ推定部351から追跡処理部314に飛行物体のサイズの推定値が伝送されてくるまでの間、このPTZ動作指令を継続する。
【0070】
本実施形態の同一判断部35は、判断部351と、飛翔パターン生成部352と、記憶部353と、サイズ推定部354を備える。判断部351は、追跡処理部314から受信した第1飛行物体の追跡処理情報に含まれる一連の第1飛行物体の画像から形状変化があるか判断し、形状変化があると判断すると、飛翔パターン生成部352に受信した第1飛行物体の追跡処理情報を転送する。
【0071】
飛翔パターン生成部352は、第1飛行物体の追跡処理情報に含まれる一連の第1飛行物体の画像について、それぞれ第1飛行物体の進行方向に対し垂直方向の外形の頂点位置の周期的な変化パターンを計算し、
図6に示すような第1飛翔パターンを生成し、記憶部353に記録する。
【0072】
第2飛行物体位置検出部32は、第1飛行物体位置検出部31と同様の構成を持ち、入力処理部321、検出部322、方向抽出部323、追跡処理部324、記憶部325を備えている。入力処理部321は、第2カメラ12から伝送された撮像画像を受信し、入力処理部311と同様に、常時3フレーム分の画像データを一時保管する。入力処理部321は、入力処理部311と同様に、一時保管した画像についてローリング・シャッタ現象に起因する映像の乱れを補正した後、検出部322及び表示部33に伝送する。
【0073】
検出部322は、検出部312と同様に、連続した3フレームの画像の差分情報から動いている物体の輪郭線を抽出する。また、検出部322は、この動いている物体の撮影時刻、位置、大きさ、画像、及び輝度勾配のヒストグラムであるHOG特徴量をひとまとめにして、飛行物体候補情報として記憶部325内に記録する。
【0074】
検出部322は、検出部312と同様に、飛行物体候補情報のHOG特徴量をもとに、多クラスのサポートベクターマシン(SVM)やニューラルネットワーク等の原理に基づく多値判別器により当該動体が鳥かもしくはその他の物体(航空機やドローン等)か、背景(樹木の揺れ、海面の白波、車両等)か、の判定を行い、第2飛行物体を検出する。多値判別器の判別基準の学習には記憶部325内の飛行物体判別ライブラリに収められた過去に得られた鳥やその他の物体(航空機、ドローン等)、背景の画像のHOG特徴量データベースが利用される。
【0075】
方向抽出部323は、第2カメラ12からみた第2飛行物体の方向、すなわち、仰角および方位角を算出する。
【0076】
追跡処理部324は、追跡処理部314と同様に第2飛行物体の追跡処理を行う。また追跡処理部324は、過去の第2飛行物体の方向等及び画像情報を含む第2飛行物体の追跡処理情報を記憶部325内に記録する。また追跡処理部324は、第2飛行物体の追跡処理情報を同一判断部35に送信する。
【0077】
判断部351は、受信した第2飛行物体の追跡処理情報に含まれる一連の第2飛行物体の画像において形状変化があるか判断し、形状変化があると判断すると、飛翔パターン生成部352に受信した第2飛行物体の追跡処理情報を転送する。
【0078】
飛翔パターン生成部352は、第2飛行物体の追跡処理情報に含まれている一連の第2飛行物体の画像情報についてそれぞれ第2飛行物体の進行方向に対する垂直方向の外形の頂点位置の周期的な変化パターンを計算して第2飛翔パターンを生成し、記憶部353内に記録する。また飛翔パターン生成部352は、第1飛行物体の追跡処理情報及び第1飛翔パターンを記憶部353から読出し、第2飛行物体の追跡処理情報及び第2飛翔パターンとともに判断部351に伝送する。
【0079】
判断部351は、第1飛行物体及び第2飛行物体の追跡処理情報と、第1飛翔パターン及び第2飛翔パターンを受信すると、第1飛翔パターン及び第2飛翔パターンの周期及び位相を算出してこれらのマッチング処理を行う。マッチング処理が成功、すなわち第1飛翔パターンと第2飛翔パターンの周期及び位相が一致又は類似した場合、判断部352は、第1飛行物体と第2飛行物体は同一であると判断して、位置算出部26に第1飛行物体の追跡処理情報および第2飛行物体の追跡処理情報を送信する。マッチング処理が成功しなかった、すなわち第1飛翔パターンと第2飛翔パターンの周期及び位相が一致又は類似しなかった場合、判断部352は、新しい第2飛行物体の追跡処理情報を受信するまで待機する。
【0080】
なお、判断部351は、追跡処理部324から受信した第2飛行物体の追跡処理情報に含まれる一連の第2飛行物体の画像において形状変化がないと判断すると、仮の第1飛行物体及び第2飛行物体の位置を取得するため位置算出部26に第1飛行物体及び第2飛行物体の追跡処理情報を送信する。
【0081】
位置算出部26は、判断部351から第1飛行物体及び第2飛行物体の追跡処理情報を受信すると、第1飛行物体の追跡処理情報に含まれる第1カメラ11からみた飛行物体の方向、および、第2飛行物体の追跡処理情報に含まれる第2カメラからみた飛行物体の方向に基づいて、三角測量の原理により飛行物体の位置を算出する。位置算出部26は、算出した第1飛行物体及び第2飛行物体の位置を判断部351に送信する。
【0082】
サイズ推定部354は、第1飛行物体の第1カメラ11の撮影した画像上のサイズを算出する。第1カメラ11の焦点距離に対する第1カメラと第1飛行物体の距離の比率は、第1飛行物体の第1カメラ11の撮影した画像上のサイズに対する第1飛行物体のサイズの比率と一致する。このことにより、サイズ推定部354は、第1カメラ11の焦点距離と、第1飛行物体の第1カメラ11の撮影した画像上のサイズと、第1飛行物体の位置とから、第1飛行物体のサイズを推定する。同様にサイズ推定部354は、第2飛行物体の位置と第2飛行物体の追跡処理情報から、第2飛行物体のサイズを推定する。サイズ推定部354は、第1飛行物体及び第2飛行物体のサイズの推定値を、判断部351に伝送する。
【0083】
判断部351は、第1飛行物体のサイズ及び第2飛行物体のサイズの推定値が一致しているか判断し、一致していれば第1飛行物体と第2飛行物体が同一であると判断して、第1飛行物体のサイズの推定値を第1飛行物体位置検出部31の追跡処理部314に伝送する。なお第2飛行物体の形状変化がないと判断していた場合には、第1飛行物体のサイズ及び第2飛行物体のサイズの推定値が一致しない場合がある。この場合は第1飛行物体と第2飛行物体は同一ではない。したがって、判断部351は、新しい第2飛行物体の追跡処理情報を受信するまで待機する。
【0084】
追跡処理部314は、第1飛行物体のサイズの推定値を受信すると、記憶部315に格納する。追跡処理部314は、第1飛行物体のサイズの推定値を受信した後は、この比率計算を用いて、第1カメラ11の焦点距離と、飛行物体の第1カメラ11の撮影した画像上のサイズと、飛行物体のサイズの推定値から第1カメラ11と飛行物体との距離を推定し、さらに第1カメラの向きの情報を取得して飛行物体の位置の3次元座標を推定する。なお、形状が周期的に変動する飛行物体においては、時系列でみたときの平均サイズが一定的であることを利用し本比率計算を行うことができる。
【0085】
このことにより、本実施形態によれば、追跡処理部314は、飛行物体のサイズの推定値を受信した後は、第2飛行物体位置検出部32による撮影画像中の飛行物体位置検出、及び同一判断部35による第1飛行物体と第2飛行物体の同一判断を介さず、飛行物体の3次元位置を推定することができる。
【0086】
追跡処理部314が飛行物体のサイズの推定値を受信した後は、第2カメラ制御部23は、エピポーラ線算出部22から第1カメラ11の映像中の別の飛行物体が検出されるまで待機する。また第2の実施形態のように第1カメラ11を複数備える構成の場合、第2カメラ制御部23は、ある第1カメラ11の画像中に検出された飛行物体について、サイズ推定部31が飛行物体の位置とサイズを推定した後は、その他の第1カメラ11の映像中に飛行物体が検出されるまで待機する。
【0087】
また判断部351は、第1飛行物体のサイズ及び第2飛行物体のサイズの推定値が一致していれば、位置算出部26から送信された飛行物体の位置の3次元座標とともに、サイズ推定部354が推定した飛行物体のサイズの推定値を表示部33に伝送する。
【0088】
表示部33は、飛行物体の3次元位置とサイズを取得し、第2カメラ12で撮影された画像から検知した第2飛行物体の拡大映像を第2飛行物体位置検出部34から取得し、これらを表示する機能を持つ。
【0089】
以上、説明したように、本実施形態によっても、第1の実施形態と同様の効果が得られる。また第1飛行物体と第2飛行物体が同一であると判断されると飛行物体のサイズが第1飛行物体位置検出部31に送信され、記憶される。この構成により、第1飛行物体と第2飛行物体が同一であると判断された後は、第2飛行物体位置検出部32による撮影画像中の飛行物体位置検出、及び同一判断部35による第1飛行物体と第2飛行物体の同一判断を介さず、飛行物体の3次元位置を推定することができる。
【0090】
以上、実施形態を参照して本発明を説明したが、本発明は上記実施形態に限定されるものではない。本発明の構成や詳細には、本発明のスコープ内で当業者が理解し得る様々な変更をすることができる。