(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2022017838
(43)【公開日】2022-01-26
(54)【発明の名称】飛翔体検出装置、飛翔体検出方法、及びプログラム
(51)【国際特許分類】
H04N 5/232 20060101AFI20220119BHJP
G01V 8/10 20060101ALI20220119BHJP
F03D 17/00 20160101ALI20220119BHJP
【FI】
H04N5/232 290
G01V8/10 S
F03D17/00
【審査請求】未請求
【請求項の数】10
【出願形態】OL
(21)【出願番号】P 2020120635
(22)【出願日】2020-07-14
(71)【出願人】
【識別番号】515079793
【氏名又は名称】株式会社ユーラスエナジーホールディングス
(74)【代理人】
【識別番号】100110928
【弁理士】
【氏名又は名称】速水 進治
(74)【代理人】
【識別番号】100127236
【弁理士】
【氏名又は名称】天城 聡
(72)【発明者】
【氏名】西川 武志
【テーマコード(参考)】
2G105
3H178
5C122
【Fターム(参考)】
2G105AA01
2G105BB17
2G105EE06
2G105HH04
3H178AA20
3H178AA40
3H178AA43
3H178BB56
3H178BB63
3H178CC02
3H178DD52X
5C122DA11
5C122EA01
5C122EA67
5C122FA18
5C122FH11
5C122FH14
5C122GA34
5C122HA82
5C122HA88
5C122HB01
(57)【要約】
【課題】構造物の周囲に存在する飛翔体の位置を精度よく推定する。
【解決手段】飛翔体検出装置10は、画像取得部110及び画像処理部120を備えている。画像取得部110は、複数のカメラ30が生成した画像を取得する。画像取得部110は、リアルタイムでカメラ30が生成した画像を取得するのが望ましい。画像処理部120は、画像取得部110が取得した画像を処理する。この際、画像処理部120は、機械学習によって生成されたモデルを用いて画像を処理する。一例として、画像処理部120は、画像に対して第1処理を行うことにより、対象空間に位置する飛翔体の有無及びその種類の概略を認識する。また画像処理部120は、第1の機械学習によって生成された第1モデルを用いた第2処理を、画像に対して行うことにより、構造物から飛翔体までの距離を推定する。
【選択図】
図2
【特許請求の範囲】
【請求項1】
互いに離れて配置されている複数のカメラが生成した画像を取得する画像取得部と、
前記画像を処理する画像処理部と、
を備え、
前記複数のカメラは、同一の対象空間を撮影範囲に含んでおり、
前記対象空間は、第1の構造物の周囲に位置しており、
前記画像処理部は、
前記複数のカメラが生成した前記画像に対して第1処理を行うことにより、前記対象空間に位置する飛翔体を認識し、
第1の機械学習によって生成された第1モデルを用いた第2処理を、前記複数のカメラが生成した前記画像に対して行うことにより、前記第1の構造物から前記飛翔体までの距離を推定する、飛翔体検出装置。
【請求項2】
請求項1に記載の飛翔体検出装置において、
前記第1モデルは、前記距離とともに、前記第1の構造物を基準とした前記飛翔体の方向を推定する、飛翔体検出装置。
【請求項3】
請求項1又は2に記載の飛翔体検出装置において、
前記画像取得部は、前記画像とともに、当該画像を生成したときに前記カメラが向いていた方向を示す方向情報を取得し、
前記画像処理部は、前記方向情報を用いて、前記第1の構造物を基準とした前記飛翔体の方向を推定する、飛翔体検出装置。
【請求項4】
請求項2又は3に記載の飛翔体検出装置において、
前記画像処理部は、
第2の機械学習によって生成された第2モデルを用いた第3処理を前記複数のカメラが生成した前記画像に対して行うことにより、前記飛翔体の速度を推定し、
さらに、前記速度の推定結果を用いて前記飛翔体が前記第1の構造物に衝突する可能性に関する衝突可能性情報を生成する衝突可能性算出部を備える飛翔体検出装置。
【請求項5】
請求項4に記載の飛翔体検出装置において、
前記衝突可能性算出部は、さらに前記距離及び前記速度を用いて前記飛翔体が前記構造物に衝突するまでの予想時間を算出する飛翔体検出装置。
【請求項6】
請求項4又は5に記載の飛翔体検出装置において、
前記画像処理部は、
前記第1処理を用いて、前記飛翔体が鳥であるか否かを推定し、
さらに、第3の機械学習によって生成された第3モデルを用いた第4処理を行うことにより、前記鳥の種類を推定し、
前記衝突可能性算出部は、さらに前記鳥の種類を用いて前記衝突可能性情報を生成する、飛翔体検出装置。
【請求項7】
請求項4~6のいずれか一項に記載の飛翔体検出装置において、
前記第1の構造物は風力発電装置であり、
前記衝突可能性算出部は、前記衝突可能性情報が基準を満たしたときに、前記風力発電装置のブレードを停止または減速させるための制御情報を出力する飛翔体検出装置。
【請求項8】
請求項1~7のいずれか一項に記載の飛翔体検出装置において、
少なくとも1つの前記カメラの撮像範囲には、第2の構造物の周囲に位置する第2対象空間が含まれており、
前記画像処理部は、前記少なくとも1つのカメラが生成した前記画像を、前記第2対象空間に位置する前記飛翔体を認識し、かつ当該飛翔体から前記第2の構造物までの距離を推定するために用いる、飛翔体検出装置。
【請求項9】
コンピュータが、
互いに離れて配置されている複数のカメラが生成した画像を取得する画像取得処理と、
前記画像を処理する画像処理と、
を行い、
前記複数のカメラは、同一の対象空間を撮影範囲に含んでおり、
前記対象空間は、第1の構造物の周囲に位置しており、
前記画像処理において、前記コンピュータは、
前記複数のカメラが生成した前記画像に対して第1処理を行うことにより、前記対象空間に位置する飛翔体を認識し、
第1の機械学習によって生成された第1モデルを用いた第2処理を、前記複数のカメラが生成した前記画像に対して行うことにより、前記第1の構造物から前記飛翔体までの距離を推定する、飛翔体検出方法。
【請求項10】
コンピュータに、
互いに離れて配置されている複数のカメラが生成した画像を取得する画像取得機能と、
前記画像を処理する画像処理機能と、
を持たせ、
前記複数のカメラは、同一の対象空間を撮影範囲に含んでおり、
前記対象空間は、第1の構造物の周囲に位置しており、
前記画像処理機能は、
前記複数のカメラが生成した前記画像に対して第1処理を行うことにより、前記対象空間に位置する飛翔体を認識し、
第1の機械学習によって生成された第1モデルを用いた第2処理を、前記複数のカメラが生成した前記画像に対して行うことにより、前記第1の構造物から前記飛翔体までの距離を推定する、プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、飛翔体検出装置、飛翔体検出方法、及びプログラムに関する。
【背景技術】
【0002】
近年は風力発電装置に代表されるように、高さ方向で大型な構造物が様々な場所で設置されている。このような構造物には、鳥などの飛翔体が衝突する可能性がある。
【0003】
これに対し、例えば特許文献1には、画像を用いて風力発電装置に対するバードストライクを減らす際に、撮影手段の配置を工夫することが記載されている。特許文献1において、撮影手段は、カメラのほかにドームミラーを有している。カメラは、このドームミラーの反射映像を撮影している。これにより、撮影手段による撮影可能領域は広がる。
【先行技術文献】
【特許文献】
【0004】
【発明の概要】
【発明が解決しようとする課題】
【0005】
飛翔体が構造物に衝突する可能性を推定するためには、飛翔体の位置を精度よく推定する必要がある。本発明の目的は、構造物の周囲に存在する飛翔体の位置を精度よく推定することにある。
【課題を解決するための手段】
【0006】
本発明によれば、互いに離れて配置されている複数のカメラが生成した画像を取得する画像取得部と、
前記画像を処理する画像処理部と、
を備え、
前記複数のカメラは、同一の対象空間を撮影範囲に含んでおり、
前記対象空間は、第1の構造物の周囲に位置しており、
前記画像処理部は、
前記複数のカメラが生成した前記画像に対して第1処理を行うことにより、前記対象空間に位置する飛翔体を認識し、
第1の機械学習によって生成された第1モデルを用いた第2処理を、前記複数のカメラが生成した前記画像に対して行うことにより、前記第1の構造物から前記飛翔体までの距離を推定する、飛翔体検出装置が提供される。
【0007】
本発明によれば、コンピュータが、
互いに離れて配置されている複数のカメラが生成した画像を取得する画像取得処理と、
前記画像を処理する画像処理と、
を行い、
前記複数のカメラは、同一の対象空間を撮影範囲に含んでおり、
前記対象空間は、第1の構造物の周囲に位置しており、
前記画像処理において、前記コンピュータは、
前記複数のカメラが生成した前記画像に対して第1処理を行うことにより、前記対象空間に位置する飛翔体を認識し、
第1の機械学習によって生成された第1モデルを用いた第2処理を、前記複数のカメラが生成した前記画像に対して行うことにより、前記第1の構造物から前記飛翔体までの距離を推定する、飛翔体検出方法が提供される。
【0008】
本発明によれば、コンピュータに、
互いに離れて配置されている複数のカメラが生成した画像を取得する画像取得機能と、
前記画像を処理する画像処理機能と、
を持たせ、
前記複数のカメラは、同一の対象空間を撮影範囲に含んでおり、
前記対象空間は、第1の構造物の周囲に位置しており、
前記画像処理機能は、
前記複数のカメラが生成した前記画像に対して第1処理を行うことにより、前記対象空間に位置する飛翔体を認識し、
第1の機械学習によって生成された第1モデルを用いた第2処理を、前記複数のカメラが生成した前記画像に対して行うことにより、前記第1の構造物から前記飛翔体までの距離を推定する、プログラムが提供される。
【発明の効果】
【0009】
本発明によれば、構造物の周囲に存在する飛翔体の位置を精度よく推定できる。
【図面の簡単な説明】
【0010】
【
図1】実施形態に係る飛翔体検出装置の使用環境を説明するための図である。
【
図2】飛翔体検出装置の機能構成の一例を示す図である。
【
図3】モデル記憶部が記憶している情報を説明するための図である。
【
図4】互いに離れた2つのカメラを用いて飛翔体Pまでの距離Zを算出できることを説明する図である。
【
図5】画像にひずみが生じることを説明するための図である。
【
図6】第2モデルの原理を説明するための図である。
【
図7】第2モデルの原理を説明するための図である。
【
図9】飛翔体検出装置における飛翔体の位置の管理の仕方を説明するための図である。
【
図10】飛翔体検出装置のハードウェア構成例を示す図である。
【
図11】飛翔体検出装置が行う処理の第1例を示す図である。
【
図12】飛翔体検出装置が行う処理の第2例を示す図である。
【
図13】飛翔体検出装置が行う処理の第3例を示す図である。
【発明を実施するための形態】
【0011】
以下、本発明の実施の形態について、図面を用いて説明する。尚、すべての図面において、同様な構成要素には同様の符号を付し、適宜説明を省略する。
【0012】
図1は、実施形態に係る飛翔体検出装置10の使用環境を説明するための図である。飛翔体検出装置10は、構造物20の周囲に存在する飛翔体を検出するとともに、その位置を推定する装置である。この検出及び推定において、飛翔体検出装置10は複数のカメラ30が生成した画像を用いる。複数のカメラ30は互いに離れて配置されており、同一の空間(以下、対象空間と記載)を撮影範囲に含んでいる。対象空間は、構造物20の周囲に位置している。対象空間は、構造物20を含んでいてもよいし、構造物20を含んでいなくてもよい。なお、対象空間は、例えば構造物20、及び構造物20から2km以内の空間の双方を含んでいる。ただし、カメラ30の種類によっては、対象空間は構造物20から10km以内の空間を含むこともできる。
【0013】
飛翔体の代表的な例は鳥である。ただし、飛翔体は他の物、例えば飛行機、ヘリコプター、雲、及び木の枝であってもよい。
【0014】
構造物20は、例えば風力発電装置であるが、鉄塔などの他の設備であってもよい。そして構造物20が機械的又は電気的な構造を有している場合、この構造は、制御装置22によって制御されている。構造物20が風力発電装置である場合、この構造は、ブレードである。飛翔体検出装置10は、飛翔体の位置やその推移が所定の基準を満たし、構造物20に衝突する可能性があると判断した場合、制御装置22に所定の情報(後述する制御情報)を、機械的又は電気的な構造の動きを停止または遅くするために、送信する。すると制御装置22は、上記した構造の動きを遅くするか、停止させる。
【0015】
カメラ30は、例えば全球カメラ(360°カメラ)であるが、単眼カメラや双眼カメラ(ステレオカメラ)であってもよい。また、カメラ30が単眼カメラや双眼カメラの場合、カメラ30はチルト機能、パン機能、及びズーム機能(以下、TPZ機能と記載)を有していてもよい。いずれの場合においても、カメラ30の設置位置は固定されているのが望ましい。また、カメラ30が生成する画像のフレームレートは任意である。
【0016】
同一の対象空間を撮影する複数のカメラ30は、互いに同一の種類のカメラであってもよいし、少なくとも1つのカメラ30は他とは異なる種類であってもよい。一例として、同一の対象空間を撮影する複数のカメラ30は、すべて全球カメラであってもよい。全球カメラを用いると、ドームミラーを用いる場合と比較して、カメラ30に死角が生じにくくなる。なお、複数のカメラ30は、1つを除いて全球カメラであってもよいし、すべて単眼カメラ及び双眼カメラから選択されていてもよい。
【0017】
本図に示す例において、1つの対象空間に対して3つのカメラ30が設けられている。ただし、1つの対象空間に対して2つまたは4つ以上のカメラ30が設けられていてもよい。また、カメラ30の少なくとも1つは、図に示す構造物20に対応した対象空間の他に、他の構造物20に対応した対象空間を撮像範囲に含んでいてもよい。この場合、このカメラ30が生成した画像は、第1の構造物20の周囲に存在する飛翔体の検出及びその位置の推定に用いられるとともに、第2の構造物20の周囲に存在する飛翔体の検出及びその位置の推定に用いられる。ここで飛翔体検出装置10は、第1の構造物20を基準とした飛翔体の位置(すなわち方位及び距離)を推定するとともに、第2の構造物20を基準とした同じ飛翔体の位置(同様に法及び距離で示される)を推定してもよい。
【0018】
なお、カメラ30の設置位置は、例えばシミュレーションを用いて決定してもよい。この場合、カメラ30の画角、設置位置、及びカメラの方向をシミュレーション装置に入力すると、そのカメラ30が撮影可能な範囲を算出することができる。そしてこの算出結果を用いると、カメラ30の適切な設置位置を推定することができる。
【0019】
飛翔体検出装置10は、飛翔体の存在を検出するときには、例えば特徴量を用いた画像マッチングを用いるが、その飛翔体に関する詳細情報、例えば飛翔体の位置を検出するときには、機械学習によって生成されたモデルを用いる。飛翔体検出装置10が用いるモデルは複数種類ある。これらモデルは、モデル生成装置40によって生成される。モデル生成装置40は、学習データ記憶部50に記憶されているタグ付きの学習データ(教師データ)を学習することにより、上記したモデルを生成する。ここで用いられる学習モデルは、二分木ベース(AdaBoost、Random Forest)、Neural Network(NN)、及びDeep NN等である。モデル生成装置40は、同一の目的のモデル(例えば後述する第2処理~第4処理で用いられるモデルのそれぞれ)を、複数の学習モデルを用いて生成し、これら複数のモデルのうち用途に応じた適切なモデル(精度優先、速度優先等)を選択して飛翔体検出装置10に送信する。例えば飛翔体の数が多い場合(一例として群れを構成する鳥の数が多いとき)には、処理速度を優先してモデルを選択し、飛翔体の数が少ない場合には精度を優先してモデルを選択する。この処理は、定期的に(例えば1年に一回)行われる。
【0020】
なお、複数のモデルのすべてが飛翔体検出装置10に送信されてもよい。この場合、例えば後述する第1処理において検出された飛翔体の数に基づいて、その時に用いるべきモデルを選択することができる。
【0021】
図2は、飛翔体検出装置10の機能構成の一例を示す図である。本図に示す飛翔体検出装置10は、画像取得部110及び画像処理部120を備えている。画像取得部110は、複数のカメラ30が生成した画像を取得する。画像取得部110は、リアルタイムでカメラ30が生成した画像を取得するのが望ましい。画像処理部120は、画像取得部110が取得した画像を例えばリアルタイムで処理する。この際、画像処理部120は、機械学習によって生成されたモデルを用いて画像を処理する。ここで用いられる複数のモデルは複数種類ある。
【0022】
一例として、画像処理部120は、画像に対して第1処理を行うことにより、対象空間に位置する飛翔体の有無及びその種類の概略を認識する。第1処理は、例えば特徴量を用いた処理である。そして画像処理部120は、第1の機械学習によって生成された第1モデルを用いた第2処理を画像に対して行うことにより、構造物から飛翔体までの距離を推定する。
【0023】
第1処理によって特定される飛翔体の種類は、例えば鳥であるか否かである。さらに鳥でない場合、画像処理部120は、第1処理を用いることにより、飛翔体の種類が飛行機、ヘリコプター、雲、太陽、及び枝のいずれかであるか否かを認識してもよい。
【0024】
そして、鳥のシルエット(形)は、例えば
図8に示すように、鳥の種類によって異なる。このため、第2処理において、鳥が写っている画像に、当該鳥の種類をタグ付けした学習データを用いると種類から大きさが推定され、大きさから逆に距離の再推定がなされ、他のカメラによる距離推定の精度の改善が行われる。
【0025】
また画像処理部120は、第1モデルを用いることにより、構造物を基準とした飛翔体の方向を推定することもある。
【0026】
さらに画像処理部120は、第2の機械学習によって生成された第2モデルを用いた第3処理を、画像に対して行うことにより、飛翔体の速度(すなわち速さ及び方向)を推定することもできる。この際、第2モデルには、複数のカメラ30のそれぞれが複数のタイミングで生成した画像、例えば時系列的に連続した複数の画像が入力される。そして飛翔体検出装置10は、衝突可能性算出部140を備えている。衝突可能性算出部140は、飛翔体の速度の推定結果を用いて衝突可能性情報を生成する。例えば衝突可能性算出部140は、速度が大きい場合、衝突可能性を高くする。衝突可能性情報は、飛翔体が構造物に衝突する可能性に関する情報である。例えば衝突可能性情報は、飛翔体が構造物に衝突する可能性が基準値以上の場合に生成される。そして衝突可能性算出部140は、生成した衝突可能性情報を、構造物20の制御装置22に送信する。
【0027】
さらに画像処理部120は、対象空間に飛翔体が存在し、かつ第1処理によってその飛翔体が鳥であると推定された場合、第1モデルと第2モデルから飛行軌跡を生成し、第3の機械学習によって生成された第3モデルを用いた処理、すなわち上記した第4処理を画像に対して行うことにより、鳥の種類(例えばオジロワシ、クマタカ、チュウヒなど)を推定する。第3モデルは、飛行軌跡から鳥の種類を推定するモデルである。そして衝突可能性算出部140は、衝突可能性情報を生成するとき、すなわち飛翔体が構造物に衝突する可能性を推定するときに、鳥の種類の推定結果を用いる。その理由は、鳥の種類ごとに飛行軌跡に特徴がでるため、この特徴を用いると、当該鳥の予測位置の推定結果の精度が高まるためである。
【0028】
上記したモデルは、複数のカメラ30の種類の組み合わせ別に生成されてもよい。例えば、複数のカメラ30のすべてが全球カメラの場合とそれ以外の場合とで、互いに異なるモデルが生成されている。この場合、カメラ30として、複数の全球カメラとそれ以外の複数のカメラの双方が設置されている場合において、全球モデルで構築された対象空間のモデルと、それ以外のカメラで構築された対象空間のモデルが互いに補完することで検出の性能を上げることが可能になる。また飛翔体検出装置10が処理対象とする対象区間が複数ある場合、上記したモデルは、対象空間別に生成されてもよい。この場合、学習データも、対象空間別に、その対象空間を撮影することにより生成される。
【0029】
画像処理部120が用いるモデルは、モデル記憶部130に記憶されている。本図に示す例において、飛翔体検出装置10はモデル取得部132を備えている。モデル取得部132は、モデル生成装置40が生成又は更新した複数のモデルを取得し、モデル記憶部130に記憶させる。モデル記憶部130が記憶しているモデルすなわち画像処理部120が用いるモデルについて、別の図を用いてさらに説明する。
【0030】
図3は、モデル記憶部130が記憶している情報を説明するための図である。モデル記憶部130は、第1処理~第4処理に必要なデータを記憶している。これらのデータには、上記した第1~第3のモデルが含まれている。本図に示す例において、モデル記憶部130は、複数のカメラ30の種類の組み合わせ別に、その組み合わせで用いられるデータ(例えばモデル)を記憶している。本図に示す例では、モデル記憶部130は、複数のカメラ30の種類の組み合わせ別に、上記した第1処理で用いられるデータ、第2処理で用いられる第1モデル、及び第3処理で用いられる第2モデルを記憶しているが、第4処理で用いられる第2モデルはカメラ30の組み合わせによらない共通のモデルとして記憶している。ただし、モデル記憶部130は、第3モデルも、複数のカメラ30の種類の組み合わせ別に記憶していてもよい。
【0031】
次に、モデル記憶部130が記憶している各データについて詳細に説明する。
【0032】
まず、第1処理について説明する。上記したように、第1処理は、複数の画像から飛翔体の有無を検知する処理である。この第1処理において、画像処理部120は、2つ以上のカメラ30がほぼ同じタイミング(すなわち同じ場合もあれば多少のずれが生じている場合もある:以下、「同じタイミング」と記載することもある)で生成した2つ以上の画像を1つの画像のセットとして、当該画像のセットに対して例えば特徴量を検出する処理を行うことにより、飛翔体の有無を判定する。ここで、特徴量に付与されているタグに飛翔体の種別を加えると、第1処理は、飛翔体の大きさも推定することができる。また、タグに鳥であるか否かを示す情報を加えると、第1処理は、飛翔体が鳥であるか否かを推定することもできる。
【0033】
次に、第2処理で用いられる第1モデルについて説明する。第1モデルは、複数の画像が入力されると、構造物から飛翔体までの距離の推定値を出力するモデルである。この第1モデルが成立するのは、以下に説明する原理に因る。
【0034】
図4は、互いに離れた2つのカメラ30を用いて飛翔体Pまでの距離Zを算出できることを説明する図である。本図において、カメラ30は、例えば全球カメラである。そしてx
lは、左側に位置するカメラ30が生成した画像の中における飛翔体Pの座標を示しており、x
rは、右側に位置するカメラ30が生成した画像の中における飛翔体Pの座標を示している。また、fはカメラ30の焦点距離であり、Tは2つのカメラ30の距離である。そして、飛翔体Pまでの距離Zは、以下の式(1)を用いて算出することができる。
【0035】
【0036】
なお、カメラ30にはレンズなどの光学系が含まれている。このため、
図5に示すように、カメラ30が生成した画像には、この光学系に起因した歪みが生じている。式(1)に示した演算において、x
l及びx
rには、この歪を補正した値が用いられる。
【0037】
そして、上記距離Z及び
図4に示した角度θ
1を用いると、第1のカメラ30から飛翔体Pまでの距離D
1を算出することができる。また、上記距離Z及び
図4に示した角度θ
2を用いると、第2のカメラ30から飛翔体Pまでの距離D
2を算出することができる。
【0038】
しかし、これまでの説明で明らかなように、2つのカメラ30では、各カメラ30から飛翔体までの距離D1,D2を推定することはできるが、飛翔体の位置を推定することはできない。具体的には、
図6に示すように、第1のカメラ30を中心とした半径D
1の球と、第2のカメラ30を中心とした半径D
2の球の交わりは、円となる。すなわち、2つのカメラ30では、飛翔体がこの円のどこに位置するかを特定することができない。そこで、第3のカメラ30の画像を用いると、
図5に球がもう1つ加わり、その結果、飛翔体の位置を特定できる。
【0039】
なお、カメラ30が2つであっても、付加知識を用いたり学習を工夫することにより、飛翔体の位置を特定できる場合もある。
【0040】
上記した原理に基づくと、3つ以上のカメラ30が同じタイミングで生成した3つ以上の画像(飛翔体を含む)を1つの画像のセットとして、当該画像のセットに対して飛翔体の位置(すなわち距離及び方向)をタグ付けした学習データを用いると、飛翔体の位置を特定するための第1モデルを生成することができる。例えばカメラ30のすべてが全球カメラであっても、第1モデルは成立する。
【0041】
なお、2つのカメラ30が同じタイミングで生成した2つの画像(飛翔体を含む)を1つの画像のセットとして、当該画像のセットに対して飛翔体の距離をタグ付けした学習データを用いると、飛翔体の距離を特定するための第1モデルを生成することができる。この場合、例えば第3のカメラ30としてTPZ機能を有するカメラを用いて、飛翔体が写る方向を特定することにより、飛翔体の方向を特定することができる。
【0042】
また、このような第1モデルを用いる場合であって、カメラ30が単眼カメラ又は双眼カメラである場合、画像取得部110は、カメラ30が生成した画像と共に、その画像を生成したときのカメラ30の向き(撮影方向)を示す情報(以下、方向情報と記載)も取得してもよい。そして画像処理部120は、この方向情報及び画像内における飛翔体の位置を用いて、当該画像が生成されたタイミングにおける、カメラ30を基準とした飛翔体の方向を推定する。これにより、飛翔体の位置が推定される。
【0043】
また、カメラ30が双眼カメラの場合、1つのカメラ30に2つのカメラが設けられている。このため、
図7に示すように、上記(1)式と同様の式を用いることにより、カメラ30毎に、当該カメラ30から飛翔体Pまでの距離を推定することができる。この場合、1つのカメラ30が生成した2つの画像に対して飛翔体までの距離をタグ付けした学習データを用いると、上記した第1モデルを生成することができる。
【0044】
また、カメラ30が単眼カメラであり、焦点を制御する機能を有している場合、飛翔体に焦点を合わせたときの焦点距離と、第1処理で推定された飛翔体の大きさを用いることにより、カメラ30から飛翔体までの距離を推定することもできる。
【0045】
次に、第3処理で用いられる第2モデルについて説明する。複数のカメラ30が互いに異なるタイミングで生成した生成した画像を処理すると、飛翔体の速度を算出することができる。このため、3つ以上のカメラ30が同じタイミングで生成した3つ以上の画像(飛翔体を含む)を1つの画像のセットとして、当該画像のセットに対して飛翔体の速度をタグ付けした学習データを準備することができる。そしてこの学習データ用いると、第2モデルを生成することができる。第2モデルは、1つや2つのカメラ30が生成した画像で速度を推定できるようにするためのモデルである。このため、第2モデルを用いることにより、複数のカメラで取得した時系列に沿った画像セットを構成できないときでも、飛翔体の速度の推定が可能なる。ここで、1つの画像セットに、複数のカメラ30が生成した時系列の画像が含まれていると、第2モデルによる推定結果の精度は向上する。
【0046】
次に、第4処理で用いられる第3モデルについて、
図14を用いて説明する。
図14は、鳥の飛行軌跡を示しているが、この飛行軌跡は鳥の種類によって異なる。このため、飛行軌跡から得られる回転半径、角速度について当該鳥の種類をタグ付けした学習データを用いると、第3モデルを生成することができる。なお、第3モデルにおいては、個体の飛行軌跡のほかに、複数個体が群れを作った時の群の大きさ、飛行速度なども考慮される。ここで、1つの学習データは、複数のカメラ30が同じタイミングで生成した画像を含んでいてもよい。
【0047】
なお、上記したいずれのモデルにおいても、タグには、撮影条件(例えば天候、撮影時刻、日の出の時刻、及び日の入りの時刻)が含まれていてもよい。
【0048】
図9は、飛翔体検出装置10における飛翔体の位置の管理の仕方を説明するための図である。飛翔体検出装置10において、対象空間は複数のボクセルに分割されている。そして飛翔体の位置は、その飛翔体が位置しているボクセルの座標で示されている。ここで、第2モデルの精度によっては、飛翔体の位置は1つのボクセルに絞ることはできず、複数のボクセルが候補として挙げられることがある。このような場合は、飛翔体までの距離が遠い場合などである。この場合、別のカメラ30の画像を用いると、ボクセルを絞り込むことができる。ここで用いられる別のカメラ30は、TPZ機能を有しているのが好ましい。
【0049】
また、衝突可能性算出部140は、飛翔体(例えば鳥)の飛行軌跡として、この飛翔体が存在するボクセルの推移を記憶している。なお、
図9に示す例において、衝突可能性算出部140は、構造物に飛翔体が衝突する可能性が出てくる高度を、危険高度として設定している。そして衝突可能性算出部140は、飛翔体がこの危険高度に入った場合、又は危険高度に入る可能性が高いと推定される場合、制御情報を制御装置22に送信する。
【0050】
図10は、飛翔体検出装置10のハードウェア構成例を示す図である。飛翔体検出装置10は、バス1010、プロセッサ1020、メモリ1030、ストレージデバイス1040、入出力インタフェース1050、及びネットワークインタフェース1060を有する。
【0051】
バス1010は、プロセッサ1020、メモリ1030、ストレージデバイス1040、入出力インタフェース1050、及びネットワークインタフェース1060が、相互にデータを送受信するためのデータ伝送路である。ただし、プロセッサ1020などを互いに接続する方法は、バス接続に限定されない。
【0052】
プロセッサ1020は、CPU(Central Processing Unit) やGPU(Graphics Processing Unit)などで実現されるプロセッサである。
【0053】
メモリ1030は、RAM(Random Access Memory)などで実現される主記憶装置である。
【0054】
ストレージデバイス1040は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、メモリカード、又はROM(Read Only Memory)などで実現される補助記憶装置である。ストレージデバイス1040は飛翔体検出装置10の各機能(例えば画像取得部110、画像処理部120、モデル取得部132、及び衝突可能性算出部140)を実現するプログラムモジュールを記憶している。プロセッサ1020がこれら各プログラムモジュールをメモリ1030上に読み込んで実行することで、そのプログラムモジュールに対応する各機能が実現される。また、ストレージデバイス1040はモデル記憶部130としても機能する。
【0055】
入出力インタフェース1050は、飛翔体検出装置10と各種入出力機器とを接続するためのインタフェースである。
【0056】
ネットワークインタフェース1060は、飛翔体検出装置10をネットワークに接続するためのインタフェースである。このネットワークは、例えばLAN(Local Area Network)やWAN(Wide Area Network)である。ネットワークインタフェース1060がネットワークに接続する方法は、無線接続であってもよいし、有線接続であってもよい。飛翔体検出装置10は、ネットワークインタフェース1060を介して制御装置22及びカメラ30と通信してもよい。
【0057】
なお、モデル生成装置40のハードウェア構成も、
図10に示した構成と同様である。
【0058】
図11は、飛翔体検出装置10が行う処理の第1例を示す図である。本図に示す例において、複数のカメラ30は全球カメラである。そして少なくとも3つのカメラ30が。そして飛翔体検出装置10は、繰り返し本図に示す処理を行う。
【0059】
まず飛翔体検出装置10の画像取得部110は、リアルタイムで複数のカメラ30が生成した画像を取得する(ステップS10)。すると飛翔体検出装置10の画像処理部120は、カメラ30が生成した画像に対して第1処理を行う。これにより、対象空間内に所定の飛翔体(本図に示す例では鳥。以下、鳥として説明を行う)が存在するか否か、及びその種類の概略が判断される(ステップS20)。鳥が存在すると推定された場合(ステップS30:Yes)、画像処理部120は、第2処理を行うための第1モデルに画像を入力する。これにより、構造物から鳥までの距離が推定される。本図に示す例においてはカメラ30が3つ以上あるため、画像処理部120は、第1モデルを用いることにより、構造物を基準とした鳥の方位及び位置も推定できる(ステップS40)。
【0060】
そして画像処理部120は、第3処理を行うための第2モデルに画像を入力する。これにより、鳥の速度が推定される(ステップS50)。
【0061】
さらに画像処理部120は、ステップS40及びステップS50の処理結果を用いて鳥の飛行軌跡を示すデータを生成する。そして画像処理部120は、第4処理を行うための第3モデルに鳥の飛行軌跡を示すデータを入力する。これにより、鳥の種類が推定される(ステップS60)。なお、画像処理部120は、1つの飛翔体をトラッキングすることができる場合、ステップS60に示した処理を、対象となる飛翔体を最初に検知したときにのみ行われてもよい。
【0062】
そして衝突可能性算出部140は、ステップS40で算出した鳥の位置及び包囲、ステップS50で算出した鳥の速度、及びステップS60で算出した鳥の種類を用いて、衝突可能性情報を生成する(ステップS70)。衝突可能性情報は、例えば鳥が構造物に衝突する可能性そのものである。ここで鳥の種類が用いられるのは、鳥によって飛行軌跡が異なるためである。
【0063】
そして衝突可能性情報が基準を満たす場合、すなわち、鳥が構造物に衝突する可能性がある程度高い場合(ステップS80:Yes)、衝突可能性算出部140は、制御情報を制御装置22に送信する(ステップS90)。この際、衝突可能性算出部140は、構造物から鳥までの距離、及び鳥の速度の推定結果を用いて、構造物に鳥が衝突するまでの予想時間を算出し、この予想時間を制御装置22に送信してもよい。制御装置22は、制御情報を受信すると、構造物20が有する機械的又は電気的な構造(例えば風力発電装置のブレード)の動きを停止または遅くする。この制御において、制御装置22は、構造物に鳥が衝突するまでの予想時間を用いてもよい。例えば予想時間が短い場合、制御装置22は、風力発電装置のブレードの減速速度(すなわち負方向の加速度)を大きくして、ブレードに鳥が衝突する前にブレードが停止するようにする。
【0064】
図12は、飛翔体検出装置10が行う処理の第2例を示す図である。本図に示す例において、複数のカメラ30は単眼カメラ又は双眼カメラである。本図に示す例は、ステップS40の代わりのステップS42,S44が行われる点を除いて、
図11に示した例と同様である。
【0065】
図11に示す例において、画像処理部120は、第2処理によって飛翔体の位置を推定していた(ステップS40)。これに対し、
図12に示す例では、画像処理部120は、第2処理によって飛翔体までの距離を推定する(ステップS42)。この処理においては、例えば2つのカメラ30が生成した画像が用いられる。次いで画像処理部120は、飛翔体の方向を推定する。この推定には、例えばステップS42で用いられた画像を生成したときの方向情報が用いられる(ステップS44)。
【0066】
図13は、飛翔体検出装置10が行う処理の第3例を示す図である。本図に示す処理は、第2処理によって飛翔体(鳥)の方位及び位置を推定していた(ステップS40)後に、この位置をさらに絞り込む(狭める)処理を行う点を除いて、
図11に示した例と同様である。
【0067】
具体的には、飛翔体検出装置10は、TPZ機能を有する他のカメラ30の画像を用いる。画像処理部120は、この他のカメラ30の方向を、飛翔体が存在する方向に向けるとともに、倍率も調整する(ステップS402)。そして画像処理部120は、当該カメラ30が生成した画像を、当該画像が生成された時のTPZの条件と共に取得し、この情報を用いて画像を処理することにより、飛翔体の方位及び位置を絞り込む(ステップS404)。
【0068】
以上、本実施形態によれば、飛翔体検出装置10の画像処理部120は、第1処理を用いて飛翔体の有無を推定するとともに、第1モデルを用いた第2処理により、飛翔体までの距離を推定する。したがって、構造物の周囲に存在する飛翔体の位置を精度よく推定することができる。
【0069】
また、画像処理部120は、飛翔体が鳥の場合、第2モデルを用いた第3処理により、速度を推定する。第3処理に必要な画像の枚数は少ない。このため、飛翔体検出装置10は、カメラ30から得られた画像が少ない場合でも、鳥が構造物20に衝突すると予想される時間を推定することができる。さらに画像処理部120は、飛翔体が鳥の場合、第3モデルを用いた第4処理により、鳥の種類を推定する。このため、飛翔体検出装置10は、鳥が構造物20に衝突する可能性を精度よく推定することができる。
【0070】
以上、図面を参照して本発明の実施形態について述べたが、これらは本発明の例示であり、上記以外の様々な構成を採用することもできる。
【0071】
また、上述の説明で用いた複数のフローチャートでは、複数の工程(処理)が順番に記載されているが、各実施形態で実行される工程の実行順序は、その記載の順番に制限されない。各実施形態では、図示される工程の順番を内容的に支障のない範囲で変更することができる。また、上述の各実施形態は、内容が相反しない範囲で組み合わせることができる。
【符号の説明】
【0072】
10 飛翔体検出装置
20 構造物
22 制御装置
30 カメラ
40 モデル生成装置
110 画像取得部
120 画像処理部
130 モデル記憶部
132 モデル取得部
140 衝突可能性算出部