(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024154573
(43)【公開日】2024-10-31
(54)【発明の名称】検知システム、検知方法、及び検知プログラム
(51)【国際特許分類】
H04N 7/18 20060101AFI20241024BHJP
G06T 7/20 20170101ALI20241024BHJP
【FI】
H04N7/18 D
G06T7/20
【審査請求】未請求
【請求項の数】10
【出願形態】OL
(21)【出願番号】P 2023068463
(22)【出願日】2023-04-19
(71)【出願人】
【識別番号】000232254
【氏名又は名称】日本電気通信システム株式会社
(74)【代理人】
【識別番号】100103894
【弁理士】
【氏名又は名称】家入 健
(72)【発明者】
【氏名】河野 研二
(72)【発明者】
【氏名】青木 教之
(72)【発明者】
【氏名】高岡 真則
(72)【発明者】
【氏名】上野 悟己
【テーマコード(参考)】
5C054
5L096
【Fターム(参考)】
5C054CA04
5C054CC02
5C054FE28
5C054HA19
5L096AA06
5L096BA02
5L096CA04
5L096HA09
5L096MA07
(57)【要約】
【課題】特定の対象に対するイベントを検知することができる検知システム、検知方法、及び検知プログラムを提供する。
【解決手段】本開示に係る検知システム10は、目標対象特定部11、画素領域決定部12を備える。目標対象特定部11は、対象を含む空間をセンシングしたセンシング情報からイベントを検知する対象である目標対象を特定する。画素領域決定部12は、特定した目標対象の位置に基づいて、目標対象のイベントを検知する処理を実行するための画素領域を決定する。
【選択図】
図1
【特許請求の範囲】
【請求項1】
対象を含む空間をセンシングしたセンシング情報からイベントを検知する対象である目標対象を特定する目標対象特定部と、
特定した前記目標対象の位置に基づいて、前記目標対象のイベントを検知する処理を実行するための画素領域を決定する画素領域決定部と、
を備えた、
検知システム。
【請求項2】
イベントカメラから前記対象におけるイベントを検知するためのイベントデータを取得する取得部と、
前記目標対象のイベントを検知する処理を実行するイベント検知部と、を備え、
前記イベント検知部は、前記イベントデータから前記画素領域における前記目標対象のイベントを抽出して検知する、
請求項1に記載の検知システム。
【請求項3】
前記画素領域決定部は、前記目標対象と前記イベントカメラとの距離及び前記イベントカメラの撮影範囲に基づいて、前記画素領域を決定する、
請求項2に記載の検知システム。
【請求項4】
前記センシング情報は、対象を含む空間の点群データであり、
前記イベントカメラの撮影範囲には、前記目標対象が含まれ、
前記画素領域決定部は、前記空間の点群データから前記イベントカメラの前記撮影範囲に含まれる点群データを抽出する、
請求項2又は3に記載の検知システム。
【請求項5】
前記画素領域において検知した前記イベントが前記目標対象のイベントであるか否かを前記センシング情報に基づいて判定する判定部を備えた、
請求項1又は2に記載の検知システム。
【請求項6】
前記イベントは、前記目標対象に対して予測されるイベントと異なるイベントである、
請求項1又は2に記載の検知システム。
【請求項7】
センシング装置と、情報処理装置と、を備えた検知システムであって、
前記センシング装置は、対象を含む空間をセンシングすることによって取得したセンシング情報を前記情報処理装置に対して送信し、
前記情報処理装置は、
受信した前記センシング情報からイベントを検知する対象である目標対象を特定し、
特定した前記目標対象の位置に基づいて、前記目標対象のイベントを検知する処理を実行するための画素領域を決定する、
検知システム。
【請求項8】
前記対象におけるイベントを検知するためのイベントデータを取得するイベントカメラをさらに備え、
前記イベントカメラは、取得した前記イベントデータを前記情報処理装置に対して送信し、
前記情報処理装置は、受信した前記イベントデータから前記画素領域における前記目標対象のイベントを抽出して検知する、
請求項7に記載の検知システム。
【請求項9】
対象を含む空間をセンシングしたセンシング情報からイベントを検知する対象である目標対象を特定し、
特定した前記目標対象の位置に基づいて、前記目標対象のイベントを検知する処理を実行するための画素領域を決定する、
処理をコンピュータが実行する、
検知方法。
【請求項10】
対象を含む空間をセンシングしたセンシング情報からイベントを検知する対象である目標対象を特定し、
特定した前記目標対象の位置に基づいて、前記目標対象のイベントを検知する処理を実行するための画素領域を決定する、
処理をコンピュータに実行させる、
検知プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、検知システム、検知方法、及び検知プログラムに関する。
【背景技術】
【0002】
近年、イベントカメラを利用した監視技術が開発されている。イベントカメラは、対象における各画素の輝度変化を検知する。イベントカメラの出力は、輝度が所定の閾値以上に変化した場合の時刻、画素の位置、極性(輝度が小さくなったか大きくなったか)を表す非同期のデータ列である。
【0003】
特許文献1には、イベントカメラと撮像カメラとを用いた監視システムが記載されている。特許文献1に開示された監視システムでは、イベントカメラを用いて人又はロボットが移動したことを示すイベントを検出した場合に、撮像カメラを用いてロボットの作業領域に人が出入りしているか否かを検出する。
【先行技術文献】
【特許文献】
【0004】
【発明の概要】
【発明が解決しようとする課題】
【0005】
上述した特許文献1に開示された監視システムでは、イベントが生じてから、移動後の状況を撮像カメラによって確認している。このように、上述した特許文献1に開示された監視システムでは、イベントが生じた場合にどこでイベントが発生しているかを確認する必要があり、特定の対象に対するイベントを検知することが困難である。
【0006】
本開示の目的は、上述した課題に鑑み、特定の対象に対するイベントを検知することができる検知システム、検知方法、及び検知プログラムを提供することにある。
【課題を解決するための手段】
【0007】
本開示の一態様に係る検知システムは、
対象を含む空間をセンシングしたセンシング情報からイベントを検知する対象である目標対象を特定する目標対象特定部と、
特定した前記目標対象の位置に基づいて、前記目標対象のイベントを検知する処理を実行するための画素領域を決定する画素領域決定部と、を備える。
【0008】
本開示の一態様に係る検知方法は、
対象を含む空間をセンシングしたセンシング情報からイベントを検知する対象である目標対象を特定し、
特定した前記目標対象の位置に基づいて、前記目標対象のイベントを検知する処理を実行するための画素領域を決定する、
処理をコンピュータが実行する。
【0009】
本開示の一態様に係る検知プログラムは、
対象を含む空間をセンシングしたセンシング情報からイベントを検知する対象である目標対象を特定し、
特定した前記目標対象の位置に基づいて、前記目標対象のイベントを検知する処理を実行するための画素領域を決定する、
処理をコンピュータに実行させる。
【0010】
本開示により、特定の対象に対するイベントを検知することができる検知システム、検知方法、及び検知プログラムを提供できる。
【図面の簡単な説明】
【0011】
【
図1】実施形態1に係る検知システムの構成を示すブロック図である。
【
図2】実施形態1に係る検知方法を例示したフローチャートである。
【
図3】実施形態2にかかる検知システムの構成を示すブロック図である。
【
図4】実施形態2にかかる検知システムにおいて、目標対象のイベントを検知する処理を示したフローチャートである。
【
図5】実施形態2に係るイベント検知システムを使用して目標対象のイベントを検知する様子を示した概要図である。
【
図6】実施形態2に係るイベント検知システムを使用して目標対象のイベントを検知する様子を示した概要図である。
【
図7】実施形態2に係るイベント検知システムを使用して目標対象のイベントを検知する様子を示した概要図である。
【
図9】実施形態2にかかる検知システムの変形例の構成を示すブロック図である。
【
図10】実施形態2にかかる検知システムの変形例における目標対象のイベントを検知する処理を示したフローチャートである。
【
図11】実施形態3にかかる検知システムの使用例を示すブロック図である。
【
図12】実施形態3に係る検知方法を例示したフローチャートである。
【
図13】実施形態3に係るイベント検知システムを使用して目標対象のイベントを検知する様子を示した概要図である。
【
図14】実施形態3に係る検知システムにおける判定部の判定フローを例示したフローチャートである。
【
図15】風力発電機のプロペラが回転している状態を示した模式図である。
【発明を実施するための形態】
【0012】
以下、実施形態を通じて本開示を説明するが、特許請求の範囲に係る開示を以下の実施形態に限定するものではない。また、実施形態で説明する構成の全てが課題を解決するための手段として必須であるとは限らない。説明の明確化のため、以下の記載および図面は、適宜、省略、および簡略化がなされている。各図面において、同一の要素には同一の符号が付されており、必要に応じて重複説明は省略されている。
なお、当然のことながら、図面に示した右手系xyz直交座標は、構成要素の位置関係を説明するための便宜的なものである。通常、z軸正向きが鉛直上向き、xy平面が水平面である。
【0013】
<実施形態1>
<検知システム>
以下、図面を参照して本開示の実施形態1について説明する。
図1は、実施形態1に係る検知システムの構成を示すブロック図である。実施形態1に係る検知システム10は、目標対象特定部11、画素領域決定部12を備える。
【0014】
目標対象特定部11は、対象を含む空間をセンシングしたセンシング情報からイベントを検知する対象である目標対象を特定する。対象は、人や物体である。イベントは、対象である人や物体に一定以上の画素の輝度変化が生じることである。
【0015】
対象が人である場合、イベントは、人の動作に伴い一定以上の画素の輝度変化が生じることであり、例えば、歩行動作、金属バットを振る動作に伴い一定以上の画素の輝度変化が生じることである。対象が物体である場合、イベントは、物体の変化や動きに伴い一定以上の画素の輝度変化が生じることであり、例えば、バルブの開閉に伴い一定以上の画素の輝度変化が生じることである。
【0016】
イベントは、対象が静的な状態から動的な状態に変化する場合だけでなく、対象が常に一定の動的な状態であり、その一定な動的な状態から変化が生じるものでもよい。例えば、対象がタービンブレードの場合、タービンブレードは常時一定の回転数を維持して回転している。この場合、イベントは、タービンブレードが一定の回転数よりも高い又は低い回転数の状態で回転して変化が生じていることを示す。なお、イベントデータは、イベントが生じた場合に、その時刻と画素の座標と極性を含む情報のことである。
【0017】
複数の設備がある場合、対象は複数の設備であり、対象を含む空間は複数の設備を含む空間である。この場合、目標対象は、複数の設備のうち少なくとも1つの設備である。対象は、複数存在することに限定されず、1つでもよい。この場合、目標対象は、その1つの対象となる。対象が人である場合も同様である。
【0018】
目標対象特定部11は、例えば、以下のようにして、センシング情報からイベントを検知する対象である目標対象を特定する。目標対象特定部11は、センシング情報に含まれる対象の色や形状などの特徴を示す情報から、目標対象の色や形状などの特徴を示す情報と同一又は類似のものを検出した場合、その対象を目標対象と特定する。
【0019】
また、センシング情報は、後述するように、対象を含む空間の点群データでもよい。この場合、目標対象特定部11は、例えば、クラスタリングによって対象を含む空間の点群データを、類似する特徴を有するクラスタに分類し、そのクラスタ群の中から目標対象物を特定する。対象が物体である場合、クラスタリングは、例えば、対象の色、形状、構造などの特徴を示す情報に基づいて行われる。対象が人である場合、クラスタリングは、例えば、性別、体型、骨格、顔形状、肌の色、髪の毛などを示す情報に基づいて行われる。センシング情報は対象の位置情報を含むため、目標対象特定部11は、対象を含む空間から目標対象を特定して、目標対象の位置を特定できる。
【0020】
画素領域決定部12は、特定した目標対象の位置に基づいて、目標対象のイベントを検知する処理を実行するための画素領域を決定する。画素領域とは、複数の画素が集合した領域のことであり、典型的には、縦の画素数と横の画素数とが同じである正方形の形状を有する領域である。しかし、これに限定されることはなく、画素領域は、目標対象に応じていかなる形状を有してもよい。例えば、画素領域は、縦の画素数が3個であり、横の画素数が5個の長方形の形状を有する領域でもよい。
【0021】
画素領域において輝度変化が生じた場合、目標対象のイベントが発生している。一方で、画素領域において輝度変化が生じていない場合、目標対象のイベントが発生していない。
【0022】
<検知方法>
続いて、実施形態1に係る検知方法を説明する。
図2は、実施形態1に係る検知方法を例示したフローチャートである。
【0023】
まず、目標対象特定部11は、対象を含む空間をセンシングしたセンシング情報からイベントを検知する対象である目標対象を特定する(ステップST1)。より具体的には、目標対象特定部11は、センシング情報に含まれる対象の色や形状などの特徴を示す情報から、目標対象の色や形状などの特徴を示す情報と同一又は類似のものを検出した場合、その対象を目標対象と特定する。センシング情報は対象の位置情報を含むため、目標対象特定部11は対象を含む空間から目標対象を特定して、目標対象の位置を特定できる。
【0024】
次に、画素領域決定部12は、特定した目標対象の位置に基づいて、目標対象のイベントを検知する処理を実行するための画素領域を決定する(ステップST2)。これにより、対象の中から目標対象にフォーカスしてイベントを検知することができる。例えば、画素領域において輝度変化が生じた場合、目標対象に対するイベントが発生している。
【0025】
このように、実施形態1に係る検知システム10は、目標対象を特定し、特定した目標対象の位置に基づいて、目標対象のイベントを検知する処理を実行するための画素領域を決定する。このような構成にすることによって、特定の対象に対するイベントを検知することができる。
【0026】
<実施形態2>
<検知システム>
以下、図面を参照して本開示の実施形態2について説明する。
図3は、実施形態2にかかる検知システムの構成を示すブロック図である。実施形態2に係る検知システム20は、取得部24、目標対象特定部21、画素領域決定部22、及びイベント検知部25を備える。検知システム20は、イベントカメラ23と有線又は無線接続されており、通信可能である。目標対象特定部21は、実施形態1に係る検知システム10と同様であるため、説明を省略する。ここでは、まず、イベントカメラ23、取得部24、及びイベント検知部25について説明しながら、イベントの検知処理について説明する。そして、画素領域決定部22の画素領域の決定方法について詳細に説明する。
【0027】
<イベントの検知処理>
イベントカメラ23は、対象のイベントデータを取得する。取得部24は、イベントカメラ23から対象のイベントデータを取得する。イベント検知部25は、目標対象のイベントを検知する処理を実行する。イベント検知部25におけるイベントを検知する処理の一例を、
図4を参照しながら、より具体的に説明する。
【0028】
図4は、実施形態2にかかる検知システムにおいて、目標対象のイベントを検知する処理を示したフローチャートである。
図4は、検知システム20が対象のイベントデータから画素領域決定部22が決定した画素領域における目標対象のイベントを抽出して検知する場合のフローチャートである。
【0029】
図4に示すように、まず、取得部24は、イベントカメラ23から対象のイベントデータを取得する(ステップST21)。次に、目標対象特定部21は、対象を含む空間をセンシングしたセンシング情報からイベントを検知する対象である目標対象を特定する(ステップST22)。
【0030】
次に、
図4に示すように、画素領域決定部22は、特定した目標対象の位置に基づいて、目標対象のイベントを検知する処理を実行するための画素領域を決定する(ステップST23)。次に、イベント検知部25は、対象のイベントデータから画素領域決定部22が決定した画素領域における目標対象のイベントを抽出して検知する(ステップST24)。
【0031】
換言すると、
図4に示した例では、検知システム20は、全ての対象におけるイベントデータを取得する処理を実行する。そして、検知システム20は、その中から該当する目標対象を特定して、目標対象のイベントをピックアップして検知する。
【0032】
<画素領域の決定方法>
続いて、
図5~
図8を参照しながら、画素領域決定部22が画素領域を決定する方法について詳細に説明する。
図5~
図7は、実施形態2に係るイベント検知システムを使用して目標対象のイベントを検知する様子を示した概要図である。
図6及び
図7は、
図5における目標対象とイベントカメラを拡大した拡大図である。
図8は、目標対象の画素領域を示した模式図である。
まず、
図5を参照しながら点群データについて説明をする。次に、
図6~
図8を参照しながら、点群データの抽出処理、画素領域の計算処理について説明する。
【0033】
<点群データ>
図5に示すように、空間SP1は、対象S1、S2、S3、TS1、イベントカメラ100を含む。
図5に示した例では、対象S1、S2、S3、TS1のうち、目標対象は対象TS1であるとする。また、
図5に示した例では、空間SP1は、対象S1、S2、S3、TS1を含む空間の点群データであるとする。なお、空間SP1は、3Dセンサ(不図示)によってセンシングされたものとする。
【0034】
まず、空間SP1における目標対象TS1の位置について説明する。
図5に示すように、目標対象TS1は、バウンディングボックス402を用いて表される。バウンディングボックス402は、空間SP1の点群データから対象物TS1を検出した結果を表したものである。バウンディングボックス402の座標は、各座標の最小点411と最大点412を用いて表す事ができる。
図6に示した例では、最小点411は、(xmin,ymin,zmin)と表記されている。また、最大点412は、(xmax,ymax,zmax)と表記されている。目標対象特定部21は、空間SP1における目標対象TS1の位置を特定する。
【0035】
次に、空間SP1におけるイベントカメラ100の位置について説明する。イベントカメラ100の位置は、3Dセンサ(不図示)の位置を原点(0,0,0)とした場合、
図6に示すように、例えば、(x2,y2,z2)と表記することができる。画素領域決定部22は、空間SP1におけるイベントカメラ100の位置を特定する。
【0036】
図5に示した例では、3Dセンサ(不図示)によってセンシングされた空間SP1は、イベントカメラ100を含む。そのため、画素領域決定部22は、センシングされた空間SP1の点群データからイベントカメラ100の位置を算出することができる。より具体的には、画素領域決定部22は、3Dセンサ(不図示)の位置を原点とすれば、イベントカメラ100の位置を算出することができる。
【0037】
しかし、イベントカメラ100の位置を算出する方法は、これに限定されることはない。3Dセンサ(不図示)によってセンシングされた空間SP1は、イベントカメラ100を含まない場合でも、画素領域決定部22は、イベントカメラ100の位置を算出することができる。例えば、3Dセンサ(不図示)の隣接した位置にイベントカメラ100が配置されていれば、画素領域決定部22は、イベントカメラ100の位置を3Dセンサ(不図示)の隣接した位置であると認識して、算出することができる。その他の例として、イベントカメラ100にGPS(Global Positioning System)を付帯させて、GPSの位置情報から位置を特定してもよい。また、イベントカメラ100に二次元のマーカーを貼付し、センシングした空間の点群データからマーカーを検出して位置を特定してもよい。
【0038】
また、
図5には、イベントカメラ100の撮影範囲400が示されている。イベントカメラ100の撮影範囲400は、画角θ2を用いて表すことができる。本来であれば、撮影範囲400は3次元的な範囲を示すが、ここでは簡易的に説明をするため、撮影範囲400におけるy方向に着目する。画角θ2は、例えば、IMU(Inertial Measurement Unit)センサを用いて算出する。
【0039】
画素領域決定部22は、空間SP1における目標対象TS1の位置、空間SP1におけるイベントカメラ100の位置、及びイベントカメラ100の撮影範囲400を用いることによって、イベントデータにおける目標対象TS1の画素領域を決定することができる。換言すると、画素領域決定部22は、目標対象TS1とイベントカメラ100との距離及びイベントカメラ100の撮影範囲400に基づいて、画素領域を決定することができる。
図6~
図8を参照しながら、画素領域決定部22が決定する画素領域についてより具体的に説明する。
【0040】
<点群データの抽出処理>
図6は、
図5に示した空間SP1の点群データのうち、目標対象TS1とイベントカメラ100との点群データを示した図である。
図6に示すように、イベントカメラ100の撮影範囲400は、角度θ2を用いて表すことができる。また、
図6に示すように、目標対象TS1にフォーカスした場合におけるイベントカメラ100の撮影範囲410は、角度θ1を用いて表すことができる。なお、
図6に示すように、画角θ2の方が画角θ1よりも大きい角度である。
【0041】
図6に示すように、イベントカメラ100の撮影範囲400は、イベントカメラ100の撮影範囲410よりも広範囲である。よって、
図6に示すように、イベントカメラ100の画角θ2が示す撮影範囲400、画角θ1が示す撮影範囲410には、目標対象TS1が含まれている。
図6では、撮影範囲400と撮影範囲410とが異なる範囲であるとして説明したが、撮影範囲400と撮影範囲410とが同一範囲でもよい。
【0042】
以降では、
図7及び
図8を参照しながら、イベントカメラ100の画角θ1が示す撮影範囲410に含まれる目標対象TS1の画素領域を、画素領域決定部12が決定する方法について説明する。
【0043】
図7は、
図5に示した空間SP1の点群データのうち、
図6に示した撮影範囲410に含まれる目標対象TS1とイベントカメラ100との点群データを示した図である。
図7に示すように、画素領域決定部22は、空間SP1の点群データからイベントカメラ100の撮影範囲410に含まれる点群データ401を抽出する。すなわち、画素領域決定部22は、点群データ401以外の空間SP1の点群データを削除している。このように、画素領域決定部22は、目標対象TS1にフォーカスして画素領域を決定するため、処理量を減らして効率的な処理を実現できる。
【0044】
なお、画素領域決定部22は、空間SP1の点群データからイベントカメラ100の撮影範囲410に含まれる点群データ401を抽出したが、これに限定されることはない。画素領域決定部22は、空間SP1の点群データからイベントカメラ100の撮影範囲400(
図7に図示)に含まれる点群データを抽出してもよい。これにより、画素領域決定部22は、処理量を減らして効率的な処理を実現できる。
【0045】
<画素領域の計算処理>
次に、
図7に示すように、画素領域決定部22は、画素領域におけるy方向の長さL1を算出する。より具体的には、画素領域決定部22は、イベントカメラ100の位置と目標対象TS1の位置とに基づいて、イベントカメラ100と目標対象TS1との距離L3を算出する。
【0046】
ここで、
図8には、イベントカメラ100の撮影範囲400の画角θ1の半分の角度である角度θ3が示されている。そして、画素領域決定部22は、以下の数式(1)を用いて距離L1の半分の距離、すなわち、距離L1/2を算出する。
【0047】
【0048】
画素領域決定部22は、数式(1)を用いて、距離L1/2及び距離L1を算出することができる。
図8は、イベントカメラ100における目標対象TS1の画素領域R1を示した図である。
図8に示した、イベントデータ500は、イベントカメラ100によって取得したものである。また、
図8に示すように、画素領域R1は、縦幅L3と横幅L4に囲われた領域である。画素領域決定部22が数式(1)を用いて算出した距離L1は、画素領域R1のy方向の縦幅L3に相当する。
【0049】
同様にして、画素領域決定部22は、
図8に示す画素領域R1のz方向の横幅L2を算出する。これにより、画素領域決定部22は、目標対象TS1の画素領域R1を決定することができる。
【0050】
このように、画素領域決定部22は、点群データから目標対象TS1とイベントカメラ100との位置関係によって、目標対象TS1のイベントを検知する画素領域R1を決定する。
【0051】
ここで、複数の対象のうちいずれかの対象にイベントが発生した場合、イベントカメラを使用しただけでは、イベントが発生した箇所のイベントデータしか取得することができない。すなわち、複数の対象のうちどの対象にイベントが発生しているかが特定できない。そのため、イベントが発生した対象の位置を把握するために、イベントが発生したことをイベントカメラによって検知したら、3Dセンサ等のセンシング装置によって確認する必要がある。
【0052】
しかし、実施形態2に係る検知システム20は、イベントを検知する処理を実行するための画素領域を決定しているため、複数の対象のうちどの対象にイベントが発生しているかを把握することができる。例えば、実施形態2に係る検知システム20は、目標対象が移動後に静止している場合でも、目標対象の移動に伴うイベントを検知したうえで目標対象の位置を特定することができる。
【0053】
このように、実施形態2に係る検知システム20は、対象を含む空間をセンシングしたセンシング情報から目標対象TS1とイベントカメラ100との距離を算出する。また、実施形態2に係る検知システム20は、算出した目標対象TS1とイベントカメラ100との距離及びイベントカメラ100の撮影範囲に基づいて、目標対象のイベントを検知する処理を実行するための画素領域を決定する。そのため、実施形態2に係る検知システム20は、複数の対象のうちどの対象にイベントが発生しているかを把握することができる。換言すると、実施形態2に係る検知システム20は、特定の対象に対するイベントを検知することができる。
【0054】
<画素領域における監視>
ここまでは、検知システム20は、全ての対象におけるイベントデータを取得し、その中から該当する目標対象のイベントをピックアップして検知する例を説明した。しかし、上述したイベントを検知する処理に限定されることはなく、以下の方法でもよい。イベントカメラ23は、画素領域決定部22によって決定した画素領域における目標対象のイベントを検知する。そしてイベントカメラ23は、その検知結果を示す情報を検知システム20に対して送信する。検知システム20は、目標対象に対するイベント検知結果を示す情報をイベントカメラ23から受信することによってイベントを検知してもよい。
【0055】
図9を参照しながら、より詳細に説明する。
図9は、実施形態2にかかる検知システムの変形例の構成を示すブロック図である。検知システム29は、目標対象特定部21、画素領域決定部22、及びイベント検知部27を備える。検知システム29は、イベントカメラ23と有線又は無線接続されており、通信可能である。目標対象特定部21、画素領域決定部22は、実施形態1及び2に係る検知システム10、20と同様であるため、説明を省略する。
【0056】
イベント検知部27は、目標対象のイベントを検知する処理を実行する。より具体的には、イベント検知部27は、イベントカメラ23からの画素領域における目標対象のイベント検知結果を受信することによってイベントを検知する。
【0057】
図10を参照しながら、より具体的に説明する。
図10は、実施形態2にかかる検知システムの変形例における目標対象のイベントを検知する処理を示したフローチャートである。
図10は、イベントカメラ23が画素領域決定部22によって決定された画素領域における目標対象のイベントを検知し、イベント検知部27が目標対象に対するイベント検知結果を示す情報を受信することによってイベントを検知する場合のフローチャートである。
【0058】
図10に示すように、まず、目標対象特定部21は、対象を含む空間をセンシングしたセンシング情報からイベントを検知する対象である目標対象を特定する(ステップST22)。これは、
図4に示したステップST22と同様である。次に、画素領域決定部22は、特定した目標対象の位置に基づいて、目標対象のイベントを検知する処理を実行するための画素領域を決定する(ステップST23)。これは、
図4に示したステップST23と同様である。次に、イベントカメラ23は、画素領域決定部22が決定した画素領域における目標対象のイベントを検知する(ステップST25)。次に、イベント検知部27は、イベントカメラ23からの画素領域における目標対象のイベント検知結果を受信することによってイベントを検知する(ステップST26)。
【0059】
換言すると、
図10に示した例では、まず、目標対象特定部21が目標対象を特定して、画素領域決定部22がイベントを検知する画素領域を特定している。そして、イベントカメラ23がその画素領域のみを監視してイベントを検知する。そして、イベント検知部27は、イベントカメラ23からの画素領域における目標対象のイベント検知結果を受信することによってイベントを検知する。このように、
図10に示した例では、検知システム29は、イベントの検知範囲を目標対象だけにフォーカスしてイベントを検知する。そのため、検知システム29は、検知システム20に比較して、目標対象のイベントを監視して検知するため、処理の低減を図ることができる。
【0060】
実施形態2に係る検知システム20、及び変形例である検知システム29は、特に、工場、建設現場などにおける特定の設備や建設機械のイベント発生を検知したい場合に有効である。設備や建設機械のイベントは、例えば、故障が原因で発生する火花や微小な振動などである。
【0061】
<実施形態3>
<検知システム>
以下、図面を参照して本開示の実施形態3について説明する。
図11は、実施形態3にかかる検知システムの使用例を示すブロック図である。実施形態3に係る検知システム30は、センシング装置301、イベントカメラ302、情報処理装置303を備えている。センシング装置301、イベントカメラ302、情報処理装置303は有線又は無線接続されており、通信可能である。
【0062】
<センシング装置>
まず、センシング装置301について説明する。センシング装置301は、取得部311、送信部312を備えている。取得部311は、対象を含む空間をセンシングしたセンシング情報を取得する。センシング情報は、上述のように、対象の色や形状などの特徴を示す情報、対象を含む空間の点群データを含む。送信部312は、センシング情報を情報処理装置303に対して送信する。
【0063】
センシング装置301は、典型的には、対象の位置情報を取得することができる3Dセンサである。しかし、これに限定されることはなく、センシング装置301は、対象の色や形状などの特徴を示す情報を取得できる、例えば、RGBカメラでもよい。また、センシング装置301は、一つに限らず、複数のセンシング装置によって構成されてもよい。
【0064】
また、センシング装置301は、典型的には、対象の周囲の壁や、三脚の上に設置する。しかし、これに限定されることはなく、センシング装置301は、対象を含む空間をセンシングできればいかなる場所に設置されてもよい。センシング装置301は、例えば、ドローンやロボットなどの移動体に搭載されていてもよい。
【0065】
<イベントカメラ>
次に、イベントカメラ302について説明する。イベントカメラ302は、取得部321、送信部322を備えている。取得部321は、空間に含まれる対象におけるイベントを検知するためのイベントデータを取得する。送信部322は、イベントデータを情報処理装置303に対して送信する。
【0066】
イベントカメラ302は、取得した全てのイベントデータを情報処理装置303に対して送信してもいいが、これに限定されることはなく、イベントカメラ302は、取得した全てのイベントデータの一部を情報処理装置303に対して送信してもよい。例えば、4つの対象のうち、イベントを検知したい1つの目標対象が定まっている場合、イベントカメラ302は、目標対象のイベントデータのみを情報処理装置303に対して送信する。なお、当然のことながら、4つの対象のうち、イベントを検知したい3つの目標対象が定まっている場合、イベントカメラ302は、3つの目標対象のイベントデータを情報処理装置303に対して送信してもよい。
【0067】
また、イベントカメラ302は、典型的には、対象の周囲の壁や、三脚の上に設置する。しかし、これに限定されることはなく、イベントカメラ302は、対象を含む空間をセンシングできればいかなる場所に設置されてもよい。イベントカメラ302は、例えば、ドローンやロボットなどの移動体に搭載されていてもよい。
【0068】
なお、
図11に示した例では、センシング装置301がセンシング情報を取得して、そのセンシング情報を情報処理装置303に対して送信する。また、イベントカメラ302がイベントデータを取得して、そのイベントデータを情報処理装置303に対して送信する。このように、センシング装置301とイベントカメラ302とのそれぞれが情報を取得して、取得した情報を情報処理装置303に対して送信する。しかし、これに限定されることはなく、センシング装置301とイベントカメラ302とが一体化された装置でもよい。この場合、センシング装置301とイベントカメラ302とが一体化された装置は、センシング情報とイベントデータとを取得して、両方を情報処理装置303に対して送信する。
【0069】
<情報処理装置>
次に、情報処理装置303について説明する。情報処理装置303は、センシング情報受信部331、イベントデータ受信部332、目標対象特定部333、画素領域決定部334、イベント検知部335、判定部336、信号生成部337、表示部338を備えている。
【0070】
センシング情報受信部331は、センシング装置301からのセンシング情報を受信する。また、イベントデータ受信部332は、イベントカメラ302からのイベントデータを受信する。
【0071】
なお、
図10に示した例では、センシング情報受信部331がセンシング情報を取得し、イベントデータ受信部332がイベントデータを取得する構成である。センシング装置301とイベントカメラ302とが一体化された装置である場合、情報処理装置303は、センシング情報とイベントデータとの両方を取得する一つの取得部を備えていてもよい。
【0072】
目標対象特定部333は、実施形態1及び2に係る目標対象特定部11、21と同様であるため、説明を省略する。また、画素領域決定部334も実施形態1及び2に係る画素領域決定部12、22と同様であるため、説明を省略する。
【0073】
イベント検知部335は、画素領域決定部334が決定した画素領域における目標対象のイベントを検知する。イベント検知部335は、イベントデータ受信部332が受信したイベントデータの中から該当する目標対象のイベントをピックアップして検知する。
【0074】
また、イベント検知部335は、以下のようにしてイベントを検知してもよい。イベントカメラ302は、画素領域決定部334の決定した画素領域のみを監視してイベントを検知する。イベントカメラ302の取得部321は、目標対象のイベント検知結果を取得する。イベントカメラ302の送信部312は、情報処理装置303に対して、目標対象のイベント検知結果を送信する。イベント検知部335は、イベントカメラ302から目標対象のイベント検知結果を受信する。これにより、イベント検知部335は、目標対象のイベントを検知する。
【0075】
<検知方法>
判定部336、信号生成部337、表示部338については後述する。
ここで、
図12を参照しながら、検知システム30において、センシング情報及びイベントデータを取得してから、イベントを検知するまでの流れを説明する。
図12は、実施形態3に係る検知方法を例示したフローチャートである。
【0076】
まず、センシング装置301は、対象を含む空間をセンシングしたセンシング情報を取得する(ステップST301)。ここでは、センシング情報は、対象を含む空間の点群データとする。次に、センシング装置301は、取得したセンシング情報を、情報処理装置303に対して送信する(ステップST302)。
【0077】
次に、イベントカメラ302は、空間に含まれる対象におけるイベントを検知するためのイベントデータを取得する(ステップST303)。イベントカメラ302は、取得したイベントデータを、情報処理装置303に対して送信する(ステップST304)。
【0078】
ここで、ステップST301及びステップST302と、ステップST303及びステップST304と、はどちらの処理が先に実行されてもよい。換言すると、センシング装置301におけるセンシング情報の取得、送信処理が、イベントカメラ302におけるセンシング情報の取得、送信処理よりも先に実行されてもよい。また、イベントカメラ302におけるセンシング情報の取得、送信処理が、センシング装置301におけるセンシング情報の取得、送信処理よりも先に実行されてもよい。
【0079】
次に、情報処理装置303は、センシング装置301からのセンシング情報を受信する(ステップST305)。また、情報処理装置303は、イベントカメラ302からのイベントデータを受信する(ステップST306)。なお、情報処理装置303のセンシング情報受信部331が、ステップST305の処理を実行し、情報処理装置303のイベントデータ受信部332が、ステップST306の処理を実行する。
【0080】
次に、情報処理装置303は、対象を含む空間をセンシングしたセンシング情報からイベントを検知する対象である目標対象を特定する(ステップST307)。例えば、情報処理装置303は、クラスタリングによって対象を含む空間の点群データを、類似する特徴を有するクラスタに分類し、そのクラスタ群の中から、目標対象物を特定する。その他の例として、情報処理装置303は、センシング情報に含まれる対象の色や形状などの特徴を示す情報から、目標対象の色や形状などの特徴を示す情報と同一又は類似のものを検出した場合、その対象を目標対象と特定する。なお、情報処理装置303の目標対象特定部333が、ステップ307の処理を実行する。
【0081】
次に、情報処理装置303は、特定した目標対象の位置に基づいて、目標対象のイベントを検知する処理を実行するための画素領域を決定する(ステップST308)。より具体的には、情報処理装置303は、目標対象TS1とイベントカメラ100との距離及びイベントカメラ100の撮影範囲に基づいて、画素領域を決定する。なお、情報処理装置303の画素領域決定部334が、ステップ308の処理を実行する。
【0082】
次に、情報処理装置303は、目標対象のイベントを検知する(ステップST309)。より具体的には、情報処理装置303は、取得したイベントデータの中から該当する目標対象のイベントをピックアップして検知する。なお、情報処理装置303のイベント検知部335が、ステップST309の処理を実行する。
【0083】
このように、実施形態3に係る検知システム30は、センシング装置301によって取得したセンシング情報から目標対象を特定し、目標対象のイベントを検知する処理を実行するための画素領域を決定する。また、検知システム30は、イベントカメラ302によって取得したイベントデータの中から該当する目標対象のイベントを画素領域に基づいて検知する。そのため、実施形態3に係る検知システム30は、特定の対象に対するイベントを検知することができる。
【0084】
図12では、情報処理装置303がイベントを検知する例を示したが、実施形態2において説明したように、イベントカメラ302がその画素領域のみを監視してイベントを検知してもよい。この場合、情報処理装置303の目標対象特定部333が目標対象を特定して、画素領域決定部334がイベントを検知する画素領域を特定している。そして、イベントカメラ302がその画素領域のみを監視してイベントを検知する。すなわち、イベントカメラ302は、イベントの検知範囲を目標対象だけにフォーカスしてイベントを検知してもよい。イベントカメラ302は、検知した目標対象のイベント情報をイベント検知部335に対して送信する。イベント検知部335は、イベントカメラ302からの画素領域における目標対象のイベント検知結果を受信することによってイベントを検知してもよい。
【0085】
また、検知システム30は、目標対象のイベントを検知するのにイベントカメラ302を用いているため、ハードウェアコストを削減する事ができる。
【0086】
<イベント発生源の判定>
ここで、判定部336、信号生成部337、表示部338について説明する。判定部336は、画素領域において検知したイベントが目標対象のイベントか否かをセンシング情報に基づいて判定する。より具体的には、判定部336の判定処理は、
図12に示したステップST309の後に実行される。
【0087】
判定部336が判定に用いるセンシング情報は、
図12に示したステップST306において取得したセンシング情報である。しかし、これに限定されることはなく、以下のような構成によって取得したセンシング情報でもよい。情報処理装置303は、ステップST309の後に、再び対象を含む空間をセンシングしたセンシング情報を取得する。そして、判定部336は、新たに取得したセンシング情報に基づいて判定してもよい。例えば、ステップST306においてセンシング情報を取得してからステップST309において目標対象のイベントを検知するまでが長時間であった場合に効果的である。より具体的には、情報処理装置303は、新たにセンシング情報を取得することによって、より正確に画素領域において検知したイベントが目標対象のイベントか否かを判定できる。
【0088】
信号生成部337は、イベント検知部335により検知した目標対象のイベント及び判定部336による判定結果を表示部338に表示するための信号を生成する。これにより、ユーザは、検知したイベントが目標対象のイベントか否かを確認することができる。
【0089】
図10に示した例では、情報処理装置303は、表示部338を備えている。しかし、これに限定されることはなく、表示部338は、センシング装置301、イベントカメラ302、及び情報処理装置303と有線又は無線接続されており、通信可能な端末(不図示)に備えられていてもよい。
【0090】
また、表示部338の代わりに、回転灯(不図示)やスピーカー(不図示)であってもよい。回転灯(不図示)やスピーカー(不図示)は、例えば、対象を含む空間の周囲に設置される。この場合、信号生成部337は、イベント検知部335により検知した目標対象のイベント及び判定部336による判定結果を回転灯(不図示)やスピーカー(不図示)が報知するための信号を生成する。そして、回転灯(不図示)やスピーカー(不図示)は、ユーザに対して報知する。例えば、工場における機械設備が故障により火花が発生している場合、スピーカーから「機械設備から火花が発生しているため、設備の点検を行ってください」などといったメッセージが発せられる。
【0091】
続いて、
図13を参照しながら、判定部336についてより具体的に説明する。
図13は、実施形態3に係るイベント検知システムを使用して目標対象のイベントを検知する様子を示した概要図である。
【0092】
図13に示すように、空間SP1は、対象S10、S11、S12、TS10、センシング装置301、及びイベントカメラ302を含む。
図13に示した例では、対象S10、S11、S12、TS10のうち、目標対象はTS10であるとする。
【0093】
図13に示すように、センシング装置301は、対象S10、S11、S12、TS10を含む空間SP2をセンシングして、センシング情報を取得する。ここでは、センシング情報は、対象S10、S11、S12、TS10を含む空間SP2の点群データであるとする。センシング装置301は、取得したセンシング情報を情報処理装置(不図示)に対して送信する。
【0094】
図13に示すように、イベントカメラ302は、空間SP2に含まれる対象S10、S11、S12、TS10におけるイベントを検知するためのイベントデータを取得する。イベントカメラ302は、取得したイベントデータを情報処理装置(不図示)に対して送信する。なお、
図13には、目標対象TS10に対するイベントカメラ302の撮影範囲440が示されている。
【0095】
情報処理装置(不図示)は、受信したセンシング情報からイベントを検知する対象である目標対象TS10を特定する。次に、情報処理装置(不図示)は、特定した目標対象の位置に基づいて、目標対象TS10のイベントを検知する処理を実行するための画素領域を決定する。そして、情報処理装置303は、目標対象TS10のイベントを検知する。
【0096】
ここで、イベントカメラ302の撮影範囲440には、目標対象TS10と対象S12が含まれている。そのため、情報処理装置303が画素領域において検知したイベントは、目標対象TS10のイベントもしくは対象S12のイベントの可能性がある。
【0097】
この場合、判定部336は、画素領域において検知したイベントが目標対象のイベントか否かをセンシング情報に基づいて判定する。
図14を参照しながら、より具体的に説明する。
図14は、実施形態3に係る検知システムにおける判定部の判定フローを例示したフローチャートである。
【0098】
まず、判定部336は、イベントの発生源が目標対象TS1であるか否かを判定する(ステップST310)。判定部336がイベントの発生源が目標対象TS1であると判定する場合(ステップST310YES)、信号生成部337(
図10に図示)は、以下のようにする。信号生成部337(
図10に図示)は、目標対象TS1のイベントの検知結果を示す信号を生成して、その信号を表示部338に対して送信する(ステップST316)。
【0099】
一方で、判定部336がイベントの発生源が目標対象TS1ではないと判定する場合(ステップST310NO)、判定部336は、イベントの発生源が障害物(対象S12)であるか否かを判定する(ステップST312)。
【0100】
判定部336がイベントの発生源が障害物(対象S12)であると判定する場合(ステップST312YES)、信号生成部337(
図10に図示)は、以下のようにする。信号生成部337(
図10に図示)は、イベントの発生が障害物(対象S12)により生じている旨の信号を生成して、その信号を表示部338に対して送信する(ステップST313)。
【0101】
判定部336がイベントの発生源が障害物(対象S12)ではないと判定する場合(ステップST312NO)、信号生成部337(
図10に図示)は、以下のようにする。信号生成部337(
図10に図示)は、イベントの発生が誤検知である旨の信号を生成して、その信号を表示部338に対して送信する(ステップST314)。
【0102】
このように、検知システム30は判定部336を備えることによって、イベントの発生源を特定することができるため、誤検知を抑制することができる。なお、
図13に示した例では、センシング装置301が空間SP1をセンシングしたときから、イベントカメラ302の撮影範囲440に対象S12が含まれている。そのため、判定部336は、センシング装置301が空間SP1をセンシングしたセンシング情報を用いて、イベントの発生源の誤検知を抑制することができる。
【0103】
ここで、センシング装置301が空間SP2をセンシングしたときから、イベントカメラ302の撮影範囲440に対象S12が含まれている場合に限定されることはなく、以下のような場合でも、判定部336はイベントの発生源の誤検知を抑制することができる。例えば、センシング装置301が空間SP1をセンシングしたときには、撮影範囲440に対象S12は含まれていなかったが、後に撮影範囲440に対象S12が侵入してきた場合でも、イベントの発生源の誤検知を抑制することができる。この場合、判定部336は、再び対象を含む空間をセンシングしたセンシング情報を用いて、イベントの発生源を特定する。すなわち、検知システム30は、
図13に示した対象S10、S11、S12、TS10が動的に稼働している状態であっても、イベントの発生源の誤検知を抑制することができる。
【0104】
<イベントの異常検知>
ここで、イベント検知部335は、目標対象に対して予測されるイベントと異なるイベントを検知してもよい。より具体的には、イベント検知部335は、目標対象に対して予測されるイベントと異なるか否かを判定する。そして、イベント検知部335は、目標対象に対して予測されるイベントと異なるイベントを検知する。
【0105】
目標対象に対して予測されるイベントは、目標対象が定期的に、静的な状態から動的な状態に変化することである。例えば、間欠運転している給水ポンプは、水を吐出する場合に起動して、静的な状態から動的な状態に変化する。この変化が目標対象に対して予測されるイベントである。
【0106】
また、目標対象に対して予測されるイベントは、目標対象が常に動的な状態である場合、その目標対象の常時動作である。例えば、飛行機の飛行中のタービンブレードでは、タービンブレードは常時回転しており、このタービンブレードの常時回転している動作が目標対象に対して予測されるイベントである。
【0107】
イベント検知部335は、目標対象に対して予測されるイベントと異なるか否かを、目標対象の状態を示す情報である、例えば、目標対象の速度、振動、温度に基づいて判定する。
【0108】
続いて、
図15を参照しながら、イベント検知部335が目標対象に対して予測されるイベントと異なるイベントを検知する場合を説明する。
図15は、風力発電機のプロペラが回転している状態を示した模式図である。
【0109】
図15に示した例では、風力発電機W1、W2の2台が目標対象であるとする。また、風力発電機W1は、プロペラP1に対して風があたることによって、プロペラP1が回転して発電する。同様にして、風力発電機W2は、プロペラP2に対して風があたることによって、プロペラP2が回転して発電する。
【0110】
また、
図15に示した例では、ドローンD1は、3Dセンサ(不図示)及びイベントカメラ(不図示)を備えている。ドローンD1は、3Dセンサを用いて、風力発電機W1及び風力発電機W2を含む空間をセンシングしてセンシング情報を取得する。また、ドローンD1は、イベントカメラを用いて、風力発電機W1、及び風力発電機W2のイベントデータを取得する。ドローンD1は、取得したセンシング情報とイベントデータとを情報処理装置(不図示)に対して送信する。
【0111】
ここで、風力発電機W1、W2に対して予測されるイベントは、風力発電機W1、W2のプロペラP1、P2が一定の回転数を維持して回転している動作のことである。風力発電機W1、W2に対して予測されるイベントと異なるイベントは、風力発電機W1、W2のプロペラP1、P2が通常時の回転数よりも高い回転数又は低い回転数を維持して回転していることである。
【0112】
表1は、風力発電機W1のプロペラP1の回転数、風力発電機W2のプロペラP2の回転数、及び風力発電機W1、W2の通常時のプロペラの回転数の一例を示したものである。表2に示すように、風力発電機W1、W2の通常時のプロペラの回転数は、毎分1500回転である。表2に示すように、風力発電機W1のプロペラP1の回転数は、毎分1500回転であるため、通常時と同じである。一方で、風力発電機W2のプロペラP2の回転数は、毎分1800回転であるため、通常時よりも高い回転数である。よって、風力発電機W1のプロペラP1の回転は、風力発電機W1、W2に対して予測されるイベントであるのに対して、風力発電機W2のプロペラP2の回転は、風力発電機W1、W2に対して予測されるイベントと異なるイベントである。
【0113】
【0114】
この場合、情報処理装置303(
図11に図示)のイベント検知部335(
図11に図示)は、風力発電機W2が正常でない動作をしていると判定し、風力発電機W2のイベントを検知する。このように、イベント検知部335(
図11に図示)は、正常な動作状態を示すイベントは検知せず、異常な動作状態を示すイベントを検知することもできる。
【0115】
表1に示した例では、イベント検知部335(
図11に図示)は、風力発電機のプロペラの回転数が通常時の回転数と一致するか否かによって、予測されるイベントと異なるイベントと判定した。イベント検知部335は、風力発電機の通常時のプロペラの回転数に対して閾値を設けて、その閾値外である場合に、予測されるイベントと異なるイベントであると判定してもよい。
【0116】
また、上述した実施形態1~3に係る検知システムにおける処理の一部又は全部は、コンピュータプログラムとして実現可能である。このようなプログラムは、様々なタイプの非一時的なコンピュータ可読媒体を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある検知媒体を含む。非一時的なコンピュータ可読媒体の例は、磁気検知媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気検知媒体(例えば光磁気ディスク)、CD-ROM(Read Only Memory)、CD-R、CD-R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(Random Access Memory))を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
【0117】
以上、本開示を上記実施形態に即して説明したが、本開示は上記実施形態の構成にのみ限定されるものではなく、本願特許請求の範囲の請求項の範囲内で当業者であればなし得る各種変形、修正、組み合わせを含むことは勿論である。
【0118】
上記の実施の形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
(付記1)
対象を含む空間をセンシングしたセンシング情報からイベントを検知する対象である目標対象を特定する目標対象特定部と、
特定した前記目標対象の位置に基づいて、前記目標対象のイベントを検知する処理を実行するための画素領域を決定する画素領域決定部と、
を備えた、
検知システム。
(付記2)
イベントカメラから前記対象におけるイベントを検知するためのイベントデータを取得する取得部と、
前記目標対象のイベントを検知する処理を実行するイベント検知部と、を備え、
前記イベント検知部は、前記イベントデータから前記画素領域における前記目標対象のイベントを抽出して検知する、
付記1に記載の検知システム。
(付記3)
前記画素領域決定部は、前記目標対象と前記イベントカメラとの距離及び前記イベントカメラの撮影範囲に基づいて、前記画素領域を決定する、
付記2に記載の検知システム。
(付記4)
前記センシング情報は、対象を含む空間の点群データであり、
前記イベントカメラの撮影範囲には、前記目標対象が含まれ、
前記画素領域決定部は、前記空間の点群データから前記イベントカメラの前記撮影範囲に含まれる点群データを抽出する、
付記2又は3に記載の検知システム。
(付記5)
前記画素領域において検知した前記イベントが前記目標対象のイベントであるか否かを前記センシング情報に基づいて判定する判定部を備えた、
付記1又は2に記載の検知システム。
(付記6)
前記イベントは、前記目標対象に対して予測されるイベントと異なるイベントである、
付記1又は2に記載の検知システム。
(付記7)
前記目標対象のイベントを検知する処理を実行するイベント検知部を備え、
前記イベント検知部は、前記画素領域における前記目標対象のイベント検知結果をイベントカメラから受信することによってイベントを検知する、
付記1に記載の検知システム。
(付記8)
センシング装置と、情報処理装置と、を備えた検知システムであって、
前記センシング装置は、対象を含む空間をセンシングすることによって取得したセンシング情報を前記情報処理装置に対して送信し、
前記情報処理装置は、
受信した前記センシング情報からイベントを検知する対象である目標対象を特定し、
特定した前記目標対象の位置に基づいて、前記目標対象のイベントを検知する処理を実行するための画素領域を決定する、
検知システム。
(付記9)
前記対象におけるイベントを検知するためのイベントデータを取得するイベントカメラをさらに備え、
前記イベントカメラは、取得した前記イベントデータを前記情報処理装置に対して送信し、
前記情報処理装置は、受信した前記イベントデータから前記画素領域における前記目標対象のイベントを抽出して検知する、
付記8に記載の検知システム。
(付記10)
前記情報処理装置は、前記目標対象と前記イベントカメラとの距離及び前記イベントカメラの撮影範囲に基づいて、前記画素領域を決定する、
付記9に記載の検知システム。
(付記11)
前記センシング情報は、対象を含む空間の点群データであり、
前記イベントカメラの撮影範囲には、前記目標対象が含まれ、
前記情報処理装置は、前記空間の点群データから前記イベントカメラの前記撮影範囲に含まれる点群データを抽出する、
付記9又は10に記載の検知システム。
(付記12)
前記情報処理装置は、前記画素領域において検知した前記イベントが前記目標対象のイベントであるか否かを前記センシング情報に基づいて判定する、
付記8又は9に記載の検知システム。
(付記13)
前記イベントは、前記目標対象に対して予測されるイベントと異なるイベントである、
付記8又は9に記載の検知システム。
(付記14)
画素領域における前記目標対象のイベントを検知するイベントカメラを備え、
前記イベントカメラは、前記画素領域における前記目標対象のイベント検知結果を前記情報処理装置に対して送信し、
前記情報処理装置は、前記イベント検知結果を受信することによってイベントを検知する、
付記8に記載の検知システム。
(付記15)
対象を含む空間をセンシングしたセンシング情報からイベントを検知する対象である目標対象を特定し、
特定した前記目標対象の位置に基づいて、前記目標対象のイベントを検知する処理を実行するための画素領域を決定する、
処理をコンピュータが実行する、
検知方法。
(付記16)
イベントカメラから前記対象におけるイベントを検知するためのイベントデータを取得し、
前記目標対象のイベントを検知する処理は、前記イベントデータから前記画素領域における前記目標対象のイベントを抽出して検知する処理である、
付記15に記載の検知方法。
(付記17)
前記目標対象と前記イベントカメラとの距離及び前記イベントカメラの撮影範囲に基づいて、前記画素領域を決定する、
付記16に記載の検知方法。
(付記18)
前記センシング情報は、対象を含む空間の点群データであり、
前記イベントカメラの撮影範囲には、前記目標対象が含まれ、
前記空間の点群データから前記イベントカメラの前記撮影範囲に含まれる点群データを抽出する、
付記16又は17に記載の検知方法。
(付記19)
前記画素領域において検知した前記イベントが前記目標対象のイベントであるか否かを前記センシング情報に基づいて判定する、
付記15又は16に記載の検知方法。
(付記20)
前記イベントは、前記目標対象に対して予測されるイベントと異なるイベントである、
付記15又は16に記載の検知方法。
(付記21)
前記画素領域における前記目標対象のイベント検知結果をイベントカメラから受信することによってイベントを検知する、
付記15に記載の検知方法。
(付記22)
対象を含む空間をセンシングしたセンシング情報からイベントを検知する対象である目標対象を特定し、
特定した前記目標対象の位置に基づいて、前記目標対象のイベントを検知する処理を実行するための画素領域を決定する、
処理をコンピュータに実行させる、
検知プログラム。
(付記23)
イベントカメラから前記対象におけるイベントを検知するためのイベントデータを取得し、
前記目標対象のイベントを検知する処理は、前記イベントデータから前記画素領域における前記目標対象のイベントを抽出して検知する処理である、
付記22に記載の検知プログラム。
(付記24)
前記目標対象と前記イベントカメラとの距離及び前記イベントカメラの撮影範囲に基づいて、前記画素領域を決定する、
付記23に記載の検知プログラム。
(付記25)
前記センシング情報は、対象を含む空間の点群データであり、
前記イベントカメラの撮影範囲には、前記目標対象が含まれ、
前記空間の点群データから前記イベントカメラの前記撮影範囲に含まれる点群データを抽出する、
付記23又は24に記載の検知プログラム。
(付記26)
前記画素領域において検知した前記イベントが前記目標対象のイベントであるか否かを前記センシング情報に基づいて判定する、
付記22又は23に記載の検知プログラム。
(付記27)
前記イベントは、前記目標対象に対して予測されるイベントと異なるイベントである、
付記22又は23に記載の検知プログラム。
(付記28)
前記画素領域における前記目標対象のイベント検知結果をイベントカメラから受信することによってイベントを検知する、
付記22に記載の検知プログラム。
【符号の説明】
【0119】
10、20、29、30 検知システム
11、21、333 目標対象特定部
12、22、334 画素領域決定部
24 取得部
301 センシング装置
23、100、302 イベントカメラ
303 情報処理装置
311、321 取得部
312、322 送信部
331 センシング情報受信部
332 イベントデータ受信部
25、27、335 イベント検知部
336 判定部
337 信号生成部
338 表示部
400、410、440 撮影範囲
401 点群データ
402 バウンディングボックス
411 最小点
412 最大点
D1 ドローン
L1 長さ
L3 縦幅
L4 横幅
P1、P2 プロペラ
R1 画素領域
S1、S2、S3、S10、S11、S12 対象
SP1、SP2 空間
TS1、TS10 目標対象
W1、W2 風力発電機
θ1、θ2 画角
θ3 角度