【文献】
Zhenjiang Ni et al.,Asynchronous Event-Based Visual Shape Tracking for Stable Haptic Feedback in Microrobotics,IEEE Transactions on Robotics,IEEE,2012年,Vol.28, No.5,pp.1081-1089,URL,https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=6204348
(58)【調査した分野】(Int.Cl.,DB名)
複数の物体が、前記シーン内で追跡されるそれぞれの形状を有し、前記複数の物体のうちのそれぞれの物体が、前記物体に帰せられるイベントの検出後に更新されるそれぞれのモデル(Gk)および変位の推定された平面(Πk)を有し、前記方法が、前記物体のうちの少なくとも2つに帰せられ得るイベント(ev(p, t))の検出に続いて、
前記検出されたイベントを示す点と前記物体に関してそれぞれ推定された変位の前記平面との間の三次元空間内のそれぞれの距離を計算するステップと、
前記検出されたイベントを、前記計算された距離が最小である前記物体に帰するステップとをさらに含む、請求項3に記載の方法。
複数の物体が、前記シーン内で追跡されるそれぞれの形状を有し、前記物体のそれぞれの物体が、前記物体に帰せられるイベントの検出の後に更新されるそれぞれのモデル(Gk)を有し、前記方法が、前記物体のうちの少なくとも2つに帰せられ得るイベント(ev(p, t))の検出に続いて、
前記検出されたイベントが帰せられ得る各物体に関して、前記検出されたイベントが生じる前記行列の前記ピクセル(p)に関連するそれぞれの距離の基準を最小化することによって、前記物体のモデル(Gt)の点(m)を前記検出されたイベントに関連付けるステップと、
前記検出されたイベントを、距離の前記最小化された基準が最も小さい、物体に帰するステップとをさらに含む、請求項1から7のいずれか一項に記載の方法。
複数の物体が、前記シーン内で追跡されるそれぞれの形状を有し、前記複数の物体のうちのそれぞれの物体が、前記物体に帰せられるイベントの検出後に更新されるそれぞれのモデル(Gk)を有し、前記物体のうちの少なくとも2つに帰せられ得るイベント(ev(p, t))の検出に続いて、前記検出されたイベントが、前記物体のうちの前記少なくとも2つのいずれにも割り当てられない、請求項1から7のいずれか一項に記載の方法。
複数の物体が、前記シーン内で追跡されるそれぞれの形状を有し、前記複数の物体のうちのそれぞれの物体が、前記物体に帰せられるイベントの検出後に更新されるそれぞれのモデル(Gk)を有し、前記物体のうちの少なくとも2つに帰せられ得るイベント(ev(p, t))の検出に続いて、前記検出されたイベントが、前記検出されたイベントが帰せられ得る前記物体のそれぞれの物体に割り当てられる、請求項1から7のいずれか一項に記載の方法。
複数の物体が、前記シーン内で追跡されるそれぞれの形状を有し、前記複数の物体のうちのそれぞれの物体が、前記物体に帰せられるイベントの検出後に更新されるそれぞれのモデル(Gk)を有し、前記方法が、
各物体に関して、前記物体に帰せられるイベントのレートを推定し、前記物体に帰せられる最後のイベントが検出された瞬間を記憶するステップと、
前記物体のうちの少なくとも2つに帰せられ得るイベント(ev(p, t))の検出に続いて、イベントの前記推定されたレートに前記記憶された瞬間と前記イベントの検出の前記瞬間との間の時間間隔を掛けた積が1に最も近い前記物体のうちの1つに前記検出されたイベントを帰するステップとをさらに含む、請求項1から7のいずれか一項に記載の方法。
光センサー(10)から受け取られた非同期的な情報を使用して請求項1から17のいずれか一項に記載の方法を実行するように構成されたコンピュータ(20)を含む、シーン内の形状を追跡するためのデバイス。
【発明を実施するための形態】
【0043】
図1に示されるデバイスは、シーンに面して配置され、1つまたは複数のレンズを含む獲得のための光学部品15を通じてシーンの光の流れを受け取る、イベントに基づく非同期的な視覚センサー10を含む。センサー10は、獲得のための光学部品15の画像平面内に配置される。センサー10は、ピクセルの行列に編成された感光素子のグループを含む。感光素子に対応する各ピクセルは、シーン内の光の変化に応じて連続的なイベントを生成した。
【0044】
コンピュータ20は、センサー10から生じた非同期的な情報、すなわち、様々なピクセルpから非同期的に受け取られたイベントev(p, t)のシーケンスを、シーン内の変化する特定の形状に関する情報F
tをそれらのシーケンスから抽出するために処理する。コンピュータ20は、デジタル信号に対して動作する。コンピュータ20は、好適なプロセッサをプログラミングすることによって実装される可能性がある。特別な論理回路(ASIC、FPGA、...)を用いるコンピュータ20のハードウェアの実装も、あり得る。
【0045】
行列の各ピクセルpに関して、センサー10は、センサーの視野内に現れるシーン内のピクセルによって検出された光の変化を使用してイベントに基づく非同期の信号のシーケンスを生成する。
【0046】
非同期的なセンサーは、たとえば、
図2A〜
図2Cによって示される原理に従って獲得を実行する。センサーによって送出される情報は、アクティブ化閾値Qが達せられる一連の瞬間t
k (k=0, 1, 2, ...)を含む。
図2Aは、センサーの行列のピクセルによって見られた光度のプロファイルP1の例を示す。この強度が、時間t
kにおける状態から始まってアクティブ化閾値Qに等しい量だけ増加するたびに、新しい瞬間t
k+1が特定され、正のスパイク(
図2Bのレベル+1)がこの瞬間t
k+1に発せられる。対称的に、ピクセルの強度が、時間t
kにおける状態から始まって量Qだけ減少するたびに、新しい瞬間t
k+1が特定され、負のスパイク(
図2Bのレベル-1)がこの瞬間t
k+1に発せられる。そのとき、ピクセルに関する非同期の信号のシーケンスは、ピクセルに関する光のプロファイルに応じた、時間の経過とともに瞬間t
kに位置付けられる一連の正のまたは負のパルスまたはスパイクである。これらのスパイクは、正のまたは負のディラック(Dirac)のピークによって数学的に示される可能性があり、それぞれが放出の瞬間t
kおよび符号ビットによって特徴付けられる。そして、センサー10の出力は、アドレスイベント表現(AER: address-event representation)の形態である。
図2Cは、
図2Bの非同期信号の時間積分によってプロファイルP1の近似として再構築され得る強度のプロファイルP2を示す。
【0047】
アクティブ化閾値Qは、
図2A〜
図2Cの場合と同様に設定され得るか、または
図3A〜
図3Bの場合と同様に光度に応じて適応し得る。たとえば、閾値±Qは、イベントの±1の生成のために光度の対数の変化と比較される可能性がある。
【0048】
例として、センサー10は、「A 128×128 120 dB 15μs Latency Asynchronous Temporal Contrast Vision Sensor」、P. Lichtsteinerら、IEEE Journal of Solid-State Circuits、Vol. 43、No. 2、2008年2月、566〜576頁または米国特許出願第2008/0135731(A1)号に記載された種類の動的視覚センサー(DVS: dynamic vision sensor)である可能性がある。数ミリ秒の網膜のダイナミクス(活動電位(action potential)の間の最小の継続時間)は、この種のDVSによって近づかれ得る。性能は、動的に、いずれの場合も、現実的なサンプリング周波数を有する通常のビデオカメラによって達成され得る性能を遙かに超えている。示されたイベントはイベントに基づく非同期信号の任意の時間的な幅または振幅または波形を有する可能性があるので、コンピュータ20の入力信号を構成するDVS 10によってピクセルに関して送出される非同期信号の形状は一連のディラックのピークと異なる可能性があることに留意されたい。
【0049】
本発明に関連して有利に使用され得る非同期的なセンサーの別の例は、論文「A QVGA 143 dB Dynamic Range Frame-Free PWM Image Sensor With Lossless Pixel-Level Video Compression and Time-Domain CDS」、C. Poschら、IEEE Journal of Solid-State Circuits、Vol.46、No.1、2011年1月、259〜275頁に説明が与えられている非同期時間ベースイメージセンサー(ATIS: asynchronous time-based image sensor)である。
【0050】
図4は、ATISの原理を示す。センサーを構成する行列のピクセル16は、電子的な検出回路18a、18bにそれぞれ関連するフォトダイオードなどの2つの感光素子17a、17bを含む。センサー17aおよびその回路18aは、上述のDVSの動作と同様の動作を有する。センサー17aおよびその回路18aは、フォトダイオード17aによって受け取られた光度が予め定義された量だけ変化するときにパルスP
0を生じる。強度のこの変化を示すパルスP
0は、他方のフォトダイオード17bに関連する電子的な回路18bをトリガする。そして、この回路18bは、第1のパルスP
1を生成し、それから、所与の量の光(所与の数の光子)がフォトダイオード17bによって受け取られるとすぐに第2のパルスP
2を生成する。パルスP
1とP
2との間の時間シフトδtは、パルスP
0が現れた直後にピクセル16によって受け取られる光度に反比例する。ATISから生じる非同期的な情報は、各ピクセルに関する2つのパルス列を含む別の形態のAER表現であり、すなわち、パルスP
0の第1の列が、光度が検出の閾値を超えて変化した瞬間を示し、一方、第2の列は、時間シフトδtが対応する光度またはグレイレベルを示すパルスP
1およびP
2からなる。そのとき、ATISの行列内の位置pのピクセル16から来るイベントev(p, t)は、2つの種類の情報、すなわち、イベントの瞬間tを与える、パルスP
0の位置によって与えられる時間情報と、パルスP
1とP
2との間の時間シフトδtによって与えられるグレイスケール情報とを含む。
【0051】
センサー10がピクセルの二次元行列からなる場合、ピクセルから生じたイベントが、
図5に示されるような三次元空間-時間表現内に置かれる可能性がある。この図において、各点は、差し込み
図Aに図示されるように一定の角速度で星が回転する動きによって位置
【0053】
を有するセンサーのピクセルp上で瞬間tに非同期に生成されたイベントev(p, t)を示す。これらの点の大部分は、概してらせん状である表面の近傍に分散される。さらに、図は、星の実効的な移動に対応せずに測定される、らせん状の表面から離れた特定の数のいくつかのイベントを示す。これらのイベントは、獲得雑音である。
【0054】
ICPアルゴリズムの原理は、たとえば、物体の外形を示す物体の形状を表すモデルを形成する点の集合を獲得データ(acquisition data)によって与えられる点の集合に合わせ、それから、誤差関数を最小化することによって点の集合とモデルとの間の幾何学的関係を計算するために、その点の集合を使用することである。
【0055】
図6Aは、星形が描かれている回転板11に面して配置される、たとえばDVSまたはATIS型の本発明の実験において使用された機器、センサー10を示す。センサー10は、平坦部上の星形の回転を使用してデータを獲得する。比較および例示のみを目的として、
図6Bは、星の黒い形状の上に重ね合わされた、約数ミリ秒の時間間隔の間に観測されたイベントを図式的に示す。
【0056】
図7は、例として、星形を追跡する例を示す。この図において、一番上の行は、
図6Aの場合と同様に、その板の上で回転する星を示す画像の通常のシーケンスである。真ん中の行は、時間期間内のイベントを検出するための正確な瞬間とは独立して、イベント累積マップ(event accumulation map)、すなわち、時間期間の間に起こったイベントのすべての平面への射影を示す。最後に、一番下の行は、獲得点(acquisition point)との(実線として示される)モデルのマッチングを示す。左側の列(a)に、星が回転を始める初期状態が示される。アルゴリズムは、モデルを最も近いイベントとマッチングしようとする。イベントからそれほど離れていないモデルの初期位置は、アルゴリズムが大域的な最小に収束するために有用である。列(b)においては、星が、モデルの初期位置の近傍を通り、後者が、星の位置に収束する。最後に、列(c)および(d)においては、星が、回転し続け、モデルが、パラメータが誤差関数を最小化することによって計算される回転R
Δθおよび移動ΔTをそのモデルに適用することによって更新される。
【0057】
シーンが通常のカメラではなくイベントに基づく非同期的なセンサーによって観測される場合、イベントは、それらのイベントが起こるときに正確なタイムスタンプを付けられて受け取られる。ICP型のアルゴリズムは、シーンが含むすべてのイベントを同時に処理することができるように、シーンの全体に関する情報を持つまで待つ必要がない。
【0058】
イベントev(p, t)は、空間-時間領域における活動を記述する。
図8に示されるICPアルゴリズムのイベントに基づくバージョンにおいては、生体ニューロンと同様に、各イベントはそのイベントが現れた後に特定の時間が経過する間影響を及ぼすと考えられる。イベントのこの時間的特性は、持続性関数(persistence function)の形態で導入され得る。そのとき、S(t)は、瞬間tにアクティブであるイベントの空間-時間集合を表す。
S(t)={ev(p, t')/0<t - t'≦Δt} (2)
ここで、Δtは、持続時間(persistence time)である。時間間隔Δtがイベントのアクティブ化後に経過した後、このイベントは集合S(t)から削除される。
【0059】
モデルと獲得データとの間の点をマッチングすることは、計算リソースの点で最も要求の厳しいステップを構成する。G(t)は、瞬間tにおける物体の形状を定義する二次元モデルの点の位置の集合を表す。獲得点とモデルの点との間の関連付けは、逐次的に実行される可能性がある。新しいイベントがアクティブ化されるたびに、そのイベントがG(t)の要素、好ましくは、S(t)のイベントにまだ関連付けられていないG(t)の要素とマッチングされる。雑音、または探索される形状の一部ではないその他の点を拒絶するために、距離の基準の検証をこのステップに追加することがあり得る。
【0060】
センサーが非同期であるので、関連する点の数はかなり大きく変わる。概して、持続時間Δtの間に関連付けられた数個の点から数百個の点が存在する。これは、通常のフレームに基づく手法と大きく異なる。動かない物体は、いかなる刺激も生成せず、したがって、それらの物体の位置を更新する必要はない。シーンがほとんど動きを含まないとき、計算リソースのわずかな部分だけが使用される一方、非常に動的な状況において、アルゴリズムは、情報を更新するためにすべての能力を必要とする。
【0061】
図8の例において、P(n)およびT(n)は、モデルの位置情報の更新のために保持される第nのイベントの位置および検出時間を表し、M(n)は、この第nのイベントに関連するモデルの点を表す。検出時間T(n)は、アルゴリズムを開始する前に任意に大きな値に初期化される(T(n)=+∞)。時間tにおけるイベントev(p, t)を検出すると、整数のインデックスaは、S(t)の中の最も古いイベントを示し、一方、整数のインデックスbは、S(t)の最も最近のイベントを示し、したがって、S(t)={ev(P(a), T(a)), ev(P(a+1), T(a+1)), ..., ev(P(b), T(b))}である。モデルG(t)は、単にGと記され、Mは、S(t)のイベントに関連付けられたモデルの点の集合を表し、つまり、M={M(a), M(a+1),…, M(b)}である。アルゴリズムが初期化されるとき(ステップ20)、整数のインデックスaおよびbは、それぞれ、1および0に初期化される。
【0062】
図8に示されるアルゴリズムのバージョンにおいて、モデルの点を検出されたイベントの位置にマッチングする空間変換F
tが、解析的形態の通常の解決策によって、たとえば、特異値に分解すること(SVD、「特異値分解」)によって周期的に推定される。ステップ21において、アルゴリズムは、空間変換の更新期間が経過していない限り、センサー10から生じる新しいイベントを待つ。
【0063】
時間tにおいて行列内の位置pのピクセルから生じるイベントev(p, t)を受け取った(ステップ22)後、2つの動作、すなわち、集合S(t)を更新することと、モデルGの点を検出されたイベントに関連付けることとが実行される。ループ23〜24において、Δtを超えて古くなるイベントはS(t)から削除され、テスト23が、時間T(a)がt -Δtを超えているかどうかを調べる。T(a)がt -Δtを超えていない場合、数aが、ステップ24において1単位だけインクリメントされ、テスト23が、再び繰り返される。古すぎるイベントは、テスト23においてT(a) > t -Δtであるとき、削除される。
【0064】
それから、アルゴリズムは、ステップ25においてGの点を新しいイベントに関連付けることによって進行する。この関連付けられた点は、集合S(t)の点にまだ関連付けられていないモデルの点の中で、つまり、集合G - Mの点の中でイベントev(p, t)を生じるピクセルpに位置mが最も近い点である。
【0066】
このステップ25において使用される距離の基準d(.,.)は、たとえば、行列の平面内のユークリッド距離である。イベントev(p, t)が集合S(t)に含まれるかどうかを判断する前に、アルゴリズムは、ステップ26において、最小化された距離が閾値d
max未満であるかどうかを調べる。例として、閾値d
maxは、6ピクセルに対応するように選択される可能性がある。テストが異なる閾値が特定の応用により適していることを示す場合、その異なる閾値が当然保持され得る。d(p, m)≧d
maxである場合、イベントは破棄され、アルゴリズムは次のイベントを待つステップ21に戻る。
【0067】
イベントが探索される物体に帰せられる(テスト26においてd(p, m)<d
max)場合、インデックスbが、ステップ27において1単位だけインクリメントされ、検出時間t、このイベントの位置p、およびこのイベントに関連付けられたばかりのモデルの点mが、ステップ28においてT(b)、P(b)、およびM(b)として記録される。それから、イベントev(p, t)の検出に連続する処理が終了され、アルゴリズムは次のイベントを待つステップ21に戻る。
【0068】
空間変換の更新期間が過ぎると、更新に貢献するために集合S(t)内に十分な数のイベントが存在し、たとえば、L=5イベントであることを保証するためにテスト30が実行される。したがって、b<a+L - 1(テスト30)である場合、更新は実行されず、アルゴリズムは次のイベントを待つステップ21に戻る。
【0069】
十分なイベントが存在する(b≧a+L - 1)場合、モデルGを使用することによって探索される空間変換F
tが角度Δθの回転R
ΔθおよびベクトルΔTの移動の組合せである場合、回転角Δθおよび移動のベクトルΔTを選択するために最小化動作31が実行される。
【0070】
図9は、本明細書において使用される表記を与える。Hは、決まった位置に配置された、シーン内で追跡される形状を定義する点のパターンを表し、Oは、点のこの集合Hの重心を表す。瞬間tにおいて、このパターンHは、ベクトルの移動Tおよびそのパターンの重心Oの周りの角度θの回転に従って移動され、これは、時間tに受け取られたイベントの処理中に参照されるモデルG=G(t)を与える。処理は、回転の角度θおよび移動ベクトルTの変化Δθ、ΔTの推定値を生じる。
【0071】
最小化動作31は、たとえば、以下の形態の総和のような距離の基準を最小化するパラメータΔθ、ΔTを見つけることである。
【0075】
によって定義される回転R
Δθの角度ΔθおよびベクトルΔTの座標である式(1)の特定の場合である。式(4)において、表記cP(n)およびcM(n)は、原点に関して回転R
Δθの中心cを有し、それぞれP(n)およびM(n)を指すベクトルを表す。回転R
Δθの中心cの位置は、モデルG(t)に関連して定義される可能性がある。たとえば、
図9に示されるように、点cをモデルG(t)の点の重心に配置することがあり得る(そのとき、大域的な移動のベクトルTは、ベクトルOcに等しい)。
【0076】
ここで、回転R
Δθおよび移動ΔTからなる空間変換F
tは、最近考慮に入れられたイベント、すなわち、集合S(t)のイベントが検出されたピクセルのできるだけ近くにモデルG(t)を近づけるためにそのモデルG(t)を動かす変換である。これが、
図10に示されることであり、ここで、記号+は、S(t)のイベントが検出されたピクセルP(n)の位置を表し、記号・は、これらのイベントに関連付けられたモデルGの点M(n)の位置を表し、G'は、点M(n)をピクセルP(n)のできるだけ近くに配置し、回転R
Δθおよびベクトルの移動ΔTに従ってGの移動の結果として生じる、中心c'の次のモデルを表す。
【0077】
基準(4)を最小化する回転R
Δθおよび移動ΔTは、空間変換の更新の瞬間とその前の更新の瞬間との間のモデルGに対応する形状の動きを明らかにする。ステップ32において、これら2つの集合を更新するために集合GおよびMの点に同じ変換が適用される。モデルGの(または集合Mの)各位置Xは、cY=R
Δθ[cX]+ΔTとなるような位置Yによって置き換えられる。ステップ32の後、アルゴリズムは、次のイベントを待つステップ21に戻る。
【0078】
連続的に推定された回転R
Δθの角度Δθおよび移動の対応するベクトルΔTによってそのように特徴付けられる空間変換F
tは、シーン内で追跡される形状の動きを表す。それらのパラメータが、
図1のコンピュータ20の出力である。形状Hの決まった基準の位置に関連して定義される角度θおよび移動のベクトルTを得るために連続的に決定された値ΔθおよびΔTを累積することがあり得る。
【0079】
図8に示された実施形態は、シーン内で探索される形状の追跡情報、すなわち、空間変換F
tのパラメータの更新周波数を制御することを可能にする。概して、この更新周波数は、10μsと1msとの間の周期に対応する。したがって、この更新周波数は、通常のカメラのフレーム周波数よりも速い可能性がある。
【0080】
持続時間Δtは、シーンの動的な内容に応じて設定される。SVD計算に基づく実装においては、探索される移動可能な物体の完全な外形の点のほとんどすべてがイベントとの対応に含められ得るようにして、集合S(t)がこの完全な外形を保持するように時間間隔Δtが十分に長いことが望ましい。一方、あまりに長い継続時間Δtは、計算の負荷を高め、高速な物体を正しく追跡することを可能にしない。概して、継続時間Δtは、10μsから20msまでの間で選ばれる。
【0081】
非同期的なセンサー10によって見られるシーン内の形状の追跡における別の手法が、
図11に示される。より少ない計算をやはり必要としながらより優れたダイナミクスを提供するこの手法においては、更新されるモデルを更新することを可能にする空間変換F
tが、イベントev(p, t)の検出の前に実行される関連付けとは独立して、(このイベントが探索される物体に帰せられたので)検出されるイベントev(p, t)が生じる行列のおよび関連する点mのピクセルpに応じて決定される。
【0082】
図11の実施形態においては、非同期的なセンサーによって観測されるシーン内でK個の物体が探索されると考えられる。これらの物体は、整数k(k=1, 2, ..., K)を付番され、それぞれの物体が、G
k(t)または単にG
kと表記される点のモデルを有する。単一の物体が追跡されるよくある場合は、K=1とすることによって含められる。
【0083】
各物体kの追跡を開始するために、その物体のモデルG
kが、センサー10の視野内のこの物体の位置取りにかなり近い位置取りによって初期化される(ステップ40)。そして、ステップ41において、アルゴリズムは、センサー10から生じる新しいイベントを待つ。
【0084】
時間tにおいて行列内の位置pのピクセルから生じるイベントev(p, t)を受け取った(ステップ42)後、モデルG
kの点m
kを検出されたイベントに関連付けるステップ43が、各物体k(k=1, 2, ..., K)に関して実行される。各物体kに関して、ステップ43は、アルゴリズムがイベントev(p, t)との以前の関連付けを記憶しないので、距離の基準d(m
k, p)を最小化するモデルG
kの点m
kが、イベントに前に関連付けられた点を除外することなく選択されことを除いて、
図8を参照して上で説明されたステップ25と同じである。
【0085】
ステップ44において、ステップ42において検出されたイベントev(p, t)は、物体kに帰せられるか、またはこれが欠けている場合、シーン内の追跡される物体の動きに関連しないものとして除外される。イベントev(p, t)がいずれの物体にも帰せられない場合、アルゴリズムは、次のイベントを待つステップ41に戻る。物体kに帰せられる場合、空間変換F
tが、この物体のモデルG
kに関してステップ45において計算される。
【0086】
イベントev(p, t)を物体kに帰すべきか否かを判断するためにいくつかのテストまたはフィルタリングがステップ44において実行され得る。
【0087】
最も単純なのは、
図8を参照して上で説明されたステップ26と同様に、距離d(m
k, p)を閾値d
maxと比較することによって進行することである。d(m
k, p)<d
maxである場合、モデルG
kの点m
kとのピクセルpの関連付けが確認され、物体がこの条件を満たさない場合、帰属の決定は行われない。しかし、ある物体が別の物体を隠す可能性がありつつ、いくつかの追跡される物体がこの条件を満たすことが起こり得る。物体の間の遮蔽の場合を含むこれらの曖昧な場合を解決するために、空間的制約かまたは時間的制約かのどちらかを使用するいくつかの技法が適用される可能性がある。これらの技法が、以降で吟味される。
【0088】
ステップ44において行われ得る別の処理は、背景のあり得る動きを考慮に入れている。特に、非同期的なセンサー10がそれ自体動いている場合、固定の背景は相対的に移動しており、関心のある物体の追跡に関する処理から除外されるべきである多くのイベントの検出を生じる。背景の動きを考慮に入れる方法が、以降で説明される。
【0089】
イベントev(p, t)が物体kに帰せられていると、空間変換F
tのパラメータが、ステップ45において計算され、それから、この変換F
tが、ステップ46において後者を更新するためにモデルG
kに適用される。最後に、Π
kと表記される物体kの変位の平面が、ステップ47において推定される。それから、アルゴリズムは、次のイベントを待つステップ41に戻る。
【0090】
空間変換F
tを計算するためにモデルG
kの点mに関連する1つの現在のイベントpに限定していることは、コスト関数の構成要素fを導入する結果となる。
f=d[p, F
t(m)] (5)
ここで、d[., .]は、ピクセルの行列の平面内の距離の測定値である。d[., .]は、特に、二次の距離(quadratic distance)である可能性がある。
【0091】
剛体空間変換がモデルG
kの更新のために考慮される場合、所与の中心cの回転R
Δθの角度Δθおよび移動のベクトルΔTの決定がなされなければならず、二次の距離によるコスト関数の構成要素は、次のように記述される。
f=||cp - R
Δθ[cm] -ΔT||
2 (6)
ここで、cpおよびcmは、原点に関して回転R
Δθの中心cを有し、それぞれ点pおよびmを指すベクトルを示する。
【0092】
この構成要素fは、任意の角度Δθに関して、選択ΔT=cp - R
Δθ[cm]がf=0をもたらすので、無限のペア(Δθ, ΔT)に関して最小化され得る。目的は、fが単なる構成要素である大域的なコスト関数を最小化することである。しかし、この構成要素fは、モデルG
kの更新中にある種の勾配降下を実行するために、回転の角度θ(またはΔθ)および移動のベクトルT (またはΔT)に関連する勾配の項∇
θf、∇
Tfの推定を可能にする。その他の観点では、空間変換F
tに関してパラメータの値が保持される。
ΔT= -η
1.∇
Tf(Δθ
0, ΔT
0) (7)
Δθ= -η
2.∇
θf(Δθ
0, ΔT
0) (8)
ここで、η
1およびη
2は、予め定義された正の収束ステップである。例として、η
1=0.25およびη
2=0.025が、良好な感度を得るために選ばれる可能性がある。η
1およびη
2の好適な値は、いくつかのシミュレーションまたは実験を行うことによって必要に応じてそれぞれの応用に関して調整されるべきである。(7)および(8)において、偏導関数∇
θf、∇
Tfが、回転の角度および移動ベクトルの好適な値Δθ
0、ΔT
0に関して取得される。
【0095】
を有し、ここで、(.)
Tは、転置の演算を表し、
【0097】
である。これらの偏微分は、ΔT
0およびΔθ
0の特定の値に関して計算されることになる。それから、結果∇
Tf(Δθ
0, ΔT
0)、∇
θf(Δθ
0, ΔT
0)が、モデルG
kを更新するためにステップ46において使用されるパラメータΔTおよびΔθを得るために(7)および(8)に入れられる。
【0098】
方法の実施形態において、偏微分は、Δθ
0に関して角度
【0100】
を選択し、ΔT
0に関してベクトルcp - cm'を選択することによって(9)および(10)に従って計算され、
【0102】
である。回転のこの角度Δθ
0および移動のこのベクトルΔT
0は、もし点mに適用されるとするならば、
図12に示されるように、その点mをイベントev(p, t)の位置pに一致させる。方法のこの実施形態において、ステップ45は、したがって、(8)〜(9)に従って勾配∇
Tf(Δθ
0, ΔT
0)、∇
θf(Δθ
0, ΔT
0)を計算し、それから、(6)〜(7)に従って空間変換F
tのパラメータΔT、Δθを計算する際に
【0107】
計算(9)〜(10)に関して、その他の選択、たとえば、Δθ
0=0およびΔT
0=mp(mをp上に持ってくる単純な移動)またはΔθ
0=ΔT
0=0があり得る。2回の反復の間の基本的な変位は振幅が小さいので、偏微分(9)〜(10)が計算される正確な点(ΔT
0, Δθ
0)は、(0, 0)において、またはmとpとの間の距離に関して選択される場合、おそらくほとんど影響がない。さらに、この選択は、回転の中心cの選択の取り決めに応じて変わる。回転の中心cは、概して、モデルG
kの点の重心であるが、これは必須ではない。
【0108】
方法の多くの応用において、空間変換F
tは、上述のように、回転と移動との組合せによって表される可能性がある。しかし、物体のモデルG
kの変形を可能にすることによる代替があり得る。
【0109】
特に、アフィン変換F
tを考慮に入れることがあり得る。これは、画像平面に制限された動きのみでなく、探索される物体の三次元の動きを考慮に入れることを可能にする。2Dアフィン行列は、2つの軸に沿った倍率s
x、s
yの適用によって回転の行列R
Δθから生じる。これは、形態
【0111】
の関係に従って点mおよびpをマッチングしようとすることに戻り、この形態において、点cは、やはり、モデルG
kの点の重心において選択される可能性がある。倍率s
x、s
yに関連したコスト関数の構成要素fの偏微分の計算によって、勾配降下の同じ原理が、これらの倍率を推定するために適用され得る。第1の近似として、(6)および(7)に従ってΔTおよびΔθの推定を完了するために、別の収束ステップη
3を使用し、
s
x=1+η
3.( |p
x| - |m
x| ) (11)
s
y=1+η
3.( |p
y| - |m
y| ) (12)
とすることがあり得る。式(11)および(12)において、|p
x|および|p
y|は、ベクトルcpの座標の絶対値であり、|m
x|および|m
y|は、ベクトルcmの座標の絶対値である。
【0112】
センサーの非同期信号において追跡される物体kが単に一定速度
【0114】
で移動されているエッジである場合、
図13は、三次元、すなわち、ピクセルの2D行列の2つの方向に対応する2つの空間的次元x、yおよび時間の次元tを有する空間内のこのエッジに帰せられるイベントを示す。エッジは、この平面内に含まれ、
【0116】
に比例する速度ベクトルVに従って平面Π
k(t)をスキャンする。実際は、イベントを物体に帰することの獲得雑音およびあり得る誤差は、最近物体に帰せられたイベントによって通り抜けられた平均平面(mean plane)として延びる平面Π
k(t)のまわりにイベントの特定のばらつきがあるようなものである。
【0117】
平面Π
k(t)、または表記を簡単にするために時間インデックスtが省略される場合Π
kは、その平面の点g
k(t)またはg
kのいずれかと、その平面の法線の方向を与えるベクトルn
k(t)またはn
kによって定義され得る。
図13の表現において、点g
kは、瞬間t -Δtとtとの間の物体kに帰せられるイベントの重心に一致し、Δt=40msである。主成分分析(PCA)等の特定の基準で、平面Π
kと、瞬間t -Δtとtとの間の物体kに帰せられるイベントとの間の距離の合計を最小化することによって平面Π
kのベクトルn
kおよび点g
kを推定するために、最小二乗法(least square fit)が使用され得る。
【0118】
この最小化する計算は、物体kの瞬間的な変位を表す平面Π
kを推定するためにステップ47において実行される。
【0119】
変位の平面Π
kを決定する方法に関するさらなる詳細に関しては、R. Benosmanらによる論文「Event-based Visual Flow」、IEEE Transaction On Neural Networks and Learning Systems、Vol. 25、No. 2、2013年9月、407〜417頁または特許出願国際公開第2013/093378(A1)号を参照し得る。
【0120】
追跡される物体が単純なエッジではなく、センサーによって見られる形状が二次元に広がる物体である場合、物体kに割り当てられた最近のイベントと平面のパラメータn
k、g
kによって定義される平面との間の距離の合計を最小化することによって変位の平面Π
kを決定することがやはり可能である。三次元空間-時間表現において、この平面Π
kは、物体kの局所的な変位全体を明らかにする。
【0121】
物体kに関して推定された変位の平面Π
kは、新しいイベントev(p, t)を物体kに帰すべきか否かを判断するために、
図11のステップ44においていくつかの方法で使用される可能性がある。
【0122】
ステップ44に戻ると、そのステップは、特に、いくつかの物体が追跡される(K>1)場合、イベントの帰属を決定するために、遮蔽の場合を解決すること、またはいくつかの物体の間の曖昧性のより広い場合を解決することを含む可能性がある。ステップ43において、イベントev(p, t)と追跡される様々な物体のモデルG
kに最も近い点m
kとの間のそれぞれの距離d(m
k, p)が計算された。これらの距離d(m
k, p)のうちの1つのみが閾値d
th、たとえば、d
th=3ピクセル未満である場合、イベントはこの物体に帰せられる。対称的に、いくつかの異なる物体に帰せられ得るイベントは、曖昧なイベントと考えられる。
【0123】
この処理が、
図14に示される。この処理は、ステップ50において、それぞれ1および0へのインデックスkおよびjの初期化から始まる。ステップ43において最小化された距離d(m
k, p)が閾値d
th未満であるかどうかが、テスト51において調べられ、肯定的である場合、ステップ52において、インデックスjが1単位だけインクリメントされ、ステップ53において、テーブルの第jのエントリk(j)がkに等しくされる。ステップ53の後、またはテスト51においてd(m
k, p)≧d
thであるとき、テスト54において、すべての物体が調べられた(k=K)かどうかが調べられる。k < Kである場合、テスト54の後に、ステップ55においてインデックスkを1単位だけインクリメントすることと、それから、次のテスト51に戻ることとが続く。テスト54においてk=Kであるとき、整数jが評価される。j=0である場合、いずれの物体も、検出されたイベントev(p, t)に十分に近いその物体のモデルを持たないと考えられ、イベントは、拒絶される(
図11のステップ41に戻る)。j=1である場合、イベントev(p, t)が、物体k=k(1)に帰せられる(
図11のステップ45への経路)。j>1である場合、曖昧性の削除56が、物体k(1)、...、k(j)の間で実行されなければならない。
【0124】
曖昧性の削除56において空間的制約を考慮に入れることは、以下のいくつかの方針に従って行われ得る。
・最近に帰する: 新しいイベントev(p, t)は、モデルG
kが最も近い(k(1)、...、k(j)の中の)物体k、すなわち、d(m
k, p)を最小化する物体に帰せられる。理論的には、この方針は、新しいイベントがモデルG
kに完璧に対応する場合、およびデータがいかなる雑音も含まない場合で、遮蔽による曖昧性がないときに正しく働く。
・すべてを拒絶する: この手法は、単純に、曖昧なイベントを無視し、つまり、
図11のステップ45〜47が、イベントev(p, t)に関して実行されない。この手法は、事前に明確な判断をし得ないので論理的であるように見える。しかし、追跡は、形状のダイナミクスを損なう恐れがあるので失敗する可能性がある。
・すべてを更新する: 曖昧なイベントev(p, t)の近くのすべてのモデルG
kが更新される。その他の観点では、
図11のステップ45〜47が、d(m
k, p)≦d
thであるような各物体kに関して実行される。
・重み付けされた更新: 曖昧なイベントev(p, t)は、距離の反対方向の変化する重み付けによってそれぞれの近くのモデルG
kに寄与する。言い換えれば、
図11のステップ45〜47は、それぞれの重み係数α
kが、たとえば、d(m
k, p)に反比例する距離d(m
k, p)の減少関数として計算され、Σα
k=1であるようにして、d(m
k, p)≦d
thであるような各物体kに関して実行される。
【0125】
イベントに基づく獲得プロセスの非常に高い時間解像度は、曖昧な状況の解決のためのさらなる情報を提供する。物体kの情報を含み、部分的に、この物体のダイナミクスを符号化する現在のイベントのレートr
kが、追跡される各形状G
kに関して決定され得る。
【0126】
本明細書において、t
k,0、t
k,1、...、t
k,N(k)は、長さΔtがおよそ数ミリ秒から数十ミリ秒までである可能性がある時間窓の間に物体kに帰せられた、番号がN(k)+1である最も最近のイベントの時間のラベルを表し、t
k,0<t
k,1<...<t
k,N(k)である(したがって、t
k,N(k)において検出されたイベントが、物体kに関して最も新しい)。これらの時間のラベルは、
【0128】
によって定義されるイベントのレートr
kの移動平均を各物体kに関して計算することを可能にする。
【0129】
現在のイベントのレートr
kのこの計算は、瞬間t
k,N(k)におけるこのイベントの検出に続いてイベントが物体kに帰せられたら(ステップ44)すぐに実行される可能性がある。
【0130】
そして、次のイベントev(p, t)がいくつかの追跡される物体の間の曖昧性を生じるとき、ステップ44は、以下の式による、曖昧なイベントev(p, t)が帰せられ得る各物体kに関するスコアC
kの計算を含む可能性がある。
C
k=(t - t
k,N(k)) r
k (14)
【0131】
このスコアC
kは、各物体kとの曖昧なイベントev(p, t)の時間コヒーレンシー(time coherency)を評価することを可能にする。イベントev(p, t)が物体kに属する場合、継続時間t - t
k,N(k)が現在のレートr
kの逆数に近いことが予測され得る。そのとき、ステップ44において時間的制約を考慮に入れることは、(14)に従ってスコアC
kを計算した後、イベントev(p, t)が帰せられ得る様々な物体kからスコアが1に最も近い物体を選択することである。この選択がなされると、レートr
kが、選択された物体に関して更新される可能性があり、制御が、
図11のステップ45にわたる可能性がある。
【0132】
曖昧性を削除するために時間的制約を考慮に入れ、
図14のステップ56の実行のモードを形成する処理が、
図15に示される。その処理は、ステップ60においてインデックスiの1への初期化から始まり、物体kのインデックスが、k(1)に初期化され、スコアCが、(t - t
k(1),N(k(1))) r
k(1)に初期化される。ループ61〜65は、イベントev(p, t)が帰せられ得る様々な物体のスコアC
k(i)を評価するために実行される。ステップ61において、インデックスiが、1単位だけインクリメントされる。ステップ62において、物体k(i)のスコアC
k(i)が、C'=(t - t
k(i),N(k(i))) r
k(i)に従って計算される。|C' - 1|≧|C - 1|(テスト63)である場合、インデックスiを候補の物体の番号jと比較するためにループ脱出テスト65が実行される。テスト63において|C' - 1|<|C - 1|である場合、ループ脱出テスト65に抜ける前にインデックスkをk(i)で置き換え、C=C'の更新を行うためにステップ64が実行される。テスト65においてi < jである限り、プロセスは、次の反復のためにステップ61に戻る。j=jであるとき、イベントを物体kに帰することが、完了しており、アルゴリズムは、選択された物体kに関する数N(k)および時間のラベルt
k,0、t
k,1、...、t
k,N(k)を更新するステップ66に移る。そのとき、レートr
kは、ステップ67において(12)に従って更新され、アルゴリズムは、
図11のステップ45に移る。
【0133】
ステップ56において曖昧性を削除するための別の方法は、イベントev(p, t)に帰せられ得る様々な物体k(1)、...、k(j)の変位の平面Π
k(1)、...、Π
k(j)を参照することによって空間的制約と時間的制約とを組み合わせることである。
【0134】
特に、イベントev(p, t)の帰属の決定のために、k(1)、...、k(j)の中で、イベントev(p, t)と各平面Π
k(1)、...、Π
k(j)との間の、三次元空間-時間表現内で測定された距離を最小化する物体kを保持することがあり得る。そのとき、イベントは、以下であるように物体kに帰せられ、
【0136】
であり、D(i)= |eg
k(i). n
k(i)| (16)
であり、ここで、「.」は、三次元空間内の2つのベクトルの間のスカラ積を示し、n
k(i)は、平面Π
k(i)の法線の方向を与えるベクトルであり、eg
k(i)は、三次元空間内の検出されたイベントev(p, t)を示す点eから平面Π
k(i)の点g
k(i)のうちの1つを指すベクトルである。
【0137】
曖昧性を削除し、
図14のステップ56の別の実施形態を形成するために空間的制約と時間的制約とを組み合わせる処理が、
図16に示される。その処理は、ステップ70においてインデックスiの1への初期化から始まり、物体kのインデックスが、k(1)に初期化され、距離Dが、|eg
k(1). n
k(1)|に初期化される。ループ71〜75は、イベントev(p, t)が帰せられ得る様々な物体の距離D(i)を評価するために実行される。ステップ71において、インデックスiが、1単位だけインクリメントされる。ステップ72において、物体k(i)に関する距離D(i)が、D=|eg
k(i). n
k(i)|に従って計算される。D'≧D (テスト73)である場合、インデックスiを候補の物体の番号jと比較するためにループ脱出テスト75が実行される。テスト73においてD'<Dである場合、テスト75に抜ける前にインデックスkをk(i)で置き換え、D=D'の更新を行うためにステップ74が実行される。テスト75においてi<jである限り、プロセスは、次の反復のためにステップ71に戻る。i=jであるとき、イベントを物体kに帰することが、完了しており、アルゴリズムは、
図11のステップ45に移る。
【0138】
非同期的なセンサー10が動いているとき、イベントは、シーンの固定の背景によっても生成される。
図17は、追跡される物体kに属するイベントとこの物体に関して推定された変位の平面Π
kとの間の距離の典型的な分布(曲線78)と、固定の背景に属するイベントと物体の変位の平面との間の距離の典型的な分布(距離79)とを示す。これは、変位の平均平面Π
kが追跡される物体kに関するイベントを背景を含む追跡されない物体に関するイベントと分けるための区別の基準を与えることができることを示す。追跡される物体とコヒーレント(coherent)でない、すなわち、変位の平面Π
kから「遠すぎる」イベントは、単純に無視される。
【0139】
そのとき、シーンの背景から生じたイベントをフィルタリングするための1つの方法は、(
図11のステップ47において推定された)追跡される物体の変位の平面Π
kと時間窓Δtの間のステップ44においてこの物体に帰せられた検出されたイベントev(p, t)を示す点との間の距離の統計的な分布を推定することである。この統計的な分布は、
図17の曲線78に対応する。この統計的な分布は、変位の平面Π
kと物体に帰せられたイベントとの間の平均の距離d
kと、分布の標準偏差σ
kとを評価することを可能にする。これらのパラメータを使用して、許容可能な距離の値に関して間隔I
kが決定される。新しい検出されたイベントev(p, t)が追跡される物体に割り当てられるべきであるかどうかに関して判断がなされるべきであるとき、三次元空間内のイベントev(p, t)を示す点と平面Π
kとの間の距離D=|eg
k.n
k|(16)に従って計算が行われる。この距離Dが間隔I
kから外れる場合、イベントは、物体kに帰せられない。対照的に、イベントは、物体kに帰せられるか、または、特に、
図14〜
図16を参照して上で検討されたような任意の遮蔽を考慮に入れるためにその他のフィルタリングにかけられる。
【0140】
たとえば、間隔I
kは、平均の距離d
kの値に中心を置き、その間隔の幅は、標準偏差σ
kの倍数である。
【0141】
背景のあり得る動きを考慮に入れるために、
図11のステップ44は、
図18に示される処理を含み得る(単一の物体kが追跡される特定の場合。この場合は、K > 1である場合に容易に一般化され得る)。ステップ42におけるイベントev(p, t)の検出の後、距離D=|eg
k.n
k|がステップ80において計算され、この距離Dが間隔I
k内に入るかどうかを判定するためにテスト81が実行される。DがI
kの外にある場合、プロセスは、
図11のステップ41に戻る。DがI
k内に入る場合、イベントev(p, t)は、背景の動きではなく物体kに帰せられる。そのとき、物体kの変位の平面Π
kと相対的な距離の分布(曲線78)が、ステップ82において距離Dによって更新され、それから、間隔I
kが、ステップ83において再計算される。そして、プロセスは、
図11のステップ45に移る。
【0142】
図14〜
図18を参照して説明されたプロセスは、
図11による本発明の実施形態に関連して示された。しかし、追跡される複数の物体の間のあり得る遮蔽およびシーンの背景のあり得る動きを考慮に入れるために使用されるこの処理が、特に、
図8を参照して説明されたSVD型の技法に頼るとき、形状を追跡する方法のその他の実施形態によっても使用され得ることが気づかれるであろう。
【0143】
デジタル試験(digital experiment)が、上で開示された方法の性能を明らかにするために行われた。これらの試験は、以下の例に包含される。
【実施例1】
【0144】
試験は、剛体空間変換F
t、すなわち画像の平面内の移動および回転からなる空間変換を探すことによって、
図6Aおよび
図7を参照して上で示された、回転するディスクに描かれた星の場合に行われた。
【0145】
ディスクは、毎分670回転の速度で回転された。モデルGの形状を与えるパターンHが、スナップショットから星のエッジごとに6つの点を選択することによって手動で生成された。6ピクセルの距離の閾値が、雑音の影響を取り除き、計算の負荷を削減するために使用された。
図7によって示されたように、アルゴリズムは、高い回転速度にもかかわらず効果的な方法で回転する形状を追跡することに成功する。
【0146】
図19は、以下の追跡の3つの方法によって得られた星形の追跡の精度を比較することを可能にする。
・出力信号がフレームからなる通常のカメラの画像を処理するICPアルゴリズム(
図19の曲線85)。比較が正確であるために、フレームを区別した後に残っているピクセルの位置のみがICPアルゴリズムによって考慮される。
・50μsの期間にわたって収集されたイベントを考慮することによって、
図8を参照して示された方法で、SVDの手法に基づく解析的な形態の推定とともに非同期的なイベントに基づくセンサー10を使用する形状追跡の方法(曲線86)。
・
図11を参照して示された方法で、イベントev(p, t)の検出の前に実行された関連付けとは独立して、このイベントev(p, t)を生じる行列のピクセルpとモデルの点mとの間の現在の関連付けに従って更新されたモデルの推定とともに非同期的なイベントに基づくセンサー10を使用する形状追跡の方法(曲線87)。
【0147】
形状追跡の精度を評価するために、モデルの集合とアクティブなイベントの位置との間の平均の距離が200μsごとに計算される。平均誤差は、曲線85、86、および87に関してそれぞれ2.43、1.83、および0.86ピクセルであり、それぞれの標準偏差は、0.11、0.19、および0.20ピクセルである。センサーの非同期信号を考慮に入れることは、特に、
図11の場合、形状追跡の方法の著しい改善を可能にする。
【0148】
より優れた時間の精度は、より正確な追跡につながる。誤差の曲線は、刺激の反復的な回転による振動(
図19の差し込み図)を示す。追跡誤差は、アルゴリズムの再現性および信頼性の良好な特性を示す。残余誤差(residual error)は、形状の角度位置に関連して等方性応答(isotropic response)を与えない、センサーの制限された空間解像度と組み合わされたピクセルの正方形の行列の幾何学的配置によるものである。
【0149】
モデルGに関して保持される点の数は、計算のコストおよび精度に影響を与える。
【0150】
図11による実施形態の場合、等しい画像レート(image rate)を1つのイベントを処理するために必要とされる計算の時間の逆数として定義することがあり得る。
【0151】
例において、追跡プログラムは、2.8GHzでクロック制御される「Intel Core i5」型の中央演算処理装置(CPU)を備えたコンピュータ上で実行され、このCPUの能力の25%を占有していた。この構成において、モデルの90点のサイズは、200kHzの等しい画像レートに対応する検出の周波数を提供できるように見えた。モデル内の最大で約2000点まで、後者は、少なくとも11kHzの等しい画像レートで更新され得る。経験により、60点から70点までのモデルに関して、アルゴリズムが最大1250rpmの速度で移動される形状をリアルタイムで追跡することができることが示された。
【0152】
概して、物体の外形の角をモデルに含めることに対する関心が存在する。しかし、物体の形状の直線的なエッジに沿って、追跡の最終的な精度に悪影響を与えることなく点の数を減らすことが可能である。
【0153】
点の数が増えるとき、追跡誤差は、ゼロに向かって下がらず、非同期的なセンサーの空間解像度の限界に関係がある値である約0.84ピクセルに向かって下がる。必然的に、モデルがより多くの点を含むほど、追跡の精度はより良くなるが、計算コストはより高くなる。モデルに関する60点から100点のサイズは、高い追跡周波数(約200kHz)を保つことによって相応の精度(約0.90ピクセル)を得るためのほどよい妥協点である。
【実施例2】
【0154】
実験は、
図11による実施形態において式(6)、(7)、(11)、および(12)を使用して計算されたアフィン空間変換を考慮に入れることによっていくつかの形状(H形、自動車形、および星形)の場合に行われた。この実験中、物体の形状は、
図20(H形のa〜d、自動車形のe〜h、星形のi〜l)に示される方法で変形され、サイズを変更される。
【0155】
図21は、自動車形の追跡中の形状の元のサイズに関連する倍率s
x、s
yを示す(それぞれ、曲線90および91)。縮尺の関係は、パースペクティブ(perspective)の変化が実験中に水平軸に沿ってよりも垂直軸に沿ってより頻繁に起こるので2つの軸に沿って異なる。(92として描かれた)トラッキング誤差は、0.64ピクセルの平均値および0.48ピクセルの標準偏差を明らかにした。
【0156】
したがって、
図11を参照して上で説明された方法は、アフィン変換に関して探索中に良好な性能をもたらす。
【実施例3】
【0157】
この実験においては、自動車の交通データが、非同期的なセンサーによって獲得された。
図22に示されるように、4つの連続的な瞬間に、数台の車両が、いくつかのレーンを同時に走っていた。
図22の列(a)は、数マイクロ秒の間に非同期的なセンサーによって生成され、蓄積されたイベントを示し、列(b)は、対応するグレイスケール画像を示す。選択されたシーンは、動かない物体(木、燈柱、...)が原因である大きな遮蔽があり、堅牢な追跡に関する大きな課題を形成する移動可能な物体(車両)がある決定的な瞬間を有することが分かる。
【0158】
自動車およびトラックに対応する2つの形状95、96が、アフィン変換F
tを探すことによる
図11に示された方法によって追跡された。式(6)、(7)、(11)、および(12)の収束ステップη
1、η
2、およびη
3は、それぞれ、0.1、0.002、および10
-5に設定された。自動車に関するモデルG
1が67点を含んでおり、トラックに関するモデルG
2は、102点を含んでいた。これらのモデルは、獲得された画像のピクセルを手動で指し示すことによって生成された。
【0159】
図23は、
図11による方法およびイベントに基づく非同期的なセンサーを用いて観測された追跡誤差を示し、一方、
図24は、フレームベース(frame base)によりカメラから生じる画像を用いる通常の方法を用いて観測された同じ誤差を示す。比較が適切であるために、通常のフレームに基づくICP技法が、100フレーム毎秒の頻度で再構築されたグレイスケール画像に適用された。各画像は、連続するフレームの間の違いを計算し、閾値演算を適用することによって移動し得るエッジを得るために前処理される。イベントに基づく方法の時間的精度は、約1μsであった。
【0160】
図11によるイベントに基づく方法に関して、平均追跡誤差は、0.86ピクセルであり、標準偏差は0.19ピクセルであり(
図23)、一方、通常のフレームに基づく方法は、5.70ピクセルの平均追跡誤差を生じ、標準偏差は2.11ピクセルであった(
図24)。
図23のサムネイル(a1)〜(a5)および
図24の(b1)〜(b5)は、「トラック」の物体が遮蔽に遭い、追跡誤差の最大を生じる状況を示す。
【0161】
本発明による方法によって得られるより高い時間的精度が、通常のフレームに基づく方法よりも優れた追跡の安定性によって達成されることは注目に値する。通常の方法において、獲得頻度を増やすことである(高価な)解決策は、常に遮蔽の状況を正しく処理するために十分であるとは限らない。反対に、非同期的なセンサーによって生成されるイベントに基づく信号の動的な内容は、アルゴリズムのためのより安定した入力データをもたらす。動かない障害物は、いかなるイベントも生じず、したがって、実質的に、追跡プロセスに影響を与えない。
【実施例4】
【0162】
曖昧性を削除するためのいくつかの方針が、遮蔽される可能性がある複数の物体の追跡に関してテストされた。
【0163】
同じ方向に異なる速度で移動される「自動車」の物体および「トラック」の物体の形状が、自動車の交通を含む実際のシーン内で同時に追跡された。しばらくの間、トラックおよび自動車の形状は、トラックが自動車を追い越すまでセンサー10の視野内で重ね合わされる。トラックおよび自動車以外の物体は、背景雑音として処理される。
【0164】
図25は、
・「トラック」の物体から生じるイベントと物体「トラック」の重心との間で観測された距離(曲線100)と、
・「自動車」の物体から生じるイベントと「自動車」の物体の重心との間で観測された距離(曲線101)と、
・「トラック」の物体から生じるイベントと「自動車」の物体の重心との間で観測された距離(曲線102)と、
・「トラック」の物体から生じるイベントと「自動車」の物体の重心との間で観測された距離(曲線103)とを示す。
【0165】
曖昧性は、これらの曲線が同様の値を通過するときに生み出され、つまり、2つの車両の形状が、(約2.2sから2.9sの間)視野内で重なる。この場合、空間的な情報の使用は、共通領域のサイズが非常に小さくない限り不十分である可能性がある。
【0166】
図26は、「トラック」の物体の平均のイベントのレートr
k (曲線105)および「自動車」の物体の平均のイベントのレートr
k (曲線106)を示す。この実験においては、自動車に関する約3000イベント毎秒のイベントのレートおよびトラックに関する約5000イベント毎秒のイベントのレートに関連するシーケンス全体の間、2つの車両の形状が分離可能であり続けるように、2つの曲線が分けられることが分かる。しかし、分けられ得るこの特性は、必ずしもすべてのシーケンスに関して保証されるとは限らない。
【0167】
概して、通常、時間的制約を、たとえば空間的制約としてのさらなる制約と組み合わせることが好ましい。
【0168】
図27〜
図32は、「トラック」の物体のモデルの速度(曲線110)および「自動車」の物体のモデルの速度(曲線111)を、連続的な画像上の対応する点を特定することによって手動で決定された実際の速度(それぞれ、点線の曲線112および113)と比較することによって
図11による方法の実施中に推定されたそれらのモデルの速度を示す。平均速度は、それぞれ、トラックに関して42.0ピクセル/sおよび自動車に関して24.3ピクセル/sであった。6つの図は、曖昧性を削除するための6つの異なる方針、すなわち、「最近に帰する」(
図27)、「すべてを拒絶する」(
図28)、「すべてを更新する」(
図29)、「重み付けされた更新」(
図30)、「レートr
kに基づく時間的制約」(
図31)、および「変位の平面Π
kを使用する空間的制約と時間的制約との組合せ」(
図32)に対応する。
図27〜
図32に含まれるサムネイルは、方法の間の違いを学ぶための最も興味深い瞬間を示す。各曲線の始まりは、遮蔽が起こっていない限り同じである。グラフの右側部分に示される百分率は、一方の曲線110と曲線112との間および他方の曲線111と曲線113との間の平均の相対偏差に対応する。
【0169】
「最近に帰する」方針は、トラックのモデルが自動車のモデルによるそのトラックのモデルの遮蔽の後に見失われるので、比較的悪い結果をもたらすことが
図27において分かる。「すべてを拒絶する」方針(
図28)は、今度は、遮蔽の後に見失われるのが自動車のモデルであるので、もはや十分でない。
【0170】
「すべてを更新する」方針(
図29)は、2つの車両の形状が見失われることなく追跡されたままであるので好ましいように見える。シーケンスの最後に、トラックによって生成されたイベントは、自動車に関する結果として得られる軌跡がトラックの結果として得られる軌跡に向かってわずかにそれ、自動車の推定された速度が増えるときにトラックの推定された速度が減るようにして自動車のモデルを引きつける(
図29の(c3)参照)。
【0171】
「重み付けされた更新」の方針は、距離に依存する重み付けによって様々な物体の間の曖昧なイベントによってもたらされるダイナミクスを分散させる。
図30は、トラックおよび自動車が見失われることなく追跡され、速度の曲線が実際の速度により一致することを示す。「すべてを更新する」方針と同じ理由で、シーケンスの最後にまだ違いがあるが、これらの誤差の大きさはより小さい。「重み付けされた更新」の方針は、複数の物体が交差または衝突するとき、空間的制約に基づいてそれらの中で好ましい。
【0172】
「レートr
kに基づく時間的制約」の方針(
図31)は、この実験の枠組の中で良好な結果をもたらす。しかし、その方針の信頼性は、目標の物体が同様のイベントのレートを有するとき、保証されない。
【0173】
「変位の平面Π
kを使用する空間的制約と時間的制約との組合せ」の方針は、「トラック」の物体の変位の平面Π
1および「自動車」の物体の変位の平面Π
2を推定するために期間Δt 3 sとともに使用された(
図33)。
図32に示されるように、この方針は、2つの車両の追跡において最も小さな誤差を生じる方針である。これは、誤った帰属の決定を削除し、雑音に対するより優れた堅牢性を獲得することによって局所的な空間-時間平面Π
1、Π
2が近傍を実質的に制限するという事実によって説明され得る。より信頼性の高い帰属の決定のプロセスのおかげで誤差がトラックと自動車との間でより一様に分散されるに留意することは、興味深い。
【実施例5】
【0174】
移動可能なセンサーによって生成された非同期信号の2つのシーケンスが、
図16を参照して説明された背景によって生成されたイベントを削除するための方法を適用することによってテストされた。
【0175】
第1のシーケンスにおいては、非同期的なセンサーが手元に保持され、同時に動かされながら星形が屋内環境内で移動された。
図34は、シーン(a1)〜(a5)のいくつかのスナップショットを示す。
【0176】
結果を評価するために、(星の動きとセンサーとの動きとを組み合わせる)
図11による方法によって計算された星の速度が、
図34の曲線116によって示され、手動で取得され、点線の曲線117によって示される実際の速度と比較される。推定されたデータと実際のデータとの間の平均誤差は、6%と推定される。シーンは背景の多くのエッジを含むが、追跡プロセスは堅牢なままである。
【0177】
第2のシーケンスは、自動車の交通をやはり有する屋外のシーンから来る。自動車の形状が、手動で移動される非同期的な視覚センサー10を用いて追跡される。
【0178】
図35は、自動車の速度の推定の結果を示し(曲線118)、その結果を手動で決定された実際の速度と比較する(曲線119)。(たとえば、歩道または横断歩道が車に近いかまたは重ね合わされるときの)処理するのが難しい状況にもかかわらず、アルゴリズムの良好な時間-空間特性が、受け入れられ得る結果をもたらす。速度に対する平均推定誤差は、15%である。追跡の品質は、自動車がパースペクティブの実質的な変化にさらされ始めるとき、約3.5秒から劣化させられる(
図35のb5)。
【0179】
全体的に、上で明らかにされたようなイベントに基づく追跡は、センサーおよび追跡される物体が動いているときでさえも堅牢である。
【0180】
上述の実施形態は、本発明の例示である。添付の請求項に由来する本発明の範囲を逸脱することなくそれらの実施形態に対して様々な修正がなされ得る。