【文献】
清原 將裕、外3名,“車両周辺監視のための移動体検出技術の開発”,映像情報インダストリアル,日本,産業開発機構(株),2012年 5月 1日,Vol.44, No.5,pp.45-51
(58)【調査した分野】(Int.Cl.,DB名)
特定された前記移動体における前記オプティカルフローの方向及び長さを用いて、前記車両を基準とした、特定された前記移動体の速度を算出する、移動体速度算出部を更に備えている、
請求項1に記載の移動体検知装置。
前記クラスタリング部が、複数の前記クラスタ間において、複数の前記クラスタの位置関係と、それぞれの前記オプティカルフローの長さ及び向きとが、設定条件を満たす場合に、複数の前記クラスタを結合して1つのクラスタとする、
請求項1または2に記載の移動体検知装置。
前記オプティカルフロー特定部が、前記車両の進行方向及び速度に基づいて、特定したオプティカルフローの中から、背景を構成する物体に関連するオプティカルフローを除去する、
請求項1〜3のいずれかに記載の移動体検知装置。
(g)前記(f)のステップで特定された前記移動体における前記オプティカルフローの方向及び長さを用いて、前記車両を基準とした、特定された前記移動体の速度を算出する、ステップを更に有する、
請求項5に記載の移動体検知方法。
前記(c)のステップにおいて、複数の前記クラスタ間において、複数の前記クラスタの位置関係と、それぞれの前記オプティカルフローの長さ及び向きとが、設定条件を満たす場合に、複数の前記クラスタを結合して1つのクラスタとする、
請求項5または6に記載の移動体検知方法。
(f)前記(c)のステップの実行前に、前記車両の進行方向及び速度に基づいて、前記(b)のステップで特定したオプティカルフローの中から、背景を構成する物体に関連するオプティカルフローを除去する、ステップを更に有する、
請求項5〜7のいずれかに記載の移動体検知方法。
前記(c)のステップにおいて、複数の前記クラスタ間において、複数の前記クラスタの位置関係と、それぞれの前記オプティカルフローの長さ及び向きとが、設定条件を満たす場合に、複数の前記クラスタを結合して1つのクラスタとする、
請求項9または10に記載のプログラム。
【発明を実施するための形態】
【0014】
(実施の形態)
以下、本発明の実施の形態における、移動体検知装置、移動体検知方法、及びプログラムについて、
図1〜
図8を参照しながら説明する。
【0015】
[装置構成]
最初に、本実施の形態における移動体検知装置の概略構成について
図1を用いて説明する。
図1は、本発明の実施の形態における移動体検知装置の概略構成を示すブロック図である。
【0016】
図1に示す本実施の形態における移動体検知装置10は、車両に取り付けられた撮像装置が出力する画像データから移動体を検知するための装置である。
図1に示すように、移動体検知装置10は、特徴点抽出部11と、オプティカルフロー特定部12と、クラスタリング部13と、フィルタリング部14と、移動体特定部15とを備えている。
【0017】
特徴点抽出部11は、撮像装置によって設定間隔で出力されてくる画像データから、画像中を移動している特徴点を抽出する。オプティカルフロー特定部12は、最新の画像データと、それよりも過去に出力された画像データとを対比して、抽出された特徴点毎に、各特徴点のオプティカルフローを特定する。
【0018】
クラスタリング部13は、特定されたオプティカルフローとその画像上での位置とに基づいて、得られた全てのオプティカルフローに対してクラスタリングを行なって、各オプティカルフローをクラスタに分ける。フィルタリング部14は、車両の進行方向及び速度に基づいて、クラスタリングによって得られたクラスタの中から、背景を構成する物体に該当するクラスタを除去する。移動体特定部15は、フィルタリング部14によるクラスタの除去後のクラスタリングの結果を用いて、画像中の移動体を特定する。
【0019】
このように、本実施の形態では、移動体検知装置10は、特徴点のオプティカルフローをクラスタリングし、得られたクラスタから、背景に該当するクラスタを除去することで、移動体を検知している。このため、本実施の形態によれば、移動体と背景を構成する物体とを区別して移動体の検知精度を向上することができる。
【0020】
続いて、
図2を用いて、本実施の形態における移動体検知装置の構成について更に具体的に説明する。
図2は、本発明の実施の形態における移動体検知装置の具体的構成を示すブロック図である。
【0021】
図2に示すように、本実施の形態における移動体検知装置10は、外部の撮像装置20に接続されている。撮像装置20は、固体撮像素子を備え、撮影を行なうと、カラー画像の画像データを移動体検知装置10に出力する。本実施の形態では、撮像装置20は、設定された時間間隔(フレームレート)で、連続して画像データを出力する。
【0022】
また、
図2に示すように、本実施の形態においては、移動体検知装置10は、特徴点抽出部11、オプティカルフロー特定部12、クラスタリング部13、フィルタリング部14、及び移動体特定部15に加えて、画像取得部16と、トラッキング部17と、移動体速度算出部18とを備えている。
【0023】
画像取得部16は、撮像装置20から処理対象となる画像データを取得する。具体的には、画像取得部16は、撮像装置20からはカラー画像の画像データが出力されるので、まず、出力されてきた画像データに対して画像変換を行なって、カラー画像をグレースケール画像に変換する。続いて、画像取得部16は、画像データに対して、必要に応じて歪み補正を実行し、その後、補正後の画像データを、特徴点抽出部11とオプティカルフロー特定部12とに入力する。なお、歪み補正が行なわれるのは、例えば、撮像装置20に取り付けられている撮影レンズが魚眼レンズ等である場合である。
【0024】
特徴点抽出部11は、本実施の形態では、まず、予め設定されたフレーム数分(例えば、10フレーム)の画像データを用いて、輝度変化の不偏分散を計算し、計算値と閾値とを対比して、各画素が移動画素及び静止画素のいずれに該当するかを判定する。そして、特徴点抽出部11は、移動画素と判定した画素が存在する領域を、移動体が存在する移動領域とする。次に、特徴点抽出部11は、現フレームの画像データの移動領域において、例えば、一般的なFASTアルゴリズムを用いて、特徴点を抽出する。
【0025】
オプティカルフロー特定部12は、本実施の形態では、例えば、
図3に示すように、まず、現フレームの1つ前の過去フレームの特徴点と現フレームの特徴点とを対比し、対応する特徴点同士を紐付けする。
図3の例では、オプティカルフロー特定部12は、1つ前の過去フレームの特徴点1と現フレームの特徴点3とを紐付け、1つ前の過去フレームの特徴点2と現フレームの特徴点4とを紐付ける。そして、オプティカルフロー特定部12は、紐付けた特徴点同士を結び、オプティカルフローを特定する。
図3は、本発明の実施の形態における特徴点のオプティカルフローの特定処理を説明するための図である。
【0026】
具体的には、オプティカルフロー特定部12は、特徴点同士の類似度を算出し、算出した類似度が閾値以上となる特徴点同士を紐付ける。この場合の類似度としては、Rotated Brief法で生成されたバイナリーコードから算出されるハミング距離が挙げられる。
【0027】
また、オプティカルフロー特定部12は、処理時間を短縮するため、画像を分割し、分割によって得られた各エリアとその周辺のエリアとをひとつのグループとし、グループ毎に、特徴点同士の結びつけと、オプティカルフローの特定とを行なうこともできる。
【0028】
更に、本実施の形態では、オプティカルフロー特定部12は、移動体検知装置10を搭載している車両(以下「自車両」と表記する)から、車両情報を取得して、自車両の進行方向と速度とを特定することもできる。車両情報は、自車両の状態(前進又は後進)、旋回角度、速度等を特定する情報である。この場合、オプティカルフロー特定部12は、自車両の進行方向及び速度に基づいて、特定したオプティカルフローの中から、背景を構成する物体に関連するオプティカルフローを除去する。
【0029】
クラスタリング部13は、本実施の形態では、x−meanアルゴリズムを使用して、クラスタリングを実行する。例えば、
図4に示すように、クラスタリング部13は、まず、オプティカルフロー間の距離を特定し、特定した距離に基づいて、クラスタリングを実行する。
図4は、本発明の実施の形態におけるオプティカルフローのクラスタリング処理を説明するための図である。
【0030】
次に、クラスタリング部13は、クラスタリングによって生成されたクラスタ毎に、長さ、位置(画面内の座標)、及び向きが、そのクラスタ内のオプティカルフローの平均値から大きく乖離しているオプティカルフローを特定する。特定されたオプティカルフローは同じ移動体に由来するものとは考えられないため、クラスタリング部13は、
図4に示すように、特定したオプティカルフローを、元のクラスタから除去し、新規に生成したクラスタに登録する。
【0031】
また、クラスタリング部13は、クラスタリングの実行後、複数のクラスタ間において、それらの位置関係と、それぞれのオプティカルフローの長さ及び向きとが、設定条件を満たす場合に、これらのクラスタを結合して1つのクラスタとする。これらのクラスタのオプティカルフローは同じ移動体に由来すると考えられるからである。
【0032】
具体的には、クラスタリング部13は、まず、クラスタが互いに重なっていること、クラスタ間において、クラスタ内のオプティカルフローの平均長さと向きとが近似していること、を条件に、結合候補となる2つクラスタを特定する。次に、クラスタリング部13は、結合候補となった2つのクラスタ間について、互いの中心を結んだときの中央のエリア(例えば、20ピクセル×20ピクセル)でのオプティカルフローの向きを対比し、向きが各クラスタで一致している場合は、これらの結合候補を結合する。
【0033】
トラッキング部17は、クラスタリングによって得られたクラスタ毎に、各クラスタの位置が、最新の画像データ以外の画像データから予測された位置と重なるかどうかを判定する。具体的には、トラッキング部17は、現フレームにおける判定対象となるクラスタを、複数の過去フレーム(例えば、過去6フレーム)における判定対象となるクラスタと対比して、一定数以上の過去フレームにおいて一致していれば、重なると判定する。そして、トラッキング部17は、重なると判定したクラスタを、フィルタリング部14に通知する。
【0034】
また、トラッキング部17は、判定において、現フレームのクラスタと過去フレームのクラスタとが、完全に一致している場合だけに限られず、両者が一定の割合以上で重なっている場合も一致しているとする。更に、対応する移動体が異なるクラスタ同士が一致してしまうのを防ぐため、トラッキング部17は、判定対象となるクラスタの面積を縮小してから(例えば、1/4)、一致の判断を行なうこともできる。
【0035】
更に、トラッキング部17は、判定対象となったクラスタの座標として、現フレームのクラスタの座標と一致した過去フレームのクラスタの座標との平均座標を算出し、算出した平均座標を、判定対象となったクラスタの座標とすることもできる。
【0036】
また、トラッキング部17は、現フレームのクラスタと複数の過去フレームのクラスタとの対比の結果、一致している過去フレームの枚数が閾値未満の場合は、誤検知の可能性が高いため、トラッキング部17は、判定対象となるクラスタを削除する。但し、削除したクラスタについて、前回の判定において重なると判定されている場合は、トラッキング部17は、削除したクラスタを復帰させることもできる。
【0037】
フィルタリング部14は、本実施の形態では、まず、自車両から、車両情報を取得して、自車両の進行方向と速度とを特定する。車両情報は、自車両の状態(前進又は後進)、旋回角度、速度等を特定する情報である。
【0038】
続いて、フィルタリング部14は、特定した自車両の進行方向と速度とに基づいて、トラッキング部17から通知された各クラスタの中から、背景を構成する物体に該当するクラスタを特定し、特定したクラスタを除去する。
【0039】
具体的には、
図5に示すように、地面に固定されている物体(例えば、樹木)31については、その移動方向は自車両30の移動方向の反対方向となり、その移動量は自車両30の移動量と等しくなる。また、進行方向が逆の車両32については、その移動方向は、自車両30の移動方向の反対方向となり、その移動量は自車両の移動量よりも大きくなる。
図5は、本発明の実施の形態における背景除去の処理を説明するための図である。なお、
図5において、自車両30の後方の破線は、撮像装置の撮影範囲を示している。
【0040】
従って、フィルタリング部14は、まず、通知されたクラスタに含まれるオプティカルフローの中から、移動方向が自車両30の移動方向と反対方向となり、且つ、移動量が自車両30の移動量以上となる、オプティカルフローを特定する。そして、フィルタリング部14は、特定したオプティカルフローを含むクラスタを、背景を構成する物体に該当するクラスタとして特定し、これを除去する。
【0041】
移動体特定部15は、本実施の形態では、トラッキング部17及びフィルタリング部14によって除去されたクラスタ以外のクラスタに基づいて、移動体を特定する。また、移動体特定部15は、特定した移動体の情報を車両に通知する。このとき通知される情報としては、移動体の画像上の位置、移動方向、及び速度等が挙げられる。なお、速度は、後述する移動体算出部18によって算出される。
【0042】
移動体速度算出部18は、移動体特定部15によって特定された移動体におけるオプティカルフローの方向及び長さを用いて、移動体検知装置10(自車両)を基準とした、特定された移動体の速度(相対速度)を算出する。
【0043】
具体的には、移動体速度算出部18は、
図6に示すように、まず、現フレーム及び1つ前の過去フレームそれぞれにおいて、特定された移動体の自車両に最も近い点(移動体の画面上の右下又は左下の点)の座標を特定する。なお、1つ前の過去フレームで特定された座標を開始座標、現フレームに特定された座標を終了座標とする。また、移動体速度算出部18は、特定された移動体のオプティカルフローの平均の長さ及び角度から、開始座標を推定することができる。
図6は、本発明の実施の形態における移動体の相対速度の算出処理を説明するための図である。
【0044】
次に、移動体速度算出部18は、
図6に示すように、撮像装置20のカメラパラメータを使って、鳥瞰視点変換を行い、開始座標及び終了座標を、実座標系での座標に変換する。また、移動体速度算出部18は、変換後の各座標から、実空間における開始座標と終了座標との距離を算出し、これを相対移動距離とする。
【0045】
そして、移動体速度算出部18は、1つ前の過去フレームから現フレームまでの時間と、算出した相対移動距離とから、自車両を基準とした移動体の速度を算出する。なお、1つ前の過去フレームから現フレームまでの時間は、フレームレートから求められる。例えば、フレームレートが10fpsであるならば、時間は0.1秒となる。
【0046】
[装置動作]
次に、本発明の実施の形態における移動体検知装置10の動作について
図7を用いて説明する。
図7は、本発明の実施の形態における移動体検知装置の動作を示すフロー図である。以下の説明においては、適宜
図1〜
図6を参酌する。また、本実施の形態では、移動体検知装置10を動作させることによって、移動体検知方法が実施される。よって、本実施の形態における移動体検知方法の説明は、以下の移動体検知装置10の動作説明に代える。
【0047】
図7に示すように、最初に、画像取得部16は、撮像装置20から出力されてくる画像データを、フレーム毎に取得する(ステップA1)。
【0048】
具体的には、ステップA1では、画像取得部16は、まず、取得された画像データに対して、グレースケール画像への変換、歪み補正等を行なう。そして、画像取得部16は、取得された画像データのフレーム数が設定枚数に達した以降、これらの画像データを特徴点抽出部11に渡す。
【0049】
次に、特徴点抽出部11は、ステップA1で取得された画像データから、画像中を移動している特徴点を抽出する(ステップA2)。
【0050】
具体的には、ステップA2では、特徴点抽出部11は、予め設定されたフレーム数分(例えば、10フレーム)の画像データを用いて、輝度変化の不偏分散を計算して、各画素が移動画素及び静止画素のいずれに該当するかを判定する。そして、特徴点抽出部11は、移動画素と判定した画素が存在する移動領域から、特徴点を抽出する。
【0051】
次に、オプティカルフロー特定部12は、最新の画像データと、それよりも過去に出力された画像データとを対比して、抽出された特徴点毎に、各特徴点のオプティカルフローを特定する(ステップA3)。
【0052】
具体的には、ステップA3では、オプティカルフロー特定部12は、
図3に示すように、現フレームの1つ前の過去フレームの特徴点と現フレームの特徴点とを対比し、対応する特徴点同士を紐付け、紐付けた特徴点同士を結びことで、オプティカルフローを特定する。
【0053】
次に、オプティカルフロー特定部12は、自車両の進行方向及び速度に基づいて、ステップA3で特定したオプティカルフローの中から、背景を構成する物体に関連するオプティカルフローを除去する(ステップA4)。
【0054】
次に、クラスタリング部13は、特定されたオプティカルフローとその画像上での位置とに基づいて、得られた全てのオプティカルフローに対してクラスタリングを行なって、各オプティカルフローをクラスタに分ける(ステップA5)。
【0055】
具体的には、クラスタリング部13は、
図4に示すように、まず、オプティカルフロー間の距離を特定し、特定した距離に基づいて、クラスタリングを実行する。次に、クラスタリング部13は、長さ、位置(画面内の座標)、及び向きが、そのクラスタ内のオプティカルフローの平均値から大きく乖離しているオプティカルフローを元のクラスタから除去し、新規に生成したクラスタに登録する。
【0056】
次に、トラッキング部17は、クラスタリングによって得られたクラスタ毎に、各クラスタの位置が、最新の画像データ以外の画像データから予測された位置と重なるかどうかを判定し、重ならないクラスタを、不要なクラスタとして除去する(ステップA6)。
【0057】
次に、続いて、フィルタリング部14は、自車両の進行方向と速度とに基づいて、トラッキング部17から通知された各クラスタの中から、背景を構成する物体に該当するクラスタを特定し、特定したクラスタを除去する(ステップA7)。
【0058】
次に、移動体特定部15は、ステップA6及びA7によって除去されたクラスタ以外のクラスタに基づいて、移動体を特定する(ステップA8)。
【0059】
次に、移動体速度算出部18は、ステップA3によって特定された移動体におけるオプティカルフローの方向及び長さを用いて、移動体検知装置10(自車両)を基準とした、特定された移動体の相対速度を算出する(ステップA9)。
【0060】
その後、移動体特定部15は、ステップA9で移動体の速度が算出されると、それを含む移動体情報を生成し、生成した移動体情報を車両に通知する(ステップA10)。また、ステップA10が実行されると、車両は、メーターパネル等に移動体情報を表示したり、衝突検知処理を行なったりする。
【0061】
以上のように、本実施の形態では、移動体検知装置10は、特徴点のオプティカルフローをクラスタリングし、得られたクラスタから、背景に該当するクラスタを除去することで、移動体を検知している。このため、本実施の形態によれば、移動体と背景を構成する物体とを区別して移動体の検知精度を向上することができる。
【0062】
また、本実施の形態では、トラッキング部17によって、トラッキングが行なわれるので、瞬間的な誤検知が発生した場合に、これに対応できる。更に、トラッキング部17は、トラッキングによって削除したクラスタを、過去のフレームに基づいて復帰させることができるので、何らかの原因によって移動体検知が途切れてしまった場合にも対応できる。
【0063】
[プログラム]
本実施の形態におけるプログラムは、コンピュータに、
図7に示すステップA1〜A10を実行させるプログラムであれば良い。このプログラムをコンピュータにインストールし、実行することによって、本実施の形態における移動体検知装置10と移動体検知方法とを実現することができる。この場合、コンピュータのプロセッサは、特徴点抽出部11、オプティカルフロー特定部12、クラスタリング部13、フィルタリング部14、移動体特定部15、画像取得部16、トラッキング部17、及び移動体速度算出部18として機能し、処理を行なう。また、コンピュータとしては、車両に搭載されているコンピュータ、汎用のコンピュータ、携帯用の情報端末に搭載されているコンピュータ等が挙げられる。
【0064】
また、本実施の形態におけるプログラムは、複数のコンピュータによって構築されたコンピュータシステムによって実行されても良い。この場合は、例えば、各コンピュータが、それぞれ、特徴点抽出部11、オプティカルフロー特定部12、クラスタリング部13、フィルタリング部14、移動体特定部15、画像取得部16、トラッキング部17、及び移動体速度算出部18のいずれかとして機能しても良い。
【0065】
ここで、本実施の形態におけるプログラムを実行することによって、移動体検知装置10を実現するコンピュータの一例について
図8を用いて説明する。
図8は、本発明の実施の形態における移動体検知装置を実現するコンピュータの一例を示すブロック図である。
【0066】
図8に示すように、コンピュータ110は、CPU(Central Processing Unit)111と、メインメモリ112と、記憶装置113と、入力インターフェイス114と、表示コントローラ115と、データリーダ/ライタ116と、通信インターフェイス117とを備える。これらの各部は、バス121を介して、互いにデータ通信可能に接続される。なお、コンピュータ110は、CPU111に加えて、又はCPU111に代えて、GPU(Graphics Processing Unit)、又はFPGA(Field-Programmable Gate Array)を備えていても良い。
【0067】
CPU111は、記憶装置113に格納された、本実施の形態におけるプログラム(コード)をメインメモリ112に展開し、これらを所定順序で実行することにより、各種の演算を実施する。メインメモリ112は、典型的には、DRAM(Dynamic Random Access Memory)等の揮発性の記憶装置である。また、本実施の形態におけるプログラムは、コンピュータ読み取り可能な記録媒体120に格納された状態で提供される。なお、本実施の形態におけるプログラムは、通信インターフェイス117を介して接続されたインターネット上で流通するものであっても良い。
【0068】
また、記憶装置113の具体例としては、ハードディスクドライブの他、フラッシュメモリ等の半導体記憶装置が挙げられる。入力インターフェイス114は、CPU111と、キーボード及びマウスといった入力機器118との間のデータ伝送を仲介する。表示コントローラ115は、ディスプレイ装置119と接続され、ディスプレイ装置119での表示を制御する。
【0069】
データリーダ/ライタ116は、CPU111と記録媒体120との間のデータ伝送を仲介し、記録媒体120からのプログラムの読み出し、及びコンピュータ110における処理結果の記録媒体120への書き込みを実行する。通信インターフェイス117は、CPU111と、他のコンピュータとの間のデータ伝送を仲介する。
【0070】
また、記録媒体120の具体例としては、CF(Compact Flash(登録商標))及びSD(Secure Digital)等の汎用的な半導体記憶デバイス、フレキシブルディスク(Flexible Disk)等の磁気記録媒体、又はCD−ROM(Compact Disk Read Only Memory)などの光学記録媒体が挙げられる。
【0071】
なお、本実施の形態における移動体検知装置10は、プログラムがインストールされたコンピュータではなく、各部に対応したハードウェアを用いることによっても実現可能である。更に、移動体検知装置10は、一部がプログラムで実現され、残りの部分がハードウェアで実現されていてもよい。
【0072】
上述した実施の形態の一部又は全部は、以下に記載する(付記1)〜(付記15)によって実現することができるが、以下の記載に限定されるものではない。
【0073】
(付記1)
車両に取り付けられた撮像装置が出力する画像データから移動体を検知するための装置であって、
前記撮像装置によって設定間隔で出力されてくる前記画像データから、画像中を移動している特徴点を抽出する、特徴点抽出部と、
最新の前記画像データと、それよりも過去に出力された前記画像データとを対比して、抽出された前記特徴点毎に、当該特徴点のオプティカルフローを特定する、オプティカルフロー特定部と、
特定された前記オプティカルフローとその画像上での位置とに基づいて、前記オプティカルフローに対してクラスタリングを行なって、前記オプティカルフローをクラスタに分ける、クラスタリング部と、
前記車両の進行方向及び速度に基づいて、前記クラスタリングによって得られたクラスタの中から、背景を構成する物体に該当するクラスタを除去する、フィルタリング部と、
前記フィルタリング部によるクラスタの除去後の前記クラスタリングの結果を用いて、画像中の移動体を特定する、移動体特定部と、
を備えていることを特徴とする移動体検知装置。
【0074】
(付記2)
前記クラスタリングによって得られた前記クラスタ毎に、当該クラスタの位置が、最新の前記画像データ以外の画像データから予測された位置と重なるかどうかを判定する、トラッキング部を更に備え、
前記移動体特定部が、重なり合うと判定されたクラスタに基づいて、画像中の移動体を特定する、
付記1に記載の移動体検知装置。
【0075】
(付記3)
特定された前記移動体における前記オプティカルフローの方向及び長さを用いて、前記車両を基準とした、特定された前記移動体の速度を算出する、移動体速度算出部を更に備えている、
付記1または2に記載の移動体検知装置。
【0076】
(付記4)
前記クラスタリング部が、複数の前記クラスタ間において、複数の前記クラスタの位置関係と、それぞれの前記オプティカルフローの長さ及び向きとが、設定条件を満たす場合に、複数の前記クラスタを結合して1つのクラスタとする、
付記1〜3のいずれかに記載の移動体検知装置。
【0077】
(付記5)
前記オプティカルフロー特定部が、前記車両の進行方向及び速度に基づいて、特定したオプティカルフローの中から、背景を構成する物体に関連するオプティカルフローを除去する、
付記1〜4のいずれかに記載の移動体検知装置。
【0078】
(付記6)
車両に取り付けられた撮像装置が出力する画像データから移動体を検知するための方法であって、
(a)前記撮像装置によって設定間隔で出力されてくる前記画像データから、画像中を移動している特徴点を抽出する、ステップと、
(b)最新の前記画像データと、それよりも過去に出力された前記画像データとを対比して、抽出された前記特徴点毎に、当該特徴点のオプティカルフローを特定する、ステップと、
(c)特定された前記オプティカルフローとその画像上での位置とに基づいて、前記オプティカルフローに対してクラスタリングを行なって、前記オプティカルフローをクラスタに分ける、ステップと、
(d)前記車両の進行方向及び速度に基づいて、前記クラスタリングによって得られたクラスタの中から、背景を構成する物体に該当するクラスタを除去する、ステップと、
(e)前記(d)のステップによるクラスタの除去後の前記クラスタリングの結果を用いて、画像中の移動体を特定する、ステップと、
を有することを特徴とする移動体検知方法。
【0079】
(付記7)
(f)前記(c)のステップによって得られた前記クラスタ毎に、当該クラスタの位置が、最新の前記画像データ以外の画像データから予測された位置と重なるかどうかを判定する、ステップを更に有し、
前記(e)のステップにおいて、前記(f)のステップで重なり合うと判定されたクラスタに基づいて、画像中の移動体を特定する、
付記6に記載の移動体検知方法。
【0080】
(付記8)
(g)前記(e)のステップで特定された前記移動体における前記オプティカルフローの方向及び長さを用いて、前記車両を基準とした、特定された前記移動体の速度を算出する、ステップを更に有する、
付記6または7に記さいの移動体検知方法。
【0081】
(付記9)
前記(c)のステップにおいて、複数の前記クラスタ間において、複数の前記クラスタの位置関係と、それぞれの前記オプティカルフローの長さ及び向きとが、設定条件を満たす場合に、複数の前記クラスタを結合して1つのクラスタとする、
付記6〜8のいずれかに記載の移動体検知方法。
【0082】
(付記10)
(f)前記(c)のステップの実行前に、前記車両の進行方向及び速度に基づいて、前記(b)のステップで特定したオプティカルフローの中から、背景を構成する物体に関連するオプティカルフローを除去する、ステップを更に有する、
付記6〜9のいずれかに記載の移動体検知方法。
【0083】
(付記11)
コンピュータによって、車両に取り付けられた撮像装置が出力する画像データからの移動体の検知を行なうためのプログラ
ムであって、
前記コンピュータに、
(a)前記撮像装置によって設定間隔で出力されてくる前記画像データから、画像中を移動している特徴点を抽出する、ステップと、
(b)最新の前記画像データと、それよりも過去に出力された前記画像データとを対比して、抽出された前記特徴点毎に、当該特徴点のオプティカルフローを特定する、ステップと、
(c)特定された前記オプティカルフローとその画像上での位置とに基づいて、前記オプティカルフローに対してクラスタリングを行なって、前記オプティカルフローをクラスタに分ける、ステップと、
(d)前記車両の進行方向及び速度に基づいて、前記クラスタリングによって得られたクラスタの中から、背景を構成する物体に該当するクラスタを除去する、ステップと、
(e)前記(d)のステップによるクラスタの除去後の前記クラスタリングの結果を用いて、画像中の移動体を特定する、ステップと、
を実行させ
る、プログラ
ム。
【0084】
(付記12)
前記コンピュータに、
(f)前記(c)のステップによって得られた前記クラスタ毎に、当該クラスタの位置が、最新の前記画像データ以外の画像データから予測された位置と重なるかどうかを判定する、ステップを
更に実行さ
せ、
前記(e)のステップにおいて、前記(f)のステップで重なり合うと判定されたクラスタに基づいて、画像中の移動体を特定する、
付記11に記載の
プログラム。
【0085】
(付記13)
前記コンピュータに、
(g)前記(e)のステップで特定された前記移動体における前記オプティカルフローの方向及び長さを用いて、前記車両を基準とした、特定された前記移動体の速度を算出する、ステップを
更に実行させ
る、
付記11または12に記載の
プログラム。
【0086】
(付記14)
前記(c)のステップにおいて、複数の前記クラスタ間において、複数の前記クラスタの位置関係と、それぞれの前記オプティカルフローの長さ及び向きとが、設定条件を満たす場合に、複数の前記クラスタを結合して1つのクラスタとする、
付記11〜13のいずれかに記載の
プログラム。
【0087】
(付記15)
前記コンピュータに、
(f)前記(c)のステップの実行前に、前記車両の進行方向及び速度に基づいて、前記(b)のステップで特定したオプティカルフローの中から、背景を構成する物体に関連するオプティカルフローを除去する、ステップを
更に実行させ
る、
付記11〜14のいずれかに記載の
プログラム。
【0088】
以上、実施の形態を参照して本願発明を説明したが、本願発明は上記実施の形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
【0089】
この出願は、2017年2月28日に出願された日本出願特願2017−037555を基礎とする優先権を主張し、その開示の全てをここに取り込む。