特許第6558831号(P6558831)IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ KDDI株式会社の特許一覧

特許6558831オブジェクト追跡装置、方法およびプログラム
<>
  • 特許6558831-オブジェクト追跡装置、方法およびプログラム 図000009
  • 特許6558831-オブジェクト追跡装置、方法およびプログラム 図000010
  • 特許6558831-オブジェクト追跡装置、方法およびプログラム 図000011
  • 特許6558831-オブジェクト追跡装置、方法およびプログラム 図000012
  • 特許6558831-オブジェクト追跡装置、方法およびプログラム 図000013
  • 特許6558831-オブジェクト追跡装置、方法およびプログラム 図000014
  • 特許6558831-オブジェクト追跡装置、方法およびプログラム 図000015
  • 特許6558831-オブジェクト追跡装置、方法およびプログラム 図000016
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】6558831
(24)【登録日】2019年7月26日
(45)【発行日】2019年8月14日
(54)【発明の名称】オブジェクト追跡装置、方法およびプログラム
(51)【国際特許分類】
   G06T 7/285 20170101AFI20190805BHJP
【FI】
   G06T7/285
【請求項の数】11
【全頁数】12
(21)【出願番号】特願2016-62076(P2016-62076)
(22)【出願日】2016年3月25日
(65)【公開番号】特開2017-174305(P2017-174305A)
(43)【公開日】2017年9月28日
【審査請求日】2018年3月7日
(73)【特許権者】
【識別番号】000208891
【氏名又は名称】KDDI株式会社
(74)【代理人】
【識別番号】100092772
【弁理士】
【氏名又は名称】阪本 清孝
(74)【代理人】
【識別番号】100119688
【弁理士】
【氏名又は名称】田邉 壽二
(72)【発明者】
【氏名】サビリン ホウアリ
(72)【発明者】
【氏名】内藤 整
【審査官】 佐田 宏史
(56)【参考文献】
【文献】 特開2013−058054(JP,A)
【文献】 特開2016−024534(JP,A)
【文献】 特開2012−093295(JP,A)
【文献】 佐竹 純二、三浦 純,“人物シルエットの重なりを考慮したテンプレートを用いたステレオビジョン複数人物追跡”,日本ロボット学会誌,日本,一般社団法人日本ロボット学会,2013年 4月15日,Vol.31, No.3,pp.78-86
(58)【調査した分野】(Int.Cl.,DB名)
G06T 1/00,7/00−7/90
H04N 7/18
G08B 13/194−13/196,25/00
(57)【特許請求の範囲】
【請求項1】
各ピクセルが奥行情報を有するフレーム画像上でオブジェクトを追跡するオブジェクト追跡装置において、
奥行情報に基づいて各フレーム画像上でオブジェクトを検知する手段と、
今回フレームで検知されたオブジェクトがオクルージョンにより生じた統合オブジェクトであるか否かを判定する手段と、
統合オブジェクトから前回フレームのオブジェクトと奥行情報が類似する部分を追跡対象のオブジェクト部分として分割する手段と、
フレーム画像間で各オブジェクトおよび各オブジェクト部分をその類似度に基づいて追跡する手段とを具備したことを特徴とするオブジェクト追跡装置。
【請求項2】
前記統合オブジェクトであるか否かを判定する手段は、今回フレームで検知されたオブジェクトと前回フレームで検知された複数のオブジェクトとのそれぞれの重畳範囲の面積の割合が所定の閾値以上であると当該今回フレームで検知されたオブジェクトを統合オブジェクトと判定することを特徴とする請求項1に記載のオブジェクト追跡装置。
【請求項3】
前記分割する手段は、統合オブジェクトから、前回フレームの各オブジェクトと奥行情報の配置が類似する各重畳範囲を追跡対象のオブジェクトとして分割することを特徴とする請求項1または2に記載のオブジェクト追跡装置。
【請求項4】
前記奥行情報の配置の類似が、前回フレームの各オブジェクトの奥行情報と今回フレームにおける各重畳範囲の奥行情報とのバタチャリヤ距離に基づいて判定されることを特徴とする請求項3に記載のオブジェクト追跡装置。
【請求項5】
前記追跡する手段は、フレーム画像間での各オブジェクトの類似度をパーティクルフィルタに基づいて計算することを特徴とする請求項1ないし4のいずれかに記載のオブジェクト追跡装置。
【請求項6】
各ピクセルが奥行情報を有するフレーム画像上で、コンピュータがオブジェクトを追跡するオブジェクト追跡方法において、
奥行情報に基づいて各フレーム画像上でオブジェクトを検知する手順と、
今回フレームで検知されたオブジェクトがオクルージョンにより生じた統合オブジェクトであるか否かを判定する手順と、
統合オブジェクトから前回フレームのオブジェクトと奥行情報が類似する部分を追跡対象のオブジェクト部分として分割する手順と、
フレーム画像間で各オブジェクトおよび各オブジェクト部分をその類似度に基づいて追跡する手順とを含むことを特徴とするオブジェクト追跡方法。
【請求項7】
前記統合オブジェクトであるか否かを判定する手順では、今回フレームで検知されたオブジェクトと前回フレームで検知された複数のオブジェクトとのそれぞれの重畳範囲の面積の割合が所定の閾値以上であると当該今回フレームで検知されたオブジェクトを統合オブジェクトと判定することを特徴とする請求項6に記載のオブジェクト追跡方法。
【請求項8】
前記分割する手順では、統合オブジェクトから、前回フレームの各オブジェクトと奥行情報の配置が類似する各重畳範囲を追跡対象のオブジェクトとして分割することを特徴とする請求項6または7に記載のオブジェクト追跡方法。
【請求項9】
各ピクセルが奥行情報を有するフレーム画像上で、コンピュータにオブジェクトを追跡させるオブジェクト追跡プログラムにおいて、
奥行情報に基づいて各フレーム画像上でオブジェクトを検知する手順と、
今回フレームで検知されたオブジェクトがオクルージョンにより生じた統合オブジェクトであるか否かを判定する手順と、
統合オブジェクトから前回フレームのオブジェクトと奥行情報が類似する部分を追跡対象のオブジェクト部分として分割する手順と、
フレーム画像間で各オブジェクトおよび各オブジェクト部分をその類似度に基づいて追跡する手順とを、コンピュータに実行させるためのオブジェクト追跡プログラム。
【請求項10】
前記統合オブジェクトであるか否かを判定する手順では、今回フレームで検知されたオブジェクトと前回フレームで検知された複数のオブジェクトとのそれぞれの重畳範囲の面積の割合が所定の閾値以上であると当該今回フレームで検知されたオブジェクトを統合オブジェクトと判定することを特徴とする請求項9に記載のオブジェクト追跡プログラム。
【請求項11】
前記分割する手順では、統合オブジェクトから、前回フレームの各オブジェクトと奥行情報の配置が類似する各重畳範囲を追跡対象のオブジェクトとして分割することを特徴とする請求項9または10に記載のオブジェクト追跡プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、動画像上で人物のような動くオブジェクトを追跡するオブジェクト追跡装置、方法およびプログラムに係り、特に、人物間オクルージョンにかかわらず頑健かつ高精度の追跡を可能にするオブジェクト追跡装置、方法およびプログラムに関する。
【背景技術】
【0002】
非特許文献1には、デフス(深度)データの統計的特徴に基づいて背景画像を生成し、フレーム画像か背景画像を減じることでオブジェクトを検知するバックグラウンド減算方法が開示されている。非特許文献2には、オブジェクトの重複の有無に基づいてオクルージョンを判断し、オブジェクトを検知、追跡する方法が開示されている。
【0003】
特許文献1には、オブジェクトを具体的に識別可能なRGBカラー映像を用いることなく、オブジェクトを具体的に識別できない奥行映像のみを用いてオブジェクトを追跡する技術が開示されている。
【0004】
特許文献2には、各オブジェクトの輪郭に沿ったオブジェクト曲線をフレーム間で比較して各オブジェクトを対応付けることにより、オクルージョン後における各オブジェクトの移動方向がオクルージョン前の移動ベクトルから予測し得ないような場合もオブジェクトの正確な追跡を可能にする技術が開示されている。
【先行技術文献】
【特許文献】
【0005】
【特許文献1】特願2014-198941号
【特許文献2】特願2015-038594号
【非特許文献】
【0006】
【非特許文献1】S. H. Cho, K. Bae, K. M. Kyung, S. Jeong, and T. C. Kim, "Background Subtraction Based Object Extraction for Time-of-Flight Sensor," in Proc. IEEE 2nd Global Conf. on Consumer Electronics, pp. 48-89, 2013.
【非特許文献2】H. Sabirin, H. Sankoh, and S. Naito, "Utilizing attributed graph representation in object detection and tracking for indoor range sensor surveillance cameras," IEICE Transactions on Information and Systems 98 (12), pp. 2299-2307, 2015.
【発明の概要】
【発明が解決しようとする課題】
【0007】
上記の従来技術では、図8に示したように、オクルージョンの発生前に検知された各オブジェクトA,Bと発生後に検知された各オブジェクトa,bとの類似度に基づいて追跡が行われる。しかしながら、オブジェクトが人間のような動物体であると、オクルージョン期間中に姿勢や向きが大きく変化することがあり、特にオクルージョン期間が長くなると、その前後で画像特徴が大きく変化してしまい、オクルージョンの前後で同一オブジェクトが抽出されているのみかかわらず両者を対応付けることができず、さらには誤った対応付けが行われ得るという技術課題があった。
【0008】
本発明の目的は、上記の技術課題を解決し、オクルージョン期間中の各オブジェクトの姿勢や向きの変化にかかわらず、オクルージョンの発生前後で各オブジェクトを正確に対応付けられるオブジェクト追跡装置、方法およびプログラムを提供することにある。
【課題を解決するための手段】
【0009】
上記の目的を達成するために、本発明は、各ピクセルが奥行情報を有するフレーム画像上でオブジェクトを追跡するオブジェクト追跡装置において、以下の構成を具備した点に特徴がある。
【0010】
(1) 奥行情報に基づいて各フレーム画像上でオブジェクトを検知する手段と、今回フレームで検知されたオブジェクトがオクルージョンにより生じた統合オブジェクトであるか否かを判定する手段と、統合オブジェクトから前回フレームで検知されているオブジェクトに類似する部分を追跡対象のオブジェクトとして分割する手段と、フレーム画像間で各オブジェクトをその類似度に基づいて追跡する手段とを具備した。
【0011】
(2) 統合オブジェクトであるか否かを判定する手段は、今回フレームで検知されたオブジェクトと前回フレームで検知された複数のオブジェクトとのそれぞれの重畳範囲の面積の割合が所定の閾値以上であると当該今回フレームで検知されたオブジェクトを統合オブジェクトと判定するようにした。
【0012】
(3) 分割する手段は、統合オブジェクトから前回フレームで検知された各オブジェクトと奥行情報の配置が類似する各重畳範囲を追跡対象のオブジェクトとして分割するようにした。
【発明の効果】
【0013】
本発明によれば、以下のような効果が達成される
【0014】
(1) オクルージョン期間の前後でオブジェクトの向きや姿勢が大きく変化するような場合であっても、フレーム単位でみれば変化量は十分に小さいので類似度判断に与える影響は小さい。したがって、オクルージョン期間中は統合オブジェクトから各オブジェクトに相当する部分を分割し、各部分を一つのオブジェクトとして追跡を継続することにより、オクルージョン期間の長短にかかわらず頑健かつ高精度のオブジェクト追跡が可能になる。
【0015】
(2) オクルージョンの発生を、今回フレームで検知されたオブジェクトと前回フレームで検知された複数のオブジェクトとの重畳範囲の面積の割合に基づいて判断するようにしたので、フレーム間でのオブジェクト数の変化に基づいて判断する従来技術方式に比べて確度の高い判断が可能になる。
【図面の簡単な説明】
【0016】
図1】本発明の一実施形態に係るオブジェクト追跡装置の主要部の構成を示した機能ブロック図である。
図2】オブジェクトの検知方法を示した図である。
図3】矩形領域の設定例を示した図である。
図4】オブジェクトの移動軌跡の表示例を示した図である。
図5】本発明の一実施形態の動作を示したフローチャートである。
図6】オブジェクトの矩形領域の重なり面積に基づいてオクルージョン関係を判定する方法を模式的に示した図である。
図7】統合オブジェクトから分割した部分をオブジェクトとして追跡する方法を模式的に表現した示した図である。
図8】従来技術の課題を説明するための図である。
【発明を実施するための形態】
【0017】
以下、図面を参照して本発明の実施の形態について詳細に説明する。図1は、本発明の一実施形態に係るオブジェクト追跡装置の主要部の構成を示した機能ブロック図であり、ここでは、本発明の説明に不要な構成は図示が省略されている。
【0018】
オブジェクト検知部10は、図2に示したように、オブジェクトを具体的に識別できない奥行データのみの映像(奥行映像)の各フレーム画像上で各オブジェクトを検知する。本実施形態では、オブジェクトが存在しない環境下で撮影した背景画像を蓄積しておき、奥行映像の各フレームと前記背景画像との差分が所定の閾値以上となる閉領域がオブジェクトとして検知される。
【0019】
矩形領域設定部20は、図3に一例を示したように、各オブジェクトに対して、その輪郭に外接する矩形の領域(矩形領域)を設定する。オクルージョン判定部30は重畳面積計算部30aを含み、後に詳述するように、検知された各オブジェクトの矩形領域同士が重なる重畳範囲の面積の割合に基づいてオクルージョンの有無を判定する。
【0020】
ID割当実行部40は、統合オブジェクト分割部40aおよびオブジェクト対応付け部処理部40bを含み、前回フレームで検知されたオブジェクトと今回フレームで検知されたオブジェクトとをその類似度に基づいて対応付け、今回フレームのオブジェクトに前回フレームの対応するオブジェクトのIDを割り当てる。
【0021】
前記統合オブジェクト分割部40aは、オクルージョンにより複数のオブジェクトが統合したオブジェクト(統合オブジェクト)から、オクルージョン前の各オブジェクトと奥行情報の配置が類似する各重畳範囲を追跡対象のオブジェクトとして分割する。
【0022】
前記オブジェクト対応付け部40bは、オクルージョンの新たな発生が検知されると、統合オブジェクトから分割した各オブジェクトを統合前の各オブジェクトと対応付ける第1機能、オクルージョン期間中に前回フレームの統合オブジェクトから分割した各オブジェクトを今回フレームの統合オブジェクトから分割した各オブジェクトと対応付ける第2機能、および前回フレームで統合オブジェクトから分割した各オブジェクトをオクルージョン解消後に各オブジェクトと対応付ける第3機能を備え、対応するオブジェクトに同一IDを割り当てる。
【0023】
動線表示部50は、図4に示したように、フレーム間で同一IDを割り当てられたオブジェクトを同一オブジェクトとみなして、各オブジェクトの移動軌跡をディスプレイ上に表示する。本実施形態では、各オブジェクトが丸印のシンボルマークで表現され、色を異ならせて表示される。
【0024】
このようなオブジェクト追跡装置は、汎用のコンピュータやサーバに各機能を実現するアプリケーション(プログラム)を実装することで構成できる。あるいはアプリケーションの一部がハードウェア化またはROM化された専用機や単能機としても構成できる。
【0025】
図5は、本発明に係るオブジェクトの追跡方法および追跡プログラムの一実施形態の動作を示したフローチャートであり、ステップS1では、ピクセル単位でデプス値を有する奥行映像がフレーム単位で取り込まれる。なお、奥行映像を撮影するカメラが複数存在する場合には複数のフレーム画像が取り込まれる。
【0026】
ステップS2では、フレーム画像と予め生成されている背景画像との差分データが2D座標系上に投影される。このとき、複数のカメラからフレーム画像を取得するのであれば、投影マトリックスを生成するためのカメラ較正プロセスが予め実行される。
【0027】
ステップS3では、当該2D座標上でデプス値に基づくクラスタリングがピクセル単位で実行される。ステップS4では、前記クラスタリングの結果に基づいて、今回フレームから各オブジェクトが検知される。ステップS5では、前回フレームで検知された各オブジェクトと今回フレームで検知された各オブジェクトとの類似度が総当たりで計算され、類似度のより高いオブジェクト同士が相互に対応付けられる。
【0028】
ステップS6では、各オブジェクトに外接する矩形領域が設定され、各矩形領域同士の重畳範囲の面積の割合が算出される。ステップS7では、重畳面積の割合が所定の条件を満足するオブジェクト同士がオクルージョン関係にあると判定される。
【0029】
図6は、各オブジェクトの矩形領域の重畳面積の割合に基づいてオクルージョンの発生を判定する方法を模式的に示した図である。
【0030】
本実施形態では、前回フレームで検知されたオブジェクトと、今回フレームで検知されたオブジェクトとの矩形領域の重なりが判断される。その結果、同図(a)に示したように、前回フレームで検知されたオブジェクトA,Bの各矩形領域Ka,Kbと、今回フレームで検知されたオブジェクトCの矩形領域Kcとの重畳範囲の面積の割合がいずれも50パーセント以上であれば、オブジェクトCは2つのオブジェクトA,Bのオクルージョンにより生じた統合オブジェクトであると判断される。
【0031】
これに対して、同図(b)に示したように、前回フレームで検知されたオブジェクトA,Bの各矩形領域Ka,Kbと今回フレームで検知されたオブジェクトCの矩形領域Kcとの重畳が検知されても、重畳範囲の面積の割合が50パーセント以上の組み合わせが一つのみ(ここでは、オブジェクトA,Dの組み合わせのみ)であればオクルージョン状態とは判定されない。
【0032】
また、同図(c)に示したように、前回フレームで検知されたオブジェクトAの矩形領域Kaと今回フレームで検知されたオブジェクトFの矩形領域Kfとの重畳範囲の面積の割合が50パーセント以上であっても、それが一つのみであればオクルージョン状態とは判定されない。
【0033】
以上のオクルージョン判定により、オクルージョン状態ではないと判定された今回フレームのオブジェクトに関してはステップS8へ進み、類似度が高かった前回フレームのオブジェクトのIDが付与される。これに対して、オクルージョン状態であると判定された統合オブジェクトに関してはステップS9へ進み、統合オブジェクトが各ピクセルのデプス値に基づいて分割される。
【0034】
本実施形態では、n個のオブジェクトのオクルージョンにより生じた統合オブジェクトであれば、その領域内にデプス値の分布が異なるn個の領域が混在しているとの考察に基づいて、統合オブジェクトから各ピクセルのデプス値に基づいて複数の部分を分割して新たな追跡対象のオブジェクトとする。
【0035】
ここでは初めに、前回フレームで検知されている統合前の各オブジェクトおよび今回フレームにおける重畳範囲に関して、次式(1)〜(4)で表されるデプスモデルxが生成される。ここで、変数aは統合前の各オブジェクトまたは重畳範囲に外接する矩形領域の幅wおよび高さhの関数であり、変数cは幅wおよび高さhの中心位置(座標)であり、変数dは各ピクセルのデプス値の関数である。
【0036】
【数1】
【0037】
次いで、統合前の各オブジェクトのデプス値に関する分布と今回フレームにおける重畳範囲のデプス値に関する分布との類似性を判断するために、次式(5)のバッタチャリャ距離(Bhattacharyya distance:距離尺度)Bが計算される。
【0038】
【数2】
【0039】
ここで、σi,μiは今回フレームにおける重畳範囲のデプス値の分散および算術平均(中央値)であり、σj,μjは前回フレームで検知されたオブジェクトのデプス値の分散および算術平均(中央値)である。そして、今回フレームにおける各重畳範囲のうち、前回フレームで検知されている統合前の各オブジェクトとのバッタチャリャ距離Bの近い重畳範囲が統合オブジェクトから分割されて新たな追跡対象のオブジェクトとされる。
【0040】
ステップS10では、前回フレームで検知されている統合前の各オブジェクトと今回フレームにおける各オブジェクトとの類似度が総当たりで比較される。ステップS11では、各オブジェクトに対して、類似度が最も高い統合前の各オブジェクトのIDが割り当てられる。ステップS12では、各オブジェクトの動線(軌跡)が表示出力される。
【0041】
図7は、統合オブジェクトから分割した部分のオクルージョン発生からその解消までの期間における追跡方法を模式的に表現した示した図である。
【0042】
本実施形態では、時刻t0で検知された2つのオブジェクトA,Bがオクルージョンにより一つのオブジェクトCに統合されると、時刻t1では、この統合オブジェクトCから各オブジェクトA,Bと類似する上側部分Kaと下側部分Kbが分割される。
【0043】
各部分Ka,Kbは、それぞれ統合前の各オブジェクトA,Bと類似するはずなので、オブジェクトCの各部分Ka,Kbには、それぞれオブジェクトAの識別子IDa,オブジェクトBの識別子IDbが割り当てられて今後の追跡対象とされる。統合オブジェクトCについては追跡対象から除外される。
【0044】
次の時刻t2では、今回フレームで検知された統合オブジェクトCから、前回フレームにおいて分割された各部分に相当するオブジェクトKa,Kbと類似する右側部分および左側部分が分割され、それぞれにオブジェクトKaの識別子IDaおよびオブジェクトKbの識別子IDbが割り当てられて今後の追跡対象とされる。統合オブジェクトCについては追跡対象から除外される。
【0045】
次の時刻t3では、今回フレームで検知された統合オブジェクトCから、前回フレームにおいて分割された各部分に相当するオブジェクトKa,Kbと類似する下側部分および上側部分が分割され、それぞれにオブジェクトKaの識別子IDaおよびオブジェクトKbの識別子IDbが割り当てられて今後の追跡対象とされる。統合オブジェクトCについては追跡対象から除外される。
【0046】
その後、統合オブジェクトCのオクルージョンが解消してオブジェクトA,Bが独立して検知されると、時刻t4では、前回フレームで分割された下側部分に相当するオブジェクトKaおよび上側部分に相当するオブジェクトKbが、それぞれオブジェクトA,Bと対応付けられるので、オブジェクトAには識別子IDa,オブジェクトBには識別子IDbを正しく割り当てることが可能になる。
【0047】
オブジェクトの追跡は前記デプスモデルxを用いたパーティクルフィルタに基づいて実行される。本実施形態では、次式(6)に示したように、前回フレームのオクルージョン状態ンではないオブジェクトが重み付けされた標準サンプルとされる。
【0048】
【数3】
【0049】
デプス類似モデルの重み要素Δは、観察対象フレームZ0〜Zt-1を用いて次式(7)で与えられる。
【0050】
【数4】
【0051】
ここでは、次式(8)に示したように、最大で5つの前回フレームを観察してオブジェクト追跡を行う場合について説明する。
【0052】
【数5】
【0053】
Dは次式(9)で与えられ、現在のオブジェクトと参照フレームのオブジェクトとの、上式(1)に基づいて計算されるデプスモデルの類似性の計測結果である。類似性は重心のユークリッド距離と各オブジェクトの深さとに基づいて計算される。
【0054】
【数6】
【0055】
ここでは、追跡において離れた一対のオブジェクトが誤って対応付けられないように重心に高い得点を与えるために、定数α=0.5、β=0.1に決定される。現在のオブジェクトのデプス値の分散σは、検知されたオブジェクト間の距離の範囲内であるように、類似性測定においてデプス値コンポーネントと呼ばれる。このように、追跡はtAVGフレームのオブジェクトの重心との距離が最小となるオブジェクトを現在フレームt内で見つけることである。
【0056】
【数7】
【0057】
ここで、Iは基準フレーム内で検知されたオブジェクト数(5つのフレームでの平均)である。したがって、フレームtのj番目のオブジェクトにはフレームtAVG内でcが最小値を与えるオブジェクトのラベルLが割り当てられる。
【0058】
以上、本発明の実施形態に係るオブジェクト追跡装置について説明したが、本発明はこれのみに限定されるものではなく、当該オブジェクト追跡装置と同様の処理を行うオブジェクト追跡方法であっても良いし、コンピュータに当該追跡方法を実行させるためのオブジェクト追跡プログラムであっても良い。
【符号の説明】
【0059】
10…オブジェクト検知部,20…矩形領域設定部,30…オクルージョン判定部,30a…面積計算部,40…ID割当実行部,40a…統合オブジェクト分割部,40b…オブジェクト対応付け部,50…動線表示部
図1
図2
図3
図4
図5
図6
図7
図8