(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2022-12-09
(45)【発行日】2022-12-19
(54)【発明の名称】オンライン学習を利用した物体追跡のための方法およびシステム
(51)【国際特許分類】
G06T 7/00 20170101AFI20221212BHJP
【FI】
G06T7/00 350B
(21)【出願番号】P 2021549487
(86)(22)【出願日】2020-02-11
(86)【国際出願番号】 KR2020001866
(87)【国際公開番号】W WO2020175818
(87)【国際公開日】2020-09-03
【審査請求日】2021-08-23
(31)【優先権主張番号】10-2019-0023916
(32)【優先日】2019-02-28
(33)【優先権主張国・地域又は機関】KR
(73)【特許権者】
【識別番号】505205812
【氏名又は名称】ネイバー コーポレーション
【氏名又は名称原語表記】NAVER Corporation
(74)【代理人】
【識別番号】100107766
【氏名又は名称】伊東 忠重
(74)【代理人】
【識別番号】100070150
【氏名又は名称】伊東 忠彦
(74)【代理人】
【識別番号】100135079
【氏名又は名称】宮崎 修
(72)【発明者】
【氏名】カン,ミョング
(72)【発明者】
【氏名】ウィ,ドンユン
(72)【発明者】
【氏名】ペ,スンミン
【審査官】片岡 利延
(56)【参考文献】
【文献】特開2017-117139(JP,A)
【文献】特開2006-343791(JP,A)
【文献】特開2016-066187(JP,A)
【文献】特開2017-010224(JP,A)
【文献】Liang Zheng et al.,MARS: A Video Benchmark for Large-ScalePerson Re-Identification,[online],2016年09月17日,https://link.springer.com/chapter/10.1007/978-3-319-46466-4_52
(58)【調査した分野】(Int.Cl.,DB名)
G06T 7/00
(57)【特許請求の範囲】
【請求項1】
コンピュータシステムが実行する物体追跡方法であって、
前記コンピュータシステムは、メモリに含まれるコンピュータ読み取り可能な命令を実行するように構成された少なくとも1つのプロセッサを含み、
前記物体追跡方法は、
前記少なくとも1つのプロセッサにより、グローバルパターンマッチングを利用して分類器モデルを学習
させる段階、および
前記少なくとも1つのプロセッサにより、前記分類器モデルを含んだオンライン学習によって各ターゲットを分類して追跡する段階
を含
み、
前記学習させる段階は、
入力ビデオの連続する区間全体からすべてのターゲットが存在する有効区間を区分する段階、
前記有効区間のうちの最も長い有効区間をラベリングした後、学習データを生成して前記分類器モデルを学習させる段階、および
2番目に長い有効区間をラベリングした後、学習データを生成して以前に生成された学習データと併合して累積した学習データを生成して前記分類器モデルを繰り返し学習させる段階
を含む、
物体追跡方法。
【請求項2】
前記学習
させる段階は、
各ターゲットを分類する分類器が追加された学習モデルを利用して各ターゲットのグローバルパターンを学習
させる段階
を含む、請求項1に記載の物体追跡方法。
【請求項3】
前記学習
させる段階は、
サンプルマイニングによって時間軸とともに累積する各ターゲットの学習データを生成し、累積した学習データを利用して前記分類器モデルを繰り返し学習させる段階
を含む、請求項1に記載の物体追跡方法。
【請求項4】
前記ラベリングは、ターゲットのグローバルパターンによる外観ファクタに基づいて計算された前記分類器モデルの類似度マトリックスを利用する
請求項
1に記載の物体追跡方法。
【請求項5】
前記学習
させる段階は、
前記有効区間以外の区間に対し、前記有効区間によって学習された前記分類器モデルを利用してラベリングを実行する段階
をさらに含む、請求項
1に記載の物体追跡方法。
【請求項6】
前記追跡する段階は、
入力ビデオのすべてのフレームに対してターゲットの位置を検出して各ターゲットのキーポイントの座標を求める段階、
各ターゲットのキーポイントの座標を利用して隣接するフレームのターゲット間のマッチングスコアを求める段階、および
前記ターゲット間のマッチングスコアを基準としてフレーム間の姿勢マッチングを実行する段階
を含む、請求項1に記載の物体追跡方法。
【請求項7】
請求項1~
6のうちのいずれか一項に記載の物体追跡方法をコンピュータに実行させるためのプログラムが記録されている、コンピュータ読み取り可能な記録媒体。
【請求項8】
コンピュータシステムであって、
メモリ、および
前記メモリと連結し、前記メモリに含まれるコンピュータ読み取り可能な命令を実行するように構成された少なくとも1つのプロセッサ
を含み、
前記少なくとも1つのプロセッサは、
グローバルパターンマッチングを利用して分類器モデルを学習させる過程、および
前記分類器モデルを含んだオンライン学習によって各ターゲットを分類して追跡する過程
を処理
し、
前記学習させる過程は、
入力ビデオの連続する区間全体からすべてのターゲットが存在する有効区間を区分する過程、
前記有効区間のうちの最も長い有効区間をラベリングした後、学習データを生成して前記分類器モデルを学習させる過程、および
2番目に長い有効区間をラベリングした後、学習データを生成して以前に生成された学習データと併合して累積した学習データを生成して前記分類器モデルを繰り返し学習させる過程
を含む、
コンピュータシステム。
【請求項9】
前記学習
させる過程は、
各ターゲットを分類する分類器が追加された学習モデルを利用して各ターゲットのグローバルパターンを学習
させる
請求項
8に記載のコンピュータシステム。
【請求項10】
前記学習
させる過程は、
サンプルマイニングによって時間軸とともに累積する各ターゲットの学習データを生成し、累積した学習データを利用して前記分類器モデルを繰り返し学習させる
請求項
8に記載のコンピュータシステム。
【請求項11】
前記ラベリングは、ターゲットのグローバルパターンによる外観ファクタに基づいて計算された前記分類器モデルの類似度マトリックスを利用する
請求項
8に記載のコンピュータシステム。
【請求項12】
前記学習
させる過程は、
前記有効区間以外の区間に対し、前記有効区間によって学習された前記分類器モデルを利用してラベリングを実行する過程
をさらに含む、請求項
8に記載のコンピュータシステム。
【請求項13】
前記追跡する過程は、
入力ビデオのすべてのフレームに対してターゲットの位置を検出して各ターゲットのキーポイントの座標を求める過程、
各ターゲットのキーポイントの座標を利用して隣接するフレームのターゲット間のマッチングスコアを求める過程、および
前記ターゲット間のマッチングスコアを基準としてフレーム間の姿勢マッチングを実行する過程
を含む、請求項
8に記載のコンピュータシステム。
【発明の詳細な説明】
【技術分野】
【0001】
以下の説明は、物体追跡(object tracking)技術に関する。
【背景技術】
【0002】
物体の姿勢推定は、コンピュータビジョン、マンマシンインタフェース、およびその他の関連領域において重要な内容である。例えば、推定される物体をユーザの頭と見なせば、ユーザの頭の連続的な姿勢を推定することにより、ユーザが表現したい豊かな個性化情報を知ることができるようになる。また、物体(例えば、頭)の姿勢推定の結果は、マンマシンインタフェースを実行するために使用することもできるが、例えば、頭の姿勢を推定することによってユーザの視線焦点を得ることができ、より効果的なマンマシンインタフェースをサポートすることができる。
【0003】
物体姿勢推定技術の一例として、特許文献1(公開日2008年8月12日)には、入力ビデオ映像から物体の動きをリアルタイムで自動追跡して物体の姿勢を判断する技術が開示されている。
【0004】
現在使用されている物体姿勢推定方法は、一般的には、追跡(tracking)に基づく方法と学習に基づく方法とに分けられる。
【0005】
追跡に基づく方法は、ビデオシーケンスにある現在フレーム(Current Frame)と前フレーム(Previous Frame)との間に1つの対(paired)マッチング方法によって物体の姿勢を推定する。
【0006】
学習に基づく方法は、一般的に、物体姿勢推定を分類(classify)方式または復帰方式として定義し、ラベルを含むサンプルを利用したトレーニングによって得られたトレーニングモデルを利用して物体の姿勢を推定する。
【先行技術文献】
【特許文献】
【0007】
【文献】韓国特許出願公開第10-2008-0073933号公報
【発明の概要】
【発明が解決しようとする課題】
【0008】
各ターゲットのID(識別番号)を分類する分類器(classifier)が追加されたオンライン学習モデルを利用して各ターゲットのグローバルパターン(global pattern)を学習することを提供する。
【0009】
時間軸とともに累積する各ターゲットの学習データを生成し、これを利用して分類器モデルを学習することを提供する。
【0010】
ローカルパターン(local pattern)によるモーションファクタ(motion factor)とグローバルパターンによる外観ファクタ(appearance factor)を追跡にともに利用することを提供する。
【課題を解決するための手段】
【0011】
コンピュータシステムが実行する物体追跡方法であって、前記コンピュータシステムは、メモリに含まれるコンピュータ読み取り可能な命令を実行するように構成された少なくとも1つのプロセッサを含み、前記物体追跡方法は、前記少なくとも1つのプロセッサにより、グローバルパターンマッチング(global pattern matching)を利用して分類器(classifier)モデルを学習する段階、および前記少なくとも1つのプロセッサにより、前記分類器モデルを含んだオンライン学習によって各ターゲットを分類して追跡する段階を含む、物体追跡方法を提供する。
【0012】
一側面によると、前記学習する段階は、各ターゲットを分類する分類器が追加された学習モデルを利用して各ターゲットのグローバルパターンを学習する段階を含んでよい。
【0013】
他の側面によると、前記学習する段階は、サンプルマイニング(sample mining)によって時間軸とともに累積する各ターゲットの学習データを生成し、累積した学習データを利用して前記分類器モデルを繰り返し学習する段階を含んでよい。
【0014】
また他の側面によると、前記学習する段階は、入力ビデオの連続する区間全体からターゲットが存在する有効区間(valid period)を区分する段階、前記有効区間のうちのいずれか1つの有効区間をラベリングした後に学習データを生成して前記分類器モデルを学習する段階、および次の有効区間のラベリングの後に学習データを生成して以前に生成された学習データと併合し、累積した学習データを生成して前記分類器モデルを繰り返し学習する段階を含んでよい。
【0015】
また他の側面によると、前記ラベリングは、ターゲットのグローバルパターンによる外観ファクタ(appearance factor)に基づいて計算された前記分類器モデルの類似度マトリックスを利用してよい。
【0016】
また他の側面によると、前記学習する段階は、前記有効区間以外の無効区間(invalid period)に対し、前記有効区間に学習された前記分類器モデルを利用してラベリングを実行する段階をさらに含んでよい。
【0017】
また他の側面によると、前記追跡する段階は、入力ビデオのすべてのフレームに対してターゲットの位置を検出して各ターゲットのキーポイント(keypoint)の座標を求める段階、各ターゲットのキーポイントの座標を利用して隣接するフレームにおけるターゲット間のマッチングスコア(matchings core)を求める段階、および前記ターゲット間のマッチングスコアを基準としてフレーム間の姿勢マッチングを実行する段階を含んでよい。
【0018】
また他の側面によると、前記姿勢マッチングを実行する段階は、ターゲットの位置を示すボックスに対するモーションファクタ(motion factor)に基づいて計算された類似度マトリックスを利用して前記姿勢マッチングを実行してよい。
【0019】
また他の側面によると、前記マッチングスコアは、前フレームでのターゲットと次フレームでのターゲット間の近さ程度を示してよい。
【0020】
また他の側面によると、前記追跡する段階は、ターゲットの位置を示す境界ボックスに基づくエラー測定によって前記姿勢マッチングのエラーを除去する過程、補間法(interpolation)を利用して前記姿勢マッチングのエラーを補正する過程、および移動平均(moving average)に基づいて前記姿勢マッチングに対する平滑化(smoothing)を実行する過程のうちの少なくとも1つの後処理過程を実行する段階をさらに含んでよい。
【0021】
前記物体追跡方法をコンピュータに実行させるためのプログラムが記録されていることを特徴とする、コンピュータ読み取り可能な記録媒体を提供する。
【0022】
コンピュータシステムであって、メモリ、および前記メモリと連結し、前記メモリに含まれるコンピュータ読み取り可能な命令を実行するように構成された少なくとも1つのプロセッサを含み、前記少なくとも1つのプロセッサは、グローバルパターンマッチングを利用して分類器モデルを学習する過程、および前記分類器モデルを含んだオンライン学習によって各ターゲットを分類して追跡過程を処理する、コンピュータシステムを提供する。
【発明の効果】
【0023】
本発明の実施形態によると、各ターゲットのIDを分類する分類器が追加されたオンライン学習モデルを利用することで、各ターゲットのグローバルパターンを学習することができる。
【0024】
本発明の実施形態によると、時間軸とともに累積する各ターゲットの学習データを生成し、これを利用して分類器モデルを学習することができる。
【0025】
本発明の実施形態によると、ローカルパターンによるモーションファクタとグローバルパターンによる外観ファクタを追跡にともに利用することができる。
【図面の簡単な説明】
【0026】
【
図1】本発明の一実施形態における、コンピュータシステムの内部構成の一例を説明するためのブロック図である。
【
図2】本発明の一実施形態における、コンピュータシステムのプロセッサが含むことのできる構成要素の例を示した図である。
【
図3】本発明の一実施形態における、コンピュータシステムが実行することのできる物体追跡方法の例を示したフローチャートである。
【
図4】本発明の一実施形態における、ターゲットのキーポイント座標を求める過程の例を示した図である。
【
図5】本発明の一実施形態における、領域間の重畳程度を示すIoUの測定の例を示した図である。
【
図6】本発明の一実施形態における、ターゲットのグローバルパターンを学習する過程の例を示した図である。
【
図7】本発明の一実施形態における、ターゲットのグローバルパターンを学習する過程の例を示した図である。
【発明を実施するための形態】
【0027】
以下、本発明の実施形態について、添付の図面を参照しながら詳しく説明する。
【0028】
本発明の実施形態は、オンライン学習モデルを利用して物体位置を追跡する技術に関する。
【0029】
本明細書に具体的に開示される事項などを含む実施形態は、各ターゲットのIDを分類する分類器が追加されたオンライン学習モデルを利用して各パターンのグローバルパターンを学習することができ、これにより、正確性、効率性、費用節減などの側面において相当な長所を達成することができる。
【0030】
図1は、本発明の一実施形態における、コンピュータシステムの内部構成の一例を説明するためのブロック図である。例えば、本発明の実施形態に係る物体追跡システムは、
図1のコンピュータシステム100によって実現されてよい。
【0031】
図1に示すように、コンピュータシステム100は、物体追跡方法を実行するための構成要素として、プロセッサ110、メモリ120、永続的記録装置130、バス140、入力/出力インタフェース150、ネットワークインタフェース160を含んでよい。
【0032】
プロセッサ110は、物体追跡のための構成要素として、命令語のシーケンスを処理することのできる任意の装置を含んでもよいし、その一部であってもよい。プロセッサ110は、例えば、コンピュータプロセッサ、移動装置または他の電子装置内のプロセッサ、および/またはデジタルプロセッサを含んでよい。プロセッサ110は、例えば、サーバコンピューティングデバイス、サーバコンピュータ、一連のサーバコンピュータ、サーバファーム、クラウドコンピュータ、コンテンツプラットフォームなどに含まれてよい。プロセッサ110は、バス140を介してメモリ120に接続してよい。
【0033】
メモリ120は、コンピュータシステム100によって使用されるか、コンピュータシステム100から出力される情報を記録するための揮発性メモリ、永続的メモリ、仮想メモリ、またはその他のメモリを含んでよい。メモリ120は、例えば、RAM(random access memory)および/またはDRAM(Dynamic RAM)を含んでよい。メモリ120は、コンピュータシステム100の状態情報のような任意の情報を記録するために使用されてよい。メモリ120は、例えば、物体追跡のための命令語を含むコンピュータシステム100の命令語を記録するために使用されてもよい。コンピュータシステム100は、必要な場合あるいは適切な場合に1つ以上のプロセッサ110を含んでよい。
【0034】
バス140は、コンピュータシステム100の多様なコンポーネントの相互作用を可能にする通信基盤の構造を含んでよい。バス140は、例えば、コンピュータシステム100のコンポーネント間に、例えば、プロセッサ110とメモリ120の間にデータを運搬してよい。バス140は、コンピュータシステム100のコンポーネント間の無線および/または有線通信媒体を含んでよく、並列、直列、または他のトポロジ配列を含んでよい。
【0035】
永続的記録装置130は、(例えば、メモリ120に比べて)所定の延長された区間のデータを保存するためにコンピュータシステム100によって使用されるもののようなメモリまたは他の永続的記録装置のようなコンポーネントを含んでよい。永続的記録装置130は、コンピュータシステム100内のプロセッサ110によって使用されるもののような不揮発性メインメモリを含んでよい。永続的記録装置130は、例えば、フラッシュメモリ、ハードディスク、光ディスク、または他のコンピュータ読み取り可能媒体を含んでよい。
【0036】
入力/出力インタフェース150は、キーボード、マウス、音声命令入力、ディスプレイ、または他の入力または出力装置に対するインタフェースを含んでよい。構成命令および/または物体追跡のための入力は、入力/出力インタフェース150に受信されてよい。
【0037】
ネットワークインタフェース160は、近距離ネットワークまたはインターネットのようなネットワークに対する1つ以上のインタフェースを含んでよい。ネットワークインタフェース160は、有線または無線接続に対するインタフェースを含んでよい。構成命令および/または物体追跡のための入力は、ネットワークインタフェース160に受信されてよい。
【0038】
また、他の実施形態において、コンピュータシステム100は、
図1の構成要素よりも多くの構成要素を含んでもよい。しかし、大部分の従来技術の構成要素を明確に図に示す必要はない。例えば、コンピュータシステム100は、上述した入力/出力インタフェース150と連結する入力/出力装置のうちの少なくとも一部を含むように実現されてもよいし、トランシーバ、GPS(Global Positioning System)モジュール、カメラ、各種センサ、データベースなどのような他の構成要素をさらに含んでもよい。
【0039】
実際の映像で物体追跡を実行する場合、他の物体によって物体が隠れたり(occlusion)、速い動きによって物体にぶれが生じたりすることによって適切な比較がなされず、同じ物体であっても異なる物体として認識されるという問題が発生することがある。
【0040】
このような理由により、既存の物体追跡に利用される姿勢推定(pose estimation)は、正確度が100%でなく、ローカルパターンをもつ類似位置によって推定がなされるしかなかった。これにより、ターゲットのIDがシフト(shift)されるという問題が起こるようになり、このような小さなエラーが積み重なることによってターゲット物体から遠ざかる結果をもたらしていた。
【0041】
本発明では、グローバルパターンマッチングを利用したオンライン学習モデルを利用することにより、ターゲット物体をより正確に追跡できるようにする。
【0042】
本明細書では人物追跡を代表的な例として説明しているが、これに限定されてはならず、人物の他にも、各種事物や他の種類の物体を対象にして適用することも可能である。
【0043】
図2は、本発明の一実施形態における、コンピュータシステムのプロセッサが含むことのできる構成要素の例を示した図であり、
図3は、本発明の一実施形態における、コンピュータシステムが実行することのできる物体追跡方法の例を示したフローチャートである。
【0044】
図2に示すように、プロセッサ110は、推定部210、類似度計算部220、マッチング部230、後処理部240、および位置提供部250を含んでよい。このようなプロセッサ110の構成要素は、少なくとも1つのプログラムコードによって提供される制御命令にしたがってプロセッサ110によって実行される互いに異なる機能(different functions)の表現であってよい。例えば、プロセッサ110が姿勢推定を実行するようにコンピュータシステム100を制御するために動作する機能的表現として、推定部210が使用されてよい。
【0045】
プロセッサ110およびプロセッサ110の構成要素は、
図3の物体追跡方法が含む段階310~350を実行してよい。例えば、プロセッサ110およびプロセッサ110の構成要素は、メモリ120が含むオペレーティングシステムのコードと、上述した少なくとも1つのプログラムコードとによる命令(instruction)を実行するように実現されてよい。ここで、少なくとも1つのプログラムコードは、物体追跡方法を処理するために実現されたプログラムのコードに対応してよい。
【0046】
物体追跡方法は、図に示した順に発生しなくてもよいし、段階のうちの一部が省略されたり、追加の過程がさらに含まれたりしてもよい。
【0047】
プロセッサ110は、物体追跡方法のためのプログラムファイルに記録されたプログラムコードをメモリ120にロードしてよい。例えば、物体追跡方法のためのプログラムファイルは、
図1を参照しながら説明した永続的記録装置130に記録されていてよく、プロセッサ110は、バスを介して永続的記録装置130に記録されたプログラムファイルからプログラムコードがメモリ120にロードされるようにコンピュータシステム100を制御してよい。このとき、プロセッサ110およびプロセッサ110が含む推定部210、類似度計算部220、マッチング部230、後処理部240、および位置提供部250それぞれは、メモリ120にロードされたプログラムコードのうちの対応する部分の命令を実行し、以後の段階310~350を実行するためのプロセッサ110の互いに異なる機能的表現であってよい。段階310~350の実行のために、プロセッサ110およびプロセッサ110の構成要素は、制御命令による演算を直接処理してもよいし、コンピュータシステム100を制御してもよい。
【0048】
段階310で、推定部210は、ビデオファイルが入力されれば、入力ビデオを対象に姿勢推定を実行してよい。このとき、推定部210は、入力ビデオのすべてのフレームに対してターゲット物体に該当する人物の位置を検出し、各人物のキーポイント(keypoint)の座標を求めてよい。
【0049】
例えば、
図4を参照すると、入力ビデオを構成するすべてのフレームからターゲットとなる人物の位置を検出した後、該当の人物の頭、左/右肩、左/右肘、左/右手、左/右膝、左/右足などの17ヶ所の座標をキーポイントとして活用してよい。一例として、推定部210は、YOLO(you only look once)基盤の人物検出(human detection)アルゴリズムを利用してフレームから人物を検出してよく、トップ-ダウン(top-down)方式によって各人物のキーポイントの座標を求めてよい。
【0050】
再び
図3において、段階320で、類似度計算部220は、各フレームの各人物のキーポイント座標に基づき、隣接するフレーム間の姿勢類似度(pose similarity)を計算してよい。言い換えれば、類似度計算部220は、隣接する2つのフレームの人物の姿勢類似度を示すマッチングスコア(matching score)を求めてよい。ここで、マッチングスコアとは、n番目のフレームのK人の人物が、n+1番目のフレームのK’人の人物とそれぞれどのくらい近いかを示す指標を意味してよい。
【0051】
特に、本発明において姿勢類似度を示すマッチングスコアは、ローカルパターンによるモーションファクタとグローバルパターンによる外観ファクタを含んでよい。マッチングスコアを計算するためのモデルは、各ターゲットのIDを分類する分類器が追加されたオンライン学習モデルによって実現されてよく、該当のオンライン学習モデルを利用して各ターゲットのグローバルパターンが学習されてよい。
【0052】
本発明に係る分類器モデルは、時間軸とともに各ターゲットの学習データを累積してよく、学習データの一例としては、ターゲットのすべてのキーポイントを含んでよい。言い換えれば、分類器モデルを利用することで各ターゲットのグローバルパターンが学習されてよい。このとき、グローバルパターンを学習するための分類器としては、分類(classification)が可能なすべてのネットワークモデルが適用されてよい。
【0053】
モーションファクタは、ターゲットの位置領域を示す境界ボックス(bounding box)IoU(Intersection Over Union)と姿勢IoUに基づいて求められてよい。このとき、IoUとは、
図5に示すように、2つの領域の重畳程度を示すものであり、これにより、地上検証(ground truth)(実際の物体の境界)を有する物体検出で予測値がどのくらい正確であるかを測定してよい。また、外観ファクタは、客観的確率を判断するためのサンプルマイニング(sample mining)とオンライン学習に基づくグローバルパターンマッチングを利用して求められてよい。
【0054】
再び
図3において、段階330で、マッチング部230は、段階320の結果を利用してフレーム間の姿勢マッチングを実行してよい。言い換えれば、マッチング部230は、姿勢類似度を示すマッチングスコアを基準に、実際にn番目のフレームのi番目のボックス(すなわち、ターゲット位置)とn+1番目のフレームのj番目のボックスとをマッチングしてよい。
【0055】
マッチング部230は、ハンガリアンメソッド(Hungarian method)などのマッチングアルゴリズムを利用して姿勢マッチングを実行してよい。マッチング部230は、先ずは隣接するフレームの類似度マトリックスを計算した後、これをハンガリアンメソッドに最適化して各ボックスをマッチングしてよい。このとき、姿勢マッチングのための類似度マトリックスは、IoUを示すモーションファクタを利用して計算してよい。
【0056】
段階340で、後処理部240は、段階330の姿勢マッチング結果に対して誤検出の排除などを含む後処理過程を実行してよい。一例として、後処理部240は、境界ボックスIoU基盤のエラー測定によってマッチングエラーを除去してよい。または、後処理部240は、補間法(interpolation)を利用してマッチングエラーを補正してもよいし、移動平均(moving average)などに基づいて姿勢マッチングに対する平滑化(smoothing)を経てもよい。
【0057】
段階350で、位置提供部250は、追跡結果として姿勢マッチングによる各ターゲットの位置を提供してよい。位置提供部250は、各ターゲットの座標値を出力として提供してよい。ターゲットの位置を表示した領域は境界ボックスと呼ばれるが、このとき、ターゲットの位置は、境界ボックスのフレーム内の位置座標として与えられてよい。ターゲットの位置座標は、[左線のX座標、右線のY座標、右線のX座標、下線のY座標]、[左線のX座標、右線のY座標、四角形の幅、四角形の高さ]などの形態で表記されてよい。
【0058】
図6~7は、本発明の一実施形態における、ターゲットのグローバルパターンを学習する過程の例を示した図である。
【0059】
【0060】
図6を参照すると、1.モデル結果値は、モーションファクタを使用した既存の追跡技術を適用した結果であり、本発明では、既存の追跡を一次として適用した後、二次として外観ファクタを計算して物体追跡に利用してよい。
【0061】
2.全体動画内で有効区間(valid period)と無効区間(invalid period)を定義して区分してよい。ここで、有効区間とは、すべてのターゲットが存在する区間を意味するものであり、
図6の斜線部分が有効区間を示す。
【0062】
図7を参照すると、3.モデル訓練を繰り返し、該当のモデルを利用して次の有効区間に対してラベルを指定して学習例を追加してよい。
【0063】
学習データは、複数のフレームからなる連続する区間全体を利用する。このとき、学習モデルの入力単位は、連続する区間全体からサンプリングされたミニバッチ(mini-batch)となってよく、ミニバッチの大きさは、事前に定められたデフォルト値が定められてもよいし、ユーザによって定められてもよい。
【0064】
学習データは、ターゲット位置を含むボックスイメージと、該当のターゲットのIDを含む。ここで、ボックスイメージとは、全体イメージで各人物の位置を示す領域だけを切り取ったイメージを意味する。
【0065】
学習モデル(ネットワーク)の出力は、任意の人物が含まれたボックスイメージが与えられたとき、該当のボックスイメージの各ターゲットIDに対する確率値となる。
【0066】
図7に示すように、学習の第1段階(1st)では、最も長い有効区間710を利用して1つ目の区間の学習データを生成し、1つ目の区間の学習データを利用してモデルを学習させる。このときの学習データは、既存の物体追跡技術によって得られた結果をそのままラベリングしたものであってもよいし、ボックスイメージとターゲットIDを学習データとして使用してもよい。
【0067】
第2段階(2nd)では、1つ目の区間で学習させたモデルを利用して次の対象区間、すなわち、2番目に長い有効区間720をラベリングさせた後、2つ目の区間の学習データを生成する。この後、1つ目の区間と2つ目の区間の学習データを併合して累積した学習データを生成し、これを利用してモデルを再び学習させる。
【0068】
このような方式を繰り返しながら有効区間に対する学習が終わった後、無効区間に対しては、有効区間で学習させたモデルを利用しながら予測(ラベリング)を実行するようになる。
【0069】
上述したラベリング過程は、分類器モデルのための類似度マトリックスを計算した後、これを利用して各ボックスをマッチングしてよい。このとき、分類器モデルの類似度は、モーションファクタでなく外観ファクタを利用して計算されてよい。
【0070】
このように、本発明の実施形態によると、各ターゲットのIDを分類する分類器が追加されたオンライン学習モデルを利用して各ターゲットのグローバルパターンを学習することができ、時間軸とともに累積する各ターゲットの学習データを生成して利用することで分類器モデルを学習することができ、これにより、ローカルパターンによるモーションファクタとグローバルパターンによる外観ファクタを物体追跡にともに利用することができる。
【0071】
上述した装置は、ハードウェア構成要素、ソフトウェア構成要素、および/またはハードウェア構成要素とソフトウェア構成要素との組み合わせによって実現されてよい。例えば、実施形態で説明された装置および構成要素は、プロセッサ、コントローラ、ALU(arithmetic logic unit)、デジタル信号プロセッサ、マイクロコンピュータ、FPGA(field programmable gate array)、PLU(programmable logic unit)、マイクロプロセッサ、または命令を実行して応答することができる様々な装置のように、1つ以上の汎用コンピュータまたは特殊目的コンピュータを利用して実現されてよい。処理装置は、オペレーティングシステム(OS)およびOS上で実行される1つ以上のソフトウェアアプリケーションを実行してよい。また、処理装置は、ソフトウェアの実行に応答し、データにアクセスし、データを記録、操作、処理、および生成してもよい。理解の便宜のために、1つの処理装置が使用されるとして説明される場合もあるが、当業者は、処理装置が複数個の処理要素および/または複数種類の処理要素を含んでもよいことが理解できるであろう。例えば、処理装置は、複数個のプロセッサまたは1つのプロセッサおよび1つのコントローラを含んでよい。また、並列プロセッサのような、他の処理構成も可能である。
【0072】
ソフトウェアは、コンピュータプログラム、コード、命令、またはこれらのうちの1つ以上の組み合わせを含んでもよく、思うままに動作するように処理装置を構成したり、独立的または集合的に処理装置に命令したりしてよい。ソフトウェアおよび/またはデータは、処理装置に基づいて解釈されたり、処理装置に命令またはデータを提供したりするために、いかなる種類の機械、コンポーネント、物理装置、コンピュータ記録媒体または装置に具現化されてよい。ソフトウェアは、ネットワークによって接続されたコンピュータシステム上に分散され、分散された状態で記録されても実行されてもよい。ソフトウェアおよびデータは、1つ以上のコンピュータ読み取り可能な記録媒体に記録されてよい。
【0073】
実施形態に係る方法は、多様なコンピュータ手段によって実行可能なプログラム命令の形態で実現されてコンピュータ読み取り可能な媒体に記録されてよい。ここで、媒体は、コンピュータ実行可能なプログラムを継続して記録するものであっても、実行またはダウンロードのために一時記録するものであってもよい。また、媒体は、単一または複数のハードウェアが結合した形態の多様な記録手段または格納手段であってよく、あるコンピュータシステムに直接接続する媒体に限定されることはなく、ネットワーク上に分散して存在するものであってもよい。媒体の例としては、ハードディスク、フロッピー(登録商標)ディスク、および磁気テープのような磁気媒体、CD-ROMおよびDVDのような光媒体、フロプティカルディスク(floptical disk)のような光磁気媒体、およびROM、RAM、フラッシュメモリなどを含み、プログラム命令が記録されるように構成されたものであってよい。また、媒体の他の例として、アプリケーションを配布するアプリケーションストアやその他の多様なソフトウェアを供給または配布するサイト、サーバなどで管理する記録媒体または格納媒体が挙げられる。
【0074】
以上のように、実施形態を、限定された実施形態および図面に基づいて説明したが、当業者であれば、上述した記載から多様な修正および変形が可能であろう。例えば、説明された技術が、説明された方法とは異なる順序で実行されたり、かつ/あるいは、説明されたシステム、構造、装置、回路などの構成要素が、説明された方法とは異なる形態で結合されたりまたは組み合わされたり、他の構成要素または均等物によって対置されたり置換されたとしても、適切な結果を達成することができる。
【0075】
したがって、異なる実施形態であっても、特許請求の範囲と均等なものであれば、添付される特許請求の範囲に属する。