IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ AWL株式会社の特許一覧

特許7752458マルチカメラオブジェクトトラッキングシステム、及びマルチカメラオブジェクトトラッキングプログラム
<>
  • 特許-マルチカメラオブジェクトトラッキングシステム、及びマルチカメラオブジェクトトラッキングプログラム 図1
  • 特許-マルチカメラオブジェクトトラッキングシステム、及びマルチカメラオブジェクトトラッキングプログラム 図2
  • 特許-マルチカメラオブジェクトトラッキングシステム、及びマルチカメラオブジェクトトラッキングプログラム 図3
  • 特許-マルチカメラオブジェクトトラッキングシステム、及びマルチカメラオブジェクトトラッキングプログラム 図4
  • 特許-マルチカメラオブジェクトトラッキングシステム、及びマルチカメラオブジェクトトラッキングプログラム 図5
  • 特許-マルチカメラオブジェクトトラッキングシステム、及びマルチカメラオブジェクトトラッキングプログラム 図6
  • 特許-マルチカメラオブジェクトトラッキングシステム、及びマルチカメラオブジェクトトラッキングプログラム 図7
  • 特許-マルチカメラオブジェクトトラッキングシステム、及びマルチカメラオブジェクトトラッキングプログラム 図8
  • 特許-マルチカメラオブジェクトトラッキングシステム、及びマルチカメラオブジェクトトラッキングプログラム 図9
  • 特許-マルチカメラオブジェクトトラッキングシステム、及びマルチカメラオブジェクトトラッキングプログラム 図10
  • 特許-マルチカメラオブジェクトトラッキングシステム、及びマルチカメラオブジェクトトラッキングプログラム 図11
  • 特許-マルチカメラオブジェクトトラッキングシステム、及びマルチカメラオブジェクトトラッキングプログラム 図12
  • 特許-マルチカメラオブジェクトトラッキングシステム、及びマルチカメラオブジェクトトラッキングプログラム 図13
  • 特許-マルチカメラオブジェクトトラッキングシステム、及びマルチカメラオブジェクトトラッキングプログラム 図14
  • 特許-マルチカメラオブジェクトトラッキングシステム、及びマルチカメラオブジェクトトラッキングプログラム 図15
  • 特許-マルチカメラオブジェクトトラッキングシステム、及びマルチカメラオブジェクトトラッキングプログラム 図16
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B1)
(11)【特許番号】
(24)【登録日】2025-10-02
(45)【発行日】2025-10-10
(54)【発明の名称】マルチカメラオブジェクトトラッキングシステム、及びマルチカメラオブジェクトトラッキングプログラム
(51)【国際特許分類】
   G06T 7/33 20170101AFI20251003BHJP
   H04N 7/18 20060101ALI20251003BHJP
【FI】
G06T7/33
H04N7/18 G
【請求項の数】 7
(21)【出願番号】P 2025101669
(22)【出願日】2025-06-17
【審査請求日】2025-08-07
【早期審査対象出願】
(73)【特許権者】
【識別番号】516249414
【氏名又は名称】AWL株式会社
(74)【代理人】
【識別番号】100125221
【弁理士】
【氏名又は名称】水田 愼一
(72)【発明者】
【氏名】藤村 浩司
(72)【発明者】
【氏名】土田 安紘
(72)【発明者】
【氏名】タン ヴァン グエン
(72)【発明者】
【氏名】マイン コン ファム
(72)【発明者】
【氏名】クオン フン ズオン
(72)【発明者】
【氏名】クアン ニャット グエン
【審査官】秦野 孝一郎
(56)【参考文献】
【文献】特開2009-223434(JP,A)
【文献】国際公開第2022/091166(WO,A1)
【文献】特開2025-076600(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
G06T 7/00-7/90
H04N 7/18
(57)【特許請求の範囲】
【請求項1】
追跡対象者を複数のカメラの撮影範囲にまたがって追跡するマルチカメラオブジェクトトラッキングを行うマルチカメラオブジェクトトラッキングシステムにおいて、
前記複数のカメラのうち2つ以上のカメラは、前記マルチカメラオブジェクトトラッキングの開始地点に設置されて、前記追跡対象者の少なくとも略前面側の画像と略背面側の画像とを撮影できるように配置されており、
前記2つ以上のカメラで同期を取って撮影された前記追跡対象者の少なくとも略前面側の画像と略背面側の画像に基づいて、前記追跡対象者の3次元空間におけるポーズである3次元ポーズを生成する3次元ポーズ生成手段と、
前記生成された3次元ポーズに対応する追跡対象者に識別用IDを割り当てて、この識別用IDを割り当てられた追跡対象者の各々を、前記生成された3次元ポーズを用いて、前記開始地点に設置された2つ以上のカメラによる撮影画像から構成されるビデオフレームにおいて追跡する3次元ポーズトラッキング手段と、
前記2つ以上のカメラで同期を取って撮影された前記追跡対象者の前記少なくとも略前面側の画像と略背面側の画像、又はこれらの画像の画像特徴量と、前記追跡対象者の識別用IDとを、追跡対象者登録用データベースに登録する追跡対象者登録手段を備え、
前記追跡対象者登録用データベースに登録された前記追跡対象者の少なくとも略前面側の画像と略背面側の画像、又はこれらの画像の画像特徴量に基づき、前記追跡対象者を、前記複数のカメラの撮影範囲にまたがって追跡するマルチカメラオブジェクトトラッキングシステム。
【請求項2】
前記3次元ポーズ生成手段は、
前記2つ以上のカメラで同期を取って撮影された前記追跡対象者の少なくとも略前面側の画像と略背面側の画像における、前記追跡対象者のキーポイントを推定する2次元ポーズ推定手段を備え、
前記2次元ポーズ推定手段により推定された前記追跡対象者のキーポイントと、前記2つ以上のカメラのキャリブレーションパラメータから、前記追跡対象者の3次元ポーズを生成することを特徴とする請求項に記載のマルチカメラオブジェクトトラッキングシステム。
【請求項3】
前記マルチカメラオブジェクトトラッキングの開始地点は、建物又は部屋の入口であり、前記複数のカメラのうち2つ以上のカメラは、前記入口を通過する追跡対象者の少なくとも略前面側の画像と略背面側の画像とを撮影できるように配置されていることを特徴とする請求項1に記載のマルチカメラオブジェクトトラッキングシステム。
【請求項4】
追跡対象者を複数のカメラの撮影範囲にまたがって追跡するマルチカメラオブジェクトトラッキングを行うマルチカメラオブジェクトトラッキングシステムにおいて、
前記複数のカメラのうち2つ以上のカメラは、前記マルチカメラオブジェクトトラッキングの開始地点に設置されて、前記追跡対象者の少なくとも略前面側の画像と略背面側の画像とを撮影できるように配置されており、
前記2つ以上のカメラで同期を取って撮影された前記追跡対象者の前記少なくとも略前面側の画像と略背面側の画像と、前記追跡対象者の識別用IDとを、追跡対象者登録用データベースに登録する追跡対象者登録手段を備え、
前記追跡対象者登録手段は、前記追跡対象者の頭の画像又は人物画像を前記追跡対象者登録用データベースに登録し、
2つの方向から撮影した前記追跡対象者の頭の画像又は人物画像に基づいて、前記2つの方向の中間の方向から撮影した前記追跡対象者の頭の画像又は人物画像を、生成AIモデルにより生成して、生成した前記追跡対象者の頭の画像又は人物画像を補間画像として、前記追跡対象者登録手段により前記追跡対象者登録用データベースに登録する補間画像生成登録手段をさらに備え
前記追跡対象者登録用データベースに登録された前記追跡対象者の少なくとも略前面側と略背面側の頭の画像又は人物画像、及び前記生成した前記2つの方向の中間の方向から撮影した前記追跡対象者の頭の画像又は人物画像に基づき、前記追跡対象者を、前記複数のカメラの撮影範囲にまたがって追跡するマルチカメラオブジェクトトラッキングシステム。
【請求項5】
前記2つの方向から撮影した前記追跡対象者の頭の画像又は人物画像における、前記追跡対象者のキーポイントを推定する2次元ポーズ推定手段をさらに備え、
前記補間画像生成登録手段は、前記2つの方向から撮影した前記追跡対象者の頭の画像又は人物画像と、前記2次元ポーズ推定手段により推定された前記追跡対象者のキーポイントとを用いて、前記2つの方向の中間の方向から撮影した前記追跡対象者の頭の画像又は人物画像を、生成AIモデルにより生成することを特徴とする請求項に記載のマルチカメラオブジェクトトラッキングシステム。
【請求項6】
追跡対象者を複数のカメラの撮影範囲にまたがって追跡するマルチカメラオブジェクトトラッキングを行うためのマルチカメラオブジェクトトラッキングプログラムであって、
前記複数のカメラのうち2つ以上のカメラが、前記マルチカメラオブジェクトトラッキングの開始地点に設置されて、前記追跡対象者の少なくとも略前面側の画像と略背面側の画像とを撮影できるように配置されているときに、
コンピュータを、
前記2つ以上のカメラで同期を取って撮影された前記追跡対象者の少なくとも略前面側の画像と略背面側の画像に基づいて、前記追跡対象者の3次元空間におけるポーズである3次元ポーズを生成する3次元ポーズ生成手段と、
前記生成された3次元ポーズに対応する追跡対象者に識別用IDを割り当てて、この識別用IDを割り当てられた追跡対象者の各々を、前記開始地点に設置された2つ以上のカメラによる撮影画像から構成されるビデオフレームにおいて追跡する3次元ポーズトラッキング手段と、
前記2つ以上のカメラで同期を取って撮影された前記追跡対象者の前記少なくとも略前面側の画像と略背面側の画像、又はこれらの画像の画像特徴量と、前記追跡対象者の識別用IDとを、追跡対象者登録用データベースに登録する追跡対象者登録手段として機能させ、
前記追跡対象者登録用データベースに登録された前記追跡対象者の少なくとも略前面側の画像と略背面側の画像、又はこれらの画像の画像特徴量に基づき、前記追跡対象者を、前記複数のカメラの撮影範囲にまたがって追跡するためのマルチカメラオブジェクトトラッキングプログラム。
【請求項7】
追跡対象者を複数のカメラの撮影範囲にまたがって追跡するマルチカメラオブジェクトトラッキングを行うためのマルチカメラオブジェクトトラッキングプログラムであって、
前記複数のカメラのうち2つ以上のカメラが、前記マルチカメラオブジェクトトラッキングの開始地点に設置されて、前記追跡対象者の少なくとも略前面側の画像と略背面側の画像とを撮影できるように配置されているときに、
コンピュータを、
前記2つ以上のカメラで同期を取って撮影された前記追跡対象者の前記少なくとも略前面側の画像と略背面側の画像と、前記追跡対象者の識別用IDとを、追跡対象者登録用データベースに登録する追跡対象者登録手段として機能させ、
前記追跡対象者登録手段は、前記追跡対象者の頭の画像又は人物画像を前記追跡対象者登録用データベースに登録し、
前記コンピュータを、2つの方向から撮影した前記追跡対象者の頭の画像又は人物画像に基づいて、前記2つの方向の中間の方向から撮影した前記追跡対象者の頭の画像又は人物画像を、生成AIモデルにより生成して、生成した前記追跡対象者の頭の画像又は人物画像を補間画像として、前記追跡対象者登録手段により前記追跡対象者登録用データベースに登録する補間画像生成登録手段としてさらに機能させ、
前記追跡対象者登録用データベースに登録された前記追跡対象者の少なくとも略前面側と略背面側の頭の画像又は人物画像、及び前記生成した前記2つの方向の中間の方向から撮影した前記追跡対象者の頭の画像又は人物画像に基づき、前記追跡対象者を、前記複数のカメラの撮影範囲にまたがって追跡するためのマルチカメラオブジェクトトラッキングプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、マルチカメラオブジェクトトラッキングシステム、及びマルチカメラオブジェクトトラッキングプログラムに関する。
【背景技術】
【0002】
従来から、あるエリアに複数のカメラを設置して、これら複数のカメラの撮影範囲内のオブジェクト(人等の物体)を、これらのカメラの撮影画像を用いて追跡するマルチカメラオブジェクトトラッキングの技術が知られている。このマルチカメラオブジェクトトラッキングにおいて、各カメラの撮影範囲内でのオブジェクトのトラッキング(シングルカメラオブジェクトトラッキング)には、SORT(Simple Online and Realtime Tracking)や、DeepSORT(Simple Online and Realtime Tracking with a deep association metric)(非特許文献1参照)の技術が用いられる。SORTは、カルマンフィルターで物体の動きを予測し、ハンガリアンアルゴリズムで、予測した物体と検出した物体のIoUを計算し、これらの物体(実際には、バウンディングボックス)を対応付けることで、トラッキングを行うものである。DeepSORTは、上記のSORTの改良版である。マルチカメラオブジェクトトラッキングは、上記のSORTやDeepSORTといった(シングルカメラ)オブジェクトトラッキングの技術と、Person Re-Identificationの技術を用いたものである。
【0003】
上記のマルチカメラオブジェクトトラッキング(におけるPerson Re-Identification)では、例えば、入口等のマルチカメラオブジェクトトラッキングの開始地点(トラッキング開始地点)にカメラを設置して、このカメラで撮影した人物の画像(人物画像)、又は人物画像から切り出した顔の画像(顔画像)、又は人物画像或いは顔画像から抽出した画像特徴量を、追跡対象者登録用のデータベースに登録しておいて、この登録した画像(人物画像又は顔画像)又は画像特徴量と、上記のトラッキング開始地点以外に設置したカメラで撮影した画像又は画像特徴量とをマッチングすることにより、人物(追跡対象者)を、複数のカメラの撮影範囲にまたがって追跡する。
【先行技術文献】
【非特許文献】
【0004】
【文献】Nicolai Wojke, Alex Bewley, Dietrich Paulus, “SIMPLE ONLINE AND REALTIME TRACKING WITH A DEEP ASSOCIATION METRIC”, [online], 2017年3月21日, University of Koblenz-Landau, Queensland University of Technology, [2023年1月6日検索], インターネット<URL:https://userpages.uni-koblenz.de/~agas/Documents/Wojke2017SOA.pdf>
【発明の概要】
【発明が解決しようとする課題】
【0005】
ところが、従来のマルチカメラオブジェクトトラッキングでは、入口等のトラッキング開始地点に設置されたカメラで撮影される人物画像が、一つの(カメラの)画角で撮影された人物画像のみであるため、追跡対象者登録用のデータベースに登録される画像(人物画像又は顔画像)又は画像特徴量が、人物を特定の方向から見た画像又は画像特徴量だけになってしまう。このような人物を特定の方向から見た画像又は画像特徴量のみを用いて、トラッキングの開始地点以外に設置したカメラで撮影した画像又は画像特徴量とのマッチングを行ったのでは、安定したPerson Re-Identification(人物再同定)を行うことができないので、人物(追跡対象者)を、複数のカメラの撮影範囲にまたがって正確に追跡することができない。
【0006】
本発明は、上記課題を解決するものであり、安定したPerson Re-Identification(人物再同定)を行うことができるようにして、追跡対象者を、複数のカメラの撮影範囲にまたがって正確に追跡することが可能なマルチカメラオブジェクトトラッキングシステム、及びマルチカメラオブジェクトトラッキングプログラムを提供することを目的とする。
【課題を解決するための手段】
【0007】
上記課題を解決するために、本発明の第1の態様によるマルチカメラオブジェクトトラッキングシステムは、追跡対象者を複数のカメラの撮影範囲にまたがって追跡するマルチカメラオブジェクトトラッキングを行うマルチカメラオブジェクトトラッキングシステムにおいて、前記複数のカメラのうち2つ以上のカメラは、前記マルチカメラオブジェクトトラッキングの開始地点に設置されて、前記追跡対象者の少なくとも略前面側の画像と略背面側の画像とを撮影できるように配置されており、前記2つ以上のカメラで同期を取って撮影された前記追跡対象者の少なくとも略前面側の画像と略背面側の画像に基づいて、前記追跡対象者の3次元空間におけるポーズである3次元ポーズを生成する3次元ポーズ生成手段と、前記生成された3次元ポーズに対応する追跡対象者に識別用IDを割り当てて、この識別用IDを割り当てられた追跡対象者の各々を、前記生成された3次元ポーズを用いて、前記開始地点に設置された2つ以上のカメラによる撮影画像から構成されるビデオフレームにおいて追跡する3次元ポーズトラッキング手段と、前記2つ以上のカメラで同期を取って撮影された前記追跡対象者の前記少なくとも略前面側の画像と略背面側の画像、又はこれらの画像の画像特徴量と、前記追跡対象者の識別用IDとを、追跡対象者登録用データベースに登録する追跡対象者登録手段を備え、前記追跡対象者登録用データベースに登録された前記追跡対象者の少なくとも略前面側の画像と略背面側の画像、又はこれらの画像の画像特徴量に基づき、前記追跡対象者を、前記複数のカメラの撮影範囲にまたがって追跡する。ここで、追跡対象者の「略前面側の画像」とは、追跡対象者の顔の半分以上が映った撮影画像である。また、追跡対象者の「略背面側の画像」とは、追跡対象者の「頭の画像」の場合は、追跡対象者の後頭部が映った撮影画像であり、追跡対象者の「人物画像」(体全体の画像)の場合は、追跡対象者の後頭部、背中、及び臀部が映った撮影画像である。なお、ここで、「頭の画像」と記載した理由は、追跡対象者の前面側の頭部の画像は、「顔画像」になるが、追跡対象者の背面側の頭部の画像は、後頭部の画像であり、顔画像にはならないからである。
【0009】
このマルチカメラオブジェクトトラッキングシステムにおいて、前記3次元ポーズ生成手段は、前記2つ以上のカメラで同期を取って撮影された前記追跡対象者の少なくとも略前面側の画像と略背面側の画像における、前記追跡対象者のキーポイントを推定する2次元ポーズ推定手段を備え、前記2次元ポーズ推定手段により推定された前記追跡対象者のキーポイントと、前記2つ以上のカメラのキャリブレーションパラメータから、前記追跡対象者の3次元ポーズを生成することが望ましい。
【0010】
このマルチカメラオブジェクトトラッキングシステムにおいて、前記マルチカメラオブジェクトトラッキングの開始地点は、建物又は部屋の入口であり、前記複数のカメラのうち2つ以上のカメラは、前記入口を通過する追跡対象者の少なくとも略前面側の画像と略背面側の画像とを撮影できるように配置されているようにしてもよい。
【0011】
本発明の第2の態様によるマルチカメラオブジェクトトラッキングシステムは、追跡対象者を複数のカメラの撮影範囲にまたがって追跡するマルチカメラオブジェクトトラッキングを行うマルチカメラオブジェクトトラッキングシステムにおいて、前記複数のカメラのうち2つ以上のカメラは、前記マルチカメラオブジェクトトラッキングの開始地点に設置されて、前記追跡対象者の少なくとも略前面側の画像と略背面側の画像とを撮影できるように配置されており、前記2つ以上のカメラで同期を取って撮影された前記追跡対象者の前記少なくとも略前面側の画像と略背面側の画像と、前記追跡対象者の識別用IDとを、追跡対象者登録用データベースに登録する追跡対象者登録手段を備え、前記追跡対象者登録手段は、前記追跡対象者の頭の画像又は人物画像を前記追跡対象者登録用データベースに登録し、2つの方向から撮影した前記追跡対象者の頭の画像又は人物画像に基づいて、前記2つの方向の中間の方向から撮影した前記追跡対象者の頭の画像又は人物画像を、生成AIモデルにより生成して、生成した前記追跡対象者の頭の画像又は人物画像を補間画像として、前記追跡対象者登録手段により前記追跡対象者登録用データベースに登録する補間画像生成登録手段をさらに備え、前記追跡対象者登録用データベースに登録された前記追跡対象者の少なくとも略前面側と略背面側の頭の画像又は人物画像、及び前記生成した前記2つの方向の中間の方向から撮影した前記追跡対象者の頭の画像又は人物画像に基づき、前記追跡対象者を、前記複数のカメラの撮影範囲にまたがって追跡する
【0012】
このマルチカメラオブジェクトトラッキングシステムにおいて、前記2つの方向から撮影した前記追跡対象者の頭の画像又は人物画像における、前記追跡対象者のキーポイントを推定する2次元ポーズ推定手段をさらに備え、前記補間画像生成登録手段は、前記2つの方向から撮影した前記追跡対象者の頭の画像又は人物画像と、前記2次元ポーズ推定手段により推定された前記追跡対象者のキーポイントとを用いて、前記2つの方向の中間の方向から撮影した前記追跡対象者の頭の画像又は人物画像を、生成AIモデルにより生成することが望ましい。
【0014】
本発明の第3の態様によるマルチカメラオブジェクトトラッキングプログラムは、追跡対象者を複数のカメラの撮影範囲にまたがって追跡するマルチカメラオブジェクトトラッキングを行うためのマルチカメラオブジェクトトラッキングプログラムであって、前記複数のカメラのうち2つ以上のカメラが、前記マルチカメラオブジェクトトラッキングの開始地点に設置されて、前記追跡対象者の少なくとも略前面側の画像と略背面側の画像とを撮影できるように配置されているときに、コンピュータを、前記2つ以上のカメラで同期を取って撮影された前記追跡対象者の少なくとも略前面側の画像と略背面側の画像に基づいて、前記追跡対象者の3次元空間におけるポーズである3次元ポーズを生成する3次元ポーズ生成手段と、前記生成された3次元ポーズに対応する追跡対象者に識別用IDを割り当てて、この識別用IDを割り当てられた追跡対象者の各々を、前記開始地点に設置された2つ以上のカメラによる撮影画像から構成されるビデオフレームにおいて追跡する3次元ポーズトラッキング手段と、前記2つ以上のカメラで同期を取って撮影された前記追跡対象者の前記少なくとも略前面側の画像と略背面側の画像、又はこれらの画像の画像特徴量と、前記追跡対象者の識別用IDとを、追跡対象者登録用データベースに登録する追跡対象者登録手段として機能させ、前記追跡対象者登録用データベースに登録された前記追跡対象者の少なくとも略前面側の画像と略背面側の画像、又はこれらの画像の画像特徴量に基づき、前記追跡対象者を、前記複数のカメラの撮影範囲にまたがって追跡するようにさせる。
【0015】
本発明の第4の態様によるマルチカメラオブジェクトトラッキングプログラムは、追跡対象者を複数のカメラの撮影範囲にまたがって追跡するマルチカメラオブジェクトトラッキングを行うためのマルチカメラオブジェクトトラッキングプログラムであって、前記複数のカメラのうち2つ以上のカメラが、前記マルチカメラオブジェクトトラッキングの開始地点に設置されて、前記追跡対象者の少なくとも略前面側の画像と略背面側の画像とを撮影できるように配置されているときに、コンピュータを、前記2つ以上のカメラで同期を取って撮影された前記追跡対象者の少なくとも略前面側の画像と略背面側の画像と、前記追跡対象者の識別用IDとを、追跡対象者登録用データベースに登録する追跡対象者登録手段として機能させ、前記追跡対象者登録手段は、前記追跡対象者の頭の画像又は人物画像を前記追跡対象者登録用データベースに登録し、前記コンピュータを、2つの方向から撮影した前記追跡対象者の頭の画像又は人物画像に基づいて、前記2つの方向の中間の方向から撮影した前記追跡対象者の頭の画像又は人物画像を、生成AIモデルにより生成して、生成した前記追跡対象者の頭の画像又は人物画像を補間画像として、前記追跡対象者登録手段により前記追跡対象者登録用データベースに登録する補間画像生成登録手段としてさらに機能させ、前記追跡対象者登録用データベースに登録された前記追跡対象者の少なくとも略前面側と略背面側の頭の画像又は人物画像、及び前記生成した前記2つの方向の中間の方向から撮影した前記追跡対象者の頭の画像又は人物画像に基づき、前記追跡対象者を、前記複数のカメラの撮影範囲にまたがって追跡するようにさせる。
【発明の効果】
【0016】
本発明の第1の態様によるマルチカメラオブジェクトトラッキングシステム、及び第3の態様によるマルチカメラオブジェクトトラッキングプログラムによれば、マルチカメラオブジェクトトラッキングの開始地点に設置された2つ以上のカメラで撮影される画像が、追跡対象者の少なくとも略前面側の画像と略背面側の画像であるため、追跡対象者登録用データベースに登録される画像又は画像特徴量が、追跡対象者の少なくとも略前面側の画像と略背面側の画像、又はこれらの画像の画像特徴量になる。これにより、従来のマルチカメラオブジェクトトラッキングシステムと異なり、追跡対象者の少なくとも略前面側の画像と略背面側の画像、又はこれらの画像の画像特徴量を用いて、トラッキングの開始地点以外に設置したカメラで撮影した画像又は画像特徴量とのマッチングを行うことができるので、安定したPerson Re-Identification(人物再同定)を行うことができる。従って、追跡対象者を、複数のカメラの撮影範囲にまたがって正確に追跡することができる。
【図面の簡単な説明】
【0018】
図1】本発明の第1の実施形態のマルチカメラオブジェクトトラッキングシステムの概略の構成を示すブロック構成図。
図2】同マルチカメラオブジェクトトラッキングシステムのエッジデバイスの概略のハードウェア構成を示すブロック図。
図3】同マルチカメラオブジェクトトラッキングシステムの分析サーバの概略のハードウェア構成を示すブロック図。
図4】上記図3の分析サーバのCPUと図2のエッジデバイスのSoCの機能ブロックのうち、マルチカメラオブジェクトトラッキング処理に関するブロックの入出力関係を示す図。
図5図4における2つの入口カメラの配置の説明図。
図6図4における人検出部31bが入口カメラ3bによる撮影画像から検出した略前面側の人物検出画像と、人検出部31aが入口カメラ3aによる撮影画像から検出した略背面側の人物検出画像とを示す図。
図7】COCOデータセットにおいて教師ラベルとして付与される17のキーポイントの説明図。
図8】ピンホールカメラモデルにおけるカメラキャリブレーションアルゴリズムの説明図。
図9図4におけるエッジデバイス2aが行う2次元ポーズの関連付け処理の説明図。
図10】エピポーラ距離の説明図。
図11】3次元ポーズの生成に必要な三角測量の説明図。
図12】(a)は、図4の2次元ポーズ推定部が時刻t0の撮影画像から推定した2次元ポーズと、その次の(時刻t1の)撮影画像から生成した2次元ポーズの例を示し、(b)は、図4の3次元ポーズ生成部が生成した時刻t0の3次元ポーズと、その次の(時刻t1の)3次元ポーズの例を示す図。
図13】(a)(b)は、それぞれ、図4の2次元ポーズ推定部が撮影画像から推定した2次元ポーズと、図4の3次元ポーズ生成部が生成した3次元ポーズの例を示す図。
図14】上記第1の実施形態のマルチカメラオブジェクトトラッキングシステムが行うマルチカメラオブジェクトトラッキング処理のフローチャート。
図15】本発明の第2の実施形態のマルチカメラオブジェクトトラッキングシステムの分析サーバのCPUとエッジデバイスのSoCの機能ブロックのうち、マルチカメラオブジェクトトラッキング処理に関するブロックの入出力関係を示す図。
図16】本発明の第3の実施形態のマルチカメラオブジェクトトラッキングシステムの分析サーバのCPUとエッジデバイスのSoCの機能ブロックのうち、マルチカメラオブジェクトトラッキング処理に関するブロックの入出力関係を示す図。
【発明を実施するための形態】
【0019】
以下、本発明を具体化した実施形態によるマルチカメラオブジェクトトラッキングシステム、及びマルチカメラオブジェクトトラッキングプログラムについて、図面を参照して説明する。図1は、本発明の第1の実施形態によるマルチカメラオブジェクトトラッキングシステム10の概略の構成を示すブロック構成図である。図1に示すように、本実施形態では、所定の撮影エリアを撮影する監視用のネットワークカメラである複数の固定カメラ3(図に示す入口カメラ3a、入口カメラ3b、複数の店舗内カメラ3c、及び出口カメラ3dの総称)と、各固定カメラ3からの映像の分析を行うエッジデバイス2(エッジデバイス2a、2c、及び2dの総称)とが、建物又は部屋(図1における店舗Sに相当)の内部に配置される場合の例について説明する。本実施形態では、上記の複数の固定カメラ3のうち、2つのカメラ(入口カメラ3aと入口カメラ3b)が、マルチカメラオブジェクトトラッキングの開始地点、すなわち、店舗S(請求項における「建物又は部屋」)の入口に配置される。
【0020】
上記のマルチカメラオブジェクトトラッキングシステム10は、主に、店舗Sに設置された、上記の複数の固定カメラ3及びエッジデバイス2と、クラウドC上に配された分析サーバ1とから構成される。上記のエッジデバイス2と分析サーバ1とが、請求項における「コンピュータ」に相当する。エッジデバイス2と分析サーバ1とは、インターネットを介して接続されている。
【0021】
上記のマルチカメラオブジェクトトラッキングシステム10は、図1に示すように、上記の複数の固定カメラ3、及びエッジデバイス2a、2c、2dが配される店舗Sに、ハブ7と、ルータ8とを備えている。なお、以下の説明では、各固定カメラ3とエッジデバイス2とが別体である場合の例について説明するが、本発明のマルチカメラオブジェクトトラッキングシステムにおけるカメラは、上記の各固定カメラ3とエッジデバイス2とが一体になった、いわゆるAlカメラであってもよい。
【0022】
上記の固定カメラ3は、IPアドレスを持ち、ネットワークに直接接続することが可能である。図1に示すように、エッジデバイス2aは、LAN(Local Area Network)を介して、入口の2台の固定カメラ3(入口カメラ3a、3b)と接続され、これらの固定カメラ3の各々から入力された撮影画像に基づいて、撮影画像中の人物(追跡対象者)の各々の3次元ポーズトラッキングを行う。3次元ポーズトラッキングの詳細については、後述する。エッジデバイス2cは、店舗内カメラ3cと接続されて、この店舗内カメラ3cから入力された撮影画像に基づいて、撮影画像中の人物(追跡対象者)の各々のシングルカメラトラッキングを行う。また、エッジデバイス2dは、出口カメラ3dと接続されて、この出口カメラ3dから入力された撮影画像に基づいて、撮影画像中の人物(追跡対象者)の各々のシングルカメラトラッキングを行う。
【0023】
上記の分析サーバ1は、各店舗Sを統括して管理する管理部門(本社等)に設置されたサーバである。詳細については後述するが、分析サーバ1は、エッジデバイス2aにより行われた追跡対象者の3次元ポーズトラッキングの結果、及びエッジデバイス2c、2dにより行われた追跡対象者のシングルカメラオブジェクトトラッキングの結果を用いて、追跡対象者を、複数のカメラの撮影範囲にまたがって追跡する処理であるマルチカメラオブジェクトトラッキング処理を行う。
【0024】
次に、図2を参照して、エッジデバイス2のハードウェア構成について説明する。エッジデバイス2は、SoC(System-on-a-Chip)11と、各種のデータやプログラムを格納するハードディスク12と、RAM(Random Access Memory)13と、通信制御IC15とを備えている。SoC11は、装置全体の制御及び各種演算を行うCPU11aと、上記の物体検出処理や特徴ベクトル抽出処理を含む、各種の推論処理用学習済DNN(Deep Neural Networks)モデルの推論処理等に用いられるGPU11bとを備えている。また、ハードディスク12に格納されるデータには、固定カメラ3の各々から入力された映像ストリーム(のデータ)をデコードした後の映像データが含まれている。また、ハードディスク12に格納されるプログラムには、物体(追跡対象者)検出処理や特徴ベクトル抽出処理を含む、各種の推論処理用の学習済DNNモデル(各種推論処理用学習済DNNモデル)と、(エッジデバイス2の)デバイス制御プログラムが含まれている。エッジデバイス2のうち、エッジデバイス2aには、請求項におけるマルチカメラオブジェクトトラッキングプログラムの一部が含まれている。
【0025】
次に、図3を参照して、分析サーバ1のハードウェア構成について説明する。分析サーバ1は、装置全体の制御及び各種演算を行うCPU21と、各種のデータやプログラムを格納するハードディスク22と、RAM(Random Access Memory)23と、ディスプレイ24と、操作部25と、通信部26とを備えている。上記のハードディスク22には、追跡対象者登録用DB27(請求項における「追跡対象者登録用データベース」)と、マルチカメラオブジェクトトラッキングプログラム28が格納されている。このマルチカメラオブジェクトトラッキングプログラム28は、請求項におけるマルチカメラオブジェクトトラッキングプログラムの一部であり、主に、図4におけるマルチカメラトラッキング部39に対応するプログラムである。
【0026】
次に、図4を参照して、本発明の第1の実施形態によるマルチカメラオブジェクトトラッキングシステム10におけるマルチカメラオブジェクトトラッキング処理の概要について説明する。図4は、エッジデバイス2(エッジデバイス2a~2cの総称)のSoC11と分析サーバ1のCPU21の機能ブロックのうち、マルチカメラオブジェクトトラッキング処理に関するブロックの入出力関係を示す。エッジデバイス2aは、機能ブロックとして、人検出部31a,31bと、2次元ポーズ推定部32a,32bと、3次元ポーズ生成部33と、3次元ポーズトラッキング部34と、画像特徴量抽出部35aと、追跡対象者登録部36とを備えている。図5における2次元ポーズ推定部32a,32bと、3次元ポーズ生成部33と、3次元ポーズトラッキング部34と、追跡対象者登録部36とは、それぞれ、請求項における2次元ポーズ推定手段と、3次元ポーズ生成手段と、3次元ポーズトラッキング手段と、追跡対象者登録手段とに相当する。
【0027】
図4に示す人検出部31a,31bは、それぞれ、店舗Sの入口に配置された入口カメラ3a、入口カメラ3bから入力されるビデオフレームよりフレーム画像を抽出して、各フレーム画像に含まれる人物を検出し、検出した各人物のバウンディングボックス情報を付加したフレーム画像(人物検出画像)を、2次元ポーズ推定部32a,32bに送る。
【0028】
ここで、上記入口カメラ3a、入口カメラ3bの配置について、図5を参照して、詳細に説明する。図5に示すように、2つの入口カメラのうち、一方の入口カメラ3aは、ドア(自動ドアを含む)等の入口ENT(マルチカメラオブジェクトトラッキングの開始地点)の上に設置されて、入口を通過する追跡対象者の略背面側の画像(図4中の撮影画像41)を撮影する。これに対して、もう一方の入口カメラ3bは、例えば、入口の斜め前の通路の上(天井等)に設置されて、入口を通過する追跡対象者の略前面側の画像(図4中の撮影画像42)を撮影する。ここで、本実施形態においては、上記の追跡対象者の「略前面側の画像」とは、追跡対象者の顔の主要なパーツのうち、少なくとも鼻、左目、右目が映った撮影画像を意味する。しかし、本発明においては、追跡対象者の「略前面側の画像」は、追跡対象者の顔の半分以上が映った撮影画像であればよい。また、追跡対象者の「略背面側の画像」とは、追跡対象者登録用DB27に登録される画像が追跡対象者の頭の画像(顔画像)の場合は、追跡対象者の後頭部が映った撮影画像であり、追跡対象者登録用DB27に登録される画像が追跡対象者の人物画像(体全体の画像)の場合は、追跡対象者の後頭部、背中、及び臀部が映った撮影画像を意味する。
【0029】
図5に示すように、入口カメラ3aと入口カメラ3bとは、これらの光軸43aと光軸43bとの成す角度が、110°~140°となるように配置されることが望ましい。2つの入口カメラ(入口カメラ3aと入口カメラ3b)を、これらの光軸43aと光軸43bとの成す角度が、180°近辺の角度となるように配置しない方が良い理由は、以下のとおりである。すなわち、入口カメラ3aを、図5に示すように、入口ENTの上に設置した場合に、入口カメラ3bを、この光軸43bが、入口カメラ3aの光軸43aと180°の角度となる(光軸43aと光軸43bが重なる)ように配置すると、入口を通過する追跡対象者を完全に前側と後側から撮影することになってしまう。入口では、人が密集し易いので、オクルージョンが発生し易い。オクルージョンが発生し易い入口を通過する複数の人物(追跡対象者)を、完全に前側と後側から撮影した場合には、後側から見て人物が重なっている場合には、前側から見ても人物が重なってしまう。このため、入口を通過する人物を完全に前側と後側から撮影したのでは、入口を通過する複数の人物を正確に追跡することが難しい。また、入口を通過する人物を、完全に前側と後側から撮影すると、3次元ポーズの生成(推定)がしにくくなるので、生成した3次元ポーズに基づく3次元ポーズトラッキングを行うことが難しくなる。このため、本実施形態では、図5に示すように、2つの入口カメラ(入口カメラ3aと入口カメラ3b)を、これらの光軸43aと光軸43bとの成す角度が、110°~140°となるように配置している。
【0030】
当社で行ったテスト結果によると、2つの入口カメラを上記のように配置することにより、入口カメラ3aで撮影した略背面側の画像において、入口を通過する複数の人物が前後に重なっている場合でも、入口カメラ3bで撮影した略前面側の画像では、複数の人物が前後に重ならないようにすることができる可能性を高めることができる。また、2つの入口カメラを、これらの光軸43aと光軸43bとの成す角度が、110°~140°となるように配置することにより、これらの入口カメラの撮影画像を、完全に前側と後側からの撮影画像ではないようにすることができるので、3次元ポーズの生成(推定)がし易くなり、生成した3次元ポーズに基づく3次元ポーズトラッキングを行うことが容易になる。
【0031】
図5に示す重複撮影エリア44は、2つの入口カメラ(入口カメラ3aと入口カメラ3b)の撮影範囲のうち、これらの撮影範囲が重なっている部分を示す。この重複撮影エリア44は、大きい(広い)ことが望ましく、少なくとも9平方メートル以上であることが望ましい。
【0032】
また、上記の入口カメラ3aによる撮影画像41と、入口カメラ3bによる撮影画像42とは、同期を取って取得(撮影)される必要がある。具体的には、入口カメラ3aによる撮影画像41と、入口カメラ3bによる撮影画像42とを同時に取得するか、所定の時間的なオフセットを持って、これらの入口カメラ3a、3bからの撮影画像の取得を行う。図4に示すエッジデバイス2a(のSoC11)は、入口カメラ3aによる撮影画像41と、入口カメラ3bによる撮影画像42とを、上記のように同期を取って取得して、取得した入口カメラ3aの撮影画像41と、入口カメラ3bの撮影画像42とを、それぞれ、人検出部31aと、人検出部31bとに送る。
【0033】
図6は、上記の人検出部31bが、入口カメラ3bによる撮影画像42から検出した略前面側の人物検出画像(検出した人物のバウンディングボックス情報を付加したフレーム画像)48と、人検出部31aが、入口カメラ3aによる撮影画像41から検出した略背面側の人物検出画像49とを示す。これらの人物検出画像は、元になるフレーム画像に、検出した各人物のバウンディングボックス情報を付加したものであっても良いし、図6に示すように、元になるフレーム画像における検出した人物周辺の切抜き画像に、バウンディングボックス情報を付加したものであっても良い。
【0034】
図4に示すように、人検出部31aにより検出された略背面側の人物検出画像49と、人検出部31bにより検出された略前面側の人物検出画像48とは、それぞれ、2次元ポーズ推定部32a,32bに送られる。2次元ポーズ推定部32aは、人検出部31aにより検出された略背面側の人物検出画像49における、検出された人物(追跡対象者)のキーポイントを推定し、2次元ポーズ推定部32bは、人検出部31bにより検出された略前面側の人物検出画像48における、検出された人物のキーポイントを推定する。2次元ポーズ推定部32a,32bによる推定処理では、検出された人物(追跡対象者)についての17のキーポイント(図7参照)が推定される。図7は、COCOデータセット(Common Objects in Context)において教師ラベルとして付与される17のキーポイントを示す。
【0035】
上記の2次元ポーズ推定部32a、32bにより推定された追跡対象者のキーポイントは、予め取得された入口カメラ3a、3bのキャリブレーションパラメータ(内部パラメータ及び外部パラメータ)と共に、図4に示す3次元ポーズ生成部33に送られる。3次元ポーズ生成部33は、2次元ポーズ推定部32a,32bにより推定された(略背面側と略前面側の人物検出画像49、48における)追跡対象者のキーポイントと、入口カメラ3a、3bのキャリブレーションパラメータから、追跡対象者の3次元ポーズを生成する。上記の入口カメラ3a、3bのキャリブレーションパラメータは、入口カメラ3a、3bのキャリブレーションにより推定される。
【0036】
上記のキャリブレーションパラメータには、内部パラメータ、外部パラメータ、及び(レンズの)歪み係数が含まれている。一般に、カメラのキャリブレーションにおいて、カメラのキャリブレーションパラメー タを推定するには、3 次元ワールドポイントとそれに対応する 2 次元のイメージポイントが必要である。この対応関係は、チェッカーボードのようなキャリブレーションパターンの複数のイメージを使用して取得することができる。
【0037】
図8は、ピンホールカメラモデルにおけるカメラキャリブレーションアルゴリズムの説明図である。ピンホールカメラは、レンズが無く、小さな開口部が一つあるシンプルなカメラである。図8に示すように、外部パラメータは、3次元のワールド座標系から、3次元のカメラ座標系への変換をするためのパラメータであり、内部パラメータは、3次元のカメラ座標から2次元のイメージ座標(イメージ平面上の座標)への射影変換をするためのパラメータである。外部パラメータは、回転行列Rと変換行列tで構成され、一般に、[Rt]と表記される。また、内部パラメータは、焦点距離、光学的中心、及びせん断係数を含み、内部パラメータの行列Kは、以下のように定義される。
【0038】
【数1】
【0039】
上記の行列Kにおいて、[c]は、ピクセル単位の光学的中心(主点)であり、(f, fy)は、ピクセル単位の焦点距離であり、sは、せん断係数である。
【0040】
次に、3次元ポーズ生成部33により行われる追跡対象者の3次元ポーズ生成処理について、より詳細に説明する。図9は、3次元ポーズ生成部33による3次元ポーズ生成処理の前に、エッジデバイス2a(のSoC11)が行う2次元ポーズの関連付け処理の説明図である。この図では、人物53~56を模式的に表している。図9に示す入口カメラ3aの撮影画像51において人検出部31aにより検出された略背面側の人物(追跡対象者)が、人物53と人物54であり、入口カメラ3bの撮影画像52において人検出部31bにより検出された略前面側の人物(追跡対象者)が、人物55と人物56であったとする。この時、エッジデバイス2a(のSoC11)は、入口カメラ3aの撮影画像51における人物53、54の各キーポイント(17個のキーポイントの各々)と、入口カメラ3bの撮影画像52における人物55、56の各キーポイントとの平均エピポーラ距離に基づいて、撮影画像51における人物53、54(のポーズ)と、撮影画像52における人物55、56(のポーズ)との対応付けを行う。
【0041】
上記の「平均エピポーラ距離」とは、異なる入口カメラにより撮影された各人物における対応するキーポイント間の「エピポーラ距離」の平均値である。そして、「エピポーラ距離」とは、下記の距離である。例えば、図9に示すように、2次元ポーズ推定部32aが推定した人物54のキーポイントの一つである左耳の位置が、キーポイントK1であり、2次元ポーズ推定部32bが推定した人物55、56についての左耳の位置が、それぞれ、キーポイントK1´、K1“であったとする。このとき、図10に示すように、エピポーラ幾何の概念図に、上記のキーポイントK1、K1´、K1“をプロットすると、人物54のキーポイントK1のエピポーラ線である、撮影画像52上のエピポーラ線l´と、上記の人物55、56のキーポイントK1´、K1“との距離が、「エピポーラ距離」である。例えば、図10におけるエピポーラ線l´と人物55のキーポイントK1´との距離d´が、「エピポーラ距離」である。図10では、エピポーラ線l´と人物56のキーポイントK1“との間の距離d”は、ゼロであるため、記載していない。図9及び図10では、撮影画像51における人物54と、撮影画像52における人物56とが同じ人物であると想定しているので、人物54のキーポイントK1のエピポーラ線であるエピポーラ線l´と人物56のキーポイントK1“との間の距離d”をゼロにしている。一方、撮影画像51における人物54と、撮影画像52における人物55とは別人であると想定しているので、人物54のキーポイントK1のエピポーラ線であるエピポーラ線l´と人物55のキーポイントK1´との距離d´は、ゼロではない。なお、図10における撮影画像51上の点xと点K1は、同一の点である。
【0042】
また、上記の「平均エピポーラ距離」は、例えば、入口カメラ3aの撮影画像51における人物54の17のキーポイント(のうちの、撮影画像51と撮影画像52の両方に映っているキーポイント)の各々と、入口カメラ3bの撮影画像52における人物56の17のキーポイント(のうちの、撮影画像51と撮影画像52の両方に映っているキーポイント)の各々との「エピポーラ距離」の平均値を意味する。この「平均エピポーラ距離」は、比較対象となる人物が同じ人物の場合には、ゼロに近づき、異なる人物である場合には、大きくなる。このため、「平均エピポーラ距離」に基づいて、撮影画像51における人物53、54(のポーズ)と、撮影画像52における人物55、56(のポーズ)との対応付けを行うことにより、入口カメラ3aの撮影画像51において検出された人物(追跡対象者)と、入口カメラ3bの撮影画像52において検出された人物との関連付けを正確に行うことができる。
【0043】
上記の2次元ポーズの関連付け処理が完了すると、3次元ポーズ生成部33は、2次元ポーズ推定部32aが推定した略背面側の人物(追跡対象者)のキーポイント(2次元画像上の位置)と、2次元ポーズ推定部32bが推定した略前面側の人物のキーポイント(2次元画像上の位置)とを用いて、三角測量により、人検出部31a、31bにより検出された各人物(追跡対象者)の各キーポイントの3次元空間(ワールド座標)における位置を求めて、検出された各人物の3次元ポーズを生成する。
【0044】
上記の三角測量とは、ステレオ視では、異なる視点(カメラのレンズ中心)の画像における対応点(図11における点xと点x´)が定まると、視点(図11における点Oと点O´)と画像面上のその点(点xと点x´)を通る視線(図11におけるWとW´)の交点として、その点の三次元位置Xが定まるというものである。
【0045】
次に、上記の図10を用いて、入口カメラ3aによる撮影画像51と、入口カメラ3bによる撮影画像52のような、異なる視点のカメラで撮影した画像を用いて、三角測量ができる原理について、説明する。この図は、あるシーンを視点の異なる2台のカメラで撮影した場合の状況を表している。点Oと点O´は、これらのカメラの視点(投影中心)であり、3次元空間上の点Xが、2つのカメラの投影面(撮影画像51と撮影画像52に対応)に投影されているとする。仮に、左側のカメラのみを使用するのであれば、左のカメラの撮影画像上の点xについて、それが3次元空間上のどの点に対応するか分からない。左のカメラの視点(投影中心)Oと点xを結ぶ直線OX上の点であれば、いずれの点も、左側の画像における点xに写像されるからである。しかし、右のカメラで撮影した画像では、直線OX上の各点は異なる点に写像される。このことから、同じシーンについて、視点の異なる2枚の撮影画像があれば、3次元空間上の点Xを、三角測量できることが分かる。なお、直線OX上の点は、右側のカメラの撮影画像上では、直線l´を形成する。この直線l´が、上述した点xの「エピポーラ線」である。
【0046】
次に、上記の図11を参照して、3次元ポーズ生成部33が、2次元ポーズ推定部32aが推定した略背面側の人物のキーポイント(2次元画像上の位置)と、2次元ポーズ推定部32bが推定した略前面側の人物のキーポイント(2次元画像上の位置)と、入口カメラ3a、3bのキャリブレーションパラメータ(内部パラメータ及び外部パラメータ)とを用いて、三角測量により、この人物のキーポイントの3次元空間(ワールド座標)上の位置を求める際の計算方法について説明する。
【0047】
まず、上記の予め取得された入口カメラ3a、3bのキャリブレーションパラメータ(内部パラメータ及び外部パラメータ)を用いて、3行4列のカメラ行列Pを下記の式で計算する。このカメラ行列Pは、3次元空間におけるシーンを、イメージ平面上にマッピングするための行列である。

P=K[Rt]・・・(2)
【0048】
上記のカメラ行列Pを用いて、イメージ平面上の点xの座標位置(x,y)(例えば、図11における入口カメラ3aによる撮影画像51上の点x(キーポイントK1)や、入口カメラ3bによる撮影画像52上の点x´(キーポイントK1“)の座標位置)と、3次元空間(ワールド座標)上の点Xの座標位置(X,Y,Z)との関係を表すと、下記のカメラ変換式のようになる。
【0049】
【数2】
【0050】
ここで、λは、スケールファクター(対象となるものの大きさ(スケール)を表す係数)であり、(x,y)は、イメージ平面上の点xの座標位置であり、(X,Y,Z)は、3次元空間(ワールド座標)上の点Xの座標位置である。
【0051】
図11の点x、x´のように、2つのカメラ(例えば、入口カメラ3a,3b)の撮影画像上の点x,xについて、上記式(3)のカメラ変換式を適用すると、下記のようになる。
λ=PX・・・(4)
λ=PX・・・(5)
【0052】
ここで、上記式(4)と式(5)のx,xは、式(3)の左辺第2項の行列に対応し、式(4)と式(5)のXは、式(3)の右辺2項の行列に対応する。
【0053】
上記の2つの式(4)(5)を行列で表現すると、下記のようになる。
【0054】
【数3】
【0055】
上記の行列式は、Ax=0の形になるので、x(式(6)の左辺第2項)をSVD(Singular Value Decomposition:特異値分解)で解くことで、3次元空間(ワールド座標)上の点Xの座標位置を復元できる。
【0056】
3次元ポーズ生成部33は、上記の方法で、入口カメラ3aによる撮影画像51と、入口カメラ3bによる撮影画像52の両方に映った各人物について、全て(17個)のキーポイントの3次元空間(ワールド座標)上の位置を求める。そして、3次元ポーズ生成部33は、撮影画像51、52に映った各人物について、当該人物の全てのキーポイントをつなげることにより、図12(b)に示すように、上記の各人物の3次元空間(ワールド座標)におけるポーズである3次元ポーズ66、67を生成する。
【0057】
図4に示す3次元ポーズトラッキング部34は、3次元ポーズ生成部33が生成した各3次元ポーズに対応する追跡対象者に識別用IDを割り当てて、この識別用IDを割り当てられた人物(追跡対象者の各々)を、この人物の3次元ポーズを用いて、入口カメラ3a、3bによる撮影画像から構成されるビデオフレームの全体に亘って追跡する。具体的には、3次元ポーズトラッキング部34は、同じ人物について、3次元ポーズ生成部33が生成した1つ前の3次元ポーズ(入口カメラ3a、3bによる1つ前の(時刻t0の)撮影画像から生成した3次元ポーズ)(図12(b)参照)と、その次の3次元ポーズ(入口カメラ3a、3bによるその次の(時刻t1の)撮影画像から生成した3次元ポーズ)(図12(b)参照)とを結びつけるのに、これらの連続する2つの3次元ポーズの両方に現れる全てのキーポイントの各々について、2つの3次元ポーズにおける対応するキーポイント間のユークリッド距離を求める。そして、3次元ポーズトラッキング部34は、これらのユークリッド距離の平均値が、所定の閾値未満の場合には、これらの3次元ポーズを、同じトラックに統合する。これに対して、上記のユークリッド距離の平均値が、所定の閾値以上の場合には、3次元ポーズトラッキング部34は、最新の(時刻t1の)撮影画像から生成した3次元ポーズに基づいて、新しいトラックを生成する(当該3次元ポーズに対応する人物(追跡対象者)に新しい識別用IDを付与する)。
【0058】
図12(a)は、2次元ポーズ推定部32a、32bが上記の1つ前の(時刻t0の)撮影画像51,52から推定した2次元ポーズ61~64と、上記のその次の(時刻t1の)撮影画像51´,52´から生成した2次元ポーズ61´~64´の例を示し、図12(b)は、3次元ポーズ生成部33が生成した1つ前の(時刻t0の)3次元ポーズ67,68と、その次の(時刻t1の)3次元ポーズ67´,68´の例を示す。これらの図12(a)(b)から、2次元の撮影画像51,52に基づく2次元ポーズ61~64では重なっていた人物(ポーズ)が、3次元ポーズ67,68では、上手く分離されるので、3次元ポーズトラッキング部34が、各人物に正確に識別用IDを付与して、各人物の追跡を正確に行うことができる。
【0059】
図13(a)(b)は、図12(a)(b)と同様に、2次元ポーズ推定部32a、32bが撮影画像71,72から推定した2次元ポーズ73~76、73´~76´と、3次元ポーズ生成部33が生成した3次元ポーズ73“~76”とを対比して示す。2次元ポーズ73、73´と3次元ポーズ73“とは、同一人物のポーズである。同様に、2次元ポーズ74、74´と3次元ポーズ74“、2次元ポーズ75、75´と3次元ポーズ75“、及び2次元ポーズ76、76´と3次元ポーズ76“とは、同一人物のポーズである。
【0060】
図13(a)(b)から、3次元ポーズ生成部33が生成した3次元ポーズ73“~76”では、2つの入口カメラ(入口カメラ3aと入口カメラ3b)から得られた異なる方向の撮影画像(略背面側と略前面側の撮影画像)を用いることにより、非常に接近して重なった4人の人物についても、正確に3次元ポーズをマッピングすることができていることが分かる。このため、この3次元ポーズを用いた3次元ポーズトラッキングでは、図13(a)(b)中の各人物についての追跡(トラッキング)を正確に行うことができるが、従来の2次元の撮影画像を用いたシングルカメラオブジェクトトラッキング(SORT 、DeepSORT 、Deep OC-SORT等によるトラッキング)により、上記のように非常に接近して重なった複数の人物についての追跡を行った場合には、人物(追跡対象者)に付与される識別用IDが入れ替わってしまうスワッピングの問題が発生してしまう。
【0061】
上記のような差が出るのは、2次元のカメラ画像(撮影画像)では、非常に接近して重なった複数の人物についても、3次元空間上では識別可能だからである。3次元ポーズトラッキングによれば、従来の2次元の撮影画像を用いたシングルカメラオブジェクトトラッキングと比べて、上記のスワッピングの発生を有意に減らすことができる。なお、上記のDeep OC-SORT は、「motion modeling」型のトラッキングモデル(それまでの物体の動きから物体の動きを予測するモデル)であるOC-SORTに、物体の外観マッチングの手法を取り入れたものである。
【0062】
図4に示す画像特徴量抽出部35aは、人検出部31a,31bが検出した人物についての略背面側及び略前面側の人物画像又は顔画像(請求項における「頭の画像」)の特徴量を抽出して、抽出した画像特徴量を追跡対象者登録部36に送る。なお、請求項では、厳密な定義をするために、(追跡対象者の)「頭の画像」という用語を用いたが、「顔画像」という言い方の方が分かり易いので、実施形態では、「顔画像」という用語を用いる。
【0063】
追跡対象者登録部36は、3次元ポーズトラッキング部34による追跡対象者(人物)の各々の追跡結果を用いて、入口カメラ3a、3bで同期を取って撮影された追跡対象者(検出した人物)の各々の略背面側及び略前面側の人物画像又は顔画像の特徴量(画像特徴量)と、追跡対象者の各々の識別用IDとを、分析サーバ1の追跡対象者登録用DB27(請求項における追跡対象者登録用データベース)に(追加)登録する処理を行う。
【0064】
なお、追跡対象者登録部36は、3次元ポーズトラッキング部34による追跡対象者(人物)の各々の追跡結果を用いて、入口カメラ3a、3bで同期を取って撮影された追跡対象者(検出した人物)の各々の略背面側及び略前面側の人物画像又は顔画像と、追跡対象者の各々の識別用IDとを、分析サーバ1の追跡対象者登録用DB27に登録するようにしてもよい。
【0065】
本実施形態では、上記の3次元ポーズトラッキング部34によるトラッキング結果のデータである「トラック」として、追跡対象者(人物)の移動軌跡と、その人の略背面側及び略前面側の人物画像又は顔画像の特徴量(画像特徴量)とが含まれる。本実施形態では、ある追跡対象者(人物)の情報として、上記の略背面側及び略前面側の人物画像又は顔画像の特徴量(画像特徴量)と、識別用IDに加えて、上記のトラックに含まれる移動軌跡を、追跡オブジェクトDB39に登録(格納)する。
【0066】
なお、本実施形態では、エッジデバイス2a(の追跡対象者登録部36)のみが、マルチカメラオブジェクトトラッキング用の識別用IDを付与する(割り当てる)ので、3次元ポーズトラッキング部34によるトラッキング用の識別用IDと、マルチカメラトラッキング部39によるマルチカメラオブジェクトトラッキング用の識別用IDとを分ける必要は無い。ただし、エッジデバイス2c、2dも、マルチカメラオブジェクトトラッキング用の識別用IDを付与する(割り当てる)場合には、3次元ポーズトラッキング部34によるトラッキング用の識別用ID(いわゆるローカルIDに類似)と、マルチカメラトラッキング部39によるマルチカメラオブジェクトトラッキング用の識別用ID(いわゆるグローバルID)とを分ける必要がある。
【0067】
本実施形態では、上記の入口カメラ3aと入口カメラ3bによる撮影画像以外で検出された人物については、通常の(2次元の撮影画像を用いた)シングルカメラオブジェクトトラッキングを行う。すなわち、店舗内カメラ3cによる撮影画像は、エッジデバイス2cに送られて、エッジデバイス2cの人検出部31cで、上記の撮影画像に映った人の検出が行われる。エッジデバイス2cの2次元シングルカメラトラッキング部38aは、人検出部31cで検出された人物を、店舗内カメラ3cの撮影範囲内で追跡する処理であるシングルカメラオブジェクトトラッキングを行う。具体的には、2次元シングルカメラトラッキング部38aは、SORT(Simple Online and Realtime Tracking)や、DeepSORT(Simple Online and Realtime Tracking with a deep association metric)の技術を用いて、人検出部31cで検出された人物のバウンディングボックスとトラックとの紐づけを行う。また、エッジデバイス2cの画像特徴量抽出部35bは、人検出部31cが検出した人物についての人物画像又は顔画像の特徴量を抽出する。
【0068】
エッジデバイス2cのSoC11(図2参照)は、クエリとして、2次元シングルカメラトラッキング部38aによるトラッキング結果のデータである「トラック」を、分析サーバ1のマルチカメラトラッキング部39に送る。この「トラック」には、画像特徴量抽出部35bが抽出した画像特徴量が含まれている。分析サーバ1のマルチカメラトラッキング部39は、エッジデバイス2cから送られたクエリについてのマルチカメラオブジェクトトラッキング処理を行う。すなわち、マルチカメラトラッキング部39は、エッジデバイス2cから送られたクエリに含まれる画像特徴量と、追跡対象者登録用DB27に登録済の追跡対象者の各々の画像特徴量とのマッチングを行うことにより、エッジデバイス2cのシングルカメラオブジェクトトラッキングで得られたトラックが、追跡対象者登録用DB27に登録済のどの識別用IDに紐づくかを推定し、推定結果の識別用IDを、該当のトラックに割り当てる。なお、上記のクエリとは、追跡対象者登録用DB27のデータベース管理システム(DBMS)に対して、データの検索などの処理を行うように求める命令文のことを意味する。
【0069】
分析サーバ1のCPU21が、エッジデバイス2cからクエリとして送られたトラックの特徴ベクトルと、ある追跡対象者(パーソン1)の情報として登録されているトラック1の特徴ベクトルとが合致すると判定した場合、分析サーバ1のCPU31は、エッジデバイス2cから送られたトラックがパーソン1のトラックであるとみなし、上記のデータベース管理システムを用いて、追跡対象者登録用DB27に登録されているパーソン1の情報を、クエリに含まれるトラックの情報を用いてアップデートする。すなわち、例えば、追跡対象者登録用DB27に登録されているパーソン1の情報に対して、店舗内カメラ3cの撮影範囲内におけるパーソン1の移動軌跡を考慮した、パーソン1の移動軌跡の更新処理と、クエリに含まれるトラックの特徴ベクトルを用いたパーソン1の特徴ベクトルの更新処理(例えば、追跡対象者登録用DB27に登録されているパーソン1の特徴ベクトルを、クエリに含まれる特徴ベクトルに置き換える処理や、追跡対象者登録用DB27に登録されているパーソン1の特徴ベクトルに、クエリに含まれる特徴ベクトルを追加する処理)を行う。
【0070】
出口カメラ3dによる撮影画像についてエッジデバイス2dが行うシングルカメラオブジェクトトラッキング処理、及び分析サーバ1のマルチカメラトラッキング部39が、エッジデバイス2dから送られたクエリについて行うマルチカメラオブジェクトトラッキング処理も、上記の店舗内カメラ3cによる撮影画像についてエッジデバイス2cが行うシングルカメラオブジェクトトラッキング処理、及び分析サーバ1のマルチカメラトラッキング部39が、エッジデバイス2cから送られたクエリについて行うマルチカメラオブジェクトトラッキング処理と同様である。
【0071】
なお、上述したように、入口カメラ3a、3bの撮影画像を処理するエッジデバイス2a(の追跡対象者登録部36)のみが、追跡対象者にマルチカメラオブジェクトトラッキング用の識別用IDを付与して(割り当てて)、店舗内カメラ3c、出口カメラ3dの撮影画像を処理するエッジデバイス2c、2dが、追跡対象者にマルチカメラオブジェクトトラッキング用の識別用IDを付与しない(割り当てない)ようにしたことにより、店舗S(請求項における「建物又は部屋」)の内側に配置されたカメラによる撮影画像から新しい追跡対象者が生じるのを避けることができるので、マルチカメラオブジェクトトラッキング処理におけるPerson Re-Identification(人物再同定)を正確に行うことができる。
【0072】
上記の追跡対象者登録用DB27は、いわゆるギャラリーと呼ばれる画像関連のデータベースである。第1の実施形態では、追跡対象者登録用DB27に登録される追跡対象者の画像関連データは、追跡対象者の略前面側の画像と略背面側の画像(人物画像又は顔画像)の特徴量(画像特徴量)になる。
【0073】
ここで、図14のフローチャートを参照して、第1の実施形態によるマルチカメラオブジェクトトラッキングシステム10が行うマルチカメラオブジェクトトラッキング処理について、まとめておく。まず、図4に示すエッジデバイス2aの人検出部31a,31bが、入口カメラ3a、3bから入力される撮影画像から人物を検出して、略背面側と略前面側の人物検出画像を、それぞれ、2次元ポーズ推定部32a,32bに送る(S1)。2次元ポーズ推定部32a,32bは、それぞれ、人検出部31a,31bから送られた略背面側の人物検出画像と略前面側の人物検出画像における、追跡対象者のキーポイントを推定する(S2)。3次元ポーズ生成部33は、2次元ポーズ推定部32a,32bにより推定された(略背面側と略前面側の人物検出画像における)追跡対象者のキーポイントと、予め求めた入口カメラ3a、3bのキャリブレーションパラメータから、追跡対象者の3次元ポーズを生成する(S3)。そして、図4に示す3次元ポーズトラッキング部34が、3次元ポーズ生成部33が生成した各3次元ポーズに対応する追跡対象者に識別用IDを割り当てて、この識別用IDを割り当てられた人物(追跡対象者の各々)を、この人物の3次元ポーズを用いて、入口カメラ3a、3bによる撮影画像から構成されるビデオフレームの全体に亘って追跡する(S4)。
【0074】
次に、追跡対象者登録部36が、3次元ポーズトラッキング部34による追跡対象者の各々の追跡結果を用いて、入口カメラ3a、3bで同期を取って撮影された追跡対象者の各々の略背面側及び略前面側の人物画像又は顔画像の特徴量(画像特徴量)と、追跡対象者の各々の識別用IDとを、分析サーバ1の追跡対象者登録用DB27に登録する(S5)。そして、分析サーバ1のマルチカメラトラッキング部39が、エッジデバイス2cから送られたクエリに含まれる画像特徴量と、追跡対象者登録用DB27に登録済の追跡対象者の各々の画像特徴量とのマッチングを行うことにより、追跡対象者の各々を複数のカメラ(入口カメラ3a、3b、店舗内カメラ3c、及び出口カメラ3d)の撮影範囲にまたがって追跡する(追跡対象者の各々についてのマルチカメラオブジェクトトラッキングを行う)(S6)。
【0075】
上記のように、第1の実施形態によるマルチカメラオブジェクトトラッキングシステム10によれば、マルチカメラオブジェクトトラッキングの開始地点(入口)に設置された2つのカメラ(入口カメラ3aと入口カメラ3b)で撮影される画像が、追跡対象者の略前面側の画像と略背面側の画像であるため、追跡対象者登録用DB27に登録される画像特徴量が、追跡対象者の略前面側の画像と略背面側の画像の画像特徴量になる。これにより、従来のマルチカメラオブジェクトトラッキングシステムと異なり、追跡対象者の少なくとも略前面側の画像と略背面側の画像の画像特徴量を用いて、トラッキングの開始地点以外に設置したカメラで撮影した追跡対象者の画像の特徴量とのマッチングを行うことができるので、安定したPerson Re-Identification(人物再同定)を行うことができる。従って、追跡対象者を、複数のカメラの撮影範囲にまたがって正確に追跡することができる。
【0076】
従来のマルチカメラオブジェクトトラッキングシステムでは、入口等のマルチカメラオブジェクトトラッキングの開始地点に設置されるカメラが1台だけであるため、上記のトラッキング開始地点に設置されたカメラで撮影される人物画像が、一つの(カメラの)画角で撮影された人物画像のみになる。このため、追跡対象者登録用のデータベースに登録される画像(人物画像又は顔画像)又は画像特徴量が、人物を特定の方向から見た画像又は画像特徴量だけになってしまう。このような人物を特定の方向から見た画像(例えば、人物を背面側から見た画像)又は画像特徴量のみを用いて、トラッキングの開始地点以外に設置したカメラで撮影した画像又は画像特徴量とのマッチングを行ったのでは、安定したPerson Re-Identification(人物再同定)を行うことができない。
【0077】
これに対して、第1の実施形態によるマルチカメラオブジェクトトラッキングシステム10によれば、従来のマルチカメラオブジェクトトラッキングシステムと異なり、追跡対象者の少なくとも略前面側の画像と略背面側の画像の画像特徴量を用いて、トラッキングの開始地点以外に設置したカメラで撮影した画像の特徴量とのマッチングを行うことができる。そして、例えば、追跡対象者登録用DB27に登録された、追跡対象者の略前面側の画像の画像特徴量と追跡対象者の略背面側の画像の画像特徴量とのうち、いずれかが、トラッキングの開始地点以外に設置したカメラで撮影した追跡対象者の画像の特徴量と一致すれば、この特徴量のマッチングが成功したと判定する。これにより、トラッキングの開始地点以外に設置したカメラで撮影した画像で検出された人物(追跡対象者)の顔向きに関わらず、上記のマッチングを成功させることが可能になるので、安定したPerson Re-Identification(人物再同定)を行うことができるのである。従って、追跡対象者を、複数のカメラの撮影範囲にまたがって正確に追跡することができる。
【0078】
また、第1の実施形態のマルチカメラオブジェクトトラッキングシステム10によれば、追跡対象者の3次元ポーズを生成し、生成した3次元ポーズに対応する追跡対象者に識別用IDを割り当てて、この識別用IDを割り当てられた追跡対象者の各々を、生成された3次元ポーズを用いて、入口(マルチカメラオブジェクトトラッキングの開始地点)に設置された2つ以上のカメラによる撮影画像から構成されるビデオフレームの全体に亘って追跡するようにした。上述したように、2次元の撮影画像では、非常に接近して重なった複数の人物についても、3次元空間上では識別可能であるため、3次元ポーズを用いた3次元ポーズトラッキングによれば、従来の2次元の撮影画像を用いたシングルカメラオブジェクトトラッキングと比べて、上記のスワッピング(人物の追跡(トラッキング)中に、追跡対象者に付与される識別用IDが入れ替わってしまうという問題)の発生を減らすことができる。これにより、マルチカメラオブジェクトトラッキングの開始地点(入口)において、撮影画像に映った人物(追跡対象者)についての正確な識別用IDと画像特徴量を、追跡対象者登録用DB27に登録することができる。
【0079】
また、第1の実施形態のマルチカメラオブジェクトトラッキングシステム10によれば、入口カメラ3a、3bで同期を取って撮影された追跡対象者の略前面側の画像と略背面側の画像における、追跡対象者の(2次元の)キーポイントを推定して、推定した追跡対象者の(2次元の)キーポイントと、入口カメラ3a、3bのキャリブレーションパラメータから、追跡対象者の3次元ポーズを生成するようにした。これにより、追跡対象者の正確な3次元ポーズを生成することが可能になる。
【0080】
次に、図15を参照して、本発明の第2の実施形態のマルチカメラオブジェクトトラッキングシステム80について説明する。第2の実施形態のマルチカメラオブジェクトトラッキングシステム80は、主に、以下の2つの点について、第1の実施形態のマルチカメラオブジェクトトラッキングシステム10と異なる。1つ目の相違点は、追跡対象者登録用DB27に登録されるのが、追跡対象者の略前面側と略背面側の画像(顔画像又は人物画像)の画像特徴量ではなく、追跡対象者の略前面側と略背面側の画像(顔画像又は人物画像)であり、これらの画像に基づいて、追跡対象者のマルチカメラオブジェクトトラッキングを行う点である。
【0081】
2つ目の相違点は、エッジデバイス2aが、2つの方向から撮影した追跡対象者の顔画像又は人物画像に基づいて、2つの方向の中間の方向から撮影した前記追跡対象者の顔画像又は人物画像を、生成AIモデルにより生成して、生成した追跡対象者の顔画像又は人物画像を補間画像として、追跡対象者登録部36により追跡対象者登録用DB27に登録する補間画像生成登録部81を備える点である。補間画像生成登録部81は、請求項における「補間画像生成登録手段」に相当する。補間画像生成登録部81は、例えば、上記の追跡対象者の略前面側と略背面側の顔画像又は人物画像に基づいて、2つの方向の中間の方向から撮影した追跡対象者の顔画像又は人物画像を、生成AIモデルにより生成して、生成した追跡対象者の顔画像又は人物画像を補間画像として、追跡対象者登録部36を用いて追跡対象者登録用DB27に登録する。
【0082】
図15に示す例では、補間画像生成登録部81は、2つの方向(追跡対象者の略前面側と略背面側)から撮影した追跡対象者の画像(顔画像又は人物画像)と、2次元ポーズ推定部32a、32bにより推定された追跡対象者の略前面側と略背面側の画像におけるキーポイントとを用いて、上記の2つの方向の中間の方向から撮影した追跡対象者の画像(顔画像又は人物画像)を、生成AIモデルにより生成する。補間画像生成登録部81は、上記の2つの方向の中間の方向から撮影した追跡対象者の画像(補間画像)の生成処理を繰り返すことにより、追跡対象者の色んな顔向きの画像(顔画像又は人物画像)を補間画像として生成して、追跡対象者登録部36により追跡対象者登録用DB27に登録することが可能である。
【0083】
第2の実施形態では、追跡対象者登録部36は、少なくとも、入口カメラ3a、3bで2つの方向(追跡対象者の略前面側と略背面側)から撮影した追跡対象者の顔画像又は人物画像と、補間画像生成登録部81により生成された上記2つの方向の中間の方向から撮影した追跡対象者の顔画像又は人物画像と、追跡対象者の識別用IDとを、分析サーバ1の追跡対象者登録用DB27に登録する。そして、図15に示す例では、エッジデバイス2c、2dは、図4に示す第1の実施形態と異なり、画像特徴量抽出部35b、35cを有していないので、エッジデバイス2c、2dから送られるクエリには、追跡対象者の画像の画像特徴量ではなく、店舗内カメラ3cや出口カメラ3dで撮影した画像から人検出部31c、31dが検出した追跡対象者の画像(顔画像又は人物画像)が含まれる。分析サーバ1のマルチカメラトラッキング部39は、エッジデバイス2c、2dから送られたクエリに含まれる追跡対象者の画像と、追跡対象者登録用DB27に登録済の追跡対象者の色んな顔向きの画像とのマッチングを行うことにより、エッジデバイス2c、2dのシングルカメラオブジェクトトラッキングで得られたトラックが、追跡対象者登録用DB27に登録済のどの識別用IDに紐づくかを推定し、推定結果の識別用IDを、該当のトラックに割り当てる。
【0084】
ただし、エッジデバイス2c、2dに、図4に示す第1の実施形態と同様な画像特徴量抽出部35b、35cを設けて、第1の実施形態と同様に、エッジデバイス2c、2dから送られるクエリが、追跡対象者の画像の画像特徴量を含むようにしてもよい。この場合に、マルチカメラトラッキング部39が、追跡対象者登録用DB27に登録済の追跡対象者の色んな顔向きの画像から画像特徴量を抽出する機能を備えて、この機能により抽出した登録済の追跡対象者の色んな顔向きの画像の画像特徴量と、エッジデバイス2c、2dから送られたクエリに含まれる画像特徴量とのマッチングを行うことにより、エッジデバイス2c、2dのシングルカメラオブジェクトトラッキングで得られたトラックが、追跡対象者登録用DB27に登録済のどの識別用IDに紐づくかを推定することができる。
【0085】
上記のように、第2の実施形態のマルチカメラオブジェクトトラッキングシステム80によれば、2つの方向から撮影した追跡対象者の顔画像又は人物画像に基づいて、2つの方向の中間の方向から撮影した追跡対象者の顔画像又は人物画像を、生成AIモデルにより生成して、生成した追跡対象者の顔画像又は人物画像を補間画像として、追跡対象者登録用DB27に登録するようにした。これにより、追跡対象者の色んな顔向きの画像(顔画像又は人物画像)を補間画像として生成して、追跡対象者登録用DB27に登録することができるので、マルチカメラトラッキング部39が、追跡対象者の色んな顔向きの画像を用いて、エッジデバイス2c、2dから送られたクエリに含まれる画像(マルチカメラオブジェクトトラッキングの開始地点に設置されたカメラ以外のカメラからの撮影画像に基づく画像)とのマッチングを行うことができる。従って、クエリに対応する追跡対象者への識別用IDの紐づけ(Person Re-Identification(人物再同定))を正確に行うことができるので、正確なマルチカメラオブジェクトトラッキング処理を行うことができる。
【0086】
また、第2の実施形態のマルチカメラオブジェクトトラッキングシステム80によれば、2つの方向から撮影した追跡対象者の画像(顔画像又は人物画像)と、2次元ポーズ推定部32a、32bにより推定した上記の2つの画像における追跡対象者のキーポイントとを用いて、上記の2つの方向の中間の方向から撮影した追跡対象者の画像(顔画像又は人物画像)を、生成AIモデルにより生成するようにした。このように、2つの方向の中間の方向から撮影した追跡対象者の画像を生成するのに、2つの方向から撮影した追跡対象者の画像だけではなく、これらの2つの画像における追跡対象者のキーポイントも用いるようにしたことにより、上記の2つの方向の中間の方向から撮影した追跡対象者の画像を正確に生成することができる。
【0087】
次に、図16を参照して、本発明の第3の実施形態のマルチカメラオブジェクトトラッキングシステム90について説明する。第3の実施形態のマルチカメラオブジェクトトラッキングシステム90は、出願時の請求項7のマルチカメラオブジェクトトラッキングシステムの一例である。第3の実施形態のマルチカメラオブジェクトトラッキングシステム90は、システム内の全てのカメラの撮影画像における追跡対象者のキーポイントを推定して、これらのキーポイントに基づき、追跡対象者のマルチカメラオブジェクトトラッキングを行う点が、上記の第1及び第2の実施形態のマルチカメラオブジェクトトラッキングシステムと異なっている。
【0088】
具体的には、図16に示す例では、エッジデバイス2aの追跡対象者登録部36が、3次元ポーズトラッキング部34による追跡対象者の各々の追跡結果を用いて、2次元ポーズ推定部32a、32bが推定した追跡対象者の略前面側と略背面側の画像(顔画像又は人物画像)のキーポイントと、追跡対象者の各々の識別用IDとを、分析サーバ1の追跡対象者登録用DB27に登録する処理を行う。一方、図16に示す例では、エッジデバイス2c、2dは、エッジデバイス2aと同様に、2次元ポーズ推定部91a、91bを備えており、エッジデバイス2c、2dから分析サーバ1のマルチカメラトラッキング部39に送られるクエリには、2次元ポーズ推定部91a、91bにより推定した追跡対象者のキーポイントが含まれている。そして、分析サーバ1のマルチカメラトラッキング部39は、エッジデバイス2c、2dから送られたクエリに含まれる追跡対象者のキーポイントと、追跡対象者登録用DB27に登録済の追跡対象者の各々のキーポイントとのマッチングを行うことにより、エッジデバイス2c、2dのシングルカメラオブジェクトトラッキングで得られたトラックが、追跡対象者登録用DB27に登録済のどの識別用IDに紐づくかを推定する。
【0089】
なお、図16に示す例では、分析サーバ1の追跡対象者登録用DB27に、2次元ポーズ推定部32a、32bが推定した追跡対象者の画像のキーポイント自体を登録して、これらのキーポイント自体に基づき、追跡対象者のマルチカメラオブジェクトトラッキングを行う場合の例を示したが、分析サーバ1の追跡対象者登録用DB27に、2次元ポーズ推定部32a、32bが推定した追跡対象者の画像のキーポイントを結んだ2次元ポーズを登録して、これらの2次元ポーズに基づき、追跡対象者のマルチカメラオブジェクトトラッキングを行ってもよい。この場合には、分析サーバ1のマルチカメラトラッキング部39は、エッジデバイス2c、2dから送られたクエリに含まれる追跡対象者の2次元ポーズと、追跡対象者登録用DB27に登録済の追跡対象者の各々の2次元ポーズとのマッチングを行う。
【0090】
上記のように、第3の実施形態のマルチカメラオブジェクトトラッキングシステム90によれば、マルチカメラオブジェクトトラッキングの開始地点(入口)に設置された入口カメラ3a、3bで撮影した追跡対象者の略前面側の画像と略背面側の画像を含む、全てのカメラ(入口カメラ3a、3b、店舗内カメラ3c、及び出口カメラ3d)の撮影画像における追跡対象者のキーポイントを推定して、これらのキーポイントに基づき、追跡対象者を、全てのカメラの撮影範囲にまたがって追跡することができる。これにより、マルチカメラオブジェクトトラッキングの開始地点の入口カメラ3a、3bの撮影画像から推定した、追跡対象者の少なくとも略前面側の画像と略背面側の画像のキーポイントを用いて、トラッキングの開始地点以外に設置したカメラ(店舗内カメラ3c及び出口カメラ3d)で撮影した画像のキーポイントとのマッチングを行うことができるので、安定したPerson Re-Identification(人物再同定)を行うことができる。従って、追跡対象者を、全てのカメラの撮影範囲にまたがって正確に追跡することができる。
【0091】
変形例:
なお、本発明は、上記の各実施形態の構成に限られず、発明の趣旨を変更しない範囲で種々の変形が可能である。次に、本発明の変形例について説明する。
【0092】
変形例1:
上記実施形態では、図5に示すように、入口カメラ3aと入口カメラ3bとを、これらの光軸の成す角度が、110°~140°となるように配置した場合の例を示したが、入口カメラ3aと入口カメラ3bの配置は、これに限られず、これらの入口カメラの光軸の成す角度が、110°未満であっても良いし、140°より大きくても良い。
【0093】
変形例2:
上記の実施形態では、3次元ポーズ生成部33が、2次元ポーズ推定部32a、32bにより推定した追跡対象者のキーポイントと、入口カメラ3a、3bのキャリブレーションパラメータから、追跡対象者の3次元ポーズを生成するようにしたが、3次元ポーズ生成部が、2つ以上のカメラで同期を取って撮影された追跡対象者の略前面側の画像と略背面側の画像(正確に言うと、人検出部31a,31bから出力された、追跡対象者の略前面側と略背面側の人物検出画像)に基づいて、追跡対象者の3次元ポーズを直接生成するようにしてもよい。
【0094】
変形例3:
上記の実施形態では、2つの入口カメラの撮影範囲内の人物の追跡を、3次元ポーズを用いた3次元ポーズトラッキングにより行ったが、2つの入口カメラの撮影範囲内の人物の追跡を、他のカメラ(店舗内カメラ3c及び出口カメラ3d)の撮影範囲内の人物の追跡と同様に、従来の(2次元)シングルカメラトラッキングにより行ってもよい。
【0095】
変形例4:
上記第1の実施形態では、エッジデバイス2aに追跡対象者登録部36を設けて、追跡対象者登録部36が、入口カメラ3a、3bで同期を取って撮影された追跡対象者の各々の略背面側及び略前面側の画像の特徴量(画像特徴量)と、追跡対象者の各々の識別用IDとを、分析サーバ1の追跡対象者登録用DB27に登録するようにした。しかし、本発明は、これに限られず、分析サーバ側に追跡対象者登録部を設けて、分析サーバ側の追跡対象者登録部が、エッジデバイス2aから送られた、追跡対象者の各々の略背面側及び略前面側の画像特徴量と、追跡対象者の各々の識別用IDとを、追跡対象者登録用DBに登録するようにしてもよい。
【0096】
変形例5:
上記第3の実施形態では、システム内の全てのカメラの撮影画像における追跡対象者のキーポイントを推定して、これらのキーポイントに基づき、追跡対象者のマルチカメラオブジェクトトラッキングを行うようにした。けれども、これに限られず、例えば、上記のシステム内の全てのカメラの撮影画像における追跡対象者のキーポイントと画像特徴量に基づいて、追跡対象者のマルチカメラオブジェクトトラッキングを行うようにしてもよい。この場合には、エッジデバイス2aの追跡対象者登録部36が、図16に示す2次元ポーズ推定部32a、32bが推定した追跡対象者の略前面側と略背面側の画像のキーポイントと、追跡対象者の各々の識別用IDと、図4に示す画像特徴量抽出部35aと同様な機能ブロックが抽出した追跡対象者の略前面側と略背面側の画像の画像特徴量とを、分析サーバ1の追跡対象者登録用DB27に登録する。そして、図16に示すエッジデバイス2c、2dから分析サーバ1のマルチカメラトラッキング部39に送られるクエリには、図16に示す2次元ポーズ推定部91a、91bにより推定した追跡対象者のキーポイントと、図4に示す画像特徴量抽出部35b、35cと同様な機能ブロックが抽出した追跡対象者の画像特徴量が含まれる。
【符号の説明】
【0097】
1 分析サーバ(請求項における「コンピュータ」の一部)
2a エッジデバイス(請求項における「コンピュータ」の一部)
3 固定カメラ(カメラ)
3a 入口カメラ(請求項における「2つ以上のカメラ」の一つ)
3b 入口カメラ(請求項における「2つ以上のカメラ」の一つ)
3c 店舗内カメラ
3d 出口カメラ
10 マルチカメラオブジェクトトラッキングシステム
27 追跡対象者登録用DB(追跡対象者登録用データベース)
28 マルチカメラオブジェクトトラッキングプログラム(請求項における「マルチカメラオブジェクトトラッキングプログラム」の一部)
32a,32b 2次元ポーズ推定部(2次元ポーズ推定手段)
33 3次元ポーズ生成部(3次元ポーズ生成手段)
34 3次元ポーズトラッキング部(3次元ポーズトラッキング手段)
36 追跡対象者登録部(追跡対象者登録手段)
80 マルチカメラオブジェクトトラッキングシステム
81 補間画像生成登録部(補間画像生成登録手段)
90 マルチカメラオブジェクトトラッキングシステム
ENT 入口
【要約】
【課題】マルチカメラオブジェクトトラッキングシステム等において、安定した人物再同定を行うことを可能にして、追跡対象者を複数のカメラの撮影範囲にまたがって正確に追跡する。
【解決手段】マルチカメラオブジェクトトラッキングの開始地点に設置された2つ以上のカメラで同期を取って撮影された追跡対象者の少なくとも略前面側の画像と略背面側の画像、又はこれらの画像の画像特徴量と、追跡対象者の識別用IDとを追跡対象者登録用DBに登録して(S5)、登録した追跡対象者の少なくとも略前面側の画像と略背面側の画像、又はこれらの画像の画像特徴量に基づき、追跡対象者を複数のカメラの撮影範囲にまたがって追跡するようにした。これにより、追跡対象者の少なくとも略前面側の画像と略背面側の画像又は画像特徴量を用いて、他のカメラで撮影した画像又は画像特徴量とのマッチングを行えるので、安定した人物再同定を行うことができる。
【選択図】図14
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14
図15
図16