IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ AWL株式会社の特許一覧

特開2024-126280オブジェクトトラッキング用カメラ配置支援システム、マルチカメラオブジェクトトラッキングシステム、オブジェクトトラッキング用カメラ配置支援プログラム、及びマルチカメラオブジェクトトラッキングプログラム
<>
  • 特開-オブジェクトトラッキング用カメラ配置支援システム、マルチカメラオブジェクトトラッキングシステム、オブジェクトトラッキング用カメラ配置支援プログラム、及びマルチカメラオブジェクトトラッキングプログラム 図1
  • 特開-オブジェクトトラッキング用カメラ配置支援システム、マルチカメラオブジェクトトラッキングシステム、オブジェクトトラッキング用カメラ配置支援プログラム、及びマルチカメラオブジェクトトラッキングプログラム 図2
  • 特開-オブジェクトトラッキング用カメラ配置支援システム、マルチカメラオブジェクトトラッキングシステム、オブジェクトトラッキング用カメラ配置支援プログラム、及びマルチカメラオブジェクトトラッキングプログラム 図3
  • 特開-オブジェクトトラッキング用カメラ配置支援システム、マルチカメラオブジェクトトラッキングシステム、オブジェクトトラッキング用カメラ配置支援プログラム、及びマルチカメラオブジェクトトラッキングプログラム 図4
  • 特開-オブジェクトトラッキング用カメラ配置支援システム、マルチカメラオブジェクトトラッキングシステム、オブジェクトトラッキング用カメラ配置支援プログラム、及びマルチカメラオブジェクトトラッキングプログラム 図5
  • 特開-オブジェクトトラッキング用カメラ配置支援システム、マルチカメラオブジェクトトラッキングシステム、オブジェクトトラッキング用カメラ配置支援プログラム、及びマルチカメラオブジェクトトラッキングプログラム 図6
  • 特開-オブジェクトトラッキング用カメラ配置支援システム、マルチカメラオブジェクトトラッキングシステム、オブジェクトトラッキング用カメラ配置支援プログラム、及びマルチカメラオブジェクトトラッキングプログラム 図7
  • 特開-オブジェクトトラッキング用カメラ配置支援システム、マルチカメラオブジェクトトラッキングシステム、オブジェクトトラッキング用カメラ配置支援プログラム、及びマルチカメラオブジェクトトラッキングプログラム 図8
  • 特開-オブジェクトトラッキング用カメラ配置支援システム、マルチカメラオブジェクトトラッキングシステム、オブジェクトトラッキング用カメラ配置支援プログラム、及びマルチカメラオブジェクトトラッキングプログラム 図9
  • 特開-オブジェクトトラッキング用カメラ配置支援システム、マルチカメラオブジェクトトラッキングシステム、オブジェクトトラッキング用カメラ配置支援プログラム、及びマルチカメラオブジェクトトラッキングプログラム 図10
  • 特開-オブジェクトトラッキング用カメラ配置支援システム、マルチカメラオブジェクトトラッキングシステム、オブジェクトトラッキング用カメラ配置支援プログラム、及びマルチカメラオブジェクトトラッキングプログラム 図11
  • 特開-オブジェクトトラッキング用カメラ配置支援システム、マルチカメラオブジェクトトラッキングシステム、オブジェクトトラッキング用カメラ配置支援プログラム、及びマルチカメラオブジェクトトラッキングプログラム 図12
  • 特開-オブジェクトトラッキング用カメラ配置支援システム、マルチカメラオブジェクトトラッキングシステム、オブジェクトトラッキング用カメラ配置支援プログラム、及びマルチカメラオブジェクトトラッキングプログラム 図13
  • 特開-オブジェクトトラッキング用カメラ配置支援システム、マルチカメラオブジェクトトラッキングシステム、オブジェクトトラッキング用カメラ配置支援プログラム、及びマルチカメラオブジェクトトラッキングプログラム 図14
  • 特開-オブジェクトトラッキング用カメラ配置支援システム、マルチカメラオブジェクトトラッキングシステム、オブジェクトトラッキング用カメラ配置支援プログラム、及びマルチカメラオブジェクトトラッキングプログラム 図15
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024126280
(43)【公開日】2024-09-20
(54)【発明の名称】オブジェクトトラッキング用カメラ配置支援システム、マルチカメラオブジェクトトラッキングシステム、オブジェクトトラッキング用カメラ配置支援プログラム、及びマルチカメラオブジェクトトラッキングプログラム
(51)【国際特許分類】
   G06T 7/70 20170101AFI20240912BHJP
   G06T 7/292 20170101ALI20240912BHJP
   H04N 23/90 20230101ALI20240912BHJP
   H04N 7/18 20060101ALI20240912BHJP
【FI】
G06T7/70 Z
G06T7/292
H04N23/90
H04N7/18 G
【審査請求】未請求
【請求項の数】15
【出願形態】OL
(21)【出願番号】P 2023034562
(22)【出願日】2023-03-07
(71)【出願人】
【識別番号】516249414
【氏名又は名称】AWL株式会社
(74)【代理人】
【識別番号】100084375
【弁理士】
【氏名又は名称】板谷 康夫
(74)【代理人】
【識別番号】100142077
【弁理士】
【氏名又は名称】板谷 真之
(74)【代理人】
【識別番号】100125221
【弁理士】
【氏名又は名称】水田 愼一
(72)【発明者】
【氏名】藤村 浩司
【テーマコード(参考)】
5C054
5C122
5L096
【Fターム(参考)】
5C054CA04
5C054CC02
5C054FC12
5C054HA19
5C122DA11
5C122EA55
5C122EA65
5C122EA68
5C122FA18
5C122FH10
5C122FH14
5C122HA13
5C122HA35
5C122HA46
5C122HA48
5C122HA86
5C122HA88
5C122HB01
5L096BA02
5L096CA05
5L096DA02
5L096FA52
5L096FA53
5L096FA59
5L096FA66
5L096FA67
5L096FA69
5L096FA77
5L096GA19
5L096HA05
5L096JA03
(57)【要約】
【課題】オブジェクトトラッキング用カメラ配置支援システム等において、最適なカメラの配置案の出力に要する時間を短くする。
【解決手段】複数の固定カメラが配置されるエリアを、いくつかのグリッド56に区切って、入力されたカメラの数の情報と、複数の固定カメラの各々の撮影範囲に関する情報と、これらの固定カメラが配置されるエリアのマップのデータとを用いて、所定の評価基準に基づく組み合わせ最適化により、複数の固定カメラの各々を、どのグリッド56に配置するかを決定するようにした。これにより、固定カメラの配置案の候補となる、複数の固定カメラの配置位置の組み合わせの数を、グリッド56の組み合わせの数に減らすことができるので、最適な固定カメラの配置案の出力に要する時間を短くできる。
【選択図】図8
【特許請求の範囲】
【請求項1】
マルチカメラオブジェクトトラッキングに用いる画像を取得するためのカメラの配置案を出力する、オブジェクトトラッキング用カメラ配置支援システムにおいて、
複数のカメラの数の情報と、前記複数のカメラの各々の撮影範囲に関する情報と、前記複数のカメラが配置されるエリアのマップのデータとを入力する入力手段と、
前記複数のカメラが配置されるエリアを、いくつかの小領域に区切る領域分割手段と、
前記入力手段により入力されたカメラの数の情報と、前記撮影範囲に関する情報と、前記マップのデータとを用いて、所定の評価基準に基づく組み合わせ最適化により、前記複数のカメラの各々を、前記領域分割手段により区切られた小領域のうちのどの小領域に配置するかを決定する決定手段と、
前記決定手段により決定された決定結果を、前記カメラの配置案として出力する出力手段とを備える、オブジェクトトラッキング用カメラ配置支援システム。
【請求項2】
前記組み合わせ最適化の評価基準として、前記マップの有効面積全体のうち、前記複数のカメラ全体の撮影範囲がカバーする割合である、カバー割合に基づく評価基準を用いることを特徴とする請求項1に記載のオブジェクトトラッキング用カメラ配置支援システム。
【請求項3】
前記組み合わせ最適化の評価基準として、前記複数のカメラの各々の間の距離に基づく評価基準を用いることを特徴とする請求項1に記載のオブジェクトトラッキング用カメラ配置支援システム。
【請求項4】
前記複数のカメラの各々の間の距離に基づく評価基準は、前記複数のカメラのうちの隣接するカメラ間の距離が均等であるか否かを示す指標であることを特徴とする請求項3に記載のオブジェクトトラッキング用カメラ配置支援システム。
【請求項5】
前記組み合わせ最適化の評価基準として、前記複数のカメラの各々の間の距離に基づく評価基準と、前記カバー割合に基づく評価基準とを用いることを特徴とする請求項2に記載のオブジェクトトラッキング用カメラ配置支援システム。
【請求項6】
請求項1に記載のオブジェクトトラッキング用カメラ配置支援システムから出力された前記配置案に従って配置された複数のカメラからの画像に映り込んだ物体に対するマルチカメラオブジェクトトラッキングを行うシステムであって、
複数の追跡対象の物体を、複数のカメラの撮影範囲にまたがって追跡するマルチカメラオブジェクトトラッキングを行うマルチカメラオブジェクトトラッキング手段と、
前記カメラの配置案における隣接するカメラ間の距離に応じて、前記マルチカメラオブジェクトトラッキングの方法を変更するように設定する変更手段とを備えるマルチカメラオブジェクトトラッキングシステム。
【請求項7】
請求項2に記載のオブジェクトトラッキング用カメラ配置支援システムから出力された前記配置案に従って配置された複数のカメラからの画像に映り込んだ物体に対するマルチカメラオブジェクトトラッキングを行うシステムであって、
複数の追跡対象の物体を、複数のカメラの撮影範囲にまたがって追跡するマルチカメラオブジェクトトラッキングを行うマルチカメラオブジェクトトラッキング手段と、
前記カメラの配置案における前記カバー割合に応じて、前記マルチカメラオブジェクトトラッキングの方法を変更するように設定する変更手段とを備えるマルチカメラオブジェクトトラッキングシステム。
【請求項8】
前記変更手段は、前記カメラの配置案における隣接する2つのカメラの撮影範囲が重なる場合に、前記隣接する2つのカメラの撮影画像において、前記マップ上の同じ座標位置に、同時刻に物体が存在するときは、これらの物体のトラックを同じ物体のトラックとみなすように設定することを特徴とする請求項6又は請求項7に記載のマルチカメラオブジェクトトラッキングシステム。
【請求項9】
前記変更手段は、前記マルチカメラオブジェクトトラッキング手段が、第1のカメラの撮影範囲内における物体の追跡結果である第1のトラックと、前記第1のカメラに隣接する第2のカメラの撮影範囲内における物体の追跡結果である第2のトラックとのマッチングを行うときに、前記カメラの配置案における前記第1のカメラと前記第2のカメラの間の距離が大きくなるほど、前記第1のカメラの撮影画像と前記第2のカメラの撮影画像の類似度を重視して、前記第1のトラックと前記第2のトラックとのマッチングを行うように設定することを特徴とする請求項6に記載のマルチカメラオブジェクトトラッキングシステム。
【請求項10】
前記変更手段は、前記マルチカメラオブジェクトトラッキング手段が、第1のカメラの撮影範囲内における物体の追跡結果である第1のトラックと、前記第1のカメラに隣接する第2のカメラの撮影範囲内における物体の追跡結果である第2のトラックとのマッチングを行うときに、前記カメラの配置案における前記第1のカメラと前記第2のカメラの間の距離が小さくなるほど、前記第1のカメラと前記第2のカメラについてのオブジェクトのカメラ渡りの時間とオブジェクトの現在位置との整合性を重視して、前記第1のトラックと前記第2のトラックとのマッチングを行うように設定することを特徴とする請求項6に記載のマルチカメラオブジェクトトラッキングシステム。
【請求項11】
前記変更手段は、前記マルチカメラオブジェクトトラッキング手段が、第1のカメラの撮影範囲内における物体の追跡結果である第1のトラックと、前記第1のカメラに隣接する第2のカメラの撮影範囲内における物体の追跡結果である第2のトラックとのマッチングを行うときに、前記カメラの配置案における前記カバー割合が小さくなるほど、前記第1のカメラの撮影画像と前記第2のカメラの撮影画像の類似度を重視して、前記第1のトラックと前記第2のトラックとのマッチングを行うように設定することを特徴とする請求項7に記載のマルチカメラオブジェクトトラッキングシステム。
【請求項12】
前記変更手段は、前記マルチカメラオブジェクトトラッキング手段が、第1のカメラの撮影範囲内における物体の追跡結果である第1のトラックと、前記第1のカメラに隣接する第2のカメラの撮影範囲内における物体の追跡結果である第2のトラックとのマッチングを行うときに、前記カメラの配置案における前記カバー割合が大きくなるほど、前記第1のカメラと前記第2のカメラについてのオブジェクトのカメラ渡りの時間とオブジェクトの現在位置との整合性を重視して、前記第1のトラックと前記第2のトラックとのマッチングを行うように設定することを特徴とする請求項7に記載のマルチカメラオブジェクトトラッキングシステム。
【請求項13】
マルチカメラオブジェクトトラッキングに用いる画像を取得するためのカメラの配置案を出力するための、オブジェクトトラッキング用カメラ配置支援プログラムであって、
コンピュータを、
複数のカメラの数の情報と、前記複数のカメラの各々の撮影範囲に関する情報と、前記複数のカメラが配置されるエリアのマップのデータとを入力する入力手段と、
前記複数のカメラが配置されるエリアを、いくつかの小領域に区切る領域分割手段と、
前記入力手段により入力されたカメラの数の情報と、前記撮影範囲に関する情報と、前記マップのデータとを用いて、所定の評価基準に基づく組み合わせ最適化により、前記複数のカメラの各々を、前記領域分割手段により区切られた小領域のうちのどの小領域に配置するかを決定する決定手段と、
前記決定手段により決定された決定結果を、前記カメラの配置案として出力する出力手段として機能させるためのオブジェクトトラッキング用カメラ配置支援プログラム。
【請求項14】
請求項13に記載のオブジェクトトラッキング用カメラ配置支援プログラムを用いて出力された前記配置案に従って配置された複数のカメラからの画像に映り込んだ物体に対するマルチカメラオブジェクトトラッキングを行うためのマルチカメラオブジェクトトラッキングプログラムであって、
コンピュータを、
複数の追跡対象の物体を、複数のカメラの撮影範囲にまたがって追跡するマルチカメラオブジェクトトラッキングを行うマルチカメラオブジェクトトラッキング手段と、
前記カメラの配置案における隣接するカメラ間の距離に応じて、前記マルチカメラオブジェクトトラッキングの方法を変更するように設定する変更手段として機能させるためのマルチカメラオブジェクトトラッキングプログラム。
【請求項15】
請求項13に記載のオブジェクトトラッキング用カメラ配置支援プログラムを用いて出力された前記配置案に従って配置された複数のカメラからの画像に映り込んだ物体に対するマルチカメラオブジェクトトラッキングを行うためのマルチカメラオブジェクトトラッキングプログラムであって、
前記組み合わせ最適化の評価基準として、前記マップの有効面積全体のうち、前記複数のカメラ全体の撮影範囲がカバーする割合である、カバー割合に基づく評価基準を用い、
コンピュータを、
複数の追跡対象の物体を、複数のカメラの撮影範囲にまたがって追跡するマルチカメラオブジェクトトラッキングを行うマルチカメラオブジェクトトラッキング手段と、
前記カメラの配置案における前記カバー割合に応じて、前記マルチカメラオブジェクトトラッキングの方法を変更するように設定する変更手段として機能させるためのマルチカメラオブジェクトトラッキングプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、オブジェクトトラッキング用カメラ配置支援システム、マルチカメラオブジェクトトラッキングシステム、オブジェクトトラッキング用カメラ配置支援プログラム、及びマルチカメラオブジェクトトラッキングプログラムに関する。
【背景技術】
【0002】
従来から、あるエリアに複数のカメラを設置して、これら複数のカメラの撮影範囲内のオブジェクト(人等の物体)を、これらのカメラの撮影画像を用いて追跡するマルチカメラオブジェクトトラッキングの技術が知られている(例えば、非特許文献1参照)。このマルチカメラオブジェクトトラッキングは、正確に言うと、複数の追跡対象の物体を、オクルージョン(追跡対象の物体がカメラから隠れることで、例えば、追跡対象の物体が、他の物体の影に入った場合や、カメラの撮影範囲内外に出入りした場合に発生する)を考慮しながら、複数のカメラ(の撮影画像)にまたがって追跡することである。上記のマルチカメラオブジェクトトラッキングの技術を用いることにより、追跡対象の物体の安全を確認したり、追跡対象の物体の行動を分析して、その分析結果を、カメラが設置されるエリアにおける経路や物の配置の再検討に活用したりすることができる。
【0003】
上記のマルチカメラオブジェクトトラッキングを行う際に、どのようなカメラの間隔で、どこに複数のカメラを配置するかを決定するのは、難しい課題である。この複数のカメラの配置(設置)を人が行うことは、可能ではあるが、専門の技術スタッフが、カメラの設置場所に赴いて、複数のカメラを設置する必要があり、コスト(人件費)がかかるため、カメラの配置案を自動的に提案するシステムが望まれている。
【0004】
上記のマルチカメラオブジェクトトラッキングを意識したものではないが、上記のようなカメラの配置案を自動的に提案するシステムとしては、例えば、特許文献1に記載の装置が知られている。この特許文献1に記載の最適配置探索装置では、評価手段24によって、空間モデル(監視空間に存在する現実世界の建物等の物体の3次元の幾何形状データ)20に基づいて、監視空間に配置されるカメラの全ての配置条件(カメラの設置位置、姿勢、画角等のカメラの視野に関するパラメータ)を評価した評価値を算出する。また、寄与度算出手段28によって、評価手段24で算出した配置対象となる全てのカメラの配置条件の評価値に対して、各カメラがどれほど寄与しているかを表す寄与度を算出する。さらに、更新手段30によって、カメラ各々の配置条件を更新する更新処理であって、寄与度が最小値のカメラの配置条件(設置位置、姿勢、画角等)の更新を、それ以外のカメラの配置条件の更新よりも大きく変化させる更新処理を行う。そして、寄与度算出手段28による寄与度の算出、更新手段30による配置条件の更新、及び評価手段24による評価値の算出を順に繰り返し、最適なカメラの配置条件(設置位置、姿勢、画角等)を探索する。
【先行技術文献】
【特許文献】
【0005】
【特許文献1】特開2018-128961号公報
【非特許文献】
【0006】
【非特許文献1】Nicolai Wojke, Alex Bewley, Dietrich Paulus, “SIMPLE ONLINE AND REALTIME TRACKING WITH A DEEP ASSOCIATION METRIC”, [online], 2017年3月21日, University of Koblenz-Landau, Queensland University of Technology, [2023年1月6日検索], インターネット<URL:https://userpages.uni-koblenz.de/~agas/Documents/Wojke2017SOA.pdf>
【発明の概要】
【発明が解決しようとする課題】
【0007】
ところが、上記特許文献1に記載されたような従来のカメラの配置案を提案(出力)するシステムでは、最適なカメラの配置条件(設置位置、姿勢、画角等)の候補となる、複数のカメラの配置条件の組み合わせが、膨大な数になるので、最適なカメラの配置条件の探索の処理負荷が大きくなり、最適なカメラの配置条件を決めるのに膨大な時間がかかる。
【0008】
本発明は、上記課題を解決するものであり、カメラの配置案の決定に必要な処理負荷を小さくして、最適なカメラの配置案の出力に要する時間を短くすることが可能なオブジェクトトラッキング用カメラ配置支援システム、及びオブジェクトトラッキング用カメラ配置支援プログラムを提供することを目的とする。また、複数の追跡対象の物体を、複数のカメラの撮影範囲にまたがって追跡することが容易なマルチカメラオブジェクトトラッキングシステム、及びマルチカメラオブジェクトトラッキングプログラムを提供することも目的とする。
【課題を解決するための手段】
【0009】
上記課題を解決するために、本発明の第1の態様によるオブジェクトトラッキング用カメラ配置支援システムは、マルチカメラオブジェクトトラッキングに用いる画像を取得するためのカメラの配置案を出力する、オブジェクトトラッキング用カメラ配置支援システムにおいて、複数のカメラの数の情報と、前記複数のカメラの各々の撮影範囲に関する情報と、前記複数のカメラが配置されるエリアのマップのデータとを入力する入力手段と、前記複数のカメラが配置されるエリアを、いくつかの小領域に区切る領域分割手段と、前記入力手段により入力されたカメラの数の情報と、前記撮影範囲に関する情報と、前記マップのデータとを用いて、所定の評価基準に基づく組み合わせ最適化により、前記複数のカメラの各々を、前記領域分割手段により区切られた小領域のうちのどの小領域に配置するかを決定する決定手段と、前記決定手段により決定された決定結果を、前記カメラの配置案として出力する出力手段とを備える。
【0010】
このオブジェクトトラッキング用カメラ配置支援システムにおいて、前記組み合わせ最適化の評価基準として、前記マップの有効面積全体のうち、前記複数のカメラ全体の撮影範囲がカバーする割合である、カバー割合に基づく評価基準を用いるようにしても良い。
【0011】
このオブジェクトトラッキング用カメラ配置支援システムにおいて、前記組み合わせ最適化の評価基準として、前記複数のカメラの各々の間の距離に基づく評価基準を用いるようにしても良い。
【0012】
このオブジェクトトラッキング用カメラ配置支援システムにおいて、前記複数のカメラの各々の間の距離に基づく評価基準は、前記複数のカメラのうちの隣接するカメラ間の距離が均等であるか否かを示す指標であるようにしても良い。
【0013】
このオブジェクトトラッキング用カメラ配置支援システムにおいて、前記組み合わせ最適化の評価基準として、前記複数のカメラの各々の間の距離に基づく評価基準と、前記カバー割合に基づく評価基準とを用いることが望ましい。
【0014】
本発明の第2の態様によるマルチカメラオブジェクトトラッキングシステムは、上記オブジェクトトラッキング用カメラ配置支援システムから出力された前記配置案に従って配置された複数のカメラからの画像に映り込んだ物体に対するマルチカメラオブジェクトトラッキングを行うシステムであって、複数の追跡対象の物体を、複数のカメラの撮影範囲にまたがって追跡するマルチカメラオブジェクトトラッキングを行うマルチカメラオブジェクトトラッキング手段と、前記カメラの配置案における隣接するカメラ間の距離に応じて、前記マルチカメラオブジェクトトラッキングの方法を変更するように設定する変更手段とを備える。
【0015】
本発明の第3の態様によるマルチカメラオブジェクトトラッキングシステムは、上記オブジェクトトラッキング用カメラ配置支援システムから出力された前記配置案に従って配置された複数のカメラからの画像に映り込んだ物体に対するマルチカメラオブジェクトトラッキングを行うシステムであって、複数の追跡対象の物体を、複数のカメラの撮影範囲にまたがって追跡するマルチカメラオブジェクトトラッキングを行うマルチカメラオブジェクトトラッキング手段と、前記カメラの配置案における前記カバー割合に応じて、前記マルチカメラオブジェクトトラッキングの方法を変更するように設定する変更手段とを備える。
【0016】
上記第2の態様、又は第3の態様のマルチカメラオブジェクトトラッキングシステムにおいて、前記変更手段は、前記カメラの配置案における隣接する2つのカメラの撮影範囲が重なる場合に、前記隣接する2つのカメラの撮影画像において、前記マップ上の同じ座標位置に、同時刻に物体が存在するときは、これらの物体のトラックを同じ物体のトラックとみなすように設定することが望ましい。
【0017】
上記第2の態様のマルチカメラオブジェクトトラッキングシステムにおいて、前記変更手段は、前記マルチカメラオブジェクトトラッキング手段が、第1のカメラの撮影範囲内における物体の追跡結果である第1のトラックと、前記第1のカメラに隣接する第2のカメラの撮影範囲内における物体の追跡結果である第2のトラックとのマッチングを行うときに、前記カメラの配置案における前記第1のカメラと前記第2のカメラの間の距離が大きくなるほど、前記第1のカメラの撮影画像と前記第2のカメラの撮影画像の類似度を重視して、前記第1のトラックと前記第2のトラックとのマッチングを行うように設定することが望ましい。
【0018】
上記第2の態様のマルチカメラオブジェクトトラッキングシステムにおいて、前記変更手段は、前記マルチカメラオブジェクトトラッキング手段が、第1のカメラの撮影範囲内における物体の追跡結果である第1のトラックと、前記第1のカメラに隣接する第2のカメラの撮影範囲内における物体の追跡結果である第2のトラックとのマッチングを行うときに、前記カメラの配置案における前記第1のカメラと前記第2のカメラの間の距離が小さくなるほど、前記第1のカメラと前記第2のカメラについてのオブジェクトのカメラ渡りの時間とオブジェクトの現在位置との整合性を重視して、前記第1のトラックと前記第2のトラックとのマッチングを行うように設定することが望ましい。
【0019】
上記第3の態様のマルチカメラオブジェクトトラッキングシステムにおいて、前記変更手段は、前記マルチカメラオブジェクトトラッキング手段が、第1のカメラの撮影範囲内における物体の追跡結果である第1のトラックと、前記第1のカメラに隣接する第2のカメラの撮影範囲内における物体の追跡結果である第2のトラックとのマッチングを行うときに、前記カメラの配置案における前記カバー割合が小さくなるほど、前記第1のカメラの撮影画像と前記第2のカメラの撮影画像の類似度を重視して、前記第1のトラックと前記第2のトラックとのマッチングを行うように設定することが望ましい。
【0020】
上記第3の態様のマルチカメラオブジェクトトラッキングシステムにおいて、前記変更手段は、前記マルチカメラオブジェクトトラッキング手段が、第1のカメラの撮影範囲内における物体の追跡結果である第1のトラックと、前記第1のカメラに隣接する第2のカメラの撮影範囲内における物体の追跡結果である第2のトラックとのマッチングを行うときに、前記カメラの配置案における前記カバー割合が大きくなるほど、前記第1のカメラと前記第2のカメラについてのオブジェクトのカメラ渡りの時間とオブジェクトの現在位置との整合性を重視して、前記第1のトラックと前記第2のトラックとのマッチングを行うように設定することが望ましい。
【0021】
本発明の第4の態様によるオブジェクトトラッキング用カメラ配置支援プログラムは、マルチカメラオブジェクトトラッキングに用いる画像を取得するための複数のカメラの配置案を出力するための、オブジェクトトラッキング用カメラ配置支援プログラムであって、コンピュータを、複数のカメラの数の情報と、前記複数のカメラの各々の撮影範囲に関する情報と、前記複数のカメラが配置されるエリアのマップのデータとを入力する入力手段と、前記複数のカメラが配置されるエリアを、いくつかの小領域に区切る領域分割手段と、前記入力手段により入力されたカメラの数の情報と、前記撮影範囲に関する情報と、前記マップのデータとを用いて、所定の評価基準に基づく組み合わせ最適化により、前記複数のカメラの各々を、前記領域分割手段により区切られた小領域のうちのどの小領域に配置するかを決定する決定手段と、前記決定手段により決定された決定結果を、前記カメラの配置案として出力する出力手段として機能させる。
【0022】
本発明の第5の態様によるマルチカメラオブジェクトトラッキングプログラムは、上記第4の態様のオブジェクトトラッキング用カメラ配置支援プログラムを用いて出力された前記配置案に従って配置された複数のカメラからの画像に映り込んだ物体に対するマルチカメラオブジェクトトラッキングを行うためのマルチカメラオブジェクトトラッキングプログラムであって、コンピュータを、複数の追跡対象の物体を、複数のカメラの撮影範囲にまたがって追跡するマルチカメラオブジェクトトラッキングを行うマルチカメラオブジェクトトラッキング手段と、前記カメラの配置案における隣接するカメラ間の距離に応じて、前記マルチカメラオブジェクトトラッキングの方法を変更するように設定する変更手段として機能させる。
【0023】
本発明の第6の態様によるマルチカメラオブジェクトトラッキングプログラムは、上記第4の態様のオブジェクトトラッキング用カメラ配置支援プログラムを用いて出力された前記配置案に従って配置された複数のカメラからの画像に映り込んだ物体に対するマルチカメラオブジェクトトラッキングを行うためのマルチカメラオブジェクトトラッキングプログラムであって、前記組み合わせ最適化の評価基準として、前記マップの有効面積全体のうち、前記複数のカメラ全体の撮影範囲がカバーする割合である、カバー割合に基づく評価基準を用い、コンピュータを、複数の追跡対象の物体を、複数のカメラの撮影範囲にまたがって追跡するマルチカメラオブジェクトトラッキングを行うマルチカメラオブジェクトトラッキング手段と、前記カメラの配置案における前記カバー割合に応じて、前記マルチカメラオブジェクトトラッキングの方法を変更するように設定する変更手段として機能させる。
【発明の効果】
【0024】
本発明の第1の態様によるオブジェクトトラッキング用カメラ配置支援システム、及び第4の態様によるオブジェクトトラッキング用カメラ配置支援プログラムによれば、複数のカメラが配置されるエリアを、いくつかの小領域に区切って、入力されたカメラの数の情報と、複数のカメラの各々の撮影範囲に関する情報と、これらのカメラが配置されるエリアのマップのデータとを用いて、所定の評価基準に基づく組み合わせ最適化により、上記複数のカメラの各々を、上記の小領域のうちのどの小領域に配置するかを決定するようにした。これにより、上記特許文献1記載の従来のシステムと比べて、カメラの配置案の候補となる、複数のカメラの配置位置の組み合わせの数を減らすことができるので、カメラの配置案の決定に必要な処理負荷を小さくして、最適なカメラの配置案の出力に要する時間を短くすることができる。
【0025】
また、本発明の第2の態様によるマルチカメラオブジェクトトラッキングシステム、第3の態様によるマルチカメラオブジェクトトラッキングシステム、第5の態様によるマルチカメラオブジェクトトラッキングプログラム、及び第6の態様によるマルチカメラオブジェクトトラッキングプログラムによれば、カメラの配置案における隣接するカメラ間の距離又は上記のカバー割合に応じて、前記マルチカメラオブジェクトトラッキングの方法を変更することにより、複数の追跡対象の物体を、複数のカメラの撮影範囲にまたがって追跡することが容易になる。
【図面の簡単な説明】
【0026】
図1】本発明の一実施形態のマルチカメラオブジェクトトラッキングシステムの概略の構成を示すブロック構成図。
図2】同マルチカメラオブジェクトトラッキングシステムのエッジ側分析装置の概略のハードウェア構成を示すブロック図。
図3】同マルチカメラオブジェクトトラッキングシステムの分析サーバの概略のハードウェア構成を示すブロック図。
図4】マルチカメラオブジェクトトラッキング処理の概要の説明図。
図5】上記図3の分析サーバのCPUの機能ブロックのうち、カメラ配置案の出力処理に関するブロックの入出力関係を示す図。
図6】上記分析サーバにより実現されるオブジェクトトラッキング用カメラ配置支援システムの処理のフローチャート。
図7】上記図6のS1で入力されたマップの例を示す図。
図8】入力された固定カメラの数が17で、モードが、「できるだけ対象範囲をカバーするモード」の場合における、固定カメラの配置案の一例を示す図。
図9】上記図6のS2における、マップのグリッドへの分割の仕方の一例を示す図。
図10】上記図3の分析サーバのCPUの機能ブロックのうち、マルチカメラオブジェクトトラッキングに関するブロックの入出力関係を示す図。
図11】上記マルチカメラオブジェクトトラッキングシステムにおけるマルチカメラオブジェクトトラッキング処理の概要を示すフローチャート。
図12】上記マルチカメラオブジェクトトラッキング処理のベースアルゴリズムの説明図。
図13】同ベースアルゴリズムの説明図。
図14】上記図10及び図11の説明で述べた、隣接する固定カメラ間の距離に応じて、マルチカメラオブジェクトトラッキングの方法を変更する処理の具体例の説明図。
図15】入力された固定カメラの数が7個で、モードが、「分散モード」と「角/交点モード」とを組み合わせたモードである場合における、固定カメラの配置案の一例を示す図。
【発明を実施するための形態】
【0027】
以下、本発明を具体化した実施形態によるオブジェクトトラッキング用カメラ配置支援システム、マルチカメラオブジェクトトラッキングシステム、オブジェクトトラッキング用カメラ配置支援プログラム、及びマルチカメラオブジェクトトラッキングプログラムについて、図面を参照して説明する。図1は、本実施形態によるマルチカメラオブジェクトトラッキングシステム10の概略の構成を示すブロック構成図である。図1に示すように、本実施形態では、所定の撮影エリアを撮影する監視用のネットワークカメラである複数の固定カメラ3(請求項における「カメラ」に相当)と、各固定カメラ3からの映像の分析を行うエッジ側分析装置2とが、チェーン店等の店舗Sに配置される場合の例について説明する。
【0028】
上記のマルチカメラオブジェクトトラッキングシステム10は、主に、各店舗Sに設置された、上記の複数の固定カメラ3と、エッジ側分析装置2と、エッジ側分析装置2とインターネットを介して接続された、クラウドC上の分析サーバ1(請求項における「オブジェクトトラッキング用カメラ配置支援システム」、及び「コンピュータ」に相当)とから構成される。
【0029】
上記のマルチカメラオブジェクトトラッキングシステム10は、図1に示すように、上記の固定カメラ3及びエッジ側分析装置2が配される店舗Sに、ハブ7と、ルータ8とを備えている。なお、以下の説明では、固定カメラ3とエッジ側分析装置2とが別体である場合の例について説明するが、本発明のマルチカメラオブジェクトトラッキングシステムにおけるカメラは、上記の固定カメラ3とエッジ側分析装置2とが一体になった、いわゆるAlカメラであってもよい。
【0030】
上記の固定カメラ3は、IPアドレスを持ち、ネットワークに直接接続することが可能である。図1に示すように、エッジ側分析装置2は、LAN(Local Area Network)とハブ7とを介して、複数の固定カメラ3と接続され、これらの固定カメラ3の各々から入力された画像を分析する。より詳細に言うと、エッジ側分析装置2は、固定カメラ3の各々から入力された画像に対する物体(オブジェクト)検出処理(具体的には、人の(バウンディングボックスの)検出処理)や、この物体検出処理で検出された人の画像を切り出して、切り出した人の画像から特徴ベクトルを抽出する処理等を行う。
【0031】
上記の分析サーバ1は、店舗Sの管理部門(本社等)に設置されたサーバである。詳細については後述するが、分析サーバ1は、各店舗S内に設置されたエッジ側分析装置2から送信された、各人(各オブジェクト)のバウンディングボックスの(位置や大きさの)情報と、各人の特徴ベクトルとを用いて、複数の追跡対象の人を、オクルージョン(手前にある物体が背後にある物体を隠して見えないようにする状態)を考慮しながら、複数のカメラの撮影範囲にまたがって追跡する処理であるマルチカメラオブジェクトトラッキング処理を行う。また、分析サーバ1(請求項における「オブジェクトトラッキング用カメラ配置支援システム」)は、上記のマルチカメラオブジェクトトラッキング処理に用いる画像を取得するためのカメラの配置案を出力する。すなわち、分析サーバ1は、各店舗Sにおいてマルチカメラオブジェクトトラッキング処理を行うのに適したカメラ配置案の出力(提案)を行う。
【0032】
次に、図2を参照して、エッジ側分析装置2のハードウェア構成について説明する。エッジ側分析装置2は、SoC(System-on-a-Chip)21と、各種のデータやプログラムを格納するハードディスク22と、RAM(Random Access Memory)23と、通信制御IC25とを備えている。SoC21は、装置全体の制御及び各種演算を行うCPU21aと、上記の物体検出処理や特徴ベクトル抽出処理を含む、各種の推論処理用学習済DNN(Deep Neural Networks)モデルの推論処理等に用いられるGPU21bとを備えている。また、ハードディスク22に格納されるデータには、固定カメラ3の各々から入力された映像ストリーム(のデータ)をデコードした後の映像データが含まれている。また、ハードディスク22に格納されるプログラムには、上記の物体検出処理や特徴ベクトル抽出処理を含む、各種の推論処理用の学習済DNNモデル(各種推論処理用学習済DNNモデル)と、分析装置制御プログラムとが含まれている。
【0033】
次に、図3を参照して、分析サーバ1のハードウェア構成について説明する。分析サーバ1は、装置全体の制御及び各種演算を行うCPU31と、各種のデータやプログラムを格納するハードディスク32と、RAM(Random Access Memory)33と、ディスプレイ34と、操作部35と、通信部36とを備えている。上記のハードディスク32に格納されるプログラムには、オブジェクトトラッキング用カメラ配置支援プログラム37と、マルチカメラオブジェクトトラッキングプログラム38とが含まれている。また、ハードディスク32には、図12及び13の説明で後述する追跡オブジェクトDB39が格納されている。
【0034】
次に、上記のマルチカメラオブジェクトトラッキング処理の概要について、説明しておく。このマルチカメラオブジェクトトラッキング処理は、複数の追跡対象の物体(本実施形態では、人)を、オクルージョンを考慮しながら、複数のカメラ(本実施形態では、固定カメラ3)の撮影範囲にまたがって追跡する処理である。この処理は、図4に示すように、複数の固定カメラ3(図4の例では、3台の固定カメラ3a~3c)の撮影画像を用いて、異なる固定カメラ3の撮影画像に映っている人が同じ人であるか否かを判定する処理を繰り返すことにより、複数の人を、複数の固定カメラ3の撮影範囲にまたがって追跡する処理である。この追跡処理により、各人が、店舗Sにおいて、どのような経路を辿ったかを知ることができる。
【0035】
上記の異なる固定カメラ3の撮影画像に映っている人が同じ人であるか否かを判定する処理は、オブジェクトのカメラ渡りの時間とオブジェクトの現在位置との整合性を考慮して、例えば、以下のように行われる。図4のクエリXに示すように、15時0分に固定カメラ3bの撮影画像に映り込んだ人(パーソン1とパーソン2)については、2分以内(14時58分~15時0分)に固定カメラ3aの撮影範囲を通過した(固定カメラ3aの撮影画像に映り込んだ)人のみとのマッチングを行う。これにより、パーソン1が、固定カメラ3aの撮影範囲から、固定カメラ3bの撮影範囲に移動したことを知ることができる。また、図4のクエリYに示すように、16時0分に固定カメラ3cの撮影画像に映り込んだ人(パーソン3)については、10分以内(15時50分~16時0分)に固定カメラ3aの撮影範囲を通過した(固定カメラ3aの撮影画像に映り込んだ)人、及び2分以内(14時58分~15時0分)に固定カメラ3bを通過した(固定カメラ3bの撮影画像に映り込んだ)人のみとのマッチングを行う。これにより、パーソン3が、固定カメラ3aの撮影範囲から、固定カメラ3cの撮影範囲に移動したことを知ることができる。
【0036】
次に、図5、及び図7乃至図9を参照して、上記の分析サーバ1が行うカメラ配置案の出力(提案)処理の概要について説明する。図5は、分析サーバ1のCPU31の機能ブロックのうち、カメラ配置案の出力処理に関するブロックの入出力関係を示す。図5における入力部41と、グリッド分割部42と、決定部43と、出力部49とは、それぞれ、請求項における入力手段と、領域分割手段と、決定手段と、出力手段とに相当する。
【0037】
上記の入力部41は、固定カメラ3の数(請求項における「複数のカメラの数の情報」に相当)と、複数の固定カメラ3の各々の撮影範囲(請求項における「複数のカメラの各々の撮影範囲に関する情報」に相当)と、複数の固定カメラ3が配置されるエリアのマップのデータとを入力する。これらのデータの入力は、分析サーバ1の通信部36を介して受信したデータを用いて行っても良いし、ユーザが操作部35を用いて行っても良い。上記の複数の固定カメラ3が配置されるエリアのマップ51は、例えば、図7に示すような店舗のマップである。
【0038】
図5に示すグリッド分割部42は、図8に示すように、マップ51のエリア(複数の固定カメラ3が配置されるエリア)を、グリッド56に分割する。すなわち、マップ51のエリアを、グリッド線55により区切られた、いくつかの小領域に分割する(区切る)。グリッドカメラ配置部44は、上記のグリッド56(小領域)に分割されたマップ51に、入力部41に入力された数の固定カメラ3を配置する(より正確に言うと、グリッドカメラ配置部44は、入力部41に入力された数の固定カメラ3の配置案の一つを提示する)。グリッドカメラ配置部44は、グリッド56の中心位置に、各固定カメラ3を配置する。図8において、グリッド56aに配置した固定カメラ3の撮影範囲52aは、破線で示す撮影範囲枠57に囲まれた範囲となる。
【0039】
図5に示すカバー範囲評価値算出部45は、グリッドカメラ配置部44により配置された固定カメラ3の位置と、各固定カメラ3の撮影範囲に基づいて、マップ51をどれだけカバーしたかのカバー範囲評価値を算出する。具体的には、カバー範囲評価値算出部45は、マップ51の有効面積全体のうち、複数の固定カメラ3全体の撮影範囲がカバーする割合である、カバー割合を算出して、このカバー割合に基づくカバー範囲評価値を算出する。ここで、マップ51の有効面積とは、図7に示す店舗Sのマップ51内のエリアのうち、倉庫や調理場等の、追跡対象のオブジェクト(人)が通らないエリアを除いた部分の面積を意味する。また、図5に示すカメラ間距離評価値算出部46は、グリッドカメラ配置部44により配置された固定カメラ3の位置から、各固定カメラ3の間の距離(各固定カメラ間距離)を算出し、この各固定カメラ間距離の分散等に基づく評価尺度であるカメラ間距離評価値(請求項における「複数のカメラの各々の間の距離に基づく評価基準」に相当)を算出する。
【0040】
図5に示す評価値算出部47は、カバー範囲評価値算出部45により算出したカバー範囲評価値(カバー割合に基づく評価基準)と、カメラ間距離評価値算出部46により算出したカメラ間距離評価値とから、今回のグリッドカメラ配置部44による複数の固定カメラ3の配置(複数の固定カメラ3の位置の組み合わせ)について、マルチカメラオブジェクトトラッキングに用いる画像を取得するためのカメラの配置案としての評価値(オブジェクトトラッキングカメラ配置評価値)を算出する。
【0041】
分析サーバ1のCPU31(の決定部43)は、グリッドカメラ配置部44から提供されるカメラの配置案のうち、検討すべきカメラの配置案が残っている場合には、グリッドカメラ配置部44、カバー範囲評価値算出部45、カメラ間距離評価値算出部46、及び評価値算出部47による処理を繰り返す。そして、最終評価値決定部48は、上記のグリッドカメラ配置部44、カバー範囲評価値算出部45、カメラ間距離評価値算出部46、及び評価値算出部47による処理の繰り返しの結果、最もオブジェクトトラッキングカメラ配置評価値が高かった、カメラ配置案を提示すべき配置案として決定する。出力部49は、最終評価値決定部48により決定された決定結果(提示すべき配置案)を、(最終的な)固定カメラ3の配置案として出力する。
【0042】
なお、図5に示す決定部43は、上記のグリッドカメラ配置部44、カバー範囲評価値算出部45、カメラ間距離評価値算出部46、評価値算出部47、及び最終評価値決定部48から構成される。この決定部43は、請求項における「決定手段」に相当し、入力部41により入力された固定カメラ3の数と、複数の固定カメラ3の各々の撮影範囲と、複数の固定カメラ3が配置されるエリアのマップのデータとを用いて、上記のオブジェクトトラッキングカメラ配置評価値に基づく組み合わせ最適化により、複数の固定カメラ3の各々を、グリッド分割部42により区切られたグリッド56(請求項における「小領域」)のうちのどのグリッド56に配置するかを決定する。ここで、「最適化」とは、何らかの関数を最小化(若しくは最大化)することである。
【0043】
図5において、グリッド分割部42の後に、グリッドの修正、及びグリッドへの情報追加が可能なユーザ・インタフェース部を用意し、ユーザの手入力による修正を受け付けてもよい。グリッドへの情報とは、カメラ不設置グリッド(固定カメラ3を設置できないグリッド)の情報や、重要撮影範囲箇所の情報などである。上記のユーザ・インタフェース部は、グリッド分割部42により自動的に作成(分割)されたグリッド56をディスプレイ34に表示して、ユーザが、操作部35(マウスやキーボード等の入力デバイス)によるグリッドの修正、及びグリッドへの情報追加を行う機能を提供する。なお、上記のグリッドへの情報追加とは、カメラ不設置グリッドの指定や、重要撮影範囲箇所(例えば、金庫等が設置されたエリアや、店舗Sの出入口のエリア等)のグリッドの指定などである。
【0044】
次に、図6のフローチャートを参照して、上記の分析サーバ1により実現されるオブジェクトトラッキング用カメラ配置支援システムの処理について、より詳細に説明する。まず、分析サーバ1の入力部41(図5参照)は、固定カメラ3の数と、複数の固定カメラ3の各々の撮影範囲と、複数の固定カメラ3が配置されるエリア(配置エリア)のマップのデータとを入力する(S1)。ここでは、複数の固定カメラ3が、天井に配置されて下方(真下)を撮影する360度カメラである場合を例に説明するが、本発明の適用対象のカメラはこれに限るものではない。また、複数の固定カメラ3が、異なる種類のカメラを含むようにしてもよいが、ここでは説明を簡単にするために、全て同じ種類の固定カメラ3であって、これらの固定カメラ3が同じ(形状と面積の)撮影範囲を持つものとする。また、ここでは、固定カメラ3の数を5とする。360度カメラでは画角と設置場所の高さから撮影範囲(の形状と面積)を決定することができる。ここでは、固定カメラ3の撮影範囲を半径3mの円とする。また、以下の例では、上記の配置エリアのマップが、2次元のマップである場合の例について説明するが、3次元のマップであっても良い。分析サーバ1の入力部41(図5参照)は、これらの情報(固定カメラ3の数と、各固定カメラ3の撮影範囲と、複数の固定カメラ3の配置エリアのマップ)を、デジタルデータとして受け付ける。
【0045】
上記S1の入力処理が完了すると、分析サーバ1のグリッド分割部42(図5参照)は、デジタルデータとして受け付けた上記の配置エリアのマップを、小領域(グリッド)に分割する(S2)。ここでは、入力した配置エリアのマップを、図9に示すように、1つのグリッド56の辺が実寸の2mに相当する正方形で、縦5個、横10個のグリッド56に区切るものとする。また、上記のユーザ・インタフェース部を用いて、上記の配置エリアのマップと、グリッド分割部42により引かれたグリッド線55とをディスプレイ34に表示して、ユーザが、操作部35により、上記の配置エリアのマップに対して、グリッド線55全体を移動させて、グリッド線55の上記マップに対する位置の微修正を行うことができるものとする。また、上記のユーザ・インタフェース部を用いて、上記のカメラ不設置グリッドや、重要撮影範囲箇所のグリッドを選択(指定)し、これらの種類のグリッドとして設定することもできるものとする。
【0046】
上記S2の分割処理が完了すると、分析サーバ1のグリッドカメラ配置部44(図5参照)は、上記のグリッド56(小領域)に分割されたマップに、S1で入力された数の固定カメラ3を配置する(より正確に言うと、グリッドカメラ配置部44は、S1で入力された数の固定カメラ3の配置案の一つを提示する)(S3)。グリッドカメラ配置部44は、S1で入力された数の固定カメラ3を、上記のカメラ不設置個所のグリッド以外のグリッド56に、配置する(固定カメラ3を、カメラ不設置個所のグリッド以外のグリッド56に配置した配置案を提示する)。固定カメラ3の種類が全て同じ場合、S1で入力された数の固定カメラ3の配置の組み合わせは、グリッド数をN、入力カメラ数(S1で入力された固定カメラ3の数)をrとすると、(S1で入力された数の固定カメラ3の配置の)全組み合わせ数Tは、
T=
で求められる。
【0047】
グリッド分割部42により作成(分割)された計50(=10×5)個のグリッド56の中で、カメラ不設置個所のグリッド56が10個あった場合、固定カメラ3を設置(配置)可能なグリッド数は、40個となる。この例では、上記のように、固定カメラ3を5個設置するため(上記の入力カメラ数r=5であるため)、上記の全組み合わせ数Tは、
T=40= 658008 [個]
となる。ここで総数に制限を設け、全組み合わせ数Tが多すぎる場合は、上記ユーザ・インタフェース部が、分析サーバ1のディスプレイ34に警告を表示して、ユーザが、操作部35によりグリッド数を半分にするなどの処理を行う機能を提供するようにしてもよい。
【0048】
ここでは,横軸をX軸、縦軸をY軸(X,Y)としたときに、一番左下に位置するグリッド56の座標を(1,1)、一番右上に位置するグリッド56の座標を(10,5)とし、5つの固定カメラ3 (Ca,Cb,Cc,Cd,Ce)を設置(配置)するものとする。また、Y軸が3の箇所にあるグリッド56を、カメラ不設置グリッドとする。
【0049】
上記S3の固定カメラ3の配置処理が完了すると、分析サーバ1のカバー範囲評価値算出部45(図5参照)は、S3で配置した固定カメラ3のカバー範囲評価値を算出する(S4)。具体的には、カバー範囲評価値算出部45は、S3で配置した各固定カメラ3の設置座標(設置位置)と、S1で入力された固定カメラ3の撮影範囲とから、複数の固定カメラ3全体がカバーする面積(複数の固定カメラ3全体の撮影範囲の面積)Sを求めて、このカバー面積Sと、S1で入力されたマップ51(図7参照)のデータに基づいて求めた,マップ51の(エリアの)有効面積Sとから、カバー割合(S/S)を算出し、このカバー割合に基づくカバー範囲評価値Eを算出する。すなわち、下記の式により、カバー範囲評価値Eaを求める。
Ea=1-(S/S
【0050】
ただし、複数の固定カメラ3全体の撮影範囲が、S2で指定した重要撮影範囲箇所のグリッドの少なくとも一部をカバーしていた(重要撮影範囲箇所のグリッドの少なくとも一部が、複数の固定カメラ3全体の撮影範囲に含まれていた)場合は、下記の式により、重要撮影範囲箇所のグリッドの面積Icのうち、複数の固定カメラ3全体の撮影範囲に含まれていた面積Iscを上記Sにプラスし、重要撮影範囲箇所のグリッドの面積Ic(の全体)を分母側に足した上で、Eaを算出する。
Ea=1-{(S+Isc)/(S+Ic)}
この場合、重要撮影範囲箇所の(グリッドの)面積の重みは、通常撮影範囲の面積の(重みの)2倍となるが、2倍以外の重みも用いてもよい。ここで、重要撮影範囲箇所とは、例えば、金庫の設置エリアや、出入口のエリア等である。
【0051】
上記S4のカバー範囲評価値の算出処理が完了すると、分析サーバ1のカメラ間距離評価値算出部46(図5参照)は、S3で配置した複数の固定カメラ3のカメラ間距離評価値を算出する(S5)。具体的には、カメラ間距離評価値算出部46は、S3で配置した5つの固定カメラ3のそれぞれについて、最も近い固定カメラ3との距離(最近固定カメラ間距離)を算出し、これらの固定カメラ間距離から、その分散値v2を算出する。ここでは、算出した分散値v2の正の平方根の値である標準偏差vを上記のカメラ間距離評価値Eとする。けれども、S3で配置した5つの固定カメラ3のそれぞれについて、最も近い固定カメラ3との距離(最近固定カメラ間距離)を算出し、その中で最も大きい固定カメラ間距離d_maxを、カメラ間距離評価値Eとすることや、上記の(分散値v2から求められる)標準偏差v と最大の固定カメラ間距離d_maxとを重みを付けて足し合わせて、カメラ間距離評価値Eとすることも可能である。このカメラ間距離評価値Eを導入することによって、固定カメラ3の配置案としての評価値(後述するオブジェクトトラッキングカメラ配置評価値Eob)に、各固定カメラ3間の距離が離れすぎていないか、各固定カメラ3が均等に配置されているかなどといった要素を反映することが可能となる。このカメラ間距離評価値Eは、請求項における「複数のカメラの各々の間の距離に基づく評価基準」に相当する。また、上記の最近固定カメラ間距離の標準偏差vが、請求項における「複数のカメラのうちの隣接するカメラ間の距離が均等であるか否かを示す指標」に相当する。
【0052】
上記S5のカメラ間距離評価値の算出処理が完了すると、分析サーバ1の評価値算出部47(図5参照)は、S4で算出したカバー範囲評価値Eと、S5で算出したカメラ間距離評価値Eから、上記S3で行われた(提示された)、複数の固定カメラ3の配置について、上記のオブジェクトトラッキングカメラ配置評価値(マルチカメラオブジェクトトラッキングに用いる画像を取得するための複数の固定カメラ3の配置案としての評価値)を算出する(S6)。具体的には、カバー範囲評価値Eとカメラ間距離評価値Eとの重みをα、βとすると、オブジェクトトラッキングカメラ配置評価値Eobは、
Eob = αEa + βEd
となる。このオブジェクトトラッキングカメラ配置評価値Eobは、値が低い方が固定カメラ3の配置(案)の評価としては良い数値となる。上記の重みα、βの値は、実験により決める。
【0053】
上記S6のオブジェクトトラッキングカメラ配置評価値の算出処理が完了すると、分析サーバ1の評価値算出部47(又は決定部43)(図5参照)は、グリッドカメラ配置部44から提供されるカメラの配置案のうち、検討すべきカメラの配置案が残っている場合には(S7でYES)、S3に戻り、検討すべきカメラの配置案が残っていない場合には(S7でNO)、S8の処理に進む。この例では、固定カメラ3の配置の全組み合わせ数Tは、上記のように、658008[個]なので、658008個の全てのカメラ配置案について、上記S4乃至S6の処理が完了した場合に、S8の処理に進む(移行する)。
【0054】
S8では、分析サーバ1の最終評価値決定部48(図5参照)が、S6で算出したオブジェクトトラッキングカメラ配置評価値に基づき、最終的なカメラ配置案(固定カメラ3の配置案)を決定する。すなわち、最終評価値決定部48は、上記S3~S6の処理の繰り返しの結果、S3で提示された今までのカメラ配置案の候補の中から、最もオブジェクトトラッキングカメラ配置評価値が良かったカメラ配置案を、提示すべき配置案として決定する。この例では、検討したカメラ配置案の中で、オブジェクトトラッキングカメラ配置評価値Eobの値が最も低いものを、提示すべきカメラ配置案として選択する。そして、分析サーバ1の出力部49(図5参照)が、上記S8で決定された決定結果(提示すべきカメラ配置案)を、(最終的な)固定カメラ3の配置案として出力する(S9)。すなわち、この例における組み合わせ最適化とは、上記のオブジェクトトラッキングカメラ配置評価値Eobの値が最も低い、カメラ配置案(複数の固定カメラ3の配置の組み合わせ)を求めることを意味する。
【0055】
ここで、予め、オブジェクトトラッキングカメラ配置評価値Eobの値に応じて、ユーザに、この設置(S8で決定されたカメラ配置)でのマルチカメラオブジェクトトラッキングの予測精度を通知することも可能である。例えば、基準となる閾値a,b,cをあらかじめ設定しておいて、Eob<aの場合は、「マルチカメラオブジェクトトラッキングの精度が高くなる」、a<Eob<cの場合は、「マルチカメラオブジェクトトラッキングの精度が中位である」、c<Eobの場合は、「マルチカメラオブジェクトトラッキングの精度が低くなる」ことをユーザに通知するようにしてもよい。
【0056】
次に、図10のブロック図と図11のフローチャートに沿って、本実施形態のマルチカメラオブジェクトトラッキングシステム10について説明する。本マルチカメラオブジェクトトラッキングシステム10は、上記の(分析サーバ1により実現される)オブジェクトトラッキング用カメラ配置支援システムから出力された固定カメラ3の配置案(カメラ配置案)に従って配置された複数のカメラからの画像に映り込んだ物体に対するマルチカメラオブジェクトトラッキングを行うシステムである。図10は、分析サーバ1のCPU31の機能ブロックのうち、マルチカメラオブジェクトトラッキングに関するブロックの入出力関係を示す。図10における変更部62と、マルチカメラオブジェクトトラッキング部63とは、それぞれ、請求項における変更手段と、マルチカメラオブジェクトトラッキング手段とに相当する。
【0057】
図11は、上記マルチカメラオブジェクトトラッキングシステム10におけるマルチカメラオブジェクトトラッキング処理の概要を示すフローチャートである。まず、分析サーバ1のカメラ間距離取得部61(図10参照)は、出力部49(図5参照)から出力された最終的な固定カメラ3のカメラ配置案から、カメラ間距離取得部61により、各固定カメラ3間の距離を取得する(S10)。この各固定カメラ3間の距離には、上記図6のS5でカメラ間距離評価値算出部46が算出した各固定カメラ3間の距離をそのまま使用することができる。次に、分析サーバ1の変更部62(図10参照)は、上記のカメラ間距離取得部61が取得した隣接する固定カメラ3間の距離に応じて、マルチカメラオブジェクトトラッキングの方法を変更する設定を行う(S11)。そして、この設定に応じて、マルチカメラオブジェクトトラッキング部63は、隣接する固定カメラ3間の距離に応じた方法で、複数の追跡対象の物体(この実施形態では、人)を、複数のカメラ(この実施形態では、固定カメラ3)の撮影範囲にまたがって追跡する処理であるマルチカメラオブジェクトトラッキングを行う(S12)。
【0058】
次に、本実施形態におけるマルチカメラオブジェクトトラッキング処理について、説明する。本実施形態のマルチカメラオブジェクトトラッキング処理では、各固定カメラ3の撮影範囲内での(各固定カメラ3の撮影画像を用いた)人物トラッキング結果(すなわち、トラック)を用いる。この各固定カメラ3の撮影範囲内での人物トラッキングには、非特許文献1のようなDeepSORT(Simple Online and Realtime Tracking with a deep association metric)を用いる。DeepSORTのベースであるSORTは、カルマンフィルターで物体の動きを予測し、ハンガリアンアルゴリズムで、予測した物体と検出した物体のIoUを計算し、これらの物体(実際には、バウンディングボックス)を対応付けることで、トラッキングを行うものである。DeepSORTは、上記のSORTの改良版であり、SORTが、いわゆるオクルージョンに弱いという問題(オクルージョンがあった場合に、簡単に、追跡対象物体のIDのスイッチングが発生する(追跡対象物体に新しいIDが付与されてしまう)という問題)を解消するために、上記のSORTと、Person Re-Identificationの技術を併用して、検出物体のバウンディングボックスとトラックとの紐づけを行う技術である。DeepSORTについては公知であるため、その詳細についての説明を省略する。
【0059】
上記のDeepSORTによるトラッキング結果を用いて、ある人が一つの固定カメラ3の撮影範囲内に入ってから出ていくまでを1トラックとし、この1トラックに対応する人(上記の「ある人」)がデータベース(図3図12及び図13の追跡オブジェクトDB39)に登録してあるIDの人と同じかどうかを判定する。この判定結果がデータベースに登録してあるいずれかのIDの人物と同じであれば、そのトラックを該当IDに紐づけし、いずれのIDの人とも合致しなければ、そのトラックに新しいIDを付与して、このトラックの情報をデータベースに登録する。
【0060】
次に、図12及び図13を参照して、本実施形態におけるマルチカメラオブジェクトトラッキング処理のベースアルゴリズムについて、説明する。今、図12に示すように、固定カメラ3a,固定カメラ3b,固定カメラ3cの各々(の撮影画像)について、人のトラッキング結果のデータである、トラック1、トラック2、トラック3が存在するとする。図12に示すように、このトラック1、トラック2、及びトラック3の各々のデータには、対応する固定カメラ3(固定カメラ3a、固定カメラ3b、又は固定カメラ3c)の撮影範囲内に人が入ってきた時間と出ていった時間(タイム(スタート、エンド))と、 その人の移動軌跡と、その人の特徴ベクトルが含まれる。このマルチカメラオブジェクトトラッキング処理のベースアルゴリズムでは、上記のトラックの各々が、追跡オブジェクトDB39に登録されている、どのパーソンIDに紐づくかを推定し、推定結果のパーソンIDを、各トラックに割り当てる。
【0061】
以下の説明において、クエリとは、追跡オブジェクトDB39のデータベース管理システム(DBMS)に対して、データの検索などの処理を行うように求める命令文のことを意味する。図13のステップ1に示すように、クエリとしてトラック1が入力されたときに(トラック1が、どのパーソンIDに紐づくかを推定するときに)、追跡オブジェクトDB39に、未だ何のパーソンIDも登録されていない場合、分析サーバ1のCPU31は、上記のデータベース管理システムを用いて、追跡オブジェクトDB39に、上記のトラック1をパーソン1として登録する(パーソンID=パーソン1を、トラック1に割り当てる)。すなわち、パーソン1の情報として、このパーソンID自体に加えて、上記のトラック1に含まれる、タイム(スタート、エンド)及び特徴ベクトル(図12参照)と移動軌跡とを、追跡オブジェクトDB39に登録(格納)する。
【0062】
次に、図13のステップ2に示すように、クエリとしてトラック2が入力されたときには、分析サーバ1のCPU31は、追跡オブジェクトDB39にパーソン1の情報として登録されているトラック1の情報を用いて、2つのトラック(トラック1とトラック2)の特徴ベクトル間のマッチングを行う。この結果、分析サーバ1のCPU31が、パーソン1の情報として登録されているトラック1の特徴ベクトルと、トラック2の特徴ベクトルとが合致しないと判定した場合、分析サーバ1のCPU31は、上記のデータベース管理システムを用いて、トラック2をパーソン2として登録する(パーソンID=パーソン2を、トラック2に割り当てる)。
【0063】
次に、図13のステップ3に示すように、クエリとしてトラック3が入力されたときには、分析サーバ1のCPU31は、トラック3の特徴ベクトルと、追跡オブジェクトDB39に登録されているパーソン1及びパーソン2の特徴ベクトルとのマッチングを行う。この結果、分析サーバ1のCPU31が、トラック3の特徴ベクトルと、パーソン1の情報として登録されているトラック1の特徴ベクトルとが合致すると判定した場合、分析サーバ1のCPU31は、トラック3がパーソン1のトラックであるとみなし、上記のデータベース管理システムを用いて、追跡オブジェクトDB39に登録されているパーソン1の情報を、トラック3の情報を用いてアップデートする。すなわち、例えば、追跡オブジェクトDB39に登録されているパーソン1の情報に対して、(トラック3に対応する)固定カメラ3cの撮影範囲内にパーソン1が入ってきた時間と出ていった時間(タイム(スタート、エンド))を追加する処理と、固定カメラ3cの撮影範囲内におけるパーソン1の移動軌跡を考慮した、パーソン1の移動軌跡の更新処理と、トラック3の特徴ベクトルを用いたパーソン1の特徴ベクトルの更新処理(例えば、パーソン1の特徴ベクトルを、トラック3の特徴ベクトルに置き換える処理)を行う。
【0064】
分析サーバ1のCPU31は、図13のステップ1~3のような処理を繰り返して、全てのトラックに対するパーソンIDの割り当てを行う。上記のアルゴリズムが、本実施形態におけるマルチカメラオブジェクトトラッキング処理のベースアルゴリズムである。
【0065】
次に、図14を参照して、上記図10及び図11の説明で簡単に述べた、隣接する固定カメラ3間の距離に応じて、マルチカメラオブジェクトトラッキングの方法を変更する処理の具体例について、説明する。まず、図14のパターン1のようなケースについて、説明する。例えば、半径3mの円状の撮影範囲をもつ固定カメラ3a,3bを用いているときに、固定カメラ3aと固定カメラ3bとの間の距離が6m以内だった場合、これら2つの固定カメラ3a,3bの撮影範囲は重なる。図14のパターン1のケースでは、固定カメラ3aと固定カメラ3bとの間の距離が、5m以内とする。この場合、パーソン1が、固定カメラ3a側から固定カメラ3b側に移動するときに、固定カメラ3aの撮影範囲における右側の部分と、固定カメラ3bの撮影範囲における左側の部分において、同一人物(すなわち、パーソン1)が、同時刻(例えば、15時0分0秒)に、2つの固定カメラ3a、3bの撮影画像に映る。
【0066】
従って、固定カメラ3aの撮影画像と、固定カメラ3bの撮影画像のそれぞれについて、標準的な人物画像追跡処理を実施し、これらの固定カメラ3a、3bの撮影画像において、同時刻に、マップ(図7の51参照)における同じ座標に当たる部分に人がいるという結果が得られれば、固定カメラ3aで追跡している人のトラックと、固定カメラ3bで追跡している人のトラックにおいて、その2つのトラックが同一人物(同じ人)のトラックであるとみなすことができる。このため、隣接する2つの固定カメラ3間の距離が5m以内の場合には、上記のマルチカメラオブジェクトトラッキングの方法を実施するように設定を行う。この場合、上記図12及び図13で説明したベースアルゴリズムのマッチング手法は用いず、上記のマルチカメラオブジェクトトラッキングの方法のみを用いて、隣接する固定カメラ3で取得したトラック間のマッチングを行う。なお、上記の標準的な人物画像追跡処理とは、例えば、SORT(Simple Online and Realtime Tracking)のように、YOLO(You only Look Once)v3等の物体検出アルゴリズムで検出したバウンディングボックスを使用して、該当のフレーム画像の前後で近い大きさと近い動きのバウンディングボックスを対応付けることにより、人にIDをつけてトラッキングする処理である。
【0067】
次に、図14のパターン2のようなケースについて、説明する。例えば、半径3mの円状の撮影範囲をもつ固定カメラ3a,3cを用いているときに、固定カメラ3aと固定カメラ3cとの間の距離が6mより大きい場合、これら2つの固定カメラ3a,3cの撮影範囲は重ならない。しかし、固定カメラ3aと固定カメラ3cとの間の距離が十分に近い場合には、ある時刻付近において、固定カメラ3cの方向に向かって、固定カメラ3aの撮影範囲から外に出たトラックと、固定カメラ3aの方向から固定カメラ3cの撮影範囲に入ってきたトラックは、同一人物(図14では、パーソン1)のトラックとみなすことができる。
【0068】
このため、隣接する2つの固定カメラ3間の距離が5m~10mの場合には、分析サーバ1のCPU31(のマルチカメラオブジェクトトラッキング部63)は、図12及び図13で述べたマルチカメラオブジェクトトラッキング処理のベースアルゴリズムを用いて、固定カメラ3cの撮影画像で検出されたトラックのスタート時間から前後数秒以内(例えば、上記スタート時間の2秒前~1秒後の間)のエンド時間の情報を持つトラックに対応するパーソンIDのみを対象に、固定カメラ3cの撮影画像で検出されたトラックと、追跡オブジェクトDB39に登録されているパーソンIDとの照合(マッチング)処理を行う。
【0069】
例えば、図14のパターン2に示すように、固定カメラ3cの撮影画像で検出されたトラック(以下、「固定カメラ3cのトラック」と略す)のスタート時間が、15時00分01秒であり、固定カメラ3aの撮影画像で検出されたトラック(以下、「固定カメラ3aのトラック」と略す)のエンド時間が、15時00分00秒であって、14時59分59秒~15時00分02秒の間のエンド時間の情報を持つトラックが固定カメラ3aのトラック以外に無いものとする。
【0070】
この場合には、分析サーバ1のCPU31は、マルチカメラオブジェクトトラッキング処理のベースアルゴリズムを用いて、固定カメラ3cのトラックのスタート時間の2秒前~1秒後のエンド時間の情報を持つ、固定カメラ3aのトラックに対応するパーソンID(図12及び図13の例では、トラック1に対応するパーソン1)のみを対象に、固定カメラ3cのトラックと、追跡オブジェクトDB39に登録されているパーソンIDとの照合(マッチング)処理を行う。すなわち、例えば、分析サーバ1のCPU31が、固定カメラ3cのトラック(図12及び図13の例では、トラック3)の特徴ベクトルと、固定カメラ3aのトラックに対応するパーソンID(図12及び図13の例では、パーソン1)の情報として登録されているトラック(図12及び図13の例では、トラック1)の特徴ベクトルとが合致すると判定した場合、分析サーバ1のCPU31は、固定カメラ3cのトラック(トラック3)が、固定カメラ3aのトラックに対応するパーソンID(パーソン1)のトラックであるとみなし、図13に示すように、追跡オブジェクトDB39に登録されているパーソン1の情報を、トラック3の情報を用いてアップデートする。
【0071】
このパターン2のように、隣接する2つの固定カメラ3間の距離が十分に近い場合(例えば、5m~10mの場合)には、後述するパターン3のように、隣接する2つの固定カメラ3間の距離が離れている(例えば、10m以上離れている)場合と異なり、分析サーバ1のCPU31の変更部62(図10参照)は、オブジェクトのカメラ渡りの時間(具体的には、人が、固定カメラ3aの撮影範囲を出てから、固定カメラ3cの撮影範囲に入るまでの時間)と、固定カメラ3aの撮影画像におけるオブジェクト(人)の現在位置との整合性を重視して、隣接する2つの固定カメラ3のトラック間のマッチングを行う。より正確に言うと、分析サーバ1のCPU31の変更部62は、時間的に後でオブジェクトの撮影を行う固定カメラ3cの撮影範囲のトラックの特徴ベクトルと、追跡オブジェクトDB39に登録されている(時間的に前にオブジェクトの撮影を行った固定カメラ3aの撮影範囲のトラックに対応する)パーソンIDの特徴ベクトルとのマッチングを行う。
【0072】
次に、図14のパターン3のようなケースについて、説明する。パターン1及び2の場合と同様に、半径3mの円状の撮影範囲をもつ固定カメラ3a,3dを用いているときに、固定カメラ3aと固定カメラ3dとの間の距離が10mより大きい場合、上記のパターン2の場合と異なり、固定カメラ3aから固定カメラ3dへの人(図14の例では、パーソン1)の移動に要する時間の予測が難しくなる。そこで、このような場合には、上記図12及び図13で述べたマルチカメラオブジェクトトラッキング処理のベースアルゴリズムをそのまま適用して、固定カメラ3dのトラックと、追跡オブジェクトDB39に登録されているパーソンIDとの照合(マッチング)処理を行う。
【0073】
上記図14のパターン1の説明から、分析サーバ1のCPU31の変更部62(図10参照)が、出力部49(図5参照)が出力した(最終的な)固定カメラ3の配置案(カメラ配置案)における隣接する2つの固定カメラ3の撮影範囲が重なる場合に、隣接する2つの固定カメラ3の撮影画像において、マップ51(図7参照)上の同じ座標位置に、同時刻に人が存在するときは、これらの人のトラックを同じ人のトラックとみなすように設定することが分かる。このように、最終的なカメラ配置案における隣接する2つの固定カメラ3の撮影範囲が重なる場合には、上記のように、マルチカメラオブジェクトトラッキングの方法を変更することにより、マップ51上のエリアにおいて、複数の追跡対象のオブジェクト(人)を、複数のカメラの撮影範囲にまたがって、正確、かつ、容易に追跡することができる。
【0074】
また、上記図14のパターン1~3の説明から、分析サーバ1のCPU31の変更部62(図10参照)が、マルチカメラオブジェクトトラッキング部63が、ある固定カメラ3の撮影範囲内における人の追跡(トラッキング)結果である第1のトラックと、この固定カメラ3に隣接する別の固定カメラ3の撮影範囲内における人の追跡結果である第2のトラックとのマッチングを行うときに、出力部49が出力した(最終的な)固定カメラ3の配置案における上記の2つの固定カメラ3間の距離が大きくなるほど、これらの固定カメラ3の撮影画像の類似度(具体的には、これらの固定カメラ3の撮影画像の特徴ベクトル間の距離)を重視して、上記の第1のトラックと第2のトラックとのマッチング(すなわち、隣接する2つの固定カメラ3のトラック間のマッチング)を行うように設定することが分かる。これにより、最終的なカメラ配置案における隣接する2つの固定カメラ3間の距離が大きく、オブジェクト(人)のカメラ渡りの時間が長い場合に、これらの固定カメラ3の撮影画像の類似度を中心に、隣接する2つの固定カメラ3のトラック間のマッチングを行うことができるので、隣接する2つの固定カメラ3間の距離が大きいにも拘わらず、これらの固定カメラ3の撮影範囲にまたがって、複数の追跡対象のオブジェクト(人)を、正確に追跡することができる。
【0075】
また、上記図14のパターン2及び3の説明から、分析サーバ1のCPU31の変更部62が、マルチカメラオブジェクトトラッキング部63が、ある固定カメラ3の撮影範囲内における人の追跡(トラッキング)結果である第1のトラックと、この固定カメラ3に隣接する別の固定カメラ3の撮影範囲内における人の追跡結果である第2のトラックとのマッチングを行うときに、出力部49が出力した(最終的な)固定カメラ3の配置案における上記の2つの固定カメラ3間の距離が小さくなるほど、オブジェクト(人(パーソン1))のカメラ渡りの時間(例えば、パターン2の場合については、人(パーソン1)が、固定カメラ3aの撮影範囲を出てから、固定カメラ3cの撮影範囲に入るまでの時間)と、オブジェクトの現在位置との整合性を重視して、上記の第1のトラックと第2のトラックとのマッチング(すなわち、隣接する2つの固定カメラ3のトラック間のマッチング)を行うように設定することが分かる。これにより、最終的なカメラ配置案における隣接する2つの固定カメラ3間の距離が小さく、オブジェクト(人)のカメラ渡りの時間が短い場合に、オブジェクト(人)のカメラ渡りの時間と、オブジェクト(人)の現在位置との整合性を中心に、隣接する2つの固定カメラ3のトラック間のマッチングを行うことができるので、マップ51上のエリアにおいて、複数の追跡対象のオブジェクト(人)を、複数の固定カメラ3の撮影範囲にまたがって、正確、かつ、容易に追跡することができる。
【0076】
なお、上記の図14のパターン2の場合について、固定カメラ3cのトラックのスタート時間と、追跡オブジェクトDB39に登録されている各パーソンIDのエンド時間との時間差(以下、「スタート時間とエンド時間との時間差」と略す)に応じて、固定カメラ3cのトラックの特徴ベクトルと、追跡オブジェクトDB39に登録されている各パーソンIDの特徴ベクトルとのマッチングの結果に対して重みをかけるなどをしても良い。すなわち、例えば、上記のスタート時間とエンド時間との時間差が所定の秒数より大きい場合には、固定カメラ3cのトラックの特徴ベクトルと、追跡オブジェクトDB39に登録されている各パーソンIDの特徴ベクトルとの演算により求めた、これらの特徴ベクトルの類似度にかける重みを一律に減らしたり、上記のスタート時間とエンド時間との時間差に比例して、上記の類似度にかける重みを減らしたりして、固定カメラ3cのトラックのスタート時間と、追跡オブジェクトDB39に登録されている各パーソンIDのエンド時間との時間差が大きい場合には、固定カメラ3cのトラックと、追跡オブジェクトDB39に登録されているパーソンIDとが合致しにくくなるようにしても良い。
【0077】
上記のように、本実施形態の(分析サーバ1から構成される)オブジェクトトラッキング用カメラ配置支援システムによれば、複数の固定カメラ3が配置されるエリア(例えば、図7のマップ51のエリア)を、いくつかのグリッド56(小領域)に区切って、入力された固定カメラ3の数の情報と、複数の固定カメラ3の各々の撮影範囲に関する情報と、これらの固定カメラ3が配置されるエリアのマップ51のデータとを用いて、所定の評価基準(例えば、上記のオブジェクトトラッキングカメラ配置評価値Eob)に基づく組み合わせ最適化により、上記複数のカメラの各々を、上記のグリッド56(小領域)のうちのどのグリッド56に配置するかを決定するようにした。これにより、上記特許文献1記載の従来のシステムと比べて、固定カメラ3の配置案の候補となる、複数の固定カメラ3の配置位置の組み合わせの数を、グリッド56(小領域)の組み合わせの数に減らすことができるので、固定カメラ3の配置案の決定に必要な処理負荷を小さくして、最適な固定カメラ3の配置案の出力に要する時間を短くすることができる。
【0078】
また、本実施形態のオブジェクトトラッキング用カメラ配置支援システムによれば、組み合わせ最適化の評価基準として、上記のマップ(例えば、図7のマップ51)の有効面積全体のうち、複数の固定カメラ3全体の撮影範囲がカバーする割合である、カバー割合に基づく評価基準(カバー範囲評価値Ea)を用いるようにした。これにより、上記のカバー割合(マップの有効面積全体のうち、複数の固定カメラ3全体の撮影範囲がカバーする割合)を基準にして、最終的な固定カメラ3の配置案を出力(提案)することができるので、入力部41により入力された条件(固定カメラ3の数と、複数の固定カメラ3の各々の撮影範囲と、複数の固定カメラ3が配置されるエリア(配置エリア)のマップ)の下において、できるだけ、マップにおける広い範囲を撮影可能な固定カメラ3の配置案を出力(提案)することができる。従って、このオブジェクトトラッキング用カメラ配置支援システムにより出力(提案)された固定カメラ3の配置案に基づいて、マップ上の追跡(トラッキング)対象のオブジェクト(人)の動きを把握し易いように、複数の固定カメラ3を配置することができる。
【0079】
また、本実施形態のオブジェクトトラッキング用カメラ配置支援システムによれば、組み合わせ最適化の評価基準として、複数の固定カメラ3の各々の間の距離に基づく評価基準(カメラ間距離評価値E)を用いるようにした。これにより、固定カメラ3の配置案としての評価基準に、各固定カメラ3間の距離が離れすぎていないか、各固定カメラ3が均等に配置されているかなどといった要素を反映することができる。従って、このオブジェクトトラッキング用カメラ配置支援システムにより出力(提案)された固定カメラ3の配置案に基づいて、マップ上の追跡(トラッキング)対象のオブジェクト(人)の動きを把握し易いように、複数の固定カメラ3を配置することができる。
【0080】
また、本実施形態のオブジェクトトラッキング用カメラ配置支援システムによれば、上記の複数の固定カメラ3の各々の間の距離に基づく評価基準(カメラ間距離評価値E)を、複数の固定カメラ3のうちの隣接するカメラ間の距離が均等であるか否かを示す指標(例えば、上記図5及び図6の説明で述べた「最近固定カメラ間距離」の標準偏差v)とするようにした。これにより、このオブジェクトトラッキング用カメラ配置支援システムが出力する固定カメラ3の配置案(カメラ配置案)を、隣接する固定カメラ3間の距離が均等なカメラ配置案とすることができるので、このカメラ配置案に基づいて、マップ上の追跡(トラッキング)対象のオブジェクト(人)の動きを把握し易いように、複数の固定カメラ3を配置することを、確実に行うことができる。
【0081】
また、本実施形態のオブジェクトトラッキング用カメラ配置支援システムによれば、組み合わせ最適化の評価基準として、複数の固定カメラ3の各々の間の距離に基づく評価基準(カメラ間距離評価値E)と、上記のカバー割合(マップの有効面積全体のうち、複数の固定カメラ3全体の撮影範囲がカバーする割合)に基づく評価基準とを用いるようにした。これにより、複数の固定カメラ3の配置案としての評価基準に、マップにおける、できるだけ広い範囲を撮影することができるという要素を取り込むと共に、各固定カメラ3間の距離が離れすぎていないか、各固定カメラ3が均等に配置されているかなどといった要素を反映することができる。従って、このオブジェクトトラッキング用カメラ配置支援システムにより出力(提案)された固定カメラ3の配置案に基づいて、マップ上の追跡(トラッキング)対象のオブジェクト(人)の動きを把握し易いように、複数の固定カメラ3を配置することができる。
【0082】
また、本実施形態のマルチカメラオブジェクトトラッキングシステム10によれば、上記のオブジェクトトラッキング用カメラ配置支援システムから出力された最終的なカメラ配置案における隣接するカメラ間の距離に応じて、マルチカメラオブジェクトトラッキングの方法を変更することにより、マップ51上のエリアにおいて、複数の追跡対象のオブジェクト(人)を、複数のカメラの撮影範囲にまたがって追跡することが容易になる。
【0083】
変形例:
なお、本発明は、上記の各実施形態の構成に限られず、発明の趣旨を変更しない範囲で種々の変形が可能である。次に、本発明の変形例について説明する。
【0084】
変形例1:
上記実施形態における図10図11、及び図14の説明では、隣接する固定カメラ3間の距離に応じて、マルチカメラオブジェクトトラッキングの方法を変更する例について述べたが、本発明のマルチカメラオブジェクトトラッキングシステムは、これに限られず、例えば、(出力部49(図5参照)から出力された)最終的な固定カメラ3のカメラ配置案におけるカバー割合(マップ51の有効面積全体のうち、複数の固定カメラ3全体の撮影範囲がカバーする割合)に応じて、マルチカメラオブジェクトトラッキングの方法を変更するようにしても良い。何故なら、最終的な固定カメラ3のカメラ配置案におけるカバー割合が小さい場合には、隣接する固定カメラ3間の距離が長い場合と同様に、全般に、隣接する固定カメラ3の撮影範囲の間が離れているし、固定カメラ3のカメラ配置案におけるカバー割合が大きい場合には、隣接する固定カメラ3間の距離が短い場合と同様に、全般に、隣接する固定カメラ3の撮影範囲の間が離れていないからである。
【0085】
この変形例1のマルチカメラオブジェクトトラッキングシステムによれば、上記のオブジェクトトラッキング用カメラ配置支援システムから出力された最終的なカメラ配置案における上記のカバー割合(マップの有効面積全体のうち、複数の固定カメラ3全体の撮影範囲がカバーする割合)に応じて、マルチカメラオブジェクトトラッキングの方法を変更することにより、マップ上のエリアにおいて、複数の追跡対象のオブジェクト(人)を、複数の固定カメラ3の撮影範囲にまたがって追跡することが容易になる。
【0086】
この変形例1の一具体例としては、例えば、分析サーバ1のCPU31の変更部62(図10参照)が、マルチカメラオブジェクトトラッキング部63が、ある固定カメラ3の撮影範囲内における人の追跡結果である第1のトラックと、この固定カメラ3に隣接する別の固定カメラ3の撮影範囲内における人の追跡結果である第2のトラックとのマッチングを行うときに、上記の最終的な固定カメラ3の配置案における上記のカバー割合が小さくなるほど、これらの固定カメラ3の撮影画像の類似度(具体的には、これらの固定カメラ3の撮影画像の特徴ベクトル間の距離)を重視して、上記の第1のトラックと第2のトラックとのマッチング(すなわち、隣接する2つの固定カメラ3のトラック間のマッチング)を行うように設定することが挙げられる。これにより、最終的なカメラ配置案における上記のカバー割合が小さく、オブジェクト(人)のカメラ渡りの時間が長いと想定される場合に、これらの固定カメラ3の撮影画像の類似度を中心に、隣接する2つの固定カメラ3のトラック間のマッチングを行うことができるので、最終的なカメラ配置案における上記のカバー割合が小さいにも拘わらず、マップ51上のエリアにおいて、複数の追跡対象のオブジェクト(人)を、複数の固定カメラ3の撮影範囲にまたがって、正確に追跡することができる。
【0087】
この変形例1の他の具体例としては、例えば、分析サーバ1のCPU31の変更部62が、マルチカメラオブジェクトトラッキング部63が、ある固定カメラ3の撮影範囲内における人の追跡結果である第1のトラックと、この固定カメラ3に隣接する別の固定カメラ3の撮影範囲内における人の追跡結果である第2のトラックとのマッチングを行うときに、上記のカバー割合が大きくなるほど、図14のパターン2の場合と同様に、オブジェクト(人)のカメラ渡りの時間とオブジェクト(人)の現在位置との整合性を重視して、上記の第1のトラックと第2のトラックとのマッチング(すなわち、隣接する2つの固定カメラ3のトラック間のマッチング)を行うように設定することが挙げられる。これにより、最終的なカメラ配置案における上記のカバー割合が大きく、オブジェクト(人)のカメラ渡りの時間が短いと想定される場合に、オブジェクト(人)のカメラ渡りの時間と、オブジェクト(人)の現在位置との整合性を中心に、隣接する2つの固定カメラ3のトラック間のマッチングを行うことができるので、マップ51上のエリアにおいて、複数の追跡対象のオブジェクト(人)を、複数の固定カメラ3の撮影範囲にまたがって、正確、かつ、容易に追跡することができる。
【0088】
変形例2:
上記の実施形態では、請求項における「組み合わせ最適化の評価基準」として、各固定カメラ3の間の距離に基づく評価基準(カメラ間距離評価値)と、上記のカバー割合(マップ51の有効面積全体のうち、複数の固定カメラ3全体の撮影範囲がカバーする割合)に基づく評価基準(カバー範囲評価値)とを用いるようにした。けれども、請求項における「組み合わせ最適化の評価基準」として、各固定カメラ3の間の距離に基づく評価基準(カメラ間距離評価値)のみを用いるようにしても良いし、上記のカバー割合に基づく評価基準(カバー範囲評価値)のみを用いるようにしても良い。
【0089】
変形例3:
また、ユーザ(システム管理者)が、マップにおける、追跡対象のオブジェクト(人)が通る経路の形状等に応じて、固定カメラ3の配置案の提案モードを変更できるようにしてもよい。この提案モードとしては、「できるだけ対象範囲をカバーするモード」、「分散モード」、「重要箇所モード」、「角/交点モード」、及び「辺モード」のいずれか一つを用いても良いし、これらのモードを2つ以上組み合わせて用いても良い。
【0090】
上記の「できるだけ対象範囲をカバーするモード」とは、図7に示すマップ51の有効面積全体のうち、複数の固定カメラ3全体の撮影範囲がカバーする割合である、「カバー割合」をできるだけ大きくするモードである。例えば、入力部に入力された固定カメラの数が17で、モードが、できるだけ対象範囲をカバーする(ように固定カメラを配置する)モードの場合は、最終評価値決定部48により決定される決定結果(提示すべき配置案)の一例は、図8に示すものになる。なお、この「できるだけ対象範囲をカバーするモード」は、変形例2における、「組み合わせ最適化の評価基準」としてカバー割合に基づく評価基準(カバー範囲評価値)のみを用いるようにした場合の一例に相当する。
【0091】
また、上記の「分散モード」とは、分析サーバのCPUが、例えば、上記のカメラ間距離評価値算出部46(図5参照)が算出した、隣接する各固定カメラ間の距離の標準偏差vに基づいて、できるだけ、隣接する各固定カメラ間の距離が離れるような、各固定カメラの配置の組み合わせを探索するモードである。なお、この「分散モード」は、変形例2における、「組み合わせ最適化の評価基準」として各固定カメラ3の間の距離に基づく評価基準(カメラ間距離評価値)のみを用いるようにした場合の一例に相当する。
【0092】
また、「重要箇所モード」とは、図6のS5の説明で言及した重要撮影範囲箇所(例えば、金庫の設置エリアや、出入口のエリア等)を、ユーザが分析サーバの操作部等を用いて指示(選択)すると、分析サーバのCPUが、そこ(重要箇所)に重点的に固定カメラを配置するように、各固定カメラの組み合わせを探索するモードである。「角/交点モード」とは、分析サーバのCPUが、マップ上における「角」や「分岐点」に対応するグリッドに、重点的に固定カメラを配置するように、各固定カメラの組み合わせを探索するモードである。ここで、マップ上における「角」に対応するグリッドとは、図15上に一点鎖線で示す辺54(マップ上のエリアにおける人の動線になり得る経路)の角58に対応するグリッド(例えば、図15におけるグリッド56a)を意味し、「分岐点」(又は「交点」)に対応するグリッドとは、上記の辺54の分岐点53に対応するグリッド(例えば、図15におけるグリッド56b)を意味する。また、「辺モード」とは、分析サーバのCPUが、マップにおける辺54(図15参照)上に、1つ以上の固定カメラを配置することを優先して、各固定カメラの組み合わせを探索するモードである。
【0093】
図15に示す例では、入力部41により入力された固定カメラ3の数が7個であり、各固定カメラの撮影範囲が、破線で示す撮影範囲枠57で囲まれたエリアであり、マップに固定カメラを配置するモードが、上記の「分散モード」と「角/交点モード」とを組み合わせたモードである場合において、オブジェクトトラッキング用カメラ配置支援システムが出力(提案)した固定カメラの配置案の例を示す。図15において、各撮影範囲枠57の中心に位置するグリッド(例えば、グリッド56aや、グリッド56b)(の中心位置)に、固定カメラが配置されている。
【0094】
変形例4:
上記の実施形態では、エッジ側分析装置2が、固定カメラ3の各々から入力された画像に対する人の(バウンディングボックスの)検出処理や、この物体検出処理で検出された人の画像を切り出して、切り出した人の画像から特徴ベクトルを抽出する処理を行い、分析サーバ1が、各店舗S内に設置されたエッジ側分析装置2から送信された、各人のバウンディングボックスの(位置や大きさの)情報と、各人の特徴ベクトルとを用いて、マルチカメラオブジェクトトラッキング処理を行う場合の例を示した。けれども、本発明のマルチカメラオブジェクトトラッキングシステムは、これに限られず、例えば、エッジ側のデバイス(上記実施形態におけるエッジ側分析装置2や、いわゆるAIカメラに相当)が、1つの固定カメラの撮影範囲内におけるトラッキングまでを行って、分析サーバが、各エッジ側デバイスから送信された、各固定カメラの撮影範囲内におけるトラッキング結果(トラック)を用いて、マルチカメラオブジェクトトラッキング処理を行ってもよい。
【符号の説明】
【0095】
1 分析サーバ(オブジェクトトラッキング用カメラ配置支援システム、コンピュータ)
3 固定カメラ(カメラ)
10 マルチカメラオブジェクトトラッキングシステム
37 オブジェクトトラッキング用カメラ配置支援プログラム
38 マルチカメラオブジェクトトラッキングプログラム
41 入力部(入力手段)
42 グリッド分割部(領域分割手段)
43 決定部(決定手段)
49 出力部(出力手段)
51 マップ
62 変更部(変更手段)
63 マルチカメラオブジェクトトラッキング部(マルチカメラオブジェクトトラッキング手段)
Ea カバー範囲評価値(カバー割合に基づく評価基準)
Ed カメラ間距離評価値(複数のカメラの各々の間の距離に基づく評価基準)
v 標準偏差 (複数のカメラのうちの隣接するカメラ間の距離が均等であるか否かを示す指標)
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14
図15