IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ コニカミノルタ株式会社の特許一覧

特許7491321再同定装置、再同定プログラム、および再同定方法
<>
  • 特許-再同定装置、再同定プログラム、および再同定方法 図1
  • 特許-再同定装置、再同定プログラム、および再同定方法 図2
  • 特許-再同定装置、再同定プログラム、および再同定方法 図3
  • 特許-再同定装置、再同定プログラム、および再同定方法 図4
  • 特許-再同定装置、再同定プログラム、および再同定方法 図5
  • 特許-再同定装置、再同定プログラム、および再同定方法 図6
  • 特許-再同定装置、再同定プログラム、および再同定方法 図7
  • 特許-再同定装置、再同定プログラム、および再同定方法 図8
  • 特許-再同定装置、再同定プログラム、および再同定方法 図9
  • 特許-再同定装置、再同定プログラム、および再同定方法 図10
  • 特許-再同定装置、再同定プログラム、および再同定方法 図11
  • 特許-再同定装置、再同定プログラム、および再同定方法 図12
  • 特許-再同定装置、再同定プログラム、および再同定方法 図13
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-05-20
(45)【発行日】2024-05-28
(54)【発明の名称】再同定装置、再同定プログラム、および再同定方法
(51)【国際特許分類】
   G06T 7/292 20170101AFI20240521BHJP
   G06T 7/00 20170101ALI20240521BHJP
   H04N 7/18 20060101ALI20240521BHJP
【FI】
G06T7/292
G06T7/00 350C
H04N7/18 K
【請求項の数】 5
(21)【出願番号】P 2021575608
(86)(22)【出願日】2020-10-07
(86)【国際出願番号】 JP2020037961
(87)【国際公開番号】W WO2021157133
(87)【国際公開日】2021-08-12
【審査請求日】2023-06-27
(31)【優先権主張番号】P 2020016444
(32)【優先日】2020-02-03
(33)【優先権主張国・地域又は機関】JP
(73)【特許権者】
【識別番号】000001270
【氏名又は名称】コニカミノルタ株式会社
(74)【代理人】
【識別番号】110000671
【氏名又は名称】IBC一番町弁理士法人
(72)【発明者】
【氏名】佐々木 辰也
【審査官】藤原 敬利
(56)【参考文献】
【文献】特開2019-096062(JP,A)
【文献】特開2019-036213(JP,A)
【文献】特開2014-192700(JP,A)
【文献】特開2019-186859(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
G06T 7/00- 7/90
G06V 10/00-20/90
H04N 7/18
(57)【特許請求の範囲】
【請求項1】
撮影装置のレンズの歪特性により、前記撮影装置の撮影領域における物体の位置によって物体の形状が変化した撮影画像を取得する取得部と、
取得された前記撮影画像において、物体を含む物体領域を検出する物体検出部と、
前記撮影装置ごとの前記撮影画像における前記物体領域の移動軌跡を、前記撮影画像における前記物体領域の位置の時系列の変化に基づいて推定する軌跡推定部と、
前記撮影領域が重複しない複数の前記撮影装置でそれぞれ撮影された前記撮影画像においてそれぞれ検出された前記物体領域に含まれる物体が同一かどうかを、物体のクラスの推定精度において最適化されるように画定された、前記撮影画像における特定範囲の範囲内の前記物体領域と、前記特定範囲が画定された際に学習されたニューラルネットワークのモデルとを用いて推定し、推定結果に基づいて同一と推定した物体がそれぞれ含まれる前記物体領域の前記移動軌跡を同一の物体の前記移動軌跡と推定する再同定部と、を有し、
前記撮影画像において設定された指定範囲ごとに、前記指定範囲において検出された前記物体領域と、前記物体領域に含まれる物体のクラスの正解ラベルとの組み合わせを教師データとしてニューラルネットワークの前記モデルを学習させる学習部と、
学習された、ニューラルネットワークの前記モデルによる、物体のクラスの推定精度を算出する評価部と、
推定精度が最大となるときの前記指定範囲を前記特定範囲として決定することで、前記特定範囲を画定する特定範囲画定部と、
をさらに有する再同定装置。
【請求項2】
前記特定範囲は、1つの前記撮影装置に対し複数画定され、
前記再同定部は、前記撮影領域が重複しない複数の前記撮影装置でそれぞれ撮影された前記撮影画像においてそれぞれ検出された前記物体領域に含まれる物体が同一かどうかを、前記特定範囲の範囲内の前記物体領域に基づいて、前記特定範囲が画定された際にそれぞれ学習されたニューラルネットワークの前記モデルを用いて推定し、推定結果に基づいて同一と推定した物体がそれぞれ含まれる前記物体領域の前記移動軌跡を同一の物体の前記移動軌跡と推定する、請求項1に記載の再同定装置。
【請求項3】
前記軌跡推定部は、撮影装置ごとの撮影画像における物体領域の移動軌跡を、時系列の複数の撮影画像においてそれぞれ検出された物体領域に含まれる物体の類似度と、撮影画像における物体領域の位置の時系列の変化に基づいて推定する、請求項1または2に記載の再同定装置。
【請求項4】
撮影装置のレンズの歪特性により、前記撮影装置の撮影領域における物体の位置によって物体の形状が変化した撮影画像を取得する手順(a)と、
取得された前記撮影画像において、物体を含む物体領域を検出する手順(b)と、
前記撮影装置ごとの前記撮影画像における前記物体領域の移動軌跡を、前記撮影画像における前記物体領域の位置の時系列の変化に基づいて推定する手順(c)と、
前記撮影領域が重複しない複数の前記撮影装置でそれぞれ撮影された前記撮影画像においてそれぞれ検出された前記物体領域に含まれる物体が同一かどうかを、物体のクラスの推定精度において最適化されるように画定された、前記撮影画像における特定範囲の範囲内の前記物体領域と、前記特定範囲が画定された際に学習されたニューラルネットワークのモデルとを用いて推定し、推定結果に基づいて同一と推定した物体がそれぞれ含まれる前記物体領域の前記移動軌跡を同一の物体の前記移動軌跡と推定する手順(d)と、を有し、
前記撮影画像において設定された指定範囲ごとに、前記指定範囲において検出された前記物体領域と、前記物体領域に含まれる物体のクラスの正解ラベルとの組み合わせを教師データとしてニューラルネットワークの前記モデルを学習させる手順(e)と、
学習された、ニューラルネットワークの前記モデルによる、物体のクラスの推定精度を算出する手順(f)と、
推定精度が最大となるときの前記指定範囲を前記特定範囲として決定することで、前記特定範囲を画定する手順(g)と、
をさらに有する処理をコンピューターに実行させるための再同定プログラム。
【請求項5】
撮影装置のレンズの歪特性により、前記撮影装置の撮影領域における物体の位置によって物体の形状が変化した撮影画像を取得する段階(a)と、
取得された前記撮影画像において、物体を含む物体領域を検出する段階(b)と、
前記撮影装置ごとの前記撮影画像における前記物体領域の移動軌跡を、前記撮影画像における前記物体領域の位置の時系列の変化に基づいて推定する段階(c)と、
前記撮影領域が重複しない複数の前記撮影装置でそれぞれ撮影された前記撮影画像においてそれぞれ検出された前記物体領域に含まれる物体が同一かどうかを、物体のクラスの推定精度において最適化されるように画定された、前記撮影画像における特定範囲の範囲内の前記物体領域と、前記特定範囲が画定された際に学習されたニューラルネットワークのモデルとを用いて推定し、推定結果に基づいて同一と推定した物体がそれぞれ含まれる前記物体領域の前記移動軌跡を同一の物体の前記移動軌跡と推定する段階(d)と、を有し、
前記撮影画像において設定された指定範囲ごとに、前記指定範囲において検出された前記物体領域と、前記物体領域に含まれる物体のクラスの正解ラベルとの組み合わせを教師データとしてニューラルネットワークの前記モデルを学習させる段階(e)と、
学習された、ニューラルネットワークの前記モデルによる、物体のクラスの推定精度を算出する段階(f)と、
推定精度が最大となるときの前記指定範囲を前記特定範囲として決定することで、前記特定範囲を画定する段階(g)と、をさらに有する再同定方法。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、再同定装置、再同定プログラム、および再同定方法に関する。
【背景技術】
【0002】
従来、マーケティングの目的で、店舗での顧客の購買行動の分析が行われている。例えば、店舗での顧客の移動軌跡と、当該顧客が購入した商品の関係等を分析することで、どのような商品がどのような動線で購入されているか等の情報が得られる。このような情報は、販売する商品の品揃えやレイアウトに反映されることにより商品の販売が促進されるため、重要なマーケティング情報となる。
【0003】
物体の移動軌跡を検出する技術に関連し、画像から物体を識別する方法の従来技術として、特許文献1に記載されたものがある。すなわち、画像中の着目被写体の複数の属性の各々の独自性を判定し、画像中の候補被写体の相対的向きに基づいて候補被写体の複数の属性の各々の検出可能性を判定する。そして、少なくとも1つの属性の検出可能性を向上させるように、判定された独自性に基づいて候補被写体を観察するためのカメラ設定を決定し、決定されたカメラ設定で候補被写体の画像を撮像して、候補被写体が着目被写体であることの信頼度を判定する。
【先行技術文献】
【特許文献】
【0004】
【文献】特開2016-72964号公報
【発明の概要】
【発明が解決しようとする課題】
【0005】
物体の移動軌跡を検出するために、撮影範囲の重複のない複数の撮影装置を設置し、複数の撮影装置で撮影された画像間での物体照合により物体の同一性を判断する再同定(Re-Identification)が行われている。再同定においては、一般的なクラス分類問題と異なり、分類対象であるクラス(物体クラス)の数が不定であり、各クラスの画像が事前に得られない。このため、機械学習による学習済みモデルを用いて物体の画像から特徴ベクトルを抽出し、特徴空間における特徴ベクトル間の距離が閾値以下である画像(物体)同士は同一のクラスであると推定している。
【0006】
しかし、撮影装置を店舗の天井等に複数設置し、店舗内を俯瞰する画像を複数撮影して、再同定により顧客の移動軌跡を検出する場合、撮影装置のレンズの歪特性に起因して、画像における顧客の位置によって顧客の形状が変化する。当該形状の変化は、撮影装置のレンズが広角レンズ等の場合に、より顕著になる。そして、当該形状の変化により再同定の精度が低下するという問題がある。上記先行技術は、このような問題に対応できない。
【0007】
本発明は、上述の問題を解決するためになされたものである。すなわち、物体の再同定の精度を向上できる、再同定装置、再同定プログラム、および再同定方法を提供することを目的とする。
【課題を解決するための手段】
【0008】
本発明の上記課題は、以下の手段によって解決される。
【0009】
(1)撮影装置のレンズの歪特性により、前記撮影装置の撮影領域における物体の位置によって物体の形状が変化した撮影画像を取得する取得部と、取得された前記撮影画像において、物体を含む物体領域を検出する物体検出部と、前記撮影装置ごとの前記撮影画像における前記物体領域の移動軌跡を、前記撮影画像における前記物体領域の位置の時系列の変化に基づいて推定する軌跡推定部と、前記撮影領域が重複しない複数の前記撮影装置でそれぞれ撮影された前記撮影画像においてそれぞれ検出された前記物体領域に含まれる物体が同一かどうかを、物体のクラスの推定精度において最適化されるように画定された、前記撮影画像における特定範囲の範囲内の前記物体領域と、前記特定範囲が画定された際に学習されたニューラルネットワークのモデルとを用いて推定し、推定結果に基づいて同一と推定した物体がそれぞれ含まれる前記物体領域の前記移動軌跡を同一の物体の前記移動軌跡と推定する再同定部と、を有する再同定装置。
【0010】
(2)前記特定範囲は、1つの前記撮影装置に対し複数画定され、前記再同定部は、前記撮影領域が重複しない複数の前記撮影装置でそれぞれ撮影された前記撮影画像においてそれぞれ検出された前記物体領域に含まれる物体が同一かどうかを、前記特定範囲の範囲内の前記物体領域に基づいて、前記特定範囲が画定された際にそれぞれ学習されたニューラルネットワークの前記モデルを用いて推定し、推定結果に基づいて同一と推定した物体がそれぞれ含まれる前記物体領域の前記移動軌跡を同一の物体の前記移動軌跡と推定する、上記(1)に記載の再同定装置。
【0011】
(3)前記軌跡推定部は、撮影装置ごとの撮影画像における物体領域の移動軌跡を、時系列の複数の撮影画像においてそれぞれ検出された物体領域に含まれる物体の類似度と、撮影画像における物体領域の位置の時系列の変化に基づいて推定する、上記(1)または(2)に記載の再同定装置。
【0012】
(4)前記撮影画像において設定された指定範囲ごとに、前記指定範囲において検出された前記物体領域と、前記物体領域に含まれる物体のクラスの正解ラベルとの組み合わせを教師データとしてニューラルネットワークの前記モデルを学習させる学習部と、学習された、ニューラルネットワークの前記モデルによる、物体のクラスの推定精度を算出する評価部と、推定精度が最大となるときの前記指定範囲を前記特定範囲として決定することで、前記特定範囲を画定する特定範囲画定部と、をさらに有する上記(1)~(3)のいずれかに記載の再同定装置。
【0013】
(5)撮影装置のレンズの歪特性により、前記撮影装置の撮影領域における物体の位置によって物体の形状が変化した撮影画像を取得する手順(a)と、取得された前記撮影画像において、物体を含む物体領域を検出する手順(b)と、前記撮影装置ごとの前記撮影画像における前記物体領域の移動軌跡を、前記撮影画像における前記物体領域の位置の時系列の変化に基づいて推定する手順(c)と、前記撮影領域が重複しない複数の前記撮影装置でそれぞれ撮影された前記撮影画像においてそれぞれ検出された前記物体領域に含まれる物体が同一かどうかを、物体のクラスの推定精度において最適化されるように画定された、前記撮影画像における特定範囲の範囲内の前記物体領域と、前記特定範囲が画定された際に学習されたニューラルネットワークのモデルとを用いて推定し、推定結果に基づいて同一と推定した物体がそれぞれ含まれる前記物体領域の前記移動軌跡を同一の物体の前記移動軌跡と推定する手順(d)と、をコンピューターに実行させるための再同定プログラム。
【0014】
(6)撮影装置のレンズの歪特性により、前記撮影装置の撮影領域における物体の位置によって物体の形状が変化した撮影画像を取得する段階(a)と、取得された前記撮影画像において、物体を含む物体領域を検出する段階(b)と、前記撮影装置ごとの前記撮影画像における前記物体領域の移動軌跡を、前記撮影画像における前記物体領域の位置の時系列の変化に基づいて推定する段階(c)と、前記撮影領域が重複しない複数の前記撮影装置でそれぞれ撮影された前記撮影画像においてそれぞれ検出された前記物体領域に含まれる物体が同一かどうかを、物体のクラスの推定精度において最適化されるように画定された、前記撮影画像における特定範囲の範囲内の前記物体領域と、前記特定範囲が画定された際に学習されたニューラルネットワークのモデルとを用いて推定し、推定結果に基づいて同一と推定した物体がそれぞれ含まれる前記物体領域の前記移動軌跡を同一の物体の前記移動軌跡と推定する段階(d)と、を有する再同定方法。
【発明の効果】
【0015】
撮影画像において検出した物体領域の移動軌跡を、当該物体領域の時系列の変化に基づいて推定する。視野重複のない複数の撮影装置でそれぞれ撮影された撮影画像においてそれぞれ検出された物体領域に含まれる物体が同一かどうかを、物体のクラスの推定精度において最適化されるように画定された、撮影画像における特定範囲の範囲内の物体領域と、特定範囲が画定された際に学習されたニューラルネットワークのモデルとを用いて推定する。そして、推定結果に基づいて同一と推定した物体がそれぞれ含まれる物体領域の移動軌跡を同一の物体の移動軌跡と推定する。これにより、物体の再同定の精度を向上できる。
【図面の簡単な説明】
【0016】
図1】再同定システムの概略構成を示す図である。
図2】再同定システムのブロック図を示す図である。
図3】カメラと顧客との位置関係を示す説明図である。
図4】撮影画像を示す図である。
図5】制御部の学習時における機能ブロック図を示す図である。
図6】指定範囲の例を示す図である。
図7】制御部の評価時における機能ブロック図を示す図である。
図8】制御部の再同定時(推論時)における機能ブロック図を示す図である。
図9】カメラごとに推定された移動軌跡を示す図である。
図10】再同定装置の学習時の動作を示すフローチャートである。
図11】再同定装置の評価時の動作を示すフローチャートである。
図12】再同定装置の再同定時の動作を示すフローチャートである。
図13】実施形態の変形例を説明するための説明図である。
【発明を実施するための形態】
【0017】
以下、図面を参照して、本発明の実施形態に係る再同定装置、再同定プログラム、および再同定方法について説明する。なお、図面において、同一の要素には同一の符号を付し、重複する説明を省略する。また、図面の寸法比率は、説明の都合上誇張されており、実際の比率とは異なる場合がある。
【0018】
図1は、再同定システム10の概略構成を示す図である。図2は、再同定システム10のブロック図を示す図である。
【0019】
再同定システム10は、再同定装置100、通信ネットワーク200、および複数のカメラ300を含む。再同定装置100および複数のカメラ300は、通信ネットワーク200を介して互いに通信可能に接続される。複数のカメラ300の数は制限されない。以下、説明を簡単にするために複数のカメラは、第1カメラ310および第2カメラ320の2つのカメラで構成されるものとして説明する。
【0020】
(カメラ300)
第1カメラ310および第2カメラ320(以下、これらを区別する場合を除き、「カメラ300」と称する)は、それぞれの撮影領域である、第1撮影領域311および第2撮影領域321をそれぞれ撮影することで撮影領域に存在する物体を撮影する。以下、例として、物体は店舗内の顧客500であるものとして説明する。カメラ300は、店舗等のできるだけ広い範囲を、顧客500を俯瞰可能な位置から撮影し、画像データである撮影画像330(図4参照)を出力する。第1カメラ310および第2カメラは、例えば、店舗の天井または壁の上部等に、互いの撮影領域が重複しないように配置される。以下、説明を簡単にするために、第1カメラ310および第2カメラは同一種類のカメラで、店舗の天井に配置されるものとして説明する。
【0021】
撮影画像510には動画が含まれる。カメラ300は広角カメラであり得る。広角カメラは、比較的広い画角の撮影画像510を撮影できるカメラであり、レンズの歪特性により、撮影領域における物体の位置によって物体の形状(大きさを含む)が変化した撮影画像330を撮影する。すなわち、広角カメラは、撮影画像330上の位置に対応して歪みの大きさが変化するカメラである。広角カメラには魚眼レンズカメラが含まれる。カメラ300は、広角カメラ以外の一般的なカメラであってもよい。以下、説明を簡単にするために、カメラ300は広角カメラであるものとして説明する。カメラ300は近赤外線カメラであるが、これに換えて可視光カメラを用いてもよく、これらを併用してもよい。
【0022】
図1に示すように、第1カメラ310および第2カメラ320はそれぞれ、第1撮影領域311および第2撮影領域321を撮影することで、第1撮影領域311および第2撮影領域321に存在する顧客500が、それぞれ第1カメラ310および第2カメラ320により撮影される。
【0023】
撮影領域が重複しない複数の撮影装置で撮影された画像間での物体照合により物体が同一性を判断して、同一性をもつ物体同士を対応づけることを再同定と言う。具体的には、図1に示すように、顧客500が矢印の向きに歩いていった場合、顧客510、顧客520、および顧客530は、同じ人(同じクラス)である。店舗内での顧客500ごとの行動を検出するためには、第1カメラ310の撮影画像331における顧客500と、第2カメラ320の撮影画像332における顧客500と、が同一であると判断する必要がある。第1カメラ310の撮影画像331における顧客500と、第2カメラ320の撮影画像332における顧客500と、が同一であると判断した場合に、両者を対応づけることを再同定(以下、単に「再同定」と称する)と称する。
【0024】
図3は、カメラ300と顧客500との位置関係を示す説明図である。図4は、撮影画像330を示す図である。図4においては、広角カメラによる撮影画像330が示されている。なお、図4には、後述する人矩形335が併せて示されている。
【0025】
図3において、カメラ300の直下であるAの位置にいる顧客500は、図4の撮影画像330の位置aおいて撮影されている。Aの位置にいる顧客500は、撮影画像330において、カメラ300に近いため、頭部と肩部が比較的大きく映り、腕や足は肩に隠れる。Bの位置にいる顧客500は、カメラ300から遠いため小さく映るが、全身が映る。このように、撮影画像330における顧客500の位置により、同じ姿勢(例えば、立位)であっても、撮影画像330における顧客500の形状は比較的大きく変化する。
【0026】
(再同定装置100)
再同定装置100は、制御部110、通信部120、および記憶部130を含む。これらの構成要素は、バスを介して互いに接続される。再同定装置100は、例えばコンピューター端末により構成される。制御部110は、学習部、評価部、および特定領域画定部を構成する。
【0027】
制御部110は、CPU(Central Processing Unit)、およびRAM(Random Access Memory)、ROM(Read Only Memory)等のメモリにより構成され、プログラムに従って再同定装置100の各部の制御および演算処理を行う。制御部110の機能の詳細については後述する。
【0028】
通信部120は、通信ネットワーク200を介して、複数のカメラ300等と通信するためのインターフェース回路(例えばLANカード等)である。
【0029】
記憶部130は、記憶部130は、HDD(Hard Disc Drive)、SSD(Solid State Drive)等により構成され、各種プログラムおよび各種データを記憶する。
【0030】
制御部110の機能について説明する。
【0031】
図5は、制御部110の学習時における機能ブロック図を示す図である。制御部110は、学習時において、取得部111、人検出部112、推定部113、ロス算出部114、および範囲指定部115として機能する。人検出部112は物体検出部を構成する。
【0032】
取得部111は、第1カメラ310により撮影された撮影画像331と、第2カメラ320により撮影された撮影画像332とを記憶部130から取得する。取得部111は、第1カメラ310により撮影された撮影画像331と、第2カメラ320により撮影された撮影画像332を、第1カメラ310および第2カメラ320からそれぞれ直接受信することで取得してもよい。
【0033】
人検出部112は、撮影画像330において物体(オブジェクト)が存在する領域を候補矩形として検出し、検出した候補矩形に含まれる物体のカテゴリーごとの信頼度スコアを算出する。人検出部112は、人物のカテゴリーの信頼度スコアが最も高い候補領域を人矩形335(図4参照)として検出する。人矩形335は、例えば、ニューラルネットワーク(以下、「NN」と称する)を用いた、Faster R-CNN、Fast R-CNN、およびR-CNNといった公知の方法で検出できる。
【0034】
人検出部112は、撮影画像330から人矩形335を検出するための辞書(パラメーター)が反映されたNNのモデルにより、撮影画像330から人矩形335を検出し得る。
【0035】
人検出部112は、人矩形335を、撮影画像330と、当該人矩形335の対向する2つの頂点の座標との組み合わせとして出力し得る。
【0036】
推定部113は、範囲指定部115により指定された、撮影画像330における範囲(以下、「指定範囲」と称する)において検出された人矩形335に含まれる顧客のクラスを推定するためのNNのモデルを含む。クラスとは、人(顧客)を識別する識別情報である。推定部113は、人矩形335と、当該人矩形335に含まれる顧客のクラスの正解として設定された正解クラスラベルと、を教師データとして、NNのモデルを学習することで、学習後のNNのモデル(以下、「学習済みモデル」と称する)を生成する。具体的には、推定部113は、指定範囲において検出された人矩形335に含まれる顧客500のクラスを、NNのモデルにより推定する。推定部113は、クラスごとの尤度を出力することにより、人矩形335に含まれる顧客のクラスを推定し得る。そして、推定部113は、NNのモデルによる人矩形335に含まれる顧客500のクラスの推定結果と、正解クラスラベルとに基づいてロス算出部114により算出されたクラスロスが小さくなるように、バックプロパゲーションによりNNのモデルを学習することで学習済みモデルを生成する。
【0037】
ロス算出部114は、推定部113により推定された、人矩形335に含まれる顧客500のクラスの推定結果と、正解クラスラベルとに基づいてクラスロスを算出する。具体的には、ロス算出部114は、正解クラスラベルのクラスの、推定部113により推定された尤度を1から減算することでクラスロスを算出し得る。
【0038】
範囲指定部115は、人検出部112により撮影画像330の全範囲から検出された人矩形335のうち、再同定に用いる人矩形335が検出された範囲を指定範囲として指定する。
【0039】
図6は、指定範囲の例を示す図である。
【0040】
図6の例においては、指定範囲A、指定範囲B、および指定範囲Cがそれぞれグレーで示されている。指定範囲は、撮影画像330における中心からの半径距離rを変数として、当該中心から半径距離rの範囲を除く範囲として、指定範囲A、指定範囲B、および指定範囲Cを指定し得る。
【0041】
範囲指定部115は、複数の指定範囲を順次指定する。これにより、推定部113は、指定範囲ごとに学習済みモデルを生成する。
【0042】
図7は、制御部110の評価時における機能ブロック図を示す図である。制御部110は、評価時において、取得部111、人検出部112、推定部113、範囲指定部115、評価部116、および特定範囲決定部117として機能する。
【0043】
取得部111および人検出部112の機能は、図5において説明した機能と同様であるので説明を省略する。
【0044】
範囲指定部115は指定範囲を順次指定する。
【0045】
推定部113は、指定範囲ごとに生成された学習済みモデルにより、指定範囲において検出された人矩形335に含まれる顧客のクラスを推定する。具体的には、推定部113は、クラスごとの尤度を出力することにより、人矩形335に含まれる顧客のクラスを推定し得る。
【0046】
評価部116は、推定部113による推定された人矩形335に含まれる顧客500のクラスの推定結果と、正解クラスラベルとに基づいて、指定範囲ごとに、クラスの推定精度を算出する。これにより、指定範囲ごとに、クラスの推定精度が評価される。クラスの推定精度は、正解クラスラベルのクラスの、推定部113により推定された尤度を1から減算した値の逆数とし得る。なお、指定範囲ごとのクラスの推定精度は、具体的には、指定範囲ごとに比較的多くの人矩形335を用いて人矩形335ごとに算出された、クラスの推定精度の平均とし得る。
【0047】
特定範囲決定部117は、クラスの推定精度が最も高くなるときの指定範囲を特定範囲として決定(画定)する。特定範囲は、当該特定範囲が決定された際に、当該特定範囲内の人矩形335に基づいて学習された学習済みモデル(以下、「特定モデル」とも称する)と対応付けされて、記憶部130に記憶される。
【0048】
なお、特定範囲は、上述した半径距離rを変数、評価部116によるクラスの推定精度を損失関数としたベイズ最適化による最適化計算により決定されてもよい。
【0049】
図8は、制御部110の再同定時(推論時)における機能ブロック図を示す図である。制御部110は、再同定時において、取得部111、人検出部112、推定部113、範囲指定部115、軌跡推定部118、および再同定部119として機能する。
【0050】
取得部111および人検出部112の機能は、図5において説明した機能と同様であるので説明を省略する。
【0051】
範囲指定部115は特定範囲を指定する。
【0052】
推定部113は、特定モデルにより、特定範囲において検出された人矩形335(以下、「特定人矩形」とも称する)に含まれる顧客のクラスを推定する。具体的には、推定部113は、クラスごとの尤度を出力することにより、特定人矩形に含まれる顧客のクラスを推定し得る。
【0053】
軌跡推定部118は、カメラ300ごとの撮影画像330における人矩形335の移動軌跡(以下、単に「移動軌跡」とも称する)を推定する。移動軌跡は、人検出部112により撮影画像330の全範囲から検出された人矩形335の位置の時系列の変化と、時系列の複数の撮影画像330においてそれぞれ検出された人矩形335に含まれる顧客の類似度と、に基づいて、カメラ300ごとに推定される。移動軌跡は、人検出部112により撮影画像330の全範囲から検出された人矩形335の位置の時系列の変化のみに基づいて、カメラ300ごとに推定されてもよい。移動軌跡は、トラッキングのジャンルであるMTSCT(Multi Target Single Camera Tracking)に含まれる公知のトラッキングアルゴリズムであるDeepSORTにより推定され得る。移動軌跡は、DeepSORT以外の公知のトラッキングアルゴリズムにより推定されてもよい。MTSCTは、単一のカメラの撮影画像の時系列のフレームで検出された物体が、次の時系列フレームでどこにいるか推定することを繰り返す処理を行う。MTSCTは、追跡対象である物体が時系列フレームTから、時系列フレームT+1でどこに移動したか推定するにあたり、(1)特徴ベクトルによる候補となる物体間の類似度比較に加え、(2)カルマンフィルタ等を用いた物体の移動位置推定を行う。
【0054】
図9は、カメラ300ごとに推定された移動軌跡を示す図である。図9の例においては、第1カメラ310による第1撮影画像331において推定された移動軌跡が、軌跡(1)~(3)として示されている。また、第2カメラ320による第2撮影画像332において推定された移動軌跡が、軌跡(a)~(c)として示されている。特定範囲は、図9において、グレーで示されている。以下説明するように、軌跡(1)~(3)はそれぞれ、軌跡(a)~(c)のいずれかと対応付けされることで再同定がなされる。
【0055】
再同定部119は、第1撮影画像331および第2撮影画像332においてそれぞれ特定範囲内で検出された特定人矩形にそれぞれ含まれる顧客500が同一かどうかを、それぞれ推定部113(特定モデル)により推定された顧客のクラスが同一かどうかで推定する。再同定部119は、同一と推定した顧客がそれぞれ含まれる人矩形335の移動軌跡を、同一の顧客の移動軌跡と推定することで対応付ける。これにより、再同定が実行される。図9の例においては、軌跡(1)と軌跡(a)、軌跡(2)と軌跡(c)、軌跡(3)と軌跡(b)、がそれぞれ同一の顧客の移動軌跡である。そのため、再同定においては、軌跡(1)と軌跡(a)、軌跡(2)と軌跡(c)、軌跡(3)と軌跡(b)、がそれぞれ同一の顧客の移動軌跡として対応付けられる。
【0056】
再同定装置100の動作について説明する。
【0057】
図10は、再同定装置100の学習時の動作を示すフローチャートである。本フローチャートは、プログラムに従い、制御部110により実行される。なお、説明を簡単にするために、指定範囲は、指定範囲A、指定範囲B、および指定範囲Cの3つであるものとして説明する。
【0058】
制御部110は、複数のカメラ300の撮影画像330を取得する(S101)。具体的には、制御部110は、第1撮影画像331および第2撮影画像332を取得する。
【0059】
制御部110は、第1撮影画像331および第2撮影画像332において、それぞれ人矩形335を検出する(S102)。
【0060】
制御部110は、指定範囲を判断する(S103)。具体的には、制御部110は、指定範囲が指定範囲A、指定範囲B、および指定範囲Cのいずれであるか判断する。
【0061】
制御部110は、対象範囲が指定範囲Aであると判断した場合は、指定範囲A内の人矩形335と当該人矩形335に設定された正解クラスラベルに基づく学習により学習済みモデルAを生成する(S104)。制御部110は、対象範囲が指定範囲Bであると判断した場合は、指定範囲B内の人矩形335と当該人矩形335に設定された正解クラスラベルに基づく学習により学習済みモデルBを生成する(S105)。制御部110は、対象範囲が指定範囲Cであると判断した場合は、指定範囲C内の人矩形335と当該人矩形335に設定された正解クラスラベルに基づく学習により学習済みモデルCを生成する(S105)。
【0062】
図11は、再同定装置100の評価時の動作を示すフローチャートである。本フローチャートは、プログラムに従い、制御部110により実行される。
【0063】
制御部110は、カメラ300の撮影画像330を取得する(S201)。ステップS201で取得される撮影画像は、第1撮影画像331および第2撮影画像332であってもよいが、これら以外の撮影画像330であってもよい。以下、説明を簡単にするために、ステップS201で取得される撮影画像は、第1撮影画像331および第2撮影画像332であるものとして説明する。
【0064】
制御部110は、第1撮影画像331および第2撮影画像332において、それぞれ人矩形335を検出する(S202)。
【0065】
制御部110は、指定範囲を判断する(S203)。具体的には、制御部110は、指定範囲が指定範囲A、指定範囲B、および指定範囲Cのいずれであるか判断する。
【0066】
制御部110は、対象範囲が指定範囲Aであると判断した場合は、指定範囲A内の人矩形335に対し、学習済みモデルAを用いてクラスの推定精度を算出する(S204)。制御部110は、対象範囲が指定範囲Bであると判断した場合は、指定範囲B内の人矩形335に対し、学習済みモデルBを用いてクラスの推定精度を算出する(S205)。制御部110は、対象範囲が指定範囲Cであると判断した場合は、指定範囲C内の人矩形335に対し、学習済みモデルCを用いてクラスの推定精度を算出する(S206)。
【0067】
制御部110は、クラスの推定精度が最大となった指定範囲を特定範囲として決定し、特定モデルと対応付けて記憶部130に記憶させる(S207)。
【0068】
図12は、再同定装置100の再同定時の動作を示すフローチャートである。本フローチャートは、プログラムに従い、制御部110により実行される。
【0069】
制御部110は、複数のカメラ300の撮影画像330を取得する(S301)。具体的には、制御部110は、第1撮影画像331および第2撮影画像332を取得する。
【0070】
制御部110は、第1撮影画像331および第2撮影画像332において、それぞれ人矩形335を検出する(S302)。
【0071】
制御部110は、人矩形335の移動軌跡を推定する(S303)。さらに、制御部110は、第1撮影画像331および第2撮影画像332からそれぞれ検出された特定人矩形に含まれる顧客が同一かどうかを推定する(S304)。ステップS303とステップS304は並行して実行され得る。ステップS303とステップS304は時間的に前後して実行されてもよい。
【0072】
制御部110は、ステップS304において同一と推定された顧客を含む人矩形335の移動軌跡同士を関連付けることで再同定を実行する(S305)。
【0073】
(変形例)
図13は、実施形態の変形例を説明するための説明図である。変形例においては、1つの撮影画像330に対し、複数の特定範囲を画定する。図12の例においては、第1特定範囲と第2特定範囲が画定されている。第1特定範囲および第2特定範囲に対し、それぞれ別の特定モデルが学習により生成され、対応付けられる。これにより、第1特定範囲と第2特定範囲において、撮影画像330における顧客の形状の変化の態様が比較的大きく異なる場合であっても、再同定の精度を向上できる。
【0074】
実施形態は、以下の効果を奏する。
【0075】
撮影画像において検出した物体領域の移動軌跡を、当該物体領域の時系列の変化に基づいて推定する。視野重複のない複数の撮影装置でそれぞれ撮影された撮影画像においてそれぞれ検出された物体領域に含まれる物体が同一かどうかを、物体のクラスの推定精度において最適化されるように画定された、撮影画像における特定範囲の範囲内の物体領域と、特定範囲が画定された際に学習されたNNのモデルとを用いて推定する。そして、推定結果に基づいて同一と推定した物体がそれぞれ含まれる物体領域の移動軌跡を同一の物体の移動軌跡と推定する。これにより、物体の再同定の精度を向上できる。
【0076】
さらに、1つの撮影装置に対し特定範囲を複数画定し、撮影領域が重複しない複数の撮影装置でそれぞれ撮影された撮影画像においてそれぞれ検出された物体領域に含まれる物体間の類似度を、特定範囲の範囲内の物体領域に基づいて、特定範囲が画定された際にそれぞれ学習されたNNのモデルを用いて推定し、推定結果に基づいて同一と推定した物体がそれぞれ含まれる物体領域の移動軌跡を同一の物体の移動軌跡と推定する。これにより、物体の再同定の精度をさらに向上できる。
【0077】
さらに、撮影装置ごとの撮影画像における物体領域の移動軌跡を、時系列の複数の撮影画像においてそれぞれ検出された物体領域に含まれる物体の類似度と、撮影画像における物体領域の位置の時系列の変化に基づいて推定する。これにより、移動軌跡の推定精度を向上できる。
【0078】
さらに、撮影画像において設定された対象領域ごとに、対象領域において検出された物体領域と、物体領域に含まれる物体のクラスの正解ラベルとの組み合わせを教師データとしてニューラルネットワークの前記モデルを学習させる学習部と、学習された、ニューラルネットワークの前記モデルによる、物体のクラスの推定精度を算出する評価部と、推定精度が最大となるときの前記対象領域を前記特定範囲として決定することで、前記特定範囲を画定する特定範囲画定部と、を設ける。これにより、より簡単かつ効率的に物体の再同定の精度を向上できる。
【0079】
以上に説明した再同定装置、再同定プログラム、および再同定方法は、上述の実施形態の特徴を説明するにあたって主要構成を説明したのであって、上述の構成に限られず、特許請求の範囲内において、種々改変することができる。また、一般的な再同定システムが備える構成を排除するものではない。
【0080】
例えば、上述したフローチャートは、一部のステップを省略してもよく、他のステップが追加されてもよい。また各ステップの一部は同時に実行されてもよく、一つのステップが複数のステップに分割されて実行されてもよい。
【0081】
また、上述した実施形態においては、顧客に対する再同定を行うものとして説明したが、顧客以外の人や動物等の再同定にも適用できる。
【0082】
また、上述した実施形態においては、クラスの推定精度が最も高くなる特定範囲が撮影画像の中心を含まない範囲になっている。しかし、クラスの推定精度が評価された結果、撮影画像の中心を含む範囲が特定範囲となり得る。
【0083】
また、上述した画像処理システムにおける各種処理を行う手段および方法は、専用のハードウェア回路、またはプログラムされたコンピューターのいずれによっても実現することが可能である。上記プログラムは、例えば、USBメモリやDVD(Digital Versatile Disc)-ROM等のコンピューター読み取り可能な記録媒体によって提供されてもよいし、インターネット等のネットワークを介してオンラインで提供されてもよい。この場合、コンピューター読み取り可能な記録媒体に記録されたプログラムは、通常、ハードディスク等の記憶部に転送され記憶される。また、上記プログラムは、単独のアプリケーションソフトとして提供されてもよいし、一機能としてその検出部等の装置のソフトウエアに組み込まれてもよい。
【0084】
本出願は、2020年2月3日に出願された日本特許出願(特願2020-16444号)に基づいており、その開示内容は、参照され、全体として、組み入れられている。
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13