特許第6973175号(P6973175)IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 富士通株式会社の特許一覧

特許6973175画像選択プログラム、情報処理装置、システム、および画像選択方法
<>
  • 特許6973175-画像選択プログラム、情報処理装置、システム、および画像選択方法 図000002
  • 特許6973175-画像選択プログラム、情報処理装置、システム、および画像選択方法 図000003
  • 特許6973175-画像選択プログラム、情報処理装置、システム、および画像選択方法 図000004
  • 特許6973175-画像選択プログラム、情報処理装置、システム、および画像選択方法 図000005
  • 特許6973175-画像選択プログラム、情報処理装置、システム、および画像選択方法 図000006
  • 特許6973175-画像選択プログラム、情報処理装置、システム、および画像選択方法 図000007
  • 特許6973175-画像選択プログラム、情報処理装置、システム、および画像選択方法 図000008
  • 特許6973175-画像選択プログラム、情報処理装置、システム、および画像選択方法 図000009
  • 特許6973175-画像選択プログラム、情報処理装置、システム、および画像選択方法 図000010
  • 特許6973175-画像選択プログラム、情報処理装置、システム、および画像選択方法 図000011
  • 特許6973175-画像選択プログラム、情報処理装置、システム、および画像選択方法 図000012
  • 特許6973175-画像選択プログラム、情報処理装置、システム、および画像選択方法 図000013
  • 特許6973175-画像選択プログラム、情報処理装置、システム、および画像選択方法 図000014
  • 特許6973175-画像選択プログラム、情報処理装置、システム、および画像選択方法 図000015
  • 特許6973175-画像選択プログラム、情報処理装置、システム、および画像選択方法 図000016
  • 特許6973175-画像選択プログラム、情報処理装置、システム、および画像選択方法 図000017
  • 特許6973175-画像選択プログラム、情報処理装置、システム、および画像選択方法 図000018
  • 特許6973175-画像選択プログラム、情報処理装置、システム、および画像選択方法 図000019
  • 特許6973175-画像選択プログラム、情報処理装置、システム、および画像選択方法 図000020
  • 特許6973175-画像選択プログラム、情報処理装置、システム、および画像選択方法 図000021
  • 特許6973175-画像選択プログラム、情報処理装置、システム、および画像選択方法 図000022
  • 特許6973175-画像選択プログラム、情報処理装置、システム、および画像選択方法 図000023
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】6973175
(24)【登録日】2021年11月8日
(45)【発行日】2021年11月24日
(54)【発明の名称】画像選択プログラム、情報処理装置、システム、および画像選択方法
(51)【国際特許分類】
   G06T 7/00 20170101AFI20211111BHJP
   H04N 7/18 20060101ALI20211111BHJP
   H04N 5/232 20060101ALI20211111BHJP
【FI】
   G06T7/00 660B
   H04N7/18 D
   H04N7/18 K
   H04N5/232 290
【請求項の数】7
【全頁数】29
(21)【出願番号】特願2018-33438(P2018-33438)
(22)【出願日】2018年2月27日
(65)【公開番号】特開2019-149006(P2019-149006A)
(43)【公開日】2019年9月5日
【審査請求日】2020年11月10日
(73)【特許権者】
【識別番号】000005223
【氏名又は名称】富士通株式会社
(74)【代理人】
【識別番号】100121083
【弁理士】
【氏名又は名称】青木 宏義
(74)【代理人】
【識別番号】100138391
【弁理士】
【氏名又は名称】天田 昌行
(74)【代理人】
【識別番号】100074099
【弁理士】
【氏名又は名称】大菅 義之
(72)【発明者】
【氏名】鄭 明燮
(72)【発明者】
【氏名】馬場 孝之
(72)【発明者】
【氏名】田中 竜太
【審査官】 豊田 好一
(56)【参考文献】
【文献】 特開2017−204095(JP,A)
【文献】 特開2016−165157(JP,A)
【文献】 特開2007−142527(JP,A)
【文献】 特開2017−097577(JP,A)
【文献】 特開2017−073071(JP,A)
【文献】 特開2017−059945(JP,A)
【文献】 特開2016−157166(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
G06T 7/00
H04N 7/18
H04N 5/232
(57)【特許請求の範囲】
【請求項1】
第1の設置角度で設置された第1のカメラで撮影された第1の人物が映っている複数の第1の撮影画像を受信し、
前記第1の設置角度より大きい第2の設置角度で設置された第2のカメラで撮影された第2の人物が映っている複数の第2の撮影画像を受信し、
前記第1の人物の全身が映っている複数の第1の全身領域撮影画像を前記複数の第1の撮影画像から抽出し、
前記第2の人物の全身が映っている複数の第2の全身領域撮影画像を前記複数の第2の撮影画像から抽出し、
前記複数の第2の全身領域撮影画像それぞれの前記第2の人物が映っている領域の形状と、前記複数第1の全身領域撮影画像のうちの第1画像の前記第1の人物が映っている領域の形状とに基づいて、前記第1の全身領域撮影画像との画像照合の対象とする第1の照合対象画像を前記複数の第2の全身領域撮影画像から選択する、
処理をコンピュータに実行させる画像選択プログラム。
【請求項2】
前記コンピュータが
前記第1の設置角度に基づく第1の閾値と前記複数第1の全身領域撮影画像それぞれの前記第1の人物が映っている領域の面積に基づいて、画像照合の対象とする第2の照合対象画像を前記第1の全身領域撮影画像から選択し、
前記第2の設置角度に基づく第2の閾値と前記第1の照合対象画像それぞれの前記第2の人物が映っている領域の面積に基づいて、前記第2の照合対象画像との画像照合の対象とする第3の照合対象画像を前記第1の照合対象画像から選択する、ことを特徴とする請求項1記載の画像選択プログラム。
【請求項3】
前記第1の設置角度に基づいて、所定の人物モデルの位置を変更しながら前記人物モデルを画像上に投影した複数の第1の投影画像を生成し、
前記第2の設置角度に基づいて、前記人物モデルの位置を変更しながら前記人物モデルを画像上に投影した複数の第2の投影画像を生成する処理をさらに備え、
前記複数の第1の全身領域撮影画像を抽出する処理において、前記複数の第1の投影画像を用いて、前記複数の第1の撮影画像に前記第1の人物の全身が映っているか判定し、
前記複数の第2の全身領域撮影画像を抽出する処理において、前記複数の第2の投影画像を用いて、前記複数の第2の撮影画像に前記第2の人物の全身が映っているか判定することを特徴とする請求項1または2記載の画像選択プログラム。
【請求項4】
前記第1画像は、前記複数第1の全身領域撮影画像それぞれの前記第1の人物が映っている領域のうちで最も大きな前記第1の人物が映っている領域を含むことを特徴とする請求項1乃至3のいずれか1項に記載の画像選択プログラム。
【請求項5】
第1の設置角度で設置された第1のカメラで撮影された第1の人物が映っている複数の第1の撮影画像を受信し、前記第1の設置角度より大きい第2の設置角度で設置された第2のカメラで撮影された第2の人物が映っている複数の第2の撮影画像を受信する受信部と、
前記第1の人物の全身が映っている複数の第1の全身領域撮影画像を前記複数の第1の撮影画像から抽出し、前記第2の人物の全身が映っている複数の第2の全身領域撮影画像を前記複数の第2の撮影画像から抽出する第1の処理部と、
前記複数の第2の全身領域撮影画像それぞれの前記第2の人物が映っている領域の形状と、前記複数第1の全身領域撮影画像のうちの第1画像の前記第1の人物が映っている領域の形状とに基づいて、前記第1の全身領域撮影画像との画像照合の対象とする第1の照合対象画像を前記複数の第2の全身領域撮影画像から選択する第2の処理部と、
を備える情報処理装置。
【請求項6】
第1の設置角度で設置された第1のカメラで撮影された第1の人物が映っている複数の第1の撮影画像を受信し、前記第1の設置角度より大きい第2の設置角度で設置された第2のカメラで撮影された第2の人物が映っている複数の第2の撮影画像を受信する受信部と、
前記第1の人物の全身が映っている複数の第1の全身領域撮影画像を前記複数の第1の撮影画像から抽出し、前記第2の人物の全身が映っている複数の第2の全身領域撮影画像を前記複数の第2の撮影画像から抽出する第1の処理部と、
前記複数の第2の全身領域撮影画像それぞれの前記第2の人物が映っている領域の形状と、前記複数第1の全身領域撮影画像のうちの第1画像の前記第1の人物が映っている領域の形状とに基づいて、前記第1の全身領域撮影画像との画像照合の対象とする第1の照合対象画像を前記複数の第2の全身領域撮影画像から選択する第2の処理部と、
を備える画像選択装置と、
前記第1の全身領域撮影画像と前記第1の照合対象画像とを照合して、前記第1の人物と前記第2の人物が同一人物であるか判定する照合装置と、
を備えるシステム。
【請求項7】
コンピュータが
第1の設置角度で設置された第1のカメラで撮影された第1の人物が映っている複数の第1の撮影画像を受信し、
前記第1の設置角度より大きい第2の設置角度で設置された第2のカメラで撮影された第2の人物が映っている複数の第2の撮影画像を受信し、
前記第1の人物の全身が映っている複数の第1の全身領域撮影画像を前記複数の第1の撮影画像から抽出し、
前記第2の人物の全身が映っている複数の第2の全身領域撮影画像を前記複数の第2の撮影画像から抽出し、
前記複数の第2の全身領域撮影画像それぞれの前記第2の人物が映っている領域の形状と、前記複数第1の全身領域撮影画像のうちの第1画像の前記第1の人物が映っている領域の形状とに基づいて、前記第1の全身領域撮影画像との画像照合の対象とする第1の照合対象画像を前記複数の第2の全身領域撮影画像から選択する、
ことを特徴とする画像選択方法。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、画像選択プログラム、情報処理装置、システム、および画像選択方法に関する。
【背景技術】
【0002】
人物の移動情報は、混雑の解消や、商業施設における店舗や人員の最適化よるサービスの向上などに活用されている。監視カメラの映像から人物を検出し、複数のカメラにまたがって移動する人物を対応付けることで、自動的に広範囲の人物の移動を把握できる。
【0003】
監視カメラ映像の有効活用で、映像中から人物を検出し、服装などの特徴を記録しておくことで、迷子など特定の人物の移動軌跡を検索することができるようになる。
【0004】
また、服装などの特徴を用いて、複数の離れたカメラそれぞれで撮影された人物が同一であるか判定し、同一人物である場合に各カメラで撮影された人物を対応付けることにより人の移動を把握できる。人物の移動情報は、防犯やマーケティングなどに活用されている。
【0005】
時系列に撮像された複数の撮影画像において、同一人物の誤検出を抑える技術が知られている(例えば、特許文献1参照)。また、特許文献2〜5記載の技術が知られている。
【先行技術文献】
【特許文献】
【0006】
【特許文献1】特開2015−219712号公報
【特許文献2】特開2016−181159号公報
【特許文献3】特開2008−65368号公報
【特許文献4】特開2006−101384号公報
【特許文献5】特開2004−72628号公報
【発明の概要】
【発明が解決しようとする課題】
【0007】
通常、人物を撮影するカメラは、天井等の高い位置に設置され、撮影方向は斜め下方向となっている。コンピュータが同一人物の対応付けを行う場合、複数のカメラで撮影された複数の画像それぞれから人物の特徴量を抽出し、特徴量を照合して、各カメラで撮影された人物が同一人物であるか判定して対応付けを行う。
【0008】
しかしながら、撮影画像において人物の一部が欠けていたり、カメラ間で人物の映り方に大きな差がある場合、人物の一致判定の精度が低下する。
【0009】
1つの側面において、本発明は、異なるカメラで撮影した複数の画像を用いて人物の一致判定を行う場合、判定精度を向上させることを目的とする。
【課題を解決するための手段】
【0010】
実施の形態の画像選択プログラムは、コンピュータに、第1の設置角度で設置された第1のカメラで撮影された第1の人物が映っている複数の第1の撮影画像を受信し、前記第1の設置角度より大きい第2の設置角度で設置された第2のカメラで撮影された第2の人物が映っている複数の第2の撮影画像を受信させる。
【0011】
前記画像選択プログラムは、前記コンピュータに、前記第1の人物の全身が映っている複数の第1の全身領域撮影画像を前記複数の第1の撮影画像から抽出し、前記第2の人物の全身が映っている複数の第2の全身領域撮影画像を前記複数の第2の撮影画像から抽出させる。
【0012】
前記画像選択プログラムは、前記コンピュータに、前記複数の第2の全身領域撮影画像それぞれの前記第2の人物が映っている領域の形状と、前記複数第1の全身領域撮影画像のうちの第1画像の前記第1の人物が映っている領域の形状とに基づいて、前記第1の全身領域撮影画像との画像照合の対象とする第1の照合対象画像を前記複数の第2の全身領域撮影画像から選択させる。
【発明の効果】
【0013】
実施の形態によれば、異なるカメラ装置で撮影した複数の画像を用いて人物の一致判定を行う場合、判定精度を向上させることができる。
【図面の簡単な説明】
【0014】
図1】比較例における同一人物の判定方法の例を示す図である。
図2】比較例における問題を説明する図(その1)である。
図3】比較例における問題を説明する図(その2)である。
図4】実施の形態に係るシステムの構成図である。
図5】実施の形態に係る人物対応付け処理のフローチャートである。
図6】人物モデルを示す図である。
図7】投影画像の例を示す図である。
図8】投影画像の全身領域の範囲算出処理の詳細なフローチャートである。
図9】全身領域投影画像の例を示す。
図10】最大面積の全身領域と中心座標を示す。
図11】最小面積の全身領域と中心座標を示す。
図12】撮影画像の全身領域の範囲算出処理の詳細なフローチャートである。
図13】撮影画像の全身領域の範囲算出処理を説明する図である。
図14】変形画像判定処理(その1)の詳細なフローチャートである。
図15】変形画像判定処理(その1)を説明する図である。
図16】変形画像判定処理(その2)の詳細なフローチャートである。
図17】変形画像判定処理(その2)を説明する図である。
図18】混合色判定処理の詳細なフローチャートである。
図19】混合色判定処理を説明する図である。
図20】人物データと特徴量データの例である。
図21】他の実施の形態に係るシステムの構成図である。
図22】情報処理装置(コンピュータ)の構成図である。
【発明を実施するための形態】
【0015】
以下、実施の形態について図面を参照しながら説明する。
初めに、比較例として特許文献1記載の技術を用いた同一人物の判定方法、および当該判定方法における問題について説明する。
【0016】
図1は、比較例における同一人物の判定方法の例を示す図である。
以下、特に断らない限り、カメラの機能(例えば、画角や解像度)は、同一であるとする。
【0017】
図1では、カメラi(i=1,2)は地面から適当な高さに設置され、カメラiの撮影方向は斜め下となっている。図1において、カメラiの設置角度は45度である。カメラiの設置角度(チルト角)は、カメラiの高さの水平面とカメラiのレンズの光軸とが成す角度、すなわち俯角を指す。また、カメラ1とカメラ2の設置されている高さは同一である。カメラiはそれぞれ自己の撮影範囲を撮影する。
【0018】
ここでは、判定装置が、カメラ1で撮影した人物Mとカメラ2で撮影した人物Mとが同一人物であるかの判定を行う場合を説明する。
【0019】
(1)人物Mは、位置Bから位置Aに移動しており、カメラ1は、人物Mが位置Bと位置Aにそれぞれいる時に撮影した撮影画像IB1、IA1を生成する。人物Mは、位置Bから位置Aに移動しており、カメラ2は、人物Mが位置Bと位置Aにそれぞれいる時に撮影した撮影画像IB2、IA2を生成する。
(2)判定装置は、撮影画像IB1、IA1にそれぞれ含まれる矩形の人物領域RB1、RA1を検出する。判定装置は、撮影画像IB2、IA2にそれぞれ含まれる矩形の人物領域RB2、RA2を検出する。
(3)判定装置は、人物領域RB1、RA1、RB2、RA2を同じ高さになるように正規化し、正規化した人物領域R’B1、R’A1、R’B2、R’A2を生成する。
(4)判定装置は、正規化した人物領域R’B1、R’A1、R’B2、R’A2を複数の領域に分割し、領域毎の色特徴量を抽出する。判定装置は、正規化した人物領域R’B1の領域毎の色特徴量とR’A1の領域毎の色特徴量とを領域ごとに統合(例えば、平均化)し、カメラ1で撮影した人物Mの特徴量fを算出する。特徴量fは、人物Mの領域毎の色特徴量を示す。また、判定装置は、正規化した人物領域R’B2の領域毎の色特徴量とR’A2の領域毎の色特徴量とを領域毎に統合し、カメラ2で撮影した人物Mの特徴量fを算出する。特徴量fは、人物Mの領域毎の色特徴量を示す。判定装置は、特徴量fと特徴量fとを照合し、人物Mと人物Mとが同一人物であるか判定する。同一人物であると判定された場合、判定装置は人物Mと人物Mとを対応付ける。
【0020】
図2は、比較例における問題を説明する図(その1)である。
図1の撮影状況では、カメラ1,2の設置角度は同じ45度であったが、図2では、カメラ1の設置角度とカメラ2の設置角度が異なる。対応付ける人物を撮影するカメラ1,2の設置角度が互いに異なると、撮影範囲が変化するため、色特徴量の統合に用いられる人物領域を含む撮影画像を適切に選択することが困難となる。
【0021】
図2では、カメラ1の設置角度は45度であり、カメラ2の設置角度は25度である。また、カメラ1とカメラ2の設置されている高さは同一である。
【0022】
(1)人物Mは、位置Dから順に位置C、位置B、位置Aに移動しており、カメラ1は、人物Mが位置D〜Aにそれぞれいる時に撮影した撮影画像ID1、IC1、IB1、IA1を生成する。位置Dの人物Mの上半身は撮影範囲に含まれておらず、撮影画像ID1では、人物Mの下半身のみが映っている。人物Mは、位置Dから順に位置C、位置B、位置Aに移動しており、カメラ2は、人物Mが位置D〜Aにそれぞれいる時に撮影した撮影画像ID2、IC2、IB2、IA2を生成する。位置Aの人物Mの下半身は撮影範囲に殆ど含まれておらず、撮影画像IA2では、人物Mの上半身と、下半身の一部と、が映っている。
(2)判定装置は、撮影画像ID1〜IA1、ID2〜IA2にそれぞれ含まれる矩形の人物領域を検出する。判定装置は、検出した人物領域が同じ高さになるように正規化し、正規化した人物領域R’C1、R’B1、R’A1、R’D2、R’C2、R’B2、R’A2を生成する。例えば、判定装置は、撮影画像に映っている人物の頭部を検出することにより、人物領域を検出する。よって、撮影画像ID1には人物Mの下半身のみが映っており、人物Mの頭部は映っていないため、撮影画像ID1において人物領域は検出されない。
(3)判定装置は、正規化した人物領域R’C1、R’B1、R’A1、R’D2、R’C2、R’B2、R’A2を複数の領域に分割し、領域毎の色特徴量を抽出する。判定装置は、正規化した人物領域R’C1、R’B1、R’A1それぞれの領域毎の色特徴量を領域ごとに統合(例えば、平均化)し、カメラ1で撮影した人物Mの特徴量fを算出する。正規化した人物領域R’C1、R’B1、R’A1には、人物Mの全身が映っている。よって、正規化した人物領域R’C1、R’B1、R’A1の上側からは人物Mの上半身の色特徴量、下側からは人物Mの下半身の色特徴量が抽出される。特徴量fは人物Mの領域毎の色特徴量を示し、上側の領域は人物Mの上半身の色特徴量、下側の領域は人物Mの下半身の色特徴量を示す。
【0023】
判定装置は、正規化した人物領域R’D2〜R’A2それぞれの領域毎の色特徴量を領域ごとに統合し、カメラ2で撮影した人物Mの特徴量fを算出する。
【0024】
上述のように位置Aの人物Mの下半身は撮影範囲に殆ど含まれていないため、正規化した人物領域R’A2は、殆どが人物Mの上半身となっている。よって、正規化した人物領域R’A2の下側の領域は、殆どが人物Mの上半身となっている。そのため、正規化した人物領域R’A2の上側からは人物Mの上半身の色特徴量、下側からも人物Mの上半身の色特徴量が抽出される。
【0025】
特徴量fは、人物Mの領域毎の色特徴量を示す。特徴量fの上側の領域は人物Mの上半身の色特徴量を示し、特徴量fの下側の領域は人物Mの下半身の色特徴量を示すことが望ましい。
【0026】
しかしながら、正規化した人物領域R’D2〜R’A2それぞれの領域毎の色特徴量を領域ごとに統合すると、特徴量fの下側の領域の色特徴量には、正規化した人物領域R’A2により、人物Mの上半身の色特徴量が含まれてしまう。そのため、特徴量fと特徴量fとを照合して同一人物であるかを判定すると、判定精度が低下してしまうという問題がある。
【0027】
図3は、比較例における問題を説明する図(その2)である。
比較例では、さらに、(1)人物がカメラに近いほど透視投影で撮影画像の人物の変形が大きくなる、(2)小さく映る人物の低解像度画像は大きく映る高解像度画像に比べて混合色が増えるという課題がある。
【0028】
図3の撮影状況は、図2と同様である。図2と同様に人物M1の撮影画像ID1、IC1、IB1、IA1、および人物M2の撮影画像ID2、IC2、IB2、IA2が生成される。
【0029】
判定装置は、撮影画像ID1〜IA1、ID2〜IA2にそれぞれ含まれる矩形の人物領域を検出する。判定装置は、検出した人物領域が同じ高さになるように正規化し、正規化した人物領域R’C1、R’B1、R’A1、R’D2、R’C2、R’B2、R’A2を生成する。
【0030】
判定装置は、正規化した人物領域R’C1、R’B1、R’A1、R’D2、R’C2、R’B2、R’A2を複数の領域に分割し、領域毎の色特徴量を抽出する。
【0031】

判定装置は、正規化した人物領域R’C1、R’B1、R’A1それぞれの領域毎の色特徴量を領域ごとに統合(例えば、平均化)し、カメラ1で撮影した人物Mの特徴量fを算出する。
【0032】
カメラ1の設置角度はカメラ2の設置角度に比べて大きく、位置A1の人物M1は全身が撮影画像IA1に映っている。また、位置A1の人物M1は、カメラ1に近い位置おり、特に位置A1の人物M1の上半身は、カメラ1との距離が小さい。そのため透視投影により、撮影画像IA1において、人物M1の上半身は変形して大きく映っている。正規化した人物領域R’A1の人物M1の上半身は、正規化した人物領域R’C1、R’B1の人物M1の上半身に比べて変形して大きくなっている。すなわち、カメラ1と近い位置の位置A1の人物M1の上半身は、撮影画像IA1や正規化した人物領域R’A1において変形が大きくなる。
【0033】
そのため、ある位置の領域の色特徴量として、正規化した人物領域R’A1からは人物M1の上半身の色特徴量が得られるが、同じ位置の領域の色特徴量として正規化した人物領域R’C1、R’B1からは人物M1の上半身以外の色特徴量が得られる場合がある。
【0034】
よって、人物Mの特徴量fにおいて、ある位置の領域の色特徴量は、人物M1の上半身の色特徴量と上半身以外の色特徴量が混じってしまう。このような特徴量fを用いて、人物の同定の判定精度が低下してしまうという問題がある。
【0035】
判定装置は、正規化した人物領域R’D2〜R’A2それぞれの領域毎の色特徴量を領域ごとに統合し、カメラ2で撮影した人物Mの特徴量fを算出する。
【0036】
低解像度の画像では、色の境界部分に量子化誤差によって混合色が発生しやすくなる。カメラ2から遠い位置Dに人物Mがいるときの撮影画像ID2では、人物領域は小さい、すなわち人物領域の解像度(画素数)が小さい。よって、正規化した人物領域R’では、混合色が含まれている。
【0037】
例えば、正規化した人物領域R’を複数の領域に分割したときに、正規化した人物領域R’の下側の領域は人物Mの下半身の色特徴量を示すことが望ましい。しかしながら、正規化した人物領域R’では混合色が発生し、正規化した人物領域R’の下側の領域の色は、下半身の色に上半身の色や背景の色が混じった色になっている。
【0038】
判定装置は、正規化した人物領域R’D2〜R’A2それぞれの領域毎の色特徴量を領域ごとに統合し、カメラ2で撮影した人物Mの特徴量fを算出する。混合色が発生した正規化した人物領域R’を用いて人物Mの特徴量fを算出すると、人物Mの特徴量fに、混合色の色特徴量が含まれてしまい、人物の同定の判定精度が低下してしまうという問題がある。
【0039】
図4は、実施の形態に係るシステムの構成図である。
システム101は、カメラ201−i(i=1,2)および情報処理装置301を有する。
【0040】
カメラ201−iは、ネットワークを介して情報処理装置301と接続している。また、カメラ201−iは、Universal Serial Bus(USB)等により情報処理装置301と接続してもよい。カメラ201−iは、自己の撮影範囲を撮影し、撮影した画像(撮影画像)を情報処理装置301に送信する。カメラ201−1とカメラ201−2は、それぞれ異なる撮影範囲を定期的若しくは常に撮影する。尚、カメラ201−iは動画を撮影し、情報処理装置301に送信してもよい。その場合、動画の各フレームが撮影画像に相当する。すなわち、カメラ201−iは、時系列な複数の画像を情報処理装置301に出力する。カメラ201−iは、撮像装置の一例である。尚、カメラ201−iの数は一例であり、これに限られるものではない。
【0041】
実施の形態において、カメラ201−iは地面から適当な高さに設置され、撮影方向は斜め下となっている。実施の形態において、カメラ201−iの設置角度(チルト角)は、カメラ201−iの高さの水平面とカメラ201−iのレンズの光軸とが成す角度、すなわち俯角を指す。カメラ201−1の設置角度は25度、カメラ201−2の設置角度は45度である。尚、カメラ201−iの設置角度は一例であり、これに限られるものではない。また、実施の形態において、カメラ201−1とカメラ201−2の設置されている高さは同一とする。以下、カメラ201−iは、カメラiと表記する場合がある。
【0042】
情報処理装置301は、画像入力部311−i、カメラ姿勢算出部321、投影画像生成部331、対象範囲算出部341、人物対応付け部351、出力部361、および記憶部371を有する。情報処理装置301は、例えば、サーバやパーソナルコンピュータ等のコンピュータである。画像入力部311−iは、受信部の一例である。
【0043】
投影画像生成部331は、人物モデル生成部332および投影画像生成部333を有する。投影画像生成部333は、第4の処理部の一例である。
【0044】
対象範囲算出部341は、全身領域範囲算出部342、変形画像判定部343、および低解像度画像判定部344を有する。全身領域範囲算出部342は、第1の処理部の一例である。変形画像判定部343は、第2の処理部の一例である。低解像度画像判定部344は、第3の処理部の一例である。
【0045】
人物対応付け部351は、特徴量抽出部352および特徴量照合部353を有する。
上述の情報処理装置301の構成は一例であり、これに限られるものではない。例えば、画像入力部311−i、カメラ姿勢算出部321、投影画像生成部331、対象範囲算出部341、人物対応付け部351、出力部361、および記憶部371のそれぞれまたは任意の組合せが異なる装置に具備され、複数の装置がネットワークを介して接続されたシステムとして構成されてもよい。
【0046】
実施の形態において、撮影画像および投影画像の座標を示す場合、原点は各画像において左上隅とし、X軸の正方向は右方向、Y軸の正方向は下方向であるとする。
【0047】
図5は、実施の形態に係る人物対応付け処理のフローチャートである。
ステップS501において、画像入力部311−iは、カメラ201−iから時系列な複数の撮影画像を受信する。画像入力部311−iは、カメラ201−iから入力された撮影画像の解像度を所定の解像度に低下させた撮影画像を生成し、解像度が低下した撮影画像をカメラ姿勢算出部321、対象範囲算出部341、および人物対応付け部351に出力する。カメラ姿勢算出部321、対象範囲算出部341、および人物対応付け部351は、解像度が低下した撮影画像を用いて処理を行う。以下、特に断らない限り、撮影画像は、画像入力部311−iにより解像度が低下した撮影画像を指す。撮影画像の解像度を低下させるのは、撮影された人物のプライバシーを保護するためである。
【0048】
また、画像入力部311−iは、解像度が低下した撮影画像を記憶部371に出力し、記憶部371は、当該撮影画像を記憶してもよい。そして、記憶部371に予め記憶されたカメラ201−iの撮影画像が、カメラ姿勢算出部321、対象範囲算出部341、および人物対応付け部351に入力されていてもよい。尚、画像入力部311−iは、撮影画像の解像度の変更を行わなくてもよい。
【0049】
ステップS502において、カメラ姿勢算出部321は、カメラ201−iの姿勢、すなわちカメラ201−iの設置角度を算出する。3次元物体の大きさ、当該3次元物体とカメラ201−iとの間の距離、およびカメラ201−iの内部パラメータ(例えば、焦点距離)が分かれば、カメラ201−iの設置角度は算出可能である。よって、3次元物体の大きさ、当該3次元物体とカメラ201−iとの間の距離、カメラ201−iの内部パラメータ、およびカメラ201−iにより撮影された当該3次元物体を含む撮影画像からカメラ姿勢算出部321は、カメラ201−iの設置角度を算出する。例えば、3次元物体の大きさ、当該3次元物体とカメラ201−iとの間の距離、カメラ201−iの内部パラメータ、およびカメラ201−iにより撮影された当該3次元物体を含む撮影画像は、予め情報処理装置301に与えられている若しくは外部から入力される。
【0050】
また、カメラ姿勢算出部321は、カメラ201−iによる複数の撮影画像から消失点を算出し、消失点を用いて、カメラ201−iの設置角度を算出してもよい。
【0051】
また、カメラ201−iの設置角度が予め情報処理装置301に与えられている場合には、ステップS502の処理は省略してもよい。
【0052】
カメラ姿勢算出部321は、算出したカメラ201−iの設置角度を投影画像生成部331および対象範囲算出部341に出力する。
【0053】
ステップS503において、人物モデル生成部332および投影画像生成部333は、投影画像生成処理を行う。ここで投影画像生成処理の詳細について説明する。
【0054】
図6は、人物モデルを示す図である。
人物モデル生成部332は、所定の身長の人物の大きさに相当する長方体を人物モデル401として生成する。例えば、人物モデル生成部332は、高さH=180cm、横幅W=50cm、D=縦幅(奥行)40cmとなる長方体を人物モデル401として生成する。
【0055】
図7は、投影画像の例を示す図であり、カメラ201−2における投影画像を示す。
投影画像生成部333は、カメラ201−iごとに、それぞれ異なる位置にある人物モデル401を投影した複数の投影画像を生成する。投影画像の生成方法は、例えば、非特許文献1(早坂光晴,外2名,”逆投影法とカルマンフィルタを用いた複数移動物体位置認識とその追跡”, PRMU2001-132, pp.133-138, Nov.2001)に記載されている。尚、カメラ201−iの設置角度は固定とする。尚、投影画像の解像度は、撮影画像の解像度と同一とする。
【0056】
例えば、投影画像生成部333は、カメラ201−2の設置高さが2.5m、設置角度が45度の場合、カメラ201−2からの距離を変えながら撮影される人物モデルの投影画像を生成する。
【0057】
人物モデル401がカメラ201−2から近い位置Aにあるとき、投影画像PIA2が生成される。人物モデル401がカメラ201−2から遠い位置Bにあるとき、投影画像PIB2が生成される。人物モデル401がカメラ201−2から位置Bよりさらに遠い位置Cにあるとき、投影画像PIC2が生成される。人物モデル401が位置A,Bにあるとき、人物モデル401の全体はカメラ201−2の撮影範囲に含まれてるため、投影画像PIA2、PIB2において、人物モデル401の全体が映っている。人物モデル401が位置Cにあるとき、人物モデル401の上部はカメラ201−2の撮影範囲に含まれていないため、投影画像PIC2において、人物モデル401の上部は映っていない。
【0058】
投影画像生成部333は、同様にカメラ201−1からの距離を変えながら撮影される人物モデル401の投影画像を生成する。以下、カメラ201−iからの距離を変えながら撮影される人物モデル401の投影画像は、カメラ201−iの投影画像と表記する場合がある。
【0059】
図5に戻り説明を続ける。
ステップS504において、全身領域範囲算出部342は、投影画像の全身領域の範囲算出処理を行う。ここで投影画像の全身領域の範囲算出処理の詳細について説明する。
【0060】
図8は、投影画像の全身領域の範囲算出処理の詳細なフローチャートである。図8は、ステップS504に対応する。
【0061】
図9は、全身領域投影画像の例を示す。
図10は、最大面積の全身領域と中心座標を示す。
【0062】
図11は、最小面積の全身領域と中心座標を示す。
投影画像の全身領域の範囲算出処理は、各カメラ201−iの投影画像に対して行われる。例えば、最初にカメラ201−1の投影画像に対して、全身領域の範囲算出処理が行われ、次にカメラ201−2の投影画像に対して、全身領域の範囲算出処理が行われる。
【0063】
ステップS601において、全身領域範囲算出部342は、カメラ201−iの投影画像のうち、人物モデル401の全体(全身領域)が投影画像に含まれているか判定する。全身領域範囲算出部342は、全身領域が含まれている投影画像を選択する。すなわち、全身領域が投影画像に含まれていない撮影画像を後段の処理対象から除外する。
【0064】
例えば、全身領域範囲算出部342は、長方体の人物モデル401の8つの頂点(a1-a4,b1-b4)が投影画像に含まれているかを確認する。人物モデル401の8つの頂点が投影画像PIに含まれている場合、投影画像PIには全身領域が含まれていると判定される(図9)。全身領域が含まれている投影画像PIは、全身領域投影画像と表記する。ここで、投影画像において人物モデル401が映っている領域を人物領域とする。すなわち、図9に示すように、人物領域は、投影画像PIにおいて長方体の人物モデル401の3つの面が映っている領域である。人物モデル401とカメラ201−iとの距離が近いほど、カメラ201−iの投影画像において、人物領域の面積は大きくなる。
【0065】
ステップS602において、全身領域範囲算出部342は、全身領域投影画像のうち、最も大きい面積の人物領域を有する全身領域投影画像PIsmaxと、最も小さい面積の人物領域を有する全身領域投影画像PIsminと、を検出する。
【0066】
ステップS603において、全身領域範囲算出部342は、全身領域投影画像PIsmaxの人物領域の中心座標(Xmax,Ymax)を算出する(図10)。全身領域範囲算出部342は、全身領域投影画像PIsminの人物領域の中心座標(Xmin,Ymin)を算出する(図11)。人物領域の中心座標は、投影画像において映っている人物モデル401の3つの面のうち、一番手前に映っている長方形の面の中心である。また、人物領域の中心座標は、人物領域の外接矩形の中心としてもよい。人物モデル401とカメラ201−iとの距離が近いほど、カメラ201−iの投影画像において、人物領域の中心座標のY座標の値は大きくなる。
【0067】
上記処理により、カメラ201−iの投影画像のうち、全身領域投影画像の人物領域のY座標の最大値Ymaxと最小値Yminが求まる。
【0068】
図5に戻り説明を続ける。
ステップS505において、全身領域範囲算出部342は、撮影画像の全身領域の範囲算出処理を行う。すなわち、全身領域範囲算出部342は、撮影画像のうち人物の全身が映っている撮影画像を抽出する。ここで撮影画像の全身領域の範囲算出処理の詳細について説明する。
【0069】
図12は、撮影画像の全身領域の範囲算出処理の詳細なフローチャートである。図12は、ステップS505に対応する。
【0070】
図13は、撮影画像の全身領域の範囲算出処理を説明する図である。
撮影画像の全身領域の範囲算出処理は、各カメラ201−iの撮影画像に対して行われる。例えば、最初にカメラ201−1の撮影画像に対して、全身領域の範囲算出処理が行われ、次にカメラ201−2の撮影画像に対して、全身領域の範囲算出処理が行われる。
【0071】
ステップS611において、全身領域範囲算出部342は、カメラ201−iの撮影画像それぞれから人物領域を矩形として検出する。例えば、図13に示すように、全身領域範囲算出部342は、人物Mが映っている撮影画像Iから人物Mに外接するような矩形を検出し、当該矩形を人物領域Rとする。
【0072】
ステップS612において、全身領域範囲算出部342は、人物領域それぞれの中心座標(X,Y)を算出する。例えば、図13に示すように、全身領域範囲算出部342は、人物領域Rの中心座標(X,Y)を算出する。人物Mとカメラ201−iとの距離が近いほど、カメラ201−iの撮影画像において、人物領域Rの面積は大きくなり、人物領域Rの中心座標のY座標の値Yは大きくなる。
【0073】
ステップS613において、全身領域範囲算出部342は、カメラ201−iの撮影画像のうち、人物領域の中心座標のY座標の値YがY座標の最大値Ymaxより大きい撮影画像を除外対象と判定し、除外対象として設定する。尚、Y座標の最大値Ymaxは、投影画像の全身領域の範囲算出処理(ステップS504)において、カメラ201−iの投影画像から求めた値である。
【0074】
ステップS614において、全身領域範囲算出部342は、除外対象と判定(設定)されなかった撮影画像の人物領域の中心座標のY座標値のうち、最大のY座標の値を検出し、記録する。
【0075】
ステップS615において、全身領域範囲算出部342は、カメラ201−iの撮影画像のうち、人物領域の中心座標のY座標の値YがY座標の最小値Yminより小さい撮影画像を除外対象と判定し、除外対象として設定する。尚、Y座標の最小値Yminは、投影画像の全身領域の範囲算出処理(ステップS504)において、カメラ201−iの投影画像から求めた値である。
【0076】
ステップS616において、全身領域範囲算出部342は、全身領域範囲算出部342は、除外対象と判定(設定)されなかった撮影画像の人物領域の中心座標のY座標値のうち、最小のY座標の値を検出し、記録する。
【0077】
上記処理により、撮影画像のうち、人物の全身が映っていない撮影画像が除外される。すなわち、撮影画像のうち、人物の全身が映っている撮影画像が抽出される。
【0078】
図5に戻り説明を続ける。
ステップS506において、変形画像判定部344は、変形画像判定処理を行う。以下、変形画像判定処理の詳細について説明する。ここで、2つの変形画像判定処理について説明する。変形画像判定部344は、2つの変形画像判定処理のいずれか若しくは両方を実行する。
【0079】
図14は、変形画像判定処理(その1)の詳細なフローチャートである。図14は、ステップS506に対応する。
【0080】
図15は、変形画像判定処理(その1)を説明する図である。
ステップS621において、変形画像判定部344は、カメラ201−iのうち、設置角度が小さいカメラ201−iを選択する。実施の形態では、カメラ201−1の設置角度は25度、カメラ201−2の設置角度は45度であるため、カメラ201−1が選択される。
【0081】
ステップS622において、変形画像判定部344は、入力画像Is1それぞれの人物領域の面積Sを算出する。ここで、入力画像Is1は、カメラ201−1の撮影画像のうち、ステップS505の処理で除外対象と判定(設定)されていない撮影画像である。
【0082】
ステップS623において、変形画像判定部344は、入力画像Is1それぞれの人物領域のうち、人物領域の面積Sが最も大きい人物領域を検出する。例えば、人物Mが位置Aにいるときの撮影画像IA1の人物領域RA1が検出される(図15)。
【0083】
ステップS624において、変形画像判定部344は、面積Sが最も大きい人物領域の縦と横と比(縦横比)R1を算出する。例えば、矩形の人物領域の縦のサイズ(画素数)Hを横のサイズ(画素数)Wで除算することにより、縦横比R1は算出される。図15において、人物領域RA1の縦横比R1が算出される。縦横比は、形状の一例である。
【0084】
ステップS625において、変形画像判定部344は、カメラ201−iのうち、設置角度が大きいカメラ201−iを選択する。実施の形態では、カメラ201−2が選択される。尚、2つのカメラの設置角度が同じ場合には、ステップS621において任意で一方のカメラが選択され、ステップ625において他方のカメラが算出される。
【0085】
ステップS626において、変形画像判定部344は、入力画像Is2それぞれの人物領域の縦と横と比(縦横比)Rを算出する。ここで、入力画像Is2は、カメラ201−2の撮影画像のうち、ステップS505の処理で除外対象と判定(設定)されていない撮影画像である。
【0086】
ステップS627において、変形画像判定部344は、入力画像Is2それぞれの人物領域のうち、縦横比R1に最も近い縦横比Rを有する人物領域を検出する。図15において、人物M2が位置B2にいるときの撮影画像IB2の人物領域RB2が検出される。
【0087】
ステップS628において、変形画像判定部344は、縦横比R1に最も近い縦横比Rを有する人物領域の中心座標(X,Y)を算出する。図15において、人物領域RB2の中心座標(X,Y)が算出される。
【0088】
ステップS629において、変形画像判定部344は、入力画像Is2のうち、人物領域の中心座標Yが中心座標Yより大きい入力画像を除外対象と判定し、除外対象に設定する。図15において、人物Mが位置Bよりカメラに近い位置(例えば、A)にいるときの撮影画像が除外対象に判定(設定)される。尚、人物Mが位置Bよりカメラから遠い位置(例えば、C)にいるときの撮影画像は除外対象に判定(設定)されない。
【0089】
図15において、変形画像判定処理(その1)により、人物Mが位置Bよりカメラ201−2に近い位置にいるときの撮影画像が除外対象に判定される。透視投影により、カメラに近づくほど人物領域の変形が大きくなる。例えば、位置Bよりカメラ201−2に近い位置Aに人物M2がいるときの撮影画像の人物領域RA2は、人物領域RA1と形状が大きく異なる。このような、カメラ201−1の撮影画像の人物領域と大きく形状が異なるカメラ201−2の人物領域RA2を含む撮影画像を人物の色特徴量の照合に用いないことにより、人物の判定精度を向上できる。
【0090】
図16は、変形画像判定処理(その2)の詳細なフローチャートである。図16は、ステップS506に対応する。
【0091】
図17は、変形画像判定処理(その1)を説明する図である。
ステップS641において、変形画像判定部344は、変形画像判定部344は、カメラ201−iのうち、設置角度が小さいカメラ201−iを選択する。実施の形態では、カメラ201−1の設置角度は25度、カメラ201−2の設置角度は45度であるため、カメラ201−1が選択される。
【0092】
ステップS642において、変形画像判定部344は、カメラ201−1の全身領域投影画像の人物領域のうち、最大の面積の人物領域を検出する。尚、カメラ201−1の全身領域投影画像は、カメラ201−1の投影画像のうち図8のステップ601において除外されなかった投影画像である。
【0093】
ステップS643において、変形画像判定部344は、ステップS642で検出した最大の面積の人物領域を示す人物領域画像SI1を生成し、記録する。人物領域画像SI1は、人物領域の画素の画素値が1、人物領域以外の画素の画素値が0である画像である。
【0094】
ステップS644において、変形画像判定部344は、カメラ201−iのうち、設置角度が大きいカメラ201−iを選択する。実施の形態では、カメラ201−2が選択される。尚、2つのカメラの設置角度が同じ場合には、ステップS641において任意で一方のカメラが選択され、ステップ644において他方のカメラが算出される。
【0095】
ステップS645において、変形画像判定部344は、カメラ201−2の全身領域投影画像の人物領域それぞれを、人物領域画像SI1の人物領域に合わせて正規化する。例えば、変形画像判定部344は、カメラ201−2の全身領域投影画像の人物領域の高さまたは幅が人物領域画像SI1の人物領域と一致するように、カメラ201−2の全身領域投影画像の人物領域それぞれを拡大縮小、回転または平行移動する。変形画像判定部344は、正規化した人物領域それぞれを示す人物領域画像SI2を生成する。人物領域画像SI2は、人物領域の画素の画素値が1、人物領域以外の画素の画素値が0である画像である。
【0096】
ステップS646において、変形画像判定部344は、人物領域画像SI1と人物領域画像SI2それぞれとの差分を算出する。人物領域画像SI1と人物領域画像SI2の差分は、人物領域画像SI1の各画素の画素値と人物領域画像SI2の各画素の画素値との差分の合計である。
【0097】
ステップS647において、変形画像判定部344は、人物領域画像SI2のうち、人物領域画像SI1と人物領域画像SI2との差分が最も小さい人物領域画像が示す人物領域を検出する。
【0098】
図17において、人物モデルが位置Bにいるときの投影画像PIB2の人物領域を正規化され、正規化された人物領域を示す人物領域画像SIB2が生成される。人物領域画像SI1と人物領域画像SIB2との差分が最も小さいため、投影画像PIB2の人物領域が検出される。
【0099】
ステップS648において、変形画像判定部344は、検出した人物領域の中心座標(X,Y)を算出する。図17において、投影画像PIB2の人物領域の中心座標(X,Y)を算出される。
【0100】
ステップS649において、変形画像判定部344は、入力画像Is2のうち、人物領域の中心座標YがステップS648で算出した中心座標のY座標の値Yより大きい入力画像を除外対象と判定し、除外対象に設定する。入力画像Is2は、カメラ201−2の撮影画像のうち、ステップS505の処理で除外対象と判定(設定)されていない撮影画像である。
【0101】
図17において、人物Mが位置Bよりカメラに近い位置(例えば、A)にいるときの撮影画像が除外対象に判定(設定)される。尚、人物Mが位置Bよりカメラから遠い位置(例えば、C)にいるときの撮影画像は除外対象に判定(設定)されない。
【0102】
図5に戻り説明を続ける。
ステップS507において、低解像度画像判定部344は、混合色判定処理を行う。尚、ステップS507は、省略してもよい。
【0103】
図18は、混合色判定処理の詳細なフローチャートである。
図19は、混合色判定処理を説明する図である。
【0104】
混合色判定処理は、各カメラ201−iの撮影画像に対して行われる。例えば、最初にカメラ201−1の撮影画像に対して、混合色判定処理が行われ、次にカメラ201−2の撮影画像に対して、混合色判定処理が行われる。
【0105】
ステップS651において、低解像度画像判定部344は、ステップS503と同様にカメラ201−iに対してそれぞれ異なる位置の人物モデルを投影した複数の投影画像を生成する。
【0106】
ステップS652において、低解像度画像判定部344は、カメラ201−iの投影画像それぞれの人物領域の面積Sを算出し、カメラ201−iの設置角度に対応した閾値STに最も近い人物領域の面積Sを検出する。閾値STは、人物領域内の混合色の割合が所定値以上となる面積(画素数)である。また、閾値STは予めカメラの複数の設置角度毎に算出されている。例えば、カメラ201−1の設置角度(25度)に対応した閾値ST、およびカメラ201−2の設置角度(45度)に対応した閾値STが予め算出されている。また、混合色の判定処理は、例えば、特開2017−204095号公報に記載されている。
【0107】
ステップS653において、低解像度画像判定部344は、検出した人物領域の中心座標(X,Y)を算出する。中心座標(X,Y)は、例えば、人物領域の外接矩形の中心である(図19)。
【0108】
ステップS654において、低解像度画像判定部344は、入力画像それぞれの人物領域を検出する。ここで、入力画像は、カメラ201−iの撮影画像のうち、ステップS505〜S506の処理で除外対象と判定(設定)されていない撮影画像である。また、入力画像から検出された人物領域は矩形である。
【0109】
ステップS655において、低解像度画像判定部344は、ステップS654で検出した人物領域それぞれの中心座標(X,Y)を算出する。Xは中心座標のx座標の値、Yは中心座標のY座標の値である。
【0110】
ステップS656において、低解像度画像判定部344は、入力画像のうち、中心座標のY座標の値YがYより小さい人物領域を含む入力画像を除外対象と判定し、除外対象に設定する。中心座標のY座標の値YがYより小さい場合、人物領域の面積は閾値STより小さくなる。すなわち、閾値STより小さい面積の人物領域を含む入力画像が除外対象と判定される。
【0111】
撮影画像において、人物領域の中心座標のY座標の値Yが小さいほど、人物はカメラ201−iから遠い位置におり、人物領域も小さくなる。よって、中心座標のY座標の値YがYより小さい人物領域の面積は、閾値STより小さくなるため、混合色の割合が所定値以上となる。混合色判定処理により、混合色の割合が所定値以上となる撮影画像は、除外対象と判定(設定)される。
【0112】
図5に戻り説明を続ける。
ステップS508において、範囲算出部341は、カメラ201−Iそれぞれの撮影画像の対象画像の範囲を人物対応付け部351に出力する。詳細には、範囲算出部341は、カメラ201−Iそれぞれの撮影画像のうちステップS504〜S507において除外対象として判定(設定)されなかった撮影画像を示す情報(例えば、撮影画像に割り当てられたフレーム番号)を対象画像の範囲として人物対応付け部351に出力する。例えば、範囲算出部341は、除外対象として判定(設定)されなかった撮影画像のフレーム番号のうち、最小のフレーム番号と最大のフレーム番号を出力する。すなわち、最小のフレーム番号に対応する撮影画像から最大のフレーム番号に対応する撮影画像までが対象画像の範囲であることを示す。
【0113】
以下、ステップS509、S510およびステップS511、S512は、並列に実行される。尚、ステップS509〜S512は、直列に実行されてもよい。
【0114】
ステップS509において、範囲算出部341からカメラ1による撮影画像のうち、対象画像の範囲を受信する。
【0115】
ステップS510において、特徴量抽出部352は、カメラ1による撮影画像のうち、対象画像の範囲に含まれる撮影画像を選択し、選択した撮影画像それぞれから撮影画像に映っている人物の色特徴量を抽出する。ここでは、人物Aの色特徴量が抽出されたとする。
【0116】
ステップS511において、特徴量抽出部352は、範囲算出部341からカメラ2による撮影画像のうち、対象画像の範囲を受信する。
【0117】
ステップS512において、特徴量抽出部352は、カメラ2による撮影画像のうち、対象画像の範囲に含まれる撮影画像を選択し、選択した撮影画像それぞれから撮影画像に映っている人物の色特徴量を抽出する。ここでは、人物Bの色特徴量が抽出されたとする。
【0118】
図20は、人物データと特徴量データの例である。
特徴量抽出部352は、カメラiそれぞれの対象画像の範囲に含まれる撮影画像に映っている人物のデータTと当該人物の色特徴量を示す特徴量データFとを記憶部371に記憶する。
【0119】
図20は、カメラ1による撮影画像のうち、対象画像の範囲に含まれる撮影画像の映っている人物Aの人物データT、およびカメラ2による撮影画像のうち、対象画像の範囲に含まれる撮影画像の映っている人物Bの人物データTを示す。
【0120】
人物データTは、項目として、カメラ番号、人物ID、検出フレーム、カメラ姿勢、および対象画像範囲を有する。
【0121】
カメラ番号は、カメラiに割り当てられた、カメラiを識別する番号である。
人物IDは、人物を識別する識別子である。
【0122】
検出フレーム数は、人物IDに対応する人物の色特徴量が抽出された撮影画像の数である。すなわち、検出フレーム数は、対象画像の範囲に含まれる撮影画像の数である。
【0123】
カメラ姿勢は、カメラiの設置角度を示す。
対象画像範囲は、カメラiの撮影画像のうち対象画像の範囲を示す。対象画像範囲には、対象画像の範囲内の撮影画像のうち最小のフレーム番号(No.)と最大のフレーム番号(No.)とが記載される。例えば、人物データTの「最小値:フレームNo.5」、「最大値:フレームNo.15」は、カメラ1による撮影画像のうち、フレーム番号が5から15までの撮影画像が対象画像であることを示す。
【0124】
さらに、図20は、カメラ1による撮影画像に映っている人物の色特徴量を示す特徴量データFとカメラ2による撮影画像に映っている人物の色特徴量を示す特徴量データFとを示す。
【0125】
特徴量データFは、項目として、フレーム番号、時刻、中心座標、および色特徴量を有する。
【0126】
フレーム番号は、撮影画像に割り当てられた番号である。フレーム番号は、例えば、撮影画像に対して撮影時刻の古い順に割り当てられている。
【0127】
時刻は、フレーム番号に対応する撮影画像の撮影時刻である。
中心座標は、フレーム番号に対応する撮影画像の人物領域の中心の座標である。
【0128】
色特徴量は、フレーム番号に対応する撮影画像の人物領域から抽出した色特徴量である。色特徴量は、例えば、人物領域を複数の領域に分割したときの領域毎の色ヒストグラムやMSCRクラスタ特徴量である。
【0129】
図5に戻り説明を続ける。
ステップS513において、特徴照合部353は、特徴量抽出部352により抽出された人物Aの色特徴量と人物Bの色特徴量とを照合し、照合結果に基づいて人物Aと人物Bとが同一人物であるか判定する。例えば、特徴照合部353は、非特許文献2(M. Zheng, 外6名, “Privacy-conscious Person Re-identification using Low-resolution Videos”, In ACPR, pp.109-114, 2017)記載の方法や特許文献1記載の方法を用いて、人物Aと人物Bとが同一人物であるか判定する。人物Aと人物Bとが同一人物であるか判定された場合、特徴照合部353は、人物Aと人物Bとを対応付ける。
【0130】
ステップS514において、出力部361は、対応付けの結果を記憶部371に出力し、記憶部371は対応付けの結果を記憶する。また、出力部361は、情報処理装置301と接続する他の装置(不図示)に対応付けの結果を出力してもよい。
【0131】
実施の形態の情報処理装置によれば、複数の撮影画像のうち、人物の全身が映っていない撮影画像を対象画像の範囲から除外することで、同一人物の判定精度を向上できる。
【0132】
実施の形態の情報処理装置によれば、複数の撮影画像のうち、カメラ間で人物の変形が大きい撮影画像を対象画像の範囲から除外することで、同一人物の判定精度を向上できる
実施の形態の情報処理装置によれば、混合色が多くなる解像度の人物領域を有する撮影画像を対象画像の範囲から除外することで、同一人物の判定精度を向上できる。
【0133】
図21は、他の実施の形態に係るシステムの構成図である。
システム1101は、カメラ1201−j(j=1〜3)、映像入力装置1301−j、画像選択装置1401、解析サーバ1501、および記憶装置1601を含む。解析サーバ1501は、照合装置の一例である。
【0134】
カメラ1201−1〜1201−3は、それぞれ撮影範囲A〜Cを撮影し、撮影画像を映像入力装置1301−1〜1301−3にそれぞれ出力する。
【0135】
映像入力装置1301−jは、画像入力部311−iと同様の機能を有する。映像入力装置1301−jは、カメラ1201−jから入力された撮影画像の解像度を所定の解像度に低下させた撮影画像を生成し、解像度が低下した撮影画像を画像選択装置1401および解析サーバ1501に出力する。画像選択装置1401および解析サーバ1501は、解像度が低下した撮影画像を用いて処理を行う。撮影画像の解像度を低下させるのは、撮影された人物のプライバシーを保護するためである。
【0136】
画像選択装置1401は、カメラ姿勢算出部321、投影画像生成部331、および対象範囲算出部341と同等の機能を有する。画像選択装置1401は、さらに画像入力部311−iと同等の機能を有してもよい。解析サーバ1501は、人物対応付け部351および出力部361と同等の機能を有する。記憶装置1601は、記憶部371と同等の機能を有する。
【0137】
画像選択装置1401は、入力された撮影画像のうち人物領域の色特徴量の抽出に用いられる撮影画像を選択し、選択した撮影画像を示す情報(対象範囲)を解析サーバ1501に出力する。
【0138】
解析サーバ1501は、画像選択装置1401から受信した対象範囲に対応する撮影画像から人物領域の色特徴量を抽出し、抽出した色特徴量を用いて、人物の同定(すなわち異なるカメラでそれぞれ撮影された人物が同一人物であるかの)判定を行う。
【0139】
さらに、解析サーバ1501は、人物の同定において、服装色が類似した人物の判定精度の低下を防ぐために、カメラ間の距離、人物の移動速度、および移動方向の整合性から照合に用いる人物の色特徴量を絞り込んでもよい。例えば、カメラ1201−j間の距離、人物の移動速度、および移動方向が分かれば、あるカメラである人物が検出された時刻から、他のカメラで当該人物が出現する時間帯を推定できる。よって、解析サーバ1501は、推定された時間帯に出現した人物の色特徴量を照合対象として絞り込む。
【0140】
図21において、人物M、Mが撮影範囲Aにいるときの撮影画像、人物M’、Mが撮影範囲Bにいるときの撮影画像、および人物M’’、Mが撮影範囲Cにいるときの撮影画像を用いて、人物の同定を行う。
【0141】
人物Mは、撮影範囲Aから撮影範囲Bの方向に移動している。人物M’は、撮影範囲Bから撮影範囲Cの方向に移動している。人物Mは、撮影範囲Bから撮影範囲Aの方向に移動している。人物M’’の移動方向は、人物M’は同じである。
【0142】
また、人物M、M’、M、M’’の服の色は、互いに同じまたは類似している。人物Mの服の色は、人物M、M’、M、M’’、Mと異なる。人物Mの服の色は、人物M、M’、M、M’’、Mと異なる。
【0143】
ここで、カメラ1201−1で撮影された人物M1と一致する人物をカメラ1201−2の撮影画像から見つける場合を説明する。解析サーバ1501は、カメラ1201−1の撮影画像から人物Mの移動方向および移動速度を算出し、算出結果から人物Mが出現する時間帯や場所を推定する。例えば、人物Mは、ある時間帯に撮影範囲Bに出現すると推定される。解析サーバ1501は、推定された時間帯のカメラ1201−2の撮影画像を用いて、人物Mの同定を行う。例えば、解析サーバ1501は、推定された時間帯に撮影された人物M’、Mが映っているカメラ1201−2の撮影画像を用いて、人物Mとの一致判定を行う。
【0144】
また、人物の色特徴量(すなわち、服の色)を用いるだけでは、例えば、人物Mと一致する人物が人物M’と人物Mのいずれかであるか精度良く判定することが難しい。解析サーバ1501は、撮影画像から人物M’と人物Mの移動方向を算出する。人物Mの移動方向と人物M’の移動方向はほぼ同じであり、人物Mの移動方向と人物Mの移動方向は大きく異なる。よって、人物Mと人物M’とが同一人物である可能性が高いと考えられる。解析サーバ1501は、人物Mの色特徴量と照合する対象から、人物Mの色特徴量を除外し、人物Mの色特徴量と人物M’の色特徴量とを照合する。このように照合する対象を絞り込むことで、服の色が類似した人物が複数いる場合でも、人物の判定精度を向上できる。
【0145】
図22は、情報処理装置(コンピュータ)の構成図である。
実施の形態の情報処理装置301、映像入力装置1301−j、画像選択装置1401、および解析サーバ1501は、例えば、図22に示すような情報処理装置(コンピュータ)11によって実現可能である。
【0146】
情報処理装置11は、Central Processing Unit(CPU)12、メモリ13、入力装置14、出力装置15、記憶部16、記録媒体駆動部17、及びネットワーク接続装置18を備え、それらはバス19により互いに接続されている。図1のカメラ201−iは、バス19に接続されていてもよい。
【0147】
CPU12は、情報処理装置11全体を制御する中央処理装置(プロセッサ)である。CPU12は、画像入力部311−i、カメラ姿勢算出部321、投影画像生成部331、対象範囲算出部341、人物対応付け部351、および出力部361として動作する。
【0148】
メモリ13は、プログラム実行の際に、記憶部16(あるいは可搬記録媒体20)に記憶されているプログラムあるいはデータを一時的に格納するRead Only Memory(ROM)やRandom Access Memory(RAM)等のメモリである。CPU12は、メモリ13を利用してプログラムを実行することにより、上述した各種処理を実行する。
【0149】
入力装置14は、ユーザ又はオペレータからの指示や情報の入力、情報処理装置11で用いられるデータの取得等に用いられる。入力装置14は、例えば、キーボード、マウス、タッチパネル等である。
【0150】
出力装置15は、ユーザ又はオペレータへの問い合わせや処理結果を出力する装置である。出力装置5は、例えば、ディスプレイ、またはプリンタ等である。
【0151】
記憶部16は、例えば、磁気ディスク装置、光ディスク装置、テープ装置等である。情報処理装置11は、記憶部16に、上述のプログラムとデータを保存しておき、必要に応じて、それらをメモリ13に読み出して使用する。記憶部16は、記憶部371に対応する。
【0152】
記録媒体駆動部17は、可搬記録媒体20を駆動し、その記録内容にアクセスする。可搬記録媒体としては、メモリカード、フレキシブルディスク、Compact Disk Read Only Memory(CD−ROM)、光ディスク、光磁気ディスク等、任意のコンピュータ読み取り可能な記録媒体が用いられる。ユーザは、この可搬記録媒体20に上述のプログラムとデータを格納しておき、CPU12は、必要に応じて、それらをメモリ13に読み出して使用する。
【0153】
ネットワーク接続装置18は、Local Area Network(LAN)やWide Area Network(WAN)等の任意の通信ネットワークに接続され、通信に伴うデータ変換を行う通信インターフェースである。ネットワーク接続装置8は、通信ネットワークを介して接続された装置へデータの送信または通信ネットワークを介して接続された装置からデータを受信する。
【0154】
なお、情報処理装置11が図22のすべての構成要素を含む必要はなく、用途や条件に応じて一部の構成要素を省略することも可能である。例えば、ユーザ又はオペレータからの指示や情報の入力を行わない場合は、入力装置14を省略してもよく、ユーザ又はオペレータへの問い合わせや処理結果の出力を行わない場合は、出力装置15を省略してもよい。情報処理装置が可搬記録媒体20にアクセスしない場合は、記録媒体駆動部17を省略してもよい。
【0155】
以上の実施の形態に関し、さらに以下の付記を開示する。
(付記1)
第1の設置角度で設置された第1のカメラで撮影された第1の人物が映っている複数の第1の撮影画像を受信し、
前記第1の設置角度より大きい第2の設置角度で設置された第2のカメラで撮影された第2の人物が映っている複数の第2の撮影画像を受信し、
前記第1の人物の全身が映っている複数の第1の全身領域撮影画像を前記複数の第1の撮影画像から抽出し、
前記第2の人物の全身が映っている複数の第2の全身領域撮影画像を前記複数の第2の撮影画像から抽出し、
前記複数の第2の全身領域撮影画像それぞれの前記第2の人物が映っている領域の形状と、前記複数第1の全身領域撮影画像のうちの第1画像の前記第1の人物が映っている領域の形状とに基づいて、前記第1の全身領域撮影画像との画像照合の対象とする第1の照合対象画像を前記複数の第2の全身領域撮影画像から選択する、
処理をコンピュータに実行させる画像選択プログラム。
(付記2)
前記コンピュータが
前記第1の設置角度に基づく第1の閾値と前記複数第1の全身領域撮影画像それぞれの前記第1の人物が映っている領域の面積に基づいて、画像照合の対象とする第2の照合対象画像を前記第1の全身領域撮影画像から選択し、
前記第2の設置角度に基づく第2の閾値と前記第1の照合対象画像それぞれの前記第2の人物が映っている領域の面積に基づいて、前記第2の照合対象画像との画像照合の対象とする第3の照合対象画像を前記第1の照合対象画像から選択する、ことを特徴とする付記1記載の画像選択プログラム。
(付記3)
前記第1の設置角度に基づいて、所定の人物モデルの位置を変更しながら前記人物モデルを画像上に投影した複数の第1の投影画像を生成し、
前記第2の設置角度に基づいて、前記人物モデルの位置を変更しながら前記人物モデルを画像上に投影した複数の第2の投影画像を生成する処理をさらに備え、
前記複数の第1の全身領域撮影画像を抽出する処理において、前記複数の第1の投影画像を用いて、前記複数の第1の撮影画像に前記第1の人物の全身が映っているか判定し、
前記複数の第2の全身領域撮影画像を抽出する処理において、前記複数の第2の投影画像を用いて、前記複数の第2の撮影画像に前記第2の人物の全身が映っているか判定することを特徴とする付記1または2記載の画像選択プログラム。
(付記4)
前記第1の画像は、前記複数第1の全身領域撮影画像それぞれの前記第1の人物が映っている領域のうちで最も大きな前記第1の人物が映っている領域を含むことを特徴とする付記1乃至3のいずれか1項に記載の画像選択プログラム。
(付記5)
第1の設置角度で設置された第1のカメラで撮影された第1の人物が映っている複数の第1の撮影画像を受信し、前記第1の設置角度より大きい第2の設置角度で設置された第2のカメラで撮影された第2の人物が映っている複数の第2の撮影画像を受信する受信部と、
前記第1の人物の全身が映っている複数の第1の全身領域撮影画像を前記複数の第1の撮影画像から抽出し、前記第2の人物の全身が映っている複数の第2の全身領域撮影画像を前記複数の第2の撮影画像から抽出する第1の処理部と、
前記複数の第2の全身領域撮影画像それぞれの前記第2の人物が映っている領域の形状と、前記複数第1の全身領域撮影画像のうちの第1画像の前記第1の人物が映っている領域の形状とに基づいて、前記第1の全身領域撮影画像との画像照合の対象とする第1の照合対象画像を前記複数の第2の全身領域撮影画像から選択する第2の処理部と、
を備える情報処理装置。
(付記6)
前記第1の設置角度に基づく第1の閾値と前記複数第1の全身領域撮影画像それぞれの前記第1の人物が映っている領域の面積に基づいて、画像照合の対象とする第2の照合対象画像を前記第1の全身領域撮影画像から選択し、前記第2の設置角度に基づく第2の閾値と前記第1の照合対象画像それぞれの前記第2の人物が映っている領域の面積に基づいて、前記第2の照合対象画像との画像照合の対象とする第3の照合対象画像を前記第1の照合対象画像から選択する第3の処理部をさらに備えることを特徴とする付記5記載の情報処理装置。
(付記7)
前記第1の設置角度に基づいて、所定の人物モデルの位置を変更しながら前記人物モデルを画像上に投影した複数の第1の投影画像を生成し、前記第2の設置角度に基づいて、前記人物モデルの位置を変更しながら前記人物モデルを画像上に投影した複数の第2の投影画像を生成する第4の処理部をさらに備え、
第1の処理部は、前記複数の第1の投影画像を用いて、前記複数の第1の撮影画像に前記第1の人物の全身が映っているか判定し、前記複数の第2の投影画像を用いて、前記複数の第2の撮影画像に前記第2の人物の全身が映っているか判定することを特徴とする付記5または6記載の情報処理装置。
(付記8)
前記第1の画像は、前記複数第1の全身領域撮影画像それぞれの前記第1の人物が映っている領域のうちで最も大きな前記第1の人物が映っている領域を含むことを特徴とする付記5乃至7のいずれか1項に記載の情報処理装置。
(付記9)
第1の設置角度で設置された第1のカメラで撮影された第1の人物が映っている複数の第1の撮影画像を受信し、前記第1の設置角度より大きい第2の設置角度で設置された第2のカメラで撮影された第2の人物が映っている複数の第2の撮影画像を受信する受信部と、
前記第1の人物の全身が映っている複数の第1の全身領域撮影画像を前記複数の第1の撮影画像から抽出し、前記第2の人物の全身が映っている複数の第2の全身領域撮影画像を前記複数の第2の撮影画像から抽出する第1の処理部と、
前記複数の第2の全身領域撮影画像それぞれの前記第2の人物が映っている領域の形状と、前記複数第1の全身領域撮影画像のうちの第1画像の前記第1の人物が映っている領域の形状とに基づいて、前記第1の全身領域撮影画像との画像照合の対象とする第1の照合対象画像を前記複数の第2の全身領域撮影画像から選択する第2の処理部と、
を備える画像選択装置と、
前記第1の全身領域撮影画像と前記第1の照合対象画像とを照合して、前記第1の人物と前記第2の人物が同一人物であるか判定する照合装置と、
を備えるシステム。
(付記10)
前記画像選択装置は、前記第1の設置角度に基づく第1の閾値と前記複数第1の全身領域撮影画像それぞれの前記第1の人物が映っている領域の面積に基づいて、画像照合の対象とする第2の照合対象画像を前記第1の全身領域撮影画像から選択し、前記第2の設置角度に基づく第2の閾値と前記第1の照合対象画像それぞれの前記第2の人物が映っている領域の面積に基づいて、前記第2の照合対象画像との画像照合の対象とする第3の照合対象画像を前記第1の照合対象画像から選択する第3の処理部をさらに備えることを特徴とする付記9記載のシステム。
(付記11)
前記画像選択装置は、前記第1の設置角度に基づいて、所定の人物モデルの位置を変更しながら前記人物モデルを画像上に投影した複数の第1の投影画像を生成し、前記第2の設置角度に基づいて、前記人物モデルの位置を変更しながら前記人物モデルを画像上に投影した複数の第2の投影画像を生成する第4の処理部をさらに備え、
第1の処理部は、前記複数の第1の投影画像を用いて、前記複数の第1の撮影画像に前記第1の人物の全身が映っているか判定し、前記複数の第2の投影画像を用いて、前記複数の第2の撮影画像に前記第2の人物の全身が映っているか判定することを特徴とする付記9または10記載のシステム。
(付記12)
前記第1の画像は、前記複数第1の全身領域撮影画像それぞれの前記第1の人物が映っている領域のうちで最も大きな前記第1の人物が映っている領域を含むことを特徴とする付記9乃至11のいずれか1項に記載のシステム。
(付記13)
コンピュータが
第1の設置角度で設置された第1のカメラで撮影された第1の人物が映っている複数の第1の撮影画像を受信し、
前記第1の設置角度より大きい第2の設置角度で設置された第2のカメラで撮影された第2の人物が映っている複数の第2の撮影画像を受信し、
前記第1の人物の全身が映っている複数の第1の全身領域撮影画像を前記複数の第1の撮影画像から抽出し、
前記第2の人物の全身が映っている複数の第2の全身領域撮影画像を前記複数の第2の撮影画像から抽出し、
前記複数の第2の全身領域撮影画像それぞれの前記第2の人物が映っている領域の形状と、前記複数第1の全身領域撮影画像のうちの第1画像の前記第1の人物が映っている領域の形状とに基づいて、前記第1の全身領域撮影画像との画像照合の対象とする第1の照合対象画像を前記複数の第2の全身領域撮影画像から選択する、
ことを特徴とする画像選択方法。
(付記14)
前記コンピュータが
前記第1の設置角度に基づく第1の閾値と前記複数第1の全身領域撮影画像それぞれの前記第1の人物が映っている領域の面積に基づいて、画像照合の対象とする第2の照合対象画像を前記第1の全身領域撮影画像から選択し、
前記第2の設置角度に基づく第2の閾値と前記第1の照合対象画像それぞれの前記第2の人物が映っている領域の面積に基づいて、前記第2の照合対象画像との画像照合の対象とする第3の照合対象画像を前記第1の照合対象画像から選択する、ことを特徴とする付記13記載の画像選択方法。
(付記15)
前記コンピュータが
前記第1の設置角度に基づいて、所定の人物モデルの位置を変更しながら前記人物モデルを画像上に投影した複数の第1の投影画像を生成し、
前記第2の設置角度に基づいて、前記人物モデルの位置を変更しながら前記人物モデルを画像上に投影した複数の第2の投影画像を生成し、
前記複数の第1の全身領域撮影画像を抽出する処理において、前記複数の第1の投影画像を用いて、前記複数の第1の撮影画像に前記第1の人物の全身が映っているか判定し、
前記複数の第2の全身領域撮影画像を抽出する処理において、前記複数の第2の投影画像を用いて、前記複数の第2の撮影画像に前記第2の人物の全身が映っているか判定することを特徴とする付記13または14記載の画像選択方法。
(付記16)
前記第1の画像は、前記複数第1の全身領域撮影画像それぞれの前記第1の人物が映っている領域のうちで最も大きな前記第1の人物が映っている領域を含むことを特徴とする付記13乃至15のいずれか1項に記載の画像選択方法。
【符号の説明】
【0156】
201 カメラ
301 情報処理装置
311 画像入力部
321 カメラ姿勢算出部
331 投影画像生成部
332 人物モデル生成部
333 投影画像生成部
341 対象範囲算出部
342 全身領域範囲算出部
343 変形画像判定部
344 低解像度画像判定部
351 人物対応付け部
352 特徴量抽出部
353 特徴量照合部
361 出力部
371 記憶部
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14
図15
図16
図17
図18
図19
図20
図21
図22