IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 今井 龍一の特許一覧 ▶ 田中 成典の特許一覧 ▶ Intelligent Style株式会社の特許一覧 ▶ 株式会社アスコ大東の特許一覧

<>
  • 特開-人物同定装置 図1
  • 特開-人物同定装置 図2
  • 特開-人物同定装置 図3
  • 特開-人物同定装置 図4
  • 特開-人物同定装置 図5A
  • 特開-人物同定装置 図5B
  • 特開-人物同定装置 図6
  • 特開-人物同定装置 図7
  • 特開-人物同定装置 図8
  • 特開-人物同定装置 図9
  • 特開-人物同定装置 図10
  • 特開-人物同定装置 図11
  • 特開-人物同定装置 図12
  • 特開-人物同定装置 図13
  • 特開-人物同定装置 図14
  • 特開-人物同定装置 図15
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2025058472
(43)【公開日】2025-04-09
(54)【発明の名称】人物同定装置
(51)【国際特許分類】
   G06V 10/74 20220101AFI20250402BHJP
   G06T 7/00 20170101ALI20250402BHJP
   G06V 10/82 20220101ALI20250402BHJP
【FI】
G06V10/74
G06T7/00 300F
G06T7/00 660Z
G06T7/00 350C
G06V10/82
【審査請求】未請求
【請求項の数】13
【出願形態】OL
(21)【出願番号】P 2023168430
(22)【出願日】2023-09-28
(71)【出願人】
【識別番号】511121768
【氏名又は名称】今井 龍一
(71)【出願人】
【識別番号】500063228
【氏名又は名称】田中 成典
(71)【出願人】
【識別番号】519113745
【氏名又は名称】Intelligent Style株式会社
(71)【出願人】
【識別番号】516119678
【氏名又は名称】株式会社日本インシーク
(74)【代理人】
【識別番号】100092956
【弁理士】
【氏名又は名称】古谷 栄男
(74)【代理人】
【識別番号】100101018
【弁理士】
【氏名又は名称】松下 正
(72)【発明者】
【氏名】今井 龍一
(72)【発明者】
【氏名】田中 成典
(72)【発明者】
【氏名】西田 義人
(72)【発明者】
【氏名】鳴尾 丈司
(72)【発明者】
【氏名】梅▲原▼ 喜政
(72)【発明者】
【氏名】坂本 一磨
(72)【発明者】
【氏名】平野 順俊
(72)【発明者】
【氏名】大月 庄治
(72)【発明者】
【氏名】川村 義和
【テーマコード(参考)】
5L096
【Fターム(参考)】
5L096FA18
5L096FA33
5L096FA64
5L096GA41
5L096HA05
5L096HA11
5L096JA03
5L096JA11
5L096KA04
(57)【要約】      (修正有)
【課題】異なる状況やカメラで撮像した人物の同定精度を向上させる人物同定装置及びプログラムを提供する。
【解決手段】人物同定装置において、対象人物画像取得手段2は対象人物画像を取得し、特徴取得手段4は対象人物画像の画像的特徴を解析し取得し、変化決定手段8は、画像的特徴に基づき、同定手段10における同定精度向上のために、対象人物画像の色空間における少なくとも一要素を変化させるか否かを決定し、同定用画像決定手段6は、変化決定手段8が変化をさせると判断した場合、対象人物画像の色空間における少なくとも一要素を変化させ、同定用対象人物画像を生成し、変化をさせないと判断した場合、対象人物画像を変化させず同定用対象人物画像とする。同定手段10は、同定用対象人物画像の特徴ベクトルを算出し、記録部に記録された同定対象である複数人の人物画像の特徴ベクトルと比較し、当該同定用対象人物画像の人物を同定する。
【選択図】図1
【特許請求の範囲】
【請求項1】
同定対象である複数人の人物画像の特徴ベクトルを記録する記録部と、
対象となる人物の対象人物画像を取得する対象人物画像取得手段と、
対象人物画像の画像的特徴を取得する特徴取得手段と、
前記画像的特徴に基づいて、同定手段における同定精度を向上させるためには、前記対象人物画像の色空間における少なくとも一要素を変化させた方がよいかどうかを決定する変化決定手段と、
前記変化決定手段の決定に基づいて、前記対象人物画像を変化させ、または変化させずに同定用対象人物画像を得る同定用画像決定手段と、
当該同定用対象人物画像の特徴ベクトルを算出し、前記記録部に記録された同定対象である複数人の人物画像の特徴ベクトルと比較して、当該同定用対象人物画像の人物を同定する同定手段と、
を備えた人物同定装置。
【請求項2】
人物同定装置をコンピュータによって実現するための人物同定プログラムであって、コンピュータを、
対象となる人物の対象人物画像を取得する対象人物画像取得手段と、
対象人物画像の画像的特徴を取得する特徴取得手段と、
前記画像的特徴に基づいて、同定手段における同定精度を向上させるためには、前記対象人物画像の色空間における少なくとも一要素を変化させた方がよいかどうかを決定する変化決定手段と、
前記変化決定手段の決定に基づいて、前回対象人物画像を変化させ、または変化させずに同定用対象人物画像を得る同定用画像決定手段と、
当該同定用対象人物画像の特徴ベクトルを算出し、記録部に記録された同定対象である複数人の人物画像の特徴ベクトルと比較して、当該同定用対象人物画像の人物を同定する同定手段として機能させるための人物同定プログラム。
【請求項3】
請求項1の装置または請求項2のプログラムにおいて、
前記記録部には、同一人物の人物画像の特徴ベクトルが類似し、異なる人物の人物画像の特徴ベクトルがが類似しないように、人物画像の特徴ベクトルを算出するように学習された学習済の深層距離学習モデルに、同定対象である複数人の人物画像を与えて、算出された特徴ベクトルが記録されていることを特徴とする装置またはプログラム。
【請求項4】
請求項1の装置または請求項2のプログラムにおいて、
前記色空間における要素は、CIELAB色空間におけるLの少なくともいずれかを含むことを特徴とする装置またはプログラム。
【請求項5】
請求項1の装置または請求項2のプログラムにおいて、
前記変化決定手段は、所定の複数の画像的特徴を有する複数の対象人物画像の色空間における一要素をを変化させた時に、前記同定手段による同定精度が向上するか否かをプロットした前記複数の画像的特徴多次元空間上に、前記対象人物画像の複数の画像的特徴をプロットし、前記色空間における一要素を変化させるか否かを決定することを特徴とする装置またはプログラム。
【請求項6】
請求項1の装置または請求項2のプログラムにおいて、
前記画像的特徴は、人物画像の少なくも平均明度、平均a、aの中央値、平均b、bの中央値、ピクセル数、鮮明度のいずれかを含むことを特徴とする装置またはプログラム。
【請求項7】
請求項1の装置または請求項2のプログラムにおいて、
前記色空間における要素は、平均明度を画像サイズで除したもの、あるいはCIELAB色空間における平均bに鮮明度を乗じ、平均aで除したものであることを特徴とする装置またはプログラム。
【請求項8】
請求項1の装置または請求項2のプログラムにおいて、
前記人物画像は背景を含んでおり、
前記画像的特徴は、前記背景も含めた画像的特徴であることを特徴とする装置またはプログラム。
【請求項9】
請求項1の装置または請求項2のプログラムにおいて、
異なる位置に設置されたカメラにて撮像した人物画像について、前記人物同定を行って、異なる位置における人物の移動を追跡することを特徴とする装置またはプログラム。
【請求項10】
請求項1の装置において、
前記記録部には、各人物の所持物の種類も記録されており、
前記対象人物画像取得手段は、撮像画像から対象となる人物の対象人物画像を抽出して取得するものであり、
前記撮像画像から前記対象となる人物の所持物の種類または有無を推定する所持物情報取得手段をさらに備え、
前記同定手段は、前記人物の所持物の種類または有無も考慮して当該対象人物画像の人物を同定するものであることを特徴とする装置。
【請求項11】
請求項2のプログラムにおいて、
前記記録部には、各人物の所持物の種類も記録されており、
前記対象人物画像取得手段は、撮像画像から対象となる人物の対象人物画像を抽出して取得するものであり、
前記プログラムは、コンピュータを、さらに、前記撮像画像から前記対象となる人物の所持物の種類または有無を推定する所持物情報取得手段として機能させるものであり、
前記同定手段は、前記人物の所持物の種類または有無も考慮して当該対象人物画像の人物を同定するものであることを特徴とするプログラム。
【請求項12】
同定対象である複数人の人物画像の特徴ベクトルおよび各人物の所持物の種類を記録する記録部と、
撮像画像から対象となる人物の対象人物画像を抽出して取得する対象人物画像取得手段と、
前記撮像画像から前記対象となる人物の所持物の種類または有無を推定する所持物情報取得手段と、
前記対象人物画像の特徴ベクトルを算出し、前記記録部に記録された同定対象である複数人の人物画像の特徴ベクトルと比較するとともに、前記対象となる人物の所持物の種類または有無と前記記録部に記録された各人物の所持物の種類または有無とに基づいて、当該対象人物画像の人物を同定する同定手段と、
を備えた人物同定装置。
【請求項13】
人物同定装置をコンピュータによって実現するための人物同定プログラムであって、コンピュータを、
撮像画像から対象となる人物の対象人物画像を抽出して取得する対象人物画像取得手段と、
前記撮像画像から前記対象となる人物の所持物の種類または有無を推定する所持物情報取得手段と、
前記対象人物画像の特徴ベクトルを算出し、前記記録部に記録された同定対象である複数人の人物画像の特徴ベクトルと比較するとともに、前記対象となる人物の所持物の種類または有無と前記記録部に記録された各人物の所持物の種類または有無とに基づいて、当該対象人物画像の人物を同定する同定手段として機能させるための人物同定プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
この発明は、人物の同定を行うための装置に関するものである。
【背景技術】
【0002】
撮像された人物が、いずれの人であるかを同定する装置が提案されている。たとえば、特許文献1では、人物画像の特徴ベクトル(特徴量)を算出し、当該特徴ベクトルの類似度に基づいて人物を同定する装置が開示されている。
【0003】
これにより、人物同定を精度良く行うことができる。
【先行技術文献】
【特許文献】
【0004】
【特許文献1】特開2019-186955
【発明の概要】
【発明が解決しようとする課題】
【0005】
しかしながら、特許文献1の装置では、単純に人物画像の特徴ベクトルを用いているだけであるから、異なる状況(夕焼けなど光の度合いが異なる状況など)や異なるカメラにて撮像した同一人物を、同じ人物であると判定する精度が高くなかった。
【0006】
また、人物画像の特徴ベクトルのみに基づいて同定を行っているため、同定精度向上に限界があった。
【0007】
この発明は、上記のような問題点に鑑みて、異なる状況や異なるカメラにて撮像した人物の同定精度を向上することのできる人物同定装置あるいはさらなる同定精度向上を図った人物同定装置を提供することを目的とする。
【課題を解決するための手段】
【0008】
この発明の独立して、あるいは組み合わせて適用可能な特徴を以下に列挙する。
【0009】
(1)(2)この発明に係る人物同定装置は、同定対象である複数人の人物画像の特徴ベクトルを記録する記録部と、対象となる人物の対象人物画像を取得する対象人物画像取得手段と、対象人物画像の画像的特徴を取得する特徴取得手段と、前記画像的特徴に基づいて、同定手段における同定精度を向上させるためには、前記対象人物画像の色空間における少なくとも一要素を変化させた方がよいかどうかを決定する変化決定手段と、前記変化決定手段の決定に基づいて、前記対象人物画像を変化させ、または変化させずに同定用対象人物画像を得る同定用画像決定手段と、当該同定用対象人物画像の特徴ベクトルを算出し、前記記録部に記録された同定対象である複数人の人物画像の特徴ベクトルと比較して、当該同定用対象人物画像の人物を同定する同定手段とを備えている。
【0010】
対象人物画像の色空間における少なくとも一要素を変化させることが同定精度を向上するかどうかを判断し、同定精度が向上する場合には前記要素を変化させているので、異なる状況において撮像された対象人物画像であっても精度良く人物を同定することができる。
【0011】
(3)この発明に係る人物同定装置は、記録部には、同一人物の人物画像の特徴ベクトルが類似し、異なる人物の人物画像の特徴ベクトルがが類似しないように、人物画像の特徴ベクトルを算出するように学習された学習済の深層距離学習モデルに、同定対象である複数人の人物画像を与えて、算出された特徴ベクトルが記録されていることを特徴としている。
【0012】
したがって、同定対象となる人物画像が少ない場合であっても、適切な人物DBを構築することができる。
【0013】
(4)この発明に係る人物同定装置は、色空間における要素が、CIELAB色空間におけるLの少なくともいずれかを含むことを特徴としている。
【0014】
したがって、これらによる画質変化を行って同定精度を向上することができる。
【0015】
(5)この発明に係る人物同定装置は、色空間における要素が、平均明度を画像サイズで除したもの、あるいはCIELAB色空間における平均bに鮮明度を乗じ、平均aで除したものであることを特徴としている。
【0016】
したがって、これらによる画質変化を行って同定精度を向上することができる。
【0017】
(6)この発明に係る人物同定装置は、画像的特徴が、人物画像の少なくも平均明度、平均a、aの中央値、平均b、bの中央値、ピクセル数、鮮明度のいずれかを含むことを特徴としている。
【0018】
したがって、これら特徴に基づいて、同定精度向上のために画質変化を行うべきか否かを推定することができる。
【0019】
(7)この発明に係る人物同定装置は、変化決定手段は、所定の複数の画像的特徴を有する複数の対象人物画像の色空間における一要素をを変化させた時に、前記同定手段による同定精度が向上するか否かをプロットした前記複数の画像的特徴多次元空間上に、前記対象人物画像の複数の画像的特徴をプロットし、前記色空間における一要素を変化させるか否かを決定することを特徴としている。
【0020】
したがって、これら特徴に基づいて、同定精度向上のために画質変化を行うべきか否かを推定することができる。
【0021】
(8)この発明に係る人物同定装置は、人物画像が背景を含んでおり、画像的特徴は、前記背景も含めた画像的特徴であることを特徴としている。
【0022】
したがって、背景も含めた画像的特徴により、画質変化を行うか否かを判定することができる。
【0023】
(9)この発明に係る人物同定装置は、異なる位置に設置されたカメラにて撮像した人物画像について、前記人物同定を行って、異なる位置における人物の移動を追跡することを特徴としている。
【0024】
したがって、同定結果に基づいて人物追跡を行うことができる。
【0025】
(10)(11)この発明に係る人物同定装置は、記録部には、各人物の所持物の種類も記録されており、対象人物画像取得手段は、撮像画像から対象となる人物の対象人物画像を抽出して取得するものであり、撮像画像から前記対象となる人物の所持物の種類または有無を推定する所持物情報取得手段をさらに備え、同定手段は、前記人物の所持物の種類または有無も考慮して当該対象人物画像の人物を同定するものであることを特徴としている。
【0026】
したがって、さらに同定精度を向上させることができる。
【0027】
(12)(13)この発明に係る人物同定装置は、同定対象である複数人の人物画像の特徴ベクトルおよび各人物の所持物の種類を記録する記録部と、撮像画像から対象となる人物の対象人物画像を抽出して取得する対象人物画像取得手段と、前記撮像画像から前記対象となる人物の所持物の種類または有無を推定する所持物情報取得手段と、前記対象人物画像の特徴ベクトルを算出し、前記記録部に記録された同定対象である複数人の人物画像の特徴ベクトルと比較するとともに、前記対象となる人物の所持物の種類または有無と前記記録部に記録された各人物の所持物の種類または有無とに基づいて、当該対象人物画像の人物を同定する同定手段とを備えている。
【0028】
所持物情報も加味して人物同定を行うので、同定精度を向上させることができる。
【0029】
「対象人物画像取得手段」は、実施形態においては、ステップS2がこれに対応する。
【0030】
「特徴取得手段」は、実施形態においては、ステップS4がこれに対応する。
【0031】
「変化決定手段」は、実施形態においては、ステップS5がこれに対応する。
【0032】
「同定用画像決定手段」は、実施形態においては、ステップS6、S7、S8がこれに対応する。
【0033】
「同定手段」は、実施形態においては、ステップS9、S10がこれに対応する。
【0034】
「所持物情報取得手段」は、実施形態においては、ステップS20がこれに対応する。
【0035】
「装置」とは、1台のコンピュータによって構成されるものだけでなく、ネットワークなどを介して接続された複数のコンピュータによって構成されるものも含む概念である。したがって、本発明の手段(あるいは手段の一部でもよい)が複数のコンピュータに分散されている場合、これら複数のコンピュータが装置に該当する。
【0036】
「プログラム」とは、CPUにより直接実行可能なプログラムだけでなく、ソース形式のプログラム、圧縮処理がされたプログラム、暗号化されたプログラム、オペレーティングシステムと協働してその機能を発揮するプログラム等を含む概念である。
【図面の簡単な説明】
【0037】
図1】この発明の一実施形態による人物同定装置の機能構成である。
図2】人物同定装置のハードウエア構成である。
図3】学習済の深層距離学習モデルFlipReIDを説明するための図である。
図4】人物DB38に登録するための人物画像である。
図5A】人物DB38に記録された特徴量ベクトルである。
図5B】人物DB38に記録された特徴量ベクトルである。
図6】人物同定プログラム36のフローチャートである。
図7図7Aは撮像画像、図7BはYOLOによる人物抽出を示す図である。
図8図8Aは対象人物画像、図8Bはaを低下させた画像である。
図9】事前分析用の人物画像について、aを低下した場合、しなかった場合の精度向上の有無に基づくグループ分けを表す図である。
図10】グループ2、3の人物画像を、画像的特徴によって多次元空間にプロットした状態を示す図である。
図11】事前分析におけるkを変化させたときの合致数を示す図である。
図12】第二の実施形態による人物同定装置の機能構成である。
図13】人物DB38を示す図である。
図14】人物同定プログラム36のフローチャートである。
図15】撮像画像における人物認識、所持物認識の状態を示す図である。
【発明を実施するための形態】
【0038】
1.第一の実施形態
1.1機能構成
図1に、この発明の一実施形態による人物同定装置の機能構成図を示す。記録部12には、同定対象である複数の人物の人物画像の特徴ベクトル14が予め記録されている。
【0039】
対象人物画像取得手段2は、対象人物画像を取得する。特徴取得手段4は、当該対象人物画像の画像的特徴を解析して取得する。変化決定手段8は、当該画像的特徴に基づいて、同定手段10における同定精度を向上させるためには、前記対象人物画像の色空間における少なくとも一要素を変化させた方がよいかどうかを決定する。
【0040】
同定用画像決定手段6は、変化決定手段8が変化をさせると判断した場合には、前記対象人物画像の色空間における少なくとも一要素を変化させて、同定用対象人物画像を生成する。また、変化決定手段8が変化をさせないと判断した場合には、前記対象人物画像を変化させずそのまま同定用対象人物画像とする。
【0041】
同定手段10は、前記同定用対象人物画像の特徴ベクトルを算出し、記録部に記録された同定対象である複数人の人物画像の特徴ベクトルと比較して、当該同定用対象人物画像の人物を同定する。
【0042】
この実施形態では、対象人物画像の色空間における少なくとも一要素を変化させることが同定精度を向上するかどうかを判断し、同定精度が向上する場合には前記要素を変化させているので、異なる状況において撮像された対象人物画像であっても精度良く人物を同定することができる。
【0043】
1.2ハードウエア構成
図2に、人物同定装置のハードウエア構成を示す。CPU20には、メモリ22、ディスプレイ24、SSD26、DVD-ROM28、キーボード/マウス30、通信回路32が接続されている。
【0044】
通信回路32は、インターネットに接続するための回路である。この例では、インターネットを介して、建物内や屋外に設置したカメラ42が接続されている。CPU20は、通信回路32により、インターネットを介してカメラ42によって撮像された画像を取得することができる。
【0045】
SSD26には、オペレーティングシステム34、人物同定プログラム36、人物DB38が記録されている。人物同定プログラム36は、オペレーティングシステム34と協働してその機能を発揮するものである。これらプログラムは、DVD-ROM40に記録されていたものを、DVD-ROMドライブ28を介して、SSD26にインストールしたものである。
【0046】
人物DB38は、同定対象である複数の人物の人物画像の特徴ベクトルを予め登録したものである。人物同定プログラム36は、カメラ42から取得した対象人物画像の特徴ベクトルを算出して、人物DB38の特徴ベクトルと比較し、いずれの人物であるかを特定する。
【0047】
1.3人物同定処理
以下、人物同定装置による人物同定処理について説明する。この実施形態では、複数の人物を予め人物DBに登録しておき、対象人物画像に写された人物が、予め登録されたいずれの人物であるかを判断するようにしている。
【0048】
したがって、この実施形態では、予め、SSD26に人物DB38を記録する必要がある。まず、この人物DB38について説明する。
【0049】
(1)人物DB38
人物DB38は、同定対象である既知の複数人物についての人物画像の特徴ベクトルを多数登録したものである。人物同定の際には、未知の人物画像の特徴ベクトルを算出し、人物DB38に登録されたいずれの人物の特徴ベクトルと近いかを判定して、人物を同定するために用いられる。
【0050】
この実施形態では、人物DB38を構築するために、多数の人物(上記同定対象である人物とは別の人物)の画像(各人ごとに複数アングル・姿態の画像を含む)の複数の特徴量が、異なる人物の画像については近似しないように、同一人物の画像については近似するように、学習された深層距離学習モデルを用いている。たとえば、FlipReIDを用いることができる。
【0051】
同一人物の画像であったとしても、正面、背面、側面などのアングルの違いや、姿態(頭を上げている、下げているなど)の違いにより、画像から抽出した特徴量(エッジ等)が異なったものとなる。深層距離学習では、複数の特徴量によって表される特徴ベクトルが、同一人については近似し、異なる人については近似しないように学習している。
【0052】
これを模式化して示したのが、図3である。複数の特徴量によって表される特徴ベクトルを、前記特徴量による多次元空間上(図3では説明を簡素化するため二次元空間としている)に配置したときに、人物α(人物β)の特徴ベクトル同士は近づくように、特徴量抽出を学習している。
【0053】
したがって、このように学習された深層距離学習モデルFlipReIDに、図4に示すような、同定対象である既知の複数人物の人物画像を与えると、人物ごとに、近似する特徴ベクトルを出力することになる。この各画像の特徴ベクトルを、人物に対応付けて記録したのが、人物DB38である。図5Aに、人物DB38の例を示す。これを多次元空間上(図では二次元空間としている)にプロットしたものを、図5Bに示す。
【0054】
(2)人物同定処理
図6に、人物同定プログラム36のフローチャートを示す。CPU20は、カメラ42の撮像画像を取得する(ステップS1)。なお、カメラ42からの撮像画像の取得は、その都度行っても良いが、全てのカメラ42の撮像画像をまとめて取得し、SSD26に一旦記録し、SSD26から順次読み出すようにしてもよい。ここでは、図7Aに示すような撮像画像を取得したものとして説明を行う。
【0055】
CPU20は、この撮像画像から人物を抽出し、これをバウンダリボックスBXにて囲う(ステップS2)。バウンダリボックスBXで囲った部分を、対象人物画像として取り出す。図8Aに、取り出した人物画像の一例を示す。
【0056】
なお、撮像画像からの人物の抽出には、人物を含めた様々な物体を抽出するように学習された深層学習モデルを用いることができる。たとえば、YOLOのアルゴリズムを持つ深層学習モデルを、多種類・多数の物体の画像によって学習したものを用いることができる。この場合の学習データは、撮像画像と、当該撮像画像に写されている対象物(例えば人物)を囲うバウンダリボックスの座標値(撮像画像中の座標位置)に対象物の種類(例えば人物)を付したものを正解データとして用いる。
【0057】
次に、CPU20は、抽出した人物画像をそのまま用いて同定を行うか、抽出した人物画像の画質を変更してから同定を行うかを決定する。
【0058】
ここでは、まず、抽出した人物画像をそのまま用いて同定を行う処理について説明する。
【0059】
CPU20は、抽出した人物画像(対象人物画像)を、前記人物DB38の生成時に用いた学習済深層距離学習モデルFlipReIDに与え、特徴ベクトルを算出する(ステップS9)。CPU20は、この人物画像の特徴ベクトルと最も近接する特徴ベクトルを人物DB38(図5参照)から見いだす。すなわち、図5bに示すように、複数の特徴量によって構成される多次元空間において、対象人物画像の特徴ベクトルUに最も近接した特徴ベクトルを人物DB38から見いだす。図5bの例であれば、特徴ベクトルUに最も近いのは、人物2の特徴ベクトルV2.1であるから、対象人物画像に写っている人物は人物2であると同定する。
【0060】
このように、対象人物画像に写し出されている人物は、人物DB38において、当該特徴ベクトルに対応付けられた人物であると同定することができる(ステップS10)。
【0061】
以上のようにして、CPU20は、人物DB38を参照して、人物の同定を行っている。
【0062】
なお、前述のように、CPU20は、人物の同定を行う前に、抽出した人物画像(対象人物画像)をそのまま用いて同定を行うか、抽出した人物画像(対象人物画像)の画質を変更(色空間における要素を変更)してから同定を行うかを決定している。CPU20は、この決定処理を、対象人物画像の画像的特徴に基づいて行っている。以下その処理を説明する。
【0063】
まず、CPU20は、対象人物画像(図8A)の画像的特徴を算出する(ステップS4)。この実施形態では、人物画像の平均明度、明度の中央値、平均a、aの中央値、平均b、bの中央値、画像の横幅、画像の縦幅、鮮明度の9個の画像的特徴を算出するようにしている。
【0064】
平均明度は、各画素の明度の画像全体の平均値である。明度の中央値は、各画素の明度の画像全体における中央値である。平均aは、各画素のCIELAB色空間におけるaを画像全体で平均したものである。aの中央値は、各画素のaの画像全体における中央値である。平均bは、各画素のCIELAB色空間におけるbを画像全体で平均したものである。bの中央値は、各画素のbの画像全体における中央値である。画像の横幅は、画像の横方向の画素数である。画像の縦幅は、画像の縦方向の画素数である。鮮明度は、画像をグレースケール化し、これにラプラシアンフィルタを適用して、画素値の分散を算出したものである。分散が大きければ、エッジ部分が多く表れており、鮮明であるといえる。
【0065】
続いて、CPU20は、人物画像をそのまま用いて特徴ベクトルを算出し、人物DB38を参照して同定を行うのがよいか、人物画像のaを全体的に低下(この例では10%低下)させた画像(画質を変更させた画像)にて特徴ベクトルを算出し、人物DB38を参照して同定を行うのがよいかを決定する(ステップS5)。
【0066】
この決定は、次のようにして予め用意しておいたデータに基づいて、K近傍法(k-nearest neighbor algorithm, k-nn)を用いて行う。
【0067】
まず、複数の事前分析用人物の人物画像(上記人物DB38に登録した人物とは別の人物の画像)を用意する。この複数の人物画像を、学習済深層距離学習モデルFlipReIDに与え、事前分析用人物についての人物DBを生成する。
【0068】
次に、事前分析用人物の対象人物画像(上記登録用の画像とはアングルや姿態の異なる画像)を多数用意し、学習済深層距離学習モデルFlipReIDに与えて特徴ベクトルを算出し、人物DBを参照して人物の同定を行う。なお、ここで、事前分析用人物は、いずれも既知の人物であるから、この同定結果が正しいものであるか否かを判定することができる。すなわち、同定に成功した人物画像と、同定に失敗した人物画像に分けることができる。
【0069】
続いて、事前分析用の対象人物画像について、aを全体的に低下(この例では10%低下)させて(画質を変化させて)、同定用人物画像を得る。この同定用人物画像を、学習済深層距離学習モデルFlipReIDに与えて特徴ベクトルを算出し、人物DBを参照して人物の同定を行う。この場合も、同定に成功した同定用人物画像と、同定に失敗した同定用人物画像に分けることができる。
【0070】
したがって、aを変更しなかった人物画像と、aを低下させた人物画像について、成功・失敗を表にすると、図9のように4つのグループに分類されることになる。
【0071】
この実施形態では、aを低下することが同定精度向上のために好ましくないと判断されるグループ2の人物画像と、aを低下することが同定精度向上のために好ましいと判断されるグループ3の人物画像とを用いて、それぞれの画像的特徴(人物画像の平均明度、明度の中央値、平均a、aの中央値、平均b、bの中央値、画像の横幅、画像の縦幅、鮮明度)を算出する。
【0072】
そして、これらの画像的特徴を軸とする多次元空間上に、グループ2とグループ3の各人物画像を配置する。図10Aに、配置した状態を示す。なお、この例では、画像的特徴が9個あるので9次元空間における配置となるが、図10Aでは、簡単のために2次元空間にて表示している。
【0073】
図10Aは、画像的特徴によって、aを低下すべきか、低下すべきでないかをプロットしたものとなっている。したがって、ステップS4において算出した、人物が未知である人物画像(図8A)の画像的特徴が、いずれのグループに近いかを検討すれば、aを低下すべきか、低下すべきでないかを決定できる。
【0074】
この実施形態では、k=3とし、K-nn法を用いて決定している。図10Bに、人物が未知である人物画像の画像的特徴のプロットTを示す。k=3であるから、Tに近いものから3つのプロットを選択する。選択されたプロットは、グループ2(aを低下すべきでない)が2つ、グループ3(aを低下すべき)が1つであるから、多数決により、aを低下すべきでないと決定することができる。
【0075】
なお、この実施形態では、kを奇数としたが、kが偶数の場合には、多数決で決まらない場合がある。その場合には、プロットTに最も近いプロットがいずれのグループに属するかによって決定すると良い。
【0076】
以上のようにして、CPU20は、ステップS5において、aを低下すべきか、aを低下すべきでないかを決定する。
【0077】
次に、CPU20は、aを低下すべきでないと判断した場合には、ステップS2で抽出した人物画像(図8A)を、そのまま同定用人物画像とする(ステップS7)。また、CPU20は、aを低下すべきと判断した場合には、ステップS2で抽出した人物画像(図8A)について、全体的にaを低下させ、これを同定用人物画像とする(ステップS8)。aを低下して得られた同定用人物画像を図8Bに示す。白黒画像では判別しにくいが、少し青みがかった色調となっている。
【0078】
次に、CPU20は、同定用人物画像を前記人物DB38の生成時に用いた学習済深層距離学習モデルFlipReIDに与え、特徴ベクトルを算出する(ステップS9)。CPU20は、この人物画像の特徴ベクトルと最も近接する特徴ベクトルを人物DB38(図5参照)から見いだす。すなわち、図5Bに示すように、複数の特徴量によって構成される多次元空間において、対象人物画像の特徴ベクトルに最も近接した特徴ベクトルを人物DB38から見いだす(ステップS10)。このようにして人物を同定する。
【0079】
この実施形態では、aを低下しないで同定用人物画像を生成した方が同定精度が向上するか、aを低下させて同定用人物画像を生成した方が同定精度が向上するかを、対象人物画像の画像的特徴に基づいて決定するようにしている。したがって、対象人物画像の画像的特徴に基づいて、画質を変更し、同定精度を向上させることができる。
【0080】
CPU20は、上記のステップS4~S10の処理を、ステップS1にて取得した撮像画像に写し出された人物の数だけ繰り返す(ステップS3、S11)。
【0081】
撮像画像から抽出した人物画像の全てについて人物を同定すると、CPU20は、追跡処理(ステップS12)を行う。すなわち、近傍の他のカメラで近接した時刻に撮像された撮像画像における人物同定結果を考慮して、当該同定した人物がどの位置に移動したかを判断する。
【0082】
続いて、CPU20は、他のカメラ42からの撮像画像を取得し、ステップS2以下を繰り返し実行する。このようにして、全てのカメラ42からの撮像画像について処理を終了すると、再び、最初のカメラ42からの撮像画像を取得する処理に戻って、処理を繰り返す。
【0083】
このようにして、各カメラ42において、各時刻に撮像された撮像画像につき、人物同定を行うことができる。
【0084】
(3)K-nn法におけるkの決定
上記のステップS5(aを低下させるか否かの判定)では、k=3として説明をした。このkの値は、以下のようにして決定することが好ましい。
【0085】
事前分析用の既知の人物画像を用いて、aを低下させた場合と、aを低下させない場合で、同定精度が変わるかどうかを調べたのが、図9である(この点を既に述べた)。このグループ2(aを低下すべきでない)とグループ3(aを低下すべき)について、その画像的特徴(人物画像の平均明度、明度の中央値、平均a、aの中央値、平均b、bの中央値、画像の横幅、画像の縦幅、鮮明度)に基づいて、多次元区間上(図では二次元空間としている)にプロットしたのが、図10Aである。
【0086】
前述のように、未知の人物の対象人物画像の画像的特徴Tを、この多次元空間上にプロットし(図10B参照)、近接する3つのプロットが(k=3)、いずれのグループに属するかを判定し、多数決にてaを低下すべきかどうかを決定している。
【0087】
ここで、kの値をいくらにするのが妥当であるかという問題が生じる。この実施形態では、以下のようにして、kの値を決定している。
【0088】
まず、人物が既知である別の事前分析用人物画像を多数用意し、それぞれについて、そのままの人物画像と、aを低下させた人物画像を用いて、学習済深層距離学習モデルFlipReIDに与えて特徴ベクトルを算出し、人物DBを参照して人物の同定を行う。
【0089】
その結果、これらの人物画像は、図9のようにグループ分けされる。これらのうち、グループ2、3に属する人物画像のみを抽出する。グループ2、3に属する人物画像は、aを低下させた方がよいか否かが分かっている。
【0090】
そこで、各人物画像について、画像的特徴を算出し、図10BのようにプロットTとして多次元空間上に配置する。まず、k=1として、上記予め判明しているaを低下させた方がよいか否かに、合致するかどうかを判断する。続いて、k=2、k=3・・・として、この処理を繰り返す。
【0091】
図11に、その結果例を示す。この例では、20個の人物画像についてkを変化させたときに、合致した数を記録したものである。k=3の時が最も合致数が高いので、これを選択する。
【0092】
以上のようにして、kの値を決めているので、カメラ42や撮像状況などによって、最適なkの値は変わる可能性がある。
【0093】
1.4変形例(その他)
(1)上記実施形態では、カメラ42は、インターネットを介して人物同定装置に接続されている。しかし、LANや専用回線にて接続するようにしてもよい。また、カメラ42にて記録した撮像画像を、可搬性記録媒体に記録し、人物同定装置において読み込むようにしてもよい。
【0094】
(2)上記実施形態では、人物同定装置に人物DB38が記録されている。しかし、インターネットやLANなどのネットワークにて接続された他の装置に人物DB38を記録するようにしてもよい。
【0095】
(3)上記実施形態では、物体認識のためにYOLOアルゴリズムによる学習済深層学習モデルを用いている。しかし、他の物体認識のアルゴリズム、たとえばYOLACTを用いるようにしてもよい。
【0096】
YOLOでは、図8Aに示すように対象人物画像に背景画像も含まれ、背景画像も含めて特徴ベクトルや画像的特徴を算出することになる。YOLACTでは、矩形ではなく抽出した人の外形に沿ったバウンダリーボックスを用いることができるので、背景のない人物画像を対象として、特徴ベクトルや画像的特徴を算出することができる。
【0097】
(4)上記実施形態では、画像的特徴として、人物画像の平均明度、明度の中央値、平均a、aの中央値、平均b、bの中央値、画像の横幅、画像の縦幅、鮮明度を用いている。しかし、これらの任意の組み合わせによる画像的特徴を用いるようにしてもよい。
【0098】
たとえば、平均明度÷画像サイズを画像的特徴として用いてもよい。この場合、小さくて明るいかどうかが特徴となる。また、(平均b×鮮明度)÷平均aを画像的特徴として用いてもよい。この場合、鮮明で緑色がかっているかどうかが特徴となる。
【0099】
なお、少なくとも、画質変更を行う特徴(上記ではa)に関する画像的特徴(上記では平均a、aの中央値)を用いることが好ましい。
【0100】
(5)上記実施形態では、aを所定割合低下させることで画質変更を行うようにしている。しかし、aを所定割合増加させるようにしてもよい。また、bやLを変化させるようにしてもよい。さらに、これらの複数を変化させるようにしてもよい。また、R、G、Bなどを変化させるようにしてもよい。
【0101】
(6)上記実施形態では、ステップS9において、最も近接する特徴ベクトルの人物を同定対象として選択するようにしている。しかし、近接する複数の特徴ベクトルを抽出し、いずれの人物の物が多いか(同数の場合には最も近い特徴ベクトルを有する人物として同定する)によって同定を行うようにしてもよい。
【0102】
(7)上記実施形態では、人物同定装置をスタンドアローンのPCとして構築している。しかし、サーバ装置として構築するようにしてもよい。この場合には、同定結果を、端末装置など他の装置に送信することになる。
【0103】
(8)上記実施形態では、学習済の深層距離学習モデルFlipReIDに、同定対象である人物画像を与えて特徴ベクトルを算出し、これを人物DB38として登録するようにしている。しかし、未学習の深層距離学習モデルを、同定対象である人物画像によって学習し、これに同定対象である人物画像を与えて特徴ベクトルを算出し、これを人物DB38として登録するようにしてもよい。
【0104】
(9)上記変形例は、互いに組み合わせて実施可能である。また、他の実施形態とも組み合わせて実施可能である。
【0105】
2.第二の実施形態
2.1全体的構成
図12に、第二の実施形態による人物同定装置の機能構成を示す。対象人物画像取得手段2は、撮像画像から人物画像を抽出する。抽出された対象人物画像は、特徴取得手段4に与えられ、特徴ベクトルが算出される。
【0106】
所持物情報取得手段18は、撮像画像から所持物を抽出し、所持物の有無または所持物の種類を推定する。
【0107】
人物DB12には、同定対象である人物の各画像の特徴ベクトル14が記録されている。また、登録の際の画像に所持物が写っている場合には、当該所持物の種類も対応付けて記録されている。
【0108】
同定手段10は、対象人物画像の特徴ベクトルと、所持物情報とに基づいて、人物DB12を参照し、人物の同定を行う。
【0109】
この実施形態では、所持物情報も加味して同定を行うようにしているので、同定精度を向上することができる。
【0110】
2.2ハードウエア構成
ハードウエア構成は、第一の実施形態における図2と同じである。
【0111】
2.3人物同定処理
(1)人物DB38
人物DB38は、第一の実施形態と同様の構成である。ただし、同定対象の人物画像の特徴ベクトルを登録する際に、同人が所持物を有しているかどうかをYOLOにて判断し、有していれば、YOLOにて特定した所持物の種類を併せて登録するようにしている。
【0112】
このようにして生成された人物DB38の例を、図13に示す。登録のための画像に同人の所持物が写されていれば、「かばん」「リュック」などの所持物の種類が併せて記録されている。
【0113】
(2)人物同定処理
図14に、人物同定プログラム36のフローチャートを示す。CPU20は、カメラ42から撮像画像を取得する(ステップS1)。さらに、YOLOによりこの撮像画像から人物画像を抽出する(ステップS2)。また、YOLOによって当該人物の所持物の種類を推定する(ステップS20)。
【0114】
図15に、人物画像の抽出状態と、所持物の抽出状態を示す。YOLOでは、抽出したバウンダリーボックスに、その種類を示すラベル(人、かばん、リュック、手提げなど)を付すので、人物画像であるか、所持物であるかを判別することができる。また、所持物についてその種類を推定することができる。
【0115】
なお、人物のバウンダリーボックスと最も重なりの大きいバウンダリーボックスを有する所持物を、当該人物の所持物であると判断するようにしている。
【0116】
CPU20は、抽出した人物画像の特徴ベクトルを算出する(ステップS9)。この特徴ベクトルに基づいて、人物DB38を参照して同定を行う点は、第一の実施形態と同様である(ステップS10)。
【0117】
ただし、この実施形態では、対象人物が所持物を有していれば、当該所持物の種類と同じものが記録されている登録データを、人物DB38から選択する。たとえば、対象人物が「かばん」を持っている場合、図13の人物DB38のデータ中から、所持物として「かばん」が記録されているデータのみを選択する。
【0118】
CPU20は、選択されたデータの中から、特徴ベクトルの最も違い人物を選択し、人物を同定する。
【0119】
このように、この実施形態では、所持物の種類を加味して同定を行うようにしているので、同定精度が向上する。
【0120】
1.4変形例(その他)
(1)上記実施形態では、対象人物の所持物の種類によって人物DB38のデータを選択するようにしている。しかし、所持物の種類を問わず、所持物の有無によって人物DB38のデータを選択するようにしてもよい。
【0121】
(2)上記実施形態による所持物を考慮した同定方法は、第一の実施形態と組み合わせて実施可能である。
【0122】
(3)上記変形例は、互いに組み合わせて実施可能である。また、他の実施形態とも組み合わせて実施可能である。



図1
図2
図3
図4
図5A
図5B
図6
図7
図8
図9
図10
図11
図12
図13
図14
図15