IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 公立大学法人岩手県立大学の特許一覧

特開2025-29536個体識別システム、モデル学習システム、個体識別方法、モデル学習方法、プログラム
<>
  • 特開-個体識別システム、モデル学習システム、個体識別方法、モデル学習方法、プログラム 図1
  • 特開-個体識別システム、モデル学習システム、個体識別方法、モデル学習方法、プログラム 図2
  • 特開-個体識別システム、モデル学習システム、個体識別方法、モデル学習方法、プログラム 図3
  • 特開-個体識別システム、モデル学習システム、個体識別方法、モデル学習方法、プログラム 図4
  • 特開-個体識別システム、モデル学習システム、個体識別方法、モデル学習方法、プログラム 図5
  • 特開-個体識別システム、モデル学習システム、個体識別方法、モデル学習方法、プログラム 図6
  • 特開-個体識別システム、モデル学習システム、個体識別方法、モデル学習方法、プログラム 図7
  • 特開-個体識別システム、モデル学習システム、個体識別方法、モデル学習方法、プログラム 図8
  • 特開-個体識別システム、モデル学習システム、個体識別方法、モデル学習方法、プログラム 図9
  • 特開-個体識別システム、モデル学習システム、個体識別方法、モデル学習方法、プログラム 図10
  • 特開-個体識別システム、モデル学習システム、個体識別方法、モデル学習方法、プログラム 図11
  • 特開-個体識別システム、モデル学習システム、個体識別方法、モデル学習方法、プログラム 図12
  • 特開-個体識別システム、モデル学習システム、個体識別方法、モデル学習方法、プログラム 図13
  • 特開-個体識別システム、モデル学習システム、個体識別方法、モデル学習方法、プログラム 図14
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2025029536
(43)【公開日】2025-03-06
(54)【発明の名称】個体識別システム、モデル学習システム、個体識別方法、モデル学習方法、プログラム
(51)【国際特許分類】
   G06T 7/00 20170101AFI20250227BHJP
   G06V 20/52 20220101ALI20250227BHJP
   H04N 7/18 20060101ALI20250227BHJP
【FI】
G06T7/00 660B
G06V20/52
H04N7/18 K
【審査請求】未請求
【請求項の数】16
【出願形態】OL
(21)【出願番号】P 2023134272
(22)【出願日】2023-08-21
(71)【出願人】
【識別番号】507234427
【氏名又は名称】公立大学法人岩手県立大学
(74)【代理人】
【識別番号】100108833
【弁理士】
【氏名又は名称】早川 裕司
(74)【代理人】
【識別番号】100162156
【弁理士】
【氏名又は名称】村雨 圭介
(72)【発明者】
【氏名】工藤 諒太
(72)【発明者】
【氏名】堀川 三好
【テーマコード(参考)】
5C054
5L096
【Fターム(参考)】
5C054CA04
5C054CA05
5C054CC02
5C054FC12
5C054HA19
5L096CA02
5L096FA66
5L096FA67
5L096FA69
5L096KA04
(57)【要約】
【課題】個体識別を容易に行うことの可能な個体識別システム、モデル学習システム、個体識別方法、モデル学習方法、プログラムを提供する。
【解決手段】個体識別システムは、撮像装置によって撮像された個体の画像を取得する第1取得手段41と、取得した画像に基づいて、個体の少なくとも1つの部位を検出する検出手段43と、検出された個体の少なくとも1つの部位の各々に関する情報と、個体の画像内の個体の少なくとも1つの部位の各々に関する情報を学習データとして用いた機械学習に基づく学習済モデルと、に基づいて、個体を識別する識別手段45と、を備える。
【選択図】図3
【特許請求の範囲】
【請求項1】
撮像装置によって撮像された個体の画像を取得する第1取得手段と、
取得した画像に基づいて、前記個体の少なくとも1つの部位を検出する検出手段と、
検出された前記個体の少なくとも1つの部位の各々に関する情報と、前記個体の画像内の前記個体の少なくとも1つの部位の各々に関する情報を学習データとして用いた機械学習に基づく学習済モデルと、に基づいて、前記個体を識別する識別手段と、
を備える個体識別システム。
【請求項2】
計測装置によって計測された前記個体の状態に関する情報を取得する第2取得手段を備え、
前記識別手段は、検出された前記個体の少なくとも1つの部位の各々に関する情報と、前記個体の状態に関する情報と、前記個体の画像内の前記個体の少なくとも1つの部位の各々に関する情報及び前記個体の状態に関する情報を学習データとして用いた機械学習に基づく学習済モデルと、に基づいて、前記個体を識別する、請求項1に記載の個体識別システム。
【請求項3】
前記識別手段は、検出された前記個体の少なくとも1つの部位の各々に関する情報の所定期間内の推移と、前記個体の状態に関する情報の前記所定期間内の推移と、前記学習済モデルと、に基づいて、前記個体を識別する、請求項2に記載の個体識別システム。
【請求項4】
前記識別手段は、検出された前記個体の少なくとも1つの部位の各々の前記取得した画像内の座標と、前記個体の画像内の前記個体の少なくとも1つの部位の各々の座標を学習データとして用いた機械学習に基づく学習済モデルと、に基づいて、前記個体を識別する、請求項1に記載の個体識別システム。
【請求項5】
前記取得した画像における前記個体の深度に基づいて、検出された前記個体の少なくとも1つの部位の各々の前記取得した画像内の座標を変換する変換手段を備え、
前記識別手段は、変換された前記少なくとも1つの部位の各々の座標と、前記学習済モデルと、に基づいて、前記個体を識別する、請求項4に記載の個体識別システム。
【請求項6】
前記変換手段は、MiDaSを用いて推定された前記個体の深度に基づいて、検出された前記個体の少なくとも1つの部位の各々の前記取得した画像内の座標を変換する、請求項5に記載の個体識別システム。
【請求項7】
事前に計測された前記個体の少なくとも2つの部位間の距離に基づいて、検出された前記個体の少なくとも1つの部位の各々の前記取得した画像内の座標を変換する変換手段を備え、
前記識別手段は、変換された前記少なくとも1つの部位の各々の座標と、前記学習済モデルと、に基づいて、前記個体を識別する、請求項4に記載の個体識別システム。
【請求項8】
前記変換手段は、事前に計測された前記個体の首部分と腰部分との距離に基づいて、検出された前記個体の少なくとも1つの部位の各々の前記取得した画像内の座標を変換する、請求項7に記載の個体識別システム。
【請求項9】
前記検出手段は、前記個体の少なくとも1つの関節を、前記個体の少なくとも1つの部位として検出する、請求項1に記載の個体識別システム。
【請求項10】
前記個体の状態に関する情報は、前記個体の位置、回転数、角速度、角加速度、姿勢、加速度、速度及び温度のうち少なくとも1つを含む、請求項2に記載の個体識別システム。
【請求項11】
前記個体の状態が計測されるタイミングは、前記個体の画像が撮像されるタイミングと同じタイミングである、請求項2に記載の個体識別システム。
【請求項12】
個体を撮像した画像内の前記個体の少なくとも1つの部位の各々に関する情報を取得する第1情報取得手段と、
取得した少なくとも1つの部位の各々に関する情報を学習データとして用いた機械学習によって、前記個体を識別するのに用いられるモデルを学習する学習手段と、
を備えるモデル学習システム。
【請求項13】
コンピュータが、
撮像装置によって撮像された個体の画像を取得するステップと、
取得した画像に基づいて、前記個体の少なくとも1つの部位を検出するステップと、
検出された前記個体の少なくとも1つの部位の各々に関する情報と、前記個体の画像内の前記個体の少なくとも1つの部位の各々に関する情報を学習データとして用いた機械学習に基づく学習済モデルと、に基づいて、前記個体を識別するステップと、
の各ステップを実行する、個体識別方法。
【請求項14】
コンピュータが、
個体を撮像した画像内の前記個体の少なくとも1つの部位の各々に関する情報を取得するステップと、
取得した少なくとも1つの部位の各々に関する情報を学習データとして用いた機械学習によって、前記個体を識別するのに用いられるモデルを学習するステップと、
の各ステップを実行する、モデル学習方法。
【請求項15】
コンピュータに、
撮像装置によって撮像された個体の画像を取得する機能と、
取得した画像に基づいて、前記個体の少なくとも1つの部位を検出する機能と、
検出された前記個体の少なくとも1つの部位の各々に関する情報と、前記個体の画像内の前記個体の少なくとも1つの部位の各々に関する情報を学習データとして用いた機械学習に基づく学習済モデルと、に基づいて、前記個体を識別する機能と、
を実現させるためのプログラム。
【請求項16】
コンピュータに、
個体を撮像した画像内の前記個体の少なくとも1つの部位の各々に関する情報を取得する機能と、
取得した少なくとも1つの部位の各々に関する情報を学習データとして用いた機械学習によって、前記個体を識別するのに用いられるモデルを学習する機能と、
を実現させるためのプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、個体識別システム、モデル学習システム、個体識別方法、モデル学習方法、プログラムに関する。
【背景技術】
【0002】
近年、例えば製造現場における作業者の動線分析や習熟度の可視化等のように、作業者(対象者)の行動を分析(推定)する技術の研究が進められている。ここで、複数の対象者の各々の行動分析を行うためには、複数の対象者の各々を識別するための個体識別を行う必要がある。そこで、複数の対象者の各々を識別するための個体識別システムが知られている(例えば、特許文献1)。
【0003】
特許文献1に記載された技術では、識別対象を示す識別情報が形成された衣類を当該識別対象に着用させ、当該識別対象を赤外線カメラで撮影して得られた画像に基づいて当該識別情報を検出することにより、識別対象を識別するようになっている。
【先行技術文献】
【特許文献】
【0004】
【特許文献1】特開2006-28658号公報
【発明の概要】
【発明が解決しようとする課題】
【0005】
特許文献1に記載された技術では、複数の対象者の各々の個体識別を行うために、識別情報が形成された特殊な衣類を複数の対象者毎に製造する必要があることから、個体識別を行うためのコストが嵩む虞があった。
【0006】
本発明は上記課題に鑑みてなされたものであり、個体識別を容易に行うことの可能な個体識別システム、モデル学習システム、個体識別方法、モデル学習方法、プログラムを提供することを目的とする。
【課題を解決するための手段】
【0007】
上記課題を解決するために、第一に本発明は、撮像装置によって撮像された個体の画像を取得する第1取得手段と、取得した画像に基づいて、前記個体の少なくとも1つの部位を検出する検出手段と、検出された前記個体の少なくとも1つの部位の各々に関する情報と、前記個体の画像内の前記個体の少なくとも1つの部位の各々に関する情報を学習データとして用いた機械学習に基づく学習済モデルと、に基づいて、前記個体を識別する識別手段と、を備える個体識別システムを提供する(発明1)。
【0008】
かかる発明(発明1)によれば、撮像装置によって撮像された個体の画像に基づいて検出された当該個体の少なくとも1つの部位の各々に関する情報と、学習済モデルと、に基づいて当該個体が識別されるので、撮像装置によって撮像された個体の画像を用いることによって当該個体を識別することが可能になる。これにより、例えば個体の識別情報が形成された衣服等を用いることなく個体識別を行うことが可能になるので、個体識別を容易に行うことができる。
【0009】
上記発明(発明1)においては、計測装置によって計測された前記個体の状態に関する情報を取得する第2取得手段を備え、前記識別手段は、検出された前記個体の少なくとも1つの部位の各々に関する情報と、前記個体の状態に関する情報と、前記個体の画像内の前記個体の少なくとも1つの部位の各々に関する情報及び前記個体の状態に関する情報を学習データとして用いた機械学習に基づく学習済モデルと、に基づいて、前記個体を識別してもよい(発明2)。
【0010】
かかる発明(発明2)によれば、撮像装置によって撮像された個体の画像に基づいて検出された当該個体の少なくとも1つの部位の各々に関する情報と、個体の状態に関する情報と、学習済モデルと、に基づいて当該個体が識別されるので、撮像装置によって撮像された個体の画像と計測装置によって計測された個体の状態に関する情報とを用いることによって当該個体を識別することが可能になる。これにより、例えば個体の識別情報が形成された衣服等を用いることなく個体識別を行うことが可能になるので、個体識別を容易且つ高精度に行うことができる。
【0011】
上記発明(発明2)においては、前記識別手段は、検出された前記個体の少なくとも1つの部位の各々に関する情報の所定期間内の推移と、前記個体の状態に関する情報の前記所定期間内の推移と、前記学習済モデルと、に基づいて、前記個体を識別してもよい(発明3)。
【0012】
かかる発明(発明3)によれば、個体の少なくとも1つの部位の各々に関する情報及び個体の状態に関する情報の各々の所定期間内の推移(変化)に基づいて、当該個体を容易に識別することができる。
【0013】
上記発明(発明1)においては、前記識別手段は、検出された前記個体の少なくとも1つの部位の各々の前記取得した画像内の座標と、前記個体の画像内の前記個体の少なくとも1つの部位の各々の座標を学習データとして用いた機械学習に基づく学習済モデルと、に基づいて、前記個体を識別してもよい(発明4)。
【0014】
かかる発明(発明4)によれば、画像内の個体の少なくとも1つの部位の各々の座標を用いて、当該個体を容易に識別することができる。
【0015】
上記発明(発明4)においては、前記取得した画像における前記個体の深度に基づいて、検出された前記個体の少なくとも1つの部位の各々の前記取得した画像内の座標を変換する変換手段を備え、前記識別手段は、変換された前記少なくとも1つの部位の各々の座標と、前記学習済モデルと、に基づいて、前記個体を識別してもよい(発明5)。
【0016】
かかる発明(発明5)によれば、撮像された画像内の個体の深度(つまり、撮像装置と個体との距離(撮影距離))に応じて変換された当該個体の少なくとも1つの部位の各々の座標を用いて個体識別を行うことが可能になるので、例えば個体の深度に応じて座標を変換しない場合と比較して、個体識別の精度を向上させることができる。
【0017】
上記発明(発明5)においては、前記変換手段は、MiDaSを用いて推定された前記個体の深度に基づいて、検出された前記個体の少なくとも1つの部位の各々の前記取得した画像内の座標を変換してもよい(発明6)。
【0018】
かかる発明(発明6)によれば、MiDaSを用いることによって、撮像された画像内の個体の深度を容易に推定することができる。
【0019】
上記発明(発明4)においては、事前に計測された前記個体の少なくとも2つの部位間の距離に基づいて、検出された前記個体の少なくとも1つの部位の各々の前記取得した画像内の座標を変換する変換手段を備え、前記識別手段は、変換された前記少なくとも1つの部位の各々の座標と、前記学習済モデルと、に基づいて、前記個体を識別してもよい(発明7)。
【0020】
かかる発明(発明7)によれば、事前に計測された個体の少なくとも2つの部位間の距離(例えば、個体の少なくとも2つの部位間の距離の実測値であってもよいし、事前に撮像された画像内の個体の少なくとも2つの部位間の距離の計測値であってもよい)に応じて変換された当該個体の少なくとも1つの部位の各々の座標を用いて個体識別を行うことが可能になるので、例えば少なくとも2つの部位間の距離に応じて座標を変換しない場合と比較して、個体識別の精度を向上させることができる。
【0021】
上記発明(発明7)においては、前記変換手段は、事前に計測された前記個体の首部分と腰部分との距離に基づいて、検出された前記個体の少なくとも1つの部位の各々の前記取得した画像内の座標を変換してもよい(発明8)。
【0022】
かかる発明(発明8)によれば、事前に計測された個体の首部分と腰部分との距離(例えば、個体の首部分と腰部分との距離の実測値であってもよいし、事前に撮像された画像内の個体の首部分と腰部分との距離の計測値であってもよい)を用いることによって、撮像された画像内の個体の少なくとも1つの部位の各々の座標を容易に変換することができる。
【0023】
上記発明(発明1)においては、前記検出手段は、前記個体の少なくとも1つの関節を、前記個体の少なくとも1つの部位として検出してもよい(発明9)。
【0024】
かかる発明(発明9)によれば、画像内の個体の少なくとも1つの関節の各々に関する情報を用いて、個体を識別することができる。
【0025】
上記発明(発明2)においては、前記個体の状態に関する情報は、前記個体の位置、回転数、角速度、角加速度、姿勢、加速度、速度及び温度のうち少なくとも1つを含んでもよい(発明10)。
【0026】
かかる発明(発明10)によれば、個体の位置、回転数、角速度、角加速度、姿勢、加速度、速度及び温度のうち少なくとも1つを用いて、個体を識別することができる。
【0027】
上記発明(発明2)においては、前記個体の状態が計測されるタイミングは、前記個体の画像が撮像されるタイミングと同じタイミングであってもよい(発明11)。
【0028】
かかる発明(発明11)によれば、同じタイミングで得られた個体の画像及び当該個体の状態に関する情報を用いて、個体を識別することができる。
【0029】
第二に本発明は、個体を撮像した画像内の前記個体の少なくとも1つの部位の各々に関する情報を取得する第1情報取得手段と、取得した少なくとも1つの部位の各々に関する情報を学習データとして用いた機械学習によって、前記個体を識別するのに用いられるモデルを学習する学習手段と、を備えるモデル学習システムを提供する(発明12)。
【0030】
かかる発明(発明12)によれば、画像内の個体の少なくとも1つの部位の各々に関する情報を学習データとして用いた機械学習によって、個体を識別するのに用いられるモデルを学習することが可能になるので、このモデルを用いることによって、個体識別を容易に行うことができる。
【0031】
第三に本発明は、コンピュータが、撮像装置によって撮像された個体の画像を取得するステップと、取得した画像に基づいて、前記個体の少なくとも1つの部位を検出するステップと、検出された前記個体の少なくとも1つの部位の各々に関する情報と、前記個体の画像内の前記個体の少なくとも1つの部位の各々に関する情報を学習データとして用いた機械学習に基づく学習済モデルと、に基づいて、前記個体を識別するステップと、の各ステップを実行する、個体識別方法を提供する(発明13)。
【0032】
第四に本発明は、コンピュータが、個体を撮像した画像内の前記個体の少なくとも1つの部位の各々に関する情報を取得するステップと、取得した少なくとも1つの部位の各々に関する情報を学習データとして用いた機械学習によって、前記個体を識別するのに用いられるモデルを学習するステップと、の各ステップを実行する、モデル学習方法を提供する(発明14)。
【0033】
第五に本発明は、コンピュータに、撮像装置によって撮像された個体の画像を取得する機能と、取得した画像に基づいて、前記個体の少なくとも1つの部位を検出する機能と、検出された前記個体の少なくとも1つの部位の各々に関する情報と、前記個体の画像内の前記個体の少なくとも1つの部位の各々に関する情報を学習データとして用いた機械学習に基づく学習済モデルと、に基づいて、前記個体を識別する機能と、を実現させるためのプログラムを提供する(発明15)。
【0034】
第六に本発明は、コンピュータに、個体を撮像した画像内の前記個体の少なくとも1つの部位の各々に関する情報を取得する機能と、取得した少なくとも1つの部位の各々に関する情報を学習データとして用いた機械学習によって、前記個体を識別するのに用いられるモデルを学習する機能と、を実現させるためのプログラムを提供する(発明16)。
【発明の効果】
【0035】
本発明の個体識別システム、モデル学習システム、個体識別方法、モデル学習方法、プログラムによれば、個体識別を容易に行うことができる。
【図面の簡単な説明】
【0036】
図1】本発明の一実施形態に係る個体識別システム及びモデル学習システムの基本構成を概略的に示す図である。
図2】識別装置の構成を示すブロック図である。
図3】個体識別定システム及びモデル学習システムで主要な役割を果たす機能を説明するための機能ブロック図である。
図4】第1取得データの構成例を示す図である。
図5】第2取得データの構成例を示す図である。
図6】計測装置からの距離と受信信号強度との関係の一例を示す図である。
図7】個体の少なくとも1つの部位の検出結果の一例を示す図である。
図8】(a)は、画像内の個体の深度に基づいて、個体の少なくとも1つの部位の座標を変換する場合の一例を示す図であり、(b)は、個体の少なくとも1つの部位の座標の変換例を示す図である。
図9】画像内の個体の少なくとも2つの部位間の距離に基づいて、個体の少なくとも1つの部位の座標を変換する場合の一例を示す図である。
図10】学習データの構成例を示す図である。
図11】本発明の一実施形態に係るモデル学習システムの主要な処理の一例を示すフローチャートである。
図12】本発明の一実施形態に係る個体識別システムの主要な処理の一例を示すフローチャートである。
図13】学習データの他の構成例を示す図である。
図14】個体識別システム及びモデル学習システムの各機能について、識別装置と、学習装置との間の分担例を示す図である。
【発明を実施するための形態】
【0037】
以下、本発明の一実施形態について添付図面を参照して詳細に説明する。ただし、この実施形態は例示であり、本発明はこれに限定されるものではない。
【0038】
(1)個体識別システム及びモデル学習システムの基本構成
図1は、本発明の一実施形態に係る個体識別システム及びモデル学習システムの基本構成を概略的に示す図である。図1に示すように、本実施形態に係る個体識別システム及びモデル学習システムでは、例えば屋内等の所定空間SPに個体(本実施形態では、対象者T)が存在する場合に、空間SP内の所定位置(図1の例では、空間SPの中央上部)に設けられた撮像装置10によって撮像された対象者Tの画像と、計測装置20によって計測された対象者Tの状態に関する情報と、が識別装置30によって取得されるようになっている。
【0039】
また、識別装置30は、撮像された対象者Tの画像と、計測された対象者Tの状態に関する情報と、に基づいて、対象者Tを識別(個体識別)するようになっている。ここで、撮像装置10及び計測装置20の各々と、識別装置30とは、例えばインターネットやLAN(Local Area Network)等の通信網NW(ネットワーク)に接続されている。
【0040】
撮像装置10は、例えば、動画像及び/又は静止画像を撮像する撮像装置(例えば、デジタルカメラやデジタルビデオカメラ等)であってもよく、空間SP内の所定位置において空間SPを撮像するように設けられている。なお、撮像装置10は、所定の移動体に設けられており、当該移動体の移動に伴って移動しながら所定の撮像範囲を撮像してもよい。また、撮像装置10は、例えば、所定のフレームレート(例えば、30fps(flames per second)等)で撮像処理を行って、撮像した画像を、通信網NWを介して識別装置30に送信するように構成されている。なお、撮像装置10は、識別装置30から所定の撮像指示信号を受信した場合に撮像処理を行ってもよい。
【0041】
ここで、撮像装置10は、全方位画像(例えば、周囲360°(図1の例では、水平方向の周囲360°)の画像)を撮像する撮像装置(例えば、全方位カメラ等)であってもよい。この場合、広範囲に亘って対象者Tを撮像することができる。
【0042】
また、撮像装置10は、赤外線画像を撮像する撮像装置(例えば、赤外線カメラ等)であってもよい。これにより、例えば、視界の悪い環境(例えば、夜間、暗い場所、悪天候の場所等)に対象者Tが存在している場合であっても、撮像画像内の対象者Tを検出することができる。
【0043】
さらに、撮像装置10は、ステレオ画像を撮像する撮像装置(例えば、ステレオカメラ等)であってもよい。ここで、ステレオ画像とは、例えば、所定の視差を有する2つの画像のセットであってもよい。
【0044】
なお、本実施形態では、1つの撮像装置10を用いて撮像する場合を一例として説明しているが、複数の撮像装置(例えば、水平方向及び/又は垂直方向に間隔をおいて設けられた2つの撮像装置等)を用いて空間SPを撮像してもよい。
【0045】
計測装置20は、対象者Tの状態を連続的又は断続的(例えば、所定間隔(例えば300ミリ秒や1秒等)毎)に計測する装置である。ここで、対象者Tの状態に関する情報とは、例えば、対象者Tの位置に関する情報であってもよいし、対象者Tの身体状態を表す値であってもよいし、対象者Tの位置や身体状態を表す値を所定の計算式に代入することによって得られた値であってもよいし、対象者Tの位置や身体状態の度合いを表す情報であってもよい。また、対象者Tの位置に関する情報は、例えば、GPS(Global Positioning System)等の位置測定技術を用いて測定された位置情報(例えば、緯度、経度及び高度のうち少なくとも1つ)を含んでもよいし、一方の装置が送信した信号を他方の装置が受信したときの受信信号強度(RSSI)に関する情報を含んでもよい。ここで、受信信号強度に関する情報は、例えば、受信信号強度の値であってもよいし、受信信号強度の値を所定の計算式に代入することによって得られた値であってもよいし、受信信号強度の度合いを表す情報であってもよい。
【0046】
また、計測装置20は、例えば、対象者Tの位置を計測する装置(例えば、GPSセンサ等)であってもよいし、対象者Tの身体状態(例えば、3軸方向の加速度(対象者Tの所定部位の加速度であってもよい)、3軸方向の角速度(対象者Tの所定部位の角速度であってもよい)、回転数、心拍数(脈拍)、血圧、体温、発汗量、歩数、歩行速度、姿勢、運動強度(例えば、心拍数÷最大心拍数)又は消費カロリー等)を計測する装置(例えば、心拍計、血圧計、体温計、発汗計、3軸加速度センサ、3軸ジャイロセンサ、モーションセンサ等)であってもよい。
【0047】
さらに、計測装置20は、図1に示すように、対象者Tが所持可能又は対象者Tの身体に装着可能な第1計測装置21と、空間SP内の異なる位置にそれぞれ配置された複数(図1の例では、3つ)の第2計測装置22であって、第1計測装置21が空間SP内に存在する場合に第1計測装置21と無線通信を行う複数の第2計測装置22と、から構成されてもよい。
【0048】
この場合、第1計測装置21は、空間SP内に存在する場合に、所定の無線通信方式(例えば、無線LAN(例えば、Wi-Fi(登録商標)))を用いて複数の第2計測装置22と無線通信を行うことができるように構成されてもよい。また、第1計測装置21は、複数の第2計測装置22との間で無線通信を行うために、自身の識別情報(例えば、MAC(Media Access Control)アドレス等)及び/又は第1計測装置21を所持するユーザ(対象者T)の識別情報(例えば、対象者のIDや氏名等)を含む無線信号(例えば、プローブ要求等)を所定間隔(例えば、数百ミリ秒間隔等)で送信するように構成されてもよい。ここで、ユーザ(対象者T)の識別情報は、例えば、事前に第1計測装置21に記憶されてもよい。さらに、第1計測装置21は、例えば、対象者Tに装着可能なデバイス(例えば、ウェアラブルデバイス)であってもよいし、対象者Tが所持可能な携帯型デバイスであってもよい。さらにまた、第1計測装置21は、例えば、携帯端末、スマートフォン、PDA(Personal Digital Assistant)、パーソナルコンピュータ、双方向の通信機能を備えたテレビジョン受像機(いわゆる多機能型のスマートテレビも含む。)等のように、個々のユーザによって操作される通信装置であってもよい。
【0049】
複数の第2計測装置22は、空間SP内で所定の無線通信方式(例えば、無線LAN(例えば、Wi-Fi(登録商標)))を用いて第1計測装置21と無線通信を行うことが可能な位置に設けられてもよい。また、複数の第2計測装置22は、例えば、空間SP内に存在する2つ以上の第1計測装置21間の無線通信を中継する装置であってもよいし、第1計測装置21と空間SP内に存在する他の装置(図示省略)との間の無線通信を中継する装置であってもよいし、第1計測装置21と、通信網NWを介して接続された他の装置(例えば、識別装置30等)との間の通信を中継する装置であってもよい。また、複数の第2計測装置22は、パケットキャプチャであってもよい。
【0050】
また、第1計測装置21と、複数の第2計測装置22と、のうち何れか一方には、他方が送信した信号を受信したときの受信信号強度(RSSI)を検出するRSSI回路が設けられていてもよい。さらに、この信号には、信号を送信した計測装置(第1計測装置21又は第2計測装置22)の識別情報(例えば、MACアドレス等)が含まれていてもよく、この信号の受信信号強度がRSSI回路によって検出されると、検出された受信信号強度と、この信号を送信した装置の識別情報と、が互いに対応付けられた状態で、この信号を受信した計測装置(第1計測装置21又は第2計測装置22)に設けられた記憶装置(図示省略)に記憶されてもよい。
【0051】
なお、ここでは、第1計測装置21と複数の第2計測装置22との間でWi-Fi(登録商標)を用いて無線通信を行う場合を一例として説明しているが、通信方式は、この場合に限られない。例えば、Bluetooth(登録商標)、ZigBee(登録商標)、UWB、光無線通信(例えば、赤外線)等の無線通信方式が用いられてもよいし、USB等の有線通信方式が用いられてもよい。
【0052】
計測装置20(第1計測装置21及び/又は複数の第2計測装置22)は、対象者Tの状態を検出する毎に、検出した状態に関する情報を、通信網NWを介して識別装置30に送信するように構成されている。
【0053】
なお、本実施形態では、1つの第1計測装置21が対象者Tに設けられている場合を一例として説明しているが、複数の第1計測装置21が対象者Tに設けられてもよい。また、本実施形態では、3つの第2計測装置22が空間SP内に設けられている場合を一例として説明しているが、空間SP内に設けられる第2計測装置22の数は、2つ以下であってもよいし、4つ以上であってもよい。
【0054】
さらに、撮像装置10及び計測装置20は、識別装置30との間で有線又は無線接続方式を用いて直接通信を行うように構成されてもよいし、所定の中継装置(図示省略)との間で有線又は無線接続方式を用いて情報の送受信を行うことによって、当該中継装置を介して識別装置30と通信を行うように構成されてもよい。
【0055】
識別装置30は、通信網NWを介して撮像装置10及び計測装置20の各々と通信を行い、撮像装置10が撮像した画像と、計測装置20が計測した対象者Tの状態に関する情報とを、通信網NWを介して経時的に取得するように構成されている。識別装置30は、例えば、携帯端末、スマートフォン、PDA、パーソナルコンピュータ、双方向の通信機能を備えたテレビジョン受像機(いわゆる多機能型のスマートテレビも含む。)等のように、個々のユーザによって操作される端末装置であってもよい。
【0056】
(2)識別装置の構成
図2を参照して識別装置30の構成について説明する。図2は、識別装置30の内部構成を示すブロック図である。図2に示すように、識別装置30は、CPU(Central Processing Unit)31と、ROM(Read Only Memory)32と、RAM(Random Access Memory)33と、記憶装置34と、表示処理部35と、表示部36と、入力部37と、通信インタフェース部38と、を備えており、各部間の制御信号又はデータ信号を伝送するためのバス30aが設けられている。
【0057】
CPU31は、電源が識別装置30に投入されると、ROM32又は記憶装置34に記憶された各種のプログラムをRAM33にロードして実行する。本実施形態では、CPU31は、ROM32又は記憶装置34に記憶されたプログラムを読み出して実行することにより、後述する第1取得手段41、第2取得手段42、検出手段43、変換手段44、識別手段45、第1情報取得手段46、第2情報取得手段47及び学習手段48(図3に示す)の機能を実現する。
【0058】
記憶装置34は、例えば、フラッシュメモリ、SSD(Solid State Drive)、磁気記憶装置(例えばHDD(Hard Disk Drive)、フロッピーディスク(登録商標)、磁気テープ等)、光ディスク等の不揮発性の記憶装置であってもよいし、RAM等の揮発性の記憶装置であってもよく、CPU31が実行するプログラムやCPU31が参照するデータを格納する。また、記憶装置34には、後述する第1取得データ(図4に示す)、第2取得データ(図5に示す)及び学習データ(図10に示す)が記憶されている。
【0059】
表示処理部35は、CPU31から与えられる表示用データを表示部36に表示する。表示部36は、例えば、マトリクス状に画素単位で配置された薄膜トランジスタを含むLCD(Liquid Crystal Display)モニタであり、表示用データに基づいて薄膜トランジスタを駆動することで、表示されるデータを表示画面に表示する。
【0060】
識別装置30が釦入力方式の装置である場合には、入力部37は、ユーザの操作入力を受け入れるための方向指示釦及び決定釦等の複数の指示入力釦を含む釦群と、テンキー等の複数の指示入力釦を含む釦群とを備え、各釦の押下(操作)入力を認識してCPU31へ出力するためのインタフェース回路を含む。
【0061】
識別装置30がタッチパネル入力方式の装置である場合には、入力部37は、主として表示画面に指先又はペンで触れることによるタッチパネル方式の入力を受け付ける。タッチパネル入力方式は、静電容量方式等の公知の方式であってもよい。
【0062】
また、識別装置30が音声入力可能な装置である場合には、入力部37は、音声入力用のマイクを含むように構成されてもよいし、外付けのマイクを介して入力された音声データをCPU31へ出力するためのインタフェース回路を備えてもよい。さらに、識別装置30が動画像及び/又は静止画像を入力可能な装置である場合には、入力部37は、画像入力用のデジタルカメラやデジタルビデオカメラを含むように構成されてもよいし、外付けのデジタルカメラやデジタルビデオカメラで撮像された画像データを受け付けてCPU31へ出力するためのインタフェース回路を備えてもよい。
【0063】
通信インタフェース部38は、通信網NWを介して他の装置(例えば、撮像装置10及び計測装置20等)と通信を行うためのインタフェース回路を含む。
【0064】
(3)個体識別システム及びモデル学習システムにおける各機能の概要
本実施形態の個体識別システム及びモデル学習システムで実現される機能について、図3を参照して説明する。図3は、本実施形態の個体識別システム及びモデル学習システムで主要な役割を果たす機能を説明するための機能ブロック図である。図3の機能ブロック図では、第1取得手段41、検出手段43及び識別手段45が本発明の個体識別システムの主要な構成に対応しており、第1情報取得手段46及び学習手段48が本発明のモデル学習システムの主要な構成に対応している。他の手段(第2取得手段42、変換手段44及び第2情報取得手段47)は必ずしも必須の構成ではないが、本発明をさらに好ましくするための構成要素である。
【0065】
第1取得手段41は、撮像装置10によって撮像された対象者T(個体)の画像を取得する機能を備える。
【0066】
第1取得手段41の機能は、例えば以下のように実現される。先ず、撮像装置10は、例えば、対象者Tが空間SP内に存在している場合に、所定のフレームレート(例えば、30fps等)で撮像処理を行い、撮像処理を行う毎に、撮像した画像の画像データを、通信網NWを介して識別装置30に送信する。ここで、撮像装置10によって撮像された画像の画像データは、撮像日時及び撮像装置10の識別情報(例えば、撮像装置10のシリアル番号やMAC(Media Access Control)アドレス等)と対応付けた状態で識別装置30に送信されてもよい。
【0067】
一方、識別装置30のCPU31は、撮像装置10から送信された画像データを、通信インタフェース部38を介して受信(取得)する毎に、受信した画像データを、当該画像の撮像日時と対応付けた状態で例えば図4に示す第1取得データに記憶する。第1取得データは、画像の撮像日時毎に、当該画像の画像データが対応付けられた状態で記述されているデータである。このようにして、第1取得手段41は、撮像装置10によって撮像された対象者Tの画像を取得することができる。
【0068】
なお、CPU31は、撮像装置10によって撮像された対象者T(個体)のステレオ画像を取得してもよい。この場合、対象者Tのステレオ画像に基づいて対象者Tの三次元モデルを生成することができるので、後述する検出手段43の機能において、この三次元モデルに基づいて、対象者Tの少なくとも1つの部位の三次元空間上の位置(座標)をもとめることが可能になる。これにより、例えば対象者Tの二次元モデルを用いる場合と比較して、対象者Tの少なくとも1つの部位の位置をより正確に捉えることが可能になるので、対象者Tの画像に基づく当該対象者Tの識別精度を向上させることができる。
【0069】
また、例えば、水平方向及び/又は垂直方向に間隔をおいて設けられた2つ以上の撮像装置が設けられている場合には、CPU31は、各撮像装置が実質的に同じタイミングで撮像した2つの画像(例えば、撮像日時が同じ2つの画像であってもよいし、撮像日時の時間差が所定範囲(例えば、数ミリ秒~数十ミリ秒等)内の2つの画像等であってもよい)を、所定の視差を有する画像のセット(つまり、ステレオ画像)として取得してもよい。
【0070】
第2取得手段42は、計測装置20によって計測された対象者T(個体)の状態に関する情報を取得する機能を備える。
【0071】
ここで、対象者T(個体)の状態に関する情報は、対象者Tの位置、回転数、角速度、角加速度、姿勢、加速度、速度及び温度のうち少なくとも1つを含んでもよい。なお、対象者Tの位置に関する情報は、GPS等の位置測定技術を用いて測定された位置情報(例えば、緯度、経度及び高度のうち少なくとも1つ)を含んでもよいし、第1計測装置21及び複数の第2計測装置22のうち一方の計測装置が送信した信号を他方の計測装置が受信したときの受信信号強度(RSSI)に関する情報を含んでもよい。これにより、対象者Tの位置、回転数、角速度、角加速度、姿勢、加速度、速度及び温度のうち少なくとも1つを用いて、対象者Tの個体識別を行うことができる。
【0072】
また、対象者T(個体)の状態が計測されるタイミングは、対象者Tの画像が撮像されるタイミングと同じタイミングであってもよい。これにより、同じタイミングで得られた対象者Tの画像及び対象者Tの状態に関する情報を用いて、対象者Tの個体識別を行うことができる。
【0073】
第2取得手段42の機能は、例えば以下のように実現される。先ず、第1計測装置21は、例えば、対象者Tが空間SP内に存在する場合に、対象者Tの状態(例えば、対象者Tの位置と、対象者Tの回転数と、対象者Tの3軸方向又は2軸方向の角速度と、対象者Tの3軸方向又は2軸方向の角加速度と、対象者Tの姿勢と、対象者Tの3軸方向又は2軸方向の加速度と、対象者Tの3軸方向又は2軸方向の速度と、対象者Tの温度と、のうち少なくとも1つ)を連続的又は断続的(例えば、所定間隔(例えば300ミリ秒や1秒等)毎)に計測する毎に、計測した状態に関する情報を、通信網NWを介して識別装置30に送信する。ここで、第1計測装置21によって計測された対象者Tの状態に関する情報は、計測日時及び第1計測装置21の識別情報(例えば、第1計測装置21のシリアル番号やMACアドレス等)と対応付けた状態で識別装置30に送信されてもよい。また、計測装置20は、撮像装置10が撮像処理を行うタイミング毎に計測処理を行ってもよい(すなわち、計測装置20による計測処理及び撮像装置10による撮像処理が互いに同期して行われてもよい)。
【0074】
ここで、対象者Tの状態に関する情報が、対象者Tの位置に関する情報を含む場合であって、対象者Tの位置に関する情報が、第1計測装置21及び複数の第2計測装置22間の通信において送受信される信号の受信信号強度(RSSI)を含む場合について説明する。第1計測装置21は、例えば、対象者Tが空間SP内に存在する場合に、複数の第2計測装置22の各々と無線通信を行い、複数の第2計測装置22の各々から所定間隔(例えば、数百ミリ秒間隔等)で送信された無線信号(例えば、ビーコン信号等)を受信する毎に、RSSI回路によって検出(計測)された当該無線信号の受信信号強度(RSSI)の値を、第1計測装置21に設けられた記憶装置(図示省略)に記憶する。ここで、RSSIの値は、計測日時(例えば、第1計測装置21が当該RSSIの値に対応する無線信号を何れかの第2計測装置22から受信した日時)及び当該RSSIの値に対応する無線信号を送信した何れかの第2計測装置22の識別情報(例えば、第2計測装置22のシリアル番号やMACアドレス等)と対応付けられた状態で記憶されてもよい。そして、第1計測装置21は、所定期間(例えば、3秒毎等)が経過する毎に、当該所定期間内に第1計測装置21によって計測された対象者Tの状態に関する情報(つまり、当該所定期間内に第1計測装置21が複数の第2計測装置22から受信した全ての無線信号のRSSI)の値を、通信網NWを介して識別装置30に送信してもよい。ここで、所定期間内に第1計測装置21によって計測された対象者Tの状態に関する情報は、第1計測装置21の識別情報(例えば、第1計測装置21のシリアル番号やMACアドレス等)と対応付けた状態で識別装置30に送信されてもよい。
【0075】
なお、ここでは、第1計測装置21が、複数の第2計測装置22の各々から送信された無線信号を受信したときのRSSIの値を、対象者Tの状態に関する情報として識別装置30に送信する場合を一例として説明したが、複数の第2計測装置22の各々が、第1計測装置21から送信された無線信号を受信したときのRSSIの値を、対象者Tの状態に関する情報として識別装置30に送信してもよい。
【0076】
一方、識別装置30のCPU31は、計測装置20から送信された対象者Tの状態に関する情報を、通信インタフェース部38を介して受信(取得)する毎に、受信した状態に関する情報を、当該情報の計測日時と対応付けた状態で例えば図5に示す第2取得データに記憶する。第2取得データは、計測日時毎に、対象者Tの状態に関する情報(図の例では、「計測情報」)が対応付けられた状態で記述されているデータである。このようにして、第2取得手段42は、計測装置20によって計測された対象者Tの状態(ここでは、対象者Tの位置と、対象者Tの回転数と、対象者Tの3軸方向又は2軸方向の角速度と、対象者Tの3軸方向又は2軸方向の角加速度と、対象者Tの姿勢と、対象者Tの3軸方向又は2軸方向の加速度と、対象者Tの3軸方向又は2軸方向の速度と、対象者Tの温度と、のうち少なくとも1つ)を取得することができる。
【0077】
なお、識別装置30のCPU31は、第2取得手段42の機能に基づいて、対象者Tの位置と、対象者Tの回転数の平均及び/又は分散と、対象者Tの3軸方向又は2軸方向の角速度の平均及び/又は分散と、対象者Tの3軸方向又は2軸方向の角加速度の平均及び/又は分散と、対象者Tの姿勢と、対象者Tの3軸方向又は2軸方向の加速度の平均及び/又は分散と、対象者Tの3軸方向又は2軸方向の速度の平均及び/又は分散と、対象者Tの温度の平均及び/又は分散と、のうち少なくとも1つを取得してもよい。
【0078】
また、本実施形態では、第1計測装置21及び複数の第2計測装置22間の通信において送受信される信号の受信信号強度(RSSI)が対象者Tの位置に関する情報に含まれているが、この受信信号強度(RSSI)を用いて、第1計測装置21と複数の第2計測装置22の各々との距離、ひいては、空間SP内の第1計測装置21の位置(つまり、対象者Tの位置)をもとめることが可能である。具体的に説明すると、第1計測装置21と複数の第2計測装置22の各々との距離は、例えば、以下の式(1)及び(2)を用いることによって算出することができる。
=P+G+G-L …(1)
【数1】

式(1)中、PはRSSI(dBm)を示し、Pは第2計測装置22の送信電力(dBm)を示し、Gは第1計測装置21の受信アンテナの利得(dBi)を示し、Gは第2計測装置22の送信アンテナの利得(dBi)を示し、Lは自由空間損失(dBm)を示している。このLは式(2)でもとめられ、式(2)中、dは第1計測装置21と第2計測装置22との距離(m)を示し、fは無線信号の周波数(Hz)を示し、cは光速(=2.99792458×10)(m/s)を示している。式(1)及び式(2)によってもとめられる距離とRSSIの値との関係は、例えば図6に示す対数関数で表される。図6に示すように、第1計測装置21と第2計測装置22との距離が短いほど、RSSI(図の例では、受信信号強度)の値が大きいことがわかる。
【0079】
これにより、第1計測装置21と複数の第2計測装置22の各々との間の信号の受信信号強度(RSSI)を用いて、第1計測装置21と複数の第2計測装置22の各々との距離をもとめることが可能になる。また、第1計測装置21と複数の第2計測装置22の各々との距離を用いて、空間SP内の第1計測装置21の位置(つまり、対象者Tの位置)をもとめることが可能になる。
【0080】
検出手段43は、取得した画像に基づいて、対象者T(動体)の少なくとも1つの部位を検出する機能を備える。
【0081】
また、検出手段43は、対象者T(動体)の少なくとも1つの関節を、対象者Tの少なくとも1つの部位として検出してもよい。これにより、対象者Tの少なくとも1つの関節の各々に関する情報を用いて、対象者Tを識別(個体識別)することができる。
【0082】
検出手段43の機能は、例えば以下のように実現される。識別装置30のCPU31は、例えば、第1取得手段41の機能に基づいて、撮像装置10から送信された画像データを取得データに記憶する毎に、対象者Tの少なくとも1つの部位の各々の位置に対応するノードを画像内に設定するとともに、各ノードの画像内の座標を算出してもよい。ここで、各ノードの設定及び座標の算出は、例えば、深層学習による特徴点(キーポイント)検出技術(例えば、OpenPose等)を用いて行われてもよい。また、各ノードの座標は、二次元座標であってもよいし、例えば、画像データ(ステレオ画像)によって対象者Tの三次元モデルが生成される場合には、三次元座標であってもよい。
【0083】
なお、例えば、撮像装置10が全方位画像を撮像する場合には、CPU31は、撮像装置10が撮像した全方位画像をパノラマ画像に展開して、展開したパノラマ画像に対してノードの設定及びノードの座標の算出を行ってもよい。
【0084】
また、対象者Tのステレオ画像が取得された場合には、CPU31は、所定の視差を有する画像のセットの各画像に対して事前処理(例えば、ノイズ除去等)を実行し、さらには、周知のステレオマッチング処理を実行して、対象者Tの三次元モデルを生成してもよい。
【0085】
CPU31は、例えば図7に示すように、撮像装置10が撮像した画像において、対象者Tの少なくとも1つの部位(図の例では、「首」、「右肩」、「左肩」、「腰」、「右臀部」、「左臀部」等)の位置(図の例では、X方向の座標及びY方向の座標)を検出し、検出した部位の各々に対応するノード(図の例では、14個のノード)を設定する。ここで、各ノードの座標は、各ノードが設定された画像に対応付けられた状態で第1取得データに記憶されてもよい。また、CPU31は、例えば、対象者Tの少なくとも1つの部位が他の物体(例えば、他の動体や設置物等)に隠れるように撮像される等によって当該部位を検出することができない場合に、当該部位に対応するノードの座標をNULLデータとして第1取得データに記憶してもよい。
【0086】
なお、ここでは、撮像装置10が撮像した画像を用いて対象者Tの少なくとも1つの部位(「首」、「右肩」、「左肩」、「右臀部」、「左臀部」等)が検出される場合を一例として説明したが、例えば、撮像装置10が撮像した画像を用いて対象者Tの少なくとも1つの関節(例えば、「右肩関節」、「右肘関節」、「右股関節」、「右膝関節」、「左肩関節」、「左肘関節」、「左股関節」及び「左膝関節」等)が検出されてもよい。
【0087】
変換手段44は、取得した画像における対象者T(個体)の深度に基づいて、検出された対象者Tの少なくとも1つの部位の各々の取得した画像内の座標を変換する機能を備える。この場合、撮像された画像内の対象者Tの深度(つまり、撮像装置10と対象者Tとの距離(撮影距離))に応じて変換された対象者Tの少なくとも1つの部位の各々の座標を用いて個体識別を行うことが可能になるので、例えば対象者Tの深度に応じて座標を変換しない場合と比較して、個体識別の精度を向上させることができる。
【0088】
また、変換手段44は、MiDaSを用いて推定された対象者Tの深度に基づいて、検出された対象者Tの少なくとも1つの部位の各々の取得した画像内の座標を変換してもよい。この場合、MiDaSを用いることによって、撮像された画像内の個体の深度を容易に推定することができる。
【0089】
変換手段44の機能は、例えば以下のように実現される。識別装置30のCPU31は、例えば、検出手段43の機能に基づいて対象者T(動体)の少なくとも1つの部位を検出すると、MiDaSを用いて、画像内の対象者Tの深度を推定する。ここで、MiDaS(https://github.com/intel-isl/MiDaS)とは、撮像装置(例えば、撮像装置10)によって撮像された画像から、被写体(例えば、対象者T)と撮像装置との間の距離、すなわち、奥行きを表す深度マップを推定するための単眼画像に対する深度推定モデルの一種である。なお、ここでは、MiDaSを用いて画像内の対象者Tの深度を推定する場合を一例として説明するが、画像内の対象者Tの深度は、例えば、DPT(https://github.com/intel-isl/DPT)等の他の深度推定モデルを用いて推定されてもよいし、他の深度推定技術を用いて推定されてもよい。
【0090】
また、CPU31は、画像内の対象者Tの深度を推定すると、検出された少なくとも1つの部位の各々の座標を、推定した深度を用いて変換する。ここで、図8を参照して、この変換方法の一例について説明する。例えば図8(a)の左図に示すように、画像内の対象者Tの深度がd(0<d<1)であると推定された場合に、CPU31は、図8(a)の左図内の対象者Tを含む領域(図中破線で示す領域)をv(例えば、1/d)倍する(ここでは、拡大する)ようにスケールの変更を行う。そして、CPU31は、図8(a)の右図に示すスケール変更後の画像内の少なくとも1つの部位の各々の座標を用いて、後述する識別手段45の機能を実施する。なお、図8(a)の左図内の少なくとも1つの部位のうち何れかの部位の座標を例えば図8(b)の左図に示すように(r cosθ,r sinθ)とした場合、v(例えば、1/d)倍にスケール変更した後の当該何れかの部位の座標は、例えば図8(b)の右図に示すように(vr cosθ,vr sinθ)で表される。
【0091】
なお、変換手段44は、事前に計測された対象者T(個体)の少なくとも2つの部位間の距離に基づいて、検出された対象者Tの少なくとも1つの部位の各々の取得した画像内の座標を変換する機能を備えてもよい。この場合、事前に計測された対象者Tの少なくとも2つの部位間の距離(例えば、対象者Tの少なくとも2つの部位間の距離の実測値であってもよいし、事前に撮像された画像内の対象者Tの少なくとも2つの部位間の距離の計測値であってもよい)に応じて変換された対象者Tの少なくとも1つの部位の各々の座標を用いて個体識別を行うことが可能になるので、例えば少なくとも2つの部位間の距離に応じて座標を変換しない場合と比較して、個体識別の精度を向上させることができる。
【0092】
また、変換手段44は、事前に計測された対象者T(個体)の首部分と腰部分との距離に基づいて、検出された対象者Tの少なくとも1つの部位の各々の取得した画像内の座標を変換してもよい。これにより、事前に計測された対象者Tの首部分と腰部分との距離(例えば、対象者Tの首部分と腰部分との距離の実測値であってもよいし、事前に撮像された画像内の対象者Tの首部分と腰部分との距離の計測値であってもよい)を用いることによって、撮像された画像内の対象者Tの少なくとも1つの部位の各々の座標を容易に変換することができる。
【0093】
この場合における変換手段44の機能は、例えば以下のように実現される。なお、ここでは、事前に計測された対象者Tの首部分と腰部分との距離が、事前に撮像された画像内の対象者Tの首部分と腰部分との距離の計測値(図9における長さL1)である場合を一例として説明する。識別装置30のCPU31は、例えば、検出手段43の機能に基づいて対象者T(動体)の少なくとも1つの部位を検出すると、検出された少なくとも1つの部位のうち首部分と腰部分との間の画像内の距離(図9における長さL2)をもとめる。ここで、首部分と腰部分との間の長さは、対象者Tの2つ以上の部位間の距離の中で最も安定して検出可能であり、且つ、標準偏差が小さいことから、スケール変更を行う際の基準の長さとして用いるのに好適である。そして、CPU31は、図9の左下図内の対象者Tを含む領域(図中破線で示す領域)をv(例えば、L1/L2)倍する(ここでは、拡大する)ようにスケールの変更を行う。そして、CPU31は、図9の右下図に示すスケール変更後の画像内の少なくとも1つの部位の各々の座標を用いて、後述する識別手段45の機能を実施する。
【0094】
なお、ここでは、変換手段44が、事前に計測された対象者Tの首部分と腰部分との距離に基づいて、検出された対象者Tの少なくとも1つの部位の各々の取得した画像内の座標を変換する場合を一例として説明したが、本発明は、この場合に限られない。例えば、変換手段44は、対象者Tの首部分及び腰部分の何れか一方と首部分及び腰部分以外の他の部位との距離に基づいて、又は、対象者Tの首部分及び腰部分以外の他の2つ以上の部位間の距離に基づいて、検出された対象者Tの少なくとも1つの部位の各々の取得した画像内の座標を変換してもよい。
【0095】
識別手段45は、検出された対象者T(個体)の少なくとも1つの部位の各々に関する情報と、対象者Tの画像内の対象者Tの少なくとも1つの部位の各々に関する情報を学習データとして用いた機械学習に基づく学習済モデルと、に基づいて、対象者Tを識別する機能を備える。
【0096】
また、識別手段45は、検出された対象者T(個体)の少なくとも1つの部位の各々に関する情報と、対象者Tの状態に関する情報と、対象者Tの画像内の対象者Tの少なくとも1つの部位の各々に関する情報及び対象者Tの状態に関する情報を学習データとして用いた機械学習に基づく学習済モデルと、に基づいて、対象者Tを識別してもよい。
【0097】
ここで、識別手段45は、検出された対象者T(個体)の少なくとも1つの部位の各々に関する情報の所定期間内の推移と、対象者Tの状態に関する情報の当該所定期間内の推移と、上記の学習済モデルと、に基づいて、対象者Tを識別してもよい。これにより、対象者Tの少なくとも1つの部位の各々に関する情報及び対象者Tの状態に関する情報の各々の所定期間内の推移(変化)に基づいて、対象者Tの個体識別を容易に行うことができる。
【0098】
また、識別手段45は、検出された対象者T(個体)の少なくとも1つの部位の各々の取得した画像内の座標と、対象者Tの画像内の対象者Tの少なくとも1つの部位の各々の座標を学習データとして用いた機械学習に基づく学習済モデルと、に基づいて、対象者Tを識別してもよい。これにより、画像内の対象者Tの少なくとも1つの部位の各々の座標を用いて、対象者Tの個体識別を容易に行うことができる。
【0099】
さらに、識別手段45は、変換手段44の機能に基づいて変換された少なくとも1つの部位の各々の座標と、上記の学習済モデルと、に基づいて、対象者Tを識別してもよい。
【0100】
識別手段45の機能は、例えば以下のように実現される。なお、ここでは、識別手段45が、変換手段44の機能に基づいて変換された少なくとも1つの部位の各々の座標と、対象者Tの状態に関する情報と、学習済モデルと、に基づいて、対象者Tを識別する場合を一例として説明する。識別装置30のCPU31は、変換手段44の機能に基づいて少なくとも1つの部位の各々の座標を変換すると、変換された少なくとも1つの部位の各々の座標と、第2取得手段42の機能に基づいて取得した対象者Tの状態に関する情報とを、対象者Tの画像内の対象者Tの少なくとも1つの部位の各々の座標及び対象者Tの状態に関する情報を学習データとして用いた機械学習に基づく学習済モデル(後述する)に入力することによって、対象者Tを識別(個体識別)してもよい。
【0101】
学習データの一例を図10に示す。図10に示す学習データは、画像内の対象者Tの少なくとも1つの部位の各々の座標と、(例えば、当該画像が撮像されたタイミングで計測された)対象者Tの状態に関する情報と、当該対象者T(個体)の識別情報(個体ラベル)(図の例では、「作業員A」、「作業員B」、「作業員C」、「作業員D」等)が対応付けられた状態で記述されているデータである。これにより、この学習データを用いた機械学習の結果として、画像内の対象者Tの少なくとも1つの部位の各々の座標と、対象者Tの状態に関する情報と、対象者Tの識別情報との関係を示す学習済モデルが構成される。
【0102】
なお、第1計測装置21を所持するユーザ(対象者T)又は第1計測装置21が設けられたユーザ(対象者T)の識別情報(例えば、対象者のIDや氏名等)が第1計測装置21に記憶されている場合には、後述するように、第1計測装置21に記憶されたユーザ(対象者T)の識別情報が、対象者T(個体)の識別情報(個体ラベル)として学習データに記憶されてもよい。
【0103】
したがって、CPU31は、変換手段44の機能に基づいて変換された少なくとも1つの部位の各々の座標と、第2取得手段42の機能に基づいて取得した対象者Tの状態に関する情報とを学習済モデルに入力することによって、対象者Tを識別する(ここでは、対象者Tが「作業員A」、「作業員B」、「作業員C」、「作業員D」等の何れかであると識別する)ことができる。
【0104】
なお、CPU31は、対象者Tの識別結果を提示してもよい。例えば、CPU31は、識別手段45の機能に基づいて対象者Tを識別すると、対象者Tの識別結果に関する情報を例えば表示部36に表示してもよい。ここで、対象者Tの識別結果に関する情報は、テキストデータで構成されてもよいし、画像データ等で構成されてもよい。また、対象者Tの識別結果に関する情報が音声データで構成されている場合には、CPU31は、対象者Tの識別結果に関する情報を、スピーカ等の音声出力装置から出力してもよい。さらに、CPU31は、対象者Tの識別結果に関する情報を、通信網NWを介して識別装置30に接続された他のコンピュータ(例えば、サーバ等)に送信してもよい。
【0105】
また、CPU31は、所定期間内に取得された全ての画像の各々の対象者Tの少なくとも1つの部位の各々の座標(すなわち、少なくとも1つの部位の各々に関する情報の所定期間内の推移)と、当該所定期間内に取得された全ての対象者Tの状態に関する情報(すなわち、対象者Tの状態に関する情報の当該所定期間内の推移)とを学習済モデルに入力することによって、対象者Tの個体識別を行ってもよい。
【0106】
第1情報取得手段46は、対象者T(個体)を撮像した画像内の対象者Tの少なくとも1つの部位の各々に関する情報を取得する機能を備える。
【0107】
第1情報取得手段46の機能は、例えば以下のように実現される。識別装置30のCPU31は、例えば、第1取得手段41及び検出手段43の機能と同様に、撮像装置10から送信された画像データを、通信インタフェース部38を介して受信(取得)する毎に、対象者Tの少なくとも1つの部位の各々の位置に対応するノードを画像内に設定するとともに、各ノードの画像内の座標を算出する。そして、CPU31は、算出した少なくとも1つの部位の各々の座標を、例えば図10に示す学習データに記憶する。また、CPU31は、少なくとも1つの部位の各々の座標毎が新たに学習データに記憶される毎に、複数の識別情報(図10の例では、「作業員A」、「作業員B」、「作業員C」、「作業員D」)のうち何れかの識別情報を示す正解データが例えば入力部37を用いて入力されると、入力された正解データ(つまり、「作業員A」、「作業員B」、「作業員C」、「作業員D」の何れか)を、新たに記憶された少なくとも1つの部位の各々の座標に対応する「個体(個体ラベル)」の項目に記憶する。
【0108】
なお、CPU31は、少なくとも1つの部位の各々の座標を学習データに記憶する場合に、各画像における対象者Tのサイズが等しくなる(例えば、各画像における対象者Tの深度が等しくなる、又は、各画像における対象者Tの所定の部位間の距離が等しくなる)ように少なくとも1つの部位の各々の座標を変換し、変換した少なくとも1つの部位の各々の座標を学習データに記憶してもよい。これにより、各画像において撮像装置10と対象者Tとの間の距離が異なる場合であっても、当該距離が等しくなるように少なくとも1つの部位の各々の座標が調整された状態で学習データに記憶されるので、この学習データを用いることによって、個体識別精度が向上したモデルを構成することが可能になる。
【0109】
第2情報取得手段47は、計測された対象者T(個体)の状態に関する情報を取得する機能を備える。
【0110】
第2情報取得手段47の機能は、例えば以下のように実現される。識別装置30のCPU31は、例えば、第1情報取得手段46の機能に基づいて対象者Tの少なくとも1つの部位の各々に関する情報を取得すると、上述した第2取得手段42の機能と同様に、計測装置20によって計測された対象者Tの状態に関する情報を取得する。そして、CPU31は、取得した対象者Tの状態に関する情報を、第1情報取得手段46の機能に基づいて学習データに記憶された少なくとも1つの部位の各々の座標に対応付けた状態で、学習データに記憶する。ここで、学習データ内の少なくとも1つの部位の各々の座標に対応する画像の撮像日時と、対応する対象者Tの状態に関する情報の計測日時とは、同じであってもよいし、所定範囲(例えば、数ミリ秒~数十ミリ秒等)内の時間差を有していてもよい。
【0111】
なお、第1計測装置21を所持するユーザ(対象者T)又は第1計測装置21が設けられたユーザ(対象者T)の識別情報(例えば、対象者のIDや氏名等)が第1計測装置21に記憶されている場合には、CPU31は、第2情報取得手段47の機能に基づいて対象者T(個体)の状態に関する情報を取得するとともに、第1計測装置21から送信されたユーザ(対象者T)の識別情報を受信することによって、ユーザ(対象者T)の識別情報を取得してもよい。また、CPU31は、取得したユーザ(対象者T)の識別情報を、第1情報取得手段46の機能に基づいて学習データに記憶された少なくとも1つの部位の各々の座標と、第2情報取得手段47の機能に基づいて取得した対象者Tの状態に関する情報と、に対応付けた状態で、対象者T(個体)の識別情報(個体ラベル)として学習データに記憶してもよい。
【0112】
学習手段48は、取得した少なくとも1つの部位の各々に関する情報を学習データとして用いた機械学習によって、対象者T(個体)を識別するのに用いられるモデルを学習する機能を備える。
【0113】
また、学習手段48は、取得した少なくとも1つの部位の各々に関する情報と、取得した対象者T(個体)の状態に関する情報と、を学習データとして用いた機械学習によって、対象者T(個体)を識別するのに用いられるモデルを学習してもよい。
【0114】
学習手段48の機能は、例えば以下のように実現される。識別装置30のCPU31は、例えば、所定のモデル学習指示が入力部37を用いて入力されると、図10に示す学習データを用いてモデルの学習を行う。CPU31は、例えば、時系列対応型ニューラルネットワークモデルを用いて学習してもよい。ここで、時系列対応型ニューラルネットワークとして、例えば、RNN(Recurrent Neural Network)や、RNNの発展型であるLSTM(Long Short-Term Memory)等を適用することができる。また、CPU31は、例えば、グラフニューラルネットワーク(GNN)モデル、畳み込みニューラルネットワーク(CNN)モデル、サポートベクターマシン(SVM)モデル、全結合ニューラルネットワーク(FNN)モデル、勾配ブースティング(HGB)モデル、ウェーブネット(WN)モデル等の複数のモデルのうち何れかのモデルを用いて学習してもよい。なお、本実施形態では、GNNの派生である、グラフ畳み込みニューラルネットワーク(GCN)モデル、グラフアテンションネットワーク(GAT)モデル、グラフ畳み込みLSTM(GC-LSTM)モデルの何れかを用いることによって、個体識別精度を向上させることが可能である。
【0115】
(4)本実施形態のモデル学習システムの主要な処理のフロー
次に、本実施形態のモデル学習システムにより行われる主要な処理のフローの一例について、図11のフローチャートを参照して説明する。
【0116】
識別装置30のCPU31は、第1情報取得手段46の機能に基づいて、対象者T(個体)を撮像した画像内の対象者Tの少なくとも1つの部位の各々に関する情報を取得する(ステップS100)。ここで、CPU31は、上述したように、画像内の対象者Tの少なくとも1つの部位の各々の座標を検出すると、検出した少なくとも1つの部位の各々の座標を学習データに記憶する。また、CPU31は、少なくとも1つの部位の各々の座標毎が新たに学習データに記憶される毎に、複数の識別情報(例えば、「作業員A」、「作業員B」、「作業員C」、「作業員D」)のうち何れかの識別情報を示す正解データが例えば入力部27を用いて入力されると、入力された正解データ(つまり、「作業員A」、「作業員B」、「作業員C」、「作業員D」の何れか)を、新たに記憶された少なくとも1つの部位の各々の座標に対応する「個体(個体ラベル)」の項目に記憶してもよい。
【0117】
次に、識別装置30のCPU31は、計測された対象者T(個体)の状態に関する情報を取得する(ステップS102)。ここで、CPU31は、上述した第2取得手段42の機能と同様に、計測装置20によって計測された対象者Tの状態に関する情報を取得すると、取得した対象者Tの状態に関する情報を、ステップS100において学習データに記憶された少なくとも1つの部位の各々の座標に対応付けた状態で、学習データに記憶する。また、CPU31は、第1計測装置21から送信されたユーザ(対象者T)の識別情報を受信することによって、ユーザ(対象者T)の識別情報を取得した場合に、取得したユーザ(対象者T)の識別情報を、ステップS100において学習データに記憶された少なくとも1つの部位の各々の座標と、取得した対象者Tの状態に関する情報と、に対応付けた状態で、対象者T(個体)の識別情報(個体ラベル)として学習データに記憶してもよい。
【0118】
次いで、識別装置30のCPU31は、取得した少なくとも1つの部位の各々に関する情報と、取得した対象者T(個体)の状態に関する情報と、を学習データとして用いた機械学習によって、対象者T(個体)を識別するのに用いられるモデルを学習する(ステップS104)。ここで、CPU31は、例えば、グラフ畳み込みニューラルネットワーク(GCN)モデル、グラフアテンションネットワーク(GAT)モデル、グラフ畳み込みLSTM(GC-LSTM)モデルの何れかを用いて学習してもよい。
【0119】
このようにして、画像内の対象者Tの少なくとも1つの部位の各々に関する情報と対象者Tの状態に関する情報とを学習データとして用いた機械学習によって、対象者Tを識別(個体識別)するのに用いられるモデルを学習することが可能になる。
【0120】
(5)本実施形態の個体識別システムの主要な処理のフロー
次に、本実施形態の個体識別システムにより行われる主要な処理のフローの一例について、図12のフローチャートを参照して説明する。
【0121】
先ず、識別装置30のCPU31は、第1取得手段41の機能に基づいて、撮像装置10によって撮像された対象者T(個体)の画像を取得する(ステップS200)。次に、識別装置30のCPU31は、第2取得手段42の機能に基づいて、計測装置20によって計測された対象者T(個体)の状態に関する情報を取得する(ステップS202)。さらに、識別装置30のCPU31は、検出手段43の機能に基づいて、取得した画像を用いて、対象者T(動体)の少なくとも1つの部位を検出する(ステップS204)。ここで、CPU31は、対象者Tの少なくとも1つの関節を、対象者Tの少なくとも1つの部位として検出してもよい。
【0122】
次に、識別装置30のCPU31は、識別手段45の機能に基づいて、検出された対象者T(個体)の少なくとも1つの部位の各々に関する情報と、対象者Tの状態に関する情報と、対象者Tの画像内の対象者Tの少なくとも1つの部位の各々に関する情報及び対象者Tの状態に関する情報を学習データとして用いた機械学習に基づく学習済モデルと、を用いて、対象者Tを識別する(ステップS206)。ここで、識別装置30のCPU31は、検出された対象者T(個体)の少なくとも1つの部位の各々の取得した画像内の座標と、対象者Tの状態に関する情報と、対象者Tの画像内の対象者Tの少なくとも1つの部位の各々の座標及び対象者Tの状態に関する情報を学習データとして用いた機械学習に基づく学習済モデルと、に基づいて、対象者Tを識別してもよい。また、CPU31は、上述した変換手段44の機能に基づいて変換された少なくとも1つの部位の各々の座標と、上記の学習済モデルと、に基づいて、対象者Tを識別してもよい。
【0123】
なお、識別装置30のCPU31は、ステップS206の後に、識別結果に関する情報を例えば表示部36に表示してもよい。また、識別装置30のCPU31は、識別結果に関する情報を、通信網NWを介して他のコンピュータ(例えば、サーバ等)に送信してもよい。
【0124】
上述したように、本実施形態の個体識別システム、個体識別方法、プログラムによれば、撮像装置10によって撮像された対象者Tの画像に基づいて検出された当該対象者Tの少なくとも1つの部位の各々に関する情報と、対象者Tの状態に関する情報と、学習済モデルと、に基づいて当該対象者Tが識別されるので、撮像装置10によって撮像された対象者Tの画像と計測装置20によって計測された対象者Tの状態に関する情報とを用いることによって当該対象者Tを識別することが可能になる。これにより、例えば対象者Tの識別情報が形成された衣服等を用いることなく個体識別を行うことが可能になるので、個体識別を容易且つ高精度に行うことができる。
【0125】
また、本実施形態のモデル学習システム、モデル学習方法、プログラムによれば、画像内の対象者Tの少なくとも1つの部位の各々に関する情報と対象者Tの状態に関する情報とを学習データとして用いた機械学習によって、対象者Tを識別するのに用いられるモデルを学習することが可能になるので、このモデルを用いることによって、個体識別を容易に行うことができる。
【0126】
なお、本発明のプログラムは、コンピュータで読み取り可能な記憶媒体に記憶されていてもよい。このプログラムを記録した記憶媒体は、図2に示す識別装置30のROM32、RAM33又は記憶装置34であってもよい。また、記憶媒体は、例えばCD-ROMドライブ等のプログラム読取装置に挿入されることで読み取り可能なCD-ROM等であってもよい。さらに、記憶媒体は、磁気テープ、カセットテープ、フレキシブルディスク、MO/MD/DVD等であってもよいし、半導体メモリであってもよい。
【0127】
以上説明した実施形態は、本発明の理解を容易にするために記載されたものであって、本発明を限定するために記載されたものではない。したがって、上記実施形態に開示された各要素は、本発明の技術的範囲に属する全ての設計変更や均等物をも含む趣旨である。
【0128】
例えば、上述した実施形態では、識別手段45が、対象者T(個体)の少なくとも1つの部位の各々に関する情報と、対象者Tの状態に関する情報と、を用いて、対象者Tを識別する場合を一例として説明しているが、本発明は、この場合に限られない。例えば、識別手段45は、対象者T(個体)の少なくとも1つの部位の各々に関する情報と、対象者Tの画像内の対象者Tの少なくとも1つの部位の各々に関する情報を学習データとして用いた機械学習に基づく学習済モデルと、に基づいて、対象者Tを識別してもよい。すなわち、識別手段45は、対象者Tの状態に関する情報を用いることなく、対象者Tを識別してもよい。
【0129】
この場合における学習データの一例を図13に示す。図13に示す学習データは、画像内の対象者Tの少なくとも1つの部位の各々の座標と、当該対象者T(個体)の識別情報(個体ラベル)(図の例では、「作業員A」、「作業員B」、「作業員C」、「作業員D」等)が対応付けられた状態で記述されているデータである。これにより、この学習データを用いた機械学習の結果として、画像内の対象者Tの少なくとも1つの部位の各々の座標と、対象者Tの識別情報との関係を示す学習済モデルが構成される。
【0130】
なお、上述したように、第1計測装置21を所持するユーザ(対象者T)又は第1計測装置21が設けられたユーザ(対象者T)の識別情報(例えば、対象者のIDや氏名等)が第1計測装置21に記憶されている場合には、第1計測装置21に記憶されたユーザ(対象者T)の識別情報が、対象者T(個体)の識別情報(個体ラベル)として学習データに記憶されてもよい。
【0131】
ここで、学習手段48は、取得した少なくとも1つの部位の各々に関する情報を学習データとして用いた機械学習によって、対象者T(個体)を識別するのに用いられるモデルを学習してもよい。例えば、識別装置30のCPU31は、例えば、所定のモデル学習指示が入力部37を用いて入力されると、図13に示す学習データを用いてモデルの学習を行ってもよい。
【0132】
また、識別手段45は、検出された対象者T(個体)の少なくとも1つの部位の各々に関する情報と、対象者Tの画像内の対象者Tの少なくとも1つの部位の各々に関する情報を学習データとして用いた機械学習に基づく学習済モデルと、に基づいて、対象者Tを識別してもよい。例えば、識別装置30のCPU31は、変換手段44の機能に基づいて変換された少なくとも1つの部位の各々の座標を、図13に示す学習データを用いた機械学習に基づく学習済モデルに入力することによって、対象者Tを識別(個体識別)してもよい。
【0133】
この場合における個体識別システム、個体識別方法、プログラムによれば、撮像装置10によって撮像された対象者Tの画像に基づいて検出された対象者Tの少なくとも1つの部位の各々に関する情報と、学習済モデルと、に基づいて対象者Tが識別されるので、撮像装置10によって撮像された対象者Tの画像を用いることによって対象者Tを識別することが可能になる。これにより、例えば対象者Tの識別情報が形成された衣服等を用いることなく個体識別を行うことが可能になるので、個体識別を容易に行うことができる。
【0134】
また、上述した実施形態では、個体が人物(対象者T)である場合を一例として説明したが、この場合に限られない。個体は、個体識別の対象となり得るものであれば如何なるものであってもよく、例えば、人物以外の生物であってもよいし、製品等のオブジェクトであってもよい。
【0135】
さらに、上述した実施形態では、対象者T(動体)の首、右肩、左肩、右臀部、左臀部が、対象者Tの部位として検出される場合を一例として説明したが、他の部位(例えば、頭、手、足、関節等)が検出されてもよい。
【0136】
さらにまた、上述した実施形態では、1つの個体(対象者T)の個体識別が行われる場合を一例として説明したが、複数の個体の各々の個体識別が同時に行われてもよい。
【0137】
また、上述した実施形態では、1つの識別装置30が設けられている場合を一例として説明したが、この場合に限られない。例えば、複数の識別装置30が設けられてもよく、この場合には、何れかの識別装置30上の操作内容及び処理結果等が他の識別装置30上でリアルタイムに提示されてもよいし、何れかの識別装置30での処理結果等が複数の識別装置30間で共有されてもよい。
【0138】
さらに、上述した実施形態では、画像内の対象者Tの少なくとも1つの部位の各々の座標が本発明の「個体の少なくとも1つの部位の各々に関する情報」に対応する場合を一例として説明したが、この場合に限られない。「個体の少なくとも1つの部位の各々に関する情報」は、例えば、画像内の対象者Tの少なくとも1つの部位の各々の角度に関する情報であってもよいし、画像内の対象者Tの複数の部位間の距離に関する情報であってもよいし、画像内の対象者Tの少なくとも1つの部位の各々の所定期間内の移動態様(例えば、移動速度や移動距離)等であってもよい。
【0139】
さらにまた、上述した実施形態では、識別装置30によって、第1取得手段41、第2取得手段42、検出手段43、変換手段44、識別手段45、第1情報取得手段46、第2情報取得手段47及び学習手段48の各機能を実現する構成としたが、この構成に限られない。例えば、インターネットやLAN等の通信網を介して識別装置30と通信可能に接続されたコンピュータ等(例えば、汎用のパーソナルコンピュータやサーバコンピュータ等)から構成された学習装置50(図14に示す)であって、個体を識別するのに用いられるモデルを学習するための学習装置50が設けられてもよい。この場合、識別装置30及び学習装置50は、実質的に同一のハードウェア構成を採ることができるので、上記実施形態において説明した各手段41~48のうち少なくとも1つの手段の機能を学習装置50によって実現することが可能になる。例えば、図3に示した機能ブロック図の各機能は、図14(a),(b)に示すように、識別装置30と学習装置50との間で任意に分担されてもよい。
【0140】
また、上記各手段41~48のうち少なくとも1つの手段の機能を撮像装置10及び/又は計測装置20によって実現する構成としてもよい。
【産業上の利用可能性】
【0141】
上述したような本発明の個体識別システム、モデル学習システム、個体識別方法、モデル学習方法、プログラムは、個体識別を容易に行うことができ、例えば、個体(例えば、作業者等の人物や人物以外の生物等)の行動分析を行うシステムや、個体の行動に応じて適切な情報を提供する情報提供システムや、個体(例えば、入院患者、施設の入居者、ペット等)のモニタリングシステム等に好適に利用することができるので、その産業上の利用可能性は極めて大きい。
【符号の説明】
【0142】
10…撮像装置
20…計測装置
30…識別装置
41…第1取得手段
42…第2取得手段
43…検出手段
44…変換手段
45…識別手段
46…第1情報取得手段
47…第2情報取得手段
48…学習手段
50…学習装置
T…対象者
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14