(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024058567
(43)【公開日】2024-04-25
(54)【発明の名称】学習データ生成システム、推定システム、学習データ生成方法、推定方法、プログラム
(51)【国際特許分類】
G06T 7/246 20170101AFI20240418BHJP
G06T 7/00 20170101ALI20240418BHJP
【FI】
G06T7/246
G06T7/00 350B
【審査請求】未請求
【請求項の数】21
【出願形態】OL
(21)【出願番号】P 2023085488
(22)【出願日】2023-05-24
(31)【優先権主張番号】P 2022164447
(32)【優先日】2022-10-13
(33)【優先権主張国・地域又は機関】JP
(71)【出願人】
【識別番号】507234427
【氏名又は名称】公立大学法人岩手県立大学
(74)【代理人】
【識別番号】100108833
【弁理士】
【氏名又は名称】早川 裕司
(74)【代理人】
【識別番号】100162156
【弁理士】
【氏名又は名称】村雨 圭介
(72)【発明者】
【氏名】堀川 三好
(72)【発明者】
【氏名】藤原 龍聖
【テーマコード(参考)】
5L096
【Fターム(参考)】
5L096AA06
5L096AA09
5L096CA04
5L096CA05
5L096DA02
5L096FA32
5L096FA33
5L096FA66
5L096FA67
5L096FA69
5L096GA51
5L096HA11
5L096KA04
(57)【要約】
【課題】撮像された動体の画像に基づいて当該動体の行動を推定するための学習データを容易に生成することの可能な学習データ生成システム、学習データ方法、プログラム、及び、撮像された動体の画像に基づいて当該動体の行動を容易に推定することの可能な推定システム、推定方法、プログラムを提供する。
【解決手段】学習データ生成システムは、撮像装置によって撮像された動体の画像を取得する第1取得手段41と、計測装置によって計測された動体の状態に関する情報を取得する第2取得手段42と、所定期間内の動体の状態に関する情報の推移に基づいて、所定期間内の動体の行動を推定する推定手段45と、所定期間内に撮像された動体の画像に対して所定期間内の動体の行動に関する情報をラベルとして付与することによって、動体の画像に基づいて動体の行動を推定するための学習データを生成する生成手段46と、を備える。
【選択図】
図3
【特許請求の範囲】
【請求項1】
撮像装置によって撮像された動体の画像を取得する第1取得手段と、
計測装置によって計測された前記動体の状態に関する情報を取得する第2取得手段と、
所定期間内の前記動体の状態に関する情報の推移に基づいて、前記所定期間内の前記動体の行動を推定する推定手段と、
前記所定期間内に撮像された前記動体の画像に対して前記所定期間内の前記動体の行動に関する情報をラベルとして付与することによって、前記動体の画像に基づいて前記動体の行動を推定するための学習データを生成する生成手段と、を備える、
学習データ生成システム。
【請求項2】
取得した画像に基づいて、前記動体の少なくとも1つの部位を検出する部位検出手段を備え、
前記生成手段は、前記所定期間内の前記動体の少なくとも1つの部位の移動態様に関する情報に対して前記所定期間内の前記動体の行動に関する情報をラベルとして付与することによって、前記学習データを生成する、請求項1に記載の学習データ生成システム。
【請求項3】
前記部位検出手段は、前記動体の少なくとも1つの関節を、前記動体の少なくとも1つの部位として検出する、請求項2に記載の学習データ生成システム。
【請求項4】
前記推定手段は、前記所定期間内の前記動体の状態に関する情報の推移と、前記動体の状態に関する情報の推移を学習データとして用いた機械学習に基づく学習済モデルと、に基づいて、前記所定期間内の前記動体の行動を推定する、請求項1に記載の学習データ生成システム。
【請求項5】
前記動体の状態に関する情報に基づいて、前記動体の行動が変化するタイミングを示す変化点を検出する変化点検出手段を備え、
前記推定手段は、第1の変化点から前記第1の変化点の次の変化点である第2の変化点までの期間内の前記動体の行動を推定する、請求項1~4の何れかに記載の学習データ生成システム。
【請求項6】
前記変化点検出手段は、それぞれ同じ行動に対応し、且つ、状態の変化態様が互いに同期していない複数の前記動体の状態に関する情報が存在する場合に、状態の変化態様が同期するように前記複数の前記動体の状態に関する情報を調整し、調整した前記複数の前記動体の状態に関する情報に基づいて前記変化点を検出する、請求項5に記載の学習データ生成システム。
【請求項7】
前記変化点検出手段は、動的時間伸縮法(DTW)を用いて、前記複数の前記動体の状態に関する情報を調整する、請求項6に記載の学習データ生成システム。
【請求項8】
前記変化点検出手段は、調整した前記複数の前記動体の状態に関する情報を合成し、合成した前記複数の前記動体の状態に関する情報に基づいて前記変化点を検出する、請求項6に記載の学習データ生成システム。
【請求項9】
前記変化点検出手段は、前記調整した前記複数の前記動体の状態に関する情報を平均化することによって、前記調整した前記複数の前記動体の状態に関する情報を合成する、請求項8に記載の学習データ生成システム。
【請求項10】
前記変化点検出手段は、DTW Barycenter Averaging法を用いて、前記調整した前記複数の前記動体の状態に関する情報を平均化する、請求項9に記載の学習データ生成システム。
【請求項11】
前記変化点検出手段は、所定のタイミングにおける前記動体の状態に関する情報が所定の条件を満たす場合に前記所定のタイミングが前記変化点であるか否かを判別することによって、前記変化点を検出する、請求項5に記載の学習データ生成システム。
【請求項12】
前記所定の条件は、前記動体の状態に関する情報の推移を示す曲線の微分値が0であることを含む、請求項11に記載の学習データ生成システム。
【請求項13】
前記変化点検出手段は、前記所定のタイミングにおける前記動体の状態に関する情報の変化の大小を示す変化点スコアが所定値以上である場合に、前記所定のタイミングが前記変化点であると判別する、請求項11に記載の学習データ生成システム。
【請求項14】
前記動体の状態に関する情報は、前記動体の位置、回転数、角速度、角加速度、姿勢、加速度及び速度のうち少なくとも1つを含み、
前記変化点検出手段は、前記所定のタイミングにおける前記動体の位置、回転数、角速度、角加速度、姿勢、加速度及び速度のうち少なくとも1つの変化の大小を示す変化点スコアに基づいて、前記所定のタイミングが前記変化点であるか否かを判別する、請求項11に記載の学習データ生成システム。
【請求項15】
前記動体の位置は、前記動体に設けられた装置と少なくとも1つの他の装置の各々との間で送受信される信号の受信信号強度に基づいてもとめられ、
前記変化点検出手段は、前記動体の状態に関する情報が前記動体の位置を含む場合に、前記信号の受信信号強度の変化の大小を示す変化点スコアに基づいて、前記所定のタイミングが前記変化点であるか否かを判別する、請求項14に記載の学習データ生成システム。
【請求項16】
前記動体の状態に関する情報は、前記動体の位置、回転数、角速度、角加速度、姿勢、加速度及び速度のうち少なくとも1つを含む、請求項1に記載の学習データ生成システム。
【請求項17】
撮像装置によって撮像された動体の画像を取得する画像取得手段と、
所定期間内に撮像された前記動体の画像と、請求項1の学習データ生成システムによって生成された学習データを用いた機械学習に基づく学習済モデルと、に基づいて、前記所定期間内の前記動体の行動を推定する行動推定手段と、を備える、
推定システム。
【請求項18】
コンピュータが、
撮像装置によって撮像された動体の画像を取得するステップと、
計測装置によって計測された前記動体の状態に関する情報を取得するステップと、
所定期間内の前記動体の状態に関する情報の推移に基づいて、前記所定期間内の前記動体の行動を推定するステップと、
前記所定期間内に撮像された前記動体の画像に対して前記所定期間内の前記動体の行動に関する情報をラベルとして付与することによって、前記動体の画像に基づいて前記動体の行動を推定するための学習データを生成するステップと、
の各ステップを実行する、学習データ生成方法。
【請求項19】
コンピュータが、
撮像装置によって撮像された動体の画像を取得するステップと、
所定期間内に撮像された前記動体の画像と、請求項18の学習データ生成方法によって生成された学習データを用いた機械学習に基づく学習済モデルと、に基づいて、前記所定期間内の前記動体の行動を推定するステップと、
の各ステップを実行する、推定方法。
【請求項20】
コンピュータに、
撮像装置によって撮像された動体の画像を取得する機能と、
計測装置によって計測された前記動体の状態に関する情報を取得する機能と、
所定期間内の前記動体の状態に関する情報の推移に基づいて、前記所定期間内の前記動体の行動を推定する機能と、
前記所定期間内に撮像された前記動体の画像に対して前記所定期間内の前記動体の行動に関する情報をラベルとして付与することによって、前記動体の画像に基づいて前記動体の行動を推定するための学習データを生成する機能と、
を実現させるためのプログラム。
【請求項21】
コンピュータに、
撮像装置によって撮像された動体の画像を取得する機能と、
所定期間内に撮像された前記動体の画像と、請求項20のプログラムによって生成された学習データを用いた機械学習に基づく学習済モデルと、に基づいて、前記所定期間内の前記動体の行動を推定する機能と、
を実現させるためのプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、学習データ生成システム、推定システム、学習データ生成方法、推定方法、プログラムに関する。
【背景技術】
【0002】
従来、撮像された動体(例えば、人間等)の画像に基づいて当該動体の行動を推定する行動推定装置が知られている(例えば、特許文献1)。特許文献1に記載された技術では、撮像された動体の画像に対して当該動体の行動に関する情報をラベル(正解行動)として付与することによって学習データを生成し、この学習データを用いた機械学習に基づく学習済モデルに基づいて、当該動体の行動を推定するように構成されている。
【先行技術文献】
【特許文献】
【0003】
【発明の概要】
【発明が解決しようとする課題】
【0004】
特許文献1に記載された技術では、ユーザが、画像を視認することによって動体の行動を判断し、判断した行動をラベル(正解行動)として付与する、というような人為的な作業が必要とされている。このため、学習データの生成に必要な時間やユーザの負担が増加して、学習データの生成にかかるコストが嵩む虞がある。また、例えば、動体の行動に対するユーザの判断ミスが生じた場合には、適切な学習データを生成することが困難になる虞がある。
【0005】
本発明は上記課題に鑑みてなされたものであり、撮像された動体の画像に基づいて当該動体の行動を推定するための学習データを容易に生成することの可能な学習データ生成システム、学習データ方法、プログラム、及び、撮像された動体の画像に基づいて当該動体の行動を容易に推定することの可能な推定システム、推定方法、プログラムを提供することを目的とする。
【課題を解決するための手段】
【0006】
上記課題を解決するために、第一に本発明は、撮像装置によって撮像された動体の画像を取得する第1取得手段と、計測装置によって計測された前記動体の状態に関する情報を取得する第2取得手段と、所定期間内の前記動体の状態に関する情報の推移に基づいて、前記所定期間内の前記動体の行動を推定する推定手段と、前記所定期間内に撮像された前記動体の画像に対して前記所定期間内の前記動体の行動に関する情報をラベルとして付与することによって、前記動体の画像に基づいて前記動体の行動を推定するための学習データを生成する生成手段と、を備える、学習データ生成システムを提供する(発明1)。
【0007】
かかる発明(発明1)によれば、所定期間内の動体の状態に関する情報の推移に基づいて当該所定期間内の動体の行動が推定され、推定された行動に関する情報が、当該所定期間内に撮像された動体の画像に対してラベルとして付与されることによって、動体の画像に基づいて当該動体の行動を推定するための学習データを自動的に生成することが可能になる。これにより、例えば人為的な作業によって学習データを生成する場合と比較して、学習データを容易に生成することができる。また、学習データを生成する際の人為的なミスを排除することが可能になるので、適切な学習データを生成することができる。
【0008】
上記発明(発明1)においては、取得した画像に基づいて、前記動体の少なくとも1つの部位を検出する部位検出手段を備え、前記生成手段は、前記所定期間内の前記動体の少なくとも1つの部位の移動態様に関する情報に対して前記所定期間内の前記動体の行動に関する情報をラベルとして付与することによって、前記学習データを生成してもよい(発明2)。
【0009】
かかる発明(発明2)によれば、所定期間内に撮像された動体の画像から検出された動体の少なくとも1つの部位の移動態様に関する情報を用いることによって、所定期間内の動体の行動をより正確に推定することの可能な学習データを生成することができる。
【0010】
上記発明(発明2)においては、前記部位検出手段は、前記動体の少なくとも1つの関節を、前記動体の少なくとも1つの部位として検出してもよい(発明3)。
【0011】
かかる発明(発明3)によれば、動体の少なくとも1つの関節の移動態様に関する情報を用いて、学習データを生成することができる。
【0012】
上記発明(発明1)においては、前記推定手段は、前記所定期間内の前記動体の状態に関する情報の推移と、前記動体の状態に関する情報の推移を学習データとして用いた機械学習に基づく学習済モデルと、に基づいて、前記所定期間内の前記動体の行動を推定してもよい(発明4)。
【0013】
かかる発明(発明4)によれば、所定期間内の動体の状態に関する情報の推移を用いて学習済モデルによって推定された動体の行動に基づいて、所定期間内の動体の行動を容易に推定することができる。
【0014】
上記発明(発明1~4)においては、前記動体の状態に関する情報に基づいて、前記動体の行動が変化するタイミングを示す変化点を検出する変化点検出手段を備え、前記推定手段は、第1の変化点から前記第1の変化点の次の変化点である第2の変化点までの期間内の前記動体の行動を推定してもよい(発明5)。
【0015】
かかる発明(発明5)によれば、変化点が検出されたタイミングで動体の行動の推定処理が開始され、それ以外のタイミングでは動体の行動の推定処理が開始されないので、例えば動体の行動の推定処理が常時開始される場合と比較して、動体の行動の推定処理にかかる負荷を低減することが可能になる。
【0016】
上記発明(発明5)においては、前記変化点検出手段は、それぞれ同じ行動に対応し、且つ、状態の変化態様が互いに同期していない複数の前記動体の状態に関する情報が存在する場合に、状態の変化態様が同期するように前記複数の前記動体の状態に関する情報を調整し、調整した前記複数の前記動体の状態に関する情報に基づいて前記変化点を検出してもよい(発明6)。
【0017】
ここで、例えば、同じ行動に対応する複数の動体の状態に関する情報を用いて変化点を検出する場合であって、例えば行動速度の違い等によって複数の動体の状態に関する情報の変化態様が同期していない場合には、変化点が検出されるタイミングが、複数の動体の状態に関する情報間で異なる場合があることから、正確な変化点を検出することが困難になる虞がある。そこで、かかる発明(発明6)によれば、状態の変化態様が同期するように複数の動体の状態に関する情報が調整され、調整された複数の動体の状態に関する情報に基づいて変化点が検出されるので、同じ行動に対応する複数の動体の状態に関する情報を用いた場合であっても変化点を正確に検出することが可能になる。
【0018】
上記発明(発明6)においては、前記変化点検出手段は、動的時間伸縮法(DTW)を用いて、前記複数の前記動体の状態に関する情報を調整してもよい(発明7)。
【0019】
かかる発明(発明7)によれば、動的時間伸縮法(DTW)を用いて、複数の動体の状態に関する情報を、状態の変化態様が同期するように容易に調整することが可能になる。
【0020】
上記発明(発明6)においては、前記変化点検出手段は、調整した前記複数の前記動体の状態に関する情報を合成し、合成した前記複数の前記動体の状態に関する情報に基づいて前記変化点を検出してもよい(発明8)。
【0021】
かかる発明(発明8)によれば、調整された(状態の変化態様が同期された)複数の動体の状態に関する情報が合成され、合成された複数の動体の状態に関する情報に基づいて変化点が検出されるので、例えば、調整された複数の動体の状態に関する情報の各々の間に差異がある場合であっても、合成された複数の動体の状態に関する情報を用いることによって、変化点を正確に検出することが可能になる。
【0022】
上記発明(発明8)においては、前記変化点検出手段は、前記調整した前記複数の前記動体の状態に関する情報を平均化することによって、前記調整した前記複数の前記動体の状態に関する情報を合成してもよい(発明9)。
【0023】
かかる発明(発明9)によれば、調整された複数の動体の状態に関する情報を平均化することによって、複数の動体の状態に関する情報を容易に合成することが可能になる。
【0024】
上記発明(発明9)においては、前記変化点検出手段は、DTW Barycenter Averaging法を用いて、前記調整した前記複数の前記動体の状態に関する情報を平均化してもよい(発明10)。
【0025】
かかる発明(発明10)によれば、DTW Barycenter Averaging法を用いることによって、調整された複数の動体の状態に関する情報を容易に平均化することが可能になる。
【0026】
上記発明(発明5)においては、前記変化点検出手段は、所定のタイミングにおける前記動体の状態に関する情報が所定の条件を満たす場合に前記所定のタイミングが前記変化点であるか否かを判別することによって、前記変化点を検出してもよい(発明11)。
【0027】
かかる発明(発明11)によれば、動体の状態に関する情報が所定の条件を満たすタイミングで変化点の検出処理が行われるので、例えば変化点の検出処理が常時行われる場合と比較して、変化点の検出処理にかかる負荷を低減することが可能になる。
【0028】
上記発明(発明11)においては、前記所定の条件は、前記動体の状態に関する情報の推移を示す曲線の微分値が0であることを含んでもよい(発明12)。
【0029】
かかる発明(発明12)によれば、動体の状態に関する情報の推移を示す曲線の微分値が0である場合に、変化点の検出処理を行うことが可能になる。
【0030】
上記発明(発明11)においては、前記変化点検出手段は、前記所定のタイミングにおける前記動体の状態に関する情報の変化の大小を示す変化点スコアが所定値以上である場合に、前記所定のタイミングが前記変化点であると判別してもよい(発明13)。
【0031】
かかる発明(発明13)によれば、変化点スコアを用いることによって、変化点を容易に検出することが可能になる。
【0032】
上記発明(発明11)においては、前記動体の状態に関する情報は、前記動体の位置、回転数、角速度、角加速度、姿勢、加速度及び速度のうち少なくとも1つを含み、前記変化点検出手段は、前記所定のタイミングにおける前記動体の位置、回転数、角速度、角加速度、姿勢、加速度及び速度のうち少なくとも1つの変化の大小を示す変化点スコアに基づいて、前記所定のタイミングが前記変化点であるか否かを判別してもよい(発明14)。
【0033】
かかる発明(発明14)によれば、動体の位置、回転数、角速度、角加速度、姿勢、加速度及び速度のうち少なくとも1つを用いることによって、変化点を容易に検出することが可能になる。また、動体の位置、回転数、角速度、角加速度、姿勢、加速度及び速度のうち少なくとも2つが用いられる場合には、当該少なくとも2つの各々の変化点スコアを複合的に用いることによって、変化点をより正確且つ容易に検出することが可能になる。
【0034】
上記発明(発明14)においては、前記動体の位置は、前記動体に設けられた装置と少なくとも1つの他の装置の各々との間で送受信される信号の受信信号強度に基づいてもとめられ、前記変化点検出手段は、前記動体の状態に関する情報が前記動体の位置を含む場合に、前記信号の受信信号強度の変化の大小を示す変化点スコアに基づいて、前記所定のタイミングが前記変化点であるか否かを判別してもよい(発明15)。
【0035】
かかる発明(発明15)によれば、動体に設けられた装置と少なくとも1つの他の装置の各々との間で送受信される信号の受信信号強度の変化の大小を示す変化点スコアに基づいて、変化点を容易に検出することができる。
【0036】
上記発明(発明1)においては、前記動体の状態に関する情報は、前記動体の位置、回転数、角速度、角加速度、姿勢、加速度及び速度のうち少なくとも1つを含んでもよい(発明16)。
【0037】
かかる発明(発明16)によれば、動体の位置、回転数、角速度、角加速度、姿勢、加速度及び速度のうち少なくとも1つを用いて、ラベルとして付与される動体の行動を推定することができる。
【0038】
第二に本発明は、撮像装置によって撮像された動体の画像を取得する画像取得手段と、所定期間内に撮像された前記動体の画像と、発明1~16の何れかの学習データ生成システムによって生成された学習データを用いた機械学習に基づく学習済モデルと、に基づいて、前記所定期間内の前記動体の行動を推定する行動推定手段と、を備える、推定システムを提供する(発明17)。
【0039】
かかる発明(発明17)によれば、撮像された動体の画像に基づいて当該動体の行動を容易に推定することができる。
【0040】
第三に本発明は、コンピュータが、撮像装置によって撮像された動体の画像を取得するステップと、計測装置によって計測された前記動体の状態に関する情報を取得するステップと、所定期間内の前記動体の状態に関する情報の推移に基づいて、前記所定期間内の前記動体の行動を推定するステップと、前記所定期間内に撮像された前記動体の画像に対して前記所定期間内の前記動体の行動に関する情報をラベルとして付与することによって、前記動体の画像に基づいて前記動体の行動を推定するための学習データを生成するステップと、の各ステップを実行する、学習データ生成方法を提供する(発明18)。
【0041】
第四に本発明は、コンピュータが、撮像装置によって撮像された動体の画像を取得するステップと、所定期間内に撮像された前記動体の画像と、発明18の学習データ生成方法によって生成された学習データを用いた機械学習に基づく学習済モデルと、に基づいて、前記所定期間内の前記動体の行動を推定するステップと、の各ステップを実行する、推定方法を提供する(発明19)。
【0042】
第五に本発明は、コンピュータに、撮像装置によって撮像された動体の画像を取得する機能と、計測装置によって計測された前記動体の状態に関する情報を取得する機能と、所定期間内の前記動体の状態に関する情報の推移に基づいて、前記所定期間内の前記動体の行動を推定する機能と、前記所定期間内に撮像された前記動体の画像に対して前記所定期間内の前記動体の行動に関する情報をラベルとして付与することによって、前記動体の画像に基づいて前記動体の行動を推定するための学習データを生成する機能と、を実現させるためのプログラムを提供する(発明20)。
【0043】
第六に本発明は、コンピュータに、撮像装置によって撮像された動体の画像を取得する機能と、所定期間内に撮像された前記動体の画像と、発明20のプログラムによって生成された学習データを用いた機械学習に基づく学習済モデルと、に基づいて、前記所定期間内の前記動体の行動を推定する機能と、を実現させるためのプログラムを提供する(発明21)。
【発明の効果】
【0044】
本発明の学習データ生成システム、学習データ生成方法、プログラムによれば、撮像された動体の画像に基づいて当該動体の行動を推定するための学習データを容易に生成することができる。また、本発明の推定システム、推定方法、プログラムによれば、撮像された動体の画像に基づいて当該動体の行動を容易に推定することができる。
【図面の簡単な説明】
【0045】
【
図1】本発明の一実施形態に係る学習データ生成システム及び推定システムの基本構成を概略的に示す図である。
【
図3】学習データ生成システム及び推定システムで主要な役割を果たす機能を説明するための機能ブロック図である。
【
図6】計測装置からの距離と受信信号強度との関係の一例を示す図である。
【
図7】動体の少なくとも1つの部位の検出結果の一例を示す図である。
【
図8】動体の加速度と変化点スコアの経時的な変化の一例を示す図である。
【
図9】(a)は、同じ動作が時間差で行われる場合の動体の加速度の時系列データの一例を示す図であり、(b)は、各時系列データを調整する場合の一例を示す図であり、(c)は、調整後に平均化された各時系列データの一例を示す図である。
【
図13】本発明の一実施形態に係る学習データ生成システムの主要な処理の一例を示すフローチャートである。
【
図14】本発明の一実施形態に係る推定システムの主要な処理の一例を示すフローチャートである。
【
図16】学習データ生成システム及び推定システムの各機能について、生成装置と、推定装置との間の分担例を示す図である。
【発明を実施するための形態】
【0046】
以下、本発明の一実施形態について添付図面を参照して詳細に説明する。ただし、この実施形態は例示であり、本発明はこれに限定されるものではない。
【0047】
(1)学習データ生成システム及び推定システムの基本構成
図1は、本発明の一実施形態に係る推定システムの基本構成を概略的に示す図である。
図1に示すように、本実施形態に係る推定システムは、例えば屋内等の所定空間SPに動体(本実施形態では、対象者T)が存在する場合に、空間SP内の所定位置(
図1の例では、空間SPの中央上部)に設けられた撮像装置10によって撮像された対象者Tの画像を推定装置30が取得し、所定期間内に撮像された対象者Tの画像と、後述する学習データ生成システムによって生成された学習データを用いた機械学習に基づく学習済モデルと、に基づいて、当該所定期間内の対象者Tの行動を推定するようになっている。
【0048】
また、本実施形態に係る学習データ生成システムは、推定装置30が、撮像装置10によって撮像された対象者Tの画像を取得し、計測装置20によって計測された対象者Tの状態に関する情報を取得し、所定期間内の対象者Tの状態に関する情報の推移に基づいて、当該所定期間内の対象者Tの行動を推定し、当該所定期間内に撮像された対象者Tの画像に対して当該所定期間内の対象者Tの行動に関する情報をラベルとして付与することによって、対象者Tの画像に基づいて対象者Tの行動を推定するための学習データを生成するようになっている。
【0049】
ここで、撮像装置10及び計測装置20の各々と、推定装置30とは、例えばインターネットやLAN(Local Area Network)等の通信網NW(ネットワーク)に接続されている。
【0050】
撮像装置10は、例えば、動画像及び/又は静止画像を撮像する撮像装置(例えば、デジタルカメラやデジタルビデオカメラ等)であってもよく、空間SP内の所定位置において空間SPを撮像するように設けられている。また、撮像装置10は、例えば、所定のフレームレート(例えば、30fps(flames per second)等)で撮像処理を行って、撮像した画像を、通信網NWを介して推定装置30に送信するように構成されている。なお、撮像装置10は、推定装置30から所定の撮像指示信号を受信した場合に撮像処理を行ってもよい。
【0051】
ここで、撮像装置10は、全方位画像(例えば、周囲360°(
図1の例では、水平方向の周囲360°)の画像)を撮像する撮像装置(例えば、全方位カメラ等)であってもよい。この場合、撮像範囲が広がることによって、対象者Tの行動を広範囲に亘って把握することができる。
【0052】
また、撮像装置10は、赤外線画像を撮像する撮像装置(例えば、赤外線カメラ等)であってもよい。これにより、例えば、視界の悪い環境(例えば、夜間、暗い場所、悪天候の場所等)に対象者Tが存在している場合であっても、撮像画像内の対象者Tを検出することができる。
【0053】
さらに、撮像装置10は、ステレオ画像を撮像する撮像装置(例えば、ステレオカメラ等)であってもよい。ここで、ステレオ画像とは、例えば、所定の視差を有する2つの画像のセットであってもよい。
【0054】
なお、本実施形態では、1つの撮像装置10を用いて空間SPを撮像する場合を一例として説明しているが、複数の撮像装置(例えば、水平方向及び/又は垂直方向に間隔をおいて設けられた2つの撮像装置等)を用いて空間SPを撮像してもよい。
【0055】
計測装置20は、対象者Tの状態を連続的又は断続的(例えば、所定間隔(例えば300ミリ秒や1秒等)毎)に計測する装置である。ここで、対象者Tの状態に関する情報とは、例えば、対象者Tの位置に関する情報であってもよいし、対象者Tの身体状態を表す値であってもよいし、対象者Tの位置や身体状態を表す値を所定の計算式に代入することによって得られた値であってもよいし、対象者Tの位置や身体状態の度合いを表す情報であってもよい。また、対象者Tの位置に関する情報は、例えば、GPS(Global Positioning System)等の位置測定技術を用いて測定された位置情報(例えば、緯度、経度及び高度のうち少なくとも1つ)を含んでもよいし、一方の装置が送信した信号を他方の装置が受信したときの受信信号強度(RSSI)に関する情報を含んでもよい。ここで、受信信号強度に関する情報は、例えば、受信信号強度の値であってもよいし、受信信号強度の値を所定の計算式に代入することによって得られた値であってもよいし、受信信号強度の度合いを表す情報であってもよい。
【0056】
計測装置20は、例えば、対象者Tの位置を計測する装置(例えば、GPSセンサ等)であってもよいし、対象者Tの身体状態(例えば、3軸方向の速度及び/又は加速度(対象者Tの所定部位の速度及び/又は加速度であってもよい)、3軸方向の角速度及び/又は角加速度(対象者Tの所定部位の角速度及び/又は角加速度であってもよい)、回転数(対象者Tの所定部位の回転数であってもよい)、姿勢、心拍数(脈拍)、血圧、体温、発汗量、歩数、歩行速度、運動強度(例えば、心拍数÷最大心拍数)又は消費カロリー等)を計測する装置(例えば、心拍計、血圧計、体温計、発汗計、3軸加速度センサ、3軸速度センサ、3軸ジャイロセンサ、モーションセンサ等)であってもよい。
【0057】
また、計測装置20は、
図1に示すように、対象者Tが所持可能又は対象者Tの身体に装着可能な第1計測装置21と、空間SP内の異なる位置にそれぞれ配置された複数(
図1の例では、3つ)の第2計測装置22であって、第1計測装置21が空間SP内に存在する場合に第1計測装置21と無線通信を行う複数の第2計測装置22と、から構成されてもよい。
【0058】
この場合、第1計測装置21は、空間SP内に存在する場合に、所定の無線通信方式(例えば、無線LAN(例えば、Wi-Fi(登録商標)))を用いて複数の第2計測装置22と無線通信を行うことができるように構成されてもよい。また、第1計測装置21は、複数の第2計測装置22との間で無線通信を行うために、自身の識別情報(例えば、MAC(Media Access Control)アドレス等)を含む無線信号(例えば、プローブ要求等)を所定間隔(例えば、数百ミリ秒間隔等)で送信するように構成されてもよい。さらに、第1計測装置21は、例えば、対象者Tに装着可能なデバイス(例えば、ウェアラブルデバイス)であってもよいし、対象者Tが所持可能な携帯型デバイスであってもよい。さらにまた、第1計測装置21は、例えば、携帯端末、スマートフォン、PDA(Personal Digital Assistant)、パーソナルコンピュータ、双方向の通信機能を備えたテレビジョン受像機(いわゆる多機能型のスマートテレビも含む。)等のように、個々のユーザによって操作される通信装置であってもよい。
【0059】
複数の第2計測装置22は、空間SP内で所定の無線通信方式(例えば、無線LAN(例えば、Wi-Fi(登録商標)))を用いて第1計測装置21と無線通信を行うことが可能な位置に設けられてもよい。また、複数の第2計測装置22は、例えば、空間SP内に存在する2つ以上の第1計測装置21間の無線通信を中継する装置であってもよいし、第1計測装置21と空間SP内に存在する他の装置(図示省略)との間の無線通信を中継する装置であってもよいし、第1計測装置21と、通信網NWを介して接続された他の装置(例えば、推定装置30等)との間の通信を中継する装置であってもよい。また、複数の第2計測装置22は、パケットキャプチャであってもよい。
【0060】
また、第1計測装置21と、複数の第2計測装置22と、のうち何れか一方には、他方が送信した信号を受信したときの受信信号強度(RSSI)を検出するRSSI回路が設けられていてもよい。さらに、この信号には、信号を送信した計測装置(第1計測装置21又は第2計測装置22)の識別情報(例えば、MACアドレス等)が含まれていてもよく、この信号の受信信号強度がRSSI回路によって検出されると、検出された受信信号強度と、この信号を送信した装置の識別情報と、が互いに対応付けられた状態で、この信号を受信した計測装置(第1計測装置21又は第2計測装置22)に設けられた記憶装置(図示省略)に記憶されてもよい。
【0061】
なお、ここでは、第1計測装置21と複数の第2計測装置22との間でWi-Fi(登録商標)を用いて無線通信を行う場合を一例として説明しているが、通信方式は、この場合に限られない。例えば、Bluetooth(登録商標)、ZigBee(登録商標)、UWB、光無線通信(例えば、赤外線)等の無線通信方式が用いられてもよいし、USB等の有線通信方式が用いられてもよい。
【0062】
計測装置20(第1計測装置21及び/又は複数の第2計測装置22)は、対象者Tの状態を検出する毎に、検出した状態に関する情報を、通信網NWを介して推定装置30に送信するように構成されている。
【0063】
なお、本実施形態では、1つの第1計測装置21が対象者Tに設けられている場合を一例として説明しているが、複数の第1計測装置21が対象者Tに設けられてもよい。また、本実施形態では、3つの第2計測装置22が空間SP内に設けられている場合を一例として説明しているが、空間SP内に設けられる第2計測装置22の数は、2つ以下であってもよいし、4つ以上であってもよい。
【0064】
さらに、撮像装置10及び計測装置20は、推定装置30との間で有線又は無線接続方式を用いて直接通信を行うように構成されてもよいし、所定の中継装置(図示省略)との間で有線又は無線接続方式を用いて情報の送受信を行うことによって、当該中継装置を介して推定装置30と通信を行うように構成されてもよい。
【0065】
推定装置30は、通信網NWを介して撮像装置10及び計測装置20の各々と通信を行い、撮像装置10が撮像した画像と、計測装置20が計測した対象者Tの状態に関する情報とを、通信網NWを介して経時的に取得するように構成されている。推定装置30は、例えば、携帯端末、スマートフォン、PDA、パーソナルコンピュータ、双方向の通信機能を備えたテレビジョン受像機(いわゆる多機能型のスマートテレビも含む。)等のように、個々のユーザによって操作される端末装置であってもよい。
【0066】
(2)推定装置の構成
図2を参照して推定装置30の構成について説明する。
図2は、推定装置30の内部構成を示すブロック図である。
図2に示すように、推定装置30は、CPU(Central Processing Unit)31と、ROM(Read Only Memory)32と、RAM(Random Access Memory)33と、記憶装置34と、表示処理部35と、表示部36と、入力部37と、通信インタフェース部38と、を備えており、各部間の制御信号又はデータ信号を伝送するためのバス30aが設けられている。
【0067】
CPU31は、電源が推定装置30に投入されると、ROM32又は記憶装置34に記憶された各種のプログラムをRAM33にロードして実行する。本実施形態では、CPU31は、ROM32又は記憶装置34に記憶されたプログラムを読み出して実行することにより、後述する第1取得手段41、第2取得手段42、部位検出手段43、変化点検出手段44、推定手段45、生成手段46、学習手段47、画像取得手段48及び行動推定手段49(
図3に示す)の機能を実現する。
【0068】
記憶装置34は、例えば、フラッシュメモリ、SSD(Solid State Drive)、磁気記憶装置(例えばHDD(Hard Disk Drive)、フロッピーディスク(登録商標)、磁気テープ等)、光ディスク等の不揮発性の記憶装置であってもよいし、RAM等の揮発性の記憶装置であってもよく、CPU31が実行するプログラムやCPU31が参照するデータを格納する。また、記憶装置34には、後述する第1取得データ(
図4に示す)、第2取得データ(
図5に示す)、第1学習データ(
図10に示す)、第2学習データ(
図11に示す)及び推定データ(
図12に示す)が記憶されている。
【0069】
表示処理部35は、CPU31から与えられる表示用データを表示部36に表示する。表示部36は、例えば、マトリクス状に画素単位で配置された薄膜トランジスタを含むLCD(Liquid Crystal Display)モニタであり、表示用データに基づいて薄膜トランジスタを駆動することで、表示されるデータを表示画面に表示する。
【0070】
推定装置30が釦入力方式の装置である場合には、入力部37は、ユーザの操作入力を受け入れるための方向指示釦及び決定釦等の複数の指示入力釦を含む釦群と、テンキー等の複数の指示入力釦を含む釦群とを備え、各釦の押下(操作)入力を認識してCPU31へ出力するためのインタフェース回路を含む。
【0071】
推定装置30がタッチパネル入力方式の装置である場合には、入力部37は、主として表示画面に指先又はペンで触れることによるタッチパネル方式の入力を受け付ける。タッチパネル入力方式は、静電容量方式等の公知の方式であってもよい。
【0072】
また、推定装置30が音声入力可能な装置である場合には、入力部37は、音声入力用のマイクを含むように構成されてもよいし、外付けのマイクを介して入力された音声データをCPU31へ出力するためのインタフェース回路を備えてもよい。さらに、推定装置30が動画像及び/又は静止画像を入力可能な装置である場合には、入力部37は、画像入力用のデジタルカメラやデジタルビデオカメラを含むように構成されてもよいし、外付けのデジタルカメラやデジタルビデオカメラで撮像された画像データを受け付けてCPU31へ出力するためのインタフェース回路を備えてもよい。
【0073】
通信インタフェース部38は、通信網NWを介して他の装置(例えば、撮像装置10及び計測装置20等)と通信を行うためのインタフェース回路を含む。
【0074】
(3)学習データ生成システム及び推定システムにおける各機能の概要
本実施形態の学習データ生成システム及び推定システムで実現される機能について、
図3を参照して説明する。
図3は、本実施形態の学習データ生成システム及び推定システムで主要な役割を果たす機能を説明するための機能ブロック図である。
図3の機能ブロック図では、第1取得手段41、第2取得手段42、推定手段45及び生成手段46が本発明の学習データ生成システムの主要な構成に対応しており、画像取得手段48及び行動推定手段49が本発明の推定システムの主要な構成に対応している。他の手段(部位検出手段43、変化点検出手段44及び学習手段47)は必ずしも必須の構成ではないが、本発明をさらに好ましくするための構成要素である。
【0075】
第1取得手段41は、撮像装置10によって撮像された対象者T(動体)の画像を取得する機能を備える。
【0076】
第1取得手段41の機能は、例えば以下のように実現される。先ず、撮像装置10は、例えば、対象者Tが空間SP内に存在する場合に、所定のフレームレート(例えば、30fps等)で撮像処理を行い、撮像処理を行う毎に、撮像した画像の画像データを、通信網NWを介して推定装置30に送信する。ここで、撮像装置10によって撮像された画像の画像データは、撮像日時及び撮像装置10の識別情報(例えば、撮像装置10のシリアル番号やMAC(Media Access Control)アドレス等)と対応付けた状態で推定装置30に送信されてもよい。
【0077】
一方、推定装置30のCPU31は、撮像装置10から送信された画像データを、通信インタフェース部38を介して受信(取得)する毎に、受信した画像データを、当該画像の撮像日時と対応付けた状態で例えば
図4に示す第1取得データに記憶する。第1取得データは、画像の撮像日時毎に、当該画像の画像データが対応付けられた状態で記述されているデータである。このようにして、第1取得手段41は、撮像装置10によって撮像された対象者Tの画像を取得することができる。
【0078】
なお、CPU31は、撮像装置10によって撮像された対象者T(動体)のステレオ画像を取得してもよい。この場合、対象者Tのステレオ画像に基づいて対象者Tの三次元モデルを生成することができるので、後述する部位検出手段43の機能において、この三次元モデルに基づいて、対象者Tの少なくとも1つの部位の三次元空間上の位置(座標)をもとめることが可能になる。これにより、例えば対象者Tの二次元モデルを用いる場合と比較して、対象者Tの少なくとも1つの部位の位置をより正確に捉えることが可能になるので、対象者Tの画像に基づく当該対象者Tの行動の推定精度を向上させることができる。
【0079】
また、例えば、水平方向及び/又は垂直方向に間隔をおいて設けられた2つの撮像装置が空間SP内に設けられている場合には、CPU31は、各撮像装置が実質的に同じタイミングで撮像した2つの画像(例えば、撮像日時が同じ2つの画像であってもよいし、撮像日時の時間差が所定範囲(例えば、数ミリ秒~数十ミリ秒等)内の2つの画像等であってもよい)を、所定の視差を有する画像のセット(つまり、ステレオ画像)として取得してもよい。
【0080】
第2取得手段42は、計測装置20によって計測された対象者T(動体)の状態に関する情報を取得する機能を備える。
【0081】
ここで、対象者T(動体)の状態に関する情報は、対象者Tの位置、回転数、角速度、角加速度、姿勢、加速度及び速度のうち少なくとも1つを含んでもよい。なお、対象者Tの位置に関する情報は、GPS等の位置測定技術を用いて測定された位置情報(例えば、緯度、経度及び高度のうち少なくとも1つ)を含んでもよいし、第1計測装置21及び複数の第2計測装置22のうち一方の計測装置が送信した信号を他方の計測装置が受信したときの受信信号強度(RSSI)に関する情報を含んでもよい。これにより、対象者Tの位置、回転数、角速度、角加速度、姿勢、加速度及び速度のうち少なくとも1つを用いて、ラベルとして付与される対象者Tの行動を推定することができる。
【0082】
第2取得手段42の機能は、例えば以下のように実現される。先ず、第1計測装置21は、例えば、対象者Tが空間SP内に存在する場合に、対象者Tの状態(例えば、対象者Tの位置と、対象者Tの3軸方向又は2軸方向の回転数と、対象者Tの3軸方向又は2軸方向の角速度と、対象者Tの3軸方向又は2軸方向の角加速度と、対象者Tの3軸方向又は2軸方向の姿勢と、対象者Tの3軸方向又は2軸方向の加速度と、対象者Tの3軸方向又は2軸方向の速度と、のうち少なくとも1つ)を連続的又は断続的(例えば、所定間隔(例えば300ミリ秒や1秒等)毎)に計測する毎に、計測した状態に関する情報を、通信網NWを介して推定装置30に送信する。ここで、第1計測装置21によって計測された対象者Tの状態に関する情報は、計測日時及び第1計測装置21の識別情報(例えば、第1計測装置21のシリアル番号やMACアドレス等)と対応付けた状態で推定装置30に送信されてもよい。
【0083】
ここで、対象者Tの状態に関する情報が、対象者Tの位置に関する情報を含む場合であって、対象者Tの位置に関する情報が、第1計測装置21及び複数の第2計測装置22間の通信において送受信される信号の受信信号強度(RSSI)を含む場合について説明する。第1計測装置21は、例えば、対象者Tが空間SP内に存在する場合に、複数の第2計測装置22の各々と無線通信を行い、複数の第2計測装置22の各々から所定間隔(例えば、数百ミリ秒間隔等)で送信された無線信号(例えば、ビーコン信号等)を受信する毎に、RSSI回路によって検出(計測)された当該無線信号の受信信号強度(RSSI)の値を、第1計測装置21に設けられた記憶装置(図示省略)に記憶する。ここで、RSSIの値は、計測日時(例えば、第1計測装置21が当該RSSIの値に対応する無線信号を何れかの第2計測装置22から受信した日時)及び当該RSSIの値に対応する無線信号を送信した何れかの第2計測装置22の識別情報(例えば、第2計測装置22のシリアル番号やMACアドレス等)と対応付けられた状態で記憶されてもよい。そして、第1計測装置21は、所定期間(例えば、3秒毎等)が経過する毎に、当該所定期間内に第1計測装置21によって計測された対象者Tの状態に関する情報(つまり、当該所定期間内に第1計測装置21が複数の第2計測装置22から受信した全ての無線信号のRSSI)の値を、通信網NWを介して推定装置30に送信してもよい。ここで、所定期間内に第1計測装置21によって計測された対象者Tの状態に関する情報は、第1計測装置21の識別情報(例えば、第1計測装置21のシリアル番号やMACアドレス等)と対応付けた状態で推定装置30に送信されてもよい。
【0084】
なお、ここでは、第1計測装置21が、複数の第2計測装置22の各々から送信された無線信号を受信したときのRSSIの値を、対象者Tの状態に関する情報として推定装置30に送信する場合を一例として説明したが、複数の第2計測装置22の各々が、第1計測装置21から送信された無線信号を受信したときのRSSIの値を、対象者Tの状態に関する情報として推定装置30に送信してもよい。
【0085】
一方、推定装置30のCPU31は、計測装置20から送信された対象者Tの状態に関する情報を、通信インタフェース部38を介して受信(取得)する毎に、受信した状態に関する情報を、当該情報の計測日時と対応付けた状態で例えば
図5に示す第2取得データに記憶する。第2取得データは、計測日時毎に、対象者Tの状態に関する情報(図の例では、「計測情報」)が対応付けられた状態で記述されているデータである。このようにして、第2取得手段42は、計測装置20によって計測された対象者Tの状態(ここでは、対象者Tの位置と、対象者Tの3軸方向又は2軸方向の回転数と、対象者Tの3軸方向又は2軸方向の角速度と、対象者Tの3軸方向又は2軸方向の角加速度と、対象者Tの3軸方向又は2軸方向の姿勢と、対象者Tの3軸方向又は2軸方向の加速度と、対象者Tの3軸方向又は2軸方向の速度と、のうち少なくとも1つ)を取得することができる。
【0086】
なお、推定装置30のCPU31は、第2取得手段42の機能に基づいて、対象者Tの位置と、対象者Tの3軸方向又は2軸方向の回転数の平均及び/又は分散と、対象者Tの3軸方向又は2軸方向の角速度の平均及び/又は分散と、対象者Tの3軸方向又は2軸方向の角加速度の平均及び/又は分散と、対象者Tの3軸方向又は2軸方向の姿勢の平均及び/又は分散と、対象者Tの3軸方向又は2軸方向の加速度の平均及び/又は分散と、対象者Tの3軸方向又は2軸方向の速度の平均及び/又は分散と、のうち少なくとも1つを取得してもよい。
【0087】
また、本実施形態では、第1計測装置21及び複数の第2計測装置22間の通信において送受信される信号の受信信号強度(RSSI)が対象者Tの位置に関する情報に含まれているが、この受信信号強度(RSSI)を用いて、第1計測装置21と複数の第2計測装置22の各々との距離、ひいては、空間SP内の第1計測装置21の位置(つまり、対象者Tの位置)をもとめることが可能である。具体的に説明すると、第1計測装置21と複数の第2計測装置22の各々との距離は、例えば、以下の式(1)及び(2)を用いることによって算出することができる。
P
r=P
t+G
r+G
t-L …(1)
【数1】
式(1)中、P
rはRSSI(dBm)を示し、P
tは第2計測装置22の送信電力(dBm)を示し、G
rは第1計測装置21の受信アンテナの利得(dBi)を示し、G
tは第2計測装置22の送信アンテナの利得(dBi)を示し、Lは自由空間損失(dBm)を示している。このLは式(2)でもとめられ、式(2)中、dは第1計測装置21と第2計測装置22との距離(m)を示し、fは無線信号の周波数(Hz)を示し、cは光速(=2.99792458×10
8)(m/s)を示している。式(1)及び式(2)によってもとめられる距離とRSSIの値との関係は、例えば
図6に示す対数関数で表される。
図6に示すように、第1計測装置21と第2計測装置22との距離が短いほど、RSSI(図の例では、受信信号強度)の値が大きいことがわかる。
【0088】
これにより、第1計測装置21と複数の第2計測装置22の各々との間の信号の受信信号強度(RSSI)を用いて、第1計測装置21と複数の第2計測装置22の各々との距離をもとめることが可能になる。また、第1計測装置21と複数の第2計測装置22の各々との距離を用いて、空間SP内の第1計測装置21の位置(つまり、対象者Tの位置)をもとめることが可能になる。
【0089】
部位検出手段43は、取得した画像に基づいて、対象者T(動体)の少なくとも1つの部位を検出する機能を備える。
【0090】
また、部位検出手段43は、対象者T(動体)の少なくとも1つの関節を、対象者Tの少なくとも1つの部位として検出してもよい。これにより、対象者Tの少なくとも1つの関節の移動態様に関する情報を用いて、後述するように学習データを生成することができる。
【0091】
部位検出手段43の機能は、例えば以下のように実現される。推定装置30のCPU31は、例えば、第1取得手段41の機能に基づいて、撮像装置10から送信された画像データを第1取得データに記憶する毎に、対象者Tの少なくとも1つの部位の各々の位置に対応するノードを画像内に設定するとともに、各ノードの画像内の座標を算出してもよい。ここで、各ノードの設定及び座標の算出は、例えば、深層学習による特徴点(キーポイント)検出技術(例えば、OpenPose等)を用いて行われてもよい。また、各ノードの座標は、二次元座標であってもよいし、例えば、画像データ(ステレオ画像)によって対象者Tの三次元モデルが生成される場合には、三次元座標であってもよい。
【0092】
なお、例えば、撮像装置10が全方位画像を撮像する場合には、CPU31は、撮像装置10が撮像した全方位画像をパノラマ画像に展開して、展開したパノラマ画像に対してノードの設定及びノードの座標の算出を行ってもよい。
【0093】
また、対象者Tのステレオ画像が取得された場合には、CPU31は、所定の視差を有する画像のセットの各画像に対して事前処理(例えば、ノイズ除去等)を実行し、さらには、周知のステレオマッチング処理を実行して、対象者Tの三次元モデルを生成してもよい。
【0094】
CPU31は、例えば
図7に示すように、撮像装置10が撮像した画像において、対象者Tの少なくとも1つの部位(図の例では、「首」、「右肩」、「左肩」、「右臀部」、「左臀部」等)の位置(図の例では、X方向の座標及びY方向の座標)を検出し、検出した部位の各々に対応するノード(図の例では、14個のノード)を設定する。ここで、各ノードの座標は、各ノードが設定された画像に対応付けられた状態で第1取得データに記憶されてもよい。また、CPU31は、例えば、対象者Tの少なくとも1つの部位が他の物体(例えば、他の動体や設置物等)に隠れるように撮像される等によって当該部位を検出することができない場合に、当該部位に対応するノードの座標をNULLデータとして第1取得データに記憶してもよい。
【0095】
なお、ここでは、撮像装置10が撮像した画像を用いて対象者Tの少なくとも1つの部位(「首」、「右肩」、「左肩」、「右臀部」、「左臀部」等)が検出される場合を一例として説明したが、例えば、撮像装置10が撮像した画像を用いて対象者Tの少なくとも1つの関節(例えば、「右肩関節」、「右肘関節」、「右股関節」、「右膝関節」、「左肩関節」、「左肘関節」、「左股関節」及び「左膝関節」等)が検出されてもよい。
【0096】
変化点検出手段44は、対象者T(動体)の状態に関する情報に基づいて、対象者Tの行動が変化するタイミングを示す変化点を検出する機能を備える。
【0097】
また、変化点検出手段44は、所定のタイミングにおける対象者T(動体)の状態に関する情報が所定の条件を満たす場合に当該所定のタイミングが変化点であるか否かを判別することによって、変化点を検出してもよい。これにより、対象者Tの状態に関する情報が所定の条件を満たすタイミングで変化点の検出処理が行われるので、例えば変化点の検出処理が常時行われる場合と比較して、変化点の検出処理にかかる負荷を低減することが可能になる。
【0098】
ここで、所定の条件は、対象者T(動体)の状態に関する情報の推移を示す曲線の微分値が0であることを含んでもよいこれにより、対象者Tの状態に関する情報の推移を示す曲線の微分値が0である場合に、変化点の検出処理を行うことが可能になる。なお、所定の条件は、例えば、所定のタイミングを含む或る期間内の対象者Tの状態に関する情報(例えば、回転数、角速度、角加速度、姿勢、加速度及び速度のうち1つ以上)の変化量の平均値の絶対値が所定値未満であることを含んでもよい。
【0099】
さらに、変化点検出手段44は、所定のタイミングにおける対象者T(動体)の状態に関する情報の変化の大小を示す変化点スコアが所定値以上である場合に、当該所定のタイミングが変化点であると判別してもよい。これにより、変化点スコアを用いることによって、変化点を容易に検出することが可能になる。
【0100】
さらにまた、変化点検出手段44は、所定のタイミングにおける対象者T(動体)の位置、回転数、角速度、角加速度、姿勢、加速度及び速度のうち少なくとも1つの変化の大小を示す変化点スコアに基づいて、当該所定のタイミングが変化点であるか否かを判別してもよい。これにより、対象者Tの位置、回転数、角速度、角加速度、姿勢、加速度及び速度のうち少なくとも1つを用いることによって、変化点を容易に検出することが可能になる。また、動体の位置、回転数、角速度、角加速度、姿勢、加速度及び速度のうち少なくとも2つが用いられる場合には、当該少なくとも2つの各々の変化点スコアを複合的に用いることによって、変化点をより正確且つ容易に検出することが可能になる。
【0101】
また、変化点検出手段44は、対象者T(動体)の位置が、対象者Tに設けられた第1計測装置21(装置)と少なくとも1つの第2計測装置22(他の装置)の各々との間で送受信される信号の受信信号強度(RSSI)に基づいてもとめられる場合であって、対象者Tの状態に関する情報が対象者Tの位置を含む場合に、当該信号の受信信号強度の変化の大小を示す変化点スコアに基づいて、所定のタイミングが変化点であるか否かを判別してもよい。これにより、対象者Tに設けられた第1計測装置21と少なくとも1つの第2計測装置22の各々との間で送受信される信号の受信信号強度の変化の大小を示す変化点スコアに基づいて、変化点を容易に検出することができる。
【0102】
変化点検出手段44の機能は、例えば以下のように実現される。なお、ここでは、所定のタイミングにおいて対象者Tの状態に関する情報の推移を示す曲線の微分値が0である場合であって、当該所定のタイミングにおける対象者Tの状態に関する情報の変化点スコアが所定値以上である場合に、当該所定のタイミングが状態変化点として検出される場合を一例として説明する。
【0103】
推定装置30のCPU31は、例えば、所定のタイミング(例えば、対象者Tの状態に関する情報を計測装置20から最初に受信(取得)したタイミング等)を起点として所定期間(例えば、3秒等)が経過する毎に、当該所定期間内に第2取得データに記憶された対象者Tの状態に関する情報(所定期間内の対象者Tの状態に関する情報の推移に関する情報)を第2取得データから抽出する。次に、CPU31は、抽出した所定期間内の対象者Tの状態に関する情報を用いて、所定期間内の対象者Tの状態に関する情報の経時的な変化を表す二次曲線を算出する。そして、CPU31は、所定期間内の時間(対象者Tの状態に関する情報の取得(計測)日時)のうち、算出した二次曲線において微分値が0になる時間(本願発明における「所定のタイミング」の一例である)を抽出する。
【0104】
次いで、推定装置30のCPU31は、抽出した時間毎に、当該時間が変化点であるか否かを判別する。ここで、CPU31は、変化点の周知の検出手法を用いて変化点を判別してもよい。なお、ここでは、検出手法の一例としてChange Finderを用いる場合について説明する。Change Finderは、従来の検出手法と比較して計算時間が短いこと、非定常データへの対応が可能であること、オンライン処理に適していること等の特徴を有している。CPU31は、抽出した時間毎に、Change Finderを用いて変化点スコアを算出し、この変化点スコアが所定の閾値Th未満から当該閾値Th以上になる時間を、変化点として検出する。
図8に、対象者Tの状態に関する情報の一例である加速度と、変化点スコアと、の経時的な変化の一例を示す。
図8に示す例では、変化点スコアが閾値Th(図の例では、20)未満から閾値Th以上になる時間t1,t2が、変化点として検出される。
【0105】
なお、CPU31は、対象者Tの位置、回転数、角速度、角加速度、姿勢、加速度及び速度のうち少なくとも1つの平均及び/又は分散に関する変化点スコアが所定の閾値Th未満から当該閾値Th以上になる時間を、変化点として検出してもよい。ここで、対象者Tの位置が、対象者Tに設けられた第1計測装置21と複数の第2計測装置22の各々との間で送受信される信号の受信信号強度(RSSI)に基づいてもとめられる場合には、CPU31は、第1計測装置21と複数の第2計測装置22の各々との間で送受信される信号のうち少なくとも1つの信号の受信信号強度(RSSI)の値、平均及び/又は分散に関する変化点スコアが所定の閾値Th未満から当該閾値Th以上になる時間を、変化点として検出してもよい。
【0106】
また、CPU31は、所定のタイミングにおける対象者Tの位置、回転数、角速度、角加速度、姿勢、加速度及び速度のうち少なくとも1つの変化点スコアに基づいて、当該所定のタイミングが変化点であるか否かを判別してもよい。例えば、CPU31は、所定のタイミングにおける対象者Tの位置(例えば、信号の受信信号強度によって表されてもよい)、回転数、角速度、角加速度、姿勢、加速度及び速度のうち何れかの変化点スコアが所定の閾値Th以上である場合に、当該所定のタイミングが変化点であると判別してもよい。また、例えば、CPU31は、所定のタイミングにおける対象者Tの位置、回転数、角速度、角加速度、姿勢、加速度及び速度のうち少なくとも2つの変化点スコアの合計が所定の閾値Th以上である場合に、当該所定のタイミングが変化点であると判別してもよい。
【0107】
さらに、CPU31は、対象者Tの位置、回転数、角速度、角加速度、姿勢、加速度及び速度のうち少なくとも2つの各々の変化点スコアを用いて、対象者Tの位置、回転数、角速度、角加速度、姿勢、加速度及び速度のうち少なくとも2つの各々に対応する変化点を検出してもよい。この場合、CPU31は、例えば、対象者Tの位置、回転数、角速度、角加速度、姿勢、加速度及び速度のうち少なくとも2つの各々に対応する変化点をそのまま変化点として使用してもよいし、対象者Tの位置、回転数、角速度、角加速度、姿勢、加速度及び速度のうち少なくとも2つの各々に対応する変化点の中から何れかの変化点(例えば、最も高い変化点スコアに対応する変化点)を選択し、選択された変化点のみを使用してもよい。さらに、CPU31は、対象者Tの位置、回転数、角速度、角加速度、姿勢、加速度及び速度のうち少なくとも2つの各々に対応する変化点を所定の計算式に代入することによって新たな変化点を算出し、算出された変化点を使用してもよい。
【0108】
上述した例では、変化点検出手段44が、動体の状態に関する1つの情報(1つの時系列データ)に基づいて変化点を検出する場合について説明したが、変化点検出手段44は、同じ行動を行う複数の動体の状態に関する情報(複数の時系列データ)に基づいて変化点を検出してもよい。ここで、同じ行動を行う複数の動体の状態に関する情報は、例えば、異なる期間毎に同じ行動を行う同一の動体の状態に関する情報(時系列データ)を含んでもよいし、同一期間内に同じ行動を行う複数の動体の各々の状態に関する情報(時系列データ)を含んでもよい。
【0109】
ところで、変化点検出手段44が、同じ行動に対応する複数の動体の状態に関する情報を用いて変化点を検出する場合であって、例えば行動速度の違い等によって複数の動体の状態に関する情報の変化態様が同期していない場合には、変化点が検出されるタイミングが、複数の動体の状態に関する情報間で異なる場合があることから、正確な変化点を検出することが困難になる虞がある。例えば、
図9(a)に示すように、動体によって同じ動作が時間差で行われる場合には、複数の動体の状態(ここでは、加速度)に関する情報(図の例では、2つの時系列データC1,C2)の変化態様が、例えば動体毎の行動速度の違い等によって同期していない(時間的にずれている)場合がある。この場合、時系列データC1において例えば変化点スコアに基づいて検出された変化点が時間t11,t13であり、時系列データC2において例えば変化点スコアに基づいて検出された変化点が時間t12,t14であると想定すると、1つの時系列データについて2つの変化点しか検出されていないにもかかわらず、所定期間内に4つの変化点が検出されることになる。このため、時間t11,t12,t13、t14のうち何れの時間が正確な変化点であるかを検出することが困難である。
【0110】
そこで、変化点検出手段44は、それぞれ同じ行動に対応し、且つ、状態の変化態様が互いに同期していない複数の動体の状態に関する情報が存在する場合に、状態の変化態様が同期するように複数の動体の状態に関する情報を調整し、調整した複数の動体の状態に関する情報に基づいて変化点を検出してもよい。これにより、状態の変化態様が同期するように複数の動体の状態に関する情報が調整され、調整された複数の動体の状態に関する情報に基づいて変化点が検出されるので、同じ行動に対応する複数の動体の状態に関する情報を用いた場合であっても変化点を正確に検出することが可能になる。
【0111】
また、変化点検出手段44は、動的時間伸縮法(DTW:Dynamic Time Warping)を用いて、複数の動体の状態に関する情報を調整してもよい。これにより、動的時間伸縮法(DTW)を用いて、複数の動体の状態に関する情報を、状態の変化態様が同期するように容易に調整することが可能になる。
【0112】
さらに、変化点検出手段44は、調整した複数の動体の状態に関する情報を合成し、合成した複数の動体の状態に関する情報に基づいて変化点を検出してもよい。これにより、調整された(状態の変化態様が同期された)複数の動体の状態に関する情報が合成され、合成された複数の動体の状態に関する情報に基づいて変化点が検出されるので、例えば、調整された複数の動体の状態に関する情報の各々の間に差異がある場合であっても、合成された複数の動体の状態に関する情報を用いることによって、変化点を正確に検出することが可能になる。
【0113】
さらにまた、変化点検出手段44は、調整した複数の動体の状態に関する情報を平均化することによって、調整した複数の動体の状態に関する情報を合成してもよい。この場合、調整された複数の動体の状態に関する情報を平均化することによって、複数の動体の状態に関する情報を容易に合成することが可能になる。
【0114】
また、変化点検出手段44は、DTW Barycenter Averaging法を用いて、調整した複数の動体の状態に関する情報を平均化してもよい。これにより、DTW Barycenter Averaging法を用いて、調整された複数の動体の状態に関する情報を容易に平均化することが可能になる。
【0115】
複数の動体の状態に関する複数に基づいて変化点を検出する場合における変化点検出手段44の機能は、例えば以下のように実現される。推定装置30のCPU31は、例えば
図9(a)に示すように、同じ行動(例えば、後述する
図10に示す「行動1」等)に対応する複数(図の例では2つ)の時系列データC1,C2が存在する場合に、動的時間伸縮法(DTW)を用いて、時系列データC1の何れのポイントと、時系列データC2の何れのポイントとが対応するかを示すパス(経路情報)を決定する。
【0116】
次に、CPU31は、各時系列データC1,C2の互いに対応するポイントの時間差がなくなる(つまり、各時系列データC1,C2の状態変化の態様が同期化される)ように、各時系列データC1,C2を調整する。なお、
図9(b)に示す例では、各時系列データC1,C2の互いに対応するポイントの時間差がなくなるように、時系列データC2の各ポイントの位置が時系列データC1の対応するポイントの位置に合わせられている。
【0117】
次いで、CPU31は、調整した各時系列データC1,C2を平均化する。なお、ここでは、CPU31が、DTW Barycenter Averaging法を用いて、各時系列データC1,C2を平均化する場合を一例として説明するが、CPU31は、他の平均化方法を用いて各時系列データC1,C2を平均化してもよい。各時系列データC1,C2を平均化することによって、例えば
図9(c)に示すような時系列データC3が得られる。そして、CPU31は、時系列データC3を用いて変化点を検出してもよい。この場合、CPU31は、時間t11,t13を変化点として検出することが可能になる。
【0118】
このようにして、同じ行動に対応する複数の動体の状態に関する情報を用いた場合であっても、変化点を正確に検出することが可能になる。なお、本実施形態では、変化点検出手段44が、調整した複数の動体の状態に関する情報を合成し、合成した複数の動体の状態に関する情報に基づいて変化点を検出する場合を一例として説明したが、本発明は、この場合に限られない。例えば、変化点検出手段44は、調整した複数の動体の状態に関する情報を合成することなくそのまま用いて、変化点を検出してもよい。この場合、
図9(b)に示すように、状態の変化態様が同期するように各時系列データC1,C2を調整することによって、各時系列データC1,C2のうち何れかの時系列データを用いた場合であっても、同じ変化点(例えば、時間t11,t13)を検出することが可能になる。
【0119】
推定手段45は、所定期間内の対象者T(動体)の状態に関する情報の推移に基づいて、当該所定期間内の対象者Tの行動を推定する機能を備える。
【0120】
また、推定手段45は、所定期間内の対象者T(動体)の状態に関する情報の推移と、対象者Tの状態に関する情報の推移を学習データとして用いた機械学習に基づく学習済モデルと、に基づいて、所定期間内の対象者Tの行動を推定してもよい。これにより、所定期間内の対象者Tの状態に関する情報の推移を用いて学習済モデルによって推定された対象者Tの行動に基づいて、所定期間内の対象者Tの行動を容易に推定することができる。
【0121】
さらに、推定手段45は、第1の変化点から当該第1の変化点の次の変化点である第2の変化点までの期間内の対象者T(動体)の行動を推定してもよい。この場合、変化点が検出されたタイミングで対象者Tの行動の推定処理が開始され、それ以外のタイミングでは対象者Tの行動の推定処理が開始されないので、例えば対象者Tの行動の推定処理が常時開始される場合と比較して、対象者Tの行動の推定処理にかかる負荷を低減することが可能になる。
【0122】
推定手段45の機能は、例えば以下のように実現される。なお、ここでは、推定手段45が、第1の変化点(例えば、
図8に示す時間t1)から当該第1の変化点の次の変化点である第2の変化点(例えば、
図8に示す時間t2)までの期間内のユーザの行動を、学習済モデルを用いて推定する場合を一例として説明する。推定装置30のCPU31は、例えば、第2取得データにアクセスして、第1の変化点として検出された時間(対象者Tの状態に関する情報の取得(計測)日時)から第2の変化点として検出された時間までの期間内に取得された対象者Tの状態に関する情報を抽出する。そして、CPU31は、抽出した対象者Tの状態に関する情報(所定期間内の対象者Tの状態に関する情報の推移に関する情報)を、対象者Tの状態に関する情報を第1学習データとして用いた機械学習に基づく第1学習済モデルに入力することによって、当該期間内の対象者Tの行動を推定する。
【0123】
第1学習データの一例を
図10に示す。
図10に示す第1学習データは、対象者Tが所定の行動(図の例では、「行動1(静止して上半身で作業する)」、「行動2(上半身を捻り大きく運動する)」、「行動3(静止して上半身での作業を長めにする)」、「行動4(歩行する)」、「行動5(立ち止まって静止する)」等の何れか)を行っている場合の対象者Tの状態に関する情報(例えば、対象者Tの位置、回転数、角速度、角加速度、姿勢、加速度及び速度のうち少なくとも1つ)の時間推移を、当該行動(行動ラベル)に対応付けた状態で記述されているデータである。これにより、機械学習の結果として、所定の行動を行う対象者Tの状態に関する情報の時間推移と、当該行動との関係を示す学習済モデルが構成される。
【0124】
なお、第1学習データに記述されるデータは、同一のユーザが異なる行動を行っている場合のデータを含んでもよいし、異なるユーザが同一の行動を行っている場合のデータを含んでもよい。
【0125】
また、CPU31は、対象者Tの状態に関する情報を第1学習データとして用いた機械学習によって、対象者Tの状態に関する情報に基づいて対象者Tの行動を推定するのに用いられるモデル(第1学習済モデル)を学習してもよい。
【0126】
この場合、CPU31は、例えば、所定のモデル学習指示が入力部37を用いて入力されると、
図10に示す第1学習データを用いてモデルの学習を行ってもよい。CPU31は、例えば、時系列対応型ニューラルネットワークモデルを用いて学習してもよい。ここで、時系列対応型ニューラルネットワークとして、例えば、RNN(Recurrent Neural Network)や、RNNの発展型であるLSTM(Long Short-Term Memory)等を適用することができる。また、CPU31は、例えば、グラフニューラルネットワーク(GNN)モデル、畳み込みニューラルネットワーク(CNN)モデル、サポートベクターマシン(SVM)モデル、全結合ニューラルネットワーク(FNN)モデル、勾配ブースティング(HGB)モデル、ウェーブネット(WN)モデル、ExtraTrees(Extremely Randomized Trees)モデル等の複数のモデルのうち何れかのモデルを用いて学習してもよい。さらに、CPU31は、GNNの派生である、グラフ畳み込みニューラルネットワーク(GCN)モデル、グラフアテンションネットワーク(GAT)モデル、グラフ畳み込みLSTM(GC-LSTM)モデルのうち何れかを用いて学習してもよい。
【0127】
このようにして、CPU31は、第1の変化点から第2の変化点までの期間内の対象者Tの状態に関する情報の推移に関する情報を第1学習済モデルに入力することによって、当該期間内の対象者Tの行動を推定することができる。また、本実施形態では、例えば、対象者Tの状態に関する情報が第2取得データに新たに記憶される毎に、当該情報が新たに記憶された時点から所定期間内の対象者Tの行動パターンを推定する必要がないので、対象者Tの行動パターンの推定処理にかかる負荷を低減することが可能になる。
【0128】
なお、本実施形態では、CPU31が、推定装置30内に設けられたモデル(第1学習済モデル)を学習し、この第1学習済モデルを用いて対象者Tの行動を推定する場合を一例として説明したが、本発明は、この場合に限られない。例えば、対象者Tの行動を推定するのに用いられる第1学習済モデルは、推定装置30以外の他の装置に設けられてもよい。この場合、CPU31は、第1の変化点から第2の変化点までの期間内の対象者Tの状態に関する情報の推移に関する情報を、他の装置に設けられた第1学習済モデルに入力し、第1学習済モデルによって推定された行動を当該他の装置から受信(取得)してもよい。
【0129】
生成手段46は、所定期間内に撮像された対象者T(動体)の画像に対して当該所定期間内の対象者Tの行動に関する情報をラベルとして付与することによって、対象者Tの画像に基づいて対象者Tの行動を推定するための学習データを生成する機能を備える。
【0130】
また、生成手段46は、所定期間内の対象者T(動体)の少なくとも1つの部位の移動態様に関する情報に対して当該所定期間内の対象者Tの行動に関する情報をラベルとして付与することによって、学習データを生成してもよい。この場合、所定期間内に撮像された対象者Tの画像から検出された対象者Tの少なくとも1つの部位の移動態様に関する情報を用いることによって、当該所定期間内の対象者Tの行動をより正確に推定することの可能な学習データを生成することができる。
【0131】
生成手段46の機能は、例えば以下のように実現される。推定装置30のCPU31は、例えば、推定手段45の機能に基づいて、所定期間(例えば、第1変化点から第2変化点までの期間)内の対象者Tの行動を推定すると、当該所定期間内に撮像された対象者Tの画像に関する情報(例えば、対象者Tの少なくとも1つの部位の位置に関する情報)と、当該所定期間内の対象者Tの行動と、を対応付けた状態で例えば
図11に示す第2学習データに記憶する。
図11に示す第2学習データは、所定期間内での対象者Tの少なくとも1つの部位の位置の推移に関する情報と、推定手段45の機能に基づいて推定された当該所定期間内の対象者Tの行動(行動ラベル)と、が対応付けた状態で記述されているデータである。これにより、機械学習の結果として、所定期間内に撮像された対象者Tの画像に関する情報と、当該所定期間内に対象者Tが行っていると推定される行動と、の関係を示す学習済モデルが構成される。
【0132】
なお、第2学習データに記述されるデータは、同一のユーザが異なる行動を行っている場合のデータを含んでもよいし、異なるユーザが同一の行動を行っている場合のデータを含んでもよい。
【0133】
学習手段47は、撮像装置10によって撮像された対象者Tの画像に関する情報を学習データとして用いた機械学習によって、撮像された対象者Tの画像に基づいて対象者Tの行動を推定するのに用いられるモデルを学習する機能を備える。
【0134】
学習手段47の機能は、例えば以下のように実現される。推定装置30のCPU31は、例えば、所定のモデル学習指示が入力部37を用いて入力されると、
図11に示す第2学習データを用いて、対象者Tの行動を推定するのに用いられるモデルの学習を行ってもよい。CPU31は、例えば、時系列対応型ニューラルネットワークモデルを用いて学習してもよい。ここで、時系列対応型ニューラルネットワークとして、例えば、RNN(Recurrent Neural Network)や、RNNの発展型であるLSTM(Long Short-Term Memory)等を適用することができる。また、CPU31は、例えば、グラフニューラルネットワーク(GNN)モデル、畳み込みニューラルネットワーク(CNN)モデル、サポートベクターマシン(SVM)モデル、全結合ニューラルネットワーク(FNN)モデル、勾配ブースティング(HGB)モデル、ウェーブネット(WN)モデル、ExtraTrees(Extremely Randomized Trees)モデル等の複数のモデルのうち何れかのモデルを用いて学習してもよい。さらに、CPU31は、GNNの派生である、グラフ畳み込みニューラルネットワーク(GCN)モデル、グラフアテンションネットワーク(GAT)モデル、グラフ畳み込みLSTM(GC-LSTM)モデルのうち何れかを用いて学習してもよい。
【0135】
画像取得手段48は、撮像装置10によって撮像された対象者T(動体)の画像を取得する機能を備える。
【0136】
画像取得手段48の機能は、例えば以下のように実現される。先ず、撮像装置10は、例えば、対象者Tが空間SP内に存在する場合に、所定のフレームレート(例えば、30fps等)で撮像処理を行い、撮像処理を行う毎に、撮像した画像の画像データを、通信網NWを介して推定装置30に送信する。ここで、撮像装置10によって撮像された画像の画像データは、撮像日時及び撮像装置10の識別情報(例えば、撮像装置10のシリアル番号やMAC(Media Access Control)アドレス等)と対応付けた状態で推定装置30に送信されてもよい。
【0137】
一方、推定装置30のCPU31は、撮像装置10から送信された画像データを、通信インタフェース部38を介して受信(取得)する毎に、受信した画像データを、当該画像の撮像日時と対応付けた状態で例えばRAM33又は記憶装置34に記憶する。このようにして、画像取得手段48は、撮像装置10によって撮像された対象者Tの画像を取得することができる。
【0138】
なお、CPU31は、画像データが例えばRAM33又は記憶装置34に記憶される毎に、上述した部位検出手段43の機能に基づいて、画像データ内の対象者Tの少なくとも1つの部位の位置を検出し、検出した位置に関する情報を当該画像データに対応付けた状態で例えばRAM33又は記憶装置34に記憶してもよい。
【0139】
行動推定手段49は、所定期間内に撮像された対象者T(動体)の画像と、学習データ生成システムによって生成された学習データを用いた機械学習に基づく学習済モデルと、に基づいて、当該所定期間内の対象者Tの行動を推定する機能を備える。
【0140】
行動推定手段49の機能は、例えば以下のように実現される。推定装置30のCPU31は、例えば、画像取得手段48の機能に基づいて対象者Tの画像を取得する毎に、例えばRAM33又は記憶装置34にアクセスして、新たに記憶されたデータ(ここでは、画像データに対応付けられた対象者Tの少なくとも1つの部位の位置に関する情報)を抽出する。
【0141】
次に、CPU31は、所定期間内に抽出したデータ(対象者Tの少なくとも1つの部位の位置の推移に関する情報)を、学習手段47の機能に基づいて構成された学習済モデルに入力することによって、当該所定期間内の対象者Tの行動を推定してもよい。また、CPU31は、例えばRAM33又は記憶装置34から抽出されたデータ(所定期間内の対象者Tの少なくとも1つの部位の位置の推移に関する情報)と、推定された対象者Tの行動と、を例えば
図12に示す推定データに記憶してもよい。
図12に示す推定データは、所定期間内の対象者Tの少なくとも1つの部位の位置の推移に関する情報と、対象者Tの少なくとも1つの部位の位置の推移に基づいて推定された当該所定期間内の対象者Tの行動と、が対応付けられた状態で記述されているデータである。
【0142】
このようにして、CPU31は、所定期間内の対象者Tの少なくとも1つの部位の位置の推移に関する情報を学習済モデルに入力することによって、当該所定期間内の対象者Tの行動を容易に推定することができる。
【0143】
なお、CPU31は、行動推定手段49の機能に基づいて推定された対象者Tの行動に関する情報を提示してもよい。例えば、CPU31は、対象者Tの行動を推定すると、対象者Tの行動に関する情報を例えば表示部36に表示してもよい。ここで、対象者Tの行動に関する情報は、テキストデータで構成されてもよいし、画像データ等で構成されてもよい。また、対象者Tの行動に関する情報が音声データで構成されている場合には、対象者Tの行動に関する情報を、スピーカ等の音声出力装置から出力してもよい。
【0144】
また、CPU31は、対象者Tの行動に関する情報を、通信網NWを介して推定装置30に接続された他のコンピュータ(例えば、サーバ等)に送信してもよい。
【0145】
(4)本実施形態の学習データ生成システムの主要な処理のフロー
次に、本実施形態の学習データ生成システムにより行われる主要な処理のフローの一例について、
図13のフローチャートを参照して説明する。
【0146】
先ず、推定装置30のCPU31は、第1取得手段41の機能に基づいて、撮像装置10によって撮像された対象者Tの画像を取得する(ステップS100)。ここで、CPU31は、部位検出手段43の機能に基づいて、取得した画像から対象者Tの少なくとも1つの部位を検出してもよい。
【0147】
次に、推定装置30のCPU31は、第2取得手段42の機能に基づいて、計測装置20によって計測された対象者Tの状態に関する情報を取得する(ステップS102)。
【0148】
次いで、推定装置30のCPU31は、推定手段45の機能に基づいて、所定期間内の対象者Tの状態に関する情報の推移に基づいて、当該所定期間内の対象者Tの行動を推定する(ステップS104)。
【0149】
そして、推定装置30のCPU31は、生成手段46の機能に基づいて、所定期間内に撮像された対象者Tの画像に対して当該所定期間内の対象者Tの行動に関する情報をラベルとして付与することによって、対象者Tの画像に基づいて対象者Tの行動を推定するための学習データ(第2学習データ)を生成する(ステップS106)。
【0150】
このようにして、対象者Tの画像に基づいて対象者Tの行動を推定するための学習データ(第2学習データ)を自動的に生成することが可能になる。
【0151】
(5)本実施形態の推定システムの主要な処理のフロー
次に、本実施形態の推定システムにより行われる主要な処理のフローの一例について、
図14のフローチャートを参照して説明する。
【0152】
先ず、推定装置30のCPU31は、画像取得手段48の機能に基づいて、撮像装置10によって撮像された対象者Tの画像を取得する(ステップS200)。
【0153】
次に、推定装置30のCPU31は、行動推定手段49の機能に基づいて、所定期間内に撮像された対象者Tの画像と、学習データ生成システムによって生成された学習データを用いた機械学習に基づく学習済モデルと、に基づいて、当該所定期間内の対象者Tの行動を推定する(ステップS202)。
【0154】
上述したように、本実施形態の学習データ生成システム、学習データ生成方法、プログラムによれば、所定期間内の対象者Tの状態に関する情報の推移に基づいて当該所定期間内の対象者Tの行動が推定され、推定された行動に関する情報が、当該所定期間内に撮像された対象者Tの画像に対してラベルとして付与されることによって、対象者Tの画像に基づいて対象者Tの行動を推定するための学習データ(第2学習データ)を自動的に生成することが可能になる。これにより、例えば人為的な作業によって学習データを生成する場合と比較して、学習データを容易に生成することができる。また、学習データを生成する際の人為的なミスを排除することが可能になるので、適切な学習データを生成することができる。
【0155】
また、本実施形態の推定システム、推定方法、プログラムによれば、撮像された対象者Tの画像に基づいて対象者Tの行動を容易に推定することができる。
【0156】
以下、上述した実施形態の変形例について説明する。
(変形例)
上記実施形態では、推定手段45が、所定期間内の対象者Tの状態に関する情報の推移と、対象者Tの状態に関する情報の推移を学習データとして用いた機械学習に基づく学習済モデルと、に基づいて、当該所定期間内の対象者Tの行動を推定する場合を一例として説明したが、本発明はこの場合に限られない。例えば、推定手段45は、所定期間内の対象者Tの状態に関する情報の推移が所定の行動に対応する所定の条件を満たす場合に、当該所定の行動を当該所定期間内の対象者Tの行動として推定してもよい。ここで、所定の条件とは、例えば、所定期間内の対象者Tの状態に関する情報の推移が、所定の行動に対応する対象者Tの状態に関する情報の範囲に含まれることであってもよい。
【0157】
この場合、推定装置30のCPU31は、
図15に示す行動データを参照して、所定期間内の対象者Tの状態に関する情報に基づいて、当該所定期間内の対象者Tの行動を推定してもよい。行動データは、複数の行動(図の例では、「行動1(静止して上半身で作業する)」、「行動2(上半身を捻り大きく運動する)」、「行動3(静止して上半身での作業を長めにする)」、「行動4(歩行する)」等)毎に、対応する行動が行われていると推定される場合の対象者Tの計測情報(図の例では、3軸加速度)の範囲の時間推移が対応付けられた状態で記述されているデータである。行動データは、例えば記憶装置34に記憶されていてもよい。
【0158】
CPU31は、例えば、所定期間内の対象者Tの計測情報の時間推移が、行動データ内の何れかの行動に対応する計測情報の範囲に含まれていると判別した場合に、当該何れかの行動を、所定期間内の対象者Tの行動(例えば、行動1(静止して上半身で作業する))として推定してもよい。また、CPU31は、推定した行動に関する情報を、所定期間内の対象者Tの計測情報の時間推移と対応付けた状態で第1学習データに記憶してもよい。
【0159】
このように、本変形例にかかる行動推定システム、行動推定方法、プログラムによれば、上述した実施形態と同様の作用効果を発揮することが可能である。
【0160】
なお、本発明のプログラムは、コンピュータで読み取り可能な記憶媒体に記憶されていてもよい。このプログラムを記録した記憶媒体は、
図2に示す推定装置30のROM32、RAM33又は記憶装置34であってもよい。また、記憶媒体は、例えばCD-ROMドライブ等のプログラム読取装置に挿入されることで読み取り可能なCD-ROM等であってもよい。さらに、記憶媒体は、磁気テープ、カセットテープ、フレキシブルディスク、MO/MD/DVD等であってもよいし、半導体メモリであってもよい。
【0161】
以上説明した実施形態及び変形例は、本発明の理解を容易にするために記載されたものであって、本発明を限定するために記載されたものではない。したがって、上記実施形態及び変形例に開示された各要素は、本発明の技術的範囲に属する全ての設計変更や均等物をも含む趣旨である。
【0162】
例えば、上述した実施形態では、動体が人物(対象者T)である場合を一例として説明したが、この場合に限られない。動体は、行動推定の対象となり得るものであれば如何なるものであってもよく、例えば、人物以外の動物であってもよいし、作業機械、車両、飛行体等のオブジェクトであってもよい。
【0163】
また、上述した実施形態では、対象者T(動体)の首、右肩、左肩、右臀部、左臀部が、対象者Tの部位として検出される場合を一例として説明したが、他の部位(例えば、頭、手、足、関節等)が検出されてもよい。
【0164】
さらに、上述した実施形態では、1つの動体(対象者T)の行動が推定される場合を一例として説明したが、複数の動体の各々の行動が同時に推定されてもよい。
【0165】
さらにまた、上述した実施形態では、「行動1(静止して上半身で作業する)」、「行動2(上半身を捻り大きく運動する)」、「行動3(静止して上半身での作業を長めにする)」、「行動4(歩行する)」、「行動5(立ち止まって静止する)」のうち何れかの行動が推定される場合を一例として説明したが、行動の内容はこれらに限定されない。
【0166】
また、上述した実施形態では、1つの推定装置30が設けられている場合を一例として説明したが、この場合に限られない。例えば、複数の推定装置30が設けられてもよく、この場合には、何れかの推定装置30上の操作内容及び処理結果等が他の推定装置30上でリアルタイムに提示されてもよいし、何れかの推定装置30での処理結果等が複数の推定装置30間で共有されてもよい。
【0167】
さらに、上述した実施形態では、所定期間内の対象者Tの少なくとも1つの部位の位置の時間推移に関する情報が、本発明の「所定期間内の動体の少なくとも1つの部位の移動態様に関する情報」に対応する場合を一例として説明したが、この場合に限られない。「所定期間内の動体の少なくとも1つの部位の移動態様に関する情報」は、例えば、所定期間内の対象者Tの少なくとも1つの部位の角度の時間推移に関する情報であってもよいし、所定期間内の対象者Tの複数の部位間の距離の時間推移に関する情報等であってもよい。
【0168】
さらにまた、上述した実施形態では、推定装置30によって、第1取得手段41、第2取得手段42、部位検出手段43、変化点検出手段44、推定手段45、生成手段46、学習手段47、画像取得手段48及び行動推定手段49の各機能を実現する構成としたが、この構成に限られない。例えば、インターネットやLAN等の通信網を介して推定装置30と通信可能に接続されたコンピュータ等(例えば、汎用のパーソナルコンピュータやサーバコンピュータ等)から構成された生成装置50(
図16に示す)であって、上述した学習データを生成するのに用いられる生成装置50が設けられてもよい。この場合、推定装置30及び生成装置50は、実質的に同一のハードウェア構成を採ることができるので、上記実施形態において説明した各手段41~49のうち少なくとも1つの手段の機能を生成装置50によって実現することが可能になる。例えば、
図3に示した機能ブロック図の各機能は、
図16(a),(b)に示すように、推定装置30と生成装置50との間で任意に分担されてもよい。
【0169】
さらに、上記各手段41~49のうち少なくとも1つの手段の機能を、推定装置30以外の他の装置(例えば、上述した撮像装置10や計測装置20等)によって実現する構成としてもよい。
【産業上の利用可能性】
【0170】
上述したような本発明の学習データ生成システム、推定システム、学習データ生成方法、推定方法、プログラムは、撮像された動体の画像に基づいて当該動体の行動を容易に把握することができるので、例えば、動体(例えば、作業者や作業機械等)の行動分析等を行う業務管理システムや、動体が存在するエリアに応じて適切な情報を提供する情報提供システムや、動体(例えば、入院患者、施設の入居者、ペット等)のモニタリングシステム等に好適に利用することが可能になる。したがって、その産業上の利用可能性は極めて大きい。
【符号の説明】
【0171】
10…撮像装置
20…計測装置
30…推定装置
41…第1取得手段
42…第2取得手段
43…部位検出手段
44…変化点検出手段
45…推定手段
46…生成手段
47…学習手段
48…画像取得手段
49…行動推定手段
50…生成装置