(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B1)
(11)【特許番号】
(24)【登録日】2024-05-02
(45)【発行日】2024-05-14
(54)【発明の名称】推定装置、学習装置、推定方法及び推定プログラム
(51)【国際特許分類】
G06T 7/20 20170101AFI20240507BHJP
【FI】
G06T7/20 300Z
(21)【出願番号】P 2024512968
(86)(22)【出願日】2023-06-20
(86)【国際出願番号】 JP2023022805
【審査請求日】2024-02-26
【早期審査対象出願】
(73)【特許権者】
【識別番号】000006013
【氏名又は名称】三菱電機株式会社
(73)【特許権者】
【識別番号】000236056
【氏名又は名称】三菱電機ビルソリューションズ株式会社
(74)【代理人】
【識別番号】110002491
【氏名又は名称】弁理士法人クロスボーダー特許事務所
(72)【発明者】
【氏名】西川 敬士
(72)【発明者】
【氏名】谷口 貴耶
(72)【発明者】
【氏名】濱田 恭平
(72)【発明者】
【氏名】菅沼 優子
(72)【発明者】
【氏名】瀧井 健二
【審査官】山田 辰美
(56)【参考文献】
【文献】特開2023-32950(JP,A)
【文献】特許第7254262(JP,B2)
【文献】特開2023-78983(JP,A)
【文献】特開2023-82552(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
G06T 7/00-7/90
(57)【特許請求の範囲】
【請求項1】
各々の属性が一様ではない複数の要素作業が含まれる作業に従事する作業従事者が前記作業に従事している時間である作業従事時間での前記作業従事者の手の変位量を判定する変位量判定の判定結果と、前記作業従事時間での前記作業従事者の手の道具の把持状況を判定する道具把持状況判定の判定結果と、前記作業従事時間に撮像された映像における前記作業従事者の手の出現状況を判定する出現状況判定の判定結果とのうちの少なくともいずれかを用いて、前記作業従事時間を、前記作業従事者が前記複数の要素作業のうちのいずれかの要素作業を実施している時間帯である作業実施時間帯と、前記作業従事者が前記複数の要素作業のうちのいずれの要素作業も実施していない時間帯である非作業時間帯とに分割する時間分割部と、
前記映像のうちの前記作業実施時間帯に撮像された部分である部分映像
を構成する複数の部分画像を取得し、前記複数の部分画像に、学習済みモデルの生成の際の学習に用いられた手の学習画像の輝度の平均値及び標準偏差を用いた標準化と、規定のサイズへのリサイズとを行い、
標準化及びリサイズ後の前記複数の部分画像である複数の処理後部分画像を前記学習済みモデルに入力して前記複数の処理後部分画像の特徴ベクトルを抽出し、
前記複数の処理後部分画像の特徴ベクトルを前記学習済みモデルに入力して、前記作業従事者が前記作業実施時間帯に実施している要素作業を推定する推定部とを有する推定装置。
【請求項2】
前記推定部は、
前記複数の部分画像として、前記作業従事者の手の位置についての部分画像である手位置部分画像と、前記作業従事者の手の速度についての部分画像である手速度部分画像とを取得し、
前記手位置部分画像に、前記学習済みモデルの生成の際の学習に用いられた手の位置についての学習画像の輝度の平均値及び標準偏差を用いた標準化と、前記規定のサイズへのリサイズとを行い、
前記手速度部分画像に、前記学習済みモデルの生成の際の学習に用いられた手の速度についての学習画像の輝度の平均値及び標準偏差を用いた標準化と、前記規定のサイズへのリサイズとを行い、
標準化及びリサイズ後の前記手位置部分画像である処理後手位置部分画像を前記学習済みモデルに入力して前記処理後手位置部分画像の特徴ベクトルを抽出し、
標準化及びリサイズ後の前記手速度部分画像である処理後手速度部分画像を前記学習済みモデルに入力して前記処理後手速度部分画像の特徴ベクトルを抽出し、
前記処理後手位置部分画像の特徴ベクトルと前記処理後手速度部分画像の特徴ベクトルとを結合し、結合により得られた特徴ベクトルを前記学習済みモデルに入力して、前記作業従事者が前記作業実施時間帯に実施している要素作業を推定する請求項1に記載の推定装置。
【請求項3】
前記時間分割部は、
前記変位量判定の判定結果を用いる場合に、前記作業従事時間のうち、前記作業従事者の手の変位量が閾値未満である時間帯を、前記作業実施時間帯に指定する請求項1に記載の推定装置。
【請求項4】
前記時間分割部は、
前記道具把持状況判定の判定結果を用いる場合に、前記作業従事時間のうち、前記作業従事者の手が前記道具を把持している時間帯を、前記作業実施時間帯に指定する請求項1に記載の推定装置。
【請求項5】
前記時間分割部は、
時間の経過により前記作業従事者の手が把持する道具の種類が変化している場合に、前記作業従事者の手が異なる種類の道具を把持しているそれぞれの時間帯を、異なる作業実施時間帯に指定する請求項
4に記載の推定装置。
【請求項6】
前記時間分割部は、
前記出現状況判定の判定結果を用いる場合に、前記作業従事時間のうち、前記作業従事者の手が前記映像に出現している時間帯を、前記作業実施時間帯に指定する請求項1に記載の推定装置。
【請求項7】
前記時間分割部は、
前記変位量判定の判定結果と、前記道具把持状況判定の判定結果と、前記出現状況判定の判定結果とのうちの少なくともいずれかを、
前記学習済みモデルに適用して、前記作業従事時間を前記作業実施時間帯と前記非作業時間帯とに分割する請求項1に記載の推定装置。
【請求項8】
前記作業実施時間帯の候補を生成し、
前記変位量判定に対応する処理と、前記道具把持状況判定に対応する処理と、前記出現状況判定に対応する処理との少なくともいずれかを行って得られた前記作業実施時間帯の真値と、前記作業実施時間帯の候補との差分を学習して、請求項
1の学習済みモデルを生成する学習装置。
【請求項9】
前記
学習画像の輝度の平均値及び標準偏差とを算出し、
算出した
平均値及び標準偏差を用いた学習により、請求項
1の学習済みモデルを生成する学習装置。
【請求項10】
各々の属性が一様ではない複数の要素作業が含まれる作業に従事する作業従事者が前記作業に従事している時間である作業従事時間での前記作業従事者の手の変位量を判定する変位量判定の判定結果と、前記作業従事時間での前記作業従事者の手の道具の把持状況を判定する道具把持状況判定の判定結果と、前記作業従事時間に撮像された映像における前記作業従事者の手の出現状況を判定する出現状況判定の判定結果とのうちの少なくともいずれかを用いて、コンピュータが、前記作業従事時間を、前記作業従事者が前記複数の要素作業のうちのいずれかの要素作業を実施している時間帯である作業実施時間帯と、前記作業従事者が前記複数の要素作業のうちのいずれの要素作業も実施していない時間帯である非作業時間帯とに分割し、
前記コンピュータが、前記映像のうちの前記作業実施時間帯に撮像された部分である部分映像
を構成する複数の部分画像を取得し、前記複数の部分画像に、学習済みモデルの生成の際の学習に用いられた手の学習画像の輝度の平均値及び標準偏差を用いた標準化と、規定のサイズへのリサイズとを行い、
標準化及びリサイズ後の前記複数の部分画像である複数の処理後部分画像を前記学習済みモデルに入力して前記複数の処理後部分画像の特徴ベクトルを抽出し、
前記複数の処理後部分画像の特徴ベクトルを前記学習済みモデルに入力して、前記作業従事者が前記作業実施時間帯に実施している要素作業を推定する推定方法。
【請求項11】
各々の属性が一様ではない複数の要素作業が含まれる作業に従事する作業従事者が前記作業に従事している時間である作業従事時間での前記作業従事者の手の変位量を判定する変位量判定の判定結果と、前記作業従事時間での前記作業従事者の手の道具の把持状況を判定する道具把持状況判定の判定結果と、前記作業従事時間に撮像された映像における前記作業従事者の手の出現状況を判定する出現状況判定の判定結果とのうちの少なくともいずれかを用いて、前記作業従事時間を、前記作業従事者が前記複数の要素作業のうちのいずれかの要素作業を実施している時間帯である作業実施時間帯と、前記作業従事者が前記複数の要素作業のうちのいずれの要素作業も実施していない時間帯である非作業時間帯とに分割する時間分割処理と、
前記映像のうちの前記作業実施時間帯に撮像された部分である部分映像
を構成する複数の部分画像を取得し、前記複数の部分画像に、学習済みモデルの生成の際の学習に用いられた手の学習画像の輝度の平均値及び標準偏差を用いた標準化と、規定のサイズへのリサイズとを行い、
標準化及びリサイズ後の前記複数の部分画像である複数の処理後部分画像を前記学習済みモデルに入力して前記複数の処理後部分画像の特徴ベクトルを抽出し、
前記複数の処理後部分画像の特徴ベクトルを前記学習済みモデルに入力して、前記作業従事者が前記作業実施時間帯に実施している要素作業を推定する推定処理とをコンピュータに実行させる推定プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、作業従事者が実施している要素作業を推定する技術に関する。
要素作業は、ひとまとまりと認識できる動作であり、作業の構成要素である。つまり、作業は、複数の要素作業の組み合わせで構成される。例えば、要素作業である「カバーを取り付け位置に配置する」と要素作業である「カバーをねじでとめる」とを組み合わせて1つの作業「カバーを取り付ける」が構成される。
【背景技術】
【0002】
特許文献1に、人物の行動を撮像し、撮像により得られた映像から人物の行動を推定する技術が開示されている。
特許文献1の技術では、映像から得られた人体部位の時系列の位置データが複数の位置データに分類される。更に、特許文献1の技術では、それぞれの位置データが解析され、解析結果から、動作シーケンス(移動、変化、静止等)が生成される。そして、特許文献1の技術では、RNN(Recurrent Neural Network)等の時系列データを扱うニューラルネットワークが動作シーケンスを解析する。更に、特許文献1の技術では、解析結果をメモリニューラルネットワークが処理する。
【先行技術文献】
【特許文献】
【0003】
【発明の概要】
【発明が解決しようとする課題】
【0004】
作業には、様々な属性の要素作業が含まれる。具体的には、作業には、実施時間が短い要素作業、実施時間が長い要素作業、発生頻度の低い要素作業、発生頻度の高い要素作業といった様々な属性の要素作業が含まれる。
このような様々な属性の要素作業が含まれた作業に、特許文献1の技術を適用すると、以下の課題が生じる。
【0005】
課題(1)
特許文献1の技術は、短時間で区切られた時系列データである位置データを、時系列データを扱うニューラルネットワークが解析する。
実施時間及び/又は発生頻度が様々である複数の要素作業が含まれる作業について、短時間で区切られた時系列データをニューラルネットワークで学習させた場合に、カテゴリごとの時系列データの量が多いと、要素作業を推定するモデルを生成するための学習が困難になる。
カテゴリとは、作業従事者が実施している要素作業の種類を表すラベル及び作業従事者がいずれの要素作業も実施していない時間帯を表すラベルである。
課題(2)
また、カテゴリ間の時系列データの量のバランスを改善させるために新たな要素作業のカテゴリを設けたとしても、新たなカテゴリのために追加のデータ収集が必要となる。
課題(3)
また、実施時間の長い要素作業の時系列データを短時間ごとに複数の時系列データに区切ったとしても、各時系列データは要素作業の一部を表現したものでしかない。このため、同じカテゴリの中でも時系列データのばらつきが増大し、要素作業を推定するモデルを生成するための学習が困難になる。
課題(4)
上記の課題(1)~(3)により、実施時間及び/又は発生頻度が異なるといった、各々の属性が一様ではない複数の要素作業が作業に含まれる場合に、作業従事者が実施する要素作業を正確に推定することができない。
【0006】
本開示は、上記のような課題を解決することを主な目的の一つとしている。より具体的には、本開示は、各々の属性が一様ではない複数の要素作業が作業に含まれる場合でも、作業従事者が実施する要素作業を正確に推定できるようにすることを主な目的とする。
【課題を解決するための手段】
【0007】
本開示に係る推定装置は、
各々の属性が一様ではない複数の要素作業が含まれる作業に従事する作業従事者が前記作業に従事している時間である作業従事時間での前記作業従事者の手の変位量を判定する変位量判定の判定結果と、前記作業従事時間での前記作業従事者の手の道具の把持状況を判定する道具把持状況判定の判定結果と、前記作業従事時間に撮像された映像における前記作業従事者の手の出現状況を判定する出現状況判定の判定結果とのうちの少なくともいずれかを用いて、前記作業従事時間を、前記作業従事者が前記複数の要素作業のうちのいずれかの要素作業を実施している時間帯である作業実施時間帯と、前記作業従事者が前記複数の要素作業のうちのいずれの要素作業も実施していない時間帯である非作業時間帯とに分割する時間分割部と、
前記映像のうちの前記作業実施時間帯に撮像された部分である部分映像に基づき、前記作業従事者が前記作業実施時間帯に実施している要素作業を推定する推定部とを有する。
【発明の効果】
【0008】
本開示によれば、各々の属性が一様ではない複数の要素作業が作業に含まれる場合でも、作業従事者が実施する要素作業を正確に推定することができる。
【図面の簡単な説明】
【0009】
【
図1】実施の形態1に係る推定装置の機能構成例の概要を示す図。
【
図2】実施の形態1に係る変位量判定の判定結果のみを用いた時間分割処理の例を示す図。
【
図3】実施の形態1に係る道具把持状況判定の判定結果のみを用いた時間分割処理の例を示す図。
【
図4】実施の形態1に係る出現状況判定の判定結果のみを用いた時間分割処理の例を示す図。
【
図5】実施の形態1に係る3つの判定結果を用いた時間分割処理の例を示す図。
【
図6】実施の形態1に係る非作業時間帯と作業実施時間帯における道具の動きの例を示す図。
【
図7】実施の形態1に係る推定装置の詳細な機能構成例を示す図。
【
図8】実施の形態1に係る作業実施時間帯検出部と要素作業推定部の内部構成例を示す図。
【
図9】実施の形態1に係る推定装置の動作例を示すフローチャート。
【
図10】実施の形態1に係る作業実施時間帯検出部の動作例を示すフローチャート。
【
図11】実施の形態1に係る要素作業推定部の動作例を示すフローチャート。
【
図12】実施の形態2に係る学習装置の機能構成例を示す図。
【
図13】実施の形態2に係る要素作業推定モデル生成部の内部構成例を示す図。
【
図14】実施の形態2に係る学習装置の動作例を示すフローチャート。
【
図15】実施の形態3に係る学習装置の機能構成例を示す図。
【
図16】実施の形態3に係る作業実施時間帯検出モデル生成部の内部構成例を示す図。
【
図17】実施の形態3に係る学習装置の動作例を示すフローチャート。
【
図18】実施の形態4に係る推定装置の機能構成例を示す図。
【
図19】実施の形態5に係る学習装置の機能構成例を示す図。
【
図20】実施の形態1に係る画像化処理の概要を示す図。
【
図21】実施の形態1に係る作業実施時間帯検出処理、要素作業推定処理及び推定結果処理の概要を示す図。
【
図22】実施の形態1及び4に係る推定装置のハードウェア構成例を示す図。
【
図23】実施の形態2、3及び5に係る学習装置のハードウェア構成例を示す図。
【発明を実施するための形態】
【0010】
以下、実施の形態を図を用いて説明する。以下の実施の形態の説明及び図面において、同一の符号を付したものは、同一の部分又は相当する部分を示す。
【0011】
実施の形態1.
本開示では、作業従事者が実施している要素作業を正確に推定する方法を説明する。
「作業従事者」は、作業に従事する人(作業員)又はロボット(作業ロボット)である。また、「作業従事者の手」には、人(作業員)の手と、人の手と同様の機能及び/又は役割をもつロボット(作業ロボット)の構成部分とが含まれる。また、「作業従事者の手」には、人(作業員)の手のひら、手の甲、手首及び指の少なくともいずれかと、手のひら、手の甲、手首及び指のいずれかに相当するロボット(作業ロボット)の構成部分とが含まれる。
以下では、人(作業員)が機械調整作業に従事する例を説明する。
【0012】
***構成の説明***
図1は、本実施の形態に係る推定装置100の機能構成例の概要を示す。推定装置100は、推定フェーズで動作する。
推定装置100は、撮像装置110に接続されている。
撮像装置110は、作業従事時間に作業従事者の手を撮像する。作業従事時間は、作業従事者が作業に従事している時間である。
撮像装置110は、撮像により得られた、作業従事者の手の映像を推定装置100に出力する。
撮像装置110は、例えば、作業従事者の頭部に装着され、1人称視点の映像を撮像する。本実施の形態では、撮像装置110は、作業従事者の頭部に装着されているものとする。しかし、撮像装置110は、作業従事者の手の映像が撮像できるのであれば、作業従事者の頭部に装着されていなくてもよい。
また、撮像装置110は、通常のカラー映像を撮像する装置のみならず、デプスセンサなどの別のモーダルを持つセンサが含まれていてもよい。
デプスセンサはより広角な撮像が可能である。撮像装置110にデプスセンサに含まれる場合は、カラーの映像に手が映っていなくとも、デプスセンサの撮像可能範囲に手が存在すれば、推定装置100は、手が出現しているとみなしてよい。
【0013】
**推定装置100の単純化した構成例の説明**
推定装置100は、時間分割部11と推定部12を有する。
後述するように、推定装置100は、詳細には、
図7及び
図8に示す機能構成を有するが、
図1では、理解のしやすさを考慮し、推定装置100の機能構成を単純化して示している。
図7及び
図8に示す推定装置100の詳細な構成を説明する前に、
図1の単純化した推定装置100の機能構成を説明する。
【0014】
**時間分割部11の説明**
時間分割部11は、変位量判定の判定結果と、道具把持状況判定の判定結果と、出現状況判定の判定結果とのうちの少なくともいずれかを用いて、作業従事時間を、作業実施時間帯と非作業時間帯とに分割する。
変位量判定は、作業従事者の手の変位量を判定する判定処理である。
道具把持状況判定は、作業従事者の手の道具の把持状況を判定する判定処理である。道具は、機械調整作業に用いられる道具である。
出現状況判定は、作業従事時間に撮像された映像における作業従事者の手の出現状況を判定する判定処理である。
また、作業実施時間帯は、作業従事者が複数の要素作業のうちのいずれかの要素作業を実施している時間帯である。
また、非作業時間帯は、作業従事者が複数の要素作業のうちのいずれの要素作業も実施していない時間帯である。
時間分割部11により行われる処理は、時間分割処理に相当する。
【0015】
**推定部12の説明**
推定部12は、作業従事時間に撮像された映像のうちの作業実施時間帯に撮像された部分である部分映像に基づき、作業従事者が作業実施時間帯に実施している要素作業を推定する。
具体的には、推定部12は、学習により生成された学習済みモデルを用いて、作業従事者が作業実施時間帯に実施している要素作業を推定する。
【0016】
**時間分割処理の説明**
図2~
図5は、時間分割部11による時間分割処理の例を示す。
図2は、時間分割部11が、変位量判定の判定結果のみを用いて、作業従事時間を作業実施時間帯と非作業時間帯とに分割している例を示す。
図3は、時間分割部11が、道具把持状況判定の判定結果のみを用いて、作業従事時間を作業実施時間帯と非作業時間帯とに分割している例を示す。
図4は、時間分割部11が、出現状況判定の判定結果のみを用いて、作業従事時間を作業実施時間帯と非作業時間帯とに分割している例を示す。
図5は、時間分割部11が、変位量判定の判定結果と道具把持状況判定の判定結果と出現状況判定の判定結果とを用いて、作業従事時間を作業実施時間帯と非作業時間帯とに分割している例を示す。
【0017】
図2の変位量判定の判定結果は、作業従事時間での作業従事者の手の変位量を示す。
図2では、変位量判定の判定結果をグラフで示している。
時間分割部11は、撮像装置110で撮像された作業従事者の手の映像から導出された手の関節の時系列データを取得する。そして、手の関節の時系列データから単位時間あたりの手の変位量を判定する。
図1では、図示を省略しているが、推定装置100には、作業従事者の手の映像を手の関節の時系列データに変換する機構が含まれているものとする。
時間分割部11は、単位時間あたりの手の変位量が閾値未満である時間帯を作業実施時間帯に指定する。一方、時間分割部11は、単位時間あたりの手の変位量が閾値以上である時間帯を非作業時間帯に指定する。
図6の(a)に示すように、機械調整作業では、作業を実施していないと、道具を把持した手が作業対象物に一気に近づく(又は離れる)と考えられる(道具を保持していない手でも同様と考えられる)。このため、手の変位量が大きい時間帯は非作業時間帯であると考えられる。一方、
図6の(b)に示すように、作業を実施している場合は、道具をゆっくり動かす又は道具の移動範囲が小さいと考えられる(道具を保持していない手でも同様と考えられる)。このため、手の変位量が小さい時間帯は作業実施時間帯であると考えられる。
【0018】
図3の道具把持状況判定の判定結果は、道具の把持の有無を示す。
図1では、図示を省略しているが、推定装置100には、作業従事者の手が把持している道具を識別する機構が含まれているものとする。
図3の例では、最初に作業従事者はスパナを把持していた。次に、作業従事者はドライバを把持していた。その後、作業従事者は、いずれの道具も把持しない状態になった。最後に、作業従事者は鋼尺を把持していた。
時間分割部11は、作業従事者の手が道具を把持している時間帯を作業実施時間帯に指定する。一方、時間分割部11は、作業従事者の手がいずれの道具も把持していない時間帯を非作業時間帯に指定する。
また、時間の経過により作業従事者の手が把持する道具の種類が変化している場合は、時間分割部11は、作業従事者の手が異なる種類の道具を把持しているそれぞれの時間帯を、異なる作業実施時間帯に指定する。
図3の例では、時間分割部11は、作業従事者の手がスパナを把持している時間帯と、作業従事者の手がドライバを把持している時間帯を、異なる作業時実施時間帯に指定している。
【0019】
図4の出現状況判定の判定結果は、撮像装置110の映像における作業従事者の手の出現有無を示す。
時間分割部11は、撮像装置110の映像の解析又は手の関節の時系列データの解析により、作業従事者の手の出現有無を判定することができる。
図4の例では、最初に作業従事者の手が映像に出現していた。次に、作業従事者の手が映像に出現しなくなった。その後、作業従事者の手が再度映像に出現した。
時間分割部11は、作業従事者の手が映像に出現している時間帯を作業実施時間帯に指定する。一方、時間分割部11は、作業従事者の手が映像に出現していない時間帯を非作業時間帯に指定する。
【0020】
図5は、時間分割部11が、3つの判定結果を用いて、作業従事時間を作業実施時間帯と非作業時間帯とに分割している例を示す。
図5の例では、時間分割部11は、作業従事者の手の変位量が閾値以上であれば、作業従事者の手が道具を把持しているか否か及び作業従事者の手が映像に出現しているか否かに関わらず、当該時間帯を非作業時間帯に指定している。
また、時間分割部11は、作業従事者の手の変位量が閾値未満の場合は、作業従事者の手が映像に出現していれば、作業従事者の手が道具を把持しているか否かに関わらず、当該時間帯を作業実施時間帯に指定している。一方、作業従事者の手の変位量が閾値未満の場合でも、作業従事者の手が映像に出現していなければ、時間分割部11は、作業従事者の手が道具を把持しているか否かに関わらず、当該時間帯を非作業時間帯に指定している。
このように変位量判定の判定結果、道具把持状況判定の判定結果及び出現状況判定の判定結果のうちの2つ以上の判定結果が用いられる場合に、推定装置100のユーザは、どのような優先順位で2つの以上の判定結果を適用するかについて事前に適用基準を定義しておく。
【0021】
推定部12は、作業実施時間帯に撮像された部分映像から導出された手の関節の時系列データを学習済みモデルに適用して、作業従事者が作業実施時間帯に実施している要素作業を推定する。
推定部12が用いる学習済みモデルは、後述する学習装置200により生成される。
【0022】
このように、本実施の形態に係る推定装置100では、時間分割部11による作業実施時間帯の検出と、推定部12による部分映像を用いた要素作業の推定という2段階の処理が行われる。
このため、本実施の形態に係る推定装置100は、作業従事者により実施された要素作業を正確に推定することができる。
【0023】
**推定装置100のハードウェア構成例の説明**
本実施の形態に係る推定装置100は、
図22に例示するハードウェア構成を有するコンピュータである。
図22に示すように、推定装置100は、ハードウェアとして、プロセッサ801、主記憶装置802、補助記憶装置803及び通信装置804を備える。
図1に示した時間分割部11、推定部12、更に、
図7及び
図8に示す構成要素の機能は、例えば、プログラムにより実現される。
補助記憶装置803には、これらの構成要素の機能を実現するプログラムが記憶されている。
これらプログラムは、補助記憶装置803から主記憶装置802にロードされる。そして、プロセッサ801がこれらプログラムを実行して、これらの構成要素の動作を行う。
【0024】
なお、推定装置100の動作手順は、推定方法に相当する。また、推定装置100の動作を実現するプログラムは、推定プログラムに相当する。
【0025】
**推定装置100の詳細な構成例の説明**
図7は、
図1に示した推定装置100の詳細な機能構成例を示す。
図7では、推定装置100は、関節位置時系列データ取得部120、関節速度計算部121、関節時系列データ画像化部122、作業実施時間帯検出部123、要素作業推定部124、推定結果処理部125、要素作業推定モデル保存部130、前処理統計量保存部131及び推定結果保存部132を備える。
なお、作業実施時間帯検出部123が
図1に示した時間分割部11に相当する。また、要素作業推定部124が
図1に示した推定部12に相当する。
【0026】
**関節位置時系列データ取得部120の説明**
関節位置時系列データ取得部120は、撮像装置110から、作業従事者の手を撮像して得られた映像Vを取得する。映像Vは、推定フェーズにおいて、作業従事時間に撮像された映像である。映像Vには、作業従事者の手が映されているフレームと作業者の手が映されていないフレームとが含まれる。
関節位置時系列データ取得部120は、映像Vから関節位置時系列データHPTを生成する。関節位置時系列データHPTは、手の各関節の空間位置座標が示されるデータである。
関節位置時系列データ取得部120は、例えば、手の関節位置を推定する既存のハンドトラッキングモデルを利用して、関節位置時系列データHPTを生成する。
関節位置時系列データ取得部120は、右手の関節位置時系列データHPTと左手の関節位置時系列データHPTを生成する。なお、以下では、単に関節位置時系列データHPTという場合は、右手の関節位置時系列データHPTと左手の関節位置時系列データHPTの両者を表すものとする。
関節位置時系列データ取得部120は、映像Vに手が出現しない時間がある場合は、手が出現しないことを判別可能な値を関節位置時系列データHPTに挿入する。
そして、関節位置時系列データ取得部120は、関節位置時系列データHPTを関節速度計算部121及び関節時系列データ画像化部122に出力する。また、関節位置時系列データ取得部120は、関節位置時系列データHPTを作業実施時間帯検出部123に出力してもよい。
【0027】
**関節速度計算部121の説明**
関節速度計算部121は、関節位置時系列データ取得部120から関節位置時系列データHPTを取得する。
そして、関節速度計算部121は、関節位置時系列データHPTの各関節における時間方向への差分(速度)を計算する。そして、関節速度計算部121は、計算結果を示す関節速度時系列データHVTを関節時系列データ画像化部122に出力する。関節速度計算部121は、関節速度時系列データHVTを作業実施時間帯検出部123に出力してもよい。
関節速度計算部121は、右手の関節速度時系列データHVTと左手の関節速度時系列データHVTを生成する。なお、以下では、単に関節速度時系列データHVTという場合は、右手の関節速度時系列データHVTと左手の関節速度時系列データHVTの両者を表すものとする。
【0028】
**関節時系列データ画像化部122の説明**
関節時系列データ画像化部122は、関節位置時系列データ取得部120から関節位置時系列データHPTを取得する。また、関節時系列データ画像化部122は、関節速度計算部121から関節速度時系列データHVTを取得する。
関節時系列データ画像化部122は、関節位置時系列データHPTを画像化して、左手関節位置画像LJPIと右手関節位置画像RJPIを生成する。また、関節時系列データ画像化部122は、関節速度時系列データHVTを画像化して、左手関節速度画像LJVIと右手関節速度画像RJVIを生成する。
そして、関節時系列データ画像化部122は、左手関節位置画像LJPI及び右手関節位置画像RJPIと左手関節速度画像LJVI及び右手関節速度画像RJVIを作業実施時間帯検出部123に出力する。
【0029】
ここで、関節時系列データ画像化部122による関節位置時系列データHPTの画像化と関節速度時系列データHVTの画像化を説明する。
図20は、関節時系列データ画像化部122の画像化処理の概要を示す。ここでは、関節位置時系列データHPTの画像化処理を説明する。画像化とは、三次元座標のx値、y値及びz値を画像のR、G及びBに見立てて関節の三次元座標の時系列データを生成することである。
図20では、時刻tごとの関節位置時系列データHPTには、J(J≧2)個の関節の空間位置座標が含まれているものとする。また、座標軸Cはx座標軸、y座標軸及びz座標軸である。
【0030】
関節時系列データ画像化部122は、例えば、左手の関節位置時系列データHPTのJ個の関節の各関節j及び各軸の座標値cを要素とするテンソルを生成する。そして、関節時系列データ画像化部122は、テンソルを時間方向に結合して左手関節位置画像LJPIを生成する。
関節時系列データ画像化部122は、右手関節位置画像RJPIも同様の手順で生成する。
また、関節時系列データ画像化部122は、同様の手順にて、左手の関節速度時系列データHVTから左手関節速度画像LJVIを生成する。
また、関節時系列データ画像化部122は、同様の手順にて、右手の関節速度時系列データHVTから右手関節速度画像RJVIを生成する。
【0031】
**把持道具時系列データ生成部126の説明**
把持道具時系列データ生成部126は、映像V又はセンサ情報RRSを取得する。
映像Vは、撮像装置110で撮像された映像である。つまり、把持道具時系列データ生成部126は、関節位置時系列データ取得部120から映像Vを取得してもよいし、関節位置時系列データ取得部120から独立して、撮像装置110から映像Vを取得してもよい。
センサ情報RRSは、作業従事者が道具を把持しているか否かを通知する情報である。また、作業従事者が道具を把持する場合は、センサ情報RRSは、作業従事者が把持する道具の種類を通知する。
例えば、作業従事者の手にRFID等のタグ型無線通信センサが装着されている場合は、タグ型無線通信センサが作業従事者が把持する道具から発信される信号を受信する。そして、タグ型無線通信センサは、受信した信号に基づき、作業従事者が把持する道具の種類を判定する。また、タグ型無線通信センサは、信号を受信しない場合は、作業従事者が道具を把持していないと判定する。タグ型無線通信センサは、判定結果をセンサ情報RRSとして把持道具時系列データ生成部126に出力する。
【0032】
把持道具時系列データ生成部126は、映像V又はセンサ情報RRSを用いて、作業従事者の手が道具を把持しているか否かを識別する。また、作業従事者の手が道具を把持している場合は、把持道具時系列データ生成部126は、作業従事者の手が把持している道具の種類を識別する。
把持道具時系列データ生成部126は、映像Vを取得する場合は、例えば公知の物体検出モデルを用いて、映像Vの各フレームから作業従事者が道具を把持しているか否か及び道具の種類を識別する。
把持道具時系列データ生成部126は、センサ情報RRSを取得する場合は、センサ情報RRSを解析して、作業従事者が道具を把持しているか否か及び道具の種類を識別する。
【0033】
把持道具時系列データ生成部126は、識別結果を示す左手把持道具データLTO1と右手把持道具データRTO1を作業実施時間帯検出部123に出力する。
左手把持道具データLTO1は、作業従事者の左手が道具を把持しているか否か及び把持している道具の種類を時系列で示すデータである。つまり、左手把持道具データLTO1を解析すれば、作業従事者の左手が道具を把持している時間帯及び作業従事者の左手が道具を把持していない時間を識別することができる。また、左手把持道具データLTO1を解析すれば、作業従事者の左手が道具を把持している時間帯において作業従事者の左手が把持している道具の種類を時系列に識別することができる。
同様に、右手把持道具データRTO1は、作業従事者の右手が道具を把持しているか否か及び把持している道具の種類を時系列で示すデータである。つまり、右手把持道具データRTO1を解析すれば、作業従事者の右手が道具を把持している時間帯及び作業従事者の右手が道具を把持していない時間を時系列に識別することができる。また、右手把持道具データRTO1を解析すれば、作業従事者の右手が道具を把持している時間帯において作業従事者の右手が把持している道具の種類を識別することができる。
【0034】
**作業実施時間帯検出部123の説明**
作業実施時間帯検出部123は、関節時系列データ画像化部122から、左手関節位置画像LJPI、左手関節速度画像LJVI、右手関節位置画像RJPI及び右手関節速度画像RJVIを取得する。
更に、作業実施時間帯検出部123は、把持道具時系列データ生成部126から左手把持道具データLTO1と右手把持道具データRTO1を取得する。
【0035】
作業実施時間帯検出部123は、左手関節位置画像LJPI及び/又は左手関節速度画像LJVIを解析する。そして、作業実施時間帯検出部123は、左手が映像に出現した時間帯の集合である左手出現時間帯集合LSを生成する。
同様に、作業実施時間帯検出部123は、右手関節位置画像RJPI及び/又は右手関節速度画像RJVIを解析する。そして、作業実施時間帯検出部123は、右手が映像に出現した時間帯の集合である右手出現時間帯集合RSを生成する。
このように、作業実施時間帯検出部123は、
図3に示す出現状況判定を行う。
また、作業実施時間帯検出部123は、関節位置時系列データ取得部120から関節位置時系列データHPTを取得している場合は、関節位置時系列データHPTを用いて出現状況判定を行ってもよい。また、作業実施時間帯検出部123は、関節速度計算部121から関節速度時系列データHVTを取得している場合は、関節速度時系列データHVTを用いて出現状況判定を行ってもよい。
【0036】
また、作業実施時間帯検出部123は、左手把持道具データLTO1及び右手把持道具データRTO1に基づいて、左手及び右手の各々について、時系列に沿って、道具を把持している時間帯、道具を把持していない時間帯を抽出する。また、作業従事者が把持する道具の種類が変化している場合は、作業実施時間帯検出部123は、道具の種類ごとに異なる時間帯として抽出する。
以下では、作業実施時間帯検出部123の抽出結果を道具把持状況判定結果TSという。
道具把持状況判定結果TSには、作業従事者が道具を把持している時間帯と、作業従事者が道具を把持していない時間帯とが時系列に示される。また、道具把持状況判定結果TSでは、作業従事者が道具を把持している時間帯と、当該時間帯において作業従事者が把持している道具の種類とが対応付けられている。
このように、作業実施時間帯検出部123は、
図4に示す道具把持状況判定を行う。
【0037】
また、作業実施時間帯検出部123は、左手関節位置画像LJPI及び/又は左手関節速度画像LJVIを解析し、左手の単位時間あたりの変位量を計算する。
同様に、作業実施時間帯検出部123は、右手関節位置画像RJPI及び/又は右手関節速度画像RJVIを解析し、右手の単位時間あたりの変位量を計算する。
このように、作業実施時間帯検出部123は、
図2の変位量判定を行う。
また、作業実施時間帯検出部123は、関節位置時系列データ取得部120から関節位置時系列データHPTを取得している場合は、関節位置時系列データHPTを用いて変位量判定を行ってもよい。また、作業実施時間帯検出部123は、関節速度計算部121から関節速度時系列データHVTを取得している場合は、関節速度時系列データHVTを用いて変位量判定を行ってもよい。
【0038】
作業実施時間帯検出部123は、少なくともいずれかの判定結果に基づき、作業実施時間帯を作業実施時間帯と非作業時間帯とに分割する。
具体的には、作業実施時間帯検出部123は、作業実施時間帯の開始時刻と終了時刻を特定し、非作業時間帯の開始時刻と終了時刻を特定して、作業実施時間帯を作業実施時間帯と非作業時間帯とに分割する。
なお、作業実施時間帯検出部123は、出現状況判定の判定結果のみを用いて作業従事時間を作業実施時間帯と非作業時間帯とに分割する場合は、道具把持状況判定と変位量判定とを行わなくてもよい。
同様に、作業実施時間帯検出部123は、道具把持状況判定の判定結果のみを用いて作業従事時間を作業実施時間帯と非作業時間帯とに分割する場合は、出現状況判定と変位量判定とを行わなくてもよい。
同様に、作業実施時間帯検出部123は、変位量判定の判定結果のみを用いて作業従事時間を作業実施時間帯と非作業時間帯とに分割する場合は、出現状況判定と道具把持状況判定とを行わなくてもよい。
【0039】
作業実施時間帯検出部123は、作業実施時間帯の集合である作業実施時間帯集合FSを要素作業推定部124に出力する。作業実施時間帯集合FSには、作業実施時間帯ごとに作業実施時間帯の開始時刻と終了時刻とが示される。
また、作業実施時間帯検出部123は、非作業時間帯の集合である非作業時間帯集合NFSを推定結果処理部125に出力する。非作業時間帯集合NFSには、非作業時間帯ごとに非作業時間帯の開始時刻と終了時刻とが示される。
【0040】
**要素作業推定部124の説明**
要素作業推定部124は、作業実施時間帯検出部123から作業実施時間帯集合FSを取得する。
また、要素作業推定部124は、関節時系列データ画像化部122から、左手関節位置画像LJPI、左手関節速度画像LJVI、右手関節位置画像RJPI及び右手関節速度画像RJVIを取得する。
また、要素作業推定部124は、要素作業推定モデル保存部130から、要素作業推定モデルMを取得する。要素作業推定モデルMは
図1に示す学習済みモデルに相当する。
また、要素作業推定部124は、推定結果保存部132から、前処理統計量を取得する。具体的には、要素作業推定部124は、前処理統計量として、関節位置輝度平均値PM、関節位置輝度標準偏差PS、関節速度輝度平均値VM及び関節速度輝度標準偏差VSを取得する。
【0041】
関節位置輝度平均値PMは、後述する学習装置200で得られた、学習用の関節位置画像の輝度の平均値である。
関節位置輝度標準偏差PSは、学習装置200で得られた、学習用の関節位置画像の輝度の標準偏差である。
輝度とは、関節位置画像に含まれる座標軸Cごとの座標値である。
学習用の関節位置画像は、学習フェーズで用いられる関節位置画像であり、前述の左手関節位置画像LJPI及び右手関節位置画像RJPIに相当する。
【0042】
関節位置輝度平均値PMには、厳密には、左手関節位置輝度平均値LPMと右手関節位置輝度平均値RPMが含まれる。左手関節位置輝度平均値LPMは、学習用の左手関節位置画像である左手関節位置ラベル画像sLJPIから得られた平均値である。右手関節位置輝度平均値RPMは、学習用の右手関節位置画像である右手関節位置ラベル画像sRJPIから得られた平均値である。
また、左手関節位置輝度平均値LPMは、座標軸Cごとに求められる。このため、左手関節位置輝度平均値LPMを厳密に表記すれば、左手関節位置輝度平均値LPM(C)と表記される。
同様に、右手関節位置輝度平均値RPMも、座標軸Cごとに求められる。このため、右手関節位置輝度平均値RPMを厳密に表記すれば、右手関節位置輝度平均値RPM(C)と表記される。
なお、厳密に表記すべき場合を除き、左手関節位置輝度平均値LPMと右手関節位置輝度平均値RPMをまとめて関節位置輝度平均値PMという。
なお、上記のように、左手についての輝度平均値と右手についての輝度平均値を用いるのではなく、左手と右手の両者にわたる輝度平均値を用いるようにしてもよい。以下では、左手についての輝度平均値と右手についての輝度平均値を用いる例を説明するが、以下の説明は左手と右手の両者にわたる輝度平均値を用いる場合にも適用される。
【0043】
関節位置輝度標準偏差PSにも、厳密には、左手関節位置輝度標準偏差LPSと右手関節位置輝度標準偏差RPSが含まれる。左手関節位置輝度標準偏差LPSは、学習用の左手関節位置画像である左手関節位置ラベル画像sLJPIから得られた標準偏差である。右手関節位置輝度標準偏差RPSは、学習用の右手関節位置画像である右手関節位置ラベル画像sRJPIから得られた標準偏差である。
また、左手関節位置輝度標準偏差LPSも、座標軸Cごとに求められる。このため、左手関節位置輝度標準偏差LPSを厳密に表記すれば、左手関節位置輝度標準偏差LPS(C)と表記される。
同様に、右手関節位置輝度標準偏差RPSも、座標軸Cごとに求められる。このため、右手関節位置輝度標準偏差RPSを厳密に表記すれば、右手関節位置輝度標準偏差RPS(C)と表記される。
なお、厳密に表記すべき場合を除き、左手関節位置輝度標準偏差LPSと右手関節位置輝度標準偏差RPSをまとめて関節位置輝度標準偏差PSという。
なお、上記のように、左手についての輝度標準偏差と右手についての輝度標準偏差を用いるのではなく、左手と右手の両者にわたる輝度標準偏差を用いるようにしてもよい。以下では、左手についての輝度標準偏差と右手についての輝度標準偏差を用いる例を説明するが、以下の説明は左手と右手の両者にわたる輝度標準偏差を用いる場合にも適用される。
【0044】
関節速度輝度平均値VMは、学習装置200で得られた、学習用の関節速度画像の輝度の平均値である。
関節速度輝度標準偏差VSは、学習装置200で得られた、学習用の関節速度画像の輝度の標準偏差である。
学習用の関節速度画像は、学習フェーズで用いられる関節速度画像であり、前述の左手関節速度画像LJVI及び右手関節速度画像RJVIに相当する。
【0045】
関節速度輝度平均値VMにも、厳密には、左手関節速度輝度平均値LVMと右手関節速度輝度平均値RVMが含まれる。左手関節速度輝度平均値LVMは、学習用の左手関節速度画像である左手関節速度ラベル画像sLJVIから得られた平均値である。右手関節速度輝度平均値RVMは、学習用の右手関節速度画像である右手関節速度ラベル画像sRJVIから得られた平均値である。
また、左手関節速度輝度平均値LVMも、座標軸Cごとに求められる。このため、左手関節速度輝度平均値LVMを厳密に表記すれば、左手関節速度輝度平均値LVM(C)と表記される。
同様に、右手関節速度輝度平均値RVMも、座標軸Cごとに求められる。このため、右手関節速度輝度平均値RVMを厳密に表記すれば、右手関節速度輝度平均値RVM(C)と表記される。
なお、厳密に表記すべき場合を除き、左手関節速度輝度平均値LVMと右手関節速度輝度平均値RVMをまとめて関節速度輝度平均値VMという。
なお、上記のように、左手についての輝度平均値と右手についての輝度平均値を用いるのではなく、左手と右手の両者にわたる輝度平均値を用いるようにしてもよい。以下では、左手についての輝度平均値と右手についての輝度平均値を用いる例を説明するが、以下の説明は左手と右手の両者にわたる輝度平均値を用いる場合にも適用される。
【0046】
関節速度輝度標準偏差VSにも、厳密には、左手関節速度輝度標準偏差LVSと右手関節速度輝度標準偏差RVSが含まれる。左手関節速度輝度標準偏差LVSは、学習用の左手関節速度画像である左手関節速度ラベル画像sLJVIから得られた標準偏差である。右手関節速度輝度標準偏差RVSは、学習用の右手関節速度画像である右手関節速度ラベル画像sRJVIから得られた標準偏差である。
また、左手関節速度輝度標準偏差LVSも、座標軸Cごとに求められる。このため、左手関節速度輝度標準偏差LVSを厳密に表記すれば、左手関節速度輝度標準偏差LVS(C)と表記される。
同様に、右手関節速度輝度標準偏差RVSも、座標軸Cごとに求められる。このため、右手関節速度輝度標準偏差RVSを厳密に表記すれば、右手関節速度輝度標準偏差RVS(C)と表記される。
なお、厳密に表記すべき場合を除き、左手関節速度輝度標準偏差LVSと右手関節速度輝度標準偏差RVSをまとめて関節速度輝度標準偏差VSという。
なお、上記のように、左手についての輝度標準偏差と右手についての輝度標準偏差を用いるのではなく、左手と右手の両者にわたる輝度標準偏差を用いるようにしてもよい。以下では、左手についての輝度標準偏差と右手についての輝度標準偏差を用いる例を説明するが、以下の説明は左手と右手の両者にわたる輝度標準偏差を用いる場合にも適用される。
【0047】
要素作業推定部124は、作業実施時間帯集合FSに含まれる作業実施時間帯ごとに、左手関節位置画像LJPI、左手関節速度画像LJVI、右手関節位置画像RJPI及び右手関節速度画像RJVIの各々から、作業実施時間帯に撮像された部分映像を構成する部分画像を抽出する。つまり、要素作業推定部124は、左手関節位置画像LJPIから、作業実施時間帯に撮像された部分映像を構成する画像を部分画像として抽出する。要素作業推定部124は、左手関節速度画像LJVI、右手関節位置画像RJPI及び右手関節速度画像RJVについても、同様の部分画像を抽出する。
以下では、左手関節位置画像LJPI、左手関節速度画像LJVI、右手関節位置画像RJPI及び右手関節速度画像RJVIの各々から抽出された部分画像の集合を部分画像集合ISという。
【0048】
そして、要素作業推定部124は、作業時間帯ごとに、部分画像集合ISに含まれる各部分画像を、一定の幅及び高さをもつ画像にリサイズする。
更に、要素作業推定部124は、前処理統計量を用いてリサイズ後の各部分画像に含まれる画素値を座標軸Cごとに標準化する。なお、リサイズと標準化の順序は逆でもよい。
具体的には、要素作業推定部124は、左手関節位置画像LJPIから抽出されたリサイズ後の部分画像の画素値を座標軸Cごとに関節位置輝度平均値PM及び関節位置輝度標準偏差PSを用いて標準化する。
また、要素作業推定部124は、右手関節位置画像RJPIから抽出されたリサイズ後の部分画像の画素値を座標軸Cごとに関節位置輝度平均値PM及び関節位置輝度標準偏差PSを用いて標準化する。
より具体的には、要素作業推定部124は、左手関節位置画像LJPIから抽出されたリサイズ後の部分画像の画素値を、左手関節位置輝度平均値LPM(C)と左手関節位置輝度標準偏差LPS(C)とを用いて標準化する。
また、要素作業推定部124は、右手関節位置画像RJPIから抽出されたリサイズ後の部分画像の画素値を、右手関節位置輝度平均値RPM(C)と右手関節位置輝度標準偏差RPS(C)とを用いて標準化する。
【0049】
更に、要素作業推定部124は、左手関節速度画像LJVIから抽出されたリサイズ後の部分画像の画素値を座標軸Cごとに関節速度輝度平均値VM及び関節速度輝度標準偏差VSを用いて標準化する。
また、要素作業推定部124は、右手関節速度画像RJVIから抽出されたリサイズ後の部分画像の画素値を座標軸Cごとに関節速度輝度平均値VM及び関節速度輝度標準偏差VSを用いて標準化する。
より具体的には、要素作業推定部124は、左手関節速度画像LJVIから抽出されたリサイズ後の部分画像の画素値を、左手関節速度輝度平均値LVM(C)と左手関節速度輝度標準偏差LVS(C)とを用いて標準化する。
また、要素作業推定部124は、右手関節速度画像RJVIから抽出されたリサイズ後の部分画像の画素を、右手関節速度輝度平均値RVM(C)と右手関節速度輝度標準偏差RVS(C)とを用いて標準化する。
【0050】
そして、要素作業推定部124は、リサイズ及び標準化の後の各部分画像を、要素作業推定モデルMに入力する。
そして、要素作業推定部124は、要素作業推定モデルMから、推定結果qsを取得する。推定結果qsには、作業時間帯と、当該作業時間帯に作業従事者が実施していると推定される要素作業とが対応付けて示される。
要素作業推定部124は、以上の手順を、作業実施時間帯集合FSに含まれる全ての作業実施時間帯に対して行って、各作業時間帯の推定結果qsを取得する。
そして、要素作業推定部124は、各作業時間帯の推定結果qsの集合である推定結果集合QSを推定結果処理部125に出力する。
【0051】
**推定結果処理部125の説明**
推定結果処理部125は、要素作業推定部124から推定結果集合QSを取得する。
また、推定結果処理部125は、作業実施時間帯検出部123から非作業時間帯集合NFSを取得する。
推定結果処理部125は、推定結果集合QSに含まれる複数の推定結果qsを、それぞれの推定結果qsが対応する作業実施時間帯の昇順にソートする。
また、推定結果処理部125は、非作業時間帯集合NFSに含まれる非作業時間帯の各々に、非作業時間帯を表すラベルを付与する。更に、推定結果処理部125は、ラベル付与後の各非作業時間帯をソート後の推定結果集合QSの該当する時間の位置に挿入する。
ラベル付与後の各非作業時間帯とソート後の推定結果集合QSを、最終推定結果ASとして推定結果保存部132に出力する。
【0052】
図21は、以上の作業実施時間帯検出部123、要素作業推定部124及び推定結果処理部125の動作の概要を示す。
【0053】
**要素作業推定モデル保存部130の説明**
要素作業推定モデル保存部130は、要素作業推定モデルMを保存する。
【0054】
**前処理統計量保存部131の説明**
前処理統計量保存部131は、前処理統計量(関節位置輝度平均値PM、関節位置輝度標準偏差PS、関節速度輝度平均値VM及び関節速度輝度標準偏差VS)を保存する。
【0055】
**推定結果保存部132の説明**
推定結果保存部132は、最終推定結果ASを保存する。
【0056】
**作業実施時間帯検出部123の内部構成例と要素作業推定部124の内部構成例の説明**
図8は、作業実施時間帯検出部123の内部構成例と要素作業推定部124の内部構成例を示す。
図8を用いて、作業実施時間帯検出部123の内部構成例と要素作業推定部124の内部構成例を説明する。
なお、
図8では、推定装置100の機能構成要素のうち、作業実施時間帯検出部123の内部構成例と要素作業推定部124の内部構成例を説明するのに必要な機能構成要素のみが図示されている。
【0057】
**作業実施時間帯検出部123の内部構成例の説明**
作業実施時間帯検出部123は、内部構成として、出現状況判定部1231、道具把持状況判定部1232、変位量判定部1233及び作業実施時間帯判定部1234を有する。
【0058】
**出現状況判定部1231の説明**
出現状況判定部1231は、出現状況判定を行う。
出現状況判定部1231は、関節時系列データ画像化部122から、左手関節位置画像LJPI、左手関節速度画像LJVI、右手関節位置画像RJPI及び右手関節速度画像RJVIを取得する。
そして、出現状況判定部1231は、左手関節位置画像LJPI及び/又は左手関節速度画像LJVIを解析し、左手出現時間帯集合LSを生成する。同様に、出現状況判定部1231は、右手関節位置画像RJPI及び/又は右手関節速度画像RJVIを解析し、右手出現時間帯集合RSを生成する。前述のように、左手出現時間帯集合LSは、左手が映像に出現した時間帯の集合である。また、右手出現時間帯集合RSは、右手が映像に出現した時間帯の集合である。左手出現時間帯集合LSと右手出現時間帯集合RSは、
図4に出現状況判定の判定結果として示す時系列データである。
出現状況判定部1231は、左手出現時間帯集合LSと右手出現時間帯集合RSを作業実施時間帯判定部1234に出力する。
なお、出現状況判定部1231は、前述のように、関節位置時系列データHPT及び/又は関節速度時系列データHVTを用いて出現状況判定を行ってもよい。
図8では、出現状況判定部1231への関節位置時系列データHPT及び/又は関節速度時系列データHVTの入力の図示は省略している。
【0059】
**道具把持状況判定部1232の説明**
道具把持状況判定部1232は、道具把持状況判定を行う。
道具把持状況判定部1232は、把持道具時系列データ生成部126から左手把持道具データLTO1と右手把持道具データRTO1とを取得する。
そして、道具把持状況判定部1232は、左手把持道具データLTO1と右手把持道具データRTO1とに基づいて、左手及び右手の各々について、道具を把持している時間帯、道具を把持していない時間帯を時系列に抽出する。また、作業従事者が把持する道具の種類が変化している場合は、道具把持状況判定部1232は、道具を把持している時間帯を、道具の種類ごとに異なる時間帯として扱う。
道具把持状況判定部1232は、左手についての抽出結果が示される左手道具把持状況判定結果LTSを作業実施時間帯判定部1234に出力する。また、道具把持状況判定部1232は、右手についての抽出結果が示される右手道具把持状況判定結果RTSを作業実施時間帯判定部1234に出力する。左手道具把持状況判定結果LTSと右手道具把持状況判定結果RTSは、
図4に道具把持状況判定の判定結果として示す時系列データである。
【0060】
**変位量判定部1233の説明**
変位量判定部1233は、変位量判定を行う。
変位量判定部1233は、関節時系列データ画像化部122から、左手関節位置画像LJPI、左手関節速度画像LJVI、右手関節位置画像RJPI及び右手関節速度画像RJVIを取得する。
そして、変位量判定部1233は、左手関節位置画像LJPI及び/又は左手関節速度画像LJVIを解析し、左手の単位時間あたりの変位量を計算する。例えば、変位量判定部1233は、左手の手首の関節の単位時間あたりの変位量を計算する。同様に、変位量判定部1233は、右手関節位置画像RJPI及び/又は右手関節速度画像RJVIを解析し、右手の単位時間あたりの変位量を計算する。例えば、変位量判定部1233は、右手の手首の関節の単位時間あたりの変位量を計算する。
そして、変位量判定部1233は、左手の単位時間あたりの変位量を時系列に示す左手変位量データLZSを作業実施時間帯判定部1234に出力する。また、変位量判定部1233は、右手の単位時間あたりの変位量を時系列に示す右手変位量データRZSを作業実施時間帯判定部1234に出力する。左手変位量データLZSと右手変位量データRZSは、
図2に変位量判定の判定結果として示す時系列データである。
なお、変位量判定部1233は、前述のように、関節位置時系列データHPT及び/又は関節速度時系列データHVTを用いて変位量判定を行ってもよい。
図8では、変位量判定部1233への関節位置時系列データHPT及び/又は関節速度時系列データHVTの入力の図示は省略している。
【0061】
**作業実施時間帯判定部1234の説明**
作業実施時間帯判定部1234は、出現状況判定部1231から、左手出現時間帯集合LSと右手出現時間帯集合RSとを取得する。
また、作業実施時間帯判定部1234は、道具把持状況判定部1232から、左手道具把持状況判定結果LTSと右手道具把持状況判定結果RTSとを取得する。
また、作業実施時間帯判定部1234は、変位量判定部1233から、左手変位量データLZSと右手変位量データRZSとを取得する。
そして、作業実施時間帯判定部1234は、これらに基づいて、作業従事時間を作業実施時間帯と非作業時間帯とに分割する。
【0062】
例えば、作業実施時間帯判定部1234は、左手及び右手の少なくともいずれかの変位量が閾値以上であれば、左手及び右手の少なくともいずれかが道具を把持しているか否か及び左手及び右手の少なくともいずれかが映像に出現しているか否かに関わらず、当該時間帯を非作業時間帯に指定する。
【0063】
また、作業実施時間帯判定部1234は、例えば、左手及び右手の変位量がともに閾値未満の場合は、左手及び右手の少なくともいずれかが映像に出現していれば、左手及び右手の少なくともいずれかが道具を把持しているか否かに関わらず、当該時間帯を作業実施時間帯に指定する。一方、左手及び右手の変位量がともに閾値未満の場合でも、左手及び右手のどちらも映像に出現していなければ、時間分割部11は、左手及び右手の少なくともいずれかが道具を把持しているか否かに関わらず、当該時間帯を非作業時間帯に指定する。
この場合に、作業実施時間帯判定部1234は、左手と右手とを別々に扱ってもよい。具体的には、作業実施時間帯判定部1234は、以下の(A1)~(A3)を別々の作業実施時間帯として扱う。また、作業実施時間帯判定部1234は、出現状況判定のみで作業従事時間を作業実施時間帯と非作業時間帯とに分割する場合も、(A1)~(A3)を別々の作業実施時間帯として扱う。
(A1)左手は出現しているが、右手は出現していない時間帯
(A2)左手は出現していないが、右手は出現している時間帯
(A3)左手も右手も出現している時間帯
【0064】
また、作業実施時間帯判定部1234は、例えば、左手及び右手の変位量に関わらず、左手及び右手の少なくともいずれかが道具を把持している場合は、当該時間帯を作業実施時間帯に指定する。
この場合にも、作業実施時間帯判定部1234は、左手と右手とを別々に扱ってもよい。具体的には、作業実施時間帯判定部1234は、以下の(B1)~(B3)を別々の作業実施時間帯として扱う。また、作業実施時間帯判定部1234は、道具把持状況判定のみで作業従事時間を作業実施時間帯と非作業時間帯とに分割する場合も、(B1)~(B3)を別々の作業実施時間帯として扱う。
(B1)左手は道具を把持しているが、右手は道具を把持していない時間帯
(B2)左手は道具を把持していないが、右手は道具を把持している時間帯
(B3)左手も右手も道具を把持している時間帯
また、作業実施時間帯判定部1234は、上記の(B3)を細分化して、以下の(B3-1)と(B3-2)を別々の作業実施時間帯として扱ってもよい。
(B3-1)左手も右手も同じ道具を把持している時間帯
(B3-2)左手と右手とがそれぞれ異なる道具を把持している時間帯
【0065】
作業実施時間帯判定部1234は、前述のように、変位量が閾値未満の時間帯を作業実施時間帯に指定する。
作業実施時間帯判定部1234は、例えば、以下のように変位量と閾値との比較を行ってもよい。
作業実施時間帯判定部1234は、左手出現時間帯集合LSを作業実施時間帯の候補の集合とみなす。また、作業実施時間帯判定部1234は、左手変位量データLZSにおける各候補のもつ時間帯の部分的な変位量の時系列データを抽出する。この部分的な変位量の時系列データを左手部分変位量時系列データ集合sLZSと呼ぶ。また、左手部分変位量時系列データ集合sLZSのi番目のデータをsLZS(i)と呼ぶ。
作業実施時間帯判定部1234は、sLZS(i)を一定の時間幅で分割する。分割されたsLZS(i)のk番目の部分変位量データを短時間部分変位量データsLZS(i,k)と呼ぶ。
作業実施時間帯判定部1234は、短時間部分変位量データsLZS(i,k)が有する変位量の統計量を計算する。統計量は例えば、平均値である。
当該統計量が閾値以上であれば、作業実施時間帯判定部1234は、短時間部分変位量データsLZS(i,k)に該当する時間帯を非作業実施時間帯と判定する。一方、当該統計量が閾値未満であれば、作業実施時間帯判定部1234は、短時間部分変位量データsLZS(i,k)に該当する時間帯を作業実施時間帯と判定する。
作業実施時間帯判定部1234は、右手出現時間帯RSと右手道具把持状況判定結果RTSについても同様の処理を行う。
また、左手と右手が同時に出現しており、片方が道具を把持し、もう片方が道具を把持していない場合は、作業実施時間帯判定部1234は、道具を把持している方の手の変位量に基づいて作業実施時間帯か否かを判定してもよい。または、作業実施時間帯判定部1234は、道具を把持している方の手について本段落に記載の処理によって得られる変位量の統計量と閾値との比較に基づいて作業実施時間帯か否かを判定してもよい。
両方の手が道具を把持する場合は、作業実施時間帯判定部1234は、左手の変位量と右手の変位量との比較、または本段落に記載の処理によって得られる左手の変位量の統計量と右手の変位量の統計量との比較を行う。そして、作業実施時間帯判定部1234は、当該変位量または当該変位量の統計量の小さい方を閾値と比較して作業実施時間帯か否かを判定してもよい。
【0066】
なお、作業実施時間帯判定部1234は、これ以外の基準で作業従事時間を作業実施時間帯と非作業時間帯とに分割してもよい。
【0067】
作業実施時間帯判定部1234は、作業実施時間帯の集合である作業実施時間帯集合FSを要素作業推定部124に出力する。作業実施時間帯集合FSには、作業実施時間帯ごとに作業実施時間帯の開始時刻と終了時刻とが示される。
また、作業実施時間帯判定部1234は、非作業時間帯の集合である非作業時間帯集合NFSを推定結果処理部125に出力する。非作業時間帯集合NFSには、非作業時間帯ごとに非作業時間帯の開始時刻と終了時刻とが示される。
【0068】
**要素作業推定部124の内部構成例の説明**
要素作業推定部124は、内部構成として、関節位置画像取得部1241、関節速度画像取得部1242、関節位置特徴抽出部1243、関節速度特徴抽出部1244及び関節画像特徴分類部1245を有する。
【0069】
**関節位置画像取得部1241の説明**
関節位置画像取得部1241は、作業実施時間帯判定部1234から作業実施時間帯集合FSを取得する。
また、関節位置画像取得部1241は、関節時系列データ画像化部122から、左手関節位置画像LJPI、左手関節速度画像LJVI、右手関節位置画像RJPI及び右手関節速度画像RJVIを取得する。
また、関節位置画像取得部1241は、前処理統計量保存部131から、前処理統計量を取得する。具体的には、関節位置画像取得部1241は、前処理統計量として関節位置輝度平均値PM、関節位置輝度標準偏差PS、関節速度輝度平均値VM及び関節速度輝度標準偏差VSを取得する。
【0070】
そして、関節位置画像取得部1241は、作業実施時間帯集合FSに含まれる作業実施時間帯ごとに、左手関節位置画像LJPI及び右手関節位置画像RJPIの各々から、作業実施時間帯に撮像された部分映像を構成する部分画像を抽出する。
そして、関節位置画像取得部1241は、作業時間帯ごとに、各部分画像を、一定の幅及び高さをもつ画像にリサイズする。更に、関節位置画像取得部1241は、左手関節位置画像LJPIから抽出されたリサイズ後の部分画像の画素値を関節位置輝度平均値PM及び関節位置輝度標準偏差PSを用いて標準化する。また、関節位置画像取得部1241は、右手関節位置画像RJPIから抽出されたリサイズ後の部分画像の画素値を関節位置輝度平均値PM及び関節位置輝度標準偏差PSを用いて標準化する。前述のように、リサイズと標準化の順序は逆でもよい。
関節位置画像取得部1241は、左手関節位置画像LJPI及び右手関節位置画像RJPIの各々についてのリサイズ及び標準化の後の部分画像を関節位置特徴抽出部1243に出力する。
【0071】
また、関節位置画像取得部1241は、作業実施時間帯集合FS、左手関節速度画像LJVI、右手関節速度画像RJVI、関節速度輝度平均値VM及び関節速度輝度標準偏差VSを、関節速度画像取得部1242に出力する。
ここでは、関節位置画像取得部1241が、作業実施時間帯集合FS、左手関節速度画像LJVI、右手関節速度画像RJVI、関節速度輝度平均値VM及び関節速度輝度標準偏差VSを取得し、これらの値を関節速度画像取得部1242に出力する例を説明している。
これに代えて、関節速度画像取得部1242が、作業実施時間帯判定部1234から作業実施時間帯集合FSを取得し、関節時系列データ画像化部122から左手関節速度画像LJVI及び右手関節速度画像RJVIを取得し、前処理統計量保存部131から関節速度輝度平均値VM及び関節速度輝度標準偏差VSを取得するようにしてもよい。
この場合は、関節位置画像取得部1241は、関節時系列データ画像化部122から左手関節位置画像LJPI及び右手関節位置画像RJPIのみを取得し、前処理統計量保存部131から関節位置輝度平均値PM及び関節位置輝度標準偏差PSのみを取得する。
【0072】
**関節速度画像取得部1242の説明**
関節速度画像取得部1242は、関節位置画像取得部1241から、作業実施時間帯集合FS、左手関節速度画像LJVI、右手関節速度画像RJVI、関節速度輝度平均値VM及び関節速度輝度標準偏差VSを取得する。
そして、関節速度画像取得部1242は、作業実施時間帯集合FSに含まれる作業実施時間帯ごとに、左手関節速度画像LJVI及び右手関節速度画像RJVIの各々から、作業実施時間帯に撮像された部分映像を構成する部分画像を抽出する。
そして、関節速度画像取得部1242は、作業時間帯ごとに、各部分画像を、一定の幅及び高さをもつ画像にリサイズする。更に、関節速度画像取得部1242は、左手関節速度画像LJVIから抽出されたリサイズ後の部分画像の画素値を関節速度輝度平均値VM及び関節速度輝度標準偏差VSを用いて標準化する。また、関節速度画像取得部1242は、右手関節速度画像RJVIから抽出されたリサイズ後の部分画像の画素値を関節速度輝度平均値VM及び関節速度輝度標準偏差VSを用いて標準化する。
関節速度画像取得部1242は、左手関節速度画像LJVI及び右手関節速度画像RJVIの各々についてのリサイズ及び標準化の後の部分画像を関節速度特徴抽出部1244に出力する。
【0073】
**関節位置特徴抽出部1243の説明**
関節位置特徴抽出部1243は、関節位置画像取得部1241から、左手関節位置画像LJPI及び右手関節位置画像RJPIの各々についてのリサイズ及び標準化の後の部分画像を取得する。
そして、関節位置特徴抽出部1243は、取得した部分画像を要素作業推定モデルMに入力する。ここで用いられる要素作業推定モデルMは、例えば、事前学習済みの畳み込みニューラルネットワークである。
関節位置特徴抽出部1243は、それぞれの部分画像から特徴ベクトルである関節位置特徴ベクトルを抽出する。ここでは、左手関節位置画像LJPIについての部分画像から得られた関節位置特徴ベクトルを左手位置特徴ベクトルfLPという。また、右手関節位置画像RJPIについての部分画像から得られた関節位置特徴ベクトルを右手位置特徴ベクトルfRPという。
関節位置特徴抽出部1243は、左手位置特徴ベクトルfLPと右手位置特徴ベクトルfRPとを関節画像特徴分類部1245に出力する。
【0074】
**関節速度特徴抽出部1244の説明**
関節速度特徴抽出部1244は、関節速度画像取得部1242から、左手関節速度画像LJVI及び右手関節速度画像RJVIの各々についてのリサイズ及び標準化の後の部分画像を取得する。
そして、関節速度特徴抽出部1244は、取得した部分画像を要素作業推定モデルMに入力する。ここで用いられる要素作業推定モデルMも、例えば、事前学習済みの畳み込みニューラルネットワークである。なお、ここで用いられる畳み込みニューラルネットワークは、関節位置特徴抽出部1243により用いられる畳み込みニューラルネットワークと同じであっても、異なっていてもよい。
関節速度特徴抽出部1244は、それぞれの部分画像から特徴ベクトルである関節速度特徴ベクトルを抽出する。ここでは、左手関節速度画像LJVIについての部分画像から得られた関節速度特徴ベクトルを左手速度特徴ベクトルfLVという。また、右手関節速度画像RJVIについての部分画像から得られた関節速度特徴ベクトルを右手速度特徴ベクトルfRVという。
関節速度特徴抽出部1244は、左手速度特徴ベクトルfLVと右手速度特徴ベクトルfRVとを関節画像特徴分類部1245に出力する。
【0075】
**関節画像特徴分類部1245の説明**
関節画像特徴分類部1245は、関節位置特徴抽出部1243から左手位置特徴ベクトルfLPと右手位置特徴ベクトルfRPとを取得する。また、関節画像特徴分類部1245は、関節速度特徴抽出部1244から左手速度特徴ベクトルfLVと右手速度特徴ベクトルfRVとを取得する。
【0076】
そして、関節画像特徴分類部1245は、左手位置特徴ベクトルfLPと右手位置特徴ベクトルfRPと左手速度特徴ベクトルfLVと右手速度特徴ベクトルfRVとを結合する。
更に、関節画像特徴分類部1245は、結合後の特徴ベクトルを、要素作業推定モデルMに入力する。より具体的には、関節画像特徴分類部1245は、結合後の特徴ベクトルを、要素作業推定モデルMの分類処理を行うニューラルネットワークの層に入力する。要素作業推定モデルMの層の構成は、データ量やタスクに応じて、推定装置100のユーザが任意に指定することができる。要素作業推定モデルMは、一般的には複数の全結合層及び複数の活性化層を用いて構成される。
関節画像特徴分類部1245は、作業実施時間帯ごとに、要素作業推定モデルMにより推定された要素作業のうちで、確率が最大となる要素作業を、当該作業時間帯に作業従事者が実施している要素作業と推定する。
そして、関節画像特徴分類部1245は、各作業時間帯の推定結果qsの集合である推定結果集合QSを推定結果処理部125に出力する。
【0077】
***動作の説明***
次に、本実施の形態に係る推定装置100の動作例を説明する。
図9は、推定装置100の動作例を示すフローチャートである。
【0078】
先ず、ステップS11において、関節位置時系列データ取得部120が関節位置時系列データHPTを取得する。つまり、関節位置時系列データ取得部120は、撮像装置110からの映像Vから関節位置時系列データHPTを生成する。
【0079】
次に、ステップS12において、関節速度計算部121が、関節位置時系列データHPTから関節速度時系列データHVTを生成する。
【0080】
次に、ステップS13において、関節時系列データ画像化部122が、関節位置時系列データHPTを画像化して、左手関節位置画像LJPIと右手関節位置画像RJPIを生成する。また、関節時系列データ画像化部122が、関節速度時系列データHVTを画像化して、左手関節速度画像LJVIと右手関節速度画像RJVIを生成する。
【0081】
次に、ステップS14において、把持道具時系列データ生成部126が、映像V又はセンサ情報RRSを用いて、左手把持道具データLTO1と右手把持道具データRTO1を生成する。
【0082】
次に、ステップS15において、作業実施時間帯検出部123が、左手関節位置画像LJPI、右手関節位置画像RJPI、左手関節速度画像LJVI、右手関節速度画像RJVI、左手把持道具データLTO1及び右手把持道具データRTO1を用いて、作業実施時間帯を検出する。
【0083】
次に、ステップS16において、要素作業推定部124が、要素作業推定モデルMを用いて、作業実施時間帯ごとに、作業従事者が実施する要素作業を推定する。
【0084】
最後に、ステップS17において、推定結果処理部125が、最終推定結果ASを出力する。
【0085】
次に、作業実施時間帯検出部123の動作例の詳細を説明する。
図10は、作業実施時間帯検出部123の動作例の詳細を示すフローチャートである。
【0086】
先ず、ステップS111において、出現状況判定部1231が、出現状況を判定する。
出現状況判定部1231は、関節時系列データ画像化部122から、左手関節位置画像LJPI、左手関節速度画像LJVI、右手関節位置画像RJPI及び右手関節速度画像RJVIを取得する。
そして、出現状況判定部1231は、左手関節位置画像LJPI及び/又は左手関節速度画像LJVIを解析し、左手出現時間帯集合LSを生成する。同様に、出現状況判定部1231は、右手関節位置画像RJPI及び/又は右手関節速度画像RJVIを解析し、右手出現時間帯集合RSを生成する。
出現状況判定部1231は、左手出現時間帯集合LSと右手出現時間帯集合RSとを作業実施時間帯判定部1234に出力する。
【0087】
次に、ステップS112において、道具把持状況判定部1232は、道具把持状況を判定する。
道具把持状況判定部1232は、把持道具時系列データ生成部126から左手把持道具データLTO1と右手把持道具データRTO1とを取得する。
そして、道具把持状況判定部1232は、左手把持道具データLTO1と右手把持道具データRTO1とに基づいて、左手及び右手の各々について、道具を把持している時間帯、道具を把持していない時間帯を時系列に抽出する。また、作業従事者が把持する道具の種類が変化している場合は、道具把持状況判定部1232は、道具を把持している時間帯を、道具の種類ごとに異なる時間帯として扱う。
道具把持状況判定部1232は、左手についての抽出結果が示される左手道具把持状況判定結果LTSと右手についての抽出結果が示される右手道具把持状況判定結果RTSとを作業実施時間帯判定部1234に出力する。
【0088】
次に、ステップS113において、変位量判定部1233が、変位量を判定する。
変位量判定部1233は、関節時系列データ画像化部122から、左手関節位置画像LJPI、左手関節速度画像LJVI、右手関節位置画像RJPI及び右手関節速度画像RJVIを取得する。
そして、変位量判定部1233は、左手関節位置画像LJPI及び/又は左手関節速度画像LJVIを解析し、左手の単位時間あたりの変位量を計算する。同様に、変位量判定部1233は、右手関節位置画像RJPI及び/又は右手関節速度画像RJVIを解析し、右手の単位時間あたりの変位量を計算する。
そして、変位量判定部1233は、左手の単位時間あたりの変位量を時系列に示す左手変位量データLZSと、右手の単位時間あたりの変位量を時系列に示す右手変位量データRZSとを作業実施時間帯判定部1234に出力する。
【0089】
最後に、ステップS114において、作業実施時間帯判定部1234が、作業実施時間帯を検出する。
作業実施時間帯判定部1234は、出現状況判定部1231から、左手出現時間帯集合LSと右手出現時間帯集合RSとを取得する。
また、作業実施時間帯判定部1234は、道具把持状況判定部1232から、左手道具把持状況判定結果LTSと右手道具把持状況判定結果RTSとを取得する。
また、作業実施時間帯判定部1234は、変位量判定部1233から、左手変位量データLZSと右手変位量データRZSとを取得する。
そして、作業実施時間帯判定部1234は、これらに基づいて、作業従事時間を作業実施時間帯と非作業時間帯とに分割する。
最後に、作業実施時間帯判定部1234は、作業実施時間帯の集合である作業実施時間帯集合FSを関節画像特徴分類部1245に出力する。
また、作業実施時間帯判定部1234は、非作業時間帯の集合である非作業時間帯集合NFSを推定結果処理部125に出力する。
【0090】
次に、要素作業推定部124の動作例の詳細を説明する。
図11は、要素作業推定部124の動作例の詳細を示すフローチャートである。
【0091】
先ず、ステップS121において、関節位置画像取得部1241が、関節位置画像の部分画を生成し、部分画像のリサイズ及び標準化を行う。
関節位置画像取得部1241は、作業実施時間帯判定部1234から作業実施時間帯集合FSを取得する。
また、関節位置画像取得部1241は、関節時系列データ画像化部122から、左手関節位置画像LJPI、左手関節速度画像LJVI、右手関節位置画像RJPI及び右手関節速度画像RJVIを取得する。
また、関節位置画像取得部1241は、前処理統計量保存部131から、前処理統計量として関節位置輝度平均値PM、関節位置輝度標準偏差PS、関節速度輝度平均値VM及び関節速度輝度標準偏差VSを取得する。
【0092】
そして、関節位置画像取得部1241は、作業実施時間帯集合FSに含まれる作業実施時間帯ごとに、左手関節位置画像LJPI及び右手関節位置画像RJPIの各々から、作業実施時間帯に撮像された部分映像を構成する部分画像を抽出する。
そして、関節位置画像取得部1241は、作業時間帯ごとに、各部分画像を、一定の幅及び高さをもつ画像にリサイズする。更に、関節位置画像取得部1241は、左手関節位置画像LJPIから抽出されたリサイズ後の部分画像の画素値を関節位置輝度平均値PM及び関節位置輝度標準偏差PSを用いて標準化する。また、関節位置画像取得部1241は、右手関節位置画像RJPIから抽出されたリサイズ後の部分画像の画素値を関節位置輝度平均値PM及び関節位置輝度標準偏差PSを用いて標準化する。前述のように、リサイズと標準化の順序は逆でもよい。
関節位置画像取得部1241は、左手関節位置画像LJPI及び右手関節位置画像RJPIの各々についてのリサイズ及び標準化の後の部分画像を関節位置特徴抽出部1243に出力する。
また、関節位置画像取得部1241は、作業実施時間帯集合FS、左手関節速度画像LJVI、右手関節速度画像RJVI、関節速度輝度平均値VM及び関節速度輝度標準偏差VSを関節速度画像取得部1242に出力する。
【0093】
次に、ステップS122において、関節速度画像取得部1242が、関節速度画像の部分画像を生成し、部分画像のリサイズ及び標準化を行う。
関節速度画像取得部1242は、関節位置画像取得部1241から、作業実施時間帯集合FS、左手関節速度画像LJVI、右手関節速度画像RJVI、関節速度輝度平均値VM及び関節速度輝度標準偏差VSを取得する。
そして、関節速度画像取得部1242は、作業実施時間帯集合FSに含まれる作業実施時間帯ごとに、左手関節速度画像LJVI及び右手関節速度画像RJVIの各々から、作業実施時間帯に撮像された部分映像を構成する部分画像を抽出する。
そして、関節速度画像取得部1242は、作業時間帯ごとに、各部分画像を、一定の幅及び高さをもつ画像にリサイズする。更に、関節速度画像取得部1242は、左手関節速度画像LJVIから抽出されたリサイズ後の部分画像の画素値を関節速度輝度平均値VM及び関節速度輝度標準偏差VSを用いて標準化する。また、関節速度画像取得部1242は、右手関節速度画像RJVIから抽出されたリサイズ後の部分画像の画素値を関節速度輝度平均値VM及び関節速度輝度標準偏差VSを用いて標準化する。前述のように、リサイズと標準化の順序は逆でもよい。
関節速度画像取得部1242は、左手関節速度画像LJVI及び右手関節速度画像RJVIの各々についてのリサイズ及び標準化の後の部分画像を関節速度特徴抽出部1244に出力する。
【0094】
次に、ステップS123において、関節位置特徴抽出部1243が、関節位置特徴ベクトルを抽出する。
関節位置特徴抽出部1243は、関節位置画像取得部1241から、左手関節位置画像LJPI及び右手関節位置画像RJPIの各々についてのリサイズ及び標準化の後の部分画像を取得する。
そして、関節位置特徴抽出部1243は、取得した部分画像を要素作業推定モデルMに入力する。
そして、関節位置特徴抽出部1243は、左手位置特徴ベクトルfLPと右手位置特徴ベクトルfRPとを抽出する。
関節位置特徴抽出部1243は、左手位置特徴ベクトルfLPと右手位置特徴ベクトルfRPとを関節画像特徴分類部1245に出力する。
【0095】
次に、ステップS124において、関節速度特徴抽出部1244が、関節速度特徴ベクトルを抽出する。
関節速度特徴抽出部1244は、関節速度画像取得部1242から、左手関節速度画像LJVI及び右手関節速度画像RJVIの各々についてのリサイズ及び標準化の後の部分画像を取得する。
そして、関節速度特徴抽出部1244は、取得した部分画像を要素作業推定モデルMに入力する。
そして、関節速度特徴抽出部1244は、左手速度特徴ベクトルfLVと右手速度特徴ベクトルfRVとを抽出する。
関節速度特徴抽出部1244は、左手速度特徴ベクトルfLVと右手速度特徴ベクトルfRVとを関節画像特徴分類部1245に出力する。
【0096】
最後に、ステップS125において、関節画像特徴分類部1245が、関節位置特徴ベクトルと関節速度特徴ベクトルとを結合し、要素作業を推定する。
関節画像特徴分類部1245は、関節位置特徴抽出部1243から左手位置特徴ベクトルfLPと右手位置特徴ベクトルfRPとを取得する。また、関節画像特徴分類部1245は、関節速度特徴抽出部1244から左手速度特徴ベクトルfLVと右手速度特徴ベクトルfRVとを取得する。
そして、関節画像特徴分類部1245は、左手位置特徴ベクトルfLPと右手位置特徴ベクトルfRPと左手速度特徴ベクトルfLVと右手速度特徴ベクトルfRVとを結合する。更に、関節画像特徴分類部1245は、結合後の特徴ベクトルを、要素作業推定モデルMに入力する。
関節画像特徴分類部1245は、作業実施時間帯ごとに、要素作業推定モデルMにより推定された要素作業のうちで、確率が最大となる要素作業を、当該作業時間帯に作業従事者が実施している要素作業と推定する。
そして、関節画像特徴分類部1245は、各作業時間帯の推定結果qsの集合である推定結果集合QSを推定結果処理部125に出力する。
【0097】
***実施の形態の効果の説明***
本実施の形態では、推定装置100は、作業実施時間帯の検出と、検出した作業実施時間帯で実施されている要素作業の推定という二段階の処理を行う。
作業実施時間帯の検出では、推定装置100は、手の出現状況、道具の把持状況及び手の変位量を解析して作業実施時間帯を検出する。このため、推定装置100は、作業に含まれる要素作業の発生頻度及び/又は実施時間が様々であっても、作業実施時間帯を正確に検出することができる。
このように作業実施時間帯を正確に検出することができるため、要素作業の推定では、推定装置100は作業実施時間帯に対応する部分画像を用いて、作業実施時間帯で実施されている要素作業を正確に推定することができる。
従って、本実施の形態によれば、各々の属性が一様ではない複数の要素作業が作業に含まれる場合でも、作業従事者が実施する要素作業を正確に推定することができる。
【0098】
また、本実施の形態では、推定装置100は、画像認識モデルを用いて要素作業を推定する。このため、本実施の形態によれば、要素作業の推定に、既存の学習済みモデルを用いることができる。すなわち、フルスクラッチでモデルを学習する必要がないため、学習に必要なデータ量を抑え、データ収集の負担を軽減することができる。
【0099】
実施の形態2.
本実施の形態では、実施の形態1で説明した要素作業推定モデルMを生成する学習装置を説明する。
本実施の形態では、主に実施の形態1との差異を説明する。
なお、以下で説明していない事項は、実施の形態1と同様である。
【0100】
**構成の説明**
図12は、本実施の形態に係る学習装置200の機能構成例を示す。学習装置200は、学習フェーズで動作する。学習フェーズは実施の形態1に係る推定装置100が動作する推定フェーズに先立つフェーズである。
学習装置200は、撮像装置210に接続されている。
撮像装置210は、実施の形態1で示した撮像装置110と同様である。
つまり、撮像装置210は、作業従事者の手の映像を学習装置200に出力する。
撮像装置210は、例えば、作業従事者の頭部に装着され、1人称視点の映像を撮像する。本実施の形態では、撮像装置210は、作業従事者の頭部に装着されているものとする。しかし、撮像装置210は、作業従事者の手の映像が撮像できるのであれば、作業従事者の頭部に装着されていなくてもよい。
【0101】
**学習装置200のハードウェア構成例の説明**
なお、本実施の形態に係る学習装置200は、
図23に例示するハードウェア構成を有するコンピュータである。
図23に示すように、学習装置200は、ハードウェアとして、プロセッサ901、主記憶装置902、補助記憶装置903及び通信装置904を備える。
図12に示す関節位置時系列データ取得部220、関節速度計算部221等の構成要素の機能は、例えば、プログラムにより実現される。
補助記憶装置903には、これらの構成要素の機能を実現するプログラムが記憶されている。
これらプログラムは、補助記憶装置903から主記憶装置902にロードされる。そして、プロセッサ901がこれらプログラムを実行して、これらの構成要素の動作を行う。
【0102】
**学習装置200の機能構成例の説明**
図13は、学習装置200の機能構成例を示す。
学習装置200は、関節位置時系列データ取得部220、関節速度計算部221、関節時系列データ画像化部222、学習データ生成部223、前処理統計量計算部224、要素作業推定モデル生成部225、学習データ保存部230、前処理統計量保存部231及び要素作業推定モデル保存部232を備える。
【0103】
**関節位置時系列データ取得部220の説明**
関節位置時系列データ取得部220は、実施の形態1で説明した関節位置時系列データ取得部120と同様の動作を行う。
つまり、関節位置時系列データ取得部220は、撮像装置210から、作業従事者の手を撮像して得られた映像Vを取得する。映像Vは、学習フェーズにおいて、作業従事時間に撮像された映像である。映像Vには、作業従事者の手が映されているフレームと作業者の手が映されていないフレームが含まれる。
関節位置時系列データ取得部220は、映像Vから関節位置時系列データHPTを生成する。
そして、関節位置時系列データ取得部220は、関節位置時系列データHPTを関節速度計算部221及び関節時系列データ画像化部222に出力する。
本実施の形態に係る関節位置時系列データHPTは、実施の形態1で説明した関節位置時系列データHPTと同様である。
【0104】
**関節速度計算部221の説明**
関節速度計算部221は、実施の形態1で説明した関節速度計算部121と同様の動作を行う。
関節速度計算部221は、関節位置時系列データ取得部220から関節位置時系列データHPTを取得する。
そして、関節速度計算部221は、関節位置時系列データHPTの各関節における時間方向への差分(速度)を計算する。そして、関節速度計算部221は、計算結果を示す関節速度時系列データHVTを関節時系列データ画像化部222に出力する。
本実施の形態に係る関節速度時系列データHVTは、実施の形態1で説明した関節速度時系列データHVTと同様である。
【0105】
**関節時系列データ画像化部222の説明**
関節時系列データ画像化部222は、実施の形態1で説明した関節時系列データ画像化部122と同様の動作を行う。
つまり、関節時系列データ画像化部222は、関節位置時系列データ取得部220から関節位置時系列データHPTを取得する。また、関節時系列データ画像化部222は、関節速度計算部221から関節速度時系列データHVTを取得する。
関節時系列データ画像化部222は、関節位置時系列データHPTを画像化して、左手関節位置画像LJPIと右手関節位置画像RJPIを生成する。また、関節時系列データ画像化部122は、関節速度時系列データHVTを画像化して、左手関節速度画像LJVIと右手関節速度画像RJVIを生成する。
そして、関節時系列データ画像化部222は、左手関節位置画像LJPI及び右手関節位置画像RJPIと左手関節速度画像LJVI及び右手関節速度画像RJVIを学習データ生成部223に出力する。
本実施の形態に係る左手関節位置画像LJPI及び右手関節位置画像RJPIと左手関節速度画像LJVI及び右手関節速度画像RJVIは、実施の形態1で説明した左手関節位置画像LJPI及び右手関節位置画像RJPIと左手関節速度画像LJVI及び右手関節速度画像RJVIと同様である。
【0106】
**学習データ生成部223の説明**
学習データ生成部223は、関節時系列データ画像化部222から、左手関節位置画像LJPI及び右手関節位置画像RJPIと左手関節速度画像LJVI及び右手関節速度画像RJVIを取得する。
また、学習データ生成部223は、ラベル情報LBLinfを、例えば、学習装置200のユーザから取得する。
ラベル情報LBLinfには、複数のラベルLBLが含まれる。各ラベルLBLには、開始時刻ts、終了時刻te及び要素作業種類typが含まれる。ここでは、学習装置200のユーザがマニュアルで開始時刻ts及び終了時刻teと要素作業の種類typとを対応付けることとしている。しかし、他の方法で開始時刻ts及び終了時刻teと要素作業の種類typとを対応付けてもよい。
開始時刻tsには、作業実施時間帯の開始時刻が示される。
終了時刻teには、作業実施時間帯の開始時刻が示される。
要素作業種類typには、作業実施時間帯で実施されている要素作業の種類が示される。
【0107】
学習データ生成部223は、左手関節位置画像LJPIから、ラベル情報LBLinfのラベルLBLごとに、開始時刻tsに相当する画像位置から終了時刻teに相当する画像位置までの画像領域を左手関節位置ラベル画像sLJPIとして抽出する。そして、学習データ生成部223は、抽出した左手関節位置ラベル画像sLJPIとラベルLBLとを対応付ける。
また、学習データ生成部223は、右手関節位置画像RJPIから、ラベル情報LBLinfのラベルLBLごとに、開始時刻tsに相当する画像位置から終了時刻teに相当する画像位置までの画像領域を右手関節位置ラベル画像sRJPIとして抽出する。そして、学習データ生成部223は、抽出した右手関節位置ラベル画像sRJPIとラベルLBLとを対応付ける。
また、左手関節速度画像LJVIから、ラベル情報LBLinfのラベルLBLごとに、開始時刻tsに相当する画像位置から終了時刻teに相当する画像位置までの画像領域を左手関節速度ラベル画像sLJVIとして抽出する。そして、学習データ生成部223は、抽出した左手関節速度ラベル画像sLJVIとラベルLBLとを対応付ける。
また、学習データ生成部223は、右手関節速度画像RJVIから、ラベル情報LBLinfのラベルLBLごとに、開始時刻tsに相当する画像位置から終了時刻teに相当する画像位置までの画像領域を右手関節速度ラベル画像sRJVIとして抽出する。そして、学習データ生成部223は、抽出した右手関節速度ラベル画像sRJVIとラベルLBLとを対応付ける。
更に、学習データ生成部223は、左手関節位置ラベル画像sLJPIとラベルLBLとの複数の対、右手関節位置ラベル画像sRJPIとラベルLBLとの複数の対、左手関節速度ラベル画像sLJVIとラベルLBLとの複数の対、右手関節速度ラベル画像sRJVIとラベルLBLとの複数の対を、学習データsIsとして学習データ保存部230に格納する。
【0108】
**前処理統計量計算部224の説明**
前処理統計量計算部224は、学習データ保存部230から学習データsIsを取得する。
具体的には、前処理統計量計算部224は、学習データsIsとして、左手関節位置ラベル画像sLJPIとラベルLBLとの複数の対、右手関節位置ラベル画像sRJPIとラベルLBLとの複数の対、左手関節速度ラベル画像sLJVIとラベルLBLとの複数の対、右手関節速度ラベル画像sRJVIとラベルLBLとの複数の対を取得する。
【0109】
そして、前処理統計量計算部224は、学習データsIsから、前処理統計量として関節位置輝度平均値PM、関節位置輝度標準偏差PS、関節速度輝度平均値VM及び関節速度輝度標準偏差VSを計算する。
具体的には、前処理統計量計算部224は、学習データsIsに含まれる複数の左手関節位置ラベル画像sLJPIにおける輝度の平均値を座標軸Cごとに計算する。前処理統計量計算部224が左手関節位置ラベル画像sLJPIから計算した座標軸Cごとの平均値は、左手関節位置輝度平均値LPM(C)である。
また、前処理統計量計算部224は、学習データsIsに含まれる複数の右手関節位置ラベル画像sRJPIにおける輝度の平均値を座標軸Cごとに計算する。前処理統計量計算部224が右手関節位置ラベル画像sRJPIから計算した座標軸Cごとの平均値は、右手関節位置輝度平均値RPM(C)である。
更に、前処理統計量計算部224は、学習データsIsに含まれる複数の左手関節位置ラベル画像sLJPIにおける輝度の標準偏差を座標軸Cごとに計算する。前処理統計量計算部224が左手関節位置ラベル画像sLJPIから計算した座標軸Cごとの標準偏差は、左手関節位置輝度標準偏差LPS(C)である。
また、前処理統計量計算部224は、学習データsIsに含まれる複数の右手関節位置ラベル画像sRJPIにおける輝度の標準偏差を座標軸Cごとに計算する。前処理統計量計算部224が右手関節位置ラベル画像sRJPIから計算した座標軸Cごとの標準偏差は、右手関節位置輝度標準偏差RPS(C)である。
なお、上記のように、左手についての輝度平均値及び輝度標準偏差と右手についての輝度平均値及び輝度標準偏差を用いるのではなく、左手と右手の両者にわたる輝度平均値及び輝度標準偏差を用いるようにしてもよい。以下では、左手についての輝度平均値及び輝度標準偏差と右手についての輝度平均値及び輝度標準偏差を用いる例を説明するが、以下の説明は左手と右手の両者にわたる輝度平均値及び輝度標準偏差を用いる場合にも適用される。
【0110】
また、前処理統計量計算部224は、学習データsIsに含まれる複数の左手関節速度ラベル画像sLJVIにおける輝度の平均値を座標軸Cごとに計算する。前処理統計量計算部224が左手関節速度ラベル画像sLJVIから計算した座標軸Cごとの平均値は、左手関節速度輝度平均値LVM(C)である。
また、前処理統計量計算部224は、学習データsIsに含まれる複数の右手関節速度ラベル画像sRJVIにおける輝度の平均値を座標軸Cごとに計算する。前処理統計量計算部224が右手関節速度ラベル画像sRJVIから計算した座標軸Cごとの平均値は、右手関節速度輝度平均値RVM(C)である。
更に、前処理統計量計算部224は、学習データsIsに含まれる複数の左手関節速度ラベル画像sLJVIにおける輝度の標準偏差を座標軸Cごとに計算する。前処理統計量計算部224が左手関節速度ラベル画像sLJVIから計算した座標軸Cごとの標準偏差は、左手関節速度輝度標準偏差LVS(C)である。
また、前処理統計量計算部224は、学習データsIsに含まれる複数の右手関節速度ラベル画像sRJVIにおける輝度の標準偏差を座標軸Cごとに計算する。前処理統計量計算部224が右手関節速度ラベル画像sRJVIから計算した座標軸Cごとの標準偏差は、右手関節速度輝度標準偏差RVS(C)である。
なお、上記のように、左手についての輝度平均値及び輝度標準偏差と右手についての輝度平均値及び輝度標準偏差を用いるのではなく、左手と右手の両者にわたる輝度平均値及び輝度標準偏差を用いるようにしてもよい。以下では、左手についての輝度平均値及び輝度標準偏差と右手についての輝度平均値及び輝度標準偏差を用いる例を説明するが、以下の説明は左手と右手の両者にわたる輝度平均値及び輝度標準偏差を用いる場合にも適用される。
【0111】
前処理統計量計算部224は、関節位置輝度平均値PM、関節位置輝度標準偏差PS、関節速度輝度平均値VM及び関節速度輝度標準偏差VSを前処理統計量保存部231に格納する。
【0112】
**要素作業推定モデル生成部225の説明**
要素作業推定モデル生成部225は、学習データ保存部230から、学習データsIsを取得する。具体的には、要素作業推定モデル生成部225は、学習データsIsとして、左手関節位置ラベル画像sLJPIとラベルLBLとの複数の対、右手関節位置ラベル画像sRJPIとラベルLBLとの複数の対、左手関節速度ラベル画像sLJVIとラベルLBLとの複数の対、右手関節速度ラベル画像sRJVIとラベルLBLとの複数の対を取得する。
また、要素作業推定モデル生成部225は、前処理統計量保存部231から、関節位置輝度平均値PM、関節位置輝度標準偏差PS、関節速度輝度平均値VM及び関節速度輝度標準偏差VSを取得する。
【0113】
次に、要素作業推定モデル生成部225は、学習データsISに含まれる左手関節位置ラベル画像sLJPIを、一定の幅及び高さをもつ画像にリサイズする。
更に、要素作業推定モデル生成部225は、リサイズ後の左手関節位置ラベル画像sLJPIの画素値を座標軸Cごとに関節位置輝度平均値PM及び関節位置輝度標準偏差PSを用いて標準化する。
具体的には、要素作業推定モデル生成部225は、リサイズ後の左手関節位置ラベル画像sLJPIの画素値を左手関節位置輝度平均値LPM(C)と左手関節位置輝度標準偏差LPS(C)を用いて標準化する。
【0114】
また、要素作業推定モデル生成部225は、学習データsISに含まれる右手関節位置ラベル画像sRJPIを、一定の幅及び高さをもつ画像にリサイズする。
更に、要素作業推定モデル生成部225は、リサイズ後の右手関節位置ラベル画像sRJPIの画素値を座標軸Cごとに関節位置輝度平均値PM及び関節位置輝度標準偏差PSを用いて標準化する。
具体的には、要素作業推定モデル生成部225は、リサイズ後の右手関節位置ラベル画像sRJPIの画素値を右手関節位置輝度平均値RPM(C)と右手関節位置輝度標準偏差RPS(C)を用いて標準化する。
【0115】
また、要素作業推定モデル生成部225は、学習データsISに含まれる左手関節速度ラベル画像sLJVIを、一定の幅及び高さをもつ画像にリサイズする。
更に、要素作業推定モデル生成部225は、リサイズ後の左手関節速度ラベル画像sLJVIの画素値を座標軸Cごとに関節速度輝度平均値VM及び関節速度輝度標準偏差VSを用いて標準化する。
具体的には、要素作業推定モデル生成部225は、リサイズ後の左手関節速度ラベル画像sLJVIの画素値を左手関節速度輝度平均値LVM(C)と左手関節速度輝度標準偏差LVS(C)を用いて標準化する。
【0116】
また、要素作業推定モデル生成部225は、学習データsISに含まれる右手関節速度ラベル画像sRJVIを、一定の幅及び高さをもつ画像にリサイズする。
更に、要素作業推定モデル生成部225は、リサイズ後の右手関節速度ラベル画像sRJVIの画素値を座標軸Cごとに関節速度輝度平均値VM及び関節速度輝度標準偏差VSを用いて標準化する。
具体的には、要素作業推定モデル生成部225は、リサイズ後の右手関節速度ラベル画像sRJVIの画素値を右手関節速度輝度平均値RVM(C)と右手関節速度輝度標準偏差RVS(C)を用いて標準化する。
【0117】
次に、要素作業推定モデル生成部225は、リサイズ及び標準化の後の各ラベル画像を、事前に定義したニューラルネットワークに入力する。ニューラルネットワークに入力するラベル画像は、リサイズ及び標準化の後の左手関節位置ラベル画像sLJPI、リサイズ及び標準化の後の右手関節位置ラベル画像sRJPI、リサイズ及び標準化の後の左手関節速度ラベル画像sLJVI、及びリサイズ及び標準化の後の右手関節速度ラベル画像sRJVIである。
ニューラルネットワークは事前学習済みの畳み込みニューラルネットワークと全結合層を組み合わせたものとする。また、事前学習済みの畳み込みニューラルネットワークについて、利用する層の数及び層の種類等の組み合わせは、学習装置200のユーザが任意に指定する。
【0118】
要素作業推定モデル生成部225は、畳み込みニューラルネットワークによって抽出された各ラベル画像の特徴マップを取得する。
リサイズ及び標準化の後の左手関節位置ラベル画像sLJPIの特徴マップを、特徴マップfLPという。
リサイズ及び標準化の後の右手関節位置ラベル画像sRJPIの特徴マップを、特徴マップfRPという。
リサイズ及び標準化の後の左手関節速度ラベル画像sLJVIの特徴マップを、特徴マップfLVという。
リサイズ及び標準化の後の右手関節速度ラベル画像sRJVIの特徴マップを、特徴マップfRVという。
【0119】
要素作業推定モデル生成部225は、これら特徴マップfLP、特徴マップfRP、特徴マップfLV及び特徴マップfRVをベクトル化して結合する。
更に、要素作業推定モデル生成部225は、結合後の特徴マップを、ニューラルネットワークに入力し、ニューラルネットワークの重みを学習し、要素作業推定モデルMを生成する。
そして、要素作業推定モデル生成部225は、要素作業推定モデルMを要素作業推定モデル保存部232に格納する。
【0120】
**学習データ保存部230の説明**
学習データ保存部230は、学習データsIsを保存する。
【0121】
**前処理統計量保存部231の説明**
前処理統計量保存部231は、前処理統計量(関節位置輝度平均値PM、関節位置輝度標準偏差PS、関節速度輝度平均値VM及び関節速度輝度標準偏差VS)を保存する。
【0122】
**要素作業推定モデル保存部232の説明**
要素作業推定モデル保存部232は、要素作業推定モデルMを保存する。
【0123】
**要素作業推定モデル生成部225の内部構成例の説明**
図13は、要素作業推定モデル生成部225の内部構成例を示す。
図13を用いて、要素作業推定モデル生成部225の内部構成例を説明する。
なお、
図13では、学習装置200の機能構成要素のうち、要素作業推定モデル生成部225の内部構成例を説明するのに必要な機能構成要素のみが図示されている。
【0124】
要素作業推定モデル生成部225は、内部構成として、関節位置画像取得部2251、関節速度画像取得部2252、関節位置特徴抽出部2253、関節速度特徴抽出部2254及び関節特徴分類学習部2255を有する。
関節位置画像取得部2251は、
図8に示す関節位置画像取得部1241に相当する。
関節速度画像取得部2252は、
図8に示す関節速度画像取得部1242に相当する。
関節位置特徴抽出部2253は、
図8に示す関節位置特徴抽出部1243に相当する。
関節速度特徴抽出部2254は、
図8に示す関節速度特徴抽出部1244に相当する。
関節画像特徴分類学習部2255は、
図8に示す関節画像特徴分類部1245に相当する。
【0125】
**関節位置画像取得部2251の説明**
関節位置画像取得部2251は、学習データ保存部230から、学習データsIsを取得する。
具体的は、関節位置画像取得部2251は、学習データsIsとして、左手関節位置ラベル画像sLJPIとラベルLBLとの複数の対、右手関節位置ラベル画像sRJPIとラベルLBLとの複数の対、左手関節速度ラベル画像sLJVIとラベルLBLとの複数の対、右手関節速度ラベル画像sRJVIとラベルLBLとの複数の対を取得する。
また、関節位置画像取得部2251は、前処理統計量保存部231から、前処理統計量を取得する。具体的には、関節位置画像取得部2251は、前処理統計量として関節位置輝度平均値PM、関節位置輝度標準偏差PS、関節速度輝度平均値VM及び関節速度輝度標準偏差VSを取得する。
【0126】
そして、関節位置画像取得部2251は、左手関節位置ラベル画像sLJPIを、一定の幅及び高さをもつ画像にリサイズする。更に、関節位置画像取得部2251は、リサイズ後の左手関節位置ラベル画像sLJPIの画素値を座標軸Cごとに左手関節位置輝度平均値LPM(C)と左手関節位置輝度標準偏差LPS(C)を用いて標準化する。
また、関節位置画像取得部2251は、右手関節位置ラベル画像sRJPIを、一定の幅及び高さをもつ画像にリサイズする。更に、関節位置画像取得部2251は、リサイズ後の右手関節位置ラベル画像sRJPIの画素値を座標軸Cごとに右手関節位置輝度平均値RPM(C)と右手関節位置輝度標準偏差RPS(C)を用いて標準化する。
関節位置画像取得部2251は、リサイズ及び標準化の後の左手関節位置ラベル画像sLJPI、リサイズ及び標準化の後の右手関節位置ラベル画像sRJPIを関節位置特徴抽出部2253に出力する。
なお、上記のように、左手についての輝度平均値及び輝度標準偏差と右手についての輝度平均値及び輝度標準偏差を用いるのではなく、左手と右手の両者にわたる輝度平均値及び輝度標準偏差を用いるようにしてもよい。以下では、左手についての輝度平均値及び輝度標準偏差と右手についての輝度平均値及び輝度標準偏差を用いる例を説明するが、以下の説明は左手と右手の両者にわたる輝度平均値及び輝度標準偏差を用いる場合にも適用される。
【0127】
また、関節位置画像取得部2251は、左手関節速度ラベル画像sLJVI、右手関節速度ラベル画像sRJVI、関節速度輝度平均値VM及び関節速度輝度標準偏差VSを、関節速度画像取得部2252に出力する。
ここでは、関節位置画像取得部2251が、左手関節速度ラベル画像sLJVI、右手関節速度ラベル画像sRJVI、関節速度輝度平均値VM及び関節速度輝度標準偏差VSを取得し、これらを関節速度画像取得部2252に出力する例を説明している。
これに代えて、関節速度画像取得部2252が、学習データ保存部230から左手関節速度ラベル画像sLJVI及び右手関節速度ラベル画像sRJVIを取得し、前処理統計量保存部231から、関節速度輝度平均値VM及び関節速度輝度標準偏差VSを取得するようにしてもよい。この場合は、関節位置画像取得部2251は、学習データ保存部230から左手関節位置ラベル画像sLJPI及び右手関節位置ラベル画像sRJPIのみを取得し、前処理統計量保存部231から関節位置輝度平均値PM及び関節位置輝度標準偏差PSのみを取得する。
【0128】
**関節速度画像取得部2252の説明**
関節速度画像取得部2252は、関節位置画像取得部2251から、左手関節速度ラベル画像sLJVI、右手関節速度ラベル画像sRJVI、関節速度輝度平均値VM及び関節速度輝度標準偏差VSを取得する。
そして、関節速度画像取得部2252は、左手関節速度ラベル画像sLJVIを、一定の幅及び高さをもつ画像にリサイズする。更に、関節速度画像取得部2252は、リサイズ後の左手関節速度ラベル画像sLJVIの画素値を座標軸Cごとに左手関節速度輝度平均値LVM(C)と左手関節速度輝度標準偏差LVS(C)を用いて標準化する。
また、関節速度画像取得部2252は、右手関節速度ラベル画像sRJPIを、一定の幅及び高さをもつ画像にリサイズする。更に、関節速度画像取得部2252は、リサイズ後の右手関節速度ラベル画像sRJVIの画素値を座標軸Cごとに右手関節速度輝度平均値RVM(C)と右手関節速度輝度標準偏差RVS(C)を用いて標準化する。
関節速度画像取得部2252は、リサイズ及び標準化の後の左手関節速度ラベル画像sLJVI、リサイズ及び標準化の後の右手関節速度ラベル画像sRJVIを関節速度特徴抽出部2254に出力する。
【0129】
**関節位置特徴抽出部2253の説明**
関節位置特徴抽出部2253は、関節位置画像取得部2251から、リサイズ及び標準化の後の左手関節位置ラベル画像sLJPIと、リサイズ及び標準化の後の右手関節位置ラベル画像sRJPIを取得する。
そして、関節位置特徴抽出部2253は、リサイズ及び標準化の後の左手関節位置ラベル画像sLJPIを事前学習済みの畳み込みニューラルネットワークに入力し、特徴ベクトルfLPを得る。
【0130】
また、関節位置特徴抽出部2253は、後述する関節画像特徴分類部2255から伝搬する損失値に基づくネットワークの学習、即ち、ネットワークのもつ重みの計算を行うこともある。例えば、事前学習済みのネットワークの重みを初期値として、すべての層の重みを更新する場合である。
重みの計算については、関節位置特徴抽出部2253は、例えば、一般に用いられる誤差逆伝搬法を用いる。
また、関節位置特徴抽出部2253は、重みの計算に、その他公知の手法を用いてもよい。
【0131】
関節位置特徴抽出部2253は、学習処理として、特徴マップfLPの取得、損失値Lの計算、重みの計算を予め定めた回数繰り返す。
最終的に、関節位置特徴抽出部2253は、リサイズ及び標準化の後の左手関節位置ラベル画像sLJPIの特徴マップfLPを取得する。
また、関節位置特徴抽出部2253は、リサイズ及び標準化の後の右手関節位置ラベル画像sRJPIについても同様の処理を行い、リサイズ及び標準化の後の右手関節位置ラベル画像sRJPIの特徴マップfRPを取得する。
関節位置特徴抽出部2253は、特徴マップfLPと特徴マップfRPを関節画像特徴分類学習部2255に出力する。
【0132】
**関節速度特徴抽出部2254の説明**
関節速度特徴抽出部2254は、関節速度画像取得部2252から、リサイズ及び標準化の後の左手関節速度ラベル画像sLJVIと、リサイズ及び標準化の後の右手関節速度ラベル画像sRJVIを取得する。
そして、関節速度特徴抽出部2254は、関節位置特徴抽出部2253と同様の処理を行い、リサイズ及び標準化の後の左手関節速度ラベル画像sLJVIの特徴マップfLVを取得する。また、関節速度特徴抽出部2254は。リサイズ及び標準化の後の右手関節速度ラベル画像sRJVIの特徴マップfRVを取得する。
そして、関節速度特徴抽出部2254は、特徴マップfLVと特徴マップfRVを関節画像特徴分類学習部2255に出力する。
【0133】
**関節画像特徴分類学習部2255の説明**
関節画像特徴分類学習部2255は、関節位置特徴抽出部2253から、特徴マップfLPと特徴マップfRPを取得する。
また、関節画像特徴分類学習部2255は、関節速度特徴抽出部2254から、特徴マップfLVと特徴マップfRVを取得する。
そして、関節画像特徴分類学習部2255は、特徴マップfLP、特徴マップfRP、特徴マップfLV及び特徴マップfRVをベクトル化して結合する。
更に、関節画像特徴分類学習部2255は、結合後の特徴マップを、ニューラルネットワークに入力し、ニューラルネットワークの重みを学習し、要素作業推定モデルMを生成する。
関節画像特徴分類学習部2255は、損失値Lの計算に、例えば、一般に分類の学習に用いるクロスエントロピーを利用する。
関節位置特徴抽出部2253は、ラベルLBLの種類におけるデータ量のばらつきに対応するように、Focal Lossなどのインバランスデータに対応した損失値を用いてもよい。
また、関節画像特徴分類学習部2255は、データのばらつきに対応するように、特徴ベクトル同士の角度とラベルLBLの要素作業種類typとの関係に基づくような距離学習を可能とする損失関数を用いてもよい。
そして、関節画像特徴分類学習部2255は、要素作業推定モデルMを要素作業推定モデル保存部232に格納する。
【0134】
***動作の説明***
次に、本実施の形態に係る学習装置200の動作例を説明する。
図14は、学習装置200の動作例を示すフローチャートである。
【0135】
先ず、ステップS21において、関節位置時系列データ取得部220が、撮像装置210からの映像Vから関節位置時系列データHPTを生成する。
【0136】
次に、ステップS22において、関節速度計算部221が、関節位置時系列データHPTから関節速度時系列データHVTを生成する。
【0137】
次に、ステップS23において、関節時系列データ画像化部222が、関節位置時系列データHPTを画像化して、左手関節位置画像LJPIと右手関節位置画像RJPIを生成する。また、関節時系列データ画像化部222が、関節速度時系列データHVTを画像化して、左手関節速度画像LJVIと右手関節速度画像RJVIを生成する。
【0138】
次に、ステップS24において、学習データ生成部223が学習データsIsを生成する。
【0139】
次に、ステップS25において、前処理統計量計算部224が、前処理統計量を計算する。
【0140】
最後に、ステップS26において、要素作業推定モデル生成部225が、学習データsIsと前処理統計量とを用いて、要素作業推定モデルMを生成する。
最後に、要素作業推定モデル生成部225は、要素作業推定モデルMを要素作業推定モデル保存部232に格納する。
【0141】
***実施の形態の効果の説明***
本実施の形態によれば、作業実施時間帯に対応する部分画像から作業実施時間帯で実施されている要素作業を推定するための要素作業推定モデルMを生成することができる。
【0142】
実施の形態3.
本実施の形態では、実施の形態2で説明した学習装置200の変形例として学習装置300を説明する。より具体的には、本実施の形態では、学習装置300は、実施の形態1で説明した作業実施時間帯検出部123が作業実施時間帯を検出するのに用いる学習済みモデルを生成する。
本実施の形態では、主に実施の形態2との差異を説明する。
なお、以下で説明していない事項は、実施の形態2と同様である。
【0143】
**構成の説明**
図15は、本実施の形態に係る学習装置300の機能構成例を示す。
図15において、撮像装置310は、
図12に示す撮像装置210と同様である。
また、関節位置時系列データ取得部320は、
図12に示す関節位置時系列データ取得部220と同様である。
また、関節速度計算部321は、
図12に示す関節速度計算部221と同様である。
また、関節時系列データ画像化部322は、
図12に示す関節時系列データ画像化部222と同様である。
このため、これらについては詳細な説明を省略する。
なお、学習装置300も、学習装置200と同様に、
図23に例示するハードウェア構成を有するものとする。
【0144】
**把持道具時系列データ生成部325の説明
把持道具時系列データ生成部325は、実施の形態1で示した把持道具時系列データ生成部126と同様の処理を行う。
【0145】
つまり、把持道具時系列データ生成部325は、映像V又はセンサ情報RRSを取得する。
把持道具時系列データ生成部325は、映像V又はセンサ情報RRSを用いて、作業従事者の手が道具を把持しているか否かを識別する。また、作業従事者の手が道具を把持している場合は、把持道具時系列データ生成部325は、作業従事者の手が把持している道具の種類を識別する。
把持道具時系列データ生成部325は、把持道具時系列データ生成部126と同様の方法で、作業従事者の手が道具を把持しているか否かを識別する。また、把持道具時系列データ生成部325は、把持道具時系列データ生成部126と同様の方法で、作業従事者の手が把持している道具の種類を識別する。
【0146】
把持道具時系列データ生成部325は、識別結果を示す左手把持道具データLTO1と右手把持道具データRTO1を学習データ生成部323に出力する。
また、把持道具時系列データ生成部325は、左手把持道具データLTO1と右手把持道具データRTO1を把持道具情報保存部333に格納する。
把持道具時系列データ生成部325が生成する左手把持道具データLTO1と右手把持道具データRTO1は、把持道具時系列データ生成部126が生成する左手把持道具データLTO1と右手把持道具データRTO1と同様である。
【0147】
**学習データ生成部323の説明**
学習データ生成部323は、実施の形態1で示した作業実施時間帯検出部123と同様の処理を行う。
【0148】
つまり、学習データ生成部323は、関節時系列データ画像化部322から、左手関節位置画像LJPI、左手関節速度画像LJVI、右手関節位置画像RJPI及び右手関節速度画像RJVIを取得する。
更に、学習データ生成部323は、把持道具時系列データ生成部325から左手把持道具データLTO1と右手把持道具データRTO1を取得する。
【0149】
そして、学習データ生成部323は、作業実施時間帯検出部123と同様に、出現状況判定、道具把持状況判定及び変位量判定を行う。
更に、学習データ生成部323は、作業実施時間帯検出部123と同様に、出現状況判定の判定結果と道具把持状況判定の判定結果と変位量判定の判定結果の少なくともいずれかに基づき、作業従事時間を作業実施時間帯と非作業時間帯に分割する。
本実施の形態における作業従事時間は、学習フェーズにおける作業従事時間である。つまり、本実施の形態における作業従事時間は、学習フェーズにおいて、作業従事者が作業に従事している時間である。
また、本実施の形態における作業実施時間帯は、学習フェーズにおける作業実施時間帯である。つまり、本実施の形態における作業実施時間帯は、学習フェーズにおいて、作業従事者がいずれかの要素作業を実施している時間帯である。
また、本実施の形態における非作業時間帯は、学習フェーズにおける非作業時間帯である。つまり、本実施の形態における非作業時間帯は、学習フェーズにおいて、作業従事者がいずれの要素作業も実施していない時間帯である。
本実施の形態では、学習データ生成部323は、複数の作業実施時間帯を検出するものとする。
【0150】
次に、学習データ生成部323は、左手関節位置画像LJPIから、作業実施時間帯ごとに、各作業実施時間帯に撮像された部分映像を構成する部分画像を、抽出左手関節位置画像extLJPIとして抽出する。
また、学習データ生成部323は、左手関節速度画像LJVIから、作業実施時間帯ごとに、各作業実施時間帯に撮像された部分映像を構成する部分画像を、抽出左手関節速度画像extLJVIとして抽出する。
また、学習データ生成部323は、右手関節位置画像RJPIから、作業実施時間帯ごとに、各作業実施時間帯に撮像された部分映像を構成する部分画像を、抽出右手関節位置画像extRJPIとして抽出する。
また、学習データ生成部323は、右手関節速度画像RJVIから、作業実施時間帯ごとに、各作業実施時間帯に撮像された部分映像を構成する部分画像を、抽出右手関節速度画像extRJVIとして抽出する。
そして、学習データ生成部323は、複数の抽出左手関節位置画像extLJPI、複数の抽出左手関節速度画像extLJVI、複数の抽出右手関節位置画像extRJPI及び複数の抽出右手関節速度画像extRJVIを学習データsItとして学習データ保存部330に格納する。
また、学習データ生成部323は、複数の作業実施時間帯を学習データsIuとして学習データ保存部330に格納する。
【0151】
**前処理統計量計算部324の説明**
前処理統計量計算部324は、学習データ保存部330から学習データsItを取得する。
そして、前処理統計量計算部324は、学習データsItから、前処理統計量として関節位置輝度平均値PM、関節位置輝度標準偏差PS、関節速度輝度平均値VM及び関節速度輝度標準偏差VSを計算する。
具体的には、前処理統計量計算部324は、学習データsItに含まれる複数の抽出左手関節位置画像extLJPIにおける輝度の平均値を座標軸Cごとに計算する。前処理統計量計算部324が複数の抽出左手関節位置画像extLJPIから計算した座標軸Cごとの平均値は、左手関節位置輝度平均値LPM(C)である。
また、前処理統計量計算部324は、学習データsItに含まれる複数の抽出右手関節位置画像extRJPIにおける輝度の平均値を座標軸Cごとに計算する。前処理統計量計算部324が複数の抽出右手関節位置画像extRJPIから計算した座標軸Cごとの平均値は、右手関節位置輝度平均値RPM(C)である。
更に、前処理統計量計算部324は、学習データsItに含まれる複数の抽出左手関節位置画像extLJPIにおける輝度の標準偏差を座標軸Cごとに計算する。前処理統計量計算部324が抽出左手関節位置画像extLJPIから計算した座標軸Cごとの標準偏差は、左手関節位置輝度標準偏差LPS(C)である。
また、前処理統計量計算部324は、学習データsItに含まれる複数の抽出右手関節位置画像extRJPIにおける輝度の標準偏差を座標軸Cごとに計算する。前処理統計量計算部324が抽出右手関節位置画像extRJPIから計算した座標軸Cごとの標準偏差は、右手関節位置輝度標準偏差RPS(C)である。
【0152】
また、前処理統計量計算部324は、学習データsItに含まれる複数の抽出左手関節速度画像extLJVIにおける輝度の平均値を座標軸Cごとに計算する。前処理統計量計算部324が抽出左手関節速度画像extLJVIから計算した座標軸Cごとの平均値は、左手関節速度輝度平均値LVM(C)である。
また、前処理統計量計算部324は、学習データsItに含まれる複数の抽出右手関節速度画像extRJVIにおける輝度の平均値を座標軸Cごとに計算する。前処理統計量計算部324が抽出右手関節速度画像extRJVIから計算した座標軸Cごとの平均値は、右手関節速度輝度平均値RVM(C)である。
更に、前処理統計量計算部324は、学習データsItに含まれる複数の抽出左手関節速度画像extLJVIにおける輝度の標準偏差を座標軸Cごとに計算する。前処理統計量計算部324が抽出左手関節速度画像extLJVIから計算した座標軸Cごとの標準偏差は、左手関節速度輝度標準偏差LVS(C)である。
また、前処理統計量計算部324は、学習データsItに含まれる複数の抽出右手関節速度画像extRJVIにおける輝度の標準偏差を座標軸Cごとに計算する。前処理統計量計算部324が抽出右手関節速度画像extRJVIから計算した座標軸Cごとの標準偏差は、右手関節速度輝度標準偏差RVS(C)である。
【0153】
なお、厳密に表記すべき場合を除き、左手関節位置輝度平均値LPM(C)と右手関節位置輝度平均値RPM(C)とを、まとめて関節位置輝度平均値PMと表記する。
同様に、左手関節位置輝度標準偏差LPS(C)と右手関節位置輝度標準偏差RPS(C)とを、まとめて関節位置輝度標準偏差PSと表記する。
また、左手関節速度輝度平均値LVM(C)と、右手関節速度輝度平均値RVM(C)とを、まとめて関節速度輝度平均値VMと表記する。
また、左手関節速度輝度標準偏差LVS(C)と、右手関節速度輝度標準偏差RVS(C)とを、まとめて関節速度輝度標準偏差VSと表記する。
【0154】
なお、上記のように、左手についての輝度平均値及び輝度標準偏差と右手についての輝度平均値及び輝度標準偏差を用いるのではなく、左手と右手の両者にわたる輝度平均値及び輝度標準偏差を用いるようにしてもよい。以下では、左手についての輝度平均値及び輝度標準偏差と右手についての輝度平均値及び輝度標準偏差を用いる例を説明するが、以下の説明は左手と右手の両者にわたる輝度平均値及び輝度標準偏差を用いる場合にも適用される。
【0155】
前処理統計量計算部324は、関節位置輝度平均値PM、関節位置輝度標準偏差PS、関節速度輝度平均値VM及び関節速度輝度標準偏差VSを前処理統計量保存部331に格納する。
【0156】
**作業実施時間帯検出モデル生成部326の説明**
作業実施時間帯検出モデル生成部326は、学習データ保存部330から、学習データsItと学習データsIuを取得する。
具体的には、作業実施時間帯検出モデル生成部326は、学習データsItとして、複数の抽出左手関節位置画像extLJPI、複数の抽出左手関節速度画像extLJVI、複数の抽出右手関節位置画像extRJPI及び複数の抽出右手関節速度画像extRJVIを取得する。
また、作業実施時間帯検出モデル生成部326は、学習データsIuとして、複数の作業実施時間帯の真値を取得する。
また、作業実施時間帯検出モデル生成部326は、前処理統計量保存部331から、関節位置輝度平均値PM、関節位置輝度標準偏差PS、関節速度輝度平均値VM及び関節速度輝度標準偏差VSを取得する。
また、作業実施時間帯検出モデル生成部326は、把持道具情報保存部333から、左手把持道具データLTO1と右手把持道具データRTO1を取得する。
【0157】
そして、作業実施時間帯検出モデル生成部326は、作業実施時間帯検出部123が作業実施時間帯を検出するのに用いる学習済みモデルを、作業実施時間帯検出モデルDMとして生成する。
【0158】
具体的には、作業実施時間帯検出モデル生成部326は、学習データsItに含まれる抽出左手関節位置画像extLJPIを、一定の幅及び高さをもつ画像にリサイズする。
更に、作業実施時間帯検出モデル生成部326は、リサイズ後の抽出左手関節位置画像extLJPIの画素値を座標軸Cごとに関節位置輝度平均値PM及び関節位置輝度標準偏差PSを用いて標準化する。
具体的には、作業実施時間帯検出モデル生成部326は、リサイズ後の抽出左手関節位置画像extLJPIの画素値を左手関節位置輝度平均値LPM(C)と左手関節位置輝度標準偏差LPS(C)を用いて標準化する。
【0159】
また、作業実施時間帯検出モデル生成部326は、学習データsItに含まれる抽出右手関節位置画像extRJPIを、一定の幅及び高さをもつ画像にリサイズする。
更に、作業実施時間帯検出モデル生成部326は、リサイズ後の抽出右手関節位置画像extRJPIの画素値を座標軸Cごとに関節位置輝度平均値PM及び関節位置輝度標準偏差PSを用いて標準化する。
具体的には、作業実施時間帯検出モデル生成部326は、リサイズ後の抽出右手関節位置画像extRJPIの画素値を右手関節位置輝度平均値RPM(C)と右手関節位置輝度標準偏差RPS(C)を用いて標準化する。
【0160】
また、作業実施時間帯検出モデル生成部326は、学習データsItに含まれる抽出左手関節速度画像extLJVIを、一定の幅及び高さをもつ画像にリサイズする。
更に、作業実施時間帯検出モデル生成部326は、リサイズ後の抽出左手関節速度画像extLJVIの画素値を座標軸Cごとに関節速度輝度平均値VM及び関節速度輝度標準偏差VSを用いて標準化する。
具体的には、作業実施時間帯検出モデル生成部326は、リサイズ後の抽出左手関節速度画像extLJVIの画素値を左手関節速度輝度平均値LVM(C)と左手関節速度輝度標準偏差LVS(C)を用いて標準化する。
【0161】
また、作業実施時間帯検出モデル生成部326は、学習データsItに含まれる抽出右手関節速度画像extRJVIを、一定の幅及び高さをもつ画像にリサイズする。
更に、作業実施時間帯検出モデル生成部326は、リサイズ後の抽出右手関節速度画像extRJVIの画素値を座標軸Cごとに関節速度輝度平均値VM及び関節速度輝度標準偏差VSを用いて標準化する。
具体的には、作業実施時間帯検出モデル生成部326は、リサイズ後の抽出右手関節速度画像extRJVIの画素値を右手関節速度輝度平均値RVM(C)と右手関節速度輝度標準偏差RVS(C)を用いて標準化する。前述のように、リサイズと標準化の順序は逆でもよい。
【0162】
次に、作業実施時間帯検出モデル生成部326は、リサイズ及び標準化の後の各画像を、事前に定義したニューラルネットワークに入力する。ニューラルネットワークに入力する画像は、リサイズ及び標準化の後の抽出左手関節位置画像extLJPI、リサイズ及び標準化の後の抽出右手関節位置画像extRJPI、リサイズ及び標準化の後の抽出左手関節速度画像extLJVI、及びリサイズ及び標準化の後の抽出左手関節速度画像extLJVIである。
ここで用いられるニューラルネットワークとしては、例えば、畳み込みニューラルネットワークの機能と、Faster-RCNN等で用いられる領域提案ネットワークの機能とを有するニューラルネットワーを想定する。
【0163】
また、作業実施時間帯検出モデル生成部326は、損失値Lを計算する。作業実施時間帯検出モデル生成部326は、損失値Lとして、学習データsIuに含まれる複数の作業実施時間帯の真値と、後述する複数の作業実施時間帯の候補(予測値)との差分を、損失関数を用いて計算する。最も簡単な損失関数として、作業実施時間帯検出モデル生成部326は、二乗誤差関数を用いることができる。
作業実施時間帯検出モデル生成部326は、損失値Lを計算後、誤差逆伝搬法を用いてニューラルネットワークの重みを更新する。
作業実施時間帯検出モデル生成部326がこられの処理を予め定めた回数繰り返すことで、作業実施時間帯検出モデルDMを生成する。
作業実施時間帯検出モデル生成部326は、作業実施時間帯検出モデルDMを作業実施時間帯検出モデル保存部332に格納する。
【0164】
**学習データ保存部330の説明**
学習データ保存部330は、学習データsIt及び学習データsIuを保存する。
【0165】
**前処理統計量保存部331の説明**
前処理統計量保存部331は、前処理統計量(関節位置輝度平均値PM、関節位置輝度標準偏差PS、関節速度輝度平均値VM及び関節速度輝度標準偏差VS)を保存する。
【0166】
**作業実施時間帯検出モデル保存部332の説明**
作業実施時間帯検出モデル保存部332は、作業実施時間帯検出モデルDMを保存する。
【0167】
**把持道具情報保存部333の説明**
把持道具情報保存部333は、左手把持道具データLTO1と右手把持道具データRTO1とを保存する。
【0168】
**作業実施時間帯検出モデル生成部326の内部構成例の説明**
図16は、作業実施時間帯検出モデル生成部326の内部構成例を示す。
図16を用いて、作業実施時間帯検出モデル生成部326の内部構成例を説明する。
なお、
図16では、学習装置300の機能構成要素のうち、作業実施時間帯検出モデル生成部326の内部構成例を説明するのに必要な機能構成要素のみが図示されている。
【0169】
作業実施時間帯検出モデル生成部326は、内部構成として、関節位置画像取得部3261、関節速度画像取得部3262、関節位置特徴抽出部3263、関節速度特徴抽出部3264、出現状況判定部3265、道具把持状況判定部3266、作業実施時間帯判定部3268、提案学習部3269、回帰学習部3270を有する。
【0170】
**出現状況判定部3265の説明**
出現状況判定部3265は、
図8に示す出現状況判定部1231と同様に、出現状況判定を行う。
【0171】
出現状況判定部3265は、関節時系列データ画像化部322から、左手関節位置画像LJPI、左手関節速度画像LJVI、右手関節位置画像RJPI及び右手関節速度画像RJVIを取得する。
そして、出現状況判定部3265は、左手関節位置画像LJPI及び/又は左手関節速度画像LJVIを解析し、左手出現時間帯集合LSを生成する。
同様に、出現状況判定部3265は、右手関節位置画像RJPI及び/又は右手関節速度画像RJVIを解析し、右手出現時間帯集合RSを生成する。
左手出現時間帯集合LSは、左手が映像に出現した時間帯の集合である。また、右手出現時間帯集合RSは、右手が映像に出現した時間帯の集合である。
出現状況判定部3265は、左手出現時間帯集合LSと右手出現時間帯集合RSを作業実施時間帯判定部3268に出力する。
なお、出現状況判定部3265は、関節位置時系列データHPT及び/又は関節速度時系列データHVTを用いて出現状況判定を行ってもよい。
図16では、出現状況判定部3265への関節位置時系列データHPT及び/又は関節速度時系列データHVTの入力の図示は省略している。
【0172】
**道具把持状況判定部3266の説明**
道具把持状況判定部3266は、
図8に示す道具把持状況判定部1232と同様に、道具把持状況判定を行う。
【0173】
道具把持状況判定部3266は、把持道具情報保存部333から左手把持道具データLTO1と右手把持道具データRTO1とを取得する。
そして、道具把持状況判定部3266は、左手把持道具データLTO1と右手把持道具データRTO1とに基づいて、左手及び右手の各々について、道具を把持している時間帯、道具を把持していない時間帯を時系列に抽出する。
また、作業従事者が把持する道具の種類が変化している場合は、道具把持状況判定部3266は、道具を把持している時間帯を、道具の種類ごとに異なる時間帯として扱う。
道具把持状況判定部3266は、左手についての抽出結果が示される左手道具把持状況判定結果LTSと右手についての抽出結果が示される右手道具把持状況判定結果RTSとを作業実施時間帯判定部3268に出力する。
【0174】
**作業実施時間帯判定部3268の説明**
作業実施時間帯判定部3268は、
図8に示す作業実施時間帯判定部1234と同様の処理を行う。
【0175】
作業実施時間帯判定部3268は、出現状況判定部3265から、左手出現時間帯集合LSと右手出現時間帯集合RSを取得する。
また、作業実施時間帯判定部3268は、道具把持状況判定部3266から、左手道具把持状況判定結果LTSと右手道具把持状況判定結果RTSを取得する。
そして、作業実施時間帯判定部3268は、これらに基づき、作業従事時間を作業実施時間帯と非作業時間帯に分割する。
作業実施時間帯判定部3268は、作業実施時間帯の集合である作業実施時間帯集合FSを関節位置画像取得部3261に出力する。作業実施時間帯集合FSには、作業実施時間帯ごとに作業実施時間帯の開始時刻と終了時刻が示される。
【0176】
**関節位置画像取得部3261の説明**
関節位置画像取得部3261は、
図8に示す関節位置画像取得部1241と同様の処理を行う。
【0177】
つまり、関節位置画像取得部3261は、作業実施時間帯判定部3268から作業実施時間帯集合FSを取得する。
また、関節位置画像取得部3261は、関節時系列データ画像化部322から、左手関節位置画像LJPI、左手関節速度画像LJVI、右手関節位置画像RJPI及び右手関節速度画像RJVIを取得する。
また、関節位置画像取得部3261は、前処理統計量保存部331から、前処理統計量を取得する。具体的には、関節位置画像取得部3261は、前処理統計量として関節位置輝度平均値PM、関節位置輝度標準偏差PS、関節速度輝度平均値VM及び関節速度輝度標準偏差VSを取得する。
【0178】
そして、関節位置画像取得部3261は、作業実施時間帯集合FSに含まれる作業実施時間帯ごとに、左手関節位置画像LJPI及び右手関節位置画像RJPIの各々から、作業実施時間帯に撮像された部分映像を構成する部分画像を抽出する。
そして、関節位置画像取得部3261は、作業時間帯ごとに、各部分画像を、一定の幅及び高さをもつ画像にリサイズする。更に、関節位置画像取得部3261は、左手関節位置画像LJPIから抽出されたリサイズ後の部分画像の画素値を関節位置輝度平均値PM及び関節位置輝度標準偏差PSを用いて標準化する。また、関節位置画像取得部3261は、右手関節位置画像RJPIから抽出されたリサイズ後の部分画像の画素値を関節位置輝度平均値PM及び関節位置輝度標準偏差PSを用いて標準化する。前述のように、リサイズと標準化の順序は逆でもよい。
関節位置画像取得部3261は、左手関節位置画像LJPI及び右手関節位置画像RJPIの各々についてのリサイズ及び標準化の後の部分画像を関節位置特徴抽出部3263に出力する。
【0179】
また、関節位置画像取得部3261は、作業実施時間帯集合FS、左手関節速度画像LJVI、右手関節速度画像RJVI、関節速度輝度平均値VM及び関節速度輝度標準偏差VSを関節速度画像取得部3262に出力する。
ここでは、関節位置画像取得部3261が、作業実施時間帯集合FS、左手関節速度画像LJVI、右手関節速度画像RJVI、関節速度輝度平均値VM及び関節速度輝度標準偏差VSを取得し、これらを関節速度画像取得部3262に出力する例を説明している。
これに代えて、関節速度画像取得部3262が、作業実施時間帯判定部3268から作業実施時間帯集合FSを取得し、関節時系列データ画像化部322から左手関節速度画像LJVI及び右手関節速度画像RJVIを取得し、前処理統計量保存部331から関節速度輝度平均値VM及び関節速度輝度標準偏差VSを取得するようにしてもよい。
この場合は、関節位置画像取得部3261は、関節時系列データ画像化部322から左手関節位置画像LJPI及び右手関節位置画像RJPIのみを取得し、前処理統計量保存部331から関節位置輝度平均値PM及び関節位置輝度標準偏差PSのみを取得する。
【0180】
**関節速度画像取得部3262の説明**
関節速度画像取得部3262は、
図8に示す関節速度画像取得部1242と同様の処理を行う。
【0181】
つまり、関節速度画像取得部3262は、関節位置画像取得部3261から、作業実施時間帯集合FS、左手関節速度画像LJVI、右手関節速度画像RJVI、関節速度輝度平均値VM及び関節速度輝度標準偏差VSを取得する。
そして、関節速度画像取得部3262は、作業実施時間帯集合FSに含まれる作業実施時間帯ごとに、左手関節速度画像LJVI及び右手関節速度画像RJVIの各々から、作業実施時間帯に撮像された部分映像を構成する部分画像を抽出する。
そして、関節速度画像取得部3262は、作業時間帯ごとに、各部分画像を、一定の幅及び高さをもつ画像にリサイズする。更に、関節速度画像取得部3262は、左手関節速度画像LJVIから抽出されたリサイズ後の部分画像の画素値を関節速度輝度平均値VM及び関節速度輝度標準偏差VSを用いて標準化する。また、関節速度画像取得部3262は、右手関節速度画像RJVIから抽出されたリサイズ後の部分画像の画素値を関節速度輝度平均値VM及び関節速度輝度標準偏差VSを用いて標準化する。前述のように、リサイズと標準化の順序は逆でもよい。
関節速度画像取得部3262は、左手関節速度画像LJVI及び右手関節速度画像RJVIの各々についてのリサイズ及び標準化の後の部分画像を関節速度特徴抽出部3264に出力する。
【0182】
**関節位置特徴抽出部3263の説明**
関節位置特徴抽出部32633は、
図8に示す関節位置特徴抽出部1243と同様の処理を行う。
【0183】
つまり、関節位置特徴抽出部3263は、関節位置画像取得部3261から、左手関節位置画像LJPI及び右手関節位置画像RJPIの各々についてのリサイズ及び標準化の後の部分画像を取得する。
そして、関節位置特徴抽出部3263は、左手関節位置画像LJPI及び右手関節位置画像RJPIの各々についての部分画像を、事前学習済みの畳み込みニューラルネットワークに入力する。
関節位置特徴抽出部3263は、それぞれの部分画像から特徴ベクトルである関節位置特徴ベクトルを抽出する。
ここでは、左手関節位置画像LJPIについての部分画像から得られた特徴ベクトルを左手位置特徴ベクトルfLPという。また、右手関節位置画像RJPIについての部分画像から得られた特徴ベクトルを右手位置特徴ベクトルfRPという。
関節位置特徴抽出部3263は、左手位置特徴ベクトルfLPと右手位置特徴ベクトルfRPを提案学習部3269に出力する。
【0184】
**関節速度特徴抽出部3264の説明**
関節速度特徴抽出部3264は、
図8に示す関節速度特徴抽出部1244と同様の処理を行う。
【0185】
つまり、関節速度特徴抽出部3264は、関節速度画像取得部3262から、左手関節速度画像LJVI及び右手関節速度画像RJVIの各々についてのリサイズ及び標準化の後の部分画像を取得する。
そして、関節速度特徴抽出部3264は、左手関節速度画像LJVI及び右手関節速度画像RJVIの各々についての部分画像を、事前学習済みの畳み込みニューラルネットワークに入力する。なお、ここで用いられる畳み込みニューラルネットワークは、関節位置特徴抽出部3263により用いられる畳み込みニューラルネットワークと同じであっても、異なっていてもよい。
関節速度特徴抽出部3264は、それぞれの部分画像から特徴ベクトルである関節速度特徴ベクトルを抽出する。
ここでは、左手関節速度画像LJVIについての部分画像から得られた特徴ベクトルを左手速度特徴ベクトルfLVという。また、右手関節速度画像RJVIについての部分画像から得られた特徴ベクトルを右手速度特徴ベクトルfRVという。
関節速度特徴抽出部3264は、左手速度特徴ベクトルfLVと右手速度特徴ベクトルfRVを提案学習部3269に出力する。
【0186】
**提案学習部3269の説明**
提案学習部3269は、関節位置特徴抽出部3263から左手位置特徴ベクトルfLPと右手位置特徴ベクトルfRPとを取得する。また、提案学習部3269は、関節速度特徴抽出部3264から左手速度特徴ベクトルfLVと右手速度特徴ベクトルfRVとを取得する。
また、提案学習部3269は、学習データ保存部330から、学習データsItを取得する。
【0187】
そして、提案学習部3269は、左手位置特徴ベクトルfLP、右手位置特徴ベクトルfRP、左手速度特徴ベクトルfLV及び右手速度特徴ベクトルfRVをマップ(FW×FH×FC)形式に変換する。提案学習部3269がこれら特徴ベクトルをマップ形式に変換して得られたマップを特徴マップFMという。
そして、提案学習部3269は、特徴マップFMに対し、作業実施時間帯の候補を提案する処理を行う。
提案学習部3269は、作業実施時間帯の候補の提案処理に、Faster-RCNNで用いられる、物体存在領域の複数の候補を提案する提案領域ネットワークを用いることができる。提案処理の出力は、作業実施時間帯の候補である。作業実施時間帯の候補は、開始時刻と時間長の2つを要素とするタプルで表される。この開始時刻は、作業実施時間帯の候補の開始時刻である。また、この時間長は、作業実施時間帯の候補の時間長である。
提案学習部3269は、複数の作業実施時間帯の候補(タプルの集合)を提案PROPSとして回帰学習部3270に出力する。
【0188】
**回帰学習部3270の説明**
回帰学習部3270は、提案学習部3269から、提案PROPSを取得する。
また、回帰学習部3270は、学習データ保存部330から、学習データsIuを取得する。学習データsIuは、学習データ生成部323で得られた複数の作業実施時間帯の各々の真値である。学習データsIuも、開始時刻と時間長の2つを要素とするタプルの集合である。学習データsIuにおける開始時刻は、作業実施時間帯(真値)の開始時刻である。また、学習データsIuにおける時間長は、作業実施時間帯(真値)の時間長である。
【0189】
次に、回帰学習部3270は、提案PROPSから、作業実施時間帯の候補ごとに、開始時刻及び時間長のタプルを取得する。更に、回帰学習部3270は、各タプルの情報を用いて、特徴マップFMから抽出された部分特徴マップsFMを畳み込みニューラルネットワークの全結合層によって処理し、作業実施時間帯の開始時刻および時間長の推定結果を出力する。そして、回帰学習部3270は、回帰学習部3270の出力結果が、作業実施時間帯か否かの分類及び作業実施時間帯であることの確信度合いを表す確率を算出する。
回帰学習部3270は、複数の作業実施時間帯の候補のうち、確信度合いが予め定めた閾値よりも大きい候補を選択する。また、回帰学習部3270は、複数の作業実施時間帯の候補のうち、真の作業実施時間帯との重複領域の割合を示す指標(例えば、Intersection of Unit)の値が予め定めた閾値よりも大きい候補を選択してもよい。更に、回帰学習部3270は、確信度合いを表す確率に基づく非最大値抑制処理を適用してもよい。
【0190】
次に、回帰学習部3270は、選択された候補の作業実施時間帯(予測値)と学習データsIuとして取得した作業実施時間帯の真値との差分を計算する。
得られた差分は、損失値Lとして、提案学習部3269におけるニューラルネットワークの学習と回帰学習部3270におけるニューラルネットワークの学習に利用される。
回帰学習部3270は、損失値Lの計算に、Faster-RCNNのようにL1損失を用いてもよい。損失値の計算方法は、作業実施時間帯の予測値と真値との差分が適切に計算されるものであれば、どのようなものでもよい。
回帰学習部3270は、損失値Lを計算後、誤差逆伝搬法を用いてニューラルネットワークの重みを更新する。
回帰学習部3270がこられの処理を予め定めた回数繰り返すことで、作業実施時間帯検出モデルDMを生成する。
回帰学習部3270は、作業実施時間帯検出モデルDMを作業実施時間帯検出モデル保存部332に格納する。
【0191】
***動作の説明***
次に、本実施の形態に係る学習装置300の動作例を説明する。
図17は、学習装置300の動作例を示すフローチャートである。
【0192】
先ず、ステップS31において、関節位置時系列データ取得部320が、撮像装置310からの映像Vから関節位置時系列データHPTを生成する。
【0193】
次に、ステップS32において、関節速度計算部321が、関節位置時系列データHPTから関節速度時系列データHVTを生成する。
【0194】
次に、ステップS33において、関節時系列データ画像化部322が、関節位置時系列データHPTを画像化して、左手関節位置画像LJPIと右手関節位置画像RJPIを生成する。また、関節時系列データ画像化部322が、関節速度時系列データHVTを画像化して、左手関節速度画像LJVIと右手関節速度画像RJVIを生成する。
【0195】
次に、ステップS34において、学習データ生成部323が学習データsIt及び学習データsIuを生成する。
【0196】
次に、ステップS35において、前処理統計量計算部324が、前処理統計量を計算する。
【0197】
最後に、ステップS36において、作業実施時間帯検出モデル生成部326が、学習データsIt、学習データsIu及び前処理統計量を用いて、作業実施時間帯検出モデルDMを生成する。
最後に、作業実施時間帯検出モデル生成部326は、作業実施時間帯検出モデルDMを要素作業推定モデル保存部232に格納する。
【0198】
***実施の形態の効果の説明***
本実施の形態によれば、学習データsIt及び学習データsIuに基づいて作業実施時間帯検出モデルDMを生成することができる。これにより、作業実施時間帯の検出をルールベースで行う必要がなくなる。つまり、作業実施時間帯の検出のための閾値を決める必要がなくなる。この結果、推定装置100のユーザの負荷を軽減することができる。
【0199】
実施の形態4.
図18は、本実施の形態に係る推定装置400の機能構成例を示す。
図18において、作業実施時間帯検出モデル保存部433は、実施の形態3に示す作業実施時間帯検出モデルDMを保存する。
また、作業実施時間帯検出部423は、作業実施時間帯検出モデル保存部433から作業実施時間帯検出モデルDMを取得し、作業実施時間帯検出モデルDMを用いて作業実施時間帯を検出する。つまり、作業実施時間帯検出部423は、左手関節位置画像LJPI、左手関節速度画像LJVI、右手関節位置画像RJPI及び右手関節速度画像RJVIと左手把持道具データLTO1及び右手把持道具データRTO1を作業実施時間帯検出モデルDMに入力して、作業実施時間帯を検出する。
作業実施時間帯検出部423及び作業実施時間帯検出モデル保存部433以外の構成要素は、
図7に示す同じ名称の構成要素と同様である。このため、これらの構成要素の説明は省略する。
なお、推定装置400も、推定装置100と同様に、
図22に例示するハードウェア構成を有するものとする。
【0200】
***実施の形態の効果の説明***
実施の形態3と同様に、作業実施時間帯の検出のための閾値を決める必要がなくなるため、推定装置400のユーザの負荷を軽減することができる。
更に、作業実施時間帯検出モデルDMを用いることで、要素作業が複雑に組み合わされている作業であっても作業実施時間帯を正確に検出することができる。
【0201】
実施の形態5.
図19は、本実施の形態に係る学習装置500の機能構成例を示す。学習装置500は、実施の形態2で説明した学習装置200と実施の形態3で説明した学習装置300を組み合わせたものである。
学習データ生成部523は、学習データsIs、学習データsIt及び学習データsIuを生成する。学習データsIs、学習データsIt及び学習データsIuの生成方法は、実施の形態2及び実施の形態3で説明したものと同様である。
また、前処理統計量計算部524は、学習データsIs及び学習データsItの各々の前処理統計量を計算する。前処理統計量の計算方法は、実施の形態2及び実施の形態3で説明したものと同様である。
学習データ生成部523及び前処理統計量計算部524以外の構成要素は、
図12及び
図15に示す同じ名称の構成要素と同様である。このため、これらの構成要素の説明は省略する。
なお、学習装置500も、学習装置200及び学習装置300と同様に、
図23に例示するハードウェア構成を有するものとする。
【0202】
なお、作業実施時間帯検出モデルDMの生成のための学習と、要素作業推定モデルMの生成のための学習は各々独立して行われてもよいし、マルチタスク学習として、同時に行ってもよい。
作業実施時間帯検出モデルDMの生成のための学習と要素作業推定モデルMの生成のための学習を同時に行う場合は、ネットワーク構造及び/又は重みの一部を二つの学習で共有してもよい。
【0203】
更に、推定結果としての検出及び分類結果である複数の要素作業の順序について、推定結果と真値(要素作業の真の順序)とを比較して順序に関する損失値Lを計算し、損失値Lを各モデルの学習に用いてもよい。
順序に関する損失値Lの計算は、例えば編集距離又はグラフ同士の差分等を用いることが考えられる。
また、作業の種類に応じて、順序に関する損失値Lの計算方法を変化させることが望ましい。例えば、組み立て作業の損失値Lを計算する場合は、組み立て作業を実施する上であり得ない要素作業の順序の出現に、大きな損失値Lを課すことが考えられる。
【0204】
***実施の形態の効果の説明***
本実施の形態によれば、作業実施時間帯検出モデルDMと要素作業推定モデルMを効率的に生成することができる。
【0205】
以上、実施の形態1~5を説明したが、これらの実施の形態のうち、2つ以上を組み合わせて実施しても構わない。
あるいは、これらの実施の形態のうち、1つを部分的に実施しても構わない。
あるいは、これらの実施の形態のうち、2つ以上を部分的に組み合わせて実施しても構わない。
また、これらの実施の形態に記載された構成及び手順を必要に応じて変更してもよい。
【0206】
***ハードウェア構成の補足説明***
最後に、推定装置100、学習装置200、学習装置300、推定装置400及び学習装置500のハードウェア構成の補足説明を行う。
以下では、代表して推定装置100と学習装置200のハードウェア構成の補足説明を行う。推定装置100についての以下の説明は推定装置400にも適用される。同様に、学習装置200についての以下の説明は学習装置300及び学習装置500にも適用される。
【0207】
図22に示すプロセッサ801は、プロセッシングを行うIC(Integrated Circuit)である。
プロセッサ801は、CPU(Central Processing Unit)、DSP(Digital Signal Processor)等である。
図22に示す主記憶装置802は、RAM(Random Access Memory)である。
図22に示す補助記憶装置803は、ROM(Read Only Memory)、フラッシュメモリ、HDD(Hard Disk Drive)等である。
図22に示す通信装置804は、データの通信処理を実行する電子回路である。
通信装置804は、例えば、通信チップ又はNIC(Network Interface Card)である。
【0208】
また、補助記憶装置803には、OS(Operating System)も記憶されている。
そして、OSの少なくとも一部がプロセッサ801により実行される。
プロセッサ801はOSの少なくとも一部を実行しながら、推定装置100の各機能構成要素を実現するプログラムを実行する。
プロセッサ801がOSを実行することで、タスク管理、メモリ管理、ファイル管理、通信制御等が行われる。
また、推定装置100の各機能構成要素の処理の結果を示す情報、データ、信号値及び変数値の少なくともいずれかが、主記憶装置802、補助記憶装置803、プロセッサ801内のレジスタ及びキャッシュメモリの少なくともいずれかに記憶される。
また、推定装置100の各機能構成要素を実現するプログラムは、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ブルーレイ(登録商標)ディスク、DVD等の可搬記録媒体に格納されていてもよい。そして、推定装置100の各機能構成要素を実現するプログラムが格納された可搬記録媒体を流通させてもよい。
【0209】
また、推定装置100の機能構成要素の少なくともいずれかの「部」を、「回路」又は「工程」又は「手順」又は「処理」又は「サーキットリー」に読み替えてもよい。
また、推定装置100は、処理回路により実現されてもよい。処理回路は、例えば、ロジックIC(Integrated Circuit)、GA(Gate Array)、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)である。
この場合は、推定装置100の機能構成要素は、それぞれ処理回路の一部として実現される。
【0210】
図23に示すプロセッサ901は、プロセッシングを行うICである。
プロセッサ901は、CPU、DSP等である。
図23に示す主記憶装置902は、RAMである。
図23に示す補助記憶装置903は、ROM、フラッシュメモリ、HDD等である。
図23に示す通信装置904は、データの通信処理を実行する電子回路である。
通信装置904は、例えば、通信チップ又はNICである。
【0211】
また、補助記憶装置903には、OSも記憶されている。
そして、OSの少なくとも一部がプロセッサ901により実行される。
プロセッサ901はOSの少なくとも一部を実行しながら、学習装置200の各機能構成要素を実現するプログラムを実行する。
プロセッサ901がOSを実行することで、タスク管理、メモリ管理、ファイル管理、通信制御等が行われる。
また、学習装置200の各機能構成要素の処理の結果を示す情報、データ、信号値及び変数値の少なくともいずれかが、主記憶装置902、補助記憶装置903、プロセッサ901内のレジスタ及びキャッシュメモリの少なくともいずれかに記憶される。
また、学習装置200の各機能構成要素を実現するプログラムは、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ブルーレイ(登録商標)ディスク、DVD等の可搬記録媒体に格納されていてもよい。そして、学習装置200の各機能構成要素を実現するプログラムが格納された可搬記録媒体を流通させてもよい。
【0212】
また、学習装置200の機能構成要素の少なくともいずれかの「部」を、「回路」又は「工程」又は「手順」又は「処理」又は「サーキットリー」に読み替えてもよい。
また、学習装置200は、処理回路により実現されてもよい。処理回路は、例えば、ロジックIC、GA、ASIC、FPGAである。
この場合は、学習装置200の機能構成要素は、それぞれ処理回路の一部として実現される。
【0213】
なお、本明細書では、プロセッサと処理回路との上位概念を、「プロセッシングサーキットリー」という。
つまり、プロセッサと処理回路とは、それぞれ「プロセッシングサーキットリー」の具体例である。
【符号の説明】
【0214】
11 時間分割部、12 推定部、100 推定装置、110 撮像装置、120 関節位置時系列データ取得部、121 関節速度計算部、122 関節時系列データ画像化部、123 作業実施時間帯検出部、1231 出現状況判定部、1232 道具把持状況判定部、1233 変位量判定部、1234 作業実施時間帯判定部、124 要素作業推定部、1241 関節位置画像取得部、1242 関節速度画像取得部、1243 関節位置特徴抽出部、1244 関節速度特徴抽出部、1245 関節画像特徴分類部、125 推定結果処理部、126 把持道具時系列データ生成部、130 要素作業推定モデル保存部、131 前処理統計量保存部、132 推定結果保存部、200 学習装置、210 撮像装置、220 関節位置時系列データ取得部、221 関節速度計算部、222 関節時系列データ画像化部、223 学習データ生成部、224 前処理統計量計算部、225 要素作業推定モデル生成部、2251 関節位置画像取得部、2252 関節速度画像取得部、2253 関節位置特徴抽出部、2254 関節速度特徴抽出部、2255 関節画像特徴分類学習部、230 学習データ保存部、231 前処理統計量保存部、232 要素作業推定モデル保存部、300 学習装置、310 撮像装置、320 関節位置時系列データ取得部、321 関節速度計算部、322 関節時系列データ画像化部、323 学習データ生成部、324 前処理統計量計算部、325 把持道具時系列データ生成部、326 作業実施時間帯検出モデル生成部、3261 関節位置画像取得部、3262 関節速度画像取得部、3263 関節位置特徴抽出部、3264 関節速度特徴抽出部、3265 出現状況判定部、3266 道具把持状況判定部、3268 作業実施時間帯判定部、3269 提案学習部、3270 回帰学習部、330 学習データ保存部、331 前処理統計量保存部、332 作業実施時間帯検出モデル保存部、333 把持道具情報保存部、400 推定装置、410 撮像装置、420 関節位置時系列データ取得部、421 関節速度計算部、422 関節時系列データ画像化部、423 作業実施時間帯検出部、424 要素作業推定部、425 推定結果処理部、426 把持道具時系列データ生成部、430 要素作業推定モデル保存部、431 推定結果保存部、432 前処理統計量保存部、433 作業実施時間帯検出モデル保存部、500 学習装置、510 撮像装置、520 関節位置時系列データ取得部、521 関節速度計算部、522 関節時系列データ画像化部、523 学習データ生成部、524 前処理統計量計算部、525 作業実施時間帯検出モデル生成部、526 把持道具時系列データ生成部、527 要素作業推定モデル生成部、530 学習データ保存部、531 前処理統計量保存部、532 作業実施時間帯検出モデル保存部、533 把持道具情報保存部、534 要素作業推定モデル保存部、801 プロセッサ、802 主記憶装置、803 補助記憶装置、804 通信装置、901 プロセッサ、902 主記憶装置、903 補助記憶装置、904 通信装置。
【要約】
時間分割部(11)は、各々の属性が一様ではない複数の要素作業が含まれる作業に従事する作業従事者が作業に従事している時間である作業従事時間での作業従事者の手の変位量を判定する変位量判定の判定結果と、作業従事時間での作業従事者の手の道具の把持状況を判定する道具把持状況判定の判定結果と、作業従事時間に撮像された映像における作業従事者の手の出現状況を判定する出現状況判定の判定結果とのうちの少なくともいずれかを用いて、作業従事時間を、作業従事者が複数の要素作業のうちのいずれかの要素作業を実施している時間帯である作業実施時間帯と、作業従事者が前記複数の要素作業のうちのいずれの要素作業も実施していない時間帯である非作業時間帯とに分割する。推定部(12)は、映像のうちの作業実施時間帯に撮像された部分である部分映像に基づき、作業従事者が作業実施時間帯に実施している要素作業を推定する。