(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B1)
(11)【特許番号】
(24)【登録日】2023-04-28
(45)【発行日】2023-05-11
(54)【発明の名称】プログラム、方法、作業管理装置、及び作業管理システム
(51)【国際特許分類】
G06Q 10/06 20230101AFI20230501BHJP
G06Q 50/04 20120101ALI20230501BHJP
【FI】
G06Q10/06
G06Q50/04
(21)【出願番号】P 2022153707
(22)【出願日】2022-09-27
【審査請求日】2022-10-06
【新規性喪失の例外の表示】特許法第30条第2項適用 ウェブサイトへの掲載による公開、掲載日:令和4年3月7日、ウェブサイトのアドレス:https://corp.avilen.co.jp/news/641818/ 展示会における公開、展示会名FOODEX JAPAN 2022、展示日:令和4年3月8日(展示期間:令和4年3月8日~令和4年3月11日)
【早期審査対象出願】
(73)【特許権者】
【識別番号】520074859
【氏名又は名称】株式会社AVILEN
(74)【代理人】
【識別番号】100079108
【氏名又は名称】稲葉 良幸
(74)【代理人】
【識別番号】100109346
【氏名又は名称】大貫 敏史
(74)【代理人】
【識別番号】100117189
【氏名又は名称】江口 昭彦
(74)【代理人】
【識別番号】100134120
【氏名又は名称】内藤 和彦
(72)【発明者】
【氏名】吉川 武文
(72)【発明者】
【氏名】満野 翔
(72)【発明者】
【氏名】野口 大輝
【審査官】宮地 匡人
(56)【参考文献】
【文献】特開2021-152758(JP,A)
【文献】特開2018-005464(JP,A)
【文献】特開2021-125183(JP,A)
【文献】Human Sensing AI 食品製造・外食向けパッケージ 衛生管理チェック-コロコロ-,[online],株式会社Lightblue Technology,2021年,https://messe.nikkei.co.jp/files/RT9644/5-202202081238250443.pdf
(58)【調査した分野】(Int.Cl.,DB名)
G06Q 10/00-99/00
(57)【特許請求の範囲】
【請求項1】
コンピュータに、
複数のタイミングのそれぞれにおいて撮影され、少なくとも1つの作業部位のうちの対象作業部位の作業を指示されるユーザ及び前記ユーザが把持する作業道具が含まれる複数の画像を取得する画像取得処理と、
前記複数の画像のそれぞれに基づいて、前記画像における前記作業道具の位置を検出する位置検出処理と、
前記複数の画像のそれぞれに基づいて、前記少なくとも1つの作業部位のうち、前記ユーザが前記作業道具を用いて作業中の作業部位である実行部位を検出する実行部位検出処理と、
前記対象作業部位、前記位置、及び前記実行部位に基づいて、前記ユーザが前記対象作業部位の作業を行った時間である作業実施時間を算出する実施時間算出処理と、
前記作業部位のそれぞれに関連付けられる基準作業時間を参照し、前記作業実施時間が、前記基準作業時間に基づく条件を満たす場合に、前記
実行部位の作業が完了したと判定する完了判定処理と、を実行させ、
前記複数の画像は、第1タイミングにおいて撮影された第1画像及び前記第1タイミングより後の第2タイミングにおいて撮影された第2画像を含み、
前記位置検出処理は、
前記第1画像に基づいて、前記第1画像における前記作業道具の第1位置を検出し、前記第2画像に基づいて、前記第2画像における前記作業道具の第2位置を検出し、
前記実施時間算出処理は、
前記第2位置が前記第1位置と異なる場合に、前記第2タイミングと前記第1タイミングとの間の時間を作業実施時間に加算することで、前記作業実施時間を算出する、プログラム。
【請求項2】
請求項
1に記載のプログラムであって、
前記コンピュータに、
前記ユーザを識別する識別情報を取得する識別情報取得処理と、
前記対象作業部位の作業が完了したと判定された場合に、前記識別情報と前記対象作業部位の作業が完了したことを示す情報とを対応付けて記録する、結果記録処理と、をさらに実行させる、プログラム。
【請求項3】
請求項
2に記載のプログラムであって、
前記結果記録処理は、全ての前記対象作業部位の作業が完了した場合に、
前記識別情報と前記ユーザによる作業が完了したことを示す情報とを対応付けて記録する、プログラム。
【請求項4】
請求項
1に記載のプログラムであって、
前記コンピュータに、
前記対象作業部位を示す指示画面を前記ユーザに表示するための指示画面情報を生成する、画面情報生成処理、をさらに実行させる、プログラム。
【請求項5】
請求項
4に記載のプログラムであって、
前記画面情報生成処理は、撮影された前記ユーザの画像を含む前記指示画面情報を生成する、プログラム。
【請求項6】
請求項
4に記載のプログラムであって、
前記画面情報生成処理は、前記基準作業時間及び前記作業実施時間に基づいて、前記対象作業部位の作業の進捗を示す進捗情報を含む前記指示画面情報を生成する、プログラム
。
【請求項7】
請求項
4に記載のプログラムであって、
前記少なくとも1つの作業部位は、第1作業部位及び前記第1作業部位の次に作業が行われる第2作業部位を含み、
前記画面情報生成処理は、前記第1作業部位を前記対象作業部位として示す前記指示画面を、前記ユーザに表示するための情報を生成し、前記完了判定処理において前記実行部位としての前記第1作業部位の作業が完了したと判定されると、前記第2作業部位を前記対象作業部位として示す前記指示画面情報を生成する、プログラム。
【請求項8】
コンピュータが、
複数のタイミングのそれぞれにおいて撮影され、少なくとも1つの作業部位のうちの対象作業部位の作業を指示されるユーザ及び前記ユーザが把持する作業道具が含まれる複数の画像を取得することと、
前記複数の画像のそれぞれに基づいて、前記画像における前記作業道具の位置を検出することと、
前記複数の画像のそれぞれに基づいて、前記少なくとも1つの作業部位のうち、前記ユーザが前記作業道具を用いて作業中の作業部位である実行部位を検出することと、
前記対象作業部位、前記位置、及び前記実行部位に基づいて、前記ユーザが前記実行部位の作業を行った時間である作業実施時間を算出することと、
前記作業部位のそれぞれに関連付けられる基準作業時間を参照し、前記作業実施時間が、前記基準作業時間に基づく条件を満たす場合に、前記実行部位の作業が完了したと判定することと、を実行し、
前記複数の画像は、第1タイミングにおいて撮影された第1画像及び前記第1タイミングより後の第2タイミングにおいて撮影された第2画像を含み、
前記位置を検出することは、
前記第1画像に基づいて、前記第1画像における前記作業道具の第1位置を検出し、前記第2画像に基づいて、前記第2画像における前記作業道具の第2位置を検出し、
前記実施時間を算出することは、
前記第2位置が前記第1位置と異なる場合に、前記第2タイミングと前記第1タイミングとの間の時間を作業実施時間に加算することで、前記作業実施時間を算出する、方法。
【請求項9】
複数のタイミングのそれぞれにおいて撮影され、少なくとも1つの作業部位のうちの対象作業部位の作業を指示されるユーザ及び前記ユーザが把持する作業道具が含まれる複数の画像を取得する画像取得部と、
前記複数の画像のそれぞれに基づいて、前記画像における前記作業道具の位置を検出する位置検出部と、
前記複数の画像のそれぞれに基づいて、前記少なくとも1つの作業部位のうち、前記ユーザが前記作業道具を用いて作業中の作業部位である実行部位を検出する、実行部位検出部と、
前記対象作業部位、前記位置、及び前記実行部位に基づいて、前記ユーザが前記実行部位の作業を行った時間である作業実施時間を算出する実施時間算出部と、
前記作業部位のそれぞれに関連付けられる基準作業時間を参照し、前記作業実施時間が、前記基準作業時間に基づく条件を満たす場合に、前記実行部位の作業が完了したと判定する、完了判定部と、を備え、
前記複数の画像は、第1タイミングにおいて撮影された第1画像及び前記第1タイミングより後の第2タイミングにおいて撮影された第2画像を含み、
前記位置検出部は、
前記第1画像に基づいて、前記第1画像における前記作業道具の第1位置を検出し、前記第2画像に基づいて、前記第2画像における前記作業道具の第2位置を検出し、
前記実施時間算出部は、
前記第2位置が前記第1位置と異なる場合に、前記第2タイミングと前記第1タイミングとの間の時間を作業実施時間に加算することで、前記作業実施時間を算出する、作業管理装置。
【請求項10】
少なくとも1つの作業部位のうちユーザが作業すべき対象作業部位を前記ユーザに示す指示画面が表示される表示部と、
前記ユーザ及び前記ユーザが把持する作業道具が含まれ、複数のタイミングのそれぞれにおいて撮影された複数の画像を撮影する撮像部と、
作業管理装置であって、
前記複数の画像を前記撮像部から取得する画像取得部と、
前記複数の画像のそれぞれに基づいて、前記画像における前記作業道具の位置を検出する位置検出部と、
前記複数の画像のそれぞれに基づいて、前記少なくとも1つの作業部位のうち、前記ユーザが前記作業道具を用いて作業中の作業部位である実行部位を検出する、実行部位検出部と、
前記対象作業部位、前記実行部位、及び前記位置に基づいて、前記ユーザが前記実行部位の作業を行った時間である作業実施時間を算出する実施時間算出部と、
前記作業部位のそれぞれに関連付けられる基準作業時間を参照し、前記作業実施時間が、前記基準作業時間に基づく条件を満たす場合に、前記実行部位の作業が完了したと判定する、完了判定部と、
前記ユーザが作業すべき対象作業部位を示す指示画面を、前記ユーザに表示するための情報を生成する、画面情報生成部と、を備え、
前記複数の画像は、第1タイミングにおいて撮影された第1画像及び前記第1タイミングより後の第2タイミングにおいて撮影された第2画像を含み、
前記位置検出部は、
前記第1画像に基づいて、前記第1画像における前記作業道具の第1位置を検出し、前記第2画像に基づいて、前記第2画像における前記作業道具の第2位置を検出し、
前記実施時間算出部は、
前記第2位置が前記第1位置と異なる場合に、前記第2タイミングと前記第1タイミングとの間の時間を作業実施時間に加算することで、前記作業実施時間を算出する、作業管理装置と、
を備える作業管理システム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、プログラム、方法、作業管理装置、及び作業管理システムに関する。
【背景技術】
【0002】
食品、医薬品、又は半導体等を製造する工場では、塵や埃等の異物が製品に混入することを防止するためにクリーンルームが用いられることがある。クリーンルーム内で作業を行う作業者は、クリーンルームに入室する際に防塵服等のクリーンルーム用衣服を着用することが多い。作業者はクリーンルームへの入室前に防塵服の清掃作業を行う。
【0003】
清掃作業は、例えば、粘着クリーナーやエアシャワー等を用いて行われる。作業者は、管理者によって定められた清掃手順に沿って十分に清掃を行った上でクリーンルームへ入室することが求められる。このように、入室のための条件が課されるユーザを管理するための方法として、特許文献1には、電子部品の製造を行う作業者が静電気を帯びたまま電子部品の製造ラインへ入ることを禁止するための入室許可管理装置が示される。
【先行技術文献】
【特許文献】
【0004】
【発明の概要】
【発明が解決しようとする課題】
【0005】
特許文献1に記載の発明では、作業者の除電状態を接触抵抗値測定器によって測定される接触抵抗値に基づいて除電状態を判断している。除電状態のように電気的に測定可能な値とは異なり、クリーンルームの入室時に着用する専用の衣服に付着する塵や埃等の異物は、直接その付着の程度を測定することが難しい。このような場合であっても、クリーンルームに入室する作業者が清掃作業を適切に行ったかどうかを判断し、清掃作業を監督可能にすることが求められている。
【0006】
そこで、本発明は、作業者が清掃等の作業を適切に行ったかどうかを簡易に判断することができるプログラム、方法、作業管理装置、及び作業管理システムを提供することを目的とする。
【課題を解決するための手段】
【0007】
本発明の一態様に係るプログラムは、コンピュータに、複数のタイミングのそれぞれにおいて撮影され、少なくとも1つの作業部位のうちの対象作業部位の作業を指示されるユーザ及びユーザが把持する作業道具が含まれる複数の画像を取得する画像取得処理と、複数の画像のそれぞれに基づいて、画像における作業道具の位置を検出する位置検出処理と、複数の画像のそれぞれに基づいて、少なくとも1つの作業部位のうち、ユーザが作業道具を用いて作業中の作業部位である実行部位を検出する実行部位検出処理と、を実行させる。
【0008】
さらに、上記プログラムは、コンピュータに、対象作業部位、位置、及び実行部位に基づいて、ユーザが対象作業部位の作業を行った時間である作業実施時間を算出する実施時間算出処理と、作業部位のそれぞれに関連付けられる基準作業時間を参照し、作業実施時間が、基準作業時間に基づく条件を満たす場合に、対象作業部位の作業が完了したと判定する完了判定処理と、を実行させる。
【0009】
この態様によれば、作業道具の位置を用いて、ユーザが対象作業部位の作業を行った作業実施時間を算出することができ、算出された作業実施時間に基づいて、対象作業部位の作業が完了したか否かを検出することができる。これにより、例えば、専用の衣服に付着する微小な異物を直接検出することなく、簡易な方法によって、作業者が清掃等の作業を適切に行ったかどうかを判断することができる。
【0010】
上記態様のプログラムにおいて、複数の画像は、第1タイミングにおいて撮影された第1画像及び第1タイミングより後の第2タイミングにおいて撮影された第2画像を含んでもよい。さらに、位置検出処理は、第1画像に基づいて、第1画像における作業道具の第1位置を検出し、第2画像に基づいて、第2画像における作業道具の第2位置を検出し、実施時間算出処理は、第2位置が第1位置と異なる場合に、第2タイミングと第1タイミングとの間の時間を作業実施時間に加算することで、作業実施時間を算出してもよい。
【0011】
この態様によれば、異なるタイミングの作業道具の位置の変化に基づいて、作業実施時間を算出することができる。第1位置と第2位置とが同じであることは、作業道具が動かされておらず、作業動作が実行されていないことを意味する。第1位置と第2位置とが異なる位置であることは、作業道具が動かされており、作業動作が実行されていることを意味する。このように、作業道具の位置に基づいて作業動作の実行を判断することができる清掃等の作業において、簡易な方法によって、作業者が作業を適切に行ったかどうかを判断することができる。
【0012】
上記態様のプログラムは、コンピュータに、ユーザを識別する識別情報を取得する識別情報取得処理と、対象作業部位の作業が完了したと判定された場合に、識別情報と前記対象作業部位の作業が完了したことを示す情報とを対応付けて記録する、結果記録処理と、をさらに実行させてもよい。
【0013】
この態様によれば、対象作業部位のそれぞれについて、作業が完了したことが記録される。記録された情報を、工場等の管理者が確認することで、作業者による作業状況の把握や作業の監督が可能となる。
【0014】
上記態様のプログラムにおいて、結果記録処理は、全ての対象作業部位の作業が完了した場合に、識別情報とユーザによる作業が完了したことを示す情報とを対応付けて記録してもよい。
【0015】
この態様によれば、ある作業者(ユーザ)による一連の清掃等の作業が完了したことが記録される。記録された情報を、工場等の管理者が確認することで、例えば、作業が適切に行われていることの作業者別の把握や、製造時に異物混入があった場合の作業者の特定が可能となり、管理者による作業の適切な監督が可能となる。
【0016】
上記態様のプログラムは、コンピュータに、対象作業部位を示す指示画面をユーザに表示するための指示画面情報を生成する、画面情報生成処理、をさらに実行させてもよい。
【0017】
この態様によれば、ユーザには自身が作業すべき対象作業部位が表示される。ユーザは指示画面を確認しつつ清掃等の作業を行うことができるようになるので、作業を適切に進めることが可能となる。
【0018】
上記態様のプログラムにおいて、画面情報生成処理は、撮影されたユーザの画像を含む指示画面情報を生成してもよい。
【0019】
この態様によれば、ユーザには作業中のユーザ自身の様子が表示される。ユーザは指示画面内の自身の様子を確認しつつ清掃等の作業を行うことができるようになるので、作業を適切に進めることができる。
【0020】
上記態様のプログラムにおいて、画面情報生成処理は、基準作業時間及び作業実施時間に基づいて、対象作業部位の作業の進捗を示す進捗情報を含む指示画面情報を生成してもよい。
【0021】
この態様によれば、ユーザには作業の進捗が指示画面を通じて表示される。ユーザは進捗を確認しつつ清掃等の作業を行うことができるようになるので、例えば、進捗が好ましくない場合には、作業方法を修正するなどして、作業を適切に進めることができる。
【0022】
上記態様のプログラムにおいて、少なくとも1つの作業部位は、第1作業部位及び第1作業部位の次に作業が行われる第2作業部位を含み、画面情報生成処理は、第1作業部位を対象作業部位として示す指示画面を、ユーザに表示するための情報を生成し、完了判定処理において実行部位としての第1作業部位の作業が完了したと判定されると、第2作業部位を対象作業部位として示す指示画面情報を生成してもよい。
【0023】
この態様によれば、第1作業部位を作業し終えたユーザには、連続的に第2作業部位の作業が指示される。これにより、一連の作業部位の作業が連続して指示されるようにできるので、ユーザは作業部位の作業漏れを減らすことができ、作業を適切に進めることができる。
【0024】
本発明の他の一態様に係る方法は、コンピュータが、複数のタイミングのそれぞれにおいて撮影され、少なくとも1つの作業部位のうちの対象作業部位の作業を指示されるユーザ及びユーザが把持する作業道具が含まれる複数の画像を取得することと、複数の画像のそれぞれに基づいて、画像における作業道具の位置を検出することと、複数の画像のそれぞれに基づいて、少なくとも1つの作業部位のうち、ユーザが作業道具を用いて作業中の作業部位である実行部位を検出することとを含む。
【0025】
さらに、上記方法は、対象作業部位、位置、及び実行部位に基づいて、ユーザが実行部位の作業を行った時間である作業実施時間を算出することと、作業部位のそれぞれに関連付けられる基準作業時間を参照し、作業実施時間が、基準作業時間に基づく条件を満たす場合に、実行部位の作業が完了したと判定することと、を実行する。
【0026】
本発明の他の一態様に係る作業管理装置は、複数のタイミングのそれぞれにおいて撮影され、少なくとも1つの作業部位のうちの対象作業部位の作業を指示されるユーザ及びユーザが把持する作業道具が含まれる複数の画像を取得する画像取得部と、複数の画像のそれぞれに基づいて、画像における作業道具の位置を検出する位置検出部と、複数の画像のそれぞれに基づいて、少なくとも1つの作業部位のうち、ユーザが作業道具を用いて作業中の作業部位である実行部位を検出する、実行部位検出部と、を備える。
【0027】
さらに、上記作業管理装置は、対象作業部位、位置、及び実行部位に基づいて、ユーザが実行部位の作業を行った時間である作業実施時間を算出する実施時間算出部と、作業部位のそれぞれに関連付けられる基準作業時間を参照し、作業実施時間が、基準作業時間に基づく条件を満たす場合に、実行部位の作業が完了したと判定する、完了判定部と、を備える。
【0028】
本発明の他の一態様に係る作業管理システムは、少なくとも1つの作業部位のうちユーザが作業すべき対象作業部位をユーザに示す指示画面が表示される表示部と、ユーザ及びユーザが把持する作業道具が含まれ、複数のタイミングのそれぞれにおいて撮影された複数の画像を撮影する撮像部と、作業管理装置とを備える。
【0029】
上記態様の作業管理システムにおいて、作業管理装置は、複数の画像を撮像部から取得する画像取得部と、複数の画像のそれぞれに基づいて、画像における前記作業道具の位置を検出する位置検出部と、複数の画像のそれぞれに基づいて、少なくとも1つの作業部位のうち、ユーザが作業道具を用いて作業中の作業部位である実行部位を検出する、実行部位検出部と、を備える。
【0030】
さらに、作業管理装置は、実行部位、及び位置に基づいて、ユーザが実行部位の作業を行った時間である作業実施時間を算出する実施時間算出部と、作業部位のそれぞれに関連付けられる基準作業時間を参照し、作業実施時間が、基準作業時間に基づく条件を満たす場合に、実行部位の作業が完了したと判定する、完了判定部と、ユーザが作業すべき対象作業部位を示す指示画面を、ユーザに表示するための情報を生成する、画面情報生成部とを備える。
【発明の効果】
【0031】
本発明によれば、作業者が清掃等の作業を適切に行ったかどうかを簡易に判断することができるプログラム、方法、作業管理装置、及び作業管理システムを提供することができる。
【図面の簡単な説明】
【0032】
【
図1】本実施形態に係る作業管理システムの概略図である。
【
図2】本実施形態に係る作業管理システムによる処理の概要を説明する図である。
【
図3】作業管理装置101のハードウェア構成の一例を示す図である。
【
図4】本実施形態に係る作業管理装置のブロック図である。
【
図6】本実施形態に係る作業部位情報の一例である。
【
図7】本実施形態に係る作業管理情報の一例である。
【
図8】本実施形態に係る作業管理情報の他の一例である。
【
図9】本実施形態に係る作業結果情報の一例である。
【
図10】本実施形態に係る作業管理装置による処理を説明するフローチャートである。
【
図11】本実施形態に係る画面情報生成処理を説明するフローチャートである。
【
図12】本実施形態に係る指示画面の一例を説明する図である。
【
図13】本実施形態に係る位置検出処理及び実行部位検出処理の概要を説明する図である。
【
図14】本実施形態に係る実施時間算出処理を説明するフローチャートである。
【
図15】本実施形態に係る指示画面の更新の例を説明する図である。
【発明を実施するための形態】
【0033】
添付図面を参照して、本発明の好適な実施形態について説明する。なお、各図において、同一の符号を付したものは、同一又は同様の構成を有する。
【0034】
図1は本実施形態に係る作業管理システム10の概略を示すブロック図である。作業管理システム10は、作業管理装置101及び撮像装置201を備える。作業管理装置101と撮像装置201とは、有線接続又は無線接続によって情報の送受信が可能に接続される。
【0035】
本実施形態では、作業の一例として、食品工場などで実施される清掃作業を例に説明する。作業管理システム10は、撮像装置201によって撮影された作業者(ユーザ)の動画(複数の画像)に基づいて、作業管理装置101が、ユーザが清掃すべき清掃部位(作業部位)の清掃作業が完了したか否かを判定するシステムである。この清掃作業は、クリーンルーム用の衣服を着用したユーザが粘着クリーナー(作業道具)を使用して自身が着用している衣服の清掃を行うものである。
【0036】
作業管理装置101は、所定のプログラムを実行することによって所定の処理を行うコンピュータを有する情報処理装置である。作業管理装置101は、例えば、タブレット端末、スマートフォン、パーソナルコンピュータ等である。タブレット端末等の情報処理装置に、作業管理装置101としての機能を発揮するプログラムがインストールされ、作業管理装置101のCPUによって実行されることで、情報処理装置が作業管理装置101として機能する。
【0037】
撮像装置201は、ユーザの動画を撮影可能なカメラ等の装置である。なお、本実施形態において、撮像装置201が撮影する画像は、ユーザの動作が撮影された動画においてその動画を構成する各静止画像であるとして説明する。つまり、複数の画像は撮像装置201が撮影した動画の各フレームにおける画像である。なお、撮像装置201は作業管理装置101の内部に設けられるカメラであってもよく、必ずしも作業管理装置101と撮像装置201とは別個の装置である必要はない。
【0038】
図2を参照して、作業管理システム10による情報処理の概要について説明する。
図2の例ではユーザUが自身の手で清掃道具Cを把持して清掃作業を行う。ユーザは、例えば、ユーザが清掃すべき部位を示す対象作業部位を作業管理装置101の画面によって確認し、対象作業部位の清掃を行う。撮像装置201によって、ユーザU及び清掃道具Cが含まれる複数の画像が動画として撮影される。撮像装置201が撮影した動画は作業管理装置101に送信される。
【0039】
具体的には、
図2のステップ(A1)に示されるように、ある姿勢をとるユーザU及び清掃道具Cを含む画像IG1が撮像装置201を介して作業管理装置101によって取得される。
【0040】
ステップ(B1)において、作業管理装置101は、画像IG1に対して位置検出処理及び実行部位検出処理を行う。位置検出処理によって、画像IG1におけるユーザUの位置及び清掃道具Cの位置が検出される。実行部位検出処理によって、ユーザUが清掃作業を実行中の清掃部位が実行部位として検出される。画像IG1に基づくと、画像IG1におけるユーザUの位置及び清掃道具Cの位置のそれぞれは、バウンディングボックスによって規定される、位置P11及び位置P12であると検出される。また、画像IG1に基づくと、画像IG1で示されるユーザUの実行部位は「肩」であると検出される。位置検出処理及び実行部位検出処理は、例えば、機械学習によって学習された学習モデルを用いて行われる。
【0041】
同様に、ステップ(A2)に示されるように、画像IG1が取得されたタイミングより後のタイミングにおいて、画像IG2が取得される。また、ステップ(B1)より後のタイミングにおけるステップ(B2)において、同様に、画像IG1におけるユーザUの位置及び清掃道具Cの位置のそれぞれは、位置P21及び位置P22であると検出され、実行部位は「肩」であると検出される。
【0042】
ステップ(C)において、作業管理装置101は、画像IG1,画像IG2において検出された清掃道具Cの位置P12,P22を用いて、「肩」の作業実施時間を算出する。このとき、作業管理装置101は、位置P12と位置P22が異なる場合に作業実施時間を加算していくことで作業実施時間を算出する。
【0043】
ステップ(D)において、作業管理装置101は、予め定められた基準作業時間と、算出した作業実施時間とを比較する。例えば、作業実施時間が基準作業時間以上となった場合、ステップ(E)において、作業管理装置101は実行部位の清掃作業が完了したと判定する。
【0044】
図3を参照して、作業管理装置101のハードウェア構成の一例について説明する。作業管理装置101は、CPU(Central Processing Unit)、GPU(Graphical Processing Unit)等のプロセッサ301、メモリ、HDD(Hard Disk Drive)及び/又はSSD(Solid State Drive)等の記憶装置302、有線又は無線通信を行う通信IF(Interface)303、入力操作を受け付ける入力デバイス304、及び情報の出力を行う出力デバイス305を有する。入力デバイス304は、例えば、キーボード、タッチパネル、マウス及び/又はマイク等である。出力デバイス305は、例えば、ディスプレイ、タッチパネル及び/又はスピーカ等である。
【0045】
図4を参照して、作業管理装置101の機能ブロック構成について説明する。作業管理装置101は、通信部1011、表示部1012、記憶部1013、画像取得部1014、実行部位検出部1015、位置検出部1016、実施時間算出部1017、完了判定部1018、画面情報生成部1019、識別情報取得部10110、結果記録部10111、及び作業部位決定部10112を有する。
【0046】
通信部1011は、作業管理装置101が備える通信IF303を用いて実現することができる。表示部1012は、作業管理装置101が備える出力デバイス305を用いて実現することができる。記憶部1013は、作業管理装置101が備える記憶装置302を用いて実現することができる。画像取得部1014、実行部位検出部1015、位置検出部1016、実施時間算出部1017、完了判定部1018、画面情報生成部1019、識別情報取得部10110、結果記録部10111、及び作業部位決定部10112は、作業管理装置101のプロセッサ301が、記憶装置302に記憶されたプログラムを実行することにより実現することができる。また、当該プログラムは、記憶媒体に格納することができる。当該プログラムを格納した記憶媒体は、コンピュータ読み取り可能な非一時的な記憶媒体(Non-transitory computer readable medium)であってもよい。非一時的な記憶媒体は特に限定されないが、例えば、USBメモリ又はCD-ROM等の記憶媒体であってもよい。
【0047】
通信部1011は、撮像装置201を含む作業管理装置101と外部の情報処理装置との間における通信を制御する。
【0048】
表示部1012は、例えば、タブレット端末、スマートフォン等のディスプレイであり、ユーザに対して画面を表示する。
【0049】
記憶部1013は、作業管理装置101での処理に用いられる各種の情報を記憶する。記憶部1013には、ユーザDB10131、作業部位DB10132、作業管理DB10133、作業結果DB10134、実行部位検出モデル10135、及び位置検出モデル10136が記憶される。
【0050】
図5を参照してユーザDB10131に記憶されるユーザ情報について説明する。ユーザ情報は、「ユーザ名」及び「ユーザID」の項目を有する。「ユーザ名」の項目には、作業管理システム10を利用するユーザの名前が、例えば、「ユーザA」のように記憶される。「ユーザID」の項目には個々のユーザを識別する情報が、例えば「USER01」のように記憶される。
【0051】
図6を参照して作業部位DB10132に記憶される作業部位情報について説明する。作業部位情報は、「清掃部位名」、「清掃順」、「基準作業時間」、及び「基準動作動画」の項目を有する。
【0052】
「清掃部位名」、「清掃順」、「基準作業時間」、及び「基準動作動画」の各項目に記憶される情報は、作業管理システム10の管理者(例えば食品工場の運営管理者等)によって設定される。管理者は、作業部位情報を、自身の管理する工場等の性質に応じて任意に設定することができ、その一例が
図6に示されている。
【0053】
「清掃部位名」の項目には、ユーザが清掃すべき清掃部位がそれぞれ記憶される。清掃部位は、例えば、頭(前方)、頭(後方)、首(前方)、首(後方)のように、部位の前後が区別されていてもよい。また、右腕、左腕、右足、左足のように左右の部位が区別されていてもよい。
【0054】
「清掃順」の項目には、ユーザが各清掃部位を清掃する順番が記憶される。順番は、例えば、ユーザの頭部から足先まで、清掃部位が上から下に移動するように設定される。「基準作業時間」の項目には、各清掃部位をユーザが清掃するための清掃動作を行うべき時間が記憶される。「基準動作動画」の項目には、各清掃部位の清掃方法を説明するための動画を示す情報が記憶される。「基準動作動画」は、例えば、記憶部1013に記憶される動画ファイルの記憶部1013におけるアドレスを示す情報である。なお、「基準動作動画」の項目に記憶される情報は、作業管理装置101が通信部1011を通じて外部の情報処理装置と接続して動画ファイルを取得する場合は、そのアクセス先を示す情報であってもよい。
【0055】
具体的には、例えば、「清掃部位名」が「肩」である場合、その「清掃順」は「5」番目であり、「基準作業時間」は「8秒」である。また、「肩」の清掃のための「基準動作動画」は「ファイルT5」として記憶される。
【0056】
図7を参照して、作業管理DB10133に記憶される作業管理情報について説明する。作業管理情報は、ユーザが作業管理システム10を利用して清掃作業を行った場合に、ユーザそれぞれの進捗に応じて更新される情報である。作業部位情報は、「実施ユーザ」、「清掃部位名」、「作業実施時間」、「基準作業時間」、及び「清掃状況」の項目を有する。
【0057】
「実施ユーザ」の項目には、作業管理システム10を利用したユーザ名が記憶される。「清掃部位名」の項目には、ユーザが清掃を行った又は清掃を行う清掃部位の清掃部位名が記憶される。「清掃部位名」の項目に記憶される情報は、作業部位DB10132の「清掃順」に応じて並べられて記憶される。「作業実施時間」の項目には、ユーザが部位ごとに清掃動作を行った時間が作業管理装置101によって算出されて記憶される。「基準作業時間」の項目には、ユーザが清掃動作を行うべき時間が記憶される。「清掃状況」の項目には、ユーザによる各清掃部位の清掃の状態が、「完了」、「清掃中」、又は「未完了」として記憶される。
【0058】
例えば、
図7において、ユーザAは「頭(前方)」の清掃部位について、作業実施時間が「7秒」であり、清掃状況は「完了」として記憶されている。これは、ユーザAが頭(前方)の清掃部位の清掃を完了したことを示している。
図7では、ユーザAは「頭(前方)」から「首(後方)」までの清掃部位の清掃を完了している。
【0059】
図7では、ユーザAは「肩」の清掃部位を「清掃中」であることが記憶されている。なお、清掃状況が「清掃中」である部位が対象作業部位である。作業実施時間は、ユーザAの清掃動作に応じて作業管理装置101によって更新される。作業実施時間が、各部位に対応する基準作業時間以上となると、清掃状況が「清掃中」から「完了」に更新される。
【0060】
図8は、ユーザAが「肩」の清掃を完了した後の作業管理情報の一例である。
図8では、ユーザAが「肩」の清掃部位を9秒間清掃した結果、清掃状況が「完了」として更新されている。このとき、ユーザAは「胸部」の清掃部位を清掃中である。
【0061】
図9を参照して、作業結果DB10134に記憶される作業結果情報について説明する。作業結果情報は、「ユーザ名」、「ユーザID」、「完了判定結果」、「実施日時」、及び「録画動画」の項目を有する。「完了判定結果」の項目には、清掃管理DB10133に記憶される作業管理情報に基づいて、各ユーザが全ての清掃部位の清掃を完了したか否かを示す情報が記憶される。「実施日時」の項目には、ユーザAが全ての清掃部位の清掃を完了した場合、その日時が記憶される。「実施日時」の項目に記憶される情報は、全ての清掃部位の清掃が完了した時刻でもよく、清掃を開始した時刻でもよい。「録画動画」の項目には、ユーザによる一連の清掃動画が録画された動画を示す情報が記憶される。「録画動画」は、例えば、記憶部1013に記憶される録画ファイルの記憶部1013におけるアドレスを示す情報である。なお、「録画動画」の項目に記憶される情報は、作業管理装置101が通信部1011を通じて外部の情報処理装置と接続して動画ファイルを記憶する場合、そのアクセス先を示す情報であってもよい。
【0062】
図9の例では、ユーザA(ユーザID:USER01)は、全ての清掃部位の清掃が「完了」し、「実施日時」が「2022/7/5 11:55:30」と記憶され、その「録画動画」は「ファイルA」として記憶される。また、ユーザCについて示されるように、「完了判定結果」の項目には、予め「未完了」という情報が記憶され、後述の完了判定部1018及び結果記録部10111による処理に応じて、「完了判定結果」の項目に記憶される情報が更新されてもよい。また、「完了判定結果」が「未完了」である場合、「実施日時」及び「録画動画」の項目には情報が記憶されない。
【0063】
なお、作業管理情報や作業結果情報は、作業管理装置101そのものに記憶される必要はなく、例えば、作業管理装置101と通信可能な外部のコンピュータに記憶されるようにしてもよい。このとき、作業管理装置101は、通信部1011を通じて外部のコンピュータに作業管理情報や作業結果情報を更新するための情報を送信する。
【0064】
実行部位検出モデル10135は、画像取得部1014が取得したユーザの画像に基づいて、ユーザが清掃を実行中の部位である実行部位を検出する数理モデルである。実行部位検出モデル10135としては、例えば、Efficient Net等のニューラルネットワークを用いた学習モデルを用いることができる。
【0065】
位置検出モデル10136は、後述の画像取得部1014が取得したユーザの画像に基づいて、画像中の物体を検出し、その位置を検出する数理モデルである。位置検出モデル10136としては、例えば、YOLO等のリアルタイムな物体検出及び位置検出が可能な学習モデルを用いることができる。
【0066】
画像取得部1014は、撮像装置201によって撮影された動画を撮像装置201から取得する。撮影された動画には、清掃中のユーザと清掃道具とが映っている。言い換えると、画像取得部1014は、複数のタイミングで撮影された複数の画像を動画として取得する。
【0067】
実行部位検出部1015は、実行部位検出モデル10135に、画像取得部1014によって取得された画像を入力し、ユーザの清掃動作を取得することで、ユーザが清掃道具を用いて清掃中の清掃部位である実行部位を検出する。ここで実行部位検出部1015は、実行部位を検出するとき、位置検出部1016が検出した清掃道具の位置を用いてもよい。例えば、位置検出部1016は画像内における清掃道具の位置に基づいて、右腕又は左腕が実行部位であることを検出することができる。これにより、例えば、実行部位検出モデル10135が「腕」の清掃動作のみを検出できる場合に、さらに左右を区別することが可能となる。
【0068】
位置検出部1016は、位置検出モデル10136に、画像取得部1014によって取得された画像を入力し、画像中の物体の位置を取得することで、画像における清掃道具の位置を検出する。また、位置検出部1016は、ユーザの位置を取得してもよい。
【0069】
実施時間算出部1017は、ユーザが清掃すべき対象作業部位、清掃道具の位置、及び実行部位に基づいて、ユーザが対象作業部位の清掃を行った時間である作業実施時間を算出する。実施時間算出部1017は、ユーザが清掃している間、その動作に応じて作業実施時間を算出し、清掃管理DB10133の作業管理情報における「作業実施時間」の項目に記憶される情報を更新する。
【0070】
完了判定部1018は、作業部位DB10132の作業部位情報における、対象作業部位の「基準作業時間」を参照する。完了判定部1018は、作業実施時間が、参照された基準作業時間に基づく条件を満たす場合に、対象作業部位の清掃が完了したと判定する。ここで、基準作業時間に基づく条件とは、例えば、「作業実施時間が基準作業時間以上となること」や「作業実施時間と基準作業時間との差が所定の値以下になること」等である。
【0071】
画面情報生成部1019は、対象作業部位、清掃中のユーザの画像(動画)、清掃の進捗を示す進捗情報等をユーザに示す指示画面を、表示部1012に表示するための情報を生成する。画面情報生成部1019は、清掃管理DB10133の作業管理情報を参照し、清掃すべき対象作業部位を取得する。また、画面情報生成部1019は、画像取得部1014が取得したユーザ及び清掃道具が含まれる画像を参照する。画面情報生成部1019は、清掃管理DB10133の作業管理情報を参照し、清掃中の清掃部位の作業実施時間及び基準参照時間を取得する。画面情報生成部1019は、取得した作業実施時間及び基準参照時間に基づいて、進捗情報を生成する。画面の具体例については後述する。
【0072】
識別情報取得部10110は、作業管理装置101に情報を入力するための入力デバイスを通じて、ユーザからユーザを識別する識別情報を取得する。識別情報は、例えば、ユーザDB10131に記憶されているユーザIDである。また、入力デバイスは、例えば、作業管理装置101がタブレット端末である場合、タッチパネルとして機能する表示部1012であってもよく、作業管理装置101に接続されるキーボード等の端末であってもよい。
【0073】
結果記録部10111は、完了判定部1018の判定結果に基づいて、清掃管理DB10133における作業管理情報の「清掃状況」の項目に記憶される情報を更新する。また、結果記録部10111は、作業管理情報を参照し、作業結果DB10134における作業結果情報の「完了判定結果」の項目に記憶される情報を更新する。例えば、作業管理情報において、あるユーザが清掃すべき全ての清掃部位の清掃状況が「完了」となっている場合、当該ユーザに関連付けられる「完了判定結果」の項目に記憶される情報を「完了」に更新する。また、結果記録部10111は、「完了判定結果」の項目に記憶される情報を「完了」に更新した時の日時に基づいて、「実施日時」の項目に記憶される情報を更新する。
【0074】
図10を参照して、作業管理装置101における処理について説明する。
【0075】
ステップS1001において、識別情報取得部10110は、清掃作業を行うユーザから入力されるユーザIDを取得する。
【0076】
ステップS1002において、作業部位決定部10112は、作業部位DB10132を参照し、作業部位情報を取得する。
【0077】
ステップS1003において、作業部位決定部10112は、作業部位情報の清掃順に従って、ユーザが清掃すべき対象作業部位を決定する。例えば、最初の対象作業部位は、
図6の作業部位情報によると「頭(前方)」となる。
【0078】
ステップS1004において、画面情報生成部1019は画面情報生成処理を行う。画面情報生成処理について
図11を参照して説明する。
【0079】
ステップS1101において、画面情報生成部1019は、画像取得部1014が取得したユーザの画像を取得する。
【0080】
ステップS1102において、画面情報生成部1019は、作業部位決定部10112が決定した対象作業部位を取得する。
【0081】
ステップS1103において、画面情報生成部1019は、作業部位DB10132を参照し、対象作業部位に対応付けられた基準作業時間を取得する。例えば、対象作業部位が「頭(前方)」である場合基準作業時間は「5秒」であり、対象作業部位が「肩」である場合基準作業時間は「8秒」である。
【0082】
ステップS1104において、画面情報生成部1019は、清掃管理DB10133を参照し、対象作業部位に対応付けられた作業実施時間を取得する。
【0083】
ステップS1105において、画面情報生成部1019は、基準作業時間と作業実施時間とに基づいて、対象作業部位の清掃の進捗を示す進捗情報を生成する。進捗情報は、例えば、作業実施時間の基準作業時間に対する割合を表示するための情報や残りの作業実施時間と基準作業時間との差の秒数を表示するための情報である。
【0084】
ステップS1106において、画面情報生成部1019は、作業部位DB10132を参照し、対象作業部位に対応付けられた基準動作動画を取得する。
【0085】
ステップS1107において、画面情報生成部1019は、ユーザの画像、対象作業部位、進捗情報、及び基準動作動画に基づいて、指示画面情報を生成する。
【0086】
図12を参照して指示画面の一例について説明する。
図12に示される指示画面1200は、対象作業部位表示欄1201、進捗情報表示領域1202、作業実施時間表示欄1203、アイコン1204、基準動作表示領域1205、及びユーザ表示領域1206を有する。
【0087】
対象作業部位表示欄1201には、対象作業部位を示す情報が表示される。ここでは、「肩」が対象作業部位として示されている。
【0088】
進捗情報表示領域1202には、進捗情報が表示される。ここでは、
図7の作業管理情報に基づいて生成された進捗情報が示されている。
図7においては、肩の作業実施時間は「5秒」であり、基準作業時間「8秒」であるので、
図12では、作業実施時間の基準作業時間に対する割合を示す進捗表示部12021が進捗情報表示領域1202に表示されている。また、作業実施時間を視覚的に表示する情報として、作業実施時間そのものが作業実施時間表示欄1203に表示されてもよい。
【0089】
アイコン1204は、対象作業部位を示すためのアイコンであり、画面情報生成部1019が記憶部1013を参照して生成する。アイコン1204は、ユーザに対して対象作業部位を視覚的に示すことを可能にする。アイコン1204では、対象作業部位に応じた部位表示領域12041が強調されている。これにより、ユーザが対象作業部位を視覚的に把握することができる。
【0090】
基準動作表示領域1205には、基準動作動画が表示される。これにより、ユーザは手本となる清掃動作を確認しつつ清掃動作を行うことができるので、清掃がより適切に実行される。
【0091】
ユーザ表示領域1206には、ユーザの画像(動画)が表示される。これにより、ユーザは自身の清掃動作を確認しつつ清掃動作を行うことができるので、清掃がより適切に実行される。
【0092】
図10に戻り、上述の画面情報生成処理以降の処理について説明する。ステップS1005において、表示部1012は指示画面情報に基づいて、指示画面を表示する。指示画面を表示されたユーザは清掃動作を実行する。
【0093】
ステップS1006において、画像取得部1014は、ユーザが清掃中の第1タイミングにおいて第1画像を取得する。第1画像は、例えば、
図13における画像IG1である。
【0094】
ステップS1007において、実行部位検出部1015は、第1画像に基づいて、ユーザが清掃中の清掃部位である実行部位を検出する。実行部位は、例えば、
図13における画像IG1に基づくと「肩」となる。
【0095】
ステップS1008において、位置検出部1016は、第1画像に基づいて、第1画像における清掃道具の第1位置を検出する。第1位置は、例えば、
図13における画像IG1に基づくと、位置P1となる。位置P1は、より具体的には、清掃道具を囲むバウンディングボックスを規定する2つの座標、例えば長方形の左下と右上の頂点を示す座標である。画像IG1に基づくと、位置P1は{(X1a,Y1a),(X1b,Y1b)}と検出される。
【0096】
ステップS1009において、画像取得部1014は、第1タイミングより後の第2タイミングにおいて第2画像を取得する。第2画像は、例えば、
図13における画像IG2である。
【0097】
ステップS1010において、実行部位検出部1015は、第2画像に基づいて実行部位を検出する。実行部位は、例えば、
図13における画像IG2に基づくと「肩」となる。
【0098】
ステップS1011において、位置検出部1016は、第2画像に基づいて、第2画像における清掃道具の第2位置を検出する。第2位置は、例えば、
図13における画像IG2に基づくと、位置P2となる。画像IG2に基づくと、位置P2は{(X2a,Y2a),(X2b,Y2b)}と検出される。
【0099】
ステップS1012において、実施時間算出部1017は、実施時間算出処理を行う。実施時間算出処理は、
図13を参照して説明した位置P1,P2を比較することで行われる。
図14を参照して、実施時間算出処理の詳細について説明する。ここでは、
図13と同様に対象作業部位として肩を清掃しているユーザの作業実施時間を算出する場合を説明する。
【0100】
ステップS1401において、実施時間算出部1017は、第1画像に基づく第1実行部位を取得する。画像IG1に基づくと、第1実行部位は肩である。
【0101】
ステップS1402において、実施時間算出部1017は、第2画像に基づく第2実行部位を取得する。画像IG2に基づくと、第2実行部位も肩である。
【0102】
ステップS1403において、実施時間算出部1017は、作業部位決定部10112によって決定されている対象作業部位を参照し、第1実行部位及び第2実行部位は対象作業部位であるか否かを検出する。ステップS1403において否定判断された場合、つまり第1実行部位又は第2実行部位のいずれかが対象作業部位でない場合、清掃が実施されていないと判断し、作業実施時間の加算処理は終了する。
【0103】
図13の例に沿うと、第1実行部位及び第2実行部位はいずれも対象作業部位である肩なので、ステップS1403では肯定判断がされる。
【0104】
ステップS1404において、実施時間算出部1017は、位置検出部1016が検出した第1位置を取得する。
【0105】
ステップS1405において、実施時間算出部1017は、位置検出部1016が検出した第2位置を取得する。
【0106】
ステップS1406において、実施時間算出部1017は、第1位置と第2位置とが異なるか否かを検出する。第1位置と第2位置とが同じであることは、清掃道具が動かされていない、つまり粘着クリーナーがユーザの衣服に沿って動かされていないことを意味し、清掃動作が実行されていないことを意味する。第1位置と第2位置とが異なる位置であることは、清掃道具が動かされている、つまり粘着クリーナーがユーザの衣服に沿って動かされていることを意味し、清掃動作が実行されていることを意味する。
【0107】
第1位置と第2位置とが同じである場合、ステップS1406では否定判断がされる、つまり清掃動作が実行されていないと判断され、作業実施時間の加算処理は終了する。
【0108】
図13の例では、位置P1と位置P2とは異なる位置にあるので、ステップS1406では肯定判断がされる。
【0109】
ステップS1407において、実施時間算出部1017は、作業実施時間を加算する。より具体的には、実施時間算出部1017は、第1タイミングと第2タイミングとの間の時間を対象作業部位の作業実施時間に加算する。実施時間算出部1017は、算出された作業実施時間に基づいて、作業管理情報における清掃中の清掃部位の作業実施時間を更新する。
【0110】
図10に戻り、上述の実施時間算出処理以降の処理について説明する。ステップS1013において、完了判定部1018は、対象作業部位の基準作業時間を参照する。
【0111】
ステップS1014において、完了判定部1018は、作業実施時間が基準作業時間以上であるか否かを判定する。ステップS1014にて否定判断されると、ステップS1006に戻り、処理が繰り返される。
【0112】
ステップS1014にて肯定判断されると、ステップS1015において、完了判定部1018は対象作業部位の清掃が完了したと判定する。
【0113】
ステップS1016において、完了判定部1018は、対象作業部位について、作業管理情報の「清掃状況」の情報を「清掃中」から「完了」に更新する。この更新の一例は
図7,8において示されている。
【0114】
ステップS1017において、完了判定部1018は、作業管理情報に基づいて、全ての部位の清掃が完了したか否かを検出する。
【0115】
ステップS1017にて否定判断されると、ステップS1018において、作業部位決定部10112は、作業部位情報及び作業管理情報に基づいて、次の清掃順として指定されている清掃部位を対象作業部位とするように対象作業部位を更新する。その後ステップS1004の処理が繰り返され、次の清掃部位の清掃動作の検出が行われる。
【0116】
ステップS1017にて肯定判断される場合、つまりユーザが清掃すべき全ての部位の清掃が完了した場合、完了判定部1018は、ステップS1019において、清掃が完了したことを記録する。具体的には、完了判定部1018は、作業結果情報において、清掃が完了したユーザの「完了判定結果」の項目を「完了」と更新し、「実施日時」及び「録画動画」の項目の情報を記憶する。
【0117】
ステップS1018において、対象作業部位が更新された場合の画面例について、
図15を参照して説明する。
図15(a)では、ユーザが肩の清掃を指示されており、その作業実施時間が9秒となった時の指示画面1200が示される。このとき、作業実施時間は肩の基準作業時間である8秒以上となっているので、肩の清掃は完了したと判定される。
【0118】
清掃が完了したと判定されると、
図15(b)に示すように、画面情報生成部1019は、指示画面1200において、清掃が完了したことを示す表示1501を表示部1012に表示させる。このときの作業管理情報は、例えば
図7に示す情報である。
【0119】
その後、作業部位決定部10112が対象作業部位を、作業管理情報において肩の次にある「胸部」に更新する。このときの作業管理情報は、例えば
図8に示す情報である。更新された対象作業部位に基づいて、画面情報生成部1019は、
図15(c)に示される指示画面1200を表示部1012に表示させる。
図15(c)では、対象作業部位表示欄1201に表示される対象作業部位、進捗情報表示領域1202の進捗情報、作業実施時間表示欄1203の作業実施時間の情報が更新されている。また、アイコン1204は、胸部を示す部位表示領域12042を含むように更新される。また、基準動作表示領域1205に表示される動画は、胸部に対応した基準動作動画となる。その後、ユーザは、指示画面1200を参照しつつ胸部の清掃動作を行う。
【0120】
以上説明した実施形態は、本発明の理解を容易にするためのものであり、本発明を限定して解釈するためのものではない。実施形態が備える各要素並びにその配置、条件、形状及びサイズ等は、例示したものに限定されるわけではなく適宜変更することができる。また、異なる実施形態で示した構成同士を部分的に置換し又は組み合わせることが可能である。
【符号の説明】
【0121】
10…作業管理システム、101…作業管理装置、201…撮像装置、1011…通信部、1012…表示部、1013…記憶部、1014…画像取得部、1015…実行部位検出部、1016…位置検出部、1017…実施時間算出部、1018…完了判定部、1019…画面情報生成部、10110…識別情報取得部、10111…結果記録部、10112…作業部位決定部
【要約】
【課題】作業者が清掃等の作業を適切に行ったかどうかを簡易に判断すること。
【解決手段】コンピュータに、複数のタイミングのそれぞれにおいて撮影され、少なくとも1つの作業部位のうちの対象作業部位の作業を指示されるユーザ及びユーザが把持する作業道具が含まれる複数の画像を取得することと、複数の画像のそれぞれに基づいて、画像における作業道具の位置を検出することと、複数の画像のそれぞれに基づいて、少なくとも1つの作業部位のうち、作業中の作業部位である実行部位を検出することと、対象作業部位、位置、及び実行部位に基づいて、ユーザが対象作業部位の作業を行った時間である作業実施時間を算出することと、作業部位のそれぞれに関連付けられる基準作業時間を参照し、作業実施時間が、基準作業時間に基づく条件を満たす場合に、対象作業部位の作業が完了したと判定することと、を実行させるプログラム。
【選択図】
図2