(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024025410
(43)【公開日】2024-02-26
(54)【発明の名称】作業分類装置、作業分類方法、プログラムおよび学習装置
(51)【国際特許分類】
G06Q 50/04 20120101AFI20240216BHJP
G06T 7/00 20170101ALN20240216BHJP
【FI】
G06Q50/04
G06T7/00 350B
【審査請求】未請求
【請求項の数】7
【出願形態】OL
(21)【出願番号】P 2022128826
(22)【出願日】2022-08-12
(71)【出願人】
【識別番号】000006208
【氏名又は名称】三菱重工業株式会社
(74)【代理人】
【識別番号】100149548
【弁理士】
【氏名又は名称】松沼 泰史
(74)【代理人】
【識別番号】100162868
【弁理士】
【氏名又は名称】伊藤 英輔
(74)【代理人】
【識別番号】100161702
【弁理士】
【氏名又は名称】橋本 宏之
(74)【代理人】
【識別番号】100189348
【弁理士】
【氏名又は名称】古都 智
(74)【代理人】
【識別番号】100196689
【弁理士】
【氏名又は名称】鎌田 康一郎
(72)【発明者】
【氏名】松田 達也
(72)【発明者】
【氏名】梅本 翔
(72)【発明者】
【氏名】松村 一毅
(72)【発明者】
【氏名】西川 晴敏
(72)【発明者】
【氏名】大本 裕矢
【テーマコード(参考)】
5L049
5L096
【Fターム(参考)】
5L049CC04
5L096BA02
5L096CA05
5L096DA02
5L096GA34
5L096HA09
5L096HA11
5L096KA04
(57)【要約】
【課題】実作業を複数の作業区分へ適切に分類することができる作業分類装置、作業分類方法、プログラムおよび学習装置を提供する。
【解決手段】作業分類装置は、複数のカメラにより教示作業が撮影された複数の教示画像に基づき、複数の作業区分への教示作業の分類付けが学習された学習済モデルと、複数のカメラにより実作業が撮影された複数の実画像を取得する実画像取得部と、学習済モデルと実画像に基づき、実作業を複数の作業区分へ分類する分類部と、を備える。
【選択図】
図1
【特許請求の範囲】
【請求項1】
複数のカメラにより教示作業が撮影された複数の教示画像に基づき、複数の作業区分への前記教示作業の分類付けが学習された学習済モデルと、
前記複数のカメラにより実作業が撮影された複数の実画像を取得する実画像取得部と、
前記学習済モデルと前記実画像に基づき、前記実作業を前記複数の作業区分へ分類する分類部と、
を備える作業分類装置。
【請求項2】
前記複数の作業区分が、主体作業、準備作業、付随作業、および余裕作業を含む
請求項1に記載の作業分類装置。
【請求項3】
前記分類部は、前記学習済モデルと前記実画像に基づき、前記実画像に含まれている作業工具の分析結果を反映させて、前記実作業を前記複数の作業区分へ分類する
請求項1または2に記載の作業分類装置。
【請求項4】
前記分類部は、前記学習済モデルと前記実画像に基づき、前記実作業の内容と着手日時と完了日時を記録したデータベースを参照して、前記実作業を前記複数の作業区分へ分類する
請求項1または2に記載の作業分類装置。
【請求項5】
複数のカメラにより実作業が撮影された複数の実画像を取得するステップと、
前記複数のカメラにより教示作業が撮影された複数の教示画像に基づき、複数の作業区分への前記教示作業の分類付けが学習された学習済モデルと前記実画像に基づき、前記実作業を前記複数の作業区分へ分類するステップと、
を含む作業分類方法。
【請求項6】
複数のカメラにより実作業が撮影された複数の実画像を取得するステップと、
前記複数のカメラにより教示作業が撮影された複数の教示画像に基づき、複数の作業区分への前記教示作業の分類付けが学習された学習済モデルと前記実画像に基づき、前記実作業を前記複数の作業区分へ分類するステップと、
をコンピュータに実行させるプログラム。
【請求項7】
複数のカメラにより実作業が撮影された複数の実画像を入力するとともに前記実作業を複数の作業区分へ分類した結果を出力する機械学習モデルを、前記複数の作業区分がラベリングされた複数の教示画像に基づき機械学習する機械学習部を
備える学習装置。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、作業分類装置、作業分類方法、プログラムおよび学習装置に関する。
【背景技術】
【0002】
特許文献1には、作業現場の映像データを含む作業データに基づいて、作業現場で作業者によって行われる作業を複数の時系列的な詳細工程に分類する作業データ管理システムが記載されている。特許文献1に記載されている作業データ管理システムでは、作業者の頭、手等の身体の所定部位の位置の変化に基づいて作業者が行っている詳細工程が特定される。
【先行技術文献】
【特許文献】
【0003】
【発明の概要】
【発明が解決しようとする課題】
【0004】
しかしながら、特許文献1に記載の作業データ管理システムでは、身体の所定部位の位置の変化の撮影が困難な作業については、詳細工程の分類が難しい場合があるという課題がある。
【0005】
本開示は、上記課題を解決するためになされたものであって、実作業を複数の作業区分へ適切に分類することができる作業分類装置、作業分類方法、プログラムおよび学習装置を提供することを目的とする。
【課題を解決するための手段】
【0006】
上記課題を解決するために、本開示に係る作業分類装置は、複数のカメラにより教示作業が撮影された複数の教示画像に基づき、複数の作業区分への前記教示作業の分類付けが学習された学習済モデルと、前記複数のカメラにより実作業が撮影された複数の実画像を取得する実画像取得部と、前記学習済モデルと前記実画像に基づき、前記実作業を前記複数の作業区分へ分類する分類部と、を備える。
【0007】
本開示に係る作業分類方法は、複数のカメラにより実作業が撮影された複数の実画像を取得するステップと、前記複数のカメラにより教示作業が撮影された複数の教示画像に基づき、複数の作業区分への前記教示作業の分類付けが学習された学習済モデルと前記実画像に基づき、前記実作業を前記複数の作業区分へ分類するステップと、を含む。
【0008】
本開示に係るプログラムは、複数のカメラにより実作業が撮影された複数の実画像を取得するステップと、前記複数のカメラにより教示作業が撮影された複数の教示画像に基づき、複数の作業区分への前記教示作業の分類付けが学習された学習済モデルと前記実画像に基づき、前記実作業を前記複数の作業区分へ分類するステップと、をコンピュータに実行させる。
【0009】
本開示に係る学習装置は、複数のカメラにより実作業が撮影された複数の実画像を入力するとともに前記実作業を複数の作業区分へ分類した結果を出力する機械学習モデルを、前記複数の作業区分がラベリングされた複数の教示画像に基づき機械学習する機械学習部を備える。
【発明の効果】
【0010】
本開示の作業分類装置、作業分類方法、プログラムおよび学習装置によれば、実作業を複数の作業区分へ適切に分類することができる。
【図面の簡単な説明】
【0011】
【
図1】本開示の実施形態に係る作業分類システムの構成例を示すブロック図である。
【
図2】本開示の実施形態に係る作業データベースの構成例を示す模式図である。
【
図3】本開示の実施形態に係る作業区分の定義の例を示す模式図である。
【
図4】本開示の実施形態に係る時間の分類の例を示す模式図である。
【
図5】本開示の実施形態に係る教示画像の例を示す模式図である。
【
図6】本開示の実施形態に係る教示画像の例を示す模式図である。
【
図7】本開示の実施形態に係る教示画像の例を示す模式図である。
【
図8】本開示の実施形態に係る教示画像の例を示す模式図である。
【
図9】本開示の実施形態に係る教示画像の例を示す模式図である。
【
図10】本開示の実施形態に係る教示画像の例を示す模式図である。
【
図11】本開示の実施形態に係る教示画像の例を示す模式図である。
【
図12】本開示の実施形態に係る教示画像の例を示す模式図である。
【
図13】本開示の実施形態に係る教示画像の例を示す模式図である。
【
図14】本開示の実施形態に係る作業分類装置の動作例を示すフローチャートである。
【
図15】本開示の実施形態に係る作業分類システムの実装例を示す模式図である。
【
図16】本開示の実施形態に係る作業分類システムの実装例を示す模式図である。
【
図17】少なくとも1つの実施形態に係るコンピュータの構成を示す概略ブロック図である。
【発明を実施するための形態】
【0012】
以下、本開示の実施形態に係る作業分類装置、作業分類方法、プログラムおよび学習装置について、
図1~
図17を参照して説明する。
図1は、本開示の実施形態に係る作業分類システムの構成例を示すブロック図である。
図2は、本開示の実施形態に係る作業データベースの構成例を示す模式図である。
図3は、本開示の実施形態に係る作業区分の定義の例を示す模式図である。
図4は、本開示の実施形態に係る時間の分類の例を示す模式図である。
図5~
図13は、本開示の実施形態に係る教示画像の例を示す模式図である。
図14は、本開示の実施形態に係る作業分類装置の動作例を示すフローチャートである。
図15および
図16は、本開示の実施形態に係る作業分類システムの実装例を示す模式図である。
図17は、少なくとも1つの実施形態に係るコンピュータの構成を示す概略ブロック図である。なお、各図において同一または対応する構成には同一の符号を用いて説明を適宜省略する。
【0013】
(作業分類システムの構成)
図1は、本開示の実施形態に係る作業分類システム100の構成例を示す。
図1に示す作業分類システム100は、作業分類装置1と、複数のカメラ2と、複数の作業者端末3と、作業データベース4とを備える。作業分類システム100は、複数のカメラ2が撮影した画像に基づいて、撮影した画像に含まれる作業を複数の作業区分へ分類するシステムである。なお、本実施形態において作業の内容等に関する例は、航空機やその部品の組み立て作業を前提とした例を挙げる。ただし、本実施形態の適用はこの例に限定されない。
【0014】
カメラ2は、分類の対象となる作業の作業場所に設置され、作業を撮影する。カメラ2は、例えばWeb(ウェブ)カメラであり、撮影した静止画像または動画像を表す画像データを図示していない通信回線を介して作業分類装置1へ向けて送信する。動画像を表す画像データは、例えば、映像を表すビデオデータと、カメラ2の周囲の音を表すオーディオデータとを含んでいる。また、複数のカメラ2が撮影した各画像データは、互いに同期がとれた時刻情報をそれぞれ含んでいる。カメラ2は、例えば、作業対象となる部品や製品と、部品や製品に対して作業を実施する1または複数の作業者と、作業者が使用する工具や計量器、治具、副資材等(以下、まとめて「工具等」ともいう)とを撮影する。なお、本実施形態では、後述する教師あり機械学習にて学習された学習済モデル14を用いて、カメラ2が撮影した画像に基づき、撮影された作業の作業区分や使用されている工具等を特定する。その学習済モデル14の機械学習の際に教師データとなる画像を教示画像という。また、教示画像が含む作業を教示作業という。また、分類の基準となる(分類対象となる)画像を実画像といい、実画像が含む作業を実作業という。
【0015】
作業者端末3は、例えばタブレット端末であり、各作業者が携帯する。各作業者は、例えば、実施する実作業の着手日時(着手時刻)と完了日時(完了時刻)等を示す情報を作業者端末3へ入力する。作業者端末3は、入力された着手日時、完了日時等を示す情報を作業データベース4へ登録する。
【0016】
図2は、作業データベース4の構成例を示す。
図2に示すように、作業データベース4は、複数のレコード41を格納する。なお、本実施形態では、作業データベース4は、管理対象となる情報を格納するファイルの集合と、ファイル内の情報を管理するシステムとを含むものとする。
図2に示す例では、各レコード41 は、作業内容(作業場所、作業項目、手直し作業か否かを表す情報)、着手時刻(年月日時分)、完了時刻(年月日時分)、作業者名を表すデータを格納する複数のフィールドを含んでいる。作業データベース4は、例えば作業者名と日時等を指定した問い合わせに対して、着手時刻と完了時刻を示す情報を回答する。あるいは、作業データベース4は、例えば作業場所と日時等を指定した問い合わせに対して、作業内容と、作業者名と、着手時刻と完了時刻を示す情報を回答する。なお、本実施形態では、作業内容は、例えば、当該作業が、正味の作業なのか、あるいは正味の作業で生じた不具合を直すための作業なのか(これを手直し作業という)を区別するための情報を含んでいる。作業が手直し作業であることを示す情報は、例えば作業者が作業者端末3から登録する。
【0017】
(作業分類装置の構成)
図1に示す作業分類装置1は、例えば、1または複数のサーバ、パーソナルコンピュータ、タブレット端末等のコンピュータを用いて構成することができ、そのコンピュータ、周辺装置等のハードウェアと、そのコンピュータが実行するプログラム等のソフトウェアとの組み合わせ等から構成される機能的構成として次の各部を備える。すなわち、作業分類装置1は、教示画像取得部11、教示部12、機械学習部13、学習済モデル14、実画像取得部15、分類部16、入出力部17および記憶部18を備える。また、学習済モデル14は、工程分析用学習済モデル141と、工具分析用学習済モデル142とを含む。なお、作業分類装置1内の機能的構成の一部または全部は、クラウド環境、オンプレミス環境等においてネットワーク上に構成されていてもよい。また、作業分類装置1は、本開示に係る学習装置の一構成例でもある。なお、入出力部17は、例えば、キーボード、マウス、ディスプレイ、タッチディスプレイ等を用いて、操作者との間で情報を入出力する機能的構成である。
【0018】
ここで、
図3および
図4を参照して、本実施形態における作業区分の例と、作業に係る時間の分類例について説明する。
図3は、本実施形態における作業区分の例を示す。本実施形態では、作業を、主体作業と、付随作業と、準備作業と、余裕作業の4つの作業区分に分類する。各作業の定義は次のとおりである。主体作業は、作業者が工具を持っている、または、作業音がしている作業である。主体作業は、正味作業ともいう。また、付随作業は、正味作業、準備作業、余裕作業以外の作業である。また、準備作業は、作業者がモノを取りに行く、または置きに行く作業である。余裕作業は、作業者がほかの誰かと話している状態の作業である。
【0019】
図4は、本実施形態における時間の分類の例を示す。本実施形態では、作業に係る時間(例えば就労時間)を、主体時間(正味時間)、付随時間、準備時間、余裕時間、および離脱時間の5種類の時間に分類する。主体時間(正味時間)は、主体作業(正味作業)の時間であり、部品の形状、組み付け等の状態を変更するために直接必要とする正味の時間であって、作業プロセスで不可避な時間である。主体時間(正味時間)は、例えば、穴明け作業の時間、シール前清掃の時間等である。また、付随時間は、付随作業の時間であり、部品形状、組み付け等の状態を変更するため規則的に発生し間接的に消費する時間である。付随時間は、例えば、製品や部品の清掃である一般清掃の時間、検査のための時間である。また、準備時間は、準備作業の時間であり、作業の切替に発生する準備および後始末の時間である。準備時間は、例えば、工具または部品を準備する時間や片付けの時間である。また、余裕時間は、余裕作業の時間であり、疲れを回復する時間、不具合に対する再加工時間(手直し作業時間)、規律や工場の管理方式に起因する避けられない時間である。余裕時間は、例えば、休憩、朝礼、昼礼、教育、作業場所の清掃等の時間である。そして、離脱時間は、作業エリア(あるいは作業対象)から所定距離以上離れた状態で行われる準備、段取、後始末をする時間である。上記付随時間、準備時間、または、余裕時間の内、作業エリアから離れる時間である。離脱時間は、例えば、工具室へ何かを借用しに行くための時間、塗料調合のための時間、ゴミ捨てのための時間等である。
【0020】
作業分類装置1が備える教示画像取得部11は、複数のカメラ2により教示作業が撮影された複数の教示画像を取得し、記憶部18に記憶する。教示部12は、教示画像を入出力部17に表示し、操作者の入出力部17に対する入力操作に従って、教示画像に対して作業区分の内容や作業工具等の種類をラベル付けし、ラベル付けした教示画像を記憶部18に記憶する。
【0021】
なお、本実施形態では工具等の種類が、主体作業用工具、準備作業用工具、または、付随作業用工具に分類される。主体作業用工具は、主として主体作業で使用される工具であり、例えば、ドリル工具、カシメ工具、シール工具等である。準備作業用工具は、主として準備作業で使用される工具であり、例えば、計量器、定規、型板等の治具、抜型等の治具等である。付随作業用工具は、主として付随作業で使用される工具であり、例えば、一般清掃で使用される工具等である。機械学習部13は、ラベル付けされた教示画像を教師データとして、学習済モデル14(あるいは学習済モデル14が未学習の状態のモデル)を機械学習(あるいは再学習)する。機械学習部13は、複数のカメラにより実作業が撮影された複数の実画像を入力するとともに実作業を複数の作業区分へ分類した結果を出力する機械学習モデルを、複数の作業区分や工具等の種類がラベリングされた複数の教示画像に基づき機械学習する。なお、本実施形態では、学習済モデル14が工程分析用学習済モデル141と工具分析用学習済モデル142を含んでいるが、工具分析用学習済モデル142は省略してもよい。この場合、学習済モデル14は工程分析用学習済モデル141と同義となる。
【0022】
工程分析用学習済モデル141は、複数のカメラ2により教示作業が撮影された複数の教示画像に基づき、複数の作業区分への教示作業の分類付けが学習された学習済モデルである。工程分析用学習済モデル141は、例えばニューラルネットワークを要素とする学習済モデルであり、入力される多数のデータに対して求める解が出力されるよう、機械学習によりニューラルネットワークの各層のニューロン間の重み付け係数が最適化されている。工程分析用学習済モデル141は、例えば、入力から出力までの演算を行うプログラムと当該演算に用いられる重み付け係数(パラメータ)の組合せで構成される。工程分析用学習済モデル141は、1または複数フレーム分の実画像を入力とし、推定される作業区分の分類を出力とし、ラベル付けされた教示画像を教師データとして機械学習された学習済み機械学習モデルである。
【0023】
また、工具分析用学習済モデル142は、上述した工程分析用学習済モデル141と同様に例えばニューラルネットワークを要素とする学習済モデルである。工具分析用学習済モデル142は、1または複数フレーム分の実画像を入力とし、推定される工具等の種類の分類を出力とし、工具等の種類がラベル付けされた教示画像を教師データとして機械学習された学習済み機械学習モデルである。なお、工具分析用学習済モデル142は、工具等の種類の分類ができなかった場合には、その旨のデータを出力する。
【0024】
図5~
図13は教示画像の例を示す。
図5は、破線のブロック内の作業者が主体作業(この例ではリベットかしめ作業)を実施している場合の教示画像の例を示す。
図5に示す教示画像に対しては「主体作業」がラベル付けされる。
図6は、破線のブロック内の作業者が付随作業(この例では作業記録、品確記録等)を実施している場合の教示画像の例を示す。
図6に示す教示画像に対しては「付随作業」がラベル付けされる。
図7は、破線のブロック内の作業者が準備作業(この例では部品準備のため部品を手に取る作業)を実施している場合の教示画像の例を示す。
図7に示す教示画像に対しては「準備作業」がラベル付けされる。
【0025】
また、
図8は、主体作業用工具(この例ではドリル工具)を含む教示画像の例を示す。
図8に示す教示画像に対しては「主体作業用工具」がラベル付けされる。
図9は、主体作業用工具(この例ではカシメ工具)を含む教示画像の例を示す。
図9に示す教示画像に対しては「主体作業用工具」がラベル付けされる。
図10は、準備作業用工具(この例ではスケール)を含む教示画像の例を示す。
図10に示す教示画像に対しては「準備作業用工具」がラベル付けされる。
図11は、準備作業用工具(この例ではバイス)を含む教示画像の例を示す。
図11に示す教示画像に対しては「準備作業用工具」がラベル付けされる。
図12は、準備作業用工具(この例では治具)を含む教示画像の例を示す。
図12に示す教示画像に対しては「準備作業用工具」がラベル付けされる。
図13は、付随作業用工具(この例では掃除機)を含む教示画像の例を示す。
図13に示す教示画像に対しては「付随作業用工具」がラベル付けされる。
【0026】
実画像取得部15は、複数のカメラ2により実作業が撮影された複数の実画像を取得し、記憶部18に記憶する。
【0027】
分類部16は、学習済モデル14(工程分析用学習済モデル141)と実画像に基づき、実作業を複数の作業区分へ分類し、分類した結果を記憶部18に記憶する。本実施形態では、複数の作業区分は、主体作業、準備作業、付随作業、および余裕作業を含む。
【0028】
また、分類部16は、学習済モデル(工具分析用学習済モデル142)と実画像に基づき、実画像に含まれている作業工具の分析結果を反映させて、実作業を複数の作業区分へ分類する。例えば、分類部16は、工程分析用学習済モデル141によって主体作業と特定された場合であっても、工具分析用学習済モデル142によって主体作業用工具と特定されなかったときには、作業区分を主体作業以外に特定する。
【0029】
また、分類部16は、学習済モデル14と実画像に基づき、実作業の内容と着手日時と完了日時を記録した作業データベース4を参照して、実作業を複数の作業区分へ分類する。例えば、分類部16は、作業データベース4を参照して、作業データベース4内の作業内容が「手直し作業」である場合、学習済モデル14を用いて特定した作業区分に関わらず、作業区分を「余裕作業」に分類する。
【0030】
なお、分類部16は、所定の画像認識処理を行うことで、実画像に含まれている作業者が位置するエリアや作業対象からの距離を検出する機能、作業者を識別する機能等を有している。この場合、画像認識処理の仕方について限定はなく、既存の処理の仕方を用いることができる。また、分類部16は、作業者が位置するエリアが所定の作業エリア内(例えば作業対象から所定の距離内)であるか否かを判定する機能を有している。
【0031】
記憶部18は、教示画像、ラベル付けの結果、実画像、実画像の分類結果等を示す情報を記憶する。
【0032】
(作業分類装置の動作例)
図14を参照して、作業分類装置1の動作例について説明する。
図14に示すフローチャートは、
図1に示す作業分類装置1による作業区分の分類処理の流れを示す。
図14に示す処理は、所定の時間分の分類対象となる実画像が記憶部18に記憶された状態で、例えば操作者が、入出力部17に対して処理対象の実画像の指定と処理の開始を指示すると、開始される。なお、学習済モデル14(工程分析用学習済モデル141と工具分析用学習済モデル142)は、機械学習済みであるとする。また、処理対象の実画像が特定の作業者を撮影した画像である場合を例として説明する。
【0033】
図14に示す処理が開始されると、まず、分類部16が、記憶部18に記憶されている1または複数のカメラ2の1または複数フレーム分の実画像を取得し(ステップS11)、実画像における作業者が位置しているエリアを検出する(ステップS12)。次に、分類部16は、検出したエリアが作業エリア内であるか否かを判定する(ステップS13)。検出したエリアが作業エリア内でなかった場合(ステップS13:No)、分類部16は、分析した実画像の撮影時刻を離脱時間に分類する(ステップS14)。
【0034】
検出したエリアが作業エリア内であった場合(ステップS13:Yes)、分類部16は、作業データベース4を参照し、分析中の実画像の撮影時刻が「手直し作業」であるか否かを判定する(ステップS15)。分析中の実画像の撮影時刻が「手直し作業」であった場合(ステップS15:Yes)、分類部16は、分析した実画像の撮影時刻を余裕時間に分類する(ステップS16)。
【0035】
分析中の実画像の撮影時刻が「手直し作業」でなかった場合(ステップS15:No)、分類部16は、工程分析用学習済モデル141を用いて作業区分を検出するとともに(ステップS17)、工具分析用学習済モデル142を用いて工具種類を検出する(ステップS18)。次に、分類部16は、検出された作業が主体作業であるか否かを判定する(ステップS19)。検出された作業が主体作業である場合(ステップS19:Yes)、分類部16は、検出された工具が主体作業用であったか否かを判定する(ステップS20)。検出された工具が主体作業用であった場合(ステップS20:Yes)、分類部16は、分析した実画像の撮影時刻を主体時間に分類する(ステップS21)。
【0036】
一方、検出された作業が主体作業でなかった場合(ステップS19:No)、または、検出された工具が主体作業用でなかった場合(ステップS20:No)、分類部16は、検出された作業が準備作業であるか否かを判定する(ステップS22)。検出された作業が準備作業であった場合(ステップS22:Yes)、分類部16は、分析した実画像の撮影時刻を準備時間に分類する(ステップS23)。検出された作業が準備作業でなかった場合(ステップS22:No)、分類部16は、分析した実画像の撮影時刻を付随時間に分類する(ステップS24)。
【0037】
ステップS14、ステップS16、ステップS21、ステップS23、または、ステップS24の処理の後、分類部16は、処理対象の実画像に対する分類処理がすべて終了したか否かを判定する(ステップS25)。処理対象の実画像に対する分類処理がすべて終了した場合(ステップS25:Yes)、分類部16は、
図14に示す処理を終了する。処理対象の実画像に対する分類処理がすべて終了していない場合(ステップS25:No)、分類部16は、ステップS11以降の処理を再度実行する。
【0038】
(作業分類システムの実装例)
図15および
図16を参照して、
図1を参照して説明した作業分類システム100の実装例ついて説明する。
図15は学習済モデル14を作成する機能の実装例を示し、
図16は作業を分類する機能の実装例を示す。
【0039】
図15に示す実装例では、まず、作業者201が教示作業を実施し、Webカメラ202で撮影する(ステップS201)。撮影した画像または動作データは、データベース203に登録される(ステップS202)。次に、IE(Industrial Engineering)観測者204が端末205で、静止画像または動画像を表す画像データに対して、作業区分を教示する(ラベル付けする)(ステップS203)。次に機械学習を実行し、学習済み機械学習モデル206を作成する(ステップS204)。次に、学習済み機械学習モデル206にモデルデプロイメントを実行し、実行可能な学習済み機械学習モデル207を構築する(ステップS205)。
【0040】
図16に示す実装例では、時刻が同期された複数のWebカメラ303にて複数の作業者301を撮影する(ステップS301)。複数のWebカメラ303は、タイムサーバ304からネットワーク上の時刻データを受信することで時刻同期がなされる。撮影された静止画像または動画像を表す画像データは、クラウドDB(データベース)305に登録される(ステップS302)。
【0041】
また、作業者301は、タブレット端末302を用いて、時刻が同期されたクラウドコンピューティング309上の着完システム310へ着完データを入力する(ステップS307)。作業監督者311は、端末312で、着完システム310に登録されたデータを監視する。
【0042】
登録された静止画像または動画像を表す画像データに対しては、クラウドコンピューティング306で学習済み機械学習モデル207を実行し、作業を分類する(ステップS303)。作業分類データ(作業分類結果)は、クラウドDB307に登録される(ステップS304)。また、分類結果を活用し、学習済み機械学習モデル206を再学習する(ステップS304および
図15のステップS204)。
【0043】
次に、クラウドコンピューティング308でクリエを実行し、着完システム310に登録されている着完データとの整合性が検証される(ステップS305)。その後、IE観測者204が端末205で、作業分析を実施する(ステップS306)。
【0044】
図15および
図16に示す作業分類システムでは、Webカメラにより作業者の撮影を行うことで、作業観測員を配置せず、作業者のカメラデータ取得が可能である。また、同期された時刻データにより、複数のカメラにて撮影し、時刻データで結合することができる。また、カメラデータは、教師あり学習にて、作業区分(主体作業、付随作業、準備作業、余裕作業(余裕時間))を学習した機械学習モデルにて、自動分析し、作業着完データとの整合性確認が実施される。分析結果は、データベース上に自動で保管され、作業観測員による入力を要しない。カメラおよび作業着完データのみ使用するため、作業者に身体的な負担を生じることなく観測が可能である。
【0045】
なお、
図15および
図16に示す実装例と、
図1に示す構成との関係は以下のとおりである。Webカメラ202およびWebカメラ303が
図1に示すカメラ2に対応する。データベース203が
図1に示す教示画像取得部11および記憶部18の組み合わせに対応する。クラウドDB305が
図1に示す実画像取得部15および記憶部18の組み合わせに対応する。端末205が
図1に示す教示部12および入出力部17の組み合わせに対応する。学習済み機械学習モデル206および学習済み機械学習モデル207が
図1に示す学習済モデル14に対応する。タブレット端末302が
図1に示す作業者端末3に対応する。クラウドコンピューティング309および着完システム310の組み合わせが
図1に示す作業データベース4に対応する。クラウドコンピューティング306が
図1に示す分類部16に対応する。クラウドDB307が
図1に示す記憶部18に対応する。
【0046】
図15および
図16に示す作業分類システムの実装例は次のような機能的構成を活用する。すなわち、
図15および
図16に示す実装例は、ネットワークに接続された汎用カメラ(Webカメラ)、ネットワークにて同期された時刻データ、クラウド環境またはオンプレミス環境に構築されたAI(Artificial Intelligence;人工知能)等の機械学習モデルおよびML(Machine Learning;機械学習)ツール、クラウド環境またはオンプレミス環境に構築されたデータベースに保管された作業着完データを活用する。
なお、作業区分の分類結果は、例えば、生産効率指標を分析する生産性改善システムにおいて活用することができる。
また、本実装例では、生産性改善システムは、クラウドコンピューティング306で学習済み機械学習モデル207を実行しているが、学習済み機械学習モデル207を実行できるなら、生産性改善システムは、どのように構成されてもよい。変形例として、低レイテンシ(低遅延時間)が要求される分析環境では、生産性改善システムは、汎用カメラ(Webカメラ)に関連して実装されたエッジコンピューティングデバイスで学習済み機械学習モデル207を実行してもよい。
【0047】
図15および
図16に示す作業分類システムによれば、特定の作業領域において過去に経験のない作業であっても、教師あり機械学習により分析可能であり、サイクルタイムが長く頻度の低い作業に汎用的に適用することができる。また、Webカメラにより作業者の撮影を行うことで、作業観測員を配置せず作業者のカメラデータ取得が可能である。また、同期された時刻データにより、複数のカメラにて撮影し、時刻データで結合することができる。Webカメラで取得されたカメラデータは、教師あり学習にて、作業区分(主体作業、準備作業、付随作業、余裕作業(あるいは余裕時間))を学習した学習済モデルにて自動分析し、作業着完データとの整合性確認を実施することができる。なお、分析結果は、データベース上に自動で保管され、作業観測員による入力を要しない。また、主体作業、準備作業、付随作業、余裕作業の定義のみで教師あり学習が完結するため、汎用的な観測が可能である。これにより、サイクルタイムの長い作業の観測が容易に実施できる。また、カメラおよび作業着完データのみを使用するため、例えば狭隘部での作業等への可用性が向上する。また、マーカーの取付が不要なため、作業者の身体的な負担が生じない。
【0048】
(作用効果)
上記構成の作業分類装置、作業分類方法、プログラムおよび学習装置では、複数のカメラにより教示作業が撮影された複数の教示画像に基づき、複数の作業区分への教示作業の分類付けが学習された学習済モデルと、複数のカメラにより実作業が撮影された複数の実画像に基づき、実作業を複数の作業区分へ分類する。したがって、実施形態の作業分類装置、作業分類方法、プログラムおよび学習装置によれば、実作業を複数の作業区分へ適切に分類することができる。
【0049】
また、上記実施形態では、複数の作業区分が、主体作業、準備作業、付随作業、および余裕作業を含むので、実作業を細やかに分類することができる。
【0050】
また、上記実施形態では、作業分類装置、作業分類方法、プログラムおよび学習装置は、実画像に含まれている作業工具の分析結果を反映しているので、実作業を細やかに分類することができる。
【0051】
また、上記実施形態では、作業分類装置、作業分類方法、プログラムおよび学習装置は、実作業の内容と着手日時と完了日時を記録したデータベース(作業データベース4)を参照しているので、実作業を細やかに分類することができる。
【0052】
(その他の実施形態)
以上、本開示の実施の形態について図面を参照して詳述したが、具体的な構成はこの実施の形態に限られるものではなく、本開示の要旨を逸脱しない範囲の設計変更等も含まれる。例えば、上記実施形態では、作業区分を、主体作業、付随作業、準備作業および余裕作業の4つとしたが、これに限定されない。作業区分は、例えば、主体作業と主体作業以外の作業の2つにしたり、主体作業と付随または準備作業と余裕作業の3つにしたりしてもよい。また、上記実施形態では学習済モデル14への入力を静止画像または動画像としたが、これに限るものではなく、例えば動画像とともに記録されたオーディオデータを入力としてもよい。あるいは、学習済モデル14による分類と並列してオーディオデータの認識処理を行ってもよい。この場合、例えば、所定の作業音の有無等を主体作業であるか否かの判定の要素に加えることができる。
【0053】
〈コンピュータ構成〉
図17は、少なくとも1つの実施形態に係るコンピュータの構成を示す概略ブロック図を示す。
コンピュータ90は、プロセッサ91、メインメモリ92、ストレージ93、および、インタフェース94を備える。
上述の作業分類装置1は、コンピュータ90に実装される。そして、上述した各処理部の動作は、プログラムの形式でストレージ93に記憶されている。プロセッサ91は、プログラムをストレージ93から読み出してメインメモリ92に展開し、当該プログラムに従って上記処理を実行する。また、プロセッサ91は、プログラムに従って、上述した各記憶部に対応する記憶領域をメインメモリ92に確保する。
【0054】
プログラムは、コンピュータ90に発揮させる機能の一部を実現するためのものであってもよい。例えば、プログラムは、ストレージに既に記憶されている他のプログラムとの組み合わせ、または他の装置に実装された他のプログラムとの組み合わせによって機能を発揮させるものであってもよい。なお、他の実施形態においては、コンピュータは、上記構成に加えて、または上記構成に代えてPLD(Programmable Logic Device)などのカスタムLSI(Large Scale Integrated Circuit)を備えてもよい。PLDの例としては、PAL(Programmable Array Logic)、GAL(Generic Array Logic)、CPLD(Complex Programmable Logic Device)、FPGA(Field Programmable Gate Array)等が挙げられる。この場合、プロセッサによって実現される機能の一部または全部が当該集積回路によって実現されてよい。
【0055】
ストレージ93の例としては、HDD(Hard Disk Drive)、SSD(Solid State Drive)、磁気ディスク、光磁気ディスク、CD-ROM(Compact Disc Read Only Memory)、DVD-ROM(Digital Versatile Disc Read Only Memory)、半導体メモリ等が挙げられる。ストレージ93は、コンピュータ90のバスに直接接続された内部メディアであってもよいし、インタフェース94または通信回線を介してコンピュータ90に接続される外部メディアであってもよい。また、このプログラムが通信回線によってコンピュータ90に配信される場合、配信を受けたコンピュータ90が当該プログラムをメインメモリ92に展開し、上記処理を実行してもよい。少なくとも1つの実施形態において、ストレージ93は、一時的でない有形の記憶媒体である。
【0056】
<付記>
各実施形態に記載の作業分類装置1は、例えば以下のように把握される。
【0057】
(1)第1の態様に係る作業分類装置1は、複数のカメラ2により教示作業が撮影された複数の教示画像に基づき、複数の作業区分への前記教示作業の分類付けが学習された学習済モデル14と、前記複数のカメラ2により実作業が撮影された複数の実画像を取得する実画像取得部15と、前記学習済モデル14と前記実画像に基づき、前記実作業を前記複数の作業区分へ分類する分類部16と、を備える。本態様によれば、実作業を複数の作業区分へ適切に分類することができる。
【0058】
(2)第2の態様に係る作業分類装置1は、(1)の作業分類装置1であって、前記複数の作業区分が、主体作業、準備作業、付随作業、および余裕作業を含む。本態様によれば、実作業を細やかに分類することができる。
【0059】
(3)第3の態様に係る作業分類装置1は、(1)または(2)の作業分類装置1であって、前記分類部16は、前記学習済モデル14と前記実画像に基づき、前記実画像に含まれている作業工具の分析結果を反映させて、前記実作業を前記複数の作業区分へ分類する。この態様によれば、より分類精度を高めることができる。
【0060】
(4)第4の態様に係る作業分類装置1は、(1)から(3)のいずれか一つの作業分類装置1であって、前記分類部16は、前記学習済モデル14と前記実画像に基づき、前記実作業の内容と着手日時と完了日時を記録したデータベース(作業データベース4)を参照して、前記実作業を前記複数の作業区分へ分類する。この態様によれば、より分類精度を高めることができる。
【0061】
(5)第5の態様に係る作業分類方法は、複数のカメラ2により実作業が撮影された複数の実画像を取得するステップと、前記複数のカメラ2により教示作業が撮影された複数の教示画像に基づき、複数の作業区分への前記教示作業の分類付けが学習された学習済モデルと前記実画像に基づき、前記実作業を前記複数の作業区分へ分類するステップと、を含む。この態様によれば、実作業を複数の作業区分へ適切に分類することができる。
【0062】
(6)第6の態様に係るプログラムは、複数のカメラ2により実作業が撮影された複数の実画像を取得するステップと、前記複数のカメラ2により教示作業が撮影された複数の教示画像に基づき、複数の作業区分への前記教示作業の分類付けが学習された学習済モデルと前記実画像に基づき、前記実作業を前記複数の作業区分へ分類するステップと、をコンピュータに実行させる。この態様によれば、実作業を複数の作業区分へ適切に分類することができる。
【0063】
(7)第7の態様に係る学習装置1は、複数のカメラ2により実作業が撮影された複数の実画像を入力するとともに前記実作業を複数の作業区分へ分類した結果を出力する機械学習モデルを、前記複数の作業区分がラベリングされた複数の教示画像に基づき機械学習する機械学習部13を備える。この態様によれば、実作業を複数の作業区分へ適切に分類することができる。
【符号の説明】
【0064】
100…作業分類システム
1…作業分類装置(学習装置)
2…カメラ
3…作業者端末
4…作業データベース
11…教示画像取得部
12…教示部
13…機械学習部
14…学習済モデル
15…実画像取得部
16…分類部
17…入出力部
18…記憶部
41…レコード
90…コンピュータ
91…プロセッサ
92…メインメモリ
93…ストレージ
94…インタフェース
100…作業分類システム
141…工程分析用学習済モデル
142…工具分析用学習済モデル
201…作業者
202…Webカメラ
203…データベース
204…IE観測者
205…端末
206…機械学習モデル
207…機械学習モデル
301…作業者
302…タブレット端末
303…Webカメラ
304…タイムサーバ
305…クラウドDB
307…クラウドDB
306…クラウドコンピューティング
308…クラウドコンピューティング
309…クラウドコンピューティング
310…着完システム
311…作業監督者
312…端末