IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 三菱日立パワーシステムズ株式会社の特許一覧 ▶ 学校法人立命館の特許一覧

特開2023-50237学習用データの取得方法、モデル生成方法、学習用データ取得装置、及びプログラム
<>
  • 特開-学習用データの取得方法、モデル生成方法、学習用データ取得装置、及びプログラム 図1
  • 特開-学習用データの取得方法、モデル生成方法、学習用データ取得装置、及びプログラム 図2
  • 特開-学習用データの取得方法、モデル生成方法、学習用データ取得装置、及びプログラム 図3
  • 特開-学習用データの取得方法、モデル生成方法、学習用データ取得装置、及びプログラム 図4
  • 特開-学習用データの取得方法、モデル生成方法、学習用データ取得装置、及びプログラム 図5
  • 特開-学習用データの取得方法、モデル生成方法、学習用データ取得装置、及びプログラム 図6
  • 特開-学習用データの取得方法、モデル生成方法、学習用データ取得装置、及びプログラム 図7
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2023050237
(43)【公開日】2023-04-11
(54)【発明の名称】学習用データの取得方法、モデル生成方法、学習用データ取得装置、及びプログラム
(51)【国際特許分類】
   G06T 7/20 20170101AFI20230404BHJP
   G06T 7/00 20170101ALI20230404BHJP
   G06Q 50/04 20120101ALI20230404BHJP
【FI】
G06T7/20 300
G06T7/00 350C
G06Q50/04
【審査請求】未請求
【請求項の数】7
【出願形態】OL
(21)【出願番号】P 2021160253
(22)【出願日】2021-09-30
【新規性喪失の例外の表示】特許法第30条第2項適用申請有り 日本経営システム学会、「日本経営システム学会誌,Vol.37,No.3,March 2021,pp.199-210」、令和3年3月15日発行
(71)【出願人】
【識別番号】514030104
【氏名又は名称】三菱パワー株式会社
(71)【出願人】
【識別番号】593006630
【氏名又は名称】学校法人立命館
(74)【代理人】
【識別番号】100149548
【弁理士】
【氏名又は名称】松沼 泰史
(74)【代理人】
【識別番号】100162868
【弁理士】
【氏名又は名称】伊藤 英輔
(74)【代理人】
【識別番号】100161702
【弁理士】
【氏名又は名称】橋本 宏之
(74)【代理人】
【識別番号】100189348
【弁理士】
【氏名又は名称】古都 智
(74)【代理人】
【識別番号】100196689
【弁理士】
【氏名又は名称】鎌田 康一郎
(72)【発明者】
【氏名】赤城 弘一
(72)【発明者】
【氏名】森下 武
(72)【発明者】
【氏名】澤口 学
(72)【発明者】
【氏名】何 暁磊
【テーマコード(参考)】
5L049
5L096
【Fターム(参考)】
5L049CC03
5L096DA01
5L096DA02
5L096HA02
5L096HA09
5L096HA11
5L096HA13
5L096JA25
5L096KA04
5L096KA15
(57)【要約】
【課題】作業者が識別用の器具を装着することなく、且つ、少量の動画データから作業者を識別するモデルを学習することができる学習用データの取得方法を提供する。
【解決手段】学習用データの取得方法は、作業者が行う一連の作業が撮影された動画データから、作業者固有の特徴が反映されないものとして設定された作業内容が映されているフレームである無特徴フレームを特定するステップと、前記無特徴フレームを前記動画データから除外するステップと、前記無特徴フレームが除外された動画データを基に、学習用データとして用いるデータセットを生成するステップと、を有する。
【選択図】図3
【特許請求の範囲】
【請求項1】
作業者が行う一連の作業が撮影された動画データを基に生成されたデータセットを入力し、当該作業者の識別情報を出力する学習済みモデルを生成するための学習用データを取得する方法であって、
作業者が行う一連の作業が撮影された動画データから、作業者固有の特徴が反映されないものとして設定された作業内容が映されているフレームである無特徴フレームを特定するステップと、
前記無特徴フレームを前記動画データから除外するステップと、
前記無特徴フレームが除外された動画データを基に、学習用データとして用いるデータセットを生成するステップと、
を有し、
前記無特徴フレームを特定するステップでは、前記動画データに映される作業者の第1の作業内容と第2の作業内容との境界に現れる特徴であってフレーム単位でその有無を判別可能な特徴を示す境界特徴情報に基づいて、前記無特徴フレームを特定する、
学習用データの取得方法。
【請求項2】
作業者が行う一連の作業に含まれる複数の作業内容のうち、作業者固有の特徴が反映されるものとして設定された作業内容を含む部分動画データを、前記動画データから抽出するステップを更に有し、
前記無特徴フレームを除外するステップでは、前記部分動画データから前記無特徴フレームを除外する、
請求項1に記載の学習用データの取得方法。
【請求項3】
前記作業内容はサーブリッグ分析を用いて分類した複数の微動作からなり、
前記無特徴フレームを特定するステップでは、
作業者固有の特徴が反映されるものとして設定された前記作業内容の直前に行われる前記微動作の終了を示すフレームを第1の境界特徴情報として設定し、当該第1の境界特徴情報以前のフレームを前記無特徴フレームとして特定するとともに、
作業者固有の特徴が反映されるものとして設定された前記作業内容の直後に行われる前記微動作の開始を示すフレームを第2の境界特徴情報として設定し、当該第2の境界特徴情報以降のフレームを前記無特徴フレームとして特定する、
請求項1又は2に記載の学習用データの取得方法。
【請求項4】
請求項1から3の何れか一項に記載の学習用データの取得方法により取得した学習用データを用いて、作業者が行う一連の作業が撮影された動画データを基に生成されたデータセットを入力とし、作業者の識別情報を出力とするモデルを学習するステップを有する、
モデル生成方法。
【請求項5】
学習した前記モデルに対し、評価用の前記データセットを入力して、前記識別情報の予測結果を出力するステップと、
作業者が行う一連の作業に含まれる複数の作業内容のうち、一の作業内容に対応する複数のデータセットについて、異なる複数の予測結果が得られた場合に、作業内容の途中で作業者が変わらないという前提に基づき、当該一の作業内容に対応する複数の前記データセット全体を通して一つの識別情報を出力するように前記モデルを更に学習するステップと、
を更に有する請求項4に記載のモデル生成方法。
【請求項6】
作業者が行う一連の作業が撮影された動画データを基に生成されたデータセットを入力し、当該作業者の識別情報を出力する学習済みモデルを生成するための学習用データを取得する装置であって、
作業者が行う一連の作業が撮影された動画データから、作業者固有の特徴が反映されないものとして設定された作業内容が映されているフレームである無特徴フレームを特定する特定部と、
前記無特徴フレームを前記動画データから除外する除外処理部と、
前記無特徴フレームが除外された動画データを基に、学習用データとして用いるデータセットを生成する生成部と、
を備え、
前記特定部は、前記動画データに映される作業者の第1の作業内容と第2の作業内容との境界に現れる特徴であってフレーム単位でその有無を判別可能な特徴を示す境界特徴情報に基づいて、前記無特徴フレームを特定する、
学習用データ取得装置。
【請求項7】
作業者が行う一連の作業が撮影された動画データを基に生成されたデータセットを入力し、当該作業者の識別情報を出力する学習済みモデルを生成するための学習用データを取得する学習用データ取得装置に、
作業者が行う一連の作業が撮影された動画データから、作業者固有の特徴が反映されないものとして設定された作業内容が映されているフレームである無特徴フレームを特定するステップと、
前記無特徴フレームを前記動画データから除外するステップと、
前記無特徴フレームが除外された動画データを基に、学習用データとして用いるデータセットを生成するステップと、
を実行させ、
前記無特徴フレームを特定するステップでは、前記動画データに映される作業者の第1の作業内容と第2の作業内容との境界に現れる特徴であってフレーム単位でその有無を判別可能な特徴を示す境界特徴情報に基づいて、前記無特徴フレームを特定する、
プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、学習用データの取得方法、モデル生成方法、学習用データ取得装置、及びプログラムに関する。
【背景技術】
【0002】
製造現場などでは、作業者の一連の作業を撮影した動画データから、作業者の識別を行うことが考えられている。
【0003】
作業者を識別するための技術としては、各作業者がマーカなどの識別用の器具を装着することが考えられる。しかしながら、このような器具を装着すると、作業時に邪魔になるなど、作業者にとって負担となる。
【0004】
また、作業者の顔などの特徴を学習したモデルにより、作業者を識別することが考えられる。しかしながら、作業者は、作業中に帽子などを着用し、顔が隠れてしまう場合がある。また、作業者は、動画データを撮影するカメラの方を向かずに作業を行う場合がある。このような状況で撮影された動画データを使うと、作業者の顔などの特徴から、作業者を個々に識別することが困難となる可能性がある。
【0005】
さらに、作業者の動作(作業中の身体の動かし方など)を学習した識別モデルを用いて、作業者の識別を行うことが考えられる。例えば、特許文献1には、動画データから抽出した作業者の骨格情報(学習用データ)で学習したモデルにより、作業者の動作(作業)を特定可能なモデルを学習することが記載されている。
【先行技術文献】
【特許文献】
【0006】
【特許文献1】特開2020-198133号公報
【発明の概要】
【発明が解決しようとする課題】
【0007】
作業者の一連の作業の中には、工具の準備作業のような、作業者ごとの特徴が表れない動作も含まれている。このような動作は、識別モデルを学習する上でノイズとなり、識別精度が低下する可能性がある。ノイズの影響を抑制し、識別モデルの精度を向上するためには、作業者それぞれの作業を撮影した大量の動画データを収集する必要がある。しかしながら、動画データを大量に収集するためには、時間及びコストがかかる。また、製造する製品が頻繁に変更される、改善活動により作業プロセスが変更されるといった要因により、同じ作業を実行している動画データを大量に収集することは困難である。
【0008】
本開示は、このような課題に鑑みてなされたものであって、作業者が識別用の器具を装着することなく、且つ、少量の動画データから作業者を識別するモデルを学習することができる学習用データの取得方法、モデル生成方法、学習用データ取得装置、及びプログラムを提供する。
【課題を解決するための手段】
【0009】
本開示の一態様によれば、作業者が行う一連の作業が撮影された動画データを基に生成されたデータセットを入力し、当該作業者の識別情報を出力する学習済みモデルを生成するための学習用データの取得方法は、作業者が行う一連の作業が撮影された動画データから、作業者固有の特徴が反映されないものとして設定された作業内容が映されているフレームである無特徴フレームを特定するステップと、前記無特徴フレームを前記動画データから除外するステップと、前記無特徴フレームが除外された動画データを基に、学習用データとして用いるデータセットを生成するステップと、を有し、前記無特徴フレームを特定するステップでは、前記動画データに映される作業者の第1の作業内容と第2の作業内容との境界に現れる特徴であってフレーム単位でその有無を判別可能な特徴を示す境界特徴情報に基づいて、前記無特徴フレームを特定する。
【0010】
本開示の一態様によれば、モデル生成方法は、上述の学習用データの取得方法により取得した学習用データを用いて、作業者が行う一連の作業が撮影された動画データを基に生成されたデータセットを入力とし、作業者の識別情報を出力とするモデルを学習するステップを有する。
【0011】
本開示の一態様によれば、学習用データ取得装置は、作業者が行う一連の作業が撮影された動画データを基に生成されたデータセットを入力し、当該作業者の識別情報を出力する学習済みモデルを生成するための学習用データを取得する装置であって、作業者が行う一連の作業が撮影された動画データから、作業者固有の特徴が反映されないものとして設定された作業内容が映されているフレームである無特徴フレームを特定する特定部と、前記無特徴フレームを前記動画データから除外する除外処理部と、前記無特徴フレームが除外された動画データを基に、学習用データとして用いるデータセットを生成する生成部と、を備え、前記特定部は、前記動画データに映される作業者の第1の作業内容と第2の作業内容との境界に現れる特徴であってフレーム単位でその有無を判別可能な特徴を示す境界特徴情報に基づいて、前記無特徴フレームを特定する。
【0012】
本開示の一態様によれば、プログラムは、作業者が行う一連の作業が撮影された動画データを基に生成されたデータセットを入力し、当該作業者の識別情報を出力する学習済みモデルを生成するための学習用データを取得する学習用データ取得装置に、作業者が行う一連の作業が撮影された動画データから、作業者固有の特徴が反映されないものとして設定された作業内容が映されているフレームである無特徴フレームを特定するステップと、前記無特徴フレームを前記動画データから除外するステップと、前記無特徴フレームが除外された動画データを基に、学習用データとして用いるデータセットを生成するステップと、を実行させ、前記無特徴フレームを特定するステップでは、前記動画データに映される作業者の第1の作業内容と第2の作業内容との境界に現れる特徴であってフレーム単位でその有無を判別可能な特徴を示す境界特徴情報に基づいて、前記無特徴フレームを特定する。
【発明の効果】
【0013】
本開示に係る学習用データの取得方法、モデル生成方法、学習用データ取得装置、及びプログラムによれば、作業者が識別用の器具を装着することなく、且つ、少量の動画データから作業者を識別するモデルを学習することができる。
【図面の簡単な説明】
【0014】
図1】本開示の一実施形態に係る学習用データ収集システムの概要を示す図である。
図2】本開示の一実施形態に係る学習用データ取得装置の機能構成を示す図である。
図3】本開示の一実施形態に係る学習用データの取得方法の一例を示すフローチャートである。
図4】本開示の一実施形態に係る作業内容の一例を示す図である。
図5】本開示の一実施形態に係る動画データの一例を示す第1の図である。
図6】本開示の一実施形態に係る動画データの一例を示す第2の図である。
図7】本開示の一実施形態に係る識別モデルの学習方法の一例を示すフローチャートである。
【発明を実施するための形態】
【0015】
以下、本開示の一実施形態に係る学習用データ収集システム1について、図1図7を参照しながら説明する。
【0016】
(全体構成)
図1は、本開示の一実施形態に係る学習用データ収集システムの概要を示す図である。
学習用データ収集システム1は、作業者の一連の作業を撮影した動画データから、作業者の識別を行う識別モデルの学習用データを収集する。図1に示すように、学習用データ収集システム1は、学習用データ取得装置10と、モデル学習装置20と、カメラ30とを備える。
【0017】
カメラ30は、作業場所に設置され、作業者が行う一連の作業を撮影する。
【0018】
学習用データ取得装置10は、カメラ30が撮影した動画データD1から、作業者を個々に識別する識別モデルMの学習用データD2を取得する。
【0019】
モデル学習装置20は、学習用データ取得装置10が取得した学習用データD2に基づいて、識別モデルMを学習する。識別モデルMは、カメラ30が撮影した動画データD1を基に生成されたデータセットを入力すると、動画データD1に映される作業者の識別情報(例えば、作業者の氏名、ID等)を出力する学習済みモデルである。
【0020】
(機能構成)
図2は、本開示の一実施形態に係る学習用データ取得装置の機能構成を示す図である。
図2に示すように、学習用データ取得装置10は、CPU11と、メモリ12と、ストレージ13と、インタフェース14とを備えている。
【0021】
CPU11は、予め用意されたプログラムに従って動作することで種々の機能を発揮するプロセッサである。CPU11の機能については後述する。
【0022】
メモリ12は、いわゆる主記憶装置であって、CPU11の動作に必要な記憶領域を有する。
【0023】
ストレージ13は、いわゆる補助記憶装置であって、HDD(Hard Disk Drive)やSSD(Solid State Drive)などの大容量記憶デバイスである。
【0024】
インタフェース14は、モデル学習装置20、カメラ30等の機器と接続するためのインタフェース(通信インタフェース)である。
【0025】
また、図2を参照しながら、CPU11の機能について説明する。図2に示すように、CPU11は、取得部110と、特定部111と、除外処理部112と、生成部113としての機能を発揮する。
【0026】
取得部110は、カメラ30が撮影した動画データD1を取得する。また、取得部110は、作業者が行う一連の作業に含まれる複数の作業要素のうち、作業者固有の特徴が反映されるものとして設定された作業内容を含む作業要素を映した部分動画データを、動画データD1から切り出して取得する。
【0027】
特定部111は、作業者が行う一連の作業が撮影された動画データD1から、作業者固有の特徴が反映されないものとして設定された作業内容が映されているフレームである無特徴フレームを特定する。
【0028】
除外処理部112は、無特徴フレームを動画データD1から除外する。
【0029】
生成部113は、無特徴フレームが除外された動画データを基に、学習用データD2として用いるデータセットを生成する。生成部113が生成したデータセット(学習用データD2)は、モデル学習装置20において識別モデルMの学習に使用される。
【0030】
(学習用データの取得方法)
図3は、本開示の一実施形態に係る学習用データの取得方法の一例を示すフローチャートである。
以下、図3を参照しながら、学習用データを取得する手順について詳細に説明する。
【0031】
まず、学習用データ取得装置10の操作者(作業者自身であってもよい)は、作業者が一連の作業を行う様子をカメラ30で撮影する。そうすると、学習用データ取得装置10の取得部110は、カメラ30が撮影した動画データD1を取得する(ステップS01)。
【0032】
次に、学習用データ取得装置10の操作者は、作業者が行う一連の作業のうち、作業者固有の動作の特徴が反映される作業内容(学習対象動作)を設定する(ステップS02)。
【0033】
作業内容は、一連の作業において作業者が行う動作を表す。操作者は、インダストリアルエンジニアリング(Industrial Engineering(IE))の手法を使って、一連の作業を複数の作業内容に細分化する。
【0034】
図4は、本開示の一実施形態に係る作業内容の一例を示す図である。
作業者が行う一連の作業は、例えば最終製品(完成品)を製造するために行う複数の作業工程からなる。また、一連の作業は、図4に示すように、工程(プロセス)、単位作業(オペレーション)、要素作業(エレメント)、動作(モーション)、微動作(サーブリッグ)という階層を経るごとに細かい区分に分類される。
【0035】
一連の作業のうち、最も大きい区分は工程である。図4の例では、一連の作業は3つの工程1~3からなる。例えば、工程1は「溶接」、工程2は「加工」、工程3は「組立」である。各工程は、いくつかの単位作業のまとまりであり、例えば中間段階でのアウトプットとなる部品等を製造する。図4の例では、工程2(「加工」)は、3つの単位作業2-1~2-3からなる。
【0036】
単位作業(オペレーション)は、決まった作業域での1つのまとまった作業である。例えば、単位作業2-1は「部品を運ぶ」、単位作業2-2は「加工する」、単位作業2-3は「検査する」である。また、単位作業は、複数の要素作業からなる。図4の例では、単位作業2-2(「加工する」)は、4つの要素作業A~Dからなる。
【0037】
要素作業(エレメント)は、作業として完結する最小単位である。例えば、要素作業Aは「作業台にワークを移動する」、要素作業Bは「加工部分を罫書きする」、要素作業Cは「工具で加工部を削る」、要素作業Dは「ゲージで加工部を計測する」である。また、要素作業は、複数の動作からなる。図4の例では、要素作業C(「工具で加工部を削る」)は4つの動作C1~C4からなる。
【0038】
動作(モーション)は、いくつかの微動作の組み合わせによって構成される。例えば、動作C1は「工具を取る」、動作C2は「工具を動かす」、動作C3は「加工部を目視確認する」、動作C4は「工具を置く」である。また、図4の例では、動作C1(工具を取る)は3つの微動作C1_1~C1_3からなる。
【0039】
微動作(サーブリッグ)は、作業の最も小さい区分である。微動作は、例えばサーブリッグ分析で定義される動作を表す。例えば、微動作C1_1は「手を移動する」、微動作C1_2は「工具をつかむ」、微動作C1_3は「工具を運ぶ」である。
【0040】
本実施形態では、操作者は、複数の動作のうち少なくとも一つを、作業者固有の動作の特徴が反映される作業内容(学習対象動作)として設定する。例えば、動作C1(「工具を取る」)、動作C2(「工具を動かす」)、動作C3(「加工部を目視確認する」)、動作C4(「工具を置く」)のうち、実際に工具を動かしてワークの加工を行う動作C2は、作業者の熟練度合いなどに応じて、作業者固有の特徴が表れやすい。この場合、操作者は、動作C2(「工具を動かす」)を学習対象動作として設定する。また、他の動作C1、C3、C4については、作業者固有の動作の特徴が反映されない(例えば、手を止めて考えるなど、動きが生じない)ものであるとする。この場合、操作者は、これら動作C1、C3、C4を学習対象動作として設定しない。操作者は、各工程に含まれる全ての動作について、学習対象動作として設定するか否かを決める。
【0041】
次に、操作者は、学習対象動作を含む部分動画データD3(図5)を、動画データD1から抽出する(ステップS03)。
【0042】
図5は、本開示の一実施形態に係る動画データの一例を示す第1の図である。
図5に示すように、動作C2が学習対象動作として設定されていたとする。このとき、操作者は、動画データD1を視認して、学習対象動作(動作C2)が含まれる部分動画データD3を動画データD1から抽出する。
【0043】
また、例えば作業者が予め規定された作業スケジュールどおりに作業を行っている場合、学習用データ取得装置10の取得部110は、動画データD1のうち、学習対象動作に設定された動作が行われる期間の部分動画データD3を自動的に抽出するようにしてもよい。
【0044】
なお、部分動画データD3には、学習対象動作の前後の動作の一部が含まれていてもよい。図5の例では、動作C2に対応する部分動画データD3には、前の動作C1の一部(微動作C1_3)、及び、次の動作C3の一部(微動作C3_1)が含まれていてもよい。
【0045】
次に、操作者は、部分動画データD3に含まれるフレームのうち、作業者固有の特徴が反映されない作業内容(動作)が映されているフレームである、無特徴フレームを特定する(ステップS04)。
【0046】
例えば、操作者は、部分動画データD3を1フレームずつ確認する。フレームとは、動画データD1を60分の1秒ごとの静止画に分割したものである。操作者は、学習対象外の動作(第1の作業内容)と、学習対象動作(第2の作業内容)との境界に現れる特徴であって、フレーム単位でその有無を判別可能な特徴を示す境界特徴情報に基づいて、無特徴フレームを特定する。境界特徴情報は、学習対象動作の直前に行われる微動作の終了、又は、学習対象動作の直後に行われる微動作の開始を示すフレームである。
【0047】
図5の例では、操作者は、学習対象動作C2の直前に行われる微動作C1_3の終了を示すフレームを第1の境界特徴情報B1として設定する。例えば、微動作C1_3が「工具を運ぶ」である場合、操作者は部分動画データD3をコマ送りして確認し、「工具を運び終えて作業者の手が元の位置に戻った」ときのフレームを第1の境界特徴情報B1として設定する。なお、第1の境界特徴情報B1はこれに限られることはない。例えば、学習対象動作の直前の微動作が「着席する」である場合、操作者は「作業者の着席が完了した」ときのフレームを第1の境界特徴情報B1として設定する。
【0048】
また、図5の例では、操作者は、学習対象動作C2の直後に行われる微動作C3_1の開始を示すフレームを第2の境界特徴情報B2として設定する。例えば、微動作C3_1が「工具を置く」である場合、操作者は部分動画データD3をコマ送りして確認し、「作業者の手から工具が離れた」ときのフレームを第2の境界特徴情報B2として設定する。なお、第2の境界特徴情報B2はこれに限られることはない。例えば、学習対象動作の直後の微動作が「ワークを移動する」である場合、操作者は「作業者の手がワークをつかんだ」ときのフレームを第2の境界特徴情報B2として設定する。
【0049】
第1の境界特徴情報B1および第2の境界特徴情報B2を設定した後、操作者は、部分動画データD3に含まれるフレームのうち、第1の境界特徴情報B1以前のフレーム、及び、第2の境界特徴情報B2以降のフレームを、それぞれ無特徴フレームであると特定する。
【0050】
図6は、本開示の一実施形態に係る動画データの一例を示す第2の図である。
また、操作者は、図6に示すように、学習対象動作C2に含まれる一部の微動作C2_2を無特徴フレームとして特定してもよい。例えば、学習対象動作C2を構成する微動作C2_1~C2_3のうち、微動作C2_2は作業者の動作の特徴が反映されないものであるとする。この場合、操作者は、微動作C2_2の開始を示すフレームを第2の境界特徴情報B2として設定するとともに、微動作C2_2の終了を示すフレームを第1の境界特徴情報B1として設定する。そうすると、部分動画データD3のうち、学習対象動作C2の直前の微動作C1_3に対応するフレーム、及び学習対象動作C2の直後の微動作C3_1に対応するフレームに加えて、微動作C2_2に対応するフレームも無特徴フレームであると特定される。
【0051】
なお、操作者は、予め学習対象動作毎の第1の境界特徴情報B1及び第2の境界特徴情報B2の条件を設定しておき、学習用データ取得装置10の特定部111に部分動画データD3から自動的に第1の境界特徴情報B1及び第2の境界特徴情報B2を検索して設定させてもよい。このとき、特定部111は、第1の境界特徴情報B1及び第2の境界特徴情報B2を設定すると、これらに基づいて無特徴フレームを自動的に特定する。
【0052】
次に、操作者は、部分動画データD3から無特徴フレームを除外する操作を行う(ステップS05)。学習用データ取得装置10の除外処理部112は、操作者の操作を受け付けて、図5の例のように、部分動画データD3から学習対象動作C2の前後の無特徴フレームを除外する。なお、除外処理部112は、無特徴フレームが特定されたタイミングで、自動的に部分動画データD3から無特徴フレームを除外する処理を行うようにしてもよい。そうすると、除外済み動画データD4には、作業者の動作の特徴が反映される作業内容(学習対象動作C2)を示す特徴フレームのみが含まれることとなる。
【0053】
次に、操作者は、除外済み動画データD4に基づいて、学習用データとなるデータセットを生成する操作を行う(ステップS06)。学習用データ取得装置10の生成部113は、操作者の操作を受け付けて、除外済み動画データD4から学習用データD2となるデータセットを生成する。なお、生成部113は、除外済み動画データD4が作成されたタイミングで、自動的にデータセットを生成する処理を行うようにしてもよい。
【0054】
本実施形態に係る生成部113は、除外済み動画データD4から、フレーム毎の作業者の骨格情報(作業者の頭部、肩、肘といった各部位の3次元座標を表す情報)からなるデータセットを生成する。なお、動画データから骨格情報を取得する技術は既知であるため、説明は省略する。このとき、生成部113は、一つの除外済み動画データD4から、データセットの開始フレームを1つずつずらした複数のデータセットを生成する。例えば、1個目のデータセットは除外済み動画データD4の1~mフレームの骨格情報からなるデータセット、2個目のデータセットは2~m+1フレームの骨格情報からなるデータセット、n個目のデータセットはn~m+nフレームの骨格情報からなるデータセットである。
【0055】
また、生成部113により生成された骨格情報のデータセット(学習用データD2)は、モデル学習装置20に送信される。そうすると、モデル学習装置20は、学習用データD2から、各作業者の各学習対象動作における動作の特徴を学習して、識別モデルMを生成又は更新する。
【0056】
操作者(又は学習用データ取得装置10)は、複数の作業者それぞれの、学習対象動作として設定された全ての動作について、図3の各ステップを実行することにより、複数の作業者それぞれの動作毎の学習用データD2(骨格情報のデータセット)を取得する。
【0057】
(識別モデルの学習方法)
図7は、本開示の一実施形態に係る識別モデルの学習方法の一例を示すフローチャートである。
モデル学習装置20は、学習用データ取得装置10から受信した複数の作業者(例えば、作業者1~n)それぞれの学習用データD2を用いて、識別モデルMの深層学習を行う(ステップS11)。例えば、モデル学習装置20は、LSTM(Long short-term memory)を使用したニューラルネットワークを作成して、学習用データD2を作業者毎、かつ時系列順に入力して深層学習を実施する。このニューラルネットワークは、入力された学習用データD2がどの作業者のデータであるかを予測し、作業者毎の予測確率(作業者1である確率、作業者2である確率、・・・、作業者nである確率)を出力するものである。また、学習用データ取得装置10は、例えば学習用データD2を訓練用データ及び評価用データに分けて、訓練用データのみを用いて深層学習を行う。
【0058】
次に、モデル学習装置20は、深層学習を実施したニューラルネットワークの評価(深層学習程度の評価)を行う(ステップS12)。例えば、モデル学習装置20は、学習用データD2のうち評価用データをそれぞれニューラルネットワークに入力して、作業者毎の予測確率を得る。モデル学習装置20は、各評価用データについて、正解である作業者と、ニューラルネットワークが予測した作業者(予測確率が最も高い作業者)とに基づいて、ニューラルネットワークの正解率を算出する。
【0059】
次に、モデル学習装置20は、ニューラルネットワークの正解率が目標値(例えば、90%)以上となったか判定する(ステップS13)。モデル学習装置20は、正解率が目標値未満である場合(ステップS13:NO)、ステップS11に戻り、再度、深層学習を実施する。なお、モデル学習装置20は、再学習によっても正解率が目標値未満となった場合には、学習用データ取得装置10に学習用データD2の追加を要求してもよい。この場合、学習用データ取得装置10は、図3の各ステップを実行して新たな学習用データD2を生成する。
【0060】
一方、モデル学習装置20は、正解率が目標値以上である場合(ステップS13:YES)、除外済み動画データD4毎に作業者を識別するように、識別モデルMを更に学習する(ステップS14)。
【0061】
除外済み動画データD4は、一人の作業者が一つの作業内容を実施している様子を撮影したものである。すなわち、除外済み動画データD4に含まれる作業内容の途中で作業者が変わらないという前提がある。この前提に基づいて、モデル学習装置20は、1つの除外済み動画データD4に対応する複数の学習用データD2について、異なる複数の予測結果が得られた場合に、これら学習用データD2全体を通して一人の作業者が実施しているものであると識別するように、識別モデルMを更に学習する。例えば、識別モデルMは、除外済み動画データD4に対応する学習用データD2の作業者毎の予測確率を集計して、除外済み動画データD4全体(すなわち、1つの作業内容全体)における作業者毎の予測確率を算出する。そして、識別モデルMは、予測確率が最も高い作業者の識別情報を、この除外済み動画データD4全体に対応する識別情報として出力する。このようにすることで、識別モデルMによる識別精度を更に向上させることができる。
【0062】
(作用効果)
以上のように、本実施形態に係る学習用データ取得方法は、作業者が行う一連の作業が撮影された動画データD1から、作業者固有の特徴が反映されないものとして設定された作業内容(動作)が映されているフレームである無特徴フレームを特定するステップS04と、無特徴フレームを動画データD1から除外するステップS05と、無特徴フレームが除外された動画データD4を基に、学習用データD2として用いるデータセットを生成するステップS06と、を有する。また、無特徴フレームを特定するステップS04では、動画データD1に映される作業者の学習対象外動作(第1の作業内容)と学習対象動作(第2の作業内容)との境界に現れる特徴であってフレーム単位でその有無を判別可能な特徴を示す境界特徴情報に基づいて、無特徴フレームを特定する。
【0063】
例えば、手を止めて考える動作を行っている(作業者が静止状態である)様子を写した動画データからは、作業者固有の動作の特徴を抽出することが困難である。このような動作(静止状態)を含む動画データを基に学習用データを生成すると、識別モデルを学習する上でノイズとなり、作業者を識別する精度が低下する可能性がある。しかしながら、本実施形態では、上記した各ステップを実行することにより、識別モデルMの学習時にノイズとなる作業者の特徴が表れない動作を含む無特徴フレームを除外して、学習用データD2を生成することが可能となる。このように、ノイズを除去した動画データD4から学習用データD2を生成することにより、少量の学習用データD2でも、精度の高い識別モデルMを学習することが可能となる。また、本実施形態では、作業者の作業を撮影した動画データD1のみを取得すればよいので、作業者が識別用の器具などを装着する必要がない。これにより、作業者の作業を阻害することなく、学習用データD2を取得することが可能となる。
【0064】
また、本実施形態に係る学習用データ取得方法は、作業者が行う一連の作業に含まれる複数の作業内容のうち、学習対象動作(作業者固有の特徴が反映されるものとして設定された作業内容)を含む部分動画データD3を、動画データD1から抽出するステップS03を更に有する。
【0065】
このようにすることで、学習対象動作を含む部分動画データD3のみを参照すればよいので、境界特徴情報を検索及び設定する時間(無特徴フレームを特定するステップに要する時間)を短縮することができる。
【0066】
また、無特徴フレームを特定するステップS04では、学習対象動作の直前に行われる微動作の終了を示すフレームを第1の境界特徴情報B1として設定し、当該第1の境界特徴情報B1以前のフレームを無特徴フレームとして特定する。更に、学習対象動作の直後に行われる微動作の開始を示すフレームを第2の境界特徴情報B2として設定し、当該第2の境界特徴情報B2以降のフレームを前記無特徴フレームとして特定する。
【0067】
このようにすることで、学習対象動作の前後の不要なフレームを正確に除去することができる。
【0068】
なお、上記した学習用データ取得方法の各ステップは、学習用データ取得装置10により自動的に実行されてもよい。
【0069】
このようにすることで、学習用データD2を容易且つ高速に生成することが可能となる。
【0070】
以上のとおり、本開示に係るいくつかの実施形態を説明したが、これら全ての実施形態は、例として提示したものであり、発明の範囲を限定することを意図していない。これらの実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で種々の省略、置き換え、変更を行うことができる。これらの実施形態及びその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
【0071】
例えば、上記した実施形態において、学習用データ取得装置10とモデル学習装置20とが異なる装置として構成される例について説明したが、これに限られることはない。他の実施形態では、学習用データ取得装置10のCPU11が、モデル学習装置20の機能を実行する機能部(モデル学習部)を更に備える態様であってもよい。
【0072】
<付記>
上述の実施形態に記載の学習用データの取得方法、モデル生成方法、学習用データ取得装置、及びプログラムは、例えば以下のように把握される。
【0073】
(1)本開示の第1の態様によれば、作業者が行う一連の作業が撮影された動画データD1を基に生成されたデータセットを入力し、当該作業者の識別情報を出力する学習済みモデルMを生成するための学習用データD2の取得方法は、作業者が行う一連の作業が撮影された動画データD1から、作業者固有の特徴が反映されないものとして設定された作業内容が映されているフレームである無特徴フレームを特定するステップS04と、無特徴フレームを動画データD1から除外するステップS05と、無特徴フレームが除外された動画データD4を基に、学習用データD2として用いるデータセットを生成するステップS06と、を有する。無特徴フレームを特定するステップS04では、動画データD1に映される作業者の第1の作業内容と第2の作業内容との境界に現れる特徴であってフレーム単位でその有無を判別可能な特徴を示す境界特徴情報B1、B2に基づいて、無特徴フレームを特定する。
【0074】
このようにすることで、学習済みモデル(識別モデル)の学習時にノイズとなる作業者の特徴が表れない動作を含む無特徴フレームを除外して、学習用データを生成することが可能となる。このように、ノイズを除去した動画データから学習用データを生成することにより、少量の学習用データでも、精度の高い識別モデルを学習することが可能となる。また、上記した態様では、作業者の作業を撮影した動画データのみを取得すればよいので、作業者が識別用の器具などを装着する必要がない。これにより、作業者の作業を阻害することなく、学習用データを取得することが可能となる。
【0075】
(2)本開示の第2の態様によれば、第1の態様に係る学習用データの取得方法は、作業者が行う一連の作業に含まれる複数の作業内容のうち、作業者固有の特徴が反映されるものとして設定された作業内容を含む部分動画データD3を、動画データD1から抽出するステップS03を更に有する。無特徴フレームを除外するステップS04では、部分動画データD3から無特徴フレームを除外する。
【0076】
このようにすることで、学習対象動作を含む部分動画データのみを参照すればよいので、境界特徴情報を検索及び設定する時間(無特徴フレームを特定するステップS04に要する時間)を短縮することができる。
【0077】
(3)本開示の第3の態様によれば、第1又は第2の態様に係る学習用データの取得方法において、作業内容はサーブリッグ分析を用いて分類した複数の微動作からなり、無特徴フレームを特定するステップS04では、作業者固有の特徴が反映されるものとして設定された作業内容の直前に行われる微動作の終了を示すフレームを第1の境界特徴情報B1として設定し、当該第1の境界特徴情報B1以前のフレームを無特徴フレームとして特定するとともに、作業者固有の特徴が反映されるものとして設定された作業内容の直後に行われる微動作の開始を示すフレームを第2の境界特徴情報B2として設定し、当該第2の境界特徴情報B2以降のフレームを無特徴フレームとして特定する。
【0078】
このようにすることで、学習対象動作の前後の不要なフレームを正確に除去することができる。
【0079】
(4)本開示の第4の態様によれば、モデル生成方法は、第1から第3の何れか一の態様に係る学習用データの取得方法により取得した学習用データD2を用いて、作業者が行う一連の作業が撮影された動画データD1を基に生成されたデータセットを入力とし、作業者の識別情報を出力とするモデルMを学習するステップを有する。
【0080】
このように、作業者の特徴が表れない動作を含む無特徴フレームを除外した学習用データを用いて作業者の識別を行うモデルを学習することにより、学習時のノイズを低減させることができるので、少ないデータ点数でも学習精度を向上させることができる。
【0081】
(5)本開示の第5の態様によれば、第4の態様に係るモデル生成方法は、学習したモデルMに対し、評価用のデータセットを入力して、識別情報の予測結果を出力するステップと、作業者が行う一連の作業に含まれる複数の作業内容のうち、一の作業内容に対応する複数のデータセットについて、異なる複数の予測結果が得られた場合に、作業内容の途中で作業者が変わらないという前提に基づき、当該一の作業内容に対応する複数のデータセット全体を通して一つの識別情報を出力するようにモデルMを更に学習するステップと、を更に有する。
【0082】
このようにすることで、作業者の識別を行うモデルの識別精度を更に向上させることができる。
【0083】
(6)本開示の第6の態様によれば、学習用データ取得装置10は、作業者が行う一連の作業が撮影された動画データD1を基に生成されたデータセットを入力し、当該作業者の識別情報を出力する学習済みモデルMを生成するための学習用データD2を取得する装置であって、作業者が行う一連の作業が撮影された動画データD1から、作業者固有の特徴が反映されないものとして設定された作業内容が映されているフレームである無特徴フレームを特定する特定部111と、無特徴フレームを動画データD1から除外する除外処理部112と、無特徴フレームが除外された動画データD4を基に、学習用データD2として用いるデータセットを生成する生成部113と、を備える。特定部111は、動画データD1に映される作業者の第1の作業内容と第2の作業内容との境界に現れる特徴であってフレーム単位でその有無を判別可能な特徴を示す境界特徴情報B1、B2に基づいて、無特徴フレームを特定する。
【0084】
このように、学習用データ取得装置により各ステップを自動実行することにより、学習用データを容易且つ高速に生成することが可能となる。
【0085】
(7)本開示の第7の態様によれば、プログラムは、作業者が行う一連の作業が撮影された動画データD1を基に生成されたデータセットを入力し、当該作業者の識別情報を出力する学習済みモデルMを生成するための学習用データD2を取得する学習用データ取得装置10に、作業者が行う一連の作業が撮影された動画データD1から、作業者固有の特徴が反映されないものとして設定された作業内容が映されているフレームである無特徴フレームを特定するステップS04と、無特徴フレームを動画データD1から除外するステップS05と、無特徴フレームが除外された動画データD4を基に、学習用データD2として用いるデータセットを生成するステップS06と、を実行させる。無特徴フレームを特定するステップS04では、動画データD1に映される作業者の第1の作業内容と第2の作業内容との境界に現れる特徴であってフレーム単位でその有無を判別可能な特徴を示す境界特徴情報B1、B2に基づいて、無特徴フレームを特定する。
【符号の説明】
【0086】
1 学習用データ収集システム
10 学習用データ取得装置
11 CPU
110 取得部
111 特定部
112 除外処理部
113 生成部
12 メモリ
13 ストレージ
14 インタフェース
20 モデル学習装置
30 カメラ
図1
図2
図3
図4
図5
図6
図7