IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 三菱電機株式会社の特許一覧 ▶ 三菱スペース・ソフトウエア株式会社の特許一覧

特許7462857動作分析装置、動作分析方法、動作分析プログラムおよび動作分析システム
<>
  • 特許-動作分析装置、動作分析方法、動作分析プログラムおよび動作分析システム 図1
  • 特許-動作分析装置、動作分析方法、動作分析プログラムおよび動作分析システム 図2
  • 特許-動作分析装置、動作分析方法、動作分析プログラムおよび動作分析システム 図3
  • 特許-動作分析装置、動作分析方法、動作分析プログラムおよび動作分析システム 図4
  • 特許-動作分析装置、動作分析方法、動作分析プログラムおよび動作分析システム 図5
  • 特許-動作分析装置、動作分析方法、動作分析プログラムおよび動作分析システム 図6
  • 特許-動作分析装置、動作分析方法、動作分析プログラムおよび動作分析システム 図7
  • 特許-動作分析装置、動作分析方法、動作分析プログラムおよび動作分析システム 図8
  • 特許-動作分析装置、動作分析方法、動作分析プログラムおよび動作分析システム 図9
  • 特許-動作分析装置、動作分析方法、動作分析プログラムおよび動作分析システム 図10
  • 特許-動作分析装置、動作分析方法、動作分析プログラムおよび動作分析システム 図11
  • 特許-動作分析装置、動作分析方法、動作分析プログラムおよび動作分析システム 図12
  • 特許-動作分析装置、動作分析方法、動作分析プログラムおよび動作分析システム 図13
  • 特許-動作分析装置、動作分析方法、動作分析プログラムおよび動作分析システム 図14
  • 特許-動作分析装置、動作分析方法、動作分析プログラムおよび動作分析システム 図15
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B1)
(11)【特許番号】
(24)【登録日】2024-03-28
(45)【発行日】2024-04-05
(54)【発明の名称】動作分析装置、動作分析方法、動作分析プログラムおよび動作分析システム
(51)【国際特許分類】
   G06T 7/20 20170101AFI20240329BHJP
   G06T 7/00 20170101ALI20240329BHJP
   G06T 7/223 20170101ALI20240329BHJP
   G06T 7/60 20170101ALI20240329BHJP
【FI】
G06T7/20 300Z
G06T7/00 660B
G06T7/223
G06T7/60 150D
【請求項の数】 13
(21)【出願番号】P 2023566655
(86)(22)【出願日】2022-05-11
(86)【国際出願番号】 JP2022019932
【審査請求日】2023-10-27
【早期審査対象出願】
(73)【特許権者】
【識別番号】000006013
【氏名又は名称】三菱電機株式会社
(73)【特許権者】
【識別番号】591102095
【氏名又は名称】三菱電機ソフトウエア株式会社
(74)【代理人】
【識別番号】110002491
【氏名又は名称】弁理士法人クロスボーダー特許事務所
(72)【発明者】
【氏名】草野 勝大
(72)【発明者】
【氏名】清水 尚吾
(72)【発明者】
【氏名】小平 孝之
(72)【発明者】
【氏名】中島 龍二
【審査官】▲広▼島 明芳
(56)【参考文献】
【文献】国際公開第2021/130978(WO,A1)
【文献】特開2008-077424(JP,A)
【文献】特開2020-198133(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
G06T 7/00 - 7/90
G06V 10/00 - 20/90
(57)【特許請求の範囲】
【請求項1】
段取り動作を挟んで複数の対象動作を行う対象者を撮影することによって得られ各撮影時刻のフレームを含む映像を受け付ける映像受付部と、
前記撮影時刻ごとに前記フレームに映った前記対象者の骨格情報を対象骨格情報として抽出する骨格抽出部と、
前記対象動作ごとに開始タイミングと終了タイミングの少なくとも一方を検出するタイミング検出部と、
各対象動作の前記開始タイミングと各対象動作の前記終了タイミングの少なくとも一方に基づいて、各対象動作が行われた対象時刻ごとに、前記対象時刻を含み前記段取り動作が行われた時刻を含まない対象時間帯の2つ以上の前記対象骨格情報を軌跡情報として抽出する軌跡抽出部と、
前記対象時刻ごとに、各対象動作の参照骨格情報の時系列と、前記時系列の各時刻の動作ラベルと、を示す参照骨格データから、前記軌跡情報の前記2つ以上の前記対象骨格情報と合致する2つ以上の前記参照骨格情報を見つけ、見つかった前記2つ以上の前記参照骨格情報に対応する時間帯の基準時刻の前記動作ラベルを前記対象動作の前記動作ラベルとして取得するマッチング部と、
を備える動作分析装置。
【請求項2】
前記軌跡抽出部は、
前記対象時刻を含み基準時間長を有する時間帯を前記対象時間帯として算出し、
前記対象時間帯の先頭時刻が前記対象時刻の前記対象動作の前記開始タイミングよりも早い時刻である場合、前記対象時間帯の前記先頭時刻を前記開始タイミングに変更し、
前記対象時間帯の最終時刻が前記対象時刻の前記対象動作の前記終了タイミングよりも遅い時刻である場合、前記対象時間帯の前記最終時刻を前記終了タイミングに変更し、
前記対象時間帯の前記2つ以上の前記対象骨格情報を前記軌跡情報として抽出する
請求項1に記載の動作分析装置。
【請求項3】
前記タイミング検出部は、各対象動作の開始時と各対象動作の終了時の少なくとも一方で前記対象者によって行われる操作を検出する操作センサによって前記操作が検出された各タイミングを前記開始タイミングまたは前記終了タイミングとして検出する
請求項1に記載の動作分析装置。
【請求項4】
前記操作センサは、ボタンの押下を検出するボタンデバイス、バーコードの読み取りを検出するバーコードリーダまたは電動道具のスイッチの切り替えを検出するプログラマブルロジックコントローラである
請求項3に記載の動作分析装置。
【請求項5】
前記タイミング検出部は、前記映像から前記開始タイミングと前記終了タイミングの少なくとも一方で発生する特徴を示すフレームを探し、見つかったフレームの前記撮影時刻を前記開始タイミングまたは前記終了タイミングとして検出する
請求項1に記載の動作分析装置。
【請求項6】
前記タイミング検出部は、前記対象動作の途中の特定タイミングを検出し、
前記軌跡抽出部は、各対象動作の前記開始タイミングと各対象動作の前記終了タイミングの少なくとも一方と前記特定タイミングに基づいて前記対象時刻ごとに前記軌跡情報を抽出する
請求項1から請求項5のいずれか1項に記載の動作分析装置。
【請求項7】
前記軌跡抽出部は、
前記対象時刻を含み基準時間長を有する時間帯を前記対象時間帯として算出し、
前記対象時間帯の先頭時刻が前記対象時刻の前記対象動作の前記開始タイミングまたは前記対象動作の途中の前記特定タイミングよりも早い時刻である場合、前記対象時間帯の前記先頭時刻を前記開始タイミングまたは前記特定タイミングに変更し、
前記対象時間帯の最終時刻が前記対象時刻の前記対象動作の前記終了タイミングまたは前記対象動作の途中の前記特定タイミングよりも遅い時刻である場合、前記対象時間帯の前記最終時刻を前記終了タイミングまたは前記特定タイミングに変更し、
前記対象時間帯の前記2つ以上の前記対象骨格情報を前記軌跡情報として抽出する
請求項6に記載の動作分析装置。
【請求項8】
前記タイミング検出部は、前記対象動作の途中で前記対象者によって行われる操作を検出する操作センサによって前記操作が検出された各タイミングを前記特定タイミングとして検出する
請求項6に記載の動作分析装置。
【請求項9】
前記操作センサは、ボタンの押下を検出するボタンデバイス、バーコードの読み取りを検出するバーコードリーダまたは電動道具のスイッチの切り替えを検出するプログラマブルロジックコントローラである
請求項8に記載の動作分析装置。
【請求項10】
前記タイミング検出部は、前記映像から前記特定タイミングで発生する特徴を示すフレームを探し、見つかったフレームの前記撮影時刻を前記特定タイミングとして検出する
請求項6に記載の動作分析装置。
【請求項11】
動作分析装置が、
段取り動作を挟んで複数の対象動作を行う対象者を撮影することによって得られ各撮影時刻のフレームを含む映像を受け付け、
前記撮影時刻ごとに前記フレームに映った前記対象者の骨格情報を対象骨格情報として抽出し、
前記対象動作ごとに開始タイミングと終了タイミングの少なくとも一方を検出し、
各対象動作の前記開始タイミングと各対象動作の前記終了タイミングの少なくとも一方に基づいて、各対象動作が行われた対象時刻ごとに、前記対象時刻を含み前記段取り動作が行われた時刻を含まない対象時間帯の2つ以上の前記対象骨格情報を軌跡情報として抽出し、
前記対象時刻ごとに、各対象動作の参照骨格情報の時系列と、前記時系列の各時刻の動作ラベルと、を示す参照骨格データから、前記軌跡情報の前記2つ以上の前記対象骨格情報と合致する2つ以上の前記参照骨格情報を見つけ、見つかった前記2つ以上の前記参照骨格情報に対応する時間帯の基準時刻の前記動作ラベルを前記対象動作の前記動作ラベルとして取得する
動作分析方法。
【請求項12】
段取り動作を挟んで複数の対象動作を行う対象者を撮影することによって得られ各撮影時刻のフレームを含む映像を受け付ける映像受付処理と、
前記撮影時刻ごとに前記フレームに映った前記対象者の骨格情報を対象骨格情報として抽出する骨格抽出処理と、
前記対象動作ごとに開始タイミングと終了タイミングの少なくとも一方を検出するタイミング検出処理と、
各対象動作の前記開始タイミングと各対象動作の前記終了タイミングの少なくとも一方に基づいて、各対象動作が行われた対象時刻ごとに、前記対象時刻を含み前記段取り動作が行われた時刻を含まない対象時間帯の2つ以上の前記対象骨格情報を軌跡情報として抽出する軌跡抽出処理と、
前記対象時刻ごとに、各対象動作の参照骨格情報の時系列と、前記時系列の各時刻の動作ラベルと、を示す参照骨格データから、前記軌跡情報の前記2つ以上の前記対象骨格情報と合致する2つ以上の前記参照骨格情報を見つけ、見つかった前記2つ以上の前記参照骨格情報に対応する時間帯の基準時刻の前記動作ラベルを前記対象動作の前記動作ラベルとして取得するマッチング処理と、
をコンピュータに実行させるための動作分析プログラム。
【請求項13】
対象者を撮影する撮影デバイスと、
前記対象者の動作を分析する動作分析装置と、
を備え、
前記動作分析装置は、
前記撮影デバイスから、段取り動作を挟んで複数の対象動作を行う前記対象者を撮影することによって得られ各撮影時刻のフレームを含む映像を受け付ける映像受付部と、
前記撮影時刻ごとに前記フレームに映った前記対象者の骨格情報を対象骨格情報として抽出する骨格抽出部と、
前記対象動作ごとに開始タイミングと終了タイミングの少なくとも一方を検出するタイミング検出部と、
各対象動作の前記開始タイミングと各対象動作の前記終了タイミングの少なくとも一方に基づいて、各対象動作が行われた対象時刻ごとに、前記対象時刻を含み前記段取り動作が行われた時刻を含まない対象時間帯の2つ以上の前記対象骨格情報を軌跡情報として抽出する軌跡抽出部と、
前記対象時刻ごとに、各対象動作の参照骨格情報の時系列と、前記時系列の各時刻の動作ラベルと、を示す参照骨格データから、前記軌跡情報の前記2つ以上の前記対象骨格情報と合致する2つ以上の前記参照骨格情報を見つけ、見つかった前記2つ以上の前記参照骨格情報に対応する時間帯の基準時刻の前記動作ラベルを前記対象動作の前記動作ラベルとして取得するマッチング部と、
を備える
動作分析システム。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、人の動作を分析する技術に関するものである。
【背景技術】
【0002】
産業分野において、作業者のサイクルタイムの計測と作業内容の分析が人手で行われている。しかし、人手での分析は負荷が大きい。
【0003】
特許文献1は、分析を自動化する手法を提案している。
この手法では、カメラを使って得られた姿勢情報の時系列が動作軌跡として定義され、動作軌跡があらかじめ学習された軌跡と比較され、作業内容が特定される。
姿勢情報がカメラを使って得られることで、作業者に負担がかからない。
【先行技術文献】
【特許文献】
【0004】
【文献】特許第6786015号公報
【発明の概要】
【発明が解決しようとする課題】
【0005】
特許文献1の手法により、工場のラインの作業者について作業時間及び作業手順を分析することができる。分析対象時刻を含む前後の骨格の軌跡が登録された軌跡と比較され、作業時間及び作業手順が検出される。
しかし、実際の作業では、分析対象作業のサイクル間に段取り作業が発生することがある。この場合、段取り作業の発生時の軌跡は登録された軌跡と異なるため、分析対象作業が認識されない可能性がある。または、分析対象作業が誤認識される可能性がある。
【0006】
本開示は、分析対象作業のサイクル間に段取り作業が発生した場合であっても分析対象作業を正しく認識できるようにすることを目的とする。
【課題を解決するための手段】
【0007】
本開示の動作分析装置は、
段取り動作を挟んで複数の対象動作を行う対象者を撮影することによって得られ各撮影時刻のフレームを含む映像を受け付ける映像受付部と、
前記撮影時刻ごとに前記フレームに映った前記対象者の骨格情報を対象骨格情報として抽出する骨格抽出部と、
前記対象動作ごとに開始タイミングと終了タイミングの少なくとも一方を検出するタイミング検出部と、
各対象動作の前記開始タイミングと各対象動作の前記終了タイミングの少なくとも一方に基づいて、各対象動作が行われた対象時刻ごとに、前記対象時刻を含み前記段取り動作が行われた時刻を含まない対象時間帯の2つ以上の前記対象骨格情報を軌跡情報として抽出する軌跡抽出部と、
前記対象時刻ごとに、各対象動作の参照骨格情報の時系列と、前記時系列の各時刻の動作ラベルと、を示す参照骨格データから、前記軌跡情報の前記2つ以上の前記対象骨格情報と合致する2つ以上の前記参照骨格情報を見つけ、見つかった前記2つ以上の前記参照骨格情報に対応する時間帯の基準時刻の前記動作ラベルを前記対象動作の前記動作ラベルとして取得するマッチング部と、を備える。
【発明の効果】
【0008】
本開示によれば、分析対象作業のサイクル間に段取り作業が発生した場合であっても分析対象作業を正しく認識することが可能となる。
【図面の簡単な説明】
【0009】
図1】実施の形態1における動作分析システム100の構成図。
図2】実施の形態1における動作分析装置200の構成図。
図3】実施の形態1における動作分析装置200の機能構成図。
図4】実施の形態1における動作分析方法のフローチャート。
図5】実施の形態1におけるステップS140のフローチャート。
図6】実施の形態1における参照骨格データ291の例を示す図。
図7】従来技術における認識精度を示す図。
図8】実施の形態1における認識精度を示す図。
図9】実施の形態2における動作分析方法のフローチャート。
図10】実施の形態2におけるステップS240のフローチャート。
図11】実施の形態2における認識精度を示す図。
図12】実施の形態3における動作分析システム100の構成図。
図13】実施の形態3における動作分析装置200の機能構成図。
図14】実施の形態3における動作分析方法のフローチャート。
図15】実施の形態における動作分析装置200のハードウェア構成図。
【発明を実施するための形態】
【0010】
実施の形態および図面において、同じ要素または対応する要素には同じ符号を付している。説明した要素と同じ符号が付された要素の説明は適宜に省略または簡略化する。図中の矢印はデータの流れ又は処理の流れを主に示している。
【0011】
実施の形態1.
動作分析システム100について、図1から図8に基づいて説明する。
動作分析システム100は、対象者101の動作を分析するためのシステムである。
対象者101は、分析の対象となる人である。
【0012】
***構成の説明***
図1に基づいて、動作分析システム100の構成を説明する。
動作分析システム100は、撮影デバイス111と、操作センサ112と、動作分析装置200と、を備える。
撮影デバイス111は、対象者101を撮影するデバイスである。撮影デバイス111の具体例は、カメラおよび三次元センサである。
操作センサ112は、対象者101によって行われる操作を検出するセンサである。操作センサ112の具体例は、ボタンデバイス、バーコードリーダおよびPLCである。ボタンデバイスは、ボタンの押下を検出する。バーコードリーダは、バーコードの読み取りを検出する。PLCは、電動式の道具のスイッチの切り替えを検出する。PLCはプログラマブルロジックコントローラの略称である。
【0013】
図2に基づいて、動作分析装置200の構成を説明する。
動作分析装置200は、プロセッサ201とメモリ202と補助記憶装置203と通信装置204と入出力インタフェース205といったハードウェアを備えるコンピュータである。これらのハードウェアは、信号線を介して互いに接続されている。
【0014】
プロセッサ201は、演算処理を行うICであり、他のハードウェアを制御する。例えば、プロセッサ201はCPUである。
ICは、Integrated Circuitの略称である。
CPUは、Central Processing Unitの略称である。
【0015】
メモリ202は揮発性または不揮発性の記憶装置である。メモリ202は、主記憶装置またはメインメモリとも呼ばれる。例えば、メモリ202はRAMである。メモリ202に記憶されたデータは必要に応じて補助記憶装置203に保存される。
RAMは、Random Access Memoryの略称である。
【0016】
補助記憶装置203は不揮発性の記憶装置である。例えば、補助記憶装置203は、ROM、HDD、フラッシュメモリまたはこれらの組み合わせである。補助記憶装置203に記憶されたデータは必要に応じてメモリ202にロードされる。
ROMは、Read Only Memoryの略称である。
HDDは、Hard Disk Driveの略称である。
【0017】
通信装置204はレシーバ及びトランスミッタである。例えば、通信装置204は通信チップまたはNICである。動作分析装置200の通信は通信装置204を用いて行われる。
NICは、Network Interface Cardの略称である。
【0018】
入出力インタフェース205は、入力装置および出力装置が接続されるポートである。例えば、入出力インタフェース205はUSB端子であり、入力装置はキーボードおよびマウスであり、出力装置はディスプレイである。動作分析装置200の入出力は入出力インタフェース205を用いて行われる。
USBは、Universal Serial Busの略称である。
【0019】
撮影デバイス111および操作センサ112は、入出力インタフェース205に接続される。但し、撮影デバイス111および操作センサ112は、通信装置204に接続されてもよい。
【0020】
動作分析装置200は、映像受付部211と骨格抽出部212とタイミング検出部213と軌跡抽出部214とマッチング部215といった要素を備える。これらの要素はソフトウェアで実現される。
【0021】
補助記憶装置203には、映像受付部211と骨格抽出部212とタイミング検出部213と軌跡抽出部214とマッチング部215としてコンピュータを機能させるための動作分析プログラムが記憶されている。動作分析プログラムは、メモリ202にロードされて、プロセッサ201によって実行される。
補助記憶装置203には、さらに、OSが記憶されている。OSの少なくとも一部は、メモリ202にロードされて、プロセッサ201によって実行される。
プロセッサ201は、OSを実行しながら、動作分析プログラムを実行する。
OSは、Operating Systemの略称である。
【0022】
動作分析プログラムの入出力データは記憶部290に記憶される。例えば、記憶部290には、参照骨格データ291が予め記憶される。参照骨格データ291について後述する。
メモリ202は記憶部290として機能する。但し、補助記憶装置203、プロセッサ201内のレジスタおよびプロセッサ201内のキャッシュメモリなどの記憶装置が、メモリ202の代わりに、又は、メモリ202と共に、記憶部290として機能してもよい。
【0023】
動作分析装置200は、プロセッサ201を代替する複数のプロセッサを備えてもよい。
【0024】
動作分析プログラムは、光ディスクまたはフラッシュメモリ等の不揮発性の記録媒体にコンピュータ読み取り可能に記録(格納)することができる。
【0025】
図3に、動作分析装置200の要素同士の関係を示す。
動作分析装置200は、対象者101の動作を分析し、動作ラベル292を出力する。
動作ラベル292は、対象者101の動作を識別する。
【0026】
***動作の説明***
動作分析システム100の動作の手順は動作分析方法に相当する。また、動作分析装置200の動作の手順は動作分析プログラムによる処理の手順に相当する。
【0027】
動作分析方法の前提を説明する。
対象者101は、段取り動作を挟んで複数の対象動作を行う。
対象者101の具体例は、作業者である。
対象動作の具体例は、作業者によって行われる作業である。例えば、複数の対象動作は同じ種類の作業であり、同じ種類の作業が複数回行われる。
段取り動作は、対象動作の間に行われる動作である。例えば、段取り動作は、作業のための準備である。
【0028】
対象者101は、対象動作ごとに、対象動作の開始時に開始操作を行い、対象動作の終了時に終了操作を行う。
具体的には、開始操作および終了操作はデバイスの操作である。操作されるデバイスを操作デバイスと称する。操作デバイスは、対象動作が行われる場所に配置される。
例えば、操作デバイスは、ボタンデバイス、バーコードリーダまたは電動道具である。電動道具は、対象動作のために使用される電動式の道具である。例えば、電動道具は電動ドライバである。
例えば、開始操作および終了操作は、ボタンの押下、バーコードの読み取り、または、電動道具のスイッチの切り替えである。
【0029】
図4に基づいて、動作分析方法を説明する。
ステップS110において、撮影デバイス111は、対象者101を撮影し、映像を出力する。出力された映像は、動作分析装置200に入力される。
映像受付部211は、入力された映像を受け付ける。
映像は、撮影によって得られるデータであり、各撮影時刻のフレームを含む。
フレームは、画像に相当するデータである。
【0030】
ステップS120において、骨格抽出部212は、撮影時刻ごとに、フレームに映った対象者101の骨格情報を抽出する。
抽出方法は従来技術であり、フレームに対する画像解析によって骨格情報が得られる。
骨格情報は、対象者101の骨格を示す。具体的には、骨格情報は、対象者101の各関節の位置を示す。骨格情報によって、対象者101の姿勢が特定される。
抽出された骨格情報を、対象骨格情報と称する。
【0031】
ステップS130において、タイミング検出部213は、対象動作ごとに、開始タイミングと終了タイミングの少なくとも一方を検出する。
【0032】
開始タイミングおよび終了タイミングは、以下のように検出される。
操作センサ112は、開始操作または終了操作が行われるごとに、行われた操作を検出して検出信号を出力する。検出信号は操作の種類によって異なる。出力された検出信号は、動作分析装置200に入力される。
タイミング検出部213は、各検出信号を受け付け、各検出信号が受け付けられたタイミングを開始タイミングまたは終了タイミングとして検出する。
つまり、タイミング検出部213は、開始操作が検出されたタイミングを開始タイミングとして検出する。また、タイミング検出部213は、終了操作が検出されたタイミングを終了タイミングとして検出する。
【0033】
ステップS140において、軌跡抽出部214は、各対象動作の開始タイミングと各対象動作の終了タイミングの少なくとも一方に基づいて、対象時刻ごとに軌跡情報を抽出する。
対象時刻は、各対象動作が行われた時間帯(動作時間帯)の各時刻である。各対象動作の動作時間帯は、開始タイミングから終了タイミングまでの時間帯である。各動作時間帯は軌跡抽出部214によって算出される。
軌跡情報は、対象時刻を含み段取り時刻を含まない時間帯(対象時間帯)の2つ以上の対象骨格情報である。
対象時間帯は、動作時間帯の一部である。
【0034】
図5に基づいて、ステップS140を説明する。
ステップS141からステップS146は、対象時刻ごとに実行される。
【0035】
ステップS141において、軌跡抽出部214は、対象時間帯を算出する。
具体的には、軌跡抽出部214は、対象時刻を含み基準時間長を有する時間帯を算出する。算出される時間帯が対象時間帯である。
基準時間長は、予め決められた時間長である。
対象時刻がtであり、基準時間長が3tであると仮定する。例えば、算出される対象時間帯は、時刻(t-1)から時刻(t+1)までの時間帯である。
【0036】
ステップS142からステップS145により、対象時間帯は調整される。
【0037】
ステップS142において、軌跡抽出部214は、対象時間帯の先頭時刻が対象時刻の対象動作の開始タイミングよりも早い時刻であるか判定する。
対象時間帯の先頭時刻が対象時刻の対象動作の開始タイミングよりも早い時刻である場合、処理はステップS143に進む。
対象時間帯の先頭時刻が対象時刻の対象動作の開始タイミングよりも早い時刻でない場合、処理はステップS144に進む。
【0038】
ステップS143において、軌跡抽出部214は、対象時間帯の先頭時刻を対象時刻の対象動作の開始タイミングに変更する。これにより、対象時間帯が短縮される。
【0039】
ステップS144において、軌跡抽出部214は、対象時間帯の最終時刻が対象時刻の対象動作の終了タイミングよりも遅い時刻であるか判定する。
対象時間帯の終了時刻が対象時刻の対象動作の終了タイミングよりも遅い時刻である場合、処理はステップS145に進む。
対象時間帯の終了時刻が対象時刻の対象動作の終了タイミングよりも遅い時刻でない場合、処理はステップS146に進む。
【0040】
ステップS145において、軌跡抽出部214は、対象時間帯の終了時刻を対象時刻の対象動作の終了タイミングに変更する。これにより、対象時間帯が短縮される。
【0041】
ステップS141からステップS145により、対象時間帯が決定される。
【0042】
ステップS146において、軌跡抽出部214は、ステップS120で得られた対象骨格情報から、対象時間帯の各時刻の対象骨格情報を抽出する。
これにより、2つ以上の対象骨格情報が抽出される。抽出された2つ以上の対象骨格情報が軌跡情報を構成する。
【0043】
図4に戻り、ステップS150を説明する。
ステップS150において、マッチング部215は、対象時刻ごとに、対象動作の動作ラベルを参照骨格データ291から取得する。
【0044】
図6に基づいて、参照骨格データ291を説明する。
参照骨格データ291は、参照骨格情報の時系列と、時系列の各時刻の動作ラベルと、を示す。
参照骨格情報の時系列は、各対象動作における骨格情報の時系列である。段取り動作における骨格情報の時系列は参照骨格データ291に含まれない。なお、対象動作には、開始操作後の動作および終了操作時の動作が含まれる。
例えば、参照骨格情報の時系列は、対象動作を行う動作者を撮影して得られる映像から抽出される。参照骨格情報の抽出方法は対象骨格情報の抽出方法と同様である。動作者が対象動作を2回以上行い、抽出される2回分の時系列の平均が参照骨格データ291に設定されてもよい。
参照骨格データ291は、複数の映像を学習して得られる学習済みモデルであってもよい。
【0045】
図4に戻り、ステップS150を具体的に説明する。
対象時刻ごとに、以下のような処理が行われる。対象時刻の軌跡情報を、対象軌跡情報と称する。
まず、マッチング部215は、参照骨格データ291を検索する。参照骨格データ291の検索は、例えば、特許文献1に開示された方法で実施される。
これにより、マッチング部215は、対象軌跡情報に合致する参照軌跡情報を参照骨格データ291から見つける。参照軌跡情報は2つ以上の参照骨格情報である。参照軌跡情報に対応する時間帯を、参照時間帯と称する。参照時間帯の時間長は、対象時間帯の時間長と同じである。
そして、マッチング部215は、見つかった参照軌跡情報に対応する参照時間帯から基準時刻を選択し、選択された基準時刻の動作ラベルを参照骨格データ291から取得する。取得される動作ラベルが、対象動作の動作ラベルとなる。参照時間帯における基準時刻の位置は、対象時間帯における対象時刻の位置と同じである。
【0046】
図6に基づいて、ステップS150の具体例を説明する。
対象時間帯が連続する3つの時刻であり、対象軌跡情報が対象時間帯の3つの対象骨格情報であると仮定する。この場合、参照時間帯は連続する3つの時刻であり、参照軌跡情報は参照時間帯の3つの参照骨格情報である。そして、マッチング部215は、各時刻を基準時刻とする参照軌跡情報ごとに、対象軌跡情報を参照軌跡情報と比較する。
対象時間帯における対象時刻が2番目の時刻であると仮定する。この場合、参照時間帯の基準時刻は参照時間帯における2番目の時刻である。また、対象軌跡情報と合致した参照軌跡情報が、骨格情報[t-1]、骨格情報[t]および骨格情報[t+1]であると仮定する。この場合、参照時間帯の基準時刻は時刻tである。そして、マッチング部215は、時刻tの動作ラベル「動作A」を取得する。
【0047】
図4に戻り、ステップS150の説明を続ける。
マッチング部215は、対象時刻ごとに、対象動作の動作ラベルを出力する。
出力の具体例は、ディスプレイへの表示および記憶媒体への記憶である。
【0048】
***実施の形態1の効果***
図7および図8に基づいて、実施の形態1の効果を説明する。
図7は、従来技術における認識精度を示す。
従来技術では、分析対象作業と段取り作業の区切りが不明であるため、軌跡情報(連続する2つ以上の骨格情報)のマッチングを正しく行うことができず、分析対象作業の誤認識が発生する。具体的には、軌跡情報の時間長が固定であるため、段取り作業の時間帯に近い時刻で認識精度が低下する。
図8は、実施の形態1における認識精度を示す。
実施の形態1では、分析対象作業と段取り作業の区切りに応じて軌跡情報の時間長が変更される。つまり、軌跡抽出範囲とマッチング範囲が変更されてマッチングが実施される。具体的には、分析対象作業のサイクルの開始タイミングと分析対象作業のサイクルの終了タイミングに基づいて、軌跡抽出範囲とマッチング範囲が変更される。そのため、段取り作業の時間帯に近い時刻でも認識精度が低下しない。
実施の形態1は、段取り作業時の骨格情報を含まずに軌跡情報のマッチングを行うことができる。これにより、分析対象作業が認識されないケースおよび分析対象作業が誤認識されるケースが発生しなくなる。
【0049】
実施の形態2.
対象動作中の特定タイミングに応じて対象時間帯を変更する形態について、主に実施の形態1と異なる点を図9から図11に基づいて説明する。
【0050】
***構成の説明***
動作分析システム100の構成は、実施の形態1における構成と同じである。
【0051】
***動作の説明***
動作分析方法の前提を説明する。
対象者101は、対象動作中の特定タイミングで特定操作を行う。具体的には、特定操作はデバイスの操作である。例えば、特定操作は、ボタンの押下、バーコードの読み取り、または、動作道具のスイッチの切り替えである。
【0052】
図9に基づいて、動作分析方法を説明する。
ステップS210において、映像受付部211は映像を受け付ける。
ステップS210は、実施の形態1のステップS110と同じである。
【0053】
ステップS220において、骨格抽出部212は、撮影時刻ごとに象骨格情報を抽出する。
ステップS220は、実施の形態1のステップS120と同じである。
【0054】
ステップS230において、タイミング検出部213は、対象動作ごとに、開始タイミングと終了タイミングの少なくとも一方を検出する。
さらに、タイミング検出部213は、対象動作中の特定タイミングを検出する。特定タイミングの検出方法は、開始タイミングおよび終了タイミングの検出方法と同じである。つまり、タイミング検出部213は、特定操作が検出されたタイミングを特定タイミングとして検出する。
【0055】
ステップS240において、軌跡抽出部214は、各対象動作の開始タイミングと各対象動作の終了タイミングの少なくとも一方と特定タイミングに基づいて、対象時刻ごとに軌跡情報を抽出する。
【0056】
図10に基づいて、ステップS240を説明する。
ステップS241からステップS246は、対象時刻ごとに実行される。
【0057】
ステップS241において、軌跡抽出部214は、対象時間帯を算出する。
ステップS241は、実施の形態1のステップS141と同じである。
【0058】
ステップS242において、軌跡抽出部214は、対象時間帯の先頭時刻が対象時刻の対象動作の開始タイミングまたは対象動作の途中の特定タイミングよりも早い時刻であるか判定する。
対象時間帯の先頭時刻が対象時刻の対象動作の開始タイミングまたは対象動作の途中の特定タイミングよりも早い時刻である場合、処理はステップS243に進む。
対象時間帯の先頭時刻が対象時刻の対象動作の開始タイミングおよび対象動作の途中の特定タイミングよりも早い時刻でない場合、処理はステップS244に進む。
【0059】
ステップS243において、軌跡抽出部214は、対象時間帯の先頭時刻を対象時刻の対象動作の開始タイミングまたは対象動作の途中の特定タイミングに変更する。
対象時間帯の先頭時刻が対象時刻の対象動作の開始タイミングよりも早い時刻である場合、対象時間帯の先頭時刻は開始タイミングに変更される。
対象時間帯の先頭時刻が対象動作の途中の特定タイミングよりも早い時刻である場合、対象時間帯の先頭時刻は特定タイミングに変更される。
【0060】
ステップS244において、軌跡抽出部214は、対象時間帯の最終時刻が対象時刻の対象動作の終了タイミングまたは対象動作の途中の特定タイミングよりも遅い時刻であるか判定する。
対象時間帯の終了時刻が対象時刻の対象動作の終了タイミングまたは対象動作の途中の特定タイミングよりも遅い時刻である場合、処理はステップS245に進む。
対象時間帯の終了時刻が対象時刻の対象動作の終了タイミングおよび対象動作の途中の特定タイミングよりも遅い時刻でない場合、処理はステップS246に進む。
【0061】
ステップS245において、軌跡抽出部214は、対象時間帯の最終時刻を対象時刻の対象動作の終了タイミングまたは対象動作の途中の特定タイミングに変更する。
対象時間帯の最終時刻が対象時刻の対象動作の終了タイミングよりも遅い時刻である場合、対象時間帯の最終時刻は終了タイミングに変更される。
対象時間帯の最終時刻が対象動作の途中の特定タイミングよりも遅い時刻である場合、対象時間帯の最終時刻は特定タイミングに変更される。
【0062】
ステップS246において、軌跡抽出部214は、対象時間帯の各時刻の対象骨格情報を抽出する。
ステップS246は、実施の形態1のステップS146と同じである。
【0063】
***実施の形態2の効果***
図11は、実施の形態2における認識精度を示す。
実施の形態2では、対象動作中の特定タイミングに応じて軌跡抽出範囲およびマッチング範囲が変更される。
これにより、特定タイミングの前後の時刻における認識精度が向上する。
【0064】
実施の形態3.
操作センサ112を用いずに各種タイミングを検出する形態について、主に実施の形態2と異なる点を図12から図14に基づいて説明する。
【0065】
***構成の説明***
図12に基づいて、動作分析システム100の構成を説明する。
動作分析システム100は、操作センサ112を備えなくてよい。
【0066】
図13に、動作分析装置200の要素同士の関係を示す。
タイミング検出部213は、映像受付部211で受け付けられた映像を使用する。
【0067】
***動作の説明***
図14に基づいて、動作分析方法を説明する。ステップS330が特徴である。
ステップS210、ステップS220、ステップS240およびステップS250は、実施の形態2で説明した通りである。
【0068】
ステップS330において、タイミング検出部213は、映像から開始タイミングと終了タイミングの少なくとも一方で出現する特徴が映ったフレームを探す。
開始タイミングで出現する特徴が映ったフレームが見つかった場合、タイミング検出部213は、見つかったフレームの撮影時刻を開始タイミングとして検出する。
終了タイミングで出現する特徴が映ったフレームが見つかった場合、タイミング検出部213は、見つかったフレームの撮影時刻を終了タイミングとして検出する。
また、タイミング検出部213は、映像から特定タイミングで出現する特徴が映ったフレームを探し、見つかったフレームの撮影時刻を特定タイミングとして検出する。
【0069】
各タイミングにおいてフレーム内に出現する特徴は予め定義される。
例えば、フレーム内に出現する特徴は、指定エリアに製造物が置かれたときの様子または手が指定エリアを通過したときの様子を表す。
【0070】
***実施の形態3の効果***
実施の形態3により、操作センサ112を用意しなくても、各種タイミングを検出することができる。
【0071】
***実施の形態の補足***
図15に基づいて、動作分析装置200のハードウェア構成を説明する。
動作分析装置200は処理回路209を備える。
処理回路209は、映像受付部211と骨格抽出部212とタイミング検出部213と軌跡抽出部214とマッチング部215を実現するハードウェアである。
処理回路209は、専用のハードウェアであってもよいし、メモリ202に格納されるプログラムを実行するプロセッサ201であってもよい。
【0072】
処理回路209が専用のハードウェアである場合、処理回路209は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC、FPGAまたはこれらの組み合わせである。
ASICは、Application Specific Integrated Circuitの略称である。
FPGAは、Field Programmable Gate Arrayの略称である。
【0073】
動作分析装置200は、処理回路209を代替する複数の処理回路を備えてもよい。
【0074】
処理回路209において、一部の機能が専用のハードウェアで実現されて、残りの機能がソフトウェアまたはファームウェアで実現されてもよい。
【0075】
このように、動作分析装置200の機能はハードウェア、ソフトウェア、ファームウェアまたはこれらの組み合わせで実現することができる。
【0076】
各実施の形態は、好ましい形態の例示であり、本開示の技術的範囲を制限することを意図するものではない。各実施の形態は、部分的に実施してもよいし、他の形態と組み合わせて実施してもよい。フローチャート等を用いて説明した手順は、適宜に変更してもよい。
【0077】
動作分析装置200の各要素の「部」は、「処理」、「工程」、「回路」または「サーキットリ」と読み替えてもよい。
【符号の説明】
【0078】
100 動作分析システム、101 対象者、111 撮影デバイス、112 操作センサ、200 動作分析装置、201 プロセッサ、202 メモリ、203 補助記憶装置、204 通信装置、205 入出力インタフェース、209 処理回路、211 映像受付部、212 骨格抽出部、213 タイミング検出部、214 軌跡抽出部、215 マッチング部、290 記憶部、291 参照骨格データ、292 動作ラベル。
【要約】
動作分析装置(200)は、対象者(101)を撮影することによって得られる映像を受け付け、各フレームに映った前記対象者の対象骨格情報を抽出し、対象動作ごとに開始タイミングと終了タイミングを検出し、各開始タイミングと各終了タイミングに基づいて対象時刻ごとに前記対象時刻を含み段取り動作の時刻を含まない対象時間帯の2つ以上の前記対象骨格情報を軌跡情報として抽出し、前記対象時刻ごとに参照骨格データから前記軌跡情報の前記2つ以上の前記対象骨格情報と合致する2つ以上の参照骨格情報を見つけ、見つかった前記2つ以上の前記参照骨格情報に対応する時間帯の基準時刻の動作ラベルを取得する。
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14
図15