(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2022055077
(43)【公開日】2022-04-07
(54)【発明の名称】安全管理プログラム、および、安全管理装置
(51)【国際特許分類】
G06T 7/20 20170101AFI20220331BHJP
G08B 31/00 20060101ALI20220331BHJP
G08B 25/00 20060101ALI20220331BHJP
G08B 21/24 20060101ALI20220331BHJP
G06Q 50/04 20120101ALI20220331BHJP
【FI】
G06T7/20 300Z
G08B31/00 B
G08B25/00 510M
G08B21/24
G06Q50/04
【審査請求】未請求
【請求項の数】8
【出願形態】OL
(21)【出願番号】P 2020162450
(22)【出願日】2020-09-28
(71)【出願人】
【識別番号】000153443
【氏名又は名称】株式会社 日立産業制御ソリューションズ
(74)【代理人】
【識別番号】110002365
【氏名又は名称】特許業務法人サンネクスト国際特許事務所
(72)【発明者】
【氏名】木戸 眞一郎
(72)【発明者】
【氏名】川俣 昌之
(72)【発明者】
【氏名】内山 和幸
【テーマコード(参考)】
5C086
5C087
5L049
5L096
【Fターム(参考)】
5C086AA22
5C086BA30
5C086CA28
5C086CB36
5C086DA33
5C086DA40
5C086FA06
5C086FA17
5C086FA18
5C087AA02
5C087AA09
5C087AA10
5C087AA25
5C087AA37
5C087DD03
5C087DD49
5C087EE18
5C087EE20
5C087FF01
5C087FF02
5C087FF04
5C087GG08
5C087GG14
5C087GG66
5C087GG70
5C087GG83
5C087GG84
5L049CC04
5L096AA06
5L096BA02
5L096CA04
5L096DA03
5L096HA04
5L096HA09
5L096HA11
5L096KA04
5L096KA15
(57)【要約】
【課題】製造現場以外の労働場所における労働災害の発生を効果的に抑制する。
【解決手段】安全管理装置10は、画像データ18を入力とした画像認識により、画像データ18に写る人物の関節位置を示す特徴点データを含む骨格データ19を取得する骨格抽出部11と、骨格抽出部11が取得した骨格データ19、および画像データ18に基づいて、人物の行動における危険予兆または危険動作を検出する分析部13と、分析部13が検出した危険予兆に対する警告または危険動作に対する通報を行う出力部14とを有する。
【選択図】
図1
【特許請求の範囲】
【請求項1】
画像データを入力とした画像認識により、前記画像データに写る人物の関節位置を示す特徴点データを含む骨格データを取得する骨格抽出部、
前記骨格抽出部が抽出した前記骨格データに基づいて、前記人物の行動における危険予兆または危険動作を検出する分析部、
前記分析部が検出した前記危険予兆に対する警告または前記危険動作に対する通報を行う出力部、としてコンピュータを機能させるための
安全管理プログラム。
【請求項2】
前記コンピュータは、前記骨格データごとに異常姿勢ラベルが対応づけられている異常姿勢モデルが記憶された記憶部を有し、
前記分析部は、前記骨格抽出部が取得した前記骨格データと、前記異常姿勢モデルとに基づいて、前記人物の異常姿勢を推定し、前記異常姿勢の推定結果に基づいて前記危険予兆または前記危険動作を検出する
請求項1に記載の安全管理プログラム。
【請求項3】
前記骨格データごとに入力された正解ラベルである前記異常姿勢ラベルを学習データとして前記異常姿勢モデルを機械学習する異常姿勢学習部、としてコンピュータを機能させ、
前記分析部は、さらに、前記異常姿勢モデルを用いた機械学習の推論により、前記骨格データを入力として前記人物の異常姿勢を推定する
請求項2に記載の安全管理プログラム。
【請求項4】
前記コンピュータは、前記骨格データ及び前記画像データの一部として定義された部分画像ごとに把持物ラベルが対応づけられている把持物検出モデルが記憶された記憶部を有し、
前記分析部は、前記骨格抽出部が取得した前記骨格データと、入力された前記画像データと、前記把持物検出モデルとに基づいて、前記人物が把持している把持物を検出し、前記把持物の検出結果に基づいて前記危険予兆を検出する
請求項1に記載の安全管理プログラム。
【請求項5】
前記骨格データ及び前記部分画像ごとに入力された正解ラベルである前記把持物ラベルを学習データとして前記把持物検出モデルを機械学習する把持物学習部、としてコンピュータを機能させ、
前記分析部は、さらに、前記把持物検出モデルを用いた機械学習の推論により、前記骨格データ及び前記画像データを入力として前記把持物を検出する
請求項4に記載の安全管理プログラム。
【請求項6】
前記分析部は、前記骨格抽出部が取得した前記骨格データに基づいて、前記人物の移動分析を行い、前記移動分析の結果に基づいて前記危険予兆を検出する
請求項1に記載の安全管理プログラム。
【請求項7】
前記骨格抽出部は、前記人物の関節位置を示す前記特徴点データと、前記人物の関節角度を表す角度データとを含む前記骨格データを取得する
請求項1に記載の安全管理プログラム。
【請求項8】
画像データを入力とした画像認識により、前記画像データに写る人物の関節位置を示す特徴点データを含む骨格データを取得する骨格抽出部と、
前記骨格抽出部が抽出した前記骨格データに基づいて、前記人物の行動における危険予兆または危険動作を検出する分析部と、
前記分析部が検出した前記危険予兆に対する警告または前記危険動作に対する通報を行う出力部と、を有することを特徴とする
安全管理装置。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、安全管理プログラム、および、安全管理装置に関する。
【背景技術】
【0002】
工場や事業所では、製造現場のみならず、製造現場以外の労働場所(オフィスフロア内、歩道、廊下、階段等)でも労働災害が発生することがある。これらの労働場所では、労働者の何気ない行動(ポケット手、歩きスマホ、両手が荷物で塞がった状態での移動、手すりを使わない階段昇降、階段飛ばし、異常速度移動、通行方向誤り等)がきっかけとなって労働災害が発生する。そこで従来は、このような労働災害を未然に防止するため、安全対策ポスターなどを用いた労働者への啓蒙活動が行われている。
【0003】
また、生産効率の向上や製品の品質向上を目的に、作業者が行う作業内容を正確に把握し管理することが求められている。例えば特許文献1では、解析者の目視での解析の代わりに、コンピュータの画像認識により、自動的に作業を解析する手法が提案されている。
【先行技術文献】
【特許文献】
【0004】
【発明の概要】
【発明が解決しようとする課題】
【0005】
上記のような製造現場以外の労働場所での労働災害に対し、ポスターなどの啓蒙活動の効果は限定的である。また、特許文献1の技術は、製造現場での作業内容の管理を目的としたものであるため、製造現場以外の労働場所に適用して労働災害の抑止効果を得られるものではない。
【0006】
そこで、本発明は、製造現場以外の労働場所における労働災害の発生を効果的に抑制することを主な目的とする。
【課題を解決するための手段】
【0007】
本発明による安全管理プログラムは、画像データを入力とした画像認識により、前記画像データに写る人物の関節位置を示す特徴点データを含む骨格データを取得する骨格抽出部、前記骨格抽出部が抽出した前記骨格データに基づいて、前記人物の行動における危険予兆または危険動作を検出する分析部、前記分析部が検出した前記危険予兆に対する警告または前記危険動作に対する通報を行う出力部、としてコンピュータを機能させるためのものである。
本発明による安全管理装置は、画像データを入力とした画像認識により、前記画像データに写る人物の関節位置を示す特徴点データを含む骨格データを取得する骨格抽出部と、前記骨格抽出部が抽出した前記骨格データに基づいて、前記人物の行動における危険予兆または危険動作を検出する分析部と、前記分析部が検出した前記危険予兆に対する警告または前記危険動作に対する通報を行う出力部と、を有するものである。
【発明の効果】
【0008】
本発明によれば、製造現場以外の労働場所における労働災害の発生を効果的に抑制することができる。
【図面の簡単な説明】
【0009】
【
図2】安全管理システムの運用を示すシーケンス図である。
【
図3】画像データおよび骨格データの一例を示す図である。
【
図4】角度データを含む骨格データの例を示す図である。
【
図5】異常姿勢に関する処理部を示す構成図である。
【
図6】把持物検出に関する処理部を示す構成図である。
【
図7】移動分析に関する処理部を示す構成図である。
【
図8】安全管理に関する処理部とその処理結果を出力する出力部とを示す構成図である。
【
図9】異常姿勢の学習を示すフローチャートである。
【
図10】把持物の学習を示すフローチャートである。
【
図11】分析部のメイン処理を示すフローチャートである。
【
図12】異常姿勢推定のサブルーチン処理を示すフローチャートである。
【
図13】
図12の処理に用いられる骨格データの例を示す図である。
【
図14】把持物検出のサブルーチン処理を示すフローチャートである。
【
図15】
図14の処理に用いられる画像データ及び骨格データの例を示す図である。
【
図16】
図14の処理に用いられる画像データ及び骨格データの例を示す図である。
【
図17】
図14の処理に用いられる画像データ及び骨格データの例を示す図である。
【
図18】
図14の処理に用いられる画像データ及び骨格データの例を示す図である。
【
図19】移動分析のサブルーチン処理を示すフローチャートである。
【
図20】
図19の処理に用いられる骨格データの例を示す図である。
【
図22】出力部の処理を示すフローチャートである。
【発明を実施するための形態】
【0010】
以下、本発明の一実施形態について、図面を参照して詳細に説明する。
【0011】
図1は、安全管理システムの構成図である。安全管理システムは、製造現場以外の労働場所(オフィスフロア、歩道、廊下、階段等)における労働者の行動や状態を監視し、必要に応じて労働者への警告や安全管理部門への通報を行うことにより、労働災害の発生を未然に防止するシステムである。
図1の安全管理システムは、安全管理装置10を中心として、ビデオカメラ31と、ビデオレコーダ32と、入出力装置33と、モニタ41と、記憶装置42と、アラート機器43と、通報装置44とを含めて構成される。これらの安全管理システムの各装置は、それぞれ、イーサネット(登録商標)などのネットワーク、USBやその他、ハードウェア・インタフェースとして使用可能な適切なもので接続される。また、安全管理システムの各装置は、単独の装置として構成されていてもよいし、安全管理装置10などの計算機システム上のソフトウェアを実行することで実現してもよい。
【0012】
ビデオカメラ31は、安全管理システムが監視対象とする労働者を被写体として撮影する。ビデオレコーダ32には、ビデオカメラ31で撮影した映像が記録されている。入出力装置33は、グラフィックディスプレイ、マウスを備え、会社の安全管理担当者などの利用者に情報表示したり、利用者の指示を受け付けたりする。モニタ41と、記憶装置42と、アラート機器43と、通報装置44とは、それぞれ安全管理装置10の分析結果の出力先である。
【0013】
安全管理装置10は、例えば、オンプレサーバ、もしくはクラウドサーバのような計算機システムである。安全管理装置10は、CPU(Central Processing Unit)と、メモリと、ハードディスクなどの記憶手段(記憶部)と、ネットワークインタフェースとを有するコンピュータとして構成される。このコンピュータは、CPUが、メモリ上に読み込んだプログラム(アプリケーションや、その略のアプリとも呼ばれる)を実行することにより、各処理部により構成される制御部(制御手段)を動作させる。安全管理装置10は、計算機システム上のプログラムを実行することで骨格抽出部11と、モデル生成部12と、分析部13と、出力部14とを構成する。これらの構成された各処理部は、ハードディスクなどの不揮発メモリ上に蓄えられるデータ(モデルデータ22、推定結果データ23)にアクセスする。
【0014】
骨格抽出部11は、ビデオカメラ31またはビデオレコーダ32から入力された画像データ18をもとに、骨格データ19を抽出する。モデル生成部12は、学習用の画像データ18a(画像データ18)と、学習用の骨格データ19a(骨格データ19)とを入力として、モデルデータ22を生成して不揮発メモリに保存する。モデルデータ22には、ユーザから明示的に定義された定義データと、ユーザから入力されたラベルデータを用いた学習結果である学習済データとが存在する。なお、モデル生成部12は、分析対象の労働者の行動に対してモデルデータ22を基本的には1度作成すればよいが、精度を向上させるために、すでに作成したモデルデータ22を更新(改良)してもよい。
【0015】
分析部13は、分析用の画像データ18b(画像データ18)と、分析用の骨格データ19b(骨格データ19)とを入力として、モデルデータ22を用いた推論処理により、推定結果データ23を求める。この推定結果データ23には、労働者の行動において労働災害の原因となり得る危険予兆の情報や、労働災害の発生またはその前触れを示す危険動作の情報を表す安全管理データが含まれる。出力部14は、推定結果データ23を外部装置(モニタ41と、記憶装置42と、アラート機器43と、通報装置44)に出力する。ここで、アラート機器43は、危険予兆が発生したときに音声や画像で直接本人に注意を促すものである。通報装置44は、危険動作が発生したときに安全管理部門や守衛本部等への通報を行うものである。
【0016】
図2は、安全管理システムの運用を示すシーケンス図である。深層学習などの機械学習段階において、ビデオカメラ31から画像取得(S101)された画像データ18、または、ビデオカメラ31から画像取得(S102)されてビデオレコーダ32が記録画像32Dに画像記録(S103)した画像データ18は、安全管理装置10に入力される。安全管理装置10は、利用者から入出力装置33を介して受けた学習指示(S111)により、学習処理(S112)を実行し、その結果をモデルデータ22として出力する。
【0017】
分析段階において、ビデオカメラ31から画像取得(S121)された画像データ18、または、ビデオカメラ31から画像取得(S122)されてビデオレコーダ32が記録画像32Eに画像記録(S123)した画像データ18は、安全管理装置10に入力される。安全管理装置10は、利用者から入出力装置33を介して受けた分析指示(S131)により、モデルデータ22に基づく分析処理(S132)を実行し、その結果を推定結果データ23として出力する。なお、安全管理装置10は、画像取得(S121)された画像データ18に対して分析処理(S132)をリアルタイムに実行してもよい。また、安全管理装置10は、利用者からの分析指示(S131)の操作を介さずに、分析処理(S132)を自動実行してもよい。そして、安全管理装置10の出力部14は、出力処理(S141)によって推定結果データ23に基づく信号をアラート機器43や通報装置44に出力し、労働者の行動における危険予兆に対する警告や危険動作に対する通報を行う。
【0018】
図3(a)及び(b)は、画像データ18および骨格データ19の一例を示す図である。画像データ18は、人物が写っている動画像において、人物ごと、画像フレームごとに1つ生成される。
骨格データ19は、骨格抽出部11が画像データ18から人物の骨格情報を抽出した結果である。骨格データ19は、人物の特徴点(関節点など)ごとに、1つずつ番号が割り当てられる(図では番号=0~9)。骨格抽出部11は、OpenPose(URL=https://github.com/CMU-Perceptual-Computing-Lab/openpose)などの公知の骨格情報取得技術を使用することができる。
【0019】
骨格データ19を構成する特徴点データは図示しないテーブルに記憶される。このテーブルは、特徴点の番号ごとに、特徴点の(x,y)座標で構成される。特徴点の名称として、例えば、人物の首、左肩、左肘などの特徴点に対して別々の番号が割り当てられる。特徴点の名称や座標は、骨格抽出部11が画像データ18からそれぞれの関節点を画像認識で認識した結果である。
【0020】
なお、各特徴点の座標に加えて、主要な関節に対応する特徴点については、その関節の角度を示す角度データを骨格データ19に含めてもよい。具体的には、例えば
図4に示すように、特徴点1~3、5、6、8~10、12及び13のそれぞれに対して、これらの各特徴点を介してつながっている2本の骨格同士の角度を求めることにより、骨格データ19に含める角度データを定義することができる。このようにすれば、骨格データ19を用いて人物の骨格形状をより精度良く表すことができる。
【0021】
以下、
図5~
図8を参照して、モデル生成部12及び分析部13の処理を説明する。ここで、安全管理装置10は、労働者の行動における危険予兆や危険動作を検出するために、以下の(1)~(3)に示す中間的な分析結果をもとに、(4)の最終的な分析結果を求め、これに基づいて労働者の安全管理を行うものとする。
(1)「異常姿勢」の分析とは、画像データ18に写っている労働者が安全に歩行等を行っているかを分析することである。(
図5)
(2)「把持物」の検出とは、画像データ18に写っている労働者がどのような物を持っているか検出することである。(
図6)
(3)「移動」の分析とは、画像データ18に写っている労働者の移動速度や移動状態を分析することである。(
図7)
(4)「安全管理」の分析とは、「異常姿勢、把持物、移動」それぞれの分析結果の組み合わせに基づき、画像データ18に写っている労働者の行動において、労働災害の原因となり得る危険予兆や、労働災害の発生またはその前触れを示す危険動作の有無を分析することである。(
図8)
【0022】
図5は異常姿勢に関する処理部を示す構成図である。モデル生成部12の異常姿勢学習部12aは、骨格抽出部11が抽出した骨格データ19ごとに、入出力装置33を介してユーザに定義された異常姿勢ラベル(教師データ又は正解ラベル)を対応づけることで、転倒などによる労働者の異常な姿勢を表す異常姿勢モデルを定義する。そして、この異常姿勢モデルをモデルデータ22の異常姿勢モデル22aとして保存する。分析部13の異常姿勢推定部13aは、保存された異常姿勢モデル22aと骨格データ19とを使用して、画像データ18に写っている労働者が異常姿勢をとっているか否かを分析し、その分析結果を推定結果データ23の異常姿勢データ23aとして出力する。
【0023】
図6は把持物検出に関する処理部を示す構成図である。モデル生成部12の把持物学習部12bは、骨格データ19及び画像データ18の一部として定義された部分画像ごとに、入出力装置33を介してユーザに定義された把持物ラベルを対応づけることで、労働者が手に何らかの物体を把持しているか否か、把持している場合はその物体が何であるかを表す把持物検出モデルを定義する。そして、この把持物検出モデルをモデルデータ22の把持物検出モデル22bとして保存する。分析部13の把持物検出部13bは、保存された把持物検出モデル22bと、画像データ18及び骨格データ19とを使用して、画像データ18に写っている労働者が何を把持しているか否かを分析し、その分析結果を推定結果データ23の把持物検出データ23bとして出力する。
【0024】
図7は移動分析に関する処理部を示す構成図である。分析部13の移動分析部13cは、骨格データ19を使用して、画像データ18に写っている労働者の移動を分析し、その分析結果を推定結果データ23の移動分析データ23cとして出力する。
【0025】
図8は、安全管理に関する処理部と、その処理結果を出力する出力部14とを示す構成図である。異常姿勢モデル22aと、把持物検出モデル22bと、安全管理モデル22dとを含むモデルデータ22、および、異常姿勢データ23aと、把持物検出データ23bと、移動分析データ23cと、安全管理データ23dとを含む推定結果データ23は、それぞれ安全管理装置10の記憶部20に格納される。
図8に示すように、安全管理推定部13dは、
図5~
図8で説明した処理によってそれぞれ得られた中間的な分析結果の推定結果データ23、すなわち異常姿勢データ23a、把持物検出データ23b、移動分析データ23cを出力し、これらを組み合わせて労働者の行動における危険予兆や危険動作に対する最終的な分析結果を表す安全管理データ23dを決定する。これにより、例えば中間的な分析結果の3種類のうちの1種類が誤った推定をしても、残り2種類が正しく推定されることで、最終的な精度が向上する。
【0026】
安全管理推定部13dによる安全管理データ23dの決定処理には、異常姿勢モデル22aと、把持物検出モデル22bとの組み合わせから、安全管理データ23dを求めるためのモデルデータ22である安全管理モデル22dが必要となる。そこで、安全管理学習部12dは、異常姿勢モデル22aと把持物検出モデル22bの組み合わせに対するユーザからの正解ラベルを受け付ける。安全管理学習部12dは、これらの中間的な分析結果の組み合わせと正解ラベルとを学習し、その学習結果をモデルデータ22の安全管理モデル22dとして保存する。このように、機械学習の手法を使った学習・推論を組み合わせることで、より短い時間で、効率的に分析できる。
【0027】
出力部14の出力演算部14pは、HTML出力部14a、CSV出力部14b及びソケット通信部14cを用いて、以下に例示する演算処理を実行することにより、安全管理データ23dを出力先で要求されるデータ形式にそれぞれ変換して出力する。HTML出力部14aは、安全管理データ23dをHTML形式(ブラウザ表示)に変換し、モニタ41に出力する。CSV出力部14bは、安全管理データ23dをCSV形式のファイルに変換し、記憶装置42に出力して記憶させる。ソケット通信部14cは、安全管理データ23dに基づく信号をソケット通信でアラート機器43や通報装置44に出力することで、これらを用いた労働者への警告や安全管理部門への通報を行う。
【0028】
図9は、異常姿勢学習部12aによる異常姿勢の学習を示すフローチャートである。初めに、ステップS301では、学習対象として利用者に選択された画像データ18の取得を行う。画像データ18の最小単位は1フレームである。
【0029】
ステップS302では、ステップS301で選択された画像データ18に対して骨格抽出部11が抽出した骨格データ19の取得を行う。そして、画像データ18と骨格データ19とを表示し、ユーザに対して異常姿勢ラベルの入力を促す。
【0030】
ステップS303では、ユーザから入力された異常姿勢ラベル(教師データ又は正解ラベル)があるか否かを判断する。異常姿勢ラベルがあると判断した場合に処理はステップS304に進む。異常姿勢ラベルが無いと判断した場合に処理はステップS301に戻る。すなわち、異常姿勢ラベル(教師データ又は正解ラベル)は、入力されたデータに対しての正解データであり、これをモデルに反映させ、より正確な判定モデルを生成するものである。
【0031】
ステップS304では、ステップS302で取得した骨格データ19と入力された異常姿勢ラベルとの組み合わせを、学習データとして保持する。
【0032】
ステップS305では、未処理フレームがあるか否かを判断する。未処理フレームがあると判断した場合に処理はステップS301に戻る。未処理フレームが無いと判断した場合に処理はステップS306に進む。
【0033】
ステップS306では、ステップS304で保持した学習データを用いて機械学習を行う。機械学習は、深層学習を含む、ニューラルネットワークやアンサンブル学習など、公知の技術を用いることができる。
【0034】
ステップS307では、ステップS306の学習結果を異常姿勢モデル22aとして保存する。これにより、骨格データ19ごとに入力された正解ラベルである異常姿勢ラベルを学習データとして、異常姿勢学習部12aにより異常姿勢モデル22aを機械学習することができる。また、ここで保存された異常姿勢モデル22aを使用することにより、異常姿勢推定部13aは異常姿勢の分析を実施できるようになる。
【0035】
図10は、把持物学習部12bによる把持物の学習を示すフローチャートである。初めに、ステップS311では、学習対象として利用者に選択された画像データ18の取得を行う。画像データ18の最小単位は1フレームである。
【0036】
ステップS312では、ステップS311で選択された画像データ18に対して骨格抽出部11が抽出した骨格データ19の取得を行う。そして、画像データ18と骨格データ19とを表示し、ユーザに対して把持物ラベルの入力を促す。
【0037】
ステップS313では、ユーザから入力された把持物ラベル(教師データ又は正解ラベル)があるか否かを判断する。把持物ラベルがあると判断した場合に処理はステップS314に進む。把持物ラベルが無いと判断した場合に処理はステップS311に戻る。すなわち、把持物ラベル(教師データ又は正解ラベル)は、入力されたデータに対しての正解データであり、これをモデルに反映させ、より正確な判定モデルを生成するものである。
【0038】
ステップS314では、ステップS311で選択された画像データ18から、把持物に関連する部分画像データを抽出する。ここでは、ステップS302で取得した骨格データ19に基づいて、画像データ18に写っている労働者の手(手首)とその周囲を含む所定領域の画像データを、把持物に関連する部分画像データとして抽出する。これにより、画像データ18の一部として定義された部分画像データを抽出することができる。
【0039】
ステップS315では、ステップS312で取得した骨格データ19と、ステップS314で抽出した部分画像データと、入力された把持物ラベルとの組み合わせを、学習データとして保持する。
【0040】
ステップS316では、未処理フレームがあるか否かを判断する。未処理フレームがあると判断した場合に処理はステップS311に戻る。未処理フレームが無いと判断した場合に処理はステップS317に進む。
【0041】
ステップS317では、ステップS315で保持した学習データを用いて、
図9のステップS306と同様に機械学習を行う。
【0042】
ステップS318では、ステップS317の学習結果を把持物検出モデル22bとして保存する。これにより、骨格データ19及び部分画像ごとに入力された正解ラベルである把持物ラベルを学習データとして、把持物学習部12bにより把持物検出モデル22bを機械学習することができる。また、ここで保存された把持物検出モデル22bを使用することにより、把持物検出部13bは把持物の検出を実施できるようになる。
【0043】
以下、
図11~
図21を参照して、分析部13の事例を説明する。
図11は、分析部13のメイン処理を示すフローチャートである。
【0044】
初めに、ステップS11ではモデルデータ22の取得を行う。
【0045】
ステップS12では、分析用の画像データ18の取得を行う。ここでは、フレーム単位で画像データ18を取得する。
【0046】
ステップS13では、骨格抽出部11を用いて、ステップS12で取得した画像データ18から骨格データ19の抽出を行う。
【0047】
ステップS14では、異常姿勢モデル22aがあるか否かを判断する。異常姿勢モデル22aがあると判断した場合に処理はステップS15に進む。異常姿勢モデル22aが無いと判断した場合に処理はステップS16に進む。
【0048】
ステップS15では、後述する
図12に示す異常姿勢推定の一連の処理が異常姿勢推定部13aによって実行される。そして、処理がステップS16に進む。これにより、画像データ18に写っている労働者に異常姿勢がある場合は、その異常姿勢が検出される。
【0049】
ステップS16では、ステップS12で取得した画像データ18において、ステップS15の異常姿勢推定を未処理の人物が存在するか否かを判断する。未処理人物があると判断した場合に処理はステップS14に戻る。未処理人物が無いと判断した場合に処理はステップS17に進む。
【0050】
ステップS17では、把持物検出モデル22bがあるか否かを判断する。把持物検出モデル22bがあると判断した場合に処理はステップS18に進む。把持物検出モデル22bが無いと判断した場合に処理はステップS19に進む。
【0051】
ステップS18では、把持物検出部13bにより、後述する
図14に示す把持物検出の一連の処理が実行される。そして、処理がステップS19に進む。これにより、画像データ18に写っている労働者が何らかの物体を把持しているか否かが判定され、把持している場合はその物体が検出される。
【0052】
ステップS19では、ステップS12で取得した画像データ18において、ステップS18の把持物検出を未処理の人物が存在するか否かを判断する。未処理人物があると判断した場合に処理はステップS17に戻る。未処理人物が無いと判断した場合に処理はステップS20に進む。
【0053】
ステップS20では、移動分析部13cにより、後述する
図19に示す移動分析の一連の処理が行われる。これにより、画像データ18に写っている労働者の移動状態の分析(階段の段飛ばし、走る等)が行われる。
【0054】
ステップS21では、ステップS12で取得した画像データ18において、ステップS20の移動分析を未処理の人物が存在するか否かを判断する。未処理人物があると判断した場合に処理はステップS20に戻る。未処理人物が無いと判断した場合に処理はステップS22に進む。
【0055】
ステップS22では、画像データ18の中に未処理フレームがあるか否かを判断する。未処理フレームがあると判断した場合に処理はステップS12に戻る。未処理フレームが無いと判断した場合に処理はステップS23に進む。
【0056】
ステップS23では、安全管理推定部13dにより、ステップS15、S18、S20の各処理結果及び安全管理モデル22dに基づいて、労働者の行動における危険予兆や危険動作に関する安全管理推定を行う。このステップS23で行われる安全管理推定により、労働災害の原因となり得る危険予兆や、労働災害の発生またはその前触れを示す危険動作が検出される。
【0057】
図12は、
図11のステップS15で異常姿勢推定部13aにより実行される異常姿勢推定のサブルーチン処理を示すフローチャートである。初めに、ステップS151では、ステップS13で抽出された骨格データ19を、異常姿勢の推定対象とする骨格データとして取得する。
【0058】
ステップS152では、異常姿勢モデル22aから1レコード分(1つの異常姿勢)のモデルデータを取得する。
【0059】
ステップS153では、ステップS152で取得した異常姿勢モデル22aのモデルデータを用いて、異常姿勢の推定を実行する。ここでは、例えば異常姿勢モデル22aのモデルデータを用いた機械学習の推論により、ステップS151で取得した骨格データを入力として、労働者の異常姿勢を推定する。
【0060】
ステップS154では、ステップS153で行った異常姿勢の推定結果を異常姿勢データ23aとして出力する。ここで出力された異常姿勢データ23aは、推定結果データ23の一部として安全管理装置10に記録される。
【0061】
ステップS155では、異常姿勢モデル22aに未処理レコードがあるか否かを判断する。未処理レコードがあると判断した場合に処理はステップS152に戻る。この場合は、未処理レコードの中からいずれかのモデルデータがステップS152で選択された後、そのモデルデータを用いてステップS153、S154の処理が実行される。未処理レコードが無いと判断した場合に処理は終了する。
【0062】
図13は、
図12の処理に用いられる骨格データ19の例を示す図である。異常姿勢推定部13aは、例えば画像データ18cから抽出された骨格データ19cに対して、異常姿勢の一種である転倒と判断する。また、例えば画像データ18dから抽出された骨格データ19dに対して、異常姿勢の一種である転倒中と判断する。また、例えば画像データ18eから抽出された骨格データ19eに対して、異常姿勢の一種である座り込みと判断する。異常姿勢推定部13aが異常姿勢推定を行うことにより、これらの異常姿勢の推定結果が異常姿勢データ23aに記録される。
【0063】
図14は、
図11のステップS18で把持物検出部13bにより実行される把持物検出のサブルーチン処理を示すフローチャートである。初めに、ステップS181では、ステップS13で抽出された骨格データ19と、ステップS12で取得した画像データ18とを、把持物の検出対象とする骨格データ及び画像データとして取得する。
【0064】
ステップS182では、把持物検出モデル22bから1レコード分(1つの把持物)のモデルデータを取得する。
【0065】
ステップS183では、ステップS181で取得した骨格データにおいて、把持物の検出対象とする対象骨格が検出済みか否かを判断する。ここでは、例えば取得した骨格データが表す特徴点の中に、手(手首)に対応する特徴点が含まれているか否かを判断することで、対象骨格が検出済みか否かを判断する。対象骨格が検出済みと判断した場合に処理はステップS184に進む。対象骨格が検出済みでないと判断した場合はステップS187に進む。
【0066】
ステップS184では、ステップS181で取得した画像データにおける対象骨格周辺(手首の周辺)を切り出してズームする。なお、このズーム処理は把持物の検出精度を上げるために実施される処理であるため、ズーム処理を実施しなくても十分な検出精度が得られる場合にはステップS184の処理を省略してもよい。
【0067】
ステップS185では、ステップS182で取得した把持物検出モデル22bのモデルデータを用いて、ステップS184のズーム処理によって拡大された画像データに対する把持物の検出を実行する。ここでは、例えば把持物検出モデル22bのモデルデータを用いた機械学習の推論により、ステップS181で取得した骨格データ及び画像データを入力として、労働者の把持物を検出する。
【0068】
ステップS186では、ステップS185で行った把持物の検出結果を把持物検出データ23bとして出力する。ここで出力された把持物検出データ23bは、推定結果データ23の一部として安全管理装置10に記録される。
【0069】
ステップS187では、把持物検出モデル22bに未処理レコードがあるか否かを判断する。未処理レコードがあると判断した場合に処理はステップS182に戻る。この場合は、未処理レコードの中からいずれかのモデルデータがステップS182で選択された後、そのモデルデータを用いてステップS183~S186の処理が実行される。未処理レコードが無いと判断した場合に処理は終了する。
【0070】
図15~
図18は、
図14の処理に用いられる画像データ18及び骨格データ19の例を示す図である。
図15に示す画像データ18fには、手すりの領域181fが予め設定されている。把持物検出部13bは、例えば画像データ18fから抽出された骨格データ19fに対して、手(手首)に対応する特徴点191f、192fを特定し、これらの特徴点191f、192fの周囲の画像領域182f、183fを画像データ18fからそれぞれ抽出してズームする。そして、このズームした画像領域182f、183fにおいて手指184f、185fをそれぞれ検出し、手指184f、185fが手すり領域181f内にあるか否かを判断することで、画像データ18fに写っている労働者が手すりを把持しているか否かを判断する。
図15の例では、画像領域182fにおいて手指184fが手すり領域181f内にあるため、労働者が手すりを把持していることが認識される。なお、この場合に手指184fと反対側の手指185fは不把持としてカウントしない。
【0071】
一方、
図16に示す画像データ18gの場合、骨格データ19gのうち手(手首)に対応する特徴点191g、192gの周囲をズームした画像領域182g、183gにおいて、手指184g、185gはいずれも手すり領域181g内に存在しない。そのため、画像データ18gに写っている労働者は手すりを把持していないことが認識される。さらに、画像領域183gでは、手指185gの付近にスマートフォン186gが検出された。したがってこの場合、労働者は歩きスマホを行っていることが認識される。
【0072】
また、
図17に示す画像データ18hの場合、骨格データ19hのうち手(手首)に対応する特徴点191h、192hの周囲をズームした画像領域182h、183hのいずれにおいても手指が検出できなかった。そのため、画像データ18hに写っている労働者は手すりを把持しておらず、ポケット手を行っていると認識される。
【0073】
また、
図18に示す画像データ18iの場合、骨格データ19iのうち手(手首)に対応する特徴点191i、192iの周囲をズームすることで、箱状の物体181iが検出された。そのため、画像データ18iに写っている労働者は両手に荷物を持っていると判断される。
【0074】
図19は、
図11のステップS20で移動分析部13cにより実行される移動分析のサブルーチン処理を示すフローチャートである。初めに、ステップS201では、ステップS13で抽出された骨格データ19を取得する。
【0075】
ステップS202では、画像データ18から労働者の骨格を検出済みか否かを判断する。ここでは、ステップS201で骨格データ19を取得できた場合に、骨格を検出済みと判断してステップS203に進む。一方、ステップS201で骨格データ19を取得できなかった場合は、骨格を検出済みでないと判断して処理を終了する。
【0076】
ステップS203では、ステップS201で取得した骨格データ19の重心を算出する。ここでは、骨格データ19が表す各特徴点の座標値の重心を算出することで、骨格データ19の重心を算出することができる。
【0077】
ステップS204では、ステップS203で算出した重心から、画像データ18に写っている労働者の歩行位置を判定する。
【0078】
ステップS205では、過去の骨格データの読み出しを行う。ここでは、ステップS201で取得した骨格データ19よりも画像データ18の前のフレームで抽出された骨格データ19を、過去の骨格データとして読み出す。
【0079】
ステップS206では、ステップS204の歩行位置の判定結果と、ステップS201で取得した骨格データ19及びステップS205で読み出した過去の骨格データとを用いて、移動分析を実行する。この移動分析により、労働者の移動状態が正常であるか異常であるかが判断される。
【0080】
ステップS207では、ステップS206で行った移動分析の結果を移動分析データ23cとして出力する。ここで出力された移動分析データ23cは、推定結果データ23の一部として安全管理装置10に記録される。ステップS207の実行後に処理は終了する。
【0081】
図20は、
図19の処理に用いられる骨格データ19の例を示す図である。移動分析部13cは、例えば画像データ18jから抽出された骨格データ19jに対して、重心191jを算出する。この重心191は階段の右側に位置している。また、移動分析部13cは、現在と過去の骨格データ19jの比較結果から、画像データ18jに写っている労働者が階段を上っていると判断する。したがってこの場合、労働者の歩行方向は階段の進行方向と合致しており、正しい歩行を行っていると判断される。一方、画像データ18kから抽出された骨格データ19kに対して算出される重心191kは階段の左側に位置するので、画像データ18kに写っている労働者が階段を上っている場合には、労働者の歩行方向は階段の進行方向と合致しておらず、間違った歩行を行っていると判断される。
【0082】
図21は、ステップS206の移動分析方法の例を説明する図である。移動分析部13cは、分析対象の骨格データ19から算出された重心のY座標値と移動速度の関係を求め、予め設定された標準的な移動時のものと比較する。具体的には、例えば
図21(a)に示すように、標準的な移動時におけるY座標と移動速度の関係を示す標準曲線130と、分析対象の骨格データ19の重心のY座標と移動速度の関係を示す点131との偏差を算出する。その結果、偏差が所定の閾値より小さい場合は労働者の移動状態が正常であると判断し、反対に閾値より大きい場合は労働者の移動状態が階段走り等の異常状態にあると判断する。
【0083】
また、移動分析部13cは、分析対象の骨格データ19から算出された重心のY座標値と移動距離の関係を求め、予め設定された標準的な移動時のものと比較する。具体的には、例えば
図21(b)に示すように、標準的な移動時におけるY座標と移動距離の関係を示す標準曲線132と、分析対象の骨格データ19の重心のY座標と移動距離の関係を示す点133との偏差を算出する。その結果、偏差が所定の閾値より小さい場合は労働者の移動状態が正常であると判断し、反対に閾値より大きい場合は労働者の移動状態が階段走り等の異常状態にあると判断する。
【0084】
また、移動分析部13cは、分析対象の骨格データ19から算出された重心のY方向における移動速度の周波数成分を求め、最も強度が高い周波数成分が所定の周波数範囲内にあるか否かを判断する。その結果、最も強度が高い周波数成分が所定の周波数範囲内にある場合は労働者の移動状態が正常であると判断し、反対に周波数範囲内にない場合は労働者の移動状態が異常であると判断する。
図21(c)に示す例では、最も強度が高い周波数成分134が所定の周波数範囲135内に存在しないため、労働者の移動状態が階段飛ばしや階段飛び降り等の異常状態にあると判断される。
【0085】
以下、
図22~
図25を参照して、アラート機器43を用いた警告や通報装置44を用いた通報の事例を説明する。
図22は、出力部14の処理を示すフローチャートである。
【0086】
初めに、ステップS51では安全管理データ23dの取得を行う。
【0087】
ステップS52では、ステップS51で取得した安全管理データ23dに基づいて、危険予兆の有無を判定する。安全管理データ23dにおいて労働災害の原因となり得る危険予兆の情報、例えばポケット手、歩きスマホ、両手が荷物で塞がった状態での移動、手すりを使わない階段昇降、階段飛ばし、異常速度移動、通行方向誤り等の情報が記録されている場合は、危険予兆有りと判断してステップS53に進む。一方、こうした危険予兆の情報が安全管理データ23dに記録されていない場合は、危険予兆なしと判断してステップS54に進む。
【0088】
ステップS53では、ソケット通信部14cを用いて所定の信号をアラート機器43に出力する。この信号に応じてアラート機器43が所定の画面表示や音声出力を行うことにより、危険予兆に対する労働者への警告が行われる。
【0089】
ステップS54では、ステップS51で取得した安全管理データ23dに基づいて、危険動作の有無を判定する。安全管理データ23dにおいて労働災害の発生またはその前触れを示す危険動作の情報、例えば転倒等の情報が記録されている場合は、危険動作有りと判断してステップS55に進む。一方、こうした危険動作の情報が安全管理データ23dに記録されていない場合は、危険動作なしと判断して処理を終了する。
【0090】
ステップS55では、ソケット通信部14cを用いて所定の信号を通報装置44に出力する。この信号に応じて通報装置44が所定の画面表示や音声出力を行うことにより、危険動作に対する安全管理部門や守衛本部等への通報が行われる。
【0091】
なお、ステップS55における通報装置44への信号出力は、所定の猶予期間を経過した後に行うようにしてもよい。
図23は、通報までの猶予期間を説明する図である。出力部14は、例えば
図23(a)に示すように、安全管理データ23dに含まれる転倒検出の情報に基づき、ステップS54で危険動作有りと判断された状態が所定の猶予期間(例えば60秒)継続した場合に、転倒を通知する通報を行う。一方、
図23(b)に示すように、ステップS54で危険動作有りと判断されてから60秒以内に正常姿勢が検出され、これに応じてステップS54で危険動作なしと判断された場合は、転倒を通知する通報を行わない。このようにすれば、労働者が自力で容易に復帰可能な危険動作が一時的に検出された場合に、不要な通報が行われるのを防止することができる。
【0092】
図24は、通報装置44において表示される通報画面の例を示す図である。
図24に示す通報画面150は、危険動作が検出された場所を示す画像151と、危険動作検出時に撮影された画像152とを含んでいる。これらの画像から、通報画面150を見た安全管理者や守衛は、A棟北側階段1-2Fで転倒事故が発生したことを確認できる。
【0093】
図25は、通報装置44から出力される通報メッセージの例を示す図である。
図25に示す通報メッセージ161は、検出された危険動作の内容とURLが記載されている。通報装置44は、このような通報メッセージ161を電子メール等により送信する。通報メッセージ161を見た安全管理者や守衛は、その内容から転倒事故の発生状況を確認できる。また、安全管理者や守衛が通報メッセージ161内のURLを選択すると、例えば
図24の通報画面が表示される。これにより、転倒事故の詳細を確認することができる。
【0094】
以上説明した本発明の実施形態によれば、以下の作用効果を奏する。
【0095】
(1)安全管理装置10は、画像データ18を入力とした画像認識により、画像データ18に写る人物の関節位置を示す特徴点データを含む骨格データ19を取得する骨格抽出部11と、骨格抽出部11が抽出した骨格データ19に基づいて、人物の行動における危険予兆または危険動作を検出する分析部13と、分析部13が検出した危険予兆に対する警告または危険動作に対する通報を行う出力部14とを有する。安全管理装置10において実行されるプログラムは、これら各部としてコンピュータを機能させる。このようにしたので、造現場以外の労働場所における労働災害の発生を効果的に抑制することができる。
【0096】
(2)安全管理装置10としてのコンピュータは、骨格データ19ごとに異常姿勢ラベルが対応づけられている異常姿勢モデル22aが記憶された記憶部20を有する。分析部13は、骨格抽出部11が取得した骨格データ19と、異常姿勢モデル22aとに基づいて、人物の異常姿勢を推定し(ステップS15)、その異常姿勢の推定結果に基づいて危険予兆または危険動作を検出する(ステップS23)。このようにしたので、労働者が転倒等の異常姿勢を行ったときに、その異常姿勢を危険予兆や危険動作として確実に検出することができる。
【0097】
(3)安全管理装置10において実行されるプログラムは、骨格データ19ごとに入力された正解ラベルである異常姿勢ラベルを学習データとして異常姿勢モデル22aを機械学習する異常姿勢学習部12a、としてコンピュータを機能させる。分析部13は、さらに、異常姿勢モデル22aを用いた機械学習の推論により、骨格データ19を入力として人物の異常姿勢を推定する。このようにしたので、骨格データ19から異常姿勢を正確に推定することができる。
【0098】
(4)安全管理装置10としてのコンピュータは、骨格データ19及び画像データ18の一部として定義された部分画像ごとに把持物ラベルが対応づけられている把持物検出モデル22bが記憶された記憶部20を有する。分析部13は、骨格抽出部11が取得した骨格データ19と、入力された画像データ18と、把持物検出モデル22bとに基づいて、人物が把持している把持物を検出し(ステップS18)、その把持物の検出結果に基づいて危険予兆を検出する(ステップS23)。このようにしたので、労働者がポケット手、歩きスマホ、両手が荷物で塞がった状態での移動、手すりを使わない階段昇降等の行動をしたときに、これらの行動を危険予兆として確実に検出することができる。
【0099】
(5)安全管理装置10において実行されるプログラムは、骨格データ19及び部分画像ごとに入力された正解ラベルである把持物ラベルを学習データとして把持物検出モデル22bを機械学習する把持物学習部12b、としてコンピュータを機能させる。分析部13は、さらに、把持物検出モデル22bを用いた機械学習の推論により、骨格データ19及び画像データ18を入力として把持物を検出する。このようにしたので、骨格データ19及び画像データ18から把持物の有無を正確に判断し、さらに把持物がある場合はそれが何であるかを正確に判断することができる。
【0100】
(6)分析部13は、骨格抽出部11が取得した骨格データ19に基づいて、人物の移動分析を行い(ステップS20)、その移動分析の結果に基づいて危険予兆を検出する(ステップS23)。このようにしたので、労働者が階段飛ばし、異常速度移動、通行方向誤り等の行動をしたときに、これらの行動を危険予兆として確実に検出することができる。
【0101】
(7)骨格抽出部11は、例えば
図4に示すように、画像データ18に写る人物の関節位置を示す特徴点データと、その人物の関節角度を表す角度データと含む骨格データ19を取得してもよい。このようにすれば、人物の骨格形状をより精度良く表した骨格データ19を用いて、危険予兆や危険動作の検出をさらに正確に行うことができる。
【0102】
なお、本発明は前記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、前記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。
【0103】
また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。
【0104】
また、各実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。また、上記の各構成、機能、処理部、処理手段などは、それらの一部または全部を、例えば集積回路で設計するなどによりハードウェアで実現してもよい。
【0105】
また、前記の各構成、機能などは、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。
【0106】
各機能を実現するプログラム、テーブル、ファイルなどの情報は、メモリや、ハードディスク、SSD(Solid State Drive)などの記録装置、または、IC(Integrated Circuit)カード、SDカード、DVD(Digital Versatile Disc)などの記録媒体に置くことができる。
【0107】
また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際にはほとんど全ての構成が相互に接続されていると考えてもよい。
【符号の説明】
【0108】
10 安全管理装置
11 骨格抽出部
12 モデル生成部
13 分析部
14 出力部
18 画像データ
19 骨格データ
20 記憶部
22 モデルデータ
23 推定結果データ
31 ビデオカメラ
32 ビデオレコーダ
33 入出力装置
41 モニタ
42 記憶装置
43 アラート機器
44 通報装置