(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2022186188
(43)【公開日】2022-12-15
(54)【発明の名称】監視装置及び監視方法
(51)【国際特許分類】
H04N 5/232 20060101AFI20221208BHJP
G06T 7/20 20170101ALI20221208BHJP
G06T 7/00 20170101ALI20221208BHJP
【FI】
H04N5/232 190
G06T7/20 300A
G06T7/00 350C
【審査請求】未請求
【請求項の数】16
【出願形態】OL
(21)【出願番号】P 2021094280
(22)【出願日】2021-06-04
(71)【出願人】
【識別番号】000003997
【氏名又は名称】日産自動車株式会社
(74)【代理人】
【識別番号】110000486
【氏名又は名称】弁理士法人とこしえ特許事務所
(72)【発明者】
【氏名】岡本 雅己
【テーマコード(参考)】
5C122
5L096
【Fターム(参考)】
5C122DA11
5C122DA12
5C122EA06
5C122FH11
5C122FH14
5C122FK23
5C122FK35
5C122GD12
5C122HA35
5C122HA48
5C122HB01
5L096CA04
5L096DA03
5L096HA11
5L096KA04
(57)【要約】
【課題】操作者の行動が適切である否かの判定精度を高めた監視装置及び監視方法を提供する。
【解決手段】操作を行う操作者の腕に取り付けられた撮像装置11を用いて、前記操作者の手の一部又は全部と、前記操作者により操作される操作対象とを含む画像を取得する画像取得部21と、前記画像取得部21により取得された前記画像を用いて、前記操作が所定操作であるか否かを判定する操作判定部23と、前記操作判定部23の判定結果を出力する判定結果出力部25と、を備える、監視装置14。
【選択図】
図1
【特許請求の範囲】
【請求項1】
操作を行う操作者の腕に取り付けられた撮像装置を用いて、前記操作者の手の一部又は全部と、前記操作者により操作される操作対象とを含む画像を取得する画像取得部と、
前記画像取得部により取得された前記画像を用いて、前記操作が所定操作であるか否かを判定する操作判定部と、
前記操作判定部の判定結果を出力する判定結果出力部と、を備える、監視装置。
【請求項2】
前記画像取得部は、前記操作者の掌の一部又は全部と、前記操作対象とを含む画像を取得する、請求項1に記載の監視装置。
【請求項3】
前記撮像装置は、前記操作者の上腕の掌側に取り付けるための取付け部を有する、請求項1又は2に記載の監視装置。
【請求項4】
前記画像取得部にて取得された前記画像から、前記操作を特定する操作特定部を備え、
前記操作判定部は、前記画像取得部にて取得された一連の前記画像から、前記操作特定部にて特定された前記操作が前記所定操作であるか否かを判定する、請求項1~3のいずれか一項に記載の監視装置。
【請求項5】
前記操作特定部は、前記画像取得部にて取得された時系列の前記画像、及び前記操作者の周囲の状態を検出する検出装置の検出結果を用いて前記操作を特定する、請求項4に記載の監視装置。
【請求項6】
前記判定結果出力部は、前記操作判定部にて前記操作が前記所定操作ではないと判定された場合に、表示装置に、前記操作が適切ではないことを出力する、請求項4又は5に記載の監視装置。
【請求項7】
前記操作特定部は、前記画像取得部により取得された前記画像から前記操作を特定するように学習された第1学習済みモデルを用いて前記操作を特定する、請求項4~6のいずれか一項に記載の監視装置。
【請求項8】
前記第1学習済みモデルは、前記画像取得部にて取得された前記画像、及び前記操作者の周囲の状態を検出する検出装置の検出結果のうち少なくとも一つを含む第1入力データを第1入力層に入力すると、特定された前記操作を含む第1出力データが第1出力層から出力される第1ニューラルネットワークであり、
前記操作特定部は、過去に前記第1ニューラルネットワークに入力した第1入力データ、及び過去に前記第1ニューラルネットワークから出力された第1出力データを第1教師データとして前記第1ニューラルネットワークを学習させる第1機械学習部を備え、前記第1機械学習部により前記第1ニューラルネットワークを学習させる、請求項7に記載の監視装置。
【請求項9】
前記操作特定部にて前記操作が前記所定操作であると判定された場合に、前記所定操作が所定手順で実行されたか否かを判定する操作手順判定部を備え、
前記判定結果出力部は、前記操作手順判定部の判定結果を出力する、請求項4~8のいずれか一項に記載の監視装置。
【請求項10】
前記操作手順判定部は、前記画像取得部にて取得された時系列の前記画像を用いて、前記所定操作が前記所定手順で行われたか否かを判定する、請求項9に記載の監視装置。
【請求項11】
前記判定結果出力部は、前記操作手順判定部にて前記所定操作が前記所定手順で実行されなかったと判定された場合に、表示装置に、前記操作が適切ではないことを出力する、請求項9又は10に記載の監視装置。
【請求項12】
前記操作手順判定部は、前記画像取得部にて取得された時系列の前記画像、及び前記操作者の周囲の状態を検出する検出装置の検出結果を用いて、前記所定操作が前記所定手順で行われたか否かを判定するように学習された第2学習済みモデルを用いて、前記所定操作が前記所定手順で行われたか否かを判定する、請求項9~11のいずれか一項に記載の監視装置。
【請求項13】
前記第2学習済みモデルは、前記画像取得部にて取得された前記画像、及び前記操作者の周囲の状態を検出する検出装置の検出結果を含む第2入力データを第2入力層に入力すると、前記所定操作が前記所定手順で行われたか否かの判定結果を含む第2出力データが第2出力層から出力される第2ニューラルネットワークであり、
前記操作手順判定部は、過去に前記第2ニューラルネットワークに入力した第2入力データ、及び過去に前記第2ニューラルネットワークから出力された第2出力データを第2教師データとして前記第2ニューラルネットワークを学習させる第2機械学習部を備え、前記第2機械学習部により前記第2ニューラルネットワークを学習させる、請求項12に記載の監視装置。
【請求項14】
前記操作判定部は、
前記画像取得部にて取得した前記画像から、前記操作者の前記手の動きを取得し、
取得した前記動きが、所定の動きに該当するか否かを判定し、
前記動きが所定の動きに該当すると判定した場合は、前記手の前記動きが所定の動きであると判定された時から所定時間前の時間から、前記手の前記動きが所定の動きであると判定された時から所定時間後の時間までの間においてのみ、前記操作が前記所定操作であるか否かを判定する、請求項1~13のいずれか一項に記載の監視装置。
【請求項15】
前記動きが所定の動きに該当しないと判定された場合に、前記画像取得部は、取得する時系列の前記画像のフレームレートを下げる、請求項14に記載の監視装置。
【請求項16】
プロセッサを用いて操作を行う操作者を監視する監視方法において、
前記プロセッサは、
前記操作者の腕に取り付けられた撮像装置から、前記操作者の手の一部又は全部と、前記操作者により操作される操作対象とを含む画像を取得し、
取得された前記画像を用いて、前記操作が所定操作であるか否かを判定し、
前記操作が前記所定操作であるか否かの判定結果を出力する、監視方法。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、所定の操作を行う操作者を監視するための装置及び方法に関するものである。
【背景技術】
【0002】
操作盤に配置された操作用品の操作を、操作盤における操作用品の座標と、オペレーター(以下、「操作者」とも言う。)によって操作用品が操作された時間とを関連付けて検出し、操作盤におけるオペレーターの視線の座標を、視線を検出した時間と関連付けて検出し、操作盤におけるオペレーターの操作位置の座標を示す画像を、画像を取得した時間と関連付けて取得し、オペレーターによって操作用品が操作された時に、オペレーターの視線と操作位置の座標が操作用品の座標にあったか否かを判定することで、オペレーターが、よそ見などをせずに、適切に行動したか否かを判定する方法が知られている(特許文献1)。
【先行技術文献】
【特許文献】
【0003】
【発明の概要】
【発明が解決しようとする課題】
【0004】
しかしながら、上記従来技術では、操作者の身体や操作用品が障害物となり、操作者の操作位置をカメラで検出できない場合には、操作者の行動が適切であったか否かを判定することができないため、判定精度が低下するという問題がある。
【0005】
本発明が解決しようとする課題は、操作者の行動が適切である否かの判定精度を高めた監視装置及び監視方法を提供することである。
【課題を解決するための手段】
【0006】
本発明は、操作を行う操作者の腕に取り付けられた撮像装置で、前記操作者の手の一部又は全部と、前記操作者により操作される操作対象とを含む画像を取得し、前記画像取得部により取得された前記画像を用いて、前記操作が所定操作であるか否かを判定することで上記課題を解決する。
【発明の効果】
【0007】
本発明によれば、操作者の行動の判定に適した画像を取得し、操作者の行動の判定精度を高めることができる。
【図面の簡単な説明】
【0008】
【
図1】本発明に係る監視装置を含む監視システムの実施形態の一つを示すブロック図である。
【
図2】
図1に示す撮像装置11、検出装置12、及び表示装置13の位置関係の一例を示す操作者の腕の側面図である。
【
図3】
図1の操作特定部にて用いられる学習済みモデルの一例を示す説明図である。
【
図5】
図1の操作手順判定部にて用いられる学習済みモデルの一例を示す説明図である。
【
図6】
図1の監視システムにおける情報処理の手順の一例を示すフローチャートである。
【発明を実施するための形態】
【0009】
以下、本発明に係る監視装置及び監視方法の実施形態を図面に基づいて説明する。
【0010】
[監視システム]
図1は、本発明に係る監視システム1を示すブロック図である。監視システム1は、ある操作対象に対してある操作を行う操作者の操作を監視する装置であり、たとえば、車両の組立て工場において、組立て作業に従事する作業員が、予め決められた手順に従って工具を操作したか否かを監視する場合、車両の販売店(以下、「ディーラー」とも言う。)において、車両の整備に従事する整備士が、マニュアルにて定められた手順に従って整備を行ったか否かを監視する場合などに用いることができる。監視システム1により操作を監視される操作者は特に限定されず、工場の作業員、ディーラーの整備士などが挙げられる。
【0011】
図1に示すように、監視システム1は、撮像装置11、検出装置12、表示装置13、及び監視装置14を備える。監視システム1を構成する機器は、有線又は無線LANなどの公知の手段により、互いにデータの授受が可能な状態で接続されている。撮像装置11、検出装置12、及び表示装置13の数は、それぞれ、少なくとも1以上であれば特に限定されない。また、撮像装置11、検出装置12、及び表示装置13は、監視装置14と共に設けられている必要はなく、監視装置14から離れた場所に設置されていてもよい。たとえば、撮像装置11、検出装置12、及び表示装置13を、組立て工場の組立てラインの近くに設置し、監視装置14を、組立てラインから離れた中央制御室、又は組立て工場から離れた遠隔地のサーバーに設けてもよい。
【0012】
撮像装置11は、周囲の対象物の画像データを取得するための装置であり、たとえば、CCDなどの撮像素子を備えるカメラ、超音波カメラ、赤外線カメラなどのカメラである。対象物には、操作者に加えて、操作者の周囲に存在する物体が含まれる。対象物としては、たとえば、作業員の周囲に配置されたスイッチやタッチパネル、作業員が組立てているパーツや使用している工具、ディーラーの整備士が整備する車両など挙げられる。また、撮像装置11は、操作者の腕に取り付けられており、これにより、操作者が操作対象を操作する画像を確実に取得することができる。撮像装置11は、操作者の腕に取り付けるための取付け部を有し、たとえば、面ファスナーや粘着性のパッドを用いて、操作者の上腕の掌側に取り付けることができるようになっている。
【0013】
検出装置12は、操作者の状況、及び操作者の周囲の状態を検出するための装置であり、あらゆるセンサーが含まれる。センサーとしては、たとえば、操作者の筋電位を測定する筋電計、操作者の周囲の音を音声データとして取得するマイクロフォン、操作者の身体の動作を検出するために操作者に取付けられた加速度計、操作者の周囲の温度を計測する温度計などが挙げられる。筋電計が備える電極は、針電極、表面電極、ワイヤー電極のいずれであってもよい。筋電計は、たとえば、粘着性のパッド又は面ファスナーにより、操作者の身体、特に、上腕及び/又は前腕を含む腕に取り付けられ、取り付けられた操作者の身体と接する部分の筋電位を測定する。
【0014】
マイクロフォンには、スタンドマイク、接話型マイク、ガンマイクなどが含まれ、無指向性であってもよく、指向性を有していてもよい。また、通信方式は、有線及び無線のいずれでもよい。マイクロフォンは、操作者の声及び操作者の周囲の人の声に加えて、操作者の動作に起因する音を取得する。ユーザーの動作に起因する音としては、作業員が操作したスイッチから発生する音、作業員がタッチパネルに触れた時にスピーカーから発生する音、作業員が複数のパーツを嵌合した時に発生する、パーツ同士がかみ合った音、ディーラーの整備士が使用する工具の作動音などが挙げられる。マイクロフォンは、組立て工場の組立てライン、作業台、及び作業員が使用する道具など、操作者の周囲の音を検出することができる位置に設置される。
【0015】
加速度計は特に限定されないが、操作者の身体、特に、上腕及び/又は前腕を含む腕に取付けることができる大きさのものが好ましく、たとえば、MEMS(Micro Electro Mechanical Systems)を用いた小型の加速度計を用いることができる。温度計も特に限定されず、接触式の温度計であっても、赤外線を用いた非接触式の温度計であってもよい。監視装置14は、所定の時間間隔で、これらのセンサーから検出結果を取得する。
【0016】
表示装置13は、監視装置14にて監視された操作を操作者及び/又は監視者に通知するための装置である。監視者は、操作者の近くにいる必要はなく、工場の中央制御室や、工場から離れた遠隔地にいてもよい。表示装置13は、たとえば、液晶ディスプレイ、プロジェクターなどであり、スピーカーを備えていてもよい。表示装置13は、たとえば、組立て工場の作業員の作業場所など、操作者の近くであって、操作者に必要な情報を通知することができる位置、及び操作者から離れた場所にいる監視者に必要な情報を通知することができる位置などに設置される。また、表示装置13は、ウェアラブル端末として操作者に取付けられていてもよい。さらに、撮像装置11、検出装置12、表示装置13、及び監視装置14を一つのウェアラブル端末に統合し、操作者に取付けてもよい。
【0017】
撮像装置11、検出装置12、及び表示装置13の位置関係の一例を
図2に示す。
図2では、取り付け部11aを用いて、操作者の前腕部A1に撮像装置11が取り付けられており、操作者の上腕部A2には、粘着性のパッドを用い検出装置12が取り付けられている。また、操作者の手Hには、操作対象Oを保持されている。ここで、撮像装置11の視角がVAで示される範囲であるとすると、撮像装置11は、操作者の手Hの一部と、操作対象Oとを含む画像を撮像することができる。撮像装置11にて撮像された画像データと、検出装置12の検出結果は、無線通信により監視装置14に送出される。また、
図2では、操作者の正面に表示装置13が設けられており、操作者は、表示装置13の表示を確認することができる。
【0018】
図1に戻り、監視装置14は、操作者が、ある操作を適切に実行したか否かを監視するための装置である。当該監視に用いる画像データ、及びセンサーの検出結果は、それぞれ、所定の時間間隔で、撮像装置11、及び検出装置12から取得される。監視装置14は、プロセッサ15を用いて、取得したデータの処理、操作が適切に実行されたか否かの判定、及び当該判定の結果の出力といった機能を実現する。プロセッサ15は、プログラムが格納されたROM(Read Only Memory)152と、ROM152に格納されたプログラムを実行することで、監視装置14として機能するための動作回路であるCPU(Central Processing Unit)151と、アクセス可能な記憶装置として機能するRAM(Random Access Memory)153とを備える。
【0019】
[操作監視部]
本実施形態の監視装置14で用いるプログラムは、取得したデータの処理、操作が適切に実行されたか否かの判定、及び当該判定の結果の出力などの機能を監視装置14にて実現するための機能ブロックである操作監視部2を含む。操作監視部2は、撮像装置11から画像データを取得し、検出装置12から検出結果を取得し、取得したデータに基づいてユーザーが実行する操作を特定し、特定した操作が所定の手順で適切に実行されたか否かを判定し、当該判定結果を出力する機能を有する。操作監視部2は、
図1に示すように、画像取得部21、操作特定部22、操作判定部23、操作手順判定部24、及び判定結果出力部25を備える。
図1には、各部を便宜的に抽出して示す。
【0020】
図1に示す監視装置14は上記の機能ブロックを全て備えるが、単一の監視装置14が全ての機能ブロックを備える必要はなく、上記の機能ブロックのうち一部のものを、監視システム1に含まれる他の機器、又は図示しない別の情報処理装置に設けてもよい。たとえば、
図1の監視システム1において、判定結果出力部25を表示装置13に設けてもよい。この場合には、表示装置13のCPU、ROM、及びRAMを用いて判定結果出力部25の機能が実行されることになる。
【0021】
また、各機能ブロックの処理の全てを単一の装置にて実行する必要はなく、データが授受できる状態で接続された複数の装置をまたいで、各機能ブロックの機能を実現してもよい。たとえば、
図1の監視システム1において、操作特定部22にて実行される処理のうち、一部の処理を撮像装置11にて実行し、残りの処理を監視装置14にて実行するようにしてもよい。この場合には、撮像装置11のCPU、ROM、及びRAMを用いて、操作特定部22の機能を実現するための処理の一部が行われることになる。また、ほかの例として、操作判定部23及び/又は操作手順判定部24にて実行される処理のうち、一部の処理を撮像装置11にて実行し、残りの処理を監視装置14にて実行するようにしてもよい。
【0022】
以下、操作監視部2の各機能ブロックが果たす機能について説明する。
【0023】
画像取得部21は、操作を行う操作者と、前記操作者により操作される操作対象とを含む画像を取得する機能を有する。特に、本実施形態の画像取得部21は、操作者の腕に取り付けられた撮像装置11から画像データを取得し、取得する画像データには、操作者の手Hの一部又は全部と、操作者により操作される操作対象Oとが含まれる。操作者の手Hは右手であっても左手であってもよく、手Hの少なくとも一部が含まれていればよいが、特に、操作者の掌の一部又は全部と、操作対象Oとが画像に含まれていると、より正確に操作を判定することができる。
【0024】
操作者が行う操作は特に限定されず、操作者が操作対象に対して何らかの入力を行うためのあらゆる操作が含まれる。具体的には、組立て工場の作業員が、タッチパネルに触れて組み立てラインの機器の表示を変更する操作、組立て工場の作業員が、センサーに接続されたカプラーと、電子制御装置(ECU)に接続されたカプラーとを嵌合する操作、組立て工場の作業員が、工具を用いてボルトを締めて、エンジンブロックにエキゾーストマニホールドを取り付ける操作、ディーラーの整備士が、エンジンにスパークプラグを嵌める操作、ディーラーの整備士が、トルクレンチを用いてボルトを締める操作などを挙げることができる。
【0025】
また、操作対象は特に限定されず、操作者が何らかの入力操作を行う対象となるあらゆる物体が含まれる。たとえば、ON/OFFを切り替えるスイッチ、タッチパネルのユーザーインターフェース、カプラーやエキゾーストマニホールドのようなパーツ、トルクレンチや電動ドライバーのような工具などが挙げられる。
【0026】
さらに、画像取得部21は、撮像装置11から取得する画像の品質を変更することができ、操作者が操作をしていない間など、後述する操作判定部23にて画像データの処理を行わない間は、取得する時系列の画像(動画)のフレームレートを低下させてもよい。たとえば、後述する操作判定部23にて、操作者の手の動きが所定の動きに該当しないと判定された場合には、取得する時系列の画像のフレームレートを、所定のフレームレート(たとえば60fps)より下げてもよい。所定のフレームレートは、監視装置14にて操作の監視が適切に実行できる範囲内で、適宜の値を設定することができる。これに対して、操作者が実際に操作を行っている間は、取得する時系列の画像のフレームレートを、所定のフレームレートより上げてもよい。
【0027】
操作特定部22は、画像取得部21にて取得された画像データから、操作者が実行する操作を特定する機能を有する。操作特定部22は、撮像装置11から取得した画像データについてパターンマッチングなどの解析を行い、画像データに含まれる対象物を分類する。次に、分類された対象物から操作者を選択し、画像データから抽出された操作者の手の部分に関するデータを取得する。これと同様に、分類された対象物から操作対象を選択し、画像データから抽出された操作対象に関するデータを取得する。そして、これらのデータから、操作者の手と操作対象との位置関係を認識し、認識した位置関係からユーザーの操作を特定する。
【0028】
操作者の手Hと操作対象Oとの位置関係と、操作者が実行しようとしている操作との対応関係は、操作ごとに予め求められており、たとえばデータベース16のようなデータベースに格納されている。操作特定部22は、必要に応じて、データベース16から位置関係と操作の対応関係を取得することができる。操作特定部22は、データベース16から取得した対応関係に基づき、画像取得部21にて取得された画像データから、操作者が実行しようとしている操作を特定する。
【0029】
一例として、画像取得部21により取得された画像データに、工場の組立てラインで作業している作業員が、左手にカプラーを持って、別のカプラーに右手を延ばしている状態が含まれていた場合について説明する。この場合には、操作特定部22は、データベース16から取得した、位置関係と操作の対応関係から、カプラーに延びた右手とカプラーとの位置関係に対応する操作を検索する。当該動作に対応する操作として、すでに嵌合された一対カプラーから一方のカプラーを抜取る操作と、センサーに接続されたカプラーと、電子制御装置に接続されたカプラーとを嵌合する操作とが該当したとすると、操作特定部22は、作業員が左手にカプラーを持っていることから、当該位置関係は、センサーに接続されたカプラーと、電子制御装置に接続されたカプラーとを嵌合する操作に対応すると特定する。
【0030】
また別の例として、画像取得部21により取得された画像データに、ディーラーの整備士が、左手にエンジンオイルを持って、エンジンルームに右手を延ばしている状態が含まれていた場合について説明する。この場合には、操作特定部22は、データベース16から取得した、位置関係と操作の対応関係から、エンジンルームに延びた右手と、エンジンルーム内の右手との位置関係に対応する操作を検索する。当該動作に対応する操作として、エンジンの冷却液を補充する操作と、エンジンオイルを補充する操作とが該当したとすると、操作特定部22は、作業員が左手にエンジンオイルを持っていることから、当該位置関係は、エンジンオイルを補充する操作に対応すると特定する。
【0031】
また、操作特定部22は、画像取得部21にて取得された画像として、動画のような時系列の画像を用いて操作を特定してもよい。操作特定部22は、所定の時間間隔で画像取得部21から画像データを取得し、画像データを解析する。このように、所定の時間間隔を有する時系列の画像を用いることで、より正確に操作を特定することができる。当該時間間隔は、CPU151の計算能力に応じて適宜の間隔を設定することができる。これに代えて又はこれに加えて、操作特定部22は、検出装置12の検出結果を用いて操作を特定してもよい。たとえば、操作者の上腕に取り付けられた筋電計により検出された、操作者の筋電位の値、及び操作者の前腕に取付けられた加速度計により検出された加速度の値などから、操作者の動作を検出し、検出した動作を用いて操作を特定してもよい。
【0032】
さらに、操作特定部22は、画像取得部21により取得された画像データから操作を特定するように学習された第1学習済みモデルを用いて操作を特定してもよい。学習済みモデルとは、ある入力データに対して適切な出力データが得られるように、予め機械学習により学習されたモデルであり、少なくとも、入力データから出力データを得るまでの演算を行うプログラムと、当該演算に用いられる重み付け係数(パラメータ)とを備える。本実施形態の第1学習済みモデルは、画像取得部21にて取得された画像データが入力データとして入力されると、当該入力データに基づいて、当該画像において操作者が実行しようとしている操作が特定され、出力データが出力されるようにコンピュータ(特に、プロセッサ15のCPU151)を機能させる。このような第1学習済みモデルを用いることで、予め対応関係が設定されていない位置関係を示す画像データについても、操作を特定することができる。
【0033】
本実施形態の第1学習済みモデルは特に限定されないが、たとえば、
図3に示すような第1ニューラルネットワーク3である。第1ニューラルネットワーク3は、第1入力層31、第1中間層32、及び第1出力層33を備え、各層には少なくとも一つのニューロンが含まれている。第1入力層31には、画像取得部21にて取得された画像データ、及び検出装置12の検出結果のうち少なくとも一つを含む第1入力データ34が入力され、入力されたデータを第1中間層32に出力する。第1中間層32は、第1入力層31から入力されたデータから、操作者の手と操作対象との位置関係を抽出する。そして、抽出した位置関係に対応する操作を特定する。第1出力層33は、第1中間層32から入力されたデータを、特定された操作を含む第1出力データ35として出力する。
【0034】
第1中間層32では、操作者が実行しようとしている操作を特定するための、操作者の手と操作対象との位置関係と、操作者が実行しようとしている操作との対応関係が、機械学習により確立されている。これにより、作業員の手とスイッチとの位置関係、作業員の手とタッチパネルのユーザーインターフェースとの位置関係、作業員の手とパーツとの位置関係、整備士の手と工具との位置関係などの操作者の手と操作対象との位置関係から、操作者が実行しようとしている操作を特定できる。当該対応関係には、操作者の手と操作対象との位置関係に加えて、検出装置12により検出された、操作者の周囲の状態などの複数の要因が関連つけられており、入力したデータに対して適切な操作が出力されるように、パラメータが設定されている。たとえば、作業員がカプラーを左右それぞれの手で把持していること、整備士が左手にエンジンオイルを持っていることなどは、操作を特定する際のパラメータとして考慮される。
【0035】
また、上述した第1中間層32の対応関係は、予め機械学習により学習されていてもよいが、過去に第1ニューラルネットワーク3に入力した第1入力データ34、及び過去に第1ニューラルネットワーク3から出力された第1出力データ35を含む第1教師データ36により新たに学習させてもよいし、予め機械学習により学習された学習済みモデルをさらに学習させてもよい。当該学習は、操作特定部22が備える第1機械学習部22aより実行される。第1教師データ36は、たとえば、
図1に示すデータベース16のようなデータベースに格納されており、必要に応じて取得することができる。過去の第1入力データ34と第1出力データ35との組み合わせを用いて学習することで、操作特定部22において、操作者の手と操作対象との位置関係に基づいた操作の特定がより正確になる。
【0036】
図1に戻り、操作判定部23は、画像取得部21により取得された画像データを用いて、操作判定部23により特定された操作が所定操作であるか否かを判定する機能を有する。所定操作とは、操作者が実行する操作として予め定められた操作であり、たとえば、工場の作業員であれば、センサーに接続されたカプラーと、電子制御装置(ECU)に接続されたカプラーとを嵌合する操作、及び工具を用いてボルトを締めて、エンジンブロックにエキゾーストマニホールドを取り付ける操作などの操作が、所定操作として予め設定されている。操作判定部23は、たとえば、画像取得部21にて取得された一連の画像を用いて、操作判定部23により特定された操作が、所定操作であるか否かを判定し、判定結果を操作手順判定部24及び判定結果出力部25に出力する。
【0037】
また、操作判定部23は、画像取得部21にて取得した画像から、操作者の手Hの動きを取得し、取得した動きが、所定の動きに該当するか否かを判定することができる。そして、当該手Hの動きが所定の動きに該当すると判定した場合は、手Hの動きが所定の動きであると判定された時から所定時間前の時間から、前記手の前記動きが所定の動きであると判定された時から所定時間後の時間までの間においてのみ、特定された操作が所定操作であるか否かを判定する。このように、操作の判定が必要になる、手Hの動きが所定の動きであると判定された時の前後の時間のみで判定を行うことができる。操作者の手Hの動きは、画像取得部21にて取得した画像データの解析、並びに操作者の上腕部A2に取り付けられた筋電計により検出された筋電位の値、及び操作者の前腕部A1に取付けられた加速度計により検出された加速度の値などから取得することができる。また、所定の動きは、所定操作の初期の手Hの動きとして、予め設定され、データベース16などに格納されている。操作判定部23は、必要に応じて、所定の動きのデータをデータベース16から取得する。
【0038】
操作手順判定部24は、操作特定部22にて特定された操作が所定操作に該当すると、操作判定部23において判定された場合に、所定操作が所定手順で実行されたか否かを判定する機能を有する。特に、操作手順判定部24は、画像取得部21にて取得された時系列の画像データを用いて、所定操作が所定手順で行われたか否かを判定する。所定手順とは、所定操作ごとに予め設定されており、データベース16のようなデータベースに格納されている。
【0039】
操作手順判定部24は、所定の時間間隔で、操作特定部22から特定された操作を取得し、画像データに含まれる操作者の手と操作対象との位置関係を把握する。そして、操作者の操作を時系列で把握し、都度、上述したような所定手順と、特定された操作とが合致しているか否かを判定する。操作手順判定部24は、特定された操作が完了するまでに、所定手順との差異がなかった場合は、所定操作が所定手順で実行されたと判定する。これに対して、特定された操作が所定手順と異なる場合、及び特定された操作が所定手順から逸脱した場合などは、所定操作が所定手順で実行されなかったと判定する。これらの判定結果は、判定結果出力部25に出力される。
【0040】
一例として、
図4を用いて、所定操作が2つのカプラーを嵌合する操作である場合について説明する。
図4では、作業員の左手に把持されたカプラーC1と、作業員の左手に把持されたカプラーC2とを嵌合し、カプラーC1とカプラーC2の嵌合部Zが適切に嵌合すると、作動音Sが発生するものとする。この場合の所定手順は、たとえば
図4に示すように、ステップ1)作業員が左手と右手のそれぞれでカプラーC1、C2を把持し、ステップ2)カプラーC1をカプラーC2と組み合わせ、ステップ3)カプラーの嵌合部Zがかみ合い、カチッという作動音Sを発生させるまでカプラーC1、C2を互いに押込み、ステップ4)作動音Sが発生したらカプラーC1、C2から手を離すという4つのステップからなる手順である。操作手順判定部24は、所定の時間間隔で、操作特定部22から特定された操作を取得し、カプラーを嵌合する操作者の手とカプラーとの位置関係を把握する。そして、カプラーを嵌合する操作者がカプラーどのように操作しているのかを時系列で把握し、都度、上述したような4つのステップと、特定された操作とが合致しているか否かを判定する。
【0041】
上述したステップに従ってカプラーの嵌合が完了した場合は、カプラーは所定手順に従って適切に嵌合されたと判定する。これに対して、ステップ3)におけるカプラーの押込みが足りず、適切にカプラーが嵌合しなかった場合には、カプラーは適切に嵌合されなかったと判定する。ここで、操作手順判定部24は、所定操作が所定手順で実行されたか否かを判定するときに、検出装置12の検出結果を用いてもよい。この場合であれば、たとえば、操作者の上腕に取り付けられた筋電計にて取得した筋電位の値、及び操作者の前腕加速度計に取付けられた加速度計にて取得した加速度の値などから、カプラーを嵌合する操作者の動作を検出し、操作手順判定部24の判定に用いてもよい。また、カプラーを嵌合する操作者の近傍に設置されたマイクロフォンにより、カプラーの嵌合部Zがかみ合ったときに発生する、カチッという作動音Sを検出し、操作手順判定部24の判定に用いてもよい。
【0042】
また、別の例として、所定操作がエンジンオイルを補充する操作である場合について説明する。この場合、所定手順は、1)オイルフィラーキャップを外し、2)オイル注入口からエンジンオイルを注ぎ込み、3)オイルフィラーキャップを閉め、4)オイルレベルゲージでエンジンオイルの量を確認するという4つのステップからなる手順である。操作手順判定部24は、所定の時間間隔で、操作特定部22から特定された操作を取得し、オイルを補充する操作者の手と、エンジンオイル及びオイルレベルゲージとの位置関係を把握する。そして、オイルを補充する操作者がどのような操作をしているのかを時系列で把握し、都度、上述したような4つのステップと、特定された操作とが合致しているか否かを判定する。
【0043】
上述したステップに従ってオイルを補充が完了した場合は、エンジンオイルは所定手順に従って適切に補充されたと判定する。これに対して、ステップ4)においてエンジンオイルの量を確認しなかった場合には、エンジンオイルが適切に補充されなかったと判定する。また、上述の例と同様に、操作手順判定部24は、所定操作が所定手順で実行されたか否かを判定するときに、検出装置12の検出結果を用いてもよい。この場合であれば、たとえば、操作者の上腕に取り付けられた筋電計にて取得した筋電位の値、及び操作者の前腕加速度計に取付けられた加速度計にて取得した加速度の値などから、オイルレベルゲージを把持する動作を検出し、操作手順判定部24の判定に用いてもよい。
【0044】
さらに、操作手順判定部24は、画像取得部21にて取得された時系列の画像データ、及び/又は操作者の周囲の状態を検出する検出装置12の検出結果を用いて、所定操作が所定手順で行われたか否かを判定するように学習された第2学習済みモデルを用いて、所定操作が所定手順で行われたか否かを判定してもよい。本実施形態の第2学習済みモデルは、画像取得部21にて取得された時系列の画像データ、及び/又は操作者の周囲の状態を検出する検出装置12の検出結果が入力データとして入力されると、当該入力データに基づいて、当該画像において操作者が実行しようとしている操作が特定され、操作者が、特定された操作を所定手順で実行したか否かの判定結果を含む出力データが出力されるようにコンピュータ(特に、プロセッサ15のCPU151)を機能させる。このような第2学習済みモデルを用いることで、予め対応関係が設定されていない位置関係を示す画像データについても、操作が所定手順で実行されたか判定することができる。
【0045】
第2学習済みモデルは特に限定されないが、たとえば、
図5に示すような第2ニューラルネットワーク4である。第2ニューラルネットワーク4は、第2入力層41、第2中間層42、及び第2出力層43を備え、各層には少なくとも一つのニューロンが含まれている。第2入力層41には、画像取得部21にて取得された時系列の画像データ、及び検出装置12の検出結果のうち少なくとも一つを含む第2入力データ44が入力され、入力されたデータを第2中間層42に出力する。第2中間層42は、第2入力層41から入力されたデータから、操作者の手と操作対象との位置関係を抽出する。次に、抽出した位置関係に対応する操作を特定する。そして、特定した操作が所定操作に該当するか否かを判定し、特定した操作が所定操作に該当する場合には、所定操作が所定手順で行われたか否かを判定する。第2出力層43は、第2中間層42から入力されたデータを、所定操作が所定手順で行われたか否かの判定経緯を含む第2出力データ45として出力する。
【0046】
第2中間層42では、上述した第1中間層32と同様に、操作者が実行しようとしている操作を特定するための、操作者の手と操作対象との位置関係と、操作者が実行しようとしている操作との対応関係が、機械学習により確立されている。当該対応関係には、操作者の手と操作対象との位置関係に加えて、検出装置12により検出された、操作者の周囲の状態などの複数の要因が関連つけられており、入力したデータに対して適切な操作が出力されるように、パラメータが設定されている。これに加えて、第2中間層42では、特定した操作が所定操作に該当する場合に、所定操作が所定手順で行われたか否かを判定するため、特定された操作と所定手順との対応関係が確立されている。具体的には、特定された操作を時系列に並べたデータと、所定手順の各ステップとの対応関係が機械学習により学習され、特定された操作と所定手順とが適切に対比できるように、必要なパラメータが設定されている。
【0047】
また、上述した第2中間層42の対応関係は、予め機械学習により学習されていてもよいが、過去に第2ニューラルネットワーク4に入力した第2入力データ44、及び過去に第2ニューラルネットワーク4から出力された第2出力データ45を含む第2教師データ46により新たに学習させてもよいし、予め機械学習により学習された学習済みモデルをさらに学習させてもよい。当該学習は、操作手順判定部24が備える第2機械学習部24aより実行される。第2教師データ46は、たとえば、
図1に示すデータベース16のようなデータベースに格納されており、必要に応じて取得することができる。過去の第2入力データ44と第2出力データ45との組み合わせを用いて学習することで、操作手順判定部24における、所定操作が所定手順で実行されたか否かの判定がより正確になる。
【0048】
図1に戻り、判定結果出力部25は、操作判定部23及び操作手順判定部24における判定結果を取得し、外部の機器に出力する機能を有し、特に、操作判定部23にて、操作者の実行する操作が所定操作ではないと判定された場合に、表示装置13に、操作が適切ではないことを出力する。また、操作手順判定部24にて、所定操作が所定手順で実行されなかったと判定された場合にも、表示装置13に、操作が適切ではないことを出力する。これらの判定結果を表示装置13に出力し、表示装置13に表示させることで、操作者及び/又は監視者に、所定操作が適切に実行されなかったことを通知することができる。
【0049】
なお、監視装置14の電源は、検出装置12の検出結果から、操作者が監視システム1の利用を開始したことを確認した後にONにされてもよい。また、操作判定部23及び操作手順判定部24の判定結果を、図示しないサーバーに出力してもよい。
【0050】
[操作検出システムにおける処理]
図6を参照して、監視装置14が情報を処理する際の手順を説明する。
図6は、本実施形態の監視システム1における情報の処理を示すフローチャートの一例である。以下に説明する処理は、監視装置14のプロセッサ15により所定の時間間隔で実行される。
【0051】
まず、ステップS1にて、画像取得部21の機能により、操作を行う操作者の手の一部又は全部と、操作者により操作される操作対象とを含む画像を撮像装置11から取得する。たとえば、工場にて組立て作業に従事する作業員が工具を用いてボルトを締める場合では、作業員の手の一部と、ボルト及び工具とを含む画像を取得する。
【0052】
続くステップS2にて、操作特定部22の機能により、検出装置12で操作者の周囲の状態を検出する。たとえば、工場にて組立て作業に従事する作業員が工具を用いてボルトを締める場合では、作業員の腕に取付けられた筋電計で、作業員の筋電位の値を取得する。
【0053】
続くステップS3にて、操作特定部22の機能により、画像取得部21により取得された画像データ、及び検出装置12の検出結果から、操作者が実行しようとしている操作を特定する。たとえば、工場にて組立て作業に従事する作業員が工具を用いてボルトを締める場合では、作業員がボルトを締めようとしていること、及び作業員がどのボルトを締めようとしているのかを特定する。
【0054】
続くステップS4にて、操作判定部23の機能により、特定された操作が所定操作に該当するか否かを判定する。特定された操作が所定操作に該当する場合は、ステップS5に進む。これに対して、特定された操作が所定操作に該当しない場合は、ステップS6に進む。たとえば、工場にて組立て作業に従事する作業員が工具を用いてボルトを締める場合では、作業員がボルトを締めることが所定操作であれば、ステップS5に進む。これに対して、当該作業員の作業にボルトの締結が含まれていない場合は、ステップS6に進む。
【0055】
ステップS5では、操作手順判定部24の機能により、所定操作が所定手順で実行されたか否かを判定する。所定操作が所定手順で実行されたと判定された場合は、ルーチンの実行を停止して監視の処理を終了する。これに対して、所定操作が所定手順で実行されなかったと判定された場合は、ステップS6に進む。たとえば、工場にて組立て作業に従事する作業員が工具を用いてボルトを締める場合では、作業員が所定手順に従ってボルトを締めた場合は、ルーチンの実行を停止して監視の処理を終了する。これに対して、作業員が、ボルトが緩んだまま放置した場合は、ステップS6に進む。
【0056】
ステップS6では、判定結果出力部25の機能により、特定された操作が所定操作ではなかったこと、及び所定操作が所定手順に従って適切に実行されなかったことが、表示装置13に出力される。そして、表示装置13では、判定結果出力部25の出力を受け取り、操作者及び/又は監視者に、操作が適切に実行されなかったことを通知する。たとえば、工場にて組立て作業に従事する作業員が工具を用いてボルトを締める場合では、作業員が適切にボルトを締めなかったことが、監視者に通知される。そして、当該表示後、ルーチンの実行を停止して監視の処理を終了する。
【0057】
また別の例として、工場にて組立て作業に従事する作業員が2つのカプラーを嵌合する場合では、たとえば、ステップS1にて、ウェアラブル端末として作業員に取付けられた撮像装置11にて画像データを取得し、ステップS2にて、操作特定部22の機能により、作業員の周囲の音を検出する。続くステップS3にて、画像取得部21にて取得された画像データと、検出装置12の検出結果に基づいて、作業員の操作が、カプラーの嵌合であることを特定する。続くステップS4にて、操作判定部23の機能により、特定された操作が所定操作に該当するか否かを判定する。特定された操作であるカプラーの嵌合操作が所定操作である場合は、ステップS5に進む。これに対して、当該作業員の作業にカプラーの嵌合が含まれていない場合は、ステップS6に進む。ステップS5では、操作手順判定部24の機能により、所定操作が所定手順で実行されたか否かを判定する。カプラーの嵌合操作が所定手順で実行されたと判定された場合は、ルーチンの実行を停止して監視の処理を終了する。これに対して、カプラーの嵌合操作が所定手順で実行されなかったと判定された場合は、ステップS6に進む。そして、ステップS6では、判定結果出力部25の機能により、特定されたカプラーの嵌合操作が所定操作ではなかったこと、又はカプラーの嵌合操作が所定手順に従って適切に実行されなかったことが、表示装置13に出力される。
【0058】
[本発明の実施態様]
以上のとおり、本実施形態の監視装置14によれば、操作を行う操作者の腕に取り付けられた撮像装置11を用いて、前記操作者の手Hの一部又は全部と、前記操作者により操作される操作対象Oとを含む画像を取得する画像取得部21と、前記画像取得部21により取得された前記画像を用いて、前記操作が所定操作であるか否かを判定する操作判定部23と、前記操作判定部23の判定結果を出力する判定結果出力部25と、を備える、監視装置が提供される。これにより、操作者が操作対象Oを操作する画像を確実に取得することができる。また、操作者の行動の判定に適した画像を取得し、操作者の行動の判定精度を高めることができる。
【0059】
また、本実施形態の監視装置14によれば、前記画像取得部21は、前記操作者の掌の一部又は全部と、前記操作対象とを含む画像を取得する。これにより、操作者が操作対象を操作する画像をより確実に取得することができる。
【0060】
また、本実施形態の監視装置14によれば、前記撮像装置11は、前記操作者の上腕A2の掌側に取り付けるための取付け部を有する。これにより、操作者が操作対象を操作する画像をより確実に取得することができる。
【0061】
また、本実施形態の監視装置14によれば、前記画像取得部21にて取得された前記画像から、前記操作を特定する操作特定部22を備え、前記操作判定部23は、前記画像取得部21にて取得された一連の前記画像から、前記操作特定部22にて特定された前記操作が前記所定操作であるか否かを判定する。これにより、より正確に操作を特定することができる。
【0062】
また、本実施形態の監視装置14によれば、前記操作特定部22は、前記画像取得部21にて取得された時系列の前記画像、及び前記操作者の周囲の状態を検出する検出装置12の検出結果を用いて前記操作を特定する。これにより、より正確に操作を特定することができる。
【0063】
また、本実施形態の監視装置14によれば、前記判定結果出力部25は、前記操作判定部23にて前記操作が前記所定操作ではないと判定された場合に、表示装置13に、前記操作が適切ではないことを出力する。これにより、操作者及び/又は監視者に、操作が適切にではないことを通知することができる。
【0064】
また、本実施形態の監視装置14によれば、前記操作特定部22は、前記画像取得部21により取得された前記画像から前記操作を特定するように学習された第1学習済みモデルを用いて前記操作を特定する。これにより、予め設定されていなかった位置関係に対する操作を特定することができる。
【0065】
また、本実施形態の監視装置14によれば、前記第1学習済みモデルは、前記画像取得部21にて取得された前記画像、及び前記操作者の周囲の状態を検出する検出装置12の検出結果のうち少なくとも一つを含む第1入力データ34を第1入力層31に入力すると、特定された前記操作を含む第1出力データ35が第1出力層33から出力される第1ニューラルネットワーク3であり、前記操作特定部22は、過去に前記第1ニューラルネットワーク3に入力した第1入力データ34、及び過去に前記第1ニューラルネットワーク3から出力された第1出力データ35を第1教師データ36として前記第1ニューラルネットワーク3を学習させる第1機械学習部22aを備え、前記第1機械学習部22aにより前記第1ニューラルネットワーク3を学習させる。これにより、予め設定されていなかった位置関係に対する操作を、より正確に特定することができる。
【0066】
また、本実施形態の監視装置14によれば、前記操作特定部22にて前記操作が前記所定操作であると判定された場合に、前記所定操作が所定手順で実行されたか否かを判定する操作手順判定部24を備え、前記判定結果出力部25は、前記操作手順判定部24の判定結果を出力する。これにより、操作を行う手順の適切性を判断することができる。
【0067】
また、本実施形態の監視装置14によれば、前記操作手順判定部24は、前記画像取得部21にて取得された時系列の前記画像を用いて、前記所定操作が前記所定手順で行われたか否かを判定する。これにより、所定操作が所定手順に従って実行されたか否かをより正確に判定することができる。
【0068】
また、本実施形態の監視装置14によれば、前記判定結果出力部25は、前記操作手順判定部24にて前記所定操作が前記所定手順で実行されなかったと判定された場合に、表示装置13に、前記操作が適切ではないことを出力する。これにより、これにより、操作者及び/又は監視者に、操作が適切にではないことを通知することができる。
【0069】
また、本実施形態の監視装置14によれば、前記操作手順判定部24は、前記画像取得部21にて取得された時系列の前記画像、及び前記操作者の周囲の状態を検出する検出装置12の検出結果を用いて、前記所定操作が前記所定手順で行われたか否かを判定するように学習された第2学習済みモデルを用いて、前記所定操作が前記所定手順で行われたか否かを判定する。これにより、予め設定されていなかった位置関係に対する操作と、その手順の適切性を判断することができる。
【0070】
また、本実施形態の監視装置14によれば、前記第2学習済みモデルは、前記画像取得部21にて取得された前記画像、及び前記操作者の周囲の状態を検出する検出装置12の検出結果を含む第2入力データ44を第2入力層41に入力すると、前記所定操作が前記所定手順で行われたか否かの判定結果を含む第2出力データ45が第2出力層43から出力される第2ニューラルネットワーク4であり、前記操作手順判定部24は、過去に前記第2ニューラルネットワーク4に入力した第2入力データ44、及び過去に前記第2ニューラルネットワーク4から出力された第2出力データ45を第2教師データ46として前記第2ニューラルネットワーク4を学習させる第2機械学習部24aを備え、前記第2機械学習部24aにより前記第2ニューラルネットワーク4を学習させる。これにより、予め設定されていなかった位置関係に対する操作と、その手順の適切性を、より正確に判断することができる。
【0071】
また、本実施形態の監視装置14によれば、前記操作判定部23は、前記画像取得部21にて取得した前記画像から、前記操作者の前記手Hの動きを取得し、取得した前記動きが、所定の動きに該当するか否かを判定し、前記動きが所定の動きに該当すると判定した場合は、前記手Hの前記動きが所定の動きであると判定された時から所定時間前の時間から、前記手Hの前記動きが所定の動きであると判定された時から所定時間後の時間までの間においてのみ、前記操作が前記所定操作であるか否かを判定する。これにより、監視装置14の消費電力を抑えることができる。
【0072】
また、本実施形態の監視装置14によれば、前記動きが所定の動きに該当しないと判定された場合に、前記画像取得部21は、取得する時系列の前記画像のフレームレートを下げる。これにより、画像データを保存する容量を削減することができる。
【0073】
また、本実施形態の監視方法によれば、プロセッサを用いて操作を行う操作者を監視する監視方法において、前記プロセッサは、前記操作者の腕に取り付けられた撮像装置11から、前記操作者の手Hの一部又は全部と、前記操作者により操作される操作対象Oとを含む画像を取得し、取得された前記画像を用いて、前記操作が所定操作であるか否かを判定し、前記操作が前記所定操作であるか否かの判定結果を出力する監視方法が提供される。これにより、操作者が操作対象Oを操作する画像を確実に取得することができる。また、操作者の行動の判定に適した画像を取得し、操作者の行動の判定精度を高めることができる。
【符号の説明】
【0074】
1…監視システム
11…撮像装置
11a…取り付け部
12…検出装置
13…表示装置
14…監視装置
15…プロセッサ
151…CPU
152…ROM
153…RAM
16…データベース
2…操作監視部
21…画像取得部
22…操作特定部
22a…第1機械学習部
23…操作判定部
24…操作手順判定部
24a…第2機械学習部
25…判定結果出力部
3…第1ニューラルネットワーク
31…第1入力層
32…第1中間層
33…第1出力層
34…第1入力データ
35…第1出力データ
36…第1教師データ
4…第2ニューラルネットワーク
41…第2入力層
42…第2中間層
43…第2出力層
44…第2入力データ
45…第2出力データ
46…第2教師データ
A1…前腕部
A2…上腕部
C1、C2…カプラー
H…手
O…操作対象
S…作動音
VA…視角
Z…嵌合部