(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2023155799
(43)【公開日】2023-10-23
(54)【発明の名称】作業状態検出システムおよび方法
(51)【国際特許分類】
G06T 7/20 20170101AFI20231016BHJP
G05B 19/418 20060101ALI20231016BHJP
G06Q 50/04 20120101ALI20231016BHJP
【FI】
G06T7/20 300Z
G05B19/418 Z
G06Q50/04
【審査請求】未請求
【請求項の数】11
【出願形態】OL
(21)【出願番号】P 2022065344
(22)【出願日】2022-04-11
(71)【出願人】
【識別番号】597132849
【氏名又は名称】株式会社日立ソリューションズ・クリエイト
(74)【代理人】
【識別番号】110000279
【氏名又は名称】弁理士法人ウィルフォート国際特許事務所
(72)【発明者】
【氏名】川合 亮平
(72)【発明者】
【氏名】青木 恭子
(72)【発明者】
【氏名】小林 利誌
【テーマコード(参考)】
3C100
5L049
5L096
【Fターム(参考)】
3C100AA29
3C100AA38
3C100AA56
3C100BB06
3C100BB17
3C100BB34
5L049CC03
5L096AA06
5L096AA09
5L096CA04
5L096DA02
5L096FA67
5L096FA69
5L096HA05
(57)【要約】
【課題】作業対象物への作業状態をより正確に検出できるようにした作業状態検出システムおよび方法を提供すること。
【解決手段】作業対象物2へ作業するときの視線を検出する作業状態検出システム1は、作業対象物に作業者3の視線を追跡するための基準点51を設定する視線基準点設定部14と、作業者の視線31を検出する視線検出部15と、視線検出部により検出された視線に基づいて、作業者の視線が作業対象物に接触する接触点21の視線基準点51からの相対座標値を視線軌跡データとして算出し、算出された視線軌跡データを記憶部17へ保存させる視線追跡部16とを備える。
【選択図】
図1
【特許請求の範囲】
【請求項1】
作業対象物へ作業するときの視線を検出する作業状態検出システムであって、
前記作業対象物に作業者の視線を追跡するための基準点を設定する視線基準点設定部と、
前記作業者の視線を検出する視線検出部と、
前記視線検出部により検出された視線に基づいて、前記作業者の視線が前記作業対象物に接触する接触点の前記視線基準点からの相対座標値を視線軌跡データとして算出し、前記算出された視線軌跡データを記憶部へ保存させる視線追跡部と、
を備える作業状態検出システム。
【請求項2】
さらに、出力部を備え、
前記出力部は、前記作業対象物に対する作業の様子を撮影した画像データと、前記保存された視線軌跡データとを対応付けて出力する
請求項1に記載の作業状態検出システム。
【請求項3】
前記視線基準点設定部は、現実世界の前記作業対象物に重ねて表示される前記作業対象物の三次元モデルに前記視線基準点を設定する
請求項2に記載の作業状態検出システム。
【請求項4】
前記視線基準点設定部は、前記作業対象物を撮影した画像データに基づいて前記作業対象物の形状を認識し、前記形状認識された作業対象物に前記視線基準点を設定する
請求項2に記載の作業状態検出システム。
【請求項5】
前記視線基準点設定部は、前記作業対象物についての作業手順の進行に応じて、前記視線基準点を再設定する
請求項1~4のいずれか一項に記載の作業状態検出システム。
【請求項6】
さらに、前記作業者の指先の軌跡を検出する指先軌跡検出部を備え、
前記指先軌跡検出部は、前記指先の位置の前記視線基準点からの相対座標値を指先軌跡データとして算出し、前記算出された指先軌跡データを前記記憶部へ保存させる
請求項5に記載の作業状態検出システム。
【請求項7】
さらに、前記作業者の頭の軌跡を検出する頭部軌跡検出部を備え、
前記頭部軌跡検出部は、前記頭部の前記視線基準点からの相対座標値を頭部軌跡データとして算出し、前記算出された頭部軌跡データを前記記憶部へ保存させる
請求項6に記載の作業状態検出システム。
【請求項8】
前記視線基準点設定部は、前記視線基準点を前記三次元モデルの中心に設定する
請求項3に記載の作業状態検出システム。
【請求項9】
前記視線基準点設定部は、前記視線基準点を前記作業対象物の中心に設定する
請求項4に記載の作業状態検出システム。
【請求項10】
前記視線検出部は、前記作業者の視線方向を撮影し、撮影された現実世界に仮想空間を重ねて前記作業者に提供する拡張現実型アイウェアであって、視線を検出する機能を備えている
請求項1に記載の作業状態検出システム。
【請求項11】
作業対象物への作業状態を作業状態検出システムにより検出させる方法であって、
前記作業状態検出システムは、
作業対象物に作業者の視線を追跡するための視線基準点を設定し、
前記作業者の視線を検出し、
前記検出された視線に基づいて、前記作業者の視線が前記作業対象物に接触する接触点の前記視線基準点からの相対座標値を視線軌跡データとして算出し、
前記算出された視線軌跡データを記憶部へ保存させる
作業状態検出方法。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、作業状態検出システムおよび方法に関する。
【背景技術】
【0002】
検査作業、組立作業、加工作業などでは、作業品質の維持と向上のために、作業の安定性と均一化が望まれている。特許文献1では、視線追跡装置を作業者に装着して作業者の視線を追跡することにより、配線を自動的に識別して、誤配線を防止する。特許文献2では、作業者の視線を追跡して正解の視線追跡データと比較することにより、作業指示書への記載漏れを検知する。さらに特許文献2では、作業者の動きを検出して、作業場所の平面図または立体図に表示させる。
【先行技術文献】
【特許文献】
【0003】
【特許文献1】特開2015-061339号公報
【特許文献2】特開2016-218772号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
作業者が作業対象物に対して作業しているときの視線を追跡すると、可視化された視線と実際の視線とがずれることがある。さらに、作業対象物を回転させたり裏返しにしたりするように、作業対象物の姿勢が変わる場合、作業者の視線追跡に誤差が生じる。
【0005】
作業者の視線を一定の基準の下で正確に検出できない場合、熟練作業者の視線の動きと未熟な作業者の視線の動きとを対比することができず、視線の動きから作業品質を解析することができない。
【0006】
本発明は、以上の課題に鑑みてなされたものであり、その目的は、作業対象物への作業状態をより正確に検出できるようにした作業状態検出システムおよび方法を提供することにある。
【課題を解決するための手段】
【0007】
上記課題を解決すべく、本発明の一つの観点に従う作業状態検出システムは、作業対象物へ作業するときの視線を検出する作業状態検出システムであって、作業対象物に作業者の視線を追跡するための基準点を設定する視線基準点設定部と、作業者の視線を検出する視線検出部と、視線検出部により検出された視線に基づいて、作業者の視線が作業対象物に接触する接触点の視線基準点からの相対座標値を視線軌跡データとして算出し、算出された視線軌跡データを記憶部へ保存させる視線追跡部とを備える。
【発明の効果】
【0008】
本発明によれば、作業者の視線が作業対象物に接触する接触点の視線基準点からの相対座標値として視線軌跡データを算出するため、作業対象物の位置ずれなどの影響を抑制して、視線を安定して検出することができる。
【図面の簡単な説明】
【0009】
【
図1】本実施例にかかる作業状態検出システムのシステム構成図。
【
図2】作業状態検出システムのハードウェア構成図。
【
図4】作業対象物に3次元モデルを重ね合わせ、作業者の視線が作業状態検出システムに接触する位置を、3次元モデルに設定された視線基準点からの相対座標値として検出する様子を示す説明図。
【
図9】第2実施例に係り、3次元モデルを生成する処理のフローチャート。
【
図11】第3実施例に係り、作業状態検出システムのシステム構成図。
【
図13】第4実施例に係り、作業状態検出システムのシステム構成図。
【
図14】第5実施例に係り、作業状態検出システムのシステム構成図。
【
図15】第6実施例に係り、作業状態検出システムのシステム構成図。
【発明を実施するための形態】
【0010】
以下、図面に基づいて、本発明の実施の形態を説明する。本実施形態で述べる作業状態検出システム1は、作業者3が作業対象物2に対して作業する際の、作業者3の視線を作業対象物2内に設定される視線基準点51に基づいて正確に検出する。視線基準点51は、作業対象物2に仮想的に重ね合わされる、作業対象物2の3次元モデル内に設定してもよい。あるいは、作業対象物2を撮影した画像データから作業対象物2の形状を認識し、作業対象物2内に視線基準点51を仮想的に設定してもよい。
【0011】
いずれの場合も、視線基準点51は、作業対象物2内(作業対象物2に重ねられた3次元モデル内)にあるため、作業者3と作業対象物2の位置関係が変化した場合でも、作業者3の視線31が作業対象物2の表面に接触する接触点21と視線基準点51との関係に影響を与えない。さらに、作業者3の目の位置(身長)が人によって多少異なったとしても、接触点21と視線基準点51の関係に与える影響を少なくできる。
【0012】
したがって、本実施形態によれば、作業者3が作業対象物2対する作業中に、作業者3の視線31を正確に検出することができる。同じ作業者3の同じ作業対象物2に対する作業中の視線31の動きを、それぞれ異なる日時で比較することもできる。作業に熟練した作業者3の作業中の視線31の動きと、作業に熟練していない作業者3の作業中の視線31の動きとを比較することもできる。これにより、熟練作業者の暗黙知を形式知に変換し、作業に不慣れな作業者を教育する教育資料を生成することもできる。
【0013】
本実施形態の作業状態検出システム1は、例えば、検査作業、検品作業、組立作業、加工作業、溶接作業、塗装作業などの作業に適用可能である。作業対象物2は、電気製品、自動車、ロボット、制御盤、蓄電池など種々の物体に適用可能である。作業対象物2は、氷または石塊のような素材でもよい。この場合、作業者3は職人または芸術家などであり、作業者3が素材を加工していく際の支線31の動きを検出することができる。
【0014】
さらに、後述の実施例では、作業者3の視線31の動きだけでなく、作業者3の指先の動き、または作業者3の頭部の動きも視線基準点51を基準として検出する。これら指先の動きまたは頭部の動きを視線の動きと一緒に検出することにより、作業者3の作業状態をより詳しく解析することができる。
【実施例0015】
図1~
図8を用いて第1実施例を説明する。
図1は、本実施例に係る作業状態検出システム1のシステム構成図である。作業状態検出システム1は、後述のように計算機を用いて構成することができ、その機能部として、撮影画像取得部11、3次元モデル取得部12、重ね合わせ部13、視線基準点設定部14、視線検出部15、視線軌跡データ算出部16、記憶部17および出力部18を備える。
【0016】
撮影画像取得部11は、MRゴーグル4に設けられたカメラ404(
図2参照)から作業者3に見える画像を取得する機能を持つ。3次元モデル取得部12は、作業対象物2の3次元モデルを取得する機能を持つ。重ね合わせ部13は、MRゴーグル4で撮影された画像中の作業対象物2に対して、3次元モデルを重ね合わせる機能を持つ。視線基準点設定部14は、3次元モデルの所定の位置に視線基準点51を設定する機能を持つ。図中、3次元モデルを「3Dモデル」と略記する。MRゴーグル4は、拡張現実(AR)ゴーグルでもよい。MRゴーグル4は、作業者3の見える現実空間内の物体を認識し、現実空間(現実世界)に3次元モデルを重ね合わせることができる装置であればよく、その名称や種類は問わない。
【0017】
撮影画像取得部11、3次元モデル取得部12、重ね合わせ部13は、MRゴーグル4内で実現されてもよい。MRゴーグル4については、
図3でさらに後述する。
【0018】
視線検出部15は、MRゴーグル4に設けられた視線追跡センサ405(
図2参照)により実現される。ハードウェアとしては視線追跡センサ405であるが、機能として捉える場合、視線検出部15となる。「視線追跡部」としての視線軌跡データ算出部16は、検出された視線の軌跡を計算し、視線軌跡データとして記憶部17に記憶させる。
【0019】
ここで、視線軌跡データ算出部16は、作業者3の視線31が作業対象物2の表面に接触する点(接触点)21の位置を、視線基準点51からの相対座標値として算出する。MRゴーグル4の視線追跡センサ405により追跡される視線が作業対象物2の表面に届かない場合、センサ505で追跡される視線を作業対象物2へ向けて計算機内で延長すればよい。なお、接触点21は、視線31が作業対象物2の表面に交わる交点21または視点21と呼ぶこともできる。視線軌跡データ算出部16は、作業対象物2の表面の視線、すなわち接触点21を時間順に並べたデータを視線軌跡データとして算出する。
【0020】
記憶部17は、視線軌跡データを記憶する。記憶部17は、例えば、半導体メモリ装置、ハードディスク装置、フラッシュメモリ装置などの記憶装置から構成される。出力部18は、記憶部17に記憶されたデータ(ここでは視線軌跡データ)を作業状態解析システム6などの外部システムへ出力する。
【0021】
作業状態解析システム6は、例えば、或る作業者3の視線軌跡データの変化を所定期間にわたって解析したり、同一の作業対象物2に対する同一作業について、或る作業者3の視線軌跡データと他の作業者の視線軌跡データとを対比することもできる。
【0022】
図2は、作業状態検出システム1のハードウェア構成を示す。作業状態検出システム1は、例えば、作業状態検出装置100と、MRゴーグル4を含む。
【0023】
作業状態検出装置100は、計算機として構成されており、例えば、プロセッサ101、メモリ102、通信部103、ユーザインターフェース部104、ストレージ105を備える。図中では、ユーザインターフェースを「UI」と略記する。
【0024】
プロセッサ101は、ストレージ105に格納された所定のコンピュータプログラム(不図示)をメモリ102に読み出して実行することにより、
図1で述べた機能部11~18を実現させる。プロセッサ101は、1つに限らない。プロセッサ101は、専用の演算処理を行う特定の演算装置を含んでもよい。
【0025】
通信部103は、例えば、MRゴーグル4および外部システム5,6と通信する装置である。MRゴーグル4と通信する通信部と、外部システム5,6と通信する通信部とに分けてもよい。ここでは、両者が1つの通信部であるかのように示す。ユーザインターフェース部104は、作業状態検出システム1を利用するユーザに対して、情報入力機能および情報出力機能を提供する。ユーザインターフェース装置104は、例えば、モニタディスプレイ、プリンタ、キーボード、ポインティングデバイス、タッチパネル(いずれも不図示)などを用いて構成される。ユーザは、VRゴーグル(不図示)またはMRゴーグルを用いて、仮想空間上で作業状態検出システム1を利用することもできる。
【0026】
MRゴーグル4は、作業者3に見える現実世界(現実空間)に仮想空間を重ねて表示させる装置であり、作業者3の頭部に装着される。MRゴーグル4は、例えば、プロセッサ401、メモリ402、通信部403、カメラ404、視線追跡センサ405、網膜ディスプレイ406、スピーカー407、マイクロフォン408を備える。
【0027】
プロセッサ401は、メモリ402に格納された所定のコンピュータプログラム(不図示)を読み込んで実行することにより、例えば、視線を検出する機能と、情報をユーザの網膜に描写する機能などを実現させる。通信部403は、作業状態検出装置100と双方向通信する装置である。
【0028】
カメラ404は、作業者の視線で現実世界を撮影する装置である。カメラ404は、奥行きを検出可能な測距機能を備えてもよい。視線追跡センサ405は、例えば、ユーザの眼球の動きをカメラで認識することにより、視線を検出する。網膜ディスプレイ406は、ユーザの網膜に画像を投影することにより、現実世界に仮想的な画像を重ね合わせて作業者3に提供する。
【0029】
スピーカー407およびマイクロフォン408は、MRゴーグル4に内蔵されてもよいし、内蔵されていなくてもよい。
【0030】
外部システム5,6は、作業状態検出システム1に接続される外部の計算機である。1つの外部システム5は、例えばCADシステムなどの、作業対象物2の3次元モデルデータを作業状態検出システム1へ提供する上流側システムである。他の1つの外部システム6は、作業状態検出システム1で算出された視線軌跡データを利用して作業者3の作業状態などを解析する下流システムである。
【0031】
図3は、上流システム5がCADシステムなどのように、作業対象物2の3次元モデルデータを作成する計算機である場合を示す。外部システム5は、3次元モデルデータを生成する3次元モデル生成部52と、生成された3次元モデルデータをMRゴーグル4で使用するためのデータ50に変換する3次元モデル変換部53とを備える。以下、MRゴーグル4用に変換された3次元モデルのデータを3次元モデル50と呼ぶ。
【0032】
MR(Mixed Reality:複合現実)ゴーグル4は、現実世界の視覚情報に仮想空間の情報を重ねて提供する装置である。MRゴーグル4は、カメラ404で撮影された画像データから空間を認識する。MRゴーグル4は、空間認識された作業対象物2上に3次元モデル50を位置合わせして重ね合わせる。
【0033】
図4は、作業者3に現実に見えている作業対象物2に対して、作業対象物2の3次元モデル50を重ね合わせて、作業者3の視線を追跡する様子を示す。
【0034】
図4(1)に示すように、作業者3がMRゴーグル4を装着して現実世界の作業対象物2を見ると、MRゴーグル4の空間認識部41は、作業対象物2を認識する。
図4(1),(2)に示すように、MRゴーグル4の空間認識部41は、認識された作業対象物2に対して、3次元モデル50を重ね合わせる。
【0035】
図4(3)に示すように、作業者3が作業対象物2を見ると、作業者3の視線31が作業対象物2の表面(3次元モデル50の表面)に接触する点21を得る。その接触点21と、3次元モデル50の中心に設定された視線基準点51との位置関係を相対座標値として算出する。作業対象物2の内部に視線基準点51が設定されるため、作業対象物2と視線31の接触点21との関係は、作業者3の目の高さや作業対象物2の姿勢変化による影響を受けにくい。
【0036】
図5は、作業状態検出処理のフローチャートである。作業状態検出システム1は、作業対象物2の3次元モデルのデータを生成し、視線基準点51を設定する(S11)。そして、作業状態検出システム1は、生成された3次元モデルのデータをMRゴーグル4で使用するためのデータに変換し、MRゴーグル4に転送する(S12)。
【0037】
作業者3がMRゴーグル4を介して作業対象物2を見ると、カメラ404により作業対象物2が撮影され、撮影された画像データは作業状態検出装置100へリアルタイムで送信される(S13)。
【0038】
それと略同時にMRゴーグル4は、作業対象物2を空間認識し、認識された作業対象物2に3次元モデル50を重ね合わせる(S14)。作業状態検出システム1は、作業者3の視線31が作業対象物2に接触する点21と視線基準点51との位置関係を相対座標値として算出し(S15)、算出された相対座標値のデータ群を視線軌跡データとして記憶部17に記憶させる(S16)。
【0039】
図6は、視線軌跡データを利用して作業状態を解析する処理を示すフローチャートである。本処理は、作業状態解析システム6により実行される。作業状態検出システム1内に作業状態解析システム6を設けてもよい。
【0040】
作業状態解析システム6は、視線軌跡データを取得すると共に(S21)、MRゴーグル4のカメラ404で撮影された作業者目線の画像データも取得する(S22)。作業状態解析システム6は、画像データ内の作業対象物2に対して視線軌跡データを構成する各接触点21(視点21)を重ねて表示する(S23)。作業状態解析システム6は、視線軌跡データの統計情報を算出する(S25)。
【0041】
作業状態解析システム6は、作業者3の視点21がプロットされた作業対象物2の動画像データと、3次元モデル50に作業者の視点31がプロットされた動画像データと、統計情報とを対応付けて出力する(S26)。視線基準点51は、3次元モデル50に設定されるため、視線31が作業対象物2の表面に接触する位置21は、3次元モデル50の表面と視線31とが交わる点として算出される。したがって、作業状態解析システム6は、視線軌跡データに含まれる視点21のプロットされた作業対象物2および3次元モデル50を同時に出力できる。
【0042】
図7は、作業状態解析システム6の出力する解析画面G1の例である。
図7の上側には、熟練作業者U1の作業状態の解析結果が示されている。
図7の下側には、未熟な作業者U2の作業状態が示されている。
【0043】
作業状態解析画面G1は、例えば、作業中の動画を表示する作業動画表示部GP11と、3次元モデル50に対する視線変化(視点の移動の変化)を再現した再現部GP12と、統計情報を表示する統計情報表示部GP13を備える。
【0044】
作業中の動画では、作業対象物2の表面に視点を示すマークが表示されている。同様に、3次元モデルにも視点を示すマークが表示されている。
図7では、視点の位置と順番を丸付き数字で示す。統計情報表示部GP13では、視点の滞留時間(または頻度)の情報がグラフ化されて示されている。
【0045】
熟練作業者U1の視線軌跡データと未熟な作業者U2の視線軌跡データとを比較すると、熟練作業者U1は注視箇所が未熟な作業者U2のそれよりも少なく、無駄な場所を見ていない。換言すれば、未熟な作業者U2は、作業との関係が低い場所を無駄に注視していることがわかる(
図7右下の丸付き数字2参照)。
【0046】
図8は、視線基準点51の設定位置の例を示す。
図1などでは、視線基準点51を3次元モデル50の中心に設定する場合を述べた。3次元モデル50の中心は、3次元モデル50が均一な素材から形成されると仮定した場合の重心でもよい。作業対象物2の実際の構造から算出される重心に視線基準点51を設定してもよい。
【0047】
さらに、
図8(1)に示すように、視線基準点51Aを3次元モデル50の側面に設定してもよい。
図8(2)に示すように、視線基準点51Bを3次元モデル50の中心よりも奥に設定してもよい。
図8(3)に示すように、視線基準点51Cを3次元モデル50の上面に設定してもよい。
図8(4)に示すように、視線基準点51Dを3次元モデル50の頂点のいずれかに設定してもよい。このように、視線基準点51は、3次元モデルの任意の箇所に設定することができる。
【0048】
このように構成される本実施例によれば、視線基準点51は、作業対象物2内(作業対象物2に重ねられた3次元モデル50)に設けられるため、作業者3と作業対象物2の位置関係が変化した場合でも、視点(接触点)21と視線基準点51との関係に影響を与えない。このため作業状態検出システム1は、作業者3が作業対象物2対する作業中に、作業者3の視線31を正確に検出することができる。
【0049】
そして、作業状態解析システム6は、正確に検出された視線軌跡データを用いて、作業者3の作業状態を正確に解析できる。そして、作業状態解析システム6は、熟練作業者の暗黙知を形式知に変換し、作業に不慣れな作業者を教育する教育資料を生成することもできる。さらに、作業状態解析システム6は、例えば、作業指示マニュアルの改善、作業工程の改善、設計の改善などに役立つ解析結果を出力することができる。
これに対し、加工工程、組立工程では、作業が進むにつれて作業対象物2の外形形状が大きく変化する。この場合、作業対象物2の形状変化に応じた3次元モデルを使用しないと、作業者3の視線31が見ている場所21を正確に求めることができない。そこで、本実施例では、作業工程の進行に応じて、すなわち作業指示の切り替わりに応じて、視線検出に使用する3次元モデルを更新する。
図示せぬ作業現場では、作業指示ボードまたは作業指示ディスプレイなどで、「部品Aの上に部品Bを固定してください」といった作業指示が作業員3に出される。作業指示が変わるたびに、すなわち作業工程が進むにつれて、作業対象物2の形状は変化する。しかし、作業対象物2の形状変化は、決められた工程にしたがって決められた通りに変化していく。したがって、作業状態検出システム1は、例えば、作業対象物2の設計データを保持するCADシステムと、作業指示マニュアルを管理するマニュアル管理システムなどと連携することにより、作業指示ごとに(作業工程ごとに)必要な3次元モデル50をあらかじめ作成することができる。
MRゴーグル4のカメラ404が作業対象物2を撮影し(S43)、作業対象物2を空間認識すると(S44)、作業者3の視線31が作業対象物2の表面(3次元モデル50の表面)に接触する点21が検出され、その接触点(視点または交点)21と視線基準点51との位置関係が相対座標値として算出され(S45)、視線軌跡データとして記憶部17に記憶される(S46)。
このように構成される本実施例も実施例1と同様の作用効果を奏する。さらに、本実施例では、作業指示に連動して(作業工程の進行に連動して)、3次元モデル50を更新するため、作業対象物2の形状が変化する作業に対しても、作業者3の視線を正確に検出することができる。