IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 富士ゼロックス株式会社の特許一覧

<>
  • 特許-情報処理装置 図1
  • 特許-情報処理装置 図2
  • 特許-情報処理装置 図3
  • 特許-情報処理装置 図4
  • 特許-情報処理装置 図5
  • 特許-情報処理装置 図6
  • 特許-情報処理装置 図7
  • 特許-情報処理装置 図8
  • 特許-情報処理装置 図9
  • 特許-情報処理装置 図10
  • 特許-情報処理装置 図11
  • 特許-情報処理装置 図12
  • 特許-情報処理装置 図13
  • 特許-情報処理装置 図14
  • 特許-情報処理装置 図15
  • 特許-情報処理装置 図16
  • 特許-情報処理装置 図17
  • 特許-情報処理装置 図18
  • 特許-情報処理装置 図19
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2025-03-10
(45)【発行日】2025-03-18
(54)【発明の名称】情報処理装置
(51)【国際特許分類】
   G06Q 50/04 20120101AFI20250311BHJP
   G06F 3/0346 20130101ALI20250311BHJP
   A61B 3/113 20060101ALI20250311BHJP
   G06T 7/20 20170101ALI20250311BHJP
【FI】
G06Q50/04
G06F3/0346 423
A61B3/113
G06T7/20 100
【請求項の数】 10
(21)【出願番号】P 2020208707
(22)【出願日】2020-12-16
(65)【公開番号】P2022095402
(43)【公開日】2022-06-28
【審査請求日】2023-11-20
(73)【特許権者】
【識別番号】000005496
【氏名又は名称】富士フイルムビジネスイノベーション株式会社
(74)【代理人】
【識別番号】110000752
【氏名又は名称】弁理士法人朝日特許事務所
(72)【発明者】
【氏名】鈴木 賢司
【審査官】松浦 かおり
(56)【参考文献】
【文献】国際公開第2017/119127(WO,A1)
【文献】特開2019-025070(JP,A)
【文献】特開2016-081241(JP,A)
【文献】特開2020-087091(JP,A)
【文献】特表2015-514251(JP,A)
【文献】小泉 敬寛 他,捜し物検索のための個人視点映像からの手掛かり発見,電子情報通信学会技術研究報告 IEICE Technical Report,Vol.34,No.25,日本,社団法人電子情報通信学会,2010年06月29日,p.105~109
(58)【調査した分野】(Int.Cl.,DB名)
G06Q 10/00 -99/00
A61B 3/00 - 3/18
G06F 3/033- 3/039
G06T 7/00 - 7/90
G06V 10/00 -20/90
G06V 30/418
G06V 40/16
G06V 40/20
(57)【特許請求の範囲】
【請求項1】
プロセッサを備え、前記プロセッサは、
作業者が装着した撮像装置が撮影した動画像を取得し、
前記作業者が装着した撮像装置とは別の撮像装置で撮影した作業領域の画像を予め取得し、
前記作業領域と前記作業者の動作の種類とを対応付け、
前記作業者が装着したセンサにより当該作業者の眼球運動を検知し、
取得された前記動画像のうち、検知された前記眼球運動の速度が決められた条件を満たしたときに撮影された箇所を前記作業者の動作の切れ目として特定し、
検知した前記眼球運動が示す注視点の前記画像における位置と前記作業領域との位置関係に基づき前記作業者の前記作業領域に対応付けられた動作の種類を判別する
ことを特徴とする情報処理装置。
【請求項2】
瞬きを検出する手段を有し、前記条件に加え瞬きが検知されたときに撮影された箇所を前記作業者の動作の切れ目として特定する
請求項1に記載の情報処理装置。
【請求項3】
前記条件は前記作業者の固視状態を表す眼球運動の速度が測定された場合に満たされ、当該条件が満たされて検知された固視状態の開始時刻又は終了時刻を前記作業者の動作の切れ目として特定する
請求項1又は2に記載の情報処理装置。
【請求項4】
前記作業領域の周辺の決められた範囲に前記注視点の位置が含まれるか否かに基づき前記作業者の動作の切れ目又は当該動作の種類を判別する
請求項に記載の情報処理装置。
【請求項5】
前記作業領域における代表位置を定め、当該代表位置と前記注視点の位置との距離に基づき前記作業者の動作の切れ目又は当該動作の種類を判別する
請求項に記載の情報処理装置。
【請求項6】
前記注視点の位置の移動方向に応じて前記距離を補正する
請求項に記載の情報処理装置。
【請求項7】
取得された前記動画像から作業対象の位置を認識し、検知した前記眼球運動が示す注視点の位置と前記作業対象の位置との位置関係に基づき前記作業者の動作の切れ目又は当該動作の種類を判別する
請求項1からのいずれか1項に記載の情報処理装置。
【請求項8】
前記作業対象の位置の周辺の決められた範囲に前記注視点の位置が含まれるか否かに基づいて前記作業者の動作の切れ目又は当該動作の種類を判別する
請求項に記載の情報処理装置。
【請求項9】
前記作業対象の位置を代表する座標を定め、当該座標と前記注視点の位置との距離に基づいて前記作業者の動作の切れ目又は当該動作の種類を判別する
請求項に記載の情報処理装置。
【請求項10】
前記注視点の位置の移動方向に応じて前記距離を補正する
請求項に記載の情報処理装置。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、情報処理装置に関する。
【背景技術】
【0002】
特許文献1には、画像にうつる作業者に装着された識別マーカの絶対座標から動作開始と終了を判別し、移動に際しては距離に対応した標準時間設定をするための標準時間マスタデータを用いて演算する技術が記載されている。
【先行技術文献】
【特許文献】
【0003】
【文献】特開2002-310617号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
作業を撮影するには固定された撮像装置で撮影する方法以外に、作業者に撮像装置を装着させて撮影する方法がある。後者の場合、上記技術だと撮像装置の撮影範囲に識別マーカが常に入っているとは限らないので、動作の判別ができないことが起こり得る。
そこで、本発明は、作業者に装着された撮像装置の向きに寄らず動作を判別することを目的とする。
【課題を解決するための手段】
【0005】
本発明の請求項1に係る情報処理装置は、
プロセッサを備え、前記プロセッサは、作業者が装着した撮像装置が撮影した動画像を取得し、前記作業者が装着した撮像装置とは別の撮像装置で撮影した作業領域の画像を予め取得し、前記作業領域と前記作業者の動作の種類とを対応付け、前記作業者が装着したセンサにより当該作業者の眼球運動を検知し、取得された前記動画像のうち、検知された前記眼球運動の速度が決められた条件を満たしたときに撮影された箇所を前記作業者の動作の切れ目として特定し、検知した前記眼球運動が示す注視点の前記画像における位置と前記作業領域との位置関係に基づき前記作業者の前記作業領域に対応付けられた動作の種類を判別することを特徴とする。
【0006】
本発明の請求項2に係る情報処理装置は、請求項1に記載の態様において、瞬きを検出する手段を有し、前記条件に加え瞬きが検知されたときに撮影された箇所を前記作業者の動作の切れ目として特定することを特徴とする。
【0007】
本発明の請求項3に係る情報処理装置は、請求項1又は2に記載の態様において、前記条件は前記作業者の固視状態を表す眼球運動の速度が測定された場合に満たされ、当該条件が満たされて検知された固視状態の開始時刻又は終了時刻を前記作業者の動作の切れ目として特定することを特徴とする。
【0009】
本発明の請求項に係る情報処理装置は、請求項に記載の態様において、前記作業領域の周辺の決められた範囲に前記注視点の位置が含まれるか否かに基づき前記作業者の動作の切れ目又は当該動作の種類を判別することを特徴とする。
【0010】
本発明の請求項に係る情報処理装置は、請求項に記載の態様において、前記作業領域における代表位置を定め、当該代表位置と前記注視点の位置との距離に基づき前記作業者の動作の切れ目又は当該動作の種類を判別することを特徴とする。
【0011】
本発明の請求項に係る情報処理装置は、請求項に記載の態様において、前記注視点の位置の移動方向に応じて前記距離を補正することを特徴とする。
【0012】
本発明の請求項に係る情報処理装置は、請求項1からのいずれか1項に記載の態様において、取得された前記動画像から作業対象の位置を認識し、検知した前記眼球運動が示す注視点の位置と前記作業対象の位置との位置関係に基づき前記作業者の動作の切れ目又は当該動作の種類を判別することを特徴とする。
【0013】
本発明の請求項に係る情報処理装置は、請求項に記載の態様において、前記作業対象の位置の周辺の決められた範囲に前記注視点の位置が含まれるか否かに基づいて前記作業者の動作の切れ目又は当該動作の種類を判別することを特徴とする。
【0014】
本発明の請求項に係る情報処理装置は、請求項に記載の態様において、前記作業対象の位置を代表する座標を定め、当該座標と前記注視点の位置との距離に基づいて前記作業者の動作の切れ目又は当該動作の種類を判別することを特徴とする。
【0015】
本発明の請求項1に係る情報処理装置は、請求項に記載の態様において、前記注視点の位置の移動方向に応じて前記距離を補正することを特徴とする。
【発明の効果】
【0016】
請求項1に係る発明によれば、作業者に装着された撮像装置の向きに寄らず動作を判別することができる。また、請求項1に係る発明によれば、本発明の位置関係を考慮しない場合に比べて、作業領域が含まれている画像から、より適切な動作の種類を判別することができる。
請求項2に係る発明によれば、瞬きを考慮しない場合に比べて、動作の切れ目をより確実に特定することができる。
請求項3に係る発明によれば、動画像から特定の箇所を注視して行う作業の部分を切り取ることができる。
請求項に係る発明によれば、どのような形状の作業領域であっても、より適切な処理結果を得ることができる。
請求項に係る発明によれば、作業に必要な領域の形状が不明瞭であっても、より適切な処理結果を得ることができる。
請求項に係る発明によれば、距離を補正しない場合に比べて、作業者が作業に慣れてきたときに誤った処理結果になることを抑制することができる。
請求項に係るによれば、固定された撮像装置を設けなくても、本発明の位置関係を考慮しない場合に比べて、より適切な処理結果を得ることができる。
請求項に係る発明によれば、作業に必要な領域がどのような形状のあっても、より適切な処理結果を得ることができる。
請求項に係る発明によれば、作業に必要な領域の形状が不明瞭であっても、より適切な処理結果を得ることができる。
請求項1に係る発明によれば、距離を補正しない場合に比べて、作業者が作業に慣れてきたときに誤った処理結果になることを抑制することができる。
【図面の簡単な説明】
【0017】
図1】実施例に係る作業管理システムの全体構成を表す図
図2】サーバ装置のハードウェア構成を表す図
図3】ウェアラブルデバイスのハードウェア構成を表す図
図4】実施例で実現される機能構成を表す図
図5】瞬きを表す眼球運動の速度について説明するための図
図6】固視状態を表す眼球運動の速度について説明するための図
図7】出力された切れ目データの一例を表す図
図8】特定処理における動作手順の一例を表す図
図9】変形例で実現される機能構成を表す図
図10】作業領域の一例を表す図
図11】作業者の注視点の遷移の一例を表す図
図12】動作テーブルの一例を表す図
図13】判別された動作の種類の一例を表す図
図14】記憶された注視点の情報及び代表位置までの距離の一例を表す図
図15】変形例に係る作業管理システムの全体構成を表す図
図16】注視点が作業領域の手前で停止する例を表す図
図17】注視点の周辺を拡大して表す図
図18】角度θと係数αの関係の一例を表す図
図19】変形例の動作テーブルの一例を表す図
【発明を実施するための形態】
【0018】
[1]実施例
図1は実施例に係る作業管理システム1の全体構成を表す。作業管理システム1は、作業者が行う作業を管理するためのシステムである。作業管理システム1は、具体的には、作業を動画像で撮影し、撮影した動画像を個々の作業が行われている部分に分解して、作業毎の評価及び改善に役立てられるようにする。作業管理システム1は、通信回線2と、サーバ装置10と、ウェアラブルデバイス20とを備える。
【0019】
通信回線2は、移動体通信網及びインターネット等を含む通信システムであり、自システムと通信する装置等(=装置、端末及びシステム等)同士のデータのやり取りを中継する。通信回線2には、サーバ装置10が有線通信で接続しており、ウェアラブルデバイス20が無線通信で接続している。なお、各装置と通信回線2との通信は、図1に例に限定されず、有線通信及び無線通信のどちらでもよい。
【0020】
ウェアラブルデバイス20は、作業者が装着して使用するデバイスであり、本実施例では、メガネ型のデバイスである。ウェアラブルデバイス20は、作業者の作業の撮影と、作業者の眼の動き(=眼球運動)を検知するためのセンサでの測定を行う。サーバ装置10は、ウェアラブルデバイス20による測定結果に基づいて動画像において作業者の動作の切れ目になっている箇所を特定し、特定した切れ目により作業を分解して作業毎の評価及び改善に役立てられるようにする。
【0021】
図2はサーバ装置10のハードウェア構成を表す。サーバ装置10は、プロセッサ11と、メモリ12と、ストレージ13と、通信装置14とを備えるコンピュータである。プロセッサ11は、例えば、CPU(=Central Processing Unit)等の演算装置、レジスタ及び周辺回路等を有する。メモリ12は、プロセッサ11が読み取り可能な記録媒体であり、RAM(=Random Access Memory)及びROM(=Read Only Memory)等を有する。
【0022】
ストレージ13は、プロセッサ11が読み取り可能な記録媒体であり、例えば、ハードディスクドライブ又はフラッシュメモリ等を有する。プロセッサ11は、RAMをワークエリアとして用いてROMやストレージ13に記憶されているプログラムを実行することで各ハードウェアの動作を制御する。通信装置14は、アンテナ及び通信回路等を有し、通信回線2を介した通信を行う通信手段である。
【0023】
図3はウェアラブルデバイス20のハードウェア構成を表す。ウェアラブルデバイス20は、プロセッサ21と、メモリ22と、ストレージ23と、通信装置24と、UI(=User Interface)装置25と、撮像装置26と、センサ装置27とを備えるコンピュータである。プロセッサ21から通信装置24までは、図2に表すプロセッサ11から通信装置24までと同種のハードウェアである。
【0024】
UI装置25は、自装置を利用するユーザに対して提供されるインターフェースである。UI装置25は、本実施例では、メガネ型である自デバイスのレンズの部分を含み、そのレンズに画像を表示する。また、UI装置25は、自デバイスのリム、ブリッジ又はテンプルに設けられたタッチパネル又はボタンを有し、ユーザからの操作を受け付ける。
【0025】
撮像装置26は、光学系及びイメージセンサ等を有し、光学系を透過してイメージセンサに入射する光に基づき画像を撮影する。センサ装置27は、自デバイスを装着した状態の作業者の眼球運動を検知するためのセンサを有する装置である。センサとしては、例えば、CMOSセンサ(Complementary Metal Oxide Semiconductor)や眼電計(electrooculography:EOG)と呼ばれる眼球運動の測定の手法用のものが用いられる。
【0026】
具体的には,センサ装置27がCMOSセンサを有する場合、自デバイスであるウェアラブルデバイス20のフレームに搭載されたCMOSセンサで撮影された画像を解析することで眼球運動が測定される。測定された眼球運動は周知の方法で処理され、作業者が注視する方向を撮像装置で撮影した映像(一人称視点映像)上の座標によって表される眼球運動が測定される。
【0027】
また、センサ装置27は、眼電計を有する場合は、作業者の眼の左右の外側に設けられた2つの電極及び増幅器等を有し、各電極の電位を測定する。眼球には角膜側がプラスで網膜側がマイナスという角膜網膜電位と呼ばれる一定の電位差がある。各電極の電位は眼球の回転角にほぼ比例するので、各電極の電位と眼球の回転角とを対応付けた回転角テーブルを用いることで、眼球の回転角によって表される眼球運動が測定される。
【0028】
作業管理システム1においては、上記の各装置のプロセッサがプログラムを実行して各部を制御することで、以下に述べる各機能が実現される。各機能が行う動作は、その機能を実現する装置のプロセッサが行う動作としても表される。
図4は本実施例で実現される機能構成を表す。サーバ装置10は、動画像取得部101と、動画像記憶部102と、運動検知部103と、切れ目特定部104と、切れ目出力部105とを備える。ウェアラブルデバイス20は、撮像部201と、センサ測定部202とを備える。
【0029】
ウェアラブルデバイス20の撮像部201は、撮像装置26を制御して、作業中の動画像を撮影する。撮像装置26は、例えば、作業者の顔の正面にレンズを向けて設けられており、作業者の視界を多く含む動画像を撮影する。撮像部201は、撮影した動画像及びその動画像のフレーム毎の撮影時刻を示す動画像データをサーバ装置10に送信する。
【0030】
サーバ装置10の動画像取得部101は、送信されてきた動画像データが示す動画像、すなわち、作業者が装着した撮像装置26が撮影した動画像及び撮影時刻を取得する。動画像取得部101は、取得した動画像及びフレーム毎の撮影時刻を動画像記憶部102に供給する。動画像記憶部102は、供給された動画像を、同じく供給されたフレーム毎の撮影時刻に対応付けて記憶する。
【0031】
ウェアラブルデバイス20のセンサ測定部202は、センサ装置27を制御して、眼球運動の検知に用いられる値を測定する。センサ測定部202は、本実施例では、上述した眼球の運動を測定し、測定結果を示す測定データをサーバ装置10に送信する。サーバ装置10の運動検知部103は、送信されてきた測定データが示す測定結果に基づいて、すなわち、作業者が装着したセンサにより、その作業者の眼球運動を検知する。
【0032】
運動検知部103は、例えば、前述したとおり、自デバイスのフレームに搭載されたCMOSセンサで撮影された画像を解析することで眼球運動を測定する。運動検知部103は、測定した眼球運動を周知の方法で処理し、撮像装置で撮影した映像(一人称視点映像)上の座標によって作業者の注視方向が表された眼球運動を測定する。運動検知部103は、測定した座標とその座標の測定時刻を示す運動データを切れ目特定部104に供給する。
【0033】
また、運動検知部103は、上述した各電極の電位と左右の眼球の回転角とを対応付けた回転角テーブルを記憶しておき、回転角テーブルにおいて測定結果に対応付けられている眼球の回転角によって表される眼球運動を左右の眼球についてそれぞれ検知するように構成してもよい。運動検知部103は、眼球運動の検知結果である左右の眼球の回転角とその回転角の検知時刻とを示す運動データを切れ目特定部104に供給する。
【0034】
切れ目特定部104は、動画像取得部101により取得された動画像のうち、運動検知部103により検知された眼球運動の速度が決められた条件を満たしたときに撮影された箇所を作業者の動作の切れ目として特定する。切れ目特定部104は、例えば、供給される運動データが示す回転角の変化量を検知時刻の差分で除算することで眼球運動の速度を測定する。
【0035】
切れ目特定部104は、本実施例では、次の2通りの条件を用いる。1つ目の条件(以下「第1条件」と言う)は、瞬きが検知された場合に満たされる。瞬きの検知方法について、図5を参照して説明する。
図5は瞬きを表す眼球運動の速度について説明するための図である。図5では、横軸が時刻を示し、縦軸が眼球運動の速度を示すグラフが表されている。
【0036】
グラフには、眼球運動の速度の閾値D1が表されている。眼球運動の速度変化を示す折れ線G1は、時刻t1に閾値D1を超えて(立ち上がり)時刻t2に閾値D1を下回っている(立ち下がり)。同様に、時刻t3に立ち上がりが、時刻t4に立ち下がりが測定されている。切れ目特定部104は、立ち上がりから立ち下がりまでの期間に瞬きがされたと検知する。
【0037】
切れ目特定部104は本発明の「瞬きを検知する手段」の一例である。切れ目特定部104は、瞬きを検知した場合に第1条件が満たされたと判断し、第1条件が満たされたときに撮影された箇所を、作業者の動作の切れ目として特定する。切れ目特定部104は、例えば、立ち上がり又は立ち下がりが測定された時刻を撮影時刻とする箇所を、第1条件が満たされたときに撮影された箇所、すなわち作業者の動作の切れ目として特定する。
【0038】
2つ目の条件(以下「第2条件」と言う)は、固視状態を表す眼球運動の速度が測定された場合に満たされる。固視状態とは、視線を一点に固定した状態のことである。固視状態を表す眼球運動の速度について、図6を参照して説明する。
図6は固視状態を表す眼球運動の速度について説明するための図である。図6では、横軸が時刻を示し、縦軸が眼球運動の速度を示すグラフが表されている。
【0039】
グラフには、眼球運動の速度変化を示す折れ線G2が表わされている。固視状態を表す眼球運動の速度は、例えば、閾値D2以下となる速度である。折れ線G2が示す速度は、時刻t11に閾値D2以下になり、時刻t12に閾値D2よりも大きくなっている。切れ目特定部104は、速度が閾値D2以下となる時刻t11からt12までの期間を固視状態の期間とし、固視状態の開始時刻t11を撮影時刻とする箇所を、作業者の動作の切れ目として特定する。
【0040】
このように、切れ目特定部104は、第2条件が満たされて検知された固視状態の開始時刻を作業者の動作の切れ目として特定する。なお、切れ目特定部104は、第2条件が満たされて検知された固視状態の終了時刻を作業者の動作の切れ目として特定してもよい。切れ目特定部104は、特定した切れ目を示す切れ目データを切れ目出力部105に供給する。
【0041】
切れ目出力部105は、供給された切れ目データ、すなわち、切れ目特定部104により特定された作業者の動作の切れ目を示すデータを出力する。切れ目出力部105は、例えば、作業管理者が利用する図示せぬユーザ端末に切れ目データを出力する。
【0042】
図7は出力された切れ目データの一例を表す。図7の例では、ユーザ端末が、作業管理システムの画面に、「分解された作業の動画像を選択してください。」という文字列と、動画像の撮影の作業時刻及び動画像のサムネイル画像と、再生ボタンB11とを表示している。いずれかのサムネイル画像が選択された状態で再生ボタンB11を押す操作が行われると、ユーザ端末は、動画像のうち該当する作業の部分を再生する。作業管理者は、再生された動画像を見て、作業単位で生産性及び安全性等を確認することになる。
【0043】
作業管理システム1が備える各装置は、上記の構成により、作業の切れ目を特定する特定処理を行う。
図8は特定処理における動作手順の一例を表す。まず、ウェアラブルデバイス20(撮像部201)は、作業中の動画像を撮影し(ステップS11)、撮影した動画像を示す動画像データをサーバ装置10に送信する(ステップS12)。
【0044】
サーバ装置10(動画像取得部101)は、送信されてきた動画像データが示す動画像を取得する(ステップS13)。次に、サーバ装置10(動画像記憶部102)は、取得された動画像を撮影時刻に対応付けて記憶する(ステップS14)。続いて、ウェアラブルデバイス20(センサ測定部202)は、眼球運動の検知に用いられる値を測定し(ステップS21)、測定結果を示す測定データをサーバ装置10に送信する(ステップS22)。
【0045】
サーバ装置10(運動検知部103)は、送信されてきた測定データが示す測定結果に基づいて作業者の眼球運動を検知する(ステップS23)。次に、サーバ装置10(切れ目特定部104)は、取得された動画像のうち、検知された眼球運動の速度が決められた条件を満たしたときに撮影された箇所を作業者の動作の切れ目として特定する(ステップS24)。そして、サーバ装置10(切れ目出力部105)は、特定された作業者の動作の切れ目を示すデータを出力する(ステップS25)。
【0046】
本実施例では、上記のとおり、作業者が装着した撮像装置が撮影した動画像における動作の切れ目が、作業者が装着したセンサにより検知された眼球運動に基づいて特定される。このため、作業者に装着された撮像装置の向きに寄らず動作が判別されることになる。
【0047】
作業者は、作業を円滑に行うため、作業中はなるべく瞬きをせず、作業と作業の間に瞬きをすることになりやすい。本実施例では、上記のとおり、瞬きが検知されたときに撮影された箇所を作業者の動作の切れ目として特定することで、瞬きを考慮しない場合に比べて、動作の切れ目がより確実に特定されることになる。
【0048】
また、作業には、特定の箇所を注視しながら行われるものがある。例えば、目視で検品する作業は、目の前に届けられた製品を注視しながら行われる。本実施例では、上記のとおり、固視状態を表す眼球運動が検知されたときに撮影された箇所を作業者の動作の切れ目として特定することで、動画像から特定の箇所を注視して行う作業の部分が切り取られることになる。
【0049】
[2]変形例
上述した実施例は本発明の実施の一例に過ぎず、以下のように変形させてもよい。また、実施例及び各変形例は、必要に応じて組み合わせて実施してもよい。
【0050】
[2-1]動作の種別
実施例では、動作の切れ目が特定されたが、さらに、動作の種別が判別されてもよい。
図9は本変形例で実現される機能構成を表す。図9では、図4に表す各部に加えて動作種別判別部106と、領域画像記憶部107とを備えるサーバ装置10aと、ウェアラブルデバイス20とが表されている。
【0051】
撮像部201は、作業者の作業領域の動画像を撮影する。撮像部201は、撮影した動画像及びその動画像のフレーム毎の撮影時刻を示す動画像データをサーバ装置10aに送信する。サーバ装置10aの動画像取得部101は、送信されてきた動画像データが示す動画像、すなわち、作業者に装着されたウェアラブルデバイス20が撮影した作業領域の動画像及び撮影時刻を取得する。
【0052】
領域画像記憶部107は、予めウェアラブルデバイス20とは別のカメラで作業台A1の真上から撮影した作業領域の静止画像(以下「作業領域画像」と言う)を記憶しておく。ここで言うウェアラブルデバイス20は本発明の「作業者が装着した撮像装置」の一例であり、ウェアラブルデバイス20とは別のカメラは本発明の「別の撮像装置」の一例である。
【0053】
なお、領域画像記憶部107は、ウェアラブルデバイス20の撮像部201で撮影した静止画像を、作業台の端部や頂点を識別して作業領域を長方形の形に変換した画像を作業領域画像として記憶してもよい。また、領域画像記憶部107は、作業領域の所定の位置に位置補正のためのマーカーを付しておき、撮像した画像からこのマーカーに基づき長方形の作業領域画像に変換した画像を作業領域画像として記憶してもよい。
【0054】
サーバ装置10aの動作種別判別部106は、切れ目特定部104により検知された眼球運動が示す注視点の画像における位置と、領域画像記憶部107に記憶されている作業領域画像が示す作業領域との位置関係に基づき作業者の動作の種類を判別する。動作種別判別部106は、例えば、作業領域の周辺の決められた範囲に注視点の位置が含まれるか否かに基づき作業者の動作の種類を判別する。この判別方法について図10から図13までを参照して説明する。
【0055】
図10は作業領域の一例を表す。図10では作業台A1の作業領域画像が示されている。作業台A1には、作業領域C1、C2、C3及び作業領域W1、W2、W3が設けられている。各作業領域には、空間内の位置を特定しやすくするためのマーカーB1、B2、B3及びB4が設けられている。各マーカーは、例えばQRコード(登録商標)である。
【0056】
作業領域C1、C2、C3は、部品が配置される領域であり、部品を取る動作が行われる。作業領域W1、W2、W3は、部品を本体に取り付ける動作が行われる領域である。作業者が作業台A1で作業を行うと、作業者の注視点が小刻みに、高速で移動する。
【0057】
動作種別判別部106は、ウェアラブルデバイス20で撮影した動画像のフレーム毎に、マーカーの位置を元にして、その動画像から静止画像への射影変換行列を算出する。そして、動作種別判別部106は、動画像上の注視点位置を静止画像に写像して、静止画上の注視点位置の座標を算出する。
【0058】
図11は作業者の注視点の遷移の一例を表す。図11の例では、まず、作業領域C1に注視点1が現れ、作業領域W1に注視点2及び注視点3が現れている。次に、作業領域C2に注視点4が現れ、作業領域W2に注視点5及び注視点6が現れている。そして、作業領域C3に注視点7が現れ、作業領域W3に注視点8が現れている。動作種別判別部106は、算出した注視点を含む作業領域がある場合に、その作業領域に対応付けられた動作の種類を判別する。動作種別判別部106は、作業領域と動作の種類とを対応付けた動作テーブルを用いる。
【0059】
図12は動作テーブルの一例を表す。図12の例では、「C1」、「C2」、「C3」、「W1」、「W2」、「W3」という作業領域が、「部品E1を手に取る動作(Reach1)」、「部品E2を手に取る動作(Reach2)」、「部品E3を手に取る動作(Reach3)」、「部品E1を取り付ける動作(Attach1)」、「部品E2を取り付ける動作(Attach2)」、「部品E3を取り付ける動作(Attach3)」という動作の種類にそれぞれ対応付けられている。
【0060】
動作種別判別部106は、例えば、作業領域C1に含まれる注視点1が算出された場合、作業領域C1に対応付けられた「部品E1を手に取る動作」を動作の種類として判別する。また、動作種別判別部106は、例えば、作業領域W2に含まれる注視点5又は注視点6が算出された場合、作業領域W2に対応付けられた「部品E2を取り付ける動作」を動作の種類として判別する。
【0061】
図13は判別された動作の種類の一例を表す。図13では、眼球運動の速度の変遷と、注視点1から注視点8までの8つの注視点が現れるタイミングと、判別された動作の種類とが時系列に沿って表されている。例えば注視点4が現れたタイミングにはReach2(=部品E2を手に取る動作)が判別されている。また、注視点8が現れたタイミングにはAttach3(=部品E3を取り付ける動作)が判別されている。
【0062】
このように、動作種別判別部106は、注視点の画像における位置と作業領域との位置関係に基づき作業者の動作の種類を判別する。これにより、その位置関係を考慮しない場合に比べて、作業領域が含まれている画像から、より適切な処理結果が得られること、すなわち、より適切な動作の種類が判別されることになる。また、動作種別判別部106は、作業領域の周辺の決められた範囲に注視点の位置が含まれるか否かに基づき作業者の動作の種類を判別する。この範囲を作業領域の形状に応じて決めることで、どのような形状の作業領域であっても、より適切な処理結果が得られること、すなわち、より適切な動作の種類が判別されることになる。
【0063】
なお、動作種別判別部106は、作業領域における代表位置を定め、その代表位置と注視点の位置との距離に基づき作業者の動作の種類を判別してもよい。動作種別判別部106は、注視点が移動する度に、注視点の情報と代表位置までの距離とを対応付けて記憶する。
【0064】
図14は記憶された注視点の情報及び代表位置までの距離の一例を表す。例えば注視点1は、0.0秒に開始して1.2秒に終了し、注視点の座標が(x、y)=(230、400)であり、注視点と作業領域C1、W1、C2、W2、C3、W3の代表位置との距離が100、800、1600、1300、1100、1000であることが記憶されている。
【0065】
動作種別判別部106は、注視点の位置との距離が閾値未満である代表位置が決められた作業領域に対応付けられている動作の種類を判別する。この閾値のことを以下では「判別閾値」と言う。動作種別判別部106は、例えば図12の動作テーブルを用いて且つ判別閾値が200であれば、注視点1については代表位置との距離が判別閾値未満になる作業領域がC1なので、作業領域C1に動作テーブルにおいて対応付けられた「部品E1を手に取る動作(Reach1)」を動作の種類として判別する。この場合、作業領域の形状が不明瞭であっても、より適切な処理結果が得られること、すなわち、より適切な動作の種類が判別されることになる。
【0066】
なお、作業領域を撮影するための固定カメラが設けられていてもよい。
図15は本変形例に係る作業管理システム1aの全体構成を表す。作業管理システム1aは、図1に表す各装置に加えて固定カメラ30を備える。固定カメラ30は、作業者の作業領域を撮影可能な位置に固定された撮像装置である。固定カメラ30は、例えば、作業領域の中心の鉛直上方に設けられ、鉛直下方を撮影する。
【0067】
固定カメラ30は、通信回線2に有線通信で(無線通信でもよい)接続されており、各装置とデータをやり取りする。固定カメラ30は、ウェアラブルデバイス20の撮像部201と同等の機能を有し、作業領域を撮影した動画像データをサーバ装置10aに送信する。このように作業領域が長方形に映るようにカメラを固定することで、作業領域の動画像を写像変換する処理の負荷がなくなる。
【0068】
[2-2]注視点の停止
作業者が作業に慣れてくると次の作業領域の位置を覚えるので、作業領域まで視線を動かさないで注視点が作業領域の手前で停止する場合がある。その場合、次の作業領域の代表位置だと距離が判別閾値以上になるが他の作業領域の代表位置だと距離が判別閾値未満になり、誤った動作の種類が判別されることがある。
【0069】
図16は注視点が作業領域の手前で停止する例を表す。図16の例では、注視点4が次の作業領域C2の代表位置よりも手前で停止している。
図17は注視点4の周辺を拡大して表す。注視点4は、作業領域C2の代表位置との距離L1が判別閾値以上であり、作業領域C3の代表位置との距離L2が判別閾値未満になる位置に停止している。
【0070】
この状態で誤った動作の種類を判別しないように、動作種別判別部106は、注視点の位置の移動方向に応じて代表位置と注視点の位置との距離を補正する。図17では、注視点3から注視点4に向かう矢印が注視点の移動方向F1を表している。動作種別判別部106は、前の注視点から作業領域の代表位置に向かう方向と移動方向F1との成す角度θを算出する。
【0071】
動作種別判別部106は、図17の例では、注視点3から作業領域C2の代表位置に向かう方向と移動方向F1との成す角度θ1と、注視点3から作業領域C3代表位置に向かう方向と移動方向F1との成す角度θ2とを算出する。動作種別判別部106は、角度θに応じた係数αを用いて距離の補正を行う。
【0072】
図18は角度θと係数αの関係の一例を表す。図18の例では、角度θが0度だと係数αも1で、45度になるまでは角度θに比例して係数αが増加し、角度θが45度で係数αが10になる。角度θが45度を超えると係数αは10で固定される。例えば角度θ1が4.5度、角度θ2が18度、距離L1が0.2、距離L2が0.1である場合、動作種別判別部106は、補正後の距離L1=(4.5度÷45×9+1)×距離L1=1.9×0.2=0.38と、補正後の距離L2(18度÷45×9+1)×距離L2=4.6×0.1=0.46とを算出する。ここで距離L1、L2は静止画の画面横幅を1として正規化した距離とする。
【0073】
動作種別判別部106は、算出した補正後の距離L1及び補正後の距離L2とが判別閾値以上であるか否かを判断する。この例の場合、距離L1と距離L2を比較すると距離L2のほうが小さいが、補正後の距離L1と補正後の距離L2を比較すると補正後の距離L1のほうが小さい値となり、L1に視線が向かったと判定することができる。本変形例によれば、距離を補正しない場合に比べて、作業者が作業に慣れてきたときに誤った処理結果になること、すなわち、誤った動作の種類が判定されることが抑制される。
【0074】
[2-3]作業対象との位置関係
動作の種別を判別する際に、動作種別判別部106は、まず、動画像取得部101により取得された動画像から作業対象の位置を認識する。動作種別判別部106は、例えば、部品等の作業対象のサンプル画像を記憶しておき、画像認識で用いられる特徴量が類似するサンプル画像が表す作業対象を特定する。
【0075】
動作種別判別部106は、作業対象の画像特徴を予め記憶しておき、特定した作業対象の動画像における画像特徴と位置とに基づいて、作業対象までの距離及び方向を算出する。そして、動作種別判別部106は、算出した距離及び方向に基づいて作業対象の3次元空間における座標を算出し、算出した座標によって作業対象の位置を認識する。動作種別判別部106は、切れ目特定部104により検知された眼球運動が示す注視点の動画像における位置と認識した作業対象の位置との位置関係に基づき動作の種類を判別する。
【0076】
動作種別判別部106は、例えば、算出した作業対象までの距離が注視点までの距離であるものとして、運動検知部103により検知された眼球運動を表す眼球の回転角に応じて注視点の動画像における位置を特定する。動作種別判別部106は、例えば、認識した作業対象の位置の周辺の決められた範囲に特定した注視点の位置が含まれるか否かに基づき作業者の動作の種類を判別する。
【0077】
動作種別判別部106は、例えば、作業対象毎に作業に必要な領域の形状及び画像特徴を記憶しておき、認識した作業対象の位置を含むその領域を上記の範囲として決定する。動作種別判別部106は、決定した範囲に特定した注視点の位置が含まれる場合に、その範囲に対応付けられた動作の種類を判別する。動作種別判別部106は、作業対象と動作の種類とを対応付けた動作テーブルを用いる。
【0078】
図19は本変形例の動作テーブルの一例を表す。図19の例では、「部品E1」、「部品E2」、「部品E3」という作業対象が、「部品E1を手に取って本体に取り付ける動作」、「部品E2を手に取って本体に取り付ける動作」、「部品E3を手に取って本体に取り付ける動作」という動作の種類にそれぞれ対応付けられている。
【0079】
動作種別判別部106は、例えば、作業対象である部品E1の周辺の決められた範囲に含まれる注視点1が算出された場合、部品E1に対応付けられた「部品E1を手に取って本体に取り付ける動作」を動作の種類として判別する。また、動作種別判別部106は、作業対象である部品E2の周辺の決められた範囲に含まれる注視点2が算出された場合、部品E2に対応付けられた「部品E2を手に取って本体に取り付ける動作」を動作の種類として判別する。
【0080】
このように、本変形例では、動作種別判別部106は、注視点の動画像における位置と作業対象の位置との位置関係に基づき作業者の動作の種類を判別する。作業対象の位置は動画像から認識されるので、本変形例によれば、固定された撮像装置を設けなくても、その位置関係を考慮しない場合に比べて、より適切な処理結果が得られること、すなわち、より適切な動作の種類が判別されることになる。
【0081】
また、動作種別判別部106は、作業対象の位置の周辺の決められた範囲に注視点の位置が含まれるか否かに基づき作業者の動作の種類を判別する。この範囲を作業対象に対する作業のために必要な領域の形状及び大きさに応じて決めることで、作業のために必要な領域がどのような形状であっても、より適切な処理結果が得られること、すなわち、より適切な動作の種類が判別されることになる。
【0082】
なお、動作種別判別部106は、作業対象の位置を代表する座標を定め、その座標と注視点の位置との距離に基づき作業者の動作の種類を判別してもよい。作業対象の位置を代表する座標は、認識された作業対象の位置がひとつならその位置の座標であってもよいし、その位置から決められた方向及び距離にずれた位置であってもよい。また、作業対象の位置を代表する座標は、認識された作業対象の位置が複数ならそれらの位置の中心の座標であってもよい。
【0083】
また、作業対象の位置を代表する座標は、認識された複数の作業対象の位置の中心から決められた方向及び距離にずれた位置であってもよい。動作種別判別部106は、注視点が移動する度に、注視点の情報と代表する座標までの距離とを対応付けて記憶する。動作種別判別部106は、注視点の位置との距離が判別閾値未満である座標が定められた作業対象に対応付けられている動作の種類を判別する。
【0084】
動作種別判別部106は、例えば注視点の位置から代表する座標までの距離が判別閾値未満となる作業対象が部品E1である場合、図19の動作テーブルにおいて部品E1に対応付けられた「部品E1を手に取って本体に取り付ける動作」を動作の種類として判別する。この場合、作業領域の形状が不明瞭であっても、より適切な処理結果が得られること、すなわち、より適切な動作の種類が判別されることになる。
【0085】
なお、本変形例においても、注視点が作業に必要な領域の手前で停止する場合に備え、動作種別判別部106が、注視点の位置の移動方向に応じて代表する座標と注視点の位置との距離を補正してもよい。この補正は、図16から図18までで説明した方法で行われればよい。これにより、距離を補正しない場合に比べて、作業者が作業に慣れてきたときに誤った処理結果になること、すなわち、誤った動作の種類が判定されることが抑制される。
【0086】
[2-4]動作の切れ目の特定方法
切れ目特定部104は、実施例は異なる方法で動作の切れ目を特定してもよい。切れ目特定部104は、例えば、ウェアラブルデバイス20で作業者の作業領域の動画像を撮影する場合に、検知した眼球運動が示す注視点の画像における位置と作業領域との位置関係に基づき動作の切れ目を特定する。
【0087】
切れ目特定部104は、例えば、作業領域の周辺の決められた範囲に注視点の位置が含まれるか否かに基づき動作の切れ目を特定する。具体的には、切れ目特定部104は、決められた範囲に注視点の位置が含まれていない状態から含まれる状態になったときに、決められた条件が満たされたと判断する。これにより、注視点の画像における位置と作業領域との位置関係を考慮しない場合に比べて、作業領域が含まれている画像から、より適切な処理結果が得られること、すなわち、より適切な動作の切れ目が特定されることになる。
【0088】
また、切れ目特定部104は、作業領域における代表位置と注視点の位置との距離に基づき動作の切れ目を特定してもよい。具体的には、切れ目特定部104は、代表位置と注視点の位置との距離が判別閾値以上である状態からその距離が判別閾値未満である状態になったときに、決められた条件が満たされたと判断し、動作の切れ目を特定する。これにより、作業に必要な領域の形状が不明瞭であっても、より適切な処理結果が得られること、すなわち、より適切な動作の切れ目が特定されることになる。
【0089】
また、切れ目特定部104は、注視点の位置の移動方向に応じて代表位置と注視点の位置との距離を補正してもよい。距離の補正は、上記の変形例と同様に行えばよい。これにより、距離を補正しない場合に比べて、作業者が作業に慣れてきたときに誤った処理結果になること、すなわち、誤った動作の切れ目が特定されることが抑制される。
【0090】
また、切れ目特定部104は、動画像取得部101により取得された動画像から作業対象の位置を認識し、切れ目特定部104により検知された眼球運動が示す注視点の動画像における位置と認識した作業対象の位置との位置関係に基づき動作の切れ目を特定してもよい。切れ目特定部104は、例えば、認識した作業対象の位置の周辺の決められた範囲に注視点の位置が含まれるか否かに基づき動作の切れ目を特定する。
【0091】
切れ目特定部104は、上記変形例と同様に、作業対象毎に作業に必要な領域の形状及び大きさを記憶しておき、認識した作業対象の位置を含むその領域を上記の範囲として決定する。そして、切れ目特定部104は、決定した範囲に特定した注視点の位置が含まれていない状態から含まれる状態になったときに、決められた条件が満たされたと判断し、動作の切れ目を特定する。
【0092】
これにより、上記の変形例と同様に、固定された撮像装置を設けなくても、注視点の動画像における位置と作業対象の位置との位置関係を考慮しない場合に比べて、より適切な処理結果が得られること、すなわち、より適切な動作の切れ目が特定されることになる。また、作業対象の位置の周辺の決められた範囲に注視点の位置が含まれるか否かに基づき切れ目が特定されることで、作業のために必要な領域がどのような形状であっても、より適切な処理結果が得られること、すなわち、より適切な動作の切れ目が特定されることになる。
【0093】
また、切れ目特定部104は、作業対象の位置を代表する座標を定め、その座標と注視点の位置との距離に基づき動作の切れ目を特定してもよい。切れ目特定部104は、注視点の位置との距離が判別閾値以上である状態からその距離が判別閾値未満である状態になったときに、決められた条件が満たされたと判断し、動作の切れ目を特定する。これにより、作業領域の形状が不明瞭であっても、より適切な処理結果が得られること、すなわち、より適切な動作の切れ目が特定されることになる。
【0094】
また、本変形例においても、注視点が作業に必要な領域の手前で停止する場合に備え、切れ目特定部104が、注視点の位置の移動方向に応じて代表する座標と注視点の位置との距離を補正してもよい。この補正は、図16から図18までで説明した方法で行われればよい。これにより、距離を補正しない場合に比べて、作業者が作業に慣れてきたときに誤った処理結果になること、すなわち、誤った動作の切れ目が特定されることが抑制される。
【0095】
[2-5]機能構成
サーバ装置10、ウェアラブルデバイス20及び固定カメラ30が実現する機能の構成は、図4等に表すものに限らない。例えば、実施例では切れ目特定部104が、第1条件を用いた切れ目の特定及び第2条件を用いた切れ目の特定を行ったが、これらの動作を別々の機能が行ってもよい。
【0096】
また、例えば動画像取得部101及び動画像記憶部102が行う動作や切れ目特定部104及び切れ目出力部105が行う動作を、それぞれ1つの機能が行ってもよい。また、サーバ装置10が実現する機能を2以上の情報処理装置又はクラウドサービスで提供されるコンピュータリソースが実現してもよい。要するに、全体として図4等に表された機能が実現されていれば、各機能が行う動作の範囲及び各機能を実現する装置は自由に定められてよい。
【0097】
[2-6]プロセッサ
上記各実施例において、プロセッサとは広義的なプロセッサを指し、汎用的なプロセッサ(例えばCPU:Central Processing Unit、等)や、専用のプロセッサ(例えばGPU:Graphics Processing Unit、ASIC:Application Specific Integrated Circuit、FPGA:Field Programmable Gate Array、プログラマブル論理デバイス、等)を含むものである。
【0098】
また上記各実施例におけるプロセッサの動作は、1つのプロセッサによって成すのみでなく、物理的に離れた位置に存在する複数のプロセッサが協働して成すものであってもよい。また、プロセッサの各動作の順序は上記各実施例において記載した順序のみに限定されるものではなく、適宜変更してもよい。
【0099】
[2-7]発明のカテゴリ
本発明は、サーバ装置及びウェアラブルデバイスという情報処理装置の他に、情報処理装置が実施する処理を実現するための情報処理方法としても捉えられるし、情報処理装置を制御するコンピュータを機能させるためのプログラムとしても捉えられる。このプログラムは、それを記憶させた光ディスク等の記録媒体の形態で提供されてもよいし、インターネット等の通信回線を介してコンピュータにダウンロードさせ、それをインストールして利用可能にするなどの形態で提供されてもよい。
【符号の説明】
【0100】
1…作業管理システム、10…サーバ装置、20…ウェアラブルデバイス、30…固定カメラ、101…動画像取得部、102…動画像記憶部、103…運動検知部、104…切れ目特定部、105…切れ目出力部、106…動作種別判別部、107…領域画像記憶部、201…撮像部、202…センサ測定部。
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14
図15
図16
図17
図18
図19