IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 富士機械製造株式会社の特許一覧

<>
  • 特開-ピッキング条件決定システム 図1
  • 特開-ピッキング条件決定システム 図2
  • 特開-ピッキング条件決定システム 図3
  • 特開-ピッキング条件決定システム 図4
  • 特開-ピッキング条件決定システム 図5
  • 特開-ピッキング条件決定システム 図6
  • 特開-ピッキング条件決定システム 図7
  • 特開-ピッキング条件決定システム 図8
  • 特開-ピッキング条件決定システム 図9
  • 特開-ピッキング条件決定システム 図10
  • 特開-ピッキング条件決定システム 図11
  • 特開-ピッキング条件決定システム 図12
  • 特開-ピッキング条件決定システム 図13
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024152392
(43)【公開日】2024-10-25
(54)【発明の名称】ピッキング条件決定システム
(51)【国際特許分類】
   B25J 13/08 20060101AFI20241018BHJP
【FI】
B25J13/08 A
【審査請求】未請求
【請求項の数】6
【出願形態】OL
(21)【出願番号】P 2023066555
(22)【出願日】2023-04-14
(71)【出願人】
【識別番号】000237271
【氏名又は名称】株式会社FUJI
(74)【代理人】
【識別番号】110000017
【氏名又は名称】弁理士法人アイテック国際特許事務所
(72)【発明者】
【氏名】水谷 佳幸
(72)【発明者】
【氏名】大池 博史
【テーマコード(参考)】
3C707
【Fターム(参考)】
3C707AS01
3C707BS11
3C707DS01
3C707ES03
3C707FS01
3C707HS27
3C707JU03
3C707KS03
3C707KS04
3C707KS06
3C707KS11
3C707KT01
3C707KT03
3C707KT06
3C707KV01
3C707LV07
3C707LV19
3C707NS02
(57)【要約】      (修正有)
【課題】ピッキング条件をより簡単に設定できるようにする。
【解決手段】ピッキング条件決定システムは、指定のピッキングツールを使ってワークを指定のピッキング位置でピッキングするピッキングロボットに適用され、ピッキングツールの種別とピッキング位置とを含むピッキング条件を決定するピッキング条件決定システムであって、撮像範囲に含まれる対象物の三次元画像を撮像可能な撮像部と、撮像範囲に作業者の手指とワークとが含まれた状態で撮像部により撮像された画像から手指を認識する認識処理を実行する認識部と、認識した手指のジェスチャに基づいてワークのピッキング条件を決定する決定部と、を備える。
【選択図】図7
【特許請求の範囲】
【請求項1】
指定のピッキングツールを使ってワークを指定のピッキング位置でピッキングするピッキングロボットに適用され、前記ピッキングツールの種別と前記ピッキング位置とを含むピッキング条件を決定するピッキング条件決定システムであって、
撮像範囲に含まれる対象物の三次元画像を撮像可能な撮像部と、
前記撮像範囲に作業者の手指と前記ワークとが含まれた状態で前記撮像部により撮像された画像から前記手指を認識する認識処理を実行する認識部と、
認識した前記手指のジェスチャに基づいて前記ワークの前記ピッキング条件を決定する決定部と、
を備えるピッキング条件決定システム。
【請求項2】
指定のピッキングツールを使ってワークを指定のピッキング位置でピッキングするピッキングロボットに適用され、前記ピッキングツールの種別と前記ピッキング位置とを含むピッキング条件を決定するピッキング条件決定システムであって、
ARマーカと、
各種画像を表示可能な表示部と、
撮像範囲に含まれる対象物の三次元画像を撮像可能な撮像部と、
前記撮像範囲に作業者の手指と前記ARマーカとが含まれた状態で前記撮像部により撮像された画像に基づいて、前記手指と該ARマーカに対応するワークのARコンテンツとが含まれるAR画像を作成し、該AR画像を前記表示部に表示させる表示制御部と、
前記AR画像から前記手指を認識する認識処理を実行する認識部と、
認識した前記手指のジェスチャに基づいて前記ワークの前記ピッキング条件を決定する決定部と、
を備えるピッキング条件決定システム。
【請求項3】
請求項2に記載のピッキング条件決定システムであって、
前記表示制御部は、前記作業者の指示に応じて前記ワークの前記ARコンテンツを拡大または縮小して前記表示部に表示させる、
ピッキング条件決定システム。
【請求項4】
請求項1ないし3のいずれか1項に記載のピッキング条件決定システムであって、
前記認識部は、前記認識処理において前記ワークに対する前記指先の位置を認識し、
前記決定部は、認識した前記指先の位置を前記指定のピッキング位置に決定する、
ピッキング条件決定システム。
【請求項5】
請求項1ないし3のいずれか1項に記載のピッキング条件決定システムであって、
複数のピッキングツールをそれぞれを互いに異なる手指形状に対応付けて記憶した記憶部を備え、
前記決定部は、前記記憶部に記憶された前記複数のピッキングツールのうち前記認識部で認識した前記手指形状に対応するピッキングツールを前記指定のピッキングツールに決定する、
ピッキング条件決定システム。
【請求項6】
請求項5に記載のピッキング条件決定システムであって、
前記複数のピッキングツールには、前記ワークを把持する2つの把持爪を有するメカチャックと、前記ワークを吸着する吸着ツールとが含まれ、
前記記憶部は、前記メカチャックを前記作業者の右手または左手の人差し指と親指とで前記ワークを摘まむ手指形状に対応付けて記憶し、前記吸着ツールを前記作業者の右手または左手の人差し指で前記ワークを指さす手指形状に対応付けて記憶する、
ピッキング条件決定システム。
【発明の詳細な説明】
【技術分野】
【0001】
本明細書は、ピッキング条件決定システムについて開示する。
【背景技術】
【0002】
従来、ばら積み状態で供給された同種の複数のワークを、ワークの種別に応じたピッキングツール(例えば、メカチャックや吸着ノズル)を用いてトレイ上に整列させて配置するピッキングシステムが知られている。例えば、特許文献1には、供給された同種の複数のワークの画像を撮像し、予め作成されたワーク形状モデルとのパターンマッチングによりロボットがピッキングする対象ワークを抽出し、ワークの種別毎に定められるピッキング条件にしたがって対象ワークをピッキングするロボットシステムが開示されている。ピッキング条件には、ワーク形状モデルにおけるピッキング位置や、ピッキングツールの種別に関する条件が含まれる。
【先行技術文献】
【特許文献】
【0003】
【特許文献1】国際公開第2018/163242号
【発明の概要】
【発明が解決しようとする課題】
【0004】
しかしながら、上述したピッキングシステムでは、ピッキング条件を定めるに当たって、ピッキングするワークの種別ごとに、ピッキングツールの種別とピッキング位置とを、作業者が入力する必要がある。このため、多くの種類のワークに対してピッキング位置を設定する場合には、作業者には負担となる場合がある。
【0005】
本開示は、ピッキング条件をより簡単に設定できるようにすることを主目的とする。
【課題を解決するための手段】
【0006】
本開示の第1のピッキング条件決定システムは、
指定のピッキングツールを使ってワークを指定のピッキング位置でピッキングするピッキングロボットに適用され、前記ピッキングツールの種別と前記ピッキング位置とを含むピッキング条件を決定するピッキング条件決定システムであって、
撮像範囲に含まれる対象物の三次元画像を撮像可能な撮像部と、
前記撮像範囲に作業者の手指と前記ワークとが含まれた状態で前記撮像部により撮像された画像から前記手指を認識する認識処理を実行する認識部と、
認識した前記手指のジェスチャに基づいて前記ワークの前記ピッキング条件を決定する決定部と、
を備えることを要旨とする。
【0007】
この第1のピッキング条件決定システムでは、画像から確認した作業者の手指のジェスチャに基づいてワークのピッキング条件を決定する。これにより、作業者による面倒なデータの入力が必要なくなり、ピッキング条件をより簡単に設定できることができる。
【0008】
本開示の第2のピッキング条件決定システムは、
指定のピッキングツールを使ってワークを指定のピッキング位置でピッキングするピッキングロボットに適用され、前記ピッキングツールの種別と前記ピッキング位置とを含むピッキング条件を決定するピッキング条件決定システムであって、
ARマーカと、
各種画像を表示可能な表示部と、
撮像範囲に含まれる対象物の三次元画像を撮像可能な撮像部と、
前記撮像範囲に作業者の手指と前記ARマーカとが含まれた状態で前記撮像部により撮像された画像に基づいて、前記手指と該ARマーカに対応するワークのARコンテンツとが含まれるAR画像を作成し、該AR画像を前記表示部に表示させる表示制御部と、
前記AR画像から前記手指を認識する認識処理を実行する認識部と、
認識した前記手指のジェスチャに基づいて前記ワークの前記ピッキング条件を決定する決定部と、
を備えることを要旨とする。
【0009】
この第2のピッキング条件決定システムでは、本開示の第1のピッキング条件決定システムと同様の効果を奏する。また、ピッキング条件を決定するに当たり、実際にワークを用意する必要がなくなる。
【図面の簡単な説明】
【0010】
図1】ロボットシステム10の概略構成図である。
図2】ロボット20の概略構成図である。
図3】ロボットシステム10の電気的な接続関係を示すブロック図である。
図4】ボルト形のワークWをピッキングツールでピッキングする様子を示す説明図である。
図5】干渉チェック領域AIの説明図である。
図6】画像処理システム80の概略構成図である。
図7】ピッキング条件決定処理の一例を示すフローチャートである。
図8】人差し指F2でワークWを指さす手指形状の説明図である。
図9】親指F1と人差し指F2とでワークWを摘まむ手指形状の説明図である。
図10】第1変形例の画像処理システム80の一例を示す概略構成図である。
図11】第1変形例のピッキング条件決定処理の一例を示すフローチャートである。
図12】第2変形例の画像処理システム80の一例を示す概略構成図である。
図13】第2変形例のピッキング条件決定処理の一例を示すフローチャートである。
【発明を実施するための形態】
【0011】
次に、本開示を実施するための形態について図面を参照しながら説明する。
【0012】
図1は、ロボットシステム10の概略構成図である。図2は、ロボット20の概略構成図である。図3は、ロボットシステム10の電気的な接続関係を示すブロック図である。なお、ワールド座標系において、図1中、左右方向はX軸方向であり、前後方向はY軸方向であり、上下方向はZ軸方向である。
【0013】
ロボットシステム10は、図1に示すように、ロボット20と、ロボット制御装置70(図3参照)と、画像処理装置90(図3参照)とを備える。ロボットシステム10は、本実施形態では、ワーク供給装置12により供給されたワークWをピッキング(把持)し、ピッキングしたワークWをトレイ搬送装置14により搬送されたトレイ15上に整列させてプレースするピックアンドプレースシステムとして構成される。なお、ロボットシステム10は、ピッキングしたワークWを対象物に組み付ける組み付けシステムとして構成されてもよい。
【0014】
ロボット20は、図2に示すように、5軸の垂直多関節アーム(以下、アームという)22を備える。アーム22は、6つのリンク(第1~第6リンク31~36)と、各リンクを回転または旋回可能に連結する5つの関節(第1~第5関節41~45)とを有する。各関節(第1~第5関節41~45)には、対応する関節を駆動するモータ(サーボモータ)51~55と、対応するモータの回転位置を検出するエンコーダ(ロータリエンコーダ)61~65とが設けられている。
【0015】
アーム22の先端リンク(第6リンク36)には、エンドエフェクタとしての複数種のピッキングツールが着脱可能となっている。本実施形態では、ピッキングツールには、ワークWを吸着する吸着ツール(例えば、ワークWを負圧によって吸着する吸着ノズルや、ワークWを磁力によって吸着する電磁石など)と、一対の把持爪によってワークWを把持するチャックツール(例えば、ワークWを保持する近接位置とワークWの保持を解除する離間位置との間を移動可能な2つのクランプ爪を有するメカニカルチャックなど)とが含まれる。先端リンクに装着するピッキングツールは、ピッキングしようとするワークWの形状や素材に合わせて適宜選択される。
【0016】
また、アーム22の先端部(第5リンク35)には、第1カメラ24が取り付けられている。第1カメラ24は、ワーク供給装置12により供給された各ワークWの位置および姿勢を認識するために当該ワークWを撮像したり、トレイ搬送装置14により搬送されたトレイ15の位置を認識するために当該トレイ15を撮像したり、ワークWやトレイ15までの距離を測定したりする三次元カメラである。
【0017】
アーム22の基端リンク(第1リンク31)は、作業台11に固定されている。作業台11には、ワーク供給装置12やトレイ搬送装置14などが配置されている。ワーク供給装置12は、本実施形態では、前後方向(Y軸方向)に離間して配置された駆動ローラおよび従動ローラに架け渡されたコンベアベルト13を備えるベルトコンベア装置により構成される。コンベアベルト13には複数のワークWがバラ置きされ、ワーク供給装置12は、駆動ローラを回転駆動することにより、コンベアベルト13上の複数のワークWを後方から前方へ供給する。なお、ワーク供給装置は、ベルトコンベア装置に代えて或いはベルトコンベア装置に併設して、ケース(部品箱)に収容された複数のワークをケースごと供給するケース供給装置とされてもよい。トレイ搬送装置14は、ベルトコンベア装置により構成され、ワークWの供給方向とは直交する方向(X軸方向)にトレイ15を搬送し、略中央位置にて位置決め保持する。
【0018】
ロボット制御装置70は、図3に示すように、CPU71を中心としたマイクロプロセッサとして構成され、CPU71の他に、ROM72やストレージ(例えば、SSDやHDD)73、RAM74、図示しない入出力インタフェース、図示しない通信インタフェースなどを備える。ロボット制御装置70には、エンコーダ61~65などからの検知信号が入力される。また、ロボット制御装置70からは、ワーク供給装置12やトレイ搬送装置14、モータ51~55、ツールアクチュエータ56などへの制御信号が出力される。ツールアクチュエータ56は、ロボット20に装着されているピッキングツールを駆動するためのアクチュエータである。
【0019】
ロボット制御装置70は、ロボット20の各モータ51~55を駆動制御することにより、ロボット20に、ワークWをピッキングさせるピッキング処理と、ピッキングさせたワークWをトレイ15にプレースさせるプレース処理とを実行する。ピッキング処理は、具体的には、以下のようにして行なわれる。即ち、ロボット制御装置70は、目標とされるピッキング位置PPおよび姿勢に対応するアーム22の各関節の目標位置を取得する。続いて、ロボット制御装置70は、各関節の位置が当該取得した目標位置に一致するように対応するモータ51~55を駆動制御する。ボルト型のワークWを吸着ツールでピッキングする場合には、ピッキング位置PPは、図4(a)に示すように、ワークの先端に1箇所設定されている。また、ボルト型のワークWをチャックツールでピッキングする場合には、ピッキング位置PPは、図4(b)に示すように、ワークの略中央に2箇所設定されている。そして、ロボット制御装置70は、ピッキングツールによってワークWがピッキングされるようツールアクチュエータ56を制御する。プレース処理は、具体的には、以下のようにして行なわれる。即ち、ロボット制御装置70は、目標とされるプレース位置および姿勢に対応するアーム22の各関節の目標位置を取得する。続いて、ロボット制御装置70は、各関節の位置が当該取得した目標位置に一致するように対応するモータ51~55を駆動制御する。そして、ロボット制御装置70は、ピッキングしたワークWがプレース(ワークWの把持が解除)されるようツールアクチュエータ56を制御する。
【0020】
画像処理装置90は、図3に示すように、CPU91を中心としたマイクロプロセッサとして構成され、CPU91の他に、ROM92やストレージ93、RAM94、図示しない入出力インタフェース、図示しない通信インタフェースなどを備える。画像処理装置90には、第1カメラ24からの画像信号や、入力装置95からの入力信号などが入力される。また、画像処理装置90からは、第1カメラ24への駆動信号や表示装置96への出力信号などが出力される。ここで、入力装置95は、例えばキーボードやマウス等、オペレータが入力操作を行なう入力デバイスである。表示装置96は、例えば液晶ディスプレイ等、各種情報を表示するための表示デバイスである。画像処理装置90は、ロボット制御装置70と通信可能に接続されており、互いに制御信号やデータのやり取りを行なっている。
【0021】
画像処理装置90は、ロボット制御装置70に制御信号を送信してアーム22(第1カメラ24)をワーク供給装置12により供給されたワークWの撮像ポイントへ移動させ、第1カメラ24を駆動してワークWを撮像し、得られた画像データ(撮像画像)を入力する。続いて、画像処理装置90は、入力した画像データを処理して、撮像画像中のワークWを認識する。そして、画像処理装置90は、干渉チェック処理を行ない、認識したワークWのうちピッキング可能な対象ワークを抽出し、当該対象ワークの位置(代表位置)とそのピッキング位置PPとからピッキングに使用するピッキングツールの目標位置および目標姿勢を設定して、ロボット制御装置70に送信する。ここで、ピッキング位置PPは、ワークWの代表位置を原点としワークWの長手方向をZ軸とする直交座標系であるワーク座標系の座標値として、後述する画像処理システム80により予め決定されている。撮像画像に基づいて認識されるワークWの代表位置は、第1カメラ24において予め定められた位置を原点とし、第1カメラ24の光軸をZ軸とする第1カメラ座標系の座標値として与えられる。一方、ピッキングツールの目標位置は、予め定められた位置を原点とし、上下方向をZ軸とし、前後方向をY軸とし、左右方向をX軸とするワールド座標系の座標値として設定する必要がある。このため、画像処理装置90は、撮像画像により認識したワークWの代表位置とピッキング位置PPとの各座標系をワールド座標系に変換して、ワールド座標系でのピッキング位置を算出し、算出したワールド座標系のピッキング位置をピッキングツールの目標位置に設定する。なお、ピッキングツールの目標姿勢は、設定したピッキングツールの目標位置や撮像画像から認識される対象ワークの向き(姿勢)に基づいて設定される。
【0022】
ここで、干渉チェック処理は、ピッキングツールで対象ワークをピッキングする際に当該ピッキングツールが周辺ワークWと干渉しないかどうかをチェックする処理である。具体的には、予め定められた干渉チェック領域AIに他のワークWがあるか否かを判定する。吸着ツールを用いて対象ワークをピッキングする際の干渉チェック領域AIは、図5(a)に示すように半径Rの球状領域である。この領域は、例えば、ピッキング位置PPを中心として吸着ノズルの負圧が及ぶ領域や、ピッキング位置PPを中心として電磁チャックの磁力が及ぶ領域である。チャックツールを用いて対象ワークをピッキングする際の干渉チェック領域AIは、図5(b)に示すようにピッキング位置PPを中心としてメカチャックの2つのクランプ爪が近接位置(把持位置)と離間位置(把持解除位置)との間を移動する移動領域を形成する2つの直方体状領域である。
【0023】
次に、このようにして構成されたロボットシステム10で用いるピッキングツールの種別とピッキング位置PPとを含むピッキング条件を決定する手順について説明する。ピッキング条件の決定は、上述した画像処理装置90を含む画像処理システム80を用いて行われる。画像処理システム80は、図6に示すように、第2カメラ97と、ロボットシステム10と共用の画像処理装置90と、を備える。
【0024】
第2カメラ97は、撮像範囲に含まれる物体の画像を撮像したり、当該物体までの距離を取得したりする三次元カメラである。第2カメラ97は、図6に示すように、載置台98に固定されている。第2カメラ97は、例えば、ステレオカメラとして構成されている。第2カメラ97は、対象物の画像データや対象物までの距離データを画像処理装置90に対して出力する。
【0025】
画像処理装置90は、第2カメラ97から入力される画像データや距離データに基づいて、ワークWのピッキング位置PPや当該ワークWのピッキングに用いるピッキングツールを決定する。ストレージ93には、ピッキング条件の決定に用いられる手指形状データ93aが記憶されている。手指形状データ93aは、ピッキング条件のうちピッキングツールの決定に用いられるデータであり、その詳細については後述する。
【0026】
図7は、ピッキング条件決定処理の一例を示すフローチャートである。この処理は、作業者Tによって、ピッキング条件の作成対象である対象ワークの種別が入力された後、画像処理装置90のCPU91によって実行される。
【0027】
本処理を開始すると、CPU91は、まず、第2カメラ97から入力される画像データや距離データに基づき、対象ワークを認識する(S100)。具体的には、CPU91、3次元のパターンマッチングなどにより、第2カメラ97から対象ワークまでの距離、対象ワークの姿勢を認識する。次に、CPU91は、距離データに基づいて、第2カメラ97において予め定めた位置を原点とし、第2カメラ97の光軸をZ軸とする直交座標系である第2カメラ座標系での対象ワークの代表位置(例えば、重心位置)であるワーク位置P1C(X1C,Y1C,Z1C)を取得する(S102)。続いて、CPU91は、第2カメラ97から入力される画像を表示装置96に表示させる(S104)。そして、CPU91は、表示装置96に表示させる画像を更新しながら、作業者Tによる入力装置95の操作を受け付けて、撮像指示が入力されるまで待つ(S106)。作業者Tは、対象ワークにおいてピッキング位置PPに設定したい位置に指の先端を配置した状態で、入力装置95を操作して画像処理装置90に対して画像の撮像を指示する。
【0028】
撮像の指示が入力されると、CPU91は、第2カメラ97の撮像範囲に含まれる物体の画像を撮像し(S108)、画像を取得する(S110)。次に、CPU91は、三次元のパターンマッチング等により、取得した画像から作業者Tの手指Hを認識する(S112)。続いて、CPU91は、手指形状データ93aを参照して、手指Hの形状を判定する(S114)。手指形状データ93aは、ワークWのピッキングに用いられるピッキングツールを作業者Tの手指Hの形状に対応付けて記憶したものである。そして、CPU91は、手指Hの形状が図8に示すような人差し指F2で対象ワークを指さす形状であるか否かを判定する(S116)。手指Hの形状が人差し指F2で対象ワークを指さす形状であると判定したならば、CPU91は、対象ワークをピッキングする際に使用するピッキングツールを吸着ツールに決定する(S118)。手指Hの形状が人差し指F2で対象ワークを指さす形状でないと判定したならば、CPU91は、手指Hの形状が図9に示すような親指F1と人差し指F2とで対象ワークを摘まむ形状であるか否かを判定する(S120)。手指Hの形状が親指F1と人差し指F2とで対象ワークを摘まむ形状であると判定したならば、CPU91は、対象ワークをピッキングする際に使用するピッキングツールをチャックツールに決定する(S122)。手指Hの形状が親指F1と人差し指F2とで対象ワークを摘まむ形状でないと判定したならば、CPU91は、S114で判定した手指形状に対応するピッキングツールが手指形状データ93aに登録されていないと判定して、表示装置96に、エラーメッセージ(作業者Tの手指形状に基づいてピッキングツールを決定することができなかった旨のメッセージ)を表示させ(S124)、再びS100に戻り、処理をやり直す。
【0029】
S118の後またはS122の後、CPU91は、S110で取得した画像に基づいて、第2カメラ座標系での指先位置P2C(X2C,Y2C,Z2C)を取得する(S126)。次に、CPU91は、第2カメラ座標系での指先位置P2Cをワーク座標系での対象ワークに対する指先の相対位置である相対指先位置PL1に変換する(S128)。この処理は、例えば、以下のようにして実行される。すなわち、まず、CPU91は、第2カメラ座標系でのワーク位置P1C(対象ワークの代表位置)と指先位置P2Cとをそれぞれワールド座標系でのワーク位置P1W(X1W,Y1W,Z1W)と指先位置P2W(X2W,Y2W,Z2W)とに変換行列を用いて変換する。変換行列は、載置台98に対する第2カメラ97の設置位置および第2カメラ97の姿勢(傾き)によって予め定められる。次に、CPU91は、ワールド座標系での対象ワークの代表位置に対する指先の相対位置である相対指先位置PL1を算出する。具体的には、CPU91は、ワールド座標系での指先位置P2Wにおける各軸の座標値からワールド座標系でのワーク位置P1Wにおける各軸の座標値を減じて、ワールド座標系での相対指先位置PL1を算出する。続いて、CPU91は、変換行列を用いてワールド座標系での相対指先位置PL1を、対象ワークの代表位置を原点とし対象ワークの長手方向をZ軸としたワーク座標系での指先位置PL1に変換する。変換行列は、ワールド座標系における載置台98に対する対象ワークの位置(ワーク位置P1W)や対象ワークの姿勢(傾き)に基づいて予め定められる。
【0030】
次に、CPU91は、ワーク座標系での指先位置PL1をピッキング位置PPに設定する(S130)。そして、CPU91は、対象ワークのピッキング位置PPとピッキングツールとをストレージ93に登録して(S132)、本処理を終了する。
【0031】
この画像処理システム80では、画像処理装置90のCPU91は、画像における作業者Tの手指形状を判定して、ストレージ93に記憶された手指形状データ93aと照らし合わすことで、対象ワークをピッキングする際のピッキングツールを決定する。このため、作業者Tは、直感的な操作により対象ワークのピッキングに用いるピッキングツールを比較的簡単に決定することができる。
【0032】
また、CPU91は、対象ワークに対する作業者Tの指先位置をピッキング位置PPに設定する。すなわち、作業者Tが対象ワークにおいて指先を配置した位置がピッキング位置PPに設定される。このため、作業者Tは、直感的な操作によりピッキング位置PPを比較的簡単に設定することができる。
【0033】
ここで、本実施形態の構成要素と本開示の構成要素との対応関係を明らかにする。本実施形態の画像処理システム80が本開示のピッキング条件決定システムに相当し、第2カメラ97が撮像部に相当し、ピッキング条件決定処理のS112およびS114を実行するCPU91が認識部に相当し、ピッキング条件決定処理のS116~S130の処理を実行するCPU91が決定部に相当する。
【0034】
なお、本発明は上述した実施形態に何ら限定されることはなく、本開示の発明の技術的範囲に属する限り種々の態様で実施し得ることはいうまでもない。
【0035】
例えば、画像処理システム80は、下記の第1変形例や第2変形例に示すように構成されてもよい。第1変形例の画像処理システムは、図10に示すように、画像処理装置90と、第2カメラ97と、ARマーカMと、ユーザ端末100とを備える。第1変形例の画像処理システム80では、載置台98に載置されたワークWを第2カメラ97で撮像する代わりに、載置台98に載置されたARマーカMを第2カメラ97で撮像する。そして、第1変形例の画像処理システム80では、ARマーカMに対応して予め作成されたワークWの画像(ARコンテンツ)をユーザ端末100に表示させる。
【0036】
ARマーカMは、例えば、2次元的な模様や色彩を紙に印刷したものである。ARマーカMは、載置台98上に配置されている。ARマーカMは、ワークWの種別毎に異なる模様や色彩を有する。
【0037】
ユーザ端末100は、タブレットPCやノートPCなど、図示しない表示装置を有するものである。ユーザ端末100は、画像処理装置90からの画像信号を入力し、表示部に画像を表示する。
【0038】
次に、第1変形例の画像処理システム80におけるピッキング条件決定処理について説明する。図11は、第1変形例のピッキング条件決定処理の一例を示すフローチャートである。なお、図11において、図7と同様の処理については、同じステップ番号を付して詳細な説明を省略した。この処理は、作業者Tによって、ピッキング条件の作成対象である対象ワークの種別が入力された後、画像処理装置90のCPU91によって実行される。
【0039】
この処理を開始すると、CPU91は、まず、第2カメラ97から入力される画像データからARマーカMを認識し、ARマーカMに対応する対象ワークのARコンテンツを取得する(S200)。ARコンテンツは、対象ワークの形状データに基づいて予め作成され、ARマーカMに対応付けられてストレージ93に記憶されている。次に、CPU91は、作業者Tによる入力装置95の操作を受け付けて、ARコンテンツの表示倍率αを入力する(S202)。表示倍率αは、ユーザ端末100にARコンテンツを表示する際の各軸方向の倍率である。そして、CPU91は、表示倍率がα倍の対象ワークのARコンテンツを含むAR画像をユーザ端末100に表示させる(S204)。
【0040】
次に、CPU91は、作業者Tによる入力装置95の操作を受け付けて、入力された表示倍率αに応じてAR画像を更新しながら、表示倍率αが確定するまで待つ(S206)。表示倍率αが確定していないならば、CPU91は、再びS202に戻り、表示倍率αの入力を受け付ける。表示倍率αが確定したならば、CPU91は、確定した表示倍率αでAR画像を更新しながら、撮像指示が入力されるまで待つ(S106)。作業者Tは、ユーザ端末100の画面に表示された対象ワークのARコンテンツを見ながら、ユーザ端末100の画面上で対象ワークの希望するピッキング位置に指先が一致するように、載置台98に載置されたARマーカMに指先を配置した状態で、入力装置95を操作して画像処理装置90に対して画像の撮像を指示する。撮像指示が入力されるまで、CPU91は、ユーザ端末100にAR画像を表示し続ける。撮像指示が入力されたならば、CPU91は、画像を撮像し(S108)、画像を取得する(S110)。続いて、CPU91は、ARマーカMまでの距離データに基づいて、第2カメラ座標系での対象ワークの代表位置(ARマーカMが載置された位置から求められる仮想ワークの位置)であるワーク位置P1C(X1C,Y1C,Z1C)を取得する(S208)。そして、CPU91は、取得した画像から作業者Tの手指Hを認識する。(S112)。
【0041】
次に、CPU91は、手指Hの形状を判定し(S114)、手指Hの形状が図8に示すような人差し指F2で対象ワークを指さす形状であるか否かを判定する(S116)。手指Hの形状が人差し指F2で対象ワークを指さす形状であると判定したならば、CPU91は、対象ワークをピッキングする際のピッキングツールを吸着ツールに決定する(S118)。手指Hの形状が人差し指F2で対象ワークを指さす形状でないと判定したならば、CPU91は、手指Hの形状が図9に示すような親指F1と人差し指F2とで対象ワークを摘まむ形状であるか否かを判定する(S120)。手指Hの形状が親指F1と人差し指F2とで対象ワークを摘まむ形状であると判定したならば、CPU91は、対象ワークをピッキングする際のピッキングツールをチャックツールに決定する(S122)。手指Hの形状が親指F1と人差し指F2とで対象ワークを摘まむ形状でないと判定したならば、CPU91は、S114で判定した手指Hの形状に対応するピッキングツールが手指形状データ93aに登録されていないと判定して、表示装置96に、エラーメッセージ(作業者Tの手指形状に基づいてピッキングツールを決定することができなかった旨のメッセージ)を表示させ(S124)、再びS200に戻り、処理をやり直す。
【0042】
S118の後またはS122の後、CPU91は、S110で取得した画像に基づいて、第2カメラ座標系での指先位置P2C(X2C,Y2C,Z2C)を取得し(S126)、第2カメラ座標系での指先位置P2Cをワーク座標系での対象ワークに対する指先の位置である相対指先位置PL2に変換する(S210)。具体的には、CPU91は、上述した実施形態と同様にワーク座標系での作業者Tの指先の位置である指先位置PL1を算出し、指先位置PL1の各軸の座標値を(1/α)倍して、ワーク座標系での縮尺後の指先位置PL2を算出する。続いて、CPU91は、縮尺後の指先位置PL2をピッキング位置PPに設定する(S212)。そして、CPU91は、対象ワークのピッキング位置PPとピッキングツールとをストレージ93に登録して(S132)、本処理を終了する。
【0043】
この画像処理システム80では、上述した実施形態の画像処理システム80と同様の効果を奏する。また、第2カメラ97から入力した画像データに基づいてARマーカMを認識し、認識したARマーカMに対応する対象ワークのARコンテンツと作業者Tの手指Hとをユーザ端末100に表示させながら、ARマーカMの位置から求められる仮想ワークの代表位置と作業者TのARマーカMに対する手指Hの形状および指先の位置に基づいてピッキング条件を決定する。このため、対象ワークを用意しなくてもピッキング条件を決定することができる。
【0044】
次に、第2変形例の画像処理システムについて説明する。第2変形例の画像処理システムは、図12に示すように、画像処理装置90と、ハンドトラッキンググローブ110と、VRゴーグル120とを有する。第2変形例の画像処理システム80では、現実世界の作業者Tの手指HとワークWとを第2カメラ97によって撮像する代わりに、作業者Tの手指Hをハンドトラッキングにより認識し、認識した手指HのVRコンテンツとワークWのVRコンテンツとを仮想空間上に表示する。
【0045】
ハンドトラッキンググローブ110は、図示しない複数のセンサを有する。複数のセンサは、作業者Tの手指Hの形状に関する信号を画像処理装置90に出力する。画像処理装置90は、各センサからの信号に基づいて、作業者Tの手指Hの形状を認識し、認識した形状に対応する手指HのVRコンテンツをVRゴーグル120に出力する。
【0046】
VRゴーグル120は、図示しないが、ユーザの両目の前に配置される2つの表示パネル(例えば、液晶パネルや有機ELパネル)と、2つの表示パネルの前に配置されるレンズ(拡大レンズ)等を備える。VRゴーグル120は、画像処理装置90から入力されたVRコンテンツを2つの表示パネルに表示して、仮想空間上にコンテンツを立体表示する。
【0047】
次に、第2変形例の画像処理システム80におけるピッキング条件決定処理について説明する。図13は、第2変形例のピッキング条件決定処理の一例を示すフローチャートである。なお、図13において、図7および図11と同様の処理については、同じステップ番号を付して詳細な説明を省略した。この処理は、作業者Tによって、ピッキング条件の作成対象である対象ワークの種別が入力された後、画像処理装置90のCPU91によって実行される。
【0048】
本処理を開始すると、CPU91は、まず、作業者Tの手指HのVRコンテンツをVRゴーグル120に出力する(S300)。手指HのVRコンテンツは、予め作成され、ストレージ93に記憶されている。なお、VRゴーグルに出力される手指HのVRコンテンツは、ハンドトラッキンググローブ110から入力される信号に基づく形状である。次に、CPU91は、作業者Tによる入力装置95の操作を受け付けて、VR表示される対象ワークの表示倍率αを入力する(S302)。続いて、CPU91は、対象ワークのVRコンテンツをVRゴーグル120に出力する(S304)。対象ワークのVRコンテンツは、対象ワークの形状データ(CADデータなど)に基づいて予め作成され、ストレージ93に記憶されている。そして、CPU91は、作業者Tによる入力装置95の操作を受け付けて、表示倍率αに応じてVRコンテンツの表示を更新しながら、表示倍率αが確定するまで待つ(S306)。表示倍率αは、仮想空間上にVRコンテンツを表示する際の各軸方向の倍率である。表示倍率αが確定していないならば、CPU91は、再びS302に戻り、表示倍率αの入力を受け付ける。表示倍率αが確定したならば、CPU91は、画像の取得が指示されるまで待つ(S308)。作業者Tは、VRゴーグル120に表示された対象ワークのVRコンテンツを見ながら、対象ワークにおいてピッキング位置PPに決定したい位置に手指HのVRコンテンツにおける指先を配置した状態で、入力装置95を操作して画像処理装置90に対して画像の取得を指示する。画像の取得が指示されるまで、CPU91は、VRゴーグル120にVRコンテンツを表示し続ける。続いて、CPU91は、画像を取得する(S110)。そして、取得した画像における手指HのVRコンテンツの形状を認識する(S310)。
【0049】
次に、手指HのVRコンテンツの形状が図8に示すような人差し指F2で対象ワーク(VRコンテンツ)を指さす形状であるか否かを判定する(S116)。手指HのVRコンテンツの形状が人差し指F2で対象ワークのVRコンテンツを指さす形状であると判定したならば、CPU91は、対象ワークをピッキングする際のピッキングツールを吸着ツールに決定する(S118)。手指HのVRコンテンツの形状が人差し指F2で対象ワークのVRコンテンツを指さす形状でないと判定したならば、CPU91は、手指HのVRコンテンツの形状が図9に示すような親指F1と人差し指F2とでワークを摘まむ形状であるか否かを判定する(S120)。親指F1と人差し指F2とでワークを摘まむ手指Hの形状であると判定したならば、CPU91は、対象ワークをピッキングする際のピッキングツールをチャックツールに決定する(S122)。手指Hの形状が親指F1と人差し指F2とでワークを摘まむ形状でないと判定したならば、CPU91は、S310で判定した手指形状に対応するピッキングツールが手指形状データ93aに登録されていないと判定して、表示装置96に、エラーメッセージ(作業者Tの手指Hの形状に基づいてピッキングツールを決定することができなかった旨のメッセージ)を表示させ(S124)、再びS300に戻り、処理をやり直す。
【0050】
S118の後またはS122の後、CPU91は、S110で取得した画像に基づいて、仮想空間において予め定められた位置を原点とし、仮想空間における上下方向をZ軸とし、前後方向をY軸とし、左右方向をX軸とする直交座標系であるVRワールド座標系での対象ワークの代表位置(例えば、重心位置)であるワーク位置P1V(X1V,Y1V,Z1V)を取得する(S312)。次に、CPU91は、VRワールド座標系での指先位置P2V(X2V,Y2V,Z2V)を取得する。続いて、CPU91は、取得したVRワールド座標系での指先位置P2Vを、対象ワークの代表位置を原点とし、長手方向をZ軸とする直交座標系であるVRワーク座標系での指先位置PL2に変換する(S316)。具体的には、CPU91は、指先位置P2Vにおける各軸の座標値からワーク位置P1Vの各軸の座標値を減じてVRワールド座標系での相対指先位置P3Vを算出する。次に、CPU91は、変換行列を用いてVRワールド座標系での相対指先位置P3WをVRワーク座標系での指先位置PL1に変換する。そして、CPU91は、指先位置PL1の各軸の座標値を(1/α)倍して、VRワーク座標系での縮尺後の指先位置PL2を算出する。続いて、CPU91は、縮尺後の指先位置PL2をピッキング位置PPに設定する(S212)。そして、CPU91は、対象ワークのピッキング位置とピッキングツールとをストレージ93に登録して(S132)、本処理を終了する。
【0051】
以上説明したように、本開示の第1のピッキング条件決定システムでは、画像から確認した作業者の手指動作に基づいてワークのピッキング条件を決定する。これにより、作業者による面倒なデータの入力が必要なくなり、ピッキング条件をより簡単に設定できることができる。
【0052】
本開示の第2のピッキング条件決定システムでは、本開示の第1のピッキング条件決定システムと同様の効果を奏する。また、ピッキング条件を決定するに当たり、実際にワークを用意する必要がなくなる。
【0053】
また、第2のピッキング条件決定システムにおいて、前記表示制御部は、前記作業者の指示に応じて前記ワークの前記ARコンテンツを拡大または縮小して前記表示部に表示させてもよい。こうすれば、サイズが比較的小さいワークや比較的大きいワークに対しても、ワークの狙いの位置に作業者の手指を動かすことができ、比較的容易にピッキング条件を決定することができる。
【0054】
また、第1および第2のピッキング条件決定システムにおいて、前記認識部は、前記認識処理において前記ワークに対する前記指先の位置を認識し、前記決定部は、認識した前記指先の位置を前記指定のピッキング位置に決定してもよい。こうすれば、作業者の感覚的な操作によりピッキング位置を決定することができる。
【0055】
また、第1および第2のピッキング条件決定システムにおいて、複数のピッキングツールをそれぞれを互いに異なる手指形状に対応付けて記憶した記憶部を備え、前記決定部は、前記記憶部に記憶された前記複数のピッキングツールのうち前記認識部で認識した前記手指形状に対応するピッキングツールを前記指定のピッキングツールに決定してもよい。こうすれば、作業者の感覚的な操作によりピッキングツールを決定することができる。
【0056】
また、第1および第2のピッキング条件決定システムにおいて、前記複数のピッキングツールには、前記ワークを把持する2つの把持爪を有するメカチャックと、前記ワークを吸着する吸着ツールとが含まれ、前記記憶部は、前記メカチャックを前記作業者の右手または左手の人差し指と親指とで前記ワークを摘まむ手指形状に対応付けて記憶し、前記吸着ツールを前記作業者の右手または左手の人差し指で前記ワークを指さす手指形状に対応付けて記憶していてもよい。メカチャックや吸着ツールを用いてワークをピッキングする場合も多く、また、これらの手指形状は比較的区別し易いため、ピッキングツールをこれらの手指形状に対応付けて記憶することの意義は大きい。
【0057】
なお、本明細書では、出願当初の請求項5において「請求項1ないし3のいずれか1項に記載のピッキング条件決定システム」を「請求項1ないし4のいずれか1項に記載のピッキング条件決定システム」に変更した技術的思想も開示されている。
【産業上の利用可能性】
【0058】
本開示は、画像処理装置や多関節ロボットの製造産業などに利用可能である。
【符号の説明】
【0059】
10 ロボットシステム、11 作業台、12 ワーク供給装置、13 コンベアベルト、14 トレイ搬送装置、15 トレイ、20 ロボット、22 アーム、24 第1カメラ、31 第1リンク、32 第2リンク、33 第3リンク、34 第4リンク、35 第5リンク、36 第6リンク、41 第1関節、42 第2関節、43 第3関節、44 第4関節、45 第5関節、51~55 モータ、56 ツールアクチュエータ、61~65 エンコーダ、70 ロボット制御装置、71 CPU、72 ROM、73 ストレージ、74 RAM、80 画像処理システム、90 画像処理装置、91 CPU、92 ROM、93 ストレージ、93a 手指形状データ、94 RAM、95 入力装置、96 表示装置、97 第2カメラ、98 載置台、100 ユーザ端末、110 ハンドトラッキンググローブ、120 VRゴーグル、AI 干渉チェック領域、F1 親指、F2 人差し指、H 手指、L2 指先位置、M ARマーカ、P1C ワーク位置、P1V ワーク位置、P1W ワーク位置、P2C 指先位置、P2V 指先位置、P2W 指先位置、P3V 相対指先位置、P3W 相対指先位置、PL1 相対指先位置、PL2 相対指先位置、PP ピッキング位置、R 半径、T 作業者、W ワーク。
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13