IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

2025-39116エンドエフェクタ、ロボットシステム、エンドエフェクタの制御方法、ロボットシステムの制御方法、物品の製造方法、プログラム、記録媒体
<>
  • -エンドエフェクタ、ロボットシステム、エンドエフェクタの制御方法、ロボットシステムの制御方法、物品の製造方法、プログラム、記録媒体 図1
  • -エンドエフェクタ、ロボットシステム、エンドエフェクタの制御方法、ロボットシステムの制御方法、物品の製造方法、プログラム、記録媒体 図2
  • -エンドエフェクタ、ロボットシステム、エンドエフェクタの制御方法、ロボットシステムの制御方法、物品の製造方法、プログラム、記録媒体 図3
  • -エンドエフェクタ、ロボットシステム、エンドエフェクタの制御方法、ロボットシステムの制御方法、物品の製造方法、プログラム、記録媒体 図4
  • -エンドエフェクタ、ロボットシステム、エンドエフェクタの制御方法、ロボットシステムの制御方法、物品の製造方法、プログラム、記録媒体 図5
  • -エンドエフェクタ、ロボットシステム、エンドエフェクタの制御方法、ロボットシステムの制御方法、物品の製造方法、プログラム、記録媒体 図6
  • -エンドエフェクタ、ロボットシステム、エンドエフェクタの制御方法、ロボットシステムの制御方法、物品の製造方法、プログラム、記録媒体 図7
  • -エンドエフェクタ、ロボットシステム、エンドエフェクタの制御方法、ロボットシステムの制御方法、物品の製造方法、プログラム、記録媒体 図8
  • -エンドエフェクタ、ロボットシステム、エンドエフェクタの制御方法、ロボットシステムの制御方法、物品の製造方法、プログラム、記録媒体 図9
  • -エンドエフェクタ、ロボットシステム、エンドエフェクタの制御方法、ロボットシステムの制御方法、物品の製造方法、プログラム、記録媒体 図10
  • -エンドエフェクタ、ロボットシステム、エンドエフェクタの制御方法、ロボットシステムの制御方法、物品の製造方法、プログラム、記録媒体 図11
  • -エンドエフェクタ、ロボットシステム、エンドエフェクタの制御方法、ロボットシステムの制御方法、物品の製造方法、プログラム、記録媒体 図12
  • -エンドエフェクタ、ロボットシステム、エンドエフェクタの制御方法、ロボットシステムの制御方法、物品の製造方法、プログラム、記録媒体 図13
  • -エンドエフェクタ、ロボットシステム、エンドエフェクタの制御方法、ロボットシステムの制御方法、物品の製造方法、プログラム、記録媒体 図14
  • -エンドエフェクタ、ロボットシステム、エンドエフェクタの制御方法、ロボットシステムの制御方法、物品の製造方法、プログラム、記録媒体 図15
  • -エンドエフェクタ、ロボットシステム、エンドエフェクタの制御方法、ロボットシステムの制御方法、物品の製造方法、プログラム、記録媒体 図16
  • -エンドエフェクタ、ロボットシステム、エンドエフェクタの制御方法、ロボットシステムの制御方法、物品の製造方法、プログラム、記録媒体 図17
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2025039116
(43)【公開日】2025-03-21
(54)【発明の名称】エンドエフェクタ、ロボットシステム、エンドエフェクタの制御方法、ロボットシステムの制御方法、物品の製造方法、プログラム、記録媒体
(51)【国際特許分類】
   B25J 13/08 20060101AFI20250313BHJP
【FI】
B25J13/08 A
【審査請求】未請求
【請求項の数】29
【出願形態】OL
(21)【出願番号】P 2023145971
(22)【出願日】2023-09-08
(71)【出願人】
【識別番号】000001007
【氏名又は名称】キヤノン株式会社
(74)【代理人】
【識別番号】110003133
【氏名又は名称】弁理士法人近島国際特許事務所
(72)【発明者】
【氏名】浅野 秀忠
(72)【発明者】
【氏名】大熊 勇
(72)【発明者】
【氏名】岡崎 亮太
(72)【発明者】
【氏名】塚本 稜司
(72)【発明者】
【氏名】溝花 弘登
【テーマコード(参考)】
3C707
【Fターム(参考)】
3C707AS07
3C707BS12
3C707HS27
3C707KT01
3C707KT05
3C707KT11
3C707LW07
(57)【要約】
【課題】作業ツールでワークを支持した状態でも撮像対象を撮像すること。
【解決手段】ロボットシステムのロボット本体に取付けられるエンドエフェクタ(100)は、本体部(101)と、本体部に支持され、撮像可能なカメラ(120)と、本体部に移動自在に支持され、ワーク(W)を支持可能であり、かつワークに対する作業を実行可能な作業ツール(141,142)と、を備えている。カメラにより撮像対象を撮像する際に、ワークを支持した作業ツールを、カメラの視野における撮像対象と作業ツール及び支持したワークとが重なる重複範囲の外側に位置させる。
【選択図】図5
【特許請求の範囲】
【請求項1】
本体部と、
前記本体部に支持され、撮像可能なカメラと、
前記本体部に移動自在に支持され、ワークを支持可能であり、かつワークに対する作業を実行可能なツールと、を備え、
前記カメラにより撮像対象を撮像する場合に、前記カメラの視野において、前記ツールまたは前記ツールで支持したワークの少なくとも一部と前記撮像対象とが重なる範囲の外側に、ワークを支持した前記ツールを位置させる、
ことを特徴とするエンドエフェクタ。
【請求項2】
前記ツールまたは支持したワークの少なくとも一部が、前記範囲の内側にある状態から、前記カメラにより撮像対象を撮像する前に、前記範囲の外側に、ワークを支持した前記ツールを移動させる、
ことを特徴とする請求項1に記載のエンドエフェクタ。
【請求項3】
前記撮像対象は、前記ツールにより作業を行う作業対象であり、
ワークを支持した前記ツールが前記範囲の外側にある状態から、前記ツールにより作業を実行する前に、前記カメラの視野において、ワークが前記作業対象に少なくとも一部が重なるように、ワークを支持した前記ツールを移動させる、
ことを特徴とする請求項1に記載のエンドエフェクタ。
【請求項4】
前記カメラにより撮像対象を撮像する場合に、前記ツール及び支持したワークを、前記カメラの視野の外側に位置させる、
ことを特徴とする請求項1に記載のエンドエフェクタ。
【請求項5】
前記撮像対象は、作業において前記ツールで支持したワークを接触させる接触位置である、
ことを特徴とする請求項1に記載のエンドエフェクタ。
【請求項6】
前記ツールは、ワークを把持することで支持する第1指部及び第2指部を含む、
ことを特徴とする請求項1に記載のエンドエフェクタ。
【請求項7】
前記第1指部は、前記本体に対して移動自在に支持される第1根元部と、前記第1根元部よりも先端に配置され、ワークを把持する第1指先部と、を有し、
前記第2指部は、前記本体に対して移動自在に支持される第2根元部と、前記第2根元部よりも先端に配置され、ワークを把持する第2指先部と、を有する、
ことを特徴とする請求項6に記載のエンドエフェクタ。
【請求項8】
前記第1指部及び前記第2指部は、前記本体部に対して移動された場合に、前記第1指先部及び前記第2指先部が前記範囲の内側と外側とに移動し、かつ前記第1指先部及び前記第2指先部が前記範囲の内側にある場合でも前記第1根元部及び前記第2根元部が前記範囲の外側に位置するように形成されている、
ことを特徴とする請求項7に記載のエンドエフェクタ。
【請求項9】
前記第1指先部及び前記第2指先部は、前記範囲の内側に位置する状態で、前記カメラと前記カメラの焦点位置との間に位置する、
ことを特徴とする請求項7に記載のエンドエフェクタ。
【請求項10】
前記本体部は、
前記第1根元部及び前記第2根元部をスライド移動可能に支持するスライド部と、
前記第1根元部を前記スライド部においてスライド移動させるように駆動する第1駆動部と、
前記第1駆動部とは独立して駆動可能であり、前記第2根元部を前記スライド部においてスライド移動させるように駆動する第2駆動部と、を有する、
ことを特徴とする請求項7に記載のエンドエフェクタ。
【請求項11】
請求項1に記載のエンドエフェクタと、
前記エンドエフェクタが取付けられ、前記エンドエフェクタの位置及び姿勢を移動可能なロボット本体と、
前記ロボット本体及び前記エンドエフェクタを制御する制御部と、を備え、
前記制御部は、前記カメラにより撮像された画像から前記撮像対象に対する前記エンドエフェクタの位置合せを行う位置合せ制御を実行する、
ことを特徴とするロボットシステム。
【請求項12】
前記制御部は、前記位置合せ制御として、前記エンドエフェクタと前記撮像対象との位置ずれを、前記カメラにより撮像した画像と目標となる目標画像とから演算し、前記位置ずれが無くなるように前記エンドエフェクタの位置を補正する補正制御を実行する、
ことを特徴とする請求項11に記載のロボットシステム。
【請求項13】
前記撮像対象は、平面状に形成された平面部と、前記平面部に対して傾斜された傾斜部と、を有し、
前記エンドエフェクタは、光軸方向に光を照射する照射部を備え、
前記制御部は、前記平面部で反射した反射光の光軸が前記カメラに向かい、かつ前記傾斜部で反射した反射光の光軸が前記カメラと異なる方向に向かうように前記撮像対象を前記照射部により照射して、前記カメラにより撮像する、
ことを特徴とする請求項12に記載のロボットシステム。
【請求項14】
前記撮像対象は、前記平面部に対して穴状に形成された穴部を有し、
前記傾斜部は、前記穴部の開口の外縁において面取りされた面取り部である、
ことを特徴とする請求項13に記載のロボットシステム。
【請求項15】
前記カメラは、テレセントリック光学系を有し、
前記制御部は、前記テレセントリック光学系の光軸を前記平面部に直交させた状態で、前記カメラにより撮像する、
ことを特徴とする請求項13に記載のロボットシステム。
【請求項16】
前記照射部は、前記テレセントリック光学系の光軸と同軸に光を照射する同軸落射照明であり、
前記制御部は、前記テレセントリック光学系の光軸を前記平面部に直交させた状態で、前記同軸落射照明により前記平面部を照射しつつ前記カメラにより撮像する、
ことを特徴とする請求項15に記載のロボットシステム。
【請求項17】
前記撮像対象は、前記ツールによりワークに関する作業を行う作業位置であり、
前記作業位置が複数個所である場合、複数の前記作業位置のそれぞれに対して実行される前記位置合せ制御で、同じ前記目標画像を用いる、
ことを特徴とする請求項12に記載のロボットシステム。
【請求項18】
前記複数の作業位置のそれぞれで実行される作業は、前記複数の作業位置の少なくとも1つにあるワークを前記ツールに支持させる第1作業と、前記ツールにより支持されたワークを前記複数の作業位置の少なくとも1つに接触させる第2作業と、を含み、
前記第1作業を行う前に実行される前記位置合せ制御と、前記第2作業を行う前に実行される前記位置合せ制御とで、同じ前記目標画像を用いる、
ことを特徴とする請求項17に記載のロボットシステム。
【請求項19】
前記制御部は、
前記エンドエフェクタの姿勢を変化させつつ、前記カメラにより撮像された画像から前記平面部で反射した光の輝度を演算し、
前記演算した輝度が最大となるように前記エンドエフェクタの姿勢を補正する姿勢補正制御を実行する、
ことを特徴とする請求項11に記載のロボットシステム。
【請求項20】
前記制御部は、
前記エンドエフェクタの姿勢を操作して教示を行う教示装置と、情報の表示を行う表示装置と、に接続可能であり、
前記エンドエフェクタの姿勢が変更された場合に、前記カメラにより撮像された画像から前記平面部で反射した光の輝度を演算して前記表示装置に表示する、
ことを特徴とする請求項11に記載のロボットシステム。
【請求項21】
撮像可能なカメラと、光軸方向に光を照射する照射部と、を備えるエンドエフェクタと、
前記エンドエフェクタが取付けられ、前記エンドエフェクタの位置及び姿勢を移動可能なロボット本体と、
前記ロボット本体及び前記エンドエフェクタを制御する制御部と、を備え、
前記制御部は、
前記カメラにより撮像された画像から撮像対象に対する前記エンドエフェクタの位置合せを行う位置合せ制御を実行する際に、
平面状に形成された平面部、及び前記平面部に対して傾斜された傾斜部を有する撮像対象を、前記平面部で反射した反射光の光軸が前記カメラに向かい、かつ前記傾斜部で反射した反射光の光軸が前記カメラと異なる方向に向かうように前記照射部により照射して前記カメラにより撮像する、
ことを特徴とするロボットシステム。
【請求項22】
本体部と、前記本体部に支持され、撮像可能なカメラと、前記本体部に移動自在に支持され、ワークに対して作業を施すツールと、を備え、制御部により制御されるエンドエフェクタの制御方法において、
前記制御部が、前記カメラにより撮像対象を撮像する場合に、前記カメラの視野において、前記ツールまたは前記ツールで支持したワークの少なくとも一部と前記撮像対象とが重なる範囲の外側に、ワークを支持した前記ツールを位置させる、
ことを特徴とするエンドエフェクタの制御方法。
【請求項23】
本体部と、前記本体部に支持され、撮像可能なカメラと、前記本体部に移動自在に支持され、ワークに対して作業を施すツールと、を備えるエンドエフェクタと、
前記エンドエフェクタが取付けられ、前記エンドエフェクタの位置及び姿勢を移動可能なロボット本体と、
前記ロボット本体及び前記エンドエフェクタを制御する制御部と、を備えるロボットシステムの制御方法において、
前記制御部が、前記カメラにより撮像対象を撮像する場合に、前記カメラの視野において、前記ツールまたは前記ツールで支持したワークの少なくとも一部と前記撮像対象とが重なる範囲の外側に、ワークを支持した前記ツールを位置させる退避工程と、
前記制御部が、ワークを支持した前記ツールを前記範囲の外側に位置させた状態で、前記カメラにより撮像対象を撮像する撮像工程と、
前記制御部が、前記カメラにより撮像された画像から前記撮像対象に対する前記エンドエフェクタの位置合せを行う位置合せ工程と、を備える、
ことを特徴とするロボットシステムの制御方法。
【請求項24】
前記退避工程において、前記制御部が、前記ツール及び支持したワークの少なくとも一部が前記範囲の内側にある状態から、前記カメラにより撮像対象を撮像する前に、前記範囲の外側に、ワークを支持した前記ツールを移動させる、
ことを特徴とする請求項23に記載のロボットシステムの制御方法。
【請求項25】
前記制御部が、前記撮像工程の後、ワークを支持した前記ツールが前記範囲の外側にある状態から、前記ツールにより作業を実行する前に、前記カメラの視野において、ワークが前記撮像対象に少なくとも一部が重なるように、ワークを支持した前記ツールを前記範囲の内側に移動させる復帰工程を備える、
ことを特徴とする請求項23に記載のロボットシステムの制御方法。
【請求項26】
撮像可能なカメラと、光軸方向に光を照射する照射部と、を備えるエンドエフェクタと、
前記エンドエフェクタが取付けられ、前記エンドエフェクタの位置及び姿勢を移動可能なロボット本体と、
前記ロボット本体及び前記エンドエフェクタを制御する制御部と、を備えるロボットシステムの制御方法において、
前記制御部が、平面状に形成された平面部、及び前記平面部に対して傾斜された傾斜部を有する撮像対象を、前記平面部で反射した反射光の光軸が前記カメラに向かい、かつ前記傾斜部で反射した反射光の光軸が前記カメラと異なる方向に向かうように前記照射部により照射する照射工程と、
前記制御部が、前記照射工程により光が照射された撮像対象を前記カメラにより撮像する撮像工程と、
前記制御部が、前記カメラにより撮像された画像から前記エンドエフェクタと前記撮像対象との位置関係を演算する演算工程と、を備える、
ことを特徴とするロボットシステムの制御方法。
【請求項27】
請求項11に記載のロボットシステムを用いて物品の製造を行うことを特徴とする物品の製造方法。
【請求項28】
請求項23に記載のロボットシステムの制御方法を、コンピュータに実行させるためのプログラム。
【請求項29】
請求項28に記載のプログラムを記憶したコンピュータにより読み取り可能な記録媒体。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、エンドエフェクタ、ロボットシステム、エンドエフェクタの制御方法、ロボットシステムの制御方法、物品の製造方法、プログラム、記録媒体に関する。
【背景技術】
【0002】
例えばロボットハンドのフィンガーによってワークを把持し、所望の位置にワークを設置するものが開示されている(特許文献1参照)。この特許文献1のものは、カメラによってワークを撮像することで、ワークの幾何情報を取得し、その幾何情報に基づいてフィンガーを制御してワークを把持している。そして、ワークを撮像する際には、フィンガーを撮像領域外に退避させている。
【先行技術文献】
【特許文献】
【0003】
【特許文献1】特開2016-120545号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
しかしながら、上記特許文献1のものは、フィンガーによってワークを把持した状態になった場合、ワークを設置する設置位置がワークによって遮られてカメラで撮像できない。そのため、ワークを設置する設置位置が正確に把握できず、フィンガーの位置を設置位置に正確に補正できないため、ワークの設置動作における設置位置の精度が良好でなくなるという問題がある。
【0005】
そこで本発明は、ツールでワークを支持したまま撮像対象を撮像することが可能なエンドエフェクタ、ロボットシステム、エンドエフェクタの制御方法、ロボットシステムの制御方法、物品の製造方法、プログラム、記録媒体を提供することを目的とする。
【課題を解決するための手段】
【0006】
本発明の一態様は、本体部と、前記本体部に支持され、撮像可能なカメラと、前記本体部に移動自在に支持され、ワークを支持可能であり、かつワークに対する作業を実行可能なツールと、を備え、前記カメラにより撮像対象を撮像する場合に、前記カメラの視野において、前記ツールまたは前記ツールで支持したワークの少なくとも一部と前記撮像対象とが重なる範囲の外側に、ワークを支持した前記ツールを位置させる、ことを特徴とするエンドエフェクタである。
【0007】
本発明の一態様は、撮像可能なカメラと、光軸方向に光を照射する照射部と、を備えるエンドエフェクタと、前記エンドエフェクタが取付けられ、前記エンドエフェクタの位置及び姿勢を移動可能なロボット本体と、前記ロボット本体及び前記エンドエフェクタを制御する制御部と、を備え、前記制御部は、前記カメラにより撮像された画像から撮像対象に対する前記エンドエフェクタの位置合せを行う位置合せ制御を実行する際に、平面状に形成された平面部、及び前記平面部に対して傾斜された傾斜部を有する撮像対象を、前記平面部で反射した反射光の光軸が前記カメラに向かい、かつ前記傾斜部で反射した反射光の光軸が前記カメラと異なる方向に向かうように前記照射部により照射して前記カメラにより撮像する、ことを特徴とするロボットシステムである。
【0008】
本発明の一態様は、本体部と、前記本体部に支持され、撮像可能なカメラと、前記本体部に移動自在に支持され、ワークに対して作業を施すツールと、を備え、制御部により制御されるエンドエフェクタの制御方法において、前記制御部が、前記カメラにより撮像対象を撮像する場合に、前記カメラの視野において、前記ツールまたは前記ツールで支持したワークの少なくとも一部と前記撮像対象とが重なる範囲の外側に、ワークを支持した前記ツールを位置させる、ことを特徴とするエンドエフェクタの制御方法である。
【0009】
本発明の一態様は、本体部と、前記本体部に支持され、撮像可能なカメラと、前記本体部に移動自在に支持され、ワークに対して作業を施すツールと、を備えるエンドエフェクタと、前記エンドエフェクタが取付けられ、前記エンドエフェクタの位置及び姿勢を移動可能なロボット本体と、前記ロボット本体及び前記エンドエフェクタを制御する制御部と、を備えるロボットシステムの制御方法において、前記制御部が、前記カメラにより撮像対象を撮像する場合に、前記カメラの視野において、前記ツールまたは前記ツールで支持したワークの少なくとも一部と前記撮像対象とが重なる範囲の外側に、ワークを支持した前記ツールを位置させる退避工程と、前記制御部が、ワークを支持した前記ツールを前記範囲の外側に位置させた状態で、前記カメラにより撮像対象を撮像する撮像工程と、前記制御部が、前記カメラにより撮像された画像から前記撮像対象に対する前記エンドエフェクタの位置合せを行う位置合せ工程と、を備える、ことを特徴とするロボットシステムの制御方法である。
【0010】
本発明の一態様は、撮像可能なカメラと、光軸方向に光を照射する照射部と、を備えるエンドエフェクタと、前記エンドエフェクタが取付けられ、前記エンドエフェクタの位置及び姿勢を移動可能なロボット本体と、前記ロボット本体及び前記エンドエフェクタを制御する制御部と、を備えるロボットシステムの制御方法において、前記制御部が、平面状に形成された平面部、及び前記平面部に対して傾斜された傾斜部を有する撮像対象を、前記平面部で反射した反射光の光軸が前記カメラに向かい、かつ前記傾斜部で反射した反射光の光軸が前記カメラと異なる方向に向かうように前記照射部により照射する照射工程と、前記制御部が、前記照射工程により光が照射された撮像対象を前記カメラにより撮像する撮像工程と、前記制御部が、前記カメラにより撮像された画像から前記エンドエフェクタと前記撮像対象との位置関係を演算する演算工程と、を備える、ことを特徴とするロボットシステムの制御方法である。
【発明の効果】
【0011】
本発明によると、ツールでワークを支持した状態でも撮像対象を撮像することができる。
【図面の簡単な説明】
【0012】
図1】第1実施形態に係るロボットシステムを示す図である。
図2】第1実施形態に係るロボットシステムの制御系を示すブロック図である。
図3】第1実施形態に係るロボットハンドを示す斜視図である。
図4】指部で把持したワークがカメラの視野内に位置する状態のロボットハンドを示す下方視図である。
図5】指部で把持したワークがカメラの視野外に位置する状態のロボットハンドを示す下方視図である。
図6】ロボットハンドの指部の構成を示す側面図である。
図7】ロボット装置における画像ベースのビジュアルサーボ制御を示すブロック図である。
図8】ロボット装置における画像ベースのビジュアルサーボ制御を示すフローチャートである。
図9】第1実施形態に係るピン組付制御を示すフローチャートである。
図10】(a)ピンを指部で把持した際のカメラの画像を示す模式図である。(b)ロボットハンドを組付ワークの穴部の上空に移動させた際のカメラの画像を示す模式図である。(c)指部及びピンを視野外に移動した際のカメラの画像を示す模式図である。(d)組付ワークの穴部に対してロボットハンドを位置合わせした際のカメラの画像を示す模式図である。(e)指部及びピンを組付ワークの穴部の上空に移動させた際のカメラの画像を示す模式図である。
図11】第2実施形態に係るピン組付制御を示すフローチャートである。
図12】(a)ピンを指部で把持した際のカメラの画像を示す模式図である。(b)指部及びピンを視野外に移動した状態でロボットハンドを組付ワークの穴部の上空に移動させた際のカメラの画像を示す模式図である。(c)組付ワークの穴部に対してロボットハンドを位置合わせした際のカメラの画像を示す模式図である。(d)指部及びピンを組付ワークの穴部の上空に移動させた際のカメラの画像を示す模式図である。
図13】第3実施形態に係るカメラ及び照明部の構造を示す模式図である。
図14】(a)一般的なカメラで組付ワークの穴部を撮像した際の画像を示す図である。(b)第3実施形態に係るカメラで組付ワークの穴部を撮像した際の画像を示す図である。
図15】(a)一般的なカメラで穴部にピンが載置されたピン置台を撮像した際の画像を示す図である。(b)第3実施形態に係るカメラで穴部にピンが載置されたピン置台を撮像した際の画像を示す図である。
図16】ロボットアームの姿勢補正制御を示すフローチャートである。
図17】(a)姿勢を補正する前のロボットアームを示す模式図である。(b)姿勢を補正した後のロボットアームを示す模式図である。
【発明を実施するための形態】
【0013】
<第1実施形態>
以下、本発明を実施するための第1実施形態について、図1乃至図10を用いて説明する。
【0014】
[ロボットシステムの概略構成]
まず、本第1実施形態に係るロボットシステムの概略構成について図1を用いて説明する。図1は第1実施形態に係るロボットシステムを示す図である。
【0015】
図1に示すように、例えば工場等に設置されるロボットシステム1は、ワークとしての例えば金属性のピンWが載置されたピン置台401から組付ワーク402にワークであるピンWを把持して移動するロボット装置10を備えている。ロボット装置10は、台座2と、その台座2に支持される6軸多関節ロボットのロボット本体としてのロボットアーム10Aと、そのロボットアーム10Aの先端に取付けられるエンドエフェクタとしてのロボットハンド100と、を有している。即ち、ロボットアーム10Aは、所謂マニピュレータであり、その先端には、ロボットハンド100が取付けられるフランジ状のフランジ部11が設けられている。
【0016】
なお、ピン置台401には、ピンWが挿入される複数の穴部401Hが形成されており、これらの穴部401Hに作業前の部品として供給されるピンWが設置されている。また、組付ワーク402には、ワークとしてのピンWが挿入されて嵌合されることで組付けられる穴部402Hが形成されている。即ち、詳しくは後述するロボット装置10が組付制御を実行することで、ピンWが組付ワーク402に組付けられる作業が実行され、組付ワーク402に複数のピンWが組付けられることで、完成した組付ワーク402が物品として製造されることになる。
【0017】
またロボット装置10は、ロボットアーム10Aを制御するロボットコントローラ200と、詳しくは後述するカメラ120(図3参照)を制御するビジョンコントローラ220と、ロボットハンド100を制御するハンドコントローラ230とを有している。即ち、これらの各コントローラは、それぞれの装置に指令を出力可能となるように電気的に接続されている。
【0018】
また、ロボットコントローラ200は、ユーザがロボット装置10のティーチング作業(つまり教示)等を行うための教示装置としてのティーチングペンダント300が接続可能に構成されている。また、ティーチングペンダント300は、各種の情報の表示を行う表示装置としての表示部300Aを有している。なお、本実施形態では、教示装置としてのティーチングペンダント300と表示装置としての表示部300Aとが一体であるものを説明しているが、別々の装置として構成されていてもよい。
【0019】
ティーチングペンダント300は、ロボットコントローラ200に指令することでロボットアーム10Aを駆動し、ロボットアーム10Aの各関節の位置や角度を制御することで、ロボットアームAの位置や姿勢を操作可能に構成されている。また、ティーチングペンダント300は、ロボットアーム10Aの位置や姿勢を操作することができるので、ロボットハンド100の位置や姿勢も操作可能に構成されていることになる。そして、ティーチングペンダント300により操作したロボットアーム10Aの位置や姿勢、或いはロボットハンド100の位置や姿勢は、後述の記憶部としてのハードディスク(HDD)204に記憶させることができる。これにより、ロボット装置10に各種動作(組付作業や位置補正の動作)におけるロボットアーム10Aの位置や姿勢、或いはロボットハンド100の位置や姿勢を記憶させることで、つまり教示が行われる。ロボット装置10は、記憶されたロボットアーム10Aの位置や姿勢、或いはロボットハンド100の位置や姿勢に基づき、各種の動作(各種の作業)を行うことになる。
【0020】
[ロボットシステムの制御系の構成]
次に、ロボットシステム1の制御系について図2を用いて説明する。図2は第1実施形態に係るロボットシステムの制御系を示すブロック図である。
【0021】
図2に示すように、ロボットコントローラ200は、コンピュータで構成されている。ロボットコントローラ200は、プロセッサーであり制御部としてのCPU(Central Processing Unit)201を有している。また、ロボットコントローラ200は、記憶部の一例として、ROM(Read Only Memory)202と、RAM(Random Access Memory)203と、HDD(Hard Disk Drive)204とを有している。
さらに、ロボットコントローラ200は、記録ディスクドライブ205、複数の入出力インタフェース(I/F)139~143を有する。
【0022】
CPU201には、ROM202、RAM203、HDD204、記録ディスクドライブ205、及びインタフェース206~210が、バス211を介して接続されている。ROM202には、BIOS等の基本プログラムが格納されている。RAM203は、CPU201の演算処理結果等、各種データを一時的に記憶する記憶装置である。
【0023】
HDD204は、CPU201の演算処理結果や外部から取得した各種データ等を記憶する記憶装置である。このHDD204には、CPU201に演算処理を実行させるためのプログラムPRが記録される。CPU201は、HDD204に記録(格納)されたプログラムPRに基づいて、後述する各種の制御(制御方法)や、物品の製造方法の各処理を実行する。記録媒体としての記録ディスクドライブ205は、記録ディスク299に記録された各種データやプログラム等を読み出すことができる。即ち、記録ディスクドライブ205に記録されたプログラムPRをHDD204に読み込んでインストールさせることができる。
【0024】
インタフェース206には、ティーチングペンダント300が接続されている。CPU201は、インタフェース206及びバス211を介してティーチングペンダント300から入力データ(入力情報)を取得する。また、CPU201は、バス211及びインタフェース206を介してティーチングペンダント300に設けられた表示部300A(図1参照)に画像データを送信し、各種の表示を実行する。インタフェース207は、書き換え可能な不揮発性メモリや外付けHDD等の記憶部である外部記憶装置350が接続可能に構成されている。
【0025】
インタフェース208には、サーボ制御部15が接続されている。サーボ制御部15には、上記ロボットアーム10A(図1参照)の各関節に備えられたモータ16、角度センサ17、及びトルクセンサ18が接続されている。なお、この図10では、複数の関節のうち1つの関節の構成を代表して図示している。モータ16は、例えばブラシレスDCモータ又はACモータであり、不図示の減速機を介して対応する関節を回転駆動する。角度センサ17は、例えばロータリエンコーダであり、モータ16に設けられ、モータ16の回転角度を検知可能に構成されている。トルクセンサ18は、対応する関節に設けられ、対応する関節に作用するトルクを検知可能に構成されている。
【0026】
即ち、CPU201は、サーボ制御部15、インタフェース208及びバス211を介して、角度センサ17から角度情報を取得することができ、トルクセンサ18からトルク情報を取得することができる。なお、サーボ制御部15は、角度センサ17を用いて検知したモータ16の角度を、不図示の減速機の減速比で除算して、対応する関節の角度情報に変換してCPU201へ送信してもよい。そして、CPU201は、各関節に対応する指令値のデータを、所定時間間隔(たとえば1ms)でバス211及びインタフェース208を介してサーボ制御部15に出力する。これにより、モータ16が駆動されてその関節が駆動される。つまりCPU201(ロボットコントローラ200)によって、ロボットアーム10Aが指令値に応じた位置や姿勢となるように駆動制御される。
【0027】
インタフェース209には、ビジョンコントローラ220が接続されている。ビジョンコントローラ220にはカメラ120が接続されており、ビジョンコントローラ220はCPU201の制御の下、所定時間間隔(たとえば30ms)で接続されているカメラ120の撮像を行う。これにより、CPU201は、ビジョンコントローラ220から視覚情報、即ち撮像画像のデータを所定時間間隔(たとえば30ms)で取得することができる。また、ビジョンコントローラ220には、照明149が接続されており、CPU201の指令に基づきビジョンコントローラ220の制御により、照明光のON/OFFや強弱を変更する。
【0028】
インタフェース210には、ハンドコントローラ230が接続されている。ハンドコントローラ230には上記ロボットハンド100が接続されている。ハンドコントローラ230はCPU201の制御の下、詳しくは後述する第1モータ161と第2モータ151を駆動させ、指部140(所謂ハンド)の開閉を行う。
【0029】
[ロボットハンドの構成]
続いて、ロボットハンド100の詳細な構成について、図3図4図5、及び図6を用いて説明する。図3は第1実施形態に係るロボットハンドを示す斜視図である。図4は指部で把持したワークがカメラの視野内に位置する状態のロボットハンドを示す下方視図である。図5は指部で把持したワークがカメラの視野外に位置する状態のロボットハンドを示す下方視図である。図6はロボットハンドの指部の構成を示す側面図である。
【0030】
図3に示すように、ロボットアーム10A(図1参照)の先端に着脱自在に取付けられるロボットハンド100は、大まかに、本体部としての基部101と、カメラ120と、ツールであってハンドとしての指部140と、を備えて構成されている。基部101は、上記ロボットアーム10Aのフランジ部11(図1参照)に取付けられる取付部102を有しており、その基部101に、撮像可能なカメラ120が固定されて支持されている。カメラ120は、ロボットアーム10Aが制御されることで、ロボットハンド100の位置が組付ワーク402から所定距離で離れた上空の位置になるように移動され、焦点位置P(図3参照)が組付ワーク402の穴部402Hとなるように位置制御される。これにより、カメラ120は、撮像対象であり作業対象であり接触位置である穴部402Hを撮像することが可能となる。なお、同様に、ピン置台401に載置されたピンWや穴部401Hを撮像する場合も、その焦点位置P(図3参照)がピン置台401の穴部401H或いはピンWとなるように位置制御される。この場合、撮像対象は穴部401H或いはピンWとなり、作業対象或いは接触位置は穴部401Hに載置されたピンWとなる。
【0031】
また、基部101には、ワークであるピンWに対する作業を実行可能な指部140を構成する第1指部141及び第2指部142が移動自在に支持されている。これら第1指部141の指先部141bと第2指部の指先部142bとは、ピンWを互いに挟んで把持することでピンWを支持可能となっている。これら第1指部141の指先部141bと第2指部の指先部142bとは、詳しくは後述するようにカメラ120の視野内にある状態で、基部101とカメラ120の焦点位置P(図3参照)との間に位置している。これにより、カメラ120は、第1指部141及び第2指部142より遠方を撮像しその画像を基に各種制御を行うことが可能となっている。
【0032】
ついで、指部140を移動駆動する構造について説明する。上述したように、指部140は、図3及び図4に示すように、第1指部141と第2指部142とを有しており、ワークであるピンWを把持可能に構成されている。第1指部141は第1スライダ143に固定されており、第2指部142は第2スライダ144に固定されている。そして、基部101は、第1スライダ143及び第2スライダ144を移動可能に案内する第1案内部170及び第2案内部180と、第1スライダ143を駆動する第1駆動部150と、第2スライダ144を駆動する第2駆動部160と、を備えている。
【0033】
詳細には、スライド部としての第1案内部170は、第1直動ガイド171と、それにスライド移動可能に支持された可動部172及び可動部173を有している。また、スライド部としての第2案内部180は、第2直動ガイド181と、それにスライド移動可能に支持された可動部182及び可動部183を有している。そして、可動部173及び可動部183に対して第1スライダ143が固定されており、可動部172及び可動部182に対して第2スライダ144が固定されている。
【0034】
一方、第1駆動部150は、大まかに、モータ151、駆動プーリ152、ベルト153、従動プーリ154、ボールねじ軸155、ボールナット156、角度検知センサ159を有して構成されている。即ち、モータ151は駆動回転を出力し、モータ151の出力軸に固定された駆動プーリ152が回転駆動される。駆動プーリ152及び従動プーリ154にはベルト153が張架されており、駆動プーリ152の回転が従動プーリ154に伝達される。従動プーリ154は、ボールねじ軸155の一端に固定されており、ボールねじ軸155を回転させることで、図示を省略したボールを介して第1スライダ143に固定されたボールナット156を軸方向にスライド移動させる。このため、第1スライダ143は、第1案内部170及び第2案内部180に案内されつつ、ボールねじ軸155の軸方向に(第1直動ガイド171及び第2直動ガイド181に沿った方向に)直線的にスライド移動する。従って、第1指部141は、モータ151の回転方向に応じてボールねじ軸155の軸方向に移動駆動される。例えばモータ151を正転させると図中右方に向かうように一方側に移動し、モータ151を逆転させると図中左方に向かうように他方側に移動する。また、モータ151の回転角度は、例えばエンコーダ等で構成された角度検知センサ159により検知され、上記ハンドコントローラ230を介してロボットコントローラ200に出力される。それに基づきCPU201は、第1指部141の位置を演算することで判定し、また、その位置に基づきモータ151の駆動を指令することで、第1指部141の位置を制御する。
【0035】
同様に、第2駆動部160も、大まかに、モータ161、駆動プーリ162、ベルト163、従動プーリ164、ボールねじ軸165、ボールナット166、角度検知センサ169を有して構成されている。即ち、モータ161は駆動回転を出力し、モータ161の出力軸に固定された駆動プーリ162が回転駆動される。駆動プーリ162及び従動プーリ164にはベルト163が張架されており、駆動プーリ162の回転が従動プーリ164に伝達される。従動プーリ164は、ボールねじ軸165の一端に固定されており、ボールねじ軸165を回転させることで、図示を省略したボールを介して第2スライダ144に固定されたボールナット166を軸方向にスライド移動させる。このため、第2スライダ144は、第1案内部170及び第2案内部180に案内されつつ、ボールねじ軸165の軸方向に直線的にスライド移動する。従って、第2指部142は、モータ161の回転方向に応じてボールねじ軸165の軸方向に移動駆動される。例えばモータ161を正転させると図中左方に向かうように一方側に移動し、モータ161を逆転させると図中右方に向かうように他方側に移動する。また、モータ161の回転角度は、例えばエンコーダ等で構成された角度検知センサ169により検知され、上記ハンドコントローラ230を介してロボットコントローラ200に出力される。それに基づきCPU201は、第2指部142の位置を演算することで判定し、また、その位置に基づきモータ161の駆動を指令することで、第2指部142の位置を制御する。
【0036】
以上のように基部101が構成されていることで、第1指部141と第2指部142は、同じ第1直動ガイド171及び第2直動ガイド181の上をそれぞれ独立して移動することが可能となっている。これにより、第1指部141と第2指部142は、ピンWを把持した状態で移動する際に第1指部141と第2指部142との移動方向以外の相対位置のずれを低減でき、ピンWを把持した状態での移動制御を容易にすることができる。
【0037】
また、第2直動ガイド181を、第1直動ガイド171を挟んでピンWの把持位置の反対側に設置することで、ピンW8を設置する際に生じるモーメント力を2つの直動ガイドで支えることができる。このため、第1直動ガイド171及び第2直動ガイド181の耐久性を向上させることが可能となる。
【0038】
ピンWを第1指部141と第2指部142とで把持する場合には、まず、モータ151の回転角度を角度検知センサ159で、モータ161の回転角度を角度検知センサ169で検知する。そして、それらの値に基づき、第1指部141と第2指部142とがピンWの間隔となるように、かつピンWの位置となるように、CPU201によってモータ151及びモータ161を制御する。これにより、第1指部141と第2指部142とでピンWが把持される。
【0039】
また、第1指部141と第2指部142とは、互いの間隔を維持したまま第1直動ガイド171及び第2直動ガイド181に沿って同一方向に移動することができ、つまりピンWを把持したまま移動することができる。即ち、第1指部141と第2指部142とは、図4に示す位置から図5に示す位置に移動させることができる。この図5に示す状態は、第1指部141と第2指部142とピンWとがカメラ120の視野の外側(以下、単に「視野外」という)に退避した退避位置にある状態である。このカメラ120の視野外に移動させることについては、後述のピン組付制御で説明する。なお、ピンWを把持したまま、第1指部141と第2指部142とを移動させる際には、第1指部141と第2指部142との互いの間隔を維持することになる。このため、CPU201は、角度検知センサ159と角度検知センサ169とが検知した値に基づき、第1指部141と第2指部142との位置を協調して移動させるように制御する。
【0040】
ここで、第1指部141及び第2指部142の形状について図6を用いて説明する。第2指部142は、上記第2スライダ144に固定される第2根元部142aと、ピンWに接触して把持する第2指先部142bと、これら第2根元部142aと第2指先部142bとを連結する第2連結部142cとを有している。なお、同様に第1指部141も、上記第1スライダ143に固定される第1根元部141aと、ピンWに接触して把持する第1指先部141bと、これら第1根元部141aと第1指先部141bとを連結する第1連結部141cとを有している。なお、第1指部141の形状と第2指部142の形状とは、略同じ形状であるので、第2指部142の形状を説明して、第1指部141の説明は省略する。
【0041】
第2根元部142aは、カメラ120の撮像方向(つまり光軸方向)に対して図6中の左側にオフセットした位置に配置され、かつ撮像方向に交錯しない位置で上述したように直線的にスライド移動される。そして、第2連結部142cは、第2指先部142bが撮像方向に向かうように屈曲した形状に形成されており、つまり第2指先部142bがカメラ120の視野の内側(以下、単に「視野内」という)に入り得るように形成されている。即ち、第2指先部142bは、第2根元部142aのスライド移動によって第2根元部142aと直線的に平行に移動するため、カメラ120の視野外から視野内を通って視野外に移動する。
【0042】
第1指部141及び第2指部142の形状がこのように形成されていることで、カメラ120によって、第1指先部141b及び第2指先部142bと把持しているピンWとを撮像することができる。そして、カメラ120が撮像した画像には、第1指先部141b及び第2指先部142b以外の、第1連結部141cや第2連結部142c、第1根元部141aや第2根元部142aが撮像されない。これにより、カメラ120が撮像した際の第1指部141及び第2指部142が、作業位置(組付ワーク402の穴部402H、ピン置台401の穴部401H、ピン置台401に載置されたピンW等)と重なる領域を最小限に抑えることができる。また、このような屈曲形状により、第1指部141及び第2指部142を移動させても、カメラ120と干渉せずに、かつ第1指先部141b及び第2指先部142bを撮像できる構造を、コンパクトに達成することができる。これにより、ロボットハンド100の小型化を可能とすることができている。
【0043】
[ビジュアルサーボ制御]
ついで、ロボットアーム10Aの位置・姿勢を制御する画像ベースのビジュアルサーボ制御について図7及び図8を用いて説明する。図7はロボット装置における画像ベースのビジュアルサーボ制御を示すブロック図である。図8はロボット装置における画像ベースのビジュアルサーボ制御を示すフローチャートである。なお、図7のブロック図に示す各部の構成は、CPU201がプログラムPRを実行することによって構成される機能を示したものである。従って、これらの機能は、実際には、ロボットコントローラ200、ビジョンコントローラ220、カメラ120等が動作することによって達成されるものである。
【0044】
ビジュアルサーボ制御とは、ロボットアーム10Aの位置・姿勢を制御する一つの方法であり、目標物の位置の変化を視覚情報として計測し、それをフィードバック制御の情報として用いる制御方法である。また、画像ベースのビジュアルサーボとは、現在の画像上における対象物の画像に含まれる画像特徴を抽出し、目標画像上の画像特徴との差分をフィードバックするビジュアルサーボ制御の一種である。本実施形態のビジュアルサーボ制御では、撮像対象である組付ワーク402の穴部402H、ピン置台401の穴部401H、ピン置台401に載置されたピンW等に対するロボットハンド100の位置合せ或いは位置の補正を行うものである。従って、ビジュアルサーボ制御とは、位置合せ制御或いは補正制御とも言える。
【0045】
図7及び図8に示すように、ロボットコントローラ200が本実施形態に係る画像ベースのビジュアルサーボ制御を開始すると、まず、ビジョンコントローラ220がHDD204に保存された目標画像を読み込み、目標特徴量の読み出しを行う(S1)。即ち、目標画像から特徴量を抽出して、それを目標特徴量として設定する。次に、撮像部501により撮像が指令されることで、カメラ120が組付ワーク402の穴部402H或いはピン置台401の穴部401Hを撮像し、これを現在画像として取得する(S2)。続いて、特徴量抽出部502は、取得した現在画像から現在特徴量を抽出する(S3)。
【0046】
ついで、関節角補正量変換部503は、まず、ステップS3で取得した現在特徴量と、ステップS1で取得した目標画像の目標特徴量と、から特徴量の差分(以下、「特徴量差分」という)を算出する(S4)。そして、関節角補正量変換部503は、特徴量差分をロボットアーム10Aの各関節の角度の補正量(以下、「関節角補正量」という)に変換する(S5)。
【0047】
次に、PID制御部504は、各関節角補正量に適当なPID制御を施し、フィードバック制御の制御量(以下、「フィードバック量」という)を算出する(S6)。続いて、算出したフィードバック量をサーボ制御部15に送信し、各軸のモータ16を駆動させることで、ロボットアーム10Aを動作させる(S7)。
【0048】
そして、CPU201は、動作させたロボットアーム10Aが目標位置に到達したか否か、より詳細には、ロボットアーム10Aが目標位置の許容誤差範囲内に到達したか否かの判定を行う(S8)。ここでは、例えば、上記ステップS6で算出したフィードバック量が所定範囲を超えている場合に、ロボットアーム10Aの位置・姿勢が目標位置の近傍に未だに収束していないものと判定する(S8のNo)。この場合には、上記ステップS2に戻り、現在画像の取得以降の処理を再度実行する。このようにステップS2からステップS8までのループ処理を高速に繰り返すことにより、ロボットアーム10Aを目標とする位置・姿勢に収束させることができる。つまり、ロボットアーム10Aを、組付ワーク402の穴部402H或いはピン置台401の穴部401Hに対して目標の位置関係に到達させることができる。そして、ロボットアーム10Aが目標位置に到達すると(S8のYes)、これにより画像ベースのビジュアルサーボ制御を終了する。
【0049】
[第1実施形態のピン組付制御]
続いて、第1実施形態に係るピン組付制御について、図9及び図10を用いて説明する。図9は第1実施形態に係るピン組付制御を示すフローチャートである。図10(a)はピンを指部で把持した際のカメラの画像を示す模式図である。図10(b)はロボットハンドを組付ワークの穴部の上空に移動させた際のカメラの画像を示す模式図である。図10(c)は指部及びピンを視野外に移動した際のカメラの画像を示す模式図である。図10(d)は組付ワークの穴部に対してロボットハンドを位置合わせした際のカメラの画像を示す模式図である。図10(e)は指部及びピンを組付ワークの穴部の上空に移動させた際のカメラの画像を示す模式図である。
【0050】
第1実施形態に係るピン組付制御では、ロボット装置10を用いて、ピン置台401の穴部401Hに設置されているピンWを把持(取得)する第1作業と、ピンWを移動して組付ワーク402の穴部402Hに挿入して組付ける第2作業とを行う。これら第1作業と第2作業とを繰り返すことで、複数のピンWが組付ワーク402の穴部402Hのそれぞれに挿入されて組付けられ、完成した組付ワーク402が物品として製造される。
【0051】
詳細には、図9に示すように、まず、CPU201は、大まかに、ピン置台401に設置されたピンWの上空にロボットハンド100が位置するようにロボットアーム10Aを駆動してロボットハンド100を移動する(S11)。つまりCPU201は、大まかに、ピンWを把持する位置の上空に指部140が位置するようにロボットアーム10Aを駆動する。
【0052】
続いて、ピン置台401のピンWを撮像し(撮像工程)、つまりピンWをロボットハンド100の指部140で把持する把持位置を撮像した画像を取得する(S12)。そして、上述したビジュアルサーボ制御を実行し、指部140がピンWの把持位置となるようにロボットアーム10Aを位置合せする(位置合せ工程)(S13)。即ち、取得したピンWの画像を現在画像として、ピンWの目標画像との特徴量差分が演算され、特徴量差分が収束するようにロボットアーム10Aを制御する。換言すると、カメラ120で撮像された画像と目標画像とが比較され、ピンWの把持に最適な位置とのずれ量が演算される。そして、算出されたずれ量は、ロボットハンド100が取付けられたロボットアーム10Aの姿勢データに変換され、その姿勢データを用いてピンWとの位置決めを行う。以上により、ロボットアーム10Aが位置決めされ、指部140がピンWの把持位置に位置決めされる。
【0053】
その後、ピンWをロボットハンド100に取得するために、上述したようにロボットハンド100の第1指部141及び第2指部142をモータ151及びモータ161で駆動して、指部140によりピンWの把持を行う(S14)。この状態では、図10(a)に示すように、カメラ120の視野内に、第1指部141の第1指先部141bと第2指部142の第2指先部142bと把持されたピンWとがあり、これらが撮像される状態である。
【0054】
次に、把持したピンWを組付ワーク402の穴部402Hに挿入して取付けるために、ピンWを指部140により把持した状態でロボットハンド100をロボットアーム10Aによって移動する(S15)。即ち、ロボットハンド100を、組付ワーク402の穴部402H(挿入位置)の上空に移動する。この状態では、図10(b)に示すように、カメラ120の視野内に、第1指先部141bと第2指先部142bと把持されたピンWとがあり、かつ、これらの何れかが組付ワーク402の穴部402Hと重複して撮像される状態である。換言すると、カメラ120の視野において、第1指先部141b、第2指先部142b、及び把持されたピンWの少なくとも一部と、組付ワーク402の穴部402Hとが重複する範囲を重複範囲とする。この場合、その重複範囲の内側に、第1指先部141b、第2指先部142b、及び把持されたピンWの何れか1つの一部或いはそれらのうちの複数の一部が位置している状態である。このため、カメラ120は、第1指先部141b、第2指先部142b、及び把持されたピンWの何れかに遮られて、組付ワーク402の穴部402Hを撮像できない状態である。また、この状態では、図10(b)に示すように、穴部402Hの撮像に基づくロボットアーム10Aのビジュアルサーボ制御が完了していないため、指部140で把持したピンWと穴部402Hとは、ズレた状態にある可能性が高い。
【0055】
そこで、カメラ120が組付ワーク402の穴部402H(挿入位置)の撮像を実行する前に、第1指部141の第1指先部141b、第2指部142の第2指先部142b、及びピンWが、カメラ120の視野外となるように移動する(S16)。つまり、第1指部141、第2指部142、及びピンWを、カメラ120の視野外となるように退避させる(退避工程)(図5参照)。具体的には、モータ151及びモータ161を駆動し、第1指部141及び第2指部142を、ピンWを把持したままスライド移動させ、第1指部141、第2指部142、及びピンWが、組付ワーク402の穴部402Hと重ならない位置まで移動する。この際、ロボットアーム10Aについては位置及び姿勢を変化させず、つまりロボットハンド100の位置及び姿勢はそのままで、第1指部141及び第2指部142だけを移動させる。この状態となると、図10(c)に示すように、カメラ120の視野内から第1指部141、第2指部142、及びピンWが退避し、組付ワーク402の穴部402Hを直接的に撮像可能な状態となる。
【0056】
なお、本実施形態では、第1指部141、第2指部142、及びピンWが、カメラ120の視野外となるように移動するものを説明しているが、これらがカメラ120による組付ワーク402の穴部402Hの撮像を遮らなければよい。従って、第1指部141、第2指部142、及びピンWを、上述した重複範囲の外側となるように移動すれば、カメラ120の視野内にあっても構わない。
【0057】
このように、第1指部141、第2指部142、及びピンWを、カメラ120の視野外となるように移動させると、カメラ120によりピンWを挿入する挿入位置である組付ワーク402の穴部402Hを撮像する(撮像工程)(S17)。そして、再びビジュアルサーボ制御を実行し、ここではカメラ120が挿入位置である組付ワーク402の穴部402Hに対して正しい位置となるようにロボットアーム10Aを位置合せする(位置合せ工程)(S18)。即ち、取得した穴部402Hの画像を現在画像として、穴部402Hの目標画像との特徴量差分が演算され、特徴量差分が収束するようにロボットアーム10Aを制御する。換言すると、カメラ120で撮像された画像と目標画像とが比較され、ピンWを穴部402Hに挿入するために最適な位置とのずれ量が演算される。そして、算出されたずれ量は、ロボットハンド100が取付けられたロボットアーム10Aの姿勢データに変換され、その姿勢データを用いて穴部402Hとの位置決めを行う。以上により、ロボットアーム10Aが位置決めされ、ロボットハンド100が穴部402Hに対して位置決めされる。また、この状態では、図10(d)に示すように、カメラ120の視野外に、第1指部141の第1指先部141bと第2指部142の第2指先部142bと把持されたピンWとがある。そのため、組付ワーク402の穴部402Hが例えばカメラ120の視野の略中心に撮像される状態である。
【0058】
ついで、カメラ120による組付ワーク402の穴部402H(挿入位置)の撮像が完了し、ピンWを組付ワーク402の穴部402Hに挿入させる作業を行う前に、指部140をロボットハンド100における元の位置に復帰させる(復帰工程)。即ち、第1指部141及び第2指部142が把持しているピンWの少なくとも一部が、カメラ120の視野内において組付ワーク402の穴部402Hに重なる位置となるように第1指部141及び第2指部142の移動を行う(S19)。具体的には、モータ151及びモータ161を駆動し、第1指部141及び第2指部142を、ピンWを把持したままスライド移動させ、ピンWが組付ワーク402の穴部402Hと重なる位置まで移動する(図4参照)。この際も、ロボットアーム10Aについては位置及び姿勢を変化させず、つまりロボットハンド100の位置及び姿勢はそのままで、第1指部141及び第2指部142だけを移動させる。この状態となると、図10(e)に示すように、カメラ120の視野内において、第1指部141の第1指先部141b、第2指部142の第2指先部142b、及びピンWが退避する前の元の位置に戻る形となる。また、ロボットハンド100の位置及び姿勢がビジュアルサーボ制御により穴部402Hに対して正しい位置に位置決めされたことで、ピンWが組付ワーク402の穴部402Hの略直上に重なる位置に精度良く移動されることになる。
【0059】
最後に、ロボットアーム10Aをトルク制御しつつ動作させ、ロボットハンド100の指部140で把持したピンWを組付ワーク402の穴部402Hに挿入して組付ける(S20)。即ち、ロボットアーム10Aを駆動することでロボットハンド100を移動し、ロボットハンド100の指部140で把持したピンWを組付ワーク402の穴部402Hに接触させる。すると、ロボットアーム10Aの各関節のトルクセンサ18がピンWが穴部402Hに接触したことによる反力を検知し、その反力が少なくなる方向でかつピンWが下方に移動する押し込み力が生じるようにモータ16をトルク制御する。このように、ピンWが穴部402Hに倣う倣い組付や押し込み力をトルク制御により管理することができ、ピンWが穴部402Hに倣って大きな抵抗を受けることなく挿入される。また、第1指部141及び第2指部142を離すことで指部140のピンWの把持を解除し、それによって、ピンWが組付ワーク402の穴部402Hに組付けられる。なお、以上のように穴部402Hは、ピンWを接触させる位置でもあり、ピンWを挿入して組付ける作業を行う位置でもあり、ピンWを設置する位置でもあるので、接触位置、作業位置、或いは設置位置とも言える。
【0060】
そして、CPU201は、作業として組付ワーク402に対する全てのピンWの組付が完了したか否かを判定する(S21)。例えば、予め組付ワーク402に組付けるピンWの本数をロボットコントローラ200のHDD204等に記憶させておき、組付動作が何回完了したかで判定する。全てのピンWの組付が完了してない場合は(S21のNo)、ステップS11に戻って上記ステップS20までを繰り返し、つまり次のピンWの作業を行う。
【0061】
なお、処理性能や計算時間とのトレードオフにはなるが、最初のビジュアルサーボ制御において(S13,S18)、穴形状や穴の径が異なるものでも複数の認識処理を並列に行っておく。そして、ピン置台401の穴部401Hや組付ワーク402の穴部402Hにおける中心の位置や径の長さを特徴量として抽出しておく。そうすることで、2回目以降のビジュアルサーボ制御による位置決めは可能であるため、前回のビジュアルサーボ制御で用いた目標画像を読み出し、目標特徴量として設定しても良い。
【0062】
以上のようにピン組付制御を行い、組付ワーク402に対する全てのピンWの組付が完了すると(S21のYes)、以上で本実施形態のピン組付制御を終了する。
【0063】
[第1実施形態のまとめ]
以上説明したように本第1実施形態によると、カメラ120で組付ワーク402を撮影して現在画像を取得する際に、カメラ120の視野において、指部140及びピンWが組付ワーク402の穴部402Hと重複する重複範囲から移動して退避する。これにより、指部140でワークであるピンWを把持して支持したままの状態で、接触位置或いは作業位置をピンWに遮られることなく撮像することができ、つまりピンWに邪魔されずに現在画像を取得できる。このため、ロボットハンド100を穴部402Hに対して精度良く位置合わせすることができ、ピンWの組付動作(接触動作、設置動作)における組付位置(接触位置、設置位置)の精度を良好にすることができる。
【0064】
また、カメラ120により穴部402Hを撮像する前に、指部140及び把持したピンWがカメラ120の視野における重複範囲の内側にある状態から、指部140及び把持したピンWを重複範囲の外側に移動させる。このため、指部140及びピンWが穴部402Hを遮ることなく、穴部402Hを撮像することができる。また、指部140及び把持したピンWを移動する際、ロボットアーム10Aは駆動せず、つまりロボットハンド100の基部101は位置及び姿勢を変更せずに、指部140だけを移動する。これにより、例えばビジュアルサーボ制御によるロボットハンド100の位置及び姿勢の補正を精度良く行うことができる。
【0065】
また、指部140及び把持したピンWが上記重複範囲の外側にある状態から、指部140により組付動作(作業)を実行する前に、指部140及び把持したピンWを、カメラ120の視野においてピンWが穴部402Hに重なるように移動させる。このため、ピンWを穴部402Hに組付ける位置に位置合わせすることができる。また同様に、指部140及び把持したピンWを移動する際、ロボットアーム10Aは駆動せず、つまりロボットハンド100の基部101は位置及び姿勢を変更せずに、指部140だけを移動する。これにより、ピンWと穴部402Hとの位置合わせを精度良く行うことができる。
【0066】
また、ロボットハンド100において、第1指部141の第1根元部141a及び第2指部142の第2根元部142aが、第1案内部170及び第2案内部180をスライド移動するように第1駆動部150及び第2駆動部1500により駆動される。これにより、ロボットハンド100の基部101は位置及び姿勢を変更せずに、指部140だけを移動して退避させることを可能にし、また、退避させた指部140を復帰させて穴部402Hと位置合わせすることも容易にすることができる。また、第1指部141と第2指部142とが独立して駆動可能であるので、ピンWを把持したり把持を解除したりすることができる。
【0067】
<第2実施形態>
ついで、上記第1実施形態を一部変更した第2実施形態について、図11及び図12を用いて説明する。図11は第2実施形態に係るピン組付制御を示すフローチャートである。図12(a)はピンを指部で把持した際のカメラの画像を示す模式図である。図12(b)は指部及びピンを視野外に移動した状態でロボットハンドを組付ワークの穴部の上空に移動させた際のカメラの画像を示す模式図である。図12(c)は組付ワークの穴部に対してロボットハンドを位置合わせした際のカメラの画像を示す模式図である。図12(d)は指部及びピンを組付ワークの穴部の上空に移動させた際のカメラの画像を示す模式図である。
【0068】
本第2実施形態においては、上記第1実施形態に比して、ピン組付制御におけるステップS15とステップS16との順序を入れ替えたものである(図9及び図11参照)。即ち、ピン置台401のピンWを指部140で把持した後(S14)、指部140及び把持したピンWの移動を行いつつ(或いは行ってから)(S16)、ロボットハンド100を組付ワーク402の穴部402Hの上空に移動するものである(S15)。
【0069】
[第2実施形態のピン組付制御]
詳細には、図11に示すように、まず、CPU201は、大まかに、ピン置台401に設置されたピンWの上空にロボットハンド100が位置するようにロボットアーム10Aを駆動してロボットハンド100を移動する(S11)。続いて、ピン置台401のピンWを撮像し、つまりピンWをロボットハンド100の指部140で把持する把持位置を撮像した画像を取得する(撮像工程)(S12)。そして、上述したビジュアルサーボ制御を実行し、指部140がピンWの把持位置となるようにロボットアーム10Aを位置合せする(位置合せ工程)(S13)。その後、ロボットハンド100の第1指部141及び第2指部142をモータ151及びモータ161で駆動して、指部140によりピンWの把持を行う(S14)。この状態では、図12(a)に示すように、カメラ120の視野内に、第1指部141の第1指先部141bと第2指部142の第2指先部142bと把持されたピンWとがあり、これらが撮像される状態である。
【0070】
ここで、カメラ120が組付ワーク402の穴部402Hの撮像を実行する前に、第1指部141の第1指先部141b、第2指部142の第2指先部142b、及びピンWが、カメラ120の視野外となるように移動を行う(退避工程)(S16)。この際の移動(退避)では、後のステップS17においてカメラ120により組付ワーク402の穴部402Hを撮像する際に、指部140及びピンWが穴部402Hに重ならないような所定の位置を登録して記憶させておき、その所定の位置に移動させる。この所定の位置は、例えばHDD204等の記憶領域に記憶させておくことが考えられる。この状態となると、図12(b)に示すように、カメラ120の視野内から第1指部141、第2指部142、及びピンWが退避し、組付ワーク402の穴部402Hを直接的に撮像可能な状態となる。
【0071】
次に、ピンWを指部140により把持した状態でロボットハンド100をロボットアーム10Aによって移動する(S15)。即ち、ロボットハンド100を、組付ワーク402の穴部402H(挿入位置)の上空に移動する。なお、このロボットハンド100によるピンWを把持した指部140の移動(S15)と、ロボットアーム10Aによるロボットハンド100の移動(S16)とは、本実施形態では同時並行的に実行する。しかし、ロボットハンド100によるピンWを把持した指部140の移動を行った後に、ロボットアーム10Aによるロボットハンド100の移動を行ってもよい。
【0072】
続いて、カメラ120によりピンWを挿入する挿入位置である組付ワーク402の穴部402Hを撮像する(撮像工程)(S17)。そして、再びビジュアルサーボ制御を実行し、ここではカメラ120が挿入位置である組付ワーク402の穴部402Hに対して正しい位置となるようにロボットアーム10Aを位置合せする(位置合せ工程)(S18)。この状態では、図12(c)に示すように、カメラ120の視野外に、第1指部141の第1指先部141bと第2指部142の第2指先部142bと把持されたピンWとがある。そのため、組付ワーク402の穴部402Hが例えばカメラ120の視野の略中心に撮像される状態である。
【0073】
ついで、カメラ120による組付ワーク402の穴部402H(挿入位置)の撮像が完了し、ピンWを組付ワーク402の穴部402Hに挿入させる作業を行う前に、指部140をロボットハンド100における元の位置に復帰させる(復帰工程)。即ち、第1指部141及び第2指部142が把持しているピンWが、カメラ120の視野内において組付ワーク402の穴部402Hに重なる位置となるように第1指部141及び第2指部142の移動を行う(S19)。この状態となると、図12(d)に示すように、カメラ120の視野内において、第1指部141の第1指先部141b、第2指部142の第2指先部142b、及びピンWが退避する前の元の位置に戻る形となる。また、ロボットハンド100の位置及び姿勢がビジュアルサーボ制御により穴部402Hに対して正しい位置に位置決めされたことで、ピンWが組付ワーク402の穴部402Hの略直上に重なる位置に精度良く移動されることになる。
【0074】
最後に、ロボットアーム10Aをトルク制御しつつ動作させ、ロボットハンド100の指部140で把持したピンWを組付ワーク402の穴部402Hに挿入して組付ける(S20)。これにより、ピンWが穴部402Hに倣って大きな抵抗を受けることなく挿入される。また、第1指部141及び第2指部142を離すことで指部140のピンWの把持を解除し、それによって、ピンWが組付ワーク402の穴部402Hに組付けられる。
【0075】
そして、CPU201は、作業として組付ワーク402に対する全てのピンWの組付が完了したか否かを判定し(S21)、完了してない場合は(S21のNo)、ステップS11に戻って上記ステップS20までを繰り返し、つまり次のピンWの作業を行う。また、組付ワーク402に対する全てのピンWの組付が完了すると(S21のYes)、以上で本実施形態のピン組付制御を終了する。
【0076】
[第2実施形態のまとめ]
以上説明した本第2実施形態においても、カメラ120で組付ワーク402を撮影して現在画像を取得する際には、カメラ120の視野において、指部140及びピンWが組付ワーク402の穴部402Hと重複する重複範囲から移動して退避している。これにより、指部140でワークであるピンWを把持して支持したままの状態で、接触位置或いは作業位置をピンWに遮られることなく撮像することができ、つまりピンWに邪魔されずに現在画像を取得できる。
【0077】
そして、本第2実施形態では、指部140及び把持したピンWの移動(退避)を行いつつ(S16)、同時進行でロボットハンド100を組付ワーク402の穴部402Hの上空に移動する(S15)ことができる。これにより、第1実施形態のように、指部140及びピンWを、一旦、組付ワーク402の穴部402Hの上空に移動してから退避させるものに比して、動作時間(作業時間)の短縮化を図ることができる。
【0078】
なお、第2実施形態における、これ以外の構成、作用、及び効果は、上記第1実施形態と同様であるので、その説明を省略する。
【0079】
<第3実施形態>
続いて、上記第1及び第2実施形態を一部変更した第3実施形態について、図13図14、及び図15を用いて説明する。図13は第3実施形態に係るカメラ及び照明部の構造を示す模式図である。図14(a)は一般的なカメラで組付ワークの穴部を撮像した際の画像を示す図である。図14(b)は第3実施形態に係るカメラで組付ワークの穴部を撮像した際の画像を示す図である。図15(a)は一般的なカメラで穴部にピンが載置されたピン置台を撮像した際の画像を示す図である。図15(b)は第3実施形態に係るカメラで穴部にピンが載置されたピン置台を撮像した際の画像を示す図である。
【0080】
[カメラ及び照明部の構成]
上記第1実施形態のカメラ120では、一般的なレンズを備えたカメラを用いたものを説明したが、本第3実施形態においては、カメラ120が、テレセントリック光学系であるテレセントリックレンズ122を備えたものである。また、カメラ120が、テレセントリックレンズ122に対して取付けられ、光軸AX1の方向(光軸方向)に照明光を照射する照射部として同軸落射照明130を備えたものである。
【0081】
詳細には、図13に示すように、カメラ120は、画像を走査して取得するイメージセンサであるセンサ部121を備えている。また、カメラ120は、そのセンサ部121に接続されて光軸AX1の方向から画像をセンサ部121に取り込み可能なテレセントリックレンズ122を備えている。さらに、カメラ120は、テレセントリックレンズ122に設けられた不図示のハーフミラー等を介して照明光を光軸AX1と同軸に照射する光源としての同軸落射照明130を備えている。
【0082】
このテレセントリックレンズ122とは、主光線が光軸AX1に対して平行となるレンズのことであり、画角が限りなく0度に近く、歪曲収差が小さくなるため、センサ部121で撮像する被写体の寸法や位置を正確に捉えることを可能とするものである。また、カメラ120の光軸AX1と同軸方向に照射する同軸落射照明130が、照射光を例えば組付ワーク402の表面402sに垂直に照射する。これにより、表面402sが穴部402Hよりも明るく(白く)なるようにセンサ部121で撮像することを可能とするものである。そのため、例えば被写体の表面に凹凸がある場合、被写体の凹凸を容易に検出することを可能とするものである。
【0083】
[組付ワーク402を撮像する場合]
ここで、カメラ120によって、組付ワーク402を撮像する場合について説明する。図13に示すように、組付ワーク402は、上述したように平面状に形成された平面部としての表面402sを有しており、その表面402sに対して穴状に穴部402Hが形成されている。穴部402Hは、穴402hと、その開口の外縁において面取りされた傾斜部としての面取り部402mとを有している。面取り部402mは、例えば表面402sに対して45度に傾斜した傾斜面として形成されている。なお、面取り部402mの角度は、表面402sに対して30度以上傾斜していることが好ましいが、どのような角度であっても構わない。
【0084】
組付ワーク402を撮像する場合は、同軸落射照明130により組付ワーク402の穴部402Hに照明光を照射し(照射工程)、その状態で組付ワーク402の穴部402Hをカメラ120により撮像する(撮像工程)。
【0085】
ここで、例えば図14(a)に示すように、一般的なカメラで組付ワーク402の穴部402Hを撮像した場合、穴402hが表面402sよりも暗くなる。しかしながら、明暗の差が少なく、面取り部402mの内周縁402aと、面取り部402mの外周縁402bとが二重円のようになって、それらの特徴量を判別することが難しい。また、外周縁402bと表面402sとの明暗の差も少なくいため、それらの特徴量の判別も難しい。そのため、画像における穴部402Hの位置の誤認識が発生し易く、この状態で上述のようにビジュアルサーボ制御を行っても制御量(補正量)が安定せず、ロボットハンド100と穴部402Hとの位置決めが高精度にならない。
【0086】
一方、図13に示すように、本第3実施形態に係るカメラ120によって組付ワーク402の穴部402Hを撮像する場合、まず、カメラ120の光軸AX1が組付ワーク402の表面402sに直交するようにロボットハンド100の姿勢を制御する。そして、同軸落射照明130から光軸AX1に向けて照明光を照射する(照射工程)。すると、表面402sで反射した照明光は光軸AX1と平行に光軸AX2の方向に反射し、テレセントリックレンズ122を介してセンサ部121に向かう。また、穴402hに照射された照明光は反射しない(或いは底面で乱反射して吸収される)。そして、面取り部402mで反射した照明光は、光軸AX1に対してカメラ120とは異なる光軸AX3の方向に反射されて向かう。
【0087】
そのため、図14(b)に示すように、第3実施形態に係るカメラ120によって組付ワーク402の穴部402Hを撮像した場合、穴部402Hの外側の表面402s(カメラの光軸AX1と垂直な面)の領域は明るく(白く)撮像される(撮像工程)。また、反対に、面取り部402mを含む穴部402Hの内側の領域については、暗く(黒く)撮像される。つまり、面取り部402mの外周縁402bを境界として、一般的なカメラで撮影した場合よりも明暗の差が大きくなり、面取り部402mの外周縁402bを特徴量として高精度に検出できる。従って、画像における穴部402Hの位置の認識が正確となり、ビジュアルサーボ制御を行った際の制御量(補正量)が安定し、ロボットハンド100と穴部402Hとの位置決めが高精度となる。
【0088】
[ピン置台401を撮像する場合]
ここで、カメラ120によって、ピン置台401を撮像する場合について説明する。なお、ピン置台401の穴部401Hも、上記組付ワーク402の穴部402Hと同様の構成であり、平面状に形成された平面部としての表面401sに対して穴状に形成された穴401hの開口の外縁に、傾斜部としての面取り部401mが形成されている。面取り部401mの内周縁401aの内側である穴401hにはピンWが挿入された載置されている。
【0089】
ピン置台401を撮像する場合も、同軸落射照明130によりピン置台401の穴部401Hに照明光を照射し(照射工程)、その状態でピン置台401の穴部401Hをカメラ120により撮像する(撮像工程)。
【0090】
ここで、ロボットハンド100におけるカメラ120の取付位置と、ロボットハンド100の指部140の位置と、の位置関係によっては、ピンWを把持する位置は必ずしもカメラ120の画角の中央ではない可能性がある。このため、図15(a)に示すように、一般的なカメラを用いてピン置台401の一部のピン穴である穴部401Hを撮像した場合、通常のレンズでは高さのあるピンWの側面部Wwが見える。即ち、この画像では、ピンWの頭部Wsが面取り部401mの外周縁401bと重なってしまう。
【0091】
一方、図15(b)に示すように、第3実施形態に係るカメラ120によってピン置台401の穴部401Hを撮像した場合、テレセントリックレンズ122を介してセンサ部121により撮像される画像では、ピンWの側面部Wwが見えない。即ち、テレセントリックレンズ122は光軸に対して主光線が平行となるレンズであるため、穴部401Hの位置がカメラ120の画角の中央でない場合でもピンWの側面部Wwは見えず、面取り部401mの外周縁402bが全て見える。なお、例えばピンWは金属製であるが、ピンWの頭部Wsは磨かれたような表面となっていないため、同軸落射照明130からの照明光は乱反射し、撮像された場合でも、暗く(黒く)撮像される。
【0092】
このように第3実施形態に係るカメラ120によってピン置台401の穴部401Hを撮像した場合でも、穴部401Hの外側の領域は明るく(白く)撮像される。また、反対に、面取り部401mを含む穴部401Hの内側の領域については、暗く(黒く)撮像される。つまり、面取り部401mの外周縁401bを境界として、一般的なカメラで撮影した場合よりも明暗の差が大きくなり、面取り部401mの外周縁401bを特徴量として高精度に検出できる。従って、画像における穴部402Hの位置の認識が正確となり、ビジュアルサーボ制御を行った際の制御量(補正量)が安定し、ロボットハンド100と穴部402Hとの位置決めが高精度となる。
【0093】
[目標画像の共通化]
ところで、例えば一般的なカメラである場合には、図15(a)に示すようにピンWが有る場合に、特徴量として取得する形状が円形とならないため、穴部401HにピンWが有る場合と無い場合とでそれぞれ画像を取得する必要がある。しかしながら、本第3実施形態に係るカメラ120では、テレセントリックレンズ122を用いている。このため、図15(b)に示すように、穴部401HにピンWが有る場合でも無い場合でも、穴部401H(外周縁402b)は略円形に撮像され、つまり画像認識に影響がない。これにより、上述したピンWを把持するために行うビジュアルサーボ制御(図8図9のS13、図11のS13参照)を行うときに用いる目標画像として、複数の穴部401Hの何れであっても、同じ目標画像を用いることが可能となる。
【0094】
さらに、ピンWを組付ワーク402の穴部402Hに組付けるために行うビジュアルサーボ制御(図8図9のS18、図11のS18参照)を行うときに用いる目標画像も、略円形の画像である。そのため、ピンWを把持するために行うビジュアルサーボ制御で用いる目標画像と、ピンWを組付ワーク402の穴部402Hに組付けるために行うビジュアルサーボ制御で用いる目標画像とで、同じ目標画像を共通化して用いることが可能となる。特に、対象となる穴の位置が変わったり、位置や穴径が数ミリメートル移動したりしても、画像の特徴量が共通であるため、同じ目標画像(同じ特徴量)を用いて、複数の穴に対するピンWの把持や組付の作業ができる。なお、同じ目標画像とは必ずしも完全に同一である必要はなく、特にサイズ等に関して完全に同一である必要はなく、形状が同じであれば、その目標画像を拡大又は縮小して用いることも可能である。つまり同じ目標画像とは、特徴部分の形状が同じ目標画像であり、サイズを除く同じ目標画像とも言える。
【0095】
また、上記の説明では、目標画像として同じものを用いたものを説明したが、ビジュアルサーボ制御では、目標画像から特徴量を抽出して目標特徴量として設定している(図7図8のS1参照)。そして、この目標特徴量を、例えばロボットコントローラ200のHDD204等にデータとして記憶させて用いている。この目標画像から目標特徴量を抽出する処理は、複数の穴部401Hに対してビジュアルサーボ制御を実行する毎に行う必要はない。つまり最初のビジュアルサーボ制御(図9のS13、図11のS13参照)で目標画像から抽出してHDD204等に記憶させたデータとしての目標特徴量を、次回以降のビジュアルサーボ制御で繰り返し読出して用いることができる。さらに、ピンWを組付ワーク402の穴部402Hに組付けるために行うビジュアルサーボ制御(図9のS18、図11のS18参照)を行うときに用いる目標特徴量も、最初のビジュアルサーボ制御で設定した目標特徴量を読出して用いることができる。
【0096】
[第3実施形態のまとめ]
以上説明したように本第3実施形態においては、組付ワーク402の穴部402Hやピン置台401の穴部401Hを画像認識する際に、表面402sや表面401sが明るく、穴部402Hや穴部401Hが暗くなるように撮影する。即ち、表面402s又は表面401sで反射した反射光の光軸がカメラ120に向かうように同軸落射照明130により照射する。これと共に、面取り部402m又は面取り部401mで反射した反射光の光軸がカメラ120と異なる方向に向かうように穴部402H又は穴部401Hを同軸落射照明130により照射する。換言すると、テレセントリックレンズ122の光軸AX1を表面402s又は表面401sに直交させた状態で、同軸落射照明130により表面402s又は表面401sを照射しつつカメラ120により撮像する。これにより、面取り部402mの外周縁402b又は面取り部401mの外周縁401bを高精度に検出できるようになり、つまり撮像(取得)した画像における穴部402H又は穴部401Hの位置を精度良く検出できる。このため、ビジュアルサーボ制御を行った際の制御量(補正量)が安定し、ロボットハンド100と穴部402H又は穴部401Hとの位置決めを高精度にすることができる。
【0097】
また、ロボットハンド100と組付ワーク402の穴部402H又はピン置台401の穴部401Hとの位置ずれを、カメラ120により撮像した現在画像と目標画像とから演算し、位置ずれが無くなるようにロボットハンド100の位置を補正する。即ち、ビジュアルサーボ制御によって、ロボットハンド100の位置を補正する。そして、ピン置台401の穴部401Hが複数個所であるので、複数のピン置台401の穴部401Hのそれぞれに対して実行されるビジュアルサーボ制御で、同じ目標画像を用いる。さらに、複数の組付ワーク402の穴部402Hのそれぞれに対して実行されるビジュアルサーボ制御でも、複数のピン置台401の穴部401Hで用いた目標画像を用いることができる。このように目標画像を共通化できるため、共通化した目標画像でロボットハンド100の位置及び姿勢の教示を行う教示作業を行うだけで足りる。即ち、例えば各穴部402H又は各穴部401Hに対して目標画像を設定してそれぞれでロボットハンド100の位置及び姿勢の教示を行う教示作業が不要となり、教示作業を簡略化することができる。さらに、例えば組付ワーク402の穴部402Hのそれぞれや、ピン置台401の穴部401Hのそれぞれで、穴径が異なっても、同じ目標画像を用いることができる。そして、穴の位置が異なっても穴の画像や特徴量は変化しないので、同じ目標画像用いることができ、教示作業の時間を大幅に短縮できる。
【0098】
なお、第3実施形態における、これ以外の構成、作用、及び効果は、上記第1及び第2実施形態と同様であるので、その説明を省略する。
【0099】
<第4実施形態>
続いて、上記第3実施形態を一部変更した第4実施形態について、図16及び図17を用いて説明する。図16はロボットアームの姿勢補正制御を示すフローチャートである。図17(a)は姿勢を補正する前のロボットアームを示す模式図である。図17(b)は姿勢を補正した後のロボットアームを示す模式図である。
【0100】
上述したピン組付制御において、例えばカメラ120でピン置台401を撮像する場合、カメラ120で組付ワーク402を撮像する場合等では、ロボットハンド100がピン置台401や組付ワーク402に対して高精度に正対することが好ましい。同様に、上述したピン組付制御において、例えば指部140でピンWを把持する場合、指部140でピンWを穴部402Hに挿入する場合等では、ロボットハンド100がピン置台401や組付ワーク402に対して高精度に正対することが好ましい。さらに、上記ピン組立制御に限らず、例えばロボットアーム10Aの動作を教示する教示作業にあっても、ロボットハンド100の姿勢がピン置台401や組付ワーク402に対して高精度に正対することが好ましい場合もある。そこで、本第4実施形態においては、ロボットハンド100の姿勢を補正する姿勢補正制御を実行し、対象物と正対させるものを説明する。なお、正対するとは、ロボットアーム10Aのフランジ部11の中心軸(ロボットハンド100の中心軸、カメラ120の光軸AX1)の方向が、対象物の表面(ピン置台401の表面401sや組付ワーク402の表面401s)と垂直となる状態を言う。
【0101】
[ロボットアームの姿勢補正制御]
まず、第4実施形態に係るロボットアーム10Aの姿勢補正制御を実行する際には、図17(a)及び図17(b)に示すように、架台700に照明光を反射する表面701sを有する校正プレート701を設置しておく。なお、金属光沢のあるワーク等、照明光を反射できる面を有するワークであれば、校正プレート701を用いず、そのようなワークを設置してもよい。特にピン置台401の表面401sや組付ワーク702の表面402sは、光沢があって照明光を反射するものであるので、それを用いてもよい。
【0102】
さらに、本第4実施形態に係るロボットハンド100に備えられたカメラ120は、第3実施形態で説明したテレセントリックレンズ122及び同軸落射照明130を備えたものとして説明する。しかしながら、カメラ120として、一般的なカメラを用いたものでも構わない。また、図17(a)及び図17(b)では、ロボットシステム1として、ロボットアーム10Aだけを示した。しかしながら、図1及び図2に示したように、ロボットシステム1は、ロボットコントローラ200、ビジョンコントローラ220等を備えていると共に、ティーチングペンダント300が接続可能に構成されているものである。
【0103】
図16に示すように、ロボットコントローラ200のCPU201は、まず、ロボットアーム10Aを動作させ、図17(a)に示すように、ロボットハンド100が校正プレート701(反射体)の上空に位置するように移動させる(S31)。この場合、ロボットハンド100(ロボットアーム10Aの手先であるフランジ部11)は位置決め誤差等で姿勢が傾き、校正プレート701(反射体)と正対していない可能性がある。そこで、以下の制御に進む。
【0104】
ついで、CPU201は、カメラ120により、校正プレート701の上空位置での画像を取得する(S32)。そして、CPU201は、取得した画像全体から輝度値を算出する(S33)。輝度値を算出することで、カメラ120の光軸AX1(図13参照)から照射した光がどの程度正反射して戻ってきたかが分かるため、ロボットハンド100(ロボットアーム10Aのフランジ部11)と校正プレート701の正対の度合いを測ることができる。
【0105】
次に、CPU201は、ロボットアーム10Aのフランジ部11(つまりロボットハンド100)を、wx方向とwy方向とのどちらかに例えば所定量で傾ける。なお、ここでは、画像の横方向をX軸、上下方向をY軸としたときに、X軸周りの回転運動をwx方向とし、Y軸周りの回転運動をwy方向としている。傾けるときの回転方向は、時計回りでも反時計回りでも、つまりどちらの回転方向でも構わない。
【0106】
続けて、CPU201は、前回の画像取得を行った状態からロボットアーム10Aのフランジ部11を傾けた状態で、カメラ120により校正プレート701の画像を再び取得する(S35)。そして、ロボットアーム10Aのフランジ部11を傾けた状態で取得した画像全体から輝度値を算出する(S36)。そして、ロボットアーム10Aのフランジ部11を傾けた前後で取得した輝度値の差分から、輝度勾配を算出し、輝度勾配が正数か否か判定する(S37)。輝度勾配が正数である場合とは、画像全体の輝度値が増え、つまり画像が明るくなったことになる。そのため、ロボットアーム10Aのフランジ部11を傾けた前後の輝度値の差分が正数であれば、その方向に傾ければ、より正対に近くことが分かる。そこで、軌道勾配が正数であれば(S37のYes)、輝度勾配を特徴量としてロボットアーム10Aのフランジ部11(手先)の姿勢をビジュアルサーボ制御で動作させる(S39)。その後、ステップS35からステップS39までの処理を繰り返し、輝度勾配が正数でなくなり負数となり、つまり取得した画像の輝度がほぼ最大になるまで処理を行う。
【0107】
その後、CPU201は、軌道勾配が正数でなくなると(S37のNo)、これまでの処理が1ループ目であるか否かを判定する(S38)。例えばステップS34において、ロボットアーム10Aのフランジ部11を輝度が小さくなる方向に傾けている可能性がある。そこで、輝度勾配が負数であっても1ループ目であれば(S38のYes)、ビジュアルサーボ制御で反対方向に傾ける補正を行う(S39)。そして、これまでの処理が1ループ目でなければ(S38のNo)、wx方向とwy方向との両方補正が完了したか判定する(S40)。wx方向とwy方向との両方補正が完了していない場合は(S40のNo)、再度ステップS35に戻り、完了していない姿勢方向の補正を行うようにする。そして、wx方向とwy方向との両方補正が完了している場合は(S40のYes)、以上でロボットアームの姿勢補正制御を終了する。このように輝度勾配が負数になるまで姿勢補正を行い、画像から取得できる輝度がほぼ最大となったため、図17(b)に示すように、ロボットアーム10Aのフランジ部11(つまりロボットハンド100)は、校正プレート701と正対することになる。
【0108】
なお、本第4実施形態におけるロボットアームの姿勢補正制御は、ビジュアルサーボ制御によって補正制御を行うものを説明したが、これに限らない。例えば輝度値を表示するUI(ユーザインターフェース)をティーチングペンダント300に搭載し、表示部300Aで輝度を表示し、作業者が手動によって、その情報を見ながらロボットアーム10Aの姿勢を動かすことで、姿勢の補正を実行してもよい。特にティーチングペンダント300を用いてロボットアーム10Aの教示を行っている場合には、この姿勢の補正手法が有効である。さらに、このように表示部300Aで表示を行っても、輝度値をロボットコントローラ200にフィードバックして、ロボットコントローラ200で上記姿勢補正制御の処理の一部或いは全部を実行するようにしても構わない。また、輝度を表示する表示部としてティーチングペンダント300の表示部300Aを一例としているが、これに限らず、他のモニタ等の表示部を接続して、そこに表示するものでも構わない。
【0109】
また特に、ロボットアーム10Aの教示を行う際に姿勢の補正を実行した場合には、姿勢の補正を実行した後で補正する際に取得した画像や姿勢の情報をHDD204等に記憶しておく。そして、ピン組付制御の実行前に呼び出し、それらの画像や姿勢の情報を用いて、ロボットハンド100とピン置台401或いは組付ワーク402とを正対するように移動制御してもよい。
【0110】
また、カメラに一般的な照明やレンズを用いた場合には、上述した姿勢の補正精度は低下するが、奥行方向の補正が可能になる。このため、一般的なカメラと、テレセントリックレンズ122を有するカメラ120との、2種類のカメラを組み合わせて補正を行うような構成であってもよい。
【0111】
[第4実施形態のまとめ]
以上説明した本第4実施形態におけるロボットアームの姿勢補正制御によれば、ロボットハンド100と対象ワーク(ピン置台401や組付ワーク402)とを正対させることができる。このため、ピンWと指部140との間や、ピンWと穴部402Hとの間における、例えば数マイクロメートル程度の精密な嵌め合い等を、実に実行させることが可能となる。さらに、このような精密な嵌め合いを行うための教示作業も容易に行えるようにすることができる。また、上述したピン組付制御を実行する前或いは実行中において、本ロボットアームの姿勢補正制御を実行することで、ロボット動作や環境の変化によりロボットハンド100が傾いた際でも補正することができ、上記精密な嵌め合い等を確実に実行できる。また、本ロボットアームの姿勢補正制御を実行することで、ピン組付制御で撮像した画像の輝度が最大となり、画像認識の精度を向上することができる。そして、複数のカメラを用いることで、画像内における位置の認識制度だけでなく、奥行き方向の認識精度も高めることができる。
【0112】
<他の実施形態の可能性>
なお、以上説明した第1乃至第4実施形態においては、撮像対称(作業位置、接触位置)であるピン置台401の穴部401Hや組付ワーク402の穴部402Hを、指部140及びそれで把持したピンWを退避させた状態で撮影した。この際、指部140を移動してピンWの位置を退避させたり、指部140を移動してピンWの位置を復帰させたりしたが、これに限らず、ロボットアーム10Aを駆動して、ロボットハンド100と共にピンWを退避させたり復帰させたりしてもよい。つまり、ピンWと作業位置(接触位置)との位置関係が既知であれば、その分の距離をロボットアーム10Aで移動させても退避させたり復帰させたりすることができる。
【0113】
また、第1乃至第4実施形態においては、カメラ120がロボットハンド100の基部101に取付けられて支持されているものを説明したが、これに限らない。例えばカメラ120がロボットハンド100の基部101に対してスライド移動させて指部140を移動せずに、カメラ120と指部140との相対位置関係として、ピンWをカメラ120に対して退避させたり復帰させたりしてもよい。さらに、カメラ120が、ロボットアーム10Aに取付けられていたり、さらには、ロボットシステム1が設置される設置場所の定点(例えば天井等)に設置されていたりしてもよい。特にカメラ120が定点に設置されている場合は、ロボットアーム10Aの移動によって、ピンWをカメラ120に対して退避させたり復帰させたりしてもよい。要するに、カメラ120で撮像対称(作業位置、接触位置)を撮影する際にワークが邪魔にならないようにツール及びワークがカメラ120の視野内で重複しない位置に移動していればよい。そして、ワークに関する作業を行うために、撮像対称の位置に復帰させる場合には、ワークに遮られて撮像対称が写らないだけでなく、ワークと共にカメラ120も移動し、カメラ120の視野内に撮像対称が写らない状態でも構わない。
【0114】
また、第1乃至第4実施形態においては、エンドエフェクタのツールとして、ロボットハンド100の指部140であり、ワークとしてピンWを把持するものを説明したが、これに限らない。例えばツールとしてのドライバで、ワークとしてのネジに接して螺合させるもの等も考えられる。さらに、ワークを把持して支持するものに限らず、例えば吸着や磁着を行う等して、ワークを支持するものであっても構わない。
【0115】
また、第1乃至第4実施形態において、ロボットハンド100が第1指部141と第2指部142とをスライド移動させるものについて説明したが、この構成だけに限定するものではない。例えば3本以上の指部を有していたり、指部が直線上を移動するのではなく円弧上で移動したりしてもよい。また、第1指部141と第2指部142とをスライド移動するように第1案内部170と第2案内部180とを有するものを説明したが、これに限らず、1つの案内部或いは3つ以上の案内部を有していてもよい。勿論、案内部が複数あることで、第1指部141と第2指部142との移動が安定的になり、ワークの把持も安定するので、2つ以上の案内部があることが好ましい。また、第1指部141と第2指部142とをモータ151とモータ161とで駆動するものを説明したが、これに限らず、例えばソレノイドや油圧等で駆動するようなものでも構わない。
【0116】
また、第3実施形態において、カメラ120がテレセントリックレンズ122と同軸落射照明130とを用いて、照射光を撮像対象の平面に垂直に照射して、その光軸上で撮影するものを説明した。しかしながら、これに限らず、例えばカメラと照明とが同軸上にない構成であってもよく、その場合は、照射光の光軸が撮像対象の平面で反射してカメラに向かうように角度を設定することが考えられる。
【0117】
また、本開示は、以上説明した実施形態に限定されるものではなく、実施形態は、本開示の技術的思想内で多くの変形が可能である。例えば、上述した複数の実施形態及び複数の変形例のうち、少なくとも2つを組み合わせてもよい。また、本実施形態に記載された効果は、本開示の実施形態から生じる最も好適な効果を列挙したに過ぎず、本開示の実施形態による効果は、本実施形態に記載されたものに限定されない。
【0118】
また、上述の第1乃至第4実施形態では、ロボット本体が垂直多関節のロボットの場合について説明したが、これに限定するものではない。ロボット本体が、例えば、水平多関節のロボット、パラレルリンクのロボット、直交ロボットであってもよい。また、上述の実施形態は、制御装置に設けられる記憶装置の情報に基づき、伸縮、屈伸、上下移動、左右移動もしくは旋回の動作またはこれらの複合動作を自動的に行うことができる機械に適用可能である。
【0119】
本開示は、上述の実施例の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
【0120】
<本実施形態の開示>
[構成1]
本体部と、
前記本体部に支持され、撮像可能なカメラと、
前記本体部に移動自在に支持され、ワークを支持可能であり、かつワークに対する作業を実行可能なツールと、を備え、
前記カメラにより撮像対象を撮像する場合に、前記カメラの視野において、前記ツールまたは前記ツールで支持したワークの少なくとも一部と前記撮像対象とが重なる範囲の外側に、ワークを支持した前記ツールを位置させる、
ことを特徴とするエンドエフェクタ。
[構成2]
前記ツールまたは支持したワークの少なくとも一部が前記範囲の内側にある状態から、前記カメラにより撮像対象を撮像する前に、前記範囲の外側に、ワークを支持した前記ツールを移動させる、
ことを特徴とする構成1に記載のエンドエフェクタ。
[構成3]
前記撮像対象は、前記ツールにより作業を行う作業対象であり、
ワークを支持した前記ツールが前記範囲の外側にある状態から、前記ツールにより作業を実行する前に、前記カメラの視野において、ワークが前記作業対象に少なくとも一部が重なるように、ワークを支持した前記ツールを移動させる、
ことを特徴とする構成1又は2に記載のエンドエフェクタ。
[構成4]
前記カメラにより撮像対象を撮像する場合に、前記ツール及び支持したワークを、前記カメラの視野の外側に位置させる、
ことを特徴とする構成1乃至3のいずれか1項に記載のエンドエフェクタ。
[構成5]
前記撮像対象は、作業において前記ツールで支持したワークを接触させる接触位置である、
ことを特徴とする構成1乃至4の何れか1項に記載のエンドエフェクタ。
[構成6]
前記ツールは、ワークを把持することで支持する第1指部及び第2指部を含む、
ことを特徴とする構成1乃至5の何れか1項に記載のエンドエフェクタ。
[構成7]
前記第1指部は、前記本体に対して移動自在に支持される第1根元部と、前記第1根元部よりも先端に配置され、ワークを把持する第1指先部と、を有し、
前記第2指部は、前記本体に対して移動自在に支持される第2根元部と、前記第2根元部よりも先端に配置され、ワークを把持する第2指先部と、を有する、
ことを特徴とする構成6に記載のエンドエフェクタ。
[構成8]
前記第1指部及び前記第2指部は、前記本体部に対して移動された場合に、前記第1指先部及び前記第2指先部が前記範囲の内側と外側とに移動し、かつ前記第1指先部及び前記第2指先部が前記範囲の内側にある場合でも前記第1根元部及び前記第2根元部が前記範囲の外側に位置するように形成されている、
ことを特徴とする構成7に記載のエンドエフェクタ。
[構成9]
前記第1指先部及び前記第2指先部は、前記範囲の内側に位置する状態で、前記カメラと前記カメラの焦点位置との間に位置する、
ことを特徴とする構成7又は8に記載のエンドエフェクタ。
[構成10]
前記本体部は、
前記第1根元部及び前記第2根元部をスライド移動可能に支持するスライド部と、
前記第1根元部を前記スライド部においてスライド移動させるように駆動する第1駆動部と、
前記第1駆動部とは独立して駆動可能であり、前記第2根元部を前記スライド部においてスライド移動させるように駆動する第2駆動部と、を有する、
ことを特徴とする構成7乃至9の何れか1項に記載のエンドエフェクタ。
[構成11]
構成1に記載のエンドエフェクタと、
前記エンドエフェクタが取付けられ、前記エンドエフェクタの位置及び姿勢を移動可能なロボット本体と、
前記ロボット本体及び前記エンドエフェクタを制御する制御部と、を備え、
前記制御部は、前記カメラにより撮像された画像から前記撮像対象に対する前記エンドエフェクタの位置合せを行う位置合せ制御を実行する、
ことを特徴とするロボットシステム。
[構成12]
前記制御部は、前記位置合せ制御として、前記エンドエフェクタと前記撮像対象との位置ずれを、前記カメラにより撮像した画像と目標となる目標画像とから演算し、前記位置ずれが無くなるように前記エンドエフェクタの位置を補正する補正制御を実行する、
ことを特徴とする構成11に記載のロボットシステム。
[構成13]
前記撮像対象は、平面状に形成された平面部と、前記平面部に対して傾斜された傾斜部と、を有し、
前記エンドエフェクタは、光軸方向に光を照射する照射部を備え、
前記制御部は、前記平面部で反射した反射光の光軸が前記カメラに向かい、かつ前記傾斜部で反射した反射光の光軸が前記カメラと異なる方向に向かうように前記撮像対象を前記照射部により照射して、前記カメラにより撮像する、
ことを特徴とする構成12に記載のロボットシステム。
[構成14]
前記撮像対象は、前記平面部に対して穴状に形成された穴部を有し、
前記傾斜部は、前記穴部の開口の外縁において面取りされた面取り部である、
ことを特徴とする構成13に記載のロボットシステム。
[構成15]
前記カメラは、テレセントリック光学系を有し、
前記制御部は、前記テレセントリック光学系の光軸を前記平面部に直交させた状態で、前記カメラにより撮像する、
ことを特徴とする構成13に記載のロボットシステム。
[構成16]
前記照射部は、前記テレセントリック光学系の光軸と同軸に光を照射する同軸落射照明であり、
前記制御部は、前記テレセントリック光学系の光軸を前記平面部に直交させた状態で、前記同軸落射照明により前記平面部を照射しつつ前記カメラにより撮像する、
ことを特徴とする構成15に記載のロボットシステム。
[構成17]
前記撮像対象は、前記ツールによりワークに関する作業を行う作業位置であり、
前記作業位置が複数個所である場合、複数の前記作業位置のそれぞれに対して実行される前記位置合せ制御で、同じ前記目標画像を用いる、
ことを特徴とする構成12乃至16の何れか1項に記載のロボットシステム。
[構成18]
前記複数の作業位置のそれぞれで実行される作業は、前記複数の作業位置の少なくとも1つにあるワークを前記ツールに支持させる第1作業と、前記ツールにより支持されたワークを前記複数の作業位置の少なくとも1つに接触させる第2作業と、を含み、
前記第1作業を行う前に実行される前記位置合せ制御と、前記第2作業を行う前に実行される前記位置合せ制御とで、同じ前記目標画像を用いる、
ことを特徴とする構成17に記載のロボットシステム。
[構成19]
前記制御部は、
前記エンドエフェクタの姿勢を変化させつつ、前記カメラにより撮像された画像から前記平面部で反射した光の輝度を演算し、
前記演算した輝度が最大となるように前記エンドエフェクタの姿勢を補正する姿勢補正制御を実行する、
ことを特徴とする構成11乃至18の何れか1項に記載のロボットシステム。
[構成20]
前記制御部は、
前記エンドエフェクタの姿勢を操作して教示を行う教示装置と、情報の表示を行う表示装置と、に接続可能であり、
前記エンドエフェクタの姿勢が変更された場合に、前記カメラにより撮像された画像から前記平面部で反射した光の輝度を演算して前記表示装置に表示する、
ことを特徴とする構成11乃至18の何れか1項に記載のロボットシステム。
[構成21]
撮像可能なカメラと、光軸方向に光を照射する照射部と、を備えるエンドエフェクタと、
前記エンドエフェクタが取付けられ、前記エンドエフェクタの位置及び姿勢を移動可能なロボット本体と、
前記ロボット本体及び前記エンドエフェクタを制御する制御部と、を備え、
前記制御部は、
前記カメラにより撮像された画像から撮像対象に対する前記エンドエフェクタの位置合せを行う位置合せ制御を実行する際に、
平面状に形成された平面部、及び前記平面部に対して傾斜された傾斜部を有する撮像対象を、前記平面部で反射した反射光の光軸が前記カメラに向かい、かつ前記傾斜部で反射した反射光の光軸が前記カメラと異なる方向に向かうように前記照射部により照射して前記カメラにより撮像する、
ことを特徴とするロボットシステム。
[方法22]
本体部と、前記本体部に支持され、撮像可能なカメラと、前記本体部に移動自在に支持され、ワークに対して作業を施すツールと、を備え、制御部により制御されるエンドエフェクタの制御方法において、
前記制御部が、前記カメラにより撮像対象を撮像する場合に、前記カメラの視野において、前記ツールまたは前記ツールで支持したワークの少なくとも一部と前記撮像対象とが重なる範囲の外側に、ワークを支持した前記ツールを位置させる、
ことを特徴とするエンドエフェクタの制御方法。
[方法23]
本体部と、前記本体部に支持され、撮像可能なカメラと、前記本体部に移動自在に支持され、ワークに対して作業を施すツールと、を備えるエンドエフェクタと、
前記エンドエフェクタが取付けられ、前記エンドエフェクタの位置及び姿勢を移動可能なロボット本体と、
前記ロボット本体及び前記エンドエフェクタを制御する制御部と、を備えるロボットシステムの制御方法において、
前記制御部が、前記カメラにより撮像対象を撮像する場合に、前記カメラの視野において、前記ツールまたは前記ツールで支持したワークの少なくとも一部と前記撮像対象とが重なる範囲の外側に、ワークを支持した前記ツールを位置させる退避工程と、
前記制御部が、ワークを支持した前記ツールを前記範囲の外側に位置させた状態で、前記カメラにより撮像対象を撮像する撮像工程と、
前記制御部が、前記カメラにより撮像された画像から前記撮像対象に対する前記エンドエフェクタの位置合せを行う位置合せ工程と、を備える、
ことを特徴とするロボットシステムの制御方法。
[方法24]
前記退避工程において、前記制御部が、前記ツール及び支持したワークの少なくとも一部が前記範囲の内側にある状態から、前記カメラにより撮像対象を撮像する前に、前記範囲の外側に、ワークを支持した前記ツールを移動させる、
ことを特徴とする方法23に記載のロボットシステムの制御方法。
[方法25]
前記制御部が、前記撮像工程の後、ワークを支持した前記ツールが前記範囲の外側にある状態から、前記作業ツールにより作業を実行する前に、前記カメラの視野において、ワークが前記撮像対象に少なくとも一部が重なるように、ワークを支持した前記ツールを前記範囲の内側に移動させる復帰工程を備える、
ことを特徴とする方法23又は24に記載のロボットシステムの制御方法。
[方法26]
撮像可能なカメラと、光軸方向に光を照射する照射部と、を備えるエンドエフェクタと、
前記エンドエフェクタが取付けられ、前記エンドエフェクタの位置及び姿勢を移動可能なロボット本体と、
前記ロボット本体及び前記エンドエフェクタを制御する制御部と、を備えるロボットシステムの制御方法において、
前記制御部が、平面状に形成された平面部、及び前記平面部に対して傾斜された傾斜部を有する撮像対象を、前記平面部で反射した反射光の光軸が前記カメラに向かい、かつ前記傾斜部で反射した反射光の光軸が前記カメラと異なる方向に向かうように前記照射部により照射する照射工程と、
前記制御部が、前記照射工程により光が照射された撮像対象を前記カメラにより撮像する撮像工程と、
前記制御部が、前記カメラにより撮像された画像から前記エンドエフェクタと前記撮像対象との位置関係を演算する演算工程と、を備える、
ことを特徴とするロボットシステムの制御方法。
[方法27]
構成11乃至21の何れか1項に記載のロボットシステムを用いて物品の製造を行うことを特徴とする物品の製造方法。
[構成28]
方法23乃至25のいずれか1項に記載のロボットシステムの制御方法を、コンピュータに実行させるためのプログラム。
[構成29]
構成28に記載のプログラムを記憶したコンピュータにより読み取り可能な記録媒体。
【符号の説明】
【0121】
1…ロボットシステム/10A…ロボットアーム(ロボット本体)/100…ロボットハンド(エンドエフェクタ)/101…基部(本体部)/120…カメラ/122…テレセントリックレンズ(テレセントリック光学系)/130…同軸落射照明(照射部)/140…指部(ツール)/141…第1指部/141a…第1根元部/141b…第1指先部/142…第2指部/142a…第2根元部/142b…第2指先部/150…第1駆動部/160…第2駆動部/170…第1案内部(スライド部)/180…第2案内部(スライド部)/201…CPU(制御部)/401H…穴部(撮像対象、作業対象、接触位置)/401m…面取り部(傾斜部)/401s…表面(平面部)/402H…穴部(撮像対象、作業対象、接触位置)/402m…面取り部(傾斜部)/402s…表面(平面部)/P…焦点位置/W…ピン(ワーク)
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14
図15
図16
図17