(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024089236
(43)【公開日】2024-07-03
(54)【発明の名称】遠隔作業支援システム
(51)【国際特許分類】
B25J 3/00 20060101AFI20240626BHJP
【FI】
B25J3/00 A
【審査請求】未請求
【請求項の数】5
【出願形態】OL
(21)【出願番号】P 2022204480
(22)【出願日】2022-12-21
(71)【出願人】
【識別番号】000002107
【氏名又は名称】住友重機械工業株式会社
(74)【代理人】
【識別番号】100105887
【弁理士】
【氏名又は名称】来山 幹雄
(72)【発明者】
【氏名】土屋 光樹
【テーマコード(参考)】
3C707
【Fターム(参考)】
3C707AS12
3C707BS12
3C707BS13
3C707BS24
3C707JT05
3C707JU02
3C707KS11
3C707KS21
3C707KS34
3C707KT01
3C707KT06
3C707KT18
3C707KW05
3C707KX06
3C707LS05
3C707MT01
(57)【要約】
【課題】スレーブロボットに保持される第1物体と環境に固定される第2物体との相対位置関係を、より正確に操作者に提示することが可能な遠隔作業支援システムを提供する。
【解決手段】マスターロボットに追従してスレーブロボットが動作する。第1物体を把持したスレーブロボットの可動範囲内に第2物体が配置されている。制御装置が、画像表示デバイスを制御して、第1物体及び第2物体をそれぞれ模した第1モデル画像及び第2モデル画像を、スレーブロボットと第1物体と第2物体との位置関係が、マスターロボットと第1モデル画像と第2モデル画像との位置関係に反映されるように実空間に投影する。マスターロボットを、第1物体が第2物体に近づく方向に操作したとき、制御装置は、第1物体と第2物体との接触を検知した時点で、第1モデル画像が第2モデル画像に接触する状態になるように、投影位置を調整する機能を有する。
【選択図】
図1
【特許請求の範囲】
【請求項1】
操作者が操作するマスターロボットと、
把持部に第1物体を把持し、前記マスターロボットが操作されると、前記マスターロボットに追従して動作するスレーブロボットと、
前記スレーブロボットの可動範囲内に配置された第2物体と
を有する遠隔作業システムによる作業を支援する遠隔作業支援システムであって、
頭部搭載型の画像表示デバイスと、
前記画像表示デバイスを制御する制御装置と
を備え、
前記制御装置は、前記画像表示デバイスを制御して、前記第1物体及び前記第2物体をそれぞれ模した第1モデル画像及び第2モデル画像を、前記スレーブロボットと前記第1物体と前記第2物体との位置関係が、前記マスターロボットと前記第1モデル画像と前記第2モデル画像との位置関係に反映されるように、実空間に投影し、
前記マスターロボットを、前記第1物体が前記第2物体に近づく方向に操作したとき、
前記制御装置は、前記第1物体と前記第2物体との接触を検知した時点で、前記第1モデル画像が前記第2モデル画像に接触する状態になるように、前記第1モデル画像に対する前記第2モデル画像の位置を調整する機能を有する遠隔作業支援システム。
【請求項2】
前記制御装置は、
前記第1物体と前記第2物体との間の距離を表す距離情報、及び前記第1物体と前記第2物体との間に作用する力に関する作用力情報の少なくとも一方を前記画像表示デバイスに表示させる請求項1に記載の遠隔作業支援システム。
【請求項3】
前記制御装置は、前記第1物体と前記第2物体との接触を検知すると、前記第1物体と前記第2物体とが接触したことを知らせる情報を前記画像表示デバイスに表示する機能と、
操作者の操作に基づいて、前記第1モデル画像に対する前記第2モデル画像の位置を調整する機能と
を有する請求項2に記載の遠隔作業支援システム。
【請求項4】
操作者が操作するマスターロボットと、
把持部に第1物体を把持し、前記マスターロボットが操作されると、前記マスターロボットに追従して動作するスレーブロボットと、
前記スレーブロボットの可動範囲内に配置された第2物体と
を有する遠隔作業システムによる作業を支援する遠隔作業支援システムであって、
頭部搭載型の画像表示デバイスと、
前記画像表示デバイスを制御する制御装置と
を備え、
前記制御装置は、前記画像表示デバイスを制御して、前記スレーブロボットと前記第2物体との位置関係が、前記マスターロボットと第2モデル画像との位置関係に反映されるように、前記第2モデル画像を、実空間に投影し、
前記第1物体と前記第2物体との間の最短距離を表す最短距離情報、及び前記第1物体と前記第2物体との間に作用する力に関する作用力情報の少なくとも一方を前記画像表示デバイスに表示させる遠隔作業支援システム。
【請求項5】
前記マスターロボットの把持部に、前記第1物体を模したダミー物体を把持し、
前記マスターロボットを、前記第1物体が前記第2物体に近づく方向に操作したとき、
前記制御装置は、前記第1物体と前記第2物体との接触を検知すると、前記第1物体と前記第2物体とが接触したことを知らせる情報を前記画像表示デバイスに表示する機能と、
操作者の操作に基づいて、前記ダミー物体に対する前記第2モデル画像の位置を調整する機能と
を有する請求項4に記載の遠隔作業支援システム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、遠隔作業支援システムに関する。
【背景技術】
【0002】
操作者がマスターロボットを操作し、遠隔のスレーブロボットをマスターロボットに追従して動作させることにより、遠隔から作業を行うマスタースレーブシステムが公知である。例えば、スレーブロボットにワークを保持させ、環境に固定されたツールにワークを接触させることにより切削、研削、研磨等を行うことができる。操作性を高めるために、作業者が操作を行う実環境に操作対象物の画像イメージ情報を重畳させて、操作者に提示する技術が公知である(特許文献1、2、3等)。
【先行技術文献】
【特許文献】
【0003】
【特許文献1】特表平10-504763号公報
【特許文献2】特開2017-104944号公報
【特許文献3】特開2004-213673号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
加工する際に、ワークをツールに近づける操作において、ワークの軌道が加工面の品質に影響するため、ワークとツールとの相対位置関係は、操作者にとって重要な情報になる。なお、スレーブロボットにツールを保持させ、ワークを環境に固定する場合もある。本発明の目的は、スレーブロボットに保持される第1物体と環境に固定される第2物体との相対位置関係を、より正確に操作者に提示することが可能な遠隔作業支援システムを提供することである。
【課題を解決するための手段】
【0005】
本発明の一観点によると、
操作者が操作するマスターロボットと、
把持部に第1物体を把持し、前記マスターロボットが操作されると、前記マスターロボットに追従して動作するスレーブロボットと、
前記スレーブロボットの可動範囲内に配置された第2物体と
を有する遠隔作業システムによる作業を支援する遠隔作業支援システムであって、
頭部搭載型の画像表示デバイスと、
前記画像表示デバイスを制御する制御装置と
を備え、
前記制御装置は、前記画像表示デバイスを制御して、前記第1物体及び前記第2物体をそれぞれ模した第1モデル画像及び第2モデル画像を、前記スレーブロボットと前記第1物体と前記第2物体との位置関係が、前記マスターロボットと前記第1モデル画像と前記第2モデル画像との位置関係に反映されるように、実空間に投影し、
前記マスターロボットを、前記第1物体が前記第2物体に近づく方向に操作したとき、
前記制御装置は、前記第1物体と前記第2物体との接触を検知した時点で、前記第1モデル画像が前記第2モデル画像に接触する状態になるように、前記第1モデル画像に対する前記第2モデル画像の位置を調整する機能を有する遠隔作業支援システムが提供される。
【0006】
本発明の他の観点によると、
操作者が操作するマスターロボットと、
把持部に第1物体を把持し、前記マスターロボットが操作されると、前記マスターロボットに追従して動作するスレーブロボットと、
前記スレーブロボットの可動範囲内に配置された第2物体と
を有する遠隔作業システムによる作業を支援する遠隔作業支援システムであって、
頭部搭載型の画像表示デバイスと、
前記画像表示デバイスを制御する制御装置と
を備え、
前記制御装置は、前記画像表示デバイスを制御して、前記スレーブロボットと前記第2物体との位置関係が、前記マスターロボットと第2モデル画像との位置関係に反映されるように、前記第2モデル画像を、実空間に投影し、
前記第1物体と前記第2物体との間の最短距離を表す最短距離情報、及び前記第1物体と前記第2物体との間に作用する力に関する作用力情報の少なくとも一方を前記画像表示デバイスに表示させる遠隔作業支援システムが提供される。
【発明の効果】
【0007】
第1物体と第2物体との接触を検知した時点で、第1モデル画像が第2モデル画像に接触する状態になるように、第1モデル画像に対する第2モデル画像の位置を調整することにより、第1モデル画像と第2モデル画像とを見ながら操作する操作者は、第1物体と第2物体との位置関係をより正確に把握することができる。
【0008】
また、第1物体と第2物体との間の距離を表す最短距離情報、及び第1物体と第2物体との間に作用する力に関する作用力情報の少なくとも一方を画像表示デバイスに表示させることにより、操作者は、第1物体と第2物体との位置関係をより正確に把握することができる。
【図面の簡単な説明】
【0009】
【
図1】
図1は、一実施例による遠隔作業支援システムが搭載された遠隔作業システムの概略図である。
【
図2】
図2Aは、画像表示デバイスを装着した操作者が見た実空間の景色及び第1モデル画像、第2モデル画像の一例を示す図であり、
図2Bは、マスターロボットの把持部を含む実空間の景色及び第1モデル画像の一例を示す図である。
【
図3】
図3Aは、第1モデル画像及び第2モデル画像の表示位置を微調整する前の実空間の景色、第1モデル画像及び第2モデル画像を示す図であり、
図3Bは、第1モデル画像及び第2モデル画像の表示位置を微調整した後の実空間の景色、第1モデル画像及び第2モデル画像を示す図である。
【
図4】
図4は、制御装置が画像表示デバイスに表示した画像及び実空間の景色を示す図である。
【
図5】
図5は、他の実施例による遠隔作業支援システムの画像表示デバイスを通してみた実空間の景色、及び画像表示デバイスに表示された第1モデル画像、第2モデル画像の一例を示す図である。
【
図6】
図6は、第1物体が第2物体に接触したときの第1モデル画像、第2モデル画像、最短距離情報、作用力情報、及び実空間の景色を示す図である。
【
図7】
図7Aは、さらに他の実施例による遠隔作業支援システムの画像表示デバイスを通して見た実空間の景色を示す図であり、
図7Bは、画像表示デバイスを通して見た実空間の景色及び第2モデル画像を示す図である。
【
図8】
図8は、
図7A及び
図7Bに示した実施例による遠隔作業支援システムの操作者が第2モデル画像の位置を微調整するときに、画像表示デバイスを通してみた実空間の景色、及び第2モデル画像を示す図である。
【発明を実施するための形態】
【0010】
図1~
図4を参照して、一実施例による遠隔作業支援システムについて説明する。
図1は、本実施例による遠隔作業支援システムが搭載された遠隔作業システムの概略図である。本遠隔作業システムは操作者90が操作するマスターロボット10、及びマスターロボット10に追従して動作することによって切削、研削、研磨等の加工を行うスレーブロボット30を含む。マスターロボット10及びスレーブロボット30として、例えばシリアルリンク型の多軸ロボットが用いられる。なお、マスターロボット10及びスレーブロボット30として、直交軸と回転軸とをスタックしたスタック型ロボット、パラレルリンク型ロボット等を用いてもよい。これらのロボットの自由度は、加工内容に応じて選択すればよく、6以下でもよいし、7以上でもよい。
【0011】
マスターロボット10の複数の関節のそれぞれに、アクチュエータ12及びマスター位置検出器13が搭載されている。マスター制御部51がアクチュエータ12を制御するとともに、マスター位置検出器13の位置検出結果を受信する。スレーブロボット30の複数の関節のそれぞれに、アクチュエータ32及び位置検出器33が搭載されている。スレーブ制御部52がアクチュエータ32を制御するとともに、位置検出器33の位置検出結果を受信する。
【0012】
スレーブロボット30の手先の把持部に第1物体35が把持されている。スレーブロボット30の可動範囲内に第2物体40が配置されている。第2物体40は、支柱41によって作業環境に固定されている。例えば、第2物体40は、切削、研削、研磨等を行うツールであり、第1物体35はこのツールによって加工されるワークである。なお、スレーブロボット30の手先にツールを保持し、ワークを作業環境に固定してもよい。
【0013】
マスタースレーブ制御部50が、マスター制御部51からマスター位置検出器13の検出結果を受け取り、スレーブロボット30をマスターロボット10に追従して動作させるための指令を、スレーブ制御部52に送出する。スレーブ制御部52は、マスタースレーブ制御部50からの指令に基づいて、アクチュエータ32を制御する。アクチュエータ32の制御には、位置検出器33の検出結果を、マスタースレーブ制御部50からの指令値に近づけるフィードバック制御が適用される。アクチュエータ32は、第1物体35を第2物体40に押し付ける際に、加工内容に応じて十分な力を発生することができる程度の性能を有する。
【0014】
スレーブロボット30は、マスターロボット10の手先の位置及び姿勢に追従することができる手先の位置及び姿勢の自由度を有する。
【0015】
スレーブロボット30に、反力検出器31が取り付けられている。反力検出器31は、第1物体35が第2物体40に接触したとき、第2物体40から受ける反力を検出する。検出結果がマスタースレーブ制御部50及び制御装置53に取り込まれる。マスタースレーブ制御部50は、第1物体35が第2物体40から受ける反力と同一の反力を操作者90が感じるように、マスター制御部51に指令を送出する。マスター制御部51は、マスタースレーブ制御部50からの指令に基づいて、アクチュエータ12を制御する。これにより、操作者90は、第1物体35が第2物体40から受ける反力とほぼ同一の反力を感じながら、マスターロボット10を操作することができる。このように、マスターロボット10及びスレーブロボット30に対して、バイラテラル制御が行われる。
【0016】
操作者90は、作業時に頭部搭載型の画像表示デバイス60を頭に装着する。画像表示デバイス60として、MRグラスを用いることができる。画像表示デバイス60は透過型グラスであり、操作者90がMRグラスを通して見る実空間の景色に、モデル画像を重ねて表示する(実空間にモデル画像を投影する)ことができる。
図1において、第1物体35の第1モデル画像65及び第2物体40の第2モデル画像66を破線で示している。
【0017】
画像表示デバイス60に、加速度センサ、ジャイロセンサ、磁力計、ヘッドトラッキングセンサ等の、操作者90の頭の動きを検出するセンサが搭載されている。画像表示デバイス60は、カメラ61及び入力操作部62を含む。カメラ61は、操作者90が見る実空間の画像データを取得する。画像データは、制御装置53に取り込まれる。操作者90が入力操作部62を操作することにより、画像表示デバイス60に対して種々の指令を入力する。入力操作部62として、操作者90が画像表示デバイス60を頭部に装着した状態で容易に操作できる形態のもの、例えば押しボタンスイッチ等が用いられる。
【0018】
加工部観察用カメラ80が、第1物体35及び第2物体40を含む加工部を撮影する。作業中の操作者90が目視できる位置に、外付け表示装置81が配置されている。加工部観察用カメラ80で撮影されている動画が、リアルタイムで外付け表示装置81に表示される。操作者90は、外付け表示装置81に映し出されている加工部の動画により、加工面の状態を確認することで、作業状況を把握することができる。
【0019】
制御装置53は、反力検出器31の検出結果に基づいて、第1物体35と第2物体40とが接触したか否かを判定する。例えば、制御装置53は、第1物体35が第2物体40から受ける反力が判定閾値以上になると、第1物体35と第2物体40とが接触したと判定する。
【0020】
次に、
図2A及び
図2Bを参照して、第1モデル画像65及び第2モデル画像66を、画像表示デバイス60を用いて実空間に投影する機能について説明する。
【0021】
図2Aは、画像表示デバイス60(
図1)を装着した操作者90(
図1)が見た実空間の景色及び第1モデル画像65、第2モデル画像66の一例を示す図であり、
図2Bは、マスターロボット10の把持部11を含む実空間の景色及び第1モデル画像65の一例を示す図である。
【0022】
実空間に、マスターロボット10及び複数の第2モデル画像用の基準マーカ16が配置されている。複数の第2モデル画像用の基準マーカ16は、マスターロボット10の基準位置に対して既知の位置に配置されている。マスターロボット10の手先に把持部11が取り付けられている。把持部11は、2本の爪を有しており、爪先にそれぞれ第1モデル画像用の基準マーカ14が標記されている。
【0023】
制御装置53(
図1)は、カメラ61(
図1)で撮影された実空間の画像情報を解析して第2モデル画像用の基準マーカ16の位置を検出する。第2物体40の位置はスレーブロボット30の基準位置に対して固定されているため、第2物体40を模した第2モデル画像66の、第2モデル画像用の基準マーカ16に対する相対位置は予め決まっている。制御装置53は、第2モデル画像用の基準マーカ16の位置に対して、予め決められた相対位置に相当する位置に、第2モデル画像66を投影する。
【0024】
第2モデル画像66として、実際の第2物体40の外形を模した画像を採用してもよいし、第2物体40の外形を数式モデルで近似した単純な幾何学図形を採用してもよいし、三次元モデルで定義される画像を採用してもよい。幾何学図形として、例えば、複数の円筒面の組み合わせを用いてもよい。この場合、円筒面の半径、中心軸の位置及び姿勢、円筒面の高さ、円筒面の高さ方向の位置等により第2モデル画像66が定義される。
【0025】
操作者90が頭を動かして、操作者90が見る実空間の景色が変わると、制御装置53は、画像表示デバイス60に搭載された頭の動きを検出するセンサの検出結果に基づいて第2モデル画像66を投影する位置及び姿勢を更新する。なお、操作者90の頭の移動に応じて操作者90の視野内で第2モデル画像用の基準マーカ16の位置が変化すると、基準マーカ16の位置の変化に応じて、第2モデル画像66を投影する位置及び姿勢を更新してもよい。このように、第2モデル画像66を投影する位置及び姿勢を更新することにより、操作者90には、第2モデル画像66が実空間内に固定されているように見える。
【0026】
把持部11の2本の爪の爪先に、それぞれ第1モデル画像用の基準マーカ14が設けられている。制御装置53は、カメラ61で撮影された実空間の画像情報を解析して第1モデル画像用の基準マーカ14の位置を検出する。スレーブロボット30の把持部に把持された第1物体35(
図1)は、把持部に対して予め決められた一定の位置に、一定の姿勢で把持される。このため、第1物体35を模した第1モデル画像65の、第1モデル画像用の基準マーカ14に対する相対位置は予め決まっている。
【0027】
制御装置53は、第1モデル画像用の基準マーカ14の位置に対して、予め決められた相対位置に相当する位置に、第1モデル画像65を投影する。第1モデル画像65は、三次元モデルで定義される。操作者90がマスターロボット10を操作することにより把持部11が移動するとともにその姿勢が変化すると、制御装置53は、把持部11の位置及び姿勢の変化に応じて、第1モデル画像65を移動させ、その姿勢を変化させる。このため、操作者90には、第1モデル画像65が把持部11に把持されて移動しているように見える。
【0028】
次に、
図3A及び
図3Bを参照して、第1モデル画像65及び第2モデル画像66を投影する位置を微調整する機能について説明する。
図3Aは、第1モデル画像65及び第2モデル画像66を投影する位置を微調整する前の実空間の景色、第1モデル画像65及び第2モデル画像66を示す図であり、
図3Bは、第1モデル画像65及び第2モデル画像66を投影する位置を微調整した後の実空間の景色、第1モデル画像65及び第2モデル画像66を示す図である。
【0029】
まず、操作者90がマスターロボット10を操作して、第1物体35(
図1)を第2物体40(
図1)に近づける。反力検出器31(
図1)の検出値が判定閾値以上になると、制御装置53は、第1物体35が第2物体40に接触したと判定する。制御装置53は、第1物体35が第2物体40に接触した時点の第1モデル画像65及び第2モデル画像66の位置を記憶する。
【0030】
第1物体35が第2物体40に接触した時点で、
図3Aに示すように第2モデル画像66が第1モデル画像65に接触していない場合、制御装置53は、第2モデル画像66が第1モデル画像65に接触した状態に見えるように、第2モデル画像66を第1モデル画像65に近づく方向に移動させる。なお、第1物体35が第2物体40に接触した時点で、第2モデル画像66が第1モデル画像65内にめり込んでいる場合は、第2モデル画像66を第1モデル画像65から遠ざかる方向に移動させる。
【0031】
制御装置53は、第2モデル画像66の位置調整後の第2モデル画像66と第2モデル画像用の基準マーカ16との相対位置関係を記憶する。この相対位置関係を「微調整後の相対位置関係」という。操作者90が頭を動かすと、制御装置53は、画像表示デバイス60に搭載された頭の位置及び姿勢の変化を検出するセンサの検出結果に基づいて、修正後の相対位置関係が維持されるように、第2モデル画像66の位置及び姿勢を変化させる。第2モデル画像66の位置の微調整は、実際の作業を行う前に完了させることが好ましい。
【0032】
次に、
図4を参照して、操作者90が手動で第2モデル画像66の位置を微調整する機能について説明する。
【0033】
図4は、制御装置53(
図1)が画像表示デバイス60(
図1)によって投影した画像及び実空間の景色を示す図である。制御装置53は、第1物体35と第2物体40との接触を、画像表示デバイス60に接触通知アイコン75を表示することにより通知する。さらに、画像表示デバイス60に、マスターロボット10の基準座標系であるxyz直交座標系の各軸、12個の矢印アイコン76及びポインタアイコン77を表示する。例えば、xy面が水平面に平行であり、第2モデル画像66が第1モデル画像65に近づく向きをx軸の正の向きとし、鉛直上方をz軸の正の向きとする。x軸、y軸、z軸、θ
x軸、θ
y軸、θ
z軸の各軸に対応して矢印アイコン76が2個ずつ表示されている。各軸の2個の矢印アイコン76は相互に反対方向を向いており、正の向き及び負の向きに対応する。
【0034】
操作者90は、入力操作部62(
図1)を操作しながら頭の向きを変化させてポインタアイコン77を12個の矢印アイコン76いずれか1つにポイントし、矢印アイコンを選択すると、制御装置53は、第2モデル画像66を、選択された矢印アイコン76で示される向きに、画面内で移動させる。例えば、x軸に対応する一方の矢印アイコン76が選択されると、第2モデル画像66が第1モデル画像65に近づく向き(x軸の正の向き)に移動し、他方の矢印アイコン76が選択されると、第2モデル画像66が第1モデル画像65から遠ざかる向き(x軸の負の向き)に移動する。例えば、θ
x軸に対応する矢印アイコン76が選択されると、第2モデル画像66がx軸に平行な軸を回転中心とする回転方向の姿勢が、正の向きまたは負の向き変化する。このように、制御装置53は、操作者90の操作に基づいて、第1モデル画像65に対する第2モデル画像66の位置及び姿勢を微調整する機能を有する。
【0035】
操作者90は、第1物体35が第2物体40に接触した状態で第2モデル画像66を移動させ、第1モデル画像65と第2モデル画像66との位置関係を適切な状態に設定することができる。
【0036】
次に、本実施例の優れた効果について説明する。
本実施例では、第1物体35が第2物体40に接触した状態が、第1モデル画像65と第2モデル画像66との位置関係に正確に反映される。このため、第1モデル画像65及び第2モデル画像66を見ながらマスターロボット10を操作する際に、第1物体35と第2物体40との距離を把握しやすい。その結果、第1物体35を第2物体40に、より適切な力で押し付けることが可能になり、作業品質を高めることができる。
【0037】
また、本実施例では、頭部搭載型の画像表示デバイス60としてMRグラスを用いているため、第1モデル画像65と第2モデル画像66との三次元的な位置関係を容易に把握することができる。
【0038】
次に、上記実施例の変形例について説明する。
上記実施例では、第1物体35が第2物体40から受ける反力を反力検出器31で測定するが、他の方法で反力を求めてもよい。例えば、スレーブロボット30の関節のそれぞれにトルクセンサを搭載し、トルクセンサで取得されたトルクの測定値から、手先の座標系の各軸の成分を求めてもよい。また、各関節軸の反力推定オブザーバの情報から、手先の座標系の各軸の成分を求めてもよい。反力推定オブザーバの構成については、例えば、日本ロボット学会誌11巻5号「反作用力推定オブザーバに基づいた多自由度ロボットの力センサレスコンプライアンス制御」に説明されている。
【0039】
次に、
図5及び
図6を参照して他の実施例による遠隔作業支援システムについて説明する。以下、
図1~
図4を参照して説明した実施例による遠隔作業支援システムと共通の構成については説明を省略する。
【0040】
図5は、本実施例による遠隔作業支援システムの画像表示デバイス60(
図1)を通してみた実空間の景色、及び画像表示デバイス60によって投影された第1モデル画像65、第2モデル画像66の一例を示す図である。
【0041】
水平面内で第2モデル画像66が第1モデル画像65に近づく向きをx軸の正の向きとし、鉛直上方をz軸の正の向きとするxyz直交座標系を定義する。画像表示デバイス60によって、実空間に第1モデル画像65、第2モデル画像66、及びxyz直交座標系の各軸が投影されている。さらに、制御装置53は、第1物体35と第2物体40とを結ぶ線分のうち最短距離となる仮想的な線分のモデル画像67を実空間に投影する。第1物体35と第2物体40とを結ぶ線分のうち最短距離となる仮想的な線分は、スレーブロボット30の手先位置と姿勢から算出することができる。
【0042】
さらに、制御装置53は、画像表示デバイス60に、第1物体35と第2物体40との間の最短距離を表す最短距離情報71、及び第1物体35が第2物体40から受ける反力を表す作用力情報72を操作者90が視認可能な位置に表形式で表示する。
図5に示した例では、最短距離が20mmである。また、第1物体35が第2物体40に接触していないため、作用力情報72は、空欄である。
【0043】
図6は、第1物体35が第2物体40に接触したときの第1モデル画像65、第2モデル画像66、最短距離情報71、作用力情報72、及び実空間の景色を示す図である。第1物体35が第2物体40に接触すると、制御装置53は、最短距離情報71に、接触したことを示す情報、例えば「接触」という文字列を表示する。
【0044】
さらに、反力検出器31(
図1)で検出された反力の大きさ及び向きを、xyz直交座標系の各軸の大きさに変換することにより、反力のx成分Fx、y成分Fy、z成分Fzを計算する。作用力情報72として、反力のx成分Fx、y成分Fy、z成分Fzのそれぞれの大きさを数値で表示するとともに、各成分の大きさに応じた長さを持つ矢印で表示する。
【0045】
次に、本実施例の優れた効果について説明する。
本実施例では、操作者90が最短距離情報71を確認することにより、第1物体35と第2物体40との距離を容易に把握することができるとともに、容易に両者の接触を確認することができる。また、第1物体35が第2物体40から受ける反力の大きさ及び向きを容易に把握することができる。これにより、操作者90は、第1物体35と第2物体40との接触状態(接触位置と両者の間に作用する力)を、より適切な状態に保って作業を行うことが可能になる。
【0046】
次に、
図7A~
図8を参照して、さらに他の実施例による遠隔作業支援システムについて説明する。以下、
図1~
図4を参照して説明した実施例による遠隔作業支援システムと共通の構成については説明を省略する。
【0047】
図7Aは、本実施例による遠隔作業支援システムの画像表示デバイス60(
図1)を通して見た実空間の景色を示す図である。
図1~
図4を参照して説明した実施例(
図2A)では、画像表示デバイス60(
図1)によって、第1物体35を模した第1モデル画像65が実空間に投影されるが、本実施例では、マスターロボット10の把持部11に、第1物体35を模したダミー物体15が実際に把持されている。スレーブロボット30がマスターロボット10に追従して動作しているとき、マスターロボット10の基準座標系におけるダミー物体15の位置及び姿勢は、スレーブロボット30の基準座標系における第1物体35の位置及び姿勢と同一である。
【0048】
図7Bは、本実施例による遠隔作業支援システムの画像表示デバイス60(
図1)を通して見た実空間の景色及び第2モデル画像66を示す図である。本実施例では、把持部11にダミー物体15が把持されているため、
図2Aに示した第1モデル画像65は投影されていない。操作者90は、実空間のダミー物体15と画像表示デバイス60に表示された第2モデル画像66とから、第1物体35と第2物体40との位置関係を把握することができる。
【0049】
図8は、操作者90が第2モデル画像66の投影位置を微調整するときに、画像表示デバイス60を通してみた実空間の景色、及び第2モデル画像66を示す図である。
図4に示した実施例と同様に、画像表示デバイス60に、接触通知アイコン75、12個の矢印アイコン76、及びポインタアイコン77が表示されている。操作者90が入力操作部62(
図1)を操作することにより、第2モデル画像66とダミー物体15との位置関係を微調整することができる。
【0050】
図3A及び
図3Bを参照して説明したように、制御装置53(
図1)が第2モデル画像66の投影位置を自動で微調整する場合には、制御装置53は、マスターロボット10のマスター位置検出器13から、ダミー物体15の位置を計算により求める。求められたダミー物体15の位置に対して、第2モデル画像66の位置を微調整する。
【0051】
次に、本実施例の優れた効果について説明する。
本実施例においても、
図1~
図4を参照して説明した実施例と同様に、第2モデル画像66の投影位置を微調整することができる。このため、ダミー物体15及び第2モデル画像66を見ながらマスターロボット10を操作する際に、第1物体35と第2物体40との距離を把握しやすい。その結果、第1物体35を第2物体40に、より適切な力で押し付けることが可能になり、作業品質を高めることができる。
【0052】
上述の各実施例は例示であり、異なる実施例で示した構成の部分的な置換または組み合わせが可能であることは言うまでもない。複数の実施例の同様の構成による同様の作用効果については実施例ごとには逐次言及しない。さらに、本発明は上述の実施例に制限されるものではない。例えば、種々の変更、改良、組み合わせ等が可能なことは当業者に自明であろう。
【符号の説明】
【0053】
10 マスターロボット
11 把持部
12 アクチュエータ
13 マスター位置検出器
14 第1モデル画像用の基準マーカ
15 第1物体を模したダミー物体
16 第2モデル画像用の基準マーカ
30 スレーブロボット
31 反力検出器
32 アクチュエータ
33 スレーブ位置検出器
35 第1物体
40 第2物体
41 支柱
50 マスタースレーブ制御部
51 マスター制御部
52 スレーブ制御部
53 制御装置
60 頭部搭載型の画像表示デバイス
61 カメラ
62 入力操作部
65 第1モデル画像
66 第2モデル画像
67 最短距離となる直線
71 距離情報
72 作用力情報
75 接触通知アイコン
76 矢印アイコン
77 ポインタアイコン
80 加工部観察用カメラ
81 外付け表示装置
90 操作者