(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024142563
(43)【公開日】2024-10-11
(54)【発明の名称】ロボット制御装置、ロボット制御方法、およびロボットシステム
(51)【国際特許分類】
B25J 13/08 20060101AFI20241003BHJP
【FI】
B25J13/08 Z
【審査請求】未請求
【請求項の数】20
【出願形態】OL
(21)【出願番号】P 2023054742
(22)【出願日】2023-03-30
(71)【出願人】
【識別番号】000002185
【氏名又は名称】ソニーグループ株式会社
(74)【代理人】
【識別番号】110001357
【氏名又は名称】弁理士法人つばさ国際特許事務所
(72)【発明者】
【氏名】成田 哲也
(72)【発明者】
【氏名】古山 佳和
(72)【発明者】
【氏名】水谷 智子
(72)【発明者】
【氏名】宮澤 清和
(72)【発明者】
【氏名】小久保 亘
【テーマコード(参考)】
3C707
【Fターム(参考)】
3C707CS08
3C707ES07
3C707KS03
3C707KS04
3C707KS07
3C707KS09
3C707KS31
3C707KS36
3C707KT03
3C707KT04
3C707KX08
3C707LV06
3C707LV07
3C707LW12
3C707WA16
(57)【要約】
【課題】物体や環境の認識精度を向上させ、状況に応じてロボットによる柔軟で安定的な動作を行うことを可能にする。
【解決手段】本開示のロボット制御装置は、ロボットに設けられた測距センサによって測定された測定対象の距離情報と、ロボットに設けられた触覚センサによって測定された測定対象の触覚情報とに基づいて測定対象の認識を行う認識部と、認識部によって認識された測定対象の情報に基づいて、ロボットの動作制御を行う制御部とを備える。
【選択図】
図3
【特許請求の範囲】
【請求項1】
ロボットに設けられた測距センサによって測定された測定対象の距離情報と、前記ロボットに設けられた触覚センサによって測定された前記測定対象の触覚情報とに基づいて前記測定対象の認識を行う認識部と、
前記認識部によって認識された前記測定対象の情報に基づいて、前記ロボットの動作制御を行う制御部と
を備える
ロボット制御装置。
【請求項2】
前記認識部は、前記測定対象の形状および位置姿勢の認識を行う
請求項1に記載のロボット制御装置。
【請求項3】
前記制御部は、前記ロボットの動作制御として、前記ロボットの動作形態、および前記ロボットの位置姿勢のうち少なくとも1つの制御を行う
請求項1に記載のロボット制御装置。
【請求項4】
前記ロボットは、前記測定対象としての物体を把持することが可能に構成され、
前記制御部は、前記ロボットの動作制御として、前記ロボットによる前記測定対象の把持形態、把持位置および把持姿勢のうち少なくとも1つの制御を行う
請求項1に記載のロボット制御装置。
【請求項5】
前記ロボットは、少なくとも一部の部位が移動可能に構成され、
前記制御部は、前記ロボットの動作制御として、前記ロボットの少なくとも一部の部位の移動速度および軌道のうち少なくとも1つの制御を行う
請求項1に記載のロボット制御装置。
【請求項6】
前記制御部は、前記測定対象に接触する前に測定された前記距離情報に基づいて前記ロボットの動作制御を行った後、前記測定対象に接触した後に測定された前記触覚情報に基づいて前記ロボットの動作制御の修正を行う
請求項1に記載のロボット制御装置。
【請求項7】
前記ロボットは、前記測距センサまたは前記触覚センサが設けられている少なくとも一部の部位が移動可能に構成され、
前記制御部は、前記測距センサまたは前記触覚センサによる前記測定対象の測定が不十分な箇所に前記測距センサの測定点または前記触覚センサの測定点が位置することとなるように、前記測距センサまたは前記触覚センサが設けられている少なくとも一部の部位の動作制御を行う
請求項1に記載のロボット制御装置。
【請求項8】
前記ロボットは、前記測定対象としての物体を把持することが可能に構成され、
前記制御部は、前記認識部によって認識された前記測定対象の情報に基づいて、複数の把持点候補点の中から、把持安定性を考慮した把持点を決定し、決定された前記把持点において前記測定対象としての物体を把持することとなるように、前記ロボットの動作制御を行う
請求項1に記載のロボット制御装置。
【請求項9】
前記ロボットにおいて、前記測定対象との接触頻度の高い部分に前記触覚センサが設けられ、前記測定対象との接触頻度の低い部分に前記測距センサが設けられている
請求項1に記載のロボット制御装置。
【請求項10】
前記ロボットにおいて、前記触覚センサと前記測距センサとが交互に設けられている
請求項1に記載のロボット制御装置。
【請求項11】
前記ロボットは凸部と凹部とを有し、前記凸部に前記触覚センサが設けられ、前記凹部に前記測距センサが設けられている
請求項1に記載のロボット制御装置。
【請求項12】
前記凸部は前記測定対象との接触により変形する柔軟材料で構成されている
請求項11に記載のロボット制御装置。
【請求項13】
前記認識部は、前記測定対象における前記測距センサによる測定点と前記触覚センサによる測定点との測定点間の形状を補間により推定する
請求項1に記載のロボット制御装置。
【請求項14】
前記認識部は、前記測距センサによる測定点に対して前記触覚センサによる測定点の重み付けが大きくなるように測定点の重み付けを行った状態で、前記測定対象の形状推定を行う
請求項1に記載のロボット制御装置。
【請求項15】
前記認識部は、前記測距センサによる測定点と前記触覚センサによる測定点とに基づいて算出された測定点の確率分布に基づいて、前記測定対象の形状推定を行う
請求項1に記載のロボット制御装置。
【請求項16】
前記認識部は、前記測距センサおよび前記触覚センサによる前記測定対象の部分的な観測情報に基づいて、前記測定対象の全体的な形状推定を行う
請求項1に記載のロボット制御装置。
【請求項17】
前記認識部は、あらかじめ用意された複数のテンプレート物体の情報と、前記測距センサおよび前記触覚センサによる前記測定対象の部分的な観測情報とのパターンマッチングを行うことにより、前記測定対象の全体的な形状推定を行う
請求項1に記載のロボット制御装置。
【請求項18】
前記認識部は、前記測定対象の事前情報と、前記測距センサおよび前記触覚センサによる前記測定対象の部分的な観測情報とのパターンマッチングを行うことにより、前記測定対象の全体的な形状および位置姿勢の推定を行う
請求項1に記載のロボット制御装置。
【請求項19】
ロボットに設けられた測距センサによって測定された測定対象の距離情報と、前記ロボットに設けられた触覚センサによって測定された前記測定対象の触覚情報とに基づいて前記測定対象の認識を行うことと、
認識された前記測定対象の情報に基づいて、前記ロボットの動作制御を行うことと
を含む
ロボット制御方法。
【請求項20】
測距センサと触覚センサとが設けられたロボットと、
前記ロボットの制御を行うロボット制御装置と
を含み、
前記ロボット制御装置は、
前記ロボットに設けられた前記測距センサによって測定された測定対象の距離情報と、前記ロボットに設けられた前記触覚センサによって測定された前記測定対象の触覚情報とに基づいて前記測定対象の認識を行う認識部と、
前記認識部によって認識された前記測定対象の情報に基づいて、前記ロボットの動作制御を行う制御部と
を備える
ロボットシステム。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、ロボット制御装置、ロボット制御方法、およびロボットシステムに関する。。
【背景技術】
【0002】
各種センサにより、ロボットの位置姿勢、またはロボットの測定対象(把持物体等)の測定を行うことで、ロボットの動作制御を行う方法がある(特許文献1~3参照)。
【先行技術文献】
【特許文献】
【0003】
【特許文献1】国際公開第2021/033509号
【特許文献2】特開平11-28692号公報
【特許文献3】国際公開第2022/030242号
【発明の概要】
【発明が解決しようとする課題】
【0004】
ロボットによる柔軟で安定的な動作を行うためには、物体や環境等の測定対象の認識精度を向上させることが望ましい。
【0005】
物体や環境の認識精度を向上させ、状況に応じてロボットによる柔軟で安定的な動作を行うことが可能なロボット制御装置、ロボット制御方法、およびロボットシステムを提供することが望ましい。
【課題を解決するための手段】
【0006】
本開示の一実施の形態に係るロボット制御装置は、ロボットに設けられた測距センサによって測定された測定対象の距離情報と、ロボットに設けられた触覚センサによって測定された測定対象の触覚情報とに基づいて測定対象の認識を行う認識部と、認識部によって認識された測定対象の情報に基づいて、ロボットの動作制御を行う制御部とを備える。
【0007】
本開示の一実施の形態に係るロボット制御方法は、ロボットに設けられた測距センサによって測定された測定対象の距離情報と、ロボットに設けられた触覚センサによって測定された測定対象の触覚情報とに基づいて測定対象の認識を行うことと、認識された測定対象の情報に基づいて、ロボットの動作制御を行うこととを含む。
【0008】
本開示の一実施の形態に係るロボットシステムは、測距センサと触覚センサとが設けられたロボットと、ロボットの制御を行うロボット制御装置とを含み、ロボット制御装置は、ロボットに設けられた測距センサによって測定された測定対象の距離情報と、ロボットに設けられた触覚センサによって測定された測定対象の触覚情報とに基づいて測定対象の認識を行う認識部と、認識部によって認識された測定対象の情報に基づいて、ロボットの動作制御を行う制御部とを備える。
【0009】
本開示の一実施の形態に係るロボット制御装置、ロボット制御方法、またはロボットシステムでは、ロボットに設けられた測距センサによって測定された測定対象の距離情報と、ロボットに設けられた触覚センサによって測定された測定対象の触覚情報とに基づいて測定対象の認識を行い、認識された測定対象の情報に基づいて、ロボットの動作制御を行う。
【図面の簡単な説明】
【0010】
【
図1】
図1は、比較例に係るロボットシステムの概要を示す構成図である。
【
図2】
図2は、比較例に係るロボットシステムの概要を示す構成図である。
【
図3】
図3は、本開示の一実施の形態に係るロボットシステムのハードウェア構成の一例を概略的に示す構成図である。
【
図4】
図4は、一実施の形態に係るロボットシステムのハードウェア構成の一例を概略的に示す構成図である。
【
図5】
図5は、一実施の形態に係るロボットシステムのハードウェア構成の一例を概略的に示す構成図である。。
【
図6】
図6は、一実施の形態に係るロボットシステムのハードウェア構成の一例を概略的に示す構成図である。
【
図7】
図7は、一実施の形態に係るロボットシステムのハードウェア構成の一例を概略的に示す構成図である。
【
図8】
図8は、一実施の形態に係るロボットシステムのハードウェア構成の一例を概略的に示す構成図である。
【
図9】
図9は、一実施の形態に係るロボットシステムにおけるセンサ配置の一例を概略的に示す構成図である。
【
図10】
図10は、一実施の形態に係るロボットシステムにおけるセンサ配置の一例を概略的に示す構成図である。
【
図11】
図11は、一実施の形態に係るロボットシステムにおけるセンサ配置の一例を概略的に示す構成図である。
【
図12】
図12は、一実施の形態に係るロボットシステムにおけるセンサ配置の一例を概略的に示す構成図である。
【
図13】
図13は、一実施の形態に係るロボットシステムにおけるセンサ配置の一例を概略的に示す構成図である。
【
図14】
図14は、一実施の形態に係るロボットシステムにおけるセンサ配置の一例を概略的に示す構成図である。
【
図15】
図15は、一実施の形態に係るロボットシステムによる物体の測定方法の概要を示す説明図である。
【
図16】
図16は、一実施の形態に係るロボットシステムによる物体形状の推定手法の一例を概略的に示す説明図である。
【
図17】
図17は、一実施の形態に係るロボットシステムにおける測距センサの測距誤差の一例を概略的に示す説明図である。
【
図18】
図18は、一実施の形態に係るロボットシステムにおける測距センサ測定点および触覚センサ測定点のセンサノイズ分布の一例を概略的に示す説明図である。
【
図19】
図19は、一実施の形態に係るロボットシステムにおける測距センサ測定点および触覚センサ測定点のセンサノイズ分布の一例を概略的に示す説明図である。
【
図20】
図20は、一実施の形態に係るロボットシステムによる物体形状の推定手法の一例を概略的に示す説明図である。
【
図21】
図21は、一実施の形態に係るロボットシステムによる物体形状の推定手法の一例を概略的に示す説明図である。
【
図22】
図22は、一実施の形態に係るロボットシステムによる物体形状の推定手法の一例を概略的に示す説明図である。
【
図23】
図23は、一実施の形態に係るロボットシステムによる物体形状の推定手法の一例を概略的に示す説明図である。
【
図24】
図24は、一実施の形態に係るロボットシステムによる能動的なセンシングの例1を概略的に示す説明図である。
【
図25】
図25は、一実施の形態に係るロボットシステムによる能動的なセンシングの例1を概略的に示す説明図である。
【
図26】
図26は、一実施の形態に係るロボットシステムによる能動的なセンシングの例2を概略的に示す説明図である。
【
図27】
図27は、一実施の形態に係るロボットシステムによる能動的なセンシングの例3を概略的に示す説明図である。
【
図28】
図28は、一実施の形態に係るロボットシステムによる能動的なセンシングの例3を概略的に示す説明図である。
【
図29】
図29は、一実施の形態に係るロボットシステムによる把持安定性を考慮した把持点候補点の絞り込みの第1の方法を概略的に示す説明図である。
【
図30】
図30は、一実施の形態に係るロボットシステムによる把持安定性を考慮した把持点候補点の絞り込みの第2の方法を概略的に示す説明図である。
【
図31】
図31は、一実施の形態に係るロボットシステムによる能動的なセンシングの例4を概略的に示す説明図である。
【
図32】
図32は、一実施の形態に係るロボットシステムによる能動的なセンシングの例4を概略的に示す説明図である。
【
図33】
図33は、一実施の形態に係るロボットシステムにおいてハンドを移動させて測定対象である物体に接近する動作の例を示す説明図である。
【
図34】
図34は、一実施の形態に係るロボットシステムにおける、不確かさ情報を含む物体環境認識結果を用いた、把持形態の決定手法の一例を示す説明図である。
【
図38】
図38は、一実施の形態に係るロボットシステムにおける、不確かさ情報を含む物体環境認識結果を用いた、把持形態の決定手法の変形例を示す説明図である。
【
図39】
図39は、一実施の形態に係るロボットシステムにおいて測距センサ、および触覚センサ以外のセンサが設けられた例を概略的に示す構成図である。
【
図40】
図40は、一実施の形態に係るロボットシステムの制御ブロック(ロボット制御装置)の第1の構成例を概略的に示すブロック図である。
【
図41】
図41は、一実施の形態に係るロボットシステムの制御ブロック(ロボット制御装置)の第2の構成例を概略的に示すブロック図である。
【
図42】
図42は、一実施の形態に係るロボットシステムの制御動作の第1の例を示すフローチャートである。
【
図43】
図43は、一実施の形態に係るロボットシステムの制御動作の第2の例を示すフローチャートである。
【
図44】
図44は、一実施の形態に係るロボットシステムの制御動作の第3の例を示すフローチャートである。
【発明を実施するための形態】
【0011】
以下、本開示の実施の形態について図面を参照して詳細に説明する。なお、説明は以下の順序で行う。
0.比較例(
図1~
図2)
1.一実施の形態
1.1 概要(
図3~
図8)
1.2 センサ配置の具体例(
図9~
図14)
1.3 物体・環境認識の具体例(
図15~
図23)
1.4 能動的なセンシング(
図24~
図32)
1.5 物体・環境認識を利用した動作生成(
図33~
図38)
1.6 測距センサ、触覚センサ以外のセンサの利用(
図39)
1.7 制御ブロック(ロボット制御装置)の構成例(
図40~
図41)
1.8 制御動作例(
図42~
図44)
1.9 効果
2.その他の実施の形態
【0012】
<0.比較例>
図1および
図2は、比較例に係るロボットシステムの概要を示す構成図である。
【0013】
図1および
図2には、ロボットの一例として、頭部と、胴体2と、アーム3と、台車(車輪)4とを有する人型ロボット1の例を示す。アーム3には物体50を把持することが可能な指11を有するハンド(ロボットハンド)10が取り付けられている。人型ロボット1の頭部には、カメラ(頭部センサ)5が設けられている。
【0014】
このような人型ロボット1において、安定的に物体50を把持するためには、物体50に合わせて把持姿勢や持ち方を選択することが重要であり、そのためには物体50の形状および位置姿勢の把握が求められる。一般的に使用されているRGB-D(Depth)カメラだと、オクルージョンの問題や光源環境による影響、誤差等があり、十分な物体認識が困難になることがある。ToF(Time of Flight)センサなどに代表される距離センサは有効手段だが、誤差があり、接触前の近距離はダイナミックレンジの範囲外となり測定が困難になる場合が多い。
【0015】
RGB-Dカメラは画角や測距距離の都合で、物体50から離れた位置(ロボットの頭部等)に取り付けることが多い。その場合、ロボット自身や障害物によるオクルージョンが発生する。センサと物体間距離が離れる程、認識の誤差が増大し、正確な認識が困難となる。認識された物体50の形状および位置姿勢に誤差が生じるため、把持形態や把持姿勢が決まらない。任意に選択した方法で把持すると不安定になる。
【0016】
多様な物体50を把持する場合、物体50の詳細な情報(形状、大きさ、位置、姿勢)は分からないことが多い。RGB-Dカメラで物体50を検出する手法として、例えば
図1に示したように人型ロボット1の頭部に設けられたRGB-Dカメラ等のカメラ5によって物体50を検出する方法がある。この場合、画角や測距範囲の制約で、対象物から離れた位置から観察することが求められる。また、ロボット自身や障害物によるオクルージョンや、光源環境による外乱によって、必ずしも詳細な情報が取得できるとは限らない。
【0017】
そこで、測距センサ(近接覚センサ)の使用が有効的な手段の1つとなる。例えば
図2に示したように人型ロボット1のハンド10または指11に測距センサ21を設けて物体50を検出する方法がある。この場合、測距センサ21には誤差がある、高密度な配置が困難であり、検出可能な物体50が限られる。
【0018】
ここで、環境の情報が事前に得られない非構造化環境、例えば食品工場、食料品店、レストラン、病院等の環境でのマニピュレーションでは、様々な形状、位置姿勢の物体50や多様な障害物を扱うことが求められる。また、物体情報(物体50の形状、および位置姿勢等)を観察し、適切な把持形態(握る、つまむetc)やロボットの位置姿勢を決めることが求められる。
【0019】
そこで、一実施の形態として、物体50や周囲の環境、障害物の情報などが事前に得られない場合であっても、測距センサと触覚センサとを利用して可能な限り正確に、物体50や環境等の測定対象の情報を推定する手法を提案する。また、推定した物体50や周囲環境、および障害物情報を元に、把持形態、把持位置および把持姿勢、ロボットの障害物回避姿勢、および経路等を決定する手法を提案する。
【0020】
<1.一実施の形態>
[1.1 概要]
図3ないし
図8は、本開示の一実施の形態に係るロボットシステムのハードウェア構成の一例を概略的に示す構成図である。
【0021】
一実施の形態に係るロボットシステムは、測距センサ21および触覚センサ22が設けられたロボットと、ロボットの制御を行うロボット制御装置とを含んでいる。
【0022】
ロボット制御装置は、ロボットに設けられた測距センサ21によって測定された測定対象の距離情報と、ロボットに設けられた触覚センサ22によって測定された測定対象の触覚情報とに基づいて測定対象の認識を行う認識部を備える。また、ロボット制御装置は、認識部によって認識された測定対象の情報に基づいて、ロボットの動作制御を行う制御部を備える。
【0023】
一実施の形態に係るロボットシステムにおいて、ロボット制御装置は、例えば、後述する
図40および
図41に示すように、複数の制御ブロックを備えていてもよい。一実施の形態に係るロボットシステムにおいて、認識部による処理は、後述する
図40および
図41に示す物体・環境認識部110によって実現され得る。また、制御部による処理は、後述する
図40および
図41に示す動作制御部120によって実現され得る。
【0024】
一実施の形態に係るロボットシステムにおいて適用されるロボットは、上述の人型ロボット1の他、各種移動体、脚式ロボット、およびドローン等であってもよい。また、一実施の形態に係るロボットシステムにおいて適用されるロボットは、マニピュレータ、ハンド10、指11等であってもよい。
【0025】
一実施の形態に係るロボットシステムは測距センサ21として、非接触で測定対象を測距可能なセンサを少なくとも1つ備えている。測距センサ21としては、例えば、Time of Flight方式センサ、ミリ波センサ、超音波センサ、レーザ式センサ、LiDAR(Light Detection And Ranging)、ステレオカメラ、パターン照射式センサ、およびイベントカメラ等のうち少なくとも1つであってもよい。
【0026】
一実施の形態に係るロボットシステムは触覚センサ22として、接触することにより測定対象を測定可能なセンサを少なくとも1つ備えている。触覚センサ22としては、例えば、圧力分布センサ、力覚センサ、ビジョン方式センサ、および磁気式センサ等のうち少なくとも1つであってもよい。
【0027】
一実施の形態に係るロボットシステムでは、測距センサ21による近接覚情報(距離情報)と触覚センサ22による触覚情報(接触情報)とを用いた物体・環境認識を行う。測距センサ21では、非接触で測距ができる。測距センサ21では、誤差がある、検出可能物体が限定される、物体50や環境等の測定対象との接触は正確には分からない。一方、触覚センサ22では、測定対象との接触が正確に検出できる。触覚センサ22では、測定対象と接触するまで情報は取れない。一実施の形態に係るロボットシステムでは、測距センサ21と触覚センサ22とを適切に使い分けながら、物体50や環境等の測定対象の形状、および位置姿勢等の情報の精度を上げていく。
【0028】
図3には、ロボットとしてのハンド10において、複数の指11のそれぞれに対して、測距センサ21と触覚センサ22とを設けた例を示す。
図4には、ロボットとしてのハンド10の1つの指11の指先に測距センサ21と触覚センサ22とを設けた例を示す。
図5には、人型ロボット1における台車(車輪)4に測距センサ21と触覚センサ22とを設けた例を示す。
図6には、人型ロボット1におけるアーム3に測距センサ21と触覚センサ22とを設けた例を示す。
【0029】
他の形態のロボットでも同様に測距センサ21と触覚センサ22とを設けてもよい。脚式ロボット(
図7)なら、脚41の先等に測距センサ21および触覚センサ22を取り付けて物体50や障害物をセンシングするようにしてもよい。また、人型ロボット1の胴体2に測距センサ21および触覚センサ22を設けてもよい。また、ドローン60(
図8)の一部に測距センサ21および触覚センサ22を設けてもよい。
【0030】
一実施の形態に係るロボットシステムにおいて、認識部は、測定対象の形状および位置姿勢の認識を行うようにしてもよい。
【0031】
一実施の形態に係るロボットシステムにおいて、制御部は、ロボットの動作制御として、ロボットの動作形態、およびロボットの位置姿勢のうち少なくとも1つの制御を行うようにしてもよい。
【0032】
一実施の形態に係るロボットシステムにおいて、ロボットは、測定対象としての物体を把持することが可能に構成されていてもよい。この場合、一実施の形態に係るロボットシステムにおいて、制御部は、ロボットの動作制御として、ロボットによる測定対象の把持形態、把持位置および把持姿勢のうち少なくとも1つの制御を行うようにしてもよい。
【0033】
一実施の形態に係るロボットシステムにおいて、ロボットは、少なくとも一部の部位が移動可能に構成されていてもよい。この場合、一実施の形態に係るロボットシステムにおいて、制御部は、ロボットの動作制御として、ロボットの少なくとも一部の部位の移動速度および軌道のうち少なくとも1つの制御を行うようにしてもよい。
【0034】
[1.2 センサ配置の具体例]
以下では、ロボットとしてハンド10を例に構成を説明するが、上述したように一実施の形態に係るロボットシステムの技術は、ハンド10以外のロボットにも適用可能である。
【0035】
図9および
図10は、一実施の形態に係るロボットシステムにおけるセンサ配置の一例を概略的に示す構成図である。
【0036】
理想的には、測距センサ21と触覚センサ22とをロボットの全身に付けることが望ましい。また、理想的には、測距センサ21と触覚センサ22とをほぼ同じ場所に設け、測定対象のほぼ同じ場所を測距センサ21と触覚センサ22とによって測定可能であることが望ましい。しかしながら、現実的には測距センサ21と触覚センサ22とで設ける場所の取り合いになり、また、全身に設けることは難しい。そこで、測距センサ21と触覚センサ22とを、それぞれのセンサ機能を考慮した配置にするようにしてもよい。例えば、測定対象との接触頻度の高い部分に触覚センサ22を設け、測定対象との接触頻度の低い部分に測距センサ21を設けるようにするとよい。ハンド10の場合、物体50は指表面と掌とで把持することが多いため、
図10に示したように、指表面と掌とに触覚センサ22を多く配置するようにするとよい。また、物体50に接触する頻度は低いが物体50との接触を避けたい場合や、物体50との位置合わせが求められる場合等に備えて、指11の裏表に測距センサ21を取り付けるようにするとよい。
【0037】
図11は、一実施の形態に係るロボットシステムにおけるセンサ配置の一例を概略的に示す構成図である。
【0038】
一実施の形態に係るロボットシステムにおけるロボットにおいて、
図11(A)に示すように、触覚センサ22と測距センサ21とが交互に設けられていてもよい。触覚センサ22と測距センサ21とを交互に配置することで、測定対象である物体50の実質的な検出解像度を上げることができる。物体50が接触する可能性が高い場所には触覚センサ22を、接触しない可能性が高い部分には測距センサ21を設けるようにしてもよい。触覚センサ22のみの場合は、物体50と接触していない部分の測定は困難になるので、測距センサ21を使うことで、
図11(B)に示すように、物体検出点の空間分解能を上げることができる。
【0039】
図12ないし
図14は、一実施の形態に係るロボットシステムにおけるセンサ配置の一例を概略的に示す構成図である。
【0040】
一実施の形態に係るロボットシステムにおいて、ロボットが凸部32と凹部31とを有し、凸部32に触覚センサ22が設けられ、凹部31に測距センサ21が設けられていてもよい。これにより、物体50との接触を容易にし、物体接触時でも測距が可能になる。
図12の例では、物体50が接触する可能性が高い指先の表面を凹凸形状としている。これにより、物体把持の際に、物体50は最初に凸部32に接触するため、触覚センサ22によって物体50との接触を確実に検出できる。かつ、測距センサ21による測定も可能となる。測距センサ21は凹部31に設けられているため、物体50が接触することが無い。
【0041】
また、凸部32が複数ある場合、
図13に示したように、部分的に凸部32の高さを変化させてもよい。また、
図14に示したように、凸部32を測定対象との接触により変形する柔軟材料で構成してもよい。凸部32に柔軟材料を用いることで、複雑な形状の物体50との接触がより精度良く検出可能になる。
【0042】
[1.3 物体・環境認識の具体例]
(測定方法)
図15は、一実施の形態に係るロボットシステムによる物体50の測定方法の概要を示す説明図である。
【0043】
ここでは、
図15(A)に示したように、測定対象として事前情報が無い未知の物体50をロボットのハンド10に取り付けられた測距センサ21と触覚センサ22とを用いて認識する場合を例に説明するが、上述したように一実施の形態に係るロボットシステムの技術は、ハンド10以外のロボットにも適用可能である。
【0044】
一実施の形態に係るロボットシステムにおいて、認識部は、まず、物体50との接触前は非接触で測距センサ21による測定点(測距センサ測定点Pr)から得られた距離情報に基づいて、物体50のおおよその形状と位置姿勢とを推測する(
図15(B))。次に、認識部は、触覚センサ22によって物体50との接触を検出した箇所を、接触点(触覚センサ測定点Pt)として記憶しておく(
図15(C))。最終的に、測定点は測距センサ21で検出した測距センサ測定点Prと触覚センサ22で検出した触覚センサ測定点Ptとが混在する状況となる(
図15(D))
【0045】
測距センサ21および触覚センサ22による測定点の情報は、指表面からの距離、ロボットの基準点から見た座標(ロボット座標系)、および世界座標系での座標のいずれであってもよい。触覚センサ22の場合は、例えば、センサ内の接触位置を推測し、ロボットのエンコーダ等の情報から位置を算出できる。
【0046】
(物体形状推定手法1:補間)
図16は、一実施の形態に係るロボットシステムによる物体形状の推定手法の一例を概略的に示す説明図である。
【0047】
一実施の形態に係るロボットシステムにおいて、認識部は、測定対象における測距センサ21による測定点(測距センサ測定点Pr)と触覚センサ22による測定点(触覚センサ測定点Pt)との測定点間の形状を補間により推定するようにしてもよい。
【0048】
認識部は、
図16に示したように、測距センサ測定点Prと触覚センサ測定点Ptとを区別せずに測定点間を補間することで、物体表面y
iの形状を推定するようにしてもよい。補間方法としては例えば、線形補間、スプライン補間、および放射基底関数(RBF)を用いた補間等の方法がある。推定された物体表面y
iは、以下の式で表される。x
iは測定点を示す。θは形状を示す曲線のパラメータ(係数)を示す。例えば、y
i=ax
i
3+bx
i
2+cx
i+dの形式で表される場合、θはa,b,c,dとなる。y
i,x
i,θは2次元または3次元のベクトルとなる。
物体表面y
i=f(x
i,θ)
【0049】
(物体形状推定手法2:重み付き(非線形)最小二乗法)
図17は、一実施の形態に係るロボットシステムにおける測距センサ21の測距誤差の一例を概略的に示す説明図である。
図17において、横軸は基準距離、縦軸は測定距離を示す。
【0050】
一実施の形態に係るロボットシステムにおいて、認識部は、測距センサ測定点Prに対して触覚センサ測定点Ptの重み付けが大きくなるように測定点の重み付けを行った状態で、測定対象の形状推定を行うようにしてもよい。
【0051】
図17に示したように、一般に、測距センサ測定点Prは触覚センサ測定点Ptに比べて誤差が含まれる。触覚センサ測定点Ptは測距センサ測定点Prに比べて精度が高い正確な測定点となる。そこで、測定点によって優先度(重み付け)を設定した形状推定を行うようにしてもよい。精度の高い測定点は優先度を高く(重み付けを大きく)し、精度の低い測定点は優先度を低く(重み付けを小さく)するようにしてもよい。重み付き残差平方和(SSR)は以下の式(1)のように表される。SSRを最小にするパラメータθを求めればよい。パラメータθが求まれば、物体表面y
iの推定値が導出される。
【0052】
【0053】
ここで、重みWiについては、例えば、測距センサ測定点Prの重みをWi_proc、触覚センサ測定点Ptの重みをWi_tacとすると、以下を満たすような値をあらかじめ定義しておく。
Wi_proc<Wi_tac
【0054】
測距センサ測定点Prの重みW
i_
procは、測距センサ21のセンサ特性から決めるようにしてもよい。例えば、
図17に示したように、誤差が大きい測定距離付近では重みW
i_
procを小さくする。例えば以下の式(2)のように、測定距離dに応じた誤差関数E(d)を定義して測距センサ測定点Prの重みW
i_
procを決めるようにしてもよい。aは係数、εは微小な係数を示す。
【0055】
【0056】
(物体形状推定手法3:確率分布)
図18および
図19は、一実施の形態に係るロボットシステムにおける測距センサ測定点Prおよび触覚センサ測定点Ptのセンサノイズ分布の一例を概略的に示す説明図である。
【0057】
一実施の形態に係るロボットシステムにおいて、認識部は、測距センサ測定点Prと触覚センサ測定点Ptとに基づいて算出された測定点の確率分布に基づいて、測定対象の形状推定を行うようにしてもよい。
【0058】
図18および
図19に示したように、測距センサ測定点Prおよび触覚センサ測定点Ptのセンサノイズ分布を確率分布として考える。測距センサ測定点Prのセンサノイズ分布としては、
図19に示したようにガウス分布(f(x)=N(μ,σ))等の誤差が存在すると仮定する。触覚センサ測定点Ptではその誤差が小さいため、想定している確率分布の幅が小さくなる。確率分布を持つことによって、測定誤差などの不確かさを考慮することができる。例えば、誤差があって物体表面位置が正確に分からない箇所については、後述の
図33に示すように、接触スピード(例えばハンド10の動作速度(移動速度))を下げる等の制御上の調整ができる。
【0059】
(物体形状推定手法4:部分観測情報から全体形状を推定(物体事前情報無し))
図20は、一実施の形態に係るロボットシステムによる物体形状の推定手法の一例を概略的に示す説明図である。
【0060】
一実施の形態に係るロボットシステムにおいて、認識部は、測距センサ21および触覚センサ22による測定対象の部分的な観測情報に基づいて、測定対象の全体的な形状推定を行うようにしてもよい。例えば、認識部は、あらかじめ用意された複数のテンプレート物体51の情報と、測距センサ21および触覚センサ22による測定対象の部分的な観測情報とのパターンマッチングを行うことにより、測定対象の全体的な形状推定を行うようにしてもよい。
【0061】
測定対象である物体50の事前情報が無い場合に、物体50の部分観測情報から全体形状を推定するようにしてもよい。
図20に示したように、例えば、部分的に観測できた測定点(測距センサ測定点Prおよび触覚センサ測定点Pt)と、あらかじめ定義していた物体形状ライブラリのテンプレート物体51とのパターンマッチングを取ることにより、全体形状を推定するようにしてもよい。最もマッチングスコアの高い形状を物体50の推測された形状として採用する。パターンマッチングの方法としては、一般的なテンプレートマッチングの手法などを利用できる。
【0062】
(物体形状推定手法5:部分観測情報から全体形状を推定(物体事前情報あり)
)
図21は、一実施の形態に係るロボットシステムによる物体形状の推定手法の一例を概略的に示す説明図である。
【0063】
一実施の形態に係るロボットシステムにおいて、認識部は、測定対象の事前情報と、測距センサ21および触覚センサ22による測定対象の部分的な観測情報とのパターンマッチングを行うことにより、測定対象の全体的な形状および位置姿勢の推定を行うようにしてもよい。
【0064】
例えば
図21に示したように、把持しようとしている物体50の形状や物体名などが事前に分かっている場合には、部分観測情報と事前に分かっている物体情報とのパターンマッチングを取り、観測できていない部分の情報を補間し、測定対象である物体50の形状および位置姿勢を推定できる。パターンマッチングの手法の例として、例えば、深層学習を用いる手法やICT(Iterative Closest Point)などを使用することができる。
【0065】
(物体形状推定手法6:部分観測情報から全体形状を推定(変形例))
)
図22および
図23は、一実施の形態に係るロボットシステムによる物体形状の推定手法の一例を概略的に示す説明図である。
【0066】
一実施の形態に係るロボットシステムにおいて、認識部は、上述の物体形状推定手法4と物体形状推定手法5とを組み合わせた推定を行うようにしてもよい。
図22に示したように、例えば測距センサ21と触覚センサ22とが設けられた指11によって物体把持を行う場合において、測定対象である物体50に凹凸がある場合、測距センサ21または触覚センサ22と物体50とが接触する部分と接触しない部分とが存在する。この場合、測距センサ測定点Prと触覚センサ測定点Ptとの測定点の分布パターンも物体形状を認識する情報となる。
【0067】
そこで、
図23に示したように、測距センサ測定点Prの分布パターンと触覚センサ測定点Ptの分布パターンとをパターンマッチングの際に用いて、測定対象である物体50の形状および位置姿勢を推定するようにしてもよい。この場合、パターンマッチングのライブラリに測定点の分布パターンの情報を追加してもよい。
【0068】
[1.4 能動的なセンシング]
(能動的なセンシング(アクティブセンシング)の例1)
図24および
図25は、一実施の形態に係るロボットシステムによる能動的なセンシングの例1を概略的に示す説明図である。
【0069】
一実施の形態に係るロボットシステムにおいて、ロボットは、測距センサ21または触覚センサ22が設けられている少なくとも一部の部位が移動可能に構成されていてもよい。一実施の形態に係るロボットシステムにおいて、制御部は、測距センサ21または触覚センサ22による測定対象の測定が不十分な箇所に測距センサ測定点Prまたは触覚センサ測定点Ptが位置することとなるように、測距センサ21または触覚センサ22が設けられている少なくとも一部の部位の動作制御を行うようにしてもよい。
【0070】
測距センサ21または触覚センサ22が取り付けられている部位を動かすことができる場合は、測定が不十分な箇所、測定の不確実性が高い場所に測距センサ21または触覚センサ22による測定点が位置することとなるように、その部位を動かして物体50や環境等の測定対象を測定するようにしてもよい。
【0071】
図24(A)の例では、測距センサ測定点Prまたは触覚センサ測定点Ptによって指11の根元付近において物体50の一部分の形状が観測できているが、指11の先端付近では物体50の測定点が少なく、正確に形状が観測できていない可能性がある。この場合、
図24(B)に示したように指11の先端付近を物体50に近付くように移動させることで、指11の先端付近における物体50の形状も観測できるようになる。「測定点が少ない可能性」の判断は、例えば、測定点の間隔や密度、事前情報との比較、RGBデータから予想した形状との比較等によって行うことができる。
【0072】
また、
図25(A)に示したように物体形状の推定に確率分布を利用した場合は、
図25(B)に示したように不確かさが大きい部分を探索するようにハンド10の指11を操作するとよい。そのとき、触覚センサ22による測定の方が不確かさが少ないため、触覚センサ22が物体50に接触するように、指11を制御するとよい。
【0073】
(能動的なセンシング(アクティブセンシング)の例2)
図26は、一実施の形態に係るロボットシステムによる能動的なセンシングの例2を概略的に示す説明図である。
図26(B)および
図26(C)は、
図26(A)におけるX軸方向から見た状態を示す。
【0074】
測距センサ21または触覚センサ22が取り付けられている部位を動かすことができる場合は、その部位を回転させたり、並進移動させることによって、物体50や環境等の測定対象のより広い範囲の情報を取得することができる。例えば
図26(A)に示したように、ハンド10の指11に取り付けられた測距センサ21よって物体50を測定する場合を考える。
図26(B)に示したように、例えば指11がX軸に平行な軸を回転軸として回転可能である場合、測距センサ21が設けられた指11を回転させながら測定を行うことで、
図26(C)に示したように、1つの測距センサ21で連続的に物体50の異なる位置(測距センサ測定点Pr)のデータを取得することが可能となる。これにより、搭載センサが少ない場合であっても、広い範囲において物体表面の検出が可能となる。また、異なる位置に取り付けられた測距センサ21または触覚センサ22から得られた複数のセンサからの複数の測定情報を統合して、物体50や環境等の測定対象の情報を再構成することもできる。
【0075】
(能動的なセンシング(アクティブセンシング)の例3)
図27および
図28は、一実施の形態に係るロボットシステムによる能動的なセンシングの例3を概略的に示す説明図である。
【0076】
一実施の形態に係るロボットシステムにおいて、制御部は、測定対象に接触する前に測定された距離情報に基づいてロボットの動作制御を行った後、測定対象に接触した後に測定された触覚情報に基づいてロボットの動作制御の修正を行うようにしてもよい。一実施の形態に係るロボットシステムにおいて、ロボットは、測定対象としての物体を把持することが可能に構成されていてもよい。この場合、制御部は、認識部によって認識された測定対象の情報に基づいて、複数の把持点候補点Paの中から、把持安定性を考慮した把持点を決定し、決定された把持点において測定対象としての物体を把持することとなるように、ロボットの動作制御を行うようにしてもよい。
【0077】
例えば物体把持の場合、把持点の位置とその位置の表面方向、剛性、および摩擦係数が把持安定性に大きく影響するので、把持点を把持安定性を考慮して決定することが求められる。把持点候補点Paが多数ある場合、測距センサ21、および触覚センサ22を使って最終的な把持点を絞り込むことができる。例えば、以下のような手順で絞り込みを行うことができる。
【0078】
(絞り込み手順1)まず、測距センサ21でおおよその形状を推定する(
図27(A))。これまでに説明したどの推定手法を用いてもよい。
【0079】
(絞り込み手順2)次に、把持安定性を考慮して把持点候補点Paの絞り込みを行う(
図27(B))。
【0080】
図29は、一実施の形態に係るロボットシステムによる把持安定性を考慮した把持点候補点Paの絞り込みの第1の方法を概略的に示す説明図である。
図30は、一実施の形態に係るロボットシステムによる把持安定性を考慮した把持点候補点Paの絞り込みの第2の方法を概略的に示す説明図である。
【0081】
把持安定性の推測手法として、フォースクロージャ(force closure)となる状態であれば把持安定性があるとみなす方法がある。把持点候補点Paの絞り込みの第1の方法として、
図29(A)および
図29(B)に示したように、接触点Pbを結ぶ直線、もしくは接触点Pbから法線方向に伸ばした直線の交点が摩擦円錐に囲まれた領域52に存在するように絞り込みを行う方法がある。また、把持点候補点Paの絞り込みの第2の方法として、
図30に示したように、過去の把持した際の把持点のデータと照合し、マッチング度が高いデータの把持位置を把持点候補点Paとして採用する方法がある。
【0082】
(絞り込み手順3)次に、絞り込んだ把持点候補点Paに触覚センサ22で接触し、正確な位置と、その点の剛性、および滑りやすさ(摩擦係数)を測定する(
図28(A))。剛性は接触時の反力と変型の大きさから推測できる。摩擦係数は接触後せん断方向に力を加えたときに、滑り始めたときのせん断力と法線方向の力との比で求められる。
【0083】
(絞り込み手順4)次に、把持点候補点Paから、最終的な把持点を決定する(
図28(B))。
【0084】
(能動的なセンシング(アクティブセンシング)の例4)
図31および
図32は、一実施の形態に係るロボットシステムによる能動的なセンシングの例4を概略的に示す説明図である。
【0085】
図31(A)には、脚式ロボット40の脚41で物体50としてのボールを蹴る動作を例に示す。
図31(B)~(D)では、脚式ロボット40の脚41の付近を上側から見た状態を模式的に示す。
【0086】
能動的なセンシングは、把持以外の動作にも適用することが可能である。例えば、脚式ロボット40の脚41で物体50としてのボールを蹴る動作(
図31(A))や、人型ロボット1のハンド10によって物体50を押す動作(
図32)等にも適用可能である。例えば、測距センサ21で接触点と力の方向を絞り込み(
図31(B))、触覚センサ22で接触点と力の方向とを決定することができる(
図31(C),(D))。もし測距センサ21の誤差で接触面の向きが想定と異なっており、接触時に判明したら、接触時の情報を採用して力の方向を調整することもできる。
【0087】
その他、以上で説明した能動的なセンシングの例1~4と同様のセンシングを、測距センサ21および触覚センサ22が設けられた人型ロボット1のアーム3や台車4(
図5、
図6)の動作にも適用することが可能である。また、測距センサ21および触覚センサ22が設けられたドローン60(
図8)の動作にも適用することが可能である。
【0088】
[1.5 物体・環境認識を利用した動作生成]
(不確かさ情報を用いた軌道計画)
図33は、一実施の形態に係るロボットシステムにおいてハンド10を移動させて測定対象である物体50に接近する動作の例を示す説明図である。
【0089】
物体50や環境等の測定対象に接近する際に、最初は測距センサ測定点Prに基づいて測定対象までの距離や形状を推定する(
図33(A)、
図33(B))。しかし、測距センサ21による測定には誤差が含まれているため、場合によっては測定対象に衝突してしまう(
図33(C))。従って、不確かさに応じてハンド10の動作速度(移動速度)や軌道を調整するようにしてもよい。例えば、不確かさがある場合は、移動速度を下げ、測定距離よりもマージンを持った軌道で接近するようにしてもよい。
【0090】
図34は、一実施の形態に係るロボットシステムにおける、不確かさ情報を含む物体環境認識結果を用いた、把持形態の決定手法の一例を示す説明図である。
【0091】
物体把持の場合、指11の自由度構成、指11の本数に依存して様々なアプローチ(接近動作)や把持形態が考えられる。それらは、物体50の形状や質量摩擦係数に応じて適切に決定するとよい。ここでは、測距センサ21を利用した適切な把持形態を推定した後、触覚センサ22を利用した把持形態の微修正、および把持形態の変更の手法を提案する。
【0092】
まず、物体50や環境等の測定対象の情報を測距センサ21により測定する(手順1)。測定の手法は前述のどの手法を用いてもよい。得られた測定対象の情報には不確実性が含まれている。
【0093】
次に、あらかじめ定義していた把持形態から候補となるものを絞り込む(手順2)。絞り込み方法としては、例えば、ルールベースと学習ベース(データドリブン)とがある。ルールベースでは、物体50の形状に関するパラメータを定義しそれぞれに閾値を設け、把持形態を絞り込む。学習ベースでは、不確実性を含む物体50の形状情報を入力とし(推定形状だけではなく、分散等の情報も可)、出力を把持形態とするモデル(NN(Neural Network)でもよい)を学習させる。学習ベースでは、評価値が出力される。
【0094】
次に、触覚センサ22によって検出した精度のよい物体表面情報を利用して、把持形態の微修正、変更を行う(手順3)。触覚センサ22の情報による物体形状更新で他の把持形態の方が適切であれば、把持形態を変更するアクションを起こす。同じ把持形態でも安定把持のために位置や姿勢を修正した方がよければ修正する。把持安定性の指標は上述したフォースクロージャの考え方(
図29)を使うようにしてもよい。
【0095】
(手順2(ルールベース)の具体例)
図35は、
図34に示した手順2(ルールベース)の具体例を示す説明図である。
【0096】
図35の例では、指先端が衝突するかしないか、接触面積が広いか狭いかに応じて、把持形態として、Enveloping Grasp(包み込み把持)、Parallel Pinch、Medium Wrapのいずれかが決定される。
【0097】
(手順2(学習ベース)の具体例)
図36は、
図34に示した手順2の具体例(学習ベース)を示す説明図である。
【0098】
学習ベースの把持形態決定法を使用するメリットとして、より最適な把持形態を新たに作り出すことができる。ルールベースではどの把持形態を採用するか一意に決まる、離散的な分類問題となる。学習ベースでは、各把持形態の評価値が計算される。評価値が最大のものを選択すれば離散的な分類問題となる。評価値に合わせて異なる把持形態の中間形態を生成することができる。
図36の例では、把持形態Aと把持形態Cとを組み合わせることで、物体50に合わせた、新しい中間形態の把持形態を生成している。
図36の例では、把持形態Aを60%の割合、把持形態Cを30%の割合とする新しい中間形態の把持形態を生成している。
【0099】
(学習ベースとルールベースの使い分け)
例えば、以下の場合にルールベースを使用するようにしてもよい。
・物体認識結果から、あらかじめ人間が定義しているPrimitive形状(直方体、球、円柱、円錐等)などに分類できる場合
・ユーザー側から、把持方法に関する要求があり(特定の形状の物体50は接触面積が小さくなるようにつまむように掴んで欲しい等)、確実に指定された把持形態を選択したい場合
【0100】
また、例えば、以下の場合に学習ベースを使用するようにしてもよい。
・複雑な形状で、把持形態を決めるためのルールの作成が困難な場合
・スペースの都合上、センサが密に取り付けられなかった場合や、オクルージョンなどが発生しやすい環境など、欠損情報の補間を行うことが求められる場合
【0101】
その他の使い分けルールとして、例えば、ルールベースで把持形態を決定できなかった(あらかじめ設定したルールに適合しなかった)物体50を、学習ベースで処理するようにしてもよい。また、ルールベースで決めた把持形態と学習ベースで決めた把持形態の一致を取るようにし、異なる場合は人間に判断を任せるようにしてもよい。
【0102】
(手順3の具体例)
図37は、
図34に示した手順3の具体例を示す説明図である。
【0103】
最初に決めた把持形態(
図37(A))に比べて、他の把持形態の方が適切であれば、把持形態を変更するアクションを起こすようにしてもよい(
図37(B))。一実施の形態に係るロボットシステムでは、物体50や環境等の測定対象の認識情報を利用して、素早く把持形態を変更することができる。なお、触覚センサ測定点Pt付近は物体50に沿った軌道を取ってもよい。測距センサ測定点Pr付近は誤差の影響が大きいので、余裕を持って指11の軌道を制御するようにしてもよい(
図37(C))。
【0104】
(把持形態の決定手法の変形例)
図38は、一実施の形態に係るロボットシステムにおける、不確かさ情報を含む物体環境認識結果を用いた、把持形態の決定手法の変形例を示す説明図である。
【0105】
複数の指11を有するハンド10では、スペースの都合で、測距センサ21と触覚センサ22とを同じ指11に搭載することが難しい場合が多い。例えば、複数の指11として第1指11Aと第2指11Bとがある場合、第1指11Aには測距センサ21のみ、第2指11Bには触覚センサ22のみ、というように搭載するセンサの種類を各指ごとに分けるようにしてもよい。
【0106】
この場合、まず、測距センサ21が搭載された第1指11Aと物体50とを先に位置合わせして、測距センサ21による測定を行う(手順1A)。次に、触覚センサ22が搭載された第2指11Bと物体50とを接触させて触覚センサ22による測定を行う(手順1B)。その後、
図34の手順2以降の手順を実行するようにしてもよい。
【0107】
[1.6 測距センサ、触覚センサ以外のセンサの利用]
一実施の形態に係るロボットシステムにおいて、測距センサ21、および触覚センサ22の他に、さらに別の種類のセンサを利用するようにしてもよい。
【0108】
例えば、人型ロボット1において、頭部や周囲の環境に取り付けられたRGB(-D)センサやLiDAR等を利用するようにしてもよい。RGB(-D)センサやLiDAR等により、物体認識や形状認識を行い、物体50や環境等の測定対象の事前情報を取得できる。また、物体認識結果から、標準的な物体50の形状や大きさを仮定し、物体50の予測形状としてもよい。また、生成した予測形状と、指先の測距センサ21および触覚センサ22で生成した予測形状とを統合するようにしてもよい。
【0109】
また、物体50や環境等の測定対象との接触箇所、またはその付近に取り付けられた振動センサ、マイク、および加速度センサ等のうち少なくとも1つのセンサを利用するようにしてもよい。これらのセンサを触覚センサ22の代わり、もしくは触覚センサ22の補助として使用するようにしてもよい。これらのセンサにより、測定対象との接触で発生する振動を検出することができるため、接触タイミングを精度良く検出することが可能となる。また、触覚センサ22が取り付いていない箇所に接触が発生しても検出することができる。
【0110】
(測距センサ21、および触覚センサ22以外のセンサの利用例)
図39に、一実施の形態に係るロボットシステムにおいて測距センサ21、および触覚センサ22以外のセンサとして、音センサ(マイク)23が設けられた例を概略的に示す。
【0111】
・音、振動
例えば
図39に示したように、測定対象である物体50とハンド10の指11とが接触した際に発生する音や振動をセンシングすることで、測定対象との接触タイミングを正確に把握することが可能となる。音や振動は指のリンクを伝わるため、触覚センサ22や測距センサ21が無い場所に接触しても接触を検出することができる。マイク23や加速度センサ、または力センサなどが使用できる。
【0112】
・温度
例えば、温度センサで物体50や環境等の測定対象との接触を検出することもできる。測定対象が直接接触する部分に温度センサを取り付けた方が感度がよくなる。接触点から離れた点に温度センサを配置してもよいが、例えばハンド10の指11に適用した場合、ハンド10のリンクを伝わる熱の移動を検出することになり、感度と応答性が落ちる。
【0113】
・トルクセンサ、力センサ
例えばハンド10の指11に適用する場合、指関節に取り付けたトルクセンサや手首に取り付けた力センサにより、物体50や環境等の測定対象との接触を検出できる。この場合、接触は、接触時の急激なトルクの変化、力の変化を力の大きさ、速度、または加速度に関する閾値から求めることができる。また、各軸のエンコーダから導出した指先の位置と力との関係から、測定対象との接触を推定することもできる。微小な力を検出することができるため、接触検出の感度を向上させる効果がある。また、センサが無いエリアに測定対象が接触しても、精度良く測定対象との接触を検出することができる。
【0114】
・物体認識
RGBカメラ等の撮像素子によって物体50や環境等の測定対象を撮影し、物体認識により測定対象の正体を事前に推定することができる。例えばその情報を利用して形状情報を補間(代表的な形状を記憶して、認識結果とパターンマッチングをする等)することができる。また、例えばハンド10の指11に適用する場合、把持形態を認識結果に合わせて事前に決定し、測距センサ21または触覚センサ22のセンサ値から把持形態を微修正することができる。
【0115】
[1.7 制御ブロック(ロボット制御装置)の構成例]
(制御ブロックの構成例1)
図40は、一実施の形態に係るロボットシステムの制御ブロック(ロボット制御装置)の第1の構成例を概略的に示すブロック図である。
【0116】
一実施の形態に係るロボットシステムにおける各制御ブロックの少なくとも一部のブロックは、例えば1または複数のCPU(Central Processing Unit)と、1または複数のROM(Read Only Memory)と、1または複数のRAM(Random Access Memory)とを備えたコンピュータで構成されてもよい。この場合、各制御ブロックの処理は、1または複数のROMまたはRAMに記憶されたプログラムに基づく処理を1または複数のCPUが実行することで実現し得る。また、各制御ブロックの処理は、例えば有線または無線によるネットワークにより外部から供給されたプログラムに基づく処理を1または複数のCPUが実行することで実現してもよい。
【0117】
一実施の形態に係るロボットシステムは、制御ブロックとして、物体・環境認識部110と、動作制御部120とを備える。
【0118】
物体・環境認識部110は、物体・環境測定部100と、距離情報処理部101と、接触情報処理部102と、環境・物体形状/姿勢推定部103とを有する。
【0119】
動作制御部120は、動作形態決定部200と、軌道演算部201と、運動制御部202と、アクチュエータ部203とを有する。
【0120】
物体・環境測定部100は、測距センサ21、および触覚センサ22を含む各種センサと、各種センサからのセンサ信号を処理するセンサ信号取得処理部とを含む。物体・環境測定部100は、各種センサからのセンサ信号を処理し、RGB画像、Depth画像、距離、Point Cloud、Eventデータ、力、圧力、振動、加速度、滑り量、接触位置、および接触面積等のデータを出力する。
【0121】
距離情報処理部101は、測距センサ21からのセンサ信号の信号処理を行う。距離情報処理部101は、測距センサ21の取り付け位置やロボットの位置姿勢情報から、物体50や環境等の測定対象の3D位置を推定することもできる。基準座標系はロボット座標系でも世界座標系でもよい。距離情報処理部101は、Depth画像、距離、および測定点位置等のデータを出力する。
【0122】
接触情報処理部102は、触覚センサ22からのセンサ信号の信号処理を行う。接触情報処理部102は、物体50や環境等の測定対象に対する接触位置を、触覚センサ22の取り付け位置やロボットの位置姿勢情報を利用して求める。基準座標系はロボット座標系でも世界座標系でもよい。接触情報処理部102は、接触フラグ、滑り量、接触位置、および接触面積等のデータを出力する。
【0123】
環境・物体形状/姿勢推定部103は、距離情報、および接触情報を組み合わせて、物体50や環境等の測定対象の情報(形状、および位置姿勢等)のデータを出力する。環境・物体形状/姿勢推定部103は、あらかじめ記憶した物体50や環境等の測定対象の形状とマッチングを取る場合は、その形状のデータの記憶も行う。
【0124】
動作形態決定部200は、動作形態を算出して動作形態のデータを出力する。動作形態決定部200は、物体把持の場合は、動作形態として把持形態(握りこみ把持、指先把持等)を算出する。動作形態決定部200は、物体50や環境等の測定対象を押す動作の場合は、押す位置、力の方向等を算出する。動作形態決定部200は、もしあらかじめ定義した動作状態がある場合は、その記憶部も備える。
【0125】
軌道演算部201は、環境・物体形状/姿勢推定部103および動作形態決定部200からの出力データに基づいて、ロボットのエンドエフェクタや関節の軌道を算出する。
【0126】
運動制御部202は、アクチュエータの制御指令値を生成する。アクチュエータの制御指令値としては、例えば関節角の位置、速度、加速度、および力の指令値を含む。
【0127】
アクチュエータ部203は、運動制御部202からの制御指令値に基づいて、ロボットを動作させる。アクチュエータ部203は、ロボットを動作させる可動部やその制御処理ブロックを含む。
【0128】
(制御ブロックの構成例2)
図41は、一実施の形態に係るロボットシステムの制御ブロック(ロボット制御装置)の第2の構成例を概略的に示すブロック図である。
【0129】
物体・環境認識部110は、追加測定箇所特定部104と、環境・物体情報記憶部105とをさらに有していてもよい。
【0130】
動作制御部120は、動作形態決定部200に代えて、動作形態決定部300と、動作形態記憶部301と、位置姿勢修正部302とを有していてもよい。
【0131】
追加測定箇所特定部104は、環境・物体形状/姿勢推定部103で推定した結果、不確かさが大きい部分は再度測定したいので、その箇所を特定する。追加測定箇所特定部104は、世界座標系、ロボット座標系などで示された物体50や環境等の測定対象の2Dまたは3Dの位置姿勢情報のデータを出力する。追加測定箇所特定部104は、測定のために関節を動作させたい場合は関節移動量を算出する。
【0132】
動作形態決定部300は、動作形態を算出して動作形態のデータを出力する。動作形態決定部300は、物体把持の場合は、動作形態として把持形態(握りこみ把持、指先把持等)を算出する。また、動作形態決定部300は、把持安定性を考慮した接触点の位置を決定する。
【0133】
動作形態記憶部301は、把持形態等の情報を記憶する。
【0134】
位置姿勢修正部302は、ロボットの位置姿勢の修正量、および修正後の位置姿勢の情報等のデータを出力する。
【0135】
軌道演算部201は、追加測定箇所特定部104、位置姿勢修正部302、環境・物体形状/姿勢推定部103および動作形態決定部200からの出力データに基づいて、ロボットのエンドエフェクタや関節の軌道を算出する。
【0136】
[1.8 制御動作例]
(制御動作の第1の例)
図42は、一実施の形態に係るロボットシステムの制御動作の第1の例を示すフローチャートである。
【0137】
図42には、一度決めたロボットの軌道を修正しない場合の動作例を示す。ロボットシステムの認識部は、まず、測距センサ21によって物体50や環境等の測定対象の測定を行う(ステップS101)。次に、ロボットシステムの認識部は、測距センサ21によって測定された測定対象の距離情報の処理を行う(ステップS102)。次に、ロボットシステムの認識部は、物体50や環境等の測定対象の形状、および位置姿勢の推定を行う(ステップS103)。次に、ロボットシステムの制御部は、ロボットの動作形態の決定を行う(ステップS104)。次に、ロボットシステムの制御部は、ロボットの軌道を算出する(ステップS105)。次に、ロボットシステムの制御部は、アクチュエータ指令を算出する(ステップS106)。
【0138】
次に、ロボットシステムの認識部は、触覚センサ22からのセンサ信号に基づいて、ロボットが測定対象に接触したか否かを判断する(ステップS107)。ロボットシステムの認識部がロボットが測定対象に接触していないと判断した場合(ステップS107;N)、ロボットシステムは、ステップS106の処理に戻る。
【0139】
ロボットが測定対象に接触したと判断した場合(ステップS107;Y)、ロボットシステムの認識部は、次に、触覚センサ22によって測定された測定対象の接触情報の処理を行う(ステップS108)。次に、ロボットシステムの認識部は、物体50や環境等の測定対象の形状、および位置姿勢の推定を行う(ステップS109)。次に、ロボットシステムの制御部は、ロボットの動作形態の決定を行う(ステップS110)。次に、ロボットシステムの制御部は、ロボットの軌道を算出する(ステップS111)。次に、ロボットシステムの制御部は、アクチュエータ指令を算出する(ステップS112)。次に、ロボットシステムの制御部は、動作完了したか否かを判断する(ステップS113)。動作完了したと判断した場合(ステップS113;Y)、ロボットシステムの制御部は、処理を終了する。動作完了していないと判断した場合(ステップS113;N)、ロボットシステムの制御部は、ステップS112の処理に戻る。
【0140】
(制御動作の第2の例)
図43は、一実施の形態に係るロボットシステムの制御動作の第2の例を示すフローチャートである。
【0141】
図43には、距離情報と接触情報とを制御周期毎に更新し続け、動作形態を制御周期毎にその都度算出(修正)する場合の動作例を示す。ロボットシステムの認識部は、まず、測距センサ21または触覚センサ22によって物体50や環境等の測定対象の測定を行う(ステップS201)。次に、ロボットシステムの認識部は、触覚センサ22からのセンサ信号に基づいて、ロボットが測定対象に接触したか否かを判断する(ステップS202)。
【0142】
ロボットが測定対象に接触したと判断した場合(ステップS202;N)、ロボットシステムの認識部は、次に、触覚センサ22によって測定された測定対象の接触情報の処理を行い(ステップS204)、次に、ステップS206の処理に進む。ロボットが測定対象に接触していないと判断した場合(ステップS202;Y)、次に、ロボットシステムの認識部は、測距センサ21によって測定された測定対象の距離情報の処理を行い(ステップS203)、次に、ステップS205の処理に進む。
【0143】
ステップS205の処理では、ロボットシステムの認識部が、物体50や環境等の測定対象の形状、および位置姿勢の推定を行い、次に、ステップS206の処理に進む。ステップS206の処理では、ロボットシステムの制御部が、ロボットの動作形態の決定を行い、次に、ステップS207の処理に進む。
【0144】
次に、ロボットシステムの制御部は、ロボットの軌道を算出する(ステップS207)。次に、ロボットシステムの制御部は、アクチュエータ指令を算出する(ステップS208)。次に、ロボットシステムの制御部は、動作完了したか否かを判断する(ステップS209)。動作完了したと判断した場合(ステップS209;Y)、ロボットシステムの制御部は、処理を終了する。動作完了していないと判断した場合(ステップS209;N)、ロボットシステムの制御部は、ステップS201の処理に戻る。
【0145】
(制御動作の第3の例)
図44は、一実施の形態に係るロボットシステムの制御動作の第3の例を示すフローチャートである。
【0146】
図44の制御動作は、
図38に示した把持形態の決定手法に対応する制御動作である。
図38に示した把持形態の決定手法では、ロボットが複数の指11として第1指11Aと第2指11Bとを有するハンド10であり、第1指11Aには測距センサ21のみ、第2指11Bには触覚センサ22のみ設けられている。
【0147】
ロボットシステムの認識部は、まず、測距センサ21または触覚センサ22によって物体50や環境等の測定対象の測定を行う(ステップS301)。ロボットシステムの認識部は、第1指11Aに設けられた測距センサ21によって測定された測定対象の距離情報の処理(ステップS302)と、第2指11Bに設けられた触覚センサ22によって測定された測定対象の接触情報の処理(ステップS303)とを並列的に行う。
【0148】
次に、ロボットシステムの認識部は、物体50や環境等の測定対象の形状、および位置姿勢の推定を行う(ステップS304)。次に、ロボットシステムの制御部は、ロボットの動作形態の決定を行う(ステップS305)。次に、ロボットシステムの制御部は、ロボットの軌道を算出する(ステップS306)。次に、ロボットシステムの制御部は、アクチュエータ指令を算出する(ステップS307)。次に、ロボットシステムの制御部は、動作完了したか否かを判断する(ステップS308)。動作完了したと判断した場合(ステップS308;Y)、ロボットシステムの制御部は、処理を終了する。動作完了していないと判断した場合(ステップS308;N)、ロボットシステムの制御部は、ステップS301の処理に戻る。
【0149】
[1.9 効果]
以上説明したように、一実施の形態に係るロボットシステムによれば、ロボットに設けられた測距センサ21によって測定された測定対象の距離情報と、ロボットに設けられた触覚センサ22によって測定された測定対象の触覚情報とに基づいて測定対象の認識を行い、認識された測定対象の情報に基づいて、ロボットの動作制御を行う。これにより、物体50や環境の認識精度を向上させ、状況に応じてロボットによる柔軟で安定的な動作を行うことが可能となる。
【0150】
一実施の形態に係るロボットシステムによれば、測距センサ21および触覚センサ22を両方使い、不確かさが生じても、物体50や環境等の測定対象の形状および位置姿勢の情報が推定できる。これにより、環境における認識のロバスト性が向上する。
【0151】
また、一実施の形態に係るロボットシステムによれば、測距センサ21および触覚センサ22を段階的に使用することで、不確かさを考慮しつつ、徐々に認識精度を上げることができる。認識精度とセンシングに求められる時間や処理負荷はトレードオフの関係にあるため、要求される精度によって使用するセンサを使い分けることができる。それによって精度が悪くても早く動作させる場合と、時間がかかっても良いから精度を上げる場合とで、切り替えが容易になる。
【0152】
また、一実施の形態に係るロボットシステムによれば、異なる性質のセンサを段階的に使用する手法により、センサ手法に大きく依存しないため、測距センサ21や触覚センサ22以外のセンサの導入が容易になる。また、一実施の形態に係るロボットシステムによれば、測定対象の認識時に、センサのノイズレベルや信頼性に応じて重みを設定できるので、精度や性質の異なるセンサを混合して使用することができる。
【0153】
また、一実施の形態に係るロボットシステムによれば、ロボットの自由度を利用するため、少ないセンサで広範囲の情報を取得することができる。また、一実施の形態に係るロボットシステムによれば、基本形状や動作バリエーションを事前に定義することができるので、運動制約の異なるロボットでも、すぐに適応することができる。
【0154】
また、一実施の形態に係るロボットシステムによれば、測距センサ21および触覚センサ22の両方の情報を考慮するため、測距センサ21と触覚センサ22とが同じ場所に取り付けられていなくてもよい。これによってロボットの小型化やスペースの有効利用が可能になる。
【0155】
また、一実施の形態に係るロボットシステムによれば、測距センサ21および触覚センサ22を両方使い、不確かさが生じても安定的に環境や物体50とのインタラクションが取れる(物体把持、環境の一部を押す等)。また、一実施の形態に係るロボットシステムによれば、測距センサ21および触覚センサ22を両方使い、不確かさに応じた環境や物体50とのインタラクションが取れるため、ロボットの安定動作や、人間が存在する環境化での安全な動作が可能になる。
【0156】
(先行技術文献との比較)
特許文献1(国際公開第2021/033509号)には、非接触センサ(RGB(-D),ToF,GPS等)から得られた環境情報と、ロボットが環境接触時に接触センサから得られた情報とを元に、ロボットの位置姿勢を推測する技術が記載されている。特許文献1に記載の技術では、世界座標に対する物体50の位置姿勢は既知の前提であり、また、推測できるのはロボットの位置姿勢だけである。物体50の位置姿勢は求められず、また形状などの細かな特徴は推定が困難である。これに対し、一実施の形態に係るロボットシステムは、ロボットの位置姿勢ではなく、物体50の位置姿勢や形状を推定できる技術である。また、一実施の形態に係るロボットシステムでは、物体50のより細かな形状の特徴も検出でき、より正確な物体50の情報を得ることができる。また生成された物体情報とセンサ情報を組み合わせることで、適切な把持形態、把持位置を導出することができる。
【0157】
特許文献2(特開平11-28692号公報)には、ハンドに取り付けた接触バーによって物体50と指との間の距離や接触を検出し、物体50の形状を推定する技術が記載されている。特許文献2に記載の技術では、接触バーが物体50に直接接触することを前提としているため、物体50を破損する可能性がある。また、物体表面をなぞるような測定が困難であったり、把持途中にハンドの位置姿勢を調整する等が困難である。これに対し、一実施の形態に係るロボットシステムでは、測距センサ21と触覚センサ22とを両方使用することで、非接触でも接触でも物体50の形状把握が可能となる。従って物体表面を非接触で探索したり、物体50に接触し表面をなぞるような形状把握も可能となる。また把持形態の切り替えも非接触で可能になる。
【0158】
特許文献3(国際公開第2022/030242号)には、ロボットハンドの表面に取り付けられた測距センサにより測定された距離から、対象物とハンドの相対位置の調整と、対象物の周辺にある障害物とハンドとの相対位置を調整しながら障害物に衝突することなく物体把持を行う技術が記載されている。特許文献3に記載の技術では、測距誤差や測距レンジの制約から、正確な物体50の位置姿勢や形状が得られない場合が多い。例えば接触時には測距レンジ外となり測距センサでは検出することが困難であり、物体50と接触しているのにも関わらず、物体50が無いと誤判断してしまう。これに対し、一実施の形態に係るロボットシステムでは、測距センサ21と触覚センサ22とを使用することにより、接触前後の両方のフェーズで情報が得られる。接触の情報も考慮できるためより正確な物体情報が得られる。従ってより安定した把持動作が実現できる。
【0159】
測距センサ21だけではなく、測距センサ21と触覚センサ22とを併用するメリットは下記の通りである。
・物体検出精度が良くなる。
異なる物理量を測定するセンサを使うことで、測定誤差を補正し合うことができる。一般的に触覚センサ22よりも測距センサ21の誤差の方が大きい。
・接触後も物体認識が可能となる。
測距センサ21は接触後の物体認識が難しい。従って接触前の情報を記憶しておくことが求められる。しかし、接触しながら物体50がずれる場合には対応が困難になる。
・物体検出の時間およびメモリ効率が向上する。
測距による物体検出結果を利用して、さらに詳細に物体認識を行うべき場所を絞ることができる。これにより、2段階で物体検出精度を上げられ、効率が良くなり、メモリ使用を抑制できる。
【0160】
なお、本明細書に記載された効果はあくまでも例示であって限定されるものではなく、また他の効果があってもよい。以降の他の実施の形態の効果についても同様である。
【0161】
<2.その他の実施の形態>
本開示による技術は、上記一実施の形態の説明に限定されず種々の変形実施が可能である。
【0162】
例えば、本技術は以下のような構成を取ることもできる。
以下の構成の本技術によれば、ロボットに設けられた測距センサによって測定された測定対象の距離情報と、ロボットに設けられた触覚センサによって測定された測定対象の触覚情報とに基づいて測定対象の認識を行い、認識された測定対象の情報に基づいて、ロボットの動作制御を行う。これにより、物体や環境の認識精度を向上させ、状況に応じてロボットによる柔軟で安定的な動作を行うことが可能となる。
【0163】
(1)
ロボットに設けられた測距センサによって測定された測定対象の距離情報と、前記ロボットに設けられた触覚センサによって測定された前記測定対象の触覚情報とに基づいて前記測定対象の認識を行う認識部と、
前記認識部によって認識された前記測定対象の情報に基づいて、前記ロボットの動作制御を行う制御部と
を備える
ロボット制御装置。
(2)
前記認識部は、前記測定対象の形状および位置姿勢の認識を行う
上記(1)に記載のロボット制御装置。
(3)
前記制御部は、前記ロボットの動作制御として、前記ロボットの動作形態、および前記ロボットの位置姿勢のうち少なくとも1つの制御を行う
上記(1)または(2)に記載のロボット制御装置。
(4)
前記ロボットは、前記測定対象としての物体を把持することが可能に構成され、
前記制御部は、前記ロボットの動作制御として、前記ロボットによる前記測定対象の把持形態、把持位置および把持姿勢のうち少なくとも1つの制御を行う
上記(1)ないし(3)のいずれか1つに記載のロボット制御装置。
(5)
前記ロボットは、少なくとも一部の部位が移動可能に構成され、
前記制御部は、前記ロボットの動作制御として、前記ロボットの少なくとも一部の部位の移動速度および軌道のうち少なくとも1つの制御を行う
上記(1)ないし(4)のいずれか1つに記載のロボット制御装置。
(6)
前記制御部は、前記測定対象に接触する前に測定された前記距離情報に基づいて前記ロボットの動作制御を行った後、前記測定対象に接触した後に測定された前記触覚情報に基づいて前記ロボットの動作制御の修正を行う
上記(1)ないし(5)のいずれか1つに記載のロボット制御装置。
(7)
前記ロボットは、前記測距センサまたは前記触覚センサが設けられている少なくとも一部の部位が移動可能に構成され、
前記制御部は、前記測距センサまたは前記触覚センサによる前記測定対象の測定が不十分な箇所に前記測距センサの測定点または前記触覚センサの測定点が位置することとなるように、前記測距センサまたは前記触覚センサが設けられている少なくとも一部の部位の動作制御を行う
上記(1)ないし(6)のいずれか1つに記載のロボット制御装置。
(8)
前記ロボットは、前記測定対象としての物体を把持することが可能に構成され、
前記制御部は、前記認識部によって認識された前記測定対象の情報に基づいて、複数の把持点候補点の中から、把持安定性を考慮した把持点を決定し、決定された前記把持点において前記測定対象としての物体を把持することとなるように、前記ロボットの動作制御を行う
上記(1)ないし(7)のいずれか1つに記載のロボット制御装置。
(9)
前記ロボットにおいて、前記測定対象との接触頻度の高い部分に前記触覚センサが設けられ、前記測定対象との接触頻度の低い部分に前記測距センサが設けられている
上記(1)ないし(8)のいずれか1つに記載のロボット制御装置。
(10)
前記ロボットにおいて、前記触覚センサと前記測距センサとが交互に設けられている
上記(1)ないし(9)のいずれか1つに記載のロボット制御装置。
(11)
前記ロボットは凸部と凹部とを有し、前記凸部に前記触覚センサが設けられ、前記凹部に前記測距センサが設けられている
上記(1)ないし(10)のいずれか1つに記載のロボット制御装置。
(12)
前記凸部は前記測定対象との接触により変形する柔軟材料で構成されている
上記(11)に記載のロボット制御装置。
(13)
前記認識部は、前記測定対象における前記測距センサによる測定点と前記触覚センサによる測定点との測定点間の形状を補間により推定する
上記(1)ないし(12)のいずれか1つに記載のロボット制御装置。
(14)
前記認識部は、前記測距センサによる測定点に対して前記触覚センサによる測定点の重み付けが大きくなるように測定点の重み付けを行った状態で、前記測定対象の形状推定を行う
上記(1)ないし(13)のいずれか1つに記載のロボット制御装置。
(15)
前記認識部は、前記測距センサによる測定点と前記触覚センサによる測定点とに基づいて算出された測定点の確率分布に基づいて、前記測定対象の形状推定を行う
上記(1)ないし(14)のいずれか1つに記載のロボット制御装置。
(16)
前記認識部は、前記測距センサおよび前記触覚センサによる前記測定対象の部分的な観測情報に基づいて、前記測定対象の全体的な形状推定を行う
上記(1)ないし(15)のいずれか1つに記載のロボット制御装置。
(17)
前記認識部は、あらかじめ用意された複数のテンプレート物体の情報と、前記測距センサおよび前記触覚センサによる前記測定対象の部分的な観測情報とのパターンマッチングを行うことにより、前記測定対象の全体的な形状推定を行う
上記(1)ないし(16)のいずれか1つに記載のロボット制御装置。
(18)
前記認識部は、前記測定対象の事前情報と、前記測距センサおよび前記触覚センサによる前記測定対象の部分的な観測情報とのパターンマッチングを行うことにより、前記測定対象の全体的な形状および位置姿勢の推定を行う
上記(1)ないし(16)のいずれか1つに記載のロボット制御装置。
(19)
ロボットに設けられた測距センサによって測定された測定対象の距離情報と、前記ロボットに設けられた触覚センサによって測定された前記測定対象の触覚情報とに基づいて前記測定対象の認識を行うことと、
認識された前記測定対象の情報に基づいて、前記ロボットの動作制御を行うことと
を含む
ロボット制御方法。
(20)
測距センサと触覚センサとが設けられたロボットと、
前記ロボットの制御を行うロボット制御装置と
を含み、
前記ロボット制御装置は、
前記ロボットに設けられた前記測距センサによって測定された測定対象の距離情報と、前記ロボットに設けられた前記触覚センサによって測定された前記測定対象の触覚情報とに基づいて前記測定対象の認識を行う認識部と、
前記認識部によって認識された前記測定対象の情報に基づいて、前記ロボットの動作制御を行う制御部と
を備える
ロボットシステム。
【符号の説明】
【0164】
1…人型ロボット、2…胴体、3…アーム、4…台車(車輪)、5…カメラ(頭部センサ)、10…ハンド(ロボットハンド)、11…指、11A…指(第1指)、11B…指(第2指)、21…測距センサ、22…触覚センサ、23…音センサ(マイク)、31…凹部、32…凸部、40…脚式ロボット、41…脚、50…物体(測定対象)、51…物体(テンプレート物体)、52…(摩擦円錐に囲まれた)領域、60…ドローン、100…物体・環境測定部(センサ、センサ信号取得処理部)、101…距離情報処理部、102…接触情報処理部、103…環境・物体形状/姿勢推定部、104…追加測定箇所特定部、105…環境・物体情報記憶部、110…物体・環境認識部(認識部)、120…動作制御部(制御部)、200…動作形態決定部、201…軌道演算部、202…運動制御部、203…アクチュエータ部、300…動作形態決定部、301…動作形態記憶部、302…位置姿勢修正部、Pt…触覚センサ測定点、Pr…測距センサ測定点、Pa…把持点候補点、Pb…接触点。