IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ ソフトバンクグループ株式会社の特許一覧

特開2024-176142ロボットの制御システム、ロボットの制御プログラム
<>
  • 特開-ロボットの制御システム、ロボットの制御プログラム 図1
  • 特開-ロボットの制御システム、ロボットの制御プログラム 図2
  • 特開-ロボットの制御システム、ロボットの制御プログラム 図3
  • 特開-ロボットの制御システム、ロボットの制御プログラム 図4
  • 特開-ロボットの制御システム、ロボットの制御プログラム 図5
  • 特開-ロボットの制御システム、ロボットの制御プログラム 図6
  • 特開-ロボットの制御システム、ロボットの制御プログラム 図7
  • 特開-ロボットの制御システム、ロボットの制御プログラム 図8
  • 特開-ロボットの制御システム、ロボットの制御プログラム 図9
  • 特開-ロボットの制御システム、ロボットの制御プログラム 図10
  • 特開-ロボットの制御システム、ロボットの制御プログラム 図11
  • 特開-ロボットの制御システム、ロボットの制御プログラム 図12
  • 特開-ロボットの制御システム、ロボットの制御プログラム 図13
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024176142
(43)【公開日】2024-12-19
(54)【発明の名称】ロボットの制御システム、ロボットの制御プログラム
(51)【国際特許分類】
   B25J 13/08 20060101AFI20241212BHJP
【FI】
B25J13/08
【審査請求】未請求
【請求項の数】6
【出願形態】OL
(21)【出願番号】P 2023094427
(22)【出願日】2023-06-07
(71)【出願人】
【識別番号】591280485
【氏名又は名称】ソフトバンクグループ株式会社
(74)【代理人】
【識別番号】110001519
【氏名又は名称】弁理士法人太陽国際特許事務所
(72)【発明者】
【氏名】孫 正義
【テーマコード(参考)】
3C707
【Fターム(参考)】
3C707AS04
3C707BS27
3C707CS08
3C707DS01
3C707ES06
3C707KS03
3C707KS04
3C707KS07
3C707KS08
3C707KT03
3C707KT05
3C707KW00
3C707KX08
3C707LV06
3C707LV14
3C707WA03
3C707WA16
(57)【要約】      (修正有)
【課題】複数の仕事種の仕事を直接的に実行することで、制御負担を軽減する。
【解決手段】データ取得部70は、ハンドツールの指先に取り付けられた各センサ部の検出データを取得し、照合部72へ送出する。ピッキング対象物情報取得部74は、ピッキングするべきごみに関する情報(ピッキング対象物情報)を取得し、検索部76へ送出する。検索部76は、対象物-属性情報データベース78にアクセスして、ピッキングを指定された対象物の属性情報を読み出し、データ取得部70から受けた属性情報との照合を行い、照合で一致した属性情報の対象物(ごみ)の位置座標(三次元座標)を特定し、ピッキング作業のための把持部の動作を制御する。ピッキングが指定されたごみをピンポイントでピッキングすることができる。
【選択図】図10
【特許請求の範囲】
【請求項1】
対象物に対して実行する仕事種に必要なロボットツールをロボットに装着させ、当該ロボットを前記仕事種に応じた作業を実行させるロボットの制御システムであって、
前記対象物から取得可能な複数の属性情報の各々を検出可能な複数の属性情報検出部が装着されたロボットツールを選択する選択部と、
前記複数の属性情報検出部により、前記対象物を識別可能な種類の属性情報を取得する属性情報取得部と、
前記仕事種を指定された前記対象物の属性情報と、前記属性情報取得部で取得した属性情報とを照合することで、前記仕事種を指定された前記対象物の位置を特定する位置特定部と、
を有するロボットの制御システム。
【請求項2】
前記属性情報取得部が、
複数の前記対象物が混在する環境条件の下で、前記対象物を識別可能な種類の属性情報を取得する、請求項1記載のロボットの制御システム。
【請求項3】
前記属性情報検出部が、
視覚、聴覚、嗅覚、触覚、及び味覚の各々の属性情報を検出し、複数の属性情報の組み合わせによって、前記対象物を識別する、
請求項1記載のロボットの制御システム。
【請求項4】
前記仕事種が、複数種類の資源ごみ及び複数種類の有害ごみが混在した収容部の中から、指定されたごみをピッキングするピッキング作業である、請求項1記載のロボットの制御システム。
【請求項5】
前記ロボットが、前記対象物の画像を撮影して当該対象物の種類を識別するカメラ、及び、前記対象物の位置を特定するモーションプロセンシングユニットを備える、請求項1記載のロボットの制御システム。
【請求項6】
コンピュータを、請求項1~請求項5の何れか1項記載の前記選択部、前記属性情報取得部、及び前記位置特定部として動作させる、ロボットの制御プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、ロボットの制御システム、ロボットの制御プログラムに関する。
【背景技術】
【0002】
工場の生産ラインにおいては作業を自動で行うための人型ロボットが使用されている。特許文献1には、人型ロボットの姿勢制御について記載されている。
【0003】
また、特許文献2には、弾性体アクチュエータで駆動されて複数の関節を有するロボットアームであって、ロボットアームの手先部に配設され支持面と接触することによりロボットアームを支持する手先支持部材と、手先支持部材と支持面との接触する力を制御すると同時にロボットアームの手先部の位置及び姿勢を制御する制御部により制御することが記載されている。
【先行技術文献】
【特許文献】
【0004】
【特許文献1】特開2019-093506号公報
【特許文献2】WO2011/001569公報
【発明の概要】
【発明が解決しようとする課題】
【0005】
しかしながら、従来の人型ロボットによる倉庫内でのピッキング作業において、例えば、荷物が陳列されている棚から当該荷物(シャンプーや、コンディショナー、化粧品、歯磨き粉、カップラーメン、菓子袋等の形状や重さ、硬さ、壊れやすさが違うもの)をピックアップし、所定の包装体(箱等)に収容してパッキングするような場面において、現状では人の手に頼っている。
【0006】
また、ロボットの把持部の構造をフィンガータイプとして対応しようとしても、指や腕の動きが遅いため、生産性が低い。さらに、荷物の把持以外の仕事種を実行する場合、把持部で必要な工具(例えば、ドリル、スクリュードライバー等)を把持して作業することになり、把持状態の管理制御が加わった間接的な作業となるため、制御負担が大きくなる場合がある。
【0007】
本発明は上記事実を考慮し、複数の仕事種の仕事を直接的に実行することで、制御負担を軽減することができるロボットの制御システム、ロボットの制御プログラムを得ることが目的である。
【課題を解決するための手段】
【0008】
本発明に係るロボットの制御システムは、対象物に対して実行する仕事種に必要なロボットツールをロボットに装着させ、当該ロボットを前記仕事種に応じた作業を実行させるロボットの制御システムであって、前記対象物から取得可能な複数の属性情報の各々を検出可能な複数の属性情報検出部が装着されたロボットツールを選択する選択部と、前記複数の属性情報検出部により、複数の前記対象物が混在する環境条件の下で、前記対象物を識別可能な種類の属性情報を取得する属性情報取得部と、前記仕事種を指定された前記対象物の属性情報と、前記属性情報取得部で取得した属性情報とを照合することで、前記仕事種を指定された前記対象物の位置を特定する位置特定部と、を有している。
【0009】
本発明において、前記属性情報取得部が、複数の前記対象物が混在する環境条件の下で、前記対象物を識別可能な種類の属性情報を取得する、ことを特徴としている。
【0010】
本発明によれば、選択部は、対象物から取得可能な複数の属性情報の各々を検出可能な複数の属性情報検出部が装着されたロボットツールを選択する。属性情報取得部は、複数の属性情報検出部により、例えば、複数の対象物が混在する環境条件の下で、対象物を識別可能な種類の属性情報を取得する。位置特定部は、仕事種を指定された対象物の属性情報と、属性情報取得部で取得した属性情報とを照合することで、仕事種を指定された対象物の位置を特定する。これにより、複数の仕事種の仕事を直接的に実行することで、制御負担を軽減することができる。
【0011】
本発明において、前記属性情報検出部が、視覚、聴覚、嗅覚、触覚、及び味覚の各々の属性情報を検出し、複数の属性情報の組み合わせによって、前記対象物を識別する、ことを特徴としている。
【0012】
本発明において、前記仕事種が、複数種類の資源ごみ及び複数種類の有害ごみが混在した収容部の中から、指定されたごみをピッキングするピッキング作業である、ことを特徴としている。
【0013】
本発明において、前記ロボットが、前記対象物の画像を撮影して当該対象物の種類を識別するカメラ、及び、前記対象物の位置を特定するモーションプロセンシングユニットを備える、
【0014】
カメラは、撮影した画像情報に基づき、撮影された対象物(以下、荷物という場合がある。)を識別する。すなわち、対象物の種類(形状、大きさ、硬さ等)を特定するための情報を取得する役目を有する。
【0015】
モーションプロセンシングユニット(MoPU)は、対象物の存在位置を示す点の、所定の座標軸に沿った動きのベクトル情報を動き情報と共に位置情報として出力する。すなわち、MoPUから出力される動き情報には、対象物の中心点(又は重心点)の座標軸(x軸、y軸、z軸)上の動き(移動方向と移動速度)を示す情報のみが含まれている。すなわち、把持部が対象物に接近するときの軌跡を精度よく案内することができる。
【0016】
本発明に係るロボットの制御システムは、コンピュータを、上記のロボットの制御システムの前記選択部、前記属性情報取得部、及び前記位置特定部として動作させる、ことを特徴としている。
【0017】
なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となり得る。
【発明の効果】
【0018】
以上説明したように本発明によれば、複数の仕事種の仕事を直接的に実行することで、制御負担を軽減することができるという効果を奏する。
【図面の簡単な説明】
【0019】
図1】第1の実施の形態に係る人型ロボットの正面図である。
図2】第1の実施の形態に係る人型ロボットの側面図である。
図3】第1の実施の形態に係る把持部の掌側の正面図である。
図4】(A)は第1の実施の形態に係るホルダに格納されたロボットツールの正面図、(B)~(D)は第1の実施の形態に係るロボットツールによる仕事の状態を示す正面図である。
図5】第1の実施の形態に係る人型ロボットの機能構成の一例を概略的に示す図である。
図6】人型ロボットの全体の動作に連動し、把持部によって荷物を把持する際の把持制御の手順を示すフローチャートである。
図7】ロボットツール適用処理サブルーチンの詳細を示す制御フローチャートである。
図8】第2の実施の形態に係る把持部の正面図、(B)は第2の実施の形態に係る把持部の仕事種の一覧を示す図表である。
図9】第3の実施の形態に係る分別ピッキング作業の形態を示す正面図である
図10】第3の実施の形態に係る分別ピッキング作業を実行するための、情報処理装置における機能ブロック図である。
図11】第3の実施の形態に係る分別ピッキング作業の処理手順を示す制御フローチャートである。
図12】第3の実施の形態の変形例に係る車両のエンジンルームを示す斜視図である。
図13】情報処理装置として機能するコンピュータハードウェアの一例を概略的に示す図である。
【発明を実施するための形態】
【0020】
以下、発明の実施の形態を通じて本発明を説明するが、以下の実施の形態は特許請求の範囲に係る発明を限定するものではない。また、実施の形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。
【0021】
(第1の実施の形態)
図1は第1の実施の形態に係る人型ロボット1の正面図である。図1に示すように、第1の実施の形態に係る人型ロボット1は、上半身部2、脚部3、および上半身部2を脚部3に対して回動可能に連結する連結部4を備え、例えば工場の生産ライン等に配置されて、ピッキング対象物である荷物100(図3参照)等が陳列されている棚を含むライン上、又は床上の対象物(落下物等)に対して作業を行うものである。なお、作業は、棚から荷物100を把持するピッキング以外に、把持した荷物100を所定の筐体(ダンボール等)に収容するパッキングを含む。
【0022】
上半身部2は2本の腕部5、6を有する。腕部5、6は上半身部2の左右に回動自在に取り付けられている。また、腕部5、6の先端には荷物100を把持するための把持部20(詳細後述)が取り付けられている。なお、腕部は2本に限定されるものではなく、1本あるいは3本以上であってもよい。
【0023】
脚部3は2つの車輪7、8がその下部に取り付けられており、人型ロボット1が配置される床の上を移動可能とされている。
【0024】
連結部4は、上半身部2と脚部3を回動可能に連結する。このため、上半身部2は、脚部3に対して前傾および後傾が可能となっている。このため、第1の実施の形態に係る人型ロボット1は、図2に示すように、脚部3に対して上半身部2を前傾させて、棚に置かれた荷物100や、床に置かれていた荷物100、及び作業中に床に落ちたりした荷物100を拾うことが可能である。
【0025】
なお、脚部3は、上半身部2が脚部3に対して前傾または後傾したり、人型ロボット1が移動したりした際に、人型ロボット1が転倒しないようにするためのバランス機能を有する。
【0026】
また、連結部4は、図1に示すように上半身部2と脚部3との距離を変更可能な機能を有する。このため、生産ラインにおける作業台の高さに合うように、脚部3に対する上半身部2の上下方向の位置を矢印Aに示すように調整することができる。
【0027】
また、第1の実施の形態に係る人型ロボット1は、人型ロボット1内に実装された制御システム10によりその駆動が制御される。
【0028】
(把持部20の構造)
図3に示される如く、腕部5、6の先端に取り付けられた把持部20は、人間の同様の手の構造とされている(Intelligent Hand System)。把持部20は、腕部5、6に対して、それぞれ回転自在に取り付けられている。把持部20は、腕部5、6と連結する手首よりも先の部分であり、把持部20は、この手首部分で着脱可能とされ、後述するロボットツール21EXと取り替えることが可能となっている。
【0029】
(把持部20)
図3に示される如く、第1の実施の形態に係る把持部20は、所謂人間の掌に相当する基部として掌部を備え、掌部には、各々複数の関節を備えた5本の指部22A、22B、22C、22D、22Eが取り付けられている。なお、第1の実施の形態では、把持部20Lの指の数を5本としているが、3本指などの数の異なる指構造であってもよい。
【0030】
掌部には、掌センサ26が取り付けられている。第1の実施の形態に係る掌センサ26を構成する高解像度カメラは、撮影した画像情報に基づき、撮影された荷物100が何であるかシャンプー、コンディショナー、化粧品、歯磨き粉等のケア商品なのか、又は、カップラーメン、菓子袋等の食品なのかを識別する。
【0031】
言い換えると、高解像度カメラは、荷物100の種類(形状、大きさ、硬さ等)を特定するための情報を取得する役目を有する。
【0032】
一方、高解像度カメラと共に、第1の実施の形態の掌センサ26を構成するMoPUは、1000フレーム/秒以上のフレームレートで撮影された荷物100の画像から、撮影された荷物100の動き(この場合、腕部5、6との間の相対的な動きとなる。)を示す動き情報を、例えば1000フレーム/秒以上のフレームレートで出力する。なお、移動中の荷物100を検知する場合、フレームレートを上げて、固定物(移動しない荷物100)を検知する場合、フレームレートを下げるようにしてもよい。
【0033】
MoPUは、荷物100の存在位置を示す点の、所定の座標軸に沿った動きのベクトル情報を動き情報として出力する。すなわち、MoPUから出力される動き情報には、撮影された荷物100が何であるか(上記ケア商品、食品)を識別するために必要な情報は含まれておらず、当該荷物100の中心点(又は重心点)の座標軸(x軸、y軸、z軸)上の動き(移動方向と移動速度)を示す情報のみが含まれている。
【0034】
すなわち、把持部20が荷物100に接近するときの軌跡を精度よく案内することができる。
【0035】
高解像度カメラ及びMoPUを含む掌センサ26から出力された情報は、情報処理装置14に供給される。
【0036】
情報処理装置14は、高解像度カメラ及びMoPUを含む掌センサ26からの情報により、高精度に荷物100の位置を特定し、把持するときの指部22A、22B、22Cの広がり度合い、掴むときの強度、及び吸着パッド24による吸着力等を演算し、腕部5、6及び把持部20の微小な動きを、精度よくコントロールし、様々な荷物100のピッキング作業に対応することができる。
【0037】
(ロボットツール21EX)
第1の実施の形態では、荷物100に対する仕事種として、把持部20を用い、荷物100で把持することを主目的としている。
【0038】
一方、荷物100に対する仕事種が把持ではなく、他の仕事種(例えば、塗装、強度アップ把持、ドリルによる穿孔等)の場合がある。
【0039】
この場合、把持部20で各種仕事に対応する工具を把持して、荷物100に対峙することも可能であるが、同一の仕事種を継続的に実行する場合は、把持状態の維持制御(把持部と把持している工具との相対位置制御等)の負担が大きい。
【0040】
そこで、第1の実施の形態では、把持部20に代えて、荷物100に対する仕事種に応じて、図1及び図4に示すように、ロボットツール21EX(第1の実施の形態では、21EXA、21EXB、21EXCの3種類)を具備しておき、必要に応じて、把持部20から、ロボットツール21EXに交換して、荷物100の把持とは別の仕事種に応じた仕事を実行する構成とした。
【0041】
(ロボットツール21EXの保管例)
図1に示される如く、人型ロボット1は、上半身部2の下部(所謂、腰位置)にベルト28が装着され、ベルト28には、3個のロボットツール21EXA、21EXB、21EXCの各々を着脱可能に保持するホルダ(図示省略)が取り付けられている。
【0042】
図1では、3個のロボットツール21EXとしているが、ロボットツール21EXの数は、1種類、2種類、又は4種類以上であってもよく、後述する荷物100の属性に合わせて、装着する数を決めればよい。
【0043】
図4は、把持部20とは別に、第1の実施の形態の人型ロボット1に装備された3種類のロボットツール21(21EXA、21EXB、21EX)の詳細構成と、その用途との関係が示されている。
【0044】
図4(A)は、図1の人型ロボット1に取り付けられたベルト28の正面図である。
【0045】
図4(A)に示される如く、ロボットツール21EXが、それぞれ着脱可能に取り付けられている。
【0046】
図4(B)~(D)は、ロボットツール21EXAの荷物100の把持状態を示している。
【0047】
図4(B)に示される如く、ロボットツール21EXAの仕事種は塗装であり、ツールとして、スプレーガンが取り付けられている。
【0048】
スプレーガンは、吹き付け塗装で使用されるピストル状の塗装機器の一つである。コンプレッサー(図示省略)の圧縮空気を利用し塗料を霧状にして、スプレーガンの先端から噴出させる構造となっており、被塗装面に対してムラなく塗装することが可能である。
【0049】
図4(C)に示される如く、ロボットツール21EXBの仕事種は、把持部20と同様に把持であるが、把持部20では把持が困難な特殊な荷物100を把持することができる構造となっている。
【0050】
すなわち、ロボットツール21EXBは、例えば、重機のアタッチメントとして適用されるフォークと同様の構造である。第1の実施の形態では、ロボットツール21EXBは、2本指構造となっており、圧力源から配管を介して供給される圧力により、2本の指が開いたり閉じたりすることで、モータ等による把持動作(把持部20)に比べて、汎用性は低いが、荷物100を掴む強度が増強されている。
【0051】
図4(D)に示される如く、ロボットツール21EXCの仕事種は穿孔であり、ツールとして、ドリルが取り付けられている。
【0052】
ドリルには、所定の径寸法のドリル刃が着脱可能に取り付け可能であり、ドリル刃は、荷物100に穿孔するための孔寸法に合わせて事前に装着されている。
【0053】
ここで、把持部20で処理可能な仕事種(把持)とは異なる場合、荷物100に対して実行する仕事種に基づいて、最適なロボットツール21を選択し(表1参照)、把持部20から、選択したロボットツール21に付け替えて、処理を実行する。
【0054】
【表1】
【0055】
なお、図示は省略したが、各々のロボットツール21EXにも掌センサ26が取り付けられている。
【0056】
図5は、第1の実施の形態に係る人型ロボットの制御システムの一例の概略図である。制御システム10は、人型ロボットに搭載されるセンサ12と、高解像度カメラ及びMoPUを含む掌センサ26と、情報処理装置14とを備えている。
【0057】
センサ12は、人型ロボット1の周辺にある、人型ロボット1が作業する荷物100と腕部5、6との距離および角度を少なくとも表す情報を逐次取得する。センサ12としては、最高性能のカメラ、ソリッドステートLiDAR、マルチカラーレーザ同軸変位計、又はその他様々なセンサ群が採用され得る。また他には、センサ12としては、振動計、サーモカメラ、硬度計、レーダー、LiDAR、高画素・望遠・超広角・360度・高性能カメラ、ビジョン認識、微細音、超音波、振動、赤外線、紫外線、電磁波、温度、湿度、スポットAI天気予報、高精度マルチチャネルGPS、低高度衛星情報、又はロングテールインシデントAI data等が挙げられる。
【0058】
なお、センサ12は、上記の情報のほかに、画像、距離、振動、熱、匂い、色、音、超音波、紫外線、又は赤外線等を検知する。他にセンサ12が検知する情報としては、人型ロボット1の重心移動、人型ロボット1が設置される床の材質の検知、外気温度の検知、外気湿度の検知、床の上下横斜め傾き角度の検知、水分量の検知等が挙げられる。
【0059】
センサ12は、これらの検知を例えばナノ秒毎に実施する。
【0060】
掌センサ26(高解像度カメラ及びMoPU)は、腕部5、6の把持部20に設けられるセンサであり、センサ12とは別に、荷物100を撮影するカメラ機能、及び、荷物100位置を特定する位置特定機能を有する。
【0061】
なお、1つのMoPU12を用いた場合には、荷物100の存在位置を示す点の、三次元直交座標系における2つの座標軸(x軸及びy軸)の各々に沿った動きのベクトル情報を取得することが可能である。ステレオカメラの原理を利用して、2つのMoPU12を用いて、荷物100の存在位置を示す点の、三次元直交座標系における3つの座標軸(x軸、y軸、z軸)の各々に沿った動きのベクトル情報を出力してもよい。z軸は、奥行方法(車両の走行)に沿った軸である。
【0062】
情報処理装置14は、情報取得部140と、制御部142と、情報蓄積部144とを備えている。
【0063】
情報取得部140は、センサ12及び掌センサ26(高解像度カメラ及びMoPU)によって検知された荷物100の情報を取得する。
【0064】
制御部142は、情報取得部140がセンサ12から取得した情報とAI(Artificial intelligence)とを用いて、連結部4の回動動作、上下方向の移動動作および腕部5、6の動作等を制御する。
【0065】
また、制御部142は、情報取得部140が掌センサ26(高解像度カメラ及びMoPU)から取得した情報を用いて、荷物100の種類(形状、大きさ、硬さ等)及び位置を詳細に把握し、当該外形や位置に応じて、掌側20Aを対峙させ、吸着パッド24により吸着し、かつ、3本の指部22A、22B、22Cで掴むように制御する(把持制御)。なお、外形情報に基づいて、荷物100の種類を把握して把持制御(「吸着」のみ、「掴み」のみ、「吸着」と「掴み」の併用等)を選択してもよい。
【0066】
例えば、制御部142は、全体の動作として、以下の各処理を実行する。
(1)棚及び床にある荷物100を拾い上げることが可能なように連結部4を駆動して、上半身部2を前傾または後傾させる。
(2)荷物100をつかむことが可能なように腕部5、6および把持部を駆動する。
(3)生産ラインの作業台の高さに合うように、上半身部2を脚部3に対して上下に駆動する。
(4)人型ロボット1の転倒を防ぐために、バランスを取る。
(5)人型ロボット1がカート等を押し進めることができるように、車輪7、8の駆動を制御する。
【0067】
情報処理装置14は、例えば、床にある荷物100を拾う場合、センサ12によって検知された荷物100の情報を取得し、取得された荷物100の情報とAIとを用いて、連結部4および腕部5、6を制御することにより、床にある荷物100を拾い上げ、拾った荷物100を所定位置へ移動する。
【0068】
以下に第1の実施の形態の作業を説明する。
【0069】
(荷物100の把持制御)
図6は、把持部20によって荷物100を把持する際の把持制御の手順を示すフローチャートである。
【0070】
ステップ150では、荷物100の把持の指示があったか否かを判断し、肯定判定されると、ステップ152へ移行して、人型ロボット1を移動させ(例えば、腕部5、6を動作させ)、対象の荷物100に掌側を対峙させ、ステップ154へ移行する。
【0071】
ステップ154では、掌側20Aを対向させて、掌センサ26(高解像度カメラ及びMoPU)で荷物100の情報を検出する。
【0072】
次のステップ156では、掌センサ26による検出情報を解析して、荷物100の種類(形状、大きさ、硬さ等)及び位置を詳細に把握し、ステップ158へ移行する。
【0073】
ステップ158では、荷物100の属性に応じた、把持部20の仕事種(把持又は把持以外の仕事種)の選択処理を実行する。選択処理は、図7に基づき、詳細に説明するが、図7の選択処理において、仕事種が把持の場合は、ステップ160へ移行する。
【0074】
ステップ160では、荷物100の把持のための作業を選択する。例えば、「吸着」のみ、「掴み」のみ、「吸着」と「掴み」の併用等から選択し、ステップ162へ移行する。
【0075】
ステップ162では、荷物100の把持(「吸着」のみ、「掴み」のみ、「吸着」と「掴み」)を実行する。
【0076】
次のステップ164では、荷物100の把持が成功したか否かを判定し、肯定判定された場合は、把持した荷物100を所定の場所へ運び、ステップ150へ移行して、次の荷物100の把持の指示を待つ。
【0077】
また、ステップ164で否定判定された場合は、ステップ166へ移行して、エラー処
【0078】
把持部20には、高解像度カメラ及びMoPUを含む掌センサ26を取り付けているので、上記の構造の把持部20を人型ロボット1の腕部5、6に装着することにより、吸着面によりモノを確実にピックすることができ、人型ロボット1の動きが早くても荷物100を把持部20から落とさずに運ぶことができる。
【0079】
また、掌センサ26(高解像度カメラ及びMoPU)が掌側20Aに搭載されているので、高精度に荷物100を捉えることができ、微小な動きをする作業にも対応することができる。
【0080】
さらに、非常に柔らかく壊れやすいものは、吸着パッド24を使わずに、指部22A、22B、22Cの動きにより掴むこともできるし、掴む力を調整することにより、柔らかい荷物100の破損等を防止することかできる。
【0081】
(ロボットツール適用処理の詳細)
図7は、図6のステップ158における、仕事種の選択処理(ロボットツール適用処理)サブルーチンの詳細を示す制御フローチャートである。
【0082】
ステップ198では、仕事種が、把持であるか、把持以外の仕事であるかを判断する。このステップ198で仕事種が把持と判定された場合は、ステップ199で、図6のステップ160へ戻るように指示し、このルーチンは終了する。
【0083】
また、ステップ199で、仕事種が把持以外と判定された場合は、ステップ200へ移行して、荷物100に対する仕事種(表1参照)に基づき、ロボットツール21を選択する。
【0084】
すなわち、表1に示される如く、荷物100に対する仕事種に応じて、必要なロボットツール21の種類が決まる。
【0085】
なお、表1に示す荷物100に対する仕事種に基づくロボットツールの種類の選択は一例であり、所持しているロボットツールの種類や数に基づき定めればよい。
【0086】
第1の実施の形態では、3種類のロボットツール21がベルト28に装着されているため、この3種類のロボットツール21からの選択になるが、ベルト28への装着数を増加したり、作業現場に応じて、多種のロボットツール21の中から選択してベルト28に予め装着しておいてもよい。また、人型ロボット1毎に異なる種類のロボットツール21を装着するようにしてもよい。
【0087】
次のステップ201Aでは、選択したロボットツールを装備しているか否かを判断し、否定判定された場合は、ステップ201Bへ移行して、ロボットツールの調達を要求する。次のステップ201Cでは、ロボットツールの彫琢処理が実行され、ステップ202へ移行する。また、ステップ201Aで肯定判定された場合は、ステップ202へ移行する。
【0088】
次のステップ202では、交換側の腕部6(又は5)に装着されたツール(通常は把持部20であるが、既に別のロボットツール21が装着されている場合もある。)を取り外す。
【0089】
次のステップ204では、交換側の腕部6(又は5)を、ベルト28の位置に移動し、ロボットツール21を装着する。
【0090】
次のステップ206では、非交換側の腕部5(又は6)で把持している、交換側の腕部6(又は5)にもともと装着されていたツールを、ベルト28のホルダに格納し、ステップ208へ移行する。
【0091】
ステップ208では、ロボットツール毎にプログミングされた仕事を実行する。次のステップ210では、図6のフローチャートのリスタート(ステップ150への移行)を指示して、このルーチンは終了する。
【0092】
以上説明したように第1の実施の形態では、把持部20による把持動作制御に加え、例えば、荷物100に対する仕事種に応じて、ロボットツール21を準備しておく。
【0093】
これにより、比較例の把持部で、仕事種に必要な工具を把持して仕事することで生じる制御負担(把持部20と工具との相対位置制御に係る負担等)を、直接ロボットツール21を装着することで解消することができる。
【0094】
(第2の実施の形態「指の先端の交換」)
以下に本発明の第2の実施の形態について説明する。なお、第2の実施の形態と同一構成部分には、同一の符号を付してその構成の説明を省略する。
【0095】
第2の実施の形態の特徴は、把持部20である指の先端を、第1の実施の形態で説明したロボットツールのように、仕事種に応じたツールに変更可能とした点にある。
【0096】
図8(A)に示される如く、第2の実施の形態に係るハンドツール50は、基本的には、第1の実施の形態の把持部20と同様に、荷物100を把持することを主目的としている。
【0097】
このハンドツール50は、各指の選択が着脱可能となっている。図8(A)の状態は、上記主目的のための第1関節部50A(図8(B)に示す「finger tip」)が装着されている。
【0098】
一方、この各指部は、図8(B)に示される如く、仕事種に応じた形状の第1関節部50B~50Fに交換可能である。
【0099】
第1関節部50Bは「tweezer」であり、所謂ピンセットであり、薄肉の部材をはさんで掴むときに適用される。
【0100】
第1関節部50Cは、「stick」であり、棒状の部材で部品を押さえるときに適用される。
【0101】
第1関節部50Dは、「cotton swab」であり、球体形状の綿体で部品の汚れを拭き取ったり、水分を除去するときに適用される。
【0102】
第1関節部50Eは、「camera」であり、部品を撮影(特に接写)するときに適用される。
【0103】
第1関節部50Fは、「screwdriver」であり、螺子を締めつけたり、緩めるときに適用される。
【0104】
第2の実施の形態によるハンドツールによれば、特に、細かい部品(電子部品や精密部品等)の組み立てや分解といった作業に最適である。
【0105】
(第3の実施の形態「分別ピッキング作業」)
以下に本発明の第3の実施の形態について説明する。なお、第3の実施の形態では、第2の実施の形態で説明した人型のハンドツール50を適用して説明するが、必ずしも人型のハンドツール50である必要はなく、第1の実施の形態で説明した把持部20やロボットツール21EXの位置付けであってもよい。
【0106】
分別ピッキング作業とは、図9に示される如く、単一の箱体60の中に、異なる属性(種類)のごみ62が混在して収容されている状態で、特定の属性(種類)のごみ62を選別してピッキングする作業を言う。
【0107】
図9に示される如く、箱体60には、6種類のごみ62が混在して収容されている。その内訳は、資源ごみとしてのプラスチック、紙、及びガラス、並びに、有害ごみとしての電池、ライター、及びスプレー缶である。
【0108】
第3の実施の形態では、ハンドツール50の各指先に、ごみ62の属性を検出し得るセンサ部51A~51E(詳細後述)を取り付け、ハンドツール50を箱体60に対峙させることで、各センサ部51A~51Eでの属性の検出を実行する。
【0109】
各指に装着されたセンサ部51A~51Eの一例を、以下に示す。
(親指)属性情報として視覚情報を検出する視覚センサ51A
(人差し指)属性情報として聴覚情報を検出する聴覚センサ51B
(中指)属性情報として嗅覚情報を検出する嗅覚センサ51C
(薬指)属性情報として触覚情報を検出する触覚センサ51D
(小指)属性情報として味覚情報を検出する味覚センサ51E
【0110】
なお、各センサ部51A~51Eは、上記に限定されるものではなく、また、検出形態も接触、非接触等、特に限定されるものではない。また、必要に応じて、同一種類の属性の検出センサを装着してもよい。
【0111】
ハンドツール50は、箱体60の上方で、指関節が相互に自由に動くことができるため、各指先のセンサ部51A~51Eは、その検出領域を自由に変更することができる。このため、箱体60の全領域を検出領域とすることができる。
【0112】
なお、図9では、図示していないが、指先のセンサ部51A~51Eが指先から離脱して箱体60のごみ62の収容空間まで入り込み、視覚的に隠れた位置のごみの属性情報が検出可能である。
【0113】
ここで、ピッキングするべきごみ62の種類(対象物)が指定されると、当該ピッキング対象となるごみ62の属性(視覚、聴覚、嗅覚、触覚、及び味覚の五感で得られる属性情報を対象物-属性情報データベース78(図10参照)から読み出し、センサ部51A~51Eで検出した属性情報との照合を行うことで、ピッキングするべきごみ62の位置座標(三次元)を特定することができる。
【0114】
この位置座標に基づいて、例えば、図3に示す把持部20を装着して、ピッキング作業を実行する。この場合、予め、第3の実施の形態のハンドツール50を右手側、ピッキング作業のための把持部20を左手側に装着しておけばよい。
【0115】
図10は、情報処理装置14(図5参照)において実行される、対象物属性判定制御に特化した機能ブロック図である。なお、図10に示す各ブロックは機能別に分類したものであり、マイクロコンピュータ(ASIC等を含む)を用いて、対象物属性判定制御機能の一部又は全部をソフトウェアプログラムで動作させるようにしてもよい。
【0116】
情報処理装置14の対象物属性判定制御機能はデータ取得部70を備えている。データ取得部70は、ハンドツール50の指先に取り付けられた各センサ部51A~51Eの検出データを取得する。
【0117】
データ取得部70は、照合部72に接続されている。データ取得部72は、取得した各センサ部51A~51Eからの検出データを照合部72へ送出する。
【0118】
また、情報処理装置14の対象物属性判定制御機能はピッキング対象物情報取得部74を備えている。ピッキング対象物情報取得部74は、ピッキングするべきごみに関する情報(ピッキング対象物情報)を取得する。このピッキング対象物情報取得部74は、検索部76に接続され、ピッキング対象物情報を送出する。
【0119】
検索部76は、対象物-属性情報データベース78にアクセスして、ピッキングを指定された対象物の属性情報を読み出す。
【0120】
検索部76で読み出した属性情報は、照合部72へ送出される。
【0121】
ここで、照合部72では、検索部76から受けた属性情報と、データ取得部70から受けた属性情報との照合を行い、照合結果をピッキング位置座標特定部79へ送出する。ピッキング位置座標特定部79では、照合で一致した属性情報の箱体60(図9参照)内の対象物(ごみ62)の位置座標(三次元座標)を特定する。
【0122】
ピッキング位置座標特定部79で特定された位置座標は、座標情報出力部80を介して、情報処理装置14の別機能であるピッキング制御部(図示省略)へ送出される。
【0123】
この結果、ピッキング制御部では、受け付けた位置情報に基づいて、ピッキング作業のための把持部20の動作を制御することで、箱体60内にある、ピッキングが指定されたごみ62をピンポイントでピッキングすることができる。
【0124】
以下、図11のフローチャートに従い、第3の実施の形態の作用を説明する。
【0125】
ステップ82では、ハンドツール50の各指先にセンサ機能を装着する。一例として、親指は視覚センサ51A、人差し指は聴覚センサ51B、中指は嗅覚センサ51C、薬指は触覚センサ51D、及び小指は味覚センサ51Eが、それぞれ装着される。
【0126】
なお、必要に応じて、指種とセンサ種との関係を変更してもよいし、必要十分のセンサ数だけ装着してもよい。
【0127】
また、第3の実施の形態では、把持部20としてのハンドツール50が腕部5、6に装着された状態で、指先に各センサ部51A~51Eを装着しているが、腕部5,6に対して、第1の実施形態で示したロボットツール21EXに属し、予めセンサ機能を持ったロボットツール21EXに付け替えるようにしてもよい。
【0128】
次のステップ84では、各センサ部51A~51Eを、対象物が混在して収容された箱体60に対峙させ、ステップ86へ移行する。
【0129】
ステップ86では、各センサ部51A~51Eにより、個別の対象物の属性情報を取得する。
【0130】
次のステップ88では、ピッキング対象物情報を取得する。例えば、有害ごみに属する電池のピッキングが指令されると、当該電池の属性情報を取得する。電池の場合、聴覚、臭覚、味覚はほぼないが、視覚及び触覚に基づいて、他のごみ62と区別することができる。その他のごみ62としては、例えば、有害ごみに属するスプレー缶の場合は、視覚、及び触覚に加え、嗅覚(シンナー臭等)によって他のごみ62と区別することができる。
【0131】
次のステップ90では、対象物-属性情報データベース(DB)から、ピッキング対象物の属性情報を読み出し、ステップ92へ移行して、属性情報の照合を実行する。すなわち、読み出した属性情報と、検出した属性情報との照合を実行する。
【0132】
次のステップ94では、照合の結果、一致した場所をピッキング位置として、当該ピッキング位置の座標(箱体60内部の空間に設定された三次元座標)を特定し、次いでステップ96へ移行して、特定したピッキング位置座標を、ピッキング制御部へ送出し、このルーチンは終了する。ピッキング制御部では、特定されたピッキング位置座標に基づいて、把持部20を制御して、対象物であるごみ62をピッキングする。
【0133】
なお、第3の実施の形態では、ごみを分別してピッキングする作業を例示したが、ハンドツール50の各指先に、異なるセンサ部51A~51Eを取り付けて作業する例として、図12に示される如く、車両98のエンジンルーム98A内部の点検等を挙げることができる。
【0134】
人型ロボット1がエンジンルーム98Aに対峙して、第3の実施の形態におけるハンドツール50を用いることで、1回のエンジルーム98A内の点検で、エンジンからのオイル漏れ、樹脂製品やゴム製品の破損及び亀裂、ボルト等の緩み、電気部品の接触不良、脱落等の不具合を、場所の特定と共に検出することができる。
【0135】
図13は、情報処理装置14として機能するコンピュータ1200のハードウェア構成の一例を概略的に示す。コンピュータ1200にインストールされたプログラムは、コンピュータ1200を、第1の実施の形態及び第2の実施の形態(実施例を含む)に係る装置の1又は複数の「部」として機能させ、又はコンピュータ1200に、第1の実施の形態及び第2の実施の形態(実施例を含む)に係る装置に関連付けられるオペレーション又は当該1又は複数の「部」を実行させることができ、および/又はコンピュータ1200に、第1の実施の形態及び第2の実施の形態(実施例を含む)に係るプロセス又は当該プロセスの段階を実行させることができる。そのようなプログラムは、コンピュータ1200に、本明細書に記載のフローチャートおよびブロック図のブロックのうちのいくつか又は全てに関連付けられた特定のオペレーションを実行させるべく、CPU1212によって実行されてよい。
【0136】
第1の実施の形態乃至第3の実施の形態によるコンピュータ1200は、CPU1212、RAM1214、およびグラフィックコントローラ1216を含み、それらはホストコントローラ1210によって相互に接続されている。コンピュータ1200はまた、通信インタフェース1222、記憶装置1224、DVDドライブ、およびICカードドライブのような入出力ユニットを含み、それらは入出力コントローラ1220を介してホストコントローラ1210に接続されている。DVDドライブは、DVD-ROMドライブおよびDVD-RAMドライブ等であってよい。記憶装置1224は、ハードディスクドライブおよびソリッドステートドライブ等であってよい。コンピュータ1200はまた、ROM1230およびキーボードのような入出力ユニットを含み、それらは入出力チップ1240を介して入出力コントローラ1220に接続されている。
【0137】
CPU1212は、ROM1230およびRAM1214内に格納されたプログラムに従い動作し、それにより各ユニットを制御する。グラフィックコントローラ1216は、RAM1214内に提供されるフレームバッファ等又はそれ自体の中に、CPU1212によって生成されるイメージデータを取得し、イメージデータがディスプレイデバイス1218上に表示されるようにする。
【0138】
通信インタフェース1222は、ネットワークを介して他の電子デバイスと通信する。記憶装置1224は、コンピュータ1200内のCPU1212によって使用されるプログラムおよびデータを格納する。DVDドライブは、プログラム又はデータをDVD-ROM等から読み取り、記憶装置1224に提供する。ICカードドライブは、プログラムおよびデータをICカードから読み取り、および/又はプログラムおよびデータをICカードに書き込む。
【0139】
ROM1230はその中に、アクティブ化時にコンピュータ1200によって実行されるブートプログラム等、および/又はコンピュータ1200のハードウェアに依存するプログラムを格納する。入出力チップ1240はまた、様々な入出力ユニットをUSBポート、パラレルポート、シリアルポート、キーボードポート、マウスポート等を介して、入出力コントローラ1220に接続してよい。
【0140】
プログラムは、DVD-ROM又はICカードのようなコンピュータ可読記憶媒体によって提供される。プログラムは、コンピュータ可読記憶媒体から読み取られ、コンピュータ可読記憶媒体の例でもある記憶装置1224、RAM1214、又はROM1230にインストールされ、CPU1212によって実行される。これらのプログラム内に記述される情報処理は、コンピュータ1200に読み取られ、プログラムと、上記様々なタイプのハードウェアリソースとの間の連携をもたらす。装置又は方法が、コンピュータ1200の使用に従い情報のオペレーション又は処理を実現することによって構成されてよい。
【0141】
例えば、通信がコンピュータ1200および外部デバイス間で実行される場合、CPU1212は、RAM1214にロードされた通信プログラムを実行し、通信プログラムに記述された処理に基づいて、通信インタフェース1222に対し、通信処理を命令してよい。通信インタフェース1222は、CPU1212の制御の下、RAM1214、記憶装置1224、DVD-ROM、又はICカードのような記録媒体内に提供される送信バッファ領域に格納された送信データを読み取り、読み取られた送信データをネットワークに送信し、又はネットワークから受信した受信データを記録媒体上に提供される受信バッファ領域等に書き込む。
【0142】
また、CPU1212は、記憶装置1224、DVDドライブ(DVD-ROM)、ICカード等のような外部記録媒体に格納されたファイル又はデータベースの全部又は必要な部分がRAM1214に読み取られるようにし、RAM1214上のデータに対し様々なタイプの処理を実行してよい。CPU1212は次に、処理されたデータを外部記録媒体にライトバックしてよい。
【0143】
様々なタイプのプログラム、データ、テーブル、およびデータベースのような様々なタイプの情報が記録媒体に格納され、情報処理を受けてよい。CPU1212は、RAM1214から読み取られたデータに対し、本発明の随所に記載され、プログラムの命令シーケンスによって指定される様々なタイプのオペレーション、情報処理、条件判断、条件分岐、無条件分岐、情報の検索/置換等を含む、様々なタイプの処理を実行してよく、結果をRAM1214に対しライトバックする。また、CPU1212は、記録媒体内のファイル、データベース等における情報を検索してよい。例えば、各々が第2の属性の属性値に関連付けられた第1の属性の属性値を有する複数のエントリが記録媒体内に格納される場合、CPU1212は、当該複数のエントリの中から、第1の属性の属性値が指定されている条件に一致するエントリを検索し、当該エントリ内に格納された第2の属性の属性値を読み取り、それにより予め定められた条件を満たす第1の属性に関連付けられた第2の属性の属性値を取得してよい。
【0144】
上で説明したプログラム又はソフトウエアモジュールは、コンピュータ1200上又はコンピュータ1200近傍のコンピュータ可読記憶媒体に格納されてよい。また、専用通信ネットワーク又はインターネットに接続されたサーバシステム内に提供されるハードディスク又はRAMのような記録媒体が、コンピュータ可読記憶媒体として使用可能であり、それによりプログラムを、ネットワークを介してコンピュータ1200に提供する。
【0145】
第1の実施の形態乃至第3の実施の形態におけるフローチャートおよびブロック図におけるブロックは、オペレーションが実行されるプロセスの段階又はオペレーションを実行する役割を持つ装置の「部」を表してよい。特定の段階および「部」が、専用回路、コンピュータ可読記憶媒体上に格納されるコンピュータ可読命令と共に供給されるプログラマブル回路、および/又はコンピュータ可読記憶媒体上に格納されるコンピュータ可読命令と共に供給されるプロセッサによって実装されてよい。専用回路は、デジタルおよび/又はアナログハードウェア回路を含んでよく、集積回路(IC)および/又はディスクリート回路を含んでよい。プログラマブル回路は、例えば、フィールドプログラマブルゲートアレイ(FPGA)、およびプログラマブルロジックアレイ(PLA)等のような、論理積、論理和、排他的論理和、否定論理積、否定論理和、および他の論理演算、フリップフロップ、レジスタ、並びにメモリエレメントを含む、再構成可能なハードウェア回路を含んでよい。
【0146】
コンピュータ可読記憶媒体は、適切なデバイスによって実行される命令を格納可能な任意の有形なデバイスを含んでよく、その結果、そこに格納される命令を有するコンピュータ可読記憶媒体は、フローチャート又はブロック図で指定されたオペレーションを実行するための手段を作成すべく実行され得る命令を含む、製品を備えることになる。コンピュータ可読記憶媒体の例としては、電子記憶媒体、磁気記憶媒体、光記憶媒体、電磁記憶媒体、半導体記憶媒体等が含まれてよい。コンピュータ可読記憶媒体のより具体的な例としては、フロッピー(登録商標)ディスク、ディスケット、ハードディスク、ランダムアクセスメモリ(RAM)、リードオンリメモリ(ROM)、消去可能プログラマブルリードオンリメモリ(EPROM又はフラッシュメモリ)、電気的消去可能プログラマブルリードオンリメモリ(EEPROM)、静的ランダムアクセスメモリ(SRAM)、コンパクトディスクリードオンリメモリ(CD-ROM)、デジタル多用途ディスク(DVD)、ブルーレイ(登録商標)ディスク、メモリスティック、集積回路カード等が含まれてよい。
【0147】
コンピュータ可読命令は、アセンブラ命令、命令セットアーキテクチャ(ISA)命令、マシン命令、マシン依存命令、マイクロコード、ファームウェア命令、状態設定データ、又はSmalltalk(登録商標)、JAVA(登録商標)、C++等のようなオブジェクト指向プログラミング言語、および「C」プログラミング言語又は同様のプログラミング言語のような従来の手続型プログラミング言語を含む、1又は複数のプログラミング言語の任意の組み合わせで記述されたソースコード又はオブジェクトコードのいずれかを含んでよい。
【0148】
コンピュータ可読命令は、汎用コンピュータ、特殊目的のコンピュータ、若しくは他のプログラム可能なデータ処理装置のプロセッサ、又はプログラマブル回路が、フローチャート又はブロック図で指定されたオペレーションを実行するための手段を生成するために当該コンピュータ可読命令を実行すべく、ローカルに又はローカルエリアネットワーク(LAN)、インターネット等のようなワイドエリアネットワーク(WAN)を介して、汎用コンピュータ、特殊目的のコンピュータ、若しくは他のプログラム可能なデータ処理装置のプロセッサ、又はプログラマブル回路に提供されてよい。プロセッサの例としては、コンピュータプロセッサ、処理ユニット、マイクロプロセッサ、デジタル信号プロセッサ、コントローラ、マイクロコントローラ等を含む。
【0149】
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更又は改良を加えることが可能であることが当業者に明らかである。そのような変更又は改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。
【0150】
特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階などの各処理の実行順序は、特段「より前に」、「先立って」などと明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」などを用いて説明したとしても、この順で実施することが必須であることを意味するものではない。
【0151】
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更又は改良を加えることが可能であることが当業者に明らかである。そのような変更又は改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。
【0152】
特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階などの各処理の実行順序は、特段「より前に」、「先立って」などと明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」などを用いて説明したとしても、この順で実施することが必須であることを意味するものではない。
【符号の説明】
【0153】
1 人型ロボット、2 上半身部、3 脚部、4 連結部、5、6 腕部、7、8 車輪、10 制御システム、12 センサ、14 情報処理装置、20(20L、20R) 把持部、20A 掌側、20B 本体部、22A、22B、22C 指部、24(24X、24Y) 吸着パッド、24A パッド部、24B ニップル、26 掌センサ、100 荷物、50 ハンドツール、50A 第1関節部、50B 第1関節部、50C 第1関節部、50D 第1関節部、50E 第1関節部、50F 第1関節部、1200 コンピュータ、1210 ホストコントローラ、1212 CPU、1214 RAM、1216 グラフィックコントローラ、1218 ディスプレイデバイス、1220 入出力コントローラ、1222 通信インタフェース、1224 記憶装置、1230 ROM、1240 入出力チップ
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13