IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ ソフトバンクグループ株式会社の特許一覧

特開2024-82203ロボットの制御システム、情報管理プログラム、情報処理プログラム
<>
  • 特開-ロボットの制御システム、情報管理プログラム、情報処理プログラム 図1
  • 特開-ロボットの制御システム、情報管理プログラム、情報処理プログラム 図2
  • 特開-ロボットの制御システム、情報管理プログラム、情報処理プログラム 図3
  • 特開-ロボットの制御システム、情報管理プログラム、情報処理プログラム 図4
  • 特開-ロボットの制御システム、情報管理プログラム、情報処理プログラム 図5
  • 特開-ロボットの制御システム、情報管理プログラム、情報処理プログラム 図6
  • 特開-ロボットの制御システム、情報管理プログラム、情報処理プログラム 図7
  • 特開-ロボットの制御システム、情報管理プログラム、情報処理プログラム 図8
  • 特開-ロボットの制御システム、情報管理プログラム、情報処理プログラム 図9
  • 特開-ロボットの制御システム、情報管理プログラム、情報処理プログラム 図10
  • 特開-ロボットの制御システム、情報管理プログラム、情報処理プログラム 図11
  • 特開-ロボットの制御システム、情報管理プログラム、情報処理プログラム 図12
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024082203
(43)【公開日】2024-06-19
(54)【発明の名称】ロボットの制御システム、情報管理プログラム、情報処理プログラム
(51)【国際特許分類】
   B25J 13/08 20060101AFI20240612BHJP
【FI】
B25J13/08 A
【審査請求】未請求
【請求項の数】6
【出願形態】OL
(21)【出願番号】P 2023014884
(22)【出願日】2023-02-02
(31)【優先権主張番号】P 2022195944
(32)【優先日】2022-12-07
(33)【優先権主張国・地域又は機関】JP
(71)【出願人】
【識別番号】591280485
【氏名又は名称】ソフトバンクグループ株式会社
(74)【代理人】
【識別番号】110001519
【氏名又は名称】弁理士法人太陽国際特許事務所
(72)【発明者】
【氏名】孫 正義
【テーマコード(参考)】
3C707
【Fターム(参考)】
3C707BS26
3C707BS27
3C707CS08
3C707FS01
3C707FT11
3C707KS08
3C707KT01
3C707KT05
3C707WA16
(57)【要約】
【課題】把持部による対象物の位置の確認、掴み、及び把持の一連の作業を迅速かつ確実に行う。
【解決手段】把持部20に複数の吸着パッド24を取り付け、吸着パッド24は、荷物100を吸着し、指部22A、22B、22Cを曲げることにより、荷物100を掴む。掌センサ26で荷物100の情報を検出し、荷物把持点設定処理が実行され、荷物100の把持のための作業を選択する。例えば、荷物把持点設定処理の結果に基づき、「吸着」のみ、「掴み」のみ、「吸着」と「掴み」の併用等から選択し、設定した把持点に応じた、指部22A、22B、22Cの角度(開き度合い)を設定する。掌センサ26による外観に基づき、把持部20の指部22A、22B、22Cの角度を調整し、キューブデータに基づき、各指部22A、22B、22Cの把持点を特定することで、荷物100を安定して把持することが可能である。
【選択図】図4
【特許請求の範囲】
【請求項1】
対象物を把持部により把持する作業を実行するロボットの制御システムであって、
前記ロボットに搭載され前記ロボットの動作を制御する情報処理装置と、複数の前記ロボットの前記対象物の把持に関する情報を一括管理する情報管理サーバーと、を有し、
前記情報管理サーバーが、
前記ロボットによる把持を待機する前記対象物からキューブデータを生成する解析部と、
前記解析部で生成したキューブデータを、前記対象物を識別するID情報に紐付けて、データベースに格納し、前記情報処理装置からの前記ID情報に基づく要求に対して前記キューブデータを送出する送出部と、を有し
前記情報処理装置が、
情報管理サーバーに対して、掌センサ部から取得した前記ID情報に基づき前記データベースから前記キューブデータを取得するキューブデータ取得部と、
前記キューブデータ取得部で取得したキューブデータから前記対象物の把持点を設定する設定部と、を有する、
ロボットの制御システム。
【請求項2】
対象物を把持する把持部と、前記把持部に設けられ前記対象物を吸着する吸着パッドと、前記把持部に設けられ前記対象物の形状及び位置を含む対象物情報を検出する掌センサ部と、を備え、前記対象物を前記把持部により把持する作業を実行するロボットの制御システムであって、
前記ロボットに搭載され前記ロボットの動作を制御する情報処理装置と、複数の前記ロボットの前記対象物の把持に関する情報を一括管理する情報管理サーバーと、を有し、
前記情報管理サーバーが、
前記ロボットによる把持を待機する前記対象物を、互いの相対位置を特定する座標を持った複数のブロックに細分化し、当該複数のブロック毎に前記対象物の内部情報を含む属性情報が記録されたキューブデータを生成する解析部と、
前記解析部で生成したキューブデータを、前記対象物を識別するID情報に紐付けて、データベースに格納する格納部と、
前記情報処理装置からの前記ID情報に基づく要求に対して該当する前記キューブデータを検索して、送出する送出部と、を有し
前記情報処理装置が、
前記掌センサ部の検出結果に基づき、前記ID情報と、当該対象物との対峙状態情報を受け付ける掌センサ情報受付部と、
情報管理サーバーに対して、掌センサ情報受付部で受け付けた前記ID情報と前記対峙状態情報とに基づき前記キューブデータを要求することで、前記データベースから前記キューブデータを取得するキューブデータ取得部と、
前記キューブデータ取得部で取得したキューブデータから前記対象物の把持点を設定する設定部と、を有する、
ロボットの制御システム。
【請求項3】
前記情報処理装置が、
前記掌センサ部の検出結果に基づいて、前記対象物を把持する機能として、前記吸着パッドで吸着する第1機能、前記把持部で掴む第2機能、前記第1機能及び前記第2機能を併用する第3機能の何れかを選択して、前記対象物を把持する動作を制御する動作制御部をさらに有する、請求項2記載のロボットの制御システム。
【請求項4】
前記掌センサ部が、
前記対象物の画像を撮影して当該対象物の種類を識別するカメラと、前記対象物の位置を特定するモーションプロセシングユニットとを備える、請求項2記載のロボットの制御システム。
【請求項5】
コンピュータを、
請求項1又は請求項2記載の情報管理サーバーの各部として動作させる、情報管理プログラム。
【請求項6】
コンピュータを、
請求項1又は請求項2記載の情報処理装置の各部として動作させる、情報処理プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、ロボットの制御システム、情報管理プログラム、情報処理プログラムに関する。
【背景技術】
【0002】
工場の生産ラインにおいては作業を自動で行うための人型ロボットが使用されている。特許文献1には、人型ロボットの姿勢制御について記載されている。
【0003】
また、特許文献2には、弾性体アクチュエータで駆動されて複数の関節を有するロボットアームであって、ロボットアームの手先部に配設され支持面と接触することによりロボットアームを支持する手先支持部材と、手先支持部材と支持面との接触する力を制御すると同時にロボットアームの手先部の位置及び姿勢を制御する制御部により制御することが記載されている。
【先行技術文献】
【特許文献】
【0004】
【特許文献1】特開2019-093506号公報
【特許文献2】WO2011/001569公報
【発明の概要】
【発明が解決しようとする課題】
【0005】
しかしながら、従来の人型ロボットによる倉庫内でのピッキング作業において、例えば、荷物が陳列されている棚から当該荷物(シャンプーや、コンディショナー、化粧品、歯磨き粉、カップラーメン、菓子袋等の形状や重さ、硬さ、壊れやすさが違うもの)をピックアップし、所定の包装体(箱等)に収容してパッキングするような場面において、現状では人の手に頼っている。
【0006】
また、ロボットの把持部の構造をフィンガータイプとして対応しようとしても、指や腕の動きが遅いため、生産性が低い。
【0007】
本発明上記事実を考慮し、把持部による対象物の位置の確認、掴み、及び把持の一連の作業を迅速かつ確実に行うことができるロボットの制御システム、情報管理プログラム、情報処理プログラムを得ることが目的である。
【課題を解決するための手段】
【0008】
本発明に係るロボットの制御システムは、対象物を把持部により把持する作業を実行するロボットの制御システムであって、前記ロボットに搭載され前記ロボットの動作を制御する情報処理装置と、複数の前記ロボットの前記対象物の把持に関する情報を一括管理する情報管理サーバーと、を有し、前記情報管理サーバーが、前記ロボットによる把持を待機する前記対象物からキューブデータを生成する解析部と、前記解析部で生成したキューブデータを、前記対象物を識別するID情報に紐付けて、データベースに格納し、前記情報処理装置からの前記ID情報に基づく要求に対して前記キューブデータを送出する送出部と、を有し前記情報処理装置が、情報管理サーバーに対して、掌センサ部から取得した前記ID情報に基づき前記データベースから前記キューブデータを取得するキューブデータ取得部と、前記キューブデータ取得部で取得したキューブデータから前記対象物の把持点を設定する設定部と、を有している。
【0009】
本発明によれば、ロボットに搭載されロボットの動作を制御する情報処理装置と、複数のロボットの前記対象物の把持に関する情報を一括管理する情報管理サーバーと、が連携して、ロボットの動作(特に、対象物の把持動作)が制御される。
【0010】
すなわち、情報管理サーバーでは、ロボットによる把持を待機する対象物からキューブデータを生成し、生成したキューブデータを、対象物を識別するID情報に紐付けて、データベースに格納し、情報処理装置からのID情報に基づく要求に対して前記キューブデータを送出する。
【0011】
また、情報処理装置では、掌センサ部の検出結果に基づき、ID情報と、当該対象物との対峙状態情報を受け付け、情報管理サーバーに対して、ID情報に基づきキューブデータを要求することで、データベースからキューブデータを取得し、取得したキューブデータから対象物の把持点を設定する。
【0012】
これにより、把持部による対象物の位置の確認、掴み、及び把持の一連の作業を迅速かつ確実に行うことができる。
【0013】
本発明に係るロボットの制御システムは、対象物を把持する把持部と、前記把持部に設けられ前記対象物を吸着する吸着パッドと、前記把持部に設けられ前記対象物の形状及び位置を含む対象物情報を検出する掌センサ部と、を備え、前記対象物を前記把持部により把持する作業を実行するロボットの制御システムであって、前記ロボットに搭載され前記ロボットの動作を制御する情報処理装置と、複数の前記ロボットの前記対象物の把持に関する情報を一括管理する情報管理サーバーと、を有し、
前記情報管理サーバーが、前記ロボットによる把持を待機する前記対象物を、互いの相対位置を特定する座標を持った複数のブロックに細分化し、当該複数のブロック毎に前記対象物の内部情報を含む属性情報が記録されたキューブデータを生成する解析部と、前記解析部で生成したキューブデータを、前記対象物を識別するID情報に紐付けて、データベースに格納する格納部と、前記情報処理装置からの前記ID情報に基づく要求に対して該当する前記キューブデータを検索して、送出する送出部と、を有し、
前記情報処理装置が、前記掌センサ部の検出結果に基づき、前記ID情報と、当該対象物との対峙状態情報を受け付ける掌センサ情報受付部と、情報管理サーバーに対して、掌センサ情報受付部で受け付けた前記ID情報と前記対峙状態情報とに基づき前記キューブデータを要求することで、前記データベースから前記キューブデータを取得するキューブデータ取得部と、前記キューブデータ取得部で取得したキューブデータから前記対象物の把持点を設定する設定部と、を有している。
【0014】
本発明によれば、ロボットに搭載されロボットの動作を制御する情報処理装置と、複数のロボットの前記対象物の把持に関する情報を一括管理する情報管理サーバーと、が連携して、ロボットの動作(特に、対象物の把持動作)が制御される。
【0015】
すなわち、情報管理サーバーでは、ロボットによる把持を待機する対象物を、互いの相対位置を特定する座標を持った複数のブロックに細分化し、当該複数のブロック毎に対象物の内部情報を含む属性情報が記録されたキューブデータを生成し、生成したキューブデータを、対象物を識別するID情報に紐付けて、データベースに格納し、情報処理装置からのID情報に基づく要求に対して該当するキューブデータを検索して、送出する。
【0016】
また、情報処理装置では、掌センサ部の検出結果に基づき、ID情報と、当該対象物との対峙状態情報を受け付け、情報管理サーバーに対して、ID情報と対峙状態情報とに基づきキューブデータを要求することで、データベースからキューブデータを取得し、取得したキューブデータから対象物の把持点を設定する。
【0017】
これにより、把持部による対象物の位置の確認、掴み、及び把持の一連の作業を迅速かつ確実に行うことができる。
【0018】
本発明において、前記掌センサ部が、前記対象物の画像を撮影して当該対象物の種類を識別するカメラと、前記対象物の位置を特定するモーションプロセシングユニットとを備えることを特徴としている。
【0019】
カメラは、撮影した画像情報に基づき、撮影された対象物を識別する。すなわち、対象物の種類(形状、大きさ、硬さ等)を特定するための情報を取得する役目を有する。
【0020】
モーションプロセシングユニット(MoPU)は、物体の存在位置を示す点の、所定の座標軸に沿った動きのベクトル情報を動き情報として出力する。すなわち、MoPUから出力される動き情報には、対象物の中心点(又は重心点)の座標軸(x軸、y軸、z軸)上の動き(移動方向と移動速度)を示す情報のみが含まれている。すなわち、把持部が対象物に接近するときの軌跡を精度よく案内することができる。
【0021】
本発明において、前記情報処理装置が、前記掌センサ部の検出結果に基づいて、前記対象物を把持する機能として、前記吸着パッドで吸着する第1機能、前記把持部で掴む第2機能、前記第1機能及び前記第2機能を併用する第3機能の何れかを選択して、前記対象物を把持する動作を制御する動作制御部をさらに有している。
【0022】
動作制御部が、掌センサの検出結果に基づいて、対象物を把持する機能として、吸着パッドで吸着する第1機能、把持部で掴む第2機能、第1機能及び前記第2機能を併用する第3機能の何れかを選択して、対象物を把持する動作を制御する。
【0023】
これにより、把持部による対象物(以下、荷物という場合がある。)の位置の確認、掴み、及び把持の一連の作業を迅速かつ確実に行うことができる。
【0024】
本発明に係る情報管理プログラムは、コンピュータを、上記情報管理サーバーの各部として動作させることを特徴としている。
【0025】
本発明に係る情報処理プログラムは、コンピュータを、上記情報処理装置の各部として動作させることを特徴としている。
【0026】
なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。
【発明の効果】
【0027】
以上説明したように本発明によれば、把持部による荷物の位置の確認、掴み、及び把持の一連の作業を迅速かつ確実に行うことができるという効果を奏する。
【図面の簡単な説明】
【0028】
図1】本実施の形態に係る人型ロボットの正面図である。
図2】本実施の形態に係る人型ロボットの側面図である。
図3】(A)は本実施の形態に係る把持部の掌側の正面図、(B)は把持部に取り付けた吸着パッドの斜視図である。
図4】(A)は本実施の形態に係る把持部の斜視図、(B)は変形例に係る把持部の斜視図である。
図5】(A)は本実施の形態に係る人型ロボットの機能構成(制御系)のブロック図、(B)は図5(A)の情報処理装置で実行される処理機能の内、荷物把持点設定機能に特化した機能ブロック図である。
図6】本実施の形態に係る情報処理装置によって実行される処理ルーチンを示す制御フローチャートである。
図7図4の人型ロボットの全体の動作に連動し、把持部によって荷物を把持する際の把持制御の手順を示すフローチャートである。
図8図7のステップ157における、荷物把持点設定処理サブルーチンの詳細を示す制御フローチャートである。
図9】本実施の形態に係る荷物集配サイトに設置された解析装置の概略図、及び解析装置から受け付けた情報に基づいて生成されたキューブデータを管理する情報管理サーバーの機能ブロック図である。
図10】荷物の種類に応じた、可視画像と、X線センサによる検出画像との対応関係を比較図である。
図11】情報処理装置として機能するコンピュータハードウェアの一例を概略的に示す図である。
図12】(A)本実施の形態で適用されるキューブデータの概念を可視化して示した概略構成図、(B)は各ブロックの座標毎に分類された属性情報を示す図表である。
【発明を実施するための形態】
【0029】
以下、発明の実施の形態を通じて本発明を説明するが、以下の実施の形態は特許請求の範囲に係る発明を限定するものではない。また、実施の形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。
【0030】
図1は本実施の形態に係る人型ロボットの正面図である。図1に示すように、本実施の形態に係る人型ロボット1は、上半身部2、脚部3、および上半身部2を脚部3に対して回動可能に連結する連結部4を備え、例えば工場の生産ライン等に配置されて、ピッキング対象物である荷物100等が陳列されている棚を含むライン上、又は床上の対象物(落下物等)に対して作業を行うものである。なお、作業は、棚から荷物100を把持するピッキング以外に、把持した荷物100を所定の筐体(ダンボール等)に収容するパッキングを含む。
【0031】
上半身部2は2本の腕部5、6を有する。腕部5、6は上半身部2の左右に回動自在に取り付けられている。また、腕部5、6の先端には荷物100を把持するための把持部20(詳細後述)が取り付けられている。なお、腕部は2本に限定されるものではなく、1本あるいは3本以上であってもよい。
【0032】
脚部2は2つの車輪7、8がその下部に取り付けられており、人型ロボット1が配置される床の上を移動可能とされている。
【0033】
連結部4は、上半身部2と脚部3を回動可能に連結する。このため、上半身部2は、脚部3に対して前傾および後傾が可能となっている。このため、本実施の形態に係る人型ロボット1は、図2に示すように、脚部3に対して上半身部2を前傾させて、棚に置かれた荷物100や、床に置かれていたり、作業中に床に落ちたりした荷物100を拾うことが可能である。
【0034】
なお、脚部2は、上半身部2が脚部3に対して前傾または後傾したり、人型ロボット1が移動したりした際に、人型ロボット1が転倒しないようにするためのバランス機能を有する。
【0035】
また、連結部4は、図1に示すように上半身部2と脚部3との距離を変更可能な機能を有する。このため、生産ラインにおける作業台の高さに合うように、脚部3に対する上半身部2の上下方向の位置を矢印Aに示すように調整することができる。
【0036】
また、本実施の形態に係る人型ロボット1は、人型ロボット1内に実装された制御システム10によりその駆動が制御される。
【0037】
(把持部20の構造)
図3(A)に示される如く、腕部5、6の先端に取り付けられた把持部20は、人間と同様の手の構造とされ、把持部20は、腕部5、6に対して、回転自在に取り付けられている(Intelligent Hand System)。
【0038】
本実施の形態に示す把持部20は、各々複数の関節を備えた3本の指部22A、22B、22Cを有している。本実施の形態では、この3本指構造は、図4(A)に示される如く、右手及び左手共に同一としているが、図4(B)に示される如く、5本指構造であってもよい。
【0039】
把持部20の掌側20Aには、複数(本実施の形態では、3個)の吸盤パッド24が取り付けられている。
【0040】
また、3本の指部22A、22B、22Cには、関節部を境界として、各々、複数(本実施の形態では2個)の吸盤パッド24が取り付けられている。
【0041】
さらに、本実施の形態の把持部20の掌側20Aには、掌センサ26が取り付けられている。掌センサ26は、荷物100の種類を識別する高解像度カメラ、及び、荷物100の位置を特定するMoPU(Motion Processing Unit)を備えている。
【0042】
図3(B)に示される如く、吸盤パッド24は、荷物100を把持するときに対峙させるゴム製のパッド部24Aと、パッド部24Aと荷物100との密着により形成される密閉空間のエアーを吸引する空気流路を形成するニップル24Bとで構成されている。
【0043】
すなわち、本実施の形態の吸盤パッド24は、エアー吸着構造であり、ニップル24Bに設けられた孔24Cから、密閉空間内の空気を吸引して真空(ほぼ真空を含む)することで、吸着力を持つ。なお、吸盤パッド24は、エアー吸着構造に限らず、単純にパッド部24Aの変形による密閉空間の容積を変化させて吸着させる構造であってもよい。
【0044】
(掌センサ26の詳細)
本実施の形態の掌センサ26を構成する高解像度カメラは、撮影した画像情報に基づき、撮影された荷物100が何であるかシャンプー、コンディショナー、化粧品、歯磨き粉等のケア商品なのか、又は、カップラーメン、菓子袋等の食品なのかを識別する。
【0045】
言い換えると、高解像度カメラは、荷物100の種類(形状、大きさ、硬さ等)を特定するための情報を取得する役目を有する。
【0046】
一方、高解像度カメラと共に、本実施の形態の掌センサ26を構成するMoPUは、1000フレーム/秒以上のフレームレートで撮影された荷物100の画像から、撮影された荷物100の動き(この場合、腕部5、6との間の相対的な動きとなる。)を示す動き情報を、例えば1000フレーム/秒以上のフレームレートで出力する。なお、移動中の荷物100を検知する場合、フレームレートを上げて、固定物(移動しない荷物100)を検知する場合、フレームレートを下げるようにしてもよい。
【0047】
MoPUは、荷物100の存在位置を示す点の、所定の座標軸に沿った動きのベクトル情報を動き情報として出力する。すなわち、MoPUから出力される動き情報には、撮影された荷物100が何であるか(上記ケア商品、食品)を識別するために必要な情報は含まれておらず、当該荷物100の中心点(又は重心点)の座標軸(x軸、y軸、z軸)上の動き(移動方向と移動速度)を示す情報のみが含まれている。
【0048】
すなわち、把持部20が荷物100に接近するときの軌跡を精度よく案内することができる。
【0049】
高解像度カメラ及びMoPUを含む掌センサ26から出力された情報は、情報処理装置14に供給される。
【0050】
人型ロボット1が搭載する情報処理装置14(図5(A)参照)は、高解像度カメラ及びMoPUを含む掌センサ26からの情報により、高精度に荷物100の位置を特定し、把持するときの指部22A、22B、22Cの広がり度合い、掴むときの強度、及び吸盤パッド24による吸着力等を演算し、腕部5、6及び把持部20の微小な動きを、精度よくコントロールし、様々な荷物100のピッキング作業に対応することができる。
【0051】
図5(A)は、本実施の形態に係る人型ロボットの制御システム10の概略図である。制御システム10は、人型ロボットに搭載されるセンサ12と、高解像度カメラ及びMoPUを含む掌センサ26と、情報処理装置14とを備えている。
【0052】
センサ12は、人型ロボット1の周辺にある、人型ロボット1が作業する荷物100と腕部5、6との距離および角度を少なくとも表す情報を逐次取得することが主体であり、前述した掌センサ26とは異なり、人型ロボット1自身の動作に関わる情報を取得する。
【0053】
センサ12としては、最高性能のカメラ、ソリッドステートLiDAR、マルチカラーレーザ同軸変位計、又はその他様々なセンサ群が採用され得る。また他には、センサ12の機能として、振動計、サーモカメラ、硬度計、レーダー、LiDAR、高画素・望遠・超広角・360度・高性能カメラ等が挙げられ、機能として、ビジョン認識、微細音、超音波、振動、赤外線、紫外線、電磁波、温度、湿度、重量、スポットAI天気予報、高精度マルチチャネルGPS、低高度衛星情報、又はロングテールインシデントAI dataを検出し得るセンサ等が挙げられる。
【0054】
なお、センサ12は、上記の情報のほかに、画像、距離、振動、熱、匂い、色、音、超音波、紫外線、又は赤外線等を検知する。他にセンサ12が検知する情報としては、人型ロボット1の重心移動、人型ロボット1が設置される床の材質の検知、外気温度の検知、外気湿度の検知、床の上下横斜め傾き角度の検知、水分量の検知等が挙げられる。
【0055】
センサ12は、これらの検知を例えばナノ秒毎に実施する。
【0056】
掌センサ26(高解像度カメラ及びMoPU)は、腕部5、6の把持部20に設けられるセンサであり、センサ12とは別に、荷物100を撮影するカメラ機能、及び、荷物100位置を特定する位置特定機能を有する。
【0057】
なお、1つのMoPU12を用いた場合には、の荷物100の存在位置を示す点の、三次元直交座標系における2つの座標軸(x軸及びy軸)の各々に沿った動きのベクトル情報を取得することが可能である。ステレオカメラの原理を利用して、2つのMoPU12を用いて、の荷物100の存在位置を示す点の、三次元直交座標系における3つの座標軸(x軸、y軸、z軸)の各々に沿った動きのベクトル情報を出力してもよい。z軸は、奥行方法(車両の走行)に沿った軸である。
【0058】
情報処理装置14は、情報取得部140と、制御部142と、情報蓄積部144とを備えている。
【0059】
情報取得部140は、センサ12及び掌センサ26(高解像度カメラ及びMoPU)によって検知された荷物100の情報を取得する。
【0060】
制御部142は、情報取得部140がセンサ12から取得した情報とAI(Artificial intelligence)とを用いて、連結部4の回動動作、上下方向の移動動作および腕部5、6の動作等を制御する。
【0061】
また、制御部142は、情報取得部140が掌センサ26(高解像度カメラ及びMoPU)から取得した情報を用いて、荷物100の種類(形状、大きさ、硬さ等)及び位置を詳細に把握し、当該外形や位置に応じて、掌側20Aを対峙させ、吸着パッド24により吸着し、かつ、3本の指部22A、22B、22Cで掴むように制御する(把持制御)。なお、外形情報に基づいて、対象物(荷物100)の種類を把握して把持制御(「吸着」のみ、「掴み」のみ、「吸着」と「掴み」の併用等)を選択してもよい。
【0062】
例えば、制御部142は、全体の動作として、以下の各処理を実行する。
(1)棚及び床にある荷物100を拾い上げることが可能なように連結部4を駆動して、上半身部2を前傾または後傾させる。
(2)荷物100をつかむことが可能なように腕部5、6および把持部を駆動する。
(3)生産ラインの作業台の高さに合うように、上半身部2を脚部3に対して上下に駆動する。
(4)人型ロボット1の転倒を防ぐために、バランスを取る。
(5)人型ロボット1がカート等を押し進めることができるように、車輪7、8の駆動を制御する。
【0063】
情報処理装置14は、例えば、床にある荷物100を拾う場合、図6に示されているフローチャートを繰り返し実行する。
【0064】
ステップS100において、情報取得部140は、センサ12によって検知された荷物100の情報を取得する。
【0065】
ステップS102において、制御部142は、ステップS100で取得された荷物100に関する情報とAIとを用いて、連結部4および腕部5、6を制御することにより、床にある荷物100を拾い上げる。
【0066】
ステップS104において、制御部142は、拾った荷物100を所定位置へ移動する。
【0067】
本実施の形態によれば、人型ロボット1は、上半身部2、脚部3および上半身部2と脚部3とを回動自在に連結する連結部4を備える。また、センサ12が取得した情報に基づいて連結部4の回動を制御するようにした。このため、人型ロボット1と荷物100との距離や角度を判断することができ、これにより、床にある荷物100を拾い上げるような動作を行うことができる。
【0068】
また、連結部4は上半身部2と脚部3との距離を変更可能であるため、生産ラインにおける作業台の高さに合うように、脚部3に対する上半身部2の上下方向の位置を調整することができる。
【0069】
また、脚部2は、上半身部2が脚部3に対して前傾または後継した際に、人型ロボット1が転倒しないようにするためのバランス機能を有する。このため、生産ラインにある荷物100を押したり引いたりする作業を行った際の人型ロボット1の転倒を防止できる。したがって、転倒による人型ロボット1の故障、あるいは人型ロボット1の周囲にいる人物の怪我等を防止することができる。
【0070】
(荷物100の把持制御)
ここで、本実施の形態に係る情報処理装置14では、荷物100の把持制御において、荷物100の内部の状況に応じて、最適な把持点を設定し、例えば、把持した後の脱落、滑り、走行中のがたつき等を抑制するようにした。
【0071】
すなわち、荷物100を把持する前に、荷物100に関する情報を管理する情報管理サーバー60(図9参照、詳細後述)から、荷物100の内部の状況を示すキューブデータを受け取って、当該キューブデータから、荷物100の内部情報を推定して、把持点を設定するようにした。
【0072】
キューブデータとは、図12に示される如く、三次元グリッドG上に、集合体である荷物100の形状を、細かいブロック(キューブ)CBで構成したものである(図12(A)の斜線参照)。1つの集合体(荷物100)の中で、互いの相対位置を特定する座標を持っており、当該座標に応じて配置すると、荷物100の外形に基づく三次元形状に組み付けられるものである。また、キューブデータは、それぞれ三次元モデルデータ(例えば、ポリゴンデータ)の外形だけでなく、図12(B)に示される如く、各ブロックCBの座標を識別情報として、内部構造、使用する材料、接合強度、重さ等の様々な属性情報が記録されている。従って、キューブデータは、単純に外観(輪郭)を示すポリゴンデータとは異なり、内部の状態が認識可能な情報である。なお、ブロックCBは、荷物100の一部を示している。
【0073】
以下に、荷物100のキューブデータに基づき把持点を設定する場合を例示する。なお、以下の例示以外にキューブデータを用いた把持点設定を否定するものではない。
【0074】
(例示1) 荷物100の外形を正確に把握する。
例えば、掌センサ26(高解像度カメラ及びMoPU)による画像情報から荷物100の外形は認識可能であるが、吸着パッド24で吸着する点の表面について認識できない場合がある。例えば、細かい凹凸があり、吸着パッド24の吸着力が低下するため、表面が平坦であることが好ましい。この場合、荷物100の輪郭部分に位置するキューブデータから材質を読み出し、平坦の領域を検索し、把持点とする。
【0075】
(例示2) 荷物100の重心を正確に把握する。
荷物100が包装されている場合に、内容部が必ずしも中央に収容されているとは限らず、外形だけで把持点を設定すると、所謂片持ち状態となり、安定した把持ができない場合がある。そこで、キューブデータ全体の重さ分布に基づき重心位置を演算し、バランスのよい把持点を設定する。例えば、当該重心位置が複数の把持点を結ぶ線上となるように把持点を設定する。
【0076】
(例示3) 荷物100の硬さ(特に、外観の硬さ)を正確に把握する。
荷物100を把持するとき、比較的硬くて平坦であれば、吸着パッド24による把持が有効であり、比較的柔らかく凹凸があれば、指22による掴みが有効である。
【0077】
一方、包装材が薄い場合、吸着パッド24の吸着であっても、指22による掴みであっても、その把持力が重要になる。
【0078】
そこで、キューブデータに基づいて、基本的な手順で把持点を設定すると共に、荷物100の内部の属性情報に基づいて、適正な把持力での把持が可能な把持点を調整(変更)する。
【0079】
なお、キューブデータの各ブロックを、記録された属性情報を含めて、ボクセルという場合がある。
【0080】
ボクセルとは三次元的な画素値である。二次元的な画素値であるピクセルを平面的に配置することで、画像を形成するように、三次元的な画素値であるボクセルを立体的に配置することで、物体を形成する。
【0081】
図5(B)は、情報処理装置14で実行される処理機能の内、荷物把持点設定機能に特化した機能ブロック図である。
【0082】
情報処理装置14は、荷物把持点設定機能として掌センサ情報受付部62を備える。
【0083】
掌センサ情報受付部62では、掌センサ26から把持しようとする荷物100の外観画像情報を受け付け(図9参照)、荷物ID読取部64及び輪郭解析部66へ送出する。
【0084】
荷物ID読取部64では、荷物100の外観画像から、荷物100に貼り付けられているラベル等から、荷物100を識別するためのID情報である荷物IDを読み取る。荷物IDは、予め情報管理サーバー60(図9参照)に記憶されている荷物の内容に関する情報(キューブデータ、送り主、送り先等))と紐付けられている。
【0085】
荷物ID読取部64は、荷物ID送信部68に接続され、読み取った荷物IDを荷物ID送信部68へ送出する。
【0086】
荷物ID送信部68では、荷物IDを情報管理サーバー60(図9参照)へ送出する。
【0087】
受信部70は、当該荷物ID送信部68による荷物IDの送信の応答として、キューブデータを受け取り、輪郭照合部72へ送出する。
【0088】
すなわち、荷物ID送信部68及び受信部70が、荷物IDに基づきキューブデータを取得するためのキューブデータ取得部として機能する。
【0089】
一方、輪郭解析部66では、掌センサ26からの荷物100の外観画像に基づいて、人型ロボット1に対峙している状態の荷物100の輪郭を解析し、輪郭照合部72へ送出する。
【0090】
輪郭照合部72では、荷物100の外観の向きを、人型ロボット1の対峙状態での向きと、データ上の向きとを考慮した照合が実行され、内部情報推定部74へ送出される。
【0091】
内部情報推定部74では、キューブデータの各ボクセルの属性情報に基づいて、荷物100の重量、材質、重心位置等を推定する。
【0092】
内部情報推定部74は、把持点設定部76に接続されており、この把持点設定部76へ前記荷物100の重量、材質、重心位置等の推定情報を送出する。
【0093】
把持点設定部76では、推定情報に基づいて、把持点を設定する。例えば、把持点はなるべく平坦で硬い方が好ましく、重心位置に近い位置が好ましい。
【0094】
把持点設定部76は、把持実行部78に接続されており、把持実行部78では、把持点設定部76で設定した把持点に基づいて、荷物100の把持が実行される。
【0095】
(作業実行サイト)
図9に示される如く、荷物100は、荷物集配サイト及びピッキングサイトによって作業が実行される。
【0096】
荷物集配サイトでは、コンベア装置50が設けられている。コンベア装置50のベルト50Aは、図示しない駆動力で、図9の矢印A方向に移動しており、荷物100が順次、図9の左から右へと搬送され、荷物100を所定の棚に収容する等の集配作業が実行される。
【0097】
一方、ピッキングサイトでは、人型ロボット1が、荷物集配サイトで棚等に収容された荷物100をピッキングして、搬送や梱包等の作業を実行する。
【0098】
荷物集配サイトのコンベア装置50には、X線解析装置52が設置されている。
【0099】
X線解析装置52は、筐体の上部(ベルト50Aよりも上側)にX線発生装置54が配置され、筐体の下部(ベルト50Aよりも下側にX線ラインセンサ56が配置されている。
【0100】
X線発生装置54及びX線ラインセンサ56は、それぞれコントローラ58に接続され、荷物100が検査位置に到達すると、コントローラ58の指示により、X線発生装置54からX線を照射し、荷物100を通過したX線をX線ラインセンサ56で検出する。
【0101】
コントローラ58では、X線ラインセンサ56による検出情報(X線画像情報)を、荷物100を識別するID(荷物1D)と紐付けて、一時的に記憶する。
【0102】
図10は、荷物100の種類に応じた、可視画像と、X線センサ27による検出画像との対応関係を比較図である。
【0103】
図10では、食品トレイ、スパウトパウチ、真空パック、缶詰、及びPTP(プレススルーパッケージ)を例示しているが、何れにおいても、質量の大きい(比重の大きい)部分がX線画像として表示されるため、可視画像に比べて、重量、材質、重心位置等、キューブデータの各ボクセルに記録するデータの解析が容易となる。
【0104】
なお、図10において例示した荷物100以外(例えば、ダンボールで梱包された荷物100であり、当該ダンボール内部の品物の位置等)でも、X線センサ27による画像は、重心位置の解析において有効である。ダンボールを含めて荷物100であるが、内部の一部に本来の商品が存在し、その他が空間になっている場合がある。このような場合、X線センサによる画像情報は、内部の商品の位置を把握することができる。
【0105】
また、本実施の形態では、荷物100の内部を、X線解析装置52を用いて解析したが、赤外線解析装置等、他の内部検査デバイスを用いてもよい。
【0106】
(情報管理サーバー60)
X線解析装置52のコントローラ58は、情報管理サーバー60と接続されており、コントローラ58に一時的に記憶した荷物IDとX線画像情報とを情報管理サーバー60へ送信する。
【0107】
情報管理サーバー60は、情報収集制御部80と、情報提供制御部82とを備えている。
【0108】
「情報収集制御部80」
情報収集制御部80は、情報受付部84を備え、前記コントローラ58に一時的に記憶した荷物IDとX線画像情報を受け付ける。
【0109】
情報受付部84は、解析部86に接続され、受け付けた荷物IDとX線画像情報を解析部86へ送出する。
【0110】
解析部86では、X線画像情報を解析して、キューブデータを生成する。生成したキューブデータは、荷物IDと紐付けられたキューブデータとしてデータベース88に格納される。
【0111】
データベース88は、送出部89に接続され、後述する情報提供制御部82からの要求に基づいて、荷物IDに紐付けられたキューブデータを送出する。なお、データベース88は、情報管理サーバー60に設けることは必須ではなく、外部のストレージを利用してもよい。
【0112】
「情報提供制御部82」
情報提供制御部82は、受信部90を備え、図5(B)の荷物ID送信部68から送信される要求信号を受信する。受信部90は、荷物ID抽出部92に接続され、送信された要求信号から荷物IDを抽出し、キューブデータ読出部94へ送出する。
【0113】
キューブデータ読出部94は、情報収集制御部80の送出部89を介して、データベース88から、荷物IDを検索条件としてキューブデータを読み出し、送信部96へ送出する。
【0114】
送信部96では、キューブデータを、図5(B)の受信部70へ送出する。
【0115】
キューブデータを受け取った、人型ロボット1の情報処理装置14では、これから把持する荷物100のIDとの照合により、当該荷物100の把持点を設定する。
【0116】
図7は、図4の人型ロボット1の全体の動作に連動し、情報処理装置14で実行される、把持部20によって荷物100を把持する際の把持制御の手順を示すフローチャートである。
【0117】
ステップ150では、荷物100の把持の指示があったか否かを判断し、肯定判定されると、ステップ152へ移行して、人型ロボット1を移動させ(例えば、腕部5、6を動作させ)、対象の荷物100に掌側20Aを対峙させ、ステップ154へ移行する。
【0118】
ステップ154では、掌側20Aを対向させて、荷物100の情報を検出する。
【0119】
次のステップ156では、掌センサ26(高解像度カメラ及びMoPU)による検出情報を解析して、荷物100の種類(形状、大きさ、硬さ等)及び位置を詳細に把握し、ステップ157へ移行する。
【0120】
ステップ157では、荷物把持点設定処理(図8参照、詳細後述)が実行され、ステップ158へ移行する。
【0121】
ステップ158では、荷物100の把持のための作業を選択する。例えば、ステップ157における荷物把持点設定処理の結果に基づき、「吸着」のみ、「掴み」のみ、「吸着」と「掴み」の併用等から選択し、次いで、ステップ160へ移行して、設定した把持点に応じた、指部22A、22B、22Cの角度(開き度合い)を設定し、ステップ162へ移行する。
【0122】
すなわち、掌センサ26による外観に基づき、把持部20の指部22A、22B、22Cの角度を調整し、キューブデータに基づき、各指部22A、22B、22Cの把持点を特定することで、荷物100を安定して把持することが可能である。
【0123】
なお、X線センサ27では、軽いものは検出できないというデメリットがあった。しかし、荷物100の重量がしきい値以上か否かを判断するというメリットとして活かすことで、「掴む」動作の要否の判定に用いることができる。
【0124】
ステップ162では、荷物100の把持(「吸着」のみ、「掴み」のみ、「吸着」と「掴み」)を実行する。
【0125】
次のステップ164では、荷物100の把持が成功したか否かを判定し、肯定判定された場合は、把持した荷物100を所定の場所へ運び、ステップ150へ移行して、次の荷物100の把持の指示を待つ。
【0126】
また、ステップ164で否定判定された場合は、ステップ166へ移行して、エラー処理(例えば、リトライ又はキャンセル等)を実行し、ステップ150へ戻る。
【0127】
図8は、図7のステップ157における荷物把持点設定処理サブルーチンを示す制御フローチャートである。
【0128】
ステップ170では、掌センサ26の検出情報に基づき、荷物IDを読み取り、次いで、ステップ172へ移行して掌センサ26の検出情報に基づき、荷物100の輪郭を認識する。
【0129】
次のステップ174では、荷物IDを情報管理サーバーへ送信する(キューブデータの要求)。
【0130】
次のステップ176では、キューブデータを受信したか否かを判断し、肯定判定されると、ステップ178へ移行して、人型ロボット1と対峙している荷物100の向きと、キューブデータ上の荷物の向きとを照合し、ステップ180へ移行する。
【0131】
ステップ180では、キューブデータを解析し(各ボクセルに記録された情報を連携し)、内部情報を推定する。例えば、荷物100の重量、材質、重心位置等を推定する。
【0132】
次のステップ182では、荷物100の把持点を設定する。この設定は、例えば、吸着に適している平坦な場所、吸着力が強い硬い場所、重心位置に近い位置等が設定され、図7のステップ158へリターンする。
【0133】
以上、本実施の形態によれば、把持部20に3本の指部22A、22B、22Cを設け、把持部20の掌側20Aと、指22A、22B、22Cに、複数の吸着パッド24を取り付け、吸着パッド24は、例えば、エアー吸着構造で、荷物100を吸着し、かつ、指部22A、22B、22Cを曲げることにより、荷物100を掴むことができる。
【0134】
掌側20Aには、高解像度カメラ及びMoPUを含む掌センサ26を取り付け、上記の構造の把持部20を人型ロボット1の腕部5、6に装着することにより、吸着面によりモノを確実にピックすることができ、人型ロボット1の動きが早くても荷物100を把持部20から落とさずに運ぶことができる。
【0135】
また、掌センサ26(高解像度カメラ及びMoPU)が掌側20Aに搭載されているので、高精度に荷物100を捉えることができ、微小な動きをする作業にも対応することができる。
【0136】
さらに、非常に柔らかく壊れやすいものは、吸着パッド24を使わずに、指22A、22B、22Cの動きにより掴むこともできるし、掴む力を調整することにより、柔らかい荷物100の破損等を防止することかできる。
【0137】
なお、本実施の形態では、キューブデータを、荷物集配サイトのX線解析装置52から情報に基づいて情報管理サーバー60で生成するようにしたが、情報管理サーバー60のデータベースに予め荷物ID-キューブデータのデータベースを格納しておいてもよい。
【0138】
図11は、情報処理装置14として機能するコンピュータ1200のハードウェア構成の一例を概略的に示す。コンピュータ1200にインストールされたプログラムは、コンピュータ1200を、本実施の形態に係る装置の1又は複数の「部」として機能させ、又はコンピュータ1200に、本実施の形態に係る装置に関連付けられるオペレーション又は当該1又は複数の「部」を実行させることができ、および/又はコンピュータ1200に、本実施の形態に係るプロセス又は当該プロセスの段階を実行させることができる。そのようなプログラムは、コンピュータ1200に、本明細書に記載のフローチャートおよびブロック図のブロックのうちのいくつか又は全てに関連付けられた特定のオペレーションを実行させるべく、CPU1212によって実行されてよい。
【0139】
本実施の形態によるコンピュータ1200は、CPU1212、RAM1214、およびグラフィックコントローラ1216を含み、それらはホストコントローラ1210によって相互に接続されている。コンピュータ1200はまた、通信インタフェース1222、記憶装置1224、DVDドライブ、およびICカードドライブのような入出力ユニットを含み、それらは入出力コントローラ1220を介してホストコントローラ1210に接続されている。DVDドライブは、DVD-ROMドライブおよびDVD-RAMドライブ等であってよい。記憶装置1224は、ハードディスクドライブおよびソリッドステートドライブ等であってよい。コンピュータ1200はまた、ROM1230およびキーボードのような入出力ユニットを含み、それらは入出力チップ1240を介して入出力コントローラ1220に接続されている。
【0140】
CPU1212は、ROM1230およびRAM1214内に格納されたプログラムに従い動作し、それにより各ユニットを制御する。グラフィックコントローラ1216は、RAM1214内に提供されるフレームバッファ等又はそれ自体の中に、CPU1212によって生成されるイメージデータを取得し、イメージデータがディスプレイデバイス1218上に表示されるようにする。
【0141】
通信インタフェース1222は、ネットワークを介して他の電子デバイスと通信する。記憶装置1224は、コンピュータ1200内のCPU1212によって使用されるプログラムおよびデータを格納する。DVDドライブは、プログラム又はデータをDVD-ROM等から読み取り、記憶装置1224に提供する。ICカードドライブは、プログラムおよびデータをICカードから読み取り、および/又はプログラムおよびデータをICカードに書き込む。
【0142】
ROM1230はその中に、アクティブ化時にコンピュータ1200によって実行されるブートプログラム等、および/又はコンピュータ1200のハードウェアに依存するプログラムを格納する。入出力チップ1240はまた、様々な入出力ユニットをUSBポート、パラレルポート、シリアルポート、キーボードポート、マウスポート等を介して、入出力コントローラ1220に接続してよい。
【0143】
プログラムは、DVD-ROM又はICカードのようなコンピュータ可読記憶媒体によって提供される。プログラムは、コンピュータ可読記憶媒体から読み取られ、コンピュータ可読記憶媒体の例でもある記憶装置1224、RAM1214、又はROM1230にインストールされ、CPU1212によって実行される。これらのプログラム内に記述される情報処理は、コンピュータ1200に読み取られ、プログラムと、上記様々なタイプのハードウェアリソースとの間の連携をもたらす。装置又は方法が、コンピュータ1200の使用に従い情報のオペレーション又は処理を実現することによって構成されてよい。
【0144】
例えば、通信がコンピュータ1200および外部デバイス間で実行される場合、CPU1212は、RAM1214にロードされた通信プログラムを実行し、通信プログラムに記述された処理に基づいて、通信インタフェース1222に対し、通信処理を命令してよい。通信インタフェース1222は、CPU1212の制御の下、RAM1214、記憶装置1224、DVD-ROM、又はICカードのような記録媒体内に提供される送信バッファ領域に格納された送信データを読み取り、読み取られた送信データをネットワークに送信し、又はネットワークから受信した受信データを記録媒体上に提供される受信バッファ領域等に書き込む。
【0145】
また、CPU1212は、記憶装置1224、DVDドライブ(DVD-ROM)、ICカード等のような外部記録媒体に格納されたファイル又はデータベースの全部又は必要な部分がRAM1214に読み取られるようにし、RAM1214上のデータに対し様々なタイプの処理を実行してよい。CPU1212は次に、処理されたデータを外部記録媒体にライトバックしてよい。
【0146】
様々なタイプのプログラム、データ、テーブル、およびデータベースのような様々なタイプの情報が記録媒体に格納され、情報処理を受けてよい。CPU1212は、RAM1214から読み取られたデータに対し、本発明の随所に記載され、プログラムの命令シーケンスによって指定される様々なタイプのオペレーション、情報処理、条件判断、条件分岐、無条件分岐、情報の検索/置換等を含む、様々なタイプの処理を実行してよく、結果をRAM1214に対しライトバックする。また、CPU1212は、記録媒体内のファイル、データベース等における情報を検索してよい。例えば、各々が第2の属性の属性値に関連付けられた第1の属性の属性値を有する複数のエントリが記録媒体内に格納される場合、CPU1212は、当該複数のエントリの中から、第1の属性の属性値が指定されている条件に一致するエントリを検索し、当該エントリ内に格納された第2の属性の属性値を読み取り、それにより予め定められた条件を満たす第1の属性に関連付けられた第2の属性の属性値を取得してよい。
【0147】
上で説明したプログラム又はソフトウエアモジュールは、コンピュータ1200上又はコンピュータ1200近傍のコンピュータ可読記憶媒体に格納されてよい。また、専用通信ネットワーク又はインターネットに接続されたサーバシステム内に提供されるハードディスク又はRAMのような記録媒体が、コンピュータ可読記憶媒体として使用可能であり、それによりプログラムを、ネットワークを介してコンピュータ1200に提供する。
【0148】
本実施の形態におけるフローチャートおよびブロック図におけるブロックは、オペレーションが実行されるプロセスの段階又はオペレーションを実行する役割を持つ装置の「部」を表してよい。特定の段階および「部」が、専用回路、コンピュータ可読記憶媒体上に格納されるコンピュータ可読命令と共に供給されるプログラマブル回路、および/又はコンピュータ可読記憶媒体上に格納されるコンピュータ可読命令と共に供給されるプロセッサによって実装されてよい。専用回路は、デジタルおよび/又はアナログハードウェア回路を含んでよく、集積回路(IC)および/又はディスクリート回路を含んでよい。プログラマブル回路は、例えば、フィールドプログラマブルゲートアレイ(FPGA)、およびプログラマブルロジックアレイ(PLA)等のような、論理積、論理和、排他的論理和、否定論理積、否定論理和、および他の論理演算、フリップフロップ、レジスタ、並びにメモリエレメントを含む、再構成可能なハードウェア回路を含んでよい。
【0149】
コンピュータ可読記憶媒体は、適切なデバイスによって実行される命令を格納可能な任意の有形なデバイスを含んでよく、その結果、そこに格納される命令を有するコンピュータ可読記憶媒体は、フローチャート又はブロック図で指定されたオペレーションを実行するための手段を作成すべく実行され得る命令を含む、製品を備えることになる。コンピュータ可読記憶媒体の例としては、電子記憶媒体、磁気記憶媒体、光記憶媒体、電磁記憶媒体、半導体記憶媒体等が含まれてよい。コンピュータ可読記憶媒体のより具体的な例としては、フロッピー(登録商標)ディスク、ディスケット、ハードディスク、ランダムアクセスメモリ(RAM)、リードオンリメモリ(ROM)、消去可能プログラマブルリードオンリメモリ(EPROM又はフラッシュメモリ)、電気的消去可能プログラマブルリードオンリメモリ(EEPROM)、静的ランダムアクセスメモリ(SRAM)、コンパクトディスクリードオンリメモリ(CD-ROM)、デジタル多用途ディスク(DVD)、ブルーレイ(登録商標)ディスク、メモリスティック、集積回路カード等が含まれてよい。
【0150】
コンピュータ可読命令は、アセンブラ命令、命令セットアーキテクチャ(ISA)命令、マシン命令、マシン依存命令、マイクロコード、ファームウェア命令、状態設定データ、又はSmalltalk(登録商標)、JAVA(登録商標)、C++等のようなオブジェクト指向プログラミング言語、および「C」プログラミング言語又は同様のプログラミング言語のような従来の手続型プログラミング言語を含む、1又は複数のプログラミング言語の任意の組み合わせで記述されたソースコード又はオブジェクトコードのいずれかを含んでよい。
【0151】
コンピュータ可読命令は、汎用コンピュータ、特殊目的のコンピュータ、若しくは他のプログラム可能なデータ処理装置のプロセッサ、又はプログラマブル回路が、フローチャート又はブロック図で指定されたオペレーションを実行するための手段を生成するために当該コンピュータ可読命令を実行すべく、ローカルに又はローカルエリアネットワーク(LAN)、インターネット等のようなワイドエリアネットワーク(WAN)を介して、汎用コンピュータ、特殊目的のコンピュータ、若しくは他のプログラム可能なデータ処理装置のプロセッサ、又はプログラマブル回路に提供されてよい。プロセッサの例としては、コンピュータプロセッサ、処理ユニット、マイクロプロセッサ、デジタル信号プロセッサ、コントローラ、マイクロコントローラ等を含む。また、人型ロボット1の制御は、個々の人型ロボット1が備える情報処理装置14(図5参照)において、全ての処理プログラムを実行してもよいし、一部又は全部の処理プログラムを、複数の人型ロボット1を一括管理するサーバーで行い、処理結果(命令指示)をそれぞれの人型ロボット1に送信するようにしてもよい。
【0152】
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更又は改良を加えることが可能であることが当業者に明らかである。そのような変更又は改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。
【0153】
特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階などの各処理の実行順序は、特段「より前に」、「先立って」などと明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」などを用いて説明したとしても、この順で実施することが必須であることを意味するものではない。
【符号の説明】
【0154】
1 人型ロボット、2 上半身部、3 脚部、4 連結部、5、6 腕部、7、8 車輪、10 制御システム、12 センサ、14 情報処理装置、20 把持部、20A 掌側、22A、22B、22C 指部、24 吸着パッド、24A パッド部、24B ニップル部、26 掌センサ、50 コンベア装置、50A ベルト、52 X線解析装置、54 X線発生装置、53 X線ラインセンサ、58 コントローラ、60 情報管理サーバー、62 掌センサ情報受付部、64 荷物ID読取部、66 輪郭解析部、68 荷物ID送信部、70 受信部、72 輪郭照合部、74 内部情報推定部、76 把持点設定部、78 把持実行部、80 情報収集制御部、82 情報提供制御部、84 情報受付部、86 解析部、88 データベース、89 送出部、90 受信部、92 荷物ID抽出部、94 キューブデータ読出部、96 送信部、100 荷物、1200 コンピュータ、1210 ホストコントローラ、1212 CPU、1214 RAM、1216 グラフィックコントローラ、1218 ディスプレイデバイス、1220 入出力コントローラ、1222 通信インタフェース、1224 記憶装置、1230 ROM、1240 入出力チップ
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12