IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ パナソニックIPマネジメント株式会社の特許一覧

特許7253731認識方法、認識システム、ロボット制御方法、ロボット制御システム、ロボットシステム、認識プログラム、及びロボット制御プログラム
<>
  • 特許-認識方法、認識システム、ロボット制御方法、ロボット制御システム、ロボットシステム、認識プログラム、及びロボット制御プログラム 図1
  • 特許-認識方法、認識システム、ロボット制御方法、ロボット制御システム、ロボットシステム、認識プログラム、及びロボット制御プログラム 図2
  • 特許-認識方法、認識システム、ロボット制御方法、ロボット制御システム、ロボットシステム、認識プログラム、及びロボット制御プログラム 図3
  • 特許-認識方法、認識システム、ロボット制御方法、ロボット制御システム、ロボットシステム、認識プログラム、及びロボット制御プログラム 図4
  • 特許-認識方法、認識システム、ロボット制御方法、ロボット制御システム、ロボットシステム、認識プログラム、及びロボット制御プログラム 図5
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2023-03-30
(45)【発行日】2023-04-07
(54)【発明の名称】認識方法、認識システム、ロボット制御方法、ロボット制御システム、ロボットシステム、認識プログラム、及びロボット制御プログラム
(51)【国際特許分類】
   G06T 7/73 20170101AFI20230331BHJP
   G06T 7/00 20170101ALI20230331BHJP
   B25J 13/08 20060101ALI20230331BHJP
【FI】
G06T7/73
G06T7/00 300D
B25J13/08 A
【請求項の数】 12
(21)【出願番号】P 2018246282
(22)【出願日】2018-12-27
(65)【公開番号】P2020107142
(43)【公開日】2020-07-09
【審査請求日】2021-10-11
(73)【特許権者】
【識別番号】314012076
【氏名又は名称】パナソニックIPマネジメント株式会社
(74)【代理人】
【識別番号】110002527
【氏名又は名称】弁理士法人北斗特許事務所
(72)【発明者】
【氏名】西本 智隆
【審査官】佐藤 実
(56)【参考文献】
【文献】特開2018-128897(JP,A)
【文献】Pei-Chi Huang et al.,A Case Study of Cyber-Physical System Design: Autonomous Pick-and-Place Robot,2018 IEEE 24th International Conference on Embedded and Real-Time Computing Systems and Applications (RTCSA),IEEE,2018年08月28日,pp. 22-31,https://ieeexplore.ieee.org/document/8607230/
(58)【調査した分野】(Int.Cl.,DB名)
G06T 7/00 - 7/90
B25J 13/08
(57)【特許請求の範囲】
【請求項1】
対象物を含む画像データから前記対象物の種類を含む第1特徴を認識する第1認識処理と、
前記対象物となり得る複数種類の物品の特徴に対応した複数の認識手段が用意され、少なくとも前記第1認識処理において認識された前記第1特徴に応じて、前記複数の認識手段から一の認識手段を選択し、前記画像データを用いて前記一の認識手段により前記対象物の第2特徴を認識する第2認識処理と、を含み、
前記複数の認識手段の各々は、前記複数種類の物品のうち対応する物品のテンプレートを用いたパターンマッチングを含む認識アルゴリズムであり、
前記テンプレートは、複数のサブテンプレートを含み、
前記第2認識処理は、前記複数のサブテンプレートの相対的な位置関係を崩さないようにして、前記複数のサブテンプレートを移動又は回転させることで、前記対象物の前記第2特徴を認識する
認識方法。
【請求項2】
前記第2特徴は、前記対象物の位置及び姿勢の少なくとも一方を含む、
請求項1記載の認識方法。
【請求項3】
前記第1特徴は、前記対象物の位置を含む、
請求項1又は2に記載の認識方法。
【請求項4】
前記第1認識処理は、前記対象物となり得る複数種類の物品の画像データを入力データとして機械学習することで得られる分類器を用いて、前記対象物の前記第1特徴を認識する、
請求項1~3のいずれか1項に記載の認識方法。
【請求項5】
前記認識アルゴリズムは、前記対象物の前記第2特徴を認識する、
請求項1~4のいずれか1項に記載の認識方法。
【請求項6】
前記第2認識処理は、前記第1認識処理において認識された前記第1特徴に基づいて、前記画像データにおいて前記一の認識手段を適用する範囲を限定する、
請求項1~5のいずれか1項に記載の認識方法。
【請求項7】
対象物を含む画像データから前記対象物の種類を含む第1特徴を認識する第1認識部と、
前記対象物となり得る複数種類の物品の特徴に対応した複数の認識手段が用意され、少なくとも前記第1認識部において認識された前記第1特徴に応じて、前記複数の認識手段から一の認識手段を選択し、前記画像データを用いて前記一の認識手段により前記対象物の第2特徴を認識する第2認識部と、を備え、
前記複数の認識手段の各々は、前記複数種類の物品のうち対応する物品のテンプレートを用いたパターンマッチングを含む認識アルゴリズムであり、
前記テンプレートは、複数のサブテンプレートを含み、
前記第2認識部は、前記複数のサブテンプレートの相対的な位置関係を崩さないようにして、前記複数のサブテンプレートを移動又は回転させることで、前記対象物の前記第2特徴を認識する、
認識システム。
【請求項8】
請求項1~6のいずれか1項に記載の認識方法により認識された前記対象物の前記第1特徴及び前記第2特徴に基づいて、前記対象物をピッキングするロボットを制御する、
ロボット制御方法。
【請求項9】
前記対象物をピッキングするロボットを制御する制御部を備え、
前記制御部は、請求項1~6のいずれか1項に記載の認識方法により認識された前記対象物の前記第1特徴及び前記第2特徴に基づいて、前記ロボットを制御する、
ロボット制御システム。
【請求項10】
前記対象物をピッキングするロボットと、
前記ロボットを制御する制御部と、を備え、
前記制御部は、請求項1~6のいずれか1項に記載の認識方法により認識された前記対象物の前記第1特徴及び前記第2特徴に基づいて、前記ロボットを制御する、
ロボットシステム。
【請求項11】
1以上のプロセッサに、
請求項1~6のいずれか1項に記載の認識方法を実行させるための、
認識プログラム。
【請求項12】
1以上のプロセッサに、
請求項8記載のロボット制御方法を実行させるための、
ロボット制御プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、一般に認識方法、認識システム、ロボット制御方法、ロボット制御システム、ロボットシステム、認識プログラム、及びロボット制御プログラムに関する。より詳細には、本開示は、画像データから対象物を認識する認識方法、認識システム、ロボット制御方法、ロボット制御システム、ロボットシステム、認識プログラム、及びロボット制御プログラムに関する。
【背景技術】
【0002】
特許文献1に記載のランダムピッキングシステムは、ロボットアームの先端に設けられたハンドにより、バラ積みされたワークを把持し取り出す装置である。ランダムピッキングシステムは、バラ積みされたワークを撮像する撮像装置と、バラ積みされたワークの画像データを基に、パターンマッチングを行って把持するワークを選出するワーク認識装置と、を含む。
【先行技術文献】
【特許文献】
【0003】
【文献】特開2017-170567号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
特許文献1に記載のランダムピッキングシステムでは、複数種類のワーク(物品)から特定のワーク(対象物)を認識する場合、複数種類のワークごとにパターンマッチングを行わなければならない。このため、ランダムピッキングシステムでは、複数種類のワークから特定のワークを認識する場合に、特定のワークを認識するまでに要する時間にばらつきが生じやすい、という問題があった。
【0005】
本開示は、複数種類の物品から対象物を認識するまでに要する時間のばらつきが生じにくい認識方法、認識システム、ロボット制御方法、ロボット制御システム、ロボットシステム、認識プログラム、及びロボット制御プログラムを提供することを目的とする。
【課題を解決するための手段】
【0006】
本開示の一態様に係る認識方法は、第1認識処理と、第2認識処理と、を含む。前記第1認識処理は、対象物を含む画像データから前記対象物の種類を含む第1特徴を認識する。前記第2認識処理では、前記対象物となり得る複数種類の物品の特徴に対応した複数の認識手段が用意される。前記第2認識処理は、少なくとも前記第1認識処理において認識された前記第1特徴に応じて、前記複数の認識手段から一の認識手段を選択し、前記画像データを用いて前記一の認識手段により前記対象物の第2特徴を認識する。前記複数の認識手段の各々は、前記複数種類の物品のうち対応する物品のテンプレートを用いたパターンマッチングを含む認識アルゴリズムである。前記テンプレートは、複数のサブテンプレートを含む。前記第2認識処理は、前記複数のサブテンプレートの相対的な位置関係を崩さないようにして、前記複数のサブテンプレートを移動又は回転させることで、前記対象物の前記第2特徴を認識する。
【0007】
本開示の一態様に係る認識システムは、第1認識部と、第2認識部と、を備える。前記第1認識部は、対象物を含む画像データから前記対象物の種類を含む第1特徴を認識する。前記第2認識部では、前記対象物となり得る複数種類の物品の特徴に対応した複数の認識手段が用意される。前記第2認識部は、少なくとも前記第1認識部において認識された前記第1特徴に応じて、前記複数の認識手段から一の認識手段を選択し、前記画像データを用いて前記一の認識手段により前記対象物の第2特徴を認識する。前記複数の認識手段の各々は、前記複数種類の物品のうち対応する物品のテンプレートを用いたパターンマッチングを含む認識アルゴリズムである。前記テンプレートは、複数のサブテンプレートを含む。前記第2認識部は、前記複数のサブテンプレートの相対的な位置関係を崩さないようにして、前記複数のサブテンプレートを移動又は回転させることで、前記対象物の前記第2特徴を認識する。
【0008】
本開示の一態様に係るロボット制御方法は、上記の認識方法により認識された前記対象物の前記第1特徴及び前記第2特徴に基づいて、前記対象物をピッキングするロボットを制御する。
【0009】
本開示の一態様に係るロボット制御システムは、前記対象物をピッキングするロボットを制御する制御部を備える。前記制御部は、上記の認識方法により認識された前記対象物の前記第1特徴及び前記第2特徴に基づいて、前記ロボットを制御する。
【0010】
本開示の一態様に係るロボットシステムは、上記の前記対象物をピッキングするロボットと、ロボットを制御する制御部と、を備える。前記制御部は、上記の認識方法により認識された前記対象物の前記第1特徴及び前記第2特徴に基づいて、前記ロボットを制御する。
【0011】
本開示の一態様に係る認識プログラムは、1以上のプロセッサに、上記の認識方法を実行させるためのプログラムである。
【0012】
本開示の一態様に係るロボット制御プログラムは、1以上のプロセッサに、上記のロボット制御方法を実行させるためのプログラムである。
【発明の効果】
【0013】
本開示は、複数種類の物品から対象物を認識するまでに要する時間のばらつきが生じにくい、という利点がある。
【図面の簡単な説明】
【0014】
図1図1は、本開示の一実施形態に係る読取方法を実行する際に用いられる認識システム、ロボット制御方法を実行する際に用いられるロボット制御システム、及びロボットシステムの構成を示す概要図である。
図2図2は、同上の認識システムが適用される複数種類の部品が収容された箱を撮像した画像データの一例を示す概要図である。
図3図3は、同上の認識システムの第1認識処理の一例の説明図である。
図4図4は、同上の認識システムの第2認識処理の一例の説明図である。
図5図5は、同上の認識システム及びロボット制御システムでの動作を示すフローチャートである。
【発明を実施するための形態】
【0015】
(1)概要
本実施形態の認識方法を実行する際に用いられる認識システム10は、図1に示すように、例えばロボット制御システム100に適用される。ロボット制御システム100は、対象物51をピッキングするロボット(マニピュレータ)3を制御する制御部13を備える。ロボット制御システム100は、例えば工場又は物流センター等に導入され、人の作業をロボット3で代替する場合に用いられる。本開示でいう「対象物」は、複数種類の物品5のうち、ロボット3が取り扱う物品5のことをいう。対象物51は、ロボット3による作業の進行にしたがって、時々刻々と変化する。例えば、基板7の組み立て工程においては、ロボット3が制御部13から順次与えられる指令に応じた部品をピッキングして基板7に組み込む作業を行うので、対象物51は、指令に応じて異なることになる。本開示でいう「基板に組み込む」とは、例えばリード部品の端子を基板7のスルーホールへ挿入したり、フラットケーブルのコネクタを基板7上のコネクタに接続したり等、部品を基板7に保持又は仮保持させることをいう。
【0016】
本開示でいう複数種類の物品5の「種類」とは、例えば物品5の品種、物品5の形状、物品5のサイズ、物品5の模様、物品5における色彩の分布、又は物品5における輝度の分布等である。一例として、物品5が基板7に組み込む部品であれば、物品5の品種とは、コンデンサ、抵抗器、インダクタ、スイッチ、又はIC(Integrated Circuit)チップ等の物品5の固有の機能により分類される区分である。つまり、「複数種類の物品」は、互いに品種が異なる複数の物品5を含む他に、同じ品種であって形状、サイズ、又は模様が互いに異なる複数の物品5を含み得る。本実施形態では、例えば2つの物品5が互いに同じコンデンサであっても、容量値が異なる場合には、2つの物品5の種類が互いに異なるとする。
【0017】
本開示でいう「ピッキング」は、複数種類の物品5から対象物51を選択して取り出す作業をいう。一例として、ロボット制御システム100が物流センターに導入される場合には、ピッキングは、物流センターに置かれている複数種類の物品から搬送する対象物51を選択して取り出す作業をいう。また、一例として、ロボット制御システム100が基板7の組み立て工場に導入される場合には、ピッキングは、工場内にある複数種類の部品(物品5)が収容されている箱6から、基板7へ組み込む部品(対象物51)を選択して取り出す作業をいう。
【0018】
本実施形態の認識方法(認識システム10)は、複数種類の物品5から対象物51を認識するために用いられる。認識方法は、第1認識処理と、第2認識処理と、を含む。認識システム10は、図1に示すように、第1認識部11と、第2認識部12と、を備えている。
【0019】
第1認識処理(第1認識部11)は、対象物51を含む画像データD1から対象物51の第1特徴を認識する。本実施形態では、画像データD1は、撮像部4(後述する)が箱6の上方から箱6を撮像することで得られる、箱6の2次元画像である。箱6には、対象物51を含む複数種類の物品5が収容される。また、本実施形態では、対象物51の第1特徴は、対象物51の種類(つまり、対象物51の品種、形状、サイズ、模様、対象物51における色彩の分布、又は対象物51における輝度の分布等)と、画像データD1における対象物51の位置である。
【0020】
第2認識処理(第2認識部12)では、対象物51となり得る複数種類の物品5の特徴に対応した複数の認識手段121が用意されている。本開示でいう「認識手段」は、例えばパターンマッチング、形状検出(一例として、コーナー検出、又はエッジ検出)等、対象物51の特徴(ここでは、第2特徴)を認識するための認識アルゴリズムを含み得る。また、本開示でいう「認識手段」は、例えばパターンマッチング等の1つの認識アルゴリズムにて用いられる、対象物51の特徴(ここでは、第2特徴)を認識するためのテンプレートT1を含み得る。
【0021】
そして、第2認識処理(第2認識部12)は、少なくとも第1認識処理(第1認識部11)において認識された第1特徴に応じて、複数の認識手段121から一の認識手段121を選択し、一の認識手段121により対象物51の第2特徴を認識する。本実施形態では、対象物51の第2特徴は、画像データD1における対象物51の姿勢(向きを含む)である。
【0022】
つまり、第2認識処理(第2認識部12)は、例えば対象物51の種類に応じて、複数の認識アルゴリズムから一の認識アルゴリズムを選択する。そして、第2認識処理(第2認識部12)は、選択した認識アルゴリズムにより対象物51の第2特徴を認識する。また、第2認識処理(第2認識部12)は、例えば対象物51の種類に応じて、複数のテンプレートT1から一のテンプレートT1を選択する。そして、第2認識処理(第2認識部12)は、選択したテンプレートT1を用いた認識アルゴリズム(例えば、パターンマッチング)により対象物51の第2特徴を認識する。そして、ロボット制御システム100の制御部13は、上述の認識方法により認識された対象物51の第1特徴及び第2特徴に基づいて、ロボット3を制御する。
【0023】
上述のように、本実施形態では、第1認識処理(第1認識部11)にて対象物51の第1特徴を認識することから、第2認識処理(第2認識部12)では第1特徴を踏まえて第2特徴のみを認識すればよい。このため、本実施形態では、第2認識処理のみで対象物51の第1特徴及び第2特徴を認識する場合と比較して、対象物51ごとに第2認識処理で要する時間がばらつきにくい。その結果、本実施形態では、複数種類の物品5から対象物51を認識するまでに要する時間のばらつきが生じにくい、という利点がある。
【0024】
(2)詳細
以下、本実施形態の認識システム10及びロボット制御システム100について図1及び図2を参照して詳しく説明する。本実施形態では、認識システム10は、ロボット制御システム100に組み込まれていることとして説明するが、ロボット制御システム100とは別のシステムとして構成されていてもよい。また、本実施形態では、ロボット制御システム100が基板7の組み立て工場に導入されていると仮定する。そして、本実施形態では、ロボット3は、基板7へ組み込む部品をピッキングすると仮定する。
【0025】
また、本実施形態では、ロボット制御システム100が1台のロボット3を制御すると仮定するが、ロボット制御システム100は、複数台のロボット3を制御してもよい。そして、本実施形態では、認識システム10は、複数種類の物品5が収容された1つの箱6から対象物51を認識すると仮定するが、認識システム10は、複数の箱6から対象物51を認識してもよい。
【0026】
(2.1)ロボット
まず、ロボット3について説明する。ロボット3は、図1に示すように、アーム31と、ハンド32と、撮像部4と、を備えている。本実施形態では、ロボット3は、工場内における所定の場所に固定されているが、例えばレール上を移動可能に構成されていたり、車輪により自律走行するように構成されていたりしてもよい。また、ロボット3は、ロボット制御システム100の通信部2(後述する)との間で通信するための通信インタフェースを更に備えている。
【0027】
アーム31は、多関節のロボットアームであり、所定の範囲内を移動可能に構成されている。本実施形態では、所定の範囲には、少なくとも箱6から対象物51を取り出すことが可能な領域と、基板7に対象物51を組み込むことが可能な領域と、複数種類のハンド32が収容されたハンド用の箱からハンド32を取り出すことが可能な領域と、が含まれる。
【0028】
ハンド32は、アーム31の先端に取り付けられており、対象物51を挟み込むことにより、対象物51を箱6から取り出すように構成されている。ハンド32は、対象物51を保持することが可能な態様であればよく、対象物51を挟み込む態様の他に、例えば対象物51をノズルにより吸着する態様であってもよい。本実施形態では、アーム31の先端には、複数種類のハンド32から選択された一のハンド32を取り付けることが可能である。ロボット3は、制御部13(後述する)からの指令に応じて、ハンド用の箱から一のハンド32を選択して取り付ける作業を実行する。既にアーム31の先端にハンド32が取り付けられている場合は、ロボット3は、取り付けられているハンド32と、指令に応じたハンド32とを交換する作業を実行する。
【0029】
撮像部4は、例えばCCD(Charge-Coupled Device)イメージセンサ等の固体撮像素子を有する。本実施形態では、撮像部4は、ロボット3のアーム31の先端に取り付けられている。撮像部4は、制御部13からの指令に応じて箱6の上方から箱6を撮像することにより、箱6に収容されている複数種類の物品5を撮像する。つまり、撮像部4は、少なくとも箱6の開口全体を撮像範囲とする。撮像部4で撮像されることで得られる画像データD1は、ロボット制御システム100(及び認識システム10)に送信される。
【0030】
画像データD1の一例を図2に示す。図2に示すように、画像データD1は、箱6を上方から見た2次元画像である。図2では、画像データD1には、箱6を構成する壁(側壁)の画像が含まれているが、壁は含まれていなくてもよい。つまり、画像データD1には、少なくとも箱6の内側の領域全体(又は一部)が含まれていればよい。画像データD1には、箱6に収容された複数種類の物品5の画像が含まれている。図2に示す例では、複数種類の物品5には、コンデンサ、抵抗器、ICチップ、又はスイッチ等が含まれている。また、図2に示す例では、複数種類の物品5には、同じコンデンサであるが、形状、サイズ、又は模様等が互いに異なるコンデンサが含まれている。複数種類の物品5は、いずれも制御部13の指令に応じて、ロボット3がピッキングする対象物51となり得る。
【0031】
(2.2)ロボット制御システム及び認識システム
次に、ロボット制御システム100(及び認識システム10)について説明する。本実施形態では、ロボット制御システム100は、ロボット3の設置場所から離れた遠隔地にあるサーバにより実現されている。本実施形態では、ロボット制御システム100は工場内にあるが、工場外にあってもよい。ロボット制御システム100は、図1に示すように、メインコンピュータ1と、通信部2と、を備えている。本実施形態では、通信部2はロボット制御システム100(及び認識システム10)の構成要素に含まれることとするが、通信部2は、ロボット制御システム100(及び認識システム10)の構成要素に含まれていなくてもよい。
【0032】
メインコンピュータ1は、ハードウェアとしての1以上のプロセッサ及びメモリを主構成とするコンピュータシステムである。このメインコンピュータ1では、メモリに記録されたプログラムを1以上のプロセッサで実行することによって、種々の機能が実現される。プログラムは、メインコンピュータ1のメモリに予め記録されてもよく、電気通信回線を通じて提供されてもよく、コンピュータシステムで読み取り可能な光学ディスク、ハードディスクドライブ等の非一時的記録媒体に記録されて提供されてもよい。
【0033】
メインコンピュータ1は、第1認識部11と、第2認識部12と、制御部13と、を有している。具体的には、メインコンピュータ1は、1以上のプロセッサにより所定のプログラムを実行することで、第1認識部11、第2認識部12、及び制御部13の各々の機能を実現する。
【0034】
第1認識部11は、対象物51を含む画像データD1から対象物51の第1特徴を認識する第1認識処理を実行する。本実施形態では、第1認識処理(第1認識部11)は、対象物51の第1特徴として、対象物51の種類と、画像データD1における対象物51の位置と、を認識している。つまり、本実施形態では、対象物51の第1特徴は、対象物51の位置を含んでいる。そして、本実施形態では、第1認識処理は、分類器を用いて、対象物51の第1特徴を認識している。分類器は、対象物51となり得る複数種類の物品5の画像データを入力データとして機械学習することで得られる。分類器は、例えばSVM(Support Vector Machine)等の線形分類器の他、ニューラルネットワークを用いた分類器、又は多層ニューラルネットワークを用いた深層学習(ディープラーニング)により生成される分類器を含み得る。
【0035】
本実施形態では、第1認識部11は、学習済みのニューラルネットワークを用いた分類器を有している。学習済みのニューラルネットワークは、例えばCNN(Convolutional Neural Network:畳み込みニューラルネットワーク)、又はBNN(Bayesian Neural Network:ベイズニューラルネットワーク)等を含み得る。第1認識部11は、ASIC(Application Specific Integrated Circuit)又はFPGA(Field-Programmable Gate Array)等の集積回路に、学習済みのニューラルネットワークを実装することで実現されている。
【0036】
ここで、認識システム10の使用前において、機械学習により、第1認識処理(第1認識部11)で用いられる分類器を生成する学習フェーズについて説明する。学習フェーズにおける機械学習は、例えば学習用のセンターで実行される。学習用のセンターでは、1以上のプロセッサを用いて、第1認識処理で用いるニューラルネットワークの機械学習を行う。機械学習を行うに当たり、ニューラルネットワークの重み付け係数は、初期化されている。ここでいう「プロセッサ」は、例えばCPU(Central Processing Unit)及びGPU(Graphics Processing Unit)等の汎用のプロセッサの他に、ニューラルネットワークでの演算に特化した専用のプロセッサを含み得る。
【0037】
ニューラルネットワークの機械学習は、学習用データセットを用いて行われる。本開示でいう「学習用データセット」は、ニューラルネットワークの入力層に入力される学習用の画像(以下、単に「学習用画像」という)と、学習用画像に対応する教師データとの組み合わせを1つの学習用データとした、複数の学習用データの集合である。学習用画像は、物品5が写った画像である。なお、画像における物品5の位置、大きさ、及び角度を変更した多数の学習用画像を、物品5ごとに用意するのが好ましい。学習用データセットには、認識システム10(及びロボット制御システム100)が取り扱う全ての種類の物品5についての学習用データが含まれる。また、学習用データにおいて、教師データは、学習用画像に写っている物品5が分類されるカテゴリの情報である。本実施形態では、カテゴリの情報は、物品5の種類である。
【0038】
1以上のプロセッサは、複数の学習用データの各々について、ニューラルネットワークの入力層に学習用画像を入力して演算を実行する。そして、1以上のプロセッサは、ニューラルネットワークの出力層の複数のニューロンの出力値と、教師データとを用いて、バックプロパゲーション(誤差逆伝播法)処理を実行する。ここで、出力層の複数のニューロンは、それぞれ複数のカテゴリに対応している。バックプロパゲーション処理においては、1以上のプロセッサは、出力層の複数のニューロンのうち、教師データと対応するニューロンの出力値の最大化を図るように、ニューラルネットワークの重み付け係数を更新する。1以上のプロセッサは、全ての学習用データについてバックプロパゲーション処理を実行することにより、ニューラルネットワークの重み付け係数の最適化を図る。これにより、ニューラルネットワークの学習が完了する。
【0039】
第1認識処理(第1認識部11)による処理結果の一例を視覚的に表現した画像データD1を図3に示す。図3では、箱6に収容されている複数種類の物品5のうち、箱6の開口から視認し得る物品5の一部を図示している。したがって、実際には、箱6には、図3に示す物品5以外の多数の物品5が積み重なった状態で収容され得る。
【0040】
図3に示すように、画像データD1に含まれる複数の物品5のうち第1認識処理により認識された1以上の物品5には、物品5の種類を表すラベルA1が付される。つまり、第1認識部11は、第1認識処理により認識された1以上の物品5については、物品5の種類について認識していることから、ラベルA1を付すという処理が可能である。また、図3に示すように、第1認識処理により認識された1以上の物品5は、枠(バウンディングボックス:bounding box)B1で囲まれる。つまり、第1認識部11は、第1認識処理により認識された1以上の物品5については、画像データD1における位置(座標)をも認識していることから、枠B1で囲むという処理が可能である。
【0041】
第2認識部12では、対象物51となり得る複数種類の物品5の特徴に対応した複数の認識手段121が用意されている。これら複数の認識手段121は、例えばメインコンピュータ1のメモリにあらかじめ記憶されている。そして、第2認識部12は、少なくとも第1認識処理(第1認識部11)において認識された第1特徴に応じて、複数の認識手段121から一の認識手段121を選択し、一の認識手段121により対象物51の第2特徴を認識する第2認識処理を実行する。本実施形態では、第2認識処理(第2認識部12)は、対象物51の第2特徴として、画像データD1における対象物51の位置と、画像データD1における対象物51の姿勢(向きを含む)と、を認識している。つまり、本実施形態では、対象物51の第2特徴は、対象物51の位置及び姿勢の少なくとも一方を含んでいる。
【0042】
また、本実施形態では、第2認識部12は、第1認識処理で認識された対象物51の種類に応じて、複数のテンプレートT1から対象物51に対応するテンプレートT1を選択し、選択したテンプレートT1を用いてパターンマッチングを実行する。つまり、本実施形態では、複数の認識手段121の各々は、パターンマッチングに用いられるテンプレートT1である。本実施形態では、テンプレートT1は、箱6を上方から見た場合の物品5の2次元画像であって、画像データD1と比較する際に用いられる。
【0043】
第2認識処理(第2認識部12)は、第1認識処理(第1認識部11)で認識された1以上の物品5のうち、制御部13からの指令に応じた対象物51のある領域にテンプレートT1を適用することで、パターンマッチングを行う。具体的には、第2認識処理は、画像データD1における対象物51のある領域内にて、テンプレートT1の移動及び回転を繰り返すことにより、テンプレートT1と一致する画素の集合を探索する。つまり、本実施形態では、第2認識処理(第2認識部12)は、第1認識処理(第1認識部11)において認識された第1特徴に基づいて、画像データD1において一の認識手段121(ここでは、テンプレートT1)を適用する範囲を限定している。ここでいう「範囲」は、一例として、対象物51を囲む枠B1である。
【0044】
本実施形態では、図4に示すように、テンプレートT1は、複数のサブテンプレートT11により構成されている。複数のサブテンプレートT11は、それぞれ対象物51の互いに異なる特徴点を含む画像である。対象物51の特徴点は、一例として、対象物51の角等である。図4に示す例では、対象物51であるコンデンサの特徴点は、コンデンサの頂部、及びコンデンサの一対の端子の先端である。第2認識処理(第2認識部12)では、複数のサブテンプレートT11の相対的な位置関係を崩さないようにして、テンプレートT1を移動又は回転させる。このように、本実施形態では、テンプレートT1は、対象物51全体に対応する画素の集合ではなく、対象物51の一部に対応する画素の集合で構成されている。もちろん、テンプレートT1は、対象物51全体に対応する画素の集合で構成されていてもよい。
【0045】
上述のように、本実施形態では、第1認識処理(第1認識部11)及び第2認識処理(第2認識部12)は、いずれも対象物51の位置を認識している。そして、本実施形態では、第1認識処理にて画像データD1における対象物51の大まかな位置を認識した後に、第2認識処理にて画像データD1における対象物51のより正確な位置を認識している。つまり、本実施形態では、対象物51の位置を認識する精度は、第1認識処理よりも第2認識処理の方が高くなっている。
【0046】
また、本実施形態では、第1認識処理(第1認識部11)及び第2認識処理(第2認識部12)は、いずれも第1認識処理を実行する前に撮像部4で撮像することで得られた画像データD1を用いている。つまり、本実施形態では、第2認識処理は、第1認識処理で用いられる画像データD1と同じ画像データD1を用いて、一の認識手段121により対象物51の第2特徴を認識する。
【0047】
制御部13は、ロボット3を制御するための指令を、通信部2を介してロボット3に与えることにより、ロボット3を制御する機能を有している。制御部13は、一例として、メモリにあらかじめ記憶されている基板7の組み立て工程のスケジュールにしたがって、ロボット3に指定した対象物51をピッキングさせる指令と、ロボット3にピッキングした対象物51を基板7に組み込ませる指令と、を生成する。なお、制御部13は、基板7の組み立て工程を管理する上位システムと通信することにより、上位システムからの指令に応じて、ロボット3を制御するための指令を生成し、生成した指令をロボット3に与えてもよい。また、制御部13は、撮像部4を制御することにより、撮像部4に箱6を撮像させる機能を有している。
【0048】
通信部2は、例えば無線通信モジュールを含んでいる。通信部2は、無線通信モジュールにより、例えば赤外線又は可視光等の光を媒体とする光無線通信、又は電波を媒体とする無線通信にて、無線LAN(Local Area Network)等のネットワークを介してロボット3の通信インタフェースと通信する。通信部2は、例えばルータ等の通信機器を介してネットワークに接続されてもよい。
【0049】
(3)動作
以下、本実施形態の認識システム10及びロボット制御システム100の動作の一例について、図5を用いて説明する。以下の説明では、認識システム10は、ロボット制御システム100の制御部13から、ロボット3によるピッキングの対象物51を指定する指令をあらかじめ受け取っていると仮定する。なお、ピッキングの対象物51の順番は、あらかじめ決められていないと仮定する。つまり、指令では、全てのピッキングの対象物51が指定されている。そして、ロボット3は、指定された全てのピッキングの対象物51のうち、ピッキングしやすい位置にある一の対象物51から順次ピッキングする。
【0050】
まず、制御部13は、ロボット3のアーム31の先端が箱6の上方に位置するように、ロボット3を制御する。そして、制御部13は、撮像部4を制御することにより、箱6に収容されている複数種類の物品5を撮像する(S1)。撮像部4で撮像されることで得られる画像データD1は、ロボット3の通信インタフェースを介して認識システム10及びロボット制御システム100に送信される。
【0051】
画像データD1を取得すると、第1認識部11は、画像データD1を分類器に入力することにより、第1認識処理を実行する(S2)。これにより、第1認識部11は、画像データD1に含まれる複数種類の物品5のうち1以上の物品5の第1特徴(ここでは、物品5の種類)を認識する。言い換えれば、第1認識部11は、画像データD1に含まれる対象物51の第1特徴を認識する(S3)。第1認識部11での処理結果は、第2認識部12に与えられる。
【0052】
第1認識部11での処理結果を受けると、第2認識部12は、第2認識処理を実行する(S4)。まず、第2認識処理において、第2認識部12は、第1認識部11で認識された対象物51の第1特徴に基づいて、複数のテンプレートT1(認識手段121)から一のテンプレートT1を選択する(S5)。ここで選択されるテンプレートT1は、第1認識部11で認識された対象物51の種類に対応するテンプレートT1である。なお、第1認識部11で複数の対象物51が認識された場合、第2認識部12は、複数の対象物51のうち、ロボット3がピッキングしやすい位置にある対象物51の種類に対応するテンプレートT1を選択することになる。
【0053】
次に、第2認識処理において、第2認識部12は、画像データD1に対して選択したテンプレートT1を適用することにより、パターンマッチングを行う。既に述べたように、本実施形態では、第1認識処理において画像データD1での対象物51の位置をある程度認識しているので、第2認識部12は、対象物51の位置を含む範囲(例えば、図3で示す枠B1)でパターンマッチングを行う。これにより、第2認識部12は、対象物51の第2特徴(ここでは、対象物51の位置及び姿勢)を認識する(S6)。第1認識部11での処理結果、及び第2認識部12での処理結果は、制御部13に与えられる。
【0054】
そして、制御部13は、第1認識部11での処理結果、及び第2認識部12での処理結果に基づいて、ロボット3を制御することにより、ロボット3に箱6から対象物51をピッキングさせる(S7)。ここで、第1認識処理及び第2認識処理により、対象物51の種類、対象物51の位置、及び対象物51の姿勢等を認識しているので、制御部13は、認識した情報に基づいてロボット3のアーム31及びハンド32を制御する。一例として、制御部13は、対象物51に応じたハンド32を選択したり、対象物51を挟み込むことが可能な位置までハンド32を移動及び回転させたりする。
【0055】
その後、制御部13は、対象物51をピッキングした状態のハンド32が基板7の上方に位置するように、ロボット3を制御する。そして、制御部13は、ロボット3を制御することにより、対象物51を基板7の対応する部位へ組み込ませる(S8)。以降、ロボット3によるピッキングの対象物51ごとに上記のS1~S8の処理を繰り返す。
【0056】
上述のように、本実施形態では、第1認識処理(第1認識部11)にて対象物51の第1特徴を認識することから、第2認識処理(第2認識部12)では第1特徴を踏まえて第2特徴のみを認識すればよい。このため、本実施形態では、第2認識処理のみで対象物51の第1特徴及び第2特徴を認識する場合と比較して、対象物51ごとに第2認識処理で要する時間がばらつきにくい。その結果、本実施形態では、複数種類の物品5から対象物51を認識するまでに要する時間のばらつきが生じにくい、という利点がある。
【0057】
以下、比較例の認識方法との比較を交えて、上記の利点について説明する。比較例の認識方法は、第2認識処理(ここでは、パターンマッチング)のみで対象物51の第1特徴及び第2特徴を認識する点で、本実施形態の認識方法と相違する。比較例の認識方法では、複数のテンプレートのうちの1つのテンプレートを用いて、画像データD1における対象物51の位置及び姿勢の認識を試みる。この方法では、例えば画像データD1の四隅のうちの1つの隅を始点として、テンプレートと一致する画素の集合が見つかるまで、テンプレートの移動及び回転を繰り返す処理(以下、「探索処理」という)を実行する。テンプレートと一致する画素の集合が見つからない場合は、テンプレートを変更して探索処理を繰り返す。そして、比較例の認識方法では、テンプレートの変更を繰り返して対象物51に対応するテンプレートが見つかるまでに要する時間、及びテンプレートと一致する画素の集合が見つかるまでに要する時間が対象物51ごとに異なってくる。つまり、比較例の認識方法では、複数種類の物品5から対象物51を認識するまでに要する時間のばらつきが生じやすい、という問題がある。
【0058】
一方、本実施形態の認識方法では、まず第1認識処理(第1認識部11)にて対象物51の第1特徴(ここでは、対象物51の種類)を認識する。これにより、第2認識処理(第2認識部12)は、探索処理に用いるテンプレートT1として、対象物51の種類に対応するテンプレートT1を選択することが可能である。そして、第2認識処理では、このテンプレートT1を用いて探索処理を実行することで、テンプレートT1に一致する画素の集合を見つけることが可能である。つまり、本実施形態では、第1認識処理を経ることで、1回の探索処理で対象物51の第2特徴を認識することが可能である。このため、本実施形態では、第2認識処理で要する時間が、テンプレートT1と一致する画素の集合が見つかるまでに要する時間に相当することになるので、比較例の認識方法と比較して、対象物51ごとの第2認識処理に要する時間のばらつきが生じにくい。また、第1認識処理に要する時間は、画像データD1全体に対する画像処理に要する時間に相当するため、対象物51ごとにばらつきは殆ど生じない。その結果、本実施形態では、複数種類の物品5から対象物51を認識するまでに要する時間のばらつきが生じにくい、という利点がある。
【0059】
さらに、本実施形態では、第1認識処理にて対象物51の第1特徴として対象物51の位置を認識することから、第2認識処理にて一の認識手段121(ここでは、対象物51に対応するテンプレートT1)を適用する範囲を限定することが可能である。このため、本実施形態では、第2認識処理のみで対象物51の第1特徴及び第2特徴を認識する場合と比較して、第2認識処理で要する時間の短縮を図りやすい、という利点がある。
【0060】
なお、第1認識処理(第1認識部11)のみで対象物51の第1特徴及び第2特徴を認識する態様も考えられる。しかしながら、この態様では、画像データD1において対象物51がどの位置にあるかまでは認識可能であるが、実際の対象物51の位置とのずれが生じ得る。このため、この態様では、本実施形態のように対象物51を基板7へ組み込む作業においては、微小な部品である対象物51をピッキングするのに十分な精度を得られない可能性がある。
【0061】
そこで、本実施形態の認識方法では、第1認識処理に加えて、第1認識処理よりも対象物51の位置の認識精度が高い第2認識処理を実行している。これにより、本実施形態では、第1認識処理のみで対象物51の第1特徴及び第2特徴を認識する態様と比較して、画像データD1における対象物51の位置の認識精度を向上することができる。その結果、本実施形態の認識方法は、対象物51が微小な部品である場合にも、対象物51をピッキングするのに十分な精度を得やすい、という利点がある。
【0062】
(4)変形例
上述の実施形態は、本開示の様々な実施形態の一つに過ぎない。上述の実施形態は、本開示の目的を達成できれば、設計等に応じて種々の変更が可能である。また、認識システム10と同様の機能は、(コンピュータ)プログラム、又はプログラムを記録した非一時的記録媒体等で具現化されてもよい。また、ロボット制御システム100と同様の機能は、ロボット制御方法、(コンピュータ)プログラム、又はプログラムを記録した非一時的記録媒体等で具現化されてもよい。
【0063】
一態様に係るロボット制御方法は、上述の認識方法により認識された対象物51の第1特徴及び第2特徴に基づいて、対象物51をピッキングするロボット3を制御する。
【0064】
また、一態様に係る認識プログラムは、1以上のプロセッサに、上述の認識方法を実行させるためのプログラムである。
【0065】
また、一態様に係るロボット制御プログラムは、1以上のプロセッサに、上述のロボット制御方法を実行させるためのプログラムである。
【0066】
以下、上述の実施形態の変形例を列挙する。以下に説明する変形例は、上述の実施形態と適宜組み合わせて適用可能である。
【0067】
本開示における認識システム10(又はロボット制御システム100)は、例えば、メインコンピュータ1等に、コンピュータシステムを含んでいる。コンピュータシステムは、ハードウェアとしてのプロセッサ及びメモリを主構成とする。コンピュータシステムのメモリに記録されたプログラムをプロセッサが実行することによって、本開示における認識システム10(又はロボット制御システム100)としての機能が実現される。プログラムは、コンピュータシステムのメモリに予め記録されてもよく、電気通信回線を通じて提供されてもよく、コンピュータシステムで読み取り可能なメモリカード、光学ディスク、ハードディスクドライブ等の非一時的記録媒体に記録されて提供されてもよい。コンピュータシステムのプロセッサは、半導体集積回路(IC)又は大規模集積回路(LSI)を含む1ないし複数の電子回路で構成される。ここでいうIC又はLSI等の集積回路は、集積の度合いによって呼び方が異なっており、システムLSI、VLSI(Very Large Scale Integration)、又はULSI(Ultra Large Scale Integration)と呼ばれる集積回路を含む。さらに、LSIの製造後にプログラムされる、FPGA(Field-Programmable Gate Array)、又はLSI内部の接合関係の再構成若しくはLSI内部の回路区画の再構成が可能な論理デバイスについても、プロセッサとして採用することができる。複数の電子回路は、1つのチップに集約されていてもよいし、複数のチップに分散して設けられていてもよい。複数のチップは、1つの装置に集約されていてもよいし、複数の装置に分散して設けられていてもよい。ここでいうコンピュータシステムは、1以上のプロセッサ及び1以上のメモリを有するマイクロコントローラを含む。したがって、マイクロコントローラについても、半導体集積回路又は大規模集積回路を含む1ないし複数の電子回路で構成される。
【0068】
また、認識システム10(又はロボット制御システム100)における複数の機能が、1つの筐体内に集約されていることは認識システム10(又はロボット制御システム100)に必須の構成ではない。認識システム10(又はロボット制御システム100)の構成要素は、複数の筐体に分散して設けられていてもよい。さらに、認識システム10(又はロボット制御システム100)の少なくとも一部の機能は、例えば、サーバ装置及びクラウド(クラウドコンピューティング)等によって実現されてもよい。
【0069】
上述の実施形態において、通信部2は、例えば有線通信にて、有線LAN等のネットワークを介してロボット3の通信インタフェースと通信してもよい。つまり、ロボット制御システム100(及び認識システム10)とロボット3との間の通信方式は、無線通信方式であってもよいし、有線通信方式であってもよい。
【0070】
上述の実施形態では、認識システム10及びロボット制御システム100はサーバで実現されているが、これに限らず、認識システム10及びロボット制御システム100はロボット3に設けられていてもよい。この場合、通信部2は不要である。
【0071】
上述の実施形態では、ロボット3は、アーム31と、ハンド32と、を備えているが、これに限らず、ハンド32のみを備えていてもよい。つまり、ロボット制御システム100は、ハンド32をロボット3として制御する構成であってもよい。
【0072】
上述の実施形態では、撮像部4はロボット3に設けられているが、これに限定する趣旨ではない。例えば、撮像部4は、工場内におけるロボット3以外の場所であって、平面視で箱6全体を撮像することができる位置に設置されてもよい。
【0073】
上述の実施形態において、ロボット制御システム100は、ロボット3をさらに備えたロボットシステムであってもよい。つまり、ロボットシステムは、対象物51をピッキングするロボット3と、ロボット3を制御する制御部13と、を備える。そして、制御部13は、上述の認識方法により認識された対象物51の第1特徴及び第2特徴に基づいて、ロボット3を制御する。
【0074】
上述の実施形態において、第2認識処理(第2認識部12)で用意される複数の認識手段121の各々は、対象物51の第2特徴を認識するための認識アルゴリズムであってもよい。例えば、第2認識処理では、複数の認識手段121として、パターンマッチング及び形状検出(一例として、コーナー検出、又はエッジ検出)等の認識アルゴリズムが用意されていてもよい。そして、第2認識処理は、第1認識処理(第1認識部11)で認識された対象物51の第1特徴に応じて、パターンマッチングを認識手段121として用いたり、形状検出を認識手段121として用いたりしてもよい。
【0075】
上述の実施形態において、第1認識処理(第1認識部11)で用いられる画像データD1と、第2認識処理(第2認識部12)で用いられる画像データD1とは、互いに異なっていてもよい。例えば、第2認識処理を実行する前に、ロボット3を制御することで、対象物51が撮像範囲の中心に位置するように撮像部4に撮像させてもよい。この場合、第2認識処理で用いる画像データD1では、対象物51が撮像範囲の周縁に位置しないことから、対象物51の画像が歪みにくく、対象物51の第2特徴を認識しやすくなる、という利点がある。
【0076】
上述の実施形態において、第1認識処理(第1認識部11)及び第2認識処理(第2認識部12)のうちの一方のみで対象物51の位置を認識してもよい。一例として、第1認識処理にて対象物51の種類を認識し、第2認識処理にて対象物51の位置を認識する態様であってもよい。
【0077】
上述の実施形態において、例えば箱6の中に対象物51が埋もれているために第1認識処理にて対象物51を認識できない場合が想定される。このような場合、例えばロボット3のハンド32により箱6の中身を撹拌し、撹拌後に再度、第1認識処理を実行してもよい。この態様では、第1認識処理において対象物51を認識する精度を向上することができる、という利点がある。
【0078】
上述の実施形態において、第1認識処理は、学習済みのニューラルネットワークを用いた分類器を用いて対象物51の第1特徴を認識しているが、これに限定する趣旨ではない。例えば、第1認識処理は、画像データD1の各画素の輝度を閾値と比較することにより、対象物51の第1特徴を認識してもよい。
【0079】
上述の実施形態において、別情報を加味して第1認識処理及び第2認識処理を実行してもよい。別情報は、一例として、物品5が工場で生産される部品であれば、部品の生産時間帯等である。つまり、第1認識処理及び第2認識処理を実行する際に、別情報として部品の生産時間帯を参照することで、対象物51となり得る物品5の種類を、この生産時間帯に生産される部品に絞ることが可能である。
【0080】
上述の実施形態では、認識システム10は、ロボット3がピッキングする対象物51を複数種類の物品5から認識するために用いられているが、この用途に限定する趣旨ではない。例えば、認識システム10は、ロボット3のピッキングした部品の取付先である対象物51を、基板7上にある複数種類の物品5から認識するために用いられてもよい。具体例として、ロボット3がピッキングした部品がフラットケーブルであれば、認識システム10は、フラットケーブルのコネクタの接続先であるコネクタ(対象物51)を、基板7上にある複数種類の部品(物品5)から認識するために用いられてもよい。この場合、制御部13は、基板7の上方から基板7を撮像するように撮像部4を制御することで、画像データD1を取得すればよい。
【0081】
(まとめ)
以上述べたように、第1の態様に係る認識方法は、第1認識処理と、第2認識処理と、を含む。第1認識処理は、対象物(51)を含む画像データ(D1)から対象物(51)の第1特徴を認識する。第2認識処理では、対象物(51)となり得る複数種類の物品(5)の特徴に対応した複数の認識手段(121)が用意される。第2認識処理は、少なくとも第1認識処理において認識された第1特徴に応じて、複数の認識手段(121)から一の認識手段(121)を選択し、一の認識手段(121)により対象物(51)の第2特徴を認識する。
【0082】
この態様によれば、複数種類の物品(5)から対象物(51)を認識するまでに要する時間のばらつきが生じにくい、という利点がある。
【0083】
第2の態様に係る認識方法では、第1の態様において、第2特徴は、対象物(51)の位置及び姿勢の少なくとも一方を含む。
【0084】
この態様によれば、対象物(51)がどのような物体であるかを認識するだけでなく、対象物(51)がどのように配置されているかをも認識することができる、という利点がある。
【0085】
第3の態様に係る認識方法では、第1又は第2の態様において、第1特徴は、対象物(51)の位置を含む。
【0086】
この態様によれば、第1認識処理にて認識された対象物(51)の位置に絞って第2認識処理を実行することが可能になるので、第2認識処理に要する時間の短縮を図りやすい、という利点がある。
【0087】
第4の態様に係る認識方法では、第1~第3のいずれかの態様において、第1認識処理及び第2認識処理は、いずれも対象物(51)の位置を認識する。対象物(51)の位置を認識する精度は、第1認識処理よりも第2認識処理の方が高い。
【0088】
この態様によれば、第1認識処理のみで対象物(51)の位置を認識する場合と比較して、対象物(51)の位置を認識する精度を向上しやすい、という利点がある。また、この態様によれば、第2認識処理のみで対象物(51)の位置を認識する場合と比較して、第2認識処理に要する時間の短縮を図りやすい、という利点がある。
【0089】
第5の態様に係る認識方法では、第1~第4のいずれかの態様において、第2認識処理は、第1認識処理で用いられる画像データ(D1)と同じ画像データ(D1)を用いて、一の認識手段(121)により対象物(51)の第2特徴を認識する。
【0090】
この態様によれば、第1認識処理と第2認識処理とで互いに異なる画像データ(D1)を撮像して取得する場合と比較して、1回の撮像により画像データ(D1)を取得すれば済む。このため、この態様によれば、画像データ(D1)の取得に要する時間の短縮を図りやすい、という利点がある。
【0091】
第6の態様に係る認識方法では、第1~第5のいずれかの態様において、第1認識処理は、対象物(51)となり得る複数種類の物品(5)の画像データを入力データとして機械学習することで得られる分類器を用いて、対象物(51)の第1特徴を認識する。
【0092】
この態様によれば、分類器を用いない場合と比較して、対象物(51)の第1特徴を認識しやすい、という利点がある。
【0093】
第7の態様に係る認識方法では、第1~第6のいずれかの態様において、複数の認識手段(121)の各々は、パターンマッチングに用いられるテンプレート(T1)である。
【0094】
この態様によれば、対象物(51)に応じた適切なテンプレート(T1)を用いて対象物(51)の第2特徴を認識することができるので、対象物(51)の第2特徴を認識しやすくなる、という利点がある。
【0095】
第8の態様に係る認識方法では、第1~第6のいずれかの態様において、複数の認識手段(121)の各々は、対象物(51)の第2特徴を認識するための認識アルゴリズムである。
【0096】
この態様によれば、対象物(51)に応じた適切な認識アルゴリズムを用いて対象物(51)の第2特徴を認識することができるので、対象物(51)の第2特徴を認識しやすくなる、という利点がある。
【0097】
第9の態様に係る認識方法では、第1~第8のいずれかの態様において、第2認識処理は、第1認識処理において認識された第1特徴に基づいて、画像データ(D1)において一の認識手段(121)を適用する範囲を限定する。
【0098】
この態様によれば、画像データ(D1)の全体に対して一の認識手段(121)を適用する場合と比較して、第2認識処理に要する時間の短縮を図りやすい、という利点がある。
【0099】
第10の態様に係る認識システム(10)は、第1認識部(11)と、第2認識部(12)と、を備える。第1認識部(11)は、対象物(51)を含む画像データ(D1)から対象物(51)の第1特徴を認識する。第2認識部(12)では、対象物(51)となり得る複数種類の物品(5)の特徴に対応した複数の認識手段(121)が用意される。第2認識部(12)は、少なくとも第1認識部(11)において認識された第1特徴に応じて、複数の認識手段(121)から一の認識手段(121)を選択し、一の認識手段(121)により対象物(51)の第2特徴を認識する。
【0100】
この態様によれば、複数種類の物品(5)から対象物(51)を認識するまでに要する時間のばらつきが生じにくい、という利点がある。
【0101】
第11の態様に係るロボット制御方法は、第1~第9のいずれかの態様の認識方法により認識された対象物(51)の第1特徴及び第2特徴に基づいて、対象物(51)をピッキングするロボット(3)を制御する。
【0102】
この態様によれば、複数の物品(5)から対象物(51)を認識するまでに要する時間のばらつきが生じにくい、という利点がある。
【0103】
第12の態様に係るロボット制御システム(100)は、対象物(51)をピッキングするロボット(3)を制御する制御部(13)を備える。制御部(13)は、第1~第9のいずれかの認識方法により認識された対象物(51)の第1特徴及び第2特徴に基づいて、ロボット(3)を制御する。
【0104】
この態様によれば、複数種類の物品(5)から対象物(51)を認識するまでに要する時間のばらつきが生じにくい、という利点がある。
【0105】
第13の態様に係るロボットシステムは、対象物(51)をピッキングするロボット(3)と、ロボット(3)を制御する制御部(13)と、を備える。制御部(13)は、第1~第9のいずれかの態様の認識方法により認識された対象物(51)の第1特徴及び第2特徴に基づいて、ロボット(3)を制御する。
【0106】
この態様によれば、複数種類の物品(5)から対象物(51)を認識するまでに要する時間のばらつきが生じにくい、という利点がある。
【0107】
第14の態様に係る認識プログラムは、1以上のプロセッサに、第1~第9のいずれかの態様の認識方法を実行させるためのプログラムである。
【0108】
この態様によれば、複数種類の物品(5)から対象物(51)を認識するまでに要する時間のばらつきが生じにくい、という利点がある。
【0109】
第15の態様に係るロボット制御プログラムは、1以上のプロセッサに、第11の態様に係るロボット制御方法を実行させるためのプログラムである。
【0110】
この態様によれば、複数種類の物品(5)から対象物(51)を認識するまでに要する時間のばらつきが生じにくい、という利点がある。
【0111】
第2~第9の態様に係る方法については、認識方法に必須の方法ではなく、適宜省略可能である。
【符号の説明】
【0112】
10 認識システム
11 第1認識部
12 第2認識部
121 認識手段
3 ロボット
5 物品
51 対象物
100 ロボット制御システム
D1 画像データ
T1 テンプレート
図1
図2
図3
図4
図5