IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ キヤノン株式会社の特許一覧

特開2024-175376情報処理装置、情報処理方法、ロボットシステム、物品の製造方法、プログラム、及び記録媒体
<>
  • 特開-情報処理装置、情報処理方法、ロボットシステム、物品の製造方法、プログラム、及び記録媒体 図1
  • 特開-情報処理装置、情報処理方法、ロボットシステム、物品の製造方法、プログラム、及び記録媒体 図2
  • 特開-情報処理装置、情報処理方法、ロボットシステム、物品の製造方法、プログラム、及び記録媒体 図3
  • 特開-情報処理装置、情報処理方法、ロボットシステム、物品の製造方法、プログラム、及び記録媒体 図4
  • 特開-情報処理装置、情報処理方法、ロボットシステム、物品の製造方法、プログラム、及び記録媒体 図5
  • 特開-情報処理装置、情報処理方法、ロボットシステム、物品の製造方法、プログラム、及び記録媒体 図6
  • 特開-情報処理装置、情報処理方法、ロボットシステム、物品の製造方法、プログラム、及び記録媒体 図7
  • 特開-情報処理装置、情報処理方法、ロボットシステム、物品の製造方法、プログラム、及び記録媒体 図8
  • 特開-情報処理装置、情報処理方法、ロボットシステム、物品の製造方法、プログラム、及び記録媒体 図9
  • 特開-情報処理装置、情報処理方法、ロボットシステム、物品の製造方法、プログラム、及び記録媒体 図10
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024175376
(43)【公開日】2024-12-18
(54)【発明の名称】情報処理装置、情報処理方法、ロボットシステム、物品の製造方法、プログラム、及び記録媒体
(51)【国際特許分類】
   G06N 20/00 20190101AFI20241211BHJP
   G06N 3/09 20230101ALI20241211BHJP
【FI】
G06N20/00 130
G06N3/09
【審査請求】未請求
【請求項の数】22
【出願形態】OL
(21)【出願番号】P 2023093115
(22)【出願日】2023-06-06
(71)【出願人】
【識別番号】000001007
【氏名又は名称】キヤノン株式会社
(74)【代理人】
【識別番号】110003133
【氏名又は名称】弁理士法人近島国際特許事務所
(72)【発明者】
【氏名】村川 圭介
(57)【要約】
【課題】学習データの取得に要するユーザの負担を軽減する。
【解決手段】情報処理装置は、情報処理部を備え、前記情報処理部は、2種類以上のデータを取得し、前記2種類以上のデータのうち少なくとも1つを所定の機械学習に用いられる形式に変換して学習データを取得する。
【選択図】図2
【特許請求の範囲】
【請求項1】
情報処理部を備える情報処理装置であって、
前記情報処理部は、
2種類以上のデータを取得し、
前記2種類以上のデータのうち少なくとも1つを所定の機械学習に用いられる形式に変換して学習データを取得する、
ことを特徴とする情報処理装置。
【請求項2】
前記情報処理部は、前記2種類以上のデータをそれぞれ2つ以上のセンサから取得する、
ことを特徴とする請求項1に記載の情報処理装置。
【請求項3】
前記情報処理部は、前記学習データを用いて前記所定の機械学習により学習する、
ことを特徴とする請求項1に記載の情報処理装置。
【請求項4】
前記情報処理部は、前記所定の機械学習により学習済みの機械学習モデルを取得する、
ことを特徴とする請求項3に記載の情報処理装置。
【請求項5】
前記学習済みの機械学習モデルに入力される入力データは、制御対象に含まれるセンサから得られるデータを含む、
ことを特徴とする請求項4に記載の情報処理装置。
【請求項6】
前記所定の機械学習に用いられる形式は、前記制御対象に含まれるセンサから得られるデータの形式である、
ことを特徴とする請求項5に記載の情報処理装置。
【請求項7】
前記制御対象がロボットである、
ことを特徴とする請求項5に記載の情報処理装置。
【請求項8】
前記情報処理部は、前記制御対象に含まれるセンサから得られるデータを含む学習データを用いて、前記所定の機械学習により再学習する、
ことを特徴とする請求項5に記載の情報処理装置。
【請求項9】
前記所定の機械学習は、教師あり学習であり、
前記学習データに含まれる2種類以上のデータのうちの少なくとも1つはラベルデータである、
ことを特徴とする請求項1に記載の情報処理装置。
【請求項10】
前記情報処理部は、前記学習データに含まれる前記2種類以上のデータの各々を、時系列に取得する、
ことを特徴とする請求項1に記載の情報処理装置。
【請求項11】
前記情報処理部は、
前記2種類以上のデータの各々を時系列に取得し、
前記2種類以上のデータのうち少なくとも1つを前記所定の機械学習に用いられる形式に変換し、
変換後のデータを含む2種類以上のデータを互いに時刻毎に紐づけして時刻毎の複数のデータセットを取得し、
前記複数のデータセットの中から選択されたデータセットにより前記学習データを取得する、
ことを特徴とする請求項1に記載の情報処理装置。
【請求項12】
前記情報処理部は、前記複数のデータセットの中から前記学習データに用いられるデータセットの選択を受け付けるユーザインタフェースを、表示部に表示させる、
ことを特徴とする請求項11に記載の情報処理装置。
【請求項13】
前記情報処理部は、前記所定の機械学習に用いる機械学習モデルの選択を受け付けるユーザインタフェースを、表示部に表示させる、
ことを特徴とする請求項1に記載の情報処理装置。
【請求項14】
前記情報処理部は、取得するデータの種類の選択を受け付けるユーザインタフェースを、表示部に表示させる、
ことを特徴とする請求項1に記載の情報処理装置。
【請求項15】
前記2つ以上のセンサは、イメージセンサを含む、
ことを特徴とする請求項2に記載の情報処理装置。
【請求項16】
前記2つ以上のセンサは、ユーザが操作可能なツールに配置されたセンサを含む、
ことを特徴とする請求項2に記載の情報処理装置。
【請求項17】
前記2種類以上のデータは異なる種類のデータである、
ことを特徴とする請求項1に記載の情報処理装置。
【請求項18】
情報処理方法であって、
2種類以上のデータを取得し、
前記2種類以上のデータのうち少なくとも1つを所定の機械学習に用いられる形式に変換して学習データを取得する、
ことを特徴とする情報処理方法。
【請求項19】
請求項1乃至17のいずれか1項に記載の情報処理装置と、
前記情報処理装置に制御されるロボットと、を備える、
ことを特徴とするロボットシステム。
【請求項20】
請求項19に記載のロボットシステムを用いて物品を製造する、
ことを特徴とする物品の製造方法。
【請求項21】
請求項18に記載の情報処理方法をコンピュータに実行させるためのプログラム。
【請求項22】
請求項21に記載のプログラムを記録した、コンピュータによって読み取り可能な記録媒体。
【発明の詳細な説明】
【技術分野】
【0001】
情報処理の技術に関する。
【背景技術】
【0002】
ロボットから得られる複数のセンサ情報を学習データとして機械学習するマルチモーダルAI技術が知られている。この技術によって、人が行っていた作業をロボットに実現させることができる。特許文献1には、マルチモーダル認識システムが開示されている。
【先行技術文献】
【特許文献】
【0003】
【特許文献1】特開2021-076913号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
従来、機械学習に用いられる学習データを取得するのにユーザの負担が大きかったため、その負担を軽減することが求められている。
【0005】
本開示は、学習データの取得に要するユーザの負担を軽減することにある。
【課題を解決するための手段】
【0006】
本開示の第1態様は、情報処理部を備える情報処理装置であって、前記情報処理部は、2種類以上のデータを取得し、前記2種類以上のデータのうち少なくとも1つを所定の機械学習に用いられる形式に変換して学習データを取得する、ことを特徴とする情報処理装置である。
【0007】
本開示の第2態様は、情報処理方法であって、2種類以上のデータを取得し、前記2種類以上のデータのうち少なくとも1つを所定の機械学習に用いられる形式に変換して学習データを取得する、ことを特徴とする情報処理方法である。
【発明の効果】
【0008】
本開示によれば、学習データの取得に要するユーザの負担を軽減することができる。
【図面の簡単な説明】
【0009】
図1】第1実施形態に係るシステムの一例であるロボットシステムの概略図である。
図2】第1実施形態に係るロボットシステムの制御ブロック図である。
図3】第1実施形態に係るセンサデータの説明図である。
図4】第1実施形態に係る情報処理方法の説明図である。
図5】第1実施形態に係る学習データの説明図である。
図6】第1実施形態に係る学習フェーズの一例を示すフローチャートである。
図7】第1実施形態に係る機械学習処理の説明図である。
図8】第1実施形態に係る推論フェーズの一例を示すフローチャートである。
図9】第1実施形態に係る学習モデルを作成するGUIを示す模式図である。
図10】第2実施形態に係る情報処理方法の説明図である。
【発明を実施するための形態】
【0010】
以下、本開示の例示的な実施形態について、図面を参照しながら詳細に説明する。
【0011】
[第1実施形態]
図1は、第1実施形態に係るシステムの一例であるロボットシステム1の概略図である。ロボットシステム1は、情報処理装置100と、自動生産に用いられる複数のFA機器と、を備える。ロボットシステム1は、物品の製造に用いられる。
【0012】
ロボットシステム1は、FA機器として、プログラマブルロジックコントローラ(PLC)120、カメラ131、ロボットハンド132、センサ133、ロボットアーム134、画像処理装置125、AI(Artificial Intelligence)装置126、機械学習用のカメラ137、機械学習用のセンサ138、及びコントローラ121~128を備える。
【0013】
ロボットシステム1は、制御環境140と学習環境141とに分けられる。制御環境140は、自動生産の際に実際に制御されるFA機器を含む。例えば制御環境140は、PLC120、カメラ131、ロボットハンド132、センサ133、ロボットアーム134、画像処理装置125、AI装置126、及びコントローラ121~126を含む。学習環境141は、模擬動作を情報処理装置100に機械学習させる際に必要なFA機器を含む。例えば学習環境141は、カメラ137、センサ138、及びコントローラ127及び128を含む。第1実施形態では、ロボットシステム1は、機械学習に用いられる2種類以上のセンサ、即ち2つ以上のセンサとして、カメラ137およびセンサ138を有する。
【0014】
PLC120は、カメラコントローラ121、ハンドコントローラ122、センサコントローラ123、ロボットコントローラ124、画像処理装置125、AI装置126、カメラコントローラ127、及びセンサコントローラ128を統括的に制御する。カメラコントローラ121は、カメラ131を制御するコントローラである。ハンドコントローラ122は、ロボットハンド132を制御するコントローラである。センサコントローラ123は、センサ133を制御するコントローラである。ロボットコントローラ124は、ロボットアーム134を制御するコントローラである。カメラコントローラ127は、カメラ137を制御するコントローラである。センサコントローラ128は、センサ138を制御するコントローラである。なお、情報処理装置100がPLC120を含む複数のFA機器を統括的に制御してもよい。
【0015】
カメラ131は、イメージセンサを有するセンサであり、制御環境140においてワークなどを撮像するのに用いられる。ロボットハンド132は、エンドエフェクタの一例であり、ロボットアーム134に取り付けられる。ロボットハンド132は、ワークを保持可能に構成されている。センサ133は、ロボットハンド132に内蔵されている。ロボットアーム134は、例えば産業用のロボットアームである。ロボットアーム134及びロボットハンド132を有してロボット130が構成されている。画像処理装置125及びAI装置126は、それぞれコンピュータで構成されている。カメラ137は、イメージセンサを有するセンサであり、学習環境141においてユーザ302の模擬動作を撮像するのに用いられる。センサ138は、模擬動作中の状態をセンシングするためのセンサである。センサ138は、ユーザ302が操作可能なツール303に配置されている。ツール303は、例えばユーザ302が装着可能な装着具である。
【0016】
PLC120、カメラコントローラ121、ハンドコントローラ122、センサコントローラ123、ロボットコントローラ124、画像処理装置125、AI装置126、カメラコントローラ127、及びセンサコントローラ128は、情報処理装置100に、所定の規格に準拠した接続方式で接続されている。
【0017】
なお、制御環境140に属するFA機器及びそれを制御するコントローラが機械学習に用いられる場合には、学習環境141に属するFA機器及びそれを制御するコントローラは、省略可能である。即ち、学習環境141の一部または全部が制御環境140に含まれていてもよい。例えば、カメラ137及びセンサ138が省略される場合、ロボットシステム1は、機械学習に用いられる2種類以上のセンサ、即ち2つ以上のセンサとして、例えばカメラ131及びセンサ133を有していることになる。
【0018】
情報処理装置100は、コンピュータで構成されている。情報処理装置100は、プロセッサの一例であるCPU(Central Processing Unit)101を備える。CPU101は、プログラム110を実行することにより情報処理部として機能する。また、情報処理装置100は、記憶部としてROM(Read Only Memory)102、RAM(Random Access Memory)103、SSD(Solid State Drive)104、及び入出力インタフェースであるI/O105を備える。また、情報処理装置100は表示部の一例であるディスプレイ106と、入力部の一例であるマウス107及びキーボード108と、を有する。CPU101、ROM102、RAM103、SSD104、I/O105、ディスプレイ106、マウス107、及びキーボード108は、バスにより互いにデータ伝送可能に接続されている。
【0019】
ROM102には、コンピュータの動作に関する基本プログラムが格納されている。RAM103は、CPU101の演算処理結果など、各種データを一時的に記憶する記憶装置である。SSD104には、CPU101の演算処理結果や外部から取得した各種データなどが記録されると共に、CPU101に各種処理を実行させるためのプログラム110が記録されている。プログラム110は、CPU101が実行可能なアプリケーションソフトウェアである。I/O105は、外部機器とのインタフェースである。また、I/O105には、記録ディスクや記憶デバイス等のリムーバブルメモリ109が接続可能である。I/O105は、リムーバブルメモリ109に記録された各種データやプログラム等を読み出すことができる。
【0020】
なお、情報処理装置100は、記憶デバイスとしてSSD104を備えるが、これに限定されるものではない。情報処理装置100が備える記憶デバイスは例えばHDDであってもよい。
【0021】
また、本実施形態では、コンピュータによって読み取り可能な非一時的な記録媒体がSSD104であり、SSD104にプログラム110が記録されているが、これに限定されるものではない。プログラム110は、コンピュータによって読み取り可能な非一時的な記録媒体であれば、いかなる記録媒体に記録されていてもよい。プログラム110をコンピュータに供給するための記録媒体としては、リムーバブルメモリ109、例えばフレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、磁気テープ、不揮発性メモリ等を用いることができる。
【0022】
情報処理装置100は、ユーザ、例えばエンドユーザがロボットシステム1のシステム制御のプログラミングを行うのに用いることができる。
【0023】
図2は、第1実施形態に係るロボットシステム1の制御ブロック図である。図1に示す情報処理装置100のCPU101は、プログラム110を実行することにより、情報処理部200として機能する。情報処理部200は、データ形式変換部210、指令変換部240及び学習機能部260を含む。学習機能部260は、学習データ抽出部261と、学習データ生成部262と、学習部263と、を有する。
【0024】
第1実施形態では、学習部263は、2種類以上のデータを用いて機械学習を行うことで、マルチモーダルAIの学習モデル219を生成する。学習モデル219は、学習済みの機械学習モデルである。
【0025】
PLC120、カメラコントローラ121、ハンドコントローラ122、センサコントローラ123、ロボットコントローラ124、画像処理装置125、AI装置126、カメラコントローラ127、及びセンサコントローラ128のそれぞれは、対応する仕様の指令に基づいて処理を実行する。
【0026】
例えば、PLC120には、ラダープログラムを実行するソフトウェア250がインストールされている。PLC120は、専用のプログラミング言語で作成された指令COM0に基づいて、システム全体の制御処理を実行する。
【0027】
カメラコントローラ121には、カメラコントロール専用のソフトウェア251がインストールされている。カメラコントローラ121は、専用のプログラミング言語で作成された指令COM1に基づいて、カメラ131の制御処理を実行する。
【0028】
ハンドコントローラ122には、ハンドコントロール専用のソフトウェア252がインストールされている。ハンドコントローラ122は、専用のプログラミング言語で作成された指令COM2に基づいて、ロボットハンド132の制御処理を実行する。
【0029】
センサコントローラ123には、センサコントロール専用のソフトウェア253がインストールされている。センサコントローラ123は、専用のプログラミング言語で作成された指令COM3に基づいて、センサ133の制御処理を実行する。
【0030】
ロボットコントローラ124は、ロボットコントロール専用のソフトウェア(ロボットプログラム)254がインストールされている。ロボットコントローラ124は、専用のプログラミング言語で作成された指令COM4に基づいて、ロボットアーム134の制御処理を実行する。
【0031】
画像処理装置125には、画像処理専用の画像処理ライブラリ(画像処理プログラム)255がインストールされている。画像処理装置125は、専用のプログラミング言語で作成された指令COM5に基づいて、画像処理を実行する。画像処理は、例えば二値化処理又はパターンマッチング処理である。
【0032】
AI装置126には、AI専用のAIライブラリ(AIプログラム)256がインストールされている。AI装置126は、専用のプログラミング言語で作成された指令COM6に基づいて、AI処理を実行する。AI処理は、学習済みの学習モデル219を用いて入力データに対して出力データを出力する処理である。
【0033】
カメラコントローラ127には、カメラコントロール専用のソフトウェア257がインストールされている。カメラコントローラ127は、専用のプログラミング言語で作成された指令COM7に基づいて、カメラ137の制御処理を実行する。
【0034】
センサコントローラ128には、センサコントロール専用のソフトウェア258がインストールされている。センサコントローラ128は、専用のプログラミング言語で作成された指令COM8に基づいて、センサ138の制御処理を実行する。各ソフトウェア250~258は、例えばソフトウェア開発キット(SDK)で構成される。
【0035】
記憶デバイス、例えば図1に記載のSSD104には、モジュールセット220が記憶されている。モジュールセット220は、複数のモジュールを含む。モジュールセット220に含まれるモジュールは、情報処理部200が対応する機器に出力する指令を生成するのに用いられるデータである。
【0036】
データ形式変換部210は、モジュール間の情報の受け渡しを行う。例えば数値型変数211は数値型のデータを保持する。また例えば、判定型変数212は判定型(Boolean型)のデータを保持する。また例えば、文字列型変数213は文字列を表すデータを保持する。また例えば、選択型変数214は複数の選択肢から選択可能なデータを保持する。また例えば、画像型変数215は画像を表すデータを保持する。また例えば、領域型変数216は領域を表すデータを保持する。また例えば、POSE型変数217は空間座標を表すデータを保持する。また例えば、学習モデル型変数218は、1つ以上の学習済みの学習モデル219のデータを保持する。
【0037】
データ形式変換部210は、2種類以上のデータを取得し、2種類以上のデータのうち少なくとも1つを、学習部263において所定の機械学習に用いられる形式に変換し、変換したデータを含む2種類以上のデータを学習機能部260に出力する。第1実施形態では、データ形式変換部210は、各ソフトウェア250~258のSDKから取得したデータ形式を、学習部263が機械学習処理可能なデータ形式に変換する機能を有する。所定の機械学習は、本実施形態では教師あり学習であり、学習部263に設定された機械学習のアルゴリズム、例えばニューラルネットワークである。
【0038】
専用SDK257がカメラ137から取得する画像データのデータ形式は、例えばカラー形式である。学習部263におけるニューラルネットワークが例えばモノクロ形式の画像データのみ受け付け可能な場合、データ形式変換部210は、カラー形式の画像データを、モノクロ形式の画像データへ変換する。
【0039】
専用SDK258がセンサ138から取得するセンサデータのデータ形式は、指先に生じる圧力を表す数値である。画像処理部280は、ツール303に取り付けられたマーカ139の3次元位置を検出し、3次元空間の座標データを出力する。3次元空間の座標を表すデータ形式は、例えば図3に示すような形式が存在する。3次元空間座標データ290は、3次元空間の座標X,Y,Zと各座標軸の回転角Rx,Ry,Rzの6要素で表現される空間座標である。3次元空間座標データ291は、3次元空間の座標X,Y,Zと各座標軸の回転角Rx,Ry,Rzとロボットの形態を表すFigの7要素で表現される空間座標である。3次元空間座標データ292は、3次元空間の座標X,Y,Zと各座標軸の回転角Rx,Ry,Rzと姿勢の表現形式を表すCodeの7要素で表現される空間座標である。3次元空間座標データ293は、3次元空間の座標X,Y,Zの3要素で表現される空間座標である。
【0040】
学習フェーズで用いる画像処理部280が出力する3次元空間の座標データ形式と、推論フェーズで用いるロボットプログラム254が出力する3次元空間の座標データ形式とが異なっていると、正しく推論が行われない。このため、データ形式変換部210は、画像処理部280が出力する3次元空間の座標データのデータ形式を、ロボットプログラム254が出力する3次元空間の座標データと同様のデータ形式に変換する。
【0041】
なお、データ型の一例について説明したが、データ型はこれらに限定されるものではない。例えば日付型のデータや色を表すデータでもよい。また、モジュール間の情報の受け渡しを例に説明したが、各モジュールは、情報処理部200に含まれる学習機能部260などの他の機能との間でも情報の受け渡しを行うことができる。
【0042】
指令変換部240は、モジュールを指令に変換する機能を有する。例えば、指令変換部240は、PLCモジュール230を指令COM0に変換する。また例えば、指令変換部240は、カメラ制御モジュール231を指令COM1に変換する。また例えば、指令変換部240は、ハンド制御モジュール232を指令COM2に変換する。また例えば、指令変換部240は、センサ制御モジュール233を指令COM3に変換する。また例えば、指令変換部240は、ロボット制御モジュール234を指令COM4に変換する。また例えば、指令変換部240は、画像処理モジュール235を指令COM5に変換する。また例えば、指令変換部240は、AIモジュール236を指令COM6に変換する。また例えば、指令変換部240は、カメラ制御モジュール237を指令COM7に変換する。また例えば、指令変換部240は、センサ制御モジュール238を指令COM8に変換する。
【0043】
指令変換部240は、図2の機器120,131,132,133,134,135,136、137、138と、対応する通信規格の方式で通信管理部270を介してデータ通信する。指令変換部240は、各指令COM0~COM8を、対応する通信規格で対応する機器と通信可能な形式で作成する。例えば、指令変換部240とPLC120との間の通信規格は、TCP/IPである。また例えば、指令変換部240とカメラコントローラ121との間の通信規格は、USB3である。また例えば、指令変換部240とハンドコントローラ122との間の通信規格は、Ethernetである。また例えば、指令変換部240とセンサコントローラ123との間の通信規格は、CC-Linkである。また例えば、指令変換部240とロボットコントローラ124との間の通信規格は、TCP/IPである。また例えば、指令変換部240とカメラコントローラ127との間の通信規格は、USB3である。また例えば、指令変換部240とセンサコントローラ128との間の通信規格は、CC-Linkである。なお、通信規格の一例について説明したが、通信規格はこれらに限定されるものではない。例えば、センサコントローラ123の通信インタフェースは、CC-Linkインタフェースであるが、IOインタフェースであっても、他のフィールドバスであってもよい。
【0044】
また、センサコントローラ123は、情報処理装置100に直接接続することもできるが、例えばPLC120を介して情報処理装置100に接続してもよい。また、モジュールセット220に含まれるモジュールは、上述の例に限定されるものではない。例えば、モジュールセット220は、モジュールとして、その他のFA機器の制御モジュールを含んでもよい。また例えば、モジュールセット220は、モジュールとして、四則演算や論理演算、行列演算を行うモジュールを含んでもよい。また例えば、モジュールセット220は、モジュールとして、PCの環境情報を取得するモジュールを含んでもよい。また例えば、モジュールセット220は、モジュールとして、画像データなどの様々なデータを、ログとして保存するモジュールを含んでもよい。
【0045】
制御フロープログラム201は、ロボットシステム1の各機器を統括的に制御するためのプログラムであり、グラフィカルユーザインタフェース(GUI)を介してエンドユーザにより作成される。制御フロープログラム201は、情報処理部200に、1つのモジュール、又は2つ以上のモジュールの組み合わせをモジュールセット220から読み出させ、情報処理部200に、対応する指令を生成させるためのプログラムである。
【0046】
学習データ生成部262は、学習済みの機械学習モデルを生成するのに必要な学習データを、変数211~217から選択する。例えば画像型変数215には、専用SDK257がカメラ137から取得し、データ形式が変換された画像データが格納される。また、例えば数値型変数211には、専用SDK258がセンサ138から取得したセンサデータが格納される。学習データ生成部262は、画像型変数215及びPOSE型変数217を選択することで、データ形式変換後の画像データを時系列に取得し、データ形式変換後のセンサデータを時系列に取得する。
【0047】
学習データ抽出部261は、時系列のデータの中から不要なデータを除くなどして、学習データとするのに必要なデータだけを抽出する。学習データの具体的な抽出方法は後述する。学習部263は、学習データ抽出部261で抽出された学習データに基づいて機械学習を行い、学習済みの学習モデル219を生成する。生成された学習済みの学習モデル219は、学習モデル型変数218に格納される。推論フェーズでは、AIモジュール236に学習済みの学習モデル219が渡されることで、AI装置126において推論が行われる。
【0048】
図4は、第1実施形態に係る情報処理方法(学習方法)の説明図である。ロボット130によってワーク300をワーク301に組み付ける制御を例に説明する。第1実施形態では、ロボットシステム1は、2つ以上のセンサとしてカメラ137及びセンサ138を有する。情報処理部200は、2種類以上のデータをそれぞれ2つ以上のセンサから取得する。例えば、情報処理部200は、カメラ137から画像データを取得し、センサ138からセンサデータを取得する。
【0049】
ユーザ302は、制御環境140においてロボット130に実際に行わせる動作を、学習環境141において模擬する。例えば、ユーザ302は、センサ138が配置されたツール303を装着して、ワーク300をワーク301に組み付ける模擬動作を実施する。
【0050】
このとき、カメラ137は、ユーザ302の周囲環境の状態を撮像して画像データを生成する。画像データは、情報処理部200のデータ形式変換部210に送信される。データ形式変換部210は、画像データのデータ形式を、カラー形式からモノクロ形式に変換し、モノクロ形式に変換した画像データを入力データ管理310に入力データ311として格納する。また、画像処理部280は、ツール303に取り付けられたマーカ139の3次元位置を検出し、POSE型データをラベルデータ管理320にラベルデータ321として格納する。画像処理部280は、カメラ137から取得した画像からマッチング等の画像処理技術によりマーカの3次元位置を算出する。
【0051】
また、センサ138は、ユーザ302の模擬動作に基づくセンサ138のセンサデータを取得する。センサデータは、情報処理部200のデータ形式変換部210に送信される。データ形式変換部210は、画像データのデータ形式を、図3に示すいずれかの形式から別の形式に変換して、変換後のデータ形式のセンサデータを入力データ管理310に入力データ311として格納する。
【0052】
以上の変換処理により、図5に示すように、ラベルデータ321と入力データ311を含むデータセット340が取得される。そして、この一連の流れが複数回繰り返されることで、時刻毎の複数のデータセット340が取得される。学習データ生成部262では、入力データ311にラベルデータ321とタイムスタンプを付与することによって、データセット340を生成する。学習データ抽出部261は、複数のデータセット340の中から少なくとも1つのデータセット340を抽出し、抽出したデータセット340を学習データ350とする。このように、学習データ350に含まれる2種類以上のデータのうちの少なくとも1つはラベルデータ321である。
【0053】
学習部263は、学習データ350を用いて所定の機械学習により学習し、その結果、学習済みの学習モデル219を取得する。例えば、学習部263は、入力された画像データ及びセンサデータから、ある状況において次に行うべき動作の情報を出力するように機械学習処理を行う。
【0054】
機械学習処理が完了した後、学習済みの学習モデル219は、学習モデル型変数218に格納される。AI装置126は、推論フェーズにおいて、学習済みの学習モデル219を用いて機械学習を行う。AI装置126、即ち学習済みの学習モデル219には、カメラ131からロボット130の周囲環境の状態を観測し得られた画像データと、センサ133が取得したセンサデータとが入力される。センサ133は、制御対象であるロボット130に含まれているセンサである。AI装置126、即ち学習モデル219は、入力された画像データ及びセンサデータに対して、ロボット130が次に行うべき動作の情報を出力する推論処理を行う。ロボットコントローラ124は、動作の情報に基づいて、ロボット130のロボットアーム134を制御し、ハンドコントローラ122は、動作情報に基づいてロボットハンド132を制御する。ロボットプログラム254が出力する3次元空間の座標データのデータ形式は、学習フェーズにおいて機械学習に用いた3次元空間の座標データの変換後のデータ形式と同じである。
【0055】
なお、センサ138を有するツール303がユーザ302に装着される装着具である場合を例に説明したが、これに限定されるものではない。ユーザ302が操作可能なツール303は、例えばダイレクトティーチングのように、ユーザ302が直接動かすことができる、センサ138を有するロボットであってもよい。この機械学習に用いられるロボットは、ロボット130であってもよい。
【0056】
以上、学習フェーズにおいては、ユーザ302がワーク300をワーク301に組み付ける模擬動作を行ったときのユーザ302の手の位置情報に基づいて、機械学習が行われる。そして、推論フェーズにおいては、機械学習によって生成された、学習済みの学習モデル219を用いて、ロボット130に移動させるべき位置が推論される。
【0057】
図6は、第1実施形態に係る学習フェーズの一例を示すフローチャートである。ステップS100において、データ形式変換部210は、カメラ137から画像データを時系列に取得し、センサ138からセンサデータを時系列に取得する。
【0058】
次に、ステップS101において、データ形式変換部210は、各画像データのデータ形式、及び各センサデータのデータ形式を変換する。
【0059】
ステップS102において、学習データ生成部262は、データセット340を取得する。具体的には、学習データ生成部262は、データ形式変換後の画像データをラベルデータ管理320にラベルデータ321として格納し、データ形式変換後のセンサデータを入力データ管理310に入力データ311として格納する。その際、学習データ生成部262は、入力データ311及びラベルデータ321にタイムスタンプを付与し、入力データ311及びラベルデータ321を時刻毎に互いに紐づけする。即ち、時刻毎に入力データ311にラベルデータ321が付与される。これにより、入力データ311及びラベルデータ321を含むデータセット340が時刻毎に生成され、時刻毎の複数のデータセット340が取得される。
【0060】
ステップS103において、学習データ抽出部261は、複数のデータセット340の中から選択されたデータセット340を抽出し、抽出したデータセット340を学習データ350として取得する。
【0061】
データセット340の選択方法は、例えばタイムスタンプの情報に基づいて、時系列の複数のデータセット340の中からデータセット340を所定の時間間隔で間引いてもよいし、複数のデータセット340の中からラベルデータ321の情報に従って不必要なデータセット340を除去してもよく、これらの方法によって学習データ350のデータ量を削減することができる。
【0062】
なお、データセット340の選択(抽出)は、省略可能であり、作成された複数のデータセット340の全てを学習データ350としてもよい。
【0063】
次に、ステップS104において、学習部263は、生成された学習データ350を用いて所定の機械学習(機械学習処理)を実行し、学習済みの学習モデル219を生成する。
【0064】
図7は、第1実施形態に係る機械学習処理の説明図である。図7には、データの流れが図示されている。学習データ生成部262は、入力データ管理310から時系列の入力データ311を取得し、ラベルデータ管理320から時系列のラベルデータ321を取得し、複数のデータセット340を生成する。学習データ抽出部261は、生成された複数のデータセット340の中から選択された少なくとも1つのデータセット340で学習データ350を抽出する。
【0065】
学習データ抽出部261は、複数のデータセット340を、学習部263で学習済みの学習モデル219を生成するために必要な機械学習用のデータ410と、学習済みの学習モデル219を検証するためのテスト用データ420とに、ランダムに配分する。検証部430は、学習モデル219のハイパーパラメータ等の最適化を行い、過学習の無いバランスの良い結果が得られるよう検証処理を行う。テスト用データ420は、検証部430が検証を行う際に利用される。なお、検証処理は公知の技術であるため説明を省略する。
【0066】
図8は、第1実施形態に係る推論フェーズの一例を示すフローチャートである。図8には、物品の製造方法を示すフローチャートが図示されている。推論フェーズにおいて、ロボットコントローラ124及びハンドコントローラ122は、推論結果に基づいて、ロボット130にワーク300をワーク301に組み付ける組み付け作業を行わせることで、ロボット130に物品を製造させる。
【0067】
ステップS200において、AI装置126が学習済みの学習モデル219を用いて推論処理を実行するのに必要な入力データを、カメラ131及びセンサ133から取得する。
【0068】
ここで、カメラ131から取得された画像データのデータ形式がカラー形式である場合、ステップS201において、データ形式変換部210は、画像データのデータ形式をカラー形式からモノクロ形式に変換してもよい。
【0069】
次に、ステップS202において、AI装置126は、学習済みの学習モデル219と、ステップS201で変換された入力データを入力値として推論処理を実行し、ロボット130が次に動作すべき位置を出力(予測)する。
【0070】
ステップS203において、ロボットコントローラ124は、予測されたロボット130の動作位置情報を動作指令値としてロボット130を制御し、ロボット130にワークの組み付け作業を実行させる。
【0071】
ステップS204において、所定の状態で組み付けが完了されているかどうかが判定される。ステップS204がYES、即ち組み付けが完了されていれば、動作が終了される。ステップS204がNO、即ち組み付けが未完了であれば、再びステップS200の処理に戻る。
【0072】
第1実施形態では、学習フェーズで用いられる画像処理255の3次元空間の座標データのデータ形式が、推論フェーズで用いられるロボットプログラム254の3次元空間の座標データのデータ形式と同じとなるように変換される。よって、推論フェーズにおいて、正しく推論が行われる。
【0073】
図9は、第1実施形態に係る学習モデル219を作成するGUIを示す模式図である。情報処理部200は、表示部の一例であるディスプレイ106にユーザインタフェースであるウィンドウ600を表示させる。ウィンドウ600には、学習モデル219を作成するためのユーザインタフェース画像が含まれる。
【0074】
ウィンドウ600は、学習データ設定部610と、ラベルデータ表示部620、入力データ表示部630、パラメータ設定部640、ラベルデータ設定部650、及び入力データ設定部660を含む。
【0075】
学習データ設定部610は、複数のデータセット340の中から学習データ350に用いられるデータセット340の選択を受け付けるユーザインタフェースである。情報処理部200は、学習データ設定部610に、学習データ生成部262で生成されたデータセット340を一覧形式で表示する。
【0076】
学習データ設定部610には、学習のヘッダ情報611が表示される。ヘッダ情報は、学習データ350に付与されるタイムスタンプ情報、ラベルデータ管理320に格納されているラベルデータ321のデータ名、及び入力データ管理310に格納されている入力データ311のデータ名などを含む。
【0077】
学習データ設定部610には、学習データの詳細情報612が表示される。学習データの詳細情報612には、即ちタイムスタンプ情報、及びタイムスタンプ情報に対応する入力データ311やラベルデータ321の情報などのデータセット340の情報が、チェックボックスと共に時系列に表示される。
【0078】
ユーザがポインティングデバイスを用いてチェックボックスにチェックを入れることで、学習データ350に含めるデータセット340が選択される。また、学習データ350に含める必要のないデータセット340については、ユーザがチェックボックスからチェックを外すことで、学習データ350から除外される。
【0079】
このように、ユーザは、学習データ設定部610に表示された入力データ311の情報や、ラベルデータ321の情報を見ながら、ノイズと思われるデータセット340や、学習データに不要と思われるデータセット340を、チェックボックスのチェックを外すことで、学習データ350から除外することができる。
【0080】
ラベルデータ表示部620は、学習データ設定部610において、ユーザがチェックボックスにて選択したデータセット340のラベルデータ321の詳細を確認できる領域であるラベルデータ表示領域621を含む。ラベルデータ表示領域621には、ラベルデータ321が画像データだった場合、画像データに対応する画像が表示される。
【0081】
ラベルデータ321が複数ある場合、ラベルデータ表示部620に一覧形式で複数の画像が表示されてもよいし、例えばインデックス番号が指定されることで複数の画像を切り替えて表示されてもよい。
【0082】
入力データ表示部630は、学習データ設定部610において、ユーザがチェックボックスにて選択したデータセット340の入力データ311の詳細を確認できる領域である入力データ表示領域631を含む。入力データ表示領域631には、入力データ311が数値データだった場合、数値データに対応する画像が表示される。
【0083】
入力データ311が複数ある場合、入力データ表示部630に一覧形式で複数の数値が表示されてもよいし、例えばインデックス番号が指定されることで複数の数値を切り替えて表示されてもよい。
【0084】
パラメータ設定部640は、学習モデル219を作成するために必要なパラメータを設定するための領域であるニューラルネットワーク設定領域641を含む。ニューラルネットワーク設定領域641では、推論に使用するニューラルネットワークの種類の選択を受け付ける。即ち、パラメータ設定部640は、所定の機械学習に用いる機械学習モデルの選択を受け付けるユーザインタフェースである。ニューラルネットワークは、機械学習モデルの一例である。
【0085】
ニューラルネットワーク設定領域641においては、一例として、ニューラルネットワークの層の一つである自然言語処理に用いられるLSTM(Long Short Term Memory)、ニューラルネットワークの層の一つであり、時系列のデータが扱えるRNN(Recurrent Neural Network)、又は物体検出に使用されるSSD(Single Shot Multi Box Detector)などの選択肢が表示される。
【0086】
なお、これらのニューラルネットワークは一例であり、その他に畳み込みニューラルネットワークであるCNN(Convolutional Neural Network)や、敵対的生成ネットワークGAN(Generative Adversarial Network)などが選択肢に含まれてもよい。
【0087】
ラベルデータ設定部650及び入力データ設定部660は、取得するデータの種類の選択を受け付けるユーザインタフェースである。
【0088】
ラベルデータ設定部650は、ラベルデータ管理320に格納するラベルデータ321を設定するための領域であるラベルデータ数設定領域651を含む。ラベルデータ数設定領域651は、ニューラルネットワーク設定領域641で選択されたニューラルネットワークの種類に応じて、必要なラベルデータ数を設定することができる。
【0089】
なお、必要なラベルデータ数が予め定まっているようなニューラルネットワークの場合は、ラベルデータ数設定領域651に自動的に必要なラベルデータ数が表示され、ユーザは操作できないようにグレーアウトされる。また、ラベルデータ数設定領域651においてユーザが不図示の「auto」を選択することで、推奨値が設定される。
【0090】
ラベルデータ設定領域652は、ラベルデータ数設定領域651で設定されたラベルデータ数に応じて必要な数だけ表示される。ラベルデータ設定領域652は、図2に示す制御フロープログラム201において指定された複数のモジュールから、取得させるデータを指定することができる。
【0091】
取得させるデータの指定方法の一例として、図9に示すラベルデータ設定領域652では、カメラ制御モジュール231で撮像した画像データをラベルデータとして設定されている。ラベルデータ設定領域652は、ニューラルネットワーク設定領域641で選択されたニューラルネットワークの種類に応じて、入力可能なデータ形式のみが選択できる状態となる。
【0092】
入力データ設定部660は、入力データ管理310に格納する入力データ311を設定するための領域である入力データ数設定領域661を含む。入力データ数設定領域661は、ニューラルネットワーク設定領域641で選択されたニューラルネットワークの種類に応じて、必要な入力データ数を設定することができる。
【0093】
なお、必要な入力データ数が予め定まっているようなニューラルネットワークの場合は、入力データ数設定領域661に自動的に必要な入力データ数が表示され、ユーザは操作できないようにグレーアウトされる。また、入力データ数設定領域661においてユーザが「auto」を選択することで、推奨値が設定される。
【0094】
入力データ設定領域662は、入力データ数設定領域661で設定された入力データ数に応じて必要な数だけ表示される。入力データ設定領域662は、図2に示す制御フロープログラム201において指定された複数のモジュールから、取得されるデータを指定することができる。
【0095】
取得させるデータの指定方法の一例として、図9に示す入力データ設定領域662では、センサ制御モジュール233で取得したセンサ値を入力データとして設定されている。
入力データ設定領域662は、ニューラルネットワーク設定領域641で選択されたニューラルネットワークの種類に応じて、入力可能なデータ形式のみが選択できる状態となる。
【0096】
学習モデル219を作成するための設定作業が完了した場合、情報処理部200は、「学習の開始」のボタン670がユーザに操作されることで、図6に示す処理を開始し、ステップS104において学習済みの学習モデル219を作成する。
【0097】
ステップS104の機械学習処理が開始されると、学習モデル219を作成可能なソフトウェア、例えばAIプログラム256を用いて機械学習が行われる。具体的には、学習データ設定部610で作成された学習データ350を入力として、ニューラルネットワーク設定領域641で選択されたニューラルネットワークで機械学習が行われ、学習済みの学習モデル219が作成される。作成された学習モデル219は、学習モデル型変数218に格納される。
【0098】
学習フェーズにおいて学習モデル219が作成される際、FA機器などのセンサから入力データやラベルデータが取得される。このとき、ユーザは、グラフィカルユーザインタフェースであるウィンドウ600を介して情報処理部200に入力データやラベルデータの数を増減させたり、入力データ又はラベルデータのデータ形式を変換させたりすることができる。よって、ユーザが推論フェーズにおける学習結果が最良となるよう試行錯誤を行う際に、簡単に入力条件を変更しながら学習モデル219を作成することができる。また、作成した複数の学習モデル219を学習モデル型変数218に格納することができるため、推論フェーズにおいて学習結果を比較することが容易となる。
【0099】
以上、第1実施形態によれば、2つ以上のセンサから2種類以上のデータが取得され、2種類以上のデータのうち少なくとも1つの形式が、学習部263で所定の機械学習に用いられる形式に変換されるので、学習データ350の取得に要するユーザの負担が軽減される。
【0100】
[第2実施形態]
次に第2実施形態について説明する。第2実施形態において、第1実施形態と共通する事項については説明を簡単化あるいは省略し、以下、第1実施形態と異なる事項について詳細に説明する。図10は、第2実施形態に係る情報処理方法(学習方法)の説明図である。
【0101】
第1実施形態では、学習環境141で行った模擬動作を学習部263に機械学習させることで、学習済みの学習モデル219が生成される。生成された学習モデル219は、制御環境140におけるロボットアーム134が次に行うべき動作情報を、AI装置126が推論するために用いられる。そして、図8に示すフローチャートに従って制御されることで、制御環境140においてロボット130によりワーク300がワーク301に組み付けられる組み付け作業が実行される。しかし、場合によっては制御環境140において正しく推論されずに組み付け作業が失敗してしまうことがある。組み付け作業が失敗する原因の一つに、学習環境141と制御環境140とが厳密に一致していないことが考えられる。例えば制御環境140の環境下において外乱光がカメラ131に取得される画像に影響を及ぼしたり、ロボットハンド132のワーク300と接する部分に、経年劣化が生じたりする場合などが考えられる。
【0102】
第2実施形態において、情報処理部200は、制御対象であるロボット130に含まれるセンサ133から得られるデータを含む学習データ350を用いて、所定の機械学習により再学習する。
【0103】
例えば、制御環境140において、ユーザがロボットアーム134を手動で操作するなどして、ワーク300をワーク301に組み付ける動作を再現することで、情報処理部200は、新たな学習データ350を取得し、新たな学習データ350を用いて学習モデル219を補正する再学習を行う。この再学習の作業では、カメラ131にてロボット130の周囲環境の状態を観測し、センサ133にてロボット130の動作情報を取得する。
【0104】
なお、再学習を行う場合でも、データ形式変換部210は、カメラ131から得られた画像データのデータ形式を変換してラベルデータ321としてもよい。以降のデータ処理は、第1実施形態で説明した通りである。このように、制御環境140で得られた情報を新たな学習データ350として追加することができ、新たな学習データ350を用いて情報処理部200に再学習させることができる。この再学習によって、学習部263は、学習環境141と制御環境140との間に生じる差異を小さくすることができ、ワークの組み付け作業の成功率を高めることができる。
【0105】
また、第2実施形態又は第2実施形態の変形例に、第1実施形態又は第1実施形態の変形例の少なくとも1つを組み合わせてもよい。
【0106】
本開示は、以上説明した実施形態に限定されるものではなく、実施形態は、本開示の技術的思想内で多くの変形が可能である。また、本実施形態に記載された効果は、本開示の実施形態から生じる最も好適な効果を列挙したに過ぎず、本開示の実施形態による効果は、本実施形態に記載されたものに限定されない。
【0107】
システムは、少なくとも2つの異なるセンサを用いて学習を行う形態であれば、ロボットシステムに限定されず、例えばカメラを用いた画像処理検査システムであってもよいし、カメラとセンサを搭載したAGV(Automatic Guided Vehicle)を含むシステムであってもよい。
【0108】
また、第1及び第2実施形態では、ロボットが垂直多関節のロボットの場合について説明したが、これに限定するものではない。ロボットが、例えば水平多関節のロボット、パラレルリンクのロボット、直交ロボット等、種々のロボットであってもよい。また、本開示は、制御装置に設けられる記憶装置の情報に基づき、伸縮、屈伸、上下移動、左右移動もしくは旋回の動作またはこれらの複合動作を自動的に行うことができる機械に適用可能である。
【0109】
(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
【0110】
以上の実施形態の開示は、以下の項を含む。
【0111】
(項1)
情報処理部を備える情報処理装置であって、
前記情報処理部は、
2種類以上のデータを取得し、
前記2種類以上のデータのうち少なくとも1つを所定の機械学習に用いられる形式に変換して学習データを取得する、
ことを特徴とする情報処理装置。
【0112】
(項2)
前記情報処理部は、前記2種類以上のデータをそれぞれ2つ以上のセンサから取得する、
ことを特徴とする項1に記載の情報処理装置。
【0113】
(項3)
前記情報処理部は、前記学習データを用いて前記所定の機械学習により学習する、
ことを特徴とする項1又は2に記載の情報処理装置。
【0114】
(項4)
前記情報処理部は、前記所定の機械学習により学習済みの機械学習モデルを取得する、
ことを特徴とする項3に記載の情報処理装置。
【0115】
(項5)
前記学習済みの機械学習モデルに入力される入力データは、制御対象に含まれるセンサから得られるデータを含む、
ことを特徴とする項4に記載の情報処理装置。
【0116】
(項6)
前記所定の機械学習に用いられる形式は、前記制御対象に含まれるセンサから得られるデータの形式である、
ことを特徴とする項5に記載の情報処理装置。
【0117】
(項7)
前記制御対象がロボットである、
ことを特徴とする項5又は6に記載の情報処理装置。
【0118】
(項8)
前記情報処理部は、前記制御対象に含まれるセンサから得られるデータを含む学習データを用いて、前記所定の機械学習により再学習する、
ことを特徴とする項5乃至7のいずれか1項に記載の情報処理装置。
【0119】
(項9)
前記所定の機械学習は、教師あり学習であり、
前記学習データに含まれる2種類以上のデータのうちの少なくとも1つはラベルデータである、
ことを特徴とする項1乃至8のいずれか1項に記載の情報処理装置。
【0120】
(項10)
前記情報処理部は、前記学習データに含まれる前記2種類以上のデータの各々を、時系列に取得する、
ことを特徴とする項1乃至9のいずれか1項に記載の情報処理装置。
【0121】
(項11)
前記情報処理部は、
前記2種類以上のデータの各々を時系列に取得し、
前記2種類以上のデータのうち少なくとも1つを前記所定の機械学習に用いられる形式に変換し、
変換後のデータを含む2種類以上のデータを互いに時刻毎に紐づけして時刻毎の複数のデータセットを取得し、
前記複数のデータセットの中から選択されたデータセットにより前記学習データを取得する、
ことを特徴とする項1乃至9のいずれか1項に記載の情報処理装置。
【0122】
(項12)
前記情報処理部は、前記複数のデータセットの中から前記学習データに用いられるデータセットの選択を受け付けるユーザインタフェースを、表示部に表示させる、
ことを特徴とする項11に記載の情報処理装置。
【0123】
(項13)
前記情報処理部は、前記所定の機械学習に用いる機械学習モデルの選択を受け付けるユーザインタフェースを、表示部に表示させる、
ことを特徴とする項1乃至12のいずれか1項に記載の情報処理装置。
【0124】
(項14)
前記情報処理部は、取得するデータの種類の選択を受け付けるユーザインタフェースを、表示部に表示させる、
ことを特徴とする項1乃至13のいずれか1項に記載の情報処理装置。
【0125】
(項15)
前記2つ以上のセンサは、イメージセンサを含む、
ことを特徴とする項2に記載の情報処理装置。
【0126】
(項16)
前記2つ以上のセンサは、ユーザが操作可能なツールに配置されたセンサを含む、
ことを特徴とする項2に記載の情報処理装置。
【0127】
(項17)
前記2種類以上のデータは異なる種類のデータである、
ことを特徴とする項1乃至16のいずれか1項に記載の情報処理装置。
【0128】
(項18)
情報処理方法であって、
2種類以上のデータを取得し、
前記2種類以上のデータのうち少なくとも1つを所定の機械学習に用いられる形式に変換して学習データを取得する、
ことを特徴とする情報処理方法。
【0129】
(項19)
項1乃至17のいずれか1項に記載の情報処理装置と、
前記情報処理装置に制御されるロボットと、を備える、
ことを特徴とするロボットシステム。
【0130】
(項20)
項19に記載のロボットシステムを用いて物品を製造する、
ことを特徴とする物品の製造方法。
【0131】
(項21)
項18に記載の情報処理方法をコンピュータに実行させるためのプログラム。
【0132】
(項22)
項21に記載のプログラムを記録した、コンピュータによって読み取り可能な記録媒体。
【符号の説明】
【0133】
100…情報処理装置、200…情報処理部
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10