(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024053352
(43)【公開日】2024-04-15
(54)【発明の名称】情報処理方法、プログラム及び情報処理装置
(51)【国際特許分類】
G01N 35/04 20060101AFI20240408BHJP
G06N 20/00 20190101ALI20240408BHJP
G06V 10/70 20220101ALI20240408BHJP
G06T 7/00 20170101ALI20240408BHJP
B25J 13/00 20060101ALI20240408BHJP
【FI】
G01N35/04 G
G06N20/00
G06V10/70
G06T7/00 350B
B25J13/00 A
【審査請求】未請求
【請求項の数】9
【出願形態】OL
(21)【出願番号】P 2022159563
(22)【出願日】2022-10-03
【新規性喪失の例外の表示】特許法第30条第2項適用申請有り 令和 4年 6月30日に、生物試料分析,第45巻,第3号,第120~129頁,生物試料分析科学会にて公開 令和 4年 6月30日に、生物試料分析科学会のウェブサイトにて公開(http://j-jabs.umin.jp/2022-45.html) 令和 4年 9月 7日に、第40回日本ロボット学会学術講演会にて公開 令和 4年 9月 4日に、第40回日本ロボット学会学術講演会のウェブサイトで公開(https://ac.rsj-web.org/2022/)
【新規性喪失の例外の表示】特許法第30条第2項適用申請有り 令和 4年 6月30日に、生物試料分析,第45巻,第3号,第120~129頁,生物試料分析科学会にて公開 令和 4年 6月30日に、生物試料分析科学会のウェブサイトにて公開(http://j-jabs.umin.jp/2022-45.html) 令和 4年 9月 7日に、第40回日本ロボット学会学術講演会にて公開 令和 4年 9月 4日に、第40回日本ロボット学会学術講演会のウェブサイトで公開(https://ac.rsj-web.org/2022/)
(71)【出願人】
【識別番号】504176911
【氏名又は名称】国立大学法人大阪大学
(71)【出願人】
【識別番号】517448489
【氏名又は名称】合同会社H.U.グループ中央研究所
(74)【代理人】
【識別番号】100114557
【弁理士】
【氏名又は名称】河野 英仁
(74)【代理人】
【識別番号】100078868
【弁理士】
【氏名又は名称】河野 登夫
(72)【発明者】
【氏名】万 偉偉
(72)【発明者】
【氏名】原田 研介
(72)【発明者】
【氏名】陳 昊
(72)【発明者】
【氏名】松下 雅季
(72)【発明者】
【氏名】小▲高▼ 健之
【テーマコード(参考)】
2G058
3C707
5L096
【Fターム(参考)】
2G058CA02
2G058CB16
2G058CF06
2G058CF16
3C707AS09
3C707JS03
3C707KS03
3C707KS04
3C707KT03
3C707KT06
3C707LW12
5L096BA05
5L096DA02
5L096HA11
5L096KA04
(57)【要約】
【課題】検体ラックに挿入されたチューブを好適に別の検体ラックへ移し替える、または同じ検体ラック内で好適に並び替えることができる情報処理方法等を提供する。
【解決手段】情報処理方法は、複数のチューブが挿入されたチューブラックを撮像した画像を取得し、前記画像から現在のチューブの配置を認識し、現在のチューブの配置を入力した場合に、次に移動すべきチューブの位置を出力するよう学習済みの強化学習モデルに、認識したチューブの配置を入力することで次のチューブの位置を出力し、移動後のチューブの位置に基づき、前記強化学習モデルを更新する処理をコンピュータが実行する。
【選択図】
図1
【特許請求の範囲】
【請求項1】
複数のチューブが挿入されたチューブラックを撮像した画像を取得し、
前記画像から現在のチューブの配置を認識し、
現在のチューブの配置を入力した場合に、次に移動すべきチューブの位置を出力するよう学習済みの強化学習モデルに、認識したチューブの配置を入力することで次のチューブの位置を出力し、
移動後のチューブの位置に基づき、前記強化学習モデルを更新する
処理をコンピュータが実行する情報処理方法。
【請求項2】
前記強化学習モデルは、深層強化学習モデルである
請求項1に記載の情報処理方法。
【請求項3】
前記チューブの種類に応じて、チューブラックに一又は複数のチューブ収容領域を設定し、
現在のチューブの配置と、前記チューブ収容領域とを前記強化学習モデルに入力することで、次に移動させるべきチューブの位置を出力する
請求項1に記載の情報処理方法。
【請求項4】
移動後のチューブの位置が前記チューブ収容領域内である場合、前記強化学習モデルにプラスの報酬を付与し、
移動後のチューブの位置が前記チューブ収容領域から離れた場合、前記強化学習モデルにマイナスの報酬を付与する
請求項3に記載の情報処理方法。
【請求項5】
前記チューブラックに挿入されたチューブの本数を徐々に増やした複数の前記画像を取得し、
チューブの本数が少ない前記画像から順番に学習を開始し、前記強化学習モデルを更新する
請求項1に記載の情報処理方法。
【請求項6】
前記強化学習モデルからの出力に基づくチューブの移動シーケンスから、余分動作を削除する
請求項1に記載の情報処理方法。
【請求項7】
チューブを把持したロボットアームの画像と、チューブが挿入されていない空のチューブラックの画像とを取得し、
前記ロボットアームの画像からチューブの画像部分を抽出して前記空のチューブラックの画像に重畳することで合成画像を生成し、
前記合成画像に基づき、チューブラックの画像を入力した場合にチューブラック内のチューブを認識する認識モデルを生成し、
前記認識モデルを用いて、現在のチューブの配置を認識する
請求項1に記載の情報処理方法。
【請求項8】
複数のチューブが挿入されたチューブラックを撮像した画像を取得し、
前記画像から現在のチューブの配置を認識し、
現在のチューブの配置を入力した場合に、次に移動すべきチューブの位置を出力するよう学習済みの強化学習モデルに、認識したチューブの配置を入力することで次のチューブの位置を出力し、
移動後のチューブの位置に基づき、前記強化学習モデルを更新する
処理をコンピュータに実行させるプログラム。
【請求項9】
制御部を備えた情報処理装置であって、
前記制御部が、
複数のチューブが挿入されたチューブラックを撮像した画像を取得し、
前記画像から現在のチューブの配置を認識し、
現在のチューブの配置を入力した場合に、次に移動すべきチューブの位置を出力するよう学習済みの強化学習モデルに、認識したチューブの配置を入力することで次のチューブの位置を出力し、
移動後のチューブの位置に基づき、前記強化学習モデルを更新する
情報処理装置。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、情報処理方法、プログラム及び情報処理装置に関する。
【背景技術】
【0002】
近年、人間が行っていた作業をロボットが行うことで省人化を図ることが行われている。例えば特許文献1では、検体容器(試験管等のチューブ)の状態が規格外の検体容器をロボットが把持し、検体ラックから空の別の検体ラックへ移し替える検体自動仕分システムが開示されている。
【先行技術文献】
【特許文献】
【0003】
【発明の概要】
【発明が解決しようとする課題】
【0004】
一方で、チューブをチューブラック内で仕分ける場合に、検体容器の移動経路を計画するのに膨大な計算時間が必要になるという問題がある。
【0005】
一つの側面では、検体ラックに挿入されたチューブを好適に別の検体ラックへ移し替える、または同じ検体ラック内で好適に並び替えることができる情報処理方法等を提供することを目的とする。
【課題を解決するための手段】
【0006】
一つの側面では、情報処理方法は、複数のチューブが挿入されたチューブラックを撮像した画像を取得し、前記画像から現在のチューブの配置を認識し、現在のチューブの配置を入力した場合に、次に移動すべきチューブの位置を出力するよう学習済みの強化学習モデルに、認識したチューブの配置を入力することで次のチューブの位置を出力し、移動後のチューブの位置に基づき、前記強化学習モデルを更新する処理をコンピュータが実行する。
【発明の効果】
【0007】
一つの側面では、チューブラックに挿入されたチューブを好適に並び替えることができる。
【図面の簡単な説明】
【0008】
【
図1】自動仕分システムの構成例を示す説明図である。
【
図7】学習難易度とチューブの数との関係を示す説明図である。
【
図9】第1パターンの余分動作の削除例を示す説明図である。
【
図10】第2パターンの余分動作の削除例を示す説明図である。
【
図11】強化学習モデルの生成処理の手順を示すフローチャートである。
【
図12】並び替え計画処理の手順を示すフローチャートである。
【
図14】自動アノテーションに関する説明図である。
【
図15】認識モデルの生成処理の手順を示すフローチャートである。
【発明を実施するための形態】
【0009】
以下、本発明をその実施の形態を示す図面に基づいて詳述する。
(実施の形態1)
図1は、自動仕分システムの構成例を示す説明図である。本実施の形態では、チューブラックに挿入された複数種類のチューブを、チューブの種類毎に自動的に並び替える自動仕分システムについて説明する。自動仕分システムは、情報処理装置1、端末2、ロボット3、3Dカメラ4を含む。情報処理装置1及び端末2は、ネットワークNを介して通信接続されている。
【0010】
なお、本明細書では、チューブラックに挿入されたチューブには、検体が収容されたチューブ、検体が収容されていない空のダミーチューブ、チューブ以外の棒状物(遠心分離器のバランス用のウェイトなど)を含む。また、本明細書において「検体」とは、検査装置などの対象試料のことを指し、生体成分を含む試料や試薬環境サンプルなどを意味する。生体成分としては、生体から取り出された血液(血清、血漿)、尿、唾液、脳脊髄液等がある。
【0011】
情報処理装置1は、種々の情報処理、情報の送受信が可能な情報処理装置であり、例えばサーバコンピュータ、パーソナルコンピュータ等である。本実施の形態では情報処理装置1がサーバコンピュータであるものとし、以下では簡潔のためサーバ1と読み替える。後述するように、サーバ1は、チューブラックにおける現在のチューブの配置を入力した場合に、次に移動すべきチューブの位置を出力する強化学習モデル52(
図4参照)を生成する。
【0012】
端末2は、種々の情報処理が可能な端末装置であり、例えばパーソナルコンピュータ等である。端末2は、チューブラックの撮像画像からチューブを認識し、上述の強化学習モデル52を利用して、チューブを並び替える順序を計画する。
【0013】
ロボット3は、チューブを把持可能なアームを備えたロボットである。端末2は、上述の如くチューブの並び替え計画を作成すると、作成した計画をロボット3に出力し、チューブの並び替え動作を実行させる。
【0014】
3Dカメラ4は、ラックを載置する机の上やロボット3に設置された3Dカメラであり、点群データ、2次元の画像データ、及び距離画像を取得可能なカメラである。端末2は、3Dカメラ4で撮像された画像からチューブのキャップを認識し、ロボット3に当該チューブを移動させるよう指示する。
【0015】
図2は、サーバ1の構成例を示すブロック図である。サーバ1は、制御部11、主記憶部12、通信部13、及び補助記憶部14を備える。
制御部11は、一又は複数のCPU(Central Processing Unit)、MPU(Micro-Processing Unit)、GPU(Graphics Processing Unit)等の演算処理装置を有し、補助記憶部14に記憶されたプログラムP1を読み出して実行することにより、種々の情報処理、制御処理等を行う。主記憶部12は、SRAM(Static Random Access Memory)、DRAM(Dynamic Random Access Memory)、フラッシュメモリ等の一時記憶領域であり、制御部11が演算処理を実行するために必要なデータを一時的に記憶する。通信部13は、通信に関する処理を行うための通信モジュールであり、外部と情報の送受信を行う。
【0016】
補助記憶部14は、大容量メモリ、ハードディスク等の不揮発性記憶領域であり、制御部11が処理を実行するために必要なプログラムP1(プログラム製品)、その他のデータを記憶している。また、補助記憶部14は、認識モデル51を記憶している。認識モデル51は、所定の訓練データを学習済みの機械学習モデルであり、チューブラックの画像を入力した場合にチューブを認識するよう学習済みのモデルである。認識モデル51は、人工知能ソフトウェアの一部を構成するプログラムモジュールとしての利用が想定される。
【0017】
なお、補助記憶部14はサーバ1に接続された外部記憶装置であってもよい。また、サーバ1は複数のコンピュータからなるマルチコンピュータであっても良く、ソフトウェアによって仮想的に構築された仮想マシンであってもよい。
【0018】
また、本実施の形態においてサーバ1は上記の構成に限られず、例えば操作入力を受け付ける入力部、画像を表示する表示部等を含んでもよい。また、サーバ1は、CD(Compact Disk)-ROM、DVD(Digital Versatile Disc)-ROM等の可搬型記憶媒体1aを読み取る読取部を備え、可搬型記憶媒体1aからプログラムP1を読み取って実行するようにしても良い。
【0019】
図3は、端末2の構成例を示すブロック図である。端末2は、制御部21、主記憶部22、通信部23、表示部24、入力部25、及び補助記憶部26を備える。
制御部21は、一又は複数のCPU等のプロセッサを有し、補助記憶部26に記憶されたプログラムP2を読み出して実行することにより、種々の情報処理を行う。主記憶部22は、RAM等の一時記憶領域であり、制御部21が演算処理を実行するために必要なデータを一時的に記憶する。通信部23は、通信に関する処理を行うための通信モジュールであり、外部と情報の送受信を行う。表示部24は、液晶ディスプレイ等の表示画面であり、画像を表示する。入力部25は、キーボード、マウス等の操作インターフェイスであり、ユーザから操作入力を受け付ける。
【0020】
補助記憶部26は、ハードディスク、大容量メモリ等の不揮発性記憶領域であり、制御部21が処理を実行するために必要なプログラムP2、その他のデータを記憶している。また、補助記憶部26は、認識モデル51、強化学習モデル52を記憶している。強化学習モデル52は、所定の訓練データを学習済みの機械学習モデルであり、現在のチューブの配置を入力した場合に、次に移動すべきチューブの位置を出力するモデルである。強化学習モデル52は、人工知能ソフトウェアの一部を構成するプログラムモジュールとしての利用が想定される。
【0021】
なお、端末2は、CD-ROM等の可搬型記憶媒体2aを読み取る読取部を備え、可搬型記憶媒体2aからプログラムP2を読み取って実行するようにしても良い。
【0022】
図4は、強化学習モデル52の概要を示す説明図である。
図4では、チューブラックの状態(チューブの配置)と、最終的にチューブを収容すべきゴール領域(チューブ収容領域)のパターンとを強化学習モデル52に入力した場合に、チューブの移動シーケンスを出力する様子を図示している。以下では、本実施の形態の概要を説明する。
【0023】
なお、
図4ではチューブが元々挿入されているチューブラック内でチューブを移動させる様子を図示しているが、本実施の形態はこれに限定されるものではなく、チューブを別のチューブラックに移し替える場合も本実施の形態に含まれる。
【0024】
強化学習モデル52は、チューブラックにおける現在のチューブの配置を入力した場合に、次に移動すべきチューブの位置を出力するモデルであり、例えば深層強化学習モデル(例えばDeep Q-Network)である。強化学習モデル52として深層強化学習モデルを採用することで、従前の並び替え計画のアルゴリズム(例えばA*アルゴリズム)を使う場合と比べて、チューブの並び替えを計画するにあたっての計算時間を大幅に削減することができる。
【0025】
図5は、状態s(state)と動作a(action)の定義を示す説明図である。本実施の形態では、以下の様にエージェントの状態sと動作aとを定義する。まずサーバ1は、
図5左側に示すように、チューブラック上のチューブの種類に応じて、最終的にチューブを収容すべきゴール領域を設定する。
図5の例ではチューブの種類が2種類であるため、2つのゴール領域が設定される。状態sは、チューブラック上の各チューブの位置と、ゴール領域とで規定される。
【0026】
また、
図5右側に示すように、一のチューブをチューブラックから取り出して別の位置に移動させることから、チューブが元々あった位置と、新たにチューブが移動された位置とで、動作aが規定される。
【0027】
図4に戻って説明を続ける。上述の如く状態sと動作aとを定義した上で、サーバ1は、強化学習モデル52の学習を行う。具体的には、サーバ1は、所定の訓練用の画像群を用いて学習を行う。当該画像は、複数のチューブが挿入されたチューブラックの画像である。
【0028】
まずサーバ1は、当該画像からチューブの配置を認識する。本実施の形態では、認識モデル51を用いてチューブを認識する。認識モデル51は、チューブラックの画像を入力した場合にチューブラック上のチューブを認識するモデルであり、例えばYOLO(You Look Only Once)である。
【0029】
なお、本実施の形態では認識モデル51がYOLOであるものとするが、YOLO以外の深層学習モデル、あるいは深層学習モデル以外の機械学習モデルであってもよい。
【0030】
サーバ1は、訓練用の画像を認識モデル51に入力することで、現在のチューブの配置を認識する。そしてサーバ1は、認識したチューブの配置と、ゴール領域のパターンとを強化学習モデル52に入力することで、次に移動すべきチューブの位置を出力する。
【0031】
図6は、報酬に関する説明図である。サーバ1は、移動後のチューブの位置に応じて強化学習モデル52に報酬を付与する。
図6では、当該報酬をテーブルにしてまとめてある。
図6に示すように、サーバ1は、移動後のチューブの位置が目標のゴール領域内にある場合はプラスXX点(XXは定数)の報酬を付与する。一方で、サーバ1は、移動後のチューブの位置がゴール領域から離れた場合はマイナスの報酬を付与する。以下同様にして、ただの移動である場合はマイナスの報酬を、全てのチューブが目標のゴール領域に入った場合はプラスの報酬を、閾値回数以上移動を繰り返しても全てのチューブがゴール領域に入らない場合はマイナスの報酬を付与する。
【0032】
なお、上記の報酬の与え方は一例であって、本実施の形態はこれに限定されるものではない。例えば、移動回数が閾値以下であればプラスの報酬を付与するなどしてもよい。
【0033】
上述の如く、サーバ1は、移動後のチューブの位置に応じて強化学習モデル52に報酬を付与する。そしてサーバ1は、付与した報酬に基づいて強化学習モデル52を更新する。サーバ1は上記の処理を繰り返し、強化学習モデル52を更新していく。サーバ1は、所定の学習終了条件(例えばQ値の収束)を満たすまで処理を繰り返し、最終的にニューロン間の重み等のパラメータを最適化した強化学習モデル52を生成する。
【0034】
図7は、学習難易度とチューブの数との関係を示す説明図である。
図7では、チューブの本数が増えるほど学習難易度が上がっていく様子を概念的に図示している。
【0035】
図7に示すように、強化学習モデル52に係る学習を行う場合、チューブの本数が増えるほど学習難易度が上がり、学習成果が収束しにくくなる。そこで本実施の形態では、チューブの本数が少ない画像から順番に学習を行う。すなわち、サーバ1は、訓練用の画像群としてチューブの本数を徐々に増やした複数の画像を用意しておき、チューブの本数が少ない画像から順番にチューブの配置を認識して、強化学習モデル52を更新していく。こうすることで学習成果が収束しやすくなる。
【0036】
上述の如く、サーバ1は強化学習モデル52を生成する。端末2には当該強化学習モデル52のデータが予めインストールされており、端末2は強化学習モデル52を用いてチューブの並び替え計画を行う。すなわち、端末2は、3Dカメラ4からチューブラックを撮像した画像を取得し、認識モデル51に入力することでチューブの配置を認識し、強化学習モデル52に入力することで次に移動すべきチューブの位置を出力する。端末2は当該処理を繰り返し、
図4右側に示したように、チューブの移動シーケンスを作成する。そして端末2は、作成したチューブの移動シーケンスをロボット3に出力し、チューブを移動させる。
【0037】
ここで、強化学習モデル52から出力された移動シーケンスに従ってチューブを移動させた場合、余分な動作(移動)を行う場合がある。
【0038】
図8は、余分動作例を示す説明図である。
図8では、強化学習モデル52からの出力に従ってチューブを移動させた場合に、余分な動作を行う様子を図示している。
【0039】
既に述べたように、強化学習モデル52を用いることで、他のアルゴリズム(例えばA
*アルゴリズム)を用いる場合と比較して並び替え計画の計算時間を大幅に削減することができる。一方で、強化学習モデル52を用いた場合、他のアルゴリズムと比べて、
図8で例示するような余分動作が発生しやすい。そこで本実施の形態では、このような余分動作を削除する。
【0040】
本実施の形態では余分動作を2パターンで定義する。第1のパターンは、
図8上側に示すように、余分動作を一つ削除すれば済むパターン(Immediately redundant action)である。第2のパターンは、
図8下側に示すように、正しい動作の間に余分動作が紛れているパターン(Eventually redundant action)である。
【0041】
図9は、第1パターンの余分動作の削除例を示す説明図である。第1パターンの余分動作を検出した場合、端末2は、当該余分動作(
図9中では2番目の動作)を削除する。これにより、動作の最適化を行う。
【0042】
図10は、第2パターンの余分動作の削除例を示す説明図である。第2パターンの余分動作を検出した場合、端末2は、部分的に他のアルゴリズムを適用することで、余分動作を削除する。他のアルゴリズムとは、例えばA
*アルゴリズムである。
図10の例では、太線で囲んだ動作に対し、A
*アルゴリズムを適用する。これにより端末2は、動作の最適化を行う。
【0043】
図8~
図10で例示したように、端末2は、強化学習モデル52が出力した移動シーケンスから余分動作を削除する。端末2は、余分動作を削除後の移動シーケンスをロボット3に出力し、チューブを移動させる。ロボット3は、端末2から出力された移動シーケンスに従ってチューブを移動させ、最終的にゴール領域に全てのチューブを収容する。
【0044】
図11は、強化学習モデル52の生成処理の手順を示すフローチャートである。
図11に基づき、強化学習モデル52を生成する際の処理内容について説明する。
サーバ1の制御部11は、訓練用の画像群を取得する(ステップS11)。当該画像は、複数のチューブが挿入されたチューブラックの画像である。制御部11は、当該画像を認識モデル51に入力することで、現在のチューブの配置を認識する(ステップS12)。
【0045】
制御部11は、認識したチューブの配置を強化学習モデル52に入力することで、次に移動すべきチューブの位置を出力する(ステップS13)。制御部11は、移動後のチューブの位置に基づき、強化学習モデル52に報酬を付与する(ステップS14)。具体的には上述の如く、制御部11は、移動後のチューブの位置がゴール領域内にある場合はプラスの報酬を、ゴール領域から離れた場合はマイナスの報酬を付与する。制御部11は、付与された報酬に基づき強化学習モデル52を更新する(ステップS15)。
【0046】
制御部11は、全てのチューブがゴール領域に移動したか否かを判定する(ステップS16)。全てのチューブがゴール領域に移動していないと判定した場合(S16:NO)、制御部11は処理をステップS13に戻す。
【0047】
全てのチューブがゴール領域に移動したと判定した場合(S16:YES)、制御部11は、強化学習モデル52の学習を終了するか否かを判定する(ステップS17)。学習を終了しないと判定した場合(S17:NO)、制御部11は処理をステップS11に戻す。この場合、制御部11はチューブの数を増やした画像を取得して学習を行う。学習を終了すると判定した場合(S17:YES)、制御部11は一連の処理を終了する。
【0048】
図12は、並び替え計画処理の手順を示すフローチャートである。
図12に基づき、チューブの並び替えを計画する際の処理内容について説明する。
端末2の制御部21は、チューブラックを撮像した画像を3Dカメラ4から取得する(ステップS31)。制御部21は、取得した画像を認識モデル51に入力することで、現在のチューブの配置を認識する(ステップS32)。
【0049】
制御部21は、認識したチューブの配置を強化学習モデル52に入力することで、次に移動すべきチューブの位置を出力する(ステップS33)。制御部11は、全てのチューブがゴール領域に移動したか否かを判定する(ステップS34)。全てのチューブがゴール領域に移動していないと判定した場合(S34:NO)、制御部21は処理をステップS33に戻す。全てのチューブがゴール領域に移動したと判定した場合(S34:YES)、制御部21は、強化学習モデル52からの出力に基づくチューブの移動シーケンスから、余分動作を削除する(ステップS35)。そして制御部21は、チューブの移動指示をロボット3に出力し(ステップS36)、一連の処理を終了する。
【0050】
以上より、本実施の形態1によれば、強化学習モデル52を利用してチューブの並び替え計画を行うことで、計算時間を大幅に削減し、チューブを好適に並び替えることができる。
【0051】
(実施の形態2)
本実施の形態では、3Dカメラ4で撮像した画像に対し、チューブであることを示すアノテーションを自動的に付与する形態について述べる。なお、実施の形態1と重複する内容については同一の符号を付して説明を省略する。
【0052】
図13は、実施の形態2の概要を示す説明図である。
図13では、チューブが挿入されていない空のチューブラックの画像上に、ロボットアームに把持されているチューブキャップの画像から抽出したチューブキャップを重畳する様子を図示している。
図13に基づき、本実施の形態の概要を説明する。
【0053】
実施の形態1で説明したように、端末2は、機械学習モデル(例えばYOLO)である認識モデル51を用いてチューブを認識する。認識モデル51を構築するためには、チューブラックの画像に対し、正解のチューブの位置を示すアノテーションを付した訓練データが必要になる。本実施の形態ではアノテーションを付す作業を半自動化し、省人化を図る。
【0054】
アノテーション作業の手法としては、2つの手法が考えられる。第1の手法は、ロボット3にチューブを持たせて撮像し、撮像画像からチューブを抽出して学習することである。ロボットアームの位置が既知であるため、画像中のどこにチューブがあるかがわかる。
【0055】
第2の手法は、チューブを挿入したチューブラックを机に配置し、上から撮像した画像からチューブを抽出して学習することである。この場合、チューブラックより少し高い位置にある、チューブ先端が存在する高さの点群データだけを抽出し、点群のまとまり毎にチューブとして捉える。
【0056】
本願発明者は上記の手法でアノテーションの自動化を試みたが、チューブの分類精度が悪かった。そこで別手法と組み合わせたところ、実用的な分類精度を得た。
【0057】
具体的には、サーバ1は、
図13左側に示すように、チューブを把持したロボットアームを撮像した画像からチューブキャップを抽出し、抽出したチューブキャップの画像を、空のチューブラックの画像に重畳することで合成画像を生成する。これにより、疑似的にチューブが挿入されたチューブラックの画像を生成する。
【0058】
更にサーバ1は、
図13右側に示すように、2種類のチューブを組み合わせる場合、同様にチューブを把持したロボットアームを撮像した画像からチューブキャップを抽出して空のチューブラックの画像に重畳する。ここでサーバ1は、チューブキャップ同士が重なり合う部分を、欠けた状態にする。これにより、チューブの長さの違いから生じるチューブ同士が重なって見える状態を疑似的に再現する。
【0059】
図14は、自動アノテーションに関する説明図である。
図14では、上記の合成画像の生成処理の具体的な処理工程を図示している。
図14に示すように、まずサーバ1は背景となる空のチューブラック画像を選択し、チューブを把持したロボットアームの画像からチューブキャップを矩形状に切り抜く。
【0060】
次にサーバ1は、矩形状に切り抜いたチューブキャップの画像から余分な部分を排除するため、点群データに基づき、チューブキャップ抽出用のマスクを生成する。サーバ1は、当該マスクを用いてチューブキャップの画像を抽出し、空のチューブラック画像に重畳することで合成画像を生成する。この場合にサーバ1は、以下の式(1)に示すIoU(Intersection over Union)という値が規定の最大値以下となるようにチューブキャップを配置することで、キャップ同士の重なりを小さくする。
IoU=(キャップ同士が重なり合う部分の面積)/(キャップの総面積)…(1)
【0061】
サーバ1は、上記のようにして生成された合成画像を学習することで、認識モデル51を生成する。すなわち、サーバ1は、訓練用の合成画像を認識モデル51に入力することでチューブを認識し、認識したチューブの位置及び種類が、正解のチューブの位置及び種類(アノテーション)と一致するようにニューロン間の重み等のパラメータを最適化する。上記のように合成画像を生成することで、認識モデル51の訓練用の画像に係るアノテーションを自動的に行うことができる。
【0062】
図15は、認識モデル51の生成処理の手順を示すフローチャートである。
図15に基づき、認識モデル51を生成する際の処理内容について説明する。
サーバ1の制御部11は、チューブが挿入されていないチューブラックの画像と、チューブを把持したロボットアームの画像とを取得する(ステップS201)。制御部11は、ロボットアームの画像からチューブキャップの画像部分を抽出する(ステップS202)。
【0063】
制御部11は点群データに基づき、チューブキャップ抽出用のマスクを生成する(ステップS203)。制御部11は、生成したマスクを用いてチューブキャップの画像を抽出し、空のチューブラックの画像に重畳することで合成画像を生成する(ステップS204)。制御部11は、生成した合成画像に基づき、チューブラックの画像を入力した場合にチューブラック上のチューブを認識する認識モデル51を生成する(ステップS205)。制御部11は一連の処理を終了する。
【0064】
以上より、本実施の形態2によれば、アノテーション作業を半自動化することができる。
【0065】
今回開示された実施の形態はすべての点で例示であって、制限的なものではないと考えられるべきである。本発明の範囲は、上記した意味ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。
【0066】
各実施の形態に記載した事項は相互に組み合わせることが可能である。また、特許請求の範囲に記載した独立請求項及び従属請求項は、引用形式に関わらず全てのあらゆる組み合わせにおいて、相互に組み合わせることが可能である。さらに、特許請求の範囲には他の2以上のクレームを引用するクレームを記載する形式(マルチクレーム形式)を用いているが、これに限るものではない。マルチクレームを少なくとも一つ引用するマルチクレーム(マルチマルチクレーム)を記載する形式を用いて記載しても良い。
【符号の説明】
【0067】
1 サーバ(情報処理装置)
11 制御部
12 主記憶部
13 通信部
14 補助記憶部
P1 プログラム
2 端末
21 制御部
22 主記憶部
23 通信部
24 表示部
25 入力部
26 補助記憶部
P2 プログラム
3 ロボット
4 3Dカメラ
51 認識モデル
52 強化学習モデル