【解決手段】計量印字システムにおいて、食肉判別装置2は、食肉の部位を撮影して画像情報を取得するカメラ20と、カメラの画像情報を入力して、食肉の部位候補を出力する学習済モデル22と、学習済モデルから出力された部位候補に基づいて、カメラが撮影した食肉の部位を判別する制御部24とを備える。計量印字装置1は、部分肉Mを計量する計量部10と、表示部11と、印字部12と、それらを制御する制御部13と、を備える
一つの枝肉から切り出される各食肉の部位を枝肉単位で記憶する記憶部をさらに備え、前記制御部は、前記食肉の部位を判別するときに、前記枝肉の中で既に判別した部位であるか否かを考慮して判別する、
請求項1〜3のいずれか一項に記載の食肉判別装置。
【発明の概要】
【発明が解決しようとする課題】
【0005】
ところが、計量印字ラインに搬送されてきた部分肉は、外観形状が類似する。そのためベテランの作業員でないと、部分肉がどの部位であるかを即座に判別できない。この判別を自動化したものとしては、特許文献3に記載のものが知られている。
【0006】
この特許文献3では、放射線を食肉(鶏肉)に照射し、そのときの反射光と透過光とを別々のカメラで捉え、捉えた各画像情報から、食肉がどの部位であるかを総合的に判別するようにしている。この方法によれば、特に薄い鶏肉では、それがどこの部位であるかを画像解析によって容易に判別できる。
【0007】
しかし、牛の部分肉は、小さなものでも数Kg、大きなものでは十数Kgもある。しかも、向きによって肉厚が異なり、それに伴ってX線透過画像の濃淡と形状も大きく変化する。そのため、特許文献3の方法では、部分肉の部位を特定することが難しいという問題がある。
本発明は、X線透過画像では判別し難い牛の部分肉であっても、人間の判別精度と同程度の精度でもって部分肉の部位を自動的に判別できる新たな食肉判別装置を提供することを課題とする。
【課題を解決するための手段】
【0008】
本発明に係る食肉判別装置は、
食肉の部位を撮影して画像情報を取得するカメラと、
前記画像情報を入力し、前記食肉の部位候補を出力する学習済モデルと、
前記学習済モデルから出力される前記部位候補に基づいて、前記カメラが撮影した食肉の部位を判別する制御部と、を備えたことを特徴とする。
【0009】
ここでは、牛の枝肉から切り出された部分肉を食肉の一例として扱っているが、これには限定されない。例えば、豚肉や鶏肉等の食肉であっても良い。また、ここでの学習済モデルは、教師データをなす食肉の画像情報と、各食肉(部分肉)がどの部位であるかを示す正解データとを多層ニューラルネットワークに適用して深層学習させたものである。したがって、この学習済モデルに部分肉の画像情報を入力すると、その画像情報から推定される部分肉の部位候補が出力される。例えば部位Aが75%、部位Bが15%、部位Cが10%の確率であるとして出力される。制御部は、そうして出力された部位候補から、推定確率が所定の閾値、例えば75%を超える場合は、超える確率の部位を判別結果として出力する。超えない場合は、部位候補をそのまま判別結果として出力する。その場合は、出力された部位候補の中から作業者が最適と思える部位を指定すれば良い。
【0010】
前記制御部は、画像情報の中の食肉の領域を抽出し、抽出した領域内の画像情報を学習済モデルへ入力して、前記食肉の部位を判別することを特徴とする。
【0011】
カメラが捉えた画像情報には、種々の背景情報が含まれているから、制御部は、画像情報の中から食肉の領域を抽出し、抽出した領域の画像情報を学習済モデルへ入力するようにしている。これにより、判別精度を向上させている。
【0012】
前記制御部は、抽出した領域が複数存在する場合、それぞれの領域の画像情報を学習済モデルへ入力して、領域ごとの食肉の部位候補を出力させることを特徴とする。
【0013】
枝肉から切り出された部分肉は、計量印字ラインへ順次搬送され、カメラは、搬送された複数の部分肉(食肉)を捉えて画像情報を出力する。制御部は、出力された画像情報の中に一つ又は複数の食肉を検知したならば、検知した食肉の領域を抽出し、抽出した領域の画像情報をそれぞれ学習済モデルへ入力して、各食肉の部位候補を出力させる。
【0014】
また、こうした食肉判別装置において、一つの枝肉から切り出される各食肉の部位を枝肉単位で記憶する記憶部をさらに備え、前記制御部は、食肉の部位を判別するときに、前記枝肉の中で既に判別した部位であるか否かを考慮して判別することを特徴とする。
【0015】
牛の部分肉は、枝肉単位で切り出されるので、一つの枝肉の部分肉加工が終了すると、同じ部位は、一つの枝肉からは切り出されない。そこで、下流の食肉判別装置は、一つの枝肉から切り出される各食肉(部分肉)の部位を枝肉単位で記憶部に記憶しておき、制御部が食肉の部位を判別するときは、既に判別した部位であるか否かも考慮して残された部位の中から確率の高い部位候補を選ぶ。この場合、学習済モデルから出力された部位候補が、残りの部位の中にないときは、先に判別した部位が間違っていたか、後から推定した部位候補が正しくないかのどちらかである。そうしたときは、それを報知することにより梱包される前にミスを正せる。また、学習済モデルに対しては、作業員が正しく修正したデータを追加の学習データとして再学習させることで、判別精度を向上させることができる。なお、取引先の要望により、一つの部位がさらに細かく分割される場合は、一つの部位が複数個に分割されたことを事前に登録しておけば、対応できる。
【0016】
前記制御部は、学習済モデルを求めたときの撮影条件を記憶し、記憶した撮影条件が、前記カメラを起動させたときの撮影条件と異なるときは、それを報知することを特徴とする。
【0017】
この場合の撮影条件は、例えばカメラが撮影した被写体の明るさ、コントラスト、色温度等のように、これらが変化すると、学習済モデルによる推定結果が変わるおそれがあるような条件である。例えば照明器具の交換等によって色温度が変化し、それによってカメラが撮影した初期画像の撮影条件と、学習済モデルを求めたときに記憶した撮影条件とが異なっていれば、制御部は、撮影条件が変化したことを報知するようにしている。
【0018】
前記制御部は、前記カメラが撮影した正常時の初期画像を記憶し、記憶した初期画像が前記カメラを起動させたときの初期画像と異なるときは、それを報知することを特徴とする。
【0019】
部分肉の特徴は、横断面に現れたり、腹側に現れたりするが、搬送される部分肉の向きは、不揃いであるため、複数のカメラでもって食肉を多方向から撮影できるように配置しておくのが好ましい。そうした場合、例えば水平方向から食肉を撮影するカメラに作業者が不用意に接触すると、カメラの向きが変わって、食肉の部位判別が難しくなる場合がある。そうした場合、トラブルの原因が判明するまで、相当な時間を浪費することがある。そこで、カメラが撮影した正常時の初期画像を記憶しておき、記憶した初期画像が、カメラを起動させたときの初期画像と異なるときは、カメラに位置ずれが生じたと判断して、それを報知するようにしている。これにより、装置が判別不能に陥ることを未然に防止するようにしている。
【0020】
以上の食肉判別装置と、前記食肉判別装置から部位名を入力する計量印字装置と、を備えた計量印字システムであって、前記計量印字装置は、前記カメラで撮影された食肉を表示する表示部を備え、前記表示部は、表示された食肉映像の上に前記制御部が判別した食肉の部位名を重ねて表示することを特徴とする。
【0021】
計量印字ラインには、複数の食肉が並び、その中の先頭の食肉から順番に計量する場合もあれば、取引先の要望に応じて、指定された部位の食肉をラインの途中から抜き取って計量する場合がある。後者の場合、これまでだと、ライン上に貯まった食肉の中から指定された部位の食肉を探し出すのに時間が掛かっていた。しかし、この発明では、表示部に表示された食肉映像上に、それぞれの部位名が重ねて表示される。そのため、作業者は、その表示を見てどの食肉をピックアップすべきかを即座に判断できる。
【0022】
前記計量印字装置は、載荷された食肉を計量する計量部と制御部とを備え、前記制御部は、前記表示部に映し出された食肉が指定され、若しくは、映し出された食肉の映像が消え、かつ、前記計量部に新たに食肉が載荷されたことを条件として、指定された前記食肉の部位、若しくは、映像の消えた前記食肉の部位を、前記計量部に載荷された食肉の部位として設定することを特徴とする。
【0023】
計量印字ラインに並んだ食肉は、カメラで撮影され、その映像が表示部に表示される。その状態で、表示された食肉の中の一つが指定されたり、ラインから取り除かれて計量部に移し替えられたりすると、制御部は、指定された食肉の部位を、或いは、取り除かれることによって表示画面から消えた食肉の部位を、計量部に載荷された食肉の部位として、計量印字装置に設定する。これにより、計量の度に、載荷する食肉の部位を設定登録していたこれまでの煩雑さを無くせる。その際、予め指定された食肉の部位と、計量部に載荷した食肉の部位とが、不一致であれば、制御部が警報を発して再点検を促せる。
【0024】
前記計量印字装置は、さらに前記食肉の属性情報を印字するプリンタを備えていることを特徴とする。
【0025】
ここでの属性情報とは、例えば部分肉の名称(部位名)、納入先名称、個体識別番号、枝番号、加工年月日、正味重量等である。また、必要に応じて左右の枝区分、保存温度、加工業者名等を含めることがある。
【発明の効果】
【0026】
本発明によれば、X線透過画像では部位を判別し難い食肉であっても、食肉の外観的特徴から食肉の部位を高精度に判別できる。したがって、これまでは、経験を積んだ作業員でなければ判別が難しかった作業を機械化して、出荷作業を合理化できる。
【発明を実施するための形態】
【0028】
以下、本発明の一実施形態を、図面を参照しながら説明する。なお、この実施形態は、本発明を説明するための一例であって、本発明の技術的範囲を限定するものではない。
【0029】
まず、牛の枝肉から部分肉を切り出して保管されるまでの概要を
図1の工程図に基づいて説明する。
図1において、解体された一頭の牛は、背割りによって左右の枝肉に分けられる。そして、それぞれの枝肉は、懸吊レールに吊り下げられた状態で冷蔵庫から部分肉加工室に運ばれる。部分肉加工室では、一つの枝肉を、まえ、ロイン、まえばら、もも、に大分割した後、さらに分割・除骨して13部位の部分肉に切り分ける。切り分けられた部分肉は、真空包装され、金属検出器によって金属の有無が検査された後、シュリンク包装され、チラー等の冷却装置で冷却される。冷却された部分肉は、計量印字ラインに送られて、各部分肉の部位が判別され、判別された部分肉には、その部位名と重量とが印字されたラベルが貼付される。そうして処理された部分肉は、取引先の要望に応じた内容で箱詰めされ、梱包されて冷凍保管庫に収納される。
【0030】
図2は、計量印字ラインの概要を示す説明図である。この図において、計量印字ラインには、冷却装置から送り出された食肉(以下、部分肉Mと称する)を計量印字装置1に搬送するコンベアCと、コンベアC上の部分肉Mを撮影し、得られた部分肉画像からその部分肉Mの部位を判別して、その結果を計量印字装置1に出力する食肉判別装置2とが設けられている。
【0031】
コンベアCは、反射光の少ない無彩色のベルトコンベアで構成されるが、コンベアCの上方に設けられたカメラ20に映り込まない搬送路には、ローラコンベアRCが用いられる。
【0032】
計量印字装置1は、部分肉Mを計量する計量部10と、表示部11と、印字部12と、それらを制御する制御部13とを備えている。
【0033】
計量部10は、計量皿に載荷された部分肉Mの質量を検出してデジタル信号として制御部13に出力する。また、計量皿に代えて、ローラコンベアを備えた計量コンベアでも構わない。表示部11は、タッチパネルで構成され、制御部13は、マイクロコンピュータで構成されて、インストールされたプログラムを実行することにより、以下の機能を実現する。
【0034】
すなわち、制御部13は、待機モードでは、カメラ20が撮影したコンベアC上の部分肉Mを表示部11にそのまま表示させる。また、食肉判別装置2からコンベアC上の各部分肉Mの部位名が入力されると、制御部13は、
図3に示すように、表示部11に表示された各部分肉mの画像の上に、各部分肉mの部位候補を重ねて表示させる。また、
図3の表示画面の上段には、これから計量印字すべき部位名が表示される。作業者は、その表示画面を見て、指定された部位名を表示画面上でタッチするか、あるいは、コンベアCからその部分肉Mをピックアップして計量皿に乗せる。これにより、制御部13は、指定した部位の部分肉mが計量皿に載荷されたと判断して、
図4に示すように、表示部11の表示画面を計量印字モードの画面に切り替える。
【0035】
計量印字モードでは、少なくとも部分肉Mの部位名と、計量部10で計量された部分肉Mの重量と、個体識別番号と、その他の印字項目とが、表示部11に表示されるようになっている。
【0036】
印字部12は、ラベルプリンタとジャーナルプリンタで構成される。ラベルプリンタは、シュリンク包装された部分肉Mに貼付するラベルを発行する。一方、ジャーナルプリンタは、ラベルに印字された内容をレシート紙に印字する。
図5は、部分肉Mに貼付されるラベルの一例を示す。このラベルには、部分肉Mの名称(部位名)、個体識別番号、加工年月日、枝番号、左右の区分、保存温度、加工業者名等が印字されている。
【0037】
食肉判別装置2は、カメラ20、制御部24および記憶部25から構成される。また、制御部24は、画像処理部21、学習済みモデル22、判別部23を有する。
以下、上記それぞれについて詳細に説明する。
【0038】
カメラ20は、部分肉Mを撮影して画像情報を出力する。
カメラ20は、例えば高精細なデジタルカメラで構成され、コンベアC上に並んだ複数の部分肉Mを撮影して画像情報を出力する。そのため、カメラ20は、コンベアC上の複数の部分肉Mを撮影することのできる位置と高さに複数台設けられている。
図2では、上方から撮影するカメラ20だけを図示しているが、その他にも、側方から部分肉Mの断面を撮影する図示しないカメラが配置されている。また、上方から部分肉Mを撮影したカメラ20の映像は、そのまま計量印字装置1の表示部11に入力され、
図3に示すように、コンベアC上の部分肉Mの配列状態がそのまま表示されるようになっている。
【0039】
カメラ20は、さらにコンベアCのうち、コンベアCの搬送面において部分肉Mの搬送方向と直交する方向の幅全てを撮影可能に撮影方向が調整される。これにより、コンベアCのいずれの部分に部分肉Mが配置されていたとしても撮影可能となる。
また、カメラ20は、ローラコンベアRC上における部分肉Mを撮影可能に撮影方向が調整される。これにより、カメラ20で得られた画像情報を、冷却装置から部分肉Mが排出されたタイミングで制御部24に出力できる。そのため、部分肉MがコンベアCの終端に到達するまでに確実に表示部11に部位候補を表示でき、作業者における作業効率を向上できる。
【0040】
制御部24は、マイクロコンピュータで構成され、記憶部25に記憶されたプログラムを実行することにより、画像処理部21と判別部23の各機能を実現する。したがって、
図2では、説明の便宜上、学習済モデル22や制御部24、記憶部25を計量印字装置1と分離して描いているが、これらは、計量印字装置1内のコンピュータにプログラムとして組み込まれる。また、記憶部25には、後述の撮影条件と、カメラ20を起動させた時の初期画像とが記憶されている。
【0041】
制御部24は、さらに、学習済モデル22を求めたときの撮影条件を記憶部25に記憶させ、記憶した撮影条件が、カメラ20を起動させたときの撮影条件と異なるときは、それを報知するようにプログラムされている。
【0042】
この場合の撮影条件は、例えばカメラ20が撮影した被写体の明るさ、コントラスト、色温度等のように、これらが変化すると、学習済モデル22による推定結果が変わるおそれがある条件である。そして、カメラ20が撮影した初期画像の撮影条件と、学習済モデル22を求めるときに記憶した撮影条件とが異なっていれば、制御部24は、撮影条件が変化したことを表示部11に出力して注意を喚起するようにプログラムされている。
【0043】
また、制御部24は、カメラ20が撮影した正常時の初期画像を記憶部25に記憶させておき、記憶された初期画像がカメラ20を起動させたときの初期画像と異なるときは、それを表示部11に出力して報知するようにプログラムされている。これにより、カメラ20の向きが変わっただけでも、それを作業者に知らせられる。
【0044】
制御部24に含まれる画像処理部21は、カメラ20から出力される画像情報を入力し、入力した画像情報から部分肉の画像情報を抽出して出力する。
すなわち、カメラ20で撮影された画像情報は、画像処理部21に順次入力される。画像処理部21は、入力された画像に対して画像処理を施し、学習済みモデルに入力するための画像情報を生成する。
【0045】
具体的に、画像処理部21は、画像の中の背景を除去した部分肉mの画像情報だけを抽出する。例えば、画像処理部21は、濃淡の変化をエッジとして検出し、部分肉mの領域を抽出する。また、この抽出方法に代え、画像処理部21は、画像を所定の閾値で二値化し、部分肉の領域を抽出するようにしても良い。
【0046】
また、別の処理として、画像処理部21は、部分肉mが映り込まない画像情報を除去する。画像処理部21は、さらに、複数の部分肉mの領域があるときは、ラベリング処理によって各領域に番号を付与し、各領域の部分肉mの画像情報と、付与された番号とを紐づけて、紐付けされた番号毎に、部分肉mの画像情報を学習済モデル22に入力する。
【0047】
学習済みモデル22は、画像処理部21から出力される部分肉の画像情報を入力し、当該部分肉の部位候補を出力する。
【0048】
具体的に、学習済モデル22は、教師データをなす各部分肉mの複数枚の画像情報と、各部分肉mの部位を示す正解データとを多層ニューラルネットワークに適用して深層学習を行わせて得られたモデルである。そのため、事前準備として、上記教師データを得るために、各部位の部分肉MをコンベアC上に並べて撮影し、得られた各部分肉Mの多数の画像情報を記憶部25に記憶して教師データを作成する。また、教師データが不足するときは、記憶した画像情報を左右反転したり、位置をずらしたり、コントラストを変えたり、ズーム・変形したりして、教師データを増やしても良い。こうして学習させた学習済モデル22に、画像処理部21で処理された部分肉mの画像情報を入力すると、学習済モデル22は、部分肉mの画像から推定される部位候補を出力する。その際、複数の部分肉mの画像情報が入力されるときは、学習済モデル22は、領域毎の部分肉mについて、それぞれの部位候補を推定して出力する。例えば
図3に示すように、画面の左上の領域の部分肉mは、「しんたま」の確率が80%、「ランイチ」の確率が10%、「ネック」の確率が10%等として出力する。
【0049】
この学習済モデル22は、プログラムで構成されるので、図示しない通信手段を介して外部のクラウドコンピューティングにアップロードし、使用するときにダウンロードして制御部24にインストールしても良い。また、こうしたソフトウエアに代えて、FPGA(Field Programmable Gate Array)等のロジック回路で構成することもできる。また、多層のニューラルネットワークCNN(Convolutional Neural Network)を利用する場合は、オープンソース製品として提供される「caffe」、「TensorFlow」、「Chainer」、「CNTK」等を利用することもできる。
【0050】
学習済みモデル22は、部分肉Mの種類毎に作成される構成でも構わない。このように部分肉Mの種類毎に作成する場合、全ての部分肉Mを対象として学習済みモデルを構成するよりも推定される確率が向上する。例えば、枝肉を処理して得られた同一部位の部分肉Mを複数用意し、それらを下流の計量印字ラインに流して同じ部位の部分肉について学習済モデル22を作成する。こうして得られた部位毎の学習済モデル22を記憶し、それらの学習済みモデル22を切り替える構成でも良い。
また、学習済みモデル22は、全ての部分肉Mの種類を判別可能なモデルとして構成しても構わない。
【0051】
判別部23は、学習済モデル22から出力される部位候補に基づいて、カメラ20が撮影した部分肉Mの部位を判別する。
具体的には、判別部23は、学習済モデル22から出力された部位候補の確率が所定の閾値、例えば75%を超える部位の場合は、その部位を判別結果として出力する。超えない場合、或いは、超えていても、作業者に選択させる方が好ましい場合は、
図3に示すように、部位候補をそのまま判別結果として表示部11に出力する。その場合は、
図3に示された部分肉mの中から作業者が、これだと思う部位の部分肉mをタッチして指定する。そうすると、その情報が判別部23にフィードバックされ、それにより、判別部23は、推定確率の高い部位が選択された否かをチェックするようになっている。
【0052】
記憶部25には、
図6に示すように、一つの枝肉から切り出される各部分肉の部位名が枝肉単位で記憶されている。そして、判別部23で判別された部分肉の部位、或いは、表示部11上で指定された部分肉mの部位は、判別済のマークが付与される。そして、学習済モデル22から新たな部分肉の部位候補が出力されると、判別部23は、その部位候補の推定確率を
図6の判別中エリアに記憶し、その中から既に判別済の部位、
図6では、「かたロース」を除く「リブロース」と「サーロイン」の中から確率の高い「リブロース」を選択して出力する。
【0053】
次に、一実施形態に係る計量印字システムの使用方法とその作用について説明する。
計量印字装置1は、学習モードと、運転モードとが切り替え可能に構成される。
最初に、学習モードについて説明する。
【0054】
計量印字装置1は、学習モードに設定された場合、カメラ20が作動する。カメラ20により撮影された画像情報は、初期画像として記憶部25に記憶される。同時に、その初期画像から検出される被写体の撮影条件、例えば被写体の明るさ、コントラスト、色温度等が記憶される。
【0055】
次に、コンベアCに複数の部分肉Mを指定の順序で並べる。例えば
図6の一覧表に示した順序で並べて搬送しながら、各部分肉Mの画像情報を複数のカメラ20で撮影する。得られた多方向からの画像情報は、画像処理部21に順次入力される。その際、先頭の部分肉Mの部位名は、記憶部25から読み出される
図6の「かた」であり、二番目の部分肉Mの部位名は、「かたロース」であるとして、それぞれの部分肉Mの画像情報に部位名が付与されて画像処理部21に入力される。すると、画像処理部21は、画像情報から各部分肉mの領域を抽出し、抽出した画像情報は、教師データとして記憶部25に記憶される。また、抽出した画像情報と、それに紐づけられた部位名とは、正解データとして記憶部25に記憶される。そうした工程を複数回繰り返して、教師データが十分な量だけ記憶されると、それらの教師データと正解データとを多層のニューラルネットワークに適用して深層学習を行わせ、学習済モデル22を求める。学習済モデル22の正解率が高まれば、多層のニューラルネットワークのパラメータを記憶して学習済モデル22を完成させる。
【0056】
次に運転モードについて説明する。
計量印字装置1が運転モードに設定される場合、まずは待機モードに切り替わる。この待機モードに設定されている場合であっても、カメラ20が捉えた映像は、表示部11に映し出される。そして、上流から加工処理された部分肉Mが流れてくると、カメラ20がそれを捉えて部分肉映像を表示部11に出力する。その際、表示部11の部分肉mの映像は、部分肉Mの実際の動きに伴って表示部11上で移動していく。
【0057】
一方、カメラ20が撮影した部分肉Mの画像情報は、画像処理部21に入力される。画像処理部21は、画像情報から、背景情報を除いた部分肉mだけの画像情報を抽出する。抽出された画像情報は、画像処理部21から学習済モデル22に入力される。学習済モデル22は、入力された部分肉mの画像情報から、その部分肉mの部位名を推定して部位候補を判別部23に出力する。
【0058】
判別部23は、部位候補の中の例えば75%を超える部位がある場合は、その部位を判別結果として出力する。そうでない場合、あるいは、推定された部位候補をそのまま表示させる場合は、
図3に示すように、推定された部位候補をそのまま判別結果として該当する部分肉mの上に重ねて表示する。
【0059】
作業者が、
図3の上欄に表示された指定された部位名を見て、該当する部位の部分肉MをコンベアCからピックアップし、それを計量皿に載荷すると、表示部11の表示画面が
図4に示す画面に切り替わる。その画面を見て、図示しない印字キーが操作されると、
図5に示すようなラベルが印字され、それを作業者が手に取って計量した部分肉Mの上に貼付する。
【0060】
こうしてラベルが貼付された部分肉Mは、下流の梱包ラインに搬送され、そこで取引先毎に箱詰めされて冷蔵保管庫に収納される。
【0061】
以上、本発明の一実施形態を説明したが、本発明は、これに限定されるものではなく、特許請求の範囲の記載範囲内で、その他の実施形態も採用可能である。例えば、上記実施形態では、教師あり学習を行わせたが、これに代えて、教師なし学習を行わせ、その結果、分類された各部分肉に対して、部位名を付与することにより、正解データを学習させるようにしても良い。
【0062】
また、食肉判別装置2の制御部24をパーソナルコンピュータで構成し、そのパソコン内に学習済モデル22をクラウドからダウンロードしても良い。また、ソフトウエアで構成される学習済モデル22を計量印字装置1の制御部13にインストールしても良い。さらに、コンベアCの搬送方向に沿って複数台のカメラ20を配置し、冷却装置から出た部分肉Mが計量部10に到達するまでの各部分肉Mの映像を表示部11に表示するようにしても良い。