IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 株式会社栗本鐵工所の特許一覧 ▶ 公立大学法人大阪の特許一覧

特開2023-43863定量評価装置、定量評価プログラム、および学習モデル生成プログラム
<>
  • 特開-定量評価装置、定量評価プログラム、および学習モデル生成プログラム 図1
  • 特開-定量評価装置、定量評価プログラム、および学習モデル生成プログラム 図2
  • 特開-定量評価装置、定量評価プログラム、および学習モデル生成プログラム 図3
  • 特開-定量評価装置、定量評価プログラム、および学習モデル生成プログラム 図4
  • 特開-定量評価装置、定量評価プログラム、および学習モデル生成プログラム 図5
  • 特開-定量評価装置、定量評価プログラム、および学習モデル生成プログラム 図6
  • 特開-定量評価装置、定量評価プログラム、および学習モデル生成プログラム 図7
  • 特開-定量評価装置、定量評価プログラム、および学習モデル生成プログラム 図8
  • 特開-定量評価装置、定量評価プログラム、および学習モデル生成プログラム 図9
  • 特開-定量評価装置、定量評価プログラム、および学習モデル生成プログラム 図10
  • 特開-定量評価装置、定量評価プログラム、および学習モデル生成プログラム 図11
  • 特開-定量評価装置、定量評価プログラム、および学習モデル生成プログラム 図12
  • 特開-定量評価装置、定量評価プログラム、および学習モデル生成プログラム 図13
  • 特開-定量評価装置、定量評価プログラム、および学習モデル生成プログラム 図14
  • 特開-定量評価装置、定量評価プログラム、および学習モデル生成プログラム 図15
  • 特開-定量評価装置、定量評価プログラム、および学習モデル生成プログラム 図16
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2023043863
(43)【公開日】2023-03-29
(54)【発明の名称】定量評価装置、定量評価プログラム、および学習モデル生成プログラム
(51)【国際特許分類】
   G06N 20/00 20190101AFI20230322BHJP
   G01N 21/952 20060101ALI20230322BHJP
【FI】
G06N20/00 130
G01N21/952
【審査請求】未請求
【請求項の数】10
【出願形態】OL
(21)【出願番号】P 2022145517
(22)【出願日】2022-09-13
(31)【優先権主張番号】P 2021150936
(32)【優先日】2021-09-16
(33)【優先権主張国・地域又は機関】JP
【新規性喪失の例外の表示】新規性喪失の例外適用申請有り
【公序良俗違反の表示】
(特許庁注:以下のものは登録商標)
1.TENSORFLOW
(71)【出願人】
【識別番号】000142595
【氏名又は名称】株式会社栗本鐵工所
(71)【出願人】
【識別番号】519135633
【氏名又は名称】公立大学法人大阪
(74)【代理人】
【識別番号】110001586
【氏名又は名称】弁理士法人アイミー国際特許事務所
(72)【発明者】
【氏名】小川 耕平
(72)【発明者】
【氏名】堤 親平
(72)【発明者】
【氏名】上杉 徳照
(72)【発明者】
【氏名】中島 智晴
【テーマコード(参考)】
2G051
【Fターム(参考)】
2G051AA07
2G051AB04
2G051EB05
2G051EC01
(57)【要約】
【課題】鋳鉄管の鋳肌の外観程度を定量評価できるようにすること。
【解決手段】定量評価装置は、鋳鉄管の鋳肌の良否検査に用いられる定量評価装置であっ
て、予め複数段階にクラス分けされた複数の鋳肌の画像データを教師データとして機械学
習することにより生成された学習モデル(M2)を記憶する記憶手段(42)と、検査対
象の鋳鉄管の鋳肌の画像データを取得する画像取得手段(41)と、画像取得手段が取得
した画像データを学習モデルに入力し、学習モデルからの出力に基づくレベルまたは数値
を、検査対象の鋳鉄管の鋳肌の外観程度として評価決定する評価決定手段(43)とを備
える。
【選択図】図3
【特許請求の範囲】
【請求項1】
鋳鉄管の鋳肌の良否検査に用いられる定量評価装置であって、
予め複数段階にクラス分けされた複数の鋳肌の画像データを教師データとして機械学習することにより生成された学習モデルを記憶する記憶手段と、
検査対象の鋳鉄管の鋳肌の画像データを取得する画像取得手段と、
前記画像取得手段が取得した画像データを前記学習モデルに入力し、前記学習モデルからの出力に基づくレベルまたは数値を、前記検査対象の鋳鉄管の鋳肌の外観程度として評価決定する評価決定手段とを備えた、定量評価装置。
【請求項2】
前記評価決定手段は、前記教師データのクラス数よりも多い段階のレベル、または、連続した無段階の数値範囲内の数値を、前記鋳肌の外観程度として評価決定する、請求項1に記載の定量評価装置。
【請求項3】
前記学習モデルの前記教師データは、拡張データとして、鋳肌の元画像データの縁部を除去したトリミング画像データを含む、請求項1に記載の定量評価装置。
【請求項4】
前記検査対象の鋳鉄管は、金型遠心鋳造法により製造されたものであり、
前記学習モデルの前記教師データは、拡張データとして、鋳肌の元画像データを5°未満の角度範囲で回転させた回転画像データを含む、請求項1に記載の定量評価装置。
【請求項5】
鋳鉄管の鋳肌の良否検査に用いられる定量評価装置であって、
予め複数段階にクラス分けされた複数の鋳肌の画像データに対して、適応的ヒストグラム平坦化およびバイラテラルフィルタによるぼかし処理を含む前処理を施した画像データを教師データとして機械学習することにより生成された学習モデルを記憶する記憶手段と、
検査対象の鋳鉄管の鋳肌の画像データを取得する画像取得手段と、
前記画像取得手段が取得した画像データに対し、前記前処理を含む入力画像調整処理を実行する調整手段と、
前記入力画像調整処理を施した画像データを前記学習モデルに入力し、前記学習モデルからの出力に基づくレベルまたは数値を、前記検査対象の鋳鉄管の鋳肌の外観程度として評価決定する評価決定手段とを備えた、定量評価装置。
【請求項6】
前記学習モデルの前記教師データは、回転、反転、拡大縮小、移動をランダムに行った拡張データを含み、
前記入力画像調整処理は、回転、反転、拡大縮小、移動をランダムに行うデータ拡張処理を含む、請求項5に記載の定量評価装置。
【請求項7】
鋳鉄管の鋳肌の良否検査に用いられる定量評価装置であって、
予め複数段階にクラス分けされた複数の鋳肌の画像データを教師データとして機械学習することにより生成された回帰モデルおよび不良品分類モデルを記憶する記憶手段と、
検査対象の鋳鉄管の鋳肌の画像データを取得する画像取得手段と、
前記画像取得手段が取得した画像データを前記回帰モデルおよび前記不良品分類モデルに入力し、前記回帰モデルからの出力値と前記不良品分類モデルからの出力値とを重み付き平均した数値を、前記検査対象の鋳鉄管の鋳肌の外観程度として評価決定する評価決定手段とを備えた、定量評価装置。
【請求項8】
鋳鉄管の鋳肌の良否検査に用いられる定量評価プログラムであって、
予め複数段階にクラス分けされた複数の鋳肌の画像データを教師データとして機械学習することにより生成された学習モデルを、記憶部から読み出すステップと、
検査対象の鋳鉄管の鋳肌の画像データを取得するステップと、
取得した画像データを前記学習モデルに入力し、前記学習モデルからの出力に基づくレベルまたは数値を、前記検査対象の鋳鉄管の鋳肌の外観程度として評価決定するステップとをコンピュータに実行させる、定量評価プログラム。
【請求項9】
鋳鉄管の鋳肌の良否検査用の学習モデルを生成するための学習モデル生成プログラムであって、
予め複数段階にクラス分けされた複数の鋳肌の元画像データを入力するステップと、
入力された前記元画像データに基づいて拡張データを生成するステップと、
前記元画像データおよび前記拡張データを含む複数の鋳肌の画像データの少なくとも一部を教師データとして、クラスごとに機械学習するステップとをコンピュータに実行させる、学習モデル生成プログラム。
【請求項10】
鋳鉄管の鋳肌の良否検査用の学習モデルを生成するための学習モデル生成プログラムであって、
予め複数段階にクラス分けされた複数の鋳肌の元画像データを入力するステップと、
入力された前記元画像データに対して、適応的ヒストグラム平坦化およびバイラテラルフィルタによるぼかし処理を含む前処理を施した前処理を施して教師データを生成するステップと、
生成された教師データをクラスごとに機械学習するステップとをコンピュータに実行させる、学習モデル生成プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、鋳鉄管の鋳肌の良否検査に用いられる定量評価装置、定量評価プログラム、および学習モデル生成プログラムに関し、特に、学習モデルを用いて鋳肌の外観程度を定量評価する定量評価装置およびプログラム、ならびに、学習モデルを生成する学習モデル生成プログラムに関する。
【背景技術】
【0002】
鋳鉄管の製造方法の一つに金型遠心鋳造法がある。金型遠心鋳造法は、たとえば特開2002-153962号公報(特許文献1)に示されるように、円筒状の金型を横軸を中心に回転させながら、金型の内側に溶湯を供給して、溶湯に遠心力を作用させた状態で管(鋳鉄管)を製造する方法である。この金型遠心鋳造法は、空冷式の砂型遠心鋳造法とは異なり、鋳型(円筒状の金型)を水冷する鋳造法である。金型遠心鋳造法などの鋳造法では、鋳鉄管にピンホール(ブローホールを含む)が発生する場合がある。
【0003】
ピンホールが大量に発生した場合、外観不良として扱われるため、出荷前には、鋳肌のピンホール検査が行われる。
【0004】
物体表面の欠陥を検査するという観点では、たとえば特開2018-205123号公報(特許文献2)、特開2019-2788号公報(特許文献3)、およびWO2020/137151号公報(特許文献4)に開示されているように、大量のサンプル画像を機械学習して学習モデルを生成し、学習モデルを用いて物体表面の欠陥を自動判定する技術が、従来から提案されている。
【先行技術文献】
【特許文献】
【0005】
【特許文献1】特開2002-153962号公報
【特許文献2】特開2018-205123号公報
【特許文献3】特開2019-2788号公報
【特許文献4】WO2020/137151号公報
【発明の概要】
【発明が解決しようとする課題】
【0006】
ピンホールの発生度合に応じた鋳肌の良否検査は、人が目視により行うことが一般的であるが、一見で判断することは難しく、検査時の周囲の環境(照明の度合など)や人の感覚に検査結果が左右されるおそれがある。そのため、鋳鉄管の鋳肌の外観程度を定量的に評価することが困難であった。
【0007】
上記特許文献2~4に開示されているような検査方法は、単純に、キズなどの欠陥の有無を判定する方法であるため、これらの方法を、鋳鉄管の鋳肌の良否検査に適用することはできない。つまり、欠陥の有無を判定する方法では、鋳肌の外観程度を定量的に評価することはできない。
【0008】
本発明は、上記のような課題を解決するためになされたものであって、その目的は、鋳鉄管の鋳肌の外観程度を定量評価することのできる定量評価装置およびプログラムを提供することである。また、鋳鉄管の鋳肌の外観程度を定量評価するための学習モデルを生成する学習モデル生成プログラムを提供することも、他の目的とする。
【課題を解決するための手段】
【0009】
この発明のある局面に従う定量評価装置は、鋳鉄管の鋳肌の良否検査に用いられる定量評価装置であって、予め複数段階にクラス分けされた複数の鋳肌の画像データを教師データとして機械学習することにより生成された学習モデルを記憶する記憶手段と、検査対象の鋳鉄管の鋳肌の画像データを取得する画像取得手段と、画像取得手段が取得した画像データを学習モデルに入力し、学習モデルからの出力に基づくレベルまたは数値を、検査対象の鋳鉄管の鋳肌の外観程度として評価決定する評価決定手段とを備える。
【0010】
好ましくは、評価決定手段は、教師データのクラス数よりも多い段階のレベル、または、連続した無段階の数値範囲内の数値を、鋳肌の外観程度として評価決定する。
【0011】
好ましくは、学習モデルの教師データは、拡張データとして、鋳肌の元画像データの縁部を除去したトリミング画像データを含む。
【0012】
検査対象の鋳鉄管は、典型的には金型遠心鋳造法により製造されたものである。この場合、学習モデルの教師データは、拡張データとして、鋳肌の元画像データを5°未満の角度範囲で回転させた回転画像データを含むことが望ましい。
【0013】
この発明の他の局面に従う定量評価装置は、予め複数段階にクラス分けされた複数の鋳肌の画像データに対して、適応的ヒストグラム平坦化およびバイラテラルフィルタによるぼかし処理を含む前処理を施した画像データを教師データとして機械学習することにより生成された学習モデルを記憶する記憶手段と、検査対象の鋳鉄管の鋳肌の画像データを取得する画像取得手段と、画像取得手段が取得した画像データに対し、前処理を含む入力画像調整処理を実行する調整手段と、入力画像調整処理を施した画像データを学習モデルに入力し、学習モデルからの出力に基づくレベルまたは数値を、検査対象の鋳鉄管の鋳肌の外観程度として評価決定する評価決定手段とを備える。
【0014】
この発明のさらに他の局面に従う定量評価装置は、予め複数段階にクラス分けされた複数の鋳肌の画像データを教師データとして機械学習することにより生成された回帰モデルおよび不良品分類モデルを記憶する記憶手段と、検査対象の鋳鉄管の鋳肌の画像データを取得する画像取得手段と、画像取得手段が取得した画像データを回帰モデルおよび不良品分類モデルに入力し、回帰モデルからの出力値と不良品分類モデルからの出力値とを重み付き平均した数値を、検査対象の鋳鉄管の鋳肌の外観程度として評価決定する評価決定手段とを備える。
【0015】
この発明の他の局面に従う定量評価プログラムは、鋳鉄管の鋳肌の良否検査に用いられる定量評価プログラムであって、予め複数段階にクラス分けされた複数の鋳肌の画像データを教師データとして機械学習することにより生成された学習モデルを、記憶部から読み出すステップと、検査対象の鋳鉄管の鋳肌の画像データを取得するステップと、取得した画像データを学習モデルに入力し、学習モデルからの出力に基づくレベルまたは数値を、検査対象の鋳鉄管の鋳肌の外観程度として評価決定するステップとをコンピュータに実行させる。
【0016】
この発明の他の局面に従う学習モデル生成プログラムは、鋳鉄管の鋳肌の良否検査用の学習モデルを生成するための学習モデル生成プログラムであって、予め複数段階にクラス分けされた複数の鋳肌の元画像データを入力するステップと、入力された元画像データに基づいて拡張データを生成するステップと、元画像データおよび拡張データを含む複数の鋳肌の画像データの少なくとも一部を教師データとして、クラスごとに機械学習するステップとをコンピュータに実行させる。
【0017】
この発明のさらに他の局面に従う学習モデル生成プログラムは、予め複数段階にクラス分けされた複数の鋳肌の元画像データを入力するステップと、入力された元画像データに対して、適応的ヒストグラム平坦化およびバイラテラルフィルタによるぼかし処理を含む前処理を施した前処理を施して教師データを生成するステップと、生成された教師データをクラスごとに機械学習するステップとをコンピュータに実行させる。
【発明の効果】
【0018】
本発明によれば、鋳鉄管の鋳肌の外観程度を定量評価することができる。
【図面の簡単な説明】
【0019】
図1】本発明の各実施の形態における定量評価システム1の概要を模式的に示す図である。
図2】本発明の各実施の形態における鋳肌の外観程度の評価方法を模式的に示す図である。
図3】(A)は、本発明の各実施の形態における学習装置の機能構成を示す機能ブロック図であり、(B)は、本発明の各実施の形態における定量評価装置の機能構成を示す機能ブロック図である。
図4】本発明の実施の形態1における学習モデルの生成方法を示すフローチャートである。
図5図4のステップS1を説明するための模式図である。
図6】本発明の各実施の形態における鋳肌の外観程度の定量評価方法を示すフローチャートである。
図7】本発明の実施の形態2における学習モデルの生成方法を示すフローチャートである。
図8】(A),(B)は、本発明の実施の形態2における元画像データの拡張パターンを示す図である。
図9】(A)~(C)は、各実施の形態の実施例に対応する学習モデルの汎用性能の評価結果を示す図である。
図10】本発明の実施の形態3に係る学習装置が実行するアンサンブル学習の概要を示す図である。
図11】(A)は、本発明の実施の形態3における入力画像のチューニング処理を示すフローチャートであり、(B)は、前処理の種類と誤差との関係を示すグラフである。
図12】(A),(B)は、分類モデルにおける不良品クラスの重みの検証結果を示すグラフである。
図13】(A),(B)は、アンサンブル学習の重みの検証結果を示すグラフである。
図14】本発明の実施の形態3におけるアンサンブル学習モデルの評価結果を示すグラフである。
図15】本発明の実施の形態3において学習時と推論時におけるデータ拡張の有無を検証した結果を示す。
図16】金型遠心鋳造法により製造されたダクタイル鋳鉄管について説明するための図である。
【発明を実施するための形態】
【0020】
本発明の実施の形態について図面を参照しながら詳細に説明する。なお、図中同一または相当部分には同一符号を付してその説明は繰返さない。
【0021】
<実施の形態1>
(概要について)
はじめに、図1および図2を参照して、本実施の形態における定量評価システム1の概要について説明する。図1は、定量評価システム1の概要を模式的に示す図であり、図2は、鋳鉄管10の鋳肌11の外観程度の評価方法を模式的に示す図である。
【0022】
定量評価システム1は、多数の鋳鉄管の鋳肌の画像データを事前に機械学習することにより、検査対象の鋳鉄管10の鋳肌11の画像データから、鋳肌11の外観程度を定量評価する。鋳鉄管10は、典型的には、金型遠心鋳造法により製造されたダクタイル鋳鉄管である。
【0023】
鋳鉄管の特徴については、図16を参照して説明する。金型遠心鋳造法では、図16(A)に示されるように、円筒状の金型101をローラ102により回転させながら、トラフ(樋)105を介してダクタイル溶湯Cが金型101内に供給される。金型101には冷却水通路103が設けられており、遠心鋳造時に冷却水通路103に冷却水を循環させることにより、溶湯ならびに金型101が冷却されて、鋳鉄管(ダクタイル鋳鉄管)10が成形される。
【0024】
金型101の内周面には微細な凹凸(ピーニング加工による凹凸)が形成されているため、金型遠心鋳造法により製造された鋳鉄管10の鋳肌には、図16(B)に示されるように、多数の円環状の凹凸模様110が表われる。
【0025】
このような鋳造製法では、溶湯に含まれていたガスの逃げ道がないため、鋳鉄管10の鋳肌には、図16(B)に示すようなピンホールPが発生し易い。
【0026】
定量評価システム1は、学習フェーズにおいて、予め5段階にクラス分けされた鋳肌の画像データを教師データとして、ディープラーニングにより機械学習する。具体的には、CNN(畳み込みニューラルネットワーク)を用いて、多数の鋳肌の画像データを機械学習して学習モデルM1を構築する。
【0027】
鋳鉄管10の鋳肌の外観程度は、単位面積当たりのピンホールPの量(多さ)に応じて5段階の等級に分類される。図16(C)には、各等級の鋳肌11の外観程度が示されている。等級が小さい程、良い評価である。
【0028】
CNNは、画像特徴量の抽出とプーリング(ノイズ処理)とを行うネットワークが何層にも連なったニューラルネットワークである。これにより、推論フェーズにおいて、検査対象の鋳鉄管10の鋳肌11の画像データを学習モデル(学習済モデル)M2に入力することにより、対象の鋳肌11の外観程度を定量評価することができる。
【0029】
さらに、本実施の形態に係る定量評価システム1は、推論フェーズにおいて、対象の鋳肌11の画像データの分析結果として、教師データのクラス数(5クラス)よりも多い段階のレベル、または、連続した無段階の数値範囲内の数値を出力するように構築されている。具体的には、図2に示されるように、対象の鋳肌11の画像データを、学習モデルM2としてのCNNを通して回帰問題として解き、その計算結果を鋳肌11の外観程度として評価決定するように構築されている。そのため、推論フェーズにおいて、学習モデルM2に鋳肌11の画像データを入力することにより、元の5クラス以上のより細やかな基準の評価値(たとえば、1.0~5.0までの数値)を、鋳肌11の外観程度として出力することができる。
【0030】
学習フェーズにおける各種処理は、学習装置により実行され、推論フェーズにおける各種処理は、定量評価装置により実行される。学習装置および定量評価装置は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)などのプロセッサ、および、不揮発性のメモリや記憶装置を備えたコンピュータ(情報処理端末)により実現可能である。学習装置および定量評価装置は、典型的には別のコンピュータにより実現されるものの、共通のコンピュータにより実現されてもよい。
【0031】
(学習装置の機能構成)
図3(A)は、学習装置3の機能構成を示す機能ブロック図である。
【0032】
学習装置3は、予め複数段階にクラス分けされた複数の鋳鉄管の鋳肌の画像データを入力(取得)する入力部31と、入力部31に入力された複数の画像データ(以下「元画像データ」という)をクラスごとに記憶する元画像データ記憶部32とを備えている。入力部31から入力される元画像データの画像は全て、同じ条件(光源の方向、解像度、色など)で撮影されたものであり、同じ人によってクラス分類されていることが望ましい。
【0033】
学習装置3は、元画像データ記憶部32に記憶された元画像データを所定のルールで分類して教師データおよびテストデータを生成する教師データ生成部33と、教師データ生成部33により生成された教師データおよびテストデータをクラスごとに記憶する教師データ記憶部34と、教師データ記憶部34に記憶された教師データ(元画像データの少なくとも一部)を、CNNを用いてクラスごとに機械学習して学習モデルM1を生成する学習処理部35と、学習処理部35により生成された学習モデルM1を記憶するモデル記憶部36とをさらに備えている。
【0034】
学習装置3はまた、教師データ記憶部34に記憶されたテストデータを用いて学習モデルM1の汎用性能を評価する評価部37をさらに備えていてもよい。
【0035】
教師データ生成部33、学習処理部35、および評価部37の機能は、プロセッサがソフトウェアを実行することにより実現される。元画像データ記憶部32およびモデル記憶部36は、不揮発性の記憶装置により構成される。教師データ記憶部34は、不揮発性または揮発性の記憶装置により構成される。入力部31は、たとえば、外部装置からデータを送受信可能な通信I/F(インターフェイス)であってもよいし、着脱可能な記録媒体からのデータの読み書きを行う駆動装置であってもよい。
【0036】
(定量評価装置の機能構成)
図3(B)は、定量評価装置4の機能構成を示す機能ブロック図である。
【0037】
定量評価装置4は、検査対象の鋳鉄管10の鋳肌11の画像データを入力(取得)する入力部41と、学習モデルM2を予め記憶するモデル記憶部42と、入力部41に入力された画像データを学習モデルM2に入力し、学習モデルM2からの出力に基づくレベルまたは数値を、対象の鋳肌11の外観程度として評価決定する評価決定部43と、評価決定部43による評価結果を出力する出力部44とを備えている。
【0038】
モデル記憶部42に記憶された学習モデルM2は、学習装置3において構築された学習モデルM1、すなわち、予め複数段階にクラス分けされた複数の鋳肌の画像データを教師データとして機械学習することにより生成された学習モデルM1に相当する。
【0039】
評価決定部43は、学習モデルM2に入力された画像データの分析結果として、元のクラス数(5段階)よりも多い段階(たとえば10段階)のレベル、または、連続した無段階の数値範囲(たとえば1.0~5.0)内の数値を、鋳肌11の外観程度として評価決定する。
【0040】
評価決定部43の機能は、プロセッサがソフトウェアを実行することにより実現される。モデル記憶部42は、典型的には、不揮発性の記憶装置により構成される。入力部41は、たとえば、外部装置からデータを送受信可能な通信I/Fであってもよいし、着脱可能な記録媒体からのデータの読み書きを行う駆動装置であってもよい。あるいは、図示しない撮影装置から直接画像データを入力する入力I/Fであってもよい。出力部44は、たとえばディスプレイにより構成される。あるいは、出力部44も入力部41と同様に、通信I/Fまたは駆動装置などにより構成されてもよい。
【0041】
(学習方法について)
図4のフローチャートを参照して、本実施の形態に係る学習装置3が実行する学習方法、すなわち学習モデルM1の生成方法について説明する。なお、図4に示す処理は、学習装置3のプロセッサが予めメモリに記憶されたプログラムを実行することにより実現される。
【0042】
学習装置3は、入力部31を介して元画像データを取得すると(ステップS1)、取得した元画像データを元画像データ記憶部32に格納する。各元画像データは、予めクラス1~5のいずれかに分類されており、元画像データ記憶部32には、元画像データの各々が、所属するクラスに対応付けて記憶される。元画像データ記憶部32に記憶される元画像データは、一例として、2048×1536のJPGファイルを256×192のPNGファイルに圧縮した三色(RGB)の画像データである。なお、入力部31から入力される画像データ自体が、圧縮された画像データであってもよいし、学習装置3が、入力部31から入力される画像データを圧縮する機能を有していてもよい。
【0043】
次に、学習装置3の教師データ生成部33が、元画像データ記憶部32に記憶された多数の元画像データを、所定のルールで、訓練データ、検証データ、およびテストデータに振り分ける(ステップS3)。具体的には、図5に示されるように、まず、各クラスから所定数(たとえば10枚)の元画像データを抽出し、抽出した元画像データをテスト用フォルダF3内のクラス番号に対応したフォルダに保存する。次に、残った元画像データを8:2の比率で訓練データと検証データに分類し、テストデータと同様に、各フォルダF1,F2内にあるクラス番号に対応したフォルダに、分類した元画像データを保存する。テスト用フォルダF3、訓練用フォルダF1、検証用フォルダF2は、教師データ記憶部34に格納される。
【0044】
続いて、学習処理部35が、CNNを用いて訓練データおよび検証データを含む教師データの機械学習を実行し、学習モデルM1を生成する(ステップS5)。具体的には、CNNのフレームワークに、たとえばSony(R)社のNeural Network Consoleを使用し、CNNの構造探索機能を用いてネットワークのアーキテクチャを構築する。この際、訓練データで訓練を行い、重みおよびバイアス等のパラメータを学習するとともに、検証データで検証を行い、ベイズ最適化でハイパーパラメータを調節する処理が実行される。
【0045】
学習モデルM1が生成されると、モデル記憶部36に学習モデルM1を記憶する。また、評価部37が、テストデータによって学習モデルM1の汎用性能を評価する(ステップS7)。学習モデルM1の汎用性能の評価は、定量評価装置4の評価決定部43の評価方法に従って行われてもよい。評価部37による評価結果に応じて、学習モデルM1を再構築してもよい。
【0046】
(学習方法の実施例)
上述の学習方法の実施例について説明する。本実施例では、クラス1の画像を181枚、クラス2の画像を240枚、クラス3の画像を172枚、クラス4の画像を86枚、クラス5の画像を75枚、計754枚の画像を、学習用のデータセットとして用いた。この場合、全754枚の元画像データが、50枚(クラスごとに10枚)のテストデータ、564枚の訓練データ、140枚の検証データに振り分けられる(図4のステップS3)。
【0047】
訓練データおよび検証データを用いた機械学習では、上述のNeural Network Consoleを使用し、LeNetを多層化して変更を加えたアーキテクチャを起点に、ガウシアンプロセスで一週間探索を行った(図4のステップS5)。探索の結果、最も精度が高かったものを学習モデルM1のネットワーク(アーキテクチャ)として採用した。なお、このアーキテクチャは後述の実施の形態2の実施例に対応しているものとする。
【0048】
本実施例において生成された学習モデルM1の汎用性能の評価を、各クラス10枚(計50枚)のテストデータで行った(図4のステップS7)。図9(A)には、本実施例における学習モデルM1の評価結果が示されている。紙面左のグラフは混同行列を示しており、縦軸が真値(実際のクラス)、横軸が予測値(判定値)を表わしている。なお、ここでは、定量評価装置4の評価決定部43による評価方法と同様に、学習モデルM1としてのCNNの出力を回帰計算した結果(最終出力値)を予測値とした。予測値を「Y」とすると、Y≦1.5の場合にY=1に分類したと判定し、1.5<Y≦2.5の場合にY=2、2.5<Y≦3.5の場合にY=3、3.5<Y≦4.5の場合にY=4、Y>4.5の場合にY=5に分類したと判定している。
【0049】
紙面右のグラフは、左の混同行列に基づいて計算したMAE(平均絶対誤差)およびRMSE(平均二乗誤差の平方根)を、各クラスおよび全体で表わしている。図9(A)のグラフから、学習方法に改善の余地はあるものの、予めクラス分けされた多数の鋳肌の元画像データをCNNで機械学習させておくことにより、検査対象の鋳肌11の外観程度を予測可能であるという一定の効果が確認できた。
【0050】
(定量評価方法)
図6のフローチャートを参照して、定量評価装置4が実行する定量評価方法について説明する。なお、図6に示す処理は、定量評価装置4のプロセッサが予めメモリに記憶されたプログラムを実行することにより実現される。また、この処理の開始時には、モデル記憶部42から学習モデルM2を読み出して、内部メモリに展開されているものとする。なお、学習モデルM2は、この処理の開始時に、図示しないサーバ等からダウンロードされてもよい。
【0051】
定量評価装置4は、入力部41を介して検査対象の鋳鉄管10の鋳肌11の画像データ、すなわち外観程度が未知の鋳肌11の画像データを取得すると(ステップS11)、評価決定部43が、取得した画像データを学習モデルM2に入力する(ステップS13)。
【0052】
評価決定部43は、学習モデルM2からの出力を回帰問題として解き、1.0~5.0の数値範囲内の数値(たとえば、「3.2」、「3.27」など)を算出する(ステップS15)。
【0053】
評価決定部43による処理が終わると、出力部44が、ステップS15での算出結果を、鋳肌11の外観程度として出力する(ステップS17)。
【0054】
このように、本実施の形態では、検査対象の鋳鉄管10の鋳肌11の外観程度を自動的に評価して出力するので、鋳肌11の良否判定を精度良く行うことが可能となる。また、元のクラス数よりも細かな数値を、鋳肌11の外観程度を表す指標として出力するため、より精度良く鋳肌11の良否判定を行うことができる。
【0055】
<実施の形態2>
本実施の形態では、学習フェーズにおける教師データの数を増やすために、学習装置3が元画像データに基づいて拡張データを生成する点において、実施の形態1と相違する。以下の説明では、実施の形態1との相違点のみ詳細に説明する。
【0056】
図7は、本実施の形態における学習モデルM1の生成方法を示すフローチャートである。なお、図7では、実施の形態1と同様の処理については、図4と同じステップ番号を付している。
【0057】
図7を参照して、本実施の形態における学習装置3は、入力部31を介して元画像データを取得し(ステップS1)、教師データ生成部33が元画像データを振り分けた後に(ステップS3)、拡張データを生成する処理を実行する(ステップS24)。本実施の形態では、教師データ生成部33が、データ分類ごとに、各元画像データを反転、回転、およびトリミングをして、拡張データを生成する。
【0058】
図8(A)を参照して、元画像データの拡張パターン(拡張パターン1)について説明する。実施の形態1の実施例と同様に、754枚のデータセットが、訓練用(564枚)、検証用(140枚)、テスト用(50枚)に分類されているものとする。
【0059】
元画像データの反転は、3方向(垂直、水平、垂直水平)それぞれに対して行い、1枚の元画像データから3種類の反転画像データを生成する。
【0060】
元画像データの回転は、たとえば5°未満の角度範囲で左右方向それぞれに対して行い、1枚の元画像データから少なくとも2種類の回転画像データを生成する。本実施例では、元画像データを1度、2度、-1度、-2度にそれぞれ回転させた、4種類の回転画像データを生成した。このように、回転角度を小さくすることにより、図16(B)に示したような、鋳鉄管10の鋳肌に表われている多数の円環状の凹凸模様110の影響を少なくすることができる。つまり、撮影画像には、多数の円環状の凹凸模様110が一定間隔の縦線模様として写り込むため、このように回転角度を小さくすることにより、回転画像データの縦線模様の凹部をピンホールPとして誤認定する可能性を少なくすることができる。
【0061】
元画像データのトリミングは、たとえば5%未満の範囲内で上下左右それぞれに対して
行い、1枚の元画像データから少なくとも4種類のトリミング画像データを生成する。本
実施例では、元画像データの縁部を各方向に1%、2%、3%除去した4×3種類のトリ
ミング画像データを生成した。鋳鉄管10の画像の縁部(特に上下の縁部)は、円弧面の端部に相当するため、中央部よりも暗くなりやすく、ピンホールPが写り難いと考えられる。そのため、本実施例のように、元画像データの縁部を除去したトリミング画像データを生成することにより、画像の等級を維持したまま、多くの拡張データを生成することができる。
【0062】
なお、本実施例では、図8(A)に示されるように、反転、回転、トリミングを、この順序で行い、前工程の拡張データをさらに拡張するようにした。この場合、テスト用画像が13000枚、訓練画像が146460枚、検証画像が36400枚となる。
【0063】
再び図7を参照して、本実施の形態の学習処理部35は、全ての元画像データおよび拡張データのうち、訓練データおよび検証データとして振り分けられた画像データを機械学習して、学習モデルM1を生成する(ステップS25)。
【0064】
このように生成された学習モデルM1の汎用性能を評価した(ステップS27)場合の評価結果が、図9(B)に示されている。学習モデルM1の評価は、各クラス2600枚(計13000枚)のテストデータで行った。紙面左のグラフは混同行列を示しており、縦軸が真値(実際のクラス)、横軸が予測値(判定値)を表わしている。紙面右のグラフは、左の混同行列に基づいて計算したMAE(平均絶対誤差)およびRMSE(平均二乗誤差の平方根)を、各クラスおよび全体で表わしている。
【0065】
図9(A)に示した実施の形態1でのMAEおよびRMSEと比較すると、教師データの数を増やした本実施の形態の方が、精度が上がっていることが分かる。
【0066】
なお、本実施の形態では、テスト用画像についても拡張データを生成したが、テスト用画像は拡張せず、訓練用画像および検証用画像だけを拡張してもよい。この場合の拡張パターン(拡張パターン2)に対応した汎用性能の評価結果が、図9(C)に示されている。この実施例での学習モデルM1の評価は、実施の形態1と同様に、各クラス10枚(計50枚)のテストデータで行ったものである。この実施例においても、図9(A)に示した実施の形態1でのMAEおよびRMSEと比較すると、精度が上がっていることが分かる。
【0067】
本実施の形態では、学習フェーズにおいて教師データを増やすために、トリミング画像データや回転画像データを生成することとしたが、たとえばトリミング画像データについては、推論フェーズにおける予測精度を向上させる目的でも生成してもよい。すなわち、定量評価装置4において、学習モデルM2に入力する画像データを、トリミング画像データとしてもよい。
【0068】
<実施の形態3>
本実施の形態では、鋳肌検査の目的(不良品を除外する)を考慮し、学習装置が、上述のような回帰による学習モデル(以下「回帰モデル」という)と不良品分類モデル(以下「分類モデル」と略す)との二つで機械学習を行う例について説明する。本実施の形態では、回帰モデルと分類モデルとの二つで機械学習することを、「アンサンブル学習」と称する。
【0069】
(概要について)
図10は、本実施の形態に係る学習装置3が実行するアンサンブル学習の概要を示す図である。図10に示されるように、学習装置3は、元画像(ピンホール画像)を学習に適した画像にチューニング(調整)する処理を行った後(ステップS31)、アンサンブル学習を行う(ステップS32)。アンサンブル学習の出力値を、鋳肌11の等級判定結果として出力する(ステップS33)。
【0070】
アンサンブル学習では、回帰モデルM11による出力値(たとえば4.2)と分類モデルM12による出力値(たとえば4)とを統合した値を最終の推定値として出力する。本実施の形態では、回帰モデルM11の出力値と分類モデルM12の出力値とを統合することを「スタッキング」と称する。スタッキングして得られる出力値は、連続値(たとえば4.1)となる。
【0071】
(チューニング処理について)
図11(A)を参照して、入力画像のチューニング処理の具体例について説明する。入力画像のチューニング処理は、図3(A)に示した教師データ生成部33により実行される。
【0072】
学習装置3は、はじめに、クラス不均衡を解消するために入力画像のオーバーサンプリングを行う(ステップS41)。具体的には、各クラスの訓練データを無作為に複製し、各クラスの画像が同数(たとえば1,000枚)となるようオーバーサンプリングを行う。
【0073】
次に、全ての画像に対して、解像度を調整(リサイズ)する(ステップS42)。鋳肌11を撮影した元画像の解像度のままCNN(各モデルM11,M12)に入力すると、画像に含まれる高周波の空間周波数成分がノイズとなり、精度が低下する可能性があるためである。CNNに入力する画像の解像度は、複数のサイズ候補のなかから検証により定めることができる。一例として、元画像の解像度が2736×1824である場合、入力画像の解像度を798×532とする処理が行われる。
【0074】
解像度の調整後、学習装置3は、各画像に対して前処理を行う(ステップS43)。前処理は、「適応的ヒストグラム平坦化」および「疑似カラー変換」を含み、「バイラテラルフィルタによるぼかし処理」をさらに含むことが望ましい。この場合、ヒストグラム平坦化、ぼかし処理、カラー変換の順に、前処理を行うことが望ましい。
【0075】
「適応的ヒストグラム平坦化」は、コントラストに制限をかけた上で背景領域のコントラストを向上させる処理である。「疑似カラー変換」は、グレースケール画像をたとえば3列配列の疑似カラー画像に変換する処理であり、たとえばJETなどのカラーマップが適用される。「バイラテラルフィルタ」は、平滑フィルタの一つで、ガウシアンフィルタに加え色距離による重み付けを加えたものである。このフィルタを用いたぼかし処理を行うことで、ハイコントラストの領域を保持しながら画像をぼかすことができる。
【0076】
図11(B)は、入力画像の前処理の種類と誤差(RMSE)との関係を示すグラフであり、「適応的ヒストグラム平坦化」を「CLAHE」、「疑似カラー変換」を「JET」、「バイラテラルフィルタによるぼかし処理」を「BF」と表記している。このグラフから、前処理なしの画像を学習したケースにおける誤差よりも、前処理ありの画像を学習したケースにおける誤差の方が小さいことが分かる。また、前処理には、「適応的ヒストグラム平坦化」および「疑似カラー変換」に加え、少なくとも1回の「バイラテラルフィルタによるぼかし処理」を行うことが有効であることが分かる。ぼかし処理を行うことで、鋳鉄管10の鋳肌11に表われる縦線模様を目立たなくすることができるためである。すなわち、ぼかし処理を行うことによって、鋳肌11の縦線模様の凹部をピンホールPと誤って学習する可能性を低減することができる。ぼかし処理は、2回以上4回以下の複数回行うことが、さらに望ましい。
【0077】
なお、鋳鉄管10の鋳肌11に表われる縦線模様を目立たなくするという観点では、学習モデル(回帰モデルM11、分類モデルM12)の教師データを、「適応的ヒストグラム平坦化」と「バイラテラルフィルタによるぼかし処理」とを含む前処理が施された画像データとすることで、(「疑似カラー変換」を行わなくても)精度向上を見込める可能性がある。
【0078】
上記のような前処理を行った後、実施の形態2と同様に、教師データ(少なくとも訓練データ)のデータ拡張を行う(ステップS44)。実施の形態2では、画像データを反転、回転、およびトリミングをすることで拡張データを生成したが、本実施の形態では、2度以内(5度未満)の回転及びせん断、上下反転、左右反転、95%~105%以内の拡大縮小、2%以内の上下左右移動をランダムに行うことで、拡張データを生成する。さらに画素値が0~1の範囲になるように正規化する。なお、このようなデータ拡張は各分類(クラス)で同じ回数行われるものとする。
【0079】
上述のチューニング処理により、回帰モデルM11および分類モデルM12に共通の多数の教師データが生成される。
【0080】
(アンサンブル学習について)
アンサンブル学習では、上述のチューニング処理を施した教師データを、回帰モデルM11および分類モデルM12の双方に入力する。回帰モデルM11は、実施の形態1,2で説明した学習モデルM1に相当し、CNNを利用した回帰計算によって、出力値が鋳肌11の外観程度を示す連続値となるよう学習するプログラムである。分類モデルM12は、CNNの出力値が鋳肌11のクラス(等級)となるように学習するプログラムである。分類モデルM12のアーキテクチャは回帰と同じものを使用する。
【0081】
回帰モデルM11および分類モデルM12のアーキテクチャは、共通であることが望ましい。本実施の形態では、CNNの実装に、TensorFlowをバックエンドとしたKerasを利用可能である。学習には、VGG、DenseNetなどの既存のアーキテクチャをファインチューニングしたモデルを用いることができる。
【0082】
これらのモデルM11,M12に使用するアーキテクチャとしては、様々な種類のCNNアーキテクチャを比較検証した結果、精度の高いアーキテクチャが選択されることが望ましい。その上で、選択されたアーキテクチャを用いてファインチューニングでパラメータを固定する畳み込み層の範囲を比較検証した結果、精度の高い範囲のモデルが採用されることが望ましい。一例として、「DenseNet201」の入力層から481層までのパラメータを固定し、481層以降をファインチューニングしたモデルを用いることができる。本実施の形態で用いるモデルは、事前にImageNetの3チャンネルカラー画像で学習済みの転移学習モデルである。
【0083】
ここで、分類モデルM12を用いる目的は、不良品クラス(クラス5)の推定精度を高めることである。そのため、不良品クラスに重み付けをして教師データを学習してもよい。分類モデルM12に使用する損失関数の重み付きクロスエントロピーを次式(1)に示す。
【0084】
【数1】
【0085】
ここで、Pは真の確率分布、Qは推定した確率分布、Cは分類クラス数、Nはデータ数、WはクラスCの重みである。不良品クラスの重みはW5であり、不良品クラス以外の重みW,W,W,Wは全て「1」とした。すなわち、W=1のとき、通常のクロスエントロピーの状態となる。
【0086】
分類モデルM12での不良品クラスの重みWと不良品クラスの再現率(Recall)の関係を図12(A)に示す。また、不良品クラスの重みWと誤差(RMSE)との関係を図12(B)に示す。図12(A)において、重みが「6」以上のとき、再現率が「1」となった。これは、検証データの不良品を残らず検出できていることを示している。また、図12(B)において、「6」以上の重みの誤差のうち、「8」のときの誤差が最良であった。再現率が最良であることを前提とし、その中で誤差が最小となる重みを選択することが有効であると考えられる。図12に示す例では、不良品クラスの重みWとして「8」を採用することができる。なお、図12の検証結果によれば、不良品クラスの重みWは、4~8の間で定められればよい。
【0087】
回帰モデルM11の出力値と分類モデルM12の出力値とをスタッキングする際、重み付き平均を用いることが望ましい。以下に、アンサンブル学習による推定値yを定義する式(2)を示す。
【0088】
【数2】
【0089】
は回帰モデルM11による推定値、yは分類モデルM12による推定値、wは重み(0.1~1.0)である。w=0の時、yの係数が「0」となり、回帰モデルM11による推定値のみ、w=1の時に回帰の係数が「0」となり、分類モデルM12による推定値のみの状態となる。このように、アンサンブル学習の重みwは、回帰モデルM11に対する重みを表わす。
【0090】
アンサンブル学習の重みwについても、0.0~1.0の範囲で比較検証することによって定めることが望ましい。検証データにおけるアンサンブル学習の重みwの比較結果を、図13(A)および(B)に示す。図13(A)および(B)に示す検証結果は、回帰モデルM11および分類モデルM12が上述のチューニング処理を行い、かつ、分類モデルM12での不良クラスの重みWを「8」としたモデルケースにおいて、分類モデルM12の比率を変更した場合の精度を示すものとする。
【0091】
図13(B)に示すように、重みwを大きくすればするほど真値との誤差(RMSE)が悪化しているものの、図13(A)に示すように、重みwが0.6以上の時、再現率(Recall)が1となっている。この場合においても、再現率が最良であることを前提とし、その中で誤差が最小となる重みを選択することが有効であると考えられる。図13に示す例では、アンサンブル学習の重みWとして「0.6」を採用することができる。なお、図13の検証結果によれば、アンサンブル学習の重みWは、0.2以上0.6以下の範囲で定められればよい。
【0092】
上記モデルケースにおいて重みWとした場合のアンサンブル学習モデルの評価結果(テストデータによる評価結果)を図14に示す。この評価結果では、真値との誤差が0.571で再現率が1.0となった。
【0093】
以上より、本実施の形態のアンサンブル学習によれば、連続値での等級判定を可能としながら、不良品の再現率を100%にすることができる。したがって、本実施の形態のアンサンブル学習モデルは、鋳鉄管10の鋳肌11の検査に有用なモデルである。つまり、定量評価装置4のモデル記憶部42に、学習装置3で生成された回帰モデルM11および分類モデルM12を記憶させておくことにより、推論フェーズにおいて、検査対象の鋳鉄管10の鋳肌11の外観程度を精度良く評価決定することができる。
【0094】
(推論フェーズにおける定量評価について)
推論フェーズにおいて定量評価装置4は主に次の処理を行う。すなわち、定量評価装置4は、入力部41が入力した画像データを回帰モデルM11および分類モデルM12に入力し、評価決定部43が回帰モデルM11からの出力値と分類モデルM12からの出力値とを重み付き平均した数値を、鋳肌11の外観程度を示す指標値として出力する。
【0095】
推論フェーズにおいても、学習フェーズと同様に、元の画像データに対して、リサイズおよび前処理を含むチューニング処理(入力画像調整処理)を行ってから、回帰モデルM11および分類モデルM12に画像データを入力することが望ましい。このように、定量評価装置4は、入力部41が取得した画像データに少なくも前処理を実行する機能を有していることが望ましい。また、定量評価装置4が実行するチューニング処理にも、上述のようなデータ拡張処理が含まれてもよい。
【0096】
図15に、学習時と推論時におけるデータ拡張の有無を検証した結果を示す。図15のグラフに記載した「データ拡張なし」、「反転のみデータ拡張」、「データ拡張」はそれぞれ、学習フェーズにおいて、データ拡張を行わなかったケース、反転のみのデータ拡張を行ったケース、回転、反転、拡大縮小、移動をランダムに行ってデータ拡張したケースに対応している。これらのケースごとに、推論時データ拡張(Test Time Augmentation:TTA)をしない場合、反転のみ4回のデータ拡張を行う場合、回転、反転、拡大縮小、移動をランダムに20回行う場合の誤差(RMSE)をそれぞれ示している。
【0097】
なお、推論時にデータ拡張を行う場合、検査対象ごとに、複数の画像データが回帰モデルM11および分類モデルM12に入力されるため、回帰モデルM11では推論結果の平均を行い、分類モデルM12では多数決を行った場合の検証結果が図15に示されている。
【0098】
この検証結果から、学習時にデータ拡張を行うほど精度が向上し、学習時と推論時のどちらにおいても、回転、反転、拡大縮小、移動をランダムに行ってデータ拡張するケースが最も精度が高いことが分かる。したがって、定量評価装置4が実行するチューニング処理(入力画像調整処理)に、回転、反転、拡大縮小、移動をランダムに行うデータ拡張処理がさらに含まれることが望ましい。
【0099】
なお、本実施の形態では、回帰モデルM11および分類モデルM12の双方を用いたアンサンブル学習において、元の画像データに対して前処理を含むチューニング処理を行う例について説明したが、実施の形態1および2のように回帰モデルを単独で用いる場合であっても、本実施の形態で説明したチューニング処理を行ってもよい。これにより、回帰モデルの推定精度を向上させることが可能である。
【0100】
<変形例>
上述の各実施の形態では、金型遠心鋳造法により製造された鋳鉄管を対象として説明したが、たとえば砂型遠心鋳造法など他種の遠心鋳造法により製造された鋳鉄管を対象とすることもできる。なお、砂型遠心鋳造法は砂型に空気の逃げ道があるため、砂型遠心鋳造法で製造された鋳鉄管は、金型遠心鋳造法により製造された鋳鉄管よりもピンホールPの発生頻度が少ない。
【0101】
また、上記各実施の形態では、検査対象の鋳肌11の外観程度を連続する数値として出力する例について説明したが、教師データと同じ段階のクラス(クラス1~5のいずれか)を出力してもよい。つまり、実施の形態3の分類モデルM12を単独で(望ましくは、入力画像のチューニング処理と組み合わせて)用いてもよい。
【0102】
また、上記各実施の形態では、学習モデルとしてCNNを用いることとしたが、画像分析に適した手法であれば、CNNに限定されない。
【0103】
なお、各実施の形態において学習装置3により実行される学習方法を、プログラムとして提供することもできる。同様に、定量評価装置4により実行される評価方法を、プログラムとして提供することもできる。このようなプログラムは、CD-ROM(Compact Disc-ROM)などの光学媒体や、メモリカードなどのコンピュータ読取り可能な一時的でない(non-transitory)記録媒体にて記録させて提供することができる。また、ネットワークを介したダウンロードによって、プログラムを提供することもできる。
【0104】
本発明にかかるプログラムは、コンピュータのオペレーティングシステム(OS)の一部として提供されるプログラムモジュールのうち、必要なモジュールを所定の配列で所定のタイミングで呼出して処理を実行させるものであってもよい。その場合、プログラム自体には上記モジュールが含まれずOSと協働して処理が実行される。このようなモジュールを含まないプログラムも、本発明にかかるプログラムに含まれ得る。
【0105】
また、本発明にかかるプログラムは他のプログラムの一部に組込まれて提供されるものであってもよい。その場合にも、プログラム自体には上記他のプログラムに含まれるモジュールが含まれず、他のプログラムと協働して処理が実行される。このような他のプログラムに組込まれたプログラムも、本発明にかかるプログラムに含まれ得る。
【0106】
今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
【符号の説明】
【0107】
1 定量評価システム、3 学習装置、4 定量評価装置、10 鋳鉄管、11 鋳肌、31,41 入力部、32 元画像データ記憶部、33 教師データ生成部、34 教師データ記憶部、35 学習処理部、36,42 モデル記憶部、37 評価部、43 評価決定部、44 出力部、M1,M2 学習モデル、M11 回帰モデル、M12 不良品分類モデル、P ピンホール。
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14
図15
図16