IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ アジャイルソーダ インコーポレイテッドの特許一覧

特表2022-537858ディープラーニングに基づいた自動車部位別の破損程度の自動判定のためのモデル学習方法およびシステム
<>
  • 特表-ディープラーニングに基づいた自動車部位別の破損程度の自動判定のためのモデル学習方法およびシステム 図1
  • 特表-ディープラーニングに基づいた自動車部位別の破損程度の自動判定のためのモデル学習方法およびシステム 図2
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公表特許公報(A)
(11)【公表番号】
(43)【公表日】2022-08-31
(54)【発明の名称】ディープラーニングに基づいた自動車部位別の破損程度の自動判定のためのモデル学習方法およびシステム
(51)【国際特許分類】
   G06T 7/00 20170101AFI20220824BHJP
   G06Q 10/00 20120101ALI20220824BHJP
   G06N 3/04 20060101ALI20220824BHJP
   G06V 10/82 20220101ALI20220824BHJP
【FI】
G06T7/00 350C
G06Q10/00 300
G06N3/04 154
G06V10/82
【審査請求】有
【予備審査請求】未請求
(21)【出願番号】P 2021536349
(86)(22)【出願日】2019-12-30
(85)【翻訳文提出日】2021-08-20
(86)【国際出願番号】 KR2019018699
(87)【国際公開番号】W WO2020256246
(87)【国際公開日】2020-12-24
(31)【優先権主張番号】10-2019-0073936
(32)【優先日】2019-06-21
(33)【優先権主張国・地域又は機関】KR
(81)【指定国・地域】
(71)【出願人】
【識別番号】520408272
【氏名又は名称】アジャイルソーダ インコーポレイテッド
(74)【代理人】
【識別番号】100091683
【弁理士】
【氏名又は名称】▲吉▼川 俊雄
(74)【代理人】
【識別番号】100179316
【弁理士】
【氏名又は名称】市川 寛奈
(72)【発明者】
【氏名】キム,テ ユン
(72)【発明者】
【氏名】オ,ジン ソル
(72)【発明者】
【氏名】ベ,ビョン ソン
【テーマコード(参考)】
5L049
5L096
【Fターム(参考)】
5L049CC15
5L096AA06
5L096BA04
5L096CA02
5L096DA02
5L096GA34
5L096HA09
5L096HA11
5L096KA04
5L096KA15
(57)【要約】
本発明は、ディープラーニングに基づいたMask R-CNNフレームワークおよびInception V4ネットワーク構造を用いて、事故車両の写真の中から破損程度の判定が可能な写真を自動抽出することができるように学習し、破損類型別の破損程度を学習することにより、一貫性があって信頼できる車両修理見積もりを迅速に算出できるモデルを生成する、ディープラーニングに基づいた自動車部位別の破損程度の自動判定のためのモデル学習方法およびシステムに関する。
【選択図】図1
【特許請求の範囲】
【請求項1】
複数の第1自動車撮影イメージの中から選択した一部の自動車撮影イメージのデータを学習して第1モデルを生成するステップ、
複数の第2自動車撮影イメージを用いて各部品別に互いに異なる色でマスキングした後、マスキングされた領域に基づいてバンパー、ドア、フェンダー、トランク、フードに関する自動車部品を把握および細分化したデータを学習して第2モデルを生成するステップ、
ユーザにより判断された複数の自動車撮影イメージに対する破損類型別の破損程度ラベリングデータを基準値と比較した結果に基づいて、前記破損程度ラベリングデータを検査およびリラベリングする第3モデルを生成するステップ、および
複数の破損部位撮影イメージの破損類型別の破損程度を判断したデータを学習して第4モデルを生成するステップ
を含むことを特徴とする、ディープラーニングに基づいた自動車部位別の破損程度の自動判定のためのモデル学習方法。
【請求項2】
前記第1モデルを生成するステップは、
事故修理前状態を撮影した複数の自動車撮影イメージと事故修理後状態を撮影した複数の自動車撮影イメージを互いに比較した結果値に基づいて、複数の第1自動車撮影イメージの中から、事故修理後状態を撮影した自動車撮影イメージに該当すると判断されるまたは焦点が合っていない自動車撮影イメージに該当すると判断される自動車撮影イメージを除去するステップを含むことを特徴とする、請求項1に記載のディープラーニングに基づいた自動車部位別の破損程度の自動判定のためのモデル学習方法。
【請求項3】
前記第2モデルを生成するステップは、
Mask R-CNNフレームワークを用いて、前記複数の第2自動車撮影イメージ上でバンパー、ドア、フェンダー、トランクおよびフードに関する自動車部品を把握および細分化したデータを学習するステップを含むことを特徴とする、請求項1に記載のディープラーニングに基づいた自動車部位別の破損程度の自動判定のためのモデル学習方法。
【請求項4】
前記第3モデルを生成するステップは、
CNNフレームワークのInception V4ネットワーク構造を用いて、前記複数の破損部位撮影イメージの破損類型を判断および学習するステップを含み、
前記第4モデルを生成するステップは、
CNNフレームワークのInception V4ネットワーク構造を用いて、前記破損類型別の破損程度が正常状態、スクラッチ状態、小損傷の板金作業必要状態、中損傷の板金作業必要状態、大損傷の板金作業必要状態および交換状態のいずれか一つの状態に該当するか否かを学習するステップを含むことを特徴とする、請求項1に記載のディープラーニングに基づいた自動車部位別の破損程度の自動判定のためのモデル学習方法。
【請求項5】
請求項1~4のいずれか1項に記載の方法を用いて生成されたモデルに基づいて自動車部位別の破損程度を判定することを特徴とする、ディープラーニングに基づいた自動車部位別の破損程度の自動判定方法。
【請求項6】
複数の第1自動車撮影イメージの中から選択した一部の自動車撮影イメージのデータを学習して第1モデルを生成する第1モデル生成部、
複数の第2自動車撮影イメージを用いて各部品別に互いに異なる色でマスキングした後、マスキングされた領域に基づいてバンパー、ドア、フェンダー、トランク、フードに関する自動車部品別に把握および細分化したデータを学習して第2モデルを生成する第2モデル生成部、
ユーザにより判断された複数の自動車撮影イメージに対する破損類型別の破損程度ラベリングデータを基準値と比較した結果に基づいて、前記破損程度ラベリングデータを検査およびリラベリングする第3モデルを生成する第3モデル生成部、および
複数の破損部位撮影イメージの破損類型別の破損程度を判断したデータを学習して第4モデルを生成する第4モデル生成部
を含むことを特徴とする、ディープラーニングに基づいた自動車部位別の破損程度の自動判定のためのモデル学習システム。
【請求項7】
前記第1モデル生成部は、
事故修理前状態を撮影した複数の自動車撮影イメージと事故修理後状態を撮影した複数の自動車撮影イメージを互いに比較した結果値に基づいて、複数の第1自動車撮影イメージの中から、事故修理後状態を撮影した自動車撮影イメージに該当すると判断されるまたは焦点が合っていない自動車撮影イメージに該当すると判断される自動車撮影イメージを除去することを特徴とする、請求項6に記載のディープラーニングに基づいた自動車部位別の破損程度の自動判定のためのモデル学習システム。
【請求項8】
前記第2モデル生成部は、
Mask R-CNNフレームワークを用いて、前記複数の第2自動車撮影イメージ上でバンパー、ドア、フェンダー、トランクおよびフードに関する自動車部品を把握および細分化したデータを学習することを特徴とする、請求項6に記載のディープラーニングに基づいた自動車部位別の破損程度の自動判定のためのモデル学習システム。
【請求項9】
前記第3モデル生成部は、CNNフレームワークのInception V4ネットワーク構造を用いて、前記複数の破損部位撮影イメージの破損類型を判断および学習し、また、
前記第4モデル生成部は、CNNフレームワークのInception V4ネットワーク構造を用いて、前記破損類型別の破損程度が正常状態、スクラッチ状態、小損傷の板金作業必要状態、中損傷の板金作業必要状態、大損傷の板金作業必要状態および交換状態のいずれか一つの状態に該当するか否かを学習することを特徴とする、請求項6に記載のディープラーニングに基づいた自動車部位別の破損程度の自動判定のためのモデル学習システム。
【請求項10】
請求項6~9のいずれか1項に記載のシステムを用いて生成されたモデルに基づいて自動車部位別の破損程度を判定することを特徴とする、ディープラーニングに基づいた自動車部位別の破損程度の自動判定システム。
【発明の詳細な説明】
【技術分野】
【0001】
本出願は、特許文献1、および特許文献2に基づく優先権の利益を主張し、該韓国特許出願の文献に開示された全ての内容は、本明細書の一部として含まれる。
【0002】
本発明は、ディープラーニングに基づいた自動車部位別の破損程度の自動判定のためのモデル学習方法およびシステムに関し、より具体的には、ディープラーニングに基づいたMask R-CNNフレームワークおよびInception V4ネットワーク構造を用いて、事故車両の写真の中から破損程度の判定が可能な写真を自動抽出することができるように学習し、破損類型別の破損程度を学習することにより、一貫性があって信頼できる車両修理見積もりを迅速に算出できるモデルを生成する、ディープラーニングに基づいた自動車部位別の破損程度の自動判定のためのモデル学習方法およびシステムに関する。
【背景技術】
【0003】
一般に、交通事故などの様々な要因により自動車が破損した場合には、破損車両を整備工場に入庫させた後、整備専門家の判断に応じて自動車の破損程度を決めることになる。この時、整備専門家別に破損程度を判断する基準が定型化しておらず主観的な判断が介入するため、類似の破損程度にもかかわらず修理費の見積もりが大きく異なる場合が発生している。
【0004】
したがって、整備専門家たちの主観的な破損程度の判断基準ではなく、定型化し一貫性のある判断基準を通じて信頼できる修理費の見積もりを策定できる技術が必要な実情がある。
【先行技術文献】
【特許文献】
【0005】
【特許文献1】韓国特許第10-2018-0174110号公報
【特許文献2】韓国特許第10-2019-0073936号公報
【発明の概要】
【発明が解決しようとする課題】
【0006】
本発明は、上述した問題を解決するために導き出されたものであり、ディープラーニングに基づいたMask R-CNNフレームワークおよびInception V4ネットワーク構造を用いて、事故車両の写真の中から破損程度の判定が可能な写真を自動抽出することができるように学習し、破損類型別の破損程度を学習することにより、一貫性があって信頼できる車両修理見積もりを迅速に算出できるモデルを生成する、ディープラーニングに基づいた自動車部位別の破損程度の自動判定のためのモデル学習方法およびシステムを提供しようとする。
【課題を解決するための手段】
【0007】
本発明の一実施形態によるディープラーニングに基づいた自動車部位別の破損程度の自動判定のためのモデル学習方法は、複数の第1自動車撮影イメージの中から選択した一部の自動車撮影イメージのデータを学習して第1モデルを生成するステップ、複数の第2自動車撮影イメージを用いて、各部品別に把握および細分化したデータを学習して第2モデルを生成するステップ、ユーザにより判断された複数の自動車撮影イメージに対する破損類型別の破損程度ラベリングデータを基準値と比較した結果に基づいて、前記破損程度ラベリングデータを検査およびリラベリングする第3モデルを生成するステップ、および複数の破損部位撮影イメージの破損類型別の破損程度を判断したデータを学習して第4モデルを生成するステップを含むことを特徴とする。
【0008】
一実施形態において、前記第1モデルを生成するステップは、事故修理前状態を撮影した複数の自動車撮影イメージと事故修理後状態を撮影した複数の自動車撮影イメージを互いに比較した結果値に基づいて、複数の第1自動車撮影イメージの中から、事故修理後状態を撮影した自動車撮影イメージに該当すると判断されるまたは焦点が合っていない自動車撮影イメージに該当すると判断される自動車撮影イメージを除去するステップを含むことを特徴とする。
【0009】
一実施形態において、前記第2モデルを生成するステップは、Mask R-CNNフレームワークを用いて、前記複数の第2自動車撮影イメージ上でバンパー、ドア、フェンダー、トランクおよびフードに関する自動車部品を把握および細分化したデータを学習するステップを含むことを特徴とする。
【0010】
一実施形態において、前記第3モデルを生成するステップは、CNNフレームワークのInception V4ネットワーク構造を用いて、前記複数の破損部位撮影イメージの破損類型を判断および学習するステップを含み、前記第4モデルを生成するステップは、CNNフレームワークのInception V4ネットワーク構造を用いて、前記破損類型別の破損程度が正常状態、スクラッチ状態、小損傷の板金作業必要状態、中損傷の板金作業必要状態、大損傷の板金作業必要状態および交換状態のいずれか一つの状態に該当するか否かを学習するステップを含むことを特徴とする。
【0011】
本発明の他の実施形態によるディープラーニングに基づいた自動車部位別の破損程度の自動判定のためのモデル学習システムは、複数の第1自動車撮影イメージの中から選択した一部の自動車撮影イメージのデータを学習して第1モデルを生成する第1モデル生成部、複数の第2自動車撮影イメージを用いて、各部品別に把握および細分化したデータを学習して第2モデルを生成する第2モデル生成部、ユーザにより判断された複数の自動車撮影イメージに対する破損類型別の破損程度ラベリングデータを基準値と比較した結果に基づいて、前記破損程度ラベリングデータを検査およびリラベリングする第3モデルを生成する第3モデル生成部、および複数の破損部位撮影イメージの破損類型別の破損程度を判断したデータを学習して第4モデルを生成する第4モデル生成部を含むことを特徴とする。
【0012】
一実施形態において、前記第1モデル生成部は、事故修理前状態を撮影した複数の自動車撮影イメージと事故修理後状態を撮影した複数の自動車撮影イメージを互いに比較した結果値に基づいて、複数の第1自動車撮影イメージの中から、事故修理後状態を撮影した自動車撮影イメージに該当すると判断されるまたは焦点が合っていない自動車撮影イメージに該当すると判断される自動車撮影イメージを除去することを特徴とする。
【0013】
一実施形態において、前記第2モデル生成部は、Mask R-CNNフレームワークを用いて、前記複数の第2自動車撮影イメージ上でバンパー、ドア、フェンダー、トランクおよびフードに関する自動車部品を把握および細分化したデータを学習することを特徴とする。
【0014】
一実施形態において、前記第3モデル生成部は、CNNフレームワークのInception V4ネットワーク構造を用いて、前記複数の破損部位撮影イメージの破損類型を判断および学習し、また、前記第4モデル生成部は、CNNフレームワークのInception V4ネットワーク構造を用いて、前記破損類型別の破損程度が正常状態、スクラッチ状態、小損傷の板金作業必要状態、中損傷の板金作業必要状態、大損傷の板金作業必要状態および交換状態のいずれか一つの状態に該当するか否かを学習することを特徴とする。
【発明の効果】
【0015】
本発明の一側面によれば、本発明の学習および生成されたモデルを用いて、車両所有者が直接自身が撮影した事故イメージに基づいて一貫性があって信頼できる車両修理見積もりを迅速に取得できるという利点を有する。
【0016】
また、本発明の一側面によれば、数万枚以上の事故イメージに基づいて学習されたディープラーニングモデルに基づいて破損程度の判別結果を迅速に導出できるという利点を有する。
【0017】
なお、本発明の一側面によれば、交通事故などの様々な要因により自動車が破損した場合、破損車両を整備工場に入庫させた後、整備専門家の判断に応じて自動車の破損程度を決める過程を行わなくてもよい。そのため、整備専門家別に破損程度を判断する基準が定型化しておらず主観的な判断が介入するため、類似の破損程度にもかかわらず修理費の見積もりが大きく異なる問題を効果的に防止できるという利点を有する。
【図面の簡単な説明】
【0018】
図1】本発明の一実施形態によるディープラーニングに基づいた自動車部位別の破損程度の自動判定のためのモデル学習システム100の構成を示す図である。
図2図1に示されたディープラーニングに基づいた自動車部位別の破損程度の自動判定のためのモデル学習システムを介して自動車部位別の破損程度の自動判定のためのモデルを学習する過程を一連の順に示す図である。
【発明を実施するための形態】
【0019】
以下、本発明の理解を助けるために好ましい実施形態を提示する。但し、下記の実施形態は本発明をより容易に理解するために提供されるものに過ぎず、下記の実施形態によって本発明の内容が限定されるものではない。
【0020】
図1は、本発明の一実施形態によるディープラーニングに基づいた自動車部位別の破損程度の自動判定のためのモデル学習システム100の構成を示す図である。
【0021】
図1を参照すれば、本発明の一実施形態によるディープラーニングに基づいた自動車部位別の破損程度の自動判定のためのモデル学習システム100は、大きく、第1モデル生成部110、第2モデル生成部120、第3モデル生成部130および第4モデル生成部140を含んで構成されることができる。
【0022】
第1モデル生成部110は、複数の第1自動車撮影イメージの中から選択した一部の自動車撮影イメージのデータを学習して第1モデルを生成する役割をする。
【0023】
より具体的に、第1モデル生成部110は、自動車事故時、事故車両の事故修理前状態を撮影した複数(例えば、5万枚以上)の自動車撮影イメージと、事故修理後状態を撮影した複数(例えば、5万枚以上)の自動車撮影イメージを互いに比較した結果値に基づいて、複数の第1自動車撮影イメージ(例えば、自動車事故時、事故車両を撮影した30枚~40枚の自動車撮影イメージ)の中から、事故修理後状態を撮影したと判断されるイメージ非常に遠くから撮影されたことにより焦点が合っていない自動車撮影イメージを除去することで、約10%程度(例えば、3枚~4枚)を選択した自動車撮影イメージのデータを繰り返し学習することによって第1モデルを生成するようになる。これは、今後のユーザ端末(例えば、事故車両の車両所有者端末)を介して撮影された複数の撮影イメージの中から破損類型および破損程度を判断するのに適したイメージを選択するのに適用されることができる。
【0024】
第2モデル生成部120は、複数の第2自動車撮影イメージを用いて、各部品別に把握および細分化したデータを学習して第2モデルを生成することができる。
【0025】
より具体的に、第2モデル生成部120は、Mask R-CNNフレームワークを用いて、複数の第2自動車撮影イメージ上でバンパー、ドア、フェンダー、トランクおよびフードに関する自動車部品を把握および細分化したデータを学習することができる。
【0026】
例えば、自動車の正面部、側面部、後面部などをランダムに撮影した複数(例えば、数万枚)の自動車撮影イメージの各々を、Mask R-CNNフレームワークを通じてバンパー、ドア、フェンダー、トランク、フードなどの各部品別に互いに異なる色でマスキングした後、マスキングされた領域に基づいてバンパー、ドア、フェンダー、トランク、フードなどの各部品別の位置および種類を学習するようになる。
【0027】
この時、マスキング領域は、バンパー、ドア、フェンダー、トランク、フードなどの各部品別の大きさに正確に一致するのではなく、各部品別の大きさより広い面積(例えば、110%)をマスキングするようになる。よって、部品と部品が互いに接するかまたは連結される部分の境界をカバーするようにマスキングすることにより、互いに隣接するかまたは連結される境界部分の破損に対しても認識するようにする。
【0028】
また、Mask R-CNNフレームワークを通じて把握される部品は、各部品の種類別に少なくとも数万枚以上のサンプルイメージを通じて既に学習された部品に基づいてマスキングがなされるため、学習された部品以外の他の部品に関しては検出されない。
【0029】
一方、Mask R-CNNフレームワークはフェイスブック社の人工知能研究所で開発されたフレームワークであり、それを用いて各部品別に互いに異なる色をマスキングして部品別の種類を把握することができる。
【0030】
第3モデル生成部130は、自動車事故時、事故車両を撮影した複数の自動車撮影イメージに対してさらに高い信頼度を有した損傷類型の判断結果を取得することができるように、ユーザにより判断された破損部位撮影イメージの破損類型別の破損程度ラベリングデータを基準値と比較して検査およびリラベリングする第3モデルを生成する役割をする。
【0031】
ここで、リラベリングとは、ユーザにより判断された破損程度ラベリングデータを完璧ではなく人為的なミスを含み得ると仮定して進行する過程を意味し、第3モデルは、このような破損程度ラベリングデータを検査する役割をする。
【0032】
先ず、第3モデル生成部130は、特定の破損部位撮影イメージに対して破損部位の分類時に該当イメージに該当すると推定される破損部位の確率を結果データとして出力する第3モデルを生成する。
【0033】
この時、第3モデル生成部130は、該当の第3モデルの正確度を高めるために、第3モデルに特定の破損部位撮影イメージを入力することで出力される結果データの破損部位の確率値が任意の確率値に定めた基準確率値より高いか低いかを判断するようになる。
【0034】
仮に特定の破損部位撮影イメージの破損部位の確率値が基準確率値より高い場合には、先の生成された第3モデルの正確度が高いと判断する。この場合、該破損部位撮影イメージに対してユーザが付与した破損程度ラベリングデータを維持するようになる。
【0035】
その逆に、特定の破損部位撮影イメージの破損部位の確率値が基準確率値より低い場合には、先の生成された第3モデルの正確度が低いと判断する。この場合、該破損部位撮影イメージに対してユーザが付与した破損程度ラベリングデータを新しい破損程度ラベリングデータに修正するようになる。
【0036】
このような方式で全ての破損部位撮影イメージに対してリラベリング過程を行うことにより、破損部位撮影イメージの破損程度判断率が向上することができ、リラベリング過程が繰り返し行われる度に、第3モデルの性能が引続き向上する。最終的に向上した性能を示す第3モデルは、後述する第4モデルの学習に適用されることができる。
【0037】
また、一実施形態において、第3モデル生成部130を介したリラベリング過程において、後述する第4モデル生成部140は、第3モデル生成部130を介して生成されるソフトマックス(softmax)値を利用できるようになる。
【0038】
第4モデル生成部140は、複数の破損部位撮影イメージの破損類型別の破損程度を判断したデータを学習して第4モデルを生成する役割をする。
【0039】
より具体的に、第4モデル生成部140は、複数(例えば、数万枚)の破損部位撮影イメージ(例えば、スクラッチが発生したドア、板金作業が必要なフェンダー、交換作業が必要なバンパーなど)に基づいて、破損類型別の破損程度を学習して第4モデルを生成するようになる。この時、第4モデル生成部140は、CNNフレームワークのInception V4ネットワーク構造を用いて、該破損部位の破損程度が正常状態、スクラッチ状態、小損傷の板金作業必要状態、中損傷の板金作業必要状態、大損傷の板金作業必要状態および交換状態のいずれか一つの状態に該当するか否かを判別するようになる。
【0040】
この時、Inception V4ネットワーク構造はグーグル社の人工知能研究所で開発されたものであり、それを用いて破損部位が正常状態、スクラッチ状態、小損傷の板金作業必要状態、中損傷の板金作業必要状態、大損傷の板金作業必要状態および交換状態のいずれか一つの状態に該当するか否かを学習できるようになる。
【0041】
次に、図2を参照して、自動車部位別の破損程度の自動判定のためのモデルを学習する過程について説明する。
【0042】
図2は、図1に示されたディープラーニングに基づいた自動車部位別の破損程度の自動判定のためのモデル学習システムを介して自動車部位別の破損程度の自動判定のためのモデルを学習する過程を一連の順に示す図である。
【0043】
図2を参照すれば、第1モデル生成部は、複数の第1自動車撮影イメージの中から選択した一部の自動車撮影イメージのデータを学習して第1モデルを生成する(S201)。このステップでは、自動車事故時、事故車両の事故修理前状態を撮影した複数(例えば、5万枚以上)の自動車撮影イメージと、事故修理後状態を撮影した複数(例えば、5万枚以上)の自動車撮影イメージを互いに比較した結果値に基づいて、複数の第1自動車撮影イメージ(例えば、自動車事故時、事故車両を撮影した30枚~40枚の自動車撮影イメージ)の中から、事故修理後状態を撮影したと判断されるイメージ及び非常に遠くから撮影されたことにより焦点が合っていない自動車撮影イメージを除去することで、約10%程度(例えば、3枚~4枚)を選択した自動車撮影イメージのデータを繰り返し学習することによって第1モデルを生成するようになる。
【0044】
次に、第2モデル生成部は、複数の第2自動車撮影イメージを用いて、各部品別に把握および細分化したデータを学習して第2モデルを生成する(S202)。このステップでは、自動車の正面部、側面部、後面部などをランダムに撮影した複数(例えば、数万枚)の自動車撮影イメージの各々を、Mask R-CNNフレームワークを通じてバンパー、ドア、フェンダー、トランク、フードなどの各部品別に互いに異なる色でマスキングした後、マスキングされた領域に基づいてバンパー、ドア、フェンダー、トランク、フードなどの各部品別の位置および種類を学習するようになる。
【0045】
次に、第3モデル生成部は、複数の破損部位撮影イメージを用いて、破損類型を判断したデータを学習して第3モデルを生成する(S203)。このステップでは、CNNフレームワークのInception V4ネットワーク構造を用いて、破損部位撮影イメージ上の破損類型を判断および学習するようになる。
【0046】
次に、第4モデル生成部は、複数の破損部位撮影イメージの破損類型別の破損程度を判断したデータを学習して第4モデルを生成する(S204)。このステップでは、CNNフレームワークのInception V4ネットワーク構造を用いて、該破損部位の破損程度が正常状態、スクラッチ状態、小損傷の板金作業必要状態、中損傷の板金作業必要状態、大損傷の板金作業必要状態および交換状態のいずれか一つの状態に該当するか否かを判別するようになる。
【0047】
上記では本発明の好ましい実施形態を参照して説明したが、当該技術分野の熟練した当業者であれば、下記の特許請求の範囲に記載された本発明の思想および領域から逸脱しない範囲内で本発明を多様に修正および変更できることを理解することができるであろう。
図1
図2
【国際調査報告】