IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 日立交通テクノロジー株式会社の特許一覧

特開2022-66637異物検出装置、異物検出システム、異物検出方法
<>
  • 特開-異物検出装置、異物検出システム、異物検出方法 図1
  • 特開-異物検出装置、異物検出システム、異物検出方法 図2
  • 特開-異物検出装置、異物検出システム、異物検出方法 図3
  • 特開-異物検出装置、異物検出システム、異物検出方法 図4
  • 特開-異物検出装置、異物検出システム、異物検出方法 図5
  • 特開-異物検出装置、異物検出システム、異物検出方法 図6
  • 特開-異物検出装置、異物検出システム、異物検出方法 図7
  • 特開-異物検出装置、異物検出システム、異物検出方法 図8
  • 特開-異物検出装置、異物検出システム、異物検出方法 図9
  • 特開-異物検出装置、異物検出システム、異物検出方法 図10
  • 特開-異物検出装置、異物検出システム、異物検出方法 図11
  • 特開-異物検出装置、異物検出システム、異物検出方法 図12
  • 特開-異物検出装置、異物検出システム、異物検出方法 図13
  • 特開-異物検出装置、異物検出システム、異物検出方法 図14
  • 特開-異物検出装置、異物検出システム、異物検出方法 図15
  • 特開-異物検出装置、異物検出システム、異物検出方法 図16
  • 特開-異物検出装置、異物検出システム、異物検出方法 図17
  • 特開-異物検出装置、異物検出システム、異物検出方法 図18
  • 特開-異物検出装置、異物検出システム、異物検出方法 図19
  • 特開-異物検出装置、異物検出システム、異物検出方法 図20
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2022066637
(43)【公開日】2022-05-02
(54)【発明の名称】異物検出装置、異物検出システム、異物検出方法
(51)【国際特許分類】
   G06T 7/00 20170101AFI20220422BHJP
【FI】
G06T7/00 350C
【審査請求】未請求
【請求項の数】14
【出願形態】OL
(21)【出願番号】P 2020175098
(22)【出願日】2020-10-19
(71)【出願人】
【識別番号】390010973
【氏名又は名称】日立交通テクノロジー株式会社
(74)【代理人】
【識別番号】110000350
【氏名又は名称】ポレール特許業務法人
(72)【発明者】
【氏名】我妻 瞳
(72)【発明者】
【氏名】榊原 義宏
【テーマコード(参考)】
5L096
【Fターム(参考)】
5L096BA03
5L096BA04
5L096CA02
5L096GA08
5L096HA08
5L096HA11
5L096KA04
(57)【要約】
【課題】対象物上の異常もしくは異物を自動で検出し、画像上に写る異物領域を明示することができる異物検出装置、異物検出システム、異物検出方法を提供する。
【解決手段】1枚の画像に複数の判定対象となる判定対象物が映っている画像を用いて異物を検知する異物検出装置であって、画像に映っている複数の判定対象物ごとにその領域を認識する第一の領域判別器と、画像に映っている判定対象物の領域を判別して第1の判定対象物の領域内に第2の判定対象物の領域があるときに第2の判定対象物の領域を認識しない第二の領域判別器と、第一の領域判別器が与える出力と第二の領域判別器が与える出力の差分を求める異常抽出部と、差分を外部出力するための出力部とを備えることを特徴とする異物検出装置。
【選択図】図3
【特許請求の範囲】
【請求項1】
1枚の画像に複数の判定対象となる判定対象物が映っている画像を用いて異物を検知する異物検出装置であって、
前記画像に映っている複数の前記判定対象物ごとにその領域を認識する第一の領域判別器と、前記画像に映っている前記判定対象物の領域を判別して第1の判定対象物の領域内に第2の判定対象物の領域があるときに第2の判定対象物の領域を認識しない第二の領域判別器と、前記第一の領域判別器が与える出力と前記第二の領域判別器が与える出力の差分を求める異常抽出部と、前記差分を外部出力するための出力部とを備えることを特徴とする異物検出装置。
【請求項2】
請求項1に記載の異物検出装置であって、
前記第一の領域判別器及び前記第二の領域判別器のうち、少なくとも前記第一の領域判別器は、1枚の画像に複数の判定対象物が映っている複数の画像を用いて重みづけされた階層型ネットワーク構造を有することを特徴とする異物検出装置。
【請求項3】
請求項2に記載の異物検出装置であって、
前記第一の領域判別器及び前記第二の領域判別器は、前記階層型ネットワーク構造を有しており、
前記第一の領域判別器は、あらかじめ、領域内の形状、模様の違いに反応して境界内側にも異なる領域があると判定するような事前学習データで学習を行ったニューラルネットを用い、判定対象となる判定対象物の画像による追加学習を行った領域判別器であり、
前記第二の領域判別器は、あらかじめ、領域内の形状、模様の違いにかかわらず境界内側を同じ領域と判定するような事前学習データで学習を行ったニューラルネットを用いて判定対象となる判定対象物の画像を用いて追加学習を行った領域判別器であることを特徴とする異物検出装置。
【請求項4】
請求項2に記載の異物検出装置であって、
前記第一の領域判別器は、前記階層型ネットワーク構造を有しており、
前記第一の領域判別器は、あらかじめ、領域内の形状、模様の違いに反応して境界内側にも異なる領域があると判定するような事前学習データで学習を行ったニューラルネットを用い、判定対象となる判定対象物の画像による追加学習を行った領域判別器であり、
前記第二の領域判別器は、判定対象物の領域を指定したテンプレート画像を予め備えており、判定対象物を撮影した画像と同じ位置の領域指定された前記テンプレート画像を切り出すものであることを特徴とする異物検出装置。
【請求項5】
請求項2に記載の異物検出装置であって、
前記第一の領域判別器及び前記第二の領域判別器は、前記階層型ネットワーク構造を有しており、
前記第一の領域判別器はあらかじめ、領域内の形状、模様の違いに反応して境界内側にも異なる領域があると判定するような事前学習データで学習を行ったニューラルネットを用い、判定対象となる正常な判定対象物の画像による追加学習を行った領域判別器であり、
前記第二の領域判別器は、あらかじめ、領域内の形状、模様の違いにかかわらず境界内側を同じ領域と判定するような事前学習データで学習を行ったニューラルネットを用い、このニューラルネットに、判定対象となる正常な判定対象物の画像と人為的なノイズを加えた画像とその画像のノイズを無視したアノテーション画像を用いて追加学習を行った、ニューラルネットの構造が前記第一の領域判別器と全く同一である領域判別器であることを特徴とする異物検出装置。
【請求項6】
請求項2に記載の異物検出装置であって、
前記第一の領域判別器及び前記第二の領域判別器は、前記階層型ネットワーク構造を有しており、
前記第一の領域判別器はあらかじめ、領域内の形状、模様の違いに反応して境界内側にも異なる領域があると判定するような事前学習データで学習を行ったニューラルネットを用い、判定対象となる正常な判定対象物の画像による追加学習を行った領域判別器であり、
前記第二の領域判別器は、あらかじめ、領域内の形状、模様の違いにかかわらず境界内側を同じ領域と判定するような事前学習データで学習を行ったニューラルネットを用い、このニューラルネットに、判定対象となる正常な判定対象物の画像と人為的なノイズを加えた画像とその画像のノイズを無視したアノテーション画像を用いて追加学習を行った領域判別器ということができるであることを特徴とする異物検出装置。
【請求項7】
請求項1から請求項6のいずれか1項に記載の異物検出装置であって、
前記異常抽出部は、前記第一の領域判別器の出力と前記第二の領域判別器の出力の差分を得る出力比較機能と、前記差分に対して2値化、収縮、膨張処理によるノイズ除去を行う誤認識領域フィルタ機能と、前記誤認識領域フィルタ機能の出力結果を用いて、画像中の異常がある領域と異常がない領域をさらに分ける面積判別機能を備えていることを特徴とする異物検出装置。
【請求項8】
請求項1から請求項7のいずれか1項に記載の異物検出装置を用いた異物検出システムであって、
前記判定対象物が所定位置にあることを検知する検知センサと、前記検知センサが所定位置にあることを検知した時に前記判定対象物を撮影して撮影した画像を前記異物検出装置に与える撮影用カメラと、前記異物検出装置の前記出力部からの出力を画面上に表示する表示装置を備えることを特徴とする異物検出システム。
【請求項9】
1枚の画像に複数の判定対象となる判定対象物が映っている対象物の画像を用いて異物を検知する異物検出方法であって、
前記対象物を撮影した複数の画像を用いて重みづけされた階層型ネットワーク構造を有する領域判別器を生成する学習段階と、前記対象物が所定位置にあることを検知し、前記対象物を撮影して撮影した画像を入手する画像取得段階と、前記対象物を撮影した画像を用いて、前記対象物における異物を検知する画像処理段階を含み、
前記画像処理段階では、前記学習段階において生成した第一の領域判別器により前記画像に映っている複数の前記判定対象物ごとにその領域を認識する処理と、第二の領域判別器により前記画像に映っている前記判定対象物の領域を判別して第1の判定対象物の領域内に第2の判定対象物の領域があるときに第2の判定対象物の領域を認識しない処理と、前記第一の領域判別器が与える出力と前記第二の領域判別器が与える出力の差分を求める異常抽出処理と、前記差分を外部出力するための出力処理を実行することを特徴とする異物検出方法。
【請求項10】
請求項9に記載の異物検出方法であって、
前記第一の領域判別器及び前記第二の領域判別器は、前記学習段階により前記階層型ネットワーク構造を有しており、
前記第一の領域判別器は、あらかじめ、前記領域内の形状、模様の違いに反応して境界内側にも異なる領域があると判定するような事前学習データで学習を行ったニューラルネットを用い、判定対象となる判定対象物の画像による追加学習を行った領域判別器であり、
前記第二の領域判別器は、あらかじめ、領域内の形状、模様の違いにかかわらず境界内側を同じ領域と判定するような事前学習データで学習を行ったニューラルネットを用いて判定対象となる判定対象物の画像を用いて追加学習を行った領域判別器であることを特徴とする異物検出方法。
【請求項11】
請求項9に記載の異物検出方法であって、
前記第一の領域判別器は、前記学習段階により前記階層型ネットワーク構造を有しており、
前記第一の領域判別器は、あらかじめ、領域内の形状、模様の違いに反応して境界内側にも異なる領域があると判定するような事前学習データで学習を行ったニューラルネットを用い、判定対象となる判定対象物の画像による追加学習を行った領域判別器であり、
前記第二の領域判別器は、判定対象物の領域を指定したテンプレート画像を予め備えており、判定対象物を撮影した画像と同じ位置の領域指定された前記テンプレート画像を切り出すものであることを特徴とする異物検出方法。
【請求項12】
請求項9に記載の異物検出方法であって、
前記第一の領域判別器及び前記第二の領域判別器は、前記学習段階により前記階層型ネットワーク構造を有しており、
前記第一の領域判別器はあらかじめ、領域内の形状、模様の違いに反応して境界内側にも異なる領域があると判定するような事前学習データで学習を行ったニューラルネットを用い、判定対象となる正常な判定対象物の画像による追加学習を行った領域判別器であり、
前記第二の領域判別器は、あらかじめ、領域内の形状、模様の違いにかかわらず境界内側を同じ領域と判定するような事前学習データで学習を行ったニューラルネットを用い、このニューラルネットに、判定対象となる正常な判定対象物の画像と人為的なノイズを加えた画像とその画像のノイズを無視したアノテーション画像を用いて追加学習を行った、ニューラルネットの構造が前記第一の領域判別器と全く同一である領域判別器であることを特徴とする異物検出方法。
【請求項13】
請求項9に記載の異物検出方法であって、
前記第一の領域判別器及び前記第二の領域判別器は、前記学習段階により前記階層型ネットワーク構造を有しており、
前記第一の領域判別器はあらかじめ、領域内の形状、模様の違いに反応して境界内側にも異なる領域があると判定するような事前学習データで学習を行ったニューラルネットを用い、判定対象となる正常な判定対象物の画像による追加学習を行った領域判別器であり、
前記第二の領域判別器は、あらかじめ、領域内の形状、模様の違いにかかわらず境界内側を同じ領域と判定するような事前学習データで学習を行ったニューラルネットを用い、このニューラルネットに、判定対象となる正常な判定対象物の画像と人為的なノイズを加えた画像とその画像のノイズを無視したアノテーション画像を用いて追加学習を行った領域判別器であることを特徴とする異物検出方法。
【請求項14】
請求項9から請求項13のいずれか1項に記載の異物検出方法であって、
前記異常抽出処理においては、前記第一の領域判別器の出力と前記第二の領域判別器の出力の差分を得る出力比較処理と、前記差分に対して2値化、収縮、膨張処理によるノイズ除去を行う誤認識領域フィルタ処理と、前記誤認識領域フィルタ処理の出力結果を用いて、画像中の異常がある領域と異常がない領域をさらに分ける面積判別処理を行うことを特徴とする異物検出方法。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、例えば鉄道車両屋根上に未知の異物があった場合に、外観撮像装置による収録された画像データのAI解析により異物を検出する異物検出装置、異物検出システム、異物検出方法に関する。
【背景技術】
【0002】
例えば鉄道車両の屋根上にはビニール袋等予期しない異物が飛来し、事故を引き起こす可能性がある。また、屋根上での作業後工具を置き忘れたまま車両が動く可能性もある。
【0003】
しかし、屋根上に異物が存在するとき、それを確認する手法は人間による目視確認のみであり、高所での作業となるため危険である。
【0004】
高所作業の危険を軽減するため、非特許文献1のようにカメラを通した目視確認を行う場合もある。医療分野においては、検査対象の異常・異物を見つける手段としてAIを利用した手法が知られている。特許文献1では、正常な眼の診断データのみを訓練データとして使用した機械学習システムを利用し、いくつかの候補の疾患を発見するための学習、分類の手法が記述されている。
【先行技術文献】
【特許文献】
【0005】
【特許文献1】特開2020-32190号公報
【非特許文献】
【0006】
【非特許文献1】特集:センシング・モニタリング技術 鉄道車両の状態をモニタリングする「鉄道総研技術研究所」2009.2
【発明の概要】
【発明が解決しようとする課題】
【0007】
しかし、非特許文献1のような方法は高所作業の危険を回避できるが、カメラで撮影した車両の映像を人間が確認しなくてはならず、映像を注視しながら異物を見つける作業は多くの時間と労力を必要とし、自動化のニーズがある。
【0008】
また、特許文献1のような手法では、事前に調査できない未知の物体や現象をクラス分けすることはできず、鉄道車両屋根上に飛来するような未知の異物を発見することは難しい。そのため、特許文献1のようなAIをそのまま適用して異物検出することは困難である。
【0009】
本発明はこのような事態に対応し、対象物上の異常もしくは異物を自動で検出し、画像上に写る異物領域を明示することができる異物検出装置、異物検出システム、異物検出方法を提供することを目的とする。
【課題を解決するための手段】
【0010】
以上のことから本発明においては、「1枚の画像に複数の判定対象となる判定対象物が映っている画像を用いて異物を検知する異物検出装置であって、記画像に映っている複数の判定対象物ごとにその領域を認識する第一の領域判別器と、画像に映っている判定対象物の領域を判別して第1の判定対象物の領域内に第2の判定対象物の領域があるときに第2の判定対象物の領域を認識しない第二の領域判別器と、第一の領域判別器が与える出力と第二の領域判別器が与える出力の差分を求める異常抽出部と、差分を外部出力するための出力部とを備えることを特徴とする異物検出装置」としたものである。
【0011】
また本発明においては、「異物検出装置を用いた異物検出システムであって、判定対象物が所定位置にあることを検知する検知センサと、検知センサが所定位置にあることを検知した時に判定対象物を撮影して撮影した画像を異物検出装置に与える撮影用カメラと、異物検出装置の出力部からの出力を画面上に表示する表示装置を備えることを特徴とする異物検出システム」としたものである。
【0012】
また本発明においては、「1枚の画像に複数の判定対象となる判定対象物が映っている対象物の画像を用いて異物を検知する異物検出方法であって、対象物を撮影した複数の画像を用いて重みづけされた階層型ネットワーク構造を有する領域判別器を生成する学習段階と、対象物が所定位置にあることを検知し、対象物を撮影して撮影した画像を入手する画像取得段階と、対象物を撮影した画像を用いて、対象物における異物を検知する画像処理段階を含み、画像処理段階では、学習段階において生成した第一の領域判別器により画像に映っている複数の判定対象物ごとにその領域を認識する処理と、第二の領域判別器により画像に映っている判定対象物の領域を判別して第1の判定対象物の領域内に第2の判定対象物の領域があるときに第2の判定対象物の領域を認識しない処理と、第一の領域判別器が与える出力と第二の領域判別器が与える出力の差分を求める異常抽出処理と、差分を外部出力するための出力処理を実行することを特徴とする異物検出方法」としたものである。
【発明の効果】
【0013】
本発明によれば、任意の対象物上にある異常もしくは異物を自動的に発見することができる。
【図面の簡単な説明】
【0014】
図1】本発明の実施例1に係る異物検出システムの全体構成例を示す図。
図2】プロセッサ300の構成例を示す図。
図3】実施例1に係る画像処理部301の構成例を示す図。
図4】第一の領域判別器301B及び第二の領域判別器301Cにおける検出結果の例を示す図。
図5】第一の領域判別器用学習データ632としてD1a、D1bの例を示す図。
図6】第一の領域判別器301B及び第二の領域判別器301Cにおける階層型ネットワーク構造例を示す図。
図7】車両屋根上に異物としてドライバが載っている場合の入出力の例を示す図。
図8】車両屋根上に異物として傘が載っている場合の入出力の例を示す図。
図9】クラスラベルによる画像比較結果の例を示す図。
図10】異常抽出部の誤認識領域フィルタ機能の各処理の出力例を示す図。
図11】誤認識領域フィルタ機能の出力として最終的に得られる画像の例を示す図。
図12】出力部301Eの出力画像例を示す図。
図13】本発明に係る一連の異物検出手順を示すフローチャートの例を示す図。
図14】実施例3に係る画像処理部301の構成例を示す図。
図15】第一の領域判別器301B及び第二領域抽出処理器600における検出結果の例を示す図。
図16】第二領域抽出処理のデータアクセス機能が取得するテンプレート画像の例を示す図。
図17】第二領域抽出処理のデータアクセス機能が取得するテンプレート画像に対応する領域データの例を示す図。
図18図18は、第二領域抽出処理の位置合わせ機能の処理の流れの一例を示す図である。
図19】実施例4に係る画像処理部301の構成例を示す図。
図20】実施例5に係る画像処理部301の構成例を示す図。
【発明を実施するための形態】
【0015】
以下、本発明に係る異物検出装置、異物検出システム、ならびに異物検出方法について、図面を参照して説明する。本発明は、対象物上に発生した予期しない、未知の異物を検出するための異物検出装置、異物検出システム、ならびに異物検出方法である。本実施例では、鉄道車両屋根上を対象物とした例を説明する。
【0016】
以下、実施例1により本発明に係る異物検出装置及び異物検出システムの構成と処理内容について説明し、実施例2により異物検出方法を説明する。また、実施例3、実施例4、実施例5により他の代案例について説明する。
【実施例0017】
図1は、本発明の実施例1に係る異物検出システムの全体構成例を示している。本実施例の異物検出システムは、撮影用カメラ201、車体検知センサ202、カメラ制御部200、プロセッサ300、表示装置(モニタ)304を備えて構成されており、プロセッサ300及び表示装置(モニタ)304により異物検出装置を構成する。
【0018】
このうち、撮影用カメラ201及び車体センサ202は有線又は無線によりカメラ制御部200に接続されている。この例では、車体センサ202により車体検知し、検知信号が出ている間、撮影用カメラ201で車体を撮影する。なおこの図は、あくまでもシステムの全体構成を例示したものであり、異物検出装置とするときに、カメラ制御部200や車体検知センサ202を外部品扱いとすることができることはいうまでもない。以下、それぞれの構成について説明する。
【0019】
まず、カメラ制御部200の構成について説明する。カメラ制御部200は、撮影用カメラ201、車体検知センサ202と接続されて信号を送受信し、その内部処理機能として撮影開始機能、撮影終了機能、異常検知機能を有する。
【0020】
撮影開始機能は、車体検知センサ202から受信した車体検知信号をトリガーに、撮影開始指令信号を撮影用カメラ201に出力する機能である。撮影終了機能は、撮影開始後、車体検知センサ202から受信した車体検知信号がOFFになってから一定時間経過後に、撮影終了信号を撮影用カメラ201に出力する機能である。異常検知機能は、撮影時間が一定時間を超えた場合に撮影を強制終了する機能である。カメラ制御部200は、撮影開始機能、撮影終了機能の順で動作し、撮影用カメラ201を制御することで、車両屋根上の画像もしくは映像を撮影する。撮影した画像もしくは映像はプロセッサ300内の画像記録部302に送信され、保存される。カメラ制御部200の機能は、PLC(Programable Logic Controller)などのシーケンス制御装置により実現される。
【0021】
次にプロセッサ300の構成例について、図2を用いて説明する。図2のプロセッサ300は、画像処理部301、画像記録部302、表示制御部303、操作部313、CPU310、ROM311、RAM312を備えている。
【0022】
プロセッサ300は、画像記録部302に保存された車両屋根上の映像・画像を画像処理部301に入力し、画像処理部301により異常・異物を検出した後、表示制御部303を介して表示装置(モニタ)304に検出結果を表示する。
【0023】
プロセッサ300の処理は主にCPU310の制御によって行われる。また、ROM311は非一時的記憶媒体であり、HDDやSSD等の読み出し、書き込みの両方が可能なストレージも含み、補助記憶装置の役割を担う。ROM311は画像処理部301、表示制御部303、操作部313、画像記録部302で行う処理をCPU310に実行させるためのプログラムを記憶する。
【0024】
RAM312は一時的記憶媒体であり、DRAMやSRAMなどの揮発性(電源未接続の場合に記憶を保持できない)の記憶素子を含み、主記憶装置の役割を担う。RAM312は画像処理部301、画像記録部302、表示制御部303、操作部313で行う処理中に使用される。以下、画像処理部301、画像記録部302、操作部313の構成について説明する。
【0025】
画像処理部301の構成について、図3を用いて説明する。画像処理部301は、画像取得部301A、第一の領域判別器301B、第二の領域判別器301C、異常抽出部301D、出力部301Eを備える。なお画像処理部301は、撮影用カメラ201が撮影した映像(動画)の開始から終了まで継続させる、図示せぬ繰り返し制御部を備えてもよい。画像処理部301は、画像記録部302に保存された車両屋根上を撮影した画像もしくは映像を画像取得部301Aで取得し、それらに対して車両屋根上にある異物を検出する。図3の例では、検知した異物の情報は、再度画像記録部302に記憶される。
【0026】
画像処理部301における画像の処理結果は、結論を先行的に述べるならば図4に例示されるようなものである。ここでは、画像取得部301Aに入力した車両屋根の画像Dに対して、第一の領域判別器301Bは車体の屋根510、エアコンの室外機511、異物(木の枝)514、それ以外の領域513を判定対象となる判定対象物として識別した画像D1を出力し、第二の領域判別器301Cは車体の屋根510、エアコンの室外機511、それ以外の領域513を判定対象物として識別した画像D2を出力する。この結果として、異常抽出部301Dには差分として異物(木の枝)514の情報のみで構成された画像D3を得るものである。
【0027】
以下、上記結果を得るための第一の領域判別器301Bと第二の領域判別器301Cの構成について図3を用いて説明し、以後第一の領域判別器301Bと第二の領域判別器301Cを構成するための事前の学習について図5を用いて説明し、第一の領域判別器301Bと第二の領域判別器301CのCNN構成例について図6を用いて説明する。
【0028】
図3において、まず、第一の領域判別器301Bは、畳み込みニューラルネットワークの構造であるCNN構造1(630)、重さデータ1(631)を有する。重さデータ1(631)は第一の領域判別器用学習データ632を用いて学習した際の重さデータである。第二の領域判別器301Cもまた、畳み込みニューラルネットワークの構造であるCNN構造2(635)、重さデータ2(633)を有する。重さデータ2(633)は、第二の領域判別器用学習データ634を用いて学習した際の重さデータである。
【0029】
図3に示した第一の領域判別器301Bと第二の領域判別器301Cは、学習データを用いて学習処理をされた学習処理機能のものであり、CNN構造1、CNN構造2は例えばニューラルネットワークを主たる構成要素としている。ここでは、事前に実行された学習内容を具体的に説明する。
【0030】
図5に第一の領域判別器用学習データ632の例としてD1a、D1bを準備した例を示す。図5のD1aは、正常な車両屋根上を写した1枚の光学画像であり、この1枚の光学画像には判定対象物として車体の屋根520、エアコンの室外機521、それ以外の領域523の3つの物体が写っている。図5のD1bは、図5の正常な車両屋根上を写した光学画像D1aを領域分け(アノテーション)したデータ画像であり、車体の屋根520を斑点のパターン520Aで、エアコンの室外機521を縦線のパターン521Aで、それ以外の領域523を縦線のパターン523Aで示している。第一の領域判別器301Bの学習用データ632として、図5に示した正常な車両屋根上を写した光学画像D1aとそれを領域分けしたデータ画像D1bを1つのセットとして、必要枚数分準備する。
【0031】
第二の領域判別器用学習データ634は、第一の領域判別器用学習データ632と同様に正常な車両屋根上を写した画像D1aと、それに対してアノテーションをした画像データD1bを必要枚数分用意したものである。正常な車両屋根上を写したものならば、第一の領域判別器用学習データ632と全く同じ画像を用いてもよいし、違う画像を用いてもよい。
【0032】
係る学習とCNN構造の相違の結果として、第一の領域判別器301Bは、画像取得部301Aで得た画像中で、車両屋根上に載っている未知の異物の可能性が高い領域を発見する処理を行う。第二の領域判別器301Cは、画像取得部301Aで得た画像中で、車両屋根上の物体の領域を発見する処理を行う。第一の領域判別器301Bは正常な車両屋根上の学習により構成された認識機器であり、車両屋根上に存在する特徴的な形状、模様を有する領域を顕著に認識する。また第二の領域判別器301Cは正常な車両屋根上の学習により構成された認識器であり、正常な車両屋根上の物体の境界線を顕著に認識し、境界線内部の物体の領域にある微細な特徴は認識しない。 第一の領域判別器301B及び第二の領域判別器301CにおけるCNN構造は、例えば畳み込みニューラルネットワークであり、階層型ネットワーク構造を有する。第一の領域判別器301Bおよび第二の領域判別器301Cに適用される畳み込みニューラルネットワークには、ネットワーク構造や学習済みのデータが異なる、様々なセグメンテーションを行うためのネットワークが含まれる。また、畳み込みニューラルネットワークの学習に用いることができる、様々な種類の大規模なデータセットが広く公開されており、畳み込みニューラルネットワークに学習させる大規模なデータセットの種類によって様々な特徴を持ったネットワークが存在する。これらの一般的に知られる様々な畳み込みニューラルネットワークから、第一の領域判別器301Bの役割を満たすような、特徴的な形状、模様を有する領域を顕著に認識するネットワークと、第二の領域判別器301Cの役割を満たすような、物体の境界線を顕著に認識し、境界線内部の物体の領域にある微細な特徴は認識しないネットワークを選別する。選別したネットワークをそのまま用いて第一の領域判別器301Bと第二の領域判別器301Cを実現してもよいし、選別したネットワークの特徴をより顕著に表すように学習を追加したもの(ファインチューニングによる特徴の強化)を用いて実現してもよい。
【0033】
図3の第一の領域判別器301Bと第二の領域判別器301CにおけるCNN構造1(630)とCNN構造2(635)は、それぞれ別の層構成を持つ畳み込みニューラルネットワークであり、階層型ネットワーク構造を有する。第一の領域判別器301B及び第二の領域判別器301Cにおける上記のCNN構造1(630)とCNN構造(635)の層構成について、図6を用いて説明する。ただし、ここでは上記2つのCNN構造に共通する層構成については、CNN構造1(630)を代表例として説明する。
【0034】
図6に示す第一の領域判別器301BのCNN構造1(630)の例では、第一の領域判別器301Bは入力層350A、中間層350B、出力層350Cを含む。入力層350Aでは、画像取得部301Aで取得した画像Dを入力として、画像に含まれる特徴量を抽出する。中間層350Bは、複数組の畳み込み層353・プーリング層354を有し、入力層350Aで得た特徴量を入力として、入力層350Aで得た特徴とは違う特徴を抽出する。入力層350A・中間層350Bで使用されている畳み込み層353・逆畳み込み層353は複数の重みパラメータを有しており、学習が進むたびに更新されていく。入力層350A・中間層350Bの層構成は、図6に示すような繰り返しの構造だけでなく、いずれかの層が複数連続して含まれていてもよい。また、中間層350Bでは、畳み込み層353・プーリング層354のほかに、バッチノーマライゼーション処理を加えてもよい。なおバッチノーマライゼーション処理は、ミニバッチごとのデータ分布の平均化を行う処理である。過学習の抑制、学習速度の上昇等の効果が得られることが一般的に知られている。
【0035】
このうち、特に中間層における処理について、中間層350Bでは、畳み込み層353による畳み込み演算およびプーリング層354によるプーリング処理の繰り返しにより、特徴量の抽出を行う。畳み込み演算は、畳み込みフィルタによって画像から特徴を抽出し、特徴マップを取得する演算である。特徴マップは1フィルタ(チャンネル)に対して1つ得ることができる。特徴マップは、畳み込み層353によりダウンスケーリングされ、層が深くなるほどに画像サイズが小さくなってゆく。画像サイズが小さくなることにより、ダウンスケーリングされる前よりも広い範囲の特徴が抽出できるようになる。プーリング処理は、畳み込み演算により出力された特徴マップに対して、縮小あるいは拡張処理をかけることで新しい特徴マップを得る処理である。抽出された特徴に対し、平行移動などによる影響を受けないようにロバスト性を与える役割を担う。入力側に近い層ではエッジ等の局所的な特徴を抽出し、出力側に近い層では対象物全体の形状等の非局所的な特徴を抽出することができるよう学習が行われる。また、セグメンテーションを行う場合には、中間層350Bの後半部分の畳み込み層353、プーリング層354によりアップスケーリングされ、最後の畳み込み層353の出力は、第一の領域判別器301Bに入力した画像と同じ画像サイズの特徴マップとなる。
【0036】
次に、出力層における処理について説明する。第一の領域判別器301Bにおける出力層350Cでは、中間層350Bで抽出した特徴に基づき、入力された画像Dに含まれる物体の検出を行い、検出結果を出力する。この画像がD1である。
【0037】
第一の領域判別器301Bではセグメンテーション処理を行うため、入力層350Aに入力された画像Dに含まれる物体の領域を画素レベルで特定する。つまり第一の領域判別器301Bでは、図4で説明した画像D1a、D1bにより事前に学習させた、車両屋根上にある物体(車体の屋根、エアコンの室外機、パンタグラフ等)をそれぞれ違う領域としてラベル別に出力できる。また、第一の領域判別器301Bは事前に車両屋根上の正常な物体のみを学習するため、ラベル別に出力できる領域は事前に学習した物体のみである。よって、異常・異物と思われる領域は、正常な本来あるものと違う物体として、車両屋根上と思われる領域上に認識される。
【0038】
第一の領域判別器301B及び第二の領域判別器301Cにおける具体的な検出結果の例について図4を用いて説明する。図4において、Dは画像取得部301Aが入手した、解析用の車両屋根上の画像である。解析用の車両屋根上の画像Dには、車体の屋根510、エアコンの室外機511、異物(木の枝)514、それ以外の領域513の4つの物体が写っている。解析用の車両屋根上の画像Dに写る異物は木の枝を例にしているが、その他にも鳥の死骸、壊れた傘、ドライバなどの工具等、車両屋根上に飛来又は置忘れた未知の異物に置き換えることが可能である。
【0039】
第一の領域判別器301Bが、図5で例示し説明したように、事前に車体の屋根、エアコンの室外機、それ以外の領域の3つの物体を学習しているとき、解析用の車両屋根上の画像Dを第一の領域判別器301Bに入力した場合、解析後の車両屋根上の画像D1を出力として得ることができる。
【0040】
第一の領域判別器301Bによる解析後の車両屋根上の画像D1では、解析用の車両屋根上の画像Dで示される車体の屋根510、エアコンの室外機511、それ以外の領域513が、それぞれ、斑点、縦線、斜線のパターンで510A、511A、513Aとして示される。そして、異物の領域514が解析後の車両屋根上の画像D1に写る4つの物体のうち、それ以外の領域513Aと同じ斜線のパターンとして514Aで認識されている。
【0041】
ここで、異物の領域は、車両の屋根上に異物のない場合には車体の屋根510Aの領域として認識されるはずである。また、異物の領域514Aは、異物の領域として第一の領域判別器301Bに認識されているのではなく、あくまでも正常な物体ではないので、他の物体であるとして認識されているだけである。
【0042】
よって、図7に示す例では異物の領域514Aがそれ以外の領域513Aと同じ物体の領域として認識されているが、実際にはエアコンの室外機511Aと同じ領域として認識されることも、エアコンの室外機511Aとそれ以外の領域513Aが混在するように認識されることも十分に可能性がある。よって、第一の領域判別器301Bの認識のみで異物の領域514Aを特定することは困難である。
【0043】
また、木の枝に変わり、他の異物が載っている場合の例を図7図8に示す。図7は車両屋根上に異物としてドライバが載っている場合の入出力の例であり、図8は車両屋根上に異物として傘が載っている場合の入出力の例である。図7図8どちらも、図4の画像Dを第一の領域判別器301Bに入力した際と同様の結果となっている。
【0044】
図3図4に戻り、他方における第二の領域判別器301Cでの処理内容とその結果について説明する。第二の領域判別器301Cは第一の領域判別器301Bと同様セグメンテーション処理を行う。また、事前に学習する車両屋根上の物体の種類も第一の領域判別器301Bと同様である。第二の領域判別器301Cは前述のように境界線を顕著に認識し、境界線内部の物体の領域にある微細な特徴は認識しない。
【0045】
第二の領域判別器301Cの出力の例を図4のD2として示す。第二の領域判別器301Cが、図5で述べたように事前に車体の屋根510、エアコンの室外機511、それ以外の領域513の3つの物体を学習しているとき、図4の画像Dを第二の領域判別器301Cに入力した場合、図4のD2の出力を得ることができる。ここでは、車体の屋根、エアコンの室外機、それ以外の領域はそれぞれ、斑点、縦線、斜線のパターンで示される。画像D2では、画像Dに写っている異物を無視して正常な屋根上を認識したときと同じように車両屋根上の領域を認識している。
【0046】
以上要するに、第一の領域判別器301Bは画像に映っている複数の判定対象物ごとにその領域を認識するが、第二の領域判別器301Cは画像に映っている判定対象物の領域を判別するが、第1の判定対象物(例えば図4のDの510)の領域内に第2の判定対象物(例えば図4のDの514)の領域があるときに第2の判定対象物の領域を認識しないものということができる。
【0047】
上述した構成の第一の領域判別器301Bと第二の領域判別器301Cは、画像とその画像における車両にある物体の位置に関する情報を用いた学習(例:深層学習等の機械学習)によって構成することができる。また、第一の領域判別器301Bと第二の領域判別器301Cは、それぞれの役割を満たすような特徴を持つネットワークを選別し、別々の層構成を持つネットワークを用いて構成する。
【0048】
第一の領域判別器301B及び第二の領域判別器301Cを実現するにあたり、これらは、それぞれ違う車両屋根上の画像データや、その他の物体のデータを用いて学習してもよい。ただし、異常抽出部301Dの出力比較機能の処理を行うため、第一の領域判別器301Bと第二の領域判別器301Cで認識させる物体、言い換えると認識させるクラスとそのクラスラベルは統一する必要がある。それぞれ違う車両屋根上の画像データや、その他の物体のデータを用いて学習させる具体的な例として、ファインチューニングを行う際、第一の領域判別器と第二の領域判別器で、事前に学習させるデータセットを異なるものにすること、再学習時に使用する車両屋根上の画像データをそれぞれ違うものにすること等があげられる。
【0049】
次に、ファインチューニングについて説明する。ファインチューニングとは、学習済みの畳み込みニューラルネットワークの流用により、物体の認識精度を向上、学習用データが少量で済むなどの効果を得る技術である。学習済みの畳み込みニューラルネットワークは、大規模なデータセットを学習させた階層型ネットワークであり、大規模なデータセットには、画像分類用のデータセットの他、物体検出用のデータセット、セグメンテーション用のデータセット等様々な種類がある。
【0050】
ファインチューニングを第一の領域判別器301B、第二の領域判別器351に流用する際の具体例を示す。学習済みの畳み込みニューラルネットワークは、事前に学習した大規模なデータセットに含まれている物体の認識を行うネットワークである。そのため、第一の領域判別器301B、第二の領域判別器301Cに流用する場合は、認識する対象を車両屋根上の物体に変更する必要がある。
【0051】
学習済みの畳み込みニューラルネットワークが図6に示す層構造を有する場合、図6に示す中間層350Bの出力側に近いいくつかの畳み込み層353を、車両屋根上の画像とその領域のデータを使って再学習させる。その他の中間層350Bに含まれる畳み込み層353は、学習済みのデータをそのまま流用する。そうすることで、大規模なデータセットの学習により培われた、優秀な特徴抽出のフィルタを流用しつつ、優秀なフィルタによって抽出された特徴を使って車両屋根上を認識するように学習し直すことができる。よって、対象物である車両屋根上の画像のみで畳み込みニューラルネットワーク全体を学習させるよりも、車両屋根上の異物もしくは物体の認識精度が向上し、用意する画像と領域のデータが少量で済む。
【0052】
次に、ファインチューニングによる認識傾向の変化について説明する。第一の領域判別器301Bと第二の領域判別器301Cは、ファインチューニングを行う際、学習済みの畳み込みニューラルネットワークの学習に用いた大規模なデータセットの種類によって、車両屋根上を認識する傾向が変化する。
【0053】
具体的な例を示すと、野外にいる動植物をセグメンテーションすることを目的としたデータセットを事前に学習している、学習済み畳み込みニューラルネットワークである認識CNN1と、市街地にある物体をセグメンテーションさせることを目的としたデータセットを事前に学習している、学習済み畳み込みニューラルネットワークである認識CNN2を用意したとする。このとき、認識CNN1が学習済みのデータセットには、動物や植物等の曲線が多い物体の画像とその領域が含まれている。認識CNN2が学習済みのデータセットには、自動車、車道、人、街灯、ビルディング等、人工物の画像とその領域が含まれている。
【0054】
また、認識CNN1と認識CNN2の層構成は全く同じものとしたとき、両方とも同じ車両屋根上の画像とその領域のデータを使って認識CNN1、認識CNN2を再学習させる。この再学習した認識CNN1と認識CNN2の両方に、車両屋根上に異物がある画像として図4の画像Dを入力すると、認識CNN1の出力として図4のD1のような結果を得ることができる。
【0055】
図4のD1では、異物のある領域514Aが、物体以外の領域513Aとして斜線のパターンで表されている。また、認識用CNN2の出力として、図4のD2のような結果を得ることができる。図4のD2では、異物のある領域314Bは車体の屋根の領域として、斑点のパターンで表されている。このように、全く同じ層構成、全く同じデータで再学習させた畳み込みニューラルネットワークであっても、事前に学習させるデータセットによって、車両屋根上を認識する傾向が変化する。
【0056】
上述のように、認識の傾向が変化する要因として、畳み込みニューラルネットワークを動物や植物等の曲線が多いものの境界を認識するよう学習した場合と、人工物のような直線や直角が多いものの境界を認識するよう学習した場合とでは、境界線や形状、模様等、注目する特徴が異なるために、再学習後に車両屋根上を認識させる場合でも、入力された画像に対する認識の仕方に差があることが挙げられる。
【0057】
また、物体を学習する際、物体に対して大きな概念でアノテーションした教師データを用いるか、小さな概念でアノテーションした教師データを用いるかによっても、認識する傾向が変化することも要因として挙げられる。例えば、様々な形状、柄、窓の数のビルディングを、すべて1つのクラスとして事前に学習させた畳み込みニューラルネットワークを車両屋根上の物体で再学習させる。
【0058】
再学習させた畳み込みニューラルネットワークに、車両屋根上に異物が写る画像を入力する。そうすると、入力画像に写る異物が小さいものであれば、ビルディングの窓や柄と同様の特徴として、異物を無視してその領域を車両屋根上と判定する確率が上がる。
【0059】
一方、全く同じビルディングのデータを、窓の数、壁の形状、その他特徴的な構造、柄等のクラスに分割して認識するように事前に学習させた畳み込みニューラルネットワークを車両屋根上の物体で再学習させた場合、車両屋根上に異物が写る画像を入力すると、ビルディングの特徴をより詳細に、分割して認識することと同様に、入力画像中に写る小さな異物を車両屋根上と判定せず、異物として検出できる確率が上がる。このように、認識させたい物体に対して、大きな概念でアノテーションをするか、小さな概念でアノテーションをするかによっても車両屋根上を認識する傾向が変化する。
【0060】
認識の傾向が変化する例は他にもある。再学習時に使用する車両屋根上の画像とその領域のデータを、第一の領域判別器301Bと第二の領域判別器301Cで違うものを使用することによっても、車両屋根上を認識する傾向が変化する。例えば、画像中に写っている学習させたい物体の個数がクラスによって偏りがある場合、比較的データが少ないクラスは誤認識が多くなる傾向がある。また、学習させたい物体が画像中に写る位置に偏りがあると、その偏った位置に物体があるとき以外は認識しなくなる傾向がある。そして、特徴が非常によく似ている物体を違うクラスとして認識させた場合には、それらクラスの間で誤認識が多くなる。
【0061】
上述の例はあくまでも一例であり、その他にも、再学習時に使用する車両屋根上の画像とその領域のデータを変更することによる認識の傾向の変化は、様々なパターンがある。また、学習させたい対象物によって認識の傾向の変化は異なる。
【0062】
上記までで説明した認識の傾向を考慮し、第一の領域判別器301Bは異物を検出する確率が上がるように、第二の領域判別器301Cは異物を検出する確率が下がるように、事前に学習させるデータセットの選定、再学習時に使用する画像に写る物体のアノテーション、使用する画像の枚数の調整等を行う。それにより、車両屋根上に飛来する未知の異物の領域をより顕著に検出できるよう調整することができる。
【0063】
また、ここまでの説明ではファインチューニングを用いた第一の領域判別器301B及び第二の領域判別器301Cを実現する方法について言及してきたが、ファインチューニングを用いずに車両屋根上の画像とその領域のデータのみを用いて実現することも可能である。その際には、車両屋根上の物体のアノテーション、使用する画像の枚数等の調整により実現する。
【0064】
図3図4に戻り、異常抽出部301Dの構成について説明する。異常抽出部301Dは、出力比較機能、誤認識領域フィルタ機能、面積判別機能を有する。異常抽出部301Dは、第一の領域判別器301Bと第二の領域判別器301Cで得た出力結果D1、D2を入力として、出力比較機能、誤認識領域フィルタ機能、面積判別機能の順で動作させることで異物のある領域の位置情報D3を出力する。
【0065】
以下、異常抽出部301Dの各機能について説明する。まず出力比較機能について説明する。異常抽出部301Dでは、第一の領域判別器301Bと第二の領域判別器301Cで得た出力結果D1、D2を比較することで異物のある可能性が高い領域を抽出し、結果を出力する。
【0066】
本実施例では、第一の領域判別器301Bと第二の領域判別器301Cの差分を用いて比較を行う。差分はクラスラベルを用いる。クラスラベルは、第一の領域判別器301B及び第二の領域判別器301Cで認識した物体ごとに割り振られている数値を示す。
【0067】
クラスラベルについて具体的な例を示す。ここでは、図4の画像Dを第一の領域判別器301Bに入力し、出力として図4の画像D1を得たとする。画像Dに写る車体の屋根510、エアコンの室外機511、それ以外の領域513はそれぞれ、斑点、縦線、斜線のパターンで画像D1に510A、511A、513Aとして示される。また、画像Dに写る異物の領域514はそれ以外の領域513として認識され、斜線のパターンで514Aとして示されている。
【0068】
画像D1は第一の領域判別器301Bから出力される画像であり、斑点、縦線、斜線のパターンで示される領域に対応するピクセルには、それぞれクラスラベルが格納されている。例えば、車体の屋根510を示す斑点パターンの値を1、エアコンの室外機511を示す縦線パターンの値を2、それ以外の領域を示す斜線パターンの値を3、異物の領域514は斜線パターンの値3が格納される。
【0069】
第二の領域判別器301Cの出力画像D2も第一の領域判別器301Bの出力画像D2と同様である。画像Dに写る車体の屋根510、エアコンの室外機511、それ以外の領域513はそれぞれ、斑点、縦線、斜線のパターンで画像D2に510B、511B、513Bとして示される。また、第一の領域判別器301Bと第二の領域判別器301Cが認識する物体は同じものであり、それに対応するクラスラベルも同じものとなる。例えば、車体の屋根510を示す斑点パターンの値を1、エアコンの室外機511を示す縦線パターンの値を2、それ以外の領域を示す斜線パターンの値を3として格納する。
【0070】
上述したクラスラベルを使って、第一の領域判別器301Bと第二の領域判別器301Cの出力画像D1、D2の差分を取る。第一の領域判別器301Bと第二の領域判別器301Cの出力において、クラスラベルが一致する場合、つまり認識した領域が一致する場合は、差分結果は0となる。逆に、クラスラベルが一致しない場合は、差分結果は0以外の数値となる。
【0071】
クラスラベルによる画像比較結果の例を図9に示す。第一の領域判別器301Bと第二の領域判別器301Cの出力として図7のD1とD2を得たとき、2つの画像の差分を求めると、出力画像として図9の画像D3を得ることができる。図9の黒色で表されている領域は、第一の領域判別器301Bと第二の領域判別器301Cのクラスラベルが一致して差分の結果が0になった領域である。また、それ以外の色(白色、灰色等)の領域は、第一の領域判別器301Bと第二の領域判別器301Cのクラスラベルが一致せず、0以外の数値となった領域である。
【0072】
差分による計算の具体的な例を示す。画像中のある位置の領域を、第一の領域判別器301Bが車体の屋根510を示すクラスラベルの値1の領域と認識したとき、同じ位置を第二の領域判別器301Cがエアコンの室外機511を示すクラスラベルの値2の領域と認識しているとする。第一の領域判別器301Bの認識結果と第二の領域判別器301Cの認識結果の差分を取ると、1-2=-1≠0となる。負の差分が得られた領域は、図9では、黒色以外の領域(白色)として示される領域である。また、第一の領域判別器301Bと第二の領域判別器301Cの認識結果が逆だった際は、2-1=1≠0となる。正の差分が得られた領域は、図9では黒色以外の領域(灰色)として示される領域である。
【0073】
上述の差分による計算の例のように、第一の領域判別器301Bと第二の領域判別器301Cの差分結果が黒色以外の領域、つまりクラスラベルが一致しなかった領域に格納される数値は、まばらになる。また図9において、黒色以外の色で表示された領域には、異物の領域514Dと、異物の領域以外の部分で第一の領域判別器301Bと第二の領域判別器301Cでクラスラベルが一致していない領域が混在する。異物の領域514D以外のクラスラベルが一致しない領域は、第一の領域判別器301Bと第二の領域判別器301Cの認識の仕方の違いによる誤認識、認識した領域のズレなどが原因で存在しており、最も顕著に表れるのは物体の境界線付近である。この異物の領域以外でクラスラベルが一致しない領域を、以降では誤認識領域と表記する。
【0074】
図9に示すような出力比較機能の出力で、黒色以外の色で示された領域に異物の領域514Dと誤認識領域が混在すること、そして黒色以外の色で示された領域に格納されているクラスラベルの差分値がまばらであることから、出力比較機能の出力によって異物の領域514Dのみを画像処理的に抽出することは困難である。出力比較機能の効果は第一の領域判別器301Bと第二の領域判別器が画像中の領域に対して同じ認識をしたか否かを判定するものであり、異物の領域514Dを特定する効果は、後述する誤認識フィルタ機能と面積判別機能により実現される。
【0075】
誤認識領域フィルタ機能においては、出力比較機能で得た出力画像に対して処理を施すことで、誤認識領域を除去する。本実施例では、出力比較機能で得た出力画像に対して誤認識領域フィルタ機能において2値化を施し、収縮・膨張処理によるノイズ除去を行う。収縮・膨張処理は、2値化された画像の白色もしくは黒色の領域を収縮させた後、元の領域の大きさまで膨張させる処理である。
【0076】
具体例を示す。出力比較機能の出力として図9を得たとき、誤認識領域フィルタ機能の出力として最終的に図11を得る。誤認識領域フィルタ機能が必要となる具体的な理由は以下のようである。
【0077】
出力比較機能の出力とである図9に例示する画像に関して、本来、最も理想的な出力比較機能の出力は、異物の領域以外は黒色の領域となり、異物の領域のピクセルに格納されるクラスラベルの差分結果は、車両屋根上の物体以外の領域(図4の画像D1、D2におけるその他の領域513A、513B)と、異物が載っている領域の、異物がない場合に写るはずの物体の領域(図4画像D2における車体の屋根510B)の差分結果となる。しかし、実際には誤認識領域が存在し、誤認識領域および異物の領域514Dピクセルに格納されているクラスラベルの差分結果は、同じ数値に統一されておらず、まばらになっている。なお、クラスラベルは第一の領域判別器301Bと第二の領域判別器301Cの物体の認識によって変化するため、異物の領域514Dに格納されるクラスラベルが出力比較機能の出力画像にどのように配置されるのかを予め予測することは困難である。そのため、図9の画像をそのまま使用して、エッジ検出等の画像処理で異物の領域を認識しようとすることは困難である。
【0078】
よって、異物の領域514Dを画像処理的に特定するため、もしくは誤認識領域を消去するために、異物の領域514Dと誤認識領域のピクセルに格納されている数値を統一する必要がある。そのために、図10に経過を示すようにまず、図9に対して2値化を行う。2値化後の画像は図10の左に示すようなものである。クラスラベルの2値化を行う際には、0とそれ以外の数値で分ける。図10の左を見ると、図10の黒色以外の領域の色が白色に統一されたことがわかる。
【0079】
次に、誤認識領域を除去するため、収縮・膨張処理を施す。図10の左の画像に白色の領域を収縮させる処理を施すと図10の中央の画像を得ることができる。白色の領域を収縮させたため、異物の領域514F以外の白色の領域、つまり誤認識領域が一部を残して消滅している。
【0080】
また、図10の中央の画像の白色の領域を図10の左の画像の領域の大きさまで膨張させる処理を施すと図10の右の画像を得ることができる。誤認識領域は一部を残して消滅しているため、図10の右の画像には元の大きさの異物の領域514Gと誤認識領域の一部が白色の領域として残る。その他、誤認識領域フィルタ機能は、後の工程で異常・異物の検出率が上がるように調節する画像処理手法により構成することができる。
【0081】
面積判別機能においては、誤認識領域フィルタ機能の出力結果を用いて、画像中の異常がある領域と異常がない領域をさらに分ける。本実施例では、ブロブの面積を使用し、閾値を設けて異常がある領域と異常がない領域を判別する。領域判別の例を示す。出力比較機能あるいは誤認識領域フィルタ機能の出力として図10の右の画像を得たとき、黒色の領域に囲まれている白色の領域(プロブ)の面積をピクセル数により計算する。この面積を閾値として用い、プロブが一定以上の面積を有するとき、異常がある領域として認識させる。
【0082】
具体的な処理としては、一定以下の面積を持つプロブの領域をすべて黒色の領域に変換する。認識の結果を図12に示す。図10の右の画像で残っていた誤認識領域が図11では黒色の領域になっている。また、面積判別機能の別例として、図10の右の画像に示される白色の領域はすべて異常がある領域として認識させてもよい。その他、面積判別機能を実現する手法は、異常がある領域と異常がない領域を判別する手法によって構成することができる。
【0083】
次に図3に戻り、出力部301Eの構成について説明する。出力部301Eでは、異常抽出部301Dの出力結果より、画像取得部301Aで得た画像中に異物の領域を矩形もしくは分かりやすい色でマーキングする。もしくは、矩形と分かりやすい色の両方を用いて異物の領域をマーキングする。
【0084】
画像取得部301Aが図4の画像Dを得た場合の、出力部301Eの出力画像を図12に示す。異物の領域514を矩形515で囲っている。また、別例として異物の領域514に対してわかりやすい色で着色している(514I)。便宜上、図12では色で着色する代わりに格子柄のパターンで表現している。上述の処理が終わった画像を画像記録部302へ保存する。
【0085】
図2の装置構成において、プロセッサなどにより画像処理部301の機能を実現するときには、以下の点を考慮するのがよい。まず画像処理部301の機能は、各種プロセッサを用いて実現することが可能である。各種プロセッサの例として、プログラムに基づいて各種機能を実現するCPU、画像や映像を処理することに特化したGPU、FPGAを代表とする製造後に内部の回路構成を変更することが可能なデバイス、ASICを代表とする特定の処理を実現するために設計・製造された専用の電気回路等が含まれる。
【0086】
画像処理部301の機能の実現のため、これらのプロセッサの中から同種あるいは異種の複数を組み合わせて機能を実現してもよいし、1つのプロセッサによって複数の機能を実現させてもよい。例えば、システムオンチップ等の1つのICチップにシステム全体の機能を搭載するプロセッサを使用することや、サーバに代表される1つ以上のCPUと他のプロセッサ、プログラムを組み合わせて構成するなどが挙げられる。
【0087】
画像処理部301は各種プロセッサの1つ以上を用いて構成される。各種プロセッサのハードウェアの構造は、半導体素子等の回路素子を組み合わせた電気回路である。電気回路は、論理演算を用いて画像処理部の機能を実現する電気回路であってもよい。各種プロセッサ、電気回路がソフトウェア(プログラム)による画像処理部の機能実現を行うとき、各種プロセッサが読み取り可能なコードをROMに記憶し、各種プロセッサがそれを参照する。ROMに記憶するソフトウェアは、本異物検出システムを実行するために必要なソフトウェアを含む。
ソフトウェアを用いた処理の実行中、RAMが一時的記憶媒体として使用される。
【0088】
また図2の操作部313の構成に関して、プロセッサ300は操作部313を備えている。操作部313は図示せぬキーボード及びマウスを含み、ユーザはこれらデバイスを介して画像記録部に保存されている画像・映像の表示を行う。
【0089】
また図2の操作部313の構成に関して、プロセッサ300は最終的に表示装置304に各種情報を表示出力する。表示装置304(モニタ)は、操作部313を介した操作、撮影用カメラ201で撮影された車両屋根上の画像・映像および画像処理部301から出力された異常のある領域の検出結果などを表示する。
【0090】
また図2の画像記録部302の構成に関して、画像記録部302は、各種の光磁気記録媒体、半導体メモリなどの非一時的記録媒体及びこれら記録媒体の制御部を含んで構成され、撮影用カメラ201によって撮影された画像・映像、画像処理部301の出力結果などを関連付けて記録することができる。画像記録部302は、表示制御部303と画像処理部301から内部のデータを参照することが可能であれば、プロセッサ300の外部に用意してプロセッサ300に接続することも可能である。画像記録部302に保存された画像および情報は、操作部によるユーザの操作により、表示制御部303を介することで表示装置304(モニタ)に出力される。上記により、図2に例示する異物検出装置の各部とその動作内容について説明した。
【0091】
なお実施例1の第一の領域判別器301B、第二の領域判別器301Cに関して、これを簡便に述べるならば、第一の領域判別器301Bは、あらかじめ、領域内の模様の違いに反応して境界内側にも異なる領域があると判定するような事前学習データで学習を行ったニューラルネットを用い、判定対象となる判定対象物の画像による追加学習を行った領域判別器ということができる。
【0092】
また第二の領域判別器301Cは、あらかじめ、領域内の模様の違いにかかわらず境界内側を同じ領域と判定するような事前学習データで学習を行ったニューラルネットを用いて判定対象となる判定対象物の画像を用いて追加学習を行った領域判別器ということができる。
【実施例0093】
次に実施例2において、図1に示す異物検出システムの全体としての処理手順について説明する。これは、上述した構成の異物検出システムを用いた異物検出方法を説明するものである。
【0094】
図13は、本発明に係る一連の異物検出手順を示すフローチャートである。このフローは、学習段階S1と画像取得段階S2と異常検出段階S3に分けて示されている。このうち、最初の学習段階S1では、図5で説明したように、処理ステップS11において学習用データD1a、D1bを用いた学習により第一の領域判別器301Bを生成し、処理ステップS112において同様に学習用データを用いた学習により第二の領域判別器301Cを生成する。なお学習段階の処理は、プロセッサ300で行ってもよいし、あるいは別置の計算機などにより行われてもよい。
【0095】
全体処理手順の画像取得段階S2は、車両位置制御処理ステップS21、撮影用カメラ制御処理ステップS22を含み、これにより車両屋根上の画像もしくは映像の撮影を行う。ここでは、車体検知センサ201により異物検出システムに近づいた車両を検出し、車両を検出している間撮影用カメラ202によって車両屋根上の画像または映像を撮影する。車体検知センサ201、撮影用カメラ202はカメラ制御部200に接続されている。車体検知センサの信号をカメラ制御部200が受け取り、その信号によって撮影用カメラ202に撮影の開始、終了信号を出力する。また、カメラ制御部200は、車体検知センサが一定時間以上車両を検知し続けた場合、異常が発生したとして撮影用カメラによる撮影を中止する機能を有する。撮影用カメラが撮影した車両屋根上の画像または映像は、撮影の終了後、プロセッサ300内部にある画像記録部302に送信され、保存される。
【0096】
次に全体処理手順の次の段階である異常検出段階S3は、プロセッサ300において、異物のある領域の特定を行う。このため、画像処理部301に、画像記録部302に保存されている画像もしくは映像を入力し、入力した画像もしくは映像に対して異物のある領域をマーキングしたものを出力する。そのうえでまず、処理ステップS31では画像取得部301Aにより、画像記録部302に保存された車両屋根上画像もしくは映像を取得する。映像を取得する際には、その映像をフレームごとの画像に変換して取得する。また、映像を取得した際は、画像処理部301に図示せぬ繰り返し制御部を備え、映像を変換したすべての画像に対して画像処理部301の各手順を適用する。
【0097】
次に処理ステップS32、S33では、画像取得部301Aが取得した画像を、それぞれ第一の領域判別器301Bと第二の領域判別器301Cに入力して出力D1、D2を得る。画像取得部301Aが図4の画像Dを取得した際の第一の領域判別器301B、第二の領域判別器301Cの出力の例が図4の画像D1、D2である。ただし、第一の領域判別器301Bと第二の領域判別器301Cは事前に車両屋根上の物体を学習しており、図4の画像D1では異物(木の枝)514を車両屋根の領域510Aではない領域として認識している。また、図4の画像D2は、異物514がある領域を無視して、その領域を車両屋根の領域510Bとして認識している。
【0098】
次に処理ステップS34では、第一の領域判別器301Bと第二の領域判別器301Cで得た出力を異常抽出部301Dに入力し、その出力を得る。第一の領域判別器301Bと第二の領域判別器301Cから得た出力がそれぞれ図7の画像D1、D2であるときの異常抽出部301Dの最終的な出力例が図4の画像D3である。異常抽出部301Dの内部の処理は出力比較機能、誤認識フィルタ機能、面積判別機能の順に処理される。具体的な処理例として、異常抽出部301Dに図4の画像D1、D2を入力したときの出力比較機能の出力を図9に、誤認識フィルタ機能の出力を図10に、面積判別機能の出力を図11に示している。
【0099】
次に処理ステップS35では、異常抽出部301Dの出力を出力部301Eに入力し、出力部301Eの出力を画像記録部302に保存する。出力部301Eは、画像取得部301Aが得た画像に対して、異常抽出部301Dの出力で得た異物の領域により、異物の領域を矩形または色でマーキングする処理を行う。異常抽出部301Dより図10の出力を得た際の出力部301Eの出力を図12に示す。異物のある領域は、矩形によるマーキング515、色によるマーキング514Gで示されている。図12のような画像を得た後、得た画像を検出結果画像として画像記録部302に保存する。その際、画像取得部301Aで取得した画像との関連付けを行う。また、画像取得部301Aで映像を取得した場合は、映像をフレームごとの画像に変換し、上述した異物のある領域のマーキングを行うまでの手順を映像のフレーム画像全てに適用して結果を得て、手順を適用した全てのフレーム画像を映像に再変換する。再変換された映像を検出結果映像として画像記録部302に保存する。その際、画像取得部301Aで取得した映像と関連付けを行う。
【0100】
次に処理ステップS36では、検出結果をユーザに表示する。ここでは、画像記録部302に保存された検出結果画像もしくは検出結果映像を表示装置に出力する。プロセッサ300内部の操作部313により、ユーザが直接操作することで検出結果画像もしくは検出結果映像を表示装置に出力する。また、ユーザが直接操作を行わなくても、検出結果画像もしくは検出結果映像が画像記録部302に保存された時点で自動的に表示装置に出力することも可能である。ユーザは表示装置に出力された検出結果画像もしくは検出結果映像を見ることにより、車両屋根上に異物があるかを判断する。また、出力結果画像もしくは出力結果映像の中に異物が検出された場合には、自動的にユーザへ警告を発することも可能である。また、画像処理部301による異物の検出が行われていない車両屋根上の画像もしくは映像も、ユーザ操作により表示装置に出力可能とする。
【0101】
最後に、異物検出システムの効果について説明する。上述の手順により、車両屋根上に異物が存在するか否かを自動的に検出することができる。さらに具体的には、自動的に異物が検出されることにより、車両屋根上に上ることなく異物を発見できるようになるため、車両検査を行う作業員の高所作業の削減に効果がある。また、異物検出システムが車両屋根上に異物を発見した場合にアラートを挙げるよう設定を行えば、異物の早期発見にも効果がある。そして、異物検出システムが通電していれば、異物検出システムの設置場所を通る車両の、車両屋根上を常に点検することが可能である。これは、点検の頻度、点検を行う場所の自由度の観点から、点検番線に入庫した車両を人間が目視点検するよりも有利である。
【実施例0102】
実施例3では、対象物の認識に関する構成の変形例について説明する。本発明にかかる異物検出システム及び異物検出方法では、実施例3として、画像処理部301にある第二の領域判別器301Cの処理を後述する処理に置き換えることが可能である。
【0103】
以下、その処理について説明する。なお、対象物は車両屋根上とする。第二の領域判別器301Cの変形を行った、画像処理部301の例を図14に示す。図14では、第二の領域判別器301Cの役割を、第二の領域判別器301Cに変わり、第二領域抽出処理器600へ置き換えることができる。
【0104】
実施例1で説明した第二の領域判別器301Cは、正常な車両屋根上の物体の境界線を顕著に認識し、境界線内部の物体の領域にある微細な特徴は認識しない。よって、第二の領域判別器301Cに入力した画像中の車両屋根上に異物がある場合、異物を無視して正常な屋根上の認識を行った際と同じ領域を認識し、その領域を出力する。実施例3ではこの第二の領域判別器301Cに代わり、第二領域抽出処理器600を実行する。
【0105】
第二領域抽出処理器600は、事前に正常な車両屋根上全域の物体の領域データを手作業のアノテーションにより用意しておき、そのデータの中から、パターンマッチングを用いて画像取得部301Aで取得した画像に写る物体の領域と同じ位置の物体の領域を抽出する処理である。なお、上述の手作業で用意した車両屋根上全域の領域データは、画像記録部302に保存するものとする。また、図15に画像取得部301A、第一の領域判別器301B、第二領域抽出処理器600、異常抽出部301Dの出力例をそれぞれD、D1、D2、D3として示している。
【0106】
この場合に、第二領域抽出処理の構成は以下のようにされている。まず第二領域抽出処理600は、データアクセス機能、位置合わせ機能を有する。第二領域抽出処理600は、画像取得部301Aで取得した画像を入力として、データアクセス機能、位置合わせ機能、領域抽出機能の順で動作させる。出力として、画像取得部301Aで取得した画像中の、異物を除いた車両屋根上の物体の領域を取得する。以下、各機能について説明する。
【0107】
まず、データアクセス機能は、画像記録部302に保存された車両屋根上全域のテンプレート画像と、テンプレート画像に対応する領域データを取得する機能である。実施例3を実現する際には、画像記録部302にパターンマッチングのためのテンプレート画像とそれに対応する領域データを事前に画像記録部302に保存しておく。データアクセス機能はそれらを読み込む機能である。
【0108】
テンプレート画像とそれに対応する領域データの例をそれぞれ図16図17に示す。図16はパターンマッチングのためのテンプレート画像の例である。テンプレート画像として用意する画像は、画像取得部301Aで取得する画像と同様の光学画像である。また、テンプレート画像は、撮影用カメラ202で事前に撮影された複数の車両屋根上の画像を不足なく接続して、1編成すべての車両屋根上を写したパノラマ画像である。後述する位置合わせ機能により、画像取得部301Aで取得する画像との類似度を求める際に使用する。以降、テンプレート画像と表記する。
【0109】
図17は、図16に示すテンプレート画像に手作業によるアノテーションを施した、正常な車両屋根上の物体の領域分けをしたデータの例である。車両屋根の領域、エアコンの室外機、パンタグラフ、その他の領域がそれぞれ斑点、縦線、横線、斜線のパターンで示されている。後述する位置合わせ機能の出力を抽出する際に使用される。以降、領域データと表記する。
【0110】
図16図17は、ともに車両屋根上全域のデータが写る画像である。図16図17に示されているのは一両分のデータであるが、実際は異物検出を行う車両の編成に合わせて車両屋根上の全域を用意する。また、図16に示すようなテンプレート画像DTと図17に示すような領域のデータDTaを作成する際には、テンプレート画像DT中の車両の縦方向位置と、画像取得部301Aで取得する画像中の車両の縦方向位置にズレがないように作成する。
【0111】
これにより、テンプレート画像DT中の車両の縦方向位置と画像取得部301Aで取得する画像D中の車両の縦方向位置が統一され、パターンマッチングを行う際には、画像取得部301Aで取得する画像Dとテンプレート画像DTが横方向に一致する位置を検索すればよいことになる。それによって、縦方向の検索による誤差がなくなる為、異常抽出部301Dの出力比較機能で誤認識領域が発生する確率を軽減する効果がある。ただし、撮影用カメラ202で撮影される車両の動揺により、画像取得部301Aで取得する画像D中の車両の縦方向位置が変化する場合がある。要因の例としては、車輪が横ずれすること、空気ばねで車体が上下に移動すること等が考えられる。これら要因により、テンプレート画像DT中の車両の縦方向位置と画像取得部301Aで取得する画像D中の車両の縦方向位置にズレが生じることで、異常抽出部301Dの出力比較機能で誤認識領域が発生する。しかし、上述の要因の例に示した状況による誤認識領域の発生は微小なものであり、異常抽出部301Dの誤認識領域フィルタ機能により、誤認識領域の除去という形で対応可能である。
【0112】
位置合わせ機能は、パターンマッチングにより、画像取得部301Aで取得した画像Dに写る車両屋根上の領域と同じ位置を、データアクセス機能で取得したテンプレート画像DTの中から検出し、検出した位置に対応する領域データDTaを出力する機能である。画像取得部301Aで図18の画像Dを取得し、データアクセス機能がテンプレート画像DTとテンプレート画像DTに対応する領域データDTaとして図16図17を取得した場合の、位置合わせ機能の処理の流れの例を図18に示す。図18の入力画像Dは図15の入力画像Dと全く同じものである。
【0113】
パターンマッチングの具体例について説明する。ここでは例えば、図18の入力画像Dと図18のテンプレート画像DTの間で類似度を計算する。具体的には、図18の入力画像Dを図18のテンプレート画像DTに重ねるイメージで、関数によって類似度を求める。重なった位置の例を矩形610で示す。これを、図18のテンプレート画像DT上でスライドさせるイメージで、図18のテンプレート画像DTの全域を網羅するまで繰り返す。類似度を求める関数は、SSD、SAD、NCC等の広く一般的に知られている関数を用いる。
【0114】
次に、計算された類似度が一番高いスコアである、図18のテンプレート画像DT上の位置610を抽出し、その位置に対応する領域データ611を図18の領域データDTaより抽出する。図18の領域データDTaの抽出される位置を矩形611に、抽出された領域データの例を図18のD1に示す。この図18のD1が位置合わせ機能、ひいては第二領域抽出処理器600の出力画像となる。
【0115】
この場合に、第二領域抽出処理器600の出力は、手作業によるアノテーションを行った領域データから抽出されたものであるため、物体の境界部分やその他の領域で、誤認識領域は発生しない。よって、第二の領域判別器301Cの出力と比較して、誤認識領域を削減する効果がある。
【0116】
また、畳み込みニューラルネットワークは学習の過程、認識時に使用する特徴が何か等が不透明であるが、パターンマッチングによる手法では処理の過程が明確に数式で示される。よって、畳み込みニューラルネットワークによる判別器よりも機能の効果を担保しやすい。
【0117】
なお実施例3の第一の領域判別器301B、第二領域抽出処理600に関して、これを簡便に述べるならば、第一の領域判別器301Bは、あらかじめ、領域内の模様の違いに反応して境界内側にも異なる領域があると判定するような事前学習データで学習を行ったニューラルネットを用い、判定対象となる判定対象物の画像による追加学習を行った領域判別器ということができる。
【0118】
また第二領域抽出処理600は、判定対象物の領域指定を人手によって作成しておき、入力画像と同じ位置の領域指定された画像を切り出す第二領域抽出処理器ということができる。
【実施例0119】
実施例4では、第一の領域判別器と第二の領域判別器の構成の変形例について説明する。本発明の実施例4として、第一の領域判別器301B及び第二の領域判別器301Cに同じ構造のCNNを用い、それぞれ異なる学習データで学習を行った判別器を用いることを特徴とする異物検出システム及び異物検出方法について以下図19を用いて説明する。
【0120】
第一の領域判別器301Bと第二の領域判別器301Cは同じCNN構造640を有する。また、第一の領域判別器301Bは重さデータ1(631)を、第二の領域判別器301Cは重さデータ2(633)を有する。重さデータ1(631)は第一の領域判別器用学習データ632を用いて学習した際の重さデータである。重さデータ2(633)は、第二の領域判別器用学習データ642を用いて学習した際の重さデータである。
【0121】
第一の領域判別器学習用データ632は、学習のために撮影された画像の中から、異物、汚れの比較的少ない正常状態の車両屋根上を写した画像を選択し、その画像を使ってアノテーションを施したデータを有する。このように選別したデータセットを用いて第一の領域判別器301Bを学習することによって、車両屋根上のそれぞれのクラスに対して、忠実にそのクラスの特徴を忠実にとらえた部分に対してクラス領域をセグメンテーションした結果を出力する。
【0122】
他方、第二の領域判別器学習用データ642は、車両屋根上を写した画像の中から、正常な車両屋根上を写した画像に加えて、車両屋根上に汚れ、雨による濡れ、異物が載った状態の画像データも加えて学習する。この際のアノテーションでは、車両屋根上に汚れ、雨による濡れ、異物が載った状態の領域に対しても、それらの汚れ、ぬれ、異物を無視して、それらがなかった場合の領域のクラスとして教えるようなデータを作成する。
【0123】
また、正常な車両屋根上を写した画像に人為的なノイズを加えた画像データを加えてもよい。人為的なノイズとは、画像処理技術によって画像中に生成される、任意の形状、色、大きさをした絵を指す。具体的な例として、楕円、矩形の絵などが挙げられる。人為的なノイズを加えた画像のアノテーションでは、車両屋根上に汚れ、濡れ、異物の載った画像データと同様に、人為的なノイズを無視して、それらがなかった場合の領域クラスとして教えるようなデータを作成する。人為的なノイズは、車両屋根上の汚れ、濡れ、異物の代わりとなることができるため、車両屋根上に汚れ、濡れ、異物が載った画像データが入手困難であるときも、学習に必要な分のデータを確保することができる。
【0124】
このようなデータセットを用いて第二の領域判別器301Cを学習させることにより、第二の領域判別器301Cは、画像取得部301Aから屋根上に汚れ、ぬれ、異物のある画像が入力として与えられたときに、これらを無視して正常な車両屋根上と認識したような出力をする。
【0125】
上記のように、第一の領域判別器301Bは、屋根上に汚れ、ぬれ、異物に対してそれらを取り囲む領域とはことなるクラスの判別結果を出力し、第二の領域判別器301Cは屋根上の汚れ、ぬれ、異物を無視したクラス判別結果を出力する。その結果の差分が異常検出部301Dで出力されるため、同じ構造、違うウエイトのCNNを用いることにより異物を抽出することが可能となる。
【0126】
第一の領域判別器301Bと第二の領域判別器301Cを同一の畳み込みニューラルネットワーク構造のCNN構造640にすることで、構造の違いによる出力結果の違いには配慮することなく、学習させるデータによる出力の変化を把握しながら学習データを調整することで学習データの違いによる出力の違いを把握することができ、性能の良いCNNを作成させることができる。
【0127】
実施例3では、第一の領域判別器301Bと第二領域抽出処理器600の出力を位置合わせするためにパターンマッチングによる第二領域抽出器が必要であったが、実施例4では同一の入力画像が第一の領域判別器と第二の領域判別器に入力されるため、異常抽出部で差分が撮られる過程で、画像が単純にずれていることによる境界線ずれ部分のクラス違いが異物として誤認識されるようなことがないという効果がある。また、第二の実施例で必要であった第二領域抽出処理600を作成するための大量な人手によるアノテーション作業も必要なく、安価に作成することができる効果がある。これらの効果は、実施例1でも有効である。
【0128】
なお実施例4の第一の領域判別器301B、第二の領域判別器301Cに関して、これを簡便に述べるならば、第一の領域判別器301Bはあらかじめ、領域内の模様の違いに反応して境界内側にも異なる領域があると判定するような事前学習データで学習を行ったニューラルネットを用い、判定対象となる正常な判定対象物の画像による追加学習を行った領域判別器ということができる。
【0129】
また第二の領域判別器301Cは、あらかじめ、領域内の模様の違いにかかわらず境界内側を同じ領域と判定するような事前学習データで学習を行ったニューラルネットを用い、このニューラルネットに、判定対象となる正常な判定対象物の画像と人為的なノイズを加えた画像とその画像のノイズを無視したアノテーション画像を用いて追加学習を行った、ニューラルネットの構造が第一の領域判別器と全く同一である領域判別器ということができる。
【実施例0130】
本発明の実施例5として、第一の領域判別器301B及び第二の領域判別器301Cに異なる構造のCNNを用い、それぞれ異なる学習データで学習を行った判別器を用いることを特徴とする異物検出システム及び異物検出方法について図20を用いて説明する。
【0131】
第一の領域判別器301Bと第二の領域判別器301Cは、それぞれCNN構造1(630)、CNN構造2(635)を有する。また、第一の領域判別器301Bは重さデータ1(631)を、第二の領域判別器301Cは重さデータ2(633)を有する。重さデータ1(631)は第一の領域判別器用学習データ632を用いて学習した際の重さデータである。重さデータ2(633)は、第二の領域判別器用学習データ2(642)を用いて学習した際の重さデータである。
【0132】
この時、CNN構造1(630)とCNN構造2(635)は異なる層構成を持つ畳み込みニューラルネットワークであり、実施例1の第一の領域判別器、第二の領域判別器と同様の層構成となる。また、第二の領域判別器を学習する際には、正常な車両屋根上を写した画像に加えて、車両屋根上に汚れ、濡れ、異物が載った状態の画像、正常な車両屋根を写した画像に人為的なノイズを加えた画像が用いられる。これら画像は、第三の実施例における第二の領域判別器用学習データ2(642)と同様の画像である。
【0133】
第一の領域判別器301Bと第二の領域判別器301Cをそれぞれ違う畳み込みニューラルネットワーク構造にすること、異常・異物がある画像を用いてネットワークを学習することにより、層構成や学習用の画像データの自由度が上がった。そのため、実施例1、実施例4よりも、性能の良いCNNを作ることが可能となる。
【0134】
なお実施例5の第一の領域判別器301B、第二の領域判別器301Cに関して、これを簡便に述べるならば、第一の領域判別器301Bはあらかじめ、領域内の模様の違いに反応して境界内側にも異なる領域があると判定するような事前学習データで学習を行ったニューラルネットを用い、判定対象となる正常な判定対象物の画像による追加学習を行った領域判別器ということができる。
【0135】
また第二の領域判別器301Cは、あらかじめ、領域内の模様の違いにかかわらず境界内側を同じ領域と判定するような事前学習データで学習を行ったニューラルネットを用い、このニューラルネットに、判定対象となる正常な判定対象物の画像と人為的なノイズを加えた画像とその画像のノイズを無視したアノテーション画像を用いて追加学習を行った領域判別器ということができる。
【符号の説明】
【0136】
101:鉄道車両
200:カメラ制御部
201:撮影用カメラ
202:車体検知センサ
300:プロセッサ
301:画像処理部
302:画像記録部
303:表示制御部
304:表示装置(モニタ)
310:CPU
311:ROM
312:RAM
313:操作部
301A:画像取得部
301B:第一の領域判別器
301C:第二の領域判別器
301D:異常抽出部
301E:出力部
350A:入力層
350B:中間層
350C:出力層
510:車両屋根の領域
511:エアコンの室外機
513:510、511以外の領域
514:異物(木の枝)
516:異物(ドライバ)
517:異物(傘)
510A:第一の領域判別器301Bの認識した車両屋根の領域
511A:第一の領域判別器301Bの認識したエアコンの室外機の領域
513A:第一の領域判別器301Bの認識した510、511以外の領域
514A:第一の領域判別器301Bの認識した異物(木の枝)
516A:第一の領域判別器301Bの認識した異物(ドライバ)
517A:第一の領域判別器301Bの認識した異物(傘)
520:第一の領域判別器・第二の領域判別器の学習用データにおける車両屋根の領域
521:第一の領域判別器・第二の領域判別器の学習用データにおけるエアコンの室外機の領域
523:第一の領域判別器・第二の領域判別器の学習用データにおける520、521以外の領域
520A:第一の領域判別器・第二の領域判別器の学習用データにおける、領域分けをした際の車両屋根の領域
521A:第一の領域判別器・第二の領域判別器の学習用データにおける、領域分けをした際のエアコンの室外機
523A:第一の領域判別器・第二の領域判別器の学習用データにおける、領域分けをした際の520、521以外の領域
510B:第二の領域判別器の認識した車両屋根上の領域
511B:第二の領域判別器の認識したエアコンの室外機
513B:第二の領域判別器の認識した510、511以外の領域
510C:第二領域抽出処理が出力した車両屋根上の領域
511C:第二領域抽出処理が出力したエアコンの室外機の領域
513C:第二領域抽出処理が出力した510、511以外の領域
514D:異常抽出部の出力比較機能の出力した異物のある領域
514E:異常抽出部の誤認識領域フィルタ機能の2値化処理を行った際の異物のある領域
514F:異常抽出部の誤認識領域フィルタ機能の収縮処理を行った際の異物のある領域
514G:異常抽出部の誤認識領域フィルタ機能の膨張処理を行った際の異物のある領域
514H:異常抽出部の面積判別機能の出力した異物のある領域
514I:出力部による異物のある領域の色によるマーキング
515:出力部による異物のある領域の矩形によるマーキング
600:第二領域抽出処理器
610:位置合わせ機能の入力とテンプレート画像の類似度算出イメージを示す矩形
611:位置合わせ機能の領域データ抽出イメージを示す矩形
630:CNN構造
631:重さデータ1
632:第一の領域判別器用学習データ
633:重さデータ2
634:第二の領域判別器用学習データ
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14
図15
図16
図17
図18
図19
図20