(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】6846069
(24)【登録日】2021年3月3日
(45)【発行日】2021年3月24日
(54)【発明の名称】遠距離検出または軍事目的のために、イメージコンカチネーションを利用したCNN基盤のハードウェア最適化が可能な物体検出器を学習する方法及び学習装置、それを利用したテスト方法及びテスト装置{LEARNING METHOD AND LEARNING DEVICE FOR OBJECT DETECTOR WITH HARDWARE OPTIMIZATION BASED ON CNN FOR DETECTION AT DISTANCE OR MILITARY PURPOSE USING IMAGE CONCATENATION, AND TESTING METHOD AND TESTING DEVICE USING THE SAME}
(51)【国際特許分類】
G06T 7/00 20170101AFI20210315BHJP
G06N 3/08 20060101ALI20210315BHJP
【FI】
G06T7/00 350C
G06N3/08 140
【請求項の数】30
【全頁数】31
(21)【出願番号】特願2020-2303(P2020-2303)
(22)【出願日】2020年1月9日
(65)【公開番号】特開2020-119540(P2020-119540A)
(43)【公開日】2020年8月6日
【審査請求日】2020年1月10日
(31)【優先権主張番号】16/254279
(32)【優先日】2019年1月22日
(33)【優先権主張国】US
(73)【特許権者】
【識別番号】517038176
【氏名又は名称】株式会社ストラドビジョン
(74)【代理人】
【識別番号】110000039
【氏名又は名称】特許業務法人アイ・ピー・ウィン
(74)【復代理人】
【識別番号】100120628
【弁理士】
【氏名又は名称】岩田 慎一
(72)【発明者】
【氏名】金桂賢
(72)【発明者】
【氏名】金鎔重
(72)【発明者】
【氏名】金寅洙
(72)【発明者】
【氏名】金鶴京
(72)【発明者】
【氏名】南雲鉉
(72)【発明者】
【氏名】夫碩▲くん▼
(72)【発明者】
【氏名】成明哲
(72)【発明者】
【氏名】呂東勳
(72)【発明者】
【氏名】柳宇宙
(72)【発明者】
【氏名】張泰雄
(72)【発明者】
【氏名】鄭景中
(72)【発明者】
【氏名】諸泓模
(72)【発明者】
【氏名】趙浩辰
【審査官】
千葉 久博
(56)【参考文献】
【文献】
特開2018−147431(JP,A)
【文献】
特開2018−5506(JP,A)
【文献】
米国特許出願公開第2018/0165551(US,A1)
【文献】
藤原弘将,“ディープラーニングによる一般物体認識とそのビジネス応用”,画像ラボ,日本,日本工業出版株式会社,2019年 1月10日,第30巻, 第1号,p.57-67
【文献】
Mduduzi Manana, 外2名,"Preprocessed Faster RCNN for Vehicle Detection",2018 International Conference on Intelligent and Innovative Computing Applications (ICONIC),2018年12月 6日
【文献】
Chungkeun Lee, 外2名,"Comparison of faster R-CNN models for object detection",2016 16th International Conference on Control, Automation and Systems (ICCAS),2016年10月16日,p.107-110
(58)【調査した分野】(Int.Cl.,DB名)
G06T 7/00
G06N 3/08
(57)【特許請求の範囲】
【請求項1】
イメージコンカチネーション(Image concatenation)を利用した、CNN基盤物体検出器のパラメータを学習する方法において、
(a)少なくとも一つのトレーニングイメージが入力されると、学習装置が、(i)ターゲット領域予測ネットワークをもって、前記トレーニングイメージまたはこれに対応する一つ以上のリサイズ済みイメージにおいて一つ以上のターゲット物体が位置するものと予測される領域に対応する第1ターゲット領域ないし第nターゲット領域それぞれを予測させ、(ii)イメージ加工ネットワークをもって、前記トレーニングイメージまたはこれに対応するリサイズ済みイメージから、前記第1ターゲット領域ないし前記第nターゲット領域それぞれに対応する第1加工イメージないし第n加工イメージを取得させ、(iii)前記第1加工イメージないし前記第n加工イメージをコンカチネートした統合トレーニングイメージを出力させる段階;
(b)前記学習装置が、(i)一つ以上のコンボリューションレイヤをもって、一つ以上のコンボリューション演算を前記統合トレーニングイメージに適用することにより、少なくとも一つの統合特徴マップを出力させ、(ii)RPNをもって、前記統合特徴マップを利用して、前記第1加工イメージないし前記第n加工イメージそれぞれ内に位置する一つ以上の物体に対応する第1物体プロポーザルないし第n物体プロポーザルそれぞれを出力させ、(iii)プーリングレイヤをもって、前記統合特徴マップ上で、前記第1物体プロポーザルないし前記第n物体プロポーザルそれぞれに対応するそれぞれの領域に一つ以上のプーリング演算を適用して、少なくとも一つのプーリング済み統合特徴マップを出力させ、(iv)FCレイヤをもって、前記プーリング済み統合特徴マップに少なくとも一つのFC(fully connected)演算を適用して、前記物体に対応する第1物体検出情報ないし第n物体検出情報を出力させる段階;及び
(c)前記学習装置が、少なくとも一つのFCロスレイヤをもって、前記第1物体検出情報ないし前記第n物体検出情報とこれに対応する原本正解(Ground Truth)とを参照して、一つ以上の第1FCロスないし一つ以上の第nFCロスを取得させることにより、前記第1FCロスないし前記第nFCロスを利用したバックプロパゲーションを通じて、前記FCレイヤ及び前記コンボリューションレイヤのパラメータのうち少なくとも一部を調整させる段階;
を含むことを特徴とする方法。
【請求項2】
前記(b)段階以後、
前記学習装置が、少なくとも一つのRPNロスレイヤをもって、前記第1物体プロポーザルないし前記第n物体プロポーザルとこれに対応する原本正解とを参照して、一つ以上の第1RPNロスないし一つ以上の第nRPNロスを取得させることにより、前記第1RPNロスないし前記第nRPNロスを利用したバックプロパゲーションを通じて、前記RPNのパラメータのうち少なくとも一部を調整することを特徴とする請求項1に記載の方法。
【請求項3】
前記(a)段階で、
前記学習装置が、前記イメージ加工ネットワークをもって、第1加工イメージないし前記第n加工イメージの幅と高さのうち少なくとも一つを同一に調整した後、同一の大きさに調整された前記幅または前記高さ方向に前記第1調整済み加工イメージないし前記第n調整済み加工イメージをコンカチネート(concatenate)させることを特徴とする請求項1に記載の方法。
【請求項4】
前記学習装置が、前記イメージ加工ネットワークをもって、前記第1調整済み加工イメージないし前記第n調整済み加工イメージのうち、隣接するそれぞれの二つの調整済み加工イメージから構成されるそれぞれのペアの間にそれぞれ少なくとも一つのゼロパディング(zero padding)領域を追加させることを特徴とする請求項3に記載の方法。
【請求項5】
前記コンボリューションレイヤの多重コンボリューション演算によって前記統合トレーニングイメージが1/Sに縮小され、前記コンボリューションレイヤそれぞれのカーネルそれぞれの最大サイズをK×Kとする場合、前記ゼロパディング領域の幅が
【数1】
になるようにすることを特徴とする請求項4に記載の方法。
【請求項6】
前記(a)段階で、
前記学習装置は、前記ターゲット領域予測ネットワークをもって、前記トレーニングイメージまたはこれに対応するリサイズ済みイメージそれぞれに対するそれぞれのスケールヒストグラムを演算させ、前記スケールヒストグラムを参照することにより、前記ターゲット物体が位置するものと予測されるスケールプロポーザルに対応する前記第1ターゲット領域ないし前記第nターゲット領域を予測させることを特徴とする請求項1に記載の方法。
【請求項7】
前記(a)段階で、
前記学習装置は、前記イメージ加工ネットワークをもって、前記トレーニングイメージまたはこれに対応するリサイズ済みイメージ上で前記第1ターゲット領域ないし前記第nターゲット領域に対応する一つ以上の領域をクロップすることにより、前記第1加工イメージないし前記第n加工イメージを取得させるか、前記トレーニングイメージまたはこれに対応するリサイズ済みイメージ上で前記第1ターゲット領域ないし前記第nターゲット領域に対応する一つ以上の領域をクロップした後にリサイズすることにより、前記第1加工イメージないし前記第n加工イメージを取得させることを特徴とする請求項1に記載の方法。
【請求項8】
前記第1ターゲット領域ないし前記第nターゲット領域は、前記トレーニングイメージ内に位置する前記ターゲット物体のうち互いに異なる多数のターゲット物体に対応するか、前記トレーニングイメージ及びこれに対応するリサイズ済みイメージ内に位置する少なくとも一つの同一のターゲット物体に対応することを特徴とする請求項1に記載の方法。
【請求項9】
イメージコンカチネーションを利用したCNN基盤物体検出器をテストする方法において、
(a)学習装置が、(1)(i)ターゲット領域予測ネットワークをもって、少なくとも一つのトレーニングイメージまたはこれに対応する一つ以上のリサイズされた学習用イメージにおいて一つ以上の学習用ターゲット物体が位置するものと予測される領域に対応する第1学習用ターゲット領域ないし第n学習用ターゲット領域それぞれを予測させ、(ii)イメージ加工ネットワークをもって、前記トレーニングイメージまたはこれに対応するリサイズされた学習用イメージから前記第1学習用ターゲット領域ないし前記第n学習用ターゲット領域それぞれに対応する第1学習用加工イメージないし第n学習用加工イメージを取得させ、(iii)前記第1学習用加工イメージないし前記第n学習用加工イメージをコンカチネートした統合トレーニングイメージを出力させ、(2)(i)一つ以上のコンボリューションレイヤをもって、一つ以上のコンボリューション演算を前記統合トレーニングイメージに適用することにより、少なくとも一つの学習用統合特徴マップを出力させ、(ii)RPNをもって、前記学習用統合特徴マップを利用して、前記第1学習用加工イメージないし前記第n学習用加工イメージそれぞれ内に位置する一つ以上の学習用物体に対応する第1学習用物体プロポーザルないし第n学習用物体プロポーザルそれぞれを出力させ、(iii)プーリングレイヤをもって、前記学習用統合特徴マップ上で、前記第1学習用物体プロポーザルないし前記第n学習用物体プロポーザルそれぞれに対応するそれぞれの領域に一つ以上のプーリング演算を適用して、少なくとも一つの学習用プーリング済み統合特徴マップを出力させ、(iv)FCレイヤをもって、前記学習用プーリング済み統合特徴マップに少なくとも一つのFC(fully connected)演算を適用して、前記学習用物体に対応する第1学習用物体検出情報ないし第n学習用物体検出情報を出力させ、(3)少なくとも一つのFCロスレイヤをもって、前記第1学習用物体検出情報ないし前記第n学習用物体検出情報とこれに対応する原本正解(Ground Truth)とを参照して、一つ以上の第1FCロスないし一つ以上の第nFCロスを取得させることにより、前記第1FCロスないし前記第nFCロスを利用したバックプロパゲーションを通じて、前記FCレイヤ及び前記コンボリューションレイヤのパラメータのうち少なくとも一部を調整した状態で、テスト装置が、少なくとも一つのテストイメージが取得されると、(a−i)前記ターゲット領域予測ネットワークをもって、前記テストイメージまたはこれに対応する一つ以上のリサイズされたテスト用イメージで一つ以上のテスト用ターゲット物体が位置するものと予測される領域に対応する第1テスト用ターゲット領域ないし第nテスト用ターゲット領域それぞれを予測させ、(a−ii)前記イメージ加工ネットワークをもって、前記テストイメージまたはこれに対応するリサイズされたテスト用イメージから、前記第1テスト用ターゲット領域ないし前記第nテスト用ターゲット領域それぞれに対応する第1テスト用加工イメージないし第nテスト用加工イメージを取得させ、(a−iii)前記第1テスト用加工イメージないし前記第nテスト用加工イメージをコンカチネートした統合テストイメージを出力させる段階;及び
(b)前記テスト装置が、(i)前記コンボリューションレイヤをもって、前記コンボリューション演算を前記統合テストイメージに適用することにより、少なくとも一つのテスト用統合特徴マップを出力させ、(ii)前記RPNをもって、前記テスト用統合特徴マップを利用して、前記第1テスト用加工イメージないし前記第nテスト用加工イメージそれぞれ内に位置する一つ以上のテスト用物体に対応する第1テスト用物体プロポーザルないし第nテスト用物体プロポーザルそれぞれを出力させ、(iii)前記プーリングレイヤをもって、前記テスト用統合特徴マップ上で、前記第1テスト用物体プロポーザルないし前記第nテスト用物体プロポーザルそれぞれに対応するそれぞれの領域に前記プーリング演算を適用して、少なくとも一つのテスト用プーリング済み統合特徴マップを出力させ、(iv)前記FCレイヤをもって、前記テスト用プーリング済み統合特徴マップに前記FC演算を適用して、前記テスト用物体に対応する第1テスト用物体検出情報ないし第nテスト用物体検出情報を出力させる段階;
を含むことを特徴とする方法。
【請求項10】
前記(a)段階で、
前記テスト装置が、前記イメージ加工ネットワークをもって、前記第1テスト用加工イメージないし前記第nテスト用加工イメージの幅と高さのうち少なくとも一つを同一に調整した後、同一の大きさに調整された前記幅または前記高さ方向に前記第1テスト用調整済み加工イメージないし前記第nテスト用調整済み加工イメージをコンカチネートさせることを特徴とする請求項9に記載の方法。
【請求項11】
前記テスト装置が、前記イメージ加工ネットワークをもって、前記第1テスト用調整済み加工イメージないし前記第nテスト用調整済み加工イメージのうち、隣接するそれぞれの二つのテスト用調整済み加工イメージから構成されるそれぞれのペアの間にそれぞれ少なくとも一つのゼロパディング領域を追加させることを特徴とする請求項10に記載の方法。
【請求項12】
前記コンボリューションレイヤの多重コンボリューション演算によって前記統合テストイメージが1/Sに縮小され、前記コンボリューションレイヤそれぞれのカーネルそれぞれの最大サイズをK×Kとする場合、前記ゼロパディング領域の幅が
【数1】
になるようにすることを特徴とする請求項11に記載の方法。
【請求項13】
前記(a)段階で、
前記テスト装置は、前記ターゲット領域予測ネットワークをもって、前記テストイメージまたはこれに対応するリサイズされたテスト用イメージそれぞれに対するそれぞれのテスト用スケールヒストグラムを演算させ、前記テスト用スケールヒストグラムを参照することによって、前記テスト用ターゲット物体が位置するものと予測されるスケールプロポーザルに対応する前記第1テスト用ターゲット領域ないし前記第nテスト用ターゲット領域を予測させることを特徴とする請求項9に記載の方法。
【請求項14】
前記(a)段階 で、
前記テスト装置は、前記イメージ加工ネットワークをもって、前記テストイメージまたはこれに対応するリサイズされたテスト用イメージ上で前記第1テスト用ターゲット領域ないし前記第nテスト用ターゲット領域に対応する一つ以上の領域をクロップすることにより、前記第1テスト用加工イメージないし前記第nテスト用加工イメージを取得させるか、前記テストイメージまたはこれに対応するリサイズされたテスト用イメージ上で前記第1テスト用ターゲット領域ないし前記第nテスト用ターゲット領域に対応する一つ以上の領域をクロップした後にリサイズすることにより、前記第1テスト用加工イメージないし前記第nテスト用加工イメージを取得させることを特徴とする請求項9に記載の方法。
【請求項15】
前記第1テスト用ターゲット領域ないし前記第nテスト用ターゲット領域は、前記テストイメージ内に位置する前記テスト用ターゲット物体のうち互いに異なる多数のテスト用ターゲット物体に対応するか、又は前記テストイメージ及びこれに対応するリサイズされたテスト用イメージ内に位置する少なくとも一つの同一のテスト用ターゲット物体に対応することを特徴とする請求項9に記載の方法。
【請求項16】
イメージコンカチネーションを利用した、CNN基盤物体検出器のパラメータを学習するための学習装置において、
インストラクションを格納する少なくとも一つのメモリと、
(I)(i)ターゲット領域予測ネットワークをもって、少なくとも一つのトレーニングイメージまたはこれに対応する一つ以上のリサイズ済みイメージにおいて一つ以上のターゲット物体が位置するものと予測される領域に対応する第1ターゲット領域ないし第nターゲット領域それぞれを予測させ、(ii)イメージ加工ネットワークをもって、前記トレーニングイメージまたはこれに対応するリサイズ済みイメージから、前記第1ターゲット領域ないし前記第nターゲット領域それぞれに対応する第1加工イメージないし第n加工イメージを取得させ、(iii)前記第1加工イメージないし前記第n加工イメージをコンカチネートした統合トレーニングイメージを出力させるプロセス、(II)(i)一つ以上のコンボリューションレイヤをもって、一つ以上のコンボリューション演算を前記統合トレーニングイメージに適用することにより、少なくとも一つの統合特徴マップを出力させ、(ii)RPNをもって、前記統合特徴マップを利用して、前記第1加工イメージないし前記第n加工イメージそれぞれ内に位置する一つ以上の物体に対応する第1物体プロポーザルないし第n物体プロポーザルそれぞれを出力させ、(iii)プーリングレイヤをもって、前記統合特徴マップ上で、前記第1物体プロポーザルないし前記第n物体プロポーザルそれぞれに対応するそれぞれの領域に一つ以上のプーリング演算を適用して、少なくとも一つのプーリング済み統合特徴マップを出力させ、(iv)FCレイヤをもって、前記プーリング済み統合特徴マップに少なくとも一つのFC(fully connected)演算を適用して、前記物体に対応する第1物体検出情報ないし第n物体検出情報を出力させるプロセス、及び(III)少なくとも一つのFCロスレイヤをもって、前記第1物体検出情報ないし前記第n物体検出情報とこれに対応する原本正解(Ground Truth)とを参照して、一つ以上の第1FCロスないし一つ以上の第nFCロスを取得させることにより、前記第1FCロスないし前記第nFCロスを利用したバックプロパゲーションを通じて、前記FCレイヤ及び前記コンボリューションレイヤのパラメータのうち少なくとも一部を調整するプロセスを遂行するための前記各インストラクションを実行するように構成された少なくとも一つのプロセッサと、
を含むことを特徴とする学習装置。
【請求項17】
前記プロセッサは、
前記(II)プロセス以後、少なくとも一つのRPNロスレイヤをもって、前記第1物体プロポーザルないし前記第n物体プロポーザルとこれに対応する原本正解とを参照して、一つ以上の第1RPNロスないし一つ以上の第nRPNロスを取得させることにより、前記第1RPNロスないし前記第nRPNロスを利用したバックプロパゲーションを通じて、前記RPNのパラメータのうち少なくとも一部を調整することを特徴とする請求項16に記載の学習装置。
【請求項18】
前記プロセッサは、
前記(I)プロセスにおいて、前記イメージ加工ネットワークをもって、前記第1加工イメージないし前記第n加工イメージの幅と高さのうち少なくとも一つを同一に調整した後、同一の大きさに調整された前記幅または前記高さ方向に前記第1調整済み加工イメージないし前記第n調整済み加工イメージをコンカチネート(concatenate)させることを特徴とする請求項16に記載の学習装置。
【請求項19】
前記プロセッサは、前記イメージ加工ネットワークをもって、前記第1調整済み加工イメージないし前記第n調整済み加工イメージのうち、隣接するそれぞれの二つの調整済み加工イメージから構成されるそれぞれのペアの間にそれぞれ少なくとも一つのゼロパディング領域を追加させることを特徴とする請求項18に記載の学習装置。
【請求項20】
前記コンボリューションレイヤの多重コンボリューション演算によって前記統合トレーニングイメージが1/Sに縮小され、前記コンボリューションレイヤそれぞれのカーネルそれぞれの最大サイズをK×Kとする場合、前記ゼロパディング領域の幅が
【数1】
になるようにすることを特徴とする請求項19に記載の学習装置。
【請求項21】
前記プロセッサは、
前記(I)プロセスにおいて、前記ターゲット領域予測ネットワークをもって、前記トレーニングイメージまたはこれに対応するリサイズ済みイメージそれぞれに対するそれぞれのスケールヒストグラムを演算させ、前記スケールヒストグラムを参照することにより、前記ターゲット物体が位置するものと予測されるスケールプロポーザルに対応する前記第1ターゲット領域ないし前記第nターゲット領域を予測させることを特徴とする請求項16に記載の学習装置。
【請求項22】
前記プロセッサは、
前記(I)プロセスにおいて、前記イメージ加工ネットワークをもって、前記トレーニングイメージまたはこれに対応するリサイズ済みイメージ上で前記第1ターゲット領域ないし前記第nターゲット領域に対応する一つ以上の領域をクロップすることにより、前記第1加工イメージないし前記第n加工イメージを取得させるか、前記トレーニングイメージまたはこれに対応するリサイズ済みイメージ上で前記第1ターゲット領域ないし前記第nターゲット領域に対応する一つ以上の領域をクロップした後にリサイズすることにより、前記第1加工イメージないし前記第n加工イメージを取得させることを特徴とする請求項16に記載の学習装置。
【請求項23】
前記第1ターゲット領域ないし前記第nターゲット領域は、前記トレーニングイメージ内に位置する前記ターゲット物体のうち互いに異なる多数のターゲット物体に対応するか、前記トレーニングイメージ及びこれに対応するリサイズ済みイメージ内に位置する少なくとも一つの同一のターゲット物体に対応することを特徴とする請求項16に記載の学習装置。
【請求項24】
イメージコンカチネーションを利用した、CNN基盤物体検出器をテストするためのテスト装置において、
各インストラクションを格納する少なくとも一つのメモリと、
学習装置が、(1)(i)ターゲット領域予測ネットワークをもって、少なくとも一つのトレーニングイメージまたはこれに対応する一つ以上のリサイズされた学習用イメージにおいて一つ以上の学習用ターゲット物体が位置するものと予測される領域に対応する第1学習用ターゲット領域ないし第n学習用ターゲット領域それぞれを予測させ、(ii)イメージ加工ネットワークをもって、前記トレーニングイメージまたはこれに対応するリサイズされた学習用イメージから前記第1学習用ターゲット領域ないし前記第n学習用ターゲット領域それぞれに対応する第1学習用加工イメージないし第n学習用加工イメージを取得させ、(iii)前記第1学習用加工イメージないし前記第n学習用加工イメージをコンカチネートした統合トレーニングイメージを出力させ、(2)(i)一つ以上のコンボリューションレイヤをもって、一つ以上のコンボリューション演算を前記統合トレーニングイメージに適用することにより、少なくとも一つの学習用統合特徴マップを出力させ、(ii)RPNをもって、前記学習用統合特徴マップを利用して、前記第1学習用加工イメージないし前記第n学習用加工イメージそれぞれ内に位置する一つ以上の学習用物体に対応する第1学習用物体プロポーザルないし第n学習用物体プロポーザルそれぞれを出力させ、(iii)プーリングレイヤをもって、前記学習用統合特徴マップ上で、前記第1学習用物体プロポーザルないし前記第n学習用物体プロポーザルそれぞれに対応するそれぞれの領域に一つ以上のプーリング演算を適用して、少なくとも一つの学習用プーリング済み統合特徴マップを出力させ、(iv)FCレイヤをもって、前記学習用プーリング済み統合特徴マップに少なくとも一つのFC(fully connected)演算を適用して、前記学習用物体に対応する第1学習用物体検出情報ないし第n学習用物体検出情報を出力させ、(3)少なくとも一つのFCロスレイヤをもって、前記第1学習用物体検出情報ないし前記第n学習用物体検出情報とこれに対応する原本正解(Ground Truth)とを参照して、一つ以上の第1FCロスないし一つ以上の第nFCロスを取得させることにより、前記第1FCロスないし前記第nFCロスを利用したバックプロパゲーションを通じて、前記FCレイヤ及び前記コンボリューションレイヤのパラメータのうち少なくとも一部を調整した状態で、(I)(i)前記ターゲット領域予測ネットワークをもって、少なくとも一つのテストイメージまたはこれに対応する一つ以上のリサイズされたテスト用イメージで一つ以上のテスト用ターゲット物体が位置するものと予測される領域に対応する第1テスト用ターゲット領域ないし第nテスト用ターゲット領域それぞれを予測させ、(ii)前記イメージ加工ネットワークをもって、前記テストイメージまたはこれに対応するリサイズされたテスト用イメージから前記第1テスト用ターゲット領域ないし前記第nテスト用ターゲット領域それぞれに対応する第1テスト用加工イメージないし第nテスト用加工イメージを取得させ、(iii)前記第1テスト用加工イメージないし前記第nテスト用加工イメージをコンカチネートした統合テストイメージを出力させるプロセス、及び(II)(i)前記コンボリューションレイヤをもって、前記コンボリューション演算を前記統合テストイメージに適用することにより、少なくとも一つのテスト用統合特徴マップを出力させ、(ii)前記RPNをもって、前記テスト用統合特徴マップを利用して、前記第1テスト用加工イメージないし前記第nテスト用加工イメージそれぞれ内に位置する一つ以上のテスト用物体に対応する第1テスト用物体プロポーザルないし第nテスト用物体プロポーザルそれぞれを出力させ、(iii)前記プーリングレイヤをもって、前記テスト用統合特徴マップ上で、前記第1テスト用物体プロポーザルないし前記第nテスト用物体プロポーザルそれぞれに対応するそれぞれの領域に前記プーリング演算を適用して、少なくとも一つのテスト用プーリング済み統合特徴マップを出力させ、(iv)前記FCレイヤをもって、前記テスト用プーリング済み統合特徴マップに前記FC演算を適用して、前記テスト用物体に対応する第1テスト用物体検出情報ないし第nテスト用物体検出情報を出力させるプロセスを遂行するための前記各インストラクションを実行するように構成された少なくとも一つのプロセッサと、
を含むことを特徴とするテスト装置。
【請求項25】
前記プロセッサは、
前記(I)プロセスにおいて、前記イメージ加工ネットワークをもって、前記第1テスト用加工イメージないし前記第nテスト用加工イメージの幅と高さのうち少なくとも一つを同一に調整した後、同一の大きさに調整された前記幅または前記高さ方向に前記第1テスト用調整済み加工イメージないし前記第nテスト用調整済み加工イメージをコンカチネートさせることを特徴とする請求項24に記載のテスト装置。
【請求項26】
前記プロセッサは、前記イメージ加工ネットワークをもって、第1テスト用調整済み加工イメージないし前記第nテスト用調整済み加工イメージのうち、隣接するそれぞれの二つのテスト用調整済み加工イメージから構成されるそれぞれのペアの間にそれぞれ少なくとも一つのゼロパディング領域を追加させることを特徴とする請求項25に記載のテスト装置。
【請求項27】
前記コンボリューションレイヤの多重コンボリューション演算によって前記統合テストイメージが1/Sに縮小され、前記コンボリューションレイヤそれぞれのカーネルそれぞれの最大サイズをK×Kとする場合、前記ゼロパディング領域の幅が
【数1】
になるようにすることを特徴とする請求項26に記載のテスト装置。
【請求項28】
前記プロセッサは、
前記(I)プロセスにおいて、前記ターゲット領域予測ネットワークをもって、前記テストイメージまたはこれに対応するリサイズされたテスト用イメージそれぞれに対するそれぞれのテスト用スケールヒストグラムを演算させ、前記テスト用スケールヒストグラムを参照することによって、前記テスト用ターゲット物体が位置するものと予測されるスケールプロポーザルに対応する前記第1テスト用ターゲット領域ないし前記第nテスト用ターゲット領域を予測させることを特徴とする請求項24に記載のテスト装置。
【請求項29】
前記プロセッサは、
前記(I)プロセスにおいて、前記イメージ加工ネットワークをもって、前記テストイメージまたはこれに対応するリサイズされたテスト用イメージ上で前記第1テスト用ターゲット領域ないし前記第nテスト用ターゲット領域に対応する一つ以上の領域をクロップすることにより、前記第1テスト用加工イメージないし前記第nテスト用加工イメージを取得させるか、前記テストイメージまたはこれに対応するリサイズされたテスト用イメージ上で前記第1テスト用ターゲット領域ないし前記第nテスト用ターゲット領域に対応する一つ以上の領域をクロップした後にリサイズすることにより、前記第1テスト用加工イメージないし前記第nテスト用加工イメージを取得させることを特徴とする請求項24に記載のテスト装置。
【請求項30】
前記第1テスト用ターゲット領域ないし前記第nテスト用ターゲット領域は、前記テストイメージ内に位置する前記テスト用ターゲット物体のうち互いに異なる多数のテスト用ターゲット物体に対応するか、又は前記テストイメージ及びこれに対応するリサイズされたテスト用イメージ内に位置する少なくとも一つの同一のテスト用ターゲット物体に対応することを特徴とする請求項24に記載のテスト装置。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は遠距離検出又は軍事目的のために、イメージコンカチネーション(Image concatenation)を利用したCNN基盤のハードウェア最適化が可能な物体検出器のパラメータを学習する方法に関し;より詳細には、(a)少なくとも一つのトレーニングイメージが入力されると、(i)ターゲット領域予測ネットワークをもって、前記トレーニングイメージまたはこれに対応する一つ以上のリサイズ済みイメージにおいて一つ以上のターゲット物体が位置するものと予測される領域に対応する第1ターゲット領域ないし第nターゲット領域それぞれを予測させ、(ii)イメージ加工ネットワークをもって、前記トレーニングイメージまたはこれに対応するリサイズ済みイメージから、前記第1ターゲット領域ないし前記第nターゲット領域それぞれに対応する第1加工イメージないし第n加工イメージを取得させ、(iii)前記第1加工イメージないし前記第n加工イメージをコンカチネートした統合トレーニングイメージを出力させる段階;(b)(i)一つ以上のコンボリューションレイヤをもって、一つ以上のコンボリューション演算を前記統合トレーニングイメージに適用することにより、少なくとも一つの統合特徴マップを出力させ、(ii)RPNをもって、前記統合特徴マップを利用して、前記第1加工イメージないし前記第n加工イメージそれぞれ内に位置する一つ以上の物体に対応する第1物体プロポーザルないし第n物体プロポーザルそれぞれを出力させ、(iii)プーリングレイヤをもって、前記統合特徴マップ上で、前記第1物体プロポーザルないし前記第n物体プロポーザルそれぞれに対応するそれぞれの領域に一つ以上のプーリング演算を適用して、少なくとも一つのプーリング済み統合特徴マップを出力させ、(iv)FCレイヤをもって、前記プーリング済み統合特徴マップに少なくとも一つのFC(fully connected)演算を適用して、前記物体に対応する第1物体検出情報ないし第n物体検出情報を出力させる段階;及び(c)少なくとも一つのFCロスレイヤをもって、前記第1物体検出情報ないし前記第n物体検出情報とこれに対応する原本正解(Ground Truth)とを参照して、一つ以上の第1FCロスないし一つ以上の第nFCロスを取得させることにより、前記第1FCロスないし前記第nFCロスを利用したバックプロパゲーションを通じて、前記FCレイヤ及び前記コンボリューションレイヤのパラメータのうち少なくとも一部を調整させる段階;を含むことを特徴とする方法及び学習装置、並びにこれを利用したテスト方法及びテスト装置に関する。
【背景技術】
【0002】
機械学習(machine learning)において、コンボリューションニューラルネットワーク(CNNまたはConvNet)は、視覚的イメージ分析に成功裏に適用された深層フィードフォワード人工ニューラルネットワーク(Deep feedforward artificial neural network)である。
【0003】
CNN基盤物体検出器は、(i)一つ以上のコンボリューションレイヤをもって、入力イメージにコンボリューション演算を適用することにより、前記入力イメージに対応する特徴マップを出力し、(ii)RPN(Region Proposal Network)をもって、前記特徴マップを利用して、前記入力イメージ内の物体に対応するプロポーザルを確認し、(iii)プーリングレイヤをもって、前記確認されたプロポーザルに対応する前記特徴マップ上の領域に少なくとも一つ以上のプーリング演算を適用してプーリング済み特徴マップを取得し、(iv)FC(Fully Connected)レイヤをもって、少なくとも一つのFC演算を前記取得されたプーリング済み特徴マップないし前記物体に関する出力クラス情報とリグレッション情報とに適用することにより、前記入力イメージ上の前記物体を検出する。
【0004】
しかしながら、前記CNN基盤物体検出器は、前記コンボリューションレイヤによって前記入力イメージのサイズを縮小したサイズの前記特徴マップを利用するようになるので、前記入力イメージに位置するサイズが大きい物体は容易に検出されるものの、前記入力イメージに位置するサイズが小さい物体を検出することは難しい。
【0005】
すなわち、前記入力イメージ上で検出される対象としての一つ以上の物体に対応する多数のターゲット領域がある場合、一部ターゲット領域からはサイズのために所望の特徴が正確に抽出され得なくなり、それに伴って特定の物体は検出することができなくなる。
【0006】
これらの問題を解決するために、前記入力イメージから得たイメージピラミッドのうちそれぞれのイメージ内に前記ターゲット領域それぞれをクロップして物体検出を遂行することができるものの、この場合には前記ターゲット領域に対応してクロップしたそれぞれのイメージに対して前記物体検出を遂行しなければならないため、演算量が増加し得る。
【0007】
また、CNN演算は、迅速な演算のために一定の単位、一例として、32、64、128などの倍数でブロック演算を行うのにおいて、前記単位の倍数にならない幅や高さを有する入力のイメージが取得されると、前記単位の倍数にするために一つ以上のパディング領域を追加しなければならないが、これは前記CNN演算に負担となる。したがって、前記単位の倍数ではない幅や高さを有するクロップしたイメージが多くなると、前記CNN演算にさらに大きな負担として作用して前記CNNの演算速度は減少するようになる。
【0008】
したがって、本発明の発明者は、前記入力イメージ上に位置する様々なサイズの物体に対応する前記ターゲット領域を利用して、前記CNNの演算時間を減らし、効果的に物体を検出することができる学習方法、学習装置及びそれを利用したテスト方法とテスト装置を提案することにする。
【発明の概要】
【発明が解決しようとする課題】
【0009】
本発明は、上述した問題点を全て解決することをその目的とする。
【0010】
本発明は、イメージ上に位置する物体をサイズに関係なしに効果的に検出することができるようにするCNN基盤の物体検出器を提供することを他の目的とする。
本発明は、演算量を増加させずに前記イメージ上の前記物体を検出することができるようにする、前記CNN基盤の前記物体検出器を提供することをまた他の目的とする。
【0011】
本発明は、前記入力イメージ上の様々なサイズの前記物体に対応するターゲット領域を利用して、前記CNNの演算時間を減らし、効果的に前記物体を検出することができるようにする前記CNN基盤の前記物体検出器を提供することを他の目的とする。
【課題を解決するための手段】
【0012】
前記のような本発明の目的を達成し、後述する本発明の特徴的な効果を実現するための本発明の特徴的な構成は以下の通りである。
【0013】
本発明の一態様によると、イメージコンカチネーション(Image concatenation)を利用した、CNN基盤物体検出器のパラメータを学習する方法において、(a)少なくとも一つのトレーニングイメージが入力されると、学習装置が、(i)ターゲット領域予測ネットワークをもって、前記トレーニングイメージまたはこれに対応する一つ以上のリサイズ済みイメージにおいて一つ以上のターゲット物体が位置するものと予測される領域に対応する第1ターゲット領域ないし第nターゲット領域それぞれを予測させ、(ii)イメージ加工ネットワークをもって、前記トレーニングイメージまたはこれに対応するリサイズ済みイメージから、前記第1ターゲット領域ないし前記第nターゲット領域それぞれに対応する第1加工イメージないし第n加工イメージを取得させ、(iii)前記第1加工イメージないし前記第n加工イメージをコンカチネートした統合トレーニングイメージを出力させる段階;(b)前記学習装置が、(i)一つ以上のコンボリューションレイヤをもって、一つ以上のコンボリューション演算を前記統合トレーニングイメージに適用することにより、少なくとも一つの統合特徴マップを出力させ、(ii)RPNをもって、前記統合特徴マップを利用して、前記第1加工イメージないし前記第n加工イメージそれぞれ内に位置する一つ以上の物体に対応する第1物体プロポーザルないし第n物体プロポーザルそれぞれを出力させ、(iii)プーリングレイヤをもって、前記統合特徴マップ上で、前記第1物体プロポーザルないし前記第n物体プロポーザルそれぞれに対応するそれぞれの領域に一つ以上のプーリング演算を適用して、少なくとも一つのプーリング済み統合特徴マップを出力させ、(iv)FCレイヤをもって、前記プーリング済み統合特徴マップに少なくとも一つのFC(fully connected)演算を適用して、前記物体に対応する第1物体検出情報ないし第n物体検出情報を出力させる段階;及び(c)前記学習装置が、少なくとも一つのFCロスレイヤをもって、前記第1物体検出情報ないし前記第n物体検出情報とこれに対応する原本正解(Ground Truth)とを参照して、一つ以上の第1FCロスないし一つ以上の第nFCロスを取得させることにより、前記第1FCロスないし前記第nFCロスを利用したバックプロパゲーションを通じて、前記FCレイヤ及び前記コンボリューションレイヤのパラメータのうち少なくとも一部を調整させる段階;を含むことを特徴とする方法が開示される。
【0014】
一実施例において、前記(b)段階以後、前記学習装置が少なくとも一つのRPNロスレイヤをもって、前記第1物体プロポーザルないし前記第n物体プロポーザルとこれに対応する原本正解とを参照して、一つ以上の第1RPNロスないし一つ以上の第nRPNロスを取得させることにより、前記第1RPNロスないし前記第nRPNロスを利用したバックプロパゲーションを通じて、前記RPNのパラメータのうち少なくとも一部を調整することを特徴とする。
【0015】
一実施例において、前記(a)段階で、前記学習装置が前記イメージ加工ネットワークをもって、第1加工イメージないし前記第n加工イメージの幅と高さのうち少なくとも一つを同一に調整した後、同一の大きさに調整された前記幅または前記高さ方向に前記第1調整済み加工イメージないし前記第n調整済み加工イメージをコンカチネート(concatenate)させることを特徴とする。
【0016】
一実施例において、前記学習装置が、前記イメージ加工ネットワークをもって、前記第1調整済み加工イメージないし前記第n調整済み加工イメージのうち、隣接するそれぞれの二つの調整済み加工イメージから構成されるそれぞれのペアの間にそれぞれ少なくとも一つのゼロパディング領域を追加させることを特徴とする。
【0017】
一実施例において、前記コンボリューションレイヤの多重コンボリューション演算によって前記統合トレーニングイメージが1/Sに縮小され、前記コンボリューションレイヤそれぞれのカーネルそれぞれの最大サイズをK×Kとする場合、前記ゼロパディング領域の幅が
【数1】
になるようにすることを特徴とする。
【0018】
一実施例において、 前記(a)段階で、前記学習装置は前記ターゲット領域予測ネットワークをもって、前記トレーニングイメージまたはこれに対応するリサイズ済みイメージそれぞれに対するそれぞれのスケールヒストグラムを演算させ、前記スケールヒストグラムを参照することにより、前記ターゲット物体が位置するものと予測されるスケールプロポーザルに対応する前記第1ターゲット領域ないし前記第nターゲット領域を予測させることを特徴とする。
【0019】
一実施例において、前記(a)段階で、前記学習装置は、前記イメージ加工ネットワークをもって、前記トレーニングイメージまたはこれに対応するリサイズ済みイメージ上で前記第1ターゲット領域ないし前記第nターゲット領域に対応する一つ以上の領域をクロップすることにより、前記第1加工イメージないし前記第n加工イメージを取得させるか、前記トレーニングイメージまたはこれに対応するリサイズ済みイメージ上で前記第1ターゲット領域ないし前記第nターゲット領域に対応する一つ以上の領域をクロップした後にリサイズすることにより、前記第1加工イメージないし前記第n加工イメージを取得させることを特徴とする。
【0020】
一実施例において、前記第1ターゲット領域ないし前記第nターゲット領域は、前記トレーニングイメージ内に位置する前記ターゲット物体のうち互いに異なる多数のターゲット物体に対応するか、前記トレーニングイメージ及びこれに対応するリサイズ済みイメージ内に位置する少なくとも一つの同一のターゲット物体に対応することを特徴とする。
【0021】
本発明の他の態様によると、イメージコンカチネーションを利用したCNN基盤物体検出器をテストする方法において、(a)学習装置が、(1)(i)ターゲット領域予測ネットワークをもって、少なくとも一つのトレーニングイメージまたはこれに対応する一つ以上のリサイズされた学習用イメージにおいて一つ以上の学習用ターゲット物体が位置するものと予測される領域に対応する第1学習用ターゲット領域ないし第n学習用ターゲット領域それぞれを予測させ、(ii)イメージ加工ネットワークをもって、前記トレーニングイメージまたはこれに対応するリサイズされた学習用イメージから前記第1学習用ターゲット領域ないし前記第n学習用ターゲット領域それぞれに対応する第1学習用加工イメージないし第n学習用加工イメージを取得させ、(iii)前記第1学習用加工イメージないし前記第n学習用加工イメージをコンカチネートした統合トレーニングイメージを出力させ、(2)(i)一つ以上のコンボリューションレイヤをもって、一つ以上のコンボリューション演算を前記統合トレーニングイメージに適用することにより、少なくとも一つの学習用統合特徴マップを出力させ、(ii)RPNをもって、前記学習用統合特徴マップを利用して、前記第1学習用加工イメージないし前記第n学習用加工イメージそれぞれ内に位置する一つ以上の学習用物体に対応する第1学習用物体プロポーザルないし第n学習用物体プロポーザルそれぞれを出力させ、(iii)プーリングレイヤをもって、前記学習用統合特徴マップ上で、前記第1学習用物体プロポーザルないし前記第n学習用物体プロポーザルそれぞれに対応するそれぞれの領域に一つ以上のプーリング演算を適用して、少なくとも一つの学習用プーリング済み統合特徴マップを出力させ、(iv)FCレイヤをもって、前記学習用プーリング済み統合特徴マップに少なくとも一つのFC(fully connected)演算を適用して、前記学習用物体に対応する第1学習用物体検出情報ないし第n学習用物体検出情報を出力させ、(3)少なくとも一つのFCロスレイヤをもって、前記第1学習用物体検出情報ないし前記第n学習用物体検出情報とこれに対応する原本正解(Ground Truth)とを参照して、一つ以上の第1FCロスないし一つ以上の第nFCロスを取得させることにより、前記第1FCロスないし前記第nFCロスを利用したバックプロパゲーションを通じて、前記FCレイヤ及び前記コンボリューションレイヤのパラメータのうち少なくとも一部を調整した状態で、テスト装置が、少なくとも一つのテストイメージが取得されると、(i)前記ターゲット領域予測ネットワークをもって、前記テストイメージまたはこれに対応する一つ以上のリサイズされたテスト用イメージで一つ以上のテスト用ターゲット物体が位置するものと予測される領域に対応する第1テスト用ターゲット領域ないし第nテスト用ターゲット領域それぞれを予測させ、(ii)前記イメージ加工ネットワークをもって、前記テストイメージまたはこれに対応するリサイズされたテスト用イメージから、前記第1テスト用ターゲット領域ないし前記第nテスト用ターゲット領域それぞれに対応する第1テスト用加工イメージないし第nテスト用加工イメージを取得させ、(iii)前記第1テスト用加工イメージないし前記第nテスト用加工イメージをコンカチネートした統合テストイメージを出力させる段階;及び(b)前記テスト装置が、(i)前記コンボリューションレイヤをもって、前記コンボリューション演算を前記統合テストイメージに適用することにより、少なくとも一つのテスト用統合特徴マップを出力させ、(ii)前記RPNをもって、前記テスト用統合特徴マップを利用して、前記第1テスト用加工イメージないし前記第nテスト用加工イメージそれぞれ内に位置する一つ以上のテスト用物体に対応する第1テスト用物体プロポーザルないし第nテスト用物体プロポーザルそれぞれを出力させ、(iii)前記プーリングレイヤをもって、前記テスト用統合特徴マップ上で、前記第1テスト用物体プロポーザルないし前記第nテスト用物体プロポーザルそれぞれに対応するそれぞれの領域に前記プーリング演算を適用して、少なくとも一つのテスト用プーリング済み統合特徴マップを出力させ、(iv)前記FCレイヤをもって、前記テスト用プーリング済み統合特徴マップに前記FC演算を適用して、前記テスト用物体に対応する第1テスト用物体検出情報ないし第nテスト用物体検出情報を出力させる段階;を含むことを特徴とする方法が開示される。
【0022】
一実施例において、前記(a)段階で、前記テスト装置が、前記イメージ加工ネットワークをもって、前記第1テスト用加工イメージないし前記第nテスト用加工イメージの幅と高さのうち少なくとも一つを同一に調整した後、同一の大きさに調整された前記幅または前記高さ方向に前記第1テスト用調整済み加工イメージないし前記第nテスト用調整済み加工イメージをコンカチネートさせることを特徴とする。
【0023】
一実施例において、前記テスト装置が、前記イメージ加工ネットワークをもって、前記第1テスト用調整済み加工イメージないし前記第nテスト用調整済み加工イメージのうち、隣接するそれぞれの二つのテスト用調整済み加工イメージから構成されるそれぞれのペアの間にそれぞれ少なくとも一つのゼロパディング領域を追加させることを特徴とする。
【0024】
一実施例において、前記コンボリューションレイヤの多重コンボリューション演算によって前記統合テストイメージが1/Sに縮小され、前記コンボリューションレイヤそれぞれのカーネルそれぞれの最大サイズをK×Kとする場合、前記ゼロパディング領域の幅が
【数1】
になるようにすることを特徴とする。
【0025】
一実施例において、前記(a)段階で、前記テスト装置は、前記ターゲット領域予測ネットワークをもって、前記テストイメージまたはこれに対応するリサイズされたテスト用イメージそれぞれに対するそれぞれのテスト用スケールヒストグラムを演算させ、前記テスト用スケールヒストグラムを参照することによって、前記テスト用ターゲット物体が位置するものと予測されるスケールプロポーザルに対応する前記第1テスト用ターゲット領域ないし前記第nテスト用ターゲット領域を予測させることを特徴とする。
【0026】
一実施例において、前記(a)段階で、 前記テスト装置は、前記イメージ加工ネットワークをもって、前記テストイメージまたはこれに対応するリサイズされたテスト用イメージ上で前記第1テスト用ターゲット領域ないし前記第nテスト用ターゲット領域に対応する一つ以上の領域をクロップすることにより、前記第1テスト用加工イメージないし前記第nテスト用加工イメージを取得させるか、前記テストイメージまたはこれに対応するリサイズされたテスト用イメージ上で前記第1テスト用ターゲット領域ないし前記第nテスト用ターゲット領域に対応する一つ以上の領域をクロップした後にリサイズすることにより、前記第1テスト用加工イメージないし前記第nテスト用加工イメージを取得させることを特徴とする。
【0027】
一実施例において、前記第1テスト用ターゲット領域ないし前記第nテスト用ターゲット領域は、前記テストイメージ内に位置する前記テスト用ターゲット物体のうち互いに異なる多数のテスト用ターゲット物体に対応するか、又は前記テストイメージ及びこれに対応するリサイズされたテスト用イメージ内に位置する少なくとも一つの同一のテスト用ターゲット物体に対応することを特徴とする
【0028】
本発明のまた他の態様によると、イメージコンカチネーションを利用した、CNN基盤物体検出器のパラメータを学習するための学習装置において、インストラクションを格納する少なくとも一つのメモリと、(I)(i)ターゲット領域予測ネットワークをもって、少なくとも一つのトレーニングイメージまたはこれに対応する一つ以上のリサイズ済みイメージにおいて一つ以上のターゲット物体が位置するものと予測される領域に対応する第1ターゲット領域ないし第nターゲット領域それぞれを予測させ、(ii)イメージ加工ネットワークをもって、前記トレーニングイメージまたはこれに対応するリサイズ済みイメージから、前記第1ターゲット領域ないし前記第nターゲット領域それぞれに対応する第1加工イメージないし第n加工イメージを取得させ、(iii)前記第1加工イメージないし前記第n加工イメージをコンカチネートした統合トレーニングイメージを出力させるプロセス、(II)(i)一つ以上のコンボリューションレイヤをもって、一つ以上のコンボリューション演算を前記統合トレーニングイメージに適用することにより、少なくとも一つの統合特徴マップを出力させ、(ii)RPNをもって、前記統合特徴マップを利用して、前記第1加工イメージないし前記第n加工イメージそれぞれ内に位置する一つ以上の物体に対応する第1物体プロポーザルないし第n物体プロポーザルそれぞれを出力させ、(iii)プーリングレイヤをもって、前記統合特徴マップ上で、前記第1物体プロポーザルないし前記第n物体プロポーザルそれぞれに対応するそれぞれの領域に一つ以上のプーリング演算を適用して、少なくとも一つのプーリング済み統合特徴マップを出力させ、(iv)FCレイヤをもって、前記プーリング済み統合特徴マップに少なくとも一つのFC(fully connected)演算を適用して、前記物体に対応する第1物体検出情報ないし第n物体検出情報を出力させるプロセス、及び(III)少なくとも一つのFCロスレイヤをもって、前記第1物体検出情報ないし前記第n物体検出情報とこれに対応する原本正解(Ground Truth)とを参照して、一つ以上の第1FCロスないし一つ以上の第nFCロスを取得させることにより、前記第1FCロスないし前記第nFCロスを利用したバックプロパゲーションを通じて、前記FCレイヤ及び前記コンボリューションレイヤのパラメータのうち少なくとも一部を調整するプロセスを遂行するための前記各インストラクションを実行するように構成された少なくとも一つのプロセッサと、を含むことを特徴とする学習装置が開示される。
【0029】
一実施例において、前記プロセッサは、前記(II)プロセス以後、少なくとも一つのRPNロスレイヤをもって、前記第1物体プロポーザルないし前記第n物体プロポーザルとこれに対応する原本正解とを参照して、一つ以上の第1RPNロスないし一つ以上の第nRPNロスを取得させることにより、前記第1RPNロスないし前記第nRPNロスを利用したバックプロパゲーションを通じて、前記RPNのパラメータのうち少なくとも一部を調整することを特徴とする。
【0030】
一実施例において、前記プロセッサは、前記(I)プロセスにおいて、前記イメージ加工ネットワークをもって、前記第1加工イメージないし前記第n加工イメージの幅と高さのうち少なくとも一つを同一に調整した後、同一の大きさに調整された前記幅または前記高さ方向に前記第1調整済み加工イメージないし前記第n調整済み加工イメージをコンカチネート(concatenate)させることを特徴とする。
【0031】
一実施例において、前記プロセッサは、前記イメージ加工ネットワークをもって、前記第1調整済み加工イメージないし前記第n調整済み加工イメージのうち、隣接するそれぞれの二つの調整済み加工イメージから構成されるそれぞれのペアの間にそれぞれ少なくとも一つのゼロパディング領域を追加させることを特徴とする。
【0032】
一実施例において、前記コンボリューションレイヤの多重コンボリューション演算によって前記統合トレーニングイメージが1/Sに縮小され、前記コンボリューションレイヤそれぞれのカーネルそれぞれの最大サイズをK×Kとする場合、前記ゼロパディング領域の幅が
【数1】
になるようにすることを特徴とする。
【0033】
一実施例において、前記プロセッサは、前記(I)プロセスにおいて、前記ターゲット領域予測ネットワークをもって、前記トレーニングイメージまたはこれに対応するリサイズ済みイメージそれぞれに対するそれぞれのスケールヒストグラムを演算させ、前記スケールヒストグラムを参照することにより、前記ターゲット物体が位置するものと予測されるスケールプロポーザルに対応する前記第1ターゲット領域ないし前記第nターゲット領域を予測させることを特徴とする。
【0034】
一実施例において、前記プロセッサは、前記(I)プロセスにおいて、前記イメージ加工ネットワークをもって、前記トレーニングイメージまたはこれに対応するリサイズ済みイメージ上で前記第1ターゲット領域ないし前記第nターゲット領域に対応する一つ以上の領域をクロップすることにより、前記第1加工イメージないし前記第n加工イメージを取得させるか、前記トレーニングイメージまたはこれに対応するリサイズ済みイメージ上で前記第1ターゲット領域ないし前記第nターゲット領域に対応する一つ以上の領域をクロップした後にリサイズすることにより、前記第1加工イメージないし前記第n加工イメージを取得させることを特徴とする。
【0035】
一実施例において、前記第1ターゲット領域ないし前記第nターゲット領域は、前記トレーニングイメージ内に位置する前記ターゲット物体のうち互いに異なる多数のターゲット物体に対応するか、前記トレーニングイメージ及びこれに対応するリサイズ済みイメージ内に位置する少なくとも一つの同一のターゲット物体に対応することを特徴とする。
【0036】
本発明のまた他の態様によると、イメージコンカチネーションを利用した、CNN基盤物体検出器をテストするためのテスト装置において、各インストラクションを格納する少なくとも一つのメモリと、学習装置が、(1)(i)ターゲット領域予測ネットワークをもって、少なくとも一つのトレーニングイメージまたはこれに対応する一つ以上のリサイズされた学習用イメージにおいて一つ以上の学習用ターゲット物体が位置するものと予測される領域に対応する第1学習用ターゲット領域ないし第n学習用ターゲット領域それぞれを予測させ、(ii)イメージ加工ネットワークをもって、前記トレーニングイメージまたはこれに対応するリサイズされた学習用イメージから前記第1学習用ターゲット領域ないし前記第n学習用ターゲット領域それぞれに対応する第1学習用加工イメージないし第n学習用加工イメージを取得させ、(iii)前記第1学習用加工イメージないし前記第n学習用加工イメージをコンカチネートした統合トレーニングイメージを出力させ、(2)(i)一つ以上のコンボリューションレイヤをもって、一つ以上のコンボリューション演算を前記統合トレーニングイメージに適用することにより、少なくとも一つの学習用統合特徴マップを出力させ、(ii)RPNをもって、前記学習用統合特徴マップを利用して、前記第1学習用加工イメージないし前記第n学習用加工イメージそれぞれ内に位置する一つ以上の学習用物体に対応する第1学習用物体プロポーザルないし第n学習用物体プロポーザルそれぞれを出力させ、(iii)プーリングレイヤをもって、前記学習用統合特徴マップ上で、前記第1学習用物体プロポーザルないし前記第n学習用物体プロポーザルそれぞれに対応するそれぞれの領域に一つ以上のプーリング演算を適用して、少なくとも一つの学習用プーリング済み統合特徴マップを出力させ、(iv)FCレイヤをもって、前記学習用プーリング済み統合特徴マップに少なくとも一つのFC(fully connected)演算を適用して、前記学習用物体に対応する第1学習用物体検出情報ないし第n学習用物体検出情報を出力させ、(3)少なくとも一つのFCロスレイヤをもって、前記第1学習用物体検出情報ないし前記第n学習用物体検出情報とこれに対応する原本正解(Ground Truth)とを参照して、一つ以上の第1FCロスないし一つ以上の第nFCロスを取得させることにより、前記第1FCロスないし前記第nFCロスを利用したバックプロパゲーションを通じて、前記FCレイヤ及び前記コンボリューションレイヤのパラメータのうち少なくとも一部を調整した状態で、(I)(i)前記ターゲット領域予測ネットワークをもって、少なくとも一つのテストイメージまたはこれに対応する一つ以上のリサイズされたテスト用イメージで一つ以上のテスト用ターゲット物体が位置するものと予測される領域に対応する第1テスト用ターゲット領域ないし第nテスト用ターゲット領域それぞれを予測させ、(ii)前記イメージ加工ネットワークをもって、前記テストイメージまたはこれに対応するリサイズされたテスト用イメージから前記第1テスト用ターゲット領域ないし前記第nテスト用ターゲット領域それぞれに対応する第1テスト用加工イメージないし第nテスト用加工イメージを取得させ、(iii)前記第1テスト用加工イメージないし前記第nテスト用加工イメージをコンカチネートした統合テストイメージを出力させるプロセス、及び(II)(i)前記コンボリューションレイヤをもって、前記コンボリューション演算を前記統合テストイメージに適用することにより、少なくとも一つのテスト用統合特徴マップを出力させ、(ii)前記RPNをもって、前記テスト用統合特徴マップを利用して、前記第1テスト用加工イメージないし前記第nテスト用加工イメージそれぞれ内に位置する一つ以上のテスト用物体に対応する第1テスト用物体プロポーザルないし第nテスト用物体プロポーザルそれぞれを出力させ、(iii)前記プーリングレイヤをもって、前記テスト用統合特徴マップ上で、前記第1テスト用物体プロポーザルないし前記第nテスト用物体プロポーザルそれぞれに対応するそれぞれの領域に前記プーリング演算を適用して、少なくとも一つのテスト用プーリング済み統合特徴マップを出力させ、(iv)前記FCレイヤをもって、前記テスト用プーリング済み統合特徴マップに前記FC演算を適用して、前記テスト用物体に対応する第1テスト用物体検出情報ないし第nテスト用物体検出情報を出力させるプロセスを遂行するための前記各インストラクションを実行するように構成された少なくとも一つのプロセッサと、を含むことを特徴とするテスト装置が開示される。
【0037】
一実施例において、前記プロセッサは、前記(I)プロセスにおいて、前記イメージ加工ネットワークをもって、前記第1テスト用加工イメージないし前記第nテスト用加工イメージの幅と高さのうち少なくとも一つを同一に調整した後、同一の大きさに調整された前記幅または前記高さ方向に前記第1テスト用調整済み加工イメージないし前記第nテスト用調整済み加工イメージをコンカチネートさせることを特徴とする。
【0038】
一実施例において、前記プロセッサは、前記イメージ加工ネットワークをもって、第1テスト用調整済み加工イメージないし前記第nテスト用調整済み加工イメージのうち、隣接するそれぞれの二つのテスト用調整済み加工イメージから構成されるそれぞれのペアの間にそれぞれ少なくとも一つのゼロパディング領域を追加させることを特徴とする。
【0039】
一実施例において、前記コンボリューションレイヤの多重コンボリューション演算によって前記統合テストイメージが1/Sに縮小され、前記コンボリューションレイヤそれぞれのカーネルそれぞれの最大サイズをK×Kとする場合、前記ゼロパディング領域の幅が
【数1】
になるようにすることを特徴とする。
【0040】
一実施例において、前記プロセッサは、前記(I)プロセスにおいて、前記ターゲット領域予測ネットワークをもって、前記テストイメージまたはこれに対応するリサイズされたテスト用イメージそれぞれに対するそれぞれのテスト用スケールヒストグラムを演算させ、前記テスト用スケールヒストグラムを参照することによって、前記テスト用ターゲット物体が位置するものと予測されるスケールプロポーザルに対応する前記第1テスト用ターゲット領域ないし前記第nテスト用ターゲット領域を予測させることを特徴とする。
【0041】
一実施例において、前記プロセッサは、前記(I)プロセスにおいて、前記イメージ加工ネットワークをもって、前記テストイメージまたはこれに対応するリサイズされたテスト用イメージ上で前記第1テスト用ターゲット領域ないし前記第nテスト用ターゲット領域に対応する一つ以上の領域をクロップすることにより、前記第1テスト用加工イメージないし前記第nテスト用加工イメージを取得させるか、前記テストイメージまたはこれに対応するリサイズされたテスト用イメージ上で前記第1テスト用ターゲット領域ないし前記第nテスト用ターゲット領域に対応する一つ以上の領域をクロップした後にリサイズすることにより、前記第1テスト用加工イメージないし前記第nテスト用加工イメージを取得させることを特徴とする。
【0042】
一実施例において、前記第1テスト用ターゲット領域ないし前記第nテスト用ターゲット領域は、前記テストイメージ内に位置する前記テスト用ターゲット物体のうち互いに異なる多数のテスト用ターゲット物体に対応するか、又は前記テストイメージ及びこれに対応するリサイズされたテスト用イメージ内に位置する少なくとも一つの同一のテスト用ターゲット物体に対応することを特徴とする。
【0043】
この他にも、本発明の方法を実行するためのコンピュータプログラムを格納するためのコンピュータ読取り可能な記録媒体(recordable media)がさらに提供される。
【発明の効果】
【0044】
本発明は、イメージ上に位置する物体をサイズに関係なく効果的に検出することができる効果がある。
【0045】
また、本発明は、演算量を増加させずに、かつ前記イメージ内の物体を検出することができる効果がある。
【0046】
また、本発明は、サイズが様々な物体に対応するターゲット領域を利用して、CNNの演算量を減らし、かつ効果的に物体を検出することができる効果がある。
【図面の簡単な説明】
【0047】
本発明の実施例の説明に利用されるために添付された以下の各図面は、本発明の実施例のうち単に一部であるにすぎず、本発明の属する技術分野において通常の知識を有する者(以下「通常の技術者」)にとっては、発明的作業が行われずにこれらの図面に基づいて他の各図面が得られ得る。
【0048】
【
図1】は本発明の一実施例によるイメージコンカチネーション(Image concatenation)を利用した、CNN基盤物体検出器を学習する学習装置を簡略に示した図面である。
【
図2】本発明の一実施例による前記イメージコンカチネーションを利用した、前記CNN基盤物体検出器を学習する方法を簡略に示した図面である。
【
図3】本発明の一実施例による前記イメージコンカチネーションを利用した、前記CNN基盤物体検出器を学習するのに使用されるイメージピラミッド上でそれぞれのターゲット領域を予測する状態を簡略に示した図面である。
【
図4】本発明の一実施例による前記イメージコンカチネーションを利用した、前記CNN基盤物体検出器を学習するのに利用されるそれぞれのターゲット領域に対応して加工されたイメージをコンカチネートした状態を簡略に示した図面である。
【
図5】本発明の一実施例による前記イメージコンカチネーションを利用した、前記CNN基盤物体検出器のテスト装置を簡略に示した図面である。
【
図6】本発明の一実施例による前記イメージコンカチネーションを利用した、前記CNN基盤の物体検出器をテストする方法を簡略に示したものである。
【発明を実施するための形態】
【0049】
後述する本発明に関する詳細な説明は、本発明の各目的、各技術的解法、及び各長所を明らかにするために本発明が実施され得る特定の実施例を例示として示す添付図面を参照する。これらの実施例は、通常の技術者が本発明を実施することができるように十分詳細に説明される。
【0050】
また、本発明の詳細な説明及び各請求項にわたって、「含む」という単語及びそれらの変形は、他の技術的各特徴、各付加物、構成要素又は段階を除外することを意図したものではない。通常の技術者にとって本発明の他の各目的、長所及び各特性が、一部は本説明書から、また一部は本発明の実施から明らかになるであろう。以下の例示及び図面は実例として提供され、本発明を限定することを意図したものではない。
【0051】
さらに、本発明は、本明細書に表示された実施例のすべての可能な組合せを網羅する。本発明の多様な実施例は互いに異なるが、相互に排他的である必要はないことが理解されるべきである。例えば、ここに記載されている特定の形状、構造及び特性は、一実施例に関連して本発明の精神及び範囲を逸脱せず、かつ他の実施例で具現され得る。また、それぞれの開示された実施例内の個別の構成要素の位置又は配置は、本発明の精神及び範囲を逸脱せず、かつ変更され得ることが理解されるべきである。したがって、後述の詳細な説明は、限定的な意味として受け取ろうとするものではなく、本発明の範囲は適切に説明されるのであれば、その請求項が主張することと均等な全ての範囲とともに添付された請求項によってのみ限定される。図面において類似の参照符号は、様々な側面にわたって同一であるか、又は類似の機能を指す。
【0052】
本発明で言及している各種イメージは、舗装または非舗装道路関連のイメージを含み得、この場合、道路環境で登場し得る物体(例えば、自動車、人、動物、植物、物、建物、飛行機やドローンのような飛行体、その他の障害物)を想定し得るが、必ずしもこれに限定されるものではなく、本発明で言及している各種イメージは、道路と関係のないイメージ(例えば、非舗装道路、路地、空き地、海、湖、川、山、森、砂漠、空、室内と関連したイメージ)でもあり得、この場合、非舗装道路、路地、空き地、海、湖、川、山、森、砂漠、空、室内環境で登場し得る物体(例えば、自動車、人、動物、植物、物、建物、飛行機やドローンのような飛行体、その他の障害物)を想定し得るが、必ずしもこれに限定されるものではない。
【0053】
以下、本発明の属する技術分野において通常の知識を有する者が本発明を容易に実施させるために、本発明の好ましい実施例について、添付された図面を参照して詳細に説明することにする。
【0054】
図1は、本発明の一実施例によるイメージコンカチネーション(Image concatenation)を利用した、CNN基盤物体検出器を学習する学習装置を簡略に示したものであり、
図1を参照すると、前記学習装置100は、通信部110とプロセッサ120を含むことができる。
【0055】
まず、前記通信部110は、少なくとも一つのトレーニングイメージを取得するか、又は他の装置をもって取得し得るように支援することができる。
【0056】
この際、前記トレーニングイメージは、データベース130に格納され得、前記データベース130は、前記トレーニングイメージに位置する一つ以上の物体それぞれに対応するクラス情報及び位置情報に対する少なくとも一つの原本正解(ground truth)を格納することができる。また、前記データベース130は、前記トレーニングイメージをリサイズして生成された、リサイズ済みイメージ内に位置する前記物体それぞれに関する位置情報及びクラス情報に関する少なくとも一つの原本正解を格納することができる。
【0057】
また、前記学習装置は後述されるプロセスを遂行するコンピュータ読取り可能なインストラクション(computer readable instruction)を格納することが可能なメモリ115をさらに含むことができる。一例として、前記プロセッサ、前記メモリ、及び媒体等は、一つのプロセッサとして統合されて機能することもできる。
【0058】
次に、前記プロセッサ120は、(i)ターゲット領域予測ネットワークをもって、前記トレーニングイメージまたはこれに対応する一つ以上のリサイズ済みイメージにおいて一つ以上のターゲット物体が位置するものと予測される領域に対応する第1ターゲット領域ないし第nターゲット領域それぞれを予測させ、(ii)イメージ加工ネットワークをもって、前記トレーニングイメージまたはこれに対応するリサイズ済みイメージから、前記第1ターゲット領域ないし前記第nターゲット領域それぞれに対応する第1加工イメージないし第n加工イメージを取得させ、(iii)前記第1加工イメージないし前記第n加工イメージをコンカチネート(concatenate)した統合トレーニングイメージを出力させることができる。そして、前記プロセッサ120は、(i)一つ以上のコンボリューションレイヤをもって、一つ以上のコンボリューション演算を前記統合トレーニングイメージに適用することにより、少なくとも一つの統合特徴マップを出力させ、(ii)RPNをもって、前記統合特徴マップを利用して、前記第1加工イメージないし前記第n加工イメージそれぞれ内に位置する前記物体に対応する第1物体プロポーザルないし第n物体プロポーザルそれぞれを出力させ、(iii)プーリングレイヤをもって、前記統合特徴マップ上で、前記第1物体プロポーザルないし前記第n物体プロポーザルそれぞれに対応するそれぞれの領域に一つ以上のプーリング演算を適用して、少なくとも一つのプーリング済み統合特徴マップを出力させ、(iv)FCレイヤをもって、前記プーリング済み統合特徴マップに少なくとも一つのFC(fully connected)演算を適用して、前記物体に対応する第1物体検出情報ないし第n物体検出情報を出力させることができる。以後、前記プロセッサ120は、少なくとも一つのFCロスレイヤをもって、前記第1物体検出情報ないし前記第n物体検出情報とこれに対応する原本正解(Ground Truth)とを参照して、一つ以上の第1FCロスないし一つ以上の第nFCロスを取得させることにより、前記第1FCロスないし前記第nFCロスを利用したバックプロパゲーションを通じて、前記FCレイヤ及び前記コンボリューションレイヤのパラメータのうち少なくとも一部を調整させることができる。
【0059】
また、前記プロセッサ120は、少なくとも一つのRPNロスレイヤをもって、前記第1物体プロポーザルないし前記第n物体プロポーザルとこれに対応する原本正解とを参照して、一つ以上の第1RPNロスないし一つ以上の第nRPNロスを取得させることにより、前記第1RPNロスないし前記第nRPNロスを利用したバックプロパゲーションを通じて、前記RPNのパラメータのうち少なくとも一部を調整させることができる。
【0060】
この際、本発明の一実施例による前記学習装置100は、コンピュータ装置であって、プロセッサを搭載して演算能力を備えた装置であればいくらでも本発明による学習装置100として採択され得る。また、
図1では一つの学習装置100のみを示したが、これに限定されず、前記学習装置は複数個に分けて役割を遂行することもできる。
【0061】
このように構成された本発明の一実施例による前記学習装置100を利用して、前記イメージコンカチネーションを利用したCNN基盤物体検出器のパラメータを学習する方法を
図2を参照して説明すると以下のとおりである。
【0062】
まず、前記トレーニングイメージが入力されると、前記学習装置100が、ターゲット領域予測ネットワーク121をもって、前記トレーニングイメージまたはこれに対応するリサイズ済みイメージ上に少なくとも一つのターゲット物体が位置するものと予測される少なくとも一つの領域に対応する前記第1ターゲット領域ないし前記第nターゲット領域を予測させる。
【0063】
この際、前記第1ターゲット領域ないし前記第nターゲット領域は、同一のイメージ内に位置する前記ターゲット物体のうち互いに異なる複数のターゲット物体に対応するか、互いに異なるサイズの複数のイメージ内に位置する同一のターゲット物体に対応し得る。また、前記第1ターゲット領域ないし前記第nターゲット領域は、同一のイメージのサイズを互いに異なるようにした前記イメージピラミッドのうちそれぞれのイメージ内に位置すると予測されるターゲット物体に対応し得る。
【0064】
つまり、前記ターゲット領域予測ネットワーク121は、前記トレーニングイメージ内、第1ターゲット物体ないし第nターゲット物体が位置するものと予測される領域に対応する、前記第1ターゲット領域ないし前記第nターゲット領域を探し出すか、又は前記トレーニングイメージをリサイズして得た第1リサイズ済みイメージないし第nリサイズ済みイメージそれぞれに、少なくとも一つの特定ターゲット物体が位置するものと予測される領域に対応する、前記第1ターゲット領域それぞれないし前記第nターゲット領域それぞれを探し出すことができる。
【0065】
また、前記ターゲット領域予測ネットワーク121は、前記トレーニングイメージに、単一のターゲット物体が位置するものと予測される領域に対応する特定のターゲット領域を探し出し、前記トレーニングイメージをリサイズして得た前記第1リサイズ済みイメージないし前記第nリサイズ済みイメージそれぞれに、前記単一のターゲット物体が位置するものと予測される領域に対応する、前記第1ターゲット領域それぞれないし前記第nターゲット領域を探し出すことができる。これに加えて、前記トレーニングイメージ内に多数のターゲット物体が位置する場合、前記リサイズ済みイメージそれぞれにおいて前記ターゲット物体に対応する前記ターゲット領域を予測することができる。
【0066】
一方、前記ターゲット領域予測ネットワーク121は、前記トレーニングイメージまたはこれに対応するリサイズ済みイメージそれぞれに対するそれぞれのスケールヒストグラムを演算し、前記スケールヒストグラムを参照することによって、前記ターゲット物体が位置するものと予測されるスケールプロポーザルに対応する前記第1ターゲット領域ないし前記第nターゲット領域を予測することができる。
【0067】
また、前記ターゲット領域予測ネットワーク121は、前記トレーニングイメージまたはこれに対応するリサイズ済みイメージそれぞれに対してセグメンテーションを遂行し、前記セグメンテーションを基盤として前記ターゲット領域を探し出すためのシード(seed)を設定した後、小さなターゲット領域が繰り返し統合された統合領域を参照して前記ターゲット領域を設定することができる。
【0068】
また、前記ターゲット領域予測ネットワーク121は、フォアグラウンドセグメンテーション(foreground segmentation)を通じてイメージ上のフォアグラウンドを確認し、前記確認されたフォアグラウンドを参照して、少なくとも一つのターゲット物体が位置するものと予測され、前記少なくとも一つのターゲット物体を含むものと予測されるサイズの、少なくとも一つの領域を少なくとも一つのターゲット領域に設定することができる。
【0069】
これに加えて、前記ターゲット領域予測ネットワーク121は、重要度検出(saliency detection)方法を利用して、一つ以上のターゲット領域を設定することができる。
【0070】
しかし、本願発明はこれに限定されず、イメージ内のターゲット物体が位置すると予測されるターゲット領域を探し出すすべての方法が使用され得る。
【0071】
次に、前記学習装置100は、イメージ加工ネットワーク111をもって、前記ターゲット領域予測ネットワーク121で設定された第1ターゲット領域ないし第nターゲット領域それぞれに対応する前記トレーニングイメージまたはそれぞれのこれに対応するリサイズ済みイメージ上で、前記第1ターゲット領域ないし前記第nターゲット領域に対応する第1加工イメージないし第n加工イメージを取得させる。
【0072】
この際、前記学習装置100は、前記イメージ加工ネットワーク111をもって、前記トレーニングイメージまたはこれに対応するリサイズ済みイメージ上で前記第1ターゲット領域ないし前記第nターゲット領域に対応する一つ以上の領域をクロップして、前記第1加工イメージないし前記第n加工イメージを取得させるか、前記トレーニングイメージまたはこれに対応するリサイズ済みイメージ上で前記第1ターゲット領域ないし前記第nターゲット領域に対応する一つ以上の領域をクロップした後、リサイズして、前記第1加工イメージないし前記第n加工イメージを取得させることができる。
【0073】
一例として、
図3を参照すると、前記第1ターゲット領域を含む前記第1リサイズ済みイメージRI1を前記第1加工イメージMI1として取得することができ、前記第2ターゲット領域に対応する前記第2加工イメージMI2は、前記第2リサイズ済みイメージRI2から生成され得、第3ターゲット領域に対応する前記第3加工イメージMI3は、第3リサイズ済みイメージから生成され得る。
【0074】
次に、前記学習装置100は、前記イメージ加工ネットワーク111をもって、前記第1加工イメージないし前記第3加工イメージをコンカチネートした前記統合トレーニングイメージを取得させることができる。
【0075】
この際、前記学習装置100は、前記イメージ加工ネットワーク111をもって、前記第1加工イメージないし前記第3加工イメージの幅と高さのうち少なくとも一つを同一に調整した後、同一に調整された前記幅または前記高さ方向に前記第1調整済み加工イメージないし前記第3調整済み加工イメージをコンカチネートさせることができる。
【0076】
そして、前記学習装置100は、前記イメージ加工ネットワーク111をもって、前記第1調整済み加工イメージないし前記第3調整済み加工イメージのうち、隣接するそれぞれの二つの調整済み加工イメージで構成されるそれぞれのペアの間にそれぞれ少なくとも一つのゼロパディング(zero padding)領域を追加させることができる。この際、前記コンボリューションレイヤの多重コンボリューション演算によって前記統合トレーニングイメージが1/Sに縮小され、前記コンボリューションレイヤそれぞれのカーネルそれぞれの最大サイズをK×Kとする場合、前記ゼロパディング領域の幅が
【数1】
となるようにすることができる。これを通じて、前記CNNのオーバーヘッド(overhead)を最小化することができる。
【0077】
一例として、
図4を参照すると、
図3の過程を通じて生成された前記第1加工イメージMI1、前記第2加工イメージMI2、及び前記第3加工イメージMI3は、互いに高さが同じに調整された後、コンカチネートされ得る。その際、それぞれのゼロパディング領域(PR)は、それぞれの前記隣接した調整済み加工イメージの間に追加され得る。他の例示として、前記加工イメージの幅を同一に調整した後、前記調整された幅を利用して前記それぞれの加工イメージをコンカチネートするか、又は前記幅と前記高さとを同一に調整した後、前記それぞれの加工イメージを大きな正方形状にコンカチネートすることができる。
【0078】
次に、前記学習装置100は、コンボリューションレイヤ122をもって、前記統合トレーニングイメージに前記コンボリューション演算を適用することにより、少なくとも一つの統合特徴マップを出力させることができる。この際、前記コンボリューションレイヤ122は、単一のコンボリューションレイヤでもあり得、多数のコンボリューションレイヤでもあり得る。
【0079】
次に、前記学習装置100は、RPN123をもって、前記統合ピッチャーマップを利用して、前記統合トレーニングイメージに含まれた前記第1加工イメージないし前記第n加工イメージ内に位置する前記物体に対応する一つ以上の第1物体プロポーザルないし一つ以上の第n物体プロポーザルを出力させることができる。
【0080】
この際、前記第1物体プロポーザルないし前記第n物体プロポーザルそれぞれは、前記第1加工イメージないし前記第n加工イメージ内に位置する前記物体それぞれに対応することができ、前記物体プロポーザルそれぞれは、前記物体それぞれ、すなわち、タグ付けされた領域に対応する位置情報と、前記タグ付けされた領域それぞれが物体であるか否かに関する情報を有する各プロポーザルボックスに関する情報とを含むことができる。この際、物体であるか否かに関する情報は、前記それぞれの物体プロポーザルが物体と予測される確率情報を含むことができ、前記プロポーザルボックスに関する情報は、前記プロポーザルボックスが前記物体の位置に一致するものと予測される確率情報を含むことができる。
【0081】
次に、前記学習装置100は、プーリングレイヤ124をもって、前記統合特徴マップ上で前記第1物体プロポーザルないし前記第n物体プロポーザルそれぞれに対応するそれぞれの領域に前記プーリング演算を適用して、少なくとも一つのプーリング済み統合特徴マップを出力させ、FCレイヤ125をもって、前記プーリング済み統合特徴マップに前記FC(fully connected)演算を適用して、前記物体に対応する第1物体検出情報ないし第n物体検出情報を出力させることができる。
【0082】
この際、前記第1物体検出情報ないし前記第n物体検出情報は、前記第1物体プロポーザルないし前記第n物体プロポーザルに対応する前記物体それぞれに関するクラス情報とバウンディングボックスに関する情報(つまり、前記物体それぞれに関する位置情報)を含むことができる。また、前記クラス情報は、前記物体それぞれが当該クラスと予測される確率情報を含むことができ、前記バウンディングボックスに関する情報は、前記バウンディングボックスそれぞれが前記物体の位置に一致するものと予測される確率情報を含むことができる。
【0083】
次に、前記学習装置100は、少なくとも一つのFCロスレイヤ126をもって、前記第1物体検出情報ないし前記第n物体検出情報とこれに対応する原本正解とを参照して、一つ以上の第1FCロスないし一つ以上の第nFCロスを取得させることにより、前記第1FCロスないし前記第nFCロスを利用したバックプロパゲーションを通じて、前記FCレイヤ125及び前記コンボリューションレイヤ122のパラメータのうち少なくとも一部を調整させることができる。
【0084】
また、前記学習装置100は、少なくとも一つのRPNロスレイヤ127をもって、前記第1物体プロポーザルないし前記第n物体プロポーザルとこれに対応する原本正解とを参照して、一つ以上の第1RPNロスないし一つ以上の第nRPNロスを取得させることにより、前記第1RPNロスないし前記第nRPNロスを利用したバックプロパゲーションを通じて、前記RPN123のパラメータのうち少なくとも一部を調整させることができる。
【0085】
前記のような方法により、前記トレーニングイメージ内に位置するサイズが様々な物体、特にサイズが小さく遠距離に位置する前記物体は効率的に検出することが可能となり、また、前記予測されたターゲット領域に対応する領域のみを使用するので演算量を減らすことができ、それに伴って前記CNN基盤の前記物体検出の演算時間を減らすことが可能となる。
【0086】
また、前記では前記トレーニングイメージ上にターゲット物体が一つである場合を想定して説明したが、前記トレーニングイメージ内にターゲット物体が多数存在する場合にも、前記トレーニングイメージ内での前記それぞれのターゲット物体に対応するそれぞれのターゲット領域を利用して前記それぞれのターゲット物体の検出が可能である。
【0087】
図5は、本発明の一実施例による前記イメージコンカチネーションを利用した、前記CNN基盤物体検出器をテストするテスト装置を簡略に示したものであり、
図5を参照すると、前記テスト装置200は、通信部210とプロセッサ220とを含むことができる。
【0088】
まず、前記通信部210は、少なくとも一つのテストイメージを取得するか、又は他の装置をもって取得し得るように支援することができる。
【0089】
また、前記テスト装置は後述するプロセスを遂行するコンピュータ読取り可能なインストラクション(computer readable instruction)を格納することができるメモリ215をさらに含むことができる。一例として、前記プロセッサ、前記メモリ、及び媒体(medium)等は、一つのプロセッサとして統合されて機能することもできる。
【0090】
この際、前記イメージコンカチネーションを利用した、前記CNNの基盤の前記物体検出器は、
図1ないし
図4を参照して説明された前記学習方法で学習され得る。
参考までに、以下の説明で混同を防止するために、学習プロセスに関連する用語には「学習用」という文言が追加され、テストプロセスに関連する用語には「テスト用」という文言が追加された。
【0091】
つまり、少なくとも一つのトレーニングイメージが取得されると、前記学習装置は、(a)(i)前記ターゲット領域予測ネットワークをもって、前記トレーニングイメージまたはこれに対応する一つ以上のリサイズされた学習用イメージにおいて一つ以上の学習用ターゲット物体が位置するものと予測される領域に対応する第1学習用ターゲット領域ないし第n学習用ターゲット領域それぞれを予測させ、(ii)前記イメージ加工ネットワークをもって、前記トレーニングイメージまたはこれに対応するリサイズされた学習用イメージから前記第1学習用ターゲット領域ないし前記第n学習用ターゲット領域それぞれに対応する第1学習用加工イメージないし第n学習用加工イメージを取得させ、(iii)前記第1学習用加工イメージないし前記第n学習用加工イメージをコンカチネートした統合トレーニングイメージを出力させ、(b)(i)前記コンボリューションレイヤをもって、前記コンボリューション演算を前記統合トレーニングイメージに適用することにより、少なくとも一つの学習用統合特徴マップを出力させ、(ii)前記RPNをもって、前記学習用統合特徴マップを利用して、前記第1学習用加工イメージないし前記第n学習用加工イメージそれぞれ内に位置する一つ以上の学習用物体に対応する第1学習用物体プロポーザルないし第n学習用物体プロポーザルそれぞれを出力させ、(iii)前記プーリングレイヤをもって、前記学習用統合特徴マップ上で、前記第1学習用物体プロポーザルないし前記第n学習用物体プロポーザルそれぞれに対応するそれぞれの領域に前記プーリング演算を適用して、少なくとも一つの学習用プーリング済み統合特徴マップを出力させ、(iv)前記FCレイヤをもって、前記学習用プーリング済み統合特徴マップに前記FC(fully connected)演算を適用して、前記学習用物体に対応する第1学習用物体検出情報ないし第n学習用物体検出情報を出力させ、(c)前記FCロスレイヤをもって、前記第1学習用物体検出情報ないし前記第n学習用物体検出情報とこれに対応する原本正解(Ground Truth)とを参照して、一つ以上の第1FCロスないし一つ以上の第nFCロスを算出させることにより、前記第1FCロスないし前記第nFCロスを利用したバックプロパゲーションを通じて、前記FCレイヤ及び前記コンボリューションレイヤのパラメータのうち少なくとも一部を調整させた状態であり得る。
【0092】
また、前記学習装置が、前記RPNロスレイヤをもって、第1トレーニング用物体プロポーザルないし第nトレーニング用物体プロポーザルの情報とこれにそれぞれ対応する原本正解とを参照して第1RPNロスないし第nRPNロスを取得させることにより、前記第1RPNロスないし前記第nRPNロスを利用したバックプロパゲーションを通じて、前記RPNのパラメータを調整した状態であり得る。
次に、前記プロセッサ220は、(i)前記ターゲット領域予測ネットワークをもって、少なくとも一つのテストイメージまたはこれに対応する一つ以上のリサイズされたテスト用イメージで一つ以上のテスト用ターゲット物体が位置するものと予測される領域に対応する第1テスト用ターゲット領域ないし第nテスト用ターゲット領域それぞれを予測させ、(ii)前記イメージ加工ネットワークをもって、前記テストイメージまたはこれに対応するリサイズされたテスト用イメージから前記第1テスト用ターゲット領域ないし前記第nテスト用ターゲット領域それぞれに対応する第1テスト用加工イメージないし第nテスト用加工イメージを取得させ、(iii)前記第1テスト用加工イメージないし前記第nテスト用加工イメージをコンカチネートした統合テストイメージを出力させるプロセスを遂行することができる。そして、前記プロセッサ220は、(i)前記コンボリューションレイヤをもって、前記コンボリューション演算を前記統合テストイメージに適用することにより、少なくとも一つのテスト用統合特徴マップを出力させ、(ii)前記RPNをもって、前記テスト用統合特徴マップを利用して、前記第1テスト用加工イメージないし前記第nテスト用加工イメージそれぞれ内に位置する一つ以上のテスト用物体に対応する第1テスト用物体プロポーザルないし第nテスト用物体プロポーザルそれぞれを出力させ、(iii)前記プーリングレイヤをもって、前記テスト用統合特徴マップ上で、前記第1テスト用物体プロポーザルないし前記第nテスト用物体プロポーザルそれぞれに対応するそれぞれの領域に前記プーリング演算を適用して、少なくとも一つのテスト用プーリングされた統合特徴マップを出力させ、(iv)前記FCレイヤをもって、前記テスト用プーリング済み統合特徴マップに前記FC演算を適用して、前記テスト用物体に対応する第1テスト用物体検出情報ないし第nテスト用物体検出情報を出力させることができる。
【0093】
この際、本発明の一実施例によるテスト装置200は、コンピュータ装置であって、プロセッサを搭載して演算能力を備えた装置であればいくらでも本発明によるテスト装置200として採択され得る。また、
図6では一つのテスト装置200のみを示したが、これに限定されず、テスト装置は複数個に分けて役割を遂行することもできる。
【0094】
本発明の一実施例による前記テスト装置200を利用して、前記イメージコンカチネーションを利用した前記CNNの基盤の前記物体検出器をテストする方法を
図6を参照して説明すると以下のとおりである。以下の説明で、
図1ないし
図4を参照して説明した前記学習方法で容易に理解可能な部分については、詳細な説明を省略することにする。
【0095】
まず、
図1ないし
図4を参照して説明した学習方法によってFCレイヤ225、コンボリューションレイヤ222及びRPN223のパラメータのうち少なくとも一部が学習された状態で、前記テストイメージが入力されると、前記テスト装置200がターゲット領域予測ネットワーク221をもって、前記テストイメージまたはこれに対応するリサイズ済みイメージにおいて前記テスト用ターゲット物体が位置するものと予測される少なくとも一つの領域に対応する前記第1テスト用ターゲット領域ないし前記第nテスト用ターゲット領域を探すようにすることができる。
【0096】
この際、前記第1テスト用ターゲット領域ないし前記第nテスト用ターゲット領域は、同一のテストイメージ内に位置する前記テスト用ターゲット物体のうち互いに異なる複数のテスト用ターゲット物体に対応するか、又は互いに異なるサイズの複数のイメージ内に位置する同一のテスト用ターゲット物体に対応し得る。また、前記第1テスト用ターゲット領域ないし前記第nテスト用ターゲット領域は、同一のイメージのサイズを互いに異にした前記イメージピラミッドのうちそれぞれのイメージ内に位置するものと予測されるテスト用ターゲット物体に対応し得る。
【0097】
つまり、前記ターゲット領域予測ネットワーク221は、前記テストイメージ内に、第1テスト用ターゲット物体ないし第nテスト用ターゲット物体が位置するものと予測される領域に対応する、前記第1テスト用ターゲット領域ないし前記第nテスト用ターゲット領域を探し出すか、又は前記テストイメージをリサイズして得た第1テスト用リサイズ済みイメージないし第nテスト用リサイズ済みイメージそれぞれに、少なくとも一つの特定のテスト用ターゲット物体が位置するものと予測される領域に対応する、前記第1テスト用ターゲット領域それぞれないし前記第nテスト用ターゲット領域それぞれを探し出すことができる。また、前記ターゲット領域予測ネットワーク221は、前記テストイメージに、単一のターゲット物体が位置するものと予測される領域に対応する、特定のターゲット領域を探し出し、前記テストイメージをリサイズして得た第1テスト用リサイズ済みイメージないし第nテスト用リサイズ済みイメージそれぞれに、前記単一のテスト用ターゲット物体が位置するものと予測される領域に対応する、前記第1テスト用ターゲット領域それぞれないし前記第nテスト用ターゲット領域を探し出すことができる。これに加えて、前記テストイメージ内に多数のテスト用ターゲット物体が位置する場合、前記テストイメージのリサイズ済みイメージそれぞれにおいて、前記テスト用ターゲット物体に対応する前記テスト用ターゲット領域を予測することができる。
【0098】
次に、前記テスト装置200は、前記イメージ加工ネットワーク211をもって、前記ターゲット領域予測ネットワーク221で設定された第1テスト用ターゲット領域ないし第nテスト用ターゲット領域それぞれに対応する前記テストイメージまたはそれぞれのこれに対応するリサイズ済みイメージ上で、前記第1テスト用ターゲット領域ないし前記第nテスト用ターゲット領域に対応する第1テスト用加工イメージないし第nテスト用加工イメージを取得させる。
【0099】
この際、前記テスト装置200は、前記イメージ加工ネットワーク211をもって、前記テストイメージまたはこれに対応するリサイズ済みイメージ上で前記第1テスト用ターゲット領域ないし前記第nテスト用ターゲット領域に対応する一つ以上の領域をクロップして、前記第1テスト用加工イメージないし前記第nテスト用加工イメージを取得させるか、前記テストイメージまたはこれに対応するリサイズ済みイメージ上で前記第1テスト用ターゲット領域ないし前記第nテスト用ターゲット領域に対応する一つ以上の領域をクロップした後、リサイズして、前記第1テスト用加工イメージないし前記第nテスト用加工イメージを取得させることができる。
【0100】
次に、前記テスト装置200は、前記イメージ加工ネットワーク211をもって、前記第1テスト用加工イメージないし前記第nテスト用加工イメージをコンカチネートした前記統合テストイメージを取得させることができる。
【0101】
この際、前記テスト装置200は、前記イメージ加工ネットワーク211をもって、前記第1テスト用加工イメージないし前記第nテスト用加工イメージの幅と高さのうち少なくとも一つを同一に調整した後、同一に調整された前記幅または前記高さ方向に前記第1テスト用調整済み加工イメージないし前記第nテスト用調整済み加工イメージをコンカチネートさせることができる。
【0102】
そして、前記テスト装置200は、前記イメージ加工ネットワーク211をもって、前記第1テスト用調整済み加工イメージないし前記第nテスト用調整済み加工イメージのうち、隣接するそれぞれの二つのテスト用調整済み加工イメージから構成されるそれぞれのペアの間にそれぞれ少なくとも一つのゼロパディング(zero padding)領域を追加させることができる。この際、前記コンボリューションレイヤの多重コンボリューション演算によって前記統合テストイメージが1/Sに縮小され、前記コンボリューションレイヤそれぞれのカーネルそれぞれの最大サイズをK×Kとする場合、前記ゼロパディング領域の幅が
【数1】
になるようにすることができる。
【0103】
次に、前記テスト装置200は、前記コンボリューションレイヤ222をもって、前記統合テストイメージに前記コンボリューション演算を適用することにより、少なくとも一つのテスト用統合特徴マップを出力させることができる。この際、前記コンボリューションレイヤ222は、単一のコンボリューションレイヤでもあり得、多数のコンボリューションレイヤでもあり得る。
【0104】
次に、前記テスト装置200は、前記RPN223をもって、前記テスト用統合ピッチャーマップを利用して、前記統合テストイメージに含まれた前記第1テスト用加工イメージないし前記第nテスト用加工イメージ内に位置する前記テスト用物体に対応する一つ以上の第1テスト用物体プロポーザルないし一つ以上の第nテスト用物体プロポーザルを出力させることができる。
【0105】
この際、前記第1テスト用物体プロポーザルないし前記第nテスト用物体プロポーザルそれぞれは、前記テスト用物体それぞれ、つまり、タグ付けされた領域に対応する位置情報と、前記タグ付けされた領域が物体であるか否かに関する情報を有する各プロポーザルボックスに関する情報とを含むことができる。
【0106】
次に、前記テスト装置200は、プーリングレイヤ224をもって、前記テスト用統合特徴マップ上で、前記第1テスト用物体プロポーザルないし前記第nテスト用物体プロポーザルそれぞれに対応するそれぞれの領域に前記プーリング演算を適用して、少なくとも一つのテスト用プーリング済み統合特徴マップを出力させ、前記FCレイヤ225をもって、前記テスト用プーリング済み統合特徴マップに前記FC(fully connected)演算を適用して、前記テスト用物体に対応する第1テスト用物体検出情報ないし第nテスト用物体検出情報を出力させることができる。
【0107】
この際、前記第1テスト用物体検出情報ないし前記第nテスト用物体検出情報は、テスト用バウンディングボックスに関する情報(すなわち、前記テスト用物体それぞれに関する位置情報)及び前記第1テスト用物体プロポーザルないし前記第nテスト用物体プロポーザルに対応する前記テスト用物体それぞれに関するクラス情報を含むことができる。
【0108】
前記のような方法により、前記テストイメージ内に位置するサイズが様々な物体、特にサイズが小さく遠距離に位置する前記物体は効率的に検出することが可能となり、また、前記予測されたターゲット領域に対応する領域のみを使用するので演算量を減らすことができ、それに伴って前記CNN基盤の前記物体検出の演算時間を減らすことが可能となる。
【0109】
また、上記では前記テストイメージ上にターゲット物体が一つである場合を想定して説明したが、前記テストイメージ内にターゲット物体多数がある場合にも、上記のような方法により前記テストイメージ内における前記それぞれのターゲット物体に対応するそれぞれのターゲット領域を利用して前記それぞれのターゲット物体の検出が可能である。
【0110】
前記CNNは、核心成果指標(KPI)のようなユーザ要求事項に適応することが可能である。すなわち、前記KPIによる解像度や焦点距離(focal length)が変わるようになるに伴って、物体サイズが変われば前記CNNの再設計が可能である。このようなCNNを利用して、ハードウェアは処理速度が向上し、最適化され得る。
【0111】
本発明によると、イメージコンカチネーションを利用するCNN基盤のハードウェア最適化が可能な前記物体検出器は、軍事目的又は遠距離にある物体検出のために使用することができるようになる。
【0112】
以上にて説明された本発明による実施例は、多様なコンピュータの構成要素を通じて遂行することができるプログラム命令語の形態で具現されて、コンピュータ読取り可能な記録媒体に格納され得る。前記コンピュータ読取り可能な記録媒体はプログラム命令語、データファイル、データ構造などを単独で又は組み合わせて含むことができる。前記コンピュータ読取り可能な記録媒体に格納されるプログラム命令語は、本発明のために特別に設計されて構成されたものであるか、コンピュータソフトウェア分野の当業者に公知にされて使用可能なものであり得る。コンピュータ読取り可能な記録媒体の例には、ハードディスク、フロッピー(登録商標)ディスク及び磁気テープのような磁気媒体、CD−ROM、DVDのような光記録媒体、フロプティカル・ディスク(floptical disk)のような磁気−光メディア(magneto−optical media)、及びROM、RAM、フラッシュメモリなどのようなプログラム命令語を格納して遂行するように特別に構成されたハードウェア装置が含まれる。プログラム命令語の例には、コンパイラによって作られるもののような機械語コードだけでなく、インタープリターなどを使用してコンピュータによって実行される高級言語コードも含まれる。前記ハードウェア装置は、本発明による処理を実行するために一つ以上のソフトウェアモジュールとして作動するように構成され得、その反対も同様である。
【0113】
以上にて本発明が具体的な構成要素などのような特定事項と限定された実施例及び図面によって説明されたが、これは本発明のより全般的な理解の一助とするために提供されたものであるに過ぎず、本発明が前記各実施例に限られるものではなく、本発明が属する技術分野において通常の知識を有する者であれば、係る記載から多様な修正及び変形が行われ得る。
【0114】
従って、本発明の思想は、前記説明された実施例に局限されて定められてはならず、後述する特許請求の範囲だけでなく、本特許請求の範囲と均等または等価的に変形されたものすべては、本発明の思想の範囲に属するといえる。