IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ チュンブク ナショナル ユニバ―シティ インダストリー アカデミック コーオペレーション ファウンデーションの特許一覧

特表2023-5091043Dライダーの高速物体認識のためのチャンネル別コンボリューション基盤の畳み込みニューラルネットワーク構造
<>
  • 特表-3Dライダーの高速物体認識のためのチャンネル別コンボリューション基盤の畳み込みニューラルネットワーク構造 図1
  • 特表-3Dライダーの高速物体認識のためのチャンネル別コンボリューション基盤の畳み込みニューラルネットワーク構造 図2
  • 特表-3Dライダーの高速物体認識のためのチャンネル別コンボリューション基盤の畳み込みニューラルネットワーク構造 図3
  • 特表-3Dライダーの高速物体認識のためのチャンネル別コンボリューション基盤の畳み込みニューラルネットワーク構造 図4
  • 特表-3Dライダーの高速物体認識のためのチャンネル別コンボリューション基盤の畳み込みニューラルネットワーク構造 図5
  • 特表-3Dライダーの高速物体認識のためのチャンネル別コンボリューション基盤の畳み込みニューラルネットワーク構造 図6
  • 特表-3Dライダーの高速物体認識のためのチャンネル別コンボリューション基盤の畳み込みニューラルネットワーク構造 図7
  • 特表-3Dライダーの高速物体認識のためのチャンネル別コンボリューション基盤の畳み込みニューラルネットワーク構造 図8
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公表特許公報(A)
(11)【公表番号】
(43)【公表日】2023-03-07
(54)【発明の名称】3Dライダーの高速物体認識のためのチャンネル別コンボリューション基盤の畳み込みニューラルネットワーク構造
(51)【国際特許分類】
   G06T 7/00 20170101AFI20230228BHJP
   G06V 10/82 20220101ALI20230228BHJP
   G06N 3/02 20060101ALI20230228BHJP
   G01S 17/89 20200101ALI20230228BHJP
【FI】
G06T7/00 350C
G06V10/82
G06N3/02
G01S17/89
【審査請求】有
【予備審査請求】未請求
(21)【出願番号】P 2021540158
(86)(22)【出願日】2020-11-25
(85)【翻訳文提出日】2021-07-08
(86)【国際出願番号】 KR2020016791
(87)【国際公開番号】W WO2022097814
(87)【国際公開日】2022-05-12
(31)【優先権主張番号】10-2020-0148870
(32)【優先日】2020-11-09
(33)【優先権主張国・地域又は機関】KR
(81)【指定国・地域】
(71)【出願人】
【識別番号】521303039
【氏名又は名称】チュンブク ナショナル ユニバ―シティ インダストリー アカデミック コーオペレーション ファウンデーション
【氏名又は名称原語表記】Chungbuk National University Industry Academic Cooperation Foundation
【住所又は居所原語表記】1, Chungdae-ro, Seowon-gu, Cheongju-si, Chungcheongbuk-do 28644, Republic of Korea
(74)【代理人】
【識別番号】100121382
【弁理士】
【氏名又は名称】山下 託嗣
(72)【発明者】
【氏名】パク,テ ヒョン
【テーマコード(参考)】
5J084
5L096
【Fターム(参考)】
5J084AA04
5J084AA05
5J084AA14
5J084AB01
5J084AB07
5J084AC02
5J084AD01
5J084BA11
5J084BA48
5J084CA03
5J084CA31
5J084CA80
5J084EA05
5L096AA09
5L096FA69
5L096HA11
5L096JA11
5L096JA22
5L096KA04
(57)【要約】
本発明は、3Dライダーの高速物体認識のためのチャンネル別コンボリューション基盤の畳み込みニューラルネットワーク構造に関するものであり、ライダーデータの各チャンネル内の特徴を抽出するためのチャンネル内部コンボリューションネットワークと、前記チャンネル内部コンボリューションネットワークのチャンネルごとの出力を利用して、各チャンネル間の特徴を抽出し、抽出されたチャンネル間の特徴を表す特徴マップを生成するためのチャンネル外部コンボリューションネットワークと、前記チャンネル外部コンボリューションネットワークから生成された特徴マップを利用して、物体の位置とクラスを探索するディテクションネットワークと、を含んでいる。本発明には、3Dライダーの高速物体認識プロセスにおいて、ライダーから入力されるローデータを直接使用するため、データの損失が発生しないという効果がある。
【特許請求の範囲】
【請求項1】
3Dライダーの高速物体認識のためのチャンネル別コンボリューション基盤の畳み込みニューラルネットワーク構造であり、
ライダーデータの各チャンネル内の特徴を抽出するためのチャンネル内部コンボリューションネットワークと、
上記チャンネル内部コンボリューションネットワークの各チャンネルの出力を利用して各チャンネル間の特徴を抽出し、抽出した各チャンネル間の特徴を表す特徴マップを生成するためのチャンネル外部コンボリューションネットワークと、
上記チャンネル外部コンボリューションネットワークから生成された特徴マップを利用して物体の位置及びクラスを探索するディテクションネットワークと、
を備える畳み込みニューラルネットワーク構造。
【請求項2】
上記チャンネル内部コンボリューションネットワークは、チャンネルごとにコンボリューションを実行する1つ以上のコンボリューションレイヤと、プーリングを実行するプーリングレイヤと、を1つのセットとした所定数のセットを連続して備え、チャンネルごとにライダーのチャンネルデータが入力され、各チャンネルの特徴を表す特徴データを出力することを特徴とする、
請求項1に記載の畳み込みニューラルネットワーク構造。
【請求項3】
上記チャンネル外部コンボリューションネットワークは、各チャンネル別の特徴データを合わせた入力特徴マップを入力としてコンボリューションを実行する1つ以上のコンボリューションレイヤを備え、上記入力特徴マップと上記コンボリューションレイヤの結果である結果特徴マップとを連結して最終特徴マップを出力することを特徴とする、
請求項2に記載の畳み込みニューラルネットワーク構造。
【請求項4】
上記ディテクションネットワークは、上記結果特徴マップを入力としてコンボリューションを実行する1つ以上のコンボリューションレイヤと、上記コンボリューションレイヤから出力される結果データを利用して物体のクラスと点数を出力するクラスレイヤと、上記コンボリューションレイヤから出力される結果データを利用して物体の位置、ボックスのサイズ、及び物体の角度を表示するボックスレイヤと、を備えることを特徴とする、
請求項3に記載の畳み込みニューラルネットワーク構造。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、畳み込みニューラルネットワークに関し、より詳細には、3Dライダーの高速物体認識のためのチャンネル別コンボリューション基盤の畳み込みニューラルネットワーク構造に関する。
【背景技術】
【0002】
3Dライダー(LiDAR)は、自動運転車で多用されるセンサーで、ライダーの本体からレーザーを発射して反射して戻ってくる時間を以て、周辺の物体の距離を測定する装置である。カメラと違って、ライダーは、光の影響を受けにくいため、昼夜を問わず周辺の物体を感知することができる。
【0003】
ライダーデータは、点(point)の集合で構成されており、これをポイントクラウド(point cloud)という。各点(point)には、位置(x、y、z)と反射度(I)データが含まれている。
【0004】
ライダーデータを出力すると、複数の点からなる背景や物体があることが確認できる。ライダーデータから物体(主に、人や車)の位置及びクラス(class)を探す一連の過程を物体認識(object recognition)という。
【0005】
3Dライダーを用いた物体認識の方法は、いくつかあるが、最近の何年間、最も性能の良い方法は、畳み込みニューラルネットワーク(Convolutional Neural Network,CNN)を使うものである。
【0006】
CNNにおいて、入力データが入力されると、数回のコンボリューション過程を通じて特徴を抽出し、抽出した特徴を利用して物体を認識する。既存のCNNにおいて入力データとして使う方法は、3Dライダーデータをボクセル(voxel)やイメージ(image)に変換して使う方式である。このような既存CNNの物体認識プロセスが、図1に図示されている。
【0007】
図1は、既存のCNNを利用した物体認識プロセスを示す。
【0008】
図1を参照すれば、既存のCNNを用いた物体認識プロセスは、ライダーから感知したポイントクラウドデータをボクセル又はイメージに変換する過程を経て、変換されたデータを入力としてCNNを行って結果データを出力する方式である。
【0009】
このような従来のCNNを用いた物体認識方式の問題点は、変換方式によって様々であるが、その中で共通する問題点は、ライダーを通じて生成されたローデータ(raw data)を変換するために、損失するデータが発生するという点である。
【0010】
従来のボクセル変換方式とイメージ変換方式のそれぞれの短所は、以下の通りである。
【0011】
まず、ポイントクラウドをボクセルに変換する方法の場合、3Dコンボリューションを使わなければならないため、演算量が多くなり、実行時間に影響を与えるという問題点がある。
【0012】
また、ポイントクラウドをイメージに変換する方法の場合、2Dデータを入力として使用するため、出力も2Dに関連するデータとなる。そのため、正確な3D姿勢を見つけるためには、追加アルゴリズムを適用しなければならないため、結局、実行時間に影響を与えるという問題点がある。
【0013】
このような既存の方法を改善するためには、ポイントクラウドをボクセルやイメージに変換する過程をなくす方策が必要である。
【発明の概要】
【発明が解決しようとする課題】
【0014】
本発明は、上記のような問題点を解決するために案出したものであり、3Dライダーの高速物体認識のプロセスにおいて、ポイントクラウドデータをボルセルやイメージに変換する過程をなくすための、チャンネル別コンボリューション基盤の畳み込みニューラルネットワーク構造を提供することが目的である。
【0015】
本発明の目的は、以上に述べた目的に限定されるものではなく、言及されていない他の目的は、下記の記載から通常の技術者に明確に理解されるものである。
【課題を解決するための手段】
【0016】
このような目的を達成するために、本発明は、3Dライダーの高速物体認識のためのチャンネル別コンボリューション基盤の畳み込みニューラルネットワーク構造に関するものであり、ライダーデータの各チャンネル内の特徴を抽出するためのチャンネル内部コンボリューションネットワークと、上記チャンネル内部コンボリューションネットワークの各チャンネルの出力を用いて各チャンネル間の特徴を抽出し、抽出した各チャンネル間の特徴を表す特徴マップを生成するためのチャンネル外部コンボリューションネットワークと、上記チャンネル外部コンボリューションネットワークから生成された特徴マップを用いて物体の位置及びクラスを探索するディテクションネットワークと、を含む。
【0017】
上記チャンネル内部コンボリューションネットワークは、チャンネルごとにコンボリューションを実行する1つ以上のコンボリューションレイヤと、プーリングを実行するプーリングレイヤを1つのセットとした所定数のセットを連続して備え、チャンネルごとにライダーのチャンネルデータが入力され、各チャンネルの特徴を表す特徴データを出力できる。
【0018】
上記チャンネル外部コンボリューションネットワークは、各チャンネル別の特徴データを合わせた入力特徴マップを入力としてコンボリューションを実行する1つ以上のコンボリューションレイヤを備え、上記入力特徴マップと上記コンボリューションレイヤの結果である結果特徴マップを連結して最終の特徴マップを出力することができる。
【0019】
上記ディテクションネットワークは、上記結果特徴マップを入力としてコンボリューションを実行する1つ以上のコンボリューションレイヤと、上記コンボリューションレイヤから出力される結果データを利用して物体のクラスと点数を出力するクラスレイヤと、上記コンボリューションレイヤから出力される結果データを利用して物体の位置、ボックスのサイズ及び物体の角度を表示するボックスレイヤと、を備えることができる。
【発明の効果】
【0020】
本発明によれば、3Dライダーの高速物体認識のプロセスにおいて、ライダーから入力されるローデータを直接使うために、データ損失が発生しないという効果がある。
【0021】
また、本発明によれば、ポイントクラウドデータを変換する方式ではなく、もともとライダーの中にあるチャンネルを利用するため、変換アルゴリズムが必要ないため、チャンネル内部コンボリューションネットワークの場合、同じチャンネル内のデータのみコンボリューションを適用するため、コンボリューションの次元が低いため、処理速度が速いという効果がある。
【図面の簡単な説明】
【0022】
図1図1は、既存CNNを用いた物体認識プロセスを示す図である。
図2図2は、本発明のー実施形態に係る3Dライダーの高速物体認識プロセスを示す図である。
図3図3は、本発明のー実施形態に係る3Dライダーの高速物体認識のためのチャンネル別コンボリューション基盤の畳み込みニューラルネットワーク構造を示す図である。
図4図4は、ポイントクラウドデータの表示方法を例示する図である。
図5図5は、ライダーの物体感知方式を説明するため例示図である。
図6図6は、本発明の一実施形態に係る畳み込みニューラルネットワーク構造において、チャンネル内部コンボリューションネットワークの構成を示す図である。
図7図7は、本発明のー実施形態に係る畳み込みニューラルネットワーク構造において、チャンネル外部コンボルレボリューションネットワークの構成を示す図である。
図8図8は、本発明のー実施形態に係る畳み込みニューラルネットワーク構造において、ディテクションネットワークの構成を示す図である。
【発明を実施するための形態】
【0023】
本発明は、3Dライダーの高速物体認識のためのチャンネル別コンボリューション基盤の畳み込みニューラルネットワーク構造に関するものであり、ライダーデータの各チャンネル内の特徴を抽出するためのチャンネル内部コンボリューションネットワークと、前記チャンネル内部コンボリューションネットワークのチャンネルごとの出力を利用して、各チャンネル間の特徴を抽出し、抽出された各チャンネル間の特徴を表す特徴マップを生成するためのチャンネル外部コンボリューションネットワークおよび、前記チャンネル外部コンボリューションネットワークから生成された特徴マップを利用して、物体の位置およびクラスを探索するディテクションネットワークを含む。
【0024】
本明細書に開示される実施例の利点及び特徴及びそれらを達成する方法は、添付されている図面とともに後述の実施例を参照すると明確になる。しかし、本開示において提案しようとする実施例は、以下に開示される実施例に限定されず、異なる様々な形態にて実現できるものであり、本実施例は、単に、当該技術分野において通常の知識を有する者に実施例の範囲を完全に知らせるために提供されるものに過ぎない。
【0025】
本明細書で使用される用語について簡略に説明し、開示される実施例について具体的に説明する。
【0026】
本明細書において使用される用語は、開示される実施例の機能を考慮しつつ、できるだけ現在広く使われている一般的な用語を選択しているが、これは関連分野の技術者の意図又は判例、新しい技術の出現、などによって変更されうる。また、特定の場合においては、出願人が任意に選定した用語もあり、この場合において、該当する明細書の詳細な説明の部分において、詳細にその意味を記載する。したがって、本開示で使用される用語は、単なる用語の名称ではなく、その用語の持つ意味と本明細書の全般にわたる内容に基づいて定義されなければならない。
【0027】
本明細書における単数の表現は、文脈上明らかに単数であるものと特定しない限り、複数の表現も含む。
【0028】
明細書の全体において、ある部分が、ある構成要素を「含む」というとき、これは特に反対の記載がない限り、他の構成要素を除くのではなく、他の構成要素をさらに含むことができることを意味する。また、明細書で使われる「~部」という用語は、ソフトウェア、FPGA、またはASICのようなハードウェア構成要素を意味し、「~部」は、ある役割を果たす。しかしながら、「~部」は、ソフトウェア又はハードウェアに限られる意味ではない。「~部」は、アドレッシングできる記録媒体に存在するよう構成することもできるし、1つまたはそれ以上のプロセッサーにて実行するように構成することもできる。従って、一例として、「~部」は、ソフトウェア構成要素、オブジェクト指向のソフトウェア構成要素、クラス構成要素、およびタスク構成要素のような構成要素と、プロセス、関数、属性、プロシージャ、サブルーチン、プログラムコードなどのセグメント、ドライバ、ファームウェア、マイクロコード、回路、データ、データベース、テイブル、アレイ、及び変数などを含む。構成要素と「~部」の中で提供される機能は、もっと少ない数の構成要素及び「~部」に結合されたり、追加の構成要素と「~部」にさらに分離したりすることができる。
【0029】
また、添付図面を参照して説明することにおいて、図面符号にかかわらず、同一の構成要素は、同一の参照符号を付与し、これに対する重複の説明は省略する。本発明を説明するにあたって、かかる公知技術に対する具体的な説明が本発明の要旨を不必要に濁す可能性があると判断される場合、その詳細な説明を省略する。
【0030】
図2は、本発明の一実施形態に係る3Dライダーの高速物体認識プロセスを示す。
【0031】
図2を参照すれば、本発明の一実施形態に係る3Dライダーの高速物体認識プロセスは、ライダーから感知されたポイントクラウドデータを入力として、CNN(Convolutional Neural Network)を実行し、結果データを出力する方式である。
【0032】
このような本発明のCNNを用いた3Dライダーの高速物体認識プロセスは、従来の方法と比べて、ポイントクラウドデータをボクセルまたはイメージに変換する過程が省略されている。このため、本発明では、以下のようなチャンネル別コンボリューション基盤の畳み込みニューラルネットワーク構造を提案する。
【0033】
図3は、本発明の一実施形態に係る3Dライダーの高速物体認識のためのチャンネル別コンボリューション基盤の畳み込みニューラルネットワーク構造を示す図である。
【0034】
図3を参照すれば、本発明で提案する3Dライダーの高速物体認識のためのチャンネル別コンボリューション基盤の畳み込みニューラルネットワーク構造100は、ライダーのチャンネル内の特徴を抽出するチャンネル内部コンボリューションネットワーク110と、ライダーのチャンネル間の特徴を抽出するチャンネル外部コンボリューションネットワーク120と、物体の位置とクラス(class)を探すディテクション(detection)ネットワーク130と、の合計3つのネットワークから構成されている。
【0035】
チャンネル内部コンボリューションネットワーク110は、チャンネル内の特徴を抽出するネットワークである。
【0036】
このようなチャンネル内部コンボリューションネットワーク110の構成を説明する前に、ライダーデータの特徴を説明する。
【0037】
図4は、ポイントクラウドデータの表示方法を例示する図である。
【0038】
図4において、(a)はライダーデータであるポイントクラウドの出力データであり、(b)は出力データを整列した整列データを図示する。つまり、図4(a)は、距離によって出力されるライダーデータを表示したものであり、(b)はライダーデータを整列した整列データを表示する。
【0039】
ライダーデータLは、以下のように構成されている。
【0040】
【数1】
【0041】
図4(b)に示すように整列データを数式に表すと、以下の通りである。
【0042】
【数2】
【0043】
ここで、「L」は全体のライダーデータを意味し、「i」はチャンネルを意味し、「Ci」はチャンネルiに属している点の集合を意味し、「j」は各チャンネルのインデックスを意味し、「pi、j」は1つのポイントを表す。「pi、j」の中には、位置(x、y、z)と反射度(I)の値が含まれている。
【0044】
ライダーは、垂直解像度は低いが、水平解像度が高いため、同じチャンネルにある点は、多くの類似点を持つようになる。これを図面を参照して説明すると、以下の通りである。
【0045】
図5は、ライダーの物体感知方式を説明するための例示図である。
【0046】
図5の例示において、ライダーが2つの物体を感知したとき、(a)でライダーから測定したデータを整列して見ると、(b)に示すように、同一のチャンネル(「i」が等しい)のライダーデータの場合、地面測定中に物体が認識された部分で距離と反射度の値が変わる。そして、物体領域を通って行けば、地面を測定するため、距離と反射度の値が再び変わる。もし連続的に他の物体がある場合、距離は同じだが反射度の値の違いが発生し、これにより、該当する物体の情報を得ることができる。
【0047】
360°スキャンが可能なライダーの場合、同じチャンネルにある点同士は、多くの類似性を持つことになる。例えば、平地をスキャンしたとき、同じチャンネルにあるライダーデータ距離および反射度の値は似ている。しかし、図5(a)のように物体がある場合、途中で距離や反射度の値が異なる場合が生じる。したがって、チャンネル別データは、相互に関係が深いため、データをチャンネルごとに分離する。そして、分離したチャンネルデータを利用してチャンネル内部コンボリューションを実行する。
【0048】
このようなライダーのチャンネル特性を利用して、チャンネル内部コンボリューションネットワークを図6のように表示することができる。
【0049】
図6は、本発明の一実施形態に係る畳み込みニューラルネットワーク構造において、チャンネル内部コンボリューションネットワークの構成を示す。
【0050】
図6において、「Fi」は、チャンネル「i」から結果として出てきた特徴データである。
【0051】
図6の実施形態において、チャンネル内部コンボリューションネットワーク110は、各チャンネル当たり12個のコンボリューションレイヤ(convolution layer)と4つのプーリングレイヤ(pooling layer)から構成されていることが確認できる。そして、チャンネル内部コンボリューションネットワーク110の全体で見ると、コンボションレイヤは、「12×i」個、プーリングレイヤは、「4×i」個が含まれている。
【0052】
そして、コンボリューションレイヤのコンボリューションマスクのサイズは、1×3で構成されている。ライダーチャンネルごとにライダーデータのx、y、z、Iの値についてコンボリューションを実行する。3回のコンボリューションを実行し、1回のプーリングを実行することを1セットにして、合計4セットを実行する。
【0053】
次に、チャンネル外部コンボリューションネットワーク120は、チャンネル間の特徴を抽出するネットワークである。図5(b)を縦方向に見ると、物体が連続的に感知された後、物体がなくなると、地面を感知することを確認できる。これを言い換えると、同一のインデックス(「j」が同じ)の場合も、物体の特徴を取得できることを意味する。このようなチャンネル間の特性を利用してチャンネル外部コンボリューションネットワークを以下の図7のように示すことができる。
【0054】
図7は、本発明の一実施形態に係る畳み込みニューラルネットワーク構造において、チャンネル外部コンボリューションネットワークの構成を示す。
【0055】
図7において、チャンネル外部コンボリューションネットワーク120は、チャンネル内部コンボリューションネットワークから出力された「Fi」を入力として使用して特徴マップ(F”)を生成する。
【0056】
図7に示すように、本発明の一実施形態では、チャンネル外部コンボリューションネットワーク120は、3つのコンボリューションレイヤから構成されている。そして、コンボリューションレイヤのマスクのサイズは、3×3を使用する。また、チャンネル外部コンボリューションネットワーク120の端では、コンボリューションの結果の特徴マップ(F’)と、入力として使用した特徴マップ(F)を連結して、新しい特徴マップ(F”)を作る。
【0057】
チャンネル外部コンボリューションネットワーク120の入力データは、チャンネル内部コンボリューションネットワークの結果(F1,F2,・・・Fi)を合わせた1つの「F」を使用し、出力データは、「F”」であり、特徴マップのサイズは、「F」と同一である。
【0058】
次に、ディテクションネットワーク130は、チャンネル外部コンボリューションネットワーク120から求めた特徴マップ「F”」を用いて、物体の位置及びクラスを探すネットワークである。
【0059】
図8は、本発明の一実施形態に係る畳み込みニューラルネットワーク構造において、ディテクションネットワークの構成を示す。
【0060】
図8を参照すれば、ディテクションネットワーク130は、物体のクラスと点数(c、s)を出力するクラス(class)レイヤと、物体の位置、サイズ、及び回転(w、h、l、d、θ)を調べるボックス(box)レイヤと、から構成されている。
【0061】
図8の実施形態において、ディテクションネットワーク130は、4つのコンボリューションレイヤを持ち、マスクのサイズは、3×3を使用する。また、ディテクションネットワーク130で4回のコンボリューションレイヤを経て出力される最終データは、クラスレイヤとボックスレイヤの入力として使用する。
【0062】
クラスレイヤは、該当する物体のクラスと点数(c、s)を出力するように構成されている。そして、ボックスレイヤは、物体の位置、ボックスのサイズ、及び物体の角度(w、h、l、d、θ)を表示するように構成されている。
【0063】
本発明においては、ライダーチャンネル基盤のチャンネル別コンボリューション基盤の畳み込みニューラルネットワークの構造を提案した。従来は、3次元コンボリューションを使用するか、データを変換する物体認識手法を使用したが、本発明で提案する方法は、ライダーデータの特徴を利用して物体を認識するネットワークである。つまり、物体の認識のためにライダーデータをチャンネルごとに特徴を抽出することができるように、チャンネル内部コンボリューションネットワークを使用し、次にチャンネル外部コンボリューションネットワークを利用してチャンネル間の特徴を抽出し、最後にディテクションネットワークを利用して物体を探す方式である。
【0064】
既存の3Dライダーの物体認識プロセスにおけるボクセル変換やイメージ変換方法においては、結局、ネットワークの入力データとして使用するために、ライダーデータを変換する必要がある。しかし、このようなデータ変換は、最終的に、ロー(RAW)データの一部を損失させる可能性があり、データ変換のための変換アルゴリズムを追加したり、後処理アルゴリズムを追加したりする必要があり、ボクセルを限定して3Dコンボリューションを使用するため、実行時間が長くなる。
【0065】
このような点を改善するために、本発明で提案する方法の場合、ライダーから入ってくるローデータを直接使うため、データ損失が発生せず、データ変換ではなく、元のライダーのチャンネルを利用するため、変換アルゴリズムを別途必要としない。また、チャンネル内部コンボリューションネットワークの場合、同じチャンネル内のデータのみコンボリューションを適用するため、コンボリューションの次元が低く、処理速度が速い。
【0066】
以上、本発明をいくつかの好ましい実施例を使用して説明したが、これらの実施例は、例示的なものであり、限定的なものではない。本発明が属する技術分野で通常の知識を持った者であれば、本発明の思想と添付された特許請求範囲に記載されている権利範囲から逸脱せずに様々な変更や修正を加えることができることを理解する。





図1
図2
図3
図4
図5
図6
図7
図8
【国際調査報告】