特許第6918139号(P6918139)IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッドの特許一覧

特許6918139道路地図生成方法、装置、電子機器およびコンピュータ記憶媒体
<>
  • 特許6918139-道路地図生成方法、装置、電子機器およびコンピュータ記憶媒体 図000002
  • 特許6918139-道路地図生成方法、装置、電子機器およびコンピュータ記憶媒体 図000003
  • 特許6918139-道路地図生成方法、装置、電子機器およびコンピュータ記憶媒体 図000004
  • 特許6918139-道路地図生成方法、装置、電子機器およびコンピュータ記憶媒体 図000005
  • 特許6918139-道路地図生成方法、装置、電子機器およびコンピュータ記憶媒体 図000006
  • 特許6918139-道路地図生成方法、装置、電子機器およびコンピュータ記憶媒体 図000007
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】6918139
(24)【登録日】2021年7月26日
(45)【発行日】2021年8月11日
(54)【発明の名称】道路地図生成方法、装置、電子機器およびコンピュータ記憶媒体
(51)【国際特許分類】
   G06T 11/60 20060101AFI20210729BHJP
   G09B 29/00 20060101ALI20210729BHJP
   G06T 7/00 20170101ALI20210729BHJP
   G06N 20/00 20190101ALI20210729BHJP
【FI】
   G06T11/60 300
   G09B29/00 A
   G06T7/00 640
   G06T7/00 350C
   G06T7/00 300B
   G06N20/00 130
【請求項の数】17
【全頁数】25
(21)【出願番号】特願2019-558374(P2019-558374)
(86)(22)【出願日】2018年7月19日
(65)【公表番号】特表2020-520493(P2020-520493A)
(43)【公表日】2020年7月9日
(86)【国際出願番号】CN2018096332
(87)【国際公開番号】WO2019056845
(87)【国際公開日】20190328
【審査請求日】2019年10月25日
(31)【優先権主張番号】201710848159.2
(32)【優先日】2017年9月19日
(33)【優先権主張国】CN
(73)【特許権者】
【識別番号】516158932
【氏名又は名称】ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド
(74)【代理人】
【識別番号】110001427
【氏名又は名称】特許業務法人前田特許事務所
(72)【発明者】
【氏名】チョン グアンリアン
(72)【発明者】
【氏名】シー ジエンピン
【審査官】 橘 高志
(56)【参考文献】
【文献】 米国特許出願公開第2016/0239983(US,A1)
【文献】 特開2009−230518(JP,A)
【文献】 米国特許出願公開第2017/0140245(US,A1)
【文献】 齋藤 俊太,Convolutional Neural Networkを用いた航空画像からの建物・道路検出,第22回 画像センシングシンポジウム SSII2016 [USB] The 22nd Symposium on Sensing via Image Information,日本,画像センシング技術研究会
(58)【調査した分野】(Int.Cl.,DB名)
G06T 11/60 − 13/80
G06N 20/00
G06T 7/00
G09B 29/00
(57)【特許請求の範囲】
【請求項1】
リモートセンシング画像を第一ニューラルネットワークに入力し、それによって前記第一ニューラルネットワークによって多チャネルの第一道路特徴情報を抽出することと、
前記多チャネルの第一道路特徴情報を第三ニューラルネットワークに入力し、それによって前記第三ニューラルネットワークによって多チャネルの第三道路特徴情報を抽出することであって、前記第三ニューラルネットワークが、道路方向情報を教師情報として訓練されたニューラルネットワークである、ことと、
前記第一道路特徴情報と前記第三道路特徴情報とを融合することと、
融合結果に基づいて道路地図を生成することと、を含むことを特徴とする道路地図生成方法。
【請求項2】
前記第一道路特徴情報と前記第三道路特徴情報とを融合するステップは、
前記第一道路特徴情報と前記第三道路特徴情報とを加え、または重み付けて加えること、または、
前記第一道路特徴情報と前記第三道路特徴情報とを連結することを含むことを特徴とする請求項1に記載の方法。
【請求項3】
前記第一ニューラルネットワークは、許容道路幅情報を教師情報として訓練されたニューラルネットワークである第二サブニューラルネットワークを含み、
リモートセンシング画像を第一ニューラルネットワークに入力し、それによって前記第一ニューラルネットワークによって多チャネルの第一道路特徴情報を抽出するステップは、
前記リモートセンシング画像を前記第二サブニューラルネットワークに入力し、それによって前記第二サブニューラルネットワークによって多チャネルの第二道路特徴マップを抽出することを含み、ここで、前記第一道路特徴情報は前記第二道路特徴マップを含むことを特徴とする請求項1または2に記載の方法。
【請求項4】
前記第一ニューラルネットワークはさらに第一サブニューラルネットワークを含み、
前記リモートセンシング画像を前記第二サブニューラルネットワークに入力し、それによって前記第二サブニューラルネットワークによって多チャネルの第二道路特徴マップを抽出するステップは、
前記リモートセンシング画像を前記第一サブニューラルネットワークに入力し、それによって前記第一サブニューラルネットワークによって多チャネルの第一道路特徴マップを抽出することと、
前記多チャネルの第一道路特徴マップを前記第二サブニューラルネットワークに入力し、それによって前記第二サブニューラルネットワークによって多チャネルの第二道路特徴マップを抽出することと、を含むことを特徴とする請求項3に記載の方法。
【請求項5】
前記第一ニューラルネットワークはさらに第三サブニューラルネットワークを含み、
前記第二サブニューラルネットワークによって多チャネルの第二道路特徴マップを抽出するステップの後に、さらに、
前記多チャネルの第二道路特徴マップを前記第三サブニューラルネットワークに入力し、それによって前記第三サブニューラルネットワークによって多チャネルの第三道路特徴マップを抽出することを含み、ここで、前記第一道路特徴情報は前記第三道路特徴マップを含むことを特徴とする請求項3または4に記載の方法。
【請求項6】
前記許容道路幅情報は許容道路幅範囲を含み、前記道路地図における少なくとも一つの道路の幅は前記許容道路幅範囲内に収まり、または、
前記許容道路幅情報は所定道路幅を含み、前記道路地図における少なくとも一つの道路の幅は前記所定道路幅であることを特徴とする請求項3から5のいずれか一項に記載の方法。
【請求項7】
融合結果に基づいて道路地図を生成するステップは、
前記融合結果を第四ニューラルネットワークに入力し、それによって前記第四ニューラルネットワークによって多チャネルの第四道路特徴情報を抽出することと、
前記多チャネルの第四道路特徴情報に基づいて道路地図を確定することと、を含むことを特徴とする請求項1から6のいずれか一項に記載の方法。
【請求項8】
前記第四ニューラルネットワークは許容道路幅情報を教師情報として訓練されたニューラルネットワークであることを特徴とする請求項7に記載の方法。
【請求項9】
融合結果に基づいて道路地図を生成するステップの後に、さらに、
前記道路地図における道路の中心線を確定することを含むことを特徴とする請求項1から8のいずれか一項に記載の方法。
【請求項10】
融合結果に基づいて道路地図を生成するステップの後に、さらに、
前記道路地図をベクトル化し、道路ベクトルマップを得ることを含むことを特徴とする請求項1から9のいずれか一項に記載の方法。
【請求項11】
さらに、
リモートセンシング画像サンプルの道路方向基準マップを取得することと、
前記リモートセンシング画像サンプルまたは前記リモートセンシング画像サンプルの多チャネルの道路特徴マップを訓練待ちの第三ニューラルネットワークに入力し、それによって前記訓練待ちの第三ニューラルネットワークによって多チャネルの第四道路特徴マップを抽出することと、
前記多チャネルの第四道路特徴マップに基づいて道路方向回帰マップを確定することと、
前記道路方向回帰マップと前記道路方向基準マップとの間の第一損失を前記訓練待ちの第三ニューラルネットワークに渡し、それによって前記訓練待ちの第三ニューラルネットワークのパラメータを調整することと、を含むことを特徴とする請求項1から10のいずれか一項に記載の方法。
【請求項12】
さらに、
リモートセンシング画像サンプルの等幅道路基準マップを取得することと、
前記リモートセンシング画像サンプルまたは前記リモートセンシング画像サンプルの多チャネルの道路特徴マップを訓練待ちの第二サブニューラルネットワークに入力し、それによって前記訓練待ちの第二サブニューラルネットワークによって多チャネルの第五道路特徴マップを抽出することと、
前記多チャネルの第五道路特徴マップに基づいて第一道路確率マップを確定することと、
前記第一道路確率マップと前記等幅道路基準マップとの間の第二損失を前記訓練待ちの第二サブニューラルネットワークに渡し、それによって前記訓練待ちの第二サブニューラルネットワークのパラメータを調整することと、を含むことを特徴とする請求項3から11のいずれか一項に記載の方法。
【請求項13】
さらに、
リモートセンシング画像サンプルの等幅道路基準マップを取得することと、
前記リモートセンシング画像サンプルまたは前記リモートセンシング画像サンプルの多チャネルの道路特徴マップを訓練待ちの第四ニューラルネットワークに入力し、それによって前記訓練待ちの第四ニューラルネットワークによって多チャネルの第六道路特徴マップを抽出することと、
前記多チャネルの第六道路特徴マップに基づいて第二道路確率マップを確定することと、
前記第二道路確率マップと前記等幅道路基準マップとの間の第三損失を前記訓練待ちの第四ニューラルネットワークに渡し、それによって前記訓練待ちの第四ニューラルネットワークのパラメータを調整することと、を含むことを特徴とする請求項7から12のいずれか一項に記載の方法。
【請求項14】
さらに、
リモートセンシング画像サンプルの等幅道路基準マップおよび道路方向基準マップを取得し、前記リモートセンシング画像サンプルまたは前記リモートセンシング画像サンプルの多チャネルの道路特徴マップを訓練待ちの第二サブニューラルネットワークに入力し、それによって前記訓練待ちの第二サブニューラルネットワークによって多チャネルの第五道路特徴マップを抽出し、前記多チャネルの第五道路特徴マップに基づいて第一道路確率マップを確定することと、
前記リモートセンシング画像サンプルまたは前記リモートセンシング画像サンプルの多チャネルの道路特徴マップを訓練待ちの第三ニューラルネットワークに入力し、それによって前記訓練待ちの第三ニューラルネットワークによって多チャネルの第四道路特徴マップを抽出し、前記多チャネルの第四道路特徴マップに基づいて道路方向回帰マップを確定することと、
前記リモートセンシング画像サンプルまたは前記リモートセンシング画像サンプルの多チャネルの道路特徴マップを訓練待ちの第四ニューラルネットワークに入力し、それによって前記訓練待ちの第四ニューラルネットワークによって多チャネルの第六道路特徴マップを抽出し、前記多チャネルの第六道路特徴マップに基づいて第二道路確率マップを確定することと、
前記道路方向回帰マップと前記道路方向基準マップとの間の第一損失、前記第一道路確率マップと前記等幅道路基準マップとの間の第二損失、前記第二道路確率マップと前記等幅道路基準マップとの間の第三損失を、前記第三ニューラルネットワーク、前記第二サブニューラルネットワークおよび前記第四ニューラルネットワークを含むニューラルネットワークシステムにそれぞれ渡し、それによって前記ニューラルネットワークシステムのネットワークパラメータを総合的に調整することと、を含むことを特徴とする請求項7から10のいずれか一項に記載の方法。
【請求項15】
リモートセンシング画像を第一ニューラルネットワークに入力し、それによって前記第一ニューラルネットワークによって多チャネルの第一道路特徴情報を抽出するための第一道路特徴情報取得ユニットと、
前記多チャネルの第一道路特徴情報を第三ニューラルネットワークに入力し、それによって前記第三ニューラルネットワークによって多チャネルの第三道路特徴情報を抽出するための第三道路特徴情報取得ユニットであって、前記第三ニューラルネットワークが、道路方向情報を教師情報として訓練されたニューラルネットワークである、第三道路特徴情報取得ユニットと、
前記第一道路特徴情報と前記第三道路特徴情報とを融合するための情報融合ユニットと、
融合結果に基づいて道路地図を生成するための道路地図生成ユニットと、を含むことを特徴とする道路地図生成装置。
【請求項16】
実行可能命令を記憶するためのメモリ、および
前記メモリと通信して前記実行可能命令を実行することで請求項1から14のいずれか一項に記載の道路地図生成方法の動作を完了するためのプロセッサを含むことを特徴とする電子機器。
【請求項17】
コンピュータ読み取り可能な命令を記憶するためのコンピュータ記憶媒体であって、前記命令は実行される時に請求項1から14のいずれか一項に記載の道路地図生成方法の動作を実行することを特徴とするコンピュータ記憶媒体。
【発明の詳細な説明】
【技術分野】
【0001】
(関連出願の相互参照)
本願は2017年09月19日に中国特許局に提出された、出願番号CN201710848159.2、発明名称「道路地図生成方法、装置、電子機器およびコンピュータ記憶媒体」の中国特許出願の優先権を主張し、その開示の全てが引用によって本願に組み込まれる。
【0002】
本願はデータ処理の技術分野に関し、選択可能に画像処理の技術分野に関し、特に道路地図生成方法、装置、電子機器およびコンピュータ記憶媒体に関する。
【背景技術】
【0003】
科学技術の発展および社会の進歩に伴い、地図は人々が出かける時に益々重要な役割を果たしてきた。地図によって人々は自分の位置情報または目的地の位置情報をいつどこでも確認でき、それは出かける時の計画立てに役立ち、生活の利便性を向上させる。
【0004】
スマート端末の普及に伴い、電子地図はスマート端末の使用頻度の高いアプリケーションとなっている。電子地図の正確性を向上させるために、実際の地図画像を取得してから、地図画像から道路情報を探し出す必要がある。コンピュータビジョンおよび画像処理技術、例えばサポートベクターマシン、ランダムフォレストのような方法などは、道路画像の認識において重要な用途を有する。
【発明の概要】
【0005】
本願の実施例は道路地図生成の技術的解決手段を提供する。
【0006】
本願の実施例の一態様によれば、リモートセンシング画像を第一ニューラルネットワークに入力し、それによって前記第一ニューラルネットワークによって多チャネルの第一道路特徴情報を抽出することと、前記多チャネルの第一道路特徴情報を、道路方向情報を教師情報として訓練されたニューラルネットワークである第三ニューラルネットワークに入力し、それによって前記第三ニューラルネットワークによって多チャネルの第三道路特徴情報を抽出することと、前記第一道路特徴情報と前記第三道路特徴情報とを融合することと、融合結果に基づいて道路地図を生成することと、を含む道路地図生成方法が提供される。
【0007】
いくつかの実施例では、前記第一道路特徴情報と前記第三道路特徴情報とを融合する前記ステップは、前記第一道路特徴情報と前記第三道路特徴情報とを加え、または重み付けて加えること、または、前記第一道路特徴情報と前記第三道路特徴情報とを連結することを含む。
【0008】
いくつかの実施例では、前記第一ニューラルネットワークは、許容道路幅情報を教師情報として訓練されたニューラルネットワークである第二サブニューラルネットワークを含み、リモートセンシング画像を第一ニューラルネットワークに入力し、それによって前記第一ニューラルネットワークによって多チャネルの第一道路特徴情報を抽出する前記ステップは、前記リモートセンシング画像を前記第二サブニューラルネットワークに入力し、それによって前記第二サブニューラルネットワークによって多チャネルの第二道路特徴マップを抽出することを含み、ここで、前記第一道路特徴情報は前記第二道路特徴マップを含む。
【0009】
いくつかの実施例では、前記第一ニューラルネットワークはさらに第一サブニューラルネットワークを含み、前記リモートセンシング画像を前記第二サブニューラルネットワークに入力し、それによって前記第二サブニューラルネットワークによって多チャネルの第二道路特徴マップを抽出する前記ステップは、前記リモートセンシング画像を前記第一サブニューラルネットワークに入力し、それによって前記第一サブニューラルネットワークによって多チャネルの第一道路特徴マップを抽出することと、前記多チャネルの第一道路特徴マップを前記第二サブニューラルネットワークに入力し、それによって前記第二サブニューラルネットワークによって多チャネルの第二道路特徴マップを抽出することと、を含む。
【0010】
いくつかの実施例では、前記第一ニューラルネットワークはさらに第三サブニューラルネットワークを含み、前記第二サブニューラルネットワークによって多チャネルの第二道路特徴マップを抽出する前記ステップの後に、さらに、前記多チャネルの第二道路特徴マップを前記第三サブニューラルネットワークに入力し、それによって前記第三サブニューラルネットワークによって多チャネルの第三道路特徴マップを抽出することを含み、ここで、前記第一道路特徴情報は前記第三道路特徴マップを含む。
【0011】
いくつかの実施例では、前記許容道路幅情報は許容道路幅範囲を含み、前記道路地図における各道路の幅は前記許容道路幅範囲内に収まり、または、前記許容道路幅情報は所定道路幅を含み、前記道路地図における各道路の幅は前記所定道路幅である。
【0012】
いくつかの実施例では、融合結果に基づいて道路地図を生成する前記ステップは、前記融合結果を第四ニューラルネットワークに入力し、それによって前記第四ニューラルネットワークによって多チャネルの第四道路特徴情報を抽出することと、前記多チャネルの第四道路特徴情報に基づいて道路地図を確定することと、を含む。
【0013】
いくつかの実施例では、前記第四ニューラルネットワークは許容道路幅情報を教師情報として訓練されたニューラルネットワークである。
【0014】
いくつかの実施例では、融合結果に基づいて道路地図を生成する前記ステップの後に、さらに、前記道路地図における道路の中心線を確定することを含む。
【0015】
いくつかの実施例では、融合結果に基づいて道路地図を生成する前記ステップの後に、さらに、前記道路地図をベクトル化し、道路ベクトルマップを得ることを含む。
【0016】
いくつかの実施例では、さらに、リモートセンシング画像サンプルの道路方向基準マップを取得することと、前記リモートセンシング画像サンプルまたは前記リモートセンシング画像サンプルの多チャネルの道路特徴マップを訓練待ちの第三ニューラルネットワークに入力し、それによって前記訓練待ちの第三ニューラルネットワークによって多チャネルの第四道路特徴マップを抽出することと、前記多チャネルの第四道路特徴マップに基づいて道路方向回帰マップを確定することと、前記道路方向回帰マップと前記道路方向基準マップとの間の第一損失を前記訓練待ちの第三ニューラルネットワークに渡し、それによって前記訓練待ちの第三ニューラルネットワークのパラメータを調整することと、を含む。
【0017】
いくつかの実施例では、さらに、リモートセンシング画像サンプルの等幅道路基準マップを取得することと、前記リモートセンシング画像サンプルまたは前記リモートセンシング画像サンプルの多チャネルの道路特徴マップを訓練待ちの第二サブニューラルネットワークに入力し、それによって前記訓練待ちの第二サブニューラルネットワークによって多チャネルの第五道路特徴マップを抽出することと、前記多チャネルの第五道路特徴マップに基づいて第一道路確率マップを確定することと、前記第一道路確率マップと前記等幅道路基準マップとの間の第二損失を前記訓練待ちの第二サブニューラルネットワークに渡し、それによって前記訓練待ちの第二サブニューラルネットワークのパラメータを調整することと、を含む。
【0018】
いくつかの実施例では、さらに、リモートセンシング画像サンプルの等幅道路基準マップを取得することと、前記リモートセンシング画像サンプルまたは前記リモートセンシング画像サンプルの多チャネルの道路特徴マップを訓練待ちの第四ニューラルネットワークに入力し、それによって前記訓練待ちの第四ニューラルネットワークによって多チャネルの第六道路特徴マップを抽出することと、前記多チャネルの第六道路特徴マップに基づいて第二道路確率マップを確定することと、前記第二道路確率マップと前記等幅道路基準マップとの間の第三損失を前記訓練待ちの第四ニューラルネットワークに渡し、それによって前記訓練待ちの第四ニューラルネットワークのパラメータを調整することと、を含む。
【0019】
いくつかの実施例では、さらに、リモートセンシング画像サンプルの等幅道路基準マップおよび道路方向基準マップを取得し、前記リモートセンシング画像サンプルまたは前記リモートセンシング画像サンプルの多チャネルの道路特徴マップを訓練待ちの第二サブニューラルネットワークに入力し、それによって前記訓練待ちの第二サブニューラルネットワークによって多チャネルの第五道路特徴マップを抽出し、そして前記多チャネルの第五道路特徴マップに基づいて第一道路確率マップを確定することと、
前記リモートセンシング画像サンプルまたは前記リモートセンシング画像サンプルの多チャネルの道路特徴マップを訓練待ちの第三ニューラルネットワークに入力し、それによって前記訓練待ちの第三ニューラルネットワークによって多チャネルの第四道路特徴マップを抽出し、そして前記多チャネルの第四道路特徴マップに基づいて道路方向回帰マップを確定することと、前記リモートセンシング画像サンプルまたは前記リモートセンシング画像サンプルの多チャネルの道路特徴マップを訓練待ちの第四ニューラルネットワークに入力し、それによって前記訓練待ちの第四ニューラルネットワークによって多チャネルの第六道路特徴マップを抽出し、そして前記多チャネルの第六道路特徴マップに基づいて第二道路確率マップを確定することと、前記道路方向回帰マップと前記道路方向基準マップとの間の第一損失、前記第一道路確率マップと前記等幅道路基準マップとの間の前記第二損失、前記第二道路確率マップと前記等幅道路基準マップとの間の第三損失を、前記第三ニューラルネットワーク、前記第二サブニューラルネットワークおよび前記第四ニューラルネットワークを含むニューラルネットワークシステムにそれぞれ渡し、それによって前記ニューラルネットワークシステムのネットワークパラメータを総合的に調整することと、を含む。
【0020】
本願の実施例の別の一態様によれば、リモートセンシング画像を第一ニューラルネットワークに入力し、それによって前記第一ニューラルネットワークによって多チャネルの第一道路特徴情報を抽出するための第一道路特徴情報取得ユニットと、前記多チャネルの第一道路特徴情報を、少なくとも道路方向情報を教師情報として訓練されたニューラルネットワークである第三ニューラルネットワークに入力し、それによって前記第三ニューラルネットワークによって多チャネルの第三道路特徴情報を抽出するための第三道路特徴情報取得ユニットと、前記第一道路特徴情報と前記第三道路特徴情報とを融合するための情報融合ユニットと、融合結果に基づいて道路地図を生成するための道路地図生成ユニットと、を含む道路地図生成装置が提供される。
【0021】
いくつかの実施例では、前記情報融合ユニットは、前記第一道路特徴情報と前記第三道路特徴情報とを加え、または重み付けて加えること、または、前記第一道路特徴情報と前記第三道路特徴情報とを連結することに用いられる。
【0022】
いくつかの実施例では、前記第一ニューラルネットワークは、許容道路幅情報を教師情報として訓練されたニューラルネットワークである第二サブニューラルネットワークを含み、前記第一道路特徴情報取得ユニットは、前記リモートセンシング画像を前記第二サブニューラルネットワークに入力し、それによって前記第二サブニューラルネットワークによって多チャネルの第二道路特徴マップを抽出するための第一取得サブユニットを含み、ここで、前記第一道路特徴情報は前記第二道路特徴マップを含む。
【0023】
いくつかの実施例では、前記第一ニューラルネットワークはさらに第一サブニューラルネットワークを含み、前記第一道路特徴情報取得ユニットはさらに、前記リモートセンシング画像を前記第一サブニューラルネットワークに入力し、それによって前記第一サブニューラルネットワークによって多チャネルの第一道路特徴マップを抽出するための第一取得サブユニットを含み、前記第二取得サブユニットは、前記多チャネルの第一道路特徴マップを第二サブニューラルネットワークに入力し、それによって前記第二サブニューラルネットワークによって多チャネルの第二道路特徴マップを抽出するために用いられる。
【0024】
いくつかの実施例では、前記第一ニューラルネットワークはさらに第三サブニューラルネットワークを含み、前記第一道路特徴情報取得ユニットはさらに、前記多チャネルの第二道路特徴マップを第三サブニューラルネットワークに入力し、それによって前記第三サブニューラルネットワークによって多チャネルの第三道路特徴マップを抽出するための第三取得サブユニットを含み、ここで、前記第一道路特徴情報は前記第三道路特徴マップを含む。
【0025】
いくつかの実施例では、前記許容道路幅情報は許容道路幅範囲を含み、前記道路地図における少なくとも一つの道路の幅は前記許容道路幅範囲内に収まり、または、前記許容道路幅情報は所定道路幅を含み、前記道路地図における少なくとも一つの道路の幅は前記所定道路幅である。
【0026】
いくつかの実施例では、前記道路地図生成ユニットは、前記融合結果を第四ニューラルネットワークに入力し、それによって前記第四ニューラルネットワークによって多チャネルの第四道路特徴情報を抽出するための第四取得サブユニットと、前記多チャネルの第四道路特徴情報に基づいて道路地図を確定するための道路地図確定サブユニットと、を含む。
【0027】
いくつかの実施例では、前記第四ニューラルネットワークは許容道路幅情報を教師情報として訓練されたニューラルネットワークである。
【0028】
いくつかの実施例では、前記道路地図生成ユニットはさらに、前記道路地図における道路の中心線を確定するための中心線確定サブユニットを含む。
【0029】
いくつかの実施例では、前記道路地図生成ユニットはさらに、前記道路地図をベクトル化し、道路ベクトルマップを得るための道路ベクトルマップ取得サブユニットを含む。
【0030】
いくつかの実施例では、さらに、訓練用リモートセンシング画像の道路方向基準マップを取得し、前記訓練用リモートセンシング画像またはそれの多チャネルの道路特徴マップを訓練待ちの第三ニューラルネットワークに入力し、それによって前記訓練待ちの第三ニューラルネットワークによって多チャネルの第四道路特徴マップを抽出し、前記多チャネルの第四道路特徴マップに基づいて道路方向回帰マップを確定し、そして前記道路方向回帰マップと前記道路方向基準マップとの間の第一損失を前記訓練待ちの第三ニューラルネットワークに渡し、それによって前記訓練待ちの第三ニューラルネットワークのパラメータを調整するための前記第三ニューラルネットワークの訓練ユニットを含む。
【0031】
いくつかの実施例では、さらに、訓練用のリモートセンシング画像またはそれの多チャネルの道路特徴マップを訓練待ちの第二サブニューラルネットワークに入力し、それによって前記訓練待ちの第二サブニューラルネットワークによって多チャネルの第五道路特徴マップ抽出し、前記多チャネルの第五道路特徴マップに基づいて第一道路確率マップを確定し、そして前記第一道路確率マップと前記等幅道路基準マップとの間の第二損失を前記訓練待ちの第二サブニューラルネットワークに渡し、それによって前記訓練待ちの第二サブニューラルネットワークのパラメータを調整するための前記第二サブニューラルネットワークの訓練ユニットを含む。
【0032】
いくつかの実施例では、さらに、訓練用リモートセンシング画像の等幅道路基準マップを取得し、前記訓練用リモートセンシング画像またはそれの多チャネルの道路特徴マップを訓練待ちの第四ニューラルネットワークに入力し、それによって訓練待ちの第四ニューラルネットワークによって多チャネルの第六道路特徴マップを抽出し、前記多チャネルの第六道路特徴マップに基づいて第二道路確率マップを確定し、そして前記第二道路確率マップと前記等幅道路基準マップとの間の第三損失を前記訓練待ちの第四ニューラルネットワークに渡し、それによって前記訓練待ちの第四ニューラルネットワークのパラメータを調整するための前記第四ニューラルネットワークの訓練ユニットを含む。
【0033】
いくつかの実施例では、前記第三ニューラルネットワークの訓練ユニットは前記第一損失を、前記第二サブニューラルネットワークの訓練ユニットは前記第二損失を、前記第四ニューラルネットワークの訓練ユニットは前記第三損失を前記第三ニューラルネットワーク、前記第二サブニューラルネットワークおよび前記第四ニューラルネットワークを含むニューラルネットワークシステムにそれぞれ渡し、それによって前記ニューラルネットワークシステムのネットワークパラメータを総合的に調整する。
【0034】
本願の実施例のさらに別の一態様によれば、実行可能命令を記憶するためのメモリ、および前記メモリと通信して前記実行可能命令を実行することで本願の上記いずれか一つの実施例に記載の道路地図生成方法の動作を完了するためのプロセッサを含む電子機器が提供される。
【0035】
本願の実施例のさらに別の一態様によれば、コンピュータ読み取り可能な命令を記憶するためのコンピュータ記憶媒体であって、前記命令は実行される時に本願の上記いずれか一つの実施例に記載の道路地図生成方法の動作を実行するコンピュータ記憶媒体が提供される。
【0036】
本願の実施例のさらに別の一態様によれば、コンピュータ読み取り可能コードを含むコンピュータプログラムであって、前記コンピュータ読み取り可能コードが機器において運用される時、前記機器内のプロセッサは本願の上記いずれか一つの実施例に記載の道路地図生成方法を実現するための動作を実行するコンピュータプログラムが提供される。
【0037】
本願の実施例が提供する道路地図生成方法、装置、電子機器およびコンピュータ記憶媒体は、リモートセンシング画像を第一ニューラルネットワークに入力し、多チャネルの第一道路特徴情報を得て、続いて多チャネルの第一道路特徴情報を、道路方向情報を教師情報として訓練されたニューラルネットワークである第三ニューラルネットワークに入力し、多チャネルの第三道路特徴情報を得て、その後、第一道路特徴情報と第三道路特徴情報とを融合し、そして融合結果に基づいて道路地図を生成し、リモートセンシング画像に対する道路方向特徴抽出の正確性を向上させる。
【0038】
以下に図面および実施例により、本発明の技術的解決手段をさらに詳細に説明する。
【図面の簡単な説明】
【0039】
明細書の一部となる図面は本発明の実施例を説明するものであり、かつその説明と共に本発明の原理を解釈するために用いられる。
【0040】
図面と関連付けて、以下の詳細な説明によれば、本開示をより明確に理解できる。そのうち、
以下の図面と関連付けた、非限定的実施例に対する詳細な説明を読むことで、本願の実施例の他の特徴、目的および利点はより明確になる。
図1】本願の実施例を適用可能な例示的システムアーキテクチャ図である。
図2】本願の実施例に係る道路地図生成方法の一フローチャートである。
図3a】本願の実施例に係る道路地図生成方法の応用シーンの一模式図である。
図3b図3aから道路特徴を抽出した道路地図である。
図4】本願の実施例に係る道路地図生成装置の一構成模式図である。
図5】本願の実施例に係るサーバの一構成模式図である。
【発明を実施するための形態】
【0041】
以下に図面と実施例を関連付けて本願をさらに詳細に説明する。なお、ここで説明した任意選択的な実施例は関連発明を説明するためのものに過ぎず、該発明を限定するものではないことが理解される。また、指摘しておきたいのは、説明の便宜上、図面には関連発明に関連する部分のみが示されるということである。
【0042】
なお、特に断らない限り、これらの実施例において記述した部材およびステップの相対的配置、数式および数値は本発明の範囲を限定するものではないことに注意すべきである。
【0043】
同時に、説明の便宜上、図面に示した各部分の寸法は実際の比例関係に従って描いたものではないことを理解すべきである。
【0044】
関連分野の当業者に既知の技術、方法および機器については、詳細に説明しないが、場合によって、前記技術、方法および機器は明細書の一部と見なすべきである。
【0045】
なお、類似する符号および英文字は以下の図面において類似項目を表し、従って、ある一項が一つの図面において定義されれば、以降の図面においてそれをさらに説明する必要がないことに注意すべきである。
【0046】
当業者であれば、本願の実施例における「第一」、「第二」などの用語は異なるステップ、機器またはモジュールなどを区別するためのものに過ぎず、なんらの確定の技術的意味も有さず、またそれらの間の必然的な論理的順序を表すものでもない。
【0047】
なお、本願の実施例および実施例における特徴は、矛盾することなく互いに組み合わせることができることに注意すべきである。
【0048】
本発明の実施例は端末機器、コンピュータシステム、サーバなどの電子機器に適用可能で、他の様々な共通または専用計算システム環境または構成と共に動作可能である。端末機器、コンピュータシステム、サーバなどの電子機器との併用に適する公知の端末機器、計算システム、環境および/または構成の例は、パーソナルコンピュータシステム、サーバコンピュータシステム、シンクライアント、ファットクライアント、手持ちまたはラップトップデバイス、マイクロプロセッサに基づくシステム、セットトップボックス、プログラマブル消費者用電子機器、ネットワークパソコン、小型コンピュータシステム、大型コンピュータシステムおよび上記あらゆるシステムを含む分散型クラウドコンピューティング技術環境などを含むが、これらに限定されない。
【0049】
端末機器、コンピュータシステム、サーバなどの電子機器はコンピュータシステムにより実行されるコンピュータシステム実行可能命令(例えばプログラムモジュール)の一般的なコンテキストにおいて説明できる。通常、プログラムモジュールは、確定のタスクを実行するかまたは確定の抽象データ型を実現するルーチン、プログラム、目標プログラム、コンポーネント、ロジック、データ構造などを含むことができる。コンピュータシステム/サーバは、タスクが通信ネットワークにわたって接続された遠隔処理機器により実行される分散型クラウドコンピューティング環境において実施できる。分散型クラウドコンピューティング環境において、プログラムモジュールは記憶機器を含むローカルまたは遠隔計算システムの記憶媒体に存在してもよい。
【0050】
以下に図面と実施例を関連付けて本願の実施例を詳細に説明する。図1は本願の実施例を適用可能な道路地図生成方法および道路地図生成装置の一例示的システムアーキテクチャ100を示す。
【0051】
図1に示すように、システムアーキテクチャ100は端末機器101(例えば、空撮対象など)、端末機器102(例えば、人工衛星など)、ネットワーク103および電子機器104を含んでもよい。ネットワーク103は端末機器101、102および電子機器104の間で通信リンクの媒体を提供するために用いられる。ネットワーク103は様々な接続タイプ、例えば有線、無線通信リンクまたは光ファイバーケーブルなどを含んでもよい。
【0052】
ユーザは端末機器101、102を用いてネットワーク103によって電子機器104と対話し、それによって画像情報などを送受信することができる。端末機器101、102はセンサを載せるための運搬用具で、一般的には風船、空撮対象および人工衛星などが挙げられ、それらは遠距離から目標物体の電磁波特性を取得し、該画像情報の伝送、保存、修正、目標物体の認識によって、最終的にその機能(例えば、タイマー機能、測位機能、定性機能、定量機能)を実現する。センサは例えば目標物の電磁波特性を検知するための計器や機器であってもよく、一般的にはカメラ、スキャナーおよび画像レーダなどが挙げられる。
【0053】
電子機器104は様々なサービスを提供するサーバ、例えば端末機器101、102に載せたセンサからリモートセンシング画像を取得するバックエンド画像処理サーバであってもよい。バックエンド画像処理サーバは受信したリモートセンシング画像などのデータの解析などの処理を行い、処理結果(例えば対象検出結果)を出力することができる。
【0054】
なお、本願の実施例が提供する道路地図生成方法は上記電子機器104によって実行可能であり、それに対して、道路地図生成装置は上記サーバ104内に設置可能であることに注意すべきである。
【0055】
なお、図1における端末機器、ネットワークおよび電子機器の数は例示的なものに過ぎないことを理解すべきである。実現要求に応じて、任意の数の端末機器、ネットワークおよび電子機器を設けることができる。
【0056】
図2を参照すると、本願の実施例に係る道路地図生成方法の一フローチャート200が示され、該道路地図生成方法は以下を含む。
【0057】
ステップ201、リモートセンシング画像を第一ニューラルネットワークに入力し、それによって前記第一ニューラルネットワークによって多チャネルの第一道路特徴情報を抽出する。
【0058】
本実施例では、本実施例を実現するための電子機器(例えば図1に示す電子機器104)は有線または無線の方式で端末機器101、102から送信されるリモートセンシング画像を受信し、リモートセンシング画像を処理し、第一道路特徴情報を得ることができる。ここで指摘しておきたいのは、上記無線接続方式は例えば3G/4G接続、WiFi接続、ブルートゥース接続、ワイヤレスメトロポリタンエリアネットワーク(WiMAX)接続、ワイヤレスパーソナルエリアネットワーク(Zigbee)接続、超広帯域(ultra wideband、UWB)接続、または他の従来既知のまたは将来開発される無線接続方式などを含むことができるが、これらに限定されないということである。
【0059】
複数のチャネルを含む上記リモートセンシング画像を取得してから、リモートセンシング画像から多チャネルの第一道路特徴情報を抽出可能な第一ニューラルネットワークに該リモートセンシング画像を導入する。そのうち、第一道路特徴情報は例えばリモートセンシング画像から抽出された道路幅を含む道路特徴情報であってもよい。
【0060】
本実施例のいくつかの任意選択的な実施形態では、前記第一ニューラルネットワークは第二サブニューラルネットワークを含んでもよく、ここで、前記第二サブニューラルネットワークは許容道路幅情報を教師情報として訓練されたニューラルネットワークであってもよい。それに対して、該実施形態では、リモートセンシング画像を第一ニューラルネットワークに入力し、それによって前記第一ニューラルネットワークによって多チャネルの第一道路特徴情報を抽出する前記ステップは、前記リモートセンシング画像を前記第二サブニューラルネットワークに入力し、それによって前記第二サブニューラルネットワークによって多チャネルの第二道路特徴マップ(Feature−map)を抽出することを含んでもよい。それに対して、該実施形態では、前記第一道路特徴情報は該第二道路特徴マップを含む。
【0061】
該実施形態に基づき、リモートセンシング画像を取得してから、そのままリモートセンシング画像を、許容道路幅情報を教師情報として訓練されたニューラルネットワークである、リモートセンシング画像における道路画像を認識し、リモートセンシング画像から許容幅を含む多チャネルの第二道路特徴マップを抽出可能な第二サブニューラルネットワークに入力してもよい。例示的に、該第二サブニューラルネットワークは複数の畳み込み層を含んでもよく、各畳み込み層の後に一つの正規化層および非線形層を連結し、最後に畳み込みカーネルが設定サイズに設定された一つの分類層を接続してから多チャネルの第二道路特徴マップを出力させることができる。
【0062】
本実施例の別のいくつかの任意選択的な実施形態では、前記第一ニューラルネットワークは第一サブニューラルネットワークおよび第二サブニューラルネットワークを含んでもよい。それに対して、該実施形態では、リモートセンシング画像を第一ニューラルネットワークに入力し、それによって前記第一ニューラルネットワークによって多チャネルの第一道路特徴情報を抽出する前記ステップは、前記リモートセンシング画像を前記第一サブニューラルネットワークに入力し、それによって前記第一サブニューラルネットワークによって多チャネルの第一道路特徴マップを抽出することと、前記多チャネルの第一道路特徴マップを、許容道路幅情報を教師情報として訓練されたニューラルネットワークである第二サブニューラルネットワークに入力し、それによって前記第二サブニューラルネットワークによって多チャネルの第二道路特徴マップを抽出することと、を含んでもよい。それに対して、該実施形態では、前記第一道路特徴情報は該第二道路特徴マップを含む。
【0063】
該実施形態では、第一ニューラルネットワークは第一サブニューラルネットワークおよび第二サブニューラルネットワークを含んでもよい。リモートセンシング画像のデータ処理を加速するために、第一サブニューラルネットワークによってリモートセンシング画像のサイズを縮小してもよい。第一サブニューラルネットワークは例えば畳み込みおよびダウンサンプリングの方式で、リモートセンシング画像から多チャネルの第一道路特徴マップを抽出することができる。その後、第一道路特徴マップを第二サブニューラルネットワークに入力し、許容幅を含む多チャネルの第二道路特徴マップを得る。
【0064】
本実施例のさらに別のいくつかの任意選択的な実現形態では、前記第一ニューラルネットワークは第一サブニューラルネットワーク、第二サブニューラルネットワークおよび第三サブニューラルネットワークを含んでもよい。それに対して、該実施形態では、リモートセンシング画像を第一ニューラルネットワークに入力し、それによって前記第一ニューラルネットワークによって多チャネルの第一道路特徴情報を抽出する前記ステップは、前記リモートセンシング画像を前記第一サブニューラルネットワークに入力し、それによって前記第一サブニューラルネットワークによって多チャネルの第一道路特徴マップを抽出することと、前記多チャネルの第一道路特徴マップを、許容道路幅情報を教師情報として訓練されたニューラルネットワークである第二サブニューラルネットワークに入力し、それによって前記第二サブニューラルネットワークによって多チャネルの第二道路特徴マップを抽出することと、前記多チャネルの第二道路特徴マップを第三サブニューラルネットワークに入力し、それによって前記第三サブニューラルネットワークによって多チャネルの第三道路特徴マップを抽出することと、を含んでも良い。前記第一道路特徴情報は該第三道路特徴マップを含む。
【0065】
該実施形態では、第一ニューラルネットワークはさらに第一サブニューラルネットワーク、第二サブニューラルネットワークおよび第三サブニューラルネットワークを含んでもよい。そのうち、第一サブニューラルネットワークおよび第二サブニューラルネットワークは上記実施形態における記述と同じであってもよい。多チャネルの第二道路特徴マップを得ると、多チャネルの第二道路特徴マップを第三サブニューラルネットワークに入力し、第三サブニューラルネットワークによって第二道路特徴マップのノイズを除去してから、多チャネルの第三道路特徴マップを出力することができる。本実施例を採用すれば、等幅で平滑な道路を得て、リモートセンシング画像における障害物の遮蔽、画像の解像度、抽出精度などの要因による抽出された道路特徴マップにおけるバリ現象を改善することができる。
【0066】
本実施例のいくつかの任意選択的な実施形態では、前記許容道路幅情報は許容道路幅範囲であってもよく、前記道路地図における少なくとも一つの道路(例えば、各道路)の幅は前記許容道路幅範囲内に収まり、または、前記許容道路幅情報は所定道路幅であってもよく、前記道路地図における少なくとも一つの道路(例えば、各道路)の幅は前記所定道路幅である。
【0067】
本願の実施例では、リモートセンシング画像は異なる高度で撮影されてもよく、正確な道路地図を得るためには、許容道路幅範囲を設定し、道路地図における一部または全ての道路の幅を前記許容道路幅範囲内に収め、それによって実際の道路の幅にできるだけ適合させるようにしてもよい。また、道路幅を所定道路幅に設定し、道路地図における一部または全ての道路の幅を所定道路幅にするようにしてもよい。
【0068】
本実施例のいくつかの任意選択的な実施形態では、さらに前記第二サブニューラルネットワークの訓練方法、例えば以下を含んでもよい。
【0069】
第一に、リモートセンシング画像サンプル(即ち、訓練用のリモートセンシング画像)の等幅道路基準マップ(groundtruth)を取得する。
【0070】
第二サブニューラルネットワークによって等幅道路の特徴を抽出するために、まずリモートセンシング画像サンプルの等幅道路基準マップを取得しなければならず、そのうち手動によるラベル付けまたは機械によるラベル付けまたは他の方法によって予め等幅道路基準マップを取得するように取得してもよい。該等幅道路基準マップは等幅道路が予めラベル付けされたリモートセンシング画像であってもよく、第二サブニューラルネットワークの訓練プロセスにおいて教師情報として使用される。
【0071】
第二に、上記リモートセンシング画像サンプルまたはリモートセンシング画像サンプルの多チャネルの道路特徴マップを訓練待ちの第二サブニューラルネットワークに入力し、それによって該訓練待ちの第二サブニューラルネットワークによって多チャネルの第五道路特徴マップを抽出する。
【0072】
第二サブニューラルネットワークの訓練データはリモートセンシング画像サンプルであってもよいし、リモートセンシング画像サンプルから抽出された多チャネルの道路特徴マップであってもよく、上記訓練データを訓練待ちの第二サブニューラルネットワークに入力すると、訓練待ちの第二サブニューラルネットワークは訓練用のリモートセンシング画像サンプルまたはリモートセンシング画像サンプルの多チャネルの道路特徴マップなどの訓練データから対応する道路幅特徴情報を抽出し、対応する多チャネルの第五道路特徴マップを得ることができる。
【0073】
第三に、前記多チャネルの第五道路特徴マップに基づいて第一道路確率マップを確定する。
【0074】
第五道路特徴マップを得てから、第五道路特徴マップの画像処理を行い、それによって第一道路確率マップを確定することができる。そのうち、第一道路確率マップは第五道路特徴マップにおける少なくとも一つの画素点(例えば各画素点)が道路に属する確率を特徴付けるために用いられる。任意選択的に、第一道路確率マップを確定してから、該第一道路確率マップの正規化処理を行い、さらに後続の処理を行うことができる。
【0075】
第四に、前記第一道路確率マップと前記等幅道路基準マップとの間の第二損失を前記訓練待ちの第二サブニューラルネットワークに渡し、それによって前記訓練待ちの第二サブニューラルネットワークのパラメータを調整する。
【0076】
上記等幅道路基準マップは理想的な状態での効果マップと認められてもよい。通常、第一道路確率マップと等幅道路基準マップとの間には誤差が存在し、この誤差は第二損失と見なしてもよく、該第二損失を訓練待ちの第二サブニューラルネットワークに渡すと、訓練待ちの第二サブニューラルネットワークのパラメータを調整し、それによって第二損失を減少させ、訓練待ちの第二サブニューラルネットワークによる等幅道路特徴抽出の正確性を向上させることができる。
【0077】
任意選択的な一例では、該ステップ201はメモリに記憶された対応する命令をプロセッサによって呼び出して実行してもよいし、プロセッサにより運用される第一道路特徴情報取得ユニット401によって実行してもよい。
【0078】
ステップ202、前記多チャネルの第一道路特徴情報を第三ニューラルネットワークに入力し、それによって前記第三ニューラルネットワークによって多チャネルの第三道路特徴情報を抽出する。
【0079】
第一道路特徴情報を得てから、第一道路特徴情報を第三ニューラルネットワークに入力し、さらに第三道路特徴情報を得ることができる。第三道路特徴情報は第一道路特徴情報のもとに、道路の方向情報が追加された特徴情報であってもよい。そのうち、前記第三ニューラルネットワークは少なくとも道路方向情報を教師情報として訓練されたニューラルネットワークである。
【0080】
本実施例のいくつかの任意選択的な実施形態では、さらに前記第三ニューラルネットワークの訓練方法、例えば以下を含んでもよい。
【0081】
第一に、リモートセンシング画像サンプルの道路方向基準マップ(groundtruth)を取得する。
【0082】
第三ニューラルネットワークによって道路の方向特徴を抽出するために、まずリモートセンシング画像の道路方向基準マップを取得しなければならない。道路方向基準マップは道路方向が予めラベル付けされたリモートセンシング画像であってもよく、そのうち手動によるラベル付け、機械によるラベル付けまたは他の方式によって予め取得するように予めラベル付けしてもよい。
【0083】
第二に、リモートセンシング画像サンプルまたはリモートセンシング画像サンプルの多チャネルの道路特徴マップを訓練待ちの第三ニューラルネットワークに入力し、それによって訓練待ちの第三ニューラルネットワークによって多チャネルの第四道路特徴マップを抽出する。
【0084】
第三ニューラルネットワークの訓練データはリモートセンシング画像サンプルであってもよいし、リモートセンシング画像サンプルから抽出された多チャネルの道路特徴マップであってもよく、上記訓練データを訓練待ちの第三ニューラルネットワークに入力すると、訓練待ちの第三ニューラルネットワークは訓練用のリモートセンシング画像サンプルまたはそれの多チャネルの道路特徴マップから対応する方向特徴情報を抽出し、対応する多チャネルの第四道路特徴マップを得ることができる。
【0085】
第三に、前記多チャネルの第四道路特徴マップに基づいて道路方向回帰マップを確定する。
【0086】
第四道路特徴マップを得てから、第四道路特徴マップの画像処理を行い、それによって道路方向回帰マップを確定することができる。そのうち、道路方向回帰マップは多チャネルの特徴マップの対応する画素を特徴付けるための値であり、正規化処理を行わずに、直接後続の処理を行うことができる。任意選択的に、道路方向回帰マップにおける単一の画素の値は0〜180のある数字であってもよく、基準方向に対する該画素の道路方向のオフセット角を表す。
【0087】
第四に、前記道路方向回帰マップと前記道路方向基準マップとの間の第一損失を前記訓練待ちの第三ニューラルネットワークに渡し、それによって前記訓練待ちの第三ニューラルネットワークのパラメータを調整する。
【0088】
道路方向基準マップは理想的な状態での道路方向の効果マップである。通常、道路方向回帰マップと道路方向基準マップとの間には誤差が存在し、この誤差は第一損失と認められてもよい。第一損失を訓練待ちの第三ニューラルネットワークに渡すと、該訓練待ちの第三ニューラルネットワークのパラメータを調整し、それによって第一損失を減少させ、訓練待ちの第三ニューラルネットワークによる道路方向特徴抽出の正確性を向上させることができる。
【0089】
任意選択的な一例では、該ステップ202はメモリに記憶された対応する命令をプロセッサによって呼び出して実行してもよいし、プロセッサにより運用される第三道路特徴情報取得ユニット402によって実行してもよい。
【0090】
ステップ203、前記第一道路特徴情報と前記第三道路特徴情報とを融合する。
【0091】
第一道路特徴情報はリモートセンシング画像から抽出された一定道路幅の道路特徴情報であってもよく、第三道路特徴情報は第一道路特徴情報のもとに、道路の方向情報が追加された特徴情報であってもよく、第一道路特徴情報と第三道路特徴情報とを融合すると、道路特徴情報に道路幅特徴および道路の方向特徴を同時に含ませることができる。
【0092】
本実施例のいくつかの任意選択的な実施形態では、前記第一道路特徴情報と前記第三道路特徴情報とを融合する前記ステップは、前記第一道路特徴情報と前記第三道路特徴情報とを加え、または重み付けて加えること、または、前記第一道路特徴情報と前記第三道路特徴情報とを連結することを含んでもよい。
【0093】
上記説明からわかるように、第一道路特徴情報はリモートセンシング画像から抽出された一定道路幅の道路特徴情報であってもよい。従って、第一道路特徴情報は一定道路幅を含む画像であってもよい。同様に、第三道路特徴情報は道路の方向情報を含む画像であってもよい。第一道路特徴情報に対応する画像における画素と第三道路特徴情報に対応する画像における画素とを直接組み合わせる(加える)か、または一定の重みに基づいて組み合わせる(重み付け)と、第一道路特徴情報と第三道路特徴情報との融合を実現することができる。または、第一道路特徴情報に基づき、第一道路特徴情報に対応する画像と第三道路特徴情報に対応する画像とを直接連結し、第一道路特徴情報と第三道路特徴情報との融合を実現するようにしてもよい。
【0094】
任意選択的な一例では、該ステップ203はメモリに記憶された対応する命令をプロセッサによって呼び出して実行してもよいし、プロセッサにより運用される情報融合ユニット403によって実行してもよい。
【0095】
ステップ204、融合結果に基づいて道路地図を生成する。
【0096】
第一道路特徴情報と第三道路特徴情報とを融合すると、道路特徴情報に道路幅特徴および道路の方向特徴を同時に含ませることができる。道路幅特徴および道路の方向特徴基づいて道路地図を生成することができる。
【0097】
本実施例のいくつかの任意選択的な実施形態では、融合結果に基づいて道路地図を生成する前記ステップは、前記融合結果を第四ニューラルネットワークに入力し、それによって前記第四ニューラルネットワークによって多チャネルの第四道路特徴情報を抽出することと、前記多チャネルの第四道路特徴情報に基づいて道路地図を確定することと、を含んでもよい。
【0098】
第一道路特徴情報と第三道路特徴情報との融合結果を第四ニューラルネットワークに入力し、第四ニューラルネットワークによって幅特徴と道路の方向特徴とを結合させて多チャネルの第四道路特徴情報を得て、多チャネルの第四道路特徴情報によって道路地図を確定する。そのうち、第四ニューラルネットワークは許容道路幅情報を教師情報として訓練されたニューラルネットワークである。
【0099】
ナビゲーション、ステアリング、レーン保持などの自動または補助運転制御を実現するために、前記第四ニューラルネットワークによって道路地図を取得した後に、さらに、前記道路地図における道路の中心線を確定することを含んでもよい。中心線によってナビゲーション、ステアリング、レーン保持などの自動または補助運転制御の精度を向上させることができる。従来の方法は道路交差点の画像を取得する時、リモートセンシング画像の障害物による遮蔽、画像の解像度、抽出精度などの要因によって抽出した道路交差点での中心線の抽出効果が悪く、バリ、平滑でないなどの現象が発生し得るが、本実施例における道路特徴および道路方向によって、平滑な中心線を抽出可能で、道路交差点の画像を取得する時の、リモートセンシング画像の障害物による遮蔽、画像の解像度、抽出精度などの要因によって抽出した道路交差点での中心線の抽出効果が悪いことにより発生するバリ、平滑でないなどの現象を改善することができる。
【0100】
ナビゲーション、ステアリング、レーン保持などの自動または補助運転制御を実現するために、道路地図のデータを読み取る必要がある。そこで、前記第四ニューラルネットワークによって道路地図を取得した後に、さらに、前記道路地図をベクトル化し、道路ベクトルマップを得ることを含んでもよい。道路ベクトルマップによって、ナビゲーション、ステアリング、レーン保持などの自動または補助運転制御の命令を生成することができる。
【0101】
また、リモートセンシング画像に道路遮蔽が存在する場合、さらに道路幅特徴および道路の方向特徴などの情報によって遮蔽された道路を補完し、それによって道路地図における道路の正確度を向上させることができる。
【0102】
本実施例のいくつかの任意選択的な実施形態では、さらに前記第四ニューラルネットワークの訓練方法、例えば以下を含んでもよい。
【0103】
第一に、リモートセンシング画像サンプル(即ち、訓練用のリモートセンシング画像)の等幅道路基準マップを取得する。
【0104】
第二に、上記リモートセンシング画像サンプルまたはリモートセンシング画像サンプルの多チャネルの道路特徴マップを訓練待ちの第四ニューラルネットワークに入力し、それによって該訓練待ちの第四ニューラルネットワークによって多チャネルの第六道路特徴マップを抽出する。
【0105】
第三に、前記多チャネルの第六道路特徴マップに基づいて第二道路確率マップを確定する。
【0106】
第四に、前記第二道路確率マップと前記等幅道路基準マップとの間の第三損失を前記訓練待ちの第四ニューラルネットワークに渡し、それによって前記訓練待ちの第四ニューラルネットワークのパラメータを調整する。
【0107】
第四ニューラルネットワークの訓練プロセスは上記第二サブニューラルネットワークの訓練プロセスに類似し、関連する部分は互いに参照すればよく、ここでは説明を省略する。
【0108】
本実施例のいくつかの任意選択的な実施形態では、訓練プロセスにおいて、前記第一損失、前記第二損失および前記第三損失を前記第三ニューラルネットワーク、前記第二サブニューラルネットワークおよび前記第四ニューラルネットワークを含むニューラルネットワークシステムにそれぞれ渡し、それによって前記ニューラルネットワークシステムのネットワークパラメータを総合的に調整するようにしてもよく、例えば、
リモートセンシング画像サンプルの等幅道路基準マップおよび道路方向基準マップを取得し、該リモートセンシング画像サンプルまたは該リモートセンシング画像サンプルの多チャネルの道路特徴マップを訓練待ちの第二サブニューラルネットワークに入力し、それによって該訓練待ちの第二サブニューラルネットワークによって多チャネルの第五道路特徴マップを抽出し、そして該多チャネルの第五道路特徴マップに基づいて第一道路確率マップを確定することと、
上記リモートセンシング画像サンプルまたは該リモートセンシング画像サンプルの多チャネルの道路特徴マップを訓練待ちの第三ニューラルネットワークに入力し、それによって該訓練待ちの第三ニューラルネットワークによって多チャネルの第四道路特徴マップを抽出し、そして該多チャネルの第四道路特徴マップに基づいて道路方向回帰マップを確定することと、
上記リモートセンシング画像サンプルまたは該リモートセンシング画像サンプルの多チャネルの道路特徴マップを訓練待ちの第四ニューラルネットワークに入力し、それによって該訓練待ちの第四ニューラルネットワークによって多チャネルの第六道路特徴マップを抽出し、そして該多チャネルの第六道路特徴マップに基づいて第二道路確率マップを確定することと、
上記道路方向回帰マップと該道路方向基準マップとの間の第一損失、該第一道路確率マップと該等幅道路基準マップとの間の該第二損失、および該第二道路確率マップと該等幅道路基準マップとの間の第三損失を、該第三ニューラルネットワーク、該第二サブニューラルネットワークおよび該第四ニューラルネットワークを含むニューラルネットワークシステムにそれぞれ渡し、それによって該ニューラルネットワークシステムのネットワークパラメータを総合的に調整することと、を含んでもよい。
【0109】
本実施例では、第一損失、第二損失および第三損失によって第三ニューラルネットワーク、第二サブニューラルネットワークおよび第四ニューラルネットワークのニューラルネットワークシステムのネットワークパラメータをそれぞれ調整する以外、第三ニューラルネットワーク、第二サブニューラルネットワークおよび第四ニューラルネットワークを含むニューラルネットワークシステムのネットワークパラメータを調整し、それによって取得した道路地図における道路幅および方向の正確度を向上させることができる。
【0110】
任意選択的な一例では、該ステップ204はメモリに記憶された対応する命令をプロセッサによって呼び出して実行してもよいし、プロセッサにより運用される道路地図生成ユニット404によって実行してもよい。
【0111】
引き続き図3aを参照すると、それは本実施例に係る道路地図生成方法の応用シーンの一模式図である。図3aは実のリモートセンシング画像であり、そこから見えるように、図3aには道路、建築物、樹木などの情報が含まれている。該リモートセンシング画像から道路情報を抽出するために、まずリモートセンシング画像を第一ニューラルネットワークに入力し、第一道路特徴情報を得て、続いて多チャネルの第一道路特徴情報を第三ニューラルネットワークに入力し、多チャネルの第三道路特徴情報を得て、その後、第一道路特徴情報と第三道路特徴情報とを融合し、融合結果に基づいて道路地図を生成するようにしてもよく、それは図3bに示されたとおりである。
【0112】
本願の実施例が提供する方法はリモートセンシング画像に対する道路幅特徴および道路方向特徴抽出の正確性を向上させる。
【0113】
本発明の実施例が提供するいずれの道路地図生成方法もデータ処理能力を有する任意の適当な機器によって実行することができ、それは端末機器およびサーバなどを含むが、これらに限定されない。または、本発明の実施例が提供するいずれの道路地図生成方法もプロセッサによって実行することができ、例えばプロセッサはメモリに記憶された対応する命令を呼び出すことで本発明の実施例において言及したいずれかの道路地図生成方法を実行することができる。以下は説明を省略する。
【0114】
当業者であれば、上記方法の実施例を実現する全てまたは一部のステップはプログラムによって関連ハードウェアに命令を出して完了させることができることを理解すべきであり、前記プログラムは、ROM、RAM、磁気ディスクまたは光ディスクなどプログラムコードを記憶可能である様々な媒体を含むコンピュータ読み取り可能記憶媒体に記憶可能であり、該プログラムは実行時、上記方法の実施例のステップを実行する。
【0115】
さらに図4を参照すると、上記各図面に示す方法の実現形態として、本願の実施例は道路地図生成装置を提供し、該道路地図生成装置の実施例は図2に示す方法の実施例に対応し、該装置は様々な電子機器において用いることができる。
【0116】
図4に示すように、本実施例の道路地図生成装置400は:リモートセンシング画像を第一ニューラルネットワークに入力し、それによって前記第一ニューラルネットワークによって多チャネルの第一道路特徴情報を抽出するための第一道路特徴情報取得ユニット401、前記多チャネルの第一道路特徴情報を、道路方向情報を教師情報として訓練されたニューラルネットワークである第三ニューラルネットワークに入力し、それによって前記第三ニューラルネットワークによって多チャネルの第三道路特徴情報を抽出するための第三道路特徴情報取得ユニット402、前記第一道路特徴情報と前記第三道路特徴情報とを融合するための情報融合ユニット403、および融合結果に基づいて道路地図を生成するための道路地図生成ユニット404を含んでもよい。
【0117】
本実施例のいくつかの任意選択的な実施形態では、前記情報融合ユニット403は、前記第一道路特徴情報と前記第三道路特徴情報とを加え、または重み付けて加えること、または、前記第一道路特徴情報と前記第三道路特徴情報とを連結することに用いられてもよい。
【0118】
本実施例のいくつかの任意選択的な実施形態では、前記第一ニューラルネットワークは、許容道路幅情報を教師情報として訓練されたニューラルネットワークである第二サブニューラルネットワークを含んでもよく、前記第一道路特徴情報取得ユニット401は前記リモートセンシング画像を前記第二サブニューラルネットワークに入力し、それによって前記第二サブニューラルネットワークによって多チャネルの第二道路特徴マップを抽出するための第一取得サブユニット(図示せず)を含んでもよい。それに対して、該実施形態では、前記第一道路特徴情報は該第二道路特徴マップを含む。
【0119】
本実施例のいくつかの任意選択的な実施形態では、前記第一ニューラルネットワークは第一サブニューラルネットワークおよび第二サブニューラルネットワークを含んでもよく、前記第一道路特徴情報取得ユニット401は前記リモートセンシング画像を前記第一サブニューラルネットワークに入力し、それによって前記第一サブニューラルネットワークによって多チャネルの第一道路特徴マップを抽出するための第一取得サブユニット(図示せず)、および前記多チャネルの第一道路特徴マップを、許容道路幅情報を教師情報として訓練されたニューラルネットワークである第二サブニューラルネットワークに入力し、それによって前記第二サブニューラルネットワークによって多チャネルの第二道路特徴マップを抽出するための第二取得サブユニット(図示せず)を含んでもよい。それに対して、該実施形態では、前記第一道路特徴情報は該第二道路特徴マップを含む。
【0120】
本実施例のいくつかの任意選択的な実施形態では、前記第一ニューラルネットワークは第一サブニューラルネットワーク、第二サブニューラルネットワークおよび第三サブニューラルネットワークを含んでもよく、前記第一道路特徴情報取得ユニット401は、前記リモートセンシング画像を前記第一サブニューラルネットワークに入力し、それによって前記第一サブニューラルネットワークによって多チャネルの第一道路特徴マップを抽出するための第一取得サブユニット(図示せず)、前記多チャネルの第一道路特徴マップを、許容道路幅情報を教師情報として訓練されたニューラルネットワークである第二サブニューラルネットワークに入力し、それによって前記第二サブニューラルネットワークによって多チャネルの第二道路特徴マップを抽出するための第二取得サブユニット(図示せず)、および前記多チャネルの第二道路特徴マップを第三サブニューラルネットワークに入力し、それによって前記第三サブニューラルネットワークによって多チャネルの第三道路特徴マップを抽出するための第三取得サブユニット(図示せず)を含んでもよい。それに対して、該実施形態では、前記第一道路特徴情報は該第三道路特徴マップを含む。
【0121】
本実施例のいくつかの任意選択的な実施形態では、前記許容道路幅情報は許容道路幅範囲であってもよく、前記道路地図における各道路の幅は前記許容道路幅範囲内に収まり、または、前記許容道路幅情報は所定道路幅であってもよく、前記道路地図における各道路の幅は前記所定道路幅である。
【0122】
本実施例のいくつかの任意選択的な実施形態では、前記道路地図生成ユニット404は、前記融合結果を第四ニューラルネットワークに入力し、それによって前記第四ニューラルネットワークによって多チャネルの第四道路特徴情報を抽出するための第四道路特徴情報取得サブユニット(図示せず)、および前記多チャネルの第四道路特徴情報に基づいて道路地図を確定するための道路地図確定サブユニット(図示せず)を含んでもよい。
【0123】
本実施例のいくつかの任意選択的な実施形態では、前記第四ニューラルネットワークは許容道路幅情報を教師情報として訓練されたニューラルネットワークである。
【0124】
本実施例のいくつかの任意選択的な実施形態では、前記道路地図生成ユニット404はさらに、前記道路地図における道路の中心線を確定するための中心線確定サブユニット(図示せず)を含んでもよい。
【0125】
本実施例のいくつかの任意選択的な実施形態では、前記道路地図生成ユニット404はさらに、前記道路地図をベクトル化し、道路ベクトルマップを得るための道路ベクトルマップ取得サブユニット(図示せず)を含んでもよい。
【0126】
本実施例のいくつかの任意選択的な実施形態では、さらに、訓練用リモートセンシング画像の道路方向基準マップを取得し、訓練用リモートセンシング画像またはそれの多チャネルの道路特徴マップを訓練待ちの第三ニューラルネットワークに入力し、それによって訓練待ちの第三ニューラルネットワークによって多チャネルの第四道路特徴マップを抽出し、前記多チャネルの第四道路特徴マップに基づいて道路方向回帰マップを確定し、そして前記道路方向回帰マップと前記道路方向基準マップとの間の第一損失を前記訓練待ちの第三ニューラルネットワークに渡し、それによって前記訓練待ちの第三ニューラルネットワークのパラメータを調整するための第三ニューラルネットワークの訓練ユニット(図示せず)を含んでもよい。
【0127】
本実施例のいくつかの任意選択的な実施形態では、さらに、訓練用リモートセンシング画像の等幅道路基準マップを取得し、訓練用のリモートセンシング画像またはそれの多チャネルの道路特徴マップを訓練待ちの第二サブニューラルネットワークに入力し、それによって訓練待ちの第二サブニューラルネットワークによって多チャネルの第五道路特徴マップを抽出し、前記多チャネルの第五道路特徴マップに基づいて第一道路確率マップを確定し、そして前記第一道路確率マップと前記等幅道路基準マップとの間の第二損失を前記訓練待ちの第二サブニューラルネットワークに渡し、それによって前記訓練待ちの第二サブニューラルネットワークのパラメータを調整するための第二サブニューラルネットワークの訓練ユニット(図示せず)を含んでもよい。
【0128】
本実施例のいくつかの任意選択的な実施形態では、さらに、訓練用リモートセンシング画像の等幅道路基準マップを取得し、訓練用のリモートセンシング画像またはそれの多チャネルの道路特徴マップを訓練待ちの第四ニューラルネットワークに入力し、それによって訓練待ちの第四ニューラルネットワークによって多チャネルの第六道路特徴マップを抽出し、前記多チャネルの第六道路特徴マップに基づいて第二道路確率マップを確定し、そして前記第二道路確率マップと前記等幅道路基準マップとの間の第三損失を前記訓練待ちの第四ニューラルネットワークに渡し、それによって前記訓練待ちの第四ニューラルネットワークのパラメータを調整するための第四ニューラルネットワークの訓練ユニット(図示せず)を含んでもよい。
【0129】
本実施例のいくつかの任意選択的な実施形態では、さらに、
訓練用リモートセンシング画像の等幅道路基準マップを取得し、訓練用リモートセンシング画像またはそれの多チャネルの道路特徴マップを訓練待ちの第二サブニューラルネットワークに入力し、それによって訓練待ちの第二サブニューラルネットワークによって多チャネルの第五道路特徴マップを抽出し、多チャネルの第五道路特徴マップに基づいて第一道路確率マップを確定し、そして第一道路確率マップと等幅道路基準マップとの間の第二損失を第三ニューラルネットワーク、第二サブニューラルネットワークおよび第四ニューラルネットワークを含むニューラルネットワークシステムに渡すための第二サブニューラルネットワークの訓練ユニット、
訓練用リモートセンシング画像の道路方向基準マップを取得し、訓練用リモートセンシング画像またはそれの多チャネルの道路特徴マップを訓練待ちの第三ニューラルネットワークに入力し、それによって訓練待ちの第三ニューラルネットワークによって多チャネルの第四道路特徴マップを抽出し、多チャネルの第四道路特徴マップに基づいて道路方向回帰マップを確定し、そして道路方向回帰マップと道路方向基準マップとの間の第一損失を第三ニューラルネットワーク、第二サブニューラルネットワークおよび第四ニューラルネットワークを含むニューラルネットワークシステムに渡すための第三ニューラルネットワークの訓練ユニット、および
訓練用リモートセンシング画像の等幅道路基準マップを取得し、訓練用のリモートセンシング画像またはそれの多チャネルの道路特徴マップを訓練待ちの第四ニューラルネットワークに入力し、それによって訓練待ちの第四ニューラルネットワークによって多チャネルの第六道路特徴マップを抽出し、多チャネルの第六道路特徴マップに基づいて第二道路確率マップを確定し、そして第二道路確率マップと等幅道路基準マップとの間の第三損失を第三ニューラルネットワーク、第二サブニューラルネットワークおよび第四ニューラルネットワークを含むニューラルネットワークシステムに渡し、それによって第一損失、第二損失と結合して前記ニューラルネットワークシステムのネットワークパラメータを調整するための第四ニューラルネットワークの訓練ユニットを含んでもよい。
【0130】
本願の実施例は、実行可能命令を記憶するためのメモリ、および前記メモリと通信して前記実行可能命令を実行することで上記いずれか一つの実施例に記載の道路地図生成方法の動作を完了するためのプロセッサを含む電子機器を提供する。
【0131】
本願の実施例はコンピュータ読み取り可能な命令を記憶するためのコンピュータ記憶媒体であって、上記命令は実行される時に上記いずれか一つの実施例に記載の道路地図生成方法の動作を実行するコンピュータ記憶媒体を提供する。
【0132】
本願の実施例はコンピュータ読み取り可能コードを含むコンピュータプログラムであって、前記コンピュータ読み取り可能コードが機器において運用される時、前記機器内のプロセッサは上記いずれか一つの実施例に係る道路地図生成方法を実現するための動作を実行するコンピュータプログラムを提供する。
【0133】
以下に図5を参照すると、本願の実施例のサーバ500の実現に適する一構成模式図が示される。
【0134】
図5に示すように、サーバ500は、読み取り専用メモリ(ROM)502に記憶されているプログラムまたは記憶部分508からランダムアクセスメモリ(RAM)503にロードされたプログラムに従って様々な適当の動作および処理を実行可能な中央処理装置(CPU)501を含む。RAM503には、さらにサーバ500の動作に必要な種々のプログラムおよびデータが記憶されている。CPU501、ROM502およびRAM503はバス504を介して互いに接続される。RAM503が存在する場合、ROM502は任意選択的なモジュールとなる。RAM503は実行可能命令を記憶するか、または動作時にROM502へ実行可能命令を書き込み、実行可能命令によってCPU501は上記いずれか一つの実施例の道路地図生成方法に対する動作を実行する。入力/出力(I/O)インタフェース505もバス504に接続される。通信部512は統合設置してもよいし、また複数のサブモジュール(例えば複数のIBネットワークカード)を有するように設置してもよく、かつバスリンクに存在する。
【0135】
キーボード、マウスなどを含む入力部分506、液晶ディスプレイ(LCD)などおよびスピーカーなどを含む出力部分507、ハードディスクなどを含む記憶部分508、およびLANカード、モデムのネットワークインタフェースカードなどを含む通信部分509といった部品は、I/Oインタフェース505に接続される。通信部分509はインターネットなどのネットワークによって通信処理を実行する。ドライバ510も必要に応じてI/Oインタフェース505に接続される。取り外し可能な媒体511、例えば磁気ディスク、光ディスク、磁気光ディスク、半導体メモリなどは、必要に応じてドライバ510に取り付けられ、それによってそこから読み出されたコンピュータプログラムが必要に応じて記憶部分508にインストールされる。
【0136】
特に、本開示の実施例によれば、フローチャートを参照しながら上述したプロセスはコンピュータソフトウェアプログラムとして実現可能である。例えば、本開示の実施例はコンピュータプログラム製品を含み、それは機械可読媒体に有形に具現化された、フローチャートに示す方法を実行するためのプログラムコードを含むコンピュータプログラムを含む。このような実施例では、該コンピュータプログラムは通信部分509によってネットワークからダウンロードおよびインストールでき、および/または取り外し可能な媒体511からインストールできる。
【0137】
図面のうちフローチャートおよびブロック図は本願の様々な実施例に係るシステム、方法およびコンピュータプログラム製品の実現可能なシステムアーキテクチャ、機能および動作を示す。この点では、フローチャートまたはブロック図における各ブロックは一つのモジュール、プログラムセグメントまたはコードの一部分を代表することができ、上記モジュール、プログラムセグメント、またはコードの一部は指定された論理機能を実現するための一つ以上の実行可能命令を含む。なお、いくつかの置換としての実現形態では、ブロックに表記される機能は図面に付したものと異なる順序で実現してもよいことにも注意すべきである。例えば、例えば、二つの連続的に示されるブロックは実質的に同時に実行してもよく、また、係る機能によって、それらは逆な順序で実行してもよい場合がある。なお、ブロック図および/またはフローチャートにおける各ブロック、およびブロック図および/またはフローチャートにおけるブロックの組み合わせは、指定される機能または動作を実行するハードウェアに基づく専用システムによって実現してもよいし、または専用ハードウェアとコンピュータ命令との組み合わせによって実現してもよいことにも注意すべきである。
【0138】
本願の実施例に係るユニットはソフトウェアの方式で実現してもよいし、ハードウェアの方式で実現してもよい。記述されたユニットはプロセッサ内に設置してもよく、例えば、第一道路特徴情報取得ユニット、第三道路特徴情報取得ユニット、情報融合ユニットおよび道路地図生成ユニットを含むプロセッサのように記述してもよい。そのうち、これらのユニットの名称はある場合において該ユニットそのものを限定するものではなく、例えば、道路地図生成ユニットはさらに「道路地図を取得するためのユニット」のように記述してもよい。
【0139】
別の一態様として、本願の実施例はさらに非揮発性コンピュータ記憶媒体を提供し、該非揮発性コンピュータ記憶媒体は上記実施例における上記装置に含まれる非揮発性コンピュータ記憶媒体であってもよいし、単独で存在し、端末に組み込まれていない非揮発性コンピュータ記憶媒体であってもよい。上記非揮発性コンピュータ記憶媒体には一つ以上のプログラムが記憶されており、上記一つ以上のプログラムは一つの機器に実行される時、上記機器に、リモートセンシング画像を第一ニューラルネットワークに入力し、それによって前記第一ニューラルネットワークによって多チャネルの第一道路特徴情報を抽出することと、前記多チャネルの第一道路特徴情報を、少なくとも道路方向情報を教師情報として訓練されたニューラルネットワークである第三ニューラルネットワークに入力し、それによって前記第三ニューラルネットワークによって多チャネルの第三道路特徴情報を抽出することと、前記第一道路特徴情報と前記第三道路特徴情報とを融合することと、融合結果に基づいて道路地図を生成することと、を完了させる。
【0140】
以上の記述は本願の任意選択的な実施例および運用する技術的原理に対する説明に過ぎない。当業者であれば、本願の実施例に係る発明範囲は、上記技術的特徴の確定の組み合わせによる技術的解決手段に限定されず、上記発明思想から逸脱することなく、上記技術的特徴またはその均等特徴を任意に組み合わせた他の技術的解決手段、例えば上記特徴と本願の実施例において開示した(これに限定されず)類似機能を有する技術的特徴とを置換した技術的解決手段をも包含するものとすることを理解すべきである。
図1
図2
図3a
図3b
図4
図5