IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ ベイジン ジンドン 360 ディグリー イー―コマース カンパニー リミテッドの特許一覧

特許7351487トポロジーマップに基づくインテリジェントナビゲーションの方法及びシステム
<>
  • 特許-トポロジーマップに基づくインテリジェントナビゲーションの方法及びシステム 図1
  • 特許-トポロジーマップに基づくインテリジェントナビゲーションの方法及びシステム 図2
  • 特許-トポロジーマップに基づくインテリジェントナビゲーションの方法及びシステム 図3
  • 特許-トポロジーマップに基づくインテリジェントナビゲーションの方法及びシステム 図4
  • 特許-トポロジーマップに基づくインテリジェントナビゲーションの方法及びシステム 図5
  • 特許-トポロジーマップに基づくインテリジェントナビゲーションの方法及びシステム 図6
  • 特許-トポロジーマップに基づくインテリジェントナビゲーションの方法及びシステム 図7
  • 特許-トポロジーマップに基づくインテリジェントナビゲーションの方法及びシステム 図8
  • 特許-トポロジーマップに基づくインテリジェントナビゲーションの方法及びシステム 図9
  • 特許-トポロジーマップに基づくインテリジェントナビゲーションの方法及びシステム 図10
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2023-09-19
(45)【発行日】2023-09-27
(54)【発明の名称】トポロジーマップに基づくインテリジェントナビゲーションの方法及びシステム
(51)【国際特許分類】
   G01C 21/30 20060101AFI20230920BHJP
【FI】
G01C21/30
【請求項の数】 14
(21)【出願番号】P 2021502925
(86)(22)【出願日】2019-08-09
(65)【公表番号】
(43)【公表日】2021-11-18
(86)【国際出願番号】 CN2019099972
(87)【国際公開番号】W WO2020034903
(87)【国際公開日】2020-02-20
【審査請求日】2021-01-19
(31)【優先権主張番号】201810942528.9
(32)【優先日】2018-08-17
(33)【優先権主張国・地域又は機関】CN
(73)【特許権者】
【識別番号】521216474
【氏名又は名称】ベイジン ジンドン 360 ディグリー イー―コマース カンパニー リミテッド
(74)【代理人】
【識別番号】100107456
【弁理士】
【氏名又は名称】池田 成人
(74)【代理人】
【識別番号】100162352
【弁理士】
【氏名又は名称】酒巻 順一郎
(74)【代理人】
【識別番号】100123995
【弁理士】
【氏名又は名称】野田 雅一
(72)【発明者】
【氏名】リ, イェンリー
(72)【発明者】
【氏名】スン, シャオファン
(72)【発明者】
【氏名】フェ, ガイワン
(72)【発明者】
【氏名】ツァイ, ジンファ
【審査官】武内 俊之
(56)【参考文献】
【文献】特開2018-112989(JP,A)
【文献】特開2018-067234(JP,A)
【文献】特開2018-024286(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
G01C 21/30
(57)【特許請求の範囲】
【請求項1】
プロセッサを含むコンピュータが、
構築されたトポロジーマップに基づき、現在地情報から走行可能なエリアビューを特定することと
少なくともシーン画像、シーン深度マップ及びシーン解析図を含むシーンデータを取得することであって、前記シーン画像は、カメラにより取得された画像であり、前記シーン深度マップは、前記シーン画像の深度解析により取得された各画素の相対深さを含み、前記シーン解析図は、前記シーン画像の意味解析により取得された各画素が属するものを示す情報を含む、取得することと
前記走行可能なエリアビュー、シーンデータ及びナビゲーションモデルに基づき、行為意思決定を特定することと
を含み、
前記行為意思決定を特定するステップは、
画像分類畳み込みネットワークにより、前記エリアビュー及び前記シーンデータを含むサンプルデータに対して特徴抽出を行い、
抽出した特徴、目標位置及び現時刻の前の時刻における行為に対して取得された報酬である前時刻報酬を第一層リカレントニューラルネットワークにインポートし、
前記第一層リカレントニューラルネットワークの出力と現時刻の前の時刻における行為である前時刻行為を、第二層リカレントニューラルネットワークにインポートし、
前記第二層リカレントニューラルネットワークの出力に基づき、全結合型ネットワークにより行為意思決定に対して予測を行うこと、を含む、
ことを特徴とするトポロジーマップに基づくインテリジェントナビゲーションの方法。
【請求項2】
構築されたトポロジーマップに基づき、現在地情報から走行可能なエリアビューを特定するステップは、前記コンピュータが、
プリセットされた幅拡張ルールにより、走行可能なエリアを得られるように、トポロジーマップにおいて走行軌跡点を中心として幅拡張を行い、
前記トポロジーマップにおいて現在地情報から範囲画像を特定し、
走行可能なエリアビューを得られるように、前記範囲画像内の走行可能なエリアをマークすることを含む、
ことを特徴とする請求項1に記載の方法。
【請求項3】
シーンデータを取得するステップは、前記コンピュータが、
車載カメラによりシーン画像をリアルタイムに採集し、
シーン深度マップを得られるように、前記シーン画像のシーン深度を解析し、
シーン解析図を得られるように、前記シーン画像を意味解析することを含む、
ことを特徴とする請求項1に記載の方法。
【請求項4】
前記シーンデータはさらにレーザポイントクラウドデータを含み、
前記シーンデータを取得するステップはさらに、前記コンピュータが、
車載レーザーレーダーによりレーザーレーダーポイントをリアルタイムに採集し、
レーザポイントクラウドデータを得られるように、前記レーザーレーダーポイントに対して正規化処理を行うことを含む、
ことを特徴とする請求項3に記載の方法。
【請求項5】
前記ナビゲーションモデルは深層強化学習トレーニングにより取得される、
ことを特徴とする請求項1に記載の方法。
【請求項6】
前記行為意思決定は少なくとも走行速度、偏向角速度、走行方向及び偏向方向を含み、
全結合型ネットワークにより行為意思決定に対して予測を行うステップは、前記コンピュータが、行為意思決定の走行速度、偏向角速度、走行方向及び偏向方向に対してそれぞれ予測を行い、対応の予測確率を取得し、予測確率が最大である行為の組み合わせを、予測された行為意思決定として特定することを含む、
ことを特徴とする請求項5に記載の方法。
【請求項7】
構築されたトポロジーマップに基づき、現在地情報から走行可能なエリアビューを特定するための走行可能なエリアビュー特定モジュールと、
少なくともシーン画像、シーン深度マップ及びシーン解析図を含むシーンデータを取得するためのシーンデータ取得モジュールであって、前記シーン画像は、カメラにより取得された画像であり、前記シーン深度マップは、前記シーン画像の深度解析により取得された各画素の相対深さを含み、前記シーン解析図は、前記シーン画像の意味解析により取得された各画素が属するものを示す情報を含む、シーンデータ取得モジュールと、
前記走行可能なエリアビュー、シーンデータ及びナビゲーションモデルに基づき、行為意思決定を特定するための意思決定確定モジュールと、を含み、
前記意思決定確定モジュールはさらに、画像分類畳み込みネットワークにより前記エリアビュー及び前記シーンデータを含むサンプルデータに対して特徴抽出を行い、抽出した特徴、目標位置及び現時刻の前の時刻における行為に対して取得された報酬である前時刻報酬を第一層リカレントニューラルネットワークにインポートし、前記第一層リカレントニューラルネットワークの出力と現時刻の前の時刻における行為である前時刻行為を、第二層リカレントニューラルネットワークにインポートし、前記第二層リカレントニューラルネットワークの出力に基づき、全結合型ネットワークにより行為意思決定に対して予測を行うためのものである、
ことを特徴とするトポロジーマップに基づくインテリジェントナビゲーションのシステム。
【請求項8】
前記走行可能なエリアビュー特定モジュールはさらに、プリセットされた幅拡張ルールにより、走行可能なエリアを得られるように、トポロジーマップにおいて走行軌跡点を中心として幅拡張を行い、前記トポロジーマップにおいて現在地情報から範囲画像を特定し、走行可能なエリアビューを得られるように、前記範囲画像内の走行可能なエリアをマークするためのものである、
ことを特徴とする請求項7に記載のシステム。
【請求項9】
前記シーンデータ取得モジュールはさらに、車載カメラによりシーン画像をリアルタイムに採集し、シーン深度マップを得られるように、前記シーン画像のシーン深度を解析し、シーン解析図を得られるように、前記シーン画像を意味解析するためのものである、
ことを特徴とする請求項7に記載のシステム。
【請求項10】
前記シーンデータ取得モジュールはさらに、車載レーザーレーダーによりレーザーレーダーポイントをリアルタイムに採集し、レーザポイントクラウドデータを得られるように、前記レーザーレーダーポイントに対して正規化処理を行うためのものであり、
前記シーンデータはさらにレーザポイントクラウドデータを含む、
ことを特徴とする請求項9に記載のシステム。
【請求項11】
前記ナビゲーションモデルは深層強化学習トレーニングにより取得される、
ことを特徴とする請求項7に記載のシステム。
【請求項12】
前記意思決定確定モジュールはさらに、行為意思決定の走行速度、偏向角速度、走行方向及び偏向方向に対してそれぞれ予測を行い、対応の予測確率を取得し、予測確率が最大である行為の組み合わせを、予測された行為意思決定として特定するためのものであり、
前記行為意思決定は少なくとも走行速度、偏向角速度、走行方向及び偏向方向を含む、
ことを特徴とする請求項11に記載のシステム。
【請求項13】
一つの又は複数のプロセッサと、
一つの又は複数のプログラムを記憶するための記憶装置と
を含み、
前記一つの又は複数のプログラムが前記一つの又は複数のプロセッサにより実行されるとき、前記一つの又は複数のプロセッサが請求項1~6のいずれか一項に記載の方法を実現する、
ことを特徴とする電子機器。
【請求項14】
プロセッサにより実行される時に請求項1~6のいずれか一項に記載の方法を実現することを特徴とするコンピュータプログラムが記憶されたコンピュータ読み取り可能な媒体。

【発明の詳細な説明】
【技術分野】
【0001】
本公開はコンピュータ技術分野に関し、特に、トポロジーマップに基づくインテリジェントナビゲーションの方法及びシステムに関する。
【背景技術】
【0002】
従来の自動運転技術の多くは高精度マップに依存してインテリジェントナビゲーションを行うが、高精度マップを取得するプロセスは時間も労力もかかり、そのメンテナンス及び更新も絶えず必要となる。従来技術において、街頭風景シーンの地図なしインテリジェントナビゲーションに対して、DeepMind研究者は深層強化学習に基づく方法を提案している。
【0003】
上記地図なしインテリジェントナビゲーション方法において、その行為は5種類の意思決定(回転-67.5度、-22.5度、22.5度、67.5度及び前進)しかなく、行動意思決定が単一すぎて、リアルな運転に十分に対応できない。次に、当該方法は完全に画像に依存してインテリジェントナビゲーションを行うが、画像は光線の影響を受けるため、夜景等の弱光下でセルフナビゲーションを行うことが難しい。この他、当該方法の報酬は一つの距離目標位置の函数により定義され、一般的に言えば、良いナビゲーションエンジンは走行時間、走行距離及び違反状況等、多くの面の制約を受けると考えられるため、当該方法は多指標におけるリアルナビゲーションモデルをトレーニングし難い。最後に、当該方法は如何なる地図も必要とせず、これは状態空間のサンプリング数を大いに拡大させ、最適化プロセスを容易に収斂できず、トレーニングには時間と労力がかかる。
【発明の概要】
【発明が解決しようとする課題】
【0004】
以上に鑑み、本公開実施形態は、多指標のナビゲーションモデルに基づくとともに、構築されたトポロジーマップに基づき、走行可能なエリアビューを特定し、地図なし方式に比べ、GPS拘束下でリアルタイムナビゲーションの正確性を高めるが、完全にGPSに依存することなくナビゲーションのロバスト性を高めることができる、トポロジーマップに基づくインテリジェントナビゲーションの方法及びシステムを提供する。
【課題を解決するための手段】
【0005】
上記目的を実現するために、本公開実施形態の一つの方面に基づき、トポロジーマップに基づくインテリジェントナビゲーション方法を提供する。
【0006】
本公開実施形態のトポロジーマップに基づくインテリジェントナビゲーションの方法は、構築されたトポロジーマップに基づき、現在地情報から走行可能なエリアビューを特定し、少なくともシーン画像、シーン深度マップ及びシーン解析図を含むシーンデータを取得し、前記走行可能なエリアビュー、シーンデータ及びナビゲーションモデルに基づき、行為意思決定を特定することを含む。
【0007】
任意選択的に、構築されたトポロジーマップに基づき、現在地情報から走行可能なエリアビューを特定するステップは、プリセットされた幅拡張ルールにより、走行可能なエリアを得られるように、トポロジーマップにおいて走行軌跡点を中心として幅拡張を行い、前記トポロジーマップにおいて現在地情報から範囲画像を特定し、走行可能なエリアビューを得られるように、前記範囲画像内の走行可能なエリアをマークすることを含む。
【0008】
任意選択的に、シーンデータを取得するステップは、車載カメラによりシーン画像をリアルタイムに採集し、シーン深度マップを得られるように、前記シーン画像のシーン深度を解析し、シーン解析図を得られるように、前記シーン画像を意味解析することを含む。
【0009】
任意選択的に、前記シーンデータはさらにレーザポイントクラウドデータを含み、前記シーンデータを取得するステップはさらに、車載レーザーレーダーによりレーザーレーダーポイントをリアルタイムに採集し、レーザポイントクラウドデータを得られるように、前記レーザーレーダーポイントに対して正規化処理を行うことを含む。
【0010】
任意選択的に、前記ナビゲーションモデルは深層強化学習トレーニングにより取得され、および、前記走行可能なエリアビュー、シーンデータ及びナビゲーションモデルに基づき、行為意思決定を特定するステップは、画像分類畳み込みネットワークにより上記サンプルデータに対して特徴抽出を行い、抽出した特徴、目標位置及び前時刻報酬を第一層リカレントニューラルネットワークにインポートし、前記第一層リカレントニューラルネットワークの出力と前時刻行為を、第二層リカレントニューラルネットワークにインポートし、前記第二層リカレントニューラルネットワークの出力に基づき、全結合型ネットワークにより行為意思決定に対して予測を行うことを含む。
【0011】
任意選択的に、前記行為意思決定は少なくとも走行速度、偏向角速度、走行方向及び偏向方向を含み、
全結合型ネットワークにより行為意思決定に対して予測を行うステップは、行為意思決定の走行速度、偏向角速度、走行方向及び偏向方向に対してそれぞれ予測を行い、対応の予測確率を取得し、予測確率が最大である行為の組み合わせを、予測された行為意思決定として特定することを含む。
【0012】
上記目的を実現するために、本公開実施形態のもう一つの方面に基づき、トポロジーマップに基づくインテリジェントナビゲーションのシステムを提供する。
【0013】
本公開実施形態のトポロジーマップに基づくインテリジェントナビゲーションのシステムは、構築されたトポロジーマップに基づき、現在地情報から走行可能なエリアビューを特定するための走行可能なエリアビュー特定モジュールと、
少なくともシーン画像、シーン深度マップ及びシーン解析図を含むシーンデータを取得するためのシーンデータ取得モジュールと、
前記走行可能なエリアビュー、シーンデータ及びナビゲーションモデルに基づき、行為意思決定を特定するための意思決定確定モジュールと、を含む。
【0014】
任意選択的に、前記走行可能なエリアビュー特定モジュールはさらに、プリセットされた幅拡張ルールにより、走行可能なエリアを得られるように、トポロジーマップにおいて走行軌跡点を中心として幅拡張を行い、前記トポロジーマップにおいて現在地情報から範囲画像を特定し、走行可能なエリアビューを得られるように、前記範囲画像内の走行可能なエリアをマークするためのものである。
【0015】
任意選択的に、前記シーンデータ取得モジュールはさらに、車載カメラによりシーン画像をリアルタイムに採集し、シーン深度マップを得られるように、前記シーン画像のシーン深度を解析し、シーン解析図を得られるように、前記シーン画像を意味解析するためのものである。
【0016】
任意選択的に、前記シーンデータ取得モジュールはさらに、車載レーザーレーダーによりレーザーレーダーポイントをリアルタイムに採集し、レーザポイントクラウドデータを得られるように、前記レーザーレーダーポイントに対して正規化処理を行うためのものであり、前記シーンデータはさらにレーザポイントクラウドデータを含む。
【0017】
任意選択的に、前記意思決定確定モジュールはさらに、画像分類畳み込みネットワークにより上記サンプルデータに対して特徴抽出を行い、抽出した特徴、目標位置及び前時刻報酬を第一層リカレントニューラルネットワークにインポートし、前記第一層リカレントニューラルネットワークの出力と前時刻行為を、第二層リカレントニューラルネットワークにインポートし、前記第二層リカレントニューラルネットワークの出力に基づき、全結合型ネットワークにより行為意思決定に対して予測を行うためのものであり、前記ナビゲーションモデルは深層強化学習トレーニングにより取得される。
【0018】
任意選択的に、前記意思決定確定モジュールはさらに、行為意思決定の走行速度、偏向角速度、走行方向及び偏向方向に対してそれぞれ予測を行い、対応の予測確率を取得し、予測確率が最大である行為の組み合わせを、予測された行為意思決定として特定するものであり、前記行為意思決定は少なくとも走行速度、偏向角速度、走行方向及び偏向方向を含む。
【0019】
上記目的を実現するために、本公開実施形態のもう一つの方面に基づき、電子機器を提供する。
【0020】
本公開実施形態の電子機器は、一つの又は複数のプロセッサと、一つの又は複数のプログラムを記憶するための記憶装置と、を含み、前記一つの又は複数のプログラムが前記一つの又は複数のプロセッサにより実行されるとき、前記一つの又は複数のプロセッサが上記のいずれかのトポロジーマップに基づくインテリジェントナビゲーションの方法を実現する。
【0021】
上記目的を実現するために、本公開実施形態のもう一つの方面に基づき、プロセッサにより実行される時に上記のいずれかのトポロジーマップに基づくインテリジェントナビゲーションの方法を実現することを特徴とするコンピュータプログラムが記憶されたコンピュータ読み取り可能な媒体を提供する。
【0022】
上記発明における一つの実施形態は以下の長所又は有益な效果を有する:車両走行前に、トポロジーマップに基づき、ルートプランニングを完成させて、走行可能なルートを取得できる。車両走行中、当該トポロジーマップ及び特定した走行可能なルートに基づき、GPS信号(トポロジーマップは一つの一系列のGPS地点により作成される)により、車両に対して概略的に位置決めして、走行可能なエリアを取得し、その後、深層ニューラルネットワークにより局部緻密ナビゲーションを行うことができる。地図なし方式に比べ、本公開実施形態は、GPS拘束下でリアルタイムナビゲーションの正確性を高めることができ、且つナビゲーションモデルの多指標により、本公開実施形態は、完全にGPSに依存することなくナビゲーションのロバスト性を高めることができる。
【0023】
上記非慣用的な選択可能な方式により具備する更なる效果について以下に発明を実施するための形態と合わせて説明する。
【0024】
図面は本公開をより理解しやすくするためものであり、本公開を限定するものではない。
【図面の簡単な説明】
【0025】
図1図1は本公開実施形態のトポロジーマップに基づくインテリジェントナビゲーションの方法の主要なフロー概略図である。
図2図2は本公開実施形態のトポロジーマップに基づくインテリジェントナビゲーションの方法の走行可能なエリアの概略図である。
図3図3は本公開実施形態のトポロジーマップに基づくインテリジェントナビゲーションの方法の採集したシーン画像の概略図である。
図4図4は本公開実施形態のトポロジーマップに基づくインテリジェントナビゲーションの方法のシーン深度マップの概略図である。
図5図5は本公開実施形態のトポロジーマップに基づくインテリジェントナビゲーションの方法のシーン解析図の概略図である。
図6図6は本公開実施形態のトポロジーマップに基づくインテリジェントナビゲーションの方法のレーザポイントクラウドデータの概略図である。
図7図7は本公開実施形態のトポロジーマップに基づくインテリジェントナビゲーションの方法の深層ニューラルネットワーク構造の概略図である。
図8図8は本公開実施形態のトポロジーマップに基づくインテリジェントナビゲーションのシステムの主要なモジュールの概略図である。
図9図9は本公開実施形態を応用できる例示的なシステムアーキテクチャ図である。
図10図10は本公開実施形態の端末装置又はサーバを実現するために適用されるコンピュータシステムの構造概略図である。
【発明を実施するための形態】
【0026】
以下に図面と合わせて本公開の模範的な実施形態について説明する。そのうち、理解しやすいように本公開実施形態の各細部を含むが、これは模範的に示すためだけのものであると理解されるべきである。よって、当業者は本公開の範囲及び精神を逸脱しない限り、ここで説明される実施形態に対して各種の変更や修正を行うことができると理解されるべきである。同様に、明確かつ簡潔にするために、以下の説明において公知の機能及び構造についての説明は省略される。
【0027】
図1は本公開実施形態のトポロジーマップに基づくインテリジェントナビゲーションの方法の主要なフロー概略図であり、図2は本公開実施形態のトポロジーマップに基づくインテリジェントナビゲーションの方法の走行可能なエリアの概略図である。
【0028】
図1に示されるように、本公開実施形態のトポロジーマップに基づくインテリジェントナビゲーションの方法は主に以下を含む:
ステップS101:構築されたトポロジーマップに基づき、現在地情報から走行可能なエリアビューを特定する。トポロジーマップはノード及びエッジから構成され、そのうち、ノードはGPS位置であり、エッジは2つのGPS位置で作成される縁である。トポロジーマップは、一系列の核心的GPS地点により作成される走行可能なルートマップであり、その取得方法は低廉であり、高精度マップの作成コストがかからない。具体的に、プリセットされた幅拡張ルールにより、走行可能なエリアを得られるように、トポロジーマップにおいて走行軌跡点を中心として幅拡張を行い、トポロジーマップにおいて現在地情報から範囲画像を特定し、走行可能なエリアビューを得られるように、範囲画像内の走行可能なエリアをマークする。
【0029】
トポロジーマップにおいて走行軌跡点を中心として幅拡張を行う。例えば左右それぞれ2メートルの走行可能なエリアに拡張する、図2参照。現在のGPS位置で走行車接線方向に切り取り、例えば50メートル×50メートルに切り取り、拡縮比を1画素/0.1メートルの500×500画像とし、走行可能なエリアを255とマークし、他のエリアを0とすることによって、走行可能なエリアビューを取得する。そのうち、走行軌跡は一系列GPS位置により作成される車両走行ルートであり、走行車接線は各走行車位置の接線であり、隣接する2つの走行車点を繋げてなる、と定義することができる。
【0030】
ステップS102:少なくともシーン画像、シーン深度マップ及びシーン解析図を含むシーンデータを取得する。具体的に、車載カメラによりシーン画像をリアルタイムに採集し、シーン深度マップを得られるように、シーン画像のシーン深度を解析し、シーン解析図を得られるように、シーン画像を意味解析する。
【0031】
図3は本公開実施形態のトポロジーマップに基づくインテリジェントナビゲーションの方法の採集したシーン画像の概略図であり、図4は本公開実施形態のトポロジーマップに基づくインテリジェントナビゲーションの方法のシーン深度マップの概略図であり、図5は本公開実施形態のトポロジーマップに基づくインテリジェントナビゲーションの方法のシーン解析図の概略図であり、図6は本公開実施形態のトポロジーマップに基づくインテリジェントナビゲーションの方法のレーザポイントクラウドデータの概略図である。上記図3~6において、写真の色は表示しない。
【0032】
シーン画像は、ビデオ画像も含み、車載カメラにより環境をリアルタイムに採集して取得され、図3に示されるように、R/G/Bの三チャネル(赤、緑、青の三つのチャネル)を含む。チャネル層中の画素色は一組の原色の輝度値から構成され、チャネルは実際、選択エリアのマッピングであると理解することができる。
【0033】
シーン深度マップは、カラービデオ画像に対する深度解析であり、図4に示されるように、各画素の相対深さをマークし、一つのチャネルD(ビューの差)を含み、シーン深度解析方法を用いて予めトレーニングする方式により取得できる。そのうち、シーン深度は焦点前後の鮮明範囲のことであり、シーン深度が大きいほど、画像全体は遠景から近景になるにつれ鮮明になり、シーン深度が浅いほど、合焦主体が鮮明になり、前景及び背景がぼけることによって主体がさらに突出される。シーン深度に影響する要素は主に焦点距離、絞り及び撮影距離である。焦点距離が長いほど、絞りは大きく、撮影距離が近いほど、シーン深度は浅い。逆に、焦点距離が短いほど、絞りは小さく、撮影距離が遠いほど、シーン深度は大きい。
【0034】
シーン解析図は、カラービデオ画像に対する意味解析であり、図5に示されるように、各画素が樹木、道路、歩行者または車両等に属することをマークし、一つのチャネルL(ラベルLabel)を含み、意味シーン解析方法例を用いて予めトレーニングする方式により取得できる。
【0035】
シーンデータはさらにレーザポイントクラウドデータを含み、レーザポイントクラウドデータについて、車載レーザーレーダーによりレーザーレーダーポイントをリアルタイムに採集し、レーザポイントクラウドデータを得られるように、レーザーレーダーポイントに対して正規化処理を行う。図6に示されるように、原レーザーレーダーポイントは、三チャネル座標X/Y/Z及び一つの強度I(反射強度Intensity)チャネルを含み、さらに、ポイントクラウド解析方法により各ポイントの類別をマークし、最終的に一つのX/Y/Z/I/L五チャネルポイントクラウドを取得する。そのうち、レーザーレーダーから獲得したレーザポイントクラウドにおいて、ポイントクラウドの各々ポイントは、いずれも一つの反射強度属性を有し、異なる媒体が光線を吸収する能力を意味する。ラベルLabelは離散化数値である。取得したX/Y/Z、Iチャネル及びLチャネルの単位は統一されていないため、正規化プロセスを行う必要がある。よって、最終的に一つのX/Y/Z/I/L五チャネルポイントクラウドを取得した後、それに対して正規化を行う。具体的なステップはX/Y/Z/I/Lそれぞれが対応の平均値を差し引き、切断した後、切断値で割る、即ちf(x)=max(min((x-T1)、T2)、 -T2)/T2、但し、平均値T1及び切断値T2は経験設計値である。
【0036】
ステップS103:走行可能なエリアビュー、シーンデータ及びナビゲーションモデルに基づき、行為意思決定を特定する。そのうち、ナビゲーションモデルは深層強化学習トレーニングにより取得される。具体的に、画像分類畳み込みネットワークにより上記サンプルデータに対して特徴抽出を行い、抽出した特徴、目標位置及び前時刻報酬を第一層リカレントニューラルネットワークにインポートし、第一層リカレントニューラルネットワークの出力と前時刻行為を、第二層リカレントニューラルネットワークにインポートし、第二層リカレントニューラルネットワークの出力に基づき、全結合型ネットワークにより行為意思決定に対して予測を行う。そのうち、目標位置GPSは入力情報であり、つまり目的地を提供する。
【0037】
行為意思決定は少なくとも走行速度、偏向角速度、走行方向及び偏向方向を含み、および、行為意思決定の走行速度、偏向角速度、走行方向及び偏向方向に対してそれぞれ予測を行い、対応の予測確率を取得し。予測確率が最大である行為の組み合わせを、予測された行為意思決定として特定する。そのうち、偏向角速度は連続値であり、単位時間内の回転角度である。走行方向は離散値であり、車両前進、停止または後退方向を含む。偏向方向は離散値であり、車両左折、右折または無ターンを含む。
【0038】
インテリジェントナビゲーションは、環境状態を入力とする深層ニューラルネットワークにおいて行為予測を行い、絶え間なく探索し、報酬を取得することにより、ネットワークパラメータを繰り返し更新する。本公開実施形態において、A3C(Asynchronous advantage actor-critic) 最適方策を採用し、深層ニューラルネットワークパラメータを最適化する。A3C最適方策は、報酬を累積することにより行為意思決定函数(actor)及び価値函数(critic)のネットワークパラメータを繰り返し更新する。図7は本公開実施形態のトポロジーマップに基づくインテリジェントナビゲーションの方法の深層ニューラルネットワーク構造の概略図である。
【0039】
入力状態は外界環境が提供する観測データであり、インテリジェントナビゲーションの行為意思決定を教える。本発明実施形態において、入力状態はカラービデオ画像(ImW1*ImH1*3、ImW1及びImH1は画像サイズ)、当該カラービデオ画像のシーン解析図(ImW1*ImH1*1)及びシーン深度マップ(ImW1*ImH1*1)、レーザポイントクラウドデータ(N*5、Nはポイントクラウド数)、及び走行可能なエリアビュー(ImW2*ImH2*1、ImW2及びImH2はビューサイズ)を含む。複数の手がかりを組み合わせた入力状態は方法のロバスト性を高めるのに有効である。
【0040】
行為意思決定は車両の行為を制御し、各時刻における原動機付き車両の運動パラメータは進行方向、偏向方向、進行速度及び偏向角速度を含む。同様に、本公開実施形態において、行為意思決定を
【数1】

と定義し、但し、θは深層ニューラルネットワークモデルパラメータを意味し、ηは進行速度(いくつかの部に離散され、例えば240部、1キロメートル/時-->240キロメートル/時)であり、
【数2】

は偏向角速度(いくつかの部に離散され、例えば90部、1度/秒-->90度/秒)であり、Dは進行方向{-1:後退、0:停止、1:前進}であり、Cは偏向方向{-1:左折、0:無ターン、1:右折}である。これに対応して、深層ニューラルネットワークモデルは意思決定行動の各部分に対して独立して予測し、各部分の中の各1部に属する確率を計算することによって、最大確率の行為の組み合わせを選び取る。
【0041】
図7に示されるように、深層強化学習は深層ニューラルネットワークにより行為意思決定を予測し、そのうち、データ層及びネットワーク層を含む。入力はシーン画像、シーン解析図、シーン深度マップ、レーザポイントクラウドデータ、走行可能なエリアビュー、目標方位及び前時刻報酬を含み、出力は行為意思決定及び状態価値を含む。そのうち、目標方位は現在のGPS位置と目標GPSの差であり、本公開実施形態では経度緯度のみ考慮するため、一つの1*2次元データとなる。
【0042】
まず、シーン画像、シーン解析図、シーン深度マップを一つの5チャネル画像(R/G/B/L/D)用画像分類畳み込みネットワーク(例えばVGG16、ResNet101又はInception V3)にカスケード接続し、特徴抽出を行い、一つの1*4096次元の特徴を出力する。レーザポイントクラウドデータは一つの5チャネルデータ(X/Y/Z/I/L)の点集合であり、ポイントクラウド分類畳み込みネットワークにより特徴を抽出し、一つの1*256の特徴を出力する。走行可能なエリアビューは一つの1チャネル画像であり、同様に、画像分類畳み込みネットワーク(例えばVGG16、ResNet101又はInception V3)により特徴を抽出し、一つの1*256的特徴を出力する。次に、畳み込み特徴、目標方位及び前時刻報酬をカスケード接続し、第一層リカレントニューラルネットワークLSTMにインポートし、さらにリカレントニューラルネットワークの出力1*256特徴及び前時刻行為1*4をカスケード接続し、第二層リカレントニューラルネットワークLSTMにインポートし、最終的に一つの256次元の特徴を取得する。各行為意思決定及び行為価値に対して独立して予測を行うために、全結合型ネットワークにより、この5つの部分(走行速度、回転角速度、走行方向、回転方向及び行為価値)に対して独立して予測を行う。
【0043】
本公開実施形態において、多指標を組み合わせて報酬ルールを実行し、そのうち、目的地基準到達、段階的基準到達、走行可能エリア拘束走行時間、走行距離、交通違反及び安定運転判定を含む。具体的には以下のとおり:
1)目的地基準到達:目的地まで走行したら、報酬を与える、例えば報酬1000得点とする。
2)段階的基準到達:走行ルート上で固定距離に基づき一系列の段階的基準到達の位置を設定し、一つ前の基準到達位置から現在の基準到達位置まで走行したら、報酬を与える。例えば、1キロメートル毎に一つの段階的基準到達位置を設定し、一つ前の基準到達位置から当該基準到達位置まで走行したら、報酬200得点とする。
3)走行可能エリア拘束:トポロジーマップに対して一つの走行可能エリアを幅拡張し、車両が走行可能エリアを外れていないか否か、間隔をあけて検出し、外れていないなら、報酬を与え、もし外れていたら懲罰を行う。例えば50メートル毎に一回の検出を行い、走行可能エリアを離れたら、懲罰-1減点とし、もし離れなかったらで、報酬1得点とする。
4)走行時間:一つの予測走行時間を設定し、目的地に到達した時、リアル走行時間を測定し、予測走行時間を超えていたら、懲罰を行い、超えていないなら、報酬を行う。例えば、予測走行時間が100分であり、リアル走行時間が80分だった場合、報酬(100-80)=20得点とし、リアル運行時間が120分だった場合、懲罰(100-120)=-20減点とする。
5)走行距離:一つの予測走行距離を設定し、目的地に到達した時、リアル走行距離を測定し、予測走行距離を超えていたら、懲罰を行い、もし超えていないなら報酬を行う。例えば、予測走行距離が60キロメートルであり、リアル走行距離が40キロメートルであった場合、報酬(60-40)=20得点とし、リアル走行距離が80キロメートルであった場合、懲罰(60-80)=-20減点とする。
6)交通違反賞罰:
a)衝突発生:外的物体と衝突したら、懲罰を行い、そのうち外的物体として、歩行者、車両、樹木、縁石等を含むが、これらに限られない、例えば懲罰-1000減点とする。
b)交通信号機賞罰:交通信号機にあたった場合、信号遵守行為には報酬を行い、信号違反行為には懲罰を行う。例えば、赤信号を無視したら懲罰-500減点とし、赤信号で停止したら報酬200得点とする。
c)前方車両との距離:一つの前方車両との最小距離を設定し、一定時間をあけてリアルな前方車両との距離を検出し、当該距離閾値未満であれば、懲罰を行う。例えば、前方車両との最小距離を10メートルと設定し、1分毎に1回、前方車両との距離を検出し、検出された距離が10メートル未満の場合、懲罰-5減点とする。
d)速度超過の賞罰:現在の道路区間の速度閾値に基づき、一定時間をあけて走行速度を検出し、当該速度閾値を超えていたら、懲罰を行う。例えば、現在の道路区間の速度閾値が60キロメートル/時であり、1分毎に1回、車両速度を検出し、検出された車速が60キロメートル/時を超えていたら、懲罰-5減点とする。
7)安定運転賞罰:2つの加速度及び角度加速度閾値を設定し、一定時間をあけて車両の加速度及び角度加速度を検出し、当該閾値を超えていたら懲罰を行う。例えば、安定加速度閾値を5メートル/秒^2に設定し、角加速度閾値を2度/秒^2に設定し、10分毎に1回、車両加速度及び角加速度を検出し、閾値を超えていたら、懲罰-1減点とし、もし超えていないなら、報酬1得点とする。
同時に、上記賞罰状況に対して一つの重み付け値を設定することができ、最後に累計された賞罰はこれら賞罰の重み付けの和であるため、異なる重み付け値を設定することにより、ある指標に偏ったナビゲーション結果をトレーニングすることができる。例えば、走行時間の重み付け値を大きくすると、トレーニングされたインテリジェントナビゲーション方法は比較的早い速度で目的地に到達させる。
【0044】
本公開実施形態は、深層強化学習に基づくトポロジーマップにおける街頭風景インテリジェントナビゲーション方法を提供する。まず、車両走行前に、トポロジーマップに基づき、ルートプランニングを完成させて走行可能なルートを取得できる。車両走行中、当該トポロジーマップ及び特定した走行可能なルートに基づき、GPS信号により、車両に対して概略的に位置決めして、走行可能なエリアを取得し、その後、深層ニューラルネットワークにより局部緻密ナビゲーションを行うことができる。地図なし方式に比べ、本公開実施形態は、GPS拘束下でリアルタイムナビゲーションの正確性を高めることができ、且つナビゲーションモデルの多指標により、本公開実施形態は、完全にGPSに依存することなくナビゲーションのロバスト性を高めることができる。
【0045】
局部緻密ナビゲーションにおいて、本公開実施形態は新しい深層ニューラルネットワークを提供することにより、車両の意思決定を制御し、そして行為、状態及び報酬の三方面から機能改善を行う。そのうち、行為(action)は離散空間における走行速度、偏向角速度、走行方向及び偏向方向であり、これは、車両の意思決定制御をよりリアルにシミュレーションする。状態(state)データソースはシーンのビデオ画像、シーン解析図、シーン深度マップ、レーザポイントクラウドデータ及び走行可能なエリアビューを含み、マルチデータソースによりビゲーションエンジンのシーン適応力を高めることができる。多指標拘束において行為報酬(rewards)を定義し、そのうち、走行時間、走行距離、交通違反状況及び段階的基準到達等を含み、報酬に重み付けすることにより異なる指標における自適応ナビゲーションを実現する。以上をまとめ、本公開実施形態は比較的少ない代価により、ロバスト性を高め、提供される深層ニューラルネットワーク及び意思決定も、より一層リアルな運転に近づく。
【0046】
図8は本公開実施形態のトポロジーマップに基づくインテリジェントナビゲーションのシステムの主要なモジュールの概略図である。図8に示されるように、本公開実施形態のトポロジーマップに基づくインテリジェントナビゲーションのシステム800は、走行可能なエリアビュー特定モジュール801、シーンデータ取得モジュール802及び意思決定確定モジュール803を含む。
【0047】
走行可能なエリアビュー特定モジュール801は、構築されたトポロジーマップに基づき、現在地情報から走行可能なエリアビューを特定するためのものである。走行可能なエリアビュー特定モジュールはさらに、プリセットされた幅拡張ルールにより、走行可能なエリアを得られるように、トポロジーマップにおいて走行軌跡点を中心として幅拡張を行い、トポロジーマップにおいて現在地情報から範囲画像を特定し、走行可能なエリアビューを得られるように、範囲画像内の走行可能なエリアをマークするためのものである。
【0048】
シーンデータ取得モジュール802は、少なくともシーン画像、シーン深度マップ及びシーン解析図を含むシーンデータを取得するためのものである。シーンデータ取得モジュールはさらに、車載カメラによりシーン画像をリアルタイムに採集し、シーン深度マップを得られるように、シーン画像のシーン深度を解析し、シーン解析図を得られるように、シーン画像を意味解析するためのものである。シーンデータ取得モジュールはさらに、車載レーザーレーダーによりレーザーレーダーポイントをリアルタイムに採集し、レーザポイントクラウドデータを得られるように、レーザーレーダーポイントに対して正規化処理を行うためのものであり、シーンデータはさらにレーザポイントクラウドデータを含む。
【0049】
意思決定確定モジュール803は、走行可能なエリアビュー、シーンデータ及びナビゲーションモデルに基づき、行為意思決定を特定するためのものである。意思決定確定モジュールはさらに、画像分類畳み込みネットワークにより上記サンプルデータに対して特徴抽出を行い、抽出した特徴、目標位置及び前時刻報酬を第一層リカレントニューラルネットワークにインポートし、第一層リカレントニューラルネットワークの出力と前時刻行為を、第二層リカレントニューラルネットワークにインポートし、第二層リカレントニューラルネットワークの出力に基づき、全結合型ネットワークにより行為意思決定に対して予測を行うためのものであり、ナビゲーションモデルは深層強化学習トレーニングにより取得される。
【0050】
意思決定確定モジュールはさらに、行為意思決定の走行速度、偏向角速度、走行方向及び偏向方向に対してそれぞれ予測を行い、対応の予測確率を取得し、予測確率が最大である行為の組み合わせを、予測された行為意思決定として特定するためのものであり。行為意思決定は少なくとも走行速度、偏向角速度、走行方向及び偏向方向を含む。
【0051】
深層強化学習は深層ニューラルネットワークにより行為意思決定を予測し、そのうち、データ層及びネットワーク層を含む。入力はシーン画像、シーン解析図、シーン深度マップ、レーザポイントクラウドデータ、走行可能なエリアビュー、目標方位及び前時刻報酬を含み、出力は行為意思決定及び状態価値を含む。本公開実施形態において、シーン画像、シーン解析図、シーン深度マップを一つの5チャネル画像(R/G/B/L/D)用画像分類畳み込みネットワークにカスケード接続し、特徴抽出を行い、一つの1*4096次元の特徴を出力する。レーザポイントクラウドデータは一つの5チャネルデータ(X/Y/Z/I/L)の点集合であり、ポイントクラウド分類畳み込みネットワークにより特徴を抽出し、一つの1*256の特徴を出力する。走行可能なエリアビューは一つの1チャネル画像であり、同様に、画像分類畳み込みネットワークにより特徴を抽出し、一つの1*256の特徴を出力する。次に、畳み込み特徴、目標方位及び前時刻報酬をカスケード接続し、第一層リカレントニューラルネットワークLSTMにインポートし、さらにリカレントニューラルネットワークの出力1*256特徴及び前時刻行為1*4をカスケード接続し、第二層リカレントニューラルネットワークLSTMにインポートし、最終的に一つの256次元の特徴を取得する。各行為意思決定及び行為価値に対して独立して予測を行うために、全結合型ネットワークにより、この5つの部分(走行速度、回転角速度、走行方向、回転方向及び行為価値)に対して独立して予測を行う。また、多指標を組み合わせて報酬ルールを行い、そのうち、目的地基準到達、段階的基準到達、走行可能エリア拘束走行時間、走行距離、交通違反及び安定運転判定を含む。
【0052】
本公開実施形態は、深層強化学習に基づくトポロジーマップにおける街頭風景インテリジェントナビゲーション方法を提供する。まず、車両走行前に、トポロジーマップに基づき、ルートプランニングを完成させて走行可能なルートを取得できる。車両走行中、当該トポロジーマップ及び特定した走行可能なルートに基づき、GPS信号により、車両に対して概略的に位置決めして、走行可能なエリアを取得し、その後、深層ニューラルネットワークにより局部緻密ナビゲーションを行うことができる。地図なし方式に比べ、本公開実施形態は、GPS拘束下でリアルタイムナビゲーションの正確性を高めることができ、且つナビゲーションモデルの多指標により、本公開実施形態は、完全にGPSに依存することなくナビゲーションのロバスト性を高めることができる。
【0053】
局部緻密ナビゲーションにおいて、本公開実施形態は新しい深層ニューラルネットワークを提供することにより、車両の意思決定を制御し、そして行為、状態及び報酬の三方面から機能改善を行う。そのうち、行為(action)は離散空間における走行速度、偏向角速度、走行方向及び偏向方向であり、これは、車両の意思決定制御をよりリアルにシミュレーションする。状態(state)データソースはシーンのビデオ画像、シーン解析図、シーン深度マップ、レーザポイントクラウドデータ及び走行可能なエリアビューを含み、マルチデータソースによりナビゲーションエンジンのシーン適応力を高めることができる。多指標拘束において行為報酬(rewards)を定義し、そのうち、走行時間、走行距離、交通違反状況及び段階的基準到達等を含み、報酬に重み付けることにより異なる指標における自適応ナビゲーションを実現する。以上をまとめ、本公開実施形態は比較的少ない代価により、ロバスト性を高め、提供される深層ニューラルネットワーク及び意思決定もより一層リアルな運転に近づく。
【0054】
図9は本公開実施形態を応用できるトポロジーマップに基づくインテリジェントナビゲーションの方法又はトポロジーマップに基づくインテリジェントナビゲーションのシステム的例示的システムアーキテクチャ900を示す。
【0055】
図9に示されるように、システムアーキテクチャ900は、端末装置901、902、903、ネットワーク904及びサーバ905を含むことができる。ネットワーク904は端末装置901、902、903及びサーバ905の間に通信リンクを提供する媒体として用いられる。ネットワーク904は各種の接続タイプ、例えば有線、無線通信リンクまたは光ファイバーケーブル等を含むことができる。
【0056】
ユーザは、端末装置901、902、903を利用してネットワーク904によりサーバ905とインタラクティブして、情報等を受信又は送信できる。端末装置901、902、903に各種通信クライアント端末アプリケーションをインストールでき、例えばショッピング系アプリケーション、ウェブブラウザアプリケーション、検索系アプリケーション、インスタントメッセージツール、メールボックスクライアント端末、ソーシャルプラットフォームソフトウエア等(一部の例として)をインストールできる。
【0057】
端末装置901、902、903は表示モニターを備え、且つウェブブラウザをサポートする各種電子機器とすることができ、スマートフォン、タブレットPC、ラップトップコンピュータ及びデスクトップコンピュータ等を含むが、これらに限られない。
【0058】
サーバ905は各種サービスを提供するサーバとすることができ、例えばユーザ利用端末装置901、902、903で閲覧するショッピング系ウェブサイトに対してサポートを提供するバックグラウンド管理サーバ(一部の例として)とすることができる。バックグラウンド管理サーバは、受信した製品情報調査要求等のデータに対して分析等の処理を行い、処理結果を端末装置にフィードバックできる。
【0059】
説明すべきは、本公開実施形態で提供するトポロジーマップに基づくインテリジェントナビゲーションの方法は一般的にサーバ905により実行され、これに対応して、トポロジーマップに基づくインテリジェントナビゲーションのシステムは一般的にサーバ905に設けられる。
【0060】
図9における端末装置、ネットワーク及びサーバの数は単なる概略的なものであり、実現要求に基づき、任意の数の端末装置、ネットワーク及びサーバを有することができる、と理解されるべきである。
【0061】
以下、図10を参照し、これは本公開実施形態の端末装置を実現するために適用されるコンピュータシステム1000の構造概略図を示すものである。図10に示される端末装置は単に一つの例にすぎず、本公開実施形態の機能及び使用範囲に対して如何なる限定も加えるものではない。
【0062】
図10に示されるように、コンピュータシステム1000は中央処理ユニット(CPU)1001を含み、これはリードオンリーメモリ(ROM)1002に記憶されたプログラムまたは記憶部分1008からランダムアクセスメモリ(RAM)1003にロードされたプログラムに基づき、各種適切な動作及び処理を実行することができる。RAM 1003にはさらに、システム1000の操作に必要な各種プログラム及びデータが記憶される。CPU 1001、ROM 1002およびRAM 1003はバス1004により互いに接続される。入力/出力(I/O)インタフェース1005もバス1004に接続される。
【0063】
キーボード、マウス等を含む入力部分1006と、例えば陰極線管(CRT)、液晶ディスプレイ(LCD)等およびスピーカ等を含む出力部分1007と、ハードディスク等を含む記憶部分1008と、例えばLANカード、モデム等のネットワークインタフェースカードを含む通信部分1009がI/Oインタフェース1005に接続される。通信部分1009は例えばインターネットのネットワークを介して通信処理を実行する。ドライバ1010も必要に基づきI/Oインタフェース1005に接続される。リムーバブルメディア1011、例えば磁気ディスク、光ディスク、磁気光ディスク、半導体メモリ等は、そこから読み出されたコンピュータプログラムが必要に基づき記憶部分1008にインストールされるように、必要に基づきドライバ1010にインストールされる。
【0064】
特に、本公開で開示される実施形態に基づき、上文の参考フローチャートの説明過程はコンピュータソフトウエアプログラムとして実現される。例えば、本公開で開示される実施形態は、コンピュータプログラム製品を含み、これはコンピュータ読み取り可能な媒体にロードされたコンピュータプログラムを含み、当該コンピュータプログラムはフローチャートに示される方法を実行するためのプログラムコードを含む。このような実施形態において、当該コンピュータプログラムは通信部分1009によりネットワークからダウンロード及びインストールされる、及び/又はリムーバブルメディア1011がインストールされることができる。当該コンピュータプログラムが中央処理ユニット(CPU)1001により実行される時、本公開のシステムで限定される上記機能が実行される。
【0065】
説明すべきは、本公開に示されるコンピュータ読み取り可能な媒体は、コンピュータ読み取り可能な信号媒体またはコンピュータ読み取り可能な記憶媒体または上記両者の任意の組み合わせとすることができる。コンピュータ読み取り可能な記憶媒体は例えば、電気、磁気、光、電磁、赤外線、又は半導体のシステム、装置又はデバイス、または以上の任意の組み合わせとすることができるが、これらに限られない。コンピュータ読み取り可能な記憶媒体のより具体的な例としては、一つの又は複数の導線を有する電気接続、ポータブルコンピュータ磁気ディスク、ハードディスク、ランダムアクセスメモリ(RAM)、リードオンリーメモリ(ROM)、書き換え可能なリードオンリーメモリ(EPROM又はフラッシュメモリ)、光ファイバー、ポータブルコンパクト磁気ディスクリードオンリーメモリ(CD-ROM)、光記憶装置、磁気記憶装置、または上記の任意の適切な組み合わせを含むことができるが、これらに限られない。本公開において、コンピュータ読み取り可能な記憶媒体は、プログラムを含む又は記憶する如何なる有形媒体とすることができ、当該プログラムはコマンド実行システム、装置またはデバイスにより使用される、またはそれと組み合わせて使用することができる。また、本公開において、コンピュータ読み取り可能な信号媒体は、ベースバンドに、または搬送波の一部分として伝播するデータ信号に含まれることができ、その中にコンピュータ読み取り可能なプログラムコードをロードできる。この種の伝播するデータ信号は複数種類の形式を採用することができ、電磁気信号、光信号又は上記の任意の適切な組み合わせを含むことができるが、これらに限られない。コンピュータ読み取り可能な信号媒体はさらに、コンピュータ読み取り可能な記憶媒体以外の如何なるコンピュータ読み取り可能な媒体を含むことができ、当該コンピュータ読み取り可能な媒体は、コマンド実行システム、装置またはデバイスにより使用されるための、またはそれと組み合わせて使用されるためのプログラムを送信、伝播または伝送することができる。コンピュータ読み取り可能な媒体に含まれるプログラムコードは如何なる適切な媒体により伝送することができ、無線、電線、光ケーブル、RFなど、または上記の任意の適切な組み合わせを含むが、これらに限られない。
【0066】
図面におけるフローチャート及びブロック図は、本公開の各種実施形態のシステム、方法及びコンピュータプログラム製品に基づき実現可能なアーキテクチャ、機能及び操作を示す。この点において、フローチャート又はブロック図中の各ブロックは一つのモジュール、プログラムセクション、又はコードの一部分を表すことができ、上記モジュール、プログラムセクション、又はコードの一部分は一つの又は複数の、所定の論理機能を実現するための実行可能なコマンドを含む。また、注意すべきは、一部の代替的な実現様態において、ブロックに注記される機能は図面の注記と異なる順番で生じてもよい。例えば、2つの連続して表示されるブロックは実際、基本的に並行して実行することができ、場合によっては反対の順番で実行してもよく、これは関連する機能に基づいて定めることができる。また、注意すべきは、ブロック図又はフローチャート中の各ブロック、およびブロック図又はフローチャート中のブロックの組み合わせは、所定の機能又は操作を実行するための専用の、ハードウエアに基づくシステムにより実現されることができ、または専用ハードウエアとコンピュータコマンドの組み合わせにより実現されることもできる。
【0067】
本公開実施形態で説明された関連のモジュールは、ソフトウエアにより実現することも、ハードウエアにより実現することもできる。説明したモジュールは、プロセッサに設けることもでき、例えば、プロセッサは、走行可能なエリアビュー取得特定モジュール、シーンデータ取得モジュール及び意思決定特定モジュールを含むと記載することができる。そのうち、これらモジュールの名称はある場合において、当該モジュール自身に対する限定にはならず、例えば、走行可能なエリアビュー特定モジュールは“構築されたトポロジーマップに基づき、現在地情報から走行可能なエリアビューを特定するモジュール”と記載されてもよい。
【0068】
別の方面として、本公開はさらに、コンピュータ読み取り可能な媒体を提供し、当該コンピュータ読み取り可能な媒体は、上記実施形態において説明される設備に含まれるものとすることも、単独で存在して当該設備に取り付けられていないものとすることもできる。上記コンピュータ読み取り可能な媒体には、一つのまたは複数のプログラムがロードされ、上記一つのまたは複数のプログラムが一つの当該設備により実行される時、当該設備は、構築されたトポロジーマップに基づき、現在地情報から走行可能なエリアビューを特定し、少なくともシーン画像、シーン深度マップ及びシーン解析図を含むシーンデータを取得し、走行可能なエリアビュー、シーンデータ及びナビゲーションモデルに基づき、行為意思決定を特定する、ことを含む。
【0069】
本公開実施形態は、深層強化学習に基づくトポロジーマップにおける街頭風景インテリジェントナビゲーション方法を提供する。まず、車両走行前に、トポロジーマップに基づき、ルートプランニングを完成させて走行可能なルートを取得できる。車両走行中、当該トポロジーマップ及び特定した走行可能なルートに基づき、GPS信号により、車両に対して概略的に位置決めして、走行可能なエリアを取得し、その後、深層ニューラルネットワークにより局部緻密ナビゲーションを行うことができる。地図なし方式に比べ、本公開実施形態は、GPS拘束下でリアルタイムナビゲーションの正確性を高めることができ、且つナビゲーションモデルの多指標により、本公開実施形態は、完全にGPSに依存せずにナビゲーションのロバスト性を高めることができる。
【0070】
局部緻密ナビゲーションにおいて、本公開実施形態は新しい深層ニューラルネットワークを提供することにより、車両意思決定を制御し、そして行為、状態及び報酬の三方面から機能改善を行う。そのうち、行為(action)は離散空間における走行速度、偏向角速度、走行方向及び偏向方向であり、これは、車両の意思決定制御をよりリアルにシミュレーションする。状態(state)データソースはシーンのビデオ画像、シーン解析図、シーン深度マップ、レーザポイントクラウドデータ及び走行可能なエリアビューを含み、マルチデータソースによりナビゲーションエンジンのシーン適応力を高めることができる。多指標拘束において行為報酬(rewards)を定義し、そのうち、走行時間、走行距離、交通違反状況及び段階的基準到達等を含み、報酬に重み付けすることにより異なる指標における自適応ナビゲーションを実現する。以上をまとめ、本公開実施形態は比較的少ない代価により、ロバスト性を高め、提供される深層ニューラルネットワーク及び意思決定も、より一層リアルな運転に近づく。
【0071】
上記発明を実施するための形態は本公開の保護範囲に対して限定するものではない。設計要求及び他の要素によって決まり、各種様々な修正、組み合わせ、サブの組み合わせ及び替代案を有することができることは当業者にとって明らかである。本公開の精神及び原則のもとに行われる如何なる修正、均等の差し替え及び改良等はいずれも本公開の保護範囲内に含まれると理解される。
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10