(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024035220
(43)【公開日】2024-03-13
(54)【発明の名称】ニューラルネットワークモデルを用いて車線ポリラインを生成する装置及び方法{APPARATUS AND METHOD FOR GENERATING A LANE POLYLINE USING A NEURAL NETWORK MODEL}
(51)【国際特許分類】
G06T 7/00 20170101AFI20240306BHJP
G06V 10/82 20220101ALI20240306BHJP
G08G 1/16 20060101ALI20240306BHJP
【FI】
G06T7/00 350C
G06T7/00 650A
G06V10/82
G08G1/16 C
【審査請求】有
【請求項の数】12
【出願形態】OL
(21)【出願番号】P 2023141428
(22)【出願日】2023-08-31
(31)【優先権主張番号】10-2022-0109847
(32)【優先日】2022-08-31
(33)【優先権主張国・地域又は機関】KR
(31)【優先権主張番号】10-2023-0003419
(32)【優先日】2023-01-10
(33)【優先権主張国・地域又は機関】KR
(71)【出願人】
【識別番号】523045180
【氏名又は名称】42ドット・インコーポレイテッド
【氏名又は名称原語表記】42dot Inc.
(74)【代理人】
【識別番号】100145403
【弁理士】
【氏名又は名称】山尾 憲人
(74)【代理人】
【識別番号】100135703
【弁理士】
【氏名又は名称】岡部 英隆
(74)【代理人】
【識別番号】100227927
【弁理士】
【氏名又は名称】中村 拓
(72)【発明者】
【氏名】チョン,ソグ
(72)【発明者】
【氏名】クォン,ヒヨン
(72)【発明者】
【氏名】キム,ジョンヒ
(72)【発明者】
【氏名】チョン,ソンギュン
【テーマコード(参考)】
5H181
5L096
【Fターム(参考)】
5H181AA01
5H181BB20
5H181CC04
5H181CC24
5H181CC27
5H181FF04
5H181LL02
5H181LL04
5H181LL09
5H181MC19
5L096AA06
5L096BA04
5L096EA39
5L096FA03
5L096FA13
5L096FA22
5L096FA38
5L096FA62
5L096FA64
5L096FA69
5L096GA30
5L096HA11
5L096KA04
5L096MA07
(57)【要約】 (修正有)
【課題】ニューラルネットワークモデルから取得した車線ポリラインに対して別途の処理過程を経ずに車両制御に活用する車線ポリラインを生成する方法及び装置を提供する。
【解決手段】ニューラルネットワークモデルを用いて車線ポリラインを生成する方法は、車両に搭載された少なくとも1つのセンサから取得された基本画像を用いてマルチスケール画像特徴を抽出することと、第1ニューラルネットワークモデルにマルチスケール特徴を入力データとして入力し、第1ニューラルネットワークモデルの出力データとして鳥瞰図特徴を取得することと、第2ニューラルネットワークモデルに鳥瞰図特徴を入力データとして入力し、第2ニューラルネットワークモデルの出力データとして所定の道路のポリライン画像を取得する。
【選択図】
図10
【特許請求の範囲】
【請求項1】
ニューラルネットワークモデルを用いてポリライン(polylines)画像を生成する方法において、
車両に搭載された少なくとも1つのセンサから所定の道路の基本画像を取得するステップと、
前記基本画像を用いてマルチスケール画像特徴(feature)を抽出するステップと、
第1ニューラルネットワークモデルに前記マルチスケール特徴を入力データとして入力し、前記第1ニューラルネットワークモデルの出力データとして鳥瞰図特徴(BEV feature)を取得するステップと、
第2ニューラルネットワークモデルに前記鳥瞰図特徴を入力データとして入力し、前記第2ニューラルネットワークモデルの出力データとして前記所定の道路のポリライン画像を取得するステップと
を含む、方法。
【請求項2】
前記第1ニューラルネットワークモデルは、
複数の前記画像特徴のピクセル座標(pixel coordinate)と前記鳥瞰図特徴のグリッド(grid)間の双方向比較によって算出された変換(translation)損失を用いて学習される、請求項1に記載の方法。
【請求項3】
前記変換損失は、
前記ピクセル座標にルックアップテーブル関数を適用した値と前記グリッド値との差を示す第1値と、前記ピクセル座標値と前記グリッド値にルックアップテーブル逆関数を適用した値との差を示す第2値とに基づいて決定される、請求項2に記載の方法。
【請求項4】
前記方法は、
第3ニューラルネットワークモデルに前記鳥瞰図特徴を入力データとして入力し、前記第3ニューラルネットワークモデルの出力データとして前記鳥瞰図特徴のグリッド別の高さ値を取得するステップ
を含む、請求項1に記載の方法。
【請求項5】
前記第3ニューラルネットワークモデルの高さ損失は、
車線マーカーを用いて前記鳥瞰図特徴のグリッドにz値を補間して取得された偽実測マップ(pseudo ground truth map)の高さ値に基づいて決定される、請求項4に記載の方法。
【請求項6】
前記第2ニューラルネットワークモデルは埋め込みオフセット損失(embedding offset loss)を用いて学習され、
前記オフセット損失は、
前記所定の道路に含まれる複数の車線のそれぞれに対応する複数のクラスタについて、前景ピクセルのそれぞれが前記複数のクラスタのうちの所定のクラスタに該当する確率に基づいて決定される、請求項1に記載の方法。
【請求項7】
前記第2ニューラルネットワークモデルは、シード確率損失(seed probability loss)を用いて学習され、
前記シード確率損失は、
前記鳥瞰図特徴に含まれる複数のピクセルのうち、前景に含まれるピクセルには第1数式を適用し、後景に含まれるピクセルには第2数式を適用することによって決定される、請求項1に記載の方法。
【請求項8】
前記第2ニューラルネットワークモデルは、順序損失(order loss)を用いて学習され、
前記順序損失は、
前記鳥瞰図特徴に含まれる複数のピクセルのうち、前景ピクセルのそれぞれが含まれるクラスタに対応する車線に対して、前記前景ピクセルの順序(order)を用いて決定される、請求項1に記載の方法。
【請求項9】
前記方法は、
前記所定の道路のポリライン画像に基づいて、前記所定の道路を走行している車両を制御するための制御信号を生成するステップ
をさらに含む、請求項1に記載の方法。
【請求項10】
ポリライン画像を生成するニューラルネットワーク装置において、
少なくとも1つのプログラムが記憶されたメモリと、
前記少なくとも1つのプログラムを実行することによってニューラルネットワークを駆動するプロセッサとを含み、
前記プロセッサは、
車両に搭載された少なくとも1つのセンサから所定の道路の基本画像を取得し、
前記基本画像を用いてマルチスケール画像特徴を抽出し、
第1ニューラルネットワークモデルに前記マルチスケール特徴を入力データとして入力し、前記第1ニューラルネットワークモデルの出力データとして鳥瞰図特徴(BEV feature)を取得し、
第2ニューラルネットワークモデルに前記鳥瞰図特徴を入力データとして入力し、前記第2ニューラルネットワークモデルの出力データとして前記所定の道路のポリライン画像を取得する、ニューラルネットワーク装置。
【請求項11】
請求項1に記載の方法をコンピュータで実行するためのプログラムを記録したコンピュータ読み取り可能な記録媒体。
【請求項12】
ニューラルネットワークモデルを用いて車線ポリライン(lane polyline)を生成する方法において、
車両に搭載された少なくとも1つのセンサから所定の道路の基本画像を取得するステップと、
前記基本画像をニューラルネットワークモデルの入力データとして入力するステップと、
前記ニューラルネットワークモデルを駆動して前記基本画像から鳥瞰図特徴を生成し、前記生成された鳥瞰図特徴に基づいて車線ポリラインを出力データとして取得するステップとを含む、方法。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、ニューラルネットワークモデルを用いて車線ポリラインを生成する装置及び方法に関する。
【背景技術】
【0002】
情報通信技術と車両産業の融合により急速に車両のスマート化が進んでいる。スマート化により、車両は単純な機械的装置からスマートカーに進化しており、特にスマートカーの核心技術として自動運転が注目されている。自動運転とは、運転者がハンドルやアクセルペダル、ブレーキなどを操作しなくても車両が自ら目的地まで行く技術である。
【0003】
近年、技術の発展により、車線逸脱警告システムや車線維持などの安全運転補助システム、車両自動制御システムなどが開発され、実用化が急速に進んでいる。特に、走行車線の検出は、自動運転車両における主要課題を解決する核心技術の一つであり、国際的な関心の中で多くの研究が活発に行われている。
【0004】
走行車線の検出は安全運転に大きな影響を及ぼすため、車線の位置を推定して判断するために様々なセンサを活用して正確な走行車線を検出している。例えば、イメージセンサ、レーダー(RADAR)またはライダー(LIDAR)センサなど様々なセンサが、車線の検出や車両前方の物体認識のために単独または融合した形態で自動運転車両制御システムの具現に使われている。
【0005】
前述した背景技術は、発明者が本発明の導出のために保有していたり、本発明の導出過程で習得した技術情報であり、必ずしも本発明の出願前に一般公衆に公開された公知技術とは限らない。
【発明の概要】
【発明が解決しようとする課題】
【0006】
本発明は、ニューラルネットワークモデルを用いて車線ポリラインを生成する装置及び方法を提供する。本発明が解決しようとする課題は、以上で述べた課題に限定されず、言及されていない本発明の他の課題及び利点は、下記の説明によって理解されることができ、本発明の実施形態でより明確に理解されるであろう。さらに、本発明が解決しようとする課題及び利点は、特許請求の範囲に示された手段及びその組み合わせで実現できることが分かるであろう。
【課題を解決するための手段】
【0007】
上述した技術的課題を達成するための技術的手段として、本開示の第1側面は、ニューラルネットワークモデルを用いてポリライン(polylines)画像を生成する方法において、車両に搭載された少なくとも1つのセンサから所定の道路の基本画像を取得し、基本画像を用いてマルチスケール画像特徴(feature)を抽出するステップと、第1ニューラルネットワークモデルに前記マルチスケール特徴を入力データとして入力し、前記第1ニューラルネットワークモデルの出力データとして鳥瞰図特徴(BEV feature)を取得するステップと、第2ニューラルネットワークモデルに前記鳥瞰図特徴を入力データとして入力し、前記第2ニューラルネットワークモデルの出力データとして前記所定の道路のポリライン画像を取得するステップとを含む、方法を提供することができる。
【0008】
本開示の第2側面は、ニューラルネットワークモデルを用いて車線ポリラインを生成する装置において、少なくとも1つのプログラムが記憶されたメモリと、前記少なくとも1つのプログラムを実行することによってニューラルネットワークを駆動するプロセッサとを含み、前記プロセッサは、車両に搭載された少なくとも1つのセンサから所定の道路の基本画像を取得し、前記基本画像を用いてマルチスケール画像特徴を抽出し、第1ニューラルネットワークモデルに前記マルチスケール特徴を入力データとして入力し、第1ニューラルネットワークモデルの出力データとして鳥瞰図特徴(BEV特徴)を取得し、第2ニューラルネットワークモデルに前記鳥瞰図特徴を入力データとして入力し、前記第2ニューラルネットワークモデルの出力データとして前記所定の道路のポリライン画像を取得する、ニューラルネットワーク装置を提供することができる。
本開示の第3側面は、第1側面による方法をコンピュータで実行するためのプログラムを記録したコンピュータ読み取り可能な記録媒体を提供することができる。
【0009】
その他にも、本発明を実装するための他の方法、他のシステム及び前記方法を実行するためのコンピュータプログラムが記憶されたコンピュータ読み取り可能な記録媒体がさらに提供されることができる。
【0010】
前述したもの以外の他の側面、特徴、利点が、以下の図面、特許請求の範囲及び発明の詳細な説明から明確になるであろう。
【発明の効果】
【0011】
前述した本開示の課題解決手段によれば、本開示では、ニューラルネットワークモデルのend-to-end学習を通じて鳥瞰図特徴から所定の道路の車線ポリラインを高精度で取得することができる。
また、本開示では、ニューラルネットワークモデルから取得された車線ポリラインに対して別途の処理過程を経ずに車両制御に活用することができる。
【図面の簡単な説明】
【0012】
【
図1】
図1は、一実施形態に係る自動運転方式を説明するための図である。
【
図2】
図2は、一実施形態に係る自動運転方式を説明するための図である。
【
図3】
図3は、一実施形態に係る自動運転方式を説明するための図である。
【
図4】
図4は、一実施形態に係る画像エンコーディング及びビュー変換を実行する方法を説明するための例示的な図である。
【
図5a】
図5aは、一実施形態に係る鳥瞰図特徴を生成する方法を説明するための例示的な図である。
【
図5b】
図5bは、一実施形態に係る第1ニューラルネットワークモデルの学習過程を説明するための例示的な図である。
【
図6a】
図6aは、一実施形態に係るニューラルネットワークモデルの動作方法を説明するための例示的な図である。
【
図6b】
図6bは、一実施形態に係る第2ニューラルネットワークモデル及び第3ニューラルネットワークモデルの学習過程を説明するための例示的な図である。
【
図7a】
図7aは、一実施形態に係るシード確率損失を説明するための例示的な図である。
【
図7b】
図7bは、一実施形態に係るシード確率損失を説明するための例示的な図である。
【
図8a】
図8aは、埋め込みオフセット損失を説明するための例示的な図である。
【
図8b】
図8bは、埋め込みオフセット損失を説明するための例示的な図である。
【
図8c】
図8cは、埋め込みオフセット損失を説明するための例示的な図である。
【
図9】
図9は、一実施形態に係る順序損失を説明するための例示的な図である。
【
図10】
図10は、一実施形態に係るニューラルネットワークモデルを用いて車線ポリラインを生成することを説明するためのフローチャートである。
【
図11】
図11は、一実施形態に係る車線ポリライン生成装置のブロック図である。
【発明を実施するための形態】
【0013】
本発明の利点及び特徴、並びにそれらを達成する方法は、添付の図面と共に詳細に説明される実施形態を参照すれば明確になるであろう。しかしながら、本発明は、以下に提示される実施形態に限定されるものではなく、互いに異なる様々な形態で実装されることができ、本発明の思想及び技術範囲に含まれる全ての変換、均等物から代替物を含むものと理解されるべきである。以下に提示される実施形態は、本発明の開示を完全にし、本発明が属する技術分野において通常の知識を有する者に発明の範疇を完全に知らせるために提供されるものである。本発明を説明することにおいて、関連する公知技術に対する具体的な説明が本発明の要旨を阻害する可能性があると判断される場合、その詳細な説明を省略する。
【0014】
本出願で使用される用語は、単に特定の実施形態を説明するために使用されたものであり、本発明を限定しようとする意図ではない。単数の表現は、文脈上明らかに別段の意味を持たない限り、複数の表現を含む。本出願において、「含む」または「有する」などの用語は、本明細書に記載の特徴、数字、ステップ、動作、構成要素、部品、またはそれらを組み合わせたものが存在することを指定するものであり、1つまたは複数の他の特徴や数字、ステップ、動作、構成要素、部品、またはそれらを組み合わせたものの存在または追加の可能性を予め排除しないことと理解されるべきである。
【0015】
本開示の一部の実施形態は、機能的なブロック構成及び様々な処理ステップで表現されることができる。そのような機能ブロックの一部または全部は、特定の機能を実行する様々な数のハードウェア及び/またはソフトウェア構成で具現されることができる。 例えば、本開示の機能ブロックは、1つ以上のマイクロプロセッサによって具現されるか、所定の機能のための回路構成によって具現されることができる。さらに、例えば、本開示の機能ブロックは、様々なプログラミングまたはスクリプト言語で具現されることができる。機能ブロックは、1つ以上のプロセッサで実行されるアルゴリズムで具現されることができる。 さらに、本開示は、電子的な環境設定、信号処理及び/またはデータ処理などのために従来技術を採用することができる。「メカニズム」、「要素」、「手段」及び「構成」などの用語は広く使用されることができ、機械的及び物理的構成に限定されない。
【0016】
さらに、図面に示された構成要素間の接続線または接続部材は、機能的接続及び/または物理的または回路的接続を例示的に示したものにすぎない。実際の装置では、代替可能または追加された様々な機能的接続、物理的接続、または回路接続によって構成要素間の接続が示されることができる。
【0017】
以下において、「車両」とは、自動車、バス、オートバイ、キックボードまたはトラックなどのように機関を有して人または物を移動させるために用いられるあらゆる種類の輸送手段を意味することができる。
【0018】
以下、添付の図面を参照して本開示を詳細に説明する。
【0019】
図1~
図3は、一実施形態に係る自動運転方式を説明するための図である。
【0020】
図1を参照すると、本発明の一実施形態に係る自動運転装置は、車両に取り付けられて自動運転車両10を具現することができる。自動運転車両10に取り付けられる自動運転装置は、周辺の状況情報を収集するための様々なセンサを含むことができる。一例として、自動運転装置は、自動運転車両10の前面に取り付けられたイメージセンサ及び/またはイベントセンサを介して、前方で走行中の先行車両20の動きを感知することができる。自動運転装置は、自動運転車両10の前面はもちろん、となり車線で走行中の他の走行車両30と、自動運転車両10周辺の歩行者等を感知するためのセンサとをさらに含むことができる。
【0021】
自動運転車両周辺の状況情報を収集するためのセンサのうち少なくとも1つは、
図1に示すように、所定の視野FoVを有することができる。一例として、自動運転車両10の前面に取り付けられたセンサが
図1に示すような視野FoVを有する場合、センサの中央から検出される情報が比較的高い重要度を有することができる。これは、センサの中央から検出される情報に、先行車両20の動きに対応する情報がほとんど含まれているためである可能性がある。
【0022】
自動運転装置は、自動運転車両10のセンサが収集した情報をリアルタイムで処理して自動運転車両10の動きを制御する一方、センサが収集した情報のうち少なくとも一部はメモリ装置に記憶されることができる。
【0023】
図2を参照すると、自動運転装置40は、センサ部41、プロセッサ46、メモリシステム47、車体制御モジュール48などを含むことができる。センサ部41は、複数のセンサ42~45を含み、複数のセンサ42~45は、イメージセンサ、イベントセンサ、照度センサ、GPS装置及び加速度センサなどを含むことができる。
【0024】
センサ42~45が収集したデータはプロセッサ46に送信されることができる。プロセッサ46は、センサ42~45が収集したデータをメモリシステム47に記憶し、センサ42~45が収集したデータに基づいて車体制御モジュール48を制御して車両の動きを決めることができる。メモリシステム47は、2つ以上のメモリ装置と、メモリ装置を制御するためのシステムコントローラとを含むことができる。メモリ装置のそれぞれは1つの半導体チップで提供されることができる。
【0025】
メモリシステム47のシステムコントローラの他に、メモリシステム47に含まれる各メモリ装置はメモリコントローラを含むことができ、メモリコントローラはニューラルネットワークなどの人工知能(AI)演算回路を含むことができる。メモリコントローラは、センサ42~45またはプロセッサ46から受信したデータに所定の重みを付与して演算データを生成し、演算データをメモリチップに記憶させることができる。
【0026】
図3を参照すると、映像データ50は自動運転車両の前面に取り付けられたセンサが取得したデータであることができる。したがって、映像データ50は、自動運転車両の前面部51、自動運転車両と同じ車線の先行車両52、自動運転車両周辺の走行車両53、背景54及び車線55、56などを含むことができる。
【0027】
図3に示す実施形態に係る映像データ50において、自動運転車両の前面部51と背景54が表れる領域のデータは、自動運転車両の走行に影響を及ぼす可能性が低いデータである可能性がある。言い換えれば、自動運転車両の前面部51と背景54は、比較的重要度の低いデータと見なすことができる。
【0028】
一方、先行車両52との距離及び走行車両53の車線変更の動きなどは、自動運転車両の安全な走行において非常に重要な要素であることができる。したがって、映像データ50において先行車両52及び走行車両53などが含まれる領域のデータは、自動運転車両の走行において比較的高い重要度を有することができる。
【0029】
自動運転装置のメモリ装置は、センサから受信した映像データ50の領域別に重みを異なるように付与して記憶することができる。一例として、先行車両52と走行車両53などが含まれる領域のデータには高い重みを付与し、自動運転車両の前面部51と背景54が表れる領域のデータには低い重みを付与することができる。
【0030】
また、自動運転装置は、現在車両が走行中の道路に含まれた車線55、56を検出することができる。例えば、自動運転装置は、映像処理を通じて映像データ50において車線に該当する確率の高い車線ピクセルを検出し、検出した車線ピクセルを特定の車線モデルにフィッティング(fitting)して前方の車線配置状況を決定することができる。
【0031】
一実施形態において、自動運転装置は、ニューラルネットワークモデルを用いて映像データ50で車線ピクセルを検出することができる。ニューラルネットワークモデルは、映像データ50において車線に対応する車線ピクセルを検出するように学習(training)されたモデルである。ニューラルネットワークモデルには映像データ50が入力され、ニューラルネットワークモデルは、映像データ50に含まれた各映像ピクセルが車線55、56に該当する確率を示す確率情報を出力することができる。自動運転装置は、ピクセルごとの確率情報に基づいて車線ピクセルを決定することができる。例えば、自動運転装置は、映像データ50の映像ピクセルのうちニューラルネットワークモデルによって決定された確率値が閾値より大きい映像ピクセルを車線ピクセルとして決定することができる。
【0032】
図4は、一実施形態に係る画像エンコーディング及びビュー変換を実行する方法を説明するための例示的な図である。
【0033】
図4を参照すると、車線ポリライン生成装置は、画像エンコーダ(image encoder)410及びビュー変換器(view transformer)420を含むことができる。
【0034】
画像エンコーダ410は、基本画像411を入力データとして利用することができる。基本画像411は、車両に搭載された少なくとも1つのセンサから取得された車両が走行している道路の画像であることができる。例えば、車両に搭載された少なくとも1つのセンサは、
図2で説明したセンサ部41で具現されることができる。
【0035】
画像エンコーダ410は、基本画像411を特徴ピラミッドネットワーク(feature pyramid network)に適用してマルチスケール(multi-scale)画像特徴421を抽出することができる。
【0036】
特徴ピラミッドネットワークは、bottom-up過程412及びtop-down過程413で構成することができる。bottom-up過程412は、CNN(convolution neural network)を用いて基本画像411の解像度を1/2ずつ下げて複数の第1特徴マップを生成するフォワーディング(forwarding)過程であることができる。例えば、bottom-up過程412では、ResNet50が使用され、基本画像411と比較して、1/8、1/16、1/32及び1/64の大きさの第1特徴マップを生成することができる。
【0037】
top-down過程413は、bottom-up過程412で生成された最終第1特徴マップ414を2倍ずつアップ-サンプリング(up-sampling)して複数の第2特徴マップを生成し、複数の第2特徴マップと複数の第1特徴マップとを結合してマルチスケール画像特徴421を抽出する過程であることができる。
【0038】
ビュー変換器420は、画像エンコーダ410から抽出されたマルチスケール画像特徴421に対するビュー変換を実行し、鳥瞰図特徴(BEV feature)422を生成することができる。鳥瞰図特徴422を生成する方法については、
図5で後述する。
【0039】
図5aは、一実施形態に係る鳥瞰図特徴を生成する方法を説明するための例示的な図である。
【0040】
図5aを参照すると、車線ポリライン生成装置に含まれたビュー変換器500が示される。ビュー変換器500は画像特徴510を入力され、所定のステップを経て鳥瞰図特徴520を生成することができる。
【0041】
具体的には、ビュー変換器500は、第1ステップ531で画像特徴510の高さ(height)次元で崩壊(collapse)させ、第2ステップ532で画像特徴510を含むマルチスケール画像特徴を深さ(depth)次元にストレッチさせ、第3ステップ533でカメラパラメータを用いてリサンプリング(resampling)することによって、鳥瞰図特徴520を生成することができる。
【0042】
一方、車線ポリライン生成装置は、鳥瞰図特徴520fBEVcにホモグラフィ変換(homography transformation)Hcを適用して正規座標(canonical coordinate)にリマップ(remap)することができる。具体的には、車線ポリライン生成装置は、数式1に従って鳥瞰図特徴520fBEVcにホモグラフィ変換を適用することができる。数式1では、Iは基本画像、F(・)は画像エンコーダ関数、T(・)はビュー変換器、Kは所定の道路を撮影するカメラ関連パラメータ(例えば、焦点距離、カメラ主点など)、Rは車両座標系-カメラ座標系間の回転変換、tは車両座標系-カメラ座標系間の移動変換を意味する。また、z=0というのは、数式1による結果値である変換された鳥瞰図特徴fBEVがXY平面上の値であることを意味する。
【0043】
【0044】
車線ポリライン生成装置は、変換された鳥瞰図特徴f
BEVをニューラルネットワークモデルの入力データとして用い、所定の道路の車線ポリラインを出力データとして用いることにより、ニューラルネットワークモデルを学習させることができる。ニューラルネットワークモデルの学習方法については、
図6a~
図6bで後述する。
【0045】
図5bは、一実施形態に係る第1ニューラルネットワークモデルの学習過程を説明するための例示的な図である。
【0046】
図5bの第1ビュー変換器541aは、
図5aのビュー変換器500に対応されることができる。第1ビュー変換器541aは、画像特徴f542aを入力され、
図5aで上述した方法に従って鳥瞰図特徴f
BEV543aを生成することができる。
【0047】
一方、ビュー変換過程で不完全な幾何変換(imperfect geometry transformation)と情報損失が発生する可能性がある。本開示では、これを改善するために、すなわち、不完全な幾何変換をカバー(cover)し、情報損失を最小限に抑えるために、第1ニューラルネットワークモデル540を用いることができる。
【0048】
第1ニューラルネットワークモデル540は、ビュー変更にかかわらず一貫性を維持する変換損失Ltrans(translation loss)を用いて学習されることができる。すなわち、3D車線アノテーション及びカメラポーズ媒介変数が知られている状況において、本開示では、第1ニューラルネットワークモデル540を用いて車線に関連する画像特徴及び鳥瞰図特徴を一緒に学習することができる。
【0049】
具体的には、第1ニューラルネットワークモデル540は、複数の画像特徴
のピクセル座標(pixel coordinate)と鳥瞰図特徴
のグリッド(grid)間の双方向比較によって算出された変換損失L
trans544を用いて学習されることができる。変換損失L
trans544は、以下の数式2のように表すことができる。
【0050】
【0051】
数式2を参照すると、ピクセル座標f
iにルックアップテーブル関数h()を適用した値h(f
i)とグリッド値
の差を示す第1値と、ピクセル座標値
とグリッド値f
iB にルックアップテーブル逆関数h-1()を適用した値h-1(f
iB)の差を示す第2値に基づいて、変換損失L
transを決定することができる。
【0052】
また、変換損失L
trans544を最小限に抑えられるように、第1ニューラルネットワークモデル540の第2ビュー変換器541bのパラメータを最適化する過程で、変換損失L
trans544によって計算されたグラジエントの逆伝播が第2ニューラルネットワークモデル550及び第3ニューラルネットワークモデル560に影響を与えないようにするために、本開示では、第1ニューラルネットワークモデル540を第2ニューラルネットワークモデル550及び第3ニューラルネットワークモデル560と分離(detach)してシステムを構成することができる。すなわち、
図5bでは、モデル間の分離された特性を示すために画像特徴f542a及び鳥瞰図特徴f
BEV543aと、画像特徴
及び鳥瞰図特徴
とを異なる表記で示したが、互いに対応する特徴間の値は同じであることができる。
【0053】
一方、第2ニューラルネットワークモデル550及び第3ニューラルネットワークモデル560の説明は、
図6a~
図6bで後述する。
【0054】
図6aは、一実施形態に係る第2ニューラルネットワークモデルの動作方法を説明するための例示的な図である。
【0055】
図6aを参照すると、第2ニューラルネットワークモデル600が示されている。車線ポリライン生成装置は、変換された鳥瞰図特徴610を第2ニューラルネットワークモデル600の入力データとして入力し、第2ニューラルネットワークモデル600の出力データとして所定の道路の車線ポリライン640(またはポリライン画像)を取得することができる。
【0056】
第2ニューラルネットワークモデル600には、変換された鳥瞰図特徴610を入力データとして入力することができる。変換された鳥瞰図特徴610は、前記数式1を介して算出された結果値であることができる。変換された鳥瞰図特徴610に予め設定された少なくとも1つの層620及び損失関数630を適用することによって、第2ニューラルネットワークモデル600の出力データとして車線ポリライン640を取得することができる。
【0057】
一実施形態において、第2ニューラルネットワークモデル600は、以下の数式3による損失関数L(・)値が最小になるように学習されることができる。数式3においてIは基本画像、M(・)はニューラルネットワークモデル600、Kは所定の道路を撮影するカメラ関連パラメータ(例えば、焦点距離、カメラ主点など)、Rはカメラ座標系、tは車両座標系を意味する。X
BEVは、所定の道路の車線ポリラインのground truth値であり
は、所定の道路の車線ポリラインの第2ニューラルネットワークモデル600を介して予測された値を意味する。
【0058】
【0059】
本開示では、ホモグラフィ関数を用いることなく、第2ニューラルネットワークモデル600のend-to-end学習を通じて所定の道路の車線ポリラインを取得することができる。本開示では、そのために、第2ニューラルネットワークモデル600の学習に用いられる少なくとも1つの損失関数(loss function)を設定することができる。損失関数の具体的な内容については以下で後述する。
【0060】
図6bは、一実施形態に係る第2ニューラルネットワークモデル及び第3ニューラルネットワークモデルの学習過程を説明するための例示的な図である。
【0061】
図6bを参照すると、車線ポリライン生成装置は、第2ニューラルネットワークモデル660に鳥瞰図特徴f
B650を入力データとして入力し、第2ニューラルネットワークモデル660の出力データとして所定の道路のポリライン画像を取得することができる。
【0062】
このとき、第2ニューラルネットワークモデル660は埋め込みオフセット損失Lembedを用いて学習されることができる。オフセット損失Lembedは、所定の道路に含まれる複数の車線のそれぞれに対応する複数のクラスタについて、前景ピクセルのそれぞれが複数のクラスタのうちの所定のクラスタに該当する確率に基づいて決定されることができる。埋め込みオフセット損失Lembedについては、以下の数式6の関連部分でさらに詳しく説明する。
【0063】
また、第2ニューラルネットワークモデル660はシード確率損失Lseedを用いて学習されることができる。シード確率損失Lseedは、鳥瞰図特徴fB650に含まれる複数のピクセルのうち、前景に含まれるピクセルには第1数式を適用し、後景に含まれるピクセルには第2数式を適用することによって決定されることができる。シード確率損失Lseedについては、以下の数式5の関連部分でさらに詳しく説明する。
【0064】
また、第2ニューラルネットワークモデル660は順序損失Lоrdを用いて学習されることができる。順序損失Lоrdは、鳥瞰図特徴fB650に含まれる複数のピクセルのうち、前景ピクセルのそれぞれが含まれるクラスタに対応する車線に対して、前景ピクセルの順序を用いて決定されることができる。順序損失Lоrdについては、以下の数式9の関連部分でさらに詳しく説明する。
【0065】
第2ニューラルネットワークモデル660埋め込みオフセット損失Lembed、シード確率損失Lseed、順序損失Lоrdのうち少なくとも1つの損失が最小になるように学習されることができる。
【0066】
一実施形態において、車線ポリライン生成装置は、第3ニューラルネットワークモデル670に鳥瞰図特徴を入力データとして入力し、第3ニューラルネットワークモデル670の出力データとして鳥瞰図特徴のグリッドごとの高さ値を取得することができる。
【0067】
このとき、第3ニューラルネットワークモデル670は高さ損失Lheightを用いて学習されることができる。高さ損失Lheightは、車線マーカーを用いて鳥瞰図特徴fB650のグリッドにz値を補間して取得された偽実測マップ(pseudo ground truth map)の高さ値Ziに基づいて決定されることができる。
【0068】
高さ損失Lheightは以下の数式4のように表現することができる。
【0069】
【0070】
数式4を参照すると、高さ損失L
heightは偽実測マップの高さ値Z
iと鳥瞰図特徴f
B650グリッドの高さ値
間の平均二乗誤差(mean square error)で算出することができる。
【0071】
一方、第3ニューラルネットワークモデル670には、畳み込み層の間に固定されたカーネル重み値を有するガウシアンフィルタ層を適用することができる。ガウシアンフィルタ層は、周辺グリッド(neighboring grid)の高さが急激に変化することを防ぐことができる。
【0072】
本開示では、第2ニューラルネットワークモデル660を用いて車線の中心(centroid)に対するx-変位(x-displacement)、y-変位(y-displacement)の空間埋め込みを予測し、車線に該当する可能性を予測することによってポリラインを作成することができる。また、本開示では、第3ニューラルネットワークモデル670を用いて地面における路面(road surface)の高さを緻密に(densely)予測することができる。
【0073】
一実施形態において、車線ポリライン生成装置は、追加ニューラルネットワークモデル680をさらに含むことができる。追加ニューラルネットワークモデル680を用いて、画像特徴内の車線領域に関連する特徴にさらに集中させる役割を果たすことができる。
【0074】
図7a~
図7bは、一実施形態に係るシード確率損失を説明するための例示的な図である。
【0075】
図7a~
図7bを参照すると、ピクセル座標系700が示されている。車線ポリライン生成装置は、鳥瞰図特徴の空間座標システムを埋め込み座標システムに変換することによってピクセル座標系700を生成することができる。
【0076】
図7aを参照すると、ピクセル座標系700に含まれる点表示710はピクセルを表し、直線表示720は車線を表す。
【0077】
鳥瞰図画像生成装置は、第2ニューラルネットワークモデルに適用される少なくとも1つの損失関数(または損失)であり、シード確率損失(seed probability loss)を設定することができる。シード確率は、ピクセル座標系700上の複数のピクセルのそれぞれが前景(foreground)または後景(background)のうちどのカテゴリに該当するかによって値が異なってくる。ここで、前景とは、車両、車線等の対象物を意味し、後景とは背景を意味する。ピクセル座標系700上の所定のピクセルが後景であると決定された場合、車線ポリライン生成装置は該当ピクセルのシード確率を0と決定することができる。また、ピクセル座標系700上の所定のピクセルが前景に該当する確率が高いほど、車線ポリライン生成装置は、該当ピクセルのシード確率が1に近い値を有するように決定することができる。
【0078】
ピクセル座標系700上の複数のピクセルは、前景を表す前景ピクセルまたは後景を示す後景ピクセルに分けられるが、
図7bを参照すると、ピクセル座標系700上の複数のピクセルである第1ピクセルグループ730は前景ピクセルに該当し、第2ピクセルグルーブ740は後景ピクセルに該当する。
【0079】
一実施形態において、車線ポリライン生成装置は、複数のピクセルのうち、前景に該当する前景ピクセルには第1数式を適用し、後景に該当する後景ピクセルには第2数式を適用することによって、第1数式及び第2数式からなるシード確率損失を設定することができる。
【0080】
鳥瞰図画像生成装置は、所定の道路に含まれる複数の車線のそれぞれに対応する複数のクラスタについて、前景ピクセルのそれぞれが複数のクラスタのうちの所定のクラスタに該当する確率を算出することができる。車線ポリライン生成装置は、前景ピクセルのピクセル値及び算出された確率に基づいて第1数式を設定することができる。一方、クラスタに該当する確率を算出する方法については、
図8a~
図8cで後述する。
【0081】
また、車線ポリライン生成装置は、前景ピクセルのピクセル値及び後景ピクセルのピクセル値の間の不均衡を補正するために、スケーリング因子(scaling factor)をさらに適用して第1数式を設定することができる。
【0082】
また、車線ポリライン生成装置は、後景ピクセルのピクセル値に基づいて第2数式を設定することができる。
【0083】
上述した第1数式及び第2数式を含むシード確率損失は、以下の数式5で表すことができる。一実施形態において、第2ニューラルネットワークモデルは、以下の数式5によるシード確率損失Lseed(・)値が最小になるように学習されることができる。
【0084】
数式5において、右辺の第1項は上述した第1数式、第2項は上述した第2数式であることができる。また、数式5において、Nはピクセル座標系700に含まれるピクセルの個数、δはスケーリング因子、qiはi番目のピクセルがシード予測値、Skは前景、bgは後景、φk(ei)はピクセル座標系700上のi番目の埋め込み座標eiがk番目のクラスタに該当する確率を意味する。
【0085】
【0086】
図8a~
図8cは、埋め込みオフセット損失を説明するための例示的な図である。
【0087】
図8a~
図8cを参照すると、ピクセル座標系800が示されている。
図8aを参照すると、ピクセル座標系800に含まれる第1直線表示811及び第2直線表示812は互いに異なる車線を表す。
【0088】
車線ポリライン生成装置は、第2ニューラルネットワークモデルに適用される少なくとも1つの損失関数(または損失)であり、埋め込みオフセット損失(embedding offset loss)を設定することができる。埋め込みオフセットは、ピクセル座標系800上のi番目の埋め込み座標eiがk番目のクラスタに該当する確率を表す。ここでクラスタは、所定の道路に含まれる複数の車線のそれぞれに対して設定されることができる。ピクセル座標系800上のi番目のピクセルがk番目のクラスタの中心に近接して位置するほど、車線ポリライン生成装置は該当確率値φk(ei)を1に近いように決定することができる。
【0089】
図8bを参照すると、各ピクセルの陰影表示は、所定のクラスタに該当する確率を視覚化して表示したものであり、陰影表示が濃いほど所定のクラスタに該当する確率値が大きいことを意味する。
図8aにおいて、第1直線表示811に近接して位置した第1ピクセル821及び第2直線表示812に近接して位置した第2ピクセル825は、所定のクラスタに該当する確率値が非常に大きいため、
図8bにおいて陰影表示が濃く表示されていることが分かる。一方、車線ポリライン生成装置は、所定のクラスタに該当する確率を前景ピクセルに対してのみ算出することができ、後景ピクセルに対しては計算を省略することができる。
【0090】
図8cを参照すると、クラスタごとにピクセルが集まっていることが示されている。上述した鳥瞰図特徴は空間座標(spatial coordinates)を有し、車線ポリライン生成装置は第2ニューラルネットワークモデルを駆動して空間座標を有する鳥瞰図特徴を二次元埋め込み座標(embedding coordinates)850に変換することができる。
【0091】
車線ポリライン生成装置は、埋め込み座標850上の第1ピクセル821を第1クラスタ831の中心点(centroid)、第2ピクセル825を第2クラスタ835の中心点に設定することができる。
【0092】
一実施形態において、車線ポリライン生成装置は、鳥瞰図特徴に含まれる複数のピクセルの中から前景に該当する前景ピクセルを抽出することができる。また、車線ポリライン生成装置は、所定の道路に含まれる複数の車線のそれぞれに対応する埋め込み座標850上の複数のクラスタに対して、前景ピクセルのそれぞれが複数のクラスタのうち所定のクラスタに該当する確率を算出することができる。また、車線ポリライン生成装置は、算出された確率を利用する埋め込みオフセット損失を設定し、埋め込みオフセット損失を用いて第2ニューラルネットワークモデルを学習させることができる。
【0093】
さらに、車線ポリライン生成装置は、埋め込み座標850上の複数のクラスタのそれぞれの中心点及びクラスタを形成するための固定マージン(fixed margin)を設定することができる。車線ポリライン生成装置は、中心点及び固定マージンを用いて、前景ピクセルのそれぞれが複数のクラスタのうち所定のクラスタに該当する確率を算出することができる。
【0094】
また、車線ポリライン生成装置は、前景ピクセルのそれぞれが埋め込み座標850上の複数のクラスタのうち所定のクラスタに該当する確率を算出するために、クラスタリング閾確率値を設定することができる。車線ポリライン生成装置は、中心点、固定マージン及びクラスタリング閾確率値を用いて、前景ピクセルのそれぞれが複数のクラスタのうち所定のクラスタに該当する確率を算出することができる。
【0095】
第2ニューラルネットワークモデルは、以下の数式6による埋め込みオフセット損失Lembed(・)値が最小になるように学習されることができる。数式6では、Kはクラスタ数、Lh(・)はサポートベクターマシン関連損失(たとえば、Lovasz hinge loss)を意味する。
【0096】
【0097】
また、前景ピクセルのそれぞれが埋め込み座標850上の複数のクラスタのうち所定のクラスタに該当する確率であるφk(ei)は、以下の数式7によって算出されることができる。数式7によると、φk(ei)はガウシアン分布に従う。
【0098】
【0099】
また、数式7のσは、以下の数式8よって算出されることができる。数式8において、Rは埋め込み空間800でクラスタを形成するための固定マージン、Pr-はクラスタリング閾確率値を表す。
【0100】
【0101】
図9は、一実施形態に係る順序損失を説明するための例示的な図である。
【0102】
車線ポリライン生成装置は、第2ニューラルネットワークモデルに適用される少なくとも1つの損失関数(または損失)であり、順序損失(ordinal loss)を設定することができる。ここでの順序とは、ポリラインに対応する車線の開始と終了に対する順序を意味する。車線ポリライン生成装置は、ピクセル座標系上の所定のピクセルが車線の始点(starting point)に近いほど順序値は0に近い値に決定し、車線の終点(ending point)に近いほど順序値は1に近い値に決定することができる。
【0103】
図9を参照すると、ピクセル座標系上の各ピクセルが車線の始点と終点との間においてどの順序で配置されるかが示されている。
図9の順序値1及び順序値2は、それぞれ異なる車線(またはクラスタ)に対する結果値を示す。
図9において、陰影表示が濃いほど、所定のピクセルが車線の終点に近いことを示す。
【0104】
一実施形態において、車線ポリライン生成装置は、鳥瞰図特徴に含まれる複数のピクセルの中から前景に該当する前景ピクセルを抽出することができる。また、車線ポリライン生成装置は、所定の道路に含まれる車線に対する前記前景ピクセルのそれぞれの順序を用いる順序損失を設定し、順序損失を用いて第2ニューラルネットワークモデルを学習させることができる。
【0105】
さらに、車線ポリライン生成装置は、順序損失を設定するために、前景ピクセルのそれぞれを含むクラスタを識別し、識別されたクラスタに対応する車線に対して、前景ピクセルの順序(order)値を決定することができる。車線ポリライン生成装置は、前景ピクセルのそれぞれに対する順序値を用いることによって順序損失を設定することができる。
【0106】
また、車線ポリライン生成装置は、順序値を決定するために、車線の始点に近い前景ピクセルであるほど第1値に近い値を有し、車線の終点に近い前景ピクセルであるほど第2値に近い値を有するように、前景ピクセルの順序値を決定することができる。
【0107】
車線ポリライン生成装置は、smooth L1アルゴリズムを用いて前記順序損失を設定することができるが、用いられるアルゴリズムはこれに限定されない。
【0108】
第2ニューラルネットワークモデルは、以下の数式9による順序損失L
оrd(・)値が最小になるように学習されることができる。数式9において、dnはn番目のピクセルの順序値を意味し、0から1の間の値を有する。
はground truth値を意味する。
【0109】
【0110】
一方、smooth L1アルゴリズムは式10で表すことができる。
【0111】
【0112】
車線ポリライン生成装置は、埋め込みオフセット損失、シード確率損失、及び順序損失のうち少なくとも1つが最小になるように第2ニューラルネットワークモデルを学習させることができる。
【0113】
一実施形態において、車線ポリライン生成装置は、以下の数式11による最終損失が最小になるように第2ニューラルネットワークモデルを学習させることができる。数式11においてα,β,γは、各項の重要度によって異なるように設定することができる。
【0114】
【0115】
さらに、車線ポリライン生成装置は、埋め込みオフセット損失、シード確率損失、順序損失、変換損失、及び高さ損失のうち少なくとも1つが最小になるように第1~第3ニューラルネットワークモデルを学習させることができる。
【0116】
一実施形態において、車線ポリライン生成装置は、以下の数式12による最終損失が最小になるように第1~第3ニューラルネットワークモデルを学習させることができる。数式12においてα,β,γ,δ,εは、各項の重要度によって異なるように設定することができる。
【0117】
【0118】
図10は、一実施形態に係るニューラルネットワークモデルを用いて車線ポリラインを生成することを説明するためのフローチャートである。
【0119】
図10を参照すると、ステップ1010において、車線ポリライン生成装置は、車両に搭載された少なくとも1つのセンサから取得された所定の道路の基本画像を取得することができる。
【0120】
ステップ1020において、車線ポリライン生成装置は、基本画像を用いてマルチスケール画像特徴を抽出することができる。
【0121】
ステップ1030において、車線ポリライン生成装置は、第1ニューラルネットワークモデルにマルチスケール特徴を入力データとして入力し、第1ニューラルネットワークモデルの出力データとして鳥瞰図特徴を取得することができる。
【0122】
一実施形態において、車線ポリライン生成装置は、複数の画像特徴のピクセル座標(pixel coordinate)と前記鳥瞰図特徴のグリッド(grid)間の双方向比較によって算出された変換損失(translation)を用いて、第1ニューラルネットワークモデルを学習させることができる。
【0123】
前記変換損失は、ピクセル座標にルックアップテーブル関数を適用した値とグリッド値との差を示す第1値と、ピクセル座標値と前記グリッド値にルックアップテーブル逆関数を適用した値との差を示す第2値とに基づいて決定されることができる。変換損失は、上述した数式2のように表すことができる。
【0124】
ステップ1040において、車線ポリライン生成装置は、第2ニューラルネットワークモデルに鳥瞰図特徴を入力データとして入力し、第2ニューラルネットワークモデルの出力データとして所定の道路のポリライン画像を取得することができる。
【0125】
一実施形態において、車線ポリライン生成装置は、埋め込みオフセット損失(embedding offset loss)を用いて第2ニューラルネットワークモデルを学習させることができる。オフセット損失は、所定の道路に含まれる複数の車線のそれぞれに対応する複数のクラスタについて、前景ピクセルのそれぞれが複数のクラスタのうちの所定のクラスタに該当する確率に基づいて決定されることができる。
【0126】
また、車線ポリライン生成装置は、シード確率損失(seed probability loss)を用いて第2ニューラルネットワークモデルを学習させることができる。シード確率損失は、鳥瞰図特徴に含まれる複数のピクセルのうち、前景に含まれるピクセルには第1数式を適用し、後景に含まれるピクセルには第2数式を適用することによって決定されることができる。
【0127】
また、車線ポリライン生成装置は、順序損失(order loss)を用いて第2ニューラルネットワークモデルを学習させることができる。順序損失は、鳥瞰図特徴に含まれる複数のピクセルのうち、前景ピクセルのそれぞれが含まれるクラスタに対応する車線に対して、前記前景ピクセルの順序(order)を用いて決定されることができる。
【0128】
一実施形態において、車線ポリライン生成装置は、埋め込みオフセット損失、シード確率損失、及び順序損失のうち少なくとも1つが最小になるようにニューラルネットワークモデルを学習させることができる。
【0129】
一実施形態において、車線ポリライン生成装置は、第3ニューラルネットワークモデルに鳥瞰図特徴を入力データとして入力し、第3ニューラルネットワークモデルの出力データとして鳥瞰図特徴のグリッドごとの高さ値を取得することができる。
【0130】
第3ニューラルネットワークモデルの高さ損失は、車線マーカーを用いて前記鳥瞰図特徴のグリッドにz値を補間して取得された偽実測マップ(pseudo ground truth map)の高さ値に基づいて決定されることができる。
【0131】
一実施形態において、車線ポリライン生成装置は、所定の道路のポリライン画像に基づいて、所定の道路を走行している車両を制御するための制御信号を生成することができる。例えば、車線ポリライン生成装置は、ポリライン画像を用いて車両の車線維持状態、車線変更状態、車線逸脱状態などを決定し、決定された状態に基づいて制御信号を生成することができる。
【0132】
図11は、一実施形態に係る車線ポリライン生成装置のブロック図である。
【0133】
図11を参照すると、車線ポリライン生成装置1100は、通信部1110、プロセッサ1120及びDB1130を含むことができる。
図11の車線ポリライン生成装置1100には、実施形態に関する構成要素のみが図示されている。したがって、
図11に図示された構成要素以外に他の汎用的な構成要素がさらに含まれる可能性があるということを当該技術分野の通常の技術者であれば理解できる。
【0134】
通信部1110は、外部サーバまたは外部装置と有線/無線通信ができるようにする1つ以上の構成要素を含むことができる。例えば、通信部1110は、近距離通信部(図示せず)、移動通信部(図示せず)及び放送受信部(図示せず)のうち少なくとも1つを含むことができる。
【0135】
DB1130は、車線ポリライン生成装置1100内で処理される各種データを記憶するハードウェアで、プロセッサ1120の処理及び制御のためのプログラムを記憶することができる。
【0136】
DB1130は、DRAM(dynamic random accessmemory)、SRAM(static random accessmemory)などのRAM(random access memory)、ROM(read-only memory)、EEPROM(electrically erasable programmable read-onlymemory)、CD-ROM、ブルーレイまたは他の光学ディスクストレージ、HDD(hard disk drive)、SSD(solid state drive)、またはフラッシュメモリを含むことができる。
【0137】
プロセッサ1120は、車線ポリライン生成装置1100の全般的な動作を制御する。例えば、プロセッサ1120はDB1130に保存されたプログラムを実行することで、入力部(図示せず)、ディスプレイ(図示せず)、通信部1110、DB1130などを全般的に制御することができる。プロセッサ1120は、DB1130に記憶されたプログラムを実行することで、車線ポリライン生成装置1100の動作を制御することができる。
【0138】
プロセッサ1120は、
図1~
図10で上述した車線ポリライン生成装置1100の動作のうち少なくとも一部を制御することができる。車線ポリライン生成装置1100及び自動運転装置40は同じ装置であるか、各装置で行われる少なくとも一部の動作が同じであることができる。
【0139】
プロセッサ1120は、ASICs(application specific integrated circuits)、DSPs(digital signal processors)、DSPDs(digital signal processing devices)、PLDs(programmable logic devices)、FPGAs(field programmable gate arrays)、制御機(controllers)、マイクロコントローラ(micro-controllers)、マイクロプロセッサ(microprocessors)、その他の機能実行のための電気的ユニットのうち少なくとも一つを利用して具現されることができる。
【0140】
一実施形態として、車線ポリライン生成装置1100は、移動性を有する電子装置であることができる。例えば、車線ポリライン生成装置1100はスマートフォン、タブレットPC、PC、スマートTV、PDA(personaldigitalassistant)、ラップトップ、メディアプレーヤー、ナビゲーション、カメラが搭載されたデバイス及びその他のモバイル電子装置で具現されることができる。また、車線ポリライン生成装置1100は通信機能及びデータプロセッシング機能を備えた時計、眼鏡、ヘアバンド及び指輪などのウェアラブル装置で具現されることができる。
【0141】
他の一実施形態として、車線ポリライン生成装置1100は、車両内に埋め込まれる電子装置であることができる。例えば、車線ポリライン生成装置1100は、生産過程後、チューニング(tuning)を通じて車両内に挿入される電子装置であることができる。
【0142】
また他の実施形態として、車線ポリライン生成装置1100は、車両の外部に位置するサーバであることができる。サーバはネットワークを介して通信し、命令、コード、ファイル、コンテンツ、サービスなどを提供するコンピュータ装置または複数のコンピュータ装置で具現されることができる。サーバは車両に搭載された装置から車線ポリラインを生成するために必要なデータを受信し、受信したデータに基づいて車両の移動経路を決定することができる。
【0143】
また別の実施形態として、車線ポリライン装置1100で実行されるプロセスは、移動性を有する電子装置、車両内に組み込まれる電子装置及び車両の外部に位置するサーバのうち少なくとも一部によって実行されることができる。
【0144】
本発明に係る実施形態は、コンピュータ上で様々な構成要素を介して実行することができるコンピュータプログラムの形態で実装されることができ、そのようなコンピュータプログラムはコンピュータで読み取り可能な媒体に記録されることができる。このとき、媒体は、ハードディスク、フロッピーディスク及び磁気テープなどの磁気媒体、CD-ROM及びDVDなどの光記録媒体、フロプティカルディスク(floptical disk)などの光磁気記録媒体(magneto-optical medium)、及びROM、RAM、フラッシュメモリなどのようなプログラム命令語を記憶及び実行するように特別に構成されたハードウェア装置を含むことができる。
【0145】
一方、前記コンピュータプログラムは、本発明のために特別に設計及び構成されているか、コンピュータソフトウェア分野の当業者に公知され使用可能なものであることができる。 コンピュータプログラムの例には、コンパイラによって作成されるような機械語コードだけでなく、インタプリタなどを使用し、コンピュータによって実行されることができる高級言語コードも含まれることができる。
【0146】
一実施形態によれば、本開示の様々な実施形態に係る方法は、コンピュータプログラム製品(computer program product)に含まれて提供されることができる。コンピュータプログラム製品は、商品として販売者及び購入者の間で取引されることができる。コンピュータプログラム製品は、デバイスで読み取り可能な記憶媒体(例えば、compact disc read only memory (CD-ROM))の形態で配布されるか、またはアプリケーションストア(例えば、プレイストア(商標))を介して、または2つのユーザ装置間で直接、オンラインで配布(例えば、ダウンロードまたはアップロード)されることができる。オンライン配布の場合、コンピュータプログラム製品の少なくとも一部は、製造元のサーバ、アプリケーションストアのサーバ、または中継サーバのメモリなどの機器で読み取ることができる記憶媒体に少なくとも一時的に記憶されるか、一時的に生成されることができる。
【0147】
本発明に係る方法を構成するステップについて明らかに順序を記載したり反したりする記載がない場合、前記ステップは適当な順序で行われることができる。必ずしも前記ステップの記載順序に従って本発明が限定されるものではない。本発明において、すべての例または例示的な用語(例えば、等)の使用は、単に本発明を詳細に説明するためのものであり、特許請求の範囲によって限定されない限り、前記の例または例示的な用語によって本発明の範囲が限定されるものではない。さらに、当業者は、様々な修正、組み合わせ及び変更が追加された特許請求の範囲またはその均等物の範囲内で設計条件及び要因によって構成され得ることを理解するであろう。
【0148】
したがって、本発明の思想は、前記説明した実施形態に限定されて決められてはならず、後述する特許請求の範囲のみならず、この特許請求の範囲と均等またはこれから等価的に変更された全ての範囲は、本発明の思想の範疇に属するとするといえるだろう。