(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024032933
(43)【公開日】2024-03-12
(54)【発明の名称】映像及びマップデータ基盤測位方法及び装置
(51)【国際特許分類】
G01C 21/28 20060101AFI20240305BHJP
【FI】
G01C21/28
【審査請求】有
【請求項の数】1
【出願形態】OL
(21)【出願番号】P 2024013948
(22)【出願日】2024-02-01
(62)【分割の表示】P 2019171729の分割
【原出願日】2019-09-20
(31)【優先権主張番号】10-2018-0127589
(32)【優先日】2018-10-24
(33)【優先権主張国・地域又は機関】KR
(71)【出願人】
【識別番号】390019839
【氏名又は名称】三星電子株式会社
【氏名又は名称原語表記】Samsung Electronics Co.,Ltd.
【住所又は居所原語表記】129,Samsung-ro,Yeongtong-gu,Suwon-si,Gyeonggi-do,Republic of Korea
(74)【代理人】
【識別番号】100107766
【弁理士】
【氏名又は名称】伊東 忠重
(74)【代理人】
【識別番号】100070150
【弁理士】
【氏名又は名称】伊東 忠彦
(74)【代理人】
【識別番号】100135079
【弁理士】
【氏名又は名称】宮崎 修
(72)【発明者】
【氏名】張 現盛
(72)【発明者】
【氏名】孫 ▲みん▼廷
(72)【発明者】
【氏名】司空 棟▲勳▼
(72)【発明者】
【氏名】李 元煕
(72)【発明者】
【氏名】鄭 景夫
(57)【要約】
【課題】
映像とマップデータに基づいた測位方法を提供すること。
【解決手段】
一実施形態に係る測位方法は、入力映像からオブジェクトの特徴を抽出し、マップデータに基づいて装置の測位によりオブジェクトが投影された映像を生成し、投影映像に含まれた頂点に対応する特徴値に基づいて測位を評価する。
【選択図】
図3
【特許請求の範囲】
【請求項1】
入力映像からオブジェクトの第1映像を生成するステップと、
前記オブジェクトの位置を含むマップデータに基づいて、装置の候補測位により前記オブジェクトを投影する第2映像を生成するステップと、
前記第1映像から、前記第2映像内の頂点に対応する特徴値をプーリングするステップと、
前記プーリングされた特徴値に基づいて、前記候補測位のスコアを決定するステップと、
を含む、測位方法。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、映像及びマップデータ基盤測位方法及び装置に関する。
【背景技術】
【0002】
車両及びその他の運送手段の走行補助やゲーム、及び娯楽などの様々な分野で様々な形態の拡張現実(Augmentation Reality)サービスが提供されている。拡張現実をより正確に実感できるよう提供するために、様々な測位(localization)方法を用いることができる。例えば、センサ基盤の測位方法は、オブジェクトの位置と方向を把握するためにGPS(Global Positioning System)センサ及びIMU(Inertial Measurement Unit)センサなどのような様々なセンサを複合的に使用し得る。また、カメラ情報を使用するビジョン(vision)基盤の測位方法もある。
【発明の概要】
【発明が解決しようとする課題】
【0003】
以下で説明する実施形態は、映像とマップデータに基づいた測位方法を提供する。実施形態は、映像の頂点とマップデータの頂点との間に対応関係を設定しなくても測位可能な技術を提供する。また、実施形態は、映像の特徴をパラメータ化したり、3次元変換と透視(perspective)変換に不変な関係を抽出したり、マップデータで探索するとき、このような不変な関係を容易に特定しなくても測位可能な技術を提供すること。
【課題を解決するための手段】
【0004】
一側面に係る測位方法は、入力映像からオブジェクトの第1映像を生成するステップと、前記オブジェクトの位置を含むマップデータに基づいて、装置の候補測位により前記オブジェクトを投影する第2映像を生成するステップと、前記第1映像から、前記第2映像内の頂点に対応する特徴値をプーリングするステップと、前記プーリングされた特徴値に基づいて、前記候補測位のスコアを決定するステップを含む。
【0005】
前記第1映像を生成するステップは、複数の特徴に対応する複数の特徴マップを生成するステップを含み得る。
【0006】
前記第2映像を生成するステップは、前記マップデータから前記候補測位における視野範囲に該当する領域を抽出するステップと、前記領域に含まれた頂点を前記候補測位に対応する投影点に投影するステップを含み得る。
【0007】
前記特徴値をプーリングするステップは、前記頂点の座標に基づいて、前記第1映像内のピクセルを選択するステップと、前記選択されたピクセルの特徴値を取得するステップを含み得る。
【0008】
前記候補測位のスコアを決定するステップは、前記プーリングされた特徴値を合算するステップを含み得る。
【0009】
前記合算するステップは、前記第1映像が複数の特徴に対応する複数の特徴マップを含む場合、前記特徴に対応して、決定した加重値に基づいて、前記特徴値を加重合算するステップを含み得る。
【0010】
前記測位方法は、さらに、前記候補測位のスコアに基づいて、前記装置の測位を決定するステップを含み得る。
【0011】
前記装置の測位を決定するステップは、複数の候補測位のスコアのうち最大スコアに対応する候補測位を前記装置の測位として決定するステップを含み得る。
【0012】
前記装置の測位を決定するステップは、前記第2映像を複数の領域に分割するステップと、前記分割された領域で算出されるスコアを用いることによって、前記候補測位に含まれた複数の自由度の値を順次決定するステップを含み得る。
【0013】
前記複数の自由度の値は、移動に関する3自由度の値と、回転に関する3自由度の値を含み得る。
【0014】
前記分割するステップは、距離に関する第1基準に基づいて、前記第2映像を遠距離領域及び近距離領域に分割するステップと、消失点に関連する第2基準に基づいて、前記近距離領域を消失点指向近距離領域及び非消失点指向近距離領域に分割するステップを含み得る。
【0015】
前記複数の自由度の値を順次決定するステップは、前記遠距離領域に基づいて、回転関連自由度を決定するステップと、前記消失点指向近距離領域に基づいて、左右方向の移動関連自由度を決定するステップと、前記非消失点指向近距離領域に基づいて、前後方向の移動関連自由度を決定するステップを含み得る。
【0016】
前記装置の測位を決定するステップは、前記第2映像に含まれた頂点のうち移動関連自由度による影響が第1閾値以下である遠距離頂点に基づいて、回転関連自由度を決定するステップと、前記第2映像から前記遠距離頂点を除いた近距離頂点のうち前後方向の移動関連自由度による影響が第2閾値以下である消失点指向近距離頂点に基づいて、左右方向の移動関連自由度を決定するステップと、前記近距離頂点のうち前記消失点指向近距離頂点を除いた非消失点指向近距離頂点に基づいて、前記前後方向の移動関連自由度を決定するステップを含み得る。
【0017】
前記装置の測位を決定するステップは、前記プーリングされた特徴値の分布に基づいて、前記スコアを改善するための方向を決定するステップと、前記方向に基づいて前記候補測位を補正するステップを含み得る。
【0018】
前記第1映像は、前記オブジェクトと近い程度を示す確率分布を含み、前記方向を決定するステップは、前記確率分布に基づいて前記方向を決定するステップを含み得る。
【0019】
前記装置の測位を決定するステップは、前記補正された候補測位により前記オブジェクトが投影された補正された第2映像を生成するステップと、前記補正された第2映像に含まれた頂点に対応して、前記第1映像から特徴値をプーリングすることにより、前記補正された候補測位の補正されたスコアを決定するステップを含み得る。ここで、前記補正された候補測位の補正されたスコアが決定した条件が満たされるまで前記方向を決定するステップ、前記候補測位を補正するステップ、前記補正された第2映像を生成するステップ、及び、前記補正された候補測位の補正されたスコアを決定するステップは、繰り返し行われる。
【0020】
前記測位方法は、拡張現実サービスのために前記マップデータ上で仮想オブジェクトを決定するステップと、前記決定された測位に基づいて、前記仮想オブジェクトを表示するステップをさらに含み得る。
【0021】
一実施形態に係る測位方法は、入力映像からオブジェクトの第1映像を生成するステップと、前記オブジェクトの位置を含むマップデータに基づいて、装置の候補測位により前記オブジェクトを投影する第2映像を生成するステップと、前記第2映像を複数の領域に分割するステップと、前記分割された領域と前記第1映像との間のマッチングによって、前記候補測位に含まれた複数の自由度の値を決定するステップを含む。
【0022】
前記複数の自由度の値を決定するステップは、前記分割された領域で前記第1映像とのマッチングによって算出されるスコアを用いることで、前記候補測位に含まれた複数の自由度の値を順次決定するステップを含み得る。
【0023】
前記複数の自由度の値を決定するステップは、分割された領域に対応して決定した自由度の値を変更しながら、該当領域内の頂点に対応して第1映像から特徴値をプーリングすることにより、前記自由度の変更された値によるスコアを算出するステップと、最大スコアに対応する自由度の値を選択するステップを含み得る。
【0024】
前記複数の自由度の値は、移動に関する3自由度の値と、回転に関する3自由度の値を含み得る。
【0025】
前記分割するステップは、距離に関する第1基準に基づいて、前記第2映像を遠距離領域及び近距離領域に分割するステップと、消失点に関連する第2基準に基づいて、前記近距離領域を消失点指向近距離領域及び非消失点指向近距離領域に分割するステップを含み得る。
【0026】
前記複数の自由度の値を決定するステップは、前記遠距離領域に基づいて、回転関連自由度を決定するステップと、前記消失点指向近距離領域に基づいて、左右方向の移動関連自由度を決定するステップと、前記非消失点指向近距離領域に基づいて、前後方向の移動関連自由度を決定するステップを含み得る。
【0027】
前記複数の自由度の値を決定するステップは、前記第2映像に含まれた頂点のうち移動関連自由度による影響が第1閾値以下である遠距離頂点に基づいて、回転関連自由度を決定するステップと、前記第2映像から前記遠距離頂点を除いた近距離頂点のうち前後方向の移動関連自由度による影響が第2閾値以下である消失点指向近距離頂点に基づいて、左右方向の移動関連自由度を決定するステップと、前記近距離頂点のうち前記消失点指向近距離頂点を除いた非消失点指向近距離頂点に基づいて、前記前後方向の移動関連自由度を決定するステップを含み得る。
【0028】
前記測位方法は、拡張現実サービスのために前記マップデータ上で仮想オブジェクトを決定するステップと、前記決定された複数の自由度の値に基づいて、前記仮想オブジェクトを表示するステップをさらに含み得る。
【0029】
前記入力映像は、車両の走行映像を含み、前記仮想オブジェクトは、走行経路情報を示し得る。
【0030】
一実施形態に係る測位装置は、入力映像からオブジェクトの第1映像を生成し、前記オブジェクトの位置を含むマップデータに基づいて、装置の候補測位により前記オブジェクトを投影する第2映像を生成し、前記第1映像から、前記第2映像内の頂点に対応する特徴値をプーリングし、前記プーリングされた特徴値に基づいて、前記候補測位のスコアを決定する、少なくとも1つのプロセッサを含む。
【0031】
一実施形態に係る測位装置は、入力映像からオブジェクトの第1映像を生成し、前記オブジェクトの位置を含むマップデータに基づいて、装置の候補測位により前記オブジェクトを投影する第2映像を生成し、前記第2映像を複数の領域に分割し、
前記分割された領域と前記第1映像との間のマッチングによって、前記候補測位に含まれた複数の自由度の値を決定する、少なくとも1つのプロセッサを含む。
【0032】
一実施形態に係る測位装置は、装置に取り付けられ、1つ又はそれ以上の映像と前記装置の候補測位情報を検出するセンサと、前記映像からオブジェクトの第1映像を生成し、前記オブジェクトの位置を含むマップデータに基づいて、前記候補側上の情報により前記オブジェクトを投影する第2映像を生成し、前記第1映像から前記第2映像内の頂点に対応する特徴値をプーリングすることにより、前記候補側上の情報のスコアを決定し、前記スコアに基づいて前記装置の測位情報を決定する、プロセッサと、前記決定された測位情報に基づいて、前記マップデータ上仮想オブジェクトを視覚化する、ヘッドアップディスプレイ(HUD)を含む。
【0033】
前記プロセッサは、距離に基づいて、前記第2映像を遠距離領域と近距離領域とに分割し、消失点に基づいて、前記近距離領域を消失点指向近距離領域と非消失点指向近距離領域に分割し得る。
【0034】
前記プロセッサは、前記遠距離領域に基づいて、回転自由度を決定し、前記消失点指向近距離領域に基づいて、左右移動自由度を決定し、前記非消失点指向近距離領域に基づいて、前後移動自由度を決定し得る。
【0035】
前記プロセッサは、神経網を用いて複数の特徴に対応する特徴マップを含む前記第1映像を生成し得る。
【0036】
前記第2映像は、前記オブジェクトに対応する2次元頂点の投射を含み得る。
【0037】
前記測位装置は、さらに、前記マップデータ、前記映像、前記第1映像、前記第2映像、前記スコア、及び、前記決定された測位情報と前記仮想オブジェクトのうち少なくとも1つを決定するように前記プロセッサを制御する命令語を含む、メモリを含み得る。
【発明の効果】
【0038】
本発明の実施形態によると、映像とマップデータに基づいた測位方法を提供することができる。実施形態は、映像の頂点とマップデータの頂点との間に対応関係を設定しなくても測位が可能な技術を提供できる。また、実施形態は、映像の特徴をパラメータ化したり、3次元変換と透視変換に不変な関係を抽出したり、マップデータから探索時にこのような不変な関係を容易に特定しなくても測位が可能な技術を提供することができる。
【図面の簡単な説明】
【0039】
【
図1A】一実施形態に係る拡張現実アプリケーションで測位の正確度の重要性を説明する図である。
【
図1B】一実施形態に係る拡張現実アプリケーションで測位の正確度の重要性を説明する図である。
【
図1C】一実施形態に係る拡張現実アプリケーションで測位の正確度の重要性を説明する図である。
【
図2】一実施形態に係る測位スコアを算出する動作を説明する図である。
【
図3】一実施形態に係る測位スコアを算出する動作を具体化した図である。
【
図4】一実施形態に係る測位スコアを活用して、装置の測位を決定する動作を説明する図である。
【
図5】一実施形態に係る測位候補のスコアを示す図である。
【
図6】一実施形態に係る測位方法を示した動作フローチャートである。
【
図7】一実施形態に係る最適化方式によって装置の測位を決定する動作を説明する図である。
【
図8A】一実施形態に係る最適化方式を示す動作フローチャートである。
【
図8B】一実施形態に係る最適化方式を示す動作フローチャートである。
【
図9A】一実施形態に係る最適化方式が適用された結果を段階的に示す図である。
【
図9B】一実施形態に係る最適化方式が適用された結果を段階的に示す図である。
【
図9C】一実施形態に係る最適化方式が適用された結果を段階的に示す図である。
【
図9D】一実施形態に係る最適化方式が適用された結果を段階的に示す図である。
【
図9E】一実施形態に係る最適化方式が適用された結果を段階的に示す図である。
【
図10】一実施形態に係るパラメータ更新による測位方法を示した動作フローチャートである。
【
図11】一実施形態に係るパラメータ更新による測位方法が適用された結果を段階的に示す図である。
【
図12】一実施形態に係る特徴マップを生成する神経網を説明する図である。
【
図13】一実施形態に係る測位装置を示すブロック図である。
【発明を実施するための形態】
【0040】
実施形態に対する特定の構造的又は機能的な説明は、単なる例示を目的として開示されたものとして、様々な形態に変更される。したがって、実施形態は特定の開示形態に限定されるものではなく、本明細書の範囲は、技術的な思想に含まれる変更、均等物、ないし代替物を含む。
【0041】
第1又は第2などの用語を複数の構成要素を説明するために用いることがあるが、このような用語は1つの構成要素を他の構成要素から区別する目的としてのみ解釈されなければならない。例えば、第1構成要素は第2構成要素と命名することができ、同様に、第2構成要素は第1構成要素にも命名することができる。
【0042】
いずれかの構成要素が他の構成要素に「連結」されているか「接続」されていると言及されたときには、その他の構成要素に直接的に連結されているか又は接続されているが、中間に他の構成要素が存在し得るものと理解されなければならない。
【0043】
本明細書で用いられる用語は、単に特定の実施形態を説明するために使用されるものであり、本発明を限定しようとする意図はない。単数の表現は、文脈上、明白に異なる意味をもたない限り、複数の表現を含む。本明細書において、「含む」又は「有する」等の用語は、明細書上に記載した特徴、数字、ステップ、動作、構成要素、部品、又はこれらの組み合わせが存在することを示すものであって、1つ又はそれ以上の他の特徴や数字、ステップ、動作、構成要素、部品、又はこれらの組み合わせ等の存在又は付加の可能性を予め排除しないものとして理解しなければならない。
【0044】
異なるように定義がされない限り、技術的又は科学的な用語を含むここで用いる全ての用語は、本実施形態が属する技術分野で通常の知識を有する者によって一般的に理解されるものと同じ意味を有する。一般的に用いられる予め定義された用語は、関連技術の文脈上で有する意味と一致する意味を有するものと解釈すべきであって、本明細書で明白に定義しない限り、理想的又は過度に形式的な意味として解釈されることはない。
【0045】
下記に説明する実施形態は、ソフトウェア形態に具現化され、映像とマップデータ基盤の側位技術に適用され得る。例えば、実施形態は、拡張現実ヘッドアップディスプレイ(AR HUD)を実現するための核心技術である側位の精密度の向上に使用され得る。また、側位は、HUDの他にも多くの位置基盤サービスのために必要な技術であり、実施形態は、高精密側位のためにHDマップデータが与えられる環境で位置及び姿勢の推定のために使用され得る。
【0046】
以下、実施形態を添付の図面を参照して詳説する。添付図面を参照して説明することにおいて、図面符号に関わらず、同じ構成要素には同じ参照符号を付与し、これに関する重複説明は省略することにする。
【0047】
図1は、一実施形態に係る拡張現実アプリケーションで測位の正確度の重要性を説明する図である。
【0048】
図1を参照すると、拡張現実(Augmented Reality)は、現実に基づいて情報を追加又は増強して提供する技術として、例えば、現実世界のイメージや背景映像に仮想イメージに該当する仮想オブジェクトを追加して示すことができる。拡張現実は、現実世界と仮想世界をよく調和することで、ユーザは実際及び仮想環境が分離されていることを認知できないまま、ユーザと仮想世界との間でリアルタイムに相互作用できる没入感を提供することができる。仮想オブジェクトを実際の映像に整合するためには、拡張現実を提供するユーザ装置(又は、ユーザ)の位置及び姿勢、言い換えれば、測位(localization)情報を把握しなければならない。
【0049】
拡張現実を提供するための測位情報は、仮想オブジェクトを映像内の所望する所に位置させるために用いられる。以下、本明細書では、説明の便宜のために道路面に仮想オブジェクトに該当する走行案内車路を表示する場合を一例にして説明するが、必ずこれに限定されることはない。
【0050】
図1Aを参照すると、測位誤差が小さい場合の拡張現実映像120が示されている。
図1Bを参照すると、測位誤差が大きい場合の拡張現実映像140が示されている。
【0051】
例えば、オブジェクト110の測位情報を基準として車両の基準経路を道路映像の上に表示すると仮定しよう。ここで、オブジェクトは、測位を行うユーザ端末及び/又は車両に該当する。オブジェクト110の測位の誤差が小さい場合、装置が表示しようとする仮想オブジェクトである走行案内車路115は、拡張現実映像120のように実際の道路映像と視覚的によく整列され得る。これとは異なって、オブジェクト130の測位の誤差が大きい場合、装置が表示しようとする仮想オブジェクトである走行案内車路135は、拡張現実映像140のように実際の道路映像と視覚的に円満に整列されない場合がある。
【0052】
図1Cを参照すると、一実施形態に係る測位情報は、装置の位置及び装置の姿勢を含む。位置は、移動関連自由度で、横(Lateral)t
x、縦(Vertical)t
y、及び長さ(Longitudinal)t
z、言い換えれば、(x、y、z)のような3次元座標に該当する。また、姿勢は、回転関連自由度であって、ピッチ(Pitch)r
x、ヨー(Yaw)r
y、及びロール(Roll)r
zに該当する。位置は、例えば、GPSセンサ、ライダなどによって取得され、姿勢は、例えば、IMUセンサ、ジャイロセンサなどによって取得される。一実施形態に係る測位情報は、前述した位置及び姿勢を含む6自由度(Degree of Freedom;DoF)を有するものと理解される。
【0053】
以下、本明細書において「車両(vehicle)」は道路上で走行中である車両を意味し、例えば、自律走行車両、先端運転者サポートシステム(Advanced Driver Assistance System;ADAS)を備えた知能型車両などを含む。「道路(road)」は、車両が走行する道を意味し、例えば、高速道路、国道、地方道路、高速国道、自動車専用道路などのような様々なタイプの道路を含む。道路は1つ又は複数の車路を含む。「車路(lane)」は、道路面上に表示された車線(lines)を介して区分される道路空間に該当する。車路は、該当の車路に隣接する左右車線(又は、車路境界線)によって区分される。また、「車線(line)」は道路面上に白色、青色、又は黄色に表示された実線、点線、曲線、及びジグザグなどの様々な形態の線として理解される。車線は、1つの車路を区分する一方側の車線に該当してもよく、1つの車路を区分する車線の対(pair)、言い換えれば、車路境界線に該当する左側車線及び右側車線であり得る。
【0054】
下記で説明される実施形態は、スマート車両などの拡張現実ナビゲーション(Augmented Reality Navigation)システムで車線を表示したり、自律走行車両のステアリングを補助するための視覚情報を生成したり、又は、車両の走行のための様々な制御情報を提供するために活用される。また、実施形態は、車両内の走行補助又は完全自律走行のために設置されたHUD(Head Up Display)などの知能システムを含む機器に視覚情報を提供することで、安全で快適な走行を補助するために使用される。例えば、実施形態は、車両内の自律走行あるいは走行補助のために設置された知能システムの視覚的情報を解釈するために用いることができる。実施形態は、例えば、自律走行自動車、知能型自動車、アドバンスド運転者補助システム(ADAS)、ナビゲーションシステム、スマートフォン、及びモバイル機器などに適用される。
【0055】
図2は、一実施形態に係る測位スコアを算出する動作を説明する図である。
【0056】
図2を参照すると、一実施形態に係る測位装置は、マップデータQと映像Iに基づいて、測位パラメータθのスコアs(θ)を算出する。測位装置は、1つ又はそれ以上のソフトウェアモジュール、1つ又はそれ以上のハードウェアモジュール、又は、その様々な組合せで実現される。
【0057】
以下で詳細に説明するが、実施形態は、マップデータの頂点と映像の特徴の対応関係を先決条件として要求しない。例えば、マップデータは、車線などのオブジェクトに該当する複数の3次元頂点を含むポイントクラウドであり得る。マップデータの3次元頂点は、測位パラメータに基づいて2次元頂点に投影される。映像の特徴は、映像に含まれたピクセル単位で抽出された特徴値を含む。
【0058】
以下で説明する実施形態は、マップデータの頂点(例えば、2次元頂点)と映像の特徴(あるいは、ピクセル)が互いにどのように対応(あるいは、マッチング)されるかに関する情報を要求しない。また、映像内で抽出される特徴は、パラメータ化されなくてもよく、特徴間の関係を別に分析したり、マップデータで探索する必要がない。
【0059】
測位パラメータθは、位置/姿勢情報パラメータであって、
図1Cを参照して説明した6-自由度変数に定義される。一実施形態によれば、測位パラメータθは、概略的な位置/姿勢情報に該当する。測位装置は、映像とマップデータに基づいたスコアリング技術を活用し、測位パラメータθを補正することにより測位の正確度を向上させることができる。
【0060】
例えば、測位装置は、映像Iから特徴を抽出して特徴マップを構成する。測位装置は、測位パラメータθに対する整合スコアを算出する。より具体的に、測位装置は、測位パラメータに基づいてマップデータQから頂点を投影し、特徴マップのピクセルのうち、投影された頂点の2次元座標に該当するピクセルの特徴値をプーリングすることで、整合スコアを算出する。測位装置は、整合スコアを増加させる方向に測位パラメータθを更新する。
【0061】
ここで、装置は、一実施形態に係る測位方法を行う装置として、例えば、車両であってもよく、ナビゲーション、スマートフォンなどのようなユーザ装置であってもよい。測位情報は、前述のように装置の位置及び装置の姿勢を含む6自由度を有する。測位情報は、例えば、IMUセンサ、GPSセンサ、ライダセンサ及びレーダーなどのようなセンサの出力に基づいて取得され得る。
【0062】
入力映像は、今後、拡張現実サービスのために仮想オブジェクトと共に表示される背景映像又はその他の映像に該当する。入力映像は、例えば、車両の走行映像を含む。ここで、走行映像は、例えば、車両に装着された撮影装置を用いて取得された走行映像であってもよく、1つ又は複数のフレームを含む。
【0063】
測位装置は、撮影装置の出力に基づいて入力映像を取得する。撮影装置は、例えば、車両のウインドシールド(windshield)、ダッシュボード(dashboard)、バックミラー(rear-view mirror)などのように予め決定された位置に固定されて車両前方の走行映像を撮影する。撮影装置は、例えば、ビジョンセンサ、イメージセンサ、又は、これに類似の機能を行う装置を含んでもよく、単一映像を撮影したり、場合に応じて、フレームごとの映像を撮影してもよい。車両に固定された撮影装置と異なって、他の装置でキャプチャーされた映像が走行映像であってもよい。オブジェクトは、例えば、車線、道路面標識、信号機、表示板、縁石、歩行者及び構造物などを含む。車線は、例えば、車路境界線、道路中央線、停止線などのラインを含み、道路面標識は、例えば、駐停車禁止、横断歩道、牽引地域、制限速度表示などの標識を含む。
【0064】
マップデータは、例えば、高精密(High Density;HD)のマップデータであってもよい。高精密地図は、自律走行のために高精密(例えば、センチメートル単位の精密度)を備えた3D立体地図である。高精密地図には、例えば、道路中央線、境界線などの車線単位の情報はもちろん、信号機、表示板、縁石、路面道路標識、各種の構造物などの情報が3次元デジタルの形態として含まれてもよい。高精密地図は、例えば、MMS(Mobile Mapping System)システムによって構築される。様々なセンサを装着した3次元空間情報照射システムであるMMSは、位置測定及び地形地物を測量するためのカメラ、ライダ(LIDAR)、GPSなどのセンサを装着した移動体を用いて細かい位置情報を取得することができる。
【0065】
図3は、一実施形態に係る測位スコアを算出する動作を具体化した図である。
【0066】
図3を参照すると、一実施形態に係る測位装置200は、コンバータ210,220、特徴抽出器230、及びプーリング器240を含む。コンバータ210は、パラメータθとマップデータQを受信し、3次元変換(T)を介してパラメータθによる装置の3次元位置及び3次元姿勢をマップデータQ上に適用する。一例として、コンバータ210は、マップデータからパラメータθに対応する位置及び姿勢における視野範囲に該当する領域を抽出する。コンバータ220は、透視変換(P)を介して装置の視点における投影映像を生成する。一例として、コンバータ220は、コンバータ210によって抽出された領域に含まれる3次元頂点をパラメータθに対応する2次元の投影面に投影してもよい。この場合、マップデータQに含まれた3次元頂点q
i
kはパラメータθによりT変換とP変換を経て投影映像内の2次元頂点p
i
kに変換される。ここで、kは、互いに異なる特徴あるいはクラスを指示するインデックスであり、iは、該当の特徴あるいはクラス内の頂点を指示するインデックスであり得る。
【0067】
特徴抽出器230は、映像Iから特徴を抽出する。特徴は、オブジェクトの類型(あるいは、クラス)により1つ又はそれ以上の特徴マップF1、F2 235を含む。例えば、特徴マップF1は映像内の車線に関する特徴を含み、特徴マップF2は映像内の信号標識に関する特徴を含む。説明の便宜のために、2つの特徴マップF1、F2 235が抽出される場合を説明するが、実施形態はこのような場合に限定されることはない。
【0068】
測位装置は、複数の特徴マップを抽出するための別途の特徴抽出器を含む。又は、測位装置は、複数の特徴マップをチャネルごとに出力する単一特徴抽出器(例えば、ディープニューラルネットワークなど)を含む。
【0069】
抽出された特徴マップF1、F2は、場合に応じてエラーを含むことがあり、これにより、その特徴の値をピクセル単位に正確に特定できない場合もある。この場合、各特徴マップは、各ピクセルごとに0と1との間の値を有し得る。ピクセルの特徴値は、各ピクセルごとの該当の特徴の強度を示す。
【0070】
投影映像の2次元頂点pi
kは、マップデータの3次元頂点pi
kが映像Iにマッピングされるピクセルを意味する。数式(1)を参照すると、映像Iにマッピングされるピクセルで各特徴ごとにスコアが合算される。
【0071】
【0072】
ここで、T()はT変換を示し、P()はP変換を示す。この場合、P(T(qi
k、θ))はマッピング点を示し、Fk()はk番目の特徴あるいはクラスに該当する特徴マップでマッピング点による特徴値あるいはスコアを示す。ここで、マッピング点P(T(qi
k、θ))が整数ではない場合、四捨五入又は補間などの演算が実行される。数式(2)を参照すると、特徴ごとのスコアが加重合算されて最終的なスコアが計算され得る。
【0073】
【0074】
ここで、加重値wkは任意の方法で設定される。例えば、加重値wkは、一括的に同一に付与された加重値、あるいは訓練データによってチューニングされた値などに設定されてもよい。
【0075】
図4は、一実施形態に係る測位スコアを活用して、装置の測位を決定する動作を説明する図である。実施形態に係る権利範囲を逸脱しない範囲で、
図4に示された動作の順序は変更されたり、
図4に示された動作のうち一部が省略されたり、
図4に示された動作のうち少なくとも一部が並列的に処理されてもよい。
【0076】
図4を参照すると、ステップS410において入力映像が受信され、ステップS430において特徴が抽出される。ステップS420においてマップデータが取得され、ステップS440において測位候補が取得される。ここで、測位候補は複数の測位候補を含む。
【0077】
ステップS450において、測位候補によりマップデータの投影映像が生成される。測位候補が複数である場合、複数の測位候補による複数の投影映像が生成される。
【0078】
ステップS460において、投影映像内の2次元頂点に対応して、特徴マップから特徴値がプーリングされる。また、ステップS460でプーリングされた特徴値に基づいて、測位候補のスコアが算出される。測位候補が複数である場合、測位候補ごとのスコアが算出される。
【0079】
ステップS470において、ベストスコア(例えば、最大スコアなど)が検索される。ステップS480において、検索されたベストスコアを有する候補測位が装置の測位として決定される。
【0080】
図面に示していないが、測位装置200は、拡張現実サービスのためにマップデータQ上で仮想オブジェクトを決定する。例えば、仮想オブジェクトは、走行経路情報を示す仮想のオブジェクトとして、矢印又は進行方向を示す道路表示などの形態に表現される。測位装置は、ステップS480で決定された測位情報に基づいて、仮想オブジェクトを入力映像と共にヘッドアップディスプレイ、ナビゲーション、又は、ユーザ装置のディスプレイ上に表示し得る。
【0081】
図5は、一実施形態に係る測位候補のスコアを示す図である。
【0082】
図5を参照すると、第1候補測位による投影映像と映像510との視覚的整列の程度は、第2候補測位による投影映像と映像520との視覚的整列の程度に比べて低い。そのため、第1候補測位に基づいて映像510の特徴マップからプーリングされたスコアは、第2候補測位に基づいて映像520の特徴マップからプーリングされたスコアよりも低く算出される。
【0083】
図6は、一実施形態に係る測位方法を示した動作フローチャートである。実施形態に係る権利範囲を逸脱しない範囲で、
図6に示された動作の順序は変更されたり、
図6に示された動作のうち一部が省略されたり、
図6に示された動作のうち少なくとも一部が並列的に処理されてもよい。
【0084】
図6を参照すると、ステップS610において、入力映像から少なくとも1つの特徴マップが抽出される。ステップS620において、測位パラメータ(例えば、位置/姿勢パラメータ)の候補群が選ばれる。ステップS630において、評価する測位候補が存在するかを判断する。評価する測位候補が存在すれば、ステップS640において、測位候補による投影映像が生成され、ステップS650において、特徴ごとのスコアが算出される。ステップS660において、特徴ごとのスコアの加重合算により最終スコアが算出され、ステップS670において、予め評価された測位候補のうち、ベスト測位候補と最終スコアとの比較によりベスト測位候補の情報が更新される。
【0085】
ステップS680でこれ以上評価する測位候補が存在しなければ、予め評価された測位候補のうちベスト測位候補が装置の測位に決定される。この場合、ベスト測位候補のパラメータが装置の位置/姿勢パラメータとして選ばれる。
【0086】
図7は、一実施形態に係る最適化方式によって装置の測位を決定する動作について説明する図である。実施形態に係る権利範囲を逸脱しない範囲で、
図7に示された動作の順序は変更されたり、
図7に示された動作のうち一部が省略されたり、
図7に示された動作のうち少なくとも一部が並列的に処理されてもよい。
【0087】
図7を参照すると、ステップS710において入力映像が受信され、ステップS730において特徴マップが抽出される。ステップS720でマップデータが受信され、ステップS740において初期測位が受信され、ステップS750において初期測位による投影映像が生成される。
【0088】
ステップS760において、一実施形態に係る最適化方式により初期測位が更新される。ステップS770において、装置の測位が最適化された測位に決定される。
【0089】
以下、ステップS760の最適化方式を詳細に説明する。
【0090】
図8は、一実施形態に係る最適化方式を示す動作フローチャートである。実施形態に係る権利範囲を逸脱しない範囲で、
図8に示された動作の順序は変更されたり、
図8に示された動作のうち一部が省略されたり、
図8に示された動作のうち少なくとも一部が並列的に処理されてもよい。
【0091】
一実施形態に係る測位装置は、全域的な最適化過程をサポートする。測位装置は、マップデータから投影された2次元頂点を特徴以外の他の基準(例えば、距離、消失点指向の有無など)に分類した後、分類された2次元頂点を測位パラメータの互いに異なる自由度を推定するために利用する。
【0092】
一実施形態に係る測位装置は、投影映像を複数の領域に分割し、分割された領域と特徴マップとの間のマッチング(整合)を介して装置の測位を決定する。より具体的に、測位装置は、分割された領域で特徴マップとのマッチング(整合)を介して算出されるスコアを順次利用することで、測位に含まれた複数の自由度の値を順次決定する。例えば、測位装置は、分割された領域に対応して決定した自由度の値を変更しながら、該当領域に含まれる2次元頂点に対応して特徴マップから特徴値をプーリングする。測位装置は、プーリングされた特徴値に基づいて、自由度の変更された値によるスコアを算出する。その後、測位装置は、最大スコアに対応する値に該当自由度を決定する。
【0093】
投影映像内の遠距離の頂点は、位置パラメータの変化にほとんど不変な特性を有する。このような特性に基づいて、測位装置は、まず遠距離頂点でスコアを算出して姿勢パラメータを決定する過程と、その後、近距離頂点でスコアを算出して位置パラメータを決定する過程を分離して実行する。そのため、各ステップごとに推定しなければならない自由度が低くなるため、探索時に複雑度や最適化時に局部的な収束可能性が減少する。
【0094】
以下で説明するが、測位装置は、距離に関する第1基準に基づいて投影映像を遠距離領域及び近距離領域に分割し、消失点に関する第2基準に基づいて近距離領域を消失点指向近距離領域及び非消失点指向近距離領域に分割する。ここで、遠距離領域は、移動関連の自由度による影響が予め決定されたレベル(あるいは、閾値)以下である2次元頂点を含む。また、消失点指向近距離領域は、前後方向の移動関連の自由度による影響が予め決定されたレベル(あるいは、閾値)以下である2次元頂点を含む。
【0095】
また、測位装置は、測位パラメータの自由度のうち一部を事前のキャリブレーションによって決定された値に利用し得る。例えば、測位パラメータのうちrzとtyは事前キャリブレーションによって決定される。車両にカメラが設置された高さtyとロールrzは固定されているためである。
【0096】
図8を参照すると、ステップS810において、入力映像から特徴マップが抽出された後、ステップS820において、マップデータの投影映像から遠距離頂点Q
1が選別される。遠距離頂点Q
1は、測位パラメータの自由度のうち移動関連自由度t
x、t
zによって実質的に影響が受けられない場合がある。そのため、ステップS830において、遠距離頂点Q
1に基づいて回転関連自由度r
x、r
yが決定される。回転関連自由度r
x、r
yは姿勢パラメータと称されてもよい。
【0097】
より具体的に、測位装置は、rxを変化させながら遠距離頂点Q1を縦方向に平行移動させ、ryを変化させながら遠距離頂点Q1を横方向に平行移動させる。測位装置は、遠距離頂点Q1に対応して算出されるスコアが決定した目標値以上になるように、rx及びryの値を探索する。
【0098】
ステップS840において、マップデータから近距離頂点が選別される。事前キャリブレーションによって決定されたrz及びty、そして、遠距離頂点Q1によって決定されたrx及びryが適用された状態で、近距離頂点が選別される。
【0099】
測位装置は、近距離頂点のうち消失点に向かう車線に該当する頂点Q2を選別し、その他の頂点Q3を選別する。頂点Q2は、測位パラメータの自由度のうち前後方向の移動関連自由度tzによって実質的に影響を受けないことがある。そのため、ステップS850において、頂点Q2に基づいて移動関連自由度txが決定される。また、頂点Q3に基づいて移動関連自由度tzが決定される。移動関連自由度tx、tzは位置パラメータと称されてもよい。
【0100】
図9は、一実施形態に係る最適化方式が適用された結果を段階的に示す図である。
【0101】
図9Aを参照すると、特徴マップ910から抽出された特徴911とマップデータ920から投影された頂点921が示されている。マップデータ920上での初期測位が不正確であるため、特徴911と頂点921は互いに整合しない。以下、特徴911と頂点921が互いに整合するよう、測位パラメータの自由度が順次決定される過程について説明する。
【0102】
車両に設置されたカメラは、道路面に相対的に一定の高さ及び一定のロール(roll)を有するという点に着眼して、ty及びrzは予めキャリブレーションされる。
【0103】
図9Bを参照すると、測位装置は、特徴マップ910及びマップデータ920でロール効果を除去し得る。例えば、測位装置は、予めキャリブレーションされたr
zに基づいて特徴マップ910を回転930させることで、特徴マップ910においてロール効果を除去する。また、測位装置は、マップデータ920で初期測位の周辺頂点を検出し、検出された周辺頂点を平面に近似した後、平面のロールが除去されるようにマップデータ920を回転させる。
【0104】
また、測位装置は、予めキャリブレーションされたtyを用いて、マップデータ920の頂点の高さを補正する。
【0105】
図9Cを参照すると、測位装置は初期測位を基準としてマップデータの投影映像内の遠距離頂点940を用いて平行移動に対応するr
xとr
yを導き出す。ここで、測位装置は、遠距離頂点940と特徴マップ910との相関度が予め決定された目標値以上になるよう、遠距離頂点940を平行移動させ得る。例えば、r
xを調整してマップデータ920上の頂点を回転945することにより、投影映像内の遠距離頂点940が特徴マップ910の特徴と円満に整合される。
【0106】
図9Dを参照すると、測位装置は、投影映像内の頂点を分析して周辺車線950の消失点を求めることができる。測位装置は、周辺車線950の消失点を特徴マップ910内の定められた位置(例えば、特徴マップの中心など)に整列する。この場合、周辺車線は、z-方向移動に不変な特性を有するようになる。測位装置は、周辺車線950と特徴マップ910との相関度が予め決定された目標値以上になるよう、周辺車線950に該当する頂点をx方向に移動させる。例えば、t
xを調整し、マップデータ920上の頂点が移動955することにより、投影映像内の周辺車線950に該当する頂点が特徴マップ910の特徴と円満に整合される。
【0107】
図9Eを参照すると、測位装置は、投影映像内の近距離頂点のうち消失点方向の車線を除いた残りの頂点960を用いてz方向移動を探索する。測位装置は、残りの頂点960と特徴マップ910との相関度が予め決定された目標値以上になるよう、残りの頂点960をz方向に移動させる。例えば、t
zを調整してマップデータ920上の頂点が移動965することにより、投影映像内の残りの頂点960が特徴マップ910の特徴と円満に整合される。
【0108】
図10は、一実施形態に係るパラメータ更新による測位方法を示した動作フローチャートである。実施形態に係る権利範囲を逸脱しない範囲で、
図10に示された動作の順序は変更されたり、
図10に示された動作のうちの一部が省略されたり、
図10に示された動作のうち少なくとも一部が並列的に処理されてもよい。
【0109】
図10を参照すると、ステップS1010において、入力映像から特徴マップが抽出され、ステップS1020において、初期測位(例えば、位置/姿勢パラメータに対する初期値)が選ばれる。ステップS1030において、現在パラメータのスコアが算出され、現在パラメータのスコアが改善される方向が算出される。
【0110】
一実施形態によれば、特徴マップは、オブジェクトに近い程度を示す確率分布を含む。例えば、特徴マップに含まれた特徴は、最も近いオブジェクトまでの距離に関する情報を0と1との間の正規化された値として含むことができる。この場合、特徴マップは、オブジェクトに向かう方向に関する情報を提供する。測位装置は、現在パラメータによってマップデータから投影された2次元頂点に対応し、特徴マップの特徴値をプーリングする。測位装置は、プーリングされた特徴値に基づいて現在パラメータのスコアが改善され得る方向を決定する。
【0111】
ステップS1040において、繰り返し終了条件に該当するか否かが判断され、繰り返し終了条件に該当しない場合、ステップS1050において、パラメータが更新される。測位装置は、ステップS1030で算出した方向によりパラメータを更新する。繰り返し終了条件が満足するまで、ステップS1050、ステップS1030、及びステップS1040が繰り返し実行される。繰り返し終了条件は、パラメータのスコアが決定した目標値以上であるか否かを含む。一実施形態によれば、システムの安定性のために繰り返し終了条件は、繰り返し回数が決定した閾値を超過したか否かをさらに含んでもよい。
【0112】
繰り返し終了条件に該当する場合、ステップS1060において、現在パラメータが最終測位(例えば、最終位置/姿勢パラメータ)として選ばれる。
【0113】
図10に示す実施形態は、初期値θ_0から始まって段階的に良いパラメータにたどり着く過程であるが、このような局部的な最適化方式は、初期値が良くなければ良い性能を出すことができない。したがって、
図10に示す実施形態は、初期値を別に推定するステップを選択的に含んでもよい。一例として、
図8に示す実施形態によって取得されたパラメータを初期値と見なし、
図10に示す実施形態が実行される。この場合、事前キャリブレーションを介して固定されたロール及びカメラの高さなどの値を実際の走行環境で発生する変化に適するように補正する効果を達成することができる。
【0114】
図11は、一実施形態に係るパラメータ更新による測位方法が適用された結果を段階的に示す図である。
【0115】
図11を参照すると、入力映像1105、第1映像1110、及び第2映像1120が示されている。第1映像1110は、入力映像1105に対応して生成される。また、第2映像1120は、マップデータに基づいて初期測位による測位情報x、y、z、r
x、r
y、r
zによりオブジェクトを投影して生成した映像であってもよい。第2映像1120は投影映像として、オブジェクトに該当する複数の2次元頂点を含む。
【0116】
測位装置は、映像1130のように第1映像1110と第2映像1120をマッチングしてスコアscore lを算出する。測位装置は、例えば、第1映像1110に含まれた複数のピクセルのうち、第2映像1120に含まれたオブジェクトに対応するピクセルの値を合算してスコアを算出する。
【0117】
例えば、第1映像1110に含まれた複数のピクセルは、隣接のオブジェクトとの距離に応じて0から1の間の値を有する。各ピクセルは、隣接のオブジェクトと近いほど1に近い値を有し、隣接のオブジェクトと遠いほど0に近い値を有する。測位装置は、第1映像1110に含まれた複数のピクセルのうち、第2映像1120とマッチングされるピクセルを抽出し、抽出されたピクセルの値を合算してスコアを算出する。
【0118】
測位装置は、第1映像1110の方向性に基づいて、視覚的整列の程度、言い換えれば、スコアscore lが増加するように測位情報を補正する。測位装置は、第2映像1120に含まれたオブジェクトの測位が第1映像1110の方向性に適するよう測位補正値を算出する。測位装置は、測位補正値を初期測位による測位情報に適用することによって、測位情報をl→l’1140に更新する。例えば、測位装置は、第1映像1110に含まれた方向性に基づいて、第2映像1120のオブジェクトをどの方向に移動すればスコアが増加するかを判断する。測位情報を更新する場合、第2映像1120のオブジェクトが移動するため、測位装置は、第1映像1110に含まれた方向性に基づいて測位情報を更新する。
【0119】
測位装置は、更新された測位情報l’により更新された第2映像1150を生成する。測位装置は、更新された第2映像1150と第1映像1110をマッチングしてスコアl’を算出する。
【0120】
測位装置は、前述した過程を介してスコアが予め決定された基準以上にする測位補正値を算出し、最終的に最適化された測位情報l*を出力する。
【0121】
図12は、一実施形態に係る特徴マップを生成する神経網を説明する図である。
【0122】
図12を参照すると、入力映像1210を神経網1230に適用して第1映像に該当するディスタンスフィールドマップ1250を生成する過程が示されている。
【0123】
神経網1230は、入力映像1210に基づいて入力映像1210に含まれたオブジェクトに対応する方向性を含む第1映像を生成するように予め学習された神経網であってもよい。神経網1230は、複数の人工ニューロン(ノード)を用いてソフトウェアやハードウェアで具現化された学習モデルを示し得る。神経網1230は、人工ニューロンを含む。神経網1230は、例えば、CNN(convolutional neural network)、DNN(Deep Neural Network)、RNN(recurrent neural network)、又はBLSTM(Bidirectional Long Short Term Memory)などのように様々な構造で実現できる。
【0124】
神経網1230は、入力映像1210に含まれたオブジェクトをディスタンスフィールドマップ1250の形態に推定し得る。例えば、第1映像がディスタンスフィールドマップ1250のように近いオブジェクトに向かう方向性情報を含む場合、勾配降下方(gradient descent)などを活用するとき最適化の方向性を容易に決定することができる。また、ディスタンスフィールドマップ1250のように、オブジェクトに近い程度を示す確率の分布が映像の全般にわたっている場合、学習のためのデータ量を増やすことがあるため、疎なデータ(sparse data)によって学習された場合に比べて神経網の性能が向上する。
【0125】
図13は、一実施形態に係る測位装置を示すブロック図である。
【0126】
図13を参照すると、一実施形態に係る測位装置1300は、センサ1310、及びプロセッサ1330を含む。測位装置1300は、メモリ1350、通信インタフェース1370、及びディスプレイ装置1390をさらに含む。センサ1310、プロセッサ1330、メモリ1350、通信インタフェース1370、及びディスプレイ装置1390は、通信バス1305を介して接続される。ディスプレイ装置1390は、ユーザインタフェースをレンダリングするか、ディスプレイをレンダリングするか、ユーザ入力を受信する機能を提供する1つ又はそれ以上のハードウェア構成を含む。ディスプレイ装置1390は、前述した例示に限定されることなく、例えば、スマートフォン、メガネ型ディスプレイなどの様々な形態に実現できる。
【0127】
センサ1310は、例えば、イメージセンサ、ビジョンセンサ、加速度センサ、ジャイロセンサ、GPS(Global Positioning System)センサ、IMU(Inertial Measurement Unit)センサ、レーダー(Radar)、ライダ(Lidar)などを含む。複数のセンサ1310は車両の走行映像を含む入力映像を取得(撮影)する。センサ1310は、例えば、車両のGPS座標、位置、姿勢などのような測位情報以外にも、速度、加速度、走行方向、車両のハンドルステアリング角度、及び車両の速度などの検出情報を検出する。
【0128】
実施形態は、映像の頂点とマップデータの頂点との間に対応関係を設定しなくても測位可能な技術を提供する。また、実施形態は、映像の特徴をパラメータ化したり、3次元変換と透視(perspective)変換に不変な関係を抽出したり、マップデータで探索時このような不変な関係を容易に特定しなくても測位可能な技術を提供する。
【0129】
実施形態により、測位装置1300は、通信インタフェース1370を介して入力映像を含む様々なセンサの検出情報を取得する。実施形態により、通信インタフェース1370は、測位装置1300の外部に存在する他のセンサから走行映像を含む検出情報を受信する。
【0130】
プロセッサ1330は、通信インタフェース1370及び/又はディスプレイ装置1390を介して補正された測位情報を出力したり、又は、補正された測位情報に基づいて、マップデータ上に仮想オブジェクトを入力映像と共に表示することによって拡張現実サービスを提供し得る。また、プロセッサ1330は、
図1~
図13を参照して前述した少なくとも1つの方法又は少なくとも1つの方法に対応するアルゴリズムを行ってもよい
【0131】
プロセッサ1330は、目的とする動作(desired operations)を実行させるための物理的な構造を有する回路を有するハードウェアで具現化されたデータ処理装置であり得る。例えば、目的とする動作は、プログラムに含まれたコード又は命令を含む。例えば、ハードウェアで具現化されたデータ処理装置は、マイクロプロセッサー(microprocessor)、中央処理装置(central processing unit)、プロセッサコア(processor core)、マルチ・コアプロセッサ(multi-core processor)、マルチプロセッサ(multiprocessor)、ASIC(Application-Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)を含む。
【0132】
プロセッサ1330は、プログラムを実行し、測位装置1300を制御する。プロセッサ1330によって実行されるプログラムコードは、メモリ1350に格納される。
【0133】
メモリ1350は、測位装置1300の測位情報、第1映像、第2映像、及び/又は、補正された測位情報を格納する。メモリ1350は、上述したプロセッサ1330における処理過程で生成される様々な情報を格納する。その他にも、メモリ1350は、各種のデータとプログラムなどを格納する。メモリ1350は、揮発性メモリ又は不揮発性メモリを含む。メモリ1350は、ハードディスクなどのような大容量格納媒体を備えて、各種のデータを格納する。
【0134】
ディスプレイ装置1390は、プロセッサ1330によって補正された測位情報を出力したり、又は、補正された測位情報に基づいてマップデータ上に仮想オブジェクトを入力映像と共に表示し得る。
【0135】
一実施形態に係る測位装置は、例えば、ヘッドアップディスプレイ(HUD)、又は、拡張現実グラス(AR Glasses)などのように撮影装置と測位装置間の視点が同一でない場合でも、撮影装置をベースに前述の測位方法を行った結果を用いて、測位装置の3D測位情報を更新することにより、視点に独立的な実行を行うことができる。また、一実施形態に係る測位装置は、移動端末又はスマートフォンのように撮影装置と測位装置の視点が同一である場合、3D測位情報を更新することが可能であることはもちろん、追加的に映像内で直接2D位置を補正する用途にも使用できる。
【0136】
上述の実施形態は、ハードウェア構成要素、ソフトウェア構成要素、又はハードウェア構成要素及びソフトウェア構成要素の組み合せで具現化される。例えば、本実施形態で説明した装置及び構成要素は、例えば、プロセッサ、コントローラ、ALU(arithmetic logic unit)、デジタル信号プロセッサ(digital signal processor)、マイクロコンピュータ、FPA(field programmable array)、PLU(programmable logic unit)、マイクロプロセッサー、又は命令(instruction)を実行して応答する異なる装置のように、1つ以上の汎用コンピュータ又は専用コンピュータを用いて具現化される。処理装置は、オペレーティングシステム(OS)及びオペレーティングシステム上で実行される1つ以上のソフトウェアアプリケーションを実行する。また、処理装置は、ソフトウェアの実行に応答してデータをアクセス、格納、操作、処理、及び生成する。理解の便宜のために、処理装置が1つ使用されるものとして説明する場合もあるが、当技術分野で通常の知識を有する者は、処理装置が複数の処理要素(processing element)及び/又は複数類型の処理要素を含むことを把握する。例えば、処理装置は、複数のプロセッサ又は1つのプロセッサ及び1つのコントローラを含む。また、並列プロセッサ(parallel processor)のような、他の処理構成も可能である。
【0137】
ソフトウェアは、コンピュータプログラム、コード、命令、又はそのうちの一つ以上の組合せを含み、希望の通りに動作するよう処理装置を構成したり、独立的又は結合的に処理装置を命令することができる。ソフトウェア及び/又はデータは、処理装置によって解釈されたり処理装置に命令又はデータを提供するために、いずれかの類型の機械、構成要素、物理的装置、仮想装置、コンピュータ格納媒体又は装置、又は送信される信号波に永久的又は一時的に具体化することができる。ソフトウェアはネットワークに連結されたコンピュータシステム上に分散され、分散した方法で格納されたり実行され得る。ソフトウェア及びデータは一つ以上のコンピュータで読出し可能な記録媒体に格納され得る。
【0138】
本実施形態による方法は、様々なコンピュータ手段を介して実施されるプログラム命令の形態で具現化され、コンピュータ読み取り可能な記録媒体に記録される。記録媒体は、プログラム命令、データファイル、データ構造などを単独又は組み合せて含む。記録媒体及びプログラム命令は、本発明の目的のために特別に設計して構成されたものでもよく、コンピュータソフトウェア分野の技術を有する当業者にとって公知のものであり使用可能なものであってもよい。コンピュータ読み取り可能な記録媒体の例としては、ハードディスク、フロッピー(登録商標)ディスク及び磁気テープのような磁気媒体、CD-ROM、DYIJDのような光記録媒体、フロプティカルディスクのような磁気-光媒体、及びROM、RAM、フラッシュメモリなどのようなプログラム命令を保存して実行するように特別に構成されたハードウェア装置を含む。プログラム命令の例としては、コンパイラによって生成されるような機械語コードだけでなく、インタプリタなどを用いてコンピュータによって実行される高級言語コードを含む。ハードウェア装置は、本発明に示す動作を実行するために1つ以上のソフトウェアモジュールとして作動するように構成してもよく、その逆も同様である。
【0139】
上述のように、たとえ実施形態が限定された図面によって説明されても、当技術分野で通常の知識を有する者であれば、上記の説明に基づいて様々な技術的な修正及び変形を適用することができる。例えば、説明された技術は、説明された方法と異なる順で実行されるし、かつ/あるいは、説明されたシステム、構造、装置、回路などの構成要素は、説明された方法と異なる形態で結合又は組み合わせられてもよいし、他の構成要素又は均等物によって置き換え又は置換されたとしても適切な結果を達成することができる。
【0140】
したがって、本発明の範囲は、開示された実施形態に限定されて定められるものではなく、特許請求の範囲及び特許請求の範囲と均等なものなどによって定められるものである。
【符号の説明】
【0141】
110、130 オブジェクト
115、135 走行案内車路
120、140 拡張現実映像
200 測位装置
910 特徴マップ
920 マップデータ