IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ ネイバーラボス コーポレーションの特許一覧

(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2022077976
(43)【公開日】2022-05-24
(54)【発明の名称】画像ベースの測位方法及びシステム
(51)【国際特許分類】
   G06T 17/05 20110101AFI20220517BHJP
   G01C 11/06 20060101ALI20220517BHJP
   G09B 29/00 20060101ALI20220517BHJP
【FI】
G06T17/05
G01C11/06
G09B29/00 Z
【審査請求】有
【請求項の数】15
【出願形態】OL
(21)【出願番号】P 2021178860
(22)【出願日】2021-11-01
(31)【優先権主張番号】10-2020-0150674
(32)【優先日】2020-11-12
(33)【優先権主張国・地域又は機関】KR
(71)【出願人】
【識別番号】319012978
【氏名又は名称】ネイバーラボス コーポレーション
(74)【代理人】
【識別番号】100107766
【弁理士】
【氏名又は名称】伊東 忠重
(74)【代理人】
【識別番号】100070150
【弁理士】
【氏名又は名称】伊東 忠彦
(74)【代理人】
【識別番号】100135079
【弁理士】
【氏名又は名称】宮崎 修
(72)【発明者】
【氏名】キム ドクファ
(72)【発明者】
【氏名】イ ドンファン
(72)【発明者】
【氏名】キム ウヨン
(72)【発明者】
【氏名】イ テジェ
【テーマコード(参考)】
2C032
5B050
【Fターム(参考)】
2C032HB11
5B050AA10
5B050BA09
5B050BA17
5B050DA04
5B050EA05
5B050EA09
5B050EA19
5B050EA27
5B050FA02
(57)【要約】
【課題】 画像ベースの測位に活用できるマップの生成方法、並びにそれを用いた画像ベースの測位方法及びシステムを提供する。
【解決手段】 本発明による画像ベースの測位方法は、第1視点を基準に算出された第1マップデータを用いて第1特徴点マップを生成するステップと、前記第1視点とは異なる第2視点を基準に算出された第2マップデータから第2特徴点マップを生成するステップと、前記第1特徴点マップのポイントと前記第2特徴点マップのポイントの位置差を補正し、前記第1特徴点マップと前記第2特徴点マップを統合した測位用マップデータを構築するステップと、前記測位用マップデータを用いて画像ベースの測位を行うステップとを含む。
【選択図】図1
【特許請求の範囲】
【請求項1】
第1視点を基準に算出された第1マップデータを用いて第1特徴点マップを生成するステップと、
前記第1視点とは異なる第2視点を基準に算出された第2マップデータから第2特徴点マップを生成するステップと、
前記第1特徴点マップのポイントと前記第2特徴点マップのポイントの位置差を補正し、前記第1特徴点マップと前記第2特徴点マップを統合した測位用マップデータを構築するステップと、
前記測位用マップデータを用いて画像ベースの測位を行うステップとを含むことを特徴とする画像ベースの測位方法。
【請求項2】
前記第1視点は、道路視点及び空中視点のいずれか一方であり、前記第2視点は、前記道路視点及び前記空中視点の他方であることを特徴とする請求項1に記載の画像ベースの測位方法。
【請求項3】
前記第1特徴点マップを生成するステップは、
前記道路視点で撮影したストリートビュー画像のそれぞれから特定の条件を満たすオブジェクトの特徴点を検出するステップと、
前記特徴点間のマッチングに基づいて、前記ストリートビュー画像に関連する3次元ポイントを生成するステップと、
前記3次元ポイント及び前記ストリートビュー画像のポーズを補正し、前記第1特徴点マップに備えられるデータを生成するステップとを含むことを特徴とする請求項2に記載の画像ベースの測位方法。
【請求項4】
前記ストリートビュー画像は、複数の画像にクロッピングされ、
前記特徴点の検出は、前記クロッピングされた複数の画像に対して行われることを特徴とする請求項3に記載の画像ベースの測位方法。
【請求項5】
前記第2特徴点マップを生成するステップは、
仮想カメラのポーズ及び3次元モデルデータを用いて、前記仮想カメラで見る室外空間の画像をレンダリングするステップと、
前記レンダリングされた画像及び前記仮想カメラのポーズを用いて、前記第2特徴点マップに備えられるデータを生成するステップとを含み、
前記3次元モデルデータは、前記空中視点で前記室外空間を撮影した画像に基づいて生成されることを特徴とする請求項2に記載の画像ベースの測位方法。
【請求項6】
前記第2特徴点マップに備えられるデータを生成するステップにおいて、
前記レンダリングされた画像を用いて、前記室外空間に位置するオブジェクトの特徴点を抽出し、前記レンダリングされたデプスマップを用いて、前記特徴点の3次元座標を抽出することを特徴とする請求項5に記載の画像ベースの測位方法。
【請求項7】
前記測位用マップデータを構築するステップは、
前記第1特徴点マップの画像と前記第2特徴点マップの画像間で特徴点の対応情報を算出するステップと、
前記対応情報を用いて、前記第1特徴点マップのポイントと前記第2特徴点マップのポイントに対応するカメラポーズの変化を推定するステップとを含むことを特徴とする請求項1に記載の画像ベースの測位方法。
【請求項8】
前記第1特徴点マップの画像は、道路視点で撮影したストリートビュー画像を備え、
前記第2特徴点マップの画像は、室外空間の3次元モデルデータを用いて前記道路視点でレンダリングされた画像を備えることを特徴とする請求項7に記載の画像ベースの測位方法。
【請求項9】
前記ストリートビュー画像は、複数の画像タイルを備え、前記複数の画像タイルは、前記レンダリングされた画像に整合することを特徴とする請求項8に記載の画像ベースの測位方法。
【請求項10】
前記第1特徴点マップの画像と前記第2特徴点マップの画像との特徴点間のエラー最適化により、前記第1特徴点マップ及び前記第2特徴点マップのいずれか一方に対応するカメラポーズが他方を基準に補正されることを特徴とする請求項7乃至9のいずれか1項に記載の画像ベースの測位方法。
【請求項11】
前記第1特徴点マップと前記第2特徴点マップとをスキャンマッチングし、前記第1特徴点マップ及び前記第2特徴点マップのいずれか一方を他方に整合することを特徴とする請求項1乃至10のいずれか1項に記載の画像ベースの測位方法。
【請求項12】
前記第2特徴点マップは、メッシュ情報を備え、
前記第1特徴点マップの3次元ポイントと前記第2特徴点マップのメッシュ情報とを比較して前記第1特徴点マップと前記第2特徴点マップとを整合することを特徴とする請求項11に記載の画像ベースの測位方法。
【請求項13】
前記画像ベースの測位を行うステップは、
入力画像を受信し、特徴点を抽出するステップと、
前記測位用マップデータから前記入力画像の前記特徴点に類似したデータを備える基準画像を抽出し、前記基準画像を用いてポーズを推定するステップとを含むことを特徴とする請求項1乃至12のいずれか1項に記載の画像ベースの測位方法。
【請求項14】
画像ベースの測位用マップデータを保存するデータベースと、
モバイル機器又は自律走行機器で実行され、前記測位用マップデータ及び前記モバイル機器又は前記自律走行機器で撮影した画像を用いて、画像ベースの測位を行う駆動部とを含み、
前記測位用マップデータは、第1特徴点マップ及び第2特徴点マップを備え、
前記第1特徴点マップは、第1視点を基準に算出された第1マップデータを用いて生成され、
前記第2特徴点マップは、前記第1視点とは異なる第2視点を基準に算出された第2マップデータから生成され、
前記第1特徴点マップと前記第2特徴点マップとは、前記第1特徴点マップ及び前記第2特徴点マップのカメラポーズの違いを用いて整合することを特徴とする画像ベースの測位システム。
【請求項15】
電子機器で1つ以上のプロセスにより実行され、コンピュータ可読媒体に格納可能なプログラムであって、
前記プログラムは、
第1視点を基準に算出された第1マップデータを用いて第1特徴点マップを生成するステップと、前記第1視点とは異なる第2視点を基準に算出された第2マップデータから第2特徴点マップを生成するステップと、前記第1特徴点マップのポイントと前記第2特徴点マップのポイントの位置差を補正し、前記第1特徴点マップと前記第2特徴点マップを統合した測位用マップデータを構築するステップと、前記測位用マップデータを用いて画像ベースの測位を行うステップとを実行させるコマンドを含むことを特徴とするコンピュータ可読媒体に格納可能なプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、画像ベースの測位に活用できるマップの生成方法、並びにそれを用いた画像ベースの測位方法及びシステムに関する。
【背景技術】
【0002】
測位技術は、GPSベース、慣性センサベース、画像ベース、SLAM(Simultaneous Localization and Mapping)、VLC(Visible Light Communication)などの様々な方式のシステムが互いに密接な関係を有して発展してきている。
【0003】
このような測位技術のうち、画像ベースの測位(Visual Localization)は、撮影した写真を用いて位置を検出する技術であり、GPSと比較すると、誤差が少なく、ユーザが見る方向までも正確に測定できるという利点がある。このような画像ベースの測位のためには、撮影した写真と比較して位置を特定するためのマップを構築しなければならない。
【0004】
一方、近年、オンライン地図作成技術が非常に高度化し、多くのIT企業が室外空間の地図情報とそれを用いたサービスを提供している。
【0005】
一例として、車両が車道を移動しながら撮影画像を取得し、その後ユーザが電子地図上の特定の地点のストリートビュー画像(ロードビュー画像)を要求すると、撮影された画像を提供する、ストリートビュー機能が常用化されている。また、他の例として、飛行機やドローンなどが空中で撮影した航空写真を用いて3次元地図を生成する方法が活発に開発されている。
【0006】
このような航空写真ベースの3次元モデルデータは画像情報を有し、ストリートビュー画像は画像をベースとするので、画像ベースの測位用マップを構築するためのデータとして活用することができる。よって、画像ベースの測位用マップを生成するために、ストリートビュー画像と航空写真ベースの3次元モデルデータを用いる方法が考慮される。
【発明の概要】
【発明が解決しようとする課題】
【0007】
本発明は、ストリートビュー画像と航空写真ベースの3次元モデルデータを活用して画像ベースの測位用マップを生成する方法及びシステムを提供する。
【0008】
より具体的には、本発明は、ストリートビュー画像と3次元モデルデータを共に用いて道路や歩道で画像ベースの測位に活用できる3次元特徴点マップを生成する方法を提供する。
【0009】
また、本発明は、特徴点マップを活用して1つの画像だけで3次元位置及びポーズを推定する画像ベースの測位を実現する。
【課題を解決するための手段】
【0010】
上記課題を解決するために、本発明による画像ベースの測位方法及びシステムにおいては、カメラポーズの違いを用いて異なる視点のデータから生成された第1特徴点マップと第2特徴点マップとを整合して測位用マップデータを生成する。
【0011】
具体的には、画像ベースの測位方法は、第1視点を基準に算出された第1マップデータを用いて第1特徴点マップを生成するステップと、前記第1視点とは異なる第2視点を基準に算出された第2マップデータから第2特徴点マップを生成するステップと、前記第1特徴点マップのポイントと前記第2特徴点マップのポイントの位置差を補正し、前記第1特徴点マップと前記第2特徴点マップを統合した測位用マップデータを構築するステップと、前記測位用マップデータを用いて画像ベースの測位を行うステップとを含む。
【0012】
本発明の一実施形態において、前記第1視点は、道路視点及び空中視点のいずれか一方であり、前記第2視点は、前記道路視点及び前記空中視点の他方であってもよい。
【0013】
前記第1特徴点マップを生成するステップは、前記道路視点で撮影したストリートビュー画像のそれぞれから特定の条件を満たすオブジェクトの特徴点を検出するステップと、前記特徴点間のマッチングに基づいて、前記ストリートビュー画像に関連する3次元ポイントを生成するステップと、前記3次元ポイント及び前記ストリートビュー画像のポーズを補正し、前記第1特徴点マップに備えられるデータを生成するステップとを含む。
【0014】
前記ストリートビュー画像は、複数の画像にクロッピング(cropping)され、前記特徴点の検出は、前記クロッピングされた複数の画像に対して行われるようにしてもよい。
【0015】
前記第2特徴点マップを生成するステップは、仮想カメラのポーズ及び3次元モデルデータを用いて、前記仮想カメラで見る室外空間の画像をレンダリング(rendering)するステップと、前記レンダリングされた画像及び前記仮想カメラのポーズを用いて、前記第2特徴点マップに備えられるデータを生成するステップとを含み、前記3次元モデルデータは、前記空中視点で前記室外空間を撮影した画像に基づいて生成されるようにしてもよい。
【0016】
前記第2特徴点マップに備えられるデータを生成するステップにおいては、前記レンダリングされた画像を用いて、前記室外空間に位置するオブジェクトの特徴点を抽出し、前記レンダリングされたデプスマップ(depthmap)を用いて、前記特徴点の3次元座標を抽出するようにしてもよい。
【0017】
本発明の他の実施形態において、前記測位用マップデータを構築するステップは、前記第1特徴点マップの画像と前記第2特徴点マップの画像間で特徴点の対応情報(correspondence)を算出するステップと、前記対応情報を用いて、前記第1特徴点マップのポイントと前記第2特徴点マップのポイントに対応するカメラポーズの変化を推定するステップとを含む。
【0018】
前記第1特徴点マップの画像は、道路視点で撮影したストリートビュー画像を備え、前記第2特徴点マップの画像は、室外空間の3次元モデルデータを用いて前記道路視点でレンダリングされた画像を備えるようにしてもよい。前記ストリートビュー画像は、複数の画像タイルを備え、前記複数の画像タイルは、前記レンダリングされた画像に整合するようにしてもよい。前記第1特徴点マップの画像と前記第2特徴点マップの画像との特徴点間のエラー最適化により、前記第1特徴点マップ及び前記第2特徴点マップのいずれか一方に対応するカメラポーズが他方を基準に補正されるようにしてもよい。
【0019】
本発明のさらに他の実施形態において、前記第1特徴点マップと前記第2特徴点マップとをスキャンマッチングし、前記第1特徴点マップ及び前記第2特徴点マップのいずれか一方を他方に整合するようにしてもよい。前記第2特徴点マップは、メッシュ情報を備え、前記第1特徴点マップの3次元ポイントと前記第2特徴点マップのメッシュ情報とを比較して前記第1特徴点マップと前記第2特徴点マップとを整合するようにしてもよい。
【0020】
本発明のさらに他の実施形態において、前記画像ベースの測位を行うステップは、入力画像を受信し、特徴点を抽出するステップと、前記測位用マップデータから前記入力画像の特徴点に類似したデータを備える基準画像を抽出し、前記基準画像を用いてポーズを推定するステップとを含む。
【0021】
また、本発明は、画像ベースの測位用マップデータを保存するデータベースと、モバイル機器又は自律走行機器で実行され、前記測位用マップデータ及び前記モバイル機器又は前記自律走行機器で撮影した画像を用いて、画像ベースの測位を行う駆動部とを含み、前記測位用マップデータは、第1特徴点マップ及び第2特徴点マップを備え、前記第1特徴点マップは、第1視点を基準に算出された第1マップデータを用いて生成され、前記第2特徴点マップは、前記第1視点とは異なる第2視点を基準に算出された第2マップデータから生成され、前記第1特徴点マップと前記第2特徴点マップとは、前記第1特徴点マップ及び前記第2特徴点マップのカメラポーズの違いを用いて整合することを特徴とする画像ベースの測位システムを開示する。
【発明の効果】
【0022】
本発明による画像ベースの測位方法及びシステムは、異なる視点のデータを用いてマップデータを生成してデータの弱点を補うので、歩道視点の画像を用いた画像ベースの測位を可能にする。
【0023】
また、異なる視点のデータから生成された第1特徴点マップと第2特徴点マップとを整合して測位用マップデータを構築するので、異なる特徴点マップの利点を生かすことができる。特に、ストリートビューベースの画像には、歩道で撮影した画像がなく、車両視点の画像のみあるという問題があり、航空写真ベースの3次元モデルは、仮想の画像を用い、低層建物のテクスチャが崩れるという問題があるので、ストリートビューベースの画像及び航空写真ベースの3次元モデルを用いて互いを補う。
【0024】
より具体的には、整合したストリートビュー画像ベースの3次元ポイントと航空写真ベースのモデルから得られた3次元ポイントからマップデータを取得し、(1)実際に撮影したストリートビュー画像を活用することから、ローカル、グローバルフィーチャマッチングが正確になるので、正確な位置測位が可能になり、(2)航空写真を用いて様々な視点(VLを行うビュー:歩徒、横断歩道など)で画像をレンダリングできるので、より安定したサービスが可能になる。
【0025】
さらに、本発明は、既に構築されたデータである3次元モデルデータを用いてマップを生成するので、室外環境に対する事前スキャンプロセスのないマップの生成を実現する。よって、時間及びコストの効率性が向上する。
【0026】
さらに、本発明は、歩道視点で再建した3次元地図を活用して測位を行うので、1つの画像だけで3次元位置及びポーズを推定できるという利点がある。
【図面の簡単な説明】
【0027】
図1】本発明による画像ベースの測位を行う動作を説明するための概念図である。
図2図1の画像ベースの測位を実現するシステムの一例を示す図である。
図3】本発明による画像ベースの測位を行うためのプロセスを示すフローチャートである。
図4図3のプロセスにより構築されたマップデータを説明するための概念図である。
図5】航空写真ベースの3次元モデル及びストリートビュー画像ベースの特徴点マップの一例を示す図である。
図6a図5のデータの座標が整合していない例を示す概念図である。
図6b図5のデータの座標が整合している例を示す概念図である。
図7図3の第1特徴点マップと第2特徴点マップとを整合する一実施形態を示す概念図である。
図8図3の第1特徴点マップと第2特徴点マップとを整合する他の実施形態を示す概念図である。
図9図4のデータを用いて歩道で画像ベースの測位を行う一例を示す概念図である。
図10】画像ベースの測位のデータ構造を示すブロック図である。
図11図10においてグローバルディスクリプタ(Global descriptor)を用いて画像の類似度を判別する概念を示す概念図である。
図12a】本発明による第1特徴点マップの生成方法を示すフローチャートである。
図12b図12aのフローチャートの一実施形態を示す詳細フローチャートである。
図13図12bの第1ステップを説明するための概念図である。
図14a図12bの第2ステップを説明するための概念図である。
図14b図12bの第2ステップを説明するための概念図である。
図15a図12bの第3ステップを説明するための概念図である。
図15b図12bの第3ステップを説明するための概念図である。
図16a図12bの第4ステップを説明するための概念図である。
図16b図12bの第4ステップを説明するための概念図である。
図17a図12bの第5ステップを説明するための概念図である。
図17b図12bの第5ステップを説明するための概念図である。
図18a】本発明による第2特徴点マップの生成方法を示すフローチャートである。
図18b図18aのフローチャートの一実施形態を示す詳細フローチャートである。
図19図18bの格子座標を生成する方法を説明するための概念図である。
図20】レンダリングを行うカメラポーズを示す概念図である。
図21図18bのプロセスにより構築されたデータセットを示す概念図である。
図22図18bのプロセスによりレンダリングされた画像の一例を示す概念図である。
図23図18bにおける特徴点と3次元座標を抽出する方法を示す概念図である。
【発明を実施するための形態】
【0028】
以下、添付図面を参照して本明細書に開示される実施形態について詳細に説明するが、図面番号に関係なく同一又は類似の構成要素には同一又は類似の符号を付し、その説明は省略する。以下の説明で用いる構成要素の接尾辞である「モジュール」及び「部」は、明細書の作成を容易にするために付与又は混用されるものであり、それ自体が有意性や有用性を有するものではない。また、本明細書に開示される実施形態について説明するにあたって、関連する公知技術についての具体的な説明が本明細書に開示される実施形態の要旨を不明にする恐れがあると判断される場合は、その詳細な説明を省略する。なお、添付図面は本明細書に開示される実施形態を容易に理解できるようにするためのものにすぎず、添付図面により本明細書に開示される技術的思想が限定されるものではなく、本発明の思想及び技術範囲に含まれるあらゆる変更、均等物又は代替物が本発明に含まれるものと理解されるべきである。
【0029】
第1、第2などのように序数を含む用語は様々な構成要素を説明するために用いられるが、上記構成要素は上記用語により限定されるものではない。上記用語は1つの構成要素を他の構成要素と区別する目的でのみ用いられる。
【0030】
ある構成要素が他の構成要素に「連結」又は「接続」されていると言及された場合は、他の構成要素に直接連結又は接続されていてもよく、中間にさらに他の構成要素が存在してもよいものと解すべきである。それに対して、ある構成要素が他の構成要素に「直接連結」又は「直接接続」されていると言及された場合は、中間にさらに他の構成要素が存在しないものと解すべきである。
【0031】
単数の表現には、特に断らない限り複数の表現が含まれる。
【0032】
本明細書において、「含む」や「有する」などの用語は、明細書に記載された特徴、数字、ステップ、動作、構成要素、部品、又はそれらの組み合わせが存在することを指定しようとするもので、1つ又はそれ以上の他の特徴、数字、ステップ、動作、構成要素、部品、又はそれらの組み合わせの存在や付加可能性を予め排除するものではないと理解すべきである。
【0033】
本発明は、画像ベースの測位に活用できるマップの生成方法、並びにそれを用いた画像ベースの測位方法及びシステムに関し、具体的には、ストリートビュー画像と航空画像ベースの3次元モデルデータとを組み合わせて航空、海洋、道路、歩道などで画像ベースの測位を行うシステムを提供するものである。
【0034】
オンラインで提供されるストリートビュー機能は、電子地図上の特定のスポットでユーザが選択した方向の画像(又は写真やイメージ)を表示する機能である。ここで、スポットは、ストリートビュー写真を撮影した位置であり、所定の距離、例えば10m間隔で存在するようにしてもよい。
【0035】
このようなストリートビュー機能に用いられるストリートビュー画像は、複数のカメラで複数方向の写真を撮影してそれらの写真を連結したパノラマ写真であり、ユーザは一地点で360度全方位の写真を見ることができる。より具体的には、本発明で例示するストリートビュー画像は、360度の球パノラマ(spherical panoramic)画像であってもよい。
【0036】
このように、ストリートビュー画像はパノラマ写真であるので、該当スポットで方向を調整して360度パノラマ写真を見て該当空間に関する実際の情報を得ることができる。
【0037】
一方、前記ストリートビュー画像は、道路視点で撮影した画像であってもよい。例えば、車両が車道を移動しながら撮影画像を取得してパノラマ写真を生成し、よって、前記ストリートビュー画像は道路、より具体的には車道で見た画像であり、本発明においてはそれを道路視点で撮影した画像という。
【0038】
ただし、本発明は、必ずしもこれに限定されるものではなく、前記ストリートビュー画像は、他の視点や他の方法で撮影した画像であってもよい。
【0039】
本発明において、航空画像は、航空写真、航空ビデオ画像、航空イメージなどを含む意味で用いられる。これらのうち、航空写真(Aerial Photo)とは、航空機、飛行船、気球、ドローンなどに搭載されたカメラで撮影した写真をいい、地形図の作成及び判読による環境及び資源解析、形状解析などに主に用いられる。
【0040】
この場合、前記航空写真の多視点画像を処理することにより、撮影した地域を3次元モデルデータとして構築する。前記3次元モデルデータは、3次元レンダリング画像、オルソ画像(Orthophotograph)、数値表層モデル(DSM: Digital Surface Model)、数値標高モデル(DEM: Digital Elevation Model)などの情報を含む。
【0041】
レンダリング又は画像合成(image synthesis)とは、コンピュータプログラムを用いてモデル又はそれらを集めたシーンであるシーンファイル(scene file)から画像を生成する過程をいう。3次元レンダリングとは、3次元コンピュータグラフィックスで作成したモデルに色と質感を与えて撮影機のアングルで構図をとって光で陰影処理をすることにより、最終結果の画像を生成する過程を意味する。ここで、最終結果の画像は、前記3次元レンダリング画像であり得る。
【0042】
オルソ画像とは、写真撮影当時のカメラ姿勢及び地形起伏により生じた対象体の変位を除去した画像をいい、地表面の高低により発生する写真の歪みを補正して同一縮尺の地図のようにした画像であり得る。
【0043】
数値表層モデルとは、地表面上の自然的形状である地貌と人工的形状である地物を両方とも含むモデルをいい、数値標高モデルとは、地表面の高度値を数値として保存して地形の形状を示すモデルをいう。ただし、本発明で例示する3次元モデルデータは、1つのデータセットに限定されるものではない。例えば、3次元レンダリング画像と数値標高モデルとは、異なるデータセットからそれぞれ取得されるようにしてもよい。
【0044】
本発明においては、前記ストリートビュー画像を用いて、画像ベースの測位のためのいずれか1つの特徴点マップを生成し、前記3次元モデルデータを用いて、前記画像ベースの測位のための他の1つの特徴点マップを生成する。
【0045】
前記特徴点マップは、3次元の特徴点に関するデータを有するマップであり、フィーチャマップ、ロードマップ又は3次元特徴点マップともいう。本例においては、道路や歩道などの道で画像ベースの測位に活用されるマップを例示する。ただし、道路や歩道は、画像ベースの測位を行う地点の例示にすぎず、本発明の特徴点マップは、空中での画像ベースの測位にも活用することができる。以下、説明の便宜上、歩道での画像ベースの測位を例に本発明を説明する。
【0046】
一方、前記歩道とは、車両などが通る道路に併設された歩行者道を意味する。前記歩道は、車道の両側に設置され、人と車両の両方該当地域を通行できるようにすると共に、それぞれの経路を区分する。前記歩道は、狭い意味で、車道の横に設置された舗装された道を特定する言葉として用いられるが、本発明においては、これに限定されるものではない。すなわち、前記歩道は、人が通る道を通称する意味で用いられる。
【0047】
前記航空、海洋、道路、歩道などでの画像ベースの測位とは、前記航空、海洋、道路、歩道などでGPSを用いるのではなく、周辺を撮影した写真を用いて自身の正確な位置を把握する測位を意味する。ここで、前記歩道での画像ベースの測位とは、徒歩で移動するユーザが周辺を撮影し、撮影した画像からユーザの位置を把握することを意味する。
【0048】
本発明において、前記ストリートビュー画像及び前記3次元モデルデータを用いて行う前記画像ベースの測位は、モバイル機器や自律走行機器で行うことができる。
【0049】
前記モバイル機器とは、手に持ったり身につけて持ち運べる移動端末機を意味し、前記自律走行機器とは、自ら移動可能に構成されるモバイル装置を意味する。
【0050】
例えば、前記移動端末機には、携帯電話、スマートフォン(smart phone)、ノートパソコン(laptop computer)、デジタル放送端末、PDA(Personal Digital Assistants)、PMP(Portable Multimedia Player)、ナビゲーション、スレートPC(slate PC)、タブレットPC(tablet PC)、ウルトラブック(ultrabook)、ウェアラブルデバイス(例えば、スマートウォッチ(smartwatch)、スマートグラス(smart glass)、HMD(Head Mounted Display))などが含まれる。また、前記自律走行機器には、自律走行車、ドローン、ロボットなどが含まれ、前記ロボットには、掃除ロボット、案内ロボット、配達ロボットなど、移動しながら位置ベースのサービスを提供するロボットなどがある。
【0051】
なお、本発明の実施形態においては、歩道で位置を取得するか、徒歩で移動しながら位置を取得する新たな方式の測位方法及びシステムについて、前記モバイル機器や前記自律走行機器の位置を基準に説明するが、本発明は、必ずしもこれに限定されるものではない。前記モバイル機器や前記自律走行機器は、ユーザの位置を測定する1つの手段であり、他の機器を本発明に適用することもできる。
【0052】
このように、本発明による画像ベースの測位に活用できるマップの生成方法、並びにそれを用いた画像ベースの測位方法及びシステムは、ユーザに現在の位置情報を提供し、そのために、ストリートビュー画像を用いて生成したマップ及び航空画像を用いて生成したマップを用いる。以下、まず、画像ベースの測位及びそれを実現するシステムについて、その後、その画像ベースの測位に用いられるマップを生成する方法について、図面を参照してより詳細に説明する。
【0053】
図1は、本発明による画像ベースの測位を行う動作を説明するための概念図であり、図2は、図1の画像ベースの測位を実現するシステムの一例を示す図である。
【0054】
図1を参照すると、室外空間に自律走行機器としてロボットRが位置する。ロボットRは、配達ロボットや案内ロボットなどのサービスロボットであり得る。ただし、ロボットRが走行する空間の種類には制限がなく、ロボットRは、必要に応じて室内空間及び室外空間の少なくとも一方を走行することができる。本例において、ロボットRは、与えられたサービス提供などのタスクを実行するために、人々が徒歩で移動する歩道11を走行するとする。
【0055】
ロボットRを用いて様々なサービスを提供するためには、ロボットRが正確かつ迅速に自身の位置を確認することが非常に重要である。よって、ロボットRは、歩道11を走行しながら迅速に画像ベースの測位を行うことができる。
【0056】
このような画像ベースの測位の例として、ロボットRは、道路12を挟んで一側の歩道11で他側の歩道を見ながら画像を撮影し、撮影した画像を3次元マップと比較して自身の位置を検出する。この場合、歩道11で見た画像を取得して3次元マップを生成することには多くの努力と時間が必要である。
【0057】
本発明においては、既に構築されたデータであるストリートビュー画像及び3次元モデルデータを用いて画像ベースの測位用マップデータを生成し、それにより室外環境に対する事前スキャンプロセスのないマップの生成を実現する。
【0058】
また、歩道11での画像ベースの測位は、図2に示す画像ベースの測位システム100により実現することができる。
【0059】
画像ベースの測位システム100は、自律走行機器110及びコントロールサーバ120を備えてもよい。ただし、前述したように、本実施形態においては、自律走行機器110としてロボットRを例示するが、モバイル機器で代替してもよい。
【0060】
自律走行機器110は、無線通信部111、駆動部112及び制御部113の少なくとも1つを備える。
【0061】
無線通信部111は、自律走行機器110とコントロールサーバ120間、自律走行機器110と他の自律走行機器間、自律走行機器110とモバイル機器間、自律走行機器110と通信ネットワーク間の無線通信を行う。このような無線通信を行うために、無線通信部111は、無線インターネットモジュール、近距離通信モジュール、位置情報モジュールなどを備える。
【0062】
駆動部112は、制御部113の制御下で、自律走行機器110やモバイル機器で実行されるようにしてもよい。駆動部112は、測位用マップデータ及び自律走行機器110やモバイル機器で撮影した画像を用いて画像ベースの測位を行う。このように画像ベースの測位を行うために、駆動部112は、イメージセンサなどを備えてもよい。
【0063】
前記測位用マップデータは、道路12の周辺に位置する歩道視点の画像ベースの測位に活用できるマップデータであり、画像ベースの測位用に作成された特徴点マップであってもよい。
【0064】
一方、制御部113は、無線通信を制御し、画像を撮影し、駆動部112を制御する動作と共に、通常、自律走行機器110やモバイル機器の全般的な動作を制御する。
【0065】
この場合、前記測位用マップデータは、コントロールサーバ120から自律走行機器110に提供されるか、自律走行機器110の要求に応じてコントロールサーバ120で測位に用いられる。コントロールサーバ120は、無線通信部121、データベース122、演算部123及び制御部124の少なくとも1つを備える。
【0066】
無線通信部121は、制御部124の制御下で、自律走行機器110と無線通信を行う。また、制御部124は、演算部123及びデータベース122と連携し、測位用マップデータを生成、保存及び更新する一連のプロセスを制御する。
【0067】
データベース122には、前記測位用マップデータが保存され、前記測位用マップデータには、座標情報、ポイントクラウド情報、画像情報、ポーズ情報などが備えられる。
【0068】
演算部123は、前記測位用マップデータを最初に生成するか、生成した測位用マップデータを更新する機能を実行する。他の例として、演算部123が自律走行機器110の駆動部112の機能を代わりに行うようにしてもよい。例えば、自律走行機器110で撮影した画像を用いて、画像ベースの測位のためのデータ処理や演算などを行って自律走行機器110の位置を算出するようにしてもよい。
【0069】
本発明において、前記測位用マップデータは、ストリートビュー画像と航空画像をベースとして生成した3次元モデルデータを共に用いてマップを構築することにより実現することができる。
【0070】
以下、このような測位用マップデータを構築し、画像ベースの測位を行う方法について、図面を参照してより詳細に説明する。
【0071】
図3は、本発明による画像ベースの測位を行うためのプロセスを示すフローチャートであり、図4は、図3のプロセスにより構築されたマップデータを説明するための概念図であり、図5は、航空写真ベースの3次元モデル及びストリートビュー画像ベースの特徴点マップの一例を示す図である。また、図6a及び図6bは、図5のデータの座標が整合していない例及び整合している例を示す概念図である。
【0072】
図3に示すように、本発明による画像ベースの測位方法は、第1特徴点マップを生成するステップ(S110)、第2特徴点マップを生成するステップ(S120)、第1特徴点マップと第2特徴点マップを統合した測位用マップデータを構築するステップ(S130)、及び画像ベースの測位を行うステップ(S140)を含んでもよい。
【0073】
前記第1特徴点マップを生成するステップ(S110)は、第1視点を基準に算出された第1マップデータを用いて第1特徴点マップを生成するステップであってもよい。前記第2特徴点マップを生成するステップ(S120)は、前記第1視点とは異なる第2視点を基準に算出された第2マップデータから第2特徴点マップを生成するステップであってもよい。この場合、前記第1特徴点マップを生成するステップ(S110)と前記第2特徴点マップを生成するステップ(S120)とは、時系列的なステップではなく、同時に行ってもよく、その順序を変更してもよい。
【0074】
ここで、前記第1視点は、道路視点及び空中視点のいずれか一方であり、前記第2視点は、前記道路視点及び前記空中視点の他方であってもよい。よって、前記第1マップデータは、ストリートビュー画像及び3次元モデルデータのいずれか一方であり、前記第2マップデータは、ストリートビュー画像及び3次元モデルデータの他方であってもよい。また、前記第1特徴点マップは、前記ストリートビュー画像をベースとして生成した特徴点マップ及び前記3次元モデルデータをベースとして生成した特徴点マップのいずれか一方であり、前記第2特徴点マップは、前記ストリートビュー画像をベースとして生成した特徴点マップ及び前記3次元モデルデータをベースとして生成した特徴点マップの他方であってもよい。
【0075】
以下、本明細書においては、説明の便宜上、前記第1視点が道路視点であり、前記第2視点が空中視点である場合を例示するが、その逆の場合であってもよい。よって、前記第1特徴点マップを生成するステップ(S110)は、道路視点で撮影したストリートビュー画像をベースとして前記第1特徴点マップを生成するステップであってもよい。また、前記第2特徴点マップを生成するステップ(S120)は、空中で室外空間を撮影した画像に基づく3次元モデルデータから前記第2特徴点マップを生成するステップであってもよい。
【0076】
さらに、前記第2特徴点マップは、空中視点の3次元モデルデータを用いて特徴点マップを生成するので、視点の変更が可能である。前記第2特徴点マップは、仮想の3次元マップであるので、歩道視点の位置及び方向を用いて画像をレンダリングすることにより歩道視点のマップを生成することも可能である。
【0077】
前記第1特徴点マップ及び前記第2特徴点マップにおいては、ストリートビュー画像から生成した3次元ポイントと航空写真ベースの3次元モデルから構築した3次元ポイントとの座標系が一致しないという問題がある。GPS、IMUセンサの誤差により、異なる方式で生成した2つの3次元ポイント間にはポーズの違いが存在するということである。よって、図6aに示すように、前記第1特徴点マップの3次元ポイントと前記第2特徴点マップの航空写真とは、センサの誤差などにより、同一地域であってもずれるようになる。ここで、前記第1特徴点マップでは、ポイントが集まってマップのデータが形成され(図5の(a)に示す)、前記第2特徴点マップは、航空写真(図5の(b)に示す)をベースとして形成されるようにしてもよい。
【0078】
上記問題を解決するために、本発明において、前記第1特徴点マップと前記第2特徴点マップを統合した測位用マップデータを構築するステップ(S130)は、前記第1特徴点マップのポイントと前記第2特徴点マップのポイントとにおけるカメラポーズの違いを用いて、前記第1特徴点マップと前記第2特徴点マップを統合した測位用マップデータを構築するステップであってもよい。
【0079】
より具体的には、前記第1特徴点マップと前記第2特徴点マップを統合して測位用マップデータを構築し、歩道での画像ベースの測位に活用する。前記第1特徴点マップと前記第2特徴点マップとの統合のために、図4に示すように、第2特徴点マップ140を第1特徴点マップ130に整合し、統合した測位用マップデータ150を構築するようにしてもよい。
【0080】
このような整合により、図6bに示すように、前記第2特徴点マップの航空写真と前記第1特徴点マップの3次元ポイントとが一致するようになる。
【0081】
その後、前記画像ベースの測位を行うステップ(S140)においては、前記測位用マップデータを用いて歩道で画像ベースの測位を行う。
【0082】
一方、本明細書においては、説明の便宜上、まず、データを整合する方法と測位を行うステップについて説明し、前記第1特徴点マップを生成するステップ(S110)の詳細については図12a~図17bを参照して後述し、前記第2特徴点マップを生成するステップ(S120)の詳細については図18a~図23を参照して後述する。
【0083】
前記データの整合には様々な方法を用いることができ、本発明においては、ローカルフィーチャマッチング(Local Feature Matching)やスキャンマッチング(Scan-Matching)により、前記第1特徴点マップのデータと前記第2特徴点マップのデータとを一致させる。
【0084】
ローカルフィーチャマッチング(Local Feature Matching)
図7は、図3の第1特徴点マップと第2特徴点マップとを整合する一実施形態を示す概念図であり、より具体的にはローカルフィーチャマッチングの概念を示す。
【0085】
ローカルフィーチャマッチングを行うために、前記測位用マップデータを構築するステップにおいては、まず、前記第1特徴点マップの画像131と前記第2特徴点マップの画像141間で特徴点の対応情報を算出する。
【0086】
例えば、航空写真ベースの3次元モデルにおいてレンダリングされた画像をベースとして2次元画像の特徴点を抽出し、ストリートビュー画像から特徴点を抽出し、それら特徴点の対応情報を算出する。
【0087】
前記特徴点は、画像において特徴となる地点であって、画像の重要な情報を含む地点である。このような地点として、前記特徴点は、例えば建物の角などである。
【0088】
ここで、前記第1特徴点マップの画像131は、道路視点で撮影したストリートビュー画像を備え、前記第2特徴点マップの画像141は、室外空間の3次元モデルデータを用いて前記道路視点でレンダリングされた画像を備えるようにしてもよい。例えば、図7に示すように、前記第1特徴点マップの画像131として、ストリートビュー画像から特徴点が抽出され、前記第2特徴点マップの画像141として、レンダリングされた画像に対して特徴点が抽出される。
【0089】
この場合、前記特徴点抽出技法は、特定例に限定されるものではなく、本発明に適用できる様々な技法が考慮される。よって、本明細書においては、それについて特に制限はない。
【0090】
ここで、前記ストリートビュー画像は、複数の画像タイルを備えるタイルマップ(Tile Map)から取得してもよい。前記タイルマップは、地図画像タイルを提供し、一般地図、衛星地図、地形図のような地図タイプと大衆交通、自転車道、リアルタイム交通情報などの詳細情報とを含む地図を、画像タイルとして備えるようにしてもよい。
【0091】
本例において、前記ストリートビュー画像は、複数の画像タイルを備え、前記複数の画像タイルは、前記レンダリングされた画像に整合する。そのために、前記第1特徴点マップの画像における特徴点の抽出は前記画像タイルで行われ、前記画像タイルの特徴点と前記レンダリングされた画像の特徴点とで対応情報が算出される。
【0092】
次に、前記対応情報を用いて、前記カメラポーズの違いを推定するステップが行われる。その例として、算出した対応情報を用いて、例えばPnPソルバー(perspective-n-point solver)により1つの画像タイルと3次元モデルとのポーズの違いを推定する。
【0093】
前記PnPソルバーは、PnPアルゴリズムを用いてカメラポーズ(例えば、カメラの位置、角度、方向)を推定する技法である。
【0094】
より具体的には、前記第1特徴点マップの画像と前記第2特徴点マップの画像との特徴点間のエラー最適化により、前記第1特徴点マップ及び前記第2特徴点マップのいずれか一方に対応するカメラポーズが他方を基準に補正される。本例においては、ストリートビュー画像の画像タイルを3次元モデルのレンダリングされた画像に合わせる方式で、前記画像タイルのカメラポーズに対してエラー最適化が行われる。例えば、前記3次元モデルのレンダリングされた画像に基づいて、前記ストリートビュー画像の画像タイルのカメラポーズなどの情報が更新される。
【0095】
上記過程により、前記第1特徴点マップと前記第2特徴点マップとの同一座標でカメラポーズなどの情報が一致するようになる。このような情報の一致は、前記第1特徴点マップ及び前記第2特徴点マップのデータを生成する前にカメラポーズなどの情報を補正するか、又は前記第1特徴点マップ及び前記第2特徴点マップのデータを生成した後に情報を補正する方法により実現することができる。
【0096】
一方、前記第1特徴点マップと前記第2特徴点マップとを整合する方法には、様々な形態を適用することができる。その例として、本発明においては、スキャンマッチング(Scan-Matching)により、前記第1特徴点マップと前記第2特徴点マップとを整合するようにしてもよい。
【0097】
スキャンマッチング(Scan-Matching)
図8は、図3の第1特徴点マップと第2特徴点マップとを整合する他の実施形態を示す概念図であり、より具体的にはスキャンマッチングの概念を示す。
【0098】
図8の(a)のようにスキャンマッチングを行う前には、第1特徴点マップのデータと第2特徴点マップのデータとが一致しないが、スキャンマッチングでデータを整合すると、図8の(b)のように一致するデータとなる。
【0099】
この場合、前記第1特徴点マップと前記第2特徴点マップとをスキャンマッチングし、前記第1特徴点マップ及び前記第2特徴点マップのいずれか一方を他方に整合する。
【0100】
その例として、ICP(Iterative Closest Point)アルゴリズムを用いて、前記第1特徴点マップの3次元ポイントと前記第2特徴点マップの3次元モデルとを比較して整合するようにしてもよい。この場合、同図に示すように、前記ICPアルゴリズムを用いてポイントとポイント間の距離やポイントとライン間の距離を最適化する方法が用いられてもよい。また、この場合、他のICPアルゴリズムを用いて、例えばポイントと面(メッシュ)間の距離を用いるICP方法などが適用されてもよい。
【0101】
他の方法として、前記3次元モデルは、メッシュを備え、前記第2特徴点マップは、メッシュ情報を備え、前記第1特徴点マップの3次元ポイントと前記第2特徴点マップのメッシュ情報とを比較して前記第1特徴点マップと前記第2特徴点マップとを整合する方法が用いられてもよい。
【0102】
前記第1特徴点マップは、ポイントの情報を有し、前記第2特徴点マップは、航空データの3次元メッシュを有し、前記ポイントと前記メッシュとの距離を最小限に抑える方法により、前記整合を行うようにしてもよい。この場合、前記メッシュに基づいて前記ポイントの情報を更新すると、前記カメラポーズなどの情報が補正される。
【0103】
このように、データの整合により、第1特徴点マップと第2特徴点マップを統合した測位用マップデータが構築されると、前記画像ベースの測位を行うステップ(S140)において、前記測位用マップデータを用いて歩道で画像ベースの測位が行われる。
【0104】
図9は、図4のデータを用いて歩道で画像ベースの測位を行う一例を示す概念図であり、図10は、画像ベースの測位のデータ構造を示すブロック図であり、図11は、図10においてグローバルディスクリプタを用いて画像の類似度を判別する概念を示す概念図である。
【0105】
前述した測位用マップデータを活用して、1つの画像だけで徒歩で移動するユーザの3次元位置及びポーズを推定することができる。例えば、ユーザは、モバイル機器を用いて自身の位置を確認したり、自身の位置をベースとするサービスの提供を受けることができる。
【0106】
この場合、前記画像ベースの測位を行うステップは、入力画像を受信し、特徴点を抽出するステップと、前記測位用マップデータから前記入力画像の特徴点に類似したデータを備える基準画像を抽出し、前記基準画像を用いてポーズを推定するステップとを含んでもよい。
【0107】
図9を参照すると、前記位置ベースのサービスの一例として、ユーザのモバイル機器で画像ベースの測位サービスを実現することができる。
【0108】
ユーザは、徒歩移動中に特定の地点で自身の位置を確認するために、スマートフォン191で前記画像ベースの測位サービスに関連するアプリケーションを実行し、周辺の街頭を撮影する。前記アプリケーションは、撮影した入力画像192の特徴点193と測位用マップデータの特徴点194とを比較し、前記モバイル機器の3次元位置及びポーズを推定する。
【0109】
このようなプロセスを行うために、図10に示すように、画像ベースの測位システムは、統合された測位用マップデータ150、VLサーバ170及びディープフィーチャ提供サーバ(deep feature serving server)160を備えてもよい。以下、画像ベースの測位プロセスについてより詳細に説明する。
【0110】
図10及び図11に示すように、まず、入力画像がクエリとして入力されると、VLサーバ170及びディープフィーチャ提供サーバ160は、GPS情報及びグローバルディスクリプタを用いて、統合された測位用マップデータから入力画像に類似した基準画像データを抽出する。このとき、VLサーバ170がディープフィーチャ提供サーバ160に画像を送信し、ディープフィーチャ提供サーバ160がグローバルディスクリプタ、ローカルディスクリプタ及びローカル特徴点を抽出するようにしてもよい。VLサーバ170は、抽出したグローバルディスクリプタ及びGPS情報を用いて、統合された測位用マップデータから入力画像に類似した基準画像データを抽出する。
【0111】
前記グローバルディスクリプタは、活用する1枚の画像を記述する1xNの実数ベクトル(float-vector)であってもよい。前記グローバルディスクリプタを用いて、例えばコサイン類似度(cosine similarity)などにより画像間の類似度を判別することができる。
【0112】
次に、ローカルフィーチャマッチングにより、位置とカメラポーズを推定する。例えば、抽出した前記ローカルディスクリプタ及び前記ローカル特徴点を用いて、入力画像と類似した基準画像間のローカルフィーチャマッチングを行い、得られた連関関係を用いてカメラの位置及びポーズを推定するようにしてもよい。前記ローカルフィーチャマッチングは、2次元情報と3次元情報とのマッチングであり得る。
【0113】
例えば、図9に示すように、第1特徴点マップの情報がモバイル機器で撮影したクエリ画像とより類似している場合、前記測位用マップデータにおいてストリートビューをベースとして生成した第1特徴点マップの3次元データの特徴点と前記モバイル機器で撮影した2次元画像の特徴点とがマッチングされる。
【0114】
より具体的には、ディープフィーチャ提供サーバ160において、ローカル特徴点を抽出し、2D-3Dマッチングにおいて、ローカルフィーチャディスクリプタ(Local feature descriptor)を用いて、2次元画像の特徴点にマッチングされる第1特徴点マップの3次元値を検出する。その後、PnPソルバーにおいて、前記3次元値と前記2次元入力画像のピクセル値に基づいて演算(solving)を行い、カメラポーズを推定する。
【0115】
前記PnPソルバーの演算は、ローカルフィーチャマッチングにより、入力画像の2次元ピクセル座標とマップ上の3次元ポイント間の対応情報を取得し、複数対の2次元-3次元情報により、入力画像のポーズを計算する。複数の特徴点が検出され、それら特徴点に3次元情報が連結されるので、複数の2次元-3次元情報を取得することができ、それにより入力画像のポーズを計算する。
【0116】
この場合、リプロジェクションエラー(re-projection error)が最小限に抑えられるように繰り返し演算し、前記ポーズが推定されるようにしてもよい。前記リプロジェクションエラーは、マップ上の3次元ポイントが入力画像にプロジェクションされたときの前記入力画像の2次元特徴点間のピクセルエラーと定義される。
【0117】
前述したように、本発明においては、入力画像に類似した画像間のマッチングにより算出された3次元位置及び推定されたポーズを用いて、前記モバイル機器の正確な位置を測位することができる。この場合、前記モバイル機器では前記位置をベースとする様々なサービスを実行することができる。
【0118】
以下、前記第1特徴点マップを生成するステップ(S110)と、前記第2特徴点マップを生成するステップ(S120)についてより詳細に説明する。
【0119】
図12aは、本発明による第1特徴点マップの生成方法を示すフローチャートであり、図12bは、図12aのフローチャートの一実施形態を示す詳細フローチャートである。
【0120】
図12aに示すように、前記第1特徴点マップを生成するステップは、特徴点検出ステップ(S210)、ポイント生成ステップ(S220)及び特徴点マップ生成ステップ(S230)を含んでもよい。
【0121】
まず、前記特徴点検出ステップ(S210)において、道路視点で撮影したストリートビュー画像から特徴点を検出する。
【0122】
例えば、前記ストリートビュー画像のそれぞれからオブジェクトの特徴点を検出するようにしてもよい。前記オブジェクトは、道路、木、人、車両、空、建物などを含み、前記ストリートビュー画像内の全ての客体の少なくとも1つであり得る。
【0123】
そのために、図12bに示すように、前記特徴点検出ステップ(S210)は、第1ステップ(S211)、第2ステップ(S212)及び前記第3ステップ(S213)からなる。
【0124】
前記第1ステップ(S211)は、画像をクロッピングするステップであり、ストリートビュー画像を複数の画像にクロッピングする。
【0125】
前記クロッピングとは、既に撮影した画像の一部を切り出すことを意味する。具体的には、前記クロッピングとは、トリミングと同様の意味であり、画像の不要な部分を切り出すか、又は写真を分割して所定の基準で複数の画像に切ることを意味する。
【0126】
前記第2ステップ(S212)は、特徴点をフィルタリングするステップであり、より具体的には、特徴点をマッチングする前に画像内で不要なオブジェクトを設定するステップであってもよい。前記第3ステップ(S213)は、特徴点をマッチングするステップであり、前記不要なオブジェクトを除く他のオブジェクトにおいて特徴点をマッチングするステップであってもよい。
【0127】
ただし、本発明において、不要なオブジェクトを除いて特徴点をマッチングするとは、必ずしも全ての特徴点を除去することを意味するものではない。ここで、前記特徴点のフィルタリングは、不要なオブジェクトに対応する特徴点の数を最小限にするという意味で解釈されるべきである。また、前記第2ステップ(S212)と前記第3ステップ(S213)とは、必ずしも時系列的に行われるステップではない。例えば、前記第2ステップ(S212)と前記第3ステップ(S213)とは、同時に行ってもよく、その順序を変更してもよい。
【0128】
このように、前記特徴点検出ステップ(S210)においては、ストリートビュー画像をクロッピングし、フィルタリングと共にクロッピングされた画像間の特徴点がマッチングされる。
【0129】
次に、前記ポイント生成ステップ(S220)において、特徴点マップを生成するためのポイントを生成する。より具体的には、前記ポイント生成ステップ(S220)は、第4ステップ(S221)及び第5ステップ(S222)を含んでもよい。
【0130】
前記第4ステップ(S221)は、前記特徴点間のマッチングに基づいて、前記ストリートビュー画像に関連する3次元ポイントを生成するステップであってもよい。生成された3次元ポイントに対しては、前記第5ステップ(S222)のポイント最適化が行われ、それにより特徴点マップが生成(S230)される。ここで、前記第5ステップ(S222)は、前記特徴点マップを生成するために、最適化を行って前記3次元ポイントを補正するステップであってもよい。
【0131】
前述したように、本発明による画像ベースの第1特徴点マップの生成方法は、第1ステップ~第5ステップを含む。ただし、本発明は、必ずしもこれに限定されるものではなく、例えば、第1特徴点マップの生成方法のステップの一部が省略されてもよい。その例として、前記画像をクロッピングする第1ステップ(S211)を省略して前記第1特徴点マップを生成するようにしてもよい。
【0132】
以下、第1特徴点マップの生成方法の各ステップについて、例を挙げてより詳細に説明する。
【0133】
図13は、図12bの第1ステップを説明するための概念図であり、図14a及び図14bは、図12bの第2ステップを説明するための概念図であり、図15a及び図15bは、図12bの第3ステップを説明するための概念図であり、図16a及び図16bは、図12bの第4ステップを説明するための概念図であり、図17a及び図17bは、図12bの第5ステップを説明するための概念図である。
【0134】
まず、図13を参照して、ストリートビュー画像をクロッピングするステップについて説明する。
【0135】
前記第1ステップ(S211)においては、ストリートビュー画像230をベースとして画像をクロッピングして少なくとも1つの画像に分割する。前記画像の分割には、ストリートビュー画像230の1つの画像を切り出すか、複数の画像に分割することが含まれる。
【0136】
例えば、ストリートビュー画像230は、球パノラマ画像を備え、前記球パノラマ画像は、複数の画像241、242にクロッピングされるようにしてもよい。
【0137】
前記球パノラマ画像は、360度の画像であり、それを特定の角度で見た複数枚の画像へのクロッピングが行われる。例えば、北を基準に複数の方向に分けて前記クロッピングを行ってもよい。
【0138】
ストリートビュー画像230をクロッピングするので、ストリートビュー画像230とはサイズが異なる複数の画像241、242が生成される。この場合、前記クロッピングされた複数の画像241、242は、縦方向の方が横方向より長い画像であってもよい。例えば、ストリートビュー画像230は、スマートフォンのディスプレイのように、縦方向に長い画像にクロッピングされてもよい。前記スマートフォンで画像を撮影して画像ベースの測位に活用するために、前記クロッピングされた複数の画像241、242は、撮影した画像に類似した形態を有するようにしてもよい。このように、前記クロッピングされた複数の画像241、242は、縦方向に長く形成され、前記スマートフォンで撮影した画像と対照する情報として活用される。
【0139】
また、前記クロッピングされた複数の画像241、242には、同一のオブジェクトの異なる視点のグラフィックオブジェクトが含まれてもよい。すなわち、前記クロッピングされた複数の画像241、242において、前記グラフィックオブジェクトは、一部重なるか、異なる角度で見る形状を有するようにしてもよい。
【0140】
一方、前記クロッピングにより、ストリートビュー画像230において、特定の領域が前記複数の画像から除かれてもよい。その例として、同図に示すように、ストリートビュー画像230には、街頭を撮影する車両の一部が含まれ得る。当該領域は、特徴点マップの生成に不要な領域であり、前記クロッピングを用いて除いてもよい。
【0141】
次に、前記特徴点を検出するステップは、前記クロッピングされた複数の画像に対して行われるようにしてもよい。このとき、前記特徴点をフィルタリングする第2ステップ(S212)が先に行われるようにしてもよい。
【0142】
図14aに示すように、第2ステップ(S212)においては、前記ストリートビュー画像内で前記オブジェクトを意味単位で分割し、前記オブジェクトの少なくとも一部に対応する特徴点をフィルタリングする。前記特徴点のフィルタリングは、前記ストリートビュー画像を必要な領域と不要な領域に分割し、前記不要な領域に対応する特徴点を除去する方式で行われるようにしてもよい。その例として、セマンティックセグメンテーション(Semantic segmentation)ベースのマッチングフィルタリングにより不要な特徴点を除去するようにしてもよい。
【0143】
図14bを参照すると、第1画像243と第2画像244間で、木253と車両254により多くの特徴点が生成されることが分かる。このように、画像内の道路、木、人、車両領域で不要なマッチングが発生すると、画像ベースの測位の性能及びマッピングの正確度が低下する。これを防止するために、クロッピングされた画像250のピクセルに対して所定数のクラスに分類し、全てのピクセルに対してラベルの予測を行う。このような全てのピクセルのラベルの予測により分割が行われるようにしてもよい。
【0144】
クロッピングされた画像250内の建物251は、必要な領域の第1クラスとしてラベルされ、道路252、木253、車両254、人255は、不要な領域の第2クラスとしてラベルされるようにしてもよい。
【0145】
つまり、クロッピングされた画像250内で、道路、木、人、車両などのように動的に動くか季節によって変わるオブジェクトに対して、セマンティックセグメンテーションフィルタリングにより特徴点を除去することができる。
【0146】
このようなセマンティックセグメンテーションフィルタリングにより、その後の特徴点のマッチングをより正確に行うことができる。図15aは、第2ステップ(S212)のフィルタリングを行いながら、第3ステップ(S213)の特徴点のマッチングを行った結果を示す。同図を参照すると、第1画像243と第2画像244において木253及び車両254の特徴点が除去され、より正確な特徴点のマッチングが行われることが分かる。
【0147】
この場合、第3ステップ(S213)においては、特定の範囲にある複数枚のクロッピングされた画像間で特徴点のマッチングを行う。例えば、ストリートビュー画像のGPS情報を用いて半径を設定し、設定した半径内に収集されてクロッピングされた画像を集めて特徴点のマッチングを行う。より具体的には、図15bのように画像内に特定の建物が映る範囲を例示すると、建物の一側端が映った画像と建物の大部分が映った画像間で特徴点のマッチングが行われる。
【0148】
また、前記特徴点のマッチングは、前記ストリートビュー画像の少なくとも1対の画像間のホモグラフィ(homography)を算出し、前記ホモグラフィを用いて設定した特定の範囲で行うようにしてもよい。このように、本発明においては、2つの画像間の特徴点全体を比較する推定マッチング(Putative Matching)を行うのではなく、ホモグラフィを用いて設定した特定の範囲で密度の高い特徴点のマッチングを行う。
【0149】
図15bの(a)は、推定マッチングの結果を示すものであり、図15bの(b)は、ホモグラフィによるガイドマッチング(Guided Matching)の結果を示すものである。同図を参照すると、マッチングを行う際に2つの画像間のホモグラフィを算出して用いることによって、より密度の高い特徴点のマッチングが行われることが分かる。
【0150】
具体的には、まず、2つの画像全体の特徴点を1対1でマッチングする推定マッチングにより、2つの画像間のホモグラフィのトランスフォーム(transform)を算出する。その後、所定の範囲のピクセル内で特徴点をマッチングする。より具体的には、前記トランスフォームを用いて対応するピクセルを検出して半径を設定し、半径内の特徴点同士のみをマッチングする。その例として、ポイントを基準にして第1画像内のあるピクセルに対する第2画像における位置を検出し、前記位置を基準に10~20ピクセルの半径内で前記ホモグラフィを用いて特徴点のマッチングを行う。
【0151】
その後、画像全体にわたって位置を移動しながら特徴点のマッチングを行う。このようなガイドマッチングによれば、より密度の高い特徴点のマッチングを行うことができる。
【0152】
次に、前記第4ステップ(S221)においては、マッチングの結果を用いて3次元ポイントを生成する。
【0153】
前記3次元ポイントは、前記ストリートビュー画像の取得時点のGPS位置情報及び車両の角度を用いて、実際のスケールと同じポイントとして生成される。その例として、トライアンギュレーション(triangulation)技法により前記ポイントを生成してもよい。
【0154】
図16aを参照すると、GPS位置情報及び車両の角度を用いて1枚の画像に対してポーズを算出する。ここで、車両の角度は、IMU(Inertial Measurement Unit,慣性計測装置)情報から取得してもよい。その後、ポーズを用いて2つの画像261、263間で得られる同一の特徴点に対する3次元ポイントPを算出する。
【0155】
例えば、第1画像261及び第2画像263において、エピポーラ幾何学(Epipolar Geometry)を考慮すると、人が目で見る3次元ポイントPと、第1中心点O1で撮影した第1画像261と、第1画像261に投影されたポイントP1と、第2中心点O2で撮影した第2画像263と、第2画像263に投影されたポイントP2間には、図16aのような関係が成立する。
【0156】
第1中心点O1と第2中心点O2をつなげたラインと画像261、263が交わる地点にエピポール(epipole)e1、e2が形成され、エピポールライン262上にエピポールe1、e2と投影されたポイントP1、P2が位置する。このような関係を用いると、2つの画像から3次元ポイントPを生成することができ、絶対的なGPS位置に前記3次元ポイントが配置される。
【0157】
この場合、前記3次元ポイントは、前記ストリートビュー画像間のマッチングされた特徴点とマッチングに失敗した特徴点に対して異なる方法で生成される。前記マッチングされた特徴点は、前述したトライアンギュレーション技法により3次元ポイントを生成し、前記マッチングに失敗した特徴点は、デプスコンプリーション(Depth completion)技法により3次元ポイントを生成する。
【0158】
例えば、図16bのように、カラー画像及びスパースデプス(sparse depth)画像を用いてデンス(dense)なデプス画像を推定する。具体的には、トライアンギュレーション技法で生成された3次元ポイントを画像にプロジェクションし、プロジェクションされた画像とRGBカラー画像をニューラルネットワークに入力すると、学習によりスパースデプス画像が出力される。
【0159】
その後、カラー画像及びスパースデプス画像を用いてデンスなデプス画像を推定し、前記推定されたデプス画像を用いて前記マッチングに失敗した特徴点に対応する3次元ポイントを抽出する。
【0160】
上記方法により3次元ポイントが生成されると、前記第5ステップ(S222)で前記3次元ポイントの最適化が行われ、最適化された3次元ポイントを用いて特徴点マップを生成するステップ(S230)が行われる。ここで、前記特徴点マップを生成するステップにおいては、ノード及びエッジを用いたグラフ構成により前記ストリートビュー画像のポーズと前記3次元ポイントの位置を補正し、前記特徴点マップを生成するようにしてもよい。
【0161】
前記3次元ポイントの最適化のために、前記ノードは、前記ストリートビュー画像のポーズと前記3次元ポイントの位置に設定され、前記エッジは、前記ノードに関連する複数のエラーに設定されるようにしてもよい。
【0162】
より具体的には、不正確なGPS情報やIMUの誤差により、3次元ポイントが誤って再建されることがある。特に、道路を走行する車両で見る画像から取得される前記ストリートビュー画像の特性情報は、不正確な情報であり得る。その例として、前記特性情報は、前記ストリートビュー画像の取得時点のGPS位置情報及び車両の角度情報を含み、前記GPS位置情報及び前記車両の角度情報は、エラーがあり得る。
【0163】
よって、グラフ(Graph)ベースの最適化により、ストリートビュー画像のポーズ及び再建された3次元ポイントを補正し、特徴点マップを生成する。
【0164】
例えば、図17aに示すように、前記ノードは、クロッピングされたストリートビュー画像のポーズノード271と、GPS及びIMUポーズノード272とを備えてもよい。この場合、前記エッジは、信頼度を高く設定したクロッピングされたストリートビュー画像間のビトウィーンポーズ(between pose)エラー281と、信頼度を低く設定したストリートビュー画像の取得時に得られたGPS及びIMUのプライアポーズ(prior pose)エラー282とを含んでもよい。
【0165】
また、前記エッジは、トライアンギュレーションにより再建した3次元ポイント273と、ストリートビュー画像間のプロジェクションエラー283とをさらに含んでもよい。ここで、プロジェクションエラー283とは、3次元ポイントをクロッピングされた画像平面にプロジェクションさせて得られたピクセル座標と各クロッピングされた画像において対応する特徴点のピクセル座標間のエラーを意味する。前記エッジは、ノード171とノード173の関係を定義するバイナリファクタであり得る。
【0166】
この場合、エラー最適化技法により、これらのエラー281、282、283に対して最適化を行い、その結果、図8bのようにストリートビュー画像のポーズと3次元ポイントが補正される。
【0167】
前述したように、ストリートビュー画像を用いて抽出した3次元ポイントは、前記ストリートビュー画像が有する不正確なGPS情報により誤って推定されることがあり、その誤って推定された3次元ポイントにより複数のエラーが生じるが、前記エラーを最小限に抑えることにより、3次元ポイント及びGPSの誤差までも補正することができる。
【0168】
本発明においては、ストリートビュー画像をベースとして特徴点マップを生成し、前記特徴点マップを用いて歩道での画像ベースの測位を行うことができる。この場合、前記ストリートビュー画像は、道路視点で取得された画像であるので、歩道視点に切り替えると、3次元ポイントの正確度が低減される。よって、本発明においては、前記エラー最適化により、ストリートビュー画像のポーズと3次元ポイントがさらに正確になるように再建し、そうすることにより歩道視点の画像ベースの測位用マップを実現することができる。
【0169】
この場合、前記エラー最適化技法は、特定例に限定されるものではなく、本発明に適用できる様々な技法が考慮される。よって、本明細書においては、それについて特に制限はない。
【0170】
つまり、前記3次元ポイントは、最適化を行うことによりさらに正確になる。
【0171】
前述した3次元地図は、第1特徴点マップであって、統合マップデータの一部として画像ベースの測位に用いられるだけでなく、単独で用いられることも可能である。例えば、前記第1特徴点マップを活用して、1つの画像だけで徒歩で移動するユーザの3次元位置及びポーズを推定することができる。
【0172】
以上、第1特徴点マップを生成する方法について説明した。以下では、第2特徴点マップを生成する方法について詳細に説明する。
【0173】
図18aに示すように、本発明による第2特徴点マップの生成方法は、格子座標を生成するステップ(S310)、垂直座標を抽出するステップ(S320)、室外空間の画像をレンダリングするステップ(S330)、及び特徴点マップを生成するステップ(S340)を含んでもよい。
【0174】
格子座標を生成するステップ(S310)においては、室外空間の2次元地図データを用いて、道路周辺に位置する歩道に沿って格子座標を生成する。
【0175】
前記格子座標とは、縦横に所定の間隔を有する格子状の座標系を意味する。この場合、前記格子座標は、歩道の座標を含むようにしてもよい。
【0176】
次に、垂直座標を抽出するステップ(S320)においては、空中で前記室外空間を撮影した画像に基づく3次元モデルデータから前記格子座標に対応する垂直座標を抽出する。前記垂直座標は、地表面に垂直な方向の座標であり、前記格子座標に対応して抽出されるようにしてもよい。
【0177】
次に、室外空間の画像をレンダリングするステップ(S330)においては、前記格子座標及び前記垂直座標により定義される3次元座標に基づいて仮想カメラのポーズを特定し、前記仮想カメラのポーズ及び前記3次元モデルデータを用いて、前記仮想カメラで見る前記室外空間の画像をレンダリングする。
【0178】
前記仮想カメラのポーズは、前記室外空間内の任意の地点を撮影するカメラのポーズであり得る。よって、前記仮想カメラのポーズは、前記3次元モデルデータ内の任意の空間を基準に特定される。この場合、前記仮想カメラの位置は、前記3次元モデルデータ内のオブジェクト(建物など)と重ならない空間上に特定される。また、前記3次元座標を用いて歩道での座標値を定義してもよい。この場合、前記3次元座標により前記歩道での座標値が定義されるので、前記歩道でカメラポーズを特定することができる。さらに、前記特定されたカメラポーズ及び前記3次元モデルデータを用いると、前記歩道で見る前記室外空間の画像をレンダリングすることができる。このように、歩道を基準にして歩道上でカメラポーズを特定することにより、歩道上で画像ベースの測位を行う場合に用いられるマップの正確度が向上する。理想的には、カメラポーズに関係なくどのポーズでのクエリ画像が入っても正確な画像ベースの測位が可能であるが、演算誤差などを考慮すると、マップの生成のベースとなった画像のポーズと、測位用クエリ画像のポーズとが一致する場合に正確度が最も高くなる。よって、本発明においては、歩道の座標を得るために、歩道の座標値が含まれる3次元座標系を活用する。
【0179】
ここで、前記カメラポーズは、位置(position)を示す座標と、オリエンテーション(向き)(orientation)を示す姿勢とを含んでもよい。この場合、前記座標は、前記歩道の座標に対して所定の高さ、例えばロボットの高さや人の目の高さなどを加えた座標に特定されるようにしてもよい。また、前記姿勢は、任意に特定されるが、ロボットや人が実際にクエリ画像を送信する状況を仮定してそれに類似した姿勢に特定されるようにしてもよい。その例として、前記姿勢は、地面に水平な方向、建物を見る方向、徒歩の進行方向などを基準に特定されてもよい。
【0180】
次に、特徴点マップを生成するステップ(S340)においては、前記レンダリングされた画像及び前記仮想カメラのポーズを用いて、歩道視点の特徴点マップを生成する。
【0181】
前述したように、本発明による第2特徴点マップの生成方法においては、2次元地図データ及び3次元モデルデータを用いて特徴点マップを生成する。ただし、本発明は、必ずしもこれに限定されるものではなく、例えば、第2特徴点マップの生成方法のステップの一部が省略されてもよい。その例として、前記3次元モデルデータに歩道に関する地表面座標データが含まれる場合は、前記格子座標を生成するステップ(S310)を省略して前記特徴点マップを生成するようにしてもよい。
【0182】
以下、第2特徴点マップの生成方法の各ステップについて、例を挙げてより詳細に説明する。
【0183】
図18bは、図18aのフローチャートの一実施形態を示す詳細フローチャートであり、図19は、図18bの格子座標を生成する方法を説明するための概念図であり、図20は、レンダリングを行うカメラポーズを示す概念図であり、図21は、図18bのプロセスにより構築されたデータセットを示す概念図である。
【0184】
まず、図18bに示すように、前記格子座標を生成するステップ(S310)は、2次元地図データから経緯度座標を検出する第1ステップ(S311)と、格子座標に変換する第2ステップ(S312)とを含んでもよい。
【0185】
まず、第1ステップ(S311)においては、2次元地図データを用いて、歩道上のノードの経緯度座標を検出する。
【0186】
前記2次元地図データは、ネイバー、グーグルなどのインターネット企業から提供される地図データであってもよい。他の例として、前記2次元地図データは、政府及び政府関係機関でオープンアプリケーションプログラムインターフェース(API)方式で公開されるデータであってもよい。
【0187】
この場合、図19のように、2次元地図データ330は、歩道上の座標情報を備えてもよい。より具体的には、2次元地図データ330は、前記歩道の平面座標を備えてもよい。その例として、2次元地図データ330は、前記歩道に沿って予め設定された間隔で順次配置されるノードNを備え、ノードNの経緯度座標を有するデータであってもよい。
【0188】
前記経緯度座標は、本初子午線(Prime meridian)又はグリニッジ子午線面と赤道面を基準面とし、緯度(latitude)、経度(longitude)、高さ(height)情報を有する座標系であってもよい。より具体的には、前記経緯度座標は、緯度及び経度のGPS座標であってもよく、韓国は東経124~132度、北緯33~43度の間で度単位の座標値を有する。
【0189】
次に、第2ステップ(S312)においては、前記経緯度座標を前記格子座標に変換する。図19に示すように、前記経緯度座標をUTM座標系(Universal Transverse Mercator Coordinate System)の座標に変換してもよい。前記UTM座標系は、2次元平面座標系であり、UTM(Universal Transverse Mercator)区域から構成されてもよい。前記UTM座標系は、位置を統一された体系をもって示すための格子座標体系を有するようにしてもよい。
【0190】
前記経緯度座標を前記UTM座標に変換する方法としては、例えばUTM投影変換を用いることができる。この場合、当該座標変換方法は、特定例に限定されるものではなく、本発明に適用できる様々な技法が考慮される。よって、本明細書においては、それについて特に制限はない。
【0191】
また、前述したように、本発明は、前記格子座標を生成するステップ(S310)で座標変換を必要としない場合も含む。例えば、歩道の格子座標を有する2次元地図データを用いる場合、座標変換が省略される。
【0192】
次に、空中で撮影した画像に基づく3次元モデルデータから前記格子座標に対応する垂直座標を抽出するステップ(S320)が行われる。この場合、当該垂直座標を抽出するステップは第3ステップになる。
【0193】
ここで、前記3次元モデルデータは、ソウルなどの都市のモデリングデータであり得る。例えば、都市単位の大規模地域の航空写真を用いて都市規模の3次元モデルを構築することができる。
【0194】
前記航空写真は、前記空中で移動しながら撮影した複数の写真画像を備え、前記3次元モデルデータは、前記複数の写真画像間の視差(disparity)を用いて生成されるようにしてもよい。前記視差を用いると、3次元の室外空間を撮影した2次元写真を再び3次元の現実世界に復元することができる。
【0195】
例えば、左右に移動しながら同一対象を撮影する場合、カメラに近くなるほど変化量が大きくなり、遠くなるほど変化量が小さくなる。ここで、変化量が視差であり、前記変化量の大きさを用いて複数の2次元写真を3次元に復元することができる。
【0196】
より具体的には、視差を用いて画像に投影された物体との距離を計算し、姿勢を推定した写真からマッチング点を用いて点単位で空間座標を算出する。この場合、異なる位置で同一地域を撮影した複数の画像から推定されたDense Matchingの結果をまとめて連続的な3次元デジタル表面(数値表層モデル(DSM))を生成する。前記Dense Matchingは、写真(マスター)の各ピクセル(x,y)に対して距離(デプス=視差)を変えて各デプス毎に隣接写真(スレーブ)との類似度を数値化してコストボリューム(Cost Volume)を構成するアルゴリズムであり得る。また、このようなアルゴリズムを用いるので、前記3次元モデルデータは、物体のデプス情報を備える。
【0197】
上記方法により、3次元デジタル表面の高さに応じて異なる色(疑似カラー(Pseudo-color))をつけて表現したデータや、3次元デジタル表面を3次元モデルに完成して航空写真としてテクスチャまで処理したデータなどを実現することができる。
【0198】
また、前記3次元モデルデータは、前記室外空間の地形(bare earth)部分を示す数値標高モデル(Digital Elevation Model)を備え、前記垂直座標は、前記数値標高モデルから抽出されるようにしてもよい。前記数値標高モデルは、地表面の高度値を有し、それを用いて前記地表面に垂直な方向の座標を抽出する。この場合、前記垂直座標は、前記格子座標に含まれる歩道の座標に対応する地点の垂直方向の座標として抽出されるようにしてもよい。
【0199】
このように、前記格子座標及び前記垂直座標を抽出することにより、前記歩道に沿って3次元座標が定義される。前記3次元座標を用いて、前記室外空間の画像をレンダリングするステップ(S330)が行われるようにしてもよい。
【0200】
前記室外空間の画像をレンダリングするステップ(S330)は、第4ステップ(S331)と、第5ステップ(S332)とを含んでもよい。
【0201】
第4ステップ(S331)は、図20に示すように、レンダリングを行う仮想カメラを設定するステップであってもよい。より具体的には、前記3次元座標を用いて、所望の視点でレンダリングを行う仮想カメラのポーズを生成するようにしてもよい。歩道で画像ベースの測位用マップを構築するために、前記所望の視点は、歩道視点であり得る。前記ポーズは、例えば、カメラフレームの位置(position)及びオリエンテーション(orientation)を含む。
【0202】
図20において、原点(O)の位置が仮想カメラの位置であり、ここで3次元モデルの特定の画像を見る方向が算出され、それにより前記仮想カメラのポーズが算出される。
【0203】
より具体的には、図20の地上基準点(Pr)は、前記3次元座標にマッチングされ、前記地上基準点(Pr)を基準に画像(R)の姿勢が推定される。このような姿勢の推定のために、航空三角測量法、例えばバンドル調整法(bundle adjustment)などが用いられる。画像(R)の姿勢が推定されると、それを用いて原点(O)の位置と画像(R)を見る方向が算出される。一方、道路で車両が走行しながら撮影したストリートビュー画像などを用いると、道路のない部分で画像を取得することはできないが、本発明は、航空写真をベースとするので、どこでも所望の位置に前記仮想カメラを配置することができる。
【0204】
このように、仮想カメラのポーズが生成されると、第5ステップ(S332)において、画像とデプスマップをレンダリングする。
【0205】
例えば、仮想カメラのポーズが生成されると、前記3次元モデルデータを用いて、前記仮想カメラで見る前記室外空間の画像341をレンダリングするようにしてもよい。この場合、前記仮想カメラのポーズ及び前記3次元モデルデータを用いて、前記室外空間の画像341と共に、前記画像に対応するデプスマップ342をレンダリングする。
【0206】
ここで、デプスマップ342は、3次元シーン上でカメラから物体までの相対的な距離を示すマップであってもよい。
【0207】
前述したプロセスにおいて、図21に示すように、レンダリングにより、画像341、デプスマップ342及びカメラポーズ343がデータセットとして生成される。
【0208】
次に、特徴点マップを生成するステップ(S340)が行われ、前記特徴点マップを生成するステップ(S340)は、歩道での画像ベースの測位のための特徴点マップのデータセットを構成するステップであってもよい。より具体的には、レンダリングされた画像341、レンダリングされたデプスマップ342及びレンダリング時のカメラポーズ343を用いて、画像ベースの測位用地図データセットを構築する。ただし、本発明は、必ずしもこれに限定されるものではなく、例えば、レンダリングされた画像及びカメラポーズを用いて画像ベースの測位用地図データセットを構築するようにしてもよい。
【0209】
その例として、前記特徴点マップを生成するステップ(S340)は、第6ステップ(S341)と、第7ステップ(S342)とを含んでもよい。
【0210】
第6ステップ(S341)においては、前記レンダリングされた画像を用いて、前記室外空間に位置するオブジェクトの特徴点を抽出する。
【0211】
前記オブジェクトは、例えば建物351、352などであり、当該ステップにおいては、建物351、352などから特徴点361を抽出する。
【0212】
この場合、特徴点抽出技法により図23のように、前記レンダリングされた画像341から特徴点361が抽出される。この場合、前記特徴点抽出技法は、特定例に限定されるものではなく、本発明に適用できる様々な技法が考慮される。よって、本明細書においては、それについて特に制限はない。
【0213】
ここで、前記レンダリングされた画像は、図22のように、不要なオブジェクトを排除してレンダリングされた画像であってもよい。例えば、前記不要なオブジェクトには、道、木、人及び車両の少なくとも1つが含まれる。
【0214】
画像内に道路、木、人、車両領域から不要な特徴点が抽出されると、画像ベースの測位の性能及びマッピングの正確度が低下する。これを防止するために、道路、木、人、車両などのように動的に動くか季節によって変わるオブジェクトに対して、特徴点が抽出される対象を除去するようにしてもよい。
【0215】
より具体的には、画像をレンダリングする際に、建物351と建物352間で不要なオブジェクトを排除する。こうすることにより、図22のように、前記室外空間の画像は、離隔した建物351、352間に道路がない画像を備えるようになる。よって、背景353に建物351、352のみ位置する画像がレンダリングされる。
【0216】
上記方法により、本発明は、一部の物体の形状、大きさ、位置などが変わっても容易に識別可能であり、カメラの視点が変わっても容易に検出可能な地点を特徴点として抽出することができる。
【0217】
この場合、前記室外空間の画像をレンダリングするステップは、必要なオブジェクトと不要なオブジェクトを区分し、前記室外空間の画像から前記不要なオブジェクトを排除してレンダリングするステップであってもよい。
【0218】
次に、第7ステップ(S342)においては、前記レンダリングされたデプスマップ342を用いて特徴点361の3次元座標を抽出する。より具体的には、前記抽出した特徴点361、前記仮想カメラのポーズ343、及び前記レンダリングされたデプスマップ342を用いることにより、前記抽出した特徴点361の3次元座標を抽出することができる。
【0219】
前述したプロセスにより、前記第2特徴点マップは、前記特徴点、前記3次元座標及び前記仮想カメラのポーズを備えるデータセットになる。
【0220】
画像ベースの測位のためのサーバが動作する前に、フィーチャ(対象物又はオブジェクト)、特徴点、及び特徴点の3次元座標を予め抽出して保存し、前記サーバの動作においては、抽出したフィーチャと特徴点の3次元座標のみを用いて測位演算を行う。こうすることにより、画像とデプスマップの読み込みに用いられる不要な演算を減少させることができる。
【0221】
前述した航空画像をベースとして生成された3次元地図は、第2特徴点マップであって、統合マップデータの一部として画像ベースの測位に用いられるだけでなく、単独で用いられることも可能である。例えば、前記第2特徴点マップを活用して、1つの画像だけで徒歩で移動するユーザの3次元位置及びポーズを推定することができる。
【0222】
以上説明したように、本発明による画像ベースの測位に活用できるマップの生成方法、並びにそれを用いた画像ベースの測位方法及びシステムは、異なる視点のデータを用いてマップデータを生成してデータの弱点を補うので、歩道視点の画像を用いてより正確な画像ベースの測位を可能にする。
【0223】
前述した画像ベースの測位に活用できるマップの生成方法、並びにそれを用いた画像ベースの測位方法及びシステムは、上記実施形態の構成や方法に限定されるものではなく、上記実施形態に様々な変形が行われるように、各実施形態の全部又は一部を選択的に組み合わせて構成してもよい。
【符号の説明】
【0224】
11 歩道
12 道路
100 画像ベースの測位システム
110 自律走行機器
111 無線通信部
112 駆動部
113 制御部
120 コントロールサーバ
121 無線通信部
122 データベース
123 演算部
124 制御部
130 第1特徴点マップ
140 第2特徴点マップ
150 測位用マップデータ
160 ディープフィーチャ提供サーバ
170 VLサーバ
R ロボット
図1
図2
図3
図4
図5
図6a
図6b
図7
図8
図9
図10
図11
図12a
図12b
図13
図14a
図14b
図15a
図15b
図16a
図16b
図17a
図17b
図18a
図18b
図19
図20
図21
図22
図23