【実施例】
【0025】
本発明の登録技術は、
図1に示すように3つの主要なステップからなる。
図1は、本発明の一又は複数の実施形態に従って実行される例示的な主要ステップを示す高レベルのフロー
図100である。第1の主要ステップは、シーンの3D基準モデルを形成することを含む基準モデルステップ102である。第2の主要ステップは、標的画像を生成したセンサの3D地理空間視点を推定することを含む視点決定ステップ104である。第3の主要ステップは、標的画像のデータを合成3Dシーン表示に投影することを含む投影ステップ106である。
【0026】
本明細書に記載される登録技術の第1の主要ステップは、基準モデルステップ102である。この主要ステップは、さらに二つのサブステップを含むことができる。まず、基準モデルと呼ばれるシーンの3Dモデルを作成する。3Dモデルの作成に使用される情報は、例えば、特定のフィーチャを3D空間内の位置に相関させる基準マップから得られる。一実施例では、3Dモデルの作成に使用される情報は、政府機関又は他の何らかのエンティティによって維持される地理空間インテリジェンスシステムデータベースから得られる。このようなデータベースには、地球上の多様な位置に関連する画像、フィーチャ、及び標高データの包括的収集が含まれている。地理空間インテリジェンスシステムデータベースは、特定の実世界フィーチャをそのジオロケーションと相関させる。
【0027】
次のサブステップでは、3D基準モデル内の様々な種類のフィーチャ(ランドマーク)の位置を識別し、標的画像を3D基準モデルにマッチングさせるための理想的候補としてマークする。標的画像が捕獲された視点が多岐にわたる可能性に対処するために、このようなフィーチャは画像の回転及び縮尺によって変化しないように特徴づけられるか、又はそのように格納される。例えば、本明細書に記載される解決法は、基準モデル内のフィーチャが標的画像内のものと同種(すなわち、曲線及び/又は角が類似)であるかどうかと、フィーチャが他のフィーチャと同様の関係を有しているかどうかとを決定すればよいだけである。
【0028】
本明細書に記載される登録技術の第2の主要ステップは、標的画像を生成したセンサの視点を推定することを含む視点決定ステップ104である。センサの視点を決定することは、センサのジオロケーション情報(所定の3D基準シーン内におけるセンサの位置)を決定すること、並びにセンサの向いている方向(視角)を決定することを含む。さらなる詳細を
図2に示す。
図2は、視点決定ステップの一実施例により実行される例示的サブステップを示している。この実施例では、視点決定ステップは以下の六つのサブステップを含んでいる。(1)サブステップ202−標的画像が提供され、標的画像内の、3Dモデル内において識別されるフィーチャの種類に関連するフィーチャを検出する。(2)サブステップ204−較正されたセンサの視野を用いて、標的座標内のフィーチャ対の間の角度を決定する。(3)サブステップ206−標的画像と同種の対を形成する3Dモデル内の各フィーチャ対について、標的画像測定された標的画像のフィーチャ対の角度と不確実性とを使用して、3D−GoeArc(後述する)を生成する。(4)サブステップ208−各3D−GeoArcの、基準データと一致しない視点の位置を表す部分を排除することにより、3D−GeoArc結果を精緻化する。(5)サブステップ210−3D基準モデルと比較して、最も多くの3D−GeoArcが重複する(幾何学的投票)3Dボリュームを見つけ出すことにより、証拠との一貫性が最も高い近似視点位置を決定する。(6)サブステップ212−標的画像を3Dモデルに登録し、随意で登録を認証する。
【0029】
第1のサブステップ202に関して、標的画像内のフィーチャを検出するときには、まず、標的画像はいずれかの時点でカメラ又はセンサによって取得されたものであると仮定した。
図1に示したように、いずれかの時点で標的画像は生成されなければならない(タスク108)が、本発明のいくつかの実施形態では、画像登録プロセスは、タスク108の発生する厳密な時間に関しては柔軟である。標的画像は、実時間で捕獲されてよく、又はステップ104は既に捕獲されていた標的画像を使用してもよい。
図2では、標的画像が提供されると、サブステップ202は標的画像内のフィーチャを検出することを含む。サブステップ202の解決法は、標的画像内のフィーチャが基準モデル内のフィーチャと同種であるかどうかを決定するだけでよい。例えば、標的画像内のフィーチャが同じフィーチャ種類(例えば、類似した縁及び/又は角)を有する限り、標的画像内でフィーチャを検出することができ、他のフィーチャとの空間的関係が、基準モデル内の同様のフィーチャの関係性に対してチェックされる。このような技術により、現行の画像登録システムの基礎であるフィーチャ対フィーチャの対応への過度な依存を解消する必要が回避される。このような同種の関係に基づくフィーチャマッチング技術は、フィーチャ対フィーチャの徹底的な対応付けを行う方法より精度は低いが、マッチングの不確実性は登録プロセスの他のステップによって対処される。
【0030】
本発明のいくつかの実施形態では、基準モデルは任意の数の領域又はセルに区分され、フィーチャ検出(サブステップ202)は、各領域又はセル内において個別に実行される。このような区分の理由は、基準モデル全体で検討すべきフィーチャ関係の数が、潜在的に組み合わせの性質を有しているためである。例えば、基準モデル全体を考慮すると、基準モデル内にN個のランドスケープフィーチャが存在し、且つ標的画像内でr個のフィーチャが可視である場合、登録技術は全部でC(N,r)=N!/(N−r)!r!のr要素の、このようなフィーチャのサブセットについて仮説を立て、位置選定の整合性についてそれらを順位付けする必要がある。これにより、可能な限り最善の位置選定が行われるが、このような技術が不十分である場合もある。
【0031】
いくつかの実施形態は、すべてのフィーチャ/視点の組み合わせを同時に考慮することを避けるために、階層的アプローチを使用することにより、センサ位置に関する仮説において生じる可能性のある組み合わせ的爆発を制限する。例示的な階層的アプローチは、まず、粗い位置選定ステップを実行し、大きくて目立つフィーチャ対を使用してグローバル検索を粗領域に区分する。粗領域は、目立つフィーチャの数が少ないであろうこと、及びそのようなフィーチャの大きさから、高い信頼度で領域内に視点が位置するが、粗領域内における視点の位置に関する精度が低いことを特徴とする。粗い位置選定に使用される大きくて目立つフィーチャの例としては、山頂、及び大きな建造物が挙げられる。
【0032】
各粗領域内部において、階層的アプローチは、精緻な位置選定ステップを実行し、大きなフィーチャ対と整合するもっと小さなフィーチャ対を使用て視点位置の精度を上昇させる。精緻な位置選定ステップは、粗領域位置選定品質が粗い順に続行される。加えて、これらの細分領域は、可視性という制約によっても限定される。例えば、精緻な位置選定ステップはいくつかの小さなフィーチャを考慮するが、障害物などによりフィーチャのすべてが可視ではない。加えて、階層的アプローチは、一又は複数のフィーチャ種類の「可視半径」を考慮し、一又は複数のフィーチャの可視性に相関するセルに基準モデルを区分する。可視半径とは、フィーチャからセンサを離してもセンサがフィーチャを捕獲できる最大距離である。セルの形状は、例えば、可視半径を完全に一致させるために円形とすることができるか、又は異なる形状とすることができる(例えば正方形)。異なるフィーチャの可視性に相関する異なるセルが重複してもよい。
【0033】
細分領域又は可視性セル、或いは両方の組合わせに関係なく、本明細書に記載の登録アルゴリズム及び技術は、各領域及び/又はセルに対して個別に実行することができる。各領域及び/又はセル内部において可能なフィーチャの数は制限され、可能な仮説の数は有意に減少する。例えば、K個のセルが存在する場合、階層的アプローチはアルゴリズムの漸近的複雑性をKC(N/K,r)まで減少させることができる。これは大きな改善である。多数の基準モデルセル及び/又は領域に対処することは最初は大量の可能最終視点を生じるが、この不確実性は上述のように対処され、後述のサブステップでさらに対処される。
【0034】
残りのサブステップ(サブステップ204−212)をさらに理解するために、フィーチャ対の間の関係(仮説ともよぶ)を規定するために使用されるGeoArc(Geolocation Arc又はgeoarcともよぶ)について説明することが有用であろう。まず、2D−GeoArcについて説明する。
図3は、GeoArcの説明を助ける幾何学形状を示している。
図3Aは、フィーチャ対である二つの点302、304を含んでいる。本明細書を通して、GeoArc又は仮説を形成するために使用される画像内の二つのフィーチャを、フィーチャ対とよぶ。
図3Aは、二つのフィーチャ(点302、304)から様々な距離にある複数の点306、308、310(視点)と、各視点と二つのフィーチャとを結ぶ二つの接続線とを含んでいる。視点が二つのフィーチャから離れるほど、視点に関連付けられた二つの接続線の間の角度(点306、308、310についてそれぞれ示されている角度312、314、316)は小さくなる。さらに、
図3Bに示すように、二つの接続線の間の所与の角度について、そのような角度を有する接続線に可能な視点が(円弧に沿って)無限に存在する。上述の説明に関して、「接続線」という用語は物理的な線又は接続を意味するわけではない。そうではなくて、「接続線」は、二つの点の間に延びる想像上の直線の幾何学的概念を意味する。
【0035】
図4A−Cを参照し、且つ上述の説明を考慮することにより、2D GeoArcを使用した、標的画像(
図4Aに示す)の情報の基準モデル(
図4Cに示す)への投影方法を理解することができる。センサ又はカメラにより(例えば、地上の一区画の)標的画像が取得されたと仮定する。
図4Aは、カメラ又はセンサによって取得された例示的な標的画像402を示している。カメラ又はセンサは、画像402を取得するとき、フィーチャ404及び406を検出することができ、且つ例えば標的画像に関する詳細をスキャンすることにより、センサ(図示しない)とフィーチャ404及び406との間に延びる想像上の接続線(
図4Aには示さない)の間の角度(θ)を推定することができる。
図4Bは、さらに、センサとフィーチャ404及び406との間に延びる想像上の接続線の間の角度をセンサにより推定する方法を概念的に示している。
【0036】
いくつかの実施形態では、フィーチャ間の角度を推定するために、登録技術は、センサの較正された視野(FOV)に関する詳細を利用することができる。いくつかの実施例では、カメラに関連付けられたFOVの詳細は前もって分かっている。FOVの詳細には、例えば、センサが一回に捕獲できるシーンの最大角度/ビュー(幅及び高さ)が含まれる。例えば、カメラのレンズ、焦点距離、センササイズなどに関する情報は有用なFOV詳細となる。或いは、センサのFOVは測定可能である。いくつかの実施形態では、FOVは、観察されたデータから生成されるGeoArcの重複により測定される整合性と地理空間精度とを最大化するようにその値を調節することによって推定することもできる。他の実施形態では、センサのFOVは、画像を生成した後で画像の詳細をスキャンすることにより推定される。センサの最大角度/ビュー(換言すれば、センサに最大可能な可視範囲)が判明したら、センサの最大可視範囲内に含まれるオブジェクトについてサブアングルを推定することができる。
【0037】
基準画像(例えば地上の一区画の空中写真)が存在すると仮定すると、この基準画像には任意の数のフィーチャが含まれてよく、フィーチャの対に基づいて任意の数の2D−GeoArcを生成することができる。標的画像402内に検出されるフィーチャ404及び406が、基準画像412内の二つの基準フィーチャ414及び416(
図4Cに示す)と一致すると仮定すると、登録技術は、二つの円弧418、420(GeoArc)を演算し、基準モデル412にマッピングする。二つの円弧418、420は、センサが標的画像を捕獲したときにセンサが基準画像に対して位置していた可能性のある視点を示している。このように、2D−GeoArcは、標的画像内の二つのフィーチャ間の特定の角度関係と一致する可能性のある標準画像内における2D位置からなる円弧(物理的円弧が複数個存在する可能性がある)を指している。2D−GeoArc上の全ての位置において、二つのフィーチャ間に見える角度は同じである。基準画像に関連付けられた2D−GeoArcは、2D空間において可能なセンサ視点位置を限定する。
【0038】
このように、標的画像内に検出される二つのフィーチャ間の角度関係を基準画像の角度関係とマッチングさせ、標的画像から検出された角度に関連付けられるGeoArcにより規定される基準画像の制約を考慮することにより、ジオロケーションの仮説を立てることができる。ジオロケーションの仮説は、標的画像が取得された可能性のある2D空間内の位置の組である。例えば、ジオロケーションの仮説は、この組{LFr1,LFr2),(LFq1,LFq2),θ}により表される。ここで、LFriは基準モデルのフィーチャであり、LFqjは入力画像フィーチャであり、θはLFqiとLFqjとの間の分離角である。
【0039】
本明細書を通して、センサによって実行されている決定、推定、及び/又は演算に言及するとき、このような決定、推定、及び/又は演算は、センサ自体に内蔵される装備、回路、又はコードによって実行されるか、又は別の構成では、センサが画像を捕獲した後で画像を解析する別の装置によって実行されると理解されたい。例えば、いくつかの実施形態では、センサ内部の回路又は装備は、想像上の接続線の間の角度(θ)を推定する。他の実施形態では、データ処理システム上で実行されるコンピュータプログラムのような別の装置が、このような推定を実行する。
【0040】
さらなるフィーチャ関係について上記と同じ2D GeoArc/仮説生成プロセスを実行して、さらなるGeoArc/仮説を生成することができる。次いで、各フィーチャ関係のマッピングによって生成される2D−GeoArcが重複し(
図5A参照)、ジオロケーション尤度マップ(GLM)が生成される。例えば、
図5Aを参照し、完全な2D−GeoArcを推定すると、GLM502は、二つ以上の2D−GeoArcが交差する点である。2D−GeoArcが完全でない場合、GLMは、センサの視点が存在する尤度の高い2D空間内のエリアを表わす。この場合、新たなGeoArcによりさらに精密な位置選定のための追加的証拠を提供してGLMの面積を縮小することができる(必須ではない)。このように、最も多くの2D−GeoArcの重複が存在する2D空間内の領域は、ジオロケーションエリア(GA)を決定するための最善の証拠を提示することができる。GAは、登録プロセスによって、標的画像が取得された場所である尤度が最も高いと決定された、2D空間内の最終的な位置である。
【0041】
いずれの登録技術においても、いくらかのレベルの不確実性に対処する必要が生じると思われる。すなわち、GeoArcが完全な線/円弧ではない場合もある。例えば、記載される技術において誤差を生じさせうる一つの要因は、標的画像を捕獲するセンサ(又は、後に標的画像をスキャンする方法)が、センサとフィーチャとの間の正確な距離及び方向を確定することが困難であるために、二つのフィーチャ間の角度を概算せざるをえないことである。例えば、
図5Bに示すように、センサデータの誤差又は不確実性によって、2D−GeoArc生成プロセスに不確実性が導入される。
図5Bに示すように、不確実性により、各2D−GeoArcに関連付けられる可能な2D位置の範囲が拡大し、したがって基準画像にマッピングされるときにGeoArcに関連付けられる「厚み」を生じさせる。したがって、
図5Cに示すように、多GeoArc登録プロセスに不確実性が導入されるとき、二つの2D−GeoArcの交差により、
図5Aに示すような交差点ではなく、交差面積510が形成される。しかしながら、さらに多くのフィーチャ関係を解析し、基準画像にマッピングされるGeoArcを増やすと交差エリアは縮小し、したがってGAに関する全体的な不確実性のレベルは最小化される。
【0042】
基礎となる2D−GeoArcの理解に基づいて、以下に2D−GeoArcの概念をどのように3D−GeoArcに拡大するかを説明する。
図6は、3D空間内に存在する一対のフィーチャ602、604間の分離角(θ)を示している。
図6に示すように、3D−GeoArcは、フィーチャ対を結ぶ線(又は軸)を中心として2D−GeoArcを(フィーチャ対を含む面内で)「スウィープ」する又は回転させることにより形成される表面である。3D表面上のすべての視点において、二つのフィーチャ間に見える角度は同じである。したがって、2D−GeoArcの概念と同様に、標的画像内の一対のフィーチャ間に観察される分離角は、3D基準モデルに関連付けられる3D−GeoArcを画定し、この3D−GeoArcは、3D空間内で可能なセンサ視点位置を限定する。したがって、3Dの場合、フィーチャ対の関係/関連の仮説は、標的画像(例えば2D画像)内における一対のフィーチャと3D基準モデル内におけるフィーチャ対と間の対応である。このような関連(仮説)により、3D空間内に、真のジオロケーションが位置しうる表面(3D−GeoArcと示される)が画定される。
【0043】
図7は、本明細書に記載される3D−GeoArcを用いた登録技術が有用でありうる例示的な3Dシーン700を示している。
図7に示すように、建造物の二つの角702、704が、センサ706によるシーンの標的画像獲得時にセンサ706によってフィーチャ対として識別されている。この場合、センサはフィーチャ対の間の分離角(θ)の推定を行なっていてもよい。次に、これらのフィーチャ(角702、704)を、3D基準モデル内の二つの類似するフィーチャに関連付けることが可能であると仮定し、角度(θ)が推定済みであるとした場合、登録技術は、トーラスホールの大きさがゼロである「縮退トーラス」に類似する3D−GeoArc708を生成する。この「縮退トーラス」の表面は、シーンの標的画像を捕獲したときにセンサが位置していた可能性のある3D基準モデル内の3D位置の範囲を画定する。
【0044】
加えて、本明細書に記載の3D−GeoArcを用いた登録技術に関して、標的画像内に新たなフィーチャ対を識別することができ、標的画像と3D基準モデルとの間で新たなフィーチャ関係を解析することにより、新たな仮説/3D−GeoArcを3D基準モデルにマッピングすることができる。3D−GeoArcを重複又は交差させることにより、3Dジオロケーション尤度マップ(3D−GLM)が生成される。フィーチャ対の角度に不確実性がないと仮定すると、二つの3D−GeoArcの交差により3D空間に曲線が生じ、三つのGeoArcの交差により点が生じる。しかしながら、現実には、3D−GeoArc登録は、標的画像センサ(又は後に標的画像を解析するデバイス)の誤差又は不確実性に起因しうる不確実性に対処しなければならない。3D−GeoArcに関し、これらの不確実性はGeoArc表面を「厚く」し、これにより、二つ以上の3D−GeoArcが交差又は重複する場合に3D−GeoArcの交差容積が生じる。このように、3D−GLMは、センサ視点が存在する尤度の高い3D空間内の容積を表す。新たなGeoArcによりさらに精密な位置選定のための追加的証拠を提供して、3D−GLMの容積を低減することができる(必須ではない)。このように、複数の3D−GeoArcが重複する3D空間内の容積は、3Dジオロケーション容積(3D−GV)の良好な候補となる。3D−GVは、登録プロセスによって、標的画像が取得された場所である尤度が最も高いと決定された、3D空間内の最終的な位置の組である。
【0045】
視点決定ステップ104(
図1参照)のサブステップとして、3D−GeoArcが生成された後で、且つ3D−GeoArcが、投票サブステップで考慮される3D−GeoArcの収集に追加される前に、各3D−GeoArcに精緻化プロセスを施すことができる。これは、生成された特定の3D−GeoArcについて、可能な視点の位置として完全なGeoArcに沿った点を考慮することが不十分(又は誤り)であると考えられる場合である。したがって、精緻化プロセスは、3D−GeoArcの、閉塞(遮蔽)によりフィーチャ対を見ることができない視点位置、すなわち重要なフィーチャを検出できない視点位置を表す部分を排除又は無視することができる。加えて、精緻化プロセスは、3D−GeoArcの、基準データ(例えば、地理空間データベースから得られるデータ)に基づくと物理的に不可能な視点位置を表す部分を排除又は無視することができる。例えば、可能性のある視点であると仮定された場所にオブジェクト(例えば、大きな岩又は建造物)が存在する場合、この視点を無視することができる。また、センサが存在するはず(又は存在しないはず)の場所に関する他のあらゆる情報が3D−GeoArcの精緻化を助ける。
【0046】
加えて、いくつかの実施形態では、上述のように、基準モデルは任意の数の重複セル又は領域に区分される。複数の領域において一度に少数のフィーチャ関係のみを考慮することにより、最初の視点可能位置が大量に得られる。しかしながら、候補のプールは、基準データを用いたチェックの実行によって精緻化され(多くの候補が排除される)、候補仮説に基づいて可視であるはずのフィーチャが予測される。予測されたフィーチャが観察される場合、それらは仮説を補強する追加的証拠として働き、新たなランドマークフィーチャの予測を可能にする。引き続きこのような精緻化技術を複数回繰り返して可能な位置の数を減らすことにより、フィーチャのグローバルマッチングを行う必要なく、迅速かつ効率的にジオロケーションの推定が行われる。
【0047】
考慮されるGeoArcの収集に、精緻化されたGeoArcのプールが追加されたら、次のサブステップとして、3D−GeoArcを重複させることにより、最も尤度の高いジオロケーション(3D容積)の選択、又は「投票」を実行する。このサブステップは、標的データ及びシーンの基準3Dモデル両方におけるフィーチャ対の関係と最も整合するジオロケーション容積を検索する。各フィーチャ対の関係(3D−GeoArc)は、その関係と整合する可能性のあるセンサ視点の組に幾何制約を課す。したがって、標的画像及び3D基準モデルにおいて観察されるフィーチャ対角度により課される制約を最もよく満たす視点を探す3D−GeoArc投票(又は幾何投票)を用いて、最も尤度の高いセンサ視点が決定される。
【0048】
3D−GeoArc投票(又は幾何投票)は、最も3D−GeoArcが重複する容積(理想的には一の容積)を見つけ出すプロセスを指す。したがって、3D−GeoArcが最も重複する3D容積を見つけ出すことにより、3D空間内におけるセンサの視点位置に関する確実性レベルを決定することができ、それにより証拠と最も整合する近似視点の位置が決定される。このような幾何投票プロセスにより、登録プロセスの信頼性が増す。標的センサ情報に誤差が含まれる可能性があり、且つ多数のフィーチャのデータを含むデータベース(現行の登録技術で必要とされる)がなくとも、本発明の解決法によれば、限界を有する地上レベルのビューではく、主として容易に利用可能な地理空間マップデータに基づくことにより、高い精度で迅速にセンサの3D位置を決定することができる。
【0049】
視点推定の主要なステップのうちの最後のサブステップは、標的画像を3D基準モデルに登録し、随意で登録を認証することである。センサのジオロケーションが決定されたら、例えば最終的な視点に対してGeoArcを生成するために使用されたフィーチャを参照することにより、カメラの方向(角度)を決定する。最終的な画像登録(標的画像と3D基準モデルの融合)は、正確なカメラ視点のジオロケーション決定に貢献した3D−GeoArcに対応する標的画像と基準モデルとの間でフィーチャをマッチングすることにより実行される。いくつかの実施形態では、最終的な登録プロセスが完了したら、3D基準モデルを再び使用して、登録/視点決定が正確であれば可視である追加的フィーチャを予測することにより認証を行う。
【0050】
本明細書に記載される登録技術の第3の主要ステップは投影ステップであり、3D基準モデルに基づいて、標的画像のデータを合成3Dシーン表示に投影することを含む。センサ又はカメラの位置が選定されたら(視点決定)、投影ステップでは、センサの視野内において識別された一又は複数のオブジェクトのジオロケーションを(標的画像から)決定する。カメラ/センサから得られる情報、3D基準モデルから得られる情報、及び視点決定ステップの間に蓄積された関係情報を使用して、投影ステップでは、標的画像の任意の画素の3D合成シーン内の空間位置を推定することができる。
【0051】
一実施例では、地面の平面情報が3D基準モデルから獲得される。地面平面は、3D基準モデル内で地面と最も整合する3D表面である。次いで、標的画像内のフィーチャ間の角度を推定する方法と同様にして、センサは、センサと標的画像内の一画素との間の視線に関連付けられる角度を推定する。次いで、投影ステップでは、(既知の)センサの視点/位置から地面平面まで想像上の線(又は波線)を引く波線追跡技術が実行される。この実施例では、地面表面上のオブジェクトに関連付けられる各画素が、基準モデルの地面平面上に投影される。別の実施例では、地面ではなく、建造物、橋などに接続するまで波線を引くことにより、構造体上のオブジェクトに関連付けられる画素を投影することができる。また別の実施例では、センサは、センサと標的画像内の一画素との間の視線に関連付けられる角度、ならびに画素とセンサとの間の距離を推定することができる。次いで、3D合成シーン内の画素のジオロケーションが、カメラ/センサのジオロケーション(起点)と一方向へのオフセットとの和(センサが推定した角度及び距離情報に基づく起点を中心とした角度及び距離)として算出される。
【0052】
カメラ内に検出されたオブジェクトのモデル又はアバターを、3Dマップ又はモデル上の正確な位置に投影することができる。これに関して、3D基準モデルは、2D多モード画像、さらには映像を組み合わせて地理登録することにより、合成3Dシーン表示を生成するための共通フレームワークとして機能する。このような投影は実時間で(動的に)行われるので、標的画像内において識別されたオブジェクトが3D合成シーンへと迅速に投影され、それにより、シーンの動的な実時間3D共通動作ピクチャ、及び多モード画像データを組み合わせるための融合フレームワークが提供される。2Dのシーン画像内で検出された移動オブジェクトを、実時間で、アバターとして3Dフレームワークに投影することができる。
【0053】
本発明の説明では、「基準モデルに投影される」標的画像データに言及しているが、このフレーズは必ずしも言葉通りに解釈されなくともよい。本発明のいくつかの実施形態では、合成3Dシーン表示は、3D基準モデルに基づくデータの合成であるが、別個のデータ合成である。このような実施例では、標的画像データは、合成シーン表示に投影されるか、又は合成シーン表示内に表示される。
【0054】
2D−GeoArcを適用する試験により、本発明の登録技術の実用可能性が実証され、標的画像の感知誤差及び他の不確実性があるにもか関わらずその信頼性が実証された。一試験では、カリフォルニア州マリブの面積16km2の地形図を標準モデルとして使用し、近くに位置する45度の視野(FOV)を有するカメラにより標的画像を取得した。この試験では、観察されるランドマークフィーチャはカメラFOV内部でランダムに分散しており、カメラはフィーチャが検出されうる最小(近)及び最大(遠)範囲を有していると仮定した。この試験では、すべての試行について、FOV推定の際のフィーチャの分離角測定の誤差が20%と仮定した。次いで、標的画像内に検出された様々な数のランドマークフィーチャについて2D−GeoArcを重ね合わせることにより、ジオロケーション尤度マップ(GLM)を計算した。次いで、GLMの、高度に2D−GeoArcが重複する部分を識別することにより、ジオロケーションエリア(GA)を検出した。試験は50回のランダムな試行を含み、各試行においてGAが決定された。
【0055】
2D−GeoArcの適用試験の結果を
図8A−Cに示す。
図8A−Cは、基準画像の三つの例示的ビュー(例えば地勢)を示しており、各基準画像は、カメラが標的画像内に任意の数の異なるランドマークを検出した結果として生成された一又は複数のジオロケーション尤度マップ(GLM)を含んでいる。
図8Aは、カメラが二つのランドマークフィーチャ810、812を検出し、二つのGLM802が生成された試験の結果を示している。
図8Bは、カメラが三つのランドマークフィーチャ814、816、818を検出し、GLM804、806が生成された試験の結果を示している。
図8Cは、カメラが四つのランドマークフィーチャ820、822、824、826を検出し、GLM808が生成された試験の結果を示している。
図8A−Cの画像のすべてにおいて、ダークグレーの領域はGLM(基準画像に対して標的画像を取得したカメラが位置していたと思われるエリア)を示している。
図8A−Cの連続画像に示すように、GLM(ダーググレーの領域)の大きさは、カメラによって検出されるフィーチャの数が増えるに従って急激に縮小する。カメラが二つのフィーチャを検出するとき(
図8A)、GLM802は二つの完全な三日月形(完全な2D−GeoArc)からなっている。しかしながら、カメラが四つのフィーチャを検出するとき(
図8C)、GLM808は比較的小さな面積からなる。
【0056】
図8D−Fは、50回のランダムな試行によって、検出されたフィーチャの数の関数として生成されたGA(最終的なジオロケーションエリア)の「箱髭図」である。
図8D−Fは、三つの図、すなわち、三つの異なる距離範囲の各々につき一つの図を示している。
図8Dは、カメラから2〜4kmの距離にあるランドマークのみを考慮した結果を示している(近距離)。
図8Eは、カメラから4〜6kmの距離にあるランドマークのみを考慮した結果を示している(遠距離)。
図8Fは、カメラから2〜6kmの距離にあるランドマークのみを考慮した結果を示している(混合)。基本的に、図は中央値のGAを示し、このGAは、太横線(例えば、線852、854、856、858、860)で示され、フィーチャの数が3から6に増加すると10分の1に減少する。例えば、4〜6kmの範囲(
図8E)では、三つのフィーチャの場合の中央値GAは0.06km2であり、六つのフィーチャの場合の中央値は0.005km2であり、すなわち10分の1に減少している。各中央値GA線の上方と下方にある白色ボックの上部と下部(例えばボックス870、872)によって示される、50回の試行での最大GAと最小GAの間の減少はさらに劇的であり、フィーチャが3から7に増えることにより最大の場合の最高値から最小の場合の最低値まで約100分の1に減少する。
【0057】
加えて、3D−GeoArcを適用するシミュレーションにより、本明細書に記載の登録技術の実施可能性が示された。試験画像及び例示的なシミュレーションの結果を
図9A−Cに示す。この例示的シミュレーションでは、シーンの2D画像(
図9Aに示す)を標的画像として使用した。この2D画像はEO画像センサを用いて捕獲した。標的画像内において、異なる方向に向く二つのフィーチャ対(902、904と、906、908)を選択した。次いで、各フィーチャ対について3D−GeoArc表面(910、912)を生成した(
図9Bに示す)。
図9Bに示すように、二つの3D−GeoArc表面の交差914により3D曲線(又は、不確実性が生じる場合は湾曲容積)が生成される。したがって、センサ視点は、3D−GeoArcの交差914に焦点を当てることにより推定され、新しいフィーチャ対についてさらなる3D−GeoArcを考慮することにより精度を向上させることができる。
【0058】
シミュレーションは、実際のシーンのLIDAR画像を解析することによりフィーチャ種類及びフィーチャ位置を推定した3D基準モデル生成プロセスも試験した(
図9C)。このプロセスは、LIDARデータから地上フィーチャ種類及びフィーチャ位置をうまく排除した。地上フィーチャ(すなわち、道路、駐車場の角及び縁)は、2D EO画像と同じシーンの3D表示との間で類似のフィーチャ種類及びフィーチャ位置の、領域位置マッチングに有用である。
【0059】
本明細書で既に述べた登録技術の恩恵に加えて、後述では一又は複数の実施形態のさらなる恩恵について説明する。本明細書を通して記載される恩恵及び利点は、限定又は要件ではなく、いくつかの実施形態では記載の恩恵及び/又は利点のうちの一又は複数は省略されてもよい。
【0060】
本発明の解決法の一の恩恵は、複雑なシーン登録を完了させるスピードであり、これにより拡張性が得られる。拡張性とは、一般に、小さな尺度で作業して、もっと大きな尺度の問題にそれを適用する技術を使用できることを意味する。例えば、単純な基準モデルと単純な標的画像とに効果のある一の画像登録技術(例えば、直接的なフィーチャマッチングを利用するもの)が、複雑な地形に対して、又は既知のランドマークの大規模データベースがない場合や、照明の変化により、検出されるランドマークが、格納されているランドマークとは異なって見えるとき、効果を生まない場合がある。拡張性は大規模な位置推定に重要であるので、本発明者らは、何千万という視覚的フィーチャのインデクシング及びマッチング方法を開発した。その結果、このような方法も、既知のフィーチャを調べるための複雑なフィーチャツリーを必要としている。フィーチャツリーのインデクシングは、複雑で、徹底的な演算を要するプロセスであり、登録プロセスの記憶及びマッチング能を直接低下させ、フィーチャマッチングの弁別性を低下させる場合がある。
【0061】
本発明の解決法は、直接的なフィーチャマッチングを必要とせず、地上レベルの画像及び3Dスキャンに基づいて構築された精密な幾何モデルに依存する必要がない。したがって、本明細書に記載される解決法では、現行の技術で使用される計算と同程度の負担がプロセッサにかかるマッチングのための計算を実行する必要がない。したがって、本明細書に記載の解決法は、現行技術よりずっと迅速にオブジェクトのジオロケーションを演算することができ、すなわちさらに複雑なシナリオに対処する拡張性を有している。加えて、本明細書に記載の解決法は直接的なフィーチャマッチングに依存しないので、データ量の多いフィーチャデータベースが存在するかどうかに関係なく、且つ照明、季節、及び天候の変化に関係なく、ジオロケーションを演算することができる。同様に、本明細書に記載の解決法は、自然及び都市のフィーチャ両方を使用することができ、これにより任意の環境への一般化が可能である。
【0062】
本発明の一又は複数の実施形態は様々な用途を有し、これは本明細書に記載の解決法のいくつかの恩恵をさらに強調する。本明細書を通して記載される用途、恩恵、及び利点は、限定又は要件ではなく、いくつかの実施形態はいくつかの用途にもっと適している。
【0063】
例えば、本発明の一又は複数の実施形態は、空中査察及び/又はUAV(無人航空ビークル)に適用可能である。
図10及び11は、それぞれランドスケープ1004、1104の上空を飛行中のUAV1002、1102を含む例示的シーン1000、1100を示している。
図10は、UAV1002の、斜め上からの視界を、
図11は、UAV1102の、斜め下からの視界を示している。各UAV1002、1102は、本明細書に記載の画像登録技術の一部又は全部を実行することができるデータ処理システムを含んでいる。例示的データ処理システムの詳細について、以下にさらに記載する。データ処理システムは、例えばUAV本体内部に収容されて、UAVに搭載される。各UAV1002、1102は、さらに、センサの視界内部のランドスケープ1004、1104の画像を捕獲できるセンサ又はカメラを含む。例えば、
図11に示すように、センサ又はカメラはUAVの機首近く、例えば機首の下側に、透明なハウジング1106内に収容される形で配置できる。この実施例では、センサは下方に角度付けされて、UAVの下側に位置しているので、センサの視界1108(FOV)は広く、これによりセンサは一度に大きなランドスケープ1104のビューを捕獲することができる。動作中、UAV上のセンサは、UAVの下方のランドスケープの一又は複数の標的画像を取得することができる。次いで、UAV内部のデータ処理システムは、標的画像の詳細を所定の3D基準モデルにマッピングする画像登録技術を実行することができる。別の方法では、UAVは、一又は複数の標的画像を、登録技術を実行する遠隔データ処理システムに伝送することができる。
【0064】
航空ビークル又は査察位置では、多数のセンサ及びプラットフォームから単一の共通動作シーンへの多モード2D及び3D画像データの登録/融合が必要となる。センサデータの融合に加えて、センサの視界内において検出されたオブジェクトのモデル又はアバターを3Dマップ又はモデル上の正確な位置に投影し、動的な実時間3D融合フレームワーク及び共通動作シーンを提供する必要がある。このような画像融合は、多数の異なるカメラアングルを用いて、広い地理的領域に対し、迅速かつ正確に行われる必要がある。本発明の一又は複数の実施形態はこのような解決法を提供する。
【0065】
他の実施例では、本発明の一又は複数の実施形態は、コンピュータビジョン、医用画像、軍用自動標的認識、遠隔センシング(製図更新)及びコンパイリング、並びに衛星から届いた画像及びデータの解析に使用される。画像登録技術は、神経画像用のタライラッハアトラスなどの解剖学的地図への医用患者データの登録に使用することもできる。画像復元技術は、宇宙から取得された画像を整列させるために天体写真術にも使用され、この場合、コンピュータは、制御点を使用して、一の画像に対して変換を行うことにより、主要なフィーチャを第2の画像と整列させる。画像登録は、パノラマ的画像生成の基本的な部分でもある。さらに、実時間で実施することができ、カメラ及びカメラ電話のような埋め込まれたデバイス上で実行される多数の異なる技術が存在する。本発明の一又は複数の実施形態は、これらの用途のすべてに柔軟性を付加する解決法を供給する。
【0066】
さらには、画像登録技術を適用可能な用途が多岐にわたることにより、これまで全ての使途について最適化された汎用的方法を開発することは困難であった。その代わり、多数の用途が用途に固有の状況に対処する追加的技術を含んでいた。例えば、一人の患者に関して異なる時点で取得されたデータの医用画像登録には、患者の変形(例えば、呼吸、解剖学的変化、腫瘍の成長などによる)に対処するために弾性(軟式ともいう)登録が使用される。本発明の一又は複数の実施形態が提供する柔軟性により、本発明は、すべてではなくとも多数の使途に最適化された汎用的画像登録方法を提供する。
【0067】
本発明のいくつかの実装態様では、本明細書に記載の技術、方法、ルーチン、及び/又は解決法は、異なる実施形態の一又は複数のフロー図及びブロック図に示される例示的方法及びルーチンを含めて、本明細書に記載の方法、ルーチン、及び解決法を実施及び/又は実行するようにプログラムされたデータ処理システムによって実行される。本明細書において言及するブロック図又はフロー図の各ブロック又は記号は、コンピュータで使用可能又は読込可能なプログラムコードのモジュール、セグメント、又は部分を表わしており、このプログラムコードは、一又は複数の特定の機能を一又は複数のデータ処理システムによって実施するための一又は複数の実行可能な命令を含んでいる。いくつかの実施形態では、ブロック図又はフロー図のブロック又は記号に示される一又は複数の機能は、図示の順番に行われなくともよい。例えば、場合によっては、連続して示されている2つのブロック又は記号は、含まれる機能によっては、ほぼ同時に実行されても、又は時には逆の順序で実行されてもよい。したがって、本発明の種々の実施形態は、コンピュータ、或いは命令を実行する何らかのデバイス又はシステムにより使用される、或いはそれに接続されて使用されるプログラムコードを提供するコンピュータで使用可能又は読込可能な媒体からアクセス可能なコンピュータプログラム製品の形態をとることができる。別の構成では、本発明の異なる実施形態は、固定記憶域又はハードドライブなどのコンピュータで読込可能な媒体に格納された(及びそのような媒体からアクセス可能な)コンピュータプログラムの形態をとることができる。
【0068】
ここで
図12を参照する。
図12は、本発明の方法、ルーチン、及び解決法を実行できる例示的なデータ処理システム1200のブロック図である。この実施例では、データ処理システム1200は通信ファブリック1202を含み、これによりプロセッサユニット1204、メモリ1206、固定記憶域1208、通信ユニット1210、入出力(I/O)装置1212、及びセンサ又はカメラ1214の間の通信が可能である。バスシステムは、通信ファブリック1202を実施するために使用することができ、システムバス又は入出力バスといった一又は複数のバスから構成することができる。バスシステムは、バスシステムに取り付けられた種々のコンポーネント又はデバイスの間でのデータ伝送を行う任意の適切な種類のアーキテクチャを使用して実施することができる。
【0069】
プロセッサユニット1204は、固定記憶域408(例えばハードドライブ)から、又はコンピュータプログラム製品1220(例えばCD又はDVD)からメモリ1206にローディングできる命令(例えば、ソフトウェアプログラム又はコンピュータコード)を実行する機能を有する。プロセッサユニット1204は、特定の実装態様に応じて、一又は複数のプロセッサの組か、或いはマルチプロセッサコアとすることができる。さらに、プロセッサユニット1204は、単一のチップ上に主要プロセッサと共に二次プロセッサが存在する一又は複数の異種プロセッサシステムを使用して実施してもよい。別の実施例として、プロセッサユニット1204は、同種のプロセッサを複数個含む対称型マルチプロセッサシステムである。
【0070】
このような実施例では、メモリ1206は、例えば、ランダムアクセスメモリ又は他の何らかの適切な揮発性又は不揮発性の記憶装置であってもよい。固定記憶域1208は、特定の実装態様に応じて様々な形態をとることができる。例えば、固定記憶域1208は、一又は複数のコンポーネント又はデバイスを含みうる。例えば、固定記憶域1208は、ハードドライブ、フラッシュメモリ、書換え形光ディスク、書換え可能磁気テープ、又はそれらの何らかの組み合わせである。固定記憶域1208によって使用される媒体は、取り外し可能なものでもよい。例えば、取り外し可能なハードドライブを使用することができる。
【0071】
オペレーティングシステムに対する命令は、固定記憶域1208に位置させることができる。特定の一実施形態では、オペレーティングシステムは、任意の数の既知のオペレーティングシステムの何らかのバーションである。アプリケーション及び/又はプログラムに対する命令は、固定記憶域1208に位置させてもよい。これらの命令及び/又はプログラムは、メモリ1206にローディングされてプロセッサユニット1204によって実行される。例えば、メモリ1206のようなメモリにローディングできるコンピュータで実施可能な命令を使用して、プロセッサユニット1204により、本明細書に記載される様々な実施形態のプロセスを実行することができる。これらの命令は、プログラムコード、コンピュータで使用可能なプログラムコード、又はコンピュータで読込可能なプログラムコードと呼ばれ、プロセッサユニット1204内の一つのプロセッサによって読込まれて実行されうる。種々の実施形態のプログラムコードは、メモリ1206又は固定記憶域1208など、種々の物理的な又は有形のコンピュータで読込可能な媒体上に具現化すことができる。
【0072】
アプリケーション及び/又はプログラムに対する命令は、データ処理システム1200に恒久的に含まれていないコンピュータプログラム製品1220の一部として含まれてもよい。コンピュータプログラム製品1220は、コンピュータで読込可能な媒体1222及びプログラムコード1224の形態を含んでもよい。例えば、プログラムコード1224は、コンピュータで読込可能な媒体1222上に機能的な形態で配置され、データ処理システム1200にローディング又は転送されて、プロセッサユニット1204によって実行される。プログラムコード1224及びコンピュータで読込可能な媒体1222は、コンピュータプログラム製品1220を形成する。一実施例では、コンピュータで読込可能な媒体1222は、例えば、記憶装置(例えば、固定記憶域308の一部であるハードドライブ)上への転送のために、ドライブ又は他のデバイスに挿入又は配置される光ディスク又は磁気ディスクのような有形の形態をとることができる。ドライブ又は他のデバイスは、例えば通信ファブリック1202を介して、データ処理システム1200の他のコンポーネントに接続してそのようなコンポーネントと通信することができる。別の有形の形態では、コンピュータで読込可能な媒体は、データ処理システム1200に接続されている固定記憶域(例えば、ハードドライブ、サムドライブ、又はフラッシュメモリ)でもよい。
【0073】
本明細書の目的のために、コンピュータで使用可能又は読込可能な媒体は、一般に、システム(例えば命令を実行するシステム)によって使用される、或いはそれに接続されて使用されるデータ(例えば、ソフトウェアプログラム)の収容、格納、通信、伝播、又は運搬を行うことができる任意の有形装置を指す。コンピュータで使用可能又はコンピュータで読込可能な媒体は、例えば、限定しないが、電子システム、磁気システム、光学システム、電磁システム、赤外システム、又は半導体システム、或いは伝播媒体とすることができる。コンピュータで読込可能な媒体の非限定的な実施例には、半導体又は固体状態のメモリ、磁気テープ、取り出し可能なコンピュータディスケット、ランダムアクセスメモリ(RAM)、リードオンリーメモリ(ROM)、剛性磁気ディスク、及び光ディスクが含まれる。光ディスクには、コンパクトディスク−リードオンリーメモリ(CD−ROM)、コンパクトディスク−リード/ライト(CD−R/W)、及びDVDが含まれる。さらに、コンピュータで使用可能又は読込可能な媒体は、コンピュータで読込可能又は使用可能なプログラムコードを収容又は格納することができ、このコンピュータで読込可能又は使用可能なプログラムコードがコンピュータ上で実行されると、コンピュータは特定のルーチン、手順、ステップなどを実行する。コンピュータで読込可能な媒体の有形形態は、コンピュータで記録可能な記憶媒体とも呼ばれる。
【0074】
入出力(I/O)装置1212により、データ処理システム1200に接続可能な他のデバイスによるデータの入力及び出力が可能になる。例えば、入出力装置1212は、(CD又はDVDのような)コンピュータで読込可能な媒体、例えばコンピュータで読込可能な媒体1222上に格納されたデータを読み込むことができるCD又はDVDドライブである。入出力装置は、直接的に、又はI/Oコントローラを介して、システムに連結することができる。プログラムコード1224は、コンピュータで読込可能な媒体1222から、入出力装置1212を通して、データ処理システム1200に転送される。
【0075】
データ処理システム1200について説明した種々のコンポーネントは、種々の実施形態が実施される方法をアーキテクチャ的に限定するものではない。異なる例示的実施形態が、データ処理システム1200について示されているコンポーネントに追加的又は代替的なコンポーネントを含むデータ処理システムにおいて実施されうる。
図12に示す他のコンポーネントは、図示の実施例から変更することができる。
【0076】
プログラムコード1224は、本明細書に記載の画像登録技術により必要とされる演算及びプロセスの多くを実行するコンピュータコードの形態をとることができる。
図13は、本発明のフロー図の一又は複数に記載の技術を含め、本明細書に記載の画像登録技術の一又は複数を含みうる例示的プログラムコード1302を示している。プログラムコード1302は基準データベース1304と通信しており、この場合、基準データベースは、本明細書に記載の解決法の一又は複数により必要とされる一又は複数の基準のような基準データを収容している。基準データベース1304は、例えば、
図12に示した固定記憶域1208に類似の、固定記憶域に格納されている。別の構成では、基準データベース1304は、プログラムコード1302を実行するデータプロセッサに対して遠隔に位置する記憶装置に格納される。プログラムコード1302は、カメラ又はセンサ1306とも通信し、この場合、センサは、本明細書に記載の解決法の一又は複数により使用される一又は複数の標的画像を捕獲することができる(例えば、センサの視野1308内部のシーン)。センサ1306はデータ処理システムに直接連結され(
図12のセンサ1214がデータ処理システム1200に連結されているように)、データ処理システムは画像登録技術を実行する(プログラムコード1302)。別の構成では、画像登録技術を実行するシステム(プログラムコード1302)は、センサ1306から遠隔して位置し、この場合、センサ1306によって捕獲される標的画像は遠隔システムに送信される。
【0077】
再び
図12を参照すると、データ処理システム1200には、データ処理システム1200と他のデータ処理システム又はデバイスとの間に通信を提供する通信ユニット1210が含まれている。このような実施例では、通信ユニット1210はネットワークインターフェースカードである。通信ユニット1210は、データ入力を可能にする物理的及び無線通信リンクユニットの一方又は両方を用いて通信を提供する。通信ユニットは、モデム又はネットワークアダプタといったデータの送受信に使用される一又は複数のデバイスを含むことができる。このような実施例では、通信リンクは物理的なものでもよく、無線でもよい。本発明のいくつかの実施形態では、例えば基準データベース又はセンサ/カメラがデータ処理システム1200から遠隔して設置されている場合、これらの通信ユニット1210は、遠隔コンポーネントとの間でデータが送受信されるようなインターフェースを提供する。例えば、データ処理システム1200は、通信ユニット1210を介して遠隔センサ/カメラからデータを受信するか、又は通信ユニット1210を介して遠隔基準データベースからデータを受信する。
【0078】
図14は、本発明の一又は複数の実施形態による、ネットワークに接続されたデータ処理システムとコンポーネントからなる例示的ネットワークシステム1400を示す図である。ネットワークシステム1400は、一又は複数のクライアントマシン1404、一又は複数のサーバマシン1402、独立の記憶装置1406、及びビークル1408(例えばUAV)に搭載されるデータ処理システムを接続するネットワーク1410を含むことができる。クライアントマシン1404は、例えばパーソナルコンピュータ又はエンドユーザコンピュータとすることができる。ネットワーク1410は、種々のデータ処理システム(及び場合によっては他のコンポーネント)間に通信リンクを提供するために使用される媒体であり、ネットワーク1410は、有線又は無線通信リンクのような接続、又は場合によっては光ファイバケーブルを含みうる。ネットワーク1410は、インターネット接続を含み、場合によっては遠隔セキュリティ保護接続を含むことができる。いくつかの実施例では、ネットワークプ1410は、互いに通信するためにTCP/IP(TransmissionControlProtocol/InternetProtocol)式のプロトコルを使用するネットワーク及びゲートウェイの世界的集合を表わす。ネットワークシステム1400は、任意の数の同種の又は異なる種類のネットワーク(例えば、イントラネット、ローカルエリアネットワーク(LAN)、又はワイドエリアネットワーク(WAN))として実施することもできる。典型的には、ネットワークシステム1400内部の各データ処理システム及びコンポーネントは、例えば
図12の通信ユニット410のような通信ユニットを含み、これによりデータ処理システム又はコンポーネントがネットワーク1410と、さらにはネットワークに接続された他のデータ処理システムと相互作用することができる。
【0079】
一実施例では、データ処理システムは、ビークル1408(例えばUAV)に搭載され、データ処理システムは、ネットワーク1410との無線通信1412、さらにはネットワークに接続された他のデータ処理システムとの通信を可能にする通信ユニットを含む。ビークル1408に搭載されたデータ処理システムは、
図12のデータ処理システム1200に類似している。ビークル1408に搭載されたデータ処理システムは、本明細書に記載の登録技術の一部又は全部を実行することができる。例えば、データ処理システムは、ネットワーク1410を介して基準データを獲得し(例えばサーバマシン1402又はネットワークに接続された記憶装置1406から)、次いでビークル1408に搭載されたデータ処理システムを介して登録演算の残りを実行する。別の実施例では、データ処理システムは、ビークル1408に搭載されたセンサを介して標的画像を獲得し、その標的画像を、ネットワーク1410を介してネットワークに接続されたデータ処理システム(例えば、クライアントマシン1404又はサーバマシン1402内部に含まれている)に送信する。これにより、ネットワークに接続されたデータ処理システムが登録計算の大部分を実行する。
【0080】
図14は、実施例として意図されており、種々の実施形態をアーキテクチャ的に制限するものではない。ネットワークシステム1400は、図示されているものより多い(又は少ない)サーバマシン1402、クライアントマシン1404、記憶装置1406、ビークル1408、及び場合によっては図示されていない他のデータ処理システム及び/又はデバイスを含むことができる。加えて、ビークル1408は、UAV以外の何らかのビークル、例えば別の種類の航空機、自動車、船などでもよい。加えて、ビークル1408の代わりに、又はそれに加えて、ネットワーク1400は、デバイス内部に包含されるが、ビークルではないセンサ又はカメラ(及び場合によってはデータ処理システム)を含むことができる。例えば、カメラシステムは、支柱、建造物、天然のランドマークに搭載されてもよく、或いは人が運搬してもよい。
【0081】
図面及びテキストにより、一態様において画像登録方法が開示され、この方法は、シーンの三次元基準モデルを確立すること(700)、シーン(700)の、センサ(706、1214、1306)を用いて捕獲された標的画像(402)を獲得すること、一又は複数の三次元geoarcを使用して、標的画像(402)を捕獲したセンサ(706、1214、1306の視点を決定することであって、センサ(706、1214、1306)の視点が、三次元基準モデルに対して決定されること、並びに、センサ(706、1214、1306)の視点を使用して標的画像(402)から得られるデータを三次元基準モデルから得られるデータと関連付けることにより、シーン(700)の合成三次元表示を生成することを含む。一変形例による画像登録方法では、センサ(706、1214、1306)の視点を決定するステップは、さらに、三次元基準モデル内において一又は複数のフィーチャ対を識別すること、標的画像(402)内の一又は複数のフィーチャ対を識別すること、標的画像(402)内の各フィーチャ対について、標的画像(402)内のフィーチャ対を三次元基準モデル内のフィーチャ対の一つに関連付け、標的画像(402)内のフィーチャ対に関連付けられる角度(θ)を推定し、三次元基準モデルに関連付けられる三次元geoarc表面(9110、912)であって、標的画像(402)内のフィーチャ対と推定角度(θ)との関係を表すgeoarc表面を生成すること、並びに、三次元空間内において、二つ以上の三次元geoarc表面が重複する位置を、三次元基準モデルに対して識別することを含む。
【0082】
一変形例による画像登録方法では、三次元geoarc表面(910、912)を生成するステップは、geoarc表面(910、912)の厚みを変化させることにより、推定角度(θ)の不確実性を表すこと含む。別の変形例による画像登録方法では、生成されるgeoarc表面(910、912)は、既に生成されているgeoarc表面(910、912)と重複し、三次元容積を生成しうる。別の変形例では、画像登録方法は、さらに、決定されたセンサ(706、1214、1306)の視点としてgeoarc表面が最も多く重複する位置を選択することを含む。また別の変形例では、画像登録方法は、さらに、標的画像内の各フィーチャ対について、三次元geoarc表面(910、912)の、基準データを用いたチェックに基づくと不正確である視点に関連する部分を無視又は除去することにより、生成された三次元geoarc表面(910、912)を精緻化することを含む。また別の変形例では、画像登録方法は、さらに、決定されたセンサ(706、1214、1306)の視点を、基準データを参照することにより認証し、決定されたセンサ(706、1214、1306)の視点が正確である場合に標的画像(402)内で可視でなければならない追加フィーチャを予測することを含む。
【0083】
一実施例による画像登録方法では、合成三次元表示を生成するステップは、さらに、合成三次元表示に対するセンサ(706、1214、1306)の位置とセンサ(706、1214、1306)の角度(θ)とを決定すること、並びに、標的画像(402)内で可視である一又は複数のオブジェクトの位置を、各オブジェクトについて、センサ(706、1214、1306)の位置に対して一方向へのオフセットを加えることにより、合成三次元表示に対して決定することを含む。また別の実施例による画像登録方法では、シーン(700)の合成三次元表示を生成するステップは、標的画像(402)に関連付けられる一又は複数のオブジェクトを実時間で3D合成シーン(700)に投影することを含む。また別の実施例による画像登録方法では、三次元基準モデルを確立することは、地理空間インテリジェンスシステムデータベースから得られる情報を使用して三次元基準モデルを確立することを含む。
【0084】
一事例による画像登録方法では、三次元基準モデル内及び標的画像(402)内において識別されるフィーチャ対のフィーチャは、基準モデル及び標的画像(402)の回転及び縮尺によって変化しないように特徴づけられる。別の事例による画像登録方法では、センサ(706、1214、1306)の視点を決定するステップは、三次元基準モデルを任意の数の領域に区分すること、及びそれら領域の一又は複数内部において可能なセンサ(706、1214、1306)の視点を決定することを含む。
【0085】
一態様では、画像登録方法が開示され、この方法は、三次元基準モデル内において一又は複数のフィーチャ対を識別すること、標的画像(402)内において一又は複数のフィーチャ対を識別すること、標的画像(402)内の各フィーチャ対について、標的画像(402)内のフィーチャ対を三次元基準モデル内のフィーチャ対の一つに関連付け、標的画像(402)内のフィーチャ対に関連付けられる角度(θ)を推定し、三次元基準モデルに関連付けられる三次元geoarc表面(9110、912)であって、標的画像(402)内のフィーチャ対と推定角度(θ)との関係を表すgeoarc表面を生成すること、並びに、三次元空間内において、二つ以上の三次元geoarc表面が重複する位置を、三次元基準モデルに対して識別することを含む。
【0086】
一変形例では、画像登録方法は、さらに、geoarc表面(910、912)の厚みを変更することにより推定角度(θ)不確実性を表わすことを含む。別の変形例による画像登録方法では、生成されるgeoarc表面(910、912)は、既に生成されているgeoarc表面と重複し、三次元容積を生成しうる。
【0087】
一態様では、画像を捕獲するセンサ(706、1214、1306)、並びにセンサ(706、1214、1306)と通信可能に連結されたデータ処理システムを含む航空ビークルが開示され、このデータ処理システムは、シーン(700)の三次元基準モデルを確立し、センサ(706、1214、1306)からシーン(700)の標的画像(402)を獲得し、一又は複数の三次元geoarcを用いて、標的画像(402)を捕獲したセンサ(706、1214、1306)の視点を、三次元基準モデルに対して決定し、標的画像(402)から得られるデータと三次元基準モデルから得られるデータとを、センサ(706、1214、1306)の視点を用いて関連付けることにより、シーン(700)の合成三次元表示を生成するようにプログラムされている。一変形例による航空ビークルでは、センサ(706、1214、1306)の視点を決定するために、前記データ処理システムは、さらに、三次元基準モデル内において一又は複数のフィーチャ対を識別し、標的画像(402)内において一又は複数のフィーチャ対を識別し、標的画像(402)内の各フィーチャ対について、標的画像(402)内のフィーチャ対を三次元基準モデル内のフィーチャ対の一つに関連付け、標的画像(402)内のフィーチャ対に関連付けられる角度(θ)を推定し、三次元基準モデルに関連付けられる三次元geoarc表面(9110、912)であって、標的画像(402)内のフィーチャ対と推定角度(θ)との関係を表すgeoarc表面を生成し、且つ三次元空間内において、二つ以上の三次元geoarc表面(910、912)が重複する位置を、三次元基準モデルに対して識別するようにプログラムされている。
【0088】
別の変形例による航空ビークルでは、シーン(700)の合成三次元表示を生成するために、前記データ処理システムは、さらに、標的画像(402)に関連付けられる一又は複数のオブジェクトを、実時間で、3D合成シーン(700)に投影するようにプログラムされる。また別の変形例による航空ビークルでは、センサ(706、1214、1306)は、航空ビークル上において、ランドスケープとシーン(700)とがセンサの視野に含まれるように位置する。また別の変形例による航空ビークルでは、データ処理システムはメモリを含み、メモリは三次元基準モデルを含む基準データを格納するように動作可能であり、且つセンサ(706、1214、1306)によって捕獲された画像を格納するように動作可能である。
【0089】
上述した種々の有利な実施形態の説明は、例示及び説明を目的とするものであり、完全な説明であること、又はこれらの実施形態を開示された形態に限定することを意図していない。当業者には、多数の修正例及び変形例が明らかであろう。さらに、種々の有利な実施形態は、他の有利な実施形態とは異なる利点を提供することができる。選択された一又は複数の実施形態は、実施形態の原理、実際の用途を最もよく説明するため、及び他の当業者に対し、様々な実施形態の開示内容と、考慮される特定の用途に適した様々な修正との理解を促すために選択及び記述されている。
また、本願は以下に記載する態様を含む。
(態様1)
画像登録方法であって、
シーン(700)の三次元基準モデルを確立すること、
センサ(706、1214、1306)に捕獲されているシーン(700)の標的画像(402)を獲得すること、
標的画像(402)を捕獲したセンサ(706、1214、1306)の視点を、一又は複数の三次元geoarcを用いて、三次元基準モデルに対して決定すること、並びに
標的画像(402)から得られるデータを三次元基準モデルから得られるデータに、センサ(706、1214、1306)の視点を用いて関連付けることにより、シーン(700)の合成三次元表示を生成すること
を含む方法。
(態様2)
センサ(706、1214、1306)の視点を決定するステップが、さらに、
三次元基準モデル内において一又は複数のフィーチャ対を識別すること、
標的画像(402)内において一又は複数のフィーチャ対を識別すること、
標的画像(402)内の各フィーチャ対について、
標的画像(402)内のフィーチャ対を、三次元基準モデル内のフィーチャ対のうちの一つに関連付けること、
標的画像(402)内のフィーチャ対に関連付けられる角度(θ)を推定すること、及び
三次元基準モデルに関連付けられる三次元geoarc表面(910、912)であって、標的画像(402)内のフィーチャ対と推定角度(θ)との間の関係性を表すgeoarc表面(910、912)を生成すること、並びに
三次元空間内において、二つ以上の三次元geoarc表面が重複する位置を三次元基準モデルに対して識別すること
を含み、
三次元geoarc表面(910、912)を生成するステップが、geoarc表面(910、912)の厚みを変化させることにより、推定角度(θ)の不確実性を表すことを含み、且つ
生成されるgeoarc表面(910、912)が、既に生成されているgeoarc表面と重複して三次元容積を生成する、
態様1に記載の画像登録方法。
(態様3)
さらに、
決定されたセンサ(706、1214、1306)の視点として、最も多くのgeoarc表面が重複する位置を選択すること、並びに
決定されたセンサ(706、1214、1306)の視点を、基準データを参照することにより認証し、決定されたセンサ(706、1214、1306)の視点が正確である場合に標的画像(402)内で可視でなければならない追加フィーチャを予測すること
を含む、態様2に記載の画像登録方法。
(態様4)
さらに、
標的画像(402)内の各フィーチャ対について、
三次元geoarc表面(910、912)の、基準データによるチェックに基づくと不正確である視点に関連する部分を無視又は除去することにより、生成された三次元geoarc表面(910、912)を精緻化すること
を含む、態様2に記載の画像登録方法。
(態様5)
合成三次元表示を生成するステップが、さらに、
合成三次元表示に対するセンサ(706、1214、1306)の位置とセンサ(706、1214、1306)の角度(θ)とを決定すること、並びに
標的画像(402)内において可視である一又は複数のオブジェクトの、合成三次元表示に対する位置を、各オブジェクトについて、センサ(706、1214、1306)の位置に一方向へのオフセットを加えることにより決定すること
を含み、
シーン(700)の合成三次元表示を生成するステップが、標的画像(402)に関連付けられる一又は複数のオブジェクトを実時間で3D合成シーン(700)に投影することを含み、且つ
三次元基準モデルを確立することが、地理空間インテリジェンスシステムデータベースから得られる情報を使用して三次元基準モデルを確立することを含む、
態様1に記載の画像登録方法。
(態様6)
三次元基準モデル内及び標的画像(402)内において識別されるフィーチャ対のフィーチャは、基準モデル及び標的画像(402)の回転及び縮尺によって変化しないように特徴づけられており、且つ
センサ(706、1214、1306)の視点を決定するステップは、三次元基準モデルを任意の数の領域に区分すること、及びそれら領域の一又は複数の内部において可能性のあるセンサ(706、1214、1306)の視点を決定することを含む、
態様2に記載の画像登録方法。
(態様7)
画像を捕獲するセンサ(706、1214、1306)、及び
センサ(706、1214、1306)に通信可能に連結されたデータ処理システム
を備えた航空ビークルであって、データ処理システムが、
シーン(700)の三次元基準モデルを確立し、
センサ(706、1214、1306)からシーン(700)の標的画像(402)を獲得し、
標的画像(402)を捕獲したセンサ(706、1214、1306)の視点を、一又は複数の三次元geoarcを用いて、三次元基準モデルに対して決定し、且つ
標的画像(402)から得られるデータを三次元基準モデルから得られるデータに、センサ(706、1214、1306)の視点を用いて関連付けることにより、シーン(700)の合成三次元表示を生成する
ようにプログラムされている、航空ビークル。
(態様8)
センサ(706、1214、1306)の視点を決定するために、前記データ処理システムは、さらに、
三次元基準モデル内において一又は複数のフィーチャ対を識別し、
標的画像(402)内において一又は複数のフィーチャ対を識別し、
標的画像(402)内の各フィーチャ対について、
標的画像(402)内のフィーチャ対を、三次元基準モデル内のフィーチャ対のうちの一つに関連付け、
標的画像(402)内のフィーチャ対に関連付けられる角度(θ)を推定し、
三次元基準モデルに関連付けられる三次元geoarc表面(910、912)であって、標的画像(402)内のフィーチャ対と推定角度(θ)との間の関係性を表すgeoarc表面(910、912)を生成し、且つ
三次元空間内において、二つ以上の三次元geoarc表面(910、912)が重複する位置を、三次元基準モデルに対して識別する
ようにプログラムされている、態様7に記載の航空ビークル。
(態様9)
シーン(700)の合成三次元表示を生成するために、前記データ処理システムは、さらに、標的画像(402)に関連付けられる一又は複数のオブジェクトを、実時間で、3D合成シーン(700)に投影するようにプログラムされている、態様7に記載の航空ビークル。
(態様10)
センサ(706、1214、1306)は、航空ビークル上において、ランドスケープとシーン(700)とがセンサの視野に含まれるように位置しており、
データ処理システムはメモリを含み、
メモリは、三次元基準モデルを含む基準データを格納するように動作可能であり、且つセンサ(706、1214、1306)により捕獲された画像を格納するように動作可能である、
態様7に記載の航空ビークル。