(58)【調査した分野】(Int.Cl.,DB名)
前記データ統合部は、カメラ以外の計測装置から得られた前記複数のカメラが配置された土台となる部分の位置および姿勢の少なくとも一方のデータの統合も行うことを特徴とする請求項1〜3のいずれか一項に記載の画像データ処理装置。
【発明を実施するための最良の形態】
【0018】
1.第1の実施形態
(全体の構成)
図1には、移動体の一例である車両100が示されている。車両100は、例えば乗用車である。移動体は、車両に限定されず、動くものであれば、工事用車両や重機、航空機、船舶等であってもよい。
図1において、図の上の方向が車両100の前方である。車両100は、画像データ処理装置200を備えている。車両100は、前方監視用カメラ101、速度検出用カメラ102、景観撮影用カメラ1(103)、景観撮影用カメラ2(104)、景観撮影用カメラ3(105)、加速度計106、傾斜計107、GPS装置108、レーザースキャナ109を備えている。これらの機器は、画像データ処理装置200に接続されている。
【0019】
前方監視用カメラ101は、車両100の前方を監視するためのカメラであり、車両100の前方を動画撮影する。前方監視用カメラ101で撮影した動画像は、障害物の検出や車両100と衝突する可能性がある物体の検出等に用いられる。前方監視用カメラ101が撮影した動画像の動画データは、上述した障害物の検出処理等を行う図示省略した機能部に送られると共に、画像データ処理装置200に送られる。速度検出用カメラ102は、例えば車両100前方の路面を動画撮影する。この動画像の動画データは、図示省略した速度演算部において画像処理され、車両100の速度の算出が行われる。この例では、速度検出用カメラ102が撮影した動画像の動画データは、上記の速度演算部に送られるのと同時に画像データ処理装置200に送られる。
【0020】
景観撮影用カメラ1(103)、景観撮影用カメラ2(104)、景観撮影用カメラ3(105)は、車両100の周囲の景観を動画撮影し、その画像データを画像データ処理装置200に送る。なお、撮影の対象となる景観の内容は、車両100から見えるものであれば、特には限定されない。また、各カメラの撮影範囲(視野)は重なっていてもよいし、重なっていなくてもよい。
【0021】
加速度計106は、車両100に加わる加速度を計測し、その計測データを画像データ処理装置200に送る。傾斜計107は、車両100の傾斜を計測し、その計測データを画像データ処理装置200に送る。GPS装置108は、複数の人工衛星から送られて来る信号に基づき、位置を算出する装置であり、一般的なGlobal Positioning Systemを用いるGPS受信機である。位置情報を得る手段としては、GPS以外に、路面上の標識、路面上や道路上に設けられた光学ビーコンや電波ビーコン等から位置情報を得る手段を挙げることができる。
【0022】
レーザースキャナ109は、測定対象物にレーザー光を照射し、その反射光を受光することで、レーザースキャナの設置位置(視点)から測定点までの距離、方位、仰角(または俯角)の情報を取得し、これらの情報に基づき、測定点の三次元位置座標に係る情報を算出する機能を有する。また、レーザースキャナは、測定点からの反射光の強度、色、色相、彩度等に関する情報を取得する。レーザースキャナはこれらの情報に基づき、測定対象物の三次元座標値を含む3次元点群位置データを算出する。レーザースキャナ109が取得した測定対象物の3次元点群位置データは、画像データ処理装置200に送られる。
【0023】
(画像データ処理装置)
以下、画像データ処理装置200について説明する。
図2には、画像データ処理装置200のブロック図が示されている。画像データ処理装置200は、CPU、メモリやハードディス装置等の記憶装置、各種のインターフェースを備えたコンピュータにより構成されており、以下に示す機能部を有している。なお、以下に示す機能部は、ソフトウェア的に構成されるものに限定されず、その少なくとも一部が専用のハードウェアにより構成されていてもよい。また、通常のコンピュータを用いて画像データ処理装置200を構成することも可能である。
【0024】
画像データ処理装置200は、動画像データ取得部201、位置・姿勢データ取得部202、3次元点群位置データ取得部203、特徴点座標算出部204、位置姿勢算出部205、座標変換部206、重み係数付与部207、データ統合部208および重み係数算出部209を備えている。動画像データ取得部201は、前方監視用カメラ101、速度検出用カメラ102、景観撮影用カメラ1(103)、景観撮影用カメラ2(104)、景観撮影用カメラ3(105)が撮影した動画像の画像データを受け付ける。位置・姿勢データ取得部202は、加速度計106、傾斜計107およびGPS装置108からの出力を受け付ける。3次元点群位置データ取得部203は、レーザースキャナ109から出力される測定対象物の3次元点群位置データを受け付ける。
【0025】
特徴点座標算出部204は、動画像データ取得部201が受け付けた動画データに基づき、撮影した対象物(例えば、景観)の特徴点の3次元座標の算出を行う。この3次元座標の算出は、カメラ毎に行う。例えば、前方監視用カメラ101が撮影した動画像の動画データに基づく、撮影対象物の特徴点の3次元座標の算出と、景観撮影用カメラ1(103)が撮影した動画像の動画データに基づく、撮影対象物の特徴点の3次元座標の算出とは、別に行われる。位置姿勢算出部205は、特徴点座標算出部204が算出した測定対象物の特徴点の3次元座標に基づく該当する動画を撮影したカメラの外部標定要素(位置と姿勢)の算出、および位置・姿勢データ取得部202が受け付けた車両100の位置と姿勢に係るデータから、統合中心(車両100)の位置と姿勢の算出を行う。
【0026】
座標変換部206は、前方監視用カメラ101、速度検出用カメラ102、景観撮影用カメラ1(103)、景観撮影用カメラ2(104)、景観撮影用カメラ3(105)、レーザースキャナ109から得られたデータを一つの座標系上で統合的に扱えるようにする座標変換の処理を行う。例えば、景観撮影用カメラ1(103)が撮影した動画像に基づく撮影対象物の特徴点の3次元座標の算出結果を、予め設定された統合座標上で取り扱えるように当該統合座標上の座標データに座標変換し、更に動画に基づいて得られた外部標定要素の統合座標への座標変換が行われる。ここで、外部標定要素の座標変換では、特定のカメラから求めた統合中心の外部標定要素が算出される。この特定のカメラから求めた統合中心の外部標定要素というのは、該当するカメラのオフセット位置やオフセット角度を考慮して、当該カメラの外部標定要素に基づいて、統合中心の位置と姿勢(つまり、車両の位置と姿勢)を求める演算を行う。なお、統合座標の原点は、車両100上の適当な位置に予め設定される。また、その座標軸の向きは、計算に便利な向きであれば、特に限定されない。
【0027】
重み係数付与部207は、カメラ毎に得られた測定対象物の特徴点の3次元座標の値を統合座標上に座標変換したもの、およびカメラ毎に求めた統合中心における外部標定要素、更に傾斜計107やGPS装置108から得られた車両100の傾斜や位置の値のそれぞれに、各カメラの精度を反映させた重み係数を付与する。重み係数は、各装置の精度や優先度を考慮して予め設定されている。なお、重み係数の組み合わせを複数用意し、それを適宜切り替えることや、重み係数の設定を動的に変化させることも可能である。
【0028】
データ統合部208は、機器毎のデータをその重みを反映させた形で統合する。例えば、景観撮影用カメラ1(103)からの画像データに基づいて算出した測定対象物の特徴点の3次元座標の値と景観撮影用カメラ2(104)からの画像データに基づいて算出した測定対象物の特徴点の3次元座標の値とを、統合座標系上で統合する。この際、機器毎に設定された重みを反映した形での算出平均が計算され、特徴点の座標値が求められる。重み係数推定部209は、後述する方法で重み係数を推定する。
【0029】
(処理の一例)
以下、画像データ処理装置200の動作の一例を説明する。
図3は、画像データ処理装置200において行われる処理の手順の一例を示すフローチャートである。
図3のフローチャートを実行するためのプログラムは、画像データ処理装置200が備える適当なメモリ領域に格納され、画像データ処理装置200が備えるCPUによって読み取られて実行される。なお、
図3のフローチャートを実行するためのプログラムを外部の適当な記憶媒体に格納し、そこから画像データ処理装置200に提供される形態も可能である。
【0030】
図3に示す処理は、前方監視用カメラ101、速度検出用カメラ102、景観撮影用カメラ1(103)、景観撮影用カメラ2(104)および景観撮影用カメラ3(105)が撮影した動画像のデータ(動画像データ)のそれぞれにおいて行われる。各カメラにかかる処理は同じであるので、以下、単にカメラと表記し、説明を行う。
【0031】
図3に示す処理が開始されると、まず、動画像データ取得部201によって、各カメラが撮影した動画の動画像データが取得される。ここで動画像は、カメラと対象物とが少しずつ相対的に移動していく過程において撮影された複数の連続する画像(この画像の一つ一つをフレーム画像という)で構成される。動画像データ取得部201は、時系列的に得られる複数のフレーム画像をリアルタイムに順次取得する。
【0032】
各カメラからの動画データの取得と平行して、ステップS102以下の処理が行われる。ステップS102〜ステップS106までの処理は、特徴点座標算出部204において行われる。ステップS102では、1フレーム目と2フレーム目におけるカメラの位置と姿勢の初期値(外部標定要素の初期値)が取得される。この処理では、まず、測定対象となる実空間に基準点を設置し、この基準点の実空間における三次元座標をトータルステーションやGPSを用いて計測する。あるいは、実空間における3次元座標が既知である基準点を用意する。次に、その基準点をカメラで撮影し、基準点の三次元座標とフレーム画像中における画像座標とに基づいて、後方交会法によってカメラの内部標定要素と外部標定要素の初期値を算出する。
【0033】
別な方法として、トータルステーションやGPSを用いて、複数の撮影位置の三次元座標値を与え、複数の撮影位置で撮影されたステレオ画像から、外部標定要素の初期値を求めるようにしてもよい。更に別な方法として、トータルステーションやGPSを用いず、間の距離が既知である複数の基準点が描かれた基準板を移動しながら、複数枚の画像を撮影し、基準点が撮影された複数枚の画像から、基準点の画像座標を算出し、相互標定などを用いてカメラの位置、姿勢の初期値を得る方法を用いてもよい(ただし、この場合、得られる座標系はローカル座標系となる)。なお、後方交会法、相互標定の具体的な演算の詳細については後述する。
【0034】
ステップS102の後、取得した動画像のフレーム画像から撮影された対象物における特徴点の抽出を行う(ステップS103)ここでは、1フレーム目、2フレーム目、3フレーム目の最低3フレームのフレーム画像のそれぞれから、特徴点を抽出する。特徴点の検出には、モラベック、ラプラシアン、ソーベルなどのフィルタが用いられる。特徴点を抽出したら、異なるフレーム画像間において、対応する特徴点を特定し、その追跡を行う(ステップS104)。ここでは、1フレーム目、2フレーム目、3フレーム目における特徴点の対応関係が特定される。なお、異なるフレーム画像中における特徴点の対応関係を特定するための情報は、各フレーム画像内に埋め込まれる。
【0035】
この例において、特徴点の追跡には、テンプレートマッチングが用いられる。テンプレートマッチングとしては、残差逐次検定法(SSDA:Sequential Similarity Detection Algorithm)、相互相関係数法などが挙げられる。以下、テンプレートマッチングの一例を説明する。
【0036】
テンプレートマッチングは、2つの座標系における画像の座標データを相互に比較し、両者の相関関係により、2つの画像の対応関係を求める方法である。テンプレートマッチングでは、2つの視点それぞれから見た画像の特徴点の対応関係が求められる。
図4は、テンプレートマッチングの原理を説明する説明図である。この方法では、図示するように、N
1×N
1画素のテンプレート画像を、それよりも大きいM
1×M
1画素の入力画像内の探索範囲(M
1−N
1+1)
2上で動かし、下記数1で示される相互相関関数C(a,b)が最大となるような(つまり相関の程度が最大となるような)テンプレート画像の左上位置を求める。
【0037】
【数1】
【0038】
上記の処理は、一方の画像の倍率を変えながら、また回転させながら行われる。そして、相関関係が最大となった条件で、両画像の一致する領域が求まり、更にこの領域における特徴点を抽出することで、対応点の検出が行われる。
【0039】
テンプレートマッチングを用いることで、比較する2つの画像の一致する部分が特定でき、2つの画像の対応関係を知ることができる。この方法では、2つ画像の相関関係が最大となるように両者の相対的な位置関係が定められる。2つの画像の相関関係は、両画像の特徴点によって決まる。
【0040】
ステップS104によって特徴点の追跡を行った後、複数のフレーム画像、この場合でいうと、1フレーム目のフレーム画像と2フレーム目のフレーム画像において対応する特徴点の3次元座標の算出が行われる(ステップS105)。
【0041】
この例では、時間差を置いて異なる位置から取得された2つのフレーム画像(1フレーム目のフレーム画像と2フレーム目のフレーム画像)をステレオペア画像として用い、三角測量の原理により、2つのフレーム画像中で対応関係が特定された特徴点の3次元座標の算出が行われる。
図5は、この様子を示すイメージ図である。
図5に示すように、1フレーム目の撮影時に比較して、2フレーム目の撮影時には、図の右の方向にカメラは移動している。従って、同時ではないが、僅かな時間差をおいて、×印で示される撮影対象物の複数の特徴点を、異なる2つの位置および方向から撮影した2つのフレーム画像が得られる。ここで、1フレーム目におけるカメラの位置と姿勢、更に2フレーム目におけるカメラの位置と姿勢は、ステップS102において取得され既知であるので、立体写真測量の原理から特徴点の3次元座標を求めることができる。
【0042】
以下、この処理の詳細な手順の一例を説明する。ここでは、前方交会法を用いて、1フレーム目のフレーム画像と2フレーム目のフレーム画像の中で対応関係が特定された特徴点の3次元座標の算出を行う。
図6は、前方交会法を説明する説明図である。前方交会法とは、既知の2点(O
1,O
2)上から未知点Pへ向かう方向を観測して、それらの方向線の交点として未知点Pの位置を求める方法である。
図6において、対象空間の座標系をO−XYZとする。ここで、1フレーム目のフレーム画像のカメラの投影中心O
1の座標(X
01,Y
01,Z
01)およびカメラ座標軸の傾き(ω
1,φ
1,κ
1)と、2フレーム目のフレーム画像のカメラの投影中心O
2の座標(X
02,Y
02,Z
02)およびカメラ座標軸の傾き(姿勢)(ω
2,φ
2,κ
2)は、ステップS102において既に取得され既知である。また、内部標定要素(焦点距離、主点位置、レンズ歪係数)も既知である。
【0043】
ここで、1フレーム目のフレーム画像上の特徴点p
1(x
1,y
1)と、これに対応する2フレーム目のフレーム画像上の特徴点p
2(x
2,y
2)は、それぞれのフレーム画像から得られる。したがって、対象空間の未知点となる特徴点Pの3次元座標(X,Y,Z)は、光線O
1p
1と光線O
2p
2の交点として定まる。ただし、実際には誤差があり、2本の光線が正確に交わらないため、最小二乗法によって交点位置を求める。具体的には、2本の共線条件式(数2)を立てる。これに既知の外部標定要素、内部標定要素、対応点の画像座標を代入する。
【0044】
【数2】
【0045】
さらに、この共線条件式に未知点Pの近似値(X’,Y’,Z’)に補正量を加えたもの(X’+ΔX,Y’+ΔY,Z’+ΔZ)を代入する。そして、近似値回りにテーラー展開して線形化し、最小二乗法により補正量を求める。求めた補正量によって近似値を補正し、同様の操作を繰り返し、収束解を求める。この操作によって、特徴点の三次元座標P(X,Y,Z)が求められる。この計算をすべての特徴点について行い、1フレーム目のフレーム画像と2フレーム目のフレーム画像の中で対応関係が特定された複数の特徴点の3次元座標の算出が行われる。以上がステップS105で行われる処理の内容の詳細な一例である。
【0046】
ステップS105の後、算出した測定対象物の特徴点の3次元座標に基づいて、3フレーム目におけるカメラの外部標定要素の算出を行う(ステップS106)。この処理によって、3フレーム目におけるカメラの位置と姿勢が求められる。ここでは、後方交会法を用いてカメラの外部標定要素の算出が行われる。
【0047】
以下、ステップS106で行われる演算の詳細な一例を説明する。
図7は、後方交会法を説明する説明図である。後方交会法とは、未知点Oから3つ以上の既知点P
1、P
2、P
3へ向かう方向を観測して、それらの方向線の交点として未知点Oの位置を求める方法である。ここでは、ステップS105において求めた測定対象物の3つの特徴点の3次元座標を
図7の基準点P
1、P
2、P
3とし、それを基にして、後方交会法によって3フレーム目におけるカメラの外部標定要素(X
0,Y
0,Z
0,ω,φ,κ)を算出する。後方交会法としては、単写真標定、DLT法、相互標定がある。
【0048】
まず、単写真標定を用いて3フレーム目におけるカメラの外部標定要素(X
0,Y
0,Z
0,ω,φ,κ)を算出する場合を、
図7を参照して説明する。単写真標定は、1枚の写真の中に写された基準点に成り立つ共線条件を用いて、写真を撮影したカメラの位置O(X
0,Y
0,Z
0)およびカメラの姿勢(ω,φ,κ)を求める手法である。共線条件とは、投影中心O、写真像(p
1,p
2,p
3)および測定対象点(この場合は特徴点)(Op
1P
1,Op
2P
2,Op
3P
3)が、一直線上にあるという条件である。ここで、カメラの位置O(X
0,Y
0,Z
0)とカメラの姿勢(ω,φ,κ)は外部標定要素である。
【0049】
まず、カメラ座標系をx,y,z、写真座標系x,y、測定対象物の座標系である基準座標系X,Y,Zとする。カメラを各座標軸の正方向に対して左回りにそれぞれω,φ,κだけ順次回転させた向きで撮影が行われたものとする。そして、4点の画像座標(
図7では3点のみ記載)と対応する基準点の三次元座標を下記数3に示す2次の射影変換式に代入し、観測方程式を立ててパラメ−タb1〜b8を求める。
【0050】
【数3】
【0051】
そして、数3のパラメータb1〜b8を用いて、下記の数4から外部標定要素(X
0,Y
0,Z
0,ω,φ,κ)を求める。ここで、(X
0,Y
0,Z
0)は3フレーム目におけるカメラの位置を示す座標であり、(ω,φ,κ)は、その位置におけるカメラの姿勢(向き)である。
【0052】
【数4】
【0053】
以上のようにして、測定対象物の特徴点の3次元座標に基づいて、3フレーム目におけるカメラの外部標定要素が単写真標定を用いて算出される。
【0054】
次に、DLT法によって、測定対象物の特徴点の3次元座標に基づく3フレーム目におけるカメラの位置と姿勢を算出する手順について説明する。DLT法は、写真座標と対象空間の三次元座標との関係を3次の射影変換式で近似したものである。DLT法の基本式は以下の数5となる。なお、DLT法の詳細については、「村井俊治:解析写真測量、p46−51、p149−155」等に記載されている。
【0055】
【数5】
【0056】
数5の式の分母を消去すると、数6の線形式を導き出せる。
【0057】
【数6】
【0058】
さらに、数6を変形すると、以下の数5となる。
【0059】
【数7】
【0060】
数7に6点以上の基準点の三次元座標を代入し、最小二乗法を用いて解くと、写真座標と対象点座標との関係を決定するL
1〜L
11の11個の未知変量を取得できる。なお、L
1〜L
11には、外部標定要素が含まれる。
【0061】
次に、相互標定法による外部標定要素の算出について説明する。相互標定は、既知点がなくとも相対的な外部標定要素が求められる方法である。また、既知点があれば、絶対標定を行うことで、絶対座標を求めることができる。
【0062】
図8は、相互標定を説明する説明図である。相互標定は、左右2枚の画像における6点以上の対応点によって外部標定要素を求める。相互標定では、投影中心O
1とO
2と基準点Pを結ぶ2本の光線が同一平面内になければならいという共面条件を用いる。以下の数8に、共面条件式を示す。なお、ここで例えば左画像が2フレーム目のフレーム画像に当たり、右画像が3フレーム目のフレーム画像に当たる。
【0063】
【数8】
【0064】
図8に示すように、モデル座標系の原点を左側の投影中心O
1にとり、右側の投影中心O
2を結ぶ線をX軸にとるようにする。縮尺は、基線長を単位長さとする。このとき、求めるパラメータは、左側のカメラのZ軸の回転角κ
1、Y軸の回転角φ
1、右側のカメラのZ軸の回転角κ
2、Y軸の回転角φ
2、X軸の回転角ω
2の5つの回転角となる。この場合、左側のカメラのX軸の回転角ω
1は0なので、考慮する必要はない。このような条件にすると、数8の共面条件式は数9のようになり、この式を解けば各パラメータが求められる。
【0065】
【数9】
【0066】
ここで、モデル座標系XYZとカメラ座標系xycの間には、次の数10に示すような座標変換の関係式が成り立つ。
【0067】
【数10】
【0068】
これらの式を用いて、次の手順により、未知パラメータ(外部標定要素)を求める。
(1)未知パラメータ(κ
1,φ
1,κ
2,φ
2,ω
2)の初期近似値は通常0とする。
(2)数8の共面条件式を近似値のまわりにテーラー展開し、線形化したときの微分係数の値を数9により求め、観測方程式をたてる。
(3)最小二乗法をあてはめ、近似値に対する補正量を求める。
(4)近似値を補正する。
(5)補正された近似値を用いて、(1)〜(4)までの操作を収束するまで繰り返す。
【0069】
相互標定が収束した場合、さらに接続標定が行われる。接続標定とは、各モデル間の傾き、縮尺を統一して同一座標系とする処理である。この処理を行った場合、以下の数11で表される接続較差を算出する。算出した結果、ΔZ
jおよびΔD
jが、所定値(例えば、0.0005(1/2000))以下であれば、接続標定が正常に行われたと判定する。
【0070】
【数11】
【0071】
上記相互標定により、3フレーム目におけるカメラの位置および姿勢が求められる。以上のようにして、前方監視用カメラ101、速度検出用カメラ102、景観撮影用カメラ1(103)、景観撮影用カメラ2(104)および景観撮影用カメラ3(105)が撮影した動画像のデータ(動画像データ)のそれぞれに基づいて、撮影対象の特徴点の3次元座標の算出(ステップS105)および3フレーム目における当該カメラの外部標定要素(その位置と姿勢)の算出が行われる。
【0072】
次に、各カメラにおいて求められた撮影対象の特徴点の3次元座標と外部標定要素を統合座標に座標変換する(ステップS107)処理を座標変換部206において行う。すなわち、各カメラの位置および姿勢は異なっており、この時点における各カメラにおいて得られた撮影対象の特徴点の3次元座標と外部標定要素とは、各カメラの位置を原点とする各カメラ固有の座標系における値である。つまり、カメラが異なると、異なる座標系となるので、データを統合的に扱うことができない状態となっている。そこで、ステップS107では、各カメラに係る特徴点の3次元座標のデータと外部標定要素のデータをある特定の座標系(これを統合座標と呼ぶ)に座標変換する。
【0073】
ここで、統合座標の座標系を(X
1,Y
1,Z
1)とし、特定のカメラ(例えば、景観撮影用カメラ1(103))の座標系を(X
2,Y
2,Z
2)とし、座標系間の回転を示す行列をa
ijとし、座標系間のオフセット(平行移動距離)を(X
x,Y
y,Z
z)とすると、2つの座標の間には、数12の関係がある。
【0074】
【数12】
【0075】
車両100における各カメラの相対位置関係や姿勢の関係は、予め判明しているので、a
ijと(X
x,Y
y,Z
z)は既知である。よって、各カメラにおいて、撮影した動画像に基づく撮影対象物の特徴点の3次元座標のデータとステップS107で算出した外部標定要素の統合座標への座標変換が可能となる。これは、他のカメラについても同じである。ここで、外部標定要素の変換は、該当するカメラのオフセット位置やオフセット角度を考慮して、当該カメラの外部標定要素に基づいて、統合中心の位置と姿勢(つまり、車両の位置と姿勢)を求める演算を行う。すなわち、該当するカメラの外部標定要素(カメラの位置と姿勢)を、統合中心(車両)の位置と姿勢に変換する演算を行う。
【0076】
ここで、仮に各カメラに係る各種の誤差が存在しなければ、各カメラから得られる撮影対象物の同じ部分における特徴点の3次元座標のデータ、およびステップS107で算出した外部標定要素を統合中心の値に変換した値は、各カメラ間で一致する。しかしながら、カメラ自体の精度や分解能、データ伝送時の誤差、振動の影響、カメラと撮影対象との間にある障害物(樹、人影等)、撮影対象に対する姿勢の違い等の要因により、カメラ毎に異なる誤差が存在する。そこで、ステップS108において、この誤差の影響を考慮したデータの調整を行った上で、各カメラから得られたデータを統合的に扱える状態とする。
【0077】
以下、ステップS108の詳細について説明する。ステップS108では、各カメラから得られた撮影対象物の特徴点の3次元座標のデータとステップS107で算出した外部標定要素を統合中心におけるものに変換した値に対して、バンドル調整を行う。バンドル調整は、異なる撮影位置で撮影された複数の画像を用いて各カメラの位置および姿勢の算出を行う際における算出精度を高めるために行われる最適化処理である。
【0078】
バンドル調整では、測定対象物の特徴点、フレーム画像(写真画像)上の点、投影中心の3点を結ぶ光束(バンドル)が同一直線上になければならないという共線条件に基づき、各画像の光束1本毎に観測方程式を立て、最小二乗法によって同時調整が行われ、各カメラの外部標定要素および測定対象物の特徴点の三次元座標の最適化が図られる。ここでは、バンドル調整を行う際に、各カメラからのデータの精度を反映させた重み係数を導入し、カメラ毎に重み付けを行った状態でバンドル調整を行う。バンドル調整に重み付けの概念を導入することで、重み付けを与えた状態で各カメラから得られたデータを統合し、各カメラの精度を反映させた統合データを得ることができる。
【0079】
以下、複数のカメラ毎に重み付けを設定し、それらを統合的に扱う手法の原理について説明する。まず、説明を簡単にするために、n個あるカメラそれぞれの外部標定要素に重み付けを行い、それを統合的に扱う場合の例を説明する。
【0080】
ここでは、相対位置関係が判明しているカメラがn個あるとする。例えば、車両に固定されたn個のカメラを想定する。ここで、統合中心O
cの外部標定要素を(X
c,Y
c,Z
c,ω
c,φ
c,κ
c)とする。統合中心は、統合座標の原点の位置のことである。そして、カメラ1から求めた統合中心の外部標定要素が、O
c1(X
c1,Y
c1,Z
c1,ω
c1,φ
c1,κ
c1)であり、カメラnから求めた統合中心の外部標定要素が、O
cn(X
cn,Y
cn,Z
cn,ω
cn,φ
cn,κ
cn)であるとする。カメラ1から求めた統合中心の外部標定要素というのは、カメラ1のオフセット位置やオフセット角度を考慮して、カメラ1の外部標定要素から、統合中心の位置と姿勢(つまり、車両の位置と姿勢)を算出した値である。
【0081】
例えば、各カメラからのデータの信頼性が同じである場合、n個のカメラを統合的に捉えた統合中心における平均の外部標定要素(統合した外部標定要素)は、各カメラの外部標定要素を均等に分配した単なる平均値として求められる。しかしながら、カメラ1の精度は相対的に高いが、カメラ2の精度は相対的に低い、といった場合、単に平均をとるだけでは、カメラ2の低精度の影響が大きく影響し、統合した値の誤差が増大する。この場合、相対的に精度の高いカメラ1の寄与が大きく、相対的に低精度のカメラ2の寄与を小さくする仕組みを導入することで、精度の低下を抑えつつ、カメラ2の情報を無視することなく取り込むことができる。
【0082】
そこで、上述した各カメラの統合中心における外部標定要素に重み付けを行い、統合中心における統合された外部標定要素への寄与が、各カメラの精度を反映したものとなるようにする。すなわち、まず、各カメラに与えられる重み係数をW(=1/σ
2)とする。重み係数Wは、精度を示すパラメータであり、最大値は、W=1である。例えば、誤差がなく精度が100%信頼できる場合の重み係数は、W=1である。また、例えば、誤差がそれなりにあり、精度が80%信頼できる変数に対する重み係数は、W=0.8である。
【0083】
そして、カメラ毎の外部標定要素に、重み係数W(W
Xn,W
Yn,W
Zn,W
ωn,W
φn,W
κn)をつける。ここで、各カメラの重みを反映した統合中心におけるn個のカメラの外部標定要素を統合した値X
cは、数13で表される。なお、ここでは、重み係数Wが、予め設定された値を用いる場合を説明するが、後述する方法により演算により推定することも可能である。
【0084】
【数13】
【0085】
X
cの具体的な一例を説明する。まず、精度の異なる2台のカメラ1およびカメラ2を考える。そして、カメラ1から求めた統合中心の外部標定要素X
1を考え、その重み係数がW
X1であるとする。また、カメラ1から求めた統合中心の外部標定要素X
2を考え、その重み係数がW
X2であるとする。この場合、数13から、重み付けを考慮した統合中心における外部標定要素X
Cは、数14となる。
【0086】
【数14】
【0087】
例えば、仮にカメラ1の誤差は考慮しなくてよく、それに対してカメラ2の誤差が無視できず、W
X1=1,W
X2=0.5と設定されているとする。つまり、カメラ2に誤差があるので、その誤差を勘案して、重み係数をカメラ1の場合に比較して半分の値に設定するとする。この場合、数14は、数15となる。
【0088】
【数15】
【0089】
これは、カメラ1とカメラ2の外部標定要素に基づく、重み付けを考慮した統合中心における外部標定要素X
Cの算出において、カメラ2の外部標定要素よりもカメラ1の外部標定要素がより優先して反映されることを示している。こうして、誤差を考えなくてよいカメラ1の寄与が大きく、誤差があるカメラ2の寄与が小さくなる状態で、平均値を求める演算が行われ、統合中心における統合された外部標定要素X
Cの算出が行われる。
【0090】
以上が重み付けを用いて複数のカメラから得たデータを統合する方法の基本的な考え方である。上述の場合、説明を簡単にするために外部標定要素のみを対象としているが、実際には外部標定要素以外に、各カメラが取得した撮影対象物の特徴点の3次元座標に係る値においてもカメラ毎の重みが考慮され、同様の演算が行われる。以下、この場合の一例を説明する。まず、統合中心の座標系に座標変換した各カメラに係る単写真標定における共線条件の基本式は、下記の数16によって示される。
【0091】
【数16】
【0092】
ここで、写真は、フレーム画像に対応し、写真座標はフレーム画像中の画像座標に対応する。数16は、外部標定要素や地上座標値に対して線形でないので、テーラー展開を用いて近似値のまわりに展開し、高次項を無視して線形化し、繰り返しの計算によって解を求める手法が採用される。この際、未知変量に対する近似値を右上に添字「a」を付与して示し、また、近似値に対する補正量をv,δ、Δを付して、下記数17に示すように表現する。ここで、v
x,v
yは観測された写真座標x
a,y
aの残差を意味する。
【0093】
【数17】
【0094】
数17をテーラー展開し、線形化すると、数18が得られる。
【0095】
【数18】
【0096】
数18を単純化するためにマトリックスを用いて表現すると、数19のように書ける。
【0097】
【数19】
【0098】
数19はさらに、数20のように書ける。
【0099】
【数20】
【0100】
数19および数20は、複数のカメラが撮影した動画を構成するフレーム画像上における複数の特徴点に対する線形化された共線条件式であり、個々のフレーム画像上の特徴点の観測値に対する線形化された観測方程式である。なお、数20における(2,1)、(2,5)等の表記は、マトリックスの行と列の大きさを示している。
【0101】
数19および数20において、各カメラに与えられた重みは考慮されていない。ここで、対象とするカメラがn個あるとして、カメラの重み係数Wを数20の各項に掛け、数21を得る。この重み付けを行う処理は、重み係数付与部207において行われる。W
iおよびW
ijは、カメラ毎に設定されている重み係数である。
【0102】
【数21】
【0103】
数21は、数20で示される線形化された共線条件式に各カメラに設定された重みを付けたものである。数21は、概念的に下記数22のように表すこともできる。
【0104】
【数22】
【0105】
カメラがn個ある場合、上記の数21をn個連立してバンドル調整を行う。この際逐次近似解法を用いる。すなわち、最小二乗法により補正量を求め、求めた補正量によって近似値を補正し、同様の操作を繰り返し、収束解を求める。この際、数13に関連して説明した方法により、重みを反映させた平均値を求める演算が行われる。こうして、重み付けがされたn個のカメラの情報を勘案した統合中心の座標で捉えた写真iの外部標定要素(X
0,Y
0,Z
0,ω,φ,κ)の統合値、および対応する特徴点の地上座標の値(X,Y,Z)の統合値が算出される。
【0106】
ここで得られる統合値は、複数のカメラから得られたデータを、各カメラに与えられた重みを反映させた状態で、平均化(加重平均)したもので、単なる平均値ではなく、各カメラの寄与率が反映されたものとなっている。この演算によれば、各カメラの精度(誤差要因)に対応した寄与率を重み付けによって設定することで、各カメラから得られた測定値を統合的に取り扱う際に、相対的に精度の高いカメラに基づく測定値の寄与率を相対的に高くし、相対的に精度の低いカメラに基づく測定値の寄与率を相対的に低くすることができる。このため、精度の低いカメラの影響により、統合的に取り扱われた際に測定値に生じる誤差の発生を抑えつつ、当該精度の低いカメラが撮影した画像に基づくデータを統合データに取り込むことができる。
【0107】
統合したデータを得たら、それを適当な記憶領域に記憶し(ステップS109)、ステップS110以下の次のサイクルの処理を開始する。ステップS110以下では、基本的にステップ101〜ステップS109の処理が繰り返される。
【0108】
ステップS110では、2フレーム目と3フレーム目におけるカメラの外部標定要素(カメラの位置と姿勢)が取得される。ここで、2フレーム目における外部標定要素は、初期値としてステップS102において与えられており、3フレーム目における外部標定要素は、ステップS107において演算により求められている。
【0109】
例えば、2順目の処理サイクルのステップS110の処理においては、その時点で(n−1)=3フレーム目、および(n−2)=2フレーム目の当該カメラの外部標定要素は既知であるので、それが取得される。そして、3順目の処理サイクルでは、ステップS110に対応する処理において、その時点で既知である(n−1)=4フレーム目および(n−2)=3フレーム目の外部標定要素が取得される(4フレーム目の外部標定要素は、2順目のステップS106に対応する処理で算出されている)。こうして、nフレーム目の外部標定要素の算出を行うサイクルにおけるステップS110に対応する処理において、(n−1)フレーム目および(n−2)目の外部標定要素の取得が行われる。
【0110】
また、ステップS110の後に行われるステップS103に対応する処理(図示せず)において、処理の対象とするフレーム画像中から新たな特徴点の抽出が行われる。また、ステップS112の後に行われるステップS103およびステップS104に対応する処理では、3フレーム目とその前の2フレーム目のフレーム画像中において新たに現れた特徴点の抽出および追跡が行われる。例えば、1フレーム目では現れておらず、2フレーム目と3フレーム目において新たに現れた特徴点の抽出が行われ、更にそれらの対応関係が特定される処理が行われる。そして、ステップS105以下の処理に対応する処理が繰り返される。
【0111】
以下、2フレーム目と3フレーム目において新たに現れ、抽出および追跡がされた特徴点の3次元座標を算出する手順の例を説明する。この場合、
図6における左側の座標О
1が2フレーム目のカメラ位置となり、右側の座標О
2が3フレーム目のカメラ位置となる。ここで、2フレーム目のフレーム画像のカメラの投影中心O
1の座標(X
01,Y
01,Z
01)およびカメラ座標軸の傾き(ω
1,φ
1,κ
1)は、既にステップS102において取得され既知である。また、3フレーム目のフレーム画像のカメラの投影中心O
2の座標(X
02,Y
02,Z
02)およびカメラ座標軸の傾き(姿勢)(ω
2,φ
2,κ
2)は、ステップS106において既に算出され既知である。また、内部標定要素(焦点距離、主点位置、レンズ歪係数)も既知である。また、2フレーム目のフレーム画像中における画像座標p
1と3フレーム目のフレーム画像中における画像座標p
2は、各フレーム画像から求めることができる。したがって、2フレーム目と3フレーム目において新たに現れ、抽出および追跡がされた特徴点、および再抽出された特徴点の3次元座標Pを求めることができる。これは、3順目以降の処理サイクルにおいても同じである。
【0112】
すなわち、4フレーム目以降における特徴点の3次元座標を算出する手順では、
図6における左側の座標О
1が(n−2)フレーム目のカメラ位置となり、右側の座標О
2が(n−1)フレーム目のカメラ位置となる。ここで、(n−2)フレーム目のフレーム画像のカメラの投影中心O
1の座標(X
01,Y
01,Z
01)およびカメラ座標軸の傾き(ω
1,φ
1,κ
1)、および(n−1)フレーム目のフレーム画像のカメラの投影中心O
2の座標(X
02,Y
02,Z
02)およびカメラ座標軸の傾き(姿勢)(ω
2,φ
2,κ
2)は、既知である。また、内部標定要素(焦点距離、主点位置、レンズ歪係数)も既知である。また、(n−2)フレーム目のフレーム画像中における画像座標p
1と(n−1)フレーム目のフレーム画像中における画像座標p
2は、各フレーム画像から求めることができる。したがって、(n−2)フレーム目と(n−1)フレーム目における特徴点の3次元座標Pを求めることができる。
【0113】
ステップS110の後に行われるステップS106に対応する2サイクル目の処理では、後方交会法によって4フレーム目におけるカメラの外部標定要素(位置と姿勢)を算出する。後方交会法としては、単写真標定、DLT法、相互標定があり、その何れを使用してもよい。以下、相互標定を利用して4フレーム目におけるカメラの外部標定要素(位置と姿勢)を算出する場合の例を説明する。
【0114】
この場合、数8〜数11および
図8に示す相互標定によって、4フレーム目におけるカメラの外部標定要素の算出が行われる。相互標定は、左右2枚の画像における6点以上の対応点によって外部標定要素を求める方法である。この際、例えば左画像が3フレーム目のフレーム画像に当たり、右画像が4フレーム目のフレーム画像に当たる。ここで、3フレーム目の外部標定要素は既知であり、複数ある特徴点の3次元座標も既知である。また、2つのフレーム画像中における特徴点の画像座標は、それぞれのフレーム画像から得ることができる。よって、未知数となる4フレーム目の外部標定要素を算出することができる。これは、3順目以降の処理サイクル(例えば、5フレーム目や6フレーム目におけるカメラの外部標定要素の算出の場合)においても同じである。
【0115】
例えば、4フレーム目以降におけるカメラの外部標定要素の算出を
図8の相互標定により行う場合、例えば左画像が(n−1)フレーム目のフレーム画像に当たり、右画像がnフレーム目のフレーム画像に当たる。ここで、(n−1)フレーム目の外部標定要素は既知であり、複数ある特徴点の3次元座標も既知である。また、2つのフレーム画像中における特徴点の画像座標は、それぞれのフレーム画像から得ることができる。よって、未知数となるnフレーム目の外部標定要素(カメラの位置と姿勢)を算出することができる。
【0116】
このように、一連の処理が繰り返し行われることで、(n+1)フレーム目、(n+2)フレーム目、(n+3)フレーム目(n:自然数)を対象とした処理により、(n+1)フレーム目および(n+2)フレーム目で撮影した画像中の特徴点の3次元座標の算出、および(n+3)フレーム目における各カメラの外部標定要素の算出が逐次行われる。また、各処理のサイクルにおけるステップS108に対応する処理において、複数のカメラ毎に設定された重みを考慮したバンドル調整が行われ、各カメラから得られた撮影対象の特徴点の統合座標における3次元座標のデータと、各カメラから得られた統合中心における外部標定要素のデータが統合される。
【0117】
上述した繰り返し行われる統合中心における外部標定要素の算出が行われることで、車両100の位置が刻々と算出される。つまり、
図3の処理を利用して、移動する車両100の位置情報の算出を行うことができる。また、算出された位置の変化から車両100の速度を算出することができる。
【0118】
(優位性)
以上述べた手法によれば、精度の異なる複数の撮影手段を用いて算出した撮影対象の特徴点の3次元座標の値と各撮影手段の外部標定要素とを各撮影手段の精度を反映させた形で統合して扱うことができる。この技術を用いると、複数のカメラを用いて、車両から見える周囲の景観等の画像の3次元データ化が全周カメラを用いずに可能となる。また、全周カメラでは取得が困難な車両周囲の景観の3次元データを得ることができる。
【0119】
2.第2の実施形態
ステップS108において、カメラの撮影データ以外に由来する計測値を更に統合するデータに加えることもできる。以下、この一例を説明する。
図1に示す構成では、車両100の加速度が加速度計106で計測され、傾斜が傾斜計107で計測され、位置がGPS装置108により計測される。例えば、傾斜計107の計測値は、外部標定要素の姿勢に係るデータとなる。よって傾斜計107が計測した車両100の傾斜データを数21に取り込むことができる。この際、傾斜計107およびGPS装置108の精度を考慮した重みを傾斜計107とGPS装置108に設定し、数21の該当する部分に測定値を取り込む。こうすることで、傾斜計107が計測した車両100の傾斜データを統合したデータに取り込むことができる。
【0120】
また、GPS装置108あるいはGPS装置108と加速度計106の測定データから、車両100の位置を求め、それを数21の位置のデータの部分に取り込むことで、統合したデータに加速度計106とGPS装置108の計測値を反映させることができる。
【0121】
3.第3の実施形態
ステップS108において、レーザースキャナ109が測定した測定対象物の3次元点群位置データを取り込むこともできる。この場合、レーザースキャナ109が測定した測定対象物の3次元点群位置データとその姿勢のデータが数21に取り込まれる。この際もレーザースキャナ109に係るデータに重み付けを行い、その精度を考慮した状態で数21への取り込みを行う。
【0122】
4.第4の実施形態
この例では、ステレオペア画像を得る手段として、異なる2つの視点から2つの動画像を撮影するステレオカメラを用いる。なお、動画撮影が可能なステレオカメラが複数あるカメラの一部のカメラのみであってもよいし、複数ある全てのカメラであってもよい。また、2つのカメラを組みとして、ステレオペア画像を得る手段を構成してもよい。この例の場合、
図2に示す構成は、
図2に関連して説明した機能に加えて、ステレオペア画像を対象とした処理を行なう。なお、ステレオカメラを構成する左右のカメラの相対位置と姿勢の関係は、設定値として既知であるとする。
【0123】
この例では、まずカメラからステレオペア動画像のデータを取得する。このステレオペア動画像は、右画像取得用のカメラからの動画像と、左画像取得用のカメラからの動画像とにより構成される。ここで、左右の動画像は、時系列を追って連続して撮影された複数のフレーム画像により構成されている。次いで、取得したステレオペア動画像の中の2フレーム目の左右のステレオペア画像のそれぞれから特徴点の抽出を行い、更に2フレーム目における左右のステレオ画像から抽出した特徴点の対応関係を特定する。
【0124】
ここで、ステレオカメラを構成する左右のカメラの位置関係と姿勢の関係は既知であるので、
図6に示す原理を用い、特定した特徴点の3次元座標の算出が行われる。他の処理は、第1の実施形態の場合と同じである。
【0125】
5.第5の実施形態
重み係数、つまり特定のカメラや計測装置の観測値の精度を他の機器の観測値から演算により推定することもできる。以下、その一例を説明する。ここでは、GPS装置と1台のカメラを考え、GPS装置の計測値を用いて、当該カメラの重みを推定する処理の一例を説明する。
図9は、特定のカメラや計測装置の観測値の精度を他の機器の観測値から演算により推定する処理の一例を説明するフローチャートである。
図9に示す処理は、
図2の重み係数推定部209において実行される。
図9のフローチャートを実行するためのプログラムは、画像データ処理装置200が備える適当なメモリ領域に格納され、画像データ処理装置200が備えるCPUによって読み取られて実行される。なお、
図9のフローチャートを実行するためのプログラムを外部の適当な記憶媒体に格納し、そこから画像データ処理装置200に提供される形態も可能である。
【0126】
ここでは、
図1のGPS装置108と景観観察用カメラ1(103)に係り、GPS装置108の計測値を利用して、景観観察用カメラ1(103)の重み係数を推定する処理の一例を説明する。また、取得する位置情報において、その精度(例えば、誤差10cmといった情報)と、当該機器に与えられる重み係数との関係は予め既知であるとする。
【0127】
図9の処理が開始されると、GPS装置108からf−nフレーム目におけるGPS装置108の位置と精度を取得する(ステップS301)。ここで、精度というのは、GPS装置から得られる計測データの精度である。GPS装置は、補足したGPS衛星の数、信号のデコード状態、衛星から受信した信号の種類等に基づき、自身が出力する位置情報の精度に係る信号を出力する機能を有している。ステップS301では、この機能を利用して、GPS装置108から取得したf−nフレーム目の位置情報の精度に係る情報を位置情報と共に取得する。なお、nは、例えばn=3〜10程度が採用される。
【0128】
次に、景観撮影用カメラ1(103)が撮影した(f−n)フレーム目からfフレーム目までの画像を取得し、これらの画像から撮影対象物の特徴点を抽出し、更に各フレームにおける特徴点の対応する点(対応点)を取得する(ステップS302)。この処理は、
図3のステップS103,ステップ104で行った処理と同じである。次に、景観撮影用カメラ1(103)の仮の精度を設定(仮設定)する(ステップS303)。例えば、精度が分っているGPS装置108と同じ精度に仮設定を行う。
【0129】
次に、ステップS302で取得した対応点に基づくfフレーム目における景観撮影用カメラ1(103)の位置Xf
1の算出を、カルマンフィルタを用いて行う(ステップS304)。この処理では、景観撮影用カメラ1(103)が撮影した複数のフレーム画像に写った撮影対象物の特徴点の3次元座標から、景観撮影用カメラ1(103)の外部標定要素を求める処理、すなわち
図3のステップS105,S106で用いた手法により、景観撮影用カメラ1(103)の位置Xf
1を算出する。この際、カルマンフィルタを用いて、ステップS303で仮設定した精度を反映した景観撮影用カメラ1(103)の位置の確率分布をXf
1として求める。なお、景観撮影用カメラ1(103)の姿勢に関する初期値は、他の機器の情報から得られているものとする。
【0130】
なお、カルマンフィルタを用いると、計算結果はガウス分布となる。これに対して、後述するパーティクルフィルタを用いると、値の候補が複数個ある、という結果が得られる。勿論、カルマンフィルタとパーティクルフィルタはどちらを使っても、あるいは両方組み合わせて使っても良いが、線形計算できる(共線条件式により)3次元座標値に対してはカルマンフィルタを、非線形計算となるカメラの位置に対してはパーティクルフィルタを用いるのが適当である。
【0131】
ステップS304の後、GPS装置108の計測値からfフレーム目における位置(GPS装置108の位置)と、この位置情報の精度を取得する(ステップS305)。そして、ステップS305で取得したGPS情報に基づき、fフレーム目における景観撮影用カメラ1(103)の位置Xf
2を、パーティクルフィルタを用いて算出する(ステップS306)。この際、GPS装置108と景観撮影用カメラ1(103)の位置関係が既知であるので、この位置関係を勘案してXf
2の算出が行われる。
【0132】
そして、Xf
1とXf
2の差を評価し、その差が最小であるか否か、の判定が行われる。実際には、ステップS303〜S306処理を複数サイクル行い、Xf
1とXf
2の差が小さくなるようにステップS303で仮設定した景観撮影用カメラ1(103)の仮設定精度を少しずつ変化させ、Xf
1とXf
2の差が極小値であるか否か、がステップS307において判定される。ここで、Xf
1とXf
2の差は、Xf
1とXf
2の分布がピークを示す位置の差として求められる。
【0133】
Xf
1とXf
2の差の最小値が得られた場合、その際における景観撮影用カメラ1(103)の仮設定精度が推定された適正な精度(推定精度)として取得される(ステップS308)。そして、ステップS308で取得した景観撮影用カメラ1(103)の推定精度と、ステップ305で取得したGPS情報の精度とに基づいて、景観撮影用カメラ1(103)の重み係数の推定値を算出する(ステップS309)。
【0134】
すなわち、精度が定量的な値として得られれば、精度と当該機器に与えられる重み係数との関係は予め既知であるので、ステップS308で算出した推定精度に対応する重み係数を算出することができる。
【0135】
そして、まだ処理すべきフレームがあるか否か、が判定され(ステップS310)、処理すべきフレームがあれば、ステップS301以下の処理が再度実行され、新たなfフレーム目を対象とした処理が行われる。また、処理すべきフレームがなく、最終フレームである場合、処理を終了する。
【0136】
ステップS307の判定は、最小値であるか否か、を判定するのではなく、Xf
1とXf
2の差が予め定めた閾値を下回ったか否か、を判定する内容であってもよい。
【0137】
ここでは、GPSを用いてカメラの重みを推定する例を説明したが、位置情報を得ることができ、更にその精度が分る機器であれば、GPS以外の機器を用いることもできる。このような機器としては、タイヤの回転から位置情報を追尾するオドメータや車両の通過時に位置情報を車両に与えるマーカーを検出する位置検出装置等を挙げることができる。
【0138】
また、精度が分っている第1のカメラと精度が分っていない(あるいは撮影対象の性質により、精度が変動する)第2のカメラを対象とし、第1のカメラが撮影した動画に基づく車両の位置情報(本実施形態のGPS位置情報に該当)を基準とし、第2のカメラの精度を推定する手法も可能である。
【0139】
(その他)
外部から与えられる情報に基づいてカメラの位置(車両100の位置)を特定する手段として、GPS以外に(あるいはGPSに加えて)道路沿いや路面に設けられた光ビーコンや電波ビーコンの情報から位置情報を得る手段を利用することもできる。
【0140】
実施形態では、移動体として道路上を走る車両を一例として挙げたが、移動する場所は道路に限定されない。例えば、工事用車両や道路でない場所を走行する車両に本発明を適用することができる。また、移動体は、車両に限定されず、船舶、航空機、移動可能なロボット等であってもよい。