【実施例1】
【0014】
本実施例は、本発明を、車両に設置されたカメラのキャリブレーションを行うカメラキャリブレーション装置に適用したものである。
(カメラキャリブレーション装置の構成の説明)
【0015】
まず、
図1を用いて、本発明の一実施形態であるカメラキャリブレーション装置の構成を説明する。
図1は、本実施例に係るカメラキャリブレーション装置10を車両Vに実装した様子を示す図である
【0016】
カメラキャリブレーション装置10は車両Vのルームミラー12の裏側付近に、車両Vの外側に向けて設置された撮像部30と、フロントガラス20(ウインドシールド)の外表面に貼り付けられた、視標24a,24b,24c,24dが印刷または貼り付けられた透明フィルム22を備えている。
【0017】
撮像部30は、CCDやCMOS等の撮像素子32(
図3)を有している。なお、撮像素子32の具体的な構成は後述する。
【0018】
透明フィルム22は、フロントガラス20(ウインドシールド)と同様の分光透過特性を有しており、その表面に4つの視標24a,24b,24c,24dが描かれている。
【0019】
4つの視標24a,24b,24c,24dは同じ大きさを有する必要はないが、近赤外光(例えば750〜850nmの光)の透過特性が、フロントガラス20(ウインドシールド)の近赤外光の透過特性とは異なる特性を有している。すなわち、フロントガラス20の近赤外光の透過率が100%であるときには、視標24a,24b,24c,24dは、ともに近赤外光を遮断する(透過しない)分光透過特性を有しているものとする。そして、この4つの視標24a,24b,24c,24dは、全て撮像部30の撮影視野の中に収まっている。以下、この4つの視標24a,24b,24c,24dを総称して、単に視標24と呼ぶ。視標24の具体的な形状については後述する。
【0020】
撮像部30は、具体的には、車両Vの外部の様子を録画するドライブレコーダの撮像部、あるいは、車両前方のレーンマーカの位置を検出して、車両Vの車線からのはみ出しを警告する車線逸脱警報装置等の各種アプリケーションに用いられる。ただし、本発明の内容は、撮像部30の具体的用途には何ら制限を与えるものではない。
【0021】
図2(a),(b)は、撮像部30の詳細な取り付け状態を示す図である。
図2(a)は、車両Vを正面から見た図である。フロントガラス20(ウインドシールド)の外表面には、透明フィルム22が貼り付けられている。この透明フィルム22は、撮像部30の撮像視野を包含する位置に貼り付けられている。そして、この透明フィルム22には、視標24(24a,24b,24c,24d)が、印刷または貼り付けられている。なお、透明フィルム22は、前述したようにフロントガラス20と同様の分光透過特性を有しているため、透明フィルム22を貼り付けたことによる、撮像部30で撮像された画像への影響はない。
【0022】
なお、この視標24(24a,24b,24c,24d)は、近赤外光の透過特性のみがフロントガラス20(ウインドシールド)と異なるため、運転者が見る限りはその存在を確認することができない。したがって、フロントガラス20を製造する際に、視標24をガラスの内部に埋め込んで製造してもよい。そして、この場合には、フロントガラス20の近赤外光の透過率をほぼ0として、視標24の近赤外光の透過率をほぼ100%としてもよい。
【0023】
撮像部30の撮像視野は、フロントガラス20(ウインドシールド)の表面上で、透明フィルム22の内側に、
図2(a)に示す領域R1の範囲になるように設定されている。また、撮像部30を用いるアプリケーションは、領域R1よりも内側の領域R2の範囲の画像情報を活用するように設定されている。
【0024】
そして、全ての視標24(24a,24b,24c,24d)は、領域R1の内部で、なおかつ、領域R2の外周よりも外側の領域に映るような位置に設置されている。
【0025】
図2(b)は、
図2(a)を矢印Eの方向から見た側面図である。
図2(b)に示すように、撮像部30は、車両Vのフロントガラス20(ウインドシールド)の裏面側に、カメラ固定部26を介して設置されている。そして、撮像部30はルームミラー12の裏側付近に位置するように固定されて、車両Vの運転者の視界に入らないように設置される。
(カメラキャリブレーション装置の機能構成の説明)
【0026】
図3は、本実施例に係るカメラキャリブレーション装置10の機能構成を示す機能ブロック図である。
【0027】
カメラキャリブレーション装置10は、車両Vに搭載されて、
図3に示すように、フロントガラス20(ウインドシールド)の内側から車両Vの外部を監視する撮像部30と、画像処理プロセッサ40と、撮像された画像の中で視標24が本来観測される位置とキャリブレーションによって得られた補正データを記憶しておく補正データ記憶部60と、キャリブレーションの開始指示や、撮像部30で撮像された画像を用いた具体的なアプリケーションを実行するマイコン70と、からなる。
【0028】
フロントガラス20(ウインドシールド)には、前述したように、視標24(24a,24b,24c,24d)が埋め込まれており、フロントガラス20は近赤外光をカットする分光透過特性を有し、視標24は近赤外光を透過する分光透過特性を有しているものとする。
【0029】
撮像部30は、撮像素子32と複数の近赤外受光素子34a,34b,34c,…を備えている。なお、以後、特に断りのない限り近赤外受光素子34a,34b,34c,…を総称して近赤外受光素子34と呼ぶ。撮像素子32の詳細な構造については後述する。
【0030】
画像処理プロセッサ40は、撮像された画像の中から、全ての視標24(24a,24b,24c,24d)を検出して、その位置を計測する。また、撮像された画像の中で視標24が本来観測される位置からずれて観測されたときには、画像の幾何学的な補正を行って、視標24が所定の位置に観測された画像を生成する。この画像処理プロセッサ40は、具体的には集積回路であるASIC(Application Specific Integrated Circuit)で構成されている。
【0031】
画像処理プロセッサ40は、画像入力部42と、近赤外画像選択部44と、カラー画像選択部46と、視標位置計測部48と、視標位置比較部50と、画像補正部52と、を有する。
【0032】
画像入力部42は、撮像部30に対して撮像を行うタイミングを指示するとともに、撮像部30で撮像された出力信号から近赤外信号を分離し、さらに、色信号を生成する。
【0033】
近赤外画像選択部44は、画像入力部42で生成された近赤外信号を選択して出力する。
【0034】
カラー画像選択部46は、画像入力部42で生成された色信号を選択して出力する。
【0035】
視標位置計測部48は、近赤外画像選択部44から出力された近赤外信号の中から、全ての視標24(24a,24b,24c,24d)を検出して、その中心位置を計測する。
【0036】
視標位置比較部50は、視標位置計測部48で計測された全ての視標24の中心位置と、視標24が本来観測される位置とを比較する。なお、視標24が本来観測される位置は、補正データ記憶部60の内部に、予め記憶されている。
【0037】
画像補正部52は、撮像された画像の中に映った視標24の位置が、本来観測される視標24の位置からずれていたときに、補正データ記憶部60に記憶された補正データを用いて、視標24が本来観測される位置に映るように、画像を幾何学的に補正する。詳しい補正方法については後述する。
【0038】
マイコン70は、キャリブレーション開始指示部72と、アプリケーション実行部74と、を有する。
【0039】
キャリブレーション開始指示部72は、操作者、あるいはアプリケーションに組み込まれたプログラムの指示を出力して、画像入力部42に対してキャリブレーションの開始を指示する。
【0040】
アプリケーション実行部74は、撮像部30で撮像された画像を活用する、前述した各種アプリケーションを実行する。なお、アプリケーションの内容によって、複雑な画像処理を行う必要がある時や、特に処理の高速化が必要な時には、画像処理プロセッサ40が利用される。
(撮像素子の構造の説明)
【0041】
次に、撮像素子32の具体的な構造について、
図4(a),(b)を用いて説明する。
図4(a)は、撮像素子32の各画素に対応する受光素子の上部に設置された色フィルタの配列例を示す図である。
図4(a)に示すように、撮像素子32を構成する各受光素子の上部には、色フィルタである、赤色フィルタR,緑色フィルタG,青色フィルタBが、所謂ベイヤー配列の規則に則って設けられている。そして、緑色フィルタGの一部が、可視光から近赤外光(例えば850nm)までを透過する近赤外透過フィルタCに置き換えられている。このうち、近赤外透過フィルタCが設けられた画素が、前述した近赤外受光素子34(34a,34b,34c,…)であり、
図4(a)にはその一例として、近赤外受光素子34a〜34dを示している。
【0042】
図4(b)は、
図4(a)を切断線A−Aで切断した断面図を示す。
図4(b)に示すように、撮像素子32は、その底部に設けられた受光素子36の上部に、前述した各フィルタ(R,G,B,C)が設けられて、さらにその上部に、所定波長以上の赤外線(例えば900nm以上)および、可視光領域と近赤外領域の間(例えば650〜830nm)を遮断するIRカットフィルタ38が設けられている。
(フィルタの分光感度特性の説明)
【0043】
次に、撮像素子32に設けられる各フィルタの分光感度特性について、
図5を用いて説明する。
図5は、
図4(a)に示した各フィルタの分光感度Sを示したものである。赤色フィルタR,緑色フィルタG,青色フィルタBは、それぞれの色に対応する波長の光のみを透過する特性を有している。
【0044】
なお、各色フィルタの感度の最大値は、実際にはそれぞれ異なっているが、説明をわかりやすくするため、
図5では、赤色フィルタR,緑色フィルタG,青色フィルタBの感度の最大値が等しくなるように描いている。
【0045】
ここで、近赤外透過フィルタCは、可視光に加えて近赤外光にも感度を有している。したがって、近赤外透過フィルタCを備えた近赤外受光素子34(34a,34b,34c,…)は、赤色フィルタR,緑色フィルタG,青色フィルタBでは検出できない近赤外光に対しても感度を有している。
(キャリブレーション方法の説明)
【0046】
次に、具体的なキャリブレーションの方法について、
図6,
図7,
図8を用いて説明する。
図6(a)は、撮像部30によって、視標24(24a,24b,24c,24d)があるべき位置に撮影された状態を示す画像Iの一例である。
図6(a)は、視標24aの中心位置が点C1に観測されて、視標24bの中心位置が点C2に観測されて、視標24cの中心位置が点C3に観測されて、視標24dの中心位置が点C4に観測されることを示している。
【0047】
図6(b)は、撮像部30によって、視標24(24a,24b,24c,24d)が実際に撮影された状態を示す画像I’の一例である。前述したように、フロントガラス20(ウインドシールド)(
図1)と視標24は近赤外光の透過率が大きく異なるため、視標24は画像I’の中で、周囲と比較して高いコントラストを有して画像化される。なお、このとき、視標24が周囲と比較して明るく観測されるか、暗く観測されるかは、フロントガラス20における近赤外光の分光透過率と、視標24における近赤外光の分光透過率の大小関係による。
【0048】
そして、撮像部30の取り付け誤差の発生や、車両Vの走行中の振動による撮像部30の位置ずれの発生、また、撮像部30が備えた光学系を構成するレンズの歪等によって、撮像された画像I’の中に映る視標24の位置は、本来観測される位置からずれを生じる。
図6(b)は、視標24aの中心位置が点D1に観測されて、視標24bの中心位置が点D2に観測されて、視標24cの中心位置が点D3に観測されて、視標24dの中心位置が点D4に観測されることを示している。
【0049】
なお、視標24には、例えば、
図6(c)に示す形状のマーカを用いる。すなわち、視標24は、2つの矩形領域が互いを2等分するように直交した十字形状をなしている。各矩形領域は幅aを有しており、2つの矩形領域が直交した状態で、長さbの部分が上下左右に突出している。ここで、矩形領域の幅aは、視標24を撮像部30で撮像して画像化したときに、矩形領域の幅aに対応する部分の長さが、画像上において奇数画素で観測されるように設定するのが望ましい。これは、正確なキャリブレーションを行うためには、画像上に映った視標24の像の中心位置をできるだけ正確に計測する必要があるためである。
【0050】
そして、視標24の中心位置を計測するため、使用する視標24を全て同じ大きさにする必要はない。すなわち、例えば、撮像部30から遠い位置に配置される視標24(例えば、
図2(b)の視標24c)は、撮像部30に近い位置に配置される視標24(例えば、
図2(b)の視標24a)に比べて大きいサイズとするのが望ましい。
【0051】
撮像部30で撮像された画像I’の中から、既存の画像処理手法を組み合わせて、視標24(24a,24b,24c,24d)を検出する。具体的には、撮像された画像I’の領域R1と領域R2の差分領域に対してエッジ成分を強調して、強調されたエッジ成分に囲まれた領域を検出する。もしくは、画像I’の領域R1と領域R2の差分領域を所定のしきい値で2値化して、領域を検出する。このようにして検出された領域の中から、テンプレートマッチング等の手法によって、十字形状と類似した形状を有する領域のみを選択する。このようにして選択された領域が、視標24に対応する領域となる。
【0052】
なお、視標24に対応する領域を検出する方法は、前述した方法に限定されるものではなく、適宜、適切な画像処理方法を組み合わせて適用すればよい。
【0053】
次に、選択された領域の各々について、それぞれの領域の中心位置を計測する。検出された視標24(24a,24b,24c,24d)に対応する領域の中心位置を計測するには様々な方法が考えられるが、そのいずれを適用してもよい。例えば、選択された領域の各々に対して、その面積重心位置を算出し、領域の中心位置とすることができる。
【0054】
図7は、画像Iの中から視標24の中心位置を計測した結果と、画像I’ の中から視標24の中心位置を計測した結果と、を1枚の画像に合成した様子を示す。
【0055】
すなわち、
図7は、点C1(C1x,C1y)の位置に観測されるべき視標24aが、実際には点D1(D1x,D1y)の位置に観測されて、矢印P1で示す位置ずれが生じることを示している。そして、この位置ずれの大きさと方向は、矢印P1のベクトル成分である(Δx1,Δy1)で表される。ここで、Δx1は横方向の位置ずれ量であり、
図7の場合はΔx1=D1x−C1xである。また、Δy1は縦方向の位置ずれ量であり、
図7の場合はΔy1=D1y−C1yである。
【0056】
同様に、
図7は、点C2(C2x,C2y)の位置に観測されるべき視標24bが、実際には点D2(D2x,D2y)の位置に観測されて、矢印P2で示す位置ずれが生じたことを示し、点C3(C3x,C3y)の位置に観測されるべき視標24cが、実際には点D3(D3x,D3y)の位置に観測されて、矢印P3で示す位置ずれが生じたことを示し、点C4(C4x,C4y)の位置に観測されるべき視標24dが、実際には点D4(D4x,D4y)の位置に観測されて、矢印P4で示す位置ずれが生じたことを示している。
【0057】
そして、点D2の位置ずれの大きさと方向は(Δx2,Δy2)であり、点D3の位置ずれの大きさと方向は(Δx3,Δy3)であり、点D4の位置ずれの大きさと方向は(Δx4,Δy4)である。それぞれ、前述した(Δx1,Δy1)と同様にして算出される。
【0058】
このとき、点D1,D2,D3,D4の位置ずれの大きさが、いずれも所定の値より小さいときには、本来観測されるべき画像が観測されているものと判断してキャリブレーションは実施しなくてもよい。一方、点D1,D2,D3,D4の位置ずれの大きさが、1か所でも所定の値より大きくなっているときには、以下に説明するキャリブレーションを実施する。
【0059】
なお、キャリブレーションを行うか否かを判断する位置ずれの大きさの所定の値は、アプリケーション実行部74で実行するアプリケーションの内容に応じて、適宜設定すればよい。
【0060】
図8(a)は、
図7の結果に基づいて算出される、視標24の観測位置の横方向の位置ずれ量Δxを表す図である。
【0061】
すなわち、
図8(a)は、
図7の結果得られた、各視標24が観測されるものと想定される点C1,C2,C3,C4(
図7)と実際に観測された点D1,D2,D3,D4(
図7)の横方向の位置ずれ量Δxを示している。
【0062】
具体的には、
図8(a)は、観測された点D1,D2,D3,D4の各々に対して、各点の横方向座標xを横軸にとり、横方向の位置ずれ量Δxを縦軸にとってプロットしたものである。
【0063】
さらに、
図8(a)には、プロットされた各点との残差の総和が最小となる回帰直線Lxを記載している。この回帰直線Lxに基づいて、任意の横方向位置Dixにおいて想定される横方向の位置ずれ量Δxiを、
図8(a)に記載したように読み取ることができる。
【0064】
図8(b)は、
図7の結果に基づいて算出される、視標24の観測位置の縦方向の位置ずれ量Δyを表す図である。
【0065】
すなわち、
図8(b)は、各視標24が観測されるものと想定される点C1,C2,C3,C4(
図7)と実際に観測された点D1,D2,D3,D4(
図7)の縦方向の位置ずれ量Δyを示している。
【0066】
具体的には、
図8(b)は、観測された点D1,D2,D3,D4の各々に対して、各点の縦方向座標yを横軸にとり、縦方向の位置ずれ量Δyを縦軸にとってプロットしたものである。
【0067】
さらに、
図8(b)には、プロットされた各点との残差の総和が最小となる回帰直線Lyを記載している。この回帰直線Lyに基づいて、任意の縦方向位置Diyにおいて想定される縦方向の位置ずれ量Δyiを、
図8(b)に記載したように読み取ることができる。
【0068】
なお、
図8(a),(b)の説明で、回帰直線Lx,Lyが得られると記載したが、一般には、回帰曲線が算出される。これは、撮像部30はレンズ等の非線形性を有する光学素子を含み、一般にその結像位置は非線形の特性を有するためである。どのような曲線を適合させるかは、利用者が適宜判断して決定すればよい。以上、説明した一連の作業によって、撮像部30のキャリブレーションが行われる。なお、得られた回帰直線Lx,Lyのデータは、補正データとして補正データ記憶部60(
図3)に記憶される。
(実施例1の処理の流れの説明)
【0069】
次に、本実施例1で行われる処理全体の流れについて、
図9,
図10を用いて説明する。
図9は、実施例1の処理全体の流れを示すフローチャートであり、
図10は、キャリブレーションの流れを示すフローチャートである。まず、
図9のフローチャートについて説明する。
【0070】
(ステップS10)車両Vのイグニッションスイッチ(
図3に非図示)がONであるか否かを判断する。イグニッションスイッチがONであるときにはステップS12に進み、それ以外のときはステップS10を繰り返す。これは、車両Vが走行可能な状態にあるか否かを判断するために行う処理である。
【0071】
(ステップS12)車両Vが走行中であるか否かを判断する。車両Vが走行中であるときにはステップS16に進み、車両Vが停止しているときはステップS14に進む。
【0072】
(ステップS14)
図10の処理が起動されて、撮像部30(
図3)のキャリブレーションが行われる。処理の詳細は後述する。
【0073】
(ステップS16)アプリケーション実行部74(
図3)において、アプリケ―ションを実行する状態になっているか否かを判断する。アプリケ―ションを実行する状態になっているときはステップS18に進み、それ以外のときはステップS14に進む。
【0074】
(ステップS18)
図10の処理が起動されて、撮像部30(
図3)のキャリブレーションが行われる。処理の詳細は後述する。
【0075】
(ステップS20)アプリケーション実行部74(
図3)の指示で、所定のアプリケーションが実行される。なお、ステップS14またはステップS18で実行されたキャリブレーションの結果は、アプリケーションの動作に反映される。
【0076】
(ステップS22)アプリケーションの実行中に、所定のタイミングにおいて
図10の処理が起動されて、撮像部30(
図3)のキャリブレーションが行われる。処理の詳細は後述する。なお、ステップS22で実行されたキャリブレーションの結果は、逐次、アプリケーションの動作に反映される。
【0077】
(ステップS24)
図3に図示しない、車両VのイグニッションスイッチがONであるか否かを判断する。イグニッションスイッチがONであるときにはステップS26に進み、それ以外のときは、
図9の処理を終了する。これは、車両Vが運転を終了したか否かを判断するために行う処理である。
【0078】
(ステップS26)アプリケーション実行部74(
図3)からアプリケーションの実行を終了する指示が出させたか否かを判断する。アプリケーションの実行を終了する指示が出されたときは
図9の処理を終了し、それ以外のときは、ステップS22に戻る。
【0079】
次に、
図10のフローチャートについて説明する。
【0080】
(ステップS40)キャリブレーション開始指示部72(
図3)からキャリブレーション開始指示が出されたか否かを判断する。キャリブレーション開始指示が出されたときにはステップS42に進み、それ以外のときにはステップS40を繰り返す。
【0081】
(ステップS42)撮像部30(
図3)で近赤外画像を撮像して、近赤外画像選択部44(
図3)を経て視標位置計測部48(
図3)に入力する。
【0082】
(ステップS44)視標位置計測部48(
図3)において、画像に映った全ての視標24(
図3)の検出とその中心位置の計測を行う。
【0083】
(ステップS46)補正データ記憶部60(
図3)に、既に生成された補正データがあるか否かを判断する。補正データがあるときにはステップS48に進み、補正データがないときにはステップS52に進む。
【0084】
(ステップS48)補正データ記憶部60(
図3)から補正データを読み出す。
【0085】
(ステップS50)画像補正部52(
図3)において、撮像部30(
図3)で撮像したカラー画像に対して、ステップS48で読み出した補正データに基づいて画像の補正を行う。
【0086】
(ステップS52)視標位置比較部50(
図3)において、ステップS44で計測した視標位置が、本来観測されるべき位置から所定値以上ずれているか否かを判断する。所定値以上ずれているときは、キャリブレーションが必要と判断してステップS54に進み、それ以外のときは、キャリブレーションを行う必要がないと判断して、メインルーチン(
図9)に戻る。
【0087】
(ステップS54)視標位置比較部50(
図3)において、ステップS44で計測した視標位置と、本来観測されるべき視標位置との位置ずれ量Δx,Δyを算出する。
【0088】
(ステップS56)全ての視標24(24a,24b,24c,24d)(
図3)に対して算出された位置ずれ量Δx,Δyをそれぞれ回帰分析する。そして、回帰直線または回帰曲線を求める。
【0089】
(ステップS58)画像補正部52(
図3)において、撮像部30(
図3)で撮像したカラー画像に対して、ステップS56で行った回帰分析の結果に基づいて画像の補正を行う。
【0090】
(ステップS60)ステップS56で行った回帰分析の結果を、補正データとして補正データ記憶部60(
図3)に記憶して、メインルーチン(
図9)に戻る。
【0091】
以上説明したように、このように構成された本発明に係るカメラキャリブレーション装置10によれば、撮像部30を構成する撮像素子32が、近赤外光に感度を有する近赤外受光素子34(34a,34b,34c,…)を備えるため、この撮像部30で、近赤外光を透過または反射する複数の視標24(24a,24b,24c,24d)を撮影すると、観測される画像I’の中には、複数の視標24が高いコントラストで観測される。したがって、視標位置計測部48によって、複数の視標24の位置を確実かつ正確に計測することができる。そして、画像補正部52が、計測された複数の視標24の位置を幾何学的に補正する。そのため、特別な照明等を用いることなく、周囲の明るさに影響されずに、撮像部30のキャリブレーションを確実に行うことができる。
【0092】
また、このように構成された本発明に係るカメラキャリブレーション装置10によれば、複数の視標24(24a,24b,24c,24d)は、撮像部30で撮影された画像I’の中の、具体的な用途に使用される画像領域である領域R2の外周よりも外側の領域に映るように配置されるため、キャリブレーションを行うために検出する複数の視標24の検出位置を限定することができる。したがって、撮像部30のキャリブレーションをより一層確実に行うことができる。
【0093】
そして、このように構成された本発明に係るカメラキャリブレーション装置10によれば、撮像部30は、車両Vのフロントガラス20(ウインドシールド)越しに車両Vの外部を撮影するように設置されて、複数の視標24(24a,24b,24c,24d)は、車両Vのフロントガラス20の内部、外表面上、または、内表面上に設置されるため、撮像部30のキャリブレーションを行う際に複数の視標24(24a,24b,24c,24d)を設置するための広いスペースを準備する必要がない。
【0094】
さらに、このように構成された本発明に係るカメラキャリブレーション装置10によれば、撮像部30は、車両Vのフロントガラス20(ウインドシールド)越しに車両Vの外部を撮影するように設置されて、複数の視標24(24a,24b,24c,24d)は、車両Vのフロントガラス20の内部に埋め込まれているため、車両Vが走行している状態であっても、撮像部30のキャリブレーションを行うことができる。
【0095】
また、このように構成された本発明に係るカメラキャリブレーション装置10によれば、画像補正部52で補正した複数の視標24(24a,24b,24c,24d)の位置のうち、いずれかの視標24の位置が、本来観測される位置から所定値以上ずれたときに、画像補正部52において、画像I’の幾何学的補正を行うため、撮像部30の具体的な用途(例えば、走行車線の検出)に一切影響を与えることなく、撮像部30のキャリブレーションを行うことができる。したがって、撮像部30を具体的なアプリケーションに使用しながら、同時に、撮像部30のキャリブレーションを行うことができるため、意図しない撮像部30のずれの発生による、具体的なアプリケーションの性能低下を防止することができる。
【0096】
以上、実施例1では、4つの視標24a,24b,24c,24dを用いてキャリブレーションを行う例を説明したが、キャリブレーションに使用する視標は4つに限定されるものではない。すなわち、より多くの視標を用いてキャリブレーションを行うことにより、キャリブレーションの精度をより一層高めることができる。
【0097】
また、実施例1では、車両Vのフロントガラス20(ウインドシールド)越しに車両Vの外部を撮影するレイアウトを説明したが、これは、フロントガラス20に限定されるものではなく、車両Vのリアガラスやサイドガラス越しに車両Vの外部を撮影するレイアウトであっても、同様に適用することができる。
【0098】
以上、本発明の実施例を図面により詳述したが、実施例は本発明の例示にしか過ぎないものであるため、本発明は実施例の構成にのみ限定されるものではなく、本発明の要旨を逸脱しない範囲の設計の変更等があっても、本発明に含まれることは勿論である。