(58)【調査した分野】(Int.Cl.,DB名)
【発明を実施するための形態】
【0017】
以下、図面を参照して、実施形態に係る駐車支援装置について説明する。以下の実施形態の構成は例示であり、本発明は実施形態の構成に限定されない。
【0018】
〈実施形態1〉
〈全体構成〉
図1は、駐車支援装置120の構成を示すブロック図である。この駐車支援装置120
は、車両(本実施形態では、自動車)に搭載されるものであり、車両の周辺を撮影して画像を生成し、その生成した画像を車室内に設けた表示装置21に出力する機能を有している。駐車支援装置120のユーザ(代表的にはドライバ)は、この駐車支援装置120を利用することにより、当該車両の周辺の様子をほぼリアルタイムに把握できるようになっている。
【0019】
図1に示すように、駐車支援装置120は、車両の周辺を示す周辺画像を生成してナビゲーション部20などの表示装置に画像情報を出力する画像処理部100と、車両の周囲を撮影するカメラを備えている撮影部5とを主に備えている。
【0020】
ナビゲーション部20は、ユーザに対しナビゲーション案内を行うものであり、タッチパネル機能を備えた液晶などのディスプレイ21と、ユーザが操作を行う操作部22と、ナビゲーション部20の各部を制御する制御部23とを備えている。ディスプレイ21の画面がユーザから視認可能なように、ナビゲーション部20は車両のインストルメントパネルなどに設置される。ユーザからの各種の指示は、操作部22とタッチパネルとしてのディスプレイ21とによって受け付けられる。制御部23は、CPU、RAM及びROMなどを備えたコンピュータとして構成され、所定のプログラムに従ってCPUが演算処理を行うことでナビゲーション機能を含む各種の機能が実現される。
【0021】
ナビゲーション部20は、画像処理部100と通信可能に接続され、画像処理部100との間で各種の制御信号の送受信や、画像処理部100で生成された周辺画像の受信が可能となっている。ディスプレイ21には、制御部23の制御により、通常はナビゲーション部20単体の機能に基づく画像が表示されるが、所定の条件下において画像処理部100で生成された車両の周辺の様子を示す周辺画像が表示される。これにより、ナビゲーション部20は、画像処理部100で生成された周辺画像を受信して表示する表示装置としても機能する。
【0022】
画像処理部100は、その本体部10が周辺画像を生成する機能を有するECU(Electronic Control Unit)として構成され、車両の所定の位置に配置される。画像処理部100は、車両の周辺を撮影する撮影部5を備えており、この撮影部5で車両の周辺を撮影して得られる撮影画像に基づいて仮想視点からみた合成画像を生成する画像生成装置として機能する。これらの撮影部5が備える複数の車載カメラ51,52,53は、本体部10とは別の所定位置に配置されるが詳細は後述する。
【0023】
画像処理部100の本体部10は、装置全体を制御する制御部1と、撮影部5で取得された撮影画像を処理して表示用の周辺画像を生成する画像生成部3と、ナビゲーション部20との間で通信を行うナビ通信部42とを主に備えている。
【0024】
ナビゲーション部20の操作部22やディスプレイ21によって受け付けられたユーザからの各種の指示は、制御信号としてナビ通信部42によって受け付けられて制御部1に入力される。また、画像処理部100は、表示内容を切り替える指示をユーザから受け付ける切替スイッチ43を備えている。この切替スイッチ43からもユーザの指示を示す信号が制御部1に入力される。これにより、画像処理部100は、ナビゲーション部20に対するユーザの操作、及び、切替スイッチ43に対するユーザの操作の双方に応答した動作が可能となっている。切替スイッチ43は、ユーザが操作しやすいように、本体部10とは別に車両の適位置に配置される。
【0025】
画像生成部3は、各種の画像処理が可能なハードウェア回路として構成されており、合成画像生成部31、画像範囲選択部32、及び、画像情報出力部33を主な機能として備えている。
【0026】
合成画像生成部31は、撮影部5の複数の車載カメラ51,52,53で取得された複数の撮影画像に基づいて、車両の周辺の任意の仮想視点からみた合成画像を生成する。合成画像生成部31が仮想視点からみた合成画像を生成する手法については後述する。
【0027】
画像範囲選択部32は、撮影部5のサイドカメラ53で取得された撮影画像に基づいて、画像の所定範囲を選択して切り出す。
【0028】
画像情報出力部33は、画像範囲選択部32で選択された画像情報をナビ通信部42を介してナビゲーション部20に出力する。なお、画像情報の出力は制御部1に基づいて行われる。
【0029】
また、画像情報出力部33は合成画像生成部31において生成された合成画像情報をナビゲーション部20へ出力する。これにより、車両の周辺を示す周辺画像がナビゲーション部20のディスプレイ21に表示されることになる。本実施形態においてディスプレイ21は、表示手段の一形態であり、ナビゲーションのための画像や駐車支援のための映像を切り換えて表示する。このように駐車支援のための表示手段をナビゲーションのためのディスプレイと兼用することで、装置の簡素化や省スペース化を図っている。なお、駐車支援のための表示手段は、ナビゲーション部20のディスプレイ21と兼用する構成に限らず、他の装置と兼用しない構成や、ヘッドアップディスプレイやメータパネル等の他の表示装置と兼用する構成としても良い。
【0030】
制御部1は、CPU、RAM及びROMなどを備えたコンピュータとして構成され、所定のプログラムに従ってCPUが演算処理を行うことで各種の制御機能が実現される。図中に示す、画像制御部11は、このようにして実現される制御部1の機能のうちの一部を示している。
【0031】
画像制御部11は、画像生成部3によって実行される画像処理を制御するものである。例えば、画像制御部11は、合成画像生成部31が生成する合成画像の生成に必要な各種パラメータなどを指示する。また、画像範囲選択部32がサイドカメラ53により撮影した画像の所定範囲を選択するための指示をドアミラーの開閉状態、および、車種ごとのパラメータの情報に基づいて行う。
【0032】
また、画像処理部100の本体部10は、不揮発性メモリ40、カード読取部44、及び、信号入力部41をさらに備えており、これらは制御部1に接続されている。
【0033】
不揮発性メモリ40は、電源オフ時においても記憶内容を維持可能なフラッシュメモリなどで構成されている。不揮発性メモリ40には、車種別データ4aが記憶されている。車種別データ4aは、合成画像生成部31が合成画像を生成する際に必要となる車両の種別に応じたデータなどである。
【0034】
カード読取部44は、可搬性の記録媒体であるメモリカードMCの読み取りを行う。カード読取部44は、メモリカードMCの着脱が可能なカードスロットを備えており、そのカードスロットに装着されたメモリカードMCに記録されたデータを読み取る。カード読取部44で読み取られたデータは、制御部1に入力される。
【0035】
メモリカードMCは、種々のデータを記憶可能なフラッシュメモリなどで構成されており、画像処理部100はメモリカードMCに記憶された種々のデータを利用できる。例えば、メモリカードMCにプログラムを記憶させ、これを読み出すことで、制御部1の機能を実現するプログラム(ファームウェア)を更新することが可能である。また、メモリカ
ードMCに不揮発性メモリ40に記憶された車種別データ4aとは異なる種別の車両に応じた車種別データを記憶させ、これを読み出して不揮発性メモリ40に記憶させることで、駐車支援装置120を異なる種別の車両に対応させることも可能である。
【0036】
また、信号入力部41は、車両に設けられた各種装置からの信号を入力する。この信号入力部41を介して、駐車支援装置120の外部からの信号が制御部1に入力される。具体的には、シフトセンサ81、車速度センサ82、方向指示器83、及び、ミラー駆動装置84などから、各種情報を示す信号が制御部1に入力される。
【0037】
シフトセンサ81からは、車両9の変速装置のシフトレバーの操作の位置、すなわち、”P(駐車)”,”D(前進)”,”N(中立)”,”R(後退)”などのシフトポジションが入力される。車速度センサ82からは、その時点の車両9の走行速度(km/h)が入力される。
【0038】
方向指示器83からは、ウインカースイッチの操作に基づく方向指示、すなわち、車両のドライバが意図する方向指示を示すターン信号が入力される。ウインカースイッチが操作されたときはターン信号が発生し、ターン信号はその操作された方向(左方向あるいは右方向)を示すことになる。ウインカースイッチが中立位置となったときは、ターン信号はオフとなる。
【0039】
また、ミラー駆動装置84は、ドライバの操作に応答して車両のドアミラーを格納/展開(開閉)する。ミラー駆動装置84からは、ドアミラーの状態(格納/展開)が入力される。
【0040】
<撮影部>
次に、画像処理部100の撮影部5について詳細に説明する。撮影部5は、制御部1に電気的に接続され、制御部1からの信号に基づいて動作する。
【0041】
撮影部5は、撮影手段の一形態として車載カメラであるフロントカメラ51、バックカメラ52及びサイドカメラ53を備えている。これらの車載カメラ51,52,53はそれぞれ、CCDやCMOSなどの撮像素子を備えており電子的に画像を取得する。
【0042】
図2は、車載カメラ51,52,53が車両9に配置される位置を示す図である。なお、以下の説明においては、方向及び向きを示す際に、適宜、図中に示す3次元のXYZ直交座標を用いる。このXYZ軸は車両9に対して相対的に固定される。ここで、X軸方向は車両9の左右方向に沿い、Y軸方向は車両9の直進方向(前後方向)に沿い、Z軸方向は鉛直方向に沿っている。また、便宜上、+X側を車両9の右側、+Y側を車両9の後側、+Z側を上側とする。
【0043】
フロントカメラ51は、車両9の前端にあるナンバープレート取付位置の近傍に設けられ、その光軸51aは車両9の直進方向(平面視でY軸方向の−Y側)に向けられている。バックカメラ52は、車両9の後端にあるナンバープレート取付位置の近傍に設けられ、その光軸52aは車両9の直進方向の逆方向(平面視でY軸方向の+Y側)に向けられている。また、サイドカメラ53は、左右のドアミラー93にそれぞれ設けられており、その光軸53aは車両9の左右方向(平面視でX軸方向)に沿って外部に向けられている。なお、フロントカメラ51やバックカメラ52の取り付け位置は、左右略中央であることが望ましいが、左右中央から左右方向に多少ずれた位置であってもよい。
【0044】
これらの車載カメラ51,52,53のレンズとしては魚眼レンズなどが採用されており、車載カメラ51,52,53は180度以上の画角αを有している。このため、4つの車載カメラ51,52,53を利用することで、車両9の全周囲の撮影が可能となって
いる。なお、車載カメラ51,52,53は、4つに限らず、車両の後方を含む所要周囲を撮影できれば、4つよりも少なく又は多く設けても良い。
【0045】
図3は、車両9の左側のサイドカメラ53がハウジング内に収容されたサイドカメラユニット70の外観構成を示す図である。なお、サイドカメラユニット70の構成や配置は車両9の左右で対称としているため、以降の説明では車両9の左側を例に具体的に説明するが、右側についても同様である。図に示すように、サイドカメラユニット70は、ブラケット79を介してドアミラー93の下側に配置される。
【0046】
サイドカメラ53は、レンズと撮像素子とを備えて構成されている。サイドカメラ53は、ハウジング内に配置され、光軸が車両9の外側に向けられている。サイドカメラ53は、この光軸の方向が鉛直方向に対して所定の角度(例えば、約45度)となるようにハウジングに固定される。
【0047】
<画像変換処理>
次に、画像生成部3の合成画像生成部31が、撮影部5で得られた複数の撮影画像に基づいて車両9の周辺を任意の仮想視点からみた様子を示す合成画像を生成する手法について説明する。合成画像を生成する際には、不揮発性メモリ40に予め記憶された車種別データ4aが利用される。
図4は、合成画像を生成する手法を説明するための図である。
【0048】
撮影部5のフロントカメラ51、バックカメラ52及びサイドカメラ53で同時に撮影が行われると、車両9の前方、後方、左側方、及び、右側方をそれぞれ示す4つの撮影画像P1〜P4が取得される。すなわち、撮影部5で取得される4つの撮影画像P1〜P4には、撮影時点の車両9の全周囲を示す情報が含まれていることになる。
【0049】
次に、4つの撮影画像P1〜P4の各画素が、仮想的な三次元空間における立体曲面SP2に投影される。立体曲面SP2は、例えば略半球状(お椀形状)をしており、その中心部分(お椀の底部分)が車両9が存在する位置として定められている。撮影画像P1〜P4に含まれる各画素の位置と、この立体曲面SP2の各画素の位置とは予め対応関係が定められている。このため、立体曲面SP2の各画素の値は、この対応関係と撮影画像P1〜P4に含まれる各画素の値とに基づいて決定できる。
【0050】
また、撮影画像P1〜P4の各画素の位置と立体曲面SPの各画素の位置との対応関係は、車両9における4つの車載カメラ51,52,53の配置(相互間距離、地上高さ、光軸角度等)に依存する。このため、この対応関係を示すテーブルデータが、不揮発性メモリ40に記憶された車種別データ4aに含まれている。
【0051】
また、車種別データ4aに含まれる車体の形状やサイズを示すポリゴンデータが利用され、車両9の三次元形状を示すポリゴンモデルである車両像が仮想的に構成される。構成された車両像は、立体曲面SPが設定される三次元空間において、車両9の位置と定められた略半球状の中心部分に配置される。
【0052】
さらに、立体曲面SPが存在する三次元空間に対して、制御部1により仮想視点VPが設定される。仮想視点VPは、視点位置と視野方向とで規定され、この三次元空間における車両9の周辺に相当する任意の視点位置に任意の視野方向に向けて設定される。
【0053】
そして、設定された仮想視点VPに応じて、上記のように立体曲面SP2における必要な領域が画像として切り出される。仮想視点VPと、立体曲面SPにおける必要な領域との関係は予め定められており、テーブルデータとして不揮発性メモリ40等に予め記憶されている。一方で、設定された仮想視点VPに応じてポリゴンで構成された車両像に関してレンダリングがなされ、その結果となる二次元の車両像が、切り出された画像に対して重畳される。これにより、車両9及びその車両9の周辺を任意の仮想視点からみた様子を
示す合成画像が生成されることになる。
【0054】
例えば、視点位置が車両9の位置の略中央の直上位置で、視野方向が略直下方向とした仮想視点VP1を設定した場合は、車両9の略直上から車両9を見下ろすように、車両9(実際には車両像)及び車両9の周辺の様子を示す合成画像CP1が生成される。また、図中に示すように、視点位置が車両9の位置の左後方で、視野方向が車両9における略前方とした仮想視点VP2を設定した場合は、車両9の後方からその周辺全体を見渡すように、車両9(実際には車両像)及び車両9の周辺の様子を示す合成画像CP2が生成される。
【0055】
なお、実際に合成画像を生成する場合においては、立体曲面SP2の全ての画素の値を決定する必要はなく、設定された仮想視点VPに対応して必要となる領域の画素の値のみを撮影画像P1〜P4に基づいて決定することで、処理速度を向上できる。
<動作モード>
次に、駐車支援装置120の動作モードについて説明する。駐車支援装置120は、通常モードM1、バックモードM2、及び、駐車モードM3の3つの動作モードを有している。これらの動作モードは、ユーザによるシフトレバーの操作や車両9の走行状態に応じて制御部1の制御により切り替えられるようになっている。
【0056】
通常モードM1は、シフトポジションがR(後退)以外の場合に選択されるモードであり、ナビゲーション部20の機能によるナビゲーション案内用の地図画像などをディスプレイ21に表示する。なお、ナビゲーション部20が、テレビジョン放送の電波を受信して表示する機能や、音楽を再生すると共に曲名を表示する機能を有している場合は、ナビゲーション案内用の地図画像に代えて、テレビジョン放送や再生中の曲名など、ユーザに選択された画像が表示されても良い。
【0057】
バックモードM2は、画像処理部100の機能を利用して、車両9の後方に設けた仮想視点VP2から車両側を見た場合の誘導者視線映像CP2をディスプレイ21に表示するモードである。
【0058】
駐車モードM3は、画像処理部100の機能を利用して、バックカメラ52で撮影したリア映像と、車両9の情報に設けた仮想視点VP1から見下ろした場合の俯瞰映像CP1とをディスプレイ21に二画面表示するモードである。
【0059】
<動作>
図5は、本実施形態の駐車支援装置120が実行する駐車支援方法の説明図である。
【0060】
ACCスイッチをONする等の操作により電力が供給されると、駐車支援装置120は、
図5の処理を開始し、先ず、シフトポジションが後進”R”か否かを判定する(ステップS10)。シフトセンサ81から受信したシフトポジションを示す信号が”R”以外であった場合(ステップS10,No)、駐車支援装置120は通常モードM1を選択し、ナビゲーション部20による地図画像などをディスプレイ21に表示させて(ステップS15)、
図5の駐車支援処理を終了する。即ち、シフトポジションを示す信号が、前進”D”や中立”N”停止”P”といった”R”以外の場合、ナビゲーション部20による地図等の表示を行う。なお、シフトポジションを示す信号が”R”以外であった場合、ナビゲーション部20による地図等の表示に限らず、オーディオ画面やDTV画面、前方方向を撮像したカメラ画像であってもよく、車両9を後進させる際に利用されるカメラ画像とは異なる表示が行われる。
【0061】
一方、シフトポジションを示す情報が”R”であった場合(ステップS10,Yes)、撮影部5で撮影した映像から駐車枠を検知する処理を行う(ステップS20)。
【0062】
駐車支援装置120は、撮影部5の各カメラ51,52,53で撮影した映像を合成し、俯瞰映像及び誘導者視線映像に変換する(ステップS30)。
【0063】
また、駐車支援装置120は、舵角センサで検出した操舵角に基づいて進行方向を求め、ガイド線を表示させる(ステップS40)。
【0064】
次に、駐車支援装置120は、撮影部5の各カメラ51,52,53で撮影した映像から駐車枠を認識する(ステップS50)。
【0065】
駐車枠を認識した場合(ステップS50,Yes)、駐車支援装置120は、撮影部5の各カメラ51,52,53で撮影した映像から自車位置を判定する(ステップS60)。例えば不揮発性メモリ40に記憶された車種別データ4aに含まれる各カメラ51,52,53の配置(相互間距離、地上高さ、光軸角度等)に基づいて撮影された駐車枠との相対位置を求める。そして、この相対位置から自車が駐車枠に対して所定の位置関係となったか、例えば自車が駐車枠内に入ったか否かを判定する(ステップS70)。なお、所定の位置関係とは、自車が駐車枠内に入ったことに限らず、自車と駐車枠との距離が所定値以内となった場合でも良い。
【0066】
ステップS50で駐車枠が認識されなかった場合や(ステップS50,No)、ステップS70で駐車枠に入っていない(ステップS70,No)と判定した場合、バックモードM2を選択して、仮想視点VP2を自車後方位置に設定した誘導者視線映像を出力する(ステップS90)。
【0067】
また、ステップS70で駐車枠に入った(ステップS70,Yes)と判定した場合、駐車モードM3を選択し俯瞰映像とリア映像の二分割映像を出力する(ステップS80)。
【0068】
駐車支援装置120は、ディスプレイ21へ出力する映像信号を画像生成部3からの映像信号に切り替えて(ステップS100)、二分割映像或いは誘導者視線映像をディスプレイ21に表示させ(ステップS110)、
図5の処理を終了させる。なお、
図5の処理は、ACCスイッチがOFFとされるなど、駐車支援装置120への電力供給が無くなるまで繰り返し実行する。
【0069】
図6は、
図5に示した駐車支援方法を実行する際のタイミングチャートである。
図6に示すタイミングT1では、シフトポジションが“D”であり、
図7(A)に示すように車両9が駐車枠91で区切られた駐車スペース前を前進している。この場合、通常モードM1が選択され、
図7(B)のようにナビゲーション部20による地図画像96等がディスプレイ21に表示される(ステップS15)。
【0070】
図6に示すタイミングT2では、後進信号“R”を検出し、これに伴い誘導者視線映像及び俯瞰映像を生成するために各カメラ51,52,53で撮影した映像の合成処理を開始する(ステップS20,S30)。この場合、
図8(A)に示すように車両9が駐車スペース前を後進し、バックモードM2が選択されて、
図8(B)のように誘導者視線映像97がディスプレイ21に表示される(ステップS90−S110)。駐車支援装置120は、
図8(A)において、撮影部5の各カメラ51,52,53で駐車スペースを含む車両周辺の画像を撮影して合成し、
図4と同様に立体曲面SP2に投影して車両9の後方に設けた仮想視点VP2から車両側を見た場合の視野Vaに含まれる画像のデータを前記不揮発性メモリ40のテーブルの対応関係に基づいて、前記合成した撮影画像から抽出する。この視野Vaに含まれる画像のデータを連続して表示した例が、
図8(B)の誘導者視線映像97である。なお、
図8(B)に示す車両9は、前記不揮発性メモリ40の車種別データ4aに含まれているポリゴンデータに基づいて表示している。なお、車両9の表示は、ポリゴンデータに基づくものに限らず、車両の向きや大きさ示すものであれば、矢印や単純な図形等のアイコンであっても良い。また、
図8(B)では、車両9の外観を示しているが、これに限らず
図8(C)に示すように、車両の外形を半透明あるいは輪郭線(
図8(C)中の点線)で示し、車両内にタイヤの図を表示しても良い。駐車支援装置120は、
図8(C)に示すように、舵角センサ85で検出した舵角に基づいて、自車のタイヤの向きと一致するようにタイヤの図を表示する。これによってユーザは、切り返しのタイミング等を適切に知ることができる。
【0071】
駐車支援装置120は、タイミングT3で駐車枠が検知されると、自車位置が駐車枠内に位置したか否かの判定(ステップS70)を行い、駐車枠内で無ければ(ステップS70,No)、モードM2を選択して誘導者視線映像を表示する(ステップS90−S110)。そして、
図9(A)のように車両9が駐車枠内に位置し、これをタイミングT4で検知した場合(ステップS70,Yes)、駐車モードM3が選択されて、
図9(B)のように俯瞰映像98とリア映像99がディスプレイ21に表示される(ステップS80,S100,S110)。
図9(B)において、俯瞰映像98は、車両9と駐車枠91との位置関係を明確に示すことができ、ユーザは車両をどのように進めたら良いかを容易に知ることができる。また、リア映像99は、車両止め(不図示)や駐車枠後端までの距離を示すことができ、ユーザは車両をどこまでバックさせれば良いかを知ることができる。
【0072】
以上のように、本実施形態によれば、後進時に、自車の後方に設定した仮想視点から自車両とその周囲の映像を車内のディスプレイに表示させることができるので、ドライバは車外で誘導している感覚で安全確認ができる。このように自車両周辺の表示を行うことで、後進時の死角及び周辺からの接近物や障害物の把握が容易になる。
【0073】
また、自車両が駐車枠内に入った場合には、俯瞰映像とリア映像に切り替わるので、自車両と駐車枠との間隔を見ながら駐車を行うことができる。
【0074】
<変形例>
前述の実施形態では、自車両の後方に仮想視点VP2を設けたが、これに限らず、自車両と離れた位置に仮想視点を設定し、自車両と自車両周辺とをできればよい。本変形例では、駐車枠を検出した際、駐車枠の中央や先端等、駐車枠に対して所定の位置に仮想視点VP2を設定し、駐車枠位置から見た自車両周辺の映像を誘導者視線映像とする。なお、その他の構成は、前述の実施形態と同じである。
【0075】
図10−
図12は、この駐車枠位置から自車両周辺を見た場合の誘導者視線映像の表示例、
図13は、本変形例において、駐車支援装置120が実行する駐車支援方法の説明図である。
【0076】
ACCスイッチをONする等の操作により電力が供給されると、駐車支援装置120は、
図13の処理を開始し、先ず、シフトポジションが後進”R”か否かを判定する(ステップS10)。シフトセンサ81から受信したシフトポジションを示す信号が”R”以外であった場合(ステップS10,No)、駐車支援装置120は通常モードM1を選択し、ナビゲーション部20による地図画像などをディスプレイ21に表示させて(ステップS15)、
図13の駐車支援処理を終了する。
【0077】
一方、シフトポジションを示す情報が”R”であった場合(ステップS10,Yes)、撮影部5で撮影した映像から駐車枠を検知する処理を行う(ステップS20)。
【0078】
駐車支援装置120は、撮影部5の各カメラ51,52,53で撮影した映像を合成し、俯瞰映像及び誘導者視線映像に変換する(ステップS30)。
【0079】
また、駐車支援装置120は、舵角センサで検出した操舵角に基づいて進行方向を求め、ガイド線を表示させる(ステップS40)。
【0080】
次に、駐車支援装置120は、撮影部5の各カメラ51,52,53で撮影した映像から駐車枠を認識する(ステップS50)。
【0081】
ステップS50で駐車枠が認識されなかった場合(
図6のT2〜T3の期間)、駐車支援装置120は、バックモードM2を選択して、自車後方位置に仮想視点VP2を設定した誘導者視線映像を出力する(ステップS90)。
【0082】
一方、ステップS50で駐車枠を認識した場合(ステップS50,Yes)、駐車支援装置120は、撮影部5の各カメラ51,52,53で撮影した映像から自車位置を判定する(ステップS60)。例えば不揮発性メモリ40に記憶された車種別データ4aに含まれる各カメラ51,52,53の配置(相互間距離、地上高さ、光軸角度等)に基づいて、撮影された駐車枠に対する自車の相対位置を求める。そして、この相対位置から自車が駐車枠に対して所定の位置関係となったか、例えば自車が駐車枠内に入ったか否かを判定する(ステップS70)。
【0083】
ステップS50で駐車枠を認識した後、ステップS70で駐車枠に入っていない(ステップS70,No)と判定した場合(
図6のT3〜T4の期間)、駐車支援装置120は、仮想視点VP2を駐車枠位置に設定した誘導者視線映像を出力する(ステップS75)。
【0084】
ステップS70で駐車枠に入った(ステップS70,Yes)と判定した場合、駐車モードM3を選択し俯瞰映像とリア映像の二分割映像を出力する(ステップS80)。
【0085】
駐車支援装置120は、ディスプレイ21へ出力する映像信号を画像生成部3からの映像信号に切り替えて(ステップS100)、二分割映像或いは誘導者視線映像をディスプレイ21に表示させ(ステップS110)、
図13の処理を終了させる。なお、
図13の処理は、ACCスイッチがOFFとされるなど、駐車支援装置120への電力供給が無くなるまで繰り返し実行する。
【0086】
図10は、駐車枠が認識された直後、即ち
図6のT3直後の状態を示す図であり、
図10(A)は駐車枠位置に設けた仮想視点VP2と自車の位置関係を示し、
図10(B)は誘導者視線映像の表示例を示す。
【0087】
図10(A)に示すように、各カメラ51,52,53の撮影画像を合成して立体曲面SP2に投影した場合の範囲(合成映像エリア)に駐車枠91の先端が入ると、ステップS50で駐車枠が認識される。駐車枠を認識した駐車支援装置120は、ステップS60で求めた相対位置に基づいて仮想視点VP2を駐車枠91の位置に設定する。この
図10(A)に示す仮想視点VP2から見た誘導者視線映像の表示例が
図10(B)である。
図10(A),
図10(B)では、駐車枠に車両を駐車する際の進入方向、例えば駐車枠の長手方向に通る中心線の方向と、仮想視点VP2からの視線(視野の中心)Vbとを一致させている。このため、ユーザは、
図10(B)の誘導者視線映像を見て、車両9が画面の駐車枠91へ向けて手前側へ真っ直ぐに入るように運転する。
【0088】
図11(A),
図11(B)は、
図10(A),
図10(B)の位置から少し後進した状態(駐車枠に近づいた状態)を示し、
図12(A),
図12(B)は、更に後進して車両9が駐車枠91内に入る直前(
図6のT4直前)の状態を示す。
【0089】
図10(A)〜
図12(A)に示すように車両の移動に伴って、車両9と駐車枠91との位置関係が変化するので、駐車支援装置120は、この位置関係に基づいて、ステップS75で仮想視点VP2を設定し、切り出す画像の位置を変えている。
【0090】
これにより、
図10(B)〜
図12(B)の誘導者視線映像では、画面手前の駐車枠91が略固定され、車両9が駐車枠91へ近づいてくるような映像となる。
【0091】
本変形例によれば、駐車枠位置に立って車両を誘導する感覚で、周囲の状況を把握できる。
【0092】
また、上記実施の形態では、プログラムに従ったCPUの演算処理によってソフトウェア的に各種の機能が実現されると説明したが、これら機能のうちの一部は電気的なハードウェア回路により実現されてもよい。また逆に、ハードウェア回路によって実現されるとした機能のうちの一部は、ソフトウェア的に実現されてもよい。