(58)【調査した分野】(Int.Cl.,DB名)
【発明を実施するための形態】
【0020】
以下、図面を参照しつつ本発明の実施の形態について説明する。
【0021】
<1.第1の実施の形態>
<1−1.構成>
図1は、第1の実施の形態における画像処理システム120の構成を示すブロック図である。画像処理システム120は、車両1(本実施の形態では、自動車)に搭載され、車両1の周辺領域を示す画像を生成して車室内に表示する機能を有する。画像処理システム120のユーザとなるドライバーは、この画像処理システム120を利用し、車両1の周辺の様子を確認することができる。
【0022】
図に示すように、画像処理システム120は、画像処理装置100及び表示装置110を備えている。画像処理装置100は複数のカメラ20を備えている。この複数のカメラ20は、車両1の周辺を撮影して車両1の周辺を示す画像を取得し、取得した画像を画像処理装置100へ入力する。
【0023】
画像処理装置100は、撮影画像等を用いて各種の画像処理を行い、表示装置110に表示するための画像を生成する。また、表示装置110は、画像処理装置100から出力された画像を表示する。
【0024】
複数のカメラ20はそれぞれ、レンズと撮像素子とを備え、車両1の周辺を示す撮影画像を電子的に取得する。複数のカメラ20は、フロントカメラ20F、リアカメラ20B、左サイドカメラ20L、及び、右サイドカメラ20Rを含む。これら4つのカメラ20F,20B,20L,20Rは、車両1において互いに異なる位置に配置され、車両1の周辺の異なる方向を撮影する。
【0025】
図2は、4つのカメラ20F,20B,20L,20Rがそれぞれ撮影する方向を示す図である。フロントカメラ20Fは、車両1の前端に設けられ、その光軸20Faは車両1の直進方向に向けられる。リアカメラ20Bは、車両1の後端に設けられ、その光軸20Baは車両1の直進方向の逆方向に向けられる。左サイドカメラ20Lは、左側の左サイドミラー11Lに設けられ、その光軸20Laは車両1の左側方(直進方向の直交方向)に向けられる。また、右サイドカメラ20Rは、右側の右サイドミラー11Rに設けられ、その光軸20Raは車両1の右側方(直進方向の直交方向)に向けられる。
【0026】
これらのカメラ20F,20B,20L,20Rのレンズには魚眼レンズ等の広角レンズが採用され、各カメラ20F,20B,20L,20Rは180度以上の画角θを有する。このため、4つのカメラ20F,20B,20L,20Rを利用し、車両1の全周囲を撮影することが可能である。
【0027】
図1に戻り、表示装置110は、液晶等の薄型の表示パネルとユーザの入力操作を検知するタッチパネル110aとを備え、各種の情報や画像を表示する。表示装置110は、ドライバーが車両1の運転席に着座した状態でその画面を視認できるように、車室内に配置される。
【0028】
画像処理装置100は、各種の画像処理が可能な電子装置であり、画像処理部102と、画像取得部103と、画像出力部104とを備えている。
【0029】
画像処理部102は、合成画像を生成するための画像処理を行うハードウェア回路である。画像処理部102は、複数のカメラ20で取得された複数の撮影画像を合成して、仮想視点からみた車両1の周辺の様子を示す周辺画像を生成する機能を有している。周辺画像処理部102が周辺画像を生成する手法については後に詳述する。画像処理部102は周辺画像生成部102a及び合成画像生成部102bをさらに備える。
【0030】
周辺画像生成部102aは、複数のカメラ20で取得された複数の撮影画像を合成し、仮想視点からみた車両1の周辺の様子を示す周辺画像を生成する。仮想視点は、車両1の外部の位置から車両1を俯瞰する俯瞰視点、及び、車両1に乗車したドライバーの視点に相当する位置から外部をみるドライバー視点などである。
【0031】
合成画像生成部102bは、周辺画像生成部102aで生成された周辺画像に対し、車両1の車体や車室の画像を周辺画像に重畳する。
【0032】
画像取得部103は、4つのカメラ20F,20B,20L,20Rでそれぞれ得られた撮影画像を取得する。画像取得部103は、アナログの撮影画像をデジタルの撮影画像に変換する機能等の画像処理機能を有する。画像取得部103は、取得した撮影画像に所定の画像処理を行い、処理後の撮影画像を画像生成部102に入力する。
【0033】
画像出力部104は、合成画像等の表示すべき画像を、表示装置110に出力する。これにより、画像が出力された表示装置110に当該画像が表示される。
【0034】
また、画像処理装置100は、制御部101と、記憶部106と、信号受信部105とをさらに備える。制御部101は、例えば、マイクロコンピュータであり、画像処理装置100の全体を統括的に制御する。
【0035】
記憶部106は、例えば、フラッシュメモリ等の不揮発性メモリであり、各種の情報を記憶する。記憶部106は、車両画像データ106P、ファームウェアとしてのプログラムや、制御部101の制御に用いる各種のデータを記憶する。車両画像データ106Pは、車体画像データ106a及び車室画像データ106bを含む。車体画像データ106aは、車両1を俯瞰してみた場合の車両の外観を示す画像である。車室画像データ106bは、車両1の運転席から見える車室内の画像である。各画像は、あらゆる角度からみた車両外観及び車室内の画像を備える。
【0036】
信号受信部105は、車両1に設けられる他の装置からの信号を受信する。信号受信部105は、受信した信号を制御部101に入力する。信号受信部105は、車両情報取得部130、ナビゲーション部140、物体情報取得部150、ドライバー情報取得部160、及び表示装置110のタッチパネル110aからの信号を受信する。
【0037】
制御部101は、CPU、RAM、及びROMを備える。制御部101の各種の機能は、記憶部106に記憶されたプログラムに従ってCPUが演算処理を行うことで実現される。また、制御部101は、プログラムに従って実現される機能として透過率変更部101aを備える。透過率変更部101aは、車両1の車体や車室の画像の透過率を変更する。画像の透過率を高めると、画像の線や色彩が薄く表示され、合成画像生成部102bにより重畳された周辺画像が車体画像や車室画像を透過する。車体画像や車室画像の透過率を100%に変更すると、車両画像や車室画像の線及び色彩は表示されず、周辺画像のみが表示される。一方、透過率を0%に変更すると、車両画像や車室画像の線及び色彩は明確に表示され、車体画像や車室画像と重なる周辺画像は表示されない。また、透過率を50%に変更すると、車体画像や車室画像の線及び色彩は薄く表示され、薄く表示された車体画像や車室画像を通して周辺画像が表示される。なお、画像の透過率を変更する手法は、既知の画像処理手法を用いることができる。
【0038】
車両情報取得部130は、車両1に関する様々な情報を取得し、信号受信部105へ出力する。車両情報取得部130は、車速センサ130a、シフトセンサ130b、ステアリングセンサ130c、及びウインカースイッチ130dを備える。車速センサ130aは、車両1の車両速度を取得し、車速データを時速に換算できるデータとして出力する。シフトセンサ130bは、「Drive」や「Reverse」等のシフトポジションを検知し、現在入力されているシフトポジションの位置データを信号受信部105へ出力する。ステアリングセンサ130cは、ステアリングが中立位置(車両が直進するステアリング位置)から左右にどれだけ回転したかを検知し、角度情報として出力する。ウインカースイッチ130dは、ウインカー(方向指示器)が左右どちらかに操作された場合に、該当する方向データを信号受信部105へ出力する。
【0039】
ナビゲーション部140は、目的地までの経路を案内するナビゲーション機能を実現する電子装置である。ナビゲーション部140は、目的地までの経路を示す地図画像及び経路案内情報を信号受信部105へ出力する。
【0040】
物体情報取得部150は、車両1の周辺に存在する物体を検知し、車両1に対する物体の方向及び距離データを信号受信部105へ出力する。物体情報取得部150は、クリアランスソナー150a及びレーダ150bを備える。クリアランスソナー150aは、車両1のバンパー部等の周囲に設けられ、音波を送受信することで車両1の周辺に存在する物体を検知する。クリアランスソナー150aは、物体の存在を検知すると、物体の存在する方向及び距離データを信号受信部105へ出力する。レーダ150bは、ミリ波や赤外線を送受信することで車両1の周辺に存在する物体を検知する。レーダ150bは、物体の存在を検知すると、物体の存在する方向及び距離データを信号受信部105へ出力する。
【0041】
ドライバー情報取得部160は、車両1のドライバーに関する様々な情報を取得し、信号受信部105へ出力する。ドライバー情報取得部160は、視線センサ160aを備える。視線センサ160aは、車両1内に設置されたカメラによりドライバーの視線方向を検知し、視線方向データを信号受信部105へ出力する。
【0042】
<1−2.画像の生成>
次に、画像生成部102が、車両1の周辺領域を示す周辺画像、及び周辺画像に車両画像を重畳した合成画像を生成する手法について説明する。
図3は、周辺画像生成部102aが周辺画像を生成する手法を説明する図である。
【0043】
フロントカメラ20F、リアカメラ20B、左サイドカメラ20L、及び、右サイドカメラ20Rのそれぞれで撮影が行われると、車両1の前方、後方、左側方、及び、右側方をそれぞれ示す4つの画像PF,PB,PL,PRが取得される。これら4つの画像PF,PB,PL,PRには、車両1の全周囲のデータが含まれている。
【0044】
周辺画像生成部102aは、まず、これら4つの画像PF,PB,PL,PRに含まれるデータ(各画素の値)を、仮想的な三次元空間における立体曲面である投影面TSに投影する。投影面TSは、例えば、略半球状(お椀形状)をしている。この投影面TSの中心部分(お椀の底部分)は、車両1の位置として定められている。また、投影面TSの中心以外の部分は、画像PF,PB,PL,PRのいずれかと対応付けられている。
【0045】
周辺画像生成部102aは、この投影面TSの中心以外の部分に、画像PF,PB,PL,PRに含まれるデータを投影する。周辺画像生成部102aは、投影面TSにおいて車両1の前方に相当する領域に、フロントカメラ20Fの画像PFのデータを投影する。また、周辺画像生成部102aは、投影面TSにおいて車両1の後方に相当する領域に、リアカメラ20Bの画像PBのデータを投影する。さらに、周辺画像生成部102aは、投影面TSにおいて車両1の左側方に相当する領域に左サイドカメラ20Lの画像PLのデータを投影し、投影面TSにおいて車両1の右側方に相当する領域に右サイドカメラ20Rの画像PRのデータを投影する。
【0046】
次に、周辺画像生成部102aは、三次元空間に対して仮想視点VPを設定する。周辺画像生成部102aは、三次元空間における任意の視点位置に任意の視野方向に向けて仮想視点VPを設定できる。そして、周辺画像生成部102aは、投影面TSのうち、設定した仮想視点VPからみて所定の視野角に含まれる領域を画像として切り出し、切り出した画像を合成する。これにより、周辺画像生成部102aは、仮想視点VPからみた車両1の周辺の領域を示す周辺画像APを生成する。
【0047】
次に、合成画像生成部102bが、周辺画像生成部102aが生成した周辺画像AP、仮想視点VPに応じて記憶部106から読み出した車両画像データ106P(車体画像データ106a又は車室画像データ106b)、及びタッチパネル110aに用いるアイコン画像PIを合成し、合成画像CPを生成する。
【0048】
例えば、視点位置を車両1の運転席、視野方向を車両1の前方とした仮想視点VPc(ドライバー視点)を設定した場合は、車両1の運転席からその前方を見渡すように、車両1の車室内及び車両1の前方の領域を示す合成画像CPcが生成される。すなわち、
図4に示すように、合成画像生成部102bは、仮想視点VPの位置が運転席かつ視野方向が前方である合成画像CPcを生成する場合、車両1の前方を示す周辺画像AP、運転席を示す車室画像106b、及びアイコン画像PIを合成し、合成画像CPを生成する。
【0049】
また、視点位置を車両1の左後方、視野方向を車両1の前方とした仮想視点VPb(斜視的かつ俯瞰的な仮想視点)を設定した場合は、車両1の左後方からその周辺全体を見渡すように、車両1及び車両1の周辺の領域を示す合成画像CPbが生成される。
【0050】
また、視点位置を車両1の直上、視野方向を直下とした仮想視点VPa(平面的かつ俯瞰的な仮想視点)を設定した場合は、車両1及び車両1の周辺の領域を俯瞰する合成画像CPaが生成される。
【0051】
合成画像CPが生成されると、透過率変更部101aが、車体画像106a又は車室画像106bの透過率を変更する。車体画像106a又は車室画像106bの透過率が変更された合成画像を表示することで、ドライバーは、車体画像106a等を透過して周辺画像を参照することができるため、車両1の周辺状況を車両との位置関係とともに直感的に把握することができる。
【0052】
<1−3.処理手順>
次に、周辺画像を生成する画像処理装置100の処理手順について説明する。
図5は、画像処理装置100の処理手順を示す図である。
図5に示す処理は、所定の周期(例えば、1/30秒周期)で繰り返し実行される。
【0053】
まず、4つのカメラ20でそれぞれ撮影が行われる。画像取得部103はこれら4つのカメラ20から4つの撮影画像を取得する。画像取得部103は取得した4つの撮影画像を画像生成部102に入力する(ステップS11)。
【0054】
画像取得部103が撮影画像を画像生成部102に入力すると、制御部101が、仮想視点VPの視点位置を決定する(ステップS12)。仮想視点VPの視点位置は、俯瞰視点位置又はドライバー視点位置であり、画像表示の当初にはドライバー視点位置が選択される。ドライバーにとって最も違和感のない視点位置だからである。なお、仮想視点VPの視野方向は、車両1の左前方が好ましい。車両1がいわゆる右ハンドルである場合、車両1を運転操作するドライバーの死角となりやすい方向だからである。
【0055】
仮想視点VPの視点位置及び視野方向の変更は、ドライバーによるタッチパネル110aの操作に応じて行えばよい。この際、表示装置110に表示されるアイコン画像PIが操作される毎に、仮想視点VPの位置を俯瞰視点位置、ドライバー視点位置と順次変更する。さらに、俯瞰視点位置の画像及びドライバー視点位置の画像を並列して同時に表示してもよい。この場合、ドライバーは複数の角度から車両1の周辺状況を同時に把握できるので、車両1をより安全に操作することができる。
【0056】
仮想視点VPの位置が決定されると、周辺画像生成部102aは、画像取得部103が取得した撮影画像に基づき、前述の手法により、車両1の周辺画像APを生成する(ステップS13)。
【0057】
周辺画像APが生成されると、合成画像生成部102bは、制御部101を介して記憶部106から仮想視点VPに応じた車両画像データ106P(車体画像データ106a又は車室画像データ106b)を読み出す(ステップS14)。仮想視点VPの位置が俯瞰視点位置の場合には、車体画像データ106aが読み出され、ドライバー視点位置の場合には、車室画像データ106bが読み出される。なお、合成画像生成部102bによる記憶部106からの読み出し処理は、制御部101を介して実行される。
【0058】
次に、合成画像生成部102bが、4つの撮影画像を用いて、前述の手法により、合成画像CPを生成する(ステップS15)。
【0059】
合成画像生成部102bが合成画像CPを生成すると、透過率変更部101aが、読み出された車両画像データ106Pの透過率を高める処理を実行する(ステップS16)。なお、読み出された車両画像データ106Pの透過率は0%である。透過率変更部101aは、車両画像データ106Pの透過率を50%程度に高めるのが好ましい。この場合、車両画像データ106Pと周辺画像APの両画像が同程度に視認できるため、ドライバーは車両1の周辺状況と車両1の位置関係を容易に把握できるからである。なお、車両画像データ106Pの透過率は、車両1周囲の明るさに応じて変更してもよい。すなわち、夜間や照明のない屋内等により車両1の周囲の照度が低い場合には、車両画像データ106Pの透過率を50%より高めてもよい。この場合、ドライバーは車両画像データ106Pを透過して周辺画像APをより明確に視認できるため、車両1の周囲の照度が低い場合であっても、ドライバーは車両1の周辺状況と車両1の位置関係を把握しやすい。
【0060】
車両画像データ106Pの透過率を高める処理を行うと、透過率変更部101aは、車両画像データ106Pのうち、透過率をさらに高めるべき特定領域PXを設定する(ステップS17)。
【0061】
透過率変更部101aにより設定される特定領域PXは、合成画像CPのうち車両画像106Pに重複する領域であり、車両画像106Pを透過して表示される周辺画像APに対し、ドライバーが運転操作において特に注意を要すべき領域である。
【0062】
例えば、
図6に示すように、合成画像生成部により生成された合成画像がドライバー視点位置で前方を示す合成画像CPcである場合、特定領域PXの大きさは合成画像CPcの1/4程度で、特定領域PXの中心位置は合成画像CPcの中心よりやや下側である。かかる領域は、車両1を前進させる際には、車体に遮られて視認が困難であるうえ、障害物が存在した場合には車両1と接触する恐れがあり、かかる領域が運転操作において特に注意を要すべき領域となるからである。
【0063】
なお、特定領域PXは、
図6に示すような楕円形のみならず、円形や四角形でもよく、車両1の周囲に存在する障害物の形状としてもよい。また、特定領域PXを複数の小領域に分割し、車両1の周囲に存在する障害物と重複する小領域のみ透過率を高めてもよい。
【0064】
特定領域PXを設定すると、透過率変更部101aは、特定領域PXの透過率を高める処理を実行する(ステップS18)。すなわち、透過率変更部101aは、車両画像106Pの一部分の特定領域の透過率を、他の部分の透過率より高める処理を行う。車両画像の透過率を50%にした場合には、特定領域PXの透過率は75%から90%程度に高めるのが好ましい。
図6に示すように、車両画像の透過率に対し特定領域PXの透過率を明確に高めることにより、ドライバーの注意を特定領域PXに引き付けることができるためである。
【0065】
例えば、
図7に示すように、車両1が走行中に路側に停車した車両VSを追い越すような場合において、特定領域PXの大きさは、合成画像CPの1/4程度で、位置は合成画像CPcの中心よりやや左側に設定される。かかる領域は、いわゆる右ハンドルの車両1を走行させる際、車体に遮られて車両VSとの間隔の視認が困難であるため、追い越し走行を行う場合に特に注意を要すべき領域だからである。
【0066】
この際、仮想視点の位置がドライバー視点である場合には、
図8に示すように、特定領域PXの位置は合成画像CPcの中心よりやや左側に設定され、特定領域PXの透過率は車室画像106bよりも高く設定される。また、仮想視点の位置が俯瞰視点である場合には、
図9に示すように、特定領域PXの位置は合成画像CPbのほぼ中心に設定されたうえ、特定領域PXの透過率は車体画像106aよりも高く設定される。
【0067】
これにより、ドライバーは、走行中に路側に停車した車両VSを追い越す場合において、車両VSと接触の恐れのある特に注意を要すべき領域について車両画像106Pをより高い透過率で車両VSを視認することができる。また、車両画像106Pを透過させつつも、ドライバーの注意を特定領域PXへ引き付けることができる。したがって、例えば車両1が高速で走行しており、ドライバーが瞬間的にしか画像を参照できなくとも、ドライバーは車両画像106Pを透過して表示された周辺画像APのうち、運転操作において特に注意を要すべき領域を直感的に視認することができる。
【0068】
透過率変更部101aにより特定領域PXの透過率を高める処理が行われると、画像出力部104は、合成画像CPを表示装置110へ出力する(ステップS19)。出力された合成画像CPは表示装置110に表示され、ドライバーによる運転操作の際に参照される。
【0069】
合成画像CPが出力されると、制御部101は、ドライバーによりタッチパネル110aが操作され、仮想視点VPの位置を変更すべき指示があるか否か判断する(ステップS20)。
【0070】
仮想視点VPの位置を変更すべき指示があると判断する場合には(ステップS20でYes)、ステップS12に戻り、制御部101は仮想視点VPの位置を再度決定する。すなわち、仮想視点の位置がドライバー視点(
図3におけるVPc)が選択されていた場合には、新たな仮想視点の位置として俯瞰的な視点(
図3におけるVPb)が選択される。また、俯瞰的な視点(
図3におけるVPb)が選択されていた場合には、その反対に新たな仮想視点の位置としてドライバー視点(
図3におけるVPc)が選択され、ドライバーによる指示に応じて順次視点が変更される。なお、
図10に示すように、視点位置を車両1の直上、視野方向を直下とした仮想視点VPa(平面的かつ俯瞰的な仮想視点)と、視点位置を車両1の左後方、視野方向を車両1の前方とした仮想視点VPb(斜視的かつ俯瞰的な仮想視点)とを同時に表示してもよい。この場合、ドライバーによる指示に応じて、ドライバー視点、俯瞰視点、及び同時表示(
図10)の画像が順次表示される。
【0071】
一方、仮想視点VPの位置を変更すべき指示がないと判断する場合には(ステップS20でNo)、本処理は終了する。なお、ドライバーにより画像処理システム120の電源がオフされるまで、合成画像CPの表示(ステップS19)及び仮想視点VPの位置の変更の判断(ステップS20)の処理を繰り返し実行してもよい。この場合、ドライバーは画像処理システム120起動中に合成画像CPを常時参照できる。
【0072】
以上のように、画像処理装置100において、画像取得部103が車両1に搭載されたカメラ20の撮影画像を取得し、周辺画像生成部102aが撮影画像に基づいて車両1の周辺領域を示す周辺画像APを生成する。合成画像生成部102bは、仮想視点に応じた車両画像データ106P(車体画像データ106a又は車室画像データ106b)を周辺画像APに合成し、合成画像CPを生成する。透過率変更部101aは、合成画像CPにおける車両画像データ106Pの透過率を高めたうえ、特に注意を要すべき特定領域PXを設定し、特定領域PXの透過率をさらに高める。これにより、車両1のドライバーは、車両画像データ106Pを透過して車両周辺を参照すると共に、特定領域PXをさらに詳細に視認することができるため、運転操作における安全性を向上できる。
【0073】
また、画像処理装置100においては、例えば車両1が高速で走行し、ドライバーが画像を瞬間的にしか参照できなくとも、ドライバーの注意を特定領域PXへ引き付けることができるため、運転操作における安全性を向上できる。
【0074】
<2.第2の実施の形態>
次に、第2の実施の形態について説明する。第2の実施の形態における画像処理システム120の構成及び処理は、第1の実施の形態とほぼ同様のため、第1の実施の形態との相違点を中心に説明する。第1の実施の形態では特定領域PXの位置は、仮想視点VPに応じて予め決定されたが、第2の実施の形態では特定領域PXの位置は、車両1の進行方向に応じて決定される。これにより、車両1の進行方向に特定領域PXの位置が設定されるので、ドライバーが運転操作する際により注意を要するべき位置に特定領域PXを設定することができる。
【0075】
図11は、第2の実施の形態における画像処理システム120のブロック図である。第1の実施の形態の構成に加えて、制御部101は、プログラムに従って実現される機能として方向検出部101bをさらに備えている。
【0076】
方向検出部101bは、車両情報取得部130から送信された車両データを取得し、車両1の進行する方向を検出する。例えば、方向検出部101bは、車両情報取得部130のシフトセンサ130bからシフト位置が「Reverse」となるシフトデータを取得した場合、車両1の進行方向は後退である旨を検出する。方向検出部101bが進行方向を後退と検出すると、透過率変更部101aは、例えば仮想視点VPの視野方向を車両後方となる方向に設定する。
【0077】
図12は、第2の実施の形態における画像処理システム120の処理手順を示すフローチャートである。第1の実施の形態との相違点は、ステップS31の処理を備える点である。ステップS31の処理は、方向検出部101bが車両情報取得部130から送信された車両データを取得して車両1の進行する方向を検出する処理である。
【0078】
図13は、ステップS31の処理の詳細を示すフローチャートである。ステップS31は、ステップS20でNoの判定がなされた後に実行される。ステップS31が実行されると、方向検出部101bがシフトセンサ130bから送信されるシフトデータを取得し、シフト位置が「Reverse」であるか「Drive」であるか判断する(ステップS51)。
【0079】
方向検出部101bがシフト位置を「Reverse」であると判断すると(ステップS51でReverse)、制御部101は、仮想視点VPの視野方向を車両後方に設定する(ステップS52)。次に、透過率変更部101aが特定領域PXの位置を車両下方に設定する(ステップS53)。かかる位置が、車両1を後退させる際に、車体に遮られてドライバーが認識し難い位置であり、特に注意を要する領域の中心点であるからである。
【0080】
ステップS53が実行されると、処理はステップS13に戻る。ステップS13では、仮想視点VPの視野方向が車両後方に設定されているため、周辺画像生成部102aが、車両後方の周辺画像を生成する。また、ステップS17では、特定領域PXの位置が車両下方に設定されているため、透過率変更部101aが、車両下方となる位置に特定領域PXを設定する。これにより、ドライバーは、シフトを「Reverse」とした場合に、車両後方の周辺画像とともに車両画像106Pの特定領域を高い透過率で透過した合成画像を参照でき、車両1の後退操作を安全に行うことができる。
【0081】
一方、方向検出部101bがシフト位置を「Drive」であると判断すると(ステップS51でDrive)、方向検出部101bはステアリングセンサ130cから送信されるステアリングデータを取得し、ステアリングの回転方向が「左」であるか「右」であるか判断する(ステップS54)。方向検出部101bがステアリングの回転方向が「左」であると判断すると(ステップS54で左)、制御部101は、仮想視点VPの視野方向を車両前方に設定する(ステップS55)。
【0082】
次に、透過率変更部101aが特定領域PXの位置を車両左方に設定する(ステップS56)。かかる位置が、車両1を左方向へ進行させる際に、車体に遮られてドライバーが認識し難い位置となり、特に注意を要する領域の中心点となるからである。ステップS56が実行されると、処理はステップS13に戻り前述の処理が再度実行される。
【0083】
また、方向検出部101bがステアリングの回転方向が「右」であると判断すると(ステップS54で右)、制御部101は、仮想視点VPの視野方向を車両前方に設定する(ステップS57)。
【0084】
次に、透過率変更部101aが特定領域PXの位置を車両右方に設定する(ステップS58)。かかる位置が、車両1を右方向へ進行させる際に、車体に遮られてドライバーが認識し難い位置となり、特に注意を要する領域の中心点となるからである。ステップS58が実行されると、処理はステップS13に戻り前述の処理が再度実行される。
【0085】
また、方向検出部101bは、ステアリングの回転方向が「ない」であると判断すると(ステップS54で「ない」)、ナビゲーション部140から送信される経路案内データを取得し、経路案内の方向が「左折」、「右折」、「直進」のいずれかであるか判断する(ステップS60)。方向検出部101bが経路案内の方向が「左折」であると判断すると(ステップS60で左折)、前述のステップS55及びステップS56の処理が実行される。また、方向検出部101bが経路案内の方向が「右折」であると判断する場合も(ステップS60で右折)、前述のステップS57及びステップS58の処理が実行される。
【0086】
一方、方向検出部101bは、経路案内の方向を「直進」であると判断すると(ステップS60で直進)、車速センサ130aから送信される車速データを取得し、車速が所定速度以下であるか判断する(ステップS61)。所定速度とは、例えば時速20km/hである。所定速度以下とは、渋滞時の走行や徐行運転に相当する速度である。このように、車両の速度を検出することで、特定領域PXの位置を適切に設定することができる。すなわち、車速が低い場合には先行車両や障害物と接近して走行し得るため、例えば特定領域PXの位置を車両下方に設定することで、ドライバーは、車両1に接近した先行車両等を視認することができる。
【0087】
方向検出部101bは、車速が所定速度以下であると判断すると(ステップS61でYes)、仮想視点VPの視野方向を車両前方に設定する(ステップS62)。次に、透過率変更部101aが特定領域PXの位置を車両下方に設定する(ステップS63)。かかる位置が、車両1が前進かつ低速で走行する際に、車体に遮られてドライバーが認識し難い位置となり、特に注意を要する領域の中心点となるからである。ステップS63が実行されると、処理はステップS13に戻り前述の処理が再度実行される。
【0088】
一方、方向検出部101bが、車速が所定速度以下でないと判断すると(ステップS61でNo)、
図13のフローチャートに戻り処理は終了する。この場合は、車両1の進行方向に変化が検出されない場合であり、すなわち車両1が後進、右左折、及び低速走行もしないため、仮想視点VPの視野方向及び特定領域PXの位置を変更する必要がないためである。
【0089】
このように、第2の実施の形態では、特定領域PXの位置は車両1の進行方向に応じて決定される。これにより、車両1の進行方向に特定領域PXの位置が設定されるので、ドライバーが運転操作する際により注意を要するべき位置に特定領域PXを設定することができる。このため、ドライバーは、車両1をいかなる方向へ操作する場合でも、車両1の周辺画像とともに車両画像106Pの特定領域を高い透過率で透過した合成画像を参照し、車両1の運転操作を安全に行うことができる。
【0090】
なお、
図13のフローチャートでは、左折や右折の場合に仮想視点VPの視野方向を車両1の前方に設定し(ステップS55、S57)、特定領域PXの位置を車両1の左方や右方に設定(ステップS56、S58)することで、車両1の進行方向に特定領域PXの位置を設定した。しかし、仮想視点VPの視野方向を車両1が曲がる方向とし、特定領域PXの位置をその方向の車両画像106Pにおける中央部とすることで、車両1の進行方向に特定領域PXの位置を設定してもよい。例えば、ウィンカースイッチ130dがオンとなる方向が左であれば、前方正面方向から左斜め45[°]の方向に仮想視点VPの視野方向を設定し、特定領域PXの位置をその方向の中央部としてもよい。このようにすれば、車両1の前後進のみならず右左折の場合であっても特定領域PXの位置が常に画像中央部に設定されるため、ドライバーは特定領域PXの周囲も認識しやすい。
【0091】
<3.第3の実施の形態>
次に、第3の実施の形態について説明する。第3の実施の形態における画像処理システム120の構成及び処理は、第1の実施の形態とほぼ同様であるため、第1の実施の形態との相違点を中心に説明する。第1の実施の形態では特定領域PXの位置は、仮想視点VPに応じて予め決定されたが、第3の実施の形態では特定領域PXの位置は車両1の周辺に存在する物体の位置(方向及び距離)に応じて決定される。これにより、車両1の周辺に存在する物体の位置に特定領域PXの位置が設定されるので、ドライバーが運転操作を行う際により注意を要するべき位置に特定領域PXを設定することができる。
【0092】
図14は、第3の実施の形態における画像処理システム120のブロック図である。第1の実施の形態の構成に加えて、制御部101は、プログラムに従って実現される機能として物体検出部101cをさらに備えている。
【0093】
物体検出部101cは、物体情報取得部150から送信された物体データを取得し、車両1の周辺に存在する物体の位置を検出する。例えば、物体検出部101cは、車両情報取得部130の車両1のクリアランスソナー150a(クリアランスソナー150aのうち左前方に設置されたもの)から一定レベルを超過する強度の物体データを取得した場合、車両1の左前方で距離0.5mに物体が存在する旨を検出する。物体検出部101cが物体の位置を左前方で距離0.5mと検出すると、透過率変更部101aは、例えば仮想視点VPの視野方向を車両左側となる方向に設定する。なお、レーダ150bからの物体データであっても、物体検出部101cは、車両1の周辺に存在する物体の位置を検出することができる。
【0094】
図15は、第3の実施の形態における画像処理システム120の処理手順を示すフローチャートである。第1の実施の形態との相違点は、ステップS71からS73の処理を実行する点である。ステップS71からS73の処理は、物体検出部101cが物体情報取得部150から送信された物体データを取得し、特定領域PXの範囲を検出された物体を含むように設定する処理である。
【0095】
ステップS71は、ステップS20でNoの判定がなされた後に実行される。ステップS71が実行されると、物体検出部101cが物体情報取得部150から送信される豚地データを取得し、車両1の周辺に物体が存在するか判断する。(ステップS71)。
【0096】
物体検出部101cが車両1の周辺に物体が存在すると判断する場合は(ステップS71でYes)、物体検出部101cは、かかる物体の位置(方向及び距離)を検出する(ステップS72)。
【0097】
物体検出部101cが物体の位置を検出すると、透過率変更部101aは、検出された物体の位置に基づき特定領域PXの範囲について物体の外縁を含む範囲に設定する(ステップS73)。物体の外縁は、周辺画像AP上における物体データの強度に基づいて決定すればよい。また、画像処理における、いわゆるパターンマッチングの手法を用いることもできる。この場合、予め車両1の周辺に存在しうる物体の外縁データを記憶部106に記憶しておけばよい。また、物体が車両1に対して相対的に移動している場合には、オプティカルフロー方式の手法を用いて物体の外縁を検出することもできる。この方式を用いた場合は、物体検出部101cは、時間的に連続する複数の撮影画像(フレーム)のそれぞれから特徴点を抽出し、それら複数の撮影画像間での特徴点の動きを示すオプティカルフローに基づいて物体の外縁を検出する。 なお、検出した障害物の方向に向けて仮想視点VPの視野方向を設定し、仮想視点VPの視野方向の中心に特定領域PXの位置を設定してもよい。
【0098】
透過率変更部101aが特定領域PXの範囲を物体の外縁を含む範囲に設定すると、処理はステップS18に戻り、透過率変更部101aは、設定した特定領域PXの透過率を高める処理を実行する。
【0099】
例えば、
図16に示すように、車両1の右前方付近に障害物OB1が存在する駐車場PAに進入した場合、物体情報取得部150が障害物OB1の位置を検知すると、特定領域PXは、右前方かつ下方に設定される。この場合、合成画像CPは
図17に示すように表示され、ドライバー視点においてハンドルやインナーパネルにより遮られていた位置に特定領域PXが設定される。ドライバーは、車室画像106bのうち特に障害物OB1の存在する範囲を高い透過率で透過して障害物OB1を視認できるので、車両1が障害物OB1と接触しないよう回避運転を行うことができる。
【0100】
図15におけるステップS71において、物体検出部101cが車両1の周辺に物体が存在しないと判断した場合は(ステップS71でNo)、処理は終了する。車両1の周辺に物体が存在しないと判断した以上、特定領域PXの範囲を変更する必要がないからである。
【0101】
このように、第3の実施の形態では、特定領域PXの位置は車両1の周辺に存在する物体の位置に応じて決定される。これにより、ドライバーが運転操作する際に、より注意を要するべき位置に特定領域PXを設定することができる。したがって、ドライバーは、物体を回避して車両1を操作でき、車両1の運転操作を安全に行うことができる。
【0102】
<4.第4の実施の形態>
次に、第4の実施の形態について説明する。第4の実施の形態における画像処理システム120の構成及び処理は、第1の実施の形態とほぼ同様であるため、第1の実施の形態との相違点を中心に説明する。第1の実施の形態では特定領域PXの位置は、仮想視点VPに応じて予め決定されたが、第4の実施の形態では特定領域PXの位置は車両1を構成する部位に応じて決定される。車両1を構成する部位とは、ボンネットやドアー、インナーパネル、ハンドル、シート等の部品、さらにピラーやルーフ等の車体における一定領域である。これにより、車両1を構成する部位に特定領域PXが設定されるので、透過率を高めるべき領域を限定することができ、画像処理の処理負荷を軽減することができる。特に、ドアーやピラー等のガラスで囲まれた部位の透過率を高める場合に好適である。かかる部位は、本来透過しているガラスで囲まれているため、該当する領域(ドアーやピラー等)のみ透過率を高める処理を実行すればよいからである。
【0103】
図18は、第4の実施の形態における画像処理システム120のブロック図である。第4の実施の形態の記憶部106が記憶する車両画像データ106Pは、車両部位データ106cを含んでいる。車両部位データ106cは、車体画像データ106a及び車室画像データ106bのうち車両の部位に相当するデータである。例えば、車両部位データ106cは、車室画像データ106bで示される画像におけるドアー部やピラー部等から構成される。透過率変更部101aは、記憶部106から車両部位データ106cを読み出し、読み出した車両部位の透過率を高める処理を実行する。なお、車両部位データ106cは、車両1の周辺に存在する物体の位置と車両部位が重複する場合に、かかる車両部位に相当する車両部位データ106cが選択される。この場合、物体の位置は、物体情報取得部150からの物体データを用いればよい。また、タッチパネル110aに対するドライバーの接触操作により、接触された車両部位を選択してもよい。
【0104】
図19は、第4の実施の形態における画像処理システム120の処理手順を示すフローチャートである。第1の実施の形態との相違点は、ステップS17に代えてステップS17aを実行する点である。ステップS17aの処理は、透過率変更部101aが、車両部位データ106cを記憶部106から読み出し、車両画像106Pのうち読み出した車両部位に相当する範囲について特定領域PXを設定する処理である。ステップS17が実行されると、透過率変更部101aが特定領域PXの透過率を高める処理(ステップS18)を実行し、ステップS19以下の前述の処理が実行される。
【0105】
例えば、
図20に示すように、駐車領域paに駐車すべく駐車場PAへ進入した場合、ドライバーは、車両1の左前方に駐車している駐車車両VEと接触しないよう注意を払う必要がある。この場合、ステアリングセンサ130cで車両1の左方向への進行、及びレーダ150bで駐車車両VEの位置を検出すれば、透過率変更部101aは、車室画像106bにおいて車両1の左Aピラーに駐車車両の画像が重複すると判断できる。このように判断した場合、
図21に示すように、仮想視点VPを車両前方とした合成画像CPにおいて、左Aピラーに相当する領域106cを特定領域PXに設定し、かかる領域の透過率を高める処理が実行される。これにより、ドライバーは、駐車車両VEと接触しないよう容易に注意を払いつつ、駐車領域paに車両1を駐車させることができる。
【0106】
このように、第4の実施の形態では、特定領域PXの位置は車両1を構成する部位に応じて決定される。これにより、透過率を高めるべき領域を限定することができ、画像処理の処理負荷を軽減することができる。
【0107】
<5.変形例>
以上、本発明の実施の形態について説明してきたが、この発明は上記実施の形態に限定されるものではなく様々な変形が可能である。以下では、このような変形例について説明する。上記実施の形態及び以下で説明する形態を含む全ての形態は、適宜に組み合わせ可能である。
【0108】
図22は、変形例における画像処理システム120のブロック図である。同図に示すように、制御部101は、プログラムに従って実現される機能として視線検出部101dを備える。このような構成により、ドライバーの視線方向に特定領域PXを設定し、ドライバーが参照したい方向の車両画像106Pを透過させて合成画像CPを表示させることができる。この場合、ドライバーの目視による安全確認を補助することができるため、ドライバーはより安全に車両1を運転操作することができる。この視線検出部101dは、ドライバー情報取得部160の視線センサ160aから視線データを取得し、ドライバーの視線方向を検出する。ドライバー情報取得部160の視線センサ160aから視線データを取得し、ドライバーの視線方向を検出する。透過率変更部101aは、視線検出部101dが検出したドライバーの視線方向に特定領域PXを設定する。例えば、
図23に示すように、車両1の左側方に障害物OB2が存在する駐車場PAに進入した場合、ドライバーが左側方を目視すれば、仮想視点VPの視野方向も左側方に設定される。ドライバーの視線方向に特定領域PXが設定されるため、
図24に示すように、ドライバーは車両左側方の障害物OB2を高い透過率の車室画像106bを透して視認することができる。なお、ドライバーが視線を移動した数秒後(例えば2秒後)に、ドライバーの視線方向の画像を表示してもよい。この場合、ドライバーが表示装置110に視線を向けた際には、数秒前に視線を向けた方向の画像を表示することができ、ドライバーは目視した周辺の様子を数秒後に表示装置110で確認することができる。
【0109】
また、上記実施の形態の処理手順では、合成画像の生成処理(ステップS15)を特定領域の透過率を高める処理(ステップS18)の前に実行していたが、必ずしもこのような処理手順に限定されるものではない。すなわち、合成画像の生成処理(ステップS15)を特定領域の透過率を高める処理(ステップS18)の後であって、合成画像の出力処理の前に実行してもよい。
【0110】
また、上記実施の形態の処理手順では、各処理(各ステップ)を直列的に実行していたが、必ずしもこのような直列的な処理手順に限定されるものではない。例えば、撮影画像の取得処理(ステップS11)、仮想視点の位置の決定処理(ステップS12)、及び周辺画像の生成処理(ステップS13)と、車両画像又は車室画像を読み出す処理(ステップS14)、車両画像の透過率を高める処理(ステップS16)、特定領域を設定する処理(ステップS17)、及び特定領域の透過率を高める処理(ステップS18)とを並列的に実行してもよい。この場合、かかる並列処理により生成された周辺画像と透過率が高められた特定領域のデータを用いて、合成画像を生成する処理(ステップS15)を実行すればよい。
【0111】
また、上記実施の形態では、プログラムに従ったCPUの演算処理によってソフトウェア的に各種の機能が実現されると説明したが、これら機能のうちの一部は電気的なハードウェア回路により実現されてもよい。また逆に、ハードウェア回路によって実現されるとした機能のうちの一部は、ソフトウェア的に実現されてもよい。