(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-04-05
(45)【発行日】2024-04-15
(54)【発明の名称】画像処理システム、移動装置、画像処理方法、およびコンピュータプログラム
(51)【国際特許分類】
H04N 23/60 20230101AFI20240408BHJP
G06T 7/00 20170101ALI20240408BHJP
H04N 7/18 20060101ALI20240408BHJP
H04N 23/55 20230101ALI20240408BHJP
H04N 23/63 20230101ALI20240408BHJP
【FI】
H04N23/60 500
G06T7/00 300B
G06T7/00 650Z
H04N7/18 E
H04N7/18 J
H04N23/55
H04N23/63
(21)【出願番号】P 2021155814
(22)【出願日】2021-09-24
【審査請求日】2022-07-15
(73)【特許権者】
【識別番号】000001007
【氏名又は名称】キヤノン株式会社
(74)【代理人】
【識別番号】100114775
【氏名又は名称】高岡 亮一
(74)【代理人】
【識別番号】100121511
【氏名又は名称】小田 直
(74)【代理人】
【識別番号】100208580
【氏名又は名称】三好 玲奈
(72)【発明者】
【氏名】森 真起子
【審査官】淀川 滉也
(56)【参考文献】
【文献】特開2015-132879(JP,A)
【文献】特開2018-097766(JP,A)
【文献】特開2017-084006(JP,A)
【文献】国際公開第2014/091877(WO,A1)
(58)【調査した分野】(Int.Cl.,DB名)
H04N 23/60
H04N 23/55
H04N 23/63
H04N 7/18
G06T 7/00
(57)【特許請求の範囲】
【請求項1】
低歪曲領域と高歪曲領域とを有する光学像を撮像する撮像手段により生成した画像データを取得する画像取得手段と、
前記画像取得手段により取得された画像データの内、少なくとも一部領域の画像データを画像認識して第1の画像認識結果を出力する第1の画像認識手段と、
前記画像取得手段により取得された画像データの内、前記一部領域よりも広い領域の画像データを画像認識して第2の画像認識結果を出力する第2の画像認識手段と、
前記第1の画像認識結果と前記第2の画像認識結果とに基づき画像認識結果を出力する統合処理手段と、を有し、
前記撮像手段は、前記光学像を生成する光学系と、
前記光学系により生成された前記光学像を撮像する撮像素子と、を含み、
前記光学系の焦点距離をf、半画角をθ、像面での像高をy、像高yと半画角θとの関係を表す射影特性をy(θ)とするとき、
前記低歪曲領域におけるy(θ)はf×θよりも大きく、前記高歪曲領域における前記射影特性とは異なると共に、
θmaxを前記光学系が有する最大の半画角、Aを所定の定数とするとき、
【数1】
を満足するように構成されていることを特徴とする画像処理システム。
【請求項2】
前記一部領域は前記低歪曲領域に対応する領域であることを特徴とする請求項1に記載の画像処理システム。
【請求項3】
前記第2の画像認識手段は、前記低歪曲領域と前記高歪曲領域に対応した画像データを画像認識して前記第2の画像認識結果を出力することを特徴とする請求項1または2に記載の画像処理システム。
【請求項4】
前記画像取得手段と前記第1の画像認識手段とは同じカメラユニットの筐体に収納されていることを特徴とする請求項1に記載の画像処理システム。
【請求項5】
前記カメラユニットと前記第2の画像認識手段とは別の筐体に収納されていることを特徴とする請求項4に記載の画像処理システム。
【請求項6】
前記第1の画像認識手段は前記低歪曲領域に対応する画像データを歪曲補正せずに画像認識して前記第1の画像認識結果を出力することを特徴とする請求項1~5のいずれか1項に記載の画像処理システム。
【請求項7】
前記第1の画像認識手段は、前記低歪曲領域に対応する画像データを歪曲補正前の状態で画像認識して前記第1の画像認識結果を出力することを特徴とする請求項1~6のいずれか1項に記載の画像処理システム。
【請求項8】
前記第2の画像認識手段は、前記高歪曲領域に対応する画像データを歪曲補正した後で画像認識して前記第2の画像認識結果を出力することを特徴とする請求項1~7のいずれか1項に記載の画像処理システム。
【請求項9】
前記統合処理手段は、前記第1の画像認識結果の信頼性と前記第2の画像認識結果の信頼性に基づき統合された画像認識結果を出力することを特徴とする請求項1~8のいずれか1項に記載の画像処理システム。
【請求項10】
前記画像取得手段により取得された画像データと、前記統合された画像認識結果を表示するための表示手段を有することを特徴とする請求項
9に記載の画像処理システム。
【請求項11】
前記画像取得手段は移動装置に搭載されており、
前記統合処理手段は、前記移動装置の移動状態に応じて前記表示手段に表示する画像の表示領域および前記第1の画像認識手段と前記第2の画像認識手段による認識領域を変更することを特徴とする請求項10に記載の画像処理システム。
【請求項12】
前記低歪曲領域は、中心射影方式(y=f×tanθ)または等距離射影方式(y=f×θ)に近似した射影特性となるように構成されていることを特徴とする請求項1に記載の画像処理システム。
【請求項13】
低歪曲領域と高歪曲領域とを有する光学像を撮像する撮像手段により生成した画像データを取得する画像取得手段と、
前記画像取得手段により取得された画像データの内、少なくとも一部領域の画像データを画像認識して第1の画像認識結果を出力する第1の画像認識手段と、
前記画像取得手段により取得された画像データの内、前記一部領域よりも広い領域の画像データを画像認識して第2の画像認識結果を出力する第2の画像認識手段と、
前記第1の画像認識結果と前記第2の画像認識結果とに基づき画像認識結果を出力する統合処理手段と、を有し、
前記撮像手段は、前記光学像を生成する光学系と、
前記光学系により生成された前記光学像を撮像する撮像素子と、を含み、
前記画像取得手段と前記第1の画像認識手段とは同じカメラユニットの筐体に収納されており、
前記カメラユニットと前記第2の画像認識手段とは別の筐体に収納されていることを特徴とする画像処理システム。
【請求項14】
低歪曲領域と高歪曲領域とを有する光学像を撮像する撮像手段により生成した画像データを取得する画像取得手段と、
前記画像取得手段により取得された画像データの内、少なくとも一部領域の画像データを画像認識して第1の画像認識結果を出力する第1の画像認識手段と、
前記画像取得手段により取得された画像データの内、前記一部領域よりも広い領域の画像データを画像認識して第2の画像認識結果を出力する第2の画像認識手段と、
前記第1の画像認識結果と前記第2の画像認識結果とに基づき画像認識結果を出力する統合処理手段と、
前記画像取得手段により取得された画像データと、前記統合
処理手段より出力された
前記画像認識結果を表示するための表示手段と、を有し、
前記画像取得手段は移動装置に搭載されており、
前記統合処理手段は、前記移動装置の移動状態に応じて前記表示手段に表示する画像の表示領域および前記第1の画像認識手段と前記第2の画像認識手段による認識領域を変更することを特徴とする画像処理システム。
【請求項15】
請求項1~14のいずれか1項に記載の画像処理システムにより制御される移動装置であって、
前記統合
処理手段より出力された
前記画像認識結果に基づき移動装置の走行を制御する走行制御手段を有することを特徴とする移動装置。
【請求項16】
請求項1~14のいずれか1項に記載の画像処理システム又は請求項15に記載の移動装置を用いる画像処理方法であって、
低歪曲領域と高歪曲領域とを有する光学像を撮像する撮像手段により生成した画像データを取得する取得ステップと、
前記取得ステップにより取得された画像データの内、少なくとも一部領域の画像データを画像認識して第1の画像認識結果を出力する第1の画像認識ステップと、
前記取得ステップにより取得された画像データの内、前記一部領域よりも広い領域の画像データを画像認識して第2の画像認識結果を出力する第2の画像認識ステップと、
前記第1の画像認識結果と前記第2の画像認識結果とに基づき統合された画像認識結果を出力する統合処理ステップと、
を有することを特徴とする画像処理方法。
【請求項17】
請求項1~14のいずれか1項に記載の画像処理システム又は請求項15に記載の移動装置のコンピュータに、
低歪曲領域と高歪曲領域とを有する光学像を撮像する撮像手段により生成した画像データを取得する取得ステップと、
前記取得ステップにより取得された画像データの内、少なくとも一部領域の画像データを画像認識して第1の画像認識結果を出力する第1の画像認識ステップと、
前記取得ステップにより取得された画像データの内、前記一部領域よりも広い領域の画像データを画像認識して第2の画像認識結果を出力する第2の画像認識ステップと、
前記第1の画像認識結果と前記第2の画像認識結果とに基づき統合された画像認識結果を出力する統合処理ステップと、
を実行させるためのプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、画像認識が可能な画像処理システム、移動装置、画像処理方法、およびコンピュータプログラムに関する。
【背景技術】
【0002】
近年、車両に搭載されるルームミラー(後写鏡)を電子ルームミラーで置き換えるという要望がある。特許文献1には、車両外の後方を撮像範囲とする撮像部と車両内の表示部とを有し、撮像部で撮像した画像を車両内のディスプレイで表示することにより、ドライバーが車両外の後方の様子を確認できる電子ルームミラーシステムが開示されている。
【0003】
他方、車両の後退時などに車両後方の死角をドライバーが確認できるようにする後方確認システムがある。特許文献2には、車両後方を撮像するようにカメラを設置し、撮像画像を車室内に表示することにより、後退時などに車両後方の死角をドライバーが確認できるようにするための後方確認システムが開示されている。
【先行技術文献】
【特許文献】
【0004】
【文献】特開2010-95202号公報
【文献】特開2004-345554号公報
【発明の概要】
【発明が解決しようとする課題】
【0005】
上述の電子ルームミラー用画像を撮像する撮像部は、ドライバーが後方の比較的遠方の様子をより精細に確認するため高解像度を有することが求められる。一方で、後方確認システム用カメラは、後退時などの衝突を回避するために、車両後方の死角や後側方を含んだより広い範囲での安全を確認するため、より広い範囲を撮像することが求められる。
【0006】
従って、電子ルームミラーシステムと後方確認システムを車両に同時に搭載する場合、電子ルームミラーシステム用のカメラと、後方確認システム用のカメラを個別に搭載すると車載画像処理システムが複雑になってしまう。このような問題は、車両の周囲の状況を撮影するために複数のカメラを配置して自動運転などを行う自動運転システムにおいても同様に発生する。
【0007】
これに対して、魚眼レンズなどの超広角レンズを用いたカメラを採用することによって、車両に設置するカメラの数を減らすことができるが、広い画角は得られるものの高解像度の画像を得ることは困難である。魚眼レンズを用いたシステムにおいて画像認識をする場合、歪曲補正せずに画像認識をすると、画像の周辺部の認識精度が低下する可能性がある。一方、歪曲補正をしてから画像認識をすると、画像のサイズまたは解像度によっては処理負荷が大きくなり時間がかかってしまう可能性がある。さらに、複数のカメラで撮像された複数の画像に対して歪曲補正をする場合には、より処理負荷が大きくなってしまう問題がある。
【0008】
そこで、本発明は、画像認識の精度と処理速度の両立を可能にすることを目的とする。
【課題を解決するための手段】
【0009】
本発明に係る画像処理システムは、
低歪曲領域と高歪曲領域とを有する光学像を撮像する撮像手段により生成した画像データを取得する画像取得手段と、
前記画像取得手段により取得された画像データの内、少なくとも一部領域の画像データを画像認識して第1の画像認識結果を出力する第1の画像認識手段と、
前記画像取得手段により取得された画像データの内、前記一部領域よりも広い領域の画像データを画像認識して第2の画像認識結果を出力する第2の画像認識手段と、
前記第1の画像認識結果と前記第2の画像認識結果とに基づき画像認識結果を出力する統合処理手段と
、を有し、
前記撮像手段は、前記光学像を生成する光学系と、
前記光学系により生成された前記光学像を撮像する撮像素子と、を含み、
前記光学系の焦点距離をf、半画角をθ、像面での像高をy、像高yと半画角θとの関係を表す射影特性をy(θ)とするとき、
前記低歪曲領域におけるy(θ)はf×θよりも大きく、前記高歪曲領域における前記射影特性とは異なると共に、
θmaxを前記光学系が有する最大の半画角、Aを所定の定数とするとき、
【数1】
を満足するように構成されている。
【発明の効果】
【0010】
本発明によれば、画像認識の精度と処理速度の両立を可能にすることができる。
【図面の簡単な説明】
【0011】
【
図1】実施形態1における車両1とカメラユニット11~14の位置関係を説明する図である。
【
図2】
図2(A)および
図2(B)はカメラユニット11~14の光学特性を説明するための図である。
【
図3】実施形態1における画像処理システム100の構成を説明するためのブロック図である。
【
図4】カメラ処理部31~34の処理フローを説明するためのフローチャートである。
【
図5】統合処理部40における処理フローを説明するためのフローチャートである。
【
図6】統合処理部40における統合処理フローを説明するためのフローチャートである。
【
図7】実施形態1の画像表示方法の例について説明するためのフローチャートである。
【
図8】実施形態1の高解像度領域と低解像度領域と複数種類の表示領域の関係を説明するための図である。
【
図9】
図9(A)は基準画角の画像の表示例を説明するための図であり、
図9(B)は狭画角の画像の表示例を説明するための図であり、
図9(C)は広画角の画像の表示例を説明するための図である。
【
図10】
図10(A)は第1表示部50の表示画面501の表示例を説明するための図であり、
図10(B)は第2表示部51の表示画面511の表示例を説明するための図である。
【
図11】
図11(A)は後退時の狭画角の画像85Bの例を説明するための図であり、
図11(B)は後進用の広画角の画像86Bの例を示した図である。
【発明を実施するための形態】
【0012】
以下、図面を参照して本発明の実施形態を説明する。ただし、本発明は以下の実施形態に限定されるものではない。なお、図面において、同一の部材または要素については同一の参照番号を付し、それらの重複する説明については省略または簡略化する。
【0013】
[実施形態1]
実施形態1では、高精細な電子ルームミラー用の表示や広範囲な後方などの車両周辺確認用の表示を少ない数のカメラで両立する改善された方法について説明する。
【0014】
図1は、実施形態1における車両1(例えば自動車)とカメラユニット11~14の位置関係を説明する図である。車両1は移動装置として動作し、カメラユニット11~14はいずれも撮像装置として動作する。
【0015】
実施形態1では、
図1に示すように、移動装置としての車両1の前方、右側方、後方、左側方にそれぞれカメラユニット11、12、13、14が設置されている。なお、実施形態1では、画像処理システムが4つのカメラユニットを有するが、画像処理システムが有するカメラユニットの数は4に限定されるものではない。画像処理システムは、1つ以上のカメラユニットを有する画像処理システムであればよい。
【0016】
カメラユニット11~14は、移動装置としての車両1のそれぞれ前方、右側方、左側方、後方を撮像範囲とするように設置されている。カメラユニット11~14は、カメラユニット11~14は、それぞれ、略同様の構成要素を有する。例えば、カメラユニット11~14は、それぞれ、光学像を撮像する撮像素子と、撮像素子の受光面に光学像を生成する光学系とを有する。例えば、カメラユニット11~14が有する光学系の光軸は、それぞれ、略水平となるように設置されている。
【0017】
カメラユニット11~14が有する光学系は、それぞれ、光軸周辺の狭い画角において高精細な画像を得ることができ、広い画角において低解像度の撮像画像を得ることができるように構成されている。なお、
図1において、11a~14aは高解像度の像を撮像可能な撮像画角であり、11b~14bは低解像度の像を撮像可能な撮像画角を示している。
【0018】
次に、
図2(A)および
図2(B)を参照して、カメラユニット11~14が有する光学系の光学特性を説明する。カメラユニット11~14が有する光学系の光学特性は同じでなくてもよいが、実施形態1においては、カメラユニット11~14が有する光学系の光学特性が略同じであるものとする。従って、
図2(A)および
図2(B)では、カメラユニット11が有する光学系の光学特性を例示的に説明する。
【0019】
図2(A)は、カメラユニット11が有する光学系の、撮像素子の受光面上での各半画角における像高yを等高線状に示した図である。
図2(B)は、カメラユニット11が有する光学系の像高yと半画角θとの関係を表す射影特性を表した図である。
図2(B)では、半画角(光軸と入射光線とがなす角度)θを横軸とし、カメラユニット11のセンサ面上(像面上)での結像高さ(像高)yを縦軸として示している。
【0020】
カメラユニット11が有する光学系は、
図2(B)に示すように、所定の半画角θa未満の領域と半画角θa以上の領域でその射影特性y(θ)が異なるように構成されている。従って、単位あたりの半画角θに対する像高yの増加量を解像度というとき解像度が領域によって異なる。この局所的な解像度は、射影特性y(θ)の半画角θでの微分値dy(θ)/dθで表されるともいえる。即ち、
図2(B)の射影特性y(θ)の傾きが大きいほど解像度が高いといえる。また、
図2(A)の等高線状の各半画角における像高yの間隔が大きいほど解像度が高いともいえる。
【0021】
実施形態1においては、半画角θが所定の半画角θa未満のときにセンサ面上に生成される中心寄りの領域を高解像度領域10a、半画角θが所定の半画角θa以上の外寄りの領域を低解像度領域10bと呼ぶ。なお、高解像度領域10aの画角は撮像画角11aに対応しており、低解像度領域10bの画角は撮像画角11bに対応している。なお、実施形態1において、高解像度領域10aは歪曲が相対的に少ない低歪曲領域であり、低解像度領域10bは歪曲が相対的に多い高歪曲領域となっている。従って、実施形態1においては、高解像度領域、低解像度領域をそれぞれ低歪曲領域、高歪曲領域と呼ぶことがある。
【0022】
カメラユニット11が有する光学系は、高解像度領域(低歪曲領域)10aにおいてその射影特性y(θ)がf×θよりも大きくなるように構成されている(fはカメラユニット11が有する光学系の焦点距離)。また、高解像度領域(低歪曲領域)における射影特性y(θ)は低解像度領域(高歪曲領域)における射影特性とは異なるように設定されている。
【0023】
θmaxをカメラユニット11が有する光学系が有する最大の半画角とするとき、θaとθmaxの比θa/θmaxは所定の下限値以上であることが望ましく、例えば所定の下限値として0.15~0.16が望ましい。また、θaとθmaxの比θa/θmaxは所定の上限値以下であることが望ましく、例えば0.25~0.35とすることが望ましい。例えば、θaを90°とし、所定の下限値を0.15、所定の上限値0.35とする場合、θaは13.5~31.5°の範囲で決定することが望ましい。
【0024】
さらに、カメラユニット11が有する光学系は、その射影特性y(θ)が、以下の数式1も満足するように構成されている。
【数1】
ここで、fは前述のようにカメラユニット11が有する光学系の焦点距離であり、Aは所定の定数である。下限値を1とすることで、同じ最大結像高さを有する正射影方式(y=f×sinθ)の魚眼レンズよりも中心解像度を高くすることができ、上限値をAとすることで、魚眼レンズ同等の画角を得つつ良好な光学性能を維持することができる。所定の定数Aは、高解像度領域と、低解像度領域の解像度のバランスを考慮して決めればよく、1.4~1.9となるようにするのが望ましい。
【0025】
以上のように光学系を構成することで、高解像度領域10aにおいては、高解像度が得られる一方、低解像度領域10bでは、単位あたりの半画角θに対する像高yの増加量を小さくし、より広い画角を撮像することが可能になる。従って、魚眼レンズと同等の広画角を撮像範囲としつつ、高解像度領域10aにおいては、高い解像度を得ることができる。
【0026】
実施形態1では、高解像度領域(低歪曲領域)においては、通常の撮像用の光学系の射影特性である中心射影方式(y=f×tanθ)や等距離射影方式(y=f×θ)に近い特性としているため、光学歪曲が小さく、精細に表示することが可能となる。従って、先行車や後続車両といった周囲の車両などを目視する際における自然な遠近感が得られると共に、画質の劣化を抑えて良好な視認性を得ることができる。
【0027】
なお、上述の数式1の条件を満たす射影特性y(θ)であれば、同様の効果を得ることができるため、実施形態1は
図2に示した射影特性に限定されない。なお、実施形態1では、上述の数式1の条件を満たす射影特性y(θ)を有する光学系を異画角レンズと呼ぶ場合がある。なお、カメラユニット11~14が有する光学系の高解像度領域10aの画角はそれぞれ撮像画角11a~14aに対応しており、カメラユニット11~14が有する光学系の低解像度領域10bの画角はそれぞれ撮像画角11b~14bに対応している。
【0028】
次に、
図3を参照して、実施形態1における画像処理システム100の構成を説明する。
図3は、実施形態1における画像処理システム100の構成を説明するためのブロック図である。
【0029】
図3において、画像処理システム100は、車両1に搭載されている。カメラユニット11~14は、それぞれ、撮像部21~24のいずれかとカメラ処理部31~34のいずれかとを有する。撮像部21~24は、それぞれ、異画角レンズ21c~24cのいずれかと撮像素子21d~24dのいずれかとを有する。撮像素子21d~24dは、例えば、CMOSイメージセンサまたはCCDイメージセンサを有する。ここで、撮像部21~24は、それぞれ、画像取得部として機能しており、低歪曲領域と高歪曲領域とを有する光学像を撮像する撮像素子21d~24dのいずれかから画像データを取得している。
【0030】
光学系としての異画角レンズ21c~24cは、それぞれ、1枚以上の光学レンズから構成されており、上述の数式1の条件を満たす射影特性y(θ)を有し、低歪曲領域と高歪曲領域とを有する光学像を撮像素子21d~24dのいずれかの受光面に生成する。撮像素子21d~24dは、それぞれ、光学像を光電変換して撮像データを出力する。撮像素子21d~24dの受光面には、それぞれ、例えばRGBの色フィルタが画素毎に配列されている。RGBの配列は例えばベイヤー配列となっている。従って、撮像素子21d~24dのそれぞれからは、ベイヤー配列に従って例えば所定の行からはR,G,R、Gの画素データが順次出力され、隣の行からはG,B,G,Bの画素データが順次出力されるように構成されている。
【0031】
カメラ処理部31~34は、それぞれ、撮像部21~24のいずれかと共にカメラユニット11~14のいずれかの筐体に収納されている。カメラ処理部31~34は、それぞれ、撮像部21~24のいずれかから出力された撮像データを処理する。
【0032】
カメラ処理部31~34は、それぞれ、画像処理部31a~34aのいずれかと、認識部31b~34bのいずれかと、カメラ情報部31c~34cのいずれかとを有する。画像処理部31a~34aは、撮像部21~24から出力された撮像データをそれぞれ画像処理する。なお、カメラ処理部31の一部または全部を撮像素子21d~24d内の積層された信号処理部で行ってもよい。
【0033】
例えば、画像処理部31a~34aは、それぞれ、撮像部21~24のいずれかからベイヤー配列に従って入力された画像データをデベイヤ処理し、RGBのラスタ形式の画像データへ変換する。さらに、画像処理部31a~34aは、それぞれ、ホワイトバランスの調整、ゲイン・オフセット調整、ガンマ処理、カラーマトリックス処理、可逆圧縮処理などを行ってもよい。
【0034】
認識部31b~34bは、それぞれ、画像処理部31a~34aのいずれかで画像処理された歪曲補正前の画像データからそれぞれ所定の対象物(例えば自動車、人物、障害物など)を画像認識する。例えば、認識部31b~34bは、それぞれ、低歪曲領域に対応する画像データを歪曲補正せずに歪曲補正前の画像データの状態で画像認識して第1の画像認識結果を出力する。
【0035】
なお、認識部31b~34bは、それぞれ、少なくとも高解像度領域10aから得られた歪曲補正前の画像データに対して画像認識処理を行い、所定の対象物を認識する。そのために、高解像度領域10aだけを切り出してから画像認識処理してもよい。このような場合、認識部31b~34bは、それぞれ、低解像度領域10bから得られた歪曲補正前の画像データについても画像認識処理をしてもよい。但し、歪曲補正前の画像データは歪曲補正されていないので、異画角レンズの周辺部の画像は歪が大きく認識の信頼性は落ちることになる。
【0036】
なお、認識部31b~34bは、それぞれ、高解像度領域10aから得られた歪曲補正前の画像データを切り出して、その高解像度領域10aから得られた歪曲補正前の画像データに対してだけ画像認識処理を行ってもよい。その場合、切り出す領域は、画像認識処理のために矩形にすることが望ましい。切り出す領域が矩形である場合、切り出す領域は、高解像度領域10a内の一部だけ(例えば高解像度領域10aに内接する矩形)でもよいし、高解像度領域10aと低解像度領域10bの両方を含んだ矩形でもよい。ここで、認識部31b~34bは、画像取得部により取得された画像データの内、少なくとも一部領域の画像データを画像認識して第1の画像認識結果を出力する第1の画像認識部として機能している。なお、実施形態1において、前記一部領域は、低歪曲領域に対応する領域である。
【0037】
認識部31b~34bは、それぞれ、対象物の種類と座標のセットを認識結果として統合処理部40に送信する。一方、認識部31b~34bは、それぞれ、統合処理部40の統合制御部41cから、対象物の種類と、その対象物の移動方向に関する情報または優先認識領域情報のセットである予測情報を受信する。この予測情報については後述する。
【0038】
実施形態1では、前方に対して設置されたカメラユニット11の認識部31bの出力は、走行制御部(ECU)60にも直接供給されている。これは、認識部31bの障害物などの認識結果に基づいて直ちに走行を停止したり、障害物を回避するように走行を制御する必要が生じる場合があるからである。
【0039】
カメラ情報部31c~34cは、それぞれ、カメラユニット11~14のいずれかのカメラ情報を予めメモリ(ROMなど)に保持している。各カメラ情報は、異画角レンズ21c~24cのいずれかの光学特性と、撮像素子21d~24dのいずれかの画素数、ガンマ特性、感度特性、フレームレート、カメラユニットの車両座標における取り付け座標および姿勢情報とを含む。さらに、各カメラ情報は、画像処理部31a~34aのいずれかにおいて歪曲補正前の画像データを生成する際の画像処理方法や画像フォーマットに関する情報を含んでもよい。なお、取り付け座標や姿勢座標は車両1に対する相対的な座標である。また、各カメラ情報は、撮像部21~24のいずれかの固有の情報であり、互いに異なり 、それらの情報は統合処理部40に送信され、統合処理部40における画像処理をする際に参照される。
【0040】
なお、カメラ処理部31~34の内部には、それぞれ、コンピュータとしてのCPUや記憶媒体としてのコンピュータプログラムを記憶したメモリが内蔵されている。また、各CPUはメモリ内のコンピュータプログラムを実行することにより、各カメラ処理部31~34に含まれる各構成要素を制御するように構成されている。
【0041】
なお、実施形態1では、画像処理部31a~34aや認識部31b~34bは、例えば専用回路(ASIC)やプロセッサ(リコンフィギュラブルプロセッサ、DSP、GPU(Graphics Processing Unit))などのハードウェアを用いる。それによって、高解像度領域の画像認識の高速化が実現でき、事故を回避できる可能性を高めることができる。
【0042】
統合処理部40は、SOC(Sytem On Chip)/FPGA(Field Programable Gate Array)41、コンピュータとしてのCPU42、記憶媒体としてのメモリ43を有する。CPU42はメモリ43に記憶されたコンピュータプログラムを実行することによって、画像処理システム100全体の各種制御を行う。なお、実施形態1では、統合処理部40はカメラユニットとは別の筐体で収納されている。
【0043】
SOC/FPGA41は、画像処理部41a、認識部41b、統合制御部41cを有する。画像処理部41aは、カメラ処理部31~34からそれぞれの歪曲補正前の画像データを取得すると共に、各カメラ情報部31c~34cより各カメラユニット11~14のカメラ情報を取得する。各カメラ情報は、前述のように、異画角レンズ21c~24cの光学特性、撮像素子21d~24dの画素数、光電変換特性、γ特性、感度特性、歪曲補正前の画像データのフォーマット情報を含む。また、カメラユニットの車両座標における取り付け座標および姿勢情報を含む。
【0044】
画像処理部41aは、撮像部21~24のそれぞれの低解像度領域10bから得られた画像データに対して歪曲補正を行う。実施形態1では、画像処理部41aは、高解像度領域10aから得られた画像データは歪曲が殆どないので歪曲補正は行わない。但し、画像処理部41aは、高解像度領域10aから得られた画像データに対しても簡略的な歪曲補正を行ってもよい。画像処理部41aは、歪曲補正を行った撮像部21~24のそれぞれの低解像度領域10bの画像データと、高解像度領域10aの画像データをスムーズにつなぎ合わせるように合成して撮像部21~24毎の全体画像を生成する。なお、低解像度領域10bの画像データと高解像度領域10aから得られた画像データの両方に対して歪曲補正を行う場合には、画像処理部31a~34aのそれぞれから得られた歪曲補正前の画像データをそのまま歪曲補正してもよい。
【0045】
認識部41bは、少なくとも低解像度領域を歪曲補正した後の、撮像部21~24毎の全体画像(画像の周辺部を含む)に対して画像認識処理を行い、撮像部21~24毎の全体画像における所定の対象物(例えば自動車、人物、障害物など)を画像認識する。例えば、認識部41bは、少なくとも低解像度領域(高歪曲領域)に対応する画像データを歪曲補正した後で画像認識して第2の画像認識結果を出力する。なお、認識部41bは、全体画像(画像の周辺部を含む)に対して画像認識処理を行う場合に、認識部31b~34bによる認識結果(対象物の種類や座標)を参照してもよい。ここで、認識部41bは、画像取得部により取得された画像データの内、第1の画像認識部で画像認識を行った一部領域よりも広い領域の画像データを画像認識して第2の画像認識結果を出力する第2の画像認識部として機能している。第2の画像認識部は、低歪曲領域としての高解像度領域10aと高歪曲領域としての低解像度領域10bに対応した画像データの両方を画像認識して第2の画像認識結果を出力している。
【0046】
画像処理部41aは、複数の撮像部の画像をつなぎ合わせるように合成して、パノラマ的な合成画像を生成してもよい。その場合、つなぎ合わされる複数の撮像部の画像は、それぞれの撮影画角の少なくとも一部が互いに所定量以上のオーバーラップ領域を有するように設定されていることが望ましい。
【0047】
認識部41bは、そのパノラマ的な合成画像に対して画像認識を行ってもよい。そうすることによって、例えば複数の撮像部の画角にまたがるように撮影された対象物の画像認識が可能となる。これは、それぞれの撮像部からの個別の全体画像では対象物の全体像が分からない場合があるが、パノラマ的な合成画像においてはその対象物のほぼ全体が映り画像処理により画像認識が可能になる場合があるからである。
【0048】
統合制御部41cは、例えば認識部31b~34bによる認識結果と認識部41bによる認識結果が異なる場合には、より信頼性が高い方の認識結果を採用することで統合された画像認識結果を出力する。
例えば、認識部31b~34bにより認識された画像内の対象物の占める割合と認識部41bにより認識された同じ対象物の、画面内に閉める割合を比較し、その割合が大きい方の認識結果を、より信頼性が高いと判定して採用してもよい。
【0049】
或いは、高解像度領域内と低解像度領域の両方にまたがっている対象物の場合には、認識部31b~34bによる認識結果よりも認識部41bによる認識結果を、より信頼性が高いと判定して採用してもよい。或いは、認識部31b~34bにより認識された対象物の位置が画像の周辺部の場合には、信頼性が低いと判定して、認識部41bによる認識結果を、より信頼性が高いと判定して採用してもよい。
【0050】
或いは、認識部41bでは、低解像度領域を歪曲補正した状態で、低解像度領域だけ画像認識をすると共に、もし低解像度領域と高解像度領域にまたがる対象物があった場合には、その対象物に対して画像認識をするようにしてもよい。例えば、高解像度領域だけに存在する対象物に対しては認識部31b~34bによる認識の信頼性の方が高いとみなして認識部41bでは画像認識処理をしないように制御してもよい。ここで、統合制御部41cは、第1の画像認識結果の信頼性と第2の画像認識結果の信頼性に基づき統合された画像認識結果を出力する統合処理部として機能している。
【0051】
統合制御部41cは、撮像部21~24毎の全体画像、パノラマ的な合成画像などの内、所望の画像を第1表示部50,第2表示部51などに表示するための画像データを生成する。また、認識された対象物を強調表示するための枠や、対象物の種類、サイズ、位置、速度などに関する情報や警告などのためのCGなどを生成する。
【0052】
また、これらのCGや文字を画像に重畳するための表示処理などを行う。例えば車両1が警察の車両などの場合には、他の車両のナンバープレートや運転者の顔画像を認識し、ネットワークを介して警察のサーバなどに問い合わせをして車両の所有者や運転者名を第1表示部50や第2表示部51などに表示することも可能である。ここで、第1表示部50および第2表示部51の少なくとも一つは、画像データを表示したり、統合された画像認識結果を表示したりする。
【0053】
実施形態1においては、統合制御部41cは複数のカメラユニットの間で認識された対象物に関する情報を共有するように構成されている。例えば、カメラユニット14において認識された対象物がカメラユニット11の画角の方向に移動していることが認識されたものとする。その場合には、統合制御部41cはその対象物の種類と、その対象物の移動方向に関する情報または優先認識領域情報を含む予測情報をカメラユニット11の認識部31bに送信する。
【0054】
カメラユニット11の認識部31bは統合制御部41cから受け取った予測情報を参照して認識動作を行う。例えば、統合制御部41cから受け取った予測情報がその対象物の移動方向に関する情報の場合には、その情報に基づきその対象物がカメラユニット11の画角どの位置に登場するかを予測する。
【0055】
統合制御部41cは、予測情報として優先認識領域情報を送信してもよい。優先認識領域情報は、例えばカメラユニット11の撮影画角のどの領域にその対象物がいつ登場するかを含む。カメラユニット11の認識部31bは、予測情報として優先認識領域情報を受信した場合には、予測されたタイミングでその対象物がその優先認識領域に登場する可能性が高いと予測して画像認識を行う。
【0056】
統合制御部41cは、走行制御部(ECU)60などと、CAN、FlexRay、Ethernetなどに準拠した通信プロトコルに従った通信を行う。それによって、走行制御部(ECU)60などからの車両制御信号に基づき表示する情報を適宜変更する表示処理を行う。例えば、車両制御信号により取得された車両1の移動状態に応じて表示部に表示する画像の範囲を変化させる。
【0057】
なお、走行制御部(ECU)60は、車両1に搭載されており、車両1の駆動制御、方向制御などを総合的に行うためのコンピュータやメモリを内蔵したユニットである。走行制御部(ECU)60からは車両制御信号として例えば走行速度、走行方向、シフトレバー、シフトギア、ウインカーの状態、地磁気センサなどによる車両1の向きなどの車両1の走行(移動状態)に関する情報などが統合処理部40に対して入力される。
【0058】
逆に、統合制御部41cは、認識部41bで認識された所定の対象物(障害物など)の種類、位置、移動方向、移動速度などの情報を走行制御部(ECU)60に送信する。それによって、走行制御部(ECU)60は、車両1の停止、駆動、走行方向の変更などの障害物の回避などに必要な制御を行う。ここで走行制御部(ECU)60は、統合された画像認識結果に基づき、車両1の移動を制御する移動制御部として機能している。
【0059】
第1表示部50は、例えば、車両1の運転席の前方上部の車幅方向の中央付近に、表示画面を車両1の後方に向けて設置され電子ルームミラーとして機能する。なお、ハーフミラーなどを用いて、ディスプレイとして使用しないときは鏡として使用できる構成としてもよい。例えば第1表示部50は、タッチパネルまたは操作ボタンを有し、ユーザーからの指示を取得し、統合制御部41cへ出力可能な構成としてもよい。
【0060】
第2表示部51は、例えば、車両1の運転席の前方の車幅方向の中央付近の操作パネル周辺に設置される。なお、移動装置としての車両1には、ナビゲーションシステムおよびオーディオシステムなどが搭載されている。そして、例えば第2表示部には、ナビゲーションシステムや、オーディオシステムや走行制御部(ECU)60からの各種制御信号なども表示することができる。例えば第2表示部は、タッチパネルまたは操作ボタンを有し、ユーザーからの指示を取得可能な構成としている。
【0061】
実施形態1では、第1表示部50および第2表示部51は、ディスプレイパネルとして液晶ディスプレイまたは有機ELディスプレイを有する。なお、実施形態1において、表示部の数は2つに限定されない。1つで兼用してもよいし、3つ以上あってもよい。
【0062】
実施形態1では、統合処理部40に含まれる構成要素の一部または全部をハードウェアで実現するようにしてもよいし、CPU42に、メモリ43に記憶されたコンピュータプログラムを実行させることによって実現してもよい。ハードウェアとしては、専用回路(ASIC)やプロセッサ(リコンフィギュラブルプロセッサ、DSP)などを用いることができる。
【0063】
実施形態1では、画像処理部31a~34aで行っている画像処理の一部または全部を統合処理部40の画像処理部41aで行ってもよい。実施形態1では、例えば、画像取得部と第1の画像認識部とは同じカメラユニットの筐体に収納されており、カメラユニットと第2の画像認識部とは別の筐体に収納されている。
【0064】
実施形態1では、統合処理部40は移動装置としての車両1に搭載されているが、統合処理部40の画像処理部41a、認識部41b、統合制御部41cの一部の処理を例えばネットワークを介して外部サーバなどで行ってもよい。その場合、例えば画像取得部としての撮像部21~24は車両1に搭載されるが、例えばカメラ処理部31~34および統合処理部40の機能の一部は外部サーバなどの外部装置で処理することが可能になる。
【0065】
記録部61は、統合処理部40で生成された撮像部21~24毎の全体画像や、パノラマ的な合成画像を記録媒体に記録する。さらに、認識された対象物を示す所定の枠や文字や警告などのCGや、CGが重畳され第1表示部50,第2表示部51などに表示された画像を時刻などやGPS情報などと共に記録する。
統合処理部40は、記録部61に記録された過去の情報を再生し、それを第1表示部50や第2表示部51に表示することも可能である。
【0066】
通信部62は、ネットワークを介して外部サーバなどと通信するためのものであり、記録部61に記録される前の情報や記録部61に記録された過去の情報を外部サーバなどに送信して外部サーバなどに保存することが可能である。逆に外部サーバなどから渋滞情報や、各種の情報を取得して、統合処理部40を介して第1表示部50や第2表示部51に表示することも可能である。
【0067】
以上のように、高解像度領域10aについては歪曲補正前の画像データの状態で画像認識処理を行っている。それにより速やかに認識を可能にし、低解像度領域10bから得られた歪曲補正前の画像データは歪曲補正後に画像認識処理をすることで認識精度を上げることができる。
しかも、実施形態1では、高解像度領域10aについては撮像装置の認識部で歪曲補正前の画像データの状態でハードウェアを用いて画像認識処理を行っているので、高解像度領域10aの画像認識をより速やかに行うことができる。
【0068】
なお、認識部31b~34bで行っている画像認識処理の一部または全部を統合処理部40の認識部41bで行ってもよい。但し、その場合、認識部41bは、高解像度領域10aについては歪曲補正前の画像データの状態で画像認識処理を行うことにより短時間で速やかに画像認識結果を得られるようにする。一方、低解像度領域10bから得られた歪曲補正前の画像データは歪曲補正後に画像認識処理をする。
【0069】
なお、認識部31b~34bまたは認識部41bで行う画像処理は機械学習を用いてもよい。機械学習を用いた認識方法としては、オブジェクト検出アルゴリズムを利用する認識方法であればどのような認識方法であってもよい。例えば、YOLO(You Only Look Once)、R-CNN (Region-based Convolutional Neural Networks)、Fast R-CNN、Faster R-CNN、SSD(Single Shot MultiBox Detector)などを用いることができる。なお、機械学習を用いることによってある程度の歪曲画像のままであっても画像認識率を上げることが可能となる。
【0070】
図4は、実施形態1のカメラ処理部の処理フローを説明するためのフローチャートである。
図4の処理フローは、カメラ処理部31~34の内部のCPUがメモリ内のコンピュータプログラムを実行することによりハードウェアとCPU、GPU等が連携して例えばフレーム単位で制御される。
【0071】
画像処理システム100に電源が入るとハードウェアがリセットされ、フローがスタートする。その後、垂直同期信号が入るたびに
図4のフローが実行され、ステップS41(撮像ステップまたは取得ステップ)において、カメラ処理部31~34は、それぞれ撮像部21~24より撮像画像を取得する。
【0072】
ステップS42において、カメラ処理部31~34内の画像処理部31a~34aによりデベイヤ処理、ホワイトバランス調整などの画像処理が行われ、歪曲補正前の画像データが生成される。
【0073】
ステップS43(第1の画像認識ステップ)において、認識部31b~34bは、歪曲補正前の画像データに基づき少なくとも高解像度領域10aから所定の対象物を画像認識する。ステップS43では、ステップS41により取得された画像データの内、低歪曲領域を含む少なくとも一部領域の画像データを画像認識して第1の画像認識結果を出力する。なお、前述のように、認識部31b~34bは高解像度領域10aだけから所定の対象物を画像認識してもよいし、周辺の低解像度領域10bの画像についても画像認識してもよい。
【0074】
ステップS44では、画像認識された対象物の種類と座標(または対象物の領域の情報)をセットにして統合処理部40に送信する。
【0075】
図5は、実施形態1の統合処理部40における処理フローを説明するためのフローチャートである。
図5の処理フローは、統合処理部40のCPU42がメモリ43内のコンピュータプログラムを実行することにより制御される。
【0076】
ステップS51において、統合処理部40はカメラ処理部31~34のカメラ情報部31c~34cよりそれぞれのカメラ情報を取得する。
【0077】
ステップS52において、カメラ情報の中の光学特性、撮像素子の画素数などに基づき、歪曲補正パラメータを算出する。なお、歪曲補正パラメータを算出する代わりに、予め座標変換テーブルを用意し、その座標変換テーブルを用いて歪曲補正をしてもよい。また、歪曲補正に際して補間を行ってもよい。また、ステップS52において、カメラ情報の中の各カメラユニットの車両座標における取り付け座標および姿勢情報に基づき、複数のカメラユニットからの画像を合成するための合成パラメータも算出する。
【0078】
ステップS53において、ステップS52で算出された歪曲補正パラメータと合成パラメータを統合処理部40内の画像処理部41aに設定する。
【0079】
ステップS54において、歪曲補正後の低解像度領域の座標と、歪曲補正していない高解像度領域の座標との位置合わせのための座標変換式を算出する。また、複数のカメラユニットからの画像を合成する際の座標の位置合わせのための座標変換式を算出して、これらの座標変換式を統合制御部41cに設定する。また、これらの座標変換式において、補間を行ってもよい。
【0080】
ステップS55において、カメラ情報の中の撮像素子の感度特性やガンマ特性などに基づき画像処理パラメータを生成する。その際に、歪曲補正前の画像データを統計的に処理することによって画像認識率が向上するように画像処理パラメータを生成してもよい。
【0081】
ステップS56において、ステップS55で生成された画像処理パラメータを統合処理部40内の画像処理部41aに設定する。
【0082】
図6は、実施形態1の統合処理部40における統合処理フローを説明するためのフローチャートである。
図6の処理フローは、統合処理部40のCPU42がメモリ43内のコンピュータプログラムを実行することにより、ハードウェアとCPU、GPU等が連携して例えばフレーム単位で制御される。
【0083】
ステップS61において、統合処理部40はカメラ処理部31~34より歪曲補正前の画像データを取得する。
【0084】
ステップS62において、統合処理部40の画像処理部41aは、歪曲補正前の画像データを画像処理して歪曲補正を行うと共に、複数のカメラユニットからの画像の合成を行う。その際の歪曲補正パラメータおよび合成パラメータはステップS53で設定されたものを用いる。なお、ステップS62は、複数のカメラユニットにより撮像された複数の画像データを合成する合成ステップとして機能している。
【0085】
ステップS63(第2の画像認識ステップ)において、統合処理部40の認識部41bは、歪曲補正後の低解像度領域(高歪曲領域)の画像データとそれ以外の画像データに対して画像認識を行う。この第2の画像認識ステップにおいては、取得ステップであるステップS41で取得された画像データの内、第1の画像認識ステップがステップS43で認識を行った一部領域よりも広い領域の画像データを画像認識する。また、複数のカメラユニットからの画像データを合成した合成画像についても画像認識を行うことにより、複数のカメラユニットから得られた複数の画像データにまたがる対象物を画像認識する。さらに、複数のカメラユニットにまたがるように移動する対象物も画像認識する。
【0086】
ステップS64において、統合処理部40の認識部41bは、カメラ処理部31~34の認識部31b~34bにおいて歪曲補正前の画像データについてそれぞれ画像認識された結果(認識された対象物とその座標)を取得する。なお、ステップS64およびS65は、ステップS61~S63と並行して行われる。
【0087】
ステップS65において、カメラ処理部31~34の認識部31b~34bで認識された対象物の座標を歪曲補正後の座標に変換する。
【0088】
ステップS66(統合処理ステップ)において、カメラ処理部31~34の認識部31b~34bによる画像認識結果と、統合処理部40の認識部41bによる画像認識結果とを比較し、最終的な認識結果を生成する。このとき、前述したように、それぞれの画像認識結果の信頼性に基づき最終的な認識結果を生成する。例えば、例えば認識部31b~34bによる認識結果と認識部41bによる認識結果が異なる場合には、より信頼性が高い方の認識結果を採用する。
【0089】
ステップS67において、画像認識された対象物を強調表示するための枠を生成し、それを歪曲補正後の画像に重畳する。
【0090】
ステップS68において、第1表示部50または第2表示部51などに画像に枠を重畳して表示する。その際に、車両1の移動状態に応じて第1表示部50、第2表示部51などに表示する画像の表示領域と認識部31b~34bおよび41bによる認識領域を変更する。その詳細については後述する。
【0091】
ステップS69において、画像認識された対象物の車両1の座標に対する座標を生成する。なお、ステップS69およびS70は、ステップS67およびS68と並行して行われる。
【0092】
ステップS70において、ステップS69で生成された対象物の車両1に対する座標およびその対象物の種類を走行制御部(ECU)60に送信する。
【0093】
ステップS71において、カメラユニット間で移動する対象物がある場合には、その対象物の移動方向と速度を予測する。例えば、統合制御部41cは、複数の画像データをまたがるように移動する対象物を認識し、その動きを予測する。なお、ステップS71およびS72は、ステップS69およびS70と並行して行われる。
【0094】
ステップS72において、その対象物の種類と、移動方向などに関する情報または、優先認識領域に関する予測情報を該当するカメラユニットに送信する。このようにすることによって、カメラユニット側でのその対象物に対する画像認識の精度を向上させることができる。その後、
図6のフローチャートは終了する。なお、
図6のフローチャートは、例えばフレーム単位で実行される。また、
図6における並行処理は、少なくとも並列処理の1つをハードウェアで処理することによって実現してもよい。
【0095】
図7は、実施形態1の画像表示方法の例について説明するためのフローチャートである。
図7は、
図6のステップS68の詳細を説明しており、
図7の処理フローは、統合処理部40のCPU42がメモリ43内のコンピュータプログラムを実行することにより例えばフレーム単位で制御される。
【0096】
図8は、実施形態1における高解像度領域と低解像度領域と複数種類の表示領域との関係を説明するための図である。
図8(A)はカメラユニット11、12、14の基準画角の表示領域82の例を説明するための図、
図8(B)はカメラユニット11、12、14の狭画角の表示領域83の例を説明するための図である。
図8(C)はカメラユニット11、12、14の広画角の表示領域84の例を説明するための図、
図8(D)はカメラユニット13の後方の狭画角の表示領域85の例を説明するための図である。また、
図8(E)はカメラユニット13の後方の広画角の表示領域86の例を説明するための図である。
【0097】
図8(A)~(E)において、81が撮像素子の受光面、10aは
図2で説明した高解像度領域(低歪曲領域)、10bは低解像度領域(高歪曲領域)を示している。但し、通常表示される画像には、上記の高解像度領域(低歪曲領域)10aと低解像度領域(高歪曲領域)10bの境界線は表示されない。但し、必要に応じて上記の境界線を画像上に重畳表示してもよい。実施形態1では、認識部41bが認識する領域は、例えば表示領域全体とする。また、認識部31b~34bが認識する領域は例えば表示領域内の高解像度領域10aに内接する矩形などとする。
図8(A)~(E)に示すように、複数種類の表示領域を切り替えられるようになっており、これらの表示領域は走行制御部(ECU)60からの車両制御情報に基づき切り替えられる。
【0098】
図7のステップS73において、CPU42は、走行制御部(ECU)60から、車両制御情報を取得する。車両制御情報は前述のように、例えば走行速度、走行方向、シフトレバー、シフトギア、ウインカーなどの車両1の走行に関する情報などを含む。
【0099】
ステップS74において、CPU42は、車両制御情報に基づき、車両1が前進状態か否かを判定する。車両1が前進状態であると判定された場合(ステップS74でYes)、CPU42はステップS75に進む。車両1が前進状態でないと判定された場合(ステップS74でNo)、CPU42はステップS80に進む。
【0100】
ステップS75において、CPU42は、進路変更中か否かを判定する。進路変更中であると判定された場合(ステップS75でYes)、CPU42はステップS76に進む。進路変更中でないと判定された場合(ステップS75でNo)、CPU42はステップS79に進む。
【0101】
ステップS76において、CPU42は、前進速度が所定の閾値V1よりも大きいか否かを判定する。前進速度が所定の閾値V1よりも大きいと判定された場合(ステップS76でYes)、CPU42はステップS78に進む。前進速度が所定の閾値V1よりも大きくないと判定された場合(ステップS76でNo)、CPU42はステップS77に進む。
【0102】
ステップS77において、CPU42は、基準画角の画像を第1表示部50に表示させる。例えば、CPU42は、
図8の基準画角の表示領域82の画像を第1表示部50に表示させる。
【0103】
図9(A)、
図9(B)および
図9(C)は、第1表示部50の表示例を説明するための図である。
図9(A)は基準画角の画像の表示例を説明するための図であり、
図9(B)は狭画角の画像の表示例を説明するための図であり、
図9(C)は広画角の画像の表示例を説明するための図である。
図9(A)において、501は第1表示部50の表示画面を示している。82Rは左側方のカメラユニット14の基準画角の画像、82Cは正面のカメラユニット11の基準画角の画像、82Rは右側方のカメラユニット12の基準画角の画像を示している。
【0104】
図8の基準画角の表示領域82の画像を例えば第1表示部50に表示する場合には、例えば
図9(A)のように表示する。例えば、左側方のカメラユニット14の基準画角の画像82L、正面のカメラユニット11の基準画角の画像82C、右側方のカメラユニット12の基準画角の画像82Rを左から順に並べて第1表示部50の表示画面501に表示する。
【0105】
図10は(A)は、実施形態1の第1表示部50の表示画面501の表示例を説明するための図である。
図10(B)は、実施形態1の第2表示部51の表示画面511の表示例を説明するための図である。
【0106】
図10(A)に示すように、ステップS76で前進速度が所定の閾値V1よりも大きくないと判定された場合には、基準画角の画像82L、82C、82Rを並べて第1表示部50の表示画面501に表示する。なお、
図10(A)において、82Bは後方用のカメラユニット13の基準画角の画像であり、第1表示部50の表示画面501の中にピクチャーインピクチャーで表示される。実施形態1では、ステップS76で前進速度が所定の閾値V1よりも大きくないと判定された場合に、カメラユニット13の基準画角の画像82Bが第1表示部50に表示される。
【0107】
ステップS78において、CPU42は、
図8(B)に示す狭画角の表示領域83の画像を第1表示部50に表示させる。表示領域83は、表示領域82より上側に広く、左右方向の幅が狭い。そして左側方のカメラユニット14の狭画角の画像83L、正面のカメラユニット11の狭画角の画像83C、右側面のカメラユニット12の狭画角の画像83Rが
図9(B)のように並べて表示される。このように、前進速度が所定の閾値V1(例えば60Km)よりも大きい場合には視覚が狭くなるので、
図9(B)のように表示したほうが必要な情報を速やかに視認しやすくなる。
【0108】
ステップS79において、CPU42は、
図8(C)に示す広画角の表示領域84の画像を第1表示部50に表示させる。表示領域84は、表示領域82よりも左右方向の幅が広く、下方向に広がっている。例えば、
図9(C)に示すように、第1表示部50の表示画面501に、左側方のカメラユニット14の広画角の画像84L、正面のカメラユニット11の広画角の画像84C、右側面のカメラユニット12の広画角の画像84Rが並べて表示される。さらに、例えば左に進路変更中の場合には、
図9(C)に並べて表示される3つの画像を表示画面501の中心に対して左側にずらして表示してもよい。逆に右に進路変更中の場合には、
図9(C)に並べて表示される3つの画像を表示画面501の中心に対して右側にずらして表示してもよい。そのように表示することで視認性を高めることができる。このように、実施形態1では、進路変更中は広画角の画像を表示しているので、周囲の安全をより視認しやすくなる。しかも、下方に画角を広げた画像を表示しているので、道路の障害物をより視認しやすくなる。
【0109】
ステップS80において、CPU42は、後進速度が所定の速度V2(例えば10Km)よりも大きいか否かを判定する。後進速度が所定の速度V2よりも大きいと判定された場合(ステップS80でYes)、CPU42はステップS82に進む。後進速度が所定の速度V2よりも大きくないと判定された場合(ステップS80でNo)、CPU42はステップS81に進む。
【0110】
ステップS81において、CPU42は、後進用の上下方向に狭画角の表示領域85の画像(
図8(D)に示すような画像)を、第2表示部51の表示画面511に
図10(B)のように表示させる。
図10(B)は、車両1を後退する際に第2表示部51の表示画面511に表示される画面の例を示しており、例えば駐車スペースに車両1をガイドするためのガイド512が重畳表示される。
【0111】
図11(A)は、後退時の上下方向に狭画角の画像85Bの例を説明するための図であり、第2表示部51の表示画面511には
図11(A)のような上下方向に狭画角の画像85Bが表示される。
【0112】
ステップS82において、CPU42は、後進用の上下方向に広画角の画像86B(
図8(E)に示すような画像)を、第2表示部51の表示画面511に
図11(B)のように表示させる。ここで、
図11(B)は、実施形態1の後進用の広画角の画像86Bの例を示した図である。
図8(E)に示されるように、後進用の広画角の表示領域86は後進用の狭画角の表示領域85よりも上下方向に画角が広げられている。これは、後進速度が所定の速度V2よりも大きい場合には、より後方を表示して障害物を視認しやすくするためである。なお、実施形態1では、後進用の広画角の表示領域86の左右の幅と後進用の狭画角の表示領域85の左右の幅は同じになっているが、表示領域86の左右の幅を、表示領域85の左右の幅よりも狭くしてもよい。
【0113】
このように、実施形態1では、高解像度領域(低歪曲領域)10aは、上述のように通常の撮像用の光学系の中心射影方式(y=f×tanθ)または等距離射影方式(y=f×θ)に近似した射影特性となるように構成されている。従って、第1表示部50に表示される例えば電子ルームミラー用の画像は、解像度が低解像度領域(高歪曲領域)10bと比較して高く、車両1の正面、側方、後方の遠方を、より精細に表示することができる。
【0114】
また、高解像度領域10aは光学歪曲が小さいため、第1表示部50に表示される電子ルームミラー用の画像も歪みが小さい状態で表示することができ、車両1の周囲を運転者がより自然な遠近感で視認できる。さらに、高解像度領域10aについては、歪曲補正前の画像データの状態で画像認識しているので、周囲の車両のナンバープレートや人物や障害物などを画像認識する際の画像認識タイミングを早めることができると共に、画像認識の精度を高めることができる。
【0115】
実施形態1における高解像度領域10aは、光学歪みが小さくなるように構成されており、歪曲補正前の画像データの状態で画像認識ができるので、画像認識のための処理負荷を低減し高速で画像認識をすることができる。従って画像認識結果に基づき障害物を早期に発見でき、障害物を回避するための動作をタイムリーに行える。このように、実施形態1の構成を用いた場合には、例えば高速道路などでの高速走行時において大きな効果を得ることができる。なお、実施形態1では、複数のカメラユニットを用いる例を説明したが、カメラユニットが1つだけのシステムにおいても有効である。
【0116】
以上のように、実施形態1では、高精細な電子ルームミラー用の表示や後方など車両周辺確認用の広範囲な表示を少ない数のカメラで同時に取得すると共に、車両制御状態に応じて出力する画像の切り出し領域を変化させている。また、車両1の走行速度情報(車両1の移動状態を含む)に基づいて、表示画角を変更している。従って、ドライバーは車両制御状態に応じてより重要な範囲を容易に確認することができる。
【0117】
さらに、車両1の移動状態に応じて切り出し領域を変更することで、画像認識領域が変更されるようにしている。例えば、車両1の移動状態に応じて切り出し領域を変更することで、表示部に表示する画像の表示領域と第1の画像認識部と第2の画像認識部による認識領域とを変更しているので、無駄の少ない効率的な画像認識ができる。なお、表示領域と認識領域とは同一でなくても良い。
【0118】
なお、実施形態1では、切り出し領域を変化させるだけでなく解像度を変更してもよい。例えば、高速走行時には、表示画角を狭くすると共に、周辺画角の解像度を下げるようにしてもよい。実施形態1では、車両制御状態として、速度情報を用いる場合を例にとって説明したが、例えば、撮像部21~24または他のセンサから車両周囲の障害物情報を取得し、その障害物情報に基づいて表示領域を変更してもよい。
【0119】
なお、実施形態1においては、車両1などの移動装置に画像処理システムを搭載した例について説明した。しかし、実施形態1の移動装置は、自動車などの車両に限らず、列車、船舶、飛行機、ロボット、ドローンなどの移動をする移動装置であればどのようなものであってもよい。また、実施形態1の画像処理システムはそれらの移動装置に搭載されるものを含む。
また、移動装置をリモートでコントロールする場合にも実施形態1を適用することができる。
【0120】
なお、実施形態1では、撮像部21~24を画像取得部とした例を説明した。しかし、画像取得部は、低歪曲領域と高歪曲領域とを有する光学像を撮像する撮像素子により生成した画像データを取得するものであればよく、例えばネットワークなどを介して上記のような画像データを取得するものなどであってもよい。或いは、記録媒体に記録された上記のような画像データを再生することによって取得するものであってもよい。
【0121】
[実施形態2]
上述した実施形態1において説明された様々な機能、処理および方法の少なくとも一つは、プログラムを用いて実現することができる。以下、実施形態2では、上述した実施形態1おいて説明された様々な機能、処理および方法の少なくとも一つを実現するためのプログラムを「プログラムX」と呼ぶ。さらに、実施形態2では、プログラムXを実行するためのコンピュータを「コンピュータY」と呼ぶ。パーソナルコンピュータ、マイクロコンピュータ、CPU(Central Processing Unit)などは、コンピュータYの一例である。上述した実施形態における画像処理システムなどのコンピュータも、コンピュータYの一例である。
【0122】
上述した実施形態1において説明された様々な機能、処理および方法の少なくとも一つは、コンピュータYがプログラムXを実行することによって実現することができる。この場合において、プログラムXは、コンピュータ読み取り可能な記憶媒体を介してコンピュータYに供給される。実施形態2におけるコンピュータ読み取り可能な記憶媒体は、ハードディスク装置、磁気記憶装置、光記憶装置、光磁気記憶装置、メモリカード、ROM、RAMなどの少なくとも一つを含む。さらに、実施形態2におけるコンピュータ読み取り可能な記憶媒体は、non-transitoryな記憶媒体である。
【符号の説明】
【0123】
1:車両
10a:高解像度領域
10b:低解像度領域
11~14:カメラユニット
21~24:撮像部
31~34:カメラ処理部
31b~34b:認識部
40:統合処理部
41b:認識部
50:第1表示部
51:第2表示部
60:走行制御部ECU