(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-06-17
(45)【発行日】2024-06-25
(54)【発明の名称】画像処理装置、画像処理方法、及び画像処理プログラム
(51)【国際特許分類】
H04N 7/18 20060101AFI20240618BHJP
G06T 7/00 20170101ALI20240618BHJP
G08G 1/16 20060101ALI20240618BHJP
【FI】
H04N7/18 J
G06T7/00 650A
G08G1/16 C
(21)【出願番号】P 2022572879
(86)(22)【出願日】2021-01-04
(86)【国際出願番号】 JP2021000031
(87)【国際公開番号】W WO2022145054
(87)【国際公開日】2022-07-07
【審査請求日】2023-07-03
(73)【特許権者】
【識別番号】000004237
【氏名又は名称】日本電気株式会社
(74)【代理人】
【識別番号】100109313
【氏名又は名称】机 昌彦
(74)【代理人】
【識別番号】100149618
【氏名又は名称】北嶋 啓至
(72)【発明者】
【氏名】五日市 大輝
【審査官】鈴木 隆夫
(56)【参考文献】
【文献】特開2019-014407(JP,A)
【文献】特開2015-179368(JP,A)
【文献】特開2004-194169(JP,A)
【文献】特開2015-149028(JP,A)
【文献】国際公開第2012/172713(WO,A1)
【文献】特開2013-142972(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
H04N 7/18
G06T 7/00
G08G 1/16
(57)【特許請求の範囲】
【請求項1】
撮像装置で撮影された画像を取得する画像取得手段と、
前記画像に対して第1の画像処理を行う第1処理手段と、
前記画像の遠方部分を特定する遠方特定手段と、
前記画像の遠方部分に
対する第2の画像処理として、前記画像の遠方部分を拡大し、拡大された画像に対して所定の処理を行い、当該所定の処理の処理結果を縮小する画像処理を行う第2処理手段と、
前記第1の画像処理の処理結果及び前記第2の画像処理の処理結果に基づく出力を行う出力手段と、を備える
画像処理装置。
【請求項2】
前記第1の画像処理の処理結果と前記第2の画像処理の処理結果とを合成する合成手段をさらに備える、
請求項1に記載の画像処理装置。
【請求項3】
前記第1処理手段は、前記第1の画像処理として領域認識を行い、
前記第2処理手段は、前記第2の画像処理における前記所定の処理として領域認識を行う
請求項
1または2に記載の画像処理装置。
【請求項4】
前記第1の画像処理の処理結果と前記第2の画像処理の処理結果とを合成する合成手段を備え、
前記合成手段は、前記第1の画像処理において推定された被写体の種別と、前記第2の画像処理において推定された被写体の種別と、予め定められた被写体の種別の優先度とに基づいて、前記画像の遠方部分の各領域における被写体の種別を決定する、
請求項
3に記載の画像処理装置。
【請求項5】
前記第2処理手段は、前記第2の画像処理として、前記画像の遠方部分に対して、第1の画像処理とは異なる設定を適用した画像処理を行う、
請求項1又は2に記載の画像処理装置。
【請求項6】
前記画像は道路を含む画像であって前記遠方特定手段は、前記画像における道路の消失点を推定し、当該道路の消失点を基準とする所定の部分を、前記画像の遠方部分として特定する、
請求項1乃至
5のいずれか一項に記載の画像処理装置。
【請求項7】
前記第1の画像処理の処理結果及び前記第2の画像処理の処理結果に基づいて、道路の状況を認識するシーン認識手段をさらに備える、
請求項1乃至
6のいずれか一項に記載の画像処理装置。
【請求項8】
深度データを取得する深度データ取得手段をさらに備え、
前記遠方特定手段は、前記深度データに基づいて前記画像における遠方部分を特定する、
請求項1乃至7のいずれか一項に記載の画像処理装置。
【請求項9】
画像処理装置が、
撮像装置で撮影された画像を取得し、
前記画像に対して第1の画像処理を行い、
前記画像の遠方部分を特定し、
前記画像の遠方部分に
対する第2の画像処理として、前記画像の遠方部分を拡大し、拡大された画像に対して所定の処理を行い、当該所定の処理の処理結果を縮小する画像処理を行い、
前記第1の画像処理の処理結果及び前記第2の画像処理の処理結果に基づく出力を行う、
画像処理方法。
【請求項10】
コンピュータに、
撮像装置で撮影された画像を取得し、
前記画像に対して第1の画像処理を行い、
前記画像の遠方部分を特定し、
前記画像の遠方部分に
対する第2の画像処理として、前記画像の遠方部分を拡大し、拡大された画像に対して所定の処理を行い、当該所定の処理の処理結果を縮小する画像処理を行い、
前記第1の画像処理の処理結果及び前記第2の画像処理の処理結果に基づく出力を行う処理を実行させる、
画像処理プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、画像処理装置、画像処理方法及び記録媒体に関する。
【背景技術】
【0002】
コンピュータを用いた画像処理の技術は、広く普及している。画像処理の活用例として、車両に搭載されたカメラで撮影した画像に対して画像処理を行い、様々なサービスの提供に役立てる取り組みが行われている。例えば、特許文献1には、車両に搭載した後側方カメラによって撮影される画像のうち、運転者の関心の対象となる関心領域を拡大して合成表示することで、運転者にとって認識しやすい情報提示を行う画像処理装置が開示されている。
【0003】
ここで、画像処理には、画像に写されている内容を認識する画像認識が含まれる。このような画像認識の1つとして、領域認識(領域分割又はSegmentationとも呼ばれる)がある。領域認識は、画像を入力として、画像に含まれる各領域について、その領域に表される被写体の種別を推定する技術である。このような領域認識の例として、非特許文献1が挙げられる。
【先行技術文献】
【特許文献】
【0004】
【非特許文献】
【0005】
【文献】S. Schulter et al.、“Learning to Look around Objects for Top-View Representations of Outdoor Scenes”、ECCV、2018、pp.815-831
【発明の概要】
【発明が解決しようとする課題】
【0006】
本発明の発明者は、画像処理において、以下のような課題を見出した。撮影された画像において、遠方にある被写体が画像の中で占める部分は小さい。そのような小さい部分については、画像処理によって容易に認識できない場合も多い。即ち、撮影された画像に対して画像処理を行う場合において、遠方の被写体を精度よく認識することが困難である、という課題がある。
【0007】
ここで、引用文献1に開示された画像処理装置は、あくまで運転者の関心の対象となる関心領域を運転者にとって視認しやすく表示するものである。即ち、遠方にある被写体を精度よく認識するという、上記の課題を解決するものではない。
【0008】
本発明の目的の1つは、上記の課題を解決し、撮影された画像に対して画像処理を行う場合において、遠方の被写体を精度よく認識することができる、画像処理装置、画像処理方法及び記録媒体を提供することである。
【課題を解決するための手段】
【0009】
本開示の一態様における画像処理装置は、撮像装置で撮影された画像を取得する画像取得手段と、前記画像に対して第1の画像処理を行う第1処理手段と、前記画像の遠方部分を特定する遠方特定手段と、前記画像の遠方部分に対して、第1の画像処理と異なる第2の画像処理を行う第2処理手段と、前記第1の画像処理の処理結果及び前記第2の画像処理の処理結果に基づく出力を行う出力手段と、を備える。
【0010】
本開示の一態様における画像処理方法は、画像処理装置が、撮像装置で撮影された画像を取得し、前記画像に対して第1の画像処理を行い、前記画像の遠方部分を特定し、前記画像の遠方部分に対して、第1の画像処理と異なる第2の画像処理を行い、前記第1の画像処理の処理結果及び前記第2の画像処理の処理結果に基づく出力を行う。
【0011】
本開示の一態様における記録媒体は、コンピュータに、撮像装置で撮影された画像を取得し、前記画像に対して第1の画像処理を行い、前記画像の遠方部分を特定し、前記画像の遠方部分に対して、第1の画像処理と異なる第2の画像処理を行い、前記第1の画像処理の処理結果及び前記第2の画像処理の処理結果に基づく出力を行う処理を実行させるプログラムを記録する。
【発明の効果】
【0012】
本開示によれば、撮影された画像に対して画像処理を行う場合において、遠方の被写体を精度よく認識することができる。
【図面の簡単な説明】
【0013】
【
図1】第1の実施形態における、画像処理システムの構成の例を示す図である。
【
図2】第1の実施形態における、画像処理装置10の機能ブロックの例を示す図である。
【
図3】第1の実施形態における、画像処理装置10の動作の例を示すフローチャートである。
【
図4】第1の実施形態における、取得された画像の例を示す図である。
【
図5】第1の実施形態における、領域認識の処理結果の例を示す図である。
【
図6】第1の実施形態における、遠方特定部122の動作の例を示すフローチャートである。
【
図7】第1の実施形態における、道路の消失点の例を示す図である。
【
図8】第1の実施形態における、道路の消失点の推定の例を示す図である。
【
図9】第1の実施形態における、道路の消失点の推定の他の例を示す図である。
【
図10】第1の実施形態における、画像の遠方部分の例を示す図である。
【
図11】第1の実施形態における、画像の遠方部分の候補の例を示す図である。
【
図12】第1の実施形態における、第2の画像処理の例を示す図である。
【
図13】第1の実施形態における、第2の画像処理の処理結果の例を示す図である。
【
図14】第1の実施形態における、処理結果の縮小の例を示す図である。
【
図15】第1の実施形態における、合成処理結果の例を示す図である。
【
図16】第1の実施形態における、シーン認識結果の例を示す図である。
【
図17】第1の実施形態における、シーン認識結果の他の例を示す図である。
【
図18】第2の実施形態における、画像処理装置10の機能ブロックの例を示す図である。
【
図19】第2の実施形態における、画像処理装置10の動作の例を示すフローチャートである。
【
図20】第2の実施形態における、深度データの例を示す図である。
【
図21】第2の実施形態における、遠方特定部122の動作の例を示すフローチャートである。
【
図22】第2の実施形態における、遠方特定部122の動作の他の例を示すフローチャートである。
【
図23】第3の実施形態における、画像処理装置10の機能ブロックの例を示す図である。
【
図24】第3の実施形態における、画像処理装置10の動作の例を示すフローチャートである。
【
図25】コンピュータ1000のハードウェア構成の例を示すブロック図である。
【発明を実施するための形態】
【0014】
本発明の実施形態について、図面を参照して詳細に説明する。なお、各図面、及び、明細書記載の各実施形態において、同様の構成要素には同一の符号を付与し、説明を適宜省略する。
【0015】
[第1の実施形態]
第1の実施形態について説明する。
【0016】
<構成の説明>
まず、第1の実施形態の構成について説明する。
【0017】
図1は、第1の実施形態における画像処理システムの構成を示す図である。
図1を参照すると、画像処理システムは、画像処理装置10と、撮像装置20とを備える。画像処理装置10と撮像装置20は、通信可能に接続される。
【0018】
画像処理装置10は、撮像装置20によって撮影された画像を取得し、当該画像に対して画像処理を行い、処理結果に基づいて出力を行う。画像処理装置10は、例えば、車両に搭載されたコンピュータとして実現される。しかし、これに限らず、画像処理装置10は、例えば、データセンター等に設置されたサーバとして実現されてもよい。
【0019】
撮像装置20は、画像を撮影する。撮像装置20は、例えば、車両に搭載されたドライブレコーダーのカメラである。この場合、撮像装置20は、当該車両の周囲、例えば前方を撮影した画像を生成する。しかし、これに限らず、撮像装置20は、例えば、道路の路側に設置されたカメラであってもよいし、施設の内部に設置されたカメラであってもよい。また、撮像装置20が撮影する画像は、静止画であってもよいし、時間的に連続する複数フレームの画像(動画)であってもよい。
【0020】
画像処理装置10と撮像装置20とは、有線LANや内部バス通信等の有線通信で接続されてよく、また、無線LANや近距離通信等の無線通信で接続されてもよい。例えば、画像処理装置10と撮像装置20とが同一の車両に搭載される場合、画像処理装置10と撮像装置20とは車両の内部バスによって接続されてよいが、これに限られない。
【0021】
また、1つの画像処理システムにおいて、画像処理装置10と撮像装置20とが複数存在してもよい。この場合、画像処理装置10と撮像装置20とは、必ずしも1対1で接続される必要はなく、1対多又は多対多で接続され得る。例えば、1つ画像処理装置10に対して、複数の撮像装置20が接続されてもよい。
【0022】
図2は、第1の実施形態における、画像処理装置10の機能ブロックを示す図である。
図2を参照すると、画像処理装置10は、画像取得部110、画像処理部120、シーン認識部130、出力部140を備える。
【0023】
画像取得部110は、撮像装置20によって撮影された画像を取得する手段として機能する。
【0024】
画像処理部120は、取得された画像に対して画像処理を行い、処理結果を生成する手段として機能する。画像処理部120は、さらに、第1処理部121、遠方特定部122、第2処理部123、合成部124を備える。
【0025】
第1処理部121は、取得された画像に対して、所定の第1の画像処理を行う手段として機能する。
【0026】
画像のうち、第1処理部121による第1の画像処理の処理対象となる範囲は、例えば、画像の全体である。しかし、これに限らず、第1処理部121は、マスク処理等を用いて、画像の一部の範囲(例えば画像の遠方部分)を、第1の画像処理の処理対象から除外してもよい。
【0027】
第1処理部121が行う第1の画像処理としては、種々のものを用いることができる。例えば、第1処理部121は、第1の画像処理として領域認識を行うことができる。第1の実施形態では、主に、第1の画像処理として領域認識を行う場合を例として説明する。
【0028】
第1処理部121は、上記の第1の画像処理を行った結果として、第1の処理結果を生成する。
【0029】
遠方特定部122は、取得された画像から遠方部分を特定する手段として機能する。
【0030】
ここで、遠方部分とは、画像のうち、遠方に存在する被写体を含む部分である。遠方部分は、例えば、画像のうち、遠方に存在する被写体を含む矩形で表される。しかし、これに限らず、遠方部分は、矩形以外の多角形、円、楕円、その他の形状で表されてもよい。また、遠方部分は、このような画像の中の連続した単一の形状に限らず、離散した複数の形状であってもよい。
【0031】
遠方特定部122は、遠方部分を特定した結果として、当該遠方部分を所定の形式で表現した遠方特定情報を生成する。遠方部分が矩形である場合、遠方特定情報は、例えば、画像における当該矩形の各点の座標である。
【0032】
第2処理部123は、上記の遠方特定情報に基づいて、取得された画像の遠方部分に対して、第1の画像処理と異なる第2の画像処理を行う手段として機能する。
【0033】
第2処理部123が行う第2の画像処理としては、種々のものを用いることができる。例えば、第2処理部123は、第2の画像処理として、画像の遠方部分を拡大し、拡大された画像に対して所定の処理を行い、当該所定の処理の処理結果を縮小する処理を用いることができる。また、例えば、第2処理部123は、第2の画像処理として、画像の遠方部分に対して第1の画像処理とは異なる設定を適用した画像処理を用いることができる。
【0034】
第2処理部123は、上記のような所定の第2の画像処理を行った結果として、第2の処理結果を生成する。
【0035】
合成部124は、上記の第1の処理結果と第2の処理結果とを合成する手段として機能する。合成部124は、合成の結果である合成処理結果を生成する。
【0036】
シーン認識部130は、上記の第1の処理結果及び第2の処理結果と、上記の合成処理結果との少なくともいずれかに基づいて、シーン認識を行う手段として機能する。ここで、シーン認識とは、画像に表されているシーンの意味を認識する処理である。シーン認識部130は、シーン認識を行った結果として、シーン認識結果を生成する。
【0037】
出力部140は、上記の第1の処理結果及び第2の処理結果と、上記の合成処理結果と、上記のシーン認識結果との少なくともいずれかに基づいて、所定の出力を行う手段として機能する。
【0038】
<動作の説明>
次に、第1の実施形態の動作について説明する。
【0039】
図3は、第1の実施形態における、画像処理装置10の動作を示すフローチャートである。
【0040】
画像処理装置10の画像取得部110は、撮像装置20より、撮影された画像を取得する(
図3のステップS110)。例えば、画像取得部110は、
図4に示すような、車両の前方の道路を含む画像を取得する。
【0041】
画像処理装置10の第1処理部は、画像取得部110によって取得された画像に対して、所定の第1の画像処理を行い、第1の処理結果を生成する(
図3のステップS120)。
【0042】
第1処理部121が行う第1の画像処理としては、種々のものを用いることができる。例えば、第1処理部121は、第1の画像処理として領域認識を行うことができる。第1の実施形態では、主に、第1の画像処理として領域認識を行う場合について説明する。第1処理部121は、取得された画像を入力画像として、入力画像に対して領域認識(領域分割又はSegmentationとも呼ばれる)を行い、当該入力画像に含まれる各領域について、その領域に表される被写体の種別を推定し、処理結果を生成する。
【0043】
図5は、領域認識の処理結果の例を示す図である。
図5を参照すると、領域認識の処理結果は、例えば、入力画像と同じ解像度の画像であって、各画素に、入力画像の対応する画素が属する被写体種別IDが格納された画像の形式で表現される。ここで、被写体種別IDとは、被写体の種別を識別する識別子である。
図5の例では、被写体種別IDは、1、2、3、4、5及び6の数値であり、それぞれが、被写体の種別として、人、自動車、建物、その他、道路、空に対応する。
【0044】
なお、被写体の種別は、
図5の例に限らず、例えば、二輪車、標識、信号機、白線、停止線、障害物、横断歩道、パーキングロット(路肩の駐車スペース)、路上のペイント、歩道、ドライブウェイ(車道と施設等とを結ぶ歩道上の車両通行路)、線路、草木を含んでもよい。
【0045】
また、第1の画像処理として領域認識を行う場合、第1処理部121は、各領域に表される被写体の種別を推定したときの信頼度を算出し、当該信頼度を処理結果に含めてもよい。例えば、
図5の例では、各画素についての信頼度を、追加の情報として別途生成し、処理結果に含めてもよい。
【0046】
第1処理部121は、上記のように第1の画像処理を実行して第1の処理結果を生成する。
【0047】
次に、画像処理装置10の遠方特定部122は、画像取得部110によって取得された画像に基づいて、遠方部分を特定し、遠方特定情報を生成する(
図3のステップS130)。
【0048】
遠方特定部122が遠方部分を特定する方法には、種々のものを用いることができる。以下に、具体例を説明する。
【0049】
〔遠方特定の第1の例〕
遠方特定の第1の例について説明する。
図6は、遠方特定部122の動作を示すフローチャートである。なお、遠方特定の第1の例において、画像取得部110によって取得された画像は、道路を含む画像である。
【0050】
遠方特定部122は、画像取得部110によって取得された画像について、道路の消失点を推定する(
図6のステップS131)。ここで、道路の消失点について説明する。道路を含む画像においては、通常、遠方であればあるほど道路は小さく表示され、さらに遠方においては1つの点に集約される。道路の消失点とは、このような、画像において遠方の道路が集約される点である。
図7は、このような、道路を含む画像における道路の消失点の例を示す図である。
図7において、点VPは、道路の消失点を表す。
【0051】
遠方特定部122が道路の消失点を推定する方法としては、種々のものを用いることができる。以下に、具体例を説明する。
【0052】
(消失点推定の第1の例)
消失点推定の第1の例について説明する。
【0053】
まず、遠方特定部122は、取得された画像に対して領域認識を行う。次に、遠方特定部122は、当該領域認識の処理結果において被写体の種別が道路であると推定された領域のうち画像の最も上方にある点を抽出し、道路の消失点と推定する。これは、撮像装置20は、通常、道路の遠方であるほど画像の上方になるような配置で道路を撮影するためである。
図8は、このようにして推定された道路の消失点の例を示す図である。
図8において、点VPが、推定された道路の消失点を表す。
【0054】
なお、消失点推定の第1の例において、遠方特定部122が行う領域認識として、簡易な領域認識を用いてもよい。例えば、遠方特定部122は、簡易な領域認識として、被写体の種別を少数(例えば、道路及びその他の2つ)に限定した領域認識を用いてもよい。また、例えば、遠方特定部122は、簡易な領域認識として、画像を縮小し、縮小した画像に対して領域認識を行ってもよい。このように簡易な領域認識を用いることで、遠方特定部122における処理負荷を削減することができる。
【0055】
また、消失点推定の第1の例において、第1処理部121が第1の画像処理として領域認識を既に行っている場合、遠方特定部122は領域認識を行わず、第1処理部121によって生成された領域認識の処理結果を用いてもよい。このように領域認識を省略することで、遠方特定部122における処理負荷を削減することができる。
【0056】
(消失点推定の第2の例)
消失点推定の第2の例について説明する。
【0057】
まず、遠方特定部122は、道路における左右の路端のそれぞれについて、路端を表す線を推定する。次に、遠方特定部122は、左右の路端を表す線が交差する箇所を、道路の消失点として推定する。
図9は、このような路端を表す線および道路の消失点の例を示す図である。
図9において、線LLは左の路端を、線RLは右の路端を、点VPは道路の消失点を表す。
【0058】
消失点推定の第2の例において、遠方特定部122が路端を表す線を推定する方法としては、種々のものを用いることができる。例えば、遠方特定部122は、取得された画像に対して領域認識を行い、当該領域認識の処理結果から被写体の種別が道路であると推定された領域を抽出し、抽出された領域の左右の端をそれぞれ直線で近似し、当該直線を、路端を表す線としてもよい。また、例えば、遠方特定部122は、取得された画像から白線又は/及びガードレールの検出を行い、検出された白線又は/及びガードレールを直線で近似し、当該直線を、路端を表す線としてもよい。
【0059】
なお、上記において、遠方特定部122は、路端を表す線を直線で近似するものとして説明したが、これに限らず、曲線で近似してもよい。曲線での近似を用いることで、例えば道路がカーブしている場合において、精度よく道路の消失点を推定することができる。
【0060】
また、遠方特定部122は、画像毎に、直線での近似と曲線での近似のどちらを用いるかを選択してもよい。この場合、遠方特定部122は、例えば、直線での近似及び曲線での近似を行い、近似の誤差がより小さいほうを選択してもよい。また、画像処理装置10が、画像の撮影位置と、道路地図情報とを取得できる場合、遠方特定部122は、当該撮影位置及び道路地図情報に基づいて、画像に表示されている道路が直線であるか曲線であるかを推定し、当該推定の結果に応じて、直線での近似と曲線での近似のどちらを用いるかを選択してもよい。さらにまた、撮像装置20が車両に搭載されており、画像処理装置10が、画像が撮影されたときの当該車両の走行データ(例えば、左右方向の加速度やハンドル角度)を取得できる場合、遠方特定部122は、当該走行データに基づいて、画像に表示されている道路が直線であるか曲線であるかを推定し、当該推定の結果に応じて、直線での近似と曲線での近似のどちらを用いるかを選択してもよい。このように、遠方特定部122が直線での近似と曲線での近似のどちらを用いるかを選択することで、画像に表示されている道路の形状に応じて精度よく道路の消失点を推定することができる。
【0061】
次に、遠方特定部122は、推定された道路の消失点に基づいて遠方部分を決定する(
図6のステップS132)。
【0062】
遠方特定部122が遠方部分を決定する方法としては、種々のものを用いることができる。以下に、具体例を説明する。
【0063】
(遠方部分決定の第1の例)
遠方部分決定の第1の例について説明する。
【0064】
遠方部分決定の第1の例においては、遠方特定部122は、推定された消失点を中心とする、画像において所定の割合を占める部分を、遠方部分として決定する。
図10は、このようにして決定された遠方部分を示す図である。
図10において、点VPは道路の消失点を、部分FRは遠方部分を表す。
【0065】
遠方部分の形状は、例えば、取得された画像と同じ縦横比の矩形である。しかし、これに限らず、遠方部分の形状は、取得された画像と異なる縦横比の矩形であってもよいし、また、矩形以外の多角形、円、楕円、その他の形状であってもよい。また、前記所定の割合は、例えば、取得された画像の面積の16分の1である。しかし、これに限らず、その他の割合を用いてもよい。
【0066】
(遠方部分決定の第2の例)
遠方部分決定の第2の例について説明する。
【0067】
まず、遠方特定部122は、推定された道路の消失点を含む複数の部分を、遠方部分の候補として列挙する。
【0068】
図11は、遠方特定部122によって列挙された、遠方部分の候補の例を示す図である。
図11において、点VPは推定された道路の消失点を、部分FR1は道路の消失点を下半分に含む部分、部分FR2は道路の消失点を上半分に含む部分、部分FR3は道路の消失点を右半分に含む部分、部分FR4は道路の消失点を左半分に含む部分である。遠方特定部122は、このような複数の矩形の部分を、遠方部分の候補として列挙することができる。しかし、これに限らず、遠方特定部122は、その他の任意の形状、大きさ、位置を占める部分を、任意の数だけ、遠方部分の候補として列挙することができる。
【0069】
次に、遠方特定部122は、複数の遠方部分の候補を所定の基準で評価し、最も評価が高い候補を遠方部分として決定する。
【0070】
例えば、遠方特定部122は、複数の遠方部分の候補を、領域認識の処理結果に基づいて評価することができる。一例として、遠方特定部122は、遠方部分の候補の中に、注視したい被写体の種別(例えば、道路)の領域が多く含まれる場合に、高い評価を与えることができる。このように評価することで、注視したい被写体を多く含む部分を遠方部分として決定することができる。
【0071】
領域認識の処理結果に基づいて評価する場合、遠方特定部122は、領域認識として、消失点推定の第1の例で示したような簡易な領域認識を用いてもよい。また、消失点推定の第1の例において、第1処理部121が第1の画像処理として領域認識を既に行っている場合、遠方特定部122は、領域認識を行わず、第1処理部121によって生成された領域認識の処理結果を用いてもよい。さらにまた、消失点推定の第1の例において、遠方特定部122が領域認識を既に行っている場合、遠方特定部122は、さらなる領域認識を行わず、既に行った当該領域認識の処理結果を用いてもよい。このように領域認識を省略することで、遠方特定部122における処理負荷を削減することができる。
【0072】
〔遠方特定の第2の例〕
遠方特定の第2の例について説明する。
【0073】
遠方特定の第2の例においては、画像取得部110は、撮像装置20から、時間的に連続する複数フレームの画像(動画)を取得する。これらの複数フレームの画像(動画)は、道路を含む画像である。
【0074】
まず、遠方特定部122は、これらの複数フレームの画像(動画)のそれぞれのフレームについて、遠方特定の第1の例で説明したような処理を行い、時間的に連続する複数の遠方部分を生成する。次に、遠方特定部122は、時間的に連続する複数の遠方部分を統合し、1つの遠方部分を定める。
【0075】
複数の遠方部分の統合は、例えば、複数の遠方部分を統計的に処理することで行う。ここで、統計的な処理の一例を説明する。まず、遠方特定部122は、時間的に連続する複数の遠方部分のうち、他と比べて位置や大きさが極端に異なる遠方部分を除外する。次に、遠方特定部122は、残る遠方部分について、代表的な位置や大きさを算出する(例えば、位置や大きさの平均を算出する)。このように算出された位置や大きさを有する部分を、遠方部分として定める。しかし、これに限らず、遠方特定部122は、遠方部分の統合として、その他の統計的な処理を用いてもよい。
【0076】
また、複数の遠方部分の統合は、所定の時間単位毎に行うことができる。例えば、遠方特定部122は、複数フレームの画像(動画)を5秒の時間単位で区切り、その5秒の時間単位毎に統合を行ってもよい。しかし、これに限らず、遠方特定部122は、その他の固定又は可変の時間単位毎に、統合を行ってもよい。
【0077】
このように、時間的に連続して撮影された複数の画像に基づいて遠方部分を特定することで、遠方特定部122は、車両や人、障害物等によって画像における道路の領域が一時的に隠蔽された場合においても、精度よく道路の遠方部分を特定することができる。
【0078】
〔遠方特定の第3の例〕
遠方特定の第3の例について説明する。
【0079】
遠方特定の第3の例においては、遠方特定部122は、予め定められた範囲を、遠方部分として特定する。例えば、遠方特定部122は、取得された画像の面積の16分の1の大きさで、中心が画像の中心と一致する矩形の部分を、予め定められた範囲として用いることができる。しかし、これに限らず、遠方特定部122は、その他の任意の形状、大きさ、位置を占める部分を、予め定められた範囲として用いてもよい。
【0080】
上記の予め定められた範囲は、例えば、画像処理装置10の使用者若しくは管理者、又は撮像装置20の使用者若しくは管理者が設定することができる。これらの使用者若しくは管理者は、撮像装置20が設置された後に、当該撮像装置20によって撮影された画像を確認し、遠方部分を表すと考えられる範囲を設定してもよい。一例として、撮像装置20が車両に搭載されたドライブレコーダーのカメラである場合、使用者若しくは管理者は、当該カメラで撮影された画像から画角等を確認し、道路の遠方部分を表すと考えられる範囲を設定してもよい。なお、複数の撮像装置20が存在する場合、上記の予め定められた範囲は、撮像装置20毎に異なっていてもよい。
【0081】
〔遠方特定のその他の例〕
遠方特定のその他の例について説明する。
【0082】
上記の遠方特定の各例において、領域認識を用いて道路の領域を認識する場合、領域認識とともにデータ補間(イメージハルシネーションとも呼ばれる)を用いて認識を行ってもよい。例えば、非特許文献1には、車両に搭載されたカメラで撮影した画像に対して領域認識を行うことで、車両のような画面前景の物体の領域を特定し、さらに、データ補間を行うことにより、画面前景の物体によって隠蔽された道路の領域を推定する技術が開示されている。遠方特定部122は、この非特許文献1に開示されているような技術を用いて、道路の領域を認識してもよい。このように、領域認識とともにデータ補間を用いることで、遠方特定部122は、車両や人、障害物等によって画像における道路の領域が一時的に隠蔽された場合においても、精度よく道路の遠方部分を特定することができる。
【0083】
また、上記の遠方特定の各例において、遠方特定部122が時間的に連続する複数フレームの画像(動画)を処理する場合、遠方特定部122は、一部のフレームの処理を省略してもよい。例えば、遠方特定部122は、複数フレームの画像(動画)を5秒の時間単位で区切り、その5秒の時間単位のうち1つのフレームに対してのみ遠方部分の特定の処理を行い、その他のフレームに対しては処理を省略してもよい。しかし、これに限らず、遠方特定部122は、その他の固定又は可変の時間単位毎に、任意の数のフレームの処理を省略してもよい。なお、この場合において、遠方特定部122は、フレームの処理を行った場合に、特定された遠方部分を一時的に保存してもよい。そして、遠方特定部122は、フレームの処理を省略する場合には、上記の一時的に保存された(時間的に前のフレームにおける)遠方部分を、当該フレームにおける遠方部分として特定してもよい。このように、一部のフレームの処理を省略することで、遠方特定部122における処理負荷を削減することができる。
【0084】
以上のようにして遠方部分を特定したら、遠方特定部122は、当該遠方部分を所定の形式で表現した遠方特定情報を生成する。一例として、遠方部分が矩形である場合、遠方特定情報は、例えば、画像における当該矩形の各点の座標である。しかし、これに限らず、遠方部分の形状等に応じて、遠方特定情報として任意の形式を用いることができる。
【0085】
次に、画像処理装置10の第2処理部123は、遠方特定部122によって生成された遠方特定情報に基づいて、画像取得部110によって取得された画像の遠方部分に対して、第1の画像処理と異なる所定の第2の画像処理を行い、第2の処理結果を生成する(
図3のステップS140)。
【0086】
第2処理部123が行う第2の画像処理としては、種々のものを用いることができる。以下に、具体例を説明する。
【0087】
〔第2の画像処理の第1の例〕
第2の画像処理の第1の例について説明する。
図12は、第2の画像処理の第1の例の動作を示す図である。第2の画像処理の第1の例では、第2処理部123は、画像の遠方部分を拡大し、拡大された画像に対して所定の処理を行い、当該所定の処理の処理結果を縮小する。
【0088】
まず、第2処理部123は、遠方特定部122によって生成された遠方特定情報を用いて、画像取得部110によって取得された画像の中から、画像の遠方部分を切り出す。そして、第2処理部123は、切り出された画像を、所定の大きさに拡大する(
図12のステップS141)。ここで、所定の大きさは、例えば、取得された画像の大きさと同じ大きさである。しかし、これに限らず、所定の大きさは、その他の任意の大きさであってもよい。また、画像の拡大は、最近傍補間法、双一次補間法、双三次補間法、その他知られた手法を用いて行うことができる。
【0089】
次に、第2処理部123は、拡大された画像に対して、所定の処理を行い、処理結果を生成する(
図12のステップS142)。例えば、第1処理部121が第1の画像処理として領域認識を行う場合、第2処理部123は、拡大された画像に対して領域認識を行い、処理結果を生成する。例えば、遠方部分が
図10の部分FRである場合、第2処理部123は、部分FRを拡大し、拡大された画像に対して領域認識を行い、
図13に示すような処理結果を生成する。
【0090】
次に、第2処理部123は、拡大された画像に対する処理結果を縮小する(
図12のステップS143)。
【0091】
図14は、ステップS142において行った所定の処理が領域認識である場合において、処理結果の縮小を模式的に示す図である。以下、
図14を参照して詳細に説明する。
【0092】
領域認識の処理結果は、例えば、入力画像と同じ解像度の画像であって、各画素に、入力画像の対応する画素が属する被写体種別IDが格納された画像の形式で表現される。
図14の処理結果ERは、このような形式で表現された、拡大された画像に対する領域認識の処理結果の例である。処理結果ERの解像度は、拡大された画像と同じ解像度である。一方、
図14の処理結果RRは、処理結果ERを縮小して得られる処理結果の例である。処理結果RRの解像度は、拡大される前の画像と同じ解像度である。
【0093】
図14の例において、処理結果の縮小とは、処理結果ERに基づいて、処理結果RRの各画素に格納する被写体種別IDを定めることである。
【0094】
まず、第2処理部123は、定めるべき処理結果RRの画素を順次、選択する。画素RP1は、このように選択された画素の例である。次に、第2処理部123は、処理結果RR上の選択された画素の位置に対応する、処理結果ER上の画素を抽出する。この場合において、第2処理部123は、対応する処理結果ER上の単一の画素を抽出してもよく、また、周辺を含む複数の画素を抽出してもよい。画素EP1、EP2、EP3、EP4は、このようにして抽出された画素の例である。
図14の例では、4つの画素を抽出しているが、その他の任意の数の画素を抽出してもよい。
【0095】
次に、第2処理部123は、抽出された画素に基づいて、処理結果RRの画素に格納する被写体種別IDを決定する。この決定の方法としては、種々のものを用いることができる。例えば、第2処理部123は、上記の決定の方法として、以下の(A)~(D)に示す方法を用いてよい。
(A)最頻の被写体種別IDを用いる
(B)予め定められた被写体の種別の優先度に基づいて、被写体種別IDを決定
(C)遠方部分に対する領域認識の処理結果から被写体の種別の優先度を定め、当該優先度に基づいて被写体種別IDを決定
(D)遠方部分に対する領域認識と取得された画像に対する領域認識との処理結果の比較から被写体の種別の優先度を定め、当該優先度に基づいて被写体種別IDを決定
以下に、(A)~(D)について、詳細に説明する。
【0096】
上記(A)の例について、詳細に説明する。
【0097】
上記(A)の例では、第2処理部123は、抽出された画素に含まれる最頻の被写体種別IDを、格納する被写体種別IDとして決定する。例えば、
図14の例において、抽出された画素が画素EP1、EP2、EP3、EP4であり、それぞれの被写体種別IDがEP1:5(道路)、EP2:1(人)、EP3:5(道路)、EP4:5(道路)であった場合、第2処理部123は、画素RP1に格納する被写体種別IDを5(道路)に決定する。
【0098】
上記(B)の例について、詳細に説明する。
【0099】
上記(B)の例では、第2処理部123は、予め定められた被写体の種別の優先度に基づいて、格納する被写体種別IDを決定する。例えば、
図14の例において、抽出された画素が画素EP1、EP2、EP3、EP4であり、それぞれの被写体種別IDがEP1:5(道路)、EP2:1(人)、EP3:5(道路)、EP4:5(道路)であり、さらに、優先する被写体の種別として「人」が定められていた場合、第2処理部123は、画素RP1に格納する被写体種別IDを1(人)に決定することができる。
【0100】
なお、優先度の形式としては、上記の例に限らず、種々のものを用いることができる。例えば、優先度の形式は、被写体の種別毎の重み係数として表してもよい。また、優先度に基づく被写体種別IDの決定の方法としては、上記の例に限らず、種々のものを用いることができる。例えば、第2処理部123は、抽出された画素について被写体の種別毎の画素数を算出し、被写体の種別毎に、画素数と上記の重み係数とを乗算することで評価値を算出し、算出された評価値の比較により、格納する被写体種別IDを決定してもよい。
【0101】
このように、上記(B)の例では、被写体の種別の優先度に基づいて格納する被写体種別IDを決定することで、第2処理部123は、優先して認識したい被写体を、適切に処理結果に含めることができる。
【0102】
上記(C)の例について、詳細に説明する。
【0103】
上記(C)の例では、第2処理部123は、画像の遠方部分に相当する、拡大された画像に対する領域認識の処理結果から被写体の種別の優先度を定め、当該優先度に基づいて、格納する被写体種別IDを決定する。
【0104】
例えば、
図14の例において、第2処理部123は、処理結果ERから被写体の種別毎の画素数を算出し、算出された画素数の割合に応じて、被写体の種別の優先度を定める。例えば、「人」と認識された画素数の割合が少ない場合、優先する被写体の種別として「人」を定めてもよい。これにより、例えば、小さく映っていた「人」の領域が、縮小によって、周囲の被写体(例えば「道路」)の領域に吸収されて失われてしまうことを防ぐことができる。なお、例えば、人が大きく映っている画像においては、優先する被写体の種別が「人」ではなく周囲の被写体(例えば「道路」)となり得るが、この場合においても、通常は、「人」の領域が失われてしまうことはない。なぜなら、「人」と周囲の被写体(例えば「道路」)の境界付近の箇所においては、被写体の種別として周囲の被写体(例えば「道路」)が採用され得るものの、境界付近でない、「人」のみが映っている箇所においては、被写体の種別として「人」が採用されるからである。
【0105】
なお、上記に限らず、第2処理部123は、その他の任意の方法や形式で、被写体の種別の優先度を定めてもよい。
【0106】
被写体の種別の優先度を定めたら、第2処理部123は、上記(B)と同様の方法を用いて、被写体の種別の優先度に基づいて、格納する被写体種別IDを決定する。
【0107】
このように、上記(C)の例では、画像の遠方部分に相当する、拡大された画像に対する領域認識の処理結果から被写体の種別の優先度を定めることで、第2処理部123は、例えば、画像の遠方部分において占める割合が少ない(珍しい)被写体であっても、適切に処理結果に含めることができる。
【0108】
上記(D)の例について、詳細に説明する。
【0109】
上記(D)の例では、第2処理部123は、画像の遠方部分に相当する、拡大された画像に対する領域認識の処理結果と、取得された画像に対する領域認識の処理結果(第1の処理結果)とを比較することで、被写体の種別の優先度を定め、当該優先度に基づいて、格納する被写体種別IDを決定する。
【0110】
例えば、
図14の例において、まず、第2処理部123は、処理結果ERに含まれる被写体の種別を特定する。次に、第2処理部123は、第1処理部121によって生成された第1の処理結果に含まれる被写体の種別を特定する。そして、第2処理部123は、処理結果ERに含まれており、かつ、第1の処理結果に含まれない被写体の種別又は第1の処理結果における割合が所定の基準以下である被写体の種別を特定し、当該被写体の種別を、優先する被写体の種別として定める。一例として、処理結果ERに被写体の種別として「人」が含まれ、第1の処理結果に「人」が含まれない場合、第2処理部123は、優先する被写体の種別として「人」を定めることができる。
【0111】
なお、上記に限らず、第2処理部123は、その他の任意の方法や形式で、被写体の種別の優先度を定めてもよい。例えば、第2処理部123は、処理結果ERに含まれており、かつ、第1の処理結果における割合が所定の基準より大きい被写体を特定し、当該被写体の種別に対して低い優先度を定めてもよい。
【0112】
被写体の種別の優先度を定めたら、第2処理部123は、上記(B)と同様の方法を用いて、被写体の種別の優先度に基づいて、格納する被写体種別IDを決定する。
【0113】
このように、上記(D)の例では、画像の遠方部分に相当する、拡大された画像に対する領域認識の処理結果と、取得された画像に対する領域認識の処理結果(第1の処理結果)との比較から、被写体の種別の優先度を定めることで、第2処理部123は、例えば、取得された画像に対する領域認識では十分に認識されなかったが、拡大された画像に対する領域認識では認識された被写体を、適切に処理結果に含めることができる。
【0114】
第2の画像処理の第1の例においては、第2処理部123は、上記のように処理結果を縮小し、縮小された処理結果である第2の処理結果を生成する。
【0115】
〔第2の画像処理の第2の例〕
第2の画像処理の第2の例について説明する。
【0116】
まず、第2処理部123は、遠方特定部122によって生成された遠方特定情報を用いて、画像取得部110によって取得された画像の中から、画像の遠方部分を切り出す。そして、第2処理部123は、切り出された画像に対して、第1の画像処理とは異なる設定を適用した画像処理を行う。
【0117】
第2処理部123が行う、異なる設定を適用した画像処理には、種々のものを用いることができる。以下に、具体例を説明する。
【0118】
例えば、第2の画像処理において領域認識のような画像認識を行う場合、第2処理部123は、異なる設定として、より少ない画素数でも被写体の種別を認識できるような設定を用いることができる。一例として、第1処理部121が、第1の画像処理において、8画素のまとまりを被写体の種別を認識する最小の単位とする設定を用いて領域認識を行う場合、第2処理部123は、第2の画像処理において、4画素のまとまりを被写体の種別を認識する最小の単位とする設定を用いて領域認識を行ってもよい。
【0119】
また、例えば、第2の画像処理において領域認識のような画像認識を行う場合、第2処理部123は、異なる設定として、異なる被写体の種別を認識できるような設定を用いることができる。一例として、第1処理部121が第1の画像処理において、被写体の種別として、人、自動車、道路、その他、建物、空の6種類を認識できるような設定を用いて領域認識を行う場合、第2処理部123は第2の画像処理において、被写体の種別として、人、自動車、道路、その他、建物、空に加え、標識、信号機の8種類を認識できるような設定を用いて領域認識を行ってもよい。例えば、既に目視されている可能性が高い近傍の標識や信号機に比べ、遠方の標識や信号機を認識する必要性が高い場合に、このような設定が有用である。
【0120】
ここで、異なる設定を適用する方法について説明する。
【0121】
一般に、画像に対する実体的な処理を行う処理部品を、画像処理エンジンと呼ぶ。画像処理が画像認識である場合、画像処理エンジンには、学習等で生成する認識モデルが含まれる。画像処理エンジンは、ソフトウェアによって実現されてもよいし、ハードウェアによって実現されてもよい。
【0122】
異なる設定の適用は、例えば、実行時において、画像処理エンジンに設定を読み込ませることで行うことができる。この場合、画像処理装置10は、画像処理装置10の起動時、又は実行中の任意のタイミングにおいて、画像処理装置10に含まれる画像処理エンジンに、上記で説明したような設定を読み込ませる。そして、画像処理装置10の第2処理部123は、このように設定を読み込ませた画像処理エンジンを用いて、第2の画像処理を行う。
【0123】
また、異なる設定の適用は、例えば、画像処理エンジンの作成時において行うこともできる。この場合、画像処理エンジンの作成者は、上記で説明したような設定が用いられるように、画像処理エンジンの設計、作成を行う。画像処理装置10の第2処理部123は、このように作成された画像処理エンジンを用いて、第2の画像処理を行う。
【0124】
第2の画像処理の第2の例においては、第2処理部123は、上記のように異なる設定を適用して画像処理を実行し、第2の処理結果を生成する。
【0125】
次に、画像処理装置10の合成部124は、第1処理部121によって生成された第1の処理結果と、第2処理部123によって生成された第2の処理結果とを合成し、合成の結果である合成処理結果を生成する(
図3のステップS150)。
【0126】
合成部124が行う合成としては、種々のものを用いることができる。以下に、具体例を説明する。
【0127】
〔合成の第1の例〕
合成の第1の例について説明する。合成の第1の例においては、合成部124は、第1の処理結果のうち、画像の遠方部分に相当する処理結果を、第2の処理結果で置換する。
【0128】
第1の画像処理及び第2の画像処理として領域認識を用い、第1の処理結果及び第2の処理結果として、それぞれ、各画素に被写体種別IDを格納した画像が生成された場合について説明する。この場合、合成部124は、第1の処理結果の各画素のうち、画像の遠方部分に相当する各画素の被写体種別IDを、第2の処理結果の各画素の被写体種別IDで置換する。例えば、第1の処理結果として
図5のような処理結果が生成され、第2の処理結果として
図13のような処理結果を縮小した処理結果が生成された場合、合成部124は、上記で説明した置換により、
図15のような合成処理結果を生成する。
【0129】
なお、
図15においては、合成処理結果のうち第2の処理結果に相当する部分(画像の遠方部分に相当する部分)を、矩形で示している。合成部124が、この矩形のような、第2の処理結果に相当する部分を表す情報を、合成処理結果に含めるか否かは、任意である。例えば、合成処理結果の表示において不要である場合には、合成部124は、上記の矩形のような、第2の処理結果に相当する部分を表す情報を、合成処理結果に含めなくてもよい。
【0130】
〔合成の第2の例〕
合成の第2の例について説明する。合成の第2の例においては、合成部124は、第1の処理結果のうち、画像の遠方部分に相当する処理結果と、第2の処理結果とを統合する。
【0131】
合成部124が行う上記の統合の方法としては、種々のものを用いることができる。例えば、第1の画像処理及び第2の画像処理として領域認識を用い、第1の処理結果及び第2の処理結果として、それぞれ、各画素に被写体種別IDを格納した画像が生成された場合においては、合成部124は、上記の統合の方法として、以下の(E)~(F)に示す方法を用いてよい
(E)被写体の種別の優先度に基づいて統合
(F)被写体の種別の信頼度に基づいて統合
以下に、(E)~(F)について詳細に説明する。
【0132】
上記(E)の例について、詳細に説明する。
【0133】
上記(E)の例では、合成部124は、被写体の種別の優先度に基づいて、被写体種別IDを統合する。例えば、第1の処理結果のうち、画像の遠方部分に相当するある画素に格納された被写体種別IDが5(道路)であり、第2の処理結果の対応する画素の被写体種別IDが1(人)であり、さらに優先する被写体の種別として「人」が定められていた場合、合成部124は、当該画素の被写体種別IDを1(人)に決定することができる。逆に、優先する被写体の種別として「道路」が定められていた場合、合成部124は、当該画素の被写体種別IDを5(道路)に決定することができる。このようにすることで、合成部124は、第1の画像処理及び第2の画像処理にて認識された被写体種別のうち、必要となる被写体の種別を適切に選択して提供することが可能となる。
【0134】
なお、これに限らず、上記(E)の例において、被写体の種別の優先度に基づく被写体種別IDの統合は、その他の任意の方法で行うことができる。例えば、合成部124は、縮小の例(A)~(D)に記載したように、その他の任意の方法や形式で、静的または動的に被写体の種別の優先度を定めて、当該優先度に基づいて被写体IDの統合を行ってもよい。
【0135】
上記(F)の例について、詳細に説明する。
【0136】
一例として、合成部124が、被写体の種別の信頼度に基づいて、被写体種別IDを統合する例を説明する。ここで、第1の処理結果及び第2の処理結果には、各画素に被写体種別IDを格納した画像とともに、各画素についての信頼度(例えば、最小0.0~最大1.0)が含まれるものする。例えば、第1の処理結果のうち、画像の遠方部分に相当するある画素に格納された被写体種別IDが5(道路)、その信頼度が0.4であり、第2の処理結果の対応する画素が1(人)、その信頼度が0.7であった場合、合成部124は、当該画素の被写体種別IDを、より信頼度の大きい1(人)に決定する。
【0137】
また、別の一例として、合成部124が、被写体の種別の信頼度と、予め定められた第1の処理結果及び第2の処理結果の重みとに基づいて、被写体種別IDを統合する例を説明する。例えば、第1の処理結果のうち、画像の遠方部分に相当するある画素に格納された被写体種別IDが5(道路)、その信頼度が0.8であり、第2の処理結果の対応する画素が1(人)、その信頼度が0.7であった場合において、さらに、第1の処理結果の重み係数が0.5、第2の処理結果の重み係数が0.5、1.0と定められていた場合について考える。合成部124は、例えば、第1の処理結果の当該画素と、第2の処理結果の当該画素のそれぞれについて、信頼度と重み係数とを乗算することで評価値を算出する。上記の場合においては、合成部124は、第1の処理結果の当該画素の評価値として0.4を算出し、第2の処理結果の当該画素の評価値として0.7を算出する。次に、合成部124は、算出された評価値の比較を比較し、当該画素の被写体種別IDを決定する。上記の場合においては、より評価値の大きい第2の処理結果の1(人)を、当該画素の被写体識別IDとして決定する。
【0138】
なお、これらに限らず、上記(F)の例において、合成部124は、その他の信頼度の形式、評価値の算出方法、被写体識別ID等を用いて、被写体の種別の信頼度に基づく被写体種別IDの統合を行うことができる。
【0139】
次に、画像処理装置10のシーン認識部130は、第1処理部121によって生成された第1の処理結果及び第2処理部123によって生成された第2の処理結果と、合成部124によって生成された合成処理結果との少なくともいずれかに基づいて、シーン認識を行い、シーン認識結果を生成する(
図3のステップS160)。
【0140】
ここで、シーン認識とは、画像に表されているシーンの意味を認識する処理である。シーン認識部130が行うシーン認識としては、種々のものを用いることができる。例えば、画像取得部110によって取得された画像が、道路を含む画像であった場合、シーン認識部130は、シーン認識として、道路の状況を認識する処理を行うことができる。以下、
図16及び
図17を用いて、このような道路の状況を認識する処理の具体例を説明する。
【0141】
一例として、シーン認識部130は、シーン認識として、「前方に横断歩道あり」、「前方に歩行者あり」等のシーンの種別について、該当するか否かの真偽値を判定する処理を用いることができる。
図16は、このようなシーン認識によるシーン認識結果の例を示す図である。
【0142】
また、一例として、シーン認識部130は、シーン認識として、「前方の交差点までの距離」、「進行方向の車線数」等のシーンの種別について、その数値を判定する処理を用いることができる。
図17は、このようなシーン認識によるシーン認識結果の例を示す図である。
【0143】
ここで、シーン認識部130は、上記のような真偽値や数値とともに、画像における被写体の位置(例えば、横断歩道の位置や交差点の位置)を判定し、シーン認識結果に含めてもよい。
【0144】
なお、シーン認識部130は、所定の認識モデルを用いて、上記のようなシーン認識を行うことができる。シーン認識部130は、任意の方法によって作成された認識モデルを用いてよい。例えば、シーン認識部130は、合成処理結果に対してシーンの正解ラベルを対応付けた教師データを用いて、深層学習やその他の知られた手法による学習を行うことによって作成された認識モデルを用いて、シーン認識を行ってよい。
【0145】
次に、画像処理装置10の出力部140は、第1処理部121によって生成された第1の処理結果及び第2処理部123によって生成された第2の処理結果と、合成部124によって生成された合成処理結果と、シーン認識部130によって生成されたシーン認識結果との少なくともいずれかに基づいて、所定の出力を行う。(
図3のステップS170)。
【0146】
出力部140が行う出力の態様としては、種々のものを用いることができる。以下に、出力の具体例を説明する。出力部140は、以下の具体例のうち1つ又は複数を用いて、出力を行うことができる。
【0147】
〔出力の第1の例〕
出力の第1の例について説明する。出力の第1の例において、画像取得部110によって取得された画像は、道路を含む画像である。また、画像処理装置10と上記の道路を走行する車両は通信可能に接続されているものとする。出力の第1の例において、出力部140は、出力として、上記の道路を走行する車両の乗員に対する情報の提供を行う。
【0148】
例えば、出力部140は、出力として、上記の道路を走行する車両に設置された表示装置に表示する指示を行うことができる。
【0149】
一例として、合成部124が合成処理結果として
図15示すような領域認識の処理結果の画像を生成した場合、出力部140は、
図15に示すような画像を、上記の表示装置に表示する指示を行ってもよい。また、出力部140は、
図15に示すような領域認識の処理結果に基づいて、
図4に示すような取得された画像に対して、注視すべき被写体(例えば、人や自動車)が映っている領域を強調する加工を行い、当該加工された画像を上記の表示装置に表示する指示を行ってもよい。また、出力部140は、画像とともに、当該画像に表示されている被写体の種別の文字情報を、上記の表示装置に表示する指示を行ってもよい。
【0150】
また、一例として、シーン認識部130が、シーン認識結果として
図16に示すように「前方に歩行者あり」という結果を生成した場合、出力部140は、「前方に歩行者あり」という文字情報を、上記の表示装置に表示する指示を行ってもよい。
【0151】
また、例えば、出力部140は、出力として、上記の道路を走行する車両に設置された音声出力装置を通してアナウンスする指示を行うことができる。
【0152】
一例として、シーン認識部130が、シーン認識結果として
図16に示すように「前方に歩行者あり」という結果を生成した場合、出力部140は、「前方に歩行者あり」という文字情報を、音声として、上記の音声出力装置を通してアナウンスする指示を行ってもよい。
【0153】
なお、上記の例に限らず、出力部140は、その他の任意の態様で、上記の道路を走行する車両の乗員に対する情報の提供を行うことができる。
【0154】
〔出力の第2の例〕
出力の第2の例について説明する。出力の第2の例において、画像取得部110によって取得された画像は、道路を含む画像である。また、画像処理装置10と上記の道路を走行する車両は通信可能に接続されているものとする。出力の第2の例において、出力部140は、出力として、上記の道路を走行する車両に対する運転制御の指示を行う。
【0155】
出力部140が行う運転制御の指示としては、種々のものを用いることができる。
【0156】
例えば、出力部140は、上記の道路を走行する車両に対して、ブレーキの指示、ハンドル操舵の指示、ライト点灯若しくは消灯の指示を行うことができる。一例として、シーン認識部130が、シーン認識結果として
図16に示すように「前方に歩行者あり」という結果を生成した場合、出力部140は、上記の道路を走行する車両に対して、ブレーキの指示を行ってもよい。
【0157】
なお、これに限らず、出力部140は、その他の任意の態様で、上記の道路を走行する車両に対して運転制御の指示を行うことができる。また、上記の道路を走行する車両は、自動運転の車両であってもよく、手動運転の車両であってもよい。
【0158】
〔出力の第3の例〕
出力の第3の例について説明する。出力の第3の例において、出力部140は、管理員に対する情報の提供を行う。ここで、管理員とは、車両の管理者、道路の管理者や監視員、その他の施設の管理者や監視員等、種々の人物を含む。管理員は端末装置を使用するものとし、画像処理装置10と当該端末装置は、通信可能に接続されているものとする。上記の管理員の使用する端末装置は、画像処理装置10に近接して設置されていてもよいし、画像処理装置10の遠隔に設置されていてもよいし、また、携帯可能な端末装置であってもよい。
【0159】
出力部140が行う管理員に対する情報の提供の態様としては、種々のものを用いることができる。例えば、出力部140は、出力として、上記の管理員の端末装置に対して、第1の処理結果や第2の処理結果、合成処理結果、シーン認識結果を提示する指示を行うことができる。この場合、出力部140は、第1の処理結果や第2の処理結果、合成処理結果、シーン認識結果を、出力の第1の例で説明した態様と同様の態様で、表示する指示又は音声としてアナウンスする指示を行ってもよい。
【0160】
〔出力の第4の例〕
出力の第4の例について説明する。
【0161】
出力の第4の例において、出力部140は、図示しない外部の装置に対する情報の送信を行う。ここで、外部の装置には、表示装置、記憶装置、分析装置等、種々の装置が含まれる。画像処理装置10と外部の装置とは、通信可能に接続されているものとする。出力部140は、例えば、第1の処理結果や第2の処理結果、合成処理結果、シーン認識結果等の情報を、このような外部の装置に送信する。外部の装置は、例えば、受信した情報の画面への表示、受信した情報の蓄積、受信した情報に基づくさらなる分析等、種々の処理を行うことができる。
【0162】
以上により、第1の実施形態の動作が完了する。
【0163】
なお、
図4、
図6及び
図12に示す処理の順序は例示であり、処理結果が変わらない範囲において、順序を入れ替えてもよいし、一部の処理を並列に行ってもよい。例えば、画像処理装置10は、
図4のステップS120の処理と、ステップS130及びS140の一連の処理とについて、順序を入れ替えてもよいし、一部の処理を並列に行ってもよい。
【0164】
<効果の説明>
第1の実施形態によれば、撮影された画像に対して画像処理を行う場合において、遠方の被写体を精度よく認識することができる。その理由は、遠方特定部122が、撮影された画像の遠方部分を特定し、第2処理部が、特定された画像の遠方部分に対して所定の第2の画像処理を行うためである。
【0165】
また、第1の実施形態によれば、撮影された画像に対して画像処理を行う場合において、処理負荷を削減することができる。その理由は、遠方特定部122が、撮影された画像の遠方部分を特定し、第2処理部が、特定された画像の遠方部分に対して所定の第2の画像処理を行うため、画像の遠方部分を除く範囲に対してまで第2の画像処理を行う必要がないからである。
【0166】
[第2の実施形態]
第2の実施形態について説明する。
【0167】
<構成の説明>
まず、第2の実施形態の構成について説明する。
【0168】
図18は、第2の実施形態における、画像処理装置10の機能ブロックを示す図である。
図18を参照すると、第2の実施形態における画像処理装置10は、深度データ取得部150を備える点で、第1の実施形態と異なる。第2の実施形態におけるその他の構成要素については、第1の実施形態と同様である。第1の実施形態と同様の構成要素については、
図1及び
図2と同一の符号を用い、詳細な説明を省略する。
【0169】
深度データ取得部150は、深度データを取得する手段として機能する。
【0170】
ここで、深度データとは、対象物に対する深度を表すデータである。深度データは、例えば、各画素に、対象物までの距離が格納された画像(深度画像と呼ばれる)の形式で表現される。深度データ取得部150が深度データを取得する方法としては、種々のものを用いることができる。
【0171】
例えば、深度データ取得部150は、図示しない外部の計測装置が深度データを計測する場合、当該計測装置から、計測された深度データを通信等によって取得してもよい。このような計測装置には、LIDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)、ミリ波レーダー、ステレオカメラ、ToF(Time of Flight)カメラが含まれる。
【0172】
また、例えば、深度データ取得部150は、画像取得部110によって取得された画像を用いて、深度データを生成してもよい。深層学習等を用いて、二次元の画像から深度を推定する深度推定と呼ばれる手法が知られており、深度データ取得部150は、このような深度推定を用いて、深度データを生成することができる。また、深度データ取得部150は、図示しない外部の処理装置がこのような深度推定を行う場合、当該処理装置から、生成された深度データを通信等によって取得してもよい。
【0173】
<動作の説明>
次に、第2の実施形態の動作について説明する。
【0174】
図19は、第2の実施形態における、画像処理装置10の動作を示すフローチャートである。第1の実施形態と同様の動作については
図3と同一の符号を付し、詳細な説明を省略する。
【0175】
画像処理装置10の画像取得部110は、撮像装置20より、撮影された画像を取得する(
図19のステップS110)。
【0176】
画像処理装置10の第1処理部は、画像取得部110によって取得された画像に対して、所定の第1の画像処理を行い、第1の処理結果を生成する(
図19のステップS120)。
【0177】
次に、画像処理装置10の深度データ取得部150は、上記で説明したような方法を用いて、深度データを取得する(
図19のステップS180)。例えば、深度データ取得部150は、深度データとして、
図20に示すような深度画像を取得する。
図20において、深度は濃淡で表され、濃い部分ほど深度が小さく(近く)、明るい部分ほど深度が大きい(遠い)。
【0178】
次に、画像処理装置10の遠方特定部122は、深度データ取得部150によって取得された深度データに基づいて、遠方部分を特定し、遠方特定情報を生成する(
図19のステップS190)。
【0179】
遠方特定部122が深度データに基づいて遠方部分を特定する方法には、種々のものを用いることができる。以下に、具体例を説明する。
【0180】
〔深度データに基づく遠方特定の第1の例〕
深度データに基づく遠方特定の第1の例について説明する。
図21は、深度データに基づく、遠方特定部122の動作を示すフローチャートである。
【0181】
遠方特定部122は、深度データ取得部150によって取得された深度データに基づいて、深度データの座標系における遠方部分を特定する(
図21のステップS191)。
【0182】
遠方特定部122が行うこの特定の方法としては、種々のものを用いることができる。
例えば、遠方特定部122は、深度データに含まれる点のうち、深度の最も大きい点を抽出し、その点を含む所定の部分を特定し、これを深度データの座標系における遠方部分とすることができる。また、例えば、遠方特定部122は、深度データに含まれる点のうち、深度が所定の閾値以上である点群を抽出し、抽出された点群を含む所定の部分を特定し、これを深度データの座標系における遠方部分とすることができる。なお、深度データの座標系における遠方部分の形状は、例えば、矩形であってもよいし、矩形以外の多角形、円、楕円、その他の形状であってもよい。
【0183】
次に、遠方特定部122は、特定された深度データの座標系における遠方部分を、画像の座標系における遠方部分に変換する(
図21のステップS192)。
【0184】
ここで、深度データの座標系と画像の座標系との変換式を求める処理は、キャリブレーションと呼ばれる。このようなキャリブレーションの手法として、例えば、深度データの座標系における少数の点と、それに対応する画像の座標系における少数の点を元に、上記の変換式を求める等、種々の手法が知られている。遠方特定部122は、例えば、このような種々の手法によって求められた変換式を用いて、深度データの座標系における遠方部分を、画像の座標系における遠方部分に変換する。
【0185】
次に、遠方特定部122は、変換によって得られた画像の座標系における遠方部分を補正する。(
図21のステップS193)。
【0186】
遠方特定部122が行う補正としては、種々のものを用いることができる。例えば、遠方特定部122は、変換によって得られた画像の座標系における遠方部分の形状が矩形でなかった場合、当該形状を矩形に近似する補正を行ってもよい。しかし、これに限らず、遠方特定部122は、矩形以外の多角形、円、楕円、その他の形状に近似する補正を行ってもよいし、その他の種々の形状の補正を行ってもよい。また、遠方特定部122は、変換によって得られた画像の座標系における遠方部分について、補正の必要がない場合は、補正の処理を省略してもよい。
【0187】
〔深度データに基づく遠方特定の第2の例〕
深度データに基づく遠方特定の第2の例について説明する。深度データに基づく遠方特定の第2の例では、深度データに加えて、画像取得部110によって取得された画像に基づいて、遠方部分を特定する。
図22は、深度データに基づく、遠方特定部122の動作を示すフローチャートである。
【0188】
遠方特定部122は、深度データ取得部150によって取得された深度データに基づいて、遠方部分についての複数の候補を生成する(
図22のステップS196)。
【0189】
まず、遠方特定部122は、深度データ取得部150によって取得された深度データに基づいて、深度データの座標系における遠方部分について、複数の候補を特定する。
【0190】
深度データ取得部150が行う上記の特定の方法としては、種々のものを用いることができる。例えば、遠方特定部122は、まず、深度データに含まれる点のうち、深度が所定の閾値以上である点群を抽出する。次に、遠方特定部122は、抽出された点群を、深度データの座標系において距離が近い点同士のグループに分割する。続いて、遠方特定部122は、分割された複数のグループのそれぞれについて、グループに含まれる点群を含む部分を特定する。遠方特定部122は、これらの複数の部分を、深度データの座標系における遠方部分についての複数の候補とすることができる。
【0191】
次に、遠方特定部122は、上記において特定された深度データの座標系における遠方部分の複数の候補のそれぞれを、画像の座標系における遠方部分に変換する。この変換の方法としては、深度データに基づく遠方特定の第1の例で説明したような、種々の方法を用いることができる。
【0192】
次に、遠方特定部122は、上記の変換によって得られた、画像の座標系における遠方部分の複数の候補のそれぞれを補正する。この補正の方法としては、深度データに基づく遠方特定の第1の例で説明したような、種々の方法を用いることができる。また、遠方特定部122は、変換によって得られた画像の座標系における遠方部分の候補について、補正の必要がない場合は、補正の処理を省略してもよい。
【0193】
これにより、遠方特定部122は、深度データ取得部150によって取得された深度データに基づいて、遠方部分の複数の候補を得ることができる。
【0194】
続いて、遠方特定部122は、画像取得部110によって取得された画像に基づいて、上記により生成された遠方部分の複数の候補から、遠方部分を特定する(
図22のステップS197)。
【0195】
遠方特定部122は、画像取得部110によって取得された画像に対して、画像認識を行う。ここで、遠方特定部122が行う画像認識は、例えば、領域認識である。しかし、これに限らず、画像認識は、物体認識であってもよく、その他の画像認識であってもよい。なお、領域認識を行う場合、遠方特定部122は、第1の実施形態における消失点推定の第1の例で説明したような、簡易な領域認識を用いてもよい。
【0196】
次に、遠方特定部122は、上記の画像認識の処理結果に基づいて、遠方部分の複数の候補のそれぞれについて、評価値を算出する。例えば、遠方特定部122は、画像認識の処理結果として、所定の被写体の種別(例えば、道路)であると認識された範囲をより多く含む場合、遠方部分の候補に対して、より大きい評価値を与えることができる。
【0197】
遠方特定部122は、算出された評価値が最も大きい候補を、遠方部分として特定する。
【0198】
以上のようにして遠方部分を特定したら、遠方特定部122は、当該遠方部分を所定の形式で表現した遠方特定情報を生成する。
【0199】
次に、画像処理装置10の第2処理部123は、遠方特定部122によって生成された遠方特定情報に基づいて、画像取得部110によって取得された画像の遠方部分に対して、第1の画像処理と異なる所定の第2の画像処理を行い、第2の処理結果を生成する(
図19のステップS140)。
【0200】
次に、画像処理装置10の合成部124は、第1処理部121によって生成された第1の処理結果と、第2処理部123によって生成された第2の処理結果とを合成し、合成の結果である合成処理結果を生成する(
図19のステップS150)。
【0201】
次に、画像処理装置10のシーン認識部130は、第1処理部121によって生成された第1の処理結果及び第2処理部123によって生成された第2の処理結果と、合成部124によって生成された合成処理結果との少なくともいずれかに基づいて、シーン認識を行い、シーン認識結果を生成する(
図19のステップS160)。
【0202】
次に、画像処理装置10の出力部140は、第1処理部121によって生成された第1の処理結果及び第2処理部123によって生成された第2の処理結果と、合成部124によって生成された合成処理結果と、シーン認識部130によって生成されたシーン認識結果との少なくともいずれかに基づいて、所定の出力を行う。(
図19のステップS170)。
【0203】
以上により、第2の実施形態の動作が完了する。
【0204】
なお、
図19、
図21及び
図22に示す処理の順序は例示であり、処理結果が変わらない範囲において、順序を入れ替えてもよいし、一部の処理を並列に行ってもよい。例えば、画像処理装置10は、
図19のステップS120の処理と、ステップS180、S190及びS140の一連の処理とについて、順序を入れ替えてもよいし、一部の処理を並列に行ってもよい。
【0205】
<効果の説明>
第2の実施形態によれば、撮影された画像に対して画像処理を行う場合において、精度よく遠方部分を特定することができる。その理由は、深度データ取得部150が、深度データを取得し、遠方特定部122が、取得された深度データに基づいて、撮影された画像の遠方部分を特定するためである。
【0206】
[第3の実施形態]
第3の実施形態について説明する。
【0207】
<構成の説明>
第3の実施形態の構成について説明する。第3の実施形態の構成は、各実施形態における最小構成である。
【0208】
図23は、第3の実施形態における、画像処理装置10の機能ブロックを示す図である。
【0209】
図23を参照すると、画像処理装置10は、画像取得部110、画像処理部120、出力部140を備える。画像処理部120は、さらに、第1処理部121、遠方特定部122、第2処理部123を備える。
【0210】
画像処理装置10の各構成要素は、第1の実施形態の画像処理装置10等における対応する構成要素と同様の手段として機能する。
【0211】
<動作の説明>
第3の実施形態の動作について説明する。
【0212】
図24は、第3の実施形態における、画像処理装置10の動作を示すフローチャートである。第1の実施形態と同様の動作については、
図3と同一の符号を付し、詳細な説明を省略する。
【0213】
画像処理装置10の画像取得部110は、撮像装置20より、撮影された画像を取得する(
図24のステップS110)。
【0214】
画像処理装置10の第1処理部は、画像取得部110によって取得された画像に対して、所定の第1の画像処理を行い、第1の処理結果を生成する(
図24のステップS120)。
【0215】
画像処理装置10の遠方特定部122は、画像取得部110によって取得された画像に基づいて、遠方部分を特定する(
図24のステップS130)。
【0216】
画像処理装置10の第2処理部123は、遠方特定部122によって生成された遠方特定情報に基づいて、画像取得部110によって取得された画像の遠方部分に対して、第1の画像処理と異なる所定の第2の画像処理を行い、第2の処理結果を生成する(
図24のステップS140)。
【0217】
画像処理装置10の出力部140は、第1処理部121によって生成された第1の処理結果及び第2処理部123によって生成された第2の処理結果に基づいて、所定の出力を行う(
図3のステップS170)。
【0218】
以上により、第3の実施形態の動作が完了する。
【0219】
なお、
図24に示す処理の順序は例示であり、処理結果が変わらない範囲において、順序を入れ替えてもよいし、一部の処理を並列に行ってもよい。例えば、画像処理装置10は、
図24のステップS120の処理と、ステップS130及びS140の一連の処理とについて、順序を入れ替えてもよいし、一部の処理を並列に行ってもよい。
【0220】
<効果の説明>
第3の実施形態によれば、撮影された画像に対して画像処理を行う場合において、遠方の被写体を精度よく認識することができる。
【0221】
[変形例]
以上、本発明の各実施形態を説明したが、本発明は、上記の各実施形態に限定されるものではなく、本発明の基本的な技術的思想を逸脱しない範囲で、更なる変形・置換・調整を加えることができる。
【0222】
例えば、上記の各実施形態においては、画像処理装置10の第1処理部121及び第2処理部123が、画像処理として領域認識を行う例を主に説明したが、これに限らず、第1処理部121及び第2処理部123は、画像処理として、領域認識以外の画像認識を行ってもよい。画像認識の1つとして、画像に含まれる被写体を囲む形状(例えば、矩形)及び当該被写体の種別を推定する物体認識が知られており、第1処理部121及び第2処理部123は、画像処理として、この物体認識を行ってもよい。
【0223】
また、例えば、画像処理装置10の第1処理部121及び第2処理部123は、画像処理として、画像認識以外の画像処理、例えば画像変換・加工を行ってもよい。画像変換・加工の1つとして、画素の補間等を用いて高精細な画像を生成する超解像が知られており、第1処理部121及び第2処理部123は、画像処理として、この超解像を行ってもよい。これにより、遠方部分について高品質な処理結果を得ることができる。
【0224】
また、例えば、画像処理装置10は、第1の処理結果が所定の条件を満たす場合に、遠方特定部122による遠方部分の特定の処理及び第2処理部123による第2の画像処理を省略してもよい。一例として、第1処理部121が、第1の画像処理として領域認識や物体認識等の画像認識を行い、第1の処理結果として画像認識の結果とともにその信頼度を生成した場合、画像処理装置10は、信頼度が十分に大きい場合には、遠方特定部122による遠方部分の特定の処理及び第2処理部123による第2の画像処理を省略してもよい。このように処理を省略することで、遠方特定部122及び第2処理部123における処理負荷を削減することができる。
【0225】
また、例えば、上記の各実施形態においては、画像処理装置10は、撮像装置20から画像を取得するものとして説明したが、これに限らず、画像処理装置10は、記憶装置や記録媒体に予め記録された画像を取得し、当該画像に対して画像処理を行ってもよい(オフライン画像処理)。このようなオフライン画像処理の一例として、画像処理装置10は、予め記録された、道路での事故の発生前後の画像に対して、画像処理を行ってもよい。画像処理装置10は、このような画像処理の処理結果として、例えば、事故の発生前に遠方の横断歩道を通行する人物がいた等、事後的な事故の詳細分析に役立つ情報を提供することができる。
【0226】
また、例えば、上記の各実施形態においては、画像処理装置10は、撮影された画像の遠方部分を特定し、当該遠方部分に対して所定の第2の画像処理を行うものとして説明したが、これに限らず、「遠方」以外の基準を用いて注視すべき部分を特定してもよい。例えば、画像処理装置10において、遠方特定部122は、撮影された画像について、「遠方」以外の基準を用いて注視すべき部分を特定し、第2処理部123は、当該注視すべき部分に対して所定の第2の画像処理を行ってもよい。
【0227】
[ハードウェア構成]
上記で説明した各実施形態において、画像処理装置10の各構成要素は、機能ブロックを示している。画像処理装置10の各構成要素の一部又は全部は、コンピュータ1000とプログラムとの任意の組み合わせにより実現されてもよい。
【0228】
図25は、コンピュータ1000のハードウェア構成の例を示すブロック図である。
図25を参照すると、コンピュータ1000は、例えば、プロセッサ1001、ROM(Read Only Memory)1002、RAM(Random Access Memory)1003、プログラム1004、記憶装置1005、ドライブ装置1007、通信インタフェース1008、入力装置1009、出力装置1010、入出力インタフェース1011、及び、バス1012を含む。
【0229】
プログラム1004は、各装置の各機能を実現するための命令を含む。プログラム1004は、予め、ROM1002やRAM1003、記憶装置1005に格納される。プロセッサ1001は、プログラム1004に含まれる命令を実行することにより、各装置の各機能を実現する。例えば、画像処理装置10のプロセッサ1001がプログラム1004に含まれる命令を実行することにより、画像取得部110、画像処理部120等の機能を実現する。
【0230】
ドライブ装置1007は、記録媒体1006の読み書きを行う。通信インタフェース1008は、通信ネットワークとのインタフェースを提供する。入力装置1009は、例えば、マウスやキーボード等であり、操作者等からの情報の入力を受け付ける。出力装置1010は、例えば、ディスプレイであり、操作者等へ情報を出力(表示)する。入出力インタフェース1011は、周辺機器とのインタフェースを提供する。バス1012は、これらハードウェアの各構成要素を接続する。なお、プログラム1004は、通信ネットワークを介してプロセッサ1001に供給されてもよいし、予め、記録媒体1006に格納され、ドライブ装置1007により読み出され、プロセッサ1001に供給されてもよい。
【0231】
なお、
図25に示されているハードウェア構成は例示であり、これら以外の構成要素が追加されていてもよく、一部の構成要素を含まなくてもよい。
【0232】
画像処理装置10の実現方法には、様々な変形例がある。例えば、画像処理装置10は、構成要素毎にそれぞれ異なるコンピュータとプログラムとの任意の組み合わせにより実現されてもよい。また、各装置が備える複数の構成要素が、1つのコンピュータとプログラムとの任意の組み合わせにより実現されてもよい。
【0233】
また、各装置の各構成要素の一部または全部は、汎用または専用の回路や、これらの組み合わせによって実現されてもよい。これらの回路は、単一のチップによって構成されてもよいし、バスを介して接続される複数のチップによって構成されてもよい。各装置の各構成要素の一部又は全部は、上述した回路等とプログラムとの組み合わせによって実現されてもよい。
【0234】
また、各装置の各構成要素の一部又は全部が複数のコンピュータや回路等により実現される場合、複数のコンピュータや回路等は、集中配置されてもよいし、分散配置されてもよい。
【0235】
以上、実施形態を参照して本開示を説明したが、本開示は上記実施形態に限定されるものではない。本開示の構成や詳細には、本開示のスコープ内で当業者が理解し得る様々な変更をすることができる。また、各実施形態における構成は、本開示のスコープを逸脱しない限りにおいて、互いに組み合わせることが可能である。
【0236】
上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
(付記1)
撮像装置で撮影された画像を取得する画像取得手段と、
前記画像に対して第1の画像処理を行う第1処理手段と、
前記画像の遠方部分を特定する遠方特定手段と、
前記画像の遠方部分に対して、第1の画像処理と異なる第2の画像処理を行う第2処理手段と、
前記第1の画像処理の処理結果及び前記第2の画像処理の処理結果に基づく出力を行う出力手段と、を備える
画像処理装置。
(付記2)
前記第1の画像処理の処理結果と前記第2の画像処理の処理結果とを合成する合成手段をさらに備える、
付記1に記載の画像処理装置。
(付記3)
前記第2処理手段は、前記第2の画像処理として、前記画像の遠方部分を拡大し、拡大された画像に対して所定の処理を行い、当該所定の処理の処理結果を縮小する
付記1又は2に記載の画像処理装置。
(付記4)
前記第1処理手段は、前記第1の画像処理として領域認識を行い、
前記第2処理手段は、前記第2の画像処理における前記所定の処理として領域認識を行う
付記3に記載の画像処理装置。
(付記5)
前記第1の画像処理の処理結果と前記第2の画像処理の処理結果とを合成する合成手段を備え、
前記合成手段は、前記第1の画像処理において推定された被写体の種別と、前記第2の画像処理において推定された被写体の種別と、予め定められた被写体の種別の優先度とに基づいて、前記画像の遠方部分の各領域における被写体の種別を決定する、
付記4に記載の画像処理装置。
(付記6)
前記第2処理手段は、前記第2の画像処理として、前記画像の遠方部分に対して、第1の画像処理とは異なる設定を適用した画像処理を行う、
付記1又は2に記載の画像処理装置。
(付記7)
前記画像は道路を含む画像であって
前記遠方特定手段は、前記画像における道路の消失点を推定し、当該道路の消失点を基準する所定の部分を、前記画像の遠方部分として特定する、
付記1乃至6のいずれか一項に記載の画像処理装置。
(付記8)
前記遠方特定手段は、前記画像に対する領域認識の処理結果において、道路であると判定された領域に基づいて、前記画像における道路の消失点を推定する
付記7に記載の画像処理装置。
(付記9)
深度データを取得する深度データ取得手段をさらに備え、
前記遠方特定手段は、前記深度データに基づいて、前記画像における遠方部分を特定する、
付記1乃至6のいずれか一項に記載の画像処理装置。
(付記10)
前記第1の画像処理の処理結果及び前記第2の画像処理の処理結果に基づいて、道路の状況を認識するシーン認識手段をさらに備える、
付記1乃至9のいずれか一項に記載の画像処理装置。
(付記11)
前記出力手段は、前記第1の画像処理の処理結果及び前記第2の画像処理の処理結果に基づいて、道路を走行する車両に対して所定の出力を行う、
付記1乃至10のいずれか一項に記載の画像処理装置。
(付記12)
画像処理装置が、
撮像装置で撮影された画像を取得し、
前記画像に対して第1の画像処理を行い、
前記画像の遠方部分を特定し、
前記画像の遠方部分に対して、第1の画像処理と異なる第2の画像処理を行い、
前記第1の画像処理の処理結果及び前記第2の画像処理の処理結果に基づく出力を行う、
画像処理方法。
(付記13)
コンピュータに、
撮像装置で撮影された画像を取得し、
前記画像に対して第1の画像処理を行い、
前記画像の遠方部分を特定し、
前記画像の遠方部分に対して、第1の画像処理と異なる第2の画像処理を行い、
前記第1の画像処理の処理結果及び前記第2の画像処理の処理結果に基づく出力を行う処理を実行させる、
プログラムの記録媒体。
【符号の説明】
【0237】
10 画像処理装置
20 撮像装置
110 画像取得部
120 画像処理部
121 第1処理部
122 遠方特定部
123 第2処理部
124 合成部
130 シーン認識部
140 出力部
150 深度データ取得部
1000 コンピュータ
1001 プロセッサ
1002 ROM
1003 RAM
1004 プログラム
1005 記憶装置
1006 記録媒体
1007 ドライブ装置
1008 通信インタフェース
1009 入力装置
1010 出力装置
1011 入出力インタフェース
1012 バス