特許第5865547号(P5865547)IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 株式会社日立国際電気の特許一覧

<>
  • 特許5865547-画像表示装置および画像表示方法 図000002
  • 特許5865547-画像表示装置および画像表示方法 図000003
  • 特許5865547-画像表示装置および画像表示方法 図000004
  • 特許5865547-画像表示装置および画像表示方法 図000005
  • 特許5865547-画像表示装置および画像表示方法 図000006
  • 特許5865547-画像表示装置および画像表示方法 図000007
  • 特許5865547-画像表示装置および画像表示方法 図000008
  • 特許5865547-画像表示装置および画像表示方法 図000009
  • 特許5865547-画像表示装置および画像表示方法 図000010
  • 特許5865547-画像表示装置および画像表示方法 図000011
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】5865547
(24)【登録日】2016年1月8日
(45)【発行日】2016年2月17日
(54)【発明の名称】画像表示装置および画像表示方法
(51)【国際特許分類】
   H04N 7/18 20060101AFI20160204BHJP
   G06T 19/00 20110101ALI20160204BHJP
【FI】
   H04N7/18 D
   H04N7/18 V
   G06T19/00 A
【請求項の数】14
【全頁数】26
(21)【出願番号】特願2015-506745(P2015-506745)
(86)(22)【出願日】2014年3月14日
(86)【国際出願番号】JP2014056952
(87)【国際公開番号】WO2014148394
(87)【国際公開日】20140925
【審査請求日】2015年5月22日
(31)【優先権主張番号】特願2013-56729(P2013-56729)
(32)【優先日】2013年3月19日
(33)【優先権主張国】JP
【早期審査対象出願】
(73)【特許権者】
【識別番号】000001122
【氏名又は名称】株式会社日立国際電気
(72)【発明者】
【氏名】藤井 幸
(72)【発明者】
【氏名】伊藤 渡
【審査官】 秦野 孝一郎
(56)【参考文献】
【文献】 特開2002−222488(JP,A)
【文献】 特開2005−268847(JP,A)
【文献】 特開2001−84408(JP,A)
【文献】 特開2011−221686(JP,A)
【文献】 特開2008−217220(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
H04N 7/18
G06T 19/00
(57)【特許請求の範囲】
【請求項1】
画像から背景画像を取り出す背景画像取得手段と、
前記画像と前記背景画像から仮想物体モデルを抽出する仮想物体モデル抽出手段と、
前記仮想物体モデルから物体三次元モデルを生成する物体三次元モデル生成手段と、
前記背景画像を視点変換する背景画像視点変換手段と、
前記物体三次元モデルを視点変換する物体三次元モデル視点変換手段と、
視点変換された前記背景画像と前記物体三次元モデルとを合成する合成手段と
を備えることを特徴とする画像表示装置。
【請求項2】
前記物体三次元モデル生成手段は、前記仮想物体モデルに前記画像をマッピングするマッピング手段を備えることを特徴とする請求項1に記載の画像表示装置。
【請求項3】
前記マッピング手段は、少なくとも2台のカメラが異なる角度で撮影した前記画像を用いてマッピングすることを特徴とする請求項2に記載の画像表示装置。
【請求項4】
前記マッピング手段は、前記画像によりマッピングを行う領域が重なるときには、画素数の多い前記画像を用いてマッピングを行うことを特徴とする請求項3に記載の画像表示装置。
【請求項5】
前記仮想物体モデル抽出手段は、
前記仮想物体モデルの特徴を抽出する特徴抽出手段と、
前記特徴抽出手段により抽出された特徴により前記物体三次元モデルを選択する物体三次元モデル選択手段と
を備えることを特徴とする請求項1から請求項4のいずれか1項に記載の画像表示装置。
【請求項6】
前記仮想物体モデル抽出手段は、前記仮想物体モデルに対応する物体の速度を計測する速度計測手段を備え、
前記物体三次元モデル選択手段は、前記速度を用いて前記背景画像と合成する前記物体三次元モデルを選択することを特徴とする請求項5に記載の画像表示装置。
【請求項7】
前記物体三次元モデルを前記背景画像に合成するときに、前記物体三次元モデルが配置されていた領域の向きに対して同じ向きとなるように前記物体三次元モデルを設定することを特徴とする請求項1から請求項6のいずれか1項に記載の画像表示装置。
【請求項8】
画像から背景画像を取り出す背景画像取得処理と、
前記画像と前記背景画像から仮想物体モデルを抽出する仮想物体モデル抽出処理と、
前記仮想物体モデルから物体三次元モデルを生成する物体三次元モデル生成処理と、
前記背景画像を視点変換する背景画像視点変換処理と、
前記物体三次元モデルを視点変換する物体三次元モデル視点変換処理と、
視点変換された前記背景画像と前記物体三次元モデルとを合成する合成処理と
をコンピュータに実行させることを特徴とする画像表示方法。
【請求項9】
前記物体三次元モデル生成処理は、前記仮想物体モデルに前記画像をマッピングするマッピング処理を備えることを特徴とする請求項8に記載の画像表示方法。
【請求項10】
前記マッピング処理は、少なくとも2台のカメラが異なる角度で撮影した前記画像を用いてマッピングすることを特徴とする請求項9に記載の画像表示方法。
【請求項11】
前記マッピング処理は、前記画像によりマッピングする領域が重なるときには、画素数の多い前記画像を用いてマッピングすることを特徴とする請求項10に記載の画像表示方法。
【請求項12】
前記仮想物体モデル抽出処理は、前記仮想物体モデルの特徴を抽出する特徴抽出処理と、
前記特徴抽出処理により抽出された特徴により前記物体三次元モデルを選択する物体三次元モデル選択処理と
を備えることを特徴とする請求項から請求項11のいずれか1項に記載の画像表示方法。
【請求項13】
前記仮想物体モデル抽出処理は、前記仮想物体モデルに対応する物体の速度を計測する速度計測処理を備え、
前記物体三次元モデル選択処理は、前記速度を用いて前記背景画像と合成する前記物体三次元モデルを選択することを特徴とする請求項12に記載の画像表示方法。
【請求項14】
前記物体三次元モデルを前記背景画像に合成するときに、前記物体三次元モデルが配置されていた領域の向きに対して同じ向きとなるように前記物体三次元モデルを設定することを特徴とする請求項から請求項13のいずれか1項に記載の画像表示方法。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、カメラで撮影した画像を実際にカメラの視点と異なる視点(以下、「仮想視点」という)から見た画像に変換して表示する画像表示装置に関する。
【背景技術】
【0002】
1つまたは複数のカメラによって撮影された画像を指定された仮想視点から見た画像(以下、「仮想視点画像」という)に変換することが可能となった。例えば、特許文献1に示す画像生成方法および装置では、自動車に取り付けた1または複数のカメラにより自動車の周囲の画像を撮影し、この撮影された画像の情報により3次元空間の空間モデルにテクスチャマッピング(以下、「マッピング」という)された自動車モデルの画像を生成し、更に自動車のフロントドアなどの可動部材における変化を検出し、3次元空間の自動車モデルを検出された可動部材の変化量に応じて仮想視点の位置を変化させて表示すると共に、検出された可動部材を変形させて表示している。
【先行技術文献】
【特許文献】
【0003】
【特許文献1】特開2006−50263
【発明の概要】
【発明が解決しようとする課題】
【0004】
しかし、カメラが撮影した物体の画像を仮想視点画像に変換する際に、物体の三次元情報が失われることがあるので、高さのある物体では仮想視点の画像が歪んでしまうという問題がある。高さのある物体を撮影した画像を仮想視点画像に変換したときに、変換された画像が歪む例について、図10を用いて説明する。図10(1)に示すように、車道10を走行する車両700の斜め前方を撮影する位置に取り付けられた監視カメラ600により車両700を撮影し、監視カメラ600が撮影した画像を車両700の真上となる仮想視点610から見た画像に変換する。このように、仮想視点610が車両700の真上の位置であるときには、監視カメラ600により撮影された車両700の画像を車両700の真上から見た画像に変換する必要がある。しかし、監視カメラ600が撮影する画像を仮想視点610から見た画像に変換すると、図10(2)に示すように、車両700の高さに比例して仮想視点610から見た画像710が長くなる。つまり、監視カメラ600からは、車両700の背面部分が見えないので、車両の長さは車両700の監視カメラ600から見た車道10上への投影720の長さに等しくなる。この車道10上への投影720の長さは、車両700の高さに比例して長くなるので、車両700の高さに比例して画像710も長くなる。このように、監視カメラ600が撮影した画像は、車両700の三次元情報が失われることで、仮想視点610から見た画像に変換するときに、同じ位置に監視カメラ600が設置されている場合であっても、車両700の高さが高くなるほど仮想視点610から見た画像710の歪みが大きくなるという問題がある。
【0005】
本発明はこのような状況に鑑みてなされたものであり、上記課題を解決できる画像表示装置を提供することを目的とする。
【課題を解決するための手段】
【0006】
本発明の画像表示装置は、画像から背景画像を取り出す背景画像取得手段と、前記画像と前記背景画像から仮想物体モデルを抽出する仮想物体モデル抽出手段と、前記仮想物体モデルから物体三次元モデルを生成する物体三次元モデル生成手段と、前記背景画像を視点変換する背景画像視点変換手段と、前記物体三次元モデルを視点変換する物体三次元モデル視点変換手段と、視点変換された前記背景画像と前記物体三次元モデルとを合成する合成手段とを備えることを特徴としている。 また、本発明の画像表示装置の前記物体三次元モデル生成手段は、前記仮想物体モデルに前記画像をマッピングするマッピング手段を備えることを特徴としている。 また、本発明の画像表示装置の前記マッピング手段は、少なくとも2台のカメラが異なる角度で撮影した前記画像を用いてマッピングすることを特徴としている。 また、本発明の画像表示装置の前記マッピング手段は、前記画像によりマッピングを行う領域が重なるときには、画素数の多い前記画像を用いてマッピングを行うことを特徴としている。 また、本発明の画像表示装置の前記仮想物体モデル抽出手段は、前記仮想物体モデルの特徴を抽出する特徴抽出手段と、前記特徴抽出手段により抽出された特徴により前記物体三次元モデルを選択する前記物体三次元モデル選択手段とを備えることを特徴としている。 また、本発明の画像表示装置の前記仮想物体モデル抽出手段は、前記仮想物体モデルに対応する物体の速度を計測する速度計測手段を備え、前記物体三次元モデル選択手段は、前記速度を用いて前記背景画像と合成する前記物体三次元モデルを選択することを特徴としている。 また、本発明の画像表示装置は、前記物体三次元モデルを前記背景画像に合成するときに、前記物体三次元モデルが配置されていた領域の向きに対して同じ向きとなるように前記物体三次元モデルを設定することを特徴としている。
【発明の効果】
【0007】
本発明は、カメラで撮影された物体の画像を仮想視点から見た物体の画像に変換するときに、物体の画像が歪まないように変換して表示することかできる画像表示装置を提供する。
【図面の簡単な説明】
【0008】
図1】本発明の実施形態に係る車両が走行する車道におけるカメラの設置例を示す図である。
図2】本発明の実施形態に係る画像表示システムの構成及び画像表示装置の機能構成を示す図である。
図3】本発明の実施形態に係る画像表示装置による仮想視点画像を作成する手順を示す図である。
図4】本発明の実施形態に係る背景画像作成処理のフローチャート及びカメラ映像入力処理のフローチャートである。
図5】本発明の実施形態に係る物体抽出処理のフローチャートである。
図6】本発明の実施形態に係るマッピング処理のフローチャート及び物体三次元モデル選択処理のフローチャートである。
図7】本発明の実施形態に係る視点変換処理のフローチャート、背景・仮想物体モデル合成処理のフローチャート、及び画像表示処理のフローチャートである。
図8】本発明の実施形態に係る仮想視点から見た車両の画像及び実際の車両の画像を表示する例を示す図である。
図9】本発明の実施形態に係る仮想視点から見た車両の画像を実際の車両の画像と同時に表示する例を示す図である。
図10】従来における車両の画像を仮想視点画像に変換するときに変換された車両の画像が歪む例を説明する図である。
【発明を実施するための形態】
【0009】
以下、本発明を実施するための形態(以下、「実施形態」という)について、図面を参照して説明する。実施形態は、車道を走行する車両を撮影するために設置されているカメラの画像を仮想視点画像に変換して表示する画像表示システムに関する。実施形態の画像表示システムでは、前後左右の四方に監視カメラが設置されたエリア(以下、「物体三次元モデル作成用エリア」という)で撮影された画像から物体が存在している領域(以下、「物体領域」という)を抽出し、物体領域から三次元モデル(以下、「物体三次元モデル」という)を生成する。次に、この物体三次元モデルの画像と、物体領域以外の領域の画像(以下、「背景画像」という)を仮想視点画像に視点変換して合成することで、車両の画像が歪まないように変換して表示する。
【0010】
まず、実施形態に係る車両が走行する車道における監視カメラの設置場所について、図1を用いて説明する。図1に示すように車道10はセンターライン11によって分けられ、図1の図面視でセンターライン11の上側を上り車線12、センターライン11の下側を下り車線13とする。上り車線12には物体三次元モデル作成用エリア14、下り車線13には物体三次元モデル作成用エリア15が設けられている。上り車線12の物体三次元モデル作成用エリア14には、上り車線12の物体三次元モデル作成用エリア14を通過する車両の前面側を撮影する前面監視カメラ101、背面側を撮影する背面監視カメラ102、センターライン11側の側面を撮影する側面監視カメラ103、及び沿道側の側面を撮影する側面監視カメラ104が設置されている。また、上り車線12には、車道10に沿って車両監視カメラ105〜107がほぼ等間隔で設置されている。同様に、下り車線13の物体三次元モデル作成用エリア15には、下り車線13の物体三次元モデル作成用エリア15を通過する車両の前面側を撮影する前面監視カメラ108、背面側を撮影する背面監視カメラ109、センターライン11側の側面を撮影する側面監視カメラ110、及び沿道側の側面を撮影する側面監視カメラ111が設置されている。また、下り車線13には、車道10に沿って車両監視カメラ112〜114がほぼ等間隔で設置されている。
【0011】
次に、実施形態に係る画像表示システム20の構成について、図2を用いて説明する。画像表示システム20は、図2に示すように監視カメラ100(監視カメラ101〜114を含む実施形態における監視カメラの総称)、ネットワーク200、画像表示装置300、モニタ400、及びマウス500から構成されている。画像表示装置300、モニタ400、及びマウス500は、監視員が駐在する監視センター20Cに設置されている。監視カメラ100は、車道10を走行する車両などの画像を撮影し、撮影した画像を画像データに変換し、ネットワーク200を経由して画像表示装置300に送信する。ネットワーク200は、監視センター20Cから離れた場所に設置されている監視カメラ100と、監視センター20Cに設置されている画像表示装置300とを接続する。画像表示装置300は、監視カメラ100から画像データを受信すると、仮想視点画像を生成し、仮想視点画像の画像データを表示可能な画像信号に変換し、モニタ400に出力する。また、画像表示装置300は、監視カメラ100の向きなどを操作するための操作データを、監視カメラ100に送信する。画像表示装置300の構成については、後述する。モニタ400は、画像表示装置300から入力した画像信号の画像を表示する。マウス500は、監視員が行う操作を入力すると操作データに変換して画像表示装置300に出力する。
【0012】
次に、画像表示装置300の構成について、図2を用いて説明する。画像表示装置300は、通信I/F部310、制御部320、メモリ部330、HDD部340、画像表示I/F部350、操作入力I/F部360、及びデータバス370から構成されている。制御部320には、背景画像作成処理部321、カメラ画像入力処理部322、物体抽出処理部323、マッピング処理部324、物体三次元モデル選択処理部325、視点変換処理部326、背景・物体三次元モデル合成処理部327、及び画像表示処理部328を備えている。メモリ部330には、入力画像登録エリア331、速度計測画像登録エリア332、仮想物体モデル登録エリア333、及び物体三次元モデル登録エリア334を備えている。HDD部340には、背景画像登録エリア341を備えている。
【0013】
次に、画像表示装置300を構成する各部について説明する。
【0014】
通信I/F部310は、ネットワーク200に接続され、監視カメラ100から送信される画像データを受信し、メモリ部330の入力画像登録エリア331に保存する。また、通信I/F部310は、監視カメラ100を操作するための操作信号を制御部320から入力すると、操作データに変換し、監視カメラ100に送信する。
【0015】
制御部320は、CPU等の制御手段を備え、画像表示装置300を総合的にコントロールする。また、制御部320は、操作入力I/F部360から入力される監視カメラ100に対する操作を行うための操作データを、制御部320で処理し通信I/F部310を経由して該当する監視カメラ100に送信する。制御部320が備える背景画像作成処理部321、カメラ画像入力処理部322、物体抽出処理部323、マッピング処理部324、物体三次元モデル選択処理部325、視点変換処理部326、背景・物体三次元モデル合成処理部327、及び画像表示処理部328が行う処理については、後述する。
【0016】
メモリ部330は、画像表示装置300の基本機能を実現するためのプログラムや制御部320が実行するプログラム及びこれらのプログラムで用いられるデータを記憶する。 入力画像登録エリア331は、監視カメラ100から受信する画像データを登録するためのエリアである。 速度計測画像登録エリア332は、車両監視カメラ105〜107及び車両監視カメラ112〜114が撮影した画像の中から速度計測のために保存される画像データを登録するためのエリアである。 仮想物体モデル登録エリア333は、物体三次元モデル作成用エリア14に設置されている前面監視カメラ101、背面監視カメラ102、側面監視カメラ103、104、及び物体三次元モデル作成用エリア15に設置されている前面監視カメラ108、背面監視カメラ109、側面監視カメラ110、111が撮影した画像の物体領域から生成された物体の仮想体(以下、「仮想物体モデル」という)を登録するためのエリアである。 物体三次元モデル登録エリア334は、仮想物体モデルにマッピングを行うことで生成した物体三次元モデルを登録するためのエリアである。
【0017】
HDD(ハードディスクドライブ)部340は、制御部320が実行するプログラムやこのプログラムで用いられるデータを記憶する。 背景画像登録エリア341は、前面監視カメラ101、背面監視カメラ102、側面監視カメラ103、104、及び車両監視カメラ105〜107と、前面監視カメラ108、背面監視カメラ109、側面監視カメラ110、111、及び車両監視カメラ112〜114とが撮影した背景画像の画像データを登録するエリアである。
【0018】
画像表示I/F部350は、画像表示処理部328から画像信号を入力するとモニタ400に出力する。
【0019】
操作I/F部360は、マウス500からの操作信号を入力し、制御部320が解析可能な操作データに変換し、制御部320に出力する。
【0020】
データバス370は、各部310〜360を接続し、データの受け渡しを行う。
【0021】
次に、画像表示装置300による仮想視点画像を生成する手順について、図3を用いて説明する。図1に示す車道10の上り車線12の物体三次元モデル作成用エリア14に設置されている前面監視カメラ101、背面監視カメラ102、及び側面監視カメラ103、104が撮影した画像から生成される物体三次元モデルの画像と、車道10に設置される車両監視カメラ105〜107が撮影した背景画像とを合成して仮想視点画像を生成する例を用いて説明する。仮想視点画像を生成する手順は、ステップS100からステップS800の順に行われる。
【0022】
(ステップS100) まず、図2に示す背景画像作成処理部321は、図1に示す物体三次元モデル作成用エリア14に設置されている前面監視カメラ101、背面監視カメラ102、側面監視カメラ103、104、及び車両監視カメラ105〜107が撮影した画像から車両などの物体が映っていない背景画像を作成し、背景画像の画像データをHDD部340の背景画像登録エリア341に保存する。
【0023】
(ステップS200) 次いで、カメラ画像入力処理部322は、図1に示す物体三次元モデル作成用エリア14に設置されている前面監視カメラ101、背面監視カメラ102、側面監視カメラ103、104が撮影した画像、及び車両監視カメラ105〜107が撮影した画像の画像データを入力し、入力画像登録エリア331に保存する。また、カメラ画像入力処理部322は、車道10を走行している車両の速度を計測するために、予め決めた周期で車両監視カメラ105が撮影した画像の画像データを速度計測画面登録エリア332に保存する。
【0024】
(ステップS300) 次いで、物体抽出処理部323は、前面監視カメラ101、背面監視カメラ102、側面監視カメラ103、104の画像データを入力画像登録エリア331から取り出し、また前面監視カメラ101、背面監視カメラ102、側面監視カメラ103、104の背景画像データを背景画像登録エリア341から取り出す。物体抽出処理部323は、入力した画像データと背景画像データとを比較することで、図3に示す仮想物体モデルを抽出し、仮想物体モデル登録エリア333に保存する。
【0025】
(ステップS400) 次いで、マッピング処理部324は、入力画像登録エリア331から前面監視カメラ101、背面監視カメラ102、側面監視カメラ103、104が撮影した画像データの画素を取り出し、また、仮想物体モデル登録エリア333から仮想物体モデルを取り出す。マッピング処理部324は、入力画像登録エリア331の画像データの画素を仮想物体モデルにマッピングを行うことで、図3に示す物体の三次元体(以下、「物体三次元モデル」という)を生成し、メモリ部330の物体三次元モデル登録エリア334に保存する。
【0026】
(ステップS500) 次いで、物体三次元モデル選択処理部325は、モニタ400に表示される画像の車両に対応する物体三次元モデルを、物体三次元モデル登録エリア334から選択する。
【0027】
(ステップS600) 次いで、視点変換処理部326は、物体三次元モデル選択処理部325が選択した物体三次元モデルと、HDD部340の背景画像登録エリア341に登録されている車両監視カメラ105〜107の背景画像の両方を別々に仮想視点画像に変換する。
【0028】
(ステップS700) 次いで、背景・物体三次元モデル合成処理部327は、物体三次元モデルを背景画像において物体が存在していた位置となるように、背景画像と物体三次元モデルとを合成する。
【0029】
(ステップS800) 次いで、画像表示処理部328は、背景画像に物体三次元モデルが合成された画像の画像データを、モニタ400が表示可能な画像信号に変換し、画像表示I/F部350に出力する。
【0030】
次に、ステップS100において背景画像作成処理部321が行う背景画像作成処理の詳細について、図4(1)に示す背景画像作成処理のフローチャートに示すステップ順に説明する。監視員が背景画像を作成するための背景画像作成要求の操作をマウス500から行うと、操作入力I/F部360は、背景画像作成要求の操作データを制御部320に出力する。制御部320は、背景画像作成要求の操作データを入力すると、背景画像作成処理部321を起動する。背景画像作成処理部321が起動されると、背景画像作成処理部321は背景画像作成処理を開始する。
【0031】
(ステップS110) まず、背景画像作成処理部321は、背景画像作成要求の操作データを解析し、「背景画像登録」、「背景画像コピー」、または「背景画像更新」のいずれの要求であるかを判別する。「背景画像登録」であるときには、ステップS120に進む。「背景画像コピー」であるときには、ステップS130に進む。「背景画像更新」であるときには、ステップS140に進む。
【0032】
(ステップS120) 背景画像作成処理部321は、「背景画像登録」の要求であるときには、車両が映っていない背景のみのときの画像を前面監視カメラ101、背面監視カメラ102、及び側面監視カメラ103、104、及び車両監視カメラ105〜107により撮影し、撮影した画像の画像データをHDD部340の背景画像登録エリア341に登録する。次いで、背景画像作成処理部321は、背景画像作成処理を終了する。
【0033】
(ステップS130) 背景画像作成処理部321は、「背景画像コピー」の要求であるときには、車両などの物体が映っていない画像の画像データを入力画像登録エリア331から背景画像登録エリア341にコピーする。次いで、背景画像作成処理部321は、背景画像作成処理を終了する。
【0034】
(ステップS140) 背景画像作成処理部321は、「背景画像更新」の要求であるときには、一定時間毎に、入力画像登録エリア331から入力画像の画像データを入力し、また背景画像登録エリア341から背景画像の画像データを入力すると、これらの画像データを加重平均することにより背景画像登録エリア341の背景画像データを更新する。背景画像データの更新は、「背景画像更新」の停止要求を受け付けることで停止される。次いで、背景画像作成処理部321は、背景画像作成処理を終了する。
【0035】
次に、ステップS200においてカメラ画像入力処理部322が行うカメラ画像入力処理の詳細について、図4(2)に示すカメラ画像入力処理のフローチャートに示すステップ順に説明する。通信I/F部310が監視カメラ100から画像データを受信すると制御部320に画像データ受信通知を出力する。制御部320は、画像データ受信通知を入力すると、カメラ画像入力処理部322を起動する。カメラ画像入力処理部322が起動されると、カメラ画像入力処理部322はカメラ画像入力処理を開始する。
【0036】
(ステップS210) まず、カメラ画像入力処理部322は、監視カメラ100が撮影した画像の画像データを入力する。
【0037】
(ステップS220) 次いで、カメラ画像入力処理部322は、画像データを入力画像登録エリア331に登録する。
【0038】
(ステップS230) 次いで、カメラ画像入力処理部322は、入力した画像データが速度計測を行うために採取するフレームであるかを判定する。画像データが速度計測を行うために採取するフレームであるとき(ステップS230のYes)は、ステップS240に進む。また、画像データが速度計測を行うために採取するフレームでないとき(ステップS230のNo)は、カメラ映像入力処理を終了する。
【0039】
(ステップS240) 次いで、カメラ画像入力処理部322は、速度計測を行うために採取したフレームの画像データを速度計測画像登録エリア332に登録する。その後、カメラ画像入力処理部322は、カメラ画像入力処理を終了する。
【0040】
次に、ステップS300において物体抽出処理部323が行う物体抽出処理の詳細について、図5(1)に示す物体抽出処理のフローチャートに示すステップ順に説明する。仮想視点画像を生成するための仮想視点画像作成要求の操作をマウス500から行うと、操作入力I/F部360は、仮想視点画像生成要求の操作データを制御部320に出力する。制御部320は、仮想視点画像生成要求の操作データを入力すると、物体抽出処理部323を起動する。物体抽出処理部323が起動されると、物体抽出処理部323は物体抽出処理を開始する。
【0041】
(ステップS310) まず、物体抽出処理部323は、画像の物体を実空間における物体として抽出する実空間物体抽出処理を行う。実空間物体抽出処理の詳細については、後述する。
【0042】
(ステップS320) 次いで、物体抽出処理部323は、実空間物体抽出処理で抽出した実空間における物体のサイズを算出する。
【0043】
(ステップS330) 次いで、物体抽出処理部323は、ステップS320で算出した実空間における物体のサイズから仮想物体モデルのサイズを決定する。
【0044】
次に、ステップS310において物体抽出処理部323が行う実空間物体抽出処理の詳細について、図5(2)に示す実空間物体抽出処理のフローチャートに示すステップ順に説明する。
【0045】
(ステップS311) まず、物体抽出処理部323は、入力画像登録エリア331から前面監視カメラ101、背面監視カメラ102、及び側面監視カメラ103、104の画像データを取り出し、また背景画像登録エリア341から前面監視カメラ101、背面監視カメラ102、及び側面監視カメラ103、104の背景画像データを取り出すと、画像データから背景画像データの画像を差し引くことで、物体画像を差分(抽出)する。
【0046】
(ステップS312) 次いで、物体抽出処理部323は、ステップS311で差分した物体画像が256階調である場合には、閾値以上の階調を255階調とし、閾値未満の階調を0階調とすることで二値化を行う。
【0047】
(ステップS313) 次いで、物体抽出処理部323は、ステップS312で二値化した物体画像の同じ物体毎にラベルを付けるラベリングを行う。
【0048】
(ステップS314) 次いで、ステップS313でラベルを付けられた物体毎にサイズ(始点座標、幅、高さ)及び面積(二値化された画素における白画素の数)を算出する。
【0049】
(ステップS315) 次いで、物体抽出処理部323は、ラベルを付けられた物体毎に二値化された物体画像の白画素の部分に対して、画像の色のヒストグラム、最高頻度の色、及び最低頻度の色を算出することで、物体の色を抽出する。
【0050】
(ステップS316) 次いで、物体抽出処理部323は、ラベルを付けられた物体毎に二値化された物体画像の白画素の部分に対して、重心、周囲の長さ、円形度、オイラー数、モーメント、及びコーナー数を算出することで物体の形状を抽出する。
【0051】
(ステップS317) 次いで、物体抽出処理部323は、入力画像登録エリア331から画像データを取り出し、また速度計測画像登録エリア332から速度計測画像データを取り出すと、画像データの画像と速度計測画像データの画像を用いてオプティカルフローを算出する。オプティカルフローにより得られた画像上の始点・終点を実空間の座標に変換し、実空間の座標から移動距離を算出することで、物体の速度を計測する。
【0052】
(ステップS318) 次いで、物体抽出処理部323は、入力画像登録エリア331の前面監視カメラ101、背面監視カメラ102、側面監視カメラ103、104の俯角、高さ、及び焦点距離の情報を用いて、物体画像の座標を実空間の座標に変換する。その後、物体抽出処理部323は、物体抽出処理を終了する。
【0053】
次に、ステップS400においてマッピング処理部324が行うマッピング処理の詳細について、図6(1)に示すマッピング処理のフローチャートに示すステップ順に説明する。制御部320は、物体抽出処理部323が物体抽出処理を終了すると、マッピング処理部324を起動する。マッピング処理部324が起動されると、マッピング処理部324はマッピング処理を開始する。
【0054】
(ステップS410) まず、マッピング処理部324は、仮想物体モデルの前面を前面監視カメラ101の画像から抽出された物体領域のうち、予め決められた貼付領域でかつ画素数の密度が一定以上である部分を抽出し、仮想物体モデルのサイズに合わせて拡大・縮小して仮想物体モデルの前面部分に貼り付けることでマッピングを行う。拡大・縮小するときには、例えばバイリニア補間などを使用して拡大・縮小による画素密度の劣化を防ぐようにすることができる。
【0055】
(ステップS420) 次いで、マッピング処理部324は、仮想物体モデルの背面を背面監視カメラ102の画像から抽出された物体領域のうち、予め決められた貼付領域でかつ画素数の密度が一定以上である部分を抽出し、仮想物体モデルのサイズに合わせて拡大・縮小して仮想物体モデルの背面部分に貼り付けることでマッピングを行う。拡大・縮小するときには、例えばバイリニア補間などを使用して拡大・縮小による画素密度の劣化を防ぐようにすることができる。
【0056】
(ステップS430) 次いで、マッピング処理部324は、仮想物体モデルの側面を側面監視カメラ103、104の画像から抽出された物体領域のうち、予め決められた貼付領域でかつ画素数の密度が一定以上である部分を抽出し、仮想物体モデルのサイズに合わせて拡大・縮小して仮想物体モデルの側面部分に画像を貼り付けることでマッピングを行う。拡大・縮小するときには、例えばバイリニア補間などを使用して拡大・縮小による画素密度の劣化を防ぐようにすることができる。
【0057】
(ステップS440) 次いで、マッピング処理部324は、仮想物体モデルの上面を前面監視カメラ101、背面監視カメラ102の画像の解像度が高い方を貼り付ける必要がある。このため、背面監視カメラ102の画像を貼り付けるときには、前面監視カメラ101の画像と貼付領域が重なっている場合に、前面監視カメラ101の画像と重なっている貼付領域で画素数が多いか否かを判定する。画素数が多い場合には、そのままの領域の画像を仮想物体モデルのサイズに合わせて拡大・縮小して仮想物体モデルの上面に貼り付けることで上面を作成する。また、画素数が少ない場合には、抽出した領域から重なり部分を削除した領域の画像を仮想物体モデルのサイズに合わせて拡大・縮小して仮想物体モデルの上面に貼り付けることで上面を作成する。
【0058】
(ステップS450) 次いで、マッピング処理部324は、仮想物体モデルをマッピングすることで生成した物体三次元モデルを物体三次元モデル登録エリア334に登録する。その後、マッピング処理部324は、マッピング処理を終了する。
【0059】
次に、ステップS500において物体三次元モデル選択処理部325が行う物体・三次元モデル選択処理の詳細について、図6(2)のフローチャートに示すステップ順に説明する。制御部320は、マッピング処理部324がマッピング処理を終了すると、物体三次元モデル選択処理部325を起動する。物体三次元モデル選択処理部325が起動されると、物体三次元モデル選択処理部325は物体三次元モデル選択処理を開始する。
【0060】
(ステップS510) まず、物体三次元モデル選択処理部325は、車両監視カメラ105〜107が撮影した画像の物体画像と物体三次元モデル登録エリア334に登録されている物体三次元モデルのサイズ、形状、及び色を比較する。また、高精度で選択するときには、更に、前述した物体抽出処理により検出される物体画像の座標(以下、「物体の位置」という)や測定される物体の速度を比較する。
【0061】
(ステップS520) 次いで、物体三次元モデル選択処理部325は、比較した結果に基づいて車両監視カメラ105の背景画像に合成させる物体三次元モデルを選択すると、物体三次元モデル選択処理を終了する。 なお、物体三次元モデルの選択については、サイズ、形状、色、物体の位置、物体の速度の他に、物体三次元モデルを登録した時刻などの情報を用いても選択することができる。
【0062】
次に、ステップS600において視点変換処理部326が行う視点変換処理の詳細について、図7(1)に示す視点変換処理のフローチャートに示すステップ順に説明する。制御部320は、物体三次元モデル選択処理部325が物体三次元モデル選択処理を終了すると、視点変換処理部326を起動する。視点変換処理部326が起動されると、視点変換処理部326は視点変換処理を開始する。
【0063】
(ステップS610) まず、視点変換処理部326は、選択された物体三次元モデルを実空間の座標から車両監視カメラ105の背景画像の座標に変換する。
【0064】
(ステップS620) 次いで、視点変換処理部326は、座標変換された物体三次元モデルを指定された仮想視点から見た物体三次元モデルとなるように座標を回転する。
【0065】
(ステップS630) 次いで、視点変換処理部326は、監視カメラ105の背景画像を指定された仮想視点から見た背景画像となるように座標を回転する。その後、視点変換処理部326は、視点変換処理を終了する。
【0066】
次に、ステップS700において背景・物体三次元モデル合成処理部327が行う背景・物体三次元モデル合成処理の詳細について、図7(2)に示す背景・物体三次元モデル合成処理のフローチャートに示すステップ順に説明する。制御部320は、視点変換処理部326が視点変換処理を終了すると、背景・物体三次元モデル合成処理部327を起動する。背景・物体三次元モデル合成処理部327が起動されると、背景・物体三次元モデル合成処理部327は背景・物体三次元モデル合成処理を開始する。
【0067】
(ステップS710) まず、背景・物体三次元モデル合成処理部327は、物体三次元モデルから背景画像に貼り付けるための表示面を取り出す。
【0068】
(ステップS720) 次いで、背景・物体三次元モデル合成処理部327は、車両監視カメラ105が撮影した画像に存在していた物体と同じ大きさとなるように物体三次元モデルの表示面を拡大または縮小する。
【0069】
(ステップS730) 次いで、背景・物体三次元モデル合成処理部327は、背景画像の元の画像において物体が存在していた位置に物体三次元モデルの表示面を合成する。その後、背景・物体三次元モデル合成処理部327は、背景・物体三次元モデル合成処理を終了する。
【0070】
次に、ステップS800において画像表示処理部328が行う画像表示処理の詳細について、図7(3)に示す画像表示処理のフローチャートに示すステップ順に説明する。制御部320は、背景・物体三次元モデル合成処理部327が背景・物体三次元モデル合成処理を終了すると、画像表示処理部328を起動する。画像表示処理部328が起動されると、画像表示処理部328は画像表示処理を開始する。
【0071】
(ステップS810) まず、画像表示処理部328は、物体三次元モデルの表示面が合成された背景画像の画像データを表示可能な画像信号に変換すると、画像表示出力I/F部350を経由してモニタ400に出力する。これにより、モニタ400に指定された仮想視点に変換された車両監視カメラ105の画像が表示される。次いで、画像表示処理部328は、画像表示処理を終了する。
【0072】
次に、図1に示す上り車線12の物体三次元モデル作成用エリア14に設置された前面監視カメラ101、背面監視カメラ102、側面監視カメラ103、104に基づいて作成された仮想視点画像を、車両監視カメラ105〜107の真上に仮想視点を移動して見たときの画像、及び下り車線13の物体三次元モデル作成用エリア15に設置された前面監視カメラ108、背面監視カメラ109、側面監視カメラ110、111に基づいて作成された仮想視点画像を、車両監視カメラ112〜114の上に仮想視点を移動して見たときの画像を、図8(1)に示す。上り車線12の車両監視カメラ105〜107の画像(下り車線13の車両監視カメラ112〜114の画像も同様であるが図示を省略)を図8(2)に示す。このように図8(2)に示す上り車線12の車両監視カメラ105〜107の画像、下り車線13の車両監視カメラ112〜114の画像を車両の真上から見た画像に変換する場合でも、本発明によれば車両の高さに比例して車両500の画像がひずむことがない図8(1)に示すような車両を真上から見た画像に変換することができる。 なお、図8(1)に表示される車両の物体三次元モデルの向きについては、まず物体抽出処理で検出した物体である車両の位置が上り車線または下り車線のどちらに存在しているかを判定する。例えば上り車線に車両が存在していた場合には、仮想視点画像の上り車線の進行方向に車両の前面、進行方向と逆に背車両の背面が位置するように配置することで、車両の物体三次元モデルの向きを正しく設定することができる。 このように、真上の仮想視点から見た画像を表示できるので、車両の位置や車両間の距離が分かるので、早期に渋滞や事故を検知することができる。
【0073】
なお、本実施形態によれば、上り車線12の車両監視カメラ105〜107及び下り車線13の車両監視カメラ112〜114の画像全体を仮想視点画像に変換しているが、例えば図9に示すように、車両監視カメラ105〜107、車両監視カメラ112〜114のいずれかの画像とその画像に表示されている車両画像及びその物体三次元モデルを同時に表示することもできる。つまり、物体三次元モデルをアイコン化しておき、このアイコンをクリックすると物体三次元モデルを別のウィンドウで表示することができる。更に、別のウィンドウで表示された物体三次元モデルを操作することであらゆる角度の仮想視点から見た物体三次元モデルを拡大または縮小させて表示することができるので、車両のナンバープレートや運転者を容易に確認することができる。
【0074】
また、本実施形態によれば、上り車線12の車両監視カメラ105〜107の位置より前に物体三次元モデル作成用エリア14を設け、下り車線13の車両監視カメラ112〜114の位置より前に物体三次元モデル作成用エリア15を設けるようにしたが、これに限らず上り車線12の車両監視カメラ105〜107の位置より後ろまたは中間、下り車線13の車両監視カメラ112〜114の位置より後ろまたは中間の位置に設けるようにすることも可能である。
【0075】
上記により、本発明の画像表示装置は、カメラで撮影した画像から背景画像と物体画像を分離し、また、物体の前後左右の四方を撮影した画像から仮想物体モデルを生成し、この仮想物体モデルに実際の物体画像の画素をマッピングすることによって、物体三次元モデルを生成する。このように生成された物体三次元モデルをサイズ、形状、色、物体の位置、及び速度などの情報に基づいて、背景画像と合成する物体の物体三次元モデルを選択する。また、選択された物体三次元モデルと背景画像とを指定された仮想視点画像に別々に視点変換し、物体三次元モデルと背景画像を合成する。このように、実際の画像を仮想視点画像に変換することで、物体の画像を歪むことなく表示させることができる。
【0076】
以上をまとめると、本発明は次のような特徴を有する。
(1):本発明の画像表示装置は、画像から背景画像を取り出す背景画像取得手段と、前記画像と前記背景画像から仮想物体モデルを抽出する仮想物体モデル抽出手段と、前記仮想物体モデルから物体三次元モデルを生成する物体三次元モデル生成手段と、前記背景画像を視点変換する背景画像視点変換手段と、前記物体三次元モデルを視点変換する物体三次元モデル視点変換手段と、視点変換された前記背景画像と前記物体三次元モデルとを合成する合成手段とを備えることを特徴としている。
(2):(1)の本発明の画像表示装置の前記物体三次元モデル生成手段は、前記仮想物体モデルに前記画像をマッピングするマッピング手段を備えることを特徴としている。
(3):(2)の本発明の画像表示装置の前記マッピング手段は、少なくとも2台のカメラが異なる角度で撮影した前記画像を用いてマッピングすることを特徴としている。
(4):(3)の本発明の画像表示装置の前記マッピング手段は、前記画像によりマッピングを行う領域が重なるときには、画素数の多い前記画像を用いてマッピングを行うことを特徴としている。
(5):(1)から(4)のいずれかの本発明の画像表示装置の前記仮想物体モデル抽出手段は、前記仮想物体モデルの特徴を抽出する特徴抽出手段と、前記特徴抽出手段により抽出された特徴により前記物体三次元モデルを選択する前記物体三次元モデル選択手段とを備えることを特徴としている。
(6):(5)の本発明の画像表示装置の前記仮想物体モデル抽出手段は、前記仮想物体モデルに対応する物体の速度を計測する速度計測手段を備え、前記物体三次元モデル選択手段は、前記速度を用いて前記背景画像と合成する前記物体三次元モデルを選択することを特徴としている。
(7):(5)または(6)のいずれかの本発明の画像表示装置の前記仮想物体モデル抽出手段は、前記仮想物体モデルに対応する物体の位置を検出する位置検出手段を備え、前記物体三次元モデル選択手段は、前記物体の位置を用いて前記背景画像と合成する前記物体三次元モデルを選択することを特徴としている。
(8):(1)から(7)のいずれかの本発明の画像表示装置は、前記物体三次元モデルを前記背景画像に合成するときに、前記物体三次元モデルが配置されていた領域の向きに対して同じ向きとなるように前記物体三次元モデルを設定することを特徴としている。
(9)本発明の画像表示方法は、画像から背景画像を取り出す背景画像取得工程と、前記画像と前記背景画像から仮想物体モデルを抽出する仮想物体モデル抽出工程と、前記仮想物体モデルから物体三次元モデルを生成する物体三次元モデル生成工程と、前記背景画像を視点変換する背景画像視点変換工程と、前記物体三次元モデルを視点変換する物体三次元モデル視点変換工程と、視点変換された前記背景画像と前記物体三次元モデルとを合成する合成工程とを備えることを特徴としている。
(10):(9)の本発明の画像表示方法の前記物体三次元モデル生成工程は、前記仮想物体モデルに前記画像をマッピングするマッピング工程を備えることを特徴としている。
(11):(10)の本発明の画像表示方法の前記マッピング工程は、少なくとも2台のカメラが異なる角度で撮影した前記画像を用いてマッピングすることを特徴としている。
(12):(11)の本発明の画像表示方法の前記マッピング工程は、前記画像によりマッピングを行う領域が重なるときには、画素数の多い前記画像を用いてマッピングを行うことを特徴としている。
(13):(9)から(12)のいずれかの本発明の画像表示方法の前記仮想物体モデル抽出工程は、前記仮想物体モデルの特徴を抽出する特徴抽出工程と、前記特徴抽出工程により抽出された特徴により前記物体三次元モデルを選択する前記物体三次元モデル選択工程とを備えることを特徴としている。
(14):(13)の本発明の画像表示方法の前記仮想物体モデル抽出工程は、前記仮想物体モデルに対応する物体の速度を計測する速度計測工程を備え、前記物体三次元モデル選択工程は、前記速度を用いて前記背景画像と合成する前記物体三次元モデルを選択することを特徴としている。
(15):(13)または(14)のいずれかの本発明の画像表示装置の前記仮想物体モデル抽出工程は、前記仮想物体モデルに対応する物体の位置を検出する位置検出工程を備え、前記物体三次元モデル選択工程は、前記物体の位置を用いて前記背景画像と合成する前記物体三次元モデルを選択することを特徴としている。
(16):(9)から(15)のいずれかの本発明の画像表示方法は、前記物体三次元モデルを前記背景画像に合成するときに、前記物体三次元モデルが配置されていた領域の向きに対して同じ向きとなるように前記物体三次元モデルを設定することを特徴としている。
(17):(9)から(16)のいずれかの本発明の画像表示方法をコンピュータに実行させるための画像表示プログラムであることを特徴としている。
【0077】
以上により、本発明は、カメラで撮影された画像を仮想視点画像に変換するときに物体がひずまないように変換して表示することができる。
【0078】
具体的な実施の形態により本発明を説明したが、上記実施の形態は本発明の例示であり、この実施の形態に限定されないことは言うまでもない。
【0079】
この出願は、2013年3月19日に出願された日本出願特願2013−056729を基礎として優先権の利益を主張するものであり、その開示の全てを引用によってここに取り込む。
【産業上の利用可能性】
【0080】
本発明は、画像を仮想視点画像に変換する装置に適用することができる。
【符号の説明】
【0081】
10・・・・・・・車道
11・・・・・・・センターライン
12・・・・・・・上り車線
13・・・・・・・下り車線
14・・・・・・・物体三次元モデル作成用エリア
15・・・・・・・物体三次元モデル作成用エリア
20・・・・・・・画像表示システム
20C・・・・・・監視センター
100・・・・・・・監視カメラ
101・・・・・・・前面監視カメラ
102・・・・・・・背面監視カメラ
103、104・・・側面監視カメラ
105〜107・・・車両監視カメラ
108・・・・・・・前面監視カメラ
109・・・・・・・背面監視カメラ
110、111・・・側面監視カメラ
112〜114・・・車両監視カメラ
200・・・・・・・ネットワーク
300・・・・・・・画像表示装置
310・・・・・・・通信I/F部
320・・・・・・・制御部
321・・・・・・・背景画像作成処理部
322・・・・・・・カメラ画像入力処理部
323・・・・・・・物体抽出処理部
324・・・・・・・マッピング処理部
325・・・・・・・物体三次元モデル選択処理部
326・・・・・・・視点変換処理部
327・・・・・・・背景・物体三次元モデル合成処理部
328・・・・・・・画像表示処理部
330・・・・・・・メモリ部
331・・・・・・・入力画像登録エリア
332・・・・・・・速度計測画像登録エリア
333・・・・・・・仮想物体モデル登録エリア
334・・・・・・・物体三次元モデル登録エリア
340・・・・・・・HDD部
341・・・・・・・背景画像登録エリア
341、350・・・・・・・画像表示I/F部
360・・・・・・・操作入力I/F部
400・・・・・・・モニタ
500・・・・・・・マウス
600・・・・・・・監視カメラ
610・・・・・・・仮想視点
700・・・・・・・車両
710・・・・・・・仮想視点画像
720・・・・・・・監視カメラから見た車道上への投影
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10