(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2023151962
(43)【公開日】2023-10-16
(54)【発明の名称】画像生成装置、方法及びプログラム
(51)【国際特許分類】
G08G 1/16 20060101AFI20231005BHJP
H04N 7/18 20060101ALI20231005BHJP
【FI】
G08G1/16 D
H04N7/18 J
H04N7/18 U
【審査請求】未請求
【請求項の数】5
【出願形態】OL
(21)【出願番号】P 2022061850
(22)【出願日】2022-04-01
(71)【出願人】
【識別番号】308036402
【氏名又は名称】株式会社JVCケンウッド
(74)【代理人】
【識別番号】100103894
【弁理士】
【氏名又は名称】家入 健
(72)【発明者】
【氏名】後藤 正樹
【テーマコード(参考)】
5C054
5H181
【Fターム(参考)】
5C054CA04
5C054CC02
5C054DA07
5C054EA03
5C054EA05
5C054FD03
5C054FE18
5C054FE26
5C054HA19
5C054HA30
5H181AA01
5H181BB04
5H181BB13
5H181CC04
5H181FF05
5H181FF33
5H181LL08
5H181LL15
(57)【要約】
【課題】特定の視点位置から移動体の存在による死角領域の状況を認識し易くすること。
【解決手段】画像生成装置(1)は、車外の視点位置Mを取得する取得部(11)と、視点位置Mと車両V1の位置及び進行方向から、視点位置Mから車両V1により死角となり得る死角領域Dを特定する特定部(121)と、車両V1の周囲が撮影された複数の車外画像を用いて、死角領域Dに基づき視点位置Mの視点での合成画像を生成する生成部(122)と、視点位置Mの表示端末M1へ合成画像を送信する送信部(14)と、を備える。
【選択図】
図8
【特許請求の範囲】
【請求項1】
車外の視点位置を取得する取得部と、
前記視点位置と車両の位置に基づいて前記視点位置からの死角となり得る死角領域を特定する特定部と、
前記車両の周囲が撮影された複数の車外画像を用いて、前記死角領域に基づき前記視点位置の視点での合成画像を生成する生成部と、
を備える画像生成装置。
【請求項2】
前記取得部は、前記複数の車外画像に含まれる対象物の距離情報を取得し、
前記特定部は、前記距離情報に基づいて、前記死角領域に含まれる対象物を特定し、
前記生成部は、前記特定された対象物と前記車両との距離を前記複数の車外画像の間で合わせるように各車外画像の大きさを調整して前記合成画像を生成する
請求項1に記載の画像生成装置。
【請求項3】
前記特定部は、前記死角領域に含まれる対象物と前記車両との距離が閾値以内の場合、前記対象物として特定する
請求項2に記載の画像生成装置。
【請求項4】
コンピュータが、
車外の視点位置を取得し、
前記視点位置と車両の位置に基づいて前記視点位置からの死角となり得る死角領域を特定し、
前記車両の周囲が撮影された複数の車外画像を用いて、前記死角領域に基づき前記視点位置の視点での合成画像を生成する、
画像生成方法。
【請求項5】
車外の視点位置を取得する取得処理と、
前記視点位置と車両の位置に基づいて前記視点位置からの死角となり得る死角領域を特定する特定処理と、
前記車両の周囲が撮影された複数の車外画像を用いて、前記死角領域に基づき前記視点位置の視点での合成画像を生成する生成処理と、
をコンピュータに実行させる画像生成プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、画像生成装置、方法及びプログラムに関する。
【背景技術】
【0002】
特許文献1には、運転者等の移動体の搭乗者に対し、死角領域の対象物を迅速に認識させる技術が開示されている。特許文献1に係る技術は、移動体の外部機器から、移動体の死角領域に存在する対象物情報を取得し、移動体の外部の視界に対象物を示す重畳画像を生成するものである。
【0003】
特許文献2には、移動体の外部に存在する対象物に関する対象物情報を報知する情報報知装置に関する技術が開示されている。特許文献2にかかる情報報知装置は、逆方向移動体から、該逆方向移動体の周囲に存在する対象物の検出結果情報を取得し、検出結果情報に対応する対象物情報を移動体の搭乗者へ報知する。
【先行技術文献】
【特許文献】
【0004】
【特許文献1】特開2018-147035号公報
【特許文献2】特開2018-147055号公報
【発明の概要】
【発明が解決しようとする課題】
【0005】
しかしながら、第1の移動体の死角領域の対象物の存在は、第1の移動体の搭乗者だけでなく、第1の移動体の周辺にいる第2の移動体も認識する必要がある。尚、上述した特許文献1及び2にかかる技術は、第2の移動体に対して報知するものではない。
【0006】
本開示の目的は、上述した課題を鑑み、特定の視点位置から死角領域の状況を認識し易くするための画像生成装置、方法及びプログラムを提供することにある。
【課題を解決するための手段】
【0007】
本開示にかかる画像生成装置は、車外の視点位置を取得する取得部と、前記視点位置と車両の位置に基づいて前記視点位置からの死角となり得る死角領域を特定する特定部と、前記車両の周囲が撮影された複数の車外画像を用いて、前記死角領域に基づき前記視点位置の視点での合成画像を生成する生成部と、を備える。
【0008】
本開示にかかる画像生成方法は、コンピュータが、車外の視点位置を取得し、前記視点位置と車両の位置に基づいて前記視点位置からの死角となり得る死角領域を特定し、前記車両の周囲が撮影された複数の車外画像を用いて、前記死角領域に基づき前記視点位置の視点での合成画像を生成する。
【0009】
本開示にかかる画像生成プログラムは、車外の視点位置を取得する取得処理と、前記視点位置と車両の位置に基づいて前記視点位置からの死角となり得る死角領域を特定する特定処理と、前記車両の周囲が撮影された複数の車外画像を用いて、前記死角領域に基づき前記視点位置の視点での合成画像を生成する生成処理と、をコンピュータに実行させる。
【発明の効果】
【0010】
本開示により、特定の視点位置から死角領域の状況を認識し易くするための画像生成装置、方法及びプログラムを提供することができる。
【図面の簡単な説明】
【0011】
【
図1】本実施形態1にかかる死角映像提供システムの全体構成を示す概要図である。
【
図2】本実施形態1にかかる歩道上の移動体の視点位置から車道を見た場合の視界の例を示す図である。
【
図3】本実施形態1にかかる歩道上の移動体の視点位置Mから車道を見た場合の車両V1による死角領域Dの上面図である。
【
図4】本実施形態1にかかる車両の周囲を撮影するために搭載されたカメラと撮影範囲の例を示す図である。
【
図5】本実施形態1にかかる車両V1の周囲における視点位置Mごとの視点領域の例を示す図である。
【
図6】本実施形態1にかかる視点位置ごとの車両V1による死角領域Dの例を示す図である。
【
図7】本実施形態1にかかる視点位置ごとの合成画像の概念を説明するための図である。
【
図8】本実施形態1にかかる画像生成装置を搭載した車両V1の構成を示すブロック図である。
【
図9】本実施形態1にかかる画像生成処理の流れを示すフローチャートである。
【
図10】本実施形態1にかかる合成画像の幅の決定の概念を説明するための図である。
【
図11】本実施形態1にかかる合成画像生成時の視点位置M、車両V1、死角領域D及び他車両V2の位置関係の例を示す図である。
【
図12】本実施形態1にかかる合成画像の例を示す図である。
【
図13】本実施形態1にかかる合成画像生成時の視点位置M、車両V1、死角領域D及び他車両V2の位置関係の他の例を示す図である。
【
図14】本実施形態1にかかる合成画像の他の例を示す図である。
【
図15】本実施形態2にかかる歩道上に表示端末を設置した場合の例を示す図である。
【発明を実施するための形態】
【0012】
以下では、本開示の具体的な実施の形態について、図面を参照しながら詳細に説明する。各図面において、同一要素には同一の符号が付されており、説明の明確化のため、必要に応じて重複説明は省略する。
【0013】
<実施形態1>
図1は、本実施形態1にかかる死角映像提供システム1000の全体構成を示す概要図である。死角映像提供システム1000は、歩行者Uが所持する表示端末M1と車両V1に搭載された車載端末とが通信網Nを介して通信可能に接続されている。通信網Nは、無線通信回線網又は携帯電話回線網等を含み、インターネットを含んでも良い。尚、車両V1とは、本実施形態1にかかる画像生成装置を含む車載端末を搭載した移動体を指すものであり、歩行者U又は表示端末M1の視点位置からの死角領域を生じ得る車両であるものとする。
【0014】
表示端末M1は、移動体の一例であり、無線通信機能を有し、表示画面を少なくとも備える情報処理装置である。表示端末M1は、歩行者Uの操作に応じて、又は、定期的に、通信網Nを介して、一定範囲内の車両V1に対して現在の位置情報を含む合成画像要求を送信する。尚、表示端末M1は、近距離無線通信等により合成画像要求を所定範囲内の車両V1等へ送信してもよい。ここで、表示端末M1は、定期的にGPS(Global Positioning System)機能等により現在の位置情報を取得するものとする。表示端末M1の位置情報は、後述する視点位置Mに相当する。尚、視点位置Mは、歩行者Uの目の高さの位置情報を含んだ3次元座標情報であってもよい。そして、表示端末M1は、車両V1に搭載された車載端末から通信網Nを介して、車両V1の死角領域に存在する対象物を含む合成画像を受信し、表示画面に合成画像を表示する。例えば、表示端末M1は、スマートフォン、携帯電話端末、タブレット端末等の移動通信装置である。また、対象物とは、画像認識技術等により予め設定した形状にマッチングする物である。また、対象物は、歩行者Uへの注意喚起が必要な候補ともいえる。例えば、対象物は、車やバイク等の移動体であるが、これらに限定されない。
【0015】
図2は、本実施形態1にかかる歩道上の移動体の視点位置から車道を見た場合の視界の例を示す図である。歩行者Uは、表示端末M1を携帯して歩道R2におり、信号機のない横断歩道R3を渡る前とする。車両V1と他車両V3は、車道R5上で走行又は駐停車しているものとする。そのため、歩行者Uの視界では、奥側の車道R4上の移動体が認識し難いことを示す。
【0016】
図3は、本実施形態1にかかる歩道上の移動体の視点位置Mから車道を見た場合の車両V1による死角領域Dの上面図である。
図3は、上述した
図2を上空から示した図である。視点位置Mは、歩行者U及び表示端末M1の位置を示す。他車両V2は、車道R4上で走行又は駐停車しているものとする。そして、他車両V2は、視点位置Mから見た場合の車両V1の死角領域Dに存在する。そのため、視点位置Mにおいて歩行者Uが車両V1方向を見た場合には、歩行者Uには他車両V2が見えないことを示す。よって、歩行者Uは横断歩道R3を渡ろうとしているが、死角領域Dにいる他車両V2が認識できないため、危険な状況であることを示す。
【0017】
図4は、本実施形態1にかかる車両V1の周囲を撮影するために搭載されたカメラC1からC4と撮影範囲A1からA4の例を示す図である。カメラC1は撮影範囲A1を撮影し、カメラC2は撮影範囲A2を撮影し、カメラC3は撮影範囲A3を撮影し、カメラC4は撮影範囲A4を撮影する。尚、撮影範囲A1からA4は、一部が重なっても良い。尚、車両V1に搭載されるカメラの台数は4台に限定されず、車両V1の周囲を撮影することができる台数であればよい。また、カメラC1からC4の設置位置も
図4に限定されない。
【0018】
図5は、本実施形態1にかかる車両V1の周囲における視点位置ごとの視点領域の例を示す図である。「視点領域」とは、視点位置Mの集合、つまり歩行者Uや表示端末M1が存在する領域である。視点領域A11は車両V1の左前方領域、視点領域A12は車両V1の前方領域、視点領域A13は車両V1の右前方領域、視点領域A14は車両V1の右方領域、視点領域A15は車両V1の右後方領域、視点領域A16は車両V1の後方領域、視点領域A17は車両V1の左後方領域、視点領域A18は車両V1の左方領域を示す。
【0019】
図6は、本実施形態1にかかる視点位置ごとの車両V1による死角領域Dの例を示す図である。視点領域A11に視点位置Mが存在する場合、車両V1により生じる死角領域Dは、撮影範囲A2及びA4に含まれる。視点領域A12に視点位置Mが存在する場合、車両V1により生じる死角領域Dは、撮影範囲A3、A2及びA4に含まれる。視点領域A13に視点位置Mが存在する場合、車両V1により生じる死角領域Dは、撮影範囲A2及びA3に含まれる。視点領域A14に視点位置Mが存在する場合、車両V1により生じる死角領域Dは、撮影範囲A1、A3及びA2に含まれる。視点領域A15に視点位置Mが存在する場合、車両V1により生じる死角領域Dは、撮影範囲A1及びA3に含まれる。視点領域A16に視点位置Mが存在する場合、車両V1により生じる死角領域Dは、撮影範囲A1、A3及びA4に含まれる。視点領域A17に視点位置Mが存在する場合、車両V1により生じる死角領域Dは、撮影範囲A1及びA4に含まれる。視点領域A18に視点位置Mが存在する場合、車両V1により生じる死角領域Dは、撮影範囲A1、A2及びA3に含まれる。
【0020】
図7は、本実施形態1にかかる視点位置ごとの合成画像の概念を説明するための図である。まず、視点変換画像I1は、カメラC1で撮影した画像を視点変換した画像である。視点変換画像I2は、カメラC2で撮影した画像を視点変換した画像である。視点変換画像I3は、カメラC3で撮影した画像を視点変換した画像である。視点変換画像I4は、カメラC4で撮影した画像を視点変換した画像である。そして、視点領域A11に視点位置Mが存在する場合、合成画像CIMG1は、左に視点変換画像I4、右に視点変換画像I2が合成された画像となる。視点領域A12に視点位置Mが存在する場合、合成画像CIMG2は、左に視点変換画像I4、中央に視点変換画像I2、右に視点変換画像I3が合成された画像となる。視点領域A13に視点位置Mが存在する場合、合成画像CIMG3は、左に視点変換画像I2、右に視点変換画像I3が合成された画像となる。視点領域A14に視点位置Mが存在する場合、合成画像CIMG4は、左に視点変換画像I2、中央に視点変換画像I3、右に視点変換画像I1が合成された画像となる。視点領域A15に視点位置Mが存在する場合、合成画像CIMG5は、左に視点変換画像I3、右に視点変換画像I1が合成された画像となる。視点領域A16に視点位置Mが存在する場合、合成画像CIMG6は、左に視点変換画像I3、中央に視点変換画像I1、右に視点変換画像I4が合成された画像となる。視点領域A17に視点位置Mが存在する場合、合成画像CIMG7は、左に視点変換画像I1、右に視点変換画像I4が合成された画像となる。視点領域A18に視点位置Mが存在する場合、合成画像CIMG8は、左に視点変換画像I1、中央に視点変換画像I4、右に視点変換画像I2が合成された画像となる。
【0021】
図8は、本実施形態1にかかる画像生成装置1を搭載した車両V1の構成を示すブロック図である。車両V1は、車載端末の少なくとも一部である画像生成装置1と、カメラC1からC4を搭載した車両である。カメラC1は、撮影部C11及び測距部C12を備える。撮影部C11は、車両V1の車外である撮影範囲A1を定期的に撮影し、撮影した画像を画像生成装置1へ出力する。撮影部C11は、例えばCCD(Charge Coupled Device)イメージセンサやCMOS(Complementary Metal Oxide Semiconductor)センサ等である。測距部C12は、撮影部C11による撮影画像から画像解析により抽出された対象物とカメラC1との距離を測定する。尚、画像解析処理は、画像生成装置1により行われても良い。測距部C12は、測定した距離情報を画像生成装置1へ出力する。測距部C12は、例えば、カメラC1と対象物との距離を深度として測定するセンサである。そのため、カメラC1は、撮影部C11と測距部C12を併せたTOF(Time Of Flight)カメラを用いてもよい。カメラC2、C3及びC4は、カメラC1と同等の構成を有する。例えば、カメラC2は撮影部C21及び測距部C22を備え、撮影範囲A2を撮影する。カメラC3は撮影部C31及び測距部C32を備え、撮影範囲A3を撮影する。カメラC4は撮影部C41及び測距部C42を備え、撮影範囲A4を撮影する。尚、撮影部C11、C21、C31及びC41のそれぞれにより撮影された画像は、車両V1の周囲である車外が撮影された車外画像である。
【0022】
画像生成装置1は、同じ時点において複数のカメラにより撮影された各車外画像から、表示端末M1の視点位置Mから見た場合の死角領域Dを含む合成画像を生成し、合成画像を表示端末M1へ送信する情報処理装置である。画像生成装置1は、例えば、マイクロコンピュータやECU(Electronic Control Unit)等である。画像生成装置1は、取得部11、制御部12、受信部13及び送信部14を備える。尚、取得部11、制御部12、受信部13及び送信部14は、例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、FPGA(Field-Programmable Gate Array)、量子プロセッサ(量子コンピュータ制御チップ)、RAM(Random Access Memory)、ROM(Read-Only Memory)、メモリ又はこれらの組み合わせからなる。
【0023】
取得部11は、車両V1の位置情報及び進行方向を取得する。例えば、取得部11は、GPS機能を有し、現在の位置情報を取得してもよい。また、取得部11は、ジャイロ等を含み、車両V1の進行方向を取得してもよい。また、取得部11は、受信部13により受信された表示端末M1の位置情報、つまり、車外の視点位置Mを取得してもよい。また、取得部11は、カメラC1~C4から車外画像を取得する。または、取得部11は、後述する特定部121により特定されたカメラが撮影した車外画像を取得してもよい。また、取得部11は、カメラC1~C4から車外画像のそれぞれの中に含まれる対象物の距離情報を取得する。または、取得部11は、後述する特定部121により特定されたカメラが撮影した車外画像の中に含まれる対象物の距離情報を取得してもよい。取得部11は、取得した車両V1の位置情報及び進行方向、視点位置M、車外画像及び距離情報を、メモリ等に保存してもよい。
【0024】
受信部13は、表示端末M1から通信網Nを介して、表示端末M1の位置情報を含む合成画像要求を受信する。尚、受信部13は、表示端末M1から近距離無線通信等の直接的な通信方式により合成画像要求を受信してもよい。送信部14は、制御部12により合成された合成画像を、通信網Nを介して視点位置Mの表示端末M1へ送信する。尚、送信部14は、合成画像を、近距離無線通信等により表示端末M1へ送信してもよい。尚、送信部14は、死角領域D内に閾値距離以内の対象物がないと判定された場合、対象物無しの応答を、合成画像要求の要求元である表示端末M1へ送信してもよい。言い換えると、送信部14は、死角領域D内に閾値距離以内の対象物があると判定された場合、合成画像を表示端末M1へ送信してもよい。
【0025】
制御部12は、特定部121及び生成部122を備える。特定部121は、視点位置Mと車両V1の位置及び進行方向から、視点位置Mから車両V1により死角となり得る死角領域Dを特定する。また、特定部121は、死角領域Dを撮影範囲に含むカメラを特定する。さらに、特定部121は、距離情報に基づいて、死角領域Dに含まれる対象物を特定することが望ましい。さらに、特定部121は、死角領域Dに含まれる対象物と車両V1との距離が閾値以内の場合、対象物として特定するとよい。
【0026】
特定部121は、相対位置算出部1211、死角領域算出部1212及び対象物判定部1213を備える。相対位置算出部1211は、視点位置Mと車両V1の相対位置を算出する。死角領域算出部1212は、視点位置Mから見た場合の車両V1による死角領域Dを算出する。対象物判定部1213は、距離情報に基づいて、死角領域D内に閾値距離以内の対象物があるか否かを判定する。
【0027】
生成部122は、車両V1の周囲が撮影された複数の車外画像を用いて、死角領域Dに基づき視点位置Mの視点での合成画像を生成する。さらに、生成部122は、特定された対象物と車両V1との距離を、複数の車外画像の間で一致させるように各車外画像の大きさを調整して、合成画像を生成するとよい。例えば、生成部122は、対象物の距離に合わせて複数の車外画像のそれぞれの大きさを調整し、調整後の各画像を合成する際に境界面を合わせるようにして合成画像を生成するとよい。また、生成部122は、対象物が複数の車外画像のそれぞれに映っている場合は、対象物の大きさが同じ大きさとなるように画像の調整をするとよい。
【0028】
生成部122は、視点変換部1221及び画像合成部1222を備える。視点変換部1221は、死角領域Dを含む車外画像の視点変換を行う。例えば、視点変換部1221は、死角領域Dを含む車外画像を、視点位置Mから見た画像となるように、車外画像内の各点の二次元座標を、撮影に用いたカメラからの撮影視点位置から見た座標系から視点位置Mから見た座標系へ座標変換するとよい。尚、視点変換処理は、任意の公知技術を用いることができる。画像合成部1222は、視点変換した各車外画像を合成して合成画像を生成する。また、画像合成部1222は、合成画像が車両V1の死角領域Dの画像であることを示すために、生成した合成画像に、車両V1の領域画像を追加するとよい。
【0029】
尚、特定部121及び生成部122、又は、相対位置算出部1211、死角領域算出部1212、対象物判定部1213、視点変換部1221及び画像合成部1222は、CPU、GPU、FPGA、量子プロセッサ、RAM、ROM、メモリ又はこれらの組み合わせからなる。
【0030】
尚、画像生成装置1は、図示しない構成として、画像生成プログラムを記憶する記憶装置を備える。記憶装置は、ハードディスク、フラッシュメモリ等の不揮発性記憶装置である。画像生成プログラムは、本実施形態にかかる画像生成処理が実装されたコンピュータプログラムである。画像生成装置1のCPU等は、記憶装置からメモリへ画像生成プログラムを読み込ませて実行する。これにより、CPU等は、上述した取得部11、制御部12、受信部13及び送信部14、並びに、特定部121及び生成部122として機能する。また、CPU等は、上述した相対位置算出部1211、死角領域算出部1212、対象物判定部1213、視点変換部1221及び画像合成部1222として機能する。
【0031】
図9は、本実施形態1にかかる画像生成処理の流れを示すフローチャートである。まず、制御部12は、受信部13から表示端末M1からの合成画像要求を受信しているか否かを判定する(S1)。受信部13から合成画像要求を受信していない場合、制御部12は、所定時間待機し、再度、ステップS1を行う。受信部13から合成画像要求を受信した場合、制御部12は、取得部11から車両V1の位置情報及び進行方向を取得する(S2)。そして、取得部11は、制御部12から表示端末M1の位置情報を取得する(S3)。具体的には、取得部11は、制御部12から受信部13により受信された合成画像要求に含まれる表示端末M1の視点位置Mを取得する。
【0032】
続いて、相対位置算出部1211は、視点位置Mと車両V1の相対位置を算出する(S4)。例えば、相対位置算出部1211は、視点位置Mと車両V1の位置情報とから所定の座標系における視点位置Mと車両V1との座標を算出してもよい。死角領域算出部1212は、車両V1の領域の端から端までの大きさ、つまり長さを取得する(S5)。死角領域算出部1212は、視点位置Mから見た場合の車両V1による死角領域Dを算出する(S6)。例えば、死角領域算出部1212は、視点位置Mから車両V1の領域の両端までの線分を延長して死角領域Dを特定してもよい。
【0033】
そして、特定部121は、死角領域Dを撮影範囲に含むカメラを特定する(S7)。例えば、特定部121は、車両V1の周囲の撮影範囲のうち死角領域Dに含まれる撮影範囲に対応するカメラを特定する。この例では、特定部121は、カメラC1からC4のうち2,3台を特定する。これにより、合成対象の車外画像が絞り込まれるため、ステップS8及びS9の処理負荷を軽減できる。そして、取得部11は、ステップS7により特定された複数のカメラが撮影した複数の車外画像と、各車外画像内の対象物の距離情報とを取得する(S8)。
【0034】
そして、対象物判定部1213は、距離情報に基づいて、死角領域D内に閾値距離以内の対象物があるか否かを判定する(S9)。具体的には、対象物判定部1213は、ステップS8で取得した距離情報が閾値距離以内である対象物があるか否かを判定する。その理由は、死角領域D内に対象物が含まれていたとしても、遠方であれば視点位置Mの歩行者Uには危険性が低く、認識させる必要性が低いといえるためである。例えば、死角領域Dのうち車道R4上の移動体である他車両V2については、車道R5上の車両V1との距離が比較的近く、歩道R2側の歩行者Uが横断歩道R3を渡る際に、認識しておく必要が高い。一方、死角領域Dのうち歩道R1上の物体や建物等の固定物については、車道R5上の車両V1との距離が比較的遠く、歩道R2側の歩行者Uが認識する必要性が低い。
【0035】
ステップS9で死角領域D内に閾値距離以内の対象物がある場合、視点変換部1221は、死角領域Dを含む車外画像の視点変換を行う(S10)。具体的には、まず、視点変換部1221は、視点位置M、車両V1及び死角領域Dの相対的な位置関係から、合成画像の幅を決定する。
【0036】
図10は、本実施形態1にかかる合成画像の幅の決定の概念を説明するための図である。まず、視点位置Mから車両V1方向を見た場合の合成画像の仮想投影面Sの位置を定めるための「視点位置Mからの距離」が、予めROM等の記憶部に設定されているものとする。この場合、視点変換部1221は、視点位置Mからの距離を記憶部から読み出し、視点位置Mと車両V1の中心P1との線分の延長線上で、視点位置Mから上記読み出した「視点位置Mからの距離」となる点をP3とする。視点変換部1221は、P3を仮想投影面Sの描画幅の中心とする。そして、視点変換部1221は、視点位置Mから描画幅の中心P3への線分と直角となるように仮想投影面Sを設定する。そして、視点変換部1221は、死角領域Dのうち仮想投影面Sと重なる線分を死角領域幅W2とし、描画幅の中心P3から死角領域幅W2の両側に等幅で非死角領域幅W31及びW32を設定する。尚、非死角領域幅W31及びW32は、等幅である必要はない。そして、視点変換部1221は、仮想投影面Sにおける非死角領域幅W31及びW32、並びに、死角領域幅W2の合計値を合成画像の幅、つまり全描画幅W1として決定する。ここで、非死角領域幅W31及びW32は、視点位置Mから車両V1の方向を見た場合に、車両V1の周囲が十分に映る範囲とするための余裕の幅である。全描画幅W1に非死角領域幅W31及びW32をより長く設定することで、合成画像の撮影範囲をより広角に取ることができる。また、視点変換部1221は、視点位置Mと車両V1の角P2との線分の延長線と仮想投影面Sとの交点を、画像合成境界点P4とする。画像合成境界点P4は、隣接する車外画像の重複する部分の境界点である。画像合成境界点P4の決定方法はこれに限らず、他の方法でもよい。
【0037】
図11は、本実施形態1にかかる合成画像生成時の視点位置M、車両V1、死角領域D及び他車両V2の位置関係の例を示す図である。ここでは、上述した視点領域A17の例を示す。また、撮影範囲A1とA4が死角領域Dを含み、撮影範囲A4に対象物として他車両V2が含まれているものとする。つまり、カメラC4により撮影された車外画像には、他車両V2が映っているものとする。そして、車両V1から他車両V2の距離は、閾値距離以内であるものとする。このとき、視点変換部1221は、視点位置Mと車両V1の中心P1との線分の延長線上のP3の距離が最も近い距離となる面を仮想投影面Sと決定し、撮影範囲A1及びA4の車外画像を仮想投影面Sに向けて視点変換する。具体的には、視点変換部1221は、撮影範囲A1及びA4の車外画像のそれぞれを、視点位置Mと画像合成境界点P4の線分の延長線で分割する。つまり、視点変換部1221は、撮影範囲A1の車外画像について分割された左側を残し、撮影範囲A4の車外画像について分割された右側を残す。そして、視点変換部1221は、撮影範囲A1及びA4の車外画像の残された側について、仮想投影面Sに向けて座標変換等を行うことにより視点変換する。尚、視点変換部1221は、視点位置Mを仮想カメラの位置、高さを歩行者Uの目線の高さとして、視点変換するとよい。
【0038】
その後、画像合成部1222は、視点変換した各車外画像を合成して合成画像を生成する(S11)。具体的には、画像合成部1222は、視点位置Mと画像合成境界点P4の線分の延長線を境界として、撮影範囲A1及びA4の車外画像の視点変換後の画像同士を合成する。さらに、画像合成部1222は、生成した合成画像に、車両V1の領域画像を追加する(S12)。具体的には、画像合成部1222は、ステップS11で生成した合成画像に、車両V1の領域画像を重畳する。ここで、車両V1の領域画像は、車両V1のCG(Computer Graphics)の画像やポリゴン画像であるとよい。また、領域画像は、破線や透過率の高い画像であるものとする。そして、送信部14は、ステップS11及びS12による合成画像を、通信網Nを介して視点位置Mの表示端末M1へ送信する(S13)。これにより、表示端末M1は、画像生成装置1から受信した合成画像を画面に表示する。
【0039】
一方、ステップS9で死角領域D内に閾値距離以内の対象物がない場合、送信部14は、対象物無しの応答を、表示端末M1へ送信する(S14)。これにより、表示端末M1は、画像生成装置1から受信した応答を画面に表示する。
【0040】
図12は、本実施形態1にかかる合成画像CIMG7の例を示す図である。合成画像CIMG7は、上述したとおり、視点変換画像I1と視点変換画像I4が合成された画像である。視点変換画像I4には、他車両V2が仮想投影面Sに視点変換された画像が含まれる。そして、視点変換画像I1と視点変換画像I4に跨って、車両V1の領域画像が追加で合成されている。ステップS11の合成画像は、車両V1に搭載されたカメラにより撮影された車外画像であるため、車両V1が映っていない。一方、視点位置Mからは、実際には、車両V1が見える。そのため、ステップS12により車両V1の領域画像を追加することで、視点位置Mからの視点に近付けることができる。これにより、歩行者Uは、表示端末M1の画面を介して、車両V1を透過したかのような位置に他車両V2の存在を認識することができる。つまり、歩行者Uは、本来であれば車両V1による死角領域Dのため見えない他車両V2を、表示端末M1に表示された合成画像CIMG7により見ることができる。
【0041】
図13は、本実施形態1にかかる合成画像生成時の視点位置M、車両V1、死角領域D及び他車両V2の位置関係の他の例を示す図である。この例では、上述した
図11と比べて他車両V2が撮影範囲A1とA4に跨って含まれているものとする。つまり、カメラC4により撮影された車外画像とカメラC1により撮影された車外画像との両方に、他車両V2が映っているものとする。このとき、他車両V2が画像合成境界点P4で重なるように投影面Sを決定する。
【0042】
図14は、本実施形態1にかかる合成画像CIMG7aの他の例を示す図である。合成画像CIMG7aは、視点変換画像I1と視点変換画像I4に跨って、他車両V2が仮想投影面Sに視点変換された画像が合成されている。また、
図12と同様に、視点変換画像I1と視点変換画像I4に跨って、車両V1の領域画像が追加で合成されている。
【0043】
このように、本実施形態1により、特定の視点位置から移動体の存在による死角領域の状況を認識し易くすることができる。
【0044】
<実施形態2>
図15は、本実施形態2にかかる歩道上に表示端末M2を設置した場合の例を示す図である。表示端末M2は、歩道R2上に設置され、無線通信機能を有し、表示画面を少なくとも備える情報処理装置である。表示端末M2は、上述した表示端末M1と同様に、歩行者Uの操作に応じて、又は、定期的に、通信網Nを介して、又は、近距離無線通信等により一定範囲内の車両V1に対して位置情報を含む合成画像要求を送信する。尚、表示端末M2の位置情報は、歩道R2上の固定位置であり、表示端末M2内の記憶装置に予め設定された値であってもよい。そして、表示端末M2は、車両V1に搭載された車載端末から通信網Nを介して、車両V1の死角領域Dに存在する対象物を含む合成画像を受信し、表示画面に合成画像を表示する。例えば、表示端末M2は、液晶ディスプレイ等を備えたデジタルサイネージ装置である。また、上述した視点位置Mは、表示端末M2の設置位置となる。つまり、視点位置Mは、移動体である必要はなく、歩道R2上に固定された位置であってもよい。このように、本実施形態2によっても、上述した実施形態1と同様に、特定の視点位置から移動体の存在による死角領域の状況を認識し易くすることができる。
【0045】
以上、本発明を上記実施の形態に即して説明したが、本発明は上記実施の形態の構成にのみ限定されるものではなく、本願特許請求の範囲の請求項の発明の範囲内で当業者であればなし得る各種変形、修正、組み合わせを含むことは勿論である。
【0046】
尚、上述の実施形態では、ハードウェアの構成として説明したが、これに限定されるものではない。本開示は、任意の処理を、CPUにコンピュータプログラムを実行させることにより実現することも可能である。
【0047】
上述の例において、プログラムは、コンピュータに読み込まれた場合に、実施形態で説明された1又はそれ以上の機能をコンピュータに行わせるための命令群(又はソフトウェアコード)を含む。プログラムは、非一時的なコンピュータ可読媒体又は実体のある記憶媒体に格納されてもよい。限定ではなく例として、コンピュータ可読媒体又は実体のある記憶媒体は、random-access memory(RAM)、read-only memory(ROM)、フラッシュメモリ、solid-state drive(SSD)又はその他のメモリ技術、CD-ROM、digital versatile disc(DVD)、Blu-ray(登録商標)ディスク又はその他の光ディスクストレージ、磁気カセット、磁気テープ、磁気ディスクストレージ又はその他の磁気ストレージデバイスを含む。プログラムは、一時的なコンピュータ可読媒体又は通信媒体上で送信されてもよい。限定ではなく例として、一時的なコンピュータ可読媒体又は通信媒体は、電気的、光学的、音響的、またはその他の形式の伝搬信号を含む。
【符号の説明】
【0048】
1000 死角映像提供システム
N 通信網
U 歩行者
M 視点位置
M1、M2 表示端末
V1 車両
V2、V3 他車両
R1、R2 歩道
R3 横断歩道
R4、R5 車道
D 死角領域
C1~C4 カメラ
C11~C41 撮影部
C12~C42 測距部
A1~A4 撮影範囲
A11~A18 視点領域
I1~I4 視点変換画像
CIMG1~CIMG8 合成画像
1 画像生成装置
11 取得部
12 制御部
121 特定部
1211 相対位置算出部
1212 死角領域算出部
1213 対象物判定部
122 生成部
1221 視点変換部
1222 画像合成部
13 受信部
14 送信部