IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 独立行政法人情報通信研究機構の特許一覧

特開2024-44308警告信号生成装置、警告信号生成方法、および、プログラム
<>
  • 特開-警告信号生成装置、警告信号生成方法、および、プログラム 図1
  • 特開-警告信号生成装置、警告信号生成方法、および、プログラム 図2
  • 特開-警告信号生成装置、警告信号生成方法、および、プログラム 図3
  • 特開-警告信号生成装置、警告信号生成方法、および、プログラム 図4
  • 特開-警告信号生成装置、警告信号生成方法、および、プログラム 図5
  • 特開-警告信号生成装置、警告信号生成方法、および、プログラム 図6
  • 特開-警告信号生成装置、警告信号生成方法、および、プログラム 図7
  • 特開-警告信号生成装置、警告信号生成方法、および、プログラム 図8
  • 特開-警告信号生成装置、警告信号生成方法、および、プログラム 図9
  • 特開-警告信号生成装置、警告信号生成方法、および、プログラム 図10
  • 特開-警告信号生成装置、警告信号生成方法、および、プログラム 図11
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024044308
(43)【公開日】2024-04-02
(54)【発明の名称】警告信号生成装置、警告信号生成方法、および、プログラム
(51)【国際特許分類】
   G08G 1/16 20060101AFI20240326BHJP
   G06T 7/00 20170101ALI20240326BHJP
   G08B 21/00 20060101ALI20240326BHJP
   B60W 40/02 20060101ALI20240326BHJP
【FI】
G08G1/16 C
G06T7/00 650Z
G08B21/00 J
G08B21/00 H
G08B21/00 U
B60W40/02
【審査請求】未請求
【請求項の数】6
【出願形態】OL
(21)【出願番号】P 2022149761
(22)【出願日】2022-09-21
(71)【出願人】
【識別番号】301022471
【氏名又は名称】国立研究開発法人情報通信研究機構
(74)【代理人】
【識別番号】100143498
【弁理士】
【氏名又は名称】中西 健
(74)【代理人】
【識別番号】100136319
【弁理士】
【氏名又は名称】北原 宏修
(72)【発明者】
【氏名】ダオ ミン ソン
(72)【発明者】
【氏名】プラダナ ムハマド ヒルミル ムクタ アディチャ
(72)【発明者】
【氏名】是津 耕司
【テーマコード(参考)】
3D241
5C086
5H181
5L096
【Fターム(参考)】
3D241BA31
3D241BA57
3D241DC01Z
5C086AA47
5C086AA52
5C086BA22
5C086CA28
5C086CB36
5C086DA07
5C086DA08
5C086DA33
5H181AA01
5H181BB13
5H181BB20
5H181CC04
5H181CC24
5H181EE13
5H181FF27
5H181LL01
5H181LL08
5L096BA04
5L096CA02
5L096DA03
5L096FA66
5L096HA04
5L096HA05
(57)【要約】
【課題】メンテナンスが容易なシンプルな構成により低コストで実現でき、かつ、高精度に、走行可能な車両等の周辺の環境を認識し、当該認識結果に基づいて、当該車両等が危険な状況になる可能性を示す情報を提示する警告信号を生成する警告信号生成システムを実現する。
【解決手段】警告信号生成システム1000では、撮像部C1により取得された映像信号を用いて、速度推定処理部1により推定した自車両の速度および安全距離、物体検出追跡処理部2により取得した物体追跡処理結果データ、並びに、環境データ分析処理部3により検出したレーンを取得することができる。そして、警告信号生成システム1000では、上記により取得したデータを用いて、フレーム画像上で解析することで、自車両が危険な状況になる可能性を示す情報を提示する警告信号を取得(生成)することができる。
【選択図】図1

【特許請求の範囲】
【請求項1】
走行可能な車両に取り付けられた撮像部により取得される映像信号を用いて、前記車両が危険な状況になる可能性を示す情報を提示する警告信号を生成する警告信号生成装置であって、
前記映像信号から、オプティカルフローを取得し、前記オプティカルフローと、前記撮像部の撮影パラメータとに基づいて、前記車両の速度を、車両推定速度として、取得するとともに、前記映像信号から前記車両の周辺環境を認識する周辺環境認識処理を実行し、当該周辺環境認識処理により取得したデータに基づいて、前記車両の走行している道路の摩擦係数を取得し、当該摩擦係数と、前記車両推定速度とに基づいて、前記車両の安全距離dsafeを取得する速度推定処理部と、
前記映像信号から、当該映像信号を構成するフレーム画像上において、物体検出処理を実行し、前記物体検出処理により検出した物体を追跡する処理である物体追跡処理を実行し、当該物体追跡処理の結果データである物体追跡処理結果データを取得する物体追跡処理部と、
前記映像信号から、当該映像信号を構成するフレーム画像上において、前記車両が走行可能領域であるレーンに相当する画像領域を検出する環境データ分析部と、
前記速度推定処理部により取得されたデータと、前記物体追跡処理結果データと、前記環境データ分析部により検出されたデータとに基づいて、自車両が安全状態であるか危険状態であるかを示す情報を提示する警告信号を生成する警告信号生成部と、
を備える警告信号生成装置。
【請求項2】
前記警告信号生成部は、
前記環境データ分析部により検出されたデータと、前記撮像部の撮影パラメータとに基づいて、前記映像信号を構成するフレーム画像上において、前記車両が走行しているレーンを特定するとともに、前記物体追跡処理結果データから、特定したレーン上に存在する物体を検出し、検出した物体と前記車両との距離d_closestを取得する同一レーン検出処理部と、
前記車両が走行しているレーンと同一レーンに物体が存在する場合に、前記距離d_closestと、前記速度推定処理部により取得された前記車両の安全距離dsafeとを比較し、d_closest<dsafeであるとき、「危険状態」であることを示す警告信号を生成する警告信号生成処理部と
を備える、
請求項1に記載の警告信号生成装置。
【請求項3】
前記環境データ分析部は、
前記映像信号から、突発的に出現する、あるいは、変化する画像領域を、視覚注目位置画像領域として、検出する視覚注目位置検出処理部をさらに備える、
請求項2に記載の警告信号生成装置。
【請求項4】
前記同一レーン検出処理部は、
前記映像信号を構成するフレーム画像上において、前記視覚注目位置画像領域の近辺に存在する物体がないか判定し、当該判定の結果、視覚注目位置画像領域の近辺に存在する物体があると判定した場合、前記車両から当該物体までの距離を、距離d_saliencyとして取得し、
前記警告信号生成処理部は、
前記同一レーン検出処理部が視覚注目位置画像領域の近辺に存在する物体があると判定した場合であって、前記車両から前記視覚注目位置画像領域の近辺に存在する物体までの距離d_saliencyが所定の閾値Thよりも小さい場合、「非安全状態」あるいは「危険状態」を示す警告信号を生成する、
請求項3に記載の警告信号生成装置。
【請求項5】
走行可能な車両に取り付けられた撮像部により取得される映像信号を用いて、前記車両が危険な状況になる可能性を示す情報を提示する警告信号を生成する警告信号生成方法であって、
前記映像信号から、オプティカルフローを取得し、前記オプティカルフローと、前記撮像部の撮影パラメータとに基づいて、前記車両の速度を、車両推定速度として、取得するとともに、前記映像信号から前記車両の周辺環境を認識する周辺環境認識処理を実行し、当該周辺環境認識処理により取得したデータに基づいて、前記車両の走行している道路の摩擦係数を取得し、当該摩擦係数と、前記車両推定速度とに基づいて、前記車両の安全距離dsafeを取得する速度推定処理ステップと、
前記映像信号から、当該映像信号を構成するフレーム画像上において、物体検出処理を実行し、前記物体検出処理により検出した物体を追跡する処理である物体追跡処理を実行し、当該物体追跡処理の結果データである物体追跡処理結果データを取得する物体追跡処理ステップと、
前記映像信号から、当該映像信号を構成するフレーム画像上において、前記車両が走行可能領域であるレーンに相当する画像領域を検出する環境データ分析ステップと、
前記速度推定処理ステップにより取得されたデータと、前記物体追跡処理結果データと、前記環境データ分析ステップにより検出されたデータとに基づいて、自車両が安全状態であるか危険状態であるかを示す情報を提示する警告信号を生成する警告信号生成ステップと、
を備える警告信号生成方法。
【請求項6】
請求項5に記載の警告信号生成方法をコンピュータに実行させるためのプログラム。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、走行可能な車両等の周辺の環境を認識し、当該認識結果に基づいて、当該車両等が危険な状況(例えば、危険な走行状況)になる可能性を示す情報(例えば、アラーム情報)を提示する警告信号を生成する技術に関する。
【背景技術】
【0002】
近年、自動運転車(autonomous car)を実現するための技術や、ドライバーの安全・快適を実現するために自動車自体が周囲の情報を把握し、ドライバーに的確に表示・警告を行ったり、ドライバーに代わって自動車を制御したりするなどの運転を支援するシステムである先進運転支援システム(ADAS: Advanced Driver-Assistance Systems)を実現するための技術についての研究・開発がされている。
【0003】
このような技術を実現するために、走行車両の周辺の環境およびその変化を適切に把握する必要がある。例えば、特許文献1には、複数のセンサーやカメラを車両に取り付け、当該複数のセンサーやカメラにより取得されたデータを用いて解析処理を行うことで、車両の将来の運転環境を高精度に予測する環境予測システムの開示がある。
【先行技術文献】
【特許文献】
【0004】
【特許文献1】特開2016-109498号公報
【発明の概要】
【発明が解決しようとする課題】
【0005】
しかしながら、特許文献1に開示されている技術では、複数のセンサーやカメラを車両に取り付ける必要があり、また、当該複数のセンサーやカメラにより取得したデータを用いて解析処理を行う必要があるため、実現するためのコストが高くなる。つまり、特許文献1に開示されている技術では、複数のセンサーやカメラを車両に取り付けるためのコストがかかり、さらに、上記複数のセンサーやカメラにより取得したデータを、解析処理を行うモジュールに入力させる必要があるため、上記複数のセンサーやカメラで取得したデータに対して解析処理を行うモジュールに入力させるための配線が複雑になる。さらに、特許文献1に開示されている技術では、複数のセンサーやカメラのメンテナンスも必要となる(例えば、複数のセンサーやカメラの向きが変わってしまったりしたら、それを修正する必要がある)。
【0006】
そこで、本発明は、上記課題に鑑み、メンテナンスが容易なシンプルな構成により低コストで実現でき、かつ、高精度に、走行可能な車両等の周辺の環境を認識し、当該認識結果に基づいて、当該車両等が危険な状況(例えば、危険な走行状況)になる可能性を示す情報(例えば、アラーム情報)を提示する警告信号を生成する警告信号生成システム、警告信号生成装置、警告信号生成方法、および、プログラムを実現することを目的とする。
【課題を解決するための手段】
【0007】
上記課題を解決するための第1の発明は、走行可能な車両に取り付けられた撮像部により取得される映像信号を用いて、車両が危険な状況になる可能性を示す情報を提示する警告信号を生成する警告信号生成装置であって、速度推定処理部と、物体追跡処理部と、環境データ分析部と、警告信号生成部と、を備える。
【0008】
速度推定処理部は、映像信号から、オプティカルフローを取得し、オプティカルフローと、撮像部の撮影パラメータとに基づいて、車両の速度を、車両推定速度として、取得するとともに、映像信号から車両の周辺環境を認識する周辺環境認識処理を実行し、当該周辺環境認識処理により取得したデータに基づいて、車両の走行している道路の摩擦係数を取得し、当該摩擦係数と、車両推定速度とに基づいて、車両の安全距離dsafeを取得する。
【0009】
物体追跡処理部は、映像信号から、当該映像信号を構成するフレーム画像上において、物体検出処理を実行し、物体検出処理により検出した物体を追跡する処理である物体追跡処理を実行し、当該物体追跡処理の結果データである物体追跡処理結果データを取得する。
【0010】
環境データ分析部は、映像信号から、当該映像信号を構成するフレーム画像上において、車両が走行可能領域であるレーンに相当する画像領域を検出する。
【0011】
警告信号生成部は、速度推定処理部により取得されたデータと、物体追跡処理結果データと、環境データ分析部により検出されたデータとに基づいて、自車両が安全状態であるか危険状態であるかを示す情報を提示する警告信号を生成する。
【0012】
この警告信号生成装置では、撮像部により取得された映像信号を用いて、速度推定処理部により推定した自動車(自車両)の速度および安全距離、物体検出追跡処理部により取得した物体追跡処理結果データ(1または複数の物体の追跡処理結果データ)、並びに、環境データ分析処理部により検出したレーン(走行可能領域)を取得することができる。そして、この警告信号生成装置では、上記により取得したデータを用いて、フレーム画像(撮像部により取得された映像信号を形成するフレーム画像)上で解析することで、自車両が危険な状況(例えば、危険な走行状況)になる可能性を示す情報を提示する警告信号を取得(生成)することができる。つまり、この警告信号生成装置では、撮像部により取得された映像信号を入力させ、上記処理を行うだけで、高精度な警告信号を取得(生成)することができるので、警告信号生成システムを、メンテナンスが容易なシンプルな構成により低コストで実現できる。
【0013】
第2の発明は、第1の発明であって、警告信号生成部は、同一レーン検出処理部と、警告信号生成処理部とを備える。
【0014】
同一レーン検出処理部は、環境データ分析部により検出されたデータと、撮像部の撮影パラメータとに基づいて、映像信号を構成するフレーム画像上において、車両が走行しているレーンを特定するとともに、物体追跡処理結果データから、特定したレーン上に存在する物体を検出し、検出した物体と車両との距離d_closestを取得する。
【0015】
警告信号生成処理部は、車両が走行しているレーンと同一レーンに物体が存在する場合に、距離d_closestと、速度推定処理部により取得された車両の安全距離dsafeとを比較し、d_closest<dsafeであるとき、「危険状態」であることを示す警告信号を生成する。
【0016】
これにより、この警告信号生成装置では、車両が走行しているレーンと同一レーンに物体が存在する場合、適切に、「危険状態」であることを示す警告信号を生成することができる。
【0017】
第3の発明は、第2の発明であって、環境データ分析部は、映像信号から、突発的に出現する、あるいは、変化する画像領域を、視覚注目位置画像領域として、検出する視覚注目位置検出処理部をさらに備える。
【0018】
これにより、この警告信号生成装置では、視覚注目位置検出処理部により、視覚注目位置画像領域を検出することができる。
【0019】
第4の発明は、第3の発明であって、同一レーン検出処理部は、映像信号を構成するフレーム画像上において、視覚注目位置画像領域の近辺に存在する物体がないか判定し、当該判定の結果、視覚注目位置画像領域の近辺に存在する物体があると判定した場合、車両から当該物体までの距離を、距離d_saliencyとして取得する。そして、警告信号生成処理部は、同一レーン検出処理部が視覚注目位置画像領域の近辺に存在する物体があると判定した場合であって、車両から視覚注目位置画像領域の近辺に存在する物体までの距離d_saliencyが所定の閾値Thよりも小さい場合、「非安全状態」あるいは「危険状態」を示す警告信号を生成する。
【0020】
これにより、この警告信号生成装置では、視覚注目位置画像領域の近辺に存在する物体がある場合においても、適切に、「非安全状態」あるいは「危険状態」を示す警告信号を生成することができる。
【0021】
第5の発明は、走行可能な車両に取り付けられた撮像部により取得される映像信号を用いて、車両が危険な状況になる可能性を示す情報を提示する警告信号を生成する警告信号生成方法であって、速度推定処理ステップと、物体追跡処理ステップと、環境データ分析ステップと、警告信号生成ステップと、を備える。
【0022】
速度推定処理ステップは、映像信号から、オプティカルフローを取得し、オプティカルフローと、撮像部の撮影パラメータとに基づいて、車両の速度を、車両推定速度として、取得するとともに、映像信号から車両の周辺環境を認識する周辺環境認識処理を実行し、当該周辺環境認識処理により取得したデータに基づいて、車両の走行している道路の摩擦係数を取得し、当該摩擦係数と、車両推定速度とに基づいて、車両の安全距離dsafeを取得する。
【0023】
物体追跡処理ステップは、映像信号から、当該映像信号を構成するフレーム画像上において、物体検出処理を実行し、物体検出処理により検出した物体を追跡する処理である物体追跡処理を実行し、当該物体追跡処理の結果データである物体追跡処理結果データを取得する。
【0024】
環境データ分析ステップは、映像信号から、当該映像信号を構成するフレーム画像上において、車両が走行可能領域であるレーンに相当する画像領域を検出する。
【0025】
警告信号生成ステップは、速度推定処理ステップにより取得されたデータと、物体追跡処理結果データと、環境データ分析ステップにより検出されたデータとに基づいて、自車両が安全状態であるか危険状態であるかを示す情報を提示する警告信号を生成する。
【0026】
これにより、第1の発明と同様の効果を奏する警告信号生成方法を実現することができる。
【0027】
第6の発明は、第5の発明である警告信号生成方法をコンピュータに実行させるためのプログラムである。
【0028】
これにより、第1の発明と同様の効果を奏する警告信号生成方法をコンピュータに実行させるためのプログラムを実現することができる。
【発明の効果】
【0029】
本発明によれば、メンテナンスが容易なシンプルな構成により低コストで実現でき、かつ、高精度に、走行可能な車両等の周辺の環境を認識し、当該認識結果に基づいて、当該車両等が危険な状況(例えば、危険な走行状況)になる可能性を示す情報(例えば、アラーム情報)を提示する警告信号を生成する警告信号生成システム、警告信号生成装置、警告信号生成方法、および、プログラムを実現することができる。
【図面の簡単な説明】
【0030】
図1】第1実施形態に係る警告信号生成システム1000の概略構成図。
図2】第1実施形態に係る警告信号生成装置100の速度推定処理部1の概略構成図。
図3】第1実施形態に係る警告信号生成装置100の物体検出追跡処理部2の概略構成図。
図4】第1実施形態に係る警告信号生成装置100の環境データ分析処理部3の概略構成図。
図5】第1実施形態に係る警告信号生成装置100の警告信号生成部4の概略構成図。
図6】カメラ座標系とワールド座標系の設定の一例を示す図。
図7】消失点を求める方法を説明するための図。
図8】フレーム画像上の2次元座標(u,v)をワールド座標空間の3次元座標(X,Y,Z)に変換する処理を説明するための図。
図9】撮像部C1の撮影パラメータを考慮し、撮像部C1により取得されたフレーム画像を解析することで、検出された物体OBJまでの距離を取得(推定)する処理を説明するための図。
図10】警告信号生成システム1000で取得された警告合成映像信号Voutにより形成された映像(フレーム画像)と、警告信号が示す状態とを示す図。
図11】CPUバス構成を示す図。
【発明を実施するための形態】
【0031】
[第1実施形態]
第1実施形態について、図面を参照しながら、以下説明する。
【0032】
<1.1:警告信号生成システムの構成>
図1は、第1実施形態に係る警告信号生成システム1000の概略構成図である。
【0033】
図2は、第1実施形態に係る警告信号生成装置100の速度推定処理部1の概略構成図である。
【0034】
図3は、第1実施形態に係る警告信号生成装置100の物体検出追跡処理部2の概略構成図である。
【0035】
図4は、第1実施形態に係る警告信号生成装置100の環境データ分析処理部3の概略構成図である。
【0036】
図5は、第1実施形態に係る警告信号生成装置100の警告信号生成部4の概略構成図である。
【0037】
警告信号生成システム1000は、図1に示すように、撮像部C1と、撮影パラメータ取得部C2と、警告信号生成装置100と、警告合成映像取得部C3と、を備える。
【0038】
なお、警告信号生成システム1000は、走行可能な車両(例えば、自動車)に搭載され、当該車両の周辺の環境およびその変化を認識し、当該認識結果に基づいて、当該車両等が危険な状況(例えば、危険な走行状況)になる可能性を示す情報である警告信号を取得するものとして、以下、説明する。
【0039】
撮像部C1は、走行可能な車両(例えば、自動車)に取り付けられ、車両の前方の映像(映像信号)を取得する。撮像部C1は、被写体等からの光を集光する光学系(1または複数のレンズから構成される光学系)と、CMOSイメージセンサ等の撮像素子とを備える構成を有している。そして、撮像部C1は、取得した映像信号を映像信号Vin(所定のフレームレートでフレーム画像を形成することができる映像信号)として警告信号生成装置100に出力する。
【0040】
撮影パラメータ取得部C2は、撮像部C1の撮影パラメータ(撮像点(カメラの位置(例えば、撮像素子の撮像素子面の中心点))、焦点位置、焦点距離、画角、視野角、カメラ光学系の光軸の情報(光軸の向き等)等)を取得する機能部である。そして、撮影パラメータ取得部C2は、取得した撮像部C1の撮影パラメータを含むデータを、データD_cam_prmとして、警告信号生成装置100に出力する。なお、撮像部C1の撮影パラメータは、撮像部C1が車両に取り付けられたときに、既知となる情報であるので、撮影パラメータ取得部C2は、予め、撮像部C1の撮影パラメータを記憶保持しているものであってもよい。
【0041】
警告信号生成装置100は、図1に示すように、速度推定処理部1と、物体検出追跡処理部2と、環境データ分析処理部3と、警告信号生成部4とを備える。
【0042】
速度推定処理部1は、図2に示すように、第1入力データ調整部11と、静止物体検出部12Aと、オプティカルフロー取得処理部12と、推定速度取得部13と、周辺環境認識部14と、摩擦係数取得部15と、安全距離推定部16と、を備える。
【0043】
第1入力データ調整部11は、撮像部C1から出力される映像信号Vinを入力し、後段の機能部が要求する形式のデータとなるように、映像信号Vinに対して入力データ調整処理を実行し、当該調整処理後のデータを後段の機能部に出力する。具体的には、第1入力データ調整部11は、オプティカルフロー取得処理部12が、オプティカルフロー取得処理部12への入力データとして要求する形式のデータとなるように、映像信号Vinに対して入力データ調整処理を行い、当該調整処理後のデータを、データD11として、静止物体検出部12Aおよびオプティカルフロー取得処理部12に出力する。また、第1入力データ調整部11は、周辺環境認識部14が、周辺環境認識部14への入力データとして要求する形式のデータとなるように、映像信号Vinに対して入力データ調整処理を行い、当該調整処理後のデータを、データD12として、周辺環境認識部14に出力する。
【0044】
なお、第1入力データ調整部11で実行される入力データ調整処理としては、例えば、以下の処理が挙げられる。当該入力データ調整処理は、下記のいずれかの処理により実現されるものであってもよいし、下記の1または複数の処理の一部または全部を組み合わせることにより実現されるものであってもよい。
(1)後段の機能部が、当該機能部への入力データとして要求する形式のデータとなるように、映像信号Vinから、所定のフレーム数のフレーム画像を形成する映像信号(各フレーム画像を構成する画像信号の集合(要求されるフレーム数分の画像信号))を取得(抽出)する処理。
(2)後段の機能部が、当該機能部への入力データとして要求する形式のデータとなるように、映像信号Vinから、所定の特徴量を抽出した画像信号または映像信号(フレーム画像を形成する画像信号の集合)を取得する処理。
(3)後段の機能部が、当該機能部への入力データとして要求する形式のデータとなるように、映像信号Vinから、所定の画像サイズの画像信号または映像信号(フレーム画像を形成する画像信号の集合)を取得する処理。
(4)後段の機能部が、当該機能部への入力データとして要求する形式のデータとなるように、映像信号Vinから、所定の色空間の画像信号または映像信号(フレーム画像を形成する画像信号の集合)を取得する処理(カラー画像の階調を調整した画像信号または映像信号を取得する処理や、グレースケール画像や白黒2値画像に変換した画像信号または映像信号を取得する処理を含む)。
【0045】
静止物体検出部12Aは、第1入力データ調整部11から出力されるデータD11を入力し、データD11に対して、静止物体を検出する処理(静止物体検出処理)を実行する。そして、静止物体検出部12Aは、当該処理の結果データ(検出した静止物体の画像上の位置を特定するデータ)を含むデータを、データD_det_stとして、オプティカルフロー取得処理部12に出力する。なお、静止物体検出部12Aは、静止物体検出処理により、フレーム画像上において検出した静止物体がフレーム画像上からなくなるまで(見えなくなるまで)、検出した静止物体を追跡し続け、検出した静止物体がフレーム画像上からなくなった場合、静止物体検出処理を実行し、新たにフレーム画像上の静止物体を検出する。
【0046】
オプティカルフロー取得処理部12は、第1入力データ調整部11から出力されるデータD11と、静止物体検出部12Aから出力されるデータD_det_stとを入力し、データD_det_stに基づいて、データD11に対して、オプティカルフロー取得処理を実行し、当該処理結果データ(データD_det_stにより特定される静止物体のオプティカルフローのデータ、および、静止物体以外の物体、領域等のオプティカルフローのデータ)を取得する。そして、オプティカルフロー取得処理部12は、取得した処理結果データを含むデータを、データD11Aとして、推定速度取得部13に出力する。また、オプティカルフロー取得処理部12は、取得した処理結果データを含むデータを、データDo1_optflwとして、警告信号生成部4に出力する。
【0047】
推定速度取得部13は、オプティカルフロー取得処理部12から出力されるデータD11Aと、撮影パラメータ取得部C2から出力されるデータD_cam_prmとを入力する。推定速度取得部13は、データD_cam_prmに含まれる撮影パラメータを考慮し、当該データD11Aに含まれるオプティカルフロー取得処理結果データ(データD_det_stにより特定される静止物体のオプティカルフローのデータ)を用いた解析処理を行うことで、自車両の走行速度vを推定(取得)する。推定速度取得部13は、推定(取得)した自車両の走行速度vを含むデータを、データD11Bとして、安全距離推定部16に出力する。
【0048】
周辺環境認識部14は、第1入力データ調整部11から出力されるデータD12を入力し、当該データD12を用いて、自車両の周辺環境を認識する処理(例えば、自車両が存在する環境の天気、および、自車両が走行している道路表面の状況を認識する処理)を実行する。そして、周辺環境認識部14は、上記認識処理の結果を含むデータを、データD12Aとして、摩擦係数取得部15に出力する。
【0049】
摩擦係数取得部15は、周辺環境認識部14から出力されるデータD12Aを入力し、当該データD12Aに基づいて、自車両が走行している道路の摩擦係数μを推定(取得)する処理を行う。そして、摩擦係数取得部15は、推定(取得)した、自車両が走行している道路の摩擦係数μを含むデータを、データD12Bとして、安全距離推定部16に出力する。
【0050】
安全距離推定部16は、推定速度取得部13から出力されるデータD11Bと、摩擦係数取得部15から出力されるデータD12Bとを入力する。安全距離推定部16は、データD11Bに含まれる自車両の走行速度vと、データD12Bに含まれる、自車両が走行している道路の摩擦係数μとに基づいて、安全距離dsafeを取得する。そして、安全距離推定部16は、取得した安全距離dsafeと自車両の走行速度vとを含むデータを、データDo1として、警告信号生成部4に出力する。
【0051】
物体検出追跡処理部2は、図3に示すように、第2入力データ調整部21と、物体検出処理部22と、物体追跡処理部23とを備える。
【0052】
第2入力データ調整部21は、撮像部C1から出力される映像信号Vinを入力し、後段の機能部が要求する形式のデータとなるように、映像信号Vinに対して入力データ調整処理を実行し、当該調整処理後のデータを後段の機能部に出力する。具体的には、第2入力データ調整部21は、物体検出処理部22が、物体検出処理部22への入力データとして要求する形式のデータとなるように、映像信号Vinに対して入力データ調整処理を行い、当該調整処理後のデータを、データD21として、物体検出処理部22に出力する。
【0053】
なお、第2入力データ調整部21で実行される入力データ調整処理としては、例えば、以下の処理が挙げられる。当該入力データ調整処理は、下記のいずれかの処理により実現されるものであってもよいし、下記の1または複数の処理の一部または全部を組み合わせることにより実現されるものであってもよい。
(1)後段の機能部が、当該機能部への入力データとして要求する形式のデータとなるように、映像信号Vinから、所定のフレーム数のフレーム画像を形成する映像信号(各フレーム画像を構成する画像信号の集合(要求されるフレーム数分の画像信号))を取得(抽出)する処理。
(2)後段の機能部が、当該機能部への入力データとして要求する形式のデータとなるように、映像信号Vinから、所定の特徴量を抽出した画像信号または映像信号(フレーム画像を形成する画像信号の集合)を取得する処理。
(3)後段の機能部が、当該機能部への入力データとして要求する形式のデータとなるように、映像信号Vinから、所定の画像サイズの画像信号または映像信号(フレーム画像を形成する画像信号の集合)を取得する処理。
(4)後段の機能部が、当該機能部への入力データとして要求する形式のデータとなるように、映像信号Vinから、所定の色空間の画像信号または映像信号(フレーム画像を形成する画像信号の集合)を取得する処理(カラー画像の階調を調整した画像信号または映像信号を取得する処理や、グレースケール画像や白黒2値画像に変換した画像信号または映像信号を取得する処理を含む)。
【0054】
物体検出処理部22は、第2入力データ調整部21から出力されるデータD21を入力し、データD21に対して、物体検出処理を実行し、物体検出処理結果データを取得する。そして、物体検出処理部22は、取得した物体検出処理結果データを含むデータを、データD22として、物体追跡処理部23に出力する。
【0055】
物体追跡処理部23は、第2入力データ調整部21から出力されるデータD21と、物体検出処理部22から出力されるデータD22とを入力し、データD21およびデータD22を用いて物体追跡処理を実行し、物体追跡処理結果データを取得する。そして、物体追跡処理部23は、物体追跡処理結果データを含むデータを、データDo2として、警告信号生成部4に出力する。
【0056】
環境データ分析処理部3は、図4に示すように、第3入力データ調整部31と、レーン位置検出処理部32と、視覚注目位置検出処理部33と、を備える。
【0057】
第3入力データ調整部31は、撮像部C1から出力される映像信号Vinを入力し、後段の機能部が要求する形式のデータとなるように、映像信号Vinに対して入力データ調整処理を実行し、当該調整処理後のデータを後段の機能部に出力する。具体的には、第3入力データ調整部31は、レーン位置検出処理部32が、レーン位置検出処理部32への入力データとして要求する形式のデータとなるように、映像信号Vinに対して入力データ調整処理を行い、当該調整処理後のデータを、データD31として、レーン位置検出処理部32に出力する。また、第3入力データ調整部31は、視覚注目位置検出処理部33が、視覚注目位置検出処理部33への入力データとして要求する形式のデータとなるように、映像信号Vinに対して入力データ調整処理を行い、当該調整処理後のデータを、データD32として、視覚注目位置検出処理部33に出力する。
【0058】
なお、第3入力データ調整部31で実行される入力データ調整処理としては、例えば、以下の処理が挙げられる。当該入力データ調整処理は、下記のいずれかの処理により実現されるものであってもよいし、下記の1または複数の処理の一部または全部を組み合わせることにより実現されるものであってもよい。
(1)後段の機能部が、当該機能部への入力データとして要求する形式のデータとなるように、映像信号Vinから、所定のフレーム数のフレーム画像を形成する映像信号(各フレーム画像を構成する画像信号の集合(要求されるフレーム数分の画像信号))を取得(抽出)する処理。
(2)後段の機能部が、当該機能部への入力データとして要求する形式のデータとなるように、映像信号Vinから、所定の特徴量を抽出した画像信号または映像信号(フレーム画像を形成する画像信号の集合)を取得する処理。
(3)後段の機能部が、当該機能部への入力データとして要求する形式のデータとなるように、映像信号Vinから、所定の画像サイズの画像信号または映像信号(フレーム画像を形成する画像信号の集合)を取得する処理。
(4)後段の機能部が、当該機能部への入力データとして要求する形式のデータとなるように、映像信号Vinから、所定の色空間の画像信号または映像信号(フレーム画像を形成する画像信号の集合)を取得する処理(カラー画像の階調を調整した画像信号または映像信号を取得する処理や、グレースケール画像や白黒2値画像に変換した画像信号または映像信号を取得する処理を含む)。
【0059】
レーン位置検出処理部32は、第3入力データ調整部31から出力されるデータD31を入力し、データD31に対して、レーン位置検出処理を実行し、レーン位置検出処理結果データを取得する。そして、レーン位置検出処理部32は、取得したレーン位置検出処理結果データを含むデータを、データDo31として、警告信号生成部4に出力する。
【0060】
視覚注目位置検出処理部33は、第3入力データ調整部31から出力されるデータD32を入力し、データD32に対して、視覚注目位置検出処理を実行し、視覚注目位置検出処理結果データを取得する。そして、視覚注目位置検出処理部33は、取得した視覚注目位置検出処理結果データを含むデータを、データDo32として、警告信号生成部4に出力する。
【0061】
警告信号生成部4は、図5に示すように、自車両-物体間距離取得処理部40と、同一レーン検出処理部41と、警告信号生成処理部42と、を備える。
【0062】
自車両-物体間距離取得処理部40は、速度推定処理部1のオプティカルフロー取得処理部12から出力されるデータDo1_optflwと、物体検出追跡処理部2から出力されるデータDo2と、撮影パラメータ取得部C2から出力されるデータD_cam_prmとを入力し、データDo1_optflwと、データDo2と、データD_cam_prmとに基づいて、自車両-物体間距離取得処理を実行する。そして、自車両-物体間距離取得処理部は、当該処理結果を含むデータを、データD40として、同一レーン検出処理部41に出力する。
【0063】
同一レーン検出処理部41は、物体検出追跡処理部2から出力されるデータDo2と、環境データ分析処理部3から出力されるデータDo31およびDo32と、撮影パラメータ取得部C2から出力されるデータD_cam_prmと、自車両-物体間距離取得処理部40から出力されるデータD40とを入力する。同一レーン検出処理部41は、データDo2、Do31、Do32、データD40、および、データD_cam_prmを用いて、同一レーン検出処理を実行し、同一レーン検出処理結果データを取得する。そして、同一レーン検出処理部41は、取得した同一レーン検出処理結果データを含むデータを、データDo41として、警告信号生成処理部42に出力する。
【0064】
警告信号生成処理部42は、速度推定処理部1から出力されるデータDo1と、同一レーン検出処理部41から出力されるデータD41とを入力する。警告信号生成処理部42は、データDo1およびデータD41を用いて警告信号生成処理を実行し、警告信号を生成する。そして、警告信号生成処理部42は、生成した警告信号を含むデータを、データD_alarmとして警告合成映像取得部C3に出力する。
【0065】
警告合成映像取得部C3は、撮像部C1から出力される映像信号Vinと、警告信号生成装置100の警告信号生成部4から出力されるデータD_alarmとを入力する。警告合成映像取得部C3は、映像信号Vinに、データD_alarmに含まれる情報を合成し、合成映像を取得する処理を実行し、当該処理により取得された合成映像信号(合成映像を形成する映像信号)を、警告合成映像信号Voutとして出力する。
【0066】
<1.2:警告信号生成システムの動作>
以上のように構成された警告信号生成システム1000の動作について説明する。
【0067】
以下では、一例として、警告信号生成システム1000が自動車(走行可能な車両の一例)に搭載され、撮像部C1が当該自動車の前方の映像を撮影するために当該自動車の前方を撮影できる位置(当該自動車の所定の位置)に取り付けられたドライブレコーダの撮像部(ドライブレコーダーのカメラ)である場合について説明する。
【0068】
撮像部C1は、自動車(車両)の前方の映像(映像信号)を取得する。そして、撮像部C1は、取得した映像信号を映像信号Vin(所定のフレームレートでフレーム画像を形成することができる映像信号)として警告信号生成装置100に出力する。
【0069】
撮影パラメータ取得部C2は、撮像部C1の撮影パラメータ(撮像点(カメラの位置(例えば、撮像素子の撮像素子面の中心点))、焦点位置、焦点距離、画角、視野角、カメラ光学系の光軸の情報(光軸の向き等)等)を取得し、取得した撮像部C1の撮影パラメータを含むデータを、データD_cam_prmとして、警告信号生成装置100に出力する。なお、撮像部C1の撮影パラメータは、撮像部C1が自動車(車両)に取り付けられたときに、既知となる情報であるので、撮影パラメータ取得部C2は、予め、撮像部C1の撮影パラメータを記憶保持しているものであってもよい。
【0070】
速度推定処理部1の第1入力データ調整部11は、撮像部C1から出力される映像信号Vinを入力し、後段の機能部が要求する形式のデータとなるように、映像信号Vinに対して入力データ調整処理を実行し、当該調整処理後のデータを後段の機能部に出力する。具体的には、第1入力データ調整部11は、オプティカルフロー取得処理部12が、オプティカルフロー取得処理部12への入力データとして要求する形式のデータとなるように、映像信号Vinに対して入力データ調整処理を行い、当該調整処理後のデータを、データD11として、オプティカルフロー取得処理部12に出力する。また、第1入力データ調整部11は、周辺環境認識部14が、周辺環境認識部14への入力データとして要求する形式のデータとなるように、映像信号Vinに対して入力データ調整処理を行い、当該調整処理後のデータを、データD12として、静止物体検出部12Aおよびオプティカルフロー取得処理部12に出力する。
【0071】
静止物体検出部12Aは、第1入力データ調整部11から出力されるデータD11に対して、静止物体を検出する処理(静止物体検出処理)を実行する。具体的には、静止物体検出部12Aは、データD11から取得されるフレーム画像上において、静止物体(例えば、木、建物、道路表面等の静止している物体)を画像解析処理(例えば、物体検出処理)により検出する。そして、静止物体検出部12Aは、フレーム画像上において、検出した静止物体に相当する画像領域内の1点を追跡対象点Pに設定する。静止物体検出部12Aは、上記処理の結果データ(追跡対象点Pのフレーム画像上の位置を特定するデータ)を含むデータを、データD_det_stとして、オプティカルフロー取得処理部12に出力する。なお、静止物体検出部12Aは、静止物体検出処理により、フレーム画像上において検出した静止物体がフレーム画像上からなくなるまで(見えなくなるまで)、検出した静止物体(追跡対象点P)を追跡し続け、検出した静止物体がフレーム画像上からなくなった場合、静止物体検出処理を実行し、新たにフレーム画像上の静止物体を検出し、新たな追跡対象点Pを取得する。
【0072】
オプティカルフロー取得処理部12は、第1入力データ調整部11から出力されるデータD11と、静止物体検出部12Aから出力されるデータD_det_st(追跡対象点Pのフレーム画像上の位置を特定するデータ)とを用いて、オプティカルフロー取得処理を実行し、追跡対象点Pのオプティカルフローを取得する。
【0073】
具体的には、オプティカルフロー取得処理部12は、データD11から、時系列で連続するフレーム画像を取得し、当該時系列で連続するフレーム画像に対して、オプティカルフロー取得処理を実行し、画素ごとに動きベクトルを取得し、取得した動きベクトルに対応する値を画素値とするオプティカルフロー画像(各画素が動きベクトルに対応する値である画像)を取得する。そして、オプティカルフロー取得処理部12は、取得したオプティカルフロー画像から、追跡対象点Pのオプティカルフローを取得する。
【0074】
例えば、オプティカルフロー取得処理部12は、下記文献に開示されているモデル(RAFTモデル、RAFT: Recurrent All-Pairs Field Transforms for Optical Flow)を用いて、オプティカルフロー取得処理を実行する。
(文献A):Zachary Teed and Jia Deng, "RAFT: Recurrent All-Pairs Field Transforms for Optical Flow," 2020.
なお、撮像部C1から出力される映像信号Vinがn個(n:2以上の自然数)のフレーム画像から構成される場合、つまり、Vin={F,F,・・・,F}(F:k番目(k:自然数、1≦k≦n)のフレーム画像)である場合であって、オプティカルフロー取得処理部12が、RAFTモデル(映像信号(時系列に連続するフレーム画像)からオプティカルフローを取得する学習済みモデル)を用いて、オプティカルフロー取得処理を実行する場合、RAFTモデルの特徴エンコーダ(Feature encoder)には、時系列に連続する2つのフレーム画像(フレーム画像Fn-1,F)を入力し、RAFTモデルのコンテキストエンコーダ(Context encoder)には、1つのフレーム画像(フレーム画像Fn-1)を入力し、RAFTモデルから出力されるオプティカルフロー(オプティカルフロー画像)を取得する。すなわち、オプティカルフロー取得処理部12は、下記数式に相当する処理(RAFTモデルを用いて、オプティカルフロー取得処理)を実行し、オプティカルフローOFを取得する。
【数1】
OF:RAFTモデルにより取得されるオプティカルフロー
RAFT():RAFTモデルにより実行される処理に相当する関数
そして、オプティカルフロー取得処理部12は、取得したオプティカルフロー画像(上記処理により取得される各画素の画素値をオプティカルフローの値(各画素に対応する点の第n-1フレームから第nフレームまでの動きベクトルの値)とした画像)から、追跡対象点Pのオプティカルフロー(追跡対象点Pの第n-1フレームから第nフレームまでの動きベクトル(フレーム画像上の追跡対象点Pのx方向の移動量およびy方向の移動量))を取得する。
【0075】
そして、オプティカルフロー取得処理部12は、上記処理により取得したデータ(追跡対象点Pのオプティカルフロー)を含むデータを、データD11Aとして、推定速度取得部13に出力する。
【0076】
また、オプティカルフロー取得処理部12は、上記処理により取得したデータ(データD_det_stにより特定される静止物体のオプティカルフローのデータ、および、静止物体以外の物体、領域等のオプティカルフローのデータ(例えば、オプティカルフロー画像データ))を、データDo1_optflwとして、警告信号生成部4に出力する。
【0077】
推定速度取得部13は、オプティカルフロー取得処理部12から出力されるデータD11Aと、撮影パラメータ取得部C2から出力されるデータD_cam_prmとを入力する。推定速度取得部13は、データD_cam_prmに含まれる撮影パラメータを考慮し、当該データD11Aに含まれるオプティカルフローを用いた解析処理を行うことで、自車両の走行速度vを推定(取得)する。
【0078】
具体的には、推定速度取得部13は、データD11Aに含まれるオプティカルフローを用いて、以下の処理を実行することで、自動車(自車両)の相対速度v(p,s)を取得する。
【0079】
なお、静止物体検出部12Aは、静止物体検出処理により、フレーム画像上において検出した静止物体がフレーム画像上からなくなるまで(見えなくなるまで)、検出した静止物体を追跡し続け、検出した静止物体がフレーム画像上からなくなった場合、静止物体検出処理を実行し、新たにフレーム画像上の静止物体を検出する。
【0080】
ここで、撮像部C1により取得された映像信号Vinにおいて、第kフレーム画像(k:自然数)が取得された時刻から第k+Mフレーム画像(M:自然数)が取得された時刻までの期間において、静止物体検出部12Aにより検出された静止物体(追跡対象点P)がフレーム画像上に存在する場合(一例)の自車両の速度を推定(取得)する処理について、説明する。なお、撮像部C1により取得された映像信号VinのフレームレートをN[fps]とし、また、第i-1フレーム画像が取得された時刻から第iフレーム画像が取得された時刻までの追跡対象点Pのフレーム画像上のx方向の移動量をuとし、y方向の移動量をvとする。
【0081】
推定速度取得部13は、下記数式に相当する処理を行うことで、自車両の相対速度v(p,s)(フレーム画像上における静止物体の移動量(単位は画素数)から導出される速度(1秒間の移動量))を取得する。
【数2】
N:フレームレート(fps)
M:静止物体検出部12Aにより検出された静止物体(追跡対象点P)がフレーム画像上に存在するフレーム数
:第i-1フレーム画像が取得された時刻から第iフレーム画像が取得された時刻までの追跡対象点Pのフレーム画像上のx方向の移動量(単位は、画素数)
:第i-1フレーム画像が取得された時刻から第iフレーム画像が取得された時刻までの追跡対象点Pのフレーム画像上のy方向の移動量(単位は、画素数)
なお、フレームレートN[fps]は、撮像部C1で映像信号Vinを取得するときのフレームレートであり、データD_cam_prnに含められているものとする。
【0082】
そして、推定速度取得部13は、下記数式に相当する処理を実行することで、上記により取得した自車両の相対速度v(p,s)を、自車両の速度(推定速度)(単位はkm/h)に変換する。
【数3】
CR:フレーム画像上の距離(単位は、画素数)を実際の距離に変換するための係数であり、撮像部C1の撮影パラメータ(撮像点(カメラの位置(例えば、撮像素子の撮像素子面の中心点))、焦点位置、焦点距離、画角、視野角、カメラ光学系の光軸の情報(光軸の向き等)等)を考慮して決定される係数(変換係数)
なお、係数CRは、実サイズが既知である物体(静止物体)(フレーム画像上で検出された実サイズが既知である物体(静止物体))に基づいて、あるいは、撮像部C1の焦点距離および撮像部C1の位置に基づいて、自動的に算出されるものであってもよい。実サイズが既知である物体(静止物体)としては、例えば、道路標識、道路のフェンス、消火栓等が考えられる。
【0083】
また、推定速度取得部13は、上記処理により取得(推定)した自動車(車両)の実速度v(km,h)(第nフレーム画像が取得されたときに上記処理により取得(推定)される自動車(車両)の実速度をv (km)(単位はkm/h)と表記する)を分速(単位はm/s)に単位変換した自動車(車両)の実速度v (m)(これを単に「v」と表記する)(速度v (km)を単位変換した速度)を取得する。
【0084】
なお、推定速度取得部13は、上記(数式2)の処理の代わりに、下記数式に相当する処理を行うことで、自車両の相対速度v(p,s)を取得するようにしてもよい。
【数4】
F(v (p,s),pos(P,i)):第iフレーム画像が取得された時刻における追跡対象点Pのフレーム画像上の速度(相対速度)v (p,s)を、第iフレーム画像が取得された時刻における追跡対象点Pのフレーム画像上の位置pos(P,i)、および、撮像部C1の撮影パラメータ(撮像点(カメラの位置(例えば、撮像素子の撮像素子面の中心点))、焦点位置、焦点距離、画角、視野角、カメラ光学系の光軸の情報(光軸の向き等)等)に基づいて、補正した速度(フレーム画像上の速度(相対速度))を取得する関数
pos(P,i):第iフレーム画像が取得された時刻における追跡対象点Pのフレーム画像上の位置を取得する関数
なお、上記関数F()は、撮像部C1の撮影パラメータに基づいて、第iフレーム画像が取得された時刻における追跡対象点Pのフレーム画像上の速度(相対速度)v (p,s)を修正する関数である。例えば、物体の速度が同一である場合であっても、撮像部C1に近い位置にある物体のオプティカルフロー(フレーム画像上の一定時間における移動距離)は大きくなり、撮像部C1に遠い位置にある物体のオプティカルフローは小さくなる。したがって、上記関数F()を、物体のフレーム画像上の位置に応じて、撮像部C1の撮影パラメータに基づき、オプティカルフローで取得される画像上の距離(相対速度)を補正する関数とすることで、物体の速度が同一である場合、撮像部C1に近い位置にある物体の相対速度(フレーム画像上の速度)と、撮像部C1に遠い位置にある物体の相対速度とを同一(あるいは略同一)とすることができる。
【0085】
ここで、関数F()の実現方法(一例)について、説明する。
【0086】
撮像部C1の内部カメラ行列Kが下記数式で表されるものとする。また、撮像部C1が設置されている3次元空間において、所定の位置を原点とするワールド座標系(互いに直交するX軸、Y軸、Z軸により規定される3次元空間)、および、撮像部C1の位置を原点とするカメラ座標系(互いに直交するx軸(ピッチ軸)、y軸(ヨー軸)、z軸(ロール軸)により規定される3次元空間)が規定されているものとする。なお、ワールド座標系において、XZ平面は、水平面(自車両が走行している水平面(例えば、道路面))と一致(または略一致)し、Z軸正方向が自車両の進行する方向(前方方向)と一致(または略一致)するものとする。図6に、カメラ座標系(図6中の座標系SysCord_camera)とワールド座標系(図6中の座標系SysCord_world)の設定の一例を示す。なお、図6は、一例であり、カメラ座標系において、x軸および/またはy軸を、その正方向が図6で示した方向と反対の方向となる軸に設定してもよく、また、ワールド座標系において、X軸および/またはY軸を、その正方向が図6で示した方向と反対の方向となる軸に設定してもよい。
【数5】
f:焦点距離(撮像部C1の焦点距離)
=0.5×W(撮像部C1の前方の仮想平面(フレーム)であって、撮像部C1から距離が焦点距離だけ離れた位置にある仮想平面(撮像部C1により取得されるフレーム画像に対応)上のx方向のオフセット)
=0.5×H(撮像部C1の前方の仮想平面(フレーム)であって、撮像部C1から距離が焦点距離だけ離れた位置にある仮想平面(撮像部C1により取得されるフレーム画像)上のy方向のオフセット)
W:撮像部C1のフレーム(焦点距離だけ離れた位置の仮想平面)の幅(フレームの横方向のサイズ)
H:撮像部C1のフレーム(焦点距離だけ離れた位置の仮想平面)の高さ(フレームの縦方向のサイズ)
AFOV_pan:撮像部C1(カメラ)の水平方向の画角(撮像部C1(カメラ)のフレーム(焦点距離だけ離れた位置の仮想平面)の左端から右端までの画角)
AFOV_tilt:撮像部C1(カメラ)の垂直方向の画角(撮像部C1(カメラ)のフレーム(焦点距離だけ離れた位置の仮想平面)の上辺から下辺までの画角)
s:軸歪み係数(撮像部C1により取得されるフレーム画像に剪断歪みを発生させる光軸の歪み度合いを示す値)
なお、上記データの一部または全部は、撮像部C1において採用したカメラの仕様から(例えば、EXIF(Exchangeable image file format)ファイルから)取得できる場合、当該でデータを採用するようにしてもよい。
【0087】
ワールド座標空間の点(X,Y,Z)を、フレーム画像(2次元画像)上の点(u,v)に投影するには、下記数式に相当する処理を実行すればよい。
【数6】
σ:係数
(R|t):外部カメラ行列(ワールド座標系をカメラ座標系に変換するための行列)
R:回転行列(回転操作を行うための行列)
t:並進行列(並進操作を行うための行列)
(X,Y,Z):ワールド座標空間(3次元空間)のX座標(X)、Y座標(Y)、およびZ座標(Z
(u,v):フレーム画像上のx座標(u)およびy座標(v)
ここで、消失点について、ワールド座標系をカメラ座標系に変換する処理について考える。上記(数式6)は、下記のように変形することができる。なお、係数σは、ワールド座標系の座標を表す行列の各要素をZで除算した分の変動を吸収した係数であるものとする。
【数7】
消失点のワールド座標系のZ軸上の位置は、無限遠であるので、Z→∞とすると、上式は、下記数式のようになる。
【数8】
=(u,v,1)
:消失点のフレーム画像上のx座標
:消失点のフレーム画像上のy座標
上記数式から、下記数式が導かれる。
【数9】
||x||:xのノルム
なお、行列の右上の「-1」は、逆行列であることを示し、行列の右上の「T」は、転置行列であることを示している。
【0088】
消失点のフレーム画像上の座標(u,v)については、例えば、図7に示すように、フレーム画像上において、2つの異なる車線(レーンの境界線)の交点(図7の点Pvanishに相当する点)を求め、求めた交点のフレーム画像上の座標を、消失点のフレーム画像上の座標(u,v)に設定すればよい。なお、他のフレーム画像から消失点を取得する手法を用いて、消失点のフレーム画像上の座標(u,v)を取得するようにしてもよい。
【0089】
また、外部カメラ行列(R|t)を構成する回転行列Rは、下記を満たす。
【数10】
α:撮像部C1(カメラ)のヨー角(カメラ座標系のy軸(ヨー軸)を回転軸とする回転角)(α=θyaw
β:撮像部C1(カメラ)のピッチ角(カメラ座標系のx軸(ピッチ軸)を回転軸とする回転角)(β=θpitch
γ:撮像部C1(カメラ)のロール角(カメラ座標系のz軸(ロール軸)を回転軸とする回転角)
したがって、(数式9)、(数式10)より、撮像部C1(カメラ)のヨー角α、および、ピッチ角βを算出することができる。つまり、
xz=-cos(α)sin(β)
yz=sin(α)
zz=cos(α)cos(β)
であるので、下記数式により撮像部C1(カメラ)のヨー角α、および、ピッチ角βを算出することができる。
【数11】
上記により、撮像部C1(カメラ)のヨー角α、および、ピッチ角βが求められるので、外部カメラ行列(R|t)を特定することができる。
【0090】
したがって、実空間(実際の3次元空間)内の点の3次元座標(X,Y,Z)(ワールド座標系の3次元空間座標)に対応する撮像部C1で取得されるフレーム画像上の点の2次元座標(u,v)を、下記数式により取得することができる。
【数12】
そして、下記数式に相当する処理を行うことで、撮像部C1により取得されるフレーム画像上の点(2次元座標)(u,v)から、当該点の実空間(実際の3次元空間)内の位置(X,Y,Z)(ワールド座標空間(3次元空間)内の点の位置)を取得することができる。
【数13】
つまり、関数F()(入力をフレーム画像上の2次元座標(u,v)とし、出力をワールド座標系の3次元座標(X,Y,Z)とする関数)を、上記処理を行う関数とすることで、関数F()を実現することができる。なお、上記では、(u,v)を2次元座標として説明したが、uをフレーム画像上のx軸方向の速度とし、vをフレーム画像上のy軸方向の速度とし、上記処理と同様の処理を行うことで、3次元空間(ワールド座標空間)における速度(3次元の速度ベクトル)を取得することができる。
【0091】
図8に、撮像部C1により取得されたフレーム画像に対して、関数F()による処理を施すことで取得される変換後の画像を示す。つまり、図8の右図は、撮像部C1により取得されたフレーム画像に対して、関数F()による処理を施すことで取得される変換後の画像であって、3次元空間(ワールド座標空間)の上方(Y軸方向)から見た場合の画像(ワールド座標空間のXZ平面への投影画像)を模式的に示している。図8から分かるように、フレーム画像上では、同一距離(同一速度)の車線等が異なる長さで表示されているが、関数F()による変換後の画像(ワールド座標系のXY平面への投影画像)では、同一距離(同一速度)の車線等が同一の長さで表示されている。
【0092】
推定速度取得部13は、上記処理により推定(取得)した自車両の走行速度v(=v (m))を含むデータを、データD11Bとして、安全距離推定部16に出力する。
【0093】
周辺環境認識部14は、第1入力データ調整部11から出力されるデータD12を入力し、当該データD12を用いて、自車両の周辺環境を認識する処理(例えば、自車両が存在する環境の天気、および、自車両が走行している道路表面の状況を認識する処理)を実行する。
【0094】
具体的には、周辺環境認識部14は、画像信号(1フレーム画像)あるいは映像信号(時系列に連続するフレーム画像)から自動車(自車両)の周辺環境の天気、および、自車両が走行している道路表面の状況を示すラベルを出力する学習済みモデル(例えば、CNN(Convolution Neural Network)により実現される学習済みモデル(クラス分類を行うモデル))を用いて、自車両の周辺環境を認識する処理を実行する。
【0095】
例えば、周辺環境認識部14は、下記文献に開示されているモデル(CNN(Convolution Neural Network)により周辺環境の天気、および、道路表面の状況をクラス分類により認識知るモデル)を用いて、自車両の周辺環境を認識する処理を実行する。
(文献B):Md Nasim Khan et.al., "Weather and surface condition detection based on road-side webcams: Application of pre-trained Convolutional Neural Network," International Journal of Transportation Science and Technology
そして、周辺環境認識部14は、上記認識処理の結果(自動車(自車両)の周辺環境の天気、および、自車両が走行している道路表面の状況を示すラベル(クラス分類結果)の情報)を含むデータを、データD12Aとして、摩擦係数取得部15に出力する。
【0096】
摩擦係数取得部15は、周辺環境認識部14から出力されるデータD12Aを入力し、当該データD12Aに基づいて、自車両が走行している道路の摩擦係数μを推定(取得)する処理を行う(例えば、天気が雨であり、自動車が走行している道路が濡れていると判断される場合、道路の摩擦係数を、天気が晴れで、自動車が走行している道路が乾いていると判断される場合の摩擦係数よりも小さい値とする)。なお、摩擦係数取得部15は、自動車(自車両)の周辺環境の天気、および、自車両が走行している道路表面の状況を示すラベル(クラス分類結果)に応じて決定される摩擦係数μを、例えば、LUT(ルックアップテーブル)で記憶保持していてもよい。
【0097】
そして、摩擦係数取得部15は、上記により推定(取得)した、自車両が走行している道路の摩擦係数μを含むデータを、データD12Bとして、安全距離推定部16に出力する。
【0098】
安全距離推定部16は、推定速度取得部13から出力されるデータD11Bと、摩擦係数取得部15から出力されるデータD12Bとを入力する。安全距離推定部16は、データD11Bに含まれる自車両の走行速度vと、データD12Bに含まれる、自車両が走行している道路の摩擦係数μとに基づいて、安全距離dsafeを取得する。
【0099】
具体的には、安全距離推定部16は、制動距離(stop distance)dstopを、下記数式に相当する処理を実行することで、取得する。なお、安全距離推定部16は、自動車(自車両)の速度vは、データD11Bに含まれる速度v(==v (m))であり、摩擦係数μは、データD12Bに含まれる摩擦係数μとして、下記数式に相当する処理を実行する。
【数14】
stop:制動距離(m)
v:自動車(自車両)の速度(m/s)
μ:摩擦係数
g:重力加速度
さらに、安全距離推定部16は、上記で取得した制動距離dstopを用いて、
safe=dstop+dthink+dcs
think:空走距離(運転者が危険を感じてから(障害物の認知)、ブレーキを踏み、ブレーキが実際に利き始めるまでの間に車が走る距離)(例えば、自動車の速度が10m/s速くなるごとに、3mを加算した距離とする)
cs:厳格安全距離(critical safety distance)(dcsは、2~5m(最低2m))
に相当する処理を実行することで、安全距離dsafeを取得する。
【0100】
なお、空走距離dthinkは、データD11Bに含まれる自車両の速度v(=v (m))に基づいて、決定される(自車両の速度vが大きな値である程、空走距離dthinkは、大きな値となるように決定される)。
【0101】
そして、安全距離推定部16は、上記により取得した安全距離dsafeと自車両の走行速度vとを含むデータを、データDo1として、警告信号生成部4に出力する。
【0102】
物体検出追跡処理部2の第2入力データ調整部21は、撮像部C1から出力される映像信号Vinを入力し、後段の機能部が要求する形式のデータとなるように、映像信号Vinに対して入力データ調整処理を実行し、当該調整処理後のデータを後段の機能部に出力する。具体的には、第2入力データ調整部21は、物体検出処理部22が、物体検出処理部22への入力データとして要求する形式のデータとなるように、映像信号Vinに対して入力データ調整処理を行い、当該調整処理後のデータを、データD21として、物体検出処理部22に出力する。
【0103】
物体検出処理部22は、第2入力データ調整部21から出力されるデータD21を入力し、データD21に対して、物体検出処理を実行する。
【0104】
具体的には、物体検出処理部22は、データD21から、フレーム画像(映像信号Vinを構成するフレーム画像)を取得(抽出)し、当該フレーム画像に対して、物体検出処理を実行し、入力されたフレーム画像内において検出された物体の種類を示すラベルと、検出された物体を含むバウンディングボックス(検出された物体が含まれるフレーム画像上での画像領域)を特定する情報とを、物体検出処理結果データとして、取得する。
【0105】
例えば、物体検出処理部22は、下記文献(プログラムを公開するHPのURL)に開示されているモデル(YOLOv5モデル、YOLO: You Only Look Once)(映像信号またはフレーム画像信号から、物体検出結果データを取得する学習済みモデル)を用いて、物体検出処理を実行する。
(文献C):https://github.com/ultralytics/yolov5
なお、物体検出処理により検出されたi番目(i:自然数)の物体についてのデータを
(x(i),y(i),w(i),h(i),Lavel(i)
(i):検出されたi番目の物体のバウンディングボックスの重心のx座標
(i):検出されたi番目の物体のバウンディングボックスの重心のy座標
(i):検出されたi番目の物体のバウンディングボックスの幅(横方向の長さ)
(i):検出されたi番目の物体のバウンディングボックスの高さ(縦方向の長さ)
Lavel(i):検出されたi番目の物体の種別を示すラベル(例えば、人、自動車等を示すラベル)
と表す。
【0106】
そして、物体検出処理部22は、取得した物体検出処理結果データ(検出された物体の数分のデータ(x(i),y(i),w(i),h(i),Lavel(i)))を含むデータを、データD22として、物体追跡処理部23に出力する。
【0107】
物体追跡処理部23は、第2入力データ調整部21から出力されるデータD21と、物体検出処理部22から出力されるデータD22を入力し、データD21およびデータD22を用いて物体追跡処理を実行する。
【0108】
具体的には、物体追跡処理部23は、データD21から、フレーム画像(映像信号Vinを構成するフレーム画像)を取得(抽出)し、また、データD22から、物体検出処理結果データ(検出された物体の数分のデータ(x(i),y(i),w(i),h(i),Lavel(i)))を取得し、時系列に連続するフレーム画像(フレーム画像間)において、物体検出処理部22により検出された物体(複数の物体であってもよい)がどこへ移動するかを(例えば、カルマンフィルタにより)予測することで物体追跡処理を実行する。これにより、物体追跡処理部23は、物体追跡処理結果データを取得する。
【0109】
例えば、物体追跡処理部23は、下記文献に開示されているモデル(SORTモデル、SORT: Simple Online and Realtime Tracking)(映像信号またはフレーム画像信号から、物体追跡結果データを取得する学習済みモデル)を用いて、物体追跡処理を実行する。
(文献D):Nicolai Wojke, Alex Bewley, Dietrich Paulus, "SIMPLE ONLINE AND REALTIME TRACKING WITH A DEEP ASSOCIATION METRIC." In 2017 IEEE International Conference on Image Processing (ICIP), pages 3645-3649, 2017.
上記SORTモデルを用いる場合、物体追跡処理部23は、
(x’(i),y’(i),w’(i),h’(i),ψ)=DeepSORT(x(i),y(i),w(i),h(i)
DeepSORT():SORTモデルにより実行される処理に相当する関数
x’(i):物体追跡処理により取得されたi番目の物体のバウンディングボックスの重心のx座標
y’(i):物体追跡処理により取得されたi番目の物体のバウンディングボックスの重心のy座標
w’(i):物体追跡処理により取得されたi番目の物体のバウンディングボックスの幅(横方向の長さ)
h’(i):物体追跡処理により取得されたi番目の物体のバウンディングボックスの高さ(縦方向の長さ)
ψ:オブジェクト番号
に相当する処理を実行することにより、物体追跡処理結果データ(追跡された物体の数分のデータ(x’(i),y’(i),w’(i),h’(i),ψ))を取得する。そして、物体追跡処理部23は、物体追跡処理結果データを含むデータを、データDo2として、警告信号生成部4に出力する。
【0110】
環境データ分析処理部3の第3入力データ調整部31は、撮像部C1から出力される映像信号Vinを入力し、後段の機能部が要求する形式のデータとなるように、映像信号Vinに対して入力データ調整処理を実行し、当該調整処理後のデータを後段の機能部に出力する。具体的には、第3入力データ調整部31は、レーン位置検出処理部32が、レーン位置検出処理部32への入力データとして要求する形式のデータとなるように、映像信号Vinに対して入力データ調整処理を行い、当該調整処理後のデータを、データD31として、レーン位置検出処理部32に出力する。また、第3入力データ調整部31は、視覚注目位置検出処理部33が、視覚注目位置検出処理部33への入力データとして要求する形式のデータとなるように、映像信号Vinに対して入力データ調整処理を行い、当該調整処理後のデータを、データD32として、視覚注目位置検出処理部33に出力する。
【0111】
レーン位置検出処理部32は、第3入力データ調整部31から出力されるデータD31を入力し、データD31に対して、レーン位置検出処理を実行する。
【0112】
具体的には、レーン位置検出処理部32は、データD31から、フレーム画像(映像信号Vinを構成するフレーム画像)を取得(抽出)し、当該フレーム画像に対して、レーン位置検出処理を実行し、入力されたフレーム画像内において検出されたレーン境界線の位置、および、レーン(走行可能領域)に相当する画像領域(セグメント化された画像領域)を特定する情報を、レーン位置検出処理結果データとして、取得する。
【0113】
例えば、レーン位置検出処理部32は、下記文献に開示されているモデル(YOLOPモデル、YOLO: You Only Look Once)(映像信号またはフレーム画像信号から、セグメンテーションを行い、レーン境界線に相当するセグメント、および、レーン(走行可能領域)に相当するセグメントを取得する学習済みモデル)を用いて、レーン位置検出処理を実行する。
(文献E):Dong Wu, Manwen Liao, Weitian Zhang, Xinggang Wang, Xiang Bai, Wenqing Cheng, and Wenyu Liu, "YOLOP: You Only Look Once for Panoptic Driving Perception," 2021.
そして、レーン位置検出処理部32は、上記処理により取得したレーン位置検出処理結果データ(フレーム画像内において検出されたレーン境界線の位置、および、レーン(走行可能領域)に相当する画像領域(セグメント化された画像領域)を特定する情報)を含むデータを、データDo31として、警告信号生成部4に出力する。
【0114】
視覚注目位置検出処理部33は、第3入力データ調整部31から出力されるデータD32を入力し、データD32に対して、視覚注目位置検出処理を実行する。
【0115】
具体的には、視覚注目位置検出処理部33は、データD31から、時系列に連続するフレーム画像(映像信号Vinを構成するフレーム画像)を取得(抽出)し、当該フレーム画像に対して、視覚注目位置検出処理を実行し、入力されたフレーム画像内において検出された視覚注目位置に相当する画像領域を特定する情報を、視覚注目位置検出処理結果データとして、取得する。
【0116】
例えば、視覚注目位置検出処理部33は、下記文献に開示されているモデル(TASED-Netモデル、TASED-Net: Temporally-Aggregating Spatial Encoder-Decoder Network)(映像信号または複数のフレーム画像信号から、顕著な特徴点(saliency)(例えば、突発的に出現した物体)に相当する画像領域を特定したフレーム画像(グレースケール画像)を取得する学習済みモデル)を用いて、視覚注目位置検出処理を実行する。
(文献F):Kyle Min and Jason J Corso. "TASED-Net: Temporally-Aggregating Spatial Encoder-Decoder Network for Video Saliency Detection." In Proceedings of the IEEE International Conference on Computer Vision, pages 2394-2403, 2019.
なお、TASED-Netモデルにより取得される顕著な特徴点(saliency)に相当する映像(フレーム画像)上(撮像部C1により取得された映像(フレーム画像))の画像領域は、自動車を運転中にドライバーが視覚的に注目している位置と近似するため、視覚注目位置検出処理部33は、TASED-Netモデルにより取得される顕著な特徴点(saliency)に相当する画像領域を、自動車を運転中にドライバーが視覚的に注目している位置(領域)とみなすことができる(近似することができる)。これにより、視覚注目位置検出処理部33は、自動車を運転中にドライバーが視覚的に注目している位置(領域)を取得することができる。
【0117】
そして、視覚注目位置検出処理部33は、上記処理により取得した視覚注目位置検出処理結果データ(フレーム画像上において、顕著な特徴点(saliency)に相当する画像領域を特定したフレーム画像)を含むデータを、データDo32として、警告信号生成部4に出力する。
【0118】
警告信号生成部4の自車両-物体間距離取得処理部40は、速度推定処理部1のオプティカルフロー取得処理部12から出力されるデータDo1_optflwと、物体検出追跡処理部2から出力されるデータDo2と入力し、データDo1_optflwと、データDo2と、データD_cam_prmとに基づいて、自車両-物体間距離取得処理を実行する。
【0119】
具体的には、以下の処理が実行される。説明便宜のため、物体OBJが時刻tに検出されており、時刻t(>t)に、自車両に近づく場合(自車両と物体OBJとの相対距離が小さくなる場合)について、図9を参照しながら説明する。
【0120】
図9は、撮像部C1の撮影パラメータを考慮し、撮像部C1により取得されたフレーム画像を解析することで、検出された物体OBJまでの距離を取得(推定)する処理を説明するための図である。図9において、撮像部C1の光学系(1または複数のレンズからなる光学系)を1つのレンズとみなしたレンズ(仮想の単一レンズ)レンズLensと、撮像部C1の光学系(レンズLens)の光軸opt_axと、時刻tの物体OBJ(t)と、時刻tの物体OBJ(t)と、撮像部C1の撮像素子(例えば、CMOS型イメージセンサ)の撮像素子面の物体OBJ(t)の結像Img(OBJ(t))および物体OBJ(t)の結像Img(OBJ(t))とを模式的に示した図である。また、図9に示した変数は、以下の内容を示している。
h:物体OBJの大きさ(サイズ)
f:レンズLens1の主点から撮像部C1の撮像素子までの光軸opt_ax上の距離
a:撮像部C1の撮像素子面の物体OBJ(t)の結像Img(OBJ(t))の大きさ(サイズ)
b:撮像部C1の撮像素子面の物体OBJ(t)の結像Img(OBJ(t))の大きさ(サイズ)
θ:レンズLens1の主点と物体OBJ(t)の光軸opt_axから遠い方の端点とを結ぶ直線と、光軸opt_axとのなす角度
θ:レンズLens1の主点と物体OBJ(t)の光軸opt_axから遠い方の端点とを結ぶ直線と、光軸opt_axとのなす角度
pos(CMOS_ImgSns):撮像部C1の撮像素子面の光軸opt_ax上の位置
pos(Lens1):撮像部C1のレンズLens1の主点の光軸opt_ax上の位置(なお、この位置を自車両の位置(pos(Ego-car))とみなす)
pos(OBJ(t)):時刻tにおける物体OBJ(t)の光軸opt_ax上の位置
pos(OBJ(t)):時刻tにおける物体OBJ(t)の光軸opt_ax上の位置
f:レンズLens1の主点と撮像部C1の撮像素子面との間の光軸opt_ax方向の距離
m:時刻tにおける物体OBJ(t)と時刻tにおける物体OBJ(t)との間の光軸opt_ax方向の距離
d:レンズLens1の主点と時刻tにおける物体OBJ(t)との間の光軸opt_ax方向の距離
:レンズLens1の主点と時刻tにおける物体OBJ(t)との間の光軸opt_ax方向の距離
(1)自車両-物体間距離取得処理部40は、時刻tにおいて、フレーム画像上の位置(xa,ya)にある物体OBJ(t)のサイズ(大きさ)a(撮像素子上の大きさに相当)(サイズaは、画素数による大きさ)を取得する。また、自車両-物体間距離取得処理部40は、時刻tにおいて、フレーム画像上の位置(xb,yb)にある物体OBJ(t)のサイズ(大きさ)b(撮像素子上の大きさに相当)(サイズbは、画素数による大きさ)を取得する。なお、自車両-物体間距離取得処理部40は、例えば、データDo2から、フレーム画像を取得し、上記処理を行う。
(2)自車両-物体間距離取得処理部40は、データDo1_optflw(RAFTモデルにより取得されたオプティカルフローのデータ)を用いて、時刻tから時刻tにおいて、フレーム画像上の位置(xa,ya)にある物体OBJ(t)と、フレーム画像上の位置(xb,yb)にある物体OBJ(t)との距離dp(画素単位の距離)を取得する。
(3)自車両-物体間距離取得処理部40は、推定速度取得部13で実行される処理(速度推定処理)と同様の処理を行い、(2)で取得した距離dp(画素単位の距離)を実距離m(メートル単位の距離)に変換する。
(4)自車両-物体間距離取得処理部40は、
d=m/(1-(a/b))
=d-m
に相当する処理を実行し、自車両から時刻tの物体OBJ(t)までの距離dと、自車両から時刻tの物体OBJ(t)までの距離dとを取得する。
【0121】
なお、時刻tの次の時刻t3(時刻tの次に自車両-物体間距離取得処理が実行される時刻t3)以降の時刻では、自車両-物体間距離取得処理部40は、1つ前の時刻で取得された距離dをdとして、すなわち、
d←d
とし、
=d-m
に相当する処理を実行することで、自車両から時刻tの物体OBJ(t)までの距離dと、自車両から時刻tk+1の物体OBJ(tk+2)までの距離dとを取得する。
【0122】
そして、自車両-物体間距離取得処理部40は、上記処理を、全ての検出された物体(物体検出追跡処理部2で検出された物体)について、行うことで、自車両から全ての検出された物体までの距離を取得する。
【0123】
自車両-物体間距離取得処理部40は、上記処理により取得した自車両から全ての検出された物体までの距離を含むデータを、データD40として、同一レーン検出処理部41に出力する。
【0124】
警告信号生成部4の同一レーン検出処理部41は、物体検出追跡処理部2から出力されるデータDo2と、環境データ分析処理部3から出力されるデータDo31およびDo32と、自車両-物体間距離取得処理部40から出力されるデータD40とを入力する。同一レーン検出処理部41は、データDo2、Do31、Do32、および、データD40を用いて、同一レーン検出処理を実行し、同一レーン検出処理結果データを取得する。
【0125】
具体的には、以下の処理が実行される。なお、物体検出追跡処理部2により取得されたデータDo2、および、環境データ分析処理部3により取得されたデータDo31およびDo32は、撮像部C1により取得された映像信号Vinを構成するフレーム画像(映像信号Vinにより形成されるフレーム画像)を基準としたデータであるものとする(例えば、データが座標である場合、当該座標は、映像信号Vinを構成するフレーム画像と同じサイズのフレーム画像上の座標であるものとする)。なお、物体検出追跡処理部2により取得されたデータDo2、および、環境データ分析処理部3により取得されたデータDo31およびDo32は、撮像部C1により取得された映像信号Vinを構成するフレーム画像(映像信号Vinにより形成されるフレーム画像)を拡大・縮小した画像を基準とするものであってもよいが、その場合、拡大率・縮小率を考慮した処理を行うようにすればよい。
【0126】
同一レーン検出処理部41は、データDo31から取得されるレーン(走行可能領域)に相当する画像領域(フレーム画像上の画像領域)を特定するとともに、撮影パラメータD_cam_prm(撮像点(カメラの位置(例えば、撮像素子の撮像素子面の中心点))、焦点位置、焦点距離、画角、視野角、カメラ光学系の光軸の情報(光軸の向き等)等)を考慮し、撮像部C1により取得された映像信号Vinを構成するフレーム画像(映像信号Vinにより形成されるフレーム画像)と、撮像部C1に自動車(自車両)の取り付け位置とに基づいて、自動車(自車両)が走行しているレーンを特定する(フレーム画像上で特定する)。
【0127】
次に、同一レーン検出処理部41は、上記処理により、自動車(自車両)が走行していると判断したレーンに相当する画像領域(フレーム画像上の画像領域)内に存在する物体を検出する。なお、同一レーン検出処理部41は、物体検出追跡処理部2により取得されたデータDo2に基づいて、フレーム画像上において、自動車(自車両)が走行していると判断したレーンに相当する画像領域内に存在する物体を検出する。
【0128】
次に、同一レーン検出処理部41は、自動車(自車両)が走行していると判断したレーン上に存在する物体のうち、自動車(自車両)に最も近い位置に存在する物体を検出し、自動車(自車両)から当該物体までの距離を推定(取得)する。具体的には、同一レーン検出処理部41は、データD40から、自動車(自車両)が走行していると判断したレーン上に存在する物体のうち、自動車(自車両)に最も近い位置に存在する物体を検出し、検出した当該物体の距離を、データD40から取得する。なお、この取得した距離をd_closestとする。
【0129】
また、同一レーン検出処理部41は、フレーム画像上において、データDo32から取得した視覚的注目位置の近辺に存在する物体(この物体は、データDo2に基づいて、特定する)がないか判定する。そして、判定の結果、視覚的注目位置の近辺に存在する物体があると判定された場合、当該視覚的注目位置の近辺に存在する物体は、突発的に出現した物体である可能性が高く、事故を誘発する可能性がある(高い)ので、自動車(自車両)から当該物体までの距離を上記処理と同様の処理により推定する。なお、この推定(取得)した距離をd_saliencyとする。
【0130】
そして、同一レーン検出処理部41は、上記処理により取得した距離d_closest、距離d_saliency、および、自動車(自車両)が走行しているレーンに物体が存在するか否かを示す情報を含めたデータ(同一レーン検出処理結果データ)を、データD41として、警告信号生成処理部42に出力する。
【0131】
警告信号生成処理部42は、速度推定処理部1から出力されるデータDo1と、同一レーン検出処理部41から出力されるデータD41とを入力する。警告信号生成処理部42は、データDo1およびデータD41を用いて警告信号生成処理を実行する。
【0132】
具体的には、警告信号生成処理部42は、データD41から、自動車(自車両)が走行しているレーンと同一レーンに物体が存在するか否かを把握する。
【0133】
そして、警告信号生成処理部42は、以下の処理を行う。
(1)自動車(自車両)が走行しているレーンと同一レーンに物体が存在する場合、警告信号生成処理部42は、自動車(自車両)から同一レーンに存在する最も近い物体までの距離d_closestと、速度推定処理部1により取得された安全距離dsafeと比較する。
(1A)d_closest<dsafeである場合、自動車(自車両)は、危険な状態であるので、警告信号生成処理部42は、「危険状態」であることを示す警告信号を生成する。
(1B)d_closest≧dsafeである場合、自動車(自車両)は、安全な状態であるので、警告信号生成処理部42は、「安全状態」であることを示す警告信号を生成する。
(2)自動車(自車両)が走行しているレーンと同一レーンに物体が存在しない場合、警告信号生成処理部42は、自動車(自車両)は、安全な状態であると判断し、「安全状態」であることを示す警告信号を生成する。なお、自動車(自車両)が走行しているレーンと同一レーンに物体が存在しない場合であっても、同一レーン検出処理部41により、視覚注目位置が検出され(突発的に出現した物体が検出され)、自動車(自車両)から視覚的注目位置の近辺に存在する物体までの距離d_saliencyが所定の閾値Thよりも小さい場合、警告信号生成処理部42は、自動車(自車両)が安全ではない状態(非安全状態)、あるいは、危険な状態にあると判断し、「非安全状態」あるいは「危険状態」を示す警告信号を生成するようにしてもよい。
【0134】
そして、警告信号生成処理部42は、上記処理により生成した警告信号と、速度推定処理部1、物体検出追跡処理部2、および、環境データ分析処理部3により取得したデータ(自動車の推定速度v、物体追跡処理結果データ、および/または、レーン位置検出処理結果データ)とを含むデータを、データD_alarmとして警告合成映像取得部C3に出力する。
【0135】
警告合成映像取得部C3は、撮像部C1から出力される映像信号Vinと、警告信号生成装置100の警告信号生成部4から出力されるデータD_alarmとを入力する。警告合成映像取得部C3は、映像信号Vinに、データD_alarmに含まれる情報を合成し、合成映像を取得する処理を実行し、当該処理により取得された合成映像信号(合成映像を形成する映像信号)を、警告合成映像信号Voutとして出力する。
【0136】
図10は、警告信号生成システム1000で取得された警告合成映像信号Voutにより形成された映像(フレーム画像)(これを警告信号合成映像という)と、警告信号が示す状態とを示す図(一例)である。図10に示すように、警告信号合成映像には、物体追跡処理結果を示すバウンディングボックス、レーン(走行可能領域)およびレーン境界線を示すセグメント(セグメント画像)が、撮像部C1により取得された映像に重畳して表示されている。
(A)図10の左図は、同一レーンに物体(動体、静止物体)が存在する場合の警告信号合成映像の1フレーム分のフレーム画像を示す図であり、(B)図10の右図は、同一レーンに物体(動体、静止物体)が存在しない場合の警告信号合成映像の1フレーム分のフレーム画像を示す図である。
【0137】
図10の左図の場合、自動車(自車両)と同一レーンに物体(動体)が存在しており、かつ、当該物体と自車両との距離が安全距離dsafeよりも小さいと判定され、「危険状態」を示す警告信号が生成されている。図10の右図の場合、自動車(自車両)と同一レーンに物体(動体)は、存在していないが、自動車(自車両)が走行しているレーンとは異なるレーンに、自車両から近い距離(図10の左図の場合と同等の距離)に物体(動体)が存在している。この場合、自動車(自車両)と近接する物体(動体)が存在するが、当該物体が自車両の走行レーンと異なるレーンに存在するため、自動車(自車両)は安全な状態であり、警告信号生成システム1000は、適切に、「安全状態」を示す警告信号を生成している。
【0138】
図10から分かるように、警告信号生成システム1000では、上記処理により、適切に周辺の環境、状況を認識し、適切な警告信号を生成することができる。
【0139】
≪まとめ≫
以上のように、警告信号生成システム1000では、撮像部C1により取得された映像信号を用いて、速度推定処理部1により推定した自動車(自車両)の速度および安全距離、物体検出追跡処理部2により取得した物体追跡処理結果データ(1または複数の物体の追跡処理結果データ)、並びに、環境データ分析処理部3により検出したレーン(走行可能領域)および注目位置検出処理結果データを取得することができる。そして、警告信号生成システム1000では、上記により取得したデータを用いて、フレーム画像(撮像部C1により取得された映像信号を形成するフレーム画像)上で解析することで、自動車(自車両)が危険な状況(例えば、危険な走行状況)になる可能性を示す情報を提示する警告信号を取得(生成)することができる。
【0140】
つまり、警告信号生成システム1000では、撮像部C1により取得された映像信号を警告信号生成装置100に入力させ、上記処理を行うだけで、高精度な警告信号を取得(生成)することができるので、警告信号生成システム1000を、メンテナンスが容易なシンプルな構成により低コストで実現できる。さらに、警告信号生成システム1000では、上記処理により、高精度に、自動車(自車両)の周辺の環境を認識し、当該認識結果に基づいて、当該自動車(自車両)が危険な状況(例えば、危険な走行状況)になる可能性を示す情報を提示する警告信号を取得(生成)することができる。
【0141】
[他の実施形態]
上記実施形態では、速度推定処理部1において、静止物体検出部12Aが静止物体を検出し、当該検出結果データを用いて、オプティカルフロー取得処理部12がオプティカルフロー取得処理を実行する場合について説明したが、これに限定されることはなく、例えば、物体検出追跡処理部2により取得されるデータ、および/または、環境データ分析処理部3により取得されるデータを用いて、静止物体の検出処理を行い、当該処理結果を用いて、オプティカルフロー取得処理部12がオプティカルフロー取得処理を実行するようにしてもよい。
【0142】
また、上記実施形態では、警告信号生成システム1000において、速度推定処理部1が、静止物体を検出し、検出した静止物体に基づいて、自車両の速度を推定する処理を実行する場合について、説明したが、これに限定されることはなく、例えば、警告信号生成システム1000の速度推定処理部1において、オプティカルフローから深層学習により学習した学習済みモデルを用いて、自車両の速度を見積もる処理(推定する処理)を行うようにしてもよい。
【0143】
また、上記実施形態で説明した警告信号生成システム1000、警告信号生成装置100の各機能部は、1つの装置(システム)により実現されてもよいし、複数の装置により実現されてもよい。
【0144】
また、上記実施形態の一部または全部を組み合わせるようにしてもよい。
【0145】
また、上記実施形態の警告信号生成システム1000、警告信号生成装置100において、各機能部で処理を実行するために必要となる時間が異なる場合、後段の処理が適切に実行されるように、遅延時間調整(ディレー調整)するようにしてもよい。
【0146】
また上記実施形態で説明した警告信号生成システム1000、警告信号生成装置100において、各ブロックは、LSIなどの半導体装置により個別に1チップ化されても良いし、一部または全部を含むように1チップ化されても良い。
【0147】
なおここではLSIとしたが、集積度の違いにより、IC、システムLSI、スーパーLSI、ウルトラLSIと呼称されることもある。
【0148】
また集積回路化の手法はLSIに限るものではなく、専用回路または汎用プロセサで実現してもよい。LSI製造後にプログラムすることが可能なFPGA(Field Programmable Gate Array)や、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサーを利用しても良い。
【0149】
また上記各実施形態の各機能ブロックの処理の一部または全部は、プログラムにより実現されるものであってもよい。そして上記各実施形態の各機能ブロックの処理の一部または全部は、コンピュータにおいて、中央演算装置(CPU)により行われる。また、それぞれの処理を行うためのプログラムは、ハードディスク、ROMなどの記憶装置に格納されており、ROMにおいて、あるいはRAMに読み出されて実行される。
【0150】
また上記実施形態の各処理をハードウェアにより実現してもよいし、ソフトウェア(OS(オペレーティングシステム)、ミドルウェア、あるいは所定のライブラリとともに実現される場合を含む。)により実現してもよい。さらにソフトウェアおよびハードウェアの混在処理により実現しても良い。
【0151】
上記実施形態に係る警告信号生成システム1000、警告信号生成装置100をハードウェアにより実現する場合、各処理を行うためのタイミング調整を行う必要があるのは言うまでもない。上記実施形態においては、説明便宜のため、実際のハードウェア設計で生じる各種信号のタイミング調整の詳細については省略している。
【0152】
例えば上記実施形態の各機能部をソフトウェアにより実現する場合、図11に示したハードウェア構成(例えばCPU、GPU、ROM、RAM、入力部、出力部、通信部、記憶部(例えば、HDD、SSD等により実現される記憶部)、外部メディア用ドライブ等をバスBusにより接続したハードウェア構成)を用いて各機能部をソフトウェア処理により実現するようにしてもよい。
【0153】
また上記実施形態の各機能部をソフトウェアにより実現する場合、当該ソフトウェアは、図11に示したハードウェア構成を有する単独のコンピュータを用いて実現されるものであってもよいし、複数のコンピュータを用いて分散処理により実現されるものであってもよい。
【0154】
また上記実施形態における処理方法の実行順序は、必ずしも上記実施形態の記載に制限されるものではなく、発明の要旨を逸脱しない範囲で、実行順序を入れ替えることができるものである。また、上記実施形態における処理方法において、発明の要旨を逸脱しない範囲で、一部のステップが、他のステップと並列に実行されるものであってもよい。
【0155】
前述した方法をコンピュータに実行させるコンピュータプログラム、及びそのプログラムを記録したコンピュータ読み取り可能な記録媒体は、本発明の範囲に含まれる。ここでコンピュータ読み取り可能な記録媒体としては、例えば、フレキシブルディスク、ハードディスク、CD-ROM、MO、DVD、DVD-ROM、DVD-RAM、大容量DVD、次世代DVD、半導体メモリを挙げることができる。
【0156】
上記コンピュータプログラムは、上記記録媒体に記録されたものに限らず、電気通信回線、無線または有線通信回線、インターネットを代表とするネットワーク等を経由して伝送されるものであってもよい。
【0157】
なお本発明の具体的な構成は、前述の実施形態に限られるものではなく、発明の要旨を逸脱しない範囲で種々の変更および修正が可能である。
【符号の説明】
【0158】
1000 警告信号生成システム
100 警告信号生成装置
1 速度推定処理部
2 物体検出追跡処理部
3 環境データ分析処理部
32 レーン位置検出処理部
33 視覚注目位置検出処理部
4 警告信号生成部
41 同一レーン検出処理部
42 警告信号生成処理部

図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11