(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2023-11-15
(45)【発行日】2023-11-24
(54)【発明の名称】データ融合方法及び関連装置
(51)【国際特許分類】
G08G 1/16 20060101AFI20231116BHJP
G08G 1/04 20060101ALI20231116BHJP
G08G 1/09 20060101ALI20231116BHJP
B60W 40/02 20060101ALI20231116BHJP
G06T 7/00 20170101ALI20231116BHJP
【FI】
G08G1/16 A
G08G1/04 C
G08G1/09 H
B60W40/02
G06T7/00 650Z
G06T7/00 350C
(21)【出願番号】P 2020550669
(86)(22)【出願日】2019-03-19
(86)【国際出願番号】 CN2019078646
(87)【国際公開番号】W WO2019179417
(87)【国際公開日】2019-09-26
【審査請求日】2020-10-13
(31)【優先権主張番号】201810232615.5
(32)【優先日】2018-03-20
(33)【優先権主張国・地域又は機関】CN
(73)【特許権者】
【識別番号】503433420
【氏名又は名称】華為技術有限公司
【氏名又は名称原語表記】HUAWEI TECHNOLOGIES CO.,LTD.
【住所又は居所原語表記】Huawei Administration Building, Bantian, Longgang District, Shenzhen, Guangdong 518129, P.R. China
(74)【代理人】
【識別番号】100107766
【氏名又は名称】伊東 忠重
(74)【代理人】
【識別番号】100070150
【氏名又は名称】伊東 忠彦
(74)【代理人】
【識別番号】100135079
【氏名又は名称】宮崎 修
(72)【発明者】
【氏名】ユィ,ホアン
(72)【発明者】
【氏名】ヤン,シァオ
(72)【発明者】
【氏名】ソォン,ヨンガン
【審査官】藤村 泰智
(56)【参考文献】
【文献】中国特許出願公開第105741546(CN,A)
【文献】特開2013-214225(JP,A)
【文献】特開2013-182490(JP,A)
【文献】特開2010-009436(JP,A)
【文献】特開2015-082324(JP,A)
【文献】特開2015-081083(JP,A)
【文献】中国特許出願公開第107229690(CN,A)
(58)【調査した分野】(Int.Cl.,DB名)
G08G 1/00 ~ 1/16
B60W 30/00 ~ 60/00
G06T 7/00
(57)【特許請求の範囲】
【請求項1】
車両装置、路側装置、及び融合モジュールを含む融合システムにおけるデータ融合方法であって、当該方法は、
前記車両装置が、車両感知データを取得するステップであって、該車両感知データは、車両感知機器が感知範囲内の道路環境を感知することによって取得される、取得するステップと、
前記路側装置が、路側感知データを取得するステップであって、該路側感知データは、路側感知機器が感知範囲内の道路環境を感知することによって取得される、取得するステップと、
前記融合モジュールが、融合式を使用して前記車両感知データと前記路側感知データとを融合して、第1の融合結果を取得するステップと、を含み、
前記融合式は、
y=f(result
r,result
v)
として表され、
ここで、result
rは路側結果セットであり、該路側結果セットは前記路側感知データを示すために使用され、result
vは車両結果セットであり、該車両結果セットは前記車両感知データを示すために使用され、yは前記第1の融合結果であり、関数fは、(i)前記路側結果セット及び前記車両結果セットに基づいてマッピングすることにより、前記路側感知データと前記車両感知データとの間でマッチングしたデータと、(ii)前記マッピングによりマッチングしなかった前記路側感知データ又は前記車両感知データとを含む前記第1の融合結果を取得するために使用される、
方法。
【請求項2】
f(result
r,result
v)=(w
r/(w
r+w
v))result
r+(w
v/(w
r+w
v))result
v
であり、
ここで、w
rは前記路側感知機器の信頼係数であり、w
r=(w
r1,w
r2,...,w
rM)であり、result
r=(roadside
1,roadside
2,...,roadside
M)であり、Mは前記路側感知機器の前記感知範囲内のターゲット対象物の数量であり、w
riは前記路側感知機器の前記感知範囲内のターゲット対象物iに対応する信頼係数であり、roadside
iは路側
iを示し、該路側
iは前記路側感知機器の前記感知範囲内の前記ターゲット対象物iに対応する路側結果ユニットであり、iは、自然数であり、且つ0<i≦Mであり、w
vは前記車両感知機器の信頼係数であり、w
v=(w
v1,w
v2,...,w
vN)であり、result
v=(vehicle
1,vehicle
2,...,vehicle
N)であり、Nは前記車両感知機器の前記感知範囲内のターゲット対象物の数量であり、w
vjは前記車両感知機器の前記感知範囲内のターゲット対象物jに対応する信頼係数であり、vehicle
jは車両
jを示し、該車両
jは前記車両感知機器の前記感知範囲内の前記ターゲット対象物jに対応する車両結果ユニットであり、jは、自然数であり、且つ0<j≦Nである、請求項1に記載の方法。
【請求項3】
前記融合モジュールは、前記信頼係数を、感知機器パラメータ、前記ターゲット対象物の感知距離、及び前記ターゲット対象物の感知角度をまとめたものに基づいて決定する、請求項2に記載の方法。
【請求項4】
前記信頼係数wは、
w=g(S
k,R
i,θ
j),w∈[0,1]
の式に基づいて得ることができ、
ここで、S
kは前記感知機器パラメータであり、R
iは前記ターゲット対象物の前記感知距離であり、θ
jは前記ターゲット対象物の前記感知角度であり、gは感知機器の較正によって得られた較正パラメータテーブルである、請求項3に記載の方法。
【請求項5】
前記車両結果セットは少なくとも1つの車両結果ユニットを含み、該少なくとも1つの車両結果ユニットと少なくとも1つのターゲット対象物との間に1対1の対応関係が存在し、前記少なくとも1つの車両結果ユニット内の各車両結果ユニットは、対応するターゲット対象物の特徴を多次元の見地から記述する、請求項1乃至4のいずれか一項に記載の方法。
【請求項6】
前記少なくとも1つの車両結果ユニット内の任意の車両結果ユニットは、車両
j(p
vj,v
vj,s
vj,c
vj)として表され、ここで、p
vjは前記車両感知機器が検出した前記ターゲット対象物jの位置を示し、v
vjは前記車両感知機器が検出した前記ターゲット対象物jの速度を示し、s
vjは前記車両感知機器が検出した前記ターゲット対象物jのサイズを示し、c
vjは前記車両感知機器が検出した前記ターゲット対象物jの色を示し、Nは前記車両感知機器の前記感知範囲内のターゲット対象物の数量であり、jは、自然数であり、且つ0<j≦Nである、請求項5に記載の方法。
【請求項7】
前記路側結果セットは少なくとも1つの路側結果ユニットを含み、該少なくとも1つの路側結果ユニットと少なくとも1つのターゲット対象物との間に1対1の対応関係が存在し、前記少なくとも1つの路側結果ユニット内の各路側結果ユニットは、対応するターゲット対象物の特徴を多次元の見地から記述する、請求項1乃至6のいずれか一項に記載の方法。
【請求項8】
前記少なくとも1つの路側結果ユニット内の任意の路側結果ユニットは、路側
i(p
vi,v
vi,s
vi,c
vi)として表され、ここで、p
viは前記路側感知機器が検出した前記ターゲット対象物iの位置を示し、v
viは前記路側感知機器が検出した前記ターゲット対象物iの速度を示し、s
viは前記路側感知機器が検出した前記ターゲット対象物iのサイズを示し、c
viは前記路側感知機器が検出した前記ターゲット対象物iの色を示し、Mは前記路側感知機器の前記感知範囲内のターゲット対象物の数量であり、iは、自然数であり、且つ0<i≦Mである、請求項7に記載の方法。
【請求項9】
前記融合モジュールが、融合式を使用して前記車両感知データと前記路側感知データとを融合して、第1の融合結果を取得する前に、当該方法は、
前記融合モジュールが、前記路側感知データを前記車両感知データとマッチングして、マッチング結果を取得するステップをさらに含み、
前記融合モジュールが、前記車両感知データと前記路側感知データとを融合して、第1の融合結果を取得するステップは、
前記融合モジュールが、前記マッチング結果に基づいて、前記車両感知データと前記路側感知データとを融合して、前記第1の融合結果を取得するステップを含む、請求項1乃至4のいずれか一項に記載の方法。
【請求項10】
第1の取得モジュール、第2の取得モジュール、及び融合モジュールを含む融合機器であって、
前記第1の取得モジュールは、車両感知データを取得するように構成され、該車両感知データは、車両感知機器が感知範囲内の道路環境を感知することによって取得され、
前記第2の取得モジュールは、路側感知データを取得するように構成され、該路側感知データは、路側感知機器が感知範囲内の道路環境を感知することによって取得され、
前記融合モジュールは、融合式を使用して前記車両感知データと前記路側感知データとを融合して、第1の融合結果を取得するように構成され、
前記融合式は、
y=f(result
r,result
v)
として表され、
ここで、result
rは路側結果セットであり、該路側結果セットは前記路側感知データを示すために使用され、result
vは車両結果セットであり、該車両結果セットは前記車両感知データを示すために使用され、yは前記第1の融合結果であり、関数fは、(i)前記路側結果セット及び前記車両結果セットに基づいてマッピングすることにより、前記路側感知データと前記車両感知データとの間でマッチングしたデータと、(ii)前記マッピングによりマッチングしなかった前記路側感知データ又は前記車両感知データとを含む前記第1の融合結果を取得するために使用される、
融合機器。
【請求項11】
f(result
r,result
v)=(w
r/(w
r+w
v))result
r+(w
v/(w
r+w
v))result
v
であり、
ここで、w
rは前記路側感知機器の信頼係数であり、w
r=(w
r1,w
r2,...,w
rM)であり、result
r=(roadside
1,roadside
2,...,roadside
M)であり、Mは前記路側感知機器の前記感知範囲内のターゲット対象物の数量であり、w
riは前記路側感知機器の前記感知範囲内のターゲット対象物iに対応する信頼係数であり、roadside
iは路側
iを示し、該路側
iは前記路側感知機器の前記感知範囲内の前記ターゲット対象物iに対応する路側結果ユニットであり、iは、自然数であり、且つ0<i≦Mであり、w
vは前記車両感知機器の信頼係数であり、w
v=(w
v1,w
v2,...,w
vN)であり、result
v=(vehicle
1,vehicle
2,...,vehicle
N)であり、Nは前記車両感知機器の前記感知範囲内のターゲット対象物の数量であり、w
vjは前記車両感知機器の前記感知範囲内のターゲット対象物jに対応する信頼係数であり、vehicle
jは車両
jを示し、該車両
jは前記車両感知機器の前記感知範囲内の前記ターゲット対象物jに対応する車両結果ユニットであり、jは、自然数であり、且つ0<j≦Nである、請求項10に記載の
融合機器。
【請求項12】
前記信頼係数は、感知機器パラメータ、前記ターゲット対象物の感知距離、及び前記ターゲット対象物の感知角度をまとめたものに基づいて決定される、請求項11に記載の
融合機器。
【請求項13】
前記信頼係数wは、
w=g(S
k,R
i,θ
j),w∈[0,1]
の式に基づいて得ることができ、
ここで、S
kは前記感知機器パラメータであり、R
iは前記ターゲット対象物の前記感知距離であり、θ
jは前記ターゲット対象物の前記感知角度であり、gは感知機器の較正によって得られた較正パラメータテーブルである、請求項12に記載の
融合機器。
【請求項14】
前記車両結果セットは少なくとも1つの車両結果ユニットを含み、該少なくとも1つの車両結果ユニットと少なくとも1つのターゲット対象物との間に1対1の対応関係が存在し、前記少なくとも1つの車両結果ユニット内の各車両結果ユニットは、対応するターゲット対象物の特徴を多次元の見地から記述するために使用される、請求項10乃至13のいずれか一項に記載の
融合機器。
【請求項15】
前記少なくとも1つの車両結果ユニット内の任意の車両結果ユニットは、車両
j(p
vj,v
vj,s
vj,c
vj)として表され、ここで、p
vjは前記車両感知機器が検出した前記ターゲット対象物jの位置を示し、v
vjは前記車両感知機器が検出した前記ターゲット対象物jの速度を示し、s
vjは前記車両感知機器が検出した前記ターゲット対象物jのサイズを示し、c
vjは前記車両感知機器が検出した前記ターゲット対象物jの色を示し、Nは前記車両感知機器の前記感知範囲内のターゲット対象物の数量であり、jは、自然数であり、且つ0<j≦Nである、請求項14に記載の
融合機器。
【請求項16】
前記路側結果セットは少なくとも1つの路側結果ユニットを含み、該少なくとも1つの路側結果ユニットと少なくとも1つのターゲット対象物との間に1対1の対応関係が存在し、前記少なくとも1つの路側結果ユニット内の各路側結果ユニットは、対応するターゲット対象物の特徴を多次元の見地から記述するために使用される、請求項10乃至15のいずれか一項に記載の
融合機器。
【請求項17】
前記少なくとも1つの路側結果ユニット内の任意の路側結果ユニットは、路側
i(p
vi,v
vi,s
vi,c
vi)として表され、ここで、p
viは前記路側感知機器が検出した前記ターゲット対象物iの位置を示し、v
viは前記路側感知機器が検出した前記ターゲット対象物iの速度を示し、s
viは前記路側感知機器が検出した前記ターゲット対象物iのサイズを示し、c
viは前記路側感知機器が検出した前記ターゲット対象物iの色を示し、Mは前記路側感知機器の前記感知範囲内のターゲット対象物の前記数量であり、iは、自然数であり、且つ0<i≦Mである、請求項15に記載の
融合機器。
【請求項18】
請求項
10に記載の融合
機器であって、該融合
機器は、メモリと、該メモリに結合されたプロセッサ及び通信モジュールとを含み、
前記通信モジュールは、データを外部に送信する又は該外部から受信するように構成され、前記メモリは、プログラムコードを格納するように構成され、前記プロセッサは、前記メモリに格納された前記プログラムコードを呼び出して、請求項
10乃至
17のいずれか一項に記載の
融合機器が実行する動作を行わせるように構成される、
融合
機器。
【請求項19】
命令を含むコンピュータ可読記憶媒体であって、前記命令が請求項18に記載の融合
機器の前記プロセッサで実行されると、該プロセッサは、請求項
10乃至
17のいずれか一項に記載の
融合機器が実行する動作を行わせることが可能になる、
コンピュータ可読記憶媒体。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、自動運転分野に関し、特に、データ融合方法及び関連装置に関する。
【背景技術】
【0002】
道路環境感知(sensing:センシング)は、自動運転を実施するための主要なタスクである。自動運転車両は、道路上の他の車両、歩行者等をかわし、且つ道路環境を感知して初めて安全運転を行うことができる。道路環境感知を実現するために、従来技術の自動運転車両は、車両に搭載された車両感知機器を使用して道路上の他の車両、歩行者等を検出し、それにより道路環境を感知している。しかしながら、従来技術における車両感知機器の感知範囲は比較的狭く、自動運転の要件を殆ど満たすことができない。
【発明の概要】
【0003】
本願の実施形態は、路側感知機器の感知範囲と車両感知機器の感知範囲との間のオーバーラップを実現するようなデータ融合方法及び関連装置を提供し、それによって、感知範囲が効果的に拡張される。
【0004】
第1の態様によれば、データ融合方法が提供され、この方法は車両装置側又は路側装置側に適用してもよく、この方法は、
車両感知データを取得するステップであって、車両感知データは、車両感知機器が感知範囲内の道路環境を感知することによって取得される、取得するステップと、
路側感知データを取得するステップであって、路側感知データは、路側感知機器が感知範囲内の道路環境を感知することによって取得される、取得するステップと、
融合式を使用して車両感知データと路側感知データとを融合して、第1の融合結果を取得するステップと、を含む。
【0005】
第1の態様を参照すると、融合式は、次のように表される:
y=f(resultr,resultv)
ここで、resultrは路側結果セットであり、路側結果セットは路側感知データを示すために使用され、resultvは車両結果セットであり、車両結果セットは車両感知データを示すために使用され、yは第1の融合結果であり、関数fは、路側結果セット及び車両結果セットに基づいてマッピングすることにより、第1の融合結果を取得するために使用される。
【0006】
特定の実施形態では、
f(resultr,resultv)=(wr/(wr+wv))resultr+(wv/(wr+wv))resultv
であり、
ここで、wrは路側感知機器の信頼係数であり、wr=(wr1,wr2,... ,wrM)であり、resultr(roadside1,roadside2,...,roadsideM)であり、Mは路側感知機器の感知範囲内のターゲット対象物の数量であり、wriは路側感知機器の感知範囲内のターゲット対象物iに対応する信頼係数であり、路側iは路側感知機器の感知範囲内のターゲット対象物iに対応する路側結果ユニットであり、iは、自然数であり、且つ0<i≦Mであり、wvは車両感知機器の信頼係数であり、wv=(wv1,wv2,...,wvN)であり、resultv(vehicle1,vehicle2,...,vehicleN)であり、Nは車両感知機器の感知範囲内のターゲット対象物の数量であり、wvjは車両感知機器の感知範囲内のターゲット対象物jに対応する信頼係数であり、車両jは車両感知機器の感知範囲内のターゲット対象物jに対応する車両結果ユニットであり、jは、自然数であり、且つ0<j≦Nである。
【0007】
より具体的には、信頼係数は、感知機器パラメータ、ターゲット対象物の感知距離、及びターゲット対象物の感知角度をまとめたもの(together)に基づいて決定される。
【0008】
例えば、信頼係数wは、以下の式に基づいて得ることができる:
w=g(Sk,Ri,θj),w∈[0,1]
ここで、Skは感知機器パラメータであり、Riはターゲット対象物の感知距離であり、θjはターゲット対象物の感知角度であり、gは感知機器の較正によって得られた較正パラメータテーブルである。
【0009】
なお、感知機器が複数のセンサを含む場合に、複数のセンサの信頼度を総合的に考慮することにより、信頼係数を求めてもよい。例えば、複数のセンサの信頼度は、重付け又は平均化の方法で総合的に考慮され得る。
【0010】
特定の実施形態では、車両結果セットは少なくとも1つの車両結果ユニットを含み、少なくとも1つの車両結果ユニットと少なくとも1つのターゲット対象物との間に1対1の対応関係が存在し、少なくとも1つの車両結果ユニット内の各車両結果ユニットは、対応するターゲット対象物の特徴を多次元の角度から記述するために使用される。
【0011】
より具体的には、少なくとも1つの車両結果ユニット内の任意の車両結果ユニットは、車両j(pvj,vvj,svj,cvj)として表され、ここで、pvjは車両感知機器が検出したターゲット対象物jの位置を示し、vvjは車両感知機器が検出したターゲット対象物jの速度を示し、svjは車両感知機器が検出したターゲット対象物jのサイズを示し、cvjは車両感知機器が検出したターゲット対象物jの色を示し、Nは車両感知機器の感知範囲内のターゲット対象物の数量であり、jは、自然数であり、且つ0<j≦Nである。
【0012】
特定の実施形態では、路側結果セットは少なくとも1つの路側結果ユニットを含み、少なくとも1つの路側結果ユニットと少なくとも1つのターゲット対象物との間に1対1の対応関係が存在し、少なくとも1つの路側結果ユニット内の各路側結果ユニットは、対応するターゲット対象物の特徴を多次元の角度から記述するために使用される。
【0013】
より具体的には、少なくとも1つの路側結果ユニット内の任意の路側結果ユニットは、路側i(pvi,vvi,svi,cvi)として表され、ここで、pviは路側感知機器が検出したターゲット対象物iの位置を示し、vviは路側感知機器が検出したターゲット対象物iの速度を示し、sviは路側感知機器が検出したターゲット対象物iのサイズを示し、cviは路側感知機器が検出したターゲット対象物iの色を示し、Mは路側感知機器の感知範囲内のターゲット対象物の数量であり、iは、自然数であり、且つ0<i≦Mである。
【0014】
特定の実施形態では、融合式を使用して車両感知データと路側感知データとを融合して、第1の融合結果を取得する前に、方法は、
路側感知データを車両感知データとマッチングして、マッチング結果を取得するステップをさらに含み、
車両感知データと路側感知データとを融合して、第1の融合結果を取得するステップは、
マッチング結果に基づいて、車両感知データと路側感知データとを融合して、第1の融合結果を取得するステップを含む。
【0015】
より具体的には、偏差ネットワークを使用して、路側結果セット内の路側結果ユニットと車両結果セット内の車両結果ユニットとの間のマッチング関係が見出される。
【0016】
例えば、路側結果セット内の路側結果ユニットと車両結果セット内の車両結果ユニットとの間のマッチング関係は、以下の式を使用して見出される:
S=Deviation(路側i,車両j)
ここで、Sはマッチング結果であり、Deviation(偏差)は偏差ネットワークであり、路側iは路側感知機器の感知範囲内のターゲット対象物iに対応する路側結果ユニットであり、車両jは路側感知機器の感知範囲内のターゲット対象物jに対応する車両結果ユニットであり、i及びjは共に自然数である。
【0017】
偏差ネットワーク(Deviation)は、逆伝播(BP)ニューラルネットワークによって示される。
【0018】
特定の実施形態では、路側感知データを車両感知データとマッチングしてマッチング結果を得た後に、方法は、
フレーム間ループバック及び/又はマルチフレーム相関の方法でマッチング結果の信頼度を評価して、評価結果を取得するステップと、
評価結果に基づいて、偏差ネットワークを調整するステップと、をさらに含む。
【0019】
より具体的には、フレーム間ループバックは、
Tループバック=T1+T2+T3+T4
であり、
ここで、Tループバックはフレーム間ループバックであり、T1は第1のマッチング結果であり、T2は第2のマッチング結果であり、T3は第3のマッチング結果であり、T4は第4のマッチング結果であり、第1のマッチング結果は、路側感知機器がi番目のフレームで検出したターゲット対象物jに対応する路側結果ユニットと、車両感知機器がi番目のフレームで検出したターゲット対象物jに対応する車両結果ユニットとの間のマッチング結果であり、第2のマッチング結果は、車両感知機器がi番目のフレームで検出したターゲット対象物jに対応する車両結果ユニットと、車両感知機器が(i+1)番目のフレームで検出したターゲット対象物jに対応する車両結果ユニットとの間のマッチング結果であり、第3のマッチング結果は、車両感知機器が(i+1)番目のフレームで検出したターゲット対象物jに対応する車両結果ユニットと、路側感知機器が(i+1)番目のフレームで検出したターゲット対象物jに対応する路側結果ユニットとの間のマッチング結果であり、第4のマッチング結果は、路側感知機器が(i+1)番目のフレームで検出したターゲット対象物jに対応する路側結果ユニットと、路側感知機器がi番目のフレームで検出したターゲット対象物jに対応する路側結果ユニットとの間のマッチング結果である。
【0020】
より具体的には、マルチフレーム相関は、
Tマルチフレーム=Tループバック12+Tループバック23+Tループバック34+・・・
として規定され、
ここで、Tマルチフレームはマルチフレーム相関であり、Tループバック12は第1のフレームと第2のフレームとの間のフレーム間ループバックであり、Tループバック23は第2のフレームと第3のフレームとの間のフレーム間ループバックであり、Tループバック34は第3のフレームと第4のフレームとの間のフレーム間ループバックであり、以下同様である。
【0021】
特定の実施形態では、方法が路側装置側に適用される場合に、車両感知データを取得するステップは、少なくとも1つの車両装置により送信された車両感知データを受信するステップを含み、
融合式を使用して車両感知データと路側感知データとを融合して、第1の融合結果を得た後に、この方法は、
第1の融合結果をターゲット車両装置に送信するステップをさらに以下を含み、ターゲット車両装置は、ターゲット車両装置の車両感知データと第1の融合結果とを融合して、第2の融合結果を取得するように構成され、ターゲット車両装置は少なくとも1つの車両装置に属する。
【0022】
第2の態様によれば、データ融合方法が、提供され、且つ車両装置側に適用される。この方法は、
車両感知データを路側装置に送信するステップであって、車両感知データは、車両感知機器が感知範囲内の道路環境を感知することによって取得される、送信するステップと、
路側装置により送信された第1の融合結果を受信するステップであって、第1の融合結果は、路側装置が融合式を使用して少なくとも1つの車両装置により送信された車両感知データと路側感知データとを融合することによって取得され、路側感知データは、路側感知機器が感知範囲内の道路環境を感知することによって取得される、受信するステップと、
車両感知データと第1の融合結果とを融合して、第2の融合結果を取得するステップと、を含む。
【0023】
第2の態様を参照すると、融合式は、、次のように表される:
y=f(resultr,resultv)
ここで、resultrは路側結果セットであり、路側結果セットは路側感知データを示すために使用され、resultvは車両結果セットであり、車両結果セットは車両感知データを示すために使用され、yは第1の融合結果であり、関数fは、路側結果セット及び車両結果セットに基づいてマッピングすることにより、第1の融合結果を取得するために使用される。
【0024】
特定の実施形態では、
f(resultr,resultv)=(wr/(wr+wv))resultr+(wv/(wr+wv))resultv
であり、
ここで、wrは路側感知機器の信頼係数であり、wr=(wr1,wr2,...,wrM)であり、resultr(roadside1,roadside2,...,roadsideM)であり、Mは路側感知機器の感知範囲内のターゲット対象物の数量であり、wriは路側感知機器の感知範囲内のターゲット対象物iに対応する信頼係数であり、路側iは路側感知機器の感知範囲内のターゲット対象物iに対応する路側結果ユニットであり、iは、自然数であり、且つ0<i≦Mであり、wvは車両感知機器の信頼係数であり、wv=(wv1,wv2,...,wvN)であり、resultv(vehicle1,vehicle2,...,vehicleN)であり、Nは車両感知機器の感知範囲内のターゲット対象物の数量であり、wvjは車両感知機器の感知範囲内のターゲット対象物jに対応する信頼係数であり、車両jは車両感知機器の感知範囲内のターゲット対象物jに対応する車両結果ユニットであり、jは、自然数であり、且つ0<j≦Nである。
【0025】
より具体的には、信頼係数は、感知機器パラメータ、ターゲット対象物の感知距離、及びターゲット対象物の感知角度をまとめたものに基づいて決定される。
【0026】
例えば、信頼係数wは、以下の式に基づいて得ることができる:
w=g(Sk,Ri,θj),w∈[0,1]
ここで、Skは感知機器パラメータであり、Riはターゲット対象物の感知距離であり、θjはターゲット対象物の感知角度であり、gは感知機器の較正によって得られた較正パラメータテーブルである。
【0027】
なお、感知機器が複数のセンサを含む場合に、複数のセンサの信頼度を総合的に考慮することにより、信頼係数を求めてもよい。例えば、複数のセンサの信頼度は、重付け又は平均化の方法で総合的に考慮され得る。
【0028】
特定の実施形態では、車両結果セットは少なくとも1つの車両結果ユニットを含み、少なくとも1つの車両結果ユニットと少なくとも1つのターゲット対象物との間に1対1の対応関係が存在し、少なくとも1つの車両結果ユニット内の各車両結果ユニットは、対応するターゲット対象物の特徴を多次元の角度から記述するために使用される。
【0029】
より具体的には、少なくとも1つの車両結果ユニット内の任意の車両結果ユニットは、車両j(pvj,vvj,svj,cvj)として表され、ここで、pvjは車両感知機器が検出したターゲット対象物jの位置を示し、vvjは車両感知機器が検出したターゲット対象物jの速度を示し、svjは車両感知機器が検出したターゲット対象物jのサイズを示し、cvjは車両感知機器が検出したターゲット対象物jの色を示し、Nは車両感知機器の感知範囲内のターゲット対象物の数量であり、jは、自然数であり、且つ0<j≦Nであるである。
【0030】
特定の実施形態では、路側結果セットは少なくとも1つの路側結果ユニットを含み、少なくとも1つの路側結果ユニットと少なくとも1つのターゲット対象物との間に1対1の対応関係が存在し、少なくとも1つの路側結果ユニット内の各路側結果ユニットは、対応するターゲット対象物の特徴を多次元の角度から記述するために使用される。
【0031】
より具体的には、少なくとも1つの路側結果ユニット内の任意の路側結果ユニットは、路側i(pvi,vvi,svi,cvi)として表され、ここで、pviは路側感知機器が検出したターゲット対象物iの位置を示し、vviは路側感知機器が検出したターゲット対象物iの速度を示し、sviは路側感知機器が検出したターゲット対象物iのサイズを示し、cviは路側感知機器が検出したターゲット対象物iの色を示し、Mは路側感知機器の感知範囲内のターゲット対象物の数量であり、iは、自然数であり、且つ0<i≦Mである。
【0032】
特定の実施形態では、融合式を使用して車両感知データと路側感知データとを融合して、第1の融合結果を取得する前に、方法は、
路側感知データを車両感知データとマッチングして、マッチング結果を取得するステップをさらに含み、
車両感知データと路側感知データとを融合して、第1の融合結果を取得するステップは、
マッチング結果に基づいて、車両感知データと路側感知データとを融合して、第1の融合結果を取得するステップを含む。
【0033】
より具体的には、偏差ネットワークを使用して、路側結果セット内の路側結果ユニットと車両結果セット内の車両結果ユニットとの間のマッチング関係が見出される。
【0034】
例えば、路側結果セット内の路側結果ユニットと車両結果セット内の車両結果ユニットとの間のマッチング関係は、以下の式を使用して見出される:
S=Deviation(路側i,車両j)
ここで、Sはマッチング結果であり、Deviation(偏差)は偏差ネットワークであり、路側iは路側感知機器の感知範囲内のターゲット対象物iに対応する路側結果ユニットであり、車両jは車両感知機器の感知範囲内のターゲット対象物jに対応する車両結果ユニットであり、i及びjは共に自然数である。
【0035】
偏差ネットワーク(Deviation)は、逆伝播(BP)ニューラルネットワークによって示される。
【0036】
特定の実施形態では、路側感知データを車両感知データとマッチングして、マッチング結果を得た後に、方法は、
フレーム間ループバック及び/又はマルチフレーム相関の方法でマッチング結果の信頼度を評価して、評価結果を取得するステップと、
評価結果に基づいて、偏差ネットワークを調整するステップと、をさらに含む。
【0037】
より具体的には、フレーム間ループバックは、
Tループバック=T1+T2+T3+T4
であり、
ここで、Tループバックはフレーム間ループバックであり、T1は第1のマッチング結果であり、T2は第2のマッチング結果であり、T3は第3のマッチング結果であり、T4は第4のマッチング結果であり、第1のマッチング結果は、路側感知機器がi番目のフレームで検出したターゲット対象物jに対応する路側結果ユニットと、車両感知機器がi番目のフレームで検出したターゲット対象物jに対応する車両結果ユニットとの間のマッチング結果であり、第2のマッチング結果は、車両感知機器がi番目のフレームで検出したターゲット対象物jに対応する車両結果ユニットと、車両感知機器が(i+1)番目のフレームで検出したターゲット対象物jに対応する車両結果ユニットとの間のマッチング結果であり、第3のマッチング結果は、車両感知機器が(i+1)番目のフレームで検出したターゲット対象物jに対応する車両結果ユニットと、路側感知機器が(i+1)番目のフレームで検出したターゲット対象物jに対応する路側結果ユニットとの間のマッチング結果であり、第4のマッチング結果は、路側感知機器が(i+1)番目のフレームで検出したターゲット対象物jに対応する路側結果ユニットと、路側感知機器がi番目のフレームで検出したターゲット対象物jに対応する路側結果ユニットとの間のマッチング結果である。
【0038】
より具体的には、マルチフレーム相関は、
Tマルチフレーム=Tループバック12+Tループバック23+Tループバック34+・・・
として規定され、
ここで、Tマルチフレームはマルチフレーム相関であり、Tループバック12は第1のフレームと第2のフレームとの間のフレーム間ループバックであり、Tループバック23は第2のフレームと第3のフレームとの間のフレーム間ループバックであり、Tループバック34は第3のフレームと第4のフレームとの間のフレーム間ループバックであり、以下同様である。
【0039】
第3の態様によれば、第1の態様の方法を実行するように構成されたユニットを含む融合機器が提供される。
【0040】
第4の態様によれば、第2の態様の方法を実行するように構成されたユニットを含む融合機器が提供される。
【0041】
第5の態様によれば、メモリと、メモリに結合されたプロセッサ及び通信モジュールとを含む融合機器が提供され、通信モジュールは、データを外部に送信する又は外部から受信するように構成され、メモリは、プログラムコードを格納するように構成され、プロセッサは、メモリに格納されたプログラムコードを呼び出して、第1の態様又は第2の態様のいずれか1つによる方法を実行するように構成される。
【0042】
第6の態様によれば、コンピュータ可読記憶媒体が、提供され、且つ命令を含み、命令が融合機器で実行されると、融合機器は、第1の態様又は第2の態様のいずれか1つによる方法を実行することが可能になる。
【0043】
第7の態様によれば、命令を含むコンピュータプログラム製品が提供され、コンピュータプログラム製品がコンピュータ上で実行されると、コンピュータは、第1の態様又は第2の態様のいずれか1つによる方法を実行することが可能になる。
【0044】
前述した解決策によれば、路側感知機器が感知によって取得した路側感知データと、車両感知機器が感知によって取得した車両感知データとを融合して、路側感知機器の感知範囲と車両感知機器の感知範囲との間のオーバーラップ(overlapping:重複)を実現し、それによって、感知範囲が効果的に拡張される。
【図面の簡単な説明】
【0045】
本発明の実施形態における技術的解決策をより明確に説明するために、以下では、実施形態を説明するために必要な添付図面について簡単に紹介する。明らかに、以下の説明における添付図面は、本発明のいくつかの実施形態を示し、当業者は、創造的な努力なしに、これらの添付図面から他の図面を依然として導き出すことができる。
【
図1】本願の一実施形態による適用シナリオの概略図である。
【
図2】本願の一実施形態による感知機器の空間設置角度の概略図である。
【
図3】本願の一実施形態による感知機器の設置座標の概略図である。
【
図4】本願の一実施形態による感知座標系の概略図である。
【
図5】本願の一実施形態による逆伝播ニューラルネットワークの概略構造図である。
【
図6】本願の一実施形態によるフレーム間ループバックの概略図である。
【
図7】本願の一実施形態によるマルチフレーム相関の概略図である。
【
図8】本願の一実施形態による第1のデータ融合方法の概略フローチャートである。
【
図9】本願の一実施形態による第2のデータ融合方法の概略フローチャートである。
【
図10】本願の一実施形態による第3のデータ融合方法の概略フローチャートである。
【
図11】本願の一実施形態による融合機器の概略構造図である。
【
図12】本願の一実施形態による融合機器の概略構造図である。
【
図13】本願の一実施形態による融合機器の概略構造図である。
【
図14】本願の一実施形態による融合機器の概略構造図である。
【発明を実施するための形態】
【0046】
図1は、本願の一実施形態による適用シナリオの概略図である。
図1に示されるように、少なくとも1つの路側(roadside)装置が道路の側方に設置され、車両装置が道路を走行する車両の少なくとも1つに設置される。
【0047】
路側装置は、路側角度から道路環境を感知して、路側感知データを取得するように構成される。路側感知機器を路側装置のために構成してもよい。路側感知機器は、少なくとも1つの路側センサ、例えばマイクロ波レーダー及びミリ波レーダーを含み得、感知範囲内のターゲット対象物(例えば、車両及び歩行者)の位置、速度、及びサイズ等の路側感知データを特定することができる。路側感知機器は、カメラ等の路側センサをさらに含んでもよい。カメラは、感知範囲内のターゲット対象物の位置、速度、及びサイズ等の路側感知データを特定できるだけでなく、感知範囲内のターゲット対象物の色(例えば、車両の色及び歩行者の服の色)等の路側感知データも特定できる。前述したいくつかの特定の例は、路側センサの単なる例であり、特定の制限を構成すべきではないことが理解され得る。路側感知機器は、路側センサのいずれか1つを単独で使用してもよく、又は任意の複数の路側センサを同時に使用してもよい。路側感知データは、路側結果セットの形式で記述してもよく、路側結果セットは複数の路側結果ユニットを含み得、各路側結果ユニットは1つのターゲット対象物に対応する。例えば、路側結果ユニットが路側
i(p
r,v
r,s
r,c
r)として表すことができると仮定すると、p
rは路側感知機器が検出したターゲット対象物の位置を示し、v
rは路側感知機器が検出したターゲット対象物の速度を示し、s
rは路側感知機器が検出したターゲット対象物のサイズを示し、c
rは路側感知機器が検出したターゲット対象物の色を示し、路側結果セットはresult
r(roadside
1,roadside
2,...,roadside
M)として表すことができ、Mは路側感知機器の感知範囲内のターゲット対象物の数量である。より具体的には、マトリックス形式を例にとると、路側結果セットは、次のように表すことができる。
【数1】
【0048】
車両装置は、車両角度から道路環境を感知して、車両感知データを取得するように構成される。車両感知機器を車両装置のために構成してもよい。車両感知機器は、少なくとも1つの車両センサ、例えば複合慣性航法、マイクロ波レーダー、ミリ波レーダー、及びカメラを含み得る。異なる車両センサが異なる車両感知データを検出することができる。例えば、車両感知機器は、複合慣性航法を使用して、ターゲット対象物の位置及び速度等の路側感知データを特定することができる。車両感知機器は、マイクロ波レーダー及びミリ波レーダーを使用して、感知範囲内のターゲット対象物の位置、速度、及びサイズ等の路側感知データを特定することができる。車両感知機器は、カメラを使用して、感知範囲内のターゲット対象物の位置、速度、サイズ、及び色等の路側感知データを特定することができる。前述したいくつかの特定の例は、車両センサの単なる例であり、特定の制限を構成すべきではないことが理解され得る。車両感知機器は、車両センサのいずれか1つを単独で使用してもよく、又は任意の複数の車両センサを同時に使用してもよい。車両感知データは、車両結果セットの形式で記述してもよく、車両結果セットは複数の車両結果ユニットを含み得、各車両結果ユニットは1つのターゲット対象物に対応する。車両結果ユニットは、多次元の角度からのターゲット対象物の特徴、例えば位置、速度、サイズ、及び色を記述する。例えば、車両結果ユニットが車両(p
v,v
v,s
v,c
v)として表すことができると仮定すると、p
vは車両感知機器が検出したターゲット対象物の位置を示し、v
vは車両感知機器が検出したターゲット対象物の速度を示し、s
vは車両感知機器が検出したターゲット対象物のサイズを示し、c
vは車両感知機器が検出したターゲット対象物の色を示し、車両結果セットはresult
v(vehicle
1,vehicle
2,...,vehicle
N)として表すことができ、Nは車両感知機器の感知範囲内のターゲット対象物の数量である。より具体的には、マトリックス形式を例にとると、車両結果セットは、次のように表すことができる。
【数2】
【0049】
本願のこの実施形態では、路側装置及び車両装置は、データ通信を実施するために無線で接続してもよい。
【0050】
本願のこの実施形態では、路側装置及び/又は車両装置は、融合式を使用して、路側感知機器が感知範囲内で検出した路側感知データと、車両感知機器が感知範囲内で検出した車両感知データとに対してデータ融合を実行して、第1の融合結果を取得することができる。路側結果セットが路側感知データを示し、且つ車両結果セットが車両感知データを示す例では、融合式は、次のように表すことができる:
y=f(resultr,resultv)
ここで、resultrは路側結果セットであり、resultvは車両結果セットであり、yは第1の融合結果であり、fは、路側結果セット及び車両結果セットに基づいてマッピングすることにより、第1の融合結果を取得するために使用される。
【0051】
特定の実施態様では、関数fは、次のように表すことができる:
f(result
r,result
v)=(w
r/(w
r+w
v))result
r+(w
v/(w
r+w
v))result
v
ここで、w
rは路側感知機器の信頼係数であり、w
rは多次元データであり得、つまり、w
r=(w
r1,w
r2,...,w
rM)であり、result
r(roadside
1,roadside
2,...,roadside
M)であり、Mは路側感知機器の感知範囲内のターゲット対象物の数量であり、w
riは路側感知機器の感知範囲内のターゲット対象物iに対応する信頼係数であり、路側
iは路側感知機器の感知範囲内のターゲット対象物iに対応する路側結果ユニットであり、iはM未満の自然数であり、w
vは車両感知機器の信頼係数であり、w
vは多次元データであり得、つまりw
v=(w
v1,w
v2,...,w
vN)であり、Nは車両感知機器の感知範囲内のターゲット対象物の数量であり、w
vjは車両感知機器の感知範囲内のターゲット対象物jに対応する信頼係数であり、車両
jは車両感知機器の感知範囲内のターゲット対象物jに対応する車両結果ユニットであり、jはN未満の自然数である。路側感知機器の信頼係数をより細かく分割することができ、それによって、路側結果ユニット内の異なる要素が異なる信頼係数に対応することが理解され得る。同様に、車両感知機器の信頼係数もより細かく分割することができ、それによって、車両結果ユニット内の異なる要素が異なる信頼係数に対応する。具体的には、
【数3】
の場合に
【数4】
であり、
【数5】
の場合に
【数6】
である。
【0052】
路側感知機器の信頼係数と車両感知機器の信頼係数との比が大きい場合に、融合結果における路側感知データの割合と融合結果における車両感知データの割合との比が大きいことは容易に理解される。簡単に言えば、感知機器の信頼係数の値が大きいほど、融合結果での検出を通じて感知機器が取得した感知データの割合が大きくなる。
【0053】
なお、信頼係数は、感知機器パラメータ、ターゲット対象物の感知距離、及びターゲット対象物の感知角度をまとめたもの(together)に基づいて決定してもよい。感知機器パラメータは、初期精度、空間設置角度、及び感知機器の設置座標に関連する。ターゲット対象物の感知距離は、感知座標系におけるターゲット対象物と感知機器との間の距離である。ターゲット対象物の感知角度は、感知座標系におけるターゲット対象物と感知機器とのなす角度である。なお、感知機器が複数のセンサを含む場合に、複数のセンサの信頼度を総合的に考慮することにより、重付け又は平均化の方法で信頼係数を求めてもよいことに留意されたい。特定の実施形態では、信頼係数は、以下の式に基づいて得ることができる:
w=g(Sk,Ri,θj),w∈[0,1]
ここで、Skは感知機器パラメータであり、Riは感知距離であり、θjは感知角度であり、gは感知機器の較正によって得られた較正パラメータテーブルである。較正パラメータテーブルは、大量の既知のターゲット対象物のデータをセンサ機器の較正プロセスにおいて使用することにより、逆推定によって得ることができる。感知機器パラメータの精度が高い場合に、信頼係数の値が大きくなり、又は感知機器パラメータの精度が低い場合に、信頼係数の値が小さくなることは容易に理解できる。感知距離が短い場合に、信頼係数の値は大きくなり、又は感知距離が長い場合に、信頼係数の値は小さくなることは容易に理解できる。感知角度が小さい場合に、信頼係数の値は大きくなり、又は感知角度が大きい場合に、信頼係数の値は小さくなることは容易に理解できる。
【0054】
特定の実施形態では、感知機器パラメータは、以下の式に基づいて得ることができる:
Sk=h(S0,A,P)
ここで、Skは感知機器パラメータであり、S0は感知機器パラメータの初期精度であり、Aは、感知機器の空間設置角度、つまり、感知機器が設置された後の道路の地面に対する空間角であり、Pは、感知機器の設置座標、つまり、感知機器が設置された後の道路の地面に対する3次元座標である。
【0055】
オプションで、感知機器の空間設置角度は、A=(ヨー、ピッチ、ロール)として規定してもよく、ヨーは道路の地面に対する感知機器のヨー角であり、ピッチは道路の地面に対する感知機器のピッチ角であり、ロールは道路の地面に対する感知機器のロール角である。
図2に示されるように、道路の地面に対して右手デカルト座標が作成される例では、ヨー角(yaw:ヨー)は、感知機器をy軸の周りに回転させることによって得られる角度として規定することができ、ピッチ角(pitch:ピッチ)は、感知機器をx軸の周りに回転させることによって得られる角度として規定することができ、ロール角(roll:ロール)は、感知機器をz軸の周りに回転させることによって得られる角度として規定することができる。
【0056】
オプションで、感知機器の設置座標は、P=(x、y、h)として規定してもよい。
図3に示されるように、x及びyは、道路の地面に投影された感知機器の座標を示し、hは、感知機器から道路の地面までの垂直距離を示す。
【0057】
特定の実施形態では、ターゲット対象物の感知距離及びターゲット対象物の感知角度は、以下の方法で取得してもよい。
図4に示されるように、感知機器を中心として、感知機器の感知範囲を異なる距離及び異なる角度のセクタ(sector)領域に分割し、それによって、感知座標系を作成する。感知機器は、ターゲット対象物が感知座標系に含まれるセクタ領域に基づいて、ターゲット対象物の感知距離R
i及びターゲット対象物の感知角度θ
jを決定する。
【0058】
路側感知データ及び車両感知データに対してデータ融合を実行して融合結果を取得する前に、路側装置及び/又は車両装置は、路側感知データを車両感知データとマッチングして、マッチングを取得する必要があり、それによって、路側装置及び/又は車両装置は、マッチング結果に基づいて、路側感知データ及び車両感知データに対してデータ融合を実行することができる。
【0059】
以下では、路側感知データを車両感知データとマッチングさせることの意味を説明する例を使用する。路側結果セットの形式で表された路側感知データがresultr(roadside1,roadside2,...,roadsideM)であり、車両結果セットの形式で表された車両感知データがresultr(vehicle1,vehicle2,...,vehicleN)であると仮定し、ここで、Mは路側感知機器の感知範囲内のターゲット対象物の数量であり、Nは車両感知機器の感知範囲内のターゲット対象物の数量であり、M>Nであり、roadside1(路側1)は路側感知機器がターゲット対象物1を検出することによって取得された路側結果ユニットであり、roadside2(路側2)は路側感知機器がターゲット対象物2を検出することによって取得された路側結果ユニットであり、・・・(以下同様に続き)、roadsideM(路側M)は路側感知機器がターゲット対象物Mを検出することによって取得された路側結果ユニットであり、そして、vehicle1(車両1)は車両感知機器がターゲット対象物1を検出することによって取得された車両結果ユニットであり、vehicle2(車両2)は車両感知機器がターゲット対象物2を検出することによって取得された車両結果ユニットであり、・・・(以下同様に続き)、vehicleN(車両N)は車両感知機器がターゲット対象物Nを検出することによって取得された車両結果ユニットである。従って、roadside1及びvehicle1は両方とも、ターゲット対象物1を検出することによって取得された結果ユニットであり、且つマッチング関係を有しており、roadside2及びvehicle2は両方とも、ターゲット対象物2を検出することによって取得された結果ユニットであり、且つマッチング関係を有しており、・・・(以下同様に続き)、roadsideM及びvehicleNは両方とも、どちらもターゲット対象物Nを検出することによって取得された結果ユニットであり、且つマッチング関係を有する。従って、路側感知データを車両感知データとマッチングさせることは、路側感知データ内の路側結果ユニットと車両感知データ内の車両結果ユニットとの間の全てのマッチング関係を見出すことである。
【0060】
本願のこの実施形態では、路側装置及び/又は車両装置は、偏差ネットワークを使用して、路側感知データ内の路側結果ユニットと車両感知データ内の車両結果ユニットとの間のマッチング関係を見出すことができる。具体的には、路側結果ユニット及び車両結果ユニットは偏差ネットワークの入力として使用される。この場合に、偏差ネットワークは、路側結果ユニットと車両結果ユニットとの間のマッチング結果を出力する。偏差ネットワークによって出力されたマッチング結果が、路側結果ユニットが車両結果ユニットと一致することを示す場合に、それは、路側結果ユニットと車両結果ユニットとの間にマッチング関係が存在すると考えられ得る。或いは、偏差ネットワークによって出力されたマッチング結果が、路側結果ユニットが車両結果ユニットと一致しないことを示す場合に、それは、路側結果ユニットと車両結果ユニットとの間にマッチング関係が存在しないと考えられ得る。さらに前述した例を例にとると、roadside1及びvehicle1が偏差ネットワークの入力として使用され、偏差ネットワークによって出力されたマッチング結果が、roadside1がvehicle1と一致することを示す場合に、それは、roadside1とvehicle1との間にマッチング関係が存在すると判定することができる。或いは、roadside1及びvehicle2が偏差ネットワークの入力として使用され、偏差ネットワークによって出力されたマッチング結果が、roadside1がvehicle2と一致しないことを示す場合に、それは、roadside1とvehicle2との間にマッチング関係が存在しないと判定することができる。
【0061】
本願のこの実施形態では、路側感知データ内の路側結果ユニットと車両感知データ内の車両結果ユニットとの間のマッチング関係は、以下の式を使用して見出すことができる:
S=Deviation(路側i,車両j)
ここで、Sはマッチング結果であり、Deviation(偏差)は偏差ネットワークであり、路側iは路側感知機器の感知範囲内のターゲット対象物iに対応する路側結果ユニットであり、車両jは車両感知機器の感知範囲内のターゲット対象物jに対応する車両結果ユニットであり、i及びjは共に自然数である。
【0062】
路側
i=(p
ri、v
ri、s
ri、c
ri)及び車両
j=(p
vj,v
vj,s
vj,c
vj)を例にとると、特定の実施態様では、偏差ネットワーク(Deviation)は、
図5に示される逆伝播(back propagation : BP)ニューラルネットワークであり得、
ここで、Δp
ijは位置偏差であり、Δp
ij=fabs(p
ri-p
vj)であり、p
riは路側感知機器が検出したターゲット対象物iの位置であり、p
vjは車両感知機器が検出したターゲット対象物jの位置であり、fabsは絶対値を求めるための関数であり、
Δv
ijは速度偏差であり、Δv
ij=fabs(v
ri-v
vj)であり、v
riは路側感知機器が検出したターゲット対象物iの速度であり、v
vjは車両感知機器が検出したターゲット対象物jの速度であり、
Δs
ijはサイズ偏差であり、Δs
ij=fabs(s
ri-s
vj)であり、s
riは路側感知機器が検出したターゲット対象物iのサイズであり、s
vjは車両感知機器が検出したターゲット対象物jのサイズであり、
Δc
ijは色偏差であり、Δc
ij=fabs(c
ri-c
vj)であり、c
riは路側感知機器が検出したターゲット対象物iの色であり、c
vjは車両感知機器が検出したターゲット対象物jの色であり、
P
pは位置偏差係数であり、P
p=1/(1+exp(-w
ri
pw
vj
p))であり、w
ri
pは路側感知機器が検出したターゲット対象物iの位置に対応する信頼係数であり、w
vj
pは車両感知機器が検出したターゲット対象物jの位置に対応する信頼係数であり、
P
vは速度偏差係数であり、P
v=1/(1+exp(-w
ri
vw
vj
v))であり、w
ri
vは路側感知機器が検出したターゲット対象物iの速度に対応する信頼係数であり、w
vj
vは車両感知機器が検出したターゲット対象物jの速度に対応する信頼係数であり、
P
sはサイズ偏差係数であり、P
s=1/(1+exp(-w
ri
sw
vj
s))であり、w
ri
sは路側感知機器が検出したターゲット対象物iのサイズに対応する信頼係数であり、w
vj
sは車両感知機器が検出したターゲット対象物jのサイズに対応する信頼係数であり、
P
cは速度偏差係数であり、P
c=1/(1+exp(-w
ri
cw
vj
c))であり、w
ri
cは路側感知機器が検出したターゲット対象物iの色に対応する信頼係数であり、w
vj
cは車両感知機器が検出したターゲット対象物jの色に対応する信頼係数であり、
φ(.)は活性化関数であり、ここで、活性化関数は、漏れ(leaky)正規化線形ユニット(Leaky
Rectified Linear Unit : LReLU)、パラメータ正規化線形ユニット(Parametric
Rectified Linear Unit : PReLU)、ランダム化漏れ正規化線形ユニット(Randomized
Leaky Rectified Linear unit : RReLU)、ReLUSoftplus関数、Softsign関数、Sigmoid関数、又はtanh関数であり得る。
【0063】
なお、wri
p,wvj
p,wri
v,wvj
v,wri
s,wvj
s,wri
c,及びwvj
cを取得するための方法については、信頼係数に関連する前述した段落を参照することができることに留意されたい。詳細については、ここでは再び説明しない。
【0064】
前述した例では、偏差ネットワークは、BPニューラルネットワークを例として使用することにより説明した。あるいはまた、別の実施態様では、偏差ネットワークは、長・短期記憶(Long Short-Term Memory : LSTM)ネットワーク、残差ネットワーク(Residential Networking : ResNet)、再帰型ニューラルネットワーク(Recurrent Neural Networks : RNN)等であり得る。これは、本明細書では特に限定されない。
【0065】
以上の内容では、路側感知データと車両感知データとの間のマッチングを単一のフレームのみで実施しており、マッチング結果の信頼度は高くはない。上記の問題を解決するために、2つのフレーム又はさらに多くのフレームにおける路側感知データと車両感知データとの間のマッチングが考慮され得、それによって、マッチング結果の信頼度が向上する。さらに、路側装置及び/又は車両装置は、フレーム間(interframe)ループバック及び/又はマルチフレーム相関の方法でマッチング結果の信頼度をさらに評価して、評価結果を取得し、評価結果に基づいて、偏差ネットワークを調整することができる。
【0066】
本願のこの実施形態では、フレーム間ループバックは、主に、隣接するフレームにおける路側感知データと車両感知データとの間のクロスマッチングによって取得されたマッチング結果に基づく計算によって得られる。結果ユニットを例にとると、フレーム間ループバックは、主に、フレーム内(intraframe)マッチング結果及び隣接フレームのフレーム間マッチング結果に基づいて取得される。フレーム内マッチング結果とは、異なる感知機器が同じフレーム内の同じターゲット対象物を検出することによって取得された結果ユニットのマッチングにより得られるマッチング結果である。フレーム間マッチング結果とは、同じ感知機器が隣接するフレームで同一のターゲット対象物を検出することによって取得された結果ユニットのマッチングにより得られるマッチング結果である。
【0067】
図6に示されるように、路側感知機器及び車両感知機器を例にとると、フレーム間ループバックは、次のように規定することができる:
T
ループバック=T
1+T
2+T
3+T
4
ここで、T
ループバックはフレーム間ループバックであり、T
1は第1のマッチング結果であり、T
2は第2のマッチング結果であり、T
3は第3のマッチング結果であり、T
4は第4のマッチング結果である。第1のマッチング結果は、i番目のフレームのフレーム内マッチング結果、すなわち、路側感知機器がi番目のフレームで検出したターゲット対象物jに対応する路側結果ユニットと、車両感知機器がi番目のフレームで検出したターゲット対象物jに対応する車両結果ユニットとの間のマッチング結果である。第2のマッチング結果は、車両感知機器のフレーム間マッチング結果、すなわち、車両感知機器がi番目のフレームで検出したターゲット対象物jに対応する車両結果ユニットと、車両感知機器が(i+1)番目のフレームで検出したターゲット対象物jに対応する車両結果ユニットとの間のマッチング結果である。第3のマッチング結果は、(i+1)番目のフレームのフレーム内マッチング結果、すなわち、車両感知機器が(i+1)番目のフレームで検出したターゲット対象物jに対応する車両結果ユニッと、路側感知機器が(i+1)番目のフレームで検出したターゲット対象物jに対応する路側結果ユニットとの間のマッチング結果である。第4のマッチング結果は、路側感知機器のフレーム間マッチング結果、すなわち、路側感知機器が(i+1)番目のフレームで検出したターゲット対象物jに対応する路側結果ユニットと、路側感知機器がi番目のフレームで検出したターゲット対象物jに対応する路側結果ユニットとの間のマッチング結果である。
【0068】
本願のこの実施形態では、マルチフレーム相関は、主に、複数の連続するフレームの間のフレーム間ループバックに基づいて得られる。特定の実施態様では、
図7に示されるように、マルチフレーム相関は、
T
マルチフレーム=T
ループバック12+T
ループバック23+T
ループバック34+・・・
として規定でき、
ここで、T
マルチフレームはマルチフレーム相関であり、T
ループバック12は第1のフレームと第2のフレームとの間のフレーム間ループバックであり、T
ループバック23は第2のフレームと第3のフレームとの間のフレーム間ループバックであり、T
ループバック34は第3のフレームと第4のフレームとの間のフレーム間ループバックであり、以下同様である。
【0069】
路側装置及び/又は車両装置によって実行されるデータ融合が、少なくとも以下の2つの利点をもたらすことは容易に理解される。
【0070】
1. 路側感知機器の感知範囲と車両感知機器の感知範囲との間にオーバーラップを実現することができ、それによって、路側感知機器及び/又は車両感知機器の感知範囲が効果的に拡張される。例えば、路側感知機器が感知範囲内で検出したターゲット対象物の数量が3つ(ターゲット対象物1、ターゲット対象物2、及びターゲット対象物3)であり、車両感知機器が感知範囲内で検出したターゲット対象物の数量が2つ(ターゲット対象物3、及びターゲット対象物4)であると仮定すると、車両感知機器が路側感知データと車両感知データとを融合した後に、融合結果の感知範囲には、4つのターゲット対象物(ターゲット対象物1、ターゲット対象物2、ターゲット対象物3、及びターゲット対象物4)が含まれる。
【0071】
2. 信頼度の高いデータを使用して信頼度の低いデータを補正することができ、それによって、路側感知機器及び/又は車両感知機器のデータの信頼度を効果的に向上させる。例えば、路側感知機器が計測によって取得したターゲット対象物の速度の信頼度が、車両感知機器が計測によって取得したターゲット対象物の速度の信頼度よりも低いと仮定すると、路側感知機器は、車両感知機器が計測によって取得したターゲット対象物の速度を使用して、路側感知機器が計測によって取得したターゲット対象物の速度を補正し、信頼度の高いデータを取得することができる。
【0072】
仕様の前述の内容は、路側感知機器が感知範囲内で検出した路側感知データと、車両感知機器が感知範囲内で検出した車両感知データとに対してデータ融合をどの様に実施するかに関する解決策に焦点を当てている。以下は、データ融合方法及び関連装置の観点から、路側感知機器及び/又は車両感知機器が、前述したデータ融合解決策をどの様に使用して感知範囲を拡張するかを説明する。
【0073】
図8は、本願の一実施形態による第1のデータ融合方法の概略フローチャートである。
図8に示されるように、本願のこの実施形態におけるデータ融合方法は、具体的には、以下のステップを含む。
【0074】
S101. 車両装置は車両感知データを取得し、車両感知データは、車両感知機器が車両センサを使用して感知範囲内の道路環境を感知することによって取得される。
【0075】
本願のこの実施形態では、車両感知機器を車両感知装置のために構成してもよい。車両感知機器は、少なくとも1つの車両センサ、例えば複合慣性航法、マイクロ波レーダー、ミリ波レーダー、及びカメラを含み、且つ感知範囲内のターゲット対象物の車両感知データを特定することができる。車両感知データには、ターゲット対象物の位置、速度、サイズ、色等が含まれ得る。
【0076】
前述したいくつかの特定の例は、車両センサの単なる例であり、特定の制限を構成すべきではないことが理解され得る。車両感知機器は、車両センサのいずれか1つを単独で使用してもよく、又は任意の複数の車両センサを同時に使用してもよい。
【0077】
S102. 路側装置は路側感知データを取得し、路側感知データは、路側感知機器が路側センサを使用して感知範囲内の道路環境を感知することによって取得される。
【0078】
本願のこの実施形態では、路側感知機器を路側装置のために構成してもよい。路側感知機器は、少なくとも1つの路側センサ、例えばマイクロ波レーダー及びミリ波レーダーを含み、且つ感知範囲内のターゲット対象物の路側感知データを特定することができる。路側感知データには、ターゲット対象物の位置、速度、サイズ、及び色等が含まれ得る。
【0079】
前述したいくつかの特定の例は、路側センサの単なる例であり、特定の制限を構成すべきではないことが理解され得る。路側感知機器は、路側センサのいずれか1つを単独で使用してもよく、又は任意の複数の路側センサを同時に使用してもよい。
【0080】
S103. 路側装置は、路側感知データを車両装置に送信する。対応して、車両装置は、路側装置により送信された路側感知データを受信する。
【0081】
S104. 車両装置は、路側感知データを車両感知データとマッチングして、マッチング結果を取得する。
【0082】
本願のこの実施形態では、車両装置は、偏差ネットワークを使用して、路側感知データ内の路側結果ユニットと車両感知データ内の車両結果ユニットとの間のマッチング関係を見出すことができる。具体的には、路側結果ユニット及び車両結果ユニットは、偏差ネットワークの入力として使用される。この場合に、偏差ネットワークは、路側結果ユニットと車両結果ユニットとの間のマッチング結果を出力する。
【0083】
本願のこの実施形態では、路側感知データ内の路側結果ユニットと車両感知データ内の車両結果ユニットとの間のマッチング関係は、以下の式を使用して見出すことができる:
S=Deviation(路側i,車両j)
ここで、Sはマッチング結果であり、Deviation(偏差)は偏差ネットワークであり、路側iは路側感知機器の感知範囲内のターゲット対象物iに対応する路側結果ユニットであり、車両jは車両感知機器の感知範囲内のターゲット対象物jに対応する車両結果ユニットであり、i及びjは共に自然数である。
【0084】
S105. 車両装置は、フレーム間ループバック及び/又はマルチフレーム相関の方法でマッチング結果の信頼度を評価し、評価結果に基づいて、偏差ネットワークを調整する。
【0085】
本願のこの実施形態では、フレーム間ループバックは、次のように規定することができる:
Tループバック=T1+T2+T3+T4
ここで、Tループバックはフレーム間ループバックであり、T1は第1のマッチング結果であり、T2は第2のマッチング結果であり、T3は第3のマッチング結果であり、T4は第4のマッチング結果である。第1のマッチング結果は、i番目のフレームのフレーム内マッチング結果、すなわち、路側感知機器がi番目のフレームで検出したターゲット対象物jに対応する路側結果ユニットと、車両感知機器がi番目のフレームで検出したターゲット対象物jに対応する車両結果ユニットとの間のマッチング結果である。第2のマッチング結果は、車両感知機器のフレーム間マッチング結果、すなわち、車両感知機器がi番目のフレームで検出したターゲット対象物jに対応する車両結果ユニットと、車両感知機器が(i+1)番目のフレームで検出したターゲット対象物jに対応する車両結果ユニットとの間のマッチング結果である。第3のマッチング結果は、(i+1)番目のフレームのフレーム内マッチング結果、すなわち、車両感知機器が(i+1)番目のフレームで検出したターゲット対象物jに対応する車両結果ユニッと、路側感知機器が(i+1)番目のフレームで検出したターゲット対象物jに対応する路側結果ユニットとの間のマッチング結果である。第4のマッチング結果は、路側感知機器のフレーム間マッチング結果、すなわち、路側感知機器が(i+1)番目のフレームで検出したターゲット対象物jに対応する路側結果ユニットと、路側感知機器がi番目のフレームで検出したターゲット対象物jに対応する路側結果ユニットとの間のマッチング結果である。
【0086】
本願のこの実施形態では、マルチフレーム相関は、主に、複数の連続するフレームの間のフレーム間ループバックに基づいて得られる。特定の実施態様では、マルチフレーム相関は、
Tマルチフレーム=Tループバック12+Tループバック23+Tループバック34+・・・
として規定でき、
ここで、Tマルチフレームはマルチフレーム相関であり、Tループバック12は第1のフレームと第2のフレームとの間のフレーム間ループバックであり、Tループバック23は第2のフレームと第3のフレームとの間のフレーム間ループバックであり、Tループバック34は第3のフレームと第4のフレームとの間のフレーム間ループバックであり、以下同様である。
【0087】
S106. 車両装置は、融合式を使用して車両感知データと路側感知データとを融合して、第1の融合結果を取得する。
【0088】
本願のこの実施形態では、車両装置は、融合式を使用して、路側感知機器が感知範囲内で検出した路側感知データと、車両感知機器が感知範囲で検出した車両感知データとに対してデータ融合を実行して、第1の融合結果を取得することができる。
【0089】
本願のこの実施形態では、
y=f(resultr,resultv)
として表すことができ、
ここで、resultrは路側結果セットであり、resultvは車両結果セットであり、yは第1の融合結果であり、fは、路側結果セット及び車両結果セットに基づいてマッピングすることにより、第1の融合結果を取得するために使用される。
【0090】
特定の実施態様では、関数fは、次のように表すことができる:
f(resultr,resultv)=(wr/(wr+wv))resultr+(wv/(wr+wv))resultv
ここで、wrは路側感知機器の信頼係数であり、wrは多次元データであり得、つまりwr=(wr1,wr2,...,wrM)であり、resultr(roadside1,roadside2,...,roadsideM)であり、Mは路側感知機器の感知範囲内のターゲット対象物の数量であり、wriは路側感知機器の感知範囲内のターゲット対象物iに対応する信頼係数であり、路側iは路側感知機器の感知範囲内のターゲット対象物iに対応する路側結果ユニットであり、iはM未満の自然数であり、wvは車両感知機器の信頼係数であり、wvは多次元データであり得、つまりwv=(wv1,wv2,...,wvN)であり、Nは車両感知機器の感知範囲内のターゲット対象物の数量であり、wvjは車両感知機器の感知範囲内のターゲット対象物jに対応する信頼係数であり、車両jは車両感知機器の感知範囲内のターゲット対象物jに対応する車両結果ユニットであり、jはN未満の自然数である。
【0091】
簡潔にするために、本願のこの実施形態では、路側感知データと車両感知データとの融合については、再び詳細に説明しない。詳細については、明細書の冒頭の路側感知データと車両感知データとの融合に関する説明を参照されたい。
【0092】
図9は、本願の一実施形態による第2のデータ融合方法の概略フローチャートである。
図9に示されるように、本願のこの実施形態におけるデータ融合方法は、具体的には、以下のステップを含む。
【0093】
S201. 路側装置は路側感知データを取得し、路側感知データは、路側感知機器が路側センサを使用して感知範囲内の道路環境を感知することによって取得される。
【0094】
本願のこの実施形態では、路側感知機器を路側装置のために構成してもよい。路側感知機器は、少なくとも1つの路側センサ、例えばマイクロ波レーダー及びミリ波レーダーを含み、且つ感知範囲内のターゲット対象物の路側感知データを特定することができる。路側感知データには、ターゲット対象物の位置、速度、サイズ、色等が含まれ得る。
【0095】
前述したいくつかの特定の例は、路側センサの単なる例であり、特定の制限を構成すべきではないことが理解され得る。路側感知機器は、路側センサのいずれか1つを単独で使用してもよく、又は任意の複数の路側センサを同時に使用してもよい。
【0096】
S202. 車両装置は車両感知データを取得し、車両感知データは、車両感知機器が車両センサを使用して感知範囲内の道路環境を感知することによって取得される。
【0097】
本願のこの実施形態では、車両感知機器を車両装置のために構成してもよい。車両感知機器は、少なくとも1つの車両センサ、例えば複合慣性航法、マイクロ波レーダー、ミリ波レーダー、及びカメラを含み、且つ感知範囲内のターゲット対象物の車両感知データを特定することができる。車両感知データには、ターゲット対象物の位置、速度、サイズ、色等が含まれ得る。
【0098】
前述したいくつかの特定の例は、車両センサの単なる例であり、特定の制限を構成すべきではないことが理解され得る。車両感知機器は、車両センサのいずれか1つを単独で使用してもよく、又は任意の複数の車両センサを同時に使用してもよい。
【0099】
S203. 車両装置は、車両感知データを路側装置に送信する。対応して、路側装置は、車両装置により送信された車両感知データを受信する。
【0100】
S204. 路側装置は、路側感知データを車両感知データとマッチングして、マッチング結果を取得する。
【0101】
本願のこの実施形態では、路側感知機器は、偏差ネットワークを使用して、路側感知データ内の路側結果ユニットと車両感知データ内の車両結果ユニットとの間のマッチング関係を見出すことができる。具体的には、路側結果ユニット及び車両結果ユニットは偏差ネットワークの入力として使用される。この場合に、偏差ネットワークは、路側結果ユニットと車両結果ユニットとの間のマッチング結果を出力する。
【0102】
本願のこの実施形態では、路側感知データ内の路側結果ユニットと車両感知データ内の車両結果ユニットとの間のマッチング関係は、以下の式を使用して見出すことができる:
S=Deviation(路側i,車両j)
ここで、Sはマッチング結果であり、Deviation(偏差)は偏差ネットワークであり、路側iは路側感知機器の感知範囲内のターゲット対象物iに対応する路側結果ユニットであり、車両jは車両感知機器の感知範囲内のターゲット対象物jに対応する車両結果ユニットであり、i及びjは共に自然数である。
【0103】
S205. 路側装置は、フレーム間ループバック及び/又はマルチフレーム相関の方法でマッチング結果の信頼度を評価して、評価結果を取得し、評価結果に基づいて、偏差ネットワークを調整する。
【0104】
本願のこの実施形態では、フレーム間ループバックは、次のように規定することができる:
Tループバック=T1+T2+T3+T4
ここで、Tループバックはフレーム間ループバックであり、T1は第1のマッチング結果であり、T2は第2のマッチング結果であり、T3は第3のマッチング結果であり、T4は第4のマッチング結果である。第1のマッチング結果は、i番目のフレームのフレーム内マッチング結果、すなわち、路側感知機器がi番目のフレームで検出したターゲット対象物jに対応する路側結果ユニットと、車両感知機器がi番目のフレームで検出したターゲット対象物jに対応する車両結果ユニットとの間のマッチング結果である。第2のマッチング結果は、車両感知機器のフレーム間マッチング結果、すなわち、車両感知機器がi番目のフレームで検出したターゲット対象物jに対応する車両結果ユニットと、車両感知機器が(i+1)番目のフレームで検出したターゲット対象物jに対応する車両結果ユニットとの間のマッチング結果である。第3のマッチング結果は、(i+1)番目のフレームのフレーム内マッチング結果、すなわち、車両感知機器が(i+1)番目のフレームで検出したターゲット対象物jに対応する車両結果ユニッと、路側感知機器が(i+1)番目のフレームで検出したターゲット対象物jに対応する路側結果ユニットとの間のマッチング結果である。第4のマッチング結果は、路側感知機器のフレーム間マッチング結果、すなわち、路側感知機器が(i+1)番目のフレームで検出したターゲット対象物jに対応する路側結果ユニットと、路側感知機器がi番目のフレームで検出したターゲット対象物jに対応する路側結果ユニットとの間のマッチング結果である。
【0105】
本願のこの実施形態では、マルチフレーム相関は、主に、複数の連続するフレームの間のフレーム間ループバックに基づいて得られる。特定の実施態様では、マルチフレーム相関は、
Tマルチフレーム=Tループバック12+Tループバック23+Tループバック34+・・・
として規定でき、
ここで、Tマルチフレームはマルチフレーム相関であり、Tループバック12は第1のフレームと第2のフレームとの間のフレーム間ループバックであり、Tループバック23は第2のフレームと第3のフレームの間のフレーム間ループバックであり、Tループバック34は第3のフレームと第4のフレームとの間のフレーム間ループバックであり、以下同様である。
【0106】
S206. 路側装置は、融合式を使用して車両感知データと路側感知データとを融合して、第1の融合結果を取得する。
【0107】
本願のこの実施形態では、路側感知機器は、融合式を使用して、路側感知機器が感知範囲内で検出した路側感知データと、車両感知機器が検出範囲内で検出した車両感知データとに対してデータ融合を実行して、第1の融合結果を取得することができる。
【0108】
本願のこの実施形態では、融合式は、
y=f(resultr,resultv)
として表すことができ、
ここで、resultrは路側結果セットであり、resultvは車両結果セットであり、yは第1の融合結果であり、fは、路側結果セット及び車両結果セットに基づいてマッピングすることにより、第1の融合結果を取得するために使用される。
【0109】
特定の実施態様では、関数fは、次のように表すことができる:
f(resultr,resultv)=(wr/(wr+wv))resultr+(wv/(wr+wv))resultv
ここで、wrは路側感知機器の信頼係数であり、wrは多次元データであり得、つまりwr=(wr1,wr2,...,wrM)であり、resultr(roadside1,roadside2,...,roadsideM)であり、Mは路側感知機器の感知範囲内のターゲット対象物の数量であり、wriは路側感知機器の感知範囲内のターゲット対象物iに対応する信頼係数であり、路側iは路側感知機器の感知範囲内のターゲット対象物iに対応する路側結果ユニットであり、iはM未満の自然数であり、wvは車両感知機器の信頼係数であり、wvは多次元データであり得、つまりwv=(wv1,wv2,...,wvN)であり、Nは車両感知機器の感知範囲内のターゲット対象物の数量であり、wvjは車両感知機器の感知範囲内のターゲット対象物jに対応する信頼係数であり、車両jは車両感知機器の感知範囲内のターゲット対象物jに対応する車両結果ユニットであり、jはN未満の自然数である。
【0110】
簡潔にするために、本願のこの実施形態では、路側感知データと車両感知データとの融合については、再び詳細に説明しない。詳細については、明細書の冒頭の路側感知データと車両感知データとの融合に関する説明を参照されたい。
【0111】
図10は、本願の一実施形態による第3のデータ融合方法の概略フローチャートである。
図10に示されるように、本願のこの実施形態におけるデータ融合方法は、具体的には、以下のステップを含む。
【0112】
S301. 路側装置は路側感知データを取得し、路側感知データは、路側感知機器が路側センサを使用して感知範囲内の道路環境を感知することによって取得される。
【0113】
本願のこの実施形態では、路側感知機器を路側装置のために構成してもよい。路側感知機器は、少なくとも1つの路側センサ、例えばマイクロ波レーダー及びミリ波レーダーを含み、且つ感知範囲内のターゲット対象物の路側感知データを特定することができる。路側感知データには、ターゲット対象物の位置、速度、サイズ、色等が含まれ得る。
【0114】
前述したいくつかの特定の例は、路側センサの単なる例であり、特定の制限を構成すべきではないことが理解され得る。路側感知機器は、路側センサのいずれか1つを単独で使用してもよく、又は任意の複数の路側センサを同時に使用してもよい。
【0115】
S302. 少なくとも1つの車両装置は車両感知データを取得し、車両感知データは、車両感知機器が車両センサを使用して感知範囲内の道路環境を感知することによって取得される。
【0116】
本願のこの実施形態では、車両感知機器を車両装置のために構成してもよい。車両感知機器は、少なくとも1つの車両センサ、例えば複合慣性航法、マイクロ波レーダー、ミリ波レーダー、及びカメラを含み、且つ感知範囲内のターゲット対象物の車両感知データを特定することができる。車両感知データには、ターゲット対象物の位置、速度、サイズ、色等が含まれ得る。
【0117】
前述したいくつかの特定の例は、車両センサの単なる例であり、特定の制限を構成すべきではないことが理解され得る。車両感知機器は、車両センサのいずれか1つを単独で使用してもよく、又は任意の複数の車両センサを同時に使用してもよい。
【0118】
S303. 少なくとも1つの車両装置は、車両感知データを路側装置に送信する。対応して、路側装置は、少なくとも1つの車両装置により送信された車両感知データを受信する。
【0119】
S304. 路側装置は、路側感知データを少なくとも1つの車両装置により送信された車両感知データとマッチングして、マッチング結果を取得する。
【0120】
本願のこの実施形態では、路側装置は、偏差ネットワークを使用して、路側感知データ内の路側結果ユニットと車両感知データ内の車両結果ユニットとの間のマッチング関係を見出すことができる。具体的には、路側結果ユニット及び車両結果ユニットは偏差ネットワークの入力として使用される。この場合に、偏差ネットワークは、路側結果ユニットと車両結果ユニットとの間のマッチング結果を出力する。
【0121】
本願のこの実施形態では、路側感知データ内の路側結果ユニットと車両感知データ内の車両結果ユニットとの間のマッチング関係は、以下の式を使用して見出すことができる:
S=Deviation(路側i,車両j)
ここで、Sはマッチング結果であり、Deviation(偏差)は偏差ネットワークであり、路側iは路側感知機器の感知範囲内のターゲット対象物iに対応する路側結果ユニットであり、車両jは車両感知機器の感知範囲内のターゲット対象物jに対応する車両結果ユニットであり、i及びjは共に自然数である。
【0122】
S305. 路側装置は、フレーム間ループバック及び/又はマルチフレーム相関の方法でマッチング結果の信頼度を評価して、評価結果を取得し、評価結果に基づいて、偏差ネットワークを調整する。
【0123】
本願のこの実施形態では、フレーム間ループバックは、次のように規定することができる:
Tループバック=T1+T2+T3+T4
ここで、Tループバックはフレーム間ループバックであり、T1は第1のマッチング結果であり、T2は第2のマッチング結果であり、T3は第3のマッチング結果であり、T4は第4のマッチング結果である。第1のマッチング結果は、i番目のフレームのフレーム内マッチング結果、すなわち、路側感知機器がi番目のフレームで検出したターゲット対象物jに対応する路側結果ユニットと、車両感知機器がi番目のフレームで検出したターゲット対象物jに対応する車両結果ユニットとのマッチング結果である。第2のマッチング結果は、車両感知機器のフレーム間マッチング結果、すなわち、車両感知機器がi番目のフレームで検出したターゲット対象物jに対応する車両結果ユニットと、車両感知機器が(i+1)番目のフレームで検出したターゲット対象物jに対応する車両結果ユニットとの間のマッチング結果である。第3のマッチング結果は、(i+1)番目のフレームのフレーム内マッチング結果、すなわち、車両感知機器が(i+1)番目のフレームで検出したターゲット対象物jに対応する車両結果ユニットと、路側感知機器が(i+1)番目のフレームで検出したターゲット対象物jに対応する路側結果ユニットとの間のマッチング結果である。第4のマッチング結果は、路側感知機器のフレーム間マッチング結果、すなわち、路側感知機器が(i+1)番目のフレームで検出したターゲット対象物jに対応する路側結果ユニットと、路側感知機器がi番目のフレームで検出したターゲット対象物jに対応する路側結果ユニットとの間のマッチング結果である。
【0124】
本願のこの実施形態では、マルチフレーム相関は、主に、複数の連続するフレームの間のフレーム間ループバックに基づいて得られる。特定の実施態様では、マルチフレーム相関は、
Tマルチフレーム=Tループバック12+Tループバック23+Tループバック34+・・・
として規定でき、
ここで、Tマルチフレームはマルチフレーム相関であり、Tループバック12は第1のフレームと第2のフレームとの間のフレーム間ループバックであり、Tループバック23は第2のフレームと第3のフレームとの間のフレーム間ループバックであり、Tループバック34は第3のフレームと第4のフレームとの間のフレーム間ループバックであり、以下同様である。
【0125】
S306. 路側装置は、融合式を使用して少なくとも1つの車両装置により送信された車両感知データと路側感知データとを融合して、第1の融合結果を取得する。
【0126】
本願のこの実施形態では、路側装置は、融合式を使用して、路側感知機器が感知範囲内で検出した路側感知データと、車両感知機器が感知範囲内で検出した車両感知データとに対してデータ融合を実行して、第1の融合結果を取得することができる。
【0127】
本願のこの実施形態では、融合式は
y=f(resultr,resultv)
として表すことができ、
ここで、resultrは路側結果セットであり、resultvは車両結果セットであり、yは第1の融合結果であり、fは、路側結果セット及び車両結果セットに基づいてマッピングすることにより、第1の融合結果を取得するために使用される。
【0128】
特定の実施態様では、関数fは、次のように表すことができる:
f(resultr,resultv)=(wr/(wr+wv))resultr+(wv/(wr+wv))resultv
ここで、wrは路側感知機器の信頼係数であり、wrは多次元データであり得、つまりwr=(wr1,wr2,...,wrM)であり、resultr(roadside1,roadside2,...,roadsideM)であり、Mは路側感知機器の感知範囲内のターゲット対象物の数量であり、wriは路側感知機器の感知範囲内のターゲット対象物iに対応する信頼係数であり、路側iは路側感知機器の感知範囲内のターゲット対象物iに対応する路側結果ユニットであり、iはM未満の自然数であり、wvは車両感知機器の信頼係数であり、wvは多次元データであり得、つまりwv=(wv1,wv2,...,wvN)であり、Nは車両感知機器の感知範囲内のターゲット対象物の数量であり、wvjは車両感知機器の感知範囲内のターゲット対象物jに対応する信頼係数であり、車両jは車両感知機器の感知範囲内のターゲット対象物jに対応する車両結果ユニットであり、jはN未満の自然数である。
【0129】
本願のこの実施形態では、第1の融合結果は、路側感知機器が融合式を使用して1つ又は複数の車両感知機器により送信された車両感知データと路側感知機器の路側感知データとを融合することによって取得することができる。これは、特に制限されない。
【0130】
簡潔にするために、本願のこの実施形態では、路側感知データと車両感知データとの融合については、再び詳細に説明しない。詳細については、明細書の冒頭の路側感知データと車両感知データとの融合に関する説明を参照されたい。
【0131】
S307. 路側装置は、第1の融合結果をターゲット車両装置に送信する。対応して、ターゲット車両装置は、路側装置により送信された第1の融合結果を受信する。ターゲット車両装置は、少なくとも1つの車両装置に属する。
【0132】
S308. ターゲット車両装置は、第1の融合結果とターゲット車両装置の車両感知データとを融合して、第2の融合結果を取得する。
【0133】
本願のこの実施形態では、ターゲット車両装置は、融合式を使用して第1の融合結果及びターゲット車両装置の車両感知データに対してデータ融合を実行して、第2の融合結果を取得することができる。第1の融合結果と車両感知データとを融合するプロセスは、路側感知データと車両感知データを融合するプロセスと同様であり、ここでは再び説明しない。
【0134】
前述した解決策では、路側装置は、複数の車両感知機器により送信された車両感知データと路側装置の路側感知データとを融合して、より広い感知範囲の第1の融合結果を取得し(ここでの感知範囲は、路側感知機器の感知範囲と複数の車両感知機器の感知範囲との間のオーバーラップの結果である)、次に、第1の融合結果をターゲット車両装置に送信することができ、それによって、ターゲット車両装置が第1の融合結果と車両感知データとを融合して、車両感知機器の感知範囲を拡張する。
【0135】
同じ発明概念に基づいて、本願の実施形態は融合機器を提供し、装置を、車両装置に適用してもよく、又は路側装置に適用してもよい。融合機器は、チップ、プログラム可能なコンポーネント、回路コンポーネント、装置(すなわち、融合機器は車両装置又は路側装置である)、システム等であり得、本明細書では特に限定されない。
【0136】
図11に示されるように、融合機器が車両装置である例では、融合機器100は、センサシステム104、制御システム106、周辺装置108、電源110、及び計算機器111を含む。計算機器111は、プロセッサ113とメモリ114とを含み得る。計算機器111は、融合機器100のコントローラ又はコントローラの一部であってもよい。メモリ114は、プロセッサ113によって実行され得る命令115を含み得、さらに地図データ116を格納し得る。融合機器100のコンポーネントは、互いの相互接続及び/又は様々なシステムに結合された他のコンポーネントとの相互接続の方法で機能するように構成され得る。例えば、電源110は、融合機器100の全ての構成要素に電力を供給することができる。計算機器111は、センサシステム104、制御システム106、及び周辺装置108からデータを受け取り、それらを制御するように構成され得る。
【0137】
他の例では、融合機器100は、より多い、より少ない、又は異なるシステムを含むことができ、各システムは、より多い、より少ない、又は異なるコンポーネントを含むことができる。さらに、示されたシステム及びコンポーネントは、任意の方法で結合又は分割してもよい。
【0138】
センサシステム104は、融合機器100の感知範囲内の道路環境を感知するように構成されたいくつかのセンサを含み得る。図に示されるように、センサシステムのセンサは、GPS126、慣性測定ユニット(inertial measurement unit : IMU)128、無線検出及びレーダー測距(RADAR)ユニット130、レーザ測距(LIDAR)ユニット132、カメラ134、及びセンサの位置及び/又は向きを変更するように構成されたアクチュエータ136を含む。
【0139】
GPSモジュール126は、車両の地理的位置を推定するように構成された任意のセンサであり得る。従って、GPSモジュール126は、トランシーバを含み、且つ衛星測位データに基づいて地球に対する融合機器100の位置を推定することができる。一例では、GPSモジュール126を使用し、地図データ116を参照することにより、計算機器111は、車両装置が走行可能な道路の車線端における融合機器100の位置を推定するように構成され得る。あるいはまた、GPSモジュール126は別の形態であってもよい。
【0140】
IMU128は、慣性、加速度、及びこれらの任意の組合せに基づいて、車両の位置及び向きの変化を感知するように構成され得る。いくつかの例では、センサの組合せは、加速度計及びジャイロを含み得る。センサの他の組合せも可能である。
【0141】
レーダー(RADAR)ユニット130は、対象物(object:物体、オブジェクト)検出システムと考えることができる。レーダーユニット130は、電波を使用して、ターゲット対象物の特徴、例えば対象物の距離、高さ、方向、又は速度を検出するように構成される。レーダーユニット130は、電波又はマイクロ波パルスを送信するように構成され得る。電波又はマイクロ波パルスは、その波の経路内の任意の対象物によって反射され得る。対象物は、その波のエネルギーの一部を受信機(例えば、ディッシュアンテナ又はアンテナ)に戻すことができ、受信機は、レーダーユニット130の一部にすることもできる。レーダーユニット130は、(対象物から反射された)受信信号に対してデジタル信号処理を実行するようにさらに構成され得、ターゲット対象物を特定するように構成され得る。
【0142】
レーダー(RADAR)に類似する他のシステムは、電磁スペクトルの他の部分で既に使用されている。例はLIDAR(light detection and ranging:光の検出及び測距)であり、これは、電波の代わりにレーザからの可視光を使用し得る。
【0143】
LIDARユニット132はセンサを含み、センサは、光を使用して、融合機器100の感知範囲内の道路環境内のターゲット対象物を感知又は検出する。一般に、LIDARは、光を使用してターゲットを照らし、ターゲット対象物までの距離、又はターゲット対象物の他の属性を測定し得る光リモート感知技術である。例えば、LIDARユニット132は、レーザパルスを送信するように構成されたレーザ源及び/又はレーザスキャナと、レーザパルスの反射を受け取る(受光する)ように構成された検出器とを含み得る。例えば、LIDARユニット132は、回転ミラーによる反射に基づくレーザ距離計を含み、デジタルシーンの周りを1次元又は2次元でレーザ走査して、指定された角度から指定された間隔で距離測定値を収集することができる。一例では、LIDARユニット132は、光源(例えば、レーザ)、スキャナ、光システム、光検出器、及び受信機又は電子コンポーネント、並びに位置及びナビゲーションシステム等のコンポーネントを含み得る。
【0144】
一例では、LIDARユニット132は、対象物イメージングに紫外(UV)、可視光、又は赤外光を使用するように構成され得、非金属対象物を含む広範囲のターゲット対象物に適用され得る。一例では、狭い(narrow)レーザビームを使用して、対象物の物理的特徴に関するマップを高解像度で描くことができる。
【0145】
一例では、約10ミクロン(赤外線)から約250ナノメートル(UV)の範囲の波長を使用することができる。光は、通常、後方散乱後に反射される。様々な種類の散乱、例えばレイリー散乱、ミー散乱、ラマン散乱、及び蛍光が、様々なLIDARアプリケーションで使用される。従って、例えば、異なるタイプの後方散乱に基づいて、LIDARは、レイリーレーザRADAR、ミーLIDAR、ラマンLIDAR、及びナトリウム/Fe/カリウム蛍光LIDARと呼ばれ得る。波長の適切な組合せにより、例えば、反射信号の強度の波長依存変化を探索することにより、対象物のリモートマップ描画が可能になる。
【0146】
3次元(3D)イメージングは、走査型LIDARシステム及び非走査型LIDARシステムを使用することによって実施され得る。「3Dゲート表示レーザレーダー(3D gated viewing laser radar)」は、非走査型レーザ測距システムの例である。パルスレーザと高速ゲートカメラとが、3Dゲート表示レーザレーダーに適用される。イメージングLIDARは、一般にCMOS(Complementary Metal Oxide Semiconductor:相補型金属酸化膜半導体)及びCCD(Charge Coupled Device:電荷結合素子、 hybrid complementary metal oxide semiconductor/charge coupled device:ハイブリッドCMOS/CCS)製造技術を使用してシングルチップ上に構築された高速検出器アレイと変調感知型検出器アレイとを使用して実装することもできる。これらの機器では、各ピクセルは、高速復調又はゲーティングを介して局所的に処理することができ、それによって、アレイを処理して、カメラからの画像を表すことができる。この技術を使用して数千のピクセルを同時に取得し、LIDARユニット132によって検出された対象物又はシーンを表す3D点群を作成できる。
【0147】
点群は、3D座標系における頂点のグループを含み得る。頂点は、例えば、X、Y、及びZ座標によって規定することができ、且つターゲット対象物の外面を表すことができる。LIDARユニット132は、ターゲット対象物の表面上の大量の点を測定することによって点群を作成するように構成され得、且つ出力するために点群をデータファイルとして使用し得る。LIDARユニット132を使用して対象物に対して実行された3D走査プロセスの結果として、点群は、ターゲット対象物を特定及び視覚化するために使用され得る。
【0148】
一例では、点群は、ターゲット対象物を視覚化するために直接レンダリングしてもよい。別の例では、点群は、表面再構成と呼ばれ得るプロセスで、多角形又は三角形のグリッドモデルに変換され得る。点群を3D表面に変換する技術の例には、Delaunary三角形分割、アルファ形状、回転球等が含まれ得る。その技術には、点群の既存の頂点に対して三角形のネットワークを構築することが含まれる。他の例示的な技術には、点群を体積距離場に変換すること、及びマーチングキューブアルゴリズムを使用して、この方法で規定された陰関数曲面を再構築することが含まれ得る。
【0149】
カメラ134は、車両が位置する道路環境の画像を取得するように構成された任意のカメラ(例えば、静止カメラ又はビデオカメラ)であり得る。従って、カメラは、可視光を検出するように構成することができ、又はスペクトルの他の部分(例えば、赤外光又は紫外)からの光を検出するように構成することができる。他のタイプのカメラも可能である。カメラ134は、2次元検出器であってもよく、又は3次元空間範囲を有してもよい。いくつかの例では、カメラ134は、例えば距離検出器であってもよく、カメラ134は、カメラ134から環境内のいくつかの点までの距離を示す2次元画像を生成するように構成される。従って、カメラ134は、1つ又は複数の距離検出技術を使用することができる。例えば、カメラ134は、構造化光技術を使用するように構成してもよい。融合機器100は、所定の光パターン、例えばグリッド又はチェス盤グリッドパターンを使用して、環境内の対象物を照明し、そして、カメラ134を使用して、対象物からの所定の光パターンの反射を検出する。反射光パターンの歪みに基づいて、融合機器100は、対象物上の点までの距離を検出するように構成され得る。所定の光パターンには、赤外光又は他の波長の光が含まれ得る。
【0150】
例えば、アクチュエータ136は、センサの位置及び/又は方向を変更するように構成され得る。センサシステム104は、示されたコンポーネント以外のコンポーネントを追加的又は代替的に含み得る。
【0151】
制御システム106は、融合機器100の動作及び融合機器100のコンポーネントを制御するように構成され得る。従って、制御システム106は、センサ融合アルゴリズム144、コンピュータ視覚システム146、ナビゲーション又は経路制御(pathing:経路設定)システム148、及び障害物回避システム150を含み得る。
【0152】
センサ融合アルゴリズム144は、例えば、計算機器111が実行し得るアルゴリズム(又は、アルゴリズムを格納するコンピュータプログラム製品)を含み得る。センサ融合アルゴリズム144は、センサ104からのデータを入力として受け入れるように構成され得る。データは、例えば、センサシステム104のセンサによって検出された情報のデータを含み得る。センサ融合アルゴリズム144は、例えば、カルマンフィルタ、ベイジアンネットワーク、又は別のアルゴリズムを含み得る。センサ融合アルゴリズム144は、例えば、車両が位置している環境における個々の対象物及び/又は特徴に関する評価、特定の状況での評価、及び/又は特定の状況に基づいて考えられる影響に関する評価を含む、センサシステム104からのデータに基づいて、様々な評価を提供するようにさらに構成され得る。他の評価も可能である。
【0153】
コンピュータ視覚システム146は、カメラ134によって取り込まれた画像を処理及び解析して、融合機器100が位置している環境内の対象物及び/又は特徴を特定するように構成された任意のシステムであり得、対象物及び/又は特徴には、例えば車線情報、信号機、及び障害物が含まれる。従って、コンピュータ視覚システム146は、対象物識別アルゴリズム、動きからの構造化(Structure from Motion : SFM)アルゴリズム、ビデオ追跡、又は別のコンピュータ視覚技術を使用することができる。いくつかの例では、コンピュータ視覚システム146は、環境マップを描画し、対象物を追跡し、対象物の速度を推定する等のためにさらに構成され得る。
【0154】
ナビゲーション及び経路制御システム148は、車両の走行経路を決定するように構成された任意のシステムであってよい。ナビゲーション及び経路制御システム148は、車両が動作しているときに走行経路を動的に更新するようにさらに構成され得る。いくつかの例では、ナビゲーション及び経路制御システム148は、センサ融合アルゴリズム144、GPSモジュール126、及び1つ又は複数の所定のマップからのデータを参照して、車両の走行経路を決定するように構成され得る。
【0155】
障害物回避システム150は、車両が位置している環境内の障害物を識別し、評価し、回避するか、又は別の方法で追い越すように構成された任意のシステムであり得る。
【0156】
制御システム106は、示されたコンポーネント以外のコンポーネントを追加的又は代替的に含み得る。
【0157】
周辺装置108は、融合機器100が外部センサ、別の車両、及び/又はユーザと相互作用するのを可能にするように構成され得る。従って、周辺装置108には、例えば、無線通信システム152、タッチスクリーン154、マイクロフォン156、及び/又はスピーカ158が含まれ得る。
【0158】
無線通信システム152は、1つ又は複数の他の車両、センサ、又は別のエンティティに直接結合する又は無線方式で通信ネットワークを使用することによって結合するように構成された任意のシステムとすることができる。従って、無線通信システム152は、別の車両、センサ、又は別のエンティティと直接又はエアインターフェイスを使用することによって通信するように構成されたアンテナ及びチップセットを含み得る。チップセット又は無線通信システム152全体は、1つ又は複数の他のタイプの無線通信(例えば、プロトコル)に基づいて通信するように構成してもよく、無線通信は、例えば、Bluetooth(登録商標)、IEEE802.11(任意のIEEE802.11改訂を含む)に記載された通信プロトコル、セルラー技術(例えば、GSM、CDMA、UMTS(Universal Mobile Telecommunications System ユニバーサルモバイルテレコミュニケーションシステム))、EV-DO、WiMAX、LTE(Long Term Evolution:ロングタームエボリューション)、ZigBee、DSRC(Dedicated Short Range Communications:専用短距離通信)、RFID(Radio Frequency Identification:無線周波数識別)等である。無線通信システム152は、別の形態であってもよい。
【0159】
タッチスクリーン154は、ユーザがコマンドを融合機器100に入力するために使用され得る。従って、タッチスクリーン154は、静電容量感知、抵抗感知、表面弾性波プロセス等によってユーザの指の位置及び動きの少なくとも1つを感知するように構成され得る。タッチスクリーン154は、タッチスクリーンの表面に平行な方向又はタッチスクリーンの表面と同じ面内の方向、タッチスクリーンの表面に垂直な方向、又は両方向で指の動きを感知することができ、さらにタッチスクリーンの表面に加えられた圧力のレベルを感知することができる。タッチスクリーン154は、1つ又は複数の半透明又は透明な絶縁層、及び1つ又は複数の半透明又は透明な導電層を含み得る。タッチスクリーン154はまた、別の形態であってもよい。
【0160】
マイクロフォン156は、融合機器100のユーザから音声(例えば、音声コマンド又は別の音声入力)を受け取るように構成され得る。同様に、スピーカ158は、音声を融合機器100のユーザに出力するように構成され得る。
【0161】
周辺装置108は、示されたコンポーネント以外のコンポーネントを追加的又は代替的に含み得る。
【0162】
電源110は、融合機器100のコンポーネントの一部又は全てに電力を供給するように構成され得る。従って、電源110は、例えば、再充電可能なリチウムイオン又は鉛蓄電池を含み得る。いくつかの例では、1つ又は複数の電池グループは、電力を供給するように構成され得る。他の電力材料及び構成も可能である。いくつかの例では、電源110及びエネルギー源120は、電気自動車のように一緒に実装され得る。
【0163】
計算機器111に含まれるプロセッサ113は、1つ又は複数の汎用プロセッサ及び/又は1つ又は複数の専用プロセッサ(例えば、画像プロセッサ又はデジタル信号プロセッサ)を含み得る。プロセッサ113が2つ以上のプロセッサを含む場合に、プロセッサは、独立して動作するか、又は組み合わせて動作することができる。計算機器111は、ユーザインターフェイス112を使用して受け取った入力に基づいて、車両100を制御する機能を実現することができる。
【0164】
メモリ114は、1つ又は複数の揮発性記憶コンポーネント及び/又は1つ又は複数の不揮発性記憶コンポーネント、例えば光学的、磁気的及び/又は有機的記憶機器等をさらに含み得、メモリ114は、プロセッサ113と完全に又は部分的に統合され得る。メモリ114は、本明細書に記載されている機能又は方法のいずれか1つを含む様々な車両機能を実行するために、プロセッサ113によって実行される命令115(例えば、プログラムロジック)を含み得る。
【0165】
融合機器100のコンポーネントは、それぞれのシステム内の他のコンポーネントとの相互接続及び/又は他の外部コンポーネントとの相互接続の方法で機能するように構成され得る。従って、融合機器100のコンポーネント及びシステムは、システムバス、ネットワーク、及び/又は別の接続機構を使用することによって通信可能に相互接続され得る。
【0166】
実施形態1では、融合機器100のプロセッサ113は、以下の命令を実行する:
車両感知データを取得することであって、車両感知データは、車両感知機器が感知範囲内の道路環境を感知することによって取得される、取得することと、
路側感知データを取得することであって、路側感知データは、路側感知機器が感知範囲内の道路環境を感知することによって取得される、取得することと、
融合式を使用して車両感知データと路側感知データとを融合して、第1の融合結果を取得することと、を実行する。
【0167】
実施形態2では、融合機器100のプロセッサ113は、以下の命令を実行する:
車両感知データを路側装置に送信することであって、車両感知データは、車両感知機器が車両センサを使用して感知範囲内の道路環境を感知することによって取得される、送信することと、
路側装置により送信された第1の融合結果を受信することであって、第1の融合結果は、路側装置が融合式を使用して少なくとも1つの車両装置の車両感知データと路側感知データとを融合することによって取得され、路側感知データは、路側感知機器が感知範囲内の道路環境を感知することによって取得される、受信することと、
車両感知データと第1の融合結果とを融合して、第2の融合結果を取得することと、を実行する。
【0168】
実施形態1又は実施形態2を参照すると、融合式は次のように表される:
y=f(resultr,resultv)
ここで、resultrは路側結果セットであり、路側結果セットは路側感知データを示すために使用され、resultvは車両結果セットであり、車両結果セットは車両感知データを示すために使用され、yは第1の融合結果であり、関数fは、路側結果セット及び車両結果セットに基づいてマッピングすることにより、第1の融合結果を取得するために使用される。
【0169】
特定の実施態様では、
f(resultr,resultv)=(wr/(wr+wv))resultr+(wv/(wr+wv))resultv
であり、
ここで、wrは路側感知機器の信頼係数であり、wr=(wr1,wr2,...,wrM)であり、resultr(roadside1,roadside2,...,roadsideM)であり、Mは路側感知機器の感知範囲内のターゲット対象物の数量であり、wriは路側感知機器の感知範囲内のターゲット対象物iに対応する信頼係数であり、路側iは路側感知機器の感知範囲内のターゲット対象物iに対応する路側結果ユニットであり、iは、自然数であり、且つ0<i≦Mであり、wvは車両感知機器の信頼係数であり、wv=(wv1,wv2,...,wvN)であり、resultv(vehicle1,vehicle2,...,vehicleN)であり、Nは車両感知機器の感知範囲内のターゲット対象物の数量であり、wvjは車両感知機器の感知範囲内のターゲット対象物jに対応する信頼係数であり、車両jは車両感知機器の感知範囲内のターゲット対象物jに対応する車両結果ユニットであり、jは、自然数であり、且つ0<j≦Nである。
【0170】
より具体的には、信頼係数は、感知機器パラメータ、ターゲット対象物の感知距離、及びターゲット対象物の感知角度をまとめたものに基づいて決定される。
【0171】
例えば、信頼係数wは、以下の式に基づいて得ることができる:
w=g(Sk,Ri,θj),ここで、w∈[0,1]
ここで、Skは感知機器パラメータであり、Riはターゲット対象物の感知距離であり、θjはターゲット対象物の感知角度であり、gは感知機器の較正によって得られた較正パラメータテーブルである。
【0172】
特定の実施態様では、車両結果セットは少なくとも1つの車両結果ユニットを含み、少なくとも1つの車両結果ユニットと少なくとも1つのターゲット対象物との間に1対1の対応関係が存在し、少なくとも1つの車両結果ユニット内の各車両結果ユニットは、対応するターゲット対象物の特徴を多次元の角度から記述するために使用される。
【0173】
より具体的には、少なくとも1つの車両結果ユニット内の1つの車両結果ユニットは、車両j(pvj,vvj,svj,cvj)として表され、ここで、pvjは車両感知機器が検出したターゲット対象物jの位置を示し、vvjは車両感知機器が検出したターゲット対象物jの速度を示し、svjは車両感知機器が検出したターゲット対象物jのサイズを示し、cvjは車両感知機器が検出したターゲット対象物jの色を示し、Nは車両感知機器の感知範囲内のターゲット対象物の数量であり、jは、自然数であり、且つ0<j≦Nである。
【0174】
特定の実施態様では、路側結果セットは少なくとも1つの路側結果ユニットを含み、少なくとも1つの路側結果ユニットと少なくとも1つのターゲット対象物との間に1対1の対応関係が存在し、少なくとも1つの路側結果ユニット内の各路側結果ユニットは、対応するターゲット対象物の特徴を多次元の角度から記述するために使用される。
【0175】
より具体的には、少なくとも1つの路側結果ユニット内の1つの路側結果ユニットは、路側i(pvi,vvi,svi,cvi)として表され、ここで、pviは路側感知機器が検出したターゲット対象物iの位置を示し、vviは路側感知機器が検出したターゲット対象物iの速度を示し、sviは路側感知機器が検出したターゲット対象物iのサイズを示し、cviは路側感知機器が検出したターゲット対象物iの色を示し、Mは路側感知機器の感知範囲内のターゲット対象物の数量であり、iは、自然数であり、且つ0<i≦Mである。
【0176】
実施形態1又は実施形態2を参照すると、融合式を使用して車両感知データと路側感知データとを融合して、第1の融合結果を取得する前に、方法は、
路側感知データを車両感知データとマッチングして、マッチング結果を取得するステップと、
マッチング結果に基づいて、車両感知データと路側感知データとを融合して、第1の融合結果を取得するステップと、を含む。
【0177】
特定の実施態様では、路側結果セット内の路側結果ユニットと車両結果セット内の車両結果ユニットとの間のマッチング関係は、偏差ネットワークを使用して見出される。
【0178】
より具体的には、路側結果セット内の路側結果ユニットと車両結果セット内の車両結果ユニットとの間のマッチング関係が、偏差ネットワークを使用して見出されることは、具体的には、以下を含む:
次式を使用して、路側結果セット内の路側結果ユニットと車両結果セット内の車両結果ユニットとの間のマッチング関係が見出される:
S=Deviation(路側i,車両j)
ここで、Sはマッチング結果であり、Deviation(偏差)は偏差ネットワークであり、路側iは路側感知機器の感知範囲内のターゲット対象物iに対応する路側結果ユニットであり、車両jは車両感知機器の感知範囲内のターゲット対象物jに対応する車両結果ユニットであり、i及びjは共に自然数である。
【0179】
特定の実施態様では、路側感知データを車両感知データとマッチングして、マッチング結果を得た後に、方法は、
フレーム間ループバック及び/又はマルチフレーム相関の方法でマッチング結果の信頼度を評価して、評価結果を取得するステップと、
評価結果に基づいて、偏差ネットワークを調整するステップと、を含む。
【0180】
具体的には、フレーム間ループバックは、
Tループバック=T1+T2+T3+T4
であり、
ここで、Tループバックはフレーム間ループバックであり、T1は第1のマッチング結果であり、T2は第2のマッチング結果であり、T3は第3のマッチング結果であり、T4は第4のマッチング結果であり、第1のマッチング結果は、路側感知機器がi番目のフレームで検出したターゲット対象物jに対応する路側結果ユニットと、車両感知機器がi番目のフレームで検出したターゲット対象物jに対応する車両結果ユニットとの間のマッチング結果であり、第2のマッチング結果は、車両感知機器がi番目のフレームで検出したターゲット対象物jに対応する車両結果ユニットと、車両感知機器が(i+1)番目のフレームで検出したターゲット対象物jに対応する車両結果ユニットとの間のマッチング結果であり、第3のマッチング結果は、車両感知機器が(i+1)番目のフレームで検出したターゲット対象物jに対応する車両結果ユニッと、路側感知機器が(i+1)番目のフレームで検出したターゲット対象物jに対応する路側結果ユニットとの間のマッチング結果であり、第4のマッチング結果は、路側感知機器が(i+1)番目のフレームで検出したターゲット対象物jに対応する路側結果ユニットと、路側感知機器がi番目のフレームで検出したターゲット対象物jに対応する路側結果ユニットとの間のマッチング結果である。
【0181】
具体的には、マルチフレーム相関は、
Tマルチフレーム=Tループバック12+Tループバック23+Tループバック34+・・・
として規定され、
ここで、Tマルチフレームはマルチフレーム相関であり、Tループバック12は第1のフレームと第2のフレームとの間のフレーム間ループバックであり、Tループバック23は第2のフレームと第3のフレームとの間のフレーム間ループバックフレームであり、Tループバック34は第3のフレームと第4のフレームとの間のフレーム間ループバックであり、以下同様である。
【0182】
なお、
図11の実施形態で言及していない内容については、
図8~
図10に対応する実施形態を参照することができることに留意されたい。詳細については、ここでは再び説明しない。
【0183】
図12に示されるように、例えば、融合機器が路側装置である場合に、融合機器200は、RF(Radio Frequency:無線周波数)回路210、メモリ220、別の入力装置230、表示画面240、センサシステム250、I/Oサブシステム270、プロセッサ280、及び電源290等のコンポーネントを含む。当業者は、路側感知機器が
図12に示される路側感知機器の構造に限定されないことを理解することができる。路側感知機器は、図に示したものより多くの又は少ない部品を含むことができ、又はいくつかの部品が組み合わされるか、又はいくつかの部品が分割されるか、又は部品の配置が異なる。当業者は、表示画面240がユーザインターフェイス(UI : User Interface)を表示するように構成され得ることを理解することができる。
【0184】
次に、
図12を参照して、融合機器200の各コンポーネントについて詳細に説明する。
【0185】
RF回路210は、データを送信又は受信するように構成され得る。一般に、RF回路は、アンテナ、少なくとも1つの増幅器、トランシーバ、カプラ、LNA(Low Noise Amplifier:低雑音増幅器)、デュプレクサ等を含むが、これらに限定されない。さらに、RF回路210は、無線通信によってネットワーク及び他の装置とさらに通信することができる。ワイヤレス通信は、GSM(Global System of Mobile:モバイル通信のグローバルシステム)、GPRS(General Packet Radio Service:汎用パケット無線サービス)、CDMA(Code Division Multiple Access:符号分割多重アクセス)、WCDMA(Wideband Code Division Multiple Access:広帯域符号分割多重アクセス)、LTE(Long Term Evolution:ロングタームエボリューション)、電子メール、SMS(Short Messaging Service:ショートメッセージサービス)等を含むが、これらに限定されない、任意の通信規格又はプロトコルを使用することができる。
【0186】
メモリ220は、高速ランダムアクセスメモリを含み得、不揮発性メモリ、例えば少なくとも1つの磁気ディスク記憶装置、フラッシュメモリ、又は別の揮発性固体記憶装置をさらに含み得る。メモリ220は、プロセッサ280によって実行され得る命令222を含み得、さらに地図データ224を格納し得る。
【0187】
別の入力装置230は、入力数字又は文字情報を受け取り、融合機器200のユーザ設定及び機能制御に関連するキー信号入力を生成するように構成され得る。具体的には、別の入力装置230は、1つ又は複数の物理キーボード、ファンクションキー(ボリューム制御キー、電源オン/オフキー等)、トラックボール、マウス、ジョイスティック、光学式マウス(光学式マウスは、視覚的出力を表示しないタッチ感知面である、又はタッチスクリーンによって形成されたタッチ感知面の延長である)等を含み得るが、これらに限定されない。別の入力装置230は、I/Oサブシステム270の別の入力装置コントローラ271に接続され、別の入力装置コントローラ271がプロセッサ280との信号相互作用を実行するように制御される。
【0188】
表示画面240は、表示パネル241とタッチパネル242とを含み得る。表示パネル241について、表示パネル241は、LCD(Liquid Crystal Display:液晶ディスプレイ)、OLED(Organic Light-Emitting Diode:有機発光ダイオード)等の形態で構成してもよい。タッチパネル242は、タッチスクリーン、タッチ感知スクリーン等とも呼ばれ、タッチパネル上又はその近くでのユーザのタッチ又は非タッチ操作をキャプチャすることができ(例えば、操作は、ユーザがタッチパネル242上又はタッチパネル242の近くの指又はスタイラス等の任意の適切なオブジェクト又はアクセサリを使用することによって実行される操作である、又は動き感知操作を含み得、操作の操作タイプは、単一点制御操作、又は多点制御操作等を含む)、予め設定されたプログラムに基づいて対応する接続機器を駆動する。
【0189】
センサシステム250は、融合機器200の感知範囲内の道路環境を感知するように構成されたいくつかのセンサを含み得る。図に示されるように、センサシステムのセンサは、GPS251、無線検出及びレーダー測距(RADAR)ユニット255、レーザ測距(LIDAR)ユニット257、カメラ258、及びセンサの位置及び/又は向きを変更するように構成されたアクチュエータ259を含む。センサシステム250は、I/Oサブシステム270のセンサコントローラ272に接続され、且つセンサコントローラ272がプロセッサ280との相互作用を実行するように制御される。
【0190】
GPSモジュール251は、車両の地理的位置を推定するように構成された任意のセンサであり得る。従って、GPSモジュール251は、トランシーバを含み、且つ衛星測位データに基づいて地球に対する融合機器200の位置を推定することができる。一例では、融合機器200は、GPSモジュール251を使用し、地図データ224を参照することにより、道路上の融合機器200の位置を推定するように構成され得る。あるいはまた、GPSモジュール126は、別の形態であってもよい。
【0191】
レーダー(RADAR)ユニット255は、対象物検出システムと考えることができる。レーダーユニット255は、電波を使用して、ターゲット対象物の特徴、例えば対象物の距離、高さ、方向、又は速度を検出するように構成される。レーダーユニット255は、電波又はマイクロ波パルスを送信するように構成され得る。電波又はマイクロ波パルスは、その波の経路内の任意の対象物によって反射され得る。対象物は、その波のエネルギーの一部を受信機(例えば、ディッシュアンテナ又はアンテナ)に戻すことができ、受信機は、レーダーユニット255の一部とすることもできる。レーダーユニット255は、(対象物から反射された)受信信号に対してデジタル信号処理を実行するように構成され得、ターゲット対象物を特定するように構成され得る。
【0192】
レーダー(RADAR)に類似した他のシステムは、電磁スペクトルの他の部分で既に使用されている。例はLIDAR(light detection and ranging:光の検出及び測距)であり、これは、電波の代わりにレーザからの可視光を使用し得る。
【0193】
LIDARユニット257はセンサを含み、センサは、光を使用して、融合機器200の感知範囲内の道路環境内のターゲット対象物を感知又は検出する。一般に、LIDARは、光を使用してターゲットを照らし、ターゲット対象物までの距離、又はターゲット対象物の他の属性を測定し得る光リモート感知技術である。例えば、LIDARユニット257は、レーザパルスを送信するように構成されたレーザ源及び/又はレーザスキャナと、レーザパルスの反射を受け取る(受光する)ように構成された検出器とを含み得る。例えば、LIDARユニット257は、回転ミラーによる反射に基づくレーザ距離計を含み、デジタルシーンの周りを1次元又は2次元でレーザ走査して、指定された角度から指定された間隔で距離測定値を収集することができる。一例では、LIDARユニット257は、光源(例えば、レーザ)、スキャナ、光システム、光検出器、及び受信機又は電子コンポーネント、並びに位置及びナビゲーションシステム等のコンポーネントを含み得る。
【0194】
一例では、LIDARユニット257は、対象物イメージングに紫外(UV)、可視光、又は赤外光を使用するように構成され得、非金属物体を含む広範囲のターゲット対象物に適用され得る。一例では、狭い(narrow)レーザビームを使用して、対象物の物理的特徴に関するマップを高解像度で描くことができる。
【0195】
一例では、約10ミクロン(赤外線)から約250ナノメートル(UV)の範囲の波長を使用することができる。光は、通常、後方散乱後に反射される。様々な種類の散乱、例えばレイリー散乱、ミー散乱、ラマン散乱、及び蛍光が、様々なLIDARアプリケーションで使用される。従って、例えば、異なるタイプの後方散乱に基づいて、LIDARは、レイリーレーザRADAR、ミーLIDAR、ラマンLIDAR、及びナトリウム/Fe/カリウム蛍光LIDARと呼ばれ得る。波長の適切な組合せにより、例えば、反射信号の強度の波長依存変化を探索することにより、対象物のリモートマップ描画が可能になる。
【0196】
3次元(3D)イメージングは、走査型LIDARシステム及び非走査型LIDARシステムを使用することによって実施され得る。「3Dゲート表示レーザレーダー(3D gated viewing laser radar)」は、非走査型レーザ測距システムの例である。パルスレーザと高速ゲートカメラとが、3Dゲート表示レーザレーダーに適用される。イメージングLIDARは、一般にCMOS(Complementary Metal Oxide Semiconductor:相補型金属酸化膜半導体)及びCCD(Charge Coupled Device:電荷結合素子, hybrid complementary metal oxide semiconductor/charge coupled device:ハイブリッドCMOS/CCS)製造技術を使用してシングルチップ上に構築された高速検出器アレイと変調感知型検出器アレイを使用して実装することもできる。これらの機器では、各ピクセルは、高速復調又はゲーティングを介して局所的に処理することができ、それによって、アレイを処理して、カメラからの画像を表すことができる。この技術を使用して数千のピクセルを同時に取得し、LIDARユニット257によって検出された対象物又はシーンを表す3D点群を作成できる。
【0197】
点群は、3D座標系における頂点のグループを含み得る。頂点は、例えば、X、Y、及びZ座標によって規定することができ、且つターゲット対象物の外面を表すことができる。LIDARユニット257は、ターゲット対象物の表面上の大量の点を測定することによって点群を作成するように構成され得、且つ出力するために点群をデータファイルとして使用し得る。LIDARユニット257を使用して対象物に対して実行された3D走査プロセスの結果として、点群は、ターゲット対象物を特定及び視覚化するために使用され得る。
【0198】
一例では、点群は、ターゲット対象物を視覚化するために直接レンダリングしてもよい。別の例では、点群は、表面再構成と呼ばれ得るプロセスで、多角形又は三角形のグリッドモデルに変換され得る。点群を3D表面に変換する技術の例には、Delaunary三角形分割、アルファ形状、回転球等が含まれ得る。その技術には、点群の既存の頂点に対して三角形のネットワークを構築することが含まれる。他の例示的な技術には、点群を体積距離場に変換すること、及びマーチングキューブアルゴリズムを使用して、この方法で規定された陰関数曲面を再構築することが含まれ得る。
【0199】
カメラ258は、車両が位置する道路環境の画像を取得するように構成された任意のカメラ(例えば、静止カメラ又はビデオカメラ)であり得る。従って、カメラは、可視光を検出するように構成することができ、又はスペクトルの他の部分(例えば、赤外光又は紫外)からの光を検出するように構成することができる。他のタイプのカメラも可能である。カメラ258は、2次元検出器であってもよく、又は3次元空間範囲を有してもよい。いくつかの例では、カメラ258は、例えば距離検出器であってもよく、カメラ258は、カメラ258から環境内のいくつかの点までの距離を示す2次元画像を生成するように構成される。従って、カメラ258は、1つ又は複数の距離検出技術を使用することができる。例えば、カメラ258は、構造化光技術を使用するように構成してもよい。融合機器200は、所定の光パターン、例えばグリッド又はチェス盤グリッドパターンを使用して、環境内の対象物を照明し、そして、カメラ258を使用して、対象物からの所定の光パターンの反射を検出する。反射光パターンの歪みに基づいて、路側感知機器258は、対象物上の点までの距離を検出するように構成され得る。所定の光パターンには、赤外光又は他の波長の光が含まれ得る。
【0200】
I/Oサブシステム270は、外部入力/出力装置を制御するように構成され、且つ別の入力装置コントローラ271及びセンサコントローラ272を含み得る。オプションで、1つ又は複数の他の入力制御装置コントローラ271は、別の入力装置230から信号を受信し、及び/又は別の入力装置230に信号を送信する。別の入力装置230は、物理ボタン(押しボタン、ロッカーアーム式ボタン等)、ダイヤル、スライダスイッチ、ジョイスティック、スクロールホイール、又は光学式マウス(光学式マウスは、視覚出力を表示しないタッチ感知面である、又はタッチスクリーンによって形成されたタッチ感知面の延長である)を含み得る。なお、他の入力制御装置コントローラ271は、前述した装置のいずれか1つ又は複数に接続することができる。センサコントローラ272は、1つ又は複数のセンサ250から信号を受信し、及び/又は1つ又は複数のセンサ250に信号を送信することができる。
【0201】
プロセッサ280は、融合機器200の制御センターである。プロセッサ280は、様々なインターフェイス及びラインを使用して融合機器200全体の全ての部分に接続され、且つメモリ220に格納されたソフトウェアプログラム及び/又はモジュールを実行又は起動し、メモリ220に格納されたデータを呼び出すことにより融合機器200の様々な機能及びデータ処理を実行し、それにより融合機器200の全体的な監視を実行する。オプションで、プロセッサ280は1つ又は複数の処理ユニットを含み得る。好ましくは、プロセッサ280は、2つのモデムプロセッサを統合することができ、モデムプロセッサは、主に無線通信を処理する。あるいはまた、モデムプロセッサは、プロセッサ280に統合しなくてもよいことが理解され得る。
【0202】
融合機器200は、コンポーネントに電力を供給するための電源290(電池等)をさらに含む。好ましくは、電源は、電力管理システムを使用してプロセッサ280に論理的に接続され得、それによって、電力管理システムを使用することによって充電、放電、及び電力消費の管理等の機能を実行する。
【0203】
実施形態1では、融合機器200のプロセッサ280は、以下の命令を実行する:
車両感知データを取得することであって、車両感知データは、車両感知機器が感知範囲内の道路環境を感知することによって取得される、取得することと、
路側感知データを取得することであって、路側感知データは、路側感知機器が感知範囲内の道路環境を感知することによって取得される、取得することと、
融合式を使用して車両感知データと路側感知データとを融合して、第1の融合結果を取得することと、を実行する。
実施形態2では、融合機器200のプロセッサ280は、以下の命令を実行する:
少なくとも1つの車両装置により送信された車両感知データを受信することであって、車両感知データは、車両感知機器が感知範囲内の道路環境を感知することによって取得される、受信することと、
融合式を使用して少なくとも1つの車両装置の車両感知データと路側感知データとを融合して、第1の融合結果を取得することであって、路側感知データは、路側感知機器が感知範囲内の道路環境を感知することによって取得される、取得することと、
第1の融合結果をターゲット車両装置に送信することであって、ターゲット車両装置は、車両感知データと第1の融合結果とを融合して第2の融合結果を取得するように構成され、ターゲット車両装置は少なくとも1つの車両装置に属する、送信することと、を実行する。
【0204】
実施形態1又は実施形態2を参照すると、融合式は、以下のように表される:
y=f(resultr,resultv)
ここで、resultrは路側結果セットであり、路側結果セットは路側感知データを示すために使用され、resultvは車両結果セットであり、車両結果セットは車両感知データを示すために使用され、yは第1の融合結果であり、関数fは、路側結果セット及び車両結果セットに基づいてマッピングすることにより、第1の融合結果を取得するために使用される。
【0205】
特定の実施態様では、
f(resultr,resultv)=(wr/(wr+wv))resultr+(wv/(wr+wv))resultv
であり、
ここで、wrは路側感知機器の信頼係数であり、wr=(wr1,wr2,...,wrM)であり、resultr(roadside1,roadside2,...,roadsideM)であり、Mは路側感知機器のセンサ範囲内のターゲット対象物の数量であり、wriは路側感知機器の感知範囲内のターゲット対象物iに対応する信頼係数であり、路側iは路側感知機器の感知範囲内のターゲット対象物iに対応する路側結果ユニットであり、iは、自然数であり、且つ0<i≦Mであり、wvは車両感知機器の信頼係数であり、wv=(wv1,wv2,...,wvN)であり、resultv(vehicle1,vehicle2,...,vehicleN)であり、Nは車両感知機器の感知範囲内のターゲット対象物の数量であり、wvjは車両感知機器の感知範囲内のターゲット対象物jに対応する信頼係数であり、車両jは車両感知機器の感知範囲内のターゲット対象物jに対応する車両結果ユニットであり、jは、自然数であり、且つ0<j≦Nである。
【0206】
より具体的には、信頼係数は、感知機器パラメータ、ターゲット対象物の感知距離、及びターゲット対象物の感知角度をまとめたものに基づいて決定される。
【0207】
例えば、信頼係数wは、以下の式に基づいて得ることができる:
w=g(Sk,Ri,θj),ここで、w∈[0,1]
ここで、Skは感知機器パラメータであり、Riはターゲット対象物の感知距離であり、θjはターゲット対象物の感知角度であり、gは感知機器の較正によって得られた較正パラメータテーブルである。
【0208】
特定の実施形態では、車両結果セットは少なくとも1つの車両結果ユニットを含み、少なくとも1つの車両結果ユニットと少なくとも1つのターゲット対象物との間に1対1の対応関係が存在し、少なくとも1つの車両結果ユニット内の各車両結果ユニットは、対応するターゲット対象物の特徴を多次元の角度から記述するために使用される。
【0209】
より具体的には、少なくとも1つの車両結果ユニット内の1つの車両結果ユニットは、車両j(pvj,vvj,svj,cvj)として表され、ここで、pvjは車両感知機器が検出したターゲット対象物jの位置を示し、vvjは車両感知機器が検出したターゲット対象物jの速度を示し、svjは車両感知機器が検出したターゲット対象物jのサイズを示し、cvjは車両感知機器が検出したターゲット対象物jの色を示し、Nは車両感知機器の感知範囲内のターゲット対象物の数量であり、jは、自然数であり、且つ0<j≦Nである。
【0210】
特定の実施態様では、路側結果セットは少なくとも1つの路側結果ユニットを含み、少なくとも1つの路側結果ユニットと少なくとも1つのターゲット対象物との間に1対1の対応関係が存在し、少なくとも1つの路側結果ユニット内の各路側結果ユニットは、対応するターゲット対象物の特徴を多次元の角度から記述するために使用される。
【0211】
より具体的には、少なくとも1つの路側結果ユニット内の1つの路側結果ユニットは、路側i(pvi,vvi,svi,cvi)として表され、ここで、pviは路側感知機器が検出したターゲット対象物iの位置を示し、vviは路側感知機器が検出したターゲット対象物iの速度を示し、sviは路側感知機器が検出したターゲット対象物iのサイズを示し、cviは路側感知機器が検出したターゲット対象物iの色を示し、Mは路側感知機器の感知範囲内のターゲット対象物の数量であり、iは、自然数であり、且つ0<i≦Mである。
【0212】
実施形態1又は実施形態2を参照すると、融合式を使用して車両感知データと路側感知データとを融合して、融合結果を取得する前に、方法は、
路側感知データを車両感知データとマッチングして、マッチング結果を取得するステップと、
マッチング結果に基づいて、車両感知データと路側感知データとを融合して、第1の融合結果を取得するステップと、を含む。
【0213】
特定の実施態様では、路側結果セット内の路側結果ユニットと車両結果セット内の車両結果ユニットとの間のマッチング関係は、偏差ネットワークを使用して見出される。
【0214】
より具体的には、路側結果セット内の路側結果ユニットと車両結果セット内の車両結果ユニットとの間のマッチング関係が、偏差ネットワークを使用して見出されることは、具体的には、以下を含む:
次式を使用して、路側結果セット内の路側結果ユニットと車両結果セット内の車両結果ユニットとの間のマッチング関係が見出される:
S=Deviation(路側i,車両j)
ここで、Sはマッチング結果であり、Deviation(偏差)は偏差ネットワークであり、路側iは路側感知機器の感知範囲内のターゲット対象物iに対応する路側結果ユニットであり、車両jは車両感知機器の感知範囲内のターゲット対象物jに対応する車両結果ユニットであり、i及びjは共に自然数である。
【0215】
特定の実施態様では、路側感知データを車両感知データとマッチングして、マッチング結果を得た後に、方法は、
フレーム間ループバック及び/又はマルチフレーム相関の方法でマッチング結果の信頼度を評価して、評価結果を取得するステップと、
評価結果に基づいて、偏差ネットワークを調整するステップと、を含む。
【0216】
具体的には、フレーム間ループバックは、
Tループバック=T1+T2+T3+T4
であり、
ここで、Tループバックはフレーム間ループバックであり、T1は第1のマッチング結果であり、T2は第2のマッチング結果であり、T3は第3のマッチング結果であり、T4は第4のマッチング結果であり、第1のマッチング結果は、路側感知機器がi番目のフレームで検出したターゲット対象物jに対応する路側結果ユニットと、車両感知機器がi番目のフレームで検出したターゲット対象物jに対応する車両結果ユニットとの間のマッチング結果であり、第2のマッチング結果は、車両感知機器がi番目のフレームで検出したターゲット対象物jに対応する車両結果ユニットと、車両感知機器が(i+1)番目のフレームで検出したターゲット対象物jに対応する車両結果ユニットとの間のマッチング結果であり、第3のマッチング結果は、車両感知機器が(i+1)番目のフレームで検出したターゲット対象物jに対応する車両結果ユニッと、路側感知機器が(i+1)番目のフレームで検出したターゲット対象物jに対応する路側結果ユニットとの間のマッチング結果であり、第4のマッチング結果は、路側感知機器が(i+1)番目のフレームで検出したターゲット対象物jに対応する路側結果ユニットと、路側感知機器がi番目のフレームで検出したターゲット対象物jに対応する路側結果ユニットとの間のマッチング結果である。
【0217】
具体的には、マルチフレーム相関は、
Tマルチフレーム=Tループバック12+Tループバック23+Tループバック34+・・・
として規定され、
ここで、Tマルチフレームはマルチフレーム相関であり、Tループバック12は第1のフレームと第2のフレームとの間のフレーム間ループバックであり、Tループバック23は第2のフレームと第3のフレームとの間のフレーム間ループバックであり、Tループバック34は第3のフレームと第4のフレームとの間のフレーム間ループバックであり、以下同様である。
【0218】
なお、
図12の実施形態で言及していない内容については、
図8~
図10に対応する実施形態を参照することができることに留意されたい。詳細については、ここでは再び説明しない。
【0219】
同じ発明概念に基づいて、
図13は、本発明の一実施形態による融合機器の概略構造図である。
図13に示されるように、融合機器300は、第1の取得モジュール301、第2の取得モジュール302、及び融合モジュール303を含み得る。
【0220】
第1の取得モジュール301は、車両感知データを取得するように構成され、車両感知データは、車両感知機器が感知範囲内の道路環境を感知することによって取得される。
【0221】
第2の取得モジュール302は、路側感知データを取得するように構成され、路側感知データは、路側感知機器が感知範囲内の道路環境を感知することによって取得される。
【0222】
融合モジュール303は、融合式を使用して車両感知データと路側感知データとを融合して、第1の融合結果を取得するように構成される。
【0223】
なお、
図13の実施形態で言及していない内容及び各機能ユニットの特定の実施態様については、
図8及び
図9に対応する実施形態を参照することができることに留意されたい。詳細については、ここでは再び説明しない。
【0224】
同じ発明概念に基づいて、
図14は、本発明の一実施形態による融合機器の概略構造図である。
図14に示されるように、この実施形態の融合機器400は、送信モジュール401、受信モジュール402、及び融合モジュール403を含む。
【0225】
送信モジュール401は、車両感知データを路側装置に送信するように構成され、車両感知データは、車両感知機器が感知範囲内の道路環境を感知することによって取得される。
【0226】
受信モジュール402は、路側装置により送信された第1の融合結果を受信するように構成され、第1の融合結果は、路側感知機器が融合式を使用して少なくとも1つの車両装置の車両感知データと路側感知データとを融合することによって取得され、路側感知データは、路側感知機器が感知範囲内の道路環境を感知することによって取得される。
【0227】
融合モジュール403は、少なくとも1つの車両装置の車両感知データと第1の融合結果とを融合して、第2の融合結果を取得するように構成される。
【0228】
なお、
図14の実施形態で言及していない内容及び各機能ユニットの特定の実施態様については、
図10に対応する実施形態を参照することができることに留意されたい。詳細については、ここでは再び説明しない。
【0229】
前述した解決策によれば、路側感知機器が感知することによって取得した路側感知データと、車両感知機器が感知することによって取得した車両感知データとを融合して、路側感知機器の感知範囲と車両感知機器の感知範囲との間のオーバーラップを実現し、それによって、感知範囲が効果的に拡張される。
【0230】
本願で提供されるいくつかの実施形態では、開示されたシステム、端末、及び方法は、他の方法で実施してもよいことを理解すべきである。例えば、記載された機器の実施形態は単なる例である。例えば、ユニット分割は単なる論理的な機能分割であり、実際の実施態様では他の分割であってもよい。例えば、複数のユニット又はコンポーネントを組み合わせたり、又は別のシステムに統合したりしてもよく、いくつかの機能を無視したり、又は実行できない場合がある。さらに、表示又は議論された相互結合又は直接結合又は通信接続は、いくつかのインターフェイス、機器又はユニッ同士の間の間接結合又は通信接続、又は電気接続、機械的接続、又は他の形態の接続によって実施してもよい。
【0231】
別個の部品として記載されたユニットは、物理的に別個であってもなくてもよく、ユニットとして表示される部品は、物理ユニットであってもなくてもよく、一箇所に配置してもよく、又は複数のネットワークユニットに分散してもよい。本発明の実施形態の解決策の目的を達成するための実際の要件に従って、ユニットの一部又は全てを選択することができる。
【0232】
また、本発明の実施形態における機能ユニットは、1つの処理ユニットに統合してもよく、又は各ユニットが物理的に単独で存在してもよく、又は2つ以上のユニットを1つのユニットに統合してもよい。統合されたユニットは、ハードウェアの形態で実装してもよく、又はソフトウェア機能ユニットの形態で実装してもよい。
【0233】
統合ユニットがソフトウェア機能ユニットの形態で実装され、独立した製品として販売又は使用される場合に、統合ユニットは、コンピュータ可読記憶媒体に格納され得る。そのような理解に基づいて、本発明の技術的解決策は本質的に、又は先行技術に寄与する部分、又は技術的解決策の全て又は一部は、ソフトウェア製品の形態で実装することができる。コンピュータソフトウェア製品は、記憶媒体に格納され、本発明の実施形態において説明した方法のステップの全て又は一部を実行するようにコンピュータ装置(パーソナルコンピュータ、サーバ、ネットワーク装置等であり得る)に命令するためのいくつかの命令を含む。前述した記憶媒体には、USBフラッシュドライブ、リムーバブルハードディスク、読み取り専用メモリ(ROM: Read-Only Memory)、ランダムアクセスメモリ(RAM: Random Access Memory)、磁気ディスク、又は光ディスク等の、プログラムコードを格納できる任意の媒体が含まれる。
【0234】
前述した説明は、本発明の特定の実施形態に過ぎず、本発明の保護範囲を限定することを意図したものではない。本発明に開示された技術的範囲内で当業者によって容易に理解されるあらゆる修正又は置換は、本発明の保護範囲内に含まれるものとする。従って、本発明の保護範囲は、特許請求の範囲の保護範囲に従うものとする。