IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ ベイジン バイドゥ ネットコム サイエンス アンド テクノロジー カンパニー リミテッドの特許一覧

特許7557433道路状況予測方法、道路状況予測モデルを確立する方法及びその対応装置、電子機器、記録媒体並びにコンピュータプログラム
<>
  • 特許-道路状況予測方法、道路状況予測モデルを確立する方法及びその対応装置、電子機器、記録媒体並びにコンピュータプログラム 図1
  • 特許-道路状況予測方法、道路状況予測モデルを確立する方法及びその対応装置、電子機器、記録媒体並びにコンピュータプログラム 図2
  • 特許-道路状況予測方法、道路状況予測モデルを確立する方法及びその対応装置、電子機器、記録媒体並びにコンピュータプログラム 図3
  • 特許-道路状況予測方法、道路状況予測モデルを確立する方法及びその対応装置、電子機器、記録媒体並びにコンピュータプログラム 図4
  • 特許-道路状況予測方法、道路状況予測モデルを確立する方法及びその対応装置、電子機器、記録媒体並びにコンピュータプログラム 図5
  • 特許-道路状況予測方法、道路状況予測モデルを確立する方法及びその対応装置、電子機器、記録媒体並びにコンピュータプログラム 図6
  • 特許-道路状況予測方法、道路状況予測モデルを確立する方法及びその対応装置、電子機器、記録媒体並びにコンピュータプログラム 図7
  • 特許-道路状況予測方法、道路状況予測モデルを確立する方法及びその対応装置、電子機器、記録媒体並びにコンピュータプログラム 図8
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-09-18
(45)【発行日】2024-09-27
(54)【発明の名称】道路状況予測方法、道路状況予測モデルを確立する方法及びその対応装置、電子機器、記録媒体並びにコンピュータプログラム
(51)【国際特許分類】
   G06T 7/00 20170101AFI20240919BHJP
   G08G 1/00 20060101ALI20240919BHJP
   G16Y 10/40 20200101ALI20240919BHJP
   G16Y 20/20 20200101ALI20240919BHJP
   G16Y 40/20 20200101ALI20240919BHJP
【FI】
G06T7/00 350B
G06T7/00 650A
G08G1/00 C
G16Y10/40
G16Y20/20
G16Y40/20
【請求項の数】 19
(21)【出願番号】P 2021104711
(22)【出願日】2021-06-24
(65)【公開番号】P2021157833
(43)【公開日】2021-10-07
【審査請求日】2021-06-24
【審判番号】
【審判請求日】2023-06-06
(31)【優先権主張番号】202011410518.4
(32)【優先日】2020-12-03
(33)【優先権主張国・地域又は機関】CN
(73)【特許権者】
【識別番号】514322098
【氏名又は名称】ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド
【氏名又は名称原語表記】Beijing Baidu Netcom Science Technology Co., Ltd.
【住所又は居所原語表記】2/F Baidu Campus, No.10, Shangdi 10th Street, Haidian District, Beijing 100085, China
(74)【代理人】
【識別番号】100083116
【弁理士】
【氏名又は名称】松浦 憲三
(72)【発明者】
【氏名】黄 際洲
(72)【発明者】
【氏名】趙 輝
(72)【発明者】
【氏名】夏 徳国
(72)【発明者】
【氏名】王 海峰
【合議体】
【審判長】畑中 高行
【審判官】片岡 利延
【審判官】木方 庸輔
(56)【参考文献】
【文献】中国特許出願公開第111950537号明細書
【文献】特開平6-4795号公報
(58)【調査した分野】(Int.Cl.,DB名)
G06T 7/00
G08G 1/00
G16Y 10/40
G16Y 20/20
G16Y 40/20
(57)【特許請求の範囲】
【請求項1】
道路状況予測方法であって、
道路における第1の時点よりも前の所定の第1の時間区間内のユーザ軌跡シーケンス及び道路画像シーケンスを取得することと、
前記ユーザ軌跡シーケンスから前記道路の軌跡関連特徴を抽出し、及び前記道路画像シーケンスから前記道路の画像関連特徴を抽出することと、
前記道路の軌跡関連特徴及び画像関連特徴を、予めトレーニングして得られた道路状況予測モデルに入力し、前記道路状況予測モデルの推定結果を利用して前記道路における前記第1の時点よりも後の所定の第2の時間区間内の道路状況情報を得ることと、を含み、
前記軌跡関連特徴は、速度特徴を含み、
前記画像関連特徴は、道路開放度特徴及び車流特徴のうちの少なくとも一種、並びに、建築特徴を含み、
前記道路画像シーケンスから前記道路の画像関連特徴を抽出することは、
予めトレーニングして得られた画像意味分割モデルを利用し、前記道路画像シーケンスにおける各道路画像から主走行領域を識別することと、
各道路画像から前記主走行領域の道路開放度及び/又は車流情報を抽出することと、
各道路画像における主走行領域の道路開放度及び/又は車流情報を利用して、前記道路開放度特徴及び/又は車流特徴を得ることと、
予めトレーニングして得られた画像意味分割モデルを利用し、前記道路画像シーケンスにおける各道路画像から建物領域を識別することと、
前記道路画像シーケンスにおける隣接する道路画像の建物領域の類似度平均値及び/又は分散を前記道路の建築特徴とすることと、を含む
道路状況予測方法。
【請求項2】
前記道路は、予め設定された目標道路、道路状況電子フェンス内の道路、および、軌跡点が予め設定された道路状況予測トリガ条件を満たす道路のうちの少なくとも一つを含む
請求項1に記載の道路状況予測方法。
【請求項3】
前記道路の情報を収集端末に送信し、前記収集端末によって収集されたユーザ軌跡シーケンス及び道路画像シーケンスを取得すること、または、
前記道路上にある収集端末に収集指令を送信し、前記収集端末によって収集されたユーザ軌跡シーケンス及び道路画像シーケンスを取得すること、をさらに含む
請求項1又は2に記載の道路状況予測方法。
【請求項4】
前記予めトレーニングして得られた画像意味分割モデルを利用し、前記道路画像シーケンスにおける各道路画像から主走行領域を識別することは、
予めトレーニングして得られた画像意味分割モデルを利用し、各道路画像に対して各画素に対応する領域種別をそれぞれ識別することにより、道路画像における走行領域及び少なくとも一種の道路環境領域を判定することと、
前記少なくとも一種の道路環境領域を利用し、前記走行領域から主走行領域を判定することと、を含む
請求項1に記載の道路状況予測方法。
【請求項5】
前記道路状況予測モデルに入力される特徴は、さらに、
前記第1の時点よりも前の所定の第1の時間区間に対応する時間特徴、及び/又は前記道路の属性特徴を含む
請求項1に記載の道路状況予測方法。
【請求項6】
サンプル道路における第2の時点よりも前の所定の第1の時間区間内のユーザ軌跡シーケンス及び道路画像シーケンス、および前記サンプル道路に付与された前記第2の時点よりも後の所定の第2の時間区間内の道路状況ラベルを含むトレーニングデータを取得することと、
前記ユーザ軌跡シーケンスから前記サンプル道路の軌跡関連特徴を抽出し、及び前記道路画像シーケンスから前記サンプル道路の画像関連特徴を抽出することと、
前記サンプル道路の軌跡相関特徴及び画像関連特徴を分類モデルの入力とし、前記サンプル道路に付与された道路状況ラベルを前記分類モデルの目標出力とするように、前記分類モデルをトレーニングして道路状況予測モデルを得ることと、を含み、
前記軌跡関連特徴は、速度特徴を含み、
前記画像関連特徴は、道路開放度特徴及び車流特徴のうちの少なくとも一種、並びに、建築特徴を含み、
前記道路画像シーケンスから前記サンプル道路の画像関連特徴を抽出することは、
予めトレーニングして得られた画像意味分割モデルを利用し、前記道路画像シーケンスにおける各道路画像から主走行領域を識別することと、
各道路画像から前記主走行領域の道路開放度及び/又は車流情報を抽出することと、
各道路画像における主走行領域の道路開放度及び/又は車流情報を利用して、前記道路開放度特徴及び/又は車流特徴を得ることと、
予めトレーニングして得られた画像意味分割モデルを利用し、前記道路画像シーケンスにおける各道路画像から建物領域を識別することと、
前記道路画像シーケンスにおける隣接する道路画像の建物領域の類似度平均値及び/又は分散を前記サンプル道路の建築特徴とすることと、を含む
道路状況予測モデルを確立する方法。
【請求項7】
前記予めトレーニングして得られた画像意味分割モデルを利用し、前記道路画像シーケンスにおける各道路画像から主走行領域を識別することは、
予めトレーニングして得られた画像意味分割モデルを利用し、各道路画像に対して各画素に対応する領域種別をそれぞれ識別することにより、道路画像における走行領域及び少なくとも一種の道路環境領域を判定することと、
前記少なくとも一種の道路環境領域を利用し、前記走行領域から主走行領域を判定することと、を含む
請求項6に記載の道路状況予測モデルを確立する方法。
【請求項8】
前記分類モデルの入力は、さらに、
前記第2の時点よりも前の所定の第1の時間区間に対応する時間特徴、及び/又は前記サンプル道路の属性特徴を含む
請求項6に記載の道路状況予測モデルを確立する方法。
【請求項9】
道路における第1の時点よりも前の所定の第1の時間区間内のユーザ軌跡シーケンス及び道路画像シーケンスを取得するためのシーケンス取得手段と、
前記ユーザ軌跡シーケンスから前記道路の軌跡関連特徴を抽出し、及び前記道路画像シーケンスから前記道路の画像関連特徴を抽出するための特徴抽出手段と、
前記道路の軌跡関連特徴及び画像関連特徴を、予めトレーニングして得られた道路状況予測モデルに入力し、前記道路状況予測モデルの推定結果を利用して前記道路における前記第1の時点よりも後の所定の第2の時間区間内の道路状況情報を得るための道路状況推定手段と、を含み、
前記軌跡関連特徴は、速度特徴を含み、
前記画像関連特徴は、道路開放度特徴及び車流特徴のうちの少なくとも一種、並びに、建築特徴を含み、
前記特徴抽出手段は、前記道路画像シーケンスから前記道路の画像関連特徴を抽出する場合、具体的に、
予めトレーニングして得られた画像意味分割モデルを利用し、前記道路画像シーケンスにおける各道路画像から主走行領域を識別することと、
各道路画像から前記主走行領域の道路開放度及び/又は車流情報を抽出することと、
各道路画像における主走行領域の道路開放度及び/又は車流情報を利用して、前記道路開放度特徴及び/又は車流特徴を得ることと、
予めトレーニングして得られた画像意味分割モデルを利用し、前記道路画像シーケンスにおける各道路画像から建物領域を識別することと、
前記道路画像シーケンスにおける隣接する道路画像の建物領域の類似度平均値及び/又は分散を前記道路の建築特徴とすること、を実行する
道路状況予測装置。
【請求項10】
前記道路は、予め設定された目標道路、道路状況電子フェンス内の道路、および、軌跡点が予め設定された道路状況予測トリガ条件を満たす道路のうちの少なくとも一つを含む
請求項9に記載の道路状況予測装置。
【請求項11】
前記道路の情報を収集端末に送信し、前記収集端末によって収集されたユーザ軌跡シーケンス及び道路画像シーケンスを取得するか、または、前記道路上にある収集端末に収集指令を送信し、前記収集端末によって収集されたユーザ軌跡シーケンス及び道路画像シーケンスを取得するための情報交換手段をさらに含む
請求項9又は10に記載の道路状況予測装置。
【請求項12】
前記特徴抽出手段は、予めトレーニングして得られた画像意味分割モデルを用いて、前記道路画像シーケンスにおける各道路画像から主走行領域を識別するときに、具体的に、
予めトレーニングして得られた画像意味分割モデルを利用し、各道路画像に対して各画素に対応する領域種別をそれぞれ識別することにより、道路画像における走行領域及び少なくとも一種の道路環境領域を判定することと、
前記少なくとも一種の道路環境領域を利用し、前記走行領域から主走行領域を判定すること、を実行する
請求項9に記載の道路状況予測装置。
【請求項13】
前記道路状況推定手段は、前記第1の時点よりも前の所定の第1の時間区間に対応する時間特徴、及び/又は前記道路の属性特徴を、前記予めトレーニングして得られた道路状況予測モデルにさらに入力するためにも用いられる
請求項9に記載の道路状況予測装置。
【請求項14】
サンプル道路における第2の時点よりも前の所定の第1の時間区間内のユーザ軌跡シーケンス及び道路画像シーケンス、および前記サンプル道路に付与された前記第2の時点よりも後の所定の第2の時間区間内の道路状況ラベルを含むトレーニングデータを取得するためのサンプル取得手段と、
前記ユーザ軌跡シーケンスから前記サンプル道路の軌跡関連特徴を抽出し、及び前記道路画像シーケンスから前記サンプル道路の画像関連特徴を抽出するための特徴抽出手段と、
前記サンプル道路の軌跡相関特徴及び画像関連特徴を分類モデルの入力とし、前記サンプル道路に付与された道路状況ラベルを前記分類モデルの目標出力とするように、前記分類モデルをトレーニングして道路状況予測モデルを得るためのモデルトレーニング手段と、を含み、
前記軌跡関連特徴は、速度特徴を含み、
前記画像関連特徴は、道路開放度特徴及び車流特徴のうちの少なくとも一種、並びに、建築特徴を含み
前記特徴抽出手段は、前記道路画像シーケンスから前記サンプル道路の画像関連特徴を抽出するときに、具体的に、
予めトレーニングして得られた画像意味分割モデルを利用し、前記道路画像シーケンスにおける各道路画像から主走行領域を識別することと、
各道路画像から前記主走行領域の道路開放度及び/又は車流情報を抽出することと、
各道路画像における主走行領域の道路開放度及び/又は車流情報を利用して、前記道路開放度特徴及び/又は車流特徴を得ることと、
予めトレーニングして得られた画像意味分割モデルを利用し、前記道路画像シーケンスにおける各道路画像から建物領域を識別することと、
前記道路画像シーケンスにおける隣接する道路画像の建物領域の類似度平均値及び/又は分散を前記サンプル道路の建築特徴とすること、を実行する
道路状況予測モデルを確立する装置。
【請求項15】
前記特徴抽出手段は、予めトレーニングして得られた画像意味分割モデルを用いて、前記道路画像シーケンスにおける各道路画像から主走行領域を識別するときに、具体的に、
予めトレーニングして得られた画像意味分割モデルを利用し、各道路画像に対して各画素に対応する領域種別をそれぞれ識別することにより、道路画像における走行領域及び少なくとも一種の道路環境領域を判定することと、
前記少なくとも一種の道路環境領域を利用し、前記走行領域から主走行領域を判定すること、を実行する
請求項14に記載の道路状況予測モデルを確立する装置。
【請求項16】
前記モデルトレーニング手段は、前記第2の時点よりも前の所定の第1の時間区間に対応する時間特徴、及び/又は前記サンプル道路の属性特徴をさらに前記分類モデルの入力とするためにも用いられる
請求項14に記載の道路状況予測モデルを確立する装置。
【請求項17】
少なくとも1つのプロセッサと、前記少なくとも1つのプロセッサと通信接続するメモリとを含む電子機器であって、
前記メモリに、前記少なくとも1つのプロセッサによって実行され得るコマンドが記憶されており、
前記コマンドが前記少なくとも1つのプロセッサによって実行されることで、前記少なくとも1つのプロセッサが請求項1~5のいずれか一項に記載の道路状況予測方法を実行することができる
電子機器。
【請求項18】
コンピュータに請求項1~5のいずれか一項に記載の道路状況予測方法を実行させるためのコンピュータコマンドを記憶している非一時的コンピュータ読取可能な記憶媒体。
【請求項19】
プロセッサによって実行される時に請求項1~5のいずれか一項に記載の道路状況予測方法を実現するコンピュータプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本願は、コンピュータ応用の技術分野に関し、特にビッグデータ技術及びインテリジェント交通技術での道路状況予測方法、道路状況予測モデルを確立する方法及びその対応装置、電子機器、記録媒体ならびにコンピュータプログラム製品に関する。
【背景技術】
【0002】
都市交通需要が急速に増加するにつれて、交通渋滞の問題はますます厳しくなる。交通渋滞は人々の通勤時間を増加させ、燃料を浪費し、汚染を増加させる。また、このシーンでも交通事故が発生しやすくなり、大きな安全上の問題がある。
【0003】
例えば地図類製品において道路状況に対する予測を実現可能になると、ユーザに参考をタイムリーに提供して、適切な経路を選択することができ、道路状況に応じて予測される状況に基づいてユーザに経路計画、経路提案などの後続のサービスをより良く提供することもできる。
【発明の概要】
【発明が解決しようとする課題】
【0004】
これに鑑みて、本願は、道路状況に対する予測を実現するために、道路状況予測方法、道路状況予測モデルを確立する方法及びその対応装置、電子機器、記録媒体ならびにコンピュータプログラム製品を提供する。
【課題を解決するための手段】
【0005】
第1の局面によれば、本願は、
道路における第1の時点よりも前の所定の第1の時間区間内のユーザ軌跡シーケンス及び道路画像シーケンスを取得することと、
前記ユーザ軌跡シーケンスから前記道路の軌跡関連特徴を抽出し、及び前記道路画像シーケンスから前記道路の画像関連特徴を抽出することと、
前記道路の軌跡関連特徴及び画像関連特徴を、予めトレーニングして得られた道路状況予測モデルに入力し、前記道路状況予測モデルの推定結果を利用して前記道路における前記第1の時点よりも後の所定の第2の時間区間内の道路状況情報を得ることと、を含む道路状況予測方法を提供している。
【0006】
第2の局面によれば、本願は、
トレーニングデータを取得し、前記トレーニングデータにはサンプル道路における第2の時点よりも前の所定の第1の時間区間内のユーザ軌跡シーケンス及び道路画像シーケンス、および前記サンプル道路に付与された前記第2の時点よりも後の所定の第2の時間区間内の道路状況ラベルが含まれることと、
前記ユーザ軌跡シーケンスから前記サンプル道路の軌跡関連特徴を抽出し、及び前記道路画像シーケンスから前記サンプル道路の画像関連特徴を抽出することと、
前記サンプル道路の軌跡相関特徴及び画像関連特徴を分類モデルの入力とし、前記サンプル道路に付与された道路状況ラベルを前記分類モデルの目標出力とするように、前記分類モデルをトレーニングして前記道路状況予測モデルを得ることと、を含む道路状況予測モデルを確立する方法を提供している。
【0007】
第3の局面によれば、本願は、
道路における第1の時点よりも前の所定の第1の時間区間内のユーザ軌跡シーケンス及び道路画像シーケンスを取得するためのシーケンス取得手段と、
前記ユーザ軌跡シーケンスから前記道路の軌跡関連特徴を抽出し、及び前記道路画像シーケンスから前記道路の画像関連特徴を抽出するための特徴抽出手段と、
前記道路の軌跡関連特徴及び画像関連特徴を、予めトレーニングして得られた道路状況予測モデルに入力し、前記道路状況予測モデルの推定結果を利用して前記道路における前記第1の時点よりも後の所定の第2の時間区間内の道路状況情報を得るための道路状況推定手段と、を含む道路状況予測装置を提供している。
【0008】
第4の局面によれば、本願は、
トレーニングデータを取得するためのサンプル取得手段であって、前記トレーニングデータには、サンプル道路における第2の時点よりも前の所定の第1の時間区間内のユーザ軌跡シーケンス及び道路画像シーケンス、および前記サンプル道路に付与された前記第2の時点よりも後の所定の第2の時間区間内の道路状況ラベルが含まれるサンプル取得手段と、
前記ユーザ軌跡シーケンスから前記サンプル道路の軌跡関連特徴を抽出し、及び前記道路画像シーケンスから前記サンプル道路の画像関連特徴を抽出するための特徴抽出手段と、
前記サンプル道路の軌跡相関特徴及び画像関連特徴を分類モデルの入力とし、前記サンプル道路に付与された道路状況ラベルを前記分類モデルの目標出力とするように、前記分類モデルをトレーニングして前記道路状況予測モデルを得るためのモデルトレーニング手段と、を含む道路状況予測モデルを確立する装置を提供している。
【0009】
第5の局面によれば、本願は、少なくとも1つのプロセッサと、前記少なくとも1つのプロセッサと通信接続するメモリとを含む電子機器であって、
前記メモリに、前記少なくとも1つのプロセッサによって実行され得るコマンドが記憶されており、
前記コマンドが前記少なくとも1つのプロセッサによって実行されることで、前記少なくとも1つのプロセッサが上述した方法を実行することができる電子機器を提供している。
【0010】
第6の局面によれば、本願は、コンピュータに上述の方法を実行させるためのコンピュータコマンドを記憶している非一時的コンピュータ読取可能な記憶媒体を提供している。
【0011】
第7の局面によれば、本願はプロセッサによって実行される時に上述の方法を実現するコンピュータプログラムを含む、コンピュータプログラム製品を提供している。
【発明の効果】
【0012】
以上の技術案から分かるように、本願は、道路における第1の時点よりも前の所定の第1の時間区間内のユーザ軌跡シーケンス及び道路画像シーケンスに基づいて、第1の時点よりも後の所定の第2の時間区間内の道路状況情報を予測して取得することによって、道路状況に対する予測を実現することができる。
【0013】
上記選択可能な態様が有する他の効果は、以下、具体的な実施例を参照しながら説明する。
【図面の簡単な説明】
【0014】
図面は、本案がよりよく理解されるためのものであり、本願に対する限定を構成しない。
図1図1は、本願の実施例が適用される例示的なシステムアーキテクチャを示すものである。
図2図2は、本願の実施例によって提供される道路状況予測の主要な方法のフローチャートである。
図3図3は、本願の実施例によって提供される画像関連特徴抽出の方法フローチャートである。
図4図4は、本願の実施例によって提供される一つの道路画像の実例図である。
図5図5は、本願の実施例によって提供される道路状況予測モデルを確立する方法のフローチャートである。
図6図6は、本願の実施例によって提供される道路状況予測装置の構成図である。
図7図7は、本願の実施例によって提供される道路状況予測モデルを確立する装置構成図である。
図8図8は、本願の実施例を実現するための電子機器のブロック図である。
【発明を実施するための形態】
【0015】
以下、図面を参照しながら、本願の例示的な実施例について説明する。その中、理解に役立つように本願の実施例の各詳細を含み、これらはあくまで例示的なものであると理解すべきである。そのため、当業者は、本願の範囲及び趣旨から逸脱せずに、ここで説明した実施例に対して、様々な変更や、修正をなし得ることに認識すべきである。同様に、明確及び簡明のために、以下の説明において公知の機能及び構成に対する説明を省略している。
【0016】
現在、道路状況予測の主流方法は、ユーザ軌跡に基づくマイニングであり、すなわち、大量の履歴軌跡及び履歴道路状況の情報によって未来の道路状況を推定するものである。しかしながら、このようなユーザ軌跡マイニングに基づく方法は、主に以下の問題が存在する。
【0017】
1)道路の軌跡量が疎である場合に、道路状況予測の正確率に深刻な影響を与える可能性がある。
【0018】
2)例えば、トンネル、高架、施工現場、都市の谷間などの複雑な道路シーンにおいて、軌跡測位に深刻な干渉があることによって、道路状況の予測が不正確である。
【0019】
3)道路状況に渋滞が発生する場合、運転者は地図類アプリケーションを閉じやすく、ユーザの軌跡を取得できなくなることによって道路状況の予測が不正確である。
【0020】
これに鑑みて、本願は、ユーザ軌跡と道路画像とを結合する道路状況予測方法を提供し、以下、実施例を参照しながらこの方法を詳細に説明する。
【0021】
システム全体のアーキテクチャに対する理解を容易にするために、図1は本願の実施例を適用できる例示的なシステムアーキテクチャを示している。図1に示すように、このシステムアーキテクチャは、端末装置101及び102と、ネットワーク103とサーバ104とを含むことができる。ネットワーク103は、端末装置101、102とサーバ104との間に通信リンクの媒体を提供するために用いられる。ネットワーク103は、例えば、有線、無線通信リンク又は光ファイバーケーブルなど、様々な接続タイプを含むことができる。
【0022】
ユーザは、端末装置101及び102を用いてネットワーク103を介してサーバ104とインタラクティブすることができる。端末装置101及び102には、例えば、地図類アプリケーション、音声インタラクティブ型アプリケーション、ウェブページブラウザアプリケーション、通信類アプリケーションなど、様々なアプリケーションがインストールされてもよい。
【0023】
端末装置101及び102は、地図類アプリケーションをサポートして表示することができる様々な電子機器であってもよく、スマートフォン、タブレットコンピュータ、スマートウェアラブル機器、クラウドソーシング収集機器等を含むが、これらに限られない。本願発明によって提供される装置は、上記サーバ104に設置して実行することができる。それは、複数のソフトウェアまたはソフトウェアモジュール(例えば分散サービスを提供するために用いられる)として実現されてもよく、単一のソフトウェアまたはソフトウェアモジュールとして実現されてもよく、ここでは具体的に限定されない。
【0024】
例えば、道路状況予測装置は、上記サーバ104に設置して実行するものであり、一方では、上記端末装置101及び102は、収集装置としてユーザ軌跡データ、道路画像データ等を収集することができる。サーバ104は、各端末装置101及び102等が報告したユーザ軌跡データ、道路画像データ等を取得して記憶することができる。当然のことながら、専門的な収集装置によりユーザ軌跡データ、道路画像データなどを収集することを担当してもよい。道路状況予測装置は、本発明の実施例によって提供される形態を用いて道路の道路状況を推定し、能動的にまたは端末装置101または102の要求に応答して、道路の道路状況情報を各端末装置101または102に送信する。
【0025】
さらに例えば、道路状況予測モデルを確立する装置は、上記サーバ104に設置して実行するものであり、サーバ104は、トレーニングデータを利用してトレーニングすることによって道路状況予測モデルが得られてサーバ側に記憶され、この道路状況予測モデルを用いて道路の道路状況予測を行うことに用いられる。
【0026】
サーバ104は、単一のサーバであってもよく,複数のサーバで構成されるサーバ群であってもよい。図1における端末装置、ネットワーク及びサーバの数は、単に例示的なものであると理解すべきである。必要に応じて、任意の数の端末装置、ネットワーク及びサーバを有することができる。
【0027】
図2は、本願の実施例によって提供される道路状況予測の主要な方法のフローチャートであり、図2に示すように、この方法は、以下のステップを含むことができる。
【0028】
ステップ201において、道路における第1の時点よりも前の所定の第1の時間区間内のユーザ軌跡シーケンス及び道路画像シーケンスを取得する。
【0029】
ユーザ軌跡シーケンスは、測位機能を有する収集端末(すなわち図1に示された端末装置に対応する)により報告された連続的な時点に対応する軌跡点で構成されたシーケンスであってもよい。道路画像シーケンスは、画像収集機能を有する収集端末で収集された道路画像からなるシーケンスであってもよい。ここで、収集端末は、ユーザが使用するインテリジェント端末装置で収集された画像、映像等であってもよく、例えば自動車上の道路収集クラウドソーシング装置等によって収集された画像、映像等であってもよい。サーバ側は、収集端末がアップロードしたユーザ軌跡シーケンス及び道路画像シーケンスを記憶する。
【0030】
本実施例において、第1の時点は現在の時点であってもよく、すなわち、現時点よりも前の第1の時間区間内のユーザ軌跡シーケンスと道路画像シーケンスを利用して、未来の第2の時間区間内の道路状況情報を予測する。それ以外は、履歴のある所定の時間帯、例えばある履歴時点から第2の時間区間内の道路状況情報を推定しようとすると、履歴時点よりも前の第1の時間区間内のユーザ軌跡シーケンス及び道路画像シーケンスを取得することもできる。しかし、一般的に使用されるシーンは前者である。
【0031】
ステップ202において、ユーザ軌跡シーケンスから道路の軌跡関連特徴、および、道路画像シーケンスから道路の画像関連特徴を抽出する。
【0032】
本実施例において、軌跡関連特徴は、主に速度特徴を含む。速度特徴は、最も道路の渋滞状況を表すことができるためである。一般的には、継続的に高い速度であれば、道路の道路状況が一般的によく、継続的に低い速度であれば、道路の道路状況が一般的に悪い。
【0033】
速度特徴に加えて、軌跡関連特徴として、ユーザ軌跡シーケンスから、例えば軌跡が道路中心線から逸脱する状況など、他の特徴を抽出してもよい。
【0034】
画像関連特徴は、道路開放度特徴、車流特徴、建物特徴の少なくとも一種を含んでもよい。これらの特徴は、いずれもある程度で道路が発生し得る道路状況を表すことができる。これらの特徴の具体的な抽出方式は、後の実施例で詳述する。
【0035】
ステップ203において、道路の軌跡関連特徴及び画像関連特徴を、予めトレーニングして得られた道路状況予測モデルに入力し、道路状況予測モデルの推定結果を利用して道路における第1の時点よりも後の所定の第2の時間区間内の道路状況情報を判定する。
【0036】
道路状況予測モデルは、実際に予めトレーニングして得られた分類モデルであり、第1の時点よりも前の第1の時間区間内の道路軌跡関連特徴及び画像関連特徴に基づいて、第1の時点よりも後の第2の時間区間内の道路状況情報を予測することができる。予測された道路状況情報は、いくつかの道路状況種別を含むことができる。例えば、順調、徐行、渋滞である。さらに例えば、順調、徐行、渋滞、ひどい渋滞である。
【0037】
道路状況予測モデルのトレーニング方式について、後の実施例で詳述する。
【0038】
上記実施例に示すフローから分かるように、本願は、道路における第1の時点よりも前の所定の第1の時間区間内のユーザ軌跡シーケンス及び道路画像シーケンスに基づいて、第1の時点よりも後の所定の第2の時間区間内の道路状況情報を予測して得ることができ、道路の道路状況に対する予測を実現することができる。
【0039】
以下に、実施例に合わせて上記ステップ201における「道路における第1の時点よりも前の所定の第1の時間区間内のユーザ軌跡シーケンス及び道路画像シーケンスを取得する」の実現形態を説明する。
【0040】
本願に係る道路は、複数の方式を採用して判定された、道路状況を予測する必要がある道路であってもよく、以下のいくつかの形態を含むが、これらに限られない。
【0041】
第1の形態であって、予め設定された目標道路である。例えば、指定された重要道路等であってもよい。
【0042】
第2の形態であって、道路状況電子フェンス内の道路である。このような形態では、一つの領域範囲を予め設定することができ、この領域範囲は、一つの仮想的なフェンスと見なすことができ、「道路状況電子フェンス」と呼ばれる。収集端末がサーバ側に軌跡点をリアルタイムに報告し、例えば、軌跡点が道路状況電子フェンスの領域に入ったことを表示するなど、これらの軌跡点が道路状況電子フェンスをトリガすると、収集端末にこの道路状況電子フェンス内の道路のユーザ軌跡シーケンス及び道路画像シーケンスを収集するように指示することができる。
【0043】
第3の形態であって、軌跡点が予め設定された道路状況予測トリガ条件を満たす道路である。
【0044】
収集端末にとって、それがユーザ軌跡をリアルタイムに報告するため、サーバ側は、様々なユーザ軌跡に基づいて道路の軌跡点の数及び速度等を特定することができる。例えば、道路上の軌跡点の数が一定の数を超えるか、又は道路上の軌跡点の速度が一定の時間内に一定の速度閾値よりも低い場合に、この道路上の道路状況が良くないと説明することができ、この道路が道路状況を予測する必要がある道路であると判定することができる。
【0045】
その中の一つの実現形態として、サーバ側は、道路情報を収集端末に送信し、収集端末は、この道路情報を受信した後、この道路の道路画像または映像を収集してサーバ側にアップロードすることを担当するように構成されてもよい。
【0046】
別の実現形態として、サーバ側は、上記道路上に位置する収集端末に収集指令を送信し、収集端末は、この収集指令を受信した後、現在の道路上の道路画像又は映像を収集してサーバ側にアップロードするように構成されてもよい。
【0047】
道路lに対して、収集端末によってこの道路上に収集された道路画像シーケンスは、<It-N,It-N+1,・・・,It-1,I>と表記することができ、すなわち、時点tよりも前のN個の時点で構成された画像シーケンスである。これに応じて、収集端末は、ユーザ軌跡点をリアルタイムに報告し、軌跡点と画像シーケンス内の各画像を時点に応じて一対一に対応させた後、ユーザ軌跡シーケンスは、<pt-N,pt-N+1,・・・,pt-1,p>と表記することができる。ユーザ軌跡シーケンスにおける各軌跡点は、緯度経度座標などの方式で表すことができる。
【0048】
ここで、収集端末がアップロードしたのは道路映像であると、道路画像シーケンスにおける各道路画像がユーザ軌跡シーケンスにおける各軌跡点と時間的に対応可能になるために、道路映像に対してフレームを抽出して、抽出された画像フレームがユーザ軌跡シーケンスにおける各軌跡点と時間的に対応するようにすることができ、抽出された画像フレームを道路画像シーケンスに構成する。
【0049】
以下、実施例を参照しながら、上記ステップ202における「ユーザ軌跡シーケンスから道路の軌跡関連特徴、および、道路画像シーケンスから道路の画像関連特徴を抽出する」の実現形態を説明する。
【0050】
ユーザ軌跡シーケンスから抽出された道路の軌跡関連特徴は、主に速度特徴を含む。道路上の瞬時速度は、道路状況を反映することができる。軌跡点の瞬時速度は、隣接する2つの軌跡点の距離差と時間差の比率を利用して得ることができる。
【0051】
好ましい実施形態として、ユーザ軌跡シーケンスに使用される速度特徴は、シーケンスレベルの速度特徴として表すことができ、ユーザ軌跡シーケンスにおける各軌跡点の速度平均値、速度分散などを含むが、これらに限られない。
【0052】
道路画像シーケンスから抽出された道路の画像関連特徴は、道路開放度特徴、車流特徴及び建築特徴のうちの少なくとも一種を含むが、これらに限られない。
【0053】
画像関連特徴の抽出方式について、ここで好ましい実施形態を提供する。図3を参照すると、以下のステップを含むことができる。
【0054】
ステップ301において、予めトレーニングして得られた画像意味分割モデルを利用し、道路画像シーケンスにおける各道路画像から主走行領域を識別する。
【0055】
画像意味分割モデルは、画像処理分野において一般的に用いられるモデルであり、画素レベルに基づいて、画像における各画素をある具体的な種別に分類することができる。本実施例において、画像意味分割モデルを利用して道路画像における各画素を、例えば、走行領域、車両、建物、街灯、天空、路上障害物、二重黄線、分離帯、停止線など、道路交通における一般的な対象領域種別に分類する。
【0056】
図4は、本願の実施例によって提供される収集端末で収集された道路画像シーケンスにおける一つの道路画像である。画像意味分割モデルにより識別された後、この画像における走行領域に属する各画素、車両に属する各画素、建物に属する各画素、天空に属する各画素、道路エッジに属する各画素、二重黄線に属する各画素などを識別することができる。
【0057】
画像意味分割モデルを予めトレーニングするときに、採用されるトレーニングデータは、種々の道路画像サンプル、および、道路画像サンプルにおける各領域種別に対するラベルを含むことができる。トレーニングデータに基づいて画像意味分割モデルをトレーニングすることによって、意味分割モデルの入力は道路画像サンプルであり、目標出力は各画素に対する分類結果と道路画像サンプルにおける各領域種別に対するラベルとが一致することであるようにする。
【0058】
ここで、画像意味分割モデルは、DeepLabV3、RefineNetなどを用いることができる。
【0059】
そのステップにおいて、画像意味分割モデルを利用して各道路画像に対して各画素に対応する領域種別をそれぞれ識別した後、道路画像における走行領域及び少なくとも一種の道路環境領域を判定することができる。ここで、道路環境領域は、道路環境における対象に属する領域であってもよく、例えば、路上障害物、二重黄線、分離帯、道路エッジなどである。これらの道路環境領域を利用して、道路画像における主走行領域を取得することができる。主走行領域とは、この道路画像を取集する収集端末が走行可能な走行領域のことである。画像意味分割モデルによって識別された走行領域は、現在の収集端末の走行方向と一致しない他の車線、例えば二重黄線以外の逆方向車線、さらに例えば立体道路の交差方向の車線、さらに例えば道路工事が存在する車線などを含む可能性がある。これらの車線はいずれも現在の収集端末が走行できない走行領域であり、それを排除して、収集端末が走行できる走行領域のみを特定する必要がある。主走行領域は、一つの車線を含んでもよく、同方向の複数の車線を含んでもよい(複数の車線が存在する場合に収集端末は車線を変更して走行することができるためである)。
【0060】
より具体的には、一般的に収集端末が走行可能な領域では、道路エッジ、二重黄線、分離帯、路上障害物などの制限が存在し、例えば、収集端末が撮影した道路画像における道路エッジと二重黄線との間は収集端末が現在走行可能な領域であり、図4に示す通りである。さらに例えば、収集端末によって撮影された道路画像における道路エッジと路上障害物との間は収集端末が現在走行可能な領域である、などである。したがって、本願の実施例において、路上障害物、二重黄線、分離帯、道路エッジなどの道路環境領域に対して線形フィッティング処理を行うことができ、線形フィッティング処理後のこれらの道路環境領域で囲まれた道路領域が主走行領域であり、又は、線形フィッティング処理後のこれらの道路環境領域で囲まれた道路領域のうちの最大のものが主走行領域である。
【0061】
ステップ302において、各道路画像から主走行領域の道路開放度及び/又は車流情報を抽出する。
【0062】
その中の一つの好ましい実施形態として、主走行領域の道路開放度の抽出方式は以下のステップを含むことができる。
【0063】
ステップS11であって、主走行領域内で路面の最大内接矩形を判定する。
【0064】
ステップS12であって、最大内接矩形の面積と主走行領域との比率、最大内接矩形の幅と主走行領域の幅との比率、最大内接矩形の高さと主走行領域の高さとの比率の中の少なくとも一種を主走行領域の道路開放度の指標とする。
【0065】
当然のことながら、上記実施形態以外に、他の道路開放度の抽出方式を採用してもよく、例えば、主走行領域内における路面に属する画素が主走行領域に属する画素に占める比率を判定し、それを主走行領域の道路開放度の指標とすること、などである。
【0066】
その中の一つの好ましい実施形態として、主走行領域の車流情報の抽出方式は、以下のステップを含むことができる。
【0067】
ステップS21であって、目標検出アルゴリズムを利用して道路画像における各車両の種別、所在領域及び信頼度の情報を抽出する。
【0068】
ここで、目標検出アルゴリズムは、例えば、Faster-RCNN又はYoloV3などを用いることができる。目標検出アルゴリズムにより、道路画像における各種別の車両を抽出することができる。これらの車両の画素によって、車両が所在する領域を判定することができ、ここでの領域とは、上記した、画像意味分割モデルを介して得られた領域のことを指す。また、目標検出アルゴリズムを介して、各車両の信頼度、すなわちこの車両が出力された種別に属する信頼度を出力することができる。
【0069】
ステップS22であって、道路画像内の車両に対して以下のフィルタリングを行う。即ち、走行領域内に位置しない車両をフィルタリングし、所定の種別に属しない車両をフィルタリングし、信頼度が所定の信頼度閾値よりも低い車両をフィルタリングする。
【0070】
上記フィルタリングがすべて実行されると、実際には、主走行領域内における、所定の種別に属しかつ信頼度が一定の信頼度要件を満たす車両を選別すると見なすことができる。例えば、主走行領域内の自動車を選別する。
【0071】
ステップS23であって、フィルタリング処理後に得られた車両数とフィルタリング処理後に得られた主走行領域の面積に占める車両面積の比率のうちの少なくとも一種を主走行領域の車流情報の指標とする。
【0072】
上記過程に係る面積に関連する比率は、いずれも対応する領域の画素数の比率によって判定することができる。例えば、主走行領域の面積に占める車両面積の比率は、対応する主走行領域の画素数に占める対応する車両の画素の比率であってもよい。例えば、幾何学的方式によるアルゴリズムなど、他のアルゴリズムを採用してもよい。
【0073】
画像において異なる位置のものの実際の状況に対する影響は異なり、例えば、画像の中間に近い位置かつ画像奥行きが比較的近い位置に現れる車両の影響が大きく、両側で画像奥行きが比較的遠い位置に現れる車両の影響が小さいことが多い。したがって、好ましい実施形態として、所定の重み行列に従って道路開放度及び車流情報などに重み付け処理を行うことができる。ここで、重み行列は、道路画像における各位置に対応し、位置及び画像奥行きなどに応じて予め設定される。
【0074】
ステップ303において、各道路画像における主走行領域の道路開放度及び/又は車流情報を利用して、道路開放度特徴及び/又は車流特徴を取得する。
【0075】
道路画像シーケンスに複数の道路画像が含まれるため、本実施例では画像シーケンスにおける各道路画像の道路開放度の平均値及び/又は分散を道路の開放度特徴とし、画像シーケンスにおける各道路画像の車流の平均値及び/又は分散を道路の車流特徴とすることができる。
【0076】
また、上記道路の開放度特徴及び車流特徴に加えて、さらに道路画像から建築特徴を抽出することもできる。画像意味分割モデルによる各道路画像における各画素の識別結果には、建物領域を含み、道路画像シーケンスにおける隣接する道路画像の建物領域の類似度の平均値及び/又は分散を道路の建築特徴とする。
【0077】
好ましい実施形態として、道路画像における建物領域に対してSIFT(Scale-invariant feature transform,スケール不変特徴変換)アルゴリズムの処理を行った後、建物特徴を取得することができる。道路画像シーケンスに対して、隣接する道路画像における建物特徴の類似度を二つずつ算出し、その後平均値及び/又は分散を計算し、得られた類似度の平均値及び/又は分散を道路の建築特徴とすることができる。
【0078】
建築特徴を用いたのは、道路交通に渋滞が発生する場合、車両の進行が遅く、収集端末が収集した道路画像シーケンスにおいて各道路画像における建物の変化が非常に小さく、すなわち類似度が高いことを考慮したからである。道路画像における建物特徴の類似度平均値が高いほど,反映された渋滞が深刻である。
【0079】
以下、実施例を参照しながら、上記ステップ203である「道路の軌跡関連特徴及び画像関連特徴を、予めトレーニングして得られた道路状況予測モデルに入力し、道路状況予測モデルの推定結果を利用して道路における第1の時点よりも後の所定の第2の時間区間内の道路状況情報を判定する」ことを詳細に説明する。
【0080】
本願の実施例において、道路状況予測モデルは実質的に分類モデルであってもよく、例えばGBDT(Gradient Boosting Decison Tree,勾配ブースティング決定木)、DNN(Deep Neural Networks,ディープニューラルネットワーク)、LR(Logistic Regression,論理回帰)、SVM(support vector machines,サポートベクターマシン)などのモデルを用いることができる。
【0081】
一つの道路に対して、この道路の軌跡関連特徴及び画像関連特徴を道路状況予測モデルに入力したら、道路状況予測モデルは、この道路の道路状況情報を出力することができ、この道路状況情報は、所定のいくつかの道路状況種別であってもよい。例えば、渋滞、順調の2種類であってもよいし、渋滞、徐行、順調の3種類であってもよいし、さらに、ひどい渋滞、渋滞、徐行、順調の4種類などであってもよい。
【0082】
また、上記ステップ202で抽出された道路の軌跡関連特徴及び画像関連特徴に加えて、さらに第1の時点よりも前の所定の第1の時間区間に対応する時間特徴、道路の属性特徴などを道路状況予測モデルに入力することができる。
【0083】
ここで、時間特徴は、休日であるか否か、出勤日であるか否か、出勤時間であるか否か、退勤時間であるか否か、などの少なくとも一つを含むことができる。時間特徴を導入するのは、一般的に道路状況が時間的に一定の法則を有し、出勤日や通勤時間であるか否かなどがいずれも道路状況に大きな影響を与えるためである。
【0084】
道路の属性特徴は、車線数、双方向通行道路であるか否か、道路レベルなどの少なくとも一つを含むことができる。道路の属性特徴を導入するのは、異なる属性を有する道路が一般的に異なる道路容量に対応し、異なる道路容量が道路状況に対して直接的な影響を与えるためである。
【0085】
図5は、本願の実施例によって提供される道路状況予測モデルを確立する方法のフローチャートであり、図5に示すように、この方法は、以下のステップを含むことができる。
【0086】
ステップ501において、サンプル道路における第2の時点よりも前の所定の第1の時間区間内のユーザ軌跡シーケンス及び道路画像シーケンス、並びに、サンプル道路に付与された第2の時点よりも後の所定の第2の時間区間内の道路状況ラベルが含まれるトレーニングデータを取得する。
【0087】
トレーニングデータは、収集端末の履歴データから取得することができ、上記第2の時点は履歴時点であり、サーバ側は、収集端末によってこの履歴時点よりも前の所定の第1の時間区間内に収集されたサンプル道路に対するユーザ軌跡シーケンス及び道路画像シーケンスを取得することができ、また、第2の時点よりも後の所定の第2の時間区間内の道路状況も同様に履歴データであり、手動で付与する方式によって各サンプル道路に道路状況ラベルを付与することができる。
【0088】
上記サンプル道路は、収集端末で収集された軌跡データ及び道路画像データが完全で、道路状況が明確である道路であってもよい。他の基準で選別された道路であってもよい。
【0089】
ステップ502において、ユーザ軌跡シーケンスからサンプル道路の軌跡関連特徴を抽出し、道路画像シーケンスからサンプル道路の画像関連特徴を抽出する。
【0090】
サンプル道路の軌跡関連特徴及び画像関連特徴に対する抽出方式は、図2に示す実施例のステップ202で用いられた軌跡関連特徴及び画像関連特徴の抽出方式と同じであり、ここで説明を省略し、以上の実施例における関連記載を参照することができる。
【0091】
ステップ503において、サンプル道路の軌跡関連特徴及び画像関連特徴を分類モデルの入力とし、サンプル道路に付与された道路状況ラベルを分類モデルの目標出力とするように、分類モデルをトレーニングして前記道路状況予測モデルが得られる。
【0092】
ここで用いられた分類モデルは、GBDT(Gradient Boosting Decison Tree,勾配ブースティング決定木)、DNN(Deep Neural Networks,ディープニューラルネットワーク)、LR(Logistic Regression,論理回帰)、SVM(support vector machines,サポートベクターマシン)などのモデルであってもよい。
【0093】
道路状況ラベルは、例えば渋滞、順調の2種類に分けてもよい。道路状況ラベルは、例えば渋滞、徐行、順調の3種類に分けてもよい。道路状況ラベルは、さらに例えばひどい渋滞、渋滞、徐行、順調の4種類などに分けてもよい。
【0094】
さらに、分類モデルに入力される特徴は、サンプル道路の軌跡関連特徴及び画像関連特徴以外に、さらに第2の時点よりも前の所定の第1の時間区間に対応する時間特徴、及び/又は、サンプル道路の属性特徴を入力することができる。
【0095】
ここで、時間特徴は、休日であるか否か、出勤日であるか否か、出勤時間であるか否か、退勤時間であるか否か、などの少なくとも一つを含むことができる。時間特徴を導入するのは、一般的に道路状況が時間的に一定の法則を有し、出勤日、通勤時間であるか否かなどがいずれも道路状況に大きな影響を与えるためである。
【0096】
道路の属性特徴は、車線数、双方向通行道路であるか否か、道路レベルなどの少なくとも一つを含むことができる。道路の属性特徴を導入するのは、異なる属性を有する道路が一般的に異なる道路容量に対応し、異なる道路容量が道路状況に対して直接的な影響を与えるためである。
【0097】
トレーニング過程において、分類モデルの出力と目標出力との間の差異を利用して損失関数を構築し、損失関数の値を利用して前方フィードバックを行うことにより分類モデルのパラメータを更新し、トレーニング停止条件に達するまで停止する。ここで、トレーニング停止条件は、例えば損失関数の値が所定の損失関数閾値以下になること、反復回数が所定の回数閾値に達することなどであってもよい。
【0098】
ここで、トレーニング過程において、k-folds(k層交差検証)の方式を用いてトレーニングを行うことができる。すなわち、トレーニングデータをk部に分割し、kは1より大きい正の整数である。各部のそれぞれにおいて、1個をテストデータとして選択し、他の(k-1)個をトレーニングデータとする。各部のトレーニングデータを用いてそれぞれ分類モデルをトレーニングし、かつ、テストデータを用いてテストを行い、このようにすることによってk個の分類モデル、及びこのk個の分類モデルのテストデータにおける誤差率が得られる。その中から平均誤差率が最も小さい分類モデルを選択し、さらにすべてのトレーニングデータを利用してこの分類モデルをトレーニングして、最終の道路状況予測モデルを得る。
【0099】
以上は、本願に提供される方法を詳細に説明したものであり、以下、実施例を参照しながら本願に提供される装置を詳細に説明する。
【0100】
図6は本願の実施例によって提供される道路状況予測装置の構成図である。この装置は、サーバ側に位置するアプリケーションであってもよいし、或いはサーバ側に位置するアプリケーションにおけるプラグイン又はソフトウェア開発キット(Software Development Kit,SDK)などの機能ユニットであってもよいし、或いは、さらに高い計算能力を持つコンピュータ端末に位置してもよい。図6に示すように、この道路状況予測装置600は、シーケンス取得手段01と、特徴抽出手段02と、道路状況推定手段03とを含むことができ、さらに情報交換手段04を含むことができる。ここで各構成手段の主な機能は、以下の通りである。
【0101】
シーケンス取得手段01は、道路における第1の時点よりも前の所定の第1の時間区間内のユーザ軌跡シーケンス及び道路画像シーケンスを取得するために用いられる。
【0102】
ここで、道路は、予め設定された目標道路と、道路状況電子フェンス内の道路と、軌跡点が予め設定された道路状況予測トリガ条件を満たす道路との少なくとも一つを含む。
【0103】
情報交換手段04は、道路の情報を収集端末に送信し、収集端末で収集されたユーザ軌跡シーケンス及び道路画像シーケンスを取得するために用いられ、或いは、道路にある収集端末に収集指令を送信し、収集端末で収集されたユーザ軌跡シーケンス及び道路画像シーケンスを取得するために用いられる。
【0104】
特徴抽出手段02は、ユーザ軌跡シーケンスから道路の軌跡関連特徴を抽出し、及び道路画像シーケンスから道路の画像関連特徴を抽出するために用いられる。
【0105】
ここで、ユーザ軌跡シーケンスから抽出された道路の軌跡関連特徴は、主に速度特徴を含む。道路上の瞬時速度は、道路状況を反映することができる。軌跡点の瞬時速度は、隣接する二つの軌跡点の距離差と時間差の比率を利用して得ることができる。
【0106】
画像関連特徴は、道路開放度特徴、車流特徴及び建築特徴のうちの少なくとも一種を含む。
【0107】
好ましい実施形態として、特徴抽出手段02は、道路画像シーケンスから道路の画像関連特徴を抽出する場合、予めトレーニングして得られた画像意味分割モデルを利用して、道路画像シーケンスにおける各道路画像から主走行領域を識別し、各道路画像から主走行領域の道路開放度及び/又は車流情報を抽出し、各道路画像における主走行領域の道路開放度及び/又は車流情報を用いて、道路開放度特徴及び/又は車流特徴を取得することができる。
【0108】
ここで、特徴抽出手段02は、予めトレーニングして得られた画像意味分割モデルを利用して、道路画像シーケンスにおける各道路画像から主走行領域を識別する場合に、予めトレーニングして得られた画像意味分割モデルを利用して、各道路画像に対して各画素に対応する領域種別をそれぞれ識別することにより、道路画像における走行領域及び少なくとも一種の道路環境領域を判定し、少なくとも一種の道路環境領域を利用して、走行領域から主走行領域を判定することができる。
【0109】
画像において異なる位置のものの実際の状況に対する影響は異なり、例えば、画像の中間に近い位置かつ画像奥行きが比較的近い位置に現れる車両の影響が大きく、両側で画像奥行きが比較的遠い位置に現れる車両の影響が小さいことが多い。したがって、好ましい実施形態として、所定の重み行列に従って道路開放度及び車流情報などに重み付け処理を行うことができる。ここで、重み行列は、道路画像における各位置に対応し、位置及び画像奥行きなどに応じて予め設定される。
【0110】
道路画像シーケンスには複数の道路画像が含まれるため、本実施例では、画像シーケンスにおける各道路画像の道路開放度の平均値及び/又は分散を道路開放度特徴とし、画像シーケンスにおける各道路画像の車流の平均値及び/又は分散を道路車流特徴とすることができる。
【0111】
特徴抽出手段02は、道路画像シーケンスから道路の画像関連特徴を抽出する場合に、予めトレーニングして得られた画像意味分割モデルを利用して、道路画像シーケンスにおける各道路画像から建物領域を識別し、道路画像シーケンスにおける隣接する道路画像の建物領域の類似度平均値及び/又は分散を道路の建築特徴とすることができる。
【0112】
道路状況推定手段03は、道路の軌跡関連特徴及び画像関連特徴を予めトレーニングして得られた道路状況予測モデルに入力して、道路状況予測モデルの推定結果を利用して道路における第1の時点よりも後の所定の第2の時間区間内の道路状況情報を取得するために用いられる。
【0113】
さらに、道路状況推定手段03は、さらに第1の時点よりも前の第1の時間区間に対応する時間特徴、及び/又は道路の属性特徴を、予めトレーニングして得られた道路状況予測モデルに入力することができる。
【0114】
ここで、時間特徴は、休日であるか否か、出勤日であるか否か、出勤時間であるか否か、退勤時間であるか否か、などの少なくとも一つを含むことができる。時間特徴を導入するのは、一般的に道路状況が時間的に一定の法則を有し、出勤日、通勤時間であるか否かなどがいずれも道路状況に大きな影響を与えるためである。
【0115】
道路の属性特徴は、車線数、双方向通行道路であるか否か、道路レベルなどの少なくとも一つを含むことができる。道路の属性特徴を導入するのは、異なる属性を有する道路が一般的に異なる道路容量に対応し、異なる道路容量が道路状況に対して直接的な影響を与えるためである。
【0116】
道路状況予測モデルは、実質的に分類モデルであってもよく、例えばGBDT、DNN、LR、SVMなどのモデルを用いることができる。
【0117】
一つの道路に対して、この道路の軌跡関連特徴及び画像関連特徴を道路状況予測モデルに入力したら、道路状況予測モデルは、この道路の道路状況情報を出力することができ、この道路状況情報は、所定のいくつかの道路状況種別であってもよい。例えば、渋滞、順調の2種類であってもよく、渋滞、徐行、順調の3種類であってもよく、さらに、ひどい渋滞、渋滞、徐行、順調の4種類などであってもよい。
【0118】
図7は本願の実施例によって提供される道路状況予測モデルを確立する装置構成図である。この装置は、サーバ側に位置するアプリケーションであってもよいし、或いはサーバ側に位置するアプリケーションにおけるプラグイン又はSDKなどの機能ユニットであってもよいし、或いは、さらに高い計算能力を持つコンピュータ端末に位置してもよい。図7に示すように、この道路状況予測モデルを確立する装置700は、サンプル取得手段11と、特徴抽出手段12と、モデルトレーニング手段13とを含むことができる。ここで各構成手段の主な機能は、以下の通りである。
【0119】
サンプル取得手段11は、サンプル道路における第2の時点よりも前の所定の第1の時間区間内のユーザ軌跡シーケンス及び道路画像シーケンス、並びに、サンプル道路に付与された第2の時点よりも後の所定の第2の時間区間内の道路状況ラベルが含まれるトレーニングデータを取得するために用いられる。
【0120】
特徴抽出手段12は、ユーザ軌跡シーケンスからサンプル道路の軌跡関連特徴を抽出し、道路画像シーケンスからサンプル道路の画像関連特徴を抽出するために用いられる。
【0121】
ここで、軌跡関連特徴は、速度特徴を含む。
【0122】
画像関連特徴は、道路開放度特徴、車流特徴及び建築特徴のうちの少なくとも一種を含む。
【0123】
好ましい実施形態として、特徴抽出手段12は、道路画像シーケンスからサンプル道路の画像関連特徴を抽出する場合、予めトレーニングして得られた画像意味分割モデルを利用して、道路画像シーケンスにおける各道路画像から主走行領域を識別し、各道路画像から主走行領域の道路開放度及び/又は車流情報を抽出し、各道路画像における主走行領域の道路開放度及び/又は車流情報を用いて、道路開放度特徴及び/又は車流特徴を取得することができる。
【0124】
ここで、特徴抽出手段12は、予めトレーニングして得られた画像意味分割モデルを利用して、道路画像シーケンスにおける各道路画像から主走行領域を識別する場合に、予めトレーニングして得られた画像意味分割モデルを利用して、各道路画像に対して各画素に対応する領域種別をそれぞれ識別することにより、道路画像における走行領域及び少なくとも一種の道路環境領域を判定し、少なくとも一種の道路環境領域を利用して、走行領域から主走行領域を判定することができる。
【0125】
特徴抽出手段12は、道路画像シーケンスからサンプル道路の画像関連特徴を抽出する場合に、予めトレーニングして得られた画像意味分割モデルを利用して、道路画像シーケンスにおける各道路画像から建物領域を識別し、道路画像シーケンスにおける隣接する道路画像の建物領域の類似度平均値及び/又は分散を道路の建築特徴とすることができる。
【0126】
モデルトレーニング手段13は、サンプル道路の軌跡関連特徴及び画像関連特徴を分類モデルの入力とし、サンプル道路に付与された道路状況ラベルを分類モデルの目標出力とするように、分類モデルをトレーニングして道路状況予測モデルを得るために用いられる。
【0127】
さらに、モデルトレーニング手段13は、第2の時点よりも前の所定の第1の時間区間に対応する時間特徴、及び/又はサンプル道路の属性特徴をさらに分類モデルの入力とすることもできる。
【0128】
ここで用いられる分類モデルは、GBDT、DNN、LR、SVMなどのモデルであってもよい。
【0129】
道路状況ラベルは、例えば渋滞、順調の2種類に分けてもよい。道路状況ラベルは、例えば渋滞、徐行、順調の3種類に分けてもよい。道路状況ラベルは、さらに例えばひどい渋滞、渋滞、徐行、順調の4種類などに分けてもよい。
【0130】
本願の実施例によって提供される上記方法及び装置は、以下のシーンに適用することができるがそれらに限定されない。
【0131】
シーン1
本願の実施例によって提供される方法及び装置を用いて道路の道路状況予測を行った後、例えば異なる色を用いて地図上で各道路の渋滞状況を区別させるように、各道路の道路状況情報を地図類アプリケーションで表示する。
【0132】
シーン2
本願の実施例によって提供される方法及び装置を用いて道路の道路状況予測を行った後、ユーザが経路計画を行うように要求する場合、渋滞状態にある道路をできるだけ回避する。
【0133】
シーン3
本願の実施例によって提供される方法及び装置を用いて道路の道路状況予測を行った後、渋滞状態にある道路情報を無線局に通報して再生し、或いは地図類アプリケーションのクライアントに送信して音声放送を行うか又はインタフェースに文字の形式で表示する。
【0134】
シーン4
本願の実施例によって提供される方法及び装置を用いて道路の道路状況予測を行った後、各道路の道路状況情報をデータベースに記憶する。端末装置のある道路の道路状況に対する検索要求に応答し、この道路の道路状況情報をこの端末装置に送信する。
【0135】
本願の実施例によれば、本願は、電子機器とコンピュータ読取可能な記憶媒体をさらに提供する。
【0136】
図8に示すように、本願の実施例の道路状況予測方法、道路状況予測モデルを確立する方法による電子機器のブロック図である。電子機器は、様々な形式のデジタルコンピュータ、例えば、ラップトップ型コンピュータと、デスクトップコンピュータと、ワークベンチと、パーソナル・デジタル・アシスタントと、サーバと、ブレードサーバと、大型コンピュータと、他の適宜なコンピュータとを表す旨である。電子機器は、様々な形式の移動装置、例えば、パーソナル・デジタル・アシスタントと、携帯電話と、スマートフォンと、ウェアラブル機器と、他の類似する計算装置とを表してもよい。本文に示す部品と、それらの接続及び関係と、それらの機能とは単に例示であり、本文で説明した及び/又は要求した本願の実現を限定することを意図しない。
【0137】
図8に示すように、この電子機器は、1つ又は複数のプロセッサ801と、メモリ802と、各部品を接続するための、高速インターフェース及び低速インターフェースを含むインターフェースとを含む。各部品は、異なるバスで互いに接続され、且つ共通メインボード上にインストールされてもよく、又は必要に応じて他の方式でインストールされてもよい。プロセッサは、電子機器内で実行されるコマンドを処理することができ、コマンドは、メモリ中に又はメモリ上に記憶されて外部入力・出力装置(例えば、インターフェースに結合する表示デバイス)上にGUIの図形情報を表示するコマンドを含む。他の実施形態において、必要に応じて、複数のプロセッサ及び/又は複数のバスを複数のメモリと一緒に使用してもよい。同様に、複数の電子機器を接続して、各機器が一部の必要な操作を提供する(例えば、サーバアレー、一組のブレードサーバ、又はマルチプロセッサシステムとする)。図8において、1つのプロセッサ801を例とする。
【0138】
メモリ802は、本願が提供した非一時的コンピュータ読取可能な記憶媒体である。その中、前記メモリには少なくとも1つのプロセッサに実行され得るコマンドが記憶されており、前記少なくとも1つのプロセッサに本願が提供した道路状況予測方法、道路状況予測モデルを確立する方法を実行させる。本願の非一時的コンピュータ読取可能な記憶媒体は、コンピュータコマンドを記憶しており、このコンピュータコマンドは、コンピュータに本願が提供した道路状況予測方法、道路状況予測モデルを確立する方法を実行させるために用いられる。
【0139】
メモリ802は、非一時的コンピュータ読取可能な記憶媒体として、非一時的ソフトウェアプログラム、非一時的コンピュータ実行可能なプログラム及びモジュール、例えば本願の実施例における道路状況予測方法、道路状況予測モデルを確立する方法に対応するプログラムコマンド・ユニットを記憶するために用いられる。プロセッサ801は、メモリ802中に記憶されている非一時的ソフトウェアプログラム、コマンド及びユニットを実行することによって、サーバの各種機能アプリケーション及びデータ処理を実行し、即ち上記方法実施例における方法を実現する。
【0140】
メモリ802は、プログラム記憶領域とデータ記憶領域とを含んでもよく、その中、プログラム記憶領域は、オペレーティングシステム、少なくとも1つの機能に必要なアプリケーションプログラムを記憶してもよく、データ記憶領域は、この電子機器の使用に応じて生成されたデータなどを記憶してよい。また、メモリ802は、高速ランダムアクセスメモリを含んでもよいし、非一時なメモリ、例えば少なくとも1つの磁気ディスク記憶デバイス、フラッシュメモリデバイス、又は他の非一時的なソリッド記憶デバイスを含んでもよい。一部の実施例において、メモリ802は選択的にプロセッサ801に対して遠隔に設置されたメモリを含み、これらの遠隔メモリが、ネットワークを介してこの電子機器に接続されてもよい。上記ネットワークの例示は、インターネット、イントラネット、ローカルエリアネットワーク、移動通信ネットワーク及びそれらの組合を含むが、これらに限られない。
【0141】
この電子機器は、入力装置803と出力装置804とをさらに含んでもよい。プロセッサ801と、メモリ802と、入力装置803と、出力装置804とが、バス又は他の方式で接続されてもよく、図8において、バスを介して接続されることを例とする。
【0142】
入力装置803は、入力されたデジタル又はキャラクター情報を受信し、この電子機器のユーザ設定以及機能制御に関わるキー信号入力を発生してもよく、例えば、タッチスクリーン、キーパッド、マウス、トラックパッド、タッチパッド、インジケーターロッド、1つ又は複数のマウスボタン、トラックボール、レバーなどの入力装置である。出力装置804は、表示デバイスと、補助照明装置(例えば、LED)と、触覚フィードバック装置(例えば、振動モーター)などを含んでもよい。この表示デバイスは、液晶ディスプレー(LCD)と、発光ダイオード(LED)ディスプレーと、プラズマディスプレーとを含むが、これらに限られない。一部の実施形態において、表示デバイスはタッチスクリーンであってもよい。
【0143】
ここで説明したシステム及び技術の各実施形態は、デジタル電子回路システム、集積回路システム、専用ASIC(専用集積回路)、コンピュータハードウェア、ファームウェア、ソフトウェア、及び/又はそれらの組合せで実現されてもよい。これらの各実施形態は、1つ又は複数のコンピュータプログラムで実施されることを含んでもよく、この1つまたは複数のコンピュータプログラムが、少なくとも1つのプログラマブルプロセッサを含むプログラマブルシステム上で実行及び/又は解釈されてもよく、このプログラマブルプロセッサは、専用又は共通のプログラマブルプロセッサであってもよく、記憶システムと、少なくとも1つの入力装置と、少なくとも1つの出力装置とからデータと命令とを受信し、データと命令とをこの記憶システムと、この少なくとも1つの入力装置と、この少なくとも1つの出力装置とに伝送してもよい。
【0144】
これらの計算プログラム(プログラム、ソフトウェア、ソフトウェアアプリケーション、又はコードとも称する)は、プログラマブルプロセッサの機械命令を含み、高級プロセス及び/又はオブジェクト指向のプログラミング言語、及び/又はアセンブリ・機械言語によってこれらの計算プログラムを実施してもよい。本明細書で使用した術語「機械読取可能な媒体」及び「コンピュータ読取可能な媒体」とは、機械命令及び/又はデータをプログラマブルプロセッサに提供するための任意のコンピュータプログラム製品、機器、及び/又は装置(例えば、磁気ディスク、光ディスク、メモリ、プログラマブルロジックデバイス(PLD))を意味しており、機械読取可能な信号である機械命令を受ける機械読取可能な媒体を含む。術語「機械読取可能な信号」とは、機械命令及び/又はデータをプログラマブルプロセッサに提供するための任意の信号を意味している。
【0145】
ユーザとのインタラクションを提供するために、コンピュータでここで説明したシステム及び技術を実施してもよく、このコンピュータは、ユーザに情報を表示するための表示装置(例えば、CRT(陰極線管)又はLCD(液晶ディスプレー)モニタ)と、キーボード及び指向装置(例えば、マウス又はトラックボール)とを有し、ユーザは、このキーボード及びこの指向装置によって、入力をコンピュータに提供することができる。他の種類の装置は、ユーザとのインタラクティブを提供するためのものであってもよく、例えば、ユーザに提供するフィードバックは、任意の形式のセンサーフィードバック(例えば、視覚フィードバック、聴覚フィードバック、又は触覚フィードバック)であってもよく、任意の形式(声入力、語音入力、又は触覚入力を含む)でユーザからの入力を受信してもよい。
【0146】
ここで説明したシステム及び技術は、バックグラウンド部品を含む計算システム(例えば、データサーバとする)、又はミドルウェア部品を含む計算システム(例えば、アプリケーションサーバ)、又はフロントエンド部品を含む計算システム(例えば、グラフィカル・ユーザー・インターフェース又はネットワークブラウザを有するユーザコンピュータ、ユーザはこのグラフィカル・ユーザー・インターフェース又はこのネットワークブラウザを介してここで説明したシステム及び技術の実施形態とインタラクティブすることができる)、又はこのようなバックグラウンド部品、ミドルウェア部品、或いはフロントエンド部品の任意の組合せを含む計算システムで実施されてもよい。任意の形式又は媒体のデジタルデータ通信(例えば、通信ネットワーク)を介してシステムの部品を相互に接続してもよい。通信ネットワークの例示は、ローカルエリアネットワーク(LAN)と、広域ネットワーク(WAN)と、インターネットとを含む。
【0147】
コンピュータシステムは、クライアントとサーバとを含んでもよい。クライアントとサーバとは、一般的に互いに離れて、且つ通常に通信ネットワークを介してインタラクティブする。相応するコンピュータで実行されるとともに、互いにクライアント-サーバの関係を有するコンピュータプログラムによって、クライアントとサーバとの関係を形成する。
【0148】
上記に示した様々な形式のフローを利用して、ステップを並び替え、追加又は削除することができると理解すべきである。例えば、本願に記載された各ステップは、並行に実行されてもよいし、順に実行されてもよいし、異なる順序で実行されてもよく、本願が開示した技術案が所望する結果を実現できる限り、本文はここで限定しない。
【0149】
上述した具体的な実施形態は、本願の保護範囲に対する限定を構成しない。当業者は、設計要求や他の要因に応じて、さまざまな修正、組合、サブ組合及び置換を行うことができると理解すべきである。本願の趣旨及び原則の範囲内になされた任意の修正、等価な置換、改進などは、いずれも本願の保護範囲内に含まれるべきである。
図1
図2
図3
図4
図5
図6
図7
図8