IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 株式会社アーバンエックステクノロジーズの特許一覧

特開2024-13788プログラム、方法、システム、道路マップ、および道路マップの作成方法
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024013788
(43)【公開日】2024-02-01
(54)【発明の名称】プログラム、方法、システム、道路マップ、および道路マップの作成方法
(51)【国際特許分類】
   G06V 10/80 20220101AFI20240125BHJP
   G06T 7/00 20170101ALI20240125BHJP
   G06T 7/579 20170101ALI20240125BHJP
【FI】
G06V10/80
G06T7/00 350B
G06T7/579
【審査請求】未請求
【請求項の数】11
【出願形態】OL
(21)【出願番号】P 2022116149
(22)【出願日】2022-07-21
(71)【出願人】
【識別番号】520298695
【氏名又は名称】株式会社アーバンエックステクノロジーズ
(74)【代理人】
【識別番号】110002815
【氏名又は名称】IPTech弁理士法人
(72)【発明者】
【氏名】森岡 浩太郎
(72)【発明者】
【氏名】前田 紘弥
【テーマコード(参考)】
5L096
【Fターム(参考)】
5L096AA06
5L096AA09
5L096BA03
5L096BA04
5L096CA04
5L096DA01
5L096DA02
5L096DA04
5L096FA02
5L096FA09
5L096FA17
5L096FA26
5L096FA67
5L096FA69
5L096GA19
5L096GA51
5L096GA59
5L096HA02
5L096HA11
5L096JA03
5L096JA16
(57)【要約】      (修正有)
【課題】効率的に路面のひび割れの状態を評価するプログラム、方法及びシステム並びに道路マップ及びその作成方法を提供する。
【解決手段】車両に搭載される端末装置と情報処理サーバとを備える損傷検出システムにおいて、情報処理サーバ20は、走行車両から撮影された路面の動画を取得し、動画に含まれる複数のフレームに対して、学習済みモデルを用いた識別を行うことで、フレームに撮影された路面の損傷を検出しS21、複数のフレームから、フレームに撮影された被写体に関する相対的な位置関係を示す点群データ及びフレーム夫々を撮影した撮影部の推定撮影位置を取得する画像処理を行い、取得した点群データ及び複数のフレームに写った画像を用いて、路面を示す鳥瞰図を生成しS22、生成した鳥瞰図に対して、検出した損傷情報を推定撮影位置を用いて、区画された単位領域毎に割り当てて、単位領域毎の損傷情報を有する路面損傷データを生成するS23。
【選択図】図14
【特許請求の範囲】
【請求項1】
路面の損傷を検出するコンピュータに用いられるプログラムであって、
前記コンピュータのプロセッサに、
走行車両から撮影された路面の動画を取得するステップと、
前記動画に含まれる複数のフレームに対して、学習済みモデルを用いた識別を行うことで、前記フレームに撮影された前記路面の損傷を検出するステップと、
前記複数のフレームから、前記フレームに撮影された被写体に関する相対的な位置関係を示す点群データ、および前記フレームそれぞれを撮影した撮影部の推定撮影位置を取得する画像処理を行うステップと、
取得した前記点群データおよび前記複数のフレームに写された画像を用いて、前記路面を示す鳥瞰図を生成するステップと、
生成した前記鳥瞰図に対して、検出された損傷情報を前記推定撮影位置を用いて、区画された単位領域ごとに割り当てて、前記単位領域ごとの損傷情報を有する路面損傷データを生成するステップと、を実行させる、プログラム。
【請求項2】
前記プロセッサに、さらに、
生成された前記路面損傷データを、当該路面が表示された地図情報に評価区間ごとに重畳して、評価区間ごとの損傷情報を有する道路損傷マップを作成するステップを実行させる、請求項1に記載のプログラム。
【請求項3】
前記プロセッサに、前記鳥瞰図を生成するステップに先だって、
撮影された前記動画に含まれる複数のフレームそれぞれに対して、各フレームに撮影された被写体から、路面領域を抽出するステップを実行させ、
前記鳥瞰図を生成するステップでは、前記点群データのうち、抽出された前記路面領域を構成する点群を判別し、仮想平面を判別した点群にフィッティングした平面データに、前記フレームに写された路面画像をレンダリングする、請求項1に記載のプログラム。
【請求項4】
前記プロセッサに、前記画像処理を行うステップに先だって、
撮影された前記動画に含まれる複数のフレームから、時系列に沿う被写体の変化の大きいフレームであるキーフレームを複数選別するステップを実行させ、
前記画像処理を行うステップでは、選別された前記キーフレームに対して、前記画像処理を行う、請求項1に記載のプログラム。
【請求項5】
前記画像処理を行うステップでは、
前記撮影部の前記推定撮影位置とともに、推定撮影方向を取得し、
前記路面損傷データを生成するステップでは、
損傷が検出された前記フレームについて、時系列に沿って前後に位置する前記キーフレームそれぞれにおける前記推定撮影位置および前記推定撮影方向から、当該損傷が検出された前記フレームにおける、前記推定撮影位置および前記推定撮影方向を推定して、当該フレームに検出された損傷情報を、前記単位領域ごとに割り当てる、請求項4に記載のプログラム。
【請求項6】
前記画像処理を行うステップでは、
前記撮影部の推定撮影位置とともに、推定撮影方向を取得し、
前記路面損傷データを生成するステップでは、
単位領域ごとに区画された前記鳥瞰図に対して、前記損傷情報を、前記撮影部の前記推定撮影位置および前記推定撮影方向を参照して投影することで、前記単位領域ごとに割り当てる、請求項1に記載のプログラム。
【請求項7】
前記プロセッサに、さらに、
前記走行車両の走行に伴い変化する前記撮影部の位置情報を、時刻情報とともに取得するステップと、
前記路面の動画を撮影するステップにおいて撮影された前記フレームに対して、撮影時刻を基準として前記位置情報を関連付けるステップと、を実行させ、
前記プロセッサに、前記路面損傷データを生成するステップに先だって、
前記位置情報から求められる前記走行車両の走行経路と、前記撮影部の前記推定撮影位置から求められる推定撮影軌跡と、を合わせ込むことで、前記点群データのスケールを推定するステップと、
推定された前記スケールを用いて、前記鳥瞰図を前記単位領域ごとに区画するステップと、を実行させる、請求項6に記載のプログラム。
【請求項8】
路面の損傷を検出するコンピュータが実行する方法であって、
前記コンピュータのプロセッサが、
車両に搭載された撮影部により、路面の動画を撮影するステップと、
撮影された前記動画に含まれる複数のフレームに対して、学習済みモデルを用いた識別を行うことで、前記フレームに撮影された前記路面の損傷を検出するステップと、
前記複数のフレームから、前記フレームに撮影された被写体に関する相対的な位置関係を示す点群データ、および前記フレームそれぞれを撮影した前記撮影部の姿勢情報を取得する画像処理を行うステップと、
取得した前記点群データおよび前記複数のフレームに写された画像を用いて、前記路面を示す鳥瞰図を生成するステップと、
生成した前記鳥瞰図に対して、検出された損傷情報を前記姿勢情報を用いて、区画された単位領域ごとに割り当てて、前記単位領域ごとの損傷情報を有する路面損傷データを生成するステップと、を実行する、方法。
【請求項9】
路面の損傷を検出するコンピュータを備えたシステムであって、
前記コンピュータのプロセッサが、
走行車両から撮影された路面の動画を取得する手段と、
撮影された前記動画に含まれる複数のフレームに対して、学習済みモデルを用いた識別を行うことで、前記フレームに撮影された前記路面の損傷を検出する手段と、
前記複数のフレームから、前記フレームに撮影された被写体に関する相対的な位置関係を示す点群データ、および前記フレームそれぞれを撮影した撮影部の推定撮影位置を取得する画像処理を行う手段と、
取得した前記点群データおよび前記複数のフレームに写された画像を用いて、前記路面を示す鳥瞰図を生成する手段と、
生成した前記鳥瞰図に対して、検出された損傷情報を前記推定撮影位置を用いて、区画された単位領域ごとに割り当てて、前記単位領域ごとの損傷情報を有する路面損傷データを生成する手段と、を備えるシステム。
【請求項10】
単位領域ごとの損傷情報を有する路面損傷データが、評価区間ごとに地図情報に重畳された道路マップの作成方法であって、
コンピュータのプロセッサが、
走行車両から撮影された路面の動画を取得するステップと、
撮影された前記動画に含まれる複数のフレームに対して、学習済みモデルを用いた識別を行うことで、前記フレームに撮影された前記路面の損傷を検出するステップと、
前記複数のフレームから、前記フレームに撮影された被写体に関する相対的な位置関係を示す点群データ、および前記フレームそれぞれを撮影した撮影部の推定撮影位置を取得する画像処理を行うステップと、
取得した前記点群データおよび前記複数のフレームに写された画像を用いて、前記路面を示す鳥瞰図を生成するステップと、
生成した前記鳥瞰図に対して、検出された損傷情報を前記推定撮影位置を用いて、区画された前記単位領域ごとに割り当てて、前記単位領域ごとの損傷情報を有する路面損傷データを生成するステップと、
生成された前記路面損傷データを、当該路面が表示された地図情報に評価区間ごとに重畳して、評価区間ごとの損傷情報を有する前記道路マップを作成するステップと、を実行する方法。
【請求項11】
単位領域ごとの損傷情報を有する路面損傷データが、評価区間ごとに地図情報に重畳された道路マップ。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、プログラム、方法、システム、道路マップ、および道路マップの作成方法に関する。
【背景技術】
【0002】
近年、例えば特許文献1に示すように、カメラを用いて路面の画像を取得し、路面の損傷の検出を行うシステムが知られている。
【0003】
このようなシステムを用いて道路全体におけるひび割れ率を集計する場合、路面の損傷の位置を手作業により記録する作業が行われていた。
【先行技術文献】
【特許文献】
【0004】
【特許文献1】特開2019-15417号公報
【発明の概要】
【発明が解決しようとする課題】
【0005】
従来の方法のように、手作業により路面の損傷の位置を記録する作業は膨大な手間を必要としていた。
【0006】
本開示では、効率的に路面のひび割れの状態を評価することができるシステムを提供することを目的とする。
【課題を解決するための手段】
【0007】
本開示のプログラムは、路面の損傷を検出するコンピュータに用いられるプログラムであって、コンピュータのプロセッサに、走行車両から撮影された路面の動画を取得するステップと、撮影された動画に含まれる複数のフレームに対して、学習済みモデルを用いた識別を行うことで、フレームに撮影された路面の損傷を検出するステップと、複数のフレームから、フレームに撮影された被写体に関する相対的な位置関係を示す点群データ、およびフレームそれぞれを撮影した撮影部の推定撮影位置を取得する画像処理を行うステップと、取得した前記点群データおよび前記複数のフレームに写された画像を用いて、前記路面を示す鳥瞰図を生成するステップと、生成した鳥瞰図に対して、検出された損傷情報を推定撮影位置を用いて、区画された単位領域ごとに割り当てて、単位領域ごとの損傷情報を有する路面損傷データを生成するステップと、を実行させる。
【発明の効果】
【0008】
本開示によれば、効率的に路面のひび割れの状態を評価することができる。
【図面の簡単な説明】
【0009】
図1】本実施形態に係る損傷検出システムの構成例を表すブロック図である。
図2図1に示される携帯端末の機能構成の例を示すブロック図である。
図3】端末装置を車両に搭載した状態を説明する図である。
図4図1に示されるサーバの機能構成の例を示すブロック図である。
図5】本実施形態に係るフレームからの損傷の検出を説明する図である。
図6】本実施形態に係るキーフレームの選別を説明する図である。
図7】本実施形態に係る画像処理の原理を説明する図である。
図8】本実施形態に係る画像処理により取得されるデータを説明する図である。
図9】本実施形態に係るフレームにおける路面画像の特性を説明する図である。
図10】本実施形態に係るスケール推定について説明する図である。
図11】点群データの平面へのレンダリングを説明する図である。
図12】鳥瞰図データへの損傷データの割り当てについて説明する図である。
図13】損傷検出システムにより実行される第1の処理を説明する図である。
図14】サーバにより実行される処理の概要を説明する図である。
図15】損傷検出システムにより実行される第2の処理を説明する図である。
図16】損傷検出システムにより実行される第3の処理を説明する図である。
図17】損傷検出システムにより実行される第4の処理を説明する図である。
図18】本実施形態に係る鳥瞰図データの一部を示す図である。
図19】本実施形態に係る路面損傷データを示す図である。
図20】本実施形態に係る道路損傷マップを示す図である。
図21図20に示す道路損傷マップにおいて、一部の区間を拡大した図である。
図22図20に示す一部の路面について、単位領域ごとの損傷状態を可視化した図である。
図23】変形例に係るサーバにおいて、損傷情報の割り当ての処理を説明する図である。
【発明を実施するための形態】
【0010】
以下、図面を参照しながら、実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本開示の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本開示の必須構成要件であるとは限らない。
【0011】
<1.実施形態の概要>
本開示の損傷検出システム1(以下、単にシステム1という)の実施形態の概要について説明する。
本実施形態に係るシステム1は、走行車両100から撮影した画像又は動画を用いて、車両100が走行する道路における路面の損傷を識別して、損傷の有無を検出する。
【0012】
また、システム1は、走行車両100から撮影した画像又は動画を用いて、評価区間における路面に関連する各種のデータを生成する。
システム1が生成する各種のデータの代表例について以下に定義する。
・鳥瞰図データ(鳥瞰図):損傷の評価区間における路面の平面図を示す情報
・路面損傷データ:鳥瞰図データに対して単位領域ごとの損傷情報が割り当てられた情報
・道路損傷マップ:地図情報に評価区間ごとの路面損傷データが重畳された道路マップ
これらの各データを作成する処理については後述する。
【0013】
<2.システムの全体構成>
まず、図1を用いて本実施形態に係るシステム1の構成について説明する。図1は、本実施形態に係るシステム1の構成例を表すブロック図である。図1に示されるシステム1は、端末装置10と、情報処理サーバ20(以下、単にサーバ20という)と、を備えている。
端末装置10とサーバ20とは、ネットワーク30を介して相互に通信可能に接続されている。ネットワーク30は、有線又は無線ネットワークにより構成される。
【0014】
端末装置10およびサーバ20は、無線基地局31、又は無線LAN規格32を用いて、ネットワーク30と接続する。なお、端末装置10およびサーバ20は、有線通信により、ネットワーク30と接続されてもよい。
【0015】
ここで、システム1を構成する各装置(例えば、端末装置10とサーバ20)の集合体を、1つの「情報処理装置」として把握することができる。すなわち、複数の装置の集合体としてシステム1を実現し、システム1を実現するための複数の機能の配分を、各装置のハードウェアの処理能力に基づき適宜決定することとしてもよい。
【0016】
端末装置10は、車両100に搭載される端末である。端末装置10は、例えば、スマートフォン、タブレット端末、又はラップトップパソコン等の汎用の携帯端末である。端末装置10として、複数のスマートフォン、タブレット端末、およびラップトップパソコン等を使用してもよい。このような携帯端末は、運転中の車両100の走行経路の確認を目的として車両100に搭載される端末であってもよい。
【0017】
また、端末装置10は、事故発生時の状況記録を目的として車両100に搭載される汎用のドライブレコーダに、後述する端末装置10としての各機能を搭載した機器を用いてもよい。
また、端末装置10は、汎用のドライブレコーダの撮影機能により当該機能を補完してもよい。
【0018】
また、本発明において路面の状態を撮影する端末装置10は、路面の撮影のためにのみ用いられる専用の装置に限られず、他の目的で搭載される端末装置10が有する撮影機能を利用して、付帯的に路面を撮影する兼用の装置であってもよい。
【0019】
端末装置10は、プロセッサ11と、メモリ12と、ストレージ13と、通信IF14と、入出力IF15とを含んで構成される。
プロセッサ11は、プログラムに記述された命令セットを実行するためのハードウェアであり、演算装置、レジスタ、周辺回路などにより構成される。
【0020】
メモリ12は、プログラム、および、プログラム等で処理されるデータ等を一時的に記憶するためのものであり、例えばDRAM(Dynamic Random Access Memory)等の揮発性のメモリである。
【0021】
ストレージ13は、データを保存するための記憶装置であり、例えばフラッシュメモリ、HDD(Hard Disc Drive)、SSD(Solid State Drive)である。
【0022】
通信IF14は、システム1が外部の装置と通信するため、信号を入出力するためのインタフェースである。
【0023】
入出力IF15は、ユーザからの入力操作を受け付けるための入力装置(例えば、マウス等のポインティングデバイス、キーボード)、および、ユーザに対し情報を提示するための出力装置(ディスプレイ、スピーカ等)とのインタフェースとして機能する。
【0024】
サーバ20は、プロセッサ21と、メモリ22と、ストレージ23と、通信IF24と、入出力IF25とを含んで構成される。プロセッサ21、メモリ22、ストレージ23、通信IF24、および入出力IF25の各構成は、前述したプロセッサ11、メモリ12、ストレージ13、通信IF14、および入出力IF15の各構成とそれぞれ同様であるため、その説明を省略する。
【0025】
サーバ20は、汎用のコンピュータ、又はメインフレーム等により実現される。なお、サーバ20は、1台のコンピュータにより実現されてもよいし、複数台のコンピュータが組み合わされて実現されてもよい。
【0026】
<3.端末装置10の構成>
図2は、端末装置10の機能的な構成を示すブロック図である。図2に示すように、端末装置10は、複数のアンテナ(アンテナ111、アンテナ112)と、各アンテナに対応する無線通信部(第1無線通信部121、第2無線通信部122)と、操作受付部130と、撮影部150と、記憶部160と、制御部170と、GPSアンテナ180と、を備えている。なお、端末装置10は、操作受付部130として、キーボードを備えていてもよい。
【0027】
端末装置10は、図2では特に図示していない機能および構成(例えば、電力を保持するためのバッテリー、バッテリーから各回路への電力の供給を制御する電力供給回路など)も有している。図2に示すように、端末装置10に含まれる各ブロックは、バス等により電気的に接続される。
【0028】
アンテナ111は、端末装置10が発する信号を電波として放射する。また、アンテナ111は、空間から電波を受信して受信信号を第1無線通信部121へ与える。
【0029】
アンテナ112は、端末装置10が発する信号を電波として放射する。また、アンテナ112は、空間から電波を受信して受信信号を第2無線通信部122へ与える。
【0030】
第1無線通信部121は、端末装置10が他の無線機器と通信するため、アンテナ111を介して信号を送受信するための変復調処理などを行う。第2無線通信部122は、端末装置10が他の無線機器と通信するため、アンテナ112を介して信号を送受信するための変復調処理などを行う。第1無線通信部121と第2無線通信部122とは、チューナー、RSSI(Received Signal Strength Indicator)算出回路、CRC(Cyclic Redundancy Check)算出回路、高周波回路などを含む通信モジュールである。第1無線通信部121と第2無線通信部122とは、端末装置10が送受信する無線信号の変復調や周波数変換を行い、受信信号を制御部170へ与える。
【0031】
操作受付部130は、ユーザの入力操作を受け付けるための機構を有する。具体的には、操作受付部130は、ディスプレイ131を含む。なお、操作受付部130は静電容量方式のタッチパネルを用いることによって、タッチパネルに対するユーザの接触位置を検出する、タッチスクリーンとして構成されている。なお、操作端末は、タッチパネルを備えていなくてもよい。
【0032】
ディスプレイ131は、制御部170の制御に応じて、画像、動画、テキストなどのデータを表示する。ディスプレイ131は、例えばLCD(Liquid Crystal Display)や有機EL(Electro-Luminescence)ディスプレイによって実現される。
【0033】
撮影部150は、車両100に搭載され、路面の画像を撮影する装置である。具体的には、撮影部150は、受光素子により光を受光して、撮影データ161を出力するカメラである。
撮影部150は、静止画のみならず、動画を撮影することができる。撮影部150により動画を撮影する場合には、動画を構成する1フレームごとの画像が撮影データ161として扱われる。撮影データ161を構成する各画像(以下、フレームという)は、撮影された時刻に関する情報を有している。図3は端末装置10を車両100に搭載した状態を説明する図である。
【0034】
図3に示すように、端末装置10は、撮影部150が車両100の前方(進行方向)を向く姿勢で車両100の内部に搭載される。本実施形態では、撮影部150は、車両100の前方の路面の状態を継続的に撮影することで路面を撮影した動画データを取得する。
なお、撮影部150が、画像データを取得する場合には、撮影部150は、所定の時間ごとに断続的に前方の路面の状態を撮影する。
【0035】
図2に示すGPS(Global Positioning System)アンテナ180は、端末装置10の位置を検出することで、端末装置10が搭載された車両100の位置を検出し、車両100が走行した経路に関する情報を取得する。GPSアンテナ180は、取得した車両100の位置、および走行経路に関する情報を、時刻情報とともに取得して、制御部170の送受信部172に送信する。送受信部172は、受信した車両100の位置、および走行経路に関する情報を、位置情報を取得した時刻に関する情報とともに、サーバ20に送信する。
【0036】
記憶部160は、例えばフラッシュメモリ等により構成され、端末装置10が使用するデータおよびプログラムを記憶する。ある局面において、記憶部160は、撮影データ161、フレームデータ162を記憶している。フレームデータ162は、複数の撮影データ161に対して後述するデータ加工部173の処理により、撮影時刻に関する情報を関連付けられた画像データである。
【0037】
制御部170は、記憶部160に記憶されるプログラムを読み込んで、プログラムに含まれる命令を実行することにより、端末装置10の動作を制御する。制御部170は、例えば予め端末装置10にインストールされているアプリケーション・プログラムである。制御部170は、プログラムに従って動作することにより、入力受付部171と、送受信部172と、データ加工部173と、表示処理部174と、としての機能を発揮する。
【0038】
入力受付部171は、端末装置10に対するユーザの入力操作を受け付ける処理を行う。
【0039】
送受信部172は、端末装置10が、サーバ20等の外部の装置と、通信プロトコルに従ってデータを送受信するための処理を行う。送受信部172は、記憶部160に記憶されたフレームデータ162を、サーバ20に送信する処理を実行する。
【0040】
データ加工部173は、撮影データ161を構成する各フレームに対して、撮影時刻を基準としてGPSアンテナ180が取得した車両100の位置情報を関連付ける。データ加工部173は、位置情報が関連付けられた画像データをフレームデータ162として記憶部160に記憶させる。
【0041】
表示処理部174は、ユーザに対し情報を提示する処理を行う。表示処理部174は、表示画像をディスプレイ131に表示させる処理等を行う。
【0042】
<4.サーバ20の構成>
図4は、サーバ20の機能的な構成を示す図である。図4に示すように、サーバ20は、通信部201と、記憶部202と、制御部203としての機能を発揮する。
通信部201は、サーバ20が外部の装置と通信するための処理を行う。
【0043】
<4-1.記憶部202の構成>
記憶部202は、サーバ20が使用するデータおよびプログラムを記憶する。記憶部202は、フレームデータ2021と、点群データ2022と、姿勢データ(姿勢情報)2023と、損傷データ2024と、鳥瞰図データ2025と、路面損傷データ2026と、道路損傷マップ2027と、第1学習済みモデル2028と、第2学習済みモデル2029と、を記憶する。
【0044】
フレームデータ2021は、端末装置10から送信された画像情報である。すなわち、フレームデータ2021は、端末装置10の撮影部150が撮影した撮影データ161に対して、端末装置10のデータ加工部173により位置情報が関連付けられた画像データである。
【0045】
点群データ2022は、複数のフレームに撮影された被写体に関する相対的な位置関係を示すデータである。点群データ2022は、後述する画像処理部2034の処理により取得される。
【0046】
姿勢データ(姿勢情報)2023は、フレームを撮影した撮影部150の姿勢に関する情報である。姿勢データ2023には、フレームそれぞれに対する以下の情報が含まれる。
・当該フレームを撮影したタイミングでの撮影部150の推定撮影位置に関する情報
・当該フレームを撮影したタイミングでの撮影部150の推定撮影方向に関する情報
姿勢データ2023は、後述する画像処理部2034の処理により取得される。
【0047】
損傷データ(損傷情報)2024は、フレームに対して検出された損傷に関するデータである。損傷情報には、2次元情報であるフレームの平面座標系に基づいて、その位置と種類(程度を含む)に関する情報が含まれる。損傷データ2024は、後述する損傷検出部2032の処理により取得される。
【0048】
鳥瞰図データ2025は、損傷の評価区間における路面の平面図を示すデータである。鳥瞰図データ2025は、車両100の進行方向を向く撮影部150により撮影された複数のフレームデータ2021に対して、後述する画像処理部2034の画像処理により、評価区間を占める路面の平面図としてレンダリングされたデータである。
【0049】
路面損傷データ2026は、鳥瞰図データ2025に対して単位領域ごとの損傷情報が割り当てられたデータである。路面損傷データ2026は、後述するデータ生成部2037の処理により生成される。
【0050】
道路損傷マップ2027は、地図情報に評価区間ごとの路面損傷データ2026が重畳されたデータである。道路損傷マップ2027は、後述するデータ生成部2037の処理により生成される。
【0051】
第1学習済みモデル2028は、画像中に路面の損傷箇所があるかどうかの識別を行うモデルである。第1学習済みモデル2028は、学習用データに基づき、モデル学習プログラムに従って機械学習モデルに機械学習を行わせることにより得られる。例えば、本実施形態において、第1学習済みモデル2028は、入力される画像情報に対し、損傷の箇所および損傷の種類を出力するように学習されている。
【0052】
このとき、学習用データは、例えば、過去に路面の状態が撮影された画像情報を入力データとし、入力された画像情報に対して、損傷箇所に関する画像の平面座標系での位置に関する情報と、損傷の種類に関する情報と、を正解出力データとする。
第1学習済みモデル2028は、学習された状態で記憶部202に記憶されているが、撮影部150が撮影する撮影データ161に基づき、随時、再学習されてもよい。
【0053】
具体的には、第1学習済みモデル2028は、様々な種類の損傷を有する路面の画像の特徴量(基準特徴量)と、評価対象である撮影データ161の特徴量と、を比較して類似度を比較する。これにより、第1学習済みモデル2028はフレームに写された路面に、いずれかの種類の損傷があるかどうかを判定する。類似度の評価に際しては、評価対象である撮影データ161の特徴量が、基準特徴量に対して、予め設定された閾値の範囲内である場合に、当該損傷があると判断される。なお、様々な種類の損傷について、基準特徴量がそれぞれ設定されている。
【0054】
本実施形態に係る第1学習済みモデル2028は、例えば、複数の関数が合成されたパラメータ付き合成関数である。パラメータ付き合成関数は、複数の調整可能な関数、およびパラメータの組合せにより定義される。本実施形態に係る第1学習済みモデル2028は、上述の要請を満たす如何なるパラメータ付き合成関数であってもよいが、多層のニューラルネットワークモデル(以下「多層化ネットワーク」という。)である。多層化ネットワークを用いる第1学習済みモデル2028は、入力層と、出力層と、入力層と出力層との間に設けられる少なくとも1層の中間層あるいは隠れ層とを有する。
【0055】
本実施形態に係る多層化ネットワークとしては、例えば、深層学習(Deep Learning)の対象となる多層ニューラルネットワークである深層ニューラルネットワーク(Deep Neural Network:DNN)が用いられ得る。DNNとしては、例えば、画像を対象とする畳み込みニューラルネットワーク(Convolution Neural Network:CNN)を用いてもよい。
【0056】
第2学習済みモデル2029は、フレームに写された被写体から、道路領域を抽出する処理(路面セマンティックセグメンテーション)を行うモデルである。
第2学習済みモデル2029は、学習用データに基づき、モデル学習プログラムに従って機械学習モデルに機械学習を行わせることにより得られる。例えば、本実施形態において、第2学習済みモデル2029は、入力される画像情報に対し、道路領域に該当する部分を抽出して出力するように学習されている。
【0057】
このとき、学習用データは、例えば、路面を含む風景を撮影した画像情報を入力データとし、入力された画像情報に対して路面領域を抽出した情報を正解出力データとする。
第2学習済みモデル2029は、学習された状態で記憶部202に記憶されているが、撮影部150が撮影する撮影データ161に基づき、随時、再学習されてもよい。
【0058】
具体的には、第2学習済みモデル2029は、路面を含む風景を撮影した画像情報における路面領域の画像の特徴量(基準特徴量)と、評価対象であるフレームの領域ごとの特徴量と、を比較して類似度を比較する。これにより、第2学習済みモデル2029は、フレームのうち、基準特徴量と類似度が高い領域を、路面領域と判断して抽出する。類似度の評価に際しては、評価対象であるフレームの領域ごとの特徴量のうち、基準特徴量に対して、予め設定された閾値の範囲内である領域が、路面領域と判断される。
【0059】
本実施形態に係る第2学習済みモデル2029は、例えば、複数の関数が合成されたパラメータ付き合成関数である。パラメータ付き合成関数は、複数の調整可能な関数、およびパラメータの組合せにより定義される。本実施形態に係る第2学習済みモデル2029は、上述の要請を満たす如何なるパラメータ付き合成関数であってもよいが、多層化ネットワークである。多層化ネットワークを用いる第2学習済みモデル2029は、入力層と、出力層と、入力層と出力層との間に設けられる少なくとも1層の中間層あるいは隠れ層とを有する。
【0060】
<4-2.制御部203の構成>
制御部203は、サーバ20のプロセッサ21がプログラムに従って処理を行うことにより、送受信部2031、損傷検出部2032、フレーム選別部2033、画像処理部2034、路面抽出部2035、スケール推定部2036、データ生成部2037としての機能を発揮する。
【0061】
送受信部2031は、サーバ20が外部の装置に対し通信プロトコルに従って信号を送信する処理、およびサーバ20が外部の装置から通信プロトコルに従って信号を受信する処理を制御する。
【0062】
損傷検出部2032は、撮影された動画に含まれる複数のフレームに対して、学習済みモデルを用いた識別を行うことで、フレームに撮影された前記路面の損傷を検出する。具体的には、損傷検出部2032は、フレームデータ2021それぞれに対して、路面の損傷の有無を識別して検出した損傷に関する情報を、フレームの平面座標系における位置情報と対応づけて、損傷情報として出力する。損傷検出部2032は、フレームデータ2021を第1学習済みモデル2028に入力することで、第1学習済みモデル2028から出力される路面の損傷情報を取得する。図5は、フレームからの損傷の検出を説明する図である。
【0063】
図5に示すように、損傷検出部2032は、各フレームに対して、路面の損傷を囲むバウンディングボックスBを出力する。このように、損傷を囲むバウンディングボックスBを出力することで、路面の損傷の有無のみならず、損傷の位置が識別され、損傷の状態についてより詳細な情報が得られる。損傷の位置は、フレームの平面座標系での位置座標が特定される。バウンディングボックスBによって損傷の位置が強調され、検出された損傷情報の確認が容易となる。なお、損傷の位置に関する情報には、フレームの平面座標系での位置座標に加えて、当該フレームが撮影された位置情報であって、GPSアンテナ180が取得した位置情報としてフレームに関連付けられた情報が含まれる。
【0064】
なお、損傷検出部2032は、バウンディングボックスを用いた検出手法に限られず、セグメンテーションによる損傷マップを作成する手法を行ってもよい。この場合には、損傷検出部2032は、セグメンテーションにより、フレームに写された被写体について、どのタイプの損傷がどの位置にあるかを示す損傷マップを出力する。この場合の損傷マップは、画像のピクセル単位での位置とその占める領域を表すので、バウンディングボックスより情報量の多い出力になる。
【0065】
図4に示すフレーム選別部2033は、フレームデータ2021からキーフレームを選別する。キーフレームとは、後述する画像処理に適したフレームを指す。具体的には、キーフレームとは、複数のフレームのうち、互いに充分に被写体が重複しているフレームであって、時系列に沿う被写体の変化の大きいフレームを指す。すなわち、キーフレームとして選定されるためには、時系列の前後において、被写体の重複の程度と、被写体の変化量のバランスがよいことが必要となる。図6は、キーフレームの選別を説明する図である。
【0066】
図6に示すように、フレーム選別部2033は、撮影部150により撮影された複数のフレーム(フレーム群FG)から、後述する画像処理に適したフレームを、モーション推定処理により、キーフレームKFとして、選別する。モーション推定処理では、フレーム選別部2033は、互いに時系列に隣り合う2つのフレーム同士におけるカメラの動き量と撮影シーンの3次元構造間の関係を評価する。これにより、フレーム選別部2033は、3次元構成に適したフレームを、キーフレームKFとして抽出する。
【0067】
図4に示す画像処理部2034は、複数のフレームに対してSfM(Structure from Motion)処理と呼ばれる3次元構成を伴う画像処理を行う。画像処理部2034によるSfM処理の詳細について、図7を用いて詳述する。図7は、画像処理部2034による画像処理の原理を説明する図である。
【0068】
図7に示すように、SfM処理では、カメラで撮影した複数の画像(F1~F3)から、それらの撮影位置(P1~P3)および撮影方向を推定する。そして、SfM処理では、被写体の特徴点である同一地点(Xj)に対するそれぞれの画像上の位置(X1j~X3j)から、被写体全体の三次元モデルを生成する。
作成された三次元モデルは、多くの点データで構成される点群を構成する。SfM処理により得られた点群は、あくまで相対的な位置関係の情報であり、地理空間座標が定義されていないデータとなっている。
【0069】
すなわち、画像処理部2034は、各フレームの被写体である路面および周辺の風景から抽出された特徴点に対して、フレームごとの車両100の進行方向に対する視差から点群データを生成する。
【0070】
すなわち、画像処理部2034は、時系列に並ぶ複数のフレームから、それぞれのフレームに対する撮影部150の姿勢に関する情報を推定する。撮影部150の姿勢に関する情報には、撮影部150の推定撮影位置および推定撮影方向が含まれる。
【0071】
そして、画像処理部2034は、幾つかのフレームに共通して映された被写体の一部を特徴点として抽出し、特徴点が写された幾つかのフレームについて、特徴点に対する視差から特徴点に対応する点データを生成する。特徴点は、フレームに写された被写体のうち、路面領域であってもよいし、非路面領域であってもよい。
【0072】
図4に示す画像処理部2034は、この処理を複数の特徴点、および時系列に並ぶ複数のフレームの全てに対して行うことで、全てのフレームに写された被写体全体を示す点群データ2022を取得する。
なお、画像処理部2034は、選別された複数のキーフレームに対して画像処理を行なうこともできる。
【0073】
図8は、画像処理により取得されるデータを説明する図である。図8に示すように、画像処理により取得されるデータには、以下の情報が含まれる。
・撮影された被写体に関する相対的な位置関係を示す点群(点群データ2022)
・フレームそれぞれを撮影した撮影部150の姿勢情報(撮影部150の推定撮影位置および推定撮影方向)
このうち、図8に示す直線は、撮影部150の推定撮影位置の軌跡Lを示している。また、錐体Cは、撮影部150の撮影方向を示している。錐体Cの位置が、推定撮影位置を示している。
また、各点データは、抽出された特徴点が3次元に再構成されたデータである。このうち、黒で表示された点は、路面上の点をさし、白で表示された点は路面外の点を指している。
【0074】
ここで、撮影部150が撮影するフレームに写る路面画像の特性を説明する。
図9は、フレームに写される路面画像の特性を説明する図である。図9Aおよび図9Bは、時系列に互いに隣り合うフレームである。図9Aおよび図9Bにおいて、同一の領域として、比較領域A1にハッチングを施している。これらの図を比較すると、家屋や街路樹などの非路面領域の画像は、時系列に沿った被写体を見る角度、およびスケールの変化が小さい領域を多く含む。一方、路面領域の画像は、時系列に沿った被写体を見る角度、およびスケールの変化が大きいという特徴が確認される。また、2つの図における比較領域A1を確認することで、路面画像は、フレームごとにスケールが極端に変化するという特徴が確認される。
【0075】
すなわち、走行車両100から撮影される路面画像は、特徴点が少ないという特徴、およびスケールの変化が大きいという特徴を有している。このうち、スケールの変化については、キーフレームを選別することにより、より顕著になる。
このため、図8に示すように、画像処理部2034による画像処理により得られる点群データ2022は、一般的なSfM処理により得られる点群と比較すると、スパースな(粗い)点群データ2022となっている。ここで、一般的なSfM処理とは、画像ごとの被写体とカメラとの間の距離の変化が少ない撮影手順において取得した複数の画像を用いて行うSfM処理を指す。
【0076】
図4に示す路面抽出部2035は、フレームデータ2021から選別された複数のキーフレームそれぞれから、路面領域を抽出する。路面抽出部2035は、各キーフレームを第2学習済みモデル2029に入力することで、第2学習済みモデル2029から出力されるキーフレームそれぞれの路面領域を取得する。
【0077】
スケール推定部2036は、点群データ2022のスケールを推定する。図10は、スケール推定部2036によるスケール推定について説明する図である。
図10は、道路を上方から見た平面図となっている。図10に示すように、スケール推定部2036は、車両100の走行経路Rと、撮影部150の推定撮影軌跡Lと、を合わせ込むことで、推定撮影軌跡Lのスケールを推定する。
【0078】
すなわち、画像処理により取得された推定撮影軌跡Lは、地理空間座標が定義されていないので、撮影部150の位置情報を用いて、推定撮影軌跡Lのスケールを推定し、推定したスケールを点群データ2022のスケールとして用いることができる。
ここで、車両100の走行経路Rは、GPSアンテナ180が取得した撮影部150の位置情報であって、各フレームに関連付けられたデータから求めることができる。走行経路Rには、評価開始から終了までの評価区間の全域における車両100(撮影部150)の位置情報が含まれている。
【0079】
一方、撮影部150の推定撮影軌跡Lは、画像処理部2034による画像処理において取得された撮影部150の推定撮影位置の時系列に並べた情報である。推定撮影軌跡Lには、評価開始から終了までの評価区間の全域における撮影部150の推定撮影位置の情報が含まれている。
これらの情報を重ね合わせることで、相対的な位置関係である点群データ2022のスケールを推定することができる。
【0080】
なお、スケールの推定の処理は、画像処理部2034による画像処置の一部として行ってもよい。この場合には、スケールが推定された点群データ2022が、画像処理部2034による画像処置において取得され、個別のスケール推定の処理は省略することができる。
【0081】
図4に示すデータ生成部2037は、取得した点群データ2022に平面をフィッティングし、その平面に対応するフレーム画像をレンダリングすることで、路面を示す鳥瞰図データ2025を生成する。
図11は、点群データ2022の平面へのレンダリングを説明する図である。このうち、図11Aは、点群データへの仮想平面のフィッティングを説明する図、図11Bは、平面への情報の投影処理を説明する図である。
【0082】
図11Aに示すように、データ生成部2037は、路面抽出部2035が抽出した路面領域に関する情報を用いて、点群データ2022のうち、路面に属する点群を判別する。そして、データ生成部2037は、路面に属する点群に対して、仮想平面をフィッティングする。これにより、ローカルなカメラ座標における一定領域の平面が推定される。図11Bに示すように進行方向に沿って、このような平面推定を繰り返すことで、平面データSDが複数作成される。
【0083】
次に、データ生成部2037は、作成した各平面データSDに路面画像をレンダリングする。具体的には、平面データSDを観測する複数のカメラの推定撮影位置および推定撮影方向を用いて、各カメラの撮影画像を平面データSDに投影することでレンダリングを行う。この際、平面データSDの位置の微調整および画像の合成処理を行う。
【0084】
次に、データ生成部2037は、作成した複数の平面データSDを、車両100の進行方向に沿って、順次つなぎ合わせていく。この際、データ生成部2037は、なめらかに繋がるように平面データSDの位置の微調整および画像合成処理を行う。
【0085】
データ生成部2037は、評価区間の全域における平面データSDを繋ぎ合わすことで、鳥瞰図データ2025を生成する。生成された鳥瞰図データ2025の詳細については後述する。
【0086】
このように、システム1では、路面抽出部2035によりフレーム(キーフレーム)における路面領域を抽出し、抽出された路面領域に関する情報を用いて点群データ2022から鳥瞰図データ2025への変換を行う。このような処理を行うことで、システム1では、スパースな点群データ2022から、一定の情報量を備えた鳥瞰図データ2025の生成を可能にしている。
【0087】
また、データ生成部2037は、生成した鳥瞰図データ2025に対して、検出された損傷情報を割り当てることで、路面損傷データ2026を生成する。図12は、鳥瞰図データ2025への損傷データ2024の割り当てについて説明する図である。
【0088】
図12に示すように、データ生成部2037は、鳥瞰図データ2025を所定の単位領域(グリッドG)ごとに区画(分割)する。例えば、単位領域は、50cm四方の領域とすることができる。
そして、データ生成部2037は、撮影部150の姿勢情報を用いて、グリッドごとに損傷データ2024を割り当てていく。
【0089】
この際、データ生成部2037は、撮影部150の推定撮影位置および推定撮影方向を参照して、各フレームから検出された損傷について、異なる座標系である鳥瞰図データ2025において対応する位置を判別して投影する。
すなわち、データ生成部2037は、損傷が検出されたフレームにおいて、当該フレームの平面座標系で特定される損傷の位置を、当該フレームの推定撮影位置および推定撮影方向を用いて、異なる座標系である鳥観図の座標系に変換する。これにより、データ生成部2037は、損傷情報の鳥観図に対する投影(グリッドごとの割り当て)をする。データ生成部2037は全ての損傷が検出されたフレームに対してこの処理を行うことで、路面損傷データ2026を生成する。なお、データ生成部2037は、撮影部150の姿勢情報のうち、推定撮影位置のみを用いて、グリッドごとに損傷データ2024を割り当ててもよい。
また、データ生成部2037により生成された路面損傷データ2026の詳細については後述する。
【0090】
ここで、画像処理は、キーフレームに対してのみ行っているので、損傷が検出された全てのフレームについて、撮影部の姿勢(推定撮影位置および推定撮影方向)が得られているわけではない。このため、データ生成部2037は、損傷が検出されたフレームについて、動画の時系列上で近接するキーフレームKFを特定する。そして、データ生成部2037は、損傷が検出されたフレームに対して時間的に最も近接するキーフレームにおいて、画像処理により得られた推定撮影位置および推定撮影方向を用いて、当該フレームに検出された損傷情報を、鳥瞰図データ2025における単位領域ごとに割り当てる。
【0091】
また、データ生成部2037は、生成された路面損傷データ2026を、当該路面が表示された地図情報に評価区間ごとに重畳して、評価区間ごとの損傷情報を有する道路損傷マップ2027を作成する。生成された道路損傷マップ2027の詳細については後述する。
【0092】
<5.システム1の処理>
次に、システム1の処理を説明する。
【0093】
<5―1.第1の処理>
図13は、システム1により実行される第1の処理を説明する図である。第1の処理では、端末装置10による路面の撮影が主に行われる。
【0094】
図13に示すように、まず、走行車両100に搭載された端末装置10の撮影部150が、路面の動画を撮影する(ステップS101)
具体的には、撮影部150は、走行車両100の前方の路面の動画を連続して撮影する。この際、撮影部150は、路面だけではなく、周辺の景色もフレームの被写体として含まれるように、撮影方向が設定されている。撮影部150は、撮影により取得した撮影データ161を、制御部170の入力受付部171に送る。制御部170は、入力受付部171が受け付けた撮影データ161を、記憶部160に記憶させる。またこの際、GPSアンテナ180が、端末装置10の位置情報を継続して取得している。
【0095】
ステップS101の後に、制御部170は、撮影したフレームに対して位置情報を関連付ける(ステップS102)。
具体的には、制御部170のデータ加工部173は、撮影データ161を構成する各フレームに対して、それぞれが撮影された位置情報を時刻情報に基づいて関連付ける。データ加工部173は、位置情報が関連付けられた各フレームを、フレームデータ162として、記憶部160に記憶させる。
【0096】
ステップS102の後に、端末装置10は、フレームデータ162をサーバ20に送信する(ステップS103)
具体的には、端末装置10の制御部170が、送受信部172を介して、フレームデータ162をサーバ20に送信する。
【0097】
ステップS103の後に、サーバ20は、フレームデータ162を取得する(ステップS201)。
具体的には、サーバ20の制御部203が、送受信部2031を介して送信されたフレームデータ162を受信し、記憶部202に記憶させる。
以上により、第1の処理が終了する。
【0098】
<5―2.サーバ20の処理の概要>
図14は、サーバ20により実行される処理の概要を説明する図である。
サーバ20は、主に2つのルートの処理を実行する。
サーバ20は、第2の処理(S21)として、各フレームから損傷を検出する。
また、サーバ20は、第3の処理(S22)として、路面再構成による鳥瞰図データ2025の生成の処理を実行する。
そして、サーバ20は、第4の処理(S23)として、路面損傷データ2026の生成、および道路損傷マップ2027の生成の処理を行う。
以上により、サーバ20の処理が終了する。これらの各処理について詳述する。
【0099】
<5―3.第2の処理>
図15は、システム1により実行される第2の処理を説明する図である。第2の処理では、サーバ20によるフレームデータ2021に対する損傷検出が主に行われる。
【0100】
図15に示すように、サーバ20は、学習済みモデルにフレームデータ2021の各フレームを入力して、損傷を検出する(ステップS211)。
具体的には、サーバ20の制御部203における損傷検出部2032は、記憶部202に記憶されたフレームデータ2021の各フレームを、第1学習済みモデル2028に入力することで、第1学習済みモデル2028から出力された損傷情報を取得する。取得された損傷情報は、記憶部202に記憶される。損傷検出部2032は評価対象となる全てのフレームに対して、この処理を実行する。
以上により、第2の処理が終了する。
【0101】
<5―4.第3の処理>
図16は、システム1により実行される第3の処理を説明する図である。第3の処理では、サーバ20による路面再構成による鳥瞰図データ2025の生成が主に行われる。
【0102】
図16に示すように、まず、サーバ20は、キーフレームを選別する(ステップS221)。
具体的には、サーバ20のフレーム選別部2033は、記憶部202に記憶されたフレームデータ2021に対して前述したモーション推定を行うことで、3次元構成に適したフレームを、キーフレームとして選別する。
【0103】
ステップ221の後に、サーバ20は、画像処理により点群データ2022とカメラ姿勢を取得する(ステップ222)。
具体的には、サーバ20の制御部203における画像処理部2034は、選別されたキーフレームに対して前述した画像処理を行うことで、以下の情報を取得する。
・複数のキーフレームに撮影された被写体に関する相対的な位置関係を示す点群データ2022
・各キーフレームを撮影したタイミングでの撮影部150の推定撮影位置に関する情報
・各キーフレームを撮影したタイミングでの撮影部150の推定撮影方向に関する情報
取得されたデータは、点群データ2022および姿勢データ2023として、記憶部202に記憶される。
【0104】
また、ステップ221の後に、ステップ222と並行して、サーバ20は、キーフレームごとに路面領域を抽出する(ステップ223)。
具体的には、サーバ20の制御部203における路面抽出部2035が、キーフレームを第2学習済みモデル2029に入力することで、キーフレームごとに抽出された路面領域に関するデータを取得する。
【0105】
ステップ222の後に、サーバ20は、点群データ2022を用いて鳥瞰図データ2025を生成する(ステップ224)。
具体的には、サーバ20の制御部203におけるデータ生成部2037が、取得した点群データ2022から前述した手順に沿って平面データを推定する。データ生成部2037は、推定した平面データにフレーム画像をレンダリングすることで、評価区間の全域の路面の平面図となる鳥瞰図データ2025を生成する。生成された鳥瞰図データ2025は記憶部202に記憶される。
【0106】
ステップ224の後に、サーバ20は、スケールを推定する(ステップ225)。
具体的には、サーバ20の制御部203におけるスケール推定部2036が、車両100の走行経路と、撮影部150の推定撮影軌跡と、を合わせ込むことで、点群データ2022のスケールを推定する。推定されたスケールに関する情報は、鳥瞰図データ2025に関連付けて記憶部202に記憶される。図18は、鳥瞰図データ2025の一部を示す図である。
【0107】
図18に示すように、鳥瞰図データ2025は、路面の評価区間を上方からみた座標系で表現される。この図では、左側の車線を走行した車両により、撮影データ161が取得されている。
鳥瞰図データ2025は、評価区間の始点から終点にかけて、複数の平面データが車両100の進行方向に沿って繋ぎ合わされたデータ構造をなしている。
この図において、符号Lは、撮影部150による推定撮影位置の軌跡を示している。また、符号Cは、各フレームに対する撮影部150の推定撮影方向を示している。
【0108】
図16に示すステップ225の後に、サーバ20は、鳥瞰図データ2025をグリッド分割する(ステップ226)。
具体的には、サーバ20の制御部203におけるデータ生成部2037が、鳥瞰図データ2025の路面領域について、所定の単位領域ごとに区画する。この際、スケール推定部2036が推定したスケールが用いられる。これにより、鳥瞰図データ2025に単位領域ごとの区画が形成される。
以上により、第3の処理が終了する。
<5―5.第4の処理>
図17は、システム1により実行される第4の処理を説明する図である。第4の処理では、サーバ20による路面損傷データ2026の生成、および道路損傷マップ2027の生成が主に行われる。
【0109】
図17に示すように、まず、サーバ20は、損傷情報を鳥瞰図データ2025に割り当てて、路面損傷データ2026を生成する(ステップS231)。
具体的には、サーバ20の制御部203におけるデータ生成部2037は、撮影部150の推定撮影位置および推定撮影方向を参照して、鳥瞰図データ2025に対して損傷情報を投影する。生成された路面損傷データ2026は、記憶部202に記憶される。図19は、生成された路面損傷データ2026を示す図である。
【0110】
図19に示すように、路面損傷データ2026には、単位領域を区画するグリッドGが表示されている。路面損傷データ2026のグリッドGには、損傷情報が割り当てられている。図示の例では、符号D1は、軽度な損傷があることを示しており、符号D2は、重度な損傷があることを示している。図示のように、単位領域ごとに損傷情報が割り当てられた路面損傷データ2026を、ひび割れ率を算出するひび割れ率算出モデルに入力することで、評価区間におけるひび割れ率を定量的に評価することができる。
【0111】
ステップ231の後に、サーバ20は、路面損傷データ2026を地図情報に重畳して、道路マップを生成する(ステップS232)。
具体的には、サーバ20の制御部203におけるデータ生成部2037は、生成された路面損傷データ2026を、当該路面が表示された地図情報に評価区間ごとに重畳して、評価区間ごとの損傷情報を有する道路損傷マップ2027を作成する。生成された道路損傷マップ2027は、記憶部202に記憶される。以上により、第4の処理が終了する。
図20は、生成された道路損傷マップ2027を示す図である。
【0112】
図20に示すように、道路損傷マップ2027には、評価区間ごとの複数の路面損傷データ2026が地図情報に重畳されている。また、損傷の程度により表示態様が色分けされていることで、一定のエリアを占める道路領域について、路面の損傷の程度を直感的に把握することができる。
【0113】
図21は、図20に示す道路損傷マップ2027の一部の区間を拡大した図である。図示の例では、損傷の程度により表示態様が変更されている。具体的には、図20では、20mごとのひび割れ率の分布をカラーマップとして表示している。このように、損傷の程度により表示態様を変更することで、評価区間におけるひび割れ率を、ユーザが視覚的に捉えることができる。
【0114】
図22は、図20に示す一部の路面について、単位領域ごとの損傷状態を可視化した図である。道路損傷マップ2027では、単位領域ごとの損傷状態を可視化することで、ユーザが単位領域ごとの詳細な損傷状態を確認できる。この表示状態において、損傷情報が割り当てられた各グリッドを指定することで、実際に当該場所で損傷が検出されたフレームを表示して、具体的な損傷の状態をユーザに提示してもよい。
【0115】
<6.小括>
以上説明したように、本実施形態に係るシステム1では、車両100に搭載された撮影部150により撮影した動画のフレームへの画像処理により、点群データ2022を取得し、点群データ2022から路面を示す鳥瞰図データ2025を生成する。そして、システム1では、鳥瞰図データ2025に対して、フレームから検出された損傷データ2024を割り当てることで、単位領域ごとの損傷情報を有する路面損傷データ2026を生成する。システム1のユーザは、このように生成された路面損傷データ2026を用いることで、効率的に評価区間における路面のひび割れの状態や路面に占めるひび割れの割合(ひび割れ率)を評価することができる。
【0116】
また、システム1では、ユーザが、評価対象となる路面の周囲に、所定の間隔ごとに距離の基準となる複数の標識を動画の撮影前に予め配置するといった個別の準備を行わない。すなわち、システム1では、ユーザは、走行車両100の車窓からの風景を撮影部150により撮影しただけの簡易的な撮影手順により取得した撮影データ161を用いて画像処理を行う。
【0117】
また、システム1では、生成された路面損傷データ2026を、当該路面が表示された地図情報に評価区間ごとに重畳して、評価区間ごとの損傷情報を有する道路損傷マップ2027を作成する。このため、道路損傷マップ2027を確認することで、単一の路面の評価区間だけではなく、一定のエリアにおける路面の損傷の状態について、俯瞰的に可視化することができる。
【0118】
また、システム1では、鳥瞰図データ2025を生成する前に、撮影された動画に含まれる複数のフレームそれぞれに対して、各フレームに撮影された被写体から、路面領域を抽出する。そして、システム1では、鳥瞰図データ2025を生成する際に、点群データ2022のうち、抽出された路面領域を構成する点群を判別し、仮想平面をフィッティングすることで、点群データ2022から複数の平面データを推定する。その後に推定した各平面データに、フレーム画像をレンダリングする。
このため、路面上に特徴が少なく、かつ時系列に隣り合うフレームにおけるスケールの変化が大きいという特徴を有する撮影データ161から得られた点群データ2022がスパースなものであっても、路面評価の実用に耐える程度の情報量を備えた鳥瞰図データ2025を生成することができる。
【0119】
また、システム1では、画像処理を行うステップに先だって、撮影された動画に含まれる複数のフレームから、キーフレームを複数選別する。そして、システム1では、画像処理を行う際に、選別されたキーフレームに対して、画像処理を行う。このため、画像処理に特に使用しやすいキーフレームに限って画像処理を行うことで、画像処理に要する負荷を減らすことができる。そして、仮にキーフレームの選別により、点群データ2022がよりスパースなものになったとしても、路面領域の抽出を踏まえたレンダリングを行うことで、鳥瞰図データ2025に一定の情報量を具備させることができる。
【0120】
また、システム1では、画像処理を行うステップでは、撮影部150の姿勢情報として、複数のフレームそれぞれを撮影した撮影部150の推定撮影位置、および推定撮影方向を取得する。
そして、システム1では、路面損傷データ2026を生成するステップでは、損傷が検出されたフレームについて、取得された推定撮影位置および推定撮影方向を用いて、複数のキーフレームとの位置関係を推定する。そして、システム1では、特定された位置関係を用いて、当該フレームに検出された損傷情報を、単位領域ごとに割り当てる。このように、画像処理により推定された、撮影部150の推定撮影位置および推定撮影方向を用いて、フレームから検出された損傷の鳥瞰図データ2025における位置を判断することで、損傷の位置を高精度に鳥瞰図データ2025に割り当てることができる。
【0121】
また、システム1では、鳥瞰図データ2025を単位領域ごとに区画し、損傷情報を、撮影部150の推定撮影位置および推定撮影方向を参照して鳥瞰図データ2025に対して投影することで、損傷情報を単位領域ごとに割り当てる。このため、フレームの撮影位置、およびフレームの平面座標系で表現されるフレームに検出された損傷の位置に関する情報を、異なる座標系である鳥瞰図データ2025における位置に正確に変換することができる。
【0122】
また、GPSアンテナ180により取得された位置情報ではなく、画像処理により取得されたフレームごとの推定撮影位置と推定撮影方向を用いることで、精度よく鳥瞰図データ2025上の位置を判別することができる。
【0123】
また、システム1では、撮影部150の位置情報から求められる車両100の走行経路と、撮影部150の推定撮影位置から求められる推定撮影軌跡と、を合わせ込むことで、点群データ2022のスケールを推定する。そして、損傷情報を鳥瞰図データ2025に割り当てる際に、推定されたスケールを用いて、所定の単位領域にグリッド分割を行う。このため、相対的な点群データ2022から生成された鳥瞰図データ2025に対して、正確に単位領域を区画することができる。
【0124】
また、一般的にGPSアンテナ180から取得される位置情報は一定の誤差を含みやすい。これに対して、システム1では、GPSアンテナ180から取得される位置情報は、スケール推定、および道路マップへの路面損傷情報の重ね合わせの際の利用に留めている。すなわち、前述のとおりシステム1では、画像処理により取得されたフレームごとの推定撮影位置と推定撮影方向を用いて、損傷の位置を鳥瞰図に割り当てているので、路面損傷データにおける損傷位置の精度を確保することができる。
【0125】
<7.変形例>
図23は、変形例に係るデータ生成部2037の処理を説明する図である。
図23に示すように、変形例に係るデータ生成部2037は、路面損傷データ2026を生成する際に、損傷が検出されたフレームDFの前後のキーフレームKFから得られた撮影部の姿勢(推定撮影位置および推定撮影方向)を利用する。
【0126】
具体的には、データ生成部2037は、損傷が検出されたフレームDFに対して、時系列に前後に位置する2つのキーフレームKFを特定する。そして、データ生成部2037は、特定した2つのキーフレームKFにおける推定撮影位置および推定撮影方向から、2つのキーフレームKF間での撮影部の姿勢の変化を推定し、損傷フレームの撮影時刻におけるカメラの撮影位置および撮影方向を推定する。
また、その他の方法として、データ生成部2037は、キーフレームKFと損傷が確認されたフレーム間で画像マッチングを行ってもよい。この場合には、データ生成部2037は、損傷が確認されたフレームと点群を対応づけ、損傷が検出されたフレームを撮影した撮影部の姿勢(推定撮影位置および推定撮影方向)を推定してもよい。
【0127】
<8.その他の変形例>
上述の実施形態においては、端末装置10の撮影部150が走行車両100の前方の風景を撮影する例を示したが、このような態様に限られない。例えば、撮影部150により走行車両100の後方又は側方の路面を撮影して得られた撮影データ161を用いて、前述した各処理をおこなってもよい。
【0128】
また、上述の実施形態では、データ生成部2037が、撮影部150の姿勢情報のうち、推定撮影位置および推定撮影方向の双方を用いて、フレームから検出された損傷情報の鳥瞰図データ2025上の位置を判断して割り当てているが、この限りではない。すなわち、データ生成部2037は、撮影部150の姿勢情報のうち、撮影部150の推定撮影位置および推定撮影方向の少なくとも一方を用いて、フレームから検出された損傷情報の鳥瞰図データ2025上の位置を判断してもよい。
【0129】
また、上述の実施形態では、スケール推定部2036が、車両100の走行経路と、撮影部150の推定撮影位置から求められる推定撮影軌跡と、を合わせ込むことで、点群データ2022のスケールを推定しているが、この処理は省略してもよい。すなわち、データ生成部2037は、画像処理により取得された撮影部150の姿勢情報のみを用いて、フレームから検出された損傷情報の鳥瞰図データ2025上の位置を判断してもよい。
【0130】
また、上述の実施形態では、画像処理部2034による画像処理、および路面抽出部2035による路面抽出の処理において、フレーム選別部2033が選別したキーフレームに対してそれぞれ処理を行っているが、この限りではない。すなわち、キーフレームの選別は省略し、全てのフレームデータ2021に対して、画像処理部2034による画像処理、および路面抽出部2035による路面抽出の処理を行ってもよい。
【0131】
また、上述の実施形態では、路面抽出部2035により、路面領域の抽出を行っているが、この処理を省略してもよい。この場合には、データ生成部2037は、鳥瞰図データ2025を生成する際に、点群データ2022の全体に対して平面をフィッティングしたうえで、フィッティングされた複数の平面データに対して、フレーム画像のレンダリングを行ってもよい。
【0132】
なお、上述の実施形態では、端末装置10が、撮影した動画データをサーバ20に送信する構成を説明したが、この限りではない。例えば、ドライブレコーダなどで撮影した動画データをSDカードなどの記憶媒体を用いて、サーバ20に入力してもよい。すなわち、サーバ20が動画データを取得する手段については、任意に選択することができる。
路面の動画を撮影する車両としては、路面の検査を行う専用の車両に限られず、例えば配送業者のトラック、公共交通機関のバス、又は一般の乗用車など、任意に選択することができる。
【0133】
以上、本開示のいくつかの実施形態を説明したが、これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものとする。
【0134】
<付記>
実施形態で説明した事項を、以下に付記する。
【0135】
(付記1)
路面の損傷を検出するコンピュータに用いられるプログラムであって、
コンピュータのプロセッサに、
走行車両から撮影された路面の動画を取得するステップ(ステップS201)と、
動画に含まれる複数のフレームに対して、学習済みモデルを用いた識別を行うことで、フレームに撮影された路面の損傷を検出するステップ(ステップS211)と、
複数のフレームから、フレームに撮影された被写体に関する相対的な位置関係を示す点群データ、およびフレームそれぞれを撮影した撮影部の推定撮影位置を取得する画像処理を行うステップ(ステップS222)と、
取得した前記点群データおよび前記複数のフレームに写された画像を用いて、前記路面を示す鳥瞰図を生成するステップと、
生成した鳥瞰図に対して、検出された損傷情報を推定撮影位置を用いて、区画された単位領域ごとに割り当てて、単位領域ごとの損傷情報を有する路面損傷データを生成するステップ(ステップS231)と、を実行させる、プログラム。
【0136】
(付記2)
プロセッサに、さらに、
生成された路面損傷データを、当該路面が表示された地図情報に評価区間ごとに重畳して、評価区間ごとの損傷情報を有する道路損傷マップを作成するステップ(ステップS232)を実行させる、付記1に記載のプログラム。
【0137】
(付記3)
プロセッサに、鳥瞰図を生成するステップ(ステップS224)に先だって、
撮影された動画に含まれる複数のフレームそれぞれに対して、各フレームに撮影された被写体から、路面領域を抽出するステップ(ステップS223)を実行させ、
鳥瞰図を生成するステップ(ステップS224)では、点群データのうち、抽出された路面領域を構成する点群を判別し、仮想平面を判別した点群にフィッティングした平面データに、前記フレームに写された路面画像をレンダリングする、付記1又は2に記載のプログラム。
【0138】
(付記4)
プロセッサに、画像処理を行うステップ(ステップS222)に先だって、
撮影された動画に含まれる複数のフレームから、時系列に沿う被写体の変化の大きいフレームであるキーフレームを複数選別するステップ(ステップS221)を実行させ、
画像処理を行うステップ(ステップS222)では、選別されたキーフレームに対して、画像処理を行う、付記1から3のいずれかに記載のプログラム。
【0139】
(付記5)
画像処理を行うステップ(ステップS222)では、
撮影部の推定撮影位置とともに、推定撮影方向を取得し、
路面損傷データを生成するステップ(ステップS231)では、
損傷が検出されたフレームについて、取得された推定撮影位置および推定撮影方向を用いて、複数のキーフレームとの位置関係を推定し、特定された位置関係を用いて、当該フレームに検出された損傷情報を、単位領域ごとに割り当てる、付記1から4のいずれかに記載のプログラム。
【0140】
(付記6)
画像処理を行うステップ(ステップS222)では、
撮影部の推定撮影位置とともに、推定撮影方向を取得し、
路面損傷データを生成するステップ(ステップS231)では、
単位領域ごとに区画された鳥瞰図に対して、損傷情報を、撮影部の推定撮影位置および推定撮影方向を参照して投影することで、単位領域ごとに割り当てる、付記1から5のいずれかに記載のプログラム。
【0141】
(付記7)
プロセッサに、さらに、
車両の走行に伴い変化する撮影部の位置情報を、時刻情報とともに取得するステップと、
路面の動画を撮影するステップ(ステップS101)において撮影されたフレームに対して、撮影時刻を基準として位置情報を関連付けるステップ(ステップS102)と、を実行させ、
プロセッサに、路面損傷データを生成するステップ(ステップS231)に先だって、
位置情報から求められる車両の走行経路と、撮影部の推定撮影位置から求められる推定撮影軌跡と、を合わせ込むことで、点群データのスケールを推定するステップ(ステップS225)と、
推定されたスケールを用いて、鳥瞰図を単位領域ごとに区画するステップ(ステップS226)と、を実行させる付記6に記載のプログラム。
【0142】
(付記8)
路面の損傷を検出するコンピュータが実行する方法であって、
コンピュータのプロセッサが、
車両に搭載された撮影部により、路面の動画を撮影するステップ(ステップS201)と、
撮影された動画に含まれる複数のフレームに対して、学習済みモデルを用いた識別を行うことで、フレームに撮影された路面の損傷を検出するステップ(ステップS211)と、
複数のフレームから、フレームに撮影された被写体に関する相対的な位置関係を示す点群データ、およびフレームそれぞれを撮影した撮影部の姿勢情報を取得する画像処理を行うステップ(ステップS222)と、
取得した点群データにフィッティングした平面データに、前記フレームに写された路面画像をレンダリングすることで、路面を示す鳥瞰図を生成するステップ(ステップS224)と、
生成した鳥瞰図に対して、検出された損傷情報を姿勢情報を用いて、区画された単位領域ごとに割り当てて、単位領域ごとの損傷情報を有する路面損傷データを生成するステップ(ステップS231)と、を実行する、方法。
【0143】
(付記9)
路面の損傷を検出するコンピュータを備えたシステムであって、
コンピュータのプロセッサが、
走行車両から撮影された路面の動画を取得する手段と、
撮影された動画に含まれる複数のフレームに対して、学習済みモデルを用いた識別を行うことで、フレームに撮影された路面の損傷を検出する手段と、
複数のフレームから、フレームに撮影された被写体に関する相対的な位置関係を示す点群データ、およびフレームそれぞれを撮影した撮影部の推定撮影位置を取得する画像処理を行う手段と、
取得した点群データにフィッティングした平面データに、フレームに写された路面画像をレンダリングすることで、路面を示す鳥瞰図を生成する手段と、
生成した鳥瞰図に対して、検出された損傷情報を推定撮影位置を用いて、区画された単位領域ごとに割り当てて、単位領域ごとの損傷情報を有する路面損傷データを生成する手段と、を備えるシステム。
【0144】
(付記10)
単位領域ごとの損傷情報を有する路面損傷データが、評価区間ごとに地図情報に重畳された道路マップの作成方法であって、
コンピュータのプロセッサが、
走行車両から撮影された路面の動画を取得するステップ(ステップS201)と、
撮影された動画に含まれる複数のフレームに対して、学習済みモデルを用いた識別を行うことで、フレームに撮影された路面の損傷を検出するステップ(ステップS211)と、
複数のフレームから、フレームに撮影された被写体に関する相対的な位置関係を示す点群データ、およびフレームそれぞれを撮影した撮影部の推定撮影位置を取得する画像処理を行うステップ(ステップS222)と、
取得した点群データにフィッティングした平面データに、フレームに写された路面画像をレンダリングすることで、路面を示す鳥瞰図を生成するステップ(ステップS224)と、
生成した鳥瞰図に対して、検出された損傷情報を推定撮影位置を用いて、区画された単位領域ごとに割り当てて、単位領域ごとの損傷情報を有する路面損傷データを生成するステップ(ステップS231)と、
生成された路面損傷データを、当該路面が表示された地図情報に評価区間ごとに重畳して、評価区間ごとの損傷情報を有する道路マップを作成するステップ(ステップS232)と、を実行する方法。
【0145】
(付記11)
単位領域ごとの損傷情報を有する路面損傷データが、評価区間ごとに地図情報に重畳された道路マップ。
【符号の説明】
【0146】
1…損傷検出システム
10…端末装置
150…撮影部
160…記憶部
170…制御部
171…入力受付部
172…送受信部
173…データ加工部
174…表示処理部
20…情報処理サーバ
201…通信部
202…記憶部
2021…フレームデータ
2022…点群データ
2023…姿勢データ
2024…損傷データ
2025…鳥瞰図データ
2026…路面損傷データ
2027…道路損傷マップ
2028…第1学習済みモデル
2029…第2学習済みモデル
203…制御部
2031…送受信部
2032…損傷検出部
2033…フレーム選別部
2034…画像処理部
2035…路面抽出部
2036…スケール推定部
2037…データ生成部
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14
図15
図16
図17
図18
図19
図20
図21
図22
図23