(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2025002669
(43)【公開日】2025-01-09
(54)【発明の名称】深層学習装置及び走行体
(51)【国際特許分類】
G06T 7/11 20170101AFI20241226BHJP
G06T 7/00 20170101ALI20241226BHJP
【FI】
G06T7/11
G06T7/00 350C
【審査請求】未請求
【請求項の数】7
【出願形態】OL
(21)【出願番号】P 2023102988
(22)【出願日】2023-06-23
(71)【出願人】
【識別番号】000006105
【氏名又は名称】株式会社明電舎
(74)【代理人】
【識別番号】110002077
【氏名又は名称】園田・小林弁理士法人
(72)【発明者】
【氏名】藤原 伸行
(72)【発明者】
【氏名】宍道 洋
(72)【発明者】
【氏名】三宅 雄貴
【テーマコード(参考)】
5L096
【Fターム(参考)】
5L096AA06
5L096AA09
5L096BA05
5L096CA05
5L096DA02
5L096FA66
5L096FA69
5L096HA11
5L096KA04
(57)【要約】
【課題】走行体の進行方向の前方にある障害物の有無を安定的に検知することを可能とした深層学習装置及び走行体を提供する。
【解決手段】周囲環境認識部30において、植生指標計算部31は、全方位カメラ13からの全方位画像データと3D-LiDAR12からの三次元計測データとに基づいて植生指標データを計算する。三次元点群領域分割部32は、3D-LiDAR12からの三次元計測データと植生指標計算部31からの植生指標データとに基づいて、三次元点群の領域分割処理を行い、点群領域分割データを出力する。制御処理部33は、3D-LiDAR12からの三次元計測データと、周囲環境認識部30からの点群領域分割データとに基づいて、自己位置の推定、コストマップ計算、経路計画など処理し、移動ロボット1を走行制御するための制御信号を出力する。
【選択図】
図3
【特許請求の範囲】
【請求項1】
走行体の周囲環境における三次元情報を含む三次元計測データと、前記周囲環境の全方位の画像を含む全方位画像データと、前記三次元計測データを基に作成された点群領域ラベルデータとを記憶する記憶部と、
前記三次元計測データと、前記全方位画像データとに基づいて、前記周囲環境における植生の状況を示す植生指標データを算出する植生指標計算部と、
前記三次元計測データと、前記植生指標データと、前記点群領域ラベルデータとを学習データセットとして用いて深層学習を行い、学習結果データを作成する三次元点群領域分割学習部と、
を備えることを特徴とする深層学習装置。
【請求項2】
前記記憶部は、前記三次元計測データと、前記全方位画像データと、前記点群領域ラベルデータに代えて前記全方位画像データに基づいて作成した画像領域ラベルデータとを記憶し、
前記三次元計測データと、前記画像領域ラベルデータとに基づいて、前記点群領域ラベルデータを作成する点群領域ラベル作成部をさらに備えることを特徴とする請求項1に記載の深層学習装置。
【請求項3】
周囲環境を認識して走行手段により走行する走行体であって、
前記周囲環境における三次元情報を含む三次元計測データを取得する三次元計測部と、
前記周囲環境を撮影した画像データを取得する撮像部と、
前記三次元計測データと、前記画像データとに基づいて、前記周囲環境における植生の状況を示す植生指標データを算出する植生指標計算部と、
前記三次元計測データと、前記植生指標データとに基づいて、点群領域分割データを生成する三次元点群領域分割部と、
前記三次元計測データと、前記点群領域分割データとに基づいて、前記周囲環境のコストマップを計算し、前記コストマップに基づいて前記走行手段による走行を制御する制御処理部と、
を備えることを特徴とする走行体。
【請求項4】
前記撮像部は、前記周囲環境の全方位を撮影する全方位カメラであり、
前記画像データは、前記全方位カメラによって撮影された全方位画像データである、
ことを特徴とする請求項3に記載の走行体。
【請求項5】
前記全方位カメラは、前記走行体の進行方向に対して前後双方に設置された魚眼カメラである、
ことを特徴とする請求項4に記載の走行体。
【請求項6】
前記撮像部は、前記走行体の進行方向に対して前方を撮影するカラーカメラであり、
前記画像データは、前記カラーカメラによって撮影されたカラー画像データである、
ことを特徴とする請求項3に記載の走行体。
【請求項7】
前記撮像部は、レンズ前面に赤色透過フィルタを備え、前記走行体の進行方向に対して前方を撮影するモノクロカメラであり、
前記画像データは、前記モノクロカメラによって撮影されたグレー画像データである、
ことを特徴とする請求項3に記載の走行体。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、深層学習装置及び走行体に関する。
【背景技術】
【0002】
移動ロボット(走行体)は、3D-LiDAR(Three-Dimensional-Light Detection And Ranging)を搭載して周囲の全方位の三次元点群を計測し、その三次元点群の形状を予め計測しておいた三次元点群地図と比較して自己位置推定を行いながら走行する。移動ロボットの走行中に、進行方向の前方に障害物があれば、3D-LiDARで計測した情報を基に障害物検知を行い、障害物を回避する。
【0003】
例えば、3D-LiDARで計測した情報を基に障害物を検知する方法としてコストマップがある(非特許文献1を参照)。非特許文献1のように、計測した三次元点群の位置情報から占有格子地図を作り、二次元コストマップを生成する。これにより、走行路面よりも高い位置に物体がある箇所のコストが高くなり、コストの高い箇所を障害物として検知することができる。
【0004】
また、3D-LiDARで計測した三次元点群に対して領域分割を行い、各三次元点がどの領域に属するかを認識することで障害物を検知する方法がある(非特許文献2を参照)。三次元点群領域分割では、各点毎に、自動車・自転車・道路・駐車場・建物・植生・幹・地形などの領域に分類する。移動ロボット側では、道路・駐車場などの走行可能な領域以外の領域を障害物として検出する。また、障害物検出結果を非特許文献1のコストマップに反映することで、障害物として検出した領域をコストが高い箇所とすることも容易にできる。非特許文献2の方法は、深層学習により三次元点群領域分割を行う方法の一つで、2020年に発表されて以来、研究開発競争の激しい点群領域分割分野において上位の性能を保ち続けている。非特許文献2は、自動車の自動運転を対象としており、移動ロボットへの応用として相性の良い技術である。
【0005】
また、三次元点群に対する方法ではないが、移動ロボットの前方をカラーカメラで撮影した画像に対して領域分割を行い、障害物を検知する方法がある(非特許文献3を参照)。画像領域分割では、画像上の画素毎に、自動車・自転車・道路・駐車場・建物・植生・幹・地形などの領域に分類する。移動ロボット側では、道路・駐車場などの走行可能な領域以外の領域を障害物とし、障害物の三次元位置をカメラ座標から三次元空間へ変換して求め、障害物の位置を検出する。非特許文献3の方法は、深層学習により画像領域分割を行う方法の一つで、2017年に発表されて以降、この分野では代表的な方法である。非特許文献3では自動車の自動運転を対象としており、移動ロボットへの応用として相性の良い技術である。
【先行技術文献】
【非特許文献】
【0006】
【非特許文献1】原 祥尭: "ROSを用いた自律走行", 日本ロボット学会誌, vol. 35, no. 4, pp286-290, 2017,URL<https://www.jstage.jst.go.jp/article/jrsj/35/4/35_35_286/_pdf/-char/ja>
【非特許文献2】C.Tiago, et al., "SalsaNext: Fast, Uncertainty-aware Semantic Segmentation of LiDAR Point Cloudes for Autonomous Driving", arViv, 2020, URL<https://arxiv.org/pdf/2003.03653.pdf>
【非特許文献3】H.Zhao, et al., "Pyramid Scene Parsing Network", arViv, 2017,URL<https://arxiv.org/pdf/1612.01105.pdf>
【発明の概要】
【発明が解決しようとする課題】
【0007】
しかしながら、非特許文献1の方法では、高さのある物体を障害物として検出することができるが、公園内にある歩道のように、歩道の周囲に芝生がある場合など、高低差が少ない芝生などの植生を障害物として検出することができないという問題がある。高低差の少ない芝生などの植生を障害物として検出できない場合、移動ロボットは、低い障害物を回避することができず、例えば、公園などを走行した際には、侵入が禁止されている芝生へ入ってしまうという問題がある。
【0008】
また、非特許文献2では、歩道と芝生を見分けることがある程度可能であるが、三次元点群だけでは領域分割に対する情報量が少なく、道路や駐車場の一部を植生と誤検知することがしばしば発生するという問題がある。
【0009】
また、非特許文献3の方法では、色情報を基に周囲環境を認識するため、非特許文献2の方法よりも領域分割の性能が高いが、明るさ変動の影響や、歩道が緑色や青色などの様々な色に着色されている場合は、別の物体として誤検知する場合があるという問題がある。
【0010】
また、非特許文献2又は非特許文献3では、前方に有りもしない障害物を誤検知した場合、移動ロボットは、障害物を回避しようとして、異常な回避行動をとったり、回避経路が見つからずに走行不能に陥ったりする可能性がある。
【0011】
そこで本発明は、走行体の進行方向の前方にある障害物の有無を安定的に検知することが可能な深層学習装置及び走行体を提供することを課題とする。
【課題を解決するための手段】
【0012】
上記の課題を解決するための第1の発明に係る深層学習装置は、第1の発明において、走行体の周囲環境における三次元情報を含む三次元計測データと、前記周囲環境の全方位の画像を含む全方位画像データと、前記三次元計測データを基に作成された点群領域ラベルデータとを記憶する記憶部と、前記三次元計測データと、前記全方位画像データとに基づいて、前記周囲環境における植生の状況を示す植生指標データを算出する植生指標計算部と、前記三次元計測データと、前記植生指標データと、前記点群領域ラベルデータとを学習データセットとして用いて深層学習を行い、学習結果データを作成する三次元点群領域分割学習部と、を備えることを特徴とする。
【0013】
また、上記の課題を解決するための第2の発明に係る深層学習装置は、前記記憶部は、前記三次元計測データと、前記全方位画像データと、前記点群領域ラベルデータに代えて前記全方位画像データに基づいて作成した画像領域ラベルデータとを記憶し、前記三次元計測データと、前記画像領域ラベルデータとに基づいて、前記点群領域ラベルデータを作成する点群領域ラベル作成部をさらに備えることを特徴とする。
【0014】
また、上記の課題を解決するための第3の発明に係る走行体は、周囲環境を認識して走行手段により走行する走行体であって、前記周囲環境における三次元情報を含む三次元計測データを取得する三次元計測部と、前記周囲環境を撮影した画像データを取得する撮像部と、前記三次元計測データと、前記画像データとに基づいて、前記周囲環境における植生の状況を示す植生指標データを算出する植生指標計算部と、前記三次元計測データと、前記植生指標データとに基づいて、点群領域分割データを生成する三次元点群領域分割部と、前記三次元計測データと、前記点群領域分割データとに基づいて、前記周囲環境のコストマップを計算し、前記コストマップに基づいて前記走行手段による走行を制御する制御処理部と、を備えることを特徴とする。
【0015】
また、上記の課題を解決するための第4の発明に係る走行体は、第3の発明において、前記撮像部は、前記周囲環境の全方位を撮影する全方位カメラであり、前記画像データは、前記全方位カメラによって撮影された全方位画像データである、ことを特徴とする。
【0016】
また、上記の課題を解決するための第5の発明に係る走行体は、第4の発明において、前記全方位カメラは、前記走行体の進行方向に対して前後双方に設置された魚眼カメラである、ことを特徴とする。
【0017】
また、上記の課題を解決するための第6の発明に係る走行体は、第3の発明において、前記撮像部は、前記走行体の進行方向に対して前方を撮影するカラーカメラであり、前記画像データは、前記カラーカメラによって撮影されたカラー画像データである、ことを特徴とする。
【0018】
また、上記の課題を解決するための第7の発明に係る走行体は、第3の発明において、前記撮像部は、レンズ前面に赤色透過フィルタを備え、前記走行体の進行方向に対して前方を撮影するモノクロカメラであり、前記画像データは、前記モノクロカメラによって撮影されたグレー画像データである、ことを特徴とする。
【発明の効果】
【0019】
この発明によれば、走行体の進行方向の前方にある障害物の有無を安定的に検知することが可能となる。
【図面の簡単な説明】
【0020】
【
図1】本発明の本第1実施形態による移動ロボット1の一構成例を示す模式図である。
【
図2】3D-LiDARの三次元計測データのみから移動ロボットの制御処理を行う一般的な構成例を示すブロック図である。
【
図3】本第1実施形態によるコントローラ11の一構成例を示すブロック図である。
【
図4】本第1実施形態による周囲環境認識部30の全体動作(周囲環境認識処理)を説明するためのフローチャートである。
【
図5】本第1実施形態による植生指標計算部31の動作を説明するためのフローチャートである。
【
図6】本第1実施形態において、魚眼投影モデルにおける世界座標系と画像座標系との関係を示す模式図である。
【
図7】本第1実施形態による三次元点の座標変換計算(S24)を説明するための概念図である。
【
図8】本第1実施形態による植生指標データの保存を説明するための概念図である。
【
図9】本第1実施形態による三次元点群領域分割部32の動作を説明するためのフローチャートである。
【
図10】一般的な領域分割計算を説明するための概念図である。
【
図11】本第1実施形態による領域分割計算を説明するための概念図である。
【
図12】本第1実施形態による点群領域分割データ作成を説明するための概念図である。
【
図13】本第1実施形態において用いるコストマップの一例を説明するための概念図である。
【
図14】本第2実施形態による移動ロボット1の一構成例を示す模式図である。
【
図15】本第2実施形態によるコントローラ11の一構成例を示すブロック図である。
【
図16】本第2実施形態による植生指標計算部34の動作を説明するためのフローチャートである。
【
図17】本第2実施形態において、透視投影カメラモデルにおける世界座標系と画像座標系との関係を示す概念図である。
【
図18】本第3実施形態による移動ロボット1の一構成例を示す模式図である。
【
図19】本第3実施形態によるコントローラ11の一構成例を示すブロック図である。
【
図20】本第3実施形態による植生指標計算部35の動作を説明するためのフローチャートである。
【
図21】本第3実施形態における植生指標データの保存の概要を示す概念図である。
【
図22】本第4実施形態による三次元点群領域分割学習装置80の構成を示すブロック図である。
【
図23】本第4実施形態による三次元点群領域分割学習装置80の全体動作を説明するためのフローチャートである。
【
図24】本第4実施形態による三次元点群領域分割学習部83の動作を説明するためのフローチャートである。
【
図25】本第4実施形態による深層学習ネットワークによる学習を説明するための概念図である。
【
図26】本第5実施形態による三次元点群領域分割学習装置100の構成を示すブロック図である。
【
図27】本第5実施形態による三次元点群領域分割学習装置100の全体動作を説明するためのフローチャートである。
【
図28】本第5実施形態による点群領域ラベル作成部103の動作を説明するためのフローチャートである。
【
図29】本第5実施形態における点群領域ラベルデータの保存の概要を示す概念図である。
【発明を実施するための形態】
【0021】
以下、添付図面を参照して、本発明の実施の形態について説明する。
【0022】
A.第1実施形態
本第1実施形態による移動ロボットは、基本的に、周囲環境の三次元計測と自己位置推定を行って走行する(非特許文献1を参照)。また、本第1実施形態では、高低差の少ない障害物を検知するため、三次元点群領域分割を用いる(非特許文献2を参照)。
【0023】
さらに、本第1実施形態では、上記三次元点群領域分割の性能向上を図るため、可視光情報を用いて領域分割処理を補助する。単に色情報を加える方法では、明るさ変動、影、路面の着色、等の影響を受けて領域分割結果が不安定になる。そこで、近赤外領域と可視光領域の情報から求めた正規化植生指標(NDVI)を用いる。なお、以下では、単に植生指標、あるいは植生指標データともいう。正規化植生指標NDVIについては国土地理院のホームページに説明がある(参考文献1:国土地理院,"植生指標データについて",URL<https://www.gsi.go.jp/kankyochiri/ndvi.html>)。正規化植生指標NDVIは、植物による光の反射の特徴を生かし、植物の量や、活力などの植生の状況を把握する代表的な指標である。
【0024】
図1は、本第1実施形態による移動ロボット1の一構成例を示す模式図である。
図1において、移動ロボット(走行体)1は、移動台車10、コントローラ11、3D-LiDAR(三次元計測部)12、及び全方位カメラ(撮像部)13を備えている。移動台車10は、車輪等からなる走行手段14を備えた台車部15と、台車部15から鉛直方向に所定の高さまで延設された鉛直部16とからなる。台車部15には、コントローラ11が搭載されており、鉛直部16には、3D-LiDAR12及び全方位カメラ13が搭載されている。移動台車10は、コントローラ11からの制御信号を受けて走行手段14を駆動して走行する。
【0025】
コントローラ11は、3D-LiDAR12、全方位カメラ13で計測した情報に基づいて、周囲環境を認識し、認識結果に基づいて移動ロボット1の走行を制御する。制御処理には、自己位置推定や、コストマップ計算、経路計画等の移動ロボットの制御に必要な各種機能を搭載している。3D-LiDAR12は、移動ロボット1の周囲環境に対して全方位の三次元計測を行い、周囲環境の(物体までの距離や、形状などを含む)三次元情報を含む三次元計測データをコントローラ11へ出力する。全方位カメラ13は、移動ロボット1の周辺における全方位画像を撮影し、全方位画像データをコントローラ11へ出力する。
【0026】
図2は、3D-LiDARの三次元計測データのみから移動ロボットの制御処理を行う一般的な構成例を示すブロック図である。また、
図3は、本第1実施形態によるコントローラ11の一構成例を示すブロック図である。
図2に示すように、一般的な構成では、コントローラ20における制御処理部21は、3D-LiDAR12からの三次元計測データに基づいて、自己位置の推定、コストマップ計算、経路計画、その他の基本機能を処理し、移動ロボット1の走行手段を駆動するための制御信号を生成・出力する。
【0027】
本第1実施形態によるコントローラ11は、その機能の1つとして、
図2に示す一般的な構成に加えて、
図3に示すように、周囲環境認識部30を搭載している。周囲環境認識部30は、植生指標計算部31及び三次元点群領域分割部32を備える。植生指標計算部31は、全方位カメラ13からの全方位画像データと3D-LiDAR12からの三次元計測データとに基づいて、植生指標を計算し、植生指標データを三次元点群領域分割部32に供給する。三次元点群領域分割部32は、3D-LiDAR12からの三次元計測データと植生指標計算部31からの植生指標データとに基づいて、三次元点群の領域分割処理を行い、点群領域分割データを出力する。本第1実施形態における制御処理部33は、基本的に一般的な制御処理部21と同等であるが、3D-LiDAR12からの三次元計測データと、周囲環境認識部30からの点群領域分割データとの双方に基づいて、自己位置の推定、コストマップ計算、経路計画、その他の基本機能を処理する点で機能が異なる。
【0028】
次に、本第1実施形態による周囲環境認識部30の動作について説明する。
図4は、本第1実施形態による周囲環境認識部30の全体動作(周囲環境認識処理)を説明するためのフローチャートである。周囲環境認識部30において、植生指標計算部31は、全方位カメラ13からの全方位画像データと3D-LiDAR12からの三次元計測データとに基づいて、植生指標データを計算する植生指標計算処理を実行する(ステップS10)。次に、三次元点群領域分割部32は、3D-LiDAR12からの三次元計測データと植生指標データとに基づいて、点群領域分割データを求める三次元点群領域分割処理を実行する(ステップS12)。
【0029】
次に、上述した植生指標計算処理(S10)について説明する。
図5は、本第1実施形態による植生指標計算部31の動作を説明するためのフローチャートである。植生指標計算部31は、まず、3D-LiDAR12から三次元計測データを入力し(ステップS20)、全方位カメラ13から全方位画像データを入力する(ステップS22)。次に、植生指標計算部31は、入力された三次元計測データから得られた全ての三次元点に対して三次元点の座標変換計算を行う(ステップS24)。次に、植生指標計算部31は、全方位画像データに基づいて三次元点:画素の対応計算を行い(ステップS26)、赤色輝度値を抽出する(ステップS28)。次に、植生指標計算部31は、赤色輝度値に基づいて植生指標値を計算し(ステップS30)、植生指標データを保存する(ステップS32)。このように、植生指標計算部31は、一連の処理を順次行うことで、植生指標データを作成する。その後、全ての三次元点に対して処理を行ったか否かを判断し(ステップS34)、未処理の三次元点がある場合には(ステップS34のNO)、ステップS24に戻り、上述した処理を繰り返す。一方、全ての三次元点に対して処理を行った場合には(ステップS34のYES)、当該処理を終了する。
【0030】
次に、上述した植生指標値の計算(S30)について説明する。本第1実施形態では、植生指標値として、正規化植生指標(NDVI:Normalized Difference Vegetation Index)を用いる。なお、正規化植生指標(NDVI)については、上述した参考文献1に詳細に説明されている。正規化植生指標(NDVI)は、近赤外域の反射率IRと、可視域赤の反射率Rとにより計算することができる。本第1実施形態では、近赤外域の反射率IRとしては、3D-LiDAR12のレーザ反射強度を用いる。3D-LiDAR12のレーザは、近赤外領域の波長の光を用いている。また、可視域赤の反射率Rとしては、全方位カメラ13による全方位画像データの画素の色情報のうち赤色輝度値を用いる。
【0031】
正規化植生指標NDVIは、次式によって求めることができる。
【0032】
【0033】
正規化植生指標NDVIは、-1~+1の値となる。この値に対して、次式により整数化を行う。
【0034】
【0035】
整数化した正規化植生指標NDVIの値は、0~200までの値となる。正規化植生指標NDVIの値が大きいほど植生が多いことを示している。
【0036】
次に、上述した三次元点:画素の対応計算(S26)について説明する。本第1実施形態では、正規化植生指標NDVIを求めるために、三次元点に対応する全方位画像上の画素を求め、その画素におけるBGR色情報から赤色輝度値Rを取り出す必要がある。そこで、本第1実施形態では、全方位カメラ13として走行方向に対して前後双方に魚眼カメラ(魚眼レンズを備えたカメラ)を設置することで、三次元点に対応する全方位画像を撮影する(魚眼投影モデル)。
【0037】
図6は、本第1実施形態において、魚眼投影モデルにおける世界座標系と画像座標系との関係を示す模式図である。魚眼投影モデルでは、世界座標系(Xw,Yw,Zw)における三次元点P(xw,yw,zw)を半球面上へ投影し、投影点をさらに画像座標系(Xi,Yi)における画像平面上の点p(xi,yi)へ投影する。この手順により、三次元点に対応する全方位画像上の画素を求めることができる。なお、魚眼投影モデルについては、参考文献2(山内,他,"魚眼カメラを用いた移動ロボット向け全方位障害物検知システムの基礎実験",東京工業高等専門学校研究報告書 第45(2)号,2014)に詳細に説明されている。
【0038】
次に、上述した三次元点の座標変換計算(S24)について説明する。三次元計測データを計測する3D-LiDAR12と、全方位画像データを計測する全方位カメラ13とは、移動台車10上での設置位置が異なる。そこで、三次元点の座標変換計算では、3D-LiDAR12で計測した三次元計測データを、3D-LiDAR12の座標系から全方位カメラ13の座標系へ変換し、三次元点:画素の対応計算(S26)に入力する。
【0039】
図7は、本第1実施形態による三次元点の座標変換計算(S24)を説明するための概念図である。3D-LiDAR12の座標系は、移動ロボット1に設置した際の鉛直上向きにZ軸をとり、移動ロボット1の進行方向にX軸をとるのが一般的である。全方位カメラ13の座標系は、光軸上にZ軸をとるのが一般的である。
図7には、簡単のため全方位カメラ13を構成する魚眼カメラの前側のみについて示しているが、後側についても同様の考え方を適用できる。三次元空間上にある点Pについて、3D-LiDAR12による計測で得た三次元位置データを、3D-LiDAR12の座標系(XI,YI,ZI)から全方位カメラ13の座標系(Xc,Yc,Zc)への変換行列Tにより、全方位カメラ13の座標系(Xc,Yc,Zc)での三次元位置データへ変換することができる。変換行列Tによる座標変換としては、座標系間の回転を示す回転変換と、並進を示す並進変換とを含んだ同次変換行列を用いることによって座標変換を行う。なお、変換行列Tについては、例えば、参考文献3("同次変換行列",URL<http://www.thothchildren.com/chapter/5b46226e103f2f316870c401>)に詳細に説明されている。
【0040】
なお、本第1実施形態による三次元点の座標変換計算及び三次元点:画素の対応計算に必要な、同次変換行列の各成分の値や、カメラパラメータについては、設置位置の計測や、キャリブレーションなどの方法で予めオフラインにて求めておくものとする。
【0041】
次に、上述した植生指標データの保存(S32)について説明する。
図8は、本第1実施形態による植生指標データの保存を説明するための概念図である。本第1実施形態では、
図8に示すように、三次元計測データのデータ列から点位置情報(x,y,z)と反射強度とを順次取り出し、点位置情報(x,y,z)に対して三次元点の座標変換計算と三次元点:画素の対応計算とを行って、画像平面上の画素を求める。さらに、画素の色情報から赤色輝度値(R)を取り出し、植生指標値計算により、反射強度と赤色輝度値(R)とから正規化植生指標(NDVI)を求める。そして、求めた正規化植生指標(NDVI)を三次元計測データと同じ順番の植生指標データの位置に保存する。
【0042】
次に、上述した三次元点群領域分割処理(S12)について説明する。
図9は、本第1実施形態による三次元点群領域分割部32の動作を説明するためのフローチャートである。三次元点群領域分割部32は、三次元点群領域分割処理において、まず、3D-LiDAR12からの三次元計測データを入力し(ステップS40)、植生指標計算部31からの植生指標データを入力する(ステップS42)。次に、三次元点群領域分割部32は、三次元計測データと植生指標データとを、領域分割用入力データに成形し(ステップS44)、成形した領域分割用入力データを用いて領域分割計算を行う(ステップS46)。その後、三次元点群領域分割部32は、成形した領域分割用入力データから、点群領域分割データを作成して出力する(ステップS48)。
【0043】
本第1実施形態による領域分割計算(S46)では、三次元点群領域分割を用いる。例えば、上述した非特許文献2のSalsaNextのような方法である。三次元点群領域分割では、各点毎に、自動車・自転車・道路・駐車場・建物・植生・幹・地形などの領域に分類する。この方法では、三次元計測データを領域分割用入力データに成形して深層学習ネットワークへ入力し、領域分類した結果である領域ラベルデータを出力することが一般的である。領域分割用入力データとしては、三次元計測データを基に計算し、位置データから計算できる「距離」、位置データそのものである「x位置」、「y位置」、「z位置」、三次元計測データに含まれる「反射強度」がある。
【0044】
図10は、一般的な領域分割計算を説明するための概念図である。
図11は、本第1実施形態による領域分割計算を説明するための概念図である。一般的な領域分割計算では、
図10に示すように、領域分割用入力データ40として、「距離」、「x位置」、「y位置」、「z位置」、「反射強度」を、三次元点群領域分割(深層学習ネットワーク)41に入力し、領域ラベルデータ42を得る。これに対して、本第1実施形態による領域分割計算では、
図11に示すように、領域分割用入力データ50として、一般的な領域分割計算の領域分割用の入力データ「距離」、「x位置」、「y位置」、「z位置」、「反射強度」に加え、植生指標データを成形した正規植生指標(NDVI)を、三次元点群領域分割(深層学習ネットワーク)51に入力し、領域ラベルデータ52を得る。
【0045】
なお、三次元点群領域分割を行う深層学習ネットワーク51は、学習データセットによりオフラインで学習しておくものとする。学習方法については、後述する第4実施形態と第5実施形態で詳細に説明する。
【0046】
次に、上述した点群領域分割データ作成(S48)について説明する。
図12は、本第1実施形態による点群領域分割データ作成を説明するための概念図である。本第1実施形態による点群領域分割データ作成では、
図12に示すように、領域分割計算で計算した領域ラベルデータを、三次元計測データに保存してある点位置情報(x,y,z)に対応した順番に並べて保存して点群領域分割データを作成する。この処理によって三次元点群データに保存されている点の順番に対応した点群領域分割データを得ることができる。
【0047】
次に、本第1実施形態による周囲環境認識部30が出力した点群領域分割データを用いた制御処理部33側のコストマップ計算について説明する。三次元計測データを用いたコストマップは、非特許文献1と同様の方法で三次元点群の位置情報から作成する。本第1実施形態では、これを「位置情報コストマップ」と呼ぶ。また、本第1実施形態では、点群領域分割データからもコストマップを作成する。これを「領域分割コストマップ」と呼ぶ。
【0048】
点群領域分割データは、各点毎に、自動車・自転車・道路・駐車場・建物・植生・幹・地形などの領域ラベルを持っている。例えば、移動ロボットが走行して良い領域ラベルを「道路・駐車場・歩道」とする。このとき、領域ラベルが「道路・駐車場・歩道」の場合のコスト値を0とし、それ以外にコスト値をcとする。cは、設定により数値を与える。領域分割コストマップは、領域ラベルに付与したコスト値を水平面へ投影して積算することにより求められる。
【0049】
図13は、本第1実施形態において用いるコストマップの一例を説明するための概念図である。例えば、
図13に示すように、芝生60の中を通る道路61の脇に自動車62が停まっている状況を考える。位置情報コストマップ63では、地面から高さのある自動車62の周囲にコスト値の高いコストマップが生成される。図中では、濃淡が濃いほどコスト値が高いものとして表現している。領域分割コストマップ64では、「道路・駐車場・歩道」以外の領域にコスト値が付与され、高さ方向に点群が重なっている自動車62付近のコスト値が高くなる。芝生60の部分にもコスト値が付与される。最後に、位置情報コストマップ63と領域分割コストマップ64とを合成してコストマップ65を作成する。合成にはコストマップを加算する方法を用いる。
【0050】
上述した第1実施形態によれば、植生指標を用いて領域分割処理を補助しているため、「道路・駐車場・歩道」といった人工物と芝生などの植生とを安定して区別することができる。このため、例えば、公園などを移動ロボットが走行した際には、侵入が禁止されている芝生へ入ってしまうことがない。また、領域分割結果の「道路・駐車場・歩道」上に何らかの植物があったとしても、障害物と誤検知しないので、異常な回避行動をとったり、回避経路が見つからずに走行不能に陥ったりすることなく、円滑に走行することができる。
【0051】
B.第2実施形態
次に、本発明の第2実施形態について説明する。
三次元点群領域分割を行う深層学習ネットワークの学習を行う際は、3D-LiDAR12で計測した、移動ロボット1の周辺に対する全方位の三次元計測データの全範囲を網羅する全方位画像データを得ることが好ましい。この場合、3D-LiDAR12と全方位カメラ13の両方を、移動ロボット1の周囲を見渡せる箇所へ設置する必要がある。
【0052】
一方、移動ロボット1を実際に自動走行させる際は、進行方向に対して前方の領域分割が正しくできればよい。そこで、移動ロボット1の自動走行時においては、全方位カメラ13に代えて、進行方向の前方を撮影するカラーカメラ(撮像部)70で対応することが可能である。これにより、カラーカメラ70の設置場所に自由度が増える。例えば、カラーカメラ70を移動ロボット1の前方に設置すればよい。
【0053】
図14は、本第2実施形態による移動ロボット1の一構成例を示す模式図である。なお、
図1に対応する部分には同一の符号を付けて説明を省略する。
図14において、台車部15から鉛直方向に延設された鉛直部16には、全方位カメラ13に代えて、カラーカメラ70が搭載されている。カラーカメラ70は、移動ロボット1の走行方向の前方を撮影し、カラー画像データをコントローラ11へ供給する。
【0054】
図15は、本第2実施形態によるコントローラ11の一構成例を示すブロック図である。なお、
図3に対応する部分には同一の符号を付けて説明を省略する。周囲環境認識部30は、全方位画像データの代わりに、カラーカメラ70からのカラー画像データを、植生指標計算部34に入力する構成となる。植生指標計算部34は、カラーカメラ70からのカラー画像データと3D-LiDAR12からの三次元計測データとに基づいて、植生指標を計算し、植生指標データを三次元点群領域分割部32に供給する。
【0055】
次に、本第2実施形態による周囲環境認識部30の動作について説明する。
本第2実施形態による周囲環境認識部30の全体動作(周囲環境認識処理)は、上述した第1実施形態で説明した
図4に示すフローチャートと基本的に変わらないが、全方位カメラ13に代えてカラーカメラ70を搭載したことで、ステップS10における植生指標計算処理の内容が異なる。
【0056】
次に、本第2実施形態による植生指標計算処理について説明する。
図16は、本第2実施形態による植生指標計算部34の動作を説明するためのフローチャートである。植生指標計算部34は、まず、3D-LiDAR12から三次元計測データを入力し(ステップS60)、カラーカメラ70からカラー画像データを入力する(ステップS62)。次に、植生指標計算部34は、入力された三次元計測データから得られた全ての三次元点に対して、三次元点の座標変換計算を行う(ステップS64)。次に、植生指標計算部34は、カラー画像データに基づいて三次元点:画素の対応計算を行い(ステップS66)、赤色輝度値を抽出する(ステップS68)。次に、植生指標計算部34は、赤色輝度値に基づいて植生指標値を計算し(ステップS70)、植生指標データを保存する(ステップS72)。このように、植生指標計算部34は、一連の処理を順次行うことで、植生指標データを作成する。その後、全ての三次元点に対して処理を行ったか否かを判断し(ステップS74)、未処理の三次元点がある場合には(ステップS74のNO)、ステップS64に戻り、上述した処理を繰り返す。一方、全ての三次元点に対して処理を行った場合には(ステップS74のYES)、当該処理を終了する。
【0057】
本第2実施形態では、三次元点:画素の対応計算(S66)を、カラーカメラ70に対応した計算方法に置き換える。三次元点に対応するカラーカメラ70上の画素を求める方法としては、透視投影カメラモデルを用いる。なお、透視投影カメラモデルについては、参考文献4("カメラモデル(Camera Model)と透視投影(Perspective Projection)",URL<https://cvml-expertguide.net/terms/cv/camera-geometry/camera-model/>)に説明されている。
【0058】
図17は、本第2実施形態において、透視投影カメラモデルにおける世界座標系と画像座標系との関係を示す概念図である。透視投影カメラモデルでは、世界座標系(Xw,Yw,Zw)における三次元点P(xw,yw,zw)がカメラ原点であり、世界座標原点であるOwへ向かう直線により透視投影した画像平面上の点p(xi,yi)へ投影する。この手法により、三次元点に対応する画像上の画素を求めることができる。
【0059】
植生指標計算処理後、三次元点群領域分割処理を行うことになるが、三次元点群領域分割処理については、上述した第1実施形態と同様であるので説明を省略する。
【0060】
上述した第2実施形態によれば、走行ロボットの実際の走行時に、進行方向に対して前方のみを撮影するカラーカメラを搭載することで、カメラの設置場所に自由度を増すことができる。
【0061】
C.第3実施形態
次に、本発明の第3実施形態について説明する。
上述した植生指標は、可視光領域のうち、赤領域の輝度情報があれば計算できる。そこで、本第3実施形態では、前方を撮影するカメラとして、レンズ前面に赤色透過フィルタを設置したモノクロカメラを用いる。こうすることで、画像の色情報がBGRカラー画像に対して単色となり、メモリ量を1/3に削減できると共に、色情報BGRからR値を取り出す手間を省くことができる。
【0062】
図18は、本第3実施形態による移動ロボット1の一構成例を示す模式図である。なお、
図1又は
図14に対応する部分には同一の符号を付けて説明を省略する。
図18において、台車部15から鉛直方向に延設された鉛直部16には、全方位カメラ13あるいはカラーカメラ70に代えて、モノクロカメラ(撮像部)71が搭載されている。モノクロカメラ71は、レンズ前面に赤色透過フィルタ72を備えている。モノクロカメラ71は、移動ロボット1の走行方向の前方を撮影し、赤色に対応するグレー画像データをコントローラ11へ供給する。
【0063】
図19は、本第3実施形態によるコントローラ11の一構成例を示すブロック図である。なお、
図3又は
図15に対応する部分には同一の符号を付けて説明を省略する。周囲環境認識部30は、全方位画像データ又はカラー画像データの代わりに、モノクロカメラ71からのグレー画像データを、植生指標計算部35に入力する構成となる。植生指標計算部35は、モノクロカメラ71からのグレー画像データと3D-LiDAR12からの三次元計測データとに基づいて、植生指標データを計算して三次元点群領域分割部32に供給する。
【0064】
次に、本第3実施形態による周囲環境認識部30の動作について説明する。
本第3実施形態による周囲環境認識部30の全体動作(周囲環境認識処理)は、上述した第1実施形態で説明した
図4に示すフローチャートと基本的に変わらないが、モノクロカメラ71を搭載したことで、ステップS10における植生指標計算処理の内容が異なる。
【0065】
次に、本第3実施形態による植生指標計算処理について説明する。
図20は、本第3実施形態による植生指標計算部35の動作を説明するためのフローチャートである。植生指標計算部35は、まず、3D-LiDAR12から三次元計測データを入力し(ステップS80)、モノクロカメラ71からグレー画像データを入力する(ステップS82)。次に、植生指標計算部35は、入力された三次元計測データから得られた全ての三次元点に対して、三次元点の座標変換計算を行う(ステップS84)。次に、植生指標計算部35は、グレー画像データに基づいて三次元点:画素の対応計算を行い(ステップS86)、赤色輝度値を抽出する(ステップS88)。なお、赤色輝度値抽出では、画像平面の対応画素におけるグレー画像データの輝度値を取り出せばよい。
【0066】
次に、植生指標計算部35は、赤色輝度値に基づいて植生指標値を計算し(ステップS90)、植生指標データを保存する(ステップS92)。このように、植生指標計算部35は、一連の処理を順次行うことで、植生指標データを作成する。その後、全ての三次元点に対して処理を行ったか否かを判断し(ステップS94)、未処理の三次元点がある場合には(ステップS94のNO)、ステップS84に戻り、上述した処理を繰り返す。一方、全ての三次元点に対して処理を行った場合には(ステップS94のYES)、当該処理を終了する。なお、本第3実施形態における三次元点:画素の対応計算(S86)は、上述した第2実施形態と同様の透視投影カメラモデルを用いる。
【0067】
次に、本第3実施形態における植生指標データの保存(S92)について説明する。
図21は、本第3実施形態における植生指標データの保存の概要を示す概念図である。
図21に示すように、三次元計測データのデータ列から点位置情報(x,y,z)と反射強度とを順次取り出し、点位置情報(x,y,z)に対して三次元点の座標変換計算と三次元点:画素の対応計算とを行って画像平面上の画素を求める。さらに、画素の輝度値を取り出し(これが赤色輝度値(R)になっている)、植生指標値計算により、反射強度と赤色輝度値(R)から正規化植生指標(NDVI)を求める。そして、求めた正規化植生指標(NDVI)を三次元計測データと同じ順番の植生指標データの位置に保存する。
【0068】
なお、植生指標計算処理後、三次元点群領域分割処理を行うことになるが、三次元点群領域分割処理については、上述した第1実施形態又は第2実施形態と同様であるので説明を省略する。
【0069】
上述した第3実施形態によれば、走行ロボットの実際の走行時には、進行方向に対して前方のみを撮影するモノクロカメラを搭載し、該モノクロカメラのレンズの前面に赤色透過フィルタを設置するようにしたので、画像の色情報がBGRカラー画像に対して単色となり、メモリ量を1/3に削減できると共に、色情報BGRからR値を取り出す手間を省くことができる。
【0070】
D.第4実施形態
次に、本発明の第4実施形態について説明する。
本第4実施形態では、三次元点群領域分割を行う深層学習ネットワーク(深層学習装置)について説明する。深層学習ネットワークは、学習データセットによりオフラインで予め学習しておくものとする。三次元点群領域分割においては、3D-LiDARで計測した三次元点群に対して領域ラベルを作成する方法が一般的に用いられる。三次元点群に対する点群領域ラベルの作成は、例えば、参考文献5("点群アノテーション",URL<https://docs.fastlabel.ai/docs/3d-point-cloud-annotation>)のようなアノテーションツールを用いて、三次元点群を表示して領域を手動で囲む、もしくは、各点を個々に指定するなどして、その点の領域ラベルを指定し、点群領域ラベルデータを作成する。
【0071】
本第4実施形態では、3D-LiDAR12で計測した三次元計測データ、全方位カメラ13で撮影した全方位画像データ、さらに、三次元計測データを基に作成した点群領域ラベルデータのセットを学習データセットとして用いる。この学習データセットを用いて三次元点群領域分割を行う深層学習ネットワークをオフラインで学習するものとする。学習した結果は、学習結果データとして保存する。学習結果データとは、いわゆる、深層学習ネットワークの学習済みモデルのことである。
【0072】
学習データセットの作成に必要な、三次元計測データの計測及び全方位画像データの撮影は、本第1実施形態の
図1に示す構成の移動ロボット1を用いるものとする。三次元計測データ及び全方位画像データは、移動ロボット1のコントローラ11内に一旦保存し、オフラインにてネットワーク経由、もしくは、ストレージ経由で取り出す。
【0073】
三次元点群に対する点群領域ラベルデータの作成は、上述した参考文献5のようなアノテーションツールを搭載した作業端末を用意し、オフラインにて行う。点群領域ラベルデータは、作業端末内に一旦保存し、オフラインにてネットワーク経由、もしくは、ストレージ経由で取り出す。
【0074】
図22は、本第4実施形態による三次元点群領域分割学習装置(深層学習装置)80の構成を示すブロック図である。三次元点群領域分割学習装置80は、記憶部81、植生指標計算部82、及び三次元点群領域分割学習部83を備えている。三次元点群領域分割学習装置80は、三次元計測データ、全方位画像データ、及び点群領域ラベルデータを入力し、記憶部81に一旦保存する。植生指標計算部82は、記憶部81から、三次元計測データ及び全方位画像データを読み出し、植生指標データを作成して記憶部81に保存する。また、三次元点群領域分割学習部83は、記憶部81から、点群領域ラベルデータ、三次元計測データ及び植生指標データを読み出して学習した後、学習結果データを記憶部81に保存する。学習結果データは、オフラインにてネットワーク経由、もしくは、ストレージ経由で取り出される。
【0075】
次に、本第4実施形態による三次元点群領域分割学習処理の動作について説明する。
図23は、本第4実施形態による三次元点群領域分割学習装置80の全体動作を説明するためのフローチャートである。三次元点群領域分割学習装置80において、植生指標計算部82は、全方位カメラ13からの全方位画像データと3D-LiDAR12からの三次元計測データとに基づいて、植生指標データを計算する植生指標計算処理を実行する(ステップS100)。なお、植生指標計算処理は、上述した第1実施形態で説明した基本的な方法(
図5)と同様の方法を用いる。次に、三次元点群領域分割学習部83は、点群領域ラベルデータ、三次元計測データ及び植生指標データに基づいて学習して学習結果データを求める深層学習ネットワーク学習処理を実行する(ステップS102)。
【0076】
次に、本第4実施形態による深層学習ネットワーク学習処理(S102)について説明する。
図24は、本第4実施形態による三次元点群領域分割学習部83の動作を説明するためのフローチャートである。三次元点群領域分割学習部83は、まず、3D-LiDAR12から三次元計測データを入力し(ステップS110)、植生指標計算部82により計算された植生指標データを入力し(ステップS112)、点群領域ラベルデータを入力する(ステップS114)。次に、三次元点群領域分割学習部83は、三次元計測データと植生指標データとを、領域分割用入力データに成形し(ステップS116)、点群領域ラベルデータを領域ラベルデータに成形する(ステップS118)。次に、三次元点群領域分割学習部83は、領域分割用入力データ及び領域ラベルデータに基づいて、深層学習ネットワークによる学習を行い(ステップS120)、学習結果データを作成して学習結果データを出力する(ステップS122)。
【0077】
本第4実施形態における学習は、領域分割計算で用いた三次元点群領域分割(例えば、非特許文献2のSalsaNextのような方法)のような方法と同様な方法で行う。
図25は、本第4実施形態による深層学習ネットワークによる学習を説明するための概念図である。領域分割用入力データ90として、三次元計測データの位置データから計算できる「距離」、位置データそのものである「x位置」「y位置」「z位置」、三次元計測データに含まれる「反射強度」に加え、植生指標データを成形した「正規化植生指標(NDVI)」を用いる。また、点群領域ラベルデータから成形した領域ラベルデータ91を入力する。深層学習ネットワーク92は、成形した領域分割用入力データと領域ラベルデータとのペアを用いて繰り返し計算によりを学習し、最終的に学習結果データ93を出力する。
【0078】
上述した第4実施形態によれば、3D-LiDAR12で計測した三次元計測データ、全方位カメラ13で撮影した全方位画像データ、さらに、三次元計測データを基に作成した点群領域ラベルデータのセットを、深層学習ネットワークに対する学習データセットとして用いるようにしたので、「道路・駐車場・歩道」といった人工物と芝生などの植生とを安定して区別することができる。
【0079】
E.第5実施形態
次に、本発明の第5実施形態について説明する。
上述した第4実施形態では、三次元点群に対する点群領域ラベルの作成として、アノテーションツールを用いて、三次元点群を表示して領域を手動で囲む、もしくは、各点を個々に指定するなどして点群領域ラベルを作成する。ただし、実際にこれを実施しようとすると難しい。道路上に単独で存在する自動車や、人物などは、三次元点を表示することである程度見分けられる。しかしながら、芝生と道路の区別や、道路と歩道の区別、建物とフェンスの区別など三次元点を表示しただけでは簡単に見分けることが難しい場合が多い。そこで、本第5実施形態では、3D-LiDAR12で計測した三次元計測データと対になっている全方位カメラ13で撮影した全方位画像データを点群領域ラベルの作成に利用する。三次元点の表示よりも、全方位画像の表示の方が、作業者にとっては領域を区別し易い。
【0080】
本第5実施形態では、全方位画像データに対して領域ラベルを作成する。具体的には、例えば、参考文献6("GIMP",URL<https://www.gigafree.net/tool/paint/gimp.html>)のようなペイントツールを用いて、全方位画像を表示し、領域を手動で色塗りすることで、全方位画像データに対する画像領域ラベルを作成する。本第5実施形態では、3D-LiDAR12で計測した三次元計測データ、全方位カメラ13で撮影した全方位画像データ、さらに、全方位画像データを基に作成した画像領域ラベルデータのセットを学習データセットとして用いる。
【0081】
学習データセットの作成に必要な、三次元計測データの計測及び全方位画像データの撮影は、本第1実施形態の
図1に示す構成の移動ロボット1を用いるものとする。3D-LiDAR12による三次元計測データ及び全方位カメラ13による全方位画像データは、移動ロボット1のコントローラ11内に一旦保存し、オフラインにてネットワーク経由、もしくは、ストレージ経由で取り出す。
【0082】
三次元点群に対する画像領域ラベルの作成は、参考文献6のようなペイントツールを搭載した作業端末を用意し、オフラインにて画像領域ラベルデータの作成を行う。画像領域ラベルデータは、作業端末内に一旦保存し、オフラインにてネットワーク経由、もしくは、ストレージ経由で取り出す。
【0083】
図26は、本第5実施形態による三次元点群領域分割学習装置(深層学習装置)100の構成を示すブロック図である。なお、
図22に対応する部分には同一の符号を付けて説明を省略する。本第5実施形態による三次元点群領域分割学習装置100は、前述した第4実施形態の三次元点群領域分割学習装置80における点群領域ラベルデータに代えて、画像領域ラベルデータを入力し、記憶部101に一旦保存する。また、本第5実施形態による三次元点群領域分割学習装置100は、前述した第4実施形態の三次元点群領域分割学習装置80の構成に加えて、点群領域ラベル作成部103を備えている。点群領域ラベル作成部103は、記憶部101から、三次元計測データ及び画像領域ラベルデータを読み出し、点群領域ラベルデータを作成して記憶部101に保存する。学習結果データは、オフラインにてネットワーク経由、もしくは、ストレージ経由で取り出される。
【0084】
次に、本第5実施形態による三次元点群領域分割学習処理の動作について説明する。
図27は、本第5実施形態による三次元点群領域分割学習装置100の全体動作を説明するためのフローチャートである。三次元点群領域分割学習装置100において、植生指標計算部102は、全方位カメラ13からの全方位画像データと3D-LiDAR12からの三次元計測データとに基づいて、植生指標を計算する植生指標計算処理を実行する(ステップS130)。なお、植生指標計算処理は、上述した第1実施形態で説明した基本的な方法(
図5)と同様の方法を用いる。次に、点群領域ラベル作成部103は、三次元計測データ及び画像領域ラベルデータに基づいて、点群領域ラベルデータを作成する点群領域ラベル作成処理を実行する(ステップS132)。次に、三次元点群領域分割学習部104は、点群領域ラベルデータ、三次元計測データ及び植生指標データに基づいて学習して学習結果データを求める深層学習ネットワーク学習処理を実行する(ステップS134)。
【0085】
次に、本第5実施形態による点群領域ラベル作成処理(S132)について説明する。
図28は、本第5実施形態による点群領域ラベル作成部103の動作を説明するためのフローチャートである。点群領域ラベル作成部103は、まず、3D-LiDAR12から三次元計測データを入力し(ステップS140)、画像領域ラベルデータを入力する(ステップS142)。次に、点群領域ラベル作成部103は、入力された三次元計測データから得られた全ての三次元点に対して三次元点の座標変換計算を行い(ステップS144)、三次元点:画素の対応計算を行う(ステップS146)。なお、本第5実施形態における、三次元点の座標変換計算、三次元点:画素の対応計算は、上述した第1実施形態で説明した基本的な方法(
図5のステップS24、S26)と同様の方法を用いる。
【0086】
次に、点群領域ラベル作成部103は、領域ラベルを抽出し(ステップS148)、点群領域ラベルデータを作成して保存する(ステップS150)。その後、全ての三次元点に対して処理を行ったか否かを判断し(ステップS152)、未処理の三次元点がある場合には(ステップS152のNO)、ステップS144に戻り、上述した処理を繰り返す。一方、全ての三次元点に対して処理を行った場合には(ステップS152のYES)、当該処理を終了する。
【0087】
次に、本第5実施形態における点群領域ラベルデータの保存(S150)について説明する。
図29は、本第5実施形態における点群領域ラベルデータの保存の概要を示す概念図である。画像領域ラベルデータは、全方位画像データの各画素に領域ラベルを配置したデータ構造である。このため、画像平面の対応画素における領域ラベルを取り出せばよい。
図29に示すように、三次元計測データのデータ列から点位置情報(x,y,z)と反射強度とを順次取り出し、点位置情報(x,y,z)に対して三次元点の座標変換計算と三次元点:画素の対応計算とを行って画像平面上の画素を求める。さらに、画素位置に保管している領域ラベルを取り出し、三次元計測データと同じ順番の点群領域ラベルデータの位置に保存する。
【0088】
なお、本第5実施形態による深層学習ネットワークの学習処理は、上述した第4実施形態と同様であるので説明を省略する。
【0089】
上述した第5実施形態によれば、3D-LiDAR12で計測した三次元計測データ、全方位カメラ13で撮影した全方位画像データ、さらに、全方位画像データを基に作成した画像領域ラベルデータのセットを、深層学習ネットワークに対する学習データセットとして用いるようにしたので、「道路・駐車場・歩道」といった人工物と芝生などの植生とを安定して区別することができる。
【0090】
これ以外にも、本発明の主旨を逸脱しない限り、上記実施形態で挙げた構成を取捨選択したり、他の構成に適宜変更したりすることが可能である。
【符号の説明】
【0091】
1 移動ロボット(走行体)
10 移動台
11 コントローラ
12 3D-LiDAR
13 全方位カメラ
14 走行手段
16 鉛直部
30 周囲環境認識部
31、34、35 植生指標計算部
32 三次元点群領域分割部
33 制御処理部
50、90 領域分割用入力データ
51,92 三次元点群領域分割(深層学習ネットワーク)
52、91 領域ラベルデータ
70 カラーカメラ
71 モノクロカメラ
72 赤色透過フィルタ
80、100 三次元点群領域分割学習装置(深層学習装置)
81、101 記憶部
82、102 植生指標計算部
83、104 三次元点群領域分割学習部
103 点群領域ラベル作成部