(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-10-21
(45)【発行日】2024-10-29
(54)【発明の名称】推定モデル訓練装置、推定モデル訓練方法、認識装置、認識方法、及びプログラム
(51)【国際特許分類】
G06N 3/08 20230101AFI20241022BHJP
【FI】
G06N3/08
(21)【出願番号】P 2023542048
(86)(22)【出願日】2021-08-16
(86)【国際出願番号】 JP2021029933
(87)【国際公開番号】W WO2023021559
(87)【国際公開日】2023-02-23
【審査請求日】2024-02-08
(73)【特許権者】
【識別番号】000004237
【氏名又は名称】日本電気株式会社
(74)【代理人】
【識別番号】100103894
【氏名又は名称】家入 健
(72)【発明者】
【氏名】安倍 次朗
【審査官】今城 朋彬
(56)【参考文献】
【文献】特開2021-86560(JP,A)
【文献】国際公開第2021/014846(WO,A1)
【文献】特許第6819758(JP,B1)
【文献】上西 和樹、古屋 貴彦、大渕 竜太郎,敵対的生成ネットワークを用いた3次元点群形状特徴量の教師なし学習,情報処理学会 論文誌(ジャーナル),日本,情報処理学会,2019年07月15日,Vol.60 No.7,p.1315-1324
(58)【調査した分野】(Int.Cl.,DB名)
G06N 3/00-20/00
(57)【特許請求の範囲】
【請求項1】
第1測距装置を用いて生成され、かつ、現実空間上の複数の箇所それぞれの3次元位置を表す3次元位置データの集合である第1の3次元位置集合データと、第2の測距装置を用いて生成され、かつ、現実空間上の複数の箇所それぞれの3次元位置を表す3次元位置データの集合である第2の3次元位置集合データとを取得する取得部と、
前記第1の3次元位置集合データと前記第2の3次元位置集合データを利用して訓練データを生成する訓練データ生成部と、
前記訓練データを利用して推定モデルの訓練を行う訓練実行部と、を有し、
前記推定モデルは、前記第1の3次元位置集合データに含まれる3次元位置データを用いて、その3次元位置データによって表される現実空間上の箇所について、その箇所と略同一の箇所を表す前記第2の3次元位置集合データの3次元位置データから算出される特徴量を推定するモデルである、推定モデル訓練装置。
【請求項2】
前記訓練データ生成部は、
前記第1の3次元位置集合データから、第1着目3次元位置データと、前記第1着目3次元位置データの近傍の3次元位置データである1つ以上の第1近傍3次元位置データとを抽出し、
前記第2の3次元位置集合データから、前記第1着目3次元位置データによって表される現実空間の着目箇所と略同一の箇所を表す3次元位置データである第2着目3次元位置データと、前記第2着目3次元位置データの近傍の3次元位置データである1つ以上の第2近傍3次元位置データとを抽出し、
前記第2着目3次元位置データ及び前記1つ以上の第2近傍3次元位置データを用いて、前記着目箇所の特徴量を算出し、
訓練の際に前記推定モデルに対して入力される訓練入力データとして、前記第1着目3次元位置データ及び前記1つ以上の第1近傍3次元位置データを示し、なおかつ、前記訓練入力データが入力されたことに応じて前記推定モデルから出力されるべきデータを表す訓練正解データとして、前記着目箇所の特徴量を示す前記訓練データを生成する、請求項1に記載の推定モデル訓練装置。
【請求項3】
前記訓練データ生成部は、前記着目箇所の3次元形状の特徴を表す値を、前記着目箇所の特徴量として算出する、請求項2に記載の推定モデル訓練装置。
【請求項4】
前記訓練データ生成部は、3次元位置集合データから特徴量を算出して物体認識を行う認識モデルに対し、前記第2着目3次元位置データ及び前記1つ以上の第2近傍3次元位置データを入力し、その入力に応じて前記認識モデルによって算出された特徴量を、前記着目箇所の特徴量として用いる、請求項2に記載の推定モデル訓練装置。
【請求項5】
前記訓練データ生成部は、前記第2の3次元位置集合データを用いて訓練されたオートエンコーダに対し、前記第2着目3次元位置データ及び前記1つ以上の第2近傍3次元位置データを入力し、その入力に応じてオートエンコーダが行うエンコードによって得られる値を、前記着目箇所の特徴量として用いる、請求項2に記載の推定モデル訓練装置。
【請求項6】
コンピュータによって実行される推定モデル訓練方法であって、
第1測距装置を用いて生成され、かつ、現実空間上の複数の箇所それぞれの3次元位置を表す3次元位置データの集合である第1の3次元位置集合データと、第2の測距装置を用いて生成され、かつ、現実空間上の複数の箇所それぞれの3次元位置を表す3次元位置データの集合である第2の3次元位置集合データとを取得する取得ステップと、
前記第1の3次元位置集合データと前記第2の3次元位置集合データを利用して訓練データを生成する訓練データ生成ステップと、
前記訓練データを利用して推定モデルの訓練を行う訓練実行ステップと、を有し、
前記推定モデルは、前記第1の3次元位置集合データに含まれる3次元位置データを用いて、その3次元位置データによって表される現実空間上の箇所について、その箇所と略同一の箇所を表す前記第2の3次元位置集合データの3次元位置データから算出される特徴量を推定するモデルである、推定モデル訓練方法。
【請求項7】
第1測距装置を用いて生成され、かつ、現実空間上の複数の箇所それぞれの3次元位置を表す3次元位置データの集合である第1の3次元位置集合データと、第2の測距装置を用いて生成され、かつ、現実空間上の複数の箇所それぞれの3次元位置を表す3次元位置データの集合である第2の3次元位置集合データとを取得する取得ステップと、
前記第1の3次元位置集合データと前記第2の3次元位置集合データを利用して訓練データを生成する訓練データ生成ステップと、
前記訓練データを利用して推定モデルの訓練を行う訓練実行ステップと、を
コンピュータに実行させ、
前記推定モデルは、前記第1の3次元位置集合データに含まれる3次元位置データを用いて、その3次元位置データによって表される現実空間上の箇所について、その箇所と略同一の箇所を表す前記第2の3次元位置集合データの3次元位置データから算出される特徴量を推定するモデルである、
プログラム。
【請求項8】
第1測距装置を用いて生成され、かつ、現実空間上の複数の箇所それぞれの3次元位置を表す3次元位置データの集合である第1の3次元位置集合データを取得する取得部と、
前記第1の3次元位置集合データを推定モデルに入力することで、現実空間上の各箇所の特徴量を推定する特徴量推定部と、
前記推定された特徴量を用いて、現実空間上の物体の認識を行う認識実行部と、を有し、
前記推定モデルは、前記第1の3次元位置集合データに含まれる3次元位置データを用いて、その3次元位置データによって表される現実空間上の箇所について、その箇所と略同一の箇所を表す第2の3次元位置集合データの3次元位置データから算出される特徴量を推定するように訓練されており、
前記第2の3次元位置集合データは、第2測距装置を用いて生成され、かつ、現実空間上の複数の箇所それぞれの3次元位置を表す3次元位置データの集合である、認識装置。
【請求項9】
コンピュータによって実行される認識方法であって、
第1測距装置を用いて生成され、かつ、現実空間上の複数の箇所それぞれの3次元位置を表す3次元位置データの集合である第1の3次元位置集合データを取得する取得ステップと、
前記第1の3次元位置集合データを推定モデルに入力することで、現実空間上の各箇所の特徴量を推定する特徴量推定ステップと、
前記推定された特徴量を用いて、現実空間上の物体の認識を行う認識実行ステップと、を有し、
前記推定モデルは、前記第1の3次元位置集合データに含まれる3次元位置データを用いて、その3次元位置データによって表される現実空間上の箇所について、その箇所と略同一の箇所を表す第2の3次元位置集合データの3次元位置データから算出される特徴量を推定するように訓練されており、
前記第2の3次元位置集合データは、第2測距装置を用いて生成され、かつ、現実空間上の複数の箇所それぞれの3次元位置を表す3次元位置データの集合である、認識方法。
【請求項10】
第1測距装置を用いて生成され、かつ、現実空間上の複数の箇所それぞれの3次元位置を表す3次元位置データの集合である第1の3次元位置集合データを取得する取得ステップと、
前記第1の3次元位置集合データを推定モデルに入力することで、現実空間上の各箇所の特徴量を推定する特徴量推定ステップと、
前記推定された特徴量を用いて、現実空間上の物体の認識を行う認識実行ステップと、
をコンピュータに実行させ、
前記推定モデルは、前記第1の3次元位置集合データに含まれる3次元位置データを用いて、その3次元位置データによって表される現実空間上の箇所について、その箇所と略同一の箇所を表す第2の3次元位置集合データの3次元位置データから算出される特徴量を推定するように訓練されており、
前記第2の3次元位置集合データは、第2測距装置を用いて生成され、かつ、現実空間上の複数の箇所それぞれの3次元位置を表す3次元位置データの集合である、
プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、現実空間上の各箇所の3次元位置を表す点群データを解析する技術に関する。
【背景技術】
【0002】
空間内の複数の箇所それぞれについての3次元位置を表す点群データを解析する技術が開発されている。例えば非特許文献1は、点群データから特徴量を抽出し、その特徴量に基づいて物体認識を行う技術を開示している。
【先行技術文献】
【非特許文献】
【0003】
【文献】Charles R. Qi, Hao Su, Kaichun Mo, Leonidas J. Guibas、「PointNet: Deep Learning on Point Sets for 3D Classification and Segmentation」、Computer Vision and Pattern Recognission 2017 (CVPR 2017)、2017年7月21日
【発明の概要】
【発明が解決しようとする課題】
【0004】
非特許文献1では、精度の低い点群データを利用すると、抽出される特徴量の精度も低くなってしまう。本開示は上記の課題に鑑みてなされたものであり、その目的の一つは、空間内の複数の箇所それぞれについての3次元位置を表す点群データを用いて、その空間内の箇所の特徴を把握する新たな技術を提供することである。
【課題を解決するための手段】
【0005】
本開示の推定モデル訓練装置は、第1測距装置を用いて生成され、かつ、現実空間上の複数の箇所それぞれの3次元位置を表す点データの集合である第1点群データと、第2の測距装置を用いて生成され、かつ、現実空間上の複数の箇所それぞれの3次元位置を表す点データの集合である第2点群データとを取得する取得部と、前記第1点群データと前記第2点群データを利用して訓練データを生成する訓練データ生成部と、前記訓練データを利用して推定モデルの訓練を行う訓練実行部と、を有する。前記推定モデルは、前記第1点群データに含まれる点データを用いて、その点データによって表される現実空間上の箇所について、その箇所と略同一の箇所を表す前記第2点群データの点データから算出される特徴量を推定するモデルである。
【0006】
本開示の推定モデル訓練方法は、コンピュータによって実行される。当該推定モデル訓練方法は、第1測距装置を用いて生成され、かつ、現実空間上の複数の箇所それぞれの3次元位置を表す点データの集合である第1点群データと、第2の測距装置を用いて生成され、かつ、現実空間上の複数の箇所それぞれの3次元位置を表す点データの集合である第2点群データとを取得する取得ステップと、前記第1点群データと前記第2点群データを利用して訓練データを生成する訓練データ生成ステップと、前記訓練データを利用して推定モデルの訓練を行う訓練実行ステップと、を有する。前記推定モデルは、前記第1点群データに含まれる点データを用いて、その点データによって表される現実空間上の箇所について、その箇所と略同一の箇所を表す前記第2点群データの点データから算出される特徴量を推定するモデルである。
【0007】
本開示のコンピュータ可読媒体は、本開示の推定モデル訓練方法をコンピュータに実行させるプログラムを格納している。
【0008】
本開示の認識装置は、第1測距装置を用いて生成され、かつ、現実空間上の複数の箇所それぞれの3次元位置を表す点データの集合である第1点群データを取得する取得部と、前記第1点群データを推定モデルに入力することで、現実空間上の各箇所の特徴量を推定する特徴量推定部と、前記推定された特徴量を用いて、現実空間上の物体の認識を行う認識実行部と、を有する。前記推定モデルは、前記第1点群データに含まれる点データを用いて、その点データによって表される現実空間上の箇所について、その箇所と略同一の箇所を表す第2点群データの点データから算出される特徴量を推定するように訓練されている。前記第2点群データは、第2測距装置を用いて生成され、かつ、現実空間上の複数の箇所それぞれの3次元位置を表す点データの集合である。
【0009】
本開示の認識方法は、コンピュータによって実行される。当該認識方法は、第1測距装置を用いて生成され、かつ、現実空間上の複数の箇所それぞれの3次元位置を表す点データの集合である第1点群データを取得する取得ステップと、前記第1点群データを推定モデルに入力することで、現実空間上の各箇所の特徴量を推定する特徴量推定ステップと、前記推定された特徴量を用いて、現実空間上の物体の認識を行う認識実行ステップと、を有する。前記推定モデルは、前記第1点群データに含まれる点データを用いて、その点データによって表される現実空間上の箇所について、その箇所と略同一の箇所を表す第2点群データの点データから算出される特徴量を推定するように訓練されている。前記第2点群データは、第2測距装置を用いて生成され、かつ、現実空間上の複数の箇所それぞれの3次元位置を表す点データの集合である。
【0010】
本開示のコンピュータ可読媒体は、本開示の認識方法をコンピュータに実行させるプログラムを格納している。
【発明の効果】
【0011】
本開示によれば、空間内の複数の箇所それぞれについての3次元位置を表す点群データを用いて、その空間内の箇所の特徴を把握する新たな技術が提供される。
【図面の簡単な説明】
【0012】
【
図1】実施形態1の推定モデル訓練装置の動作の概要を例示する図である。
【
図2】実施形態1の推定モデル訓練装置の機能構成を例示するブロック図である。
【
図3】推定モデル訓練装置を実現するコンピュータのハードウエア構成を例示するブロック図である。
【
図4】実施形態1の推定モデル訓練装置によって実行される処理の流れを例示するフローチャートである。
【
図5】電磁波を利用して点群データを生成する方法を概念的に例示する図である。
【
図6】点群データを用いて物体認識を行うモデルについて、推定モデル70を利用しない場合の処理の流れを例示する図である。
【
図7】推定モデルを利用して物体認識を行う認識装置の構成を例示する図である。
【発明を実施するための形態】
【0013】
以下では、本開示の実施形態について、図面を参照しながら詳細に説明する。各図面において、同一又は対応する要素には同一の符号が付されており、説明の明確化のため、必要に応じて重複説明は省略される。また、特に説明しない限り、所定値や閾値などといった予め定められている値は、その値を利用する装置からアクセス可能な記憶装置などに予め格納されている。さらに、特に説明しない限り、記憶部は、1つ以上の任意の数の記憶装置によって構成される。
【0014】
図1は、実施形態1の推定モデル訓練装置2000の動作の概要を例示する図である。ここで、
図1は、推定モデル訓練装置2000の概要の理解を容易にするための図であり、推定モデル訓練装置2000の動作は、
図1に示したものに限定されない。
【0015】
推定モデル訓練装置2000は、第1計測装置20による計測によって得られた第1点群データ40、及び第2計測装置30による計測によって得られた第2点群データ50を扱う。第1計測装置20と第2計測装置30はいずれも、現実空間上の複数の箇所それぞれまでの距離を計測することで、点群データを生成する。第1計測装置20と第2計測装置30は、例えばいずれも、電磁波を用いて対象物までの距離を計測する測距装置である。このような測距装置の例としては、LiDAR(light detection and ranging)がある。ここで、第1計測装置20と第2計測装置30は互いに異なる装置である。以下、第1計測装置20と第2計測装置30を総称して、計測装置と呼ぶ。
【0016】
点群データは、現実空間上のそれぞれ異なる箇所について、その3次元位置を示す複数の点データの集合である。例えば3次元位置は、計測装置の位置を原点とする仮想空間上の座標として表される。ただし、仮想空間の原点は計測装置の位置に限定されない。1つの点群データに含まれる複数の点データはそれぞれ、互いに異なる箇所の3次元位置を示す。
【0017】
なお、点群データは、第1計測装置20や第2計測装置30から出力される生データであってもよいし、生データに対して任意の加工処理が加えられたものであってもよい。生データに対する加工処理としては、例えば、現実空間上の特定の箇所の位置が仮想空間の原点となるように各点データに対して座標変換を加える処理や、点群データを所定の距離間隔で間引いて軽量化するダウンサンプリング処理などである。
【0018】
第2計測装置30は、第1計測装置20よりも高い精度で(より少ない誤差で)距離の計測を行えるものとする。そのため、例えば、建物などの物体が存在する空間を第1計測装置20と第2計測装置30のそれぞれで計測した場合、第1点群データ40よりも第2点群データ50の方が、当該物体の特徴ををより正確に表すことができる。
【0019】
ここで、点群データを利用すると、計測された各箇所についての特徴量を算出することができる。特徴量の種類としては、例えば、着目する箇所及びその近傍の箇所で表される領域の3次元形状の特徴を表す特徴量(後述する直線性や平面性など)などが挙げられる。その他の特徴量については後述する。
【0020】
ここで前述したように、第1点群データ40よりも第2点群データ50の方が、計測された物体の特徴をより正確に表すことができるため、第1点群データ40から算出される特徴量よりも第2点群データ50から算出される特徴量の方が精度が高い(着目した箇所の特徴をより正確に表している)。しかしながら、精度が高い計測装置の方が価格が高かったり、入手が困難であったりすることが多いため、第2計測装置30ではなく第1計測装置20を利用しなければならない状況も考えられる。
【0021】
そこで推定モデル訓練装置2000は、第2点群データ50を用いて算出される特徴量と同程度の精度の特徴量を第1点群データ40から推定するように、推定モデル70の訓練を行う。推定モデル70には、第1点群データ40に含まれる或る点データ(以下、第1着目点データ)、及びその点データの近傍の点データ(以下、第1近傍点データ)が入力される。第1着目点データによって表される現実世界上の箇所のことを、着目箇所と呼ぶ。ここで、或る点データ p1 が別の点データ p2 の近傍にあるとは、p1 によって表される3次元位置と p2 によって表される3次元位置との間の距離が短い(例えば閾値以下)であることを意味する。なお、第1近傍データは複数存在しうる。そして、推定モデル70は、第1着目点データと第1近傍データが入力されたことに応じ、第2点群データ50を利用した場合に算出されると推定される、着目箇所の特徴量を出力する。
【0022】
上述した推定モデル70の訓練を行うため、推定モデル訓練装置2000は、第1点群データ40及び第2点群データ50を用いて、推定モデル70の訓練に用いる訓練データを生成する。訓練データは、訓練入力データと訓練正解データのペアを含む。訓練入力データは、訓練の際に推定モデル70へ入力されるデータである。訓練正解データは、それとペアになっている訓練入力データが入力された推定モデル70について、理想の出力(推定モデル70が出力すべき出力データ)を表すデータである。
【0023】
訓練入力データには、第1点群データ40から抽出された第1着目点データ及び第1近傍点データが用いられる。また、訓練出力データを生成するために、推定モデル訓練装置2000は、第2点群データ50から、着目箇所を表す点データ(以下、第2着目点データ)及びその近傍の点データ(以下、第2近傍点データ)を抽出する。そして、推定モデル訓練装置2000は、第2着目点データ及び第2近傍点データを用いて着目箇所の特徴量を算出し、この特徴量を正解訓練データとして利用する。
【0024】
このように、推定モデル70は、第1着目点データ及び第1近傍点データを訓練入力データとして用い、かつ、第2着目点データ及び第2近傍点データを用いて算出された特徴量を訓練正解データとして用いて訓練される。これにより、推定モデル70は、第2点群データ50を用いる場合に算出されると推定される特徴量を、第1点群データ40を用いて推定できるようになる。
【0025】
ここで、前述したように、第2点群データ50の精度は第1点群データ40の精度より高いため、第2点群データ50を用いて算出される特徴量は、第1点群データ40を用いて算出される特徴量よりも精度が高い。そのため、推定モデル訓練装置2000によって訓練された推定モデル70を利用することで、精度の低い点群データから精度の高い特徴量を得ることができるようになる。
【0026】
以下、本実施形態の推定モデル訓練装置2000について、より詳細に説明する。
【0027】
<機能構成の例>
図2は、実施形態1の推定モデル訓練装置2000の機能構成を例示するブロック図である。推定モデル訓練装置2000は、取得部2020、訓練データ生成部2040、及び訓練実行部2060を有する。取得部2020は、第1点群データ40及び第2点群データ50を取得する。訓練データ生成部2040は、推定モデル70の訓練に用いる訓練入力データ及び訓練正解データを生成する。訓練実行部2060は、訓練入力データ及び訓練正解データを用いて、推定モデル70の訓練を行う。
【0028】
訓練データ生成部2040は、第1着目点データ、及び第1着目点データの近傍の点データである第1近傍点データを第1点群データ40から抽出し、訓練入力データとして用いる。また、訓練データ生成部2040は、第2点群データ50から、第1着目点データに対応する第2着目点データ、及び第2着目点データの近傍の点データである第2近傍点データを抽出する。そして、訓練データ生成部2040は、第2着目点データ及び第2近傍点データを用いて、第2着目点データによって表される現実空間上の箇所の特徴量を算出し、この特徴量を訓練正解データとして用いる。
【0029】
<ハードウエア構成の例>
推定モデル訓練装置2000の各機能構成部は、各機能構成部を実現するハードウエア(例:ハードワイヤードされた電子回路など)で実現されてもよいし、ハードウエアとソフトウエアとの組み合わせ(例:電子回路とそれを制御するプログラムの組み合わせなど)で実現されてもよい。以下、推定モデル訓練装置2000の各機能構成部がハードウエアとソフトウエアとの組み合わせで実現される場合について、さらに説明する。
【0030】
図3は、推定モデル訓練装置2000を実現するコンピュータ500のハードウエア構成を例示するブロック図である。コンピュータ500は、任意のコンピュータである。例えばコンピュータ500は、PC(Personal Computer)やサーバマシンなどといった、据え置き型のコンピュータである。その他にも例えば、コンピュータ500は、スマートフォンやタブレット端末などといった可搬型のコンピュータである。コンピュータ500は、推定モデル訓練装置2000を実現するために設計された専用のコンピュータであってもよいし、汎用のコンピュータであってもよい。
【0031】
例えば、コンピュータ500に対して所定のアプリケーションをインストールすることにより、コンピュータ500で、推定モデル訓練装置2000の各機能が実現される。上記アプリケーションは、推定モデル訓練装置2000の各機能構成部を実現するためのプログラムで構成される。なお、上記プログラムの取得方法は任意である。例えば、当該プログラムが格納されている記憶媒体(DVD ディスクや USB メモリなど)から、当該プログラムを取得することができる。その他にも例えば、当該プログラムが格納されている記憶装置を管理しているサーバ装置から、当該プログラムをダウンロードすることにより、当該プログラムを取得することができる。
【0032】
コンピュータ500は、バス502、プロセッサ504、メモリ506、ストレージデバイス508、入出力インタフェース510、及びネットワークインタフェース512を有する。バス502は、プロセッサ504、メモリ506、ストレージデバイス508、入出力インタフェース510、及びネットワークインタフェース512が、相互にデータを送受信するためのデータ伝送路である。ただし、プロセッサ504などを互いに接続する方法は、バス接続に限定されない。
【0033】
プロセッサ504は、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、又は FPGA(Field-Programmable Gate Array)などの種々のプロセッサである。メモリ506は、RAM(Random Access Memory)などを用いて実現される主記憶装置である。ストレージデバイス508は、ハードディスク、SSD(Solid State Drive)、メモリカード、又は ROM(Read Only Memory)などを用いて実現される補助記憶装置である。
【0034】
入出力インタフェース510は、コンピュータ500と入出力デバイスとを接続するためのインタフェースである。例えば入出力インタフェース510には、キーボードなどの入力装置や、ディスプレイ装置などの出力装置が接続される。
【0035】
ネットワークインタフェース512は、コンピュータ500をネットワークに接続するためのインタフェースである。このネットワークは、LAN(Local Area Network)であってもよいし、WAN(Wide Area Network)であってもよい。
【0036】
ストレージデバイス508は、推定モデル訓練装置2000の各機能構成部を実現するプログラム(前述したアプリケーションを実現するプログラム)を記憶している。プロセッサ504は、このプログラムをメモリ506に読み出して実行することで、推定モデル訓練装置2000の各機能構成部を実現する。
【0037】
推定モデル訓練装置2000は、1つのコンピュータ500で実現されてもよいし、複数のコンピュータ500で実現されてもよい。後者の場合において、各コンピュータ500の構成は同一である必要はなく、それぞれ異なるものとすることができる。
【0038】
<処理の流れ>
図4は、実施形態1の推定モデル訓練装置2000によって実行される処理の流れを例示するフローチャートである。取得部2020は、第1点群データ40及び第2点群データ50を取得する(S102)。S104からS110は、所定の終了条件を満たすまで繰り返し実行されるループ処理L1を構成する。S104において、推定モデル訓練装置2000は、終了条件が満たされているか否かを判定する。終了条件が満たされている場合、
図4の処理は終了する。一方、終了条件が満たされていない場合、
図4の処理はS106に進む。
【0039】
訓練データ生成部2040は訓練データを生成する(S106)。ここで、訓練データの生成に用いる第1着目点データには、ループL1を実行する度に異なるものが用いられる。訓練実行部2060は、生成した訓練データを利用して推定モデル70の訓練を行う(S108)。S110はループ処理L1の終端であるため、
図4の処理はS104に進む。
【0040】
推定モデル70の訓練を終了する条件(ループL1の終了条件)は任意である。例えば終了条件は、ループL1の実行回数が所定の回数に達したことである。その他にも例えば、終了条件は、第1点群データ40に含まれる点データのうち、「その点データと略同一の現実空間上の箇所を表す点データが第2点群データ50にも含まれる(後述する対応点データが存在する)」という条件を満たす点データの全てを対象として(第1着目点データとして扱って)、推定モデル70の訓練が行われたことである。
【0041】
なお、ここでは、S102において第1点群データ40と第2点群データ50のペアが1つ取得されるケースが例示されている。しかしながら、S102において取得される第1点群データ40と第2点群データ50のペアは、複数あってもよい。この場合、例えば推定モデル訓練装置2000は、これら複数のペアごとにループ処理L1を実行する。このように複数のペアを利用して推定モデル70の訓練を行うことで、推定モデル70の精度をより高くすることができる。
【0042】
<点群データについて>
計測装置は、例えば、レーザ光などの電磁波を利用して、現実空間上の複数の箇所それぞれの3次元位置を計測する。具体的には、計測装置は、それぞれ異なる複数の方向へ電磁波を出射し、各電磁波について、その電磁波が物体によって反射されたものである反射波を受信する。そして、計測装置は、出射された電磁波とその反射波との関係から、その電磁波を反射した箇所の3次元位置を表す点データを生成する。
【0043】
図5は、電磁波を利用して点群データを生成する方法を概念的に例示する図である。点線の矢印は、計測装置200から出射される電磁波を表している。バツ印は、電磁波を反射した箇所を表している。
【0044】
図5において、電磁波の出射方向は、電磁波が通過するマスの位置によって表されている。具体的には、横方向についての出射方向を表すインデックス i と、縦方向についての出射方向を表すインデックス j とを用いることで、電磁波の出射方向が (i,j) と表現される。
【0045】
図5において、電磁波の出射方向は、横方向について n 通りあり、縦方向について m 通りある。このことから、計測装置200は、それぞれ異なる n*m 通りの方向に対して電磁波を出射する。よって、この計測装置200によれば、n*m 個の点データを持つ点群データが得られる。言い換えれば、当該計測装置200の解像度は n*m である。
【0046】
ここで、方向 (i,j) に出射された電磁波によって得られる点データを、p[i][j] と表す。p[i][j] は、方向 (i,j) へ出射された電磁波を反射した箇所について、仮想空間上の3次元位置を表す。この表記によれば、点群データ P を P={p[i][j]|1<=i<=n,1<=j<=m} と表記することができる。なお、ここで説明した表記方法は、以降の説明を容易にするための一例であり、点データや点群データの表記方法はここで説明した方法に限定されない。
【0047】
<点群データの取得:S102>
取得部2020は、第1点群データ40及び第2点群データ50を取得する(S102)。取得部2020がこれらの点群データを取得する方法は様々である。例えば第1点群データ40及び第2点群データ50は、推定モデル訓練装置2000からアクセス可能な記憶部に予め格納されている。取得部2020は、この記憶部にアクセスすることで、第1点群データ40及び第2点群データ50を取得する。
【0048】
その他にも例えば、第1点群データ40及び第2点群データ50は、ユーザ操作に応じて推定モデル訓練装置2000に入力されてもよい。例えばユーザは、第1点群データ40及び第2点群データ50が格納されている可搬型の記憶部(メモリカードなど)を推定モデル訓練装置2000に接続し、当該記憶部から推定モデル訓練装置2000に対して第1点群データ40及び第2点群データ50を入力する。
【0049】
その他にも例えば、取得部2020は、他の装置から送信される第1点群データ40及び第2点群データ50を受信することで、第1点群データ40及び第2点群データ50を取得してもよい。例えば当該他の装置は、計測装置や、計測装置によって生成された生データを加工して第1点群データ40及び第2点群データ50を生成する装置などである。
【0050】
なお、第1点群データ40と第2点群データ50の取得方法は、互いに同一であってもよいし、互いに異なってもよい。
【0051】
<点群データの位置合わせ>
推定モデル訓練装置2000は、第1点群データ40と第2点群データ50との間で位置合わせを行う。ここでいう位置合わせとは、第1点群データ40と第2点群データ50との間で、現実空間上の同一の箇所を互いに表している点データの組み合わせを特定することを意味する。位置合わせにより、第1点群データ40と第2点群データ50との間で、現実空間上の略同一の箇所を互いに表している点データの対応付けが得られる。2つの箇所が略同一であるとは、これらの箇所の間の距離が十分に短い(例えば閾値以下である)ことを意味する。なお、2つの点群データの位置合わせを行う技術には、既存の種々の技術を利用することができる。
【0052】
例えば、第1点群データ40を P={p[i][j]|1<=i<=N1,1<=j<=M1} と表記し、第2点群データ50を Q={q[i][j]|1<=i<=N21<=j<=M2} と表記する。そして、第1点群データ40に含まれる点データ p[i][j] と第2点群データ50に含まれる点データ q[k][l] とが、現実世界において互いに略同一の箇所を表しているとする。この場合、位置合わせにより、p[i][j] と q[k][l] が互いに対応づけられる。以下、第1点群データ40の或る点データ p が表す現実世界上の箇所と略同一の箇所を表す第2点群データ50の点データ q のことを、点データ p の対応点データと呼ぶ。同様に、点データ p を点データ q の対応点データと呼ぶ。
【0053】
<訓練データの生成:S106>
訓練データ生成部2040は、第1計測装置20及び第1点群データ40を用いて訓練データを生成する(S106)。前述したように、訓練データは、訓練入力データと訓練正解データのペアを含む。
【0054】
訓練入力データには、第1点群データ40に含まれる複数の点データが用いられる。より具体的には、まず訓練データ生成部2040は、第1点群データ40から任意に1つの点データを、第1着目点データとして抽出する。さらに訓練データ生成部2040は、第1点群データ40から、第1着目点データの近傍の点データである第1近傍点データを1つ以上抽出する。以下、第1着目点データと第1近傍点データのセットを、第1近傍点群と呼ぶ。訓練データ生成部2040は、抽出された第1近傍点群を、訓練入力データとして扱う。なお、2つの点データが互いに近傍にあるとは、これらの点データによって表される3次元位置が互いに近い場所に位置していることを意味する。
【0055】
例えば訓練データ生成部2040は、第1点群データ40に含まれる点データのうち、第1着目点データからの距離の昇順で所定順位以内にある各データを、第1近傍点データとして抽出する。ここで、点データ間の距離とは、点データによって表されている3次元位置の間の距離を意味する。その他にも例えば、訓練実行部2060は、第1着目点データからの距離が所定距離以内の範囲に位置する各点データを、第1近傍点データとして抽出する。
【0056】
訓練正解データの生成には、第1着目点データに対応する第2点群データ50の点データである第2着目点データ、及びその近傍の点データである第2近傍点データが利用される。第2着目点データは第1着目点データに対応する点データであるため、第2着目点データによって表される現実空間上の箇所は、着目箇所と略同一の箇所である。
【0057】
訓練正解データを生成するために、まず訓練データ生成部2040は、第2点群データ50から第2着目点データを抽出する。ここで、第1着目点データに対応する第2点群データ50内の点データは、前述した位置合わせの結果から特定することができる。さらに訓練データ生成部2040は、第2着目点データの近傍の点データを、第2近傍点データとして抽出する。ここで、第2着目点データに基づいて第2近傍点データを得る方法には、第1着目点データに基づいて第1近傍点データを得る方法と同様の方法を利用することができる。
【0058】
訓練データ生成部2040は、第2着目点データと第2近傍点データのセット(以下、第2近傍点群)を利用して、着目箇所の特徴量を算出する。ここで、点データを利用して算出する特定の箇所の特徴量には、様々なものを採用することができる。以下、特徴量についていくつかの具体例を説明する。
【0059】
例えば着目箇所の特徴量には、物体認識に有用な形状の特徴(以下、形状特徴)を表す情報を利用することができる。例えば形状特徴は、直線性、平面性、立体性、又は鉛直性などである。直線性は、直線に近い度合いを表す。平面性は、平面に近い度合いを表す。立体性は、平面ではない度合い(平面性が低い度合い)を表す。鉛直性とは、鉛直方向を向いている度合いを表す。
【0060】
これらの形状特徴は、例えば、第2近傍点群に対して主成分分析を適用することで得られる分散共分散行列を利用して算出することができる。ここで、上述した分散共分散行列を C とおき、C の固有値をλ1、λ2、及びλ3 とおく(λ1≧λ2≧λ3)。さらに、λ1、λ2、及びλ3 に対応する固有ベクトルをそれぞれ、v1、v2、及び v3 とおく。これらを用いると、前述した形状特徴それぞれ、以下のように算出することができる。
・直線性:(λ1-λ2)/λ1
・平面性:(λ2-λ3)/λ1
・立体性:λ3/λ1
・鉛直性:ベクトル λ1|v1|+λ2|v2|+λ3|v3| を単位ベクトルに正規化した際の z 成分
ここで、|v|は、ベクトル v の各成分に絶対値演算を適用して得られるベクトルを表す。なお、λ1からλ3には、固有値の代わりに、固有値の平方根が用いられてもよい。
【0061】
その他にも例えば、入力された近傍点群から特徴量を抽出して何らかの処理を行う訓練済みモデルが存在する場合、訓練データ生成部2040は、この訓練済みモデルを利用して着目箇所の特徴量を算出してもよい。具体的には、訓練データ生成部2040は、第2近傍点群をこの訓練済みモデルに対して入力し、そのモデルによって抽出される特徴量を、着目箇所の特徴量として利用する。例えばこのような訓練済みモデルとしては、点群データによって表されている物体を認識する認識モデルを利用することができる。例えばこのような認識モデルには PointNet(非特許文献1参照)などが挙げられる。
【0062】
その他にも例えば、訓練データ生成部2040は、第2計測装置30によって生成された点群データを利用して訓練された訓練済みのオートエンコーダを用いて、第2近傍点群から特徴量を抽出してもよい。訓練済みのオートエンコーダのエンコーダからの出力は、入力されたデータの特徴量として扱うことができる。そこで、訓練データ生成部2040は、第2近傍点群をオートエンコーダに入力した際にエンコーダから出力される特徴量を、着目箇所の特徴量として利用する。ここで、オートエンコーダの訓練は予め行っておく。
【0063】
<推定モデル70の訓練:S108>
訓練実行部2060は、訓練データを利用して推定モデル70の訓練を行う(S108)。ここで、訓練入力データと訓練正解データとのペアを用いてモデルの訓練を行う技術には、既存の種々の技術を利用することができる。例えば予め、訓練に利用する損失関数を定義しておく。訓練実行部2060は、訓練入力データを推定モデル70に入力して、推定モデル70から出力データを得る。訓練実行部2060は、この出力データと訓練正解データを損失関数に入力することで、損失を算出する。そして、訓練実行部2060は、算出された損失に基づいて、推定モデル70のパラメータ群(例えば、ニューラルネットワークの各エッジの重みやバイアス)を更新する。
【0064】
ここで、推定モデル70には、ニューラルネットワークなどといった、任意の機械学習モデルを利用することができる。点群データを入力として受け取るニューラルネットワークとしては、例えば、PointNet などが挙げられる。
【0065】
<推定モデル70の出力>
推定モデル訓練装置2000は、訓練済みの推定モデル70を特定可能な情報(以下、出力情報)を出力する。出力情報には、少なくとも、訓練によって得られたパラメータ群が含まれる。これに加え、出力情報には、推定モデル70を実現するプログラムが含まれていてもよい。
【0066】
出力情報の出力態様は任意である。例えば推定モデル訓練装置2000は、出力情報を任意の記憶部に格納する。その他にも例えば、推定モデル訓練装置2000は、出力情報を他の装置(例えば、推定モデル70の運用に利用される装置)へ送信する。
【0067】
<推定モデル70の利用方法の一例>
推定モデル70の利用方法について、その具体例を説明する。例えば推定モデル70は、点群データを用いた物体認識に利用される。
図6は、点群データを用いて物体認識を行うモデルについて、推定モデル70を利用しない場合の処理の流れを例示する図である。以下、このモデルのことを、認識モデルと呼ぶ。まず、認識モデルに対し、点群データが入力される。認識モデルは、点群データを用いて、各箇所の特徴量を算出する。そして、認識モデルは、各箇所の特徴量を用いて、物体の認識を行う。その結果、物体の種類を表すラベルが出力される。なお、認識モデルは、点群データから1つの物体を認識するモデルであってもよいし、点群データを同一の物体を表すセグメントごとに分割し、各セグメントについて物体認識を行うモデルであってもよい。
【0068】
ここで、認識モデルに対して第1計測装置20によって生成された第1点群データ40を入力したとする。前述したように、第1計測装置20の計測の精度は第2計測装置30の計測の精度よりも低いため、第1点群データ40から算出される特徴量の精度は、第2点群データ50から算出される特徴量の精度よりも低くなる。そのため、特徴量の算出が認識モデルを利用して行われる場合、第1点群データ40を認識モデルに入力することで得られる物体認識の結果は、第2点群データ50を認識モデルに入力することで得られる物体認識の結果の精度よりも低くなる。
【0069】
そこで、認識モデルを利用して特徴量の算出を行う代わりに、推定モデル70を利用して特徴量の算出を行い、その特徴量を利用して物体認識を行うようにする。
図7は、推定モデル70を利用して物体認識を行う認識装置3000の機能構成を例示する図である。認識装置3000は、取得部3020、特徴量推定部3040、及び認識実行部3060を有する。
【0070】
取得部3020は、第1点群データ40を取得する。特徴量推定部3040は、推定モデル70を利用して、第1点群データ40から、各箇所の特徴量を推定する。より具体的には、特徴量推定部3040は、第1着目点データを変えながら(第1点群データ40に含まれる各点を順次第1着目点データとして扱って)、第1点群データ40から第1近傍点群を抽出し、各第1近傍点群を推定モデル70に入力する。これにより、各箇所についての特徴量が推定モデル70から得られる。認識実行部3060は、各箇所について推定モデル70から得られた特徴量を利用して、物体認識を行う。
【0071】
このように、推定モデル70を用いて第1点群データ40から特徴量を推定し、その特徴量を用いて物体認識を行うことにより、第2点群データ50を利用した場合と同程度の精度の物体認識を、第1点群データ40を用いて実現することができる。なお、特徴量を利用して物体認識を行う具体的な技術には、種々の既存の技術を利用することができる。
【0072】
認識装置3000のハードウエア構成は、推定モデル訓練装置2000のハードウエア構成と同様に、例えば
図3で表すことができる。
【0073】
なお、推定モデル70を利用するシチュエーションは、物体認識に限定されない。推定モデル70は、「点群データから特徴量を算出し、その特徴量を利用して何らかの処理を行う」という任意のシチュエーションで、第1点群データ40から特徴量を得るために利用することができる。こうすることで、第1点群データ40から得た特徴量を利用する処理の精度を、第2点群データ50から特徴量を得た場合と同等の精度とすることができる。
【0074】
以上、実施の形態を参照して本願発明を説明したが、本願発明は上記実施形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
【0075】
なお、上述の例において、プログラムは、コンピュータに読み込まれた場合に、実施形態で説明された1又はそれ以上の機能をコンピュータに行わせるための命令群(又はソフトウェアコード)を含む。プログラムは、非一時的なコンピュータ可読媒体又は実体のある記憶媒体に格納されてもよい。限定ではなく例として、コンピュータ可読媒体又は実体のある記憶媒体は、random-access memory(RAM)、read-only memory(ROM)、フラッシュメモリ、solid-state drive(SSD)又はその他のメモリ技術、CD-ROM、digital versatile disc(DVD)、Blu-ray(登録商標)ディスク又はその他の光ディスクストレージ、磁気カセット、磁気テープ、磁気ディスクストレージ又はその他の磁気ストレージデバイスを含む。プログラムは、一時的なコンピュータ可読媒体又は通信媒体上で送信されてもよい。限定ではなく例として、一時的なコンピュータ可読媒体又は通信媒体は、電気的、光学的、音響的、またはその他の形式の伝搬信号を含む。
【0076】
上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
(付記1)
第1測距装置を用いて生成され、かつ、現実空間上の複数の箇所それぞれの3次元位置を表す点データの集合である第1点群データと、第2の測距装置を用いて生成され、かつ、現実空間上の複数の箇所それぞれの3次元位置を表す点データの集合である第2点群データとを取得する取得部と、
前記第1点群データと前記第2点群データを利用して訓練データを生成する訓練データ生成部と、
前記訓練データを利用して推定モデルの訓練を行う訓練実行部と、を有し、
前記推定モデルは、前記第1点群データに含まれる点データを用いて、その点データによって表される現実空間上の箇所について、その箇所と略同一の箇所を表す前記第2点群データの点データから算出される特徴量を推定するモデルである、推定モデル訓練装置。
(付記2)
前記訓練データ生成部は、
前記第1点群データから、第1着目点データと、前記第1着目点データの近傍の点データである1つ以上の第1近傍点データとを抽出し、
前記第2点群データから、前記第1着目点データによって表される現実空間の着目箇所と略同一の箇所を表す点データである第2着目点データと、前記第2着目点データの近傍の点データである1つ以上の第2近傍点データとを抽出し、
前記第2着目点データ及び前記1つ以上の第2近傍点データを用いて、前記着目箇所の特徴量を算出し、
訓練の際に前記推定モデルに対して入力される訓練入力データとして、前記第1着目点データ及び前記1つ以上の第1近傍点データを示し、なおかつ、前記訓練入力データが入力されたことに応じて前記推定モデルから出力されるべきデータを表す訓練正解データとして、前記着目箇所の特徴量を示す前記訓練データを生成する、付記1に記載の推定モデル訓練装置。
(付記3)
前記訓練データ生成部は、前記着目箇所の3次元形状の特徴を表す値を、前記着目箇所の特徴量として算出する、付記2に記載の推定モデル訓練装置。
(付記4)
前記訓練データ生成部は、点群データから特徴量を算出して物体認識を行う認識モデルに対し、前記第2着目点データ及び前記1つ以上の第2近傍点データを入力し、その入力に応じて前記認識モデルによって算出された特徴量を、前記着目箇所の特徴量として用いる、付記2に記載の推定モデル訓練装置。
(付記5)
前記訓練データ生成部は、前記第2点群データを用いて訓練されたオートエンコーダに対し、前記第2着目点データ及び前記1つ以上の第2近傍点データを入力し、その入力に応じてオートエンコーダが行うエンコードによって得られる値を、前記着目箇所の特徴量として用いる、付記2に記載の推定モデル訓練装置。
(付記6)
コンピュータによって実行される推定モデル訓練方法であって、
第1測距装置を用いて生成され、かつ、現実空間上の複数の箇所それぞれの3次元位置を表す点データの集合である第1点群データと、第2の測距装置を用いて生成され、かつ、現実空間上の複数の箇所それぞれの3次元位置を表す点データの集合である第2点群データとを取得する取得ステップと、
前記第1点群データと前記第2点群データを利用して訓練データを生成する訓練データ生成ステップと、
前記訓練データを利用して推定モデルの訓練を行う訓練実行ステップと、を有し、
前記推定モデルは、前記第1点群データに含まれる点データを用いて、その点データによって表される現実空間上の箇所について、その箇所と略同一の箇所を表す前記第2点群データの点データから算出される特徴量を推定するモデルである、推定モデル訓練方法。
(付記7)
前記訓練データ生成ステップにおいて、
前記第1点群データから、第1着目点データと、前記第1着目点データの近傍の点データである1つ以上の第1近傍点データとを抽出し、
前記第2点群データから、前記第1着目点データによって表される現実空間の着目箇所と略同一の箇所を表す点データである第2着目点データと、前記第2着目点データの近傍の点データである1つ以上の第2近傍点データとを抽出し、
前記第2着目点データ及び前記1つ以上の第2近傍点データを用いて、前記着目箇所の特徴量を算出し、
訓練の際に前記推定モデルに対して入力される訓練入力データとして、前記第1着目点データ及び前記1つ以上の第1近傍点データを示し、なおかつ、前記訓練入力データが入力されたことに応じて前記推定モデルから出力されるべきデータを表す訓練正解データとして、前記着目箇所の特徴量を示す前記訓練データを生成する、付記6に記載の推定モデル訓練方法。
(付記8)
前記訓練データ生成ステップにおいて、前記着目箇所の3次元形状の特徴を表す値を、前記着目箇所の特徴量として算出する、付記7に記載の推定モデル訓練方法。
(付記9)
前記訓練データ生成ステップにおいて、点群データから特徴量を算出して物体認識を行う認識モデルに対し、前記第2着目点データ及び前記1つ以上の第2近傍点データを入力し、その入力に応じて前記認識モデルによって算出された特徴量を、前記着目箇所の特徴量として用いる、付記7に記載の推定モデル訓練方法。
(付記10)
前記訓練データ生成ステップにおいて、前記第2点群データを用いて訓練されたオートエンコーダに対し、前記第2着目点データ及び前記1つ以上の第2近傍点データを入力し、その入力に応じてオートエンコーダが行うエンコードによって得られる値を、前記着目箇所の特徴量として用いる、付記7に記載の推定モデル訓練方法。
(付記11)
プログラムが格納されている非一時的なコンピュータ可読媒体であって、
前記プログラムは、コンピュータに、
第1測距装置を用いて生成され、かつ、現実空間上の複数の箇所それぞれの3次元位置を表す点データの集合である第1点群データと、第2の測距装置を用いて生成され、かつ、現実空間上の複数の箇所それぞれの3次元位置を表す点データの集合である第2点群データとを取得する取得ステップと、
前記第1点群データと前記第2点群データを利用して訓練データを生成する訓練データ生成ステップと、
前記訓練データを利用して推定モデルの訓練を行う訓練実行ステップと、を実行させ、
前記推定モデルは、前記第1点群データに含まれる点データを用いて、その点データによって表される現実空間上の箇所について、その箇所と略同一の箇所を表す前記第2点群データの点データから算出される特徴量を推定するモデルである、非一時的なコンピュータ可読媒体。
(付記12)
前記訓練データ生成ステップにおいて、
前記第1点群データから、第1着目点データと、前記第1着目点データの近傍の点データである1つ以上の第1近傍点データとを抽出し、
前記第2点群データから、前記第1着目点データによって表される現実空間の着目箇所と略同一の箇所を表す点データである第2着目点データと、前記第2着目点データの近傍の点データである1つ以上の第2近傍点データとを抽出し、
前記第2着目点データ及び前記1つ以上の第2近傍点データを用いて、前記着目箇所の特徴量を算出し、
訓練の際に前記推定モデルに対して入力される訓練入力データとして、前記第1着目点データ及び前記1つ以上の第1近傍点データを示し、なおかつ、前記訓練入力データが入力されたことに応じて前記推定モデルから出力されるべきデータを表す訓練正解データとして、前記着目箇所の特徴量を示す前記訓練データを生成する、付記11に記載のコンピュータ可読媒体。
(付記13)
前記訓練データ生成ステップにおいて、前記着目箇所の3次元形状の特徴を表す値を、前記着目箇所の特徴量として算出する、付記12に記載のコンピュータ可読媒体。
(付記14)
前記訓練データ生成ステップにおいて、点群データから特徴量を算出して物体認識を行う認識モデルに対し、前記第2着目点データ及び前記1つ以上の第2近傍点データを入力し、その入力に応じて前記認識モデルによって算出された特徴量を、前記着目箇所の特徴量として用いる、付記12に記載のコンピュータ可読媒体。
(付記15)
前記訓練データ生成ステップにおいて、前記第2点群データを用いて訓練されたオートエンコーダに対し、前記第2着目点データ及び前記1つ以上の第2近傍点データを入力し、その入力に応じてオートエンコーダが行うエンコードによって得られる値を、前記着目箇所の特徴量として用いる、付記12に記載のコンピュータ可読媒体。
(付記16)
第1測距装置を用いて生成され、かつ、現実空間上の複数の箇所それぞれの3次元位置を表す点データの集合である第1点群データを取得する取得部と、
前記第1点群データを推定モデルに入力することで、現実空間上の各箇所の特徴量を推定する特徴量推定部と、
前記推定された特徴量を用いて、現実空間上の物体の認識を行う認識実行部と、を有し、
前記推定モデルは、前記第1点群データに含まれる点データを用いて、その点データによって表される現実空間上の箇所について、その箇所と略同一の箇所を表す第2点群データの点データから算出される特徴量を推定するように訓練されており、
前記第2点群データは、第2測距装置を用いて生成され、かつ、現実空間上の複数の箇所それぞれの3次元位置を表す点データの集合である、認識装置。
(付記17)
コンピュータによって実行される認識方法であって、
第1測距装置を用いて生成され、かつ、現実空間上の複数の箇所それぞれの3次元位置を表す点データの集合である第1点群データを取得する取得ステップと、
前記第1点群データを推定モデルに入力することで、現実空間上の各箇所の特徴量を推定する特徴量推定ステップと、
前記推定された特徴量を用いて、現実空間上の物体の認識を行う認識実行ステップと、を有し、
前記推定モデルは、前記第1点群データに含まれる点データを用いて、その点データによって表される現実空間上の箇所について、その箇所と略同一の箇所を表す第2点群データの点データから算出される特徴量を推定するように訓練されており、
前記第2点群データは、第2測距装置を用いて生成され、かつ、現実空間上の複数の箇所それぞれの3次元位置を表す点データの集合である、認識方法。
(付記18)
プログラムが格納されている非一時的なコンピュータ可読媒体であって、
前記プログラムは、コンピュータに、
第1測距装置を用いて生成され、かつ、現実空間上の複数の箇所それぞれの3次元位置を表す点データの集合である第1点群データを取得する取得ステップと、
前記第1点群データを推定モデルに入力することで、現実空間上の各箇所の特徴量を推定する特徴量推定ステップと、
前記推定された特徴量を用いて、現実空間上の物体の認識を行う認識実行ステップと、実行させ、
前記推定モデルは、前記第1点群データに含まれる点データを用いて、その点データによって表される現実空間上の箇所について、その箇所と略同一の箇所を表す第2点群データの点データから算出される特徴量を推定するように訓練されており、
前記第2点群データは、第2測距装置を用いて生成され、かつ、現実空間上の複数の箇所それぞれの3次元位置を表す点データの集合である、非一時的なコンピュータ可読媒体。
【符号の説明】
【0077】
20 第1計測装置
30 第2計測装置
40 第1点群データ
50 第2点群データ
70 推定モデル
200 計測装置
500 コンピュータ
502 バス
504 プロセッサ
506 メモリ
508 ストレージデバイス
510 入出力インタフェース
512 ネットワークインタフェース
2000 推定モデル訓練装置
2020 取得部
2040 訓練データ生成部
2060 訓練実行部
3000 認識装置
3020 取得部
3040 特徴量推定部
3060 認識実行部