IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ KDDI株式会社の特許一覧

特開2024-175366点群選択装置、点群選択方法及びプログラム
<>
  • 特開-点群選択装置、点群選択方法及びプログラム 図1
  • 特開-点群選択装置、点群選択方法及びプログラム 図2
  • 特開-点群選択装置、点群選択方法及びプログラム 図3
  • 特開-点群選択装置、点群選択方法及びプログラム 図4
  • 特開-点群選択装置、点群選択方法及びプログラム 図5
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024175366
(43)【公開日】2024-12-18
(54)【発明の名称】点群選択装置、点群選択方法及びプログラム
(51)【国際特許分類】
   G06T 17/00 20060101AFI20241211BHJP
【FI】
G06T17/00
【審査請求】未請求
【請求項の数】17
【出願形態】OL
(21)【出願番号】P 2023093101
(22)【出願日】2023-06-06
【国等の委託研究の成果に係る記載事項】(出願人による申告)令和4年度、国立研究開発法人情報通信研究機構「革新的情報通信技術研究開発委託研究/Beyond 5G網におけるホログラフィ通信のための高効率圧縮伝送技術の研究開発」、産業技術力強化法第17条の適用を受ける特許出願
(71)【出願人】
【識別番号】000208891
【氏名又は名称】KDDI株式会社
(74)【代理人】
【識別番号】110001564
【氏名又は名称】フェリシテ弁理士法人
(72)【発明者】
【氏名】松崎 康平
【テーマコード(参考)】
5B080
【Fターム(参考)】
5B080AA00
5B080AA17
5B080BA00
5B080DA06
(57)【要約】
【課題】物体の表面の復元において高い復元精度を実現可能なモデルを生成すること。
【解決手段】本発明に係る点群選択装置100は、点群から関心点を選択する関心点選択部12と、点群から特徴を抽出する特徴抽出部14と、特徴から関心点に関する特徴を生成する特徴生成部16と、関心点に関する特徴に基づいて点群から一部の点を選択する点群選択部18とを有する。
【選択図】図1
【特許請求の範囲】
【請求項1】
点群選択装置であって、
点群から関心点を選択する関心点選択部と、
前記点群から特徴を抽出する特徴抽出部と、
前記特徴から前記関心点に関する特徴を生成する特徴生成部と、
前記関心点に関する特徴に基づいて前記点群から一部の点を選択する点群選択部と、を有することを特徴とする点群選択装置。
【請求項2】
前記関心点から前記点群の各点までの距離に応じた重みを計算する距離重み計算部と、
前記重みと前記特徴とから重み付き特徴を計算する重み付き特徴計算部と、を有し、
前記特徴生成部は、前記特徴と前記重み付き特徴とを結合することで、前記関心点に関する特徴を生成することを特徴とする請求項1に記載の点群選択装置。
【請求項3】
前記関心点に関する特徴から選択確率を予測する確率予測部を更に有し、
前記点群選択部は、前記選択確率を用いて、前記点群から一部の点を選択することを特徴とする請求項1に記載の点群選択装置。
【請求項4】
前記点群から分割された点群を生成する点群分割部と、
前記分割された点群から個別に選択した点群の和集合を取ることで選択された点群を構築する選択点群構築部と、
前記選択された点群を用いて、物体の表面の復元を行う表面復元部と、を有することを特徴とする請求項1に記載の点群選択装置。
【請求項5】
前記点群分割部は、前記点群からの反復的な点の選択によって、前記分割された点群を生成することを特徴とする請求項4に記載の点群選択装置。
【請求項6】
前記関心点に関する特徴から選択確率を予測する確率予測部と、
前記確率予測部で予測された前記選択確率、前記点群選択部で選択された前記一部の点、前記関心点選択部で選択された関心点、及び、前記表面復元部で復元された情報の少なくとも一部を用いて損失を計算して、モデルを訓練するモデル訓練部と、を有することを特徴とする請求項4に記載の点群選択装置。
【請求項7】
前記モデル訓練部は、前記モデルとして、点群の選択のためのモデル及び物体の表面の復元のためのモデルを併用することを特徴とする請求項6に記載の点群選択装置。
【請求項8】
前記モデル訓練部は、前記点群の選択のためのモデル及び前記物体の表面の復元のためのモデルを、同時又は交互に最適化することを特徴とする請求項7に記載の点群選択装置。
【請求項9】
前記モデル訓練部は、前記点群選択のためのモデル及び前記物体の表面の復元のためのモデルの両方又は一方のみを最適化することを特徴とする請求項7に記載の点群選択装置。
【請求項10】
初期点群選択部を更に有し、
前記関心点選択部及び前記特徴抽出部に入力される前記点群は、前記初期点によって任意の選択方法で選択された点群であることを特徴とする請求項1に記載の点群選択装置。
【請求項11】
前記点群選択部で選択された前記一部の点及び前記関心点選択部で選択された関心点の少なくとも一部を用いて損失を計算して、モデルを訓練するモデル訓練部を有し、
前記関心点選択部は、前記モデル訓練部による前記モデルの訓練の前に、前記関心点を選択し、前記モデルの訓練時には、前記関心点の選択結果を読み込むことを特徴とする請求項1に記載の点群選択装置。
【請求項12】
前記点群選択部で選択された前記一部の点及び前記関心点選択部で選択された関心点の少なくとも一部を用いて損失を計算して、モデルを訓練するモデル訓練部を有し、
前記距離重み計算部は、前記モデル訓練部による前記モデルの訓練の前に、前記重みを計算し、前記モデルの訓練時には、前記重みの計算結果を読み込むことを特徴とする請求項2に記載の点群選択装置。
【請求項13】
前記点群選択部で選択された前記一部の点、前記関心点選択部で選択された関心点、及び、前記表面復元部で復元された情報の少なくとも一部を用いて損失を計算して、モデルを訓練するモデル訓練部を有し、
前記点群分割部は、前記モデル訓練部による前記モデルの訓練の前に、前記分割された点群を生成し、前記モデルの訓練時には、前記分割された点群の生成結果を読み込むことを特徴とする請求項4に記載の点群選択装置。
【請求項14】
点群選択装置であって、
点群から関心点を選択する関心点選択部と、
訓練済みのモデルを用いて物体の表面の復元を行う表面復元部と、を有し、
前記表面復元部は、前記物体の表面の復元を行う際に、前記関心点の近くに位置するクエリ点に対する予測結果を選択することを特徴とする点群選択装置。
【請求項15】
前記関心点選択部は、前記表面復元部による前記物体の表面の復元の前に、前記関心点を選択し、前記物体の表面の復元時には、前記関心点の選択結果を読み込むことを特徴とする請求項14に記載の点群選択装置。
【請求項16】
点群選択方法であって、
点群から関心点を選択する工程と、
前記点群から特徴を抽出する工程と、
前記特徴から前記関心点に関する特徴を生成する工程と、
前記関心点に関する特徴に基づいて前記点群から一部の点を選択する工程と、を有することを特徴とする点群選択方法。
【請求項17】
コンピュータを、点群選択装置として機能させるプログラムであって、
前記点群選択装置は、
点群から関心点を選択する関心点選択部と、
前記点群から特徴を抽出する特徴抽出部と、
前記特徴から前記関心点に関する特徴を生成する特徴生成部と、
前記関心点に関する特徴に基づいて前記点群から一部の点を選択する点群選択部と、を有することを特徴とするプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、点群選択装置、点群選択方法及びプログラムに関する。
【背景技術】
【0002】
従来から、INR(Implicit Neural Representation)に基づく深層学習モデルを用いて点群から物体の表面を復元する技術が知られている(例えば、非特許文献1参照)。かかる技術では、通常、入力点群の密度が高いほど、物体の表面を高精度に復元することができる。
【0003】
ただし、上述の深層学習モデルの訓練時と推論時とで、入力点群の密度が異なる場合、データ分布の差異によって高い復元精度が得られない可能性がある。
【0004】
そのため、上述の深層学習モデルの推論時に高密度な点群を入力とする場合、上述の深層学習モデルの訓練時にも高密度な点群を入力とすることが望ましい。
【0005】
しかしながら、入力点群の密度を高めるほど、データ量が大きくなるため、上述の深層学習モデルの訓練時に使用するGPUのメモリ制限を超過する恐れがある。
【0006】
深層学習モデルの訓練時には、学習を安定させるためにミニバッチ学習法と呼ばれる複数のデータを一括で処理する手法が一般的に使用される。
【0007】
また、深層学習モデルの訓練時には、誤差逆伝搬法に基づいて深層学習モデルを更新するために、目的関数に対するモデルパラメータの勾配を計算する必要がある。そのため、深層学習モデルの訓練時には、深層学習モデルの推論時に比べて、点群一つあたりに使用可能なメモリ容量が更に制限される可能性がある。
【先行技術文献】
【非特許文献】
【0008】
【非特許文献1】A. Boulch and M. Renaud, "Poco: Point convolution for surface reconstruction," Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2022
【非特許文献2】I. Lang, A. Manor, and S. Avidan, "Samplenet: Differentiable point cloud sampling," Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2020.
【非特許文献3】R. A. Potamias, G. Bouritsas, and S. Zafeiriou, "Revisiting point cloud simplification: A learnable feature preserving approach," Computer Vision-ECCV 2022: 17th European Conference, Tel Aviv, Israel, October 23-27, 2022, Proceedings, Part II. Cham: Springer Nature Switzerland, 2022.
【発明の概要】
【発明が解決しようとする課題】
【0009】
点群のデータ量を削減するための前処理として、入力点群から無作為に指定個数の点を選択するランダムサンプリング法が広く利用されている。
【0010】
また、指定個数の点を空間的に一様に選択するFPS(Farthest Point Sampling)法も同様に広く利用されている。
【0011】
しかしながら、これらの手法によって選択された点群は、局所的な形状の情報を失う。そのため、そのような点群を用いてINRに基づく深層学習モデルを訓練した場合、物体の表面の復元において高い復元精度が得られない可能性があるという問題点があった。
【0012】
非特許文献2では、任意のタスクに対する性能を維持しつつ点群をサンプリングする技術が開示されている。
【0013】
しかしながら、非特許文献2に開示されている技術では、タスクに対する訓練済みのモデルを必要とするため、サンプリングされた点群をINRに基づく深層学習モデルの訓練に用いることはできないという問題点があった。
【0014】
非特許文献3では、入力点群から、より少数の点で構成された点群を生成する技術が開示されている。かかる技術によって得られた点群を用いてINRに基づく深層学習モデルを訓練することにより、深層学習モデルの訓練時のメモリ使用量を抑制することが可能である。
【0015】
しかしながら、非特許文献3に開示されている技術では、タスクに対する性能を維持することが考慮されていないため、物体の表面の復元において高い復元精度が得られない可能性があるという問題点があった。
【0016】
そこで、本発明は、上述の課題に鑑みてなされたものであり、GPUのメモリ使用量を抑制しながら、点群の大域的な形状及び局所的な形状の両方を表現しつつ、タスクに対する性能を維持することを考慮した点群を選択することにより、物体の表面の復元において高い復元精度を実現可能なモデルを生成することができる点群選択装置、点群選択方法及びプログラムを提供することを目的とする。
【課題を解決するための手段】
【0017】
本発明の第1の特徴は、点群選択装置であって、点群から関心点を選択する関心点選択部と、前記点群から特徴を抽出する特徴抽出部と、前記特徴から前記関心点に関する特徴を生成する特徴生成部と、前記関心点に関する特徴に基づいて前記点群から一部の点を選択する点群選択部と、を有することを要旨とする。
【0018】
本発明の第2の特徴は、点群選択装置であって、点群から関心点を選択する関心点選択部と、訓練済みのモデルを用いて物体の表面の復元を行う表面復元部と、を有し、前記表面復元部は、前記物体の表面の復元を行う際に、前記関心点の近くに位置するクエリ点に対する予測結果を選択することを要旨とする。
【0019】
本発明の第3の特徴は、点群選択方法であって、点群から関心点を選択する工程と、前記点群から特徴を抽出する工程と、前記特徴から前記関心点に関する特徴を生成する工程と、前記関心点に関する特徴に基づいて前記点群から一部の点を選択する工程と、を有することを要旨とする。
【0020】
本発明の第4の特徴は、コンピュータを、点群選択装置として機能させるプログラムであって、前記点群選択装置は、点群から関心点を選択する関心点選択部と、前記点群から特徴を抽出する特徴抽出部と、前記特徴から前記関心点に関する特徴を生成する特徴生成部と、前記関心点に関する特徴に基づいて前記点群から一部の点を選択する点群選択部と、を有することを要旨とする。
【発明の効果】
【0021】
本発明によれば、GPUのメモリ使用量を抑制しながら、点群の大域的な形状及び局所的な形状の両方を表現しつつ、タスクに対する性能を維持することを考慮した点群を選択することにより、物体の表面の復元において高い復元精度を実現可能なモデルを生成することができる点群選択装置、点群選択方法及びプログラムを提供することができる。
【図面の簡単な説明】
【0022】
図1図1は、第1実施形態に係る点群選択装置100の機能ブロックの一例を示す図である。
図2図2は、第2実施形態に係る点群選択装置100の機能ブロックの一例を示す図である。
図3図3は、d=4の場合の点群I及び分割された点群{S_0,S_1,S_2,S_3}の模式図を示す。
図4図4は、第2実施形態に係る点群選択装置100の選択点群構築部21の機能ブロックの一例を示す図である。
図5図5は、第3実施形態に係る点群選択装置100の機能ブロックの一例を示す図である。
【発明を実施するための形態】
【0023】
以下、本発明の実施の形態について、図面を参照しながら説明する。なお、以下の実施形態における構成要素は、適宜、既存の構成要素等との置き換えが可能であり、また、他の既存の構成要素との組み合わせを含む様々なバリエーションが可能である。したがって、以下の実施形態の記載をもって、特許請求の範囲に記載された発明の内容を限定するものではない。
【0024】
(第1実施形態)
以下、図1を参照して、本発明の第1実施形態に係る点群選択装置100について説明する。図1は、本実施形態に係る点群選択装置100の機能ブロックの一例を示す図である。
【0025】
図1に示すように、本実施形態に係る点群選択装置100は、初期点群選択部11と、関心点選択部12と、距離重み計算部13と、特徴抽出部14と、重み付き特徴計算部15と、特徴生成部16と、確率予測部17と、点群選択部18と、モデル訓練部19とを有する。
【0026】
以下、点群選択のためのモデルをM_sと表記し、INRに基づく物体の表面の復元のためのモデルをM_rと表記する。
【0027】
[初期点群選択部11]
初期点群選択部11は、入力点群(以後、点群Iとする) から一部の点を選択するように構成されている。
【0028】
かかる点の選択手法としては、ランダムサンプリング法やFPS法のような任意の非学習ベース手法が用いられてもよい。また、かかる点の選択手法として、非特許文献2や非特許文献3のような任意の学習ベースの選択手法が用いられてもよい。
【0029】
初期点群選択部11は、必ずしもモデルM_sの訓練時に、上述の選択を実行しなくてもよく、モデルM_sの訓練の前処理として予め点群Iから一部の点を選択して得られる点群を生成しておき、モデルM_sの訓練時には、それらの点群を読み込むだけでもよい。
【0030】
[関心点選択部12]
関心点選択部12は、初期点群選択部11で選択された点の集合(以後、 点群Xとする)から、一部の点(以後、関心点とする) を選択するように構成されている。
【0031】
ここで、関心点選択部12は、n個の関心点を選択する場合、点群Xからランダムに n個の関心点を選択してもよい。
【0032】
また、関心点選択部12は、予め点群IからFPS法でm(≧n)個の点を選択しておき、m個の点からランダムにn個の点を選択し、それらの点に対する点群 X内の最近傍点を選択した関心点とみなしてもよい。
【0033】
また、予め点群Iの中でユーザが関心のある領域に位置する点を手動でm個選択しておき、関心点選択部12は、かかるm個の点からランダムにn個の点を選択し、それらの点に対する点群X内の最近傍点を選択した関心点とみなしてもよい。
【0034】
また、関心点選択部12は、予め点群Iの中の物体を表す領域を任意の物体検出手法やインスタンスセグメンテーション手法を用いて検出し、それらの領域の重心に対する点群I内の最近傍に位置するm個の点を選択しておき、m個の点からランダムに n個の点を選択し、それらの点に対する点群X内の最近傍点を選択した関心点とみなしてもよい。
【0035】
さらに、関心点選択部12は、他の方法で、上述の関心点を選択してもよい。
【0036】
なお、関心点選択部12は、上述のm個の点からn個の点を選択する処理において、モデルM_sを訓練する際に反復的な処理を行う場合には、かかる反復的な処理を通じてm個の点の全てが選択されるように番号を付け、かかる番号に従って各反復的な処理においてn個の点を順番に選択してもよい。
【0037】
ここで、関心点選択部12は、必ずしもモデルM_sの訓練時に、上述の処理を実行しなくてもよく、モデルM_sの訓練の前処理として予め点群Xから一部の点を選択して得られる点群を生成しておき、モデルM_sの訓練時には、それを読み込むだけでもよい。
[距離重み計算部13]
距離重み計算部13は、関心点選択部12で選択された関心点から点群Xの各点までの距離に応じた点ごとの重みを計算するように構成されている。
【0038】
第1に、距離重み計算部13は、関心点から点群Xの各点までの距離を計算する。ここで、距離重み計算部13は、ユークリッド距離やマハラノビス距離のような任意の距離尺度を用いてもよい。
【0039】
第2に、距離重み計算部13は、得られた距離を用いて、関心点からの距離に応じた重みを計算する。ここで、距離重み計算部13は、入力の逆数を出力する関数やガウス関数のような入力が小さいほど出力が大きくなる任意の関数を用いてもよい。
【0040】
なお、距離重み計算部13は、関心点が複数与えられる場合には、関心点ごとに独立に重みを計算してもよいし、混合ガウス分布のような複数の確率分布の混ぜ合わせを表現することが可能な関数を用いて複数の関心点に対する重みを混ぜ合わせた重みを計算してもよい。
【0041】
距離重み計算部13は、必ずしもモデルM_sの訓練時に、上述の処理を実行しなくてもよく、モデルM_sの訓練の前処理として、予め関心点から点群Xの各点までの距離に応じた点ごとの重みを計算しておき、モデルM_sの訓練時には、それを読み込むだけでもよい。
【0042】
以後、点ごとの重みを一列に並べたデータを重みベクトルとする。
【0043】
[特徴抽出部14]
特徴抽出部14は、点群Xから点ごとに特徴ベクトルを抽出するように構成されている。
【0044】
ここで、特徴抽出部14は、点群Xから点ごとに特徴ベクトルを抽出可能な任意のDNN(Deep Neural Network)を用いてもよい。一例として、特徴抽出部14は、かかるDNNとして、非特許文献3に記載のProjection Networkを用いてもよい。特徴抽出部14は、かかるDNNを用いた場合、入力点群から、MLP(Multi-Layer Perceptron)、バッチ正規化、ReLU活性化、Graph Neural Networksを用いて、点ごとに特徴ベクトルを抽出することができる。
【0045】
以後、点ごとの特徴ベクトルを一列に並べたデータを特徴テンソルとする。
【0046】
[重み付き特徴計算部15]
重み付き特徴計算部15は、特徴抽出部14で抽出された特徴テンソル(以後、特徴F_0とする)及び距離重み計算部13で計算された重みベクトルから、重み付き特徴テンソル(重み付け特徴)を計算するように構成されている。
【0047】
関心点が1点のみの場合や全ての関心点に対する重みが混ぜ合わされる場合、単一の重みベクトルW_0のみが与えられる。この場合、重み付き特徴計算部15は、重み付き特徴テンソルについて、W_0*F_0として計算できる。ここで、*は、要素ごとの積であり、点ごとに重みを表すスカラーと特徴ベクトルとを乗算することを表す。
【0048】
複数の関心点に対して独立に重みを計算する場合、重みベクトルの集合{W_0,W_1,…,W_l}が与えられる。この場合、重み付き特徴計算部15は、重み付き特徴テンソルの集合について、同様の方法で、{W_0*F_0,W_1*F_1,…,W_I*F_l}として計算できる。
【0049】
[特徴生成部16]
特徴生成部16は、特徴抽出部14で抽出された特徴テンソルと、重み付き特徴計算部15で計算された重み付き特徴テンソルとを結合した特徴テンソル(以後、特徴Cとする)を生成するように構成されている。なお、特徴Cは、関心点に関する特徴である。ここで、特徴生成部16は、点ごとの特徴ベクトルと重み付き特徴ベクトルとを結合するようにして特徴テンソルを生成する。
【0050】
複数の重み付き特徴テンソルが与えられる場合であっても、特徴生成部16は、全ての重み付き特徴テンソルを同様に結合する。
【0051】
また、特徴生成部16は、特徴テンソル及び重み付き特徴テンソルに加えて、点群Xの座標を表す点ごとの3次元座標を結合してもよい。
【0052】
[確率予測部17]
確率予測部17は、特徴生成部16で生成された特徴Cを入力として、任意のDNNを用いて点ごとの選択確率(以後、確率Pとする)を予測するように構成されている。DNNの一例としては、MLPが挙げられる。
【0053】
また、確率予測部17は、予測値の範囲を制限するために、DNNの出力をSigmoid関数やReLU関数のような任意の関数へ入力した際の出力を、予測値とみなしてもよい。
【0054】
[点群選択部18]
点群選択部18は、確率予測部17で予測された確率Pを用いて、点群Xから一部の点を選択するように構成されている。
【0055】
例えば、点群選択部18は、点群Xから、点ごとの選択確率の降順に指定個数の点を選択してもよい。ここで、指定個数は、ユーザによって直接与えられてもよいし、点群Xの点数にユーザが指定したサンプリング率を乗算した値を整数化して得られる個数であってもよい。
【0056】
以後、選択された点の集合を点群Yとする。
【0057】
[モデル訓練部19]
モデル訓練部19は、点群の選択に関する損失及び物体の表面の復元に関する損失を計算し、かかる損失を用いて、モデルM_s及びモデルM_rのパラメータを更新するように構成されている。
【0058】
モデル訓練部19は、図1に示すように、点群の選択のためのモデルのみを訓練する場合には、点群の選択に関する損失のみを計算し、モデルM_sのパラメータのみを更新してもよい。
【0059】
ここで、モデル訓練部19は、点群の選択に関する損失関数として、関心点と点群Yの各点との平均二乗誤差(MSE:Mean Squared Error)を用いてもよい。
【0060】
モデル訓練部19は、関心点が複数ある場合、関心点のそれぞれに対して点群Yの各点とのMSEを計算し、それらの平均を求める関数を損失関数としてもよい。
【0061】
ここで、モデル訓練部19は、MSEを確率Pの関数とするために、以下の式(1)で表される予測された確率を乗算するMSEの変形を用いてもよい。
【0062】
【数1】
ここで、P(y)は、点群Yの要素yに対応する予測確率であり、Aは、関心点の集合である。また、モデル訓練部19は、点群の選択に関する損失関数として、点群Xと点群Yとの間のChamfer distanceを用いてもよい。
【0063】
ここで、モデル訓練部19は、Chamfer distanceを確率Pの関数とするために、以下の式(2)で表される各項に予測された確率を乗算するChamfer distanceの変形を用いてもよい。
【0064】
【数2】
ここで、P(y)は、点群Yの要素yに対応する予測確率である。また、モデル訓練部19は、点群の選択に関する損失関数として、点群Yのrepulsion lossを用いてもよい。
【0065】
ここで、モデル訓練部19は、repulsion lossを確率Pの関数とするために、以下の式(3)で表される予測された確率を乗算するrepulsion lossの変形を用いてもよい。
【0066】
【数3】
ここで、K(y)は、点群Yの要素yに対する点群Y内でのk近傍点(y自身は含めないものとする)であり、P(y’)は、点群K(y)の要素y’に対応する予測確率であり、
【数4】
は、 任意の定数である。
【0067】
モデル訓練部19は、点群の選択に関する損失関数として、上述のMSE(及び、その変形)やChamfer distance(及び、その変形)やrepulsion loss(及び、その変形)の重み付き和を用いてもよい。
【0068】
ここで、モデル訓練部19は、点群の選択に関する損失関数として、上述した全ての損失関数を用いる必要はなく、任意の損失関数を選択し、選択した損失関数の重み付き和を点群の選択に関する損失関数としてもよい。
【0069】
以後、点群の選択に関する損失関数をL_sと表記する。
【0070】
(第2実施形態)
以下、図2図4を参照して、本発明の第2実施形態に係る点群選択装置100について、上述の第1実施形態に係る点群選択装置100との相違点に着目して説明する。図2は、本実施形態に係る点群選択装置100の機能ブロックの一例を示す図である。
【0071】
図2に示すように、本実施形態に係る点群選択装置100は、上述の第1実施形態に係る点群選択装置100の機能に加えて、点群分割部20と、選択点群構築部21と、表面復元部22とを有している。
【0072】
[点群分割部20]
点群分割部20は、点群Iを指定個数(以後、個数dとする)に分割して得られる点群の集合を生成するように構成されている。なお、かかる点群Iの分割方法の一例として、過去に選択された点を除外しながら反復的にランダムサンプリングを行う方法が挙げられる。
【0073】
ここで、点群分割部20は、点群Iの点数を個数dで除算した値を整数化した値をサンプリングする点数sとする。
【0074】
第1に、点群分割部20は、点群Iからランダムサンプリング法によってs個の点を選択する。これにより得られた点群をS_0とする。
【0075】
第2に、点群分割部20は、点群IからS_0内の点を除外した点群から、ランダムサンプリング法によってs個の点を選択する。これにより得られた点群をS_1とする。
【0076】
同様にして、点群分割部20は、点群Iから既に選択された点群を除外した点群から、反復的にランダムサンプリング法によって点群を選択することにより,点群Iを分割したd個の点群{S_0,S_1, …,S_{d-1}}を得ることができる。
【0077】
図3に、d=4の場合の点群I及び分割された点群{S_0,S_1,S_2,S_3}の模式図を示す。
【0078】
ここで、点群分割部20は、ランダムサンプリング法の代わりに、FPS法のような他のサンプリング手法を用いてもよい。また、点群分割部20は、他の方法で、点群Iを分割してもよい。
【0079】
また、点群分割部20は、必ずしもモデルM_sの訓練時に、上述の処理を実行しなくてもよく、モデルM_sの訓練の前処理として、予め点群Iを分割して得られる点群の集合を生成しておき、モデルM_sの訓練時には、それらを読み込むだけでもよい。
【0080】
[選択点群構築部21]
選択点群構築部21は、関心点選択部12で得られた関心点及びモデルM_sを用いて点群Iから一部の点を選択するように構成されている。図4に、選択点群構築部21の機能ブロックの一例を示す。
【0081】
図4に示すように、選択点群構築部21は、距離重み計算部21Aと、特徴抽出部21Bと、重み付き特徴計算部21Cと、特徴生成部21Dと、確率予測部21Eと、点群選択部21Fとを有する。
【0082】
ここで、距離重み計算部21A、特徴抽出部21B、重み付き特徴計算部21C、特徴生成部21D、確率予測部21E及び点群選択部21Fの機能は、上述の距離重み計算部13、特徴抽出部14、重み付き特徴計算部15、特徴生成部16、確率予測部17及び点群選択部18の機能と同じである。
【0083】
選択点群構築部21は、上述の機能によって、点群I及び関心点を入力として処理を行うことにより、点群Iから関心点に関する一部の点(以後、点群Zとする)を選択することができる。
【0084】
ただし、かかる場合には、モデルM_sへの入力となる点群Iの点数が大きいことから、メモリ使用量が大きくなる恐れがある。
【0085】
したがって、メモリ使用量を抑えることを目的として、点群Iの代わりに、点群分割部20で得られた点群Iを分割したd個の点群{S_0,S_1, …,S_{d-1}}のそれぞれをモデルM_sへの入力としてもよい。
【0086】
かかる場合、選択点群構築部21は、d個の点群の内の1つの点群(例えば、S_0)及び関心点を入力として、上述の処理を行うことにより、入力した点群から関心点に関する一部の点を選択することができる。
【0087】
選択点群構築部21は、同様の処理をd個の点群の残りに対して行うことにより、それぞれの点群から一部の点を選択することができる。
【0088】
そして、選択点群構築部21は、d個の点群{S_0,S_1, …,S_{d-1}}のそれぞれから得られた一部の点の和集合を取ることにより、単一の点群Zを得る。
【0089】
かかる場合、モデルM_sへの入力となる点群の点数は、点群Iの点数に比べて小さいため、点群Iを入力とする場合に比べて、メモリ使用量が小さくなる。
【0090】
[表面復元部22]
表面復元部22は、モデルM_rを用いて、点群Z及びクエリ点群から、物体の表面の復元を行うように構成されている。
【0091】
ここで、表面復元部22は、任意の表面復元手法及びそれに対応するモデルM_rを用いてもよい。一例として、表面復元部22は、非特許文献1に記載の手法POCOを用いることができる。
【0092】
なお、クエリ点群は、INRに基づく物体の表面の復元のためのモデルM_rの訓練に用いられる点群であり、例えば、復元対象となる物体のバウンディングボックス内からランダムに点をサンプリングすることによって作成される。
【0093】
クエリ点群は、使用する手法に対応した作成方法を用いて作成されてもよいし、それ以外の方法で作成されてもよい。
【0094】
[モデル訓練部19]
本実施形態では、モデル訓練部19は、点群の選択のためのモデルM_sに加えて、INRに基づく物体の表面の復元のためのモデルM_rについても訓練するように構成されている。
【0095】
ここで、モデル訓練部19は、上述のクエリ点群と物体の表面との位置関係を予測することにより、モデル M_rを訓練することができる。
【0096】
例えば、モデル訓練部19は、上述のPOCOを用いる場合、クエリ点群が対象の物体の内側にある可能性を表す占有率を予測し、その占有率の真値との間で損失を計算することで、モデルM_rを訓練することができる。
【0097】
モデル訓練部19は、物体の表面の復元に関する損失として、表面復元部22で使用した手法で定められた損失を使用する。かかる損失の一例としては、 非特許文献1に記載の手法POCOで定められたクロスエントロピー損失が挙げられる。
【0098】
以後、物体の表面の復元に関する損失関数をL_rと表記する。
【0099】
モデル訓練部19は、モデルのパラメータを更新する際には、モデルM_s及びM_rのパラメータを同時に更新(以後、同時最適化とする)してもよい。
【0100】
或いは、モデル訓練部19は、一方のパラメータを固定しながら、他方のパラメータを更新し、その後、他方のパラメータを固定しながら、一方のパラメータを更新するような交互の更新(以降、交互最適化とする)を行ってもよい。
【0101】
この際、モデル訓練部19は、GPUのメモリ使用量を抑えるために、固定されたモデルのパラメータを保存した後にGPU上から削除し、更新する際に、再びGPU上に読み込んでもよい。
【0102】
モデル訓練部19は、同時最適化を行う場合は、L_s及びL_rの重み付き和を損失関数としてもよい。
【0103】
一方、モデル訓練部19は、交互最適化を行う場合は、モデルM_sのパラメータを更新する際には、損失関数をL_sとし、モデルM_rのパラメータを更新する際には、損失関数をL_rとしてよいし、モデルM_s及びM_rのいずれか又は両方のパラメータを更新する際に、L_s及びL_rの重み付き和を損失関数としてもよい。
【0104】
また、モデル訓練部19は、点群選択装置100が訓練済みのモデルM_s又はM_rを保持する場合、保持されているモデルのパラメータの更新を行わなくてもよい。
【0105】
例えば、点群選択装置100が、訓練済みのモデルM_sを保持する場合、モデル訓練部19は、モデルM_sのパラメータを常に固定しながら、モデルM_rのパラメータのみを更新してもよい。
【0106】
また、点群選択装置100が、訓練済みのモデルM_rを保持する場合、モデル訓練部19は、モデルM_rのパラメータを常に固定しながら、モデルM_sのパラメータのみを更新してもよい。
【0107】
(第3実施形態)
以下、図5を参照して、本発明の第3実施形態に係る点群選択装置100について、上述の第1実施形態及び第2実施形態に係る点群選択装置100との相違点に着目して説明する。図5は、本実施形態に係る点群選択装置100の機能ブロックの一例を示す図である。
【0108】
本実施形態では、訓練済みのモデルM_rによる推論に、点群選択装置100が用いられている。
【0109】
図5は、モデルM_rによる推論を実行する場合の点群選択装置100の機能ブロックの一例を示す図である。
【0110】
本実施形態では、選択点群構築部21は、訓練済みのモデルM_s及び関心点選択部12で選択された関心点を用いて、選択された点群(点群Z)を構築するように構成されている。
【0111】
表面復元部22は、選択点群構築部21で構築された点群Z及び訓練済みのモデルM_rを用いて、物体の表面の復元を行うように構成されている。
【0112】
ここで、推論時に使用するクエリ点群としては、復元対象となる物体のバウンディングボックスを分割して得られるボクセルの中心座標の集合が用いられることが多い。
【0113】
本実施形態では、表面復元部22は、関心点に近い位置にあるクエリ点群に対する予測結果のみを選択してもよい。
【0114】
表面復元部22は、様々な関心点を用いて反復的に推論を行うことにより、全てのクエリ点群に対する予測結果を取得してもよい。
【0115】
表面復元部22は、同一のクエリ点群に対して複数個の予測結果が得られた場合、それらの予測結果の平均値や中央値のような統計量を予測結果とみなしてもよい。
【0116】
なお、点群分割部20や関心点選択部12や選択点群構築部21における処理は、必ずしも表面復元部22による推論時に実行されなくてもよく、推論の前処理として、これらの処理を予め実行しておき、推論時には、表面復元部22は、これらの処理の実行結果を読み込むだけでもよい。
【0117】
また、上述の点群選択装置100は、コンピュータに各機能(各工程)を実行させるプログラムであって実現されていてもよい。
【0118】
なお、上記の各実施形態では、本発明を点群選択装置100への適用を例にして説明したが、本発明は、かかる例のみに限定されるものではなく、点群選択装置100の各機能を備えた点群選択システムにも同様に適用できる。
【産業上の利用可能性】
【0119】
なお、本実施形態によれば、例えば、動画像通信において総合的なサービス品質の向上を実現できることから、国連が主導する持続可能な開発目標(SDGs)の目標9「レジリエントなインフラを整備し、持続可能な産業化を推進するとともに、イノベーションの拡大を図る」に貢献することが可能となる。
【符号の説明】
【0120】
100…点群選択装置
11…初期点群選択部
12…関心点選択部
13、21A…距離重み計算部
14、21B…特徴抽出部
15、21C…重み付き特徴計算部
16、21D…特徴生成部
17、21E…確率予測部
18、21F…点群選択部
19…モデル訓練部
20…点群分割部
21…選択点群構築部
22…表面復元部


図1
図2
図3
図4
図5