(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2023165453
(43)【公開日】2023-11-16
(54)【発明の名称】データ処理装置
(51)【国際特許分類】
G06T 19/00 20110101AFI20231109BHJP
G06T 7/00 20170101ALI20231109BHJP
G06V 10/82 20220101ALI20231109BHJP
【FI】
G06T19/00 600
G06T7/00 350B
G06V10/82
【審査請求】有
【請求項の数】3
【出願形態】OL
(21)【出願番号】P 2022076456
(22)【出願日】2022-05-06
(11)【特許番号】
(45)【特許公報発行日】2023-03-13
(71)【出願人】
【識別番号】518144986
【氏名又は名称】シンメトリー・ディメンションズ・インク
【日本における営業所】東京都渋谷区代々木3-45-2西参道Kハウス4F
(72)【発明者】
【氏名】ケラネン トンミ
(72)【発明者】
【氏名】瀬古 保次
(72)【発明者】
【氏名】沼倉 正吾
【テーマコード(参考)】
5B050
5L096
【Fターム(参考)】
5B050AA10
5B050BA09
5B050EA09
5B050EA27
5L096HA11
5L096KA04
(57)【要約】 (修正有)
【課題】データ処理装置において、人工知能の機械学習に利用するデータを収集する。
【解決手段】動体モデルと静止体モデルで構成された仮想現実空間1Aの中で、人モデル20にスマートフォン22を持たせて点群データを取得させる。点群データは、現実世界でスマートフォンが撮影する点群データと類似していることから、現実世界の点群データを認識する人工知能の学習データに利用することができる。また、その学習データは、短時間で効率的に作成できる。
【選択図】
図5
【特許請求の範囲】
【請求項1】
仮想現実空間と、前記仮想現実空間の中で動く第1動体モデルと、前記仮想現実空間の中で点群データを取得する点群取得機器モデルと、を備え、
前記仮想現実空間は、静止した静止体モデルと、動く動体モデルで構成され、
前記点群取得機器モデルは、前記第1動体モデルと連動して動くことを特徴とするデータ処理装置
【請求項2】
前記データ処理装置は、データ識別部を更に備え、
前記データ識別部は、前記点群取得機器モデルが取得した点群データの中から、前記静止体モデルの点群データと、前記動体モデルの点群データとを識別することを特徴とする請求項1に記載のデータ処理装置
【請求項3】
前記データ処理装置は、データ統合部を更に備え、
前記データ統合部は、前記静止体モデルの点群データを統合して、広範囲の点群データを生成することを特徴とする請求項2に記載のデータ処理装置
【請求項4】
前記データ処理装置は、ユーザーインターフェイス部を更に備え、
前記ユーザーインターフェイス部を用いた操作により、前記第1動体モデルが操作されることを特徴とする請求項1乃至3に記載のデータ処理装置
【請求項5】
前記第1動体モデルは、人間を模した動体モデルであり、前記第1動体モデルは、前記点群取得機器モデルを把持することを特徴とする請求項1乃至4に記載のデータ処理装置
【請求項6】
前記点群取得機器モデルが取得する点群データは、人工知能が機械学習するデータであることを特徴とする請求項1乃至5に記載のデータ処理装置
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、仮想現実空間を利用して、人工知能の機械学習に利用するデータを収集するデータ処理装置に関する。
【背景技術】
【0002】
深層学習などを利用した人工知能を機械学習させるためには、通常、大量の学習データが必要である。点群データを認識する人工知能の場合であれば、点群データの各領域に対して正解ラベルを付けたデータを大量に準備しなければならないが、これを人手で行うと時間と手間がかかるという問題がある。そこで、仮想現実空間を利用して、点群データを取得し、その正解ラベルを自動で付けて、人による手作業を無くす方法が提案されている(特許文献1参照)。
【0003】
仮想現実空間は、既知のモデルを組み合わせて作製されているので、それを構成する各部分が何であるかが判明している。そのため、仮想現実空間内で点群データを取得すれば、その領域が何であるかを示すラベルを自動で付与することが可能で、大量の学習データを時間と手間をかけずに作成することができる。
【先行技術文献】
【特許文献】
【0004】
【発明の概要】
【発明が解決しようとする課題】
【0005】
しかし、特許文献1で提案されている手法では、点群データを取得する仮想現実空間は、静止状態の物体モデルで構築されており、車や人などの移動体や、一時的に設置される工事中のフェンスなどが入り混じっている現実世界とは異なる、という問題がある。また、現実世界の中で、LiDAR(Light Detection and Ranging)などを搭載したスマートフォンを、人が手に持って取得した点群は、LiDARそのものが手と連動して動くために、静止状態の物体モデルで構築された仮想現実空間で取得する点群データとは異なるという問題があった。
【0006】
本開示は、上記事情に鑑みてなされたものであり、現実世界で点群データを取得する状況に近い状況を、仮想現実空間の中に実現し、そこで点群データを取得して、現実世界で取得する点群データに近い点群データを仮想現実空間から取得することを目的とする。
【課題を解決するための手段】
【0007】
本開示の一態様は、仮想現実空間と、前記仮想現実空間の中で動く第1動体モデルと、前記仮想現実空間の中で点群データを取得する点群取得機器モデルと、を備え、前記仮想現実空間は、静止した静止体モデルと、動く動体モデルで構成され、前記点群取得機器モデルは、前記第1動体モデルと連動して動くことを特徴とするデータ処理装置、である。
【発明の効果】
【0008】
本開示によれば、現実世界で点群データを取得する状況と類似した仮想現実空間の状況で、点群を取得できるため、仮想現実で取得した点群データが現実に取得した点群データと近いという効果がある。そのため、仮想現実空間を利用して取得した点群データを用いて人工知能を機械学習させた後、その人工知能を現実世界の点群データの認識に利用することができるという効果がある。さらには、仮想現実空間では、点群データを取得する対象物が予め判明しているので、点群データが何を対象とした点群データであるかを示すラベル付けが容易にできるという効果がある。そのため、短い時間で、大量にラベル付けをした点群データを生成できるという効果がある。
【図面の簡単な説明】
【0009】
【
図1】本実施の形態に係る仮想現実空間を利用した点群データ取得のシステム構成の例を示す表である。
【
図2】(a)本実施の形態に係るサーバ装置のハードウェア構成の例を示す図である。(b)本実施の形態に係る端末装置のハードウェア構成の例を示す図である。
【
図3】(a)本実施の形態に係る仮想現実空間制御管理部の機能構成の例を示す図である。(b)本実施の形態に係る仮想現実空間ソフトの機能構成の例を示す図である。
【
図4】本実施の形態に係る仮想現実空間を構成するモデルのリストの例を示す表
【
図5】本実施の形態に係る仮想現実空間の構成と、その中で点群データを取得する方法の例を示す図である。
【
図6】本実施の形態に係る仮想現実空間を利用した点群データの取得と生成の例を示すフローチャートである。
【
図7】本実施の形態に係るLiDARによる点群データ取得のプロセスの例を示す図である。(a)最初の位置からの点群データ取得、(b)LiDARの角度を変えた点群データ取得、(c)LiDARの位置を変えた点群データ取得
【
図8】本実施の形態に係るニューラルネットワークと学習データの関係の例を示す図である。
【発明を実施するための形態】
【0010】
以下、適宜図面を参照しながら、本実施の形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、すでによく知られた事項の詳細説明や実質的に同一の構成に対する重複説明は省略する場合がある。これは、以下の説明が不必要に冗長になることを避け、当業者の理解を容易にするためである。尚、添付図面及び以下の説明は当業者が本開示を十分に理解するために提供されるものであり、これらにより特許請求の範囲に記載の主題を限定することは意図されていない。
【0011】
本実施の形態で示される1つの構成が有する機能が2つ以上の物理的構成により実現されても、又は2つ以上の構成の機能が例えば1つの物理的構成によって実現されていても構わない。
【0012】
<本実施の形態>
以下、本願発明の本実施の形態について説明する。
【0013】
(システム構成)
図1は、仮想現実空間を利用した点群データ取得のシステム構成の例を示す図である。サーバ装置4と端末装置4は通信ネットワーク10を介して通信可能な状態で接続されている。通信ネットワーク10の通信方法として有線/無線を特に限定するものではない。サーバ装置4は、仮想現実空間1と仮想現実空間制御管理部6と点群データを含んでいる。端末装置は、仮想現実空間1と連携する仮想現実ソフト8とUI(ユーザーインターフェイス)部9と表示部77を含んでいる。
【0014】
サーバ装置4の中にある仮想現実空間1は、動くことができる動体モデル2と静止した静止体モデル3で構成される。動体モデル2は、人や動物、車、飛行機等の3次元モデルであり、静止体モデル3は、道路や建物、山や田畑などの3次元モデルである。仮想現実空間制御管理部6は、仮想現実空間1を構成する3次元モデルの作成、制御、管理を行う。点群データ部5は、仮想現実空間の中で取得した点群データを保存する。
【0015】
端末装置7の中にある仮想現実空間ソフト8は、サーバ装置4の仮想現実空間1と、通信ネットワーク10を介して通信しており、UI部9を用いて、仮想現実空間1を操作することができる。また、仮想現実空間ソフト8は仮想現実空間1を表示部77に表示する。
【0016】
UI部9は、仮想現実空間1を作成するための入力機能を持ち、動体モデル2や静止体モデル3を作成することができる。また、動体モデル2や静止体モデル3を仮想現実空間1の中に配置して、所望の仮想現実空間を作成することができる。
【0017】
(ハードウェア構成)
図2(a)はサーバ装置4のハードウェア構成を、
図2(b)は端末装置7のハードウェア構成を示す。サーバ装置4と端末装置7の基本的な部分の構成は同じであり、サーバ装置4の入力部40,出力部41、メモリ部42、プロセッサ部43、ストレージ部44、通信部45は、端末装置7の入力部70、出力部71、メモリ部72、プロセッサ部73、ストレージ部74、通信部77に対応して、同じ構成である。端末装置7はそれに加えて、コントローラ部76と表示部77を備えている。
【0018】
入力部40、70は、キーボート、マウス、マイク、又はカメラなどの入力デバイスで構成され、文字入力、カーソル入力、音声入力、画像入力等の機能を有する。出力部51、71は、液晶や有機ELなどの表示デバイスと、スピーカなどの音声出力デバイスで構成され、画像表示、テキスト表示の機能と、音声出力の機能を有する。メモリ部42、72は、RAM(Random Access Memory)などの揮発性記憶領域で構成され、プロセッサ部43、73の処理を補助する短期的な記憶領域の機能を果たす。プロセッサ部43、73は、CPU(Central Processing Unit)やGPU( Graphics Processing Unit)で構成され、制御処理と演算処理の機能を有する。ストレージ部44、74は、SSD(Solid State Drive)やHDD( Hard Disk Drive)などの不揮発性記憶領域で構成され、フラッシュメモリや磁気ディスクなどを利用して、データの長期的な記憶機能を有する。通信部45、75は通信ネットワーク10を介して外部と通信する機能を有する。通信部45、75は通信プロトコルを用いて、ネットワーク11に接続されたサーバ装置や、端末装置と通信することができる。
【0019】
図2(b)が示すように、端末装置7は、上記で述べた、入力部70、出力部71、メモリ部72、プロセッサ部73、ストレージ部74、通信部77と、これらに加えて、コントローラ部76と表示部77を備えている。入力部70、コントローラ部76、表示部77は、
図1が示すUI部9を構成する。
【0020】
コントローラ部76は、ユーザが手に持って操作するデバイスで、電子コンパス、加速度計、ジャイロスコープなどを用いて、手の動きや3D角度を計測し、仮想現実空間1に対して、ユーザが操作、制御する操作制御機能を有する。仮想現実空間の中を進んだり、場面を変更したりする機能も有する。
【0021】
表示部77は、ヘッドマウントディスプレイ(Head Mount Display)や、メガネ型ディスプレイなどの透過型ディスプレイ、一般的なフラットパネルディスプレイであってよい。ヘッドマウントディスプレイは、視覚全体をカバーするように表示するデバイスであり、電子コンパス、加速度計、ジャイロスコープ等により、ユーザの頭の動きや3D角度を計測する機能が備えられ、ユーザの頭の方向に応じた仮想現実空間1を表示することができる。
【0022】
(機能構成)
図3(a)は、
図1の仮想現実空間制御管理部6の機能構成の例を示す図である。
図3(b)は、
図1の仮想現実空間ソフト8の機能構成の例を示す図である。
図4は、仮想現実空間を構成するモデルのリストの例を示す図である。以下、順に説明する。
【0023】
図3(a)に示す仮想現実空間制御管理部6は、点群取得装置モデル60、点群範囲選択部61、点群統合部62、ラベル付与部63、動体モデル配置制御部64、静止体モデル配置部65、モデル素材部66、通信制御部67で構成される。以下、順に説明する。
【0024】
仮想現実空間制御管理部6の点群取得装置モデル部60は、LiDAR(Light Detection And Ranging)の動作原理を模して、仮想現実空間の中で点群を取得する3次元モデルである。LiDARは現実世界の携帯端末などに搭載が可能であり、現実世界の点群を取得することができる。動作原理としては、LiDARに光源と光センサーを備え、光源から対象物に光を放射し、その反射光が光センサーに到達するまでの時間を測定して、LiDARと対象物との距離を測定する方法などがある。光の放射角度を順次変えることで、対象物上の異なる位置までの距離を測定でき、その各位置の点群データを取得できる。この原理を仮想現実空間の中に適用し、仮想現実空間で点群データを取得できる。
【0025】
点群3D座標決定部61は、点群取得装置モデル部60が取得した点群データが、仮想現実空間のどの3次元モデルのどの位置から取得したデータであるか、つまり仮想現実空間の中の一点を規定する3次元座標を決定する機能を有する。
【0026】
点群統合部62は、場所を変えて取得した点群データを統合して、ひとまとまりの点群データにする機能を有する。点群データの統合では、点群3D座標決定部61が決定した点群の3D座標を利用して、統合してよい。
【0027】
点群統合部62が点群を統合する方法の一例を
図7に示す。
図7の(a)はある位置から、LiDAR23を用いて、点群データを取得する様子を示す。点線25は、LiDAR23の光源24からの光放射の範囲を示し、この範囲に存在する3次元モデルの点群を取得することができる。(b)はLiDAR23の光源24の位置は変えず、角度だけを変えて、点群を取得する様子を示す。この場合、点群の取得範囲を示す点線25は(a)で取得した範囲と重なっていない。(c)はLiDAR23の位置を少し移動して点群を取得した様子を示す。(c)の点線25が(a)と(b)の点線25と重なる領域があるので、重なった領域の点群データを利用して、(a)、(b)、(c)で取得した点群データを統合することができる。このように統合することで、連続的につながった点群データを作成することが出来る。
【0028】
ラベル付与部63は、点群データにラベルを付与する機能を有する。ラベルとは、点群データの各点がどの対象物から取得したかを示す名前のことである。例えば、建物Aから取得した点群データには、建物Aが付与され、道路Bから取得した点群データには、道路Bが付与される。仮想現実空間1の中で取得した点群データは、点群3D座標決定部61が決定した3次元座標から、どの3次元モデルから取得した点であるかが判明するので、それをラベルとして点群データに付与する。
【0029】
動体モデルの場合であっても、点群データを取得するタイミングにおける、動体モデルの位置と姿勢等がわかっているので、点群データの測定範囲内にあるか、ないかなどがわかり、ラベルを付与することができる。
【0030】
動体モデル配置制御部64は、仮想現実空間1の中にある動体モデルの3次元座標と動きを制御する機能を有する。動体モデルの3次元座標と動きは、端末装置7の仮想現実空間ソフト8を用いて、ユーザにより設定される。仮想現実空間1が街であり、動体モデル2が人である場合は、現実空間で人が歩道を歩くように、街モデルの中に配置した歩道モデルの上を、人モデルに歩かせる制御を行う。
【0031】
仮想現実空間1は、仮想現実空間1全体に対する原点とそれに基づいたグローバル座標(3次元)を有する。動体モデル配置制御部64は、動いている動体モデル2の位置を示すグローバル座標と、動体モデル2の各部の、各時刻におけるローカル座標(3次元)と、モデル素材部66が有する動体モデル2の表面形状データとを組み合わせることで、動体モデル2の各部表面のグローバル座標を算出することができる。
【0032】
静止体モデル配置部65は、道路や建物、山、畑などの静止体モデル3を配置した3次元座標と角度、重なり情報などを記憶する機能を有する。仮想現実空間1に配置した静止体モデル3の表面のグローバル座標は、静止体モデルを配置したグローバル座標と、モデル素材部66が有する各モデルの3次元形状データのローカル座標を組み合わせることで算出できる。
【0033】
モデル素材部66は、動体モデル2と静止体モデル3に関する3次元モデルの素材を有する。3次元モデルの素材としては、モデルの名称、モデル表面の3次元形状データ、色、光の反射特性、などを有する。モデル素材部66は、3次元モデル単体としてだけでなく、3次元モデルを組み合わせて一つの3次元モデルを構成してよい。構成された3次元モデルは、その名称、組み合わせ位置情報、モデル表面の3次元形状データ、色、光反射特性などと共に、モデル素材部66に保存される。
【0034】
通信制御部67は、仮想現実空間制御管理部6が、通信ネットワーク10を経由して、仮想現実空間ソフト8と通信し、端末装置7から送られる制御信号の送受信や、仮想現実空間1のデータ、又は端末装置7のユーザが見る仮想現実空間1の画像を送信する機能を有する。
【0035】
図3(b)に示す仮想現実空間ソフト8は、静止体モデル作成部80、動体モデル作成部81、仮想現実空間作成部82、通信制御部83で構成される。
図4は、仮想現実空間作成部82が作成するモデルリスト11である。
【0036】
静止体モデル作成部80は、端末装置7のUI部9の操作に応じて、モデル素材部66の素材モデルを利用したり、組み合わせたり、あるいは新たに作成したりして、静止体モデルを作成する機能を持つ。さらに、静止体モデルの色、形状、寸法などの属性を設定する機能を有する。設定された属性は、
図4のモデルリスト11に属性として記載される。
【0037】
静止体モデルに設定された属性は、モデルリスト11における番号1~5の属性のように記載される。例えば、静止体モデルs1の属性の内容は、s1pの項目として記載される。
【0038】
動体モデル作成部81は、端末装置7のUI部9の操作に応じて、静止体モデル3に、動作をする機能を追加して動体モデルを作成する。動作をする機能は、可動部の設定、可動方法、可動範囲、可動速度、タイミング、可動部同士の連携、規定動作、手動モード、自動モード、などの機能が、動体モデルに設定される。設定された機能は、モデルリスト11に機能として記載される。
【0039】
動体モデルに設定された機能は、モデルリスト11における番号6~8の機能のように記載される。例えば、動体モデルm1の機能は、m1fの項目として記載される。
【0040】
規定動作として、例えば、人モデルの、「歩く」「走る」「手を上げる」「屈む」「携帯端末を見る」などの動作シーケンスを、動体モデル作成部81に予め登録しておき、これを人モデルに設定することができる。車モデルであれば、「走行」「高速走行」「駐車」などの動作を規定動作に登録することができる。「走行」では、現実世界の車の走行を模倣して、車道上を信号に従って走行する動作シーケンスが設定される。携帯端末モデルの場合では、「写真を撮る」「点群を取得する」などの動作シーケンスを登録することができる。「写真を撮る」場合は、携帯端末モデルのカメラレンズからの視野角に応じて、仮想現実空間の写真を撮影し、「点群を取得する」場合は、携帯端末のLiDARの光源からの光放射角に応じて、距離を計測し、点群データを作成する。
【0041】
手動モードは、端末装置7のUI部9のコントローラ部76をユーザが操作して、動体モデルを動かすモードである。コントローラの上矢印↑を押すと、人モデルや車モデルが前進し、左矢印←を押すと、人モデルが左を向き、車モデルが左折をする、などの動作をする。
【0042】
自動モードは、動体モデルが自動で動くモードである。規定動作として「歩く」が設定された人モデルに対して自動モードを設定すると、現実の人の歩行を模倣して、人モデルが歩く動作をする。規定動作として「走行」が設定された車モデルに対して、自動モードを設定すると、車モデルは道路上を走行する。
【0043】
動体モデルに設定される機能は、現実世界で繰り広げられる動きを反映するために、仮想現実空間の中の状況を現実世界に近づけることができ、その中で取得する点群データをより現実世界で取得する点群データに近づける効果がある。
【0044】
仮想現実空間作成部80は、モデルリスト11を有し、端末装置7のUI部9の操作に応じて、仮想現実空間1に、動体モデル2と静止体モデル3を配置し、その位置を、仮想現実空間1全体のグローバル座標として、モデルリスト11に記載する。また、作成されたモデルリスト11を仮想現実空間制御管理部6に送信する機能を有する。
【0045】
仮想現実空間ソフトの通信制御部83は、仮想現実空間制御管理部6の通信制御部67と通信情報の送受信を行う機能を有する。通信制御部83は、UI部9による、仮想現実空間1をコントロールする信号を送信する機能を有する。具体的には、コントローラ部76を用いて、仮想現実空間1内の動体モデル3を動作させたり、移動させたりする信号を送信する。
【0046】
図4に示したモデルリスト11は、仮想現実空間を構成する静止体モデルと動体モデルをリスト形式で記載した表である。静止体モデルと動体モデルは、その配置位置が、仮想現実空間全体を規定するグローバル座標か、静止体モデル内の位置を規定するローカル座標で記載される。例えば、モデルリスト11の番号1には静止体モデルs1に、グローバル座標s1gが記載されているが、これは仮想現実空間1のグローバル座標のs1gに静止体モデルs1が配置されたことを意味する。番号2の静止体モデルs2には、ローカル座標s2lが記載されているが、これは番号が一つ小さい静止体モデルs1のローカル座標のs2lに、静止体モデルs2が配置されたことを意味する。以下、同様に記載されている。
【0047】
モデルリスト11には、静止体モデルと動体モデルの各々に付帯する属性が記載される。例えば、番号3の静止体モデルs3には、属性s3pが記載されているが、これは静止体モデルs3には、属性pが付帯することを示している。以下、同様に記載されている。属性のs3pは静止体モデル作成部80が設定したものである。
【0048】
モデルリスト11の動体モデルには、機能が記載される。例えば、番号6の動体モデルm1には、機能m1fが記載されているが、これは動体モデルm1には、機能m3fが付帯していることを示す。機能m3fは動体モデル作成部81で設定したものである。
【0049】
(点群データ取得プロセス)
図5は、道路モデル30、家モデル31,32、33、山モデル34などの静止体モデル3で構成された仮想現実空間1Aの中を、LiDAR搭載スマートフォンモデル22を手に持つ人モデル22が歩きながら、点群を取得するシーンを描いた図である。仮想現実空間1Aの中には、動体モデル2として、歩く人モデル21と走る自動車モデル23が配置されている。人モデル20が歩きながら、LiDAR搭載スマートフォンモデル22を用いて、点群を取得するプロセスを
図6のフローチャートを用いて説明する。
【0050】
ステップS100にて、端末装置7の仮想現実空間ソフト8を起動する。
【0051】
ステップ101にて、仮想現実空間ソフト8を用いて、静止体モデルである、道モデル30,家モデル31~33と山モデル34を作成し、配置して、
図5の仮想現実空間1Aを作成する。
【0052】
ステップ102にて、仮想現実空間ソフト8を用いて、動体モデルである、人モデル20、人モデル21、車モデル23を作成する。人モデル20と人モデル21には、規定動作「歩く」を設定し、車モデル23には、規定動作「走行」を設定する。人モデル20には手動モードを設定し、人モデル21と車モデル23には自動モードを設定して、自動で動かす。
【0053】
ステップ103にて、動体モデルの機能として、仮想現実空間の点群を取得するLiDARモデルを作成し、スマートフォンモデル22に配置する。LiDARモデルの機能は、点群取得装置モデル部60が担当する。スマートフォンモデル22を人モデル20の右手に配置する。人モデル20を仮想現実空間1Aに配置する。
【0054】
ステップ104にて、端末装置7のUI部9を操作して、所望の位置に人モデル20を移動させる。
【0055】
ステップ105にて、LiDAR付きスマートフォンモデル22の位置と角度を計測する。次に、仮想現実空間1Aの点群データを取得する。取得した点群データを、無修正点群データとして、サーバ装置4の点群データ部5に保存する。
【0056】
ステップ106にて、無修正点群データに対して、ラベル付与部63が、どのモデルから取得した点群であるかを示すラベルを付与する。ラベルは、静止体モデルの道モデル30、家モデル31や、動体モデルの人モデル21、車モデル23、などである。無修正点群データの中から、動体モデルに対応する点群を除去し、静止体モデルだけで構成される点群データを修正点群データとして、サーバ装置4の点群データ部5に保存する。
【0057】
点群3D座標決定部61が決定した3次元座標から、点群がどの3次元モデルから取得した点であるかが判明するので、その情報に基づいて、ラベル付与部63は、動体モデルに対応する点群を除去することができる。
【0058】
ステップ107では、仮想現実空間1Aの中で、点群を取得したい領域から点群を取得したかどうかを判断する。その判断が「いいえ」の場合には、ステップ104に戻り、ステップ104以降のプロセスを繰り返す。その判断が「はい」の場合には、ステップ108に進む。
【0059】
ステップ108では、保存した修正点群データを、点群統合部67を用いて、統合し、連続した一群の修正点群データを作成する。これで、点群データ取得プロセスを終了する。
【0060】
動体モデルを含んだ無修正点群データは、町や道路、建物、構造物などのインフラとなる点群データを取得する場合には、削除したい対象となる。そのため、動体モデルを除去した修正データの作成が重要となる。
【0061】
連続した一群の修正点群データは、狭い特定領域の場所ではなく、広範囲の仮想現実空間をカバーすることができるので、途切れることない、一連の広範囲の3次元形状データとなり有用である。
【0062】
取得した無修正点群データと、修正点群データは、ニューラルネットワークなどで構成された人工知能の機械学習データとして利用する。その利用の仕方を引き続き説明する。
【0063】
(機械学習データの利用方法)
図8は、ニューラルネットワーク90の入力層91、出力層92と、入力データ93、教師データ94との関係を模式的に示した図である。入力層91には入力データ93が入力され、出力層92からは出力データが出力される(不図示)。出力データは教師データ94と比較される。
【0064】
ニューラルネットワーク90は、
図8の○で示される各層のニューロンを、重みを付けて結合し、ニューロンの活性化関数による非線形出力を繰り返すことで、最終的な出力データを出力層92から出力する。出力データは、教師データ94と比較され、その差分をニューラルネットワーク90にフィードバックして、ニューラルネットワーク92の出力データが教師データ94に近づくように、学習を進めていく。
【0065】
無修正点群データを入力データ、修正点群データを教師データとして、ニューラルネットワーク90を学習させると、静止体モデルや動体モデルを含んだ無修正点群データから、動体モデルを除去し、静止体モデルだけで構成した修正点群データに近いデータを出力するようになる。
【0066】
このように、仮想現実空間を利用してニューラルネットワークの学習データを作成することで、現実世界で実際に点群を取得して、その点群に対して正解ラベルを付与して学習データを作成するより、短時間で効率的に学習データを作成できる利点がある。
【0067】
仮想現実空間は、現実空間とそっくりに作成することが可能となってきたので、仮想現実空間で作成した学習データと、現実世界で作成する学習データの差が小さく、そのため、仮想現実空間で作成した学習データを機械学習した人工知能は、実世界で取得するデータを処理することができるという利点がある。
【0068】
本実施の形態では、無修正点群データをニューラルネットワークの入力データとしているが、完全に無修正のデータである必要はなく、ノイズと考えられる点群データは除去して、無修正点群データとしてよい。
【0069】
本実施の形態では、動体モデルである人モデルを、端末装置のコントローラ部から制御し、人モデルが把持するスマートフォンモデルで点群を取得したが、動体モデルとして人モデル以外を利用してよいし、動体モデルとしてスマートフォンモデル以外を利用してよい。例えば、自動車モデルをコントローラ部で制御して車を運転し、車載の点群取得装置で点群を取得してよい。また、飛行機モデルを自動運転モードで航行させながら、飛行機モデルに搭載した点群取得装置で地上モデルの点群を取得してよい。
【0070】
仮想現実空間で取得した点群データは、仮想現実空間と同様の状況で取得する現実世界の点群データと似ていることから、現実世界の点群を認識する人工知能の学習データとして利用することができる。仮想現実空間では、様々な状況の点群を、効率よく大量に作成できることから、人工知能の学習を効率よく進めることができる。
【0071】
本実施の形態では、図やフローチャートを用いて説明したが、本開示はかかる例に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本開示の技術的範囲に属するものと了解される。
【産業上の利用可能性】
【0072】
本開示は、人工知能などを機械学習させる場合に必要な学習データを、短時間で大量に作成する場合に有用である。
【符号の説明】
【0073】
1、1A 仮想現実空間
2 動体モデル
3 静止体モデル
4 サーバ装置
5 点群データ部
6 仮想現実空間制御管理部
7 端末装置
8 仮想現実空間ソフト
9 UI部
10 通信ネットワーク
11 モデルリスト
20、21 人モデル
22 スマートフォンモデル
23 車モデル
30 道モデル
31、32、33 家モデル
34 山モデル
40 入力部
41 出力部
42 メモリ部
43 プロセッサ部
44 ストレージ部
45 通信部
60 点群取得装置モデル部
61 点群3D座標決定部
62 点群統合部
63 ラベル付与部
64 動体モデル配置制御部
65 静止体モデル配置部
66 モデル配置部
67 通信制御部
70 入力部
71 出力部
72 メモリ部
73 プロセッサ部
74 ストレージ部
75 通信部
76 コントローラ部
77 表示部
80 静止体モデル作成部
81 動体モデル作成部
82 仮想現実空間作成部
83 通信制御部
90 ニューラルネットワーク
91 入力層
92 出力層
93 入力データ
94 教師データ
【手続補正書】
【提出日】2022-10-14
【手続補正1】
【補正対象書類名】特許請求の範囲
【補正対象項目名】全文
【補正方法】変更
【補正の内容】
【特許請求の範囲】
【請求項1】
仮想現実空間と、前記仮想現実空間の中で動く、人間を模した第1動体モデルと、前記仮想現実空間の中で点群データを取得する点群取得機器モデルと、データ識別部と、を備え、
前記仮想現実空間は、静止した静止体モデルと、動く動体モデルで構成され、
前記点群取得機器モデルは、前記第1動体モデルに把持されて、前記第1動体モデルと連動して動き、
前記データ識別部は、前記点群データに対して、前記静止体モデル、又は前記動体モデル、に基づいて、ラベルを付与し、
前記ラベルを付与された前記点群データは、人工知能が機械学習する教師データである
ことを特徴とするデータ処理装置
【請求項2】
前記データ処理装置は、データ統合部を更に備え、
前記データ統合部は、前記静止体モデルの点群データを統合して、広範囲の点群データを生成することを特徴とする請求項1に記載のデータ処理装置
【請求項3】
前記データ処理装置は、ユーザーインターフェイス部を更に備え、
前記ユーザーインターフェイス部を用いた操作により、前記第1動体モデルが操作されることを特徴とする請求項1乃至2に記載のデータ処理装置