IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 株式会社日立製作所の特許一覧

<>
  • 特開-情報圧縮システム及び情報圧縮方法 図1
  • 特開-情報圧縮システム及び情報圧縮方法 図2
  • 特開-情報圧縮システム及び情報圧縮方法 図3
  • 特開-情報圧縮システム及び情報圧縮方法 図4
  • 特開-情報圧縮システム及び情報圧縮方法 図5
  • 特開-情報圧縮システム及び情報圧縮方法 図6
  • 特開-情報圧縮システム及び情報圧縮方法 図7
  • 特開-情報圧縮システム及び情報圧縮方法 図8
  • 特開-情報圧縮システム及び情報圧縮方法 図9
  • 特開-情報圧縮システム及び情報圧縮方法 図10
  • 特開-情報圧縮システム及び情報圧縮方法 図11
  • 特開-情報圧縮システム及び情報圧縮方法 図12
  • 特開-情報圧縮システム及び情報圧縮方法 図13
  • 特開-情報圧縮システム及び情報圧縮方法 図14
  • 特開-情報圧縮システム及び情報圧縮方法 図15
  • 特開-情報圧縮システム及び情報圧縮方法 図16
  • 特開-情報圧縮システム及び情報圧縮方法 図17
  • 特開-情報圧縮システム及び情報圧縮方法 図18
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2023124660
(43)【公開日】2023-09-06
(54)【発明の名称】情報圧縮システム及び情報圧縮方法
(51)【国際特許分類】
   G06T 17/00 20060101AFI20230830BHJP
   G06T 9/00 20060101ALI20230830BHJP
   H03M 7/30 20060101ALI20230830BHJP
【FI】
G06T17/00
G06T9/00 100
H03M7/30 Z
【審査請求】未請求
【請求項の数】12
【出願形態】OL
(21)【出願番号】P 2022028562
(22)【出願日】2022-02-25
(71)【出願人】
【識別番号】000005108
【氏名又は名称】株式会社日立製作所
(74)【代理人】
【識別番号】110000279
【氏名又は名称】弁理士法人ウィルフォート国際特許事務所
(72)【発明者】
【氏名】圷 弘明
(72)【発明者】
【氏名】佐藤 功人
(72)【発明者】
【氏名】成子 貴洋
【テーマコード(参考)】
5B080
5J064
【Fターム(参考)】
5B080AA00
5B080AA17
5B080AA19
5B080CA05
5B080DA06
5B080FA02
5B080FA09
5J064BA09
5J064BC16
5J064BC28
(57)【要約】
【課題】圧縮効率をより高くすることが可能な情報圧縮システムを提供する。
【解決手段】データ取得部101は、データを取得する。生成部(セグメンテーション部102及び統合部103)は、データに写る各物体及び各物体の意味を判定し、その判定結果に基づいて、データの要素の値を各物体及び各物体の意味を表す識別情報に変換した圧縮対象データを生成する。データストア部104は、圧縮対象データを圧縮した圧縮データを生成する。したがって、情報量を削減しつつ、ランダム性の高い要素の値をランダム性の低い識別情報に変換して圧縮することが可能となるため、圧縮率をより高くすることが可能となる。
【選択図】図2
【特許請求の範囲】
【請求項1】
データを圧縮する情報圧縮システムであって、
前記データを取得する取得部と、
前記データに写る各物体及び各物体の意味を判定し、当該判定結果に基づいて、前記データの各要素の値を各物体及び各物体の意味を表す識別情報に変換した圧縮対象データを生成する生成部と、
前記圧縮対象データを圧縮した圧縮データを生成する圧縮部と、を有する情報圧縮システム。
【請求項2】
前記取得部は、前記物体の表面の各位置を示す複数の座標情報を有する点群データをさらに取得し、
前記生成部は、前記点群データと前記判定結果とに基づいて、前記表面の位置ごとに前記座標情報と当該位置にある前記物体を表す前記識別情報とを有する統合データを前記圧縮対象データとして生成する、請求項1に記載の情報圧縮システム。
【請求項3】
前記取得部は、前記データから前記点群データを取得する、請求項2に記載の情報圧縮システム。
【請求項4】
前記圧縮部は、前記圧縮対象データを、当該圧縮対象データに含まれる前記座標情報を正規化及び量子化したデータに変換して圧縮する、請求項2に記載の情報圧縮システム。
【請求項5】
前記圧縮部は、前記圧縮対象データを、前記圧縮対象データに含まれる各識別情報の値を前記物体及び前記意味の類似性に基づいて入れ替えたデータに変換して圧縮する、請求項2に記載の情報圧縮システム。
【請求項6】
前記圧縮部は、前記圧縮対象データを、前記座標情報の値と当該圧縮対象データに含まれる各識別情報から生成した色を表す値とを並べたリスト形式のデータに変換して圧縮する、請求項2に記載の情報圧縮システム。
【請求項7】
前記圧縮部は、前記圧縮対象データを、前記識別情報の値を各要素の値として有するデータである3次元の配列形式のデータに変換して圧縮する、請求項1に記載の情報圧縮システム。
【請求項8】
前記生成部及び前記圧縮部は、学習済みモデルにて一体化されて構築される、請求項1に記載の情報圧縮システム。
【請求項9】
前記圧縮部は、前記識別情報ごとに前記圧縮対象データに含まれる座標情報を圧縮する、請求項2に記載の情報圧縮システム。
【請求項10】
前記圧縮データを伸張した伸張データを生成する伸張部と、
前記伸張データを加工して出力する生成部と、をさらに有する請求項1に記載の情報圧縮システム。
【請求項11】
前記データが取得された空間及び時間の少なくとも一方を指定するためのインタフェースを提供するデータ利用部をさらに有し、
前記伸張部は、前記インタフェースにて指定された指定内容に応じた前記圧縮データを伸張する、請求項10に記載の情報圧縮システム。
【請求項12】
データを圧縮する情報圧縮システムによる圧縮方法であって、
前記データを取得し、
前記データに写る各物体及び各物体の意味を判定し、当該判定結果に基づいて、前記データの各要素の値を各物体及び各物体の意味を表す識別情報に変換した圧縮対象データを生成する生成部と、
前記圧縮対象データを圧縮した圧縮データを生成する圧縮部と、を有する情報圧縮システム。

【発明の詳細な説明】
【技術分野】
【0001】
本開示は、情報圧縮システム及び情報圧縮方法に関する。
【背景技術】
【0002】
近年、都市空間デザイン、社会インフラ及びモビリティなどの分野では、LiDAR(Light Detection and Ranging)及びカメラなどのセンサにより、多次元の点群データ及び画像データなどのセンサデータが取得され、様々な用途に活用されている。しかしながら、これらの分野などでは、センサデータのデータ量が膨大になるという問題がある。
【0003】
これに対して特許文献1には、ニューラルネットワークを用いて、多次元データを圧縮する技術が開示されている。この技術によれば、多次元データの次元数及び様式に関わらず最適な圧縮が可能となる。
【先行技術文献】
【特許文献】
【0004】
【特許文献1】特開2021-111882号公報
【発明の概要】
【発明が解決しようとする課題】
【0005】
しかしながら、特許文献1に記載の技術では、多次元データをそのまま圧縮しているため、十分な圧縮効率が得られない場合がある。
【0006】
本開示の目的は、圧縮効率をより高くすることが可能な情報圧縮システム及び情報圧縮方法を提供することにある。
【課題を解決するための手段】
【0007】
本開示の一態様に従う情報圧縮システムは、データを圧縮する情報圧縮システムであって、前記データを取得する取得部と、前記データに写る各物体及び各物体の意味を判定し、当該判定結果に基づいて、前記データの要素の値を各物体及び各物体の意味を表す識別情報に変換した圧縮対象データを生成する生成部と、前記圧縮対象データを圧縮した圧縮データを生成する圧縮部と、を有する。
【発明の効果】
【0008】
本発明によれば、圧縮効率をより高くすることが可能になる。
【図面の簡単な説明】
【0009】
図1】本開示の実施例1に係る情報圧縮システムの物理的な構成を示す図である。
図2】ノードの論理的な構成を示す図である。
図3】センサデータの一例を示す図である。
図4】統合データの一例を示す図である。
図5】センサ情報の一例を示す図である。
図6】チャンク情報の一例を示す図である。
図7】管理テーブルの一例を示す図である。
図8】データ利用インタフェースの一例を示す図である。
図9】設定インタフェースの一例を示す図である。
図10】書き込み処理の一例を説明するためのフローチャートである。
図11】読み込み処理の一例を説明するためのフローチャートである。
図12】本開示の実施例1に係るデータストア部の構成例を示す図である。
図13】本開示の実施例2に係るデータストア部の構成例を示す図である。
図14】ID変換圧縮器による変換処理を説明するための図である。
図15】本開示の実施例3に係るデータストア部の構成例を示す図である。
図16】本開示の実施例3に係るデータストア部の別の構成例を示す図である。
図17】本開示の実施例4に係るデータストア部の構成例を示す図である。
図18】本開示の実施例5に係るデータストア部の構成例を示す図である。
【発明を実施するための形態】
【0010】
以下、本開示の実施例について図面を参照して説明する。
【実施例0011】
図1は、本開示の実施例1に係る情報圧縮システムの物理的な構成を示す図である。図1に示す情報圧縮システムは、ノード1にて構成される。ノード1は、センサ2及び入出力装置3と通信可能に接続される。また、ノード1は、複数あってもよい。ノード1が複数ある場合、ノード1の少なくとも1つがセンサ2及び入出力装置3と接続されていればよい。図1の例では、2つのノード1がネットワーク4を介して相互に通信可能に接続され、一方のノード1にセンサ2が接続されている。
【0012】
ノード1は、コンピュータシステムであり、例えば、クラウドシステム、オンプレシステム、エッジコンピューティング、又は、スマートフォンのようなモバイル機器などである。
【0013】
ノード1は、メインプロセッサ11と、メインメモリ12と、ストレージ13と、IF14及び15と、サブプロセッシングユニット16とを有し、それらが内部バス17を介して相互に接続されている。
【0014】
メインプロセッサ11は、例えば、CPU(Central Processing Unit)などであり、プログラム(コンピュータプログラム)をストレージ13からメインメモリ12に読み出して実行することにより、プログラムに応じた種々の処理を実行する。メインメモリ12は、プログラムのワーク領域として用いられる記憶装置である。ストレージ13は、プログラム、並びに、メインプロセッサ11及びサブプロセッシングユニット16にて使用及び生成される情報などを格納する格納装置である。IF14及び15は、外部装置と通信可能に接続する通信装置であり、図1では、IF14がセンサ2と接続し、IF15がネットワーク4を介して他のノード1と接続されている。
【0015】
サブプロセッシングユニット16は、プログラムに応じた所定の処理を実行するためのユニットであり、例えば、GPU(Graphics Processing Unit)などである。サブプロセッシングユニット16は、複数の処理を同時に実行する多重処理を行うための複数のコア16aと、コア16aによりワークエリアとして使用されるサブメモリ16bとを有する。
【0016】
センサ2は、Lidarのような光学センサ、光学的カメラ及び重力センサなどの種々のセンシングデバイスであり、検出したセンサデータをノード1に送信する。なお、センサ2の代わりに、又は、センサ2に加えて、SDカードのようなセンサデータを保存した記録媒体などが使用されてもよい。
【0017】
入出力装置3は、キーボード、タッチパネル及びポインティングデバイスのような情報圧縮システムを利用するユーザから種々の情報を受け付ける入力装置と、ディスプレイ装置及びプリンタのようなユーザに対して種々の情報を出力する出力装置とを含む。また、入出力装置3は、ユーザにて使用されるモバイル端末などでもよい。
【0018】
図2は、ノード1の論理的な構成を示す図である。図2に示すようにノード1は、データ取得部101と、セグメンテーション部102と、統合部103と、データストア部104と、データ変換部105と、データ利用部106とを有する。なお、ノード1の各部101~106は、例えば、メインプロセッサ11及びサブプロセッシングユニット16の少なくとも一方がプログラムを実行することで実現される。
【0019】
データ取得部101は、センサ2からセンサデータを取得する。本実施例では、センサデータは、Lidar又はTOF(Time of Flight)センサのような測量センサにて取得された3次元の点群データと、カラーカメラにて取得された画像データである色カメラデータとを含む。点群データは、物体の表面の各位置を示す点データの集合であり、各点データは、物体の表面の位置の座標を示す座標情報を含む。色カメラデータは、画素ごとに複数の色(本実施例では、R(赤)、G(緑)及びB(青))を示す色情報を画素値として有する。また、点群データ及び色カメラデータは、本実施例では、時系列データである。色カメラデータは、具体的には、動画像データである。
【0020】
なお、データ取得部101は、取得するセンサデータを指定するためのデータ利用インタフェースをユーザに提供し、データ利用インタフェースにて指定されたセンサデータを取得してもよい。なお、データ利用インタフェースの代わりに、取得するセンサデータを指定するためコマンド又はAPI(Application Programming Interface)などが使用されてもよい。
【0021】
セグメンテーション部102は、データ取得部101にて取得された色カメラデータに写る各物体と各物体の意味とを判定し、その判定結果に基づいて、色カメラデータの各画素値を各物体及び各物体の意味を表す識別情報に変換したセグメンテーションデータを生成する。識別情報は、物体を識別する識別情報であるインスタンスIDと、物体の意味を識別する識別情報である意味IDを含む。なお、セグメンテーションデータでは、各画素値の少なくとも一部が識別情報に変換されればよい。
【0022】
セグメンテーション部102による処理であるセグメンテーション処理には、例えば、色カメラデータに写る各物体と各物体の意味とを判定するための学習済みモデルであるセグメンテーションモデルと、インスタンスID及び意味IDを定義するための管理テーブルとが使用される。セグメンテーション部102は、セグメンテーション処理に係る設定を行うための設定インタフェースをユーザに提供し、設定インタフェースを介した設定に応じてセグメンテーション処理を実行してもよい。
【0023】
統合部103は、センサ2に関するセンサ情報に基づいて、データ取得部101にて取得された点群データと、セグメンテーション部102による処理結果であるセグメンテーションデータとを統合した統合データを生成する。統合データは、具体的には、色カメラデータに写る物体の表面の位置ごとに、その位置の座標を示す座標情報とその位置にある物体を表す識別情報とを有する。統合データは、本実施例では、実際に圧縮される圧縮対象データとなり、セグメンテーション部102及び統合部103は、圧縮対象データを生成する生成部を構成する。なお、統合部103は、センサ情報50を用いて、データ取得部101にて取得された点群データを、統一化された座標空間(データ利用インタフェース80で指定する座標空間)に変換する。これにより、データ利用インタフェース80で統一的にデータを扱うことができ、さらに同一の物体を多視点のセンサで撮影する場合に、冗長となる点群データを、後述する量子化および圧縮処理により効率的にデータ量を削減することができる。
【0024】
データストア部104は、統合部103にて統合された統合データを圧縮した圧縮データを生成する圧縮部の機能と、圧縮データを伸張した伸張データを生成する伸張部の機能とを有する。
【0025】
例えば、データストア部104は、統合データをチャンクと呼ばれるデータブロック単位で圧縮する。また、データストア部104は、圧縮データを、その圧縮を行ったデータストア部104を有するノード1である自ノードに格納してもよいし、自ノードとは別のノード1である他のノードに転送して他ノードに格納してもよい。また、データストア部104は、所定のタイミング又はユーザからの指示に応じて、圧縮データを読み出して伸張する。
【0026】
データ変換部105は、データストア部104にて生成された伸張データを所定の形式のデータに変換する。例えば、データ変換部105は、伸張データをメッシュデータに変換したり、機械学習用の学習用データに変換したりする。また、伸長したデータは変換されずに、そのまま用いられてもよい。
【0027】
データ利用部106は、データ変換部105にて変換された変換データを出力データとして提供する。例えば、データ利用部106は、出力データを入出力装置3に表示したり他のノード1に送信したりして、伸張データのリアルタイム利用又は時系列利用などを図る。リアルタイム利用は、例えば、推論及び可視化などであり、時系列利用は学習及び解析などである。
【0028】
図3は、センサデータの一例を示す図である。図3に示すセンサデータ30は、点群データ30aと、色カメラデータ30bとを有する。
【0029】
点群データ30aは、物体の表面の位置を示す座標情報である点データ31の集合であり、各点データは、物体の表面の位置の座標を、x軸、y軸及びz軸で定義された直交座標系で示す。x軸、y軸及びz軸は、センサ2ごとに定義されていてもよいし、広域的に定義されていてもよい。
【0030】
色カメラデータ30bは、横軸方向と縦軸方向の2次元方向にマトリックス状に配置された画素ごとに、その画素の画素値を示す。画素値は、互いに異なる複数の色(本実施例では、R(赤)、G(緑)、B(青))のそれぞれを表す複数の値からなる色情報を有する。このため、色カメラデータ30bは、3次元配列のデータ([3][X][Y])とみなすこともできる。ここで[3]は色情報、[X]は縦軸方向の画素位置、[Y]は縦軸方向の画素位置を示す。なお、図3では、簡単のため、単一の色に対応する画素値のみを示している。
【0031】
点群データ30a及び色カメラデータ30bは、本実施例では、時系列データであり、図3では、ある時点における点群データ30a及び色カメラデータ30bが示されている。
【0032】
図4は、統合データの一例を示す図である。図4に示す統合データ40は、フィールド410~43を有する。フィールド41は、物体の表面の位置を示す座標情報(点データ)を格納する。フィールド42は、フィールド41の座標情報が示す位置にある物体の意味を識別する意味IDを格納する。フィールド43は、フィールド41の座標情報が示す位置にある物体を識別するインスタンスIDを格納する。
【0033】
図5は、センサ情報の一例を示す図である。図5に示すセンサ情報50は、フィールド51~59を有する。
【0034】
フィールド51は、センサ2を識別する識別情報であるセンサIDを格納する。フィールド52は、フィールド51のセンサIDにて識別されるセンサ2の種別を格納する。本実施例では、種別には、点群データを取得するセンサ2(例えば、Lidar)である「点群」と、色カメラデータを取得するセンサ2(例えば、カラーカメラ)に対応する「色カメラ」とがある。フィールド53は、統合データを生成する点群データ及び色カメラデータを取得するセンサ2のペアを特定するためのペアIDを格納する。図5の例では、種別として「色カメラ」を格納したフィールド52に対応するフィールド53に、その「色カメラ」のセンサ2とペアとなる「点群データ」のセンサ2のセンサIDがペアIDとして格納される。
【0035】
フィールド54は、センサ2が配置されている位置を示す位置情報を格納する。位置情報は、センサ2の位置を、x軸、y軸及びz軸の直交座標系で示している。なお、センサ2の位置を規定するための座標軸(x軸、y軸及びz軸)と、図2に示した点群データの座標軸とは同一でなくてもよい。フィールド55は、センサ2の向きを示す向き情報を格納する。向き情報は、図5の例では、回転角Ψ、仰角θ及び方位角Φで示されている。フィールド56は、センサ2のスケールを格納する。フィールド57は、センサ2の焦点距離を格納する。フィールド58は、センサ2の解像度を格納する。フィールド59は、センサ2の画角を格納する。
【0036】
図6は、統合データを圧縮するデータブロック単位であるチャンクに関するチャンク情報の一例を示す図である。図6に示すチャンク情報60は、フィールド61~68を有する。
【0037】
フィールド61は、圧縮する統合データの生成に用いたセンサ2を識別するセンサIDを格納する。フィールド62は、統合データにおけるチャンクのx方向の開始位置を格納し、フィールド63は、統合データにおけるチャンクのy方向の開始位置を格納し、フィールド64は、統合データにおけるチャンクのz方向の開始位置を格納する。フィールド65は、統合データにおけるチャンクの開始時刻を格納し、フィールド66は、統合データにおけるチャンクの終了時刻を格納する。なお、x方向、y方向及びz方向のそれぞれにおけるチャンクの幅は、例えば、チャンク情報60とは別に予め指定されている。なお、フィールド61は、複数のセンサIDを格納し、複数のセンサから取得した情報を同一のチャンクに格納してもよい。
【0038】
フィールド67は、チャンクの圧縮状態を格納する。圧縮状態は、チャンクが圧縮済みか否かを示し、チャンクが圧縮済みの場合には、チャンクを圧縮した圧縮アルゴリズムをさらに示す。フィールド68は、チャンクを圧縮した圧縮データを格納する。圧縮データは、圧縮したチャンク本体である圧縮済みバイナリデータ、チャンクの圧縮に使用した管理テーブルを示す参照情報、及び、圧縮時に行う正規化に関する設定値などを含む。参照情報は、例えば、管理テーブルを示すポインタである。設定値は、例えば、正規化がMin-Max法を用いて行われる場合、各座標軸に対応する最小値及び最大値である。
【0039】
なお、図6の例では、チャンクは位置及び時間にて設定されているが、チャンクの設定方法はこの例に限らない。例えば、チャンクは、インスタンスID及び意味IDの少なくとも一方に応じて設定されてもよい。
【0040】
図7は、管理テーブルの一例を示す図である。図7に示す管理テーブル70は、意味管理テーブル70aと、インスタンス管理テーブル70bとを有する。
【0041】
意味管理テーブル70aは、フィールド71及び72を有する。フィールド71は、意味IDを格納する。フィールド72は、意味IDにて識別される意味を示す意味情報を格納する。本実施例では、意味情報は、「人」又は「机」などの物体の種別を意味として示す。
【0042】
インスタンス管理テーブル70bは、フィールド73及び74を有する。フィールド73は、インスタンスIDを格納する。フィールド74は、インスタンスIDにて識別される物体を広域的に識別する広域IDを格納する。なお、インスタンスIDは、単一の統合データ(又は、単一の対象空間)で物体を識別する識別情報であり、広域IDは、全ての統合データに共通して対象物を識別する識別情報である。
【0043】
図8は、データ利用部106を介して出力データを読み出すためのデータ利用インタフェースの一例を示す図である。図8に示すデータ利用インタフェース80は、指定欄81~87を含む。
【0044】
指定欄81は、読み出す出力データに対応するセンサ2を識別するセンサIDを指定するための欄である。指定欄82は、取得するセンサデータの空間上の開始位置を指定する欄であり、指定欄83は、読み出す出力データの空間上の終了位置を指定する欄である。図8の例では、開始位置及び終了位置はx,y,z座標を指定する。指定欄84は、読み出す出力データの開始時刻を指定する欄であり、指定欄85は、読み出す出力データの終了時刻を指定する欄である。指定欄86は、読み出す出力データの意味を表す意味IDを指定する欄であり、指定欄87は、読み出す出力データのインスタンスを指定する欄である。意味ID及びインスタンスIDが指定されると、その指定されたIDに対応する出力データのみが取得される。
【0045】
指定欄81~87では、全てを指定する「Any」を設定することも可能である。また、開始時刻又は終了時刻には、「リアルタイム」を指定することもできる。この場合、データ取得部101が取得している現在時刻のセンサデータに対応する出力データが、データ利用部106を介してリアルタイムにストリームにて読み出される。
【0046】
図9は、セグメンテーション部102によるセグメンテーション処理に係る設定を行うための設定インタフェースの一例を示す図である。図9に示す設定インタフェース90は、選択欄91~93と、設定ボタン94及び95とを有する。
【0047】
選択欄91は、セグメンテーション処理に使用するセグメンテーションモデルの格納場所を指定する欄である。選択欄92は、セグメンテーション処理に使用する管理テーブルの格納場所を指定する欄である。選択欄93は、セグメンテーション処理にて色カメラデータからセグメンテーションデータに変換する変換内容と取得の要否を指定する欄である。具体的には、選択欄93では、データを取得する対象とする物体の意味と、その画素の画素値を識別情報に変換するか色情報のままにするかが指定される。例えば、意味「机」に対して取得が不要と設定されると、セグメンテーションの結果で「机」と判断されたデータ部分は削除され、格納されない。この機能により、不要なデータの取得を抑止し、記憶容量を節約することができる。
【0048】
設定ボタン94は、セグメンテーションモデル及び管理テーブルを設定するためのボタンであり、押下されることで、選択欄91及び92にて指定された格納場所に格納されたセグメンテーションモデル及び管理テーブルが設定される。設定ボタン95は、変換内容を設定するためのボタンであり、押下されることで、変換内容が設定される。
【0049】
設定インタフェースを用いることにより、「人」のような特定の意味を有する物体に対して色情報を削除して意味ID及びインスタンスIDに置き換えることが可能となるため、プライバシを保護することが可能となる。
【0050】
図10は、センサデータを圧縮して格納するまでの処理である書き込み処理の一例を説明するためのフローチャートである。
【0051】
書き込み処理では、先ず、データ取得部101は、センサ2から、センサデータを取得する(ステップS101)。ここでは、センサデータは、点群データ及び色カメラデータを含む。
【0052】
セグメンテーション部102は、設定インタフェースにて設定されたセグメンテーションモデル及び管理テーブルを用いて、データ取得部101にて取得されたセンサデータ内の色カメラデータを解析して、色カメラデータに写る物体とその意味を特定する。そして、セグメンテーション部102は、特定した物体を識別する識別情報であるインスタンスIDと、物体の意味を識別する識別情報である意味IDを取得する(ステップS102)。
【0053】
セグメンテーション部102は、設定インタフェース90にて設定された変換内容に従って、色カメラデータをセグメンテーションデータに変換する(ステップS103)。これにより、設定インタフェース90にて設定された意味を有する物体が写る画素だけが識別情報又は色情報としてセグメンテーションデータに残すフィルタリングが行われることとなる。
【0054】
統合部103は、センサ情報に基づいて、互いに対応する点群データ及びセグメンテーションデータを統合した統合データを生成する(ステップS104)。ここでは、センサデータとして、点群データ及び色カメラデータを取得している場合、統合部103は、セグメンテーションデータの画素の空間位置に対応した点群データの座標点に対して、識別情報を付与した統合データを生成する。また、データ取得部101が点群データを取得しない場合においても、統合データを生成する方法がある。具体的には、統合部103は、色カメラデータからセグメンテーションデータを得るとともに、深度マップ(画素に対応する物体のセンサからの距離)を深度推定法のような一般的な方法により算出し、その算出した深度マップから空間上の座標点を計算する。これにより、統合部103は、点群データと同様の情報を得ることができ、それを用いて同様に座標点の情報を持つ統合データを生成することができる。
【0055】
データストア部104は、統合部103にて生成された統合データを複数のチャンクデータに分割して、各チャンクデータに関するチャンク情報を生成する(ステップS105)。
【0056】
データストア部104は、各チャンクデータを正規化する(ステップS106)。ここでは、データストア部104は、Min-Max法を用いて各チャンクデータを正規化する。
【0057】
データストア部104は、このタイミングでチャンクデータを圧縮する同期圧縮を行うか否かを判断する(ステップS107)。なお、同期圧縮を行うか否かは、例えば、予め設定されている。
【0058】
同期圧縮を行う場合(ステップS107:Yes)、データストア部104は、各チャンクデータの量子化を行う(ステップS108)。ここで、量子化とは、例えば、浮動小数点の座標で表現される点群データについて、量子化幅と呼ぶ値を除算した上で、round関数などの演算により整数値化することである。正規化の際に、量子化幅を用いて、量子化の粒度を調整することができる。例えば、点群の場合、量子化後に、重複した同一座標点が現れる場合があるため、それを削除することにより、データ量を効率的に削減できる。ここで、重複した同一座標点の削除は、例えば、機械学習の処理系における重複の要素を排除するunique関数などを用いることにより、サブプロセッシングユニット16上で、高速に実行することができる。また、量子化の粒度を荒くすると、精度が低くなりデータ量が減り、粒度を細かくすると、精度が高くなりデータ量が増える。つまり、量子化の粒度(量子化幅)を調整することによって、データ量と座標の精度のバランスを調整することができる。さらにここで述べた量子化と同一座標点の削除は、同一の対象物を複数視点で撮影したセンサデータを同時に処理することで、より多くの重複の要素を効率的に排除できるため、全体のデータ量を効率的に削減できる。その後、データストア部104は、量子化した各チャンクデータを圧縮した圧縮データを対象データとして生成する(ステップS109)。一方、同期圧縮を行わない場合(ステップS107:No)、データストア部104は、ステップS108及びS109の処理をスキップして、チャンクデータを対象データとする。
【0059】
そして、データストア部104は、このタイミングで各対象データを他のノードに転送する同期転送を行うか否かを判断する(ステップS110)。なお、同期転送を行うか否かは、例えば、予め設定されている。
【0060】
同期転送を行う場合(ステップS110:Yes)、データストア部104は、対象データを他のノード1に転送する(ステップS111)。そして、他のノード1のデータストア部104は、対象データを受信すると、その対象データを格納し(ステップS112)、書き込み処理を終了する。また、同期圧縮を行わない場合(ステップS110:No)、データストア部104は、ステップS111の処理をスキップし、当該ノード1である自ノードに対象データを格納し(ステップS112)、書き込み処理を終了する。
【0061】
以上説明した書き込み処理の各処理(ステップS101~S112)の処理は、別々のノード1で実行されてもよい。この場合、各処理の間にデータを他のノード1に転送する転送処理が行われる。また、同期圧縮が行われなかった各チャックデータについても、任意のタイミングで圧縮することができ、同期転送が行われなかった対象データについても、任意のタイミングで他のノード1に転送することができる。
【0062】
図11は、圧縮データを伸張して出力するまでの処理である読み込み処理の一例を説明するためのフローチャートである。
【0063】
読み込み処理では、データストア部104は、伸張対象となるチャンクデータを対象チャンクデータとして特定する(ステップS201)。例えば、データ利用部106は、データ利用インタフェースを提供して伸張対象となるチャンクデータをユーザに指定させ、データストア部104は、ユーザから指定されたチャンクデータを対象チャンクデータとして特定する。
【0064】
データストア部104は、対象チャンクデータが自ノードに格納されているか否かを判断する(ステップS202)。
【0065】
対象チャンクデータが自ノードに格納されている場合(ステップS202:Yes)、データストア部104は、対象チャンクデータを読み込む(ステップS203)。一方、対象チャンクデータが自ノードに格納されていない場合(ステップS202:No)、データストア部104は、対象チャンクデータを格納している他のノード1から対象チャンクデータを読み込む(ステップS204)。
【0066】
そして、データストア部104は、読み込んだ対象チャンクデータが圧縮されているか否かを判断する(ステップS205)。
【0067】
対象チャンクデータが圧縮されている場合(ステップS205:Yes)、データストア部104は、対象チャンクデータの伸張する(ステップS206)。データストア部104は、伸張した対象チャンクデータの逆量子化を行い(ステップS207)、さらに再正規化を行う(ステップS208)。ここでの逆量子化とは、対象チャンクデータに対して圧縮時の量子化幅を乗算し元の値のスケールに戻すことである。対象チャンクデータが圧縮されていない場合(ステップS205:No)、データストア部104は、ステップS206~S208の処理をスキップする。
【0068】
そして、データストア部104は、対象チャンクデータを結合して伸張データを生成する(ステップS209)。なお、チャンクデータに対する圧縮が可逆圧縮の場合、伸張データは統合データとなる。
【0069】
データ変換部105は、データストア部104にて生成された伸張データを所定の形式のデータに変換して出力し(ステップS210)、読み出し処理を終了する。
【0070】
以上説明した読み出し処理の各処理(ステップS201~S210)の処理は、別々のノード1で実行されてもよい。この場合、各処理の間にデータを他のノード1に転送する転送処理が行われる。
【0071】
図12は、データストア部104のより詳細な構成を示す図である。データストア部104は、圧縮処理用の構成として、正規化/量子化器201と、ボクセル(Voxel)化器202と、エントロピー推定器203と、エントロピー符号化器204とを有し、伸張処理用の構成として、エントロピー復号器211と、エントロピー推定器212と、PC(Point Cloud)化器213と、逆量子化/再正規化器214とを有する。エントロピー推定器203及び212は、同一の構成としてもよい。
【0072】
圧縮処理では、先ず、正規化/量子化器201は、チャンクデータ内の座標情報に対して正規化及び量子化を行う。正規化及び量子化は、3次元空間を規定する座標軸(x軸、y軸及びz軸)のそれぞれについて行われる。
【0073】
続いて、ボクセル化器202は、座標情報が正規化及び量子化されたチャンクデータである量子化チャンクデータをボクセル化したボクセル情報を生成する。具体的には、ボクセル化器202は、チャンクデータを、所定の体積を有する3次元領域である複数のボクセルに分割し、各ボクセルの値を、ボクセルに含まれる各座標に対応する識別情報(意味ID及びインスタンスID)に基づいて設定する。各ボクセルの値は、具体的には、ボクセルに含まれる各座標に対応する意味ID及びインスタンスIDのうち、最も数の多い意味ID及びインスタンスIDとする。これにより、チャンクデータは、意味ID(S)を値として有するボクセルCh1と、インスタンスID(I)を値として有するボクセルCh2との集合であるボクセル情報に変換される。
【0074】
なお、意味ID及びインスタンスIDの代わりに色情報が各座標情報に対応付けられている場合、ボクセル情報は、赤色(R)を示す値を有するボクセルCh3と、緑色(G)を示す値を有するボクセルCh4と、青色(B)を示す値を有するボクセルCh5との集合となる。また、各ボクセルは、八分木(Octree)構造で表されてもよい。
【0075】
エントロピー推定器203は、ボクセル情報のエントロピーを推定する。ここでは、エントロピー推定器203は、エントロピーとして、ボクセル情報の値となり得る各シンボルの出現確率を表す確率分布(以下、単に確率分布と呼ぶこともある)を推定する。エントロピー推定器203は、例えば、多層3次元畳込みニューラルネットワーク(Convolutional Neural Network:CNN)のようなDNN(Deep Neural Network)を用いた学習済みモデルにて構築される。エントロピー推定器203は、解像度の低いボクセル情報を入力とし、解像度の高いボクセル情報の確率分布を推定してもよい。この場合、予測精度の向上及び多様な解像度の復号(一般にプログレッシブなどと呼ばれる)への対応のため、段階的に、複数の解像度のボクセル情報を、エントロピー推定器203の入力として、確率分布を推定してもよい。また、推定精度の向上のために、時系列のデータを扱う際に、類似性の高い過去のボクセル情報又は、統計的な処理(例えば、所定の期間の中央値、平均値又は分散などを求める処理)を施したボクセル情報を入力としてもよい。また、推定精度の向上のために、多層3次元CNNを自己回帰モデルとして用いて、推定対象の近傍などの既知のボクセル情報のシンボル値をエントロピー推定器203の入力とすることで、推定対象のシンボルの確率分布が推定されてもよい。また、以上で述べた複数の方法に対応するエントロピー推定器203への複数の入力データについて、データの解像度を一致させたうえで結合し、多層3次元CNNのチャネルに入力するなどにより、組み合わせることで効率化してもよい。
【0076】
そして、エントロピー符号化器204は、エントロピー推定器203にて推定された確率分布に基づいて、ボクセル情報を符号化して圧縮済みバイナリデータを生成する。
【0077】
また、伸張処理では、エントロピー復号器211は、圧縮済みバイナリデータを復号してボクセル情報を生成する。具体的には、エントロピー復号器211は、エントロピー推定器212を用いて、ボクセルの値(シンボル)の確率分布を予測し、エントロピー復号器211は、圧縮済みバイナリデータと予測した確率分布を用いて、シンボルを復号し、最終的にボクセル情報として復号する。エントロピー推定器212としては、符号化時と同一の確率分布の推定結果を得るため、エントロピー推定器203と同じものが用いられる。また、エントロピー推定器212への入力は、に符号化時のエントロピー推定器203への入力と同じ内容である。また、圧縮時に異なる解像度での段階的な確率分布の推定、又は、自己回帰モデルによる確率分布の推定を実施した場合、エントロピー推定器212による確率分布の推定とエントロピー復号器211によるボクセル情報の復号を、複数回繰り返すことにより、最終的なボクセル情報が復号される。
【0078】
PC化器213は、エントロピー復号器211にて生成されたボクセル情報を座標情報と識別情報とを有する量子化チャンクデータに変換する。逆量子化/再正規化器214は、PC化器213にて変換された量子化チャンクデータの座標情報に対して逆量子化及び再正規化を行い、伸張データとなるチャンクデータを生成する。
【0079】
以上説明したように本実施例によれば、データ取得部101は、色カメラデータを取得する。生成部(セグメンテーション部102及び統合部103)は、色カメラデータに写る各物体及び各物体の意味を判定し、その判定結果に基づいて、色カメラデータの画素値を各物体及び各物体の意味を表す識別情報に変換した圧縮対象データを生成する。データストア部104は、圧縮対象データを圧縮した圧縮データを生成する。したがって、情報量を削減しつつ、ランダム性の高い画素値をランダム性の低い識別情報に変換して圧縮することが可能となるため、圧縮率をより高くすることが可能となる。
【0080】
また、本実施例では、データ取得部101は、物体の表面の各位置を示す複数の座標情報を有する点群データをさらに取得し、生成部は、表面の位置ごとに座標情報と当該位置にある物体を表す識別情報とを有する統合データを圧縮対象データとして生成する。このため、圧縮率をより高くすることが可能となる。さらに言えば、データ取得部101は、取得するデータとして、縦と横の2個の次元を持つ画像以外にも、縦と横と奥行きを持つような3次元のボクセルデータなどを取得してもよい。その場合は、セグメンテーション変換は3次元のボクセルデータに対して実行され、以降の処理も3次元のボクセルデータとして処理すればよい。
【0081】
また、本実施例では、データストア部104は、圧縮対象データを、その圧縮対象データに含まれる座標情報を正規化及び量子化したデータに変換して圧縮する。したがって圧縮率をより高くしつつ、識別情報をそのまま圧縮することが可能となるため、識別情報の値が量子化によってずれることを抑制することが可能となる。
【実施例0082】
図13は、本開示の実施例2に係る情報圧縮システムに係るデータストア部104の構成例を示す図である。図13に示すデータストア部104は、圧縮処理用の構成として、図12に示した構成に加えて、ID変換圧縮器301と、ボクセル符号化器302とをさらに有し、伸張用の構成として、図12に示した構成に加えて、ID変換伸張器311をさらに有し、また、PC化器213の代わりに、ボクセル復号/PC化器213aをさらに有する。
【0083】
圧縮処理では、ID変換圧縮器301は、識別情報の値を、識別情報が示す物体及び意味の類似性に基づいて入れ替える。ID変換圧縮器301は、例えば、DNNなどを用いた学習済みモデルにて構築される。
【0084】
図14は、ID変換圧縮器301による変換処理を説明するための図である。図14(a)に示すように、通常、意味IDにて識別される「意味」は、意味IDの値とは独立して設定されるため、意味IDの値の間の距離と「意味」の類似性(意味的な距離)とは独立している。このため、意味IDをそのまま圧縮すると、圧縮による意味IDの値のずれにより、圧縮前と伸張後の「意味」が大きく変化してしまう恐れがある。
【0085】
このため、ID変換圧縮器301は、図14(b)に示すように意味IDの値を意味に応じて変換する。例えば、ID変換圧縮器301は、「車」と「道路」のような意味的な距離が近接する意味IDの値が近くなるように変換する。
【0086】
なお、図14では、変換前の意味IDの値を整数値としている。変換後の意味IDの値は、整数値に限らない。また、変換後の意味IDの値は、幅を有してもよい。例えば、意味IDの値が0.5~1.1までの場合、その意味IDが意味として「車」を表してもよい。また、なお、図14では、意味IDを例に説明したが、変換圧縮器301は、インスタンスIDについても意味IDと同様に変換してもよい。
【0087】
図13の説明に戻る。ボクセル符号化器302は、ボクセル化器202にて生成されたボクセル情報を量子化し、その量子化したボクセル情報を非可逆変換により符号化することで特徴量マップに変換する。ボクセル符号化器302は、CNNのようなDNNを用いた学習済みモデルにて構築される。また、量子化後のボクセル値は、その量子化範囲に含まれる識別情報のうち最も多い識別情報の値が選ばれる。
【0088】
エントロピー推定器203は、ボクセル符号化器302にて生成された特徴量マップのエントロピーとして確率分布を推定し、エントロピー符号化器204は、その確率分布に基づいて特徴量マップを符号化して圧縮済みバイナリデータを生成する。
【0089】
伸張処理では、エントロピー復号器211は、圧縮済みバイナリデータを復号して特徴量マップを生成する。ボクセル復号/PC化器213aは、エントロピー復号器211にて生成された特徴量マップを復号してボクセル情報を生成し、そのボクセル情報を座標情報と識別情報とを有する量子化チャンクデータに変換する。
【0090】
逆量子化/再正規化器214は、量子化チャンクデータの座標情報に対して逆量子化及び再正規化を行い、ID変換伸張器311は、量子化チャンクデータのID情報に対してID変換圧縮器301による変換の逆変換を行うことで、伸張データとなるチャンクデータを生成する。
【0091】
以上説明したように本実施例によれば、識別情報の値が意味の類似性に基づいて入れ替えてから識別情報が圧縮されるため、識別情報の非可逆圧縮が行われても、意味のずれが発生することを抑制することが可能となる。したがって、圧縮率をより向上させることが可能となる。
【実施例0092】
図15は、本開示の実施例3に係る情報圧縮システムに係るデータストア部104の構成を示す図である。図15に示すデータストア部104は、圧縮処理用の構成として、意味ID変換圧縮器401と、インスタンスID変換圧縮器402と、点群圧縮器403とを有する。
【0093】
本実施例では、データストア部104は、圧縮対象データの各チャンクデータを座標情報(x,y,z)と識別情報(S,I)との各成分からなるリスト形式のデータ(x,y,z,S,I)として処理する。
【0094】
意味ID変換圧縮器401及びインスタンスID変換圧縮器402は、識別情報(S,I)を色情報形式の情報(R,G,B)に変換するID色変換器を構成する。これにより、リスト形式のデータ(x,y,z,S,I)は、色情報を用いたリスト形式のデータ(x,y,z,R,G,B)に変換される。なお、リスト形式のデータ(x,y,z,R,G,B)に含まれる色情報(R,G,B)は、識別情報(S,I)から変換されたものであるため、元の色カメラデータに含まれる色情報とは異なり、ランダム性を低くすることが可能となり、圧縮率を高くすることが可能となる。
【0095】
点群圧縮器403は、リスト形式の情報(x,y,z,R,G,B)を色情報付きの点群データとして圧縮した圧縮済みバイナリデータを生成する。点群圧縮器403としては、点群データを圧縮するための既存の圧縮器を使用することができる。
【0096】
なお、データストア部104は、伸張処理用の構成としては、例えば、点群圧縮器303にて生成された圧縮済みバイナリデータを伸張した伸張データを生成する点群伸張器と、点群伸張器にて生成された伸張データの識別情報を逆変換してリスト形式のデータ(x,y,z,S,I)を生成する色ID変換器とを有する(共に図示せず)。
【0097】
また、以上の説明では、センサデータは、点群データと色カメラデータとを有していたが、点群データを有していなくてもよい。この場合、例えば、データ取得部101は、色カメラデータを解析して物体の表面の位置を推定することで、色カメラデータから点群データを取得してもよいし、点群データを用いずにセンサデータを圧縮してもよい。
【0098】
図16は、点群データを用いずにセンサデータを圧縮する場合におけるデータストア部104の構成の一例を示す図である。図16に示すデータストア部104は、圧縮処理用の構成として、意味ID変換圧縮器411と、インスタンスID変換圧縮器412と、動画像圧縮器413とを有する。
【0099】
図16の例では、データストア部104は、圧縮対象データの各チャンクデータを、識別情報(S,I)と、縦軸方向の画素位置、縦軸方向の画素位置とを示す3次元配列のデータ([2][x][y])とみなす。ここで、[2]は識別情報、[X]は縦軸方向の画素位置、[Y]は縦軸方向の画素位置を示す。
【0100】
意味ID変換圧縮器411及びインスタンスID変換圧縮器412は、識別情報(S,I)を色情報形式の情報(R,G,B)に変換するID色変換器を構成する。これにより、3次元配列のデータ([2][x][y])は、色情報を用いた3次元配列のデータ([3][x][y])に変換される。なお、3次元配列のデータ([3][x][y])に含まれる色情報[3]は、識別情報(S,I)から変換されたものであるため、元の色カメラデータに含まれる色情報とは異なり、ランダム性を低くすることが可能となり、圧縮率を高くすることが可能となる。
【0101】
動画像圧縮器413は、3次元配列形式の情報([3][x][y])を画像データ(より具体的には、動画像データ)として圧縮する。動画像圧縮器413としては、動画像を圧縮するための既存の圧縮器を使用することができる。
【0102】
データストア部104は、伸張処理用の構成としては、例えば、動画像圧縮器413にて生成された圧縮済みバイナリデータを伸張した伸張データを生成する動画像伸張器と、動画像伸張器にて生成された伸張データの識別情報を逆変換して3次元配列のデータ([2][x][y])を生成する色ID変換器とを有する(共に図示せず)。
【0103】
なお、図16の構成の場合、統合部103の処理は省略される。また、図16の構成の場合、伸張するデータの空間範囲の指定は、例えば、センサを指定することで行われる。また、伸張するデータの空間範囲の指定は、位置を指定することで行われてもよい。この場合、センサ情報テーブルに基づいて、指定された位置からセンサIDが特定される。
【0104】
以上説明したように本実施形態では、圧縮対象データは色情報を含むリスト形式のデータ又は3次元配列のデータに変換されて圧縮される。このため、既存の圧縮器を用いて圧縮効率を高めることが可能となる。また、画像データから点群データを取得することができるため、点群データを取得するセンサなどを用いなくてもよくなる。
【実施例0105】
図17は、本開示の実施例4に係る情報圧縮システムに係るセグメンテーション部102及びデータストア部104の構成を示す図である。図17の例では、センサデータは点群データを有していない。また、セグメンテーション部102及びデータストア部104が一体化されている。
【0106】
セグメンテーション部102及びデータストア部104は、圧縮処理用の構成として、エンコーダ501と、エントロピー推定器502と、デコーダ503とを有し、伸張用の構成として、生成デコーダ504を有する。
【0107】
エンコーダ501は、色カメラデータである入力画像([3][x][y])を非可逆変換によりエンコードして圧縮することで、入力画像(image[3][x][y])を符号化データ(z[c][a][b])に変換する。符号化データは、例えば、特徴量マップである。
【0108】
エントロピー推定器502は、画像エンコーダ501にて生成された符号化データのエントロピー(確率分布)を推定し、図12と同様に、エントロピー符号化とエントロピー復号化処理を実行する。
【0109】
デコーダ503は、画像エンコーダ501にて生成された符号化データをデコードして、圧縮済みバイナリデータである出力セグメンテーションデータ(seg[2][x][y])を生成する。
【0110】
エンコーダ501及びデコーダ503は、CNNのようなDNNを用いた学習済みモデルにて構築される。機械学習により学習済みモデルを構築するためには、例えば、セグメンテーション部102及びデータストア部104とをまとめたエンドツーエンド(end-to-end)の学習を用いる。学習におけるロス関数としては、例えば、「Loss=λ * entropy + distortion(segデータ, 教師segデータ)」を用いる。ここで、λはRate-distortionトレードオフを定めるためのパラメータ、「entropy」はエントロピー推定器502にて算出されるエントロピー(情報量)である。また、segデータは出力セグメンテーションデータ、教師segデータは、出力セグメンテーションデータの教師データである。distortion関数は、例えば、典型的には、クロスエントロピー(Cross Entropy)などのセグメンテーションにおける一般的なロス関数や、平均二乗誤差(MSE)などである。その他、画像における微分可能な画質指標など、例えば、MS-SSIM(Multi-Scale Structural Similarity)などを用いてもよい。
【0111】
生成デコーダ504は、出力セグメンテーションデータをデコードして伸張データとして色情報を有する出力画像データ(image[3][x][y])を生成する。生成デコーダ504は、例えば、GAN(Generative Adversarial Network:敵対的生成ネットワーク)により学習されたDNNによるモデルにて構築される。生成デコーダ504は、エンコーダ501及びデコーダ503を生成するための学習とは別の学習を行うことで構築されてもよい。
【0112】
以上説明したように本実施例によれば、セグメンテーション部102及びデータストア部104は学習済みモデルにて一体化されて構築される。このため、情報圧縮システムの構成を簡単化することが可能となる。また、伸張処理にて色情報を付与した画像データが出力されるため、従来と同じ形式のアプリケーションプログラムを用いて、データの分析などが可能になる。
【実施例0113】
図18は、本開示の実施例5に係る情報圧縮システムに係るデータストア部104の構成を示す図である。図18に示すデータストア部104は、圧縮処理用の構成として、正規化器601と、点群符号化器602と、エントロピー推定器603と、エントロピー符号化器604とを有し、伸張用の構成として、エントロピー復号器611と、エントロピー推定器612と、ボクセル復号器613と、再正規化/メッシュ生成部614とを有する。
【0114】
本実施例では、識別情報ごとに、チャンクデータを構成することで、座標情報の圧縮を行う。このため、識別情報は、チャンク情報60の項目の一つとして保持される。
【0115】
正規化器601は、座標情報を正規化する。点群符号化器602は、正規化した座標情報を符号化及び量子化して特徴量マップを生成する。特徴量マップは、所定サイズのデータ配列であり、量子化により、値は整数化されている。点群符号化器602は、例えば、MLP(Multilayer perceptron:多層パーセプトロン)と最大プーリング(Max Pooling)層との組み合わせを有するDNNなどにて構築される。
【0116】
エントロピー推定器603は、点群符号化器602にて生成された特徴量マップのエントロピーとして確率分布を推定する。エントロピー推定器603は、例えば、多層1次元畳込みニューラルネットワークのようなDNNを用いた学習済みモデルにて構築される。
【0117】
エントロピー符号化器604は、エントロピー推定器203にて推定された確率分布に基づいて、特徴量マップを符号化して、圧縮済みバイナリデータを生成する。
【0118】
また、伸張処理では、エントロピー復号器611は、圧縮済みバイナリデータを復号して特徴量マップを生成する。具体的には、エントロピー復号器611は、エントロピー推定器612を用いて、特徴量マップを生成する。具体的には、エントロピー復号器211は、エントロピー推定器612を用いて、特徴量マップの値(シンボル)の確率分布を予測し、エントロピー復号器611は、圧縮済みバイナリデータと予測した確率分布を用いて、シンボルを復号し、最終的に特徴量マップとして復号する。
【0119】
ボクセル復号器613は、エントロピー復号器611にて生成された特徴量マップを、ボクセルとして指定された3次元領域ごとに復号化して、ボクセルの各領域における撮影対象物の占有率(occupancy)を示す占有率情報を生成する。占有率は、一般に撮影物の表面のみの位置情報で構成される点群とは異なり、撮影物の内部領域では1に近い値となり、撮影物の外部領域では0に近い値となる。ボクセル状の占有率のデータを用いることで、本来の物体に近いメッシュを得ることができる。この特性を活用し、さらにエントロピー符号化を用いることで、より少ないデータ量で、高精度で撮影物の情報を保存することができる。ボクセル復号器613は、例えば、MLPを有するDNNを用いた学習済みモデルにて生成される。
【0120】
再正規化/メッシュ生成部614は、占有率情報を再正規化してメッシュ化することで、座標情報及び表面情報を生成する。表面情報は、座標情報にて示される3つ以上の点の組で表される面を示す。メッシュ化は、例えば、マーチングキューブ(Marching cubes)法などを用いることで実行される。
【0121】
以上説明したように本実施例によれば、識別情報ごとに座標情報が圧縮される。また、本実施例では、メッシュ情報を圧縮済みバイナリデータから復号化できるため、データ変換部105を介さずに、無駄なく効率的にメッシュデータをデータ利用部106から読み出すことができる。
【0122】
上述した本開示の実施例は、本開示の説明のための例示であり、本開示の範囲をそれらの実施形態にのみ限定する趣旨ではない。当業者は、本開示の範囲を逸脱することなしに、他の様々な態様で本開示を実施することができる。
【符号の説明】
【0123】
1:ノード 2:センサ 3:入出力装置 101:データ取得部 102:セグメンテーション部 103:統合部 104:データストア部 105:データ変換部 106:データ利用部 201:量子化器 202:ボクセル化器 203:エントロピー推定器 204:エントロピー符号化器 211:エントロピー復号器 212:エントロピー推定器 213、213a:PC化器 214:再正規化器 301:ID変換圧縮器 302:ボクセル符号化器 303:点群圧縮器 311:ID変換伸張器 401:意味ID変換圧縮器 402:インスタンスID変換圧縮器 403:点群圧縮器 411:意味ID変換圧縮器 412:インスタンスID変換圧縮器 413:動画像圧縮器 501:エンコーダ 502:エントロピー推定器 503:デコーダ 504:生成デコーダ 601:正規化器 602:点群符号化器 603:エントロピー推定器 604:エントロピー符号化器 611:エントロピー復号器 612:エントロピー推定器 613:ボクセル復号器 614:再正規化/メッシュ生成部
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14
図15
図16
図17
図18