(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024072284
(43)【公開日】2024-05-27
(54)【発明の名称】マルチビュー位相移動プロファイロメトリのための3次元キャリブレーション方法および装置
(51)【国際特許分類】
G01B 11/25 20060101AFI20240520BHJP
G01C 3/00 20060101ALI20240520BHJP
G06T 19/00 20110101ALI20240520BHJP
【FI】
G01B11/25 H
G01C3/00 120
G06T19/00 A
【審査請求】有
【請求項の数】10
【出願形態】OL
【外国語出願】
(21)【出願番号】P 2023194302
(22)【出願日】2023-11-15
(31)【優先権主張番号】10-2022-0152975
(32)【優先日】2022-11-15
(33)【優先権主張国・地域又は機関】KR
(71)【出願人】
【識別番号】518366555
【氏名又は名称】コリア アドバンスト インスティテュート オブ サイエンス アンド テクノロジー
(71)【出願人】
【識別番号】518368009
【氏名又は名称】ミルテック カンパニー,リミテッド
(74)【代理人】
【識別番号】110001519
【氏名又は名称】弁理士法人太陽国際特許事務所
(72)【発明者】
【氏名】キム・ミンヒョク
(72)【発明者】
【氏名】チョ・ヒョンジュン
【テーマコード(参考)】
2F065
2F112
5B050
【Fターム(参考)】
2F065AA53
2F065BB05
2F112AC06
2F112CA12
2F112CA13
2F112DA02
2F112FA03
2F112FA41
5B050AA10
5B050BA09
5B050BA13
5B050CA01
5B050DA01
5B050EA07
5B050EA13
5B050EA26
5B050FA02
(57)【要約】 (修正有)
【課題】マルチビューシステムにおける3D復元作業の品質を高める3次元キャリブレーション方法および装置を提供する。
【解決手段】位相測定プロファイロメトリ(Phase Measuring Profilometry:PMP)方法に基づいて、少なくとも1つ以上のカメラとプロジェクタのパラメータから3D復元に必要なデータである位相(phase)を取得する段階110、カメラおよびプロジェクタの組み合わせごとに位相-深度(phase-to-depth)関数を定義してカメラおよびプロジェクタのパラメータを最適化するキャリブレーション(calibration)を実行する段階120、および最適化されたカメラおよびプロジェクタのパラメータを利用して深度(depth)情報を含むポイントクラウド(pointcloud)を求める段階130を含む。
【選択図】
図10
【特許請求の範囲】
【請求項1】
コンピュータ装置によって実行されるマルチビュー位相移動プロファイロメトリのための3次元キャリブレーション方法であって、
位相測定プロファイロメトリ(Phase Measuring Profilometry:PMP)方法に基づいて、少なくとも1つ以上のカメラおよびプロジェクタのパラメータで3D復元に必要なデータである位相(phase)を取得する段階、
カメラおよびプロジェクタの組み合わせごとに位相-深度(phase-to-depth)関数を定義して、前記カメラおよびプロジェクタのパラメータを最適化するキャリブレーション(calibration)を実行する段階、および
最適化された前記カメラおよびプロジェクタのパラメータを利用して、深度(depth)情報を含むポイントクラウド(pointcloud)を求める段階
を含む、3次元キャリブレーション方法。
【請求項2】
前記位相(phase)を取得する段階は、
前記プロジェクタが一連の構造化光(structured light)イメージを投影する段階、
投影した光がオブジェクトで反射して少なくとも1つのカメラのセンサで感知される段階、および
一対のカメラおよびプロジェクタで3D復元に必要な前記位相(phase)を取得する段階
を含む、請求項1に記載の3次元キャリブレーション方法。
【請求項3】
前記位相(phase)を取得する段階は、
上部に位置するメインカメラおよび少なくとも1つ以上の側面に位置するサイドカメラが構成され、前記メインカメラおよび前記サイドカメラの間に位置する前記プロジェクタを利用し、位相測定プロファイロメトリ(PMP)方法に基づいて位相(phase)を取得すること
を特徴とする、請求項1に記載の3次元キャリブレーション方法。
【請求項4】
前記ポイントクラウド(pointcloud)のすべての点に対してワールド(world)座標からカメラ座標への変換を実行し、前記カメラ座標のz値を格納して各前記カメラおよびプロジェクタの対ごとに深度マップ(depth map)を求める段階、および
前記深度マップ(depth map)の誤差を補正するためにすべての前記深度マップ(depth map)のピクセルそれぞれの信頼度(confidence)を計算し、前記信頼度(confidence)に基づいてそれぞれの前記深度マップ(depth map)を1つに統合する信頼度基盤の深度マップ融合(confidence-based depth map fusion)によって最終ポイントクラウドを取得することによって3D復元を実行する段階
をさらに含む、請求項1に記載の3次元キャリブレーション方法。
【請求項5】
前記最終ポイントクラウドの取得にともなって3D復元を実行する段階、
前記深度マップ(depth map)のピクセルそれぞれの信頼度(confidence)を計算するときに、各ピクセルの深度(depth)を通じて得られる3D空間における点に対して、メインカメラに見える点の場合には、対応する信頼度(confidence)とともにメインカメラの深度マップ(depth map)と加重合算によって深度マップの融合がなされる段階、および
前記メインカメラに見えない点の場合には、残りのサイドカメラの深度マップ(depth map)で加重合算によって深度マップ融合がなされる段階
を含む、請求項4に記載の3次元キャリブレーション方法。
【請求項6】
マルチビュー位相移動プロファイロメトリのための3次元キャリブレーション装置であって、
位相測定プロファイロメトリ(Phase Measuring Profilometry:PMP)方法に基づいて、少なくとも1つ以上のカメラおよびプロジェクタのパラメータで3D復元に必要なデータである位相(phase)を取得する位相取得部、
カメラおよびプロジェクタの組み合わせごとに位相-深度(phase-to-depth)関数を定義して、前記カメラおよびプロジェクタのパラメータを最適化するキャリブレーション(calibration)を行うキャリブレーション部、および
最適化された前記カメラおよびプロジェクタのパラメータを利用して深度(depth)情報を含むポイントクラウド(pointcloud)を求めるポイントクラウド取得部
を含む、3次元キャリブレーション装置。
【請求項7】
前記位相取得部は、
前記プロジェクタが一連の構造化光(structured light)イメージを投影し、投影した光がオブジェクトで反射して少なくとも1つ以上の前記カメラのセンサで感知され、一対のカメラおよびプロジェクタで3D復元に必要な前記位相(phase)を取得すること
を特徴とする、請求項6に記載の3次元キャリブレーション装置。
【請求項8】
前記位相取得部は、
上部に位置するメインカメラおよび少なくとも1つ以上の側面に位置するサイドカメラが構成され、前記メインカメラおよび前記サイドカメラの間に位置する前記プロジェクタを利用し、位相測定プロファイロメトリ(PMP)方法に基づいて位相(phase)を取得すること
を特徴とする、請求項6に記載の3次元キャリブレーション装置。
【請求項9】
前記ポイントクラウド(pointcloud)のすべての点に対してワールド(world)座標からカメラ座標への変換を実行し、前記カメラ座標のz値を格納して各前記カメラおよびプロジェクタの対ごとに深度マップ(depth map)を求める深度マップ取得部、および
前記深度マップ(depth map)の誤差を補正するためにすべての前記深度マップ(depth map)のピクセルそれぞれの信頼度(confidence)を計算し、前記信頼度(confidence)に基づいてそれぞれの前記深度マップ(depth map)を1つに統合する信頼度基盤の深度マップ融合(confidence-based depth map fusion)によって最終ポイントクラウドを取得することによって3D復元を実行する深度マップ融合部
をさらに含む、請求項6に記載の3次元キャリブレーション装置。
【請求項10】
前記深度マップ融合部は、
前記深度マップ(depth map)のピクセルそれぞれの信頼度(confidence)を計算するときに、各ピクセルの深度(depth)を通じて得られる3D空間における点に対して、メインカメラに見える点の場合には、対応する信頼度(confidence)とともにメインカメラの深度マップ(depth map)と加重合算によって深度マップ融合がなされ、前記メインカメラに見えない点の場合には、残りのサイドカメラの深度マップ(depth map)で加重合算によって深度マップ融合がなされること
を特徴とする、請求項9に記載の3次元キャリブレーション装置。
【発明の詳細な説明】
【技術分野】
【0001】
以下の実施形態は、マルチビュー(multi-view)位相移動プロファイロメトリのための3次元キャリブレーション方法および装置に関し、より詳細には、マルチビューシステムにおける3D復元作業の品質を高める、マルチビュー位相移動プロファイロメトリのための3次元キャリブレーション方法および装置に関する。
【背景技術】
【0002】
3次元空間に存在するオブジェクトの幾何学的データの取得、すなわち3Dスキャンは、多くの価値をもつ技術である。特に、半導体のようなオブジェクトの3D形状に関する情報を取得してこれを検査する装置のように、無限の活用性を備えた技術であると言える。
【0003】
3Dスキャン技術の代表的なものとして位相測定プロファイロメトリー(Phase Measuring Profilometry:PMP)が挙げられるが、これはカメラとプロジェクタを活用するものであって、プロジェクタで予め定義された構造化光イメージを投影し、これをカメラがキャプチャしてオブジェクトの3D情報を取得する方法である。しかし、このような方法でオブジェクトの3Dスキャンを行う場合は、取得しようとする地点をカメラが見ることができなければならず、そこにプロジェクタが照射した光が到達しなければならないという制約がある。例えば、システムの上方向から下方向にカメラが存在する場合、3Dスキャン結果として得られるオブジェクトの側面データが極めて乏しくなる。したがって、すべての方向でオブジェクトの3Dスキャンを行うためには、プロジェクタができる限り多様な方向から光を照射し、それを多様な位置に存在するカメラで撮影することが必要となる。
【0004】
これだけでなく、高品質の結果物を得るためには、1対のカメラとプロジェクタの組み合わせだけで3Dデータを得るよりも、このような3Dデータを組み合わせたものから必要のないポイント(point)は捨て、より信頼性の高いポイントを中心にしてデータを処理する必要がある。
【発明の概要】
【発明が解決しようとする課題】
【0005】
実施形態は、マルチビュー位相移動プロファイロメトリのための3次元キャリブレーション方法および装置について説明するものであり、より具体的には、上部および側面カメラを多数配置したシステムでプロジェクタおよびカメラの位置情報を含む多様なパラメータを最適化し、これによってマルチビューシステムにおける3D復元作業の品質を高める技術を提供する。
【0006】
実施形態は、キャリブレーションターゲットを対象にして撮影を行った後、メインカメラの深度マップ(depth map)にサイドカメラの深度マップ(depth map)を追加して深度マップ融合(depth map fusion)をなしてから最終3Dポイントクラウドを取得することにより、3D復元のためのPMPシステムのキャリブレーションを1つのターゲットだけでなすことができ、ターゲットを動かして追加の撮影を行う必要がなく1つのシーンだけでキャリブレーションおよび3D復元を行うことができる、マルチビュー位相移動プロファイロメトリのための3次元キャリブレーション方法および装置を提供する。
【課題を解決するための手段】
【0007】
一実施形態において、コンピュータ装置によって実行されるマルチビュー位相移動プロファイロメトリのための3次元キャリブレーション方法は、位相測定プロファイロメトリ(Phase Measuring Profilometry:PMP)方法に基づいて、少なくとも1つのカメラおよびプロジェクタのパラメータから3次元復元に必要なデータである位相を取得する段階、カメラおよびプロジェクタの組み合わせごとに位相-深度(phase-to-depth)関数を定義して、前記カメラおよびプロジェクタのパラメータを最適化するキャリブレーション(calibration)を実行する段階、および最適化された前記カメラおよびプロジェクタのパラメータを利用して深度(depth)情報を含むポイントクラウド(pointcloud)を求める段階を含んでよい。
【0008】
前記位相(phase)を取得する段階は、前記プロジェクタが一連の構造化光(structured light)イメージを投影する段階、投影された光がオブジェクトで反射して少なくとも1つ以上の前記カメラのセンサで感知される段階、および1対のカメラおよびプロジェクタで3D復元に必要な前記位相(phase)を取得する段階を含んでよい。
【0009】
前記位相(phase)を取得する段階は、上部に位置するメインカメラおよび少なくとも1つ以上の側面に位置するサイドカメラが構成され、前記メインカメラおよび前記サイドカメラの間に位置する前記プロジェクタを利用し、位相測定プロファイロメトリ(PMP)方法に基づいて位相(phase)を取得してよい。
【0010】
前記ポイントクラウド(pointcloud)のすべての点に対してワールド(world)座標からカメラ座標への変換を行い、前記カメラ座標のz値を格納して各前記カメラおよびプロジェクタの対ごとに深度マップ(depth map)を求める段階、および前記深度マップ(depth map)の誤差を補正するためにすべての前記深度マップ(depth map)のピクセルそれぞれの信頼度(confidence)を計算し、前記信頼度(confidence)に基づいてそれぞれの前記深度マップ(depth map)を1つに統合する信頼度基盤の深度マップ融合(confidence-based depth map fusion)によって最終ポイントクラウドを取得することによって3D復元を実行する段階をさらに含んでよい。
【0011】
前記最終ポイントクラウドを取得することによって3D復元を実行する段階は、前記深度マップ(depth map)のピクセルそれぞれの信頼度(confidence)を計算するときに、各ピクセルの深度(depth)から得られる3D空間における点に対して、メインカメラに見える点の場合には、対応する信頼度(confidence)とともにメインカメラの深度マップ(depth map)と加重合計によって深度マップ融合がなされる段階、および前記メインカメラに見えない点の場合には、残りのサイドカメラの深度マップ(depth map)で加重合計によって深度マップ融合がなされる段階を含んでよい。
【0012】
他の実施形態において、マルチビュー位相移動プロファイロメトリのための3次元キャリブレーション装置は、位相測定プロファイロメトリ(Phase Measuring Profilometry:PMP)方法に基づいて、少なくとも1つのカメラおよびプロジェクタのパラメータで3D復元に必要なデータである位相を取得する位相取得部、カメラおよびプロジェクタの組み合わせごとに位相-深度(phase-to-depth)関数を定義して、前記カメラおよびプロジェクタのパラメータを最適化するキャリブレーション(calibration)を行うキャリブレーション部、および最適化された前記カメラおよびプロジェクタのパラメータを利用して深度(depth)情報を含むポイントクラウド(pointcloud)を求めるポイントクラウド取得部を含んでよい。
【0013】
前記位相取得部は、前記プロジェクタが一連の構造化光(structured light)イメージを投影し、投影された光がオブジェクトで反射して少なくとも1つ以上の前記カメラのセンサで感知され、1対のカメラおよびプロジェクタで3D復元に必要な前記位相(phase)を取得してよい。
【0014】
前記位相取得部は、上部に位置するメインカメラおよび少なくとも1つ以上の側面に位置するサイドカメラが構成され、前記メインカメラおよび前記サイドカメラの間に位置する前記プロジェクタを利用し、位相測定プロファイロメトリ(PMP)方法に基づいて位相(phase)を取得してよい。
【0015】
前記ポイントクラウド(pointcloud)のすべての点に対してワールド(world)座標からカメラ座標への変換を行い、前記カメラ座標のz値を格納して各前記カメラおよびプロジェクタの対ごとに深度マップ(depth map)を求める深度マップ取得部、および前記深度マップ(depth map)の誤差を補正するためにすべての前記深度マップ(depth map)のピクセルそれぞれの信頼度(confidence)を計算し、前記信頼度(confidence)に基づいてそれぞれの前記深度マップ(depth map)を1つに統合する信頼度基盤の深度マップ融合(confidence-based depth map fusion)によって最終ポイントクラウドを取得することによって3D復元を実行する深度マップ融合部をさらに含んでよい。
【0016】
前記深度マップ融合部は、前記深度マップ(depth map)のピクセルそれぞれの信頼度(confidence)を計算するときに、各ピクセルの深度(depth)から得られる3D空間における点に対して、メインカメラに見える点の場合には、対応する信頼度(confidence)とともにメインカメラの深度マップ(depth map)と加重合計によって深度マップ融合がなされ、前記メインカメラに見えない点の場合には、残りのサイドカメラの深度マップ(depth map)で加重合計によって深度マップ融合がなされてよい。
【発明の効果】
【0017】
実施形態によると、上部および側面カメラを多数配置したシステムでプロジェクタおよびカメラの位置情報を含む多様なパラメータを最適化し、これによってマルチビューシステムにおける3D復元作業の品質を高める、マルチビュー位相移動プロファイロメトリのための3次元キャリブレーション方法および装置を提供することができる。
【0018】
また、実施形態によると、キャリブレーションターゲットを対象にして撮影を行った後、メインカメラの深度マップ(depth map)にサイドカメラの深度マップ(depth map)を追加して深度マップ融合(depth map fusion)をなしてから最終3Dポイントクラウドを取得することにより、3D復元のためのPMPシステムのキャリブレーションを1つのターゲットだけでなすことができ、ターゲットを動かして追加の撮影を行う必要がなく1つのシーンだけでキャリブレーションおよび3D復元を行うことができるマルチビュー位相移動プロファイロメトリのための3次元キャリブレーション方法および装置を提供することができる。
【図面の簡単な説明】
【0019】
【
図1A】一実施形態における、キャリブレーションターゲットの3Dモデルを示した図である。
【
図1B】一実施形態における、キャリブレーションターゲットのArUcoマーカーなどを含んだ2D図面を示した図である。
【
図2A】一実施形態における、キャリブレーションターゲットの実際の撮影イメージを示した図である。
【
図2B】一実施形態における、キャリブレーションターゲットの実際の撮影イメージを示した図である。
【
図3A】一実施形態における、イメージからArUcoマーカー感知結果、および認識されたマーカーを最適化したパラメータを利用して再投影(reprojection)させた結果を示した図である。
【
図3B】一実施形態における、イメージからArUcoマーカー感知結果、および認識されたマーカーを最適化したパラメータを利用して再投影(reprojection)させた結果を示した図である。
【
図4】一実施形態における、プロジェクタが投影するイメージの一例(縦軸)を示した図である。
【
図5A】一実施形態における、カメラで撮影した構造化光パターンイメージのデコード結果を示した図である。
【
図5B】一実施形態における、カメラで撮影した構造化光パターンイメージのデコード結果を示した図である。
【
図6A】一実施形態における、位相アンラッピング入力値および出力値を示した図である。
【
図6B】一実施形態における、位相アンラッピング入力値および出力値を示した図である。
【
図7】一実施形態における、カメラピクセル座標および位相(phase)による3Dデータの取得を説明するための図である。
【
図8A】一実施形態における、深度マップ(depth map)の信頼度(confidence)を計算する過程を示した図である。
【
図8B】一実施形態における、深度マップ(depth map)の信頼度(confidence)を計算する過程を示した図である。
【
図9】一実施形態における、ターゲットイメージと深度マップ(depth map)、および信頼度マップ(confidence map)を示した図である。
【
図10】一実施形態における、マルチビュー位相移動プロファイロメトリのための3次元キャリブレーション方法を示したフローチャートである。
【
図11】一実施形態における、マルチビュー位相移動プロファイロメトリのための3次元キャリブレーション装置を示したブロック図である。
【
図12】一実施形態における、深度マップ(depth map)融合を説明するための図である。
【
図13A】一実施形態における、最終3Dポイントクラウドを示した図である。
【
図13B】一実施形態における、最終3Dポイントクラウドを示した図である。
【発明を実施するための形態】
【0020】
以下、添付の図面を参照しながら実施形態について説明する。しかし、記述する実施形態は多様な他の形態に変形することが可能であるため、本発明の範囲が後述する実施形態によって限定されてはならない。また、多様な実施形態は、当該技術分野において通常の知識を有する者に本発明をより完全に説明するために提供されるものである。図面において、要素の形状や大きさなどは、より明確な説明のために誇張して示すこともある。
【0021】
実施形態は、システムの上部に位置するメインカメラと側面に位置するサイドカメラ、その間に位置するプロジェクタを活用してオブジェクトの3D復元(reconstruction)を実行することを目標とする。このために、通常的に活用することが可能な位相測定プロファイロメトリ(Phase Measuring Profilometry:PMP)方法によってオブジェクトの3Dデータを取得する。
【0022】
先ず、PMP方式において、プロジェクタが一連の構造化光(structured light)イメージを投影し、この光がオブジェクトで反射してカメラのセンサで感知される。この過程において、1対のカメラ-プロジェクタで3D復元に必要なデータ、すなわち、位相(phase)を得ることができる。このような構造化光イメージを生成する過程をエンコーディング(encoding)、カメラでキャプチャしたイメージを位相マップ(phase map)に変える過程をデコーディング(decoding)と呼ぶが、PMP方法の最終的な目標は、カメラごとに位相-深度(phase-to-depth)関数を定義し、これを最適化することにある。
【0023】
位相-深度(phase-to-depth)関数は、位相(phase)を深度(depth)に変換するものであって、多様な形態のモデルで表現されてよいが、本実施形態ではステレオモデル(stereo model)を採用した。ステレオ三角測量モデル(stereo triangulation model)とは、プロジェクタを1つのピンホールカメラ(pinhole camera)でモデリングし、従来のステレオマッチングと同じ方式によって3Dデータを取得する。ステレオ三角測量モデルにおいて、位相-深度(phase-to-depth)関数は、カメラおよびプロジェクタの内部パラメータ(intrinsic parameter)および外部パラメータ(extrinsic parameter)の関数として表現してよい。したがって、本実施形態の主な目標は、カメラおよびプロジェクタのパラメータを最適化するキャリブレーション(calibration)過程を確立することにあると見ることができる。
【0024】
カメラおよびプロジェクタのキャリブレーションを実行すると同時に、すべてのカメラ-プロジェクタの組み合わせそれぞれの位相深度関数を定義してよい。
【0025】
しかし、上述したような過程では、各カメラ-プロジェクタのそれぞれの組み合わせから得られる3Dデータが独立したポイントクラウド(pointcloud)の形態または深度マップ(depth map)の形態で得られるようになるが、これらの間に誤差が発生することがある。したがって、それぞれの深度マップ(depth map)を1つに統合する信頼度基盤の深度マップ融合(confidence-based depth map fusion)によって3D復元が最終的に完結となる。このような信頼度基盤の深度マップ融合(confidence-based depth map fusion)の過程では、それぞれの深度マップ(depth map)のピクセルごとに信頼度(confidence)を計算するようになる。このとき、各ピクセルの深度(depth)から得られる3D空間の点は、上部のメインカメラに見える場合とそうでない場合の2つに分けられてよい。
【0026】
メインカメラに見える点の場合は、対応する信頼度(confidence)とともにメインカメラの深度マップ(depth map)と加重合計(weighted sum)によって深度マップ融合(depth map fusion)がなされ、メインカメラに見えない点の場合は、残りのサイドカメラの深度マップ(depth map)で加重合計(weighted sum)によって深度マップ融合(depth map fusion)がなされる。
【0027】
以下、一実施形態における、マルチビュー位相移動プロファイロメトリのための3次元キャリブレーション方法および装置についてより詳しく説明する。
【0028】
表1は、表記法を示している。
【0029】
【0030】
カメラパラメータ
カメラパラメータは、R、tのような外部パラメータ(extrinsic parameter)、Kとレンズ歪み(lens distortion)係数(k1、k2、k3)で構成される内部パラメータ(intrinsic parameter)に分けられてよい。外部パラメータ(extrinsic parameter)は、world座標系とカメラ座標系との関係に関するパラメータであり、3D空間上に存在する点のworld座標Xwとカメラ座標Xcの間には次のような関係が成立する。
【0031】
【数1】
・・・(1)
このとき、R,tは、3次元空間でのそれぞれのrigid-body transformを表現する3×3、3×1行列として次のように表現することができる。
【0032】
【0033】
数式(2)で、ベクトルqは、translation3つとquaternion3つ、合計6つの構成要素(element)で構成されている。
【0034】
ピンホールカメラモデル(pinhole camera model)において、pcは、正規化されたイメージ平面(normalized image plane)、すなわち、カメラ座標系上でz=1の平面に投影される。
【0035】
【0036】
数式(3)において、
は、x
cのhomogeneous coordinateを意味する。一方、システム上部のメインカメラのようにテレセントリックレンズ(telecentric lens)を使用するカメラは、少し異なる方法で投影される。
【0037】
【0038】
カメラの内部パラメータ(intrinsic parameter)は、xnとピクセル座標pの関係を規定する。先ず、カメラレンズによる放射状歪み(radial distortion)の補正は、正規化されたイメージ座標(normalized image coordinate)でなされる。
【0039】
【0040】
と
はそれぞれ、x軸とy軸の歪んだ正規化座標(distorted normalized coordinate)を意味する。続いて、カメラ行列(camera matrix)Kは、歪んだ正規化カメラ座標(distorted normalized camera coordinate)
とピクセル座標pの関係を示す。
【0041】
【0042】
以上の過程によって、任意の3D point Xwからピクセル座標pあるいはその逆を計算することができる。
【0043】
キャリブレーションターゲットの構成
カメラレンズによる歪みがないと仮定する場合、ピンホールカメラモデル(pinhole camera model)の3DポイントXwと対応するピクセルpとの関係は次のとおりとなる。
【0044】
【0045】
sはhomogeneous coordinate
のスカラー係数(scale factor)、
は焦点距離(focal length)、u
0、v
0はprinciple pointを意味する。一方、テレセントリックモデル(telecentric model)の場合は、次のとおりとなる。
【0046】
【0047】
ここで、R、tは、該当のチェッカーボードの座標系からカメラ座標系への変換行列である。このとき、一平面上に存在するチェッカーボードと対応するピクセルとの関係は、zw=0の条件を追加して説明することができる。
【0048】
【0049】
同様に、テレセントリックレンズ(telecentric lens)カメラの場合は、次のように示すことができる。
【0050】
【0051】
ここで、ホモグラフィー(homography)Hは、予め定義されたチェッカーボードのコーナーの座標とイメージで認識されたピクセル座標の値に基づいてclosed-formによって解を求めることができる。このようなホモグラフィー(homography)は、Kと外部パラメータ(extrinsic parameter)R、tの積で構成されているが、Hからパラメータを逆に計算するためには、多様なorientationのチェッカーボードイメージを撮影してホモグラフィー(homography)を複数確保しなければならない。理論的にすべてのパラメータの解を求めるためには、最小で3つのホモグラフィーが必要となる。
【0052】
したがって、一般的なカメラキャリブレーション過程は、チェッカーボードパターンが刻まれた平面の角度などを多様に変えながらイメージを取得することから始まる。しかし、マルチビューシステムの利点を生かすために、さらに後述するプロジェクタキャリブレーションを実行するために、新たなキャリブレーションターゲットオブジェクトを提案した。
【0053】
図1は、一実施形態における、キャリブレーションターゲットの3DモデルおよびArUcoマーカーなどを含む2D図面を示している。より具体的に説明すると、
図1(a)は、一実施形態における、キャリブレーションターゲットの3Dモデルを示しており、
図1(b)は、一実施形態における、ArUcoマーカーなどを含む2D図面を示している。
【0054】
図2は、一実施形態における、キャリブレーションターゲットの実際の撮影イメージを示している。より具体的に説明すると、
図2(a)は、一実施形態における、上部に位置するメインカメラで撮影したイメージを示しており、
図2(b)は、一実施形態における、サイドカメラ01(西側)で撮影したイメージを示している。
【0055】
本実施形態を実施しながら提案したキャリブレーションターゲットは、以下の条件を満たすように設計した。
【0056】
-一カメラが最大限多くの平面を見ることができなければならない。
-一平面を見ることができるカメラが最小で2台以上なければならない。
-より正確なホモグラフィー(homography)計算のために、一平面上に最小で3つのArUcoマーカーを配置しなければならない。
-同じIDをもつArUcoマーカーは複数回にわたって使用しない。
【0057】
ターゲットの各ArUcoマーカーIDは重複しないため、カメラでとあるマーカーを認識したとき、そのコーナーがどの平面上に存在するのかが分かる。また、各world座標系は最底平面を基準にして定義し、残りの平面上の座標系はR、tに基づいてworld座標系に変換してよい。例えば、i番目の平面のローカル座標系からworld座標系への変換を
とすると、次のように示すことができる。
【0058】
【0059】
カメラキャリブレーション
図3は、一実施形態における、イメージからのArUcoマーカーの感知結果および認識されたマーカーを最適化されたパラメータを利用して再投影(reprojection)させた結果を示している。より具体的に説明すると、
図3(a)は、一実施形態における、イメージからのArUcoマーカーの感知結果を示しており、
図3(b)は、一実施形態における、認識されたマーカーを最適化されたパラメータを利用して再投影(reprojection)させた結果を示している。
図3(a)のイメージはカメラ歪みの補正が適用されていないのに対し、
図3(b)のイメージはカメラ歪みが補正されている。
【0060】
1枚のイメージごとにチェッカーボードパターンを1回ずつ撮影するという一般的なリブレーション方法では、1枚のイメージごとに1つのホモグラフィーが計算され、このときのチェッカーボードパターンは広いピクセルにわたって撮影される。これに対し、複数のチェッカーボード平面が1枚のイメージで撮影される本実施形態に係る方法では、1つのチェッカーボードパターンがイメージ内の狭い領域だけで有効に作用するようになる。実際のカメラの場合、レンズによる歪み現象が存在し、この歪み現象は線形問題でなく非線形問題であることから、単に複数のホモグラフィー(homography)によってK、R、tを最適化することは難しく、極小値(local minima)に陥りやすいという問題を抱えている。
【0061】
極小値(local minima)に陥る場合、カメラのパラメータだけでなく、キャリブレーションターゲットにおける各平面の座標系変換も誤って最適化される恐れがあることを意味する。しかし、一平面が複数台のカメラで見えるということを活用すれば、マルチビューシステムの利点を活かして、ローカルオプティマ(local optima)に陥ることなくカメラパラメータを計算することができる。
【0062】
先ず、平面それぞれにどのIDのマーカーがあるかは既に分かっており、各マーカーコーナーのローカル座標は予め定義されている状態であるため、数式(11)に基づいて、各マーカーコーナーのworld座標は
をパラメータとする関数で表現される。続いて、数式(1)、数式(3)、数式(4)、数式(5)、数式(6)によって予測されるpは、マーカーコーナーのworld座標、カメラの内部パラメータ(intrinsic parameter)および外部パラメータ(extrinsic parameter)をパラメータとする関数で表現されてよく、これを実際のp
gt(undistorted)と比較する。最終的に、すべてのカメラで認識されたマーカーコーナーの合計を同時に最小化するパラメータを最適化することにより、すべてのカメラの各パラメータだけでなく、キャリブレーションターゲットのすべての平面に対して
も最適化することができる。本実施形態で使用したシステムは、合計5台のカメラが18個の平面からなるターゲットを撮影するため、次のように示すことができる。
【0063】
【0064】
位相デコード(phase decoding)とアンラッピング(unwrapping)
図4は、一実施形態における、プロジェクタで投影するイメージの例(縦軸)を示している。
図4を参照すると、周波数
に対してそれぞれ4枚のイメージ、合計16枚のイメージが生成され、同じような方式で16枚の横軸イメージも生成してプロジェクタで投影する。
【0065】
プロジェクタで投影するイメージのpixel intensityは、横軸または縦軸方向に多様な周波数(frequency)のcosine-wave形態をなしている。本実施形態で実際に使用した周波数は
である。合計4つの周波数で生成された波動に対して
だけの位相(phase)を移動させ、水平/垂直方向にそれぞれ4×4=16枚のイメージを投影することになる。
【0066】
プロジェクタで投影した光がオブジェクトで反射してカメラで感知されるようになるが、fの周波数をもつi番目のイメージが投影されたとき、ピクセル(u、v)でのintensityを
とすると、次の式のように示すことができる。
【0067】
【0068】
このとき、i=0、1、2、3でのすべてのpixel intensityを総合して周波数がfのときのピクセル(u、v)での位相
は、次のように求めることができる。
【0069】
【0070】
図5は、一実施形態における、カメラで撮影した構造化光パターンイメージのデコード結果を示している。
図5(a)を参照すると、左側の4つのイメージ(f=4
0)を通じて右側のラッピングされた位相(wrapped phase)を得ることができ、
図5(b)を参照すると、左側の4つのイメージ(f=4
1)を通じて右側のラッピングされた位相(wrapped phase)を得ることができる。
【0071】
しかし、
は、3D復元で実際に使用されるアンラッピングされた位相(unwrapped phase)ではなく、ラッピングされた位相(wrapped phase)である。f=4
0のときのラッピングされた位相(wrapped phase)は、一波長内にオブジェクトのすべての領域を含むが、詳細な情報を含むことは難く、f=4
3のときのアンラッピングされた位相(unwrapped phase)は、局所的に詳細な情報は含むが、すべての領域を一波長内に含むことができない。
【0072】
したがって、すべての周波数fに対してラッピングされた位相(wrapped phase)を計算した後、最終的にf=4
0からf=4
3までのラッピングされた位相(wrapped phase)をすべて含有するアンラッピングされた位相(unwrapped phase)
を計算しなければならない。
【0073】
図6は、一実施形態における、位相アンラッピング入力値および出力値を示している。
【0074】
図6(a)を参照すると、一実施形態における、位相アンラッピング入力値を示しており、
図6(b)を参照すると、一実施形態における、位相アンラッピング出力値を示している。
であるすべてのラッピングされた位相(wrapped phase)を統合して最終アンラッピングされた位相(unwrapped phase)を計算することができる。
【0075】
先ず、
を、f=4
0からf=4
jまでのラッピングされた位相(wrapped phase)を包含するアンラッピングされた位相(unwrapped phase)とすると、次の式のように示すことができる。
【0076】
【0077】
また、
と
を利用して
を計算する過程は、次のとおりとなる。
【0078】
【0079】
最終的にアンラッピングされた位相(unwrapped phase)
が、3D復元の入力値として使用される。
【0080】
プロジェクタキャリブレーション
図7は、一実施形態における、カメラピクセル座標および位相(phase)を利用した3Dデータの取得を説明するための図である。
図7を参照すると、キャリブレーション段階では、カメラ710およびプロジェクタ720の交点X
intersectとターゲット平面730との距離値を利用して損失(loss)を構成して最適化する。
【0081】
本実施形態において、プロジェクタは、サイドカメラと同じピンホールカメラモデル(pinhole camera model)を使用する。しかし、ピクセル座標を直接取得することができるサイドカメラとは異なり、プロジェクタの場合、カメラで撮影したアンラッピングされた位相(unwrapped phase)を間接的に使用しなければならないため、プロジェクタの内部パラメータ(intrinsic parameter)に若干の変化が必要となる。基本的に、アンラッピングされた位相(unwrapped phase)は、ピンホールカメラモデル(pinhole camera model)におけるピクセル座標
と線形関係をもつ。
【0082】
【0083】
これを数式(6)に代入すると、次のように示すことができる。
【0084】
【0085】
数式(18)で、Xn,pは、プロジェクタの正規化されたプロジェクタ平面(normalized projector plane)上に存在する歪んだ座標を意味する。また、あるカメラ-プロジェクタの一対で、カメラおよびプロジェクタのパラメータがすべて分かっていると仮定するとき、位相(phase)およびピクセル座標を入力値として求めた3次元ポイント(point、点)は、次のような式を満たさなければならない。
【0086】
【0087】
幾何学的に分析するとき、数式(19)の最初の2つの式は、正規化されたカメラ平面(normalized camera plane)上に存在する点[xn、yn、1]とカメラの原点を経る直線を意味し、最後の式は、プロジェクタの原点と正規化されたプロジェクタ平面(normalized projector plane)上の直線x=xn,p(または、y=yn,p)を含む平面を意味する。3D空間上で復元された点pintersect=[xw、yw、zw]は、上述した直線と平面の交点であると言える。
【0088】
数式(19)を整理すると、p
intersect(
図7のX
intersect)をプロジェクタパラメータの関数として表現することができる。
【0089】
【0090】
また、キャリブレーションターゲットのArUcoマーカーidは固有であるため、カメラからターゲットの各平面が位置するイメージ上の領域を抽出することができる。したがって、平面iが撮影された領域内のピクセル(u、v)と対応する位相(phase)
で数式(5)、数式(6)、数式(18)を通じて
(または、
)に変換することができ、これによってp
intersectを計算することができるが、p
intersectは平面i上に存在するため、平面iの方程式を満たさなければならない。
【0091】
【0092】
したがって、
を損失(loss)とし、プロジェクタの内部パラメータ(intrinsic parameter)と外部パラメータ(extrinsic parameter)をパラメータとする最適化過程によって、プロジェクタの最適パラメータを求めることができる。
【0093】
【0094】
ここで、niは、i-平面法線ベクトルを意味する。
【0095】
3D復元
上述したような過程によって最適化されたカメラおよびプロジェクタのパラメータを利用し、数式(20)によってポイントクラウド(pointcloud)を求めることができる。また、数式(1)によってポイントクラウド(pointcloud)のすべての点に対してworld座標からカメラ座標への変換を行うことができ、このカメラ座標のz値を格納することによって各カメラ-プロジェクタの一対ごとに深度マップ(depth map)を求めることがでる。しかし、カメラでの測定誤差などを理由に深度マップ(depth map)で誤差が発生することがある。したがって、すべての深度マップ(depth map)のピクセルそれぞれの信頼度(confidence)を計算し、これに基づいてポイントクラウド(pointcloud)を統合する過程を経なければならない。
【0096】
任意のカメラをリファレンス(reference)とし、このカメラの深度マップ(depth map)ピクセルごとに信頼度(confidence)を求めるには、先ず、各ピクセル(u、v)に該当する深度(depth)d
ref(u、v)を得ることができ、3D空間上で該当のpointのworld座標を求めることができる。また、リファレンス(reference)カメラを除いた残りのカメラで、数式(1)を利用して該当のpoint p(u、v)のworld座標をそれぞれのカメラ座標に変換することができる。このとき、カメラ
でp(u、v)と対応するピクセル座標u
j、v
jの値を求めた後、カメラjの深度マップ(depth map)を利用してvisibility testを実行する。
【0097】
Visibility vj(p(u、v))は、カメラjでp(u、v)の実際の深度(depth)zjをカメラjの深度マップ(depth map)によって求めたdj(uj、vj)と比較し、dj(u、vjj)が大きい場合は1、dj(uj、vj)が小さい場合は0となり、pがカメラjで見えないと判定する。vj(p)が1であるすべてのカメラjに対して、信頼度Cref,j(u、v)は次のように計算することができる。
【0098】
【0099】
図8は、一実施形態における、深度マップ(depth map)の信頼度(confidence)を計算する過程を示した図である。
図8(a)および(b)を参照すると、リファレンス(reference)カメラの深度マップ(depth map)から生成された3D pointと他のカメラjの間の実際の深度(depth)(
)がカメラjの深度マップ(depth map)値に近いほど信頼度(confidence)が高い。ここで、リファレンス(reference)カメラの座標は810であり、カメラ座標は820である。
【0100】
リファレンス(reference)カメラのピクセル(u、v)の信頼度(confidence)Cref(u、v)は、vj(p(u、v))=1であるすべてのカメラjに対して次の式のように示すことができる。
【0101】
【0102】
上述した過程によってすべての深度マップ(depth map)に対する信頼度(confidence)を計算してから1つに統合する過程を経ると、3D復元が最終的に完結する。先ず、任意のカメラにjに対して、深度マップ(depth map)の各ピクセルに深度(depth)および信頼度(confidence)が与えられている。このとき、深度マップ(depth map)を利用して求めた3D point pjがメインカメラに見える場合とそうでない場合に分けられるが、メインカメラで見える場合、pjの深度(depth)および信頼度(confidence)(d,C)をメインカメラでpjと対応するピクセル(u、v)に対するarray Lmain(u、v)に格納する。この過程をすべてのカメラの深度マップ(depth map)に対して実行すれば、メインカメラのピクセル(u、v)それぞれに3D pointの配列が与えられることになる。最終的に、メインカメラの深度マップ(depth map)は、次のように加重合計(weighted sum)の形態で計算される。
【0103】
【0104】
pjがメインカメラで見えない場合、上述した過程をサイドカメラで実行することにより、最終的に信頼性基盤の深度マップ融合(confidence-based depth map fusion)が完結する。
【0105】
図9は、一実施形態における、ターゲットイメージと深度マップ(depth map)、および信頼度マップ(confidence map)を示した図である。
【0106】
図9を参照すると、左の図面は、一実施形態における、キャプチャしたターゲットイメージを示しており、中央の図面は、該当のカメラにおける深度マップ(depth map)を示しており、右の図面は、信頼度マップ(confidence map)を示している。第1列から、メインカメラ、サイドカメラ00(東)、サイドカメラ01(西)、サイドカメラ02(南)、サイドカメラ03(北)を示す。
【0107】
プロジェクタおよびカメラのビューベクトル(view vector)と反射した光の角度を含む多様な変数により、深度(depth)の信頼度(confidence)が多様に現れることを確認することができる。
【0108】
図10は、一実施形態における、マルチビュー位相移動プロファイロメトリのための3次元キャリブレーション方法を示したフローチャートである。
【0109】
図10を参照すると、一実施形態における、コンピュータ装置によって実行されるマルチビュー位相移動プロファイロメトリのための3次元キャリブレーション方法は、位相測定プロファイロメトリ(Phase Measuring Profilometry:PMP)方法に基づいて、少なくとも1つ以上のカメラとプロジェクタのパラメータから3D復元に必要なデータである位相(phase)を取得する段階110、カメラおよびプロジェクタの組み合わせごとに位相-深度(phase-to-depth)関数を定義してカメラおよびプロジェクタのパラメータを最適化するキャリブレーション(calibration)を実行する段階120、および最適化されたカメラおよびプロジェクタのパラメータを利用して深度(depth)情報を含むポイントクラウド(pointcloud)を求める段階130を含んでよい。
【0110】
また、ポイントクラウド(pointcloud)のすべて点に対してワールド(world)座標からカメラ座標への変換を行い、カメラ座標のz値を格納してカメラおよびプロジェクタの対ごとに深度マップ(depth map)を求める段階140、および深度マップ(depth map)の誤差を補正するためにすべての深度マップ(depth map)のピクセルそれぞれの信頼度(confidence)を計算し、信頼度(confidence)に基づいてそれぞれの深度マップ(depth map)を1つに統合する信頼度基盤の深度マップ融合(confidence-based depth map fusion)によって最終ポイントクラウドを取得することによって3D復元を実行する段階150をさらに含んでよい。
【0111】
実施形態によると、1つのターゲットを動かさずにカメラのキャリブレーションを行い、カメラとプロジェクタのキャリブレーションを1つのターゲットによって同時に行うことができる。また、プロジェクタのインバースカメラモデル(inverse camera model)による位相-深度(phase-to-depth)関数を定義することができる。
【0112】
以下、一実施形態における、マルチビュー位相移動プロファイロメトリのための3次元キャリブレーション方法についてより詳しく説明する。
【0113】
一実施形態における、マルチビュー位相移動プロファイロメトリのための3次元キャリブレーション方法について、一実施形態における、マルチビュー位相移動プロファイロメトリのための3次元キャリブレーション装置を例に挙げて説明する。
【0114】
図11は、一実施形態における、マルチビュー位相移動プロファイロメトリのための3次元キャリブレーション装置を示したブロック図である。
【0115】
図11を参照すると、一実施形態における、マルチビュー位相移動プロファイロメトリのための3次元キャリブレーション装置1100は、位相取得部1110、キャリブレーション部1120、およびポイントクラウド取得部1130を含んでよい。また、実施形態によっては、深度マップ取得部1140および深度マップ融合部1150をさらに含んでもよい。
【0116】
段階S110で、位相取得部1110は、位相測定プロファイロメトリ(PMP)方法に基づいて、少なくとも1つ以上のカメラおよびプロジェクタのパラメータで3D復元に必要なデータである位相(phase)を取得してよい。
【0117】
より具体的に説明すると、位相取得部1110は、プロジェクタは、一連の構造化光(structured light)イメージを投影し、投影した光がオブジェクトで反射して少なくとも1つ以上のカメラのセンサで感知され、一対のカメラおよびプロジェクタから3D復元に必要な位相(phase)を取得してよい。このとき、位相取得部1110は、上部に位置するメインカメラおよび少なくとも1つ以上の側面に位置するサイドカメラが構成され、メインカメラおよびサイドカメラの間に位置するプロジェクタを利用し、位相測定プロファイロメトリ(PMP)方法に基づいて位相(phase)を取得してよい。
【0118】
段階120で、キャリブレーション部1120は、カメラおよびプロジェクタの組み合わせごとに位相-深度(phase-to-depth)関数を定義して、カメラおよびプロジェクタのパラメータを最適化するキャリブレーション(calibration)を実行してよい。ここで、位相-深度(phase-to-depth)関数は、位相(phase)を深度(depth)または深度マップ(depth map)に変換するものである。
【0119】
すなわち、キャリブレーション部1120は、固定ターゲットを利用してカメラパラメータと位相-深度(phase-to-depth)マップを形成するキャリブレーション(calibration)を実行してよい。既存(非特許文献1など)の場合、平面ターゲットを何度も物理的に変えながら撮影しなければキャリブレーションを行うことができなかったが、このように動的なターゲットを利用すれば、位相測定プロファイロメトリ(PMP)方法の位相-深度(phase-to-depth)マップをキャリブレーションすることができない。実施形態では、ターゲットを意図的に静的にさせ、これを利用してこの上に多様な位相のイメージを投影できるようにすることにより、位相測定プロファイロメトリ(PMP)方法の位相-深度マップのキャリブレーションでカメラパラメータを同時に取得することができる。
【0120】
段階130で、ポイントクラウド取得部1130は、最適化されたカメラおよびプロジェクタのパラメータを利用して、深度(depth)情報を含むポイントクラウド(pointcloud)を得てよい。
【0121】
段階140で、深度マップ取得部1140は、ポイントクラウド(pointcloud)のすべての点に対してワールド(world)座標からカメラ座標への変換を行い、カメラ座標のz値を格納して各カメラおよびプロジェクタの対ごとに深度マップ(depth map)を求めてよい。
【0122】
段階150で、深度マップ融合部1150は、深度マップ(depth map)の誤差を補正するためにすべての深度マップ(depth map)のピクセルそれぞれの信頼度(confidence)を計算し、信頼度(confidence)に基づいてそれぞれの深度マップ(depth map)を1つに統合する信頼度基盤の深度マップ融合(confidence-based depth map fusion)によって最終ポイントクラウドを取得することにより、3D復元を実行してよい。
【0123】
図12は、一実施形態における、深度マップ(depth map)融合を説明するための図である。
【0124】
図12を参照すると、深度マップ融合部1150は、深度マップ(depth map)のピクセルそれぞれの信頼度(confidence)1250を計算するときに、各ピクセルの深度(depth)1240を通じて得ることができる3D空間における点は、上部のメインカメラ1201に見える場合とそうでない場合、すなわち、メインカメラ1201によって見える可視性1260状態によって2つに区分されてよい。
【0125】
メインカメラ1201に見える点の場合には、対応する信頼度(confidence)1250とともに、メインカメラの深度マップ(depth map)1210と加重合計1220によって深度マップの融合がなされ、メインカメラ1201に見えない点の場合には、残りのサイドカメラ1202の深度マップ(depth map)1280で加重合計1270によって深度マップの融合がなされてよい。これにより、最終3Dポイントクラウド1230を取得することができる。
【0126】
図13は、一実施形態における、最終3Dポイントクラウドを示した図である。
【0127】
図13を参照すると、キャリブレーションターゲットを対象にして撮影を行った後、メインカメラの深度マップ(depth map)にサイドカメラの深度マップ(depth map)を追加することで深度マップ融合(depth map fusion)をなした最終3Dポイントクラウド(pointcloud)を示している。
【0128】
結果的に、本実施形態によると、3D復元のためのPMPシステムのキャリブレーションを1つのターゲットだけで成功的になすことができ、このターゲットを動かして追加の撮影を行う必要なく、1つのシーンだけでキャリブレーションおよび3D復元の実行が可能となることが分かる。また、位相-深度(phase-to-depth)関数を、追加のパラメータなしでカメラとプロジェクタのパラメータだけで構成することができる。
【0129】
上述した装置は、ハードウェア構成要素、ソフトウェア構成要素、および/またはハードウェア構成要素とソフトウェア構成要素との組み合わせによって実現されてよい。例えば、実施形態で説明された装置および構成要素は、プロセッサ、コントローラ、ALU(arithmetic logic unit)、デジタル信号プロセッサ、マイクロコンピュータ、FPA(field programmable array)、PLU(programmable logic unit)、マイクロプロセッサ、または命令を実行して応答することができる様々な装置のように、1つ以上の汎用コンピュータまたは特殊目的コンピュータを利用して実現されてよい。
【0130】
以上のように、実施形態を、限定された実施形態および図面に基づいて説明したが、当業者であれば、上述した記載から多様な修正および変形が可能であろう。例えば、説明された技術が、説明された方法とは異なる順序で実行されたり、かつ/あるいは、説明されたシステム、構造、装置、回路などの構成要素が、説明された方法とは異なる形態で結合されたりまたは組み合わされたり、他の構成要素または均等物によって対置されたり置換されたとしても、適切な結果を達成することができる。
【0131】
したがって、異なる実施形態であっても、特許請求の範囲と均等なものであれば、添付の特許請求の範囲に属する。
【符号の説明】
【0132】
1100:3次元キャリブレーション装置
1110:位相取得部
1120:キャリブレーション部
1130:ポイントクラウド取得部
1140:深度マップ取得部
1150:深度マップ融合部
【外国語明細書】