(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2022-09-12
(45)【発行日】2022-09-21
(54)【発明の名称】検出装置、情報処理装置、検出方法、及び情報処理プログラム
(51)【国際特許分類】
G06T 7/55 20170101AFI20220913BHJP
G01B 11/00 20060101ALI20220913BHJP
G01B 11/24 20060101ALI20220913BHJP
【FI】
G06T7/55
G01B11/00 A
G01B11/24 A
(21)【出願番号】P 2020561503
(86)(22)【出願日】2019-12-19
(86)【国際出願番号】 JP2019049798
(87)【国際公開番号】W WO2020130070
(87)【国際公開日】2020-06-25
【審査請求日】2021-06-17
(31)【優先権主張番号】P 2018239536
(32)【優先日】2018-12-21
(33)【優先権主張国・地域又は機関】JP
(73)【特許権者】
【識別番号】000004112
【氏名又は名称】株式会社ニコン
(74)【代理人】
【識別番号】100107836
【氏名又は名称】西 和哉
(72)【発明者】
【氏名】長谷川 智志
(72)【発明者】
【氏名】中川 源洋
(72)【発明者】
【氏名】橋本 雅司
【審査官】板垣 有紀
(56)【参考文献】
【文献】国際公開第2016/158855(WO,A1)
【文献】特開2018-189636(JP,A)
【文献】国際公開第2017/154706(WO,A1)
(58)【調査した分野】(Int.Cl.,DB名)
G06T 7/55
G01B 11/00
G01B 11/24
(57)【特許請求の範囲】
【請求項1】
対象物のテクスチャ情報を第1位置から検出するテクスチャ検出部と、
前記第1位置とは異なる第2位置から前記対象物における各点までのデプス情報を検出する位置検出部と、
前記デプス情報が取得され、かつ前記テクスチャ情報が取得されていないデータ欠損領域を、前記テクスチャ検出部の検出結果及び前記位置検出部の検出結果に基づいて検出する領域検出部と、
前記データ欠損領域に対して特定のテクスチャ情報を付加する付加部と、
を備える検出装置。
【請求項2】
前記領域検出部は、前記対象物の点と前記第1位置とを結ぶ線までの距離が閾値以下の点のうち、前記第1位置に最も近い点以外の点を前記データ欠損領域に属する点として検出する、
請求項1に記載の検出装置。
【請求項3】
前記位置検出部は、前記第2位置から前記対象物の各点までの距離を前記デプス情報として検出し、
前記領域検出部は、前記位置検出部が検出した距離に基づいて、前記データ欠損領域を検出する、
請求項1又は請求項2に記載の検出装置。
【請求項4】
複数の前記デプス情報から前記対象物の各点の座標を算出する情報処理部を備え、
前記領域検出部は、前記情報処理部が算出した座標に基づいて、前記データ欠損領域を検出する、
請求項1から請求項3のいずれか一項に記載の検出装置。
【請求項5】
前記テクスチャ検出部は、前記対象物において前記データ欠損領域に対応する領域と前記第1位置との間に配置される物体のテクスチャ情報を検出し、
前記付加部は、前記データ欠損領域に対して、前記テクスチャ検出部の検出結果から得られる前記物体のテクスチャ情報とは異なる前記特定のテクスチャ情報を付加する、
請求項1から請求項4のいずれか一項に記載の検出装置。
【請求項6】
前記付加部が付加する前記特定のテクスチャ情報の候補を記憶する記憶部を備え、
前記付加部は、前記記憶部に記憶された前記特定のテクスチャ情報の候補から選択される前記特定のテクスチャ情報を前記データ欠損領域に付加する、
請求項1から請求項5のいずれか一項に記載の検出装置。
【請求項7】
前記テクスチャ検出部は、カラーのテクスチャ情報を検出し、
前記特定のテクスチャ情報の候補は、グレースケールの前記特定のテクスチャ情報を含む、
請求項1から請求項6のいずれか一項に記載の検出装置。
【請求項8】
前記特定のテクスチャ情報を推定するテクスチャ推定部、を備える、請求項1から請求項7のいずれか一項に記載の検出装置。
【請求項9】
前記テクスチャ推定部は、前記テクスチャ検出部の検出結果に基づいて、前記データ欠損領域に前記付加部が付加する前記特定のテクスチャ情報を推定する、請求項8に記載の検出装置。
【請求項10】
前記テクスチャ推定部は、前記データ欠損領域において取得された前記デプス情報と、前記データ欠損領域を除いた領域の前記デプス情報とで連続性のある面に基づいて、前記データ欠損領域における前記特定のテクスチャ情報を推定する、請求項8又は請求項9に記載の検出装置。
【請求項11】
前記テクスチャ推定部は、複数の物体の間で、色、及び模様の少なくとも一つを連続的に変化させた前記特定のテクスチャ情報を推定する、請求項8から請求項10のいずれか一項に記載の検出装置。
【請求項12】
前記領域検出部が検出した前記データ欠損領域に基づいて、前記対象物の各領域におけるテクスチャ情報の確度情報を生成する確度情報生成部を備える、
請求項1から請求項11のいずれか一項に記載の検出装置。
【請求項13】
前記確度情報生成部は、前記領域検出部が検出した前記データ欠損領域のテクスチャ情報の確度情報を、前記対象物の各領域におけるテクスチャ情報において相対的に低い値に設定する、
請求項12に記載の検出装置。
【請求項14】
前記確度情報生成部は、前記領域検出部が検出した前記データ欠損領域に基づいて前記付加部が付加した前記特定のテクスチャ情報の確度情報を、前記対象物の各領域におけるテクスチャ情報において相対的に低い値に設定する、
請求項12又は請求項13に記載の検出装置。
【請求項15】
前記対象物の各点のデプス情報を前記第2位置から検出して得られるモデル情報と、前記対象物の各点のデプス情報を前記第2位置とは異なる第3位置から検出して得られるモデル情報と、を前記確度情報生成部が生成した確度情報に基づいて統合するモデル統合部を備える、
請求項12から請求項14のいずれか一項に記載の検出装置。
【請求項16】
対象物のテクスチャ情報を第1位置から検出した検出結果、及び前記第1位置とは異なる第2位置から前記対象物における各点までのデプス情報を検出した検出結果に基づいて、前記デプス情報が取得され、かつ前記テクスチャ情報が取得されていないデータ欠損領域を検出する領域検出部と、
前記データ欠損領域に対して特定のテクスチャ情報を付加する付加部と、を備える情報処理装置。
【請求項17】
前記付加部は、前記第1位置から検出した検出結果である撮像画像の全体、又は、前記撮像画像から物体の情報を除いた他の物体の情報に基づいて、明度、彩度、色相のいずれか1つ、又は、これら複数の平均をとって前記特定のテクスチャ情報を生成する、請求項16に記載の情報処理装置。
【請求項18】
前記付加部は、前記第1位置から検出した検出結果である撮像画像から物体の情報を除いた他の物体の情報に基づいて、前記データ欠損領域の近傍の色を用いて前記特定のテクスチャ情報を生成する、請求項16に記載の情報処理装置。
【請求項19】
対象物のテクスチャ情報を第1位置から検出することと、
前記第1位置とは異なる第2位置から前記対象物における各点までのデプス情報を検出することと、
前記デプス情報が取得され、かつ前記テクスチャ情報が取得されていないデータ欠損領域を、前記テクスチャ情報の検出結果及び前記デプス情報の検出結果に基づいて検出することと、
前記データ欠損領域に対して特定のテクスチャ情報を付加することと、を含む検出方法。
【請求項20】
コンピュータに、
対象物のテクスチャ情報を第1位置から検出した検出結果、及び前記第1位置とは異なる第2位置から前記対象物における各点までのデプス情報を検出した検出結果に基づいて、前記デプス情報が取得され、かつ前記テクスチャ情報が取得されていないデータ欠損領域を検出することと、
前記データ欠損領域に対して特定のテクスチャ情報を付加することと、を実行させる情報処理プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、検出装置、情報処理装置、検出方法、及び情報処理プログラムに関する。
【背景技術】
【0002】
物体を検出した検出結果をコンピュータに入力し、物体の3次元形状を取得する技術が提案されている(例、特許文献1参照)。しかしながら、例えば、物体(対象領域)の形状情報とテクスチャ情報とを検出する場合、物体の形状情報を検出する位置と、テクスチャ情報を検出する位置とが異なると、形状情報を得ているがテクスチャ情報が欠損した領域が生じる。モデル情報の算出において、このようなテクスチャ情報が欠損する領域は、少ないことが望まれる。
【先行技術文献】
【特許文献】
【0003】
【発明の概要】
【0004】
本発明の態様に従えば、対象物のテクスチャ情報を第1位置から検出するテクスチャ検出部と、第1位置とは異なる第2位置から対象物における各点までのデプス情報を検出する位置検出部と、デプス情報が取得され、かつテクスチャ情報が取得されていないデータ欠損領域を、テクスチャ検出部の検出結果及び位置検出部の検出結果に基づいて検出する領域検出部と、データ欠損領域に対して特定のテクスチャ情報を付加する付加部と、を備える検出装置が提供される。
本発明の態様に従えば、対象領域のテクスチャ情報を第1位置から検出するテクスチャ検出部と、所定の点から対象領域における各点までのデプス情報を、第1位置とは異なる第2位置から検出する位置検出部と、テクスチャ検出部の検出結果及び位置検出部の検出結果に基づいて、デプス情報が取得され、かつテクスチャ情報が取得されていないデータ欠損領域を検出する領域検出部と、データ欠損領域に対して特定のテクスチャ情報を付加する付加部と、を備える検出装置が提供される。
【0005】
本発明の態様に従えば、対象物のテクスチャ情報を第1位置から検出した検出結果、及び第1位置とは異なる第2位置から対象物における各点までのデプス情報を検出した検出結果に基づいて、デプス情報が取得され、かつテクスチャ情報が取得されていないデータ欠損領域を検出する領域検出部と、データ欠損領域に対して特定のテクスチャ情報を付加する付加部と、を備える情報処理装置が提供される。
本発明の態様に従えば、対象領域のテクスチャ情報を第1位置から検出した検出結果、及び所定の点から対象領域における各点までのデプス情報を第1位置とは異なる第2位置から検出した検出結果に基づいて、デプス情報が取得され、かつテクスチャ情報が取得されていないデータ欠損領域を検出する領域検出部と、データ欠損領域に対して特定のテクスチャ情報を付加する付加部と、を備える情報処理装置が提供される。
【0006】
本発明の態様に従えば、対象物のテクスチャ情報を第1位置から検出することと、第1位置とは異なる第2位置から対象物における各点までのデプス情報を検出することと、デプス情報が取得され、かつテクスチャ情報が取得されていないデータ欠損領域を、テクスチャ情報の検出結果及びデプス情報の検出結果に基づいて検出することと、データ欠損領域に対して特定のテクスチャ情報を付加することと、を含む検出方法が提供される。
本発明の態様に従えば、対象領域のテクスチャ情報を第1位置から検出することと、所定の点から対象領域における各点までのデプス情報を、第1位置とは異なる第2位置から検出することと、テクスチャ情報を第1位置から検出した検出結果及びデプス情報を第2位置から検出した検出結果に基づいて、第1位置から位置情報が検出され、かつ第2位置からテクスチャ情報が検出されないデータ欠損領域を検出することと、データ欠損領域に対して特定のテクスチャ情報を付加することと、を含む検出方法が提供される。
【0007】
本発明の態様に従えば、コンピュータに、対象物のテクスチャ情報を第1位置から検出した検出結果、及び第1位置とは異なる第2位置から対象物における各点までのデプス情報を検出した検出結果に基づいて、デプス情報が取得され、かつテクスチャ情報が取得されていないデータ欠損領域を検出することと、データ欠損領域に対して特定のテクスチャ情報を付加することと、を実行させる情報処理プログラムが提供される。
本発明の態様に従えば、コンピュータに、対象領域のテクスチャ情報を第1位置から検出した検出結果、及び所定の点から対象領域における各点までのデプス情報を第1位置と異なる第2位置から検出した検出結果に基づいて、デプス情報が取得され、かつテクスチャ情報が取得されていないデータ欠損領域を検出することと、データ欠損領域に対して特定のテクスチャ情報を付加することと、を実行させる情報処理プログラムが提供される。
【図面の簡単な説明】
【0008】
【
図1】第1実施形態に係る検出装置の一例を示す図である。
【
図2】第1実施形態に係るテクスチャ検出部及び位置検出部の一例を示す図である。
【
図3】第1実施形態に係るテクスチャ検出部及び位置検出部の他の例を示す図である。
【
図4】第1実施形態に係るテクスチャ検出部及び位置検出部の位置関係とデータ欠損領域との一例を示す図である。
【
図5】第1実施形態に係る撮像画像及びデプスの検出結果の一例を示す図である。
【
図6】第1実施形態に係る検出方法を示すフローチャートである。
【
図7】第1実施形態に係る領域検出処理を示すフローチャートである。
【
図8】(A)は第1実施形態に係るモデル情報を表示した一例を示す図、(B)は第1実施形態に係るモデル情報を表示した他の例を示す図である。
【
図9】2つのモデル情報を表示した例を示す図である。
【
図10】第2実施形態に係る検出装置の一例を示す図である。
【
図11】第2実施形態に係る検出方法を示すフローチャートである。
【
図12】第3実施形態に係る検出装置の一例を示す図である。
【
図13】第3実施形態に係る検出方法を示すフローチャートである。
【
図14】第4実施形態に係る検出装置の一例を示す図である。
【
図15】第5実施形態に係る検出システムの一例を示す図である。
【発明を実施するための形態】
【0009】
[第1実施形態]
第1実施形態について説明する。
図1は、第1実施形態に係る検出装置1の一例を示す図である。検出装置1は、モデル情報(例、3次元のCGモデルデータ)の元になる情報を検出する。検出装置1は、モデル化の対象の物体X1を含む対象領域ARを検出する。対象領域ARは、例えば、モデル化の対象の物体X1(第1の物体)と、物体X1の背景になる壁などの物体X2とを含む。物体X2は、モデル化の対象の第2の物体でもよい。モデル情報は、物体X1の形状情報とテクスチャ情報とを含む。形状情報は、点群データとサーフェス情報とを含む。形状情報は、デプス情報を含んでもよい。
【0010】
検出装置1は、対象領域ARを光学的に検出する。検出装置1は、カメラとモーションキャプチャとの一方又は双方を含んでもよい。検出装置1は、据え置き型の装置(例、定点カメラ)を含んでもよい。また、検出装置1は、携帯可能な装置(例、情報端末、スマートフォン、タブレット、カメラ付き携帯電話、ウェアラブル端末)を含んでもよい。
【0011】
検出装置1は、撮像部(テクスチャ検出部)2と、位置検出部(位置センサ)3と、情報処理部4と、を備える。検出装置1は、検出部(撮像部2、位置検出部3などのセンサ)によって、対象領域ARを検出する。撮像部2は、第1位置Vp1から対象領域ARを、撮像によって検出する。本実施形態において、撮像部2は、対象領域ARのテクスチャ情報を第1位置Vp1から検出する。位置検出部3は、対象領域ARにおける物体(物体X1、物体X2)の表面上の複数の点について、所定の点(例、第2位置Vp2)から対象領域ARにおける各点までのデプス情報を検出する。本実施形態において、位置検出部3は、第1位置Vp1とは異なる第2位置Vp2から対象領域ARにおける各点のデプス情報を検出する。情報処理部4は、位置検出部3が検出した物体(物体X1、物体X2)の表面上の複数の点におけるデプス情報に基づいて、複数の点の座標に変換する座標変換処理を実行してもよい。複数の点の座標は、位置検出部3が検出した位置情報として用いられてもよい。
【0012】
位置検出部3は、デプス情報を含む位置情報を検出する。本実施形態において、検出装置1は本体部BDを備え、撮像部2及び位置検出部3は、本体部BDに支持(固定)される。本体部BD(支持部材、固定部材)は、例えば、ボディあるいは筐体を含む。本体部BDは、撮像部2の少なくとも一部と位置検出部3の少なくとも一部との一方又は双方を保持(例、収容)してもよい。また、本体部BDは、情報処理部4の少なくとも一部を保持(例、収容)してもよい。撮像部2における第1位置Vp1、位置検出部3における第2位置Vp2は、本体部BDに設けられる。なお、本体部BDは、撮像部2、位置検出部3、及び情報処理部4の少なくとも1つを保持しなくてもよい。撮像部2、位置検出部3、及び情報処理部4の少なくとも1つは、本体部BDと別に設けられてもよい。また、検出装置1は、本体部BDを備えなくてもよい。本実施形態では、検出装置1が配置されている単一の視点から検出部(撮像部2、位置検出部3)により対象領域ARを検出する。この視点は、撮像部2、位置検出部3が配置される第1位置Vp1、第2位置Vp2、点を含む。また、検出部(撮像部2、位置検出部3)は、受光する光の光軸、又は検出方向に合わせて配置される。
【0013】
図2は、第1実施形態に係る撮像部2及び位置検出部3の一例を示す図である。撮像部2は、光学系5及び撮像素子6を備える。光学系5は、例えば、結像光学系、撮像光学系である。撮像素子6は、例えば、CMOSイメージセンサあるいはCCDイメージセンサを含む。撮像素子6は、二次元的に配列された複数の画素を有する。撮像素子6は、光学系5を介して、対象領域ARを撮像する。
【0014】
撮像部2は、第1波長帯の光L1(例、可視光)を検出する。撮像部2は、その撮像結果(検出結果)であるテクスチャ情報として、色の情報を含む画像データ(例、RGBデータ)を情報処理部4に出力する。画像データは、例えば、複数の画素のそれぞれの画素データを含む。画素データは、例えば、赤(R)の画素値と、緑(G)の画素値と、青(B)の画素値とを一組にしたデータである。
【0015】
位置検出部3は、所定の点(例、第2位置Vp2)から対象領域ARにおける各点のまでのデプス情報(距離、位置情報)を検出する。位置検出部3は、例えば、デプスセンサを含み、デプス情報として(位置情報として)、第2位置Vp2(位置検出部3の位置)と対象領域ARにおける各点との距離(測距データ)(例、デプス、奥行き、深度)を検出する。例えば、位置情報は、デプス情報を含むが、点の座標(例、後述する点群データ)、複数の点により規定される線又は面の情報(例、後述するサーフェス情報)を含んでもよい。
【0016】
位置検出部3は、照射部7、光学系8、及び撮像素子9を備える。照射部7は、対象領域ARに第2波長帯の光L2(例、パターン光、照射光)を照射(例、投影)する。光L2は、例えば、赤外光を含み、撮像部2が検出する光L1と波長帯が異なる。光学系8は、例えば、結像光学系、撮像光学系である。撮像素子9は、例えば、CMOSイメージセンサあるいはCCDイメージセンサを含む。撮像素子9は、二次元的に配列された複数の画素を有する。撮像素子6は、光学系8を介して、対象領域ARを撮像する。撮像素子9は、光L2の照射によって対象領域ARから放射される光L3(赤外光、戻り光)を検出する。
【0017】
位置検出部3は、例えば、照射部7から照射される光L2のパターン(例、強度分布)と、撮像素子9によって検出された光L3のパターン(強度分布、撮像画像)に基づいて、撮像素子9の各画素に対応する対象領域AR上の点から、撮像素子9の各画素までのデプスを検出する。位置検出部3は、その検出結果として、対象領域ARにおけるデプスの分布を表したデプスマップ(例、デプス画像、奥行き情報、位置情報)を情報処理部4に出力する。
図2において、撮像部2の光学系5の光軸5Aは、位置検出部3の光学系8の光軸8Aとは異なる。この場合、撮像部2による視野(第1位置Vp1、第1の視野、撮像範囲、検出範囲)は、位置検出部3による視野(第2位置Vp2、第2の視野、検出範囲)とは異なる(例、視野のうち重なる領域と重ならない領域とがある)。
【0018】
実施形態に係る撮像部2は、位置検出部3と光軸が同じでもよい。
図3は、第1実施形態に係る撮像部2及び位置検出部3の他の例を示す図である。
図3に示すように、例えば、撮像部2は、光学系5、ダイクロイックミラー11、及び撮像素子9を備える。光学系5は、撮像部2と位置検出部3とで共用である。ダイクロイックミラー11は、第1波長帯の光L1が反射し、第1波長帯(光L1)とは異なる第2波長帯の光L3が透過する。撮像素子6は、ダイクロイックミラー11で反射した光L1を撮像によって検出する。撮像素子9は、ダイクロイックミラー11を透過した光L3を撮像によって検出する。撮像部2の視野は、例えば、位置検出部3の視野と実質的に同じである。
【0019】
なお、位置検出部3は、TOF(time of flight)法によってデプス情報を検出するデバイスでもよい。また、位置検出部3は、TOF法以外の手法でデプス情報を検出するデバイスでもよい。位置検出部3は、例えば、レーザスキャナ(例、レーザ測距器)を含み、レーザスキャンによってデプス情報を検出するデバイスでもよい。位置検出部3は、例えば、位相差センサを含み、位相差法によってデプス情報を検出するデバイスでもよい。位置検出部3は、例えば、DFD(depth from defocus)法によってデプス情報を検出するデバイスでもよい。
【0020】
また、位置検出部3は、例えば、ステレオカメラなどによって複数の位置から撮像した撮像画像を用いて、三角測量によってデプス情報を検出するデバイスでもよい。この場合、位置検出部3は、撮像部2による撮像画像を1位置からの撮像画像として利用してもよい。位置検出部3は、上述した複数の検出法のうち2以上を組み合わせて、デプス情報(位置情報)を検出するデバイスでもよい。位置検出部3は、光学的な手法以外の手法(例、超音波によるスキャン)で対象領域ARのデプス情報(位置情報)を検出してもよい。
【0021】
図1の説明に戻り、撮像部2の視野は、例えば、
図2の構成の場合、位置検出部3の視野と異なる。撮像部2による第1の検出範囲(第1の視野、撮像範囲)は、位置検出部3による第2の検出範囲(第2の視野)と異なる。ここで、撮像部2と位置検出部3とで検出範囲が異なる場合(又は、第1の検出範囲において物体X1の陰になる領域が含まれる場合)、対象領域ARに、撮像部2によるテクスチャ情報が、部分的に欠損するデータ欠損領域(例、オクル-ジョン領域、遮蔽領域)AR1が存在する場合がある。
【0022】
図4は、第1実施形態に係る撮像部(テクスチャ検出部)2及び位置検出部3の位置関係とデータ欠損領域との一例を示す図である。
図4に示すように、撮像部2の光軸と、位置検出部3の光軸とが異なる場合には、撮像部2の光軸(視点、位置)から見ると、位置検出部3が検出したデプス情報に基づく各点が同一ベクトル上に並んでしまう場合がある。そのため、それぞれの点とテクスチャ情報との対応関係が不明となる。つまり、撮像部2と位置検出部3とで検出範囲が異なる場合(又は、第2の検出範囲において物体X1の陰になる領域が含まれる場合)、対象領域ARに、撮像部2によるテクスチャ情報が部分的に欠損するデータ欠損領域(例、テクスチャ欠損領域)AR1が存在する場合がある。データ欠損領域AR1では、位置検出部3からのデータ(例、位置情報、デプス情報のデータ)は取得(検出)されているが、撮像部2からのデータ(例、画像データ、画素データ)は取得(検出)されていない(データが得られても、データ量の少ない領域を含む)領域である。データ欠損領域AR1は、例えば、第1位置Vp1から物体X1の陰になる領域を含む。また、データ欠損領域AR1は、例えば、物体X1の表面領域のうち、第1位置Vp1から見通すことが可能な領域(例、前面の領域)を除いた領域(例、背面の領域)を含む。
【0023】
図5は、第1実施形態に係る撮像画像IM及びデプス情報の検出結果を示す図である。
図5において符号DMは、位置情報の検出結果に相当するデプスマップ(デプス画像、デプス情報、奥行き情報、複数のデプスのデータ)である。デプスマップDMは、例えば画像形式のデータで表される。デプスマップDMは、記憶部24(
図1参照)に記憶される。デプスマップDMにおける各画素の画素値は、例えば、デプスマップDM上の画素に相当する実空間上の領域から位置検出部3までのデプス(距離)を表す。例えば、デプスマップDMは、グレースケールで表される。デプスマップDMにおいて、相対的に暗い(画素値が低い)領域は、相対的に明るい(画素値が高い)領域に比べて、位置検出部3からの距離が長い(深度が深い)ことを表す。
【0024】
撮像画像IMは、例えば、フルカラーの画像である。符号AR2は、撮像画像IM上の物体X1に相当するデータ取得領域である。データ取得領域AR2は、撮像画像IMに写っている物体X1を含む。また、符号AR3は、撮像画像IM上の物体X2に相当するデータ取得領域である。データ取得領域AR3は、撮像画像IMに写っている物体X2を含む。
【0025】
ここで、撮像画像IMにおいて、データ欠損領域AR1に属する各画素は、RGBデータを有していない。データ欠損領域AR1は、撮像画像IMにおいてRGBデータが存在せず、かつデプスマップDMにおいてデプス情報(位置情報)が存在する領域を含む。データ欠損領域AR1は、撮像部2(
図1参照)から撮像画像のデータ(例、RGBデータ)が得られず、かつ位置検出部3(
図1参照)からデプス情報(例、測定値、検出結果)が得られる領域である。
【0026】
撮像画像IMにおいて、データ欠損領域AR1を除いた領域は、データ取得領域AR4である。データ取得領域AR4は、撮像部2(
図1参照)から撮像画像のデータ(例、RGBデータ)が得られ、かつ位置検出部3(
図1参照)からデプス情報(例、測定値、検出結果)が得られる領域を含む。データ取得領域AR4は、例えば、撮像部2による検出範囲(視野、撮像範囲)のうち、位置検出部3の検出範囲(視野)と重複する領域を含む。また、データ取得領域AR4は、撮像部2から撮像画像のデータ(例、RGBデータ)が得られ、かつ位置検出部3からデプス情報(例、測定値、検出結果)が得られない領域を含む。
【0027】
デプスマップDMにおいて、符号AR5は、物体X1(
図1参照)に相当するデータ取得領域である。符号AR6は、物体X2(
図1参照)に相当するデータ取得領域である。デプスマップDMにおけるデータ取得領域AR5において、物体X1の表面のデプス情報(位置情報)は存在するが、位置検出部3の位置(
図1の第2位置Vp2)から見た場合に物体X1の陰(背後)に相当する領域のデプス情報(位置情報)が存在しない。
【0028】
なお、データ欠損領域AR1は、例えば、
図3のように撮像部2と位置検出部3とで位置が同じであっても照明の違い(例、照度、照明角度など)や位置ずれ等によって、存在する場合がある。例えば、撮像部2の検出範囲(撮像範囲)は、自然光、環境光、室内灯の光などの照明光(例、可視光)によって照明される。また、位置検出部3の検出範囲は、例えば、照射部7から照射される光(例、赤外光)によって照明される。こうした場合、例えば、位置検出部3の検出範囲において照明される領域のうち、撮像部2の検出範囲において照明されない領域(例、物体又は物体の一部の陰になる領域)は、データ欠損領域AR1になる。
【0029】
また、データ欠損領域AR1は、撮像部2が検出する光(例、可視光)と位置検出部3が検出する光(例、赤外光)との波長の違いによって、存在する場合がある。例えば、対象領域ARにおける光学特性(例、反射率、透過率、吸収率)が、検出される光の波長帯によって異なることによって、データ欠損領域AR1が生じる場合がある。例えば、赤外光が反射し、可視光が吸収される領域は、位置検出部3からデータが得られるが、撮像部2からデータが得られにくいデータ欠損領域AR1になる。
【0030】
図1の説明に戻り、実施形態に係る情報処理部4(情報処理装置)は、上述のようなデータ欠損領域AR1における各点又は各部分のデプス情報(位置情報)に基づいて、データ欠損領域AR1に対して、特定のテクスチャ情報を付加する。情報処理部4が付加した特定のテクスチャ情報は、例えば、データ欠損領域AR1のモデル化に利用される。情報処理部4は、撮像部2及び位置検出部3のそれぞれと通信可能に接続される。撮像部2は、撮像結果(検出結果)として、対象領域ARの撮像画像IM(
図5参照)のデータを、例えば、テクスチャ情報として情報処理部4に出力する。位置検出部3は、検出結果として、例えば、対象領域ARのデプスマップDM(
図5参照)を情報処理部4に出力する。情報処理部4は、撮像部2から出力された撮像画像IMのデータと、位置検出部3から出力されたデプスマップDMとに基づいて、データ欠損領域AR1に特定のテクスチャ情報を付加する。
【0031】
情報処理部4は、領域検出部21と、モデル情報生成部22と、付加部23と、記憶部24とを備える。領域検出部21は、撮像部2による撮像画像IM及び位置検出部3の検出結果に基づいて、データ取得領域AR4及びデータ欠損領域AR1を検出(例、特定、抽出)する。以下の説明において、データ取得領域AR4及びデータ欠損領域AR1を検出(例、特定、抽出)する処理を、適宜、領域検出処理と称する。
【0032】
領域検出部21は、撮像部2と位置検出部3との相対位置に基づいて、デプスマップDM上のデプス情報(位置情報)と撮像画像IM上の位置情報とを対応付けて、データ欠損領域AR1を検出する。例えば、領域検出部21は、撮像部2と位置検出部3との相対位置に基づくホモグラフィー変換(射影変換、透視変換)によって、撮像画像IM上の領域とデプスマップDM上の領域との相対位置を特定する。
【0033】
領域検出部21は、領域検出処理において、対象領域ARの点と、第1位置(Vp1)と、を結ぶ線までの距離が閾値以下の点のうち、第1位置(Vp1)に最も近い点以外の点をデータ欠損領域AR1に属する点として判別する。領域検出部21は、位置検出部3が位置情報として検出する第2位置(Vp2)から対象領域ARの各点までの距離に基づいて、データ欠損領域AR1を検出する。領域検出部21は、位置検出部3がデプス情報(位置情報)として検出する第2位置(Vp2)から対象領域ARの各点までの距離(座標)に基づいて、データ欠損領域AR1を検出する。
【0034】
領域検出部21は、領域検出処理において、デプスマップDM上の領域(例、1つ又は複数の位置)ごとに、対応する領域が撮像画像IM上に存在するか否かを判定する。領域検出部21は、デプスマップDMから選択される領域(例、1つ又は複数の位置)について、対応する領域が撮像画像IM上に存在する場合に、この領域がデータ取得領域AR5に含まれると判定する。また、領域検出部21は、デプスマップDMから選択される領域(例、1つ又は複数の位置)について、対応する領域が撮像画像IM上に存在しない場合、この領域がデータ欠損領域AR1に含まれると判定する。デプスマップDMにおいて、データ取得領域AR7は、第2位置(Vp2)から位置検出部3がデプス情報(位置情報)として検出した領域であり、撮像画像IM上に存在しない領域を含む。
【0035】
モデル情報生成部22は、撮像部2の撮像結果及び位置検出部3の検出結果を用いて、モデル情報を生成する。本実施形態では、撮像部2及び位置検出部3において、それぞれ別の単一の位置(例、物体X1を検出する軸(例、光軸)が互いに異なる位置、物体X1を検出する軸(例、光軸)が互いに平行ではない位置)からの検出結果に基づくため(それぞれ別の単一視点に配置された検出装置1の検出部による検出結果に基づくため)、モデル情報生成部22が生成するモデル情報は、物体X1の全周のうち一部のデータ(デプス情報、テクスチャ情報)が欠損している。このような一部が欠損したモデル情報を可視化(例、レンダリング処理)した際に、データ欠損領域AR1に不自然なテクスチャ情報が付加されると、モデル情報の全体が不自然となり、又は見栄えが悪くなり、利用価値を低下させることになる。本実施形態では、データ欠損領域AR1に後述する特定のテクスチャ情報(所定テクスチャ情報)を付加することにより、モデル情報全体としての不自然さを軽減し、又は見栄えが悪くなるのを抑制することが可能となる。また、モデル情報生成部22は、データ欠損領域AR1が特定された後に、特定されたデータ欠損領域AR1の部分又はその部分の境界を色付けする(又は線で囲う等)、又はグラデーション表示させる等でデータ欠損領域AR1を強調して可視化(例、レンダリング処理)させるモデル情報を生成してもよい。
【0036】
モデル情報生成部22は、例えば、対象領域ARにおける物体の少なくとも一部をコンピュータグラフィック処理(CG処理)し、モデル情報(例、3次元のCGモデルデータ)を算出する。モデル情報は、対象領域ARにおける物体の形状情報とテクスチャ情報との少なくとも一方を含む。モデル情報生成部22は、位置検出部3が検出した位置情報に基づくデータ欠損領域AR1における形状情報と、撮像部2の撮像結果に基づくテクスチャ情報、及びデータ欠損領域AR1において後述する付加部23により付加された特定のテクスチャ情報と、を関連付けてモデル情報を生成する。
【0037】
モデル情報生成部22は、形状情報として点群データを算出する点群データ処理を実行する。点群データは、対象領域ARにおける物体(例、物体X1、物体X2)上の複数の点の3次元座標を含む。また、モデル情報生成部22は、位置検出部3の検出結果(例、デプスの測定値)を用いて、データ取得領域AR7(
図5参照)における点群データを算出してもよい。
【0038】
モデル情報生成部22は、データ取得領域AR7の一部について点群データを算出してもよい。データ取得領域AR7の一部以外の点群データについては、モデル情報生成部22と異なる処理部(例、第2のモデル情報生成部)が算出してもよい。例えば、モデル情報生成部22が算出する点群データと、第2のモデル情報生成部が算出する点群データとの合成によって、データ取得領域AR7全体の点群データが取得されてもよい。
【0039】
モデル情報生成部22は、記憶部24からデプスマップDMのデータを読み出し、デプスマップDMから平面画像への透視変換などによって、点群データを算出する。例えば、モデル情報生成部22は、所定のデプス情報に対応する第1の画素(物体上の第1の点)と、第1の画素に隣接する第2の画素(物体上の第2の点)とを連結させる。さらに、モデル情報生成部22は、第2の画素に隣接する第3の画素(物体上の第3の点)についても同様に、第2の画素と第3の画素とを連結する。モデル情報生成部22は、上述のように、所定のデプス情報に対応し隣接する画素を順に連結することによって、画素をもとに所定のデプス情報を有する点群データを算出する。そして、モデル情報生成部22は、算出した点群データを記憶部24に記憶させる。
【0040】
また、モデル情報生成部22は、形状情報としてサーフェス情報を算出するサーフェス処理を実行する。サーフェス情報は、例えば、ポリゴンデータ、ベクタデータ、及びドローデータの少なくとも1つを含む。サーフェス情報は、物体の表面上の複数の点の座標と、複数の点間の連結情報とを含む。連結情報(例、属性情報)は、例えば、物体表面の稜線(例、エッジ)に相当する線の両端の点を互いに関連付ける情報を含む。また、連結情報は、例えば、物体表面(サーフェス)の輪郭に相当する複数の線を互いに関連付ける情報を含む。
【0041】
モデル情報生成部22は、サーフェス処理において、点群データに含まれる複数の点から選択される点とその近傍の点との間の面を推定する。また、モデル情報生成部22は、サーフェス処理において、点群データを点間の平面情報を持つポリゴンデータに変換する。モデル情報生成部22は、例えば、最小二乗法を用いたアルゴリズムにより、点群データをポリゴンデータへ変換する。このアルゴリズムは、例えば、点群処理ライブラリに公開されているアルゴリズムを適用したものでもよい。モデル情報生成部22は、例えば、算出したサーフェス情報を記憶部24に記憶させる。
【0042】
また、モデル情報生成部22は、3次元の点座標及びその関連情報で規定された面のテクスチャ情報を生成する。テクスチャ情報は、例えば、物体表面の文字や図形、模様、質感、パターン、凹凸を規定する情報、特定の画像、及び色彩(例、有彩色、無彩色)の少なくとも1つの情報を含む。モデル情報生成部22は、生成したテクスチャ情報を記憶部24に記憶させる。
【0043】
モデル情報生成部22は、モデル情報として、画像の空間情報(例、照明条件、光源情報)を生成してもよい。光源情報は、例えば、物体(対象物)を基準とした照明光を照射する光源の位置、この光源から物体へ光が照射される方向(照射方向)、この光源から照射される光の波長、及びこの光源の種類のうち少なくとも1項目の情報を含む。モデル情報生成部22は、例えば、ランバート反射を仮定したモデル、アルベド(Albedo)推定を含むモデルなどを利用して、光源情報を算出してもよい。モデル情報生成部22は、生成(例、算出)したモデル情報の少なくとも一部を記憶部24に記憶させる。なお、モデル情報生成部22は、上述したモデル情報の一部を生成しなくてもよい。
【0044】
付加部23は、領域検出部21が検出したデータ欠損領域AR1に対して特定のテクスチャ情報を付加する。付加部23は、データ欠損領域AR1に対して特定のテクスチャ情報を補足する補足部、又は、データ欠損領域AR1に対して特定のテクスチャ情報を補完する補完部である。データ欠損領域AR1は、位置検出部3が検出した各点のデプス情報(位置情報)において、第1位置(Vp1)を起点とする線上に複数の点が存在する場合(
図4参照)、第1位置(Vp1)から最も近い点を除いた点を複数含んでいる。付加部23は、データ欠損領域AR1に含まれた複数の点で規定される領域に対して特定のテクスチャ情報を付加する。このような場合、例えば、本実施形態は、モデル情報に対して、デプス情報に基づいてRGB視点で一番手前の点で作られた面にだけテクスチャ情報を貼り、それ以外の面には、予め定めたパターンの特定のテクスチャ情報(例、白、グレー)を貼る。
【0045】
付加部23は、データ欠損領域AR1に対して特定のテクスチャ情報を付加するテクスチャ付加処理を実行する。特定のテクスチャ情報は、撮像部2が検出する物体(例、物体X1)のテクスチャ情報とは異なる。特定のテクスチャ情報は、予め定められた特定のテクスチャ情報であってもよいし、データ欠損領域AR1に応じて付加部23により生成されてもよい。
【0046】
予め定められた特定のテクスチャ情報は、撮像部2が物体を撮像するよりも前に記憶部24に記憶された情報に基づいてもよい。特定のテクスチャ情報は、記憶部24に記憶された1つ又は複数の特定のテクスチャ情報の候補の中から付加部23により選択されてもよい。特定のテクスチャ情報は、複数のデータ欠損領域に対して予め決められた共通の同じテクスチャ情報であってもよい。記憶部24に記憶される特定のテクスチャ情報を用いることにより、付加部23によるテクスチャ付加処理に要する負荷を軽くできる。特定のテクスチャ情報は、グレー(例、グレースケールにおける18%グレー)、白、黒、単一色のいずれか1つ、又は複数が組み合わされたものを含む。特定のテクスチャ情報は、例えば、物体X1のテクスチャ(RGBデータ)が白である場合に、白以外の色であってもよい。特定のテクスチャ情報は、前側の物体(例、物体X1)と、後ろ側の物体(例、物体X2)との境界を強調するような(物体X1を物体X2に対して明確にするような)色、模様等であってもよい。特定のテクスチャ情報は、グラデーションが設定されてもよい。特定のテクスチャ情報にグラデーションが設定される場合、例えば、物体(例、物体X1)に近い側が濃くなるように設定されてもよいし、物体(例、物体X1)に遠い側が濃くなるように設定されてもよい。
【0047】
特定のテクスチャ情報を生成する場合、付加部23は、点群データのうちRGBデータが存在する点同士の間をグラデーションで補完するような特定のテクスチャ情報を生成してもよい。また、付加部23は、撮像部2による第1位置Vp1からの撮像画像IMのRGB画像全体、又は、そのRGB画像から物体X1の情報を除いた物体X2の情報に基づいて、明度、彩度、色相のいずれか1つ、又は、これら複数の平均をとって特定された特定のテクスチャ情報(例、単一色のテクスチャ情報)を生成してもよい。また、付加部23は、第1位置Vp1からの撮像画像IMのRGB画像から物体X1の情報を除いた物体X2の情報に基づいて、データ欠損領域AR1の近傍の点(点群データのうちRGBデータが存在する点)の色(例、RGBデータ)を用いて特定のテクスチャ情報を生成してもよい。
【0048】
次に、実施形態に係る検出装置1の動作に基づき、実施形態に係る検出方法について説明する。
図6は、第1実施形態に係る検出方法を示すフローチャートである。検出装置1の各部については、適宜、
図1を参照する。ステップS1において、撮像部2は、物体X1を含む対象領域ARを撮像する。ステップS2において、位置検出部3は、所定の点から対象領域ARの各点までのデプス情報(位置情報)を検出する。なお、ステップS2の処理は、ステップS1の処理よりも前に実行されてもよい。また、ステップS2の処理は、ステップS1の処理の少なくとも一部と並行して、実行されてもよい。
【0049】
ステップS3において、領域検出部21は、データ欠損領域AR1を検出する領域検出処理を実行する。領域検出部21は、ステップS1で得られる撮像部2の撮像結果(検出結果)と、ステップS2で得られる位置検出部3の検出結果とに基づいて、データ欠損領域AR1を検出する。なお、ステップS3において、領域検出部21は、データ取得領域AR4とデータ欠損領域AR1とを検出する領域検出処理を実行してもよい。
【0050】
ステップS4において、付加部23は、データ欠損領域AR1に特定のテクスチャ情報を付加する。特定のテクスチャ情報は、物体(例、物体X1、X2)のテクスチャとは異なる。付加部23は、例えば、記憶部24に記憶されている特定のテクスチャ情報の候補の中からデータ欠損領域AR1に付与する特定のテクスチャ情報を選定する。ステップS4において、付加部23は、予め定められた特定のテクスチャ情報を記憶部24から読み出してデータ欠損領域AR1に対する特定のテクスチャ情報を特定してもよいし、データ取得領域AR4のRGBデータからデータ欠損領域AR1に付与すべき特定のテクスチャ情報を判定し、記憶部24に記憶されている複数の特定のテクスチャ情報の候補の中から選択してもよい。
【0051】
ステップS5において、モデル情報生成部22は、モデル情報を生成する。ステップS5は、例えば、ステップS6からステップS9の処理が実行される。ステップS6において、モデル情報生成部22は、モデル情報として点群データを生成する。ステップS7において、モデル情報生成部22は、ステップS6で生成した点群データを用いて、モデル情報としてサーフェス情報を生成する。ステップS8において、モデル情報生成部22は、撮像部2から得られる撮像画像を用いて、テクスチャ情報を生成する。ステップS9において、モデル情報生成部22は、点群データ等の形状情報と、テクスチャ情報及び特定のテクスチャ情報とを関連付けたモデル情報を生成する。
【0052】
次に、
図7を参照しつつ、
図6のステップS3の処理について説明する。
図7は、第1実施形態に係る領域検出処理を示すフローチャートである。ステップS11において、領域検出部21(
図1参照)は、デプスマップDM上の位置と撮像画像IM上の位置とを対応付ける。ステップS12において、領域検出部21は、デプスマップDMから領域(適宜、第1領域という)を選択する。ステップS13において、領域検出部21は、第1領域と対応する領域(適宜、第2領域という)が撮像画像IMにあるか否かを判定する。
【0053】
領域検出部21は、第1領域に対応する第2領域が撮像画像IMに存在すると判定した場合(ステップS13;Yes)、ステップS14において第2領域のRGBデータがNANであるか否かを判定する。RGBデータが「NAN」であることは、RGBデータが存在しないこと(Not A Number)を表す。領域検出部21は、第2領域のRGBデータがNANでない(有意な値を有する)と判定した場合(ステップS14;No)、ステップS15において第1領域をデータ取得領域AR4に属する領域として登録する。
【0054】
領域検出部21は、ステップS13において第1領域に対応する第2領域が撮像画像IMに存在しないと判定した場合(ステップS13;No)、又はステップS14において第2領域のRGBデータがNANであると判定した場合(ステップS14;Yes)、第1領域をデータ欠損領域AR1に属する領域として登録する。
【0055】
領域検出部21は、ステップS15の処理後又はステップS16の処理後に、ステップS17において第1領域の選択を変更するか否かを判定する。領域検出部21は、例えば、デプスマップDMにおいて予定された一部の領域について、データ取得領域AR4又はデータ欠損領域AR1に属するかの検出(ステップS15またはステップS16)が完了していないと判定した場合に、第1領域の選択を変更すると判定する(ステップS17;Yes)。領域検出部21は、第1領域の選択を変更すると判定した場合(ステップS17;Yes)、ステップS12の処理に戻り、デプスマップDMから次の領域(第1領域)を選択し、以降の処理を繰り返す。
【0056】
領域検出部21は、ステップS17において、デプスマップDMにおいて予定された全部の領域について、データ取得領域AR4又はデータ欠損領域AR1に属するかの検出(ステップS15またはステップS16)が完了したと判定した場合に、第1領域の選択を変更しないと判定する(ステップS17;No)。領域検出部21は、第1領域の選択を変更しないと判定した場合(ステップS17;No)、データ欠損領域AR1とデータ取得領域AR4とを区別する情報を記憶部24(
図1参照)に記憶させ、一連の処理を終了する。データ欠損領域AR1とデータ取得領域AR4とを区別する情報は、例えば、デプスマップDMのデプス情報(位置情報)ごとに、データ欠損領域AR1に属することを「0」で表し、データ取得領域AR4に属することを「1」で表すフラグデータである。
【0057】
図6及び
図7に示す一連の処理が実行されることにより、
図8に示すようなモデル情報が生成される。
図8(A)は第1実施形態に係るモデル情報を表示した一例を示す図、
図8(B)は第1実施形態に係るモデル情報を表示した他の例を示す図である。
図8(A)及び
図8(B)は、モデル情報MD1、MD2をCG画像として表示部の画面に表示した例をそれぞれ示している。
【0058】
付加部23が、グレーの特定のテクスチャ情報をデータ欠損領域AR1に付加した場合、
図8(A)に示すように、モデル情報生成部22は、形状情報のうちデータ取得領域AR2には物体X1のテクスチャ(RGBデータ)を張り付け、データ取得領域AR3には物体X2のテクスチャ(RGBデータ)を張り付け、データ欠損領域AR1にはグレーの特定のテクスチャ情報を張り付けたモデル情報MD1を生成する。モデル情報MD1は、例えば、物体X1の模様、形状等が複雑な場合、データ欠損領域AR1がグレーとなるので、物体X1の模様、形状等が強調され、違和感(物体X1の不自然さ)を軽減できる。
【0059】
また、付加部23が、グラデーションを設定した特定のテクスチャ情報をデータ欠損領域AR1に付加した場合、
図8(B)に示すように、モデル情報生成部22は、形状情報のうちデータ取得領域AR2には物体X1のテクスチャ(RGBデータ)を張り付け、データ取得領域AR3には物体X2のテクスチャ(RGBデータ)を張り付け、データ欠損領域AR1にはグラデーションを設定した特定のテクスチャ情報(例、グレーのグラデーション)を張り付けたモデル情報MD2を生成する。モデル情報MD2は、例えば、物体X1の模様、形状等が複雑な場合、データ欠損領域AR1では物体X1から遠ざかるにつれて薄くなるグラデーションとなっているので、物体X1の模様、形状等が強調され、違和感(物体X1の不自然さ)を軽減できる。
【0060】
本実施形態において、
図1のデータ欠損領域AR1は、位置検出部3(第2位置Vp2)から検出可能な領域である。ここで、データ欠損領域AR1に所定テクスチャ情報が付加されないとする。この場合、例えば、データ欠損領域AR1のRGBデータが欠如し、情報処理部4は、データ欠損領域AR1に他の点のRGBデータを用いたテクスチャ情報を形状情報に対応付ける場合がある。このようなモデル情報に基づいてレンダリング処理を実行する場合、例えば、データ欠損領域AR1に物体X2の形状情報が得られていても、データ欠損領域AR1に物体X1の(すなわち他の点の)RGBデータが貼り付けられて、物体(例、物体X1)の後方にゴースト(
図9のゴーストG参照)が表示されることがある。
【0061】
本実施形態に係る検出装置1は、データ欠損領域AR1に特定のテクスチャ情報を付加するので、例えば、データ欠損領域AR1の形状情報と特定のテクスチャ情報とを関連付けてモデル情報を生成することができる。例えば、このモデル情報を用いてレンダリング処理を実行すると、データ欠損領域AR1に特定のテクスチャが表現され、物体(例、物体X1)の模様、形状等を強調するので、違和感(物体の不自然さ)を軽減できる。
【0062】
図9は、モデル情報MD1とモデル情報MDとをCG画像として表示部の画面に表示した例を示している。
図9に示す例において、表示部の画面Dにおいて、本実施形態によりデータ欠損領域AR1に特定のテクスチャ情報を付加したモデル情報MD1を画面Dの左側に表示し、データ欠損領域AR1に特定のテクスチャ情報を付加していないモデル情報MDを画面Dの右側に表示して、モデル情報MD1とモデル情報MDとのCG画像を1つの画面Dに並べて表示している。
【0063】
モデル情報MDの表示画像では、物体X1の後方に物体X1の表面のテクスチャが貼り付けられ、物体X1の後方から物体X2にかけてゴーストGが生じており、物体X1のモデル情報として違和感(物体の不自然さ)がある表示となっている。ゴーストGは、例えば、物体X1から物体X2にかけて連続して生じる場合がある。そのため、物体X1と物体X2とが一続きとなって物体X1のモデル情報としては違和感を生じさせる要因となる。一方、モデル情報MD1の表示画像では、物体X1の後方に特定のテクスチャ情報に基づくグレーのテクスチャが貼り付けられている。そのため、物体X1の模様、形状等が強調され、又は物体X1が物体X2から分離していることが認識され、物体X1のモデル情報として違和感を軽減できる。
【0064】
なお、本実施形態の情報処理部4において、付加部23は、モデル情報生成部22と別に設けられることに限定されず、付加部23がモデル情報生成部22に含まれていてもよい。この場合、上記した
図6のフローチャートにおいて、ステップS4は、ステップS5におけるモデル情報の生成において、ステップS4に示すデータ欠損領域AR1に対する所定テクスチャ情報の付加を行ってもよい。
【0065】
また、情報処理部4は、検出装置1と別の装置(例、情報処理装置)として提供されてもよい。例えば、情報処理部4(情報処理装置)は、撮像部2と位置検出部3との一方又は双方と別に提供されてもよい。また、領域検出部21を撮像部2、位置検出部3に備えるようにしてもよい。また、情報処理部4(情報処理装置)は、モデル情報生成部22を備えなくてもよい。モデル情報生成部22は、情報処理部4と別の装置に設けられてもよい。
【0066】
情報処理部4は、例えば、クラウドコンピュータを含んでもよい。情報処理部4は、例えばインターネット回線を介して、撮像部2及び位置検出部3のそれぞれと接続されてもよい。情報処理部4は、撮像部2の撮像結果から得られる情報(例、撮像画像のデータ)と、位置検出部3の検出結果から得られる情報(例、デプスマップ、点群データ)とを、インターネット回線を介して取得し、取得したデータに基づいて上述の処理を実行してもよい。情報処理部4は、例えば、その処理結果(例、モデル情報)について、インターネット回線を介して、外部の装置(例、表示装置、サーバ、他のコンピュータシステム)に出力してもよい。
【0067】
[第2実施形態]
次に、第2実施形態について説明する。本実施形態において、上述の実施形態と同様の構成については、同じ符号を付してその説明を省略あるいは簡略化する。
図10は、第2実施形態に係る検出装置1Aの一例を示す図である。本実施形態において、検出装置1Aはテクスチャ推定部25を備える。テクスチャ推定部25は、データ欠損領域AR1に付加部23が付加する特定のテクスチャ情報を推定する。テクスチャ推定部25は、例えば、撮像部2が取得した情報(例、RGBデータ)に基づいて、データ欠損領域AR1に付加する特定のテクスチャ情報を推定するテクスチャ推定処理を実行する。
【0068】
テクスチャ推定処理は、例えば、撮像部2が取得した物体(例、物体X1、X2)のテクスチャ情報から、データ欠損領域AR1に付加する特定のテクスチャ情報を推定する。テクスチャ推定処理の一例として、テクスチャ推定部25は、データ取得領域AR4の位置情報と、データ欠損領域AR1において取得しているデプス情報(位置情報)とで連続性のある面(例、平面、曲面、球面)を抽出(特定)する。この連続性のある面のうち、データ取得領域AR4ではテクスチャ情報を得ているので、このテクスチャと連続するようにデータ欠損領域AR1における特定のテクスチャ情報を推定する。テクスチャ推定部25が推定する特定のテクスチャ情報は、例えば、データ取得領域AR4において取得しているテクスチャ情報の色、模様等が同一又はほぼ同一であり、データ欠損領域AR1に付加したときにデータ取得領域AR4のテクスチャ情報と連続する。
【0069】
また、テクスチャ推定処理の他の例として、テクスチャ推定部25は、データ取得領域AR4のテクスチャ情報のうち物体(例、物体X1)のRGBデータにおいて平均の色を算出する。テクスチャ推定部25は、この物体の平均の色を強調する(浮き立たせる)関係の色を判定する。この色の判定は、例えば、明度、彩度、色度の少なくとも1つを用いて判定してもよいし、予め記憶部24に複数のパターンを記憶しておき、テクスチャ推定部25が、記憶部24に記憶されたパターンから選定してもよい。テクスチャ推定部25は、判定した色を付与した特定のテクスチャ情報を推定する。
【0070】
また、テクスチャ推定処理の他の例として、テクスチャ推定部25は、複数の物体(例、物体X1、X2)がある場合、物体X1のテクスチャ情報(RGBデータ)と、物体X2のテクスチャ情報(RGBデータ)とを用いて、物体X1と物体X2との間で色、模様が連続的に変化するような色変化又は模様の変化を特定した特定のテクスチャ情報を推定してもよい。
【0071】
また、テクスチャ推定部25は、特定のテクスチャ情報を複数推定し、使用者が複数の特定のテクスチャ情報の候補の中から選択可能であってもよい。この場合、テクスチャ推定部25は、表示部の画面に複数の特定のテクスチャ情報の候補を切り替え可能に表示させてもよい。表示部の画面には、特定のテクスチャ情報の候補をデータ欠損領域AR1に付加した状態を表示させてもよい。使用者は、表示部の画面を見ながら、データ欠損領域AR1において好ましい(適した、違和感のない、不自然さが少ない)特定のテクスチャ情報を選択可能としてもよい。
【0072】
次に、第2実施形態に係る検出装置1Aの動作に基づき、実施形態に係る検出方法について説明する。
図11は、第2実施形態に係る検出方法を示すフローチャートである。検出装置1Aの各部については、適宜、
図10を参照する。なお、上述した
図6に示すフローチャートと同様の処理については、同じ符号を付している。ステップS1において、撮像部2は、物体X1を含む対象領域ARを撮像する。ステップS2において、位置検出部3は、所定の点から対象領域ARの各点までのデプス情報(位置情報)を検出する。なお、ステップS2の処理は、ステップS1の処理よりも前に実行されてもよい。また、ステップS2の処理は、ステップS1の処理の少なくとも一部と並行して、実行されてもよい。
【0073】
ステップS3において、領域検出部21は、データ欠損領域AR1を検出する領域検出処理を実行する。領域検出部21は、ステップS1で得られる撮像部2の撮像結果(検出結果)と、ステップS2で得られる位置検出部3の検出結果とに基づいて、データ欠損領域AR1を検出する。なお、ステップS3において、領域検出部21は、データ取得領域AR4とデータ欠損領域AR1とを検出する領域検出処理を実行してもよい。
【0074】
ステップS21において、テクスチャ推定部25は、データ欠損領域AR1に付加する特定のテクスチャ情報を推定する。テクスチャ推定部25は、データ欠損領域AR1に付加するテクスチャ情報を推定するテクスチャ推定処理を実行する。テクスチャ推定部25は、推定した特定のテクスチャ情報を記憶部24に記憶させてもよい。また、ステップS21において、テクスチャ推定部25は、推定した特定のテクスチャ情報を表示部の画面に表示させ、使用者に特定のテクスチャ情報の使用の可否を求めてもよい。この場合、使用者は、表示部の画面に表示された特定のテクスチャ情報を見て、特定のテクスチャ情報の使用の可否を判断することができる。
【0075】
ステップS22において、付加部23は、テクスチャ推定部25が推定した特定のテクスチャ情報をデータ欠損領域AR1に付加する。ステップS5において、モデル情報生成部22は、モデル情報を生成する。ステップS5は、例えば、ステップS6からS9の処理が実行される。ステップS6において、モデル情報生成部22は、モデル情報として点群データを生成する。ステップS7において、モデル情報生成部22は、ステップS6で生成した点群データを用いて、モデル情報としてサーフェス情報を生成する。ステップS8において、モデル情報生成部22は、撮像部2から得られる撮像画像を用いて、テクスチャ情報を生成する。ステップS9において、モデル情報生成部22は、点群データ等の形状情報と、テクスチャ情報及び特定のテクスチャ情報とを関連付けたモデル情報を生成する。
【0076】
図11に示す一連の処理を実行することにより、データ欠損領域AR1に特定のテクスチャ情報が貼り付けられた3Dモデル(CG画像)が生成される(
図8(A)、(B)参照)。このように、本実施形態によれば、データ欠損領域AR1に不適切なテクスチャ(例、
図9に示すゴーストG)が貼り付けられた3Dモデルに比べて違和感(物体の不自然さ)を軽減できる。また、本実施形態によれば、特定のテクスチャ情報をテクスチャ推定部25が推定するので、モデル化する物体(例、物体X1)に合わせた特定のテクスチャ情報をデータ欠損領域AR1に付加することができ、より一層違和感(不自然さ)を軽減できる。
【0077】
[第3実施形態]
次に、第3実施形態について説明する。本実施形態において、上述の実施形態と同様の構成については、同じ符号を付してその説明を省略あるいは簡略化する。
図12は、第3実施形態に係る検出装置1Bの一例を示す図である。本実施形態において、検出装置1Bは、撮像部2A及び位置検出部3Aを含む検出部と、撮像部2B及び位置検出部3Bを含む検出部との2つの検出部を備えている。撮像部2A及び位置検出部3Aは、位置Vp1A、Vp1B(図示せず)に設定され、撮像部2B及び位置検出部3Bは、位置Vp1A、Vp1Bとそれぞれ異なる位置Vp2A、Vp2B(図示せず)に設定されている。なお、本実施形態では、検出部が2つの場合を示しているが、検出部の数が3つ以上であってもよい。
【0078】
情報処理部4は、領域検出部21と、モデル情報生成部22と、付加部23と、記憶部24と、モデル情報統合部(モデル統合部)26とを備える。モデル情報生成部22は、位置検出部3Aが検出した対象領域ARの位置情報から物体(例、物体X1)の第1形状情報(第1モデル情報)を生成する。モデル情報生成部22は、位置検出部3Aが検出したデプス情報(位置情報、第1デプスマップ)から点群データを生成し、この点群データを用いて、第1形状情報(例、第1サーフェス情報)を生成する。モデル情報生成部22は、撮像部2Aが撮像した撮像画像を用いて第1テクスチャ情報を生成し、この第1テクスチャ情報を関連付けた第1形状情報を生成してもよい。
【0079】
また、モデル情報生成部22は、位置検出部3Bが検出した対象領域ARの位置情報から物体(例、物体X1)の第2形状情報(第2モデル情報)を生成する。モデル情報生成部22は、位置検出部3Bが検出したデプス情報(位置情報、第2デプスマップ)から点群データを生成し、この点群データを用いて、第2形状情報(例、第2サーフェス情報)を生成する。モデル情報生成部22は、撮像部2Bが撮像した撮像画像を用いて第2テクスチャ情報を生成し、この第2テクスチャ情報を関連付けた第2形状情報を生成してもよい。
【0080】
モデル情報統合部26は、第1形状情報と第2形状情報とを統合するモデル情報統合処理を実行する。モデル情報統合処理は、例えば、物体X1を位置Vp1A、Vp1Bから検出した結果(第1の検出結果)に基づいて生成される第1形状情報と、物体X1を位置Vp2A、Vp2Bから検出した結果(第2の検出結果)に基づいて生成される第2形状情報と統合して、統合形状情報(統合モデル情報)を生成する。また、モデル情報統合部26は、撮像部2A、2B及び位置検出部3A、3B以外の位置(第3位置)から生成された第3形状情報(第3モデル情報)を取得して第1形状情報及び第2形状情報の一方又は双方を統合させて統合形状情報を生成してもよい。
【0081】
モデル情報統合部26は、例えば、第1形状情報が示す形状のうちの第1特徴点と、第2形状情報が示す形状のうちの第2特徴点とを対応させて、第1形状情報と第2形状情報とを統合する。第1特徴点は、第1形状情報が示す形状のうち他の部分と識別可能な部分である。例えば、サーフェス情報において面に定義されている部分は、その外周の形状などにより、他の面と識別可能である。第2特徴点は、第2形状情報が示す形状のうち他の部分と識別可能な部分である。
【0082】
また、モデル情報統合部26は、第1形状情報と、第1形状情報に関連付けられた第1テクスチャ情報との少なくとも一方を使って第1特徴点を検出し、第1特徴点の位置とその特徴点の特徴量(第1特徴量)とを示す第1特徴点データを算出する。モデル情報統合部26は、例えば、第1特徴点データを第1形状情報の1項目の情報として、記憶部24に記憶させる。また、モデル情報統合部26は、例えば、第2形状情報と、第2形状情報に関連付けられた第2テクスチャ情報との少なくとも一方を使って第2特徴点を検出し、第2特徴点の位置とその特徴点の特徴量(第2特徴量)とを示す第2特徴点データを算出する。モデル情報統合部26は、例えば、第2特徴点データを第2形状情報の1項目の情報として、記憶部24に記憶させる。
【0083】
モデル情報統合部26は、例えば、SIFT(Scale-Invariant Feature Transform)法又はSURF(Speeded Up Robust Features)法により特徴点及び特徴量を算出する。なお、上記の特徴点データ(例、第1特徴点データ、第2特徴点データ)は、少なくとも特徴点の特徴量を含むデータである。
【0084】
モデル情報統合部26は、第1形状情報の第1特徴量を有する第1特徴点データと、第2形状情報の第2特徴量を有する第2特徴点データとをマッチングさせて統合した第3特徴点データを含む統合形状情報を算出する。第3特徴点データは、第1特徴点データ(例、第1特徴量)と第2特徴点データ(例、第2特徴量)とをマッチングさせたデータである。第3特徴点データは、例えば、物体X1のうち、第1特徴点データと第2特徴点データとが重なる部分を含み、第1特徴点及び第2特徴点よりも広い範囲のデータである。なお、統合形状情報が示す形状は、物体X1の一部を示す部分モデルであってもよい。
【0085】
本実施形態では、撮像部2A、2B及び位置検出部3A、3Bにおいて、それぞれの位置から検出を行っているが、モデル情報生成部22が生成する統合形状情報は、物体X1の全周の一部のデータ(位置情報、テクスチャ情報)が欠損している。また、統合形状情報は、第1形状情報と第2形状情報とを統合した情報であり、第1形状情報に関連付けられた第1テクスチャ情報と、第2形状情報に関連付けられた第2テクスチャ情報とを統合した統合テクスチャ情報が関連付けられてもよい。モデル情報生成部22は、算出した統合形状情報を記憶部24に記憶させる。
【0086】
領域検出部21は、撮像部2Aによる撮像画像及び撮像部2Bによる撮像画像(又は上記した統合テクスチャ情報)と、上記した統合形状情報とに基づいて、データ欠損領域AR1を検出(例、特定、抽出)する。このデータ欠損領域AR1は、統合形状情報において物体(例、物体X1)の形状情報(デプス情報、位置情報)が取得(検出)されているが、テクスチャ情報が取得(検出)されていない領域である。このデータ欠損領域AR1は、撮像部2A及び位置検出部3Aの検出結果に基づいて得られるデータ欠損領域より小さく、撮像部2B及び位置検出部3Bの検出結果に基づいて得られるデータ欠損領域より小さい。
【0087】
付加部23は、領域検出部21が検出したデータ欠損領域AR1に対して特定のテクスチャ情報を付加する。データ欠損領域AR1に付加する特定のテクスチャ情報は、撮像部2A、2Bが検出する物体(例、物体X1)のテクスチャ情報とは異なる。特定のテクスチャ情報は、予め定められた特定のテクスチャ情報であってもよいし、データ欠損領域AR1に応じて推定された特定のテクスチャ情報であってもよい。
【0088】
モデル情報生成部22は、撮像部2Aの撮像結果に基づく第1テクスチャ情報と、撮像部2Bの撮像結果に基づく第2テクスチャ情報とを生成する。なお、統合形状情報を生成する際に上記した統合テクスチャ情報が生成されている場合は、その統合テクスチャ情報が用いられてもよい。モデル情報生成部22は、モデル情報(例、3次元のCGモデルデータ)を算出する。モデル情報は、対象領域ARにおける物体の形状情報とテクスチャ情報との少なくとも一方を含む。モデル情報生成部22は、算出したモデル情報を記憶部24に記憶させる。
【0089】
次に、実施形態に係る検出装置1Bの動作に基づき、実施形態に係る検出方法について説明する。
図13は、第3実施形態に係る検出方法を示すフローチャートである。検出装置1Bの各部については、適宜、
図12を参照する。なお、上述した
図6に示すフローチャートと同様の処理については、同じ符号を付している。ステップS1において、撮像部2A、2Bは、物体X1を含む対象領域ARをそれぞれ撮像する。ステップS2において、位置検出部3A、3Bは、所定の点から対象領域ARまでの各点のデプス情報(位置情報)をそれぞれ検出する。なお、ステップS2の処理は、ステップS1の処理よりも前に実行されてもよい。また、ステップS2の処理は、ステップS1の処理の少なくとも一部と並行して、実行されてもよい。
【0090】
ステップS31において、モデル情報生成部22は、位置検出部3Aが検出したデプス情報(位置情報)に基づいて第1形状情報を生成する。また、ステップS31において、モデル情報生成部22は、位置検出部3Bが検出した位置情報に基づいて第2形状情報を生成する。ステップS31は、例えば、ステップS6、S7の処理が実行される。ステップS6において、モデル情報生成部22は、第1形状情報として第1点群データを生成し、第2形状情報として第2点群データを生成する。ステップS7において、モデル情報生成部22は、ステップS6で生成した第1点群データを用いて、第1形状情報として第1サーフェス情報を生成し、第2点群データを用いて、第2形状情報として第2サーフェス情報を生成する。
【0091】
ステップS32において、モデル情報統合部26は、第1形状情報と第2形状情報とを統合するモデル情報統合処理を実行する。モデル情報統合部26は、第1形状情報(第1サーフェス情報)と第2形状情報(第2サーフェス情報)とを統合して統合形状情報を生成する。モデル情報統合部26は、撮像部2Aの撮像画像に基づく第1テクスチャ情報と、撮像部2Bの撮像画像に基づく第2テクスチャ情報とを統合した統合テクスチャ情報を生成してもよい。ステップS33において、領域検出部21は、撮像部2Aによる撮像画像及び撮像部2Bによる撮像画像(又は統合テクスチャ情報)と、統合形状情報とに基づいて、データ欠損領域AR1を検出する。
【0092】
ステップS33において、領域検出部21は、データ欠損領域AR1を検出する領域検出処理を実行する。領域検出部21は、ステップS1で得られる撮像部2A、2Bのそれぞれの撮像画像(又は上記した統合テクスチャ情報)と、ステップS2で得られる位置検出部3A、3Bのそれぞれの検出結果とに基づいて、データ欠損領域AR1を検出する。
【0093】
ステップS34において、付加部23は、特定のテクスチャ情報をデータ欠損領域AR1に付加する。ステップS35において、モデル情報生成部22は、モデル情報を生成する。ステップS35は、例えば、ステップS8、S9の処理が実行される。ステップS8において、モデル情報生成部22は、撮像部2A、2Bからそれぞれ得られる撮像画像を用いて、テクスチャ情報を生成する。なお、ステップS32において、統合テクスチャ情報が生成されている場合は、その統合テクスチャ情報が用いられる。ステップS9において、モデル情報生成部22は、統合形状情報と、テクスチャ情報及び特定のテクスチャ情報とを関連付けたモデル情報を生成する。
【0094】
図13に示す一連の処理を実行することにより、データ欠損領域AR1に特定のテクスチャ情報が貼り付けられた3Dモデル(CG画像)が生成される(
図8(A)、(B)参照)。このように、本実施形態によれば、複数の検出部から物体の形状情報及びテクスチャ情報を取得してもデータ欠損領域AR1が存在する場合に、このデータ欠損領域AR1に特定のテクスチャ情報を付加することで違和感(物体の不自然さ)を軽減できる。
【0095】
なお、本実施形態において、位置検出部3A、3Bは、データ欠損領域AR1のデプス情報(距離、位置情報)を検出するが、データ欠損領域AR1の形状情報(例、物体表面の点の座標、点群データ)を推定してもよい。また、情報処理部4(情報処理装置)は、撮像部2A、2B及び位置検出部3A、3Bのいずれかと別に提供されてもよい。また、情報処理部4は、例えばインターネット回線を介して、撮像部2A、2B及び位置検出部3A、3Bのそれぞれと接続されてもよい。情報処理部4は、撮像部2A、2Bの撮像結果から得られる情報(例、撮像画像のデータ)と、位置検出部3A、3Bの検出結果から得られる情報(例、デプスマップ、点群データ)とを、インターネット回線を介して取得し、取得したデータに基づいて上述の処理を実行してもよい。
【0096】
[第4実施形態]
次に、第4実施形態について説明する。本実施形態において、上述の実施形態と同様の構成については、同じ符号を付してその説明を省略あるいは簡略化する。
図14は、第4実施形態に係る検出装置1Cの一例を示す図である。本実施形態において、検出装置1Cは確度情報設定部(確度情報生成部)27を備える。確度情報設定部27は、データ取得領域AR7(
図5参照)において位置検出部3が位置情報を取得している各点のテクスチャの確度に関する確度情報を設定する。
【0097】
確度情報設定部27は、デプス情報(位置情報)を取得している各点について、例えば2値のテクスチャの確度に関する確度情報を設定する確度設定処理を実行する。確度設定処理は、例えば、2値の確度情報で表す場合、デプス情報(位置情報)を取得している各点のうちテクスチャが得られている点の確度を1とし、テクスチャが得られていない点の確度を0として、位置情報を取得している全ての点又は一部の点について、それぞれ確度情報を設定する。確度は、例えば、所定の範囲の数値(例、0以上1以下、0%以上100%以下)で表される。確度は、例えば、数値が高いほど情報の信頼度が高い(情報が確からしい)ことを表す。なお、確度の階調の数は、3以上(3値以上)であってもよい。
【0098】
確度情報設定部27は、データ欠損領域AR1においてデプス情報(位置情報)を得ている各点を、確度0の確度情報に設定する。確度情報設定部27は、データ欠損領域AR1を除いてデプス情報(位置情報)を得ている各点を、確度1の確度情報に設定する。また、確度情報設定部27は、付加部23によりデータ欠損領域AR1に対して特定のテクスチャ情報が付加される点について、確度0.5の確度情報を設定してもよい。確度情報設定部27は、生成した確度情報を記憶部24に記憶させる。
【0099】
モデル情報生成部22は、確度情報設定部27が設定した各点の確度情報に基づいて、物体(例、物体X1)の確度マップを生成してもよい。確度マップは、例えば、モデル情報生成部22が生成したモデル情報(例、形状情報、点群データ、サーフェス情報)の各点について、確度の大きさを濃淡で表した形態であってもよい。この確度マップは、モデル情報においてテクスチャの確度が小さい(又はテクスチャが不確かであること)を示す。使用者は、この確度マップによりモデル情報の一部にテクスチャの不確かな部分があることを容易に視認することができる。
【0100】
また、検出装置1Cが上記した第3実施形態で示すような複数の撮像部2A、2B、位置検出部3A、3B、及びモデル情報統合部26を備える場合(
図12参照)、確度情報設定部27が設定した確度情報を用いて、モデル情報統合部26により統合した統合形状情報にテクスチャ情報を関連付けることができる。確度情報設定部27は、位置検出部3Aの検出結果に基づく第1形状情報の各点について、撮像部2Aの撮像画像からテクスチャの確度に関する確度情報を設定する。また、確度情報設定部27は、位置検出部3Bの検出結果に基づく第2形状情報の各点について、撮像部2Bの撮像画像からテクスチャの確度に関する確度情報を設定する。
【0101】
モデル情報統合部26は、第1形状情報と第2形状情報とを統合した統合形状情報に対してテクスチャ情報を関連付ける際に、第1形状情報と第2形状情報とが重なる部分領域(同一領域)について、各点の確度が大きいテクスチャ情報を用いて(又は確度が小さいテクスチャ情報を用いずに)、部分領域のテクスチャ情報を関連付ける。例えば、部分領域に関して、確度1のテクスチャ情報と、確度0のテクスチャ情報とがある場合、モデル情報統合部26は、確度1のテクスチャ情報をこの部分領域のテクスチャ情報として関連付ける。また、例えば、確度0のテクスチャ情報が関連付けられた部分領域に関して、確度1のテクスチャ情報と、確度0のテクスチャ情報とがある場合、モデル情報統合部26は、確度1のテクスチャ情報をこの部分領域のテクスチャ情報として関連付けてテクスチャ情報を更新する。その結果、モデル情報統合部26は、部分領域について適切なテクスチャを関連付けたモデル情報を生成できる。
【0102】
[第5実施形態]
第5実施形態について説明する。本実施形態において、上述の実施形態と同様の構成については、同じ符号を付してその説明を省略あるいは簡略化する。
図15は、第5実施形態に係る検出システム51の一例を示す図である。検出システム51は、検出装置1、入力装置52、表示装置53、及び情報処理装置54を備える。撮像部2、位置検出部3、及び情報処理部4は、例えば、1つの本体部BD(例、筐体、保持部、ボディ、支持部)に設けられる。撮像部2(撮像装置)、位置検出部3(位置検出装置)、及び情報処理部4(情報処理装置)の少なくとも1つは、本体部BDに設けられなくてもよい。
【0103】
情報処理装置54は、通信部55、記憶部56、レンダリング処理部57、及び制御部58を備える。通信部55は、例えば、USBポート、ネットワークカード、電波又は赤外線の無線通信を行う通信器のうち少なくとも一つを含む。通信部55は、検出装置1と通信可能である。
【0104】
記憶部56は、例えば、USBメモリなどの取り外し可能な記憶媒体、外付け型あるいは内蔵型のハードディスクなどの大容量記憶装置を含む。記憶部56は、例えば、通信部55を介して受信した情報の少なくとも一部のデータ、検出装置1を制御する撮像制御プログラム、情報処理装置54の各処理を実行させる情報処理プログラムなどを記憶する。
【0105】
レンダリング処理部57は、例えば、グラフィックス プロセッシング ユニット(Graphics Processing Unit; GPU)を含む。なお、レンダリング処理部57は、CPU及びメモリが画像処理プログラムに従って各処理を実行する態様でもよい。レンダリング処理部57は、例えば、描画処理、テクスチャマッピング処理、シェーディング処理の少なくとも一つの処理を行う。
【0106】
レンダリング処理部57は、描画処理において、例えば、モデル情報の形状情報に定められた形状を任意の位置から見た推定画像(例、再構築画像)を算出できる。以下の説明において、形状情報が示す形状をモデル形状という。レンダリング処理部57は、例えば、描画処理によって、モデル情報(例、形状情報)からモデル形状(例、推定画像)を再構成できる。レンダリング処理部57は、例えば、算出した推定画像のデータを記憶部56に記憶させる。また、レンダリング処理部57は、テクスチャマッピング処理において、例えば、推定画像上の物体の表面に、モデル情報のテクスチャ情報が示す画像を貼り付けた推定画像を算出できる。レンダリング処理部57は、推定画像上の物体の表面に、対象物と別のテクスチャを貼り付けた推定画像を算出することができる。レンダリング処理部57は、シェーディング処理において、例えば、モデル情報の光源情報が示す光源により形成される陰影を推定画像上の物体に付加した推定画像を算出できる。また、レンダリング処理部57は、シェーディング処理において、例えば、任意の光源により形成される陰影を推定画像上の物体に付加した推定画像を算出できる。
【0107】
制御部58は、例えば、情報処理装置54の各部、検出装置1、入力装置52、及び表示装置53を制御する。制御部58は、例えば、通信部55を制御し、検出装置1に指令(制御信号)や設定情報を送信させる。制御部58は、例えば、通信部55が検出装置1から受信した情報を、記憶部56に記憶させる。制御部58は、例えば、レンダリング処理部57を制御し、レンダリング処理を実行させる。
【0108】
入力装置52は、情報処理装置54に対する各種情報(例、データ、指令)の入力に利用される。ユーザは、入力装置52を操作することによって、情報処理装置54に対して各種情報を入力可能である。入力装置52は、例えば、キーボード、マウス、トラックボール、タッチパネル、及び音声入力デバイス(例、マイク)の少なくとも一つを含む。
【0109】
表示装置53は、情報処理装置54から出力される画像のデータに基づいて、この画像を表示する。例えば、情報処理装置54は、レンダリング処理部57が生成した推定画像のデータを表示装置53に出力する。表示装置53は、情報処理装置54から出力された推定画像のデータに基づいて、推定画像を表示する。表示装置53は、例えば、液晶ディスプレイを含む。表示装置53および入力装置52は、タッチパネルなどでもよい。
【0110】
なお、検出システム51は、入力装置52を備えなくてもよい。例えば、検出システム51は、各種の指令、情報が通信部55を介して入力される形態でもよい。また、検出システム51は、表示装置53を備えなくてもよい。例えば、検出システム51は、レンダリング処理により生成された推定画像のデータを外部の表示装置へ出力し、この表示装置が推定画像を表示してもよい。情報処理部4は、情報処理装置54と同じ装置に設けられてもよい。例えば、情報処理部4と情報処理装置54とは、同じコンピュータシステムに設けられてもよい。
【0111】
また、本実施形態における情報処理装置(処理装置)は、対象領域のテクスチャ情報を第1位置から検出した検出結果、及び所定の点から対象領域までの各点のデプス情報(位置情報)を第1位置と異なる第2位置から検出した検出結果に基づいて、デプス情報(位置情報)が取得(検出)されかつテクスチャ情報が取得(検出)されていないデータ欠損領域を検出する領域検出部21と、データ欠損領域に対してテクスチャ情報を付加する付加部23と、を備える。
【0112】
上述の実施形態において、情報処理部4は、例えばコンピュータシステムを含む。情報処理部4は、記憶装置(例、記憶部24)に記憶されている情報処理プログラムを読み出し、この情報処理プログラムに従って各種の処理を実行する。この情報処理プログラムは、例えば、コンピュータに、対象領域のテクスチャ情報を第1位置から検出した検出結果、及び対象領域の各点の位置情報を第1位置と異なる第2位置から検出した検出結果に基づいて、位置情報が検出されかつテクスチャ情報が検出されないデータ欠損領域を検出することと、データ欠損領域に対してテクスチャ情報を付加することと、を実行させる。この情報処理プログラムは、コンピュータ読み取り可能な記憶媒体(例、非一時的な記録媒体、non-transitory tangible media)に記録されて提供されてもよい。
【0113】
なお、本発明の技術範囲は、上述の実施形態などで説明した態様に限定されるものではない。上述の実施形態などで説明した要件の1つ以上は、省略されることがある。また、上述の実施形態などで説明した要件は、適宜組み合わせることができる。また、上記した実施形態では、1台の検出装置1等によりモデル情報を生成しているが、例えば、異なる視点(位置)に配置された複数台の検出装置1等を用いてモデル情報を生成してもよい。この場合、各検出装置1等で生成したモデル情報を、いずれかの検出装置1等又は別の処理装置などで統合した後にデータ欠損領域AR1を検出し、このデータ欠損領域AR1に特定のテクスチャ情報を付加してもよい。また、上記した実施形態では、1台の検出装置1に撮像部2及び位置検出部3を備える構成を例に挙げて説明しているが、この構成に限定されない。例えば、検出装置1は、撮像部2を備える検出装置Aと、位置検出部3を備える検出装置Bとで構成されてもよい。検出装置A及び検出装置Bは、撮像部2又は位置検出部3がない以外は検出装置1と同様の構成を備えていてもよい。検出装置Aと検出装置Bとはデータの送受信が可能に接続されており、検出装置Aの撮像部2により取得した撮像データを検出装置Bに送信可能であり、検出装置Bの位置検出部3により取得したデプス情報を検出装置Aに送信可能である。また、検出装置Aと検出装置Bとは視点(位置)が異なり、検出装置Aの撮像部2の位置が第1位置Vp1であり、検出装置Bの位置検出部3が位置を第2位置Vp2である。検出装置Aの撮像部2により取得した撮像データ、及び検出装置Bの位置検出部3により取得したデプス情報は、検出装置A又は検出装置Bの情報処理部4に集められて処理され、上記した実施形態と同様に、データ欠損領域AR1が検出され、そのデータ欠損領域AR1に特定のテクスチャ情報を付加したモデル情報が生成される。また、法令で許容される限りにおいて、日本特許出願である特願2018-239536、及び、上述の実施形態などで引用した全ての文献の開示を援用して本文の記載の一部とする。
【符号の説明】
【0114】
1、1A、1B、1C・・・検出装置、2、2A、2B・・・撮像部(テクスチャ検出部)、3、3A、3B・・・位置検出部、4・・・情報処理部(情報処理装置)、21・・・領域検出部、22・・・モデル情報生成部、23・・・付加部、24・・・記憶部、25・・・テクスチャ推定部、26・・・モデル情報統合部、27・・・確度情報設定部、AR・・・対象領域、AR1・・・データ欠損領域