IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 株式会社JVCケンウッドの特許一覧

特開2024-99222三次元情報生成装置及び三次元情報生成方法
<>
  • 特開-三次元情報生成装置及び三次元情報生成方法 図1
  • 特開-三次元情報生成装置及び三次元情報生成方法 図2
  • 特開-三次元情報生成装置及び三次元情報生成方法 図3
  • 特開-三次元情報生成装置及び三次元情報生成方法 図4
  • 特開-三次元情報生成装置及び三次元情報生成方法 図5
  • 特開-三次元情報生成装置及び三次元情報生成方法 図6
  • 特開-三次元情報生成装置及び三次元情報生成方法 図7
  • 特開-三次元情報生成装置及び三次元情報生成方法 図8
  • 特開-三次元情報生成装置及び三次元情報生成方法 図9
  • 特開-三次元情報生成装置及び三次元情報生成方法 図10
  • 特開-三次元情報生成装置及び三次元情報生成方法 図11
  • 特開-三次元情報生成装置及び三次元情報生成方法 図12
  • 特開-三次元情報生成装置及び三次元情報生成方法 図13
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024099222
(43)【公開日】2024-07-25
(54)【発明の名称】三次元情報生成装置及び三次元情報生成方法
(51)【国際特許分類】
   G01B 11/24 20060101AFI20240718BHJP
【FI】
G01B11/24 A
【審査請求】未請求
【請求項の数】5
【出願形態】OL
(21)【出願番号】P 2023003006
(22)【出願日】2023-01-12
(71)【出願人】
【識別番号】308036402
【氏名又は名称】株式会社JVCケンウッド
(74)【代理人】
【識別番号】100149548
【弁理士】
【氏名又は名称】松沼 泰史
(74)【代理人】
【識別番号】100175824
【弁理士】
【氏名又は名称】小林 淳一
(74)【代理人】
【識別番号】100114937
【弁理士】
【氏名又は名称】松本 裕幸
(74)【代理人】
【識別番号】100162868
【弁理士】
【氏名又は名称】伊藤 英輔
(72)【発明者】
【氏名】籾山 悦郎
【テーマコード(参考)】
2F065
【Fターム(参考)】
2F065AA04
2F065AA06
2F065AA53
2F065CC16
2F065DD06
2F065FF11
2F065GG06
2F065JJ03
2F065JJ26
2F065LL20
2F065QQ41
2F065QQ42
2F065RR08
(57)【要約】
【課題】三次元の点群データ等の三次元情報を生成する際の効率の向上を図る。
【解決手段】撮像部により撮像された正面撮像画像を取得する正面撮像画像取得部と、正面撮像画像に対応する二次元座標系の各座標における被写体までの距離を示す複数の距離情報を含む距離画像を取得する距離画像取得部と、正面撮像画像に含まれる人の輪郭を抽出する輪郭抽出部と、当該輪郭に基づいて距離画像から人に対応する部分の対象距離情報を抽出する対象距離情報抽出部と、半身判定条件に基づいて対象距離情報のうち人の半身であって撮像部側の半身に対応する正面距離情報を抽出し、正面距離情報に基づいて撮像部の側とは反対側の半身に対応する背面距離情報を生成する背面距離情報生成部と、正面距離情報と背面距離情報とに基づいて人の形状を示す三次元情報を生成する三次元情報生成部と、を備える。
【選択図】図1
【特許請求の範囲】
【請求項1】
被写体である人が撮像部により撮像された正面撮像画像を取得する正面撮像画像取得部と、
前記正面撮像画像に対応する二次元座標系の各座標における前記被写体までの距離を示す複数の距離情報を含む距離画像を取得する距離画像取得部と、
前記正面撮像画像に含まれる人の輪郭を抽出する輪郭抽出部と、
前記輪郭抽出部により抽出された人の輪郭に基づいて、前記距離画像から人に対応する部分の対象距離情報を抽出する対象距離情報抽出部と、
人の半身判定条件を示す半身判定条件情報を記憶する半身判定条件情報記憶部と、
前記半身判定条件に基づいて前記対象距離情報のうち人の半身であって前記撮像部の側の半身に対応する正面距離情報を抽出し、前記正面距離情報に基づいて前記撮像部の側とは反対側の半身に対応する背面距離情報を生成する背面距離情報生成部と、
前記正面距離情報と前記背面距離情報とに基づいて、人の形状を示す三次元情報を生成する三次元情報生成部と、
を備える三次元情報生成装置。
【請求項2】
前記半身判定条件は、人の身体の半身境界面から表面までの距離の統計情報に基づく条件である、
請求項1に記載の三次元情報生成装置。
【請求項3】
前記輪郭抽出部は、前記正面撮像画像に含まれる人の身体の特定部位の輪郭を抽出し、
前記対象距離情報抽出部は、前記輪郭抽出部により抽出された人の身体の特定部位の輪郭に基づいて、前記距離画像から人の身体の特定部位に対応する部分の特定部位対象距離情報を抽出し、
前記半身判定条件情報記憶部は、人の身体の特定部位の半身判定条件を示す特定部位半身判定条件情報を記憶し、
前記背面距離情報生成部は、前記特定部位の半身判定条件に基づいて前記特定部位対象距離情報のうち人の半身であって前記撮像部の側の身体の特定部位の半身に対応する特定部位正面距離情報を抽出し、前記特定部位正面距離情報に基づいて前記撮像部の側とは反対側の身体の特定部位の半身に対応する特定部位背面距離情報を生成し、
前記三次元情報生成部は、前記特定部位正面距離情報と前記特定部位背面距離情報とに基づいて、人の身体の特定部位の形状を示す三次元情報を生成する、
請求項1に記載の三次元情報生成装置。
【請求項4】
前記三次元情報生成部は、前記正面距離情報に基づいて人の一方の半身の形状を示す三次元情報を生成し、前記背面距離情報に基づいて人のもう一方の半身の形状を示す三次元情報を生成する、
請求項1に記載の三次元情報生成装置。
【請求項5】
三次元情報生成装置が実行する三次元情報生成方法であって、
被写体である人が撮像部により撮像された正面撮像画像を取得する正面撮像画像取得ステップと、
前記正面撮像画像に対応する二次元座標系の各座標における前記被写体までの距離を示す複数の距離情報を含む距離画像を取得する距離画像取得ステップと、
前記正面撮像画像に含まれる人の輪郭を抽出する輪郭抽出ステップと、
前記輪郭抽出ステップにより抽出された人の輪郭に基づいて、前記距離画像から人に対応する部分の対象距離情報を抽出する対象距離情報抽出ステップと、
人の身体の半身判定条件に基づいて前記対象距離情報のうち人の半身であって前記撮像部の側の半身に対応する正面距離情報を抽出し、前記正面距離情報に基づいて前記撮像部の側とは反対側の半身に対応する背面距離情報を生成する背面距離情報生成ステップと、
前記正面距離情報と前記背面距離情報とに基づいて、人の形状を示す三次元情報を生成する三次元情報生成ステップと、
を含む三次元情報生成方法。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、三次元情報生成装置及び三次元情報生成方法に関する。
【背景技術】
【0002】
従来、撮像装置のレンズを取り囲む位置にVCSEL(Vertical Cavity Surface Emitting Laser、垂直共振器型面発光レーザー)等の発光素子と、ToFセンサ等の受光素子とを備え、発光素子により照射された光が対象物に反射してToFセンサにより受光されるまでの時間を測定することにより、対象物までの距離を測定する距離検出装置があった(例えば、特許文献1,2を参照)。このような距離検出装置を用いて、撮像装置により撮像された画像(例えばRGB画像)と、ToFセンサにより取得された深度情報とを組み合わせて、三次元の点群データを生成することが考えられる。
【先行技術文献】
【特許文献】
【0003】
【特許文献1】特開2014-157044号公報
【特許文献2】特開2021-26236号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
上述した従来の距離検出装置を用いて三次元の点群データを生成する場合、1台の距離検出装置では、撮像装置から被写体の正面側までの距離を示す深度情報を取得することはできるが、撮像装置とは反対側である被写体の背面側の距離を示す深度情報を取得することはできない。このため、複数台の距離検出装置を準備したり、又は1台の距離検出装置を被写体の正面側の位置と被写体の背面側の位置とに移動してそれぞれの位置で測定を実施したりする必要があった。
【0005】
本発明は、このような事情を考慮してなされたものであり、その目的は、三次元の点群データ等の三次元情報を生成する際の効率の向上を図ることができる三次元情報生成装置及び三次元情報生成方法を提供することにある。
【課題を解決するための手段】
【0006】
(1)本発明の一態様は、被写体である人が撮像部により撮像された正面撮像画像を取得する正面撮像画像取得部と、前記正面撮像画像に対応する二次元座標系の各座標における前記被写体までの距離を示す複数の距離情報を含む距離画像を取得する距離画像取得部と、前記正面撮像画像に含まれる人の輪郭を抽出する輪郭抽出部と、前記輪郭抽出部により抽出された人の輪郭に基づいて、前記距離画像から人に対応する部分の対象距離情報を抽出する対象距離情報抽出部と、人の半身判定条件を示す半身判定条件情報を記憶する半身判定条件情報記憶部と、前記半身判定条件に基づいて前記対象距離情報のうち人の半身であって前記撮像部の側の半身に対応する正面距離情報を抽出し、前記正面距離情報に基づいて前記撮像部の側とは反対側の半身に対応する背面距離情報を生成する背面距離情報生成部と、前記正面距離情報と前記背面距離情報とに基づいて、人の形状を示す三次元情報を生成する三次元情報生成部と、を備える三次元情報生成装置である。
【0007】
(2)本発明の一態様は、上記(1)の三次元情報生成装置において、前記半身判定条件は、人の身体の半身境界面から表面までの距離の統計情報に基づく条件である、三次元情報生成装置である。
【0008】
(3)本発明の一態様は、上記(1)又は(2)の三次元情報生成装置において、前記輪郭抽出部は、前記正面撮像画像に含まれる人の身体の特定部位の輪郭を抽出し、前記対象距離情報抽出部は、前記輪郭抽出部により抽出された人の身体の特定部位の輪郭に基づいて、前記距離画像から人の身体の特定部位に対応する部分の特定部位対象距離情報を抽出し、前記半身判定条件情報記憶部は、人の身体の特定部位の半身判定条件を示す特定部位半身判定条件情報を記憶し、前記背面距離情報生成部は、前記特定部位の半身判定条件に基づいて前記特定部位対象距離情報のうち人の半身であって前記撮像部の側の身体の特定部位の半身に対応する特定部位正面距離情報を抽出し、前記特定部位正面距離情報に基づいて前記撮像部の側とは反対側の身体の特定部位の半身に対応する特定部位背面距離情報を生成し、前記三次元情報生成部は、前記特定部位正面距離情報と前記特定部位背面距離情報とに基づいて、人の身体の特定部位の形状を示す三次元情報を生成する、三次元情報生成装置である。
【0009】
(4)本発明の一態様は、上記(1)から(3)のいずれかの三次元情報生成装置において、前記三次元情報生成部は、前記正面距離情報に基づいて人の一方の半身の形状を示す三次元情報を生成し、前記背面距離情報に基づいて人のもう一方の半身の形状を示す三次元情報を生成する、三次元情報生成装置である。
【0010】
(5)本発明の一態様は、上記(1)から(3)のいずれかの三次元情報生成装置において、前記三次元情報生成部は、前記正面撮像画像と前記正面距離情報とに基づいて人の一方の半身の形状を示す三次元情報を生成し、前記正面撮像画像と前記背面距離情報とに基づいて人のもう一方の半身の形状を示す三次元情報を生成する、三次元情報生成装置である。
【0011】
(6)本発明の一態様は、上記(1)から(3)のいずれかの三次元情報生成装置において、前記三次元情報生成部は、前記正面撮像画像と前記正面距離情報とに基づいて人の一方の半身の形状を示す三次元情報を生成し、所定の画像処理方法と前記背面距離情報とに基づいて人のもう一方の半身の形状を示す三次元情報を生成する、三次元情報生成装置である。
【0012】
(7)本発明の一態様は、上記(6)の三次元情報生成装置において、前記画像処理方法は、人の身体の部位毎に設定された、三次元情報生成装置である。
【0013】
(8)本発明の一態様は、上記(1)から(3)のいずれかの三次元情報生成装置において、前記被写体である人の前記撮像部とは反対側が撮像された背面撮像画像を取得する背面撮像画像取得部をさらに備え、前記三次元情報生成部は、前記正面撮像画像と前記正面距離情報とに基づいて人の一方の半身の形状を示す三次元情報を生成し、前記背面撮像画像と前記背面距離情報とに基づいて人のもう一方の半身の形状を示す三次元画像情報を生成する、三次元情報生成装置である。
【0014】
(9)本発明の一態様は、三次元情報生成装置が実行する三次元情報生成方法であって、被写体である人が撮像部により撮像された正面撮像画像を取得する正面撮像画像取得ステップと、前記正面撮像画像に対応する二次元座標系の各座標における前記被写体までの距離を示す複数の距離情報を含む距離画像を取得する距離画像取得ステップと、前記正面撮像画像に含まれる人の輪郭を抽出する輪郭抽出ステップと、前記輪郭抽出ステップにより抽出された人の輪郭に基づいて、前記距離画像から人に対応する部分の対象距離情報を抽出する対象距離情報抽出ステップと、人の身体の半身判定条件に基づいて前記対象距離情報のうち人の半身であって前記撮像部の側の半身に対応する正面距離情報を抽出し、前記正面距離情報に基づいて前記撮像部の側とは反対側の半身に対応する背面距離情報を生成する背面距離情報生成ステップと、前記正面距離情報と前記背面距離情報とに基づいて、人の形状を示す三次元情報を生成する三次元情報生成ステップと、を含む三次元情報生成方法である。
【発明の効果】
【0015】
本発明によれば、三次元の点群データ等の三次元情報を生成する際の効率の向上を図ることができるという効果が得られる。
【図面の簡単な説明】
【0016】
図1】一実施形態に係る三次元情報生成システムの概略について説明するための図である。
図2】一実施形態に係る三次元情報取得装置の断面の一例を示す模式図である。
図3】一実施形態に係る三次元情報生成装置の機能構成の一例を示す機能構成図である。
図4】一実施形態に係る三次元情報生成方法の手順の一例を示すフローチャートである。
図5】一実施形態に係る三次元情報生成処理を説明するための図である。
図6】一実施形態に係る三次元情報生成処理を説明するための図である。
図7】一実施形態に係る三次元情報生成処理を説明するための図である。
図8】一実施形態に係る三次元情報生成処理を説明するための図である。
図9】一実施形態に係る三次元情報生成処理を説明するための図である。
図10】一実施形態に係る三次元情報生成処理を説明するための図である。
図11】一実施形態に係る三次元情報生成方法の変形例を説明するための図である。
図12】一実施形態に係る三次元情報生成システムの変形例の概略について説明するための図である。
図13】一実施形態に係る三次元情報生成装置の機能構成の変形例を示す機能構成図である。
【発明を実施するための形態】
【0017】
本発明の態様に係る三次元情報生成装置及び三次元情報生成方法について、好適な実施の形態を掲げ、添付の図面を参照しながら以下、詳細に説明する。なお、以下で説明する実施形態は一例に過ぎず、本発明が適用される実施形態は、以下の実施形態に限られない。また、本願でいう「XXに基づいて」とは、「少なくともXXに基づく」ことを意味し、XXに加えて別の要素に基づく場合も含む。また、「XXに基づいて」とは、XXを直接に用いる場合に限定されず、XXに対して演算や加工が行われたものに基づく場合も含む。「XX」は、任意の要素(例えば、任意の情報)である。また、以下の図面においては、各構成をわかりやすくするために、各構造における縮尺および数等を、実際の構造における縮尺および数等と異ならせる場合がある。
【0018】
図1は、一実施形態に係る三次元情報生成システムの概略について説明するための図である。同図を参照しながら、三次元情報生成システム1の概略について説明する。三次元情報生成システム1は、三次元空間上に存在する被写体である人Uに関する三次元情報を生成する。人Uに関する三次元情報は、例えば人Uの形状を示す三次元情報である。人Uに関する三次元情報は、例えば人Uの三次元の点群データである。三次元の点群データは、三次元空間における点の座標を少なくとも含むデータである。三次元の点群データは、三次元空間における点の座標及び色の情報を含むデータであってもよい。
【0019】
被写体は1人であってもよく、複数人であってもよい。被写体が複数人(複数の人U)である場合は、三次元情報生成システム1は、各人Uを判別し、人U毎に三次元情報を生成する。
【0020】
三次元情報生成システム1は、三次元情報取得装置10から人Uまでの距離L1を計測する。三次元情報取得装置10は、二次元座標系の各座標において、人Uまでの距離L1をそれぞれ計測することにより、人Uの三次元的な形状を取得する。人Uの背後には、背景BGが存在する場合がある。背景BGとは、例えば撮影用に用いられるグリーンバック等のスクリーンであってもよいし、単なる壁や床、建造物、自然物等、その他通常の撮像時に映り込む背景等であってもよい。三次元情報生成システム1は、例えば屋内における撮影スタジオでプロのカメラマンにより使用されてもよいし、屋内外における通常の写真撮影と同様の状況において一般ユーザにより使用されてもよい。
【0021】
三次元情報生成システム1は、三次元情報取得装置10と、三次元情報生成装置20とを含んで構成される。三次元情報取得装置10と三次元情報生成装置20とは、1つのエッジデバイスとして存在していてもよいし、例えばインターネット等の通信ネットワークを介して互いに接続されていてもよい。また、三次元情報生成装置20は、例えばインターネット等の通信ネットワークを介して三次元情報取得装置10に接続されるサーバ装置(不図示)として存在していてもよい。三次元情報生成装置20がサーバ装置として存在する場合、例えばインターネット等の通信ネットワークを介して、複数の三次元情報取得装置10と一の三次元情報生成装置20とが接続されてもよい。
【0022】
三次元情報取得装置10は、受光部110と、照射部120とを備える。受光部110は、例えば、対物レンズ等の光学系レンズを含んで構成されてもよい。照射部120は、照射光を人Uに照射する。照射部120は、例えばレーザーダイオード等の光源であってもよい。より詳細には、照射部120は、基板面に対して垂直方向にレーザービームを放射可能なVCSEL(Vertical Cavity Surface Emitting Laser、垂直共振器型面発光レーザー)等であってもよい。照射部120により照射された光(第1照射光BM1)は、人Uにより反射し、人Uにより反射した光(第2照射光BM2)は、受光部110に入射する。三次元情報取得装置10は、光を照射してから受光するまでの時間(飛行時間)に応じて、三次元情報取得装置10から人Uまでの距離L1を測距する。
【0023】
受光部110は、二次元アレイ状に配置された複数の受光素子を備える。三次元情報取得装置10は、複数の受光素子それぞれにおける測距情報に応じて、人Uの三次元的な形状を測定する。なお、図示する一例では、一対の受光部110及び照射部120が示されているが、1つの受光部110に対して複数の照射部120が備えられるような構成であってもよい。この場合、複数の照射部120は、受光部110を中心として、その近傍に備えられることが好適である。
【0024】
三次元情報取得装置10は、不図示のイメージセンサを備える。イメージセンサは、二次元アレイ状に配置された複数の画素を備え、イメージセンサが備える複数の画素は、受光部110が備える光学系レンズにより結像された可視光を受光し、受光した情報に基づき、可視光画像(RGB画像)を生成する。可視光画像の方式としては、RGB方式に限らず、YCbCr方式やグレースケール(モノクロ)方式でもよい。
【0025】
三次元情報生成装置20は、三次元情報取得装置10により取得された三次元情報のうち、人Uの三次元情報を抽出する。三次元情報取得装置10により取得された三次元情報は、図示するように三次元情報生成の対象となる人U以外にも、複数の物体(不図示)や、背景BG等の三次元情報をも含んでいる。そこで、三次元情報生成装置20は、三次元情報取得装置10により取得された三次元情報のうち、三次元情報生成の対象となる人Uの三次元情報を抽出する。なお、被写体が複数人(複数の人U)である場合、三次元情報生成装置20が三次元情報生成の対象とする人Uは、三次元情報生成装置20により自動的に判定されてもよいし、ユーザ等の選択により決定されてもよい。
【0026】
図2は、本実施形態に係る三次元情報取得装置の断面の一例を示す模式図である。同図を参照しながら、三次元情報取得装置10におけるイメージセンサとToFセンサの配置の一例について説明する。三次元情報取得装置10は、可視光反射ダイクロイック膜112と、イメージセンサ113と、ToFセンサ114とを更に備える。
【0027】
照射部120から照射され、人Uに反射した光は、受光部110に入射する。同図には、入射した光の光軸が、光軸OAとして記載されている。受光部110に入射した光は、可視光反射ダイクロイック膜112に入射する。可視光反射ダイクロイック膜112よりも上流側には、不図示の光学系レンズ等が備えられていてもよい。
【0028】
可視光反射ダイクロイック膜112は、受光部110とToFセンサ114との間の光路上に設けられる。可視光反射ダイクロイック膜112は、入射する一部の光(具体的には近赤外光)を透過させ、その他の光(具体的には可視光)を反射する。可視光反射ダイクロイック膜112は、照射部120により照射された光が人Uに反射した光の一部を透過させることにより、光をToFセンサ114に導く。可視光反射ダイクロイック膜112が透過させる光を赤外光ILと記載する。また、可視光反射ダイクロイック膜112が反射する光を可視光VLとして記載する。赤外光IL及び可視光VLは、可視光反射ダイクロイック膜112よりも上流側において略同一の光軸を通る。略同一の範囲とは、例えば共通のレンズにより、光路が形成される範囲であってもよい。
【0029】
可視光反射ダイクロイック膜112により二つの光路に分光された光は、それぞれの光路に配置されたセンサにより受光される。具体的には、可視光反射ダイクロイック膜112を透過した赤外光ILはToFセンサ114により受光される。また、可視光反射ダイクロイック膜112に反射した可視光VLはイメージセンサ113により受光される。
【0030】
イメージセンサ113は、二次元配列された複数の画素を備える。イメージセンサ113は、ベイヤー配列により配置されたRGB各色の画素を備えていてもよい。当該複数の画素は、それぞれ可視光VLを受光し、可視光画像を生成するために必要な情報を取得する。
【0031】
ToFセンサ114は、二次元配列された複数の画素を備える。当該複数の画素は、それぞれ赤外光ILを受光し、距離換算に必要な情報を取得する。
【0032】
図3は、本実施形態に係る三次元情報生成装置の機能構成の一例を示す機能構成図である。同図を参照しながら、三次元情報生成装置20の機能構成の一例について説明する。三次元情報生成装置20は、正面撮像画像取得部21と、Depth画像取得部22と、輪郭抽出部23と、対象Depth値抽出部24と、半身判定条件情報記憶部25と、背面Depth値生成部26と、三次元情報生成部27と、出力部28とを含んで構成される。これらの各機能部は、例えば、電子回路を用いて実現される。
【0033】
例えば、三次元情報生成装置20がCPU(Central Processing Unit:中央演算処理装置)及びメモリ等のコンピュータハードウェアを備え、CPUがメモリに格納されたコンピュータプログラムを実行することにより、三次元情報生成装置20の各機能が実現される。また、三次元情報生成装置20は、ハードディスク装置や光磁気ディスク装置、例えばフラッシュメモリ等の不揮発性のメモリや、例えばDRAM(Dynamic Random Access Memory)等の揮発性のメモリ、あるいはこれらの組み合わせにより構成される記憶手段を備えてもよい。
【0034】
なお、三次元情報生成装置20として、汎用のコンピュータ装置を使用して構成してもよく、又は、専用のハードウェア装置として構成してもよい。例えば、三次元情報生成装置20は、例えばインターネット等の通信ネットワークに接続されるサーバコンピュータを使用して構成されてもよい。また、三次元情報生成装置20の各機能はクラウドコンピューティングにより実現されてもよい。また、三次元情報生成装置20は、単独のコンピュータにより実現するものであってもよく、又は三次元情報生成装置20の機能を複数のコンピュータに分散させて実現するものであってもよい。また、三次元情報生成装置20として、例えばWWWシステム等を利用してウェブサイトを開設するように構成してもよい。
【0035】
正面撮像画像取得部21は、三次元情報取得装置10のイメージセンサ113(撮像部)が人Uを撮像した撮像画像(例えばRGB画像等の可視光画像)である正面撮像画像を含む正面撮像画像情報Aを取得する。
【0036】
図1及び図2に示されるように、三次元情報取得装置10のイメージセンサ113により人Uが撮像される側を正面側という。一方、人Uにおいて正面側とは反対側を背面側という。人Uの正面側は三次元情報取得装置10のイメージセンサ113により撮像することができ、当該撮像された撮像画像を正面撮像画像という。一方、人Uの背面側は三次元情報取得装置10のイメージセンサ113により撮像することができない。
【0037】
正面撮像画像情報Aには、二次元座標系の各座標における輝度情報等が含まれる。当該輝度情報は、RGB各色に対応するものであってもよい。正面撮像画像取得部21は、イメージセンサ113から取得した正面撮像画像情報Aを輪郭抽出部23に出力する。
【0038】
Depth画像取得部22は、ToFセンサ114が測定したDepth値から構成されるDepth画像(距離画像)を含むDepth画像情報Cを取得する。Depth画像には、二次元座標系の各座標における複数のDepth値(距離情報)が含まれる。Depth画像に係る二次元座標系は、正面撮像画像に係る二次元座標系に対応していることが好ましい。Depth値とは、ToF方式により測距された人Uまでの距離を示す距離情報である。Depth画像取得部22は、ToFセンサ114から取得したDepth画像情報Cを対象Depth値抽出部24に出力する。
【0039】
ここで、正面撮像画像取得部21により取得される正面撮像画像と、Depth画像とは、同一の画角で、同一の人Uを撮像したものであることが好ましい。換言すれば、正面撮像画像取得部21により取得される正面撮像画像の座標と、Depth画像の座標とは対応していることが好ましい。互いの座標を対応させるため、本実施形態においては、図2を参照しながら説明したような、可視光反射ダイクロイック膜112を用いて赤外光ILと可視光VLとに分光するような構成が用いられる。
【0040】
なお、Depth画像に係る二次元座標系が正面撮像画像に係る二次元座標系に対応していない場合は、Depth画像に係る二次元座標系を正面撮像画像に係る二次元座標系に対応させるための座標変換機能をDepth画像取得部22に持たせる。これにより、対象Depth値抽出部24へ出力されるDepth画像に係る二次元座標系は、正面撮像画像に係る二次元座標系に対応したものになる。
【0041】
輪郭抽出部23は、正面撮像画像情報Aの正面撮像画像に含まれる人Uの輪郭を抽出する。輪郭抽出部23は、例えばニューラルネットワークを用いた既知の人検出ライブラリに基づいて、正面撮像画像に含まれる人Uの輪郭を抽出してもよい。輪郭抽出部23は、具体的には、Detectron2等の既知のライブラリに基づいて、人Uの輪郭を検出する。輪郭抽出部23は、抽出した人Uの輪郭を示す輪郭情報Bを対象Depth値抽出部24に出力する。
【0042】
対象Depth値抽出部24は、輪郭情報Bに示される人Uの輪郭に基づいて、Depth画像情報CのDepth画像から人Uに対応する部分のDepth値である対象Depth値(対象距離情報)を抽出する。具体的には、対象Depth値抽出部24は、Depth画像情報CのDepth画像を参照することにより、輪郭情報Bに示される人Uの輪郭により特定される人Uの形状部分のDepth値(対象Depth値)を抽出する。対象Depth値抽出部24は、抽出した対象Depth値を含む対象Depth値情報Dを背面Depth値生成部26に出力する。
【0043】
半身判定条件情報記憶部25は、人の半身判定条件を示す半身判定条件情報を記憶する。半身判定条件情報は、事前に準備されて予め半身判定条件情報記憶部25に記憶される。
【0044】
半身判定条件は、人の半身を判定するための判定条件である。人の半身とは、例えば、人の腹側の半身である。人の半身とは、例えば、人の背中側の半身である。人の半身とは、例えば、人の右手右足側の半身である。人の半身とは、例えば、人の左手左足側の半身である。
【0045】
半身判定条件は、例えば、人の身体の半身境界面から表面までの距離の統計情報に基づいて人の身体の一方の半身を判定するための判定条件である。統計情報は、例えば平均値や標準偏差などである。人の身体の半身境界面とは、例えば、人の身体の腹側の半身と背中側の半身との境の面である。人の身体の半身境界面とは、例えば、人の身体の右手右足側の半身と左手左足側の半身との境の面である。
【0046】
背面Depth値生成部26は、半身判定条件情報記憶部25の半身判定条件情報の半身判定条件に基づいて、対象Depth値情報Dの対象Depth値のうちイメージセンサ113の側(正面側)の人Uの半身に対応するDepth値である正面Depth値(正面距離情報)を抽出する。具体的には、背面Depth値生成部26は、対象Depth値情報Dの対象Depth値を参照し、半身判定条件を満たすDepth値(正面Depth値)を抽出する。
【0047】
背面Depth値生成部26は、抽出した正面Depth値に基づいて、半身境界面からイメージセンサ113の側(正面側)とは反対側(背面側)の人Uの半身に対応するDepth値である背面Depth値(背面距離情報)を生成する。具体的には、背面Depth値生成部26は、正面Depth値の各々について、半身境界面を中心にして正面Depth値とは面対称の位置を示すDepth値(背面Depth値)を生成する。背面Depth値生成部26は、半身境界面を、正面Depth値から所定の算出式により決定する。半身境界面は、例えば、正面Depth値の平均値に対応する面である。背面Depth値生成部26は、抽出した正面Depth値と、生成した背面Depth値とを含む総合Depth値情報Eを三次元情報生成部27に出力する。
【0048】
三次元情報生成部27は、総合Depth値情報Eの正面Depth値及び背面Depth値に基づいて、人Uの形状を示す三次元情報を生成する。例えば、三次元情報生成部27は、正面Depth値に基づいて人Uの一方の半身の形状を示す三次元情報を生成し、背面Depth値に基づいて人Uのもう一方の半身の形状を示す三次元情報を生成する。具体的には、三次元情報生成部27は、人Uの点群データを生成する際に、正面Depth値を人Uの一方の半身の形状を示す点群データに用い、背面Depth値を人Uのもう一方の半身の形状を示す点群データに用いる。
【0049】
例えば、三次元情報生成部27は、正面撮像画像情報Aの正面撮像画像と正面Depth値とに基づいて人Uの一方の半身の形状を示す三次元情報を生成し、当該正面撮像画像と背面Depth値とに基づいて人Uのもう一方の半身の形状を示す三次元情報を生成する。具体的には、三次元情報生成部27は、人Uの点群データを生成する際に、正面Depth値と当該正面Depth値の位置に対応する正面撮像画像の色の情報とを人Uの一方の半身の形状を示す点群データに用い、背面Depth値と当該背面Depth値の面対称の正面Depth値の位置に対応する正面撮像画像の色の情報とを人Uのもう一方の半身の形状を示す点群データに用いる。
【0050】
例えば、三次元情報生成部27は、正面撮像画像情報Aの正面撮像画像と正面Depth値とに基づいて人Uの一方の半身の形状を示す三次元情報を生成し、所定の画像処理方法と背面Depth値とに基づいて人Uのもう一方の半身の形状を示す三次元情報を生成する。具体的には、三次元情報生成部27は、人Uの点群データを生成する際に、正面Depth値と当該正面Depth値の位置に対応する正面撮像画像の色の情報とを人Uの一方の半身の形状を示す点群データに用い、背面Depth値と所定の画像処理方法により生成した色の情報とを人Uのもう一方の半身の形状を示す点群データに用いる。当該画像処理方法は、人の身体の部位毎に設定されてもよい。当該画像処理方法として、例えば、人Uの頭部の顔側とは反対側(背中側)の半身の色として適当な所定の色(例えば、髪色として適当な黒や灰色や茶色など)の情報を生成する。当該画像処理方法として、例えば、人Uの胴体部の背中側の半身の色として適当な所定の色(例えば黒や灰色など)の情報を生成する。
【0051】
三次元情報生成部27は、生成した三次元情報Fを出力部28に出力する。
【0052】
出力部28は、所定の出力方法により三次元情報Fを出力する。三次元情報Fの出力方法としては、様々な方法が挙げられる。出力方法は、例えば、通信により所定の宛先へ三次元情報Fを送信する。出力方法は、例えば、三次元情報生成装置20の内部の記憶手段や三次元情報生成装置20の外部の記憶手段に三次元情報Fを記憶させる。出力方法は、例えば、三次元情報生成装置20に接続される表示装置に三次元情報Fを表示させる。出力方法は、例えば、三次元情報生成装置20に接続される印刷装置で三次元情報Fを印刷させる。
【0053】
図4は、本実施形態に係る三次元情報生成方法の手順の一例を示すフローチャートである。図5図10は、本実施形態に係る三次元情報生成処理を説明するための図である。図4図10を参照しながら、三次元情報生成装置20の動作の一例について説明する。
【0054】
(ステップS1)正面撮像画像取得部21は、三次元情報取得装置10のイメージセンサ113(撮像部)が人Uを撮像した撮像画像(例えばRGB画像等の可視光画像)である正面撮像画像を含む正面撮像画像情報Aを取得する。図5は、正面撮像画像の一例である。
【0055】
(ステップS2)Depth画像取得部22は、ToFセンサ114が測定したDepth値から構成されるDepth画像(距離画像)を含むDepth画像情報Cを取得する。
【0056】
(ステップS3)輪郭抽出部23は、正面撮像画像情報Aの正面撮像画像に含まれる人Uの輪郭を抽出する。図6は、輪郭抽出部23が図5の正面撮像画像に対して人Uの輪郭を抽出する処理を行った結果である。図6には、図5の正面撮像画像において抽出された人Uの輪郭に囲まれた内部の画像300が示される。
【0057】
(ステップS4)対象Depth値抽出部24は、輪郭抽出部23が抽出した人Uの輪郭に基づいて、Depth画像情報CのDepth画像から人Uに対応する部分のDepth値である対象Depth値(対象距離情報)を抽出する。
【0058】
図7は、対象Depth値抽出部24が行う対象Depth値抽出処理の一例について説明するための図である。図7を参照しながら、対象Depth値抽出部24が行う対象Depth値抽出処理の一例について説明する。図7には、輪郭抽出部23により図5の正面撮像画像において抽出された人Uの輪郭に囲まれた内部を中心とする各座標を示す。図7に示す画像の範囲は、図6における少なくとも画像300を含む所定の範囲であってもよい。図7に示す一例では、輪郭抽出部23により図5の正面撮像画像において抽出された人Uの輪郭に囲まれた内部(図6の画像300に対応する部分)については網掛けをして示している。
【0059】
図7に示される各座標には、Depth値を格納する配列の各要素が対応付けられる。図7に示す一例では、要素d[0][0]から要素d[14][6]までを有する配列が示されている。各要素には当該要素が割り当てられた座標に対応するDepth値が格納される。対象Depth値抽出部24は、図7中の網掛けがされた部分に対応する要素のDepth値(対象Depth値)を抽出し、配列化を行う。図7中の網掛けがされた部分は、輪郭抽出部23により図5の正面撮像画像において抽出された人Uの輪郭に囲まれた内部(図6の画像300に対応する部分)に対応する。対象Depth値が配列化された配列情報は、対象Depth値情報Dの一例である。
【0060】
(ステップS5)背面Depth値生成部26は、半身判定条件情報記憶部25の半身判定条件情報の半身判定条件に基づいて、対象Depth値情報Dの対象Depth値のうちイメージセンサ113の側(正面側)の人Uの半身に対応するDepth値である正面Depth値(正面距離情報)を抽出する。
【0061】
図8は、背面Depth値生成部26が行う正面Depth値抽出処理の一例について説明するための図である。図8を参照しながら、背面Depth値生成部26が行う正面Depth値抽出処理の一例について説明する。図8には、正面Depth値抽出処理の説明のために、図6の画像300に対応する対象Depth値による点群データについて人Uの右手右足側から見た場合の表示例が示されている。また図8には半身境界面401が示される。半身境界面401は、人Uの身体の腹側の半身と背中側の半身との境の面である。背面Depth値生成部26は、対象Depth値情報Dの対象Depth値に基づいて、半身境界面401を算出する。半身境界面の算出方法は、予め、三次元情報生成装置20に設定される。半身境界面の算出方法の一例は、対象Depth値情報Dの対象Depth値の平均値に基づく方法である。具体的には、背面Depth値生成部26は、ToFセンサ114による測距における原点400からのToFセンサ114の面に垂直方向(図2中の光軸OAの方向)の距離402が対象Depth値情報Dの対象Depth値の平均値である面を半身境界面401として算出する。
【0062】
背面Depth値生成部26は、算出した半身境界面401に対して半身判定条件を満たす対象Depth値を正面Depth値として抽出する。半身判定条件の一例は、半身境界面からイメージセンサ113の側(正面側)に距離402と同じ方向に半身判定標準偏差403だけ離れた面404までの範囲(正面Depth値抽出範囲)である。半身判定標準偏差403は、対象Depth値の標準偏差である。背面Depth値生成部26は、対象Depth値情報Dの対象Depth値のうち正面Depth値抽出範囲内のDepth値を正面Depth値として抽出する。
【0063】
背面Depth値生成部26は、抽出した正面Depth値に基づいて、半身境界面401からイメージセンサ113の側(正面側)とは反対側(背面側)の人Uの半身に対応するDepth値である背面Depth値(背面距離情報)を生成する。
【0064】
図9図10は、背面Depth値生成部26が行う背面Depth値生成処理の一例について説明するための図である。図9図10を参照しながら、背面Depth値生成部26が行う背面Depth値生成処理の一例について説明する。図9には、背面Depth値生成処理の説明のために、上記した図8に係る抽出された正面Depth値による点群データ510について人Uの右手右足側から見た場合の表示例が示されている。また図9には半身境界面401が示される。点群データ510は、半身境界面401よりもイメージセンサ113の側(正面側)の人Uの半身に対応する。
【0065】
背面Depth値生成部26は、上記した図8に係る抽出された正面Depth値に基づいて、半身境界面401からイメージセンサ113の側(正面側)とは反対側(背面側)の人Uの半身に対応する点群データ511のDepth値(背面Depth値)を生成する。図10には、点群データ511の一例が示される。図10には、背面Depth値生成処理の説明のために、点群データ510及び点群データ511について人Uの右手右足側から見た場合の表示例が示されている。また図10には半身境界面401が示される。点群データ511は、半身境界面401からイメージセンサ113の側(正面側)とは反対側(背面側)の人Uの半身に対応する。
【0066】
点群データ511の各Depth値(背面Depth値)は、点群データ510の各Depth値(正面Depth値)について、半身境界面401を中心にして正面Depth値とは面対称の位置を示すDepth値である。背面Depth値生成部26は、点群データ510のDepth値(正面Depth値)の各々について、半身境界面401を中心にして正面Depth値とは面対称の位置を示すDepth値(背面Depth値)を生成する。生成された背面Depth値は点群データ511のDepth値となる。
【0067】
(ステップS6)三次元情報生成部27は、背面Depth値生成部26により抽出された正面Depth値及び生成された背面Depth値に基づいて、人Uの形状を示す三次元情報を生成する。図10には、三次元情報生成部27により生成される人Uの形状を示す三次元情報の一例として点群データ510,511が示される。三次元情報生成部27は、正面Depth値を人Uの一方の半身の形状を示す点群データ510に用い、背面Depth値を人Uのもう一方の半身の形状を示す点群データ511に用いる。
【0068】
また、図10の例では、三次元情報生成部27は、正面撮像画像情報Aの正面撮像画像と正面Depth値とに基づいて点群データ510を生成し、当該正面撮像画像と背面Depth値とに基づいて点群データ511を生成する。具体的には、三次元情報生成部27は、正面Depth値と当該正面Depth値の位置に対応する正面撮像画像の色の情報とを点群データ510に用い、背面Depth値と当該背面Depth値の面対称の正面Depth値の位置に対応する正面撮像画像の色の情報とを点群データ511に用いる。
【0069】
但し、図10の例では、点群データ511のうち人Uの頭部の背面側に対応する点群データ511bに対しては、正面側(顔側)の正面撮像画像の色の情報を使用せず、代わりに所定の色(例えば黒や灰色など)の情報を用いる。これは、人Uの頭部の背面側に対して正面側(顔側)の正面撮像画像の色の情報をそのまま使用すると、正面側と背面側の両方が顔になって不自然だからである。一方、図10の例では、点群データ511のうち人Uの胴体部の背面側(背中側)に対応する点群データ511aに対しては、正面側(腹側)の正面撮像画像の色の情報をそのまま使用している。なお、人Uの胴体部の背面側(背中側)に対応する点群データ511aに対しても、正面側(腹側)の正面撮像画像の色の情報を使用せず、代わりに所定の色(例えば黒や灰色など)の情報を用いてもよい。
【0070】
(ステップS7)出力部28は、三次元情報生成部27により生成された三次元情報F(例えば人Uの点群データ510,511)を所定の出力方法により出力する。
【0071】
図11は、本実施形態に係る三次元情報生成方法の変形例を説明するための図である。この変形例では、人の身体の特定部位についての三次元情報生成処理を実行する。図11を参照しながら、三次元情報生成方法の変形例について説明する。輪郭抽出部23は、正面撮像画像情報Aの正面撮像画像に含まれる人Uの身体の特定部位の輪郭を抽出する。ここでの図11の例では、人Uの身体の特定部位として人Uの頭部及び胴体部である。したがって、輪郭抽出部23は、正面撮像画像情報Aの正面撮像画像に含まれる人Uの頭部の輪郭と胴体部の輪郭とをそれぞれ抽出する。
【0072】
対象Depth値抽出部24は、輪郭抽出部23により抽出された人Uの頭部の輪郭に基づいて、Depth画像情報CのDepth画像から人Uの頭部に対応する部分のDepth値である頭部対象Depth値(特定部位対象距離情報)を抽出する。具体的には、対象Depth値抽出部24は、図7中の網掛けがされた部分のうち人Uの頭部に対応する要素のDepth値(頭部対象Depth値)を抽出し、配列化を行う。
【0073】
また対象Depth値抽出部24は、輪郭抽出部23により抽出された人Uの胴体部の輪郭に基づいて、Depth画像情報CのDepth画像から人Uの胴体部に対応する部分のDepth値である胴体部対象Depth値(特定部位対象距離情報)を抽出する。具体的には、対象Depth値抽出部24は、図7中の網掛けがされた部分のうち人Uの胴体部に対応する要素のDepth値(胴体部対象Depth値)を抽出し、配列化を行う。
【0074】
半身判定条件情報記憶部25は、人の頭部の半身判定条件を示す頭部半身判定条件情報(特定部位半身判定条件情報)を記憶する。頭部半身判定条件情報は、事前に準備されて予め半身判定条件情報記憶部25に記憶される。
【0075】
背面Depth値生成部26は、頭部の半身判定条件に基づいて、頭部対象Depth値(特定部位対象距離情報)のうちイメージセンサ113の側(正面側)の人Uの頭部の半身に対応する頭部正面Depth値(特定部位正面距離情報)を抽出する。具体的には、背面Depth値生成部26は、頭部対象Depth値に基づいて、頭部半身境界面501bを算出する。例えば、背面Depth値生成部26は、図8に示されるように、ToFセンサ114による測距における原点400からのToFセンサ114の面に垂直方向(図2中の光軸OAの方向)の距離402が頭部対象Depth値の平均値である面を頭部半身境界面501bとして算出する。背面Depth値生成部26は、算出した頭部半身境界面501bに対して頭部の半身判定条件を満たす頭部対象Depth値を頭部正面Depth値として抽出する。頭部の半身判定条件の一例は、頭部半身境界面からイメージセンサ113の側(正面側)に距離402と同じ方向に頭部半身判定標準偏差だけ離れた面までの範囲(頭部正面Depth値抽出範囲)である。頭部半身判定標準偏差は、頭部対象Depth値の標準偏差である。背面Depth値生成部26は、頭部対象Depth値のうち頭部正面Depth値抽出範囲内のDepth値を頭部正面Depth値として抽出する。
【0076】
半身判定条件情報記憶部25は、人の胴体部の半身判定条件を示す胴体部半身判定条件情報(特定部位半身判定条件情報)を記憶する。胴体部半身判定条件情報は、事前に準備されて予め半身判定条件情報記憶部25に記憶される。
【0077】
背面Depth値生成部26は、胴体部の半身判定条件に基づいて、胴体部対象Depth値(特定部位対象距離情報)のうちイメージセンサ113の側(正面側)の人Uの胴体部の半身に対応する胴体部正面Depth値(特定部位正面距離情報)を抽出する。具体的には、背面Depth値生成部26は、胴体部対象Depth値に基づいて、胴体部半身境界面501aを算出する。例えば、背面Depth値生成部26は、図8に示されるように、ToFセンサ114による測距における原点400からのToFセンサ114の面に垂直方向(図2中の光軸OAの方向)の距離402が胴体部対象Depth値の平均値である面を胴体部半身境界面501aとして算出する。背面Depth値生成部26は、算出した胴体部半身境界面501aに対して胴体部の半身判定条件を満たす胴体部対象Depth値を胴体部正面Depth値として抽出する。胴体部の半身判定条件の一例は、胴体部半身境界面からイメージセンサ113の側(正面側)に距離402と同じ方向に胴体部半身判定標準偏差だけ離れた面までの範囲(胴体部正面Depth値抽出範囲)である。胴体部半身判定標準偏差は、胴体部対象Depth値の標準偏差である。背面Depth値生成部26は、胴体部対象Depth値のうち胴体部正面Depth値抽出範囲内のDepth値を胴体部正面Depth値として抽出する。
【0078】
図11には、頭部の背面Depth値生成処理の説明のために、人Uの頭部に対応する点群データ510b,521bについて人Uの右手右足側から見た場合の表示例が示されている。点群データ510bは、イメージセンサ113の側(正面側)の人Uの頭部の半身に対応する点群データである。頭部正面Depth値は、人Uの頭部の半身に対応する点群データ510bのDepth値に対応する。点群データ521bは、頭部半身境界面501bからイメージセンサ113の側(正面側)とは反対側(背面側)の人Uの頭部の半身に対応する点群データである。
【0079】
背面Depth値生成部26は、抽出した頭部正面Depth値に基づいて、頭部半身境界面501bからイメージセンサ113の側(正面側)とは反対側(背面側)の人Uの頭部の半身に対応する点群データ521bのDepth値である頭部背面Depth値(特定部位背面距離情報)を生成する。具体的には、背面Depth値生成部26は、点群データ510bのDepth値(頭部正面Depth値)の各々について、頭部半身境界面501bを中心にして頭部正面Depth値とは面対称の位置を示すDepth値(頭部背面Depth値)を生成する。生成された頭部背面Depth値は点群データ521bのDepth値となる。
【0080】
図11には、胴体部の背面Depth値生成処理の説明のために、人Uの胴体部に対応する点群データ510a,521aについて人Uの右手右足側から見た場合の表示例が示されている。点群データ510aは、イメージセンサ113の側(正面側)の人Uの胴体部の半身に対応する点群データである。胴体部正面Depth値は、人Uの胴体部の半身に対応する点群データ510aのDepth値に対応する。点群データ521aは、胴体部半身境界面501aからイメージセンサ113の側(正面側)とは反対側(背面側)の人Uの胴体部の半身に対応する点群データである。
【0081】
背面Depth値生成部26は、抽出した胴体部正面Depth値に基づいて、胴体部半身境界面501aからイメージセンサ113の側(正面側)とは反対側(背面側)の人Uの胴体部の半身に対応する点群データ521aのDepth値である胴体部背面Depth値(特定部位背面距離情報)を生成する。具体的には、背面Depth値生成部26は、点群データ510aのDepth値(胴体部正面Depth値)の各々について、胴体部半身境界面501aを中心にして胴体部正面Depth値とは面対称の位置を示すDepth値(胴体部背面Depth値)を生成する。生成された胴体部背面Depth値は点群データ521aのDepth値となる。
【0082】
三次元情報生成部27は、背面Depth値生成部26により抽出された頭部正面Depth値及び生成された頭部背面Depth値に基づいて、人Uの頭部(特定部位)の形状を示す三次元情報を生成する。図11には、三次元情報生成部27により生成される人Uの頭部の形状を示す三次元情報の一例として点群データ510b,521bが示される。三次元情報生成部27は、頭部正面Depth値を人Uの頭部の一方の半身の形状を示す点群データ510bに用い、頭部背面Depth値を人Uの頭部のもう一方の半身の形状を示す点群データ521bに用いる。また図11の例では、三次元情報生成部27は、頭部正面Depth値と当該頭部正面Depth値の位置に対応する正面撮像画像の色の情報とを点群データ510bに用いる。一方、三次元情報生成部27は、人Uの頭部の背面側に対応する点群データ521bに対しては、正面側(顔側)の正面撮像画像の色の情報を使用せず、代わりに所定の色(例えば黒や灰色など)の情報を用いる。例えば、三次元情報生成部27は、頭部背面Depth値と黒色の情報とを点群データ521bに用いる。
【0083】
三次元情報生成部27は、背面Depth値生成部26により抽出された胴体部正面Depth値及び生成された胴体部背面Depth値に基づいて、人Uの胴体部(特定部位)の形状を示す三次元情報を生成する。図11には、三次元情報生成部27により生成される人Uの胴体部の形状を示す三次元情報の一例として点群データ510a,521aが示される。三次元情報生成部27は、胴体部正面Depth値を人Uの胴体部の一方の半身の形状を示す点群データ510aに用い、胴体部背面Depth値を人Uの胴体部のもう一方の半身の形状を示す点群データ521aに用いる。また図11の例では、三次元情報生成部27は、胴体部正面Depth値と当該胴体部正面Depth値の位置に対応する正面撮像画像の色の情報とを点群データ510aに用い、胴体部背面Depth値と当該胴体部背面Depth値の面対称の胴体部正面Depth値の位置に対応する正面撮像画像の色の情報とを点群データ521aに用いる。
以上が本実施形態に係る三次元情報生成方法の変形例の説明である。
【0084】
図12は、本実施形態に係る三次元情報生成システムの変形例の概略について説明するための図である。図12において図1の各部に対応する部分には同一の符号を付け、その説明を省略する。
【0085】
図12の三次元情報生成システム1aは、図1の三次元情報生成システム1に対してさらに撮像装置50を備える。撮像装置50は、被写体である人Uを撮像するものであって、三次元情報取得装置10のイメージセンサ113(撮像部)とは反対側(背面側)を撮像する。撮像装置50は、撮像画像として可視光画像(例えばRGB画像)を生成する。
【0086】
図13は、本実施形態に係る三次元情報生成装置の機能構成の変形例を示す機能構成図である。図13において図3の各部に対応する部分には同一の符号を付け、その説明を省略する。三次元情報生成装置20aは、図3と同様の構成であるが、さらに背面撮像画像取得部31を備える。
【0087】
背面撮像画像取得部31は、撮像装置50が人Uの背面側を撮像した撮像画像(例えばRGB画像等の可視光画像)である背面撮像画像を含む背面撮像画像情報ABを取得する。
【0088】
三次元情報生成部27は、正面撮像画像情報Aの正面撮像画像と正面Depth値とに基づいて人Uの一方の半身の形状を示す三次元情報を生成し、背面撮像画像情報ABの背面撮像画像と背面Depth値とに基づいて人Uのもう一方の半身の形状を示す三次元情報を生成する。具体的には、三次元情報生成部27は、人Uの点群データを生成する際に、正面Depth値と当該正面Depth値の位置に対応する正面撮像画像の色の情報とを人Uの一方の半身の形状を示す点群データに用い、背面Depth値と当該背面Depth値の位置に対応する背面撮像画像の色の情報とを人Uのもう一方の半身の形状を示す点群データに用いる。これにより、実際の人Uの背面により類似した点群データを生成することができる。
以上が本実施形態に係る三次元情報生成システムの変形例の説明である。
【0089】
上述したように本実施形態に係る三次元情報生成装置によれば、被写体である人が撮像部により撮像された正面撮像画像を取得し、前記正面撮像画像に対応する二次元座標系の各座標における前記被写体までの距離を示す複数の距離情報を含む距離画像を取得し、前記正面撮像画像に含まれる人の輪郭を抽出し、抽出された人の輪郭に基づいて前記距離画像から人に対応する部分の対象距離情報を抽出し、人の身体の半身判定条件に基づいて前記対象距離情報のうち人の半身であって前記撮像部の側の半身に対応する正面距離情報を抽出し、前記正面距離情報に基づいて前記撮像部の側とは反対側の半身に対応する背面距離情報を生成し、前記正面距離情報と前記背面距離情報とに基づいて人の形状を示す三次元情報を生成する。したがって、1台の三次元情報取得装置(距離検出装置に相当)のみを準備すればよく、且つ1台の三次元情報取得装置を被写体の正面側の位置と被写体の背面側の位置とに移動してそれぞれの位置で測定を実施する必要がない。これにより、三次元の点群データ等の三次元情報を生成する際の効率の向上を図ることができるという効果が得られる。
【0090】
以上、本発明の実施形態について説明したが、本発明は、上記実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲において種々の変更を加えることが可能である。また、上述した各実施形態を適宜組み合わせてもよい。
【符号の説明】
【0091】
1,1a…三次元情報生成システム、10…三次元情報取得装置、110…受光部、112…可視光反射ダイクロイック膜、113…イメージセンサ、114…ToFセンサ、120…照射部、20…三次元情報生成装置、21…正面撮像画像取得部、22…Depth画像取得部、23…輪郭抽出部、24…対象Depth値抽出部、25…半身判定条件情報記憶部、26…背面Depth値生成部、27…三次元情報生成部、28…出力部、31…背面撮像画像取得部、50…撮像装置
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13