IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ カシオ計算機株式会社の特許一覧

<>
  • 特開-検出方法、検出装置及びプログラム 図1
  • 特開-検出方法、検出装置及びプログラム 図2
  • 特開-検出方法、検出装置及びプログラム 図3
  • 特開-検出方法、検出装置及びプログラム 図4
  • 特開-検出方法、検出装置及びプログラム 図5
  • 特開-検出方法、検出装置及びプログラム 図6
  • 特開-検出方法、検出装置及びプログラム 図7
  • 特開-検出方法、検出装置及びプログラム 図8
  • 特開-検出方法、検出装置及びプログラム 図9
  • 特開-検出方法、検出装置及びプログラム 図10
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024032043
(43)【公開日】2024-03-12
(54)【発明の名称】検出方法、検出装置及びプログラム
(51)【国際特許分類】
   G06T 7/20 20170101AFI20240305BHJP
   G06F 3/01 20060101ALI20240305BHJP
【FI】
G06T7/20 300A
G06F3/01 570
【審査請求】有
【請求項の数】11
【出願形態】OL
(21)【出願番号】P 2022135472
(22)【出願日】2022-08-29
(71)【出願人】
【識別番号】000001443
【氏名又は名称】カシオ計算機株式会社
(74)【代理人】
【識別番号】110001254
【氏名又は名称】弁理士法人光陽国際特許事務所
(72)【発明者】
【氏名】井上 聖
【テーマコード(参考)】
5E555
5L096
【Fターム(参考)】
5E555AA15
5E555BA01
5E555BA29
5E555BB01
5E555BB29
5E555CA42
5E555CB23
5E555CB66
5E555CC01
5E555EA14
5E555EA22
5E555FA00
5L096AA06
5L096AA09
5L096BA08
5L096CA04
5L096DA02
5L096FA66
5L096FA69
5L096HA02
5L096HA08
(57)【要約】
【課題】より適切に検出対象を検出することができる検出方法、検出装置及びプログラムを提供する。
【解決手段】コンピュータが実行する検出方法は、部材の基準面及び対象物の奥行きに係る深度情報を取得し、深度情報に基づいて、基準面から対象物の代表点までの、基準面に対する略法線方向の距離を導出し、導出された距離が所定の距離条件を満たしている対象物を、検出対象として検出する。これにより、より適切に検出対象を検出することができる。
【選択図】図7
【特許請求の範囲】
【請求項1】
コンピュータが実行する検出方法であって、
部材の基準面及び対象物の奥行きに係る深度情報を取得し、
前記深度情報に基づいて、前記基準面から前記対象物の代表点までの、前記基準面に対する略法線方向の距離を導出し、
導出された前記距離が所定の距離条件を満たしている前記対象物を検出対象として検出する、
検出方法。
【請求項2】
前記基準面及び前記対象物を含む撮影画像を取得し、
前記撮影画像及び前記深度情報に基づいて、前記基準面から前記対象物の前記代表点までの前記距離を導出する、
請求項1に記載の検出方法。
【請求項3】
前記基準面及び前記対象物を含む撮影画像を取得し、
前記撮影画像において、少なくとも一部が前記基準面に重なる前記対象物を抽出し、
前記深度情報に基づいて、前記基準面から前記対象物の前記代表点までの前記距離を導出する、
請求項1に記載の検出方法。
【請求項4】
導出された前記距離が基準距離以上である場合に、前記距離が前記距離条件を満たすと判別する、
請求項1に記載の検出方法。
【請求項5】
前記対象物が2つ以上抽出された場合には、導出された前記距離が前記距離条件を満たしている前記対象物のうち、導出された前記距離が最も大きい前記対象物を前記検出対象として検出する、
請求項1に記載の検出方法。
【請求項6】
前記代表点は、前記撮影画像において、前記検出対象の候補のうち前記基準面に重なる部分の重心である、請求項2又は3に記載の検出方法。
【請求項7】
前記検出対象は人の手であり、
前記部材は、前記人の手により保持されている、
請求項1に記載の検出方法。
【請求項8】
前記検出対象は人の手であり、
前記撮影画像は、前記部材の前記基準面側に位置する前記人の前記手を含む撮影範囲を撮影した画像である、
請求項2又は3に記載の検出方法。
【請求項9】
前記部材の前記基準面は、画像が表示される画像表示面である、
請求項1に記載の検出方法。
【請求項10】
部材の基準面及び対象物の奥行きに係る深度情報を取得し、
前記深度情報に基づいて、前記基準面から前記対象物の代表点までの、前記基準面に対する略法線方向の距離を導出し、
導出された前記距離が所定の距離条件を満たしている前記対象物を検出対象として検出する、
処理部を備える検出装置。
【請求項11】
コンピュータに、
部材の基準面及び対象物の奥行きに係る深度情報を取得する処理、
前記深度情報に基づいて、前記基準面から前記対象物の代表点までの、前記基準面に対する略法線方向の距離を導出する処理、
導出された前記距離が所定の距離条件を満たしている前記対象物を検出対象として検出する処理、
を実行させるプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、検出方法、検出装置及びプログラムに関する。
【背景技術】
【0002】
従来、操作者のジェスチャーを検出し、検出されたジェスチャーに応じて機器の動作を制御する技術がある。この技術では、操作者を撮影して得られた撮影画像において、操作者の体のうちジェスチャーを行う特定の一部(例えば、手)を検出対象として検出する。特許文献1には、予め撮影された背景画像と、操作者を撮影した撮影画像との差分に基づいて、ジェスチャーを行う検出対象を検出する方法が開示されている。
【先行技術文献】
【特許文献】
【0003】
【特許文献1】特開2015-22624号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
しかしながら、物を保持している手や、画像表示面に画像として表示されている手などの、ジェスチャーを行っていない手が撮影画像に写っている場合には、この手が検出対象として誤検出されると、ジェスチャーの誤検出が生じて機器が意図しない動作を行ってしまうという課題がある。
【0005】
この発明の目的は、より適切に検出対象を検出することができる検出方法、検出装置及びプログラムを提供することにある。
【課題を解決するための手段】
【0006】
上記課題を解決するため、本発明に係る検出方法は、
コンピュータが実行する検出方法であって、
部材の基準面及び対象物の奥行きに係る深度情報を取得し、
前記深度情報に基づいて、前記基準面から前記対象物の代表点までの、前記基準面に対する略法線方向の距離を導出し、
導出された前記距離が所定の距離条件を満たしている前記対象物を検出対象として検出する。
【0007】
上記課題を解決するため、本発明に係る検出装置は、
部材の基準面及び対象物の奥行きに係る深度情報を取得し、
前記深度情報に基づいて、前記基準面から前記対象物の代表点までの、前記基準面に対する略法線方向の距離を導出し、
導出された前記距離が所定の距離条件を満たしている前記対象物を検出対象として検出する、
処理部を備える。
【0008】
上記課題を解決するため、本発明に係るプログラムは、
コンピュータに、
部材の基準面及び対象物の奥行きに係る深度情報を取得する処理、
前記深度情報に基づいて、前記基準面から前記対象物の代表点までの、前記基準面に対する略法線方向の距離を導出する処理、
導出された前記距離が所定の距離条件を満たしている前記対象物を検出対象として検出する処理、
を実行させる。
【発明の効果】
【0009】
本発明によれば、より適切に検出対象を検出することができる。
【図面の簡単な説明】
【0010】
図1】情報処理システムの構成を示す模式図である。
図2】検出装置の機能構成を示すブロック図である。
図3】機器制御処理の制御手順を示すフローチャートである。
図4】手検出処理の制御手順を示すフローチャートである。
図5】手検出処理の制御手順を示すフローチャートである。
図6】撮影画像の例を示す図である。
図7】画像表示面と手の代表点との距離の導出方法を説明する図である。
図8】スクリーンを保持している左手と、ジェスチャーを行っている右手とが、撮影装置から等距離にある場合を示す図である。
図9】変形例におけるスクリーンと操作者との位置関係を示す図である。
図10】変形例に係る撮影画像の例を示す図である。
【発明を実施するための形態】
【0011】
以下、本発明の実施の形態を図面に基づいて説明する。
【0012】
<情報処理システムの概要>
図1は、本実施形態の情報処理システム1の構成を示す模式図である。
情報処理システム1は、検出装置10と、撮影装置20と、プロジェクタ30とを備える。検出装置10は、無線又は有線により撮影装置20及びプロジェクタ30と通信接続されており、撮影装置20及びプロジェクタ30との間で、制御信号や画像データ等のデータの送受信を行うことが可能となっている。
【0013】
情報処理システム1の検出装置10は、操作者80(被写体、人)が手81(対象物、検出対象)によって行うジェスチャーを検出し、検出したジェスチャーに応じてプロジェクタ30の動作(投影画像Imの投影動作や、各種設定を変更する動作等)を制御する情報処理装置である。本明細書では、操作者80の右手81R及び左手81Lのうち任意の一方を指す場合には「手81」と記す。
【0014】
詳しくは、撮影装置20は、撮影装置20の正面に位置する操作者80及び操作者80の手81を撮影して、撮影画像50(図6参照)の画像データを検出装置10に送信する。検出装置10は、撮影装置20から受信した撮影画像50を解析して、操作者80の手81及び指を検出し、操作者80が手81によって所定のジェスチャーを行ったか否かを判別する。本実施形態において、操作者80が手81によって行うジェスチャーは、手81の指の向き又は動きによって行うジェスチャーであるものとする。検出装置10は、操作者80が、手81によって所定のジェスチャーを行ったと判別すると、制御信号をプロジェクタ30に送信し、検出したジェスチャーに応じた動作を行うようにプロジェクタ30を制御する。これにより、例えば、操作者80が、撮影装置20から見て右方向に一本の指(例えば、人差し指)を向けるジェスチャーを行うことで、プロジェクタ30が投影している投影画像Imを次の投影画像Imに切り替え、一本の指を左方向に向けるジェスチャーを行うことで、投影画像Imを1つ前の投影画像Imに切り替える、といった直感的な操作が可能となる。
【0015】
以下では、操作者80が立っている床面に垂直、かつ鉛直方向上向きの方向をZ方向とし、床面に平行、かつ、Z方向から見てプロジェクタ30による投影方向に平行な方向をY方向とし、Y方向及びZ方向に垂直な方向をX方向とする。Y方向は、プロジェクタ30から操作者80に向かう向きを正方向とし、X方向は、プロジェクタ30から操作者80に向かって右方向を正方向とする。
【0016】
本実施形態では、操作者80が手81でスクリーン40(部材)を保持しており、このスクリーン40の画像表示面41(基準面)に対してプロジェクタ30により投影画像Imが投影(表示)されるものとする。詳しくは、操作者80は、左手81Lでスクリーン40を保持し、右手81Rをスクリーン40の前方(-Y方向側)にかざして右手81Rによりジェスチャーを行うことで、プロジェクタ30を操作する。スクリーン40は、板状の部材であり、画像表示面41は、スクリーン40の表裏面のうち撮影装置20に向いている側の面である。
【0017】
<情報処理システムの構成>
図2は、検出装置10の機能構成を示すブロック図である。
検出装置10は、CPU11(Central Processing Unit)と、RAM12(Random Access Memory)と、記憶部13と、操作部14と、表示部15と、通信部16と、バス17などを備える。検出装置10の各部は、バス17を介して接続されている。検出装置10は、本実施形態ではノートPCであるが、これに限られず、例えば据置型のPC、スマートフォン、又はタブレット型端末などであってもよい。
【0018】
CPU11は、記憶部13に記憶されているプログラム131を読み出して実行し、各種演算処理を行うことで、検出装置10の動作を制御するプロセッサである。CPU11は、「処理部」に相当する。なお、検出装置10は、複数のプロセッサ(複数のCPU等)を有していてもよく、本実施形態のCPU11が実行する複数の処理を、当該複数のプロセッサが実行してもよい。この場合には、複数のプロセッサが「処理部」に相当する。また、この場合において、複数のプロセッサが共通の処理に関与してもよいし、あるいは、複数のプロセッサが独立に異なる処理を並列に実行してもよい。
【0019】
RAM12は、CPU11に作業用のメモリ空間を提供し、一時データを記憶する。
【0020】
記憶部13は、コンピュータとしてのCPU11により読み取り可能な非一時的な記録媒体であり、プログラム131及び各種データを記憶する。記憶部13は、例えばHDD(Hard Disk Drive)、SSD(Solid State Drive)等の不揮発性メモリを含む。プログラム131は、コンピュータが読み取り可能なプログラムコードの形態で記憶部13に格納されている。記憶部13に記憶されるデータとしては、撮影装置20から受信したカラー画像及び深度画像に係る撮影画像データ132などがある。
【0021】
操作部14は、表示部15の表示画面に重ねられて設けられたタッチパネル、物理ボタン、マウスなどのポインティングデバイス、及びキーボードなどの入力装置のうち少なくとも1つを有し、入力装置に対する入力操作に応じた操作情報をCPU11に出力する。
【0022】
表示部15は、液晶ディスプレイなどの表示装置を備え、CPU11からの表示制御信号に従って表示装置において各種表示を行う。
【0023】
通信部16は、ネットワークカード又は通信モジュール等により構成され、撮影装置20及びプロジェクタ30との間で所定の通信規格に従ってデータの送受信を行う。
【0024】
図1に示す撮影装置20は、カラーカメラ21及び深度カメラ22を備える。
カラーカメラ21は、スクリーン40の画像表示面41、操作者80、及びこれらの背景を含む撮影範囲Rを撮影して、撮影範囲Rの二次元のカラー画像に係るカラー画像データを生成する。カラー画像データの各画素は、R(赤)、G(緑)、及びB(青)等の色情報を含む。
深度カメラ22は、スクリーン40の画像表示面41、操作者80、及びこれらの背景を含む撮影範囲Rを撮影して、撮影範囲Rの深度情報を含む深度画像に係る深度画像データを生成する。深度画像は、各画素が、画像表示面41、操作者80、及びこれらの背景の構造物(以下、「測距対象物」と記す)の奥行き(深度カメラ22から測距対象物までの距離)に係る深度情報を含む。深度カメラ22としては、例えば、TOF(Time Of Flight)方式で距離を検出するもの、又はステレオ方式で距離を検出するものなどを用いることができる。
カラーカメラ21により生成されたカラー画像データ、及び深度カメラにより生成された深度画像データは、撮影画像データ132(図2参照)として検出装置10の記憶部13に記録される。
本実施形態では、上記のカラー画像及び深度画像が、「撮影範囲を撮影して得られた撮影画像」に相当する。
【0025】
撮影装置20のカラーカメラ21及び深度カメラ22は、撮影装置20の正面に位置する操作者80及びスクリーン40を所定のフレームレートで連続して撮影する。図1に示す撮影装置20では、カラーカメラ21及び深度カメラ22が別個に設けられているが、各カメラが操作者80を撮影可能であれば、この構成に限定されない。例えば、カラーカメラ21及び深度カメラ22が一体となっている構成であってもよい。
また、カラーカメラ21及び深度カメラ22は、撮影範囲Rを少なくとも含む範囲を撮影可能であればよく、カラーカメラ21により撮影される画角と、深度カメラ22により撮影される画角とが異なっていてもよい。また、カラーカメラ21により撮影される画角と、深度カメラ22により撮影される画角とが重複する撮影範囲Rにおいては、カラー画像の画素と、深度画像の画素との対応付けがなされている。これにより、カラー画像における任意の画素を指定した場合に、深度画像において当該画素に対応する画素を特定することができる。よって、カラー画像における任意の画素について、深度情報を取得することができる。
【0026】
図1に示すプロジェクタ30は、投影画像Imの画像データに応じた強度分布の投影光を高指向性で照射することにより、スクリーン40の画像表示面41(投影面)に投影画像Imを投影する。詳しくは、プロジェクタ30は、光源と、当該光源から出力された光の強度分布を調整して光像を形成するデジタルマイクロミラー素子(DMD)等の表示素子と、表示素子が形成した光像を集光して投影画像Imとして投影する投影レンズ群などを備える。プロジェクタ30は、検出装置10から送信される制御信号に従って、投影する投影画像Imを変更したり、投影態様に係る設定(明るさ、色合い等)を変更したりする。
【0027】
<情報処理システムの動作>
次に、情報処理システム1の動作について説明する。
検出装置10のCPU11は、撮影装置20が撮影した1又は2以上のカラー画像及び深度画像を解析して、画像に写っている操作者80が、手81によって所定のジェスチャーを行ったか否かを判別する。CPU11は、手81によってジェスチャーが行われたと判別すると、検出したジェスチャーに応じた動作をプロジェクタ30に行わせるための制御信号をプロジェクタ30に送信する。
【0028】
ここで、手81によるジェスチャーは、例えば、撮影装置20から見て指を或る方向(右方向、左方向、下方向、及び上方向等)に動かしたり、所定の形状(円形等)の軌跡を描くように指の先端を動かしたり、2以上の指の先端同士の距離を変動させたり、指の曲げ伸ばしを行ったりする動作などである。これらの各ジェスチャーには、プロジェクタ30の1つの動作が予め対応付けられている。例えば、指を右方向に向けるジェスチャーに、投影されている投影画像Imを次の投影画像Imに切り替える動作を対応付け、指を左方向に向けるジェスチャーに、投影されている投影画像Imを1つ前の投影画像Imに切り替える動作を対応付けてもよい。この場合には、指を右方向/左方向に向けるジェスチャーを行うことで、投影画像を次の画像/前の画像に切り替えることができる。また、親指の先端と人差し指の先端との距離を増大/減少させるジェスチャーに、それぞれ投影画像Imを拡大/縮小させる動作を対応付けてもよい。これらはジェスチャーとプロジェクタ30の動作との対応付けの一例であり、任意のジェスチャーに、プロジェクタ30の任意の動作を対応付けることができる。また、操作部14に対するユーザ操作に応じて、ジェスチャーとプロジェクタ30の動作との対応付けを変更したり、新たな対応付けを生成したりすることが可能であってもよい。
【0029】
このように、操作者80の手81のジェスチャーによりプロジェクタ30を操作する場合には、撮影装置20が撮影した画像において手81(及び指)を正確に検出することが重要となる。手81を正しく検出できなければ、ジェスチャーを正しく認識することができず、操作性が激しく低下するためである。
【0030】
しかしながら、図1に示すように、操作者80が手81でスクリーン40を保持した状態でプロジェクタ30が使用される場合には、スクリーン40を保持している方の手(図1では、左手81L)が、ジェスチャーを行う手81として誤検出されてしまう場合がある。この場合、ジェスチャーの誤検出が生じて、プロジェクタ30が意図しない動作を行ってしまう。
【0031】
そこで、本実施形態では、深度カメラ22による深度情報を利用することで、スクリーン40を保持している手81などの、ジェスチャーを行っていない手81を検出対象から除外し、スクリーン40の前方(撮影装置20側、-Y方向側)にかざされた手81などの、ジェスチャーを行っている手81を適切に検出対象として検出する。
【0032】
以下、図3図8を参照して、検出装置10のCPU11が、操作者80の手81を検出する動作、及び、手81によるジェスチャーを検出してプロジェクタ30の動作を制御する動作について説明する。CPU11は、上記動作を実現するために、図3に示す機器制御処理、及び図4図5に示す手検出処理を実行する。
【0033】
図3は、機器制御処理の制御手順を示すフローチャートである。
機器制御処理は、例えば、検出装置10、撮影装置20及びプロジェクタ30の電源が投入され、プロジェクタ30を操作するためのジェスチャーの受け付けが開始された場合に実行される。
【0034】
機器制御処理が開始されると、CPU11は、撮影装置20に制御信号を送信して、カラーカメラ21及び深度カメラ22による撮影を開始させる(ステップS101)。撮影が開始されると、CPU11は、手検出処理を実行する(ステップS102)。
【0035】
図4及び図5は、手検出処理の制御手順を示すフローチャートである。
手検出処理が呼び出されると、CPU11は、操作者80及び手81を撮影した撮影画像50(撮影画像データ132)を取得する(ステップS201)。また、CPU11は、取得した撮影画像50において、手81に対応する手領域の候補(以下では、単に「手81の候補」と記す)を抽出する(ステップS202)。撮影画像50において手81の候補を抽出する処理は、撮影画像50において対象物を抽出する処理に相当する。
【0036】
図6は、撮影画像50の例を示す図である。
撮影画像50は、撮影装置20が、図2に示す撮影範囲Rを撮影して得られたものであり、カラー画像及び深度画像を含む。図6では、このうちのカラー画像が示されている。また、上述のとおり、カラー画像の各画素に、深度画像において対応する画素の深度情報が紐付けられている。図6に示すx軸及びy軸は、撮影画像50内の画素の位置を表す直交座標系の座標軸である。図3に示す撮影画像50においては、スクリーン40を左手81Lで保持する操作者80が写っている。また、操作者80は、右手81Rをスクリーン40の前方、かつスクリーン40から離れた位置にかざしており、撮影装置20から見て右方向に人差し指を向けるジェスチャーを行っている。ステップS202では、図3に示す撮影画像50から、手81の候補として右手81R及び左手81Lが抽出される。
【0037】
ステップS202において撮影画像50から手81の候補を抽出する方法は、特には限られないが、例えば以下のような方法を用いることができる。まず、カラー画像の色情報に基づいて、色に係る閾値処理を行うことで、カラー画像のうち肌の色(手81の色)に相当する領域を抽出する。次に、抽出された各領域について、指に相当する突出部が含まれるか否かを判別する。抽出された各領域のうち、指に相当する突出部が含まれると判別された領域を、手81に対応する手領域の候補として抽出する。
なお、この方法は一例であり、カラー画像及び深度画像の少なくとも一方を用いる任意の方法で手81の候補を抽出することができる。例えば、スクリーン40のY方向の位置が決まっている場合など、操作者80の手81が位置するY方向の範囲(深度範囲)が予め決まっている場合には、カラー画像に対する上記の閾値処理により抽出された各領域について、深度に係る閾値処理を行うことで、手81が位置する上記の深度範囲に属する領域を抽出してもよい。
【0038】
なお、CPU11は、抽出した手81に相当する手領域を表すマスク画像を生成し、そのマスク画像データを以降の処理に用いてもよい。マスク画像データは、例えば、手領域に対応する画素の画素値を「1」とし、手領域以外の領域に対応する画素の画素値を「0」とした画像である。
【0039】
CPU11は、ステップS202において手81の候補が抽出されたか否かを判別する(ステップS203)。手81の候補が抽出されたと判別された場合には(ステップS203で“YES”)、CPU11は、撮影画像50において、スクリーン40の画像表示面41を検出(特定)する(ステップS204)。画像表示面41の検出方法は、特には限られないが、例えば、深度画像において深度が連続している平面状の矩形領域を画像表示面41として抽出する方法や、カラー画像において画像表示面41(スクリーン40)の矩形の輪郭線を検出する方法などを用いることができる。あるいは、画像表示面41(スクリーン40)の四隅に予め所定の標識を設けておき、撮影画像50において標識を検出することで画像表示面41を検出してもよい。また、投影画像Imに所定の標識を含ませておき、撮影画像50において標識を検出することで画像表示面41を検出してもよい。
【0040】
CPU11は、画像表示面41が検出されたか否かを判別し(ステップS205)、画像表示面41が検出されたと判別された場合には(ステップS205で“YES”)、撮影画像50において、少なくとも一部が画像表示面41に重なる手81の候補があるか否かを判別する(ステップS206)。ここでは、CPU11は、撮影画像50内のxy座標平面において、画像表示面41の矩形の範囲内に、手81(手領域)の候補に属する画素の少なくとも一部が入っているか否かを判別する。図6に示すように画像表示面41の一部が手81などにより隠れている場合には、画像表示面41の矩形の輪郭線を補完した上で判別を行う。また、CPU11は、或る手81の一部のみが画像表示面41に重なっている場合には、当該或る手81については画像表示面41に重なっていると判別する。図3に示す例では、右手81R及び左手81Lは、その一部が画像表示面41と重なっているため、画像表示面41に重なっている手81の候補と判別される。
【0041】
少なくとも一部が画像表示面41に重なる手81の候補があると判別された場合には(ステップS206で“YES”)、CPU11は、空間における画像表示面41の位置を導出する(ステップS207)。ここでは、まず、CPU11は、画像表示面41の4つの頂点のうち少なくとも3つの頂点について、XYZ座標空間における座標を特定する。詳しくは、深度画像のうち抽出した画像表示面41に相当する部分の深度情報に基づいて、撮影装置20から画像表示面41の各頂点までの距離を特定し、特定した距離と、カラー画像又は深度画像における画像表示面41の頂点の位置(xy座標平面における位置)と、に基づいて、XYZ座標空間における各頂点の座標を導出する。そして、CPU11は、少なくとも3つの頂点の座標に基づいて、XYZ座標空間における画像表示面41の位置を表す平面方程式を導出する。平面方程式は、例えば「aX+bY+cZ+d=0」の形式により表される。
【0042】
次に、CPU11は、画像表示面41から、画像表示面41に重なる手81の候補の代表点までの距離を導出する(ステップS208)。
【0043】
図7は、画像表示面41と手81の代表点との距離の導出方法を説明する図である。
図7は、図1に示す操作者80及びスクリーン40を+Z方向から見た図に相当する。図7では、スクリーン40の画像表示面41は、Z方向に平行となっている。ただし、画像表示面41がZ方向と平行でない場合であっても、以下の方法で距離dを導出することができる。
【0044】
画像表示面41と手81の代表点との距離を導出する場合には、まず、XYZ座標空間における手81の代表点の座標を導出する。本実施形態では、手81の代表点は、図6に示す撮影画像50において、手81のうち画像表示面41と重なっている部分の重心(右手81Rについては重心GR、左手81Lについては重心GL。以下、任意の手81の重心を表す場合には「重心G」と記す)である。また、手81の重心Gは、XYZ座標空間では、図7に示すように、手81のうち撮影装置20に向いている面上の点である。CPU11は、撮影画像50における重心Gに相当する画素の深度情報に基づいて、撮影装置20から重心Gまでの距離を特定し、特定した距離と、カラー画像又は深度画像における重心Gの位置と、に基づいて、XYZ座標空間における重心Gの座標を導出する。重心Gの座標が導出されると、CPU11は、画像表示面41の平面方程式を用いて、画像表示面41から手81の重心Gまでの、画像表示面41の法線方向についての距離dを導出する。
なお、法線方向は、画像表示面41の完全な法線方向に限られず、略法線方向(法線方向から若干傾斜した方向、例えば、法線方向からのずれ角が±10度以下である方向)であってもよい。言い換えると、画像表示面41の略法線方向についての距離dを導出してもよい。
また、手81の代表点は、手81の重心Gに限られない。例えば、図6に示す手81(手領域)のうち画像表示面41と重なっている部分に属する画素の平均の深度を導出し、当該平均の深度に最も近い深度の画素を代表点としてもよい。
【0045】
図4に戻り、ステップS208が終了すると、CPU11は、画像表示面41に重なる全ての手81の候補について距離dを導出したか否かを判別する(ステップS209)。画像表示面41に重なるいずれかの手81の候補について距離dを導出していないと判別された場合には(ステップS209で“NO”)、CPU11は、次の手81の候補を選択して(ステップS210)、当該手81の候補について距離dを導出する(ステップS208)。
【0046】
画像表示面41に重なる全ての手81の候補について距離dを導出したと判別された場合には(ステップS209で“YES”)、CPU11は、導出した距離dが所定の距離条件を満たしている手81の候補があるか否かを判別する(図5のステップS211)。本実施形態では、導出した距離dが基準距離ds以上である場合に、距離dが距離条件を満たしていると判別される。ここで、基準距離dsは、図7に示すように、スクリーン40を保持している手81(図7では、左手81L)の重心Gと画像表示面41との距離dよりも大きい値となるように予め定められて記憶部13に記憶されている。スクリーン40を保持している手81の距離dは、指の厚さ程度であるため、基準距離dsは、人の手の指の厚さ(人の指の平均的な厚さ。例えば、2.5cm程度)よりも大きい値とされる。スクリーン40を保持している手81が確実に検出対象から除外されるように、基準距離dsは、人の手の指の厚さに対して所定のマージンを加算した値としてもよい。
図7に示す例では、画像表示面41から右手81Rの重心GRまでの距離dは、基準距離ds以上であると判別される。一方、画像表示面41から左手81Lの重心GLまでの距離dは、基準距離ds未満であると判別される。
【0047】
導出した距離dが所定の基準距離ds以上である手81の候補があると判別された場合には(ステップS211で“YES”)、CPU11は、画像表示面41に重なる手81の候補のうち、導出した距離dが最も大きい1つを除いた手81の候補を、候補から除外する(ステップS212)。これにより、画像表示面41に重なり、かつ画像表示面41からの距離dが基準距離ds未満である手81の候補(スクリーン40を保持している手81)を、候補から除外することができる。また、導出した距離dが基準距離ds以上である手81が2つ以上ある場合に、当該2つ以上の手81のうちジェスチャーの判別に用いる手81を1つに絞ることができる。図7に示す例では、2つの手81の候補(右手81R及び左手81L)のうち、距離dが最も大きいのは右手81Rであるので、右手81R以外の手81、すなわち左手81Lは、候補から除外される。
【0048】
画像表示面41の法線方向の距離dに基づいて、画像表示面41からの距離dが基準距離ds以上であるか否かの判別を行うことで、撮影装置20と手81との位置関係によらずに適切に手81の候補を絞ることができる。例えば、図8に示すように、スクリーン40を保持している左手81Lの重心GLと、ジェスチャーを行っている右手81Rの重心GRとが、撮影装置20から等距離にあるような場合であっても、左手81Lを候補から除外し、右手81Rを候補に残すことができる。
【0049】
ステップS212が終了すると、CPU11は、その時点における手81の候補のうち、撮影画像50における面積が最大である手81の候補を、ジェスチャー判別用の手81(検出対象)として検出する(ステップS215)。ステップS215における面積の判別対象には、画像表示面41と重ならない手81の候補も含める。
【0050】
一方、ステップS211において、導出した距離dが所定の基準距離ds以上である手81の候補がないと判別された場合には(ステップS211で“NO”)、CPU11は、画像表示面41に重なる全ての手81の候補を、候補から除外する(ステップS213)。また、CPU11は、画像表示面41に重ならない手81の候補があるか否かを判別し(ステップS214)、画像表示面41に重ならない手81の候補があると判別された場合には(ステップS214で“YES”)、上述のステップS215の処理を実行する。
【0051】
また、ステップS205において、画像表示面41が検出されなかったと判別された場合(ステップS205で“NO”)、及び、ステップS206において、少なくとも一部が画像表示面41に重なる手81の候補がないと判別された場合(ステップS206で“NO”)にも、CPU11は、ステップS215の処理を実行する。
【0052】
ステップS215が終了した場合、ステップS214において、画像表示面41に重ならない手81の候補がないと判別された場合(ステップS214で“NO”)、及び、ステップS203において、手81の候補が抽出されなかったと判別された場合には(ステップS203で“NO”)、CPU11は、手検出処理を終了させて、処理を図3の機器制御処理に戻す。
【0053】
なお、ステップS212において、画像表示面41に重なる手81の候補のうち、導出した距離dが基準距離ds以上である全ての手81を候補として残し(距離dが基準距離ds未満である手81のみを候補から除外し)、ステップS215において、残した手81の候補の中から面積が最大であるものをジェスチャー判別用の手81として検出してもよい。
また、ステップS215において、面積が最大であるものをジェスチャー判別用の手81として検出したが、これ以外の方法で1つのジェスチャー判別用の手81を決定してもよい。例えば、手81の指の形状などに基づいて、手81である可能性の高さの指標値を導出し、最も指標値が大きい手81を、ジェスチャー判別用の手81として検出してもよい。
【0054】
図3の手検出処理(ステップS102)が終了すると、CPU11は、手検出処理において、ジェスチャー判別用の手81が検出されたか否かを判別する(ステップS103)。手81が検出されたと判別された場合には(ステップS103で“YES”)、CPU11は、手81における指の向き、又は、複数フレームの撮影画像50にわたる指の先端の位置の動きから、操作者80の手81によるジェスチャーを検出したか否かを判別する(ステップS104)。ジェスチャーを検出したと判別された場合には(ステップS104で“YES”)、CPU11は、検出したジェスチャーに応じた動作を行わせるための制御信号を、プロジェクタ30に送信する(ステップS105)。当該制御信号を受信したプロジェクタ30は、制御信号に応じた動作を行う。
【0055】
ステップS105が終了した場合、ステップS103において手81が検出されていないと判別された場合(ステップS103で“NO”)、又は、ステップS104においてジェスチャーが検出されないと判別された場合には(ステップS104で“NO”)、CPU11は、情報処理システム1におけるジェスチャーの受け付けを終了するか否かを判別する(ステップS106)。ここでは、CPU11は、例えば、検出装置10、撮影装置20又はプロジェクタ30の電源をオフする操作がなされている場合に、ジェスチャーの受け付けを終了すると判別する。
【0056】
ジェスチャーの受け付けを終了しないと判別された場合には(ステップS106で“NO”)、CPU11は、処理をステップS102に戻し、次のフレーム期間に撮影された撮影画像に基づいて手81を検出するための手検出処理を実行する。ステップS102~S106のループ処理は、例えば、カラーカメラ21及び深度カメラ22による撮影のフレームレートで(すなわち、カラー画像及び深度画像が生成されるたびに)繰り返し実行される。
ジェスチャーの受け付けを終了すると判別された場合には(ステップS106で“YES”)、CPU11は、機器制御処理を終了させる。
【0057】
<変形例>
続いて、上記実施形態の変形例について説明する。以下では、上記実施形態との相違点について説明し、上記実施形態と共通する構成については、共通の符号を付して説明を省略する。
【0058】
図9は、変形例におけるスクリーン40と操作者80との位置関係を示す図である。
本変形例では、スクリーン40が壁に掛けられており、操作者80は、スクリーン40に対向する位置(スクリーン40の-Y方向側の位置)に立って、スクリーン40に投影されている投影画像Imを見ている。また、操作者80は、右手81Rで、プロジェクタ30を操作するためのジェスチャーを行っている。撮影装置20による撮影範囲Rは、操作者80のうちの少なくとも上半身と、スクリーン40とを含む。
【0059】
図10は、変形例に係る撮影画像50の例を示す図である。
撮影画像50は、撮影装置20が、図9における撮影範囲Rを撮影して得られたものである。図10に示す撮影画像50においては、スクリーン40と、スクリーン40の画像表示面41側に位置する操作者80とが写っている。また、撮影画像50において、操作者80の右手81Rが画像表示面41と重なっている。また、画像表示面41に投影されている投影画像Imには、人物及び当該人物の手81Iの画像が含まれているものとする。
【0060】
このような撮影画像50についての手検出処理(図4)では、ステップS202において、手81の候補として、操作者80の右手81Rと、投影画像Im内の人物の手81Iとが抽出される。また、ステップS206において、これらの右手81R及び手81Iが、画像表示面41に重なる手81の候補として判別される。そして、ステップS208において、画像表示面41から右手81Rの重心GRまでの距離d、及び、画像表示面41から手81Iの重心GIまでの距離dが導出され、ステップS211において、導出された距離dが基準距離ds以上であるか否かが判別される。
【0061】
操作者80の右手81Rは、画像表示面41から基準距離ds以上離れているため、当該右手81Rの距離dは、基準距離ds以上であると判別され、右手81Rは、ジェスチャー判別用の手81の候補として残される。このように、操作者80がスクリーン40の画像表示面41側に位置している場合にも、操作者80の手81を、ジェスチャー判別用の手81の候補として検出することができる。
【0062】
一方、投影画像Imに含まれる人物の手81Iは、XYZ座標空間における重心GIの位置が画像表示面41上にあるため、導出される距離dは0となり、基準距離ds未満であると判別される。よって、投影画像Imに含まれる人物の手81Iは、ジェスチャー判別用の手81の候補から除外される。このように、手81Iを含む投影画像Imが画像表示面41に投影されている場合において、当該手81Iを候補から適切に除外することができる。
【0063】
また、スクリーン40と操作者80との位置関係は、図9に示したものに限られない。例えば、卓上に略水平に載置された(又は、略水平となるように操作者80により保持された)スクリーン40に対して、鉛直方向上方に設けられたプロジェクタ30から鉛直方向下方に向けて投影画像Imを投影する態様において、スクリーン40とプロジェクタ30との間に手81をかざしてジェスチャーを行ってもよい。この場合には、スクリーン40の鉛直方向上方に撮影装置20を設けて、スクリーン40及び操作者80の手81を撮影すればよい。
【0064】
<効果>
以上のように、本実施形態に係る検出方法は、コンピュータとしてのCPU11が実行する検出方法であって、スクリーン40の画像表示面41(基準面)及び手81(対象物)の奥行きに係る深度情報を取得し、深度情報に基づいて、画像表示面41から手81の重心G(代表点)までの、画像表示面41に対する略法線方向の距離dを導出し、導出された距離dが所定の距離条件を満たしている手81を、検出対象として検出する。これにより、ジェスチャーを行っていない手81(スクリーン40を保持している手81や、スクリーン40の画像表示面41に画像として表示されている手81I等)を検出対象から除外し、ジェスチャーを行っている操作者80の手81を検出対象として適切に検出することができる。また、画像表示面41の略法線方向の距離dに基づいて判別を行うことで、撮影装置20と手81との位置関係によらずに適切に手81の候補を絞ることができる。また、パターンマッチングや機械学習といった高度の情報処理を必要としないため、簡素な構成の検出装置10のコンピュータにより上記方法を実行することができる。
【0065】
また、画像表示面41及び手81を含む撮影画像50を取得し、撮影画像50及び深度情報に基づいて、画像表示面41から手81の重心Gまでの距離dを導出する。これにより、撮影画像50から簡易かつ適切に検出対象の候補となる手81を抽出することができる。
【0066】
また、画像表示面41及び手81を含む撮影画像50を取得し、撮影画像50において、少なくとも一部が画像表示面41に重なる手81を抽出し、深度情報に基づいて、画像表示面41から手81の重心Gまでの距離dを導出する。これにより、ジェスチャーを行っていない手81が、撮影画像50のうち画像表示面41に重なる領域に写っている場合であっても、これらの手81を検出対象から除外し、ジェスチャーを行っている操作者80の手81を検出対象として適切に検出することができる。
【0067】
また、導出された距離dが基準距離ds以上である場合に、距離dが距離条件を満たすと判別することで、簡易かつ適切に、ジェスチャーを行っていない手81を検出対象から除外することができる。
【0068】
また、手81が2つ以上抽出された場合には、導出された距離dが距離条件を満たしている手81のうち、導出された距離dが最も大きい手81を検出対象として検出する。これにより、ジェスチャーの判別に用いる手81を、簡易かつ適切に1つに絞ることができる。
【0069】
また、代表点は、撮影画像50において、手81の候補のうち画像表示面41に重なる部分の重心Gである。これにより、手81のうち画像表示面41と重なる部分と、画像表示面41との距離を適切に導出することができる。
【0070】
また、検出対象は人の手81であり、スクリーン40は、人の手81により保持されている。このような場合において、スクリーン40を保持している手81を検出対象から除外し、ジェスチャーを行っている操作者80の手81を検出対象として適切に検出することができる。
【0071】
また、変形例において、検出対象は人の手81であり、撮影画像50は、スクリーン40の画像表示面41側に位置する人の手81を含む撮影範囲Rを撮影した画像である。これにより、スクリーン40の画像表示面41側においてジェスチャーを行っている操作者80の手81を検出対象として適切に検出することができる。
【0072】
また、部材としてのスクリーン40の基準面は、投影画像Imが投影(表示)される画像表示面41である。これにより、スクリーン40の画像表示面41に画像として表示されている手81Iを検出対象から除外し、ジェスチャーを行っている操作者80の手81を検出対象として適切に検出することができる。
【0073】
また、本実施形態に係る検出装置10は、スクリーン40の画像表示面41及び手81の奥行きに係る深度情報を取得し、深度情報に基づいて、画像表示面41から手81の候補の重心G(代表点)までの、画像表示面41に対する略法線方向の距離dを導出し、導出された距離dが所定の距離条件を満たしている手81を、検出対象として検出する。これにより、ジェスチャーを行っていない手81を検出対象から除外し、ジェスチャーを行っている操作者80の手81を検出対象として適切に検出することができる。また、撮影装置20と手81との位置関係によらずに適切に手81の候補を絞ることができる。また、パターンマッチングや機械学習といった高度の情報処理を必要としないため、CPU11の処理負荷を低く抑えることができる。
【0074】
また、本実施形態に係るプログラム131は、コンピュータとしてのCPU11に、スクリーン40の画像表示面41及び手81の奥行きに係る深度情報を取得する処理、深度情報に基づいて、画像表示面41から手81の候補の重心G(代表点)までの、画像表示面41に対する略法線方向の距離dを導出する処理、導出された距離dが所定の距離条件を満たしている手81を、検出対象として検出する処理、を実行させる。これにより、ジェスチャーを行っていない手81を検出対象から除外し、ジェスチャーを行っている操作者80の手81を検出対象として適切に検出することができる。また、撮影装置20と手81との位置関係によらずに適切に手81の候補を絞ることができる。また、パターンマッチングや機械学習といった高度の情報処理を必要としないため、CPU11の処理負荷を低く抑えることができる。
【0075】
<その他>
なお、上記実施形態における記述は、本発明に係る検出方法、検出装置及びプログラムの一例であり、これに限定されるものではない。
例えば、上記実施形態では、検出装置10、撮影装置20、及びプロジェクタ30(ジェスチャーによる操作対象機器)が別個となっている例を用いて説明したが、この態様に限られない。
例えば、検出装置10と撮影装置20とが一体となっていてもよい。一例を挙げると、検出装置10の表示部15のベゼルに、撮影装置20のカラーカメラ21及び深度カメラ22が組み込まれていてもよい。
また、検出装置10と操作対象機器とが一体となっていてもよい。例えば、上記実施形態におけるプロジェクタ30に検出装置10の機能を組み込み、検出装置10が実行していた処理をプロジェクタ30の図示しないCPUが実行してもよい。この場合には、プロジェクタ30が「検出装置」に相当し、プロジェクタ30のCPUが「処理部」に相当する。
また、撮影装置20と操作対象機器とが一体となっていてもよい。例えば、上記実施形態におけるプロジェクタ30の筐体に、撮影装置20のカラーカメラ21及び深度カメラ22が組み込まれていてもよい。
また、検出装置10、撮影装置20及び操作対象機器が全て一体となっていてもよい。例えば、操作対象機器としての検出装置10の表示部15のベゼルにカラーカメラ21及び深度カメラ22が組み込まれた態様において、操作者80の手81(指82)のジェスチャーにより検出装置10の動作を制御してもよい。
【0076】
また、操作者80は人に限られず、ロボットや動物等であってもよい。
【0077】
また、上記実施形態では、「部材」としてスクリーン40を例示し、「基準面」として投影画像Imが投影される画像表示面41(投影面)を例示したが、これらに限定する趣旨ではない。
例えば、「部材」は、液晶表示装置等の表示装置であってもよく、「基準面」は、当該表示装置の画像表示面であってもよい。
また、「部材」は、手81によるジェスチャーを検出しやすくするために、操作者80が手81の背景となる位置に保持する板状部材であってもよい。この場合には、板状部材のうち撮影装置20側の面が「基準面」に相当する。
【0078】
また、上記実施形態では、操作者80が手81によって行うジェスチャーは、手81の指の向き又は動きによって行うジェスチャーであるものとしたが、これに限られず、例えば手81の全体の動きによって行うジェスチャー等であってもよい。
また、画像表示面41を指先でタッチするジェスチャーであってもよい。このように画像表示面41を直接タッチする場合においても、手81の重心Gの位置(手の甲の部分)は、通常、画像表示面41から基準距離ds以上離れているため、上記実施形態の方法で、検出対象の手81の候補として残すことができる。また、当該ジェスチャーの検出は、指先と画像表示面41との位置関係が複数フレームにわたって変化しているか否かの判別を伴っていてもよい。
【0079】
また、上記実施形態では、深度カメラ22により撮影された深度画像の深度情報に基づいて、図7に示す画像表示面41から手81の重心G(代表点)までの距離dを導出したが、距離dの導出に用いる深度情報は、深度カメラ22により取得されたものに限られない。例えば、操作者80の上方(+Z方向)から操作者80及びスクリーン40を撮影する距離導出用カメラを設け、当該距離導出用カメラによる撮影画像から、手81の奥行きに係る深度情報を取得して、距離dを導出してもよい。この場合には、距離導出用カメラによる撮影画像における手81及びスクリーン40と、撮影装置20による撮影画像における手81及びスクリーン40とを対応付けることで、距離導出用カメラによる撮影画像において距離dを導出する位置を特定することができる。
【0080】
また、図6等に示す撮影画像50を取得しなくても、スクリーン40の画像表示面41(基準面)及び手81(対象物)の深度情報が取得できれば、当該深度情報に基づいて検出対象の手81を検出することができる。すなわち、撮影画像50とは別個に深度情報を取得できる場合には、撮影画像50の取得を省略してもよい。この場合において、深度情報の取得に用いる機器は、上記実施形態の深度カメラ22であってもよいし、ミリ波レーダーや光波測距計などの測距装置であってもよい。
【0081】
また、上記実施形態では、撮影範囲Rにスクリーン40の画像表示面41の全体が含まれている場合を例に挙げて説明したが、これに限られず、画像表示面41の一部のみが撮影範囲Rに含まれる態様、すなわち、撮影画像50に画像表示面41の一部のみが写る態様であってもよい。
【0082】
また、画像表示面41は、平面に限られず、曲面であってもよい。この場合にも、深度情報に基づいて空間における画像表示面41の位置を導出し、距離dとして、曲面である画像表示面41から手81の代表点までの最短距離を導出すればよい。
【0083】
また、以上の説明では、本発明に係るプログラムのコンピュータ読み取り可能な媒体として記憶部13のHDD、SSDを使用した例を開示したが、この例に限定されない。その他のコンピュータ読み取り可能な媒体として、フラッシュメモリ、CD-ROM等の情報記録媒体を適用することが可能である。また、本発明に係るプログラムのデータを通信回線を介して提供する媒体として、キャリアウエーブ(搬送波)も本発明に適用される。
【0084】
また、上記実施形態における検出装置10、撮影装置20及びプロジェクタ30の各構成要素の細部構成及び細部動作に関しては、本発明の趣旨を逸脱することのない範囲で適宜変更可能であることは勿論である。
【0085】
本発明の実施の形態を説明したが、本発明の範囲は、上述の実施の形態に限定するものではなく、特許請求の範囲に記載された発明の範囲とその均等の範囲を含む。
以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲の通りである。
〔付記〕
<請求項1>
コンピュータが実行する検出方法であって、
部材の基準面及び対象物の奥行きに係る深度情報を取得し、
前記深度情報に基づいて、前記基準面から前記対象物の代表点までの、前記基準面に対する略法線方向の距離を導出し、
導出された前記距離が所定の距離条件を満たしている前記対象物を検出対象として検出する、
検出方法。
<請求項2>
前記基準面及び前記対象物を含む撮影画像を取得し、
前記撮影画像及び前記深度情報に基づいて、前記基準面から前記対象物の前記代表点までの前記距離を導出する、
請求項1に記載の検出方法。
<請求項3>
前記基準面及び前記対象物を含む撮影画像を取得し、
前記撮影画像において、少なくとも一部が前記基準面に重なる前記対象物を抽出し、
前記深度情報に基づいて、前記基準面から前記対象物の前記代表点までの前記距離を導出する、
請求項1に記載の検出方法。
<請求項4>
導出された前記距離が基準距離以上である場合に、前記距離が前記距離条件を満たすと判別する、
請求項1に記載の検出方法。
<請求項5>
前記対象物が2つ以上抽出された場合には、導出された前記距離が前記距離条件を満たしている前記対象物のうち、導出された前記距離が最も大きい前記対象物を前記検出対象として検出する、
請求項1に記載の検出方法。
<請求項6>
前記代表点は、前記撮影画像において、前記検出対象の候補のうち前記基準面に重なる部分の重心である、請求項2又は3に記載の検出方法。
<請求項7>
前記検出対象は人の手であり、
前記部材は、前記人の手により保持されている、
請求項1に記載の検出方法。
<請求項8>
前記検出対象は人の手であり、
前記撮影画像は、前記部材の前記基準面側に位置する前記人の前記手を含む撮影範囲を撮影した画像である、
請求項2又は3に記載の検出方法。
<請求項9>
前記部材の前記基準面は、画像が表示される画像表示面である、
請求項1に記載の検出方法。
<請求項10>
部材の基準面及び対象物の奥行きに係る深度情報を取得し、
前記深度情報に基づいて、前記基準面から前記対象物の代表点までの、前記基準面に対する略法線方向の距離を導出し、
導出された前記距離が所定の距離条件を満たしている前記対象物を検出対象として検出する、
処理部を備える検出装置。
<請求項11>
コンピュータに、
部材の基準面及び対象物の奥行きに係る深度情報を取得する処理、
前記深度情報に基づいて、前記基準面から前記対象物の代表点までの、前記基準面に対する略法線方向の距離を導出する処理、
導出された前記距離が所定の距離条件を満たしている前記対象物を検出対象として検出する処理、
を実行させるプログラム。
【符号の説明】
【0086】
1 情報処理システム
10 検出装置
11 CPU(処理部)
12 RAM
13 記憶部
131 プログラム
132 撮影画像データ
14 操作部
15 表示部
16 通信部
17 バス
20 撮影装置
21 カラーカメラ
22 深度カメラ
30 プロジェクタ
40 スクリーン(部材)
41 画像表示面(基準面)
50 撮影画像
80 操作者(被写体)
81、81L、81R、81I 手(対象物、検出対象の候補、検出対象)
G、GL、GR、GI 重心(代表点)
Im 投影画像
R 撮影範囲
d 距離
ds 基準距離
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10