【実施例1】
【0016】
実施例1の物体検出装置2aについて、
図1から
図9を用いて説明する。
【0017】
図1は、ステレオカメラ等の撮像装置1と接続された、本実施例の物体検出装置2aの概要を示すブロック図である。物体検出装置2aは、撮像装置1と検出対象の相対位置の変化により、撮像装置1の撮影画像上での検出対象の見え方が変化した場合であっても、検出対象の頑健な検出を実現する物体検出装置である。
【0018】
図1に示す物体検出装置2aにおいて、3は撮像装置1からの入力を基に計測範囲内の画像情報を取得する画像取得部、4は撮像装置1からの入力を基に計測範囲内の三次元情報を取得する三次元情報取得部、5は画像情報と三次元情報を利用して検出対象が存在し得る領域である識別候補領域を計測範囲から抽出する識別候補領域抽出部、6は物体検出装置2aにて使用する識別器64の情報を取得する識別器情報取得部、7aは識別器の情報を用いて識別候補領域を、識別器64の入力として最適な画像へ変換する方法を決定する画像変換方法決定部、8は決定された画像変換方法に基づき識別候補領域から変換画像を取得する画像変換部、9は変換画像中に検出対象が含まれるか否かを判別する識別部である。なお、画像取得部3から識別部9の一部または全部は、必ずしも専用のハードウェアである必要はなく、半導体メモリ等の主記憶装置に記憶されたプログラムやハードディスク等の補助記憶装置に記憶されたデータを、CPU等の演算装置で処理することで実現されるものであっても良い。
【0019】
以下、
図1に示した、撮像装置1、識別候補領域抽出部5、識別器情報取得部6、画像変換方法決定部7a、画像変換部8、識別部9について、個々に詳細説明する。
<撮像装置>
撮像装置1は、計測範囲の画像情報と三次元情報を取得できる装置である。ここで、画像情報とはデジタル画像データにおける輝度情報、三次元情報とは計測範囲(三次元空間)における三次元点群の座標情報である。
【0020】
撮像装置1としては、2台以上のカメラからなるステレオカメラや、1台のカメラと三次元情報を取得可能な距離センサの組み合わせでもよい。例えば、ステレオカメラは、2台以上のカメラで同一の対象を撮影することにより、三角測量の原理を利用してカメラから対象までの距離を計測するものであり、画像情報と三次元情報の両方を取得することができる。また、距離センサは投射した光が対象で反射し、距離センサに戻るまでの時間を、投射光と反射光の位相差から算出することで、対象までの距離を計測するものであり、予め位置合わせをしたカメラと組み合わせることで、三次元情報と画像情報を関連付けて取得できる。
<識別候補領域抽出部>
図2は識別候補領域抽出部5の詳細を示している。識別候補領域抽出部5は、画像取得部3および三次元情報取得部4の取得する画像情報もしくは三次元情報、またはその両方を利用し、検出対象が存在し得る識別候補領域55を抽出するものであり、画像情報を用いて識別候補領域55を抽出する画像処理部51と、三次元情報を用いて識別候補領域55を抽出する三次元情報処理部52と、抽出した1つ以上の識別候補領域55にIDを付与する識別候補領域ID付与部53と、識別候補領域55の位置を表す識別候補領域情報を取得し、管理する識別候補領域情報管理部54を備えている。以下、画像処理部51、三次元情報処理部52、識別候補領域ID付与部53、識別候補領域情報管理部54について詳細に説明する。
【0021】
画像処理部51は、撮像装置1が取得した画像情報に対して画像処理を実施することで識別候補領域55を抽出する。ここで実行される画像処理としては、例えば、検出対象が存在しない状態の撮影空間を撮影した背景画像を予め取得しておき、その背景画像と撮影した画像との差分を算出する背景差分があるが、肌色検出などのカラー情報を用いた検出など、画像情報によって検出対象の領域を抽出できる手段であれば、特に限定しない。
【0022】
三次元情報処理部52は、撮像装置1が取得した三次元情報に対して三次元処理を実施することで識別候補領域55を抽出する。ここで実行される三次元処理としては、例えば、検出対象が存在しない状態の撮影空間の背景三次元情報を予め取得しておき、その背景三次元情報と改めて取得した三次元情報との差分を算出する方法があるが、三次元処理を実施することで識別候補領域55を取得するものであれば、特に限定しない。
【0023】
次に、
図3A〜
図3Cを用いて、識別候補領域ID付与部53と識別候補領域情報管理部54について説明する。
【0024】
識別候補領域ID付与部53では、画像処理部51や三次元情報処理部52で抽出した識別候補領域55の各々に対しIDを付与する。また、識別候補領域情報管理部54では、IDに当該識別候補領域の位置情報を付加し、識別候補領域情報54_nとして管理する。なお、位置情報は、当該識別候補領域の二次元画像中の始点と終点を示す画像位置、および、当該識別候補領域の三次元撮影空間中の始点と終点を示す三次元位置である。
【0025】
図3Aは、識別候補領域情報管理部54が管理するn個の識別候補領域情報54_nを例示したものであり、各々の識別候補領域情報54_nには、IDに加え、対応する識別候補領域55の位置情報である画像位置と三次元位置が記録されていることを示している。
図3Bは、識別候補領域情報54_1の画像位置を具体的に示すものであり、56a、56bは、撮像装置1の撮影画像における矩形の識別候補領域55の始点(x1,y1)と終点(x1’,y1’)を示している。同様に、
図3Cは、識別候補領域情報54_1の三次元位置を具体的に示すものであり、57a、57bは、直方体状の識別候補領域55の始点(X1,Y1,Z1)と終点(X1’,Y1’,Z1’)を示している。なお、
図3B、
図3Cでは、矩形、直方体状の識別候補領域55を例示したが、識別候補領域55の位置を特定できる表現であれば、他の形状の識別候補領域を用いても良い。この場合、
図3A中の画像位置、三次元位置の情報も当該他の形状の識別候補領域に合わせた表現とすることは言うまでもない。
<識別器情報取得部>
次に、
図4を用いて、識別器情報取得部6を説明する。識別器情報取得部6は複数用意されている識別器64から適切なものを選択し、それに対応した識別器情報65を抽出するものである。なお、67_nは識別器64_nを管理するために付与される識別器IDである。
【0026】
識別器64は、撮像装置1の撮影画像中に検出対象が含まれるかを判別する識別処理に用いられ、識別器64_nの夫々は、異なる姿勢の検出対象に対して高い識別能力を有するものである。検出対象を含む画像と含まない画像(学習サンプル)を機械学習方法により多数学習することで、各々の識別器64_nに異なる特性を持たせることができる。なお、機械学習方法としては、Support Vector Machineが一般的であるが、他の機械学習方法を用いても良い。
【0027】
識別器情報65_nは識別器64_nが特に高い識別能力を発揮する入力画像を示すものである。
図4では、識別器情報として、正面視した人物画像の識別に強いテンプレート66_1、上面視した人物画像の識別に強いテンプレート66_2、側面視した人物画像の識別に強いテンプレート66_nを例示しているが、色情報や輪郭を表現する特徴量、或いは、輝度情報、勾配情報など、識別器64_nの入力に適当な画像もしくは画像の生成方法を表現する識別器情報であれば、他の情報を記録しておいても良い。
<画像変換方法決定部>
次に、
図5を用いて、画像変換方法決定部7aの処理フローを説明する。画像変換方法決定部7aは、
図3Cに例示した直方体状の識別候補領域55内の三次元情報を基に、識別器64への入力として最適な画像へ変換するための変換方法(パラメータ等)を決定するものである。画像変換方法決定部7aの処理フローとしては、まず視点変換のパラメータを決定し(S51)、そのパラメータを用いて視点変換画像を生成する(S52)。そして、複数の識別器64の各々が保持する識別器情報65を参照して変換画像との類似度を算出し(S53)、類似度が閾値より高ければ処理を終了し、閾値以下ならステップS51に戻り、パラメータを他の値に変更する(S54)。以下、ステップS51、S52、S53、S54について詳しく説明する。
【0028】
ステップS51では、視点変換画像の生成に必要なパラメータα、β、γを決定する。なお、各パラメータの詳細については後段にて詳しく説明する。ステップS51における、パラメータα、β、γの決定方法としては網羅的に変動させる方法がある。
【0029】
ステップS52では、
図6に示す処理を行う。
図6において、82は識別候補領域55を観測する視点、83、84、85は計測範囲に設定した三次元空間の座標系におけるx軸、y軸、z軸、86_1、86_2は視点変換によって作成される変換画像の一例を示している。ステップS52では、ステップS51で決定したパラメータα、β、γを用いて、直方体状の識別候補領域55に含まれる三次元情報を、x軸83を中心にα、y軸84を中心にβ、z軸85を中心にγだけ回転させることで、任意の視点から観測した状態に視点変換し、視点変換後の識別候補領域55を画像に投影することで変換画像86を取得する。
【0030】
視点変換の方法としては、式1〜式3のような変換式を用いることが一般的であるが、他の視点変換方法を用いても良い。
【0031】
【数1】
【0032】
【数2】
【0033】
【数3】
識別候補領域55を変換画像86_nに投影する方法としては、透視投影が一般的な方法であるが、他の方法を用いても良い。例えば、直立する人物の三次元情報を含む識別候補領域55を、視点82の方向に設置した撮像装置1で撮影した場合、視点変換せずに、識別候補領域55を投影することで、人物を上面視した変換画像86_1を取得できる。これに対し、同じ撮像装置1で撮影した識別候補領域55を、α=0°、β=0°、γ=90°だけ回転する視点変換を実施し、視点82に対して識別候補領域55を画像に投影すると、人物を側面視した変換画像86_2を取得できる。
【0034】
さらに、
図5のステップS53では、最適化処理を実施することで、識別器64に対して最も適する画像への画像変換方法を決定する。画像変換方法の決定方法としては、例えば、識別器情報65を参照してテンプレート66を取得し、識別候補領域55に対して視点変換を実施して取得する変換画像86_nとの類似度を算出する方法などがある。類似度の算出方法として、例えば、Normalized Cross-Correlationなどのパターンマッチングを用いることが一般的であるが、他の方法を用いても良い。この際、評価関数を類似度とし、パラメータα、β、γが変数となる評価関数を設計し、この評価関数を最大化する最適化問題を解くことで、識別器64_nに対して類似度が最大となる画像変換方法を取得する。なお、
図4に例示したように、識別器64が2つ以上存在する場合は、識別候補領域55に対して取得する変換画像86_nとの類似度を各識別器に対して算出し、類似度が最大となった識別器64_nのIDを取得しておく。
【0035】
ステップS54ではステップS53で算出した変換画像86_nと識別器情報65の類似度を閾値と比較し、類似度が閾値以上の場合は処理を終了し、閾値未満の場合はステップS51に戻り、異なるパラメータに変更したうえで、同様の処理を繰り返す。ステップS54で用いられる閾値は、物体検出装置2aの設置者が任意に設定してもよいが、所定の閾値により物体検出装置2aによる物体検出を実行した際の物体検出の精度をフィードバックすることで、閾値を適当な値に変更しても良い。例えば、ある閾値を用いた物体検出装置2aの精度が不十分であると判断された際に、閾値をより高い値に変更する方法などがある。
【0036】
なお、ステップS51にてパラメータを決定する際に、画像変換方法決定部7aは予めパラメータα、β、γによって生成される変換画像の縦横の比率を記録した行列マップを作成し、それを参照して決定しても良い。あるいは、撮影空間を複数の領域に分割し、各領域に対しておおよそ有効であるパラメータα、β、γを保持した行列マップを用意し、それを参照して決定しても良い。その際、行列マップが保持するパラメータα、β、γよりも適したものが判明した場合には更新する方法でも良い。あるいは、カメラパラメータを取得して撮像装置1の設置状態の情報を取得することで、おおよそ有効であるパラメータα、β、γを決定する方法でも良い。
【0037】
また、画像変換方法決定部7aにおいて、パラメータα、β、γを変更して類似度を計算する処理を続行するか否かを判断し、続行する場合はステップS51に戻り、続行しない場合は処理を終了することとしても良い。処理を実行するか否かの判断基準は、例えば、パラメータα、β、γを変更した回数が、あらかじめ設定した回数を上回ったかどうかによって決定しても良い。あるいは、ステップS53にて計算した類似度があらかじめ設定した最低値以下の場合に処理を終了するという方式でも良い。類似度が閾値以上にならない場合でも処理を終了することにより、識別候補領域55に検出対象の物体が含まれていない場合に、物体検出装置2aの物体検出処理が繰り返し実施される無駄を防ぐことができる。
【0038】
次に、
図7A、
図7Bを用いて、画像変換方法決定部7aの効果を説明する。
図7Aにおいて82a、82b、82cは撮像装置1の視点(設置位置・方向)を示し、87a、87b、87cはそれぞれの視点の撮影画像から抽出した、人物を含む矩形画像を示す。
【0039】
直立する人物を撮影した矩形画像87a、87b、87cを基に、
図7Bに示す識別器64_1、64_2を用いて人物を検出する場合、視点82aから撮影した矩形画像87aは識別器64_1のテンプレート66_1と類似度が高く、視点82cから撮影した矩形画像87cは識別器64_2のテンプレート66_2と類似度が高い。そのため、矩形画像87aと矩形画像87cについては、識別器64_1または識別器64_2を用いることで容易に人物を検出できる。
【0040】
一方、視点82bから撮影した矩形画像87b中の人物には、撮像装置1の視線の傾きを原因とする変形(テンプレートとのずれ)が発生しており、テンプレート66_1、テンプレート66_2の何れとも類似度が低いため、識別器64_1、識別器64_2では人物を識別できない。このため、視点82bの撮像装置1だけが設置された現場では、従来は人物を検出することが困難であった。
【0041】
このような場合であっても、本実施例の画像変換方法決定部7aを用いることで、矩形画像87b中の変形した検出対象も検出が可能となる。以下に視点82bから撮影した変形した人物を検出する手順を説明する。
【0042】
まず、パラメータα、β、γを決定し、それを入力として矩形画像87bに対し仮想的な視点変換を実施することで変換画像86bを作成する。そして、変換画像86bとテンプレート66_1およびテンプレート66_2との類似度を計算し、閾値以上の類似度を示す識別器64_nがあった場合、その識別器のID67を取得する。閾値以上の類似度を示す識別器64_nがない場合は、パラメータα、β、γを再度決定し、同様の処理を実施する。矩形画像87bはカメラの傾きによる変形が発生しているものの、人物の正面の画像情報、三次元情報を取得できている。そのため、視点82bから撮影した矩形画像87bを視点82aへ仮想的に視点変換した場合、矩形画像87aと類似した変換画像86bを取得でき、識別器64_1への入力に適した画像を得ることが可能となる。
【0043】
同様に、視点82bから撮影した矩形画像87bを視点82cへ仮想的に視点変換した場合、矩形画像87cと類似した変換画像86bを取得でき、識別器64_2への入力に適した画像を得ることが可能となる。
【0044】
ここで、視点82bと人物の間に障害物が存在し、人体の一部(例えば脚部)が矩形画像87bに映らない状況下での画像変換方法決定部7aの利点を説明する。矩形画像87bを視点82aへ視点変換した場合、矩形画像87bと同様に変換画像86bも脚部を欠落するため、脚部検出を必要とする識別器64_1では人物を検出できない。これに対し、矩形画像87bを視点82cへ視点変換した場合、矩形画像87bと同様に変換画像86bも脚部を欠落しているが、脚部検出が不要な識別器64_2では人物を検出することができる。すなわち、人体の一部が欠落した矩形画像87bが入力された場合であっても、画像変換方法決定部7aにて適切な画像変換方法を決定し、それに応じた識別器64を選択すれば、正確な人物検出を実現することができる。
<画像変換部>
画像変換部8は、画像変換方法決定部7aが決定した画像変換方法に従って識別候補領域55を変換し、識別器64への入力に適した変換画像86を取得するものである。なお、画像変換方法はステップS52と同様に、例えば式1〜式3のような変換式を用いることができるが、他の方法を用いても良い。
<識別部>
図8は識別部9の詳細を示している。識別部9は、画像変換部8が取得する変換画像86_n中に検出対象が含まれるか否かを判定するものであり、少なくとも1つ以上の識別器64_nを記録する識別器記録部91と、識別器64_nを用いて変換画像86_nに対して識別処理を実施する識別処理実施部92と、識別処理の結果を出力する識別結果出力部を備える。以下、識別処理実施部92、識別結果出力部93について、詳細に説明する。
【0045】
識別処理実施部92は、識別器記録部91に記録された識別器64_nを用いて、画像変換部8が出力した変換画像86_nに対し識別処理を実施する。識別器記録部91に識別器64_nが2つ以上記録されている場合、識別処理実施部92は、画像変換方法決定部7aにて選択された識別器64_nのIDを取得し、そのIDに対応する識別器64_nを選択した後に、画像変換実施部7が出力した変換画像86_nに対し識別処理を実施する。
【0046】
識別結果出力部93は、識別処理実施部92の識別処理結果を外部に出力する。例えば、物体検出装置2aがモニタなどの表示装置に接続される場合、その表示装置に撮影空間の画像を表示してもよい。そして、識別処理実施部92が、変換画像86_n中に検出対象を含むと判定した場合、その変換画像86_nの基となった識別候補領域55の識別候補領域情報54_nを参照し、撮像装置1の撮影画像中における識別候補領域55の画像位置を取得する。そして、表示装置に表示される撮影画像中の検出対象に対応する位置に矩形の検出窓等を表示したり、検出対象が検出された旨をメッセージとして表示してもよい。
<処理フロー>
次に、
図9を用いて、本実施例の物体検出装置2aにおける物体検出の処理フローを説明する。
【0047】
ステップS91では、先ず、撮像装置1は計測範囲に対応する画像情報及び三次元情報を取得し、物体検出装置2aに出力する。画像取得部3は撮像装置1からの入力を基に画像情報を取得し、三次元情報取得部4は撮像装置1からの入力を基に三次元情報を取得する。
【0048】
ステップS92では、識別候補領域抽出部5を用いて識別候補領域55を抽出する。具体的には、画像処理部51で抽出した矩形領域と、三次元情報処理部52で抽出した直方体領域を識別候補領域55とした後、抽出された識別候補領域55に対し、識別候補領域ID付与部53によってIDを付与する。
【0049】
ステップS93では、抽出された識別候補領域55から、識別処理の対象とする1つの識別候補領域55を選択する。
【0050】
ステップS94では、選択された識別候補領域55に対し、視点変換を実施し、画像に投影することで変換画像86_nを取得する。最適化処理により、識別器情報65に対して類似度が最大となる画像変換方法を取得する。識別器64_nが2つ以上存在する場合は、例えば、識別候補領域55に対して視点変換を実施して取得する変換画像86_nとテンプレート66の類似度が最大となった識別器64_nのIDを取得し、対応する識別器64_nに対して適切な画像変換方法を決定する。
【0051】
ステップS95では、ステップS94にて決定された変換方法により、選択された識別候補領域55に対して画像変換を実施し、変換画像86_nを取得する。
【0052】
ステップS96では、ステップS95にて取得した変換画像86_nに対して、識別器64_nを用いて識別処理を実施する。
【0053】
ステップS97では、識別処理の結果、変換画像中に検出対象が含まれるか否かを判定する。含まれる場合はステップS98を実施し、含まれない場合はステップS99を実施する。
【0054】
ステップS98では、識別処理の結果、変換画像中に検出対象が含まれると判定された際に、識別結果を出力する。物体検出装置2aが、例えばモニタなどの表示装置に接続される場合、表示装置に撮影空間の画像を表示し、画像中において、識別候補領域55に対応する位置に矩形の検出窓を表示したり、検出対象が検出された旨を示すメッセージを表示してもよい。識別候補領域55に対応する位置は、識別候補領域情報管理部54に記録される位置情報を参照して取得する。
【0055】
ステップS99では、選択された識別候補領域55に対する識別処理を終了した後に、ステップS92にて抽出されたすべての識別候補領域55に対して識別処理を実施したかを判定する。そして、識別処理が未実施な識別候補領域55が存在する場合、ステップS93を実施し、識別処理が未実施な識別候補領域55が存在しない場合、物体検出処理を終了する。
【0056】
以上説明したように、実施例1の物体検出装置2aでは、抽出した識別候補領域55を仮想的な視点変換により識別器への入力に適した画像に変換してから、検出対象の検出を実施することで、画像中の検出対象の見え方が識別器のテンプレートと相違する場合や、画面中の検出対象の一部が遮蔽物によって隠されている場合においても、検出対象を高精度に検出することができる。
【実施例2】
【0057】
次に、実施例2の物体検出装置2bについて、
図10から
図13を用いて説明する。なお、実施例1と共通する点は、重複説明を省略する。
【0058】
図2は、ステレオカメラ等の撮像装置1と接続された、本実施例の物体検出装置2bの概要を示すブロック図である。実施例1の物体検出装置2aでは三次元情報を回転させるためのパラメータα、β、γを網羅的に変更する画像変換方法決定部7aを用いたが、本実施例の物体検出装置2bではより効率的にパラメータα、β、γを決定できる画像変換方法決定部7bを用いる。以下、画像変換方法決定部7bについて詳細に説明する。
【0059】
先ず、直立した人物を視点82dから撮影している様子を示す
図11を用いて、画像変換方法決定部7bでの処理の概要を説明する。
図11において、Xc、Yc、Zcはカメラ座標系のx軸、y軸、z軸であり、204は視点82dに設置した撮像装置1の光軸を示す。ここで、カメラ座標系とは、撮影空間を表す三次元座標系として、撮像装置1のカメラの光学中心を原点とし、z軸(Zc)をカメラの光軸204の方向に一致させ、x軸(Xc)とy軸(Yc)は画像投影面205の横方向と縦方向に平行にとったものである。また、205は画像投影面、206は視点82dから撮影した画像、207は視点82dから取得した三次元情報、208は検出対象の姿勢方向を示す直線、209、210は識別候補領域55と直線208のカメラ座標系における交点座標(Xct,Yct,Zct)、(Xcb,Ycb,Zcb)を示し、211、212は仮想的な視点変換後の識別候補領域55と直線208のカメラ座標系における交点座標(Xct’,Yct’,Zct’)、(Xcb’,Ycb’,Zcb’)を示す。
【0060】
本実施例の画像変換方法決定部7bでは、
図11の下図に示すように、y軸(Yc)に対して傾いた直線208を、y軸(Yc)と平行な直線208’に変換するためのパラメータα、β、γを算出する。そして、変換後の識別候補領域55’の三面図を生成することで、識別器67への入力として最適な変換画像86を取得する。
【0061】
図12は、上記のパラメータα、β、γの決定処理を含む、画像変換方法決定部7bの処理フローを示している。以下、この処理フローを概説する。
【0062】
最初に、視点変換のパラメータβを0°に設定(S121)した後、直線208を取得する(S122)。そして、この直線208を回転させる任意のパラメータα、γを設定(S123)した後に、設定したパラメータα、β、γを利用して検出対象の三面図を生成する(S124)。そして、三面図のうちひとつを変換画像86として選択した後(S125)、選択した変換画像86と識別器情報65の類似度を算出し(S126)、類似度が閾値以上であれば、選択中の変換画像86を識別器64への入力画像と決定して処理を終了する。一方、類似度が閾値未満ならステップS128へ遷移する(S127)。ステップS128では、生成した三面図のすべてを変換画像として選択したかを判定し、すべてを選択していない場合はステップS125へ遷移し、β=0°の場合の三面図すべてについて類似度を算出した場合はステップS129へ遷移する(S128)。ステップS129では、パラメータβを変更して、すなわち、y軸(Yc)を中心に識別候補領域55を回転させてから、ステップS124へ戻り(S129)、類似度が閾値以上の変換画像86が得られるまで、処理を繰り返す。以下、特に重要なステップS122、S123、S124、S129について詳細に説明する。
【0063】
ステップS122では直線208を取得する。直線208の求め方の一例しては、識別候補領域55の三次元情報を参照し、三次元点群の各点同士のユークリッド距離が最大となる2点を結んだ直線をとるものとする。これは、検出対象が直立した人物である場合、その人物を含む識別候補領域55は鉛直方向に長い直方体であると予測でき、ユークリッド距離が最大となる方向が、人物の姿勢方向を示す直線208であると推定できるからである。また、識別候補領域55の三次元点群に対して主成分分析を実施し、その第一成分の方向にとった直線でも良い。あるいは、一般的な床面推定方法により、撮影する空間に存在する床面を検出可能な場合、その床面と直交する方向と、頭部に対応する1つの点の情報を用いて直線208を決定する方法をとっても良い。
【0064】
ステップS123では、交点座標211と交点座標212のx値、z値が共に等しくなるような、すなわち、Xct’=Xbt’かつZct’=Zbt’となるようなパラメータα、γを決定する。Xct’とXcb’が等しくなるように識別候補領域55を回転させた際のz軸(Zc)周りの回転角がパラメータγに対応し、Zct’とZcb’が等しくなるように識別候補領域55を回転させた際のx軸(Xc)周りの回転角がパラメータαに対応する。ステップS121にてパラメータβは0°に設定されているため、以上の処理によりパラメータα、β、γを決定することができる。
【0065】
次に、
図13を用いて、ステップS124の処理について説明する。ステップS124では、仮想的な視点変換後に識別候補領域55の三面図を取得する。
図13において、視点82e、82f、82gは三面図を生成するための視点であり、変換画像86e、86f、86gは各視点より生成される変換画像86を示す。直線208をy軸(Yc)と平行にするパラメータα、γを決定した後、パラメータβを変化させながら三面図を生成していくと、所定のパラメータβとなったときに、
図13の変換画像86eに示すように、識別候補領域55中の人物の正面からの視点へ仮想的に視点変換することができ、対応するテンプレートを持つ識別器64を用いて人物を検出することができる。
【0066】
しかしながら、実環境では遮蔽などにより検出対象の特定の方向からの見え方が識別に適さない場合がある。そこで、正面からの視点82eからの変換画像86eに加え、側面と上面からの視点82f、82gからも変換画像86f、86gを得ておくことで、候補となる識別器64の数を増やし、物体検出の精度を向上させることができる。なお、視点82eに対して、各パラメータをさらにα=0°、β=90°、γ=0°だけ回転させることで側面を見る視点82fを設定でき、視点82eに対して、各パラメータをさらにα=90°、β=0°、γ=0°だけ回転させることで上面を見る視点82gを設定でき、視点82e、82f、82gにおいて識別候補領域55を透視投影することで、変換画像86e、86f、86gを効率的に取得でき、これを三面図とすることで効率的な人物検出を実現できる。
【0067】
以上説明した実施例2の物体検出装置では、実施例1に比べ、効率的にパラメータα、β、γを決定することができ、画像中で人物が変形する場合や、遮蔽が発生する場合においても高精度な人物検出を実施することができる。