【実施例1】
【0021】
以下に示す第1の実施形態になる画像認識装置は、距離画像センサの視野角から人物の身体の一部がはみ出た場合でも、撮像された視野角内の人物の動作を高い精度で認識することができるようにしたものである。
【0022】
図1において、参照番号51はエレベータ装置の乗りかごであり、参照番号52は乗りかご51内に取り付けた距離画像センサであり、参照番号53乗りかご51に設けたドアであり、参照番号54は乗りかご51の外側上部に載置した処理装置である。
【0023】
乗りかご51には、原点O及び座標軸(X, Y, Z)を有する座標系59が定義されている。そして、座標系59の原点Oは距離画像センサ52の直下にあるように設定されている。また、距離画像センサ52は、俯角θ、方位角φ、ロール角ρ の設置角度で取り付けられている。尚、俯角θと方位角φは、カメラがZ軸方向を見るときに共に0°であり、このとき俯角θ、方位角φ、ロール角ρの回転軸はそれぞれX軸、Y軸、Z軸と一致する。
【0024】
処理装置54は、本実施例になる画像認識処理を実行するのに必要な信号処理を行う計算装置であって、任意の計算機を適用できる。
図1には、処理装置54を1台の計算機としたが、処理装置54は2つ以上の計算機から構成しても良い。また、距離画像センサ52等の内部に設けた処理装置を用いて処理装置54としても良い。このように、処理装置54は適用される製品の形態に応じて適切に設けられる。
【0025】
距離画像センサ52は、内部に近赤外領域の光を出力する発光体を有し、近赤外光を発光してから、その近赤外光が視野角内の物体に反射してから戻ってくるまでの時間を計測することで、距離画像センサ52から物体までの距離を計測する。
【0026】
距離画像センサ52は監視カメラと同様の画像の撮像面を有しており、撮像面中の各画素において距離計測を行うことで画素毎に距離値を取得する。このようにして画像中の各画素の距離値を計測した画像を以下では距離画像と呼ぶ。距離画像センサ52は、この距離画像を監視カメラと同程度の周期で取得する。
【0027】
以上の説明で述べた距離画像の取得の方式はTime Of Flight方式と呼ばれる。距離画像センサ52はTime Of Flight方式以外にも、画像中の各画素の距離値を計測できる方式を適用できる。ステレオカメラやレーザレーダがその一例である。
【0028】
次に、第1の実施形態になる画像認識装置の処理装置54の処理機能を
図2に示す機能ブロックで説明する。
【0029】
まず各機能ブロックの概要を説明すると、距離画像取得部2は距離画像センサ52から所定の時間間隔で距離画像を取得する。
【0030】
人物抽出部3は距離画像取得部2の距離画像から乗りかご51内の人物に該当する部分を抽出する。
【0031】
はみ出し量計算部4は人物抽出部3が抽出した人物の全身の中でどの部分が距離画像センサ52の画角外にはみ出ているかを計算する。この計算には幾何データ保持部1に保持された幾何データが使用される。この幾何データ保持部1には少なくとも距離画像センサ52の視野角、設置位置、設置角度が記憶されている。はみ出し量計算部4は、人物の身体が距離画像センサ52の視野角からはみ出してしまうはみ出し量を求める。
【0032】
動作特徴量抽出部5は人物抽出部3によって抽出された人物画像から乗りかご51内の人物の動作特徴量を抽出する。
【0033】
動作特徴量補正部6は人物抽出部3が抽出した人物の身体の一部が距離画像センサ52の画角外にはみ出ているときに、はみ出し量計算部4が計算したはみ出し量に応じて、動作特徴量抽出部5の動作特徴量を補正する。
【0034】
この補正演算は距離画像センサ52の視野外に身体の一部がはみ出た人物の動作特徴量を、距離画像センサ52の視野内に身体が全て映っている人物の動作特徴量に近付けるものである。
【0035】
動作認識部7は動作特徴量補正部6の動作特徴量から、人物の動作を類推する。より具体的には、動作認識部7は動作特徴量補正部6の動作特徴量から、乗り乗りかご51内の人物が事前にカテゴリを定義した動作の中でどの動作を行っているか認識するものである。
【0036】
制御部8は動作認識部7が認識した動作に応じて、乗りかご51内の映像や距離画像の記録、乗りかご51内への警報の出力、乗りかご51の運行制御やドア53の開閉の少なくとも1つ以上の動作を実行するものである。
【0037】
次に各機能ブロックの詳細を説明する。幾何データ保持部1は距離画像センサ52の視野角、設置位置、設置角度を記憶、保持している。これらの情報は作業員が距離画像センサ52の取付け時に処理装置54に入力しておくことで記憶、保持される。
【0038】
或いは距離画像センサ52の設置後に距離画像センサ52で取得した距離画像を対象にして、監視カメラ用のキャリブレーションの方法を適用することで計算して記憶、保持することもできる。
【0039】
更に、幾何データ保持部1内のデータと視野角が一致する距離画像センサ52を選択し、作業員が幾何データ保持部1内の設置位置と設置角度で距離画像センサ52を取り付けてもよい。
【0040】
いずれにしても、幾何データ保持部1には上記したいずれかの方法で距離画像センサ52の視野角、設置位置、設置角度が記憶、保持されている。
【0041】
距離画像取得部2は所定の時間間隔で距離画像センサ52から距離画像を取得する。
図3に距離画像取得部2の取得した距離画像の例を示しており、この距離画像では人物が壁を蹴る異常な動作をしているものである。
【0042】
図3において、参照番号151は距離画像、参照番号150は距離画像151中の各画素、参照番号130aは人物、参照番号154aはドア53がある側の壁である。
図3には図示を略しているが、距離画像151は多くの画素150で格子状に分割されている。画素150はそれぞれ乗りかご51内における距離画像センサ52までの距離値を保持している。
【0043】
ここで、画素150の距離値は、幾何データ保持部1の記憶内容(距離画像センサ52の視野角、設置位置、設置角度等)を参考にして座標系59の座標値に変換できる。この変換は2段階のステップを経て実行されるもので、順に距離画像センサ52を基準とした座標系への変換のステップ、このステップの後に座標系59への変換のステップが行われる。
【0044】
以下、2つのステップを順に説明するが、まず距離画像センサ52を基準とした座標系への変換のステップを
図14を用いて説明する。
【0045】
図14において、参照番号69は距離画像センサ52を基準とした座標系であり、参照番号50は画素150の乗り乗りかご51内の対応点であり、i(u,v)は画素150の距離画像151上の座標であり、I
S(X
S,Y
S,Z
S)は対応点50の座標系69の座標である。
【0046】
座標系69の原点O
Sは距離画像センサ52の投影の中心であり、座標軸X
S、Y
S、Z
Sは距離画像センサ52から見て左、上、奥にあたる。ここで、座標系69の座標I
Sの中で画素150の距離値はZ
Sに等しい。距離画像センサ52の投影モデルをピンホールモデルで近似すると、I
Sの中で残るX
S、Y
Sは順に以下の式(1)と式(2)で計算できる。
【0047】
【数1】
【0048】
【数2】
【0049】
式(1)及び式(2)の中でλは距離画像センサ52の焦点距離であって、幾何データ保持部1内に存在するデータを使用するものである。
【0050】
次に、座標系59への変換のステップは、一般的な回転と平行移動の座標変換によって、以下の式(3)よって行うものである。
【0051】
式(3)においてI(X, Y, Z)は対応点50の座標系59での座標値である。また、位置(X
C,Y
C,Z
C)は座標系59における距離画像センサ52の設置位置であり、角度(θ, φ, ρ)は
図1の通り座標系59における設置角度であり、これらのデータは幾何データ保持部1内に存在するデータを使用する。
【0052】
【数3】
【0053】
次に、人物抽出部3は距離画像151から人物130aの部分を抽出する。この人物130aの抽出は、例えば、乗客(人物130a)がいない時に取得した乗りかご51内の背景だけの距離画像と、人物130aが撮影された距離画像151の各画素の距離を引き算して、距離が変化した部分を抽出することで実現できる。
【0054】
つまり、乗りかご51内で人物130aは距離画像センサ52から見て、乗りかご51の壁や床やドアよりも手前にあるために、距離画像151中に人物130aが進入すると、人物130aの身体がある部分は乗りかご51の背景の距離画像よりも距離が短くなるため人物が抽出できるものである。
【0055】
人物抽出部3はこの方法以外にも、距離画像151から人物130aを抽出できる他の方法を適用してもよい。例えば人物130aの形状のパターンをあらかじめ学習しておき、学習したパターンに適合する場所を人物130aとして抽出する方法を取っても良い。
【0056】
動作特徴量抽出部5は距離画像取得部2の距離画像の時系列的な変化からカメラ画像と同様の動作特徴量を抽出する。本実施例ではこの動作特徴量の抽出には高次立体局所自己相関を適用している。この高次立体局所自己相関による動作特徴量の抽出方法は、例えば「南里卓也、大津展之、“複数人動画像からの異常動作検出”、“コンピュータビジョンとイメージメディア”、P.43−50、2005年10月」に示されている。
【0057】
そして、この高次立体局所自己相関の抽出では、まず2時刻の距離画像151の各画素の距離値の変化量を求める。
図3に示す距離画像151の場合、この変化量は距離画像151中で乗客130aが動いた部分で大きくなる。
【0058】
特に、人物130aは壁154aを蹴っているので、脚部を中心に距離値の変化量が大きくなる。
【0059】
更に、人物130aの身体の中で、脚部の動きにつれて副次的に動く部分での距離値の変化量は大きくなる。つまり、脚部が蹴る時にバランスを取るために振る腕や、壁154aを蹴った反動で揺れる上体がその一例である。
【0060】
次に、高次立体局所自己相関の抽出では距離値の変化量が所定のしきい値を超えた部分を動作の2値画素として抽出し、更に続いて連続した3時刻における動作の2値画素から動作の成分を求める。
【0061】
この高次立体局所自己相関での各々の動作の成分は、距離画像151中における動作している部分の動作の方向や、動作している部分の形状を反映する。ここで、動作の方向とは画像中において動く方向(右、右上、上、左上など)であり、動作している部分の形状とは、動作している部分の輪郭の向き(右、右上、上、左上など)である。
【0062】
そして、動作特徴量は以下の式(4)のfで表すことができる。式(4)の中のNは動作特徴量の次元(見え方と動きのパターン)であって、高次立体局所自己相関では次元Nは251が一般的であるが、これに限らないものである。
【0063】
【数4】
【0064】
はみ出し量計算部4は人物抽出部3が抽出した人物130aが距離画像センサ52の視野角からどの程度はみ出しているかを示すはみ出し量を計算する。
図4では、
図3と異なって、人物130bはドア53とは反対側の方向を向いている。
図4は人物の一部が距離画像センサ52の視野角からはみ出た例であって、人物130bの脚部の大半が距離画像センサ52の視野角から外れている。したがって、
図3と異なって、距離画像センサ52は人物130bの全体像を把握することができない。
【0065】
人物130bはドア53の反対側の壁154bを蹴っているが、脚部の大半が距離画像センサ2の視野角からはみ出ているために、距離画像151上において人物130bの脚部の動きは僅かしか映っていない。はみ出し量計算部4は人物130bの身体が定量的にどの程度はみ出ているかを計算する。
【0066】
図5を用いてはみ出し量計算部4の演算処理を説明する。
図5は乗りかご51内における人物A30と人物B30’の垂直断面を示している。
【0067】
図5において、Y
Cは距離画像センサ52の設置高さであり、θは距離画像センサ52の俯角であり、ωは距離画像センサ52の垂直方向の視野角であり、αは距離画像センサ52の視野の下限と鉛直方向が成す角度であり、L及びL’は人物A30及び人物B30’と距離画像センサ52の床面上の距離であり、Pは人物A30のはみ出し量であり、参照番号40は人物A30の中で距離画像センサ52の視野角からはみ出たはみ出し部分である。
【0068】
尚、距離Lは人物30の重心点の座標値(X,Y,Z)の平面上における原点Oからの距離(X
2+Y
2)
1/2で計算する。
【0069】
人物A30の重心点は以下のような方法で求めることができる。まず距離画像151中の人物A30の重心点及びその重心点の距離値を求め、次にこの重心点の距離値と幾何データ保持部1に記憶されている距離画像センサ52の設置位置と設置角度から重心点の座標系59での座標値(X,Y,Z)を計算することで求められる。
【0070】
尚、人物A30の重心点は人物A30の代表点を求めた一例であって、人物A30から他の代表点を求めても良い。例えば人物A30の頭頂部を代表点として抽出する方法を取っても良いものである。
【0071】
図5において、距離Lに応じて人物A30のはみ出し量Pは以下の式(5)で計算できる。ここで、式(5)中のmax(,)は最大値をとる関数である。
【0072】
式(5)において、距離Lが大きいほどmax(,)関数の第2項は小さくなり、距離Lが所定の値より大きくなるとはみ出し量Pは0となる。式(5)でP=0のとき人物A30のはみ出しは無く、距離画像151内で人物A30の全身が映っている。例えば、
図5において距離L’が大きい人物B30’のはみ出し量を計算すると0であってはみ出しは無いことがわかる。
【0073】
【数5】
【0074】
動作特徴量補正部6は
図6のフローチャートを実行し、はみ出し量計算部4で計算したはみ出し量に応じて、距離画像センサ52の視野角からはみ出た人物の動作特徴量が距離画像センサ52の視野角に全身が入っている人物の動作特徴量に近づくように補正するものである。ここで、この補正の手法としては以下に説明する統計学的な推定方法を使用する。本実施例では回帰推定により補正を行なうようにしている。
【0075】
図6のフローチャートにおいて、ステップ1(以下、ステップを“S”と省略して表記する)でははみ出し量が無いかを判定して、はみ出し量が無ければS4に進んで動作特徴量を補正しないという処理を実行する。この場合は人物B30’の全身が距離画像151に存在しているので、人物の全身像から動作特徴量を求めることができる。
【0076】
S1ではみ出し量が有ると判定された場合はS2に進んで、人物A30の身体の一部が距離画像センサ52からはみ出た時の動作特徴量から人物A30の全身が距離画像センサ52の視野内に入っている場合の動作特徴量を回帰推定するために、はみ出し量の値に応じて回帰推定のパラメータ(回帰係数)を選択する。
【0077】
ここで回帰推定とは、事前にサンプルを収集した2群の変数の目的変数と説明変数が与えられたときに、目的変数と説明変数の統計的な相関を利用して、説明変数の値に対して最小2乗の意味で統計的に最適な目的変数の値を計算する手法である。
【0078】
回帰係数とは、この回帰推定に用いるパラメータである。一般に、説明変数をx=[x
1,x
2…x
N]とし、目的変数をyとし、説明変数及び目的変数の平均値をμ
x =[μ
x1,μ
x2…μ
xN]、及びμ
yとし
、回帰係数a=[a
1,a
2…a
N]としたとき、目的変数yの回帰推定値y’は式(6)で計算できる。
【0079】
【数6】
【0080】
S2では、
図7に示すはみ出し量毎の回帰推定のパラメータのテーブルT1のデータを参照しながら、はみ出し量が無い時(人物の全身が映っている時)の動作特徴量を目的変数とし、はみ出し量が有る時の動作特徴量を説明変数として回帰推定を行う。S2でははみ出し量がPのとき、テーブルT1において、Pに最も近いはみ出し量P
kを選択する。このテーブルは一つの例であって、これ以外も多くの変数を取り扱うことができる。
【0081】
S2で回帰係数の選択が完了するとS3に進んで、はみ出し量が無い時の動作特徴量の第j成分の回帰推定値f
j’を以下の式(7)で演算する。尚、式(7)においてμ
fjは動作特徴量の第j成分の事前のサンプルの平均値であり、事前に計算しておく。動作特徴量補正部6では式(7)を全成分で演算することによって、はみ出し量が有る時の動作特徴量[x
1,x
2…x
N]から、はみ出し量が無い時の動作特徴量の回帰推定値f’=[f
1',f
2'…f
N']を演算することができる。
【0082】
【数7】
【0083】
動作特徴量補正部6はこの回帰推定値f’をもってはみ出し量を補正した補正動作特徴量として出力する。テーブルT1の回帰推定のパラメータは、事前に所定のはみ出し量[P
1,P
2…P
M]の人物A30、及びはみ出し量が無い人物B30’の夫々のサンプルの動作特徴量から計算しておくようになっている。
【0084】
この回帰推定値f’には、以下の様な性質がある。今、
図4の壁154bを蹴る人物130bのはみ出し量をPとして、動作特徴量補正部6が動作特徴量の回帰推定値f’を推定するケースを考える。
【0085】
この場合、
図3のはみ出し量が無い人物130aのように壁154aを蹴る動作、あるいは乗りかご51のいずれかの壁を蹴る動作の動作特徴量を含めたサンプルからテーブルT1の回帰推定のパラメータが適切に計算されていることを前提とする。
【0086】
図3と
図4を比べると、人物130bは脚部がほとんど映っていないために、人物130bの動作特徴量f
bは脚部の動きが欠落している分だけ、人物130aの動作特徴量f
aよりも脚部の動きや形状を捉える成分の値が小さくなる。
【0087】
ただし、人物130bには動作特徴量抽出部5の説明で述べた通り、脚部で壁154bを蹴ることに伴う腕の振りや上体の揺れの動作があるために、これらの動作ははみ出し量が無いときの動作特徴量の脚部で蹴る動きに応じた成分と相関を持って、式(7)においてはみ出し量が無い時の動作特徴量f’を推定することが可能となる。
【0088】
動作認識部7は動作特徴量補正部6が出力した動作特徴量を入力として、事前に登録された動作特徴量に関連したカテゴリの中から最も適切な動作を類推して認識する。
【0089】
これらのカテゴリには、
図3のような壁を蹴る動作の他、乗りかご51内で想定される幾つかの動作を含めておく。この動作の例としては、壁を殴る動作、他の人物を襲う動作といった異常挙動や、乗りかご51を人物が通常に乗車するときの乗りかご51の中で歩く動作、髪を整える動作といった正常挙動が挙げられる。この動作特徴量に関連したカテゴリはこれ以外にも多くの動作を含ませることができる。
【0090】
また、動作認識部7の認識処理の確からしさを高めるためにはニューラルネットワーク技術を適用することが有効である。事前にカテゴリ毎の動作特徴量の学習サンプルから、ニューラルネットワークの荷重係数を学習しておけば実現できるようになる。この学習に用いる動作特徴量ははみ出し量が無いものを適用する。
【0091】
更に、動作認識部7の認識機能はニューラルネットワーク以外にも、複数のカテゴリを扱うことができる識別器を適用して実現できる。例えば、SVM(Support Vector Machine)や学習ベクトル量子化といった識別器を用いることによって動作認識部7での認識処理を実現できる。
【0092】
制御部8は動作認識部7が認識した動作に応じて以下のような異常対応制御を実行するが、どのような制御を行なうかは事業者の要望に沿うように決定されれば良いものである。
【0093】
例えば、制御部8は、動作認識部7によって人物の異常挙動を認識すると、
図1において乗りかご51内の図示しない記録装置に向けて距離画像センサ52の距離画像、もしくは乗りかご51内の図示しないカメラの映像、すなわち、異常挙動を記録する制御、あるいは、図示しないスピーカやモニタといった警報装置に向けて警報を出力する制御、あるいは、乗りかご51の行先階の変更などの乗りかごの階床停止制御やドアの開閉を行うドア制御のうち、少なくとも一つ以上の制御を実行するとよいものである。
【0094】
例えば、
図3のような壁を蹴る動作といった異常挙動を動作認識部7が認識した時、制御部8に設けられた異常対応制御部は乗りかご51内の記録装置に向けて、その証拠となる距離画像もしくはカメラの映像を記録する。この時、どの様な異常挙動に対して記録を行ったかが容易にわかるように、距離画像もしくはカメラの映像に上述した動作のカテゴリを付加してもよい。
【0095】
或いは、制御部8に設けられた異常対応制御部はスピーカやモニタに向けて、異常挙動している人物に向けてその挙動を制止するように警報を出力する、或いは、制御部8に設けられた異常対応制御部は乗りかご51を最寄りの階に停止させて開閉ドアを開け、異常挙動している人物に降車するように促してもよい。また、異常挙動を行なっている人物に対して周囲の乗客の安全を確保するため、中央管理センタに連絡して警備員を呼ぶような対応をしても良い。
【0096】
以上に説明した第1の実施形態によれば、距離画像センサ52に身体の一部がはみ出た人物の動作であっても、高い精度で人物の動作を認識することが可能となる。また、その認識した動作を利用して、記録装置での記録、スピーカやモニタでの警報、乗りかご51の制御が可能となるものである。
【0097】
第1の実施形態の説明では、人物の下部分が距離画像センサ52の視野角からはみ出るケースを例に挙げて説明したが、人物の上部分が距離画像センサ52の視野角からはみ出る場合も同様にして扱えるものである。
【0098】
このとき、はみ出し量計算部4は人物の位置に応じて距離画像センサ52の上側の視野角の上限よりも上側にあるはみ出し量を計算する。また、動作特徴量補正部6には、事前に人物の上側のはみ出し量毎にテーブルT1と同様の回帰推定のパラメータのテーブルを用意しておき、はみ出し量計算部4が計算した上側のはみ出し量に応じて回帰推定のパラメータを選択する。人物の左側や右側がはみ出す場合も同様に扱えるものである。
【0099】
第1の実施形態の説明では、動作特徴量補正部6は回帰推定を使って動作特徴量を補正したが、連続値を推定可能な他の統計的な推定方法を使っても良い。例えば、動作特徴量fの2次以上の項(f
12,f
22,f
1f
2等)を持った重回帰分析を適用することができる。また、ファジー推論を用いても良いものである。
【0100】
動作特徴量補正部6に回帰推定以外の推定方法を適用する場合、適用した推定方法に応じて式(7)の補正式を変更する。また、適用した推定方法に応じてテーブルT1中のデータを変更しておくことが必要である。
【0101】
第1の実施形態において、テーブルT1のデータを作成するためには、はみ出し量毎に人物が動作をしている距離画像151のサンプルを集めてから動作特徴量を抽出する必要がある。
【0102】
距離画像151のサンプルは、動作認識部7のカテゴリをカバーするように多くのカテゴリの動作から抽出する必要がある。距離画像151のサンプルは、実際に人物を捉えた距離画像151を撮影する代わりに、コンピュータグラフィックスで合成した人物で代用しても良い。
【0103】
コンピュータグラフィックスの人物は、実際の人物と同様の大きさを持ち、また同様の関節を持つものが望ましい。コンピュータグラフィックスの人物の動作は、その関節を制御することで作成することができる。
【0104】
コンピュータグラフィックスの人物の距離画像は、幾何データ保持部1の視野角や設置角度や設置位置に応じた仮想の撮像系をコンピュータグラフィックスに設けて、コンピュータグラフィックスにおいてコンピュータグラフィックスの人物と仮想の撮像系の距離値を画素毎に計算することで求める。
【0105】
この様にコンピュータグラフィックスを利用して距離画像151のサンプルを合成すると、実際に人物を捉えた距離画像151を撮影するよりも少ない工数で前記距離画像151のサンプルを収集できて効率化が図れる。
【0106】
コンピュータグラフィックスの人物には、身長、体形、服装にバリエーションを持たせてもよく、距離画像151の人物等の身長、体形、服装が多様な場合も、その多様さをカバーするようにテーブルT1のデータを作成しておけば良いものである。
【実施例3】
【0120】
以下に示す第3の実施形態になる画像認識装置は、人物の方向によって動作特徴量がばらつく場合でも、撮像された視野角内の人物の動作を高い精度で認識することができるようにしたものである。
【0121】
第3の実施形態において、全体的な画像認識装置の構成は
図1に示したものと同様である。そして、第1の実施形態である
図2に示す機能ブロックと異なるのは、幾何データ保持部1、はみ出し量計算部4、及び動作特徴量補正部6であり、その他の機能ブロックは同様の機能ブロックである。
【0122】
第3の実施形態では、第1の実施形態で用いていた幾何データ保持部1、はみ出し量計算部4、及び動作特徴量補正部6の代わりに、新たに記憶情報を追加した幾何データ保持部11、周囲構造物認識部12、及び人物座標変換部13に置き換えたものである。
【0123】
図11において、周囲構造物認識部12は距離画像センサ52の距離画像において人物の周辺の構造物(周囲構造物)を抽出する機能を備えている。
【0124】
また、幾何データ保持部11は、第1の実施形態で使用した幾何データ保持部1のデータ(距離画像センサ52の視野角や設置角度や設置位置)に加えて、周囲構造物認識部12が参照する構造物に関するデータを記憶、保持している。
【0125】
人物座標変換部13は人物抽出部3が抽出した距離画像151の人物130a及び130b等の動作が周囲構造物を対象とした動作である場合に、距離画像151上における人物の動作の方向が、人物の位置に寄らず予め定められた基準方向に揃うように、人物の距離画像の座標変換を行う機能を備えている。
【0126】
つまり、乗りかごの壁を表す線分254a乃至線分254dのどの線分に対して、例えば人物が殴るといった動作を行なっているかを判断し、上方(望ましくは真上)から見た距離画像上における人物の動作の方向(この場合は人物が殴る対象となっている線分に向かう方向)を予め定められた基準方向(例えば距離画像上で上方向)に揃うように人物の距離画像を座標変換することで人物の動作方向を揃えるものである。
【0127】
ここで、
図12において人物231aは線分254aに対して殴る動作を行ない(動作方向は上方向)、
図13において人物231bは線分254bに対して殴る動作を行なっている(動作方向は下方向)。もちろん、線分254c及び線分254dに対しても殴る動作を行なう場合がある。何れの場合も、動作方向が基準方向である上方向になるように座標変換を行って人物の動作方向を特定の基準方向にそろえるようにしてから特徴量を抽出することで、人物の動作方向による特徴量のばらつきを抑制できるようになる。
【0128】
次に、幾何データ保持部11、周囲構造物認識部12、及び人物座標変換部13の詳細機能を説明する。
【0129】
幾何データ保持部11の構造物のデータは、乗りかご51の壁に関する情報を保持している。乗りかご51内の四方に壁があること、各壁が床面に垂直であること、隣り合う各壁が直交することを情報として記憶、保持されている。
【0130】
周囲構造物認識部12は、まず距離画像151の各画素の距離値を式(1)、及び式(2)によって、座標系59の座標値(X,Y,Z)に変換する。次に、この座標値を仮想的に真上から見た距離画像を合成する。
【0131】
図12は乗りかご51を真上から見た距離画像の一例であって、参照番号251は真上から見た距離画像、参照番号254a,254b,254c,254dは距離画像の線分であり、乗りかご51の壁を表している。また、参照番号231aは線分254aの方向を向いて殴る動作をする人物である。
【0132】
座標値を仮想的に真上から見た距離画像の距離値は、
図14と同様に距離画像151の画素150の対応点50から仮想視点までの距離である。周囲構造物認識部12は、幾何データ保持部11の乗りかご51内の壁の条件(4方に壁があること、各壁が床面に垂直であること、隣り合う各壁が直交すること)、及び線分254a,254b,254c,254dが乗りかご51内の壁であることを認識する。尚、線分254a,254b,254c,254dは、距離画像251にハフ変換等による直線抽出アルゴリズムを適用して求めても良い。
【0133】
人物座標変換部13は周囲構造部物認識部12が認識した周囲構造物のうち、どの周囲構造物が人物の動作の対象になっているか、および、真上から見た距離画像251上での人物の動作方向を判断し、人物の動作方向が基準方向に揃うように人物を座標変換することで、人物の動作の方向を揃える。
【0134】
図12と
図13の真上から見た距離画像251には、それぞれ壁(線分)254a及び254bに向かって殴る動作をする人物231a及び人物231bがいる。そして、人物がどの壁に対して殴る動作を行なっているかを相互の距離によって推定している。
【0135】
図12においては、人物座標変換部13は人物231aには人物231aに最も近い線分254aを基準とした座標系201aを設定する。この場合は線分254aで表された壁に進入する方向をX’軸、このX’軸を−90°回転した方向をZ’軸とする座標系を設定する。
【0136】
同様に、
図13においても、人物座標変換部13は人物231bには人物231bに最も近い線分254bを基準とした座標系201bを設定する。この場合も線分254bで表された壁に進入する方向をX’軸、このX’軸を−90°回転した方向をZ’軸とする座標系を設定する。
【0137】
人物座標変換部13は、人物231a及び231bを夫々座標系201a及び201bが乗りかご51の座標系200と一致するように回転座標変換を実行する。この場合、人物231aの回転量は0°であり、人物231bの回転量は180°となる。したがって、
図13の場合は回転されて
図12に近い距離画像となり、人物231bの動作方向は基準方向である上方向となる。
【0138】
第3の実施形態の動作特徴量抽出部7では、人物座標変換部13が座標変換した後の距離画像の人物231a及び人物231bから、第1の実施形態と同様に動作特徴量を抽出する。
【0139】
このように、第3の実施形態の画像認識装置では乗りかご51内において、乗りかご51内で壁を向いた人物の動作からほぼ近似した動作特徴量を抽出することが可能となる。この近似した動作特徴量は動作認識部7における画像認識の信頼性を向上する効果を奏することができる。
【0140】
以上述べた第3の実施形態によれば、人物座標変換部13は仮想的に乗りかご51を真上から見た人物231a等を扱っていたが、これ以外にも真下や真横からなどの他の仮想的な視点から見た距離画像を用いても良いものである。
【0141】
例えば、真横から見た仮想視点の場合、乗りかご51内の壁が右側(或いは左側)に来るように人物の座標値を座標変換する。このように仮想視点を真横にすると、横方向から見た動きが大きな動作(屈んだり、倒れたりする動作)の認識が容易になる。
【0142】
また、第3の実施形態によれば、構造物を乗りかご51の内壁としたが、これは一例であって、例えば、距離画像センサ52を駐車場に設置し、構造物として自動車を認識する構成とし、この自動車を対象に動作する人物を座標変換することによって、自動車に乗り降りする人物の動作を認識したり、自動車の窓ガラスを割るような不審な人物の動作を認識するような応用も可能である。
【0143】
以上に説明した第1の実施形態乃至第3に実施形態に代表される本発明の認識装置は典型的にはエレベータ装置の乗りかご内の人物の挙動を認識するのに利用される。
【0144】
しかしながら、冒頭でも述べたように本発明は説明した実施形態に限定されることなく、本発明の技術的な概念の中で種々の変形例や応用例をもその範囲に含むものである。
【0145】
例えば、距離画像センサを使って人物の動作を認識するシステム一般に広く適用できる。例えば、エレベータ・ホールの監視や、エスカレータ付近の事故の監視、また人物の動作を使って計算機に所定に指示を与えるジェスチャ入力装置等にも適用できるものである。
【0146】
また、これらの実施例においては画像認識装置をエレベータ装置の乗りかごに搭載した制御装置内に構築したが、これの応用展開として画像認識装置を管理センタに設け、距離画像だけを管理センタに送って管理センタ内の制御装置で画像認識を行なうようにすることも可能である