特許第6189170号(P6189170)IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ セコム株式会社の特許一覧

<>
  • 特許6189170-姿勢推定装置 図000003
  • 特許6189170-姿勢推定装置 図000004
  • 特許6189170-姿勢推定装置 図000005
  • 特許6189170-姿勢推定装置 図000006
  • 特許6189170-姿勢推定装置 図000007
  • 特許6189170-姿勢推定装置 図000008
  • 特許6189170-姿勢推定装置 図000009
  • 特許6189170-姿勢推定装置 図000010
  • 特許6189170-姿勢推定装置 図000011
  • 特許6189170-姿勢推定装置 図000012
  • 特許6189170-姿勢推定装置 図000013
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】6189170
(24)【登録日】2017年8月10日
(45)【発行日】2017年8月30日
(54)【発明の名称】姿勢推定装置
(51)【国際特許分類】
   G06T 7/70 20170101AFI20170821BHJP
   G06T 7/00 20170101ALI20170821BHJP
   A61B 5/107 20060101ALI20170821BHJP
【FI】
   G06T7/70 B
   G06T7/00 660B
   A61B5/10 300D
【請求項の数】5
【全頁数】20
(21)【出願番号】特願2013-215777(P2013-215777)
(22)【出願日】2013年10月16日
(65)【公開番号】特開2015-79339(P2015-79339A)
(43)【公開日】2015年4月23日
【審査請求日】2016年8月10日
(73)【特許権者】
【識別番号】000108085
【氏名又は名称】セコム株式会社
(74)【代理人】
【識別番号】110001210
【氏名又は名称】特許業務法人YKI国際特許事務所
(72)【発明者】
【氏名】王 雪冰
【審査官】 佐田 宏史
(56)【参考文献】
【文献】 特開2011−113313(JP,A)
【文献】 特開2012−212301(JP,A)
【文献】 特開2011−221985(JP,A)
【文献】 国際公開第2005/086089(WO,A1)
(58)【調査した分野】(Int.Cl.,DB名)
G06T 1/00,7/00−7/90
A61B 5/107
H04N 7/18
G08B 13/194−13/196
(57)【特許請求の範囲】
【請求項1】
所定位置に設置された撮像部が撮影した入力画像中の人物領域画像から複数種類の特徴量を算出して人物の姿勢を推定する姿勢推定装置であって、
前記撮像部にて撮影された第一姿勢の人物を模した第一モデル画像と、前記撮像部にて撮影された第二姿勢の人物を模した第二モデル画像を生成するモデル画像生成手段と、
画像から複数種類の特徴量を算出する特徴量算出手段と、
前記特徴量ごとに、第一モデル画像の特徴量と第二モデル画像の特徴量との相違に応じて姿勢評価用の重みを決定して姿勢評価式を生成する姿勢評価式生成手段と、
前記入力画像から人物領域画像を抽出する人物領域抽出手段と、
前記人物領域画像について算出した特徴量から前記姿勢評価式に基づいて姿勢を推定する姿勢判定手段を有することを特徴とした姿勢推定装置。
【請求項2】
前記モデル画像生成手段は、前記人物領域画像から前記撮像部の撮影空間にて推定された人物の体格に合致するように、予め記憶した所定の人物モデルを拡大又は縮小し、当該人物モデルを前記撮像部にて撮影したと仮定して第一モデル画像および第二モデル画像を生成する請求項1に記載の姿勢推定装置。
【請求項3】
前記モデル画像生成手段は、前記人物領域画像から前記撮像部の撮影空間における人物位置を推定し、当該位置に予め記憶した所定の人物モデルを配置し、当該人物モデルを前記撮像部が撮影したと仮定して第一モデル画像および第二モデル画像を生成する請求項1または請求項2に記載の姿勢推定装置。
【請求項4】
前記所定の人物モデルは、単一形状の人物モデルであって、
前記モデル画像生成手段は、前記人物領域画像から前記撮像部の撮影空間における人物の足元位置を推定し、当該足元位置を合わせて立位姿勢と横臥姿勢に人物モデルを配置し、立位姿勢の人物モデルを前記撮像部が撮影したと仮定して第一モデル画像を生成し、横臥姿勢の人物モデルを前記撮像部が撮影したと仮定して第二モデル画像を生成する請求項2または請求項3に記載の姿勢推定装置。
【請求項5】
前記所定の人物モデルは、第一姿勢の人物モデルおよび当該第一姿勢の人物モデルと形状が異なる第二姿勢の人物モデルである請求項2または請求項3に記載の姿勢推定装置。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、人物が写された画像から算出される特徴量に基づいて当該人物の姿勢を推定する装置に関する。
【背景技術】
【0002】
人物が写された画像から当該人物の姿勢を推定する装置が提案されている。姿勢の推定には、入力された画像に写された人物の領域を求め、当該領域について各種の特徴量を抽出して閾値処理する等の処理が行われる。
【0003】
例えば、特徴量として、入力画像中の人物領域の長軸方向が入力画像の横軸(X軸)となす角度を用いる技術が開示されている(特許文献1)。
【0004】
また、特徴量として、背景差分により得られた人物領域の面積を用い、閾値以上の場合には人物は床面に横臥していると判定する装置が開示されている(特許文献2)。
【先行技術文献】
【特許文献】
【0005】
【特許文献1】特開2002−197463号公報
【特許文献2】特開2000−207664号公報
【発明の概要】
【発明が解決しようとする課題】
【0006】
図11(a)〜(c)は、実際の空間を模擬した図(右図)とカメラ120が撮影した画像(左図)を示している。図11(a)〜(c)は、カメラ120を左上方に設置して、斜め上方から人物を撮影した画像である。
【0007】
図11(a)では、立位の人物121がカメラ120にて撮影されている図である。図11(b)は、人物とカメラ120とを含む鉛直面101に沿った方向に横臥している人物122がカメラ120にて撮影されている図である。図11(c)は、人物とカメラ120とを含む鉛直面101に垂直となる方向に横臥している人物123がカメラ120にて撮影されている図である。
【0008】
特許文献1では、画像中の人物領域の長軸方向(足と頭を結ぶ方向)が画像の横軸(X軸)となす角度を主軸角θとして算出し、立位であれば90°に近く、横臥であれば0°に近くなるとして、人物の姿勢を判定している。
【0009】
このため、図11(a)の立位の人物領域103と、図11(c)の横臥している人物領域105は、人物領域の長軸方向と画像の横軸(X軸)となす角度である主軸角θが90°近辺と0°近辺と大きく異なり、立位なのか横臥なのか判別は容易である。しかしながら、図11(a)の立位の人物領域103と、図11(b)の横臥している人物領域104とは、人物領域の長軸方向と画像の横軸(X軸)となす角度である主軸角θがどちらも90°近辺となり判別が困難となる。したがって、特許文献1の方法では、立位と横臥を判別することが困難である。
【0010】
特許文献2では、人物領域の面積から人物が転倒したかを検出している。図11(a)の立位の人物領域103と、図11(b)の横臥している人物領域104とは、図から明らかなように面積が大きく変動しているので立位と横臥の区別は可能である。しかしながら、図11(a)立位の人物領域103と図11(c)の横臥の人物領域105の面積は、略同じ面積を示すため立位なのか横臥なのか判別できない。したがって、特許文献2の方法では、立位と横臥を判別することが困難になる。
【0011】
このように、特徴量を1つのみ用いて人物の姿勢を推定した場合、高い確度での推定が困難であった。さらに、仮に複数の特徴量を用いたとしても、単に併用しただけでは高い精度での推定は困難である。
【0012】
そこで、本発明は、人物の姿勢を推定するにあたって複数の特徴量を用い、正しい姿勢が推定されるように特徴量を重み付けして姿勢の判別をする姿勢推定装置を提供することを目的とする。
【課題を解決するための手段】
【0013】
本発明にかかる姿勢推定装置は、所定位置に設置された撮像部が撮影した入力画像中の人物領域画像から複数種類の特徴量を算出して人物の姿勢を推定する姿勢推定装置であって、撮像部にて撮影された第一姿勢の人物を模した第一モデル画像と、撮像部にて撮影された第二姿勢の人物を模した第二モデル画像を生成するモデル画像生成手段と、画像から複数種類の特徴量を算出する特徴量算出手段と、特徴量ごとに、第一モデル画像の特徴量と第二モデル画像の特徴量との相違に応じて姿勢評価用の重みを決定して姿勢評価式を生成する姿勢評価式生成手段と、入力画像から人物領域画像を抽出する人物領域抽出手段と、人物領域画像について算出した特徴量から姿勢評価式に基づいて姿勢を推定する姿勢判定手段を有することを特徴とする。
【0014】
本発明にかかる姿勢推定装置は、姿勢の違いによる特徴量の差に応じて重み付けをして姿勢評価式を生成して用いるため、姿勢を精度良く推定できる。
【0015】
さらに、モデル画像生成手段は、人物領域画像から撮像部の撮影空間にて推定された人物の体格に合致するように、予め記憶した所定の人物モデルを拡大又は縮小し、人物モデルを撮像部にて撮影したと仮定して第一モデル画像および第二モデル画像を生成することが好適である。
【0016】
これにより、人物の体格を反映させて重みを決定するので、さらに精度良く人物の姿勢を推定できる。
【0017】
さらに、モデル画像生成手段は、人物領域画像から撮像部の撮影空間における人物位置を推定し、位置に予め記憶した所定の人物モデルを配置し、人物モデルを撮像部が撮影したと仮定して第一モデル画像および第二モデル画像を生成することが好適である。
【0018】
これにより、撮影空間における人物の位置による写り方の違いを反映させて重みを決定するので、さらに精度良く人物の姿勢を推定できる。
【0019】
さらに、所定の人物モデルは、単一形状の人物モデルであって、モデル画像生成手段は、人物領域画像から撮像部の撮影空間における人物の足元位置を推定し、足元位置を合わせて立位姿勢と横臥姿勢のモデルを配置し、立位姿勢の人物モデルを撮像部が撮影したと仮定して第一モデル画像を生成し、横臥姿勢の人物モデルを撮像部が撮影したと仮定して第二モデル画像を生成することが好適である。
【0020】
これにより、第一の姿勢として立位の姿勢、第二の姿勢として横臥の姿勢としたときに、立位姿勢と横臥姿勢との特徴量の差を反映して重み付けをした姿勢評価式を生成し、用いるため、精度良く立位姿勢または横臥姿勢の推定ができる。
【0021】
さらに、所定の人物モデルは、第一姿勢の人物モデルおよび第一姿勢の人物モデルと形状が異なる第二姿勢の人物モデルであることが好適である。
【0022】
これにより、形状の違いによる特徴量の差に応じて重み付けをするため、人物の形状の違いが生じる姿勢を精度良く推定できる。
【発明の効果】
【0023】
本発明によれば、人物の姿勢を推定するにあたって複数の特徴量を用いて姿勢評価式を生成し、当該姿勢評価式を用いて姿勢の判別をする姿勢推定装置を提供することができる。
【図面の簡単な説明】
【0024】
図1】本発明の実施の形態における横臥判定装置の構成を示すブロック図である。
図2】本発明の実施の形態における特徴量の算出方法を説明するための図である。
図3】本発明の実施の形態における入力画像の人物領域と監視領域における実際の位置の関係及び大きさの関係を例示する図である。
図4】本発明の実施の形態における入力画像の人物領域と監視領域において横臥していたときの位置の関係を例示する図である。
図5】本発明の実施の形態における立位モデル及び横臥モデルを監視領域に配置したと仮定した状態を例示する図である。
図6】本発明の実施の形態における立位モデル画像及び横臥モデル画像を例示する図である。
図7】本発明の実施の形態における横臥推定方法のメインフローチャートを示す図である。
図8】本発明の実施の形態における重みの算出方法のサブフローチャートを示す図である。
図9】本発明の変形例1における特徴量の算出方法を説明するための図である。
図10】本発明の変形例2における特徴量の算出方法を説明するための図である。
図11】従来技術を説明するための図である。
【発明を実施するための形態】
【0025】
本発明の姿勢推定装置を、立位姿勢と横臥姿勢を識別する横臥判定装置に適用した形態について説明する。
本発明の実施の形態における横臥判定装置1は、図1に示すように、撮像部10、記憶部20、画像処理部30及び出力部40を含んで構成される。横臥判定装置1は、撮像部10で撮像された画像に写された人物の立位姿勢と横臥姿勢を識別して判定する。
【0026】
本実施の形態では、横臥判定装置1として各部を一体的に説明するが、撮像部10、記憶部20、画像処理部30、出力部40とをそれぞれ別筐体とし、通信技術を駆使して必要な制御信号等を通信するようにしてもよい。また、これらを適宜組み合わせて筐体に組み込むようにしてもよい。
【0027】
撮像部10は、撮像空間を撮影した画像を入力画像として画像処理部30に出力する。撮像部10は、光学系、CCD素子又はC−MOS素子等の撮像素子、光学系部品、アナログ/デジタル変換器等を含んで構成される。これらの撮像素子は、明るさを電気信号に変換する可視光タイプでもよいし、赤外線に反応して温度を電気信号に変換する熱画像タイプとしてもよい。撮影は所定時間間隔で行う。
入力画像は、撮像部10から撮影される都度、画像処理部30を介して一時的に記憶部20に記憶される。
【0028】
本実施の形態では、撮像部10は、人物の姿勢を推定するべき場所(監視領域)の床面の上方、例えば天井に設置される。撮像部10は、支柱に取り付けてもよい。撮像部10は、撮像方向が斜め下向きに向けられて設置されているものとする。
【0029】
記憶部20は、ROM(Read Only Memory)、RAM(Random Access Memory)等の半導体メモリ、ハードディスク等のメモリ装置で構成される。記憶部20は、画像処理部30からアクセス可能であり、カメラ情報21、追跡情報22、人物モデル23の他、図示しないプログラム、入力画像、背景画像、判定処理に用いられる閾値等のデータを記憶する。
【0030】
カメラ情報21は、入力画像中の領域と監視領域の実際の位置との関係を幾何学的な方法で算出するために用いられる情報である。カメラ情報21は、撮像部10の画角、床面からの高さ、俯角の情報などの各種パラメータを含む。
【0031】
追跡情報22は、撮像部10が入力画像を取得した現時刻、入力画像から抽出された人物領域画像の位置情報(重心位置座標)、人物領域画像を追跡したフレーム数である追跡回数、後述する体格推定処理にて推定された体格情報(身長および身幅)を対応付けた情報である。人物領域画像の位置情報は、入力画像に複数の人物が存在した場合の追跡処理、および各人物の体格を推定するために用いられる。追跡回数は、後述する追跡手段により新規に出現したと判断されると、初期値として1が設定される。
【0032】
人物モデル23は、撮影対象である人物をポリゴンモデルやサーフェースモデルなどで3次元形状を表現した情報であり、少なくとも標準的な人間の身長(170cm)、身幅(60cm)および頭頂と足下を結ぶ軸(主軸)を表現したモデルである。かかる人物モデル23は、後述する体格推定処理にて推定された体格に合わせて拡大縮小される。また、本実施の形態では、「気を付け」の姿勢が人物モデル23として記憶されているものとする。
尚、予め記憶される背景画像とは、入力画像のうち撮像範囲内に人物が存在しないときの画像である。
【0033】
画像処理部30は、CPU(Central Processing Unit)、DSP(Digital Signal Processor)又はMCU(Micro Control Unit)等を含む演算装置(コンピュータ)により実現される。画像処理部30は、記憶部20に記憶している各種プログラムを読み出して実行することにより、以下に述べる各手段として機能する。
【0034】
画像処理部30は、撮像部10で撮影された入力画像を順次処理する。なお、処理する画像は、1フレーム毎に撮影時間順に処理してもよいし、数フレームおきに処理を行ってもよい。
【0035】
画像処理部30は、人物領域抽出手段301、追跡手段302、特徴量算出手段303、姿勢評価式生成手段304、評価値算出手段311及び姿勢判定手段312の各モジュールから構成されている。
【0036】
人物領域抽出手段301は、記憶部20に一時的に記憶された入力画像において生じた変化領域を抽出し、その内部を切り出す手段である。具体的には、入力画像と記憶部20に記憶された背景画像とにおいて対応する画素どうしの輝度差を求め、その差分値が輝度閾値以上となる画素を変化領域として抽出する。なお、変化領域の抽出方法は、これに限られるものではなく、時間的に隣り合う入力画像のフレーム間差分処理によって抽出した領域を変化領域として抽出する方法を採用してもよい。
【0037】
人物領域抽出手段301は、変化領域として特定された画素群について、同一の物体によるものと考えられる領域を纏めてラベリング処理を行う。ラベリング処理には、周知の処理を適用すればよい。変化領域は、通常、照明の変動やノイズの重畳等の理由により、大小様々な領域が抽出されるが、撮像部10の解像度やカメラ情報21を参照して、人らしい条件を満たす大きさ、縦横比を有する変化領域に人が写っているものとして以後の処理対象とする。この処理対象となった変化領域を、以下「人物領域」と呼び、入力画像からその内部を切り出した部分画像を以下「人物領域画像」と呼ぶ。
なお、人物領域画像の抽出方法は、これに限られるものではなく、検出対象である人物画像を学習した学習識別器によって人物領域画像を抽出する方法、人物テンプレートとのマッチング処理にて類似するとされた領域を人物領域画像として抽出する方法など種々の方法を採用してもよい。
【0038】
また、人物領域抽出手段301は、人物領域画像の入力画像中の重心位置を求め、追跡処理のために追跡手段302に出力する。
【0039】
追跡手段302は、記憶部20に追跡情報22として記憶されている前時刻における人物領域画像の位置を参照して、その位置から所定の距離以内にある現時刻における人物領域画像を同一人物によるものとみなして対応付けることにより追跡処理をする。また、前時刻における人物領域画像に対応付いた現時刻の人物領域画像の重心位置を、現時刻と対応付けて記憶部20の追跡情報22として記憶させる。なお、現時刻の人物領域画像が前時刻おける人物領域画像と対応付くと、追跡情報22の追跡回数を1加算する。
現時刻の人物領域画像に対応する記憶部20に記憶されている前時刻の人物領域画像が無かった場合、現時刻において撮像部10によって新規の人が撮像され始めたものとして、次の時刻から追跡の対象とする。
逆に、記憶部20に前時刻の人物領域画像として記憶されており、現時刻において対応する人物領域画像が無い場合には、これまで撮像部10によって撮像されていた人が入力画像に撮像されなくなったものとして、以後の処理対象から外し、記憶部20から消去する。
これらの追跡処理は、周知の方法を適用すればよいので詳細は省略する。
【0040】
なお、監視領域において人が1人しか入らないことが前提となる場合や、時間の推移による特徴量の変化を用いない場合には、追跡手段302による追跡処理は不要である。
【0041】
特徴量算出手段303は、人物領域抽出手段301にて抽出した人物領域画像から、体格特徴量、横臥判定用特徴量を求める。また、姿勢評価式生成手段304から、後述する立位モデル画像と横臥モデル画像を取得して、後述する重みを決定するための立位モデル特徴量と横臥モデル特徴量の値を求める。体格特徴量、横臥判定用特徴量、立位モデル特徴量及び横臥モデル特徴量は、抽出された人物領域画像毎に算出する。
【0042】
図2を参照して、特徴量算出手段303での処理を説明する。
図2(a)には、入力画像における縦軸(y軸)と横軸(x軸)に沿い、人物200を含む人物領域画像201の外接矩形202が示されている。外接矩形202は横幅pと高さqを有する。
図2(b)には、人物領域画像201の主軸204の方向に長辺の方向を一致させた外接矩形203が示されている。外接矩形203は、横幅wと高さhを有する。
【0043】
特徴量算出手段303は、人物の体格を推定するための体格特徴量として、以下の2つを求める。
(A)人物の身長に対応する外接矩形202の高さq
(B)人物の身幅に対応する外接矩形202の横幅p
そして、求めた体格特徴量を姿勢評価式生成手段304に出力する。
【0044】
また、特徴量算出手段303は、横臥検知に用いるための横臥判定用特徴量として、以下の5つの値を計算する。
(1)外接矩形面積fj1=外接矩形202の横幅p×高さq
(2)外接矩形アスペクト比fj2=外接矩形202の横幅p/高さq
(3)外接矩形高さfj3=外接矩形202の高さq
(4)主軸方向アスペクト比fj4=外接矩形203の横幅wと高さhについて(短い方/長い方)
(5)主軸方向長辺長fj5=外接矩形203の横幅wと高さhの長い方
そして、求めた横臥判定用特徴量を評価値算出手段311に出力する。
【0045】
また、特徴量算出手段303は、後述するように、姿勢評価式生成手段304のモデル画像生成手段313が生成した立位モデル画像の外接矩形から、上記(1)〜(5)と同様に、立位モデル特徴量(外接矩形面積fs1、外接矩形アスペクト比fs2、外接矩形高さfs3、主軸アスペクト比fs4、主軸方向長辺長fs5)を算出する。
そして、求めた立位モデル特徴量を姿勢評価式生成手段304に出力する。
【0046】
また、特徴量算出手段303は、後述するように、姿勢評価式生成手段304のモデル画像生成手段313が生成した横臥モデル画像の外接矩形から、上記(1)〜(5)と同様に、横臥モデル特徴量(外接矩形面積ft1、外接矩形アスペクト比ft2、外接矩形高さft3、主軸アスペクト比ft4、主軸方向長辺長ft5)を算出する。
そして、求めた横臥モデル特徴量を姿勢評価式生成手段304に出力する。
【0047】
上記(1)〜(5)は画像の形状に関する特徴量であったが、このほか、特徴量算出手段303は、平均輝度値やテクスチャ情報など、内部に含まれる画素の画素値に基づいた特徴量を算出して用いてもよい。
【0048】
姿勢評価式生成手段304は、人物領域画像に写った人物が、立位か横臥かを識別するために用いる判定用評価値を算出するための姿勢評価式を生成する。
姿勢評価式生成手段304は、人物領域画像が10フレーム分追跡されると体格情報(身長、身幅)を求め、特徴量算出手段303が算出した各特徴量、記憶部20に記憶されている人物モデル23などを参照して姿勢評価式を生成する。
姿勢評価式生成手段304は、モデル画像生成手段313、重み算出処理309、評価式決定処理310からなる。以下、各処理を説明する。
【0049】
モデル画像生成手段313は、人物領域画像に写っている人物と同じ体格の人物の姿勢が、立位であることを仮定した場合の立位モデル画像と横臥であることを仮定した場合の横臥モデル画像を生成し、重み算出処理309に出力する。
モデル画像生成手段313は、2次元/3次元変換処理305、体格推定処理306、3次元モデル生成処理307、モデル領域生成処理308からなる。
【0050】
2次元/3次元変換処理305は、入力画像における2次元の座標値と、監視領域を世界座標系にて表現した3次元の位置を相互に変換する処理である。
変換する処理は、記憶部20にカメラ情報21として記憶されている撮像部10の画角、設置高さ、俯角等の情報に基づいて周知の幾何学的方法により実現される。
2次元/3次元変換処理305により、例えば入力画像における人物領域画像の座標情報に基づき、監視領域に存在する人物の位置を算出することができる。その例を、図3を用いて説明する。
【0051】
図3(a)には、入力画像において人物200により生じた人物領域画像201が抽出された様子が示されている。2次元/3次元変換処理305は、人物領域画像201の最下点205を人物200の足下位置(人物位置)とみなし、最下点205の入力画像内での座標値を、図3(b)に示すように、監視領域に別途定義された世界座標系における座標値に変換する。図3(b)には、監視領域に実際に立っている人物206が示されており、人物領域画像201の最下点205に相当するのが監視領域における実際の足下位置207である。
【0052】
体格推定処理306は、人物領域画像に写っている人物の体格を推定する。体格は、身長及び身幅とし、推定された身長及び身幅を「推定身長」及び「推定身幅」と称する。
【0053】
体格推定処理306は、図3(a)に示す人物領域画像201の高さと幅、即ち人物領域画像201の外接矩形202の高さqと横幅pを、2次元/3次元変換処理305により、図3(b)に示すように、監視領域の足下位置207に実際に立っている人物206の推定身長q’および推定身幅p’として求める。
求められた推定身長と推定身幅の値は、現時刻の人物領域画像の情報と関連づけられて、記憶部20の追跡情報22に記憶される。
【0054】
なお、本実施の形態では、人物が画像に写り始めてから所定フレーム数は、その人物が立って歩行している立位の人物と仮定している。体格推定処理306は、人物が入力画像に写り始めてから所定フレーム数に亘り推定身長及推定身幅を求め、その平均値を体格情報として追跡情報22に記憶し、その後、さらなる推定身長及び推定身幅の算出処理は省略する。この所定フレーム数は、人物の体格を画像から推定する際に精度を向上させるのに適切なフレーム数であり、横臥判定装置1の設置条件などによって定められる。本実施の形態では10フレームとしている。
体格推定処理306は、10フレーム分の平均値を用いるのではなく、1フレームごとに算出された推定身長と推定身幅をそのまま用いてもよい。
【0055】
3次元モデル生成処理307は、体格推定処理306にて算出された推定身長と推定身幅を用い、記憶部20の人物モデル23を読み出し、変形して、立位モデル及び横臥モデルを生成する。
【0056】
まず、3次元モデル生成処理307は、まず人物領域抽出手段301にて抽出された人物領域画像について、床面身体方向を決定する。これについて、図4を用いて説明する。床面身体方向とは、人物領域画像に写った人物が床面に横臥していると仮定した場合の身体の方向である。
図4(a)に示すように、3次元モデル生成処理307は、人物領域画像201の主軸350を求め、主軸350上の画面上における2つの点として、頭頂である端点Aと足下である端点Bの座標を求める。そして、3次元モデル生成処理307は、図4(b)に示すように、2次元/3次元変換処理305により、端点Aと端点Bを監視領域の床面上の点A’及び点B’の座標(世界座標)として算出する。
【0057】
3次元モデル生成処理307は、撮像部10の視軸351と床面との交点および撮像部10の鉛直下の床面位置を通るv軸、撮像部10の視軸351と床面との交点を原点として、v軸に直交するu軸を考え、図4(c)に示すように、床面上にて点A’と点B’を結んだ直線352がu軸と成す角度を床面身体方向353として求める。なお、床面上の点B’は、図3(b)に示す足下位置207を用いてもよい。
【0058】
続いて、3次元モデル生成処理307は、「立位モデル」と「横臥モデル」を算出して、仮想的に監視領域における床面上に両モデルを配置する処理を行う。
【0059】
図5を参照して、両モデルを仮想的に配置する処理を説明する。3次元モデル生成処理307は、記憶部20に記憶されている人物モデル23を読み出し、体格推定処理306にて推定された推定身長及び推定身幅に合致するよう、人物モデル23を拡大又は縮小する。そして、3次元モデル生成処理307は、監視領域の床面における点B’に人物モデル23の足下の位置を一致させ、立位モデル400を仮想的に配置する。立位モデル400は、床面上にて直立しているものとする。さらに、同じく点B’に足下の位置を一致させ、立位モデル400と同じ大きさの横臥モデル401を仮想的に配置する。横臥モデル401の、頭頂と足下を結んだ方向は、図4(c)の床面身体方向353と一致させる。
【0060】
モデル領域生成処理308は、監視領域の床面に仮想的に配置した立位モデル400と横臥モデル401を、撮像部10にて撮影したと仮定したときの画像中における立位モデル領域及び横臥モデル領域とを算出する。
【0061】
図6(a)は、監視領域の床面の点B’の位置に立位モデル400を配置したときに、撮像部10が撮影したと仮定した立位モデル400の輪郭を表わす立位モデル領域の内部をモデル画像生成手段313が切り出した立位モデル画像500を示したものである。また入力画像における縦軸(y軸)と横軸(x軸)に沿い、立位モデル画像500を含む外接矩形501及び図示しない主軸方向に長辺の方向を一致させた外接矩形502が示されている。なお、立位モデルの場合は主軸方向がy軸に一致することになる。
図6(b)は、監視領域の床面の点B’の位置に横臥モデル401を配置したときに、撮像部10が撮影したと仮定した横臥モデル401の輪郭を表わす横臥モデル領域の内部をモデル画像生成手段313が切り出した横臥モデル画像503を示したものである。また入力画像における縦軸(y軸)と横軸(x軸)に沿い、横臥モデル画像503を含む外接矩形501、および横臥モデル画像503の図示しない主軸方向に長辺の方向を一致させた外接矩形502が示されている。
【0062】
前述したように、特徴量算出手段303は、モデル領域生成処理308が生成した立位モデル画像500から立位モデル特徴量、横臥モデル画像503から横臥モデル特徴量を求める。
すなわち、特徴量算出手段303は、立位モデル画像500の外接矩形501と外接矩形502から、立位モデル特徴量(外接矩形面積fs1、外接矩形アスペクト比fs2、外接矩形高さfs3、主軸アスペクト比fs4、主軸方向長辺長fs5)を算出する。
また、特徴量算出手段303は、横臥モデル画像503の外接矩形501と外接矩形502から横臥モデル特徴量(外接矩形面積ft1、外接矩形アスペクト比ft2、外接矩形高さft3、主軸アスペクト比ft4、主軸方向長辺長ft5)を算出する。
立位モデル特徴量と横臥モデル特徴量の算出方法は、特徴量算出手段303の説明の箇所で述べた通りであり、外接矩形501の高さq、横幅p、外接矩形502の高さh、横幅wを用いて算出される。
【0063】
立位モデル特徴量fsi(i=1〜5)は、図3(b)における人物の足下位置207にて、その入力画像に写っている人物の体格と同じ人物が立位であった場合に得られる各特徴量を表わしている。同様に、横臥モデル特徴量fti(i=1〜5)は、図3(b)における人物の足下位置207にて、その入力画像に写っている人物の体格と同じ人物が横臥していた場合に得られる各特徴量を表わしている。
【0064】
重み算出処理309は、前述の立位モデル特徴量及び横臥モデル特徴量に基づいて、横臥判定用特徴量のそれぞれに対する重みw1〜w5を算出する。重みは、抽出された人物領域の各々について横臥判定用特徴量毎に算出する。
具体的には、以下の条件式に応じて重みw1〜w5を決定する。以下では、iは1〜5の整数とする。
【0065】
すなわち、|fsi−fti|≦thiの条件が成立すれば重みwi=0.2、成立しなければ重みwi=0.8とする。thiは、fsiとftiの差が、立位と横臥とで有意な差と認められる値であって、実験的経験的に予め定められた閾値である。
【0066】
つまり、これらの立位モデル特徴量fsiと横臥モデル特徴量ftiとの差が小さいということは、立位と横臥の違いによる特徴量の値の変化が小さく、その特徴量に対応する横臥判定用特徴量fjiを用いて立位と横臥を峻別するのは難しいことを意味している。そのような横臥判定用特徴量fjiは、姿勢推定のための評価値を求める際には重視すべきではないので、立位モデル特徴量fsiと横臥モデル特徴量ftiとの差が小さいほど重みwiを小さな値とする。
逆に、立位モデル特徴量fsiと横臥モデル特徴量ftiとの差が大きいということは、立位と横臥の違いによる特徴量の値の変化が大きく、その特徴量に対応する横臥判定用特徴量fjiを用いて立位と横臥を峻別するのは容易であることを意味している。そのような横臥判定用特徴量fjiは、姿勢推定のための評価値を求める際には重視すべきであるので、立位モデル特徴量fsiと横臥モデル特徴量ftiとの差が大きいほど重みwiを大きな値とする。
【0067】
なお、判定に用いられる特徴量は、これらの特徴量に限定されるものではなく、判別される姿勢の間において相違が生ずるであろうと考えられる特徴量であればよい。本実施の形態では、立位と横臥との間で値に違いが生ずると考えられる特徴量であればよい。
【0068】
また重みwiの数値は例示であり、重みwiは、立位モデル特徴量と横臥モデル特徴量との差が閾値以下の場合に当該差が閾値より大きい場合よりも小さくなるように設定することが好適である。
【0069】
例えば、立位モデル特徴量と横臥モデル特徴量との差が閾値以下という条件が成立した場合には重みwi=0、成立しない場合には重みwi=1としてもよい。この場合、重みwiが0である特徴量については後述する判定用評価値には反映されず、重みwiが1である特徴量については後述する判定用評価値に完全に反映させることになる。
【0070】
また、重みwiは、立位モデル特徴量と横臥モデル特徴量の差に応じた連続値としてもよい。例えば、|fsi−fti|の最小値は両者が等しいときの0であり、最大値はカメラ情報21に基づいて算出することができる。よって、|fsi−fti|が最小の0のときには重みwiを0とし、最大のときには重みwiを1とするように、重みwiを|fsi−fti|の値に比例する値に設定してもよい。ここで、|fsi−fti|が最大とは、監視領域に仮想的に立位モデルと横臥モデルを多数配置して求められた|fsi−fti|の最大のものをいう。
【0071】
評価式決定処理310は、重み算出処理309にて算出されたwiを用い、入力画像中の人物が立位か横臥かを峻別するための判定用評価値を算出する姿勢評価式を決定する。
本実施の形態では、姿勢評価式として次式を用いる。
【数1】
【0072】
数式(1)において、vmiは中間評価値であり、横臥判定用特徴量fjiと立位モデル特徴量fsiとの差の大きさと、横臥判定用特徴量fjiと横臥モデル特徴量ftiとの差の大きさを比較し、前者が小さい場合には立位であるとして中間評価値vmiに+1が設定され、後者が小さい場合には横臥であるとして中間評価値vmiに−1が設定される。
【0073】
評価値算出手段311は、特徴量算出手段303において算出された横臥判定用特徴量fji(i=1〜5)を用いて、評価式決定処理310で決定された数式(1)に従い、入力画像中の人物の横臥の有無を判定するための判定用評価値Vjを算出する。そして、評価値算出手段311は、算出した判定用評価値Vjを姿勢判定手段312に出力する。
【0074】
例えば、外接矩形面積fj1と外接矩形面積fs1との差の大きさと、外接矩形面積fj1と外接矩形面積ft1との差の大きさを比較し、前者が小さい場合には、外接矩形面積によれば人物は立位であるとして中間評価値vm1に+1を設定し、後者が小さい場合には人物は横臥であるとして中間評価値vm1に−1を設定する。同様に、外接矩形アスペクト比、外接矩形高さ、主軸方向アスペクト比及び主軸方向長辺長の特徴量のそれぞれについて人物が立位であるか、横臥であるかを判定し、中間評価値vm2〜vm5に+1又は−1を設定する。
【0075】
これは、横臥判定用特徴量fjiと立位モデル特徴量fsiとの差が小さいほど横臥判定用特徴量fjiを用いて姿勢判定すると、人物領域の人物の体格と同じ人物が立位である可能性が高いことを意味し、横臥判定用特徴量fjiと横臥モデル特徴量ftiとの差が小さいほど横臥判定用特徴量fjiを用いて姿勢判定すると、人物領域の人物の体格と同じ人物が横臥である可能性が高いことを意味する。そして、中間評価値vmiは、人物が立位である可能性が高いと大きな値(例えば+1)に設定し、横臥である可能性が高いと小さな値(例えば−1)に設定される。
【0076】
評価値算出手段311が求めた判定用評価値Vjは、評価対象となっている人物領域が立位モデル領域に近いほど大きな値となり、横臥モデル領域に近いほど小さな値となる。すなわち、評価対象となっている人物領域の人物が人物モデルの立位に近いほど判定用評価値Vjの値は大きくなり、人物モデルの横臥に近いほど判定用評価値Vjの値は小さくなる。
【0077】
姿勢判定手段312は、判定用評価値Vjが所定の判定閾値を超えていると、入力画像中の人物は立位であると判定し、そうでなければ横臥であると判定して、その旨を出力部40に出力する。ここで、判定閾値は、人物が立位であるときと人物が横臥であるときとを識別可能な値として、実験的に決められた値である。
【0078】
出力部40は、外部の機器に接続するためのインターフェースである。例えば、図示しない警備装置の制御装置に接続され、姿勢判定手段312から横臥を表わす信号を受け取ると、当該制御装置が受信できる形式の信号に変換して出力する。
【0079】
例えば、横臥判定装置1がオフィスビルや商業ビルに設置されている場合、急病で高齢者が行き倒れたとして、その旨を守衛室に設置された警備装置に通報する。
【0080】
次に、横臥判定装置1の動作を図7に示すフローチャートに沿って説明する。図7のフローは、入力画像を1フレーム取得する毎に実行する。
【0081】
ステップS100では、撮像部10が入力画像を取得して画像処理部30に出力し、画像処理部30は入力画像を記憶部20に一時記憶させる。入力画像は、画像処理部30による処理に供される。ステップS120では、人物領域抽出手段301が入力画像から人物領域画像を抽出する。
【0082】
ここでは、以下のステップS130〜S420を、人物領域画像が1つ抽出された場合について説明するが、人物領域画像が複数抽出された場合には人物領域画像毎に行われる。
【0083】
ステップS130では、追跡手段302にて、抽出された人物領域画像の追跡処理を行う。
ステップS140では、姿勢評価式生成手段304が、記憶部20に記憶されている追跡情報22を参照して、抽出された人物領域画像の追跡回数が「11」未満か否かを判定する。追跡回数が「11」未満の場合には、体格推定処理をするためにステップS160に進み(Noの分岐)、追跡回数が「11」以上の場合には、ステップS260〜S340の姿勢評価式を決定する処理、およびS240の横臥判定用の特徴量を算出する処理(Yesの分岐)に進む。
【0084】
まず、ステップS160では、2次元/3次元変換処理305と体格推定処理306が、記憶部20のカメラ情報21を参照し、人物領域画像に写っている人物の身長と身幅を推定する処理を行う。
体格推定処理306は、現時刻において、追跡情報22の追跡回数が「10」になっていると(ステップS180のYesの分岐)、10フレーム分の推定身長と推定身幅について平均を求めて体格情報とする(ステップS200)。
現時刻において、追跡情報22の追跡回数が「10」になっていないと、推定身長と推定身幅について平均を求める処理(ステップS200)は行わない。
【0085】
ステップS220では、追跡情報22の追跡回数が「9」までは、ステップS160において体格推定処理306が求めた推定身長と推定身幅がそのまま人物領域画像に関する情報のひとつとして追跡情報22に記憶される。追跡情報22の追跡回数が「10」になると、ステップS200において体格推定処理306が求めた推定身長と推定身幅の平均値が体格情報として追跡情報22に記憶される。
そして、現時刻の人物領域画像についての処理を終了する。
【0086】
ステップS140においてYesとなると、評価式を決定するための処理に進む。
ステップS260では、3次元モデル生成処理307が、人物モデル23と、ステップS220において記憶された体格情報(推定身長と推定身幅の平均値)を読み出す。
【0087】
ステップS280では、3次元モデル生成処理307が、人物モデル23を体格情報に合致するように拡大縮小して3次元モデルを生成する。
ステップS300では、モデル領域生成処理308が、3次元モデルを監視領域に立位させて、撮像部10にて撮影したと仮定した画像における立位モデルの領域である立位モデル領域と、3次元モデルを監視領域に横臥させて、撮像部10にて撮影したと仮定した画像における横臥モデルの領域である横臥モデル領域を求める。そして、モデル画像生成手段313が、立位モデル領域と横臥モデル領域の内部を切り出して、それぞれ立位モデル画像と横臥モデル画像を生成する。
【0088】
ステップS320では、重み算出処理309が、立位モデル画像と横臥モデル画像を用いて、外接矩形面積、外接矩形アスペクト比、外接矩形高さ、主軸アスペクト比、主軸方向長辺長のそれぞれの重みを求める。
図8を参照して、重み算出処理について詳細に説明する。
【0089】
ステップS3201では、重み算出処理309が、5つの特徴量から1つを選択し、立位モデル領域から求めた立位モデル特徴量の値と、横臥モデル領域から求めた横臥モデル特徴量の値の差を求める。
当該差が閾値を超える場合には(ステップS3203のYesの分岐)、その特徴量についての重みwiを大きな値、例えば0.8とし(ステップS3203)、さもなくは重みwiを小さな値、例えば0.2とする(ステップS3204)。
全ての特徴量について重みの値を決定すると、図7のステップS340に戻る。
【0090】
ステップS340では、評価式決定処理310が、人物が立位か横臥かを判定する判定用評価値Vjを算出するための姿勢評価式を決定する処理を行う。本実施の形態では数式(1)に、ステップS320にて算出した重みwiを代入して定める。
【0091】
一方、ステップS240では、特徴量算出手段303が、人物領域画像の高さや幅などから、横臥判定用特徴量を算出する。
【0092】
ステップS360では、評価値算出手段311が、ステップS240にて求めた横臥判定用特徴量の値を、ステップS340にて定めた姿勢評価式に代入し、判定用評価値Vjを求める。
【0093】
ステップS380では、姿勢判定手段312が、判定用評価値Vjと判定用閾値を比較し、人物領域画像に写っている人物が立位か横臥かを判定する。
ステップS400では、姿勢判定手段312が、人物領域画像に写っている人物の横臥を判定した場合には(Yesの分岐)、その旨を出力部40に出力する。ステップS420では、出力部40は、外部の機器に通知する。
姿勢判定手段312が、人物領域画像のいずれについても立位を判定した場合には特に処理を行わない(ステップS400のNoの分岐)。
【0094】
<変形例1>
上記実施の形態では、監視領域に入った人物が立位であるときと横臥したときとの姿勢を推定する態様について説明したが、本発明の適用範囲はこれに限定されるもではない。例えば、立位からしゃがんだ姿勢に変化したときは、急病で意識不明ほどの重要性はないが、警備員へ注意を喚起するようにしてもよい。
【0095】
図9を参照して、ここでの処理を説明する。図9(a)は、監視領域の床面において人物が立っているときに撮像部10によって撮像された入力画像中における人物領域画像800と、その外接矩形801を示している。また、図9(b)は、監視領域の床面において人物がしゃがんでいるときに撮像部10によって撮像された入力画像中における人物領域画像804と、その外接矩形805を示したものである。さらに、本変形例1では、特徴量算出手段303は、人物領域画像800,804の主軸802,806を求める。また、図9の例では、入力画像における縦軸(y軸)と横軸(x軸)に沿い、人物領域画像800,804の外接矩形801,805は横幅pと高さqを有する。
【0096】
また、モデル領域生成処理308により、図5に示す場合と同様に、監視領域の床面に立位モデルとしゃがみモデルを仮想的に配置して、立位モデルの輪郭を表わす立位モデル領域としゃがみモデルの輪郭を表わすしゃがみモデル領域を求め、モデル画像生成手段313は、それぞれの内部から切り出した立位モデル画像としゃがみモデル画像を生成する。
ここで、しゃがみモデルは、撮像対象である人物がしゃがんでいる姿勢をポリゴンモデルやサーフェースモデルなどで表現した情報である。
【0097】
そして、特徴量算出手段303は、入力画像における人物領域からしゃがみ検知用特徴量と、立位モデル画像としゃがみモデル画像から重みを決定するための立位モデル特徴量としゃがみモデル特徴量の値を求める。
【0098】
特徴量算出手段303は、しゃがみ検知に用いるためのしゃがみ検知用特徴量と、立位モデル特徴量と、しゃがみモデル特徴量の値として、以下の5つを計算する。
(11)外接矩形の高さq
(12)外接矩形アスペクト比=横幅p/高さq
(13)外接矩形の画素数に対する人物領域の画素数の比
(14)人物領域外周画素数に対する人物領域の画素数
(15)画像のx軸に対する主軸の角度803,807
【0099】
重み算出処理309は、立位モデル特徴量及びしゃがみモデル特徴量に基づいて、しゃがみ検知用特徴量のそれぞれに対する重みw1〜w5を算出する。この重みwiの算出方法は、上記実施の形態と同様である。
【0100】
評価値算出手段311は、本実施の形態と同様に、しゃがみ検知用特徴量と算出された重みを用いて、入力画像中の人物がしゃがんでいるか否かを判定するための判定用評価値を算出する。
以下、上記実施の形態と同様に、判定用評価値を判定閾値と比較すればよいので、詳細は省略する。
【0101】
<変形例2>
また、監視領域に入った人物が両手を下ろした気を付けの姿勢でいるときと両手を挙げて万歳しているときとの姿勢を推定する態様についての変形例2について説明する。本例は、立位であっても両手を下ろした姿勢から両手を挙げた姿勢へと移った場合には、賊等に脅されている可能性があるので警備員へ注意を喚起する用途を想定している。
【0102】
図10を参照して、ここでの処理を説明する。図10(a)は、監視領域の床面において人物が両手を下げて立っている姿勢(気を付けの姿勢)のときに撮像部10によって撮像された入力画像中における人物領域画像810と、その外接矩形811を示している。また、図10(b)は、監視領域の床面において人物が両手を挙げて立っている姿勢(万歳の姿勢)のときに撮像部10によって撮像された入力画像中における人物領域画像812と、その外接矩形813を示したものである。また、図10の例では、入力画像における縦軸(y軸)と横軸(x軸)に沿い、人物領域画像810,812の外接矩形811,813は横幅pと高さqを有する。
【0103】
また、モデル領域生成処理308により、図5に示す場合と同様に、監視領域の床面に気を付けモデルと万歳モデルを仮想的に配置して、気を付けモデルの輪郭を表わす気を付けモデル領域と万歳モデルの輪郭を表わす万歳モデル領域を求め、モデル画像生成手段313は、それぞれの内部から切り出した気を付けモデル画像と万歳モデル画像を生成する。
ここで、気を付けモデル及び万歳モデルは、撮像対象である人物が両手を下げた気を付けの姿勢で立っている姿勢及び両手を挙げた万歳の姿勢で立っている姿勢をポリゴンモデルやサーフェースモデルなどで表現した情報である。
【0104】
そして、特徴量算出手段303は、入力画像における人物領域画像から万歳検知用特徴量と、気を付けモデル画像と万歳モデル画像から重みを決定するための気を付けモデル特徴量と万歳モデル特徴量の値を求める。
【0105】
特徴量算出手段303は、万歳検知に用いるための万歳検知用特徴量と、気を付けモデル特徴量と、万歳モデル特徴量の値として、以下の3つを計算する。
(21)外接矩形の高さq
(22)外接矩形アスペクト比=横幅p/高さq
(23)外接矩形の上半分(上半身に対応)の画素数に対する人物領域の上半分の画素数の比
【0106】
以下、上記実施の形態や変形例1と同様に、各特徴量に対応した重みを算出し、判定用評価値を求めて、判定閾値と比較すればよいので、詳細は省略する。
【0107】
なお、これまで述べてきた実施の形態とその変形例では、記憶部に記憶する人物モデルとして、ポリゴンモデルやサーフェースモデルなどの3次元形状を表す情報を記憶するとしていた。これに代え、人物モデルとして、2次元の人物の輪郭情報を記憶してもよい。この場合、モデル領域生成処理は、人物の足下位置と、記憶部に記憶されているカメラ情報を参照しつつ、人物モデルを拡大縮小、および変形して、入力画像中におけるモデル領域を求める。
【0108】
また、体格推定処理あるいは3次元モデル生成処理において、人物領域画像の最下点を足下と見なして、監視領域における足下位置とする代わりに、人物領域画像の最上点を足下と見なして同じく足下位置を求めてもよい。これは人物が撮像部に対して手前方向に横臥すると、入力画像中では人物領域画像の最上点が足下に相当するからである。
【0109】
また、最初の数フレーム(例えば10フレーム)においても横臥判定を行いたい場合には、体格情報として標準的な身長と身幅(例えば、身長として170cm、身幅として60cm)を用いても良い。
【0110】
また、記憶手段に記憶される人物モデルは、前述の人物の標準的な寸法を有する人物モデルを予め記憶しておき、姿勢の推定にあたっては共通してその人物モデルを用いることとしてもよい。この場合、体格推定処理は省略することができる。
【0111】
また、平均輝度やテクスチャ情報など、画素値を用いた特徴量を用いない場合には、特徴量を算出するために、人物領域などの内部から切り出した部分画像を用いる代わりに、人物領域そのものを用いてもよい。この場合、部分画像の切り出し処理を省略することができる。
【0112】
以上のように、上記実施の形態及び変形例によれば、人物の姿勢を推定するにあたって複数の特徴量を用い、正しい姿勢が推定されるように特徴量を重み付けして正しい姿勢の判別をする姿勢推定装置を提供することができる。
【符号の説明】
【0113】
1 横臥判定装置、23 人物モデル、303 特徴量算出手段、304 姿勢評価式生成手段、306 体格推定処理、308 モデル領域生成処理、309 重み算出処理、311 評価値算出手段、312 姿勢判定手段、313 モデル画像生成手段。
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11