(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-10-04
(45)【発行日】2024-10-15
(54)【発明の名称】推定装置、推定システム、推定方法及びプログラム
(51)【国際特許分類】
G06T 7/20 20170101AFI20241007BHJP
H04N 7/18 20060101ALI20241007BHJP
【FI】
G06T7/20 300
H04N7/18 D
H04N7/18 K
(21)【出願番号】P 2020182699
(22)【出願日】2020-10-30
【審査請求日】2023-02-06
(73)【特許権者】
【識別番号】000003078
【氏名又は名称】株式会社東芝
(74)【代理人】
【識別番号】110002147
【氏名又は名称】弁理士法人酒井国際特許事務所
(72)【発明者】
【氏名】柴田 智行
【審査官】村山 絢子
(56)【参考文献】
【文献】特開2020-145595(JP,A)
【文献】中国特許出願公開第107016378(CN,A)
(58)【調査した分野】(Int.Cl.,DB名)
G06T 7/00-7/90
G06V 10/00-20/90
H04N 7/18
(57)【特許請求の範囲】
【請求項1】
対象を含む画像を撮像する撮像部と、
前記画像から前記対象の骨格を示す第1の特徴点を含む骨格情報を検出する検出部と、
前記対象を含む矩形内の前記第1の特徴点の位置を、前記撮像部の設置位置と前記撮像部の撮像範囲とに基づく第1の閾値で判定することによって、前記対象の動作を推定する推定部と、を備え、
前記推定部は、前記矩形内の前記第1の特徴点から、特定動作毎に定められた2点を選択し、前記2点間の長さと前記矩形の辺の長さとの割合を、前記第1の閾値で判定することによって、前記対象の動作を推定する、
推定装置。
【請求項2】
前記骨格情報は、前記対象の頭頂部、肘、腰、膝、手先及び足先の少なくとも1つと、前記対象の肩と、を含む、
請求項
1に記載の推定装置。
【請求項3】
前記撮像部の設置位置は、前記対象が俯角で撮像される位置であり、
前記第1の閾値を、前記設置位置の高さと、前記俯角とに基づき設定する設定部、
を更に備える請求項
1又は2に記載の推定装置。
【請求項4】
通常の直立歩行をする対象の様子を示す映像の入力を受け付け、前記映像に含まれるフレームに映る対象の見え方から、前記第1の閾値を設定する設定部、
を更に備える請求項1
又は2に記載の推定装置。
【請求項5】
対象を含む画像を撮像する撮像装置と、コンピュータとを備え、
前記コンピュータは、
前記画像から前記対象の骨格を示す第1の特徴点を含む骨格情報を検出する検出部と、
前記対象を含む矩形内の前記第1の特徴点の位置を、前記撮像装置の設置位置と前記撮像装置の撮像範囲とに基づく第1の閾値で判定することによって、前記対象の動作を推定する推定部と、を備え、
前記推定部は、前記矩形内の前記第1の特徴点から、特定動作毎に定められた2点を選択し、前記2点間の長さと前記矩形の辺の長さとの割合を、前記第1の閾値で判定することによって、前記対象の動作を推定する、
推定システム。
【請求項6】
撮像部が、対象を含む画像を撮像するステップと、
検出部が、前記画像から前記対象の骨格を示す第1の特徴点を含む骨格情報を検出するステップと、
推定部が、前記対象を含む矩形内の前記第1の特徴点の位置を、前記撮像部の設置位置と前記撮像部の撮像範囲とに基づく第1の閾値で判定することによって、前記対象の動作を推定するステップと、を含み、
前記推定するステップは、
前記矩形内の前記第1の特徴点から、特定動作毎に定められた2点を選択するステップと、
前記2点間の長さと前記矩形の辺の長さとの割合を、前記第1の閾値で判定することによって、前記対象の動作を推定するステップと、
を含む推定方法。
【請求項7】
対象を含む画像を撮像する撮像部と接続されたコンピュータを、
前記画像から前記対象の骨格を示す第1の特徴点を含む骨格情報を検出する検出部と、
前記対象を含む矩形内の前記第1の特徴点の位置を、前記撮像部の設置位置と前記撮像部の撮像範囲とに基づく第1の閾値で判定することによって、前記対象の動作を推定する推定部として機能させ、
前記推定部は、前記矩形内の前記第1の特徴点から、特定動作毎に定められた2点を選択し、前記2点間の長さと前記矩形の辺の長さとの割合を、前記第1の閾値で判定することによって、前記対象の動作を推定する、
プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明の実施形態は推定装置、推定システム、推定方法及びプログラムに関する。
【背景技術】
【0002】
人物等の対象の骨格情報を用いて、対象の動作を推定する方法が従来から知られている。例えば、画像上の2次元座標列の時系列変化に基づく推定方法が従来から知られている。また例えば、深度を取得可能なセンサーを用いて取得した骨格の3次元座標列に基づく推定方法が従来から知られている。
【先行技術文献】
【特許文献】
【0003】
【非特許文献】
【0004】
【文献】Z.Cao,et al.,Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields,in CVPR 2017.
【文献】Zhe Cao,Tomas Simon,Shih-En Wei,Yaser Sheikh,Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields,[令和2年10月19日検索],インターネット<URL:https://arxiv.org/pdf/1611.08050.pdf>
【発明の概要】
【発明が解決しようとする課題】
【0005】
しかしながら、従来の技術では、対象の動作を、より少ない情報から推定することが難しかった。
【課題を解決するための手段】
【0006】
実施形態の推定装置は、撮像部と検出部と推定部とを備える。撮像部は、対象を含む画像を撮像する。検出部は、前記画像から前記対象の骨格を示す第1の特徴点を含む骨格情報を検出する。推定部は、前記対象を含む矩形内の前記第1の特徴点の位置を、前記撮像部の設置位置と前記撮像部の撮像範囲とに基づく第1の閾値で判定することによって、前記対象の動作を推定する。前記推定部は、前記矩形内の前記第1の特徴点から、特定動作毎に定められた2点を選択し、前記2点間の長さと前記矩形の辺の長さとの割合を、前記第1の閾値で判定することによって、前記対象の動作を推定する。
【図面の簡単な説明】
【0007】
【
図1】実施形態の推定装置の機能構成の例を示す図。
【
図3】実施形態の変換部により変換される座標系の例を示す図。
【
図5】
図4の撮像角度による不審動作の推定例を示す図。
【
図6】実施形態の推定に使用される重要な特徴点の例(膝の位置の場合)を示す図。
【
図7】実施形態のy軸全体の長さと、y=0から膝のy座標の位置までの長さとの割合の例1(直立姿勢の場合)を示す図。
【
図8】実施形態のy軸全体の長さと、y=0から膝のy座標の位置までの長さとの割合の例2(うずくまりの場合)を示す図。
【
図9A】実施形態のy軸全体の長さと、y=0から膝のy座標の位置までの長さとの割合の例3(しゃがみの場合)を示す図。
【
図9B】実施形態のy軸全体の長さと、y=0から膝のy座標の位置までの長さとの割合の例4(しゃがみの場合)を示す図。
【
図9C】実施形態のy軸全体の長さと、y=0から膝のy座標の位置までの長さとの割合の例5(しゃがみの場合)を示す図。
【
図10】実施形態のy軸全体の長さと、y=0から膝のy座標の位置までの長さとの割合の例6(倒れの場合)を示す図。
【
図11】実施形態の推定方法の例を示すフローチャート。
【
図12】実施形態の変形例の推定装置の機能構成の例を示す図。
【
図13】実施形態の推定装置のハードウェア構成の例を示す図。
【発明を実施するための形態】
【0008】
以下に添付図面を参照して、推定装置、推定システム、推定方法及びプログラムの実施形態を詳細に説明する。
【0009】
[機能構成の例]
図1は実施形態の推定装置1の機能構成の例を示す図である。実施形態の推定装置1は、撮像部11と検出部12と変換部13と推定部14と動作DB15とを備える。推定装置1は、例えば撮像部11を用いて動作(例えば歩行者の不審動作等)を推定する。不審動作は、例えば「倒れる」(
図2A参照)、「うずくまる」(
図2B参照)、「ける」(
図2C参照)、「他者に絡む」(
図2D参照)及び「手を挙げる」(
図2E参照)など、人間が見て1枚の画像から判断できるあらかじめ定めた動作とするが、ここで例示した動作以外の任意の動作についての拡張も可能である。
【0010】
撮像部11は、ステレオカメラ及びLiDAR等の深度を取得できる撮像装置などではなく、一般的な可視光単眼のカメラである。なお、撮像部11は、特殊な撮像装置であってもよいが、画像として静止画を撮像する。
【0011】
撮像部11は、例えば固定された防犯カメラである。固定された防犯カメラとは物理的に設置された位置が固定されていることを示す。撮像部11は、後述するカメラの光軸と歩行者の角度とが既知であれば、パンチルトカメラのように撮影範囲が可変でもよい。
【0012】
検出部12は、骨格情報を画像から検出する。骨格情報は、対象(例えば人物100)のあらかじめ定められた特徴点(例えば頭頂部、肘、肩、腰、膝、手先及び足先など)である。骨格情報は、例えば頭頂部、肘、肩、腰、膝、手先及び足先などの位置を示す2次元座標列である。人物100と撮像部11との位置関係が既知であれば、骨格情報を示す2次元座標列から、人物100の動作を推定することができる。画像から骨格情報を検出する方法(pose estimation)は、例えば非特許文献1を用いても良い。
【0013】
変換部13は、骨格情報を表す座標系を、人物100を含む矩形内で正規化された座標系に変換する。例えば、変換部13は、検出部12により検出された画像座標での2次元座標を対象人物の外接矩形に基づき、正規化された座標値に変換する。撮像部11と人物100との距離に応じてスケールが変動するため、変換部13は、人物100の外接矩形で、座標を正規化する。具体的には、頭頂部中心および腰中心が特定位置となるように位置の正規化と、2点間の長さ(例えば、頭頂部から足先の全身の長さや肩から腰の背骨の長さなど)によりスケールを正規化してもよい。例えば、頭頂部中心点が(X,Y)=(0.5,0.1)、腰中心点が(X,Y)=(0.5,0.5)となるよう、回転、平行移動、スケールを推定し正規化する。変換部13は、上記のように頭頂部中心および腰中心位置のみが同じ位置となるよう座標を正規化する。
図4は、実施形態の撮像部11の撮像角度の例を示す図である。図4は、直立した人物、カメラ方向に倒れこむ人物、反対方向に倒れこむ人物の例を示す。座標を正規化する際に、上記したように頭頂部中心点が(X,Y)=(0.5,0.1)、腰中心点が(X,Y)=(0.5,0.5)となるよう正規化することで、頭部が腰よりも画像の下に位置するカメラ方向に倒れこむ人物と、頭部が腰よりも画像の上に位置するカメラと反対方向に倒れこむ人物とを、例えば後述の図10に示されるように、同様の推定方法で推定することが可能となる。
【0014】
[骨格情報の位置を示す座標系の例]
図3は、実施形態の変換部により変換される座標系の例を示す図
である。具体的には、変換部13は、対象人物の骨格情報102を個々の人物の外接矩形101の左上位置を原点(x,y)=(0,0)とし、右下位置を(x,y)=(1,1)となる座標系(x,y)へ、変換する(
図3参照)。この処理は、検出した人物分だけ行うため、画像内に人物を検出できなかった場合は、これ以降の処理は行わない。
図5は図4の撮像角度による不審動作の推定例を示す図である。図5は、実際にうずくまった人物を撮影した様子を示す。同様に実施形態の検出部12により骨格情報を画像から検出する。
【0015】
図1に戻り、推定部14は、変換部13で取得された各人物の座標変換済み骨格情報を用いて事前に定めた特定動作であるかを推定する。2次元座標列で示す骨格情報のみから動作を推定する場合、人物100を撮影するカメラ角度によって、本来の3次元座標の情報が縮退しているため、別の動作でも同じ動作のように見える場合がある。そのため、事前に定めた特定動作の骨格情報は、推定時に用いる撮像部11で取得された画像を解析して得られた情報とする。また、以下、座標変換された骨格情報を、単純に骨格情報と記載する。
【0016】
ここで、撮像部11が天井に設置された魚眼カメラなどの広角レンズで広範囲を撮影するカメラで画像を取得する場合、画像中心と、画像の周辺とでは、人物の見え方が異なるため、画像を区分し、それぞれの領域で異なる骨格情報を定め推定する。
【0017】
また、撮像部11がパンチルトカメラの場合、カメラのセンサー値を用いるか、予め登録した周囲の画像情報を用いて、カメラの3軸回転(水平・垂直・ロール)を取得し、周辺環境のどの領域を撮影しているのかを判断し、その領域別に異なる骨格情報を定めて推定する。
【0018】
次に、具体的な動作推定の方法について説明する。単純化するために、以下の説明では、水平に近い角度で設置された撮像部11で取得された画像を用いて説明する。
【0019】
動作推定方法は、統計的な推定方法と、ルールベースの推定方法とに分けられる。
【0020】
統計的な動作推定方法の場合、まず、推定部14は、骨格情報の座標値(例えば、肘、肩、腰及び膝などの座標値)を連結することによって、多次元ベクトルを生成する。次に、推定部14は、部分空間法によって動作を推定する。部分空間法では、特定動作した人物の多次元ベクトルから部分空間が算出され、推定したい人物の多次元ベクトルと、各動作の部分空間との第一正準角又は射影長が算出される。そして、第一正準角又は射影長が最も近い特定動作について、第一正準角又は射影長が、事前に設定された閾値以内である場合、当該特定動作をしていることが推定される。
【0021】
なお、推定部14で使用される動作推定方法は部分空間法以外の方法でもよい。推定部14は、例えば、最近傍識別器、及び、support vector machine(SVM)等を用いてもよい。また例えば、推定部14は、Convolutional Neural Networkを用いて動作推定をしてもよい。
【0022】
ルールベースの推定方法を用いる場合、推定部14は、特定動作を見分ける上で重要な特徴点の位置の変動量に基づいて、特定動作を推定する。変動量の起点は、例えば通常の直立歩行(直立姿勢)時の当該特徴点の位置である。推定部14は、例えば矩形内(実施形態では、外接矩形101)の特徴点から、特定動作毎に定められた2点を選択し、当該2点間の長さと矩形の辺の長さとの割合を閾値で判定する。
【0023】
図6は実施形態の推定に使用される重要な特徴点の例(膝の位置の場合)を示す図である。
図6の例は、撮像部11が、人物100と同じ目線の高さから画像を撮像した場合を示す。例えば、倒れ及びうずくまりを見分ける上で重要な特徴点は、骨格情報102に含まれる特徴点のうち、膝の位置を示す特徴点(両膝の中心を示す座標)である。倒れ及びうずくまりの場合、両膝の中心を示す座標のy軸座標の値が、直立歩行時の両膝の中心の示す座標のy軸座標の値よりも小さい。具体的には、通常時(直立歩行時)は0.75付近(
図6参照)であるのに対し、倒れ及びうずくまり時は、0.5から0.6台の値をとる。これは、倒れやうずくまりにより、人物の外接矩形101のy軸方向が狭くなることで、正規化後の両膝中心のy座標値が小さくなるためである。
【0024】
図7は、実施形態のy軸全体の長さと、y=0から膝のy座標の位置までの長さとの割合の例1(直立姿勢の場合)を示す図である。
図7の例は、y=0から、人物100の膝のy座標の位置までの長さが、y軸全体の長さ(外接矩形101の縦の辺の長さ)の77%を占める場合を示す。
【0025】
図8は、実施形態のy軸全体の長さと、y=0から膝のy座標の位置までの長さとの割合の例2(うずくまりの場合)を示す図である。
図8の例は、y=0から、人物100の膝のy座標の位置までの長さが、y軸全体の長さの68%を占める場合を示す。
【0026】
図9Aは、実施形態のy軸全体の長さと、y=0から膝のy座標の位置までの長さとの割合の例3(しゃがみの場合)を示す図である。
図9Aの例は、y=0から、人物100の膝のy座標の位置までの長さが、y軸全体の長さの53%を占める場合を示す。
【0027】
図9Bは、実施形態のy軸全体の長さと、y=0から膝のy座標の位置までの長さとの割合の例4(しゃがみの場合)を示す図である。
図9Bの例は、y=0から、人物100の膝のy座標の位置までの長さが、y軸全体の長さの69%を占める場合を示す。
【0028】
図9Cは、実施形態のy軸全体の長さと、y=0から膝のy座標の位置までの長さとの割合の例5(しゃがみの場合)を示す図である。
図9Cの例は、y=0から、人物100の膝のy座標の位置までの長さが、y軸全体の長さの
69%を占める場合を示す。
【0029】
図10は、実施形態のy軸全体の長さと、y=0から膝のy座標の位置までの長さとの割合の例6(倒れの場合)を示す図である。
図10の例は、y=0から、人物100の膝のy座標の位置までの長さが、y軸全体の長さの
54%を占める場合を示す。
【0030】
特定動作を見分ける上で重要な特徴点は、特定動作ごとに異なる。
【0031】
例えば、挙手の動作(
図2E参照)は、人物100の片手が上がるため、両手の先の座標のいずれかが、非常に小さい値又はマイナスの値に変化する。
【0032】
また例えば、けりの動作(
図2C参照)の場合は、人物100の片足が上がるため、両膝のy座標のいずれかが、通常時の膝のy座標値よりも小さい値に変化する。
【0033】
また例えば、他人への絡みの動作(
図2D参照)の場合は、近い距離に存在する2名の人物100に関して、膝のy座標値が通常時の膝のy座標値よりも小さい値に変化し、手の先のy座標値も、通常時の手の先のy座標値よりも小さい値に変化する。
【0034】
上記のように、推定部14は、特定動作について、特定の部位の位置が、どのように変動したら特定動作とするかをあらかじめ定めておき、そのルールに従い、特定動作を推定する。
【0035】
動作DB15は、推定部14が統計的な推定方法を用いる場合、各動作の統計モデルを格納し、推定部14がルールベースの推定方法を用いる場合は、そのルールを記憶する。推定部14は、推定処理を行う際に、事前に動作DB15に格納された情報を取り出し、当該情報を推定に用いる。
【0036】
推定部14が、予め登録した動作との類似性に基づく機械学習ベースの動作推定(認識)をする際には、画像から特徴点検出技術(例えば非特許文献2など)を用いて人物の骨格情報を抽出する。推定部14は、この検出した各特徴点の検出スコア、つまり尤度(確信度)に応じて動作の類似性を算出してもよい。この場合、例えば検出部12が、画像から検出された特徴点(第1の特徴点)の尤度を示す検出スコアを算出する。そして、推定部14が、特徴点に検出スコアに基づく重みを付与し、重みが閾値(第2の閾値)よりも大きい特徴点の位置を、閾値(第1の閾値)で判定することによって、人物100の動作を推定する。また、推定部14は、1以上の特徴点(第1の特徴点)と、特定動作の特徴を示す1以上の特徴点(第2の特徴点)との類似度を、重みによる重み付け和によって判定し、類似度が閾値(第1の閾値)よりも小さい場合、人物100が特定動作をしていると推定する。
【0037】
具体的には、特徴点数nの場合、骨格情報は、2n次元のベクトルとして表現する。推定部14は、上述の部分空間法で説明したように、骨格情報を動作の識別に適したd次元の部分空間に射影し、その部分空間での距離に応じて類似性を算出する。各特徴点の検出スコアはn次元ベクトルとなるため、xおよびy座標の検出スコアを同じとして扱い、骨格情報の場合と同様に検出スコアをd次元の部分空間に射影する。推定部14は、これを重みベクトルとし、特徴点の類似性を算出する際に当該重みベクトルを用いることで、信頼性のない特徴点の情報の重みを下げることができる。これにより推定部14は、識別精度を向上させる。
【0038】
[推定方法の例]
図11は実施形態の推定方法の例を示すフローチャートである。はじめに、撮像部11が、人物100を含む画像を撮像する(ステップS1)。次に、検出部12が、ステップS1の処理により撮像された画像から、骨格情報を検出する(ステップS2)。
【0039】
次に、推定装置1は、ステップS2の処理により骨格情報が検出された人物100の人数分だけ、ステップS3及びS4の処理を人物別に実行する。なお、推定装置1は、ステップS2の処理で骨格情報が検出されなかった場合には、ステップS3及びS4の処理を実行しない。
【0040】
変換部13は、骨格情報を表す座標系を、人物100の外接矩形101に基づき正規化された座標系に変換する(ステップS3)。次に、推定部14が、ステップS3の処理によって変換された骨格情報と、上述の動作DB15に格納された情報とを用いて、特定動作を推定する(ステップS4)。特定動作に該当すると判断した場合、その特定動作を示す情報が推定装置1から出力される。
【0041】
以上説明したように、第1実施形態の推定装置1では、撮像部11は、対象(実施形態では、人物100)を含む画像を撮像する。検出部12は、画像から人物100の骨格を示す特徴点(第1の特徴点)を含む骨格情報を検出する。推定部14は、人物100を含む矩形(実施形態では、外接矩形101)内の第1の特徴点の位置を、撮像部11の設置位置と撮像部11の撮像範囲とに基づく閾値(第1の閾値)で判定することによって、人物100の動作を推定する。
【0042】
これにより第1実施形態の推定装置1によれば、対象(実施形態では、人物100)の動作を、より少ない情報から推定することができる。第1実施形態の推定装置1によれば、画像1枚から動作を推定することが可能になる。従来の技術では、人物100の動作を推定するために、深度を取得可能なセンサー、または、高フレームレートの映像を撮影する撮像装置等が必要だった。実際の利用シーンにおいては、防犯カメラでの人物の動作を監視するなどの応用が考えられるが、深度を取得できるセンサーを追加で設置することはコスト増となる。また、防犯カメラは通常5fps程度と低フレームレートの映像しか取得できない。第1実施形態の推定装置1によれば、より低いコストで、人物100の動作を推定することができる。
【0043】
(実施形態の変形例)
次に実施形態の変形例について説明する。変形例の説明では、実施形態と同様の説明については省略する。
【0044】
上述の実施形態の推定部14によって実行される各特定動作の推定処理では、統計的な推定方法、及び、ルールベースの推定方法のいずれでも、閾値が用いられる。この閾値は、予め固定値として動作DB15に設定されていてもよいが、撮像部11の設置環境により、適切な閾値が異なる。そのため、変形例では、閾値をより適切な値に設定する設定部を更に備える場合について説明する。
【0045】
[機能構成の例]
図12は実施形態の変形例の推定装置1-2の機能構成の例を示す図である。変形例の推定装置1-2は、撮像部11と検出部12と変換部13と推定部14と動作DB15と設定部16とを備える。なお、設定部16は、推定装置1の外部の装置として実現されていてもよい。
【0046】
設定部16は、各特定動作の推定に用いられる閾値を算出し、当該閾値を動作DB15に設定する。
【0047】
例えば、撮像部11の設置位置が、人物100が俯角で撮像される位置である場合、設定部16は、閾値(第1の閾値)を、設置位置の高さと、俯角とに基づき設定する。
【0048】
また例えば、設定部16は、床平面からの撮像部11(カメラ)の設置高と、レンズ情報と、光軸方向とを示す入力情報を受け付けると、各特定動作の推定に用いられる閾値を自動設定する。具体的には、設定部16は、入力情報を受け付けると、例えば身長170cmの人物の標準骨格を用いて、撮像部11により取得された画像上で通常歩行する人物がどのように映るかを推定して、各特定動作の推定に用いられる閾値を算出し、当該閾値を設定する。
【0049】
また例えば、設定部16は、通常の直立歩行をする人物100の様子を示す映像の入力を受け付け、当該映像に含まれるフレームに映る人物の見え方から、閾値(第1の閾値)を設定する。具体的には、例えば設定部16は、登録モードを具備し、登録モードで動作中に、撮像部11が通常歩行する様子を映像として撮影し、設定部16が、映像の各フレームに映る通常歩行する人物の見え方から閾値を自動設定する。
【0050】
また、設定部16は、画像上の位置に応じて通常歩行する人物の見え方が大きく異なり、適した閾値が大きく異なる場合、当該画像を複数の領域に分割し、領域毎に閾値を設定又は自動設定してもよい。例えば、撮像部11が、垂直に近い角度で設置したカメラの場合、画像中心と、画像の端とでは人物100の見え方が大きく異なるため、全身の長さに対する頭頂部から膝までの長さの割合が大きく異なる。そのため、設定部16は、画像を複数の領域に分割し、領域毎に閾値の入力を受け付けてもよい。また、設定部16は、画像をグリッド状に自動分割し、各グリッド内の閾値を自動設定し、隣接するグリッドが同程度の閾値であった場合は、統合する処理により、領域分割と閾値設定とを自動化してもよい。
【0051】
[ハードウェア構成の例]
図13は実施形態の推定装置1のハードウェア構成の例を示す図である。実施形態の推定装置1は、制御装置301、主記憶装置302、補助記憶装置303、表示装置304、入力装置305、通信装置306及び撮像装置307を備える。制御装置301、主記憶装置302、補助記憶装置303、表示装置304、入力装置305、通信装置306及び撮像装置307は、バス310を介して接続されている。
【0052】
制御装置301は、補助記憶装置303から主記憶装置302に読み出されたプログラムを実行する。主記憶装置302は、ROM(Read Only Memory)、及び、RAM(Random Access Memory)等のメモリである。補助記憶装置303は、HDD(Hard Disk Drive)、及び、メモリカード等である。
【0053】
表示装置304は表示情報を表示する。表示装置304は、例えば液晶ディスプレイ等である。入力装置305は、推定装置1を操作するためのインタフェースである。入力装置305は、例えばキーボードやマウス等である。通信装置306は、他の装置と通信するためのインタフェースである。なお、推定装置1は、表示装置304及び入力装置305を備えていなくてもよい。推定装置1が、表示装置304及び入力装置30を備えていない場合は、例えば通信装置306を介して他の装置から推定装置1の設定等が行われる。
【0054】
実施形態の推定装置1で実行されるプログラムは、インストール可能な形式又は実行可能な形式のファイルでCD-ROM、メモリカード、CD-R及びDVD(Digital Versatile Disc)等のコンピュータで読み取り可能な記憶媒体に記録されてコンピュータ・プログラム・プロダクトとして提供される。
【0055】
また実施形態の推定装置1で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また実施形態の推定装置1で実行されるプログラムをダウンロードさせずにインターネット等のネットワーク経由で提供するように構成してもよい。
【0056】
また実施形態の推定装置1のプログラムを、ROM等に予め組み込んで提供するように構成してもよい。
【0057】
実施形態の推定装置1で実行されるプログラムは、上述の機能ブロックのうち、プログラムによっても実現可能な機能ブロックを含むモジュール構成となっている。当該各機能ブロックは、実際のハードウェアとしては、制御装置301が記憶媒体からプログラムを読み出して実行することにより、上記各機能ブロックが主記憶装置302上にロードされる。すなわち上記各機能ブロックは主記憶装置302上に生成される。
【0058】
なお上述した各機能ブロックの一部又は全部をソフトウェアにより実現せずに、IC(Integrated Circuit)等のハードウェアにより実現してもよい。
【0059】
また複数のプロセッサを用いて各機能を実現する場合、各プロセッサは、各機能のうち1つを実現してもよいし、各機能のうち2以上を実現してもよい。
【0060】
また実施形態の推定装置1の動作形態は任意でよい。実施形態の推定装置1の機能の一部(例えば検出部12、変換部13、推定部14及び設定部16等)を、例えばネットワーク上のクラウドシステムとして動作させてもよい。また、実施形態の推定装置1を、複数の装置により構成された推定システム(例えば、撮像装置307とコンピュータとにより構成された推定システム等)として動作させてもよい。
【0061】
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
【符号の説明】
【0062】
1 推定装置
11 撮像部
12 検出部
13 変換部
14 推定部
15 動作DB
16 設定部
301 制御装置
302 主記憶装置
303 補助記憶装置
304 表示装置
305 入力装置
306 通信装置
307 撮像装置
310 バス