IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 日本電気株式会社の特許一覧

<>
  • 特許-推定装置、推定方法及びプログラム 図1
  • 特許-推定装置、推定方法及びプログラム 図2
  • 特許-推定装置、推定方法及びプログラム 図3
  • 特許-推定装置、推定方法及びプログラム 図4
  • 特許-推定装置、推定方法及びプログラム 図5
  • 特許-推定装置、推定方法及びプログラム 図6
  • 特許-推定装置、推定方法及びプログラム 図7
  • 特許-推定装置、推定方法及びプログラム 図8
  • 特許-推定装置、推定方法及びプログラム 図9
  • 特許-推定装置、推定方法及びプログラム 図10
  • 特許-推定装置、推定方法及びプログラム 図11
  • 特許-推定装置、推定方法及びプログラム 図12
  • 特許-推定装置、推定方法及びプログラム 図13
  • 特許-推定装置、推定方法及びプログラム 図14
  • 特許-推定装置、推定方法及びプログラム 図15
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2025-05-26
(45)【発行日】2025-06-03
(54)【発明の名称】推定装置、推定方法及びプログラム
(51)【国際特許分類】
   G06T 7/66 20170101AFI20250527BHJP
【FI】
G06T7/66
【請求項の数】 8
(21)【出願番号】P 2023500218
(86)(22)【出願日】2021-02-18
(86)【国際出願番号】 JP2021006119
(87)【国際公開番号】W WO2022176104
(87)【国際公開日】2022-08-25
【審査請求日】2023-08-15
【前置審査】
(73)【特許権者】
【識別番号】000004237
【氏名又は名称】日本電気株式会社
(74)【代理人】
【識別番号】100107331
【弁理士】
【氏名又は名称】中村 聡延
(72)【発明者】
【氏名】馬場崎 康敬
(72)【発明者】
【氏名】宮野 博義
【審査官】清水 祐樹
(56)【参考文献】
【文献】特開2005-038121(JP,A)
【文献】特開2012-083855(JP,A)
【文献】特開平09-179988(JP,A)
【文献】特開平11-191160(JP,A)
【文献】特開2015-191626(JP,A)
【文献】Jianan Zhen, Qi Fang, Jiaming Sun, Wentao Liu, Wei Jiang, Hujun Bao, Xiaowei Zhou,SMAP: Single-Shot Multi-Person Absolute 3D Pose Estimation,arXiv:2008.11469v1 [cs.CV],2020年08月26日,<URL: https://arxiv.org/abs/2008.11469>,<DOI: 10.48550/arXiv.2008.11469>
(58)【調査した分野】(Int.Cl.,DB名)
G06T 7/00 - 7/90
G06V 10/00 - 20/90
G06V 30/418
G06V 40/16
G06V 40/20
(57)【特許請求の範囲】
【請求項1】
画像に含まれる物体において特徴的な部位の位置である複数種類の特徴点を推定する特徴点推定手段と、
画像と、当該画像に含まれる前記複数種類の特徴点の各々の位置からの、前記物体の中心位置となる代表点の候補である代表点候補の相対的な位置を表すベクトルとの関係を学習したモデルに基づき、前記複数種類の特徴点の各々の位置を基準とした場合の前記代表点候補の相対的な位置を表すベクトルを推定するベクトル推定手段と、
前記複数の特徴点の各々と、前記ベクトルとの組に基づき、複数の前記代表点候補を決定する代表点候補決定手段と、
前記複数の代表点候補を統合した前記代表点を決定する代表点決定手段と、
を有する推定装置。
【請求項2】
前記代表点決定手段は、前記物体の数を推定し、前記物体が複数存在する場合には前記物体の各々に対する前記代表点を決定する、請求項1に記載の推定装置。
【請求項3】
前記代表点決定手段は、前記複数の代表点候補のクラスタごとの前記代表点候補の重心点のいずれかを、前記代表点として選択する、請求項1または2に記載の推定装置。
【請求項4】
前記代表点決定手段は、前記クラスタごとの前記代表点候補に対応する前記特徴点の種類数が最大となる前記クラスタの前記重心点、又は、前記特徴点推定手段による前記特徴点の推定において得られた前記特徴点の確からしさを表すスコアの代表値が所定の閾値以上となる前記重心点を、前記代表点として選定する、請求項3に記載の推定装置。
【請求項5】
前記代表点決定手段は、前記複数の代表点候補の各々の位置を前記代表点としての信頼度を表す正規分布のピークとするマップを生成し、生成したマップを足し合わせた累積マップにおける前記信頼度が所定値以上となるピークを、前記代表点として選択する、請求項1または2に記載の推定装置。
【請求項6】
前記代表点決定手段が決定した前記代表点である推定代表点と、前記複数の特徴点とに基づき、前記物体の姿勢又は前記物体が属する前記画像上の領域推定を行う物体構築手段をさらに有する、請求項1~5のいずれか一項に記載の推定装置。
【請求項7】
コンピュータが、
画像に含まれる物体において特徴的な部位の位置である複数種類の特徴点を推定し、
画像と、当該画像に含まれる前記複数種類の特徴点の各々の位置からの、前記物体の中心位置となる代表点の候補である代表点候補の相対的な位置を表すベクトルとの関係を学習したモデルに基づき、前記複数種類の特徴点の各々の位置を基準とした場合の前記代表点候補の相対的な位置を表すベクトルを推定し、
前記複数の特徴点の各々と、前記ベクトルとの組に基づき、複数の前記代表点候補を決定し、
前記複数の代表点候補を統合した前記代表点を決定する、
推定方法。
【請求項8】
画像に含まれる物体において特徴的な部位の位置である複数種類の特徴点を推定し、
画像と、当該画像に含まれる前記複数種類の特徴点の各々の位置からの、前記物体の中心位置となる代表点の候補である代表点候補の相対的な位置を表すベクトルとの関係を学習したモデルに基づき、前記複数種類の特徴点の各々の位置を基準とした場合の前記代表点候補の相対的な位置を表すベクトルを推定し、
前記複数の特徴点の各々と、前記ベクトルとの組に基づき、複数の前記代表点候補を決定し、
前記複数の代表点候補を統合した前記代表点を決定する処理をコンピュータに実行させるプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、推定装置、推定方法及び記憶媒体の技術分野に関する。
【背景技術】
【0002】
画像から人や物などの物体を検出する技術が存在する。例えば、特許文献1には、動画像のフレームごとに各人物の頭部、肩、肘、手、腰、膝、足等の部位を検出して姿勢を推定し、各人物の座標情報を生成する方法が開示されている。また、非特許文献1には、物体の代表点を推定し、推定した代表点から各関節点までのベクトルを推定することで物体の姿勢を推定する技術が開示されている。また、非特許文献2には、ハフ投票を用いた姿勢推定及びインスタンスセグメンテーションに関する技術が開示されている。
【先行技術文献】
【特許文献】
【0003】
【文献】特開2020-155089号公報
【非特許文献】
【0004】
【文献】X. Zhou, et. al. "Objects as Points", "https://arxiv.org/pdf/1904.07850.pdf", 2019.
【文献】George Papandreou, Tyler Zhu, Liang-Chieh Chen, Spyros Gidaris,Jonathan Tompson, Kevin Murphy, " PersonLab: Person Pose Estimation and Instance Segmentation with a Bottom-Up, Part-Based, Geometric Embedding Model", "https://arxiv.org/pdf/1803.08225.pdf", 2018.
【発明の概要】
【発明が解決しようとする課題】
【0005】
物体や人同士の重なりなどが多発する混雑状況下では、物体の一部が他の物体により遮蔽されるため、姿勢構築に必要な関節点の一部が隠れたり、物体の代表点となる中心位置が隠れたりする場合がある。このような場合には、上述した姿勢等の推定手法における推定精度が低下するという問題があった。
【0006】
本開示の目的の一つは、上述した課題を鑑み、物体の一部が隠れていても、物体の代表点を好適に推定可能な推定装置、推定方法及び記憶媒体を提供することである。
【課題を解決するための手段】
【0007】
推定装置の一の態様は、
画像に含まれる物体において特徴的な部位の位置である複数種類の特徴点を推定する特徴点推定手段と、
画像と、当該画像に含まれる前記複数種類の特徴点の各々の位置からの、前記物体の中心位置となる代表点の候補である代表点候補の相対的な位置を表すベクトルとの関係を学習したモデルに基づき、前記複数種類の特徴点の各々の位置を基準とした場合の前記代表点候補の相対的な位置を表すベクトルを推定するベクトル推定手段と、
前記複数の特徴点の各々と、前記ベクトルとの組に基づき、複数の前記代表点候補を決定する代表点候補決定手段と、
前記複数の代表点候補を統合した前記代表点を決定する代表点決定手段と、
を有する推定装置である。
【0008】
推定方法の一の態様は、
コンピュータが、
画像に含まれる物体において特徴的な部位の位置である複数種類の特徴点を推定し、
画像と、当該画像に含まれる前記複数種類の特徴点の各々の位置からの、前記物体の中心位置となる代表点の候補である代表点候補の相対的な位置を表すベクトルとの関係を学習したモデルに基づき、前記複数種類の特徴点の各々の位置を基準とした場合の前記代表点候補の相対的な位置を表すベクトルを推定し、
前記複数の特徴点の各々と、前記ベクトルとの組に基づき、複数の前記代表点候補を決定し、
前記複数の代表点候補を統合した前記代表点を決定する、
推定方法である。
【0009】
プログラムの一の態様は、
画像に含まれる物体において特徴的な部位の位置である複数種類の特徴点を推定し、
画像と、当該画像に含まれる前記複数種類の特徴点の各々の位置からの、前記物体の中心位置となる代表点の候補である代表点候補の相対的な位置を表すベクトルとの関係を学習したモデルに基づき、前記複数種類の特徴点の各々の位置を基準とした場合の前記代表点候補の相対的な位置を表すベクトルを推定し、
前記複数の特徴点の各々と、前記ベクトルとの組に基づき、複数の前記代表点候補を決定し、
前記複数の代表点候補を統合した前記代表点を決定する処理をコンピュータに実行させるプログラムである。
【発明の効果】
【0010】
物体の代表点を好適に推定することができる。
【図面の簡単な説明】
【0011】
図1】実施形態における物体検出システムの概略構成である。
図2】(A)学習装置のハードウェア構成の一例を示す。(B)推定装置のハードウェア構成の一例を示す。
図3】代表点推定処理の概要を示す図である。
図4】学習装置の機能ブロックの一例を示す。
図5】推定装置の機能ブロックの第1の例を示す。
図6】推定装置の機能ブロックの第2の例を示す。
図7】(A)図5に示す機能ブロックにおいて出力されるベクトルマップを示す。(B)図6に示す機能ブロックにおいて出力されるベクトルマップを示す。
図8】信頼度マップに基づく代表点候補の統合処理の概要を示す。
図9】クラスタ分割に基づく代表点候補の統合方法の概要を示す。
図10】推定装置が実行する処理手順を示すフローチャートの一例である。
図11】第1変形例において算出される回帰点を画像上に明示した図である。
図12】(A)ボックス頂点を特徴点として推定した場合の推定した特徴点を画像上において明示した図である。(B)代表点候補を画像上において明示した図である。(C)代表点候補から決定した推定代表点及び推定されたボックス頂点である推定ボックス頂点を画像上において明示した図である。
図13】(A)検出対象の物体の境界点を特徴点として推定した場合の推定した特徴点を画像上において明示した図である。(B)代表点候補を画像上において明示した図である。(C)代表点候補から決定した推定代表点及び推定された境界点及び物体領域を画像上において明示した図である。
図14】第2実施形態に係る学習装置の概略構成を示す。
図15】第2実施形態において学習装置が実行する処理手順を示すフローチャートの一例である。
【発明を実施するための形態】
【0012】
以下、図面を参照しながら、推定装置、推定方法及び記憶媒体の実施形態について説明する。
【0013】
<第1実施形態>
(1)全体構成
図1は、第1実施形態における物体検出システム100の概略構成である。物体検出システム100は、物体の検出を行うシステムであって、物体を代表する代表点を高精度に推定する。物体検出システム100は、主に、物体の検出に用いるモデルの学習を行う学習装置1と、学習装置1及び物体検出装置3が参照する情報を記憶する記憶装置2と、物体の検出に関する処理を行う物体検出装置3と、物体を検出する対象となる空間の撮影を行うカメラ4とを有する。
【0014】
学習装置1は、記憶装置2の学習データ記憶部21が記憶する学習データに基づいて、物体の検出に関するモデル(学習器)の学習を行い、学習により得られたモデルのパラメータをパラメータ記憶部22に記憶する。
【0015】
記憶装置2は、学習データ記憶部21と、パラメータ記憶部22とを有する。学習データ記憶部21は、学習装置1による学習に用いられる学習用(訓練用)のデータである学習データを記憶する。学習データは、入力用画像と当該画像に含まれる物体に関する正解データとを含んでいる。ここで、正解データは、入力用画像に含まれる各物体の特徴点に関する情報を含んでいる。ここで、「特徴点」は、追跡対象において特徴的な部位の位置であって、検出対象となる物体の種類によって予め定められている。特徴点は、例えば、検出対象が人の場合には、一般的に人が備える各関節の位置を示す。正解データは、例えば、特徴点の種類(クラス)を示す識別情報と、特徴点が属する物体の識別情報と、特徴点の位置情報と、特徴点から物体の代表点までのベクトル情報とを含んでいる。
【0016】
パラメータ記憶部22は、学習装置1が学習するモデルのパラメータを記憶する。このモデルは、ニューラルネットワークに基づく学習モデルであってもよく、サポートベクターマシーンなどの他の種類の学習モデルであってもよく、これらを組み合わせた学習モデルであってもよい。例えば、畳み込みニューラルネットワークなどのニューラルネットワークに基づくモデルが用いられる場合には、パラメータ記憶部22には、モデルにおいて採用される層構造、各層のニューロン構造、各層におけるフィルタ数及びフィルタサイズ、並びに各フィルタの各要素の重みなどの種々のパラメータの情報が記憶される。
【0017】
なお、記憶装置2は、学習装置1又は物体検出装置3に接続又は内蔵されたハードディスクなどの外部記憶装置であってもよく、フラッシュメモリなどの記憶媒体であってもよく、学習装置1及び物体検出装置3とデータ通信を行うサーバ装置などであってもよい。また、記憶装置2は、複数の記憶装置から構成され、上述した各記憶部を分散して保有してもよい。
【0018】
物体検出装置3は、カメラ4が撮影した画像に含まれる物体の検出を行う。この場合、物体検出装置3は、パラメータ記憶部22が記憶するパラメータを参照することで、学習装置1が学習したモデルを構成し、当該モデルに基づき代表点の推定に関する処理を行う。以後では、物体検出装置3が物体検出に用いる画像(図1ではカメラ4が撮影した画像)を、「検出対象画像Itag」とも呼ぶ。
【0019】
なお、図1に示される物体検出システム100の構成は一例であり、種々の変更が行われてもよい。例えば、学習装置1と、記憶装置2と、物体検出装置3とのうち少なくとも2つが同一装置により実現されてもよい。他の例では、学習装置1と物体検出装置3とは、夫々、複数の装置により構成されてもよい。この場合、学習装置1を構成する複数の装置及び物体検出装置3を構成する複数の装置は、予め割り当てられた処理を実行するために必要な情報の授受を、有線又は無線での直接通信により又はネットワークを介した通信により装置間において行う。また、物体検出システム100は、カメラ4を備える代わりに、検出対象画像Itagとなる画像を記憶装置2等に予め記憶してもよい。
【0020】
(2)ハードウェア構成
次に、学習装置1及び物体検出装置3の各ハードウェア構成について説明する。
【0021】
図2(A)は、学習装置1のハードウェア構成の一例を示す。学習装置1は、ハードウェアとして、プロセッサ11と、メモリ12と、インターフェース13とを含む。プロセッサ11、メモリ12、及びインターフェース13は、データバス19を介して接続されている。
【0022】
プロセッサ11は、メモリ12に記憶されているプログラムを実行することにより、学習装置1の全体の制御を行うコントローラ(演算装置)として機能する。プロセッサ11は、例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、TPU(Tensor Processing Unit)、量子プロセッサなどのプロセッサである。プロセッサ11は、複数のプロセッサから構成されてもよい。プロセッサ11は、コンピュータの一例である。
【0023】
メモリ12は、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリなどの各種の揮発性メモリ及び不揮発性メモリにより構成される。また、メモリ12には、学習装置1が実行する処理を実行するためのプログラムが記憶される。なお、メモリ12が記憶する情報の一部は、学習装置1と通信可能な記憶装置2などの外部記憶装置により記憶されてもよく、学習装置1に対して着脱自在な記憶媒体により記憶されてもよい。また、メモリ12は、記憶装置2が記憶する情報を代わりに記憶してもよい。
【0024】
インターフェース13は、学習装置1と他の装置とを電気的に接続するためのインターフェースである。これらのインターフェースは、他の装置とデータの送受信を無線により行うためのネットワークアダプタなどのワイアレスインタフェースであってもよく、他の装置とケーブル等により接続するためのハードウェアインターフェースであってもよい。
【0025】
図2(B)は、物体検出装置3のハードウェア構成の一例を示す。物体検出装置3は、ハードウェアとして、プロセッサ31と、メモリ32と、インターフェース33とを含む。プロセッサ31、メモリ32、及びインターフェース33は、データバス30を介して接続されている。
【0026】
プロセッサ31は、メモリ32に記憶されているプログラムを実行することにより、物体検出装置3の全体の制御を行うコントローラ(演算装置)として機能する。プロセッサ31は、例えば、CPU、GPU、TPU、量子プロセッサなどのプロセッサである。プロセッサ31は、複数のプロセッサから構成されてもよい。プロセッサ31は、コンピュータの一例である。
【0027】
メモリ32は、RAM、ROM、フラッシュメモリなどの各種の揮発性メモリ及び不揮発性メモリにより構成される。また、メモリ32には、物体検出装置3が実行する処理を実行するためのプログラムが記憶される。なお、メモリ32が記憶する情報の一部は、物体検出装置3と通信可能な記憶装置2などの外部記憶装置により記憶されてもよく、物体検出装置3に対して着脱自在な記憶媒体により記憶されてもよい。また、メモリ32は、記憶装置2が記憶する情報を代わりに記憶してもよい。
【0028】
インターフェース33は、物体検出装置3と他の装置とを電気的に接続するためのインターフェースである。これらのインターフェースは、他の装置とデータの送受信を無線により行うためのネットワークアダプタなどのワイアレスインタフェースであってもよく、他の装置とケーブル等により接続するためのハードウェアインターフェースであってもよい。
【0029】
なお、学習装置1及び物体検出装置3のハードウェア構成は、図2(A)及び図2(B)に示す構成に限定されない。例えば、学習装置1又は物体検出装置3の少なくとも一方は、ディスプレイなどの表示部、キーボードやマウスなどの入力部、スピーカなどの音出力部などをさらに備えてもよい。
【0030】
(3)代表点推定処理の概要
次に、物体検出装置3による物体の代表点推定に関する処理である代表点推定処理の概要について説明する。図3は、画像に基づき物体検出装置3が実行する代表点推定処理の概要を示す図である。図3では、代表点推定処理の過程において得られる処理結果を検出対象画像Itag上において明示している。
【0031】
まず、物体検出装置3は、検出対象画像Itagから物体の特徴点を検出する処理を行う(上段参照)。この場合、物体検出装置3は、検出対象画像Itag内の物体に対して予め定められた複数種類の特徴点の検出を行う。これにより、物体検出装置3は、1つの物体について複数の特徴点を検出する。次に、物体検出装置3は、検出した複数の特徴点の各々から、当該特徴点が属する物体の代表点の候補となる位置を推定する。以後では、個々の特徴点から推定される、物体の代表点の候補となる位置を単に「代表点候補」とも呼ぶ。代表点候補は、検出された特徴点の数と同じ数だけ生成される。
【0032】
次に、物体検出装置3は、物体毎に、複数の代表点候補から物体の代表点となる位置の推定を行う。この場合、物体検出装置3は、物体毎に、特徴点と同数の代表点候補に基づき、物体の代表点として尤もらしい位置を投票により推定する。物体検出装置3が推定した代表点を「推定代表点」とも呼ぶ。このように、物体検出装置3は、検出された特徴点の各々から代表点を推定し、その複数の推定結果を統合して最終的な代表点の推定位置を決定することで、一部の特徴点が隠れた場合であっても、検出された特徴点に基づいて高精度に物体の代表点を推定することができる。また、学習装置1は、高精度に推定された推定代表点に基づき、物体の姿勢などについても高精度に推定することが可能である。なお、物体の代表点から物体の関節点などの特徴点及び物体の姿勢を推定する手法については、例えば、非特許文献1に開示されている。
【0033】
(4)学習装置の処理
次に、図3において説明した代表点推定処理に必要な学習装置1によるモデルの学習方法の一例について説明する。図4は、学習装置1の機能ブロックの一例である。図4に示すように、学習装置1のプロセッサ11は、機能的には、特徴マップ出力部14と、複数組(ここでは第1組~第N組)の特徴点推定部15(151~15N)及びベクトル推定部16(161~16N)と、学習部17とを有する。「N」は、検出対象となる物体が有する特徴点の数(種類数)であり、2以上の整数に設定される。なお、図4では、データの授受が行われるブロック同士を実線により結んでいるが、データの授受が行われるブロックの組合せは図4に限定されない。後述する他の機能ブロックの図においても同様である。
【0034】
特徴マップ出力部14は、学習データ記憶部21から抽出した入力画像から特徴マップ「Mp」を生成する。ここで、特徴マップMpは、画像を後述する各特徴点推定部15及び各ベクトル推定部16への入力に適した形式に変換したデータであり、画像における特徴量を表すマップとなっている。この場合、特徴マップ出力部14は、例えば、画像が入力された場合に特徴マップMpを出力する学習モデル(「特徴マップ出力モデル」とも呼ぶ。)である。特徴マップ出力モデルのパラメータは、学習部17により決定され、パラメータ記憶部22に記憶される。なお、特徴マップ出力部14は、1個設けられる代わりに、例えば、特徴点推定部15及びベクトル推定部16の組ごとに計N個設けられてもよい。他の例では、特徴マップ出力部14は、特徴点推定部15とベクトル推定部16とに対して別々に計2個設けられてもよく、特徴点推定部151~15N及びベクトル推定部161~16Nの各々に対して個別に計2N個設けられてもよい。また、特徴マップ出力部14は、時系列に生成された複数の入力画像から1つの特徴マップMpを生成してもよい。
【0035】
特徴点推定部15(151~15N)は、特徴マップMpに基づき、検出対象の物体の特徴点(特徴点の位置)の推定を行う。図4の例では、特徴点推定部151~15Nは、夫々割り当てられた種類の特徴点の推定を行い、推定した特徴点を示す特徴点情報「Ip1」~「IpN」を出力する。この場合、各特徴点推定部15は、例えば、特徴マップMpが入力された場合に対象の特徴点に関する推定結果を出力する学習モデル(「特徴点推定モデル」とも呼ぶ。)である。特徴点推定モデルは、例えば、対象の特徴点の座標値を示す回帰型のモデルであってもよく、特徴点の座標値ごとの信頼度を示す画像上のヒートマップ(信頼度マップ)を出力するモデルであってもよい。「座標値」は、ピクセル単位での画像内の位置を示す値であってもよく、サブピクセル単位での画像内の位置を示す値であってもよい。この場合、各特徴点推定部15に対応する特徴点推定モデルのパラメータは、学習部17により決定され、パラメータ記憶部22に記憶される。
【0036】
ベクトル推定部16(161~16N)は、特徴マップMpに基づき、検出対象の物体の特徴点から代表点に向かうベクトル(「代表点指向ベクトル」とも呼ぶ。)を推定する。代表点指向ベクトルは、例えば、対象の特徴点の位置を基準とした場合の代表点候補の相対的な位置(x座標及びy座標)を示す。図4の例では、ベクトル推定部161~16Nは、夫々割り当てられた種類の特徴点からの代表点指向ベクトルを示すベクトル情報「Iv1」~「IvN」を出力する。この場合、各ベクトル推定部16は、特徴マップMpが入力された場合に対象の特徴点から代表点候補までのベクトルである代表点指向ベクトルに関する情報を出力する学習モデル(「ベクトル推定モデル」とも呼ぶ。)である。ベクトル推定モデルが出力する情報は、例えばベクトルマップであり、その詳細については後述する。そして、各ベクトル推定部16に対応するベクトル推定モデルのパラメータは、学習部17により決定され、パラメータ記憶部22に記憶される。
【0037】
なお、ベクトル推定部161~16Nは、対応する特徴点推定部151~15Nでの特徴点の推定結果に基づいて代表点指向ベクトルを推定してもよい。この場合、ベクトル推定モデルは、特徴マップMp及び対応する特徴点推定部15での推定結果が入力された場合に代表点指向ベクトルに関する情報を出力する学習モデルとなる。
【0038】
また、ベクトル推定部16に対応するベクトル推定モデルは、特徴マップMpが入力された場合に、全種類の特徴点に関するベクトル情報を出力するように学習される学習モデルであってもよい。この場合、図4に示すベクトル推定部161~ベクトル推定部16Nに代えて、1個のベクトル推定部16が設けられる。同様に、特徴点推定部15に対応する特徴点推定モデルは、特徴マップMpが入力された場合に全種類の特徴点に関する特徴点情報を出力するように学習される学習モデルであってもよい。この場合、図4に示す特徴点推定部151~特徴点推定部15Nに代えて、1個の特徴点推定部15が設けられる。
【0039】
学習部17は、特徴点情報Ip1~IpN及びベクトル情報Iv1~IvNと学習データ記憶部21に記憶された正解データとに基づき、特徴マップ出力モデル、特徴点推定モデル及びベクトル推定モデルのパラメータの更新を行う。この場合、学習部17は、特徴点情報Ip1~IpNが示す各特徴点の位置と正解データが示す各特徴点の位置との誤差(損失)、及び、ベクトル情報Iv1~IvNが示す各代表点指向ベクトルと正解データが示す特徴点から代表点までのベクトルとの誤差(損失)を最小化するように上述のパラメータを決定する。このようなパラメータ決定アルゴリズムは、勾配降下法や誤差逆伝播法などの機械学習において用いられる任意の学習アルゴリズムであってもよい。そして、学習部17は、所定の学習の終了条件が満たされた場合に学習を終了する。学習部17は、例えば、予め定めた数の入力画像と正解データの組に対する学習が完了した場合、学習を終了すべき旨のユーザ入力等を検知した場合、又は/及び、誤差が所定の閾値以下となった場合に、学習の終了条件が満たされたと判定する。
【0040】
(5)物体検出装置の処理
次に、学習装置1による学習処理後に物体検出装置3が実行する処理について説明する。
(5-1)機能ブロック
図5は、物体検出装置3の機能ブロックの一例である。図5に示すように、物体検出装置3のプロセッサ31は、機能的には、特徴マップ出力部34と、複数組(ここでは第1組~第N組)の特徴点推定部35(351~35N)、ベクトル推定部36(361~36N)及び代表点候補決定部37(371~37N)と、代表点推定部38と、物体構築部39とを有する。
【0041】
特徴マップ出力部34は、検出対象画像Itagを物体検出装置3が取得した場合に、検出対象画像Itagから特徴マップMpを生成する。この場合、特徴マップ出力部34は、例えば、パラメータ記憶部22を参照して学習装置1が学習した特徴マップ出力モデルを構成し、当該特徴マップ出力モデルに検出対象画像Itagを入力することで、特徴マップMpを取得する。なお特徴マップ出力部34は、時系列に生成された複数の検出対象画像Itagから特徴マップMpを生成してもよい。
【0042】
特徴点推定部35は、特徴マップMpに基づき、検出対象の物体の特徴点と推定される位置を決定する。図5の例では、特徴点推定部351~35Nは、夫々割り当てられた種類の特徴点の推定を行い、推定した特徴点を示す特徴点情報Ip1~IpNを出力する。この場合、特徴点推定部35は、パラメータ記憶部22を参照して学習装置1が学習した特徴点推定モデルを構成し、当該特徴点推定モデルに特徴マップMpを入力することで、特徴点情報Ip1~IpNを取得する。ここで、特徴点推定部351~35Nは、夫々、学習が完了した後の特徴点推定部151~15N(図4参照)に相当する。
【0043】
ベクトル推定部36は、特徴マップMpに基づき、検出対象の物体の特徴点から代表点候補までの代表点指向ベクトルを推定する。図5の例では、ベクトル推定部361~36Nは、夫々割り当てられた種類の特徴点に対応する代表点指向ベクトルを示すベクトル情報Iv1~IvNを出力する。この場合、ベクトル推定部36は、パラメータ記憶部22を参照して学習装置1が学習したベクトル推定モデルを構成し、当該ベクトル推定モデルに特徴マップMpを入力することで、ベクトル情報Iv1~IvNを取得する。ここで、ベクトル推定部361~36Nは、夫々、学習が完了した後のベクトル推定部161~16N(図4参照)に相当する。
【0044】
代表点候補決定部37は、複数の特徴点に基づく複数の代表点候補を決定する。図5の例では、代表点候補決定部371~37Nは、特徴点推定部351~35N及びベクトル推定部361~36Nが特徴点の種類毎に出力する情報の組(Ip1,Iv1)~(IpN,IvN)に基づき、代表点候補を特徴点の種類ごとに示した代表点候補情報「Ic1」~「IcN」を生成する。この場合、代表点候補決定部37は、各特徴点について、特徴点情報が示す特徴点の推定位置と、対応するベクトル情報が示す代表点指向ベクトルとから代表点候補を決定する。このように、代表点候補決定部37は、特徴点推定部35が検出した特徴点の各々について、特徴点が属する物体の代表点の候補となる代表点候補を決定する。
【0045】
代表点推定部38は、代表点候補決定部37から供給される代表点候補情報Ic1~IcNに基づき、物体毎の代表点を推定する。代表点推定部38の処理については後述する。物体構築部39は、代表点推定部38が決定した推定代表点に対し、特徴点推定部35が検出した各特徴点の所属判定(即ち、どの物体に属する特徴点であるかの判定)を行い、所属判定結果に基づき、物体の位置及び姿勢を表す物体情報を生成する。
【0046】
なお、特徴点推定部35は、特徴マップMpが入力された場合に全特徴点の位置を示す特徴点情報を出力してもよい。同様に、ベクトル推定部36は、特徴マップMpが入力された場合に全特徴点に対応する代表点指向ベクトルを示すベクトル情報を出力してもよい。
【0047】
図6は、特徴点推定部351~35Nを1個の特徴点推定部35に統合し、かつ、ベクトル推定部361~36Nを1個のベクトル推定部36に統合した場合の機能ブロック図を示す。この場合、特徴点推定部35は、特徴マップMpが入力された場合に全て(即ちN種類)の特徴点の位置を示す特徴点情報Ipを出力し、ベクトル推定部36は、特徴マップMpが入力された場合に全て(即ちN種類)の特徴点に関する代表点指向ベクトルを示したベクトル情報Ivを出力する。また、代表点候補決定部37は、これらの特徴点情報Ip及びベクトル情報Ivに基づき、各特徴点から導かれた代表点候補を示す代表点候補情報Icを、代表点推定部38に供給する。この代表点候補情報Icは、図5における代表点候補情報Ic1~代表点候補情報IcNを合わせた情報に相当する。
【0048】
以上説明した図5及び図6に示されるプロセッサ31の各構成要素(特徴マップ出力部34、特徴点推定部35、ベクトル推定部36、代表点候補決定部37、代表点推定部38及び物体構築部39)は、例えば、プロセッサ31がプログラムを実行することによって実現できる。また、必要なプログラムを任意の不揮発性記憶媒体に記録しておき、必要に応じてインストールすることで、各構成要素を実現するようにしてもよい。なお、これらの各構成要素の少なくとも一部は、プログラムによるソフトウェアで実現することに限ることなく、ハードウェア、ファームウェア、及びソフトウェアのうちのいずれかの組合せ等により実現してもよい。また、これらの各構成要素の少なくとも一部は、例えばFPGA(field-programmable gate array)又はマイクロコントローラ等の、ユーザがプログラミング可能な集積回路を用いて実現してもよい。この場合、この集積回路を用いて、上記の各構成要素から構成されるプログラムを実現してもよい。また、各構成要素の少なくとも一部は、ASSP(Application Specific Standard Produce)やASIC(Application Specific Integrated Circuit)により構成されてもよい。このように、上述の各構成要素は、種々のハードウェアにより実現されてもよい。さらに、これらの各構成要素は,例えば,クラウドコンピューティング技術などを用いて、複数のコンピュータの協働によって実現されてもよい。以上のことは、後述する他の実施の形態においても同様である。
【0049】
また、図5及び図6に示す機能ブロックは一例であり、任意の変形が行われてもよい。例えば、ベクトル推定部36は、代表点候補決定部37に組み込まれてもよい。この場合、代表点候補決定部37は、特徴点情報Ipと特徴マップMpとが入力された場合に代表点候補を出力するモデルに基づき、特徴点情報Ipと特徴マップMpから代表点候補情報Icを生成する処理を行う。
【0050】
(5-2)ベクトル情報
次に、ベクトル推定部16が生成するベクトル情報Ivについて補足説明する。ベクトル情報Ivは、特徴点の種類ごとに代表点指向ベクトルを示すベクトルマップであってもよく、全て(即ちN種類)の特徴点の代表点指向ベクトルを示すベクトルマップであってもよい。
【0051】
図7(A)は、図5に示す機能ブロックにおいてベクトル推定部361~36Nが出力する複数チャンネルのベクトルマップの概要を示し、図7(B)は、図6に示す機能ブロックにおいてベクトル推定部36が出力するベクトルマップの概要を示す。図7(A)及び図7(B)では、ベクトルマップの各チャンネルが有する代表点指向ベクトルの情報を、物体の特徴点を明示した検出対象画像Itag上において矢印により示している。
【0052】
特徴点の種類ごとに代表点指向ベクトルを算出するベクトル推定部361~36Nが存在する例(図5参照)では、ベクトル推定部361~36Nは、図7(A)に示すように、特徴点の種類ごとに代表点指向ベクトルを示すチャンネルを有するベクトルマップを生成する。この場合、実際には、特徴点の種類ごとに、代表点指向ベクトルのx座標を表すチャンネルとy座標を表すチャンネルとが用意されることから、ベクトル推定部361~36Nは、合計で2N個(2×N個)のチャンネルを有するベクトルマップを生成する。
【0053】
一方、全種類の特徴点に対応する代表点指向ベクトルを算出する1個のベクトル推定部36が存在する例(図6参照)では、ベクトル推定部36は、図7(B)に示すように、全種類の特徴点に対応する代表点指向ベクトルを示すベクトルマップを生成する。この場合、実際には、全特徴点の代表点指向ベクトルのx座標を表すチャンネルとy座標を表すチャンネルとが用意されることから、ベクトル推定部36は、合計で2個のチャンネルを有するベクトルマップを生成する。
【0054】
そして、ベクトル推定部36(361~36N)は、これらのベクトルマップに相当するベクトル情報Iv(Iv1~IvN)を、代表点候補決定部37(371~37N)に供給する。これにより、代表点候補決定部37(371~37N)は、特徴点推定部35が推定した各特徴点を始点とした場合の代表点指向ベクトルの終点を、代表点候補として好適に特定することができる。
【0055】
(5-3)代表点の推定
次に、代表点推定部38による代表点の推定方法について説明する。代表点推定部38は、代表点候補情報Ic(Ic1~IcN)が示す特徴点毎の代表点候補を投票により統合することで、推定代表点を決定する。ここでは一例として、信頼度マップに基づく代表点候補の統合方法と、クラスタ分割に基づく代表点候補の統合方法とについて夫々具体的に説明する。
【0056】
図8は、信頼度マップに基づく代表点候補の統合処理の概要を示す。図8において、画像51~53は、特徴点の種類ごとに定められた代表点候補の座標位置が最大となる信頼度の正規分布(ガウス分布)を示す信頼度マップを、特徴点の推定位置を明示した検出対象画像Itagに重畳した画像である。また、画像54は、特徴点の種類毎の信頼度マップを統合(足し合わせ)したマップ(「累積マップ」とも呼ぶ。)を、特徴点の推定位置を明示した検出対象画像Itagに重畳した画像である。さらに、画像55は、累積マップに基づき決定した推定代表点を、特徴点の推定位置を明示した検出対象画像Itagに重畳した画像である。
【0057】
この場合、検出対象画像Itagに検出対象の物体(ここでは歩行者)が2体存在することから、代表点候補決定部37は、特徴点の種類ごとに2点の代表点候補を決定し、代表点推定部38は、これらの2点の代表点候補の座標位置を信頼度の最大値とする正規分布を含む信頼度マップを生成する。ここで、画像52では、対象となる特徴点又は代表点指向ベクトルの推定誤差等により、物体の外に1つの代表点候補が存在し、当該代表点候補の位置を中心とした高信頼度領域が設定されている。
【0058】
なお、代表点候補ごとに設定する正規分布の最大値は、例えば、対象の特徴点の推定における確からしさを表すスコア(「特徴点スコア」とも呼ぶ。)に基づき設定されてもよい。例えば、特徴点推定部15が特徴点の種類ごとに特徴点の信頼度マップを出力する場合には、代表点推定部38は、当該信頼度マップにおける特徴点に対応する信頼度を上述の特徴点スコアとみなし、対応する代表点候補の座標位置に当該特徴点スコアに応じた最大値を設定する。他の例では、特徴点推定部15が特徴点の種類ごとに特徴点の座標位置を出力する場合には、代表点推定部38は、当該座標位置と共に出力される確信度等を特徴点スコアとみなし、対応する代表点候補の座標位置に当該特徴点スコアに応じた最大値を設定する。
【0059】
そして、代表点推定部38は、特徴点の種類ごとの代表点候補に基づく信頼度マップを対応する画素(サブピクセルも含む)毎に足し合わせることで統合した累積マップを生成する(画像54参照)。ここで、累積マップには、検出対象画像Itagに含まれる2体の物体上に夫々信頼度のピークが形成されると共に、画像52に存在した物体外の代表点候補に対応する信頼度のピークが形成される。
【0060】
そして、代表点推定部38は、これらのピークのうち所定の条件を満たすピークの位置を、推定代表点として決定する。ここで、第1の例では、代表点推定部38は、累積マップにおける信頼度が所定値以上となるピークを、推定代表点として決定する。一方、代表点推定部38は、累積マップにおける信頼度が所定値未満となるピークを、誤差により生成されたピークとみなし、推定代表点として認定しない。上述の所定値については、例えば予め記憶装置2又はメモリ12等に記憶されている。また、第2の例では、代表点推定部38は、ピークごとに、当該ピークの位置での信頼度が所定の閾値以上となった代表点候補に対応する特徴点の種類数をカウントし、当該特徴点の種類数が所定数以上となるピークを、推定代表点として決定する。一方、代表点推定部38は、特徴点の種類数が所定数未満となるピークについては、誤差により生成されたピークとみなし、推定代表点として認定しない。上述の閾値及び所定数については、例えば予め記憶装置2又はメモリ12等に記憶されている。
【0061】
そして、図8の例では、画像54に示される累積マップにおいて3個のピークが存在し、代表点推定部38は、上述した第1の例又は第2の例に従い、これらの3個のピークのうち2個のピークの位置を推定代表点として決定する。また、この場合、代表点推定部38は、推定代表点の数に基づき、2体の検出対象の物体が存在することを認識する。このように、代表点推定部38は、信頼度マップに基づく代表点候補の統合処理によれば、特徴点毎の代表点候補に基づき、検出対象の物体の数及び代表点の推定位置を好適に算出することができる。
【0062】
なお、推定代表点を決めるマップの作成方法は、上述した例に限られない。例えば、代表点推定部38は、推定代表点を定めるマップを、各代表点候補の位置に基づいたハフ投票により求めてもよい。ハフ投票については、非特許文献に開示されている。この態様においても、代表点推定部38は、特徴点毎の代表点候補に基づき、検出対象の物体の代表点の推定位置を好適に求めることができる。
【0063】
次に、クラスタ分割に基づく代表点候補の統合方法について説明する。図9は、クラスタ分割に基づく代表点候補の統合方法の概要を示す。図9において、画像61~63は、特徴点の種類ごとに代表点候補決定部37(371~37N)が決定した代表点候補を、特徴点の推定位置を明示した検出対象画像Itag上に示した画像である。また、画像64は、全ての特徴点に対応する代表点候補を、特徴点の推定位置を明示した検出対象画像Itag上に示した画像である。さらに、画像65は、画像64に示される代表点候補に対してクラスタリング及びクラスタ毎の代表点の推定及び選定により推定及び選定された代表点である推定代表点を、特徴点の推定位置を明示した検出対象画像Itag上に示した画像である。
【0064】
この場合、検出対象画像Itagに検出対象の物体(人)が2体存在することから、代表点候補決定部37は、特徴点の種類ごとに2点の代表点候補を決定し、代表点推定部38は、これらの全ての代表点候補を対象として、クラスタ数を自動推定する任意のクラスタリング手法(例えばx-means法など)に基づき、k個のクラスタを決定する。図9の例では、画像64に示されるように、代表点推定部38は、破線枠66内の代表点候補の第1クラスタと、破線枠67内の第2クラスタと、破線枠68内の第3クラスタとを夫々生成する。
【0065】
そして、代表点推定部38は、各クラスタにおける代表点候補の重心点(「クラスタ重心点」とも呼ぶ。)を決定し、クラスタ重心点から推定代表点を選定する。
【0066】
この場合、第1の例では、各クラスタにおいて、クラスタ内に含まれる代表点候補の決定に用いた特徴点の種類数をカウントし、当該特徴点の種類数が所定数以上となるクラスタのクラスタ重心点を、推定代表点として決定する。一方、代表点推定部38は、特徴点の種類数が所定数未満となるクラスタのクラスタ重心点については、誤差により生成された点とみなし、推定代表点として認定しない。この場合、上述の閾値及び所定数については、例えば予め記憶装置2又はメモリ12等に記憶されている。
【0067】
第2の例では、代表点推定部38は、特徴点の推定において算出された特徴点スコアに基づき、推定代表点の選定を行う。具体的には、代表点推定部38は、クラスタ毎に各代表点候補に対応する特徴点スコアの代表値を算出し、特徴点スコアの代表値が閾値以上となるクラスタのクラスタ重心点を、推定代表点として決定する。ここで、代表値には、平均値、最低値、中央値、最頻値などが含まれる。一方、代表点推定部38は、特徴点スコアの代表値が閾値未満となるクラスタのクラスタ重心点については、誤差により生成された点とみなし、推定代表点として認定しない。なお、第2の例では、代表点推定部38は、クラスタ重心点の算出においても特徴点スコアを用いて重み付けを行ってもよい。この場合、代表点推定部38は、特徴点スコアに基づき各代表点候補の座標値を重み付け平均することで、クラスタ重心点の座標値を算出する。
【0068】
そして、図9の例では、画像64において3個のクラスタが存在し、代表点推定部38は、上述した第1の例又は第2の例に従い、これらの3個のクラスタのうち2個のクラスタのクラスタ重心点を推定代表点として決定する。また、この場合、代表点推定部38は、推定代表点の数に基づき、2体の検出対象の物体が存在することを認識する。このように、代表点推定部38は、クラスタ分割に基づく代表点候補の統合処理によれば、検出対象の物体の数及び代表点の推定位置を好適に算出することができる。
【0069】
(5-4)処理フロー
図10は、学習装置1による学習処理後において物体検出装置3が実行する処理手順を示すフローチャートの一例である。
【0070】
まず、物体検出装置3は、カメラ4が撮影した画像である検出対象画像Itagを取得する(ステップS11)。そして、物体検出装置3は、検出対象画像Itagに基づき、特徴マップMpを生成する(ステップS12)。この場合、物体検出装置3の特徴マップ出力部34は、学習装置1が学習したパラメータをパラメータ記憶部22から参照することで構成した特徴マップ出力モデルに検出対象画像Itagを入力することで、特徴マップMpを生成する。
【0071】
次に、物体検出装置3は、特徴点の種類ごとに特徴点及び代表点指向ベクトルの組を算出する(ステップS13)。この場合、物体検出装置3の特徴点推定部35(351~35N)は、学習装置1が学習したパラメータをパラメータ記憶部22から参照することで構成した特徴点推定モデルに特徴マップMpを入力することで、特徴点を示す特徴点情報Ip(Ip1~IpN)を生成する。また、ベクトル推定部36(361~36N)は、学習装置1が学習したパラメータをパラメータ記憶部22から参照することで構成したベクトル推定モデルに特徴マップMpを入力することで、代表点指向ベクトルを示すベクトル情報Iv(Iv1~IvN)を生成する。
【0072】
次に、物体検出装置3は、ステップS13で算出された特徴点及び代表点指向ベクトルの組ごとに代表点候補を決定する(ステップS14)。この場合、物体検出装置3の代表点候補決定部37(371~37N)は、特徴点及び代表点指向ベクトルの各組に対応する代表点候補を示す代表点候補情報Ic(Ic1~IcN)を生成する。
【0073】
次に、物体検出装置3は、ステップS14で決定された代表点候補に基づき代表点を推定する(ステップS15)。この場合、物体検出装置3の代表点推定部38は、各代表点候補に基づき、代表点候補の統合及び選定を行うことで、物体ごとの推定代表点を算出する。そして、物体検出装置3は、ステップS15で算出された推定代表点に基づき、物体構築を行う(ステップS16)。この場合、物体検出装置3の物体構築部39は、例えば、ステップS13で推定された物体ごとの特徴点及びステップS15で推定された物体ごとの推定代表点に基づき、物体ごとの位置及び姿勢を表す物体情報を生成する。
【0074】
以上のように、物体検出装置3は、各特徴点から代表点を推定することで物体構築を行う。これにより、物体検出装置3は、特徴点が他の物体により遮蔽されて隠れる状況が多発する混雑状況下でも、見える特徴点の情報から代表点を推定し、物体の有無の判定や姿勢推定を的確に実行することができる。
【0075】
(6)変形例
次に、上述した実施形態に適用可能な変形例について説明する。以下の変形例は、任意に組み合わせて実施されてもよい。
【0076】
(第1変形例)
物体検出装置3は、推定代表点の決定後、物体ごとの特徴点間において相互に位置の回帰を行うことで、各特徴点の推定位置を補正してもよい。
【0077】
図11は、補正対象となる特徴点を他の特徴点により回帰的に求めた推定位置(「回帰点」とも呼ぶ。)を各特徴点と共に検出対象画像Itag上に明示した図である。図11に示すように、物体検出装置3は、推定代表点の決定後、特徴点推定部15が推定した特徴点を物体ごとに分類し、物体ごとの特徴点間において相互に位置の回帰を行う。図11の例では、物体検出装置3は、補正対象の特徴点を頭部を表す関節点に定め、当該関節点に対する回帰点を、同一物体の他の特徴点(ここでは8個の関節点)の各々から夫々算出する。この場合、各特徴点から他の特徴点の回帰点を算出するモデルに関するパラメータ予め記憶装置2又はメモリ12等に記憶されており、物体検出装置3はこれらのパラメータに基づき構成したモデルにより回帰点の算出を行う。
【0078】
次に、物体検出装置3は、他の特徴点から算出した回帰点(ここでは8個の回帰点)と、補正対象の特徴点の補正前位置とを統合することにより、補正対象の特徴点の補正後の位置を算出する。例えば、物体検出装置3は、回帰点と補正対象の特徴点の補正前位置との重心位置を、補正対象の特徴点の補正後の位置として算出する。
【0079】
そして、物体検出装置3は、全ての特徴点を順に補正対象の特徴点とみなし、他の特徴点から求めた回帰点を用いて、特徴点推定部15による各特徴点の推定位置を補正する。このように、本変形例によれば、物体検出装置3は、特徴点推定部15による各特徴点の推定位置を好適に補正することができる。
【0080】
(第2変形例)
図10に示すフローチャートの処理は、検出対象画像Itagから物体が存在する領域を示す矩形領域(境界ボックス:Bounding Box)を検出する処理に好適に適用される。
【0081】
図12(A)は、検出対象の物体の境界ボックスを規定する四隅の頂点(「ボックス頂点」とも呼ぶ。)を特徴点として推定した場合の推定した特徴点を検出対象画像Itag上において明示した図である。また、図12(B)は、各特徴点から決定した代表点候補を検出対象画像Itag上において明示した図である。また、図12(C)は、代表点候補から決定した推定代表点及び推定されたボックス頂点である推定ボックス頂点を検出対象画像Itag上において明示した図である。
【0082】
この場合、まず、物体検出装置3は、ステップS11で検出対象画像Itagを取得して特徴マップMpを生成した後、ステップS13において、ボックス頂点に対応する4種類の特徴点(図12(A)参照)及び代表点指向ベクトルの推定を行う。さらに、物体検出装置3は、ステップS14において、ステップS13での処理結果に基づき、各特徴点に対応する代表点候補を決定する(図12(B)参照)。そして、物体検出装置3の代表点推定部38は、ステップS15において、決定した代表点候補から推定代表点を決定し、物体構築部39は、ステップS16において、決定した推定代表点から推定ボックス頂点をさらに決定する(図12(C)参照)。なお、物体の代表点から個々の特徴点を推定する手法については、例えば、非特許文献1に開示されている。
【0083】
また、図10に示すフローチャートの処理は、検出対象画像Itagから個々の物体の領域を検出する処理であるInstance Segmentationにも好適に適用される。
【0084】
図13(A)は、検出対象の物体の境界点を特徴点として推定した場合の推定した特徴点を検出対象画像Itag上において明示した図である。また、図13(Bは、各特徴点から決定した代表点候補を検出対象画像Itag上において明示した図である。また、図13(C)は、代表点候補から決定した推定代表点及び推定代表点から推定された境界点及び物体領域を検出対象画像Itag上において明示した図である。
【0085】
この場合、まず、物体検出装置3は、ステップS11で検出対象画像Itagを取得して特徴マップMpを生成した後、ステップS13において、物体の複数種類の境界点(図13(A)参照)及び代表点指向ベクトルの推定を行う。さらに、物体検出装置3は、ステップS14において、ステップS13での処理結果に基づき、各特徴点に対応する代表点候補を決定する(図13(B)参照)。そして、物体検出装置3の代表点推定部38は、ステップS15において、決定した代表点候補から推定代表点を決定し、物体構築部39は、ステップS16において、決定した推定代表点から境界点及び物体領域をさらに推定する(図12(C)参照)。この場合、物体構築部39は、推定代表点から境界点を推定した後、推定した境界点により囲んだ領域を物体領域として推定する。
【0086】
このように、物体検出装置3は、境界ボックスの検出処理及びInstance Segmentationなどの、物体が属する画像上の領域に関する推定を好適に実行することができる。
【0087】
<第2実施形態>
図14は、第2実施形態に係る推定装置3Xの概略構成を示す。推定装置3Xは、主に、特徴点推定手段35Xと、代表点候補決定手段37Xと、代表点推定手段38Xとを備える。推定装置3Xは、複数の装置から構成されてもよい。推定装置3Xは、第1実施形態における物体検出装置3とすることができる。
【0088】
特徴点推定手段35Xは、物体に関する複数の特徴点を推定する。特徴点推定手段35Xは、例えば、第1実施形態における特徴点推定部351~35N(図5参照)又は特徴点推定部35(図6参照)とすることができる。
【0089】
代表点候補決定手段37Xは、複数の特徴点に基づき、物体の代表点の候補である複数の代表点候補を決定する。代表点候補決定手段37Xは、例えば、第1実施形態における代表点候補決定部371~37N(図5参照)又は代表点候補決定部37(図6参照)とすることができる。代表点推定手段38Xは、複数の代表点候補に基づき、代表点を推定する。代表点推定手段38Xは、例えば、第1実施形態における代表点推定部38とすることができる。
【0090】
図15は、第2実施形態において推定装置3Xが実行する処理手順を示すフローチャートの一例である。特徴点推定手段35Xは、物体に関する複数の特徴点を推定する(ステップS21)。代表点候補決定手段37Xは、複数の特徴点に基づき、物体の代表点の候補である複数の代表点候補を決定する(ステップS22)。代表点推定手段38Xは、複数の代表点候補に基づき、代表点を推定する(ステップS23)。
【0091】
第2実施形態によれば、推定装置3Xは、物体の一部が隠れて撮影された場合であっても、物体の代表点を高精度に推定することができる。
【0092】
以上、実施形態を参照して本願発明を説明したが、本願発明は上記実施形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。すなわち、本願発明は、請求の範囲を含む全開示、技術的思想にしたがって当業者であればなし得るであろう各種変形、修正を含むことは勿論である。また、引用した上記の特許文献等の各開示は、本書に引用をもって繰り込むものとする。
【符号の説明】
【0093】
1 学習装置
2 記憶装置
3 物体検出装置
3X 推定装置
4 カメラ
11、31 プロセッサ
12、32 メモリ
13、33 インターフェース
21 学習データ記憶部
22 パラメータ記憶部
100 物体検出システム
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14
図15