IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 株式会社ジェイテクトの特許一覧

特開2024-151463検出装置、検出方法、およびコンピュータプログラム
<>
  • 特開-検出装置、検出方法、およびコンピュータプログラム 図1
  • 特開-検出装置、検出方法、およびコンピュータプログラム 図2
  • 特開-検出装置、検出方法、およびコンピュータプログラム 図3
  • 特開-検出装置、検出方法、およびコンピュータプログラム 図4
  • 特開-検出装置、検出方法、およびコンピュータプログラム 図5
  • 特開-検出装置、検出方法、およびコンピュータプログラム 図6
  • 特開-検出装置、検出方法、およびコンピュータプログラム 図7
  • 特開-検出装置、検出方法、およびコンピュータプログラム 図8
  • 特開-検出装置、検出方法、およびコンピュータプログラム 図9
  • 特開-検出装置、検出方法、およびコンピュータプログラム 図10
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024151463
(43)【公開日】2024-10-25
(54)【発明の名称】検出装置、検出方法、およびコンピュータプログラム
(51)【国際特許分類】
   G06V 10/25 20220101AFI20241018BHJP
   G06T 7/20 20170101ALI20241018BHJP
【FI】
G06V10/25
G06T7/20 300Z
【審査請求】未請求
【請求項の数】8
【出願形態】OL
(21)【出願番号】P 2023064808
(22)【出願日】2023-04-12
(71)【出願人】
【識別番号】000001247
【氏名又は名称】株式会社ジェイテクト
(74)【代理人】
【識別番号】110000280
【氏名又は名称】弁理士法人サンクレスト国際特許事務所
(72)【発明者】
【氏名】渡邉 浩平
【テーマコード(参考)】
5L096
【Fターム(参考)】
5L096FA02
5L096FA09
5L096FA64
5L096GA51
5L096HA03
(57)【要約】      (修正有)
【課題】適切な大きさのバウンディングボックスを生成する処理部、検出装置及び検出方法を提供する。
【解決手段】動作解析システムにおいて、処理装置(処理装置)は、人物が撮像された動画像を取得する第1処理と、動画像に含まれる画像について人物の画像領域A1を検出する第2処理と、画像領域A1に基づいてバウンディングボックスB1を生成する第3処理と、バウンディングボックスB1の状態または人物の状態を判定する第4処理と、第4処理の判定結果に応じて、バウンディングボックスB1の大きさを補正した補正バウンディングボックスBA1を生成する第5処理と、画像のうち補正バウンディングボックスBA1で囲まれた部分画像を用いて人物の関節点を検出する第6処理と、を実行する処理部を備える。
【選択図】図5
【特許請求の範囲】
【請求項1】
移動体が撮像された動画像を取得する第1処理と、
前記動画像に含まれる画像について前記移動体の画像領域を検出する第2処理と、
前記画像領域に基づいてバウンディングボックスを生成する第3処理と、
前記バウンディングボックスの状態または前記移動体の状態を判定する第4処理と、
前記第4処理の判定結果に応じて、前記バウンディングボックスの大きさを補正した補正バウンディングボックスを生成する第5処理と、
前記画像のうち前記補正バウンディングボックスで囲まれた部分画像を用いて前記移動体の特徴点を検出する第6処理と、
を実行する処理部を備える
検出装置。
【請求項2】
前記バウンディングボックスの状態は、状態推定によって求めた前記バウンディングボックスの推定寸法と、前記バウンディングボックスの寸法との誤差を含み、
前記第4処理では、前記誤差と、所定の閾値と、の比較によって前記バウンディングボックスの状態を判定する
請求項1に記載の検出装置。
【請求項3】
前記補正バウンディングボックスの大きさは、前記推定寸法と、前記誤差とに基づいて定められる
請求項2に記載の検出装置。
【請求項4】
前記移動体の状態は、前記移動体の移動速度を含み、
前記第4処理では、前記移動速度と、所定の閾値と、の比較によって前記バウンディングボックスの状態を判定する
請求項1に記載の検出装置。
【請求項5】
前記移動体は歩行中の人物であり、
前記移動体の状態は、前記移動体の歩行フェーズを含む
請求項1に記載の検出装置。
【請求項6】
前記第5処理は、
前記第4処理の判定結果に応じて、前記バウンディングボックスの大きさよりも大きくなるように補正した仮補正バウンディングボックスを生成する処理と、
前記仮補正バウンディングボックスと、前記バウンディングボックス以外の他のバウンディングボックスとの重なり度合いを求める処理と、
前記仮補正バウンディングボックスを前記補正バウンディングボックスとする処理、または、大きさが小さくなるように前記仮補正バウンディングボックスを補正し前記重なり度合いを求める処理を再度行う処理、のいずれかを前記重なり度合いに応じて実行する処理と、を含む
請求項1に記載の検出装置。
【請求項7】
移動体の特徴点を検出する検出方法であって、
前記移動体が撮像された動画像を取得する第1ステップと、
前記動画像に含まれる画像について前記移動体の画像領域を検出する第2ステップと、
前記画像領域に基づいてバウンディングボックスを生成する第3ステップと、
前記バウンディングボックスの状態または前記移動体の状態を判定する第4ステップと、
前記第4ステップの判定結果に応じて、前記バウンディングボックスの大きさを補正した補正バウンディングボックスを生成する第5ステップと、
前記画像のうち前記補正バウンディングボックスで囲まれた部分画像を用いて前記移動体の特徴点を検出する第6ステップと、を含む
検出方法。
【請求項8】
移動体の特徴点を検出する検出処理をコンピュータに実行させるためのコンピュータプログラムであって、
コンピュータに、
前記移動体が撮像された動画像を取得する第1ステップと、
前記動画像に含まれる画像について前記移動体の画像領域を検出する第2ステップと、
前記画像領域に基づいてバウンディングボックスを生成する第3ステップと、
前記バウンディングボックスの状態または前記移動体の状態を判定する第4ステップと、
前記第4ステップの判定結果に応じて、前記バウンディングボックスの大きさを補正した補正バウンディングボックスを生成する第5ステップと、
前記画像のうち前記補正バウンディングボックスで囲まれた部分画像を用いて前記移動体の特徴点を検出する第6ステップと、を実行させる
コンピュータプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、検出装置、検出方法、およびコンピュータプログラムに関する。
【背景技術】
【0002】
従来から、人物等の移動体の特徴点を取得するために、バウンディングボックスが用いられることがある。
バウンディングボックスは、画像内における移動体の画像領域を囲む矩形状の境界枠である。画像のうち、バウンディングボックスによって囲まれた領域が切り出され、切り出された領域の画像を用いて移動体の特徴点の検出が行われる(例えば、特許文献1参照)。
【先行技術文献】
【特許文献】
【0003】
【特許文献1】特開2022-178935号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
バウンディングボックスは、画像中において検出された移動体の画像領域に対して生成される。
しかし、移動体が高速で移動している場合や、撮像条件が良好でない場合、移動体の画像領域にぶれが生じ、画像領域全体を含むようにバウンディングボックスを設けることができないおそれがある。
【0005】
画像領域全体を含むようにバウンディングボックスの大きさを適切に設定することができないと、精度良く移動体の特徴点の検出を行うことができない。
このため、バウンディングボックスの大きさを適切に設定することができる技術が望まれる。
【課題を解決するための手段】
【0006】
実施形態である検出装置は、移動体が撮像された動画像を取得する第1処理と、前記動画像に含まれる画像について前記移動体の画像領域を検出する第2処理と、前記画像領域に基づいてバウンディングボックスを生成する第3処理と、前記バウンディングボックスの状態または前記移動体の状態を判定する第4処理と、前記第4処理の判定結果に応じて、前記バウンディングボックスの大きさを補正した補正バウンディングボックスを生成する第5処理と、前記画像のうち前記補正バウンディングボックスで囲まれた部分画像を用いて前記移動体の特徴点を検出する第6処理と、を実行する処理部を備える。
【発明の効果】
【0007】
本開示によれば、適切な大きさのバウンディングボックスを生成することができる。
【図面の簡単な説明】
【0008】
図1図1は、実施形態に係る動作解析システムの全体構成を示す図である。
図2図2は、動作解析システムを用いた動作解析の手順を示すフローチャートである。
図3図3は、第1実施形態に係る関節点の検出処理を示すフローチャートである。
図4図4は、動画像に含まれる画像にバウンディングボックスが生成される際の態様を説明するための図である。
図5図5は、処理部がバウンディングボックスの推定寸法および誤差の求め方を説明するための図である。
図6図6は、図4に示す第1バウンディングボックスを補正することで得られた仮補正バウンディングボックスと、第2バウンディングボックスと、が重複している状態を示す図である。
図7図7は、部分画像の一例を示す図である。
図8図8は、第2実施形態に係る関節点の検出処理を示すフローチャートである。
図9図9は、本実施形態の仮補正バウンディングボックスを示す図である。
図10図10は、人物の状態として、歩行フェーズを用いる場合の関節点の検出処理を示すフローチャートである。
【発明を実施するための形態】
【0009】
最初に実施形態の内容を列記して説明する。
[実施形態の概要]
(1)実施形態である検出装置は、移動体が撮像された動画像を取得する第1処理と、前記動画像に含まれる画像について前記移動体の画像領域を検出する第2処理と、前記画像領域に基づいてバウンディングボックスを生成する第3処理と、前記バウンディングボックスの状態または前記移動体の状態を判定する第4処理と、前記第4処理の判定結果に応じて、前記バウンディングボックスの大きさを補正した補正バウンディングボックスを生成する第5処理と、前記画像のうち前記補正バウンディングボックスで囲まれた部分画像を用いて前記移動体の特徴点を検出する第6処理と、を実行する処理部を備える。
【0010】
上記構成によれば、動画像の撮像時に移動体が高速で移動していたり、撮像条件が良好でなかったりすることで、移動体の画像領域全体を含むようなバウンディングボックスを生成することができないおそれがある場合であっても、バウンディングボックスの状態または移動体の状態の判定結果に応じて、バウンディングボックスの大きさを補正した補正バウンディングボックスを生成するので、適切な大きさのバウンディングボックスを得ることができる。
【0011】
(2)上記検出装置において、前記バウンディングボックスの状態が、状態推定によって求めた前記バウンディングボックスの推定寸法と、前記バウンディングボックスの寸法との誤差を含む場合、前記第4処理では、前記誤差と、所定の閾値と、の比較によって前記バウンディングボックスの状態を判定することが好ましい。
【0012】
(3)上記検出装置において、前記補正バウンディングボックスの大きさは、前記推定寸法と、前記誤差とに基づいて定められてもよい。
この場合、バウンディングボックスの推定寸法に対し、誤差に基づく値を加算するように構成すれば、補正バウンディングボックスの大きさをバウンディングボックスの推定寸法よりも大きく設定することができる。これにより、移動体の画像領域全体を含むことができる補正バウンディングボックスを生成することができる。
【0013】
(4)上記検出装置において、前記移動体の状態が、前記移動体の移動速度を含む場合、前記第4処理では、前記移動速度と、所定の閾値と、の比較によって前記バウンディングボックスの状態を判定してもよい。
この場合、移動体の移動速度に応じて、補正バウンディングボックスを生成することができる。
【0014】
(5)上記検出装置において、前記移動体は歩行中の人物である場合、前記移動体の状態は、前記移動体の歩行フェーズを含むものであってもよい。
この場合、歩行フェーズに応じて、補正バウンディングボックスを生成することができる。
【0015】
(6)上記検出装置において、前記第5処理は、前記第4処理の判定結果に応じて、前記バウンディングボックスの大きさよりも大きくなるように補正した仮補正バウンディングボックスを生成する処理と、前記仮補正バウンディングボックスと、前記バウンディングボックス以外の他のバウンディングボックスとの重なり度合いを求める処理と、前記仮補正バウンディングボックスを前記補正バウンディングボックスとする処理、または、大きさが小さくなるように前記仮補正バウンディングボックスを補正し前記重なり度合いを求める処理を再度行う処理、のいずれかを前記重なり度合いに応じて実行する処理と、を含むことが好ましい。
この場合、重なり度合いが所定の閾値以下になるまで仮補正バウンディングボックスを補正するように構成することができ、重なり度合いが抑制された補正バウンディングボックスを得ることができる。
【0016】
(7)また、他の観点から見た実施形態は、移動体の特徴点を検出する検出方法である。この検出方法は、前記移動体が撮像された動画像を取得する第1ステップと、前記動画像に含まれる画像について前記移動体の画像領域を検出する第2ステップと、前記画像領域に基づいてバウンディングボックスを生成する第3ステップと、前記バウンディングボックスの状態または前記移動体の状態を判定する第4ステップと、前記第4ステップの判定結果に応じて、前記バウンディングボックスの大きさを補正した補正バウンディングボックスを生成する第5ステップと、前記画像のうち前記補正バウンディングボックスで囲まれた部分画像を用いて前記移動体の特徴点を検出する第6ステップと、を含む。
【0017】
(8)また、他の観点から見た実施形態は、移動体の特徴点を検出する検出処理をコンピュータに実行させるためのコンピュータプログラムである。このコンピュータプログラムは、コンピュータに、前記移動体が撮像された動画像を取得する第1ステップと、前記動画像に含まれる画像について前記移動体の画像領域を検出する第2ステップと、前記画像領域に基づいてバウンディングボックスを生成する第3ステップと、前記バウンディングボックスの状態または前記移動体の状態を判定する第4ステップと、前記第4ステップの判定結果に応じて、前記バウンディングボックスの大きさを補正した補正バウンディングボックスを生成する第5ステップと、前記画像のうち前記補正バウンディングボックスで囲まれた部分画像を用いて前記移動体の特徴点を検出する第6ステップと、を実行させるコンピュータプログラムである。
【0018】
[実施形態の詳細]
以下、好ましい実施形態について図面を参照しつつ説明する。
〔全体構成について〕
図1は、実施形態に係る動作解析システムの全体構成を示す図である。
実施形態に係る動作解析システム1は、移動体である人物を撮像し、撮像した動画に基づいて人物の動作解析を行うシステムである。
【0019】
動作解析システム1は、カメラ2と、処理装置4と、を備える。
カメラ2は、CCD素子やCMOS素子等の撮像素子およびレンズ等の光学機構を有する撮像装置である。カメラ2は、所定の撮像範囲を撮像し動画または静止画等の2次元の画像データを生成する機能を有する。カメラ2は、撮像範囲内の人物M1および人物M2を被写体とし、人物M1および人物M2が撮像された動画像を生成する。なお、人物M1および人物M2は、総括して人物Mと呼ぶことがある。
カメラ2は、処理装置4に通信可能に接続されている。カメラ2が生成する動画像は、データとして処理装置4へ与えられる。
【0020】
処理装置4は、処理部6と、記憶部8と、入出力部10と、を備えるコンピュータ等により構成される。
処理部6は、例えば、CPU(Central Processing Unit)等からなる。
【0021】
記憶部8は、例えば、フラッシュメモリ、ハードディスク、ROM(Read Only Memory)、RAM(Random Access Memory)等である。
記憶部8には、処理部6に実行させるためのコンピュータプログラムや、必要な情報が記憶されている。処理部6は、記憶部8のようなコンピュータ読み取り可能な非一過性の記録媒体に記憶されたコンピュータプログラムを実行することで、処理部6が有する各種処理機能を実現する。
【0022】
入出力部10は、入力デバイスと、出力デバイスと、を含む。入力デバイスは処理装置4のオペレータによる操作を受け付ける機能を有する。入力デバイスには、キーボードやマウス、タッチパネル等が含まれる。出力デバイスは、処理装置4による処理に関する各種情報を外部へ向けて出力する機能を有する。出力デバイスには、モニタや、プリンタ、タッチパネル、スピーカ等が含まれる。
【0023】
図2は、動作解析システム1を用いた動作解析の手順を示すフローチャートである。
動作解析では、まず、カメラ2によって人物Mの撮像が行われる(図2中、ステップS1)。人物Mが撮像された動画像は、処理装置4に与えられる。処理装置4の処理部6は、動画像に基づいて、人物Mの特徴点である関節点を検出する(図2中、ステップS2)。
次いで、処理装置4は、検出した関節点に基づいて、人物Mの動作を把握し、動作解析を行う(図2中、ステップS3)。
処理装置4は、入出力部10を介して外部へ動作解析の結果を出力する(ステップS4)。
【0024】
ここで、処理装置4は、人物Mの関節点を検出する機能を有している。つまり、処理装置4は、人物(移動体)の関節点(特徴点)を検出する検出装置を構成する。
以下、処理装置4による関節点の検出処理について説明する。
【0025】
〔第1実施形態に係る検出処理について〕
図3は、第1実施形態に係る関節点の検出処理を示すフローチャートである。
関節点の検出処理において、処理装置4の処理部6は、まず、カメラ2によって人物Mが撮像された動画像を取得する(図3中、ステップS10:第1処理)。
次いで、処理部6は、動画像に含まれる複数の画像における人物Mの画像領域を検出し(図3中、ステップS11:第2処理)、バウンディングボックスを生成する(図3中、ステップS12:第3処理)。
【0026】
図4は、動画像に含まれる画像にバウンディングボックスが生成される際の態様を説明するための図である。
図4に示すように、処理部6が取得する動画像14は、複数の画像16を含む。複数の画像16は、時系列に連続している。
本実施形態において、動画像14は、移動する2人の人物M1(第1移動体)および人物M2(第2移動体)を撮像した動画像である。
よって、複数の画像16には、それぞれ、人物M1および人物M2が撮像されている。
【0027】
処理部6は、複数の画像16それぞれについて、撮像されている人物全員を検出する。よって、処理部6は、人物M1の第1画像領域A1および人物M2の第2画像領域A2を検出する。第1画像領域A1および第2画像領域A2は、総括して画像領域Aと呼ぶことがある。
なお、以下の説明では、1つの画像16aにおける1つの画像領域A(第1画像領域A1)に対する処理について説明するが、処理部6は、複数の画像16に含まれる複数の第1画像領域A1および複数の第2画像領域A2それぞれに対して、同じ処理を行う。
【0028】
処理部6は、機械学習を利用した手法を用いて、画像16から、人物Mの画像領域Aを検出する。
人物Mの画像領域Aを検出すると、処理部6は、バウンディングボックスを画像16に生成する。
処理部6は、両画像領域A1、A2それぞれに対してバウンディングボックスを設ける。バウンディングボックスは画像領域Aを囲む矩形状の境界線である。
【0029】
図4中、1つの画像16aにおいて、第1画像領域A1は、第1バウンディングボックスB1によって囲まれている。第2画像領域A2は、第2バウンディングボックスB2によって囲まれている。なお、第1バウンディングボックスB1および第2バウンディングボックスB2は、総括してバウンディングボックスBと呼ぶことがある。
【0030】
処理部6は、画像領域Aに基づいてバウンディングボックスBを生成する。例えば、図4中、画像16aを構成する画素がX-Y座標によって特定することができる場合、処理部6は、第1画像領域A1におけるX座標の最大値および最小値を通過するY軸に平行な一対の直線と、第1画像領域A1におけるY座標の最大値および最小値を通過するX軸に平行な一対の直線と、によって構成される矩形状の第1バウンディングボックスB1を生成する。
第2バウンディングボックスB2も同様に生成される。
【0031】
なお、動画像14の撮像時に人物Mが高速で移動していたり、撮像条件が良好でなかったりする場合、処理部6は、精度良く画像領域Aを囲んだバウンディングボックスBを生成できないおそれがある。
撮像時に人物Mが高速で移動していると、画像領域Aにぶれが生じ、画像領域Aの輪郭が明瞭に表れないことがある。このため、処理部6は、実際の画像領域Aよりも小さい範囲のバウンディングボックスBを生成することがある。
そこで、本実施形態の処理部6は、バウンディングボックスBの状態を判定し、その判定結果に応じて、バウンディングボックスBを用いて処理を継続するか、バウンディングボックスBの大きさを補正した補正バウンディングボックスを生成するか、のいずれかを選択する。
【0032】
処理部6は、バウンディングボックスBを生成すると、まず、バウンディングボックスBの推定寸法および誤差を求める(図3中、ステップS13)。
図5は、処理部6がバウンディングボックスBの推定寸法および誤差の求め方を説明するための図である。
【0033】
処理部6は、第1バウンディングボックスB1の推定寸法を状態推定によって求める。つまり、本実施形態において、第1バウンディングボックスB1の推定寸法とは状態推定によって求めた第1バウンディングボックスB1の寸法である。
図5に示すように、画像16の人物M1の第1画像領域A1に対して設けられた現在の第1バウンディングボックスB1の寸法は、幅wおよび高さhを含む。幅wは第1バウンディングボックスB1のX座標(X方向)の寸法である。高さhは第1バウンディングボックスB1のY座標(Y方向)の寸法である。
【0034】
処理部6は、現在の第1バウンディングボックスB1の幅wおよび高さhを求めると、カルマンフィルタを用いて第1バウンディングボックスB1の推定寸法を求める。推定寸法は、推定幅weおよび推定高さheを含む。推定幅weは幅wの推定値である。推定高さheは高さhの推定値である。
処理部6は、過去の画像16(1つ前のタイミングの画像16)の第1バウンディングボックスB1の推定寸法(推定幅weおよび推定高さhe)と、現在の第1バウンディングボックスB1の寸法(幅wおよび高さh)と、を用いて、カルマンフィルタによる状態推定を行う。処理部6は、この状態推定によって、現在の第1バウンディングボックスB1の推定寸法を求める。
【0035】
図5では、画像領域Aに対して小さく設定されている第1バウンディングボックスB1が示されている。
また、処理部6が求めた推定寸法である推定幅weおよび推定高さheは、幅wおよび高さhよりも大きい値となっている。
推定寸法を求めると、処理部6は、第1バウンディングボックスB1の誤差を求める。
第1バウンディングボックスB1の誤差は、第1バウンディングボックスB1の推定寸法に対する誤差である。
処理部6は、推定幅weと幅wとの差分の標準偏差σwを求める。
また、処理部6は、推定高さheと高さhとの差分の標準偏差σhを求める。
処理部6は、標準偏差σwおよび標準偏差σhを、第1バウンディングボックスB1の誤差として求める。
なお、本実施形態において標準偏差σwは、推定幅weと幅wとの差分の絶対値である。また、標準偏差σhは、推定高さheと高さhとの差分の絶対値である。
【0036】
第1バウンディングボックスB1の誤差を求めると、処理部6は、次いで、誤差(標準偏差σwおよび標準偏差σh)と、所定の閾値とを比較し、第1バウンディングボックスB1の状態を判定する。
より具体的に、処理部6は、標準偏差σwが所定の閾値Twより小さく、かつ、標準偏差σhが所定の閾値Thより小さいか否かを判定する(図3中、ステップS14:第4処理)。
標準偏差σwが所定の閾値Twより小さく、かつ、標準偏差σhが所定の閾値Thより小さい場合、処理部6は、図3中、ステップS21へ進み、画像16のうちの第1バウンディングボックスB1によって囲まれる領域部分を部分画像として切り出し、さらに、部分画像を用いて人物M1の特徴点である関節点を検出し(図3中、ステップS22)、処理を終える。図3中、ステップS22については、後に説明する。
【0037】
閾値Twおよび閾値Thは、第1バウンディングボックスB1が第1画像領域A1を囲んでいると判断しうる値に設定される。
よって、標準偏差σwおよび標準偏差σhが、図3中のステップS14の条件を満たす場合、第1バウンディングボックスB1は第1画像領域A1を囲んでいると判断することができる。よって、処理部6は、第1バウンディングボックスB1によって部分画像を切り出し、関節点の検出を行う。
【0038】
標準偏差σwおよび標準偏差σhが、図3中のステップS14の条件を満たさない場合、処理部6は、第1バウンディングボックスB1の大きさを補正した補正バウンディングボックスを生成し(第5処理)、補正バウンディングボックスによって囲まれる領域部分を部分画像として切り出し(図3中、ステップS21)、さらに、部分画像を用いて人物M1の特徴点である関節点を検出し(図3中、ステップS22)、処理を終える。
【0039】
より具体的に、標準偏差σwおよび標準偏差σhが、図3中のステップS14の条件を満たさない場合、処理部6は、図3中、ステップS15へ進み、仮補正バウンディングボックスを生成する。
仮補正バウンディングボックスは、第1バウンディングボックスB1を補正したバウンディングボックスである。処理部6は、第1バウンディングボックスB1に代えて仮補正バウンディングボックスを生成する。
【0040】
図5に示すように、仮補正バウンディングボックスBT1は、第1バウンディングボックスB1の大きさよりも大きく設定される。
仮補正バウンディングボックスBT1の寸法は、第1バウンディングボックスB1の推定寸法および誤差に基づいて求められる。
より具体的に、仮補正バウンディングボックスBT1の幅wtは、下記式(1)のように表される。
また、仮補正バウンディングボックスBT1の高さhtは、下記式(2)のように表される。
wt = we + n × σw ・・・(1)
ht = he + n × σh ・・・(2)
【0041】
上記式(1)および(2)中のnは係数であり、本実施形態では、係数nは正の実数である。係数nの初期値は「3」である。
また、仮補正バウンディングボックスBT1の重心位置と、第1バウンディングボックスB1の重心位置と、は一致している。つまり、仮補正バウンディングボックスBT1の位置は、第1バウンディングボックスB1の重心位置に基づいて設定される。
仮補正バウンディングボックスBT1は、一定の条件nを満たすと、補正バウンディングボックスBA1とされる。
【0042】
仮補正バウンディングボックスBT1を生成すると、処理部6は、仮補正バウンディングボックスBT1に重複する他のバウンディングボックスの有無を判定する(図3中、ステップS16)。
ステップS16において、仮補正バウンディングボックスBT1に重複する他のバウンディングボックスが有ると判定する場合、処理部6は、仮補正バウンディングボックスBT1と、他のバウンディングボックスと、のIoU(Intersection over Union)を求める(図3中、ステップS17)。
IoUとは、2つの領域の重なり度合いを示す数値である。IoUは、2つの領域の共通部分を2つの領域の和集合で除算した値である。
【0043】
IoUを求めると、処理部6は、重なり度合いを示すIoUに応じて、仮補正バウンディングボックスBT1を補正バウンディングボックスBA1とする処理、または、大きさが小さくなるように仮補正バウンディングボックスBT1を補正する処理、のいずれかを実行する。
より具体的に、処理部6は、図3中のステップS18においてIoUが所定の閾値TIよりも大きいか否かを判定する。
IoUが閾値TIよりも大きくない(IoUが閾値TI以下である)と判定すると、処理部6は、図3中のステップS20へ進み、仮補正バウンディングボックスBT1を補正バウンディングボックスBA1とする(図3中、ステップS20:第5処理)。その後、処理部6は、図3中、ステップS21へ進み、画像16のうちの補正バウンディングボックスBA1によって囲まれる領域部分を部分画像として切り出し(図3中、ステップS21)、さらに、部分画像を用いて人物M1の特徴点である関節点を検出し(図3中、ステップS22:第6処理)、処理を終える。
【0044】
一方、図3中、ステップS18において、IoUが閾値TIよりも大きいと判定すると、処理部6は、図3中のステップS19へ進み、仮補正バウンディングボックスBT1を補正する(図3中、ステップS19)。
処理部6は、上記式(1)および(2)中の係数nを調整することで、仮補正バウンディングボックスBT1の寸法が小さくなるように補正する。
【0045】
図6は、図4に示す第1バウンディングボックスB1を補正することで得られた仮補正バウンディングボックスBT1と、第2バウンディングボックスB2と、が重複している状態を示す図である。
仮補正バウンディングボックスBT1は、上述のように、第1バウンディングボックスB1よりも大きく設定される。このため、仮補正バウンディングボックスBT1は、仮補正バウンディングボックスBT1に隣接する他のバウンディングボックスである第2バウンディングボックスB2に大きく重複してしまうおそれがある。仮補正バウンディングボックスBT1が第2バウンディングボックスB2に重複してしまうと、第1画像領域A1の関節点の他、第2バウンディングボックスB2内の第2画像領域A2の関節点を検出してしまうおそれがあり、関節点の検出精度の低下を生じさせるおそれがある。
【0046】
そこで、処理部6は、仮補正バウンディングボックスBT1の寸法が小さくなるように係数nを調整する。
処理部6は、例えば、係数nを初期値の「3」から「2.5」へ調整し、再度、図3中のステップS17へ戻り、IoUを求める。係数nを「2.5」に調整した後、さらに、図3中のステップS19に進んだ場合、処理部6は、係数nを「2.5」から「2.0」へ調整する。このように、処理部6は、ステップS19を繰り返し実行することに応じて、係数nを段階的に小さい値に調整する。
【0047】
処理部6は、IoUが閾値TI以下であると判定するまで、図3中のステップS17-S19を繰り返し、IoUが閾値TI以下であると判定すると、図3中のステップS20へ進み、仮補正バウンディングボックスBT1を補正バウンディングボックスBA1とする(図3中、ステップS20)。
このように、本実施形態では、IoUが閾値TI以下になるまで仮補正バウンディングボックスBT1を補正するので、IoUが抑制された補正バウンディングボックスBA1を得ることができる。
なお、閾値TIは、仮補正バウンディングボックスBT1と他のバウンディングボックスとが重複していたとしても、互いの関節点の検出精度が低下しない程度の値に設定される。
【0048】
図3中のステップS20において、仮補正バウンディングボックスBT1を補正バウンディングボックスとすると、処理部6は、図3中、ステップS21へ進み、画像16のうちの補正バウンディングボックスによって囲まれる領域部分を部分画像として切り出し(図3中、ステップS21)、部分画像を用いて人物M1の特徴点である関節点を検出する(図3中、ステップS22)。
【0049】
図7は、部分画像の一例を示す図である。図7は、第1画像領域A1を含む部分画像18を示している。
処理部6は、部分画像18における人物M1の第1画像領域A1を取得し、第1画像領域A1に基づいて、人物M1の骨格m1を推定する。さらに、処理部6は、骨格m1に基づいて、人物M1の特徴点である複数の関節点m2を検出する。
処理部6は、機械学習を利用した手法を用いて、人物M1の骨格m1および複数の関節点m2の推定を行う。骨格m1および複数の関節点m2の推定手法としては、オープンポーズ等の公知の手法が挙げられる。
人物画像に基づいて、関節点m2を検出すると(図3中、ステップS22)、処理部6は、処理を終える。
【0050】
上記構成によれば、動画像14の撮像時に移動体である人物Mが高速で移動していたり、撮像条件が良好でなかったりすることで、人物Mの画像領域A全体を含むようなバウンディングボックスBを生成することができないおそれがある場合であっても、バウンディングボックスBの状態の判定結果に応じて、バウンディングボックスBの大きさを補正した補正バウンディングボックスを生成するので、適切な大きさのバウンディングボックスを得ることができる。
【0051】
また、本実施形態では、補正バウンディングボックスの寸法は、バウンディングボックスBの推定寸法に、バウンディングボックスBの誤差に基づく値を加算することで定めるように構成したので、補正バウンディングボックスの大きさをバウンディングボックスBの推定寸法よりもより大きく設定することができる。これにより、画像領域A全体を含むことができる補正バウンディングボックスを生成することができる。
【0052】
〔第2実施形態について〕
図8は、第2実施形態に係る関節点の検出処理を示すフローチャートである。
図8では、図3に示した第1実施形態に係る検出処理のフローチャートと異なる部分を示している。その他の部分については、図3と同様である。ここでは、第1実施形態と異なる部分についてのみ説明する。
【0053】
図8に示すフローチャートは、ステップS12の後にステップS23を有する点、および、ステップS14がステップS24に変更されている点において、図3に示すフローチャートと異なっている。
【0054】
図8中、ステップS12においてバウンディングボックスBを生成すると、処理部6は、ステップS23へ進み、人物M1の歩行速度(移動速度)を取得する。処理部6は、現在処理を行っている画像16a、および画像16aよりも過去のタイミングの画像16に基づいて、人物M1の歩行速度を求める。
処理部6は、現在処理を行っている画像16aの第1画像領域A1、および過去のタイミングの画像16の第1画像領域A1を比較し、一定時間に対する第1画像領域A1の移動量を求め、人物M1の歩行速度を求める。処理部6は、人物M1の状態として、歩行速度を求める。
【0055】
歩行速度を求めると、処理部6は、ステップS24へ進み、歩行速度と、所定の閾値Tvと、を比較し、人物M1の状態を判定する。
より具体的に、処理部6は、歩行速度が閾値Tvよりも小さいか否かを判定する(図8中、ステップS24:第4処理)。
【0056】
歩行速度が閾値Tvより小さいと判定される場合、処理部6は、図3中、ステップS21へ進み、画像16のうちの第1バウンディングボックスB1によって囲まれる領域部分を部分画像として切り出し(図3中、ステップS21)、さらに、部分画像を用いて人物M1の特徴点である関節点を検出し(図3中、ステップS22)、処理を終える。
【0057】
閾値Tvは、第1バウンディングボックスB1が第1画像領域A1を囲むように生成されうる歩行速度の上限値に設定される。
よって、歩行速度が閾値Tvよりも小さいと判定される場合、第1バウンディングボックスB1は第1画像領域A1を囲んでいると判断することができる。よって、処理部6は、第1バウンディングボックスB1によって部分画像を切り出し、関節点の検出を行う。
【0058】
歩行速度が閾値Tvより小さくない(閾値Tv以上である)場合、処理部6は、ステップS15へ進み、仮補正バウンディングボックスを生成する。
【0059】
図9は、本実施形態の仮補正バウンディングボックスBT1を示す図である。
本実施形態における仮補正バウンディングボックスBT1の寸法(幅wtおよび高さht)は、下記式(3)(4)のように表される。
wt = m × w ・・・(3)
ht = m × h ・・・(4)
【0060】
上記式(3)および(4)中のmは係数であり、本実施形態では、係数mは正の実数である。係数mの初期値は「1.3」である。
このように、本実施形態では、第1バウンディングボックスB1の幅wおよび高さhに対して係数を乗算することで、第1バウンディングボックスB1よりも大きい仮補正バウンディングボックスBT1が得られる。
また、係数mは、ステップS15以降の処理であるステップS19(図3参照)において、初期値に対して小さい値に調整される。処理部6は、ステップS19を繰り返し実行することに応じて、係数mを、初期値の「1.3」から、「1.1」、「1.05」といったように段階的に小さい値に調整する。
【0061】
処理部6は、IoUが閾値TI以下であると判定すると、仮補正バウンディングボックスBT1を補正バウンディングボックスBA1とする(図3中、ステップS20)。
このように、本実施形態では、人物M1の歩行速度に応じて、補正バウンディングボックスBA1を生成することができる。
【0062】
本実施形態では、人物M1の状態として、歩行速度を求めた場合を例示したが、人物M1の状態として、人物M1の歩行フェーズを用いることもできる。
歩行フェーズの一例として、初期接地、荷重応答期、立脚中期、立脚終期、前遊脚期、遊脚初期、遊脚中期、遊脚終期、といったように、8つのフェーズに分けた場合、各フェーズに応じて、人物M1の状態を判定することができる。
【0063】
図10は、人物M1の状態として、歩行フェーズを用いる場合の関節点の検出処理を示すフローチャートである。
図10では、ステップS12においてバウンディングボックスBを生成すると、処理部6は、ステップS33へ進み、人物M1の歩行フェーズを取得する。処理部6は、現在処理を行っている画像16aにおける第1画像領域A1に基づいて、人物M1の歩行フェーズを特定する。処理部6は、人物M1の歩行フェーズが上述の8つのフェーズのうちにいずれのフェーズであるかを特定する。
【0064】
歩行フェーズを特定すると、処理部6は、ステップS34へ進み、歩行フェーズに応じて、第1バウンディングボックスB1を用いて関節点の検出を行うか、または、仮補正バウンディングボックスBT1を生成し補正バウンディングボックスBA1を生成するか、のいずれを行うかについて判定することができる。
このように、処理部6は、歩行フェーズに応じて、補正バウンディングボックスBA1を生成することもできる。
【0065】
〔その他〕
今回開示した実施形態はすべての点で例示であって制限的なものではない。
上記実施形態では、移動体が人物Mの場合を例示したが、人物M以外の移動体を対象とすることもできる。人物M以外の移動体を対象とする場合、本実施形態のように関節点ではなく、対象となる移動体特有の特徴点が検出対象となる。
【0066】
本発明の権利範囲は、上述の実施形態に限定されるものではなく、特許請求の範囲に記載された構成と均等の範囲内でのすべての変更が含まれる。
【符号の説明】
【0067】
4 処理装置(検出装置)
6 処理部
14 動画像
16、16a 画像
18 部分画像
A 画像領域
B バウンディングボックス
BA1 補正バウンディングボックス
BT1 仮補正バウンディングボックス
M、M1、M2 人物
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10