IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 日産自動車株式会社の特許一覧

特開2024-157448アノテーション方法及びアノテーション装置
<>
  • 特開-アノテーション方法及びアノテーション装置 図1
  • 特開-アノテーション方法及びアノテーション装置 図2
  • 特開-アノテーション方法及びアノテーション装置 図3
  • 特開-アノテーション方法及びアノテーション装置 図4
  • 特開-アノテーション方法及びアノテーション装置 図5
  • 特開-アノテーション方法及びアノテーション装置 図6
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024157448
(43)【公開日】2024-11-07
(54)【発明の名称】アノテーション方法及びアノテーション装置
(51)【国際特許分類】
   G06T 7/00 20170101AFI20241030BHJP
   G06T 7/20 20170101ALI20241030BHJP
   G06N 20/00 20190101ALI20241030BHJP
【FI】
G06T7/00 350B
G06T7/20 300Z
G06N20/00 130
【審査請求】未請求
【請求項の数】7
【出願形態】OL
(21)【出願番号】P 2023071826
(22)【出願日】2023-04-25
(71)【出願人】
【識別番号】000003997
【氏名又は名称】日産自動車株式会社
(74)【代理人】
【識別番号】110000486
【氏名又は名称】弁理士法人とこしえ特許事務所
(72)【発明者】
【氏名】鷲見 典克
【テーマコード(参考)】
5L096
【Fターム(参考)】
5L096CA04
5L096DA02
5L096FA12
5L096FA32
5L096FA66
5L096FA67
5L096FA69
5L096HA04
5L096KA04
(57)【要約】
【課題】画像に含まれるブレの強度及び方向に応じて機械学習モデルを訓練できるように学習データセットを生成することができるアノテーション方法及びアノテーション装置を提供する。
【解決手段】アノテーション装置100のプロセッサ10は、画像センサ2を用いて撮像した学習用対象者Pの学習用画像Vを取得し、学習用対象者Pの1つ又は複数の身体部位の動きを検出するモーションセンサ3の検出結果に基づいて関節の関節位置、関節位置の関節移動速度及び関節移動方向を取得し、関節移動速度に基づいて学習用画像における関節位置のブレ強度を算出し、関節移動方向に基づいて学習用画像における関節位置のブレ方向Dを算出し、関節位置、ブレ強度及びブレ方向Dに基づいて、推定関節位置の学習用確信度分布を算出し、学習用画像及び学習用確信度分布を含む学習データセットを生成する。
【選択図】 図1
【特許請求の範囲】
【請求項1】
プロセッサを用いて、機械学習モデルを訓練するための学習データセットを生成するアノテーション方法であって、
前記機械学習モデルは、対象者の画像に基づき、前記対象者の1つ又は複数の関節の推定関節位置の確信度分布を出力するモデルであり、
前記プロセッサは、
画像センサを用いて撮像した学習用対象者の学習用画像を取得し、
前記学習用対象者の1つ又は複数の身体部位の動きを検出するセンサの検出結果に基づいて前記関節の関節位置、前記関節位置の関節移動速度及び関節移動方向を取得し、
前記関節移動速度に基づいて前記学習用画像における前記関節位置のブレ強度を算出し、
前記関節移動方向に基づいて前記学習用画像における前記関節位置のブレ方向を算出し、
前記関節位置、前記ブレ強度及び前記ブレ方向に基づいて、前記推定関節位置の学習用確信度分布を算出し、
前記学習用画像及び前記学習用確信度分布を含む前記学習データセットを生成する、アノテーション方法。
【請求項2】
前記プロセッサは、
前記学習用画像を撮像するときの前記画像センサの露光時間及び前記関節移動速度に基づいて前記ブレ強度を算出する、請求項1に記載のアノテーション方法。
【請求項3】
前記プロセッサは、
前記学習用画像に複数の前記学習用対象者が含まれる場合は、各々の前記学習用対象者について前記学習用確信度分布を算出する、請求項1に記載のアノテーション方法。
【請求項4】
前記機械学習モデルは、前記画像に前記確信度分布を示す図像を重畳して表示する出力画像を出力するモデルであって、
前記プロセッサは、前記学習用画像に前記学習用確信度分布を示す前記図像を重畳して表示する学習用出力画像を含む前記学習データセットを生成する、請求項1に記載のアノテーション方法。
【請求項5】
前記プロセッサは、
少なくとも1つの前記関節位置を含む身体部位が前記学習用画像に含まれていない場合は、前記学習用画像に含まれていない前記身体部位の前記関節位置に関する前記図像を前記学習用画像の座標系上に表示することにより前記学習用出力画像を生成する、請求項4に記載のアノテーション方法。
【請求項6】
前記機械学習モデルは、所定時間における前記推定関節位置の移動軌跡を前記画像上に表示する出力画像を出力するモデルであって、
前記プロセッサは、
前記ブレ強度及び前記ブレ方向に基づいて前記関節位置のオプティカルフローを算出し、
前記オプティカルフローに基づく前記移動軌跡を表示する学習用出力画像を含む前記学習データセットを生成する、請求項1に記載のアノテーション方法。
【請求項7】
プロセッサを用いて、機械学習モデルを訓練するための学習データセットを生成するアノテーション装置であって、
前記機械学習モデルは、対象者の画像に基づき、前記対象者の1つ又は複数の関節の推定関節位置の確信度分布を出力するモデルであり、
前記プロセッサは、
画像センサを用いて撮像した学習用対象者の学習用画像を取得する画像取得部と、
前記学習用対象者の1つ又は複数の身体部位の動きを検出するセンサの検出結果に基づいて前記関節の関節位置、前記関節位置の関節移動速度及び関節移動方向を取得するモーション情報取得部と、
前記関節移動速度に基づいて前記学習用画像における前記関節位置のブレ強度を算出するブレ強度算出部と、
前記関節移動方向に基づいて前記学習用画像における前記関節位置のブレ方向を算出するブレ方向算出部と、
前記関節位置、前記ブレ強度及び前記ブレ方向に基づいて、前記推定関節位置の学習用確信度分布を算出する確信度分布算出部と、
前記学習用画像及び前記学習用確信度分布を含む前記学習データセットを生成する学習データセット生成部とを備える、アノテーション装置。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、アノテーション方法及びアノテーション装置に関するものである。
【背景技術】
【0002】
特許文献1には、入力画像から所望の注目領域を識別する機械学習モデルを訓練するための学習方法が記載されている。
【先行技術文献】
【特許文献】
【0003】
【特許文献1】国際公開第2020/059446号
【発明の概要】
【発明が解決しようとする課題】
【0004】
しかしながら、特許文献1に記載された方法では、入力画像に含まれるブレが出力データに及ぼす影響が考慮されていない。
【0005】
本発明が解決しようとする課題は、画像に含まれるブレの強度及び方向に応じて機械学習モデルを訓練できるように学習データセットを生成することができるアノテーション方法及びアノテーション装置を提供することである。
【課題を解決するための手段】
【0006】
本発明は、学習用画像における関節位置、関節位置のブレ強度及びブレ方向に基づいて、推定関節位置の学習用確信度分布を算出し、学習用画像及び学習用確信度分布を含む学習データセットを生成することによって上記課題を解決する。
【発明の効果】
【0007】
本発明によれば、画像に含まれるブレの強度及び方向に応じて機械学習モデルを訓練できるように学習データセットを生成することができる。
【図面の簡単な説明】
【0008】
図1】本実施形態に係るアノテーション装置の構成を示すブロック図である。
図2図1に示す画像センサ及びモーションセンサの人体への装着例を示す図である。
図3図2に示す画像センサが取得した学習用画像の例を示す図である。
図4】学習用確信度分布と露光時間との関係を示す図であり、図4(a)は、露光時間が10msであるときの学習用確信度分布を示し、図4(b)は、露光時間が20msであるときの学習用確信度分布を示す。
図5図1に示すアノテーション装置が生成した学習用出力画像の例を示す図である。
図6図1に示すアノテーション装置が実行するアノテーション方法の手順を示すフローチャートである。
【発明を実施するための形態】
【0009】
以下、本発明の実施形態を図面に基づいて説明する。
図1に示すように、アノテーション装置100は、プロセッサ10を有する。アノテーション装置100は、プロセッサ10を用いて、機械学習モデル1を訓練するための教師データとしての学習データセットを生成する。また、アノテーション装置100は、画像センサ2及びモーションセンサ3から取得した情報に基づいて、学習データセットを生成する。
【0010】
機械学習モデル1は、対象者を撮影した画像(入力画像)に基づき、対象者の1つ又は複数の関節の推定関節位置の確信度分布を出力するモデルである。具体的には、機械学習モデル1は、対象者を撮影した画像に基づき、画像に推定関節位置の確信度分布を示す図像を重畳して表示する出力画像を出力する。機械学習モデル1は、例えば、Openpose等の姿勢検出モデルを転移学習したモデルである。
【0011】
画像センサ2は、カメラ等の光学センサである。画像センサ2は、学習用対象者Pの身体の一部又は全身を撮像する。例えば、図2に示すように、画像センサ2は、学習用対象者Pの頭部に装着されるヘルメットに取り付けられた小型カメラである。また、画像センサ2は、これに限定されず、学習用対象者Pの近傍に設置されているカメラであってもよく、携帯端末に内蔵されているカメラであってもよい。
【0012】
モーションセンサ3は、加速度センサである。図2に示すように、モーションセンサ3は、学習用対象者Pの両腕及び両脚の各々に3個ずつ装着されている。具体的には、モーションセンサ3は、学習用対象者Pの両腕の二の腕、手首及び手の甲の各々にベルトで固定されている。また、モーションセンサ3は、学習用対象者Pの両脚の腿、膝下及び足の甲の各々にベルト又は留め具で固定されている。さらに、図示しないモーションセンサ3は、学習用対象者Pの背中、頭、腰、両肩の各々に留め具で固定されている。なお、本実施形態では、学習用対象者Pには17個のモーションセンサ3が装着されているが、モーションセンサ3の数はこれに限定されない。また、モーションセンサ3は、学習用対象者Pの両腕及び両脚の各々の関節位置に装着されていてもよい。モーションセンサ3は、学習用対象者Pの1つ又は複数の身体部位の動きを検出するセンサである。なお、本実施形態では、学習用対象者Pの1つ又は複数の身体部位の動きを検出するために慣性式のモーションセンサ3を用いているが、これに限定されない。例えば、光学式のセンサ(カメラ)を用いて、学習用対象者Pの身体部位のマーカの位置をトラッキングしてもよい。また、他の形態のセンサを用いて学習用対象者Pの1つ又は複数の身体部位の動きを検出してもよい。
【0013】
プロセッサ10は、プログラムが格納されたROM(Read Only Memory)と、ROMに格納されたプログラムを実行するCPU(Central Processing Unit)と、アクセス可能な記憶装置として機能するRAM(Random Access Memory)とを備える。プロセッサ10は、画像取得部11、モーション情報取得部12、ブレ情報算出部13、確信度分布算出部14、オプティカルフロー算出部15及び学習データセット生成部16を有する。プロセッサ10は、ROMに格納されたプログラムをCPUにより実行することにより、画像取得部11、モーション情報取得部12、ブレ情報算出部13、確信度分布算出部14、オプティカルフロー算出部15及び学習データセット生成部16の各機能を実行する。
【0014】
画像取得部11は、画像センサ2を用いて撮像した学習用対象者Pの学習用画像Vを取得する。図3に示す例において、学習用画像Vは、学習用対象者Pの前頭部に位置する画像センサ2が学習用対象者Pの両腕及び顔Fを撮像した画像である。学習用画像Vには、学習用対象者Pが両腕を前方に突き出して手を動かしている様子が映っている。このとき、学習用画像Vに映る学習用対象者Pの両腕の一部にはブレBが発生している。また、学習用画像Vには、両腕の手首の関節K1及び肘関節K2に対応する身体部位が映っている。一方で、肩関節K3に対応する身体部位(肩)は、顔Fに遮蔽されて学習用画像Vには映らない。また、両脚の足首の関節K4、膝関節K5及び股関節K6の関節位置は、学習用画像Vの外側に位置しており、学習用画像Vには映らない。なお、図3に示す例において、学習用対象者Pは両脚を揃えて立っているものとするため、学習用画像Vの座標系では、足首の関節K4、膝関節K5及び股関節K6の関節位置はほぼ一致している。
なお、図3に示す学習用画像Vにおいて、学習用対象者Pの身体に装着されたモーションセンサ3及びモーションセンサ3を固定するためのベルトは省略されている。
【0015】
モーション情報取得部12は、学習用対象者Pに装着されたモーションセンサ3の検出結果に基づいて学習用対象者Pの各関節のモーション情報を取得する。モーション情報は、学習用対象者Pの各関節の関節位置、関節位置の関節移動速度及び関節移動方向を含む。具体的には、モーション情報取得部12は、学習用対象者Pの骨格情報に基づく機構解析を用いてモーションセンサ3の検出結果を解析することにより、学習用対象者Pの関節位置、関節位置の関節移動速度及び関節移動方向を算出する。なお、モーション情報取得の対象となる関節は、学習用対象者Pの両腕の手首の関節K1、肘関節K2及び肩関節K3、並びに、両脚の足首の関節K4、膝関節K5及び股関節K6である。
【0016】
ブレ情報算出部13は、ブレ強度算出部13a及びブレ方向算出部13bを有する。すなわち、ブレ情報算出部13は、学習用画像Vにおける各々の関節位置のブレ強度及びブレ方向D(図3参照)を算出する。
【0017】
ブレ強度算出部13aは、学習用画像Vを撮像するときの画像センサ2の露光時間及び各々の関節位置の関節移動速度に基づいて学習用画像Vにおける各々の関節位置のブレ強度を算出する。なお、画像センサ2の露光時間は、予め所定の時間に設定されていてもよく、撮像環境の明るさに応じて自動的に設定されてもよい。また、ブレ強度算出部13aは、画像センサ2の露光時間に関わらず、各々の関節位置の関節移動速度のみに基づいて各々の関節位置のブレ強度を算出してもよい。なお、ブレ強度は、三次元空間における関節位置の所定時間(例えば、画像センサ2の露光時間)における移動距離を学習用画像Vの二次元座標上で表した場合の距離である。
【0018】
ブレ方向算出部13bは、各々の関節位置の関節移動方向に基づいて学習用画像Vにおける関節位置のブレ方向Dを算出する(図3参照)。なお、ブレ方向Dは、三次元空間における関節移動方向を学習用画像Vの二次元座標上で表した場合の方向である。
【0019】
確信度分布算出部14は、モーション情報取得部12が取得した関節位置、ブレ強度算出部13aが算出したブレ強度及びブレ方向算出部13bが算出したブレ方向Dに基づいて、推定関節位置の学習用確信度分布Aを算出する。学習用確信度分布Aは、関節位置の推定範囲における確信度の分布を示す学習用データである。なお、学習用確信度分布Aの範囲(関節位置の推定範囲)は、学習用画像Vの座標系において関節位置を示す座標位置を含む領域である。すなわち、確信度分布算出部14は、モーション情報取得部12が取得した関節位置に基づいて、学習用画像Vにおける学習用確信度分布Aの範囲(関節位置の推定範囲)の座標位置を決定する。なお、確信度分布算出部14は、モーション情報取得部12が取得した関節位置と推定関節位置の平均座標位置(学習用確信度分布Aの範囲の中心位置)とが一致するように、学習用確信度分布Aの範囲の位置を算出する。
【0020】
また、図4(a)は、画像センサ2の露光時間が10[ms]であり、かつ、学習用画像V上における関節位置の移動速度がv[mm/ms]のときの学習用確信度分布A1の例を示す。このとき、学習用画像V上における関節位置の移動距離、すなわち、ブレ強度はv×10[mm]である。確信度分布算出部14は、下記の式(1)に示す分散共分散行列M1を用いて学習用確信度分布A1を算出する。なお、関節位置の移動方向がθ[rad]のときには、角度θの回転行列Rをかけることで方向を調整する。係数kは、移動速度vに応じて調整する。
【数1】
【0021】
一方、図4(b)は、画像センサ2の露光時間が20[ms]であり、かつ、図4(a)に示す例と同様、学習用画像V上における関節位置の移動速度がv[mm/ms]のときの学習用確信度分布A2の例を示す。このとき、学習用画像V上における関節位置の移動距離、すなわち、ブレ強度はv×20[mm]である。確信度分布算出部14は、基準となる露光時間10[ms]における式(1)の共分散行列M1の係数kを2倍した、下記の式(2)に示す分散共分散行列M2を用いて学習用確信度分布A2を算出する。
【数2】
【0022】
すなわち、図4(a)の学習用確信度分布A1に対する図4(b)の学習用確信度分布A2の差異に示されるように、画像センサ2の露光時間が長くなることによりブレ強度が定数倍(図4に示す例では、2倍)大きくなった場合は、学習用確信度分布Aのスケール(標準偏差の値)も定数倍(図4に示す例では、2倍)となる。
【0023】
また、確信度分布算出部14は、学習用確信度分布Aの範囲の中心位置(モーション情報取得部12が取得した関節位置)に近づくにつれて推定関節位置の確信度が高くなるように、学習用確信度分布Aを算出する。なお、図4(a),(b)では、学習用確信度分布A1,A2は、確信度が高くなる程、黒色が濃くなるように表示されている。また、図4(a),(b)に示すように、上述のように算出された学習用確信度分布A1,A2は、いずれもブレ方向Dに沿って伸びる略楕円形状の分布となる。すなわち、ブレ強度及びブレ方向Dは学習用確信度分布Aを算出するためのパラメータである。
なお、学習用画像Vに複数の学習用対象者Pが含まれる場合は、確信度分布算出部14は、各々の学習用対象者Pについて学習用確信度分布Aを算出する。
【0024】
また、オプティカルフロー算出部15は、ブレ強度及びブレ方向Dに基づいて関節位置のオプティカルフロー、すなわち、関節位置の動きを示すベクトル値を算出する。
なお、学習用画像Vに複数の学習用対象者Pが含まれる場合は、オプティカルフロー算出部15は、各々の学習用対象者Pについて関節位置のオプティカルフローを算出する。
【0025】
学習データセット生成部16は、学習用画像V及び学習用確信度分布Aを含む学習データセットを生成する。具体的には、学習データセット生成部16が生成する学習データセットは、学習用の入力データとして学習用画像Vを含む。また、学習データセットは、学習用の出力データとして学習用確信度分布Aを含む。すなわち、図5に示すように、学習データセット生成部16は、学習用の出力データとして、学習用画像Vに学習用確信度分布Aを示す図像Z1,Z2,Z3,Z4を重畳して表示する学習用出力画像V0を生成する。
【0026】
図5に示す図像Z1は、両腕の手首の関節K1の関節位置の学習用確信度分布Aを示す。図像Z2は、両腕の肘関節K2の関節位置の学習用確信度分布Aを示す。図像Z3は、両腕の肩関節K3の関節位置の学習用確信度分布Aを示す。図像Z4は、両脚の足首の関節K4、膝関節K5及び股関節K6の関節位置の学習用確信度分布Aを示す。なお、学習用出力画像V0において、両脚の足首の関節K4、膝関節K5及び股関節K6の関節位置はほぼ一致している。また、図像Z1,Z2,Z3,Z4は、各々の関節位置の学習用確信度分布Aを示す形状を有している。すなわち、図3に示す学習用画像VにおいてブレBが生じていない肘関節K2、肩関節K3、足首の関節K4、膝関節K5及び股関節K6に対応する図像Z2,Z3,Z4は、略円形状である。一方、学習用画像VにおいてブレBが生じている手首の関節K1に対応する図像Z1は、略楕円形状である。そして、学習用確信度分布Aは、図像Z1,Z2,Z3,Z4の内側に表示される色の濃淡又は色相によって表示される。図5に示す例では、各々の図像Z1,Z2,Z3,Z4の中心位置に近づくほど、色が濃くなり、確信度は高くなっている。また、例えば、図像Z1,Z2,Z3,Z4の内側に付される色が暖色系(赤)に近づく程、確信度が高く、寒色系(青)に近づく程、確信度が低くなってもよい。
【0027】
ここで、図3に示す学習用画像Vには、学習用対象者Pの顔Fに隠れて、学習用対象者Pの肩(肩関節K3に対応する身体部位)が映っていない。また、学習用画像Vには、学習用対象者Pの両脚(足首の関節K4、膝関節K5及び股関節K6の関節位置に対応する身体部位)も映っていない。一方で、図5に示す学習用出力画像V0には、学習用画像Vに映っている手首の関節K1に対応する図像Z1及び肘関節K2に対応する図像Z2が表示される。さらに、学習用出力画像V0には、学習用画像Vに映らない肩関節K3に対応する図像Z3が表示される。また、学習用出力画像V0には、学習用画像Vに映らない足首の関節K4、膝関節K5及び股関節K6に対応する図像Z4も表示される。すなわち、学習データセット生成部16は、少なくとも1つの関節位置を含む身体部位が学習用画像Vに含まれていない場合は、当該身体部位の関節位置に関する図像Z3,Z4も、図像Z1,Z2と同様に、学習用画像Vの座標系上に表示することにより学習用出力画像V0を生成する。すなわち、学習用対象者Pの身体部位の一部が遮蔽物に隠れたり、学習用画像Vからはみ出したりすることが原因で学習用画像Vに映っていない場合であっても、学習用出力画像V0には、学習用画像Vに映っていない身体部位の関節位置に関する図像Z3,Z4が表示される。なお、学習データセット生成部16は、機構解析により求めた学習用対象者Pの骨格の三次元座標上の位置情報を学習用画像Vにおける二次元座標上の位置情報に変換することにより、学習用画像Vに含まれない身体部位の関節位置を特定できる。
【0028】
また、学習データセット生成部16は、オプティカルフロー算出部15が算出したオプティカルフローに基づく関節位置の移動軌跡Rを学習用出力画像V0に表示する。すなわち、学習データセット生成部16が生成する学習データセットは、オプティカルフローに基づく移動軌跡Rを表示する学習用出力画像V0を含む。
【0029】
なお、学習データセット生成部16によって生成された学習データセットによって訓練される機械学習モデル1は、図5に示す学習用出力画像V0と同様に、入力画像に推定関節位置の確信度分布を示す図像を重畳して表示する出力画像を出力する。
【0030】
次に、図6のフローチャートを用いて、アノテーション装置100のプロセッサ10が実行するアノテーション方法の手順について説明する。
まず、ステップS1において、画像取得部11は、画像センサ2を用いて撮像した学習用対象者Pの学習用画像Vを取得する。
次に、ステップS2において、モーション情報取得部12は、学習用対象者Pに装着されたモーションセンサ3の検出結果に基づいて、各々の関節のモーション情報を取得する。モーション情報は、関節位置、関節位置の関節移動速度及び関節移動方向を含む。
【0031】
次に、ステップS3において、ブレ強度算出部13aは関節移動速度に基づいて学習用画像Vにおける各々の関節位置のブレ強度を算出する。
さらに次に、ステップS4において、ブレ方向算出部13bは関節移動方向に基づいて学習用画像Vにおける各々の関節位置のブレ方向Dを算出する。
なお、ステップS3の処理はステップS4の処理の後に実行されてもよく、ステップS3の処理とステップS4の処理とは同時に実行されてもよい。
【0032】
次に、ステップS5において、確信度分布算出部14は、関節位置、ブレ強度及びブレ方向に基づいて、学習用確信度分布Aを算出する。
さらに次に、ステップS6において、オプティカルフロー算出部15は、ブレ強度及びブレ方向に基づいて関節位置のオプティカルフローを算出する。
なお、ステップS5の処理はステップS6の処理の後に実行されてもよく、ステップS5の処理とステップS6の処理とは同時に実行されてもよい。
【0033】
次に、ステップS7において、学習データセット生成部16は、推定関節位置の学習用確信度分布A及びオプティカルフローに基づく関節位置の移動軌跡Rを示す学習用出力画像V0を生成する。
なお、ステップS1の処理はステップS2~S7の処理の後に実行されてもよく、ステップS1の処理とステップS2~S7の処理とは互いに並行して実行されてもよい。
【0034】
さらに、ステップS9において、学習データセット生成部16は、学習用画像V及び学習用出力画像V0を含む学習データセットを生成する。
【0035】
以上より、本実施形態に係るアノテーション装置100は、モーションセンサ3の検出結果に基づいて取得した関節のモーション情報に基づいて、学習用画像Vにおける関節位置のブレ強度及びブレ方向を算出する。そして、アノテーション装置100は、関節位置、ブレ強度及びブレ方向に基づいて、推定関節位置の学習用確信度分布Aを算出する。そして、アノテーション装置100は、学習用画像V及び学習用確信度分布Aを含む学習データセットを生成する。これにより、アノテーション装置100は、入力画像に含まれるブレの強度及び方向に応じて機械学習モデルを訓練できるように学習データセットを生成することができる。すなわち、アノテーション装置100は、入力画像に含まれるブレに起因する不確実性を考慮したアノテーションを実行できる。従って、アノテーション装置100が生成した学習データセットを用いて訓練された機械学習モデル1は、入力画像にブレがある場合でも、対象者の関節位置を精度良く推定することができる。すなわち、機械学習モデル1は、入力画像を取得する画像センサ(カメラ)の性能に関わらず、対象者の関節位置を精度良く推定することができる。また、アノテーション装置100が生成する学習データセットにノイズとしてブレのある学習用画像Vを混ぜ込むことができるため、機械学習モデル1は、難易度に変化が有る学習をすることが可能になり、関節位置の推定精度を高めることができる。
【0036】
また、アノテーション装置100は、学習用画像Vを撮像するときの画像センサ2の露光時間及び関節移動速度に基づいてブレ強度を算出する。これにより、アノテーション装置100は、画像センサ2の露光時間が長い程、ブレ強度を大きく算出することができ、精度良く学習用確信度分布Aを算出できる。
【0037】
また、アノテーション装置100は、学習用画像Vに複数の学習用対象者Pが含まれる場合は、各々の学習用対象者Pについて学習用確信度分布Aを算出する。これにより、アノテーション装置100は、学習用画像Vに複数の学習用対象者Pが映っている場合でも学習データセットを生成することができる。また、機械学習モデル1は、複数の学習用対象者Pが映る学習用画像Vを用いて訓練されることにより、関節位置の推定精度を上げることができる。
【0038】
また、アノテーション装置100は、学習用画像Vに学習用確信度分布Aを示す図像Z1,Z2,Z3,Z4を重畳して表示する学習用出力画像V0を含む学習データセットを生成する。ここで、機械学習モデル1は、画像に確信度分布を示す図像を重畳して表示する出力画像を出力するモデルである。これにより、アノテーション装置100は、学習用確信度分布Aを示す出力画像を出力する機械学習モデル1を訓練するための学習データセットを生成することができる。
【0039】
また、アノテーション装置100は、少なくとも1つの関節位置を含む身体部位が学習用画像Vに含まれていない場合は、学習用画像Vに含まれていない身体部位の関節位置に関する図像Z3,Z4を学習用画像Vの座標系上に表示することにより学習用出力画像V0を生成する。これにより、アノテーション装置100は、学習用対象者Pの関節部位に対応する身体部位が学習用画像Vに映っていない場合であっても、アノテーションを実行することができる。従って、アノテーション装置100によって生成された学習データセットを用いて訓練された機械学習モデル1は、対象者の身体部位の一部が入力画像に映っていない場合であっても、各々の関節位置を推定することができる。
【0040】
また、アノテーション装置100は、ブレ強度及びブレ方向に基づいて関節位置のオプティカルフローを算出し、オプティカルフローに基づく移動軌跡Rを表示する学習用出力画像V0を含む学習データセットを生成する。これにより、当該学習データセットを用いて訓練された機械学習モデル1は、一枚の入力画像に基づいて、各々の関節位置のオプティカルフローに基づく移動軌跡Rを推定することができる。また、画像センサ2が入力データとして対象者の動画を取得する場合は、機械学習モデル1は、画像センサ2のFPS(フレームレート)に関わらず、各々の関節位置の移動軌跡Rを推定することができる。すなわち、機械学習モデル1は、画像センサ2のFPS(フレームレート)が低い場合でも、関節位置の移動軌跡Rに基づいて、関節位置の移動座標を滑らかにサンプリングすることができる。換言すれば、機械学習モデル1は、関節位置、関節移動速度及び関節移動方向に基づいて、各フレーム間で関節位置の整合性を取ることができる。また、画像センサ2が非同期ネットワークカメラであって、FPS(フレームレート)が安定しない場合であっても、機械学習モデル1は、上述のように関節移動の整合性をとることで、入力データの動画に含まれる各フレームが、ジェスチャ認識等の時間的な動作を伴う処理に用いることができるか否かを判別できる。
【0041】
なお、本実施形態において、アノテーション装置100はオプティカルフロー算出部15を有していなくてもよい。すなわち、アノテーション装置100が生成する学習データセットには、学習用画像V及び学習用確信度分布Aが含まれていればよく、学習用出力画像V0にはオプティカルフローに基づく関節位置の移動軌跡Rは含まれていなくてもよい。
【符号の説明】
【0042】
100…アノテーション装置
1…機械学習モデル
2…画像センサ
3…モーションセンサ(身体部位の動きを検出するセンサ)
10…プロセッサ
11…画像取得部
12…モーション情報取得部
13a…ブレ強度算出部
13b…ブレ方向算出部
14…確信度分布算出部
16…学習データセット生成部
A…学習用確信度分布
D…ブレ方向
R…移動軌跡
V…学習用画像
V0…学習用出力画像
Z1,Z2,Z3,Z4…図像
図1
図2
図3
図4
図5
図6