(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-11-07
(45)【発行日】2024-11-15
(54)【発明の名称】脈波推定装置及び脈波推定方法
(51)【国際特許分類】
A61B 5/02 20060101AFI20241108BHJP
A61B 5/00 20060101ALI20241108BHJP
A61B 5/11 20060101ALI20241108BHJP
【FI】
A61B5/02 310Z
A61B5/00 101A
A61B5/11 120
(21)【出願番号】P 2023500249
(86)(22)【出願日】2021-02-19
(86)【国際出願番号】 JP2021006237
(87)【国際公開番号】W WO2022176137
(87)【国際公開日】2022-08-25
【審査請求日】2023-06-06
(73)【特許権者】
【識別番号】000006013
【氏名又は名称】三菱電機株式会社
(74)【代理人】
【識別番号】110003166
【氏名又は名称】弁理士法人山王内外特許事務所
(72)【発明者】
【氏名】村地 遼平
(72)【発明者】
【氏名】中村 雄大
【審査官】亀澤 智博
(56)【参考文献】
【文献】国際公開第2016/006027(WO,A1)
【文献】特開2016-193022(JP,A)
【文献】国際公開第2019/116996(WO,A1)
【文献】中国特許出願公開第111513701(CN,A)
【文献】特開2019-170868(JP,A)
【文献】国際公開第2019/102966(WO,A1)
【文献】国際公開第2017/085894(WO,A1)
【文献】国際公開第2016/158624(WO,A1)
(58)【調査した分野】(Int.Cl.,DB名)
A61B 5/00 - 5/1495
(57)【特許請求の範囲】
【請求項1】
脈波を推定すべき対象者の、相互に前後する第1の画像フレーム及び第2の画像フレームを含む連続する複数の画像フレームを取得する取得部と、
前記第1の画像フレーム内で前記対象者の顔器官の位置を示す顔器官点を検出する検出部と、
前記第1の画像フレームを参照して、前記第2の画像フレーム内で前記顔器官の動きが生じた後の位置を示すトラッキング点を設定するトラッキング部と、
前記検出された第1の画像フレーム内での顔器官点に基づき、前記第1の画像フレーム内に、前記脈波を推定するための輝度値を計測すべき
第1の計測領域の位置を設定する第1の設定部と、
前記設定された第2の画像フレーム内でのトラッキング点に基づき、前記第2の画像フレーム内に、前記
第1の計測領域と異なる第2の計測領域の位置を設定する第2の設定部と、
前記
第1の設定部により設定された第1の画像フレーム内の
第1の計測領域、及び、前記
第2の設定部により設定された第2の画像フレーム内の
第2の計測領域内の画素の輝度値を計測する計測部と、
前記計測された第1の画像フレーム内の
第1の計測領域の輝度値と前記計測された第2の画像フレーム内の
第2の計測領域の輝度値との差分である輝度差に基づき、前記対象者の脈波を推定する推定部と、
を含む脈波推定装置。
【請求項2】
前記検出部及び前記トラッキング部は、それぞれ、前記顔器官点の検出、及び前記トラッキング点の設定を、各画像フレーム毎に行う請求項1記載の脈波推定装置。
【請求項3】
前記検出部及び前記トラッキング部は、それぞれ、前記顔器官点の抽出、及び前記トラッキング点の設定を、予め定められた数の画像フレーム毎に行う請求項1記載の脈波推定装置。
【請求項4】
取得部が、脈波を推定すべき対象者の、相互に前後する第1の画像フレーム及び第2の画像フレームを含む連続する複数の画像フレームを取得し、
検出部が、前記第1の画像フレーム内で前記対象者の顔器官の位置を示す顔器官点を検出し、
トラッキング部が、前記第1の画像フレームを参照して、前記第2の画像フレーム内で前記顔器官の動きが生じた後の位置を示すトラッキング点を設定し、
第1の設定部が、前記検出された第1の画像フレーム内での顔器官点に基づき、前記第1の画像フレーム内に、前記脈波を推定するための輝度値を計測すべき
第1の計測領域の位置を設定し、
第2の設定部が、前記設定された第2の画像フレーム内でのトラッキング点に基づき、前記第2の画像フレーム内に、前記
第1の計測領域と異なる第2の計測領域の位置を設定し、
計測部が、前記
第1の設定部により設定された第1の画像フレーム内の
第1の計測領域、及び、前記
第2の設定部により設定された第2の画像フレーム内の
第2の計測領域内の画素の輝度値を計測し、
推定部が、前記計測された第1の画像フレーム内の
第1の計測領域の輝度値と前記計測された第2の画像フレーム内の
第2の計測領域の輝度値との差分である輝度差に基づき、前記対象者の脈波を推定する、
脈波推定方法。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、脈波推定装置及び脈波推定方法に関する。
【背景技術】
【0002】
生体の状況、例えば、血圧を非接触で測定する特許文献1に記載の生体情報計測装置は、前記生体が撮像された複数の画像フレームの各々で、前記血圧を測定するための皮膚領域を顔器官内の画像に設定する必要がある。前記生体情報計測装置は、前記皮膚領域を設定すべく、例えば、一の画像フレーム内で前記顔器官の位置を検出するという顔器官検出処理を行う。前記生体情報計測装置は、他方で、前記一の画像フレームに後続する複数の画像フレームについては、上記した顔器官検出処理を行うことに代えて、現在の画像フレームでの皮膚領域の位置を、一つ前の画像フレームでの皮膚領域の位置を参照して設定するという、トラッキング処理を行う。
【0003】
上記したトラッキング処理を挟む前後の画像フレーム間に前記生体の顔器官に動きが生じると、例えば、顔の表情の変化、顔の位置の移動等が生じると、前記顔器官の動きが生じる前である、前記トラッキング処理前の画像フレームでの皮膚領域の位置と、前記顔器官の動きが生じた後である、前記後の画像フレームでの皮膚領域の位置との間に、ずれが生じる。従って、連続する複数の画像フレームにトラッキング処理を順次行うと、上記したずれが蓄積される。前記生体情報計測装置は、当該蓄積されたずれを解消すべく、即ち、リセットすべく、上記した顔器官検出処理であるリセット処理を、予め定められた数の画像フレーム毎に行う。
【先行技術文献】
【特許文献】
【0004】
【発明の概要】
【発明が解決しようとする課題】
【0005】
しかしながら、上記した生体情報計測装置では、上記した顔器官検出処理により検出された、一の画像フレームでの皮膚領域の位置と、前記一の画像フレームから上記した予め定められた数の画像フレーム以上に離れることなく後続していることにより前記リセット処理がまだ行われない他の画像フレームにおいて上記したトラッキング処理により検出された皮膚領域の位置との間には、前記一の画像フレーム及び前記他の画像フレーム間で前記トラッキング処理が順次行われることに起因して、上記した蓄積されたずれが生じるという問題があった。
【0006】
上記した生体情報測定装置では、また、上記したリセット処理を挟む前後の画像フレーム間で、前記リセット処理が行われる前の画像フレームにおける、前記蓄積されたずれを伴う皮膚領域の位置と、前記リセット処理が行われた後の画像フレームにおける、前記リセット処理の結果としてずれを伴わない皮膚領域の位置との間に、前記蓄積されたずれが生じるという問題もあった。
【0007】
本開示の目的は、上記した2つの問題のうち少なくとも一つを解決する脈波推定装置を提供することにある。
【課題を解決するための手段】
【0008】
上記した課題を解決すべく、本開示に係る脈波推定装置は、脈波を推定すべき対象者の、相互に前後する第1の画像フレーム及び第2の画像フレームを含む連続する複数の画像フレームを取得する取得部と、前記第1の画像フレーム内で前記対象者の顔器官の位置を示す顔器官点を検出する検出部と、前記第1の画像フレームを参照して、前記第2の画像フレーム内で前記顔器官の動きが生じた後の位置を示すトラッキング点を設定するトラッキング部と、前記検出された第1の画像フレーム内での顔器官点に基づき、前記第1の画像フレーム内に、前記脈波を推定するための輝度値を計測すべき第1の計測領域の位置を設定する第1の設定部と、前記設定された第2の画像フレーム内でのトラッキング点に基づき、前記第2の画像フレーム内に、前記第1の計測領域と異なる第2の計測領域の位置を設定する第2の設定部と、前記第1の設定部により設定された第1の画像フレーム内の第1の計測領域、及び、前記第2の設定部により設定された第2の画像フレーム内の第2の計測領域内の画素の輝度値を計測する計測部と、前記計測された第1の画像フレーム内の第1の計測領域の輝度値と前記計測された第2の画像フレーム内の第2の計測領域の輝度値との差分である輝度差に基づき、前記対象者の脈波を推定する推定部と、を含む。
【発明の効果】
【0009】
本開示に係る脈波推定装置によれば、トラッキング処理が順次行われることに伴い蓄積されたずれが生じるという事態を回避することができる。本開示に係る脈波推定装置によれば、また、リセット処理を挟む前後の画像フレーム間で蓄積されたずれが生じるという事態を回避することができる。従って、本開示に係る脈波推定装置は、上記した2つの蓄積されたずれのうち少なくとも一つが生じる脈波推定装置に比して高い精度で、前記対象者の脈波を推定することができる。
【図面の簡単な説明】
【0010】
【
図1】実施形態の脈波推定装置1の機能ブロック図である。
【
図2】実施形態の撮影部11及び検出部12の動作を示す。
【
図4】実施形態の顔器官検出ユニット13Aの動作を示す。
【
図5】実施形態のトラッキングユニット13Bの動作を示す。
【
図7】実施形態の脈波推定装置1の動作を示すフローチャートである。
【
図8】実施形態の脈波推定装置1の動作を示すタイムチャートである。
【発明を実施するための形態】
【0011】
本開示に係る脈波推定装置の実施形態について説明する。
【0012】
実施形態1.
〈実施形態〉
〈実施形態の構成〉
図1は、実施形態の脈波推定装置1の機能ブロック図である。
【0013】
以下、実施形態の脈波推定装置1の機能について、
図1を参照して説明する。
【0014】
実施形態の脈波推定装置1は、撮影された画像中の画素の輝度に基づき脈波を推定すべく、
図1に示されるように、撮影部11と、検出部12と、設定部13と、計測部14と、推定部15とを含む。
【0015】
撮影部11は、「取得部」に対応し、計測部14は、「計測部」に対応し、推定部15は、「推定部」に対応する。設定部13についての対応関係は、後述する。
【0016】
後述されるように、肌領域を検出する検出部12は、顔器官点を検出する「検出部」に対応せず、他方で、顔器官検出処理及びトラッキング処理を行う設定部13内の顔器官検出ユニット13Aが、「検出部」に対応し、かつ、「第1の設定部」にも対応する。
【0017】
以下では、説明及び理解を容易にすべく、符号に付された添え字が省略された符号を用いて総称することがある。例えば、画像フレームF1~Fmを画像フレームFと総称することがあり、また、肌領域S1~Smを肌領域Sと総称することがある。
【0018】
図2は、実施形態の撮影部11及び検出部12の動作を示す。
【0019】
撮影部11は、例えば、カメラであり、
図2に示されるように、脈波を推定すべき対象者Tの画像G、例えば、対象者Tの上半身、特に、対象者Tの顔を中心とする画像Gを撮影する。画像Gは、
図2に示されるように、連続する複数の画像フレームF1、F2、F3、...、Fmを含む。ここで、mは、2以上の整数である。
【0020】
例えば、画像フレームF1と画像フレームF2とは、相互に前後し、同様に、画像フレームF2と画像フレームF3とは、相互に前後する。
【0021】
撮影部11は、撮影された複数の画像フレームF1~Fmを検出部12へ出力する。
【0022】
検出部12は、
図2に示されるように、例えば、画像フレームF1から、肌領域S1を検出する。肌領域S1は、画像フレームF1における、前記対象者Tの顔の全体の位置、形状、及びサイズ等を表す矩形領域である。
【0023】
検出部12は、画像フレームF1から肌領域S1を検出することと同様に、他の画像フレームF2、F3、...、Fmから、肌領域S2、S3、...、Smを検出する。
【0024】
以下では、説明及び理解を容易にすべく、例えば、肌領域S1自体、及び肌領域S1を示す情報の両者を、肌領域S1により総称する。他の肌領域S2~Smについても同様である。
【0025】
肌領域S1~Smは、上記した対象者Tの顔に代えて、対象者Tの他の部位、例えば、対象者Tの首、肩、腕、手等の位置等を表してもよい。肌領域S1~Smは、上記した対象者Tの顔の全体に代えて、対象者Tの顔の一部分、例えば、対象者Tの顔のうち額、眉、眼、鼻、口、頬、顎等の1つ以上を含む一部分の位置等を表してもよい。肌領域S1~Smは、上記した、対象者Tの顔の全体、及び対象者Tの顔の一部分についての個数が限定されない。より詳しくは、肌領域S1~Smは、1つ、例えば、対象者Tの顔の全体の位置等のみを表してもよく、また、2つ、例えば、対象者Tの右頬の位置等及び対象者Tの左頬等の位置等を表してもよく、さらに、3つ、例えば、対象者Tの鼻の位置等、対象者Tの口の位置等、及び対象者Tの顎の位置等を表してもよい。
【0026】
図1に戻り、検出部12は、複数の画像フレームF1~Fm、及び、複数の肌領域S1~Smを設定部13へ出力する。
【0027】
【0028】
設定部13は、
図3に示されるように、顔器官検出ユニット13Aと、トラッキングユニット13Bとを有する。顔器官検出ユニット13Aは、「検出部」及び「第1の設定部」に対応し、トラッキングユニット13Bは、「トラッキング部」及び「第2の設定部」に対応する。
【0029】
顔器官検出ユニット13Aは、前後する2つのフレーム間での輝度差、例えば、画像フレームF2と直後の画像フレームF3との間での輝度差を算出することができるようにすべく、前に位置する画像フレームF2について、顔器官検出処理を行う。
【0030】
トラッキングユニット13Bは、顔器官検出ユニット13Aと同様に、前後する2つのフレーム間での輝度差を算出することができるようにするものの、顔器官検出ユニット13Aと相違し、例えば、画像フレームF2と直前の画像フレームF1との間の輝度差を算出することができるようにすべく、後に位置する画像フレームF2について、トラッキング処理を行う。
【0031】
上記した、顔器官検出ユニット13Aによる顔器官検出処理、及び、トラッキングユニット13Bによるトラッキング処理を要約すれば、顔器官検出処理及びトラッキング処理は、各画像フレームF2、F3、...毎に、行われる。
【0032】
顔器官検出ユニット13Aは、例えば、検出部12から受け取る肌領域S1に、対象者Tの脈波を推定するための輝度を計測すべき、1つ以上の矩形状である計測領域KR1(1)~KR1(n)(
図4に図示。)を設定する。ここで、nは、1以上の整数である。
【0033】
図4は、実施形態の顔器官検出ユニット13Aの動作を示す。
【0034】
顔器官検出ユニット13Aは、例えば、従来知られた顔器官検出方法のモデルである、Constrained Local Model(CLM)を用いる。顔器官検出ユニット13Aは、前記したCLMを用いて、顔器官検出処理を行い、具体的には、
図4(左側の枠内)に示されるように、例えば、肌領域S1中で、複数の顔器官点KK1(1)~KK1(p)の座標値を検出する。ここで、顔器官点KK1(1)~KK1(p)は、対象者Tの顔を特定するための特徴点である。pは、2以上の整数である。
【0035】
前記顔器官検出処理に引き続き、顔器官検出ユニット13Aは、
図4(右側の枠内)に示されるように、肌領域S1について検出された顔器官点KK1(1)~KK1(p)を基準に(
図4(左側の枠内)に図示。)、計測領域KR1(1)~KR1(n)の座標値を設定する。
【0036】
顔器官検出ユニット13Aは、肌領域S1以外の他の肌領域S2~Smについても、肌領域S1に行う処理と同様の処理、即ち、顔器官点KKの座標値を検出すること、及び、計測領域KRの座標値を設定することを行う。
【0037】
顔器官検出ユニット13Aは、例えば、肌領域S2中で、複数の顔器官点KK2(1)、KK2(2)、、、、(図示せず。)の座標値を検出し、複数の計測領域KR2(1)、KR2(2)、、、、(図示せず。)の座標値を設定する。
【0038】
図5は、実施形態のトラッキングユニット13Bの動作を示す。
【0039】
トラッキングユニット13Bは、従来知られたトラッキング技術であるKanade-Lucas-Tomasi(KLT)トラッカーを用いて、前後の画像フレーム間でトラッキング処理を行う。
【0040】
トラッキングユニット13Bは、
図5に示されるように、例えば、画像フレームF1、当該画像フレームF1中の肌領域S1、及び、前記画像フレームF1に引き続く画像フレームF2に基づきトラッキング処理を行う。これにより、トラッキングユニット13Bは、
図5に示されるように、画像フレームF2の肌領域S2中に、対象者Tの顔を特定するための特徴点であるトラッキング点TR2(1)、TR2(2)、TR2(3)、TR2(4)、、、の座標値を設定する。
【0041】
当該トラッキング処理に引き続き、
トラッキングユニット13Bは、
図5に示されるように、トラッキング点TR2(1)、TR2(2)、TR2(3)、TR2(4)、、、を基準に、計測領域KR2(1)、KR2(2)、KR2(3)、、、の座標値を設定する。
【0042】
顔器官検出ユニット13Aとトラッキングユニット13Bとを比較すると、顔器官検出ユニット13Aは、上述した顔器官点KK1(1)~KK1(p)(
図4に図示。)を基準にし、他方で、トラッキングユニット13Bは、上述したトラッキング点TR2(1)、TR2(2)、TR2(3)、TR2(4)、、、(
図5に図示。)を基準にする。
【0043】
トラッキングユニット13Bは、肌領域S2以外の他の肌領域S3~Smについても、肌領域S2に行う処理と同様の処理、即ち、トラッキング点TRの座標値を設定すること、及び、計測領域KRの座標値を設定することを行う。
【0044】
設定部13は、
図1に示されるように、計測領域KRを、即ち、肌領域S1~Smについての計測領域KR1(1)、KR1(2)、...(
図4に図示。)、KR2(1)、KR2(2)、...(
図5に図示。)、KRm(1)、KRm(2)、...(図示せず。)を計測部14へ出力する。
【0045】
【0046】
計測部14は、設定部13から受け取った、前後画像フレームFの計測領域KR間での各計測領域KRに含まれる画素の輝度値を計測し、当該計測された輝度値の差分を時系列的に示す輝度信号を生成する。
【0047】
計測部14は、例えば、
図5に図示された画像フレームF1、F2については、例えば、画像フレームF1における計測領域KR1(1)内に含まれる複数の画素の輝度値についての平均値と、画像フレームF2における、画像フレームF1の計測領域KR1(1)に対応する計測領域KR2(1)内に含まれる複数の画素の輝度値についての平均値との差分を算出する。
【0048】
計測部14は、引き続き、画像フレームF2における計測領域KR2(1)内に含まれる複数の画素の輝度値についての平均値と、画像フレームF3(図示せず。)における、画像フレームF2の計測領域KR2(1)に対応する計測領域KR3(1)(図示せず。)内に含まれる複数の画素の輝度値についての平均値との差分を算出する。
【0049】
計測部14は、更に引き続き、画像フレームF3における計測領域KR3(1)内に含まれる複数の画素の輝度値についての平均値と、画像フレームF4(図示せず。)における、画像フレームF3の計測領域KR3(1)に対応する計測領域KR4(1)(図示せず。)内に含まれる複数の画素の輝度値についての平均値との差分を算出する。
【0050】
計測部14は、上記した平均値に代えて、例えば、分散値を用いてもよい。
【0051】
計測部14は、上記した画像フレームF1、F2、F3、F4の計測領域KR1(1)、KR2(1)、KR3(1)、KR4(1)以外の画像フレームFの計測領域KRについても、上記したと同様の処理を行う。計測部14は、
図1に示されるように、前後する画像フレームFの計測領域KR間の画素の差分を示す輝度信号KSを推定部15へ出力する。
【0052】
推定部15は、計測部14から受け取る輝度信号KSに基づき、脈波MHを推定する。推定部15は、さらに、前記推定された脈波MHに基づき脈拍数MSを算出する。推定部15は、前記推定された脈波MH、及び、前記算出された脈拍数MSのうちの少なくとも1つを出力する。
【0053】
【0054】
実施形態の脈波推定装置1は、上述した機能を果たすべく、
図6に示されるように、入力部1Nと、プロセッサ1Pと、出力部1Sと、記憶媒体1Kと、メモリ1Mと、を含む。
【0055】
入力部1Nは、例えば、カメラ、マイク、キーボード、マウス、タッチパネルから構成される。プロセッサ1Pは、ソフトウェアに従ってハードウェアを動作させる、よく知られたコンピュータの中核である。出力部1Sは、例えば、液晶モニター、プリンタ、タッチパネルから構成される。メモリ1Mは、例えば、DRAM(Dynamic Random Access Memory)、SRAM(Static Random Access Memory)から構成される。記憶媒体1Kは、例えば、ハードディスクドライブ(HDD:Hard Disk Drive)、ソリッドステートドライブ(SSD:Solid State Drive)、ROM(Read Only Memory)から構成される。
【0056】
記憶媒体1Kは、プログラム1PRを記憶する。プログラム1PRは、プロセッサ1Pが実行すべき処理の内容を規定する命令群である。
【0057】
脈波推定装置1における機能と構成との関係については、ハードウェア上で、プロセッサ1Pが、記憶媒体1Kに記憶されたプログラム1PRを、メモリ1Mを用いつつ実行すると共に、必要に応じて、入力部1N及び出力部1Sの動作を制御することにより、撮影部11~推定部15の各部の機能を実現する。
【0058】
〈実施形態の動作〉
図7は、実施形態の脈波推定装置1の動作を示すフローチャートである。
図8は、実施形態の脈波推定装置1の動作を示すタイムチャートである。以下、脈波推定装置1の動作について、
図7のフローチャート及び
図8のタイムチャートに沿って説明する。
【0059】
以下では、説明及び理解を容易にすべく、計測領域KRに、添え字「(KK)」、「(TR)」を付する。添え字「(KK)」は、顔器官検出処理を意味し、他方で、添え字「(TR)」は、トラッキング処理を意味する。
【0060】
ステップST11:撮影部11は、
図2に示されるように、脈波を推定すべき対象者Tの画像G、即ち、複数の画像フレームF1~Fmを撮影する。撮影部11は、撮影された複数の画像フレームF1~Fmを検出部12へ出力する。
【0061】
ステップST12:検出部12は、
図2に示されるように、複数の画像フレームF1~Fmから複数の肌領域S1~Smを抽出する。検出部12は、複数の画像フレームF1~Fm、及び、複数の肌領域S1~Smを設定部13へ順次、出力する。
【0062】
ステップST13:検出部12から画像フレームF1が出力されると、設定部13では、画像フレームF1が1番めの画像フレームであることから、顔器官検出ユニット13Aが、
図8に示されるように、画像フレームF1の肌領域S1中で、複数の顔器官点KK1(図示せず。)の座標値を検出する。顔器官検出ユニット13Aは、また、検出された複数の顔器官点KK1の座標値を基準に、肌領域S1中に、例えば、
図8に示されるように、計測領域KR1(KK)の座標値を設定する。
【0063】
ステップST14A:検出部12から、画像フレームF1に引き続く画像フレームF2が出力されると、設定部13では、画像フレームF2が2番めの画像フレームであることから、まず、トラッキングユニット13Bが、
図8に示されるように、画像フレームF1、肌領域S1、及び、画像フレームF2に基づきトラッキング処理を行う。これにより、トラッキングユニット13Bは、画像フレームF2中の肌領域S2中に、複数のトラッキング点TR2(図示せず。)を設定する。トラッキングユニット13Bは、設定された複数のトラッキング点TR2を基準に、
図8に示されるように、計測領域KR1(KK)に対応すべき計測領域KR2(TR)の座標値を設定する。
【0064】
ステップST14B:設定部13では、次に、顔器官検出ユニット13Aが、
図8に示されるように、画像フレームF2の肌領域S2中で、複数の顔器官点KK2(図示せず。)の座標値を検出する。顔器官検出ユニット13Aは、また、検出された複数の顔器官点KK2の座標値を基準に、肌領域S2中に、
図8に示されるように、計測領域KR2(KK)の座標値を設定する。
【0065】
ステップST15A:検出部12から画像フレームF3が出力されると、設定部13では、画像フレームF3が3番めの画像フレームであることから、まず、トラッキングユニット13Bが、ステップST14Aと同様に、
図8に示されるように、画像フレームF2、肌領域S2、及び、画像フレームF3に基づきトラッキングを行う。これにより、トラッキングユニット13Bは、画像フレームF3中の肌領域S3中に、複数のトラッキング点TR3(図示せず。)を設定する。トラッキングユニット13Bは、設定された複数のトラッキング点TR3を基準に、計測領域KR2(KK)に対応すべき計測領域KR3(TR)の座標値を設定する。
【0066】
ステップST15B:設定部13では、次に、顔器官検出ユニット13Aが、ステップST14Bと同様に、
図8に示されるように、画像フレームF3の肌領域S3中で、顔器官点KK3(図示せず。)の座標値を検出する。顔器官検出ユニット13Aは、また、検出された顔器官点の座標値を基準に、肌領域S3中に、計測領域KR3(KK)の座標値を設定する。
【0067】
後続の画像フレームF4、画像フレームF6、...、画像フレームFmについても、上記したステップST15A、ST15Bと同様な処理を行う。
【0068】
ステップST16:計測部14は、計測領域KRの輝度値を計測し、具体的には、計測領域KR1(KK)、計測領域KR2(TR)、計測領域KR2(KK)、計測領域KR3(TR)、、、、を計測する。
【0069】
計測部14は、上記した計測の後に、輝度差KDを算出する。計測部14は、例えば、
図8に図示された計測領域KR1(KK)内の画素の輝度値の平均値、及び、
図8に図示された計測領域KR2(TR)内の画素の輝度値の平均値を算出し、更に、両平均値間の差分、即ち、輝度差KD(1-2)を算出する。計測部14は、同様にして、例えば、
図8に図示された計測領域KR2(KK)内の画素の輝度値の平均値、及び、
図8に図示された計測領域KR3(TR)内の画素の輝度値の平均値を算出し、更に、両平均値間の差分、即ち、輝度差KD(2-3)を算出する。計測部14は、同様にして、他の画像フレームF3、画像フレームF4、、、、間の輝度差KDを算出する。計測部14は、輝度差KD(1-2)、輝度差KD(2-3)、、、、を示す輝度信号KSを出力する。
【0070】
ステップST17:計測部14から輝度信号KSが出力されると、推定部15は、輝度信号KSに基づき、脈波MHを推定する。推定部15は、また、前記推定された脈波MHに基づき脈拍数MSを算出する。推定部15は、前記推定された脈波MH、及び、前記算出された脈拍数MSのうちの少なくとも1つを出力する。
【0071】
〈実施形態の効果〉
上述したように、実施形態の脈波推定装置1によれば、顔器官検出ユニット13Aが、画像フレームF1について、顔器官点KK1に基づき計測領域KR1(KK)を設定する。また、トラッキングユニット13Bが、画像フレームF1に後続する画像フレームF2について、トラッキング点TR2に基づき計測領域KR2(TR)を設定し、かつ、顔器官検出ユニット13Aが、画像フレームF2について、顔器官点KK2に基づき計測領域KR2(KK)を設定する。さらに、後続の画像フレームF3~Fmについても、同様に計測領域KR(KK)、KR(TR)を設定する。前記した設定の後、計測部14による計測領域KR(KK)、KR(TR)内の画素値の計測、及び、前後する計測領域KR間での前記計測された画素値の輝度差KDの算出を経て、推定部15が、輝度差KD(1-2)、KD(2-3)、、、、に基づき、脈波MHを推定し、また、脈拍数MSを算出する。
【0072】
これにより、トラッキングが順次行われ続けることに伴い、ずれが蓄積され続けるという事態を回避することができる。また、従来のリセット処理を挟む前後の画像フレーム間で、蓄積されたずれが生じるという事態も回避することができる。
【0073】
その結果、計測領域KR1(KK)とKR2(TR)との間の輝度差KD、KR2(KK)とKR3(TR)との間の輝度差KD、、、、を、従来に比して高い精度で計測することができる。その結果、対象者Tの脈波MHの推定、及び脈拍数MSの算出を、従来に比して高い精度で行うことができる。
【0074】
比較例.
〈比較例〉
図9は、比較例の脈波推定装置の動作を示す。
【0075】
比較例の脈波推定装置では、
図9に示されるように、1番めの画像フレームF1のみに顔器官検出処理を行うことにより、計測領域KR1(KK)を設定し、他方で、後続する他の複数の画像フレームF2、F3、、、、に、顔器官検出処理を行うことなく、トラッキング処理を行うことにより、計測領域KR2(TR)、KR3(TR)、、、、を設定する。
【0076】
より詳しくは、1番めの画像フレームである画像フレームF1について、画像フレームF1に顔器官検出処理を行うことより、複数の顔器官点KK1(図示せず。)を検出し、検出された複数の顔器官点KK1を基準に、肌領域S1内で計測領域KR1(KK)を設定する。
【0077】
比較例の脈波推定装置では、画像フレームF1に引き続く画像フレームF2について、顔器官検出処理を行うことなく、画像フレームF1、肌領域S1、及び画像フレームF2に基づきトラッキング処理を行うことにより、複数のトラッキング点TR2(図示せず。)を検出し、検出されたトラッキング点TR2を基準に、肌領域S2内で計測領域KR2(TR)を設定する。比較例の脈波推定装置では、画像フレームF2に引き続く画像フレームF3、...、F(k-1)についても、画像フレームF2についてと同様にトラッキング処理を継続することにより、計測領域KR3(TR)、...、KR(k-1)(TR)を設定する。
【0078】
比較例の脈波推定装置では、他方で、概ねk個(kは、予め定められた正の整数)の画像フレーム毎にトラッキング処理を停止すべき、即ち、トラッキング処理をリセットすべき旨が定められている。それにより、比較例の脈波推定装置では、画像フレームF(k)については、トラッキング処理を停止させ、即ち、トラッキング処理をリセットした上で、画像フレームF1について行った顔器官検出処理と同様に、画像フレームF(k)に顔器官検出処理を行う。これにより、複数の顔器官点KK(k)(図示せず。)を検出し、検出された複数の顔器官点KK(k)を基準に肌領域S(k)内で計測領域KR(k)(KK)を設定する。比較例の脈波推定装置では、画像フレームF(k)に引き続く画像フレームF(k+1)等について、画像フレームF1に引き続く画像フレームF2等と同様に、トラッキング処理を続けることにより、計測領域KR(k+1)(TR)等を設定する。
【0079】
比較例の脈波推定装置では、上述したように、画像フレームF1、F(k)、、、、には顔器官検出処理を行い、他方で、画像フレームF1に後続する他の画像フレームF2、F3、、、、及び、画像フレームF(k)に後続する画像フレームF(k+1)等には顔器官検出処理を行うことなく、トラッキング処理を行う。これにより、比較例の脈波推定装置では、画像フレームF2についてのトラッキング処理、画像フレームF3についてのトラッキング処理、画像フレームF4(図示せず。)についてトラッキング処理、、、、のようにトラッキング処理が順次行なわれる。トラッキング処理が順次行われることにより、計測領域KR2(TR)及び計測領域KR3(TR)間のずれ、計測領域KR3(TR)及び計測領域KR4(TR)間のずれ、、、、が蓄積される。その結果、例えば、顔器官検出処理が行われる画像フレームF(k)の直前である画像フレームF(k-1)の計測領域KR(k-1)(TR)の位置が、1番めの画像フレームF1の計測領域KR1(KK)の位置と比較して、上記した蓄積されたずれに相当する距離だけ離れるという事態を招く。
【0080】
比較例の脈波推定装置では、また、トラッキング処理のリセットが行われる、即ち、顔器官検出処理のみが行われる画像フレームF(k)についての計測領域KR(k)(KK)の位置は、顔器官検出処理のみが行われる画像フレームF1の計測領域KR1(KK)の位置と実質的に同一になる。従って、画像フレームF(k)についての計測領域KR(k)(KK)の位置と、画像フレームF(k-1)についての計測領域KR(k-1)(TR)の位置とが、上記したような計測領域KR1(KK)の位置と計測領域KR(k-1)(TR)の位置との間の距離に概ね等しいだけ離れるという事態を招く。
【0081】
比較例の脈波推定装置とは対照的に、実施形態の脈波推定装置1は、上述したように、基本的に、画像フレームF1、F2、F3、、、、の各画像フレームF毎に、顔器官検出処理及びトラッキング処理を行う。従って、実施形態の脈波推定装置1は、画像フレームF(k-1)の計測領域KR(k-1)(TR)の位置と、1番めの画像フレームF1の計測領域KR1(KK)の位置との間に、上記した、ずれの蓄積である距離が生じるとの事態を回避することができる。同様に、画像フレームF(k-1)の計測領域KR(k-1)(TR)の位置と、画像フレームF(k)の計測領域KR(k)(KK)の位置との間にも、上記した距離に概ね等しい距離が生じるとの事態を回避することができる。
【0082】
変形例.
〈変形例〉
変形例の脈波推定装置1は、上述した、顔器官検出処理及びトラッキング処理を各画像フレームF毎に、即ち、画像フレームF1、F2、F3、、、、の一つ一つに行うことに代えて、顔器官検出処理及びトラッキング処理を、予め定められた数の画像フレームF毎にのみ行い、他の画像フレームFにはトラッキング処理のみを行うようにしてもよい。変形例の脈波推定装置1は、より詳細には、例えば、画像フレームF1に顔器官検出処理を行った後、後続する画像フレームFについては、画像フレームF2、F3にトラッキング処理のみを行い、画像フレームF4に顔器官検出処理及びトラッキング処理の両処理を行い、画像フレームF5、F6にトラッキング処理のみを行い、画像フレームF7に顔器官検出処理及びトラッキング処理の両処理を行うようにしてもよい。
【0083】
実施形態の任意の構成要素の変形もしくは実施形態の任意の構成要素の省略が可能である。
【産業上の利用可能性】
【0084】
本開示に係る脈波推定装置及び脈波推定方法は、例えば、脈波の推定、及び脈拍数の算出に利用可能である。
【符号の説明】
【0085】
1 脈波推定装置、11 撮影部、12 検出部、13 設定部、14 計測部、15 推定部、13A 顔器官検出ユニット、13B トラッキングユニット、1N 入力部、1P プロセッサ、1S 出力部、1M メモリ、1K 記憶媒体、1PR プログラム、T 対象者、G 画像、F 画像フレーム、S 肌領域、KK 顔器官点、TR トラッキング点、KR 計測領域、KD 輝度差、KS 輝度信号、MH 脈波、MS 脈拍数。