IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 学校法人慶應義塾の特許一覧

特開2023-42716生体情報検出システム、生体情報検出方法、及び、プログラム
<>
  • 特開-生体情報検出システム、生体情報検出方法、及び、プログラム 図1
  • 特開-生体情報検出システム、生体情報検出方法、及び、プログラム 図2
  • 特開-生体情報検出システム、生体情報検出方法、及び、プログラム 図3
  • 特開-生体情報検出システム、生体情報検出方法、及び、プログラム 図4
  • 特開-生体情報検出システム、生体情報検出方法、及び、プログラム 図5
  • 特開-生体情報検出システム、生体情報検出方法、及び、プログラム 図6
  • 特開-生体情報検出システム、生体情報検出方法、及び、プログラム 図7
  • 特開-生体情報検出システム、生体情報検出方法、及び、プログラム 図8
  • 特開-生体情報検出システム、生体情報検出方法、及び、プログラム 図9
  • 特開-生体情報検出システム、生体情報検出方法、及び、プログラム 図10
  • 特開-生体情報検出システム、生体情報検出方法、及び、プログラム 図11
  • 特開-生体情報検出システム、生体情報検出方法、及び、プログラム 図12
  • 特開-生体情報検出システム、生体情報検出方法、及び、プログラム 図13
  • 特開-生体情報検出システム、生体情報検出方法、及び、プログラム 図14
  • 特開-生体情報検出システム、生体情報検出方法、及び、プログラム 図15
  • 特開-生体情報検出システム、生体情報検出方法、及び、プログラム 図16
  • 特開-生体情報検出システム、生体情報検出方法、及び、プログラム 図17
  • 特開-生体情報検出システム、生体情報検出方法、及び、プログラム 図18
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2023042716
(43)【公開日】2023-03-28
(54)【発明の名称】生体情報検出システム、生体情報検出方法、及び、プログラム
(51)【国際特許分類】
   A61B 5/11 20060101AFI20230320BHJP
   G06T 7/70 20170101ALI20230320BHJP
   G06T 7/00 20170101ALI20230320BHJP
   A61B 5/00 20060101ALN20230320BHJP
【FI】
A61B5/11 100
G06T7/70 A
G06T7/00 350B
A61B5/00 101R
【審査請求】未請求
【請求項の数】16
【出願形態】OL
(21)【出願番号】P 2021149989
(22)【出願日】2021-09-15
(71)【出願人】
【識別番号】899000079
【氏名又は名称】慶應義塾
(74)【代理人】
【識別番号】100088155
【弁理士】
【氏名又は名称】長谷川 芳樹
(74)【代理人】
【識別番号】100113435
【弁理士】
【氏名又は名称】黒木 義樹
(74)【代理人】
【識別番号】100124800
【弁理士】
【氏名又は名称】諏澤 勇司
(74)【代理人】
【識別番号】100206966
【弁理士】
【氏名又は名称】崎山 翔一
(72)【発明者】
【氏名】大槻 知明
(72)【発明者】
【氏名】モンデル ボアジジ
【テーマコード(参考)】
4C038
4C117
5L096
【Fターム(参考)】
4C038VA04
4C038VB02
4C038VB32
4C038VB33
4C038VC20
4C117XB01
4C117XD01
4C117XD22
4C117XE13
4C117XE24
4C117XE43
5L096BA06
5L096BA13
5L096FA14
5L096FA66
5L096HA11
5L096JA11
5L096KA04
(57)【要約】
【課題】生体情報の検出精度が高精度に確保され得る生体情報検出システムを提供する。
【解決手段】生体情報検出システム1は、深度画像取得部81と、格納部82と、部位検出部83とを備えている。深度画像取得部81は、生体Mを撮像した深度画像の情報を取得する。格納部82は、特徴検出モデルを格納する。特徴検出モデルは、生体における対象部位の位置に関する特徴情報と深度画像の情報とを関連付けている。部位検出部83は、深度画像取得部81によって取得された深度画像の情報と特徴検出モデルとに基づいて、生体における対象部位の位置を検出する。
【選択図】図1
【特許請求の範囲】
【請求項1】
生体を撮像した深度画像の情報を取得する深度画像取得部と、
生体における対象部位の位置に関する特徴情報と深度画像の情報とを関連付けている特徴検出モデルを格納する格納部と、
前記深度画像取得部によって取得された前記深度画像の情報と前記特徴検出モデルとに基づいて、前記対象部位の位置を検出する部位検出部と、を備える、生体情報検出システム。
【請求項2】
前記特徴情報は、前記深度画像の情報に対応する生体を撮像したRGB画像において、前記RGB画像に含まれる複数のRGB画素のうち前記対象部位に関するRGB画素の位置を示す情報を含んでいる、請求項1に記載の生体情報検出システム。
【請求項3】
前記特徴情報は、生体における複数の特徴点の位置を示す位置情報を含んでおり、
前記部位検出部は、前記深度画像取得部によって取得された前記深度画像の情報と前記特徴検出モデルとに基づいて、前記深度画像取得部によって取得された前記深度画像の情報における前記複数の特徴点の位置を検出し、検出された前記複数の特徴点の位置に対応する前記対象部位の位置を検出する、請求項1又は2に記載の生体情報検出システム。
【請求項4】
前記生体における前記複数の特徴点の位置は、生体における互いに異なる部位の位置を示している、請求項3に記載の生体情報検出システム。
【請求項5】
前記対象部位は、前記生体の胸部又は頭部である、請求項1から4のいずれか一項に記載の生体情報検出システム。
【請求項6】
少なくとも、前記部位検出部によって検出された前記対象部位の位置において反射した反射波を示す信号情報を取得する情報取得部と、
前記情報取得部によって取得された信号情報に基づいて、生体活動情報を取得する生体活動情報取得部と、をさらに備えている、請求項1から5のいずれか一項に記載の生体情報検出システム。
【請求項7】
前記反射波を受信する受信部をさらに備えており、
前記部位検出部は、前記深度画像取得部によって取得された前記深度画像の情報と前記特徴検出モデルとに基づいて、前記生体の部位と前記受信部との位置関係を示す相対情報を演算し、
前記生体活動情報取得部は、前記相対情報に基づいて前記生体活動情報を取得する、請求項6に記載の生体情報検出システム。
【請求項8】
複数の学習用の前記深度画像の情報と、各前記学習用の深度画像における学習用の生体の対象部位の位置に関する学習用特徴情報とを用いた学習によって、前記深度画像の情報の入力に応じて、入力された前記深度画像における生体の前記対象部位の位置に関する前記特徴情報を出力するモデルを前記特徴検出モデルとして作成するモデル作成部をさらに備え、
前記複数の学習用の深度画像の情報は、互いに異なるシーンにおいて撮像された深度画像の情報を含んでおり、
前記格納部は、前記モデル作成部によって作成された前記モデルを格納する、請求項1から7のいずれか一項に記載の生体情報検出システム。
【請求項9】
生体を撮像した深度画像の情報を取得することと、
生体における対象部位の位置に関する特徴情報と深度画像の情報とを関連付けている特徴検出モデルと、取得された前記深度画像の情報とに基づいて、前記対象部位の位置を検出することと、を含んでいる、生体情報検出方法。
【請求項10】
複数の学習用の前記深度画像の情報を取得することと、
各々が、前記学習用の深度画像における学習用の生体の対象部位の位置に関する複数の学習用特徴情報を取得することと、
前記複数の学習用の深度画像の情報と、前記複数の学習用特徴情報とを用いた学習によって、前記深度画像の情報の入力に応じて前記特徴情報を出力するモデルを前記特徴検出モデルとして作成することと、をさらに含んでいる、請求項9に記載の生体情報検出方法。
【請求項11】
前記学習用の深度画像の情報に対応する学習用の生体を撮像したRGB画像の情報を取得することと、
前記RGB画像に含まれる複数のRGB画素のうち前記対象部位に関するRGB画素の位置を示す情報を前記学習用特徴情報として取得することと、をさらに含んでいる、請求項10に記載の生体情報検出方法。
【請求項12】
各前記学習用特徴情報は、学習用の生体における複数の特徴点の位置を示す学習用位置情報を含んでおり、
前記特徴検出モデルの作成において、前記複数の学習用の深度画像の情報と、前記複数の学習用位置情報とを用いた学習によって、前記深度画像の情報の入力に応じて、生体における複数の特徴点の位置を示す位置情報を出力するモデルが前記特徴検出モデルとして作成される、請求項10に記載の生体情報検出方法。
【請求項13】
前記学習用の深度画像は、前記学習用の深度画像に対応する前記複数の特徴点がそれぞれ位置する複数の特徴画素を含んでおり、
前記学習用位置情報は、前記学習用の深度画像における前記複数の特徴画素の位置を示す画素位置情報を含んでいる、請求項12に記載の生体情報検出方法。
【請求項14】
前記学習用位置情報の取得において、
前記学習用の深度画像の情報に対応する生体を撮像したRGB画像の情報が取得され、
前記RGB画像に基づいて、前記RGB画像に含まれる複数のRGB画素のうち、前記学習用の深度画像の情報に対応する生体における前記複数の特徴点がそれぞれ位置する複数のRGB画素の位置が演算され、
演算された前記複数のRGB画素の位置に基づいて、前記画素位置情報が演算される、請求項13に記載の生体情報検出方法。
【請求項15】
前記複数の特徴点の位置は、生体における互いに異なる部位の位置に対応しており、
前記学習用位置情報は、前記特徴点が示す前記部位に応じて、各前記特徴点をラベリングしたラベリング情報を含んでいる、請求項12から14のいずれか一項に記載の生体情報検出方法。
【請求項16】
生体を撮像した深度画像の情報を取得することと、
生体における対象部位の位置に関する特徴情報と深度画像の情報とを関連付けている特徴検出モデルと、取得された前記深度画像の情報とに基づいて、前記対象部位の位置を検出することと、をコンピュータに実行させる、プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、生体情報検出システム、生体情報検出方法、及び、プログラムに関する。
【背景技術】
【0002】
人、又は、動物のなどの生体に関する生体活動情報を非接触で検出する技術が知られている(例えば、特許文献1)。特許文献1には、生体の動きに関する信号情報を取得し、取得された信号情報に基づいて、生体活動情報を非接触で検出することが記載されている。
【先行技術文献】
【特許文献】
【0003】
【特許文献1】特開2017-127398号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
生体における所望の部位の位置を検出することが考えられている。例えば、生体活動情報が非接触で検出される場合において、生体の部位の位置を検出することが検討されている。本明細書において、「生体」は、生物の全般を意味し、例えば、人、及び、動物を含んでいる。「生体情報」は、生体に関する情報を意味し、生体の位置情報、及び、生体活動情報を含んでいる。「生体活動情報」は、生体における活動に関する情報を意味し、生体の心拍、瞬き、又は、呼吸などを含んでいる。
【0005】
例えば、生体へパルス波を送信波として照射し、生体からの反射波に基づく信号情報を取得し、取得された信号情報を処理することによって生体活動情報を検出する技術が考えられている。この場合、例えば、ドップラーセンサを用いて生体からのドップラー信号を取得することによって、生体活動情報が検出され得る。
【0006】
上記生体活動情報の検出においては、生体の所望の部位が特定されれば、生体活動情報の検出精度が飛躍的に向上され得る。予め所望の部位の位置が分かっていなければ、互いに異なる位置において反射した複数の反射波の情報を取得したとしても、生体活動情報の導出に用いるべき反射波の情報が判断され難い。生体活動情報の検出前において部位の位置が分かっていたとしても、生体活動情報の導出に適した反射波の情報は、身体の動揺、及び、生体の体勢の変化などのために時間とともに変化するおそれがある。したがって、この場合も、生体における所望の部位の位置を逐次検出することが検討されている。例えば、生体の心拍の検出においては、生体の胸部の位置を検出することが検討されている。
【0007】
生体における所望の部位の検出については、検出精度の向上が求められている。LiDAR(Light Detection and Ranging)による検出においては、生体全体の位置が検出されたとしても生体における所望の部位の位置は検出され難い。生体における所望の部位の位置が検出されなければ、生体活動情報の検出精度が確保され難い。したがって、生体における部位の位置の検出も含めた生体情報について、検出精度の向上が検討されている。
【0008】
本発明の一つの態様は、生体情報の検出精度が高精度に確保され得る生体情報検出システムを提供することを目的とする。本発明の別の態様は、生体情報の検出精度が高精度に確保され得る生体情報検出方法を提供することを目的とする。本発明のさらに別の態様は、生体情報の検出精度が高精度に確保され得るプログラムを提供することを目的とする。
【課題を解決するための手段】
【0009】
本発明の一つの態様における生体情報検出システムは、深度画像取得部と、格納部と、部位検出部とを備えている。深度画像取得部は、生体を撮像した深度画像の情報を取得する。格納部は、特徴検出モデルを格納する。特徴検出モデルは、生体における対象部位の位置に関する特徴情報と深度画像の情報とを関連付けている。部位検出部は、深度画像取得部によって取得された深度画像の情報と特徴検出モデルとに基づいて、生体における対象部位の位置を検出する。
【0010】
上記一つの態様において、部位検出部は、深度画像の情報と特徴検出モデルとに基づいて、対象部位の位置を検出する。この場合、深度画像における深度情報も考慮して対象部位の位置が検出されるため、対象部位の位置の検出精度が向上され得る。対象部位の位置に関する特徴情報と深度画像の情報とを関連付けている特徴検出モデルが用いられているため、深度画像の情報から対象部位の位置が検出され得る。この結果、生体における対象部位の位置の検出を含めた生体情報の検出について、検出精度が高精度に確保され得る。
【0011】
上記一つの態様において、特徴情報は、RGB画像において、当該RGB画像に含まれる複数のRGB画素のうち対象部位に関するRGB画素の位置を示す情報を含んでいてもよい。RGB画像は、深度画像の情報に対応する生体を撮像した画像であってもよい。この場合、特徴検出モデルは、対象部位に関するRGB画素の位置と深度画像の情報とを関連付けている。このため、RGB画像の情報と深度画像の情報とに基づいて、対象部位の位置が検出される。この結果、対象部位の位置の検出精度がより向上し得る。
【0012】
上記一つの態様において、特徴情報は、生体における複数の特徴点の位置を示す位置情報を含んでいてもよい。部位検出部は、深度画像取得部によって取得された深度画像の情報と特徴検出モデルとに基づいて、深度画像取得部によって取得された深度画像の情報における複数の特徴点の位置を検出してもよい。部位検出部は、検出された複数の特徴点の位置に対応する対象部位の位置を検出してもよい。この場合、特徴検出モデルは、生体における複数の特徴点の位置を示す位置情報と深度画像の情報とを関連付けている。深度画像の情報における複数の特徴点の位置は、上記特徴検出モデルに基づいて検出される。深度画像の情報に基づいて各特徴点の位置が検出されているため、対象部位の位置の検出精度がより向上し得る。
【0013】
上記一つの態様において、生体における複数の特徴点の位置は、生体における互いに異なる部位の位置を示していてもよい。この場合、対象部位の位置の検出精度がより向上し得る。
【0014】
上記一つの態様において、対象部位は、生体の胸部又は頭部であってもよい。生体の胸部が対象部位である場合には、対象部位の検出結果を用いることによって、心拍又は呼吸などの生体活動情報の検出精度が向上し得る。生体の頭部が対象部位である場合には、対象部位の検出結果を用いることによって、瞬きなどの生体活動情報の検出精度が向上し得る。
【0015】
上記一つの態様において、生体情報検出システムは、情報取得部と、生体活動情報取得部とをさらに備えていてもよい。情報取得部は、少なくとも、部位検出部によって検出された対象部位の位置において反射した反射波を示す信号情報を取得してもよい。生体活動情報取得部は、情報取得部によって取得された信号情報に基づいて、生体活動情報を取得してもよい。この場合、対象部位の検出結果を用いることによって、生体活動情報の検出精度が向上し得る。
【0016】
上記一つの態様において、生体情報検出システムは、反射波を受信する受信部をさらに備えていてもよい。部位検出部は、深度画像情報における複数の特徴点の位置に基づいて、生体の部位と受信部との関係を示す相対情報を演算してもよい。生体活動情報取得部は、上記相対情報に基づいて生体活動情報を検出してもよい。この場合、生体活動情報の検出精度がさらに向上し得る。
【0017】
上記一つの態様において、生体情報検出システムは、モデル作成部をさらに備えてもよい。モデル作成部は、複数の学習用の深度画像の情報と、各学習用の深度画像の情報における学習用の生体の対象部位の位置に関する学習用位置情報とを用いた学習によって、深度画像の情報の入力に応じて、入力された深度画像における生体の対象部位の位置に関する特徴情報を出力するモデルを特徴検出モデルとして作成してもよい。複数の学習用の深度画像情報は、互いに異なるシーンにおいて撮像された深度画像の情報を含んでいてもよい。格納部は、モデル作成部によって作成された上記モデルを格納してもよい。この場合、深度画像の情報によって、生体の対象部位の位置に関する特徴情報がより高精度に検出され得る。この結果、対象部位の位置の検出精度がさらに向上し得る。
【0018】
本発明の別の態様における生体情報検出方法は、生体を撮像した深度画像の情報を取得することと、生体の対象部位の位置を検出することと、を含んでいる。生体の対象部位の位置は、特徴検出モデルと取得された深度画像の情報とに基づいて、検出される。特徴検出モデルは、生体における対象部位の位置に関する特徴情報と深度画像の情報とを関連付けている。
【0019】
上記別の態様において、深度画像の情報と特徴検出モデルとに基づいて、生体の対象部位の位置が検出される。この場合、深度画像における深度情報も考慮して対象部位の位置が検出されるため、対象部位の位置の検出精度が向上され得る。対象部位の位置に関する特徴情報と深度画像の情報とを関連付けている特徴検出モデルが用いられているため、深度画像の情報から対象部位の位置が検出され得る。生体における対象部位の位置の検出を含めた生体情報について、検出精度が高精度に確保され得る。
【0020】
上記別の態様において、生体情報検出方法は、複数の学習用の深度画像の情報を取得することと、複数の学習用位置情報を取得することと、特徴検出モデルとしてモデルを作成することと、をさらに含んでいてもよい。各学習用特徴情報は、学習用の深度画像における学習用の生体の対象部位の位置に関する情報であってもよい。特徴検出モデルとして作成されるモデルは、複数の学習用の深度画像の情報と、複数の学習用特徴情報とを用いた学習によって、深度画像の情報の入力に応じて特徴情報を出力する。この場合、深度画像の情報によって、生体の対象部位の位置に関する特徴情報がより高精度に検出され得る。この結果、対象部位の位置の検出精度がさらに向上し得る。
【0021】
上記別の態様において、生体情報検出方法は、RGB画像を取得することと、RGB画像に含まれる複数のRGB画素のうち対象部位に関するRGB画素の位置を示す情報を学習用特徴情報として取得することと、をさらに含んでいてもよい。RGB画像は、学習用の深度画像の情報に対応する学習用の生体を撮像した画像である。この場合、特徴検出モデルは、対象部位に関するRGB画素の位置と学習用の深度画像の情報とに基づいて学習される。このため、RGB画像の情報と深度画像の情報とに基づいて、対象部位の位置が検出される。この結果、対象部位の位置の検出精度がより向上し得る。
【0022】
上記別の態様において、各学習用特徴情報は、学習用の生体における複数の特徴点の位置を示す学習用位置情報を含んでいてもよい。特徴検出モデルの作成において、複数の学習用の深度画像の情報と、複数の学習用位置情報とを用いた学習によって、深度画像の情報の入力に応じて、生体における複数の特徴点の位置を示す位置情報を出力するモデルが特徴検出モデルとして作成されてもよい。この場合、特徴検出モデルは、学習用の生体における複数の特徴点の位置を示す学習用位置情報と学習用の深度画像の情報とを用いて学習される。深度画像の情報における複数の特徴点の位置は、上記特徴検出モデルに基づいて検出される。深度画像の情報に基づいて各特徴点の位置が検出されているため、対象部位の位置の検出精度がより向上し得る。
【0023】
上記別の態様において、学習用の深度画像は、複数の特徴画素を含んでいてもよい。複数の特徴画素において、学習用の深度画像に対応する複数の特徴点がそれぞれ位置してもよい。学習用位置情報は、画素位置情報を含んでいてもよい。画素位置情報は、学習用の深度画像における複数の特徴画素の位置を示していてもよい。この場合、特徴検出モデルは、学習用の深度画像における複数の特徴画素の位置を示す画素位置情報と学習用の深度画像の情報とを用いて学習される。この場合、対象部位の検出精度がより確実に確保され得る。
【0024】
上記別の態様において、学習用位置情報の取得において、学習用の深度画像の情報に対応する生体を撮像したRGB画像の情報が取得されてもよい。RGB画像に基づいて、RGB画像に含まれる複数のRGB画素のうち、学習用の深度画像の情報に対応する生体における複数の特徴点がそれぞれ位置する複数のRGB画素の位置が演算されてもよい。演算された複数のRGB画素の位置に基づいて、画素位置情報が演算されてもよい。この場合、学習用の深度画像において複数の特徴点がそれぞれ位置する複数の特徴画素が、RGB画像に基づいて演算される。したがって、生体における複数の特徴点の位置を示す位置情報を出力するモデルがより容易に作成されると共に、当該モデルから出力される位置情報の精度が向上し得る。
【0025】
上記別の態様において、複数の特徴点の位置は、生体における互いに異なる部位の位置に対応していてもよい。学習用位置情報は、特徴点が示す部位に応じて、各特徴点をラベリングしたラベリング情報を含んでいてもよい。この場合、各特徴点が示す部位の情報が含まれているため、対象部位の位置の検出精度がより向上し得る。
【0026】
本発明のさらに別の態様におけるプログラムは、生体を撮像した深度画像の情報を取得することと、生体における複数の特徴点の位置を示す位置情報と深度画像の情報とを関連付けている特徴検出モデルと、取得された深度画像の情報とに基づいて、複数の特徴点に対応する生体の対象部位の位置を検出することと、をコンピュータに実行させる。
【発明の効果】
【0027】
本発明の一つの態様は、生体情報の検出精度が高精度に確保され得る生体情報検出システムを提供する。本発明の別の態様は、生体情報の検出精度が高精度に確保され得る生体情報検出方法を提供する。本発明のさらに別の態様は、生体情報の検出精度が高精度に確保され得るプログラムを提供する。
【図面の簡単な説明】
【0028】
図1】本実施形態における生体情報検出システムのブロック図である。
図2】生体活動検出システムの概略図である。
図3】ピークグループ演算部における演算処理の一例を説明するための図である。
図4】ピークグループ選出部における演算処理の一例を説明するための図である。
図5】フィルタ設定部において設定された周波数フィルタによるフィルタリング処理の結果の一例を示す図である。
図6】生体活動検出システムのブロック図である。
図7】生体活動検出システムと生体部位検出システムとの関係を説明するための図である。
図8】深度画像の一例を示す図である。
図9】(a)は深度画像における特徴点の位置を示す図であり、(b)は深度画像におけるアフィニティフィールドの位置を示す図であり、(c)は深度画像における検出部位の位置を示す図である。
図10】特徴点と生体の対象部位との関係を説明するための図である。
図11】(a)はRGB画像における特徴点の位置を示す図であり、(b)はRGB画像におけるアフィニティフィールドの位置を示す図であり、(c)はRGB画像における検出部位の位置を示す図である。
図12】生体情報検出システムの信号処理部のハードウェア構成の一例を示す図である。
図13】特徴検出モデルの作成方法の一例を示すフローチャートである。
図14】生体情報検出方法の一例を示すフローチャートである。
図15】生体情報導出処理の一例を示すフローチャートである。
図16】本実施形態における生体情報検出方法による検証結果を示す図である。
図17】(a)及び(b)は、比較例における生体情報検出方法による検証結果を示す図である。
図18】(a)及び(b)は、比較例における生体情報検出方法による検証結果を示す図である。
【発明を実施するための形態】
【0029】
以下、図面を参照しつつ本発明における生体情報検出システムの実施形態について詳細に説明する。なお、図面の説明においては、同一又は相当部分には同一符号を付し、重複する説明を省略する。まず、図1から図11(c)を参照して、本発明の実施形態における生体情報検出システムの概略構成について説明する。図1は、本実施形態における生体情報検出システムのブロック図である。図2は、生体活動検出システムの概略図である。
【0030】
生体情報検出システム1は、生体活動検出システム2と、生体部位検出システム3とを備えている。生体部位検出システム3は、生体における所定の部位を検出する。以下、生体部位検出システム3によって検出する部位を「対象部位」という。生体活動検出システム2は、生体部位検出システム3によって検出される対象部位からの情報に基づいて、生体に関する生体活動情報を非接触で検出する。生体活動検出システム2は、例えば、生体部位検出システム3によって検出された対象部位の方位から受信した信号波に基づいて、生体活動情報を検出する。
【0031】
「生体活動情報」は、生体において周期的に繰り返される動作の情報であり、例えば、心拍、瞬き、及び、呼吸の情報を含んでいる。生体活動検出システム2は、電磁波又は音波などを生体に向けて照射し、生体からの複数の反射波に関する情報を取得する。電磁波は、可視光を含んでいてもよい。「反射波に関する情報」とは、反射波の位相変化を示す情報である。換言すれば、「反射波に関する情報」とは、反射波の振幅の時間変化を示す情報である。生体活動検出システム2は、取得された複数の反射波に関する情報に基づいて、複数の反射波によるダイバーシチ効果を利用して、生体活動情報を検出する。
【0032】
生体活動検出システム2は、複数の反射波に関する情報に基づいて生体活動情報の時間変化の周期を示す複数のピークを推定することによって、生体活動情報を検出する。「生体活動情報の時間変化の周期」とは、例えば、生体の動作の周期である。例えば、生体活動情報として、心拍の周期、瞬きの周期、又は、呼吸の周期などの生体の動作の周期が検出される。
【0033】
次に、図1から図5を参照して、生体活動検出システム2の構成の一例について詳細に説明する。生体活動検出システム2は、信号制御部5と、信号処理部7とを含んでいる。図2に示されているように、信号制御部5は、ビームフォーミングを行う。信号制御部5は、電磁波又は音波などの送信波Tを生体Mに向けて照射し、生体Mからの反射波Rに関する情報を取得する。信号制御部5は、互いに異なる複数の反射波Rに関する情報を取得する。
【0034】
信号制御部5は、センシングデバイス10を含んでいる。信号制御部5は、センシングデバイス10として、例えば、ドップラーレーダーを含んでいる。ドップラーレーダーは、例えば、MIMOドップラーレーダーである。この場合、信号制御部5は、ドップラー効果によって生じる周波数シフトを観測することによって、生体活動情報を検出する。センシングデバイス10は、信号送信部11と少なくとも1つの信号受信部12とを含んでいる。ドップラーレーダーは、信号波を対象物に向かって送信し、ドップラーレーダーから対象物までの距離に応じた信号波の位相変化を取得する。上記対象物は、検出する対象の生体Mを含んでいる。本実施形態の変形例として、センシングデバイス10は、例えば、周波数変調連続波(FMCW:Frequency Modulated Continuous Wave radar)レーダーであってもよい。
【0035】
信号送信部11は、送信波Tを発振する。送信波Tは、例えば、無変調連続波(CW:Continuous Wave)である。図2に示されているように、信号送信部11は、ソース21と、パワーアンプ22と、送信アンテナ23とを含んでいる。ソース21は、送信アンテナ23から送信される送信波Tの信号を生成する。ソース21は、送信波Tの信号を生成する発信源である。パワーアンプ22は、ソース21において生成された信号を増幅する。送信アンテナ23は、パワーアンプ22からの信号を送信波Tに変換し、生体Mに向けて送信する。
【0036】
信号受信部12は、送信波Tの反射波Rを受信する。信号受信部12は、生体Mからの反射波Rを受信する。反射波Rは、生体Mの生体活動情報に応じて変調されている。信号受信部12は、受信アンテナ31と、調整器32と、ミキサー33と、バンドパスフィルタ34と、電圧利得制御アンプ35と、ADコンバータ36とを含んでいる。受信アンテナ31は、変調された反射波Rを信号に変換する。調整器32は、反射波Rから変換された信号からのノイズ除去等の処理を行う。ミキサー33は、ソース21が生成した信号と、調整器32から出力された信号をミキシングする。バンドパスフィルタ34は、ミキサー33において生成された信号からノイズを除去する。電圧利得制御アンプ35は、バンドパスフィルタ34から出力された信号を増幅する。ADコンバータ36は、電圧利得制御アンプ35から出力された信号をアナログ信号からデジタル信号に変換する。この結果、信号受信部12から受信信号の情報を含むデジタル信号が出力される。信号受信部12は、デジタル信号に変換した信号を信号処理部7に出力する。
【0037】
信号制御部5の信号送信部11は、所定の範囲の空間に送信波Tを送信する。送信波Tが送信される範囲は、少なくとも、生体の対象部位を含んでいる。例えば、信号送信部11は、信号制御部5のうち送信波Tが発信される部分を原点として、上下方向において所定の角度の方位に送信波Tを送信する。本実施形態において、信号送信部11は、信号制御部5の送信アンテナ23を原点として、上下方向において+60°から-60°の範囲の方位に送信波Tを送信する。上方向及び下方向は、いずれも鉛直方向と平行な方向である。
【0038】
信号送信部11は、同様に、送信アンテナ23を原点として、左右方向において所定の角度の方位に送信波Tを送信する。左方向及び右方向は、いずれも鉛直方向と直交する方向であり、送信波Tの伝搬方向と交差する方向である。例えば、送信波Tは、例えば、所定の範囲の空間に伝搬する1つの信号波である。信号送信部11は、互いに異なる角度又は互いに異なる時間において、それぞれ独立して複数の信号波を送信してもよい。この場合、複数の信号波の各々が、上記所定の範囲内の互いに異なる範囲に送信されてもよい。
【0039】
信号受信部12は、複数の反射波Rを受信する。複数の反射波Rは、例えば、互いに異なる経路によって信号受信部12に到達する受信波を意味する。例えば、複数の反射波Rは、互いに異なる実空間位置において反射している。以下、「実空間位置」を単に「位置」ともいう。複数の反射波Rは、例えば、互いに異なる方位から信号受信部12に到達する。換言すれば、複数の反射波Rは、信号受信部12の受信アンテナ31に対する入射角がそれぞれ異なる。信号受信部12は、所定の範囲の空間から受信アンテナ31に到達する複数の反射波Rを受信する。信号受信部12は、少なくとも、生体の対象部位からの反射波Rを受信する。
【0040】
例えば、信号受信部12は、基準点を原点として、上下方向において所定の角度の方位からの反射波Rを受信する。基準点は、例えば、複数の受信アンテナ31の重心である。本実施形態において、信号受信部12は、基準点を原点として、上下方向において+60°から-60°の範囲の方位からの反射波Rを受信する。換言すれば、信号受信部12は、受信アンテナ31に対する入射角が上下方向においても+60°から-60°の範囲の反射波Rを受信する。
【0041】
各反射波Rは、例えば、互いに異なる複数の受信アンテナ31によって受信される。例えば、信号送信部11が互いに異なる周波数を有する複数の送信波Tを発振する場合、信号送信部11が互いに異なる時間に複数の送信波Tを発振する場合、及び、信号送信部11が互いに異なる位置に複数の送信波Tを発振する場合などには、複数の反射波Rは、1つの受信アンテナ31によって受信されてもよい。例えば、反射波Rは、生体Mの心拍、瞬き、又は、呼吸に起因する胸壁の変動x(t)に応じて変調されている。以下、一例として、ドップラーレーダーによって生体Mの心拍を検出する場合を主として説明する。
【0042】
信号処理部7は、信号受信部12から取得された信号に基づいて、生体活動情報を示す情報を取得する。信号処理部7は、例えば、信号受信部12において取得されたドップラー信号を処理し、生体Mの生体活動情報を示す情報を生成する。図1に示されているように、信号処理部7は、情報取得部41と、生体活動情報導出部42とを備えている。情報取得部41は、信号受信部12から出力された情報を取得する。生体活動情報導出部42は、情報取得部41において取得された情報に基づいて、生体活動情報を導出する。
【0043】
例えば、情報取得部41は、信号受信部12から取得した情報に対して各種処理を行うことによって、検出対象の生体活動情報に対応する周波数成分に応じた信号を生成し、生成された信号の情報(以下、「信号情報」ともいう)を取得する。情報取得部41は、例えば、信号受信部12から出力された情報に基づいて、複数の信号情報を取得し出力する。複数の信号情報の各々は、生体Mからの互いに異なる反射波Rを示している。情報取得部41は、例えば、複数の信号受信部12の受信アンテナ31から取得された信号に基づいて、信号処理によって、互いに異なる部位に対応する複数の信号情報を抽出する。情報取得部41は、少なくとも、対象部位の位置において反射した反射波Rを示す信号情報を取得する。
【0044】
複数の信号情報の各々は、時間領域において複数のピークを有する情報である。本明細書において、「時間領域」とは、信号情報の強度の時間変化について、強度と時間とをそれぞれ互いに直交する軸方向に示した状態をいう。本実施形態の変形例として、情報取得部41は、信号受信部12から出力された情報をそのまま出力してもよい。本実施形態において、情報取得部41は、受信情報取得部51と、第一フィルタ部52と、フーリエ変換部53と、積分部54と、第二フィルタ部55とを含んでいる。
【0045】
受信情報取得部51は、信号受信部12から出力された情報を取得する。受信情報取得部51は、例えば、信号受信部12において受信した反射波Rに関するドップラー信号を取得する。取得されたドップラー信号は、送信波Tを生成する信号と、反射波Rから生成された信号との間における周波数シフトを表す。取得されたドップラー信号は、例えば、I/Q信号によって構成されている。I信号は、送信波Tを生成する信号の位相と同一の位相である同相(In-phase)成分を有している信号である。Q信号は、送信波Tを生成する信号の位相に対して直交する直交位相(Quadrature)成分を有している信号である。
【0046】
受信情報取得部51は、互いに異なる位置において反射した複数の反射波Rをそれぞれ示す複数の信号の信号情報を取得する。信号情報は、反射波Rの位相変化に関する情報を含んでいる。以下、「反射波Rを示す信号の信号情報」を「反射波Rに対応する信号情報」という。受信情報取得部51は、例えば、上述した基準点を原点として、上下左右方向において所定の範囲の方位からの反射波Rに対応する複数の信号情報を取得する。受信情報取得部51は、少なくとも、生体部位検出システム3によって検出された生体の対象部位からの反射波Rに対応する信号情報を取得する。受信情報取得部51は、例えば、基準点を原点として、上下方向において+60°から-60°の範囲の方位からの反射波Rに対応する信号情報を取得する。受信情報取得部51は、例えば、基準点から所定距離の範囲からの反射波Rに対応する複数の信号情報を取得する。
【0047】
第一フィルタ部52は、受信情報取得部51において取得された情報に対して、フィルタリング処理を行う。第一フィルタ部52は、例えば、受信情報取得部51において取得されたドップラー信号に対して、フィルタリング処理を行う。例えば、第一フィルタ部52は、ドップラー信号からノイズ成分を除去するバンドパスフィルタを含んでいる。第一フィルタ部52は、ドップラー信号に対して、バンドパスフィルタを用いてノイズ成分を除去する。このバンドパスフィルタの通過帯域は、検出する生体活動情報に応じて決定される。例えば、生体活動検出システム2が心拍を検出する場合には、上記バンドパスフィルタの通過帯域は、5.0Hz以上30Hz以下に設定される。
【0048】
フーリエ変換部53は、入力された情報に対して短時間フーリエ変換(STFT:Short-Time Fourier Transform)を行う。本明細書において、「短時間フーリエ変換」とは、入力された情報から複数の時間区分の情報を作成し、時間区分毎にフーリエ変換を行うことをいう。例えば、短時間フーリエ変換において、入力された情報に窓関数をずらしながら掛けることによって、複数の時間区分の情報が作成される。この結果、フーリエ変換部53は、短時間フーリエ変換によって、時間区分毎に、入力された情報を時間領域から周波数領域に変換する。各時間区分は、例えば、互いに同一の時間幅を有している。例えば、短時間フーリエ変換において、ウィンドウサイズは512msであり、ステップサイズは10msである。
【0049】
フーリエ変換部53は、受信情報取得部51及び第一フィルタ部52を介して、信号受信部12から入力された情報に対して短時間フーリエ変換を行う。フーリエ変換部53は、受信情報取得部51において取得された複数の信号情報ごとに短時間フーリエ変換を行う。例えば、フーリエ変換部53は、互いに異なる位置において反射した複数の反射波Rの各々の位相変化情報に対して短時間フーリエ変換を行う。フーリエ変換部53は、例えば、基準点を原点として、上下左右方向において所定の範囲の方位からの反射波Rに対応する複数の信号情報に対して短時間フーリエ変換を行う。複数の信号情報に対して短時間フーリエ変換を行う。フーリエ変換部53は、例えば、基準点から+60°から-60°の範囲の方位及び基準点から0m~5mの範囲からの反射波Rに対応する複数の信号情報に対して短時間フーリエ変換を行う。
【0050】
フーリエ変換部53は、入力された情報に対して短時間フーリエ変換を行うことによって、時間区分毎に、各周波数のパワーを示す情報を演算し、出力する。フーリエ変換部53は、入力された情報に対して短時間フーリエ変換を行うことによって、スペクトログラムを作成し、出力する。スペクトログラムは、時間区分毎に周波数スペクトルを示す。
【0051】
フーリエ変換部53は、例えば、受信情報取得部51において取得された複数の信号情報の各々に対して、スペクトログラムを作成する。換言すれば、フーリエ変換部53は、互いに異なる位置において反射した複数の反射波Rのそれぞれに対して、スペクトログラムを作成する。
【0052】
積分部54は、入力された情報に対して、時間区分毎に予め設定された周波数範囲においてスペクトル積分を行い、出力する。積分部54は、例えば、入力された情報から複数の時間区分の情報を作成し、時間区分毎にスペクトル積分を行う。例えば、入力された情報に窓関数をずらしながら掛けることによって複数の時間区分の情報が作成される。積分部54は、例えば、入力された情報を複数の時間区分に分割し、分割された時間区分毎にスペクトル積分を行う。「スペクトル積分」とは、周波数スペクトルの周波数積分である。換言すれば、スペクトル積分とは、周波数領域における周波数方向の積分である。
【0053】
積分部54は、例えば、フーリエ変換部53から出力された情報に対して、時間区分毎に予め設定された周波数範囲においてスペクトル積分を行う。スペクトル積分を行う周波数範囲は、例えば、第一フィルタ部52におけるフィルタリング処理の通過帯域に対応している。スペクトル積分を行う周波数範囲は、例えば、5.0Hz以上30Hz以下である。積分部54は、例えば、フーリエ変換部53から出力された情報に対して、フーリエ変換部53において設定された時間区分毎にスペクトル積分を行う。
【0054】
第二フィルタ部55は、積分部54から出力された情報に対して、フィルタリング処理を行う。例えば、第二フィルタ部55は、積分部54から出力された情報からノイズ成分を除去するバンドパスフィルタを含んでいる。このバンドパスフィルタのカットオフ周波数は、検出する生体活動情報に応じて決定される。平常時の人の心拍は、例えば、40bpm(beat per minute)~120bpm程度である。この場合、人の心拍の周波数は、0.8~2.0Hz程度である。このため、例えば、生体活動検出システム2が心拍を検出する場合には、上記バンドパスフィルタの通過帯域は、0.8Hz以上2.0Hz以下に設定される。
【0055】
生体活動情報導出部42は、仮ピーク検出部61と、ピークグループ演算部62と、ピークグループ選出部63と、ピーク間隔演算部64と、フィルタ設定部65と、情報演算部66と、生体活動情報取得部67と、格納部68とを含んでいる。例えば、情報取得部41は、第二フィルタ部55から出力された情報を、信号情報として、生体活動情報導出部42に出力する。第二フィルタ部55から出力された情報は、例えば、信号情報として、仮ピーク検出部61及び情報演算部66に入力される。情報取得部41は、例えば、複数の信号情報を、第二フィルタ部55から仮ピーク検出部61及び情報演算部66に出力する。第二フィルタ部55から出力された情報は、積分部54から出力された情報に対応する。したがって、情報取得部41から出力される各信号情報は、反射波Rに対応する情報に短時間フーリエ変換を行った情報に対して、時間区分毎にスペクトル積分を行った情報である。情報取得部41は、第二フィルタ部55を含まず、積分部54から出力される情報を、信号情報として、仮ピーク検出部61及び情報演算部66に出力してもよい。仮ピーク検出部61に出力される信号情報と、情報演算部66に出力される信号情報とは、異なっていてもよい。
【0056】
仮ピーク検出部61は、第二フィルタ部55から入力された複数の信号情報B,B,B,Bの各々について、図3に示されている複数の仮ピークPE0,PE1,PE2,PE3を検出する。少なくとも信号情報Bは、生体部位検出システム3によって検出された対象部位からの信号波に対応する信号情報である。仮ピーク検出部61は、情報取得部41において取得された全ての信号情報を用いなくてもよい。仮ピーク検出部61において検出される複数の仮ピークPE0,PE1,PE2,PE3は、生体活動情報の時間変化の周期を示すピークを推定するのに用いられる仮のピークである。仮ピーク検出部61は、例えば、信号情報B,B,B,Bのそれぞれにおいて、時間方向における複数の仮ピークPE0,PE1,PE2,PE3の位置を取得する。「時間方向」とは、時間領域における時間軸方向を意味する。例えば、仮ピーク検出部61は、信号情報Bにおいて、時間方向における複数の仮ピークPE0の位置を取得し、信号情報Bにおいて、時間方向における複数の仮ピークPE1の位置を取得する。「時間方向におけるピークの位置」とは、ピークが発生した時間を意味する。以下、「時間方向における位置」を単に「位置」ともいう。
【0057】
ピークグループ演算部62は、仮ピーク検出部61において検出された各仮ピークPE0,PE1,PE2,PE3の位置に基づいて、複数のピークグループGRを設定する。各ピークグループGRは、複数の仮ピークPE0,PE1,PE2,PE3の少なくとも1つを含んでいる。ピークグループ演算部62は、例えば、複数の信号情報B,B,B,Bに含まれる複数の仮ピークPE0,PE1,PE2,PE3から、各ピークグループGRを構成する少なくとも1つの仮ピークPE0,PE1,PE2,PE3を特定する。
【0058】
ピークグループ演算部62は、例えば、複数の信号情報B,B,B,Bのうち基準となる基準信号情報を決定する。基準信号情報は、例えば、信号情報Bである。ピークグループ演算部62は、例えば、基準信号情報に含まれる複数の仮ピークPE0の各々から所定の時間範囲W内にある少なくとも1つの仮ピークPE0,PE1,PE2,PE3を、各ピークグループGRを構成するピークとして特定する。この時間範囲Wは、例えば、仮ピークPE0から±0.05秒である。
【0059】
ピークグループ演算部62は、複数の信号情報B,B,B,Bにおける複数の仮ピークPE0,PE1,PE2,PE3の位置に基づいて、各ピークグループGRの時間方向における位置P,P,P,P,P,P,P,Pを演算する。ピークグループ演算部62は、例えば、各ピークグループGRに含まれる仮ピークPE0,PE1,PE2,PE3に基づいて、各ピークグループGRの位置P1~P8を演算する。ピークグループ演算部62は、ピークグループGR毎に、ピークグループGRに含まれる少なくとも1つの仮ピークPE0,PE1,PE2,PE3の時間方向における位置の平均をピークグループGRの位置P~Pとして演算する。本明細書において、「平均」は、相加平均に限定されず、例えば、加重平均なども含んでいる。
【0060】
ピークグループ選出部63は、各ピークグループGRの位置に基づいて、複数のピークグループGRから複数の代表ピークグループを選出する。「代表ピークグループ」は、ピークグループ選出部63によって選出される複数のピークグループGRである。代表ピークグループは、ピークグループ演算部62において設定された複数のピークグループGRの一部であってもよいし、全てであってもよい。「複数の代表ピークグループの選出」は、代表ピークグループ自体の選出と、代表ピークグループの時間方向における位置の選出との少なくとも一方を含んでいる。代表ピークグループは、生体Mの動作の周期に対して尤もらしい間隔で時間方向に位置するピークグループGRである。ピークグループ選出部63は、複数のピークグループGRのうち、生体Mの動作の周期に対して尤もらしい間隔で時間方向に位置するピークグループGRの組み合わせを、複数の代表ピークグループとして選出する。生体Mの動作は、例えば、心拍である。
【0061】
ピークグループ選出部63は、例えば、ビタビアルゴリズム(Viterbi Algorithm)を用いて、尤もらしい間隔で時間方向に位置するピークグループGRの組み合わせを特定し、特定された組み合わせに含まれるピークグループGRを複数の代表ピークグループとして選出する。ビタビアルゴリズムは、複数の系列から最も確からしい系列を選択する最尤推定法の1つである。「最も確からしい」と「尤もらしい」とは、同一の意味である。
【0062】
ピークグループ選出部63は、ビタビアルゴリズムにおいて、隣接RRI(R-R interval)に基づいてブランチメトリックを演算する。「RRI」は、ノードの間隔である。本実施形態において、ノードは、図4に示されているように、各ピークグループGRの位置P~Pを含んでいる。図4において、ピークグループGRの位置として、位置P~Pに加えて、位置P17~P19が示されている。「メトリック」は、系列内の状態の確からしさを示す指標である。「ブランチメトリック」とは、各状態間の確からしさを示す指標である。例えば、ブランチメトリックは、隣接RRIに基づいて演算される。ブランチメトリックは、例えば、隣接RRIの差の二乗である。本実施形態において、隣接RRIの差は、平均ゼロの正規分布に従うことが確認されている。
【0063】
ピークグループ選出部63は、ビタビアルゴリズムによって、ピークグループGRの位置P~P19において、パスメトリックが最小又は最大となるピークグループGRの組み合わせを特定する。「パスメトリック」とは、系列におけるブランチメトリックの累積である。パスメトリックが最小又は最大である系列が、最も確からしい系列である。ピークグループ選出部63は、最も確からしい系列に含まれる各ノードを、代表ピークグループ、又は、代表ピークグループの位置として特定する。本実施形態において、ノード間を連結する線のうち太線によって接続されるノードの系列が、最も確からしい系列として特定された系列である。換言すれば、図4に示されている例において、位置P,P,P・・・P19に位置するピークグループGRが代表ピークグループとして選出される。
【0064】
ピーク間隔演算部64は、時間方向における複数の代表ピークグループの間隔を示す代表ピークグループ間隔を演算する。図4に示されている例において、位置Pと位置Pとの差、位置Pと位置P4との差が、各代表ピークグループの間隔である。ピーク間隔演算部64は、複数の代表ピークグループ間隔の平均を代表ピークグループ間隔として出力する。
【0065】
フィルタ設定部65は、情報取得部41において取得された複数の信号情報に基づいて、周波数フィルタを設定する。フィルタ設定部65は、複数の信号情報の複数の仮ピークの時間方向における位置に基づいて、周波数フィルタを設定する。周波数フィルタは、信号情報からフィルタリング処理によって所望の周波数成分を除去する。周波数フィルタは、例えば、バンドパスフィルタである。「周波数フィルタの設定」は、可変フィルタの帯域設定を含んでいる。以下、フィルタ設定部65によって設定される周波数フィルタを単に「周波数フィルタ」という。
【0066】
フィルタ設定部65は、ピークグループ演算部62において演算された各ピークグループGRの時間方向における位置に基づいて、周波数フィルタを設定する。フィルタ設定部65は、例えば、ピーク間隔演算部64から出力された代表ピークグループ間隔に基づいて、周波数フィルタを設定する。フィルタ設定部65は、各ピークグループGRの位置に基づいて演算される中心周波数を有するように周波数フィルタを設定する。例えば、フィルタ設定部65は、ピーク間隔演算部64から出力された代表ピークグループの間隔の逆数を中心周波数とするように周波数フィルタを設定する。
【0067】
情報演算部66は、情報取得部41から出力された信号情報に基づいて、例えば、複数の信号情報の組み合わせを演算し、出力する。例えば、情報演算部66は、情報取得部41において取得された全ての信号情報を用いなくてもよい。情報演算部66は、情報取得部41において取得された複数の信号情報のうち少なくとも2つを組み合わせる。信号情報の組み合わせは、例えば、複数の信号情報の平均である。この場合、情報演算部66は、情報取得部41において取得された複数の信号情報のうち少なくとも2つを平均する。本実施形態の変形例として、信号情報の組み合わせは、複数の信号情報の和などの複数の信号情報の合成であってもよい。
【0068】
情報演算部66には、例えば、複数の反射波Rが反射した位置のうち、検出対象の生体活動情報に対応する皮膚変動が最も大きい位置において反射した反射波Rに対応する信号情報が入力される。情報演算部66には、生体部位検出システム3によって検出された対象部位からの反射波Rに対応する情報が入力される。本実施形態において、情報演算部66には、情報取得部41において取得された複数の信号情報のうち、一部の信号情報が入力される。例えば、情報演算部66は、複数の反射波Rに対応する複数の信号情報を取得し、これらの信号情報を平均する。本実施形態の変形例として、情報演算部66に1つの信号情報が入力されてもよい。この場合、情報演算部66は、入力された信号情報をそのまま出力する。
【0069】
生体活動情報取得部67は、情報取得部41によって取得された信号情報に基づいて、生体活動情報を取得する。生体活動情報取得部67は、複数の信号情報の少なくとも1つに基づく情報に対して、周波数フィルタを用いてフィルタリング処理を行うことによって、生体Mの生体活動情報を取得する。生体活動情報取得部67は、生体部位検出システム3によって検出された対象部位からの反射波Rに対応する信号情報に基づいて、生体活動情報を取得する。本実施形態の変形例として、生体活動情報取得部67は、生体部位検出システム3によって互いに異なる対象部位が検出された場合、検出された複数の対象部位からの反射波Rに対応する信号情報に基づいて、複数の生体の生体活動情報が取得されてもよい。この場合、生体活動情報取得部67は、反射波Rに対応する信号情報ごとに生体活動情報を取得してもよい。
【0070】
図5は、周波数フィルタによるフィルタリング処理の結果の一例を示す図である。生体活動情報取得部67は、例えば、周波数フィルタによるフィルタリング処理の結果から、生体活動情報の時間変化の周期を示すピークを取得する。生体活動情報取得部67は、例えば、周波数フィルタによるフィルタリング処理の結果から、取得されたピークの数及びピーク間隔を生体活動情報として取得する。例えば、生体活動情報取得部67は、周波数フィルタによるフィルタリング処理の結果から、取得されたピークの数及びピーク間隔を、心拍数、及び、心拍間隔として取得してもよい。生体活動情報取得部67は、フィルタリング処理の結果をそのまま生体活動情報として出力してもよい。生体活動情報取得部67は、取得された生体活動情報を格納部68に出力する。生体活動情報取得部67は、取得された生体活動情報を、生体情報検出システム1の外部に出力してもよい。
【0071】
生体活動情報取得部67においてフィルタリング処理が行われる、複数の信号情報の少なくとも1つに基づく情報は、例えば、情報演算部66から出力された情報である。本実施形態の変形例として、生体活動情報取得部67は、情報演算部66を介さずに、情報取得部41から直接的に信号情報を取得してもよい。生体活動情報取得部67においてフィルタリング処理が行われる、複数の信号情報の少なくとも1つに基づく情報は、例えば、複数の反射波Rが反射した位置のうち、検出対象の生体活動情報に対応する皮膚変動が最も大きい位置において反射した反射波Rに対応する信号情報に基づいている。生体活動情報取得部67においてフィルタリング処理が行われる、複数の信号情報の少なくとも1つに基づく情報は、例えば、生体部位検出システム3によって検出された対象部位からの反射波Rに対応する信号情報に基づいている。
【0072】
格納部68は、各機能部に用いられる情報を予め格納している。格納部68は、各機能部からの出力を格納する。格納部68は、例えば、情報取得部41において取得された情報を格納する。格納部68は、例えば、フーリエ変換部53、積分部54、ピークグループ演算部62、ピークグループ選出部63、ピーク間隔演算部64、及び、情報演算部66などにおける演算結果を格納する。格納部68は、例えば、周波数フィルタの帯域情報を格納する。格納部68は、生体活動情報取得部67において取得された生体活動情報を格納する。
【0073】
次に、図6から図11(c)を参照して、生体部位検出システム3の構成について詳細に説明する。図6は、生体部位検出システムのブロック図である。図7は、生体活動検出システムと生体部位検出システムとの関係を説明するための図である。生体部位検出システム3は、例えば、撮像システム70を含んでいる。図7に示されているように、生体活動検出システム2のセンシングデバイス10と生体部位検出システム3の撮像システム70とは、互いに隣り合って配置される。センシングデバイス10が信号波を送受信する範囲α1と撮像システム70の撮像範囲α2とは、重複している。例えば、センシングデバイス10の信号受信部12と撮像システム70の撮像部とは、同じ方位角、及び、同じ傾きを有している。
【0074】
撮像システム70は、深度画像を撮像する撮像装置とRGB画像を取得する撮像装置との少なくとも1つを含んでいる。撮像システム70は、例えば、深度画像を撮像する撮像装置として、Lidarを含んでいる。撮像システム70は、例えば、RGB画像を撮像する撮像装置として、カラーカメラを含んでいる。撮像システム70は、例えば、30fpsで深度画像を撮像する。撮像システム70は、例えば、30fpsでRGB画像を撮像する。
【0075】
生体部位検出システム3は、深度画像に基づいて、生体における所定の部位を検出する。生体部位検出システム3によって検出される対象部位は、生体活動検出システム2が検出する生体活動情報に関する部位である。対象部位は、例えば、生体Mの胸部である。本実施形態の変形例として、対象部位は、生体Mの頭部である。生体情報検出システム1が生体Mの心拍を検出する場合には、対象部位は生体Mの胸部である。例えば、生体情報検出システム1が生体Mの瞬きを検出する場合には、対象部位は生体Mの頭部である。対象部位は、生体情報検出システム1によって検出する生体活動情報に応じて、胸部又は頭部以外に設定されてもよい。
【0076】
生体活動検出システム2は、生体部位検出システム3によって検出された対象部位からの信号波に基づいて、生体活動情報を検出する。対象部位からの信号波は、例えば、対象部位において反射した反射波Rである。生体活動検出システム2は、例えば、生体部位検出システム3によって検出された対象部位の方位から受信した反射波Rに基づいて、生体活動情報を検出する。
【0077】
生体部位検出システム3は、深度画像と特徴検出モデルとに基づいて、生体Mにおける対象部位を検出する。例えば、特徴検出モデルは、機械学習によって学習された学習モデルである。本実施形態において、生体部位検出システム3は、機械学習によって特徴検出モデルを作成する学習フェーズと、生体における対象部位を特定する推定フェーズとを実行する。生体部位検出システム3は、学習フェーズにおいて作成された特徴検出モデルに基づいて、推定フェーズを実行する。生体部位検出システム3は、推定フェーズにおいて取得された情報に基づいて、さらに学習フェーズを実行してもよい。
【0078】
機械学習とは、与えられた情報に基づいて反復的に学習することで法則又はルールを自律的に見つけ出す手法である。たとえば、生体部位検出システム3において行われる機械学習では、学習データセットを用いた学習によって、活性化関数、重み付け値等のモデルのパラメータが最適化される。これによって、特徴検出モデルが作成される。
【0079】
生体部位検出システム3において行われる機械学習は、ディープラーニングである。この機械学習は、多層パーセプトロン(MLP:Multilayer perceptron)によって構成される教師あり学習である。生体部位検出システム3は、ニューラルネットワークを含むように構成される機械学習を用いる。生体部位検出システム3において行われる機械学習は、教師あり学習に限定されない。生体部位検出システム3において行われる機械学習は、ランダムフォレスト、サポートベクトルマシン、ニューラルネットワーク(NN)、ディープニューラルネットワーク(DNN)などを含むように構成されてもよい。ニューラルネットワークとは、人間の脳神経系の仕組みを模した情報処理モデルをいう。
【0080】
生体部位検出システム3は、推定フェーズにおいて動作する推定部80と学習フェーズにおいて動作する学習部90とを備えている。推定部80は、特徴検出モデルを用いて、生体の部位を検出する。学習部90は、特徴検出モデルの学習を行う。生体部位検出システム3は、推定部80として、深度画像取得部81と、格納部82と、部位検出部83と、出力部84とを備えている。生体部位検出システム3は、学習部90として、深度画像取得部81と、格納部82と、特徴情報取得部93と、モデル作成部94とを備えている。本実施形態において、深度画像取得部81と、格納部82とは、推定部80と学習部90との双方に含まれている。
【0081】
本実施形態の変形例として、推定部80と学習部90とは互いに分離していてもよい。この場合、推定部80と学習部90とは、それぞれ異なる深度画像取得部81、及び、格納部82を備えていてもよい。推定部80と学習部90とは、互いに異なる撮像システム70を含んでいてもよい。推定部80の撮像システム70は、RGB画像を撮像する撮像装置を含んでいなくてもよい。
【0082】
次に、推定フェーズにおける生体部位検出システム3の各機能部について、より詳細に説明する。推定フェーズにおいては、推定部80が動作する。推定部80は、深度画像取得部81と、格納部82と、部位検出部83と、出力部84とによって、生体の対象部位の位置を検出し、出力する。推定部80は、深度画像取得部81によって深度画像を取得し、生体の対象部位の位置を推定する。
【0083】
深度画像取得部81は、例えば、撮像システム70の少なくとも一部を含んでいる。深度画像取得部81は、撮像システム70によって、生体を撮像した深度画像の情報を取得する。深度画像取得部81は、例えば、Lidarによって、生体の深度画像の情報を取得する。深度画像取得部81は、格納部82又は生体部位検出システム3の外部から深度画像の情報を取得してもよい。深度画像取得部81は、例えば、深度画像の情報として、図8に示されている深度画像V1を取得する。深度画像V1は、複数の画素を含んでいる。深度画像V1の各画素は、例えば、画素が示す被写体から撮像システム70までの距離に応じて、色相、彩度、及び、明度のいずれか又はそれらの組み合わせによって表される。図8に示されている深度画像V1は、各画素が被写体から撮像システム70までの距離に応じた色を示す画像を、グレースケールとした画像である。
【0084】
格納部82は、生体部位検出システム3の各種機能部において取得された各種情報を格納している。推定フェーズにおいて、格納部82は、特徴検出モデルを格納している。格納部82は、深度画像取得部81によって取得された深度画像、及び、特徴情報取得部93によって取得された特徴情報を格納してもよい。格納部82は、部位検出部83によって検出された対象部位の位置を格納してもよい。
【0085】
特徴検出モデルは、生体Mにおける対象部位の位置に関する特徴情報と、深度画像V1の情報とを関連付けている。生体Mの特徴情報は、各生体Mにおける複数の特徴点の位置を示す位置情報を含んでいる。各生体Mにおける複数の特徴点の位置は、例えば、当該生体Mにおける互いに異なる部位の位置を示している。本実施形態において、各深度画像は、深度画像に対応する複数の特徴点がそれぞれ位置する複数の特徴画素を含んでいる。
【0086】
例えば、特徴情報は、深度画像の情報に対応する生体を撮像したRGB画像において、RGB画像に含まれる複数のRGB画素のうち対象部位に関するRGB画素の位置を示す情報である。対象部位に関するRGB画素の位置を示す情報は、例えば、各生体Mにおける上記複数の特徴点が位置するRGB画素の位置を示す情報である。
【0087】
特徴検出モデルは、モデル作成部94において作成される。特徴検出モデルは、深度画像V1の情報の入力に応じて、入力された深度画像V1における生体Mの対象部位の位置に関する特徴情報を出力する。例えば、特徴検出モデルは、深度画像V1の情報の入力に応じて、入力された深度画像V1における複数の特徴点の位置を示す位置情報を出力する。例えば、特徴検出モデルは、複数の学習用の深度画像の情報と、各学習用の深度画像における生体Mの対象部位の位置に関する特徴情報を示す学習用特徴情報とを用いて学習されている。例えば、特徴検出モデルは、RGB画像から特徴情報を検出する既存の学習モデルの転位学習によって作成されている。
【0088】
部位検出部83は、深度画像取得部81によって取得された深度画像V1の情報と特徴検出モデルとに基づいて、生体Mの対象部位の位置を検出する。部位検出部83によって検出される対象部位の位置は、特徴検出モデルから出力された位置情報における複数の特徴点に対応している。例えば、部位検出部83は、深度画像V1と特徴検出モデルとに基づいて、深度画像取得部81によって取得された深度画像V1の情報における複数の特徴点の位置を検出し、検出された複数の特徴点の位置に対応する対象部位の位置を検出する。
【0089】
部位検出部83は、深度画像V1の情報における複数の特徴点の位置に基づいて、対象部位の位置を示す位置情報を検出する。部位検出部83は、深度画像取得部81によって取得された深度画像V1の情報と特徴検出モデルとに基づいて、生体Mの部位と信号受信部12との位置関係を示す相対情報を演算する。例えば、部位検出部83は、深度画像V1の情報における複数の特徴点の位置と、撮像システム70と信号受信部12との相対位置とに基づいて、生体の部位と信号受信部12との位置関係を示す相対情報を演算する。
【0090】
生体活動検出システム2の情報取得部41は、少なくとも、部位検出部83によって検出された対象部位の位置において反射した反射波Rを示す信号情報を取得する。生体活動検出システム2の情報取得部41は、上記相対情報に基づいて、対象部位の位置において反射した反射波Rを示す信号情報を取得し、生体活動情報を取得する。相対情報は、例えば、対象部位の位置において反射した反射波Rが信号受信部12に入射する入射角であり、基準点に対する対象部位の方位を含んでいる。
【0091】
出力部84は、部位検出部83によって検出された対象部位の位置を生体部位検出システム3に出力する。出力部84は、部位検出部83によって検出された対象部位の位置を生体情報検出システム1の外部に出力してもよい。出力部84は、例えば、部位検出部83によって検出された対象部位の位置を不図示のモニタに表示する。出力部84は、部位検出部83によって検出された対象部位の位置を、通信ネットワークなどを介して、サーバ端末又は他の端末に出力してもよい。
【0092】
次に、図9(a)から図9(c)、及び、図10を参照して、部位検出部83について、さらに詳細に説明する。部位検出部83は、キーポイント検出部86と、アフィニティフィールド検出部87と、部位エリア検出部88とを含んでいる。
【0093】
キーポイント検出部86は、深度画像取得部81によって取得された深度画像V1の情報における複数の特徴点Hの位置を検出する。キーポイント検出部86によって検出される各特徴点Hは、上記深度画像に示されている生体Mにおける特徴点Hである。キーポイント検出部86によって検出される複数の特徴点Hの位置は、生体Mにおける互いに異なる部位の位置に対応している。
【0094】
キーポイント検出部86は、深度画像取得部81によって取得された深度画像V1の情報と特徴検出モデルとに基づいて、上記複数の特徴点Hの位置を示す位置情報を検出する。キーポイント検出部86は、深度画像取得部81によって取得された深度画像V1の情報を特徴検出モデルに入力し、特徴検出モデルから出力された複数の特徴点Hの位置を示す位置情報を取得する。
【0095】
例えば、キーポイント検出部86は、図9(a)に示されているように、検出された複数の特徴点Hを深度画像V1の情報にプロットする。キーポイント検出部86は、例えば、深度画像V1上に複数の特徴点Hがプロットされた画像V2を作成してもよい。例えば、キーポイント検出部86によって検出された複数の特徴点の位置を示す位置情報は、深度画像V1における各特徴点Hの座標を含んでいる。例えば、特徴検出モデルは、深度画像V1の情報の入力に応じて、画像V2の情報を出力する。
【0096】
キーポイント検出部86は、特徴点Hが示す部位に応じて、各特徴点Hをラベリングしたラベリング情報を作成する。ラベリング情報は、各特徴点Hが生体のどの部位の特徴点Hであるかを示す。キーポイント検出部86が取得する位置情報は、各特徴点Hのラベリング情報を含んでいる。例えば、キーポイント検出部86は、各特徴点Hが示す部位に応じて、深度画像V1に含まれる複数の特徴画素のうち各特徴点Hが示されている特徴画素をラベリングする。
【0097】
図10に示されているように、キーポイント検出部86は、例えば、深度画像V1に示される複数の生体Mに対して、生体Mごとに、複数の特徴点Hを検出する。例えば、キーポイント検出部86は、頭部において、鼻、左目、右目、左耳、及び、右耳の部位をそれぞれ示す複数の特徴点Hの位置を検出し、各部位の種別を示すラベリング情報と共に格納部82に格納する。例えば、キーポイント検出部86は、上半身において、左肩、右肩、左肘、右肘、左手、及び、右手の部位をそれぞれ示す複数の特徴点Hの位置を検出し、各部位の種別を示すラベリング情報と共に格納部82に格納する。例えば、キーポイント検出部86は、下半身において、左尻、右尻、左膝、右膝、左足首、及び、右足首の部位をそれぞれ示す複数の特徴点Hの位置を検出し、各部位の種別を示すラベリング情報と共に格納部82に格納する。
【0098】
アフィニティフィールド検出部87は、キーポイント検出部86によって検出された複数の特徴点Hの位置に基づいて、アフィニティフィールドFを検出する。アフィニティフィールド検出部87は、複数の特徴点Hのうち一対の特徴点Hを互いに関係付けた関係情報を取得する。例えば、アフィニティフィールドFは、例えば、画像V2上において、互いに関係付けられた一対の特徴点Hを連結する線である。例えば、アフィニティフィールド検出部87は、図9(b)に示されているように、検出された複数のアフィニティフィールドFを深度画像V1の情報にプロットする。アフィニティフィールド検出部87は、複数の特徴点Hと共に、深度画像V1上に複数のアフィニティフィールドFがプロットされた画像V3を作成してもよい。
【0099】
アフィニティフィールド検出部87は、例えば、深度画像V1に示される複数の生体Mに対して、生体Mごとに、複数のアフィニティフィールドFを検出する。各アフィニティフィールドFは、生体Mごとに、生体Mにおいて互いに隣り合う特徴点Hを連結する。各生体Mにおける複数の特徴点Hは、検出された複数のアフィニティフィールドFによって、直接的又は間接的に接続される。アフィニティフィールドFは、互いに異なる生体Mにおける特徴点Hを連結しない。各生体Mにおける複数のアフィニティフィールドFは、各生体Mの姿勢を示す。アフィニティフィールド検出部87は、例えば、各特徴点Hのラベリング情報に基づいて、アフィニティフィールドFを検出する。
【0100】
本実施形態の変形例として、アフィニティフィールド検出部87は、例えば、特徴検出モデルと異なるモデルに基づいて、複数のアフィニティフィールドFを検出してもよい。このモデルは、例えば、各特徴点Hの位置を示す位置情報の入力に応じて、一対の特徴点Hを互いに関係付けた関係情報を出力する。この場合、アフィニティフィールド検出部87は、モデルから出力された関係情報に基づいて、画像V3を作成してもよい。
【0101】
本実施形態のさらなる変形例として、特徴検出モデルが、深度画像取得部81によって取得された深度画像の情報の入力に応じて、上記複数の特徴点Hの位置を示す位置情報及び一対の特徴点Hを互いに関係付けた関係情報を出力してもよい。例えば、特徴検出モデルが、深度画像V1の入力に応じて、画像V3を出力してもよい。
【0102】
部位エリア検出部88は、生体における複数の特徴点Hの位置に基づいて、生体Mにおける対象部位の位置を検出する。例えば、部位エリア検出部88は、キーポイント検出部86によって検出された複数の特徴点Hの位置情報に基づいて、生体Mにおける対象部位の位置を示す位置情報を検出する。部位エリア検出部88は、生体Mにおける対象部位の位置を示すエリアR1を検出する。例えば、部位エリア検出部88は、図9(c)に示されているように、検出された対象部位の位置を示すエリアR1を深度画像V1の情報にプロットする。例えば、対象部位の位置を示す位置情報は、深度画像V1におけるエリアR1の座標を含んでいる。エリアR1は、例えば、矩形状を呈している。部位エリア検出部88は、例えば、深度画像V1上に対象部位のエリアR1がプロットされた画像V4を作成してもよい。
【0103】
対象部位が胸部である場合、部位エリア検出部88は、例えば、左肩に対応する特徴点H1と右肩に対応する特徴点H2と、左尻に対応する特徴点H3と、右尻に対応する特徴点H4とに基づいて、エリアR1を検出する。例えば、部位エリア検出部88は、特徴点H1と特徴点H3とを連結する直線上において、特徴点H1から第1距離の位置に特徴点H5を設定する。例えば、部位エリア検出部88は、特徴点H2と特徴点H4とを連結する直線上において、特徴点H2から第2距離の位置に特徴点H6を設定する。エリアR1は、例えば、特徴点H1,H2,H5,H6に囲まれる領域である。第1距離は、例えば、特徴点H1と特徴点H3とを連結する直線の長さに対して所定の比率の長さの距離である。第2距離は、例えば、特徴点H2と特徴点H4とを連結する直線の長さに対して所定の比率の長さの距離である。
【0104】
部位エリア検出部88は、例えば、深度画像V1に示される複数の生体Mに対して、生体Mごとに、複数の対象部位の位置を検出する。部位エリア検出部88は、例えば、生体Mごとに、エリアR1の座標を検出する。
【0105】
本実施形態の変形例として、部位エリア検出部88は、アフィニティフィールド検出部87によって検出されたアフィニティフィールドFに基づいて、生体における対象部位の位置を検出してもよい。部位エリア検出部88は、複数のアフィニティフィールドF及び複数の特徴点Hに基づいて、生体Mにおける対象部位の位置を検出してもよい。
【0106】
本実施形態の変形例として、部位エリア検出部88は、例えば、特徴検出モデルと異なるモデルに基づいて、生体Mにおける対象部位の位置を検出してもよい。このモデルは、例えば、各特徴点Hの位置を示す位置情報の入力に応じて、対象部位の位置を示す位置情報を出力する。この場合、部位エリア検出部88は、出力された情報に基づいて、画像V4を作成してもよい。
【0107】
本実施形態のさらなる変形例として、特徴検出モデルが、深度画像取得部81によって取得された深度画像V1の情報の入力に応じて、対象部位の位置を示す位置情報を出力してもよい。例えば、特徴検出モデルが、深度画像V1の入力に応じて、画像V4を出力してもよい。
【0108】
次に、学習フェーズにおける生体部位検出システム3の各機能部について、より詳細に説明する。学習フェーズにおいては、学習部90が動作する。学習部90は、深度画像取得部81と、格納部82と、特徴情報取得部93と、モデル作成部94とによって、特徴検出モデルを作成する。学習部90は、種々の情報を含む学習データセットを用いて学習された特徴検出モデルを作成する。学習部90は、深度画像取得部81と、特徴情報取得部93とによって、特徴検出モデルを学習するための学習データセットを取得する。学習部90は、格納部82に予め格納されていた学習データセットを取得してもよいし、生体情報検出システム1の外部から通信ネットワーク等を介して学習データセットを取得してもよい。
【0109】
学習部90が動作する場合、深度画像取得部81は、特徴検出モデルの学習に用いられる複数の学習用の深度画像の情報を取得する。複数の学習用の深度画像の情報は、互いに異なるシーンにおいて撮像された深度画像の情報を含んでいる。本実施形態において、各学習用の深度画像は、当該学習用の深度画像に対応する複数の特徴点がそれぞれ位置する複数の特徴画素を含んでいる。
【0110】
特徴情報取得部93は、特徴検出モデルの学習に用いられる複数の学習用特徴情報を取得する。学習用特徴情報は、学習用の生体における対象部位の位置に関する情報である。本実施形態において、特徴情報取得部93は、各学習用特徴情報として、学習用の深度画像における複数の特徴点の位置を示す学習用位置情報を取得する。学習用位置情報は、学習用の深度画像における複数の特徴画素の位置を示す画素位置情報を含んでいる。画素位置情報は、例えば、学習用の深度画像における各特徴画素の座標である。学習用位置情報は、例えば、キーポイント検出部96によって検出される複数の特徴点の位置をキャリブレーションした位置情報である。
【0111】
図9(a)から図9(c)、及び、図11(a)から図11(c)を参照して、特徴情報取得部93について、詳細に説明する。特徴情報取得部93は、RGB画像取得部95と、キーポイント検出部96と、アフィニティフィールド検出部97と、部位エリア検出部98とを含んでいる。特徴情報取得部93は、アフィニティフィールド検出部97と、部位エリア検出部98とを含んでいなくてもよい。学習用位置情報は、キーポイント検出部96と、アフィニティフィールド検出部97と、部位エリア検出部98との少なくとも1つにおいて検出される情報である。
【0112】
RGB画像取得部95は、例えば、撮像システム70の少なくとも一部を含んでいる。RGB画像取得部95は、撮像システム70によって、学習用の生体を撮像したRGB画像の情報を取得する。RGB画像取得部95は、例えば、カラーカメラによって、学習用の生体MのRGB画像の情報を取得する。RGB画像の情報は、深度画像取得部81によって取得された学習用の深度画像の情報に対応している。RGB画像は、複数のRGB画素を含んでいる。各RGB画素は、学習用の深度画像に含まれる画素に対応している。本実施形態の変形例として、RGB画像取得部95は、格納部82又は生体部位検出システム3の外部からRGB画像の情報を取得してもよい。
【0113】
RGB画像取得部95は、互いに異なるシーンにおいて撮像されたRGB画像の情報を取得する。互いに異なるシーンにおいて撮像されたRGB画像とは、RGB画像に示される学習用の生体の姿勢、位置、及び、数の少なくとも1つが異なる状況によって撮像されたRGB画像を意味する。RGB画像取得部95は、深度画像取得部81によって取得される学習用の深度画像の情報と同一のシーンにおいて撮像されたRGB画像の情報を取得する。換言すれば、RGB画像取得部95は、学習用の深度画像の情報に対応する学習用の生体を撮像したRGB画像の情報を取得する。
【0114】
キーポイント検出部96は、図11(a)に示されているように、RGB画像取得部95によって取得されたRGB画像の情報における複数の特徴点Jの位置を検出する。キーポイント検出部96によって検出される各特徴点Jは、上記RGB画像に示されている学習用の深度画像の生体Mにおける特徴点に相当する。キーポイント検出部96によって検出される複数の特徴点Jの位置は、学習用の生体Mにおける互いに異なる部位の位置に対応している。
【0115】
キーポイント検出部96は、RGB画像に含まれる複数のRGB画素のうち、学習用の生体Mの対象部位に関するRGB画素の位置を示す情報を学習用特徴情報として取得する。RGB画像に含まれる各RGB画素は、学習用の深度画像に含まれる画素に対応しているため、キーポイント検出部96によって検出される複数の特徴点Jの位置を示す位置情報は、学習用の深度画像における複数の特徴点の位置を示す学習用位置情報に対応する。換言すれば、キーポイント検出部96よるRGB画像の情報における複数の特徴点Jの位置の検出によって、学習用の深度画像における複数の特徴画素の位置を示す画素位置情報が演算される。さらに換言すれば、キーポイント検出部96は、RGB画像取得部95によって取得されたRGB画像の情報に基づいて、学習用の深度画像における複数の特徴画素の位置を示す画素位置情報を演算する。
【0116】
具体的には、キーポイント検出部96は、RGB画像取得部95によって取得されたRGB画像の情報に基づいて、RGB画像に含まれる複数のRGB画素のうち、学習用の深度画像の情報に対応する学習用の生体Mにおける複数の特徴点Jがそれぞれ位置する複数のRGB画素の位置を演算する。キーポイント検出部96は、演算された複数のRGB画素の位置と対応する学習用の深度画像の画素位置情報を演算する。
【0117】
キーポイント検出部96は、例えば、RGB画像取得部95によって取得されるRGB画像と、深度画像取得部81によって取得される深度画像との違いに応じて、キーポイント検出部96によって検出される複数の特徴点Jの位置をキャリブレーションした位置情報を、学習用位置情報として出力する。
【0118】
キーポイント検出部96は、RGB画像取得部95によって取得されたRGB画像の情報と既存モデルとに基づいて、上記複数の特徴点Jの位置を示す位置情報を検出する。キーポイント検出部96は、RGB画像取得部95によって取得されたRGB画像の情報を既存モデルに入力し、既存モデルから出力された複数の特徴点Jの位置を示す位置情報を取得する。既存モデルは、例えば、既に学習された学習モデルである。既存モデルは、例えば、“Open Pose”である。
【0119】
例えば、キーポイント検出部96は、図11(a)に示されているように、検出された複数の特徴点JをRGB画像の情報にプロットする。キーポイント検出部96は、例えば、RGB画像上に複数の特徴点Jがプロットされた画像V6を作成してもよい。例えば、キーポイント検出部96によって検出された複数の特徴点Jの位置を示す位置情報は、RGB画像における各特徴点Jの座標を含んでいる。例えば、既存出モデルは、RGB画像の情報の入力に応じて、画像V6の情報を出力する。
【0120】
キーポイント検出部96は、特徴点Jが示す部位に応じて、各特徴点Jをラベリングしたラベリング情報を作成する。ラベリング情報は、各特徴点Jが学習用の生体のどの部位の特徴点であるかを示す。キーポイント検出部96が取得する学習用位置情報は、各特徴点Jのラベリング情報を含んでいる。例えば、キーポイント検出部96は、各特徴点Jをラベリングする。換言すれば、キーポイント検出部96は、各特徴点Jが示す部位に応じて、学習用の深度画像における各特徴画素をラベリングする。
【0121】
キーポイント検出部96は、例えば、RGB画像に示される学習用の複数の生体Mに対して、生体Mごとに、複数の特徴点Jを検出する。例えば、キーポイント検出部96は、キーポイント検出部86と同様に、頭部、上半身、及び、下半身の各々において、複数の部位をそれぞれ示す複数の特徴点の位置を検出し、各部位の種別を示すラベリング情報と共に格納部82に格納する。
【0122】
アフィニティフィールド検出部97は、図11(b)に示されているように、キーポイント検出部96によって検出された複数の特徴点Jの位置に基づいて、アフィニティフィールドGを検出する。アフィニティフィールド検出部97は、複数の特徴点Jのうち一対の特徴点Jを互いに関係付けた関係情報を検出する。例えば、アフィニティフィールドGは、この関係情報に基づいて、画像上において、互いに関係付けられた一対の特徴点Jを連結する線である。アフィニティフィールド検出部97によって検出される上記関係情報は、例えば、学習用位置情報に対応する。アフィニティフィールド検出部97によって検出される複数のアフィニティフィールドGの位置を示す位置情報が、学習用位置情報に相当してもよい。アフィニティフィールド検出部97は、例えば、RGB画像取得部95によって取得されるRGB画像と、深度画像取得部81によって取得される深度画像との違いに応じて、アフィニティフィールド検出部97によって検出される複数のアフィニティフィールドGの位置をキャリブレーションした位置情報を、学習用位置情報として出力する。
【0123】
例えば、アフィニティフィールド検出部97は、図11(b)に示されているように、検出された複数のアフィニティフィールドGをRGB画像の情報にプロットする。アフィニティフィールド検出部97は、複数の特徴点Jと共に、RGB画像上に複数のアフィニティフィールドGがプロットされた画像V7を作成してもよい。アフィニティフィールド検出部97によって検出される複数のアフィニティフィールドGは、それぞれ、アフィニティフィールド検出部87によって検出される複数のアフィニティフィールドFに対応している。各アフィニティフィールドGは、学習用の生体Mごとに、学習用の生体Mにおいて互いに隣り合う特徴点Jを連結する。アフィニティフィールド検出部97は、例えば、上述した既存モデルに基づいて、複数のアフィニティフィールドGを検出する。
【0124】
部位エリア検出部98は、学習用の生体における複数の特徴点Jの位置に基づいて、各学習用の生体Mにおける対象部位の位置を検出する。例えば、部位エリア検出部98は、キーポイント検出部96によって検出された複数の特徴点Jの位置情報に基づいて、学習用の生体Mにおける対象部位の位置を示す位置情報を検出する。部位エリア検出部98は、例えば、図11(c)に示されているように、学習用の生体Mにおける対象部位の位置を示すエリアR2を検出する。部位エリア検出部98によって検出される上記エリアR2の位置情報は、例えば、学習用位置情報に相当する。部位エリア検出部98は、例えば、RGB画像取得部95によって取得されるRGB画像と、深度画像取得部81によって取得される深度画像との違いに応じて、部位エリア検出部98によって検出される上記エリアの位置をキャリブレーションした位置情報を、学習用位置情報として出力する。
【0125】
例えば、部位エリア検出部98は、図11(c)に示されているように、検出された対象部位の位置を示すエリアR2をRGB画像の情報にプロットする。例えば、対象部位の位置を示す位置情報は、RGB画像におけるエリアR2の座標を含んでいる。エリアR2は、エリアR1に対応している。エリアR2は、例えば、矩形状を呈している。部位エリア検出部98は、例えば、RGB画像上に対象部位のエリアR2がプロットされた画像V8を作成してもよい。
【0126】
本実施形態の変形例として、部位エリア検出部98は、アフィニティフィールド検出部97によって検出されたアフィニティフィールドGに基づいて、学習用の生体における対象部位の位置を検出してもよい。部位エリア検出部98は、複数のアフィニティフィールドG及び複数の特徴点Jに基づいて、学習用の生体Mにおける対象部位の位置を検出してもよい。
【0127】
部位エリア検出部98は、上述した既存モデルと異なるモデルに基づいて、学習用の生体Mにおける対象部位の位置を検出する。このモデルは、例えば、各特徴点Jの位置を示す位置情報の入力に応じて、対象部位の位置を示す位置情報を出力する。この場合、部位エリア検出部98は、出力された情報に基づいて、画像V8を作成してもよい。
【0128】
格納部82は、特徴検出モデルの学習に用いられる学習データセットを格納する。特徴検出モデルの学習に用いられる学習データセットは、深度画像取得部81に取得された複数の学習用の深度画像の情報と、特徴情報取得部93によって取得された複数の学習用位置情報とを含んでいる。
【0129】
学習データセットは、複数の学習用の深度画像の情報と、各学習用の深度画像における複数の特徴点Jの位置を示す学習用位置情報とを含んでいる。複数の学習用の深度画像の情報は、互いに異なるシーンにおいて撮像された学習用の深度画像の情報を含んでいる。互いに異なるシーンにおいて撮像された学習用の深度画像とは、学習用の深度画像に示される学習用の生体の姿勢、位置、及び、数の少なくとも1つが異なる状況によって撮像された学習用の深度画像を意味する。各学習用位置情報は、複数の学習用の深度画像の情報のうち対応する学習用の深度画像における複数の特徴点Jの位置を示している。格納部82は、予め上記学習データセットを格納していてもよい。格納部82は、モデル作成部94によって作成された特徴検出モデルを格納している。各学習用の深度画像における複数の特徴点Jの位置を示す学習用位置情報は、RGB画像取得部によって取得されたRGB画像に対して、キーポイント検出部96、アフィニティフィールド検出部97、及び、部位エリア検出部98の少なくとも1つから出力された学習用位置情報を含んでいる。
【0130】
モデル作成部94は、上述した学習データセットを用いて、特徴検出モデルを作成する。モデル作成部94は、複数の学習用の深度画像の情報と、各学習用の深度画像における学習用の生体Mの対象部位の位置に関する学習用特徴情報とを用いた学習によって、深度画像の情報の入力に応じて、入力された深度画像における生体の対象部位の位置に関する特徴情報を出力するモデルを特徴検出モデルとして作成する。モデル作成部94は、例えば、深度画像の情報の入力に応じて、入力された深度画像の情報における複数の特徴点を示す位置情報を出力するモデルを特徴検出モデルとして作成する。この場合、各学習用の深度画像における学習用の生体Mの対象部位の位置に関する学習用特徴情報は、例えば、各学習用の深度画像の情報における複数の特徴点の位置を示す学習用位置情報を含んでいる。モデル作成部94は、推定フェーズにおいて取得された情報に基づいて、特徴検出モデルを再作成、又は、更新してもよい。特徴情報取得部93及びモデル作成部94の少なくとも1つは、学習フェーズの終了後に、生体情報検出システム1から除外されてもよい。
【0131】
次に、図12を参照して、生体情報検出システム1のハードウェア構成について説明する。図12は、生体情報検出システム1のハードウェア構成の一例を示す図である。
【0132】
生体情報検出システム1は、プロセッサ101と、主記憶装置102と、補助記憶装置103と、通信装置104と、入力装置106と、出力装置105とを備えている。生体情報検出システム1は、これらのハードウェアと、プログラム等のソフトウェアとにより構成された、1又は複数のコンピュータを含んでいる。生体活動検出システム2及び生体部位検出システム3のそれぞれは、1つのコンピュータによって構成されていてもよいし、複数のコンピュータによって構成されていてもよい。生体情報検出システム1は、ハードウェアと協働して実現されている。
【0133】
生体情報検出システム1が、複数のコンピュータによって構成される場合には、これらのコンピュータはローカルで接続されてもよいし、インターネット又はイントラネットなどの通信ネットワークを介して接続されてもよい。この接続によって、論理的に1つの生体情報検出システム1が構築される。
【0134】
プロセッサ101は、オペレーティングシステム及びアプリケーション・プログラムなどを実行する。主記憶装置102は、ROM(Read Only Memory)及びRAM(Random Access Memory)により構成される。例えば、信号制御部5、信号処理部7、深度画像取得部81、部位検出部83、出力部84、特徴情報取得部93、及び、モデル作成部94の各種機能部の少なくとも一部は、プロセッサ101及び主記憶装置102によって実現され得る。
【0135】
補助記憶装置103は、ハードディスク及びフラッシュメモリなどにより構成される記憶媒体である。補助記憶装置103は、一般的に主記憶装置102よりも大量のデータを記憶する。例えば、格納部68,82の少なくとも一部は、補助記憶装置103によって実現され得る。
【0136】
通信装置104は、ネットワークカード又は無線通信モジュールにより構成される。例えば、情報取得部41の少なくとも一部は、通信装置104によって実現され得る。出力装置105は、プリンタ、及び、ディスプレイなどにより構成される。例えば、生体活動情報導出部42及び出力部84の少なくとも一部は、出力装置105によって実現され得る。
【0137】
入力装置106は、キーボード、マウス、及び、タッチパネルなどにより構成される。例えば、情報取得部41の少なくとも一部は、入力装置106によって実現され得る。入力装置106は、さらに、信号制御部5のセンシングデバイスを含んでいる。入力装置106は、ソース21と、パワーアンプ22と、送信アンテナ23と、受信アンテナ31と、調整器32と、ミキサー33と、バンドパスフィルタ34と、電圧利得制御アンプ35と、ADコンバータ36とを含んでいる。入力装置106は、さらに、撮像システム70を含んでいる。撮像システム70は、深度画像を撮像する撮像装置と、RGB画像を撮像する撮像装置とのうち少なくとも1つを含んでいる。
【0138】
補助記憶装置103は、予め、プログラム及び処理に必要なデータを格納している。このプログラムは、生体情報検出システム1の各機能要素をコンピュータに実行させる。このプログラムによって、例えば、後述する生体情報検出方法における各処理がコンピュータにおいて実行される。このプログラムは、例えば、CD-ROM、DVD-ROM、半導体メモリなどの有形の記録媒体に記録された上で提供されてもよい。このプログラムは、データ信号として通信ネットワークを介して提供されてもよい。
【0139】
次に、図13から図15を参照して、本実施形態における生体情報検出方法の一例について説明する。例えば、生体情報検出方法は、特徴検出モデルの作成方法を含んでおり、特徴検出モデルを作成する学習フェーズと、作成された特徴検出モデルを用いて生体活動情報を検出する推定フェーズとを実行する。まず、図13を参照して、学習フェーズにおける特徴検出モデルの作成方法の一例について説明する。図13は、特徴検出モデルの作成方法の一例を示すフローチャートである。
【0140】
まず、学習用の深度画像の情報が取得される(処理S1)。処理S1において、深度画像取得部81が、複数の学習用の深度画像の情報を取得する。本実施形態において、学習用の深度画像の情報は、撮像システム70によって撮像された深度画像である。学習用の深度画像は、学習用の深度画像に対応する複数の特徴点がそれぞれ位置する複数の特徴画素を含んでいる。複数の特徴点の位置は、生体における互いに異なる部位の位置に対応している。
【0141】
次に、学習用RGB画像の情報が取得される(処理S2)。処理S2において、特徴情報取得部93が、複数の学習用RGB画像の情報を取得する。各学習用RGB画像は、処理において取得された学習用の深度画像の情報に対応する生体を撮像した画像である。本実施形態において、学習用RGB画像の情報は、撮像システム70によって撮像されたRGB画像である。
【0142】
次に、学習用特徴情報が検出される(処理S3)。処理S3において、特徴情報取得部93が、複数の学習用RGB画像に基づいて、複数の学習用特徴情報を取得する。本実施形態において、各学習用特徴情報は、学習用の生体における複数の特徴点の位置を示す学習用位置情報を含んでいる。学習用位置情報は、学習用の深度画像における複数の特徴画素の位置を示す画素位置情報を含んでいる。例えば、特徴情報取得部93が、処理S2において取得されたRGB画像の情報に基づいて、学習用の深度画像における複数の特徴画素の位置を示す画素位置情報を演算する。具体的には、特徴情報取得部93は、処理S2において取得されたRGB画像に基づいて、当該RGB画像に含まれる複数のRGB画素のうち、処理S1において取得された学習用の深度画像の情報に対応する生体における複数の特徴点がそれぞれ位置する複数のRGB画素の位置を演算し、演算された複数のRGB画素の位置に基づいて、画素位置情報を演算する。学習用位置情報は、特徴点が示す部位に応じて、各特徴点又は各特徴点を示している特徴画素をラベリングしたラベリング情報を含んでいる。
【0143】
次に、特徴検出モデルが作成される(処理S4)。処理S4において、モデル作成部94が、処理S1によって取得された複数の学習用の深度画像の情報と、処理S3によって取得された複数の学習用特徴情報とに基づいて、特徴検出モデルを作成する。本実施形態において、モデル作成部94が、複数の学習用の深度画像の情報と、複数の学習用位置情報とを用いた学習によって、深度画像の情報の入力に応じて、生体における複数の特徴点の位置を示す位置情報を出力するモデルを特徴検出モデルとして作成する。
【0144】
処理S4において作成された特徴検出モデルは、格納部82に格納される。処理S4が終了すると、特徴検出モデルの作成方法の一連の処理が終了される。以上、特徴検出モデルの作成方法の一例について説明したが、各処理の順序はこれに限定されない。例えば、処理S1は、処理S4の前であればいつ実行されてもよい。処理S1から処理S3の代わりに、特徴検出モデルの学習に用いられる学習データセットが生体部位検出システム3の外部から取得されてもよい。特徴検出モデルの学習に用いられる学習データセットは、予め格納部82に格納されてもよい。
【0145】
次に、図14を参照して、推定フェーズにおける生体情報検出方法の一例について説明する。図14は、生体情報検出方法の一例を示すフローチャートである。図14に示されている生体情報検出方法は、生体情報検出方法と、生体活動情報検出方法とを含んでいる。
【0146】
まず、深度画像が取得される(処理S11)。処理S11において、深度画像取得部81が、複数の深度画像の情報を取得する。本実施形態において、深度画像の情報は、撮像システム70によって撮像された深度画像である。
【0147】
次に、特徴点が検出される(処理S12)。処理S12において、キーポイント検出部86が、処理S11において取得された深度画像と特徴検出モデルとに基づいて、複数の特徴点を検出する。キーポイント検出部86が、処理S11において取得された深度画像と特徴検出モデルとに基づいて、処理S11において取得された深度画像における複数の特徴点を検出する。キーポイント検出部86は、処理S11において取得された深度画像の情報を特徴検出モデルに入力し、特徴検出モデルから出力された複数の特徴点の位置を取得する。
【0148】
次に、アフィニティフィールドが検出される(処理S13)。処理S13において、アフィニティフィールド検出部87が、処理S12において検出された複数の特徴点に基づいて、アフィニティフィールドを検出する。
【0149】
次に、生体の対象部位が検出される(処理S14)。処理S14において、部位検出部83が、処理S13において検出されたアフィニティフィールドに基づいて、生体の対象部位の位置を検出する。本実施形態の変形例として、部位検出部83は、処理S12において検出された複数の特徴点に基づいて、生体の対象部位の位置を検出してもよい。
【0150】
次に、生体活動情報導出処理が実行される(処理S15)。処理S15において、生体活動検出システム2が、処理S14において検出された生体の対象部位の位置に基づいて、生体活動情報を導出する。
【0151】
処理S15において導出された生体活動情報は、格納部68に格納される。処理S15が終了すると、生体情報検出方法の一連の処理が終了される。以上、生体情報検出方法の一例について説明したが、各処理の順序はこれに限定されない。本実施形態の変形例として、処理S2は実行されてなくてもよい。この変形例において、例えば、特徴検出モデルが、処理S11において取得された深度画像の入力に応じて、アフィニティフィールドを出力する。本実施形態の別の変形例として、処理S3は実行されなくてもよい。この変形例において、例えば、部位検出部83は、処理S12において検出された複数の特徴点の位置に基づいて、対象部位の位置を検出する。本実施形態のさらに別の変形例として、処理S2及び処理S3の双方が実行されなくてもよい。この変形例において、例えば、特徴検出モデルが、処理S11において取得された深度画像の入力に応じて、対象部位の位置を出力する。
【0152】
次に、図15を参照して、生体活動情報導出処理について説明する。図15は、生体活動情報導出処理の一例を示すフローチャートである。
【0153】
まず、ビームフォーミングが行われる(処理S21)。処理S21において、信号制御部が、処理S14において検出された生体の対象部位の位置に基づいて、ビームフォーミングを行う。例えば、処理S21において、信号送信部11が送信波Tを生体の対象部位に向けて送信し、信号受信部12が生体の対象部位からの反射波Rを受信する。信号受信部12が受信した情報は、受信情報取得部51によって取得される。受信情報取得部51は、少なくとも、処理S14において検出された生体の対象部位の位置からの反射波Rを示す信号情報を取得する。
【0154】
次に、第一フィルタ部52が、受信情報取得部51において取得された情報に対して、フィルタリング処理を行う(処理S22)。生体情報検出システム1が心拍を検出する場合には、処理S22におけるフィルタリング処理によって、受信情報取得部51において取得された情報から5.0Hz以上30Hz以下の周波数帯域が抽出される。
【0155】
次に、フーリエ変換部53が、第一フィルタ部52から出力された情報に対して短時間フーリエ変換を行う(処理S23)。フーリエ変換部53は、処理S23において、第一フィルタ部52から出力された情報に対して短時間フーリエ変換を行うことによって、時間区分毎に、各周波数の強度を示す情報を作成し、出力する。フーリエ変換部53は、例えば、第一フィルタ部52から出力された情報に対して短時間フーリエ変換を行うことによって、スペクトログラムを作成し、出力する。
【0156】
次に、積分部54が、フーリエ変換部53から出力された情報に対して、時間区分毎に予め設定された周波数範囲においてスペクトル積分を行う(処理S24)。積分部54は、例えば、処理S24において、フーリエ変換部53から出力された情報に対して、時間区分毎に第一フィルタ部52におけるフィルタリング処理の通過帯域と同一の周波数範囲においてスペクトル積分を行う。
【0157】
次に、第二フィルタ部55が、積分部54から出力された情報に対して、フィルタリング処理を行う(処理S25)。生体情報検出システム1が心拍を検出する場合には、処理S5におけるフィルタリング処理によって、積分部54から出力された情報から0.8Hz以上2.0Hz以下の周波数帯域が抽出される。処理S25が終了すると、処理S26及び処理S32が実行される。処理S26から処理S31と処理S32は、並行して実行されてもよい。処理S26から処理S31と、処理S32とは、いずれか一方が先に実行されてもよい。
【0158】
次に、仮ピーク検出部61が、第二フィルタ部55から出力された複数の信号情報の各々について、複数の仮ピークを検出する(処理S26)。仮ピーク検出部61は、処理S26において、例えば、第二フィルタ部55から出力された複数の信号情報B,B,B,Bの各々について、複数の仮ピークPE0,PE1,PE2,PE3を検出する。
【0159】
処理S26が終了すると、ピークグループ演算部62が、仮ピーク検出部61において検出された各仮ピークの位置に基づいて、複数のピークグループGRを設定する(処理S27)。ピークグループ演算部62は、処理S27において、例えば、処理S14によって検出された対象部位の位置からの反射波Rに対応する信号情報Bを基準信号情報に決定する。ピークグループ演算部62は、処理S27において、例えば、基準信号情報に含まれる複数の仮ピークPE0の各々から所定の時間範囲W内にある少なくとも1つの仮ピークPE0,PE1,PE2,PE3を、各ピークグループGRを構成するピークとして特定する。この時間範囲Wは、例えば、仮ピークPE0から±0.05秒である。
【0160】
処理S27が終了すると、ピークグループ演算部62が、複数のピークグループGRの時間方向における位置を演算する(処理S28)。ピークグループ演算部62は、処理S28において、たとえば、ピークグループGR毎に、ピークグループGRに含まれる少なくとも1つの仮ピークPE0,PE1,PE2,PE3の時間方向における位置の平均をピークグループGRの位置P~Pとして演算する。
【0161】
処理S28が終了すると、ピークグループ選出部63が、各ピークグループGRの位置に基づいて、複数のピークグループGRから代表ピークグループを選出する(処理S29)。ピークグループ選出部63は、処理S29において、例えば、ビタビアルゴリズムによって、ピークグループGRの位置P~P19において、パスメトリックが最小又は最大となるピークグループGRの組み合わせを特定する。図7に示されている例において、位置P,P,P・・・P19に位置するピークグループGRが代表ピークグループとして選出される。
【0162】
処理S29が終了すると、ピーク間隔演算部64が、時間方向における複数の代表ピークグループの間隔を示す代表ピークグループ間隔を演算する(処理S30)。ピーク間隔演算部64は、処理S30において、例えば、複数の代表ピークグループ間隔の平均を代表ピークグループ間隔として出力する。
【0163】
処理S30が終了すると、フィルタ設定部65が、複数の仮ピークの時間方向における位置に基づいて、周波数フィルタを設定する。(処理S31)。フィルタ設定部65は、処理S31において、例えば、ピーク間隔演算部64から出力された代表ピークグループの間隔の逆数を中心周波数とするように周波数フィルタを設定する。
【0164】
処理S25が終了すると、情報演算部66が信号情報の平均を演算する(処理S32)。情報演算部66は、処理S32において、処理S25において処理された複数の信号情報B,B,B,Bを取得し、これらの信号情報を平均する。
【0165】
処理S31及び処理S32が終了すると、生体活動情報取得部67が生体活動情報を取得する(処理S33)。生体活動情報取得部67は、処理S33において、処理S32において情報演算部66から出力された情報に対して、処理S31において設定された周波数フィルタを用いてフィルタリング処理を行うことによって、生体の生体活動情報を取得する。生体活動情報取得部67は、例えば、生体活動情報として、心拍数及び心拍間隔の少なくとも1つ、又は、呼吸数及び呼吸間隔の少なくとも1つを示す情報を取得する。
【0166】
次に、上述した実施形態における生体情報検出システム1、生体情報検出方法、及び、プログラムによる作用効果について説明する。
【0167】
上述した生体情報検出システム1、生体情報検出方法、及び、プログラムにおいて、深度画像の情報と特徴検出モデルとに基づいて、生体の対象部位の位置が検出される。この場合、深度画像における深度情報も考慮して対象部位の位置が検出されるため、対象部位の位置の検出精度が向上され得る。深度情報が考慮されれば、比較的離れていても、生体が検出され得る。さらには、複数人の対象部位の位置を同時に検出することも可能である。対象部位の位置に関する特徴情報と深度画像の情報とを関連付けている特徴検出モデルが用いられているため、深度画像の情報から対象部位の位置が検出され得る。生体における対象部位の位置の検出を含めた生体情報について、検出精度が高精度に確保され得る。
【0168】
特徴情報は、RGB画像において、当該RGB画像に含まれる複数のRGB画素のうち対象部位に関するRGB画素の位置を示す情報を含んでいる。RGB画像は、深度画像の情報に対応する生体を撮像した画像である。この場合、特徴検出モデルは、対象部位に関するRGB画素の位置と深度画像の情報とを関連付けている。このため、RGB画像の情報と深度画像の情報とに基づいて、対象部位の位置が検出される。この結果、対象部位の位置の検出精度がより向上し得る。
【0169】
特徴情報は、生体における複数の特徴点の位置を示す位置情報を含んでいる。部位検出部83は、深度画像取得部81によって取得された深度画像の情報と特徴検出モデルとに基づいて、深度画像取得部81によって取得された深度画像の情報における複数の特徴点の位置を検出する。部位検出部83は、検出された複数の特徴点の位置に対応する対象部位の位置を検出する。この場合、特徴検出モデルは、生体における複数の特徴点の位置を示す位置情報と深度画像の情報とを関連付けている。深度画像の情報における複数の特徴点の位置は、上記特徴検出モデルに基づいて検出される。深度画像の情報に基づいて各特徴点の位置が検出されているため、対象部位の位置の検出精度がより向上し得る。
【0170】
生体における複数の特徴点の位置は、生体における互いに異なる部位の位置を示している。この場合、対象部位の位置の検出精度がより向上し得る。
【0171】
対象部位は、生体の胸部又は頭部である。生体の胸部が対象部位である場合には、対象部位の検出結果を用いることによって、心拍又は呼吸などの生体活動情報の検出精度が向上し得る。生体の頭部が対象部位である場合には、対象部位の検出結果を用いることによって、瞬きなどの生体活動情報の検出精度が向上し得る。
【0172】
生体情報検出システム1は、情報取得部41と、生体活動情報取得部67とをさらに備えている。情報取得部41は、少なくとも、部位検出部83によって検出された対象部位の位置において反射した反射波Rを示す信号情報を取得する。生体活動情報取得部67は、情報取得部41によって取得された信号情報に基づいて、生体活動情報を取得する。この場合、対象部位の検出結果を用いることによって、生体活動情報の検出精度が向上し得る。
【0173】
生体情報検出システム1は、反射波Rを受信する信号受信部12を備えている。部位検出部83は、深度画像情報における複数の特徴点の位置に基づいて、生体の部位と信号受信部12との関係を示す相対情報を演算する。生体活動情報取得部67は、上記相対情報に基づいて生体活動情報を検出する。この場合、生体活動情報の検出精度がさらに向上し得る。
【0174】
生体情報検出システム1は、モデル作成部94をさらに備えている。モデル作成部94は、複数の学習用の深度画像の情報と、各学習用の深度画像の情報における学習用の生体の対象部位の位置に関する学習用位置情報とを用いた学習によって、深度画像の情報の入力に応じて、入力された深度画像における生体の対象部位の位置に関する特徴情報を出力するモデルを特徴検出モデルとして作成する。複数の学習用の深度画像情報は、互いに異なるシーンにおいて撮像された深度画像の情報を含んでいる。格納部82は、モデル作成部94によって作成された上記モデルを格納している。この場合、深度画像の情報によって、生体の対象部位の位置に関する特徴情報がより高精度に検出され得る。この結果、対象部位の位置の検出精度がさらに向上し得る。
【0175】
生体情報検出方法は、RGB画像を取得することと、RGB画像に含まれる複数のRGB画素のうち対象部位に関するRGB画素の位置を示す情報を学習用特徴情報として取得することと、をさらに含んでいる。RGB画像は、学習用の深度画像の情報に対応する学習用の生体を撮像した画像である。この場合、特徴検出モデルは、対象部位に関するRGB画素の位置と学習用の深度画像の情報とに基づいて学習される。このため、RGB画像の情報と深度画像の情報とに基づいて、対象部位の位置が検出される。この結果、対象部位の位置の検出精度がより向上し得る。
【0176】
各学習用特徴情報は、学習用の生体における複数の特徴点の位置を示す学習用位置情報を含んでいる。特徴検出モデルの作成において、複数の学習用の深度画像の情報と、複数の学習用位置情報とを用いた学習によって、深度画像の情報の入力に応じて、生体における複数の特徴点の位置を示す位置情報を出力するモデルが特徴検出モデルとして作成される。この場合、特徴検出モデルは、学習用の生体における複数の特徴点の位置を示す学習用位置情報と学習用の深度画像の情報とを用いて学習される。深度画像の情報における複数の特徴点の位置は、上記特徴検出モデルに基づいて検出される。深度画像の情報に基づいて各特徴点の位置が検出されているため、対象部位の位置の検出精度がより向上し得る。
【0177】
学習用の深度画像は、複数の特徴画素を含んでいる。複数の特徴画素において、学習用の深度画像に対応する複数の特徴点がそれぞれ位置している。学習用位置情報は、画素位置情報を含んでいる。画素位置情報は、学習用の深度画像における複数の特徴画素の位置を示している。この場合、特徴検出モデルは、学習用の深度画像における複数の特徴画素の位置を示す画素位置情報と学習用の深度画像の情報とを用いて学習される。この場合、対象部位の検出精度がより確実に確保され得る。
【0178】
学習用位置情報の取得において、学習用の深度画像の情報に対応する生体を撮像したRGB画像の情報が取得されている。RGB画像に基づいて、RGB画像に含まれる複数のRGB画素のうち、学習用の深度画像の情報に対応する生体における複数の特徴点がそれぞれ位置する複数のRGB画素の位置が演算されている。演算された複数のRGB画素の位置に基づいて、画素位置情報が演算されている。この場合、学習用の深度画像において複数の特徴点がそれぞれ位置する複数の特徴画素が、RGB画像に基づいて演算される。したがって、生体における複数の特徴点の位置を示す位置情報を出力するモデルがより容易に作成されると共に、当該モデルから出力される位置情報の精度が向上し得る。
【0179】
複数の特徴点の位置は、生体における互いに異なる部位の位置に対応している。学習用位置情報は、特徴点が示す部位に応じて、各特徴点をラベリングしたラベリング情報を含んでいる。この場合、各特徴点が示す部位の情報が含まれているため、象部位の位置の検出精度がより向上し得る。
【0180】
生体情報検出システム1は、情報取得部41と、フィルタ設定部65と、生体活動情報取得部67とを備えている。情報取得部41は、生体からの互いに異なる反射波Rに対応する複数の信号情報B,B,B,Bを取得する。信号情報Bは、生体の対象部位からの反射波Rに対応している。フィルタ設定部65は、複数の信号情報B,B,B,Bの複数の仮ピークPE0,PE1,PE2,PE3の時間方向における位置に基づいて周波数フィルタを設定する。生体活動情報取得部67は、複数の信号情報B,B,B,Bの少なくとも1つに基づく情報に対して周波数フィルタを用いてフィルタリング処理を行うことによって、生体の生体活動情報を取得する。
【0181】
以上のように、互いに異なる反射波Rに対応する複数の信号情報B,B,B,Bが用いられる。このため、信号送信部11と生体との間における送信波T及び反射波Rの伝搬によって生じたノイズ又は生体の体勢に起因して捉えづらくなった生体活動情報の抽出精度が、ダイバーシチ効果によって改善され得る。さらに、複数の反射波Rに対応する複数の信号情報B,B,B,Bの仮ピークPE0,PE1,PE2,PE3に基づいて周波数フィルタが設定されるため、生体活動情報に対応する周波数帯域が周波数フィルタによって正確に抽出され得る。この結果、非接触で生体活動情報が検出されながら、生体活動情報の検出精度が確保され得る。
【0182】
ピークグループ演算部62は、複数の信号情報B,B,B,Bの複数の仮ピークPE0,PE1,PE2,PE3の時間方向おける位置に基づいて、複数のピークグループGRを設定する。複数のピークグループGRの各々は、複数の仮ピークPE0,PE1,PE2,PE3の少なくとも1つを含んでいる。ピークグループ演算部62は、各ピークグループGRの位置P~Pを演算する。フィルタ設定部65は、ピークグループ演算部62において演算された各ピークグループGRの位置P~Pに基づいて、周波数フィルタを設定する。この場合、複数の仮ピークPE0,PE1,PE2,PE3の少なくとも1つを含むピークグループGRの位置P~Pに基づいて、周波数フィルタが設定される。このため、周波数フィルタによって、生体活動情報に対応する周波数帯域がさらに正確に抽出され得る。
【0183】
ピークグループ選出部63は、各ピークグループGRの位置P~Pに基づいて、複数のピークグループGRのうち少なくとも2つのピークグループGRを代表ピークグループとして選出する。ピーク間隔演算部64は、時間方向における複数の代表ピークグループの間隔を示す代表ピークグループ間隔を演算する。フィルタ設定部65は、ピーク間隔演算部64によって演算された代表ピークグループ間隔に基づいて、周波数フィルタを設定する。この場合、周波数フィルタによって、生体活動情報に対応する周波数帯域がさらに正確に抽出され得る。
【0184】
生体活動情報は、生体において周期的に繰り返される動作である。ピークグループ選出部63は、複数のピークグループGRのうち、生体の動作の周期に対して尤もらしい間隔で時間方向に位置するピークグループGRの組み合わせを、複数の代表ピークグループとして選出する。この場合、生体の動作の周期により近い間隔で位置するピークグループGRの組み合わせが選出されるため、周波数フィルタによって、生体活動情報に対応する周波数帯域がさらに正確に抽出され得る。
【0185】
フィルタ設定部65は、複数の信号情報B,B,B,Bの複数のピークグループGRの時間方向における位置P~Pに基づいて演算される中心周波数を有するように周波数フィルタを設定する。この場合、生体活動情報に対応する周波数帯域がさらに正確に抽出され得る。
【0186】
フィルタ設定部65は、複数の代表ピークグループの間隔の平均の逆数を中心周波数とするように周波数フィルタを設定する。この場合、生体活動情報に対応する周波数帯域がさらに正確に抽出され得る。
【0187】
ピークグループ演算部62は、複数の信号情報B,B,B,Bに含まれる複数の仮ピークPE0,PE1,PE2,PE3から、基準信号情報に含まれる複数の仮ピークPE0の各々から所定の時間範囲W内にある少なくとも1つの仮ピークを特定する。ピークグループ演算部62は、特定された仮ピークに基づいて各ピークグループGRの時間方向における位置P~Pを演算する。この場合、複数の反射波Rにそれぞれ対応する複数の信号情報B,B,B,Bの仮ピークPE0,PE1,PE2,PE3に関するの情報が一つに纏められ、各ピークグループGRの時間方向における位置P~Pの間隔が、生体の動作の周期により近づくと考えられる。この結果、生体活動情報に対応する周波数帯域をさらに正確に抽出できる周波数フィルタが設定され得る。
【0188】
ピークグループ演算部62は、ピークグループGR毎に、ピークグループGRに含まれる仮ピークPE0,PE1,PE2,PE3の時間方向における位置の平均をピークグループGRの位置P~Pとして演算する。この場合、複数の反射波Rにそれぞれ対応する複数の信号情報B,B,B,Bの仮ピークPE0,PE1,PE2,PE3に関するの情報が一つに纏められ、各ピークグループGRの時間方向における位置P~Pの間隔が、生体の動作の周期により近づくと考えられる。この結果、生体活動情報に対応する周波数帯域をさらに正確に抽出できる周波数フィルタが設定され得る。
【0189】
各信号情報B,B,B,Bは、反射波に対応する情報に短時間フーリエ変換を行った情報に対して、時間区分毎にスペクトル積分した情報である。この場合、信号情報からノイズが除去され得る。
【0190】
生体活動情報取得部67においてフィルタリング処理が行われる複数の信号情報の少なくとも1つに基づく情報は、複数の信号情報B,B,B,Bのうち少なくとも2つを組み合わせた情報である。この場合、ダイバーシチ効果などによって、信号情報におけるノイズがさらに低減され得る。
【0191】
生体活動情報取得部67においてフィルタリング処理が行われる複数の信号情報の少なくとも1つに関する情報は、複数の反射波Rが反射した位置のうち、検出対象の生体活動情報に対応する皮膚変動が最も大きい位置において反射した反射波Rに対応する信号情報Bに基づいている。この場合、生体活動情報の検出精度がさらに向上し得る。例えば、心拍を検出する場合には、心臓に近い位置において反射した反射波Rに対応する信号情報Bによれば、より心拍の検出精度が向上され得る。例えば、呼吸を検出する場合には、肺に近い位置において反射した反射波Rに対応する信号情報Bによれば、より呼吸の検出精度が向上され得る。
【0192】
次に、図16図17(a)から図17(b)、及び、図18(a)から図18(b)を参照して、上述した生体情報検出システム1及び処理S1から処理S33による生体情報検出方法の検証の一例を説明する。以下、上述した生体情報検出システム1を用いた生体情報検出方法、及び、処理S1から処理S33による生体情報検出方法を「本提案手法」という。
【0193】
本検証は、本提案方法による生体活動情報の検出結果と、比較例による生体活動情報の検出結果とを比較した。本検証において、生体活動情報の検出として、心拍の検出が行われた。信号制御部5として、マルチビームドップラーレーダーが用いられた。送信アンテナ23及び受信アンテナ31から生体までの距離は、1mであった。
【0194】
図16は、本提案方法による生体活動情報の検出結果を示している。図17(a)から図17(b)、及び、図18(a)から図18(b)は、比較例による生体活動情報の検出結果を示している。図16図17(a)から図17(b)、及び、図18(a)から図18(b)において、縦軸はRRI(R-R Interval)であり、横軸は時間である。
【0195】
本提案方法において、生体の対象部位は、基準点から上下方向に-1.59度から8.09度の方位に位置していると検出された。図16において示される検出結果は、本提案方法において検出された対象部位からの反射波Rを示す信号情報を基準信号情報とした。本検証において、基準点から3度の方位における反射波Rを示す信号情報が基準信号情報とされた。図17(a)において示される検出結果は、基準点から+30度の方位における反射波Rを示す信号情報が基準信号情報とされた。図17(b)において示される検出結果は、基準点から+15度の方位における反射波Rを示す信号情報が基準信号情報とされた。図18(a)において示される検出結果は、基準点から-30度の方位における反射波Rを示す信号情報が基準信号情報とされた。図18(b)において示される検出結果は、基準点から-15度の方位における反射波Rを示す信号情報が基準信号情報とされた。
【0196】
各検出結果において、データD1,D4,D7,D10,D13は、真値を示している。真値は、心電図による測定値である。
【0197】
各検証結果において、データD2,D5,D8,D11,D14は、各基準信号情報を用いて検出された生体活動情報に相当する。換言すれば、データD2,D5,D8,D11,D14は、それぞれの方位における反射波Rを示す信号情報のみを用いて検出された生体活動情報に相当する。例えば、データD5は、+30度の方位における反射波Rを示す信号情報のみを用いて検出された生体活動情報に相当する。各検証結果において、データD2,D5,D8,D11,D14は、各基準信号情報にビタビアルゴリズムが適用されている。各データD2,D5,D8,D11,D14は、周波数フィルタが適用されていないデータである。
【0198】
データD3,D6,D9,D12,D15は、それぞれ、データD2,D5,D8,D11,D14に周波数フィルタが適用されたデータである。周波数フィルタは、各データD3,D6,D9,D12,D15に対応する基準信号情報に基づいている。
【0199】
検出精度を示す指標として、“RMSE(Root Mean Squared Error)”が算出された。“RMSE”は、以下の式(1)によって求められる。
【数1】
【0200】
“N”は、観測されたRRIの数である。RRIest(n)は、n番目に推定されたRRIである。RRIref(n)は、真値としてn番目に測定されたBBIである。
【0201】
データD2において、RMSEは220msであった。データD3において、RMSEは126msであった。データD5において、RMSEは322msであった。データD6において、RMSEは131msであった。データD8において、RMSEは347msであった。データD9において、RMSEは146msであった。データD10において、RMSEは365msであった。データD11において、RMSEは131msであった。データD13において、RMSEは404msであった。データD14において、RMSEは178msであった。
【0202】
データD2と、データD5、D8、D11、及び、D14との比較によって、本提案方法によって検出された対象部位からの反射波Rを示す信号情報が基準信号情報として用いられた場合に、RRIの検出精度の向上が確認された。さらに、データD3と、データD6、D9、D12、及び、D15との比較によって、周波数フィルタが用いられた場合に、RRIの検出精度の向上が確認された。
【0203】
以上、本発明の実施形態及び変形例について説明してきたが、本発明は必ずしも上述した実施形態及び変形例に限定されるものではなく、その要旨を逸脱しない範囲で様々な変更が可能である。
【0204】
例えば、生体情報検出システム1は、MIMO FMCWレーダーに限らず、SIMO、MISOなどのレーダーであってもよい。生体情報検出システム1は、互いに異なる複数種のレーダーを含んでいてもよい。
【符号の説明】
【0205】
1…生体情報検出システム、12…信号受信部、41…情報取得部、67…生体活動情報取得部、82…格納部、81…深度画像取得部、83…部位検出部、94…モデル作成部、B,B,B,B,B…信号情報、H,H1,H2,H3,H4,H5,H6,J…特徴点、M…生体、R…反射波、V1…深度画像。
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14
図15
図16
図17
図18