IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ パナソニックIPマネジメント株式会社の特許一覧

特許7591743身体機能推定システム、身体機能推定方法、及び、プログラム
<>
  • 特許-身体機能推定システム、身体機能推定方法、及び、プログラム 図1
  • 特許-身体機能推定システム、身体機能推定方法、及び、プログラム 図2
  • 特許-身体機能推定システム、身体機能推定方法、及び、プログラム 図3
  • 特許-身体機能推定システム、身体機能推定方法、及び、プログラム 図4
  • 特許-身体機能推定システム、身体機能推定方法、及び、プログラム 図5
  • 特許-身体機能推定システム、身体機能推定方法、及び、プログラム 図6
  • 特許-身体機能推定システム、身体機能推定方法、及び、プログラム 図7
  • 特許-身体機能推定システム、身体機能推定方法、及び、プログラム 図8
  • 特許-身体機能推定システム、身体機能推定方法、及び、プログラム 図9
  • 特許-身体機能推定システム、身体機能推定方法、及び、プログラム 図10
  • 特許-身体機能推定システム、身体機能推定方法、及び、プログラム 図11
  • 特許-身体機能推定システム、身体機能推定方法、及び、プログラム 図12
  • 特許-身体機能推定システム、身体機能推定方法、及び、プログラム 図13
  • 特許-身体機能推定システム、身体機能推定方法、及び、プログラム 図14
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-11-21
(45)【発行日】2024-11-29
(54)【発明の名称】身体機能推定システム、身体機能推定方法、及び、プログラム
(51)【国際特許分類】
   A61B 5/11 20060101AFI20241122BHJP
【FI】
A61B5/11 230
【請求項の数】 12
(21)【出願番号】P 2023524062
(86)(22)【出願日】2022-03-29
(86)【国際出願番号】 JP2022015590
(87)【国際公開番号】W WO2022249746
(87)【国際公開日】2022-12-01
【審査請求日】2023-08-02
(31)【優先権主張番号】P 2021088873
(32)【優先日】2021-05-27
(33)【優先権主張国・地域又は機関】JP
(73)【特許権者】
【識別番号】314012076
【氏名又は名称】パナソニックIPマネジメント株式会社
(74)【代理人】
【識別番号】100109210
【弁理士】
【氏名又は名称】新居 広守
(74)【代理人】
【識別番号】100137235
【弁理士】
【氏名又は名称】寺谷 英作
(74)【代理人】
【識別番号】100131417
【弁理士】
【氏名又は名称】道坂 伸一
(72)【発明者】
【氏名】和田 健吾
(72)【発明者】
【氏名】樋山 貴洋
(72)【発明者】
【氏名】松村 吉浩
(72)【発明者】
【氏名】濱塚 太一
(72)【発明者】
【氏名】相原 貴拓
【審査官】村田 泰利
(56)【参考文献】
【文献】特開2019-204451(JP,A)
【文献】中国特許出願公開第108921062(CN,A)
【文献】特開2008-173250(JP,A)
【文献】国際公開第2016/139844(WO,A1)
【文献】特開2008-104667(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
A61B 5/00-5/22
(57)【特許請求の範囲】
【請求項1】
歩行するユーザを撮像した動画から当該ユーザの歩容特徴量を推定する第1推定部と、
身体機能を評価するための2以上の評価項目であって、FRT(Functional Reach Test)、開眼片足立ち、及び、閉眼片足立ちのうち少なくとも1つを含む2以上の評価項目それぞれの評価結果を、前記歩容特徴量に基づいて推定する第2推定部とを備え
前記第1推定部は、前記動画に映る前記ユーザの3次元骨格モデルを機械学習モデルに用いられるアルゴリズムを用いて特定し、特定された前記3次元骨格モデルの各骨格点の位置変化を用いて前記歩容特徴量を推定し、
前記第2推定部は、推定された前記歩容特徴量を学習済みモデルに入力して得られる当該学習済みモデルの出力を、前記2以上の評価項目それぞれの前記評価結果のスコアとして取得する
身体機能推定システム。
【請求項2】
前記第1推定部は、前記動画に映る前記ユーザから前記ユーザの骨格を推定し、推定した前記骨格に基づいて前記歩容特徴量を推定する
請求項1に記載の身体機能推定システム。
【請求項3】
前記ユーザは、マーカを身に着けており、
前記動画は、前記マーカを身に着けた状態で歩行する前記ユーザを撮像した動画であり、
前記第1推定部は、前記動画に映る前記マーカに基づいて前記歩容特徴量を推定する
請求項1に記載の身体機能推定システム。
【請求項4】
前記2以上の評価項目は、バランス系に関する第1項目を含み、
前記歩容特徴量は、歩行周期、歩行速度、ストライド長、歩幅、及び、歩隔の少なくとも1つを含み、
前記第2推定部は、当該少なくとも1つに基づいて前記第1項目を推定する
請求項1~3のいずれか1項に記載の身体機能推定システム。
【請求項5】
前記2以上の評価項目は、柔軟系に関する第2項目を含み、
前記歩容特徴量は、股関節角度、及び、膝関節角度の少なくとも1つを含み、
前記第2推定部は、当該少なくとも1つに基づいて前記第2項目を推定する
請求項1~4のいずれか1項に記載の身体機能推定システム。
【請求項6】
前記2以上の評価項目は、筋力系に関する第3項目を含み、
前記歩容特徴量は、歩行速度を含み、
前記第2推定部は、少なくとも前記歩行速度に基づいて前記第3項目を推定する
請求項1~5のいずれか1項に記載の身体機能推定システム。
【請求項7】
前記第2推定部は、前記評価結果として、前記2以上の評価項目それぞれのスコアを推定する
請求項1~6のいずれか1項に記載の身体機能推定システム。
【請求項8】
前記第2推定部は、さらに前記ユーザの生体特徴量に基づいて前記2以上の評価項目それぞれの評価結果を推定する
請求項1~7のいずれか1項に記載の身体機能推定システム。
【請求項9】
前記第2推定部は、さらに前記ユーザの歩行環境を示す環境特徴量に基づいて前記2以上の評価項目それぞれの評価結果を推定する
請求項1~8のいずれか1項に記載の身体機能推定システム。
【請求項10】
前記2以上の評価項目は、足関節可動域、FRT(Functional Reach Test)、開眼片足立ち、閉眼片足立ち、及び、TUG(Timed Up and Go)のうち少なくとも2つを含む
請求項1~9のいずれか1項に記載の身体機能推定システム。
【請求項11】
歩行するユーザを撮像した動画から当該ユーザの歩容特徴量を推定する第1推定部と、身体機能を評価するための2以上の評価項目であって、FRT(Functional Reach Test)、開眼片足立ち、及び、閉眼片足立ちのうち少なくとも1つを含む2以上の評価項目それぞれの評価結果を、前記歩容特徴量に基づいて推定する第2推定部とを備える身体機能推定システムが実行する身体機能推定方法であって、
前記第1推定部、及び、前記第2推定部は、プロセッサであり、
前記第1推定部が、歩行する前記ユーザを撮像した前記動画から当該ユーザの前記歩容特徴量を推定し、
前記第2推定部が、身体機能を評価するための前記2以上の評価項目であって、前記FRT、前記開眼片足立ち、及び、前記閉眼片足立ちのうち少なくとも1つを含む前記2以上の評価項目それぞれの前記評価結果を、前記歩容特徴量に基づいて推定し、
前記歩容特徴量の推定では、前記第1推定部が、前記動画に映る前記ユーザの3次元骨格モデルを機械学習モデルに用いられるアルゴリズムを用いて特定し、特定された前記3次元骨格モデルの各骨格点の位置変化を用いて前記歩容特徴量を推定し、
前記評価結果の推定では、前記第2推定部が、推定された前記歩容特徴量を学習済みモデルに入力して得られる当該学習済みモデルの出力を、前記2以上の評価項目それぞれの前記評価結果のスコアとして取得する
身体機能推定方法。
【請求項12】
請求項11に記載の身体機能推定方法をコンピュータに実行させるためのプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、身体機能推定システム、身体機能推定方法、及び、プログラムに関する。
【背景技術】
【0002】
従来、画像データに基づいて、転倒リスク等の身体機能を評価又は判定する方法が提案されている。例えば、特許文献1には、画像データを解析して歩行パラメータを算出し、歩行動作の評価に関する情報を演算する技術が開示されている。
【先行技術文献】
【特許文献】
【0003】
【文献】特開2016-140591号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
しかしながら、特許文献1に記載の方法では、身体機能を評価(例えば、歩行動作を評価)することはできるが、身体機能に問題がある場合にその要因まではわからない。
【0005】
そこで、本発明は、身体機能に問題がある場合にその要因を推定可能な身体機能推定システム、身体機能推定方法、及び、プログラムを提供する。
【課題を解決するための手段】
【0006】
本発明の一態様に係る身体機能推定システムは、歩行するユーザを撮像した動画から当該ユーザの歩容特徴量を推定する第1推定部と、身体機能を評価するための2以上の評価項目それぞれの評価結果を、前記歩容特徴量に基づいて推定する第2推定部とを備える。
【0007】
本発明の一態様に係る身体機能推定方法は、歩行するユーザを撮像した動画から当該ユーザの歩容特徴量を推定し、身体機能を評価するための2以上の評価項目それぞれの評価結果を、前記歩容特徴量に基づいて推定する。
【0008】
本発明の一態様に係るプログラムは、上記の身体機能推定方法をコンピュータに実行させるためのプログラムである。
【発明の効果】
【0009】
本発明の一態様によれば、身体機能に問題がある場合にその要因を推定可能な身体機能推定システム等を実現することができる。
【図面の簡単な説明】
【0010】
図1図1は、実施の形態に係る身体機能推定システムの概略構成を示す図である。
図2図2は、実施の形態に係る身体機能推定システムの機能構成を示すブロック図である。
図3図3は、実施の形態に係る身体機能推定システムの動作を示すフローチャートである。
図4図4は、実施の形態に係るモーションキャプチャと動画との骨格推定における相関関係を示す図である。
図5図5は、バランス能力を詳細化したサブシステムを示す図である。
図6図6は、実施の形態に係るモーションキャプチャと動画との股関節角度の推定における相関関係を示す図である。
図7図7は、実施の形態に係るモーションキャプチャと動画との膝関節角度の推定における相関関係を示す図である。
図8図8は、実施の形態に係る動画から歩行正常可動域を推定した場合の正解率を示す図である。
図9図9は、実施の形態に係るモーションキャプチャと動画とのFRTの推定における相関関係を示す図である。
図10図10は、実施の形態に係るモーションキャプチャと動画との開眼片足立ち時間の推定における相関関係を示す図である。
図11図11は、実施の形態に係るモーションキャプチャと動画との開眼/閉眼片足立ちの割合の推定における相関関係を示す図である。
図12図12は、実施の形態に係るモーションキャプチャと動画とのTUGの推定における相関関係を示す図である。
図13図13は、実施の形態に係るモーションキャプチャと動画との健常者又はMCIの推定(歩容特徴量:10個)における評価結果を示す図である。
図14図14は、実施の形態に係るモーションキャプチャと動画との健常者又はMCIの推定(歩容特徴量:歩行速度のみ)における評価結果を示す図である。
【発明を実施するための形態】
【0011】
以下、実施の形態について、図面を参照しながら具体的に説明する。
【0012】
なお、以下で説明する実施の形態は、いずれも包括的又は具体的な例を示すものである。以下の実施の形態で示される数値、形状、構成要素、構成要素の配置位置及び接続形態、ステップ、ステップの順序等は、一例であり、本発明を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、独立請求項に記載されていない構成要素については、任意の構成要素として説明される。
【0013】
また、各図は、模式図であり、必ずしも厳密に図示されたものではない。したがって、例えば、各図において縮尺等は必ずしも一致しない。また、各図において、実質的に同一の構成については同一の符号を付しており、重複する説明は省略又は簡略化する。
【0014】
また、本明細書において、同じ等の要素間の関係性を示す用語、並びに、数値、及び、数値範囲は、厳格な意味のみを表す表現ではなく、実質的に同等な範囲、例えば数%程度(例えば、5%程度)の差異をも含むことを意味する表現である。
【0015】
(実施の形態)
以下、本実施の形態に係る身体機能推定システムについて、図1図14を参照しながら説明する。
【0016】
[1.身体機能推定システムの構成]
まず、本実施の形態に係る身体機能推定システムの構成について、図1及び図2を参照しながら説明する。図1は、本実施の形態に係る身体機能推定システム1の概略構成を示す図である。
【0017】
図1に示すように、身体機能推定システム1は、撮像装置10と、ハブ20と、制御装置30と、ルータ40と、端末装置50とを備える。
【0018】
撮像装置10は、歩行するユーザUを撮像する。撮像装置10は、例えば、所定の距離を歩行するユーザUを撮像することで動画(映像)を取得する。所定の距離は、例えば、4m以上であるがこれに限定されない。
【0019】
撮像装置10は、介護施設、病院、オフィス、又は、公共機関等の建物に設置されるが、例えば、住宅に設置されてもよい。撮像装置10は、具体的には、セキュリティカメラ(監視カメラ)であるが、ドアホン(インターホン)のカメラであってもよい。身体機能推定システム1が備える撮像装置10の数は特に限定されず、複数の撮像装置10を備えていてもよい。撮像装置10は、モーションキャプチャシステムが備える複数のカメラであってもよい。
【0020】
なお、撮像装置10は、USB(Universal Serial Bus)カメラ、端末装置50が有するカメラ(例えば、タブレット搭載カメラ、スマートフォン搭載カメラ)等であってもよい。撮像装置10は、動画が撮像可能なカメラであればよい。撮像装置10は、固定されているカメラであってもよいし、携帯可能なカメラであってもよい。また、身体機能推定システム1は、撮像装置10に替えて、又は、撮像装置10とともに、歩容特徴量が取得可能なセンサを備えていてもよい。歩容特徴量が取得可能なセンサは、例えば、距離センサ、Wifiセンサ、加速度センサ等であるがこれに限定されない。
【0021】
なお、歩容とは、人が歩いている時の身体運動の様子であり、歩容を示す歩容特徴量には、歩行周期、歩行速度、ストライド長、歩幅、歩隔等が含まれる。また、歩容特徴量には、さらに、ストライド長、歩幅、歩隔それぞれを身長で除算した値等が含まれていてもよい。また、歩容特徴量には、ストライド長を歩幅で除算した値等が含まれていてもよい。
【0022】
ハブ20は、撮像装置10と、制御装置30と、ルータ40とを接続し、相互の通信を中継する。
【0023】
制御装置30は、撮像装置10が撮像した動画に基づいて、ユーザUの身体機能を推定する。制御装置30は、撮像装置10が撮像した動画に基づいて、ユーザUの歩容特徴量を推定し、推定した歩容特徴量に基づいて、身体機能を評価するための2以上の評価項目のスコアを推定する。2以上の評価項目の詳細は後述するが、身体の機能レベルと関連した評価項目である。2以上の評価項目は、例えば、バランス系、柔軟系、筋力系の少なくとも1つに対する評価項目を含む。以下では、2以上の評価項目のそれぞれがバランス系に対する評価項目である例について説明する。なお、スコアは、例えば、0~100までの数値であるが、これに限定されない。また、スコアは、評価項目ごとに正規化された値であってもよい。
【0024】
ルータ40は、ハブ20で接続されたネットワークと、端末装置50との通信を中継する。
【0025】
端末装置50は、表示部51と、受付部(図示しない)とを有し、ユーザU等に身体機能の推定結果等を表示させる、又は、ユーザU等から所定の情報の入力を受け付ける。所定の情報は、例えば、ユーザUの生体情報であってもよい。生体情報は、ユーザUの性別、身長、体重及び年齢の少なくとも1つを含む。生体情報は、ユーザUの身長及び体重等の身体情報を含むとも言える。
【0026】
表示部51は、例えば、液晶パネル、有機EL(Electro Luminescence)パネル等により実現され、ユーザに所定の情報を提示する提示部の一例である。提示部は、表示部51であることに限定されず、スピーカ等の出音部により実現されてもよい。また、受付部は、タッチパネル、ボタン等であるが、音声、ジェスチャ等によりユーザから情報を取得可能な構成を有していてもよい。
【0027】
端末装置50は、タブレット端末、スマートフォン等の携帯端末であるが、据え置き型の端末であってもよい。
【0028】
上記のように、身体機能推定システム1は、歩行するユーザUを撮像した動画に基づいて歩容特徴量を推定し、推定した歩容特徴量に基づいて身体機能を評価するための2以上の評価項目のスコアを推定する。身体機能推定システム1は、身体の機能レベルと関連した評価項目のスコアを歩容特徴量から推定する、つまり、ユーザU(例えば、高齢者)の虚弱状態を歩行から推定する。身体機能推定システム1は、例えば、虚弱状態が見えにくい元気な高齢者の身体機能を推定可能である。
【0029】
なお、身体機能推定システム1が備える各装置間の通信は、ハブ20、ルータ40等を介した通信であることに限定されず、各装置間の通信方法は特に限定されない。
【0030】
図2は、本実施の形態に係る身体機能推定システム1の機能構成を示すブロック図である。なお、図2では、図1に示すハブ20及びルータ40は、図示を省略している。
【0031】
図2に示すように、制御装置30は、取得部31と、解析部32と、推定部33と、提案部34と、出力部35とを有する。
【0032】
取得部31は、歩行するユーザUを撮像した動画を撮像装置10から取得する。取得部31は、通信回路を含んで構成される。
【0033】
解析部32は、取得部31が取得した動画に基づいて、ユーザUの歩容特徴量を推定する。具体的には、解析部32は、動画に基づいて、ユーザUの骨格を推定し、推定した骨格(骨格推定データ)に基づいて、ユーザUの歩容特徴量を推定する。
【0034】
解析部32は、歩行するユーザUを撮像した動画から当該ユーザUの歩容特徴量を推定する。解析部32は、例えば、動画に映るユーザUから当該ユーザUの骨格を推定し、推定した骨格に基づいて歩容特徴量を推定する。例えば、解析部32は、動画に映るユーザUの3次元骨格モデル(人の膝関節、股関節、くるぶし等の各関節の3次元座標データ)を既存のアルゴリズムを用いて特定し、3次元骨格モデルの各骨格点の位置変化を用いて歩容特徴量を特定(推定)する。なお、解析部32は、動画に映るユーザUの2次元骨格モデルを推定してもよい。解析部32は、第1推定部の一例である。
【0035】
既存のアルゴリズムは、機械学習モデルに用いられるアルゴリズムである。本実施の形態では、既存のアルゴリズムは、既存の骨格推定モデルであり、例えば、CNN(Convolutional Neural Network)に時系列性を持たせた学習済みモデルである。骨格推定モデルは、例えば、データセット「Human3.6」を用いて学習されている。また、骨格推定モデルは、例えば、25mm~30mm程度の誤差で骨格を検出可能に学習される。骨格推定モデルは、例えば、27フレーム分の動画を用いて学習されていてもよい。
【0036】
なお、解析部32は、モーションキャプチャにより取得された動画(例えば、複数の距離画像)に基づいて、歩容特徴量を推定してもよい。この場合、ユーザUは、マーカ(例えば、反射部材)を身に着けており、動画は、マーカを身に着けた状態で歩行するユーザUを撮像した動画である。そして、解析部32は、当該動画に映るマーカ(例えば、マーカの位置の時系列変化)に基づいて歩容特徴量を推定してもよい。
【0037】
推定部33は、身体機能を評価するための2以上の評価項目の評価結果を、解析部32が推定した歩容特徴量に基づいて推定する。推定部33は、例えば、解析部32が推定した歩容特徴量に基づいて、ユーザUの2以上の評価項目それぞれのスコアを推定する。具体的には、推定部33は、歩容特徴量を学習済みモデルに入力して得られる当該学習済みモデルの出力を、2以上の評価項目それぞれのスコアとして取得する。また、推定部33は、さらに、ユーザUの生体情報(生体特徴量)、及び、ユーザUの歩行環境を示す環境情報(環境特徴量)の少なくとも1つに基づいて、ユーザUの2以上の評価項目それぞれのスコアを推定してもよい。推定部33は、第2推定部の一例である。
【0038】
提案部34は、推定部33の推定結果に基づいて、身体機能の低下を抑制するためにユーザUに行う提案内容を決定する。提案部34は、2以上の評価項目それぞれのスコアに応じた提案内容を決定する。提案内容は、運動、食事、医療受診等を含む。提案部34は、2以上の評価項目それぞれのスコアと提案内容とが対応付けられたテーブルに基づいて、提案内容を決定する。これにより、身体機能推定システム1は、ユーザUに対して、介入効率が高い方法を提案することができる。
【0039】
出力部35は、推定部33の推定結果、提案部34の提案内容等を端末装置50に出力する。出力部35は、例えば、端末装置50の表示部51に表示させるための情報を出力する。出力部35は、通信回路を含んで構成される。
【0040】
[2.身体機能推定システムの動作]
続いて、上記のように構成される身体機能推定システム1の動作について、図3図5を参照しながら説明する。図3は、本実施の形態に係る身体機能推定システム1の動作を示すフローチャートである。
【0041】
図3に示すように、端末装置50は、生体情報及び環境情報を、受付部を介して取得する(S11)。端末装置50は、例えば、ユーザUから受付部を介して生体情報を取得する。また、端末装置50は、例えば、ユーザUが歩行する歩行面(例えば、路面)の状態、ユーザUの持ち物(例えば、鞄の有無)等の環境情報を取得する。
【0042】
次に、端末装置50は、取得した生体情報及び環境情報を制御装置30に出力し、制御装置30は、取得部31を介して生体情報及び環境情報を取得する(S12)。
【0043】
次に、端末装置50は、撮像装置10の動作指示を、受付部を介してユーザUから取得する(S13)。動作指示は、例えば、撮像を開始する指示を含む。
【0044】
次に、端末装置50は、取得した動作指示を撮像装置10に出力し、撮像装置10は、動作指示を取得する(S14)。
【0045】
次に、撮像装置10は、歩行するユーザUを撮像する(S15)。撮像装置10は、例えば、ユーザUが4m以上歩行する様子を撮像する。撮像装置10は、例えば、ユーザUの全身が映るように撮像する。
【0046】
次に、撮像装置10は、撮像により取得された動画を制御装置30に出力し、制御装置30は、取得部31を介して動画を取得する(S16)。制御装置30は、取得した動画を記憶部(図示しない)に保存する(S17)。
【0047】
次に、制御装置30の解析部32は、取得した動画に基づいてユーザUの骨格を推定する(S18)。制御装置30は、取得した動画を既存の骨格推定モデルに入力することで得られる出力を、3次元骨格モデルの各骨格点の位置として取得する。また、解析部32は、さらに、動画に映るユーザUの2次元骨格モデル(人の膝関節、股関節、くるぶし等の各関節の2次元座標データ)を既存のアルゴリズムを用いて取得してもよい。
【0048】
次に、制御装置30の解析部32は、3次元骨格モデルの各骨格点の位置変化を用いて、ユーザUの歩容特徴量を抽出する(S19)。解析部32は、3次元骨格モデルの各骨格点の位置変化を用いて、ユーザUの歩容特徴量を推定するとも言える。
【0049】
図4は、本実施の形態に係るモーションキャプチャと動画との骨格推定における相関関係を示す図である。図4では、モーションキャプチャにより取得されたユーザUの歩容特徴量と、動画からの3次元骨格モデルに基づいて取得された当該ユーザUの歩容特徴量とを1つの点として108人分の点をプロットし、かつ、相関係数(図中の「R」)を示す。なお、以下では、相関係数が0.5以上である場合に、相関があると判定している。
【0050】
図4の(a)は、モーションキャプチャにより取得されたユーザUの歩行速度と、3次元骨格モデルに基づくユーザUの歩行速度との相関関係を示す。相関係数R=0.86であり、モーションキャプチャにより取得された歩行速度と、3次元骨格モデルに基づいて取得された歩行速度とは、相関を有する。
【0051】
図4の(b)は、モーションキャプチャにより取得されたユーザUの歩幅と、3次元骨格モデルに基づくユーザUの歩幅との相関関係を示す。相関係数R=0.74であり、モーションキャプチャにより取得された歩幅と、3次元骨格モデルに基づいて取得された歩幅とは、相関を有する。
【0052】
図4の(c)は、モーションキャプチャにより取得されたユーザUの歩隔と、3次元骨格モデルに基づくユーザUの歩隔との相関関係を示す。相関係数R=0.48であり、モーションキャプチャにより取得された歩隔と、3次元骨格モデルに基づいて取得された歩隔とは、相関が弱い。
【0053】
図4の(d)は、モーションキャプチャにより取得されたユーザUの歩隔と、2次元骨格モデルに基づくユーザUの歩隔との相関関係を示す。相関係数R=0.85であり、モーションキャプチャにより取得された歩隔と、2次元骨格モデルに基づいて取得された歩隔とは、相関がある。このことから、歩幅を推定する場合には、2次元骨格モデルが用いられるとよい。
【0054】
このように、モーションキャプチャに基づく歩容特徴量と動画に基づく歩容特徴量とは相関があるので、モーションキャプチャにより取得された歩容特徴量を正解とすると、動画に基づいて歩容特徴量を推定可能であるといえる。
【0055】
なお、解析部32は、ステップS19において、さらに、推定した歩容特徴量のバラツキを示す情報を算出してもよい。バラツキを示す情報は、例えば、標準偏差である。解析部32は、動画に基づいて推定される歩容特徴量の値の時系列データに基づいて、バラツキを示す情報を算出する。解析部32は、歩容特徴量ごとに当該歩容特徴量のバラツキを算出する。バラツキを示す情報も、歩容特徴量に含まれる。つまり、本明細書における歩容特徴量には、歩行周期等の歩容の基本的な特徴量に加えて、当該歩容の基本的な特徴量のバラツキを示す情報(バラツキの特徴量)が含まれていてもよい。
【0056】
解析部32は、推定したユーザUの歩容特徴量を、推定部33に出力する。
【0057】
図3を再び参照して、次に、制御装置30の推定部33は、歩容特徴量を用いて、ユーザUの身体機能の評価項目のスコアを推定する(S20)。推定部33は、評価項目ごとに生成された学習済みモデルを用いて、評価項目ごとにスコアを推定する。
【0058】
ここで、推定部33が推定する評価項目について、図5を参照しながら説明する。図5は、バランス能力を詳細化したサブシステムを示す図である。図5では、サブシステムの項目と、項目それぞれの評価方法との関係を示す。バランス能力は、要介護、要支援の重要な因子となる転倒に関与している。図5に示すバランス能力を評価することで、転倒予防に関する有効な介入が可能となり、健康寿命の延伸への効果が期待される。また、図5に示す破線枠は、歩容特徴量から推定可能な項目である。
【0059】
なお、図5に示す6つの項目は、Dr Horakらにより提唱されている6つの要素を示す(出典:Horak FB., Wrisley DM., et al.:「The balance evaluation systems test (BESTest) to differentiate balance deficits. Phys Ther, 89.5: 484-498, 2009」を参照)。
【0060】
図5に示すように、バランス能力を詳細化したサブシステムの項目(第1項目の一例)は、生体力学的制約、安定性限界と垂直性、姿勢変化、予測的姿勢制御、感覚機能、及び、歩行安定性を含む。検証結果は後述するが、図5から以下のことが言える。
【0061】
生体力学的制約における評価方法のうち歩行の関節可動域は、歩容特徴量に基づいて推定可能である。具体的には、関節可動域として、股関節角度及び膝関節角度の推定が可能である。つまり、歩容特徴量に基づいて、生体力学的制約に関するスコアを推定可能である。なお、例えば、歩行速度が変化すると、股関節角度又は膝関節角度もそれに応じて変化する。例えば、歩行速度が遅いほど、股関節角度又は膝関節角度が小さくなる傾向がある。よって、歩容特徴量と股関節角度又は膝関節角度とは、相関があると考えられる。股関節角度又は膝関節角度は、足関節可動域の一例である。
【0062】
推定部33は、歩容特徴量を入力として股関節角度を出力するように機械学習により学習された第1学習済みモデルにユーザUの歩容特徴量を入力して得られる出力を、股関節角度の推定値として取得する。入力される歩容特徴量は、少なくとも歩行速度を含む。入力される歩容特徴量は、さらに、歩行周期と、ストライド長と、歩幅と、歩隔と、ストライド長、歩幅、歩隔それぞれを身長で除算した値と、ストライド長を歩幅で除算した値との少なくとも1つが含まれていてもよい。また、第1学習済みモデルにさらに生体情報及び環境情報の少なくとも1つが入力されてもよい。
【0063】
また、推定部33は、歩容特徴量を入力として膝関節角度を出力するように機械学習により学習された第2学習済みモデルにユーザUの歩容特徴量を入力して得られる出力を、膝関節角度の推定値として取得する。入力される歩容特徴量は、少なくとも歩行速度を含む。入力される歩容特徴量は、さらに、歩行周期と、ストライド長と、歩幅と、歩隔と、ストライド長、歩幅、歩隔それぞれを身長で除算した値と、ストライド長を歩幅で除算した値との少なくとも1つを含んでいてもよい。また、第2学習済みモデルにさらに生体情報及び環境情報の少なくとも1つが入力されてもよい。
【0064】
なお、第1学習済みモデル及び第2学習済みモデルに入力される情報(股関節角度又は膝関節角度に応じた入力情報)は、予め設定されており、例えば、記憶部に記憶されている。推定部33は、ステップS12で取得された生体情報及び環境情報と、ステップS19で取得された歩容特徴量とから、予め設定されている情報を入力情報として抽出し、抽出した入力情報を第1学習済みモデル及び第2学習済みモデルに入力する。第1学習済みモデル及び第2学習済みモデルに入力される情報は、同じであってもよいし、互いに異なっていてもよい。
【0065】
続いて、安定性限界と垂直性について説明する。安定性限界と垂直性における評価方法のうち前方ファンクショナルリーチ(FRT:Functional Reach Test)は、歩容特徴量に基づいて推定可能である。つまり、歩容特徴量に基づいて、安定性限界と垂直性に関するスコアを推定可能である。前方ファンクショナルリーチの推定には、例えば、身長及び歩行速度が重要であると考えられる。
【0066】
推定部33は、生体情報及び歩容特徴量を入力として前方ファンクショナルリーチの値を出力するように機械学習により学習された第3学習済みモデルにユーザUの生体情報(例えば、身体情報)、及び、ユーザUの歩容特徴量を入力して得られる出力を、前方ファンクショナルリーチの推定値として取得する。入力される生体情報は、少なくとも身長を含む。入力される生体情報は、さらに、性別、体重及び年齢の少なくとも1つを含んでいてもよい。また、入力される歩容特徴量は、少なくとも歩行速度を含む。入力される歩容特徴量は、さらに、歩行周期と、ストライド長と、歩幅と、歩隔と、ストライド長、歩幅、歩隔それぞれを身長で除算した値と、ストライド長を歩幅で除算した値との少なくとも1つを含んでいてもよい。また、第3学習済みモデルにさらに環境情報が入力されてもよい。
【0067】
なお、第3学習済みモデルに入力される情報(前方ファンクショナルリーチに応じた入力情報)は、予め設定されており、例えば、記憶部に記憶されている。推定部33は、ステップS12で取得された生体情報及び環境情報と、ステップS19で取得された歩容特徴量とから、予め設定されている情報を入力情報として抽出し、抽出した入力情報を第3学習済みモデルに入力する。
【0068】
続いて、姿勢変化について説明する。姿勢変化における評価方法のうち片足立ち(例えば、20秒以上が正常)は、歩容特徴量に基づいて推定可能である。つまり、歩容特徴量に基づいて、姿勢変化に関するスコアを推定可能である。本実施の形態では、姿勢変化に対する指標として開眼片足立ち時間を推定する。開眼片足立ち時間の推定には、例えば、身長及び歩行速度が重要であると考えられる。
【0069】
推定部33は、生体情報及び歩容特徴量を入力として開眼片足立ち時間を出力するように機械学習により学習された第4学習済みモデルにユーザUの生体情報(例えば、身体情報)、及び、ユーザUの歩容特徴量を入力して得られる出力を、開眼片足立ち時間の推定値として取得する。入力される生体情報は、少なくとも身長を含む。入力される生体情報は、さらに、性別、体重及び年齢の少なくとも1つを含んでいてもよい。また、入力される歩容特徴量は、少なくとも歩行速度を含む。入力される歩容特徴量は、さらに、歩行周期と、ストライド長と、歩幅と、歩隔と、ストライド長、歩幅、歩隔それぞれを身長で除算した値と、ストライド長を歩幅で除算した値との少なくとも1つを含んでいてもよい。
【0070】
また、入力される歩容特徴量は、さらに、歩容特徴量のバラツキを示す情報を含んでいてもよい。歩容特徴量のバラツキを示す情報は、入力される歩容特徴量の項目に応じた項目のバラツキを示す情報を含み、例えば、少なくとも歩行速度のバラツキを示す情報を含む。歩容特徴量のバラツキを示す情報は、さらに、歩行周期と、ストライド長と、歩幅と、歩隔と、ストライド長、歩幅、歩隔それぞれを身長で除算した値と、ストライド長を歩幅で除算した値との少なくとも1つのバラツキを示す情報を含んでいてもよい。また、第4学習済みモデルにさらに環境情報が入力されてもよい。
【0071】
なお、第4学習済みモデルに入力される情報(開眼片足立ち時間に応じた入力情報)は、予め設定されており、例えば、記憶部に記憶されている。推定部33は、ステップS12で取得された生体情報及び環境情報と、ステップS19で取得された歩容特徴量とから、予め設定されている情報を入力情報として抽出し、抽出した入力情報を第4学習済みモデルに入力する。
【0072】
続いて、感覚機能について説明する。感覚機能における評価方法のうち閉眼での傾斜台立位は、歩容特徴量に基づいて推定可能である。つまり、歩容特徴量に基づいて、感覚機能に関するスコアを推定可能である。本実施の形態では、感覚機能に対する指標として開眼/閉眼片足立ちの割合を推定する。開眼/閉眼片足立ちの割合は、開眼片足立ち時間及び閉眼片足立ち時間に基づく割合であり、例えば、log2(開眼片足立ち時間/閉眼片足立ち時間)で対数化した時間(片足立ち時間)であってもよい。開眼/閉眼片足立ちの割合の推定には、例えば、身長及び歩行速度が重要であると考えられる。
【0073】
推定部33は、生体情報及び歩容特徴量を入力として開眼/閉眼片足立ちの割合を出力するように機械学習により学習された第5学習済みモデルにユーザUの生体情報(例えば、身体情報)、及び、ユーザUの歩容特徴量を入力して得られる出力を、開眼/閉眼片足立ちの割合の推定値として取得する。入力される生体情報は、少なくとも身長を含む。入力される生体情報は、さらに、性別、体重及び年齢の少なくとも1つを含んでいてもよい。また、入力される歩容特徴量は、少なくとも歩行速度を含む。入力される歩容特徴量は、さらに、歩行周期と、ストライド長と、歩幅と、歩隔と、ストライド長、歩幅、歩隔それぞれを身長で除算した値と、ストライド長を歩幅で除算した値との少なくとも1つを含んでいてもよい。
【0074】
また、入力される歩容特徴量は、さらに、歩容特徴量のバラツキを示す情報を含んでいてもよい。歩容特徴量のバラツキを示す情報は、入力される歩容特徴量の項目に応じた項目のバラツキを示す情報を含み、例えば、少なくとも歩行速度のバラツキを示す情報を含む。歩容特徴量のバラツキを示す情報は、さらに、歩行周期と、ストライド長と、歩幅と、歩隔と、ストライド長、歩幅、歩隔それぞれを身長で除算した値と、ストライド長を歩幅で除算した値との少なくとも1つのバラツキを示す情報を含んでいてもよい。また、第5学習済みモデルにさらに環境情報が入力されてもよい。
【0075】
なお、第5学習済みモデルに入力される情報(開眼/閉眼片足立ちの割合に応じた入力情報)は、予め設定されており、例えば、記憶部に記憶されている。推定部33は、ステップS12で取得された生体情報及び環境情報と、ステップS19で取得された歩容特徴量とから、予め設定されている情報を入力情報として抽出し、抽出した入力情報を第5学習済みモデルに入力する。第5学習済みモデルに入力される入力情報は、第4学習済みモデルに入力される入力情報と同じであってもよい。
【0076】
なお、推定部33は、第4学習済みモデルの出力である開眼片足立ち時間の推定値と、生体情報及び歩容特徴量を入力として閉眼片足立ち時間を出力するように学習された学習済みモデルにユーザUの生体情報(例えば、身体情報)、及び、動画に基づいて取得されたユーザUの歩容特徴量を入力して得られる出力である閉眼片足立ち時間の推定値とに基づいて、開眼/閉眼片足立ちの割合を推定(例えば、算出)してもよい。
【0077】
続いて、歩行安定性について説明する。歩行安定性における評価方法のうちTUG(Timed Up to Go)は、歩容特徴量に基づいて推定可能である。また、歩容特徴量に基づいて、軽度認知障害(MCI:Mild Cognitive Impairment)であるか否かを推定可能である。本実施の形態では、TUG時間の推定値、及び、MCIの推定結果に基づいて、歩行安定性に関するスコアを推定する。つまり、歩容特徴量に基づいて、歩行安定性に関するスコアを推定可能である。TUG時間の推定には、例えば、年齢と、歩幅及びストライド長が重要であると考えられる。MCIの推定には、例えば、歩行速度が重要であると考えられるが、さらに、年齢も重要であると推測される。なお、MCIの推定結果は、健常者であるかMCIであるかを推定した結果である。
【0078】
推定部33は、生体情報及び歩容特徴量を入力としてTUGの時間を出力するように機械学習により学習された第6学習済みモデルにユーザUの生体情報(例えば、身体情報)、及び、動画に基づいて取得されたユーザUの歩容特徴量を入力して得られる出力を、TUGの推定値として取得する。入力される生体情報は、少なくとも年齢を含む。入力される生体情報は、さらに、性別、身長及び体重の少なくとも1つを含んでいてもよい。また、入力される歩容特徴量は、少なくとも歩幅及びストライド長を含む。入力される歩容特徴量は、さらに、歩行周期と、歩行速度と、歩隔と、ストライド長、歩幅、歩隔それぞれを身長で除算した値と、ストライド長を歩幅で除算した値との少なくとも1つを含んでいてもよい。また、第6学習済みモデルにさらに環境情報が入力されてもよい。
【0079】
なお、第6学習済みモデルに入力される情報(TUGに応じた入力情報)は、予め設定されており、例えば、記憶部に記憶されている。推定部33は、ステップS12で取得された生体情報及び環境情報と、ステップS19で取得された歩容特徴量とから、予め設定されている情報を入力情報として抽出し、抽出した入力情報を第6学習済みモデルに入力する。第6学習済みモデルに入力される入力情報は、第3学習済みモデルに入力される入力情報と同じであってもよい。
【0080】
また、推定部33は、生体情報及び歩容特徴量を入力としてMCIの判定結果を出力するように機械学習により学習された第7学習済みモデルにユーザUの生体情報(例えば、身体情報)、及び、動画に基づいて取得されたユーザUの歩容特徴量を入力して得られる出力を、MCIの推定結果として取得する。入力される生体情報は、性別、身長、体重及び年齢の少なくとも1つを含む。また、入力される歩容特徴量は、少なくとも歩行速度を含む。入力される歩容特徴量は、さらに、歩行周期と、ストライド長と、歩幅と、歩隔と、ストライド長、歩幅、歩隔それぞれを身長で除算した値と、ストライド長を歩幅で除算した値との少なくとも1つを含んでいてもよい。また、例えば、入力される歩容特徴量は、歩行速度のみであってもよい。また、第7学習済みモデルにさらに環境情報が入力されてもよい。
【0081】
なお、第7学習済みモデルに入力される情報(MCIに応じた入力情報)は、予め設定されており、例えば、記憶部に記憶されている。推定部33は、ステップS12で取得された生体情報及び環境情報と、ステップS19で取得された歩容特徴量とから、予め設定されている情報を入力情報として抽出し、抽出した入力情報を第7学習済みモデルに入力する。
【0082】
上記のように、推定部33は、推定する値(又は判定結果)に応じて予め機械学習により学習された学習済みモデル(機械学習モデル)を用いて、少なくとも歩容特徴量から、当該値(例えば、股関節角度等の上記で説明した値(又は判定結果))を推定する。
【0083】
なお、股関節角度及び膝関節角度の少なくとも1つ、FRT、開眼片足立ち時間、開眼/閉眼片足立ちの割合、TUG及びMCIの少なくとも1つは、身体機能の評価項目の一例である。推定部33は、5つの評価項目のうち少なくとも2つ以上の評価項目に対して、推定を行う。例えば、2以上の評価項目は、足関節可動域、FRT、開眼片足立ち、閉眼片足立ち、TUGの少なくとも2つを含んでいてもよい。また、推定部33は、推定値を評価項目のスコアとして推定してもよいし、推定値(又は推定結果)とスコアとが対応づけられたテーブルに基づいて推定値(又は推定結果)に対応する値をスコアとして推定してもよい。
【0084】
次に、推定部33は、身体機能の評価項目のスコアに基づいて、ユーザUの身体の機能レベルを推定する(S21)。推定部33は、バランス能力を詳細化したサブシステムの項目である生体力学的制約、安定性限界と垂直性、姿勢変化、感覚機能、及び、歩行安定性のそれぞれの機能レベルを推定する。推定部33は、例えば、股関節角度及び膝関節角度の少なくとも1つのスコアに基づいて、生体力学的制約に対する機能レベルを推定する。また、推定部33は、例えば、FRTのスコアに基づいて、安定性限界と垂直性に対する機能レベルを推定する。また、推定部33は、例えば、開眼片足立ち時間のスコアに基づいて、姿勢変化に対する機能レベルを推定する。また、推定部33は、例えば、開眼片足立ち時間のスコアに基づいて、予測的姿勢制御に対する機能レベルを推定してもよい。また、推定部33は、例えば、開眼/閉眼片足立ちの割合のスコアに基づいて、感覚機能に対する機能レベルを推定する。また、推定部33は、例えば、TUG及びMCIの少なくとも1つのスコアに基づいて、歩行安定性に対する機能レベルを推定する。機能レベルは、例えば、数値であってもよいし、段階的なレベルであってもよい。
【0085】
推定部33は、スコアと機能レベルとが対応付けられたテーブルに基づいて、機能レベルを推定するが、機能レベルの推定方法はこれに限定されない。
【0086】
推定部33は、推定したユーザUの身体の機能レベルを提案部34に出力する。
【0087】
次に、提案部34は、ユーザUの身体の機能レベルに基づいて、ユーザUに対する介入方法を決定する(S22)。
【0088】
次に、出力部35は、推定された身体の機能レベル、及び、決定された介入方法を端末装置50に出力し、端末装置50は、当該機能レベル及び介入方法を取得する(S23)。なお、ステップS23では、少なくとも介入方法が出力されればよい。
【0089】
次に、端末装置50は、身体の機能レベルと、介入方法とを表示部51に表示する(S24)。これにより、身体機能推定システム1は、端末装置50を介してユーザUに、当該ユーザUの歩容特徴量に応じた介入方法を知らせることができる。
【0090】
なお、上記のような身体の機能レベルの推定は、定期的に行われるとよい。2以上の評価項目は、例えば、ユーザUごとで毎回同じであってもよい。これにより、ユーザUの身体機能の変化(推移)を知ることができる。例えば、変化量が大きい評価項目に応じた介入方法が提案されてもよい。また、2以上の評価項目は、例えば、ユーザUの生体情報(例えば、年齢等)に基づいて、都度決定されてもよい。これにより、ユーザUの生体情報に基づいて決定される当該ユーザUの健康上の懸念に対する状況を、評価項目のスコアを確認することで知ることができる。
【0091】
[3.相関関係の検証]
以下では、動画に基づいて推定された歩容特徴量に基づいて各評価項目が推定可能であることについての検証について、図6図14を参照しながら説明する。
【0092】
まずは、評価項目の一例である、股関節角度及び膝関節角度の推定について、図6図8を参照しながら説明する。図6は、本実施の形態に係るモーションキャプチャと動画との股関節角度の推定における相関関係を示す図である。なお、図6及び図7では、モーションキャプチャにより取得されたユーザUの歩容特徴量に基づく評価項目の値と、動画からの3次元骨格モデルに基づいて取得された当該ユーザUの歩容特徴量に基づく評価項目の値との相関関係について説明する。
【0093】
図6では、モーションキャプチャにより取得されたユーザUの歩容特徴量に基づく股関節角度と、動画からの3次元骨格モデルに基づいて取得された当該ユーザUの歩容特徴量に基づく股関節角度とを1つの点として108人分の点をプロットし、かつ、相関係数(図中の「R」)を示す。
【0094】
具体的には、図6は、歩容特徴量を入力として股関節角度を出力するように学習された学習済みモデルにモーションキャプチャにより取得されたユーザUの歩容特徴量を入力して得られる股関節角度と、当該学習済みモデルに動画に基づいて取得されたユーザUの歩容特徴量を入力して得られる股関節角度とをプロットした図である。相関係数R=0.713であり、相関があるといえる。
【0095】
これは、モーションキャプチャにより取得されたユーザUの歩容特徴量を入力して得られる股関節角度を正解の股関節角度とする場合、動画に基づいて取得されたユーザUの歩容特徴量を入力して得られる股関節角度に基づいて、正解の股関節角度が算出可能であることを意味する。つまり、歩行しているユーザUを撮像した動画から、ユーザUの股関節角度が推定可能である。
【0096】
図7は、本実施の形態に係るモーションキャプチャと動画との膝関節角度の推定における相関関係を示す図である。
【0097】
図7では、モーションキャプチャにより取得されたユーザUの歩容特徴量に基づく膝関節角度と、動画からの3次元骨格モデルに基づいて取得された当該ユーザUの歩容特徴量に基づく膝関節角度とを1つの点として108人分の点をプロットし、かつ、相関係数(図中の「R」)を示す。
【0098】
具体的には、図7は、歩容特徴量を入力として膝関節角度を出力するように学習された学習済みモデルにモーションキャプチャにより取得されたユーザUの歩容特徴量を入力して得られる膝関節角度と、当該学習済みモデルに動画に基づいて取得されたユーザUの歩容特徴量を入力して得られる膝関節角度とをプロットした図である。相関係数R=0.577であり、相関があるといえる。
【0099】
これは、モーションキャプチャにより取得されたユーザUの歩容特徴量を入力して得られる膝関節角度を正解の膝関節角度とする場合、動画に基づいて取得されたユーザUの歩容特徴量を入力して得られる膝関節角度に基づいて、正解の膝関節角度が算出可能であることを意味する。つまり、歩行しているユーザUを撮像した動画から、ユーザUの膝関節角度が推定可能である。
【0100】
図8は、本実施の形態に係る動画から歩行正常可動域を推定した場合の正解率を示す図である。図8では、モーションキャプチャにより取得されたユーザUの歩容特徴量を入力して得られる股関節角度及び膝関節角度を正解とする場合の、動画に基づいて取得されたユーザUの歩容特徴量を入力して得られる股関節角度及び膝関節角度の推定値の正解率を示す。1σ(σは標準偏差)は、正解と推定値との差分が1σ以内であるものを正解とするときの正解率を示しており、2σは、正解と推定値との差分が2σ以内であるものを正解とするときの正解率を示している。
【0101】
図8に示すように、股関節角度及び膝関節角度とも、1σで約80%、2σで90%以上の確率で正解と近い値が推定できていることがわかる。
【0102】
上記のように、動画に基づいて推定された股関節角度及び膝関節角度と、モーションキャプチャに基づいて推定された股関節角度及び膝関節角度との相関があることから、動画に基づいて推定された歩容特徴量に基づいて、股関節角度及び膝関節角度が推定可能であると考えられる。
【0103】
以降では、FRT等について、図9図14を参照しながら説明する。ここで、図9図14では、モーションキャプチャにより取得されたユーザUの歩容特徴量に基づく評価項目の値と、評価項目の実測値との相関関係、及び、動画からの3次元骨格モデルに基づいて取得された当該ユーザUの歩容特徴量に基づく評価項目の値と、評価項目の実測値との相関関係の検証について説明する。なお、評価項目の実測値は、共通の値である。また、図9図14では、評価項目の推定に用いる学習済みモデルのアルゴリズムとして、「SVR Linear」、「SVR RBF」、「XGboost」及び「Random Forest」を用いて検証を行っているが、用いられるアルゴリズムは、これらに限定されない。学習済みモデルのアルゴリズムには、既存のあらゆるアルゴリズムが用いられてもよい。また、図9図14に示す[R]は相関係数を示しており、「MSE」は平均二乗誤差(Mean Square Error)を示している。
【0104】
次に、評価項目の一例である、FRTの推定について、図9を参照しながら説明する。図9は、本実施の形態に係るモーションキャプチャと動画とのFRTの推定における相関関係を示す図である。図9は、FRTを実施した106人分のデータに基づいて算出されている。
【0105】
なお、モーションキャプチャ及び動画とも、学習済みモデルには、入力情報として、性別と、身長と、体重と、年齢と、歩行周期と、歩行速度と、ストライド長と、歩幅と、歩隔と、ストライド長、歩幅、歩隔それぞれを身長で除算した値と、ストライド長を歩幅で除算した値とが入力された場合の結果を示す。
【0106】
図9に示すように、モーションキャプチャにおいては、アルゴリズムが「SVR Linear」、「XGboost」及び「Random Forest」の場合に相関があり、特に「SVR Linear」の場合に相関係数が最も高い。また、動画においては、アルゴリズムが「SVR Linear」及び「XGboost」の場合に相関があり、特に「SVR Linear」の場合に相関係数が最も高い。
【0107】
このことから、FRTを推定する場合、学習済みモデル(例えば、第3学習済みモデル)のアルゴリズムは、「SVR Linear」が用いられるとよい。なお、MSEにおいては、モーションキャプチャ及び動画において、同様の値となっている。
【0108】
次に、評価項目の一例である、開眼片足立ち時間の推定について、図10を参照しながら説明する。図10は、本実施の形態に係るモーションキャプチャと動画との開眼片足立ち時間の推定における相関関係を示す図である。図10は、開眼片足立ちを実施した108人分のデータに基づいて算出されている。また、図10は、歩行中のバラツキの成分(バラツキの特徴量)を入力情報に追加して、log2で対数化した開眼片足立ち時間の推定を行った結果である。
【0109】
なお、モーションキャプチャ及び動画とも、学習済みモデルには、入力情報として、性別と、身長と、体重と、年齢と、歩行周期と、歩行速度と、ストライド長と、歩幅と、歩隔と、ストライド長、歩幅、歩隔それぞれを身長で除算した値と、ストライド長を歩幅で除算した値とに加え、歩行周期、歩行速度と、ストライド長と、歩幅と、歩隔と、ストライド長、歩幅、歩隔それぞれを身長で除算した値と、ストライド長を歩幅で除算した値とのそれぞれのバラツキの特徴量が入力された場合の結果を示す。なお、バラツキの特徴量は、相関係数を向上させる目的で入力される。
【0110】
図10に示すように、モーションキャプチャにおいては、アルゴリズムが「SVR Linear」の場合の相関係数が最も高い。また、動画においては、アルゴリズムが「XGboost」の場合の相関係数が最も高い。
【0111】
なお、開眼片足立ち時間においては、相関係数が0.5未満となっているが、モーションキャプチャの場合と動画の場合とで、同様の相関係数が得られている。つまり、動画からでも、モーションキャプチャと同程度の精度の推定が行えている。
【0112】
このことから、開眼片足立ち時間を推定する場合、学習済みモデル(例えば、第4学習済みモデル)のアルゴリズムは、モーションキャプチャに基づく歩容特徴量が入力される場合には「SVR Linear」が用いられ、動画に基づく歩容特徴量が入力される場合には「XGboost」が用いられるとよい。なお、MSEにおいては、モーションキャプチャ及び動画において、同様の値となっている。
【0113】
次に、評価項目の一例である、開眼/閉眼片足立ちの割合の推定について、図11を参照しながら説明する。図11は、本実施の形態に係るモーションキャプチャと動画との開眼/閉眼片足立ちの割合の推定における相関関係を示す図である。図11は、開眼及び閉眼片足立ちを実施した108人分のデータに基づいて算出されている。また、図11は、歩行中のバラツキの成分(バラツキの特徴量)を入力情報に追加して、log2(開眼/閉眼)で対数化した片足立ち時間の推定を行った結果である。
【0114】
なお、モーションキャプチャ及び動画とも、学習済みモデルには、入力情報として、性別と、身長と、体重と、年齢と、歩行周期と、歩行速度と、ストライド長と、歩幅と、歩隔と、ストライド長、歩幅、歩隔それぞれを身長で除算した値と、ストライド長を歩幅で除算した値とに加え、歩行周期、歩行速度と、ストライド長と、歩幅と、歩隔と、ストライド長、歩幅、歩隔それぞれを身長で除算した値と、ストライド長を歩幅で除算した値とのそれぞれのバラツキの特徴量が入力された場合の結果を示す。なお、バラツキの特徴量は、相関係数を向上させる目的で入力される。
【0115】
図11に示すように、モーションキャプチャ及び動画とも、アルゴリズムが「Random Forest」の場合の相関係数が最も高い。なお、開眼/閉眼片足立ちの割合においては、相関係数が0.5未満となっているが、モーションキャプチャの場合と動画の場合とで、同様の相関係数が得られている。つまり、動画からでも、モーションキャプチャと同程度の精度の推定が行えている。
【0116】
このことから、開眼/閉眼片足立ちの割合を推定する場合、学習済みモデル(例えば、第5学習済みモデル)のアルゴリズムは、「Random Forest」が用いられるとよい。なお、MSEにおいては、モーションキャプチャ及び動画において、同様の値となっている。
【0117】
次に、評価項目の一例である、TUGの推定について、図12を参照しながら説明する。図12は、本実施の形態に係るモーションキャプチャと動画とのTUGの推定における相関関係を示す図である。図12は、TUGを実施した108人分のデータに基づいて算出されている。
【0118】
なお、モーションキャプチャ及び動画とも、学習済みモデルには、入力情報として、性別と、身長と、体重と、年齢と、歩行周期と、歩行速度と、ストライド長と、歩幅と、歩隔と、ストライド長、歩幅、歩隔それぞれを身長で除算した値と、ストライド長を歩幅で除算した値とが入力された場合の結果を示す。
【0119】
図12に示すように、モーションキャプチャにおいては、アルゴリズムが「SVR Linear」及び「Random Forest」の場合に相関がある。また、動画においては、アルゴリズムが「XGboost」及び「Random Forest」の場合に相関がある。
【0120】
モーションキャプチャ及び動画とも、アルゴリズムが「Random Forest」の場合に相関がある。つまり、モーションキャプチャ及び動画において、共通のアルゴリズムを用いることができる。
【0121】
このことから、TUGを推定する場合、学習済みモデル(例えば、第6学習済みモデル)のアルゴリズムは、「Random Forest」が用いられるとよい。なお、MSEにおいては、モーションキャプチャ及び動画において、同様の値となっている。
【0122】
次に、評価項目の一例である、健常者又はMCIの推定について、図13及び図14を参照しながら説明する。図13は、本実施の形態に係るモーションキャプチャと動画との健常者又はMCIの推定(歩容特徴量:10個)における評価結果(AUC:Area Under the Curve)を示す図である。図13は、MMSE(Mini-Mental State Examinaton)テストを実施した81人分のデータに基づいて算出されている。AUCは、2クラス分類の評価指標を示す。AUCが0.65以上である場合に、その推定方法は良い方法であると判定している。
【0123】
なお、モーションキャプチャ及び動画とも、学習済みモデルには、入力情報として、性別と、身長と、体重と、年齢と、歩行周期と、歩行速度と、ストライド長と、歩幅と、歩隔と、ストライド長、歩幅、歩隔それぞれを身長で除算した値と、ストライド長を歩幅で除算した値とが入力された場合の結果を示す。学習済みモデルは、入力情報に対して、健常者であるかMCIであるかの2値分類を行う。つまり、学習済みモデルは、ユーザUが健常者であるか、MCIであるかを出力する。
【0124】
図13に示すように、モーションキャプチャにおいては、アルゴリズムが「Random Forest」の場合にAUCが0.65以上ある。また、動画においては、AUCが0.65以上あるアルゴリズムがない。
【0125】
このことから、歩容特徴量として上記10個を入力して健常者又はMCIを推定する場合、入力情報はモーションキャプチャに基づいて推定された歩容特徴量を含み、学習済みモデル(例えば、第7学習済みモデル)のアルゴリズムは、「Random Forest」であるとよい。
【0126】
ここで、発明者らは、MCIの人の歩行速度が健常者の歩行速度よりも遅い傾向があることを発見し、歩容特徴量を歩行速度のみとした場合の健常者又はMCIの推定についての検証をさらに行った。以下では、検証結果について、図14を参照しながら説明する。図14は、本実施の形態に係るモーションキャプチャと動画との健常者又はMCIの推定(歩容特徴量:歩行速度のみ)における評価結果(AUC)を示す図である。
【0127】
図14に示すように、モーションキャプチャにおいては、アルゴリズムが「SVR RBF」及び「XGboost」の場合にAUCが0.65以上ある。また、動画においては、アルゴリズムが「XGboost」の場合にAUCが0.65以上ある。また、学習済みモデルに入力する歩容特徴量を歩行速度のみに減らすことで、モーションキャプチャ及び動画ともAUCが向上している。
【0128】
また、モーションキャプチャ及び動画とも、アルゴリズムが「XGboost」の場合にAUCが0.65以上ある。つまり、モーションキャプチャ及び動画において、共通のアルゴリズムを用いることができる。
【0129】
このことから、健常者又はMCIのいずれであるかを推定する場合、学習済みモデル(例えば、第7学習済みモデル)に入力される歩容特徴量は、歩行速度のみであるとよい。また、健常者又はMCIを推定する場合、学習済みモデルのアルゴリズムは、「XGboost」が用いられるとよい。なお、MSEにおいては、モーションキャプチャ及び動画において、同様の値となっている。
【0130】
上記で説明したように、歩容特徴量から評価項目の結果を推定することが可能である。
【0131】
[4.効果等]
以上のように、本発明の一態様に係る身体機能推定システム1は、歩行するユーザUを撮像した動画から当該ユーザUの歩容特徴量を推定する解析部32(第1推定部の一例)と、身体機能を評価するための2以上の評価項目それぞれの評価結果を、歩容特徴量に基づいて推定する推定部33(第2推定部の一例)とを備える。
【0132】
これにより、歩容特徴量に基づいて2以上の評価項目それぞれの評価結果(例えば、スコア)を取得することができる。例えば、身体機能に異常等があることが判明した場合、2以上の評価項目それぞれの評価結果を確認することで、どの評価項目に異常があるかを推定することができる。よって、身体機能推定システム1は、身体機能に問題がある場合にその要因を推定可能である。要因を推定可能であることで、ユーザUにより適した介入を行うことが期待される。
【0133】
また、解析部32は、動画に映るユーザUからユーザUの骨格を推定し、推定した骨格に基づいて歩容特徴量を推定してもよい。
【0134】
これにより、ユーザUが歩行する動画に基づいて、2以上の評価項目それぞれの評価結果を取得することができる。つまり、専用の機材等を準備することなく、容易に評価結果を取得することができる。
【0135】
また、ユーザUは、マーカを身に着けており、動画は、マーカを身に着けた状態で歩行するユーザUを撮像した動画である。そして、解析部32は、動画に映るマーカに基づいて歩容特徴量を推定してもよい。
【0136】
これにより、モーションキャプチャに基づいて取得された歩容特徴量を用いた場合であっても、身体機能に問題がある場合にその要因を推定可能である。
【0137】
また、2以上の評価項目は、バランス系に関する第1項目を含み、歩容特徴量は、歩行周期、歩行速度、ストライド長、歩幅、及び、歩隔の少なくとも1つを含んでもよい。そして、推定部33は、当該少なくとも1つに基づいて第1項目を推定してもよい。
【0138】
これにより、身体機能に問題がある場合に、その要因がバランス系にあるか否かを推定可能である。評価項目にバランス系に関する項目が含まれることで、バランス系に関してユーザUにより適した介入を行うことが期待される。
【0139】
また、2以上の評価項目は、柔軟系に関する第2項目を含み、歩容特徴量は、股関節角度、及び、膝関節角度の少なくとも1つを含んでもよい。そして、推定部33は、当該少なくとも1つに基づいて第2項目を推定してもよい。
【0140】
これにより、身体機能に問題がある場合に、その要因が柔軟系にあるか否かを推定可能である。評価項目に柔軟系に関する項目が含まれることで、柔軟系に関してユーザUにより適した介入を行うことが期待される。
【0141】
また、2以上の評価項目は、筋力系に関する第3項目を含み、歩容特徴量は、歩行速度を含んでいてもよい。そして、推定部33は、少なくとも歩行速度に基づいて第3項目を推定してもよい。
【0142】
これにより、身体機能に問題がある場合に、その要因が筋力系にあるか否かを推定可能である。評価項目に筋力系に関する項目が含まれることで、筋力系に関してユーザUにより適した介入を行うことが期待される。
【0143】
また、推定部33は、評価結果として、2以上の評価項目それぞれのスコアを推定する。
【0144】
これにより、評価結果を数値化することができる。スコアを見るだけで、要因を特定しやすくなる。
【0145】
また、推定部33は、さらにユーザUの生体特徴量に基づいて2以上の評価項目それぞれの評価結果を推定してもよい。
【0146】
これにより、ユーザUの生体特徴量にも応じて推定された評価結果を取得することができる。例えば、評価結果の精度の向上が期待される。
【0147】
また、推定部33は、さらにユーザUの歩行環境を示す環境特徴量に基づいて2以上の評価項目それぞれの評価結果を推定してもよい。
【0148】
これにより、ユーザUの環境特徴量にも応じて推定された評価結果を取得することができる。例えば、評価結果の精度の向上が期待される。
【0149】
また、2以上の評価項目は、足関節可動域、FRT、開眼片足立ち、閉眼片足立ち、及び、TUGのうち少なくとも2つを含む。
【0150】
これにより、バランス系の各評価項目の評価結果を推定可能である。バランス能力が低下している場合、その要因を詳細に推定することができる。
【0151】
また、本発明の一態様に係る身体機能推定方法は、歩行するユーザUを撮像した動画から当該ユーザUの歩容特徴量を推定し(S19)、身体機能を評価するための2以上の評価項目それぞれの評価結果を、歩容特徴量に基づいて推定する(S20)。また、本発明の一態様に係るプログラムは、上記に記載の身体機能推定方法をコンピュータに実行させるためのプログラムである。
【0152】
これにより、上記の身体機能推定システム1と同様の効果を奏する。
【0153】
(その他の実施の形態)
以上、一つ又は複数の態様に係る身体機能推定システム等について、実施の形態に基づいて説明したが、本発明は、この実施の形態に限定されるものではない。本発明の趣旨を逸脱しない限り、当業者が思いつく各種変形を本実施の形態に施したものや、異なる実施の形態における構成要素を組み合わせて構築される形態も、本発明に含まれてもよい。
【0154】
例えば、上記各実施の形態等では、身体機能の一例としてバランス能力を歩容特徴量に基づいて推定する例について説明したが、身体機能は、バランス能力に限定されない。身体機能は、例えば、筋力、柔軟等を含んでいてもよい。例えば、制御装置は、動画に映るユーザが歩行中に前方へ踏み出す脚の膝の曲げ角度に基づいて、当該ユーザの下肢筋力情報を推定してもよい。また、制御装置は、動画に映る歩行中のユーザが停止するときの歩行速度の変化に基づいて、当該人の下肢筋力情報を推定してもよい。このように、バランス能力以外の身体機能についても、歩容特徴量から推定されてもよい。
【0155】
例えば、身体機能の評価項目は、柔軟系に関する評価項目(第2項目の一例)を含み、歩容特徴量は、股関節角度、及び、膝関節角度の少なくとも1つを含み、推定部は、当該少なくとも1つに基づいて柔軟系に関する評価項目を推定してもよい。
【0156】
また、例えば、身体機能の評価項目は、筋力系に関する評価項目(第3項目の一例)を含み、歩容特徴量は、少なくとも歩行速度を含み、推定部は、当該少なくとも歩行速度に基づいて筋力系に関する評価項目を推定してもよい。
【0157】
また、上記実施の形態において説明されたフローチャートにおける各ステップ(処理)が実行される順序は、本発明を具体的に説明するために例示するためのものであり、上記以外の順序であってもよい。複数の処理の順序は、変更されてもよいし、複数の処理は、並行して実行されてもよい。また、特定の処理部が実行する処理を別の処理部が実行してもよい。また、上記ステップの一部が他のステップと同時(並列)に実行されてもよいし、上記ステップの一部は実行されなくてもよい。
【0158】
また、ブロック図における機能ブロックの分割は一例であり、複数の機能ブロックを一つの機能ブロックとして実現したり、一つの機能ブロックを複数に分割したり、一部の機能を他の機能ブロックに移してもよい。また、類似する機能を有する複数の機能ブロックの機能を単一のハードウェア又はソフトウェアが並列又は時分割に処理してもよい。
【0159】
また、上記実施の形態では、身体機能推定システムは、複数の装置によって実現されたが、単一の装置として実現されてもよい。身体機能推定システムが複数の装置によって実現される場合、身体機能推定システムが備える各構成要素は、複数の装置にどのように振り分けられてもよい。
【0160】
また、上記実施の形態では、制御装置は、単数の装置によって実現されたが、複数の装置として実現されてもよい。制御装置が複数の装置によって実現される場合、制御装置が備える各構成要素は、複数の装置にどのように振り分けられてもよい。なお、当該複数の装置間の通信方法は、特に限定されず、無線通信であってもよいし、有線通信であってもよいし、無線通信及び有線通信が組み合わされてもよい。
【0161】
また、上記実施の形態等において、各構成要素は、専用のハードウェアで構成されるか、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPU又はプロセッサ等のプログラム実行部が、ハードディスク又は半導体メモリ等の記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。
【0162】
また、上記実施の形態等で説明した各構成要素は、ソフトウェアとして実現されても良いし、典型的には、集積回路であるLSIとして実現されてもよい。これらは、個別に1チップ化されてもよいし、一部又は全てを含むように1チップ化されてもよい。ここでは、LSIとしたが、集積度の違いにより、IC、システムLSI、スーパーLSI、ウルトラLSIと呼称されることもある。また、集積回路化の手法はLSIに限るものではなく、専用回路又は汎用プロセッサで実現してもよい。LSI製造後に、プログラムすることが可能なFPGA(Field Programmable Gate Array)又は、LSI内部の回路セルの接続若しくは設定を再構成可能なリコンフィギュラブル・プロセッサを利用してもよい。更には、半導体技術の進歩又は派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて構成要素の集積化を行ってもよい。
【0163】
システムLSIは、複数の処理部を1個のチップ上に集積して製造された超多機能LSIであり、具体的には、マイクロプロセッサ、ROM(Read Only Memory)、RAM(Random Access Memory)等を含んで構成されるコンピュータシステムである。ROMには、コンピュータプログラムが記憶されている。マイクロプロセッサが、コンピュータプログラムに従って動作することにより、システムLSIは、その機能を達成する。
【0164】
また、本発明の全般的又は具体的な態様は、システム、装置、方法、集積回路、コンピュータプログラム又はコンピュータ読み取り可能なCD-ROM等の記録媒体で実現されてもよい。また、システム、装置、方法、集積回路、コンピュータプログラム及び記録媒体の任意な組み合わせで実現されてもよい。例えば、本発明は、上記実施の形態の身体機能推定方法をコンピュータに実行させるためのプログラムとして実現されてもよいし、このようなプログラムが記憶された、コンピュータ読み取り可能な非一時的な記録媒体として実現されてもよい。例えば、そのようなプログラムを記録媒体に記録して頒布又は流通させてもよい。例えば、頒布されたプログラムを、他のプロセッサを有する装置にインストールして、そのプログラムをそのプロセッサに実行させることで、その装置に、上記各処理を行わせることが可能となる。
【符号の説明】
【0165】
1 身体機能推定システム
32 解析部(第1推定部)
33 推定部(第2推定部)
U ユーザ
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14