IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 株式会社アシックスの特許一覧

特開2024-164991姿勢推定装置、姿勢推定システム、および姿勢推定方法
<>
  • 特開-姿勢推定装置、姿勢推定システム、および姿勢推定方法 図1
  • 特開-姿勢推定装置、姿勢推定システム、および姿勢推定方法 図2
  • 特開-姿勢推定装置、姿勢推定システム、および姿勢推定方法 図3
  • 特開-姿勢推定装置、姿勢推定システム、および姿勢推定方法 図4
  • 特開-姿勢推定装置、姿勢推定システム、および姿勢推定方法 図5
  • 特開-姿勢推定装置、姿勢推定システム、および姿勢推定方法 図6
  • 特開-姿勢推定装置、姿勢推定システム、および姿勢推定方法 図7
  • 特開-姿勢推定装置、姿勢推定システム、および姿勢推定方法 図8
  • 特開-姿勢推定装置、姿勢推定システム、および姿勢推定方法 図9
  • 特開-姿勢推定装置、姿勢推定システム、および姿勢推定方法 図10
  • 特開-姿勢推定装置、姿勢推定システム、および姿勢推定方法 図11
  • 特開-姿勢推定装置、姿勢推定システム、および姿勢推定方法 図12
  • 特開-姿勢推定装置、姿勢推定システム、および姿勢推定方法 図13
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024164991
(43)【公開日】2024-11-28
(54)【発明の名称】姿勢推定装置、姿勢推定システム、および姿勢推定方法
(51)【国際特許分類】
   A61B 5/11 20060101AFI20241121BHJP
【FI】
A61B5/11 200
A61B5/11 230
【審査請求】未請求
【請求項の数】10
【出願形態】OL
(21)【出願番号】P 2023080778
(22)【出願日】2023-05-16
(71)【出願人】
【識別番号】000000310
【氏名又は名称】株式会社アシックス
(74)【代理人】
【識別番号】110001195
【氏名又は名称】弁理士法人深見特許事務所
(72)【発明者】
【氏名】岡本 利彰
(72)【発明者】
【氏名】阿部 悟
(72)【発明者】
【氏名】山縣 俊亮
(72)【発明者】
【氏名】阪口 正律
【テーマコード(参考)】
4C038
【Fターム(参考)】
4C038VA04
4C038VA12
4C038VB01
4C038VB14
4C038VB35
4C038VC20
(57)【要約】
【課題】日常的に継続して全身姿勢を把握することが可能な姿勢推定装置、姿勢推定システム、および姿勢推定方法を提供する。
【解決手段】姿勢推定装置10は、被測定者Pに取り付けられ、被測定者Pの少なくとも一箇所の3軸の加速度および3軸の角速度に基づく歩行データを取得する少なくとも1つのセンサモジュール21と、機械学習により訓練済みの推定モデルを用いて、センサモジュール21で取得した歩行データから所定動作時の被測定者Pの全身姿勢を推定する演算装置1と、演算装置1で推定した被測定者Pの全身姿勢の推定データを出力する出力インターフェースと、を備える。推定モデルは、所定動作時にセンサモジュール21で取得した歩行データと、当該歩行データを取得したタイミングの被測定者Pの全身姿勢を測定した姿勢データとに基づき機械学習による訓練であらかじめ生成される。
【選択図】図1
【特許請求の範囲】
【請求項1】
所定動作時の被測定者の全身姿勢を推定する姿勢推定装置であって、
前記被測定者に取り付けられ、前記被測定者の少なくとも一箇所の3軸の加速度および3軸の角速度に基づく測定データを取得する少なくとも1つのセンサと、
機械学習により訓練済みの推定モデルを用いて、前記センサで取得した前記測定データから前記所定動作時の前記被測定者の全身姿勢を推定する演算回路と、
前記演算回路で推定した前記被測定者の全身姿勢の推定データを出力する出力装置と、を備え、
前記推定モデルは、
前記所定動作時に前記センサで取得した前記測定データと、当該測定データを取得したタイミングの前記被測定者の全身姿勢を測定した姿勢データとに基づき機械学習による訓練であらかじめ生成される、姿勢推定装置。
【請求項2】
前記推定モデルは、前記姿勢推定装置を使用する前記被測定者毎に機械学習による再訓練が行われる、請求項1に記載の姿勢推定装置。
【請求項3】
前記所定動作は、前記センサを取り付けた前記被測定者の箇所の動きに、前記被測定者の全身が連動する動作である、請求項1に記載の姿勢推定装置。
【請求項4】
前記センサは、前記被測定者が使用する靴に設けられる、請求項1~請求項3のいずれか1項に記載の姿勢推定装置。
【請求項5】
前記センサは、3軸の加速度および3軸の角速度から求めた前記被測定者の歩行または走行に基づく複数のパラメータを前記測定データとして取得する、請求項4に記載の姿勢推定装置。
【請求項6】
前記被測定者の歩行または走行に基づく前記複数のパラメータは、ストライド、ピッチ、歩行速度または走行速度、一歩にかかる時間、立脚期期間、遊脚期期間、接地時のつま先角度、プロネーション、最大足高さ、および着地衝撃のうち少なくとも1つのパラメータを含む、請求項5に記載の姿勢推定装置。
【請求項7】
前記姿勢データを測定する測定装置と、
請求項1~請求項3のいずれか1項に記載の前記姿勢推定装置と、を備え、
機械学習による前記推定モデルの訓練を行う際に前記測定装置で測定した前記姿勢データを使用する、姿勢推定システム。
【請求項8】
前記測定装置は、モーションキャプチャーカメラであり、
前記姿勢データは、前記モーションキャプチャーカメラを用いて取得した骨格座標データである、請求項7に記載の姿勢推定システム。
【請求項9】
前記骨格座標データを主成分分析により次元圧縮して、機械学習による前記推定モデルの訓練を行う、請求項8に記載の姿勢推定システム。
【請求項10】
所定動作時の被測定者の全身姿勢を推定する姿勢推定方法であって、
前記被測定者に取り付けられた少なくとも1つのセンサから、前記被測定者の少なくとも一箇所の3軸の加速度および3軸の角速度に基づく測定データを取得するステップと、
機械学習により訓練済みの推定モデルを用いて、前記センサで取得した前記測定データから前記所定動作時の前記被測定者の全身姿勢を推定するステップと、
推定した前記被測定者の全身姿勢の推定データを出力するステップと、を含み、
前記推定モデルは、所定動作時に前記センサで取得した前記測定データと、当該測定データを取得したタイミングの前記被測定者の全身姿勢を測定した姿勢データとに基づき機械学習による訓練であらかじめ生成される、姿勢推定方法。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、姿勢推定装置、姿勢推定システム、および姿勢推定方法に関する。
【背景技術】
【0002】
歩行やランニングのフォームを改善するためには、継続して歩行時やランニング時の全身姿勢を計測することが必要になる。また、歩行時の姿勢から精神疾患を検知したり、転倒リスクを推定したりする研究も行われており、これらの研究においては歩行時の姿勢を日常的に計測することが必要になる。全身姿勢を計測する方法として、モーションキャプチャを用いる方法、動画像を用いる方法、ウェアラブルデバイスを用いる方法などが知られている。
【0003】
たとえば、特開2023-16825号公報(特許文献1)には、ウェアラブルデバイスを用いて全身姿勢を計測するシステムが開示されている。このシステムでは、被測定者の身体の6箇所の部位、具体的に身体の基準となる関節部位(たとえば腰や頭部)、あるいは身体の末端近傍(手首、足首、頭部等)に6つのセンサ装置を装着し、当該センサ装置からの測定値に基づいて全身姿勢を計測している。
【先行技術文献】
【特許文献】
【0004】
【特許文献1】特開2023-16825号公報
【発明の概要】
【発明が解決しようとする課題】
【0005】
しかし、モーションキャプチャを用いる方法や動画像を用いる方法では、全身を常に撮影範囲に含めて撮影を継続する必要があり、日常的に継続して全身姿勢を把握するために全身を常に撮影範囲に含めて撮影し続けることは困難であった。一方、ウェアラブルデバイスを用いる方法では、被測定者にウェアラブルデバイスを装着させることで姿勢を計測することができるので、日常的に継続して姿勢を把握することに適しているが、ウェアラブルデバイスを装着した部位を含む部分的な姿勢を把握することしかできない。そのため、ウェアラブルデバイスを用いて全身姿勢を把握するためには、特開2020-120908号公報(特許文献1)で示されているように身体の関節部位や末端近傍に多くのセンサ装置を装着する必要があり、日常的に継続して全身姿勢を把握するために多くのセンサを装着し続けることは困難であった。
【0006】
本開示は、かかる問題を解決するためになされたものであり、その目的は、日常的に継続して全身姿勢を把握することが可能な姿勢推定装置、姿勢推定システム、および姿勢推定方法を提供することである。
【課題を解決するための手段】
【0007】
本開示のある局面に従う姿勢推定装置は、所定動作時の被測定者の全身姿勢を推定する姿勢推定装置である。姿勢推定装置は、被測定者に取り付けられ、被測定者の少なくとも一箇所の3軸の加速度および3軸の角速度に基づく測定データを取得する少なくとも1つのセンサと、機械学習により訓練済みの推定モデルを用いて、センサで取得した測定データから所定動作時の被測定者の全身姿勢を推定する演算回路と、演算回路で推定した被測定者の全身姿勢の推定データを出力する出力装置と、を備える。推定モデルは、所定動作時にセンサで取得した測定データと、当該測定データを取得したタイミングの被測定者の全身姿勢を測定した姿勢データとに基づき機械学習による訓練であらかじめ生成される。
【0008】
本開示のある局面に従う姿勢推定システムは、姿勢データを測定する測定装置と、上記の姿勢推定装置と、を備え、機械学習による推定モデルの訓練を行う際に測定装置で測定した姿勢データを使用する。
【0009】
本開示のある局面に従う姿勢推定方法は、所定動作時の被測定者の全身姿勢を推定する姿勢推定方法である。姿勢推定方法は、被測定者に取り付けられた少なくとも1つのセンサから、被測定者の少なくとも一箇所の3軸の加速度および3軸の角速度に基づく測定データを取得するステップと、機械学習により訓練済みの推定モデルを用いて、センサで取得した測定データから所定動作時の被測定者の全身姿勢を推定するステップと、推定した被測定者の全身姿勢の推定データを出力するステップと、を含む。推定モデルは、所定動作時にセンサで取得した測定データと、当該測定データを取得したタイミングの被測定者の全身姿勢を測定した姿勢データとに基づき機械学習による訓練であらかじめ生成される。
【発明の効果】
【0010】
本開示によれば、機械学習により訓練済みの推定モデルを用いて、センサで取得した測定データから所定動作時の被測定者の全身姿勢を推定するので、少ない数のセンサで日常的に継続して全身姿勢を把握することが可能となる。
【図面の簡単な説明】
【0011】
図1】実施の形態に係る姿勢推定装置を含む姿勢推定システムの構成を示す概略図である。
図2】実施の形態に係るスマートシューズを説明するための模式図である。
図3】実施の形態に係る姿勢推定装置の構成を示すブロック図である。
図4】実施の形態に係る姿勢推定システムで実行する姿勢推定方法の処理を説明するためのフローチャートである。
図5】実施の形態に係る姿勢推定システムでの訓練フェーズおよび運用フェーズを模式化した図を示す。
図6】実施の形態に係る姿勢推定システムでのキャリブレーションフェーズを模式化した図を示す。
図7】1歩行周期を説明するための概略図である。
図8】実施の形態に係る姿勢推定システムでの推定モデルの演算を模式化した図である。
図9】実施の形態に係る姿勢推定装置で推定した全身の骨格座標データを正面から表示した図である。
図10】実施の形態に係る姿勢推定装置で推定した全身の骨格座標データを側面から表示した図である。
図11】実施の形態に係る姿勢推定装置で推定した腕の骨格座標データの1歩行周期での誤差の変化を示すグラフである。
図12】実施の形態に係る姿勢推定装置で推定した下半身の骨格座標データの1歩行周期での誤差の変化を示すグラフである。
図13】実施の形態に係る姿勢推定装置で推定した頭の骨格座標データの1歩行周期での誤差の変化を示すグラフである。
【発明を実施するための形態】
【0012】
本開示では、靴に設けたセンサの情報から所定動作(たとえば、歩行動作、ランニング動作(走行動作))時の全身姿勢を推定することができる姿勢推定装置、姿勢推定システム、および姿勢推定方法を提供する。以下の説明では、センサを靴に設け、歩行時の全身姿勢を推定する場合について説明するが、推定する全身姿勢の動作は歩行時に限定されず、センサを装着する位置は靴に限定されない。特に、センサを装着する部位および個数は、日常的に継続して測定することが被測定者に負担とならない部位、個数であることが好ましい。たとえば、両腕にそれぞれセンサを装着したり、片腕と腰にそれぞれセンサを装着したり、さらに片腕と靴とのそれぞれセンサを装着したりしてもよい。そのため、本開示に係る姿勢推定装置、姿勢推定システム、および姿勢推定方法では、日常の活動における被測定者の負担を軽減しつつ、所定動作時の全身姿勢を把握することができ、歩行やランニングのフォームの改善などに利用することができる。
【0013】
以下、実施の形態に係る姿勢推定装置、姿勢推定システム、および姿勢推定方法について図面に基づいて説明する。以下の説明では、同一の構成には同一の符号を付してある。それらの名称および機能も同じである。したがって、それらについての詳細な説明は繰り返さない。
【0014】
(実施の形態)
[姿勢推定システムの構成]
図1は、実施の形態1に係る姿勢推定装置10を含む姿勢推定システム100の構成を示す概略図である。姿勢推定装置10は、測定データから所定動作時の全身姿勢を推定する演算装置1(演算回路の一例)と、被測定者Pの歩行時または走行時の動きを測定するセンサを含むスマートシューズ2とを含む。姿勢推定システム100は、姿勢推定装置10と、所定動作時の全身姿勢を推定する推定モデルを機械学習により訓練するために必要になる姿勢データを取得するための測定装置3と、を含む。
【0015】
姿勢推定装置10は、スマートシューズ2で測定した被測定者Pの歩行データ(測定データの一例)から歩行時の被測定者Pの全身姿勢を推定するために、機械学習の訓練によりあらかじめ生成され推定モデルを含む。言い換えると、当該推定モデルは、歩行データから歩行時の被測定者Pの全身姿勢の推定より前に、機械学習の訓練により生成されている。そのため、姿勢推定システム100では、推定モデルを訓練するため、歩行時にスマートシューズ2で測定した歩行データと、当該歩行データの測定時の全身姿勢を測定装置3で取得した姿勢データとを対応付けた訓練データを、複数の被測定者について集めておく。本開示では、姿勢推定システム100で複数の被測定者の訓練データを用いて推定モデルを訓練し、訓練後の推定モデルを使って被測定者Pの全身姿勢を推定する姿勢推定装置10の例を説明する。
【0016】
なお、姿勢推定装置10は、属性(たとえば、性別、年代、人種など)に関係なく選んだ複数の被測定者の訓練データで訓練した推定モデルを使用してもよいし、属性ごとの被測定者の訓練データで訓練した推定モデルを使用してもよい。つまり、姿勢推定装置10は、被測定者Pの全身姿勢を推定する場合に、被測定者Pの属性に応じて適切な推定モデルを選択する構成でもよい。また、後述するように、姿勢推定システム100は、複数の被測定者の訓練データで訓練した推定モデルを、被測定者Pの個別の訓練データでキャリブレーションを行い、パーソナライズされた推定モデルを生成してもよい。
【0017】
まず、姿勢推定システム100において、歩行時または走行時の動作を測定するセンサを含むスマートシューズ2について説明する。図2は、実施の形態に係るスマートシューズ2を説明するための模式図である。図2に図示されているスマートシューズ2には、センサモジュール21(センサの一例)が組み込まれており、当該センサモジュール21で被測定者Pの歩行データを測定する。
【0018】
センサモジュール21は、図示していないが、加速度センサ、角速度センサ、これらのセンサの測定値から歩行パラメータを演算する演算回路、演算回路で演算した歩行パラメータや測定値を演算装置1に無線で送信するための通信回路などを含んでいる。なお、加速度センサは、たとえば、X,Y,Zの3軸の加速度を測定でき、角速度センサは、たとえば、X,Y,Zの3軸それぞれの角速度を測定できる。そのため、センサモジュール21は、被測定者Pの歩行データとして、加速度センサの測定値および角速度センサの測定値に基づいて、ストライド、ピッチ、歩行速度、一歩にかかる時間、立脚期期間、遊脚期期間、接地時のつま先角度、プロネーション、最大足高さ、および着地衝撃の歩行パラメータを得ることができる。ここで、着地衝撃は、着地時において足に加わる衝撃であり、着地時の鉛直方向の加速度の最大値で評価する歩行パラメータの一例である。なお、センサモジュール21は、被測定者Pの走行時、走行データとして、加速度センサの測定値および角速度センサの測定値に基づいて、ストライド、ピッチ、走行速度、一歩にかかる時間、立脚期期間、遊脚期期間、接地時のつま先角度、プロネーション、最大足高さ、および着地衝撃の走行パラメータを得ることができる。
【0019】
センサモジュール21から演算装置1への歩行パラメータなどのデータ移行は、無線による通信で行うと説明したが、これに限られない。たとえば、センサモジュール21から演算装置1への歩行パラメータなどのデータ移行を有線による通信で行っても、記録媒体(たとえば、メモリチップ,USBメモリなど)で行ってもよい。
【0020】
また、センサモジュール21は、加速度センサの測定値および角速度センサの測定値から歩行パラメータを演算すると説明したが、これに限られない。たとえば、センサモジュール21は、加速度センサの測定値(3軸の加速度の値)および角速度センサの測定値(3軸の角速度の値)を演算装置1へ送信するだけでもよく、演算装置1がセンサモジュール21より取得した加速度センサの測定値および角速度センサの測定値から歩行パラメータを演算してもよい。
【0021】
本開示では、歩行データを測定するセンサモジュール21を靴に組み込んだスマートシューズ2を一例として以下説明するが、被測定者Pの歩行データを測定するセンサモジュール21をサポータ等で被測定者Pの脚に直接取り付けてもよい。さらに、センサモジュール21は、3軸の加速度を測定できる加速度センサおよび3軸の角速度を測定できる角速度センサを有するスマートフォンやスマートウォッチなどの携帯機器あってもよい。
【0022】
姿勢推定システム100では、訓練データとして歩行データと、当該歩行データの測定時において測定した全身姿勢の姿勢データとを必要とするので、当該姿勢データを取得するために測定装置3を用いている。測定装置3は、モーションキャプチャーカメラ(たとえば、Vicon(登録商標),Kinect(登録商標)など)であり、モーションキャプチャーカメラを用いて被測定者Pの歩行時の骨格座標データ(姿勢データの一例)を取得する。なお、測定装置3は、モーションキャプチャーカメラに限定されず、被測定者Pの歩行時の動画像から姿勢データを取得する構成でも、モーションセンサで姿勢データを取得する構成であってもよい。
【0023】
[演算装置の構成]
本開示において、演算装置1は、推定モデルを訓練データで訓練するための演算を行う装置として姿勢推定システム100の一部を構成すると共に、訓練済みの推定モデルを用いて歩行データから被測定者Pの全身姿勢を推定する装置として姿勢推定装置10の一部を構成している。
【0024】
図3は、実施の形態1に係る演算装置1の構成を示すブロック図である。図3に示すように、演算装置1は、プロセッサ11と、メモリ12と、ストレージ13と、入力インターフェース14と、出力インターフェース15と、通信インターフェース16と、メディア読取装置17とを備える。これらの各構成は、プロセッサバス19を介して接続されている。
【0025】
プロセッサ11は、ストレージ13に記憶されたプログラム(たとえば、OS(Operating System)130、訓練プログラム131、推定プログラム133)を読み出し、読み出したプログラムをメモリ12に展開して実行するコンピュータである。プロセッサ11は、たとえば、CPU(Central Processing Unit)、FPGA(Field Programmable Gate Array)、GPU(Graphics Processing Unit)、またはMPU(Multi Processing Unit)などで構成される。なお、プロセッサ11は、演算回路(Processing Circuitry)で構成されていてもよい。
【0026】
メモリ12は、DRAM(Dynamic Random Access Memory)またはSRAM(Static Random Access Memory)などの揮発性メモリ、あるいは、ROM(Read Only Memory)またはフラッシュメモリなどの不揮発性メモリなどで構成される。
【0027】
ストレージ13は、たとえば、HDD(Hard Disk Drive)またはSSD(Solid State Drive)などの不揮発性記憶装置などで構成される。ストレージ13は、OS130、訓練プログラム131、推定プログラム133以外に、訓練データ132、推定モデル134などを記憶する。
【0028】
訓練プログラム131は、訓練データ132を用いて機械学習による訓練で推定モデル134を生成するためのプログラムである。推定プログラム133は、推定モデル134を用いて被測定者Pの歩行データから被測定者Pの全身姿勢を推定するためのプログラムである。訓練プログラム131および推定モデル134を合わせて姿勢推定方法を実行するためのプログラムである。
【0029】
入力インターフェース14は、キーボード、マウス、およびタッチデバイスなどの入力操作を受け付ける。出力インターフェース15(出力装置の一例)は、ディスプレイ、スピーカなどに演算装置1で推定した被測定者Pの全身姿勢の推定データを出力する。
【0030】
通信インターフェース16は、有線通信または無線通信を行うことによって、センサモジュール21から歩行データの入力を受け付けたり、他の装置との間でデータを送受信したりする。通信インターフェース16は、他の装置と通信することによって、推定した被測定者Pの全身姿勢の推定データを他の装置へ出力してもよい。
【0031】
メディア読取装置17は、リムーバブルディスク18、メモリチップ、USBメモリなどの記憶媒体を受け入れ、リムーバブルディスク18、メモリチップ、USBメモリなどに格納されているデータを取得する。なお、メディア読取装置17は、リムーバブルディスク18に記憶されている訓練データを読み出したり、推定した被測定者Pの全身姿勢の推定データをリムーバブルディスク18などに格納して出力したりしてもよい。
【0032】
なお、演算装置1は、訓練データ132を用いて機械学習による訓練で推定モデル134を生成すると説明したが、一般化された推定モデル134が事前に用意されているのであれば通信インターフェース16を介してサーバ等から受け付けてもよい。また、演算装置1は、メディア読取装置17によってリムーバブルディスク18などに記憶された推定モデル134を読み取ってもよい。
【0033】
また、演算装置1は、スマートシューズ2(センサモジュール21)と組み合わせることで姿勢推定装置10を構成しているが、姿勢推定装置10の装置構成はこれに限られない。たとえば、姿勢推定装置10の装置構成として、演算装置1とセンサモジュール21と一体化した装置構成であっても、センサモジュール21を含まない演算装置1のみの装置構成であってもよい。
【0034】
[姿勢推定方法]
次に、姿勢推定システム100で実行される姿勢推定方法の処理について、フローチャートを参照しながら説明する。図4は、実施の形態1に係る姿勢推定システム100(特に演算装置1)が実行する姿勢推定方法の処理を説明するためのフローチャートである。なお、図4に示す各ステップは、演算装置1のプロセッサ11が訓練プログラム131および推定プログラム133を実行することによって実現される。
【0035】
まず、演算装置1は、訓練プログラム131による訓練フェーズの処理を行うか否かを判断する(ステップS101)。姿勢推定システム100が、まだ推定モデル134を有していない場合、または推定モデル134について十分な訓練が行われていない場合に、演算装置1は訓練フェーズの処理を行う。訓練フェーズの処理を行わない場合(ステップS101でNOの場合)、演算装置1は、処理をステップS107に進める。一方、訓練フェーズの処理を行う場合(ステップS101でYESの場合)、演算装置1は、歩行データから歩行時の被測定者Pの全身姿勢を推定するための推定モデル134を生成する訓練フェーズ処理Aを実行する。
【0036】
訓練フェーズ処理Aでは、推定モデル134を生成するために、N名の訓練データ132の入力を受け付ける(ステップS102)。なお、ステップS102で受け付ける訓練データ132には、スマートシューズ2で測定した被測定者の歩行データと、当該歩行データの測定時の全身姿勢を測定装置3で取得した姿勢データとが含まれる。図5は、実施の形態に係る姿勢推定システムでの訓練フェーズおよび運用フェーズを模式化した図を示す。図5に示す訓練データ収集処理A1のように、訓練データ132を入力するために、スマートシューズ2を履いたN名の被測定者に測定装置3の前で歩行を行って貰い、歩行データと姿勢データとを取得する。
【0037】
次に、演算装置1は、訓練データ132を用いて機械学習により、歩行時の全身姿勢を推定する推定モデル134を訓練する(ステップS103)。ここで、推定モデル134は、たとえば、公知のニューラルネットワークやサポートベクターマシン(Support Vector Machine:SVM)、あるいはベイジアンネットワーク(Bayesian Network)などのネットワーク構造と、当該ネットワーク構造によって用いられる内部パラメータとを含み、被測定者Pの歩行データから推定した全身姿勢の推定データと、当該歩行データの測定時の全身姿勢の姿勢データとに基づく訓練により内部パラメータが最適化(調整)される。図5に示す推定モデル訓練処理A2のように、歩行データと姿勢データとを対応付けたN名の訓練データを用いて推定モデル134を訓練することで、歩行データから姿勢データ(全身姿勢)を推定する推定モデル134が構築される。
【0038】
次に、演算装置1は、個別のキャリブレーションを行うか否かを判断する(ステップS104)。被測定者Pによるパーソナライズ化された推定モデルを希望しない入力を演算装置1が受け付けた場合(ステップS104でNO)、演算装置1は、処理をステップS107に進める。一方、被測定者Pによるパーソナライズ化された推定モデルを希望する入力を演算装置1が受け付けた場合(ステップS104でYESの場合)、演算装置1は、推定モデル134を被測定者Pの個別の訓練データで再訓練するキャリブレーション処理Bを実行する。
【0039】
キャリブレーション処理Bでは、推定モデル134を生成するために、被測定者Pの個別の訓練データ132の入力を受け付ける(ステップS105)。なお、ステップS105で受け付ける被測定者Pの個別の訓練データ132には、スマートシューズ2で測定した被測定者P自身の歩行データと、当該歩行データの測定時の被測定者P自身の全身姿勢を測定装置3で取得した姿勢データとが含まれる。図6は、実施の形態に係る姿勢推定システムでのキャリブレーションフェーズを模式化した図を示す。図6に示す補正訓練データ収集処理B1のように、被測定者Pの個別の訓練データ132を入力するために、スマートシューズ2を履いた被測定者P自身に測定装置3の前で歩行を行って貰い、歩行データと姿勢データとを取得する。
【0040】
次に、演算装置1は、被測定者Pの個別の訓練データ132を用いて機械学習により、全身姿勢を推定する推定モデル134を再訓練する(ステップS106)。図6に示す再訓練処理B2のように、被測定者Pの歩行データと被測定者Pの姿勢データとを対応付けた個別の訓練データを用いて推定モデル134を再訓練することで、被測定者Pの歩行データから被測定者Pの姿勢データ(全身姿勢)を精度良く推定することができる推定モデル134が構築できる。つまり、被測定者Pの個別の訓練データ132で推定モデル134を再訓練することで、推定モデル134を被測定者P用にパーソナライズ化できる。
【0041】
次に、演算装置1は、推定プログラム133による運用フェーズの処理を行うか否かを判断する(ステップS107)。訓練フェーズ処理Aで十分に訓練された推定モデル134が生成された場合、またはキャリブレーション処理Bで被測定者P用にパーソナライズ化された推定モデル134が生成された場合に、演算装置1は運用フェーズの処理を行う。運用フェーズの処理を行わない場合(ステップS107でNOの場合)、演算装置1は、処理をステップS112に進める。一方、運用フェーズの処理を行う場合(ステップS107でYESの場合)、演算装置1は、推定モデル134を用いて歩行データのみから歩行時の被測定者Pの全身姿勢を推定する運用フェーズ処理Cを実行する。
【0042】
運用フェーズ処理Cでは、歩行時の被測定者Pの全身姿勢を推定するために、被測定者Pの歩行データの入力を受け付ける(ステップS108)。なお、ステップS108では、被測定者Pのスマートシューズ2(センサモジュール21)から送られてくる歩行データのみが必要であるため測定装置3は不要である。図5に示す測定処理C1のように、被測定者Pの歩行データを入力するために、スマートシューズ2を履いた被測定者Pに歩行を行って貰い、スマートシューズ2から送られてくる歩行データを演算装置1で入力を受け付ける。図1に示す演算装置1はノートパソコンであるが、運用フェーズ処理Cでは、訓練済みの推定モデル134をスマートフォンに格納し、当該スマートフォンを演算装置1としてスマートシューズ2から送られてくる歩行データの入力を受け付け、歩行時の被測定者Pの全身姿勢を推定してもよい。
【0043】
次に、演算装置1は、推定モデル134を用いて被測定者Pの歩行データから歩行時の被測定者Pの全身姿勢を推定する(ステップS109)。演算装置1は、ステップS109で推定した歩行時の被測定者Pの全身姿勢の骨格座標データ(推定データの一例)を演算装置1に接続したディスプレイに画像として表示する。図5に示す推定処理C2のように、被測定者Pの歩行データを推定モデル134に入力することで歩行時の被測定者Pの全身姿勢を推定した骨格座標データをディスプレイに画像として表示する。
【0044】
演算装置1は、スマートシューズ2から新たな歩行データの入力を受け付けたか否かを判断する(ステップS111)。演算装置1は、歩行データに基づいて被測定者Pの全身姿勢を逐次推定するので、新たに入力を受け付けた歩行データに基づいて推定する被測定者Pの骨格座標データを更新する。そのため、新たな歩行データの入力を受け付けた場合(ステップS111でYES)、演算装置1は、処理をステップS109に戻し、新たな歩行データから歩行時の被測定者Pの全身姿勢を推定する。
【0045】
一方、新たな歩行データの入力を受け付けていない場合(ステップS111でNO)、演算装置1は、姿勢推定方法の処理を終了するか否かを判断する(ステップS112)。姿勢推定方法の処理を終了する入力を演算装置1が受け付けていない場合(ステップS112でNO)、演算装置1は、処理をステップS101に戻す。一方、姿勢推定方法の処理を終了する入力を演算装置1が受け付けた場合(ステップS112でYESの場合)、演算装置1は、姿勢推定方法の処理を終了する。
【0046】
次に、姿勢推定方法の処理について、さらに詳しく説明する。本開示では、スマートシューズ2から取得した歩行データから歩行動作時の全身姿勢を推定することを説明する。しかし、姿勢推定方法の処理において、全身姿勢を推定する動作の対象は歩行動作に限定されず、全身が連動する動作(たとえば、ランニングのような協調運動(locomotion))であれば同様に適用することができる。また、全身が連動する動作以外の動作であっても、たとえば、スマートシューズ2から取得した歩行データから下半身の姿勢を推定し、腕や上半身に装着した別のセンサから取得した測定データから上半身の姿勢を推定することで、下半身と上半身とが連動しない動作時の全身姿勢を推定することは可能である。これは、姿勢推定方法の処理において、訓練フェーズ処理Aで所定動作時の全身姿勢の姿勢データと、体のある部分に装着したセンサの測定データとの対応関係を機械学習によって訓練した推定モデル134を生成し、運用フェーズ処理Cで当該推定モデル134を用いて、体のある部分に装着したセンサの測定データから所定動作時の全身姿勢を推定することができるためである。
【0047】
まず、全身姿勢を推定する動作の対象が歩行動作の場合、1歩行周期を単位として被測定者の姿勢データを測定装置3(モーションキャプチャーカメラ)で取得する。図7は、1歩行周期を説明するための概略図である。図7では、被測定者の左足の踵接地タイミングから、右足の踵接地タイミングを経て左足の踵接地タイミングに至る一連の動作を1歩行周期としている。歩行動作は、図7に示すパターンの動作を繰り返す動作である。さらに、被測定者の全身姿勢を特徴点である21点の骨格座標データとして表現する。測定装置3から約5m程度離れた位置で被測定者に1歩行周期となる歩行動作(1m~4.5m程度の歩行)を行って貰い、測定装置3で全身姿勢の21点の3次元座標を101フレーム分のデータとして取得する。なお、骨格座標データを21点の身体部位として表現するのは一例であり、より精度の高い全身姿勢の情報を得るのであれば21点より点数を増やし、より演算処理を軽減するのであれば21点より点数を減らしてもよい。同様に、1歩行周期を101フレーム分のデータとして取得するのは一例であり、より精度の高い全身姿勢の情報を得るのであれば101フレームよりフレーム数を増やし、より演算処理を軽減するのであれば101フレームよりフレーム数を減らしてもよい。
【0048】
前述の例では、骨格座標データは、21点×3座標×101フレームで6363個のデータとなる。しかし、この6363個のデータをそのまま訓練データとして採用した場合、演算処理の負担が大きいので主成分分析による次元圧縮を行う。ここで、主成分分析とは、相関のある多数の変数から相関のない少数で全体のばらつきを最も表す変数(主成分)を合成し、次元圧縮する統計的手法の一つである。もちろん、演算処理の負担を気にしないのであれば6363個のデータをそのまま訓練データとして採用してもよい。
【0049】
より具体的に骨格座標データの次元圧縮処理について説明する。演算装置1は、測定装置3から取得したN名の歩行動作の骨格座標データに対して、それぞれ1歩行周期のデータを抽出して、1歩行周期を0~100%にリサンプリングして時間の正規化を行う。つまり、演算装置1は、1歩行周期を101フレームの骨格座標データとして正規化している。また演算装置1は、ある基準座標からの個々の座標までの距離の総和をノルム(norm)dとして求め、個々の座標をノルムdで除すことで位置の正規化を行っている。演算装置1は、こうして得られた6363個の骨格座標データに対して主成分分析を行い、歩行動作を説明する主成分(変数)のうちで寄与度の高い(たとえば95%以上)成分(たとえば16個の変数)の情報に圧縮する次元圧縮を行う。つまり、演算装置1は、6363個の骨格座標データを16個の成分(変数)に次元圧縮した姿勢データとして算出する。もちろん、骨格座標データに対する主成分分析の成分の個数は一例であり、16個の成分に限定されない。
【0050】
本開示では、この16個の成分に次元圧縮した姿勢データと、当該姿勢データと対応する歩行データとを訓練データとして採用する。歩行データには、ストライド、ピッチ、歩行速度、一歩にかかる時間、立脚期期間、遊脚期期間、接地時のつま先角度、プロネーション、最大足高さ、および着地衝撃の歩行パラメータの10個の歩行パラメータを採用する。もちろん、歩行データは、10個の歩行パラメータでなく、加速度センサの測定値および角速度センサの測定値そのものであってもよい。なお、歩行データに10個の歩行パラメータを採用することで、演算処理の負担が軽減される他に、歩行動作の特徴を表す歩行パラメータに基づいて推定モデルの機械学習を行うので、推定モデルを収束させやすい。また、10個の歩行パラメータは一例であり、より少ない歩行パラメータを歩行データとしても、より多い歩行パラメータを歩行データとしてもよい。
【0051】
図8は、実施の形態に係る姿勢推定システム100での推定モデルの演算を模式化した図である。姿勢推定システム100では、図8に示すように、10個の歩行パラメータを含む歩行データから推定モデル134を用いて16個の成分の姿勢データを推定する。ここで、推定モデル134は、100次元の全結合層を3層含むニューラルネットワーク構造を有している。姿勢推定システム100では、訓練データの16個の成分の姿勢データと推定された16個の成分の姿勢データとの損失関数が最小化するように機械学習が行われ訓練済みの推定モデル134が構築される。
【0052】
訓練済みの推定モデル134を用いることで、姿勢推定装置10は、センサモジュール21で測定した被測定者Pの歩行データから、16個の成分の姿勢データを推定することができ、推定した16個の成分から骨格座標を再構築して被測定者Pの全身姿勢の骨格座標データを推定データとして求める。これにより、姿勢推定装置10は、訓練済みの推定モデル134を用いることで、スマートシューズ2を履いて被測定者Pが歩行するだけで、測定装置3(モーションキャプチャーカメラ)を用いなくても、歩行時の被測定者Pの全身姿勢を日常的に継続して把握することが可能となる。
【0053】
訓練済みの推定モデル134を用いて姿勢推定装置10が推定した歩行時の被測定者Pの全身姿勢の精度について説明する。図9は、実施の形態に係る姿勢推定装置10で推定した全身の骨格座標データを正面から表示した図である。図10は、実施の形態に係る姿勢推定装置10で推定した全身の骨格座標データを側面から表示した図である。図9および図10には、姿勢推定装置10で推定した被測定者Pの全身姿勢の骨格座標データIが実線で示されている。また、図9および図10には、比較対象として、測定装置3で測定した被測定者Pの全身姿勢の骨格座標データIIが破線で示されている。
【0054】
正面から表示した図9では、実線の骨格座標データIと破線の骨格座標データIIに差がなく、姿勢推定装置10が精度良く被測定者Pの骨格座標データIを推定していることが分かる。一方、側面から表示した図10では、実線の骨格座標データIと破線の骨格座標データIIとを比べると腕や足に差はあるが、姿勢推定装置10が適切に被測定者Pの骨格座標データIを推定していることが分かる。
【0055】
より詳しく、姿勢推定装置10が推定した被測定者Pの全身姿勢の精度について説明する。図11は、実施の形態に係る姿勢推定装置10で推定した腕の骨格座標データの1歩行周期での誤差の変化を示すグラフである。図12は、実施の形態に係る姿勢推定装置10で推定した下半身の骨格座標データの1歩行周期での誤差の変化を示すグラフである。図13は、実施の形態に係る姿勢推定装置10で推定した頭の骨格座標データの1歩行周期での誤差の変化を示すグラフである。
【0056】
図11図13に示すグラフは、姿勢推定装置10で推定した被測定者Pの全身姿勢の特徴点(21点)と、測定装置3で測定した被測定者Pの全身姿勢の特徴点(21点)とを比較して精度検証を行った結果を示している。なお、図11図13に示すグラフでは、横軸が1歩行周期を示し、縦軸は誤差(Error)を示している。また、図11図13に示すグラフでは、腕、下半身および頭(体幹)のそれぞれの平均誤差を実線で示し、それぞれの標準偏差を破線で示している。姿勢推定装置10では、スマートシューズ2に設けたセンサモジュール21の情報のみから全身姿勢を推定しているので、身体部位に対して精度の違いが見られる可能性が考えられるため、全身姿勢の特徴点(21点)を頭(体幹)、下半身、腕の3つの部位に分けて平均誤差を求め、当該誤差の時間的変化を検証するために図11図13のグラフを示している。
【0057】
図11図13に示すグラフから、全身姿勢の特徴点(21点)のすべての平均誤差は3.8cm(標準偏差:3.3cm)と精度の高い結果が得られた。最も大きな誤差が認められた図11に示す腕の平均誤差は7.6cm(標準偏差:4.5cm)であった。なお、歩幅の平均が約70cmであり、姿勢推定装置10で推定した歩幅に対する誤差は5%程度であった。姿勢推定装置10で推定した特徴点の誤差は、腕、下半身、頭(体幹)の順に大きく、下半身の特徴点と腕の特徴点の誤差は、足の接地タイミングでピーク値を持つことが分かった。
【0058】
[変形例]
(1)前述の実施の形態では、姿勢推定装置10がセンサモジュール21の歩行データ(測定データの一例)から歩行時の全身姿勢の骨格座標データ(推定データの一例)を推定しているが推定する骨格座標データは下半身や上半身などの体の一部であってもよい。
【0059】
(2)前述の実施の形態では、センサモジュール21(3軸の加速度センサおよび3軸角速度センサを含む)を靴に組み込んだスマートシューズ2で被測定者の動作を測定したが、センサモジュール21を取り付ける位置は被測定者の動作に合わせて動く位置であればいずれの位置であってもよい。また、前述の実施の形態では、1種類のセンサを左右の靴にそれぞれ設けられた合計2個のセンサモジュール21を使用しているが、左右の靴のいずれか一方に設けられた1個のセンサモジュール21を使用してもよいし、異なる種類のセンサを複数使用してもよい。さらに、左右の靴にそれぞれ設け合計2個のセンサモジュール21を設けても、姿勢推定装置10は、いずれか一方のセンサモジュール21からの測定データを使用する構成でもよい。
【0060】
(3)前述の実施の形態では、センサモジュール21から取得できる10個の歩行パラメータ(歩容指標ともいう)を歩行データとして使用したが、3軸加速度センサおよび3軸角速度センサから導出される歩行データであれば、どのようなデータであってもよく、3軸加速度センサおよび3軸角速度センサの値そのものであってもよい。
【0061】
(4)前述の実施の形態では、全身姿勢を推定する動作の対象が歩行動作であると説明したが、全身が連動する動作(たとえば、ランニングのような協調運動(locomotion))であれば同様に適用することができる。また、全身が連動する動作以外の特定動作(たとえば、ゴルフのスイングなど周期性を持った動作など)であっても、たとえば、足と腕とにそれぞれセンサモジュール21を設けて訓練データを作成して、推定モデルを訓練させれば特定動作における全身姿勢を推定することが可能である。
【0062】
(5)前述の実施の形態では、運用フェーズ処理Cで推定した歩行時の被測定者Pの全身姿勢をディスプレイに画像として表示すると説明したが、画像以外にスピーカから音声として出力したり、振動機構を使って振動として出力したりするなどで被測定者Pにフィードバックしてもよい。
【0063】
(6)前述の実施の形態では、スマートシューズ2から取得した歩行データから姿勢データを、ニューラルネットワーク構造を有する推定モデル134を用いて回帰したが、ニューラルネットワーク構造以外の他の機械学習の手法を用いてもよい。
【0064】
(7)前述の実施の形態では、姿勢推定装置10は、スマートシューズ2から取得した歩行データから被測定者Pの全身姿勢を推定したが、スマートシューズ2以外のデバイス(たとえば、3軸の加速度センサおよび3軸角速度センサを内蔵したスマートフォン、スマートウォッチなど)から取得した被測定者Pの動作の測定データから所定動作時の被測定者Pの全身姿勢を推定してもよい。また、姿勢推定装置10は、スマートシューズ2と、スマートフォン、スマートウォッチなどのデバイスとを組み合わせて被測定者Pの動作の測定データから所定動作時の被測定者Pの全身姿勢を推定してもよい。
【0065】
(8)前述の実施の形態では、便宜上、訓練データ132及び被測定者Pの歩行データのいずれもセンサモジュール21を含むスマートシューズ2を用いて取得すると説明したが、訓練データ132と被測定者Pの歩行データを取得するセンサは互いに異なっていてもよい。
【0066】
[態様]
(1)本開示に係る姿勢推定装置は、所定動作時の被測定者の全身姿勢を推定する姿勢推定装置であって、
被測定者に取り付けられ、被測定者の少なくとも一箇所の3軸の加速度および3軸の角速度に基づく測定データを取得する少なくとも1つのセンサと、
機械学習により訓練済みの推定モデルを用いて、センサで取得した測定データから所定動作時の被測定者の全身姿勢を推定する演算回路と、
演算回路で推定した被測定者の全身姿勢の推定データを出力する出力装置と、を備え、
推定モデルは、
所定動作時にセンサで取得した測定データと、当該測定データを取得したタイミングの被測定者の全身姿勢を測定した姿勢データとに基づき機械学習による訓練であらかじめ生成される。
【0067】
これにより、本開示に係る姿勢推定装置は、機械学習により訓練済みの推定モデルを用いて、センサで取得した測定データから所定動作時の被測定者の全身姿勢を推定するので、少ない数のセンサで日常的に継続して全身姿勢を把握することが可能となる。
【0068】
(2)(1)に記載の姿勢推定装置であって、推定モデルは、姿勢推定装置を使用する被測定者毎に機械学習による再訓練が行われる。
【0069】
(3)(1)または(2)に記載の姿勢推定装置であって、所定動作は、センサを取り付けた被測定者の箇所の動きに、被測定者の全身が連動する動作である。
【0070】
(4)(1)~(3)のいずれか1項に記載の姿勢推定装置であって、センサは、被測定者が使用する靴に設けられる。
【0071】
(5)(4)に記載の姿勢推定装置であって、センサは、3軸の加速度および3軸の角速度から求めた被測定者の歩行または走行に基づく複数のパラメータを測定データとして取得する。
【0072】
(6)(5)に記載の姿勢推定装置であって、被測定者の歩行または走行に基づく前記複数のパラメータは、ストライド、ピッチ、歩行速度または走行速度、一歩にかかる時間、立脚期期間、遊脚期期間、接地時のつま先角度、プロネーション、最大足高さ、および着地衝撃のうち少なくとも1つのパラメータを含む。
【0073】
(7)本開示に係る姿勢推定システムは、姿勢データを測定する測定装置と、(1)~(6)のいずれか1項に記載の姿勢推定装置と、を備え、
機械学習による推定モデルの訓練を行う際に測定装置で測定した姿勢データを使用する。
【0074】
(8)(7)に記載の姿勢推定システムであって、
測定装置は、モーションキャプチャーカメラであり、
姿勢データは、モーションキャプチャーカメラを用いて取得した骨格座標データである。
【0075】
(9)(8)に記載の姿勢推定システムであって、
骨格座標データを主成分分析により次元圧縮して、機械学習による推定モデルの訓練を行う。
【0076】
(10)本開示に係る姿勢推定方法は、所定動作時の被測定者の全身姿勢を推定する姿勢推定方法であって、
被測定者に取り付けられた少なくとも1つのセンサから、被測定者の少なくとも一箇所の3軸の加速度および3軸の角速度に基づく測定データを取得するステップと、
機械学習により訓練済みの推定モデルを用いて、センサで取得した測定データから所定動作時の被測定者の全身姿勢を推定するステップと、
推定した被測定者の全身姿勢の推定データを出力するステップと、を含み、
推定モデルは、所定動作時にセンサで取得した測定データと、当該測定データを取得したタイミングの被測定者の全身姿勢を測定した姿勢データとに基づき機械学習による訓練であらかじめ生成される。
【0077】
今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した説明ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
【符号の説明】
【0078】
1 演算装置、2 スマートシューズ、3 測定装置、10 姿勢推定装置、11 プロセッサ、12 メモリ、13 ストレージ、14 入力インターフェース、15 出力インターフェース、16 通信インターフェース、17 メディア読取装置、18 リムーバブルディスク、19 プロセッサバス、21 センサモジュール、100 姿勢推定システム、131 訓練プログラム、132 訓練データ、133 推定プログラム、134 推定モデル。
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13