(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2025004893
(43)【公開日】2025-01-16
(54)【発明の名称】状態評価方法、状態評価システム及び状態評価プログラム
(51)【国際特許分類】
G06T 7/20 20170101AFI20250108BHJP
A61B 5/11 20060101ALI20250108BHJP
A61B 5/22 20060101ALI20250108BHJP
【FI】
G06T7/20 300Z
A61B5/11 200
A61B5/22 200
A61B5/11 230
【審査請求】有
【請求項の数】19
【出願形態】OL
(21)【出願番号】P 2023104773
(22)【出願日】2023-06-27
(11)【特許番号】
(45)【特許公報発行日】2024-03-22
(71)【出願人】
【識別番号】517255566
【氏名又は名称】株式会社エクサウィザーズ
(74)【代理人】
【識別番号】110004093
【氏名又は名称】弁理士法人アクセル特許事務所
(72)【発明者】
【氏名】蛭田 興明
(72)【発明者】
【氏名】酒向 正春
【テーマコード(参考)】
4C038
5L096
【Fターム(参考)】
4C038VA04
4C038VA18
4C038VA20
4C038VB14
4C038VB31
4C038VB40
4C038VC05
5L096BA06
5L096CA04
5L096DA02
5L096FA64
5L096FA67
5L096GA51
5L096HA04
5L096HA09
5L096JA11
5L096JA18
(57)【要約】
【課題】 対象者の立ち座り動画から対象者の状態を評価する。
【解決手段】
一実施形態に係る状態評価方法は、状態評価システムが実行する状態評価方法であって、対象者の立ち座りを前記対象者の側方から撮影した立ち座り動画を取得する取得ステップと、前記立ち座り動画から前記対象者の複数の特徴点を抽出する抽出ステップと、前記複数の特徴点に基づいて、前記対象者の状態を評価する評価ステップと、を含む。
【選択図】
図8
【特許請求の範囲】
【請求項1】
状態評価システムが実行する状態評価方法であって、
対象者の立ち座りを前記対象者の側方から撮影した立ち座り動画を取得する取得ステップと、
前記立ち座り動画から前記対象者の複数の特徴点を抽出する抽出ステップと、
前記複数の特徴点に基づいて、前記対象者の状態を評価する評価ステップと、
を含む状態評価方法。
【請求項2】
前記評価ステップは、前記対象者の立位の安定性を評価する
請求項1に記載の状態評価方法。
【請求項3】
前記評価ステップは、前記対象者の立位時の体の傾きに基づいて、前記安定性を評価する
請求項2に記載の状態評価方法。
【請求項4】
前記立位時の傾きは、鉛直線と、前記対象者の踵及び首を結んだ線と、のなす角である
請求項3に記載の状態評価方法。
【請求項5】
前記評価ステップは、前記対象者の筋力を評価する
請求項1に記載の状態評価方法。
【請求項6】
前記評価ステップは、前記対象者の立ち座りの回数又は所要時間に基づいて、前記筋力を評価する
請求項5に記載の状態評価方法。
【請求項7】
前記評価ステップは、前記対象者の立位の姿勢を評価する
請求項1に記載の状態評価方法。
【請求項8】
前記評価ステップは、前記対象者の立位時の股関節の伸びに基づいて、前記姿勢を評価する
請求項7に記載の状態評価方法。
【請求項9】
前記股関節の伸びは、前記対象者の首及び腰を結んだ線と、腰及び膝を結んだ線と、のなす角である
請求項8に記載の状態評価方法。
【請求項10】
前記評価ステップは、前記対象者の着座時の圧迫骨折リスクを評価する
請求項1に記載の状態評価方法。
【請求項11】
前記評価ステップは、前記対象者の起立所要時間及び着座所要時間に基づいて、前記圧迫骨折リスクを評価する
請求項10に記載の状態評価方法。
【請求項12】
前記評価ステップは、前記対象者が補助具を使用している場合、前記補助具を使用していない場合に比べて、前記対象者の状態を低く評価する
請求項1に記載の状態評価方法。
【請求項13】
対象者の立ち座りを前記対象者の側方から撮影した立ち座り動画を取得する取得部と、
前記立ち座り動画から前記対象者の複数の特徴点を抽出する抽出部と、
前記複数の特徴点に基づいて、前記対象者の状態を評価する評価部と、
を備える状態評価システム。
【請求項14】
コンピュータに、
対象者の立ち座りを前記対象者の側方から撮影した立ち座り動画を取得する取得ステップと、
前記立ち座り動画から前記対象者の複数の特徴点を抽出する抽出ステップと、
前記複数の特徴点に基づいて、前記対象者の状態を評価する評価ステップと、
を含む状態評価方法を実行させる状態評価プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、状態評価方法、状態評価システム及び状態評価プログラムに関する。
【背景技術】
【0002】
高齢者の健康状態を評価する方法として、立ち座りを繰り返し行う方法が知られている。この方法では、所定回数の立ち座りに要した時間を測定することにより、高齢者の健康状態を評価するのが一般的である。
【0003】
一方で、近年、対象者の動作を撮影した動画をAIで解析し、動作の良し悪しや対象者の状態を評価する技術が開発されている。例えば、引用文献1には、対象者の立位体前屈を撮影した動画から、立位体前屈の良し悪しを評価する技術が開示されている。
【先行技術文献】
【特許文献】
【0004】
【発明の概要】
【発明が解決しようとする課題】
【0005】
高齢者の立ち座りの動画から、高齢者の健康状態を評価する技術の開発が望まれている。
【0006】
本発明は、上記の課題を鑑みてなされたものであり、対象者の立ち座り動画から対象者の状態を評価することを目的とする。
【課題を解決するための手段】
【0007】
一実施形態に係る状態評価方法は、状態評価システムが実行する状態評価方法であって、対象者の立ち座りを前記対象者の側方から撮影した立ち座り動画を取得する取得ステップと、前記立ち座り動画から前記対象者の複数の特徴点を抽出する抽出ステップと、前記複数の特徴点に基づいて、前記対象者の状態を評価する評価ステップと、を含む。
【発明の効果】
【0008】
一実施形態によれば、対象者の立ち座り動画から対象者の状態を評価することができる。
【図面の簡単な説明】
【0009】
【
図1】状態評価システム1000の構成の一例を示す図である。
【
図2】状態評価装置1のハードウェア構成の一例を示す図である。
【
図3】ユーザ端末2のハードウェア構成の一例を示す図である。
【
図4】状態評価装置1の機能構成の一例を示す図である。
【
図5】ユーザ端末2の機能構成の一例を示す図である。
【
図6】状態評価システム1000が実行する処理の一例を示すフローチャートである。
【
図7】立ち座り動画121を模式的に示す図である。
【
図8】立ち座り動画121から抽出される特徴点pの一例を示す図である。
【
図9】立位の安定性の評価方法の一例を示すフローチャートである。
【
図11】立位の姿勢の評価方法の一例を示すフローチャートである。
【
図12】立位時の股関節の伸びeを説明する図である。
【
図13】着座時の圧迫骨折リスクの評価方法の一例を示すフローチャートである。
【
図15】評価結果表示画面scの一例を示す図である。
【発明を実施するための形態】
【0010】
以下、本発明の各実施形態について、添付の図面を参照しながら説明する。なお、各実施形態に係る明細書及び図面の記載に関して、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複した説明を省略する。
【0011】
<システム構成>
まず、本実施形態に係る状態評価システム1000の概要について説明する。状態評価システム1000は、対象者の立ち座りを対象者の側方から撮影した立ち座り動画から、対象者の状態を評価する情報処理システムである。
【0012】
対象者は、状態の評価対象となる人であり、例えば、高齢者である。
【0013】
立ち座りは、椅子に座った対象者が、椅子から立ち上がった後、再び椅子に座るまでの一連の動作である。
【0014】
側方は、椅子に座った対象者の右側方又は左側方である。
【0015】
対象者の状態は、対象者の立位の安定性、対象者の筋力、対象者の立位の姿勢及び対象者の着座時の圧迫骨折リスクを含む。圧迫骨折とは、上下方向から力が加わることによる背骨の骨折のことである。これらの状態は、対象者のADL(Activities of Daily Living)を評価するための指標として有効である。
【0016】
図1は、状態評価システム1000の構成の一例を示す図である。
図1に示すように、状態評価システム1000は、ネットワークNを介して相互に通信可能に接続された、状態評価装置1と、ユーザ端末2と、を備える。ネットワークNは、例えば、有線LAN(Local Area Network)、無線LAN、インターネット、公衆回線網、モバイルデータ通信網、又はこれらの組み合わせである。
図1の例では、状態評価システム1000は、状態評価装置1及びユーザ端末2をそれぞれ1つずつ備えるが、それぞれ複数備えてもよい。
【0017】
状態評価装置1は、対象者の立ち座り動画に基づいて、対象者の状態を評価する情報処理装置である。状態評価装置1は、例えば、PC(Personal Computer)、スマートフォン、タブレット端末、サーバ装置、又はマイクロコンピューであるが、これに限られない。状態評価装置1について、詳しくは後述する。
【0018】
ユーザ端末2は、状態評価システム1000のユーザが利用する情報処理装置である。以下では、ユーザが、立ち座り動画を撮影し、その立ち座り動画に基づく評価結果を取得する場合を想定するが、評価結果を取得するユーザと、立ち座り動画を撮影する撮影者と、は異なる人であってもよい。ユーザ端末2は、例えば、PC、スマートフォン又はタブレット端末であるが、これに限られない。
【0019】
<状態評価装置1のハードウェア構成>
次に、状態評価装置1のハードウェア構成について説明する。
図2は、状態評価装置1のハードウェア構成の一例を示す図である。
図2に示すように、状態評価装置1は、バスB1を介して相互に接続された、プロセッサ101と、メモリ102と、ストレージ103と、通信I/F104と、入力装置105と、出力装置106と、ドライブ装置107と、を備える。
【0020】
プロセッサ101は、ストレージ103に記憶されたOS(Operating System)及び状態評価プログラムを含む各種のプログラムをメモリ102に展開して実行することにより、状態評価装置1の各構成を制御し、状態評価装置1の機能を実現する。プロセッサ101は、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、GPU(Graphics Processing Unit)、ASIC(Application Specific Integrated Circuit)又はDSP(Digital Signal Processor)であるが、これに限られない。
【0021】
メモリ102は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、又はこれらの組み合わせである。ROMは、例えば、PROM(Programmable ROM)、EPROM(Erasable Programmable ROM)、EEPROM(Electrically Erasable Programmable ROM)、又はこれらの組み合わせである。RAMは、例えば、DRAM(Dynamic RAM)又はSRAM(Static RAM)であるが、これに限られない。
【0022】
ストレージ103は、OS及び状態評価プログラムを含む各種のプログラム及びデータを記憶する。ストレージ103は、例えば、フラッシュメモリ、HDD(Hard Disk Drive)、SSD(Solid State Drive)又はSCM(Storage Class Memories)であるが、これに限られない。
【0023】
通信I/F104は、状態評価装置1を、ネットワークNを介して外部装置に接続し、通信を制御するためのインタフェースである。通信I/F104は、例えば、Bluetooth(登録商標)、Wi-Fi(登録商標)、ZigBee(登録商標)又はEthernet(登録商標)であるが、これに限られない。
【0024】
入力装置105は、状態評価装置1に情報を入力するための装置である。入力装置105は、例えば、マウス、キーボード、タッチパネル、マイク、スキャナ、撮影装置(カメラ)、各種センサ又は操作ボタンであるが、これに限られない。
【0025】
出力装置106は、状態評価装置1から情報を出力するための装置である。出力装置106は、例えば、表示装置(ディスプレイ)、プロジェクタ、プリンタ、スピーカ又はバイブレータであるが、これに限られない。
【0026】
ドライブ装置107は、記録メディア108のデータを読み書きする装置である。ドライブ装置107は、例えば、磁気ディスクドライブ、光学ディスクドライブ、光磁気ディスクドライブ又はSDカードリーダであるが、これに限られない。記録メディア108は、例えば、CD(Compact Disc)、DVD(Digital Versatile Disc)、FD(Floppy Disc)、MO(Magneto-Optical disk)、BD(Blu-ray(登録商標) Disc)、USB(登録商標)メモリ又はSDカードであるが、これに限られない。
【0027】
なお、本実施形態において、状態評価プログラムは、状態評価装置1の製造段階でメモリ102又はストレージ103に書き込まれてもよいし、ネットワークNを介して状態評価装置1に提供されてもよいし、記録メディア108などの非一時的でコンピュータ読み取り可能な記録媒体を介して状態評価装置1に提供されてもよい。
【0028】
<ユーザ端末2のハードウェア構成>
次に、ユーザ端末2のハードウェア構成について説明する。
図3は、ユーザ端末2のハードウェア構成の一例を示す図である。
図3に示すように、ユーザ端末2は、バスB2を介して相互に接続された、プロセッサ201と、メモリ202と、ストレージ203と、通信I/F204と、入力装置205と、出力装置206と、を備える。
【0029】
プロセッサ201は、ストレージ203に記憶されたOS及び状態評価プログラムを含む各種のプログラムをメモリ202に展開して実行することにより、ユーザ端末2の各構成を制御し、ユーザ端末2の機能を実現する。プロセッサ201は、例えば、CPU、MPU、GPU、ASIC又はDSPであるが、これに限られない。
【0030】
メモリ202は、例えば、ROM、RAM、又はこれらの組み合わせである。ROMは、例えば、PROM、EPROM、EEPROM、又はこれらの組み合わせである。RAMは、例えば、DRAM又はSRAMであるが、これに限られない。
【0031】
ストレージ203は、OS及び状態評価プログラムを含む各種のプログラム及びデータを記憶する。ストレージ203は、例えば、フラッシュメモリ、HDD、SSD又はSCMであるが、これに限られない。
【0032】
通信I/F204は、ユーザ端末2を、ネットワークNを介して外部装置に接続し、通信を制御するためのインタフェースである。通信I/F204は、例えば、Bluetooth(登録商標)、Wi-Fi(登録商標)、ZigBee(登録商標)又はEthernet(登録商標)であるが、これに限られない。
【0033】
入力装置205は、ユーザ端末2に情報を入力するための装置である。入力装置205は、例えば、マウス、キーボード、タッチパネル、マイク、スキャナ、撮影装置(カメラ)、各種センサ又は操作ボタンであるが、これに限られない。ユーザ端末2は、入力装置205として、撮影装置205Cを備える。
【0034】
出力装置206は、ユーザ端末2から情報を出力するための装置である。出力装置206は、例えば、表示装置(ディスプレイ)、プロジェクタ、プリンタ、スピーカ又はバイブレータであるが、これに限られない。ユーザ端末2は、出力装置206として、表示装置206Dを備える。
【0035】
ドライブ装置207は、記録メディア208のデータを読み書きする装置である。ドライブ装置207は、例えば、磁気ディスクドライブ、光学ディスクドライブ、光磁気ディスクドライブ又はSDカードリーダであるが、これに限られない。記録メディア208は、例えば、CD、DVD、FD、MO、BD、USB(登録商標)メモリ又はSDカードであるが、これに限られない。
【0036】
なお、本実施形態において、状態評価プログラムは、ユーザ端末2の製造段階でメモリ202又はストレージ203に書き込まれてもよいし、ネットワークNを介してユーザ端末2に提供されてもよいし、記録メディア208などの非一時的でコンピュータ読み取り可能な記録媒体を介してユーザ端末2に提供されてもよい。
【0037】
<状態評価装置1の機能構成>
次に、状態評価装置1の機能構成について説明する。
図4は、状態評価装置1の機能構成の一例を示す図である。
図4に示すように、状態評価装置1は、通信部11と、記憶部12と、制御部13と、を備える。
【0038】
通信部11は、通信I/F104により実現される。通信部11は、ネットワークNを介して、ユーザ端末2との間で情報の送受信を行う。通信部11は、ユーザ端末2から立ち座り動画121を受信し、ユーザ端末2に評価結果123を送信する。
【0039】
記憶部12は、メモリ102及びストレージ103により実現される。記憶部12は、立ち座り動画121と、抽出モデル122と、評価結果123と、を記憶する。
【0040】
立ち座り動画121は、ユーザ(撮影者)が撮影した対象者の立ち座り動画の動画データである。立ち座り動画121は、対象者情報、ユーザ情報、端末情報、及び撮影情報などと対応づけて保存される。
【0041】
対象者情報は、立ち座り動画121を撮影された対象者に関する情報である。対象者情報は、例えば、対象者の氏名、年齢、性別、及び生年月日を含むが、これに限られない。
【0042】
ユーザ情報は、立ち座り動画121を撮影したユーザ(撮影者)に関する情報である。ユーザ情報は、例えば、ユーザの氏名、年齢、性別、生年月日、所属及び役職を含むが、これに限られない。
【0043】
端末情報は、立ち座り動画121を送信したユーザ端末2に関する情報である。端末情報は、例えば、ユーザ端末2の機種、使用者及び製造年月日を含むが、これに限られない。
【0044】
撮影情報は、立ち座り動画121の撮影に関する情報である。撮影情報は、例えば、撮影日時、撮影時の明るさ、撮影装置205Cの機種、撮影装置205Cの傾き及びズーム倍率を含むが、これに限られない。
【0045】
抽出モデル122は、骨格推定モデル、骨格抽出モデル、骨格検出モデル又は姿勢推定モデルなどと称される、動画像から人の特徴点pを抽出可能なように学習された、学習済みの機械学習モデルである。抽出モデル122として、人の特徴点pを抽出可能な任意の機械学習モデルを利用できる。特徴点pは、例えば、つま先、踵、膝、腰(尻)、腹、胸、首、肩、肘、手首、指、頭、目、耳、口、鼻であるが、これに限られない。
【0046】
評価結果123は、立ち座り動画121に基づく対象者の状態の評価結果を示す情報である。評価結果123について、詳しくは後述する。
【0047】
制御部13は、プロセッサ101がメモリ102からプログラムを読み出して実行し、他のハードウェア構成と協働することにより実現される。制御部13は、状態評価装置1の動作全体を制御する。制御部13は、取得部131と、抽出部132と、評価部133と、を備える。
【0048】
取得部131は、ユーザ端末2から立ち座り動画121を取得し、記憶部12に保存する。
【0049】
抽出部132は、抽出モデル122を利用して、立ち座り動画121から対象者の複数の特徴点pを抽出する。
【0050】
評価部133は、抽出部132が抽出した対象者の特徴点pに基づいて、対象者の状態を評価し、評価結果123を記憶部12に保存する。
【0051】
<状態評価装置1の機能構成>
次に、状態評価装置1の機能構成について説明する。
図4は、状態評価装置1の機能構成の一例を示す図である。
図4に示すように、状態評価装置1は、通信部11と、記憶部12と、制御部13と、を備える。
【0052】
通信部11は、通信I/F104により実現される。通信部11は、ネットワークNを介して、ユーザ端末2との間で情報の送受信を行う。通信部11は、ユーザ端末2から立ち座り動画121を受信し、ユーザ端末2に評価結果123を送信する。
【0053】
記憶部12は、メモリ102及びストレージ103により実現される。記憶部12は、立ち座り動画121と、抽出モデル122と、特徴点情報123と、評価結果124と、を記憶する。
【0054】
立ち座り動画121は、ユーザ端末2から取得した対象者の立ち座り動画の動画データである。立ち座り動画121は、対象者情報、ユーザ情報、端末情報、及び撮影情報などと対応づけて保存される。
【0055】
対象者情報は、立ち座り動画121を撮影された対象者に関する情報である。対象者情報は、例えば、対象者の氏名、年齢、性別、及び生年月日を含むが、これに限られない。
【0056】
ユーザ情報は、立ち座り動画121を撮影したユーザ(撮影者)に関する情報である。ユーザ情報は、例えば、ユーザの氏名、年齢、性別、生年月日、所属及び役職を含むが、これに限られない。
【0057】
端末情報は、立ち座り動画121を送信したユーザ端末2に関する情報である。端末情報は、例えば、ユーザ端末2の機種、使用者及び製造年月日を含むが、これに限られない。
【0058】
撮影情報は、立ち座り動画121の撮影に関する情報である。撮影情報は、例えば、撮影日時、撮影時の明るさ、撮影装置205Cの機種、撮影装置205Cの傾き及びズーム倍率を含むが、これに限られない。
【0059】
抽出モデル122は、骨格推定モデル、骨格抽出モデル、骨格検出モデル又は姿勢推定モデルなどと称される、動画像から人の特徴点を抽出可能なように学習された、学習済みの機械学習モデルである。抽出モデル122は、画像を入力されると、その画像に映った人の特徴点情報を出力する。特徴点情報は、人の特徴点pに関する情報であり、特徴点pの種類及び座標を示す情報を含む。人が映った画像を入力すると、1又は複数の特徴点の特徴点情報が出力される。抽出モデル122として、人の特徴点を抽出可能な任意の機械学習モデルを利用できる。特徴点pは、例えば、つま先、踵、膝、腰(尻)、腹、胸、首、肩、肘、手首、指、頭、目、耳、口、鼻であるが、これに限られない。
【0060】
特徴点情報123は、立ち座り動画121から抽出された対象者の特徴点pの特徴点情報である。特徴点情報123は、特徴点pの抽出元となった立ち座り動画121と対応づけて保存される。記憶部12には、1の立ち座り動画121に対して、特徴点情報123の時系列データが保存される。
【0061】
評価結果124は、立ち座り動画121に基づく対象者の状態の評価結果を示す情報である。評価結果124について、詳しくは後述する。
【0062】
制御部13は、プロセッサ101がメモリ102からプログラムを読み出して実行し、他のハードウェア構成と協働することにより実現される。制御部13は、状態評価装置1の動作全体を制御する。制御部13は、取得部131と、抽出部132と、評価部133と、を備える。
【0063】
取得部131は、ユーザ端末2から立ち座り動画121を取得し、記憶部12に保存する。
【0064】
抽出部132は、抽出モデル122を利用して、立ち座り動画121から対象者の複数の特徴点pを抽出する。具体的には、抽出部132は、立ち座り動画121を構成する画像を抽出モデル122に入力し、抽出モデル122が出力した特徴点情報123を取得し、記憶部12に保存する。抽出部132は、立ち座り動画121を構成する全ての画像から特徴点pを抽出してもよいし、所定フレームごとの画像から特徴点pを抽出してもよい。いずれにせよ、記憶部12には、特徴点情報123の時系列データが保存される。
【0065】
評価部133は、抽出部132が抽出した対象者の特徴点pに基づいて、対象者の状態を評価し、評価結果123を記憶部12に保存する。
【0066】
なお、状態評価装置1の機能構成は、上記の例に限られない。例えば、状態評価装置1は、上記の機能構成の一部を備え、残りをユーザ端末2が備えてもよい。また、状態評価装置1は、上記以外の機能構成を備えてもよい。また、状態評価装置1の各機能構成は、上記の通り、ソフトウェアにより実現されてもよいし、ICチップ、SoC(System on Chip)、LSI(Large Scale Integration)、マイクロコンピュータ等のハードウェアによって実現されてもよい。
【0067】
<ユーザ端末2の機能構成>
次に、ユーザ端末2の機能構成について説明する。
図5は、ユーザ端末2の機能構成の一例を示す図である。
図5に示すように、ユーザ端末2は、通信部21と、記憶部22と、制御部23と、を備える。
【0068】
通信部21は、通信I/F204により実現される。通信部21は、ネットワークNを介して、状態評価装置1との間で情報の送受信を行う。通信部21は、状態評価装置1に立ち座り動画221を送信し、状態評価装置1から評価結果222を受信する。
【0069】
記憶部22は、メモリ202及びストレージ203により実現される。記憶部22は、立ち座り動画221と、評価結果222と、を記憶する。
【0070】
立ち座り動画221は、ユーザ端末2から状態評価装置1に送信する対象者の立ち座り動画の動画データである。立ち座り動画221は、ユーザがユーザ端末2の撮影装置205Cにより撮影した動画であってもよいし、ネットワークNを介して取得した、ユーザ端末2以外の撮影装置が撮影した動画であってもよい。立ち座り動画221は、立ち座り動画221は、対象者情報、ユーザ情報、端末情報、及び撮影情報などと対応づけて保存される。
【0071】
対象者情報は、立ち座り動画221を撮影された対象者に関する情報である。対象者情報は、例えば、対象者の氏名、年齢、性別、及び生年月日を含むが、これに限られない。
【0072】
ユーザ情報は、立ち座り動画221を撮影したユーザ(撮影者)に関する情報である。ユーザ情報は、例えば、ユーザの氏名、年齢、性別、生年月日、所属及び役職を含むが、これに限られない。
【0073】
端末情報は、立ち座り動画221を送信したユーザ端末2に関する情報である。端末情報は、例えば、ユーザ端末2の機種、使用者及び製造年月日を含むが、これに限られない。
【0074】
撮影情報は、立ち座り動画221の撮影に関する情報である。撮影情報は、例えば、撮影日時、撮影時の明るさ、撮影装置205Cの機種、撮影装置205Cの傾き及びズーム倍率を含むが、これに限られない。
【0075】
評価結果222は、状態評価装置1から取得した、立ち座り動画221に基づく対象者の状態の評価結果を示す情報である。評価結果222について、詳しくは後述する。
【0076】
制御部23は、プロセッサ201がメモリ202からプログラムを読み出して実行し、他のハードウェア構成と協働することにより実現される。制御部23は、ユーザ端末2の動作全体を制御する。制御部23は、取得部231と、撮影制御部232と、表示制御部233と、を備える。
【0077】
取得部231は、状態評価装置1から評価結果222を取得し、記憶部22に保存する。
【0078】
撮影制御部232は、撮影装置205Cによる立ち座り動画221の撮影を制御する。
【0079】
表示制御部233は、表示装置206Dに表示される画面を制御する。
【0080】
なお、ユーザ端末2の機能構成は、上記の例に限られない。例えば、ユーザ端末2は、上記の機能構成の一部を備え、残りを状態評価装置1が備えてもよい。また、ユーザ端末2は、上記以外の機能構成を備えてもよい。また、ユーザ端末2の各機能構成は、上記の通り、ソフトウェアにより実現されてもよいし、ICチップ、SoC、LSI、マイクロコンピュータ等のハードウェアによって実現されてもよい。
【0081】
<状態評価システム1000が実行する処理>
次に、状態評価システム1000が実行する処理について説明する。
図6は、状態評価システム1000が実行する処理の一例を示すフローチャートである。以下では、ユーザがユーザ端末2を利用して立ち座り動画221を撮影する場合を例に説明する。
【0082】
(ステップS101)
まず、ユーザが対象者の立ち座り動画221を撮影する(ステップS101)。具体的には、ユーザの操作に応じて、撮影制御部232が撮影装置205Cを制御して対象者の立ち座りを撮影し、得られた立ち座り動画221を対象者情報、ユーザ情報、端末情報、及び撮影情報などと対応づけて記憶部22に保存する。ここでは、対象者は、上限を50回として、可能な回数だけ立ち座りを繰り返し行うものとする。なお、上限回数は任意に設定可能である。また、立ち座りの回数は、予め決められていてもよい。
【0083】
(ステップS102)
次に、ユーザ端末2は、記憶部22に保存された立ち座り動画221を対象者情報、ユーザ情報、端末情報、及び撮影情報などと対応づけて状態評価装置1に送信する(ステップS102)。
【0084】
(ステップS103)
状態評価装置1の取得部131は、ユーザ端末2が送信した立ち座り動画221を取得し、対象者情報、ユーザ情報、端末情報、及び撮影情報などと対応づけて立ち座り動画121として記憶部12に保存する。
【0085】
図7は、立ち座り動画121を模式的に示す図である。
図7には、立ち座り動画121のうち、1回分の立ち座りに相当する部分(対象者が座った状態から立ち上がり、再び座るまでの部分)を構成する画像im1~im5が示されている。画像im1は対象者が座った状態、画像im2は対象者が立ち上がりかけた状態、画像im3は対象者が立ち上がった状態、画像im4は対象者が座りかけた状態、画像im5は対象者が再び座った状態を撮影したものである。
【0086】
(ステップS104)
記憶部12に立ち座り動画121が保存されると、抽出部132は、抽出モデル122を利用して、立ち座り動画121から対象者の複数の特徴点pを抽出し、特徴点情報123を記憶部22に保存する(ステップS104)。
【0087】
図8は、立ち座り動画121から抽出される特徴点pの一例を示す図である。
図8では、
図7の画像im1~im5に特徴点p1~p8が重畳して表示されている。特徴点p1~p8は、それぞれ踵、膝、腰、手首、肘、肩、首、頭の特徴点pである。
図8に示すように、画像im1~im5からそれぞれ特徴点p1~p8が抽出される。以下、特徴点p1~p8を、それぞれ踵p1、膝p2、腰p3、手首p4、肘p5、肩p6、首p7、頭p8と称する。なお、上述の通り、抽出される特徴点pの種類及び座標は、
図8の例に限られない。
【0088】
(ステップS105)
評価部133は、記憶部12に保存された特徴点情報123に基づいて、対象者の立位の安定性を評価する(ステップS105)。より詳細には、評価部133は、複数回の立ち座りにおける対象者の立位時の体の傾きaに基づいて、立位の安定性の評価値v1を算出する。
【0089】
図9は、評価部133による立位の安定性の評価方法の一例を示すフローチャートである。
図9の処理は、ステップS105の内部処理に相当する。
【0090】
(ステップS201)
まず、評価部133は、立ち座り動画121から対象者の立位を検出する(ステップS201)。以下、立位の検出方法として、3つ検出方法について説明する。評価部133は、どの評価方法を利用してもよい。
【0091】
(1)第1の検出方法
立ち座り動作を行うと、膝より上の体の部分は、立位時に最も高い位置にくる(
図8参照)。このため、例えば、対象者がx回の立ち座りを行なった場合、膝より上の特徴点pの高さ(特徴点の鉛直方向の座標)には、ほぼ同じ高さのx回の最大値(ピーク)があらわれる。そこで、評価部133は、膝より上の特徴点pの高さが最大となった各時点を、立位時として検出する。膝より上の特徴点pは、例えば、腹、胸、首、肩、肘、手首、指、頭、目、耳、口又は鼻であるが、これに限られない。
【0092】
(2)第2の検出方法
立ち座り動作を行うと、膝の角度は立位時に最も大きくなる(
図8参照)。このため、例えば、対象者がx回の立ち座りを行なった場合、膝の角度(踵p1及び膝p2を結ぶ直線と、膝p2及び腰p3を結ぶ直線と、のなす角)には、ほぼ同じ大きさのx回の最大値(ピーク)があらわれる。そこで、評価部133は、膝の角度が最大値となった各時点を、立位時として検出する。
【0093】
(3)第3の検出方法
立ち座り動作を行うと、体の傾きaは立位時に最も小さくなる(
図8参照)。ここでいう体の傾きaは、鉛直軸に対する体軸の傾きのことである。このため、例えば、対象者がx回の立ち座りを行なった場合、体の傾きaには、ほぼ同じ大きさのx回の最小値(ボトム)があらわれる。そこで、評価部133は、体の傾きaが最小値となった各時点を、立位時として検出する。
【0094】
(ステップS202)
次に、評価部133は、ステップS201で検出した立位時の体の傾きaを算出する(ステップS202)。例えば、対象者がx回の立ち座りを行なった場合、x回分の立位時の体の傾きa1~axが算出される。
【0095】
図10は、
図8の画像im3を利用して立位時の体の傾きaを説明する図である。
図10に示すように、立位時の体の傾きaは、例えば、鉛直線L1と、踵p1及び首p7を結ぶ線L2と、のなす角θ1である。線L2は、踵p1及び肩p8を結ぶ線であってもよい。
【0096】
(ステップS203)
続いて、評価部133は、ステップS202で算出されたx回分の立位時の体の傾きa1~axに基づいて、対象者の立位の安定性の評価値v1を算出する(ステップS203)。一般に、立位時の体の傾きaが小さい(角θ1が0に近い)ほど、立位は安定すると考えられる。そこで、例えば、評価部133は、立位時の体の傾きa1~axの代表値arが小さい(角θ1の絶対値が小さい)ほど立位の安定性を高く評価する。立位の安定性が高いほど評価値v1が高い場合、評価部133は、立位時の体の傾きa1~axの代表値arが小さい(角θ1の絶対値が小さい)ほど立位の安定性の評価値v1を高く算出する。代表値arは、例えば、傾きa1~axの最小値、平均値、中央値又は昇順の上位X%の平均値であるが、これに限られない。なお、評価値v1は、代表値arと予め設定された閾値とを比較して得られる多段階のランクであってもよい。
【0097】
以上の処理により、立ち座り動画121から対象者の立位の安定性が評価され、評価値v1が算出される。評価部133は、評価値v1を評価結果124として記憶部12に保存する。
【0098】
(ステップS106)
ここで、
図6に戻る。評価部133は、記憶部12に保存された特徴点情報123に基づいて、対象者の筋力を評価する(ステップS106)。より詳細には、評価部133は、対象者が行った立ち座りの回数又は時間に基づいて、対象者の筋力の評価値v2を算出する。立ち座りの回数は、立位の回数と同様であるため、上述の立位の検出方法のいずれかにより計測すればよい。以下、筋力の評価方法として、2つ評価方法について説明する。評価部133は、どの評価方法を利用してもよい。
【0099】
(1)第1の評価方法
対象者が上限をX回として、可能な回数だけ立ち座りを繰り返し行う場合、一般に、対象者が多くの立ち座りを行うほど、対象者の筋力は高いと考えられる。そこで、評価部133は、対象者が行った立ち座りの回数が多いほど、対象者の筋力を高く評価する。対象者の筋力が高いほど評価値v2が大きい場合、評価部133は、対象者が立ち座りを行なった回数xが多いほど評価値v2を大きく算出する。なお、評価値v2は、回数xであってもよいし、回数xと予め設定された閾値とを比較して得られる多段階のランクであってもよい。
(2)第2の評価方法
予め決められた所定回数Xだけ立ち座りを繰り返し行う場合、一般に、対象者が短い時間で所定回数Xの立ち座りを行うほど、対象者の筋力は高いと考えられる。そこで、評価部133は、対象者が所定回数Xの立ち座りを行うのに要した所要時間Tが短いほど、対象者の筋力を高く評価する。対象者の筋力が高いほど評価値v2が大きい場合、評価部133は、対象者が所定回数Xの立ち座りを行なうのに要した所要時間Tが短いほど評価値v2を大きく算出する。なお、評価値v2は、時間Tであってもよいし、所要時間Tと予め設定された閾値とを比較して得られる多段階のランクであってもよい。
【0100】
ここで、所要時間Tは、1回目の立ち座り開始前の座位から、X回目の立ち座り終了後の座位まで、の所要時間である。評価部133は、1回目の立ち座り開始前の座位と、X回目の立ち座り終了後の座位と、を検出し、両者の間の時間を所要時間Tとして算出すればよい。
【0101】
以下、座位の検出方法として、3つ検出方法について説明する。評価部133は、どの検出方法を利用してもよい。
【0102】
(1)第1の検出方法
立ち座り動作を行うと、膝より上の体の部分は、座位時に最も低い位置にくる(
図8参照)。このため、例えば、対象者がX回の立ち座りを行なった場合、膝より上の特徴点pの高さ(特徴点pの鉛直方向の座標)には、ほぼ同じ高さのX回の最小値(ボトム)があらわれる。そこで、評価部133は、膝より上の特徴点pの高さが最小となった各時点を、座位時として検出する。膝より上の特徴点pは、例えば、腹、胸、首、肩、肘、手首、指、頭、目、耳、口又は鼻であるが、これに限られない。
【0103】
(2)第2の検出方法
立ち座り動作を行うと、膝の角度は座位時に最も小さくなる(
図8参照)。このため、例えば、対象者がX回の立ち座りを行なった場合、膝の角度(踵p1及び膝p2を結ぶ直線と、膝p2及び腰p3を結ぶ直線と、のなす角)には、ほぼ同じ大きさのX回の最小値(ボトム)があらわれる。そこで、評価部133は、膝の角度が最小値となった各時点を、座位時として検出する。
【0104】
(3)第3の検出方法
立ち座り動作を行うと、体の傾きtは立位時に最も大きくなる(
図8参照)。ここでいう体の傾きtは、鉛直軸に対する体軸の傾きのことである。このため、例えば、対象者がX回の立ち座りを行なった場合、体の傾きtには、ほぼ同じ大きさのX回の最大値(ピーク)があらわれる。そこで、評価部133は、体の傾きtが最大値となった各時点を、座位時として検出する。
【0105】
以上の処理により、立ち座り動画121から対象者の筋力が評価され、評価値v2が算出される。評価部133は、評価値v2を評価結果124として記憶部12に保存する。
【0106】
(ステップS107)
評価部133は、記憶部12に保存された特徴点情報123に基づいて、対象者の立位の姿勢を評価する(ステップS107)。より詳細には、評価部133は、複数回の立ち座りにおける対象者の立位時の股関節の伸びeに基づいて、立位の姿勢の評価値v3を算出する。
【0107】
図11は、評価部133による立位の姿勢の評価方法の一例を示すフローチャートである。
図11の処理は、ステップS107の内部処理に相当する。
【0108】
(ステップS301)
まず、評価部133は、立ち座り動画121から対象者の立位を検出する(ステップS301)。立位の検出方法は、上述の通りである。
【0109】
(ステップS302)
次に、評価部133は、ステップS301で検出した立位時の股関節の伸びeを算出する(ステップS302)。例えば、対象者がx回の立ち座りを行なった場合、x回分の立位時の股関節の伸びe1~exが算出される。
【0110】
図12は、
図8の画像im3を利用して立位時の股関節の伸びeを説明する図である。
図12に示すように、立位時の股関節の伸びeは、例えば、首p7及び腰p3を結ぶ線L3と、腰p3及び膝p2を結ぶ線L4と、のなす角θ2である。線L3は、肩p6及び腰p3を結ぶ線であってもよい。線L4は、腰p3及び踵p1を結ぶ線であってもよい。
【0111】
(ステップS303)
続いて、評価部133は、ステップS302で算出されたx回分の立位時の股関節の伸びe1~exに基づいて、対象者の立位の姿勢の評価値v3を算出する(ステップS303)。一般に、立位時の股関節の伸びeが小さい(角θ2が0に近い)ほど、立位の姿勢は良いと考えられる。そこで、例えば、評価部133は、立位時の股関節の伸びe1~txの代表値trが小さい(角θ2の絶対値が小さい)ほど立位の姿勢を高く評価する。立位の姿勢が良いほど評価値v3が高い場合、評価部133は、立位時の股関節の伸びe1~exの代表値trが小さい(角θ2の絶対値が小さい)ほど立位の姿勢の評価値v3を高く算出する。代表値erは、例えば、伸びe1~exの最小値、平均値、中央値又は昇順の上位X%の平均値であるが、これに限られない。なお、評価値v3は、代表値erと予め設定された閾値とを比較して得られる多段階のランクであってもよい。
【0112】
以上の処理により、立ち座り動画121から対象者の立位の姿勢が評価され、評価値v3が算出される。評価部133は、評価値v3を評価結果124として記憶部12に保存する。
【0113】
(ステップS108)
ここで、
図6に戻る。評価部133は、記憶部12に保存された特徴点情報123に基づいて、対象者の着座時の圧迫骨折リスクを評価する(ステップS108)。より詳細には、評価部133は、対象者の起立所要時間tu及び着座所要時間tdに基づいて、対象者の着座時の圧迫骨折のリスクの評価値v4を算出する。起立所要時間tuは、対象者が立ち上がるのに要した時間である。着座所要時間tdは、対象者が座るのに要した時間である。
【0114】
図13は、評価部133による着座時の圧迫骨折リスクの評価方法の一例を示すフローチャートである。
図13の処理は、ステップS108の内部処理に相当する。
【0115】
(ステップS401)
まず、評価部133は、立ち座り動画121から対象者の立位及び座位を検出する(ステップS401)。立位及び座位の検出方法は、上述の通りである。
【0116】
(ステップS402)
次に、評価部133は、ステップS401で検出した立位及び座位のタイミングに基づいて、それぞれの立ち座りにおける起立所要時間tu及び座位所要時間td(
図8参照)を算出する(ステップS402)。例えば、対象者がx回の立ち座りを行なった場合、x回分の起立所要時間tu1~tux及び座位所要時間td1~tdxが算出される。
【0117】
(ステップS403)
続いて、評価部133は、各立ち座りにおける座位/起立時間比rを算出する。座位/起立時間比rは、起立所要時間tuに対する座位所要時間tdの割合である(r=td/tu)。
【0118】
(ステップS404)
その後、評価部133は、ステップS403で算出されたx回分の座位/起立時間比r1~rxに基づいて、対象者の着座時の圧迫骨折リスクの評価値v4を算出する(ステップS404)。一般に、立ち上がるより座る方が早い、すなわち、起立所要時間tuに対する座位所要時間tdの割合が小さい(座位/起立時間比rが小さい)ほど、着座時の圧迫骨折リスクは高いと考えられる。そこで、例えば、評価部133は、座位/起立時間比r1~rxの代表値rrが小さいほど着座時の圧迫骨折リスクを高く評価する。着座時の圧迫骨折リスクが高いほど評価値v4が低い場合、評価部133は、座位/起立時間比r1~rxの代表値rrが小さいほど着座時の圧迫骨折リスクの評価値v4を低く算出する。代表値rrは、例えば、座位/起立時間比r1~rxの最小値、平均値、中央値又は昇順の上位X%の平均値であるが、これに限られない。なお、評価値v4は、代表値rrと予め設定された閾値とを比較して得られる多段階のランクであってもよい。
【0119】
以上の処理により、立ち座り動画121から対象者の着座時の圧迫骨折リスクが評価され、評価値v4が算出される。評価部133は、評価値v4を評価結果124として記憶部12に保存する。
【0120】
(ステップS109)
評価部133は、対象者の立位の安定性、対象者の筋力、対象者の立位の姿勢及び対象者の着座時の圧迫骨折リスクの評価結果に基づいて、対象者の状態を総合評価する(ステップS109)。具体的には、評価部133は、評価値v1~v4に基づいて、対象者の状態の総合的な評価値v5を算出する。評価値v5は、例えば、評価値v1~v4の平均値又は合計値であるが、これに限られない。評価部133は、評価値v5を評価結果124として記憶部12に保存する。
【0121】
(ステップS110)
評価部133は、対象者が補助具Aを使用しているか判定する(ステップS110)。補助具Aは、対象者の立ち座りを補助する任意の道具である。補助具Aは、例えば、手すり、テーブル、椅子の肘掛けであるが、これに限られない。
【0122】
図14は、補助具Aの一例を示す図である。
図14の例では、補助具Aは手すりであり、対象者は、補助具Aを使用して立ち座りを行っている。
【0123】
対象者が補助具Aを使用しているか否かは、ユーザにより登録され、立ち座り画像121と対応づけてその旨の情報がユーザ端末2から状態評価装置1に送信されてもよいし、評価部133が立ち座り画像221を解析することにより判定されてもよい。判定方法は補助具Aの種類に応じて任意に選択できる。
【0124】
対象者が補助具Aを使用している場合(ステップS110:YES)、処理はステップS111に進む。対象者が補助具Aを使用していない場合(ステップS110:NO)、処理はステップS112に進む。
【0125】
(ステップS111)
対象者が補助具Aを使用している場合、評価部133は、記憶部12に保存された評価結果124を、評価が下がるように修正する(ステップS111)。すなわち、評価部133は、対象者が補助具Aを使用している場合、対象者が補助具Aを使用していない場合と比べて、対象者の状態を低く評価する。具体的には、評価部133は、評価値v1~v5を、それぞれの評価が下がるように修正する。評価部133は、評価値v1~v5に所定の倍率をかけてもよいし、所定の値を加算又は減算してもよい。評価値vの修正量は、評価の種類ごとに異なってもよい。評価値133は、修正した評価値v1~v5を評価結果124として記憶部12に保存する。
【0126】
(ステップS112)
その後、評価部133は、評価値v1~v5に基づいて、対象者へのメッセージmを生成する(ステップS112)。メッセージmは、例えば、評価値v1~v5の値ごとに予め用意されたものの中から、評価値v1~v5の値に応じて選択したものを組み合わせることにより生成される。評価部133は、メッセージmを評価結果124として記憶部12に保存する。
【0127】
(ステップS113)
ここで、
図6に戻る。状態評価装置1は、ユーザ端末2からの要求に応じて、評価値v1~v5及びメッセージmを含む評価結果124を立ち座り動画121と対応づけてユーザ端末2に送信する(ステップS113)。
【0128】
(ステップS114)
ユーザ端末2の取得部231は、状態評価装置1が送信した評価結果124を取得し、対象動画221と対応づけて評価結果222として記憶部22に保存する(ステップS114)。
【0129】
(ステップS115)
表示制御部233は、ユーザの操作に応じて、表示装置206Dに立ち座り動画221の評価結果222を表示する(ステップS115)。
【0130】
図15は、評価結果表示画面scの一例を示す図である。評価結果表示画面scは、評価結果222を表示する画面である。
図15の評価結果表示画面scは、立ち座り動画221と、その評価値v1~v5と、メッセージmと、を表示している。
図15の例では、各評価値vは5段階の点数で評価されており、評価値v1は5点、評価値v2は2点、評価値v3は4点、評価値v4は2点、評価値v5は13点である。これは、立ち座り動画221を撮影された対象者の立位の安定性が高く、筋力が低く、立位の姿勢が良く、着座時の圧迫骨折リスクが高いことを意味している。また、メッセージmとして、「真っ直ぐ立つことができています。筋力トレーニングを頑張りましょう!」というメッセージが生成されている。
【0131】
対象者及びユーザは、評価結果表示画面scを参照することにより、対象者の状態を容易に把握することができる。
【0132】
<まとめ>
以上説明した通り、本実施形態によれば、状態評価システム1000が実行する状態評価方法であって、対象者の立ち座りを対象者の側方から撮影した立ち座り動画121を取得する取得ステップと、立ち座り動画121から対象者の複数の特徴点pを抽出する抽出ステップと、複数の特徴点pに基づいて、対象者の状態を評価する評価ステップと、を含む状態評価方法が実現できる。
【0133】
これにより、状態評価システム1000は、対象者の立ち座り動画121から対象者の状態を評価することができる。この状態評価システム1000を利用することにより、ユーザは、対象者の立ち座り動画221を撮影するだけで、対象者の種々の状態を容易に把握することができる。
【0134】
<付記>
本実施形態は、以下の開示を含む。
【0135】
(付記1)
状態評価システムが実行する状態評価方法であって、
対象者の立ち座りを前記対象者の側方から撮影した立ち座り動画を取得する取得ステップと、
前記立ち座り動画から前記対象者の複数の特徴点を抽出する抽出ステップと、
前記複数の特徴点に基づいて、前記対象者の状態を評価する評価ステップと、
を含む状態評価方法。
【0136】
(付記2)
前記評価ステップは、前記対象者の立位の安定性を評価する
付記1に記載の状態評価方法。
【0137】
(付記3)
前記評価ステップは、前記対象者の立位時の体の傾きに基づいて、前記安定性を評価する
付記2に記載の状態評価方法。
【0138】
(付記4)
前記立位時の傾きは、鉛直線と、前記対象者の踵及び首を結んだ線と、のなす角である
付記3に記載の状態評価方法。
【0139】
(付記5)
前記評価ステップは、前記対象者の筋力を評価する
付記1に記載の状態評価方法。
【0140】
(付記6)
前記評価ステップは、前記対象者の立ち座りの回数又は所要時間に基づいて、前記筋力を評価する
付記5に記載の状態評価方法。
【0141】
(付記7)
前記評価ステップは、前記対象者の立位の姿勢を評価する
付記1に記載の状態評価方法。
【0142】
(付記8)
前記評価ステップは、前記対象者の立位時の股関節の伸びに基づいて、前記姿勢を評価する
付記7に記載の状態評価方法。
【0143】
(付記9)
前記股関節の伸びは、前記対象者の首及び腰を結んだ線と、腰及び膝を結んだ線と、のなす角である
付記8に記載の状態評価方法。
【0144】
(付記10)
前記評価ステップは、前記対象者の着座時の圧迫骨折リスクを評価する
付記1に記載の状態評価方法。
【0145】
(付記11)
前記評価ステップは、前記対象者の起立所要時間及び着座所要時間に基づいて、前記圧迫骨折リスクを評価する
付記10に記載の状態評価方法。
【0146】
(付記12)
前記評価ステップは、前記対象者が補助具を使用している場合、前記補助具を使用していない場合に比べて、前記対象者の状態を低く評価する
付記1に記載の状態評価方法。
【0147】
(付記13)
対象者の立ち座りを前記対象者の側方から撮影した立ち座り動画を取得する取得部と、
前記立ち座り動画から前記対象者の複数の特徴点を抽出する抽出部と、
前記複数の特徴点に基づいて、前記対象者の状態を評価する評価部と、
を備える状態評価システム。
【0148】
(付記14)
コンピュータに、
対象者の立ち座りを前記対象者の側方から撮影した立ち座り動画を取得する取得ステップと、
前記立ち座り動画から前記対象者の複数の特徴点を抽出する抽出ステップと、
前記複数の特徴点に基づいて、前記対象者の状態を評価する評価ステップと、
を含む状態評価方法を実行させる状態評価プログラム。
【0149】
今回開示された実施形態はすべての点で例示であって、制限的なものではないと考えられるべきである。本発明の範囲は、上記した意味ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。また、本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。
【符号の説明】
【0150】
1:状態評価装置
2:ユーザ端末
121:立ち座り動画
122:抽出モデル
123:特徴点情報
124:評価結果
131:取得部
132:抽出部
133:評価部
【手続補正書】
【提出日】2023-10-19
【手続補正1】
【補正対象書類名】特許請求の範囲
【補正対象項目名】全文
【補正方法】変更
【補正の内容】
【特許請求の範囲】
【請求項1】
状態評価システムが実行する状態評価方法であって、
対象者の立ち座りを前記対象者の側方から撮影した立ち座り動画を取得する取得ステップと、
前記立ち座り動画から前記対象者の複数の特徴点を抽出する抽出ステップと、
前記複数の特徴点に基づいて、前記対象者の状態を評価する評価ステップと、
を含み、
前記評価ステップは、前記対象者の立位の安定性を評価する
状態評価方法。
【請求項2】
状態評価システムが実行する状態評価方法であって、
対象者の立ち座りを前記対象者の側方から撮影した立ち座り動画を取得する取得ステップと、
前記立ち座り動画から前記対象者の複数の特徴点を抽出する抽出ステップと、
前記複数の特徴点に基づいて、前記対象者の状態を評価する評価ステップと、
を含み、
前記評価ステップは、前記対象者の立位の姿勢を評価する
状態評価方法。
【請求項3】
状態評価システムが実行する状態評価方法であって、
対象者の立ち座りを前記対象者の側方から撮影した立ち座り動画を取得する取得ステップと、
前記立ち座り動画から前記対象者の複数の特徴点を抽出する抽出ステップと、
前記複数の特徴点に基づいて、前記対象者の状態を評価する評価ステップと、
を含み、
前記評価ステップは、前記対象者の着座時の圧迫骨折リスクを評価する
状態評価方法。
【請求項4】
状態評価システムが実行する状態評価方法であって、
対象者の立ち座りを前記対象者の側方から撮影した立ち座り動画を取得する取得ステップと、
前記立ち座り動画から前記対象者の複数の特徴点を抽出する抽出ステップと、
前記複数の特徴点に基づいて、前記対象者の状態を評価する評価ステップと、
を含み、
前記評価ステップは、前記対象者が補助具を使用している場合、前記補助具を使用していない場合に比べて、前記対象者の状態を低く評価する
状態評価方法。
【請求項5】
前記評価ステップは、前記対象者の立位時の体の傾きに基づいて、前記安定性を評価する
請求項1から4のいずれかに記載の状態評価方法。
【請求項6】
前記立位時の傾きは、鉛直線と、前記対象者の踵及び首を結んだ線と、のなす角である
請求項5に記載の状態評価方法。
【請求項7】
前記評価ステップは、前記対象者の筋力を評価する
請求項1から4のいずれかに記載の状態評価方法。
【請求項8】
前記評価ステップは、前記対象者の立ち座りの回数又は所要時間に基づいて、前記筋力を評価する
請求項7に記載の状態評価方法。
【請求項9】
前記評価ステップは、前記対象者の立位時の股関節の伸びに基づいて、前記姿勢を評価する
請求項2に記載の状態評価方法。
【請求項10】
前記股関節の伸びは、前記対象者の首及び腰を結んだ線と、腰及び膝を結んだ線と、のなす角である
請求項9に記載の状態評価方法。
【請求項11】
前記評価ステップは、前記対象者の起立所要時間及び着座所要時間に基づいて、前記圧迫骨折リスクを評価する
請求項3に記載の状態評価方法。
【請求項12】
対象者の立ち座りを前記対象者の側方から撮影した立ち座り動画を取得する取得部と、
前記立ち座り動画から前記対象者の複数の特徴点を抽出する抽出部と、
前記複数の特徴点に基づいて、前記対象者の状態を評価する評価部と、
を備え、
前記評価部は、前記対象者の立位の安定性を評価する
状態評価システム。
【請求項13】
対象者の立ち座りを前記対象者の側方から撮影した立ち座り動画を取得する取得部と、
前記立ち座り動画から前記対象者の複数の特徴点を抽出する抽出部と、
前記複数の特徴点に基づいて、前記対象者の状態を評価する評価部と、
を備え、
前記評価部は、前記対象者の立位の姿勢を評価する
状態評価システム。
【請求項14】
対象者の立ち座りを前記対象者の側方から撮影した立ち座り動画を取得する取得部と、
前記立ち座り動画から前記対象者の複数の特徴点を抽出する抽出部と、
前記複数の特徴点に基づいて、前記対象者の状態を評価する評価部と、
を備え、
前記評価部は、前記対象者の着座時の圧迫骨折リスクを評価する
状態評価システム。
【請求項15】
対象者の立ち座りを前記対象者の側方から撮影した立ち座り動画を取得する取得部と、
前記立ち座り動画から前記対象者の複数の特徴点を抽出する抽出部と、
前記複数の特徴点に基づいて、前記対象者の状態を評価する評価部と、
を備え、
前記評価部は、前記対象者が補助具を使用している場合、前記補助具を使用していない場合に比べて、前記対象者の状態を低く評価する
状態評価システム。
【請求項16】
コンピュータに、
対象者の立ち座りを前記対象者の側方から撮影した立ち座り動画を取得する取得ステップと、
前記立ち座り動画から前記対象者の複数の特徴点を抽出する抽出ステップと、
前記複数の特徴点に基づいて、前記対象者の状態を評価する評価ステップと、
を含み、
前記評価ステップは、前記対象者の立位の安定性を評価する
状態評価方法を実行させる状態評価プログラム。
【請求項17】
コンピュータに、
対象者の立ち座りを前記対象者の側方から撮影した立ち座り動画を取得する取得ステップと、
前記立ち座り動画から前記対象者の複数の特徴点を抽出する抽出ステップと、
前記複数の特徴点に基づいて、前記対象者の状態を評価する評価ステップと、
を含み、
前記評価ステップは、前記対象者の立位の姿勢を評価する
状態評価方法を実行させる状態評価プログラム。
【請求項18】
コンピュータに、
対象者の立ち座りを前記対象者の側方から撮影した立ち座り動画を取得する取得ステップと、
前記立ち座り動画から前記対象者の複数の特徴点を抽出する抽出ステップと、
前記複数の特徴点に基づいて、前記対象者の状態を評価する評価ステップと、
を含み、
前記評価ステップは、前記対象者の着座時の圧迫骨折リスクを評価する
状態評価方法を実行させる状態評価プログラム。
【請求項19】
コンピュータに、
対象者の立ち座りを前記対象者の側方から撮影した立ち座り動画を取得する取得ステップと、
前記立ち座り動画から前記対象者の複数の特徴点を抽出する抽出ステップと、
前記複数の特徴点に基づいて、前記対象者の状態を評価する評価ステップと、
を含み、
前記評価ステップは、前記対象者が補助具を使用している場合、前記補助具を使用していない場合に比べて、前記対象者の状態を低く評価する
状態評価方法を実行させる状態評価プログラム。
【手続補正書】
【提出日】2023-12-21
【手続補正1】
【補正対象書類名】特許請求の範囲
【補正対象項目名】全文
【補正方法】変更
【補正の内容】
【特許請求の範囲】
【請求項1】
状態評価システムが実行する状態評価方法であって、
対象者の立ち座りを前記対象者の側方から撮影した立ち座り動画を取得する取得ステップと、
前記立ち座り動画から前記対象者の複数の特徴点を抽出する抽出ステップと、
前記複数の特徴点に基づいて、前記対象者の状態を評価する評価ステップと、
を含み、
前記評価ステップは、前記対象者の立位の安定性を評価する
状態評価方法。
【請求項2】
状態評価システムが実行する状態評価方法であって、
対象者の立ち座りを前記対象者の側方から撮影した立ち座り動画を取得する取得ステップと、
前記立ち座り動画から前記対象者の複数の特徴点を抽出する抽出ステップと、
前記複数の特徴点に基づいて、前記対象者の状態を評価する評価ステップと、
を含み、
前記評価ステップは、前記対象者の立位の姿勢を評価する
状態評価方法。
【請求項3】
状態評価システムが実行する状態評価方法であって、
対象者の立ち座りを前記対象者の側方から撮影した立ち座り動画を取得する取得ステップと、
前記立ち座り動画から前記対象者の複数の特徴点を抽出する抽出ステップと、
前記複数の特徴点に基づいて、前記対象者の状態を評価する評価ステップと、
を含み、
前記評価ステップは、前記対象者の着座時の圧迫骨折リスクを評価する
状態評価方法。
【請求項4】
状態評価システムが実行する状態評価方法であって、
対象者の立ち座りを前記対象者の側方から撮影した立ち座り動画を取得する取得ステップと、
前記立ち座り動画から前記対象者の複数の特徴点を抽出する抽出ステップと、
前記複数の特徴点に基づいて、前記対象者の状態を評価する評価ステップと、
を含み、
前記評価ステップは、前記対象者が補助具を使用している場合、前記補助具を使用していない場合に比べて、前記対象者の状態を低く評価する
状態評価方法。
【請求項5】
前記評価ステップは、前記対象者の立位時の体の傾きに基づいて、前記安定性を評価する
請求項1に記載の状態評価方法。
【請求項6】
前記立位時の傾きは、鉛直線と、前記対象者の踵及び首を結んだ線と、のなす角である
請求項5に記載の状態評価方法。
【請求項7】
前記評価ステップは、前記対象者の筋力を評価する
請求項1から4のいずれかに記載の状態評価方法。
【請求項8】
前記評価ステップは、前記対象者の立ち座りの回数又は所要時間に基づいて、前記筋力を評価する
請求項7に記載の状態評価方法。
【請求項9】
前記評価ステップは、前記対象者の立位時の股関節の伸びに基づいて、前記姿勢を評価する
請求項2に記載の状態評価方法。
【請求項10】
前記股関節の伸びは、前記対象者の首及び腰を結んだ線と、腰及び膝を結んだ線と、のなす角である
請求項9に記載の状態評価方法。
【請求項11】
前記評価ステップは、前記対象者の起立所要時間及び着座所要時間に基づいて、前記圧迫骨折リスクを評価する
請求項3に記載の状態評価方法。
【請求項12】
対象者の立ち座りを前記対象者の側方から撮影した立ち座り動画を取得する取得部と、
前記立ち座り動画から前記対象者の複数の特徴点を抽出する抽出部と、
前記複数の特徴点に基づいて、前記対象者の状態を評価する評価部と、
を備え、
前記評価部は、前記対象者の立位の安定性を評価する
状態評価システム。
【請求項13】
対象者の立ち座りを前記対象者の側方から撮影した立ち座り動画を取得する取得部と、
前記立ち座り動画から前記対象者の複数の特徴点を抽出する抽出部と、
前記複数の特徴点に基づいて、前記対象者の状態を評価する評価部と、
を備え、
前記評価部は、前記対象者の立位の姿勢を評価する
状態評価システム。
【請求項14】
対象者の立ち座りを前記対象者の側方から撮影した立ち座り動画を取得する取得部と、
前記立ち座り動画から前記対象者の複数の特徴点を抽出する抽出部と、
前記複数の特徴点に基づいて、前記対象者の状態を評価する評価部と、
を備え、
前記評価部は、前記対象者の着座時の圧迫骨折リスクを評価する
状態評価システム。
【請求項15】
対象者の立ち座りを前記対象者の側方から撮影した立ち座り動画を取得する取得部と、
前記立ち座り動画から前記対象者の複数の特徴点を抽出する抽出部と、
前記複数の特徴点に基づいて、前記対象者の状態を評価する評価部と、
を備え、
前記評価部は、前記対象者が補助具を使用している場合、前記補助具を使用していない場合に比べて、前記対象者の状態を低く評価する
状態評価システム。
【請求項16】
コンピュータに、
対象者の立ち座りを前記対象者の側方から撮影した立ち座り動画を取得する取得ステップと、
前記立ち座り動画から前記対象者の複数の特徴点を抽出する抽出ステップと、
前記複数の特徴点に基づいて、前記対象者の状態を評価する評価ステップと、
を含み、
前記評価ステップは、前記対象者の立位の安定性を評価する
状態評価方法を実行させる状態評価プログラム。
【請求項17】
コンピュータに、
対象者の立ち座りを前記対象者の側方から撮影した立ち座り動画を取得する取得ステップと、
前記立ち座り動画から前記対象者の複数の特徴点を抽出する抽出ステップと、
前記複数の特徴点に基づいて、前記対象者の状態を評価する評価ステップと、
を含み、
前記評価ステップは、前記対象者の立位の姿勢を評価する
状態評価方法を実行させる状態評価プログラム。
【請求項18】
コンピュータに、
対象者の立ち座りを前記対象者の側方から撮影した立ち座り動画を取得する取得ステップと、
前記立ち座り動画から前記対象者の複数の特徴点を抽出する抽出ステップと、
前記複数の特徴点に基づいて、前記対象者の状態を評価する評価ステップと、
を含み、
前記評価ステップは、前記対象者の着座時の圧迫骨折リスクを評価する
状態評価方法を実行させる状態評価プログラム。
【請求項19】
コンピュータに、
対象者の立ち座りを前記対象者の側方から撮影した立ち座り動画を取得する取得ステップと、
前記立ち座り動画から前記対象者の複数の特徴点を抽出する抽出ステップと、
前記複数の特徴点に基づいて、前記対象者の状態を評価する評価ステップと、
を含み、
前記評価ステップは、前記対象者が補助具を使用している場合、前記補助具を使用していない場合に比べて、前記対象者の状態を低く評価する
状態評価方法を実行させる状態評価プログラム。