IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 国立大学法人大阪大学の特許一覧 ▶ 独立行政法人国立病院機構の特許一覧

特許7357872被験者の状態を推定するためのコンピュータシステム、方法、およびプログラム
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2023-09-29
(45)【発行日】2023-10-10
(54)【発明の名称】被験者の状態を推定するためのコンピュータシステム、方法、およびプログラム
(51)【国際特許分類】
   A61B 5/11 20060101AFI20231002BHJP
【FI】
A61B5/11 200
【請求項の数】 22
(21)【出願番号】P 2022566687
(86)(22)【出願日】2022-06-07
(86)【国際出願番号】 JP2022022989
(87)【国際公開番号】W WO2022260046
(87)【国際公開日】2022-12-15
【審査請求日】2022-11-01
(31)【優先権主張番号】P 2021095390
(32)【優先日】2021-06-07
(33)【優先権主張国・地域又は機関】JP
【早期審査対象出願】
(73)【特許権者】
【識別番号】504176911
【氏名又は名称】国立大学法人大阪大学
(73)【特許権者】
【識別番号】504136993
【氏名又は名称】独立行政法人国立病院機構
(74)【代理人】
【識別番号】100136629
【弁理士】
【氏名又は名称】鎌田 光宜
(74)【代理人】
【識別番号】100080791
【弁理士】
【氏名又は名称】高島 一
(74)【代理人】
【識別番号】100118371
【弁理士】
【氏名又は名称】▲駒▼谷 剛志
(72)【発明者】
【氏名】池本 紀子
(72)【発明者】
【氏名】長原 一
(72)【発明者】
【氏名】多田 智
(72)【発明者】
【氏名】森口 悠
【審査官】遠藤 直恵
(56)【参考文献】
【文献】特開2016-144598(JP,A)
【文献】中国特許出願公開第110477925(CN,A)
(58)【調査した分野】(Int.Cl.,DB名)
A61B 5/06-5/22
(57)【特許請求の範囲】
【請求項1】
被験者の状態を推定するためのコンピュータシステムであって、
被験者が歩行する様子を撮影した複数の画像を受信する受信手段と、
前記複数の画像から前記被験者の少なくとも1つのシルエット画像を生成する生成手段と、
前記複数の画像から前記被験者の骨格特徴を抽出する抽出手段と、
前記骨格特徴と前記少なくとも1つのシルエット画像との両方を入力として、前記被験者の健康に関する状態を推定する推定手段と
を備えるコンピュータシステム。
【請求項2】
前記推定手段は、前記被験者の少なくとも1つの疾患に関する状態を含む状態を推定する、請求項1に記載のコンピュータシステム。
【請求項3】
前記推定手段は、学習用シルエット画像と、前記学習用シルエット画像に写る対象の前記少なくとも1つの疾患に関する状態との関係を学習した学習済モデルを利用して、前記状態を推定する、請求項2に記載のコンピュータシステム。
【請求項4】
前記推定手段は、
前記少なくとも1つのシルエット画像に基づいて、前記状態を示す第1のスコアを取得し、
前記骨格特徴に基づいて、前記状態を示す第2のスコアを取得し、
前記第1のスコアと前記第2のスコアとに基づいて、前記状態を推定する、
請求項1に記載のコンピュータシステム。
【請求項5】
前記生成手段は、
前記複数の画像から複数のシルエット領域を抽出することと、
前記抽出された複数のシルエット領域の各々を正規化することと、
前記正規化された複数のシルエット領域を平均することと
によって前記少なくとも1つのシルエット画像を生成する、請求項1に記載のコンピュータシステム。
【請求項6】
前記複数の画像は、前記被験者が歩行する方向に対して略直交する方向から前記被験者が歩行する様子を撮影した動画中の複数のフレームである、請求項1に記載のコンピュータシステム。
【請求項7】
前記推定手段による推定の結果を分析する分析手段であって、前記分析手段は、前記少なくとも1つのシルエット画像において、前記推定の結果に相対的に大きく寄与する関心領域を特定する、分析手段と、
前記関心領域に基づいて、前記推定手段のアルゴリズムを修正する修正手段と
さらに備える、請求項1に記載のコンピュータシステム。
【請求項8】
前記健康に関する状態は、前記被験者の少なくとも1つの疾患に関する状態を含み、前記少なくとも1つの疾患は、歩行障害を生じる疾患を含む、請求項1に記載のコンピュータシステム。
【請求項9】
前記少なくとも1つの疾患は、歩行障害を生じる運動器疾患、歩行障害を生じる神経筋疾患、歩行障害を生じる循環器疾患、歩行障害を生じる呼吸器疾患からなる群から選択される少なくとも1つを含む、請求項8に記載のコンピュータシステム。
【請求項10】
前記少なくとも1つの疾患に関する状態の推定は、前記歩行障害を生じる疾患が、どの臓器の疾患に関するものであるかを判別することを含む、請求項8に記載のコンピュータシステム。
【請求項11】
前記判別は、前記歩行障害を生じる疾患が、運動器疾患であるか、神経筋疾患であるか、循環器疾患であるか、呼吸器疾患であるかを判別することを含む、請求項10に記載のコンピュータシステム。
【請求項12】
前記少なくとも1つの疾患は、頚椎症性脊髄症(CSM)、腰部脊柱管狭窄症(LCS)、変形性関節症(OA)、神経炎(neuropathy)、椎間板ヘルニア、後縦靭帯骨化症(OPLL)、慢性関節リウマチ(RA)、心不全,水頭症,末梢動脈疾患(PAD)、筋炎(myositis)、筋症(myopathy)、パーキンソン病、筋萎縮性側索硬化症(ALS)、脊髄小脳変性症、多系統萎縮症、脳腫瘍、レビー小体型認知症、不顕性骨折、薬物中毒、半月板損傷、靭帯損傷、脊髄梗塞、脊髄炎、脊髄症,化膿性脊椎炎、椎間板炎、外反母趾、慢性閉塞性肺疾患(COPD)、肥満症、脳梗塞、ロコモティブシンドローム、フレイル、遺伝性痙性対麻痺からなる群から選択される少なくとも1つを含む、請求項8に記載のコンピュータシステム。
【請求項13】
前記被験者の健康に関する状態は、少なくとも1つの疾患の重症度によって表され、 前記推定手段は、前記重症度を推定する、請求項1に記載のコンピュータシステム。
【請求項14】
前記疾患は、頚椎症性脊髄症であり、
前記推定手段は、前記重症度として頚椎JOAスコアを推定する、請求項13に記載のコンピュータシステム。
【請求項15】
前記受信手段は、頚椎JOAスコアが10以上であると判定された被験者が歩行する様子を撮影した複数の画像を受信する、請求項14に記載のコンピュータシステム。
【請求項16】
前記推定手段は、前記被験者の歩行能力を推定する、請求項1に記載のコンピュータシステム。
【請求項17】
前記被験者の歩行の状態がどの年齢の水準にあるかを示す数値によって表される、請求項16に記載のコンピュータシステム。
【請求項18】
前記推定された状態に応じた治療もしくは介入または情報を提供する提供手段をさらに含む、請求項1~17のいずれか一項に記載のコンピュータシステム。
【請求項19】
被験者の状態を推定するための方法であって、前記方法は、プロセッサ部を備えるコンピュータにおいて実行され、前記方法は、
前記プロセッサ部が、被験者が歩行する様子を撮影した複数の画像を受信することと、
前記プロセッサ部が、前記複数の画像から前記被験者の少なくとも1つのシルエット画像を生成することと、
前記プロセッサ部が、前記複数の画像から前記被験者の骨格特徴を抽出することと、
前記プロセッサ部が、前記骨格特徴と前記少なくとも1つのシルエット画像との両方を入力として、前記被験者の健康に関する状態を推定することと
を含む方法。
【請求項20】
被験者の状態を推定するためのプログラムであって、前記プログラムは、プロセッサを備えるコンピュータにおいて実行され、前記プログラムは、
被験者が歩行する様子を撮影した複数の画像を受信することと、
前記複数の画像から前記被験者の少なくとも1つのシルエット画像を生成することと、
前記複数の画像から前記被験者の骨格特徴を抽出することと、
前記骨格特徴と前記少なくとも1つのシルエット画像との両方を入力として、前記被験者の健康に関する状態を推定することと
を含む処理を前記プロセッサに行わせる、プログラム。
【請求項21】
被験者の状態を推定するためのモデルを作成する方法であって、
複数の対象のうちの各対象について、
前記対象が歩行する様子を撮影した複数の画像を受信することと、
前記複数の画像から前記対象の少なくとも1つのシルエット画像を生成することと、
前記複数の画像から前記対象の骨格特徴を抽出することと、
前記骨格特徴と前記少なくとも1つのシルエット画像との両方を入力用教師データとし、前記対象の健康に関する状態を出力用教師データとして、機械学習モデルに学習させることと
を含む方法。
【請求項22】
被験者の健康状態、障害または疾患を治療、予防、または改善するためのシステムであって、
(A)被験者が歩行する様子を撮影した複数の画像を受信する受信手段と、
(B)前記複数の画像から前記被験者の少なくとも1つのシルエット画像を生成する生成手段と、
(C)前記複数の画像から前記被験者の骨格特徴を抽出する抽出手段と、
(D)前記骨格特徴と前記少なくとも1つのシルエット画像との両方を入力として、前記被験者の健康に関する状態を推定することと
(E)前記被験者の健康に関する状態に基づいて、前記被験者に施すべき治療、予防、または改善のための方法を算出する算出手段と、
(F)前記被験者に、前記治療、予防、または改善のための方法を施す手段と
を備えるシステム。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、被験者の状態を推定するためのコンピュータシステム、方法、およびプログラムに関する。
【背景技術】
【0002】
歩行と健康状態との密接な関わりについて、従来から多岐にわたる研究がなされてきた(例えば、非特許文献1)。
【先行技術文献】
【非特許文献】
【0003】
【文献】Studenski S.et.al.,“Gait Speed and Survival in Older Adults”,JAMA. 2011;305(1):50-58,Journal of American Medical Association
【発明の概要】
【課題を解決するための手段】
【0004】
一つの局面において、本開示は、被験者が歩行する様子を撮影した複数の画像から、被験者の状態を推定するためのコンピュータシステム、方法、およびプログラムを提供する。
【0005】
この局面において、本開示は、例えば、以下を提供する。
【0006】
(項目1)
被験者の状態を推定するためのコンピュータシステムであって、
被験者が歩行する様子を撮影した複数の画像を受信する受信手段と、
前記複数の画像から前記被験者の少なくとも1つのシルエット画像を生成する生成手段と、
少なくとも前記少なくとも1つのシルエット画像に基づいて、前記被験者の健康に関する状態を推定する推定手段と
を備えるコンピュータシステム。
(項目2)
前記推定手段は、前記被験者の少なくとも1つの疾患に関する状態を含む状態を推定する、項目1に記載のコンピュータシステム。
(項目3)
前記推定手段は、学習用シルエット画像と、前記学習用シルエット画像に写る対象の前記少なくとも1つの疾患に関する状態との関係を学習した学習済モデルを利用して、前記状態を推定する、項目1または2に記載のコンピュータシステム。
(項目4)
前記複数の画像から前記被験者の骨格特徴を抽出する抽出手段をさらに備え、
前記推定手段は、前記骨格特徴にさらに基づいて、前記状態を推定する、
項目1~3のいずれか一項に記載のコンピュータシステム。
(項目5)
前記推定手段は、
前記少なくとも1つのシルエット画像に基づいて、前記状態を示す第1のスコアを取得し、
前記骨格特徴に基づいて、前記状態を示す第2のスコアを取得し、
前記第1のスコアと前記第2のスコアとに基づいて、前記状態を推定する、
項目4に記載のコンピュータシステム。
(項目6)
前記生成手段は、
前記複数の画像から複数のシルエット領域を抽出することと、
前記抽出された複数のシルエット領域の各々を正規化することと、
前記正規化された複数のシルエット領域を平均することと
によって前記少なくとも1つのシルエット画像を生成する、項目1~5のいずれか一項に記載のコンピュータシステム。
(項目7)
前記複数の画像は、前記被験者が歩行する方向に対して略直交する方向から前記被験者が歩行する様子を撮影した動画中の複数のフレームである、項目1~6のいずれか一項に記載のコンピュータシステム。
(項目8)
前記推定手段による推定の結果を分析する分析手段であって、前記分析手段は、前記少なくとも1つのシルエット画像において、前記推定の結果に相対的に大きく寄与する関心領域を特定する、分析手段と、
前記関心領域に基づいて、前記推定手段のアルゴリズムを修正する修正手段と
さらに備える、項目1~7のいずれか一項に記載のコンピュータシステム。
(項目9)
前記健康に関する状態は、前記被験者の少なくとも1つの疾患に関する状態を含み、前記少なくとも1つの疾患は、歩行障害を生じる疾患を含む、項目1~8のいずれか一項に記載のコンピュータシステム。
(項目10)
前記少なくとも1つの疾患は、歩行障害を生じる運動器疾患、歩行障害を生じる神経筋疾患、歩行障害を生じる循環器疾患、歩行障害を生じる呼吸器疾患からなる群から選択される少なくとも1つを含む、項目9に記載のコンピュータシステム。
(項目11)
前記少なくとも1つの疾患に関する状態の推定は、前記歩行障害を生じる疾患が、どの臓器の疾患に関するものであるかを判別することを含む、項目9に記載のコンピュータシステム。
(項目12)
前記判別は、前記歩行障害を生じる疾患が、運動器疾患であるか、神経筋疾患であるか、循環器疾患であるか、呼吸器疾患であるかを判別することを含む、項目11に記載のコンピュータシステム。
(項目13)
前記少なくとも1つの疾患は、頚椎症性脊髄症(CSM)、腰部脊柱管狭窄症(LCS)、変形性関節症(OA)、神経炎(neuropathy)、椎間板ヘルニア、後縦靭帯骨化症(OPLL)、慢性関節リウマチ(RA)、心不全,水頭症,末梢動脈疾患(PAD)、筋炎(myositis)、筋症(myopathy)、パーキンソン病、筋萎縮性側索硬化症(ALS)、脊髄小脳変性症、多系統萎縮症、脳腫瘍、レビー小体型認知症、不顕性骨折、薬物中毒、半月板損傷、靭帯損傷、脊髄梗塞、脊髄炎、脊髄症,化膿性脊椎炎、椎間板炎、外反母趾、慢性閉塞性肺疾患(COPD)、肥満症、脳梗塞、ロコモティブシンドローム、フレイル、遺伝性痙性対麻痺からなる群から選択される少なくとも1つを含む、項目9~12のいずれか一項に記載のコンピュータシステム。
(項目14)
前記被験者の健康に関する状態は、少なくとも1つの疾患の重症度によって表され、
前記推定手段は、前記重症度を推定する、項目1~12のいずれか一項に記載のコンピュータシステム。
(項目15)
前記疾患は、頚椎症性脊髄症であり、
前記推定手段は、前記重症度として頚椎JOAスコアを推定する、項目14に記載のコンピュータシステム。
(項目16)
前記受信手段は、頚椎JOAスコアが10以上であると判定された被験者が歩行する様子を撮影した複数の画像を受信する、項目15に記載のコンピュータシステム。
(項目17)
前記推定手段は、前記被験者の歩行能力を推定する、項目1に記載のコンピュータシステム。
(項目18)
前記被験者の歩行の状態がどの年齢の水準にあるかを示す数値によって表される、項目17に記載のコンピュータシステム。
(項目19)
前記推定された状態に応じた治療もしくは介入または情報を提供する提供手段をさらに含む、項目1~18のいずれか一項に記載のコンピュータシステム。
(項目20)
被験者の状態を推定するための方法であって、
被験者が歩行する様子を撮影した複数の画像を受信することと、
前記複数の画像から前記被験者の少なくとも1つのシルエット画像を生成することと、
少なくとも前記少なくとも1つのシルエット画像に基づいて、前記被験者の健康に関する状態を推定することと
を含む方法。
(項目20A)
上記項目の1つまたは複数に記載の特徴を含む、項目20に記載の方法。
(項目21)
被験者の状態を推定するためのプログラムであって、前記プログラムは、プロセッサを備えるコンピュータにおいて実行され、前記プログラムは、
被験者が歩行する様子を撮影した複数の画像を受信することと、
前記複数の画像から前記被験者の少なくとも1つのシルエット画像を生成することと、
少なくとも前記少なくとも1つのシルエット画像に基づいて、前記被験者の健康に関する状態を推定することと
を含む処理を前記プロセッサに行わせる、プログラム。
(項目21A)
上記項目の1つまたは複数に記載の特徴を含む、項目21に記載のプログラム。
(項目21B)
被験者の状態を推定するためのプログラムを記憶する記憶媒体であって、前記プログラムは、プロセッサを備えるコンピュータにおいて実行され、前記プログラムは、
被験者が歩行する様子を撮影した複数の画像を受信することと、
前記複数の画像から前記被験者の少なくとも1つのシルエット画像を生成することと、
少なくとも前記少なくとも1つのシルエット画像に基づいて、前記被験者の健康に関する状態を推定することと
を含む処理を前記プロセッサに行わせる、記憶媒体。
(項目21C)
上記項目の1つまたは複数に記載の特徴を含む、項目21Bに記載の記憶媒体。
(項目22)
被験者の状態を推定するためのモデルを作成する方法であって、
複数の対象のうちの各対象について、
前記対象が歩行する様子を撮影した複数の画像を受信することと、
前記複数の画像から前記対象の少なくとも1つのシルエット画像を生成することと、
前記少なくとも1つのシルエット画像を入力用教師データとし、前記対象の健康に関する状態を出力用教師データとして、機械学習モデルに学習させることと
を含む方法。
(項目22A)
上記項目の1つまたは複数に記載の特徴を含む、項目22に記載の方法。
(項目22B)
被験者の状態を推定するためのモデルを作成するためのシステムであって、
対象が歩行する様子を撮影した複数の画像を受信する受信手段と、
前記複数の画像から前記対象の少なくとも1つのシルエット画像を生成する生成手段と、
前記少なくとも1つのシルエット画像を入力用教師データとし、前記対象の少なくとも1つの疾患に関する状態を出力用教師データとして、機械学習モデルに学習させる学習手段と
を備えるシステム。
(項目22C)
上記項目の1つまたは複数に記載の特徴を含む、項目22Bに記載のシステム。
(項目22D)
被験者の状態を推定するためのモデルを作成するためのプログラムであって、前記プログラムは、プロセッサを備えるコンピュータにおいて実行され、前記プログラムは、
複数の対象のうちの各対象について、
前記対象が歩行する様子を撮影した複数の画像を受信することと、
前記複数の画像から前記対象の少なくとも1つのシルエット画像を生成することと、
前記少なくとも1つのシルエット画像を入力用教師データとし、前記対象の少なくとも1つの疾患に関する状態を出力用教師データとして、機械学習モデルに学習させることと
を含む処理を前記プロセッサに行わせる、プログラム。
(項目22E)
上記項目の1つまたは複数に記載の特徴を含む、項目22Dに記載のプログラム。
(項目22F)
被験者の状態を推定するためのモデルを作成するためのプログラムを記憶する記憶媒体であって、前記プログラムは、プロセッサを備えるコンピュータにおいて実行され、前記プログラムは、
複数の対象のうちの各対象について、
前記対象が歩行する様子を撮影した複数の画像を受信することと、
前記複数の画像から前記対象の少なくとも1つのシルエット画像を生成することと、
前記少なくとも1つのシルエット画像を入力用教師データとし、前記対象の少なくとも1つの疾患に関する状態を出力用教師データとして、機械学習モデルに学習させることと
を含む処理を前記プロセッサに行わせる、記憶媒体。
(項目22G)
上記項目の1つまたは複数に記載の特徴を含む、項目22Fに記載の記憶媒体。
(項目23)
被験者の健康状態、障害または疾患を治療、予防、または改善する方法であって、
(A)被験者が歩行する様子を撮影した複数の画像を受信することと、
(B)前記複数の画像から前記被験者の少なくとも1つのシルエット画像を生成することと、
(C)少なくとも前記少なくとも1つのシルエット画像に基づいて、前記被験者の健康に関する状態を推定することと
(D)前記被験者の健康に関する状態に基づいて、前記被験者に施すべき治療、予防、または改善のための方法を算出することと、
(E)前記被験者に、前記治療、予防、または改善のための方法を施すことと、
(F)必要に応じて(A)から(E)を繰り返すことと、
を含む方法。
(項目23A)
被験者の健康状態、障害または疾患を治療、予防、または改善するシステムであって、
(A)被験者が歩行する様子を撮影した複数の画像を受信する受信手段と、
(B)前記複数の画像から前記被験者の少なくとも1つのシルエット画像を生成する生成手段と、
(C)少なくとも前記少なくとも1つのシルエット画像に基づいて、前記被験者の健康に関する状態を推定する推定手段と
(D)前記被験者の健康に関する状態に基づいて、前記被験者に施すべき治療、予防、または改善のための方法を算出する算出手段と、
(E)前記被験者に、前記治療、予防、または改善のための方法を施す手段と
を備えるシステム。
(項目23B)
被験者の健康状態、障害または疾患を治療、予防、または改善するプログラムであって、前記プログラムは、プロセッサを備えるコンピュータにおいて実行され、前記プログラムは、
(A)被験者が歩行する様子を撮影した複数の画像を受信することと、
(B)前記複数の画像から前記被験者の少なくとも1つのシルエット画像を生成することと、
(C)少なくとも前記少なくとも1つのシルエット画像に基づいて、前記被験者の健康に関する状態を推定することと
(D)前記被験者の健康に関する状態に基づいて、前記被験者に施すべき治療、予防、または改善のための方法を算出することと、
(E)前記被験者に、前記治療、予防、または改善のための方法を施すことと、
(F)必要に応じて(A)から(E)を繰り返すことと、
を含む処理を前記プロセッサに行わせる、プログラム。
(項目23C)
被験者の健康状態、障害または疾患を治療、予防、または改善するプログラムを記憶する記憶媒体であって、前記プログラムは、プロセッサを備えるコンピュータにおいて実行され、前記プログラムは、
(A)被験者が歩行する様子を撮影した複数の画像を受信することと、
(B)前記複数の画像から前記被験者の少なくとも1つのシルエット画像を生成することと、
(C)少なくとも前記少なくとも1つのシルエット画像に基づいて、前記被験者の健康に関する状態を推定することと
(D)前記被験者の健康に関する状態に基づいて、前記被験者に施すべき治療、予防、または改善のための方法を算出することと、
(E)前記被験者に、前記治療、予防、または改善のための方法を施すことと、
(F)必要に応じて(A)から(E)を繰り返すことと、
を含む処理を前記プロセッサに行わせる、記憶媒体。
【発明の効果】
【0007】
本開示によれば、高い精度で被験者の少なくとも1つの疾患、障害、症候群、症状等の医学的状態に関する状態を推定することが可能な、被験者の状態を推定するためのコンピュータシステム、方法、およびプログラムを提供することができる。また、本開示によれば、歩行する様子を医師が診ただけでは識別することができない疾患でさえも識別することができる可能性がある。
【図面の簡単な説明】
【0008】
図1】本開示の一実施形態を用いて、被験者の歩行動画から被験者の状態を推定するためのフロー10の一例を示す図
図2】被験者の状態を推定するためのコンピュータシステム100の構成の一例を示す図
図3A】一実施形態におけるプロセッサ部120の構成の一例を示す図
図3B】別の実施形態におけるプロセッサ部120’の構成の一例を示す図
図3C】別の実施形態におけるプロセッサ部120’’の構成の一例を示す図
図3D】一実施形態におけるプロセッサ部140の構成の一例を示す図
図3E】別の実施形態におけるプロセッサ部140’の構成の一例を示す図
図4A】生成手段122によって、1枚の画像41から1枚のシルエット画像43を生成するフローの一例を概略的に図示する図
図4B】生成手段122によって、複数のシルエット画像43A~43Cから1枚のシルエット画像を生成するフローの一例を概略的に図示する図
図5A】抽出手段124によって、1枚の画像51から骨格特徴52を抽出するフローの一例を概略的に図示する図
図5B】分析手段125によって特定された判断根拠の一例を示す図
図6A】被験者の状態を推定するためのコンピュータシステム100による処理の一例(処理600)を示すフローチャート
図6B】被験者の状態を推定するためのコンピュータシステム100による処理の別の一例(処理610)を示すフローチャート
図7A】被験者の状態を推定するためのコンピュータシステム100による処理の一例(処理700)を示すフローチャート
図7B】被験者の状態を推定するためのコンピュータシステム100による処理の別の一例(処理710)を示すフローチャート
図8A】実施例1の結果を示す図
図8B】実施例2の結果を示す図
図8C】実施例3の結果を示す図
図9】実施例4の結果を示す。
図10】実施例5の結果を示す。
【発明を実施するための形態】
【0009】
以下、本開示を説明する。本明細書の全体にわたり、単数形の表現は、特に言及しない限り、その複数形の概念をも含むことが理解されるべきである。従って、単数形の冠詞(例えば、英語の場合は「a」、「an」、「the」など)は、特に言及しない限り、その複数形の概念をも含むことが理解されるべきである。また、本明細書において使用される用語は、特に言及しない限り、当該分野で通常用いられる意味で用いられることが理解されるべきである。したがって、他に定義されない限り、本明細書中で使用されるすべての専門用語および科学技術用語は、本発明の属する分野の当業者によって一般的に理解されるのと同じ意味を有する。矛盾する場合、本明細書(定義を含めて)が優先する。
【0010】
(定義)
本明細書において、「被験者」(subject)とは、本開示の技術が対象とする任意の人物または動物をいう。「被験者」は、「対象」(object)または患者(patient)と同義に用いられ得る。
【0011】
本明細書において、「被験者」の「状態」とは、被験者の身体または精神の様子のことをいう。
【0012】
本明細書において、「歩行」とは、肢(例えば、足(脚)、腕等)を持つ動物が行う、肢による任意の移動(運動)をいう。「歩行」は、狭義の意味での歩行(すなわち、すべての足が同時に地面から離れる瞬間を持たない動作)に加えて、走行(すなわち、すべての足が同時に地面から離れる瞬間を持つ動作)、四つん這いでの移動(いわゆる、ハイハイ)等を含む。
【0013】
本明細書において「歩行障害」とは、歩行における任意の障害をいい、歩行中の被験者の体の動き方(すなわち、体全体の変位)または体の各部の変位に異常をきたすことで特徴づけられる。
【0014】
本明細書において、「疾患」とは、対象の状態に不調または不都合が生じている状態をいう。「疾患」は、「障害」(正常な機能を妨げている状態)、「症状」(対象の異常な状態)、「症候群」(いくつかの症状が発生している状態)等の用語と同義的に用いられることがある。特に、歩行中の被験者の体の動き方または体の各部の変位に異常をきたす疾患は、「歩行障害を生じる疾患」といい、歩行障害を生じる疾患は、「歩行障害を生じる運動器疾患」、「歩行障害を生じる神経筋疾患」、「歩行障害を生じる循環器疾患」、「歩行障害を生じる呼吸器疾患」等、臓器ごとに分類して表現される疾患を含む。
【0015】
本明細書において、「歩行障害を生じる運動器疾患」とは、骨および関節の機能に関する疾患のうち歩行障害を生じるものをいい、例えば、変形性関節症(Osteoarthritis:OA)、慢性関節リウマチ、半月板損傷、靭帯損傷、ロコモティブシンドローム、頚椎症性脊髄症(CSM)、腰部脊柱管狭窄症(LCS)、後縦靭帯骨化症(OPLL)、椎間板ヘルニア、椎間板炎を含むがこれらに限定されない。頚椎症性脊髄症(CSM)、腰部脊柱管狭窄症(LCS)、後縦靭帯骨化症(OPLL)、椎間板ヘルニア、椎間板炎は、後述する「歩行障害を生じる神経筋疾患」でもあり得る。
【0016】
本明細書において、「歩行障害を生じる神経筋疾患」とは、神経および筋肉の機能に関する疾患のうち歩行障害を生じるものをいい、例えば、頚椎症性脊髄症(CSM)、腰部脊柱管狭窄症(LCS)、椎間板ヘルニア、脊髄小脳変性症、多系統萎縮症、神経炎(neuropathy)、水頭症、筋炎(myositis)、筋症(myopathy)、筋萎縮性側索硬化症(ALS)、脳腫瘍、脊髄梗塞、脊髄炎、脊髄症、後縦靭帯骨化症(OPLL)、椎間板炎、パーキンソン病、脳梗塞、遺伝性痙性対麻痺を含むがこれらに限定されない。頚椎症性脊髄症(CSM)、腰部脊柱管狭窄症(LCS)、後縦靭帯骨化症(OPLL)、椎間板ヘルニア、椎間板炎は、前述した「歩行障害を生じる運動器疾患」でもあり得る。
【0017】
本明細書において、「歩行障害を生じる循環器疾患」とは、心臓および血管の機能に関する疾患のうち歩行障害を生じるものをいい、例えば、心不全、末梢動脈疾患(PAD)、フレイルを含むがこれらに限定されない。
【0018】
本明細書において、「歩行障害を生じる呼吸器疾患」とは、肺の機能に関する疾患のうち歩行障害を生じるものをいい、例えば、慢性閉塞性肺疾患(COPD)を含むがこれらに限定されない。
【0019】
本明細書において、被験者等の「シルエット画像」とは、画像中の被験者等に属する画素と被験者等に属さない画素とを異なる画素値で表すことにより、被験者等の領域を表した画像のことをいう。典型的には、「被験者等のシルエット画像」は、画像中の被験者等に属する画素のすべてを同一の値とし、被験者等に属さない画素のすべてを同一の値とした2値画像であり得る。別の例では、画像中の被験者等を複数の部分に(例えば、部位毎に)分割し、同一の部分に属する画素のすべてを同一の値とし、被験者等に属さない画素のすべてを同一の値とした多値画像であり得る。別の例では、画像中の被験者等を複数の部分に(例えば、部位毎に)分割し、同一の部分に属する画素のすべてを同一の値とし、被験者等に属さない部分を複数の部分に分割し、同一の部分に属する画素のすべてを同一の値とし、それぞれの画素値を、被験者等に属する部分と被検者等に属しない部分とを識別可能な値とした多値画像であり得る。
【0020】
本明細書において、「被験者の骨格特徴」とは、被験者の骨格を表すことができる特徴のことをいう。骨格特徴は、例えば、被験者の複数の関節の位置および角度を含む。一例において、骨格特徴は、被験者の複数の関節を点(keypoint)で表し、点間を接続したグラフ構造によって表され得る。このようなグラフ構造として、18個のkeypointを有するCOCO、25個のKeypointを有するBody25が知られている。概して、Keypointが多いほど、被験者の骨格を表す精度が高い。
【0021】
本明細書において、「状態を推定する」とは、現在の状態を推定することに加えて、未来の状態を推定することも含む概念であり得る。
【0022】
本明細書において、「治療」とは、保存治療および手術治療を含む。保存治療は、薬物治療およびリハビリテーション治療を含み、リハビリテーションは、理学療法および作業療法を含む。リハビリテーション治療は、対面で指導を行うリハビリテーション治療および遠隔で指導を行うリハビリテーション治療を含む。
【0023】
本明細書において、「約」とは、後に続く数値の±10%を意味する。
【0024】
(好ましい実施形態)
以下に本開示の好ましい実施形態を説明する。以下に提供される実施形態は、本開示のよりよい理解のために提供されるものであり、本開示の範囲は以下の記載に限定されるべきでないことが理解される。従って、当業者は、本明細書中の記載を参酌して、本開示の範囲内で適宜改変を行うことができることは明らかである。また、以下の実施形態は単独でも使用されあるいはそれらを組み合わせて使用することができることが理解される。
【0025】
以下、図面を参照しながら、本開示の好ましい実施の形態を説明する。
【0026】
1.被験者の歩行動画から被験者の状態を推定するためのフロー
図1は、本開示の一実施形態を用いて、被験者の歩行動画から被験者の状態を推定するためのフロー10の一例を示す。フロー10は、被験者Sが歩行している様子を端末装置300で撮影するだけで、被験者Sの疾患に関する状態が推定され、推定された結果が医師または被験者Sに提供されるというものである。これにより、被験者Sは、自身が疾患を有しているかどうかを簡易的に知ることができる。また、医師は、推定された結果を、被験者Sの診断に役立てることができ、診断の精度向上につなげることができる。
【0027】
はじめに、被験者Sは、端末装置300(例えば、スマートフォン、タブレット等)を用いて、自身が歩行している様子を動画で撮影する。なお、動画は、連続した複数の画像(静止画)であるとみなせるため、本明細書では、「動画」は、「複数の画像」または「連続した複数の画像」と同義的に用いられる。なお、被験者Sが歩行している様子は、端末装置300ではなく、デジタルカメラ、ビデオカメラ等の撮影手段によって撮影してもよい。
【0028】
例えば、被験者Sが平地を直線的に歩行する姿を側面から、具体的には、歩行する方向に対して略直交する方向から撮影する。このとき、例えば、被験者Sの定常歩行を撮影することができるように、被験者Sの歩き初めではなく、数m歩いた後の様子を撮影することが好ましい。例えば、被験者Sに約10m歩行させるとき、最初の約3mと最後の約3mを除いた中間の約4mを歩行する姿を適切に撮影することができるように、端末装置300または撮影手段を設置することが好ましい。
【0029】
ステップS1では、撮影された動画が、サーバ装置100に提供される。動画がサーバ装置100に提供される態様は問わない。例えば、動画は、ネットワーク(例えば、インターネット、LAN等)を介してサーバ装置100に提供され得る。例えば、動画は、記憶媒体(例えば、リムーバブルメディア)を介してサーバ装置100に提供され得る。
【0030】
次いで、サーバ装置100において、ステップS1で提供された動画に対する処理が行われる。サーバ装置100は、動画中の複数のフレームの各々を処理する。サーバ装置100による処理により、被験者Sの疾患の状態が推定される。例えば、サーバ装置100による処理により、被験者Sが或る疾患を有している状態であるか、或る疾患を有していない状態であるかが推定され得る。例えば、サーバ装置100による処理により、被験者Sが有する或る疾患のレベル(例えば、軽度、中等度、重度)が推定され得る。ここで、疾患は、代表的に歩行障害を生じる疾患であり、例えば、歩行障害を生じる運動器疾患、歩行障害を生じる神経筋疾患、歩行障害を生じる循環器疾患、歩行障害を生じる呼吸器疾患であり得る。より具体的には、疾患は、例えば、頚椎症性脊髄症(CSM)、腰部脊柱管狭窄症(LCS)、変形性関節症(OA)、神経炎(neuropathy)、椎間板ヘルニア、後縦靭帯骨化症(OPLL)、慢性関節リウマチ(RA)、心不全,水頭症,末梢動脈疾患(PAD)、筋炎(myositis)、筋症(myopathy)、パーキンソン病、筋萎縮性側索硬化症(ALS)、脊髄小脳変性症、多系統萎縮症、脳腫瘍、レビー小体型認知症、不顕性骨折、薬物中毒、半月板損傷、靭帯損傷、脊髄梗塞、脊髄炎、脊髄症,化膿性脊椎炎、椎間板炎、外反母趾、慢性閉塞性肺疾患(COPD)、肥満症(肥満症は、肥満が、脂肪組織が過剰に蓄積した状態であって、BMI 25kg/m以上の状態のことをいう一方で、肥満症は、肥満に起因ないし関連する健康障害を合併するか、その合併が予測される場合であって、医学的に減量を必要とする疾患であるという点で、肥満とは区別される。)、脳梗塞、ロコモティブシンドローム、フレイル、遺伝性痙性対麻痺を含むがこれらに限定されない。より好ましくは、疾患は、神経炎(neuropathy)、筋炎(myositis)、変形性関節症(OA)、慢性関節リウマチ(RA)、心不全、慢性閉塞性肺疾患(COPD)、パーキンソン病のうちの少なくとも1つであり得る。また、このような推定は、歩行障害を生じる疾患が、どの臓器の疾患に関するものであるかを判別することを含んでいてもよく、そのような判別としては、運動器疾患であるか、神経筋疾患であるか、循環器疾患であるか、呼吸器疾患であるかを判別することを含んでいてもよい。
【0031】
ステップS2では、サーバ装置100によって推定された結果が、被験者Sに提供される。推定された結果が提供される態様は問わない。例えば、推定された結果は、ネットワークを介してサーバ装置100から端末装置300に提供されてもよいし、記憶媒体を介して被験者Sに提供されてもよいし、紙媒体を介して被験者Sに提供されてもよい。
【0032】
これにより、被験者Sは、自身が疾患を有しているかどうか、あるいは、自身の疾患のレベルがどの程度であるかを簡易的に知ることができる。このとき、例えば、被験者Sの疾患の状態に応じた治療または介入を被験者Sに提供するようにしてもよいし、被験者Sの疾患の状態に応じた情報(例えば、行動変容を促す情報、リハビリテーションを支援する情報)を被験者Sに提供するようにしてもよい。
【0033】
ステップS2に加えて、または、ステップS2に代えて、ステップS3では、サーバ装置100によって推定された結果が、医師に提供される。推定された結果が提供される態様はと合わない。例えば、推定された結果は、ネットワークを介してサーバ装置100から病院Hの端末装置に提供されてもよいし、記憶媒体を介して医師に提供されてもよいし、紙媒体を介して医師に提供されてもよい。
【0034】
これにより、医師は、被験者Sが疾患を有しているか否かの診断、あるいは、被験者が有している疾患のレベルの診断に、推定された結果を役立てることができる。例えば、診断が難しいまたは診断に経験もしくは知識が必要な疾患であっても、推定された結果を利用して、精度よく診断をすることが可能になり得る。このとき、例えば、被験者Sの疾患の状態に応じた情報(例えば、推奨される治療または介入の情報、推奨されるリハビリテーションの情報)を医師に提供するようにしてもよい。
【0035】
上述した例では、被験者Sが、自身が歩行している様子の動画を撮影するだけで、被験者Sの疾患の状態の推定結果を受けることができるフロー10を説明したが、本発明は、これに限定されない。例えば、医師が、カメラを用いて、被験者Sが歩行している様子を動画で撮影するだけで、あるいは、被験者が、別の人に、端末装置300を用いて、自身が歩行している様子を動画で撮影してもらうだけで、被験者Sの疾患の状態の推定結果が、医師、理学療法士、介護者、または被験者Sの家族等に提供されるというフローも可能である。
【0036】
例えば、上述したサーバ装置100は、クラウドサービスを提供するサーバ装置として実装され得る。被験者Sまたは医師は、端末装置(例えば、スマートフォン、パーソナルコンピュータ)からサーバ装置100にアクセスし、被験者Sの疾患の状態の推定結果を受けるというクラウドサービスを受けることができる。被験者Sまたは医師は、例えば、端末装置にインストールされたアプリケーションを介してサーバ装置100にアクセスするようにしてもよいし、WEBアプリケーションを介してサーバ装置100にアクセスするようにしてもよい。このようなクラウドサービスは、国内外の医療機関または被験者に提供されることができる。このようなクラウドサービスの提供を受けるためのアプリケーションは、例えば、医療機器としてあるいはヘルスケア製品として、国内外の医療機関または被験者に提供されることができる。被験者Sの疾患の状態を推定する処理は、多くの被験者の情報が収集されて学習されるほど精度が向上し得るため、処理の精度を向上させるために、被験者Sの疾患の状態を推定する処理のプログラムは頻繁なアップデートが必要とされ得る。サーバ装置100がクラウドサービスを提供するサーバ装置として実装されることで、被験者Sの疾患の状態を推定する処理のプログラムをアップデートが容易となるという利点がある。
【0037】
なお、上述したサーバ装置100による処理を端末装置300で行うことも可能である。この場合は、サーバ装置100が省略され得、端末装置300は、スタンドアローンで動くことができる。端末装置300には、被験者Sの疾患の状態を推定する処理をプロセッサに行わせるソフトウェアがインストールされ得る。このようなソフトウェアは、医療機器としてあるいはヘルスケア製品として、被験者Sに提供されることができる。本例では、被験者Sの疾患に関する状態の推定結果が、医師、理学療法士、介護者、または被験者Sの家族等に提供される上述した例では、端末装置300からサーバ装置100を介することなく、推定結果が提供され得る。
【0038】
例えば、上述したサーバ装置100による処理を医療機関の端末装置で行うことも可能である。この場合は、サーバ装置100が省略され得、端末装置は、スタンドアローンで動くことができる。端末装置がカメラを備える場合には、端末装置300も省略されるようにしてもよい。端末装置には、被験者Sの疾患の状態を推定する処理をプロセッサに行わせるソフトウェアがインストールされ得る。このようなソフトウェアは、医療機器として国内外の医療機関に提供されることができる。本例では、例えば、推定結果は、端末装置から医師Sの端末装置または被験者Sの端末装置300に提供され得る。
【0039】
例えば、上述したサーバ装置100による処理を専用装置で行うことも可能である。この場合は、サーバ装置100および端末装置300が省略され得、専用装置は、スタンドアローンで動くことができる。専用装置は、例えば、カメラと、処理部と、被験者Sの疾患の状態を推定する処理を処理部に行わせるソフトウェアを記憶するメモリとを備え得る。このような専用機器は、医療機器として、国内外の医療機関に提供されることができる。本例では、例えば、推定結果は、専用装置から医師Sの端末装置または被験者Sの端末装置300に提供されることができる。
【0040】
なお、上述した例では、特定の疾患に関する状態を推定することを説明したが、本開示はこれに限定されない。例えば、疾患に関する状態として、何らかの疾患を有しているか、すなわち、健常者であるか否かを推定するようにしてもよい。さらには、本開示は、被験者の疾患に関する状態に限らず、被験者の健康に関する状態を推定することができる。例えば、本開示は、被験者が健康状態であるか、被験者が疾患ではないものの疾患の予兆がある状態(すなわち、未病)であるか、被験者がどの程度の健康レベルであるか、被験者がどの程度の歩行能力を有するか等も同様に推定することができる。
【0041】
上述したフロー10は、後述する本発明のコンピュータシステム100を利用して実現され得る。
【0042】
2.被験者の状態を推定するためのコンピュータシステムの構成
図2は、被験者の状態を推定するためのコンピュータシステム100の構成の一例を示す。
【0043】
本例では、コンピュータシステム100は、データベース部200に接続されている。また、コンピュータシステム100は、少なくとも1つの端末装置300にネットワーク400を介して接続されている。
【0044】
ネットワーク400は、任意の種類のネットワークであり得る。ネットワーク400は、例えば、インターネットであってもよいし、LANであってもよい。ネットワーク400は、有線ネットワークであってもよいし、無線ネットワークであってもよい。
【0045】
コンピュータシステム100の一例は、サーバ装置であるが、これに限定されない。コンピュータシステム100は、端末装置(例えば、被験者が保持する端末装置、病院に設置されている端末装置、公共の場所(例えば、公民館、役所、図書館等)に設置されている端末装置)であってもよいし、専用機器であってもよい。端末装置300の一例は、被験者が保持する端末装置、または、病院に設置されている端末装置、または、公共の場所(例えば、公民館、役所、図書館等)に設置されている端末装置であるが、これに限定されない。ここで、サーバ装置および端末装置は、任意のタイプのコンピュータであり得る。例えば、端末装置は、スマートフォン、タブレット、パーソナルコンピュータ、スマートグラス等の任意のタイプの端末装置であり得る。端末装置300は、例えば、カメラ等の撮影手段を備えることが好ましい。
【0046】
コンピュータシステム100は、インターフェース部110と、プロセッサ部120と、メモリ130部とを備える。
【0047】
インターフェース部110は、コンピュータシステム100の外部と情報のやり取りを行う。コンピュータシステム100のプロセッサ部120は、インターフェース部110を介して、コンピュータシステム100の外部から情報を受信することが可能であり、コンピュータシステム100の外部に情報を送信することが可能である。インターフェース部110は、任意の形式で情報のやり取りを行うことができる。
【0048】
インターフェース部110は、例えば、コンピュータシステム100に情報を入力することを可能にする入力部を備える。入力部が、どのような態様でコンピュータシステム100に情報を入力することを可能にするかは問わない。例えば、入力部が受信器である場合、受信器がネットワーク400を介してコンピュータシステム100の外部から情報を受信することにより入力してもよい。あるいは、入力部がデータ読み取り装置である場合には、コンピュータシステム100に接続された記憶媒体から情報を読み取ることによって情報を入力するようにしてもよい。あるいは、例えば、入力部がタッチパネルである場合には、ユーザがタッチパネルにタッチすることによって情報を入力するようにしてもよい。あるいは、入力部がマウスである場合には、ユーザがマウスを操作することによって情報を入力するようにしてもよい。あるいは、入力部がキーボードである場合には、ユーザがキーボードのキーを押下することによって情報を入力するようにしてもよい。あるいは、入力部がマイクである場合には、ユーザがマイクに音声を入力することによって情報を入力するようにしてもよい。あるいは、入力部がカメラである場合には、カメラが撮像した情報を入力するようにしてもよい。
【0049】
例えば、入力部は、被験者が歩行している様子を撮影した動画をコンピュータシステム100に入力することを可能にする。
【0050】
インターフェース部110は、例えば、コンピュータシステム100から情報を出力することを可能にする出力部を備える。出力部が、どのような態様でコンピュータシステム100から情報を出力することを可能にするかは問わない。例えば、出力部が送信器である場合、送信器がネットワーク400を介してコンピュータシステム100の外部に情報を送信することにより出力してもよい。あるいは、例えば、出力部がデータ書き込み装置である場合、コンピュータシステム100に接続された記憶媒体に情報を書き込むことによって情報を出力するようにしてもよい。あるいは、出力部が表示画面である場合、表示画面に情報を出力するようにしてもよい。あるいは、出力部がスピーカである場合には、スピーカからの音声によって情報を出力するようにしてもよい。
【0051】
例えば、出力部は、コンピュータシステム100によって推定された被験者の状態をコンピュータシステム100の外部に出力することができる。
【0052】
プロセッサ部120は、コンピュータシステム100の処理を実行し、かつ、コンピュータシステム100全体の動作を制御する。プロセッサ部120は、メモリ部130に格納されているプログラムを読み出し、そのプログラムを実行する。これにより、コンピュータシステム100を所望のステップを実行するシステムとして機能させることが可能である。プロセッサ部120は、単一のプロセッサによって実装されてもよいし、複数のプロセッサによって実装されてもよい。
【0053】
メモリ部130は、コンピュータシステム100の処理を実行するために必要とされるプログラムやそのプログラムの実行に必要とされるデータ等を格納する。メモリ部130は、被験者の状態を推定するための処理のためのプログラム(例えば、後述する図6Aまたは図6Bに示される処理を実現するプログラム)および/または被験者の状態を推定するためのモデルを作成するための処理のためのプログラム(例えば、後述する図7Aまたは図7Bに示される処理を実現するプログラム)を格納してもよい。ここで、プログラムをどのようにしてメモリ部130に格納するかは問わない。例えば、プログラムは、メモリ部130にプリインストールされていてもよい。あるいは、プログラムは、ネットワークを経由してダウンロードされることによってメモリ部130にインストールされるようにしてもよい。あるいは、プログラムは、コンピュータ読み取り可能な記憶媒体に格納されていてもよい。
【0054】
データベース部200には、例えば、複数の対象のそれぞれについて、歩行している様子を撮影した複数の画像が格納され得る。複数の画像は、例えば、各対象の端末装置300からデータベース部200に(コンピュータシステム100を介して)送信されたものであってもよいし、例えば、コンピュータシステム100が備え得るカメラによって撮影されたものであってもよい。複数の対象のそれぞれの歩行している様子を撮影した複数の画像は、例えば、それぞれの対象の疾患の状態と関連付けられて格納され得る。データベース部200に格納されたデータは、例えば、被験者の状態を推定するためのモデルを作成するために利用され得る。
【0055】
データベース部200には、予測対象の被験者が歩行している様子を撮影した複数の画像が格納されるようにしてもよい。複数の画像は、例えば、予測対象の被験者の端末装置300からデータベース部200に(コンピュータシステム100を介して)送信されたものであってもよいし、例えば、コンピュータシステム100が備え得るカメラによって撮影されたものであってもよい。
【0056】
また、データベース部200には、例えば、コンピュータシステム100によって出力された、被験者の状態の推定結果が格納され得る。
【0057】
図2に示される例では、データベース部200は、コンピュータシステム100の外部に設けられているが、本発明はこれに限定されない。データベース部200の少なくとも一部をコンピュータシステム100の内部に設けることも可能である。このとき、データベース部200の少なくとも一部は、メモリ部130を実装する記憶手段と同一の記憶手段によって実装されてもよいし、メモリ部130を実装する記憶手段とは別の記憶手段によって実装されてもよい。いずれにせよ、データベース部200の少なくとも一部は、コンピュータシステム100のための格納部として構成される。データベース部200の構成は、特定のハードウェア構成に限定されない。例えば、データベース部200は、単一のハードウェア部品で構成されてもよいし、複数のハードウェア部品で構成されてもよい。例えば、データベース部200は、コンピュータシステム100の外付けハードディスク装置として構成されてもよいし、ネットワークを介して接続されるクラウド上のストレージとして構成されてもよい。
【0058】
図3Aは、一実施形態におけるプロセッサ部120の構成の一例を示す。
【0059】
プロセッサ部120は、受信手段121と、生成手段122と、推定手段123とを備える。
【0060】
受信手段121は、被験者が歩行している様子を撮影した複数の画像を受信するように構成されている。受信手段121は、コンピュータシステム100の外部からインターフェース部110を介して複数の画像を受信することができる。複数の画像は、例えば、被験者の端末装置300からコンピュータシステム100に送信されたものであってもよいし、データベース部200に格納されたものであって、データベース部200からコンピュータシステム100に送信されたものであってもよい。
【0061】
複数の画像は、例えば、静止画を連写することによって撮影された複数の画像であってもよいし、動画を構成する複数のフレームであってもよい。複数の画像は、任意のフレームレートを有し得るが、フレームレートは、好ましくは、20fps~60fps、より好ましくは、30fpsであり得る。
【0062】
受信手段121が受信した複数の画像は、生成手段122に提供される。
【0063】
生成手段122は、被験者が写った画像から被験者のシルエット画像を生成するように構成されている。生成手段122は、例えば、受信手段121が受信した複数の画像から、少なくとも1つのシルエット画像を生成することができる。生成手段122は、当該技術分野において公知の技術を用いて、シルエット画像を生成することができる。生成手段122は、例えば、グラフ転移学習またはセマンティックセグメンテーションと呼ばれる手法を用いて、シルエット画像を生成することができる。グラフ転移学習によるシルエット画像生成の手法の具体例として、Graphonomy(https://arxiv.org/abs/1904.04536)を用いた手法が挙げられるが、これに限定されない。
【0064】
生成手段122は、例えば、画像中の被験者に属する画素のすべてを同一の値とし、被験者に属さない画素のすべてを同一の値とした2値画像としてシルエット画像を生成するようにしてもよいし、画像中の被験者を複数の部分に(例えば、部位毎に)分割し、同一の部分に属する画素のすべてを同一の値とし、被験者に属さない画素のすべてを同一の値とした多値画像としてシルエット画像を生成するようにしてもよい。例えば、上述したGraphonomyによると、被験者の各部位が異なる画素値で表された多値画像としてシルエット画像が生成され得る。この多値画像としてのシルエット画像において、すべての部位を同じ画素値で表すことによって、2値画像としてのシルエット画像を生成することができる。
【0065】
一例において、生成手段122は、例えば、N枚の画像からN枚のシルエット画像を生成するようにしてもよいし、N枚の画像からM枚のシルエット画像を生成するようにしてもよい(N≧2、N>MまたはN<M)。特定の例において、生成手段122は、N枚の画像から1枚のシルエット画像を生成することができる。
【0066】
例えば、生成手段122は、N枚の画像からM枚のシルエット画像を生成することができる(N>M)。このとき、生成手段122は、N枚の画像のそれぞれからシルエット画像を生成し、生成されたN枚のシルエット画像のうちの少なくともいくつかを平均することによって、M枚の平均シルエット画像を生成することができる。好ましくは、N枚のシルエット画像のすべてを平均することによって、1枚の平均シルエット画像を生成し得る。
【0067】
このとき、例えば、生成手段122は、N枚の画像からN枚のシルエット領域を抽出し、抽出されたN枚のシルエット領域を正規化し、正規化されたN枚のシルエット領域を平均することによって、M枚、好ましくは1枚のシルエット画像を生成することができる。
【0068】
ここで、正規化処理は、例えば、画像に写っている被験者の身長を基準として行われ得る。正規化は、例えば、複数のシルエット画像のそれぞれから被験者のシルエット領域を抽出し、抽出された複数のシルエット領域を被験者の身長を基準としてリサイズ(すなわち、拡大または縮小)することによって行われる。一例において、正規化は、被験者のシルエット領域の縦方向の長さが約32ピクセル、約64ピクセル、約128ピクセル、約256ピクセル、約512ピクセル等の長さになるようにシルエット領域をリサイズすることによって行われる。このとき、横方向の長さは、縦横比を維持するように決定されてもよいし、固定値、例えば、約22ピクセル、約44ピクセル、約88ピクセル、約176ピクセル、約352ピクセル等であってもよい。好ましくは、縦横比を維持することである。シルエット画像のサイズが大きくなるほど計算コストが高くなり、シルエット画像のサイズが小さくなるほど特徴量が失われるため、このトレードオフを考慮して正規化後のシルエット画像のサイズを決定することが好ましい。正規化後のシルエット画像のサイズは、好ましくは、縦×横=128×88であり得る。縦×横=128×88であれば、比較的に低い計算コストで、十分な精度が得られるからである。正規化は、好ましくは、縦横比が維持されるように、シルエット領域を被験者の身長を基準として縦方向に正規化し、縦×横=128×88のシルエット画像を生成することであり得る。
【0069】
正規化処理において、例えば、ノイズ等の影響を低減するために、シルエットの重心の動きが滑らかになるようにスムージング処理を付加的に行うようにしてもよい。
【0070】
平均化処理は、例えば、シルエット領域N枚分の各画素の画素値の平均を取ることによって行われ得る。
【0071】
上述した例において、Nの値は、2以上の任意の整数であり得るが、好ましくは、20~60の範囲内の値、より好ましくは、40であり得る。Nの値は、好ましくは、1歩行周期分のフレーム数(例えば、約30fpsの場合約25~30フレーム)であり得、より好ましくは、歩行障害を有する被験者の1歩行周期分もカバーできるフレーム数(例えば、約30fpsの場合約40フレーム)であり得る。Nの値は、例えば、予測対象の疾患に応じて、変更されるようにしてもよい。
【0072】
図4Aは、生成手段122によって、1枚の画像41から1枚のシルエット画像43を生成するフローの一例を概略的に図示する。
【0073】
まず、生成手段122は、受信手段121から1枚の画像41を提供される。
【0074】
ステップS401では、生成手段122は、画像41からシルエット画像42を生成する。シルエット画像42は、被験者の各部位が異なる画素値で表された多値画像である。図4Aに示される例では、シルエット画像42は、被験者のシルエットにおいて、顔と、頭と、胴体と、脚部と、足先とがそれぞれ異なる画素値で表されている。
【0075】
ステップS402では、生成手段122は、シルエット画像42からシルエット画像43を生成する。シルエット画像43は、被験者の全体が同一の画素値で表された2値画像である。生成手段122は、シルエット画像42の被験者のシルエットの異なる画素値を同じ画素値で表すことによって、シルエット画像43を生成することができる。
【0076】
生成手段122は、このような処理を複数の画像のそれぞれに対して行うことにより、複数の画像から複数のシルエット画像を生成することができる。複数のシルエット画像が生成されると、例えば、図4Bに示されるフローが行われてもよい。
【0077】
なお、上述した例では、2値画像であるシルエット画像43を生成することを説明したが、多値画像であるシルエット画像を生成するようにしてもよい。この場合、ステップS402が省略され得る。
【0078】
図4Bは、生成手段122によって、複数のシルエット画像43A~43Cから1枚のシルエット画像を生成するフローの一例を概略的に図示する。ここでは、図4Aに示されるフローにより、複数のシルエット画像43A、43B、43C・・・が生成されているものとする。
【0079】
ステップS403では、生成手段122が、複数のシルエット画像43A、43B、43C・・・の各々から、被検者のシルエット領域を抽出し、抽出された複数のシルエット領域の各々を正規化する(すなわち、サイズを揃える)ことによって、正規化された複数のシルエット領域44A、44B、44C・・・を生成する。本例では、画像中の被験者の身長を基準として正規化が行われている。すなわち、複数のシルエット画像43A、43B、43C・・・の各々から抽出された複数のシルエット領域のそれぞれにおいて被験者の身長が同一となるように、抽出された複数のシルエット領域のそれぞれがリサイズされて、正規化された複数のシルエット領域44A、44B、44C・・・が生成されている。本例では、縦128ピクセル×横88ピクセルのシルエット領域となるように正規化されている。
【0080】
ステップS404では、生成手段122が、正規化された複数のシルエット領域44A、44B、44C・・・を平均することによって、1枚のシルエット画像45を生成する。平均は、正規化された複数のシルエット領域44A、44B、44C・・・について、各画素の画素値の平均を取ることによって行われ得る。例えば、シルエット画像45の第ijの画素の画素値Pijは、
【数1】
で計算され得る。ここで、nは、複数のシルエット領域44の数であり、pijkは、第kのシルエット領域の第ijの画素の画素値であり、0<i≦縦ピクセル数(本例では、128)、0<j≦横ピクセル数(本例では、88)である。
【0081】
このように、図4Aおよび図4Bに示されるような処理によって、生成手段122は、複数の画像から1枚のシルエット画像を生成することができる。生成手段122によって生成されたシルエット画像は、推定手段123に提供される。
【0082】
再び図3Aを参照して、推定手段123は、少なくとも1つのシルエット画像に基づいて、被験者の少なくとも1つの疾患に関する状態を推定するように構成されている。
【0083】
推定手段123は、例えば、或る疾患の状態として、被験者が或る疾患を有している状態であるか、或る疾患を有していない状態であるかを推定することができる。あるいは、推定手段123は、上記に加えてまたは上記に代えて、或る疾患の状態として、被験者が有する或る疾患のレベル(例えば、軽度、中等度、もしくは重度、または、重症度)を推定することができる。重症度は、一例として、頸椎症脊髄症の重症度を表す日本整形外科学会頸椎スコア(頸椎JOAスコア)で表現され得る。あるいは、推定手段123は、上記に加えてまたは上記に代えて、複数の疾患の状態として、被験者が複数の疾患のうちどの疾患を有している状態であるかを推定することができる。
【0084】
推定手段123によって状態を推定可能な疾患は、代表的に、歩行障害を生じる疾患であり、例えば、歩行障害を生じる運動器疾患、歩行障害を生じる神経筋疾患、歩行障害を生じる循環器疾患、歩行障害を生じる呼吸器疾患を含み得る。より具体的には、疾患は、例えば、頚椎症性脊髄症(CSM)、腰部脊柱管狭窄症(LCS)、変形性関節症(OA)、神経炎(neuropathy)、椎間板ヘルニア、後縦靭帯骨化症(OPLL)、慢性関節リウマチ(RA)、心不全,水頭症,末梢動脈疾患(PAD)、筋炎(myositis)、筋症(myopathy)、パーキンソン病、筋萎縮性側索硬化症(ALS)、脊髄小脳変性症、多系統萎縮症、脳腫瘍、レビー小体型認知症、不顕性骨折、薬物中毒、半月板損傷、靭帯損傷、脊髄梗塞、脊髄炎、脊髄症,化膿性脊椎炎、椎間板炎、外反母趾、慢性閉塞性肺疾患(COPD)、肥満症、脳梗塞、ロコモティブシンドローム、フレイル、遺伝性痙性対麻痺を含むがこれらに限定されない。特に、推定手段123は、頚椎症性脊髄症(CSM)、腰部脊柱管狭窄症(LCS)、変形性関節症(OA)、パーキンソン病、慢性関節リウマチ(RA)、脳梗塞の状態を精度よく推定することが可能である。推定手段123はまた、歩行障害を生じる疾患が、どの臓器の疾患に関するものであるかを判別するように構成されていてもよく、そのような判別としては、運動器疾患であるか、神経筋疾患であるか、循環器疾患であるか、呼吸器疾患であるかを判別することを含んでいてもよい。
【0085】
推定手段123は、任意のアルゴリズムを用いて、被験者の少なくとも1つの疾患に関する状態を推定することができる。推定手段123は、例えば、学習済モデルを利用して、被験者の少なくとも1つの疾患に関する状態を推定することができる。学習済モデルは、学習用シルエット画像と、学習用シルエット画像に写る対象の少なくとも1つの疾患に関する状態との関係を学習したモデルである。推定手段123は、例えば、少なくとも1つのシルエット画像から取得される特徴量(例えば、被験者の歩行時の輪郭形状(例えば、背中の曲がり方、脚の曲がり方、腕の振り方等)に基づいて、ルールベースで被験者の少なくとも1つの疾患に関する状態を推定することができる。
【0086】
学習済モデルは、任意のタイプの機械学習モデルであり得る。機械学習モデルは、例えば、ニューラルネットワークであり得、より具体的には、畳み込みニューラルネットワークであり得る。さらに具体的には、利用される機械学習モデルの例として、ResNet50(https://arxiv.org/abs/1512.03385)が挙げられるが、これに限定されない。
【0087】
一例において、学習済モデルは、後述するプロセッサ部140によって、または図7Aに示される処理700によって作成されるモデルであり得る。
【0088】
例えば、学習済モデルは、学習用シルエット画像と、学習用シルエット画像に写る対象の少なくとも1つの疾患に関する状態との関係を学習しているので、生成手段122によって生成されたシルエット画像を学習済モデルに入力すると、学習済モデルは、シルエット画像に写る被験者の少なくとも1つの疾患に関する状態を出力することができる。出力は、例えば、特定の疾患があることを示すスコアおよびその特定の疾患がないことを示すスコアのうちの一方または両方であり得る。あるいは、出力は、例えば、特定の疾患のレベルを示すスコアであり得る。
【0089】
推定手段123によって推定された結果は、インターフェース部110を介してコンピュータシステム100の外部に出力され得る。例えば、推定された結果は、インターフェース部110を介して被験者の端末装置300に送信され得る。これにより、被験者は自身の状態を自身の端末装置300を介して確認することができる。このとき、コンピュータシステム100が備え得る提供手段が、被験者の状態に応じた治療または介入を被験者に提供するようにしてもよいし、被験者の状態に応じた情報(例えば、行動変容を促す情報、リハビリテーションを支援する情報)を被験者に提供するようにしてもよい。例えば、推定された結果は、インターフェース部110を介して医師の端末装置300に送信され得る。これにより、医師は、推定された結果を被験者の診断に役立てることができる。このとき、例えば、提供手段が、被験者の状態に応じた情報(例えば、推奨される治療または介入の情報、推奨されるリハビリテーションの情報)を医師に提供するようにしてもよい。例えば、推定された結果は、インターフェース部110を介してデータベース部200に送信されて格納され得る。これにより、推定された結果は、後で参照されることができ、あるいは、後で、学習済モデルを更新するためまたは新たな学習済モデルを生成するために利用されることができる。
【0090】
一実施形態において、推定手段123は、少なくとも1つのシルエット画像に基づいて、被験者の健康に関する状態を推定することができる。上述した疾患に関する状態は、健康に関する状態の一例である。健康に関する状態は、例えば、全身の健康に関する状態、特定の部位に関する状態(例えば、下肢の状態、上肢の状態、内臓の状態)、特定の機能に関する状態(例えば、歩行機能の状態、呼吸機能の状態)を含み得る。健康に関する状態は、良い悪いの2値で表されるようにしてもよいし、レベルまたは健康度等の程度で表されるようにしてもよい。健康に関する状態は、典型的には、歩行能力であり得る。歩行能力は、例えば、歩行年齢として表され得、これは、歩行の状態がどの年齢の水準にあるかを示す数値である。
【0091】
推定手段123は、任意のアルゴリズムを用いて、被験者の健康に関する状態を推定することができる。推定手段123は、例えば、上記と同様に、学習済モデルを利用して、被験者の健康に関する状態を推定することができる。学習済モデルは、学習用シルエット画像と、学習用シルエット画像に写る対象の健康に関する状態との関係を学習したモデルである。推定手段123は、例えば、少なくとも1つのシルエット画像から取得される特徴量(例えば、被験者の歩行時の輪郭形状(例えば、背中の曲がり方、脚の曲がり方、腕の振り方等)に基づいて、ルールベースで被験者の健康に関する状態を推定することができる。
【0092】
図3Bは、別の実施形態におけるプロセッサ部120’の構成の一例を示す。
【0093】
プロセッサ部120’は、抽出手段124を備える点を除いて、プロセッサ部120と同様の構成を有し得る。図3Bでは、図3Aを参照して上述した構成要素と同様の構成を有する構成要素には同じ参照番号を付し、ここでは詳細な説明を省略する。
【0094】
プロセッサ部120’は、受信手段121と、生成手段122と、推定手段123’と、抽出手段124とを備える。
【0095】
受信手段121は、被験者が歩行している様子を撮影した複数の画像を受信するように構成されている。受信手段121が受信した複数の画像は、生成手段122と抽出手段124とに提供される。
【0096】
生成手段122は、被験者が写った画像から被験者のシルエット画像を生成するように構成されている。生成手段122によって生成されたシルエット画像は、推定手段123’に提供される。
【0097】
抽出手段124は、被験者が写った複数の画像から、被験者の骨格特徴を抽出するように構成されている。抽出手段124は、例えば、受信手段121が受信した複数の画像から、被験者の骨格特徴を抽出するように構成されている。抽出手段124は、複数の画像のそれぞれから骨格特徴を抽出することにより、骨格特徴の時系列データを生成することができる。抽出手段124は、当該技術分野において公知の技術を用いて、骨格特徴を抽出することができる。抽出手段124は、例えば、Part Affinity Fieldsと呼ばれる手法を用いて、骨格特徴を抽出することができる。Part Affinity Fieldsによる骨格抽出の手法の具体例として、Openpose(https://arxiv.org/abs/1812.08008)を用いた手法が挙げられるが、これに限定されない。
【0098】
抽出手段124は、被験者の複数の関節を点(keypoint)で表し、点間を接続したグラフ構造として骨格特徴を抽出することができる。グラフ構造は、任意の個数のKeypointを有することができる。
【0099】
図5Aは、抽出手段124によって、1枚の画像51から骨格特徴52を抽出するフローの一例を概略的に図示する。
【0100】
まず、抽出手段124は、受信手段121から1枚の画像51を提供される。
【0101】
ステップS501では、抽出手段124は、画像51から、被験者の骨格特徴52を抽出する。骨格特徴52は、画像51に重ね合わせて示されている。このままでは背景情報がノイズとなり得るため、背景情報が除去され得る。
【0102】
ステップS502では、背景情報が除去され、骨格特徴52のみを有する画像53が生成される。
【0103】
生成手段122は、このような処理を複数の画像のそれぞれに対して行うことにより、複数の画像から複数の骨格特徴(または骨格特徴を有する複数の画像)を生成することができる。複数の骨格特徴(または骨格特徴を有する複数の画像)は、時系列骨格特徴データとして、推定手段123’に提供される。
【0104】
再び図3Bを参照して、推定手段123’は、シルエット画像と、骨格特徴とに基づいて、被験者の少なくとも1つの疾患を推定することができる。
【0105】
推定手段123’は、例えば、或る疾患の状態として、被験者が或る疾患を有している状態であるか、或る疾患を有していない状態であるかを推定することができる。あるいは、推定手段123’は、上記に加えてまたは上記に代えて、或る疾患の状態として、被験者が有する或る疾患のレベル(例えば、軽度、中等度、もしくは重度、または、重症度)を推定することができる。重症度は、一例として、頸椎症脊髄症の重症度を表す日本整形外科学会頸椎スコア(頸椎JOAスコア)で表現され得る。
【0106】
推定手段123’によって状態を推定可能な疾患は、代表的に歩行障害を生じる疾患であり、例えば、歩行障害を生じる運動器疾患、歩行障害を生じる神経筋疾患、歩行障害を生じる循環器疾患、歩行障害を生じる呼吸器疾患を含み得る。より具体的には、疾患は、例えば、頚椎症性脊髄症(CSM)、腰部脊柱管狭窄症(LCS)、変形性関節症(OA)、神経炎(neuropathy)、椎間板ヘルニア、後縦靭帯骨化症(OPLL)、慢性関節リウマチ(RA)、心不全,水頭症,末梢動脈疾患(PAD)、筋炎(myositis)、筋症(myopathy)、パーキンソン病、筋萎縮性側索硬化症(ALS)、脊髄小脳変性症、多系統萎縮症、脳腫瘍、レビー小体型認知症、不顕性骨折、薬物中毒、半月板損傷、靭帯損傷、脊髄梗塞、脊髄炎、脊髄症,化膿性脊椎炎、椎間板炎、外反母趾、慢性閉塞性肺疾患(COPD)、肥満症、脳梗塞、ロコモティブシンドローム、フレイル、遺伝性痙性対麻痺を含むがこれらに限定されない。また、推定手段123’は、歩行障害を生じる疾患が、どの臓器の疾患に関するものであるかを判別するように構成されていてもよく、そのような判別としては、運動器疾患であるか、神経筋疾患であるか、循環器疾患であるか、呼吸器疾患であるかを判別することを含んでいてもよい。特に、推定手段123’は、シルエット画像と、骨格特徴とに基づくことにより、腰部脊柱管狭窄症(LCS)、頸部における頚椎症性脊髄症(CSM)、頚椎後縦靭帯骨化症(OPLL)、椎間板ヘルニアの状態を精度よく推定することができる。
【0107】
例えば、推定手段123’は、シルエット画像に基づいて被験者の少なくとも1つの疾患に関する状態を推定することの結果と、骨格特徴に基づいて被験者の少なくとも1つの疾患に関する状態を推定することの結果とに基づいて、被験者の少なくとも1つの疾患に関する状態を推定するようにすることができる。推定手段123’は、例えば、シルエット画像に基づいて被験者の少なくとも1つの疾患に関する状態を示す第1のスコアを取得し、骨格特徴に基づいて被験者の少なくとも1つの疾患に関する状態を示す第2のスコアを取得し、第1のスコアと第2のスコアとに基づいて、被験者の少なくとも1つの疾患に関する状態を推定するようにすることができる。例えば、第1のスコアが特定の疾患の有無のそれぞれを示し、第2のスコアがその特定の疾患の有無のそれぞれを示す場合、推定手段123’は、特定の疾患が有ることを示す第1のスコアと特定の疾患が有ることを示す第2のスコアとの加算値と、特定の疾患が無いことを示す第2のスコアと特定の疾患が無いことを示す第2のスコアとの加算値とを比較することにより、特定の疾患が有るか特定の疾患が無いかを決定することができる。第1のスコアおよび/または第2のスコアは、softmax関数等の所定の関数を適用することによって、0~1の範囲内の値に変換したうえで加算されるようにしてもよい。
【0108】
例えば、骨格特徴に基づいて取得される第1のスコアが、疾患有り:3.0、疾患無し:2.0となる場合、softmax関数を適用することによって、疾患有り:0.73、疾患無し:0.27となる。シルエット画像に基づいて取得される第2のスコアが、疾患有り:0.45、疾患無し:0.55となる場合、第1のスコアと第2のスコアとを加算すると、加算値は、疾患有り:0.73+0.45=1.18、疾患無し:0.27+0.55=0.82となる。疾患有りのスコアの方が大きいため、被験者の状態は、「疾患有り」であると決定され得る。
【0109】
なお、第1のスコアと第2のスコアとを加算するとき、第1のスコアおよび/または第2のスコアに重み付けをしたうえで加算するようにしてもよい。重み付けの程度は、例えば、固定値であってもよいし、変動値であってもよい。変動値である場合には、重み付けの程度は、例えば、被験者の属性によって変更してもよいし、推定する疾患によって変更してもよいし、第1のスコアと第2のスコアとの差に応じて変更してもよいし、他の任意の要因によって変更してもよい。最適な重み付けの程度は、機械学習によって特定されてもよい。
【0110】
推定手段123’から出力されるスコアは、例えば、既存の疾患指標と相関を有し得、既存の疾患指標に変換されることが可能である。本願の発明者は、一例として、頸椎症脊髄症の被験者のシルエット画像に基づいて出力されるスコアが、頚椎JOAスコアと相関があり得ることを見出した。このスコアは、頚椎JOAスコアが10以上である被験者でより顕著であった。この相関を利用することで、学習済モデルからの出力を頚椎JOAスコアで表すことも可能である。既知の指標を用いることで、推定手段123’からの出力の意味を理解しやすくなる。例えば、受信手段121が頚椎JOAスコアが10以上である被験者の画像を受信するようにし、頚椎JOAスコアが10以上である被験者の画像のみについて処理するようにしてもよい。あるいは、受信手段121によって受信された画像から、頚椎JOAスコアが10以上である被験者の画像を抽出し、頚椎JOAスコアが10以上である被験者の画像のみについて処理するようにしてもよい。
【0111】
推定手段123’がシルエット画像に基づいて被験者の少なくとも1つの疾患に関する状態を推定することの結果と、骨格特徴に基づいて被験者の少なくとも1つの疾患に関する状態を推定することの結果とに基づいて、被験者の状態を推定する場合、推定手段123’は、シルエット画像に基づいた推定のために第1の学習済モデルを用い、骨格特徴に基づいた推定のために第2の学習済モデルを用いることができる。
【0112】
推定手段123’は、例えば、第1の学習済モデルを利用して、被験者の少なくとも1つの疾患に関する状態を推定することができる。第1の学習済モデルは、学習用シルエット画像と、学習用シルエット画像に写る対象の少なくとも1つの疾患に関する状態との関係を学習したモデルである。
【0113】
第1の学習済モデルは、任意のタイプの機械学習モデルであり得る。機械学習モデルは、例えば、ニューラルネットワークであり得、より具体的には、畳み込みニューラルネットワークであり得る。さらに具体的には、利用される機械学習モデルの例として、ResNet50(https://arxiv.org/abs/1512.03385)が挙げられるが、これに限定されない。
【0114】
一例において、第1の学習済モデルは、後述するプロセッサ部140もしくはプロセッサ部140’によって、または図7Aもしくは図7Bに示される処理700もしくは処理710によって作成されるモデルであり得る。
【0115】
例えば、第1の学習済モデルは、学習用シルエット画像と、学習用シルエット画像に写る対象の少なくとも1つの疾患に関する状態との関係を学習しているので、生成手段122によって生成されたシルエット画像を学習済モデルに入力すると、学習済モデルは、シルエット画像に写る被験者の少なくとも1つの疾患に関する状態を出力することができる。出力は、例えば、特定の疾患があることを示すスコアおよびその特定の疾患がないことを示すスコアのうちの一方または両方(例えば、上述した第1のスコア)であり得る。あるいは、出力は、例えば、特定の疾患のレベルを示すスコアであり得る。
【0116】
推定手段123’は、例えば、第2の学習済モデルを利用して、被験者の少なくとも1つの疾患に関する状態を推定することができる。第2の学習済モデルは、学習用骨格特徴と、学習用骨格特徴が取得された対象の少なくとも1つの疾患に関する状態との関係を学習したモデルである。
【0117】
第2の学習済モデルは、任意のタイプの機械学習モデルであり得る。機械学習モデルは、例えば、ニューラルネットワークであり得、より具体的には、畳み込みニューラルネットワークであり得る。さらに具体的には、利用される機械学習モデルの例として、Spatial Temporal Graph Convolutional Network(ST-GCN)、MS-G3D(https://arxiv.org/pdf/2003.14111.pdf)等が挙げられるが、これに限定されない。
【0118】
一例において、第2の学習済モデルは、後述するプロセッサ部140’によってまたは図7Bに示される処理710によって作成されるモデルであり得る。
【0119】
例えば、第2の学習済モデルは、学習用骨格特徴と、学習用骨格特徴が取得された対象の少なくとも1つの疾患に関する状態との関係を学習しているので、抽出手段122によって抽出された骨格特徴を学習済モデルに入力すると、学習済モデルは、骨格特徴が抽出された被験者の少なくとも1つの疾患に関する状態を出力することができる。出力は、例えば、特定の疾患があることを示すスコアおよびその特定の疾患がないことを示すスコアのうちの一方または両方(例えば、上述した第2のスコア)であり得る。あるいは、出力は、例えば、特定の疾患のレベルを示すスコアであり得る。
【0120】
なお、上述した例では、シルエット画像と骨格特徴とを独立して用いて被験者の少なくとも1つの疾患に関する状態を推定することを説明したが、本開示はこれに限定されない、シルエット画像と骨格特徴とを相互に関連させて処理することにより、被験者の少なくとも1つの疾患に関する状態を推定することも本開示の範囲内である。
【0121】
一例において、学習用シルエット画像と、学習用骨格特徴と、学習用シルエット画像に写り、かつ学習用骨格特徴が抽出された対象の少なくとも1つの疾患に関する状態との関係を学習した学習済モデルを利用して、被験者の少なくとも1つの疾患に関する状態を推定することができる。例えば、このような学習済モデルに被験者のシルエット画像と骨格特徴とを入力すると、被験者の少なくとも1つの疾患に関する状態が推定されて出力され得る。
【0122】
別の例において、被験者のシルエット画像に対して、その被験者の骨格特徴または骨格特徴から取得されるスコアに基づいた前処理を行ったうえで、前処理されたシルエット画像を学習済モデルに入力するようにしてもよい。前処理は、任意の処理であり得る。
【0123】
別の例において、被験者の骨格特徴に対して、その被験者のシルエット画像またはシルエット画像から取得されるスコアに基づいた前処理を行ったうえで、前処理されたシルエット画像を学習済モデルに入力するようにしてもよい。前処理は、任意の処理であり得る。
【0124】
推定手段123’は同様の処理により、被験者の健康に関する状態を推定することができる。上述した疾患に関する状態は、健康に関する状態の一例である。健康に関する状態は、例えば、全身の健康に関する状態、特定の部位に関する状態(例えば、下肢の状態、上肢の状態、内臓の状態)、特定の機能に関する状態(例えば、歩行機能の状態、呼吸機能の状態)を含み得る。健康に関する状態は、良い悪いの2値で表されるようにしてもよいし、レベルまたは健康度等の程度で表されるようにしてもよい。健康に関する状態は、典型的には、歩行年齢として表され得る歩行能力であり得る。
【0125】
推定手段123’によって推定された結果は、インターフェース部110を介してコンピュータシステム100の外部に出力され得る。例えば、推定された結果は、インターフェース部110を介して被験者の端末装置300に送信され得る。これにより、被験者は自身の状態を自身の端末装置300を介して確認することができる。例えば、推定された結果は、インターフェース部110を介して医師の端末装置300に送信され得る。これにより、医師は、推定された結果を被験者の診断に役立てることができる。例えば、推定された結果は、インターフェース部110を介してデータベース部200に送信されて格納され得る。これにより、推定された結果は、後で参照されることができ、あるいは、後で、学習済モデルを更新するためまたは新たな学習済モデルを生成するために利用されることができる。
【0126】
図3Cは、別の実施形態におけるプロセッサ部120’’の構成の一例を示す。
【0127】
プロセッサ部120’’は、分析手段125と、修正手段126とを備える点を除いて、プロセッサ部120と同様の構成を有し得る。図3Cでは、図3Aを参照して上述した構成要素と同様の構成を有する構成要素には同じ参照番号を付し、ここでは詳細な説明を省略する。なお、プロセッサ部120’’プロセッサ部120’’は、分析手段125と、修正手段126とを備える点を除いて、プロセッサ部120’と同様の構成を有するようにしてもよい。
【0128】
プロセッサ部120’’は、受信手段121と、生成手段122と、推定手段123と、分析手段125と、修正手段126とを備える。
【0129】
受信手段121は、被験者が歩行している様子を撮影した複数の画像を受信するように構成されている。受信手段121が受信した複数の画像は、生成手段122と抽出手段124とに提供される。
【0130】
生成手段122は、被験者が写った画像から被験者のシルエット画像を生成するように構成されている。生成手段122によって生成されたシルエット画像は、推定手段123’に提供される。
【0131】
推定手段123は、少なくとも1つのシルエット画像に基づいて、被験者の少なくとも1つの疾患に関する状態を推定するように構成されている。推定手段123による推定結果は、分析手段125に渡されることができる。
【0132】
分析手段125は、推定手段123による推定の結果を分析するように構成されている。例えば、分析手段125は、推定手段123が、生成手段122によって生成されたシルエット画像中のどの領域に注目して推定を行ったかの判断根拠を特定することができる。すなわち、推定手段123による推定の結果に相対的に大きく寄与する関心領域を特定することができる。
【0133】
分析手段125は、当該技術分野で公知の手法を用いて、推定の判断根拠を特定することができる。分析手段125は、例えば、Grad-CAM、Grad-CAM++、Score-CAM等のアルゴリズムを用いて、推定の判断根拠を特定することができる。分析手段125は、好ましくは、Score-CAMを用いて、推定の判断根拠を特定することができる。Score-CAMでは、推定に用いられた画像において、どの領域に注目して推定がなされたかを可視化することができるアルゴリズムであり、これにより、推定の結果に相対的に大きく寄与する関心領域を可視的に特定することができる。Score-CAMでは、例えば、推定における注目度の違いがヒートマップで出力される。
【0134】
分析手段125によって特定された判断根拠に基づいて、注目度が高い領域(関心領域)が推定により寄与するように、および/または、注目度が低い領域が推定にあまり寄与しないように、推定手段123のアルゴリズムを修正することにより、推定手段123の推定の精度を高めることができる可能性がある。また、通常医師が行っている診断では注目していない部位に注目することができる可能性があり、推定精度の向上が期待できる。
【0135】
修正手段126は、分析手段125によって特定された判断根拠に基づいて、推定手段123のアルゴリズムを修正するように構成されている。例えば、修正手段126は、注目度が高い領域(関心領域)が推定により寄与するように、および/または、注目度が低い領域が推定にあまり寄与しないように、推定手段123のアルゴリズムを修正することができる。例えば、推定手段123が学習済モデルを利用する場合、修正手段126は、関心領域が推定により寄与するように、学習済モデルを修正することができる。例えば、修正手段126は、学習済モデルの構造を修正する、または、学習済モデルの重み付けを修正する等によって学習済モデルを修正することができる。例えば、推定手段123がルールベースの推定を行う場合、修正手段126は、関心領域が推定により寄与するように、ルールを修正することができる。
【0136】
例えば、プロセッサ部120’’がプロセッサ部120’と同様の構成を有する場合、分析手段125は、推定手段123が、抽出手段によって抽出された中のどの部位に注目して推定を行ったかの判断根拠を特定することができる。すなわち、推定手段123による推定の結果に相対的に大きく寄与する関心部位(関節可動域)を特定することができる。
【0137】
図5Bは、分析手段125によって特定された判断根拠の一例を示す。推定における注目度がヒートマップで示されている。図5Bに示されるヒートマップでは、平均シルエット画像の輪郭がヒートマップ上に重ねて示されている。
【0138】
例えば、健常者のシルエット画像に基づいて、推定手段123が少なくとも1つの疾患に関する状態を推定した場合の結果を分析手段125が分析すると、図5B(a)に示されるようなヒートマップが得られ得る。このヒートマップから、推定手段123が健常者のシルエット画像に基づいて推定を行う場合、脚や上半身を中心に、全体をぼんやり注目していることが分かる。
【0139】
例えば、頸椎疾患を有する被験者のシルエット画像に基づいて、推定手段123が少なくとも1つの疾患に関する状態を推定した場合の結果を分析手段125が分析すると、図5B(b)に示されるようなヒートマップが得られ得る。このヒートマップから、推定手段123が頸椎疾患を有する被験者のシルエット画像に基づいて推定を行う場合、下半身に重点的に注目し、手にも注目していることが分かる。
【0140】
例えば、腰椎疾患を有する被験者のシルエット画像に基づいて、推定手段123が少なくとも1つの疾患に関する状態を推定した場合の結果を分析手段125が分析すると、図5B(c)に示されるようなヒートマップが得られ得る。このヒートマップから、推定手段123が腰椎疾患を有する被験者のシルエット画像に基づいて推定を行う場合、下半身から背中に重点的に注目していることが分かる。
【0141】
これらの結果に基づいて、推定手段123のアルゴリズムを修正することで、推定手段123の精度の向上が期待できる。例えば、頸椎疾患の有無を推定する場合、下半身に重点的に注目し、手にも注目するように、アルゴリズムを修正することで、推定手段123の精度の向上が期待できる。例えば、頸椎疾患の有無を推定する場合、下半身から背中に注目するように、アルゴリズムを修正することで、推定手段123の精度の向上が期待できる。
【0142】
推定手段123は、修正されたアルゴリズムを用いて、推定を行うことができる。推定手段123によって推定された結果は、インターフェース部110を介してコンピュータシステム100の外部に出力され得る。
【0143】
コンピュータシステム100は、上述したプロセッサ部120またはプロセッサ部120’またはプロセッサ部120’’に加えて、またはプロセッサ部120またはプロセッサ部120’またはプロセッサ部120’’に代えて、プロセッサ部140またはプロセッサ部140’を備えることができる。プロセッサ部140またはプロセッサ部140’は、上述した推定手段123または推定手段123’において利用される学習済モデルを作成するための処理を行うことができる。コンピュータシステム100が上述したプロセッサ部120またはプロセッサ部120’に加えてプロセッサ部140またはプロセッサ部140’を備える場合には、プロセッサ部140またはプロセッサ部140’は、プロセッサ部120またはプロセッサ部120’またはプロセッサ部120’’と同じ構成要素として実装されてもよいし、別の構成要素として実装されてもよい。
【0144】
図3Dは、一実施形態におけるプロセッサ部140の構成の一例を示す。
【0145】
プロセッサ部140は、受信手段141と、生成手段142と、学習手段143とを備える。
【0146】
受信手段141は、複数の対象のうちの各対象について、その対象が歩行する様子を撮影した複数の画像を受信するように構成されている。受信手段141は、コンピュータシステム100の外部からインターフェース部110を介して複数の画像を受信することができる。複数の対象のうちの各対象についての複数の画像は、例えば、各対象の端末装置からコンピュータシステム100に送信されたものであってもよいし、データベース部200に格納されたものであって、データベース部200からコンピュータシステム100に送信されたものであってもよい。
【0147】
複数の画像は、例えば、静止画を連写することによって撮影された複数の画像であってもよいし、動画を構成する複数のフレームであってもよい。複数の画像は、任意のフレームレートを有し得るが、フレームレートは、好ましくは、20fps~60fps、より好ましくは、30fpsであり得る。
【0148】
受信手段141はさらに、複数の対象のうちの各対象について、少なくとも1つの疾患に関する状態を示す情報を受信することができる。
【0149】
受信手段141が受信した複数の画像は、生成手段142に提供される。受信手段141が受信した少なくとも1つの疾患に関する状態を示す情報は、学習手段143に提供される。
【0150】
生成手段142は、対象が写った画像から対象のシルエット画像を生成するように構成されている。生成手段122と同一の構成を有し、同一の処理を行うことができる。ここでは、説明を省略する。
【0151】
生成手段142によって生成されたシルエット画像は、学習手段143に提供される。
【0152】
学習手段143は、対象の少なくとも1つのシルエット画像を入力用教師データとし、対象の少なくとも1つの疾患に関する状態を出力用教師データとして、機械学習モデルに学習させるように構成されている。出力用教師データは、疾患の有無を示す値、または、疾患の程度を示すスコアであり得る。疾患の有無を示す値は、例えば、1次元の値(例えば、疾患無しを意味する0、疾患有りを意味する1)であってもよいし、2次元の値(例えば、疾患無しを意味する(1,0)、疾患有りを意味する(0,1)、第1の疾患有りかつ第2の疾患有りを意味する(1,1)、第1の疾患無しかつ第2の疾患無しを意味する(0,0)等)であってもよいし、3次元以上の値であってもよい。
【0153】
一例において、入力用教師データと出力用教師データとの組は、(第1の対象の少なくとも1つのシルエット画像,第1の対象の特定の疾患の有無を示す値)、(第2の対象の少なくとも1つのシルエット画像,第2の対象の特定の疾患の有無を示す値)、・・・(第nの対象の少なくとも1つのシルエット画像,第nの対象の特定の疾患の有無を示す値)であり得る。このような組を用いて学習させた学習済モデルは、シルエット画像を入力されると、そのシルエット画像に写る被験者の特定の疾患の有無を示す値を出力することができる。
【0154】
別の例において、入力用教師データと出力用教師データとの組は、(第1の対象の少なくとも1つのシルエット画像,第1の対象の特定の疾患の程度を示すスコア)、(第2の対象の少なくとも1つのシルエット画像,第2の対象の特定の疾患の程度を示すスコア)、・・・(第nの対象の少なくとも1つのシルエット画像,第nの対象の特定の疾患の程度を示すスコア)であり得る。このような組を用いて学習させた学習済モデルは、シルエット画像を入力されると、そのシルエット画像に写る被験者の特定の疾患の程度を示すスコアを出力することができる。
【0155】
このようにして作成された学習済モデルは、プロセッサ部120またはプロセッサ部120’で利用され得る。また、このようにして作成された学習済モデルのパラメータは、データベース部200または他の記憶媒体に格納されることができる。
【0156】
図3Eは、別の実施形態におけるプロセッサ部140’の構成の一例を示す。
【0157】
プロセッサ部140’は、抽出手段144を備える点を除いて、プロセッサ部140と同様の構成を有し得る。図3Eでは、図3Dを参照して上述した構成要素と同様の構成を有する構成要素には同じ参照番号を付し、個々では詳細な説明を省略する。
【0158】
プロセッサ部140’は、受信手段141と、生成手段142と、学習手段143’と、抽出手段144とを備える。
【0159】
受信手段141は、複数の対象のうちの各対象について、その対象が歩行する様子を撮影した複数の画像を受信するように構成されている。また、受信手段141はさらに、複数の対象のうちの各対象について、少なくとも1つの疾患に関する状態を示す情報を受信することができる。受信手段141が受信した複数の画像は、生成手段142と抽出手段144とに提供される。少なくとも1つの疾患に関する状態を示す情報は、学習手段143’に提供される。
【0160】
生成手段142は、対象が写った画像から対象のシルエット画像を生成するように構成されている。生成手段142によって生成されたシルエット画像は、学習手段143’に提供される。
【0161】
抽出手段144は、対象が写った複数の画像から、対象の骨格特徴を抽出するように構成されている。抽出手段144は、抽出手段124と同一の構成を有し、同一の処理を行うことができる。ここでは、説明を省略する。抽出手段144によって抽出された骨格特徴は、学習手段143’に提供される。
【0162】
学習手段143は、対象の少なくとも1つのシルエット画像および骨格特徴を機械学習モデルに学習させるように構成されている。例えば、学習手段143は、対象の少なくとも1つのシルエット画像を入力用教師データとし、対象の少なくとも1つの疾患に関する状態を出力用教師データとして、第1の機械学習モデルに学習させ、対象の骨格特徴を入力用教師データとし、対象の少なくとも1つの疾患に関する状態を出力用教師データとして、第2の機械学習モデルに学習させるようにすることができる。あるいは、例えば、学習手段143は、対象の少なくとも1つのシルエット画像および骨格特徴を入力用教師データとし、対象の少なくとも1つの疾患に関する状態を出力用教師データとして、機械学習モデルに学習させることができる。
【0163】
出力用教師データは、疾患の有無を示す値、または、疾患の程度を示すスコアであり得る。疾患の有無を示す値は、例えば、1次元の値(例えば、疾患無しを意味する0、疾患有りを意味する1)であってもよいし、2次元の値(例えば、疾患無しを意味する(1,0)、疾患有りを意味する(0,1)、第1の疾患有りかつ第2の疾患有りを意味する(1,1)、第1の疾患無しかつ第2の疾患無しを意味する(0,0)等)であってもよいし、3次元以上の値であってもよい。
【0164】
例えば、対象の少なくとも1つのシルエット画像を入力用教師データとし、対象の少なくとも1つの疾患に関する状態を出力用教師データとして、第1の機械学習モデルに学習させる場合、入力用教師データと出力用教師データとの組は、(第1の対象の少なくとも1つのシルエット画像,第1の対象の特定の疾患の有無を示す値)、(第2の対象の少なくとも1つのシルエット画像,第2の対象の特定の疾患の有無を示す値)、・・・(第nの対象の少なくとも1つのシルエット画像,第nの対象の特定の疾患の有無を示す値)であり得る。このような組を用いて学習させた第1の学習済モデルは、シルエット画像を入力されると、そのシルエット画像に写る被験者の特定の疾患の有無を示す値を出力することができる。
【0165】
別の例において、入力用教師データと出力用教師データとの組は、(第1の対象の少なくとも1つのシルエット画像,第1の対象の特定の疾患の程度を示すスコア)、(第2の対象の少なくとも1つのシルエット画像,第2の対象の特定の疾患の程度を示すスコア)、・・・(第nの対象の少なくとも1つのシルエット画像,第nの対象の特定の疾患の程度を示すスコア)であり得る。このような組を用いて学習させた第1の学習済モデルは、シルエット画像を入力されると、そのシルエット画像に写る被験者の特定の疾患の程度を示すスコアを出力することができる。
【0166】
別の例において、入力用教師データと出力用教師データとの組は、(第1の対象の少なくとも1つのシルエット画像,(第1の対象の第1の疾患の有無を示す値,第1の対象の第2の疾患の有無を示す値,・・・第1の対象の第mの疾患の有無を示す値))、(第2の対象の少なくとも1つのシルエット画像,(第2の対象の第1の疾患の有無を示す値,第2の対象の第2の疾患の有無を示す値,・・・第2の対象の第mの疾患の有無を示す値))、・・・(第nの対象の少なくとも1つのシルエット画像,(第nの対象の第1の疾患の有無を示す値,第nの対象の第2の疾患の有無を示す値,・・・第nの対象の第mの疾患の有無を示す値))であり得る。このような組を用いて学習させた第1の学習済モデルは、シルエット画像を入力されると、そのシルエット画像に写る被験者の第1の疾患の有無を示す値、第2の疾患の有無を示す値、・・・第mの疾患の有無を示す値のそれぞれを出力することができる。これにより、被験者が、複数の疾患のうちのどの疾患を有しているかを推定することができる。これは、歩行障害を生じる疾患が、どの臓器の疾患に関するものであるかの判別に役立ち得、例えば、被験者が有し得る疾患が、運動器疾患であるか、神経筋疾患であるか、循環器疾患であるか、呼吸器疾患であるかを判別することに役立ち、例えば、被験者が最初に受診すべき診療科の判断に役立ち得る。
【0167】
例えば、対象の骨格特徴を入力用教師データとし、対象の少なくとも1つの疾患に関する状態を出力用教師データとして、第2の機械学習モデルに学習させる場合、入力用教師データと出力用教師データとの組は、(第1の対象の骨格特徴,第1の対象の特定の疾患の有無を示す値)、(第2の対象の骨格特徴,第2の対象の特定の疾患の有無を示す値)、・・・(第nの対象の骨格特徴,第nの対象の特定の疾患の有無を示す値)であり得る。このような組を用いて学習させた第2の学習済モデルは、骨格特徴を入力されると、その骨格特徴が取得された被験者の特定の疾患の有無を示す値を出力することができる。
【0168】
別の例において、入力用教師データと出力用教師データとの組は、(第1の対象の骨格特徴,第1の対象の特定の疾患の程度を示すスコア)、(第2の対象の骨格特徴,第2の対象の特定の疾患の程度を示すスコア)、・・・(第nの対象の骨格特徴,第nの対象の特定の疾患の程度を示すスコア)であり得る。このような組を用いて学習させた第2の学習済モデルは、骨格特徴を入力されると、その骨格特徴が取得された被験者の特定の疾患の程度を示すスコアを出力することができる。
【0169】
別の例において、入力用教師データと出力用教師データとの組は、(第1の対象の骨格特徴,(第1の対象の第1の疾患の有無を示す値,第1の対象の第2の疾患の有無を示す値,・・・第1の対象の第mの疾患の有無を示す値))、(第2の対象の骨格特徴,(第2の対象の第1の疾患の有無を示す値,第2の対象の第2の疾患の有無を示す値,・・・第2の対象の第mの疾患の有無を示す値))、・・・(第nの対象の骨格特徴,(第nの対象の第1の疾患の有無を示す値,第nの対象の第2の疾患の有無を示す値,・・・第nの対象の第mの疾患の有無を示す値))であり得る。このような組を用いて学習させた第2の学習済モデルは、骨格特徴を入力されると、その骨格特徴が取得された被験者の第1の疾患の有無を示す値、第2の疾患の有無を示す値、・・・第mの疾患の有無を示す値のそれぞれを出力することができる。これにより、被験者が、複数の疾患のうちのどの疾患を有しているかを推定することができる。これは、歩行障害を生じる疾患が、どの臓器の疾患に関するものであるかの判別に役立ち得、例えば、被験者が有し得る疾患が、運動器疾患であるか、神経筋疾患であるか、循環器疾患であるか、呼吸器疾患であるかを判別することに役立ち、例えば、被験者が最初に受診すべき診療科の判断に役立ち得る。
【0170】
例えば、対象の少なくとも1つのシルエット画像および骨格特徴を入力用教師データとし、対象の少なくとも1つの疾患に関する状態を出力用教師データとして、機械学習モデルに学習させる場合、入力用教師データと出力用教師データとの組は、(第1の対象の少なくとも1つのシルエット画像および骨格特徴,第1の対象の特定の疾患の有無を示す値)、(第2の対象の少なくとも1つのシルエット画像および骨格特徴,第2の対象の特定の疾患の有無を示す値)、・・・(第nの対象の少なくとも1つのシルエット画像および骨格特徴,第nの対象の特定の疾患の有無を示す値)であり得る。このような組を用いて学習させた学習済モデルは、シルエット画像および骨格特徴を入力されると、そのシルエット画像に写り、かつその骨格特徴が取得された被験者の特定の疾患の有無を示す値を出力することができる。
【0171】
別の例において、入力用教師データと出力用教師データとの組は、(第1の対象の少なくとも1つのシルエット画像および骨格特徴,第1の対象の特定の疾患の程度を示すスコア)、(第2の対象の少なくとも1つのシルエット画像および骨格特徴,第2の対象の特定の疾患の程度を示すスコア)、・・・(第nの対象の少なくとも1つのシルエット画像および骨格特徴,第nの対象の特定の疾患の程度を示すスコア)であり得る。このような組を用いて学習させた学習済モデルは、シルエット画像および骨格特徴を入力されると、そのシルエット画像に写り、かつその骨格特徴が取得された被験者の特定の疾患の程度を示すスコアを出力することができる。
【0172】
別の例において、入力用教師データと出力用教師データとの組は、(第1の対象の少なくとも1つのシルエット画像および骨格特徴,(第1の対象の第1の疾患の有無を示す値,第1の対象の第2の疾患の有無を示す値,・・・第1の対象の第mの疾患の有無を示す値))、(第2の対象の少なくとも1つのシルエット画像および骨格特徴,(第2の対象の第1の疾患の有無を示す値,第2の対象の第2の疾患の有無を示す値,・・・第2の対象の第mの疾患の有無を示す値))、・・・(第nの対象の少なくとも1つのシルエット画像および骨格特徴,(第nの対象の第1の疾患の有無を示す値,第nの対象の第2の疾患の有無を示す値,・・・第nの対象の第mの疾患の有無を示す値))であり得る。このような組を用いて学習させた学習済モデルは、シルエット画像および骨格特徴を入力されると、そのシルエット画像に写り、かつその骨格特徴が取得された被験者の第1の疾患の有無を示す値、第2の疾患の有無を示す値、・・・第mの疾患の有無を示す値のそれぞれを出力することができる。これにより、被験者が、複数の疾患のうちのどの疾患を有しているかを推定することができる。これは、歩行障害を生じる疾患が、どの臓器の疾患に関するものであるかの判別に役立ち得、例えば、被験者が有し得る疾患が、運動器疾患であるか、神経筋疾患であるか、循環器疾患であるか、呼吸器疾患であるかを判別することに役立ち、例えば、被験者が最初に受診すべき診療科の判断に役立ち得る。
【0173】
このようにして作成された学習済モデルは、プロセッサ部120’で利用され得る。また、このようにして作成された学習済モデルのパラメータは、データベース部200に格納されることができる。
【0174】
なお、上述したコンピュータシステム100の各構成要素は、単一のハードウェア部品で構成されていてもよいし、複数のハードウェア部品で構成されていてもよい。複数のハードウェア部品で構成される場合は、各ハードウェア部品が接続される態様は問わない。各ハードウェア部品は、無線で接続されてもよいし、有線で接続されてもよい。本発明のコンピュータシステム100は、特定のハードウェア構成には限定されない。プロセッサ部120、120’、140、140’をデジタル回路ではなくアナログ回路によって構成することも本発明の範囲内である。本発明のコンピュータシステム100の構成は、その機能を実現できる限りにおいて上述したものに限定されない。
【0175】
3.被験者の状態を推定するためのコンピュータシステムによる処理
図6Aは、被験者の状態を推定するためのコンピュータシステム100による処理の一例(処理600)を示すフローチャートである。処理600は、コンピュータシステム100のプロセッサ部120によって実行される。処理600は、被験者が歩行する様子を撮影した複数の画像から生成されたシルエット画像に基づいて、被験者の状態を推定するための処理である。被験者の状態は、健康に関する状態であり得、健康に関する状態は、少なくとも1つの疾患に関する状態を含む。以下では、疾患に関する状態を推定することを例に説明するが、以下の処理は、他の健康に関する状態を推定する(例えば、歩行能力を推定する、健康度を推定する)ためにも同様に適用されることが理解される。本明細書において、疾患に関する状態は、対象が実際に疾患に罹患していない場合の状態も含み(「未病」ともいう。)、1つの実施例では疾患に関する状態は、対象が実際に疾患に罹患している状態のみを含んでいてもよい。したがって、健康に関する状態は、疾患に関する状態および疾患に関する状態以外の状態を含み、そのいずれかまたは両方を含んでいてもよい。
【0176】
ステップS601では、プロセッサ部120の受信手段121が、被験者が歩行している様子を撮影した複数の画像を受信する。受信手段121が受信した複数の画像は、生成手段122に提供される
【0177】
ステップS602では、プロセッサ部120の生成手段122が、ステップS601で受信された複数の画像から、被験者の少なくとも1つのシルエット画像を生成する。生成手段122は、当該技術分野において公知の技術を用いて、シルエット画像を生成することができる。生成手段122は、複数の画像から複数のシルエット画像を生成することができ、好ましくは、複数の画像から1つのシルエット画像を生成することができる。
【0178】
生成手段122は、例えば、複数の画像から複数のシルエット領域を抽出し、抽出された複数のシルエット領域を正規化し、正規化された複数のシルエット領域を平均することによって、少なくとも1つのシルエット画像を生成することができる。複数のシルエット画像を平均することによって、利用されるシルエット画像の情報量を有意に損なうことなく、データ量を削減することができる。
【0179】
ステップS603では、プロセッサ部120の推定手段123が、ステップS602で生成された少なくとも1つのシルエット画像に基づいて、被験者の疾患に関する状態を推定する。推定手段123は、例えば、学習済モデルを利用して、被験者の少なくとも1つの疾患に関する状態を推定することができる。学習済モデルは、プロセッサ部140によって、または図7Aに示される処理700によって作成されるモデルであり得る。
【0180】
処理600によって推定された結果は、インターフェース部110を介してコンピュータシステム100の外部に出力され得る。例えば、推定された結果は、インターフェース部110を介して被験者の端末装置300に送信され得る。これにより、被験者は自身の状態を自身の端末装置300を介して確認することができる。このとき、例えば、被験者の状態に応じた治療または介入を被験者に提供するようにしてもよいし、被験者の状態に応じた情報(例えば、行動変容を促す情報、リハビリテーションを支援する情報)を被験者に提供するようにしてもよい。例えば、推定された結果は、インターフェース部110を介して医師の端末装置300に送信され得る。これにより、医師は、推定された結果を被験者の診断に役立てることができる。このとき、例えば、被験者の状態に応じた情報(例えば、推奨される治療または介入の情報、推奨されるリハビリテーションの情報)を医師に提供するようにしてもよい。例えば、推定された結果は、インターフェース部110を介してデータベース部200に送信されて格納され得る。これにより、推定された結果は、後で参照されることができ、あるいは、後で、学習済モデルを更新するためまたは新たな学習済モデルを生成するために利用されることができる。
【0181】
(コンパニオン医療)
本開示は、ある局面で、被験者の健康状態、障害または疾患の状態を推定することによって、その被験者の健康状態、障害または疾患を治療、予防、または改善する方法等を提供する。この局面の一つでは、本開示は、被験者の健康状態、障害または疾患を治療、予防、または改善する方法を提供し、この方法は(A)被験者が歩行する様子を撮影した複数の画像を受信することと、(B)前記複数の画像から前記被験者の少なくとも1つのシルエット画像を生成することと、(C)少なくとも前記少なくとも1つのシルエット画像に基づいて、前記被験者の健康に関する状態を推定することと、(D)前記被験者の健康に関する状態に基づいて、前記被験者に施すべき治療、予防、または改善のための方法を算出することと、(E)前記被験者に、前記治療、予防、または改善のための方法を施すことと、(F)必要に応じて(A)から(E)を繰り返すことと、を含む。
【0182】
このような予防、または改善のための方法は、クリニックなどの既存の医療施設でなされてもよく、在宅医療で実現されてもよく、遠隔医療でおこなわれてもよいし、未病状態の場合は、例えばスポーツジム、ショッピングセンターなどでなされてもよく、スマートフォンアプリなどの携帯端末やウェアラブルデバイスに実装されてもよい。
【0183】
本明細書において、治療、介入、予防、または改善のための方法は、例えば、以下のうちの少なくとも1つを含むことができる。
・保存的治療
・投薬医療
・患者教育および生活指導:例えば、運動を含んだ自己管理プログラムの指導、食事指導、運動指導、講義または討議形式での患者教育、運動教室、膝日記(運動の有無、痛みの程度)、生活指導
・減量療法
・運動療法:例えば、筋力増強運動(等速性筋力増強運動、静的ストレッチ+等速性運動、固有受容器神経筋促通(PNF)ストレッチ+等速性運動)、有酸素運動、ストレチングおよび関節可動域運動、協調性運動(足部巧緻動作向上トレーニング、バランス運動、スリングサスペンションを用いた運動感覚トレーニング、コンピュータを使用した足部巧緻動作向上トレーニング(target-matching foot-stepping exercise))、振動刺激療法(vibration exercise)
・徒手療法(Macquaire injury management group knee protocol)
・足底挿板療法
・装具療法
・テーピング:例えば、疼痛に関するテーピング、機能障害に関するテーピング
・物理療法:例えば、超音波療法(ultrasound)、温泉療法(spa therapy)、TENS 療法(transcutaneous electrical nerve stimulation: TENS)、functional electorical stimulation(FES)、水治療法(hydrotherapy)、ホットパック(hot pack)、磁気刺激療法(biomagnetic therapy)、ジアテルミー(shortwave diathermy)、干渉波治療(interferential current therapy)、電気刺激療法(pulsed electrical stimulator)、非侵襲的神経電気刺激療法(noninvasive interactive neurostimulation)、骨膜刺激療法(periosteal stimulation therapy)、レーザー治療、物理療法の複合使用と運動療法との併用
・観血的治療後の理学療法介入
・人工膝関節置換術(total knee arthroplasty:TKA):例えば、continue passive movement(CPM)装置、関節可動域運動およびスライダーボード運動、漸増的筋力増強運動、機能的運動療法およびバランス運動、振動刺激による運動療法、経皮的電気刺激による筋活動向上、術前の理学療法および患者教育、術前の理学療法と患者教育
・高位脛骨骨切り術(high tibial osteotomy:HTO)、片側単顆人工膝関節置換術(unicompartmental knee arthroplasty:UKA)
【0184】
処理600は、プロセッサ部120’’によって実行されてもよく、この場合、処理600によって推定された結果は、分析手段125によって分析されるために用いられる。その分析に基づいて、修正手段126によって、推定手段123のアルゴリズムが修正されることができる。処理600は、修正されたアルゴリズムを用いて繰り返されることができる。
【0185】
図6Bは、被験者の状態を推定するためのコンピュータシステム100による処理の別の一例(処理610)を示すフローチャートである。処理610は、コンピュータシステム100のプロセッサ部120’によって実行される。処理610は、被験者が歩行する様子を撮影した複数の画像から生成されたシルエット画像と、複数の画像から抽出された骨格特徴とに基づいて、被験者の状態を推定するための処理である。被験者の状態は、健康に関する状態であり得、健康に関する状態は、少なくとも1つの疾患に関する状態を含む。以下では、疾患に関する状態を推定することを例に説明するが、以下の処理は、他の健康に関する状態を推定する(例えば、歩行能力を推定する、健康度を推定する)ためにも同様に適用されることが理解される。
【0186】
ステップS611では、プロセッサ部120’の受信手段121が、被験者が歩行している様子を撮影した複数の画像を受信する。ステップS611は、ステップS601と同様である。受信手段121が受信した複数の画像は、生成手段122に提供される
【0187】
ステップS612では、プロセッサ部120’の生成手段122が、ステップS611で受信された複数の画像から、被験者の少なくとも1つのシルエット画像を生成する。ステップS612は、ステップS602と同様である。
【0188】
ステップS613では、プロセッサ部120’の抽出手段124が、テップS611で受信された複数の画像から、被験者の骨格特徴を抽出する。抽出手段124は、当該技術分野において公知の技術を用いて、シルエット画像を生成することができる。抽出手段124は、複数の画像のそれぞれから骨格特徴を抽出することにより、骨格特徴の時系列データを生成することができる。
【0189】
ステップS614では、プロセッサ部120’の推定手段123’が、ステップS612で生成された少なくとも1つのシルエット画像と、ステップS613で抽出された骨格特徴とに基づいて、被験者の疾患に関する状態を推定する。推定手段123’は、例えば、学習済モデルを利用して、被験者の少なくとも1つの疾患に関する状態を推定することができる。学習済モデルは、プロセッサ部140またはプロセッサ部140’によって、または図7Aまたは図7Bに示される処理710によって作成されるモデルであり得る。
【0190】
例えば、推定手段123’は、シルエット画像に基づいて被験者の少なくとも1つの疾患に関する状態を推定することの結果と、骨格特徴に基づいて被験者の少なくとも1つの疾患に関する状態を推定することの結果とに基づいて、被験者の少なくとも1つの疾患に関する状態を推定するようにすることができる。推定手段123’は、例えば、シルエット画像に基づいて被験者の少なくとも1つの疾患に関する状態を示す第1のスコアを取得し、骨格特徴に基づいて被験者の少なくとも1つの疾患に関する状態を示す第2のスコアを取得し、第1のスコアと第2のスコアとに基づいて、被験者の少なくとも1つの疾患に関する状態を推定するようにすることができる。例えば、第1のスコアが特定の疾患の有無のそれぞれを示し、第2のスコアがその特定の疾患の有無のそれぞれを示す場合、推定手段123’は、特定の疾患が有ることを示す第1のスコアと特定の疾患が有ることを示す第2のスコアとの加算値と、特定の疾患が無いことを示す第2のスコアと特定の疾患が無いことを示す第2のスコアとの加算値とを比較することにより、特定の疾患が有るか特定の疾患が無いかを決定することができる。第1のスコアおよび/または第2のスコアは、softmax関数等の所定の関数を適用することによって、0~1の範囲内の値に変換したうえで加算されるようにしてもよい。推定手段123’から出力されるスコアは、例えば、既存の疾患指標と相関に基づいて、既存の疾患指標に変換されることができる。例えば、推定手段123’から出力されるスコアは、頚椎JOAスコアに変換されることができる。
【0191】
処理610によって推定された結果は、インターフェース部110を介してコンピュータシステム100の外部に出力され得る。例えば、推定された結果は、インターフェース部110を介して被験者の端末装置300に送信され得る。これにより、被験者は自身の状態を自身の端末装置300を介して確認することができる。このとき、処理600と同様に、例えば、被験者の状態に応じた治療または介入を被験者に提供するようにしてもよいし、被験者の状態に応じた情報(例えば、行動変容を促す情報、リハビリテーションを支援する情報)を被験者に提供するようにしてもよい。例えば、推定された結果は、インターフェース部110を介して医師の端末装置300に送信され得る。これにより、医師は、推定された結果を被験者の診断に役立てることができる。このとき、処理600と同様に、例えば、被験者の状態に応じた情報(例えば、推奨される治療または介入の情報、推奨されるリハビリテーションの情報)を医師に提供するようにしてもよい。例えば、推定された結果は、インターフェース部110を介してデータベース部200に送信されて格納され得る。これにより、推定された結果は、後で参照されることができ、あるいは、後で、学習済モデルを更新するためまたは新たな学習済モデルを生成するために利用されることができる。
【0192】
処理700は、プロセッサ部120’’によって実行されてもよく、この場合、処理700によって推定された結果は、分析手段125によって分析されるために用いられる。その分析に基づいて、修正手段126によって、推定手段123のアルゴリズムが修正されることができる。処理700は、修正されたアルゴリズムを用いて繰り返されることができる。
【0193】
図7Aは、被験者の状態を推定するためのコンピュータシステム100による処理の一例(処理700)を示すフローチャートである。処理700は、コンピュータシステム100のプロセッサ部140によって実行される。処理700は、被験者の状態を推定するためのモデルを作成するための処理である。処理700は、複数の対象のうちの各対象について実行されることができる。すなわち、処理700が1度実行されることにより、1つの対象について学習が行われることになる。処理700を複数の対象について実行することにより、複数の対象について学習が行われ得る。被験者の状態は、健康に関する状態であり得、健康に関する状態は、少なくとも1つの疾患に関する状態を含む。以下では、少なくとも1つの疾患に関する状態を推定することを例に説明するが、以下の処理は、他の健康に関する状態を推定する(例えば、歩行能力を推定する、健康度を推定する)ためにも同様に適用されることが理解される。
【0194】
ステップS701では、プロセッサ部140の受信手段141が、対象が歩行している様子を撮影した複数の画像を受信する。受信手段141が受信した複数の画像は、生成手段142に提供される。受信手段141は、さらに、対象の少なくとも1つの疾患に関する状態を示す情報を受信する。受信手段141が受信した少なくとも1つの疾患に関する状態を示す情報は、学習手段143に提供される。
【0195】
ステップS702では、プロセッサ部140の生成手段142が、ステップS701で受信された複数の画像から、対象の少なくとも1つのシルエット画像を生成する。生成手段142は、当該技術分野において公知の技術を用いて、シルエット画像を生成することができる。生成手段142は、複数の画像から複数のシルエット画像を生成することができ、好ましくは、複数の画像から1つのシルエット画像を生成することができる。
【0196】
生成手段142は、例えば、複数の画像から複数のシルエット領域を抽出し、抽出された複数のシルエット領域を正規化し、正規化された複数のシルエット領域を平均することによって、少なくとも1つのシルエット画像を生成することができる。複数のシルエット画像を平均することによって、利用されるシルエット画像の情報量を有意に損なうことなく、データ量を削減することができる。
【0197】
ステップS703では、プロセッサ部140の学習手段143が、ステップS702で生成された少なくとも1つのシルエット画像を入力用教師データとし、対象の少なくとも1つの疾患に関する状態を出力用教師データとして、機械学習モデルに学習させる。
【0198】
処理700により、1つの対象について、学習が完了する。処理700を複数の対象について実行することにより、複数の対象について学習が行われ、モデルの精度が向上し得る。
【0199】
処理700によって作成されたモデルは、プロセッサ部120またはプロセッサ部120’で利用されることができる。また、このようにして作成された学習済モデルのパラメータは、データベース部200または他の記憶媒体に格納されることができる。
【0200】
図7Bは、被験者の状態を推定するためのコンピュータシステム100による処理の別の一例(処理710)を示すフローチャートである。処理710は、コンピュータシステム100のプロセッサ部140’によって実行される。処理710は、被験者の状態を推定するためのモデルを作成するための処理である。処理710は、複数の対象のうちの各対象について実行されることができる。すなわち、処理710が1度実行されることにより、1つの対象について学習が行われることになる。処理710を複数の対象について実行することにより、複数の対象について学習が行われ得る。被験者の状態は、健康に関する状態であり得、健康に関する状態は、少なくとも1つの疾患に関する状態を含む。以下では、少なくとも1つの疾患に関する状態を推定することを例に説明するが、以下の処理は、他の健康に関する状態を推定する(例えば、歩行能力を推定する、健康度を推定する)ためにも同様に適用されることが理解される。本明細書において、疾患に関する状態は、対象が実際に疾患に罹患していない場合の状態も含み(「未病」ともいう。)、一つの実施例では疾患に関する状態は、対象が実際に疾患に罹患している状態のみを含んでいてもよい。したがって、健康に関する状態は、疾患に関する状態および疾患に関する状態以外の状態を含み、そのいずれかまたは両方を含んでいてもよい。
【0201】
ステップS711では、プロセッサ部140’の受信手段141が、対象が歩行している様子を撮影した複数の画像を受信する。ステップS711は、ステップS701と同様である。受信手段141が受信した複数の画像は、生成手段142に提供される。受信手段141は、さらに、対象の少なくとも1つの疾患に関する状態を示す情報を受信する。受信手段141が受信した少なくとも1つの疾患に関する状態を示す情報は、学習手段143’に提供される。
【0202】
ステップS712では、プロセッサ部140’の生成手段142が、ステップS711で受信された複数の画像から、対象の少なくとも1つのシルエット画像を生成する。ステップS712は、ステップS702と同様である。
【0203】
ステップS713では、プロセッサ部140’の抽出手段144が、ステップS711で受信された複数の画像から、対象の骨格特徴を抽出する。抽出手段144は、当該技術分野において公知の技術を用いて、シルエット画像を生成することができる。抽出手段144は、複数の画像のそれぞれから骨格特徴を抽出することにより、骨格特徴の時系列データを生成することができる。
【0204】
ステップS714では、プロセッサ部140’の学習手段143が、ステップS712で生成された少なくとも1つのシルエット画像およびステップS713で抽出された骨格特徴、ならびに、対象の少なくとも1つの疾患に関する状態を示す情報を機械学習モデルに学習させる。例えば、学習手段143は、対象の少なくとも1つのシルエット画像を入力用教師データとし、対象の少なくとも1つの疾患に関する状態を出力用教師データとして、第1の機械学習モデルに学習させ、対象の骨格特徴を入力用教師データとし、対象の少なくとも1つの疾患に関する状態を出力用教師データとして、第2の機械学習モデルに学習させるようにすることができる。あるいは、例えば、学習手段143は、対象の少なくとも1つのシルエット画像および骨格特徴を入力用教師データとし、対象の少なくとも1つの疾患に関する状態を出力用教師データとして、機械学習モデルに学習させることができる。
【0205】
処理710により、1つの対象について、学習が完了する。処理710を複数の対象について実行することにより、複数の対象について学習が行われ、モデルの精度が向上し得る。
【0206】
処理710によって作成されたモデルは、プロセッサ部120またはプロセッサ部120’で利用されることができる。また、このようにして作成された学習済モデルのパラメータは、データベース部200または他の記憶媒体に格納されることができる。
【0207】
図6A図6B図7A図7Bを参照して上述した例では、特定の順序で各ステップが実行されることを説明したが、示される順序は一例であり、各ステップが実行される順序は、これに限定されない。論理的に可能な任意の順序で各ステップが実行されることができる。例えば、ステップS612の前にステップS613を行うことができる。例えば、ステップS712の前にステップS613を行うことができる。
【0208】
図6A図6B図7A図7Bを参照して上述した例では、図6A図6B図7A図7Bに示される各ステップの処理は、プロセッサ部120またはプロセッサ部120’またはプロセッサ部140またはプロセッサ部140’とメモリ部130に格納されたプログラムとによって実現することが説明されたが、本発明はこれに限定されない。図6A図6B図7A図7Bに示される各ステップの処理のうちの少なくとも1つは、制御回路などのハードウェア構成によって実現されてもよい。
【実施例
【0209】
(実施例1)
脊柱管狭窄症の疾患を有する被験者および脊柱管狭窄症の疾患を有しない被験者が歩行する様子を撮影した動画を用いて、学習済モデルを構築した。構築された学習済モデルを利用して、その性能を評価した。
【0210】
(使用したデータ)
脊柱管狭窄症の疾患有りの被験者49名分、および脊柱管狭窄症の疾患無しの被験者12名分の計61名分のデータを使用した。脊柱管狭窄症の疾患有りの被験者49名は、脊椎のどこかに狭窄がある状態にあり、脊柱管狭窄症の疾患有りの被験者49名のうち、42名がLumbar Pathology(腰椎疾患)を有しており、7名がCervical Pathology(頸椎疾患)を有していた。
ここで、Lumbar pathologyは脊柱管のうち腰(腰椎)が狭くなっていて、その結果歩行障害が起きている状態のことであり、LCSと同義である。Cervical pathologyは、脊柱管のうち頸部(頚椎)が狭くなって歩行障害が起きている状態のことであり、CSMと同義である。
【0211】
49名の被験者に真っすぐ10m歩行してもらい、歩行している様子をカメラ(USB3.0カメラ FLIR BFLY-U3-13S2カラーまたはUSB3.0カメラ FLIR CM3-U3-113S2 カラー)で撮影した。撮影した動画のうち、最初の約3mと最後の約3mを除いた中間の約4mを歩行する様子を撮影した動画を用いた。
動画から複数のフレームを抽出し、複数の画像として解析した。
【0212】
(使用したモデル)
骨格特徴に基づいて脊柱管狭窄症の疾患の有無を予測するために、MS-G3Dを利用した。
シルエット画像に基づいて脊柱管狭窄症の疾患の有無を予測するために、ResNet50を利用した。
【0213】
(評価手法)
3-fold cross validation
61名(脊柱管狭窄症の疾患有り49名+脊柱管狭窄症の疾患無し12名)を3グループに分け、1つのグループのデータを評価用に用い、残りの2つのグループのデータを学習用に用いた。評価するグループを変えて3回試行を行った。
【0214】
(骨格特徴に基づいて疾患の有無を予測するモデルの評価)
第1の試行において、第2のグループおよび第3のグループの被験者の骨格特徴をMS-G3Dに学習させ、第1のグループの被験者の骨格特徴を学習済MS-G3Dに入力し、出力の精度(accuracy)、感度(sensitivity)、特異度(specificity)を算出した。
第2の試行において、第1のグループおよび第3のグループの被験者の骨格特徴をMS-G3Dに学習させ、第2のグループの被験者の骨格特徴を学習済MS-G3Dに入力し、出力の精度(accuracy)、感度(sensitivity)、特異度(specificity)を算出した。
第3の試行において、第1のグループおよび第2のグループの被験者の骨格特徴をMS-G3Dに学習させ、第3のグループの被験者の骨格特徴を学習済MS-G3Dに入力し、出力の精度(accuracy)、感度(sensitivity)、特異度(specificity)を算出した。
【0215】
図8A(a)はその結果を示す。CV1は、第1の試行の結果を示し。CV2は、第2の試行の結果を示し、CV3は、第3の試行の結果を示している。Totalは、CV1~CV3の平均値を示している。
【0216】
骨格特徴に基づいて脊柱管狭窄症の疾患の有無を予測した結果は、平均で、精度(accuracy)0.974、感度(sensitivity)0.981、特異度(specificity)0.880であった。また、偽陽性は0.019であり、偽陰性は、0.12であった。ある程度高い精度で、脊柱管狭窄症の疾患の有無を予測することができていると考えられる。
【0217】
(シルエット画像に基づいて疾患の有無を予測するモデルの評価)
第1の試行において、第2のグループおよび第3のグループの被験者のシルエット画像をRESNET50に学習させ、第1のグループの被験者のシルエット画像を学習済RESNET50に入力し、出力の精度(accuracy)、感度(sensitivity)、特異度(specificity)を算出した。
第2の試行において、第1のグループおよび第3のグループの被験者のシルエット画像をRESNET50に学習させ、第2のグループの被験者のシルエット画像を学習済RESNET50に入力し、出力の精度(accuracy)、感度(sensitivity)、特異度(specificity)を算出した。
第3の試行において、第1のグループおよび第2のグループの被験者のシルエット画像をRESNET50に学習させ、第3のグループの被験者のシルエット画像を学習済RESNET50に入力し、出力の精度(accuracy)、感度(sensitivity)、特異度(specificity)を算出した。
【0218】
図8A(b)はその結果を示す。CV1は、第1の試行の結果を示し。CV2は、第2の試行の結果を示し、CV3は、第3の試行の結果を示している。Totalは、CV1~CV3の平均値を示している。
【0219】
シルエット画像に基づいて脊柱管狭窄症の疾患の有無を予測した結果は、平均で、精度(accuracy)0.975、感度(sensitivity)0.979、特異度(specificity)0.927であった。また、偽陽性は0.021であり、偽陰性は、0.073であった。シルエット画像のみから、ある程度高い精度で、脊柱管狭窄症の疾患の有無を予測することができたことは予想外であった。
【0220】
(骨格特徴に基づいて疾患の有無を予測するモデルとシルエット画像に基づいて疾患の有無を予測するモデルとの融合)
第1の試行において、第2のグループおよび第3のグループの被験者の骨格特徴をMS-G3Dに学習させ、第2のグループおよび第3のグループの被験者のシルエット画像をRESNET50に学習させた。第1のグループの被験者のそれぞれの骨格特徴を学習済MS-G3Dに入力し、第1のスコアを出力として得た。次いで、第1のグループの被験者の対応する被験者のシルエット画像を学習済RESNET50に入力し、第2のスコアを出力として得た。第1のスコアと第2のスコアとを合算して識別結果を得た。識別結果の精度(accuracy)、感度(sensitivity)、特異度(specificity)を算出した。
第2の試行において、第1のグループおよび第3のグループの被験者の骨格特徴をMS-G3Dに学習させ、第1のグループおよび第3のグループの被験者のシルエット画像をRESNET50に学習させた。第2のグループの被験者のそれぞれの骨格特徴を学習済MS-G3Dに入力し、第1のスコアを出力として得た。次いで、第2のグループの被験者の対応する被験者のシルエット画像を学習済RESNET50に入力し、第2のスコアを出力として得た。第1のスコアと第2のスコアとを合算して識別結果を得た。識別結果の精度(accuracy)、感度(sensitivity)、特異度(specificity)を算出した。
第3の試行において、第1のグループおよび第2のグループの被験者の骨格特徴をMS-G3Dに学習させ、第1のグループおよび第2のグループの被験者のシルエット画像をRESNET50に学習させた。第3のグループの被験者のそれぞれの骨格特徴を学習済MS-G3Dに入力し、第1のスコアを出力として得た。次いで、第3のグループの被験者の対応する被験者のシルエット画像を学習済RESNET50に入力し、第2のスコアを出力として得た。第1のスコアと第2のスコアとを合算して識別結果を得た。識別結果の精度(accuracy)、感度(sensitivity)、特異度(specificity)を算出した。
【0221】
図8A(c)はその結果を示す。CV1は、第1の試行の結果を示し。CV2は、第2の試行の結果を示し、CV3は、第3の試行の結果を示している。Totalは、CV1~CV3の平均値を示している。
【0222】
骨格特徴とシルエット画像とに基づいて脊柱管狭窄症の疾患の有無を予測した結果は、平均で、精度(accuracy)0.995、感度(sensitivity)0.999、特異度(specificity)0.942であった。また、偽陽性は0.001であり、偽陰性は、0.058であった。骨格特徴とシルエット画像とでは捉えている特徴が異なるため、相補的に統合することで精度が大幅に向上している。このように、骨格特徴とシルエット画像とから、非常に高い精度で、脊柱管狭窄症の疾患の有無を予測することができたことは予想外であった。
【0223】
(実施例2)
腰部脊柱管狭窄症の疾患を有する被験者および腰部脊柱管狭窄症の疾患を有しない被験者が歩行する様子を撮影した動画を用いて、学習済モデルを構築した。構築された学習済モデルを利用して、その性能を評価した。腰部脊柱管狭窄症は、脊柱管狭窄症のうち、腰部に狭窄がある状態のことをいう。
【0224】
(使用したデータ)
腰部脊柱管狭窄症の疾患有りの被験者42名分、および腰部脊柱管狭窄症の疾患無しの被験者19名分の計61名分のデータを使用した。腰部脊柱管狭窄症の疾患無しの被験者19名のうち7名がCervical Pathology(頸椎疾患)を有しており、12名は、脊柱管狭窄症を何ら有していなかった。
【0225】
(手法)
実施例1と同様の手法で歩行する様子を撮影した動画を用い、動画から複数のフレームを抽出し、複数の画像として解析した。
【0226】
実施例1と同様のモデルを用い、同様の評価手法で各モデルを評価した。
【0227】
(骨格特徴に基づいて疾患の有無を予測するモデルの評価)
実施例1と同様に3回の試行を行い、出力の精度(accuracy)、感度(sensitivity)、特異度(specificity)を算出した。
【0228】
図8Bの表の第2行目は、各試行の結果の平均値を示す。
【0229】
骨格特徴に基づいて腰部脊柱管狭窄症の疾患の有無を予測した結果は、平均で、精度(accuracy)0.968、感度(sensitivity)0.976、特異度(specificity)0.869であった。また、偽陽性は0.024であり、偽陰性は、0.131であった。腰部というピンポイントの部位の疾患でさえも、ある程度高い精度で、疾患の有無を予測することができていると考えられる。
【0230】
(シルエット画像に基づいて疾患の有無を予測するモデルの評価)
実施例1と同様に3回の試行を行い、出力の精度(accuracy)、感度(sensitivity)、特異度(specificity)を算出した。
【0231】
図8Bの表の第3行目は、各試行の結果の平均値を示す。
【0232】
シルエット画像に基づいて腰部脊柱管狭窄症の疾患の有無を予測した結果は、平均で、精度(accuracy)0.968、感度(sensitivity)0.976、特異度(specificity)0.873であった。また、偽陽性は0.024であり、偽陰性は、0.127であった。腰部というピンポイントの部位の疾患でさえも、シルエット画像のみから、ある程度高い精度で、疾患の有無を予測することができたことは予想外であった。
【0233】
(骨格特徴に基づいて疾患の有無を予測するモデルとシルエット画像に基づいて疾患の有無を予測するモデルとの融合)
実施例1と同様に3回の試行を行い、出力の精度(accuracy)、感度(sensitivity)、特異度(specificity)を算出した。
【0234】
図8Bの表の第4行目は、各試行の結果の平均値を示す。
【0235】
骨格特徴とシルエット画像とに基づいて腰部脊柱管狭窄症の疾患の有無を予測した結果は、平均で、精度(accuracy)0.986、感度(sensitivity)0.994、特異度(specificity)0.895であった。また、偽陽性は0.006であり、偽陰性は、0.105であった。骨格特徴とシルエット画像とでは捉えている特徴が異なるため、相補的に統合することで精度が大幅に向上している。このように、頸部の疾患を有する被験者のデータもある中で、骨格特徴とシルエット画像とから、非常に高い精度で、腰部の疾患の有無を予測することができたことは予想外であった。
【0236】
(実施例3)
頸椎脊柱管狭窄症の疾患を有する被験者および頸椎脊柱管狭窄症の疾患を有しない被験者が歩行する様子を撮影した動画を用いて、学習済モデルを構築した。構築された学習済モデルを利用して、その性能を評価した。頸椎脊柱管狭窄症は、脊柱管狭窄症のうち、頸椎に狭窄がある状態のことをいう。
【0237】
(使用したデータ)
頸椎脊柱管狭窄症の疾患有りの被験者7名分、および頸椎脊柱管狭窄症の疾患無しの被験者54名分の計61名分のデータを使用した。頸椎脊柱管狭窄症の疾患無しの被験者54名の42名がLumbar Pathology(腰椎疾患)を有しており、12名は、脊柱管狭窄症を何ら有していなかった。
【0238】
(手法)
実施例1と同様の手法で歩行する様子を撮影した動画を用い、動画から複数のフレームを抽出し、複数の画像として解析した。
【0239】
実施例1と同様のモデルを用い、同様の評価手法で各モデルを評価した。
【0240】
(骨格特徴に基づいて疾患の有無を予測するモデルの評価)
実施例1と同様に3回の試行を行い、出力の精度(accuracy)、感度(sensitivity)、特異度(specificity)を算出した。
【0241】
図8Cの表の第2行目は、各試行の結果の平均値を示す。
【0242】
骨格特徴に基づいて頸椎脊柱管狭窄症の疾患の有無を予測した結果は、平均で、精度(accuracy)0.823、感度(sensitivity)0.781、特異度(specificity)0.888であった。また、偽陽性は0.219であり、偽陰性は、0.112であった。頸椎というピンポイントの部位の疾患でさえも、ある程度高い精度で、疾患の有無を予測することができていると考えられる。
【0243】
(シルエット画像に基づいて疾患の有無を予測するモデルの評価)
実施例1と同様に3回の試行を行い、出力の精度(accuracy)、感度(sensitivity)、特異度(specificity)を算出した。
【0244】
図8Cの表の第3行目は、各試行の結果の平均値を示す。
【0245】
シルエット画像に基づいて頸椎脊柱管狭窄症の疾患の有無を予測した結果は、平均で、精度(accuracy)0.818、感度(sensitivity)0.776、特異度(specificity)0.883であった。また、偽陽性は0.224であり、偽陰性は、0.117であった。頸椎というピンポイントの部位の疾患でさえも、シルエット画像のみから、ある程度高い精度で、疾患の有無を予測することができたことは予想外であった。
【0246】
(骨格特徴に基づいて疾患の有無を予測するモデルとシルエット画像に基づいて疾患の有無を予測するモデルとの融合)
実施例1と同様に3回の試行を行い、出力の精度(accuracy)、感度(sensitivity)、特異度(specificity)を算出した。
【0247】
図8Cの表の第4行目は、各試行の結果の平均値を示す。
【0248】
骨格特徴とシルエット画像とに基づいて頸椎脊柱管狭窄症の疾患の有無を予測した結果は、平均で、精度(accuracy)0.854、感度(sensitivity)0.775、特異度(specificity)0.976であった。また、偽陽性は0.225であり、偽陰性は、0.024であった。骨格特徴とシルエット画像とでは捉えている特徴が異なるため、相補的に統合することで精度が大幅に向上している。このように、腰部の疾患を有する被験者のデータもある中で、骨格特徴とシルエット画像とから、ある程度高い精度で、疾患の有無を予測することができたことは予想外であった。
【0249】
(実施例4)
頸椎症脊髄症を有する患者29人の重症度を日本整形外科学会頸椎スコア(JOA Score:17点満点で最重症が0点)で表現し、このスコアと本開示の学習済モデルによって出力された推定スコア(「疾患指数」と呼ぶ。疾患指数は、0~1の変数であり、0.5以上であれば頸椎疾患ありと判定することができる。)の相関性について検証した。
【0250】
検証は、Excelを用いて、近似曲線を描いて行った。
【0251】
図9は、実施例4の結果を示す。図9(a)は、29人の疾患指数と、それぞれのJOA Scoreとの相関関係を示すグラフである。
【0252】
図9(a)に示されるように、すべてのJOA Score(軽症~重症)の患者を対象とすると、疾患指数とJOA Scoreとは有意な相関が認められた。線形近似では、決定係数は、R=0.39であり、やや低かった。2次多項式近似(図示せず)では、決定係数は、R=0.45であった。
【0253】
決定係数がやや低い要因は、疾患指数が1近傍で、JOA Scoreの分布が大きいことであると考えられる。JOA Scoreが12以下の患者は手術適応であり、JOA Scoreが9以下の患者は最重症であり、多くは自覚症状が強く診断が容易であることから、本発明者は、これらのJOA Scoreの患者のJOA Scoreを推定することよりは、JOA Scoreが10以上患者のJOA Scoreを推定する方が有用であると考えた。なぜなら、JOA Scoreが10以上患者では、診断が容易ではなく、かつ、病気が進行するか回復するかをモニタリングする重要性が高いからである。
【0254】
そこで、JOA Scoreが10以上患者について、相関係数を検証した。図9(b)は、JOA Scoreが10以上の患者の疾患指数と、それぞれのJOA Scoreとの相関関係を示すグラフである。
【0255】
図9(b)に示されるように、JOA Scoreが10以上患者を対象とすると、図9(a)に示される結果よりも高い相関が認められた。線形近似では、決定係数は、R=0.51であり、0.5を超えた。2次多項式近似(図示せず)では、決定係数は、R=0.55であった。4次多項式近似(図示せず)では、決定係数は、R=0.57であった。
【0256】
この結果から、JOA Scoreが10以上患者を対象とした場合に、疾患指数とJOA Scoreとには有意に高い相関があるため、本開示のシステムによる出力から、JOA Scoreを評価することができることが示唆された。すなわち、本開示の学習済モデルによる出力を、JOA Scoreが10以上患者のモニタリング指標として利用することができる可能性が見出された。
【0257】
また、軽症(JOA Scoreが17に近い患者)でも、JOA Scoreと疾患指数との相関が見られたことから、軽症の患者~健康な被験者においても、疾患指数とJOA Scoreまたは他の類似するスコアとの相関が見られることが示唆された。
【0258】
(実施例5)
頚椎症性脊髄症(CSM)の疾患を有する患者1名に対して、「NEC歩行姿勢測定システム」(https://www.nec-solutioninnovators.co.jp/sl/walkingform/index.html)を用いて歩行年齢を測定した。測定は、CSMの疾患の治療のための手術前から手術後の4カ月にわたって経時的に行った(術前1ポイント、術後5ポイント)。
【0259】
各測定のときに撮影された動画を本発明の学習済モデルに入力し、疾患指数を出力した。そして、歩行年齢と疾患指数との関係を検証した。検証は、Excelを用いて、近似曲線を描いて行った。
【0260】
図10は、実施例5の結果を示す。
【0261】
図10に示されるように、歩行年齢と疾患指数との間には高い相関が認められた。線形近似では、決定係数は、R=0.70であった。
【0262】
このことから、本開示の学習済モデルから出力される疾患指数が、歩行能力を評価する指数とも相関し得ることが分かる。また、疾患指数は、個人の歩行能力の経時的変化をモニタリングするために利用され得ることも分かる。
【0263】
歩行年齢は、成人、特に40代以上、好ましくは50代以上の被験者において精度がよいことが知られており、このような歩行能力の経時的なモニタリングは、成人または40代以上または50代以上の被験者において好ましい。
【0264】
(仮想実施例)
疾患を有する被験者および疾患を有しない被験者が歩行する様子を撮影した動画を用いて、多値画像であるシルエット画像を生成し、そのシルエット画像を利用して学習済モデルを構築する。
【0265】
(使用するデータ)
疾患有りの被験者複数名、疾患無しの被験者複数名それぞれに真っすぐ10m歩行してもらい、歩行している様子をカメラで撮影する。得られる動画のうち、最初の約3mと最後の約3mを除いた中間の約4mを歩行する様子を撮影した動画を用いる。
動画から複数のフレームを抽出し、複数の画像として解析する。
各被験者について、複数の画像から、複数枚の多値シルエット画像または1枚の多値シルエット画像を生成する。多値シルエット画像では、被験者の各部位が異なる画素で表されている。
【0266】
(使用するモデル)
シルエット画像に基づいて疾患の有無を予測するために、ResNet50を利用する。
【0267】
(評価手法)
3-fold cross validation
疾患有りの被験者複数名、疾患無しの被験者複数名を3グループに分け、1つのグループのデータを評価用に用い、残りの2つのグループのデータを学習用に用いる。評価するグループを変えて3回試行を行う。
【0268】
(シルエット画像に基づいて疾患の有無を予測するモデルの評価)
第1の試行において、第2のグループおよび第3のグループの被験者の多値シルエット画像をRESNET50に学習させ、第1のグループの被験者の多値シルエット画像を学習済RESNET50に入力し、出力の精度(accuracy)、感度(sensitivity)、特異度(specificity)を算出する。
第2の試行において、第1のグループおよび第3のグループの被験者の多値シルエット画像をRESNET50に学習させ、第2のグループの被験者の多値シルエット画像を学習済RESNET50に入力し、出力の精度(accuracy)、感度(sensitivity)、特異度(specificity)を算出する。
第3の試行において、第1のグループおよび第2のグループの被験者の多値シルエット画像をRESNET50に学習させ、第3のグループの被験者の多値シルエット画像を学習済RESNET50に入力し、出力の精度(accuracy)、感度(sensitivity)、特異度(specificity)を算出する。
【0269】
多値シルエット画像を用いると、2値シルエット画像を用いる場合よりも、予測精度が向上することが予期される。多値シルエット画像に含まれる部位毎のシルエット特徴を用いることで、歩容に関する情報量が増える(シルエット形状に加えて、部位の情報が付加される)からである。多値シルエット画像がモデルの入力となると、入力が複雑になり、モデルの学習が困難になり得ること、および、多値シルエット画像を生成する際のエラーが悪影響を及ぼし得ることに留意すべきである。
【0270】
(実施例6)
例えば、上記実施例で構築された学習済モデルを有する本開示のシステムは、クリニックにおけるリハビリ指導に利用される。
まず、クリニックにおいて、患者に歩行を行わせ、そのときの動画を撮影する。
撮影された動画を本開示のシステムに投入すると、疾患指数が出力される。
医師またはセラピストは、この疾患指数に基づいて、リハビリメニューを決定することができる。例えば、医師またはセラピストは、そのときの疾患指数に基づいてリハビリメニューを決定してもよいし、疾患指数の変化率に基づいてリハビリメニューを決定してもよいし、疾患指数の経時的な変化に基づいてリハビリメニューを決定してもよい。医師またはセラピストは、患者にリハビリメニューを提示し、これを行わせる。
所定期間の間、患者にリハビリメニューを行わせた後、クリニックにおいて、再度歩行動画を撮影し、本開示のシステムを用いて解析する。医師またはセラピストは、このときの疾患指数に基づいて、リハビリメニューを変更または調整することができる。このようにして、現在の患者の状態に合わせたリハビリメニューを患者に提供することができる。
【0271】
(実施例7)
例えば、上記実施例で構築された学習済モデルを有する本開示のシステムは、在宅医療におけるリハビリ指導に利用される。
まず、自宅において、患者に歩行を行わせ、患者に、そのときの動画を患者の端末装置で撮影させる。このとき、撮影条件を適切に指示することが好ましい。
動画が撮影されると、撮影された動画は端末装置から医療施設に送信される。動画は、例えば、ネットワークを通じて医療施設に直接送信されてもよいし、クラウド上のストレージを介して医療施設に送信されてもよい。医療施設では、撮影された動画を本開示のシステムに投入すると、疾患指数が出力される。
医師またはセラピストは、この疾患指数に基づいて、リハビリメニューを決定することができる。例えば、医師またはセラピストは、そのときの疾患指数に基づいてリハビリメニューを決定してもよいし、疾患指数の変化率に基づいてリハビリメニューを決定してもよいし、疾患指数の経時的な変化に基づいてリハビリメニューを決定してもよい。医師またはセラピストは、決定されたリハビリメニューを患者に提示し、これを行わせる。決定されたリハビリメニューは、例えば、ネットワークを通じて患者の端末装置に直接送信されてもよいし、クラウド上のストレージを介して患者の端末装置に送信されてもよい。
所定期間の間、患者にリハビリメニューを行わせる。患者の自宅において、患者に、再度歩行動画を撮影させる。患者は、動画撮影と共に、実施したリハビリの実施項目を自動的にまたは手動で記録する。動画が撮影されると、撮影された動画は記録ともに端末装置から医療施設に送信される。医療施設では、撮影された動画を本開示のシステムに投入すると、疾患指数が出力される。医師またはセラピストは、このときの疾患指数と記録とに基づいて、リハビリメニューを変更または調整することができる。このようにして、現在の患者の状態に合わせたリハビリメニューを患者に提供することができる。これは、毎日行われることにより、医師またはセラピストは、翌日のリハビリメニュー決定することができ、患者の現在の状態に合ったリハビリメニューを提供することができる。
【0272】
(実施例8)
例えば、上記実施例で構築された学習済モデルを有する本開示のシステムは、テレメディシンに利用される。
まず、医療施設から遠隔地(例えば、自宅、離島、海外)において、患者に歩行を行わせ、患者に、そのときの動画を患者の端末装置で撮影させる。このとき、撮影条件を適切に指示することが好ましい。
動画が撮影されると、撮影された動画は端末装置から医療施設に送信される。動画は、例えば、ネットワークを通じて医療施設に直接送信されてもよいし、クラウド上のストレージを介して医療施設に送信されてもよい。医療施設では、撮影された動画を本開示のシステムに投入すると、疾患指数が出力される。
医師またはセラピストは、この疾患指数に基づいて、リハビリメニューを決定することができる。例えば、医師またはセラピストは、そのときの疾患指数に基づいてリハビリメニューを決定してもよいし、疾患指数の変化率に基づいてリハビリメニューを決定してもよいし、疾患指数の経時的な変化に基づいてリハビリメニューを決定してもよい。医師またはセラピストは、決定されたリハビリメニューを患者に提示し、これを行わせる。決定されたリハビリメニューは、例えば、ネットワークを通じて患者の端末装置に直接送信されてもよいし、クラウド上のストレージを介して患者の端末装置に送信されてもよい。
所定期間の間、患者にリハビリメニューを行わせる。患者に、再度歩行動画を撮影させる。患者は、動画撮影と共に、実施したリハビリの実施項目を自動的にまたは手動で記録する。動画が撮影されると、撮影された動画は記録ともに端末装置から医療施設に送信される。医療施設では、撮影された動画を本開示のシステムに投入すると、疾患指数が出力される。医師またはセラピストは、このときの疾患指数と記録とに基づいて、リハビリメニューを変更または調整することができる。このようにして、現在の患者の状態に合わせたリハビリメニューを患者に提供することができる。これは、毎日行われることにより、医師またはセラピストは、翌日のリハビリメニュー決定することができ、患者の現在の状態に合ったリハビリメニューを提供することができる。さらには、医療施設から遠隔地にある患者であっても、治療機会を逸することなく、適切な治療または指導を受けることができる。
【0273】
(実施例9)
例えば、上記実施例で構築された学習済モデルを有する本開示のシステムは、ショッピングモールにおける保健指導に利用される。
まず、ショッピングモールの特設会場において、被験者に歩行を行わせ、そのときの動画を撮影する。
撮影された動画を本開示のシステムに投入すると、疾患指数が出力される。
医師または保健師は、この疾患指数に基づいて、被験者の健康状態を決定することができる。健康状態は、例えば、歩行年齢であり得る。
医師または保健師は、決定された健康状態と、その健康状態に合わせた情報(例えば、行動変容を促す情報)を被験者に提供することができる。
このように被験者は、日常生活の中で、簡易に、自己の健康を改善するための動機を与えられ得る。
【0274】
(実施例10)
例えば、上記実施例で構築された学習済モデルを有する本開示のシステムは、スマートフォン情報共有アプリに利用される。
まず、遠隔リハビリの現場で被験者に歩行を行わせ、そのときの動画を撮影する。動画の情報に基づき、疾患診断名や適切なリハビリの処方例、目標荷重、目標歩行歩数、目標歩行距離、理想体重などのパラメータが医師の指示により(または動画情報から自動的に)提示される。
撮影された動画を本開示のシステムに投入すると、疾患指数も出力される。
被検者は、決定された健康状態と、その健康状態に合わせた情報(例えば、行動変容を促す情報)をスマートフォンアプリにより、被験者の友人などと共有し、同じ志を持つグループ内で提示する事により、目標達成に向けた一体感を得られる。
このように被験者は、日常生活の中で、簡易に、自己の健康を改善するための動機を与えられ得る。
【0275】
本開示は、上述した実施形態に限定されるものではない。本開示は、特許請求の範囲によってのみその範囲が解釈されるべきであることが理解される。当業者は、本開示の具体的な好ましい実施形態の記載から、本開示の記載および技術常識に基づいて等価な範囲を実施することができることが理解される。本明細書において引用した特許、特許出願および文献は、その内容自体が具体的に本明細書に記載されているのと同様にその内容が本明細書に対する参考として援用されるべきであることが理解される。
【産業上の利用可能性】
【0276】
本開示は、被験者の状態を推定するためのコンピュータシステム、方法、およびプログラムを提供するものとして有用である。
【符号の説明】
【0277】
100 コンピュータシステム
110 インターフェース部
120、120’ プロセッサ部
121 受信手段
122 生成手段
123、123’ 推定手段
124 抽出手段
130 メモリ部
140、140’ プロセッサ部
141 受信手段
142 生成手段
143、143’ 学習手段
144 抽出手段
200 データベース部
300 端末装置
400 ネットワーク
図1
図2
図3A
図3B
図3C
図3D
図3E
図4A
図4B
図5A
図5B
図6A
図6B
図7A
図7B
図8A
図8B
図8C
図9
図10