(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公表特許公報(A)
(11)【公表番号】
(43)【公表日】2024-05-28
(54)【発明の名称】機械学習モデルを使用する視覚的なフレイル指数の決定
(51)【国際特許分類】
A01K 29/00 20060101AFI20240521BHJP
G06T 7/00 20170101ALI20240521BHJP
G06T 7/60 20170101ALI20240521BHJP
G06T 7/246 20170101ALI20240521BHJP
【FI】
A01K29/00 A
A01K29/00 B
G06T7/00 350B
G06T7/60 180B
G06T7/60 150D
G06T7/246
【審査請求】未請求
【予備審査請求】未請求
(21)【出願番号】P 2023568732
(86)(22)【出願日】2022-05-12
(85)【翻訳文提出日】2023-11-08
(86)【国際出願番号】 US2022028986
(87)【国際公開番号】W WO2022241112
(87)【国際公開日】2022-11-17
(32)【優先日】2021-05-12
(33)【優先権主張国・地域又は機関】US
(81)【指定国・地域】
【公序良俗違反の表示】
(特許庁注:以下のものは登録商標)
(71)【出願人】
【識別番号】398066918
【氏名又は名称】ザ ジャクソン ラボラトリー
【氏名又は名称原語表記】THE JACKSON LABORATORY
(74)【代理人】
【識別番号】100118902
【氏名又は名称】山本 修
(74)【代理人】
【識別番号】100106208
【氏名又は名称】宮前 徹
(74)【代理人】
【識別番号】100196508
【氏名又は名称】松尾 淳一
(72)【発明者】
【氏名】クマール,ビベック
(72)【発明者】
【氏名】ヘッション,レイナニ
(72)【発明者】
【氏名】サブニス,ゴータム
(72)【発明者】
【氏名】チャーチル,ゲイリー
【テーマコード(参考)】
5L096
【Fターム(参考)】
5L096AA06
5L096BA06
5L096BA18
5L096CA04
5L096DA02
5L096FA19
5L096FA32
5L096FA33
5L096FA64
5L096FA66
5L096FA67
5L096FA69
5L096GA10
5L096GA30
5L096GA51
5L096HA09
5L096HA11
(57)【要約】
本明細書に記載のシステムおよび方法は、対象の映像データを処理することによって視覚的フレイルスコアを決定するための技術を提供する。様々な特徴を使用して脊椎可動性の特徴、歩行測定値、行動特徴、および体組成データを含む(但しこれらに限定されない)、視覚的フレイルスコアを決定してもよい。様々な特徴は、異なる技術を使用して映像データから抽出してもよい。1つまたは複数の機械学習モデルを使用してさまざまな特徴を処理して視覚的フレイルスコアを決定してもよい。
【選択図】
図1
【特許請求の範囲】
【請求項1】
コンピュータ実装方法であって、
対象の動きを取り込んだ映像を表す映像データを受信することと、
前記映像データを使用して、前記映像の持続時間中に前記対象の脊椎可動性の特徴を決定することと、
前記対象の視覚的フレイルスコアを決定するために、少なくとも1つの機械学習モデルを使用して、少なくとも前記脊椎可動性の特徴を処理することと、を含む、方法。
【請求項2】
前記映像の前記持続時間中に、前記対象の前記脊椎可動性の特徴を決定することが、
複数の脊椎測定値を決定することであって、前記複数の脊椎測定値の各脊椎測定値が、前記映像データの1つの映像フレームに対応する、決定することと、
前記複数の脊椎測定値を使用して、前記脊椎可動性の特徴を決定することと、を含む、請求項1に記載のコンピュータ実装方法。
【請求項3】
前記映像の前記持続時間中に、前記対象の前記脊椎可動性の特徴を決定することが、
前記映像データの各映像フレームについて、
前記対象の頭と前記対象の尾との間の第一の距離を決定することと、
前記対象の背中中央部と前記頭と前記尾との間の中間点との間の第二の距離を決定することと、
前記対象の前記頭、前記尾、および前記背中中央部の間に形成される角度を決定することと、
前記第一の距離、前記第二の距離、および前記角度を含むように、映像フレームの前記脊椎可動性の特徴を決定することと、を含む、請求項1に記載のコンピュータ実装方法。
【請求項4】
前記映像の前記持続時間中に、前記対象の前記脊椎可動性の特徴を決定することが、
前記映像データの各映像フレームについて、前記対象の背中中央部と前記対象の頭と前記対象の尾との間の中間点との間の距離を決定することと、を含む、請求項1に記載のコンピュータ実装方法。
【請求項5】
前記映像の前記持続時間中に、前記対象の少なくとも頭の位置、前記対象の尾、および前記対象の背中中央部の位置を追跡する姿勢推定データ追跡を決定するために、少なくとも追加の機械学習モデルを使用して、前記映像データを処理することと、
前記脊椎可動性の特徴を決定するために、前記姿勢推定データを使用することと、をさらに含む、請求項1に記載のコンピュータ実装方法。
【請求項6】
前記映像の前記持続時間中に、前記対象の少なくとも12個の身体部分の位置を追跡する姿勢推定データを決定するために前記映像データを処理することと、
前記姿勢推定データを使用して、前記対象の特徴を決定することと、
前記視覚的フレイルスコアを決定するために、前記少なくとも1つの機械学習モデルを使用して前記特徴を処理することと、を含む、請求項1に記載のコンピュータ実装方法。
【請求項7】
前記対象についての身体特徴を決定することであって、前記身体特徴が、前記対象の長さ、前記対象の幅、および前記対象の後肢間の距離のうちの少なくとも1つに対応する、決定することと、
前記視覚的フレイルスコアを決定するために、前記少なくとも1つの機械学習モデルを使用して、前記身体特徴を処理することと、をさらに含む、請求項1に記載のコンピュータ実装方法。
【請求項8】
前記映像の前記持続時間中に、後肢立ち事象が発生する回数を決定することと、
後肢立ち事象ごとの後肢立ち長さを決定することと、
前記視覚的フレイルスコアを決定するために、前記少なくとも1つの機械学習モデルを使用して、前記後肢立ち事象が発生した回数、および後肢立ち事象ごとの前記後肢立ち長さを処理することと、を含む、請求項1に記載のコンピュータ実装方法。
【請求項9】
前記少なくとも1つの機械学習モデルを使用して、前記映像の前記持続時間中に、前記対象に対する楕円適合データを決定するために、前記映像データを処理することと、
前記楕円適合データを使用して、前記対象の特徴を決定することと、
前記視覚的フレイルスコアを決定するために前記少なくとも1つの機械学習モデルを使用して、前記特徴を処理することと、をさらに含む、請求項1に記載のコンピュータ実装方法。
【請求項10】
前記映像の持続時間の間、前記対象の脊椎可動性の特徴を決定することが、
前記対象による歩行運動を表す映像フレームの第一のセットを決定することと、
前記映像フレームの第一のセットに対する脊椎可動性の特徴の第一のセットを決定することと、
前記対象による非歩行運動を表す映像フレームの第二のセットを決定することと、
前記映像フレームの第二のセットに対する脊椎可動性の特徴の第二のセットを決定することと、を含み、
前記脊椎可動性の特徴が、前記脊椎可動性の特徴の第一のセットおよび前記脊椎可動性の特徴の第二のセットを含む、請求項1に記載のコンピュータ実装方法。
【請求項11】
前記脊椎可動性の特徴の第一のセットが、前記対象の背中中央部と前記対象の頭と尾との間の中間点との間の距離に対応し、前記脊椎可動性の特徴の第二のセットが、前記対象の前記頭、前記尾と前記背中中央部との間に形成される角度に対応する、請求項10に記載のコンピュータ実装方法。
【請求項12】
前記映像データを使用して、前記映像の前記持続時間中に、前記対象の歩行測定値を決定することと、
前記対象の前記視覚的フレイルスコアを決定するために、前記少なくとも1つの機械学習モデルを使用して、前記歩行特徴を処理することと、をさらに含む、請求項1に記載のコンピュータ実装方法。
【請求項13】
一組をなす複数の対象身体部分に関して、動きを追跡した点データを決定するために映像データを処理することと、
前記点データを使用して、前記映像データ内に表された、複数の立脚期と、対応した複数の遊脚期と、を決定することと、
前記複数の立脚期と前記複数の遊脚期とに基づいて、前記映像データ内に表された複数のストライド間隔を決定することと、
前記点データを使用して、歩行測定値を決定することであって、前記歩行測定値は、前記複数のストライド間隔の各ストライド間隔に基づく、決定することと、をさらに含む請求項12に記載のコンピュータ実装方法。
【請求項14】
前記対象の前記左後肢または前記対象の前記右後肢のつま先離地事象に基づいて、前記複数の立脚期の第一の立脚期から、および前記複数の遊脚期の第一の遊脚期からの、第一の移行を決定することと、
前記左後肢または前記右後肢の足接地事象に基づいて、前記複数の遊脚期の第二の遊脚期から、前記複数の立脚期の第二の立脚期への、第二の移行を決定することと、
前記第一の移行部および前記第二の移行部を使用して、前記歩行測定値を決定することと、をさらに含む、請求項13に記載のコンピュータ実装方法。
【請求項15】
前記映像の前記持続時間中に、前記対象の一組をなす複数の身体部分の動きを追跡する点データを決定するために前記映像データを処理することであって、前記一組をなす複数の身体部分が、左後肢および右後肢を含み、前記歩行測定値を決定することが、
前記点データを使用して、ストライド間隔に対するステップ長を決定することであって、前記ステップ長が、前記右後肢が直前の前記左後肢の接地位置を超えて移動する距離を表す、決定することと、
前記点データを使用して、前記ストライド間隔に対して使用されるストライド長を決定することであって、前記ストライド長が、前記各ストライド間隔時に前記左後肢が移動する距離を表す、決定することと、
前記点データを使用して、前記ストライド間隔に対するステップ幅を決定することであって、前記ステップ幅が、前記左後肢と前記右後肢との間の距離を表す、決定することと、を含む、決定することをさらに含む、請求項12に記載のコンピュータ実装方法。
【請求項16】
前記映像の前記持続時間中に、前記対象の一組をなす複数の身体部分の動きを追跡する点データを決定するために前記映像データを処理することであって、前記一組をなす複数の身体部分が、尾の付け根を含む、処理することをさらに含み、
前記歩行測定値を決定することが、前記点データを使用して、ストライド間隔に対する前記尾の付け根の動きに基づいて、前記対象の速度データを決定することを含む、請求項12に記載のコンピュータ実装方法。
【請求項17】
前記映像の前記持続時間中に、前記対象の一組をなす複数の身体部分の動きを追跡する点データを決定するために、前記映像データを処理することであって、前記一組をなす複数の身体部分が尾の付け根を含む、処理することをさらに含み、
前記歩行測定値を決定することが、
前記点データを使用して、前記複数のストライド間隔のうちの1つのストライド間隔を表す、一組をなす複数のフレームの間の前記尾の付け根の動きに基づいて、前記対象の一組をなす複数の速度データを決定することと、
前記速度データのセットを平均化することにより、前記ストライド間隔に対するストライド速度を決定することと、を含む、請求項12に記載のコンピュータ実装方法。
【請求項18】
前記映像の前記持続時間中に、前記対象の一組をなす複数の身体部分の動きを追跡する点データを決定するために、前記映像データを処理することであって、前記一組をなす複数の身体部分が、右後肢および左後肢を含む、処理することをさらに含み、
前記歩行測定値を決定することが、
前記点データを使用して、ストライド間隔の間に前記右後肢が地面に対して接触している時間量を表す第一の立脚持続時間を決定することと、
前記第一の立脚持続時間と前記ストライド間隔の持続時間とに基づいて、第一の負荷係数を決定することと、
前記点データを使用して、前記ストライド間隔時に前記左後肢が地面に対して接触している時間量を表す第二の立脚持続時間を決定することと、
前記第二の立脚持続時間と前記ストライド間隔の前記持続時間とに基づいて、第二の負荷係数を決定することと、
前記第一の負荷係数と前記第二の負荷係数とに基づいて、前記ストライド間隔に対する平均負荷係数を決定することと、を含む、請求項12に記載のコンピュータ実装方法。
【請求項19】
前記映像の前記持続時間中に、前記対象の一組をなす複数の身体部分の動きを追跡する点データを決定するために前記映像データを処理することであって、前記一組をなす複数の身体部分が、尾の付け根および首付け根を含む、処理することをさらに含み、
前記歩行測定値を決定することが、
前記点データを使用して、前記複数のストライド間隔のあるストライド間隔を表す一組をなす複数のフレーム時に、前記尾の付け根と前記首付け根とを結ぶ一組をなす複数のベクトルを決定することと、
前記一組をなす複数のベクトルを使用して、前記ストライド間隔に対する前記対象の角速度を決定することと、を含む、請求項12に記載のコンピュータ実装方法。
【請求項20】
前記映像の前記持続時間中に、前記対象の一組をなす複数の身体部分の動きを追跡する点データを決定するために前記映像データを処理することであって、前記一組をなす複数の身体部分が、前記対象の脊椎中間部を含む、処理することをさらに含み、
ストライド間隔は、前記映像データの一組をなす複数のフレームに関連付けられており、
前記歩行測定値を決定することは、前記点データを使用して、前記ストライド間隔に対する変位ベクトルを決定することを含み、前記変位ベクトルは、前記一組をなす複数のフレームにおける最初のフレーム内に表された前記脊椎中間部と、前記一組をなす複数のフレームにおける最後のフレーム内に表された前記脊椎中間部と、を結ぶ、請求項12に記載のコンピュータ実装方法。
【請求項21】
前記一組をなす複数の身体部分は、前記対象の鼻をさらに含み、前記メトリクスデータを決定することは、
前記点データを使用して、前記一組をなす複数のフレームの各フレームに関する前記変位ベクトルからの前記鼻の垂直距離に基づいて、前記ストライド間隔に対する前記鼻の一組をなす複数の横方向の変位を決定することを含む、請求項20に記載のコンピュータ実装方法。
【請求項22】
前記鼻の前記横方向の変位は、前記対象の体長にさらに基づく、請求項21に記載のコンピュータ実装方法。
【請求項23】
前記歩行測定値を決定することが、
前記ストライド間隔に対する前記鼻の前記横方向の変位の滑らかな曲線を生成するために、前記鼻の前記一組をなす複数の横方向の変位を使用して補間を実行することと、
前記鼻の前記横方向の変位の滑らかな曲線を使用して、前記鼻の最大変位が前記ストライド間隔時のどの時点で発生したかを決定することと、
前記鼻の前記最大変位が発生した時に完了した前記ストライド間隔のパーセントを表すパーセントストライド位置を決定することと、を行うことにより、尾先端の変位位相オフセットを決定することを、さらに含む、請求項21に記載のシステム。
【請求項24】
前記映像の前記持続時間中に、前記対象の一組をなす複数の身体部分の移動を追跡する点データを決定するために前記映像データを処理することであって、前記一組をなす複数の身体部分が、前記対象の尾の付け根をさらに含む、処理することをさらに含み、
前記歩行測定値を決定することが、前記点データを使用して、前記一組をなす複数のフレーム内の各フレームに関する前記変位ベクトルからの前記尾の付け根の垂直距離に基づいて、前記ストライド間隔に対する前記尾の付け根の一組をなす複数の横方向の変位を決定することを含む、請求項12に記載のコンピュータ実装方法。
【請求項25】
前記歩行測定値を決定することが、
前記ストライド間隔に対する前記尾の付け根の横方向の変位の滑らかな曲線を生成するために前記尾の付け根の前記一組をなす複数の横方向の変位を使用して補間を実行することと、
前記尾の付け根の前記横方向の変位の滑らかな曲線を使用して、前記尾の付け根の最大変位が前記ストライド間隔時のどの時点で発生したかを決定することと、
前記尾の付け根の前記最大変位が発生した時に完了した前記ストライド間隔のパーセントを表すパーセントストライド位置を決定することと、を行うことにより、尾の付け根の変位位相オフセットを決定することを、さらに行わせる、請求項24に記載のシステム。
【請求項26】
前記映像の前記持続時間中に、前記対象の一組をなす複数の身体部分の動きを追跡する点データを決定するために前記映像データを処理することであって、前記一組をなす複数の身体部分が、前記対象の尾先端を含む、処理することをさらに含み、
前記歩行測定値を決定することが、
前記点データを使用して、前記一組をなす複数のフレーム内の各フレームに関する前記変位ベクトルからの前記尾先端の垂直距離に基づいて、前記ストライド間隔に対する前記尾先端の一組をなす複数の横方向の変位を決定することを含む、請求項12に記載のコンピュータ実装方法。
【請求項27】
前記歩行測定値を決定することが、
前記ストライド間隔に対する前記尾先端の横方向の変位の滑らかな曲線を生成するために、前記尾先端の前記一組をなす複数の横方向の変位を使用して補間を実行することと、
前記尾先端の前記横方向の変位の滑らかな曲線を使用して、前記尾先端の最大変位が前記ストライド間隔時のどの時点で発生したかを決定することと、
前記尾先端の前記最大変位が発生した時に完了した前記ストライド間隔のパーセントを表すパーセントストライド位置を決定することと、を行うことにより、尾先端の変位位相オフセットを決定することを、さらに含む、請求項26に記載のコンピュータ実装方法。
【請求項28】
前記映像の持続時間中に、一組をなす複数の身体部分の動きを追跡する点データを決定するために前記映像データを処理することであって、前記一組をなす複数の身体部分が、前記鼻、首付け根、脊椎中間部、左後肢、右後肢、尾の付け根、尾中間部、および尾先端のうちの1つまたは複数を含む、処理することと、
前記点データを使用して、前記対象の特徴を決定することと、
前記視覚的フレイルスコアを決定するために前記少なくとも1つの機械学習モデルを使用して、前記特徴を処理することと、を含む、請求項1に記載のコンピュータ実装方法。
【請求項29】
前記対象が前記映像データの複数の映像フレームに対してグルーミング行動を呈する尤度を識別するために、追加の機械学習モデルを使用して前記映像データを処理することと、
前記対象が前記グルーミング行動を呈する前記尤度を使用して、前記視覚的フレイルスコアを決定することと、をさらに含む、請求項1に記載のコンピュータ実装方法。
【請求項30】
前記対象が前記映像データの複数の映像フレームに対して所定の行動を呈する尤度を識別するために、追加の機械学習モデルを使用して前記映像データを処理することと、
前記所定の行動を呈する前記対象の尤度を使用して、前記視覚的フレイルスコアを決定することと、をさらに含む、請求項1に記載のコンピュータ実装方法。
【請求項31】
前記映像データの前記映像フレームの第一のセットを回転させることによって、回転された映像フレームのセットを決定することと、
所定の行動アクションを呈する前記対象の尤度を識別するように構成された第一の機械学習モデルを使用して、前記映像フレームの第一のセットを処理することと、
前記第一の機械学習モデルにより前記第一の映像フレームセットを前記処理することに基づいて、前記映像フレームの第一のセットの第一の映像フレームであって、前記映像データの第一の持続時間に対応する第一の映像フレーム内で前記所定の行動アクションを呈する前記対象の第一の確率を決定することと、
前記第一の機械学習モデルを使用して回転されたフレームのセットを処理することと、
前記第一の機械学習モデルにより前記回転された映像フレームのセットを前記処理することに基づいて、前記回転された映像フレームのセットの第二の映像フレームであって、前記映像データの前記第一の持続時間に対応する、第二の映像フレーム内で前記所定の行動アクションを呈する前記対象の第二の確率を決定することと、
前記第一の確率および前記第二の確率を使用して、前記第一の映像フレームに対する第一のラベルを識別することであって、前記第一のラベルが、前記対象が前記所定の行動アクションを呈することを示す、識別することと、を含む、請求項1に記載のコンピュータ実装方法。
【請求項32】
前記所定の行動アクションを呈する前記対象の尤度を識別するように構成された第二の機械学習モデルを使用して、前記映像フレームの第一のセットを処理することと、
前記第二の機械学習モデルにより前記映像フレームの第一のセットを前記処理することに基づいて、前記第一の映像フレーム内で前記所定の行動アクションを呈する前記対象の第三の確率を決定することと、
第二の機械学習モデルを使用して回転された映像フレームのセットを処理することと、
前記第二の機械学習モデルにより前記回転された映像フレームのセットを前記処理することに基づいて、前記第二の映像フレーム内で前記所定の行動アクションを呈する前記対象の第四の確率を決定することと、
前記第一の確率、前記第二の確率、前記第三の確率、および前記第四の確率を使用して前記第一のラベルを識別することと、をさらに含む、請求項31に記載のコンピュータ実装方法。
【請求項33】
前記映像フレームの第一のセットを反射することによって、反射された映像フレームのセットを決定することと、
第一の機械学習モデルを使用して、反射された映像フレームのセットを処理することと、
前記第一の機械学習モデルにより前記反射された映像フレームのセットを前記処理することに基づいて、前記反射された映像フレームのセットの第三の映像フレームであって、前記第三の映像フレームが前記第一の映像フレームの第一の持続時間に対応する、第三の映像フレーム内で前記所定の行動アクションを呈する前記対象の第三の確率を決定することと、
前記第一の確率、前記第二の確率、および前記第三の確率を使用して前記第一のラベルを識別することと、をさらに含む、請求項31に記載のコンピュータ実装方法。
【請求項34】
前記対象がマウスであり、前記所定の行動が、足をなめること、片側の洗顔、両側の洗顔、および脇腹をなめることのうちの少なくとも1つを含むグルーミング行動を含む、請求項31に記載のコンピュータ実装方法。
【請求項35】
前記映像フレームの第一のセットが、ある期間の間の前記映像データの一部分を表し、前記第一の映像フレームが、前記期間の最後の時間フレームである、請求項31に記載のコンピュータ実装方法。
【請求項36】
前記映像データから映像フレームの第二のセットを識別することと、
前記映像フレームの第二のセットを回転させることによって、第二の回転された映像フレームのセットを決定することと、
前記第一の機械学習モデルを使用して、前記映像フレームの第二のセットを処理することと、
前記第一の機械学習モデルにより前記第二の映像フレームセットを前記処理することに基づいて、前記第二の映像フレームセットの第三の映像フレーム内で前記所定の行動アクションを呈する前記対象の第三の確率を決定することと、
前記第一の機械学習モデルを使用して、前記第二の回転された映像フレームのセットを処理することと、
前記第一の機械学習モデルにより前記第二の回転された映像フレームのセットを前記処理することに基づいて、前記回転された映像フレームのセットの第四の映像フレームであって、前記第四の映像フレームが前記第三の映像フレームに対応する、第四の映像フレーム内で前記所定の行動アクションを呈する前記対象の第四の確率を決定することと、
前記第三の確率および前記第四の確率を使用して、前記第四の映像フレームに対する第二のラベルを識別することであって、前記第二のラベルが、前記対象が前記所定の行動アクションを呈することを示す、識別することと、をさらに含む、請求項31に記載のコンピュータ実装方法。
【請求項37】
前記第一の機械学習モデルが、機械学習分類器である、請求項31に記載のコンピュータ実装方法。
【請求項38】
前記映像の前記持続時間中に、前記対象についての歩行測定値を決定するために前記映像データを処理することと、
前記対象が所定の行動を呈する前記映像の一部を識別する行動データを決定するために前記映像データを処理することと、
前記視覚的フレイルスコアを決定するために、前記少なくとも1つの機械学習モデルを使用して、前記脊椎可動性の特徴、前記歩行測定値、および前記行動データを処理することと、を含む、請求項1に記載の方法。
【請求項39】
前記映像は、オープンフィールドアリーナ内の前記対象の移動を捕捉する、請求項1に記載のコンピュータ実装方法。
【請求項40】
前記視覚的フレイルスコアを使用して、前記対象の身体状態を決定することをさらに含む、請求項1に記載の方法。
【請求項41】
前記身体状態がフレイルである、請求項40に記載のコンピュータ実装方法。
【請求項42】
前記身体状態が、フレイル前状態である、請求項40に記載のコンピュータ実装方法。
【請求項43】
前記対象が、哺乳類であり、任意選択的にマウスである、請求項1に記載のコンピュータ実装方法。
【請求項44】
請求項1に記載のコンピュータ実装方法を用いて、前記対象についての視覚的フレイルスコアを決定することを含む、対象の身体状態を評価する方法。
【請求項45】
前記身体状態がフレイルである、請求項44に記載の方法。
【請求項46】
前記身体状態が、フレイル前状態である、請求項44に記載の方法。
【請求項47】
前記対象が、哺乳類であり、任意選択的にマウスである、請求項44に記載の方法。
【請求項48】
フレイル状態に対する候補化合物の効果の存在を決定するための方法であって、
対象に関する第一の視覚的フレイルスコアを取得することであって、前記取得することは、請求項1に記載のコンピュータ実装方法を含み、前記対象は、前記フレイル状態を有する、あるいは、前記フレイル状態に関する動物モデルである、取得することと、
前記対象に対して前記候補化合物を投与することと、
前記対象に対する投与後の視覚的フレイルスコアを取得することと、
前記第一の視覚的フレイルスコアと前記投与後の視覚的フレイルスコアとを比較することであって、前記第一の歩行測定値と前記投与後の視覚的フレイルスコアとの差異は、前記フレイル状態に対する前記候補化合物の効果を識別する、比較することと、を含む方法。
【請求項49】
フレイル度が低いことを示す前記視覚的フレイルスコアの改善は、前記候補化合物が前記フレイル状態の退行を促進するものとして識別する、請求項48に記載の方法。
【請求項50】
前記第一の視覚的フレイルスコアと投与後の視覚的フレイルスコアが統計的に等しい場合は、前記候補化合物が前記対象における前記フレイル状態の進行を阻害するものとして同定される、請求項48に記載の方法。
【請求項51】
前記フレイル状態の治療における前記化合物の効果を追加的に試験することをさらに含む、請求項48に記載の方法。
【請求項52】
前記対象が、哺乳類であり、任意選択的にマウスである、請求項48に記載の方法。
【請求項53】
フレイル状態に対する候補化合物の効果の存在を識別するための方法であって、
前記フレイル状態を有する、あるいは前記フレイル状態に関する動物モデルである対象に対して、前記候補化合物を投与することと、
前記対象の視覚的フレイルスコアを取得することであって、前記取得することが、請求項1に記載のコンピュータ実装方法を含む、取得することと、
前記取得された視覚的フレイルスコアを対照視覚的フレイルスコアと比較することであって、前記取得された視覚的フレイルスコアと前記対照視覚的フレイルスコアの差が、前記フレイル状態に対する前記候補化合物の効果の存在を識別する、比較することと、を含む、方法。
【請求項54】
前記対照フレイルスコアと比較して、前記候補化合物を投与された前記対象におけるより少ないフレイルを示す前記視覚的フレイルスコアの改善は、前記候補化合物を、前記対象における前記フレイル状態の退行を促進するものとして識別する、請求項53に記載の方法。
【請求項55】
前記対照フレイルスコアと統計的に同等である前記候補化合物を投与された前記対象で取得された視覚的フレイルスコアが、前記対象における前記フレイル状態の進行を阻害するものとして前記候補化合物を識別する、請求項53に記載の方法。
【請求項56】
前記対象が、哺乳類であり、任意選択的にマウスである、請求項53に記載の方法。
【請求項57】
システムであって、
少なくとも1つのプロセッサと、
命令を含む少なくとも1つのメモリであって、前記少なくとも1つのプロセッサによって実行された時に、
対象の動きを取り込んだ映像を表す映像データを受信することと、
前記映像データを使用して、前記映像の持続時間の間、前記対象の脊椎可動性の特徴を決定することと、
前記対象の視覚的フレイルスコアを決定するために、少なくとも1つの機械学習モデルを使用して、少なくとも前記脊椎可動性の特徴を処理することと、を前記システムに行わせる命令を含む、少なくとも1つのメモリを含む、システム。
【請求項58】
前記映像の前記持続時間中に、前記対象の前記脊椎可動性の特徴を前記決定することをシステムに行わせる前記命令が、
複数の脊椎測定値を決定することであって、前記複数の脊椎測定値の各脊椎測定値が、前記映像データの1つの映像フレームに対応する、決定することと、
前記複数の脊椎測定値を使用して、前記脊椎可動性の特徴を決定することと、を前記システムにさらに行わせる、請求項57に記載の方法。
【請求項59】
前記映像の前記持続時間中に、前記対象の前記脊椎可動性の特徴を決定することを前記システムに行わせる前記命令が、
前記映像データの映像フレームごとに、
前記対象の頭と前記対象の尾との間の第一の距離を決定することと、
前記対象の背中中央部と前記頭と前記尾との間の中間点との間の第二の距離を決定することと、
前記対象の前記頭、前記尾、および前記背中中央部の間に形成される角度を決定することと、
前記第一の距離、前記第二の距離、および前記角度を含む映像フレームの前記脊椎可動性の特徴を決定することとを、前記システムにさらに行わせる、請求項57に記載のシステム。
【請求項60】
前記映像の前記持続時間中に、前記対象の前記脊椎可動性の特徴を決定することを前記システムに行わせる前記命令が、
前記映像データの各映像フレームについて、前記対象の背中中央部と、前記対象の頭と前記対象の尾との間の中間点との間の距離を決定することを前記システムにさらに行わせる、請求項57に記載のシステム。
【請求項61】
前記少なくとも1つのメモリが、前記少なくとも1つのプロセッサによって実行される時には、
前記映像の前記持続時間中に、前記対象の少なくとも頭の位置、前記対象の尾、および前記対象の背中中央部の位置、姿勢推定データ追跡を決定するために、前記少なくとも1つの機械学習モデルを使用して、前記映像データを処理することと、
前記姿勢推定データを使用して、前記脊椎可動性の特徴を決定することと、を前記システムに行わせるさらなる命令を含む、請求項57に記載のシステム。
【請求項62】
前記少なくとも1つのメモリが、前記少なくとも1つのプロセッサによって実行される時には、
前記映像の前記持続時間中に、前記対象の少なくとも12箇所の身体部分の位置を追跡する姿勢推定データを決定するために前記映像データを処理することと、
前記姿勢推定データを使用して、前記対象の特徴を決定することと、
前記視覚的フレイルスコアを決定するために、前記少なくとも1つの機械学習モデルを使用して、前記特徴を処理することを前記システムに行わせるさらなる命令を含む、請求項57に記載のシステム。
【請求項63】
前記少なくとも1つのメモリが、前記少なくとも1つのプロセッサによって実行される時には、
前記対象についての身体特徴を決定することであって、前記身体特徴が、前記対象の長さ、前記対象の幅、および前記対象の後肢間の距離のうちの少なくとも1つに対応する、決定することと、
前記視覚的フレイルスコアを決定するために、前記少なくとも1つの機械学習モデルを使用して、前記身体特徴を処理することを前記システムに行わせるさらなる命令を含む、請求項57に記載のシステム。
【請求項64】
前記少なくとも1つのメモリが、前記少なくとも1つのプロセッサによって実行される時には、
前記映像の前記持続時間中に後肢立ち事象が発生する回数を決定することと、
後肢立ち事象ごとの後肢立ち長さを決定することと、
前記視覚的フレイルスコアを決定するために、前記少なくとも1つの機械学習モデルを使用して、前記後肢立ち事象が発生した回数、および後肢立ち事象ごとの前記後肢立ち長さを処理することと、を前記システムに行わせるさらなる命令を含む、請求項57に記載のシステム。
【請求項65】
前記少なくとも1つのメモリが、前記少なくとも1つのプロセッサによって実行される時には、
前記映像の前記持続時間中に、前記対象についての楕円適合データを決定するために、少なくとも追加の機械学習モデルを使用して、前記映像データを処理することと、
前記楕円適合データを使用して、前記対象の特徴を決定することと、
前記少なくとも1つの機械学習モデルを使用して、前記特徴を処理して、前記視覚的フレイルスコアを決定することと、を前記システムに行わせるさらなる命令を含む、請求項57に記載のシステム。
【請求項66】
前記映像の前記持続時間中に、前記対象の前記脊椎可動性の特徴を決定することを前記システムに行わせる前記命令が、
前記対象による歩行運動を表す映像フレームの第一のセットを決定することと、
前記映像フレームの第一のセットに対する脊椎可動性の特徴の第一のセットを決定し、
前記対象による非歩行運動を表す映像フレームの第二のセットを決定することと、
前記映像フレームの第二のセットに対する脊椎可動性の特徴の第二のセットを決定することと、を前記システムにさらに行わせ、
前記脊椎可動性の特徴が、前記脊椎可動性の特徴の第一のセットおよび前記脊椎可動性の特徴の第二のセットを含む、請求項57に記載のシステム。
【請求項67】
前記脊椎可動性の特徴の第一のセットが、前記対象の背中中央部と前記対象の頭と尾との間の中間点との間の距離に対応し、前記脊椎可動性の特徴の第二のセットが、前記対象の前記頭、前記尾と前記背中中央部との間に形成される角度に対応する、請求項66に記載のシステム。
【請求項68】
前記少なくとも1つのメモリが、前記少なくとも1つのプロセッサによって実行される時には、
前記映像データを使用して、前記映像の前記持続時間中に、前記対象の歩行測定値を決定することと、
前記対象の前記視覚的フレイルスコアを決定するために、前記少なくとも1つの機械学習モデルを使用して、前記歩行特徴を処理することと、を前記システムに行わせるさらなる命令を含む、請求項57に記載のシステム。
【請求項69】
前記少なくとも1つのメモリが、前記少なくとも1つのプロセッサによって実行される時には、
前記映像の前記持続時間中に、前記対象の一組をなす複数の対象身体部分の動きを追跡した点データを決定するために映像データを処理することと、
前記点データを使用して、前記映像データ内に表された、複数の立脚期と、対応した複数の遊脚期と、を決定することと、
前記複数の立脚期と前記複数の遊脚期とに基づいて、前記映像データ内に表された複数のストライド間隔を決定することと、
前記点データを使用して、歩行測定値を決定することであって、前記歩行測定値は、前記複数のストライド間隔の各ストライド間隔に基づく、決定することと、を前記システムに行わせるさらなる命令を含む、請求項68に記載のシステム。
【請求項70】
前記少なくとも1つのメモリが、前記少なくとも1つのプロセッサによって実行される時には、
前記対象の前記左後肢または前記対象の前記右後肢のつま先離地事象に基づいて、前記複数の立脚期の第一の立脚期からの、および前記複数の遊脚期の第一の遊脚期からの、第一の移行を決定することと、
前記左後肢または前記右後肢の足接地事象に基づいて、前記複数の遊脚期の第二の遊脚期から、前記複数の立脚期の第二の立脚期への、第二の移行を決定することと、
前記第一の移行部および前記第二の移行部を使用して、前記歩行測定値を決定することと、を前記システムに行わせるさらなる命令を含む、請求項69に記載のシステム。
【請求項71】
前記少なくとも1つのメモリが、前記少なくとも1つのプロセッサによって実行される時には、
前記映像の前記持続時間中に、前記対象の一組をなす複数の身体部分の動きを追跡する点データを決定するために、前記映像データを処理することであって、前記一組をなす複数の身体部分が、左後肢および右後肢を含み、前記歩行測定値を決定することが、
前記点データを使用して、ストライド間隔に関するステップ長を決定することであって、前記ステップ長は、前記右後肢が直前の左後肢の接地位置を超えて移動する距離を表す、決定することと、
前記点データを使用して、前記ストライド間隔に関して使用されるストライド長を決定することであって、前記ストライド長が、前記各ストライド間隔時に前記左後肢が移動する距離を表す、決定することと、
前記点データを使用して、前記ストライド間隔に対するステップ幅を決定することであって、前記ステップ幅が、前記左後肢と前記右後肢との間の距離を表す、決定することと、を含む、処理することを前記システムに行わせるさらなる命令を含む、請求項68に記載のシステム。
【請求項72】
前記少なくとも1つのメモリが、前記少なくとも1つのプロセッサによって実行される時には、
前記映像の前記持続時間中に、前記対象の一組をなす複数の身体部分の動きを追跡する点データを決定するために、前記映像データを処理することであって、前記一組をなす複数の身体部分が、尾の付け根を含む、処理することを前記システムに行わせるさらなる命令を含み、
前記歩行測定値を決定することを前記システムに行わせる前記命令は、点データを使用して、ストライド間隔ごとの尾の付け根の動きに基づいて、対象の速度データを前記システムに決定することをさらに行わせるさらなる命令を含む、請求項68に記載のシステム。
【請求項73】
前記少なくとも1つのメモリが、前記少なくとも1つのプロセッサによって実行される時には、
前記映像の前記持続時間中に、前記対象の一組をなす複数の身体部分の動きを追跡する点データを決定するために前記映像データを処理することであって、前記一組をなす複数の身体部分が、尾の付け根を含む、処理することを前記システムに行わせるさらなる命令を含み、
前記歩行測定値を決定することを前記システムに行わせる前記命令が、
前記点データを使用して、前記複数のストライド間隔のあるストライド間隔を表す一組をなす複数のフレーム時における前記尾の付け根の動きに基づいて、前記対象に関する一組をなす複数の速度データを決定することと、
前記速度データのセットを平均化することにより、前記ストライド間隔に対するストライド速度を決定することと、を前記システムにさらに行わせる、請求項68に記載のシステム。
【請求項74】
前記少なくとも1つのメモリが、前記少なくとも1つのプロセッサによって実行される時には、
前記映像の前記持続時間中に、前記対象の一組をなす複数の身体部分の動きを追跡する点データを決定するために前記映像データを処理することであって、前記一組をなす複数の身体部分が、右後肢および左後肢を含む、処理することを前記システムに行わせるさらなる命令を含み、
前記歩行測定値を決定することを前記システムに行わせる前記命令が、
前記点データを使用して、ストライド間隔時に前記右後肢が地面に対して接触している時間量を表す第一の立脚持続時間を決定することと、
前記第一の立脚持続時間と前記ストライド間隔の持続時間とに基づいて、第一の負荷係数を決定することと、
前記点データを使用して、前記ストライド間隔時に前記左後肢が地面に対して接触している時間量を表す第二の立脚持続時間を決定することと、
前記第二の立脚持続時間と前記ストライド間隔の前記持続時間とに基づいて、第二の負荷係数を決定することと、
前記第一の負荷係数と前記第二の負荷係数とに基づいて、前記ストライド間隔に対する平均負荷係数を決定することと、を前記システムにさらに行わせる、請求項68に記載のシステム。
【請求項75】
前記少なくとも1つのメモリが、前記少なくとも1つのプロセッサによって実行される時には、
前記映像の前記持続時間中に、前記対象の一組をなす複数の身体部分の動きを追跡する点データを決定するために、前記映像データを処理することであって、前記一組をなす複数の身体部分が、尾の付け根および首付け根を含む、処理することを、前記システムに行わせるさらなる命令を含み、
前記歩行測定値を決定することを前記システムに行わせる前記命令が、
前記点データを使用して、前記複数のストライド間隔のあるストライド間隔を表す一組をなす複数のフレーム時に、前記尾の付け根と前記首付け根とを結ぶ一組をなす複数のベクトルを決定することと、
前記一組をなす複数のベクトルを使用して、前記ストライド間隔に対する前記対象の角速度を決定することと、を前記システムにさらに行わせる、請求項68に記載のシステム。
【請求項76】
前記少なくとも1つのメモリが、前記少なくとも1つのプロセッサによって実行される時には、
前記映像の前記持続時間中に、前記対象の一組をなす複数の身体部分の動きを追跡する点データを決定するために、前記映像データを処理することであって、前記一組をなす複数の身体部分が、前記対象の脊椎中間部を含む、処理することとを前記システムに行わせるさらなる命令を含み、
ストライド間隔は、前記映像データの一組をなす複数のフレームに対して関連付けられており、
前記歩行測定値を決定することを前記システムに行わせる前記命令は、は、前記点データを使用して、前記ストライド間隔に対する変位ベクトルを決定することであって、前記変位ベクトルは、前記一組をなす複数のフレームにおける最初のフレーム内に表された前記脊椎中間部と、前記一組をなす複数のフレームにおける最後のフレーム内に表された前記脊椎中間部とを結ぶ、決定することを、前記システムにさらに行わせる、請求項68に記載のシステム。
【請求項77】
前記一組をなす複数の身体部分は、前記対象の鼻をさらに含み、前記メトリクスデータを決定することを前記システムに行わせる前記命令は、
前記点データを使用して、前記一組をなす複数のフレームの各フレームに関する前記変位ベクトルからの前記鼻の垂直距離に基づいて、前記ストライド間隔に対する前記鼻の一組をなす複数の横方向の変位を決定することを、前記システムにさらに行わせる、請求項76に記載のシステム。
【請求項78】
前記鼻の前記横方向の変位は、前記対象の体長にさらに基づく、請求項77に記載のシステム。
【請求項79】
前記歩行測定値を決定することを前記システムに行わせる前記命令は、
前記ストライド間隔に対する前記鼻の前記横方向の変位の滑らかな曲線を生成するために、前記鼻の前記一組をなす複数の横方向の変位を使用して補間を実行することと、
前記鼻の前記横方向の変位の滑らかな曲線を使用して、前記鼻の最大変位が前記ストライド間隔時のどの時点で発生したかを決定することと、
前記鼻の前記最大変位が発生した時に完了した前記ストライド間隔のパーセントを表すパーセントストライド位置を決定することと、を行うことにより、尾先端の変位位相オフセットを決定することを、前記システムにさらに行わせる、請求項77に記載のシステム。
【請求項80】
前記少なくとも1つのメモリが、前記少なくとも1つのプロセッサによって実行される時には、
前記映像の前記持続時間中に、前記対象の一組をなす複数の身体部分の移動を追跡する点データを決定するために、前記映像データを処理することであって、前記一組をなす複数の身体部分が、前記対象の尾の付け根をさらに含む、処理することを前記システムに行わせるさらなる命令を含み、
歩行測定値を決定することをシステムに行わせる命令は、点データを使用して、一組をなす複数のフレーム内の各フレームに関する変位ベクトルからの尾の付け根の垂直距離に基づいて、ストライド間隔に対する尾の付け根の一組をなす複数の横方向の変位を決定することを、前記システムにさらに行わせる、請求項68に記載のシステム。
【請求項81】
前記歩行測定値を決定することを前記システムに行わせる前記命令は、
前記ストライド間隔に対する前記尾の付け根の横方向の変位の滑らかな曲線を生成するために、前記尾の付け根の前記一組をなす複数の横方向の変位を使用して補間を実行することと、
前記尾の付け根の前記横方向の変位の滑らかな曲線を使用して、前記尾の付け根の最大変位が前記ストライド間隔時のどの時点で発生したかを決定することと、
前記尾の付け根の前記最大変位が発生した時に完了した前記ストライド間隔のパーセントを表すパーセントストライド位置を決定することと、を行うことにより、尾の付け根の変位位相オフセットを決定することを、前記システムにさらに行わせる、請求項80に記載のシステム。
【請求項82】
前記少なくとも1つのメモリが、前記少なくとも1つのプロセッサによって実行される時には、
前記映像の前記持続時間中に、前記対象の一組をなす複数の身体部分の動きを追跡する点データを決定するために前記映像データを処理することであって、前記一組をなす複数の身体部分が、前記対象の尾先端を含む、処理することを前記システムに行わせるさらなる命令を含み、
前記歩行測定値を決定することを前記システムに行わせる前記命令が、
前記点データを使用して、前記一組をなす複数のフレーム内の各フレームに関する前記変位ベクトルからの前記尾先端の垂直距離に基づいて、前記ストライド間隔に対する前記尾先端の一組をなす複数の横方向の変位を決定することを、前記システムにさらに行わせる、請求項68に記載のシステム。
【請求項83】
前記歩行測定値を決定することを前記システムに行わせる前記命令は、
前記ストライド間隔に対する前記尾先端の横方向の変位の滑らかな曲線を生成するために、前記尾先端の前記一組をなす複数の横方向の変位を使用して補間を実行することと、
前記尾先端の前記横方向の変位の滑らかな曲線を使用して、前記尾先端の最大変位が前記ストライド間隔時のどの時点で発生したかを決定することと、
前記尾先端の前記最大変位が発生した時に完了した前記ストライド間隔のパーセントを表すパーセントストライド位置を決定することと、を行うことにより、尾先端の変位位相オフセットを決定することとを、前記システムにさらに行わせる、請求項82に記載のシステム。
【請求項84】
前記少なくとも1つのメモリが、前記少なくとも1つのプロセッサによって実行される時には、
前記映像の持続時間中に、一組をなす複数の身体部分の動きを追跡する点データを決定するために、前記映像データを処理することであって、前記一組をなす複数の身体部分が、前記鼻、首付け根、脊椎中間部、左後肢、右後肢、尾の付け根、尾中間部、および尾先端のうちの1つまたは複数を含む、処理することと、
前記点データを使用して、前記対象の特徴を決定することと、
前記視覚的フレイルスコアを決定するために、前記少なくとも1つの機械学習モデルを使用して、前記特徴を処理することと、を前記システムに行わせるさらなる命令を含む、請求項57に記載のシステム。
【請求項85】
前記少なくとも1つのメモリが、前記少なくとも1つのプロセッサによって実行される時には、
前記映像データの複数の映像フレームに対して前記対象がグルーミング行動を呈する尤度を識別するために、追加の機械学習モデルを使用して前記映像データを処理することと、
前記対象が前記グルーミング行動を呈する前記尤度を使用して、前記視覚的フレイルスコアを決定することを前記システムに行わせるさらなる命令を含む、請求項57に記載の計算システム。
【請求項86】
前記少なくとも1つのメモリが、前記少なくとも1つのプロセッサによって実行される時には、
前記映像データの複数の映像フレームに対して前記対象が所定の行動を呈する尤度を識別するために、追加の機械学習モデルを使用して前記映像データを処理することと、
前記所定の行動を呈する前記対象の尤度を使用して、前記視覚的フレイルスコアを決定することとを前記システムに行わせるさらなる命令を含む、請求項57に記載の計算システム。
【請求項87】
前記少なくとも1つのメモリが、前記少なくとも1つのプロセッサによって実行される時には、
前記映像データの映像フレームの第一のセットを回転させることによって、前記映像フレームの回転されたセットを決定することと、
所定の行動アクションを呈する前記対象の尤度を識別するように構成された第一の機械学習モデルを使用して、前記映像フレームの第一のセットを処理することと、
前記第一の機械学習モデルにより前記第一の映像フレームセットを前記処理することに基づいて、前記映像フレームの第一のセットの第一の映像フレームであって、前記映像データの第一の持続時間に対応する、第一の映像フレーム内で前記所定の行動アクションを呈する前記対象の第一の確率を決定することと、
前記第一の機械学習モデルを使用して、前記回転されたフレームのセットを処理することと、
前記第一の機械学習モデルにより前記回転された映像フレームのセットを前記処理することに基づいて、前記回転された映像フレームのセットの第二の映像フレームであって、映像フレームの前記第一の持続時間に対応する、第二の映像フレーム内で前記所定の行動アクションを呈する前記対象の第二の確率を決定することと、
前記第一のフレームに対する第一のラベルを識別する前記第一の確率および前記第二の確率を使用することであって、前記第一のラベルが、前記対象が前記所定の行動アクションを呈することを示す、使用することと、前記システムに行わせるさらなる命令を含む、請求項57に記載のシステム。
【請求項88】
前記少なくとも1つのメモリが、前記少なくとも1つのプロセッサによって実行される時には、
前記所定の行動アクションを呈する前記対象の尤度を識別するように構成された第二の機械学習モデルを使用して、前記映像フレームの第一のセットを処理することと、
前記第二の機械学習モデルにより前記映像フレームの第一のセットを前記処理することに基づいて、前記第一の映像フレーム内で前記所定の行動アクションを呈する前記対象の第三の確率を決定することと、
前記第二の機械学習モデルを使用して、前記回転された映像フレームのセットを処理することと、
前記第二の機械学習モデルにより前記回転された映像フレームのセットを前記処理することに基づいて、前記第二の映像フレーム内で前記所定の行動アクションを呈する前記対象の第四の確率を決定することと、
前記第一の確率、前記第二の確率、前記第三の確率、および前記第四の確率を使用して前記第一のラベルを識別することと、を前記システムに行わせるさらなる命令を含む、請求項87に記載のシステム。
【請求項89】
前記少なくとも1つのメモリが、前記少なくとも1つのプロセッサによって実行される時には、
前記映像フレームの第一のセットを反射することによって、反射された映像フレームのセットを決定することと、
前記第一の機械学習モデルを使用して、前記反射された映像フレームのセットを処理することと、
前記第一の機械学習モデルにより前記反射された映像フレームのセットを前記処理することに基づいて、前記反射されたフレームのセットの第三の映像フレームであって、前記第一の映像フレームの前記第一の持続時間に対応する、第三の映像フレーム内で前記所定の行動アクションを呈する前記対象の第三の確率を決定することと、
前記第一の確率、前記第二の確率、および前記第三の確率を使用して前記第一のラベルを識別することと、を前記システムに行わせるさらなる命令を含む、請求項87に記載のコンピュータ実装方法。
【請求項90】
前記対象がマウスであり、前記所定の行動が、足をなめること、片側の洗顔、両側の洗顔、および脇腹をなめることのうちの少なくとも1つを含むグルーミング行動を含む、請求項87に記載のシステム。
【請求項91】
前記映像フレームの第一のセットが、ある期間の間の前記映像データの一部分を表し、前記第一の映像フレームが、前記期間の最後の時間フレームである、請求項87に記載のシステム。
【請求項92】
前記少なくとも1つのメモリが、前記少なくとも1つのプロセッサによって実行される時には、
前記映像データから映像フレームの第二のセットを識別することと、
前記映像フレームの第二のセットを回転させることによって、第二の回転された映像フレームのセットを決定することと、
前記第一の機械学習モデルを使用して、前記映像フレームの第二のセットを処理することと、
前記第一の機械学習モデルにより前記第二の映像フレームセットを前記処理することに基づいて、前記第二の映像フレームセットの第三の映像フレーム内で前記所定の行動アクションを呈する前記対象の第三の確率を決定することと、
前記第一の機械学習モデルを使用して、前記第二の回転した映像フレームのセットを処理することと、
前記第一の機械学習モデルにより前記第二の回転された映像フレームのセットを前記処理することに基づいて、前記回転されたフレームのセットの第四の映像フレームであって、前記第三の映像フレームに対応する、第四の映像フレーム内で前記所定の行動アクションを呈する前記対象の第四の確率を決定することと、
前記第四の映像フレームに対する第二のラベルを識別する前記第三の確率および前記第四の確率を使用することであって、前記第二のラベルが、前記対象が前記所定の行動アクションを呈することを示す、使用することと、を前記システムに行わせるさらなる命令を含む、請求項87に記載のシステム。
【請求項93】
前記第一の機械学習モデルが、機械学習分類器である、請求項87に記載のシステム。
【請求項94】
前記少なくとも1つのメモリが、前記少なくとも1つのプロセッサによって実行される時には、
前記映像の前記持続時間中に、前記対象についての歩行測定値を決定するために、前記映像データを処理することと、
前記対象が所定の行動を呈する前記映像の一部を識別する行動データを決定するために、前記映像データを処理することと、
前記視覚的フレイルスコアを決定するために、前記少なくとも1つの機械学習モデル、前記脊椎可動性の特徴、前記歩行測定値、および前記行動データを使用して処理することと、を前記システムに行わせるさらなる命令を含む、請求項57に記載のシステム。
【請求項95】
前記映像は、平面視視界でオープンフィールドアリーナ内の前記対象の移動を捕捉する、請求項57に記載のシステム。
【請求項96】
前記少なくとも1つのメモリが、前記少なくとも1つのプロセッサによって実行される時には、
前記対象の身体状態を決定するために前記視覚的フレイルスコアを使用することを前記システムに行わせるさらなる命令を含む、請求項57に記載のシステム。
【請求項97】
前記身体状態がフレイルである、請求項96に記載のシステム。
【請求項98】
前記身体状態が、フレイル前状態である、請求項96に記載のシステム。
【請求項99】
前記対象が、哺乳類であり、任意選択的にマウスである、請求項57に記載のシステム。
【発明の詳細な説明】
【技術分野】
【0001】
関連出願
本出願は、2021年5月12日に出願された米国仮出願番号第63/187892号の米国特許法第35条§119(e)に基づく利益を主張するものであり、その開示は参照によりその全体が本明細書に組み込まれる。
【0002】
本発明は、いくつかの態様では、機械学習モデルを使用して映像データを処理することによって、対象の視覚的なフレイル指数を決定することに関する。
政府による支援
【0003】
本発明は、国立薬物乱用研究所によって授与された、DA041668およびDA048634、および国立老化研究所によって授与されたAG38070に基づく政府支援によって行われた。政府は、本発明について特定の権利を有している。
【背景技術】
【0004】
老化は、すべての生物系に影響を及ぼす最後のプロセスである。経時的な老化とは対照的に、生物学的老化は、異なる個体に対して起きる速度は異なる。ヒトでは、高齢化は、健康問題および死亡率の増加と共にやってくるが、一部の個体は長く健康な生活をし、他の個体は疾患および障害で早く命を落とすものもいる。より正確には、年齢コホート内の個体間で、死亡リスクおよび健康状態に不均一性が観察されている[非特許文献1、非特許文献2]。フレイルの概念は、この不均一性の現象を定量化するために使用され、有害健康転帰に対する脆弱性が増大した状態として定義される[非特許文献3]。フレイルな個体は、高い疾患および障害のリスク、同じ疾患を原因とする健康転帰の悪化、さらには、同じ疾患の別の症状さえも有しているため、フレイルを識別することは臨床的に重要である[非特許文献2]。
【0005】
フレイル指数(FI)は、フレイルを定量化するために広く使用されているアプローチであり[非特許文献1]、他の方法[非特許文献4]より優れている。この方法では、一組をなす複数の、年齢に関連する健康状態の障害について、個人をスコア化して累積スコアを生成する。各障害は、次のような特徴を有していなければならない。つまり、健康関連でなければならず、年齢とともにその人口が増加しなければならず、また、あまり早くその人口が飽和してはならない〔非特許文献5〕。各健康障害の存在および重症度は、存在しない場合は0、部分的に存在する場合は0.5、または存在する場合は1としてスコア化される。FIに関する説得力のある知見は、スコア化された正確な健康障害は、指数によって異なる場合があるが、それでも同様の特徴および有用性を示すことである〔非特許文献5]。すなわち、2つの十分に大きいFIがあって、障害の数および選択が異なっていても、加齢に伴う障害蓄積の平均速度は同程度であり、また、FIスコアの可能な最大下も同じであることを示す。より重要なことは、両FIは、有害健康転帰、入院、および死亡の個体のリスクをしっかりと予測することである。このFIの特性は、研究者が様々な大規模な医療データベースからデータを引き出して大規模な研究を支援することができるため、有利である。また、フレイルは正当な現象であり、FIは老化の複雑さを考慮すると、それを定量化する有効な方法であることも示唆している。人によって老化の速さが違うだけでなく、老化の仕方も違う。つまり、ある人は可動性に重度の問題を有するが、鋭い記憶を有している場合があり、また別の人は心臓は健康であるが、免疫系が弱い場合がある、などである。両者ともフレイル度は同等かもしれないが、これは、様々な健康上の障害をサンプリングしなければ明らかにならない。実際に、FIスコアは、分子マーカーの追跡、および死亡リスクおよび健康状態の効率的な予測におけるフレイル表現型検査などの他の開発された指標より優れている[非特許文献6~8〕。一部のFIは、指数項目として様々な行動指標および生理学的指標の両方を使用するマウスでの使用に適合されている〔非特許文献2、4、9]が、動物モデルおよびヒトにおいて、フレイルを評価し、死亡リスクと健康を予測するための適切な方法がない。
【先行技術文献】
【非特許文献】
【0006】
【非特許文献1】ミトニツキーA.等、サイエンティフィック・ワールド・ジャーナル、1, 323-36 (2001年9月)
【非特許文献2】ホワイトヘッドJ. C.等、ジャーナル・オブ・ジェロントロジー、シリーズA: バイオメディカル・サイエンス・アンド・メディカル・サイエンス、69, 621-632 (2014)
【非特許文献3】ロックウッドK等、CMAJ 150, 489-495(1994)
【非特許文献4】シュルツM. B.等、ネイチャー・コミュニケーションズ11, 1-12 (2020)
【非特許文献5】サールS. D.等、BMC老年医学8, 24 (2008)
【非特許文献6】シュルツM. B等、ネイチャー・コミュニケーションズ11, 1-12 (2020)
【非特許文献7】キムS.等、ジェロサイエンス39, 83-92 (2017年1月)
【非特許文献8】コジマG.等、年齢と老化47, 193-200、(2017)
【非特許文献9】パークスR.等、ジャーナル・オブ・ジェロントロジー、シリーズA, バイオロジカル・サイエンス・アンド・メディカル・サイエンス、67, 217-27 (2012年3月)
【発明の概要】
【発明が解決しようとする課題】
【0007】
本発明の一態様によれば、コンピュータ実装方法が提供され、方法は、対象の動きを捕捉する映像を表す映像データを受信することと、その映像データを使用して、その映像の持続時間中に対象の脊椎可動性の特徴を決定することと、対象の視覚的フレイルスコアを決定するために、少なくとも1つの機械学習モデルを使用して、少なくとも脊椎可動性の特徴を処理することと、を含む。いくつかの実施形態では、映像の持続時間中に対象の脊椎可動性の特徴を決定することは、複数の脊椎測定値を決定することであって、複数の脊椎測定値の各脊椎測定値が、映像データの1つの映像フレームに対応する、決定することと、複数の脊椎測定値を使用して、脊椎可動性の特徴を決定することと、を含む。いくつかの実施形態では、映像の持続時間中に対象の脊椎可動性の特徴を決定することは、映像データの各映像フレームについて、対象の頭と対象の尾との間の第一の距離を決定することと、対象の背中中央部と頭と尾との間の中間点との間の第二の距離を決定することと、対象の頭、尾、および背中中央部の間に形成される角度を決定することと、第一の距離、第二の距離、および角度を含むように、映像フレームの脊椎可動性の特徴を決定することと、を含む。いくつかの実施形態では、映像の持続時間中に対象の脊椎可動性の特徴を決定することは、映像データの各映像フレームについて、対象の背中中央部と対象の頭と対象の尾との間の中間点との間の距離を決定することを含む。いくつかの実施形態では、この方法は、また、映像の持続時間中に、少なくとも対象の頭、対象の尾、および対象の背中中央部の位置を追跡する姿勢推定データを決定するために、少なくとも追加の機械学習モデルを使用して、映像データを処理することと、脊椎可動性の特徴を決定するために、姿勢推定データを使用することと、を含む。いくつかの実施形態では、この方法は、また、映像の持続時間中に、対象の少なくとも12箇所の身体部分の位置を追跡する姿勢推定データを決定するために、映像データを処理することと、姿勢推定データを使用して、対象の特徴を決定することと、視覚的フレイルスコアを決定するために、少なくとも1つの機械学習モデルを使用して、特徴を処理することと、を含む。いくつかの実施形態では、この方法は、また、対象の身体特徴を決定することであって、身体特徴が、対象の長さ、対象の幅、および対象の後肢間の距離のうちの少なくとも1つに対応する、決定することと、視覚的フレイルスコアを決定するために、少なくとも1つの機械学習モデルを使用して、身体特徴を処理することと、を含む、方法。いくつかの実施形態では、この方法は、また、映像の持続時間中に後肢立ち事象が発生する回数を決定することと、後肢立ち事象ごとの後肢立ち長さを決定することと、視覚的フレイルスコアを決定するために、少なくとも1つの機械学習モデルを使用して、後肢立ち事象が発生した回数および後肢立ち事象ごとの後肢立ち長さを処理することと、を含む。いくつかの実施形態では、この方法は、また、映像の持続時間中に、対象に対する楕円適合データを決定するために、少なくとも1つの機械学習モデルを使用して、映像データを処理することと、楕円適合データを使用して、対象の特徴を決定することと、視覚的フレイルスコアを決定するために、少なくとも1つの機械学習モデルを使用して、特徴を処理することと、を含む。いくつかの実施形態では、映像の持続時間中に対象の脊椎可動性の特徴を決定することは、対象による歩行運動を表す映像フレームの第一のセットを決定することと、映像フレームの第一のセットに対する脊椎可動性の特徴の第一のセットを決定することと、対象による非歩行運動を表す映像フレームの第二のセットを決定することと、映像フレームの第二のセットに対して脊椎可動性の特徴の第二のセットを決定することと、を含み、脊椎可動性の特徴が、脊椎可動性の特徴の第一のセットおよび脊椎可動性の特徴の第二のセットを含む。いくつかの実施形態では、脊椎可動性の特徴の第一のセットは、対象の背中中央部と対象の頭と尾との間の中間点との間の距離に対応し、脊椎可動性の特徴の第二のセットは、対象の頭、尾、および背中中央部との間に形成される角度に対応する。いくつかの実施形態では、この方法は、また、映像データを使用して、映像の持続時間中に対象の歩行測定値を決定することと、対象の視覚的フレイルスコアを決定するために、少なくとも1つの機械学習モデルを使用して、歩行特徴を処理することと、を含む。いくつかの実施形態では、この方法は、また、映像の持続時間中に、対象の一組をなす複数の身体部分の動きを追跡する点データを決定するために、映像データを処理することと、前記点データを使用して、前記映像データ内に表された、複数の立脚期と、対応した複数の遊脚期と、を決定することと、複数の立脚期と複数の遊脚期とに基づいて、映像データ内に表された複数のストライド間隔を決定することと、点データを使用して、複数のストライド間隔の各ストライド間隔に基づいて歩行測定値を決定することと、を含む いくつかの実施形態では、この方法は、また、対象の左後肢または対象の右後肢のつま先離地事象に基づいて、複数の立脚期のうちの第一立脚期からの、および複数の遊脚期のうちの第一遊脚期からの第一の移行を決定することと、前記左後肢または前記右後肢の足接地事象に基づいて、前記複数の遊脚期の第二遊脚期から、前記複数の立脚期の第二立脚期への、第二の移行を決定することと、第一の移行および第二の移行を使用して歩行測定値を決定することと、を含む。いくつかの実施形態では、この方法は、また、映像の持続時間中に、対象の一組をなす複数の身体部分の動作を追跡する点データを決定するために、映像データを処理することであって、その一組をなす複数の身体部分は、左後肢と右後肢とを含み、歩行測定値を決定することは、点データを使用して、ストライド間隔ごとのステップ長を決定することであって、ステップ長は、右後肢が直前の左後肢の接地位置を超えて移動する距離を表す、決定することを含む、処理することと、点データを使用して、各ストライド間隔に関して使用されるストライド長を決定することであって、ストライド長が、各ストライド間隔時に前記左後肢が移動する距離を表す、決定することと、点データを使用して、各ストライド間隔に対するステップ幅を決定することであって、ステップ幅が、左後肢と右後肢との間の距離を表す、決定することと、を含む。いくつかの実施形態では、この方法は、また、映像の持続時間中に、対象の一組をなす複数の身体部分の動きを追跡する点データを決定するために、映像データを処理することであって、一組をなす複数の身体部分は、尾の付け根を含み、歩行測定値を決定することは、点データを使用して、ストライド間隔ごとの尾の付け根の動きに基づいて、対象の速度データを決定することを含む、処理することを含む。いくつかの実施形態では、この方法は、また、映像の持続時間中に、対象の一組をなす複数の身体部分の動きを追跡する点データを決定するために、映像データを処理することであって、一組をなす複数の身体部分は、尾の付け根を含み、歩行測定値を決定することは、点データを使用して、複数のストライド間隔のあるストライド間隔を表す一組をなす複数のフレームの間の尾の付け根の動きに基づいて、対象の一組をなす複数の速度データを決定することと、を含む、処理することと、一組をなす複数の速度データを平均化することにより、ストライド間隔に対するストライド速度を決定することと、を含む。いくつかの実施形態では、この方法は、また、映像の持続時間中に、対象の一組をなす複数の身体部分の動きを追跡する点データを決定するために映像データを処理することであって、一組をなす複数の身体部分が、右後肢および左後肢を含み、また、歩行測定値を決定することが、点データを使用して、ストライド間隔中に右後肢が地面に対して接触している時間量を表す第一の立脚持続時間を決定することを含む、処理することと、第一の立脚持続時間とストライド間隔の持続時間とに基づいて、第一の負荷係数を決定することと、点データを使用して、ストライド間隔時に左後肢が地面に対して接触している時間量を表す第二の立脚持続時間を決定することと、第二の立脚持続時間とストライド間隔の持続時間とに基づいて、第二の負荷係数を決定することと、第一の負荷係数と第二の負荷係数とに基づいて、ストライド間隔に対する平均負荷係数を決定することと、を含む。いくつかの実施形態では、この方法は、また、映像の持続時間中に、対象の一組をなす複数の身体部分の動きを追跡する点データを決定するために、映像データを処理することであって、一組をなす複数の身体部分は、尾の付け根と首の付け根とを含み、歩行測定値を決定することは、点データを使用して、複数のストライド間隔のあるストライド間隔を表す一組をなす複数のフレームの間に、尾の付け根と首の付け根とを結ぶ一組をなす複数のベクトルを決定することと、を含む、処理することと、一組をなす複数のベクトルを使用して、ストライド間隔に対する対象の角速度を決定することと、を含む。いくつかの実施形態では、この方法は、また、映像の持続時間中に、対象の一組をなす複数の身体部分の動きを追跡する点データを決定するために、映像データを処理することであって、一組をなす複数の身体部分は、対象の脊椎中間部を含み、ストライド間隔は、映像データの一組をなす複数のフレームに対して関連付けられており、また、歩行測定値を決定することは、点データを使用して、ストライド間隔に対する変位ベクトルを決定することを含み、変位ベクトルは、一組をなす複数のフレームにおける最初のフレーム内に表された脊椎中間部と、一組をなす複数のフレームにおける最後のフレーム内に表された脊椎中間部と、を結ぶ、処理することを含む。いくつかの実施形態では、一組をなす複数の身体部分は、また、対象の鼻を含み、メトリクスデータを決定することは、点データを使用して、一組をなす複数のフレームの各フレームに関する変位ベクトルからの鼻の垂直距離に基づいて、ストライド間隔に関する鼻の一組をなす複数の横方向の変位を決定することを含む。いくつかの実施形態では、鼻の横方向の変位は、対象の体長にさらに基づくものとされる。いくつかの実施形態では、歩行測定値を決定することは、鼻の一組をなす複数の横方向の変位を使用して補間を実行することにより、ストライド間隔に対する鼻の横方向の変位の滑らかな曲線を生成することと、鼻の横方向の変位の滑らかな曲線を使用して、鼻の最大変位がストライド間隔時のどの時点で発生したかを決定することと、鼻の最大変位が発生した時に完了したストライド間隔のパーセントを表すパーセントストライド位置を決定することと、を行うことにより、尾先端の変位位相オフセットを決定することを、さらに含む。いくつかの実施形態では、この方法は、また、映像の持続時間中に、対象の一組をなす複数の身体部分の動きを追跡する点データを決定するために、映像データを処理することであって、一組をなす複数の身体部分は、対象の尾の付け根をさらに含み、歩行測定値を決定することは、点データを使用して、一組をなす複数のフレーム内の各フレームに関する変位ベクトルからの尾の付け根の垂直距離に基づいて、ストライド間隔に対する尾の付け根の一組をなす複数の横方向の変位を決定することを含む、処理することを含む。
いくつかの実施形態では、歩行測定値を決定することは、ストライド間隔に対する尾の付け根の横方向の変位の滑らかな曲線を生成するために、尾の付け根の一組をなす複数の横方向の変位を使用して補間を実行することと、尾の付け根の横方向の変位の滑らかな曲線を使用して、尾の付け根の最大変位がストライド間隔時のどの時点で発生したかを決定することと、尾の付け根の最大変位が発生した時に完了したストライド間隔のパーセントを表すパーセントストライド位置を決定することと、を行うことにより、尾の付け根の変位位相オフセットを決定することをさらに含む。いくつかの実施形態では、この方法は、また、映像の持続時間中に、対象の一組をなす複数の身体部分の動きを追跡する点データを決定するために、映像データを処理することであって、一組をなす複数の身体部分は、対象の尾先端を含み、歩行測定値を決定することは、点データを使用して、一組をなす複数のフレーム内の各フレームに関する変位ベクトルからの尾先端の垂直距離に基づいて、ストライド間隔に対する尾先端の一組をなす複数の横方向の変位を決定することを含む、処理することを含む。いくつかの実施形態では、歩行測定値を決定することは、また、尾先端の一組をなす複数の横方向の変位を使用して補間を実行することにより、ストライド間隔に対する尾先端の横方向の変位の滑らかな曲線を生成することと、尾先端の横方向の変位の滑らかな曲線を使用して、尾先端の最大変位がストライド間隔時のどの時点で発生したかを決定することと、尾先端の最大変位が発生した時に完了したストライド間隔のパーセントを表すパーセントストライド位置を決定することと、を行うことにより、尾先端の変位位相オフセットを決定することを、さらに行わせる。いくつかの実施形態では、この方法は、また、映像の持続時間中に、一組をなす複数の身体部分の動きを追跡する点データを決定するために映像データを処理することであって、一組をなす複数の身体部分は、鼻、首付け根、脊椎中間部、左後肢、右後肢、尾の付け根、尾の中間部、および尾先端のうちの1つまたは複数を含む、処理することと、点データを使用して、対象の特徴を決定することと、視覚的フレイルスコアを決定するために、少なくとも1つの機械学習モデルを使用して、特徴を処理することと、を含む。いくつかの実施形態では、この方法は、また、映像データの複数の映像フレームに対して対象がグルーミング行動を呈する尤度を識別するために、追加の機械学習モデルを使用して映像データを処理することと、対象がグルーミング行動を呈する尤度を使用して、視覚的フレイルスコアを決定することと、を含む。いくつかの実施形態では、この方法は、また、対象が映像データの複数の映像フレームに対して所定の行動を呈する尤度を識別するために、追加の機械学習モデルを使用して映像データを処理することと、所定の行動を呈する対象の尤度を使用して、視覚的フレイルスコアを決定することと、を含む。いくつかの実施形態では、この方法は、また、映像データの映像フレームの第一のセットを回転させることによって、回転された映像フレームのセットを決定することと、所定の行動アクションを呈する対象の尤度を識別するように構成された第一の機械学習モデルを使用して、映像フレームの第一のセットを処理することと、第一の機械学習モデルによる映像フレームの第一のセットを処理することに基づいて、映像フレームの第一のセットの第一の映像フレームであって、映像データの第一の持続時間に対応する、第一の映像フレーム内で所定の行動アクションを呈する対象の第一の確率を決定することと、第一の機械学習モデルを使用して回転されたフレームのセットを処理することと、第一の機械学習モデルによって回転された映像フレームのセットを処理することに基づいて、回転された映像フレームのセットの第二の映像フレームであって、映像データの第一の持続時間に対応する、第二の映像フレーム内で所定の行動アクションを呈する対象の第二の確率を決定することと、第一の確率および第二の確率を使用して、第一の映像フレームに対する第一のラベルを識別することであって、第一のラベルが、対象が所定の行動アクションを呈することを示す、識別することと、を含む。いくつかの実施形態では、この方法は、また、所定の行動アクションを呈する対象の尤度を識別するように構成された第二の機械学習モデルを使用して、映像フレームの第一のセットを処理することと、第二の機械学習モデルによって映像フレームの第一のセットを処理することに基づいて、第一の映像フレーム内で所定の行動アクションを呈する対象の第三の確率を決定することと、第二の機械学習モデルを使用して回転された映像フレームのセットを処理することと、第二の機械学習モデルにより回転された映像フレームのセットを処理することに基づいて、第二の映像フレーム内で所定の行動アクションを呈する対象の第四の確率を決定することと、第一の確率、第二の確率、第三の確率、および第四の確率を使用して第一のラベルを識別することと、を含む。いくつかの実施形態では、この方法は、また、映像フレームの第一のセットを反射することによって、反射された映像フレームのセットを決定することと、第一の機械学習モデルを使用して、反射された映像フレームのセットを処理することと、第一の機械学習モデルにより反射された映像フレームのセットを処理することに基づいて、反射されたフレームのセットの第三の映像フレームであって、第三の映像フレームが第一の映像フレームの第一の持続時間に対応する、第三の映像フレーム内で所定の行動アクションを呈する対象の第三の確率を決定することと、第一の確率、第二の確率、および第三の確率を使用して第一のラベルを識別することと、を含む。いくつかの実施形態では、対象がマウスであり、所定の行動が、足をなめること、片側の洗顔、両側の洗顔、および脇腹をなめることのうちの少なくとも1つを含むグルーミング行動を含む。いくつかの実施形態では、映像フレームの第一のセットは、ある期間の間の映像データの一部分を表し、第一の映像フレームは、その期間の最後の時間フレームである。いくつかの実施形態では、この方法は、また、映像データから映像フレームの第二のセットを識別することと、映像フレームの第二のセットを回転させることによって、第二の回転された映像フレームのセットを決定することと、第一の機械学習モデルを使用して、映像フレームの第二のセットを処理することと、第一の機械学習モデルにより第二の映像フレームセットを処理することに基づいて、第二の映像フレームセットの第三の映像フレーム内で所定の行動アクションを呈する対象の第三の確率を決定することと、第一の機械学習モデルを使用して、第二の回転された映像フレームのセットを処理することと、第一の機械学習モデルにより第二の回転された映像フレームのセットを処理することに基づいて、回転されたフレームのセットの第四の映像フレーム内で所定の行動アクションを呈する対象の第四の確率を決定することであって、第四の映像フレームが第三の映像フレームに対応する、決定することと、第三の確率および第四の確率を使用して、第四の映像フレームに対する第二のラベルであって、第二のラベルは、対象が所定の行動アクションを呈することを示す、第二のラベルを識別することと、を含む。いくつかの実施形態では、第一の機械学習モデルは、機械学習分類器である。いくつかの実施形態では、この方法は、また、映像の持続時間中に、対象の歩行測定値を決定するために映像データを処理することと、対象が所定の行動を呈する映像の一部を識別する行動データを決定するために映像データを処理することと、視覚的フレイルスコアを決定するために、少なくとも1つの機械学習モデルを使用して、脊椎可動性の特徴、歩行測定値、および行動データを処理することと、を含む。いくつかの実施形態では、映像は、平面視視界でオープンフィールドアリーナ内の対象の動きを捕捉する。いくつかの実施形態では、この方法は、また、視覚的フレイルスコアを使用して、対象の身体状態を決定することを含む。いくつかの実施形態では、身体状態はフレイルである。いくつかの実施形態では、フレイルは、疾患または病態である。いくつかの実施形態では、身体状態は、フレイル前状態である。いくつかの実施形態では、対象は哺乳類であり、任意選択的にマウスである。
【0008】
本発明の別の態様によれば、対象の身体状態を評価する方法が提供され、この方法は、前述の態様のうちのいずれか1つの実施形態のコンピュータ実装方法を用いて、対象の視覚的フレイルスコアを決定することを含む。いくつかの実施形態では、身体状態はフレイルである。いくつかの実施形態では、身体状態は、フレイル前状態である。いくつかの実施形態では、身体状態は、疾患または病態である。いくつかの実施形態では、対象は哺乳類であり、任意選択的にマウスである。
【0009】
本発明の別の態様によれば、フレイル状態に対する候補化合物の効果の存在を決定するための方法が提供され、この方法は、対象に関する第一の視覚的フレイルスコアを取得することであって、取得のための手段を、請求項A1~A39のいずれか一項によるコンピュータ実装方法を含むものとし、対象は、フレイル状態を有するものとする、あるいは、フレイル状態を示す動物モデルである、取得することと、対象に対して候補化合物を投与することと、対象に対する投与後の視覚的フレイルスコアを取得することと、第一の歩行測定値と投与後の視覚的フレイルスコア値とを比較することであって、第一の視覚的フレイルスコアと投与後の視覚的フレイルスコアとの差異は、フレイル状態に対する候補化合物の効果を識別する、比較することと、を含む。いくつかの実施形態では、フレイル度が低いことを示す視覚的フレイルスコアの改善は、候補化合物をフレイル状態の退行を促進するものとして識別する。いくつかの実施形態では、第一の視覚的フレイルスコアと統計的に等しい投与後の視覚的フレイルスコアは、対象におけるフレイル状態の進行を阻害する候補化合物を識別する。いくつかの実施形態では、この方法は、また、フレイル状態の治療における化合物の効果を追加的に試験することを含む。いくつかの実施形態では、対象は哺乳類であり、任意選択的にマウスである。
【0010】
本発明の別の態様によれば、フレイル状態に対する候補化合物の効果の存在を識別するための方法が提供され、この方法は、フレイル状態を有する対象に対して、あるいはフレイル状態に関する動物モデルをなす対象に対して、候補化合物を投与することと、対象に関する視覚的フレイルスコアを取得することであって、取得のための手段は、本発明の任意の上述した態様のコンピュータ実装方法の実施形態を含む、取得することと、取得された視覚的フレイルスコアを対照の視覚的フレイルスコアと比較することであって、取得された視覚的フレイルスコアと対照の視覚的フレイルスコアの差が、フレイル状態に対する候補化合物の効果の存在を識別する、比較することと、を含む、方法。いくつかの実施形態では、対照のフレイルスコアと比較して、候補化合物を投与された対象におけるフレイル度が低いことを示す視覚的フレイルスコアの改善は、候補化合物を、対象におけるフレイル状態の退行を促進するものとして識別する。いくつかの実施形態では、候補化合物を投与された対象で取得された視覚的フレイルスコアが、対照フレイルスコアと統計的に同等であり、候補化合物が対象におけるフレイル状態の進行を抑止することを識別する。いくつかの実施形態では、対象は哺乳類であり、任意選択的にマウスである。
【0011】
本発明の別の態様によれば、システムが提供され、このシステムは、少なくとも1つのプロセッサと、少なくとも1つのプロセッサによって実行される時には、対象の動きを取り込んだ映像を表す映像データを受信することと、映像データを使用して、映像の持続時間の間、対象の脊椎可動性の特徴を決定することと、対象の視覚的フレイルスコアを決定するために、少なくとも1つの機械学習モデルを使用して、少なくとも1つの脊椎可動性の特徴を処理することと、をシステムに行わせる命令を含む少なくとも1つのメモリを含む。いくつかの実施形態では、映像の持続時間中に、対象の脊椎可動性の特徴を決定することをシステムに行わせる命令は、複数の脊椎測定値を決定することであって、複数の脊椎測定値の各脊椎測定値が、映像データの1つの映像フレームに対応する、決定することと、複数の脊椎測定値を使用して脊椎可動性の特徴を決定することをシステムにさらに行わせる。いくつかの実施形態では、映像の持続時間中に、対象の脊椎可動性の特徴を決定することをシステムに行わせる命令は、映像データの各映像フレームについて、対象の頭と対象の尾との間の第一の距離をシステムに決定することと、対象の背中中央部と頭と尾との間の中間点との間の第二の距離を決定することと、対象の頭、尾、および背中中央部の間に形成される角度を決定することと、第一の距離、第二の距離、および角度を含む映像フレームの脊椎可動性の特徴を決定することと、をシステムに行わせる。いくつかの実施形態では、映像の持続時間中に、対象の脊椎可動性の特徴を決定することをシステムに行わせる命令は、映像データの各映像フレームについて、対象の背中中央部と対象の頭と対象の尾との間の中間点との間の距離を決定することを、システムにさらに行わせる。いくつかの実施形態では、少なくとも1つのメモリは、少なくとも1つのプロセッサによって実行されるとき、映像の持続時間中に、少なくとも対象の頭、対象の尾、および対象の背中中央部の位置を追跡する姿勢推定データを決定するために、少なくとも1つの機械学習モデルを使用して、映像データを処理することと、脊椎可動性の特徴を決定するために、姿勢推定データを使用することと、をシステムに行わせるさらなる命令を含む。いくつかの実施形態では、少なくとも1つのメモリがまた、少なくとも1つのプロセッサによって実行されるとき、映像の持続時間中に、対象の少なくとも12箇所の身体部分の一箇所を追跡する姿勢推測データを決定するために、映像データを処理することと、姿勢推定データを使用して、対象の特徴を決定することと、視覚的フレイルスコアを決定するために、少なくとも1つの機械学習モデルを使用して、特徴を処理することと、をシステムに行わせるさらなる命令を含む。いくつかの実施形態では、少なくとも1つのメモリは、少なくとも1つのプロセッサによって実行されるとき、対象についての身体特徴を決定することであって、身体特徴が、対象の長さ、対象の幅、および対象の後肢間の距離のうちの少なくとも1つに対応する、決定することと、視覚的フレイルスコアを決定するために、少なくとも1つの機械学習モデルを使用して、身体特徴を処理することと、をシステムに行わせるさらなる命令を含む。いくつかの実施形態では、少なくとも1つのメモリは、少なくとも1つのプロセッサによって実行されるとき、映像の持続時間中に後肢立ち事象が発生する回数を決定することと、後肢立ち事象ごとの後肢立ち長さを決定することと、視覚的フレイルスコアを決定するために、少なくとも1つの機械学習モデルを使用して、後肢立ち事象が発生した回数、および後肢立ち事象ごとの後肢立ち長さを処理することと、をシステムに行わせるさらなる命令を含む。いくつかの実施形態では、少なくとも1つのメモリは、少なくとも1つのプロセッサによって実行されるとき、映像の持続時間中に、対象の楕円適合データを決定するために、少なくとも追加の機械学習モデルを使用して、映像データを処理することと、楕円適合データを使用して、対象の特徴を決定することと、視覚的フレイルスコアを決定するために、少なくとも1つの機械学習モデルを使用して、特徴を処理することと、をシステムに行わせるさらなる命令を含む。いくつかの実施形態では、映像の持続時間中に、対象の脊椎可動性の特徴を決定することをシステムに行わせる命令は、対象による歩行運動を表す映像フレームの第一のセットを決定することと、映像フレームの第一のセットに対する脊椎可動性の特徴の第一のセットを決定することと、対象による非歩行運動を表す映像フレームの第二のセットを決定することと、映像フレームの第二のセットに対する脊椎可動性の特徴の第二のセットを決定することと、をシステムにさらに行わせ、脊椎可動性の特徴が、脊椎可動性の特徴の第一のセットおよび脊椎可動性の特徴の第二のセットを含む。いくつかの実施形態では、脊椎可動性の特徴の第一のセットは、対象の背中中央部と対象の頭と尾との間の中間点との間の距離に対応し、脊椎可動性の特徴の第二のセットは、対象の頭、尾、および背中中央部との間に形成される角度に対応する。いくつかの実施形態では、少なくとも1つのメモリがまた、少なくとも1つのプロセッサによって実行されるとき、映像の持続時間中に、映像データを使用して、対象の歩行測定値を決定することと、対象の視覚的フレイルスコアを決定するために、少なくとも1つの機械学習モデルを使用して、歩行特徴を処理することと、をシステムに行わせるさらなる命令を含む。いくつかの実施形態では、少なくとも1つのメモリがまた、少なくとも1つのプロセッサによって実行されるとき、映像の持続時間中に、対象の一組をなす複数の身体部分の動きを追跡する点データを決定するために映像データを処理することと、点データを使用して、映像データ内に表された、複数の立脚期と、複数の遊脚期と、を決定することと、複数の立脚期と複数の遊脚期とに基づいて、映像データ内に表された複数のストライド間隔を決定することと、点データを使用して、複数のストライド間隔の各ストライド間隔に基づいて、対象に関する歩行測定値を決定することと、をシステムに行わせるさらなる命令を含む。いくつかの実施形態では、少なくとも1つのメモリは、少なくとも1つのプロセッサによって実行されるとき、対象の左後肢または対象の右後肢のつま先離地事象に基づいて、複数の立脚期のうちの第一の立脚期からの、および複数の遊脚期の第一の遊脚期からの第一の移行を決定することと、左後肢または右後肢の足接地事象に基づいて、複数の遊脚期の第二の遊脚期から、複数の立脚期の第二の立脚期への第二の移行を決定することと、第一の移行および第二の移行を使用して、歩行測定値を決定することと、をシステムに行わせるさらなる命令を含む。いくつかの実施形態では、少なくとも1つのメモリが、少なくとも1つのプロセッサによって実行されるとき、映像の持続時間中に、対象の一組をなす複数の身体部分の動きを追跡する点データを決定するために映像データを処理することであって、一組をなす複数の身体部分は、左後肢および右後肢を含み、また、歩行測定値を決定することが、点データを使用して、ストライド間隔に関するステップ長を決定することであって、ステップ長は、右後肢が前の左後肢の接地位置を超えて移動する距離を表す、決定することを含む、処理することと、点データを使用して、各ストライド間隔に関して使用されるストライド長を決定することであって、ストライド長が、各ストライド間隔中に左後肢が移動する距離を表す、決定することと、点データを使用して、各ストライド間隔に対するステップ幅を決定することであって、ステップ幅が、左後肢と右後肢との間の距離を表す、決定することと、をシステムに行わせるさらなる命令を含む。いくつかの実施形態では、少なくとも1つのメモリが、少なくとも1つのプロセッサによって実行されるとき、映像の持続時間中に、対象の一組をなす複数の身体部分の動きを追跡する点データを決定するために映像データを処理することであって、一組をなす複数の身体部分は、尾の付け根を含み、歩行測定値を決定することをシステムに行わせる命令が、点データを使用して、ストライド間隔に関する尾の付け根の動きに基づく、対象の速度データを決定することをシステムに行わせる、処理することをシステムに行わせるさらなる命令を含む。いくつかの実施形態では、少なくとも1つのメモリが、少なくとも1つのプロセッサによって実行されるとき、映像の持続時間中に、対象の一組をなす複数の身体部分の動きを追跡する点データを決定するために映像データを処理することであって、歩行測定値を決定することをシステムに行わせる命令が、点データを使用して、複数のストライド間隔のうちのあるストライド間隔を表す一組をなす複数のフレームの間の尾の付け根の動きに基づいて、対象の一組をなす複数の速度データを決定することをシステムに行わせる、処理することと、速度データのセットを平均化することにより、ストライド間隔に対するストライド速度を決定することと、をシステムに行わせるさらなる命令を含む。いくつかの実施形態では、少なくとも1つのメモリが、少なくとも1つのプロセッサによって実行されるとき、映像の持続時間中に、対象の一組をなす複数の身体部分の動きを追跡する点データを決定するために映像データを処理することであって、一組をなす複数の身体部分は、右後肢および左後肢を含み、歩行測定値を決定することをシステムに行わせる命令が、点データを使用して、ストライド間隔の間、右後肢が地面に対して接触している時間量を表す第一の立脚持続時間を決定することをシステムに行わせる、処理することと、第一の立脚持続時間とストライド間隔の持続時間とに基づいて、第一の負荷係数を決定することと、点データを使用して、ストライド間隔時に左後肢が地面に対して接触している時間量を表す第二の立脚持続時間を決定することと、第二の立脚持続時間とストライド間隔の持続時間とに基づいて、第二の負荷係数を決定することと、第一の負荷係数と第二の負荷係数とに基づいて、ストライド間隔に対する平均負荷係数を決定することと、をシステムに行わせるさらなる命令を含む。いくつかの実施形態では、少なくとも1つのメモリが、少なくとも1つのプロセッサによって実行されるとき、映像の持続時間中に、対象の一組をなす複数の身体部分の動きを追跡する点データを決定するために映像データを処理することであって、一組をなす複数の身体部分は、尾の付け根および首付け根を含み、歩行測定値を決定することをシステムに行わせる命令が、点データを使用して、複数のストライド間隔のあるストライド間隔を表す一組のフレームの間に、尾の付け根と首付け根とを接続する一組をなす複数のベクトルを決定することをシステムにさらに行わせる、処理することと、一組をなす複数のベクトルを使用して、ストライド間隔に対する対象の角速度を決定することと、をシステムに行わせるさらなる命令を含む。いくつかの実施形態では、少なくとも1つのメモリが、少なくとも1つのプロセッサによって実行されるとき、映像の持続時間中に、対象の一組をなす複数の身体部分の動きを追跡する点データを決定するために映像データを処理することであって、一組をなす複数の身体部分は、対象の脊椎中間部を含み、ストライド間隔が、映像データの一組をなす複数のフレームに対して関連付けられており、歩行測定値を決定することをシステムに行わせる命令は、点データを使用して、ストライド間隔に対する変位ベクトルを決定することをシステムにさらに行わせ、変位ベクトルは、一組をなす複数のフレームにおける最初のフレーム内に表された脊椎中間部と、一組をなす複数のフレームにおける最後のフレーム内に表された脊椎中間部と、を結ぶものである、処理することを、システムに行わせるさらなる命令を含む。いくつかの実施形態では、一組をなす複数の身体部分は、また、対象の鼻を含み、
歩行測定値を決定することをシステムに行わせる命令は、点データを使用して、一組をなす複数のフレームの各フレームに関する変位ベクトルからの鼻の垂直距離に基づいて、ストライド間隔ごとに鼻の一組をなす複数の横方向の変位を決定することを、さらに行わせるメトリクスデータを決定することをシステムにさらに行わせる。いくつかの実施形態では、鼻の横方向の変位は、対象の体長にさらに基づくものとされる。いくつかの実施形態では、歩行測定値を決定することをシステムに行わせる命令は、鼻の一組をなす複数の横方向の変位を使用して補間を実行することにより、ストライド間隔に対する鼻の横方向の変位の滑らかな曲線を生成することと、鼻の横方向の変位の滑らかな曲線を使用して、鼻の最大変位がストライド間隔時のどの時点で発生したかを決定することと、鼻の最大変位が発生した時に完了したストライド間隔のパーセントを表すパーセントストライド位置を決定することと、を行うことにより、尾先端の変位位相オフセットを決定することを、システムにさらに行わせる。いくつかの実施形態では、少なくとも1つのメモリが、少なくとも1つのプロセッサによって実行されるとき、映像の持続時間中に、対象の一組をなす複数の身体部分の動きを追跡する点データを決定するために映像データを処理することであって、対象の一組をなす複数の身体部分は、対象の尾の付け根をさらに含み、歩行測定値を決定することをシステムに行わせる命令が、点データを使用して、一組をなす複数のフレーム内の各フレームに関する変位ベクトルからの尾の付け根の垂直距離に基づいて、ストライド間隔に対する尾の付け根の一組をなす複数の横方向の変位を決定することシステムにさらに行わせる、処理することをシステムに行わせるさらなる命令を含む。いくつかの実施形態では、歩行測定値を決定することをシステムに行わせる命令は、尾の付け根の一組をなす複数の横方向の変位を使用して補間を実行することにより、ストライド間隔に対する尾の付け根の横方向の変位の滑らかな曲線を生成することと、尾の付け根の横方向の変位の滑らかな曲線を使用して、尾の付け根の最大変位がストライド間隔時のどの時点で発生したかを決定することと、尾の付け根の最大変位が発生した時に完了したストライド間隔のパーセントを表すパーセントストライド位置を決定することと、を行うことにより、尾の付け根の変位位相オフセットを決定することをシステムにさらに行わせる。いくつかの実施形態では、少なくとも1つのメモリが、少なくとも1つのプロセッサによって実行されるとき、映像の持続時間中に、対象の一組をなす複数の身体部分の動きを追跡する点データを決定するために映像データを処理することであって、対象の一組をなす複数の身体部分は、対象の尾先端を含み、歩行測定値を決定することをシステムに行わせる命令が、点データを使用して、一組をなす複数のフレーム内の各フレームに関する変位ベクトルからの尾先端の垂直距離に基づいて、ストライド間隔に対する尾先端の一組をなす複数の横方向の変位を決定することをシステムにさらに行わせる、処理することをシステムに行わせるさらなる命令を含む。いくつかの実施形態では、歩行測定値を決定することをシステムに行わせる命令は、システムに、尾先端の一組をなす複数の横方向の変位を使用して補間を実行することにより、ストライド間隔に対する尾先端の横方向の変位の滑らかな曲線を生成することと、尾先端の横方向の変位の滑らかな曲線を使用して、尾先端の最大変位がストライド間隔時のどの時点で発生したかを決定することと、尾先端の最大変位が発生した時に完了したストライド間隔のパーセントを表すパーセントストライド位置を決定することと、を行うことにより、尾先端の変位位相オフセットを決定することを、システムにさらに行わせる。いくつかの実施形態では、少なくとも1つのメモリは、少なくとも1つのプロセッサによって実行されるとき、映像の持続時間中に、対象の一組をなす複数の身体部分の動きを追跡する点デ一タを決定することをシステムに行わせるために映像データを処理することであって、一組をなす複数の身体部分は、鼻、首付け根、脊椎中間部、左後肢、右後肢、尾の付け根、尾中間部、および尾先端のうちの1つまたは複数を含む、処理することと、点データを使用して、対象の特徴を決定することと、視覚的フレイルスコアを決定するために、少なくとも1つの機械学習モデルを使用して、特徴を処理することと、をシステムに行わせるさらなる命令を含む。いくつかの実施形態では、少なくとも1つのメモリは、少なくとも1つのプロセッサによって実行されるとき、映像データの複数の映像フレームに対して対象がグルーミング行動を呈する尤度を識別するために、追加の機械学習モデルを使用して映像データを処理することと、対象がグルーミング行動を呈する尤度を使用して、視覚的フレイルスコアを決定することと、をシステムに行わせるさらなる命令を含む。いくつかの実施形態では、少なくとも1つのメモリは、少なくとも1つのプロセッサによって実行されるとき、映像データの複数の映像フレームに対して所定の行動を呈する対象の尤度を識別するために追加の機械学習モデルを使用して映像データを処理することと、所定の行動を呈する対象の尤度を使用して、視覚的フレイルスコアを決定することと、をシステムに行わせるさらなる命令を含む。いくつかの実施形態では、少なくとも1つのメモリは、少なくとも1つのプロセッサによって実行されるとき、映像データの映像フレームの第一のセットを回転させることによって、映像フレームの回転したセットを決定することと、所定の行動アクションを呈する対象の尤度を識別するように構成された第一の機械学習モデルを使用して、映像フレームの第一のセットを処理することと、第一の機械学習モデルにより第一の映像フレームセットを処理することに基づいて、映像フレームの第一のセットの第一の映像フレームであって、映像データの第一の持続時間に対応する第一の映像フレーム内で所定の行動アクションを呈する対象の第一の確率を決定することと、第一の機械学習モデルを使用して回転されたフレームのセットを処理することと、第一の機械学習モデルにより回転された映像フレームのセットを処理することに基づいて、回転された映像フレームのセットの第二の映像フレームであって、映像データの第一の持続時間に対応する第二の映像フレーム内で所定の行動アクションを呈する対象の第二の確率を決定することと、第一の映像フレームに対する第一のラベルを識別するために、第一の確率および第二の確率を使用することであって、第一のラベルが、対象が所定の行動アクションを呈することを示す、使用することと、をシステムに行わせるさらなる命令を含む。いくつかの実施形態では、少なくとも1つのメモリは、少なくとも1つのプロセッサによって実行されるとき、所定の行動アクションを呈する対象の尤度を識別するように構成された第二の機械学習モデルを使用して、映像フレームの第一のセットを処理することと、第二の機械学習モデルにより映像フレームの第一のセットを処理することに基づいて、第一の映像フレーム内で所定の行動アクションを呈する対象の第三の確率を決定することと、第二の機械学習モデルを使用して、回転された映像フレームのセットを処理することと、第二の機械学習モデルにより回転された一組をなす複数の映像フレームを処理することに基づいて、第二の映像フレーム内で所定の行動アクションを呈する対象の第四の確率を決定することと、第一の確率、第二の確率、第三の確率、および第四の確率を使用して第一のラベルを識別することと、をシステムに行わせるさらなる命令を含む。いくつかの実施形態では、少なくとも1つのメモリは、少なくとも1つのプロセッサによって実行されるとき、映像フレームの第一のセットを反射することによって、反射された映像フレームのセットを決定することと、第一の機械学習モデルを使用して、反射された映像フレームのセットを処理することと、第一の機械学習モデルにより反射された映像フレームのセットを処理することに基づいて、反射されたフレームのセットの第三の映像フレームであって、第一の映像フレームの第一の持続時間に対応する第三の映像フレーム内で所定の行動アクションを呈する対象の第三の確率を決定することと、第一の確率、第二の確率、および第三の確率を使用して第一のラベルを識別することと、をシステムに行わせるさらなる命令を含む。いくつかの実施形態では、対象がマウスであり、所定の行動が、足をなめること、片側の洗顔、両側の洗顔、および脇腹をなめることのうちの少なくとも1つを含むグルーミング行動を含む。いくつかの実施形態では、映像フレームの第一のセットは、ある期間の間の映像データの一部分を表し、第一の映像フレームは、その期間の最後の時間フレームである。いくつかの実施形態では、少なくとも1つのメモリは、少なくとも1つのプロセッサによって実行されるとき、映像データから映像フレームの第二のセットを識別することと、映像フレームの第二のセットを回転させることによって、第二の回転された映像フレームのセットを決定することと、第一の機械学習モデルを使用して、映像フレームの第二のセットを処理することと、第一の機械学習モデルにより第二の映像フレームセットを処理することに基づいて、第二の映像フレームセットの第三の映像フレーム内で所定の行動アクションを呈する対象の第三の確率を決定することと、第一の機械学習モデルを使用して、第二の回転した映像フレームのセットを処理することと、第一の機械学習モデルにより第二の回転された映像フレームのセットを処理することに基づいて、回転されたフレームのセットの第四の映像フレーム内で所定の行動アクションを呈する対象の第四の確率を決定することであって、第四の映像フレームが第三の映像フレームに対応する、決定することと、第四の映像フレームの第二のラベルを識別するために、第三の確率および第四の確率を使用することであて、第二のラベルは、対象が所定の行動アクションを呈することを示す、使用することと、をシステムに行わせるさらなる命令を含む。いくつかの実施形態では、第一の機械学習モデルは、機械学習分類器である。いくつかの実施形態では、少なくとも1つのメモリは、少なくとも1つのプロセッサによって実行されるとき、映像の持続時間中に、対象に関する歩行測定値を決定するために映像データを処理することと、対象が所定の行動を呈する映像の一部を識別する行動データを決定するために映像データを処理することと、視覚的フレイルスコアを決定するために、少なくとも1つの機械学習モデルを使用して、脊椎可動性の特徴、歩行測定値、および行動データを処理することと、をシステムに行わせるさらなる命令を含む。いくつかの実施形態では、映像は、平面視視界でオープンフィールドアリーナ内の対象の動きを捕捉する。いくつかの実施形態では、少なくとも1つのメモリは、少なくとも1つのプロセッサによって実行されるとき、視覚的フレイルスコアを使用して、対象の身体状態を決定することをシステムに行わせるさらなる命令を含む。いくつかの実施形態では、身体状態はフレイルである。いくつかの実施形態では、身体状態は、フレイル前状態である。いくつかの実施形態では、対象は哺乳類であり、任意選択的にマウスである。
【図面の簡単な説明】
【0012】
本開示のより完全な理解のために、ここで添付図面と併せて以下の説明を参照する。
【
図1】本開示の実施形態による、対象の行動を決定するためのシステムの概念図である。
【
図2】本開示の実施形態による、映像データから導出された点データを使用して、対象についての様々なデータを決定するためのプロセスを示すフローチャートである。
【
図3】本開示の実施形態による、映像データから導出された楕円データを使用して、対象の形態学的データを決定するためのプロセスを示すフローチャートである。
【
図4】本開示の実施形態による、映像データを使用して対象の行動データを決定するためのプロセスを示すフローチャートである。
【
図5】本開示の実施形態による、
図2~
図4のプロセスに従って決定される1つまたは複数のデータを使用して視覚的なフレイルスコアを決定するためのプロセスを示すフローチャートである。
【
図6】本開示の実施形態によるデバイスの例示的な構成要素を概念的に図示したブロック図である。
【
図7】本開示の実施形態によるサーバの例示的な構成要素を概念的に図示したブロック図である。
【
図8A】自動視覚的フレイル指数(vFI)パイプラインおよびマウスの手動のフレイル指数からのスコアを表すグラフを示す概略図である。
図8Aの略図は、自動視覚的フレイル指数(vFI)を作成するためのパイプラインを示す。各マウスのオープンフィールドのトップダウン映像を、追跡およびセグメンテーションネットワークおよび姿勢推定ネットワークによって処理した。結果として得られたフレーム毎の楕円適合および12個の点姿勢座標をさらに処理して、マウスについての映像ごとのメトリクスを作成した。各マウスはまた、手動でフレイルを指数付けし、FIスコアを生成した。各マウスの映像の特徴を使用して、そのFIスコアをモデル化した。
【
図8B】自動視覚的フレイル指数(vFI)パイプラインおよびマウスの手動のフレイル指数からのスコアを表すグラフを示す概略図である。
図8Bは、年齢別のFIスコアの散布図を示す。黒色の線は、データへの部分的線形適合をピースごとに示す。エラーバーは標準偏差を示す。オス、より明るいドット、メス、より暗いドット。
【
図8C】自動視覚的フレイル指数(vFI)パイプラインおよびマウスの手動のフレイル指数からのスコアを表すグラフを示す概略図である。
図8Cは、各スコア記録者(スコア記録者1、最も暗いドット、スコア記録者2、より明るいドット、スコア記録者3、より淡いドット、スコア記録者4、最も淡いドット)からの年齢別のFIスコアの散布図を示す。
【
図9A】映像メトリクス間の相関を示すグラフを示す。対角線の周りの点の密接なラップは、平均と中央値またはIQRとの間の高い相関、およびそれぞれの指数に対する標準偏差を示す。
図9Aのグラフは、映像歩行メトリクスの平均/中間(x軸)と中央値(y軸)との間の相関を示す。対角線は、最大相関(すなわち、1)に対応する。
【
図9B】映像メトリクス間の相関を示すグラフを示す。対角線の周りの点の密接なラップは、平均と中央値またはIQRとの間の高い相関、およびそれぞれの指数に対する標準偏差を示す。
図9Bのグラフは、四分位範囲(IQR、x軸)と標準偏差(Stdev、y軸)映像歩行メトリクスとの間の相関関係を示す。対角線は、最大相関(すなわち、1)に対応する。
【
図10A】視覚的フレイル指数のスコアリングのために取られた形態学的測定および行動測定の態様を表す、映像画像、概略図、およびグラフを示す。
図10A~
図10Iは、vFIで使用されるサンプル特徴を示している。
図10Aは、トップダウンのオープンフィールド映像の単一のフレームを示す。
【
図10B】視覚的フレイル指数のスコアリングのために取られた形態学的測定および行動測定の態様を表す、映像画像、概略図、およびグラフを示す。
図10A~
図10Iは、vFIで使用されるサンプル特徴を示している。
図10Bは、フレームごとにマウスフレーム上で実施される楕円適合および後肢距離測定値からの形態学的特徴を提供する。楕円適合の長軸および短軸を、それぞれ長さおよび幅として考える。
【
図10C】視覚的フレイル指数のスコアリングのために取られた形態学的測定および行動測定の態様を表す、映像画像、概略図、およびグラフを示す。
図10A~
図10Iは、vFIで使用されるサンプル特徴を示している。
図10Cは、すべてのマウスフレームにわたって取られた楕円適合幅の中央値および後肢距離の中央値が、FIスコアと高度に相関することを示す。
【
図10D】視覚的フレイル指数のスコアリングのために取られた形態学的測定および行動測定の態様を表す、映像画像、概略図、およびグラフを示す。
図10A~
図10Iは、vFIで使用されるサンプル特徴を示している。
図10Dは、メトリクスを作成するために使用される歩行の空間的、時間的、および全身の協応特性を示す[シェパードK.等、セルレポート38, 110231 (2022年1月)]。
【
図10E】視覚的フレイル指数のスコアリングのために取られた形態学的測定および行動測定の態様を表す、映像画像、概略図、およびグラフを示す。
図10A~
図10Iは、vFIで使用されるサンプル特徴を示している。
図10Eは、マウスのすべてのストライドにわたって取られた先端~尾の横方向の変位の四分位範囲のステップ幅中央値を示し、FIスコアと高度に相関している。
【
図10F】視覚的フレイル指数のスコアリングのために取られた形態学的測定および行動測定の態様を表す、映像画像、概略図、およびグラフを示す。
図10A~
図10Iは、vFIで使用されるサンプル特徴を示している。
図10Fは、各フレームで取得された脊椎可動性測定値を示す。dACは、体長に対して正規化された点AとCとの間の距離(それぞれ、頭の付け根および尾の付け根)であり、dBは、線ACの中間点からの点Bの距離(背中中央部)であり、aABCは、点A、B、およびCによって形成される角度である。マウス脊椎が直線である場合、dACおよびaABCは、その最大値である一方で、dBその最小値である。マウスの脊椎が曲がっていると、dBは最大値になり、dACおよびaABCは最小値になる。
【
図10G】視覚的フレイル指数のスコアリングのために取られた形態学的測定および行動測定の態様を表す、映像画像、概略図、およびグラフを示す。
図10A~
図10Iは、vFIで使用されるサンプル特徴を示している。
図10Gは、すべてのマウスフレームにわたって取られたdBの中央値を示し、マウスが歩行していないフレームにわたって取られたdBの中央値は、FIスコアとの相関を示す。
【
図10H】視覚的フレイル指数のスコアリングのために取られた形態学的測定および行動測定の態様を表す、映像画像、概略図、およびグラフを示す。
図10A~
図10Iは、vFIで使用されるサンプル特徴を示している。
図10Hは、壁後肢立ち事象を呈する。オープンフィールドの壁の輪郭が取り込まれ、5ピクセルのバッファが追加され(エッジ線)、閾値がマークされる。マウスの鼻点は、各フレームで追跡される。壁後肢立ち事象は、壁閾値を完全に超える鼻のポイントによって定義される。
【
図10I】視覚的フレイル指数のスコアリングのために取られた形態学的測定および行動測定の態様を表す、映像画像、概略図、およびグラフを示す。
図10A~
図10Iは、vFIで使用されるサンプル特徴を示している。
図10Iは、後肢立ち事象の総数を示し、オープンフィールド映像の最初の5分間の後方の数は、FIスコアとある程度の相関を示す。
【
図11A】年齢および性別によるFIスコアの特定の分析を示すグラフ、ならびにオスおよびメスのFIメトリクスの比較を表すグラフを示す。
図11Aは、データが等しい範囲の4つの年齢群に分けられたときの、オスおよびメスについてのFIスコアの分布を提供する。x点は、各年齢群範囲の中間点を表す。マン・ホイットニーU試験によって決定されたその年齢群についてのオスおよびメスのスコアの分布の有意な差。
【
図11B】年齢および性別によるFIスコアの特定の分析を示すグラフ、ならびにオスおよびメスのFIメトリクスの比較を表すグラフを示す。
図11Bは、メスと比較した、オスのFI項目の年齢とのピアソン相関を示す。
【
図11CD】年齢および性別によるFIスコアの特定の分析を示すグラフ、ならびにオスおよびメスのFIメトリクスの比較を表すグラフを示す。
図11Cは、メスと比較した、映像メトリクスとオスのFIスコアとのピアソン相関を示す。
図11Dは、メスと比較した、オスの映像メトリクスの年齢とのピアソン相関を示す。oオープンフィールド、歩行、および遺伝子操作のキーは、
図11Cおよび
図11Dに適用される。
【
図12A】映像の特徴からの年齢およびフレイルの予測の実施形態を提供する。
図12Aは、適合した異なるモデルを示すグラフィックな図を提供する。
【
図12B】映像の特徴からの年齢およびフレイルの予測の実施形態を提供する。
図12Bは、年齢を予測するには、臨床的なフレイル指数項目よりも映像の特徴が正確であることを示している。ランダムフォレストモデルのパフォーマンスを、年齢を予測する際のフレイルパラメータ(FRIGHT)および映像生成特徴(vFRIGHT)を使用して比較した。
【
図12C】映像の特徴からの年齢およびフレイルの予測の実施形態を提供する。
図12Aは、適合した異なるモデルを示すグラフィックな図を提供する。
図12Cは、精度(訓練データで訓練されたモデルを使用して、試験におけるフレイルパラメータの値を正確に予測する)の観点からの順序回帰モデル(分類器)のパフォーマンスを示す。プロット上に重ねられた黒い点線は、映像の特徴を使用する代わりに、ある値が推測されたかどうかで得られる精度を示す。映像の特徴は、フレイルパラメータ値を正確に予測するモデルの能力を改善する有用な情報を符号化することが判明した。
【
図12D】映像の特徴からの年齢およびフレイルの予測の実施形態を提供する。
図12Dは、平均絶対誤差(MAE)の観点から映像の特徴からFIスコアを予測する4つのモデル(LR*、SVM、RF、XGB)間の比較を示し、R2は、RFが他のモデルよりも優れていることを示す。
【
図12E】映像の特徴からの年齢およびフレイルの予測の実施形態を提供する。
図12Aは、適合した異なるモデルを示すグラフィックな図を提供する。
図12Eは、年齢(週)の関数としてプロットされた、年齢(1列)およびFIスコア(3列)を予測する際の不確実性を示す。黒色の曲線は、レスフィットを示す。これらのプロットは、非常に若いマウスの年齢およびFIスコアを予測する際には、不確実性が低いことを示している。予測間隔(PI)幅の分布をプロットし、年齢を予測するためのPI幅は、中年齢群(M)に属するマウスに対してより広い(予測の不確実性の増加)ことがわかった。同様に、FIスコアを予測するためのPI幅は、データの年齢と共に増加している。
【
図12F】映像の特徴からの年齢およびフレイルの予測の実施形態を提供する。
図12Aは、適合した異なるモデルを示すグラフィックな図を提供する。映像特徴
図12Fは、RFモデルについての訓練(列1および2)および試験セット(列3および4)について、残差対指数および予測FIスコア対真を示す。
【
図12G】映像の特徴からの年齢およびフレイルの予測の実施形態を提供する。
図12Aは、適合した異なるモデルを示すグラフィックな図を提供する。
図12Gは、RFモデルについての訓練(列1および2)および試験セット(列3および4)について、残差対指数および予測年齢対真を示す。
【
図13A】一般化されたランダムフォレストを使用したvFIの分位回帰モデリングを提供する。
図13Aは、3つの分位ランダムフォレストモデルに対する可変的な重要度の指標を示す(下尾-Q.025、中央値-Q.50、上尾-Q.975)。下尾および上尾のマウスは、それぞれフレイルスコアが低いおよび高いマウスに対応する。
【
図13B】一般化されたランダムフォレストを使用したvFIの分位回帰モデリングを提供する。
図13Bは、特徴がモデル予測に平均でどの程度影響するかを表す辺縁ALEプロットを提供する。例えば、平均予測FIスコアは、ステップ幅の増加と共に増加するが、下尾および上尾に属するマウスでは、3を超える値に当てはまる。
【
図13C】一般化されたランダムフォレストを使用したvFIの分位回帰モデリングを提供する。
図13Cは、特徴が互いにどの程度強く相互作用するかを表すプロットを提供する。
【
図13D】一般化されたランダムフォレストを使用したvFIの分位回帰モデリングを提供する。
図13D~
図13Eは、予測FIスコアのステップ幅およびステップ長さ1のALE二次相互作用プロットを示す。(
図13E:幅および長さ)。特徴からの辺縁効果がすでに考慮されている時、明るい色は平均より高く、暗い色は平均より低い予測を表している。
図13Dのプロット(またはE)は、ステップ幅とステップ長1(または幅と長さ)の間に、それぞれ弱い(または強い)相互作用を示している。ステップ幅およびステップ長さ1が大きいと、vFIスコアが増加する。
【
図13E】一般化されたランダムフォレストを使用したvFIの分位回帰モデリングを提供する。
図13D~
図13Eは、予測FIスコアのステップ幅およびステップ長さ1のALE二次相互作用プロットを示す。(
図13E:幅および長さ)。特徴からの辺縁効果がすでに考慮されている時、明るい色は平均より高く、暗い色は平均より低い予測を表している。
図13Dのプロット(またはE)は、ステップ幅とステップ長1(または幅と長さ)の間に、それぞれ弱い(または強い)相互作用を示している。ステップ幅およびステップ長さ1が大きいと、vFIスコアが増加する。
【
図14-1】FIスコアとの特徴相関を表すリストを提供する。
【
図14-2】FIスコアとの特徴相関を表すリストを提供する。
【
図15-1】vFI特徴と年齢との相関関係(ピアソン)を表すリストを提供する。
【
図15-2】vFI特徴と年齢との相関関係(ピアソン)を表すリストを提供する。
【
図16】手動FI項目と年齢との相関を表すリストを提供する。
【
図17-1】手動のフレイル指数付けのためのすべての項目を一覧にしたFI試験シートを提供する。軽いフォントで示すテキストはホワイトヘッドJ. C.等、ジャーナル・オブ・ジェロントロジー、シリーズA: バイオメディカル・サイエンス・アンド・メディカル・サイエンス、69, 621-632 (2014)からの変更である。
【
図17-2】手動のフレイル指数付けのためのすべての項目を一覧にしたFI試験シートを提供する。軽いフォントで示すテキストはホワイトヘッドJ. C.等、ジャーナル・オブ・ジェロントロジー、シリーズA: バイオメディカル・サイエンス・アンド・メディカル・サイエンス、69, 621-632 (2014)からの変更である。
【
図17-3】手動のフレイル指数付けのためのすべての項目を一覧にしたFI試験シートを提供する。軽いフォントで示すテキストはホワイトヘッドJ. C.等、ジャーナル・オブ・ジェロントロジー、シリーズA: バイオメディカル・サイエンス・アンド・メディカル・サイエンス、69, 621-632 (2014)からの変更である。
【
図18A】臨床FI項目におけるスコア記録者効果の推定を表すグラフを示す。
図18Aは、試験機の効果がFI項目によって異なることを示している。
【
図18B】臨床FI項目におけるスコア記録者効果の推定を表すグラフを示す。
図18Bは、データセット内の4人のスコア記録者の間で推定されたランダム効果を示す。
【
図19A】詳細なモデリング分析のグラフおよびプロットを提供する。
図19Aは、643のデータポイントにわたる年齢の分布を示す(533匹のマウス)。643のデータポイントにわたる手動FIadjスコアの分布(533匹のマウス)。
【
図19B】詳細なモデリング分析のグラフおよびプロットを提供する。
図19Bは、年齢を予測する際のフレイルパラメータの寄与の決定に関連する結果を示す。すべてのフレイルパラメータの特徴の重要度を計算し、歩行障害、脊柱後弯症、および毛の逆立ちが最も高く寄与すると判定された。
【
図19C】詳細なモデリング分析のグラフおよびプロットを提供する。
図19Cは、反復指標ANOVAを使用して比較した場合、最小二乗平均平方根誤差(RMSE)(p<2.2e-16、F3,147=59.53)および最高R2(p<2.2e-16、F3,147=58.14)を有する他のモデルよりも良好に実施されたランダムフォレスト回帰モデルを示す結果を示す。
【
図19D】詳細なモデリング分析のグラフおよびプロットを提供する。
図19Dは、反復指標ANOVAを使用した場合と比較して、より低いRMSE(RMSEvFRIGHT=17.97±1.44、RMSEFRIGHT=20.62±4.78、p<6.1e-7、F1,49=32.84)およびより高いR2(RMSEvFRIGHT=0.78±0.04、RMSEFRIGHT=0.76±0.07、p<2.1e-8、F1,49=44.54)で、FRIGHTモデルよりも良好に実行されたvFRIGHTモデルを示す。
【
図19E】詳細なモデリング分析のグラフおよびプロットを提供する。
図19Eは、最も低い二乗平均平方根誤差(RMSE)(p<8.3e-14、F3,147=26.62)および最も高いR2 (p<4.7e-14、F3,147=27.2)で、全ての他のモデルよりも良好に実施された、見えない将来のデータについてFIスコアを予測するためのランダムフォレスト回帰モデルを示す。
【
図19F】詳細なモデリング分析のグラフおよびプロットを提供する。
図19Fのプロットは、鼻からの分泌物、直腸脱、膣子宮、および下痢などの多くのパラメータに関する個々のフレイルパラメータについての計数分布(3つの値の各セットにおいて、3つのうち0~1番目、3つのうち0.5~2番目、3つのうち1~3番目)を示し、0カウントの割合は1である(p0=1)。同様に、皮膚炎、白内障、目の分泌物と腫れ、小眼球症、角膜混濁、尾の硬直、および不正咬合は、p0>0.95である。
【
図19G】詳細なモデリング分析のグラフおよびプロットを提供する。
図19Gは、訓練データおよび試験データの両方について、フレイル指数項目を使用して年齢を予測するモデルについて、訓練(行1および2)および試験セット(行3および4)の残差対指数、予測残り対真を示す。
【
図19H】詳細なモデリング分析のグラフおよびプロットを提供する。
図19Hおよび
図19Iは、点推定値/予測(灰色の点)の不確実性を定量化する、アウト・オブ・バッグ(OOB)誤差ベースの95%予測間隔(PI)(灰色の線)の結果を示す。試験マウス当たり1つの間隔があり、PI間隔の約95%が正しい年齢(
図19I)およびFIスコア(
図19H)を含む。x軸(試験セット指数)は、実際の年齢/FIの昇順(左から右へ)で順序付けられた。
【
図19I】詳細なモデリング分析のグラフおよびプロットを提供する。
図19Hおよび
図19Iは、点推定値/予測(灰色の点)の不確実性を定量化する、アウト・オブ・バッグ(OOB)誤差ベースの95%予測間隔(PI)(灰色の線)の結果を示す。試験マウス当たり1つの間隔があり、PI間隔の約95%が正しい年齢(
図19I)およびFIスコア(
図19H)を含む。x軸(試験セット指数)は、実際の年齢/FIの昇順(左から右へ)で順序付けられた。
【
図20】シンプソンのパラドックスの試験結果を示す。シンプソン[35]は、集団で観察された統計的関係が、その集団を構成するサブグループの全てで逆転し、集団データから誤った結論を導き出し得ることを示した。データ中のシンプソンのパラドックスの発現を試験するため、二峰性年齢分布を、2つの別個の単峰分布(クラスター)、すなわち、70週齢未満(L70)対70週齢超(U70)に分けた。次に、従属変数(フレイル)を、データ内の独立した変数/特徴の各々に対してプロットし、単純な線形回帰モデルを、集計データ(データは示さず)だけでなく、各サブグループに別々に適合させた。相関は、年齢(X)での特徴(Y)の線形適合の傾きを測定することによって定量化した。L70、U70、および全体(全て)の傾きを計算し、その傾きを、モデルに対するそれらの関連性に関する特徴について降順でプロットした(これらの特徴から年齢が予測された)。3本のバーの各セットについて、左のバーはL70であり、中央のバーはU70であり、右のバーはAllである。シンプソンのパラドックスは、データ内の上位15の特徴のいずれにおいても現れないと決定された。
【
図21A】モデルのパフォーマンスおよびパラメータを試験するためのさらなる実験からのグラフを提供する。
図20Aは、フレイルを予測する際に、異なる特徴セット、1)年齢のみ、2)映像、および3)年齢+映像のパフォーマンスの比較の結果を示す。年齢のみは、線形(AgeL)および一般化加法非線形モデル(AgeG)の特徴として使用された。映像の特徴量を用いたランダムフォレストモデル(VideoRF)は、年齢のみに基づくvFI予測に対して明確な改善は見られなかったが、モデル(AllRF)では、予測パフォーマンスの明確な改善が見られた。モデル(AllRF)は、最低MSE (p<2.2e-16、F3,147=213.79、AgeGとのLMMポストホック一対比較、t147=-12.21、FDR調整p<0.0001)、最低RMSE (p<2.2e-16、F3,147=172.88、AgeGとのLMMポストホックペアワイズ比較、t147=-14.12、FDR調整p<0.0001)、そして最高R2 (p<2.2e-16、F3,147=171.12、AgeGとのLMMポストホック一対比較、t147=14.07、FDR調整p<0.0001)の映像の特徴量+年齢を含む。これは、映像の特徴が、年齢だけでは、当てはまらないフレイルに係る重要な情報を追加していることを示す。
【
図21B】モデルのパフォーマンスおよびパラメータを試験するためのさらなる実験からのグラフを提供する。
図21Bは、年齢およびFIスコアが逆の関係を有する選択された動物、すなわち、より高いFIスコアを有する若年動物およびより低いFIスコアを有する高齢動物を用いた実施形態の結果を示す。これらの基準を有する動物を含む五つ(5)の試験セットを形成し、残りのマウスについてランダムフォレスト(RF)モデルを訓練した。映像の特徴のみを使用したモデル(VideoRF)は、最低MSE (p<1.6e-08、F3,12=91.07、AgeGとのLMMポストホック一対比較、t12=13.60、FDR調整p<0.0001)、最低RMSE(p<1.6e-08、F3,12=93.88、AgeGとのLMMポストホック一対比較、t12=14.15、FDR調整p<0.0001)、そして最高R2 (p<1.31e-08、F3,12=94.32、AgeGとのLMMポストホック一対比較、t12=14.10、FDR調整p<0.0001)のこれらのマウスに対して、他のすべてのモデルよりも優れている。
【
図21C】モデルのパフォーマンスおよびパラメータを試験するためのさらなる実験からのグラフを提供する。
図21Cは、特徴の重要度の観点からの年齢予測因子とvFI予測因子との間の差のさらなる調査の結果を示す。対角線に沿って横たわる特徴は、年齢およびvFI予測の両方にとって重要である。
【
図21D】モデルのパフォーマンスおよびパラメータを試験するためのさらなる実験からのグラフを提供する。
図21Dは、持続時間がより短い映像から抽出された映像の特徴からFIスコアを予測する結果を示す。持続時間がより短い(最初の5分および20分)の映像から生成された映像の特徴を使用して、年齢およびFIスコアの予測における精度の喪失を調査した。60分間の動画から生成された特徴で訓練されたランダムフォレストモデルを、比較のためのベースラインモデルとして使用した。より短い映像を使用した場合、精度の低下が減少した。
【
図21E】モデルのパフォーマンスおよびパラメータを試験するためのさらなる実験からのグラフを提供する。
図21Eは、実際にどの程度の訓練データが必要かを確認するための研究結果を示す。シミュレーション試験を実施し、異なる割合の総データを訓練に割り当てた。予想通り、MAE、RMSE(R2、訓練セットに割り当てられたデータの割合の増加)には、概して下向き(上向き)の傾向がある。実際に、訓練セットが小さいほど(<80%の訓練)は、類似の訓練パフォーマンスを達成することができる。
【発明を実施するための形態】
【0013】
腎臓系の老化は均一であるが、生物学的老化は不均一である。臨床的には、この不均一性は、健康状態および死亡率において現れ、健康な老化を不健康な老化と区別する。臨床的フレイル指数は、健康状態を捉えるために、老年の重要なツールとしての役割を果たす。フレイル指数は、マウスでの使用に適合されており、死亡リスクの効果的な予測因子である。生物学的老化の理解を促進するには、前臨床試験に対するハイスループットアプローチが必要である。しかしながら、現在、マウスのフレイル指数付けは手動であり、訓練された/専門家の手動のスコア記録者に依存するので、フレイル指数の生成におけるスケーラビリティおよび信頼性に限りがある。
【0014】
本開示は、対象の映像データを処理し、対象に対して視覚的フレイルスコアを生成する、自動化された視覚的フレイルシステムに関する。本開示の自動視覚的フレイルシステム(例えば、
図1に示すシステム100)は、対象の視覚的フレイルスコアを決定するために、1つまたは複数の機械学習ベースの技術を使用してもよく、オープンフィールドアッセイからの映像データ上で動作してもよい。自動視覚的フレイルシステムは、映像データから抽出された生物学的老化の特徴に基づいて、対象の視覚的フレイルスコアを決定してもよい。いくつかの実施形態では、自動視覚的フレイルシステムは、視覚的フレイルスコアを決定するために使用し得る映像データから、形態学的特徴、歩行および姿勢の特徴、行動の特徴、およびその他の特徴を抽出してもよい。自動視覚的フレイルシステムは、対象のフレイル指数の生成における精度、再現性、スケーラビリティ、および効率を向上させる可能性がある。
【0015】
本開示のシステム100は、
図1に示す様々な構成要素を使用して動作させることができる。システム100は、1つもしくは複数のネットワーク199を介して接続された、画像捕捉デバイス101と、デバイス102と、1つまたは複数のシステム105と、を含んでもよい。画像捕捉デバイス101は、別のデバイス(例えば、デバイス600)の一部であってもよく、またはそのようなデバイス内に含まれてもよく、またはそのようなデバイスに対して接続されてもよく、さらに、カメラ、もしくは高速映像カメラ、もしくは画像や映像を捕捉し得る他のタイプのデバイスであってもよい。デバイス101は、画像捕捉デバイスに加えてまたは画像捕捉デバイスに代えて、動き検出センサ、赤外線センサ、温度センサ、周囲条件検出センサ、および様々な特性/環境条件を検出するように構成された他のセンサ、を含んでもよい。デバイス102は、ラップトップ、デスクトップ、タブレット、スマートフォン、またはデータを表示できる他のタイプのコンピューティングデバイスでもよく、また下記のデバイス600に関連して説明される1つまたは複数の構成要素を含んでもよい。
【0016】
画像捕捉デバイス101は、対象の映像(または1つまたは複数の画像)を取り込んでもよく、本明細書に記載されるように処理するために、映像を表す映像データ104をシステム(複数可)105に送信してもよい。映像は、オープンフィールドアリーナにおける対象の動きを含んでもよい。一部の事例では、映像データ104は、特定の時間間隔でデバイス101によって捕捉された画像(画像データ)に対応してもよく、その結果、画像はある期間にわたる対象の動きを捕捉する。システム(複数可)105は、
図1に示す1つまたは複数の構成要素を含んでもよく、対象の視覚的フレイルスコアを決定するために、映像データ104を処理するように構成されてもよい。システム(複数可)105は、対象に対応する視覚的フレイルスコア162を生成してもよい。システム(複数可)105は、映像データ104の処理結果を観察するため、ユーザに対する出力用に視覚的フレイルスコア162をデバイス102に送信してもよい。
【0017】
いくつかの実施形態では、映像データ104は、2つ以上対象の映像を含んでもよく、システム(複数可)105は、映像データ104に表される各対象の特徴および視覚的フレイルスコアを決定するために、映像データ104を処理してもよい。
【0018】
システム(複数可)105は、対象についての映像データ104からの様々な特徴を決定するように構成されてもよい。これらの特徴を決定するため、および視覚的フレイルスコアを決定するために、システム(複数可)105は、複数の異なる構成要素を含んでもよい。
図1に示すように、システム(複数可)105は、点追跡構成要素110、歩行および姿勢分析構成要素120、楕円生成構成要素130、オープンフィールド分析構成要素140、グルーミング行動分析構成要素150、および視覚的フレイル分析構成要素160を含んでもよい。システム(複数可)105は、
図1に示すものより少ないか、または多い構成要素を含んでもよい。いくつかの実施形態では、これらの様々な構成要素は、同じ物理的システム105上に位置してもよい。他の実施形態では、様々な構成要素のうちの1つまたは複数は、異なる/別個の物理的システム105上に位置してもよい。様々な構成要素同士間の通信は、直接的にまたはネットワーク199を介して、行われてもよい。デバイス101と、システム(複数可)105と、デバイス102と、の間における通信は、直接的にまたはネットワーク199を介して、行われてもよい。
【0019】
いくつかの実施形態では、システム(複数可)105の一部として示される1つまたは複数の構成要素は、デバイス102、または画像捕捉デバイス102に接続されたコンピューティングデバイス(例えば、デバイス600)に位置しうる。
【0020】
高レベルでは、システム(複数可)105は、点データ(以下の実施例において姿勢推定データと呼んでもよい)を決定するために、映像データ104を処理するように構成されてもよい。点データを使用して、システム(複数可)105は、歩行測定値、脊椎測定値、後肢立ち事象、後肢測定値など、映像における対象の動きに対応する様々な特徴を決定してもよい。点データおよび点データからの様々な特徴の決定に関する詳細は、
図2に関連して下記で説明する。システム(複数可)105はまた、楕円データ(以下の実施例において楕円適合と呼んでもよい)を決定するように構成されてもよい。楕円データを使用して、システム(複数可)105は、対象に対する形態学的データを決定してもよい。楕円データおよび形態学的データの決定に関する詳細は、
図3に関連して下記で説明する。システム(複数可)105はまた、映像データ104を使用して、対象の行動特徴を決定するように構成されてもよい。行動特徴の決定に関する詳細を、
図4に関連して下記で説明する。決定された特徴/データを使用して、システム(複数可)105は、その後、対象の視覚的フレイルスコア162を決定してもよい。視覚的フレイルスコア162の決定に関する詳細は、
図5に関連して下記で説明する。
【0021】
図2は、本開示の実施形態による、映像データから導出された点データを使用して、対象の様々なデータを決定するためのプロセス200を示すフローチャートである。ステップ200のうちの1つまたは複数は、
図2に示すものとは別の順序/シーケンスで行われてもよい。プロセス200の1つまたは複数のステップは、点追跡構成要素110および/または歩行および姿勢分析構成要素120によって行われてもよい。
【0022】
ステップ202で、点追跡構成要素110は、対象の動きを表す映像データ104を受信してもよい。ステップ204で、点追跡構成要素110は、一組をなす複数の対象身体部分の動きを追跡した点データ112を決定するために、映像データ104を処理してもよい。点追跡構成要素110は、対象の様々な身体部分を識別するように構成されてもよい。これらの身体部分は、第一の点データが第一の身体部分に対応し、第二の点データが第二の身体部分に対応し得るように、さまざまな点データを使用して識別されてもよい。点データは、いくつかの実施形態では、身体部分に対応する1つまたは複数のピクセル位置/座標(x, y)であり得る。このように、点データ112は、複数の身体部分に対応する複数の点データを含んでもよい。点追跡構成要素110は、映像データ104の1つまたは複数の映像フレーム内の特定の身体部分に対応するピクセル位置を識別するように構成されてもよい。点追跡構成要素110は、映像中に対応するピクセル位置を識別することによって、映像の持続時間中に特定の身体部分の動きを追跡してもよい。点データ112は、映像の特定のフレーム中の特定の身体部分の位置を示してもよい。点データ112は、映像データ104の複数のフレームにわたって、点追跡構成要素110によって識別および追跡される全ての身体部分の位置を含んでもよい。点データ112はまた、特定の映像フレーム内の特定の身体部分の位置に関する信頼性スコアを含んでもよい。信頼性スコアは、点追跡構成要素110が、その特定の位置を決定する上でどの程度信頼性があるかを示してもよい。信頼性スコアは、特定の身体部分がその特定の位置にある確率/尤度であってもよい。
【0023】
いくつかの実施形態では、対象がマウスである場合、点追跡構成要素110は、鼻、左耳、右耳、首付け根、左前肢、右前肢、脊椎中間部、左後肢、右後肢、尾の付け根、尾中間部、および尾先端の身体部分を識別および追跡してもよい。
【0024】
点データ112は、複数の映像フレーム上の様々な身体部分のピクセル座標を表すベクトル、アレイ、または行列であり得る。例えば、点データ112は、[frame1={nose:(x1, y1); 右後肢:(x2, y2)}],[frame2={nose:(x3, y3); 右後肢:(x4, y4)}]などであってもよい。点データ112は、各フレームについて、いくつかの実施形態では、点追跡構成要素110が追跡するように構成される対象の12部分/身体部分を表す少なくとも12ピクセルの座標を含んでもよい。
【0025】
点追跡構成要素110は、1つまたは複数の姿勢推定技術を実装してもよい。点追跡構成要素110は、映像データ104を処理するように構成された1つまたは複数の機械学習モデルを含んでもよい。いくつかの実施形態では、1つまたは複数の機械学習モデルは、深層ニューラルネットワーク、深層畳み込みニューラルネットワーク、反復ニューラルネットワーク、などのニューラルネットワークであってもよい。他の実施形態では、1つまたは複数の機械学習モデルは、ニューラルネットワーク以外のタイプのモデルであってもよい。点追跡構成要素110のMLモデルは、深層ニューラルネットワークを用いた伝達学習に基づいて、3D印無し姿勢推定のために構成されてもよい。
【0026】
点追跡構成要素110は、視覚的フレイルスコア162が点データ112の誤差に敏感である場合があるため、点データ112を高精度かつ高精密で決定するように構成されてもよい。点追跡構成要素110は、機械学習モデルスタック全体を通して高解像度特徴を維持するアーキテクチャを実装してもよく、これにより、空間的精度を保ってもよい。いくつかの実施形態では、点追跡構成要素110のアーキテクチャは、ヒートマップ出力の解像度と、映像データ104の解像度と、の間における一致を引き起こすための1つまたは複数の転置畳み込みを含んでもよい。点追跡構成要素110は、ほぼリアルタイムの速度で点データ112を決定するように構成されてもよく、処理能力の高いGPUを実行してもよい。点追跡構成要素110は、修正および拡張を容易に行い得るように構成されてもよい。いくつかの実施形態では、点追跡構成要素110は、複数のスケールで処理するのではなく、固定スケールで推論を生成するように構成されてもよく、これにより、計算リソースおよび時間を節約してもよい。
【0027】
いくつかの実施形態では、映像データ104は、1つの対象の動きを追跡してもよく、点追跡構成要素110は、映像フレーム内で対象を検出するためにいかなる対象物検出技術/アルゴリズムも実行しないように構成されてもよい。他の実施形態では、映像データ104は、2つ以上の対象の動きを追跡することができ、点追跡構成要素110は、対象物検出技術を実行することにより、映像データ104内の別の対象から1つの対象を識別するように構成されてもよい。
【0028】
ステップ206において、歩行および姿勢分析構成要素120は、対象の歩行測定データ122を決定するために、点データ112を処理してもよい。歩行および姿勢分析構成要素120は、点データ112を使用して、様々な対象身体部分間の距離および/または角度を決定してもよい。
【0029】
歩行および姿勢分析構成要素120は、対象(複数可)の様々な身体部分間の距離を決定し、1つまたは複数の距離ベクトルを生成してもよい。歩行および姿勢分析構成要素120は、映像データ104の各映像フレームについて、身体部分の2つ(第一の対)の間の第一の距離、身体部分の別の2つ(第二の対)の間の第二の距離などを決定してもよく、第一の距離および第二の距離は、距離ベクトルに含まれてもよい。いくつかの実施形態では、歩行および姿勢分析構成要素120は、複数の映像フレームに対する第一の身体部分ペア間の距離を表す第一の距離特徴ベクトル、複数の映像フレームに対する第二の身体部分ペア間の距離を表す第二の距離特徴ベクトルなどを決定してもよい。第一の距離ベクトルの各値は、映像データ104の異なる対応する映像フレームに対する、第一の一対の身体部分間の距離を表してもよい。いくつかの実施形態では、距離ベクトルは、視覚的フレイルスコア162を決定するために使用される歩行測定データ122に含まれてもよい。他の実施形態では、距離ベクトルは、歩行測定データ122に含まれるデータを決定するために、歩行および姿勢分析構成要素120により使用されてもよい。
【0030】
歩行および姿勢分析構成要素120は、対象(複数可)の様々な身体部分間の角度を決定し、1つまたは複数の角度ベクトルを生成してもよい。歩行および姿勢分析構成要素120は、複数の映像フレームについて、3つ(第一のトリオ)の身体部分の間の第一の角度データ、別の3つ(第二のトリオ)の身体部分の間の第二の角度データなどを決定してもよい。歩行および姿勢分析構成要素120は、複数の映像フレームにわたる身体部分の第一のトリオ間の角度を表す第一の角度ベクトル、複数の映像フレームにわたる身体部分の第二のトリオ間の角度を表す第二の角度ベクトルなどを決定してもよい。第一の角度ベクトルの各値は、映像データ104の異なる対応する映像フレームに対する身体部分の第一のトリオ間の角度を表してもよい。いくつかの実施形態では、角度ベクトルは、視覚的フレイルスコア162を決定するために使用される歩行測定データ122に含まれてもよい。他の実施形態では、角度ベクトルは、歩行測定データ122に含まれるデータを決定するために、歩行および姿勢分析構成要素120によって使用されてもよい。
【0031】
いくつかの実施形態では、歩行および姿勢分析構成要素120は、歩行および姿勢のメトリクスを決定してもよい。本明細書で使用した際には、歩行メトリクスは、対象の足の動きから導出されたメトリクスを指してもよい。歩行メトリクスは、ステップ幅と、ステップ長と、ストライド長と、速度と、角速度と、四肢負荷係数と、を含み得るが、これらに限定されるものではない。本明細書で使用した際には、姿勢メトリクスは、対象の全身の動きから導出されたメトリクスを指してもよい。いくつかの実施形態では、姿勢メトリクスは、対象の鼻および尾の動きに基づくものであってもよい。姿勢メトリクスは、鼻の横方向の変位と、尾の付け根の横方向の変位と、尾先端の横方向の変位と、鼻の横方向の変位位相オフセットと、尾の付け根の変位位相オフセットと、尾先端の変位位相オフセットと、を含み得るが、これらに限定されるものではない。歩行および姿勢メトリクスのうちの1つまたは複数は、歩行測定データ122に含まれてもよい。いくつかの実施形態では、歩行および姿勢メトリクスの各々は、歩行測定データ122を介した集合入力ではなく、別個の入力として視覚的フレイル分析構成要素160に提供されてもよい。
【0032】
歩行および姿勢分析構成要素120は、歩行および姿勢メトリクスの1つまたは複数を、ストライドごとに決定してもよい。歩行および姿勢分析構成要素120は、映像データ104の映像フレーム内に表されたストライド間隔(複数可)を決定してもよい。いくつかの実施形態では、ストライド間隔は、立脚期と遊脚期とに基づくものであってもよい。例示的な実施形態では、ストライド間隔を検出するためのアプローチは、歩行の周期的構造に基づいている。ストライドサイクル時には、各足は、立脚期と遊脚期とを有してもよい。立脚期時には、対象の足は、対象の体重を支持するとともに、地面に対して静的に接触している。遊脚期時には、足は、前方向に移動し、対象の体重を支持していない。本明細書では、立脚期から遊脚期への移行を、つま先離地事象と称し、遊脚期から立脚期への移行を、足接地事象と称す。
【0033】
歩行および姿勢分析構成要素120は、映像データ104の持続時間で表される複数の立脚期および遊脚期を決定してもよい。例示的な実施形態では、立脚期および遊脚期は、対象の後肢に関して決定されてもよい。歩行および姿勢分析構成要素120は、前肢の速度を計算してもよく、その速度が閾値を下回った時には、足が立脚期にあると推論してもよく、その閾値を超えた時には、足が遊脚期にあると推論してもよい。歩行および姿勢分析構成要素120は、映像フレームで、遊脚期から立脚期へと移行が起きる足接地事象が起きることを決定してもよい。
【0034】
歩行および姿勢分析構成要素120はまた、その期間に表されるストライド間隔を決定してもよい。ストライド間隔は、映像データ104の複数の映像フレームに跨がってもよい。歩行および姿勢分析構成要素120は、例えば、10秒の期間が5個のストライド間隔を有していることを、および、5個のストライド間隔の1つが、映像データ104の5個の連続した映像フレーム内に表されていることを、決定してもよい。例示的な実施形態では、左後肢の接地事象は、ストライド間隔を分離/区別する事象として、定義することができる。別の例示的な実施形態では、右後肢の接地事象を、ストライド間隔を分離/区別する事象として、定義することができる。さらに別の例示的な実施形態では、左後肢の接地事象と、右後肢の接地事象と、の組合せを使用することにより、分離したストライド間隔を定義してもよい。いくつかの他の実施形態では、歩行および姿勢分析構成要素120は、前肢に関して立脚期および遊脚期を決定してもよく、また、前肢に基づいて足の速度を計算してもよく、さらに、右前肢および/または左前肢の足接地事象に基づいてストライド間隔どうしを区別してもよい。いくつかの他の実施形態では、立脚期から遊脚期への移行は、すなわち、つま先離地事象は、ストライド間隔を分離/区別するために使用されてもよい。
【0035】
いくつかの実施形態では、前肢に関する点データ112推論品質(点追跡構成要素110によって決定される)が、一部の事例では信頼度が低いため、前肢の接地事象よりもむしろ、後肢の接地事象に基づいてストライド間隔を決定することが好ましい場合がある。これは、平面図の中で前肢が後肢よりも隠れることが多いため、前肢の位置を正確に特定することが困難であることの結果であり得る。
【0036】
歩行および姿勢分析構成要素120は、どのストライド間隔を使用して歩行および姿勢メトリクスを決定するかを決定するために、決定されたストライド間隔をフィルタリングしてもよい。いくつかの実施形態では、そのようなフィルタリングは、誤ったまたは信頼度の低いストライド間隔を除去してもよい。いくつかの実施形態では、ストライド間隔を除去するための基準は、信頼度の低い点データ推定、生理学的に非現実的な点データ推定、右後肢の接地事象の欠落、および対象の不充分な全身速度(例えば、10cm/秒未満の速度)、を含むが、これらに限定されるものではない。いくつかの実施形態では、ストライド間隔のフィルタリングは、ストライド間隔を決定するために使用される点データ112を決定する際の信頼度レベルに基づくものであってもよい。例えば、閾値を下回る信頼度レベルで決定されたストライド間隔は、歩行および姿勢メトリクスを決定するために使用される一組をなす複数のストライド間隔から除去されてもよい。いくつかの実施形態では、最初のストライドと最後のストライドとは、分析されるべきデータに対して開始動作および停止動作がノイズを加えてしまうことを回避するよう、ストライドに関する連続したシーケンス内で、除去される。例えば、7個のストライドからなるシーケンスは、最大でも5個のストライドが分析のために使用されることとなる。
【0037】
映像データ104に表されるストライド間隔を決定した後、歩行および姿勢分析構成要素120は、歩行測定データ122に含まれる歩行および姿勢メトリクスを決定してもよい。歩行および姿勢分析構成要素120は、点データ112を使用して、ストライド間隔の各々のステップ長を決定してもよい。いくつかの実施形態では、点データ112は、対象の左後肢、左前肢、右後肢、および右前肢に関するものであってもよい。いくつかの実施形態では、ステップ長は、ストライド間隔に対する左前肢と右後肢との間の距離であってもよい。いくつかの実施形態では、ステップ長は、ストライド間隔に対する右前肢と左後肢との間の距離であってもよい。いくつかの実施形態では、ステップ長は、右後肢が直前の左後肢の接地位置を超えて移動する距離であってもよい。
【0038】
歩行および姿勢分析構成要素120は、点データ112を使用してストライド間隔のストライド長を決定してもよい。歩行および姿勢分析構成要素120は、その期間のストライド間隔ごとにストライド長を決定してもよい。いくつかの実施形態では、点データ112は、対象の左後肢、左前肢、右後肢、および右前肢に関するものであってもよい。いくつかの実施形態では、ストライド長は、各ストライド間隔に関する左前肢と左後肢との間の距離であってもよい。いくつかの実施形態では、ストライド長は、右前肢と右後肢との間の距離であってもよい。いくつかの実施形態では、ストライド長は、つま先離地事象から足接地事象までのストライドに関して左後肢が移動する合計距離であってもよい。
【0039】
歩行および姿勢分析構成要素120は、点データ112を使用して、ストライド間隔に関するステップ幅を決定してもよい。歩行および姿勢分析構成要素120は、その期間のストライド間隔ごとにステップ幅を決定してもよい。いくつかの実施形態では、点データ112は、対象の左後肢、左前肢、右後肢、および右前肢に関するものであってもよい。いくつかの実施形態では、ステップ幅は、左前肢と右前肢との間の距離である。いくつかの実施形態では、ステップ幅は、左後肢と右後肢との間の距離である。いくつかの実施形態では、ステップ幅は、後肢どうしを隔てる横方向距離の平均値である。これは、右後肢の接地位置と、左後肢のつま先離地位置とその後の足接地位置とを結ぶ直線と、を結ぶ最も短い線分の長さとして、計算されてもよい。
【0040】
歩行および姿勢分析構成要素120は、点データ112を使用して、ストライド間隔に関する足の発話を決定してもよい。歩行および姿勢分析構成要素120は、その期間の各ストライド間隔ごとに足の速度を決定してもよい。いくつかの実施形態では、点データ112は、対象の左後肢、右後肢、左前肢、および右前肢に関するものであってもよい。いくつかの実施形態では、足の速度は、ストライド間隔時における1つの足の速度であってもよい。いくつかの実施形態では、足の速度は、対象の速度であってもよく、対象の尾の付け根に基づくものであってもよい。
【0041】
歩行および姿勢分析構成要素120は、点データ112を使用して、ストライド間隔に関するストライド速度を決定してもよい。歩行および姿勢分析構成要素120は、その期間のストライド間隔ごとにストライド速度を決定してもよい。いくつかの実施形態では、点データ112は、尾の付け根に関するものであってもよい。いくつかの実施形態では、ストライド速度は、ストライド間隔を表す一組をなす複数の映像フレーム時における対象の尾の付け根の動きに基づいて、対象に関する一組をなす複数の速度データを決定することによって、決定されてもよい。速度データのセット内における各速度データは、一組をなす複数の映像フレームにおける1つの映像フレームに対応してもよい。ストライド速度は、速度データの組を平均化することにより(または、別の態様で組み合わせることにより)、計算されてもよい。
【0042】
歩行および姿勢分析構成要素120は、点データ112を使用して、ストライド間隔ごとに四肢負荷係数を決定してもよい。歩行および姿勢分析構成要素120は、その期間のストライド間隔ごとに四肢負荷係数を決定してもよい。いくつかの実施形態では、点データ112は、対象の右後肢および左後肢に関するものであってもよい。いくつかの実施形態では、ストライド間隔に対する四肢負荷係数は、第一の負荷係数と第二の負荷係数との平均であってもよい。歩行および姿勢分析構成要素120は、ストライド間隔時に右後肢が地面に対して接触している時間量を表す第一の立脚時間を決定してもよく、その後、第一の立脚時間とストライド間隔の時間長とに基づいて第一の負荷係数を決定してもよい。歩行および姿勢分析構成要素120は、ストライド間隔時に左後肢が地面に対して接触している時間量を表す第二の立脚時間を決定してもよく、その後、第二の立脚時間とストライド間隔の時間長とに基づいて第二の負荷係数を決定してもよい。他の実施形態では、四肢の負荷係数は、前肢の立脚時間と負荷係数とに基づくものであってもよい。
【0043】
歩行および姿勢分析構成要素120は、点データ112を使用してストライド間隔ごとに角速度を決定してもよい。歩行および姿勢分析構成要素120は、その期間のストライド間隔ごとに角速度を決定してもよい。いくつかの実施形態では、点データ112は、対象の尾の付け根および首付け根に関するものであってもよい。歩行および姿勢分析構成要素120は、尾の付け根と首付け根とを結ぶ一組をなす複数のベクトルを決定してもよく、その場合、組内の各ベクトルは、ストライド間隔に対する一組をなす複数のフレームの、1つのフレームに対応している。歩行および姿勢分析構成要素120は、一組をなす複数のベクトル基づいて角速度を決定してもよい。ベクトルは、対象の角度を表してもよく、角度値の一次導関数が、フレームに関する角速度であってもよい。いくつかの実施形態では、歩行および姿勢分析構成要素120は、ストライド間隔に対するフレームに関して角速度を平均化することにより、ストライド角速度を決定してもよい。
【0044】
歩行および姿勢分析構成要素120は、個々のストライド間隔に関して、対象の、鼻、尾先端、および尾の付け根の横方向の変位を決定してもよい。鼻、尾先端、および尾の付け根の横方向の変位に基づいて、歩行および姿勢分析構成要素120は、各対象身体部分の変位位相オフセットを決定してもよい。横方向の変位を決定するために、歩行および姿勢分析構成要素120は、まず、点データ112を使用して、ストライド間隔に関する変位ベクトルを決定してもよい。歩行および姿勢分析構成要素120は、その期間における各ストライド間隔に関して変位ベクトルを決定してもよい。いくつかの実施形態では、点データ112は、対象の脊椎中間部に関するものであってもよい。ストライド間隔は、複数の映像フレームにわたって跨がってもよい。いくつかの実施形態では、変位ベクトルは、ストライド間隔の最初の映像フレーム内における脊椎中間部と、ストライド間隔の最後の映像フレーム内における脊椎中間部と、を結ぶベクトルであってもよい。
【0045】
歩行および姿勢分析構成要素120は、点データ112と変位ベクトルとを使用して、ストライド間隔に対する対象の鼻の横方向の変位を決定してもよい。歩行および姿勢分析構成要素120は、その期間における各ストライド間隔に関して鼻の横方向の変位を決定してもよい。いくつかの実施形態では、点データ112は、対象の脊椎中間部および鼻に関するものであってもよい。いくつかの実施形態では、歩行および姿勢分析構成要素120は、鼻の一組をなす複数の横方向の変位を決定してもよく、その場合、鼻の各横方向の変位は、ストライド間隔の1つの映像フレームに対応してもよい。横方向の変位は、各映像フレーム内における、ストライド間隔に対する変位ベクトルからの、鼻の垂直距離であってもよい。いくつかの実施形態では、歩行および姿勢分析構成要素120は、最大距離から最小距離を減算してもよく、それを対象の体長で割算することで、より大きな対象で測定された変位がより小さな対象で測定された変位と同等となるようにしてもよい。
【0046】
歩行および姿勢分析構成要素120は、ストライド間隔に対する鼻の一組をなす複数の横方向の変位を使用して、鼻の変位位相オフセットを決定してもよい。歩行および姿勢分析構成要素120は、鼻の一組をなす複数の横方向の変位を使用して補間を実行することにより、ストライド間隔に対する鼻の横方向の変位の滑らかな曲線を生成してもよく、その後、鼻の横方向の変位の滑らかな曲線を使用して、鼻の最大変位がストライド間隔時におけるどの時点で起こるかを決定してもよい。歩行および姿勢分析構成要素120は、鼻の最大変位が起こった時に完了したストライド間隔のパーセントを表すパーセントストライド位置を決定してもよい。いくつかの実施形態では、歩行および姿勢分析構成要素120は、変位に関する滑らかな曲線を生成するために、三次スプライン補間を実行してもよく、三次補間のために、最大変位は、映像フレームどうしの間の時点で起こる可能性がある。
【0047】
歩行および姿勢分析構成要素120は、点データ112と変位ベクトルとを使用して、ストライド間隔に対する対象の尾の付け根の横方向の変位を決定してもよい。歩行および姿勢分析構成要素120は、その期間における各ストライド間隔に関して尾の付け根の横方向の変位を決定してもよい。いくつかの実施形態では、点データ112は、対象の脊椎中間部および尾の付け根に関するものであってもよい。いくつかの実施形態では、歩行および姿勢分析構成要素120は、尾の付け根の一組をなす複数の横方向の変位を決定してもよく、その場合、尾の付け根の各横方向の変位は、ストライド間隔の1つの映像フレームに対応してもよい。横方向の変位は、各映像フレーム内における、ストライド間隔に対する変位ベクトルからの、尾の付け根の垂直距離であってもよい。いくつかの実施形態では、歩行および姿勢分析構成要素120は、最大距離から最小距離を減算してもよく、それを対象の体長で割算することで、より大きな対象で測定された変位がより小さな対象で測定された変位と同等となるようにしてもよい。
【0048】
歩行および姿勢分析構成要素120は、ストライド間隔に対する尾の付け根の一組をなす複数の横方向の変位を使用して、尾の付け根変位位相オフセットを決定してもよい。歩行および姿勢分析構成要素120は、尾の付け根の一組をなす複数の横方向の変位を使用して補間を実行することで、ストライド間隔に対する尾の付け根の横方向の変位の滑らかな曲線を生成してもよく、その後、尾の付け根の横方向の変位の滑らかな曲線を使用して、鼻の最大変位がストライド間隔時におけるどの時点で発生したかを決定してもよい。歩行および姿勢分析構成要素120は、尾の付け根の最大変位が起こった時に完了したストライド間隔のパーセントを表すパーセントストライド位置を決定してもよい。いくつかの実施形態では、歩行および姿勢分析構成要素120は、変位に関する滑らかな曲線を生成するために、三次スプライン補間を実行してもよく、三次補間のために、最大変位は、映像フレームどうしの間の時点で起こる可能性がある。
【0049】
歩行および姿勢分析構成要素120は、点データ112と変位ベクトルとを使用して、ストライド間隔に対する対象の尾先端の横方向の変位を決定してもよい。歩行および姿勢分析構成要素120は、その期間における各ストライド間隔に関して尾先端の横方向の変位を決定してもよい。いくつかの実施形態では、点データ112は、対象の脊椎中間部および尾先端に関するものであってもよい。いくつかの実施形態では、歩行および姿勢分析構成要素120は、尾先端の一組をなす複数の横方向の変位を決定してもよく、その場合、尾先端の各横方向の変位は、ストライド間隔の1つの映像フレームに対応してもよい。横方向の変位は、各映像フレーム内における、ストライド間隔に対する変位ベクトルからの、尾先端の垂直距離であってもよい。いくつかの実施形態では、歩行および姿勢分析構成要素120は、最大距離から最小距離を減算してもよく、それを対象の体長で割算することで、より大きな対象で測定された変位がより小さな対象で測定された変位と同等となるようにしてもよい。
【0050】
歩行および姿勢分析構成要素120は、ストライド間隔に対する尾先端の一組をなす複数の横方向の変位を使用して、尾の付け根変位位相オフセットを決定してもよい。歩行および姿勢分析構成要素120は、尾先端の一組をなす複数の横方向の変位を使用して補間を実行することにより、ストライド間隔に対する尾先端の横方向の変位の滑らかな曲線を生成してもよく、その後、尾先端の横方向の変位の滑らかな曲線を使用して、鼻の最大変位がストライド間隔時におけるどの時点で発生したかを決定してもよい。歩行および姿勢分析構成要素120は、尾先端の最大変位が起こった時に完了したストライド間隔のパーセントを表すパーセントストライド位置を決定してもよい。いくつかの実施形態では、歩行および姿勢分析構成要素120は、変位に関する滑らかな曲線を生成するために、三次スプライン補間を実行してもよく、三次補間のために、最大変位は、映像フレームどうしの間の時点で起こる可能性がある。
【0051】
いくつかの実施形態では、歩行および姿勢分析構成要素120は、何らかの統計分析を行うために、歩行および姿勢メトリクスを入力として取ってもよい統計分析構成要素を含んでもよい。対象の体格および対象の速度は、対象の歩行および/または姿勢メトリクスに影響を与える可能性がある。例えば、動きがより速い対象は、動きが遅い対象と比較して、異なる歩行を行う場合がある。さらなる例として、より大きな身体を有する対象は、より小さな身体を有する対象と比較して、異なる歩行を行うこととなる。しかしながら、一部の事例では、ストライド速度における相違(対照対象と比較した場合)が、老化とフレイルによる歩行および姿勢変化の決定的な特徴となり得る。歩行および姿勢分析構成要素120は、各対象に関して複数の反復測定値を収集し(映像データ104を介して、およびオープンエリアでの対象を介して)、各対象は、不均衡なデータを生じさせる異なる数のストライドを有している。繰り返されたストライドにわたっての平均化は、対象ごとに1つの平均値をもたらすものの、変動が除去されて誤った信頼度が導入されるため、誤解を招く可能性がある。同時に、古典的な線形モデルは、安定した対象内変動と、対象間での揺らぎと、を区別することがなく、統計分析に偏りを生じさせ得る。これらの問題に対処するために、歩行および姿勢分析構成要素120は、いくつかの実施形態では、線形混合モデル(LMM)を採用することで、対象間の変動を、遺伝子型ベースの対象間変動から、分離する。いくつかの実施形態では、歩行および姿勢分析構成要素120は、対象のサイズ、遺伝子型、年齢などの主効果を捕捉してもよく、追加的に、対象内部変動に関するランダム効果を捕捉してもよい。本発明の技術は、対象の異なる年齢における複数の反復測定値を収集し、入れ子型とされた階層的データ構造を生じさせる。歩行および姿勢分析構成要素120で実装される例示的な統計モデルの例を、モデルM1、M2、M3として以下に示す。これらのモデルは、標準的なLMM表記に従ったもので、(遺伝子型、体長、速度、試験年齢)が、固定効果を表し、(対象ID/試験年齢)(ここで、試験年齢は、対象内に入れ子とされている)が、ランダム効果を表す。
M1:表現型~遺伝子型+試験年齢+体長+(1|マウスID/試験年齢)
M2:表現型~遺伝子型+試験年齢+速度+(1|マウスID/試験年齢)
M3:表現型~遺伝子型+試験年齢+速度+体長+(1|マウスID/試験年齢)
【0052】
モデルM1は、年齢および体長を入力として導入し、モデルM2は、年齢および速度を入力として導入し、モデルM3は、年齢、速度、および体長を、入力として導入する。いくつかの実施形態では、歩行および姿勢分析構成要素120のモデルは、性別が対象の体長/体格に対して高い相関があり得ることのために、対象の性別を効果として含まない。他の実施形態では、歩行および姿勢分析構成要素120のモデルは、対象の性別を入力として導入してもよい。点データ112(点追跡構成要素110によって決定された)を使用することは、これらのモデルに関して対象の体格および速度を決定することを、可能とする。したがって、モデルに関するこれらの変数に対して、追加的な測定値は、必要ではない。
【0053】
歩行測定データ122内に含まれるデータの1つまたは複数のデータは、円変数(例えば、ストライド長、角速度、等)であってもよく、歩行および姿勢分析構成要素120は、円形-線形回帰モデルを使用して線形変数の関数を実装してもよい。体長および速度などの線形変数は、モデル内に共変量として含まれてもよい。いくつかの実施形態では、歩行および姿勢分析構成要素120は、傷害および発達効果を有する対象を識別するために、個々の対象レベルで多変量異常値検出アルゴリズムを実装してもよい。
【0054】
いくつかの実施形態では、歩行測定データ122は、対象に対して、速さ、速度、角速度、歩数、ステップ長、ステップ幅、ストライド長、横方向の変位、四肢負荷係数、時間対称性、映像の持続時間に対するストライド数、および網羅される距離のうちの1つまたは複数を含んでもよい。表1は、本発明のある実施形態で使用される映像の特徴およびメトリクスのリストを提供する。
【0055】
表1は、映像の特徴を列挙したものである。
【表1】
【0056】
角速度は、対象の尾の付け根をその首の付け根に接続するベクトルによって決定される、対象の角度の第一の微分値であってもよい。横方向の変位は、対象の体長によって正規化された、ストライドの各フレームに対するストライドの対象の変位ベクトルからの垂直距離の基準点(例えば、鼻、尾の付け根、および尾先端)の最小値と最大値との間の差であってもよい。四肢負荷係数は、足が地面に対して接触する時間の総計を、対象の各後肢について計算し平均した全ストライド時間で除算した時間量でもよい。速度は、尾の付け根を使用して決定されてもよい。ステップ長は、先の反対の肢の接地位置を通り過ぎて右後肢が移動する距離であってもよい。歩行測定データ122は、2つの、すなわち、1つは左後肢の接地に基づく、もう1つは右後肢の接地に基づく、ステップ長を含んでもよい。ステップ幅は、右後肢の接地位置と、左後肢のつま先離地とその後の足の接地位置とを結ぶ線分のうち、最も短い線分の長さでよい。ストライド長は、左後肢がつま先離地から足接地までにわたってストライドに関して移動する総距離でもよい。時間対称は、左後肢と右後肢の接地時間差を総接地時間で割ったものでもよい。ストライド数は、映像データ104の持続時間で表される全てのストライドの合計であってもよい。網羅される距離は、オープンフィールドアリーナで費やした時間によって正規化された、自発運動活動の合計であってもよい。
【0057】
図1に示すように、いくつかの実施形態では、歩行および姿勢分析構成要素120はまた、脊椎測定データ124を生成してもよい。
図2を参照すると、ステップ208で、歩行および姿勢分析構成要素120は、対象の脊椎測定値を決定するために点データ112を処理してもよい。脊椎可動性測定値(複数可)は、映像データ104の各映像フレームに対して決定してもよい。映像フレームの脊椎可動性測定値は、複数の異なる測定値を含んでもよい。点データ112を使用して、歩行および姿勢分析構成要素120は、対象の頭の付け根(点A)と対象の尾の付け根(点B)との間の第一の距離(dAC)を決定してもよい。いくつかの実施形態では、第一の距離は、対象の体長に対して正規化されてもよい。点データ112を使用して、歩行および姿勢分析構成要素120は、対象の背中中央部(点B)と、頭の付け根と尾の付け根との間の線の中間点(線ACの中間点)との間の第二の距離(dB)を決定してもよい。点データ112を使用して、歩行および姿勢分析構成要素120は、対象の頭付け根、尾の付け根、および背中中央部(点A、B、およびC)によって形成される角度(aABC)を決定してもよい。映像フレームの脊椎可動性測定値は、前述の第一の距離、第二の距離および角度を含んでもよい。歩行および姿勢分析構成要素120は、映像データ104の各映像フレームに対する脊椎可動性測定値を決定してもよい。脊椎測定値データ124は、映像データ104の各映像フレームに対する脊椎可動性測定値を含むベクトルまたは行列であってもよい。
【0058】
対象の脊椎が直線である場合、第一の距離(dAC)および角度(aABC)は、その最大値であってもよく、第二の距離(dB)は、その最小値であってもよい。対象の脊椎が曲げられると、第二の距離(dB)は、その最大値であってもよく、一方で、第一の距離(dAC)および角度(aABC)は、その最小値であってもよい。視覚的フレイルスコア162を決定する際に、視覚的フレイル分析構成要素160は、映像の持続時間全体にわたって脊椎測定値データ124を考慮してもよい。視覚的フレイル分析構成要素160は、高齢の対象が、柔軟性または脊椎可動性の低下に起因して、脊椎の屈曲の程度がより小さく、または頻度がより少なくなり得ることを識別するように構成されてもよい。3つの脊椎可動性測定値のそれぞれについて、視覚的フレイル分析構成要素160は、映像データ104のすべての映像フレームの平均、中央値、標準偏差、最小値、および最大値を決定してもよい。いくつかの実施形態では、視覚的フレイル分析構成要素160は、どの映像フレームが非歩行フレームであるか(すなわち、対象がストライド/歩行していないフレーム)を識別してもよい。こうした非歩行フレームについて、視覚的フレイル分析構成要素160は、平均、中央値、標準偏差、最小値、および最大値を別々に決定してもよい。視覚的フレイル分析構成要素160は、脊椎測定値データ124と対象のフレイルとの相関関係を識別するように構成されてもよい。例えば、一部の事例では、非歩行フレームの第一の距離(dAC)の中央値および非歩行フレームの第二の距離(dB)の中央値は、年齢とともに増加(または減少)してもよい。
【0059】
図1に示すように、いくつかの実施形態では、歩行および姿勢分析構成要素120はまた、後肢立ち事象データ126を生成してもよい。
図2を参照すると、ステップ210で、歩行および姿勢分析構成要素120は、対象の後肢立ち事象データ126を決定するために、点データ112を処理してもよい。いくつかの実施形態では、後肢立ち事象は、対象の鼻(または他の身体部分)が、オープンフィールドの壁上の閾値境界/線を通過するときとして定義されてもよい。歩行および姿勢分析構成要素120は、壁上の閾値境界を識別するように構成されてもよく、点データ112を使用して、対象の鼻が閾値境界を通過する/の上にある時(例えば、映像データ104の映像フレーム)を識別してもよい。他の実施形態では、後肢立ち事象は、例えば、対象の足が壁の閾値境界を通過するとき、対象がオープンフィールドのコーナーで閾値の時間量を費やすとき、対象が壁の閾値境界を超える閾値の時間量を費やすときなど、異なって定義されてもよい。
【0060】
歩行および姿勢分析構成要素120は、一部のピクセルのバッファを用いて、オープンフィールドの床と壁との間の境界の座標を使用するように構成されてもよい。対象の鼻の点がバッファを通過するたびに、このフレームは、歩行および姿勢分析構成要素120により後肢立ち事象を含む/表すものとして識別されてもよい。対象が後肢立ち事象を呈する、中断のない一連の映像フレームの各々は、歩行および姿勢分析構成要素120によって後肢立ち行動として識別されてもよい。いくつかの実施形態では、歩行および姿勢分析構成要素120は、後肢立ち行動の総数、後肢立ち行動の平均長さ、映像の最初の数分間(例えば、5分)の後肢立ち行動の数、および次の数分間(例えば、5~10分)の後肢立ち行動の数を決定してもよい。前述の測定値は、後肢立ち事象データ126に含まれてもよい。視覚的フレイル分析構成要素160は、後肢立ち事象データ126と対象のフレイルとの間の相関を識別するように構成されてもよい。例えば、高齢/虚弱な対象は、立ち上がりがより少なく(または多く)なり得る。
【0061】
図1に示すように、いくつかの実施形態では、歩行および姿勢分析構成要素120はまた、後肢データ128を生成してもよい。
図2を参照すると、ステップ212で、歩行および姿勢分析構成要素120は、後肢データ128を決定するために、点データ112を処理してもよい。映像データ104の各映像フレームについて、歩行および姿勢分析構成要素120は、(点データ112から)後肢の座標間の距離を決定してもよい。後肢データ128は、映像フレームの各々に対する前述の距離を含むベクトルであってもよい。視覚的フレイル分析構成要素160は、すべての映像フレームについて、後肢の距離の中央値、平均、標準偏差、最大値および/または最小値を決定してもよい。視覚的フレイル分析構成要素160は、後肢データ128と対象のフレイルとの間の相関を識別するように構成されてもよい。例えば、高齢/虚弱な対象の後肢間の距離は、対照対象よりも小さく(またはより長く)なり得る。
【0062】
図1に示すように、いくつかの実施形態では、システム(複数可)105は、楕円データ132およびオープンフィールド分析構成要素140を使用して、対象の形態学的データ142を決定してもよい。
図3は、本開示の実施形態による、映像データから導出された楕円データを使用して、対象の形態学的データを決定するためのプロセス300を示すフローチャートである。
【0063】
ステップ302で、楕円生成構成要素130は、楕円データ132を決定するために、映像データ104を処理してもよい。いくつかの実施形態では、楕円生成構成要素130は、映像データ104を処理して、映像データ104内の対象を識別するセグメンテーションマスクを生成し、次いで対象に対する楕円適合/表現を生成するための技術を採用してもよい。楕円生成構成要素130は、映像/画像データにおける対象物追跡のために1つまたは複数の技術(例えば、1つまたは複数のMLモデル)を採用することができ、対象を識別するように構成されてもよい(例えば、どのピクセルが対象を表すか、どのピクセルが背景を表すか)。楕円発生器130によって生成されるセグメンテーションマスクは、対象に対応する対象ピクセル(ピクセルのセット)を識別してもよく、背景に対応する背景ピクセル(対象ピクセルとは別個かつ異なるピクセルの別のセット)を識別してもよい。セグメンテーションマスクを使用して、楕円生成構成要素130は、楕円適合を決定してもよい。楕円適合は、対象の身体の周りに引き出された楕円であってもよい。異なるタイプの対象について、システム(複数可)105は、異なる形状適合/表現(例えば、円適合、長方形適合、正方形適合など)を決定するように構成されてもよい。楕円生成構成要素130は、楕円適合を対象画素のサブセットとして決定してもよい。楕円データ132は、楕円適合に対応するこのピクセルのサブセットを含んでもよい。楕円生成構成要素130は、映像データ104の映像フレームごとに楕円適合を決定してもよい。楕円データ132は、映像データ104のすべての映像フレームに対する楕円適合ピクセルのベクトルまたは行列であってもよい。
【0064】
いくつかの実施形態では、対象に対する楕円適合は、対象のいくつかのパラメータを規定してもよい。例えば、楕円適合は、対象の位置に対応してもよく、映像データ104の映像フレーム(複数可)における対象のピクセル位置(例えば、楕円の中心)を表す座標(例えば、xおよびy)を含んでもよい。楕円適合は、対象の長軸の長さおよび短軸の長さに対応してもよい。楕円適合は、長軸のベクトル角度の正弦および余弦を含んでもよい。角度は、主軸の方向に対して規定されてもよい。長軸は、対象の頭または鼻の先端から、尾の付け根などの対象の身体の端部まで延在してもよい。いくつかの実施形態では、楕円データ132は、映像データ104のすべての映像フレームに対する前述の測定値を含んでもよい。
【0065】
いくつかの実施形態では、楕円生成構成要素130は、映像データ104からセグメンテーションマスクを決定するために、エンコーダ-デコーダ・アーキテクチャを使用してもよい。いくつかの実施形態では、楕円生成構成要素130は、映像データ104からの楕円適合を決定するために、ニューラルネットワークモデルを使用してもよい。
【0066】
楕円データ132はまた、映像フレームに対する楕円適合を決定する際に、楕円生成構成要素130の信頼性スコア(複数可)を含んでもよい。楕円データ132は、代替的に、対象に対応する楕円適合の確率または尤度を含んでもよい。
【0067】
いくつかの実施形態では、楕円生成構成要素130は、映像データ104の各映像フレームに対する対象の楕円適合を決定してもよい。楕円適合は、対象の周りの楕円を規定するピクセルのセットとして表されてもよい。楕円データ132は、映像フレームの全てに対する楕円適合データを含むベクトルまたは行列であってもよい。
【0068】
ステップ304で、オープンフィールド分析構成要素140は、形態学的データ142を決定するために楕円データ132を処理してもよい。形態学的データ142は、対象の体組成(例えば、形状、サイズ、長さ、重量など)に対応してもよい。オープンフィールド分析構成要素140は、対象に対する楕円適合の長軸および短軸の長さ(楕円データ132から)を使用して、対象の推定長さおよび推定幅を決定してもよい。オープンフィールド分析構成要素140は、映像データ104の映像フレームごとの楕円適合の長軸および短軸を決定してもよい。いくつかの実施形態では、オープンフィールド分析構成要素140は、映像データ104の全ての映像フレームの長軸および/または短軸の長さに対する中央値、平均、標準偏差、最大値および/または最小値を決定してもよい。オープンフィールド分析構成要素140は、前述の計算のうちの1つまたは複数を使用して、対象の長さおよび幅を推定してもよい。いくつかの実施形態では、形態学的データ142は、対象の推定長さおよび幅を含んでもよい。形態学的データ142は、追加的または代替的に、映像データ104の各映像フレームにおける楕円適合ごとの長軸および短軸の長さを含んでもよい。
【0069】
視覚的フレイル分析構成要素160は、形態学的データ142と対象のフレイルとの間の相関を識別するように構成されてもよい。例えば、体の組成および脂肪分布の変化は、対象の老化と共に観察されてもよい。
【0070】
いくつかの実施形態では、オープンフィールド分析構成要素140は、視覚的フレイル分析構成要素160によって使用され得る他のデータを決定してもよい。例えば、オープンフィールド分析構成要素140は、対象がオープンフィールドアリーナの中心にある映像フレームを決定するために楕円データ132(例えば、楕円の中心ピクセル/位置)を使用してもよく、映像の持続時間中に、対象がオープンフィールドアリーナの中心で費やす時間量を決定してもよい。別の例として、オープンフィールド分析構成要素140は、対象がオープンフィールドアリーナの壁に沿っている映像フレームを決定するために楕円データ132を使用してもよく、映像の持続時間中に、対象が周辺(壁に沿って)で費やす時間量を決定してもよい。さらに別の例として、オープンフィールド分析構成要素140は、対象がオープンフィールドアリーナのコーナーにいる映像フレームを決定するために楕円データ132を使用してもよく、映像の持続時間中に、対象がコーナー(複数可)で費やす時間を決定してもよい。さらに別の例として、オープンフィールド分析構成要素140は、映像中にオープンフィールドアリーナの中心から対象の位置までの平均距離を決定するために楕円データ132を使用してもよい。さらに別の例として、オープンフィールド分析構成要素140は、映像中にオープンフィールドアリーナの周辺/壁から対象の位置までの平均距離を決定するために、楕円データ132を使用してもよい。さらに別の例として、オープンフィールド分析構成要素140は、映像中にオープンフィールドアリーナのコーナーから対象の位置までの平均距離を決定するために、楕円データ132を使用してもよい。
【0071】
図1に示すように、いくつかの実施形態では、システム(複数可)105は、グルーミング行動分析構成要素150を使用して、対象の行動データ152を決定してもよい。
図4は、本開示の実施形態による、対象の映像データ104を使用して対象の行動データ152を決定するためのプロセス400を示すフローチャートである。ステップ402で、グルーミング行動分析構成要素150は、対象の行動データ152を決定するために、映像データ104を処理してもよい。グルーミング行動分析構成要素150は、対象が、足をなめること、片側の洗顔、両側の洗顔、および脇腹をなめることのうちの少なくとも1つを含み得るグルーミング行動を呈する、映像データ104の映像フレームを識別するように構成されてもよい。グルーミング行動分析構成要素150は、1つまたは複数のMLモデルを使用して映像データ104を処理して、映像データ104の1つまたは複数のフレームが規定した行動を呈する対象を表しているかどうかに関して複数の予測を生成してもよい。これらのMLモデルは、対象(複数可)の動きを捕捉した映像を含む訓練データを使用して構成されてもよく、訓練データは、対象がグルーミング行動を呈しているかどうかを識別する各映像フレームに対するラベルを含む。こうしたMLモデルは、大きな訓練データセットを使用して構成されてもよい。
【0072】
グルーミング行動分析構成要素150の各MLモデルは、MLモデルが、特定のモデルパラメータ(学習速度、重み、バッチサイズなど)の観点で変形を有することができるように、異なる初期化パラメータまたは設定を使用して構成されてもよく、したがって、同じ映像フレームを処理するときに異なる予測(対象のグルーミング行動に関する)をもたらす。
【0073】
グルーミング行動分析構成要素150はまた、映像データ104の異なる表現を処理してもよい。グルーミング行動分析構成要素150は、映像の配向を変更することによって、映像データ104の異なる表現を決定してもよい。例えば、1つの配向は、映像を90度左に回転することによって決定されてもよく、別の配向は、映像を90度右に回転することによって決定されてもよく、さらに別の配向は、水平軸または垂直軸に沿って映像を反射することによって決定されてもよい。グルーミング行動分析構成要素150は、元々捕捉された配向および他の異なる生成された配向で映像フレームを処理しうる。異なる配向を処理することに基づいて、グルーミング行動分析構成要素150は、対象のグルーミング行動に関する異なる予測を生成してもよい。グルーミング行動分析構成要素150は、上述のように決定される異なる予測を使用して、対象が映像フレーム(複数可)内のグルーミング行動を呈しているかどうかに関する最終判断をしてもよい。
【0074】
最終決定は、行動データ152で出力されてもよい。行動データ152は、対象が特定の映像フレームにおいてグルーミング行動を呈するかどうかを示す、ベクトルまたは値のセットであってもよい。例えば、行動データ152は、対象がグルーミング行動を呈したかどうかを示す、映像フレームごとのブール値(例えば、1または0、真または偽、はいまたはいいえなど)を含んでもよい。別の例として、行動データ152は、代替的にまたは追加的に、対象が特定の映像フレームにおいてグルーミング行動を呈したかどうかに対応するスコア(例えば、信頼性スコア、確率スコアなど)を含んでもよい。
【0075】
グルーミング行動分析構成要素150は、映像データ104を使用して、複数のフレームのセットを決定してもよく、異なるセット(例えば、少なくとも4セット)は、映像データの異なる配向を表しうる。フレームの第一のセットは、画像捕捉デバイス101によって捕捉された映像データ104の元の配向であってもよい。回転されたフレームのセットは、映像データ104の回転された配向であってもよく、例えば、フレームの第一のセットは、左に90度回転されて、回転されたフレームのセットを生成することができる。反射されたフレームのセットは、映像データ104の反射された配向であってもよく、例えば、フレームの第一のセットは、水平軸をまたいで反射されてもよく(または180度回転されて)、反射されたフレームのセットを生成する。回転されたフレームの別のセットは、映像データ104の別の回転された配向であってもよく、例えば、フレームの第一のセットは、右へ90度回転されて、回転されたフレームの他のセットを生成することができる。他の実施形態では、フレームのセットは、元のフレームのセットを他の方法で操作することによって生成されうる(例えば、垂直軸をまたいで反射する、別の度数だけ回転されるなど)。他の実施形態では、グルーミング行動分析構成要素150によって、映像データ104のより多くのまたはより少ない配向が処理されてもよい。
【0076】
グルーミング行動分析構成要素150は、少なくとも4つのMLモデルを採用してもよい。映像データ104の処理の一部として、グルーミング行動分析構成要素150は、同じMLモデルを使用して、異なる前述のフレームのセットを処理して、異なる予測を生成してもよい。例えば、第一のMLモデルは、フレームの第一のセット(複数可)を処理して、フレームの第一のセット中に対象がグルーミング行動を呈する確率または尤度を表す第一の予測を生成してもよい。第一のMLモデルは、回転されたフレームのセット(複数可)を処理して、回転されたフレームのセット(複数可)の間に対象がグルーミング行動を呈する確率または尤度を表す第二の予測を生成してもよい。第一のMLモデルは、反射されたフレームのセット(複数可)を処理して、反射されたフレームのセット(複数可)の間に対象が行動を呈する確率または尤度を表す第三の予測を生成してもよい。第一のMLモデルは、他の回転されたフレームのセット(複数可)を処理して、他の回転されたフレームのセット(複数可)の間に対象が行動を呈する確率または尤度を表す第四の予測を生成してもよい。このようにして、同じ第一のMLモデルは、映像データ104の異なる配向を処理して、同じ捕捉された対象の動きに対して異なる予測を生成しうる。
【0077】
映像データ104をさらに処理することの一部として、グルーミング行動分析構成要素150は、別のMLモデルを使用して、異なる前述のフレームのセットを処理して、より多くの予測を生成してもよい。例えば、第二のMLは、フレームの第一のセット(複数可)を処理して、フレームの第一のセット(複数可)の間に対象が行動を呈する確率または尤度を表す第五の予測を生成してもよい。第二のMLモデルは、回転されたフレームのセット(複数可)を処理して、回転されたフレームのセット(複数可)の間に対象が行動を呈する確率または尤度を表す第六の予測を生成してもよい。第二のMLモデルは、反射されたフレームのセット(複数可)を処理して、反射されたフレームのセット(複数可)の間に対象が行動を呈する確率または尤度を表す第七の予測データを生成してもよい。第二のMLモデルは、他の回転されたフレームのセット(複数可)を処理して、他の回転されたフレームのセット(複数可)で表される映像中に対象が行動を呈する確率または尤度を表す第八の予測を生成してもよい。このようにして、別のMLモデルは、映像データ104の異なる配向を処理して、同じ捕捉された対象の動きに対して追加の予測を生成してもよい。確率は、0.0~1.0の範囲の値、または0~100の範囲の値、または別の数値範囲であってもよい。
【0078】
異なる予測(8つの予測)のそれぞれは、複数の確率(またはスコア)を含むデータベクトルであってもよく、各確率は、セットのフレームそれぞれに対応し、対応するフレーム内で対象がグルーミング行動を呈する尤度を示す。例えば、予測は、映像データ104の第一のフレームに対応する第一の確率、映像データ104の第二のフレームに対応する第二の確率などを含んでもよい。
【0079】
いくつかの実施形態では、映像フレームのセットは、複数の映像フレーム(例えば、16映像フレーム)を含んでもよく、各映像フレームは、ある期間(例えば、30ミリ秒、30秒など)の間の映像の持続時間である。MLモデルのそれぞれは、フレームのセットを処理して、フレームのセットの最後のフレーム内で対象がグルーミング行動を呈する確率を決定するように構成されてもよい。例えば、フレームのセットに16個のフレームがある場合、MLモデルの出力は、対象がフレームのセットの16番目のフレーム内でグルーミング行動を呈しているか否かを示す。MLモデルは、フレームのセット内の他のフレームからのコンテキスト情報を使用して、最後のフレームの予測を行うように構成されてもよい。他の実施形態では、MLモデルの出力は、フレームのセットの別のフレーム(例えば、中間フレーム、8番目のフレーム、第一のフレームなど)内で対象がグルーミング行動を呈する確率を決定してもよい。
【0080】
いくつかの実施形態では、グルーミング行動分析構成要素150は、4つの異なるMLモデルを使用して、4つの異なる配向/フレームのセットを処理することによって、フレームに対応する32個の異なる予測を生成してもよい。
【0081】
グルーミング行動分析構成要素150は、異なるフレームのセットを使用して、異なるMLモデルによって決定された異なる予測を処理して、行動データ152に示される最終予測を決定するための集計構成要素を含んでもよい。集計構成要素は、行動データ152を決定するために、異なる予測(例えば、上述の8つの予測)をマージ、集計、あるいは組み合わせるように構成されてもよい。
【0082】
いくつかの実施形態では、集計構成要素は、それぞれのフレームの確率を平均してもよく、行動データ152は、映像データ104内の各フレームの平均確率のデータベクトルであってもよい。いくつかの実施形態では、グルーミング行動分析構成要素150は、フレームの対応する平均確率が条件を満たすこと(例えば、確率が閾値確率/閾値を上回る場合)に基づいて、フレーム(またはフレームの数)に対する行動ラベルを決定してもよく、行動ラベルは、対象がグルーミング行動を呈したかどうかを示すブール値であってもよい。
【0083】
他の実施形態では、集計構成要素は、それぞれのフレームの確率を集計してもよく、行動データ152は、映像データ104内の各フレームの合計された確率のデータベクトルであってもよい。いくつかの実施形態では、グルーミング行動分析構成要素150は、フレームの対応する合計された確率が条件を満たす(例えば、確率が閾値確率/閾値を上回る場合)ことに基づいて、フレームの行動ラベルを決定してもよい。
【0084】
いくつかの実施形態では、集計構成要素は、それぞれのフレームに対して、予測から、最大値(例えば、最も高い確率)を、フレームに対する最終予測として選択するように構成されてもよい。他の実施形態では、集計構成要素は、フレームに対する最終予測として、予測から中央値を決定するように構成されてもよい。
【0085】
いくつかの実施形態では、別の構成要素は、グルーミング行動分析構成要素150と同様の様式で構成されて、別の所定の行動を呈する対象を検出してもよい。この他の構成要素は、より多くのMLモデルを使用して、映像データ104を処理してもよい。これらのMLモデルは、対象(複数可)の動きを捕捉する映像を含む訓練データを使用して特定の行動を検出するように構成されてもよく、訓練データは、対象が特定の行動を呈しているかどうかを識別する映像フレームごとのラベルを含む。こうしたMLモデルは、大きな訓練データセットを使用して構成されてもよい。MLモデルの構成に基づいて、は、異なる行動を検出するように構成されてもよい。
【0086】
他の実施形態では、グルーミング行動分析構成要素150は、行動データ152を決定するための他の技術を採用してもよい。
【0087】
行動データ152はまた、映像の持続時間中に、対象がグルーミングを呈する映像フレームの数/回数、各グルーミング行動の長さ(対象がグルーミングしている連続的な映像フレーム)、グルーミング行動の平均長さ、映像の持続時間中のグルーミング行動の数、および他のメトリクスを含んでもよい。
【0088】
視覚的フレイル分析構成要素160は、行動データ152と対象のフレイルとの間の相関を識別するように構成されてもよい。例えば、高齢/虚弱な対象は、対照対象よりもグルーミングを少なくしても(または多くしても)よい。
【0089】
図5は、本開示の実施形態による、
図2~
図4のプロセスに従って決定されたデータのうちの1つまたは複数を使用して視覚的フレイルスコアを決定するためのプロセスを示すフローチャートである。ステップ502で、視覚的フレイル分析構成要素160は、1つまたは複数のMLモデルを使用して、決定されたデータ122、124、126、128、142、152のうちの1つまたは複数を処理してもよい。いくつかの実施形態では、視覚的フレイル分析構成要素160は、1つのMLモデルを採用して、すべての特徴/データ122、124、126、128、142、152を処理してもよい。他の実施形態では、視覚的フレイル分析構成要素160は、異なる/別個のMLモデルを採用して、データ122、124、126、128、142、152の各々を処理してもよい。例えば、第一のMLモデルを使用して歩行測定データ122を処理してもよく、第二のMLモデルを使用して脊椎測定データ124を処理してもよい。さらに別の実施形態では、視覚的フレイル分析構成要素160は、異なる/別個のMLモデルを採用して、データがどのように導出されるか、および/またはどの構成要素がデータを生成するかに基づいて、データ122、124、126、128、142、152を処理してもよい。例えば、第一のMLモデルを使用して、歩行および姿勢分析構成要素120によって決定される歩行測定データ122、脊椎測定データ124、後肢立ち事象データ126および後肢データ128を処理してもよく、一方、第二のMLモデルを使用して、形態学的データ142を処理してもよい。
【0090】
いくつかの実施形態では、視覚的フレイル分析構成要素160は、視覚的フレイルスコア162を決定するために、対象の年齢、性別、系統、および/または他の特性に基づいて、異なる特徴/データを選択してもよい。
【0091】
ステップ504で、視覚的フレイル分析構成要素160は、対象の視覚的フレイルスコア162を決定してもよい。いくつかの実施形態では、視覚的フレイル分析構成要素160は、視覚的フレイル分析構成要素160に入力された異なるタイプのデータを処理することに基づいて、異なる/複数の初期のフレイルスコアを決定してもよく、その後、最終的な視覚的フレイルスコア162を決定するために、異なる/複数のフレイルスコアを集計してもよい。異なるタイプのデータを処理する結果を集計する際に、視覚的フレイル分析構成要素160は、重み付けされた合計または重み付けされた平均技術を使用してもよく、異なるタイプのデータは、異なる対応する重みを有してもよい。例えば、形態学的データ142を処理する結果は、第一の重みと関連付けられてもよく、一方、脊椎測定データ124を処理する結果は、別の重みと関連付けられてもよい。
【0092】
視覚的フレイルスコア162は、所定の範囲内の数値であってもよい。例えば、視覚的フレイルスコア162は、0~1、0~10、1~27、0~100、などの値であってもよい。
【0093】
他の実施形態では、視覚的フレイル分析構成要素160は、視覚的フレイルスコア162を決定するために、別のMLモデルを使用して、異なるタイプのデータを処理した結果を集約/組み合わせてもよい。さらに他の実施形態では、視覚的フレイル分析構成要素160は、視覚的フレイルスコア162を決定するために、ルールベースのエンジンを使用して、異なるタイプのデータを処理した結果を集計/組み合わせてもよい。
【0094】
さらに他の実施形態では、視覚的フレイル分析構成要素160は、点データ112および/または楕円データ132を使用するように構成されてもよく、視覚的フレイルスコア162を決定する際の点追跡構成要素110および/または楕円生成構成要素130の信頼度を考慮してもよい。
【0095】
いくつかの実施形態では、視覚的フレイル分析構成要素160は、いくつかの保存された/対照データに関するデータ122、124、126、128、142、152の比較/評価に基づいて、視覚的フレイルスコア162を決定してもよい。視覚的フレイル分析構成要素160は、対象の年齢、性別、系統、および/または特性に基づいて、保存された/対照データを選択してもよい。
【0096】
いくつかの実施形態では、視覚的フレイル分析構成要素160は、どの因子/特徴/データが対象に対して可視/明らか/検出されるかに基づいて、視覚的フレイルスコア162を決定してもよい。視覚的フレイル分析構成要素160は、対象のデータ122、124、126、128、142および152を使用して、さらなる因子を決定してもよい。視覚的フレイル分析構成要素160は、検出された因子の数を合計し、合計を考慮された合計因子の数で割ってもよい。例えば、視覚的フレイル分析構成要素160は、歩行測定データ122を使用して、対象が歩行障害を有すると決定してもよく、形態学的データ142を使用して、対象が体重を増加させたと決定してもよい。歩行障害および体重増加の検出は、10個の潜在的な因子のうち、対象に対して検出された2つの因子であり得る。これに基づいて、視覚的フレイル分析構成要素160は、視覚的フレイルスコア162を0.2(2/10)であると決定してもよい。
【0097】
いくつかの実施形態では、視覚的フレイル分析構成要素160は、複数の異なるタイプのモデル/アルゴリズムを採用して、異なるタイプのデータを処理してもよい。例えば、視覚的フレイル分析構成要素160は、線形回帰モデル、ペナルティ付き線形回帰モデル、ランダムフォレスト、サポートベクターマシン、勾配ブーストモデル、極度の勾配ブーストモデル、およびニューラルネットワークのうちの1つまたは複数を含んでもよい。
【0098】
図1は特定のタイプのデータを示すが、視覚的フレイル分析構成要素160は、視覚的フレイルスコア162を決定するために、追加的または異なるタイプのデータを処理しうることを理解されたい。
【0099】
いくつかの実施形態では、
図1に示すデータは、異なる構成要素によって、および/または映像データ104から抽出された異なるデータを使用して決定されてもよい。例えば、形態学的データは、点データ112を使用して決定されてもよい。別の例として、後肢データは、楕円データ132を使用して決定されてもよい。別の例として、行動データは、点データ112を使用して決定されてもよい。
【0100】
いくつかの実施形態では、視覚的フレイル分析構成要素160は、手動で生成されたフレイルスコアに対応するデータを使用して構成/訓練されてもよい。手動のフレイルスコアは、複数の異なる対象の映像を観察することによって、観察者/スコア記録者によって生成されてもよい。手動フレイルスコアの生成において観察者が考慮するいくつかの因子を
図15に列挙している。対象の映像は、対応する手動のフレイルスコアおよび/または手動のフレイルスコアを生成する際に対象に対して検出された因子で注釈付け/ラベル付けされてもよい。視覚的フレイル分析構成要素160は、こうした注釈付き映像を使用して構成されてもよい。手動のフレイルスコアの生成において考慮される因子/データは、視覚的フレイルスコア162の生成に使用される因子/データとは異なる場合がある。
【0101】
対象
本発明の一部の態様は、対象の視覚的フレイルスコアを決定することを含む。本明細書で使用した際には、「対象」という用語は、ヒト、非ヒト霊長類、ウシ、ウマ、ブタ、ヒツジ、ヤギ、イヌ、ネコ、ブタ、鳥、げっ歯類、または他の適切な脊椎動物もしくは無脊椎動物、を指し得る。本発明の特定の実施形態では、対象は、哺乳類であり、本発明の特定の実施形態では、対象は、ヒトである。いくつかの実施形態では、本発明の方法で使用される対象は、げっ歯類であり、マウス、ラット、アレチネズミ、ハムスター、等を含むが、これらに限定されるものではない。本発明のいくつかの実施形態では、対象は、正常で健康な対象であり、いくつかの実施形態では、対象は、フレイルに伴う疾患もしくは病態を有することが知られているか、またはフレイルに伴う疾患もしくは病態を有するリスクがあるか、またはフレイルに伴う疾患もしくは病態を有する疑いがある。フレイルに伴う疾患には、筋力低下、平衡喪失、異常な筋疲労、筋肉消耗などの臨床的特徴/症状が含まれてもよい。本発明の特定の実施形態では、対象は、フレイルに伴う疾患または病態に関する動物モデルである。例えば、限定を意図するものではないが、本発明のいくつかの実施形態において、対象は、老化の動物モデルであるマウスであり、筋力低下、バランスの喪失、異常な筋肉疲労、筋肉消耗などの1つ以上のようなフレイルの特徴を有する。
【0102】
非限定的な例として、本発明の方法およびシステムで評価される対象は、老化、フレイル、神経変性疾患、神経筋疾患、筋肉外傷、ALS、パーキンソン病、多発性硬化症、筋ジストロフィーなどのうちの1つまたは複数についてのモデルのような、病態に関する動物モデルである対象であってもよい。こうした病態を、本明細書では、活動障害と呼ぶ場合がある。
【0103】
本発明の方法のいくつかの実施形態では、対象は、野生型対象である。本明細書で使用した際には、「野生型」という用語は、自然界で起こる種の典型的な形態の表現型および/または遺伝子型を意味する。本発明の特定の実施形態では、対象は、非野生型の対象であり、例えば、対象の種の野生型の遺伝子型および/または表現型と比較して、1つまたは複数の遺伝子改変を有する対象である。いくつかの実例では、野生型と比較した際の、対象の遺伝子型/表現型の差異は、遺伝性(生殖系列)変異体または後天性(体細胞)変異体に起因する。1つまたは複数の体細胞変異を呈する対象をもたらしうる因子としては、以下に限定されないが、環境因子、毒素、紫外線放射、細胞分裂において生じる自然発生的エラー、放射線、母親感染、化学物質などであるがこれらに限定されない催奇形性事象が挙げられる。
【0104】
本発明の方法における特定の実施形態では、対象は、遺伝子改変生物であり、遺伝子操作対象とも称される。遺伝子操作対象は、予め選択されたおよび/または意図的な遺伝子改変を含んでもよく、そのため、操作されていない対象における形質とは異なるような、1つもしくは複数の遺伝子型および/または表現型の形質を示す。本発明のいくつかの実施形態では、通常的な遺伝子操作技術を使用することにより、その種の非操作対象と比較して、遺伝子型および/または表現型の差異を呈する遺伝子操作対象を作製することができる。非限定的な例として、機能的遺伝子産物が欠損しているまたは減少したレベルでマウス内に存在する遺伝子操作マウス、および、本発明の方法またはシステムを使用することにより、遺伝子操作マウスの表現型を評価することができ、その結果を、対照から得られた結果(対照結果)と比較してもよい。
【0105】
本発明のいくつかの実施形態では、対象は、本発明の視覚的フレイル決定方法またはシステムを使用して監視されてもよく、活動に関する障害または病態の有無を検出することができる。本発明の特定の実施形態では、活動および/または運動の病態に関する動物モデルをなす試験対象を使用することにより、その病態に対する試験対象の応答が評価されてもよい。加えて、運動および/または活動の病態に関する動物モデルをなす試験対象は、候補治療薬または方法が投与されてもよく、本発明の歩行監視方法および/またはシステムを使用して監視されてもよく、その結果を使用することで、その病態を治療するための候補治療薬の有効性を決定することができる。「活動」および「行動」という用語は、本明細書では、互換的に使用されてもよい。
【0106】
本明細書の他の箇所で説明するように、本発明の方法およびシステムは、対象の身体的特徴に関係なく、対象の視覚的フレイルスコアを決定するように構成してもよい。本発明のいくつかの実施形態では、対象の1つまたは複数の身体的特徴は、事前に特定された特徴であってもよい。例えば、限定することを意図するものではないが、事前に特定された身体的特徴は、体型、体格、毛色、性別、年齢、および、疾患または病態の表現型の1つあるいは複数であってもよい。
【0107】
疾患および障害
本発明の方法およびシステムは、フレイルに伴う疾患または病態を有することが知られている、有することが疑われる、または有するリスクがある対象のフレイル、活動および/または行動を評価するために使用することができる。一部の事例では、フレイルは老化に関連する病態であることは理解できよう。例えば、対象は、高齢の対象であってもよく、および/または高齢による病態に関する動物モデルであってもよい。本発明の特定の実施形態では、フレイルは老化と関連していないが、高齢による病態とはみなされない疾患または病態と関連している場合がある。例えば、筋力低下は、本発明の方法を使用して評価される特徴であってもよく、若い対象、高齢による病態の動物モデルではない対象、高齢による病態の動物モデルである対象、または高齢の対象に現れる場合もある。いくつかの実施形態では、疾患および/または病態は、動き、筋肉の使用、スタミナなどのような活動や行動が以上に減少したレベルに関連するものである。非限定的な例では、筋肉消耗および筋力低下を有する対象であり得る試験対象、または筋肉消耗および/または筋力低下などを呈する病態の動物モデルであり得る対象。いずれの場合も、本発明の方法を使用して、対象を評価して、対象のフレイル状態を決定することができる。試験対象を評価する結果を、評価の対照結果と比較することができ、対照対象の非限定的な例は、モデルの疾患または病態を有しない対象、筋肉消耗を有しない対象、筋力低下を有しない対象などである。対照の基準は、病態がない複数の対象などから取得されてもよい。試験対象の結果と、対照の結果と、において差異を比較することができる。本発明の方法のいくつかの実施形態は、フレイルに伴う疾患または病態を有する対象を特定するために使用することができる。
【0108】
フレイルに伴う疾患あるいは病態に関する、発症、進行、および/または退行も、また、本発明の方法の実施形態を使用して評価したり追跡したりすることができる。例えば、本発明の方法における特定の実施形態では、本発明の方法を使用して2回の、3回の、4回の、5回の、6回の、7回の、またはそれ以上の回数の対象の評価が、異なる時間に実施される。異なる時間に行われた2回以上の評価結果の比較は、対象のフレイル状態(例えば、フレイルのレベル)における差異を示すことができる。被検体が呈したフレイルの決定されたレベルおよび/または特性の増加は、フレイルに伴う疾患または病態の対象における発症および/または進行を示す可能性がある。決定された活動レベルまたは活動タイプの減少は、評価された活動に関連した疾患または病態の対象における退行を示す可能性がある。対象において活動が停止したという決定は、評価された活動に関連付けられた疾患または病態が対象内で停止したことを示してもよい。
【0109】
本発明の方法における特定の実施形態は、フレイルに伴う疾患または病態を治療するための療法の有効性を評価するために使用することができる。例えば、試験対象には、対象内においてフレイル度の変化の有無を決定するために使用される候補療法ならびに本発明の方法が施行されてもよい。候補療法の施行後における、対象で決定されたフレイルの減少は、フレイルに伴う疾患または病態に対する候補療法の有効性を示してもよい。
【0110】
本明細書の他の箇所で示すように、本発明の視覚的フレイル分析方法は、対象における疾患、病態、または老化を評価するために使用され得るとともに、疾患、病態、または老化の動物モデルを評価するためにも使用されてもよい。疾患、病態、および老化に関する多数の異なる動物モデルが、当該技術分野において知られており、これには多数のマウスモデルが含まれるが、これらに限定されるものではない。本発明のシステムおよび/または方法を使用して評価される対象は、限定されるものではないが、神経変性障害、神経筋障害、ALS、うつ病、多動性障害、不安障害、筋肉消耗疾患、筋肉損傷、発達障害、パーキンソン病、身体的損傷、等の疾病または病態に関するモデルのような、疾患または病態に関する動物モデルである対象であってもよい。本発明の方法および/またはシステムを使用して評価され得る疾患および障害に関する追加的なモデルは、例えば、ドーソンT. M.等、ニューロン6月10日、66(5):646-61 (2010)、チェンチM. A. & A.ビョークランド・プログレ・ブレインRes. 252:27-59 (2020)、フレミングS. M.等、NeuroRx 7月;2(3):495-503 (2005); ファルシムP. P, & G. P.ベイツ法Mol. Biol. 1780:97-120 (2018)、ネールR. R.等、哺乳類ゲノムAug;30(7-8):173-191 (2019); スコフ・リッツォS. J. & J. N.クローリー、年次改訂、動物バイオサイエンス2月8日、5:371-389 (2017)、トランシコバA.等、Prog Mol Biol Transl Sci. 100:419-82 (2011); ラッセルV. A.現代プロトコル神経科学(Curr Protoc Neurosci.)1月;第9章:Unit 9.35 (2011); Leo, D. & R. R.ガネトディノフ細胞組織Res.10月;354(1):259-71 (2013); カンポスA. C.等、ブラッツJ.精神医学35 Suppl 2:S101-11 (2013); および Szechtman. .J.等、神経科学5月改訂;76(Pt B);254-279 (2017)が当該技術分野で知られており、その内容は、参照によりその全体が本明細書に組み込まれる。
【0111】
既知の疾患または障害を有する対象を試験することに加えて、本発明の方法は、また、遺伝子操作生物などの新たな遺伝子変異体を評価するためにも、使用されてもよい。よって、本発明の方法は、疾患または病態の1つまたは複数の特徴に関して遺伝子操作生物を評価するために使用することができる。このようにして、新たなマウス系統などの新たな生物系統を評価し得るとともに、その結果を使用することで、新たな系統が、疾患または障害に関する動物モデルであるかどうかを決定することができる。
【0112】
例示的なデバイスおよびシステム
自動視覚的フレイルシステム100のMLモデルの1つまたは複数は、ニューラルネットワークを含む、多くの形態を取り得る。ニューラルネットワークは、入力層から出力層までにわたって、いくつかの層を含んでもよい。各層は、特定タイプのデータを入力として導入するように、さらに、別のタイプのデータを出力するように、構成されている。ある層からの出力は、次の層に対する入力として導入される。特定の層における入力データ/出力データの値は、ニューラルネットワークが実行時に実際に動作するまで不明であるけれども、ニューラルネットワークを記述するデータは、ニューラルネットワークの層の構造、パラメータ、および動作を記述する。
【0113】
ニューラルネットワークの中間層の1つまたは複数は、また、隠れ層として知られ得る。隠れ層の各ノードは、入力層の各ノードに対して、および出力層の各ノードに対して、接続される。ニューラルネットワークが複数の中間ネットワークを含む場合、隠れ層の各ノードは、次の上位層内の、および次の下位層内の、各ノードに対して接続されることとなる。入力層の各ノードは、ニューラルネットワークに対する電位入力を表し、出力層の各ノードは、ニューラルネットワークからの電位出力を表す。あるノードから次の層内の別のノードに対する各接続は、重みまたはスコアと関連付けられてもよい。ニューラルネットワークは、単一の出力または可能性のある出力の重み付けされたセットを出力してもよい。
【0114】
一態様では、ニューラルネットワークは、ネットワークの隠れ層の出力が、次の入力セットのために隠れ層に再びフィードバックされるように、反復接続で構築されてもよい。入力層の各ノードは、隠れ層の各ノードに対して接続する。隠れ層の各ノードは、出力層の各ノードに対して接続する。隠れ層の出力は、次の入力セットを処理するために、隠れ層内へとフィードバックされる。反復接続を組み込んだニューラルネットワークは、反復ニューラルネットワーク(RNN)と称されてもよい。
【0115】
いくつかの実施形態では、ニューラルネットワークは、長短期メモリ(LSTM)ネットワークであってもよい。いくつかの実施形態では、LSTMは、双方向性LSTMであってもよい。双方向性LSTMは、2つの時間方向からの入力を実行するものであり、1つは、過去の状態から将来の状態への入力であり、1つは、将来の状態から過去の状態への入力であり、ここで、過去の状態は、第一の時間フレームに対する映像データの特徴に対応してもよく、将来の状態は、後続の第二の時間フレームに対する映像データの特徴に対応してもよい。
【0116】
ニューラルネットワークによる処理は、各ノード入力の学習された重みと、ネットワークの構造と、によって決定される。特定の入力が与えられると、ニューラルネットワークは、ネットワーク全体の出力層が計算されるまで、一度に1層ずつ出力を決定する。
【0117】
接続重みは、訓練時にニューラルネットワークによって最初に学習されることができ、与えられた入力が既知の出力と関連付けられる。訓練データのセットでは、様々な訓練例が、ネットワーク内へと供給される。各例では、通常、入力から出力までの正しい接続の重みを、1に設定し、すべての接続に対して、0の重みを与える。訓練データの例が、ニューラルネットワークによって処理された際には、入力が、ネットワークに対して送信されてもよく、関連付けられた出力と比較されることで、ネットワーク性能を標的性能と比較するための方法が決定されてもよい。バックプロパゲーションなどの訓練技術を使用して、ニューラルネットワークの重みを更新して、訓練データを処理する時にニューラルネットワークによって生じる誤差を低減してもよい。
【0118】
様々な機械学習技術を使用して、点データの決定、楕円データの決定、行動データの決定、視覚的フレイルスコアの決定など、本明細書に記載の様々なステップを実施するためにモデルを訓練および動作させてもよい。モデルは、様々な機械学習技術に従って訓練および操作されてもよい。このような技術には、例えば、ニューラルネットワーク(深層ニューラルネットワークおよび/または反復ニューラルネットワーク、など)、推論エンジン、訓練された分類器、等が含まれてもよい。訓練された分類器の例としては、サポートベクターマシン(SVM)、ニューラルネットワーク、決定木、決定木と組み合わせたAdaBoost(「適応ブースト」の略)、およびランダムフォレスト、が挙げられる。例としてSVMに焦点を当てると、SVMは、データを分析してデータ内のパターンを認識する関連学習アルゴリズムを有する教師あり学習モデルであり、この教師あり学習モデルは、分類および回帰分析のために一般的に使用される。2つのカテゴリーのいずれかに属するものとしてそれぞれがマークされた一組をなす複数の訓練例が与えられると、SVM訓練アルゴリズムは、新たな例を一方のカテゴリーまたは他方のカテゴリーに割り当てるモデルを構築し、それを非確率的なバイナリ線形分類器とする。より複雑なSVMモデルは、3つ以上のカテゴリーを識別する訓練セットを有して構築されてもよく、SVMは、どのカテゴリーが入力データに対して最も類似しているかを決定する。SVMモデルは、別個のカテゴリーの例が明確なギャップによって分割されるようにマッピングされてもよい。次に、新たな例が同じ空間にマッピングされ、ギャップのどちら側に該当するかに基づいてカテゴリーに属すると予測される。分類器は、データがどのカテゴリーに最も一致するかを示す「スコア」を発行してもよい。スコアは、データがどの程度密接にカテゴリーに対して一致しているかの指数を提供してもよい。
【0119】
機械学習技術を適用するためには、機械学習プロセス自体を訓練する必要がある。この場合、第一のモデルまたは第二のモデルの一方などの機械学習構成要素を訓練するためには、訓練例に関する「グランドトゥルース」を確立する必要がある。機械学習において、「グランドトゥルース」という用語は、教師あり学習技術に関する訓練セットの分類の精度を指す。バックプロパゲーション、統計学習、教師あり学習、半教師あり学習、確率学習、または他の既知の技術を含めた、様々な技術が、モデルを訓練するために使用されてもよい。
【0120】
図6は、システムとともに使用され得るデバイス600を概念的に図示するブロック図である。
図7は、映像データの処理、対象の行動の識別などを支援し得る、システム(複数可)105などの遠隔装置の例示的な構成要素を概念的に図示したブロック図である。システム(複数可)105は、1つまたは複数のサーバを含んでもよい。本明細書で使用された際には、「サーバ」は、サーバ/クライアントコンピューティング構造で理解されるような従来的なサーバを指し得るけれども、本明細書で説明する操作を補助し得る多数の異なるコンピューティング構成要素を指す場合もある。例えば、サーバは、物理的におよび/またはネットワークを介して他のデバイス/構成要素に対して接続されているとともにコンピューティング動作を実行し得るような、1つまたは複数の物理的コンピューティング構成要素(ラックサーバなど)を含んでもよい。サーバは、また、コンピュータシステムをエミュレートするとともに1つのデバイス上で実行されるまたは複数のデバイスにわたって実行される、1つまたは複数の仮想マシンを含んでもよい。サーバは、また、本明細書で説明する動作を実行するための、ハードウェア、ソフトウェア、ファームウェア、または同種のもの、に関する他の組合せを含んでもよい。サーバは、クライアントサーバモデル、コンピュータビューロモデル、グリッドコンピューティング技術、フォグコンピューティング技術、メインフレーム技術、ユーティリティコンピューティング技術、ピアツーピアモデル、サンドボックス技術、もしくは他のコンピューティング技術、の1つまたは複数を使用して動作するように構成されてもよい。
【0121】
点/身体部分追跡を実施するための1つまたは複数のシステム105、楕円適合/表現決定のための1つまたは複数のシステム105、行動分類のための1つまたは複数のシステム105、視覚的フレイルスコアを決定するための1つまたは複数のシステム150など、複数のシステム105が本開示のシステム全体に含まれてもよい。動作時には、これらのシステムのそれぞれは、以下でさらに説明するように、それぞれのデバイス105上に存在するコンピュータ可読命令およびコンピュータ実行可能命令を含んでもよい。
【0122】
これらのデバイス(600/105)のそれぞれは、データおよびコンピュータ可読命令を処理するための中央処理ユニット(CPU)を含み得る1つまたは複数のコントローラ/プロセッサ(604/704)と、それぞれのデバイスのデータおよび命令を格納するためのメモリ(606/706)と、を含んでもよい。メモリ(606/706)は、揮発性ランダムアクセスメモリ(RAM)、不揮発性読み出し専用メモリ(ROM)、不揮発性磁気抵抗メモリ(MRAM)、および/または他のタイプのメモリを、個々に含んでもよい。各デバイス(600/105)は、また、データおよびコントローラ/プロセッサ実行可能命令を格納するためのデータ記憶構成要素(608/708)を含んでもよい。各データ記憶構成要素(608/708)は、磁気記憶装置、光記憶装置、ソリッドステートストレージなどの、1つまたは複数の不揮発性記憶タイプを個々に含んでもよい。各デバイス(600/105)は、また、それぞれの入力/出力デバイスインターフェース(602/702)を介して、リムーバブルなもしくは外部の不揮発性メモリおよび/またはストレージ(リムーバブルメモリカード、メモリキードライブ、ネットワークストレージ等)に対して接続されてもよい。
【0123】
各デバイス(600/105)およびその様々な構成要素を動作させるためのコンピュータ命令は、実行時にメモリ(606/706)を一時的な「作業」ストレージとして使用して、それぞれのデバイスのコントローラ/プロセッサ(604/704)によって実行されてもよい。デバイスのコンピュータ命令は、不揮発性メモリ(606/706)内に、ストレージ(608/708)内に、または外部デバイス内に、非一時的様式で格納されてもよい。代替的に、実行可能命令の一部または全部は、ソフトウェアに加えてまたはソフトウェアの代わりに、それぞれのデバイス上のハードウェアまたはファームウェア内に埋め込まれてもよい。
【0124】
各デバイス(600/105)は、入力/出力デバイスインターフェース(602/702)を含む。以下でさらに説明するように、様々な構成要素が、入力/出力デバイスインターフェース(602/702)を介して接続されてもよい。加えて、各デバイス(600/105)は、各デバイスの構成要素どうしの間でデータを伝送するためのアドレス/データバス(624/724)を含んでもよい。デバイス(600/105)内の各構成要素は、また、バス(624/724)を介して他の構成要素に対して接続されることに加えて(またはその代わりに)、他の構成要素に対して直接的に接続されてもよい。
【0125】
図6を参照すると、デバイス600は、スピーカ612、有線ヘッドセットもしくは無線ヘッドセット(図示せず)、またはオーディオを出力し得る他の構成要素といったようなオーディオ出力構成要素などの、様々な構成要素に対して接続する入力/出力デバイスインターフェース602を含んでもよい。デバイス600は、追加的に、コンテンツを表示するためのディスプレイ616を含んでもよい。デバイス600は、カメラ618をさらに含んでもよい。
【0126】
アンテナ614を介して、入力/出力デバイスインターフェース602は、無線ローカルエリアネットワーク(WLAN)(WiFiなど)ラジオ、Bluetooth、および/または、無線ネットワークラジオ、例えば、ロングタームエボリューション(LTE)ネットワーク、WiMAXネットワーク、3Gネットワーク、4Gネットワーク、5Gネットワークなどの無線通信ネットワークと通信可能なラジオ、を介して、1つまたは複数のネットワーク199に対して接続されてもよい。イーサネットなどの有線接続も、また、サポートされてもよい。ネットワーク199を介して、システムは、ネットワーク環境にわたって分散されてもよい。I/Oデバイスインターフェース(602/702)は、また、サーバまたは他の構成要素の集合において、異なる物理サーバなどのデバイスどうしの間でデータを交換することを可能とする通信構成要素を含んでもよい。
【0127】
デバイス(複数可)600またはシステム(複数可)150の構成要素は、それら自身の専用プロセッサ、メモリ、および/またはストレージを含んでもよい。代替的に、デバイス(複数可)600またはシステム(複数可)105の構成要素の一つあるいは複数は、デバイス(複数可)600、またはシステム(複数可)105の、I/Oインターフェース(602/702)、プロセッサ(604/704)、メモリ(606/706)、および/またはストレージ(608/708)を、それぞれ利用してもよい。
【0128】
上述のように、複数のデバイスが、単一のシステム内で採用されてもよい。このようなマルチデバイスシステムでは、デバイスのそれぞれは、システムの処理の異なる態様を実行するための異なる構成要素を含んでもよい。複数のデバイスは、重複した構成要素を含んでもよい。本明細書で説明するデバイス600およびシステム(複数可)105の構成要素は、例示的であり、スタンドアローンデバイスとして配置されてもよく、あるいは、より大きなデバイスまたはシステムの構成要素として全体的にもしくは部分的に含まれてもよい。
【0129】
本明細書で開示する概念は、例えば、汎用コンピューティングシステム、映像/画像処理システム、および分散コンピューティング環境を含めた、多数の異なるデバイスならびにコンピュータシステム内で適用されてもよい。
【0130】
本開示の上記の態様は、例示的であることを意味している。それらは、本開示の原理および用途を説明するために選択されたものであり、網羅的であることまたは本開示を限定することを意図するものではない。開示する態様に関する多くの修正および変形は、当業者には明らかであり得る。コンピュータおよび音声処理の分野における当業者であれば、本明細書で説明する構成要素およびプロセスステップが、他の構成要素もしくはステップに対して、または構成要素もしくはステップの組合せに対して、互換性があり得ること、それでもなお本開示の利点および利益を達成し得ることは、認識するはずである。その上、本開示が、本明細書で開示する特定の詳細およびステップの一部あるいは全部がなくても実施され得ることは、当業者には明らかなはずである。
【0131】
開示するシステムの態様は、コンピュータ方法として、または、メモリデバイスもしくは非一時的コンピュータ可読記憶媒体などの製造物品として、実装されてもよい。コンピュータ可読記憶媒体は、コンピュータによって可読であってもよく、コンピュータまたは他のデバイスに本開示で説明するプロセスを実行させるための命令を含んでもよい。コンピュータ可読記憶媒体は、揮発性コンピュータメモリ、不揮発性コンピュータメモリ、ハードドライブ、ソリッドステートメモリ、フラッシュドライブ、リムーバブルディスク、および/または他の媒体、によって実装されてもよい。加えて、システムの構成要素は、ファームウェアまたはハードウェアとして実装されてもよい。
【0132】
実施例
実施例1.自動化された視覚的なフレイルの指数付けの開発
方法
マウス
C57BL/6Jマウスを、ジャクソン研究所のネイサン・ショック・センターから確保した。
【0133】
オープンフィールドアッセイおよびフレイル指数付け
オープンフィールド行動アッセイは、前述のように実施された[クマールV.等、PNAS108,15557-15564 (2011); ゴイターB.等、コミュニケーション生物学2, 124 (2019)、ビーンG等、実験用マウス用の映像ベースの表現型解析プラットフォーム。bioRxiv (2022)]。マウスは、ジャクソン研究所の同じ動物施設内の異なる部屋にあるネイサン・ショック・センターからの老化コロニーから出荷された。高齢マウスは、行動試験室に隣接した動物保持室に1週間順応させた。オープンフィールド試験の日中に、マウスを、試験開始前の30~45分間、行動試験室に順応させた。前述のように、1時間のオープンフィールド試験を実施した。オープンフィールド試験後、マウスをネイサン・ショック・センターに戻し、手動のフレイル指数付けを行った。オープンフィールドアッセイから1週間以内に手動のフレイル指数付けを実施した。フレイル指数化手順は、ホワイトヘッド等のものから変更した。[ホワイトヘッドJ. C.等、ジャーナル・オブ・ジェロントロジー・バイオロジカル・サイエンス・アンド・メディカル・サイエンス69,621-632 (2014)]。
図17は、手動のフレイル指数付けのすべての項目を列挙したFI試験シートを示す。
【0134】
映像、セグメント化、および追跡
オープンフィールドアリーナ、映像装置、ならびに追跡およびセグメンテーションネットワークは、前述した通りであった[ゴイターB.等、コミュニケーション生物学2, 124 (2019)、ビーンG等、実験用マウス用の映像ベースの表現型解析プラットフォーム。bioRxiv(2022)]。オープンフィールドアリーナは、センテック(オムロン・センテック、神奈川、40インチ上に取り付けられた日本カメラ)で、20.5インチ×20.5インチで測定された。カメラは、640×480ピクセル(px)解像度で、30フレーム/秒(fps)でデータを収集した。マウスのセグメンテーションマスクを生成して、各フレームでマウスの楕円適合を生成するように訓練されたニューラルネットワーク、ならびにマウストラックを使用した。
【0135】
姿勢推定および歩行
前述したように訓練された深層畳み込みニューラルネットワークを使用して生成された12点2D姿勢推定[(シェパードK.bioRxiv.doi.org/10.1101/2020.12.29.424780(2020)〕。捕捉した点は、鼻、左耳、右耳、首の付け根、左前足、右前足、脊椎の中央、左後肢、右後肢、尾の付け根、尾の中央、尾の先端であった。各フレームの各点は、x座標、y座標、および信頼性スコアを有した。どの点が分析に含まれたかを決定するために最小信頼性スコア0.3を使用した。
【0136】
歩行メトリクスは、前述のように生成された[シェパードK.等、bioRxiv.doi.org/10.1101/2020.12.29.424780 (2020)]。ストライド周期は、姿勢推定によって追跡される、左後肢の接地で開始および終了することによって規定された。次いで、これらのストライドを、いくつかの時間的、空間的、および全身の協応特性について分析し、映像全体にわたって歩行メトリクスを生成した。
【0137】
オープンフィールド指標およびフィーチャー・エンジニアリング
オープンフィールド指標は、先に説明したようにマウスの楕円追跡から導出した[ゴイターB.等、コミュニケーション生物学2, 124 (2019)、ゴイターB. Q.等、エライフ10(2021)、ビーンG等、実験用マウス用の映像ベースの表現型解析プラットフォーム。bioRxiv(2022)]。追跡を使用して、自発運動活動および不安の特徴を生成した。グルーミングは、前述のように、アクション検出ネットワークを使用して分類された。他の遺伝子操作された特徴(脊椎可動性、身体測定値、および後肢立ち)はすべて、姿勢推定データを使用して導出された。脊椎可動性メトリクスは、頭の付け根(A)、背中の中央(B)、および尾の付け根(C)の姿勢からの3つの点を使用した。各フレームについて、AとCとの間の距離(dAC)、点Bと線の中間点ACとの間の距離(dB)、ならびに点A、B、およびCによって形成される角度(aABC)を測定した。dAC、dB、およびaABCの平均、中央値、最大値、最小値、および標準偏差を、すべてのフレームにわたって、および歩行フレームではないフレームにわたって(動物が歩行していない場合)求めた。形態学的指標については、各フレームにおける2つの後肢点間の距離を、全てのフレームにわたるその距離の平均、中央値、および標準偏差と共に測定した。
【0138】
後肢立ちについては、(OpenCV輪郭を使用して)アリーナの床と壁との間の境界の座標を考慮し、4ピクセルのバッファを追加した。マウスの鼻点がバッファを通過するたびに、このフレームを後肢立ちフレームとして数えた。マウスが後肢立ちしている(鼻がバッファを横切っている)各途切れることのない一連のフレームを、後肢立ち行動として計数した。行動の総数、行動の平均長さ、最初の5分間の行動数、および5~10分以内の行動数を計算した。
【0139】
モデリング
スコア記録者の効果を、ランダム効果としてスコア記録者を伴う線形混合モデルを使用して調査し、手動FIスコアの変動性(RLRT=183.85、p<2:2e
-16)の42%がスコア記録者によって説明できることがわかった(
図8C)。制限された尤度比検定(RLRT)[クレイニセアヌC. MおよびルパートD.ジャーナル・オブ・ザ・ロイヤル・スタティスティカル・ソサエティ、シリーズB(2004)]では、ゼロ以外の分散を伴うスコア記録者(ランダム)効果の強力な証拠が提供されている。累積リンクモデル(対数リンク)[アグレスティA.カテゴリーデータ分析(2003)]を、固定効果として体重、年齢、性別を、そして、ランダム効果としてテスタを用いて、順序応答(フレイルパラメータ)に適合させた。効果は、各FI項目にわたるモデル(Y軸)におけるランダムテスタ効果に関連付けられた推定分散である。
【0140】
lme4Rパッケージを有する線形混合モデル(LMM)を使用して、テスタ効果をFIスコアから除去した[ベイツD.等、統計ソフトウェア学会誌67,1-48(2015)]。以下のモデルが適合した。
y
i j = μ
i + ε
i j, ε
i j ~ N(0, σ
2), μ
i ~ P ≡ N(0, τ
2)
式中、y
ijは、テスタiによってスコア化されたj番目の動物であり、μ
iは、テスタ特有の平均であり、ε
ijは、動物特有の残差であり、σ
2は、テスタ内分散であり、Pは、テスタ特異的手段の分布であった。四つのテスタを使用し、各テスタによって試験された異なる数の動物、すなわち、i=1、... , 4. 制限された最大尤度推定値[ケンワードM. G.&ロジャーJ. H.、バイオメトリクス983-997(1997)]を使用して、最良の線形不偏予測変数(BLUP)で推定されたテスタ効果を、動物のFIスコアから減算した
【数1】
【0141】
テスタ調整FIスコア
【数2】
は、映像で生成された特徴を共変量/入力として、エラスティックネットペナルティを用いた線形回帰モデルを使用してモデル化した[ゾウH.およびハスティT.、ジャーナル・オブ・ロイヤル・スタティスティカル・ソサエティ シリーズB、スタティスティカル・メソドロジー67,301-320 (2005)]、サポートベクターマシン[コルテスC.およびバブニックV.,マシン・ラーニング20,273-297 (1995)]、ランダムフォレスト[ブレイマンL.,マシン・ラーニング45,5-32 (2001)]、およびグラディエントブーストマシンフリードマンJ. H.,統計年鑑1189-1232 (2001)]。データは、列(80%)および試験(20%)の2つの部分に無作為に分割された。訓練データを使用して、10倍の交差検証を使用して、モデルのハイパーパラメータを推定および調整した。試験セットが、モデルの予測パフォーマンスの独立した評価サンプルとして機能した。試験セットの結果の不確実性を適切に評価できるようにするために、データ上に50の異なる分割が行われた。モデルを、絶対誤差中央値(MAE)、二乗平均誤差(RMSE)、およびR
2の観点から比較した。これらのメトリクスを、検定統計量の分母の自由度に適用されるサタースウェイト近似[ファイA.およびコーネリアスP.、ジャーナル・オブ・スタティスティカル・コンピューテーション・アンド・シミュレーション54, 363-378 (1996)]を用いた反復指標ANOVA~F検定を使用して、4つのモデルにわたって比較した。
【0142】
手動FI項目で経過年数を予測するためのFRIGHTモデリングについては、不安定なモデルフィット、すなわちゼロ分散予測子を避けるために、単一値を有するフレイルパラメータを除去した。順序回帰モデル[マッカラーP.ジャーナル・オブ・ザ・ロイヤル・スタティスティカル・ソサエティ、シリーズB (1980)]を、規則化用語を全く含まずに適合させ、グローバル尤度比検定(p<2.2e-16)を使用して、映像の特徴が、各フレイルパラメータを別々に予測する何らかの証拠、すなわち予測信号の証拠を示すかどうかを決定した。次に、通常の回帰モデルを、弾性正味ペナルティ[ゾウHおよびハスティT,ジャーナル・オブ・ザ・ロイヤル・スタティスティカル・ソサエティ、シリーズB(2005)]と共に使用して、映像の特徴を使用してフレイルパラメータを予測した。
【0143】
手動FI項目を予測するために、pi<0.80となるように、フレイルパラメータを選択した。式中、iはパラメータのカウント分布のモードである。例えば、i=1は、威嚇反応の計数分布のモードであり、p1>0.95であるため、威嚇反応は除外される。
【0144】
Xを共変量のベクトル、C
nを訓練セットとする100(1 - α)%のアウト・オブ・バッグ予測区間I
α(X, C
n)が、分位数ランダムフォレストを介して得られた[マインスハウゼン, N, ジャーナル・オブ・マシン・ラーニング・リサーチ、7, 983-999 (2006)]と、grfパッケージ[アティ, S.等、アナルス・オブ・スタティスティクス 47, 1148-1178 (2019)]によって得られた。分位回帰フォレストを用いて生成された予測間隔は、多くの場合、名目レベル、すなわち、
【数3】
がα=0.05に設定された条件付きカバレッジの観点から良好に機能する。
【0145】
年齢およびFIスコアが逆の関係を有する動物、すなわち、より高いFIスコアを有する若い動物およびより低いFIスコアを有する高齢動物を選択した。これらの基準を有する動物を含む五つの試験セットを形成し、残りのマウスについてランダムフォレスト(RF)モデルを訓練した。5つの試験セットのFIスコアを予測するために予測精度を評価し、結果を表示した(
図21B)。試験セットは、age
L、age
U、FI
L、およびFI
Uを使用して定義された。これは、それぞれ、若い動物および高齢の動物のFIカットオフを示す。五つの試験セットについて、パラメータを以下のように設定した。
・ageL = 60, ageU = 90, FI
L = 0.20, およびFI
U = 0.15,
・ageL = 60, ageU = 100, FI
L = 0.20, およびFI
U = 0.15
・ageL = 50、ageU = 90、FI
L = 0.20, およびFI
U=0.20,
・ageL = 60, ageU = 110, FI
L = 0.20, およびFI
U = 0.20,
・ageL = 70, ageU = 100, FI
L = 0.25, およびFI
U = 0.15
【0146】
データおよびコードの可用性
コードとモデルは、github.com/KumarLabJaxおよびwww.kumarlab.org/dataから入手可能である。Githubリポジトリgithub.com/KumarLabJax/vFI-modelingにあるマークダウン・ファイルには、原稿の結果を再現するための詳細と、vFI/Age予測のためのモデルの訓練が含まれている。データセット内のすべてのマウスについての手動FIスコアおよびvFI特徴も見出すことができる。遺伝子操作特徴のコードは、github.com/KumarLabJax/vFI-features。
【0147】
結果
データ収集
図8Aは、451匹の個々のC57BL/6Jマウス(オス256匹、メス195匹)を評価し、117匹のマウスについては、5か月後に二回目の試験を繰り返し、8~148週齢の範囲の568匹のマウスのデータセットを得た。1時間のオープンフィールドにおける各マウスのトップダウン映像を、以前に公開されたプロトコル〔クマールV等、PNAS108,15557-15564(2011); ゴイターB.等、コミュニケーション生物学2, 124(2019)]に従って、本明細書の上記の方法(
図8A)に記載されているように収集した。1時間のオープンフィールドの後、各マウスに、手動FIスコアを割り当てるために、老化に関するネイサン・ショック・センターの熟練の専門家により標準的なマウスにフレイル指数付けを行った。データ収集の過程で、4人の異なるスコア記録者が手動FIを行った。オープンフィールドの映像は、追跡ネットワークと姿勢推定ネットワークによって処理され、各フレームのトラック、楕円適合、マウスの12点姿勢が生成された[ゴイターB.等、コミュニケーション生物学2, 124 (2019)、シェパードK.等、bioRxiv.doi.org/10.1101/2020.12.29.424780 (2020)〕。これらのフレームごとの測定値を使用して、不安、多動性などのような従来型のオープンフィールド指標を含む様々な映像ごとの特徴(すべての抽出された映像ごとの特徴は表1に測定元とともに列挙され定義されている)[ゴイターB.等、コミュニケーション生物学2,124 (2019)]、ニューラルネットワークに基づくグルーミング[ゴイターB.等、bioRxiv doi.org/10.1101/2020.10.08.331017 (2020)]、および新規の歩行指標[シェパードK.等、[g19]bioRxiv[/g19]doi.org/10.1101/2020.12.29.424780 (2020)]を計算した。各マウスについての映像ごとの特徴を、ペナルティ化線形回帰(LR
*)を含む機械学習モデルのアレイの特徴として使用した[ゾウH.およびハスティT.、ジャーナル・オブ・ロイヤル・スタティスティカル・ソサエティ シリーズB、スタティスティカル・メソドロジー67,301-320 (2005)]、ランダムフォレスト(RF)[ブレイマンL.,マシン・ラーニング45,5-32 (2001)]、サポートベクターマシン(SVM)[コルテスC.およびヴァプニックV.,マシン・ラーニング20,273-297 (1995)]、および極度の勾配ブースト(XGB)[フリードマンJ. H.,統計 年鑑1189-1232 (2001)]。手動FIスコアをモデルに対する応答変数として使用した。予想通り、平均FIスコアは、年齢の増加と共に増加した(
図8B)。FIスコアの不均一性(標準偏差バーによって示される)も、年齢と共に増加した。この研究で得られたデータについて、FIスコアの最大未満限界が0.5をわずかに下回ることが見出され、これはマウスで以前に示された最大未満限界の範囲内に収まる[ホワイトヘッドJ. C.等、ジャーナル・オブ・ジェロントジー・バイオロジカル・サイエンス・アンド・メディカル・サイエンス69, 621-632 (2014); ロックウッドK.等、サイエンティフィック・レポート7, 43068 (2017)]。これらの結果は、この研究で得られたFIデータが他のマウスデータに典型的なものであり、ヒトFIの特徴を、年齢と共に平均FIスコアおよびFIスコアの不均一性の増加と反映することを示した[ロックウッドK.等、サイエンティフィック・レポート7, 43068 (2017)]。スコア記録者の目視検査は、手動FIにスコア記録者依存性の効果があった可能性があることを示した。例えば、スコア記録者1およびスコア記録者2は、それぞれ高いおよび低いフレイルスコアを生成する傾向があった。スコア記録者の効果を、ランダム効果としてスコア記録者を有する線形混合モデルを使用して調査し、データセットの変動の35%(RLRT=66.41、p<2.2e
-16)が、スコア記録者によって説明できることがわかった(
図8C)。制限された尤度比検定(RLRT)[クレイニセアヌC. M.およびルパートD.、ジャーナル・オブ・ロイヤル・スタティスティカル・ソサエティ シリーズB スタティスティカル・メソドロジー66, 165-185 (2004)]は、非ゼロ分散を伴うスコア記録者(ランダム)効果の強力な証拠を示し、スコア記録者間の変動性がデータにおける重要な変動源であり、モデリング前に調整されるべきであることを示唆している。
【0148】
全体的なアプローチは、
図8Aで説明している。本試験は、533匹の固有マウスを用いた3ラウンドの試験にわたって、643のデータポイント(オス371匹、メス272匹)で実施された。試験の最初のラウンド(バッチ1)は、222匹のマウス(オス141匹、メス81匹)で行った。試験の第二のラウンド(バッチ2)は、約5か月後に発生し、319匹のマウス(オス173匹、メス146匹)で行った。これらのマウスのうち、105匹は、最初のバッチから繰り返した。試験の第三ラウンド(バッチ3)は、約1年後に102匹のマウス(オス57匹、メス45匹)で行った。これらのマウスのうち、18匹は以前に第一のラウンドで試験されたものであり、15匹は第二のラウンドで試験されたものである。1時間のオープンフィールドセッションにおける各マウスのトップダウン映像を、以前に公開されたプロトコルに従って収集した〔クマールV.等、PNAS108,15557-15564(2011); ゴイターB.等、コミュニケーション生物学2, 124 (2019)](若いマウスおよび高齢のマウスの例は、方法および
図8Aを参照されたい)。オープンフィールドの後、各マウスに、老化に関するネイサン・ショック・センターの熟練の専門家により標準的なマウスフレイル指数を使用して各マウスをスコア化して手動FIスコアを割り当てた。[スコフ・リッツォS. J.等、マウス生物学における最新のプロトコル(2018)](
図19A)。データのバイモダリティ(ハーティガンズ・テスト[ハーティガンJ. A.およびハーティガンP. M.,アナルス・オブ・スタティスティックス(1985)],D=0.07;p<2.2e
-16)にもかかわらず、シンプソンのパラドックス[シンプソンE. H.,ジャーナル・オブ・ザ・ロイヤル・スタティスティカル・ソサエティ、シリーズB (1951)]は、データ内の上位15の特徴のいずれにおいても現れなかったことがわかった(
図20)。オープンフィールドの映像は、追跡ネットワークと姿勢推定ネットワークによって処理され、フレームごとにマウスの追跡、楕円適合、12点姿勢が生成された。[ゴイターB等、コミュニケーション 生物学2, 124 (2019)、シェパードK.等、セルレポート(2022)]。これらのフレーム毎の測定値を使用して、不安および多動の従来のオープンフィールド指標[ゴイターB.等、コミュニケーション生物学2,124 (2019)]、グルーミング[ゴイターB. Q.等、Elife (2021)]、歩行および姿勢指標[シェパードK.等、セルレポート(2022)]、ならびに遺伝子操作された特徴を含む、映像ごとの様々な特徴を計算した。生活年齢と生物学的年齢、ならびに視覚的FI(vFI)を予測するために機械学習モデルを訓練するために使用される特徴が、本明細書に記載されている。
【0149】
以前のデータと一致して、データセットでは、平均FIスコアは年齢と共に増加する(
図8B)。(標準偏差バーによって示される)FIスコアの不均一性も、年齢と共に増加する。FIスコアの準最大の限界は、マウスに示される準最大の限界の範囲内に収まるデータについて0.5をわずかに下回ることが見出された[ホワイトヘッドJ. C.等、ジャーナル・オブ・ジェロントロジー、シリーズA (2014); ロックウッドK.等、サイエンティフィック・レポート(2017)]。これらの結果は、FIデータが他のマウスデータに典型的なものであり、ヒトFIの特徴を反映しており、平均FIスコアの増加およびFIスコアの不均一性が年齢とともに増加することを示す[ロックウッドK.等、サイエンティフィック・レポート(2017)]。データ収集の過程で、4人の異なるスコア記録者が手動FIを行った。データの目視検査は、手動FIスコアに対するスコア記録者効果を示した(
図8C)。例えば、スコア記録者1およびスコア2は、それぞれ高いおよび低いフレイルスコアを生成する傾向があった(
図18B)。モデリングは、手動FIスコアの変動の42%が、スコア記録者効果に起因することを示した(RLRT=183:85、p<2.2e
-16)。どのFI項目がスコア記録者によって最も影響を受ける、より詳細な検査により、毛の逆立ち、脊柱後弯症、視覚が最も主観的であることがわかった(
図18A)。この解析は、スコア記録者効果がマウス臨床FIにおける重要な変動源であることを示唆している。
【0150】
特徴抽出
フレーム毎のセグメンテーション、楕円適合、および12点姿勢座標を使用して、映像ごとの特徴を抽出した。説明および測定値のソースを含む抽出された特徴を表1に記載する。全体として、中央値と平均映像メトリクスとの間に非常に高い相関があった(
図9A~B)。次の2つの理由から、モデリングでは中央値のみを使用した。中央値が平均よりも高いFIスコアとの相関を有する傾向があることと、中央値が平均よりも外れ値効果に対してより安定していたことである。同様に、四分位範囲は標準偏差よりも外れ値に対してより安定している傾向があるため、モデルの特徴として、利用可能な場合は標準偏差ではなく、四分位範囲を使用した。これにより、合計44個の映像の特徴が生成された(
図14、表1)。総自発運動活動、末梢対中心で費やした時間、およびグルーミング行動などの標準的なオープンフィールドアッセイで得られたメトリクス(
図9A)が考慮された。標準的なオープンフィールド指標では、FIスコアおよび年齢の両方と低い相関を示した(
図14および15)。
【0151】
既存の特徴に加えて、FIと相関すると仮定された特徴のセットを設計した。これらの特徴には、動物の形状およびサイズを捕捉する形態計測特徴、ならびに柔軟性および垂直移動に関連する行動特徴含めた。ヒトおよび齧歯類において、年齢に伴う体組成および脂肪分布の変化が観察されている[パパスL.およびナギーT.、ヨーロピアン・ジャーナル・オブ・クリニカル・ニュートリション73 (2018年10月)]。体組成の測定値は、老化およびフレイルの何らかの信号を示し得ると仮定した。各フレームでマウスに適合された楕円の長軸および短軸をそれぞれ、マウスの推定長さおよび幅として使用した(
図10B)。各フレームの後肢座標間の距離を、腰により近い別の幅測定値として取った。全てのフレームにわたる楕円幅、楕円長さ、および後肢幅の平均および中央値を、映像ごとのメトリクスとして使用した。これらの形態学的特徴の多くは、FIスコアおよび年齢と高い相関を示し(
図14および15)、例えば、特に、後肢幅の中央値は、それぞれr=0.56および0.57の相関であった(
図10C)。
【0152】
歩行の変化は、ヒトにおける老化の特徴であることが示されている[ゾウ,Y.等、サイエンティフィック・レポート10,4426 (2020); スキアドプロスA.等、J.ニューロエング・リハビル。17,41 (2020)]およびマウス[タランティーニS.等、ジャーナル・オブ・ジェロントロジー バイオロジカル サイエンスアンド メディカル サイエンス 74,1417-1421 (2018); ベアW.-N.等、ジャーナル・オブ・ジェロントロジー・バイオロジカル・サイエンスアンド・メディカル サイエンス 74,1413-1416(2019)]。マウスの現在のコホートにおける老化に関連する歩行変化を探索するために、野外で自由に動くマウスから歩行指標を抽出する方法と類似している分析を実施した(
図10D~E)[シェパードK.等、bioRxiv. doi.org/10.1101/2020.12.29.424780 (2020)]。各ストライドを、その空間的、時間的、および全身の協応指標について分析し(
図10D)、その結果、各マウスのすべてのストライドの中央値が取られる測定値のアレイを得た。歩行特徴のマウス内不均一性も、各マウスのすべてのストライドにわたる標準偏差および四分位範囲を使用して調べた。これらの計算されたメトリクスの多くは、FIスコアおよび年齢と高い相関を示し(
図14および15)、例えば、ステップ幅の中央値および先端-尾横方向の変位四分位範囲(それぞれ、r=0.58およびr=0.63)を示した(
図10E)。
【0153】
次に、映像全体を通して脊椎の屈曲を調査した。高齢マウスは、柔軟性または脊椎可動性の低下により、脊椎をそれほど曲げない、またはあまり頻繁に曲げないと仮定した。その柔軟性の変化は、各映像フレームにおけるマウス上の3点の姿勢推定座標、すなわち、頭の後ろ(A)、背中の中央(B)、および尾の付け根(C)によって捉えることができる。各フレームで、マウス長さ(dAC)に対して正規化された点AとCとの間の距離、線からの後部Bの中央の直交距離(dB)、および3つの点の角度(aABC)を計算した(
図10F)。3つのフレームごとの指標(dAC、dB、およびaABC)のそれぞれについて、すべてのフレームおよび非歩行フレーム(マウスがストライド状態になかったフレーム)について、平均、中央値、標準偏差、最小値、および最大値を映像ごとに計算した。脊椎屈曲とFIスコアとの関係では中程度に高い相関が見られ、仮説と矛盾した(
図14および15)。つまり、dB中央値およびdAB中央値(非歩行フレームの場合)は、年齢とともに減少すると予想されたが、そうではなく、増加することが見出された(それぞれ、r=0.51および0.35)(
図10G)。この結果の考えられる1つの理由は、非常に虚弱なマウスがグルーミングにより多くの時間を費やしていたことであった。しかしながら、グルーミング行動もグルーミング秒数も、FIスコアまたはdB中央値との関係を示すものではなかった。もう1つの可能性は、高いフレイルマウスが歩く時間が減り、さらに時間を費やしたことであった。というのも、歩数や移動距離とFIスコアやdB中央値との間にはほとんど関係がなかったからである。dB中央値が体重と0.496の相関を有するため、高フレイルのマウスはまた、体組成に起因してdB中央値が高かった可能性がある。また、これらの曲げメトリクスは幅広い網を張っていることにも留意することが重要である。つまり、これらは、1時間のオープンフィールド中の脊椎のすべての活動を、安価で一般的説明したものである。したがって、これらの指標は、体組成と行動との間の相互作用を捉えた可能性がある。
【0154】
以前の脊椎の柔軟性指標では、側方脊椎の柔軟性を調べたが、垂直の柔軟性もフレイルとの関係を有する可能性がある。このことを調査するために、壁に支えられた後肢立ちの発生状況を調べた。(
図10H)。側方脊椎可動性の低下および/または探索的活動の低下により、よりフレイルが進んだマウスの方が飼育能力が低い可能性があると仮定する。オープンフィールドのエッジを取り、5ピクセルのバッファを境界として追加した。マウスの鼻の座標がその境界を交差するフレームを、後肢立ちのインスタンスとして使用した。これらの発見的法則から、後肢立ち回数および各後肢立ち行動の平均長さを決定した(表1)。後肢立ち行動に関連するいくつかのメトリクスは、フレイルの信号、特に、後肢立ちの総回数と最初の5分間の後肢立ちを示す(それぞれ、r=0.2および0.3、
図10I)。
【0155】
興味深いことに、年齢との相関は、一般的にFIスコアよりもわずかに高かった(
図14および15)。これは、マウスがフレイルになる方法が異なることに起因している可能性がある。あるマウスは、フレイル度が高いが、ストライド幅においては機能障害を有さず、一方、平均的に高齢のマウスは、そのフレイル度にかかわらず、ストライド幅の変化が大きい場合がある。さらに注目すべきは、年齢スコアおよびFIスコア(例えば、中央値幅、中央値ステップ幅、dB中央値)の両方を有するこれらの指標の多くにおける不均一性の増加である。
【0156】
性別
フレイルの性別差を分析するために、FIスコアデータを四つの年齢群に階層化し、ボックスプロットをオスとメスとの間で各年齢群について比較した(
図11A)。最も高齢の群は、オス81匹に対して、メスは9匹しか含まれていなかった。各年齢群のメスのフレイルスコアの範囲は、最も高齢群を除いて、オスよりもわずかに低い傾向があった。中程度の2つの群は、オスとメスとの間の分布に非常に有意な差を示した。
【0157】
オスおよびメスのFI項目スコアと年齢との相関の比較(
図11B)は、全体的に高い相関を示した(r=0.85)。FI指数項目と年齢とのオスとメスとの間の相関の平均差は0.08であったが、顕著な差を示すいくつかの指数項目があった。脱毛症および威嚇反応は、年齢との相関において最も高い性別差を有し(それぞれ0.29および0.21)、脱毛症に対してメスは高い相関を有し、威嚇反応に対してオスは高い相関を有する(
図16)。
【0158】
FIスコアおよび年齢の両方を有するオスおよびメスの映像の特徴の相関も高く(それぞれr=0.88およびr=0.90)、FIスコアを有する映像メトリクスのオスおよびメスの相関と、それぞれ0.14および0.13の年齢との間の平均差があった(
図14および15)。FIスコアおよび年齢の両方において、最も高い性別差を有する映像の特徴は、ストライドおよびステップ長、尾の付け根の横方向の変位、ならびに尾先端の横方向の変位に関連する歩行指標であった。最も高い性別差は、年齢に対する尾の付け根の横方向の変位の中央値(0.57の差)と、年齢に対する尾先端の横方向の変位の中央値(0.50)との間の相関であり、メスは、FIスコアおよび年齢の両方に対してより高い相関を有する傾向があった。ストライド長およびステップ長に関連するメトリクス(ストライド長の中央値、差0.33)について、オスは、メスよりもFIスコアおよび年齢との相関が高かった。これらの結果は、年齢とともに、メスが歩行の尾の付け根および尾先端の横方向の変位を有意に増加させる一方で、オスはこの特徴の変化をほとんど示さず、オスはメスと比較して年齢と共にストライド長の減少がより大きいことを示すことを表している。
【0159】
映像データからの年齢およびフレイル指数の予測
本明細書に記載される映像の特徴が老化およびフレイルと相関することが確認されたら、これらの特徴を、年齢および手動FIスコア(
図12A)を予測するモデルそれぞれvFRIGHT、およびvFI)共変量として使用した。年齢は経験則に基づく真実であり、フレイルと強い関係がある。映像の特徴を使用した年齢の予測(
図12A、モデルvFRIGHT)は、手動のFI項目、すなわち、FRIGHT年齢時計と呼ばれる方法を使用して、年齢の予測と比較する[シュルツM. B.等、ネイチャー・コミュニケーションズ(2020)](
図12A、モデルFRIGHT)。4つのモデルを最初に試験した:ペナルティ化線形回帰(LR*)[ゾウHおよびハスティT、ジャーナル・オブ・ザ・ロイヤル・スタティスティカル・ソサエティ、シリーズB(2005)]、サポートベクターマシン(SVM)[コルテスC.ヴァプニックV.機械学習(1995)]、ランダムフォレスト(RF)[ブライマンI.,機械学習(2001)]、および極度の勾配ブースト(XGB)[フリードマンJ. H,アナルス・オブ・スタティスティックス(2001)](
図12B、パネル1)。ランダムフォレスト回帰モデルは、反復指標ANOVAを使用して比較した場合、最も低い平均絶対誤差(MAE)(p<2.2e
-16、F
3,147=190.43)、二乗平均平方根誤差(RMSE)(p<2.2e
-16、F
3,147=59.53)、および最も高いR2(p<2.2e
-16、F
3,147=58.14)を有する他のモデルよりも優れたパフォーマンスを有するため、目に見えない将来のデータについて年齢を予測するように選択された(
図12B、パネル1、
図19C)。vFRIGHTモデルは、FRIGHTクロックよりも、より正確かつ正確に年齢を予測することができた。vFRIGHTは、FI項目(15.7±4週間)を使用したFRIGHTクロックと比較して、低いMAE(13.1±0.99週間)で優れたパフォーマンス(p<4.7e-
5、F
1,49=19.9、反復指標ANOVAを使用)を有していた(
図12B、パネル2)。RMSE(RMSEvFRIGHT=17.97±1.44、RMSEFRIGHT=20.62±4.78、p<6.1e
-7、F
1,49=32.84)およびR2(RMSEvFRIGHT=0.78±0.04、RMSEFRIGHT=0.76±0.07、p<2.1e
-8、F
1,49=44.54)を比較し、映像の特徴を使用した場合の年齢の予測において同様の有意な改善があったことがわかった(
図19D)。予測誤差の分散は、映像ベースの年齢予測(vFRIGHT)について、手動FI商品ベースの年齢予測(FRIGHT)よりも顕著に減少した(
図12B、パネル2)。予測値対実際の値を、vFRIGHTモデル(
図12G)の訓練セットおよび試験セットおよびFRIGHTモデルについてプロットした(
図19G)。これらの結果を総合すると、自動化された映像には、手動のFI項目で扱われている以上に、老化に関するより正確な情報が含まれていることがわかる。映像の特徴はまた、手動FIでスコア化された健康障害と重複する老化の情報を提供する場合もある。
【0160】
これに対処するために、映像の特徴を使用する個々のFI項目を予測した(
図12A)。27項目のうち、多くはゼロからほぼゼロでないスコアを有していたが、これは、遺伝的に均質なデータセットにおいて、少なくとも手動FI中の情報の大部分が指数項目のサブセットに由来することを示す(
図19F)。予測には、バランスの取れた比率0~0.5および1のスコアを有する指数項目のみが選択された(
図12C)。次いで、分類器を9つの指数項目の各々に対して構築して、マウスの映像の特徴を与えられたスコアを予測した。個々のFI項目のスコアを、通常の弾力ネット回帰モデルを使用して予測した。全9つについて、スコアは、ランダムに推測することによって期待される値を超える精度で予測した(
図12C、点線は推測精度である)。これらのFI項目の多くは、グルーミング(例えば、毛並みの状態、脱毛症)、歩行/可動性(例えば、歩行障害、脊柱後弯症)、および体組成(例えば、腹部膨張、体の状態)などの映像の特徴と暗黙的な関係を有する。FRIGHTモデルでは、歩行障害、脊柱後弯症、および毛の逆立ちが、データセットにおける年齢予測に最も寄与し、続いて腹部の腫れや身体状態(
図19B)-映像の特徴がスコアを予測することができたすべての項目が続く(
図12C)。これらの結果は一緒に、老化およびフレイルに関する情報のほとんどが、手動FI項目の小さなサブセットから得られること、そして映像データを用いてこのサブセット内の情報を予測することができることを示している。さらに、老化は、手動のFI項目よりも映像データでより正確かつ正確に予測されたため、映像データは、老化のための追加の信号も含んでよい。
【0161】
次に、vFIの目標(
図4A、モデルvFI):映像データを用いた手動FIスコアの予測に取り組む。vFRIGHTモデリングと同様に、ランダムフォレスト回帰モデルは、最も低い平均絶対誤差(MAE)(p<2.1e
-15、F
3,147=30.53)、二乗平均平方根誤差(RMSE)(p<8:3e-
14、F
3,147=26.62)、および最も高いR2(p<4.7e
-14、F
3,147=27.2)を有する他のすべてのモデルよりも良好に、目に見えない将来のデータについてのFIスコアを予測した(
図12D、
図19E)。モデルは、実際のFIスコアの0.04±0.002以内のFIスコアを予測することができた(0.04~0.47の範囲が見出されたデータセットではFIスコアは、0~1の可能な範囲を有する)。この誤差は、FIの1項目が1点、または2項目が0.5点で誤ってスコア化されたようなもので、モデルの安定性を示している。残差を、モデルの訓練および試験セットについてプロットした(
図12F,12G、および19G)。訓練データから計算された残りは、それらの分布が両方のモデルについてほぼゼロに対称であり、ほとんどの残差が黒色の対角線の周りにあることを示す。試験セットの残差も、似たようなパターンになる。本明細書に記載の映像生成特徴は、自動フレイルスコアリングに首尾よく使用することができると結論付けられた。年齢は、r=0.81の手動FIスコアとの相関がいずれの映像の特徴よりも高い。したがって、特徴として年齢のみを有するモデルを使用する場合、より高い予測精度が得られる(
図21A)。映像の特徴および年齢(AllRF)の両方を使用するモデルは、年齢のみを有するモデルよりも特に良好であり、映像の特徴がフレイルに関する重要な情報を提供することを示している(
図21A)。特に、FIスコアが年齢群から逸脱したマウス、すなわち、フレイル度が高い若いマウスやフレイル度が低い高齢マウスに目を向けると、vFIモデル(VideoRF)は、年齢を使用したモデルよりも著しく良好に機能し、さらには映像の特徴+年齢(AllRF)を使用したモデルよりも良好に機能する(
図21B)。これは、年齢群の外れ値であるマウスについて、映像機能が年齢よりも良好な情報を提供することを示す。
【0162】
最後に、vFIおよびvFRIGHTを用いた高パフォーマンス予測のために、実際にどの程度の訓練データが必要であるかを見るために、総データの異なる割合を訓練に割り当てたシミュレーション試験を実施した(
図21E)。現在のデータセットの<80%の訓練セットは、類似の性能を達成したが、これを下回る訓練セットサイズの減少は、一般的な下向きのパフォーマンスの傾向を示すことがわかった。オープンフィールド試験は、時には1時間未満で実施されることがあるため、次に、映像を最初の5分および最初の20分に切り捨てて、長さが短い映像を使用して、vFI予測について精度の低下を調査した(
図21D)。60分間の動画に関連する特徴は、vFI予測に対して最高の精度「シミュレーション(simulation)」をランダム効果とするLMM、最低のMAE、F
2,98=178.39、p<2.2e
-16、最低のRMSE、F
2,98=156.93、p<2.2e
-16)、つまり 最高R2(p<2.2e
-16、F
2,98=297.3)を示した。オープンフィールド試験の長さが60分から20分の映像に短縮された場合、パフォーマンス精度の有意な低下が観察された(事後一対比較を伴うLMM-MAE、t
98=14.82、FDR調整p<0:0001、RMSE、t
98=13.69、FDR調整p<0:0001、R
2、t
98=-19:22、FDR調整p<0:0001)。実験に基づいて、60分間の映像生成特徴は、最も正確なvFI予測を提供するが、映像の80%であっても、予測の精度に実質的な喪失はないと結論付けられた。
【0163】
フレイル指数予測の不確実性を定量化する
平均精度を定量化することに加えて、誤差もデータセット内でより詳細に調査した。予測誤差は、ランダムフォレスト点予測を与えたのと同じデータに基づいて、未知の年齢および指定されたレベルの信頼度を有するFIスコアを含む、ある範囲の値をもたらす予測間隔(PI)を提供することによって定量化された〔ザングH.等、Am. スタティクス. 74, 392-406 (2020)]。ランダムフォレストベースの予測間隔を取得するための1つのアプローチは、前述したように、一般化されたランダムフォレストを使用して、特徴を与えられたFIの条件付き分布をモデル化することをであった[マインスハウゼンN.,ジャーナル・オブ・マシン・ラーニング・リサーチ、7, 983-999 (2006); アタイS.等、アナルス・オブ・スタティクス、47,1148-1178 (2019)]。試験セットの動物については、分位数に基づく一般化されたランダムフォレストを使用して、FIスコアの点予測(年齢応答)および予測間隔を提供する。これにより、95%の信頼度を有する未知のFIスコア(呼吸)を含む範囲のFI(年齢応答)値を得た。(
図12J-I)。すべての試験動物の予測FIスコアの平均PI幅は、5.72±1.49(応答予測年齢では80.29±16.8)、PIの長さは2.3~8.5(年齢については28~114回)の範囲であり、PIの幅が動物および年齢群特異的であったことを強調している。PIの幅を年齢に対して平滑化した回帰適合をプロットしたところ、動物の年齢とともに幅が増加することが示された(
図12G-H)。
図124G~
図124H(右パネル)に示される95%PI幅の変動性は、中年群に属する動物の変動性がより高いことを示した(M、ピンク)。単純な点予測を超えて、フレイル指数の予測間隔(PI)を提供して、予測の不確実性を定量化し、FIスコアおよび年齢を、他のものよりも高い精度で一部の動物についてピンポイントすることができるようにする。
【0164】
フレイルな動物および健康な動物の特徴の重要度
有用な視覚FI(vFI)は、動物の固有のフレイルを捉え、同時に解釈可能ないくつかの特徴に依存するべきである。2つのアプローチを使用して、訓練されたランダムフォレストモデル、(1)特徴の重要度、および(2)特徴相互作用強度を使用してvFI予測を行うのに重要な特徴を識別した。特徴の重要度は、ランダムフォレストモデルが、フォレストの異なる奥行きで特徴を使用する頻度を示す尺度である。重要度の値が高いほど、特徴がフォレストの最上位にあり、よって、予測モデルを構築するのに重要であることを示す。第二のアプローチでは、特徴が他の全てのモデル特徴とどの程度相互作用したかを示す、総相互作用尺度が導出された。
【0165】
vFIモデルおよびvFRIGHTモデルの特徴の重要度を比較(
図11A)してみると、モデルに対して最も重要な映像の特徴の多くは共通しているが、いくつか重要な差異を示している(
図21C)。例えば、ステップ幅IQRは、vFRIGHTよりもvFIに対してはるかに重要であり、先端-尾側横方向の変位(LD)IQRは、vFIよりもvFRIGHTに対してはるかに重要である。FIスコアの条件分布の3つの異なる分位をモデル化することによって、特徴の重要度のより完全に把握することができた。3つの分位角は、低フレイル(Q1)、中フレイル(M)、および高フレイル(Q3)マウスの3つのフレイル群を表す。異なるフレイル群に属するマウスには、異なる特徴のセットが重要であると仮定した。実際に、Q1およびQ3の両方の分位数に属するマウスにおいてステップ長1IQRは、重要であった(
図13A)。さらに、長さ、後肢の速度、dAC/dB(歩行以外)、およびステップ幅などの特徴は、フレイル度がより低いマウスにとって重要であり、ステップ長dBおよび後方数は、フレイル度が高い動物にとってより重要であった。同様に、ステップ幅、尾先端LD、および幅は、FIスコアがMに近いマウスにとって重要であった。
【0166】
特徴相互作用強度アプローチについては、H統計[フリードマンJ. H.等、アナルス・オブ・アプライド・スタティスティックス 2,916-954(2008)]を、個々の特徴を考慮した後に特徴相互作用によって説明される予測の変動率を測定した相互作用測定基準として使用した。例えば、予測機能のばらつきの15%は、尾先端LDおよび他の特徴による個々の寄与を考慮した後、尾先端LDと他の特徴との間の相互作用によって説明された。予測関数のばらつきの約13%および8%は、幅(それぞれのステップ長)と他の特徴との間の相互作用によって説明された。より深く分析するため、尾先端LDと他の特徴との間のすべての双方向相互作用を検査した(結果は示さず)。動物の幅、ストライド長、後肢、およびdBと、尾先端の間に強いLD相互作用があることがわかった。
【0167】
特徴の重要度および特徴の相互作用の強さの両方から、vFIについての訓練されたランダムフォレストが、いくつかの特徴およびそれらの相互作用に依存していることが示された。しかしながら、それらは、vFIがこれらの特徴にどのように依存するか、および相互作用がどのように見えるかを示すことはなかった。特徴がランダムフォレストモデルのvFI予測に平均してどのように影響したかを記述した蓄積局所効果(ALE)プロット[アプリーD. W.およびチューJ.ジャーナル・オブ・ロイヤル・スタティスティカル・ソサエティ シリーズB、スタティスティカル・メソドロジー82, 1059-1086 (2020)]を使用した。例えば、尾先端横方向の変位の増加は、中間および高フレイル群の動物の予測FIスコアにプラスの影響を与えた(増加)(
図13B)。同様に、後肢の測定値の増加は、予測にプラスの影響を与えた。この影響は、高フレイル群の動物に最も見られた。幅がより大きい動物は、予測にプラスの影響を与えた。つまり、ステップ幅およびdBが大きいほど、モデル予測にプラスの影響を与えた。したがって、重要な特徴についてのALEプロットから、最初の仮説に一致する明確な解釈を提供した。ALE二次相互作用効果プロットを、ステップ長さ1-ステップ幅(
図13D)および長さ-幅(
図13E)の予測因子について探索した。これにより、2つの特徴の追加的な相互作用効果が明らかになり、主要な特徴のわずかな効果は含まないことが明らかになった。
図13Dは、ステップ幅とステップ長さとの間の相互作用を明らかに表したものである。つまり、ステップ幅とステップ長さが大きいほど、予測FIスコアが増加している。同様に、幅(36~44cm)および長さ(52~60cm)が大きいほど、平均FIスコア予測にプラスの影響を与えた。
【0168】
要約すると、わずかな特徴の重要度および特徴相互作用を通して、いくつかの特徴への依存を実証することによってvFIの有用性が確立された。次に、ALEプロットを使用して、モデル予測に対する特徴の影響を理解した。これは、ブラックボックスモデルの予測を映像生成特徴の一部に関連付けるのに役立った。ブラックボックスモデルを開くことは、モデリングフレームワークの不可欠な最終ステップであった。
【0169】
考察
マウスFIは、生物学的老化の研究において貴重なツールである。本明細書に記載の研究は、FIスコアをモデル化するために映像で生成された特徴を用いて自動視覚的フレイル指数(vFI)を生成することによって、それを拡張しようとするものである。このvFIは、老化を研究するための、信頼性の高い、ハイスループットな方法を提供した。マウスにとって最大のフレイルデータセットの1つは、関連付けられたオープンフィールド映像データで生成された。コンピュータビジョン技術を使用して、行動および形態学的特徴を抽出し、その多くは、老化およびフレイルとの強い相関を示した。マウスにおける性特有の老化も分析した。次いで、映像の特徴からのフレイルを正確に予測することができる機械学習分類器を訓練した。モデリングを通して、年齢およびフレイル状態全体の特徴の重要度に関する洞察も得られた。
【0170】
データは、数年間にわたって実施され得るハイスループット介入研究で得られるものと同様の設計の国立老化センターで収集された。都合がつく熟練のスコア記録者によってマウスの試験を行った。マウスの異なるバッチをFI試験するために、四人の異なるスコア記録者を使用した。さらに、バッチ間で人員を交代した。これらの条件は、議論や微調整が困難な実験室間の条件として、より現実的な例を提供しているかもしれない。データセットのばらつきの42%が、スコア記録者によって説明できることが判明し、テスタ効果の存在が示された。このばらつきは、他の品目よりも毛の逆立ちなどの一部の品目に影響した。テスタ効果を検討した過去の研究では、ほとんどの場合、テスタ間の相互信頼性が良好から高いことがわかったが、相互信頼性が低いFI品目は、改善のための議論および微調整を必要とした[ケーンA. E.、アヤズO.、ギミレ、A.、フェリドーニH. A.およびハウレットS. E.、カナディアン・ジャーナル・オブ・フィジオロジー・アンドフアーマコロジー(2017)]。
【0171】
オープンフィールド内のマウスのトップダウン映像を、以前に訓練されたニューラルネットワークによって処理して、マウスの楕円適合およびセグメンテーション、ならびに各フレームに対するマウス上の12箇所の顕著な点の姿勢推定を生成した。これらのフレームごとの指標を使用して、モデルで使用する特徴を設計した。特徴の第一のカテゴリーは、周辺対中心で費やした時間、移動した総距離、およびグルーミング行動の数などの標準的なオープンフィールドメトリクスであった。これらの標準的なオープンフィールドメトリクスは、FIスコアおよび年齢の両方との相関性が低かった。これらの結果は、標準的なオープンフィールドアッセイが、老化の研究には不十分であることを示唆した。
【0172】
ヒトでは、老化に関連する体組成の変化、およびウエスト-ヒップ比などの人体寸法の指標は、健康状態および死亡リスクの予測因子となる[ミズラヒ・レーラーE.,セペダ・バレリーB.およびロメロ・コラルのハンドブック・オブ・アンスロポメトリー、健康と疾患におけるヒトの形の物理的指標(2021)、パパスL. E.およびティムR, N.,ヨーロピアン・ジャーナル・オブ・クリニカル・ニュートリション(2019); ジェルベーM.、メッツL.、リンゴットE.およびクールテックスD.,健康と疾患における脂質(2010)]。齧歯類モデルにおける体組成に対する老化の効果はあまり確立されていないが、ヒトと同様の体組成の変化が観察されている[ミズラヒ・レーラーE.,セペダ・バレリーB.およびロメロ・コラルのハンドブック・オブ・アンスロポメトリー、健康と疾患におけるヒトの形の物理的指標(2021)、ジェルベーM.、メッツL.、リンゴットE.およびクールテックスD.,健康と疾患における脂質(2010)]。形態学的特徴と、FIスコアと年齢の両方、特に内側幅および内側後肢幅との間に高い相関が見られる。
【0173】
歩行障害の有病率は、年齢と共に増加する[ゾウ等、サイエンティフィック・レポート(2020)]。高齢患者は、歩行の不規則性を有することが示されている。例えば、高齢の成人は、ステップ幅のばらつきが増加した[タランティーニS.等、ジャーナル・オブ・ジェロントロジー:シリーズA (2018)]。各マウスの歩行の空間的、時間的、および姿勢的特徴を調べ、フレイルおよび年齢の両方と強い相関関係を有する多くの特徴を発見した。ヒトデータに類似して、年齢と共にストライド速度の低下が観察され、ステップ幅の変動性が増加した[タランティーニS.等、ジャーナル・オブ・ジェロントロジー:シリーズA (2018)]。歩行は、認知的構成要素と筋骨格構成要素の両方を有すると考えられるため、フレイルな研究のためには説得力のある領域である。
【0174】
ヒトにおける脊椎可動性は、高齢集団における生活の質の予測因子であり、マウスは、老化したヒト脊椎のモデルとして使用される。驚くべきことに、一部の脊椎屈曲メトリクスは、FIスコアと中程度に高い相関を示したが、関係は、最初に立てた仮説とは逆であった。これらのメトリクスは、実験中の脊椎のすべての活動の一般的な説明であるため、観察された結果をもたらした行動と体組成の組み合わせを捉えたものである可能性が高い。それにもかかわらず、これらのメトリクスの一部は、FIスコアおよび年齢と中程度に高い相関を示し、モデルにおいて重要な特徴とみなされた。
【0175】
年齢に関連する生化学的および生理学的変化の多くは、性別特有であることが知られている。マウスにおけるフレイルの提示および進行における性差を理解することは、臨床使用のための前臨床結果を変換するために重要である。ホルモンおよび体脂肪分布などの性的特徴が生物学的老化にどのように関連するかを理解するのは興味深いことである。ヒトでは、メスがよりフレイルになる傾向があるが、パラドックス的により長く生存する、公知の「死亡率と罹患率のパラドックス」または「性とフレイルのパラドックス」が存在する。しかしながら、C57BL/6Jマウスでは、オスはメスよりもわずかに長く生存する傾向があると思われるが、ばらつきがあり、メスは、フレイル時にパラドックス的に長く生存することはないようである。本明細書に記載の研究では、メスよりも高齢まで生存するオスが多く、さらに、メスは同年齢群のオスよりもフレイルな分布がわずかに低い傾向があることがわかった。これらの結果は、マウスにおいて、ヒトに示される「性とフレイルパラドックス」が存在しない可能性がある、または逆転する可能性があることを示唆している。年齢に対するFI指数項目の、オスとメスの間での相関を比較し、一部、性差によって指数項目の一部、主に視覚的毛皮変化に関連する指数項目において相関強度に差が見られた。映像の特徴の相関を年齢およびオスとメスとの間のFIスコアと比較すると、多くの桁違いな相関も見出された。尾の付け根の横方向の変位の中央値および尾先端の横方向の変位の中央値は、共に、オスよりもメスの年齢とはるかに強く相関した。メスのマウスが老化するにつれて、ストライド内の尾の横方向の変位は増加する傾向があったが、オスはほぼ変化を示さなかった。一方、オスは、年齢と共にストライド長の大幅な短縮およびステップ長の大幅な増加を示したが、メスは変化がほとんどなかった。差が大きい映像の特徴のほとんどは歩行関連であり、いくつかは脊椎の屈曲に関連していた。これらの歩行の年齢差は、新しい洞察であった。ヒトのフレイルとマウスのフレイルの違いを理解することは、マウス研究からの結果をどのようにヒトに変換できるかを批判的に評価するために重要である。
【0176】
手動FIは、vFIよりも広範な身体システムを評価する。しかしながら、本明細書で測定および記載される複雑な行動には、身体システムに関する暗黙的な情報が多く含まれる。等原性データセットでは、手動FIのほとんどの情報は、指数項目の限定されたサブセットから得たものである。スコア化された27個の手動FI項目のうち、18個の項目が、我々のデータセットにおいてスコアにほとんどまたは全く変化がなく(ほぼすべてのマウスが同じスコアを有している、すなわち、0)、9個の項目のみがバランスの取れたスコア分布を有していた。映像機能は、これらの9個のFI項目を正確に予測することができる。映像の特徴を使用するモデルはまた、手動FI項目を使用するモデルよりもばらつきがはるかに少なく、より正確に年齢を予測した(FRIGHT対vFRIGHT)。これは、本明細書に記載の映像の特徴が、関連するFI項目を予測することができるだけでなく、従来の手動FIを超えた老化に関する信号も含むことを示唆している。さらに、FI項目と比較した特徴の測定値の詳細(簡略化されたスコア0、0.5、または1ではなく実際の値を使用する)は、より高いパフォーマンスに貢献する可能性がある。
【0177】
最後に、映像の特徴をランダムフォレストモデルへの入力として使用して、手動FIスコアを、平均で実際のスコアの0.04±0.002以内に予測した。正規化されていないが、この誤差は1.08±0.05であり、これは、1ポイントだけ誤ってスコア化されている1つのFI品目、または0.5ポイントだけ誤ってスコア化されている2つのFI品目に匹敵する。さらに、95%の予測間隔を提供することによる単純な点予測を決定した。FIスコアの条件付き分布の低分位および高分位に、分位数ランダムフォレストを適用し、特定の特徴がフレイルな動物および健康な動物にどのように異なる影響を与えたかを明らかにした。
【0178】
非コンピュータ実験室による機械学習モデルの使用の容易さは、重要な課題である。したがって、方法セクションの実装の詳細に加えて、追跡、姿勢推定、特徴生成、および自動行動分析を提供する、統合マウス表現型解析プラットフォーム、すなわちハードウェアとソフトウェアのソリューションについては[ビーンG.等、bioRxiv (2022)]に詳述している。このプラットフォームは、特定のオープンフィールド装置を必要とするが、研究者は、独自のオープンフィールドデータ収集装置を使用して本明細書に記載のモデルと同じ特徴を生成する場合、機械学習モデルを使用することができる。利用可能なソフトウェアを使用して追跡および姿勢推定を可能にするセットアップにより、研究者は、機械学習モデルを使用するために必要な特徴を計算することができる。
【0179】
vFIは、既存のデータの再分析およびデータ取得に対する将来の技術的改善を通して、新しい特徴を追加することでさらに改善され得る[ペレイラT. D.,シェービッツJ. W.およびマーシーM.ネイチャー・ニューロサイエンス(2020); マティアスA.ニューロン(2020)]。例えば、排便および排尿の定量化は、追加のシステムに関する情報を提供することができ、一方で、カメラ品質が高ければ高いほど、微細な運動ベースの行動および毛並みの状態などの外観ベースの特徴に関する詳細な情報を提供することができる。さらに、このアプローチは、長期の家庭用ケージ環境で使用されてもよい。これは、ハンドリングや環境因子をさらに軽減するだけでなく、社会的相互作用、摂食、摂飲、睡眠などの特徴が統合される可能性もある。さらに、老化に対する強い遺伝的要素のエビデンスがあることから、[シンP. P.、デミットB. A.、ナスR. D.およびブルネA.、セル(2019)]他の系統およびダイバーシティ・アウトクロスおよびコラボラティブ・クロスなどの遺伝的に不均一な集団にこの方法を適用すると、遺伝的変異がフレイルにどのように影響するかが明らかになるかもしれない。さらに、死亡リスクを予測することは、フレイルの重要な機能であるため、映像の特徴を使用して寿命を研究することができる。この研究の価値は、コミュニティの採用に留まらず、コミュニティの関与に向けられる可能性がある。複数のラボからのデータの訓練は、さらに安定した正確なモデルを提供することができる。これにより、複数の研究に亘って均一なFIが提供され得る。全体として、このアプローチは、マウスのフレイルに関して新しい洞察を生み、マウス行動の映像データを使用して、フレイルなどの抽象的概念を定量化することができることを示している。自動フレイル指数により、ハイスループットで信頼性の高い老化研究、特に老化リサーチコミュニティの優先事項である介入研究が可能になる。
【0180】
等価物
本発明のいくつかの実施形態が本明細書に説明および図示されているが、当業者であれば、機能を実施するための、ならびに/あるいは、本明細書で説明する結果および/または1つまたは複数の利点を取得するための、様々な他の手段および/または構造を容易に思い描くことができ、このような変形および/または修正のそれぞれは、本発明の範囲内であると見なされる。より一般的には、当業者であれば、本明細書で説明するすべてのパラメータ、寸法、材料、および構成が、例示的であることを意味していることは、また、実際のパラメータ、寸法、材料、および/または構成が、本発明の教示が使用される特定の1つまたは複数の用途に依存することは、容易に理解されよう。当業者であれば、本明細書で説明する本発明の特定の実施形態に対する多くの等価物を理解されよう、あるいは、それら等価物を、日常的な実験のみを使用して確認し得るであろう。したがって、前述の実施形態が、例示のみによって提示されていることは、理解されよう、また、添付の特許請求の範囲内においておよびその等価物の範囲内において、本発明が、具体的に記載されて特許請求の範囲に記載されているもの以外の方法で実施され得ることは、理解されよう。本発明は、本明細書で説明する個々の、特徴、システム、物品、材料、および/または方法、を対象とする。加えて、そのような特徴、システム、物品、材料、および/または方法が相互に矛盾しない場合には、2つ以上のそのような特徴、システム、物品、材料、および/または方法に関する任意の組合せは、本発明の範囲内に含まれる。本明細書で定義して使用されるすべての定義が、辞書の定義、参照により援用される文書における定義、および/または、定義された用語に関する通常的な意味合いを統制することは、理解されよう。
【0181】
本明細書および特許請求の範囲において本明細書で使用された際には、不定冠詞「A」および「An」が、明確に反対の趣旨が示されていない限り、「少なくとも1つの」を意味することは、理解されよう。本明細書および特許請求の範囲において本明細書で使用された際には、「および/または」という語句が、そのように結合される要素の「いずれかまたは両方」を、すなわち、一部の事例では結合的に存在しており他の事例には分離的に存在している要素の「いずれかまたは両方」を、意味することは、理解されよう。明示的にこれと異なることが示される場合を除き、具体的に識別された要素と関連しているかまたは無関係であるかに関わらず、他の要素は、任意選択的に、「および/または」という語句によって具体的に識別された要素以外に存在してもよい。
【0182】
本明細書で使用される、とりわけ「can」、「could」、「might」、「may」、「e.g.,」、および同種のものなどの、条件付き文言は、特に別段の記載がない限りまたは使用される文脈内で別途に理解されない限り、特定の実施形態が、特定の特徴、要素および/またはステップを含む一方で、他の実施形態はそれらを含まないことを伝えることが概して意図されている。よって、このような条件付き文言は、特徴、要素、および/またはステップが1つまたは複数の実施形態に関して何らかの態様で必要とされること、あるいは、1つまたは複数の実施形態が、他の入力または促しの有無にかかわらずこれらの特徴、要素、および/またはステップが任意の特定の実施形態に含まれるかあるいは任意の特定の実施形態の中で実行されるかどうかを決定するための論理を必ず含むことを意味することを、一般的に意図するものではない。「含む(comprising)」、「含む(including)」、「有する(having)」および同種の用語は、同義であり、包括的に、オープンエンドの様式で使用され、追加の要素、特徴、行為、操作、および同種のものを排除するものではない。また、用語「または(or)」は、その包括的意味において使用される(かつ排他的意味ではない)ため、例えば、要素のリストを接続するために、用語「または(or)」は、リスト中の要素の1つ、一部、または全てを意味する。
【0183】
本出願において引用または言及される全ての参考文献、特許、および特許出願ならびに刊行物は、その全体が参照により本明細書に組み込まれる。
【国際調査報告】