(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公表特許公報(A)
(11)【公表番号】
(43)【公表日】2024-08-22
(54)【発明の名称】睡眠状態の視覚的決定
(51)【国際特許分類】
A61B 5/16 20060101AFI20240815BHJP
G06T 7/00 20170101ALI20240815BHJP
G06V 10/82 20220101ALI20240815BHJP
G06T 7/246 20170101ALI20240815BHJP
A01K 29/00 20060101ALI20240815BHJP
【FI】
A61B5/16 130
G06T7/00 350C
G06V10/82
G06T7/246
A01K29/00 A
【審査請求】未請求
【予備審査請求】未請求
(21)【出願番号】P 2023580368
(86)(22)【出願日】2022-06-27
(85)【翻訳文提出日】2024-01-19
(86)【国際出願番号】 US2022035112
(87)【国際公開番号】W WO2023278319
(87)【国際公開日】2023-01-05
(32)【優先日】2021-06-27
(33)【優先権主張国・地域又は機関】US
(81)【指定国・地域】
【公序良俗違反の表示】
(特許庁注:以下のものは登録商標)
(71)【出願人】
【識別番号】398066918
【氏名又は名称】ザ ジャクソン ラボラトリー
【氏名又は名称原語表記】THE JACKSON LABORATORY
(71)【出願人】
【識別番号】500429103
【氏名又は名称】ザ トラスティーズ オブ ザ ユニバーシティ オブ ペンシルバニア
(74)【代理人】
【識別番号】100118902
【氏名又は名称】山本 修
(74)【代理人】
【識別番号】100106208
【氏名又は名称】宮前 徹
(74)【代理人】
【識別番号】100196508
【氏名又は名称】松尾 淳一
(72)【発明者】
【氏名】クマール,ビベック
(72)【発明者】
【氏名】パック,アラン・アイ
(72)【発明者】
【氏名】ゴイター,ブライアン
(72)【発明者】
【氏名】ジョージ,ジョシー
(72)【発明者】
【氏名】チェン,マンディ
【テーマコード(参考)】
4C038
5L096
【Fターム(参考)】
4C038PP05
4C038PS07
5L096AA02
5L096AA06
5L096BA06
5L096CA02
5L096FA04
5L096FA23
5L096FA55
5L096FA69
5L096GA10
5L096HA05
5L096HA11
5L096JA11
5L096KA04
(57)【要約】
本明細書に記載のシステムおよび方法は、対象の映像データを処理することによって睡眠状態データを決定するための技術を提供する。システムおよび方法は、映像データから複数の特徴を決定してもよく、複数の特徴を使用して、対象の睡眠状態データを決定してもよい。一部の実施形態では、睡眠状態データは、複数の特徴に対応する周波数領域特徴および/または時間領域特徴に基づいてもよい。
【選択図】
図1
【特許請求の範囲】
【請求項1】
コンピュータ実装方法であって、
対象の映像を表す映像データを受信することと、
前記映像データを使用して、前記対象に対応する複数の特徴を決定することと、
前記複数の特徴を使用して、前記対象についての睡眠状態データを決定することと、を含む、コンピュータ実装方法。
【請求項2】
機械学習モデルを使用して、前記映像データを処理して、前記対象に対応するピクセルの第一のセットおよび背景に対応するピクセルの第二のセットを示すセグメンテーションデータを決定することをさらに含む、請求項1に記載のコンピュータ実装方法。
【請求項3】
前記セグメンテーションデータを処理して、前記対象に対応する楕円適合データを決定することをさらに含む、請求項2に記載のコンピュータ実装方法。
【請求項4】
前記複数の特徴を決定することが、前記セグメンテーションデータを処理して、前記複数の特徴を決定することを含む、請求項2に記載のコンピュータ実装方法。
【請求項5】
前記複数の特徴が、前記映像データの各映像フレームに対する複数の視覚的特徴を含む、請求項1に記載のコンピュータ実装方法。
【請求項6】
前記複数の視覚的特徴の各視覚的特徴に対して時間領域特徴を決定することをさらに含み、
前記複数の特徴が、前記時間領域特徴を含む、請求項5に記載のコンピュータ実装方法。
【請求項7】
前記時間領域特徴を決定することが、尖度データ、平均データ、中央値データ、標準偏差データ、最大データ、および最小データのうちの1つを決定することを含む、請求項6に記載のコンピュータ実装方法。
【請求項8】
前記複数の視覚的特徴の各視覚的特徴に対して周波数領域特徴を決定することをさらに含み、
前記複数の特徴が、前記周波数領域特徴を含む、請求項5に記載のコンピュータ実装方法。
【請求項9】
前記周波数領域特徴を決定することが、パワースペクトル密度の尖度、パワースペクトル密度の歪度、平均パワースペクトル密度、合計パワースペクトル密度、パワースペクトル密度の最大データ、最小データ、平均データ、および標準偏差のうちの1つを決定することを含む、請求項8に記載のコンピュータ実装方法。
【請求項10】
前記複数の特徴の各々について時間領域特徴を決定することと、
前記複数の特徴の各々について周波数領域特徴を決定することと、
機械学習分類器を使用して、前記時間領域特徴および前記周波数領域特徴を処理して、前記睡眠状態データを決定することと、をさらに含む、請求項1に記載のコンピュータ実装方法。
【請求項11】
機械学習分類器を使用して、前記複数の特徴を処理して、前記映像データの映像フレームに対する睡眠状態を決定することを含み、前記睡眠状態が、覚醒状態、レム睡眠状態、およびノンレム睡眠状態のうちの1つである、請求項1に記載のコンピュータ実装方法。
【請求項12】
前記睡眠状態データが、睡眠状態の持続時間、覚醒状態、レム状態、およびノンレム状態のうちの1つまたは複数の持続時間および/または周波数間隔のうちの1つまたは複数、ならびに1つまたは複数の睡眠状態の変化を示す、請求項1に記載のコンピュータ実装方法。
【請求項13】
前記複数の特徴を使用して、前記対象の複数の身体領域を決定することであって、前記複数の身体領域の各身体領域が、前記映像データの映像フレームに対応する、決定することと、
前記映像中の前記複数の身体領域の変化に基づいて、前記睡眠状態データを決定することと、をさらに含む、請求項1に記載のコンピュータ実装方法。
【請求項14】
前記複数の特徴を使用して、複数の幅長比を決定することであって、前記複数の幅長比の各幅長比が、前記映像データの映像フレームに対応する、決定することと、
前記映像中の前記複数の幅長比の変化に基づいて、前記睡眠状態データを決定することと、をさらに含む、請求項1に記載のコンピュータ実装方法。
【請求項15】
前記睡眠状態データを決定することが、
前記対象の身体領域または体形の変化に基づいて、ノンレム状態からレム状態への移行を検出することを含み、前記身体領域または体形の前記変化が、筋脱力の結果である、請求項1に記載のコンピュータ実装方法。
【請求項16】
前記対象について複数の幅長比を決定することであって、前記複数の幅長比の幅長比が、前記映像データの映像フレームに対応する、決定することと、
前記複数の幅長比を使用して、時間領域特徴を決定することと、
前記複数の幅長比を使用して、周波数領域特徴を決定することであって、前記時間領域特徴および前記周波数領域特徴が、前記対象の腹部の動きを表す、決定することと、
前記時間領域特徴および前記周波数領域特徴を使用して、前記睡眠状態データを決定することと、をさらに含む、請求項1に記載のコンピュータ実装方法。
【請求項17】
前記映像が、前記対象の自然な状態において前記対象を捕捉する、請求項1に記載のコンピュータ実装方法。
【請求項18】
前記対象の自然な状態が、前記対象内または対象上に侵襲的検出手段がないことを含む、請求項17に記載のコンピュータ実装方法。
【請求項19】
前記侵襲的検出手段が、前記対象に取り付けられた電極および前記対象に挿入された電極のうちの一方または両方を含む、請求項18に記載のコンピュータ実装方法。
【請求項20】
前記映像が高解像度映像である、請求項1に記載のコンピュータ実装方法。
【請求項21】
機械学習分類器を使用して、前記複数の特徴を処理して、前記映像データの1つの映像フレーム各々について複数の睡眠状態予測を決定することと、
移行モデルを使用して、前記複数の睡眠状態予測を処理して、第一の睡眠状態と第二の睡眠状態の間の移行を決定することと、をさらに含む、請求項1に記載のコンピュータ実装方法。
【請求項22】
前記移行モデルが、隠れマルコフモデルである、請求項21に記載のコンピュータ実装方法。
【請求項23】
前記映像が、少なくとも第一の対象および第二の対象を含む2つ以上の対象の映像であり、前記方法が、
前記映像データを処理して、前記第一の対象に対応するピクセルの第一のセットを示す第一のセグメンテーションデータを決定することと、
前記映像データを処理して、前記第二の対象に対応するピクセルの第二のセットを示す第二のセグメンテーションデータを決定することと、
前記第一のセグメンテーションデータを使用して、前記第一の対象に対応する第一の複数の特徴を決定することと、
前記第一の複数の特徴を使用して、前記第一の対象についての第一の睡眠状態データを決定することと、
前記第二のセグメンテーションデータを使用して、前記第二の対象に対応する第二の複数の特徴を決定することと、
前記第二の複数の特徴を使用して、前記第二の対象についての第二の睡眠データを決定することと、をさらに含む、請求項1に記載のコンピュータ実装方法。
【請求項24】
前記対象が齧歯類であり、任意選択的にマウスである、請求項1に記載のコンピュータ実装方法。
【請求項25】
前記対象が遺伝子操作された対象である、請求項1に記載のコンピュータ実装方法。
【請求項26】
対象の睡眠状態を決定する方法であって、前記対象の応答を監視することを含み、前記監視することの手段が、請求項1に記載のコンピュータ実装方法を含む、方法。
【請求項27】
前記睡眠状態が、睡眠の段階、睡眠間隔の期間、睡眠段階の変化、および非睡眠間隔の期間のうちの1つまたは複数を含む、請求項26に記載の方法。
【請求項28】
前記対象が、睡眠障害または病態を有する、請求項26に記載の方法。
【請求項29】
前記睡眠障害または病態が、睡眠時無呼吸、不眠症、およびナルコレプシーのうちの1つまたは複数を含む、請求項28に記載の方法。
【請求項30】
前記睡眠障害または病態が、脳損傷、うつ病、精神疾患、神経変性疾患、レストレスレッグ症候群、アルツハイマー病、パーキンソン病、肥満、過体重、投与された薬物の作用、および/またはアルコール摂取の作用、睡眠状態を変化させることができる神経学的状態、または睡眠状態を変化させることができる代謝障害もしくは病態の結果である、請求項29に記載の方法。
【請求項31】
前記映像データの前記受信前に、治療薬を前記対象に投与することをさらに含む、請求項26に記載の方法。
【請求項32】
前記治療薬が、睡眠促進剤、睡眠阻害剤、および前記対象の1つまたは複数の睡眠段階を変化させることができる薬剤のうちの1つまたは複数を含む、請求項31に記載の方法。
【請求項33】
前記対象が遺伝子操作された対象である、請求項26に記載の方法。
【請求項34】
前記対象が齧歯類であり、任意選択的にマウスである、請求項26に記載の方法。
【請求項35】
前記マウスが遺伝子操作されたマウスである、請求項34に記載の方法。
【請求項36】
前記対象が、睡眠病態の動物モデルである、請求項26に記載の方法。
【請求項37】
前記対象について前記決定された睡眠状態データが、対照睡眠状態データと比較される、請求項26に記載の方法。
【請求項38】
前記対照睡眠状態データが、前記コンピュータ実装方法で決定された対照対象からの睡眠状態データである、請求項37に記載の方法。
【請求項39】
前記対照対象が、前記対象の睡眠障害または病態を有しない、請求項38に記載の方法。
【請求項40】
前記対照対象が、前記対象に投与される治療薬を投与されない、請求項38に記載の方法。
【請求項41】
前記対照対象が、前記対象に投与される前記治療薬の用量とは異なる前記治療薬の用量を投与される、請求項38に記載の方法。
【請求項42】
対象における睡眠障害または病態を治療するための候補治療薬の有効性を識別するための方法であって、
試験対象に前記候補治療薬を投与することと、
前記試験対象についての睡眠状態データを決定することと、を含み、前記決定の手段が、請求項1に記載のコンピュータ実装方法を含み、前記試験対象における前記睡眠状態データの変化を示す決定が、前記対象における前記睡眠障害または病態に対する前記候補治療薬の効果を識別する、方法。
【請求項43】
前記睡眠状態データが、睡眠の段階、睡眠間隔の期間、睡眠段階の変化、および非睡眠間隔の期間のうちの1つまたは複数のデータを含む、請求項42に記載の方法。
【請求項44】
前記試験対象が、睡眠障害または病態を有する、請求項42に記載の方法。
【請求項45】
前記睡眠障害または病態が、睡眠時無呼吸、不眠症、およびナルコレプシーのうちの1つまたは複数を含む、請求項44に記載の方法。
【請求項46】
前記睡眠障害または病態が、脳損傷、うつ病、精神疾患、神経変性疾患、レストレスレッグ症候群、アルツハイマー病、パーキンソン病、肥満、過体重、投与された薬物の作用、および/またはアルコール摂取の作用、睡眠状態を変化させることができる神経学的状態、または睡眠状態を変化させることができる代謝障害もしくは病態の結果である、請求項45に記載の方法。
【請求項47】
前記候補治療薬が、前記映像データの前記受信前または受信中のうちの1つまたは複数において、前記試験対象に投与される、請求項42に記載の方法。
【請求項48】
前記候補治療薬が、睡眠促進剤、睡眠阻害剤、および前記試験対象の1つまたは複数の睡眠段階を変化させることができる薬剤のうちの1つまたは複数を含む、請求項47に記載の方法。
【請求項49】
前記試験対象が遺伝子操作された対象である、請求項42に記載の方法。
【請求項50】
前記試験対象が齧歯類であり、任意選択的にマウスである、請求項42に記載の方法。
【請求項51】
前記マウスが遺伝子操作されたマウスである、請求項50に記載の方法。
【請求項52】
前記試験対象が、睡眠病態の動物モデルである、請求項42に記載の方法。
【請求項53】
前記試験対象について前記決定された睡眠状態データが、対照睡眠状態データと比較される、請求項42に記載の方法。
【請求項54】
前記対照睡眠状態データが、前記コンピュータ実装方法で決定された対照対象からの睡眠状態データである、請求項53に記載の方法。
【請求項55】
前記対照対象が、前記試験対象の前記睡眠障害または病態を有しない、請求項54に記載の方法。
【請求項56】
前記対照対象が、前記試験対象に投与される前記候補治療薬を投与されない、請求項54に記載の方法。
【請求項57】
前記対照対象が、前記試験対象に投与される前記候補治療薬の用量とは異なる前記候補治療薬の用量を投与される、請求項54に記載の方法。
【請求項58】
システムであって、
少なくとも1つのプロセッサと、
命令を含む少なくとも1つのメモリであって、前記少なくとも1つのプロセッサによって実行される時に、前記システムに、
対象の映像を表す映像データを受信させる、
前記映像データを使用して、前記対象に対応する複数の特徴を決定させる、
前記複数の特徴を使用して、前記対象についての睡眠状態データを決定させる、命令を含む少なくとも1つのメモリと、を備えるシステム。
【請求項59】
前記少なくとも1つのメモリが、前記少なくとも1つのプロセッサによって実行される時に、前記システムに、
機械学習モデルを使用して、前記映像データを処理して、前記対象に対応するピクセルの第一のセットおよび背景に対応するピクセルの第二のセットを示すセグメンテーションデータを決定させるさらなる命令を含む、請求項58に記載のシステム。
【請求項60】
前記少なくとも1つのメモリが、前記少なくとも1つのプロセッサによって実行される時に、前記システムに、
前記セグメンテーションデータを処理して、前記対象に対応する楕円適合データを決定させるさらなる命令を含む、請求項59に記載のシステム。
【請求項61】
前記システムに前記複数の特徴を決定させる前記命令が、さらに前記システムに、前記セグメンテーションデータを処理して前記複数の特徴を決定させる、請求項59に記載のシステム。
【請求項62】
前記複数の特徴が、前記映像データの各映像フレームに対して複数の視覚的特徴を含む、請求項58に記載のシステム。
【請求項63】
前記少なくとも1つのプロセッサによって実行される時に、前記システムに、
前記複数の視覚的特徴の各視覚的特徴に対して時間領域特徴を決定させるさらなる命令を、前記少なくとも1つのメモリが含み、
前記複数の特徴が、前記時間領域特徴を含む、請求項5に記載のコンピュータ実装方法。
【請求項64】
前記システムに前記時間領域特徴を決定させる前記命令が、尖度データ、平均データ、中央値データ、標準偏差データ、最大データ、および最小データのうちの1つを決定することを含む、請求項63に記載のシステム。
【請求項65】
前記少なくとも1つのプロセッサによって実行される時に、前記システムに、
前記複数の視覚的特徴の各視覚的特徴に対して周波数領域特徴を決定させるさらなる命令を、前記少なくとも1つのメモリが含み、
前記複数の特徴が、前記周波数領域特徴を含む、請求項62に記載のコンピュータ実装方法。
【請求項66】
前記システムに前記周波数領域特徴を決定させる前記命令が、さらに前記システムに、パワースペクトル密度の尖度、パワースペクトル密度の歪度、平均パワースペクトル密度、合計パワースペクトル密度、パワースペクトル密度の最大データ、最小データ、平均データ、および標準偏差のうちの1つを決定させる、請求項65に記載のシステム。
【請求項67】
前記少なくとも1つのメモリが、前記少なくとも1つのプロセッサによって実行される時に、前記システムに、
前記複数の特徴の各々について時間領域特徴を決定させる、
前記複数の特徴の各々について周波数領域特徴を決定させる、
機械学習分類器を使用して、前記時間領域特徴および前記周波数領域特徴を処理して、前記睡眠状態データを決定させるさらなる命令を含む、請求項58に記載のシステム。
【請求項68】
前記少なくとも1つのプロセッサによって実行される時に、前記システムに、
機械学習分類器を使用して、前記複数の特徴を処理して、前記映像データの映像フレームに対する睡眠状態を決定させるさらなる命令を、前記少なくとも1つのメモリが含み、前記睡眠状態が、覚醒状態、レム睡眠状態、およびノンレム睡眠状態のうちの1つである、請求項58に記載のシステム。
【請求項69】
前記睡眠状態データが、睡眠状態の持続時間、覚醒状態、レム状態、およびノンレム状態のうちの1つまたは複数の持続時間および/または周波数間隔のうちの1つまたは複数、ならびに1つまたは複数の睡眠状態の変化を示す、請求項58に記載のコンピュータ実装方法。
【請求項70】
前記少なくとも1つのメモリが、前記少なくとも1つのプロセッサによって実行される時に、前記システムに、
前記複数の特徴を使用して、前記対象の複数の身体領域を決定させて、前記複数の身体領域の各身体領域が、前記映像データの映像フレームに対応する、
前記映像中の前記複数の身体領域の変化に基づいて、前記睡眠状態データを決定させる、さらなる命令を含む、請求項58に記載のシステム。
【請求項71】
前記少なくとも1つのプロセッサによって実行される時に、前記システムに、
前記複数の特徴を使用して、複数の幅長比を決定させて、前記複数の幅長比の各幅長比が、前記映像データの映像フレームに対応する、
前記映像中の前記複数の幅長比の変化に基づいて、前記睡眠状態データを決定させる、さらなる命令を含む、請求項58に記載のシステム。
【請求項72】
前記システムに、前記睡眠状態データを決定させる前記命令が、さらに前記システムに、
前記対象の身体領域または体形の変化に基づいて、ノンレム状態からレム状態への移行を検出させて、前記身体領域または体形の前記変化が、筋脱力の結果である、請求項58に記載のシステム。
【請求項73】
前記少なくとも1つのメモリが、
前記少なくとも1つのプロセッサによって実行される時に、前記システムに、
前記対象について複数の幅長比を決定させて、前記複数の幅長比の幅長比が、前記映像データの映像フレームに対応する、
前記複数の幅長比を使用して、時間領域特徴を決定させる、
前記複数の幅長比を使用して、周波数領域特徴を決定させて、
前記時間領域特徴および前記周波数領域特徴が、前記対象の腹部の動きを表す、決定することと、
時間領域特徴および周波数領域特徴を使用して、睡眠状態データを決定させる、さらなる命令を含む、請求項58に記載のシステム。
【請求項74】
前記映像が、前記対象の自然な状態において前記対象を捕捉する、請求項58に記載のシステム。
【請求項75】
前記対象の自然な状態が、前記対象内または対象上に侵襲的検出手段がないことを含む、請求項74に記載のシステム。
【請求項76】
前記侵襲的検出手段が、前記対象に取り付けられた電極および前記対象に挿入された電極のうちの一方または両方を含む、請求項75に記載のシステム。
【請求項77】
前記映像が高解像度映像である、請求項58に記載のシステム。
【請求項78】
前記少なくとも1つのメモリが、前記少なくとも1つのプロセッサによって実行される時に、前記システムに、
機械学習分類器を使用して、前記複数の特徴を処理して、前記映像データの1つの映像フレーム各々について複数の睡眠状態予測を決定させる、
移行モデルを使用して、前記複数の睡眠状態予測を処理して、第一の睡眠状態と第二の睡眠状態の間の移行を決定させる、さらなる命令を含む、請求項58に記載のシステム。
【請求項79】
前記移行モデルが、隠れマルコフモデルである、請求項78に記載のシステム。
【請求項80】
前記映像が、少なくとも第一の対象および第二の対象を含む2つ以上の対象の映像であり、前記少なくとも1つのメモリが、前記少なくとも1つのプロセッサによって実行されるとき、前記システムに、
前記映像データを処理して、前記第一の対象に対応するピクセルの第一のセットを示す第一のセグメンテーションデータを決定させる、
前記映像データを処理して、前記第二の対象に対応するピクセルの第二のセットを示す第二のセグメンテーションデータを決定させる、
前記第一のセグメンテーションデータを使用して、前記第一の対象に対応する第一の複数の特徴を決定させる、
前記第一の複数の特徴を使用して、前記第一の対象についての第一の睡眠状態データを決定させる、
前記第二のセグメンテーションデータを使用して、前記第二の対象に対応する第二の複数の特徴を決定させる、
前記第二の複数の特徴を使用して、前記第二の対象についての第二の睡眠データを決定させる、さらなる命令を含む、請求項58に記載のシステム。
【請求項81】
前記対象が齧歯類であり、任意選択的にマウスである、請求項58に記載のシステム。
【請求項82】
前記対象が遺伝子操作された対象である、請求項58に記載のシステム。
【発明の詳細な説明】
【技術分野】
【0001】
(関連出願)
本出願は、2021年6月27日に出願された米国仮出願番号第63/215,511号の米国特許法(35 U.S.C)第119条(e)項に基づく利益を主張するものであり、その開示は、その全体が参照により本明細書に組み込まれる。
【0002】
本発明は、一部の態様では、機械学習モデルを使用して映像データを処理することによって、対象の睡眠状態を決定することに関する。
【0003】
(政府による支援)
本発明は、国立衛生研究所により授与されたDA041668(NIDA)、DA048634(NIDA)、およびHL094307(NHLBI)の下で政府の助成を受けてなされたものである。政府は、本発明について特定の権利を有している。
【背景技術】
【0004】
睡眠は、恒常性プロセスによって調節され、その機能が生存にとって重要である複雑な行動である。睡眠障害および概日障害は、神経精神障害、神経発達障害、神経変性障害、生理学的障害、および代謝障害を含む多くの疾患に見られる。睡眠機能および概日機能は、これらの疾患と双方向の関係を有し、睡眠および概日パターンの変化は、疾患状態につながり得るか、または疾患状態の原因となり得る。睡眠と多くの疾患の間の双方向の関係は十分に説明されているが、それらの遺伝的病因は完全には解明されていない。実際に、睡眠障害に対する治療は、睡眠機構についての知識の欠如のために限定されている。齧歯類は、睡眠生物学における類似性のために、ヒトの睡眠の容易に利用可能なモデルとしての役割を果たし、特にマウスは、睡眠および潜在的治療薬の機構研究のための遺伝的に追跡可能なモデルである。治療におけるこの重要なギャップの理由の1つは、睡眠状態の評価のための多数のマウスの確かな表現型決定を妨げる技術的障壁によるものである。齧歯類における睡眠解析のゴールドスタンダードでは、脳波図/筋電図(EEG/EMG)記録を利用する。この方法は、電極移植のための手術を必要とし、しばしば記録の手動スコアリングを必要とするため、スループットが低い。機械学習モデルを利用する新しい方法は、EEG/EMGスコアリングを自動化し始めているが、データ生成は依然としてスループットが低い。加えて、係留式電極の使用は、動物の動きを制限し、動物の行動を変える可能性がある。
【0005】
一部の既存のシステムでは、低スループット制限を克服するために、睡眠分析のためのいくつかの非侵襲的アプローチを調査してきた。これらには、ビームブレークシステムによる活動評価、または一定量の無活動が睡眠として解釈される映像撮影術が含まれる。ピエゾ圧力センサも、活動にアクセスするより単純でより敏感な方法として使用されてきた。しかしながら、これらの方法は、睡眠状態に対する覚醒状態のみを評価し、覚醒状態、急速眼球運動(レム)状態、およびノンレム状態を区別することができない。これは、睡眠状態の活動決定が、ヒトならびに低い一般的活動を有する齧歯類において不正確であり得るため、重要である。睡眠状態を評価する他の方法には、動きおよび呼吸にアクセスするパルスドップラーベースの方法、ならびに呼吸パターンを直接測定する全身プレチスモグラフィーが含まれる。これらのアプローチは両方とも、特殊な機器を必要とする。呼吸およびその他の動きを検出する電界センサも、睡眠状態を評価するために使用されてきた。
【発明の概要】
【0006】
本発明の実施形態によれば、コンピュータ実装方法が提供され、方法は、対象の映像を表す映像データを受信することと、映像データを使用して、対象に対応する複数の特徴を決定することと、複数の特徴を使用して、対象についての睡眠状態データを決定することと、を含む。一部の実施形態では、方法はまた、機械学習モデルを使用して、映像データを処理して、対象に対応するピクセルの第一のセットおよび背景に対応するピクセルの第二のセットを示すセグメンテーションデータを決定することを含む。一部の実施形態では、方法はまた、セグメンテーションデータを処理して、対象に対応する楕円適合データを決定することを含む。一部の実施形態では、複数の特徴を決定することは、セグメンテーションデータを処理して、複数の特徴を決定することを含む。一部の実施形態では、複数の特徴は、映像データの各映像フレームに対する複数の視覚的特徴を含む。一部の実施形態では、方法はまた、複数の視覚的特徴の各視覚的特徴について時間領域特徴を決定することを含み、複数の特徴は、時間領域特徴を含む。一部の実施形態では、時間領域特徴を決定することは、尖度データ、平均データ、中央値データ、標準偏差データ、最大データ、および最小データのうちの1つを決定することを含む。一部の実施形態では、方法はまた、複数の視覚的特徴の各視覚的特徴について周波数領域特徴を決定することを含み、複数の特徴は、周波数領域特徴を含む。一部の実施形態では、周波数領域特徴を決定することは、パワースペクトル密度の尖度、パワースペクトル密度の歪度、平均パワースペクトル密度、合計パワースペクトル密度、最大データ、最小データ、平均データ、およびパワースペクトル密度の標準偏差のうちの1つを決定することを含む。一部の実施形態では、方法はまた、複数の特徴の各々について時間領域特徴を決定することと、複数の特徴の各々について周波数領域特徴を決定することと、機械学習分類器を使用して、時間領域特徴および前記周波数領域特徴を処理して、睡眠状態データを決定することと、をさらに含む。一部の実施形態では、方法はまた、機械学習分類器を使用して、複数の特徴を処理し、映像データの映像フレームに対する睡眠状態を決定することを含み、睡眠状態は、覚醒状態、レム睡眠状態、およびノンレム睡眠状態のうちの1つである。一部の実施形態では、睡眠状態データは、睡眠状態の持続時間、覚醒状態、レム状態、およびノンレム状態のうちの1つまたは複数の持続時間および/または周波数間隔のうちの1つまたは複数、ならびに1つまたは複数の睡眠状態の変化を示す。一部の実施形態では、方法はまた、複数の特徴を使用して、対象の複数の身体領域を決定することであって、複数の身体領域の各身体領域が、映像データの映像フレームに対応する、決定することと、映像中の複数の身体領域の変化に基づいて、睡眠状態データを決定することと、を含む。一部の実施形態では、方法はまた、複数の特徴を使用して、複数の幅長比を決定することであって、複数の幅長比の各幅長比が、映像データの映像フレームに対応する、決定することと、映像中の複数の幅長比の変化に基づいて、睡眠状態データを決定することと、を含む。一部の実施形態では、睡眠状態データを決定することは、対象の身体領域または体形の変化に基づいて、ノンレム状態からレム状態への移行を検出することを含み、身体領域または体形の変化は、筋脱力の結果である。一部の実施形態では、方法はまた、対象について複数の幅長比を決定することであって、複数の幅長比のうちの幅長比が、映像データの映像フレームに対応する、決定することと、複数の幅長比を使用して、時間領域特徴を決定することと、複数の幅長比を使用して、周波数領域特徴を決定することであって、時間領域特徴および周波数領域特徴が、対象の腹部の動きを表す、決定することと、時間領域特徴および周波数領域特徴を使用して、睡眠状態データを決定することと、を含む。一部の実施形態では、映像は、対象の自然な状態において対象を捕捉する。一部の実施形態では、対象の自然な状態は、対象内または対象上に侵襲的検出手段がないことを含む。一部の実施形態では、侵襲的検出手段は、対象に取り付けられた電極および対象に挿入された電極のうちの一方または両方を含む。一部の実施形態では、映像は高解像度映像である。一部の実施形態では、方法はまた、 機械学習分類器を使用して、複数の特徴を処理して、映像データの1つの映像フレーム各々について複数の睡眠状態予測を決定することと、移行モデルを使用して、複数の睡眠状態予測を処理して、第一の睡眠状態と第二の睡眠状態の間の移行を決定することと、を含む。一部の実施形態では、移行モデルは、隠れマルコフモデルである。一部の実施形態では、対象は齧歯類であり、任意選択的にマウスである。一部の実施形態では、対象は遺伝子操作された対象である。
【0007】
本発明の別の態様によれば、対象の睡眠状態を決定する方法が提供されており、方法は、対象の応答を監視することを含み、監視することの手段は、前述したコンピュータ実装方法のいずれかの実施形態を含む。一部の実施形態では、睡眠状態は、睡眠段階、睡眠間隔の期間、睡眠段階の変化、および非睡眠間隔の期間のうちの1つまたは複数を含む。一部の実施形態では、対象は、睡眠障害または病態を有する。一部の実施形態では、睡眠障害または病態は、睡眠時無呼吸、不眠症、およびナルコレプシーのうちの1つまたは複数を含む。一部の実施形態では、睡眠障害または病態は、脳損傷、うつ病、精神疾患、神経変性疾患、レストレスレッグ症候群、アルツハイマー病、パーキンソン病、肥満、過体重、投与された薬物の作用、および/またはアルコール摂取の作用、睡眠状態を変化させることができる神経学的状態、または睡眠状態を変化させることができる代謝障害もしくは病態の結果である。一部の実施形態では、方法はまた、映像データを受信する前に、治療薬を対象に投与することを含む。一部の実施形態では、治療薬は、睡眠促進剤、睡眠阻害剤、および対象の1つまたは複数の睡眠段階を変化させることができる薬剤のうちの1つまたは複数を含む。一部の実施形態では、方法はまた、行動治療を対象に実施することを含む。一部の実施形態では、行動治療は、感覚療法を含む。一部の実施形態では、感覚療法は、光曝露療法である。一部の実施形態では、対象は遺伝子操作された対象である。一部の実施形態では、対象は齧歯類であり、任意選択的にマウスである。一部の実施形態では、マウスは遺伝子操作されたマウスである。一部の実施形態では、対象は、睡眠病態の動物モデルである。一部の実施形態では、対象について決定された睡眠状態データは、対照睡眠状態データと比較される。一部の実施形態では、対照睡眠状態データは、コンピュータ実装方法で決定された対照対象からの睡眠状態データである。一部の実施形態では、対照対象は、対象の睡眠障害または病態を有しない。一部の実施形態では、対照対象は、対象に投与される治療薬または行動治療を投与されない。一部の実施形態では、対照対象は、対象に投与される治療薬の用量とは異なる治療薬の用量を投与される。
【0008】
本発明の別の態様によれば、対象の睡眠障害または病態を治療するための候補治療薬および/または候補行動治療の有効性を識別する方法が提供され、方法は、候補治療薬および/または候補行動治療を試験対象に投与することと、試験対象についての睡眠状態データを決定することとを含み、決定の手段は、任意の前述のコンピュータ実装方法のいずれかの実施形態を含み、試験対象における睡眠状態データの変化を示す決定は、対象の睡眠障害または病態に対する、候補治療薬または候補行動治療それぞれの効果を識別する。一部の実施形態では、睡眠状態データは、睡眠段階、睡眠間隔の期間、睡眠段階の変化、および非睡眠間隔の期間のうちの1つまたは複数のデータを含む。一部の実施形態では、試験対象は、睡眠障害または病態を有する。一部の実施形態では、睡眠障害または病態には、睡眠時無呼吸、不眠症、およびナルコレプシーのうちの1つまたは複数を含む。一部の実施形態では、睡眠障害または病態は、脳損傷、うつ病、精神疾患、神経変性疾患、レストレスレッグ症候群、アルツハイマー病、パーキンソン病、肥満、過体重、投与された薬物の作用、および/またはアルコール摂取の作用、睡眠状態を変化させることができる神経学的状態、または睡眠状態を変化させることができる代謝障害もしくは病態の結果である。一部の実施形態では、候補治療薬および/または候補行動治療は、映像データの受信前または受信中のうちの1つまたは複数において、試験対象に投与される。一部の実施形態では、候補治療薬は、睡眠促進剤、睡眠阻害剤、および試験対象の1つまたは複数の睡眠段階を変化させることができる薬剤のうちの1つまたは複数を含む。一部の実施形態では、行動治療は、感覚療法を含む。一部の実施形態では、感覚療法は、光曝露療法である。一部の実施形態では、対象は遺伝子操作された対象である。一部の実施形態では、試験対象は、齧歯類であり、任意選択的にマウスである。一部の実施形態では、マウスは遺伝子操作されたマウスである。一部の実施形態では、試験対象は、睡眠病態の動物モデルである。一部の実施形態では、試験対象について決定された睡眠状態データは、対照睡眠状態データと比較される。一部の実施形態では、対照睡眠状態データは、コンピュータ実装方法で決定された対照対象からの睡眠状態データである。一部の実施形態では、対照対象は、試験対象の睡眠障害または病態を有しない。一部の実施形態では、対照対象は、試験対象に投与される候補治療薬を投与されない。一部の実施形態では、対照対象は、試験対象に投与される候補治療薬の用量とは異なる候補治療薬の用量を投与される。一部の実施形態では、対照対象は、試験対象に投与される候補治療薬のレジメンとは異なる候補行動治療のレジメンを投与される。一部の実施形態では、行動治療のレジメンは、行動治療の長さ、行動治療の強度、行動治療における光強度、および行動治療の頻度のうちの1つまたは複数などの治療の特徴を含む。
【図面の簡単な説明】
【0009】
本開示のより完全な理解のために、ここで添付図面と併せて以下の説明を参照する。
【0010】
【
図1】
図1は、本開示の実施形態による、映像データを使用して、対象の睡眠状態データを決定するためのシステムの概念図である。
【
図2A】
図2Aは、本開示の実施形態による、睡眠状態データを決定するためのプロセスを示すフローチャートである。
【
図2B】
図2Bは、本開示の実施形態による、映像に表された複数の対象についての睡眠状態データを決定するためのプロセスを示すフローチャートである。
【
図3】
図3は、本開示の実施形態による、睡眠状態データを決定する構成要素を訓練するためのシステムの概念図である。
【
図4】
図4は、本開示の実施形態によるデバイスの例示的な構成要素を概念的に図示したブロック図である。
【
図5】
図5は、本開示の実施形態によるサーバの例示的な構成要素を概念的に図示したブロック図である。
【
図6A】
図6Aは、本開示の実施形態による、データ収集、注釈、特徴生成、および分類器訓練の組織を示す概略図を示す。
【
図6B】
図6Bは、視覚的特徴のために使用されるフレームレベルの情報の概略図を示し、本開示の実施形態によると、訓練されたニューラルネットワークは、下流分類で使用するためのマウスに関連するピクセルのセグメンテーションマスクを生成するために使用された。
【
図6C】
図6Cは、複数の対象を含む映像の複数のフレームの概略図を示し、本開示の実施形態によると、インスタンスセグメンテーション技術は、対象が互いに近接している時でさえも、個々の対象に対するセグメンテーションマスクを生成するために使用される。
【
図7A】
図7Aは、覚醒、ノンレム、レム状態に対するm00(セグメンテーションマスクの領域)(左端の列)、対応する信号のFFT(中央の列)、および信号の自己相関(右端の列)を示す、1つのエポック内の時間および周波数領域における選択された信号の例示的なグラフを示す。
【
図7B】
図7Bは、
図6Aと同様の、時間および周波数領域のwl_ratioを示す、1つのエポック内の時間および周波数領域における選択された信号の例示的なグラフを示す。
【
図8A】
図8A~Bは、映像からの呼吸信号の抽出を示すプロットを示す。
図8Aは、レムおよびノンレムエポックについての例示的なスペクトル分析プロットを示す。連続ウェーブレット変換スペクトル応答(上のパネル)および関連する優位信号(それぞれの左下パネル)、ならびに優位信号のヒストグラム(それぞれの右下パネル)。ノンレムエポックは、典型的には、レムエポックよりも低い平均および標準偏差を示した。
【
図8B】
図8Bは、レムの発生期間までノンレム信号が安定していたことを示す、エポックのより大きな時間スケールを調べるプロットを示す。優位周波数は、典型的なマウスの呼吸数周波数であった。
【
図9A】
図9A~Cは、wl_ratio測定のための映像データにおける呼吸信号の検証を示すグラフを示す。
図9Aは、C57BL/6J対C3H/HeJ呼吸数分析における睡眠エポックについて選択するために使用された可動性カットオフを示す。10%分位カットオフ閾値(黒色の垂直線)未満では、エポックは、90.2%のノンレム(赤色線)、8.1%のレム(緑色線)、および1.7%の覚醒(青色線)から構成された。
【
図9B】
図9Bは、睡眠エポック(青色はオス、オレンジ色はメス)で観察された優位周波数の系統間の比較を示す。
【
図9C】
図9Cは、C57BL/6J注釈付きエポックを使用して、ノンレム状態(オレンジ色の線)よりもレム状態(青色の線)で、優位周波数においてより高い標準偏差が観察されたことを示す。
【
図9D】
図9Dは、標準偏差の増加が、すべての動物にわたって一貫していたことを示す。
【
図10A】
図10A~Dは、分類器の性能指標を示すグラフおよび表を示す。
図10Aは、XgBoost分類器で始まり、HMMモデルを追加し、特徴を増加させて7つのHuモーメントを含め、SINDLE注釈を統合してエポック品質を改善する、異なる段階で比較された分類器性能を示す。これらの工程のそれぞれを加えることによって、全体的な正解率が改善されたことが観察された。
【
図11A】
図11A~Dは、視覚的スコアリングの検証を示すグラフを示す。
図11Aは、視覚的スコアリングおよびEEG/EMGスコアリングのヒプノグラムを示す。
【
図11B】
図11Bは、マウス(B6J_7)について24時間視覚的にスコアリングされた睡眠段階(上)および予測された段階(下)のプロットを示す。
【
図11C】
図11C~Dは、C57BL/6Jマウスすべてにわたるヒトによるスコアリングおよび視覚的スコアリングの比較を示し、2つの方法間の高い一致を示す。データは、24時間にわたり1時間ビンででプロットし(
図11C)、
【
図12】
図12は、分類器モデルに対する追加のデータ拡張の結果を示す棒グラフを示す。
【発明を実施するための形態】
【0011】
本開示は、1つまたは複数の機械学習モデルを使用して、対象についての映像データを処理することによって、対象の睡眠状態を決定することに関する。対象の呼吸、動き、または姿勢は、それら自体が睡眠状態を区別するのに有用である。本開示の一部の実施形態では、呼吸、動き、および姿勢の特徴の組み合わせを使用して、対象の睡眠状態を決定する。これらの特徴の組み合わせを使用することにより、睡眠状態を予測する正解率が増大する。「睡眠状態」という用語は、急速眼球運動(レム)睡眠状態および非急速眼球運動(ノンレム)睡眠状態に関して使用される。本発明の方法およびシステムを使用して、対象のレム睡眠状態、ノンレム睡眠状態、および覚醒(非睡眠)状態を評価し、区別することができる。
【0012】
覚醒状態、ノンレム状態、およびレム状態を識別するために、一部の実施形態では、高解像度映像を用いた映像ベースの方法が、睡眠状態に関する情報が映像データにコードされていると決定することに基づいて使用される。ノンレム状態からレム状態に移行する際に、おそらくレム状態の脱力に起因して、対象の領域および形状にわずかな変化が観察される。過去数年間にわたり、主に機械学習、特に深層学習の分野の進歩により、コンピュータビジョンの分野で大きな改善がなされてきた。一部の実施形態は、高度なマシンビジョン方法を使用して、視覚的睡眠状態分類を大幅に改善する。一部の実施形態は、対象の呼吸、動き、および/または姿勢に関連する映像データから特徴を抽出することを伴う。一部の実施形態は、これらの特徴を組み合わせて、例えばマウスなどの対象における睡眠状態を決定する。本開示の実施形態は、低いハードウェア投資で実装することができ、かつ高品質の睡眠状態データをもたらす、非侵襲的な映像ベースの方法が関わる。睡眠状態に確実に、非侵襲的に、かつハイスループット様式でアクセスする能力は、治療上の発見に必要な大規模な機構研究を可能にする。
【0013】
図1は、映像データを使用して対象の睡眠状態データを決定するためのシステム100(例えば、自動睡眠状態システム100)を概念的に図示する。自動睡眠状態システム100は、
図1に示す様々な構成要素を使用して動作してもよい。自動睡眠状態システム100は、1つもしくは複数のネットワーク199を介して接続された、画像捕捉デバイス101と、デバイス102と、1つまたは複数のシステム105と、を含んでもよい。画像捕捉デバイス101は、別のデバイス(例えば、
図4に示すデバイス400)の一部であってもよく、またはそのようなデバイス内に含まれてもよく、またはそのようなデバイスに対して接続されてもよく、さらに、カメラ、もしくは高速映像カメラ、もしくは画像や映像を捕捉し得る他のタイプのデバイスであってもよい。デバイス101は、画像捕捉デバイスに加えてまたは画像捕捉デバイスに代えて、動き検出センサ、赤外線センサ、温度センサ、周囲条件検出センサ、および様々な特性/環境条件を検出するように構成された他のセンサ、を含んでもよい。デバイス102は、ラップトップ、デスクトップ、タブレット、スマートフォン、またはデータを表示できる他のタイプのコンピューティングデバイスでもよく、また下記のデバイス400に関連して説明される1つまたは複数の構成要素を含んでもよい。
【0014】
画像捕捉デバイス101は、対象の映像(または1つまたは複数の画像)を取り込んでもよく、本明細書に記載されるように処理するために、映像を表す映像データ104をシステム105に送信してもよい。映像は、オープンフィールドアリーナにおける対象のものであってもよい。一部の事例では、映像データ104は、特定の時間間隔でデバイス101によって捕捉された画像(画像データ)に対応してもよく、その結果、画像はある期間にわたって対象を捕捉する。一部の実施形態では、映像データ104は、対象の高解像度映像であってもよい。
【0015】
システム105は、
図1に示す1つまたは複数の構成要素を含んでもよく、対象の睡眠状態データを決定するために、映像データ104を処理するように構成されてもよい。システム105は、対象に対応する睡眠状態データ152を生成してもよく、睡眠状態データ152は、映像中に観察された対象の1つまたは複数の睡眠状態(例えば、覚醒/非睡眠状態、ノンレム状態、およびレム状態)を示してもよい。システム105は、映像データ104の処理結果を観察するため、ユーザに対する出力用に睡眠状態データ152をデバイス102に送信してもよい。
【0016】
一部の実施形態では、映像データ104は、2つ以上対象の映像を含んでもよく、システム105は、映像データ104に表される各対象の睡眠状態データを決定するために、映像データ104を処理してもよい。
【0017】
システム105は、対象についての映像データ104からの様々なデータを決定するように構成されてもよい。これらのデータを決定するため、および睡眠状態データ152を決定するために、システム105は、複数の異なる構成要素を含んでもよい。
図1に示すように、システム105は、セグメンテーション構成要素110、特徴抽出構成要素120、スペクトル分析構成要素130、睡眠状態分類構成要素140、および分類後構成要素150を含んでもよい。システム105は、
図1に示すものより少ないか、または多い構成要素を含んでもよい。一部の実施形態では、これらの様々な構成要素は、同じ物理的システム105上に位置してもよい。他の実施形態では、様々な構成要素のうちの1つまたは複数は、異なる/別個の物理的システム105上に位置してもよい。様々な構成要素同士間の通信は、直接的にまたはネットワーク199を介して、行われてもよい。デバイス101と、システム105と、デバイス102と、の間における通信は、直接的にまたはネットワーク199を介して、行われてもよい。
【0018】
一部の実施形態では、システム105の一部として示される1つまたは複数の構成要素は、デバイス102、または画像捕捉デバイス101に接続されたコンピューティングデバイス(例えば、デバイス400)に位置しうる。
【0019】
高レベルでは、システム105は、映像データ104を処理して、対象に対応する複数の特徴を決定し、複数の特徴を使用して、対象の睡眠状態データ152を決定するように構成されてもよい。
【0020】
図2Aは、本開示の実施形態による、対象の睡眠状態データ152を決定するためのプロセス200を示すフローチャートである。プロセス200のステップのうちの1つまたは複数は、
図2Aに示すものとは別の順序/シーケンスで行われてもよい。プロセス200の1つまたは複数のステップは、
図1に示すシステム105の構成要素によって行われてもよい。
【0021】
図2Aに示すプロセス200のステップ202で、システム105は、対象の映像を表す映像データ104を受信してもよい。一部の実施形態では、映像データ104は、セグメンテーション構成要素110によって受信されてもよく、または処理のためにシステム105によってセグメンテーション構成要素110に提供されてもよい。一部の実施形態では、映像データ104は、その自然状態において対象を捕捉する映像であってもよい。対象に適用される侵襲的方法がない(例えば、電極が対象に挿入されていない、または対象に取り付けられていない、染料/カラーマーキングが対象に適用されていない、外科手術方法が対象に実施されていない、侵襲的検出手段が対象内または対象上にないなど)とき、対象はその自然状態にあり得る。映像データ104は、対象の高解像度映像であってもよい。
【0022】
図2Aに示すプロセス200のステップ204で、セグメンテーション構成要素110は、映像データ104を使用してセグメンテーション処理を実施して、楕円データ112を決定してもよい(
図1に示す)。セグメンテーション構成要素110は、映像データ104を処理して、映像データ104内の対象を識別するセグメンテーションマスクを生成し、次いで対象に対する楕円適合/表現を生成するための技術を採用してもよい。セグメンテーション構成要素110は、映像/画像データの物体追跡のために、1つまたは複数の技術(例えば、1つまたは複数のMLモデル)を用いてもよく、対象を識別するように構成されてもよい。セグメンテーション構成要素110は、映像データ104の各映像フレームに対してセグメンテーションマスクを生成してもよい。セグメンテーションマスクは、映像フレームのどのピクセルが対象に対応するか、および/または映像フレームのどのピクセルが背景/非対象に対応するかを示してもよい。セグメンテーション構成要素110は、機械学習モデルを使用して、映像データ104を処理して、対象に対応するピクセルの第一のセットおよび背景に対応するピクセルの第二のセットを示すセグメンテーションデータを決定してもよい。
【0023】
映像フレームは、本明細書で使用される場合、映像データ104の一部分であってもよい。映像データ104は、同じ長さ/時間の複数の部分/フレームに分割され得る。例えば、映像フレームは、映像データ104の1ミリ秒であってもよい。映像データ104の映像フレームについて、セグメンテーションマスクのようなデータを決定する際に、セグメンテーション構成要素110のようなシステム105の構成要素は、映像フレームのセット(映像フレームのウィンドウ)を処理してもよい。例えば、インスタント映像フレームに対するセグメンテーションマスクを決定するために、セグメンテーション構成要素110は、(i)インスタント映像フレームの前に(時間に関して)発生する映像フレームのセット(例えば、インスタント映像フレームの前の3つの映像フレーム)、(ii)インスタント映像フレーム、および(iii)インスタント映像フレームの後に(時間に関して)発生する映像フレームのセット(例えば、インスタント映像フレームの後の3つの映像フレーム)を処理してもよい。そのため、この実施例では、セグメンテーション構成要素110は、1つの映像フレームに対するセグメンテーションマスクを決定するために、7つの映像フレームを処理してもよい。こうした処理は、本明細書では、映像フレームのウィンドウベースの処理と呼ばれ得る。
【0024】
映像データ104のセグメンテーションマスクを使用して、セグメンテーション構成要素110は、楕円データ112を決定してもよい。楕円データ112は、対象に対する楕円適合(対象の身体の周りに描かれた楕円)であってもよい。異なるタイプの対象について、システム105は、異なる形状適合/表現(例えば、円適合、長方形適合、正方形適合など)を決定するように構成されてもよい。セグメンテーション構成要素110は、対象に対応するセグメンテーションマスクのピクセルのサブセットとして、楕円データ112を決定してもよい。楕円データ112は、ピクセルのサブセットを含んでもよい。セグメンテーション構成要素110は、映像データ104の各映像フレームに対して対象の楕円適合を決定してもよい。セグメンテーション構成要素110は、上述の映像フレームのウィンドウベースの処理を使用して、映像フレームに対する楕円適合を決定してもよい。楕円データ112は、映像データ104のすべての映像フレームに対して楕円適合を表すベクトルまたはピクセルの行列であってもよい。セグメンテーション構成要素110は、セグメンテーションデータを処理して、対象に対応する楕円適合データ112を決定してもよい。
【0025】
一部の実施形態では、対象に対する楕円適合112は、対象の一部のパラメータを規定してもよい。例えば、楕円適合は、対象の位置に対応してもよく、映像データ104の映像フレームにおける対象のピクセル位置(例えば、楕円の中心)を表す座標(例えば、xおよびy)を含んでもよい。楕円適合は、対象の長軸の長さおよび短軸の長さに対応してもよい。楕円適合は、長軸のベクトル角度の正弦および余弦を含んでもよい。角度は、長軸の方向に対して規定されてもよい。長軸は、対象の頭または鼻の先端から、尾の付け根などの対象の身体の端部まで延在してもよい。楕円適合はまた、対象の長軸の長さと短軸の長さの間の比に対応してもよい。一部の実施形態では、楕円データ112は、映像データ104のすべての映像フレームに対する前述の測定値を含んでもよい。
【0026】
一部の実施形態では、セグメンテーション構成要素110は、映像データ104を処理するために1つまたは複数のニューラルネットワークを使用して、セグメンテーションマスクおよび/または楕円データ112を決定してもよい。他の実施形態では、セグメンテーション構成要素110は、エンコーダデコーダアーキテクチャなどの他のMLモデルを使用して、セグメンテーションマスクおよび/または楕円データ112を決定してもよい。
【0027】
楕円データ112はまた、映像フレームに対する楕円適合を決定する際に、セグメンテーション構成要素110の信頼スコアを含んでもよい。楕円データ112は、代替的に、対象に対応する楕円適合の確率または尤度を含んでもよい。
【0028】
映像データ104が2つ以上の対象を捕捉する実施形態では、セグメンテーション構成要素110は、捕捉された対象の各々を識別してもよく、捕捉された対象の各々に対する楕円データ112を決定してもよい。対象の各々に対する楕円データ112は、処理のために特徴抽出構成要素120に(並行してまたは連続的に)別々に提供されてもよい。
【0029】
図2Aに示すプロセス200のステップ206で、特徴抽出構成要素120は、楕円データ112を使用して複数の特徴を決定してもよい。特徴抽出構成要素120は、映像データ104の各映像フレームに対して複数の特徴を決定してもよい。一部の例示的な実施形態では、特徴抽出構成要素120は、映像データ104の各映像フレームに対して16個の特徴を決定してもよい。決定された特徴は、
図1に示すフレーム特徴データ122として保存されてもよい。フレーム特徴データ122は、映像データ104の各映像フレームに対応する複数の特徴の値を含むベクトルまたは行列であってもよい。特徴抽出構成要素120は、(セグメンテーション構成要素110によって決定される)セグメンテーションデータおよび/または楕円データ112を処理することによって、複数の特徴を決定してもよい。
【0030】
特徴抽出120は、映像データ104の各映像フレームに対する対象の複数の視覚的特徴を含むように、複数の特徴を決定してもよい。以下は、特徴抽出構成要素120によって決定され、フレーム特徴データ122に含まれ得る、例示的な特徴である。
【0031】
特徴抽出構成要素120は、楕円データ112に含まれるピクセル情報を処理してもよい。一部の実施形態では、特徴抽出構成要素120は、映像データ104の各映像フレームについて、長軸長さ、短軸長さ、および長軸長さと短軸長さの比を決定してもよい。これらの特徴は、既に楕円データ112に含まれていてもよく、または特徴抽出構成要素120は、楕円データ112に含まれるピクセル情報を使用して、これらの特徴を決定してもよい。特徴抽出構成要素120はまた、楕円データ112に含まれる楕円適合情報を使用して、対象の面積(例えば、表面積)を決定してもよい。特徴抽出構成要素120は、楕円適合の中心ピクセルとして表される対象の位置を決定してもよい。特徴抽出構成要素120はまた、映像データ104の1つの映像フレームから別の(後に発生する)映像フレームまでの楕円適合の中心ピクセルの変化に基づいて、対象の位置の変化を決定してもよい。特徴抽出構成要素120はまた、楕円適合の周囲(例えば、円周)を決定してもよい。
【0032】
特徴抽出構成要素120は、1つまたは複数(例えば、7つ)のHuモーメントを決定してもよい。Huモーメント(Huモーメント不変量としても知られる)は、画像変換に対して不変である、画像/映像フレームの中心モーメントを使用して計算された7つの数字のセットであってもよい。最初の6モーメントは、並進運動、スケール、回転、および反転に対して不変であることが証明されいる一方で、第7のモーメントの符号は、画像反転に対して変化する。画像処理、コンピュータビジョン、および関連分野において、画像モーメントは、画像ピクセルの強度のある特定の加重平均(モーメント)、またはこうしたモーメントの関数であり、通常、何らかの魅力的な特性または解釈を有するように選択される。画像モーメントは、セグメンテーション後に対象を説明するために有用である。特徴抽出構成要素120は、中央画像モーメントの積分および線形結合を通して、対象のセグメンテーションマスクの数値記述であるHu画像モーメントを決定してもよい。
【0033】
図2Aに示すプロセス200のステップ208で、スペクトル分析構成要素130は、複数の特徴を使用してスペクトル分析を実施して、周波数領域特徴132および時間領域特徴134を決定してもよい。スペクトル分析構成要素130では、信号処理技術を使用して、フレーム特徴データ122から周波数領域特徴132および時間領域特徴134を決定してもよい。一部の実施形態では、スペクトル分析構成要素130は、エポックにおける映像データ104の各映像フレームの(特徴データ122からの)各特徴について、時間領域特徴のセットおよび周波数領域特徴のセットを決定してもよい。例示的な実施形態では、スペクトル分析構成要素130は、エポックの各映像フレームの各特徴に対する6つの時間領域特徴を決定してもよい。一部の実施形態では、スペクトル分析構成要素130は、エポックの各映像フレームの各特徴に対する14個の周波数領域特徴を決定してもよい。エポックは、映像データ104の持続時間、例えば、10秒、5秒などであってもよい。周波数領域特徴132は、特徴データ122の各特徴について、および映像フレームの各エポックについて決定された周波数領域特徴を表すベクトルまたは行列であってもよい。時間領域特徴134は、特徴データ122の各特徴について、および映像フレームの各エポックについて決定された時間領域特徴を表すベクトルまたは行列であってもよい。周波数領域特徴132は、例えば、
図7A~7B、
図8A~8Bに示すような、グラフデータであってもよい。
【0034】
例示的な実施形態では、周波数領域特徴132は、電力スペクトル密度の尖度、パワースペクトル密度の歪度、0.1~1Hzの平均パワースペクトル密度、1~3Hzの平均パワースペクトル密度、3~5Hzの平均パワースペクトル密度、5~8Hzの平均パワースペクトル密度、8~15Hzの平均パワースペクトル密度、合計パワースペクトル密度、パワースペクトル密度の最大値、パワースペクトル密度の最小値、パワースペクトル密度の平均、およびパワースペクトル密度の標準偏差であってもよい。
【0035】
例示的な実施形態では、時間領域特徴134は、尖度、特徴信号の平均、特徴信号の中央値、特徴信号の標準偏差、特徴信号の最大値、および特徴信号の最小値であってもよい。
【0036】
図2Aに示すプロセス200のステップ210で、睡眠状態分類構成要素140は、周波数領域特徴132および時間領域特徴134を処理して、映像データ104の映像フレームに対する睡眠予測を決定してもよい。睡眠状態分類構成要素140は、映像データ104の各映像フレームについて、睡眠状態を表す標識を決定してもよい。睡眠状態分類構成要素140は、各映像フレームを、覚醒状態、ノンレム状態、およびレム状態の3つの睡眠状態のうちの1つに分類してもよい。覚醒状態は、非睡眠状態であってもよく、または非睡眠状態と類似していてもよい。睡眠状態分類構成要素140は、周波数領域特徴132および時間領域特徴134を使用して、映像フレームの睡眠状態標識を決定してもよい。一部の実施形態では、睡眠状態分類構成要素140は、上述の映像フレームに対してウィンドウベースの処理を使用してもよい。例えば、インスタント映像フレームの睡眠状態標識を決定するために、睡眠状態分類構成要素140は、インスタント映像フレームの前に発生する映像フレームのセットに対するデータ(時間および周波数領域特徴132、134)、およびインスタント映像フレームの後に発生する映像フレームのセットに対するデータを処理してもよい。睡眠状態分類構成要素140は、フレーム予測データ142を出力してもよく、これは、映像データ104の各映像フレームに対する睡眠状態標識のベクトルまたは行列であってもよい。睡眠状態分類構成要素140はまた、睡眠状態標識に関連付けられた信頼スコアを決定してもよく、信頼スコアは、示された睡眠状態に対応する映像フレームの尤度、または映像フレームの睡眠状態標識を決定する際の睡眠状態分類構成要素140の信頼性を表してもよい。信頼スコアは、フレーム予測データ142に含まれてもよい。
【0037】
睡眠状態分類構成要素140は、1つまたは複数のMLモデルを用いて、周波数領域特徴132および時間領域特徴134からフレーム予測データ142を決定してもよい。一部の実施形態では、睡眠状態分類構成要素140は、勾配ブーストML技術(例えば、XGBoost技術)を使用してもよい。他の実施形態では、睡眠状態分類構成要素140は、ランダムフォレストML技術を使用してもよい。さらに他の実施形態では、睡眠状態分類構成要素140は、ニューラルネットワークML技術(例えば、多層パーセプトロン(MLP))を使用してもよい。さらに他の実施形態では、睡眠状態分類構成要素140は、ロジスティック回帰技術を使用してもよい。さらに他の実施形態では、睡眠状態分類構成要素140は、特異値分解(SVD)技術を使用してもよい。一部の実施形態では、睡眠状態分類構成要素140は、前述のML技術のうちの1つまたは複数の組み合わせを使用してもよい。ML技術は、以下の
図3に関連して記載するように、対象についての映像データの映像フレームを睡眠状態に分類するように訓練されてもよい。
【0038】
一部の実施形態では、睡眠状態分類構成要素140は、追加的または代替的なデータ/特徴(例えば、映像データ104、楕円データ112、フレーム特徴データ122など)を使用して、フレーム予測データ142を決定してもよい。
【0039】
睡眠状態分類構成要素140は、周波数領域特徴132と時間領域特徴134の間の変動に基づいて、1つの睡眠状態と別の睡眠状態の間の移行を認識するように構成されてもよい。例えば、対象の領域に対する周波数領域信号および時間領域信号は、覚醒状態、ノンレム状態、およびレム状態に対して時間および周波数が異なる。別の例として、対象の幅長比(長軸長と短軸長の比)に対する周波数領域信号および時間領域信号は、覚醒状態、ノンレム状態、およびレム状態に対して時間および周波数が異なる。一部の実施形態では、睡眠状態分類構成要素140は、複数の特徴(例えば、対象の身体領域または幅長比)のうちの1つを使用して、フレーム予測データ142を決定してもよい。他の実施形態では、睡眠状態分類構成要素140は、複数の特徴(例えば、対象の身体領域および幅長比)からの特徴の組み合わせを使用して、フレーム予測データ142を決定してもよい。
【0040】
図2Aに示すプロセス200のステップ212で、分類後構成要素150は、分類後処理を実施して、映像の持続時間中の対象の睡眠状態および睡眠状態間の移行を表す睡眠状態データ152を決定してもよい。分類後構成要素150は、各映像フレームに対する睡眠状態標識(および対応する信頼スコア)を含むフレーム予測データ142を処理して、睡眠状態データ152を決定してもよい。分類後構成要素150は、移行モデルを使用して、第一の睡眠状態から第二の睡眠状態への移行を決定してもよい。
【0041】
覚醒状態、ノンレム状態、およびレム状態間の移行は、ランダムではなく、一般的に予想されるパターンに従う。例えば、一般的に、対象は、覚醒状態からノンレム状態に移行し、次いで、ノンレム状態からレム状態に移行する。分類後構成要素150は、これらの移行パターンを認識し、所与の状態に対して移行確率行列および発生確率を使用するように構成されてもよい。分類後構成要素150は、睡眠状態分類構成要素140によって決定されるフレーム予測データ142の検証構成要素としての役目を果たしてもよい。例えば、場合によっては、睡眠状態分類構成要素140は、第一の映像フレームが覚醒状態に対応し、後続の第二の映像フレームがレム状態に対応すると決定してもよい。このような場合、分類後構成要素150は、特に映像フレームでカバーされる短期間では、覚醒状態からレム状態への移行の可能性が低いことが分かっていることに基づいて、第一の映像フレームまたは第二の映像フレームの睡眠状態を更新してもよい。分類後構成要素150は、映像フレームのウィンドウベースの処理を使用して、映像フレームの睡眠状態を決定してもよい。一部の実施形態では、分類後構成要素150はまた、別の睡眠状態に移行する前の睡眠状態の持続時間を考慮に入れてもよい。例えば、分類後構成要素150は、レム状態に移行する前に、ノンレム状態が映像データ104中の対象に対してどのくらい持続するかに基づいて、睡眠状態分類構成要素140によって決定された、映像フレームの睡眠状態が正確であるかを決定してもよい。一部の実施形態では、分類後構成要素150は、例えば、統計モデル(例えば、マルコフモデル、隠れマルコフモデルなど)、確率モデルなどの様々な技術を用いてもよい。統計モデルまたは確率モデルは、睡眠状態(覚醒状態、ノンレム状態、およびレム状態)間の依存関係をモデル化してもよい。
【0042】
分類後構成要素150は、フレーム予測データ142を処理して、映像データ104に表された対象の1つまたは複数の睡眠状態(覚醒状態、ノンレム状態、レム状態)の持続時間を決定してもよい。分類後構成要素150は、フレーム予測データ142を処理して、映像データ104に表された対象の1つまたは複数の睡眠状態(覚醒状態、ノンレム状態、レム状態)の頻度(映像データ104に発生する睡眠状態の回数)を決定してもよい。分類後構成要素150は、フレーム予測データ142を処理して、対象の1つまたは複数の睡眠状態の変化を決定してもよい。睡眠状態データ152は、対象の1つまたは複数の睡眠状態の持続時間、対象の1つまたは複数の睡眠状態の頻度、および/または対象の1つまたは複数の睡眠状態の変化を含んでもよい。
【0043】
分類後構成要素150は、睡眠状態データ152を出力することができ、これは映像データ104の各映像フレームに対する睡眠状態標識を含むベクトルまたは行列であってもよい。例えば、睡眠状態データ152は、第一の映像フレームに対応する第一の標識「覚醒状態」、第二の映像フレームに対応する第二の標識「覚醒状態」、第三の映像フレームに対応する第三の標識「ノンレム状態」、第四の映像フレームに対応する第四の標識「レム状態」などを含んでもよい。
【0044】
システム105は、表示のために睡眠状態データ152をデバイス102に送信してもよい。睡眠状態データ152は、例えば、
図11A~Dに示すように、グラフデータとして提示されてもよい。
【0045】
本明細書に記載されるように、一部の実施形態では、自動睡眠状態システム100は、(特徴抽出構成要素120によって決定された)複数の特徴を使用して、対象の複数の身体領域を決定してもよく、各身体領域は、映像データ104の映像フレームに対応し、自動睡眠状態システム100は、映像中の複数の身体領域の変化に基づいて、睡眠状態データ152を決定してもよい。
【0046】
本明細書に記載されるように、一部の実施形態では、自動睡眠状態システム100は、(特徴抽出構成要素120によって決定された)複数の特徴を使用して、複数の幅長比を決定してもよく、複数の幅長比の各幅長比は、映像データ104の映像フレームに対応し、自動睡眠状態システム100は、映像中の複数の幅長比の変化に基づいて、睡眠状態データ152を決定してもよい。
【0047】
一部の実施形態では、自動睡眠状態システム100は、対象の身体領域または体形の変化に基づいて、ノンレム状態からレム状態への移行を検出してもよく、身体領域または体形の変化は、筋弛緩の結果であってもよい。このような移行情報は、睡眠状態データ152に含まれてもよい。
【0048】
自動睡眠状態システム100を使用し得る、映像データ104から導出された他の特徴と対象の睡眠状態との間の相関を、実施例のセクションで以下に説明する。
【0049】
一部の実施形態では、自動睡眠状態システム100は、映像データ104を処理することによって、対象の呼吸/呼吸数を決定するように構成されてもよい。自動睡眠状態システム100は、(特徴抽出構成要素120によって決定された)複数の特徴を処理することによって、対象の呼吸数を決定してもよい。一部の実施形態では、自動睡眠状態システム100は、呼吸数を使用して、対象の睡眠状態データ152を決定してもよい。一部の実施形態では、自動睡眠状態システム100は、スペクトル分析構成要素130によって決定された周波数領域および/または時間領域特徴に基づいて、呼吸数を決定してもよい。
【0050】
対象の呼吸数は、睡眠状態間で異なる場合があり、映像データ104から導出された特徴を使用して検出されてもよい。例えば、対象の身体領域および/または幅長比は、身体領域および/または幅長比の信号表現(時間または周波数)が2.5~3Hzの一貫した信号であり得るように、ある期間の間に変化してもよい。こうした信号表現は、換気波形のように見える場合がある。自動睡眠状態システム100は、映像データ104を処理して、対象による呼吸に相関する/対応する、体形の変化および/または胸部サイズの変化を表す特徴を抽出してもよい。こうした変化は、映像で視認可能である場合があり、時間領域および周波数領域特徴として抽出され得る。
【0051】
ノンレム状態の間、対象は、例えば、2.5~3Hzの特定の呼吸数を有してもよい。自動睡眠状態システム100は、呼吸数と睡眠状態の間の特定の相関性を認識するように構成されてもよい。例えば、幅長比信号は、レム状態よりもノンレム状態でより顕著/明白であってもよい。さらなる例として、幅長比の信号は、レム状態の間により大きく変化してもよい。前述の例示的な相関性は、対象の呼吸数が、ノンレム状態よりもレム状態中により変化することの結果であってもよい。別の例示的な相関性は、ノンレム状態中に幅長比信号で捕捉される低周波数ノイズであってもよい。こうした相関性は、ノンレム状態中にその睡眠姿勢を調整するための対象の動作/動きに起因する場合があり、対象は、筋弛緩のためにレム状態中には動かない場合がある。
【0052】
映像データ104から導出された少なくとも幅長比信号(および他の特徴に対する他の信号)は、映像データ104が対象の腹部および/または胸部の視覚的動きを捕捉することを例証し、これは対象の呼吸数を決定するために使用され得る。
【0053】
図2Bは、本開示の実施形態による、映像に表された複数の対象についての睡眠状態データ152を決定するためのプロセス250を示すフローチャートである。プロセス250のステップのうちの1つまたは複数は、
図2Bに示すものとは別の順序/シーケンスで行われてもよい。プロセス250の1つまたは複数のステップは、
図1に示すシステム105の構成要素によって行われてもよい。
【0054】
図2Bに示すプロセス250のステップ252で、システム105は、(例えば、
図6Cに示すように)複数の対象の映像を表す映像データ104を受信してもよい。
【0055】
ステップ254で、セグメンテーション構成要素110は、映像データ104を使用してインスタンスセグメンテーション処理を実施して、映像に表される個々の対象を識別してもよい。セグメンテーション構成要素110は、インスタンスセグメンテーション技術を用いて、映像データ104を処理し、映像データ104の個々の対象を識別するセグメンテーションマスクを生成してもよい。セグメンテーション構成要素110は、第一の対象に対する第一のセグメンテーションマスク、第二の対象に対する第二のセグメンテーションマスクなどを生成してもよく、個々のセグメンテーションマスクは、映像フレーム中のどのピクセルがそれぞれの対象に対応するかを示してもよい。セグメンテーション構成要素110はまた、映像フレーム中のどのピクセルが背景/非対象に対応するかを決定してもよい。セグメンテーション構成要素110は、1つまたは複数の機械学習モデルを用いて、映像データ104を処理し、第一の対象に対応する映像フレームのピクセルの第一のセットを示す第一のセグメンテーションデータ、第二の対象に対応する映像フレームのピクセルの第二のセットを示す第二のセグメンテーションデータなどを決定してもよい。
【0056】
セグメンテーション構成要素110は、「対象1」、「対象2」などの標識(例えば、テキスト標識、数値標識、または他のデータ)を使用して、個々の対象に対するそれぞれのセグメンテーションマスクを追跡してもよい。セグメンテーション構成要素110は、映像データ104の様々な映像フレームから決定されたセグメンテーションマスクにそれぞれの標識を割り当て、したがって、複数の映像フレームを通して個々の対象に対応するピクセルのセットを追跡してもよい。セグメンテーション構成要素110は、対象が動く、位置を変える、場所を変えるときでさえも、複数の映像フレームにわたって個々の対象を追跡するように構成されてもよい。セグメンテーション構成要素110はまた、例えば、
図6Cに示すように、対象が互いに近接しているときに、個々の対象を識別するように構成されてもよい。場合によっては、対象は、互いに近接して、または近くで眠ることを好む場合があり、インスタンスセグメンテーション技術は、これが発生した場合でも個々の対象を識別することができる。
【0057】
インスタンスセグメンテーション技術は、コンピュータビジョン技術、アルゴリズム、モデルなどの使用を伴い得る。インスタンスセグメンテーションは、画像/映像フレーム内の各対象インスタンスを識別することを伴い、映像フレームの各ピクセルに標識を割り当てることを伴い得る。インスタンスセグメンテーションは、物体検出技術を使用して、映像フレーム中のすべての対象を識別し、個々の対象を分類し、セグメンテーションマスクを使用して各対象インスタンスをローカライズしてもよい。
【0058】
一部の実施形態では、システム105は、身体サイズ、体形、身体/毛の色など、対象についてのいくつかの指標に基づいて、複数の対象から個々の対象を識別し、追跡してもよい。
【0059】
プロセス250のステップ256で、セグメンテーション構成要素110は、個々の対象に対するセグメンテーションマスクを使用して、個々の対象に対する楕円データ112を決定してもよい。例えば、セグメンテーション構成要素110は、第一の対象に対する第一のセグメンテーションマスクを使用して第一の楕円データ112を、第二の対象に対する第二のセグメンテーションマスクを使用して第二の楕円データ112などを決定してもよい。セグメンテーション構成要素110は、
図2Aに示すプロセス200に関連して上述したのと同様の方法で、楕円データ112を決定してもよい。
【0060】
プロセス250のステップ258で、特徴抽出構成要素120は、それぞれの楕円データ112を使用して、個々の対象に対する複数の特徴を決定してもよい。複数の特徴は、フレームベースの特徴であってもよく、すなわち、複数の特徴は、映像データ104の各個々の映像フレームに対するものであってもよく、フレーム特徴データ122として提供されてもよい。特徴抽出構成要素120は、第一の楕円データ112を使用して、かつ第一の対象に対応する第一のフレーム特徴データ122を、第二の楕円データ112を使用して、かつ第二の対象に対応する第二のフレーム特徴データ122などを決定してもよい。特徴抽出構成要素120は、
図2Aに示すプロセス200に関連して上述したのと同様の方法で、フレーム特徴データ122を決定してもよい。
【0061】
プロセス250のステップ260で、スペクトル分析構成要素130は、複数の特徴を使用して、(
図2Aに示すプロセス200に関連して上述したのと同様の方法で)スペクトル分析を実施して、個々の対象に対する周波数領域特徴132および時間領域特徴134を決定してもよい。スペクトル分析構成要素130は、第一の対象に対する第一の周波数領域特徴132、第二の対象に対する第二の周波数領域特徴132、第一の対象に対する第一の時間領域特徴134、第二の対象に対する第二の時間領域特徴134などを決定してもよい。
【0062】
プロセス250のステップ262で、睡眠状態分類構成要素140は、個々の対象に対して、それぞれの周波数領域特徴132および時間領域特徴134を処理して、映像データ104の映像フレームついて個々の対象の睡眠予測を(
図2Aに示すプロセス200に関連して上述したのと同様の方法で)決定してもよい。例えば、睡眠状態分類構成要素140は、第一の対象に対する第一のフレーム予測データ142、第二の対象に対する第二のフレーム予測データ142などを決定してもよい。
【0063】
プロセス250のステップ264で、分類後構成要素150は、(
図2Aに示すプロセス200に関連して上述したのと同様の方法で)分類後処理を実施して、映像の持続時間および睡眠状態間の移行の間の個々の対象の睡眠状態を表す睡眠状態データ152を決定してもよい。例えば、分類後構成要素150は、第一の対象に対する第一の睡眠状態データ152、第二の対象に対する第二の睡眠状態データ152などを決定してもよい。
【0064】
このようにして、インスタンスセグメンテーション技術を使用して、システム105は、映像中の複数の対象を識別し、それぞれの対象に対応する特徴データ(および他のデータ)を使用して、個々の対象の睡眠状態データを決定してもよい。各対象が互いに近いときでさえも、各対象を識別することができることによって、システム105は、一緒に収容された複数の対象(すなわち、同じ囲いに含まれる複数の対象)の睡眠状態を決定することができる。この利点の1つは、別の対象との同居を伴い得る、自然条件下の、自然環境で対象を観察し得ることである。場合によっては、他の対象の行動も、対象の同居に基づいて識別/研究され得る(例えば、睡眠状態に対する同居の影響、同居により対象が同じ/類似の睡眠パターンに従うか、など)。別の利点は、同じ/1つの映像を処理することによって、複数の対象についての睡眠状態データを決定し得ることであり、これは、各々が1つの対象を表す複数の別個の映像を処理するために使用されるリソースと比較して、使用されるリソース(例えば、時間、計算リソースなど)を低減することができる。
【0065】
図3は、
図1に示す睡眠状態分類構成要素140を構成するために使用され得る構成要素およびデータを概念的に示す。本明細書に記載されるように、睡眠状態分類構成要素140は、映像データ104から導出された特徴を処理するための1つまたは複数のMLモデルを含んでもよい。MLモデルは、様々なタイプの訓練データおよび訓練技術を使用して訓練/構成されてもよい。
【0066】
一部の実施形態では、スペクトル訓練データ302は、モデル構築構成要素310によって処理されて、訓練された分類器315を訓練/構成してもよい。一部の実施形態では、モデル構築構成要素310はまた、EEG/EMG訓練データを処理して、訓練された分類器315を訓練/構成してもよい。訓練された分類器315は、映像フレームに対応する1つまたは複数の特徴に基づいて、映像フレームの睡眠状態標識を決定するように構成されてもよい。
【0067】
スペクトル訓練データ302は、訓練に使用される映像データに表される対象の1つまたは複数の特徴に対する周波数領域信号および/または時間領域信号を含んでもよい。こうした特徴は、特徴抽出構成要素120によって決定された特徴に対応してもよい。例えば、スペクトル訓練データ302は、映像中の対象の身体領域に対応する周波数領域信号および/または時間領域信号を含んでもよい。周波数領域信号および/または時間領域信号は、対応する睡眠状態で注釈付け/標識されてもよい。スペクトル訓練データ302は、対象の幅長比、対象の幅、対象の長さ、対象の位置、Hu画像モーメント、および他の特徴などの他の特徴に対する周波数領域信号および/または時間領域信号を含んでもよい。
【0068】
EEG/EMG訓練データ304は、睡眠状態分類構成要素140を訓練/構成するために使用される対象に対応する脳波図(EEG)データおよび/または筋電図(EMG)データであってもよい。EEGデータおよび/またはEMGデータは、対応する睡眠状態で注釈付け/標識されてもよい。
【0069】
スペクトル訓練データ302およびEEG/EMG訓練データ304は、同じ対象の睡眠に対応てもよい。モデル構築構成要素310は、スペクトル訓練データ302およびEEG/EMG訓練データ304を相関させて、訓練された分類器315を訓練/構成し、スペクトルデータ(周波数領域特徴および時間領域特徴)から睡眠状態を識別してもよい。
【0070】
対象が睡眠中にレム状態よりも多くのノンレム状態を経験することに起因して、訓練データセットに不均衡がある場合がある。訓練された分類器315を訓練/構成するために、バランスの取れた訓練データセットを生成して、同じ/類似の数のレム状態、ノンレム状態、および覚醒状態を含てもよい。
【0071】
対象
本発明の一部の態様は、対象の睡眠状態データを決定することを含む。本明細書で使用した際には、「対象」という用語は、ヒト、非ヒト霊長類、ウシ、ウマ、ブタ、ヒツジ、ヤギ、イヌ、ネコ、ブタ、鳥、齧歯類、または他の適切な脊椎動物もしくは無脊椎動物、を指し得る。本発明の特定の実施形態では、対象は、哺乳類であり、本発明の特定の実施形態では、対象は、ヒトである。いくつかの実施形態では、本発明の方法で使用される対象は、齧歯類であり、マウス、ラット、アレチネズミ、ハムスター、等を含むが、これらに限定されるものではない。本発明のいくつかの実施形態では、対象は、正常で健康な対象であり、いくつかの実施形態では、対象は、疾患もしくは病態を有することが知られている、または疾患もしくは病態を有するリスクがある、または疾患もしくは病態を有する疑いがある。本発明の特定の実施形態では、対象は、疾患または病態に関する動物モデルである。例えば、限定することを意図するものではないが、本発明のいくつかの実施形態では、対象は、睡眠時無呼吸に関する動物モデルをなすマウスである。
【0072】
非限定的な例として、本発明の方法およびシステムで評価される対象は、睡眠時無呼吸、不眠症、ナルコレプシー、脳損傷、うつ病、精神疾患、神経変性疾患、レストレスレッグ症候群、アルツハイマー病、パーキンソン病、睡眠状態のステータスを変化させることができる神経学的状態、および睡眠状態を変化させることができる代謝障害もしくは病態のうちの1つまたは複数などの状態を有する対象、有することが疑われる対象、および/またはその病態に関する動物モデルであってもよい。睡眠状態を変化させることができる代謝障害または病態の非限定的な例は、高脂肪食である。追加的な身体状態もまた、本発明の方法を使用して評価されてもよく、その非限定的な例は、肥満、過体重、投与された薬剤の効果、および/またはアルコール摂取の効果である。慢性疾患、薬物乱用、傷害などから生じる睡眠病態を含むが、これらに限定されない、追加の疾患および病態も、本発明の方法を使用して評価することができる。
【0073】
また本発明の方法およびシステムを使用して、睡眠時無呼吸、不眠症、ナルコレプシー、脳損傷、うつ病、精神疾患、神経変性疾患、レストレスレッグ症候群、アルツハイマー病、パーキンソン病、睡眠状態のステータスを変化させることができる神経学的状態、および睡眠状態を変化させることができる代謝障害もしくは病態のうちの1つまたは複数を有しない対象または試験対象を評価してもよい。一部の実施形態では、本発明の方法は、肥満、過体重、アルコール摂取のない対象の睡眠状態を評価するために使用される。こうした対象は、対照対象としての役割を果たすことができ、本発明の方法を用いた評価の結果は、対照データとして使用され得る。
【0074】
本発明の方法のいくつかの実施形態では、対象は、野生型対象である。本明細書で使用した際には、「野生型」という用語は、自然界で起こる種の典型的な形態の表現型および/または遺伝子型を意味する。本発明の特定の実施形態では、対象は、非野生型の対象であり、例えば、対象の種の野生型の遺伝子型および/または表現型と比較して、1つまたは複数の遺伝子改変を有する対象である。いくつかの実例では、野生型と比較した際の、対象の遺伝子型/表現型の差異は、遺伝性(生殖系列)変異または後天性(体細胞性)変異に起因する。1つまたは複数の体細胞変異を呈する対象をもたらしうる因子としては、以下に限定されないが、環境因子、毒素、紫外線放射、細胞分裂において生じる自然発生的エラー、放射線、母親感染、化学物質などであるがこれらに限定されない催奇形性事象が挙げられる。
【0075】
本発明の方法における特定の実施形態では、対象は、遺伝子改変生物であり、遺伝子操作対象とも称される。遺伝子操作対象は、予め選択されたおよび/または意図的な遺伝子改変を含んでもよく、そのため、操作されていない対象における形質とは異なるような、1つもしくは複数の遺伝子型および/または表現型の形質を示す。本発明のいくつかの実施形態では、通常的な遺伝子操作技術を使用することにより、その種の非操作対象と比較して、遺伝子型および/または表現型の差異を呈する遺伝子操作対象を作製することができる。非限定的な例として、機能的遺伝子産物が欠損しているまたは減少したレベルでマウス内に存在する遺伝子操作マウス、および、本発明の方法またはシステムを使用することにより、遺伝子操作マウスの表現型を評価することができ、その結果を、対照から得られた結果(対照結果)と比較してもよい。
【0076】
本発明の一部の実施形態では、対象は、本発明の自動睡眠状態決定方法またはシステムを使用して監視されてもよく、睡眠障害または病態の有無を検出することができる。本発明の特定の実施形態では、睡眠病態の動物モデルである試験対象を使用して、睡眠病態に対する試験対象の反応を評価してもよい。加えて、睡眠および/または活動病態の動物モデルである試験対象は、本発明の自動睡眠状態決定方法および/またはシステムを使用して監視される候補治療薬または方法を投与されてもよく、結果を使用して、その病態を治療する候補治療薬の有効性を決定することができる。
【0077】
本明細書の他の箇所で説明するように、本発明の方法およびシステムは、対象の身体的特徴に関係なく、対象の睡眠状態を決定するように構成されてもよい。本発明のいくつかの実施形態では、対象の1つまたは複数の身体的特徴は、事前に特定された特徴であってもよい。例えば、限定することを意図するものではないけれども、事前に特定された身体的特徴は、体型、体格、毛色、性別、年齢、および、疾患もしくは病態の表現型、の一つあるいは複数であってもよい。
【0078】
対照および候補化合物の試験ならびにスクリーニング
本発明の方法またはシステムを使用して対象に関して得られた結果は、対照に関する結果と比較することができる。本発明の方法は、また、対象と対照との間における表現型の差異を評価するために、使用することもできる。よって、本発明の一部の態様は、対照と比較して、対象における1つまたは複数の睡眠状態の変化の有無を決定する方法を提供する。本発明の一部の実施形態は、疾患または病態の表現型特徴を識別するために本発明の方法を使用することを含み、本発明の特定の実施形態では、自動表現型解析は、対象に対する候補治療化合物の効果を評価するために使用される。
【0079】
本発明の方法またはシステムを使用して得られた結果は、有利に対照と比較することができる。本発明の一部の実施形態では、1つまたは複数の対象を、本発明の方法を使用して評価し、その後、対象に候補治療化合物を投与した後に、対象を再検定することができる。本発明の方法またはシステムを使用して評価される対象に関連して、本明細書では、「対象」および「試験対象」という用語が使用されてもよく、本明細書では、「対象」および「試験対象」という用語が互換的に使用される。本発明の特定の実施形態では、試験対象を評価するための本発明の方法を使用して得られた結果は、他の試験対象に対して実施された方法から得られた結果と比較される。本発明の一部の実施形態では、試験対象の結果は、異なる時間に試験対象に対して実施された睡眠状態評価の結果と比較される。本発明の一部の実施形態では、対象を評価するために本発明の方法を使用して得られた結果を、対照結果と比較する。
【0080】
本明細書で使用される場合、対照結果は、様々な形態を取ることができる所定の値であってもよい。それは、中央値または平均値などの、単一のカットオフ値とすることができる。これは、試験対象と類似した条件下で本発明のシステムまたは方法を使用して評価された対象などの比較群に基づいて確立されてもよく、試験対象は候補治療薬を投与され、比較群は候補治療薬を投与されていない。比較群の別の例は、疾患または病態を有することが知られている対象と、疾患または病態を有していない群と、を含んでもよい。別の比較群は、疾患または病態に関する家族歴を有した対象と、そのような家族歴を有していない群からの対象と、であってもよい。所定値は、例えば、試験された集団が試験結果に基づいて均等に(または不均等に)グループ分けされるように、設定することができる。当業者であれば、本発明の比較方法において使用するための適切な対照群および値を選択することができる。
【0081】
本発明の方法またはシステムを使用して評価された対象は、対照条件と比較して、試験条件で発生する1つまたは複数の睡眠状態特徴の変化の有無について監視され得る。非限定的な例として、対象において、発生する変化には、睡眠状態の期間、2つの睡眠状態間の時間間隔、睡眠期間中の1つまたは複数の睡眠状態の数、RM睡眠状態とNRM睡眠状態の比率、睡眠状態に入る前の期間などの、1つまたは複数の睡眠状態特徴が含まれ得るが、これらに限定されない。本発明の方法およびシステムは、試験対象の疾患または病態の影響を評価するために、試験対象に使用することができ、また候補治療薬の有効性を評価するためにも使用できる。候補治療薬の有効性を識別する手段としての、対象の睡眠状態の1つまたは複数の特徴における変化の有無を評価する本発明の方法の非限定的な例として、対象の睡眠状態に影響を与える疾患または病態を有することが知られている対象が、本発明の方法を使用して評価される。次いで、対象は、候補治療薬を投与され、方法を使用して再び評価される。試験対象の結果の変化の有無は、それぞれ、睡眠状態に影響を与える疾患または病態に対する候補治療薬の効果の有無を示す。
【0082】
本発明の一部の実施形態では、対象は、例えば、本発明の方法を使用して二回以上評価され、異なる評価のうちの二回以上で取得された結果を比較することによって、それ自体の対照として機能しうることが理解されよう。本発明の方法およびシステムは、本発明の方法またはシステムの実施形態を使用して、対象の二つ以上の評価を使用して、経時的な対象の睡眠状態特徴などの表現型特徴の変化を識別および比較することによって、対象の疾患または状態の進行または退行を評価するために使用され得る。
【0083】
例示的なデバイスおよびシステム
自動睡眠状態システム100の一つまたは複数の構成要素は、XgBoostモデル、ランダムフォレストモデル、ニューラルネットワーク、サポートベクターマシン、または他のモデル、またはこれらのモデルのいずれかの組み合わせを含む、多くの形態をとり得るMLモデルを実装してもよい。
【0084】
様々な機械学習技術を使用して、セグメンテーションマスクの決定、楕円データの決定、特徴データの決定、睡眠状態データの決定など、本明細書に記載の様々なステップを実施するためにモデルを訓練および動作させてもよい。モデルは、様々な機械学習技術に従って訓練および操作されてもよい。このような技術には、例えば、ニューラルネットワーク(深層ニューラルネットワークおよび/またはリカレントニューラルネットワーク、など)、推論エンジン、訓練された分類器、等が含まれてもよい。訓練された分類器の例としては、サポートベクターマシン(SVM)、ニューラルネットワーク、決定木、決定木と組み合わせたAdaBoost(「適応ブースト」の略)、およびランダムフォレスト、が挙げられる。例としてSVMに焦点を当てると、SVMは、データを分析してデータ内のパターンを認識する関連学習アルゴリズムを有する教師あり学習モデルであり、この教師あり学習モデルは、分類および回帰分析のために一般的に使用される。2つのカテゴリーのいずれかに属するものとしてそれぞれがマークされた一組をなす複数の訓練例が与えられると、SVM訓練アルゴリズムは、新たな例を一方のカテゴリーまたは他方のカテゴリーに割り当てるモデルを構築し、それを非確率的なバイナリ線形分類器とする。より複雑なSVMモデルは、3つ以上のカテゴリーを識別する訓練セットを有して構築されてもよく、SVMは、どのカテゴリーが入力データに対して最も類似しているかを決定する。SVMモデルは、別個のカテゴリーの例が明確なギャップによって分割されるようにマッピングされてもよい。次に、新たな例が同じ空間にマッピングされ、ギャップのどちら側に該当するかに基づいてカテゴリーに属すると予測される。分類器は、データがどのカテゴリーに最も一致するかを示す「スコア」を発行してもよい。スコアは、データがどの程度密接にカテゴリーに対して一致しているかの指数を提供してもよい。
【0085】
ニューラルネットワークは、入力層から出力層までにわたって、いくつかの層を含んでもよい。各層は、特定タイプのデータを入力として導入するように、さらに、別のタイプのデータを出力するように、構成されている。ある層からの出力は、次の層に対する入力として導入される。特定の層における入力データ/出力データの値は、ニューラルネットワークが実行時に実際に動作するまで不明であるけれども、ニューラルネットワークを記述するデータは、ニューラルネットワークの層の構造、パラメータ、および動作を記述する。
【0086】
ニューラルネットワークの中間層の1つまたは複数は、また、隠れ層として知られ得る。隠れ層の各ノードは、入力層の各ノードに対して、および出力層の各ノードに対して、接続される。ニューラルネットワークが複数の中間ネットワークを含む場合、隠れ層の各ノードは、次の上位層内の、および次の下位層内の、各ノードに対して接続されることとなる。入力層の各ノードは、ニューラルネットワークに対する電位入力を表し、出力層の各ノードは、ニューラルネットワークからの電位出力を表す。あるノードから次の層内の別のノードに対する各接続は、重みまたはスコアと関連付けられてもよい。ニューラルネットワークは、単一の出力または可能性のある出力の重み付けされたセットを出力してもよい。異なるタイプのニューラルネットワーク、例えば、リカレントニューラルネットワーク(RNN)、畳み込みニューラルネットワーク(CNN)、深層ニューラルネットワーク(DNN)、長短期メモリ(LSTM)、および/または他のものを使用してもよい。
【0087】
ニューラルネットワークによる処理は、各ノード入力の学習された重みと、ネットワークの構造と、によって決定される。特定の入力が与えられると、ニューラルネットワークは、ネットワーク全体の出力層が計算されるまで、一度に1層ずつ出力を決定する。
【0088】
接続重みは、訓練時にニューラルネットワークによって最初に学習されることができ、与えられた入力が既知の出力と関連付けられる。訓練データのセットでは、様々な訓練例が、ネットワーク内へと供給される。各例では、通常、入力から出力までの正しい接続の重みを、1に設定し、すべての接続に対して、0の重みを与える。訓練データの例が、ニューラルネットワークによって処理された際には、入力が、ネットワークに対して送信されてもよく、関連付けられた出力と比較されることで、ネットワーク性能を標的性能と比較するための方法が決定されてもよい。バックプロパゲーションなどの訓練技術を使用して、ニューラルネットワークの重みを更新して、訓練データを処理する時にニューラルネットワークによって生じる誤差を低減してもよい。
【0089】
機械学習技術を適用するためには、機械学習プロセス自体を訓練する必要がある。この場合、第一のモデルまたは第二のモデルの一方などの機械学習構成要素を訓練するためには、訓練例に関する「グランドトゥルース」を確立する必要がある。機械学習において、「グランドトゥルース」という用語は、教師あり学習技術に関する訓練セットの分類の正解率を指す。バックプロパゲーション、統計学習、教師あり学習、半教師あり学習、確率学習、または他の既知の技術を含めた、様々な技術が、モデルを訓練するために使用されてもよい。
【0090】
図4は、システムとともに使用され得るデバイス400を概念的に図示するブロック図である。
図5は、映像データの処理、対象の行動の識別などを支援し得る、システム105などの遠隔装置の例示的な構成要素を概念的に図示したブロック図である。システム105は、1つまたは複数のサーバを含んでもよい。本明細書で使用された際には、「サーバ」は、サーバ/クライアントコンピューティング構造で理解されるような従来的なサーバを指し得るけれども、本明細書で説明する動作を補助し得る多数の異なるコンピューティング構成要素を指す場合もある。例えば、サーバは、物理的におよび/またはネットワークを介して他のデバイス/構成要素に対して接続されているとともにコンピューティング動作を実行し得るような、1つまたは複数の物理的コンピューティング構成要素(ラックサーバなど)を含んでもよい。サーバは、また、コンピュータシステムをエミュレートするとともに1つのデバイス上で実行されるまたは複数のデバイスにわたって実行される、1つまたは複数の仮想マシンを含んでもよい。サーバは、また、本明細書で説明する動作を実行するための、ハードウェア、ソフトウェア、ファームウェア、または同種のもの、に関する他の組合せを含んでもよい。サーバは、クライアントサーバモデル、コンピュータビューロモデル、グリッドコンピューティング技術、フォグコンピューティング技術、メインフレーム技術、ユーティリティコンピューティング技術、ピアツーピアモデル、サンドボックス技術、もしくは他のコンピューティング技術のうち1つまたは複数を使用して動作するように構成されてもよい。
【0091】
楕円データを決定するための1つまたは複数のシステム105、フレーム特徴を決定するための1つまたは複数のシステム105、周波数領域特徴を決定するための1つまたは複数のシステム105、時間領域特徴を決定するための1つまたは複数のシステム105、フレームベースの睡眠標識予測を決定するための1つまたは複数のシステム105、睡眠状態データを決定する1つまたは複数のシステム105など、複数のシステム105が本開示の全体システムに含まれてもよい。動作時には、これらのシステムのそれぞれは、以下でさらに説明するように、それぞれのデバイス105上に存在するコンピュータ可読命令およびコンピュータ実行可能命令を含んでもよい。
【0092】
これらのデバイス(400/105)のそれぞれは、データおよびコンピュータ可読命令を処理するための中央処理装置(CPU)を含み得る1つまたは複数のコントローラ/プロセッサ(404/504)と、それぞれのデバイスのデータおよび命令を格納するためのメモリ(406/506)と、を含んでもよい。メモリ(406/506)は、揮発性ランダムアクセスメモリ(RAM)、不揮発性読み出し専用メモリ(ROM)、不揮発性磁気抵抗メモリ(MRAM)、および/または他のタイプのメモリを、個々に含んでもよい。各デバイス(400/105)は、また、データおよびコントローラ/プロセッサ実行可能命令を格納するためのデータ記憶構成要素(408/508)を含んでもよい。各データ記憶構成要素(408/508)は、磁気記憶装置、光記憶装置、ソリッドステートストレージなどの、1つまたは複数の不揮発性記憶タイプを個々に含んでもよい。各デバイス(400/105)は、また、それぞれの入力/出力デバイスインターフェース(402/502)を介して、リムーバブルなもしくは外部の不揮発性メモリおよび/またはストレージ(リムーバブルメモリカード、メモリキードライブ、ネットワークストレージ等)に対して接続されてもよい。
【0093】
各デバイス(400/105)およびその様々な構成要素を動作させるためのコンピュータ命令は、実行時にメモリ(406/506)を一時的な「作業」ストレージとして使用して、それぞれのデバイスのコントローラ/プロセッサ(404/504)によって実行されてもよい。デバイスのコンピュータ命令は、不揮発性メモリ(406/506)内に、ストレージ(408/508)内に、または外部デバイス内に、非一時的様式で格納されてもよい。代替的に、実行可能命令の一部または全部は、ソフトウェアに加えてまたはソフトウェアの代わりに、それぞれのデバイス上のハードウェアまたはファームウェア内に埋め込まれてもよい。
【0094】
各デバイス(400/105)は、入力/出力デバイスインターフェース(402/502)を含む。以下でさらに説明するように、様々な構成要素が、入力/出力デバイスインターフェース(402/502)を介して接続されてもよい。加えて、各デバイス(400/105)は、各デバイスの構成要素どうしの間でデータを伝送するためのアドレス/データバス(424/524)を含んでもよい。デバイス(400/105)内の各構成要素は、また、バス(424/524)を介して他の構成要素に対して接続されることに加えて(またはその代わりに)、他の構成要素に対して直接的に接続されてもよい。
【0095】
図4を参照すると、デバイス400は、スピーカ412、有線ヘッドセットもしくは無線ヘッドセット(図示せず)、またはオーディオを出力し得る他の構成要素といったようなオーディオ出力構成要素などの、様々な構成要素に対して接続する入力/出力デバイスインターフェース402を含んでもよい。デバイス400は、追加的に、コンテンツを表示するためのディスプレイ416を含んでもよい。デバイス400は、カメラ418をさらに含んでもよい。
【0096】
アンテナ414を介して、入力/出力デバイスインターフェース402は、無線ローカルエリアネットワーク(WLAN)(WiFiなど)ラジオ、Bluetooth、および/または、無線ネットワークラジオ、例えば、ロングタームエボリューション(LTE)ネットワーク、WiMAXネットワーク、3Gネットワーク、4Gネットワーク、5Gネットワークなどの無線通信ネットワークと通信可能なラジオ、を介して、1つまたは複数のネットワーク199に対して接続されてもよい。イーサネットなどの有線接続も、また、サポートされてもよい。ネットワーク199を介して、システムは、ネットワーク環境にわたって分散されてもよい。I/Oデバイスインターフェース(402/502)は、また、サーバまたは他の構成要素の集合において、異なる物理サーバなどのデバイスどうしの間でデータを交換することを可能とする通信構成要素を含んでもよい。
【0097】
デバイス400またはシステム105の構成要素は、それら自身の専用プロセッサ、メモリ、および/またはストレージを含んでもよい。代替的に、デバイス400またはシステム105の構成要素の一つあるいは複数は、デバイス400、またはシステム105の、I/Oインターフェース(402/502)、プロセッサ(404/504)、メモリ(406/506)、および/またはストレージ(408/508)を、それぞれ利用してもよい。
【0098】
上述のように、複数のデバイスが、単一のシステム内で採用されてもよい。このようなマルチデバイスシステムでは、デバイスのそれぞれは、システムの処理の異なる態様を実行するための異なる構成要素を含んでもよい。複数のデバイスは、重複した構成要素を含んでもよい。本明細書で説明するデバイス400およびシステム105の構成要素は、例示的であり、スタンドアローンデバイスとして配置されてもよく、あるいは、より大きなデバイスまたはシステムの構成要素として全体的にもしくは部分的に含まれてもよい。
【0099】
本明細書で開示する概念は、例えば、汎用コンピューティングシステム、映像/画像処理システム、および分散コンピューティング環境を含めた、多数の異なるデバイスならびにコンピュータシステム内で適用されてもよい。
【0100】
本開示の上記の態様は、例示的であることを意味している。それらは、本開示の原理および用途を説明するために選択されたものであり、網羅的であることまたは本開示を限定することを意図するものではない。開示する態様に関する多くの修正および変形は、当業者には明らかであり得る。コンピュータおよび音声処理の分野における当業者であれば、本明細書で説明する構成要素およびプロセスステップが、他の構成要素もしくはステップに対して、または構成要素もしくはステップの組合せに対して、互換性があり得ること、それでもなお本開示の利点および利益を達成し得ることは、認識するはずである。その上、本開示が、本明細書で開示する特定の詳細およびステップの一部あるいは全部がなくても実施され得ることは、当業者には明らかなはずである。
【0101】
開示するシステムの態様は、コンピュータ方法として、または、メモリデバイスもしくは非一時的コンピュータ可読記憶媒体などの製造物品として、実装されてもよい。コンピュータ可読記憶媒体は、コンピュータによって可読であってもよく、コンピュータまたは他のデバイスに本開示で説明するプロセスを実行させるための命令を含んでもよい。コンピュータ可読記憶媒体は、揮発性コンピュータメモリ、不揮発性コンピュータメモリ、ハードドライブ、ソリッドステートメモリ、フラッシュドライブ、リムーバブルディスク、および/または他の媒体、によって実装されてもよい。加えて、システムの構成要素は、ファームウェアまたはハードウェアとして実装されてもよい。
【実施例】
【0102】
実施例1.マウス睡眠状態分類器モデルの開発
方法
動物飼育、手術、および実験セットアップ
17匹のC57BL/6J(The Jackson Laboratory、メリーランド州バーハーバー)オスマウスにおいて睡眠試験を実施した。C3H/HeJ(The Jackson Laboratory、米国メリーランド州バーハーバー)マウスも、特徴検査のために手術なしで撮像した。すべてのマウスは、10~12週齢で取得された。すべての動物試験は、実験動物の管理と使用に関して国立衛生研究所が公開したガイドラインに従って実施され、ペンシルバニア大学動物実験委員会によって承認された。試験方法は、以前に記載されたように行った[Pack, A.I. et al. Physiol. Genomics. 28(2):232-238 (2007);McShane, B.B. et al., Sleep. 35(3):433-442 (2012)]。
【0103】
簡潔に述べると、マウスを、蓋なし標準マウスケージ(6×6インチ)に個別に収容した。各ケージの高さを12インチに延長し、マウスがケージから飛び出るのを防止した。この設計により、映像によるマウスの行動およびEG/EMG記録による睡眠/覚醒段階の同時評価が可能となった。動物に水および食物を自由に与え、12時間の明暗サイクルを行った。明期の間、カゴの底部のルクスレベルは80ルクスであった。EEG記録のために、4つの銀ボール電極を、頭蓋骨(2つを前頭および2つを頭頂側頭)に配置した。EMG記録については、2本の銀線を背側項筋に縫合した。すべてのリード線を頭蓋骨の中心に皮下に配設し、歯科用セメントで頭蓋骨に固定されたプラスチックソケットペデスタル(Plastics One、コネチカット州トーリントン)に接続した。電極は全身麻酔下で移植した。手術後、記録前に10日間の回復期間を動物に与えた。
【0104】
EEG/EMG取得
EEG/EMGの記録のために、Grass Gamma Software(Astro-Med、ロードアイランド州ウェストウォリック)を使用して未加工信号を読み取り、増幅した(20,000×)。EEGの信号フィルタ設定は、低カットオフ周波数が0.1Hzおよび高カットオフ周波数が100Hzであった。EMGの信号フィルタ設定は、低カットオフ周波数が10Hzおよび高カットオフ周波数が100Hzであった。記録を、256Hzサンプル/秒/チャネルでデジタル化した。
【0105】
映像の取得
Raspberry Pi 3モデルB(Raspberry Pi Foundation、英国ケンブリッジ)の暗視セットアップを使用して、昼夜両方の条件で高品質の映像データを記録した。SainSmart(SainSmart、ネバダ州ラスベガス)赤外線暗視監視カメラを使用し、可視光がないときに場面を照らすために赤外線LEDを随伴した。カメラは、ホームケージの床の18インチ上に取り付けられ、観察のためにマウスを上から見下ろす視界を提供した。日中は、映像データはカラーであった。夜間、映像データは白黒であった。v4l2-ctlキャプチャソフトウェアを使用して、1920×1080ピクセル解像度および30フレーム/秒で映像を記録した。V412-CTLソフトウェアの態様に関する情報については、例えば、www.kernel.org/doc/html/latest/userspace-api/media/v4l/v4l2.htmlまたは代替的に縮約版:www.kernel.org/を参照されたい。
【0106】
映像およびEEG/EMGデータの同期
コンピュータクロック時間を使用して、映像およびEEG/EMGデータを同期した。EEG/EMGデータ収集コンピュータをソースクロックとして使用した。EEG/EMGコンピュータ上の既知の時点で、視覚的合図を映像に追加した。視覚的合図は、典型的には、映像中の2~3個のフレーム持続し、同期における可能性のある誤差が最大100ミリ秒であり得ることを示唆している。EEG/EMGデータを10秒(10s)間隔で分析したため、時間的アライメントの可能性のある誤差は無視できるであろう。
【0107】
訓練データのEEG/EMG注釈
24時間の同期映像およびEEG/EMGデータを、Jackson Laboratoryからの10~12週齢の17匹のC57BL/6Jオスマウスについて収集した。EEG/EMGデータおよび映像の両方を10秒のエポックに分割し、各エポックを訓練されたスコア記録者によってスコア化し、EEGおよびEMGシグナルに基づいてレム、ノンレム、または覚醒段階として標識した。合計17,700個のEEG/EMGエポックを、ヒト専門家によってスコア化した。その中で、エポックの48.3%+/-6.9%が覚醒として、47.6%+/-6.7%がノンレムとして、4.1%+/-1.2%がレム段階として注釈付けされた。加えて、SPINDLEの方法を、第二の注釈のために適用した[Miladinovic, D. et al., PLoS Comput Biol. 15, e1006968 (2019)]。ヒト専門家と同様に、エポックの52%は覚醒として、44%はノンレムとして、4%はレムとして注釈付けされた。SPINDLEは4秒(4s)エポックを注釈付けしたので、3つの連続エポックを結合して10秒エポックと比較し、3つの4秒エポックが変化しなかったときにのみエポックを比較した。特定のエポックが相関する場合、ヒトの注釈とSPINDLEの間の一致は、92%(89%覚醒、95%ノンレム、80%レム)であった。
【0108】
データの前処理
映像データから開始して、前述のセグメンテーションニューラルネットワークアーキテクチャを適用して、マウスのマスクを生成した [Webb J.M. and Fu Y-H., Curr. Opin. Neurobiol. 69:19-24 (2021)]。セグメンテーションネットワークを訓練するために、313個のフレームを注釈付けした。4×4のダイヤモンド膨張に続いて、5×5のダイヤモンド収縮フィルタを、未加工の予測セグメンテーションに適用した。これらの定常操作を使用して、セグメンテーション品質を改善した。予測セグメンテーションおよび結果として得られる楕円適合を用いて、表1に記載されるように、様々なフレーム当たりの画像測定信号を各フレームから抽出した。
【0109】
これらのすべての測定値(表1)は、ニューラルネットワーク予測セグメンテーションマスクにOpenCV輪郭関数を適用することによって計算した。使用したOpenCV関数には、fitEllipse、contourArea、arcLength、moments、およびgetHuMomentsが含まれた。OpenCVソフトウェアの詳細については、例えば、//opencv.orgを参照されたい。エポック内のすべての測定信号値を使用して、20個の周波数および時間領域特徴のセットを導出した(表2)。これらは、標準的な信号処理アプローチを使用して計算され、例示的なコード[github.com/KumarLabJax/MouseSleep]に見出すことができる。
【0110】
分類器の訓練
本来備わっているデータセットの不均衡、すなわち、レム睡眠と比較してより多くのノンレムのエポックのために、同数のレム、ノンレム、および覚醒エポックをランダムに選択して、バランスの取れたデータセットを生成した。交差検証アプローチを使用して、分類器の性能を評価した。訓練用のバランスの取れたデータセットからの動物13匹からの全てのエポックを無作為に選択し、残りの4匹の動物からの不均衡なデータを試験に使用した。プロセスを10回繰り返して、様々な正解率測定値を生成した。このアプローチにより、バランスの取れたデータで分類器を訓練することを上手く利用しながら、実際の不均衡なデータの性能を観察することができた。
【0111】
処理後の予測
より大規模な時間情報を統合して予測品質を向上させるために、隠れマルコフモデル(HMM)アプローチを適用した。HMMモデルは、睡眠状態移行の確率を統合することによって分類器によってなされた誤った予測を修正し、したがって、より正確な予測結果を得ることができる。HMMモデルの隠れた状態は、睡眠段階であるのに対し、観測量は、XgBoostアルゴリズムからの確率ベクトル結果から得られる。移行行列は、睡眠状態の訓練セットシーケンスに次いで、Viterbiアルゴリズム[Viterbi AJ (April 1967) IEEE Transactions on Information Theory vol. 13(2): 260-269]を適用し、XgBoostのアウトオブバッグクラス投票のシーケンスを考慮して、段階のシーケンスを推定することから、経験的に算出した。本研究では、移行行列は、3×3行列T={S_ij}であり、式中、S_ijは、状態S_iから状態S_jへの移行確率を表した。T(表2)。
【0112】
分類器の性能分析
正解率の指標ならびに分類性能のいくつかの指標:適合率、再現率、およびF1スコアを使用して、性能を評価した。適合率は、所与の睡眠段階について分類器およびヒトスコア記録者の両方によって分類されたエポックと、その睡眠段階として分類器が割り当てたすべてのエポックとの比として定義された。再現率は、所与の睡眠段階について分類器およびヒトスコア記録者の両方によって分類されたエポックと、ヒトスコア記録者がその所与の睡眠段階として分類したエポックのすべてとの比として定義された。F1は、適合率と再現率を組み合わせて、再現率と適合率の調和平均を測定した。正解率および性能行列の平均および標準偏差を、10分割交差検証から算出した。
【0113】
結果
実験設計
図6Aの概略図に示すように、本明細書に記載される研究の目的は、マウスの睡眠状態を分類するために映像データのみを使用することの妥当性を定量化することであった。実験パラダイムは、視覚的分類器を訓練および評価するための標識として、睡眠状態分類の現在の標準基準、EEG/EMG記録を利用するように設計された。全体で、同期されたEEG/EMGおよび映像データを17匹のマウスについて記録した(動物当たり24時間)。データを10秒エポックに分割した。各エポックを、ヒト専門家によって手動でスコア化した。同時に、機械学習分類器で使用され得る映像データからの特徴を設計した。これらの特徴は、個々の映像フレームにおける動物の視覚的外観を記述したフレームごとの測定値に基づいて構築された(表1)。次いで、時間情報を統合し、機械学習分類器で使用するための特徴のセットを生成するために、信号処理技術をフレーム当たりの測定値に適用した(表2)。最後に、個々の動物を訓練および検証データセット(それぞれ80:20)に提供することによって、ヒトが標識したデータセットを分割した。訓練データセットを使用して、機械学習分類器を訓練して、映像の10秒エポックを、覚醒、睡眠ノンレム、および睡眠レムの3つの状態に分類した。提供された動物のセットを、分類器の性能を定量化するために検証データセットで使用した。検証セットを訓練セットから分離するとき、示された動物のみについてうまく予測することを学習する代わりに、分類器が動物にわたってうまく一般化されたことを確実にするために、動物データ全体が提供された。
【表1】
【表2】
【0114】
フレーム当たりの特徴
コンピュータビジョン技術を適用して、各フレームのマウスの詳細な視覚的測定値を抽出した。使用された第一のコンピュータビジョン技術は、マウスピクセルと背景ピクセルに関連するピクセルのセグメンテーションであった(
図6B)。セグメンテーションニューラルネットワークは、明暗条件、ならびにマウスアリーナに見られる移動敷床などの動的かつ困難な環境でうまく動作するアプローチとして訓練された[Webb, J.M. and Fu, Y-H., Curr. Opin. Neurobiol. 69:19-24 (2021)]。セグメンテーションはまた、各マウスの頭部上の器具から出るEEG/EMGケーブルの除去を可能にし、その結果、頭部の動きに関する情報を用いた視覚的測定値に影響を与えなかった。セグメンテーションネットワークは、マウスのみであったピクセルを予測し、そのため、測定値は、マウスの頭蓋骨に接続されたワイヤの動きではなく、マウスの動きのみに基づいていた。すべての映像からランダムにサンプリングされたフレームは、前述のネットワークを使用して、この高品質のセグメンテーションおよび楕円適合を達成するために注釈付けされた[Geuther, B.Q. et al., Commun. Biol. 2:124 (2019)](
図6B)。ニューラルネットワークは、マウスをセグメンテーションする良好な性能を達成するために、313個の注釈付きフレームのみを必要とした。オリジナルの映像上で、マウスではないと予測されるピクセルを赤で、マウスとして予測されるピクセルを青で色付けすることによる、セグメンテーションネットワーク(図示せず)の性能の例。セグメンテーションに続いて、マウスの形状および位置を記述した、ニューラルネットワーク予測セグメンテーションからの16個の測定値を計算した(表1)。これらには、マウスの形状を記述した楕円適合からのマウスの大きい長さ、小さい長さ、および比が含まれた。マウスの位置(x、y)およびx、yの変化(dx、dy)を、楕円適合の中心について抽出した。セグメント化されたマウスの領域(m00)、周囲、および回転不変の7つのHu画像モーメント(HU0-6)[Scammell, T.E. et al., Neuron. 93(4):747-765(2017)]も計算した。Hu画像モーメントは、中央画像モーメントの積分および線形結合を通したマウスのセグメンテーションの数値説明である[Allada, R. and Siegel, J.M. Curr. Biol. 18(15):R670-R679 (2008)]。
【0115】
時間周波数特徴
次に、フレーム当たりの特徴を使用して、各10秒エポックで時間および周波数ベースの分析を実施した。この分析により、信号処理技術を適用することによって、時間情報の統合が可能となった。表3に示すように、6つの時間領域特徴(尖度、平均、中央値、標準偏差、各信号の最大、および最小)および14個の周波数領域特徴(パワースペクトル密度の尖度、パワースペクトル密度の歪度、0.1~1Hz、1~3Hz、3~5Hz、5~8Hz、8~15Hzの平均パワースペクトル密度、合計パワースペクトル密度、パワースペクトル密度の最大、最小、平均、および標準偏差)を、エポックの各フレーム当たりの特徴について抽出し、各10秒エポックに対して、320個の合計特徴(16個の測定値×20個の時間-周波数特徴)という結果をもたらした。
【表3】
【0116】
これらのスペクトルウィンドウ特徴を視覚的に調べ、それらが覚醒状態、レム状態、およびノンレム状態の間で異なったかどうかを決定した。
図7A~Bは、覚醒状態、ノンレム状態、およびレム状態について時間および周波数領域が異なる、m00(領域、
図7A)およびwl_ratio(楕円の長軸および短軸の幅長比、
図7B)特徴の代表的エポック例を示す。m00およびwl_ratioの未加工信号は、ノンレムおよびレム状態で明確な振動を示し(左パネル、
図7Aおよび
図7B)、これはFFT(中央パネル、
図7Aおよび
図7B)および自己相関(右パネル、
図7Aおよび
図7B)で見ることができる。ノンレムエポックでは単一の優位周波数が存在し、レムではより広いピークが存在した。加えて、FFTピーク周波数は、ノンレム(2.6Hz)とレム(2.9Hz)との間でわずかに変化し、概してより規則的かつ一貫した振動が、レムエポックよりもノンレムエポックにおいて観察された。したがって、特徴の初期調査により、睡眠状態間の差が明らかになり、視覚的睡眠分類器で使用するための有用な指標が特徴にコードされていたという確信がもたらされた。
【0117】
呼吸数
ヒトおよび齧歯類の両方における以前の研究は、呼吸および動きが睡眠段階間で異なることを実証している[Stradling, J.R. et al., Thorax. 40(5):364-370 (1985); Gould, G.A. et al., Am. Rev Respir. Dis. 138(4):874-877 (1988);Douglas, N.J. et al., Thorax. 37(11):840-844 (1982);Kirjavainen, T. et al., J. Sleep. Res. 5(3):186-194 (1996);Friedman, L. et al., J. Appl. Physiol. 97(5):1787-1795 (2004)]。m00およびwl_ratioの特徴を調べると、換気波形として現れた2.5~3Hzの一貫した信号が発見された(
図7A~7B)。映像の調査により、呼吸による体形の変化および胸部サイズの変化が明らかになり、時間周波数特徴によって捕捉された可能性があった。この信号を可視化するために、wl_ratio特徴に対して連続ウェーブレット変換(CWT)スペクトログラムを実施した(
図8A、上部パネル)。これらのCWTスペクトログラムからのデータを要約するために、CWTの優位信号を識別し(
図8A、それぞれの左下パネル)、信号の優位周波数のヒストグラム(
図8A、それぞれの右下パネル)をプロットした。優位信号に含まれる周波数の平均および分散を、対応するヒストグラムから計算した。
【0118】
以前の研究は、C57BL/6Jマウスが、ノンレム状態中に2.5~3Hzの呼吸数を有することを実証していた[Friedman,L.et al.,J.Appl. Physiol. 97(5):1787-1795(2004); Fleury Curado, T. et al., Sleep. 41(8):zsy089 (2018)]。レムおよびノンレムの両方を含む長いひとしきりの睡眠(10分)の調査では、wl_ratio信号が、レムよりもノンレムでより顕著であったが、両方で明らかに存在したことが示された(
図8B)。加えて、レム状態は、ノンレム状態よりも高くより変化しやすい呼吸数を引き起こしたので、信号は、レム状態の間、2.5~3.0Hzの範囲内でより変化した。その睡眠姿勢を調整するなどの、マウスのより大きな動きによる、ノンレム状態のこの信号の低周波数ノイズも観察された。これは、wl_ratio信号がマウス腹部の視覚的動きを捕捉していることを示唆した。
【0119】
呼吸数の検証
m00およびwl_ratio特徴についてレムおよびノンレムエポックで観察された信号が腹部の動きであり、呼吸数と相関することを確認するために、遺伝子検証試験を実施した。C3H/HeJマウスは、C57BL/6Jマウスの覚醒呼吸周波数よりもおよそ30%少ない覚醒呼吸周波数を有し、C57BL/6JおよびC3H/HeJについてそれぞれ、4.5Hz対3.18Hz[Berndt, A. et al., Physiol. Genomics. 43(1):1-11 (2011)]、3.01対2.27 Hz[Groeben, H. et al., Br. J. Anaesth. 91(4):541-545 (2003)]、および2.68 Hz対1.88 Hz[Vium, Inc., Breathing Rate Changes Monitored Non-Invasively 24/7. (2019)]に及ぶことが以前に実証されている。機器を装着していないC3H/HeJマウス(オス5匹、メス5匹)を映像録画し、古典的な睡眠/覚醒の動きの経験則(移動した距離)[Pack,A.I.et al. Physiol. Genomics. 28(2):232-238(2007)]を適用して、睡眠エポックを識別した。エポックは、動きに対して最低10%の分位数内で保守的に選択した。注釈付きC57BL/6J EEG/EMGデータを使用して、動きベースのカットオフが睡眠期間を正確に識別できることを確認した。C57BL/6JマウスのEEG/EMG注釈データを使用して、このカットオフは、主にノンレムおよびレムエポックを識別することが見出された(
図9A)。注釈付きデータにおいて選択されたエポックは、90.2%のノンレム、8.1%のレム、および1.7%の覚醒エポックから構成された。したがって、予想通り、この移動性ベースのカットオフ方法は、睡眠/覚醒を正しく区別したが、レム/ノンレムは正しく区別しなかった。これらの低動作睡眠エポックから、wl_ratio信号における優位周波数の平均値を計算した。この測定値は、胸部領域の動きに対するその感度のために選択された。各マウスの平均優位周波数の分布をプロットし、動物間で一貫した分布が観察された。例えば、C57BL/6J動物は、2.2~2.8Hzの平均周波数の振動範囲を有し、一方でC3H/HeJ動物は、1.5~2.0Hzの範囲であり、C3H/HeJの呼吸数は、C57BL/6Jの呼吸数よりも約30%低かった。これは、2つの系統、すなわち、C57BL/6JおよびC3H/HeJの間の統計的に有意な差であり(p<0.001、
図9B)、および以前に報告されたものと同様の範囲である[Berndt, A. et al., Physiol. Genomics. 43(1):1-11(2011); Groeben,H.et al.,Br. J. Anaesth 91(4):541-545 (2003); Vium, Inc., Breathing Rate Changes Monitored Non-Invasively 24/7. (2019)]。したがって、この遺伝的検証方法を使用して、観察された信号は、呼吸数と強く相関すると結論付けられた。
【0120】
遺伝学による呼吸周波数の全体的な変化に加えて、睡眠中の呼吸は、ヒトおよび齧歯類の両方において、レムよりもノンレム中はより組織化され、変動が少ないことが示されている[Mang, G.M. et al., Sleep. 37(8):1383-1392 (2014); Terzano, M.G. et al., Sleep. 8(2):137-145 (1985)]。検出された呼吸信号は、ノンレムエポックよりもレムエポックにおいてより大きな変動を示すであろうと仮定された。EEG/EEG注釈付きC57BL/6Jデータを調べて、レム状態およびノンレム状態にわたるエポックにおいてCWTピーク信号の変動の変化があったかどうかを決定した。C57BL/6Jデータのみを使用して、エポックをノンレムおよびレム状態によって分割し、CWTピーク信号の変動を観察した(
図9C)。ノンレム状態は、この信号のより小さな標準偏差を示し、一方でレム状態は、より広く高いピークを有した。ノンレム状態は、複数の分布を含むように見え、おそらくは、ノンレム睡眠状態の再分割を示す[Katsageorgiou, V-M. et al., PLoS Biol. 16(5):e2003663 (2018)]。ノンレム分布のこの奇妙な形状が、複数の動物からのデータを組み合わせたアーチファクトではないことを確認するために、各動物についてデータをプロットしたところ、各マウスが、ノンレムからレム状態への標準偏差の増加を示した(
図9D)。個々の動物はまた、この尾の長いノンレム分布を示した。これらの実験の両方は、観察された信号が呼吸数信号であることを示した。これらの結果は、良好な分類器の性能を示唆した。
【0121】
分類
最後に、機械学習分類器を訓練し、320の視覚的特徴を使用して睡眠状態を予測した。検証のために、映像内の相関データによって導入される可能性のあるすべてのバイアスを避けるために、動物からのすべてのデータを提供した。訓練および試験正解率の計算のために、どの動物が提供されるかをシャッフリングすることによって10分割交差検証を実施した。本明細書の上記の材料および方法に記載されるようにバランスの取れたデータセットを作成し、XgBoost、ランダムフォレスト、MLP、ロジスティック回帰、およびSVDを含む複数の分類アルゴリズムを比較した。性能は分類器間で大きく異なることが観察された(表4)。XgBoostおよびランダムフォレストの両方が、提供試験データにおいて良好な正確度を達成した。しかしながら、ランダムフォレストアルゴリズムは、100%の訓練正解率を達成し、訓練データを過剰適合したことを示した。全体として、最も性能の高いアルゴリズムは、XgBoost分類器であった。
【表4】
【0122】
覚醒、ノンレム、およびレム状態間の移行は、ランダムではなく、一般的に予想されるパターンに従う。例えば、覚醒は一般的にノンレムに移行し、これはその後、レム睡眠に移行する。隠れマルコフモデルは、睡眠状態間の依存関係をモデル化するための理想的な候補である。所与の状態における移行確率行列および発生確率は、訓練データを使用して学習される。HMMモデルを追加することによって、全体的な分類器の正解率が、0.839+/-0.022から0.906+/-0.021に7%改善したことが観察された(
図10A、+HMM)。
【0123】
分類器の性能を高めるために、Huモーメント測定値を、分類のための入力特徴に含めるためにセグメンテーションから採用した[Hu, M-K. IRE Trans Inf Theory. 8(2):179-187 (1962)]。これらの画像モーメントは、中央画像モーメントの積分および線形結合を通したマウスのセグメンテーションの数値説明であった。Huモーメント特徴の追加は、交差検証性能の変動が0.906+/-0.021から0.913+/-0.019に減少することによって、全体的な正解率のわずかな増加および分類器の堅牢性の増加を達成した(
図10A、+Huモーメント)。
【0124】
EEG/EMGスコアリングは、訓練を受けたヒト専門家によって実施されたが、訓練された注釈者の間にはしばしば不一致がある[Pack, A.I. et al. Physiol. Genomics. 28(2):232-238 (2007)]。実際に、2人の専門家は、概して、レムおよびノンレムについて88~94%の確率でのみ一致した[Pack, A.I. et al. Physiol. Genomics. 28(2):232-238(2007)]。最近公開された機械学習方法を使用して、EEG/EMGデータをスコア化して、ヒトスコア記録者からのデータを補完した[Miladinovic, D. et al., PLoS Comput. Biol. 15(4):e1006968 (2019)]。SPINDLE注釈とヒト注釈を比較し、全エポックの92%で一致することが見出された。次いで、ヒトおよび機械ベースの方法の両方が一致したエポックのみを、視覚的分類器訓練の標識として使用した。SPINDLEおよびヒトが一致したエポックのみを使用した分類器の訓練により、正解率がさらに1%増加した(
図10A、+フィルタ注釈)。したがって、最終分類器は、0.92+/-0.05の3状態分類正解率を達成した。
【0125】
使用した分類特徴を調査して、どれが最も重要であったかを決定した。マウスの領域および動き測定値が、最も重要な特徴として識別された(
図10B)。制限することを意図するものではないが、動きがバイナリ睡眠覚醒分類アルゴリズムで使用される唯一の特徴であるため、この結果が観察されたと考えられる。加えて、上位5つの特徴のうちの3つは、低周波数(0.1~1.0Hz)パワースペクトル密度であった(
図7Aおよび
図7B、FFT列)。さらに、覚醒エポックは、低周波数で最もパワーを有し、レムは、低周波数で低パワーを有し、ノンレムは、低周波数信号で最小パワーを有したことも観察された。
【0126】
最も性能の高い分類器を使用して、良好な性能が観察された(
図10C)。
図10Cに示す行列の行は、ヒトスコア記録者によって割り当てられた睡眠状態を表し、列は分類器によって割り当てられた段階を表す。覚醒は96.1%の正解率でクラスの中で最も高い正解率を有した。行列の対角線外を観察することによって、分類器は、睡眠状態間よりも、いずれかの睡眠状態から覚醒を区別することにおいてより良好に機能し、ノンレムからレムを区別することは困難な作業であったことを示す。
【0127】
最終分類器では、平均0.92+/-0.05の全体的正解率が達成された。覚醒段階の予測正解率は0.97+/-0.01であり、平均適合再現率は0.98であった。ノンレム段階の予測正解率は0.92+/0.04であり、平均適合再現率は0.93であった。レム段階の予測正解率は0.88+/-0.05であり、平均適合再現率は0.535であった。レムに対するより低い適合再現率は、レム段階として標識されたエポックの割合が非常に少なかったためであった(4%)。
【0128】
予測正解率に加えて、適合率、再現率、およびF1スコアを含む性能指標を測定して、10分割交差検証からモデルを評価した(
図10D)。不均衡なデータを考慮すると、適合率-再現率は分類器性能に対するより良い指標であった[Powers, D.M.W., J. Mach. Learn. Technol. 2(1):37-63 (2011) ArXiv:2010.16061;Saito, T. and Rehmsmeier, M. PLoS ONE. 10(3):e0118432 (2015)]。適合率は、正しく予測された陽性項目の割合を測定し、一方で再現率は、正しく識別された実際の陽性の割合を測定した。F1スコアは、適合率および再現率の加重平均であった。
【数1】
【数2】
【数3】
TP、TN、FP、およびFNはそれぞれ真陽性、真陰性、偽陽性、および偽陰性である。
【0129】
最終分類器は、覚醒状態およびノンレム状態の両方に対して優れていた。しかしながら、レム段階について最も不良な性能が指摘され、0.535の適合率および0.664のF1を有した。誤って分類された段階の大部分は、ノンレムとレムの間であった。レム状態は少数クラス(データセットの4%のみ)であったため、比較的小さな偽陽性率でさえも、まれな真陽性を圧倒するであろう多数の偽陽性を引き起こすことになる。例えば、レム期間の9.7%は、視覚的分類器によってノンレムとして誤って識別され、予測されたレム期間の7.1%は、実際にはノンレムであった(
図10C)。これらの誤分類誤差は小さいように思われるが、レムとノンレムの間の不均衡により、分類器の適合率に不釣り合いに影響を与える可能性がある。これにもかかわらず、分類器はまた、検証データセットに存在するレムエポックの89.7%を正しく識別することができた。
【0130】
EEG/EMG記録の他の既存の代替案の文脈内で、このモデルは性能が優れていた。表5は、以前に報告されたモデルのそれぞれの性能を、本明細書に記載の分類器モデルの性能と比較している。以前に報告されたモデルの各々は、異なる特徴を有する異なるデータセットを使用したことに留意されたい。特に、ピエゾシステムは、偽陽性の可能性が低いために、より高い適合率を示し得るバランスの取れたデータセットで評価された。本明細書で開発された分類器アプローチは、覚醒およびノンレム状態予測のための全てのアプローチよりも優れていた。レム予測は、全てのアプローチに対してより困難な作業であった。機械学習アプローチのうち、本明細書に記載のモデルは、最高の正解率を達成した。
図11Aおよび
図11Bは、我々の分類器と、ヒト専門家による手動スコアリングの視覚的性能比較を示す(ヒプノグラム)。x軸は時間であり、連続エポックからなり、y軸は3つの段階に対応する。各サブ図について、上のパネルはヒトのスコアリング結果を表し、下のパネルは分類器のスコアリング結果を表す。ヒプノグラムは、単離された偽陽性の頻度と共に、段階間の正確な移行を示す(
図11A)。また、24時間にわたる単一の動物についての視覚的およびヒトスコアリングもプロットする(
図11B)。ラスタープロットは、状態分類間のより優れた全体的な相関を示す(
図11B)。次いで、C57BL/6J動物すべてを、ヒトEEG/EMGスコアリングと視覚スコアリングの間で比較する(
図11C、D)。すべての状態にわたって高い相関が観察され、我々の視覚的分類器スコアリング結果がヒトスコアと一致すると結論付ける。
【表5】
【0131】
分類器性能を改善するために、様々なデータ拡張アプローチも試みた。24時間における異なる睡眠状態の割合は、著しく不均衡であった(覚醒48%、ノンレム48%、およびレム4%)。時系列データに使用される典型的な拡張技術には、ジッタリング、スケーリング、回転、並べ替え、およびクロッピングが含まれる。これらの方法は、互いに組み合わせて適用することができる。分類正解率は、4つのデータ拡張技術を組み合わせることにより訓練データを拡張することによって増加させ得ることが以前に示されている[Rashid, K.M. and Louis, J. Adv Eng Inform. 42:100944 (2019)]。しかしながら、時系列から抽出された特徴はスペクトル組成に依存していたため、分類器を改善するために、動的時間伸縮ベースのアプローチを使用して訓練データセットのサイズを拡張する[Fawaz, H.I., et al., arXiv :1808:02455]ことが決定された。データ拡張後、データセットのサイズは(14Kエポックから17Kエポックに)約25%増加した。拡張アルゴリズムを通してデータを追加することで、予測正解率が低下することが観察された。覚醒状態、ノンレム状態、およびレム状態の平均予測平均は、77%、34%、および31%であった。いかなる特定の理論にも束縛されることを望むものではないが、データ拡張後の性能は、レム状態データからのより多くのノイズの導入および分類器の性能の低下に起因し得る。性能は、10分割交差検証で示された。このデータ拡張適用の結果を
図12および表6に示す(表6は、データ拡張の数値結果を示す)。このデータ拡張アプローチは、分類器性能を改善しなかったため、さらに追求しなかった。全体として、視覚的睡眠状態分類器は、視覚的データのみを使用して、睡眠状態を正確に識別することができた。HMM、Huモーメント、および非常に正確な標識を含めることは、性能を改善した一方、動的時間伸縮および動作増幅を使用したデータ拡張は、性能を改善しなかった。
【表6】
【0132】
考察
睡眠障害は、多くの疾患の特徴であり、モデル生物におけるハイスループット研究は、新しい治療薬の発見のために重要である[Webb, J.M. and Fu, Y-H., Curr. Opin. Neurobiol. 69:19-24 (2021); Scammell,T.E.et al.,Neuron. 93(4):747-765 (2017); Allada, R. and Siegel, J.M. Curr. Biol. 18(15):R670-R679 (2008)]。マウスにおける睡眠研究は、手術の実施、回復時間、および記録されたEEG/EMG信号のスコアリングのための時間投資により、大規模に実施することが困難である。本明細書に記載されるシステムは、マウスの睡眠行動のEEG/EMGスコアリングの低コストの代替手段を提供し、研究者が、以前はコストがひどく高かったであろうより大きなスケールの睡眠実験を行うことを可能にする。以前のシステムは、こうした実験を実施するために提案されてきたが、覚醒状態と睡眠状態とを適切に区別することのみが示されている。本明細書に記載されるシステムは、これらのアプローチに基づいて構築され、睡眠状態をレムおよびノンレム状態に区別することもできる。
【0133】
本明細書に記載されるシステムは、睡眠中のマウスの動きおよび姿勢の感度の高い測定を達成する。このシステムは、視覚的測定値のみを使用して、マウスの呼吸数と相関する特徴を観察することが示されている。この感度レベルを達成できる以前に公開されたシステムには、プレチスモグラフィー[Bastianini, S. et al., Sci. Rep. 7:41698 (2017)]またはピエゾシステム[Mang, G.M. et al., Sleep. 37(8):1383-1392 (2014); Yaghouby, F., et al., J. Neurosci. Methods. 259:90-100 (2016)]を含む。加えて、本明細書では、使用される特徴に基づいて、この新規システムは、ノンレム睡眠エポックのサブクラスターを識別することができ得ることが示されており、これはマウス睡眠の構造をさらに解き明かす可能性がある。
【0134】
結論として、マウスにおける睡眠状態決定のための、本明細書に上述されるハイスループットの、非侵襲的な、コンピュータビジョンベースの方法は、社会に有用である。
【0135】
等価物
本発明のいくつかの実施形態が本明細書に説明および図示されているが、当業者であれば、機能を実施するための、ならびに/あるいは、本明細書で説明する結果および/または1つまたは複数の利点を取得するための、様々な他の手段および/または構造を容易に思い描くことができ、このような変形および/または修正のそれぞれは、本発明の範囲内であると見なされる。より一般的には、当業者であれば、本明細書で説明するすべてのパラメータ、寸法、材料、および構成が、例示的であることを意味していることは、また、実際のパラメータ、寸法、材料、および/または構成が、本発明の教示が使用される特定の1つまたは複数の用途に依存することは、容易に理解されよう。当業者であれば、本明細書で説明する本発明の特定の実施形態に対する多くの等価物を理解されよう、あるいは、それら等価物を、日常的な実験のみを使用して確認し得るであろう。したがって、前述の実施形態が、例示のみによって提示されていることは、理解されよう、また、添付の特許請求の範囲内においておよびその等価物の範囲内において、本発明が、具体的に記載されて特許請求の範囲に記載されているもの以外の方法で実施され得ることは、理解されよう。 本発明は、本明細書で説明する個々の、特徴、システム、物品、材料、および/または方法、を対象とする。加えて、そのような特徴、システム、物品、材料、および/または方法が相互に矛盾しない場合には、2つ以上のそのような特徴、システム、物品、材料、および/または方法に関する任意の組合せは、本発明の範囲内に含まれる。本明細書で定義して使用されるすべての定義が、辞書の定義、参照により援用される文書における定義、および/または、定義された用語に関する通常的な意味合いを統制することは、理解されよう。
【0136】
本明細書および特許請求の範囲において本明細書で使用された際には、不定冠詞「a」および「an」が、明確に反対の趣旨が示されていない限り、「少なくとも1つの」を意味することは、理解されよう。本明細書および特許請求の範囲において本明細書で使用された際には、「および/または」という語句が、そのように結合される要素の「いずれかまたは両方」を、すなわち、一部の事例では結合的に存在しており他の事例には分離的に存在している要素の「いずれかまたは両方」を、意味することは、理解されよう。明示的にこれと異なることが示される場合を除き、具体的に識別された要素と関連しているかまたは無関係であるかに関わらず、他の要素は、任意選択的に、「および/または」という語句によって具体的に識別された要素以外に存在してもよい。
【0137】
本明細書で使用される、とりわけ「can」、「could」、「might」、「may」、「e.g.,」、および同種のものなどの、条件付き文言は、特に別段の記載がない限りまたは使用される文脈内で別途に理解されない限り、特定の実施形態が、特定の特徴、要素および/またはステップを含む一方で、他の実施形態はそれらを含まないことを伝えることが概して意図されている。よって、このような条件付き文言は、特徴、要素、および/またはステップが1つまたは複数の実施形態に関して何らかの態様で必要とされること、あるいは、1つまたは複数の実施形態が、他の入力または促しの有無にかかわらずこれらの特徴、要素、および/またはステップが任意の特定の実施形態に含まれるかあるいは任意の特定の実施形態の中で実行されるかどうかを決定するための論理を必ず含むことを意味することを、一般的に意図するものではない。「含む(comprising)」、「含む(including)」、「有する(having)」および同種の用語は、同義であり、包括的に、オープンエンドの様式で使用され、追加の要素、特徴、行為、操作、および同種のものを排除するものではない。また、「または(or)」という用語は、その包括的意味において使用される(かつ排他的意味ではない)ため、例えば、要素のリストを接続するために、「または(or)」という用語は、リスト中の要素の1つ、一部、または全てを意味する。
【0138】
本出願において引用または言及される全ての参考文献、特許、および特許出願ならびに刊行物は、その全体が参照により本明細書に組み込まれる。
【国際調査報告】