(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2025-09-22
(45)【発行日】2025-10-01
(54)【発明の名称】拡張現実患者評価モジュール
(51)【国際特許分類】
G16H 50/20 20180101AFI20250924BHJP
G06F 3/01 20060101ALI20250924BHJP
A61B 34/10 20160101ALI20250924BHJP
A61B 90/00 20160101ALI20250924BHJP
【FI】
G16H50/20
G06F3/01 510
A61B34/10
A61B90/00
(21)【出願番号】P 2023566507
(86)(22)【出願日】2022-04-27
(86)【国際出願番号】 US2022026509
(87)【国際公開番号】W WO2022232250
(87)【国際公開日】2022-11-03
【審査請求日】2023-12-25
(32)【優先日】2021-04-27
(33)【優先権主張国・地域又は機関】US
(32)【優先日】2022-01-27
(33)【優先権主張国・地域又は機関】US
(73)【特許権者】
【識別番号】523406174
【氏名又は名称】ジンマー ユーエス,インコーポレイティド
(74)【代理人】
【識別番号】100099759
【氏名又は名称】青木 篤
(74)【代理人】
【識別番号】100123582
【氏名又は名称】三橋 真二
(74)【代理人】
【識別番号】100160705
【氏名又は名称】伊藤 健太郎
(74)【代理人】
【識別番号】100227835
【氏名又は名称】小川 剛孝
(72)【発明者】
【氏名】テッド スプーナー
(72)【発明者】
【氏名】デイブ バン アンデル
(72)【発明者】
【氏名】パウロ アレクサンドル ダ トレ ピニェイロ
(72)【発明者】
【氏名】イオアンニス ボレクトシオグロウ
【審査官】森田 充功
(56)【参考文献】
【文献】米国特許出願公開第2014/0347392(US,A1)
【文献】米国特許出願公開第2018/0121728(US,A1)
【文献】特開2021-019967(JP,A)
【文献】特開2014-138661(JP,A)
【文献】米国特許出願公開第2018/0256258(US,A1)
(58)【調査した分野】(Int.Cl.,DB名)
G16H 10/00-80/00
G06Q 10/00-99/00
G06F 3/01
A61B 34/10
A61B 90/00
(57)【特許請求の範囲】
【請求項1】
拡張現実患者評価のためのシステムであって、前記システムは、
拡張現実(AR)頭部装着型ディスプレイ(HMD)と、
筋骨格評価活動の間に患者に関する深度センサデータを生成するための深度センサと、
処理回路と、
命令を含むメモリであって、前記命令は、前記処理回路によって実行されたとき、前記処理回路に、
前記深度センサデータ
を用いた骨格推定技術に基づいて
、関節を含む特徴点を座標データで表した骨格モデルを生成させ、
前記筋骨格評価活動の間に患者の運動
の画像を追跡させ、
前記患者の
運動の画像と前記患者の静止時の画像との比較に基づいて現在のROMを決定させ、
前記ARHMDを通して前記患者を見ながら前記ARHMD上で表示するために前記患者に重ねられた前記現在のROMを出力させる、
メモリと、
を備え、
前記命令は、前記処理回路に、
筋骨格外科処置に基づいて、改良された運動範囲(ROM)を決定させ、
改良された前記運動範囲(ROM)及び前記患者の術前骨格モデルに基づいて予測術後骨格モデルを生成させ、前記予測術後骨格モデルは、改良された前記運動範囲(ROM)を含み、
前記ARHMDを通して前記患者を見ながら前記ARHMD上で表示するために前記患者に重ねられた前記予測術後骨格モデルを出力させる、
システム。
【請求項2】
前記命令は、更に、前記処理回路に、
前記筋骨格評価活動の選択を受信させ、
前記ARHMDを通して前記患者を見ながら前記ARHMD上で表示するために前記筋骨格評価活動の説明を出力させる、
請求項1に記載のシステム。
【請求項3】
前記命令は、更に、前記処理回路に、
前記筋骨格評価活動
の間の前記患者の前記深度センサデータに基づいて目標のROMを決定させ、
前記ARHMDを通して前記患者を見ながら前記ARHMD上で表示するために前記目標のROMのグラフィック表示を出力させる、
請求項1に記載のシステム。
【請求項4】
前記命令は、更に、前記処理回路に
、前記ARHMD上で表示するために
目標のROMを実現するための筋骨格活動を出力させ、
前記目標のROMを実現するための前記筋骨格活動は、前記筋骨格評価活動を行うための
前記患者の運動指令
の形で前記ARHMD上に表示される、請求項1に記載のシステム。
【請求項5】
前記命令は、更に、前記処理回路に
前記患者に取り付けられた運動センサから運動センサデータを受信させ、前記運動センサデータが前記患者の筋骨格運動を特徴付け、
前記骨格モデルの前記生成は、更に前記
運動センサデータに基づく、
請求項1に記載のシステム。
【請求項6】
前記命令は、更に、前記処理回路に前記患者の筋骨格関節の医療用撮像データを受信させ、
前記骨格モデルの生成は、更に
、X線、MRI及びCTスキャンを含む前記医療用撮像データに基づく、
請求項1に記載のシステム。
【請求項7】
前記命令は、更に、
前記処理回路に、
前記患者にとって必要か否かを検討するためのモデル外科処置の選択を受信させ、
前記患者にとって必要か否かを検討するための前記モデル外科処置及び前記骨格モデルに基づいて
前記患者
にとって必要な処置を生成させ、
前記ARHMDを通して前記患者を見ながら前記ARHMD上で表示するために前記患者
にとって必要な処置を出力させる、
請求項1に記載のシステム。
【請求項8】
前記深度センサは、更に、術後筋骨格評価活動の間に前記患者に関する術後深度センサデータを生成し、
前記命令は、更に、前記処理回路に、
前記術後深度センサデータに基づいて
術後骨格モデルを生成させ、
前記ARHMD上で表示するために前記術前骨格モデルに重ねられた前記
術後骨格モデルを出力させる、
請求項1に記載のシステム。
【請求項9】
前記命令は、更に、前記処理回路に外科処置の選択を受信させ、前記予測術後骨格モデルは、更に前記外科処置の選択に基づく、
請求項1に記載のシステム。
【請求項10】
前記命令は、更に、前記処理回路に、
前記筋骨格評価活動と関連付けられる
前記外科処置のリストを識別させ、
前記ARHMD上で表示するために前記外科処置のリストについて選択プロンプトを出力させる、
請求項9に記載のシステム。
【請求項11】
請求項1に記載のシステムが実行する拡張現実患者評価のための方法であって、前記方法が、
前記筋骨格評価活動の間に
前記患者に関する
前記深度センサデータを生成することと、
前記深度センサデータに基づいて骨格モデルを生成することと、
前記筋骨格評価活動の間に
前記患者の運動を追跡することと、
前記患者の運動に基づいて
前記現在のROMを決定することと、
拡張現実(AR)頭部装着型ディスプレイ(HMD)を通して前記患者を見ながら前記ARHMD上で表示するために前記患者に重ねられた前記現在のROMを出力することと、
を含む、方法。
【請求項12】
更に、
前記筋骨格評価活動の選択を受信することと、
前記ARHMDを通して前記患者を見ながら前記ARHMD上で表示するために前記筋骨格評価活動の説明を出力すること、
を含む、
請求項11に記載の方法。
【請求項13】
更に、
前記筋骨格評価活動
の間の前記患者の前記深度センサデータに基づいて目標のROMを決定することと、
前記ARHMDを通して前記患者を見ながら前記ARHMD上で表示するために前記目標のROMのグラフィック表示を出力すること、
を含む、
請求項11に記載の方法。
【請求項14】
更に、前記ARHMD上で表示するために
、目標のROMを実現するための筋骨格活動を出力することを含み、
前記目標のROMを実現するための前記筋骨格活動が、前記筋骨格評価活動を行うための
前記患者の運動指令
の形で前記ARHMD上に表示される、
請求項11に記載の方法。
【請求項15】
更に、
前記患者に取り付けられた運動センサから運動センサデータを受信することを含み、前記運動センサデータが前記患者の筋骨格運動を特徴付け、
前記骨格モデルの生成は、更に前記
運動センサデータに基づく、
請求項11に記載の方法。
【請求項16】
更に、前記患者の筋骨格関節の医療用撮像データを受信することを含み、
前記骨格モデルの生成は、更に
、X線、MRI及びCTスキャンを含む前記医療用撮像データに基づく、
請求項11に記載の方法。
【請求項17】
更に、
前記患者にとって必要か否かを検討するためのモデル外科処置の選択を受信することと、
前記患者にとって必要か否かを検討するための前記モデル外科処置及び前記骨格モデルに基づいて
前記患者
にとって必要な処置を生成することと、
前記ARHMDを通して前記患者を見ながら前記ARHMD上で表示するために前記患者
にとって必要な処置を出力すること、
を含む、
請求項11に記載の方法。
【請求項18】
更に、
術後筋骨格評価活動の間に前記患者に関する術後深度センサデータを生成することと、
前記術後深度センサデータに基づいて
術後骨格モデルを生成することと、
前記ARHMD上で表示するために前記術前骨格モデルに重ねられた前記
術後骨格モデルを出力すること、
を含む、
請求項11に記載の方法。
【請求項19】
更に、外科処置の選択を受信することを含み、前記予測術後骨格モデルは、更に前記外科処置の選択に基づく、
請求項11に記載の方法。
【請求項20】
更に、
前記筋骨格評価活動と関連付けられる
前記外科処置のリストを識別することと、
前記ARHMD上で表示するために前記外科処置のリストについて選択プロンプトを出力すること、
を含む、
請求項19に記載の方法。
【請求項21】
命令を含む非一時的機械可読記憶媒体であって、命令が、コンピュータ制御機器の処理回路で実行されるのに応答して、前記処理回路に、
筋骨格評価活動の間に患者に関する深度センサデータを生成させ、
前記深度センサデータ
を用いた骨格推定技術に基づいて
、関節を含む特徴点を座標データで表した骨格モデルを生成させ、
前記筋骨格評価活動の間に患者の運動
の画像を追跡させ、
前記患者の
運動の画像と前記患者の静止時の画像との比較に基づいて現在のROMを決定させ、
拡張現実(AR)頭部装着型ディスプレイ(HMD)を通して前記患者を見ながら前記ARHMD上で表示するために前記患者に重ねられた前記現在のROMを出力さ
せ、
筋骨格外科処置に基づいて、改良された運動範囲(ROM)を決定させ、
改良された前記運動範囲(ROM)及び前記患者の術前骨格モデルに基づいて、改良された前記運動範囲(ROM)を含む予測術後骨格モデルを生成させ、
前記ARHMDを通して前記患者を見ながら前記ARHMD上で表示するために前記患者に重ねられた前記予測術後骨格モデルを出力させる、
非一時的機械可読記憶媒体。
【請求項22】
前記命令は、更に、前記処理回路に、
前記筋骨格評価活動の選択を受信させ、
前記ARHMDを通して前記患者を見ながら前記ARHMD上で表示するために前記筋骨格評価活動の説明を出力させる、
請求項21に記載の非一時的機械可読記憶媒体。
【請求項23】
前記命令は、更に、前記処理回路に、
前記筋骨格評価活動
の間の前記患者の前記深度センサデータに基づいて目標のROMを決定させ、
前記ARHMDを通して前記患者を見ながら前記ARHMD上で表示するために前記目標のROMのグラフィック表示を出力させる、
請求項21に記載の非一時的機械可読記憶媒体。
【発明の詳細な説明】
【技術分野】
【0001】
関連出願の相互参照
本出願は、2021年4月27日に提出された米国仮特許出願第63/180456号の利益を主張し、同時に、2022年1月27日に提出された米国仮特許出願第63/303683号の利益を主張する。これらの各々の優先利益が、本明細書により主張され、その各々が、参照によりその全体が本明細書に援用される。
【0002】
本出願は、拡張現実を使用する患者可動性評価に関する。
【背景技術】
【0003】
患者の可動性は、患者の筋骨格系の様々な変化の影響を受ける可能性がある。例えば、患者の関節の運動範囲は、関節炎によって又は負傷のせいで減少する場合がある。患者可動性の評価を導く際、医師は、典型的に、運動範囲を決定するために一連のエクササイズにおいて患者を指導する。しかし、患者の運動範囲は、医師による主観的判定であることが多い。
【0004】
診断は、患者が上肢(例えば、肩又は肘)、下肢(例えば、膝、股関節など)又はこれに類似するもののために外科処置を必要とするか否かを決定するために患者を評価するために使用される。これらの処置は、米国において年間に何十万件が実施される。外科的進歩によって、外科医は、診断及び外科的成果を改良するために術前プラニング、ディスプレイ機器及び撮像を使用できるようになった。
【0005】
拡張現実(AR)又は複合現実(MR)機器(ARとMRは、交換可能に使用される)は、ユーザが、現実環境(可視的)に投影されるように見える仮想オブジェクトの表示を見ることができるようにする。AR機器は、典型的には、ユーザの各眼に1つずつ含まれる、2つのディスプレイレンズ又は画面を含む。光は、仮想要素がAR機器のユーザに見えるように光を投射しながら現実環境の態様が見えるように、2つのディスプレイレンズを通過できる。
【図面の簡単な説明】
【0006】
【
図1A】
図1Aは、いくつかの実施形態に係る骨格モデリングシステムの図を示す。
【
図1B】
図1Bは、いくつかの実施形態に係る骨格モデリングシステムの図を示す。
【
図2A】
図2Aは、いくつかの実施形態に係る骨格運動モデリングシステムの図を示す。
【
図2B】
図2Bは、いくつかの実施形態に係る骨格運動モデリングシステムの図を示す。
【
図3】
図3は、いくつかの実施形態に係る遠隔骨格モデリングシステムの図を示す。
【
図4】
図4は、いくつかの実施形態に係る拡張現実関節ビューイングシステムの図を示す。
【
図5A】
図5Aは、いくつかの実施形態に係る球形骨格モデリングシステムの図を示す。
【
図5B】
図5Bは、いくつかの実施形態に係る球形骨格モデリングシステムの図を示す。
【
図6】
図6は、いくつかの実施形態に係る拡張現実患者評価方法を示すフローチャートを示す。
【
図7】
図7は、いくつかの実施形態に係るアプリケーションを選択するためのユーザインターフェイスを示す。
【
図8】
図8は、いくつかの実施形態に係る患者選択のための第1のユーザインターフェイスを示す。
【
図9】
図9は、いくつかの実施形態に係る患者選択のための第2のユーザインターフェイスを示す。
【
図10】
図10は、いくつかの実施形態に係る患者を選択するためのユーザインターフェイスを示す。
【
図11】
図11は、いくつかの実施形態に係る患者情報を表示するためのユーザインターフェイスを示す。
【
図12】
図12は、いくつかの実施形態に係る評価を選択するための評価ユーザインターフェイスを示す。
【
図13】
図13は、いくつかの実施形態に係るAR評価の態様を表示するためのユーザインターフェイスを示す。
【
図14】
図14は、いくつかの実施形態に係るAR評価及び骨格オーバーレイの態様を表示するためのユーザインターフェイス及びコンポーネントを示す。
【
図15】
図15は、いくつかの実施形態に係るAR評価及び骨格オーバーレイの態様を表示するためのユーザインターフェイス及びコンポーネントを示す。
【
図16】
図16は、いくつかの実施形態に係るAR評価の結果を表示するためのユーザインターフェイスを示す。
【
図17】
図17は、いくつかの実施形態に係る拡張現実で手術デモンストレーション(以後、「手術デモ」、と称する。)を選択するためのユーザインターフェイスを示す。
【
図18】
図18は、いくつかの実施形態に係る、拡張現実で手術デモを選択するためのユーザインターフェイスを示す。
【
図19】
図19は、いくつかの実施形態に係るARデモンストレーション及び3D骨モデルの態様を表示するためのユーザインターフェイス及びコンポーネントを示す。
【
図20】
図20は、いくつかの実施形態に係る3D骨モデルARビューの例を示す。
【
図21】
図21は、いくつかの実施形態に係るARビューにおける3D骨モデルの例を示す。
【
図22】
図22は、本開示の少なくとも1つの実施例に係る拡張現実を使用する患者評価を実施するための技法を示すフローチャートを示す。
【
図23】
図23は、本開示の少なくとも1つの実施例に係る拡張現実を使用する手術デモを表示するための技法を示すフローチャートを示す。
【
図24】
図24は、いくつかの実施形態に係る本明細書において論じる技法の何れか1つ又は複数を実施できる機械のブロック図の例を示す。
【発明の概要】
【発明が解決しようとする課題】
【0007】
本開示は、患者可動性評価が直面する技術的問題に対する技術的解決法を説明する。可動性評価の主観性を減じるために、深度カメラ(例えば、深度センサ)を使用して、精確な患者の運動を決定し、患者の骨格モデルを生成し、様々な患者関節の運動範囲を決定できる。AR又はMR頭部装着型ディスプレイ(HMD)は、透明表示画面を含むことができ、透明表示画面を通して患者を見ながら患者に重ねられた骨格モデルを表示するために使用できる。
【課題を解決するための手段】
【0008】
医師は、一連の筋骨格評価活動において患者を案内できる。評価活動中に捕捉された深度センサ情報は、患者の骨格モデルを生成し、様々な患者関節の運動範囲を決定するために使用できる。評価活動は、透明表示画面を通して患者を見ながらHMD上で表示できる。評価活動の表示は、1つ又は複数の関節について患者の現在の運動範囲の表示を含むことができる。
【0009】
骨格モデル及び運動範囲情報は、予測術後骨格モデルを生成するために使用できる。予測術後骨格モデルは、外科処置に基づいて改良された運動範囲を示すことができる。例えば、大腿寛骨臼インピンジメントは、股関節可動性を制限する場合があり、予測術後骨格モデルは、寛骨臼表面再形成処置に基づいて改良された股関節運動範囲を示すことができる。評価活動は、関節の運動範囲を改良できる1つ又は複数の外科処置を識別するために使用できる。例えば、股屈曲及び伸展評価活動は、股関節運動範囲の減少を示すことができ、股関節運動範囲を改良するために、寛骨臼表面再形成処置又はその他の股関節処置を医師に示唆できる。予測術後骨格モデルは、表示のために出力され、透明表示画面を通して患者を見ながら患者に重ねることができる。予測術後骨格モデルは、患者HMD、タブレット又はその他のディスプレイ機器などの患者ビューイング機器に表示できる。
【0010】
付加的筋骨格評価活動は、外科処置後などに患者可動性を再評価するために使用できる。術後評価活動は、術後深度センサデータを収集し、術後骨格モデルを生成するために使用できる。この術後骨格モデルは、術前モデルの上に重ね合わせた術後モデルを表示するなどによって、術前骨格モデルと比較できる。術前モデル及び術後モデルの一方又は両方は、透明HMD画面を通して患者を見ながら患者に両方のモデルを重ね合わせるなど、ユーザに重ね合わせることができる。
【0011】
光学カメラ(例えば、画像捕捉機器)は、術前又は術後評価などにおいて、画像(例えば、静止画像又は動画)を捕捉できる。捕捉された画像は、関連付けられる術前又は術後骨格モデルと一緒に保存でき、患者に重ねられた骨格モデルを見るために医師又は患者が使用できる。捕捉された画像は、医師又は患者が特定の関節の位置(例えば、全屈曲又は全伸展)を見る又はある関節についての患者の現在の運動範囲のビデオを見ることができるようにする。
【0012】
本明細書において説明するシステム及び方法は、患者の身体の一部分への整形外科手術前、術中又は手術完了後に患者を評価するために使用できる。整形外科手術は、関節修復、置換、修正などを含むことができる。患者評価は、治療行程の重要な手術前、手術中及び手術後の態様である。運動範囲情報及び運動の質情報は、特に、患者の干渉前の限界、手術中の修復度及び干渉後の回復進行度を知る上で役立ち得る。
【0013】
本明細書において説明するシステム及び方法は、拡張又は仮想現実で特徴、ユーザインターフェイス、コンポーネント(例えば、三次元(3D)モデル、オーバーレイなど)又はこれに類似するものを表示するために使用できる。3Dモデルは、一般的骨モデル又は患者固有の骨モデル(例えば、患者撮像から生成される)などの骨モデルを含むことができる。オーバーレイは、骨格オーバーレイ、例えば患者の関節及び骨又はその他の体内組織構造を表す1組の関節及び関節を接続する分節を含むことができる。オーバーレイは、患者に重ねて表示できる(例えば、オーバーレイは、患者が現実世界で見える状態で、拡張又は複合現実システムにおいて仮想的に表示される)。
【0014】
拡張現実(AR)機器は、現実環境(同様に見える)に投影されるように見える表示された仮想オブジェクトをユーザが見えるようにする。AR機器は、典型的に、ユーザの各眼のために1つを含む、2つのディスプレイレンズ又は画面を含む。光は、AR機器のユーザに仮想要素が見えるようにするために光を投射しながら現実環境の態様が見えるように、2つのディスプレイレンズを通過できる。
【0015】
拡張現実は、現実環境に重ねられた仮想又は「拡張」オブジェクト又は視覚効果を表示するためのテクノロジーである。現実環境は、ある部屋又は具体的エリアを含むか、又は世界全般を含むもっと広範なものとすることができる。現実環境に重ねられた仮想形態は、固定されたものとして又は現実環境の1つ又は複数の態様に対して設定された位置で表すことができる。例えば、メニュ又はモデルなどの仮想オブジェクトは、テーブルに乗っているように見えるように構成できる。ARシステムは、ARシステムのビューアの視野又はビューアを考慮することなく現実オブジェクトに固定される仮想形態を表示できる。例えば、仮想オブジェクトはある部屋に在り、その部屋内のARシステムのビューアには見え、その部屋外のARシステムのビューアには見えない。その部屋の中の仮想オブジェクトは、ビューアが部屋に入ったとき部屋外のビューアに表示できる。この例において、部屋は、ARシステムにおいて仮想オブジェクトが固定される現実オブジェクトとして機能できる。
【0016】
AR機器は、1つの画面又は2つの画面(例えば、ユーザの1つの眼に1つ)など1つ又は複数の画面を含むことができる。画面は、仮想オブジェクトを表示しながら現実環境の態様が見えるように、光が画面を通過できるようにする。仮想オブジェクトは、光を投射することによってAR機器の装着者に見えるようにできる。仮想オブジェクトは、ある程度の透明度を有するように見えるか又は不透明とすることができる(即ち、現実環境の態様を遮断して)。
【0017】
ARシステムは、単数又は複数人のビューアに視検可能とすることができ、いくつかの態様をビュー間で共通のままで維持しながら単数又は複数のビューアが利用できるビューの間で相違を含むことができる。例えば、ヘッドアップディスプレイは、両方のビューにおいて仮想オブジェクトを現実オブジェクト又はエリアに固定しながら2つのビューの間で変化できる。オブジェクトの色、照明などの態様又はその他の変化を、少なくとも1つの仮想オブジェクトの固定位置を変更することなくビューの間で加えることができる。
【0018】
ユーザは、不透明又はいくつかのレベルの透明度を含むものとして表示された仮想オブジェクトをARシステムで見ることができる。1つの例において、ユーザは、第1位置から第2位置へ仮想オブジェクトを移動する又は1つの表示を選択する(例えば、メニュ上で)などによって、仮想オブジェクトと対話できる。例えば、ユーザは、ジェスチャ又は手の置き位置でオブジェクトを移動又は選択できる。これは、手がオブジェクトに一致する又はこれに隣接する位置まで移動したと決定して(例えば、AR機器に取り付けることができ静止的であるか又は移動するよう制御できる1つ又は複数のカメラを使用して)、これに応じてオブジェクトを移動又は応答させることによって、ARシステムにおいて仮想的に行うことができる。仮想形態は、現実世界オブジェクトの仮想表現を含むか、又は照明効果などの視覚効果を含むことができる。ARシステムは、仮想オブジェクトが重力又は摩擦を受けるなど仮想オブジェクトの行動を支配するルールを含むか、又は現実世界の物理的制約を無視した(例えば浮動オブジェクト、永久運動など)他の予め規定したルールを含むことができる。AR機器は、AR機器上のカメラを含むことができる。AR機器カメラは、赤外線カメラ、赤外線フィルタ、可視光線フィルタ、複数のカメラ、深度カメラなどを含むことができる。AR機器は、ユーザが見ることができる現実環境の表示に被せて仮想アイテムを投影できる。
【発明を実施するための形態】
【0019】
図(必ずしも縮尺通りではない)において、同様の参照番号は異なる図において同様のコンポーネントを指す場合がある。異なる接尾文字を有する同様の番号は、同様のコンポーネントの異なる例を表す場合がある。図面は限定的ではなく例として概略的に本出願において論じる様々な実施形態を図解する。
【0020】
図1Aから
図1Bは、いくつかの実施形態に係る骨格モデリングシステム100の図を示す。システム100は、ARディスプレイ115を有するHMD110を含むことができる。HMD110は、医師120が装着し、ディスプレイ115を通して患者130を見ながら患者情報125を表示するために使用できる。HMD110は、深度センサ、イメージセンサ及びその他のセンサを使用して、患者130を識別できる。
図1Aに示すように、HMD110は、患者が識別されたことを示すために円135を重ね合わせることができる。HMD110は、術前骨格モデルを生成するために深度センサ、イメージセンサ及びその他のセンサの1つ又は複数を使用できる。術前骨格モデルは、静止する又は移動する患者に基づいて生成できる。
図1Bに示すように、HMD110は、患者130に術前骨格モデル140を重ね合わせることができる。1つの実施形態において、一般化初期術前骨格モデルは、患者の静止ビューに基づいて生成され、術前骨格モデルは、付加的な深度及びイメージセンサデータに基づいて連続的に更新される。モデルは、
図2Aから
図2Bに示すような一連の筋骨格評価活動に基づいて更新できる。
【0021】
図2Aから
図2Bは、いくつかの実施形態に係る骨格運動モデリングシステム200の図を示す。システム200は、ARディスプレイ215を有するHMD210を含むことができる。HMD210は、医師220が装着でき、ディスプレイ215を通して患者230を見ながら運動範囲及びその他の患者情報225を表示するために使用できる。医師220は、一連の筋骨格評価活動において患者230を案内できる。評価活動は、患者230の骨格モデル250を更新するために使用できる。
図2Aに示すように、評価活動は、肩関節運動範囲255を決定するために使用できる。HMD210は、骨格モデル250及び患者230に重ね合わせた運動角度範囲表示260などの運動範囲に関する情報を表示できる。HMD210は、又、患者情報225内に運動範囲の現在及び履歴情報も表示できる。
【0022】
骨格モデル250及び運動範囲情報は、外科処置に基づいて関連付けられる改良された運動範囲を含む予測術後骨格モデルを生成するために使用できる。システム200は、肩関節の減少した運動範囲を識別し、改良された肩関節運動範囲を含む予測術後骨格モデルを生成できる。
図2Bに示すように、HMD210は、減少した肩関節運動範囲265及び予測術後運動範囲255を表示できる。減少した肩関節運動範囲265は、予測術後運動範囲255から区別するために破線又は半透明フォーマットで表示できる。1つの実施形態において、システム200は、肩関節の運動範囲を改良するための肩峰鎖骨表面再形成処置又はその他の肩関節処置を示唆する。システム200は、医師220に選択のために1つ又は複数の外科処置を表示でき、予測術後運動範囲255は、1つ又は複数の選択された処置に基づいて生成できる。
【0023】
外科処置後、骨格モデル250及び運動範囲情報を再評価するために、事後筋骨格評価活動を使用できる。術後評価活動は、術後深度センサデータを収集して術後骨格モデルを生成するために使用できる。
図2Bと同様、HMD210は、術後運動範囲の隣りに減少した術前肩関節運動範囲を表示するなど、1対の患者骨格モデルを表示できる。
【0024】
図3は、いくつかの実施形態に係る遠隔骨格モデリングシステム300の図を示す。システム300は、骨格モデリング機器310を含むことができ、機器は、患者320の骨格モデル340を生成するために深度センサ、イメージセンサ及びその他のセンサを含むことができる。ディスプレイ機器330は、捕捉された患者320の画像に重ねられた骨格モデル340及び関節運動範囲345を表示するために使用できる。骨格モデリング機器310によって捕捉されたイメージ及び深度センサデータは、関連付けられる術前又は術後骨格モデルと一緒に保存でき、医師又は患者が患者320に重ねられた骨格モデル340の画像又はビデオを見るために使用できる。1つの実施形態において、骨格モデリング機器310は、患者の家又は医師から離れた他の場所において使用できる。これによって、医師の下に赴く必要なく患者320が術前又は術後筋骨格評価活動に参加できるようにするなどによって、遠隔評価を改良できる。
【0025】
図4は、いくつかの実施形態に係るARジョイントビューイングシステム400の図を示す。システム400は、患者415が装着する患者用ARディスプレイ410及び医師425が装着する医師用ARディスプレイ420などの1つ又は複数のARディスプレイを含むことができる。医師425は、システム400を使用して、術前又は術後関節可動性を実証できる。例えば、医師425は、患者用ARディスプレイ410及び医師用ARディスプレイ420の両方に術前膝関節状態のAR画像を表示できる。AR画像は、テーブルのある位置又は別の現実世界の位置に固定できる。医師425は、術前膝関節状態の説明を助けるために1つ又は複数の骨又は軟組織を強調させるなどによってAR画像と対話できる。システム400は、術前骨格モデル、予測術後骨格モデル又は術後骨格モデルなどの1つ又は複数の骨格モデルを表示し、これについて論じるために使用できる。
【0026】
図5Aから
図5Bは、いくつかの実施形態に係る球形骨格モデリングシステム500の図を示す。システム500は、患者530を見ながら医師520が装着するAR HMD(以下、「ARHMD」と、称する。)510を含むことができる。システム500は、HMD510を通して患者530を見ながら患者530の周りに表示される評価用球体540を表示できる。評価用球体540は、患者可動性を評価するために使用できる1つ又は複数の角度ガイドライン(例えば、緯度線又は経度線)を含むことができる。例えば、
図2Aから
図3に示す0°から180°の肩関節回転を、評価用球体540上の対応するガイドラインによって表示できる。評価用球体540を、
図5Aに示すように静止患者を見るために使用するか、又は
図5Bに示すように移動する患者を見るために使用できる。評価用球体540は、患者の骨格モデル550に固定でき、患者530と一緒に回転又は移動できる。1つの実施形態において、評価用球体540の位置は、回転を所定の座標系と一致させたまま骨格モデル550の最上関節に固定できる。例えば、評価用球体540の位置は、歩く患者530と一緒に移動するが、評価用球体540の回転は、部屋の壁と床によって画定された直交座標系の中でロックできる。
【0027】
図6は、いくつかの実施形態に係るAR患者評価方法600を示すフローチャートである。方法600は、筋骨格評価活動中に患者に関する深度センサデータを生成すること605と、深度センサデータに基づいて術前骨格モデルを生成すること610とを含む。方法600は、術前骨格モデルに基づいて予測術後骨格モデルを生成すること615を含む。予測術後骨格モデルは、外科処置に基づいて改良される運動範囲を示す。方法600は、ARHMDを通して患者を見ながらARHMD上に表示するために患者に重ねられた予測術後骨格モデルを出力すること620を含む。
【0028】
1つの実施形態において、方法600は、術後筋骨格評価活動中に患者に関する術後深度センサデータを生成すること625を含む。方法600は、術後深度センサデータに基づいて改良された術後骨格モデルを生成すること630を含むことができる。方法600は、ARHMD上で表示するために術前骨格モデルに重ねられた改良された術後骨格モデルを出力すること635を含むことができる。これによって、ビューアは改良された術後骨格モデルを術前骨格モデルと対比できる。方法600は、ARHMD上で表示するために予測術後骨格モデルに重ねられた改良された術後骨格モデルを出力すること640を含むことができる。これによって、ビューアは改良された術後骨格モデルを予測術後骨格モデルと対比できる。
【0029】
1つの実施形態において、方法600は、外科処置の選択を受信すること645を含み、予測術後骨格モデルは、更に外科処置の選択に基づく。方法600は、筋骨格評価活動と関連付けられる外科処置のリストを識別すること650を含むことができ、ARHMD上に表示するために外科処置のリストについて選択プロンプトを出力すること655を含むことができる。
【0030】
1つの実施形態において、方法600は、患者の画像を捕捉すること660を含み、術前骨格モデルは、更に患者の捕捉された画像に基づく。方法600は、運動範囲エクササイズの選択を受信すること665を含むことができる。方法600は、選択された運動範囲エクササイズと関連付けられる複数の運動範囲画像を生成すること670を含むことができ、複数の運動範囲画像は、捕捉された患者の画像に重ねられた術後骨格モデルを含む。
【0031】
1つの実施形態において、方法600は、ARHMD上で表示するためにガイドされた筋骨格活動を出力すること675を含む。ガイドされた筋骨格活動は、筋骨格評価活動を導くために患者運動指令を与えることができる。
【0032】
1つの実施形態において、方法600は、運動センサデータ又は医療用撮像データを受信すること680を含む。運動センサデータは、患者に取り付けられた運動センサから受信でき、運動センサデータは、患者の筋骨格運動を特徴付けできる。術前骨格モデルの生成は、更に、受信したセンサデータ又は受信した医療用撮像データに基づくことができる。
【0033】
図7は、いくつかの実施形態に係るアプリケーションを選択する(例えば、拡張現実を使用する)ためのユーザインターフェイス700を示す。メニュは、仮想又は拡張現実に表示又は従来の画面に表示できる。
図7に示すユーザインターフェイス700はARであり、周囲エリアの形態が見える。ARビューは、眼鏡、バイザー、ゴーグル又はその他のイマージョン/ARセットアップを使用して表示できる。メニュは、ユーザの指で選択可能とすることができる(例えば、現実空間において、AR機器を使用して検出されるように)。選択は、臨床医、患者又は他の関係者によって行うことができる。例えば、選択は、表示702を有するARでの患者評価又は表示704を有するARでの手術デモを含むことができる。
【0034】
図8は、いくつかの実施形態に係る患者選択のための第1のユーザインターフェイス800を示す。
図8は、QRコード(登録商標)の表現によって選択可能なインディケータを表示するメニュ802(例えば、ARメニュ)を含む。選択可能なインディケータを選択したら、カメラビューを表示できる(例えば、
図9においてARで示すように、レティクルが捕捉エリアのフレームを設定する)。メニュ802における他の選択可能な選択肢は、患者を選択すること、評価を開始すること又はダッシュボードを見ることを含む。メニュ802がARで示される例において、メニュ802は、壁などに、認識された患者の隣りなどに、自動的に整列できる。
【0035】
図9は、いくつかの実施形態に係る患者選択のための第2のユーザインターフェイス900を示す。QRコード(登録商標)902は、カメラ(例えば、メニュ802を表示するAR機器に取り付けられる)を使用してスキャンできる。QRコード(登録商標)902は、患者固有、臨床医固有、評価固有、計器固有又はその組合せなどとすることができる。QRコード(登録商標)902は、新しいメニュを表示させるために
図9に示すようにスキャンできる。QRコード(登録商標)902をスキャンした後、ARディスプレイ(例えば、メニュ)は、自動的に、患者情報、患者リスト、計器情報、評価情報、施設又はグループ患者リストなどの情報で占めることができる。患者リストの例を後に論じる
図10に示す。
【0036】
1つの実施例において、QRコード(登録商標)は、カメラ(ライダーカメラを含むことができる)の設置場所を見つけるために役立つ。カメラは、カメラ座標の中に在る骨格関節の空間位置を突き止められるようにする。AR機器は、これらの関節座標を現実世界の座標に変換できる。
【0037】
図10は、いくつかの実施形態に係る患者を選択するためのインターフェイス1000を示す。ユーザインターフェイス1000は、ユーザ選択、QRコード(登録商標)のスキャン(例えば、
図8から
図9に関連して上記で説明するように)、ユーザのログイン又はこれに類似するものに応答して表示できる。ユーザインターフェイス1000は、ARで表示されるときには、視界内で移動できる。ユーザインターフェイス1000は、壁などの現実世界において様々な場所に固定するか、又はAR機器を装着するユーザまで固定距離を維持することによって移動できる。1つの実施例において、患者は、ユーザインターフェイス1000から選択できる。選択されたとき、患者に関する更なる詳細を表示できる(
図11に関連して下で論じる)。
【0038】
図11は、いくつかの実施形態に係る患者情報を表示するためのユーザインターフェイス1100を示す。ユーザインターフェイス1100は、患者選択(例えば、ユーザインターフェイス1000上で、音声コマンドで、ジェスチャで、など)に応答して表示可能とすることができる。患者が選択されたら、名前、年齢、最終評価、処置(例えば、処置済み又はこれからの処置)、担当医名などの患者の詳細をユーザインターフェイス1100に示すことができる。ユーザインターフェイス1100を表示するAR機器のユーザは、患者選択を確認又はキャンセルできる。いくつかの例において、QRコード(登録商標)が利用できない場合又は患者が新規患者であり新規の入力が必要である場合などには、見つからない場合がある。このような例においては、患者の名前又はその他の詳細を手動入力するために仮想キーボードを表示できる。患者を確認すると選択した後に、評価用ユーザインターフェイスを表示できる。
【0039】
図12は、いくつかの実施形態に係る評価を選択するための評価用ユーザインターフェイス1202を示す。評価用ユーザインターフェイス1202は、上肢又は下肢など大まかな選択可能な評価タイプを識別する。大まかなカテゴリーの選択後、選択のために評価の様々なカテゴリー又はサブカテゴリーを含む評価用ユーザインターフェイス1204を表示できる。表示される選択肢は、以前に選択された患者に応用可能なものに限定するか、又はもっと広い範囲の評価タイプのセットを表示できる。評価用ユーザインターフェイス1204に表示される評価タイプは、複数の部分(例えば、第1の脚又は第1の移動に対応する第1の評価及び第2の脚又は第2の移動に対応する第2の評価)を含むことができる。評価の例は、上肢に関する単一関節単一平面移動又は下肢に関する多平面多関節移動など下の表1及び表2に示すものを含むことができる。これらの2つの評価例は、カテゴリー的に、単一関節単一平面の従来の活動運動範囲評価又は多関節多平面機能評価と呼ぶことができる。
【表1】
【表2】
特定の評価が選択された後、AR評価を、例えば
図13に関連して以下で論じるように表示できる。
【0040】
図13は、いくつかの実施形態に係るAR評価の態様を表示するためのユーザインターフェイス1300を示す。
図13は、AR評価の態様を表示するための、第1のユーザインターフェイス1302、第2のユーザインターフェイス1304及び患者1308に重ねられた骨格オーバーレイ1306を示す。
図13のインターフェイス又はコンポーネントは、評価の選択(例えば、
図12の評価用ユーザインターフェイス1204において)の受信に応答して表示できる。評価の名称を含めたメニュ1304は、開始、記録(例えばARディスプレイから)、キャンセル、ステップのリスタートなどのために評価に関連して選択可能な選択肢と一緒に表示できる。患者の人口統計的情報、患者がエクササイズを完了するための指令(患者のための指令又は臨床医が患者に指令するために使用する指令、例えば、一般用語又は臨床用語を含むなど様々な言葉で書くことができる)などを含めた第2のメニュ1302を表示できる。第2のメニュ1302は、評価を開始するために選択可能なインディケータを含むことができる。第2のメニュ1302は、評価の目標(例えば、一般的な、又は完了した外科処置、物理療法、処置後の経過時間などに基づく術後などの患者特有の、目標運動範囲)を含むことができる。第2のメニュ1302は、評価の仮想デモを表示するためのコンポーネントを含むことができる。コンポーネントは、自動的に又はAR機器のユーザによって起動できる。
【0041】
メニュ1302及び1304は、別個に移動可能とする、部屋の一部分に固定する、患者1308又はその他の可動オブジェクトに対して固定する、相互に固定する、メニュ1302又は1304を表示するARディスプレイの装着者から固定距離だけ離して設定する、などが可能である。
【0042】
1つの実施例において、骨格フレーム1306は、患者1308に重ねて表示できる。骨格フレーム1306は、関節、分節(例えば、骨又はその他の身体部位に対応する)又はこれらに類似するものを含むことができる。骨格オーバーレイは、患者1308と一緒に移動でき、骨格オーバーレイの拡張現実画像は患者1308の現実世界の移動を追跡する。骨格フレーム1306は、患者1308の現実世界の移動を追跡するものとして説明されるが、骨格フレーム1306は、骨格フレーム1306を表示するAR機器の装着者に対して移動して見えるように表示することもできる。例えば、装着者が移動するとき、骨格フレーム1306の投射図は、装着者と患者1308との間に留まるように変化できる。他の例において、骨格フレーム1306は、装着者の視野が変化する場合に、部分的に又は完全に骨格フレーム1306が不鮮明になるように装着者に対して移動しない。
【0043】
骨格フレーム1306は、例えばライダーカメラ、深度カメラなどのカメラを使用して患者1308から生成できる。カメラは、AR機器の一部とするか又は別個のものとすることができる。カメラからのデータは、例えばAPIを介してAR機器のディスプレイを制御するプロセッサへ送信でき、骨格フレーム1306は、受信したデータに基づいてAR機器を使用して表示するために出力できる。
【0044】
1つの実施例において、ライダーカメラは、投射光を介して患者1308を捕捉しこれを識別するために使用できる。骨格フレーム1308は、例えば、画像認識及び骨格割当てを使用してライダーカメラデータから導出でき、任意に患者1306個人に特定できる。骨格フレーム1308の可視化は、AR機器を介して与えられ表示できる。患者1306の運動範囲データは、患者1306の動き(例えば、ライダーカメラ、AR機器に取り付けられたカメラなどを介して捕捉)に基づいて決定でき、骨格フレームの既知の力学及び捕捉された又は既知の患者1306の身体構造(例えば、身長)に基づき空間における予測される動きと比較できる。患者1306に関する情報(例えば、身長、腕幅など)は、接続された保健クラウドに保存できる。
【0045】
開始の選択を受信した後(メニュ1302又は1304の1つで、ジェスチャ、音声コマンドを介してなど)、
図14に関連して以下に説明するように、運動範囲のリアルタイムインディケータを表示できる。
【0046】
図14は、いくつかの実施形態に係るAR評価及び骨格オーバーレイの態様を表示するためのユーザインターフェイス1400を示す。
図14は、AR評価及び骨格オーバーレイの態様を表示するためのユーザインターフェイス(例えば、1402及び1404)及びコンポーネント(例えば部分1406及び1408を含む)を示す。ユーザインターフェイス1402は、患者の運動範囲のリアルタイムインディケータを含む。評価中、患者が移動するとき、リアルタイムインディケータは、取得された現在の又は全体の運動範囲で更新できる(例えば、評価開始直後などにユーザインターフェイス1402において2度として表示される)。ユーザインターフェイス1402の「開始」選択可能インディケータは、「完了」又は「終了」選択可能インディケータに変わり(例えば、進行し、運動範囲が変化した後)、これが選択されると、評価を停止できる。
【0047】
ユーザインターフェイス1404における運動範囲の表示は、完了バー、円などを使用するなどして進行する(例えば、目標運動範囲へ向かって)。いくつかの例において、例えば進行の程度又は量を示すために、ユーザインターフェイス1404において色の変化、ポップアップ、音響又はその他の表示などで進行を示すために効果を付加又は変更できる。進行度は、以前の個人記録の通過、目標運動範囲の達成などに対応できる。
【0048】
ユーザインターフェイス1404は、ユーザに重ねられた骨格オーバーレイを含み、骨格オーバーレイは、部分1406及び1408を含む。表示強化は、運動経路(例えば、四肢の部分1408における目標及び現在の部分1406)、最終目標、開始点などを示すために骨格オーバーレイで示すことができる。表示強化は、リアルタイムに示され、評価中に患者が動くに連れて修正できる。
【0049】
ユーザインターフェイス1402及び1404は、ユーザインターフェイスメニュ及び患者の骨格フレームの両方を示す。ユーザインターフェイスメニュと骨格フレームの同時表示によって、ユーザ(例えば、外科医などの臨床医)は、1つのビュー内で患者、骨格フレーム及び移動に関するデータを見ることができる。これは、臨床医が画面を見つめる(患者を見失う)必要をなくすことによって、情報の可視性を改良する。骨格フレームは、いくつかの実施例において深度情報を提供できる。臨床医又はAR機器のその他のユーザが移動すると、ユーザインターフェイスコンポーネントは臨床医と一緒に移動するか、又は静止したまま(例えば、患者付近で)とすることができる。いくつかの実施例において、ユーザインターフェイスコンポーネントは、AR機器のユーザに合わせて空間的に回転しているように見えて、ユーザが患者及び骨格フレームの様々な投射図を得られるようにしながらユーザインターフェイスコンポーネントを任意の角度で見られるようにする。これによって、ユーザは、正確な主要平面運動を見ることができ、これを、骨格フレーム上で視覚的に、かつ任意にユーザインターフェイスコンポーネントにおいて値として、見ることができる。
【0050】
1つの実施例において、評価が完了した後、運動範囲(全運動範囲又は運動の質)が達成された後又は完了インディケータが選択された後に、
図15に関連して以下に説明するように、AR評価を表示できる。
【0051】
図15は、いくつかの実施形態に係るAR評価及び骨格オーバーレイの態様を表示するためのユーザインターフェイス1500を示す。
図15は、AR評価及び骨格オーバーレイの態様を表示するためのユーザインターフェイス1502及びコンポーネント1504を示す。ユーザインターフェイス1502は、評価(例えば、上記で説明したように完了した評価)の詳細を含む。骨格オーバーレイ又は表示強化は、観察のために維持できる。ユーザインターフェイス1502は、例えば目標又は個人最高記録と対比して表示される最高達成運動範囲の表示を含むことができる。コンポーネント1504は、例えば進行又は達成度をユーザに示すために、運動範囲評価中に肢の最終位置を示すことができる。
【0052】
評価が複数部分(例えば、2本の肢、2つのエクササイズなど)を有する場合、システムは、「完了」インディケータの選択(上記で説明するように)後に続けて次の部分へ移動できる。いくつかの例において、次の部分は直ちに開始し、別の例において、ユーザは、次の部分を開始するために「開始」インディケータを選択できる。評価の1つ又は全ての部分が完了したら、
図16に関連して以下に説明するように、AR評価の全体結果を表示できる。
【0053】
図16は、いくつかの実施形態に係るAR評価の結果を表示するためのユーザインターフェイス1600を示す。ユーザインターフェイス1600は、評価の結果を示すメニュを含むことができる。
図16に示す例において、運動角度範囲(例えば、119度及び108度)が、左及び右上肢の両方の水平内転評価について表示される。
【0054】
ユーザが、AR評価結果の検証を行ったことを示すユーザインターフェイス1600上の「完了」インディケータを選択すると、システムは、必要であれば更なる評価のため、又は完了、保存又は評価結果の送信のために、以前のメニュへ戻ることができる。システムは、更なる命令(例えば、運動範囲を改善するために続けるエクササイズ、運動範囲を改善することの利点に関する教育、臨床医との連絡指令)を与えることができる。
【0055】
患者の身体構造の拡張又は仮想現実ビューは、いくつかの例においてAR評価が完了した後に表示できる。患者身体構造は、患者ビュー又は臨床医ビューなど身体構造を見る者の役割に応じて表示できる。患者ビューは、身体構造又は臨床情報の点で臨床医ビューより単純化できる。いくつかの実施例において、患者ビューは、説明、教育資料、色又はその他の表示効果又は患者身体構造を含むこれに類似するものなどの付加的情報を含むことができる。
【0056】
完了済み又はこれから完了する処置を示すことができる(例えば、患者がロードマップのどこにいるかの表示を含むロードマップ)。拡張現実患者身体構造は、処置前、処置中又は処置後の身体構造、成果の予測ビューを含む術前、術前予測成果と比較するために術後など、様々な状態で表示できる。1つの実施例において、患者身体構造は、動的、静的又は分解図で又はこれに類似するもので示すことができる。拡張現実ビューで表示された患者身体構造は、回転可能、移動可能、拡大可能又は縮小可能などとすることができる。
【0057】
図17は、いくつかの実施形態に係る拡張現実で手術デモを選択するためのユーザインターフェイス1700を示す。ユーザインターフェイス1702は、ユーザが臨床医又は患者などの役割を選択できるようにする。ユーザインターフェイス1704は、ユーザインターフェイス1702上で選択が行われた後に表示できる。ユーザインターフェイス1704は、デモを開始するため、患者を選択するため(例えば、ユーザが臨床医の場合)、共有のため、などの選択を含むことができる。1つの実施例において、ユーザがユーザインターフェイス1702において「患者」を選択したとき、ユーザインターフェイス1704をスキップして、例えば、患者を確認するために患者選択画面へ進むことができる。
【0058】
図18は、拡張現実で手術デモを選択するためのユーザインターフェイス1800を示す。ユーザがデモの開始インディケータを選択すると(例えば、
図11Bのユーザインターフェイス1104上で)、ユーザインターフェイス1800は、見ることが可能なデモを表示できる。ユーザは、見たいデモ(患者、臨床医、処置のタイプなどに対応する)を選択できる。ユーザインターフェイス1800は、全膝関節手術又は股関節手術に関するデモを含む。患者は、いくつかの実施例においてデモを個人特定するために選択できる。デモは、以下に説明するようにARデモンストレーションを含むことができ、デモは、今後の又は以前完了した外科処置に対応できる。
【0059】
図19は、いくつかの実施形態に係るARデモンストレーション及び3D骨モデルの態様を表示するためのユーザインターフェイス1900を示す。
図19は、ARデモンストレーション及び3D骨モデルの態様を表示するためのユーザインターフェイス1904及びコンポーネント1902を示す。コンポーネント1902は、ARで表示される3D骨モデルの仮想的に操作可能な3D表示を含むことができる。3D骨モデルは、いくつかの実施例において、患者撮像に基づくカスタム3Dモデルを含むことができる。制御ユーザインターフェイス1904は、コンポーネント1902の表示を制御するための回転、分解、プレイ、キャンセル、共有などのコンポーネントを表示できる。いくつかの実施例において、コンポーネント1902は、コンポーネント1902を「移動」する(例えば、手又はジェスチャを使用する)ことによって制御できる。
【0060】
1つの実施例において、ユーザインターフェイス1904において「プレイ」ボタンを選択すると、3D骨モデルの完全回転又は運動範囲が示される。3D骨モデルをARで表示するとき、切開、トライアルの設置、分解図、インプラント、回転などを表示できる(例えば動画として)。このようにして、ユーザは、処置のエンドトゥエンド表示を3D ARで見ることができる。臨床医ユーザが、スポットを視覚化するために3DのAR表示を使用する間、患者に処置の視覚的ウォークスルーが与えることができる。見終わったら、ユーザは、「確認」又は「チェック」ボタンを選択できる。
【0061】
コンポーネント1902は、いくつかの実施例に従った患者身体構造、インプラント、トライアルなどの三次元レンダリングを拡張現実表示で示す。AR表示は、コンポーネント1902を含み、コンポーネントは、例えばX線、MRI、CTスキャン又はこれに類似するものを使用して生成された患者の身体構造を含むことができる。AR表示は、動画を示すか、又は、コンポーネント1902(例えば、骨)における患者身体構造又はインプラントの三次元仮想表現を制御又は移動できるようにする。三次元仮想表現は、例えば、ボタン、リモート、ジェスチャ、ユーザインターフェイス1904のメニュ上での入力などを使用してAR表示を見ている臨床医によって対話できる。対話は、コンポーネント1902を操作(例えば、コンポーネント1902を回転、移動、ズームなど)できる。コンポーネント1902を操作することによって、臨床医は、術前又は術後などに外科処置を可視化できる。
【0062】
図20は、いくつかの実施形態に係る3D骨モデルARビュー2000の例を示す。ARビュー2000は、3D骨モデルの分解図であり、インプラント又はトライアル、切開の視覚的表示などを含むことができる。ARビュー2000は、例えば、拡張又は圧縮(例えば、再組立)のため、回転、移動などのために制御できる。いくつかの実施例において、トライアル又はインプラントなどのコンポーネントを選択でき、その後、これを取り外す、モデルから独立して移動する、別のものと交換する、サイズを変更するなど、が可能である。これによって、臨床医は、拡張モデルを見て、様々なサイズのトライアル又はインプラントを素早く視覚化できる。いくつかの実施例において、臨床医が切開の変更を視覚化できるようにするために、例えば切断深度、切断角度など、切開を修正できる。
【0063】
1つの実施例において、ARビュー2000は、外科処置のためのデモシステムを含む。いくつかの実施例において、ARビュー2000は、非患者固有の骨構造を使用でき、他の実施例において、患者固有の骨構造(例えば、患者の撮像に基づく)を使用できる。ARビュー2000は、膝関節システム(例えば、全又は部分膝関節)、股関節システムなどの医療機器コンポーネントを示すために使用できる。
【0064】
図21は、いくつかの実施形態に係るARビュー2100の中の3D骨モデルの例を示す。ARビュー2100は、どこでモデルの移動が生じるかの視覚インディケータ2102を含む。このARビュー2100の例において、3D骨モデルは、視覚インディケータ2102(この場合、青い球体)によって表示される移動箇所を除いて安定的(例えば、移動不能)とすることができる。第2の視覚インディケータ2104は、視覚インディケータ2102を移動することによって生じる移動を固定する回転関節を示すために使用できる。例えば、ARビュー2100において、視覚インディケータ2102は、膝関節に在り、これが移動すると、第2の視覚インディケータ2104によって示すように大腿骨を股関節において回転させる。視覚インディケータは、固有に(例えば、球体で、異なる色で、カーソル又は指がその上でホバリングするとき変化することで、などで)表示できる。ARビュー2100において、膝関節は、例えば患者固有の3D骨モデルの股関節の回転又は運動範囲を示すために移動可能である。
【0065】
ARビュー2000又は2100は、例えばマルチユーザシステムにおいて、本明細書において説明するようなユーザインターフェイスコンポーネント、モデル、技法、骨格フレーム又はこれに類似するものを表示するために使用できる。いくつかの実施例において、マルチユーザシステムは、同期化又は接続されたAR機器を使用して臨床医及び患者によって使用できる。臨床医のAR機器は、患者用ARにおける患者回復、外科処置又はこれに類似するものの態様を制御又は表示するために使用できる。いくつかの実施例において、ARビュー2000又は2100に示される身体構造は、予め設定されたように(例えば、動画で)移動できる。他の実施例において、臨床医は、回転、スピン、分解、プレイ、中断、スピードアップ、スローダウンなどによって、身体構造を制御できる。
【0066】
図22は、本開示の少なくとも1つの実施例に従って拡張現実を使用して患者評価を実施するための技法2200を示すフローチャートである。技法2200は、拡張現実(AR)機器を使用して、評価に対応する選択可能インディケータを含む第1のユーザインターフェイスを始動するための操作2202を含む。1つの実施例において、患者は、ARユーザインターフェイス(又は複数のARユーザインターフェイス)を使用して選択できる。
【0067】
技法2200は、第1のユーザインターフェイス上の選択可能インディケータ、ユーザインターフェイス上の割当てに対応する選択可能インディケータの選択を受信するための操作2204を含む。技法2200は、評価を実施する患者即ちAR機器を介して見える患者の現在位置に対応する現在の運動範囲表示を含む第2のユーザインターフェイスを表示するための操作2206を含む。技法2200は、AR機器を使用して表示するために評価の運動範囲結果を出力するための操作2208を含む。1つの実施例において、技法2200は、操作2206又は2208の代わりに又はこれに加えて、患者上に骨格オーバーレイを表示することを含むことができる。
【0068】
骨格オーバーレイは、AR機器を介してAR表示と一緒に表示できる。骨格オーバーレイは、患者が移動するときに移動できる。ユーザインターフェイスは、AR表示のユーザの視線を追うためにユーザによって又は自動的に制御されるか、又は静止したまま若しくは対象物(例えば、患者)から特定の距離に固定できる。AR機器のユーザが移動するとき、ユーザインターフェイスは、これを追うか又は回転などができる(例えば、固定距離に設定されたとき)。
【0069】
図23は、本開示の少なくとも1つの実施例に従った拡張現実を使用して手術デモを表示するための技法2300を示すフローチャートである。技法2300は、選択可能インディケータを含むユーザインターフェイスを表示するための操作2302を含み、これが選択されると、仮想又は拡張現実ディスプレイ機器を使用して仮想又は拡張現実で手術デモが表示される。技法2300は、選択可能インディケータに対応するユーザ入力を受信するための操作2304を含む。技法2300は、患者の身体構造の画像から生成された3Dモデルを使用して仮想又は拡張現実で手術デモを表示するための操作2306を含み、手術デモは、3Dモデルの完全回転、3Dモデルの運動範囲、3Dモデルの切開、3Dモデルにおけるトライアル又はインプラントの設置又は3Dモデルの分解図の少なくとも1つの3D表示を含む。
【0070】
図24は、いくつかの実施形態に従って本明細書において論じる技法(例えば、方法論)の何れか1つ又は複数を実施できるマシン2400のブロック図の例である。別の実施形態において、マシン2400は、独立機器として作動するか、又は他のマシンに接続(又はネットワーク化)できる。ネットワーク配備において、マシン2400は、サーバーマシン、クライアントマシン又はサーバークライアントネットワーク環境においてその両方として作動できる。マシン2400は、パソコン(PC)、タブレットPC、携帯情報端末(PDA)、携帯電話、webアプライアンス、ネットワークルーター、スイッチ又はブリッジ又はマシンが取るべき動作を指定する命令(シーケンシャル又はその他)を実行できる任意のマシンとすることができる。更に、単一のマシンを図示するが、「マシン」は、クラウドコンピューティング、サービスとしてのソフトウェア(Saas)、その他のコンピュータクラスタ構成など本明細書において論じる方法論の何れか1つ又は複数を実行するための1組(又は複数組)の命令を個別に又は共同で実行するマシンの任意の集合体を含むと解釈することもできる。
【0071】
本明細書において説明するような実施例は、ロジック又は多数のコンポーネント、モジュール又は同様のメカニズムを含む又はこれにおいて作動できる。この種のメカニズムは、作動するとき指定される作動を実行できる有形体(例えば、ハードウェア)である。1つの実施例において、ハードウェアは、明確に、具体的な作動(例えば、配線)を実施するように構成できる。1つの実施例において、ハードウェアは、構成可能実行ユニット(例えば、トランジスタ、回路など)及びコンピュータ可読媒体に含まれる命令を含むことができ、命令は、作動時に具体的作動を実施するように実行ユニットを構成する。構成は、実行ユニット又はローディングメカニズムの指揮の下で行うことができる。したがって、実行ユニットは、機器が作動するときコンピュータ可読媒体に通信上結合される。例えば、作動において、実行ユニットは、1時点において第1の組の特徴を実現するために第1の組の命令によって構成でき、第2の組の特徴を実現するために第2の組の命令によって再構成できる。
【0072】
マシン(例えば、コンピュータシステム)2400は、ハードウェアプロセッサ2402(例えば、中央処理ユニット(CPU)、グラフィック処理ユニット(GPU)、ハードウェアプロセッサコア又はこれらの任意の組合せ)、メインメモリ2404及びスタティックメモリ2406を含むことができ、そのいくつか又は全ては、インターリンク(例えば、バス)2408を介して相互に通信できる。マシン2400は、更に、ディスプレイユニット2410、英数字入力機器2412(例えば、キーボード)及びユーザインターフェイス(UI)ナビゲーション機器2414(例えば、マウス)を含むことができる。1つの実施例において、ディスプレイユニット2410、英数字入力機器2412及びUIナビゲーション機器2414は、タッチスクリーンディスプレイとすることができる。ディスプレイユニット2410は、ゴーグル、眼鏡、拡張現実(AR)ディスプレイ、仮想現実(VR)ディスプレイ又はその他のディスプレイコンポーネントを含むことができる。例えば、ディスプレイユニットは、ユーザの頭部に装着でき、ユーザにヘッドアップ表示を提供できる。英数字入力機器2412は、仮想キーボード(例えば、VR又はAR設定において仮想的に表示されたキーボード)を含むことができる。
【0073】
マシン2400は、更に記憶機器(例えば、ドライブユニット)2416、信号発生機器2418(例えば、スピーカ)、ネットワークインターフェイス機器2420、及び汎地球測位システム(GPS)センサ、コンパス、加速度計又はその他のセンサなどの1つ又は複数のセンサ2421を含むことができる。マシン2400は、1つ又は複数の周辺機器に通信する又はこれを制御するためのシリアル(例えば、ユニバーサルシリアルバス(USB)、パラレル又はその他の有線又は無線(例えば、赤外線(IR)、近距離通信(NFC)など)接続などの出力コントローラ2428を含むことができる。
【0074】
記憶機器2416は、本明細書において説明する技法又は機能の何れか1つ又は複数を実現する又はこれによって利用される1組又は複数組のデータ構造又は命令2424(例えば、ソフトウェア)が記憶される非一時的な機械可読媒体2422を含むことができる。命令2424は、マシン2400によるその実行中、完全に又は少なくとも部分的に、メインメモリ2404内、スタティックメモリ2406内又はハードウェアプロセッサ2402内に常駐できる。1つの実施例において、ハードウェアプロセッサ2402、メインメモリ2404、スタティックメモリ2406又は記憶機器2416の1つ又はその任意の組合せは、機械可読媒体を構成できる。
【0075】
機械可読媒体2422を単独媒体として説明するが、「機械可読媒体」は、1つ又は複数の命令2424を記憶するように構成された単一媒体又は複数の媒体(例えば、集中又は分散データベース又は関連キャッシュ及びサーバー)を含むことができる。
【0076】
「機械可読媒体」は、マシン2400による実行のための命令を記憶、コード化又は保有できかつマシン2400に本開示の技法の何れか1つ又は複数を実施させる又はこのような命令によって使用される又はこれと関連付けられるデータ構造を記憶、コード化又は保有できる任意の媒体を含むことができる。非限定的機械可読媒体の例は、ソリッドステートメモリ及び光学及び磁気媒体を含むことができる。機械可読媒体の具体的例は、半導体メモリ機器(例えば、電気プログラマブル読取り専用メモリ(EPROM)、電気消去可能プログラム可能読取り専用メモリ(EEPROM))及びフラッシュメモリ機器などの不揮発性メモリ、内部ハードディスク及び着脱式ディスクなどの磁気ディスク、光磁気ディスク、CD-ROM及びDVD-ROMディスクなどを含むことができる。
【0077】
命令2424は、更に、多数のトランスファプロトコル(例えば、フレームリレイ、インターネットプロトコル(IP)、伝送制御プロトコル(TCP)、ユーザデータグラムプロトコル(UDP)、ハイパーテキストトランスファプロトコル(HTTP)、など)の何れか1つを利用するネットワークインターフェイス機器2420を介して伝送媒体を使用して通信ネットワーク2426越しに送受できる。通信ネットワークの例は、特に、ローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)、パケットデータネットワーク(例えば、インターネット)、携帯電話ネットワーク(例えば、セルラーネットワーク)、従来型電話(POTS)ネットワーク及び無線データネットワーク(例えば、WiFi(登録商標)として知られる電気電子学会(IEEE)802.11規格、Bluetooth(登録商標) Special Interest Groupによって普及されるBluetooth(登録商標)として知られるパーソナルエリアネットワーク規格、ピアトゥピア(P2P)ネットワーク)を含む。1つの実施例において、ネットワークインターフェイス機器2420は、1つ又は複数の物理的ジャック(例えば、イーサネット、同軸又は電話ジャック)又は通信ネットワーク2426に接続するための1つ又は複数のアンテナを含むことができる。1つの実施例において、ネットワークインターフェイス機器2420は、単一入力複数出力(SIMO)、複数入力複数出力(MIMO)又は複数入力単数出力(MISO)の少なくとも1つを使用して無線通信するために複数のアンテナを含むことができる。「伝送媒体」は、マシン2400による実行のための命令を記憶、コード化又は保有できる任意の非有形媒体を含むと解釈され、デジタル又はアナログ通信信号又はこの種のソフトウェアの通信を容易にするためのその他の非有形媒体を含む。
【0078】
これらの非限定的例の各々は、単独とするか又は他の例の1つ又は複数と様々の置換又は組合せで組み合わせることができる。
【0079】
実施例1は、拡張現実患者評価のためのシステムである。システムは、拡張現実(AR)頭部装着型ディスプレイ(HMD)と、筋骨格評価活動中に患者に関する深度センサデータを生成するための深度センサと、処理回路と、命令を含むメモリと、を備え、命令は、処理回路によって実行されたとき、処理回路に、深度センサデータに基づいて骨格モデルを生成させ、筋骨格評価活動中に患者の運動を追跡させ、患者の運動に基づいて現在のROMを決定させ、ARHMDを通して患者を見ながらARHMD上に表示するために患者に重ねられた現在のROMを出力させる。
【0080】
実施例2において、実施例1の内容は、更に処理回路に筋骨格評価活動の選択を受信させ、ARHMDを通して患者を見ながらARHMD上に表示するために筋骨格評価活動の説明を出力させる命令を含む。
【0081】
実施例3において、実施例1又は実施例2の内容は、更に処理回路に筋骨格評価活動に基づいて目標のROMを決定させ、ARHMDを通して患者を見ながらARHMD上で表示するために目標のROMのグラフィック表示を出力させる命令を含む。
【0082】
実施例4において、実施例1から実施例3の内容は、更に処理回路にARHMD上で表示するためにガイドされた筋骨格活動を出力させる命令を含み、ガイドされた筋骨格活動は、筋骨格評価活動を行うための患者運動指令を与える。
【0083】
実施例5において、実施例1から実施例4の内容は、更に処理回路に患者に取り付けられた運動センサから運動センサデータを受信させる命令を含み、運動センサデータは、患者の筋骨格運動を特徴付け、骨格モデルの生成は、更にセンサデータに基づく。
【0084】
実施例6において、実施例1から実施例5の内容は、更に処理回路に患者の筋骨格関節の医療用撮像データを受信させる命令を含み、骨格モデルの生成は、更に医療用撮像データに基づく。
【0085】
実施例7において、実施例1から実施例6の内容は、更に処理回路にモデル外科処置の選択を受信させ、モデル外科処置及び骨格モデルに基づいて患者処置モデルを生成させ、ARHMDを通して患者を見ながらARHMD上で表示するために患者処置モデルを出力させる命令を含む。
【0086】
実施例8において、実施例1から実施例7の内容は、更に処理回路に骨格モデルに基づいて予測術後骨格モデルを生成させる命令を含み、骨格モデルが術前骨格モデルを含み、予測術後骨格モデルが外科処置に基づき改良された運動範囲(ROM)を含み、又、ARHMDを通して患者を見ながらARHMD上で表示するために患者に重ねられた予測術後骨格モデルを出力させる命令を含む。
【0087】
実施例9において、実施例8の内容は、更に術後筋骨格評価活動中に患者に関する術後深度センサデータを生成するための深度センサを含み、命令は、更に処理回路に術後深度センサデータに基づいて改良された術後骨格モデルを生成させ、ARHMD上で表示するために術前骨格モデルに重ねられた改良された術後骨格モデルを出力させる。
【0088】
実施例10において、実施例9の内容は、更に処理回路にARHMD上で表示するために予測術後骨格モデルに重ねられた改良された術後骨格モデルを出力にさせる命令を含む。
【0089】
実施例11において、実施例8から実施例10の内容は、更に処理回路に外科処置の選択を受信させる命令を含み、予測術後骨格モデルは、更に外科処置の選択に基づく。
【0090】
実施例12において、実施例11の内容は、更に処理回路に筋骨格評価活動と関連付けられる外科処置のリストを識別させ、ARHMD上で表示するために外科処置のリストについて選択プロンプトを出力させる命令を含む。
【0091】
実施例13において、実施例8から実施例12の内容は、患者の複数の画像を捕捉するためのイメージセンサを含み、術前骨格モデルは、更に患者の複数の画像に基づく。
【0092】
実施例14において、実施例13の内容は、更に処理回路にROMエクササイズの選択を受信させ、ROMエクササイズと関連付けられる複数のROM画像を生成させる命令を含み、複数のROM画像は、患者の複数の画像に重ねられた予測術後骨格モデルを含む。
【0093】
実施例15において、実施例1から実施例14の内容は、患者用ARHMDを含み、命令は、更に処理回路にARHMDを通して医師が患者を見ながらARHMD上で表示するために予測骨格モデルを出力させ、ARHMDを通して医師が見る通りに患者の画像を捕捉させ、患者用ARHMDで表示するために患者の画像に重ねられた予測骨格モデルを出力させる。
【0094】
実施例16において、実施例1から実施例15の内容は、更に処理回路に複数ポーズの骨格モデルを出力させる命令を含み、複数ポーズの骨格モデルは、ARHMDを通して患者を見ながらARHMD上で表示するために複数ポーズの骨格モデルが患者に重ねられるときに、改良されたROMに基づいて患者身体部位の複数の位置を表示するように構成される。
【0095】
実施例17において、実施例16の内容は、更に処理回路にARHMDを通して患者を見ながらARHMD上で表示するために患者に重ねられた運動骨格モデルを出力させる命令を含み、運動骨格モデルは、改良されたROMに基づく患者身体部位の運動を示す。
【0096】
実施例18において、実施例17の内容は、更に処理回路に骨格モデル運動中断入力を受信させ、患者用ARHMD上の表示において患者身体部位の運動をフリーズさせる命令を含む。
【0097】
実施例19において、実施例1から実施例18の内容は、更に処理回路に外科処置の選択を受信させる命令を含む。
【0098】
実施例20において、実施例19の内容は、更に処理回路に改良されたROM外科処置についてユーザにプロンプトを与えさせる命令を含み、改良されたROM外科処置は、外科処置より大きいROMを与える。
【0099】
実施例21において、実施例1から実施例20の内容は、更に処理回路に骨格モデル修正入力を受信させ、骨格モデル修正入力に基づいて修正された骨格モデルを生成させ、ARHMDを通して患者を見ながらARHMD上で表示するために患者に重ねられた修正された骨格モデルを出力させる命令を含む。
【0100】
実施例22において、実施例21の内容は、骨格モデル修正入力が少なくとも骨格モデル関節再位置付け、肢長調節、肢ポーズ調節及び骨格モデルリセット入力を含むことを含む。
【0101】
実施例23において、実施例12から実施例22の内容は、更に処理回路に筋骨格評価活動と関連付けられる外科処置のリストの少なくとも1つの要素と関連付けられる外科処置暗示を識別させる命令を含み、外科処置のリストについての選択プロンプトの出力は、ARHMD上で表示するための外科処置暗示の表示を含む。
【0102】
実施例24において、実施例23の内容は、外科処置暗示が回復時間、回復の物理療法要件及び予測ROMの少なくとも1つを含むことを含む。
【0103】
実施例25において、実施例1から実施例24の内容は、更に処理回路に外科的回避選択を受信させ、骨格モデルに基づいて予測外科的回避骨格モデルを生成させる命令を含み、予測骨格モデルが外科処置からの回避に基づく低下したROMを含み、又、ARHMDを通して患者を見ながらARHMD上で表示するために患者に重ねられた予測外科的回避骨格モデルを出力させる命令を含む。
【0104】
実施例26において、実施例1から実施例25の内容は、更に処理回路に老化進行入力を受信させ、骨格モデルに基づいて複数の老化骨格モデルを生成させる命令を含み、複数の老化骨格モデルが老化進行入力に基づく複数の減少したROM値を含み、又、ARHMDを通して患者を見ながらARHMD上で表示するために患者に重ねられた複数の老化骨格モデルの進行を出力させる命令を含む。
【0105】
実施例27において、実施例14から実施例26の内容は、更に処理回路に患者の運動を捕捉させる命令を含み、ROMエクササイズの選択は患者の運動に基づく。
【0106】
実施例28は、拡張現実患者評価のための方法である。方法は、筋骨格評価活動中に患者に関して深度センサデータを生成することと、深度センサデータに基づいて骨格モデルを生成することと、筋骨格評価活動中に患者の運動を追跡することと、患者の運動に基づいて現在のROMを決定することと、拡張現実(AR)頭部装着型ディスプレイ(HMD)を通して患者を見ながらARHMD上で表示するために患者に重ねられた現在のROMを出力すること、を含む。
【0107】
実施例29において、実施例28の内容は、筋骨格評価活動の選択を受信することと、ARHMDを通して患者を見ながらARHMD上で表示するために筋骨格評価活動の説明を出力することと、を含む。
【0108】
実施例30において、実施例28又は実施例29の内容は、筋骨格評価活動に基づいて目標のROMを決定することと、ARHMDを通して患者を見ながらARHMD上で表示するために目標のROMのグラフィック表示を出力すること、を含む。
【0109】
実施例31において、実施例28から実施例30の内容は、ARHMD上で表示するためにガイドされた筋骨格活動を出力することを含み、ガイドされた筋骨格活動は、筋骨格評価活動を行うための患者運動指令を与える。
【0110】
実施例32において、実施例28から31の内容は、患者に取り付けられた運動センサから運動センサデータを受信することを含み、運動センサデータは患者の筋骨格運動を特徴付ける。骨格モデルの生成は、更にセンサデータに基づく。
【0111】
実施例33において、実施例28から実施例32の内容は、患者の筋骨格関節の医療用撮像データを受信することを含み、骨格モデルの生成は、更に医療用撮像データに基づく。
【0112】
実施例34において、実施例28から実施例33の内容は、モデル外科処置の選択を受信することと、モデル外科処置及び骨格モデルに基づいて患者処置モデルを生成することと、ARHMDを通して患者を見ながらARHMD上で表示するために患者処置モデルを出力すること、を含む。
【0113】
実施例35において、実施例28から実施例34の内容は、骨格モデルに基づいて予測術後骨格モデルを生成することを含み、骨格モデルが術前骨格モデルを含み、予測術後骨格モデルが外科処置に基づく改良された運動範囲(ROM)を含み、又、拡張現実(AR)頭部装着型ディスプレイ(HMD)を通して患者を見ながらARHMD上で表示するために患者に重ねられた予測術後骨格モデルを出力することを含む。
【0114】
実施例36において、実施例35の内容は、術後筋骨格評価活動中に患者の術後深度センサデータを生成することと、術後深度センサデータに基づいて修正された術後骨格モデルを生成することと、ARHMD上で表示するために術前骨格モデル重ねられた修正された術後骨格モデルを出力すること、を含む。
【0115】
実施例37において、実施例36の内容は、ARHMD上で表示するために予測術後骨格モデルに重ねられた改良された術後骨格モデルを出力することを含む。
【0116】
実施例38において、実施例35から実施例37の内容は、外科処置の選択を受信することを含み、予測術後骨格モデルは、更に外科処置の選択に基づく。
【0117】
実施例39において、実施例38の内容は、筋骨格評価活動と関連付けられる外科処置のリストを識別することと、ARHMD上で表示するために外科処置のリストについて選択プロンプトを出力することと、を含む。
【0118】
実施例40において、実施例35から実施例39の内容は、患者の複数の画像を捕捉することを含み、術前骨格モデルはさらに患者の複数の画像に基づく。
【0119】
実施例41において、実施例40の内容は、ROMエクササイズの選択を受信することと、選択されたROMエクササイズと関連付けられる複数のROM画像を生成することと、を含み、複数のROM画像は、捕捉された患者の画像に重ねられた術後骨格モデルを含む。
【0120】
実施例42において、実施例28から実施例41の内容は、患者用ARHMDを含み、更に、ARHMDを通して医師が患者を見ながらARHMD上で表示するために予測骨格モデルを出力することと、ARHMDを通して医師が患者を見る通りの患者の画像を捕捉することと、患者用ARHMD上で表示するために患者の画像に重ねられた予測骨格モデルを出力すること、を含む。
【0121】
実施例43において、実施例28から実施例42の内容は、複数ポーズ骨格モデルを出力することを含み、複数ポーズ骨格モデルは、ARHMDを通して患者を見ながらARHMD上で表示するために複数ポーズ骨格モデルが患者に重ねられるときに、改良されたROMに基づいて患者身体部位の複数の部分を表示するように構成される。
【0122】
実施例44において、実施例43の内容は、ARHMDを通して患者を見ながらARHMD上で表示するために患者に重ねられた運動骨格モデルを出力することを含み、運動骨格モデルは、改良されたROMに基づく患者身体部位の運動を示す。
【0123】
実施例45において、実施例44の内容は、骨格モデル運動中断入力を受信することと、患者用ARHMD上の表示において患者身体部位の運動をフリーズすること、を含む。
【0124】
実施例46において、実施例28から実施例45の内容は、外科処置の選択を受信することを含む。
【0125】
実施例47において、実施例46の内容は、改良されたROM外科処置についてユーザにプロンプトを与えることを含み、改良されたROM外科処置は、外科処置より大きいROMを与える。
【0126】
実施例48において、実施例28から実施例47の内容は、骨格モデル修正入力を受信することと、骨格モデル修正入力に基づいて修正された骨格モデルを生成することと、ARHMDを通して患者を見ながらARHMD上で表示するために患者に重ねられた修正された骨格モデルを出力すること、を含む。
【0127】
実施例49において、実施例48の内容は、骨格モデル修正入力が少なくとも骨格モデル関節再位置付け、肢長調節、肢ポーズ調節及び骨格モデルリセット入力を含む。
【0128】
実施例50において、実施例39から実施例49の内容は、筋骨格評価活動と関連付けられる外科処置のリストの少なくとも1つの要素と関連付けられる外科処置暗示を識別することを含み、外科処置のリストについての選択プロンプトの出力がARHMD上で表示するための外科処置暗示の表示を含む。
【0129】
実施例51において、実施例50の内容は、外科処置暗示が回復時間、回復の物理療法要件及び予測ROMの少なくとも1つを含むことを含む。
【0130】
実施例52において、実施例28から実施例51の内容は、外科的回避選択を受信することと、骨格モデルに基づいて予測外科的回避骨格モデルを生成することであって、予測骨格モデルは外科的処置からの回避に基づく低下したROMを含む、生成することと、ARHMDを通して患者を見ながらARHMD上で表示するために患者に重ねられた予測外科的回避骨格モデルを出力すること、を含む。
【0131】
実施例53において、実施例28から実施例52の内容は、老化進行入力を受信することと、骨格モデルに基づいて複数の老化骨格モデルを生成することであって、複数の老化骨格モデルが老化進行入力に基づく複数のROM値減少を含む、生成することと、ARHMDを通して患者を見ながらARHMD上で表示するために患者に重ねられた複数の老化骨格モデルの進行を出力すること、を含む。
【0132】
実施例54において、実施例41から実施例53の内容は、患者の運動を捕捉することを含み、ROMエクササイズの選択は患者の運動に基づく。
【0133】
実施例55は、非一時的機械可読記憶媒体であり、コンピュータ制御機器の処理回路で実行されるのに応答して、処理回路に筋骨格評価活動中に患者の深度センサデータを生成させ、深度センサデータに基づいて骨格モデルを生成させ、筋骨格評価活動中に患者の運動を追跡させ、患者の運動に基づいて現在のROMを決定させ、拡張現実(AR)頭部装着型ディスプレイ(HMD)を通して患者を見ながらARHMD上で表示するために患者に重ねられた現在のROMを出力させる命令を含む。
【0134】
実施例56において、実施例55の内容は、更に処理回路に筋骨格評価活動の選択を受信させ、ARHMDを通して患者を見ながらARHMD上で表示するために筋骨格評価活動の説明を出力させる命令を含む。
【0135】
実施例57において、実施例55又は実施例56の内容は、更に処理回路に筋骨格評価活動に基づいて目標のROMを決定させ、ARHMDを通して患者を見ながらARHMD上で表示するために目標のROMのグラフィック表示を出力させる命令を含む。
【0136】
実施例58において、実施例55から実施例57の内容は、更に処理回路にARHMD上で表示するためにガイドされた筋骨格活動を出力させる命令を含み、ガイドされた筋骨格活動は、筋骨格評価活動を行うために患者運動指令を与える。
【0137】
実施例59において、実施例55から実施例58の内容は、更に処理回路に患者に取り付けられた運動センサから運動センサデータを受信させる命令を含み、運動センサデータが患者の筋骨格運動を特徴付け、骨格モデルの生成は更にセンサデータに基づく。
【0138】
実施例60において、実施例55から実施例59の内容は、更に処理回路に患者の筋骨格関節の医療用撮像データを受信させる命令を含み、骨格モデルの生成は更に医療用撮像データに基づく。
【0139】
実施例61において、実施例55から実施例60の内容は、更に処理回路にモデル外科処置の選択を受信させ、モデル外科処置及び骨格モデルに基づいて患者処置モデルを生成させ、ARHMDを通して患者を見ながらARHMD上で表示するために患者処置モデルを出力させる命令を含む。
【0140】
実施例62において、実施例55から実施例61の内容は、更に処理回路に骨格モデルに基づいて予測術後骨格モデルを生成させる命令を含み、骨格モデルは術前骨格モデルを含み、予測術後骨格モデルは外科処置に基づく改良された運動範囲(ROM)を含み、又、AR(拡張現実)HMD(頭部装着型ディスプレイ)を通して患者を見ながらARHMD上で表示するために患者に重ねられた予測術後骨格モデルを出力させる命令を含む。
【0141】
実施例63において、実施例62の内容は、更に処理回路に術後筋骨格評価活動中に患者の術後深度センサデータを生成させ、術後深度センサデータに基づいて改良された術後骨格モデルを生成させ、ARHMD上で表示するために術前骨格モデルに重ねられた改良された術後骨格モデルを出力させる命令を含む。
【0142】
実施例64において、実施例63の内容は、更に処理回路にARHMD上で表示するために予測術後骨格モデルに重ねられた改良された術後骨格モデルを出力させる命令を含む。
【0143】
実施例65において、実施例62から実施例64の内容は、更に処理回路に外科処置の選択を受信させる命令を含み、予測術後骨格モデルは更に外科処置の選択に基づく。
【0144】
実施例66において、実施例65の内容は、更に処理回路に筋骨格評価活動と関連付けられる外科処置のリストを識別させ、ARHMD上で表示するために外科処置のリストについて選択プロンプトを出力させる命令を含む。
【0145】
実施例67において、実施例55から実施例66の内容は、更に処理回路に患者用ARHMDを作動させる命令を含み、命令は、更に処理回路にARHMDを通して患者を見ながらARHMD上で表示するために予測骨格モデルを出力させ、ARHMDを通して医師が見る通りの患者の画像を捕捉させ、患者用ARHMD上で表示するために患者の画像に重ねられた予測骨格モデルを出力させる。
【0146】
実施例68において、実施例55から67の内容は、更に処理回路に複数ポーズ骨格モデルを出力させる命令を含み、複数ポーズ骨格モデルは、ARHMDを通して患者を見ながらARHMD上で表示するために複数ポーズ骨格モデルが患者に重ねられるときに、改良されたROMに基づいて患者身体部位の複数の位置を表示するように構成される。
【0147】
実施例69において、実施例68の内容は、更に処理回路にARHMDを通して患者を見ながらARHMD上で表示するために患者に重ねられた運動骨格モデルを出力させる命令を含み、運動骨格モデルは改良されたROMに基づく患者身体部位の運動を示す。
【0148】
実施例70において、実施例69の内容は、更に処理回路に骨格モデル運動中断入力を受信させ、患者用ARHMD上での表示において患者身体部位の運動をフリーズさせる命令を含む。
【0149】
実施例71において、実施例55から実施例70の内容は、更に処理回路に外科処置の選択を受信させる命令を含む。
【0150】
実施例72において、実施例71の内容は、更に処理回路に改良されたROM外科処置についてユーザにプロンプトを与させる命令を含み、改良されたROM外科処置は外科処置より大きいROMを与える。
【0151】
実施例73において、実施例55から実施例72の内容は、更に処理回路に骨格モデル修正入力を受信させ、骨格モデル修正入力に基づいて修正された骨格モデルを生成させ、ARHMDを通して患者を見ながらARHMD上で表示するために患者に重ねられた修正された骨格モデルを出力させる命令を含む。
【0152】
実施例74において、実施例73の内容は、骨格モデル修正入力が少なくとも骨格モデル関節再位置付け、肢長調節、肢ポーズ調節及び骨格モデルリセット入力を含むことを含む。
【0153】
実施例75において、実施例66から実施例74の内容は、更に処理回路に筋骨格評価活動と関連付けられる外科処置のリストの少なくとも1つの要素と関連付けられる外科処置暗示を識別させる命令を含み、外科処置リストについての選択プロンプトの出力は、ARHMD上で表示するための外科処置暗示の表示を含む。
【0154】
実施例76において、実施例75の内容は、外科処置暗示が回復時間、回復の物理療法要件及び予測ROMの少なくとも1つを含むことを含む。
【0155】
実施例77において、実施例55から実施例76の内容は、更に処理回路に外科的回避選択を受信させ、骨格モデルに基づいて予測外科的回避骨格モデルを生成させ、予測骨格モデルが外科処置からの回避に基づく低下したROMを含み、又、ARHMDを通して患者を見ながらARHMD上で表示するために患者に重ねられた予測外科的回避骨格モデルを出力させる命令を含む。
【0156】
実施例78において、実施例55から実施例77の内容は、更に処理回路に老化進行入力を受信させ、骨格モデルに基づいて複数の老化骨格モデルを生成させる命令を含み、複数の老化骨格モデルが老化進行入力に基づく複数の低下したROM値を含み、又、ARHMDを通して患者を見ながらARHMD上で表示するために患者に重ねられた複数の老化骨格モデルの進行を出力させる命令を含む。
【0157】
実施例79において、未画定の実施例の内容は、更に処理回路に患者の運動を捕捉させる命令を含み、ROMエクササイズの選択は患者の運動に基づく。
【0158】
実施例80は、患者評価のためのシステムである。システムは、患者に関する深度センサデータを生成するための深度センサと、患者の複数の画像を捕捉するためのイメージセンサと、処理回路と、命令を含むメモリとを備え、命令は、処理回路によって実行されたときに、処理回路に、深度センサデータに基づいて術前骨格モデルを生成させ、術前骨格モデルに基づいて術後骨格モデルを生成させ、術後骨格モデルが予め設定された外科処置に基づく改良された運動範囲を含み、また、患者の複数の重ねられた術後骨格モデルを表示のために出力させる。
【0159】
実施例81は、評価の方法である。方法は、患者に関する深度センサデータを生成することと、患者の複数の画像を捕捉することと、深度センサに基づいて術前骨格モデルを生成することと、術前骨格モデルに基づいて術後骨格モデルを生成することであって、術後骨格モデルが予め設定された外科処置に基づく改良された運動範囲を含む、生成することと、患者の複数の画像に重ねられた術後骨格モデルを表示のために出力すること、を含む。
【0160】
実施例82は、処理回路によって実行されたとき、処理回路に実施例1から81の何れかを実現するために作動を実施させる命令を含む少なくとも1つの機械可読媒体である。
【0161】
実施例83は、実施例1から実施例81の何れかを実現するための手段を備える装置である。
【0162】
実施例84は、実施例1から実施例81の何れかを実現するためのシステムである。
【0163】
実施例85は、実施例1から実施例81の何れかを実現するための方法である。
【0164】
本明細書において説明する方法例は、少なくとも部分的に機械又はコンピュータによって実現できる。いくつかの実施例は、上記の実施例において説明する通りに方法を実施するように電子機器を構成するために作動可能な命令を含むコード化されたコンピュータ可読媒体又は機械可読媒体を含むことができる。これらの方法の実現は、マイクロコード、アセンブリ言語コード、高水準言語コード又はこれに類似するものなどのコードを含むことができる。この種のコードは、様々な方法を実施するためのコンピュータ可読命令を含むことができる。コードは、コンピュータプログラム製品の部分を形成できる。更に、1つの実施例において、コードは、実行中又はその他の時点などにおいて、1つ又は複数の揮発性非一時的又は非揮発性有形コンピュータ可読媒体に有形的に記憶できる。これらの有形コンピュータ可読媒体の例は、ハードディスク、着脱可能磁気ディスク、着脱可能光ディスク(例えばコンパクトディスク及びデジタルビデオディスク)、磁気カセット、メモリカード又はスティック、ランダムアクセスメモリ(RAM)、読取り専用メモリ(ROM)、及びこれと類似するものを含むことができるが、これらに限定されない。
態様(1)によれば、拡張現実患者評価のためのシステムであって、前記システムは、
拡張現実(AR)頭部装着型ディスプレイ(HMD)と、
筋骨格評価活動の間に患者に関する深度センサデータを生成するための深度センサと、
処理回路と、
命令を含むメモリであって、前記命令は、前記処理回路によって実行されたとき、前記処理回路に、
前記深度センサデータに基づいて骨格モデルを生成させ、
前記筋骨格評価活動の間に患者の運動を追跡させ、
前記患者の運動に基づいて現在のROMを決定させ、
前記ARHMDを通して前記患者を見ながら前記ARHMD上で表示するために前記患者に重ねられた前記現在のROMを出力させる、
メモリと、
を備える、システムである。
態様(2)によれば、前記命令は、更に、前記処理回路に、
前記筋骨格評価活動の選択を受信させ、
前記ARHMDを通して前記患者を見ながら前記ARHMD上で表示するために前記筋骨格評価活動の説明を出力させる。
態様(3)によれば、前記命令は、更に、前記処理回路に、
前記筋骨格評価活動に基づいて目標のROMを決定させ、
前記ARHMDを通して前記患者を見ながら前記ARHMD上で表示するために前記目標のROMのグラフィック表示を出力させる。
態様(4)によれば、前記命令は、更に、前記処理回路に前記ARHMD上で表示するためにガイドされた筋骨格活動を出力させ、前記ガイドされた筋骨格活動は、前記筋骨格評価活動を行うための患者の運動指令を与える。
態様(5)によれば、前記命令は、更に、前記処理回路に患者に取り付けられた運動センサから運動センサデータを受信させ、前記運動センサデータが前記患者の筋骨格運動を特徴付け、
前記骨格モデルの前記生成は、更に前記センサデータに基づく。
態様(6)によれば、前記命令は、更に、前記処理回路に前記患者の筋骨格関節の医療用撮像データを受信させ、
前記骨格モデルの生成は、更に前記医療用撮像データに基づく。
態様(7)によれば、前記命令は、更に、処理回路に、
モデル外科処置の選択を受信させ、
前記モデル外科処置及び前記骨格モデルに基づいて患者処置モデルを生成させ、
前記ARHMDを通して前記患者を見ながら前記ARHMD上で表示するために前記患者処置モデルを出力させる。
態様(8)によれば、前記命令は、更に、前記処理回路に、
前記骨格モデルに基づいて予測術後骨格モデルを生成させ、前記骨格モデルが術前骨格モデルを含み、前記予測術後骨格モデルが外科処置に基づく改良された運動範囲(ROM)を含み、
前記ARHMDを通して前記患者を見ながら前記ARHMD上で表示するために前記患者に重ねられた前記予測術後骨格モデルを出力させる。
態様(9)によれば、前記深度センサは、更に、術後筋骨格評価活動の間に前記患者に関する術後深度センサデータを生成し、
前記命令は、更に、前記処理回路に、
前記術後深度センサデータに基づいて改良された術後骨格モデルを生成させ、
前記ARHMD上で表示するために前記術前骨格モデルに重ねられた前記改良された術後骨格モデルを出力させる。
態様(10)によれば、前記命令は、更に、前記処理回路に外科処置の選択を受信させ、前記予測術後骨格モデルは、更に前記外科処置の選択に基づく。
態様(11)によれば、前記命令は、更に、前記処理回路に、
前記筋骨格評価活動と関連付けられる外科処置のリストを識別させ、
前記ARHMD上で表示するために前記外科処置のリストについて選択プロンプトを出力させる。
態様(12)によれば、拡張現実患者評価のための方法であって、前記方法が、
筋骨格評価活動の間に患者に関する深度センサデータを生成することと、
前記深度センサデータに基づいて骨格モデルを生成することと、
前記筋骨格評価活動の間に患者の運動を追跡することと、
前記患者の運動に基づいて現在のROMを決定することと、
拡張現実(AR)頭部装着型ディスプレイ(HMD)を通して前記患者を見ながら前記ARHMD上で表示するために前記患者に重ねられた前記現在のROMを出力することと、
を含む、方法である。
態様(13)によれば、更に、
前記筋骨格評価活動の選択を受信することと、
前記ARHMDを通して前記患者を見ながら前記ARHMD上で表示するために前記筋骨格評価活動の説明を出力すること、
を含む。
態様(14)によれば、更に、
前記筋骨格評価活動に基づいて目標のROMを決定することと、
前記ARHMDを通して前記患者を見ながら前記ARHMD上で表示するために前記目標のROMのグラフィック表示を出力すること、
を含む。
態様(15)によれば、更に、前記ARHMD上で表示するためにガイドされた筋骨格活動を出力することを含み、前記ガイドされた筋骨格活動が、前記筋骨格評価活動を行うための患者の運動指令を与える。
態様(16)によれば、更に、患者に取り付けられた運動センサから運動センサデータを受信することを含み、前記運動センサデータが前記患者の筋骨格運動を特徴付け、
前記骨格モデルの生成は、更に前記センサデータに基づく。
態様(17)によれば、更に、前記患者の筋骨格関節の医療用撮像データを受信することを含み、
前記骨格モデルの生成は、更に前記医療用撮像データに基づく。
態様(18)によれば、更に、
モデル外科処置の選択を受信することと、
前記モデル外科処置及び前記骨格モデルに基づいて患者処置モデルを生成することと、
前記ARHMDを通して前記患者を見ながら前記ARHMD上で表示するために前記患者処置モデルを出力すること、
を含む。
態様(19)によれば、更に、
前記骨格モデルに基づいて予測術後骨格モデルを生成することであって、前記骨格モデルが術前骨格モデルを含み、前記予測術後骨格モデルは外科処置に基づく改良された運動範囲(ROM)を含む、生成することと、
拡張現実(AR)頭部装着型ディスプレイ(HMD)を通して前記患者を見ながら前記ARHMD上で表示するために前記患者に重ねられた前記予測術後骨格モデルを出力することと、
を含む。
態様(20)によれば、更に、
術後筋骨格評価活動の間に前記患者に関する術後深度センサデータを生成することと、
前記術後深度センサデータに基づいて改良された術後骨格モデルを生成することと、
前記ARHMD上で表示するために前記術前骨格モデルに重ねられた前記改良された術後骨格モデルを出力すること、
を含む。
態様(21)によれば、更に、外科処置の選択を受信することを含み、前記予測術後骨格モデルは、更に前記外科処置の選択に基づく。
態様(22)によれば、更に、
前記筋骨格評価活動と関連付けられる外科処置のリストを識別することと、
前記ARHMD上で表示するために前記外科処置のリストについて選択プロンプトを出力すること、
を含む。
態様(23)によれば、命令を含む非一時的機械可読記憶媒体であって、命令が、コンピュータ制御機器の処理回路で実行されるのに応答して、前記処理回路に、
筋骨格評価活動の間に患者に関する深度センサデータを生成させ、
前記深度センサデータに基づいて骨格モデルを生成させ、
前記筋骨格評価活動の間に患者の運動を追跡させ、
前記患者の運動に基づいて現在のROMを決定させ、
拡張現実(AR)頭部装着型ディスプレイ(HMD)を通して前記患者を見ながら前記ARHMD上で表示するために前記患者に重ねられた前記現在のROMを出力させる、
非一時的機械可読記憶媒体である。
態様(24)によれば、前記命令は、更に、前記処理回路に、
前記筋骨格評価活動の選択を受信させ、
前記ARHMDを通して前記患者を見ながら前記ARHMD上で表示するために前記筋骨格評価活動の説明を出力させる。
態様(25)によれば、前記命令は、更に、前記処理回路に、
前記筋骨格評価活動に基づいて目標のROMを決定させ、
前記ARHMDを通して前記患者を見ながら前記ARHMD上で表示するために前記目標のROMのグラフィック表示を出力させる。