IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ メドス・インターナショナル・エスエイアールエルの特許一覧

(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公表特許公報(A)
(11)【公表番号】
(43)【公表日】2024-09-03
(54)【発明の名称】医療処置中の撮像
(51)【国際特許分類】
   A61B 6/03 20060101AFI20240827BHJP
   G06T 7/00 20170101ALI20240827BHJP
   G06V 10/82 20220101ALI20240827BHJP
   A61B 34/10 20160101ALI20240827BHJP
   A61B 90/00 20160101ALI20240827BHJP
   A61B 34/20 20160101ALI20240827BHJP
   A61B 6/46 20240101ALI20240827BHJP
   A61B 5/055 20060101ALI20240827BHJP
   G06N 3/0464 20230101ALI20240827BHJP
【FI】
A61B6/03 560J
G06T7/00 350C
G06V10/82
G06T7/00 614
A61B34/10
A61B90/00
A61B34/20
A61B6/03 560G
A61B6/46 506B
A61B6/03 577
A61B6/03 560T
A61B5/055 380
A61B5/055 390
G06N3/0464
【審査請求】未請求
【予備審査請求】未請求
(21)【出願番号】P 2024505362
(86)(22)【出願日】2022-08-01
(85)【翻訳文提出日】2024-02-13
(86)【国際出願番号】 EP2022071521
(87)【国際公開番号】W WO2023007029
(87)【国際公開日】2023-02-02
(31)【優先権主張番号】17/390,115
(32)【優先日】2021-07-30
(33)【優先権主張国・地域又は機関】US
(81)【指定国・地域】
(71)【出願人】
【識別番号】514046806
【氏名又は名称】メドス・インターナショナル・エスエイアールエル
【氏名又は名称原語表記】Medos International SARL
【住所又は居所原語表記】Chemin-Blanc 38, CH-2400 Le Locle, Switzerland
(74)【代理人】
【識別番号】100088605
【弁理士】
【氏名又は名称】加藤 公延
(74)【代理人】
【識別番号】100130384
【弁理士】
【氏名又は名称】大島 孝文
(72)【発明者】
【氏名】ヤルディビ・タリク
(72)【発明者】
【氏名】パルフェット・レイモンド
(72)【発明者】
【氏名】カーティス・アール・パトリック
(72)【発明者】
【氏名】オスマナギッチ・エミール
【テーマコード(参考)】
4C093
4C096
5L096
【Fターム(参考)】
4C093AA22
4C093AA25
4C093AA26
4C093DA10
4C093FF16
4C093FF35
4C093FF42
4C096AA18
4C096AC06
4C096AD14
4C096DC19
4C096DC33
4C096DC36
5L096AA06
5L096AA09
5L096BA06
5L096BA13
5L096CA02
5L096CA18
5L096DA01
5L096FA19
5L096FA66
5L096HA08
5L096HA11
5L096KA04
(57)【要約】
システムは、医療処置を容易にするように構成され得る。いくつかの実施形態は、関心領域(ROI)に対応するスキャンを取得し、患者の画像をリアルタイムでキャプチャし、取得されたスキャン及びキャプチャされた画像を使用して、訓練された機械学習(ML)モデルを介して、Kambinの三角形を識別し、かつキャプチャされた画像上に、識別されたKambinの三角形の表現をオーバーレイすることができる。
【特許請求の範囲】
【請求項1】
コンピュータ実装方法であって、
関心領域(ROI)に対応するスキャンを取得することと、
患者の画像をリアルタイムでキャプチャすることと、
(i)取得された前記スキャン及び(ii)キャプチャされた前記画像を使用して、訓練された機械学習モデルを介して、Kambinの三角形を識別することと、
前記キャプチャされた画像上に、識別された前記Kambinの三角形の表現をオーバーレイすることと、を含む、方法。
【請求項2】
(i)以前に撮影されたスキャン及び(ii)以前の医療処置中にリアルタイムでキャプチャされた対応する画像において識別された構造に基づいてラベル付けされた、グラウンドトゥルースを含む訓練データを得ることと、
得られた前記データを用いて前記モデルを訓練することと、を更に含む、請求項1に記載の方法。
【請求項3】
前記患者の別の画像をキャプチャすることと、
(i)前記取得されたスキャン及び(ii)キャプチャされた前記別の画像を使用して、前記訓練されたモデルを介して、前記Kambinの三角形を再識別することと、
再識別された前記Kambinの三角形に関連付けられた信頼基準を更新することと、
前記再識別されたKambinの三角形の更新された表現を前記キャプチャされた別の画像上にオーバーレイすることと、を更に含む、請求項1に記載の方法。
【請求項4】
(i)椎体及び椎孔、(ii)神経根、並びに(iii)骨ランドマークの中から、前記ROI内の構造を選択することと、
(i)前記取得されたスキャン及び(ii)前記キャプチャされた画像を使用して、前記訓練された機械学習モデルを介して、信頼基準を各々満たす選択された前記構造を識別することであって、前記Kambinの三角形の前記識別が、前記選択された構造の相対的な場所に基づく、識別することと、
1つ又は2つ以上のキャプチャされた画像上に、ユーザインターフェースを介して、前記選択された構造の各々の表現をオーバーレイすることと、を更に含む、請求項2に記載の方法。
【請求項5】
前記機械学習モデルが、畳み込みニューラルネットワークである、請求項1に記載の方法。
【請求項6】
前記画像をキャプチャしたデバイスから前記識別されたKambinの三角形までの現在の距離を判定することを更に含む、請求項1に記載の方法。
【請求項7】
前記神経根が、対応するMRIスキャンを使用して識別され、前記モデルが、複数の以前に撮影されたMRIスキャンにおいて識別された神経根構造に基づいてラベル付けされた、グラウンドトゥルースを含む訓練データを用いて更に訓練される、請求項4に記載の方法。
【請求項8】
前記識別されたKambinの三角形に向かって、インプラント又は器具の少なくとも一部を低侵襲的に前進させることと、
前記前進の軌道が、基準を満たすかどうかを判定することと、
前記軌道が前記基準を満たさなかったという前記判定に応答して、前記基準が満たされるように前記軌道を調整することと、を更に含む、請求項1に記載の方法。
【請求項9】
前記取得されたスキャンが、三次元(3D)コンピュータ断層撮影(CT)スキャンを含む、請求項1に記載の方法。
【請求項10】
位置合わせ時に、前記器具又はインプラントをナビゲートすることと、
前記スキャンの複数の異なる座標系と前記キャプチャされた画像との間で整列させることによって実行される、ポート及び/又はカメラとの前記スキャンの前記位置合わせと、更に含む、請求項8に記載の方法。
【請求項11】
前記識別されたKambinの三角形に向かって前進する拡張器の位置を判定することを更に含み、前記画像が、前記拡張器の側面に取り付けられた、カメラ、電荷結合素子(CCD)、及び光学センサのうちの少なくとも1つを介してキャプチャされる、請求項1に記載の方法。
【請求項12】
前記表現が、前記選択された構造の前記信頼基準を色及び/又は記号で符号化することによって、前記識別されたKambinの三角形を視覚的に区別する、請求項4に記載の方法。
【請求項13】
外科的方法であって、
外科手術領域又は計画された外科手術領域に対応するセグメント化されていない患者スキャンを取得することと、
前記セグメント化されていないスキャンを入力として受け取り、前記外科手術領域又は計画された外科手術領域内の少なくとも1つの神経構造を識別するラベル付けされた画像ボリュームを出力する画像分析ツールを使用して、前記セグメント化されていないスキャンから前記少なくとも1つの神経構造を識別することと、
識別された前記少なくとも1つの神経構造を組み込む患者別の外科手術計画を作成することと、
前記患者別の計画に従って外科的処置を実行することと、を含む、外科的方法。
【請求項14】
前記セグメント化されていない患者スキャンが、CT又はCBCTスキャンであり、前記少なくとも1つの神経構造を識別することが、前記少なくとも1つの神経構造を識別するために、前記セグメント化されていないスキャンを自動的にセグメント化することを更に含む、請求項13に記載の外科的方法。
【請求項15】
前記画像分析ツールが、深層学習モデルを使用して、前記セグメント化されていない患者スキャン内の前記少なくとも1つの神経構造を自動的にセグメント化し、前記方法が、前記患者の位置における変化に基づいて、前記識別された少なくとも1つの神経構造の予想される動きを推定することを更に含む、請求項13に記載の外科的方法。
【請求項16】
前記患者の前記位置における前記変化が、撮像位置から手術位置への変化である、請求項15に記載の外科的方法。
【請求項17】
前記少なくとも1つの神経構造の前記予想される動きに従って、前記患者別の外科手術計画を調整することを更に含む、請求項15に記載の外科的方法。
【請求項18】
前記セグメント化されていない患者スキャンが、術前患者スキャンであり、前記患者別の外科手術計画が、前記識別された少なくとも1つの神経構造との干渉を回避するように最適化された患者別の外科的アクセス計画であり、出力された前記ラベル付けされた画像ボリュームが、前記外科的処置中に表示される、請求項13に記載の外科的方法。
【請求項19】
状況認識医療処置のための方法であって、前記方法が、
手術室の構成を得ることと、
得られた前記構成に基づいて、訓練された機械学習モデルを選択することであって、前記選択は、前記構成がナビゲーション及び3D CTスキャンを示すかどうかを判定することによって実行される、選択することと、
前記構成がナビゲーション及び3D CTスキャンを示すという前記判定に応答して、(i)前記スキャンの複数の異なる座標系とキャプチャされた画像との間で整列させることによって、3D CTスキャンをポート及び/又はカメラと位置合わせし、(ii)患者の領域に対応する前記3D CTスキャンを取得することと、
前記画像をリアルタイムでキャプチャすることと、
(i)取得された前記3D CTスキャン及び(ii)キャプチャされた前記画像を使用して、選択された前記モデルを介して、Kambinの三角形を識別することと、を含む、方法。
【請求項20】
ユーザインターフェースを介して、識別された前記Kambinの三角形の表現の表示を引き起こすように構成された選択を得ることと、
ユーザインターフェースを介して、前記画像の前記キャプチャのためのマルチスペクトル撮像を引き起こすように構成された選択を得ることと、を更に含む、請求項19に記載の方法。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、概して神経構造の予測された場所を識別してモデル化することによって、手術に関連付けられた神経学的合併症を低減するためのシステム及び方法に関する。本開示はまた、学習された解剖学的関連付けに基づいて、解剖学的構造を予測的に位置特定するための機械学習ネットワーク及びモデルの作成、使用、及び用途に関する。
【0002】
本開示は更に、身体内の異なる態様の存在を予測して、次いで、標的を識別し、かつ/又はそれへの経路を判定するためのシステム及び方法に関する。
【背景技術】
【0003】
周術期の神経損傷は、選択的脊椎手術に関連付けられた既知の合併症である。神経損傷は、外科的処置中に神経構造との接触が発生すると生じ得る。脊椎手術から生じ得る周術期の神経学的合併症のいくつかの例としては、血管損傷、硬膜切開術、神経根損傷、及び脊柱器具装着中の脊髄又は神経根の直接的な機械的圧迫が挙げられる。患者の解剖学的構造における広範な変動は、特定の患者の脊椎領域における神経構造の場所を正確に予測又は識別することを困難にする可能性がある。
【0004】
National Institute of Scienceからのデータによれば、選択的脊椎手術から生じる周術期の神経損傷の発生率は、1999年~2011年に、0.68%から1%へと54.4%増加した。加えて、選択的脊椎手術における周術期の神経学的合併症は、より長い入院期間(9.68日対2.59日)、より高い総費用(110,326.23ドル対48,695.93ドル)、及び院内死亡率の増加(2.84%対0.13%)と関連付けられた。
【0005】
低侵襲脊椎手術(minimally invasive spine surgery、MISS)は、多くの既知の利点を有するが、腰椎手術についての患者転帰データの多重研究分析は、MISSが、従来の「切開」外科的技法(0%~2%)と比較して、有意に高い割合の神経根損傷(2%~23.8%)を有することを示す。MISS処置では、脊椎又は標的外科手術領域にアクセスすることは、多くの場合、筋肉、脂肪組織、及び神経構造を含む、患者の解剖学的構造を通して外科用器具をナビゲートすることを伴う。現在の術中撮像デバイスは、手術領域の神経構造を適切に示さない。例えば、コンピュータ断層撮影(computed tomography、CT)及びコーンビームコンピュータ断層撮影(cone beam computed tomography、CBCT)撮像技術は、患者の解剖学的構造の手術領域内の筋骨格構造を視覚化するために術中に使用されることが多い。しかしながら、CT及びCBCT画像は、神経構造を示さない。更に、現在の診療では、外科的アプローチの術前計画のためにCT撮像を使用する。神経構造は、CT画像ボリュームでは見えないので、神経構造との接触を回避又は低減するように外科的アプローチを最適化することができない。磁気共鳴画像法(magnetic resonance imaging、MRI)撮像は、スキャンされた患者の解剖学的構造の筋骨格構造及び神経構造の両方を示すが、MRI撮像は、典型的には、患者を診断するためにのみ使用され、術前外科手術計画又は術中使用のためには使用されない。
【0006】
MISS処置における周術期の神経損傷の発生率は、従来の切開外科手術技法よりも大きいが、MISSは、依然として、手術を必要とする脊椎障害に対する魅力的な治療選択肢である。MISSの利点は、切開手術と比較して、回復時間が短いこと、術後疼痛が少ないこと、及び切開部が小さいことを含む。
【0007】
したがって、脊椎手術における神経学的合併症の発生率を低減するための、特に、低侵襲脊椎手術における神経学的合併症の発生率を低減するためのシステム及び方法が必要とされている。
【0008】
MISS手術中、経験豊富な医師であっても、解剖学的構造を識別することは困難であり、したがって、複数の技術が利用されることが多い。CT非侵襲的スキャンは、身体又は患者(例えば、人間又は動物)の関心領域(region of interest、ROI)の詳細な三次元(three-dimensional、3D)画像を作り出すためのX線を含む。MRIは、強力な磁場及びパルスを作成して、標的又はROIの3D画像を作成するための磁石の非侵襲的使用を含む。内視鏡は、手術部位に関する視覚情報をリアルタイムで提供する。CT及びMRIスキャンは、カメラの画像上にオーバーレイされ得、視覚化は、拡張現実(augmented reality、AR)又は仮想現実(virtual reality、VR)を介して実行され得る。
【発明の概要】
【課題を解決するための手段】
【0009】
医療器具を(例えば、低侵襲経椎間孔腰椎椎体間固定術(transforaminal interbody lumbar fusion、TLIF)手術などの医療処置中に)、後で、器具を内部で前進させるときに神経又は骨と接触させることなく、挿入するための場所を識別するためのシステム及び方法が開示される。したがって、本開示の1つ又は2つ以上の態様は、ROIに対応するスキャンを取得し、患者の画像をリアルタイムでキャプチャし、取得されたスキャン及びキャプチャされた画像を使用して、訓練された機械学習モデルを介して、Kambinの三角形を識別し、かつキャプチャされた画像上に、識別された三角形の表現をオーバーレイするための方法に関する。
【0010】
方法は、機械可読命令及び/又は他の構成要素によって構成された1つ又は2つ以上のハードウェアプロセッサを備えるシステムによって実装される。システムは、1つ又は2つ以上のプロセッサと、例えば、機械可読命令が実行され得る他の構成要素又は媒体とを備える。説明される技法及びアーキテクチャのいずれかの実装形態は、方法若しくはプロセス、装置、デバイス、機械、システム、又はコンピュータ可読記憶デバイスに記憶された命令を含み得る。
【0011】
上で説明される特徴又は変形例のいずれも、いくつかの異なる組み合わせで、本開示の任意の特定の態様又は実施形態に適用することができる。任意の特定の組み合わせの明確な記述はないが、それは単に重複を回避するためである。
【図面の簡単な説明】
【0012】
特定の実装形態の詳細は、添付の図面及び以下記の説明において述べられる。明細書全体にわたって、同様の参照番号は同様の要素を指す場合がある。他の特徴は、図面及び特許請求の範囲を含む以下の説明から明らかになるであろう。しかしながら、図面は例解図及び説明のみを目的としており、本開示の限定の定義として意図されていない。
図1】本発明の画像分析ツールの例示的な3Dモデル出力を示す。
図2】本発明の訓練された画像分析ツールの展開方式の例示的な実施形態を例解する。
図3】本発明の画像分析ツールを使用して患者別の外科手術計画を作成する例示的な方法である。
図4】本発明の画像分析ツールの術中使用の例示的な方法である。
図5図4の方法のステップの例示的な例解図である。
図6図4の方法のステップの例示的な例解図である。
図7図4の方法のステップの例示的な例解図である。
図8図4の方法のステップの例示的な例解図である。
図9図4の方法のステップの例示的な例解図である。
図10図4の方法のステップの例示的な例解図である。
図11】本発明の画像分析ツールの例示的な概略例解図である。
図12】脊椎解剖学的構造の融合されたMRIサンプルを例解する。
図13】本発明のセグメンテーションアルゴリズムの概略例解図である。
図14】本発明のセグメンテーションアルゴリズムを訓練及び展開する例示的な方法である。
図15】本発明のセグメンテーションアルゴリズムへの例示的な画像ボリューム入力を示す。
図16】本発明のセグメンテーションアルゴリズムへの別の例示的な画像ボリューム入力を示す。
図17】先行技術のU-netアーキテクチャを示す。
図18】1つ又は2つ以上の実施形態による、MISSが支援されるシステムの例を例解する。
図19A】先行技術による、脊柱の一部の後面立面図及び側面立面図を含む。
図19B】先行技術による、椎骨の上面図を含む。
図20A】1つ又は2つ以上の実施形態による、識別されたKambinの三角形の概略図である。
図20B】1つ又は2つ以上の実施形態による、識別されたKambinの三角形の概略図である。
図21】1つ又は2つ以上の実施形態による、医療処置の精度を改善するためのプロセスを例解する。
図22】1つ又は2つ以上の実施形態による、状況認識医療処置を容易にするためのプロセスを例解する。
【発明を実施するための形態】
【0013】
本願の全体を通じて使用されるとき、「し得る(may)」という語は、義務の意味(すなわち、必須を意味する)ではなく、許可の意味で使用されている(すなわち、あることを行う可能性を有することを意味する)。「含む(include)」、「含む(including)」及び「含む(includes)」などの語は、含むが限定されない、ということを意味する。本明細書で使用される場合、文脈上特に明記されない限り、「a」、「an」、及び「the」という単数形は、複数の指示物を含む。本明細書で使用される場合、「数」という用語は、1又は1より大きい整数(すなわち、複数)を意味するものとする。
【0014】
本明細書で使用される場合、2つ又はそれ以上の部品又は構成要素が「結合される」という記述は、リンクが発生する限り、部品が直接又は間接的に、すなわち、1つ又は2つ以上の中間部品又は構成要素を介して、接合されるか、又は一緒に動作することを意味するものとする。本明細書で使用される場合、「直接結合された」は、2つの要素が互いに直接連結していることを意味する。例えば及び非限定的に、上部、底部、左側、右側、上側、下側、前面、背面及びそれらの派生物などの、本明細書において使用される方向の言い回しは、図面に示されている要素の方向に関係し、そこに明示的に記載されていない限り、特許請求の範囲を限定するものではない。
【0015】
これらの図面は、縮尺通りに描かれていない場合があり、任意の所与の実施形態の構造又は性能特性を正確に反映していない場合があり、例示的な実施形態によって包含される値又は特性の範囲を定義又は限定するものとして解釈されるべきではない。
【0016】
特に別段の記載がない限り、考察から明らかなように、本明細書全体を通して、「処理する」、「コンピュータ処理する」、「計算する」、「判定する」などのような用語を利用する考察は、特殊用途コンピュータ又は同様の特殊用途電子処理/コンピューティングデバイスなどの特定の装置のアクション又はプロセスを指すことを理解されたい。
【0017】
本明細書に開示されるデバイス、システム、及び方法の構造、機能、製造、及び使用の原理が総括的に理解されるように、ある特定の例示的な実施形態について、これから説明する。これらの実施形態の1つ又は2つ以上の実施例が、添付の図面に例解されている。当業者であれば、本明細書で詳細に説明され、添付の図面に示される装置、システム、及び方法は、非限定的な例示的実施形態である点を理解するであろう。例示的な一実施形態に関連して例解又は記載される特徴は、他の実施形態の特徴と組み合わせることができる。かかる修正及び変形例は、本開示の範囲内に含まれることが意図される。
【0018】
追加的に、直線又は円形の寸法が、開示されるデバイス及び方法の説明で使用される限りにおいて、そのような寸法は、そのようなデバイス及び方法とともに使用され得る形状のタイプを限定することを意図しない。当業者には、そのような直線寸法及び円寸法に相当する寸法を、任意の幾何学的形状について容易に決定することができる点が認識されるであろう。更に、装置の寸法及び形状、並びにその構成要素は、装置が使用されることになる対象の解剖学的形態、装置とともに使用されることになる構成要素の寸法及び形状、並びに装置が使用されることになる方法及び手技に少なくとも依存し得る。
【0019】
図示された実施形態及び付随する説明は、脊椎手術処置における用途、特に低侵襲脊椎手術、本明細書に記載される装置、システム、及び方法は、これらの用途に限定されない。
【0020】
ここで、撮像及びニューラルネットワークに関するいくつかの背景情報を提供する。上記で考察したように、医療分野では、選択的脊椎手術に関連付けられた神経学的合併症の発生率を低減する必要がある。現在の診療では、MRI撮像は、患者の解剖学的構造のスキャンされた領域内の筋骨格及び神経構造又は組織の両方を視覚化することができる。しかしながら、MRI撮像は、術前外科手術計画又は術中計画若しくはフィードバックにおける使用には好ましくない。CT撮像及びCBCT撮像は、患者の解剖学的構造のスキャンされた領域における筋骨格構造を示すために使用され得る。しかしながら、神経構造は、CT又はCBCT画像ボリュームでは見えない。CT又はCBCT撮像は、術前外科手術計画及び/又は術中外科手術ナビゲーション、計画、若しくは分析において外科医によって一般的に使用される。特に、低侵襲脊椎外科的処置では、CT又はCBCT画像ボリュームを術前に使用して、外科用器具が標的脊椎領域にアクセスするために従う外科的アクセスアプローチを計画することができる。コンピュータ支援ナビゲーション環境を使用するいくつかの外科的処置では、CT又はCBCT撮像を術中に使用して、患者の解剖学的構造の外科手術領域を表示することができる。CT又はCBCT撮像は、処置中に患者位置が調整された場合に更新することができる。
【0021】
MRI及びCT又はCBCT撮像の場合、結果として生じる画像ボリュームは、異なる解剖学的構造を識別するために注釈付け、ラベル付け、又はセグメント化することができる。画像ボリューム内の構造を識別するプロセスは、画像ボリュームを注釈付けすること、ラベル付けすること、又はセグメント化することと呼ぶことができ、これらの用語は、本明細書の開示全体を通して互換的に使用される。代替的に、結果として生じる画像ボリュームが、セグメント化されていないボリュームとして残る場合がある。セグメント化されていないボリュームの場合、結果として生じる画像ボリュームは、画像ボリューム内で見える構造を互いに区別するデータを含まない。
【0022】
機械学習アルゴリズムにおける最近の開発は、生物医学的画像セグメンテーションにおける用途のための(深層)畳み込みニューラルネットワーク(convolutional neural network、CNN)であるU-Netの開発を含む。一般的に、CNNは、入力層と出力層との間に複数の層を有する深層ニューラルネットワークである。CNNは、人間の入力を必要とすることなく、入力画像を分解し、入力画像の全てのサンプルにわたって存在する傾向を識別し、かつ識別された傾向を使用して、ラベル付けされていない入力画像を分類するように訓練され得る。このようにして、CNNは、従来のアルゴリズムでは手作業で設計されていた画像フィルタを学習することができる。
【0023】
最近の研究では、少数の注釈付けされた2Dスライスのみから密なボリュームセグメンテーションを生成することを学習するUネットベースの深層ネットワークを作成するために、既知のUネットアーキテクチャが構築されている。半自動深層ネットワークは、注釈付けされた2D入力スライス内に存在するセグメンテーションを高密度化することができる。完全に自動化されたセットアップでは、代表的な疎に注釈付けされた訓練データセットが存在し、新しいボリューム画像を密にセグメント化するようにニューラルネットワークを訓練するために入力され得る。両方の場合において、深層ニューラルネットワークは、U-netアーキテクチャを使用して、入力画像において示されるが、密にセグメント化されていない解剖学的構造の密なセグメンテーションを生成する。
【0024】
図17は、既知のU-netアーキテクチャ1700の例解図を示しており、これは、画像全体を分析するための縮小エンコーダ部分と、フル解像度セグメンテーションを作り出すための連続的な拡張デコーダ部分とからなる。図17のu-netアーキテクチャは、3Dボリュームを入力として取り、それらを対応する3D演算、特に、3D畳み込み、3D最大プーリング、及び3Dアップ畳み込み層を用いて処理する。u-netアーキテクチャは、各々が4つの解像度ステップを有する分析及び合成経路を有する。分析経路では、各層は、2つの3×3×3畳み込みを含み、各々の後に整流線形ユニット(rectified linear unit、ReLu)が続き、次に、各次元において2のストライドを有する2×2×2最大プーリングが続く。合成経路において、各層は、各次元において2のストライドによる2×2×2の上昇畳み込みと、それに続く2つの3×3×3畳み込みと、各それに続くReLuとからなる。分析経路内の等しい解像度の層からのショートカット接続は、合成経路に本質的な高解像度特徴を提供する。最後の層において、1×1×1畳み込みは、出力チャネルの数を、図17の場合には3であるラベルの数に低減させる。図17に示されたアーキテクチャは、全部で19,069,955個のパラメータを有する。ボトルネックは、既に最大プーリングの前にチャネル数を倍増することによって回避される。同じことが、合成経路においても行われる。
【0025】
引き続き図17を参照すると、ネットワークへの入力は、3つのチャネルを有する画像の132×132×116ボクセルタイルである。最終層における出力は、それぞれx、y、z方向に44×44×28ボクセルである。1.76×1.75×2.04μm3のボクセルサイズでは、近似受容野は、予測されたセグメンテーションにおける各ボクセルに対して155×155×180μm3になる。したがって、各出力ボクセルは、効率的に学習するのに十分なコンテキストを有する。バッチ正規化は、各ReLuの前に導入される。各バッチは、訓練中にその平均及び標準偏差で正規化され、グローバル統計は、これらの値を使用して更新される。これに、スケール及びバイアスを明示的に学習するための層が続く。u-netアーキテクチャは、重み付けされたソフトマックス損失関数を含む。ラベル付けされていないピクセルの重みを0に設定することができ、ラベル付けされたピクセルのみから学習し、ボリューム全体に一般化することを可能にする。
【0026】
本明細書に開示されるシステム及び方法は、ラベル付けされていない入力ボリュームから解剖学的構造を効果的かつ予測的に識別し、ラベル付けし、モデル化し、視覚化するために、u-netアーキテクチャ上で拡張する画像分析ツールを含むことができる。
【0027】
概して、脊椎手術のための神経解剖学的構造の予測モデリング及び視覚化の開示が、ここで提示される。本発明は、概して、患者の解剖学的構造のセグメント化されていない、又はラベル付けされていない画像ボリュームから神経組織を予測的に位置特定し、モデル化し、視覚化するための方法、システム、及びデバイスを対象とする。本明細書に記載される方法、システム、及びデバイスは、脊椎手術処置と関連して使用するために、具体的には、低侵襲脊椎手術処置において使用するために特に好適である。本発明の画像分析ツールは、患者の脊椎領域のラベル付けされていない画像ボリュームから患者の脊柱付近の神経構造を予測的に位置特定し、モデル化し、視覚化するように訓練することができる。本発明の画像分析ツールは、機械学習システムとして構成することができる。一実施形態では、画像分析ツールは、複数の畳み込みニューラルネットワークを含むことができる。一実施形態では、画像分析ツールは、訓練された予測モデルとして構成される第1の畳み込みニューラルネットワークと、第1の畳み込みニューラルネットワークをグラウンドトゥルースピクセルラベル分類として使用する第2の畳み込みニューラルネットワークとを含むことができる。本発明の第1の畳み込みニューラルネットワーク及び第2の畳み込みニューラルネットワークは、それぞれ第1のU-Net及び第2のU-Netと呼ぶこともできる。
【0028】
本発明の画像分析ツールは、脊椎領域のラベル付けされていないCT又はCBCTスキャンボリュームを入力として受け取ることができ、訓練されたニューラルネットワークを使用して、スキャンされた脊椎領域に関連付けられた少なくとも1つの神経構造の場所を予測し、識別することができる。画像分析ツールは、ある程度の信頼度で、スキャンされた脊椎領域のセグメント化又はラベル付けされた画像を出力することができる。一実施形態では、画像分析ツールは、セグメント化されていない患者スキャンから脊椎付近のラベル付けされた神経構造の3Dモデルを出力することができる。画像分析ツール出力は、患者別の解剖学的構造に基づいて神経構造との接触を回避するために外科的アプローチを最適化するための初期患者別の「神経ロードマップ」を提供することができる。画像分析ツールは、あるレベルの信頼度で神経組織を予測的にモデル化し、識別するための関連付けを行うために、神経及び筋骨格系の解剖学的構造の深層学習ベースの共変動モデルに依存することができる。本発明によれば、患者の脊椎付近の神経組織の場所を識別するために、MRI又は超音波を使用する撮像などの追加の患者撮像が必要とされない。
【0029】
一実施形態では、本発明の画像分析ツールは、例えば、術中CBCT及びツール追跡を含むことができるコンピュータ支援ナビゲーション環境の一部として使用することができる。本発明の画像分析ツールは、任意の既知のコンピュータ支援ナビゲーション環境に組み込むことができ、又はそれに関連付けて使用することができる。本発明の画像分析ツールをコンピュータ支援ナビゲーション環境に組み込むことにより、神経構造及び/又は患者別の外科手術計画の予測モデリング及び視覚化の術中調整及び更新を可能にすることができる。コンピュータ支援ナビゲーション環境は、実行されている外科的処置に関する術中フィードバックを受け取ることができる。例えば、術中フィードバックは、患者、神経構造、又は外科用器具の位置に関する情報を含むことができ、本発明によって生成された神経構造のモデルと併せて使用して、神経構造との望ましくない接触を低減することができる。画像分析ツールによって生成された神経構造の予測モデリング及び視覚化は、神経監視プローブ、関節鏡カメラ、等からのフィードバックを通じて術中に検証することができる。
【0030】
本発明で生成された患者別の外科手術計画は、脊椎にアクセスしながら神経組織との接触を回避するのを助けるために、コンピュータ支援ナビゲーション又はロボット外科手術システムの一部として使用することもできる。代替的に、本発明のシステム、方法、及びデバイスは、スタンドアロン術前計画システムとして使用され得る。例えば、本発明の画像分析ツールは、本明細書に記載されるシステム及び方法とともに、術前CTスキャンと併せて術前計画システムとして使用することができる。スタンドアロンとして使用されても術中環境に組み込まれても、本発明の画像分析ツールは、CT又はCBCT画像のみに依存して、スキャンされた外科手術領域内の患者の神経組織を識別及びセグメント化することができ、外科手術領域内の神経組織を識別及び位置特定する目的で患者に対して実行されるMRI又は超音波などの追加の撮像を必要としない。
【0031】
本発明の画像分析ツールは、神経及び筋骨格系の解剖学的構造の深層学習ベースの共変動モデルを使用して、患者の脊椎の近くの予測された神経組織の3Dモデルを生成及び出力することができる。図1は、本発明の画像分析ツールの例示的な3Dモデル出力10を示す。3Dモデル10は、画像分析ツールによって計算されたセグメンテーションデータの視覚的表現であり得る。以下でより詳細に考察するように、画像分析ツールのデータ出力は、マーチングキューブなどのセグメンテーションから表面モデルへの変換アルゴリズムを使用して表面モデルに変換することができる。セグメンテーションデータを視覚モデルに変換する任意の既知の方法が使用され得、本発明の範囲内であることが理解されよう。
【0032】
例示的な出力10は、脊椎領域内の神経構造を識別するために画像分析ツールによって自動的にセグメント化された患者の脊椎領域を視覚化する3Dモデルである。図1に例解される3Dモデル出力10は、脊椎領域の予測された神経組織40の視覚化とともに、2つの隣接する椎骨20及び30を表示する。一実施形態では、分析ツールは、3Dモデル10内で少なくとも1つの信頼区間50を識別し、出力することができる。信頼区間は、神経の予測された場所における予想される誤差源を説明することができる。計算誤差は、例えば、自然な患者の変動又は測定誤差から生じ得る。画像分析ツールの信頼区間は、神経組織の場所に対する信頼区間を表す等値面であり得る。
【0033】
ここで、本発明の画像分析ツールの簡単な概要が提供され、続いて、本発明の画像分析ツールを使用する方法の説明が提供される。最後に、本発明の画像分析ツール自体が、詳細に考察される。
【0034】
本発明の画像分析ツールは、入力としてラベル付けされていないCT又はCBCTスキャンデータを受け取ることができ、スキャンされた領域内の神経構造を予測可能に位置特定及び識別することができるセグメンテーションアルゴリズムを含むことができる。セグメンテーションアルゴリズムは、神経組織と解剖学的構造との間の訓練された深層学習共変動モデルに依存することができる。共変動モデルは、完全なデータ、すなわち、セグメント化された骨、筋、及び神経の解剖学的構造を含み、欠けているデータラベル、すなわち、CTスキャン又はCBCTスキャンからの神経の解剖学的構造を予測するために使用することができる。画像分析ツールは、ラベル付けされていない患者CT又はCBCTスキャンを入力として受け取り、セグメンテーションアルゴリズムを使用して、スキャンされた領域内の神経組織を位置特定し、識別する。画像分析ツールは、ラベル付けされた神経構造を識別する入力スキャン領域の3Dモデルボリュームを生成し、出力することができる。追加的に、画像分析ツールは、ラベル付けされていないCT又はCBCT入力スキャン内に存在するラベル付けされた筋骨格構造を出力するように構成することができる。
【0035】
本発明の共変動モデルは、画像分析ツールのオフライン訓練段階中に最初に作成される。訓練段階は、以下で詳細に考察するように、ラベル付けされたMRIボリュームの入力データを使用して、解剖学的共変動モデルを構築する。訓練段階はまた、モデルを訓練するためにMRIボリュームから生成された追加の訓練データを含むことができる。次いで、共変動モデルを使用して、入力訓練データの第2のセットに対して画像分析ツールを訓練する。入力訓練データの第2のセットは、ラベル付けされたCT又はCBCTボリューム、すなわち、セグメント化された筋骨格構造を含むCT又はCBCTボリュームであり得る。次いで、画像分析ツールは、ラベル付けされた筋骨格解剖学的構造に対応する神経構造を出力するために、共変動モデルを使用することができる。オフライン訓練段階の後、画像分析ツールを本発明の様々なシステム及び方法に展開して、ラベル付けされていないCT又はCBCTスキャンボリュームから患者の外科手術領域内の神経組織を識別することができる。
【0036】
本発明の画像分析ツールの展開又は使用の段階に目を向けると、図2は、訓練された画像分析ツール200の展開方式を例解する。画像分析ツール200は、入力として患者スキャン210を受け取ることができる。入力患者スキャン210は、完全にラベル付けされていない、又はセグメント化されていない画像ボリュームであり得る。入力患者スキャンは、術前患者スキャン又は術中患者スキャンであり得る。一実施形態では、画像分析ツール200は、CBCTボリュームのグレーレベルデータ、CTボリュームのボクセルデータ、又は当技術分野で知られている任意の撮像技術を使用してスキャンされた患者の解剖学的構造を表す同等のラベル付けされていない、又はセグメント化されていない画像データを受け取ることができる。図2に示す例では、訓練された画像分析ツール200は、患者の脊椎領域のグレーレベルデータCBCTボリューム210を受け取る。
【0037】
画像分析ツール200は、セグメンテーションアルゴリズムを使用して、受け取った入力データの筋骨格組織及び神経組織を自動的にセグメント化することができる。例えば、画像分析ツール200の出力220は、椎体、椎間板、腰筋筋肉、及び脊柱起立筋などのセグメント化された筋骨格組織、並びに神経、脊髄、及び馬尾などの神経組織を示すことができる。例えば、図2の出力220は、セグメント化された筋骨格組織、椎骨222及び224、腰筋筋肉226及び228、並びに神経根230及び232から出る神経構造を示す。本発明の画像分析ツールは、統計分析及び共変動モデル並びに患者表現型情報に基づいて、識別された神経構造の複数の領域を表示することができる。患者表現型情報は、例えば、患者の性別、肥満度指数、椎間孔空間、等を含むことができる。
【0038】
上記で考察したように、本発明の画像分析ツールの出力220は、少なくとも1つの神経構造が識別され、ラベル付けされた3D表面モデルであり得る。3D表面モデルは、セグメンテーションから表面モデルへの変換アルゴリズムを使用して実現することができる。本発明の画像分析ツール又は画像分析ツールを組み込んだシステムは、識別された神経構造を表示し、入力スキャンボリューム上、すなわち、ラベル付けされていないCT又はCBCTスキャン上に神経構造をオーバーレイすることができる。
【0039】
図3は、患者別の外科手術計画を作成するために本発明の画像分析ツールを使用する例示的な方法300を例解する。患者別の外科手術計画は、神経組織に接触するリスクを低減するように最適化された計画であり得る。方法300を用いて作成された患者別の外科手術計画は、スタンドアロン術前計画ツールとして使用することができ、又は外科的処置を実行しながら術中に組み込むことができる。第1のステップ310において、外科手術領域のCT又はCBCTボリュームが、画像分析ツールによって取得される。前に考察したように、画像分析ツールによって取得されたCT又はCBCTボリュームは、ラベル付けされていなくてもよい。次に、ステップ320において、画像分析ツールは、取得された患者スキャン入力ボリュームの神経構造を自動的にセグメント化し、識別することができる。追加的に、画像分析ツールは、入力ボリュームの筋骨格構造を自動的にセグメント化し、識別することができる。次に、ステップ330で、CT又はCBCT入力ボリューム上に、識別された神経構造を表示し、オーバーレイすることができる。
【0040】
一実施形態では、ステップ340において、画像分析ツールが、患者位置の予想される変化に基づいて、神経構造の予想される動きを考慮することができる。例えば、患者位置の予想される変化は、患者撮像位置と患者手術位置との間の変化であり得る。例えば、入力CTスキャンが仰臥位置で行われ、手術が腹臥位置で実行される場合、システムは、この位置変化を考慮し、神経構造の予測された場所を更新することができる。表示された神経構造は、更新され、調整され、又は患者位置の予想される変化を最初に反映することができる。患者位置の変化に関する情報は、神経構造が最初に識別される前又は後のいずれかに、システムにロードされ得る。位置情報は、例えば、ドロップダウンリストから患者位置を選択することによって、データ入力フォームに患者位置情報を直接入力することによって、又は接続されたネットワーク、サーバ、若しくは他のデータ場所に記憶された情報から位置情報を画像分析ツールシステムが自動的に取り出すことによって、任意の既知のデータ入力方法を使用してシステムに入力することができる。神経組織モデルは、ステップ350で、患者別の脊椎外科手術領域内の神経組織の予測され、視覚化された場所を反映する画像分析ツールシステムによって出力され得る。神経組織モデルは、患者位置の変化に基づいて、神経組織の予測場所に対して調整が行われる前、後、又は前及び後の両方に出力され得ることが理解されよう。
【0041】
ステップ360で、画像分析ツールによって出力された神経構造の予測モデリングから、患者別の最適な外科手術計画が生成され得る。一実施形態では、患者別の最適な外科手術計画は、神経組織との接触を回避しながら椎間板腔又は脊椎にアクセスするための計画であり得る。一実施形態では、画像分析ツールは、推奨される安全なアクセスゾーンを識別することができる。安全なアクセスゾーンは、所定のしきい値未満の神経存在確率を有する1つ又は複数のエリアとすることができ、したがって、外科用器具類が手術中に通過する安全な経路を表す。一実施形態では、最適な外科手術計画は、処置に必要な特定のツールと重ね合わせて表示することができる。例えば、最適な外科手術計画は、アクセスポータル、椎弓根ねじ、又は予測された神経組織の近くの外科的処置における使用のために計画された任意の他の器具類を示すことができる。
【0042】
次に、本発明の画像分析ツールによる予測モデリングに関連付けられて生成された患者別の最適な外科手術計画を使用して、神経学的合併症のリスクを低減した外科的処置を実行することができる、ステップ370。一実施形態では、最適な外科手術計画をロボット外科手術システムへの入力として使用して、脊椎にアクセスし、骨切断、椎間板切除、などを実行しながら、神経解剖学的構造を損傷することを回避するためのツール経路の計画を支援することができる。代替的に、又はロボット外科手術システムを用いた使用に加えて、患者別の最適外科手術計画は、神経構造の場所を検証するために、神経監視プローブ又はカメラと併せて術中に使用され得る。生成された患者別の最適な外科手術計画は、外科的処置の準備をするために、CT撮像を伴うスタンドアロン術前計画システムとして使用することもできる。
【0043】
別の例示的な実施形態では、本発明の画像分析ツールシステムは、コンピュータ支援ナビゲーション環境の一部として術中に使用することができる。コンピュータ支援ナビゲーション環境は、例えば、CBCT撮像技術、ツール追跡、神経位置特定プローブ、カメラ、などのような、外科的処置を援助するための追加の技術を含むことができる。図4は、本発明の画像分析ツールの術中使用の例示的な方法400を表し、一方図5図10は、図4の画像分析ツールの例示的な術中使用のステップを例解する。
【0044】
第1のステップ410において、画像分析ツールは、ラベル付けされていない患者スキャンボリュームを入力として取得することができる。一実施形態では、患者スキャンは、患者の脊柱の術中CT又はCBCTスキャンであり得る。代替的又は追加的に、患者スキャンは、患者の脊柱の術前スキャンであり得る。患者スキャンは、外科的処置及び外科的アプローチの詳細に応じて、仰臥位置、腹臥位置、又は半腹臥位置の患者で行うことができる。図5は、腹臥位置の患者の術中CBCTスキャン500を例解する。ラベル付けされていない患者スキャンボリュームが、画像分析ツールによって取得された後、画像分析ツールは、スキャンボリュームを自動的にセグメント化して、ラベル付けされていない入力スキャン内の神経組織を識別し、ラベル付けすることができる、ステップ420。画像分析ツールはまた、ラベル付けされていない入力スキャン内の筋骨格組織をセグメント化することもできる。例えば、画像分析ツールは、入力画像ボリューム内の、神経組織、椎体、並びに脊柱起立筋及び腰筋筋肉などの他の筋骨格組織を自動的にセグメント化し、ラベル付けすることができる。図6は、画像分析ツールによって自動的にラベル付けされた例示的な患者スキャンを示す。以下で詳細に説明するように、画像分析ツールは、深層学習ベースの解剖学的共変動モデルを使用して、セグメント化されていない画像ボリューム上の神経組織及び筋骨格組織を識別し、ラベル付けすることができる。図6は、本発明の画像分析ツールによって出力された3Dボリュームのスライスを示す。特に、神経構造610、すなわち、出て行く神経根610を識別し、現在自動的にセグメント化されている入力スキャンボリューム600上にオーバーレイすることができる。画像分析ツールはまた、筋骨格組織620を識別及びモデル化することができる。一実施形態では、スライス600などのセグメント化された出力は、コンピュータ支援ナビゲーション環境のスクリーン又はディスプレイ上に表示することができる。
【0045】
次に、ステップ430において、セグメント化された画像分析ツール出力から、最適化された患者別の外科手術計画を作成することができる。最適化された患者別の計画は、患者の解剖学的構造並びに外科的目標及び外科的制約を考慮に入れることができる。例えば、側方経腰筋外科的処置のために、椎間板腔及び関連する骨構造へのアクセスを最大化し、一方、特定患者に特有の腰筋筋肉に埋め込まれた周囲の神経根及び神経路との接触を最小化する最適化された軌道を計画することができる。スキャンされた外科手術領域に対応する神経構造は、画像分析ツールによって識別され、最適化された外科手術計画を作成する際に考慮され得る。ステップ410~430は、術前に、術中に、又は術前及び術中の組み合わせで実行され得ることが理解されよう。
【0046】
図7は、例示的な患者別の最適化された外科手術計画を示す。特に、図7は、特定の患者の椎体空間にアクセスするための最適化されたテーブル軌道を示す。3Dモデル700は、画像分析ツールシステムの出力であり、画像分析ツールによって生成された自動セグメンテーションを表示することができる。例えば、3Dモデル700は、患者の脊椎領域から出る第1の神経束又は神経枝710及び第2の神経束又は神経枝712を含むことができる。特に、神経枝710、712は、2つの隣接する椎骨720及び722の近くの領域から出ていることが見られ得る。腰筋筋肉730及び732などの脊椎領域の筋組織はまた、画像分析ツールによってセグメント化及びラベル付けされ得る。次いで、システム及びラベル付けされた3Dボリュームを使用して、特定の外科的処置のための最適軌道740を計画することができる。最適軌道740は、外科用器具が外科手術領域にアクセスするための最適経路を表すことができる。図7に示す例示的な実施形態では、最適軌道740は、神経構造710を回避するための椎間腔750へのアクセス経路を示す。安全なアクセスゾーン742がまた、画像分析ツールシステムによって生成され得る。安全なアクセスゾーンは、神経組織の存在が所定のしきい値未満であるエリアを表すことができる。換言すれば、識別された安全なアクセスゾーンは、外科用器具類が神経構造に接触するリスクを低減しながら安全に通過することができる予測されたエリアを表すことができる。
【0047】
ステップ440において、患者別の外科手術計画は、コンピュータ支援ナビゲーション環境表示の一部として示され得る。本発明の画像分析ツールは、外科手術ナビゲーション環境と通信することができる。代替的に、画像分析ツールは、外科手術ナビゲーションデバイスに最初にプログラムされ得るか、又は外科手術ナビゲーションデバイスを用いて作成され得る。外科手術ナビゲーション環境は、術中CBCT画像ボリュームに対して、Jamshidiタイプの針などのツールを追跡するための患者アレイ及び器具アレイの両方を含むことができる。外科手術ナビゲーション環境は、患者及び外科的処置で使用されるツールの両方の位置決めのリアルタイムフィードバックを表示することができる。患者及び器具アレイのフィードバックは、CBCT画像ボリューム出力及び/又は最適化された外科手術計画とオーバーレイされ、又は統合されて表示することができる。図8は、患者100に対して実行されている外科的処置の例を示しており、ここでは、複数の外科用器具が、低侵襲技法を使用して患者の脊柱にアクセスするために使用されている。複数の器具は、図7に示される処置のための3Dモデルへの位置合わせ及びそれに基づく実行を可能にするように、例えば、外科手術ナビゲーションシステムによって追跡され得ることに留意されたい。
【0048】
ステップ450において、外科的処置が実行されている間に、術中フィードバックをコンピュータ支援ナビゲーション環境に提供することができる。例えば、外科用器具は、最適化された患者別の外科的アクセス計画に従って椎間板腔内にナビゲートされ得る。一実施形態では、外科用器具は、位置特定情報をコンピュータ支援ナビゲーション環境に返送するためのツール追跡アレイ又はセンサを含むことができる。更なる非限定的な例として、外科用器具は、視覚フィードバック、超音波フィードバック、等などのフィードバックを、神経構造、外科用器具類、追加の患者の解剖学的構造、などの場所についてコンピュータ支援ナビゲーション環境に提供することができる。
【0049】
一実施形態では、超音波ベースの神経位置特定プローブは、外科手術領域内の少なくとも1つの神経構造の位置決めに関する術中フィードバックを提供することができる。表示される患者スキャンボリュームは、術中フィードバックに基づいて更新又は調整され得る。他の実施形態では、超音波プローブの代わりに、例えば、筋音図(mechanomyography、MMG)、筋電図(electromyography、EMG)、及び神経組織の存在を検出するための他の既知の器具を含む、他の神経位置特定器具が利用され得る。
【0050】
ステップ460において、術中フィードバックをユーザに通信することができる。例えば、神経構造をラベル付けする表示された患者スキャンは、術中フィードバックを反映するように更新、修正、又は調整され得る。このようにして、コンピュータ支援ナビゲーション環境とともに術中に使用するように構成された本発明の一実施形態は、外科手術領域内の神経組織の場所、予め計画された経路からの外科用器具の逸脱、神経構造に対する外科用器具の相対的な場所、等のうちの少なくとも1つに関する視覚フィードバックを提供することができる。一実施形態では、本発明の画像分析ツールと連携したコンピュータ支援ナビゲーション環境は、補助外科用器具類から得られた情報に基づいて、神経マップを継続的に改良し、更新することができる。非限定的な例として、補助外科用器具類は、トリガ式MMG、光学、又は超音波ベースのハンドヘルド神経位置特定システムなどの補助神経位置特定システムを含むことができる。神経マップはまた、CT又はCBCTスキャンが患者の動きに基づいて更新される場合、更新され得る。
【0051】
図9及び図10に見られるように、コンピュータ支援ナビゲーション環境は、外科的処置に関するリアルタイム又はリアルタイムに近い視覚フィードバックを提供することができる。例えば、器具から最も近い神経構造までの距離、又は計画された最適軌道若しくは最適器具経路からの偏差を反映するフィードバックを外科手術ナビゲーション環境上に表示することができる。図9及び図10は、本発明の画像分析ツールによって生成された出力を有するリアルタイム外科的フィードバックを組み込んだ外科手術ナビゲーション環境の2つの例示的な表示を示す。図9には、患者の解剖学的構造に対するプローブ905を示す4つの異なるビューを含む例示的な外科手術ナビゲーション環境ディスプレイ900が示されている。非限定的な例として、外科手術ナビゲーション環境は、異なる向きからの患者の解剖学的構造及び外科用器具類のいくつかの2Dビュー、例えばビュー902~904とともに、ディスプレイ901などの患者の解剖学的構造及び外科用器具類の3Dモデルを表示することができる。特に、プローブ905は、画像分析ツール出力ボリュームの自動的にラベル付けされた部分、すなわち、ラベル付けされた骨ボリューム920及び922、ラベル付けされた筋肉ボリューム930及び932、並びにラベル付けされた神経組織910及び912に対して生成されたビューにおいて見ることができる。プローブ905が撮像された外科手術領域内で操作されると、動き及びそれに伴う位置の変化をコンピュータ支援ナビゲーション環境のディスプレイに反映させることができる。
【0052】
図10は、本発明の画像分析ツールを含む外科手術ナビゲーション環境システムの別の例示的な表示を示す。例えば、外科手術ナビゲーション環境は、最適化された軌道及び/又は識別された神経構造に対する外科手術領域内の外科用器具の動きを生成及び表示することができる。例えば、ディスプレイ1000は、神経組織1010に対するプローブ1020の場所に関するリアルタイムフィードバックを提供することができる。ディスプレイ1000は、最適軌道経路1050を見下ろす外科手術領域の上面図又は鳥瞰図を示すことができる。表示された最適軌道経路1050は、上述したように画像分析ツールシステムから生成することができる。一実施形態では、ディスプレイ1000はまた、最適軌道1050の周囲に安全なアクセスゾーン1040を示すことができる。プローブ1020の軌道1030も表示することができる。一実施形態では、外科手術ナビゲーション環境は、画像分析ツールの予測モデリングと、ツール追跡アレイ又はセンサによって提供されるリアルタイムフィードバックとを使用して、プローブ1020から最も近い神経構造、この場合は神経組織1010までの最短距離を計算することができる。画面上の視覚化は、プローブと最も近い神経組織との間の最短距離を示すことができる。図10の例示的な実施形態では、この距離は、矢印1060と、例えば4mmの距離1070の表示とによって表すことができる。
【0053】
ここで、画像分析ツールについて考察する。ここで、本発明の画像分析ツールの構築及び訓練に目を向けると、図11は、例示的な画像分析の概略図を示す。画像分析ツールは、外科的処置、患者、などに関する画像データ及び情報を受け取り、処理し、通信及び/又は記憶するための1つ又は2つ以上の構成要素を含むことができる。図11に概略的に例解されているように、例示的な画像分析ツール1100は、プロセッサ1110と、メモリ1120と、通信インターフェース1130とを含むことができ、これらは全て互いに通信することができる。更に、これらの構成要素の各々は単数形で言及されているが、これらの構成要素のうちの1つによって実行されるものとして説明される様々な機能は、実際にはこれらの構成要素のうちの複数によって実行することができ、例えば、プロセッサ1110によって実行されるものとして説明される機能は、複数のプロセッサによって実行することができることが当業者には理解されよう。
【0054】
プロセッサ1110は、マイクロコントローラ、マイクロコンピュータ、プログラマブルロジックコントローラ(programmable logic controller、PLC)、フィールドプログラマブルゲートアレイ(field-programmable gate array、FPGA)、特定用途向け集積回路(application specific integrated circuit、ASIC)、当該技術分野でコンピュータとして一般的に言及される集積回路、及び他のプログラマブル回路を含み得、これらの用語は、本明細書では互換的に使用される。プロセッサ1110は、患者の解剖学的構造の撮像領域内の解剖学的構造、例えば神経構造を識別、位置特定、モデル化及び/又は視覚化する情報を生成し、及び/又は通信インターフェース1130を介して外部デバイスから受け取った情報、ユーザによって通信インターフェース1130に直接入力された情報、及び/又はメモリ1120に記憶された情報に基づいて様々な計算を実行するように構成することができる。非限定的な例として、プロセッサは、ラベル付けされていない画像ボリューム内の神経組織を識別及び位置特定し、神経解剖学的構造を識別する外科手術領域の3Dボリュームを生成し、深層学習解剖学的共変動モデルを構築する、等をするように構成され得る。
【0055】
プロセッサ1110は、メモリ1120に結合され得、これは、ランダムアクセスメモリ(random access memory、RAM)、読み出し専用メモリ(read-only memory、ROM)、フラッシュメモリ、非一時的コンピュータ可読記憶媒体、等を含み得る。メモリ1120は、本明細書で開示されるシステムを実装するために、又は本明細書で開示される方法を実行するために、プロセッサ1110による実行のための命令を記憶することができる。追加的又は代替的に、メモリ1120は、プロセッサ1110によって生成若しくは計算された情報、及び/又は外部デバイスから受け取った、若しくは通信インターフェース1130を通して直接入力された情報を記憶することができる。
【0056】
通信インターフェース1130は、プロセッサ1110、メモリ1120、直接入力モジュール1140、及び1つ又は2つ以上の外部デバイス1150、例えば、センサ、外科用器具、撮像デバイス、コンピュータ支援ナビゲーション環境システム、ロボット外科手術システム、コンピュータ又は処理デバイス、等のうちのいずれかから情報を受け取り、それらに情報を送信するように構成され得る。通信インターフェース1130は、無線(例えば、近距離無線通信(near-field communication、NFC)、Wi-Fi、Bluetooth、Bluetooth LE、など)又は有線(例えば、USB若しくはイーサネット)であり得る。一実施形態では、通信インターフェース1130は、医療撮像情報及び関連データを受け取り、通信し、管理するために、医療におけるデジタル画像と通信(Digital Imaging and Communications in Medicine、DICOM)規格を満たすように構成することができる。別の例示的な実施形態では、通信インターフェース1130は、術中フィードバックを受け取るために、センサ、外科用器具、撮像技術、などと通信することができる。非限定的な例として、通信インターフェース1130は、外科用器具、神経組織、患者の位置決めなどのうちの少なくとも1つの位置情報に関するリアルタイムの術中位置データを外部デバイスから受け取ることができる。
【0057】
上記で考察したように、本発明の画像分析ツールを使用して、患者のスキャン画像ボリューム内の神経組織を位置特定かつ識別して、外科用器具のナビゲーションを援助し、脊椎手術中の神経損傷の可能性を低減することができる。画像分析ツールは、解剖学的構造を予測的に位置特定し視覚化するために訓練することができる少なくとも1つの深層学習ベースのモデルに依存する機械学習ツールとして構成することができる。プロセッサ1110は、セグメンテーションアルゴリズム1112を含むことができる。セグメンテーションアルゴリズム1112は、神経解剖学的構造を示さないラベル付けされていない患者スキャンボリュームを受け取るように構成することができ、訓練された解剖学的共変動モデルに基づいて、スキャンボリューム内に存在する神経構造を自動的にセグメント化し、識別することができる。セグメンテーションアルゴリズムは更に、筋骨格構造などの撮像ボリューム内に示されるラベル付けされていない構造を識別するように構成することができる。一実施形態では、セグメンテーションアルゴリズム1112は、入力層と出力層との間に複数の層を有する深層ニューラルネットワークであり得る。セグメンテーションアルゴリズムは、訓練データの画像を分解し、全てのサンプル画像にわたって存在する傾向を識別し、学習された訓練データに依存することによって人間の入力なしに新しい画像を分類するように訓練され得る。
【0058】
セグメンテーションアルゴリズム1112は、典型的にはCT又はCBCT画像では見えない神経組織と、CT又はCBCT画像で見える筋骨格構造との間の解剖学的共変動関連付けに基づくことができる。例えば、脊椎領域に焦点を当てた用途では、脊椎CT又はCBCT画像で見える筋骨格構造は、椎体、骨棘、腰筋筋肉、脊柱起立筋、等を含むことができる。一方で、MRI画像ボリュームは、筋骨格構造及び神経構造の両方を示す。したがって、MRI画像ボリュームは、脊椎領域における神経構造と筋骨格構造との間の解剖学的共変動の概念を例解するのを援助することができる。更に、MRI画像ボリュームは、セグメンテーションアルゴリズム112の共変動モデルを訓練するための訓練データセットとして使用することができる。
【0059】
図12は、3つの位置合わせされた、又は融合された、患者MRIサンプルからの腰椎領域における神経解剖学的構造の被験者間変動の視覚化を示す。反復最近点アフィン変換をL4及びL5椎体に適用して、3人の患者間のサイズ、姿勢、及び異方性形状の差を補正することによって、データセットを位置合わせした。次いで、結果として生じた変換を、椎間腔から出る神経に適用した。結果として生じる融合されたMRI画像ボリュームは、冠状面ビュー1210及び矢状面ビュー1220で図12に示されている。MRI画像は、両方のタイプの解剖学的構造をうまくキャプチャするので、筋骨格構造及び神経構造の両方が、融合されたMRI画像ボリュームにおいてセグメント化されて示されている。例えば、図12の融合されたMRIボリュームは、第1及び第2の椎体1230及び1240を示すように注釈付けされている。出て行く神経根(1250、1260、及び1270)の3つの束が、第1の椎体1230から出て行くのをMRI画像ボリューム1210及び1220内に見ることができる。各出て行く神経根束は、融合されたMRIボリューム内の1人の患者の解剖学的構造を表す。
【0060】
図12に見ることができるように、L4及びL5椎体における解剖学的及び位置的変動を考慮すると、矢状面におけるよりも冠状面における出て行く神経の経路においてより大きな変動が存在する。冠状面におけるこの増加した変動は、出て行く神経が通って移動する腰筋筋肉の解剖学的構造における被験者間変動に起因し得る。したがって、患者の解剖学的構造の完全なデータセットを使用して、解剖学的構造、すなわち、筋肉、骨、及び神経組織の間の共変動をモデル化することによって、深層学習ニューラルネットワークは、解剖学的関連付けを学習し、患者の解剖学的構造の欠けている構成要素のバージョンを予測することができる。本発明の画像分析ツールを訓練するために、任意の脊椎セグメント又は患者の解剖学的構造をこの様態で分析することができる。本明細書に開示されるシステム及び方法は、L4及びL5脊椎領域の分析に限定されない。更に、本明細書に開示されるシステム及び方法は、神経構造を識別することに限定されない。
【0061】
図13は、本発明の画像分析ツールのセグメンテーションアルゴリズム1312の例示的な実施形態の視覚的表現を示す。セグメンテーションアルゴリズム1312は、第1のU-Net1320及び第2のU-Net1350を含むことができる。第1及び第2のU-Net1320、1350はともに、画像分析ツールが、ラベル付けされていないCT又はCBCT画像ボリュームから神経構造を予測的に位置特定し、識別し、視覚化することを可能にすることができる。第1のU-Net1320は、解剖学的共変動モデルトレーナとして構成することができる。以下に説明するように、第1のU-Net1320は、セグメント化されたCT又はCBCT画像ボリュームを入力1322として受け取るように訓練することができる。入力1322は、脊椎領域の筋骨格解剖学的構造を示すようにラベル付けすることができる。例えば、入力1322は、腰筋筋肉1324及び1326などのラベル付けされた筋組織と、第1及び第2の椎体1328及び1330などの骨組織とを含むことができる。次に、第1のU-Net1320は、入力ボリューム1322内では見えないか又はキャプチャされないが、撮像された解剖学的構造に関連付けられた少なくとも1つの神経構造を識別する出力1332を生成することができる。例えば、図13に示されるように、第1のU-Net1320の出力1332は、入力1322の撮像された領域内の第1の神経束又は枝1334及び第2の神経束又は枝1336をラベル付けすることができる。入力1322及び出力1332の両方は、ユーザに情報を通信するための位置基準を含むことができる。例えば、入力1322は、矢状基準面1338、冠状基準面1340、及び軸線方向基準面1342を表示することができる。同様に、矢状基準面1344、冠状基準面1346、及び軸線方向基準面1348を出力画像ボリューム1332上に表示することができる。
【0062】
ここで、本発明の第1のU-Netの訓練について、図14を参照して説明する。図14の方法1400は、本発明のセグメンテーションアルゴリズムの訓練段階及び展開段階の両方を表す。ステップ1410~1440は、共変動モデルトレーナであるように構成された第1のUネットの訓練を表すことができる。ステップ1460~1470は、セグメンテーションアルゴリズムの展開、すなわち、ラベル付けされていない画像ボリュームを分類するために第2のUネット又は予測モデルを使用することを表すことができる。第1のU-Netを訓練することは、セグメント化されたMRIボリューム構成要素間の第1のU-Net関連付けを教示するために、代表的な患者集団からセグメント化された高品質MRIボリュームの訓練データベースを入力することを含むことができる。特に、U-Netは、MRI画像ボリュームの様々なセグメント化された筋骨格構造と神経構造との間の関連付けを学習することができる。第1のU-Netを訓練することはまた、高品質MRIボリュームから生成された追加の訓練データを入力することを含むことができる。
【0063】
第1のステップ1410において、MRI訓練ボリュームの第1のデータセットは、各ボリュームにおける神経構造及び筋骨格構造の両方を識別するために注釈付け又はセグメント化され得る。一実施形態では、各タイプの構造は、サブクラスに更に細分することができる。例えば、MRIボリュームの筋骨格組織は、椎体、椎間板、腰筋筋肉、脊柱起立筋、等として更に識別され得る。同様に、MRIボリュームの神経組織は、出神経根、神経枝、脊髄、馬尾、腰神経叢、等などのサブクラスに分類することができる。好ましくは、医師、外科医、看護師、医療専門家、研究者、又は他の人が、本発明の入力訓練ボリュームに手動で注釈付けすることができる。第1のデータセットは、少なくとも1つの高品質MRIボリュームを含むことができる。一実施形態では、第1のデータセットは、脊椎領域を撮像する複数のMRIボリュームから構成することができる。三次元ラベルマップは、各ボリュームに対して、筋骨格及び神経の各組織タイプに対して作り出され得る。
【0064】
本発明の第1のU-Netを訓練するための訓練ボリュームとして入力される注釈付けされたMRIボリュームの例は、図15及び図16に見ることができる。図15は、入力訓練MRIボリュームの例示的な3Dの注釈付けされた筋骨格マップを例解する。三次元の注釈付けされたMRIボリューム1510は、腰筋筋肉1512、1514並びに第1及び第2の椎体1516、1518を含む完全にセグメント化された筋骨格構造を有する脊椎領域を示す。注釈付けされた筋骨格構造は、MRIボリューム1520の二次元スライスにおいても見ることができる。例えば、軸線方向平面に沿って取られたスライス1520は、腰筋筋肉1512及び1514並びに第2の椎体1518を示す。MRIボリューム1510の注釈付けされた筋骨格構造は、冠状面に沿って取られたスライス1530、矢状面に沿って取られたスライス1540、及び軸線方向平面に沿って取られたスライス1560においても見ることができる。各スライスは、MRIボリューム1510のセグメント化された筋骨格解剖学的構造のビューを示すことができる。
【0065】
同様に、図16は、図15の同じMRIボリュームの例示的な三次元の注釈付けされた神経マップを例解する。この例示的な実施形態では、4つの神経構造(1612、1614、1616、及び1618)が、MRIボリューム1610において識別され、セグメント化されている。二次元スライスは、MRIボリューム1610の異なる向きに沿って取ることができる。例えば、スライス1620は、軸線方向平面に沿って取ることができ、スライス1630は、冠状面に沿って取ることができ、スライス1640は、矢状面に沿って取ることができ、MRIボリューム1610において識別されたセグメント化された神経構造の異なるビューを示す。
【0066】
第1の訓練データセットはまた、第1の訓練データセットにおける入力として使用されるMRIボリュームデータを拡張することによって作成される追加の訓練サンプルデータを含むことができる。例えば、物理学に基づく生物医学的変形変換を、例えば、患者位置の変化、脊椎の湾曲及び/又はアライメントの変化、等などの異なる状態を表すMRIボリュームデータに適用して、追加の訓練データを生成することができる。次いで、追加の訓練データセットが、MRIボリュームに関して上述したように注釈付けされ、第1のU-Netを訓練するために使用され得る。
【0067】
図14に戻ると、ステップ1420において、第1のニューラルネットワーク、すなわち第1のU-Netは、撮像された領域、すなわち脊椎領域の筋骨格構造と神経構造との間の解剖学的共変動のパターンを学習するために、注釈付けされた第1の訓練データセットを用いて訓練され得る。解剖学的共変動の学習されたパターンは、深層学習解剖学的共変動モデルを作成することができる。深層学習解剖学的共変動モデルは、U-Netアーキテクチャに基づく深層学習ニューラルネットワークを使用して生成された予測モデルであり得る。U-Netアーキテクチャの基本構造は、当技術分野で既知である。本発明の画像分析ツールは、独創的な様態でU-Netの概念を活用して、一緒に動作する複数のU-Netを使用することができるツールを開発し、その結果、本発明の画像分析ツールは、CT又はCBCTスキャンなどのセグメント化されていない画像ボリュームを受け取り、入力画像ボリュームには示されていないが画像ボリュームエリアに対応するラベル付けされた神経構造を有する同じ領域の画像ボリュームを出力することができる。
【0068】
ステップ1420において、第1のニューラルネットワークは、上述したように、ラベル付けされたMRIボリューム及び/又は任意の追加的に作成されたデータサンプルからなる注釈付けされた第1の訓練データセットを受け取ることによって、筋骨格構造と脊椎領域の対応する神経構造との間のパターンに対して訓練される。注釈付けされた画像ボリュームが第1のU-Netに入力されると、U-Netは、MRI画像ボリュームのラベル付けされた筋骨格ピクセルを、同じMRI画像ボリュームの対応するラベル付けされた神経構造に相関させることができる。このようにして、第1のニューラルネットワークは、解剖学的共変動モデルを作成及び更新して、第1のニューラルネットワークが追加の注釈付けされたデータを受け取るときに新しいパターン及び変動を学習することができる。訓練データセットに注釈付けし、第1のニューラルネットワークを訓練するプロセスは、進行中のプロセスであり得ることが当業者によって理解されよう。例えば、第1のニューラルネットワークの初期訓練の後に、追加のMRIボリュームは、注釈付けされ、第1のニューラルネットワークに入力することができる。
【0069】
ステップ1430において、データの第2の訓練セットが準備される。第2の訓練セットは、CT又はCBCT画像ボリュームを含むことができる。当技術分野で知られているように、CT又はCBCT画像ボリュームは、筋骨格構造を示すことができるが、患者の解剖学的構造内の神経構造を撮像することはできない。第2の訓練セットの画像ボリュームは、第1の訓練データセットのMRI画像ボリュームと同じセグメント化された筋骨格組織を含むことができる。換言すれば、第2のデータセットの画像ボリュームは、第1のデータセットと同じ患者の解剖学的構造の撮像領域に対応することができる。第2の訓練セットの画像ボリュームは、撮像されたボリューム内に存在する筋骨格構造を識別又はセグメント化するために注釈付けすることができる。
【0070】
ステップ1440において、第1のニューラルネットワークは、解剖学的共変動モデルを予測モデルとして使用して、ラベル付けされていないピクセルを分類して、第2の訓練データセットのラベル付けされた筋骨格構造に対応する神経構造の神経構造ラベルを生成することができる。ラベル付けされた筋骨格構造を有するCT又はCBCT画像ボリュームは、第1のニューラルネットワークに入力される。次いで、第1のニューラルネットワークは、画像データを分解又はフィルタリングし、セグメント化された筋骨格ピクセルを訓練された解剖学的共変動モデルと比較して、セグメント化された筋骨格ピクセルに対応する神経構造ピクセルを識別し、ラベル付けすることができる。次いで、第1のニューラルネットワークは、CT又はCBCT入力ボリュームの以前に分類された筋骨格ピクセル上にオーバーレイされた、現在分類されている対応する神経構造を有する画像ボリュームを出力することができる。これは、図13に見ることができ、ここでは、入力画像ボリューム1322はセグメント化された筋骨格組織を有する。第1のU-Net1320は、入力1322を受け取り、ラベル付けされた対応する神経構造を有する出力1332を作り出すことができる。
【0071】
ここで、本発明の画像分析ツールの展開に移行すると、ステップ1450において、第2の予測モデルを使用して、生の画像ボリュームと対応する神経構造との間の関連付けを生成及び学習することができる。第2の予測モデルは、好ましくは第2のニューラルネットワークであり得、好ましくは第2のU-Netである。第2の予測モデルは、自動グレーレベルラベラとして構成され得る。当業者は、第2の予測モデルが、グレーレベルCBCTデータからCBCTボリュームを生成し、ラベル付けすることに限定されないことを認識するであろう。むしろ、本発明の第2の予測モデルは、本発明の第1のニューラルネットワーク、又は第1のU-Netが同じタイプの画像フォーマット上で訓練される限り、任意の既知のラベル付けされていない画像フォーマットを入力として取り、本明細書に開示されるシステム及び方法を使用して、撮像されたボリューム内に存在する解剖学的構造を生成及びラベル付けすることができる。
【0072】
図13を参照すると、第2の予測モデル又は第2のU-Net1350が、概略的に例解されている。第2の予測モデル又はU-Netは、ラベル付けされていない画像ボリューム1352を入力として受け取ることができる。ラベル付けされていない画像ボリュームは、グレーレベルCBCTスキャン、ラベル付けされていないCTスキャン、等であり得る。第2の予測モデル1350は、第1の予測モデル又はU-Net1320の予測及び入力から生成されたグラウンドトゥルースピクセルラベル分類を使用することができる。換言すれば、第2の予測モデルは、ラベル付けされていない画像ボリュームを受け取り、訓練された第1の予測モデルを使用して、ラベル付けされていない画像ボリュームを分析して、撮像された解剖学的領域内に存在する神経構造に関連付けられたピクセルを分類することができる。追加的又は代替的に、第2の予測モデル又は第2のU-Netはまた、ラベル付けされていない入力ボリュームの筋骨格構造を識別し、ラベル付けすることができる。
【0073】
最後に、ステップ1460において、第2の予測モデルの出力は、分析及び使用のために表面モデルに変換され得る。第2の予測モデルの変換された出力は、自動的にセグメント化されたボリューム出力1362として図13に見ることができる。第2の予測モデルは、神経構造及び筋骨格構造の両方をセグメント化することができる。例えば、図13に示されるように、第2のU-Net1350は、第1及び第2の腰筋筋肉1364、1368、第1及び第2の椎体1370、1372、並びに第1及び第2の神経構造1374、1376を自動的に識別及びモデル化することができる。一実施形態では、例えばマーチングキューブなどのセグメンテーションから表面モデルへの変換アルゴリズムを使用して、第2の予測モデル出力を表面モデルに変換することができる。上記で考察したように、表面モデルは、多くの異なる方法で使用することができる。例えば、本発明の画像分析ツールの表面モデル出力、より具体的には、第2の予測モデルの表面モデル出力は、コンピュータ支援ナビゲーション環境又はロボット外科手術システムと併せて使用することができる。代替的に、識別された神経構造を有する表面モデルは、術前計画において外科医によって使用され得る。
【0074】
いくつかの実施形態では、表示されたラベル付けされた画像ボリュームは、少なくとも1つの神経構造の場所に関する術中フィードバックに従って更新される。
【0075】
いくつかの実施形態では、外科用器具を使用して、少なくとも1つの神経構造の場所に関する術中フィードバックを提供し得る。
【0076】
いくつかの実施形態では、外科用器具は、補助神経位置特定システム、コンピュータ支援ナビゲーションシステム、監視プローブ、又はカメラのうちの1つである。
【0077】
いくつかの実施形態では、術中CT又はCBCT患者スキャンを実行して、少なくとも1つの神経構造の場所に関する術中フィードバックを提供し得る。
【0078】
いくつかの実施形態では、患者別の外科手術計画は、ロボット外科手術システムに入力され得る。
【0079】
いくつかの実施形態では、安全なアクセスゾーンは、識別された少なくとも1つの神経構造の周囲で識別され得る。
【0080】
いくつかの実施形態では、画像分析ツールは、予測モデル及び患者表現型情報に基づいて、少なくとも1つの神経構造を識別する。
【0081】
いくつかの実施形態では、画像分析ツールを訓練して、外科的処置で使用するためのセグメント化されていない画像から少なくとも1つの神経構造を識別する方法は、第1の訓練データセットに注釈付けして、筋骨格構造及び神経構造を識別することと、第1の訓練データセットを第1のニューラルネットワークに入力して、解剖学的共変動モデルを訓練することと、第2の訓練データセットに注釈付けして、筋骨格構造を識別することと、第1のニューラルネットワークが、第2の訓練データセットの識別された筋骨格構造に対応する少なくとも1つの神経構造を出力するように、第2の訓練データセットを第1のニューラルネットワークに入力することと、を含む。
【0082】
いくつかの実施形態では、第1の訓練データセットは、少なくとも1つの高品質MRIボリュームを含み、第2の訓練データセットは、少なくとも1つのCT又はCBCTボリュームを含む。
【0083】
いくつかの実施形態では、少なくとも1つのCT又はCBCTボリュームは、少なくとも1つの高品質MRIボリュームと同じ筋骨格構造を含む。
【0084】
いくつかの実施形態では、第1の訓練データセットに対する変換を実行して、追加の訓練データセットを生成し得、追加の訓練データセットは、筋骨格構造及び神経構造を識別するために注釈付けされ得、追加の訓練データセットは、解剖学的共変動モデルを訓練するために第1のニューラルネットワークに入力され得る。
【0085】
いくつかの実施形態では、低侵襲外科的処置を実行する方法は、外科手術領域のセグメント化されていない患者スキャンを取得することと、画像分析ツールを使用してセグメント化されていないスキャンから外科手術領域内の神経構造を識別することと、識別された神経構造を使用して患者別の外科的アクセス計画を作成することと、患者別のアクセス計画に従って外科的アクセス処置を実行することと、を含む。
【0086】
いくつかの実施形態では、術中フィードバックが、識別された神経構造の位置決めに関して少なくとも1つの外科用器具から受け取られ得、患者別の外科的アクセス計画が、更新され得る。
【0087】
いくつかの実施形態では、識別された神経構造、外科用器具、及び患者位置のうちの少なくとも1つのリアルタイム位置決めが表示され得る。
【0088】
ここで図18図22を概して参照すると、人工ニューラルネットワーク(artificial neural network、ANN)及びニューラルネットワークという用語は、本明細書では互換的に使用され得る。ANNは、入力画像又は他の感知された情報に基づいて分類(例えば、オブジェクトのタイプ)を判定するように構成され得る。ANNは、人工ニューロン又はノードのネットワーク又は回路であり、予測モデリングのために使用され得る。
【0089】
予測モデルは、1つ又は2つ以上のニューラルネットワーク(例えば、深層ニューラルネットワーク、人工ニューラルネットワーク、又は他のニューラルネットワーク)、他の機械学習モデル、又は他の予測モデルであり得、及び/又はそれらを含み得る。
【0090】
人工ニューラルネットワークの開示された実装形態は、重みを適用し、関数を適用することによって入力データを変換し得、この変換はニューラル層である。関数は線形であってもよく、より好ましくは、ロジスティックシグモイド関数、Tanh関数、又はReLU関数などの非線形活性化関数であってもよい。1つの層の中間出力は、次の層への入力として使用され得る。ニューラルネットワークは、反復変換を通して、予測を行う最終層に組み合わせられ得る複数の層を学習する。この学習(すなわち、訓練)は、予測と期待値との間の差を最小化するように重み又はパラメータを変化させることによって実行され得る。いくつかの実施形態では、情報は、1つの層から次の層にフィードフォワードされ得る。これら又は他の実施形態では、ニューラルネットワークは、例えばニューラルネットワークを形成するメモリ又はフィードバックループを有し得る。いくつかの実施形態は、例えば、バックプロパゲーションを介して、パラメータを調整させ得る。
【0091】
ANNは、そのモデルの特徴によって特徴付けられ、特徴は、活性化関数、損失又はコスト関数、学習アルゴリズム、最適化アルゴリズム、などを含む。ANNの構造は、隠れ層の数、各隠れ層に含まれる隠れノードの数、入力特徴ベクトル、ターゲット特徴ベクトル、などを含む、いくつかのファクタによって判定され得る。ハイパーパラメータは、モデルパラメータの初期値と同様に、学習のために最初に設定される必要がある様々なパラメータを含み得る。モデルパラメータは、学習を通して判定しようとする様々なパラメータを含み得る。そして、ハイパーパラメータは学習前に設定され、モデルパラメータは学習を通じて設定されて、ANNのアーキテクチャを指定することができる。
【0092】
ANNの学習率及び精度は、ANNの構造及び学習最適化アルゴリズムだけでなく、そのハイパーパラメータにも依存する。したがって、良好な学習モデルを得るためには、ANNのための適切な構造及び学習アルゴリズムを選択することが重要であるが、適切なハイパーパラメータを選択することも重要である。
【0093】
ハイパーパラメータは、ノード間の重み及びバイアスの初期値、ミニバッチサイズ、反復回数、学習率、などを含み得る。更に、モデルパラメータは、ノード間の重み、ノード間のバイアス、などを含み得る。
【0094】
一般的に、ANNは、ハイパーパラメータを様々な値に実験的に設定することによって最初に訓練され、訓練の結果に基づいて、ハイパーパラメータは、安定した学習率及び精度を提供する最適値に設定され得る。
【0095】
図18に描かれたシステム5におけるモデル64のいくつかの実施形態は、CNNを含み得る。CNNは、入力層及び出力層、並びに複数の隠れ層を含み得る。CNNの隠れ層は、典型的には、乗算又は他のドット積で畳み込む一連の畳み込み層を含む。活性化関数は一般にReLU層であり、その後、プーリング層、完全接続層、及び正規化層などの追加の畳み込みが続き、これらの層の入力及び出力が活性化関数及び最終畳み込みによってマスクされるので隠れ層と呼ばれる。
【0096】
CNNは、前の層の受容野から来る入力値に特定の関数を適用することによって出力値を計算する。入力値に適用される関数は、重みのベクトル及びバイアス(典型的には実数)によって決定される。ニューラルネットワークにおける学習は、これらのバイアス及び重みに反復調整を行うことによって進行する。重みのベクトル及びバイアスはフィルタと呼ばれ、入力の特定の特徴(例えば、特定の形状)を表す。
【0097】
いくつかの実施形態では、モデル64の学習は、強化タイプ、教師ありタイプ、半教師ありタイプ、及び/又は教師なしタイプであってもよい。例えば、これらのタイプのうちの1つを用いて学習される特定の予測のためのモデルが存在し得るが、他の予測のための別のモデルは、これらのタイプのうちの別のものを用いて学習され得る。
【0098】
教師あり学習は、例示的な入力-出力ペアに基づいて入力を出力にマッピングする関数を学習する機械学習タスクである。それは、訓練例のセットを含むラベル付けされた訓練データから関数を推論し得る。教師あり学習では、各例は、入力オブジェクト(典型的にはベクトル)と所望の出力値(教師信号)とからなるペアである。教師あり学習アルゴリズムは、訓練データを分析し、新しい例をマッピングするために使用することができる推論関数を作り出す。また、アルゴリズムは、見えないインスタンスのクラスラベルを正しく判定し得る。
【0099】
教師なし学習は、既存のラベルを有さないデータセットにおいて以前に未検出のパターンを探す機械学習のタイプである。通常、人間ラベル付けされたデータを利用する教師あり学習とは対照的に、教師なし学習は、主構成要素(例えば、元のデータセットに元の構造及び関係を保存しながら、高次元データセットの次元数を前処理及び低減するための)及びクラスタ分析(例えば、データにおける共通性を識別し、各新しいデータ片におけるそのような共通性の有無に基づいて反応する)を介さない。
【0100】
半教師あり学習は、教師あり及び教師なし技法を利用する。
【0101】
モデル64は、検証セットと呼ばれるデータの基準セットに対して行われた予測を分析し得る。いくつかの使用事例では、検証セットに対して行われた予測の査定から生じる参照出力は、予測モデルへの入力として提供されてもよく、予測モデルは、その予測が正確であるかどうかを判定するために、検証セットデータに関して精度又は完全性のレベルを判定するために、又は他の判定を行うために、利用され得る。そのような判定は、それらの予測の精度又は完全性を改善するために予測モデルによって利用され得る。別の使用事例では、予測モデルの予測に関する精度又は完全性の指標は、予測モデルに提供され得、次いで、予測モデルは、精度又は完全性の指標を利用して、入力データに関する予測の精度又は完全性を改善し得る。例えば、ラベル付けされた訓練データセットは、モデル改善を可能にし得る。すなわち、訓練モデルは、データの検証セットを使用して、モデルにおいて使用するためのパラメータ/重みの最終セットに到達する時点まで、モデルパラメータにわたって反復し得る。
【0102】
いくつかの実施形態では、図18に描かれた訓練構成要素32は、1つ又は2つ以上の深層ニューラルネットワークを構築及び訓練するためのアルゴリズムを実装し得る。使用されるモデルは、このアルゴリズムに従い、既にデータ上で訓練されていてもよい。いくつかの実施形態では、訓練構成要素32は、これら又は他のアルゴリズムを用いた成功したテストが実行された後、及びモデルが十分に大きいデータセットを提供された後、図18に描かれた訓練データ62上で深層学習モデルを訓練し得、更に高い精度を提供する。
【0103】
ニューラルネットワークを実装するモデルは、記憶装置/データベース62の訓練データを使用して訓練され得る。訓練データは、多くの解剖学的属性を含み得る。例えば、図18の予測データベース60から得られたこの訓練データは、患者の集団又は他のグループの十分な表現を提供するために、死体又は生体の部分を記述する何百、何千、又は何百万もの情報片(例えば、画像、スキャン、又は他の感知されたデータ)を含み得る。データセットは、任意の好適な様式で、訓練、検証、及びテストセットの間で分割されてもよい。例えば、いくつかの実施形態は、画像又はスキャンの約60%又は80%を訓練又は検証のために使用してもよく、他の約40%又は20%は、検証又はテストのために使用されてもよい。別の例では、訓練構成要素32は、ラベル付けされた画像をランダムに分割し得、訓練データ対テストデータの正確な比は全体にわたって変化する。満足のいくモデルが見つかったとき、訓練構成要素32は、訓練データの95%でそれを訓練し、残りの5%でそれを更に検証することができる。
【0104】
検証セットは、モデルの精度をテストするためにモデルから隠されたままにされている訓練データのサブセットであり得る。テストセットは、モデルの精度をテストするためにモデルにとって新しいデータセットであり得る。予測モデル64を訓練するために使用される訓練データセットは、訓練構成要素32を介して、データ記憶及び抽出の目的のために、SQLサーバ及びPivotal Greenplumデータベースを活用し得る。
【0105】
いくつかの実施形態では、訓練構成要素32は、例えば、予測データベース60、電子記憶装置22、外部リソース24(例えば、センサ、スキャナ、又は別のデバイスを含み得る)、ネットワーク70、及び/又はUIデバイス18を介して、任意の適切なソースから訓練データを得るように構成され得る。訓練データは、キャプチャされた画像、匂い、光/色、形状サイズ、雑音若しくは他の音、及び/又は感知された情報の他の離散インスタンスを含み得る。
【0106】
いくつかの実施形態では、訓練構成要素32は、1つ又は2つ以上の予測モデルが訓練されることを可能にし得る。ニューラルネットワークの訓練は、いくつかの反復を介して実行されてもよい。各訓練反復について、ニューラルネットワークの分類予測(例えば、層の出力)が判定され、対応する既知の分類と比較され得る。例えば、動的及び/又は静的物体を含む閉鎖環境をキャプチャすることが知られている感知されたデータは、予測モデルが、ユーザが当該物体に到達又は回避するための経路を適切に予測し得るかどうかを判定するために、訓練又は検証中に、ニューラルネットワークに入力され得る。したがって、ニューラルネットワークは、訓練データの少なくとも一部を入力特徴空間として受け取るように構成されている。一度訓練されると、モデルは、図18に示されるように、予測データベース60のデータベース/記憶装置64に記憶され、次いで、可視属性に基づいて画像又はスキャンのサンプルを分類するために使用され得る。
【0107】
図18の電子記憶装置22は、情報を電子的に記憶する電子記憶媒体を含む。電子記憶装置22の電子記憶媒体は、システム5と一体的に(すなわち、実質的に非リムーバブルに)提供されるシステム記憶装置、及び/又は、例えば、ポート(例えば、USBポート、ファイヤワイヤポート、等)若しくはドライブ(例えば、ディスクドライブ、等)を介してシステム5にリムーバブルに接続可能なリムーバブル記憶装置を備えてもよい。電子記憶装置22は、(全体的に又は部分的に)システム5内の別個の構成要素であってもよく、又は電子記憶装置22は、(全体的に又は部分的に)システム5の1つ又は2つ以上の他の構成要素(例えば、ユーザインターフェース(user interface、UI)デバイス18、プロセッサ21、等)と一体的に提供されてもよい。いくつかの実施形態では、電子記憶装置22は、プロセッサ21とともにサーバ内に、外部リソース24の一部であるサーバ内に、UIデバイス18内に、及び/又は他の場所に位置してもよい。電子記憶装置22は、メモリコントローラと、光学的に読み取り可能な記憶媒体(例えば、光ディスク、等)、磁気的に読み取り可能な記憶媒体(例えば、磁気テープ、磁気ハードドライブ、フロッピードライブ、等)、電荷ベースの記憶媒体(例えば、EPROM、RAM、等)、ソリッドステート記憶媒体(例えば、フラッシュドライブ、等)、及び/又は他の電子的に読み取り可能な記憶媒体のうちの1つ又は2つ以上とを備え得る。電子記憶装置22は、ソフトウェアアルゴリズム、プロセッサ21によって得られた、及び/又は判定された情報、UIデバイス18及び/又は他の外部コンピューティングシステムを介して受け取った情報、外部リソース24から受け取った情報、及び/又はシステム5が本明細書で説明されるように機能することを可能にする他の情報を記憶し得る。
【0108】
外部リソース24は、情報のソース(例えば、データベース、ウェブサイト、等)、システム5に参加する外部エンティティ、システム5の外部の1つ又は2つ以上のサーバ、ネットワーク、電子記憶装置、Wi-Fi技術に関連する機器、Bluetooth(登録商標)技術に関連する機器、データ入力デバイス、電源(例えば、バッテリ給電又は110ボルトACに直接、又はAC/DC変換を介して間接的になど、ライン電力接続された)、送信/受信要素(例えば、無線信号を送信及び/又は受信するように構成されたアンテナ)、ネットワークインターフェースコントローラ(network interface controller、NIC)、ディスプレイコントローラ、グラフィックス処理ユニット(graphics processing unit、GPU)、及び/又は他のリソースを含み得る。いくつかの実装形態では、本明細書で外部リソース24に帰する機能の一部又は全部は、システム5に含まれる他の構成要素又はリソースによって提供され得る。プロセッサ21、外部リソース24、UIデバイス18、電子記憶装置22、ネットワーク、及び/又はシステム5の他の構成要素は、ネットワーク(例えば、ローカルエリアネットワーク(local area network、LAN)、インターネット、広域ネットワーク(wide area network、WAN)、無線アクセスネットワーク(radio access network、RAN)、公衆交換電話網(public switched telephone network、PSTN)、等)、セルラー技術(例えば、GSM、UMTS、LTE、5G、等)、Wi-Fi技術、別の無線通信リンク(例えば、無線周波数(radio frequency、RF)、マイクロ波、赤外線(infrared、IR)、紫外線(ultraviolet、UV)、可視光、cm波、mm波、等)、基地局、及び/又は他のリソースなどの有線及び/又は無線接続を介して互いに通信するように構成され得る。
【0109】
システム5のUIデバイス18は、1人又は2人以上のユーザとシステム5との間のインターフェースを提供するように構成され得る。UIデバイス18は、1人又は2人以上のユーザに情報を提供し、及び/又は1人又は2人以上のユーザから情報を受け取るように構成されている。UIデバイス18は、UI及び/又は他の構成要素を含む。UIは、システム5の特定の機能に関する入力及び/又は選択を受け取るように構成されたビュー及び/又はフィールドを提示するように構成されたグラフィカルUIであってもよく、及び/又はそれを含んでもよく、並びに/又は他の情報を提供及び/又は受け取ってもよい。いくつかの実施形態では、UIデバイス18のUIは、プロセッサ21及び/又はシステム5の他の構成要素に関連付けられた複数の別個のインターフェースを含み得る。UIデバイス18に含まれるのに適したインターフェースデバイスの例は、タッチスクリーン、キーパッド、タッチセンサ式及び/又は物理的ボタン、スイッチ、キーボード、ノブ、レバー、ディスプレイ、スピーカ、マイクロフォン、インジケータライト、可聴アラーム、プリンタ、及び/又は他のインターフェースデバイスを含む。本開示はまた、UIデバイス18が、リムーバブル記憶装置インターフェースを含むことを企図する。この例では、情報は、ユーザがUIデバイス18の実装形態をカスタマイズすることを可能にするリムーバブル記憶装置(例えば、スマートカード、フラッシュドライブ、リムーバブルディスク)からUIデバイス18にロードされ得る。
【0110】
いくつかの実施形態では、UIデバイス18は、UI、処理能力、データベース、及び/又は電子記憶装置をシステム5に提供するように構成されている。したがって、UIデバイス18は、プロセッサ21、電子記憶装置22、外部リソース24、及び/又はシステム5の他の構成要素を含み得る。いくつかの実施形態では、UIデバイス18は、ネットワーク(例えば、インターネット)に接続される。いくつかの実施形態では、UIデバイス18は、プロセッサ21、電子記憶装置22、外部リソース24、及び/又はシステム5の他の構成要素を含まないが、代わりに、専用ライン、バス、スイッチ、ネットワーク、又は他の通信手段を介してこれらの構成要素と通信する。通信は、無線であっても有線であってもよい。いくつかの実施形態では、UIデバイス18は、ラップトップ、デスクトップコンピュータ、スマートフォン、タブレットコンピュータ、及び/又は他のUIデバイスである。
【0111】
データ及びコンテンツは、いくつかの通信プロトコルのうちのいずれか1つを使用して、通信インターフェース及び通信経路を通して、システム5の種々の構成要素間で交換され得る。一例では、データは、例えば、TCP/IPとも呼ばれるインターネットプロトコルスイートを使用して、パケット交換インターネットワークを介してデータを通信するために使用されるプロトコルを使用して交換され得る。データ及びコンテンツは、データグラム(又はパケット)を使用して、それらのアドレスのみに基づいて、ソースホストから宛先ホストに配信され得る。この目的のために、インターネットプロトコル(Internet Protocol、IP)は、データグラムカプセル化のためのアドレス指定方法及び構造を定義する。当然ながら、他のプロトコルが使用されてもよい。インターネットプロトコルの例には、インターネットプロトコルバージョン4(Internet Protocol version 4、IPv4)及びインターネットプロトコルバージョン6(Internet Protocol version 6、IPv6)が含まれる。
【0112】
いくつかの実施形態では、プロセッサ21は、ユーザデバイス、家庭用電子機器、携帯電話、スマートフォン、パーソナルデータアシスタント、デジタルタブレット/パッドコンピュータ、ウェアラブルデバイス(例えば、時計)、ARゴーグル、VRゴーグル、反射型ディスプレイ、パーソナルコンピュータ、ラップトップコンピュータ、ノートブックコンピュータ、ワークステーション、サーバ、高性能コンピュータ(high performance computer、HPC)、車両(例えば、ダッシュボード内又は車若しくは飛行機の着座者の前などの埋め込みコンピュータ)、ゲーム若しくはエンターテインメントシステム、セットトップボックス、モニタ、テレビ(television、TV)、パネル、宇宙船、又は任意の他のデバイスの一部(例えば、同じ又は別個のハウジング内の)を形成してもよい。いくつかの実施形態では、プロセッサ21は、システム5において情報処理能力を提供するように構成される。プロセッサ21は、デジタルプロセッサ、アナログプロセッサ、情報を処理するように設計されたデジタル回路、情報を処理するように設計されたアナログ回路、状態機械、及び/又は情報を電子的に処理するための他の機構のうちの1つ又は2つ以上を備え得る。プロセッサ21は、単一のエンティティとして図18に示されているが、これは例解の目的だけのものである。いくつかの実施形態では、プロセッサ21は、複数の処理ユニットを備えてもよい。これらの処理ユニットは、同じデバイス(例えば、サーバ)内に物理的に位置してもよく、又はプロセッサ21は、協調して動作する複数のデバイス(例えば、1つ又は2つ以上のサーバ、UIデバイス18、外部リソース24の一部であるデバイス、電子記憶装置22、及び/又は他のデバイス)の処理機能を表してもよい。
【0113】
図18に示すように、プロセッサ21は、機械可読命令を介して、1つ又は2つ以上のコンピュータプログラム構成要素を実行するように構成されている。コンピュータプログラム構成要素は、情報構成要素31、訓練構成要素32、予測構成要素34、注釈構成要素36、軌道構成要素38、及び/又は他の構成要素のうちの1つ又は2つ以上を含み得る。プロセッサ21は、ソフトウェア、ハードウェア、ファームウェア、ソフトウェア、ハードウェア、及び/若しくはファームウェアの何らかの組み合わせ、並びに/又はプロセッサ21上の処理能力を構成するための他の機構、によって構成要素31、32、34、36、及び/又は38を実行するように構成され得る。
【0114】
構成要素31、32、34、36、及び38は、単一の処理ユニット内に同じ場所に位置するものとして図18に例解されているが、プロセッサ21が複数の処理ユニットを備える実施形態では、構成要素31、32、34、36、及び/又は38のうちの1つ又は2つ以上は、他の構成要素から離れて位置してもよいことを理解されたい。例えば、いくつかの実施形態では、プロセッサ構成要素31、32、34、36、及び38の各々は、別個の、かつ異なるプロセッサのセットを備え得る。以下に説明する異なる構成要素31、32、34、36、及び/又は38によって提供される機能の説明は、例解を目的としたものであり、限定することを意図したものではなく、構成要素31、32、34、36、及び/又は38のいずれも、説明されているよりも多い又は少ない機能を提供し得る。例えば、構成要素31、32、34、36、及び/又は38のうちの1つ又は2つ以上が除去されてもよく、その機能のうちの一部又は全部が他の構成要素31、32、34、36、及び/又は38によって提供されてもよい。別の例として、プロセッサ21は、以下で構成要素31、32、34、36、及び/又は38のうちの1つに帰する機能の一部又は全部を実行し得る1つ又は2つ以上の追加の構成要素を実行するように構成されてもよい。
【0115】
開示されたアプローチは、神経及び骨構造などの臨床的に関連する情報を用いてリアルタイムでカメラ画像を拡張するための高度な撮像ソリューション及びシステムに関する。システム5の出力は、リアルタイム関連構造においてオーバーレイされたカメラ画像であってもよい。ユーザは、どのレベルの情報/精緻化が必要とされ得るかを選択し得る。オーバーレイは、解剖学的構造のROIの信頼区間に基づいて実行され得る。信頼区間は、アクセスの前に利用可能な情報に基づいて判定され得、次いで、新しい情報が術中に利用可能になるにつれて、例えば、カメラがポート内で前進させられるにつれて、推定されたROIを狭めるように更新され得る。図20Aは、システムモニタ上に表示される例示的な出力である。
【0116】
いくつかの実施形態では、信頼区間は、上述の信頼区間50と同様又は同じであってもよい。そして、各々は、解剖学的構造が実際にあると予測されるものであることをシステム5がどの程度確信しているかを符号化し得る。例えば、注釈構成要素36は、移行ゾーン又はマージンをオーバーレイしてもよく、又は緑色が最高信頼度を示す色分けされたブルズアイに注釈付けしてもよい。また、カメラ画像内のKambinの三角形53の存在に注釈付けするとき、三角形の境界が外側に延在するにつれて、それはより赤くなってもよい。赤色部分は、依然としてKambinの三角形53の近くにあるが、そのケースであることの信頼度がより低い可能性があることを表してもよい。神経根又は他の構造を示すとき、同じ又は同様のアプローチが実行され得る。例えば、注釈構成要素36は、神経の中心が100%の信頼度でどこにあるかを示し得、しかし、境界は、外側に延在するときに、外観が変化してもよく、増加した疑わしさを示す。
【0117】
図19Aは、脊柱の側面図であり、脊柱は、一連の椎体又は代替的な椎骨と、身体の上側部分に軸線方向の支持及び動きを提供する線維性椎間板とを備える。脊柱は、典型的には、7個の頸椎(C1~C7)、12個の胸椎(T1~T12)、5個の腰椎(L1~L5)、5個の癒合仙椎(S1~S5)、及び4個の癒合尾椎を伴う、33個の椎骨11を含む。
【0118】
図20Bは、Kambinの三角形53の概略図である。Kambinの三角形53は、任意の多角形又は形状(例えば、三角形、又は一般化若しくは近似による三角形のみ)であり得る。Kambinの三角形53は、脊椎手術のための後外側アクセスの部位であり得る。これは、背側から見た椎間板上の直角三角形として定義することができる。斜辺は出て行く神経根19であり得、底辺は下椎骨の上縁又は終板であり得、高さは横断する神経根23又はSAP52であり得る。椎間板は、外科用器具又はインプラントが脊柱のこの領域に導入され得るように、下椎骨の一部分が取り外される椎間孔形成術を実行することによって、この領域を通してアクセスされ得る。例えば、システム5は、Kambinの三角形53にアクセスし、それを通して拡張可能インプラントを埋め込むために使用されてもよい。このような処置では、出て行く神経根19及び横断する神経根23を保護することがしばしば望まれる。
【0119】
椎間板は、例えば、神経を保護しながら内視鏡椎間孔形成術を実行することによって、Kambinの三角形53を通してアクセスされ得る。Kambinの三角形53を通して椎間板にアクセスするために椎間孔形成術を利用することは、当該技術分野において典型的に行われるような後方又は前方から椎間板にアクセスすることと比較して、いくつかの利点(例えば、患者への外傷がより少ない又は低減される)を有することができる。特に、後方アクセスを伴う外科的処置は、椎間関節の取り外しを必要とすることが多い。例えば、TLIFは、典型的には、椎間板への拡大されたアクセス経路を作成するために、1つの椎間関節の取り外しを伴う。椎間関節の取り外しは、患者にとって非常に痛みを伴う可能性があり、回復時間の増加に関連付けられている。対照的に、Kambinの三角形53を通して椎間板にアクセスすることは、有利には、椎間関節を取り外す必要性を回避し得る。
【0120】
内視鏡椎間孔形成術は、椎間関節の取り外しを伴わずに、椎間板への拡大されたアクセスを提供し得る。椎間関節を温存することは、外科的処置に関連付けられた患者の疼痛及び失血を低減し得る。加えて、椎間関節を温存することは、有利には、支持のために椎間関節を利用する、ある後方固定デバイス(例えば、経椎間関節ねじ、経椎弓根ねじ、及び/又は椎弓根ねじ)の使用を可能にすることができる。このようにして、このような後方固定デバイスは、Kambinの三角形53を通して挿入される椎体間デバイスと組み合わせて使用することができる。
【0121】
例示的な腰椎では、包膜嚢は円形であり得る。一部の患者では、包膜嚢は、例えば、上関節突起があり得る、Kambinの三角形53の垂直辺を形成し得る。また、上終板椎骨は、当該三角形の水平辺又は底辺を形成してもよい。包膜嚢は、脊髄及び馬尾根並びにいくつかの遊離くも膜下血管が自由に浮遊する脳脊髄液で満たされ得る。
【0122】
椎骨終板は、椎体と椎間板とが互いに接合する移行領域であり得る。直角を形成するKambinの三角形53の部分は、椎間孔形成術の境界(例えば、SAP52が存在し得る場所)であり得る。
【0123】
いくつかの実施形態では、注釈構成要素36は、キャプチャされた画像の各ピクセルを、それが神経、Kambinの三角形、又は他の構造を表すかどうかに関して示し得る。例えば、予測構成要素34は、ピクセルがKambinの三角形53を表す確率が90%であり、ピクセルが神経根19を表す確率が60%であることを示すことができる。この例では、注釈構成要素36は、次いで、そのピクセル又は領域をKambinの三角形として肯定的に注釈付けすることを判定するとき、これらの2つの確率のうちの最大値をとり得る。代替的に、予測が正確である信頼性のレベルを視覚的に表すために色(例えば、赤及び緑)を混合するカラーコードがあってもよい。この注釈アプローチに関係なく、アクセスを得たとき、及びその中でカメラ51を前進させるときに、表現をリアルタイムで更新し得る。
【0124】
いくつかの実施形態では、モデル64は、(i)椎体及び椎孔、(ii)神経根、並びに(iii)骨のランドマークの3つ全てを出力する単一のCNN又は別のニューラルネットワークであってもよい。他の実施形態では、3つのネットワークが存在してもよく、その各々は、それらの3つの異なるタイプの解剖学的構造のうちの1つを出力する。したがって、セマンティックセグメンテーションは、企図されるアプローチである。クラス確率は、当該3つの異なるタイプの各構造について予測され得る。各ピクセルに対して、例えば、80%がKambinの三角形53であり、10%が上関節突起(superior articular process、SAP)52であり、10%が出て行く神経根19である確率が存在してもよく、その場合、注釈はKambinの三角形を示す。検出は、形状事前分布を活用することによって更に向上させることができ、例えば、Kambinの三角形を表すピクセルを三角形に似るようにグループ化することができる。
【0125】
いくつかの実装形態では、図18に描かれたCT55及び/又はMRI56からの術前スキャンは、ある時間(例えば、1ヶ月)前に撮影されている可能性があり、それは、ROIが既に変化している可能性があるため重要であり得、及び/又は手術中の患者位置は、スキャン中とは異なり、スキャンをいくらか古くする可能性がある。そして、ツール及び/又は医師がシーンにアクセスすると、ROIが操作されことになる。カメラ51からキャプチャされた画像は、したがって、CT及び/又はMRIスキャンがそこで予想されるものを単に示すのとは対照的に、実際にROIにあるもののアンカーとしての役割を果たし得る。
【0126】
いくつかの実施形態では、予測構成要素34は、例えば、CTスキャンのみを用いて予測し、次いで、リアルタイムでカメラ51からキャプチャされた画像に基づいて予測又は再予測を調整することによって、患者に基づいて予測を適応させ得る。したがって、これらの画像は、以前に撮影された患者のスキャンとともに使用され得る。例えば、CT55からのスキャンは、ROIを判定するのを助けることができ、次いで、カメラ51の使用を開始するとき、Kambinの三角形53の場所の予測をリアルタイムで更新することができる。この例又は別の例では、向きが変化してもよい。そのような術前スキャンでは、Kambinの三角形53を識別するために、及び/又はカメラ51並びに/若しくはインプラントが取り付けられ得る前進器具の軌道を調整するために活用され得るより多くの情報が存在し得る。
【0127】
いくつかの実施形態では、軌道構成要素38は、前進の軌道が基準を満たすかどうかを判定し得る。次いで、この構成要素は、軌道が基準を満たさなかったという判定に応答して、基準が満たされるように軌道を調整し得る。
【0128】
本明細書では、カメラ画像のみから解剖学的構造を認識又は検出する実施形態が企図されるが、CT及び/又はMRIスキャンは、当該認識又は検出の精度を向上させるために使用され得るより多くの情報を提供することによって(例えば、相対的な向き及びサイズで)役立つ。例えば、神経根19、23は、キャプチャされた画像に対応するMRIスキャンを使用して識別され得、モデル64は、以前に撮影されたMRIスキャンにおいて識別された神経根構造に基づいてラベル付けされた、グラウンドトゥルースを含む訓練データを用いて訓練される。
【0129】
第1のセットの実施形態では、予測構成要素34は、カメラ51及びCNN又はU-Netのみを使用して、1つ又は2つ以上の解剖学的構造(例えば、Kambinの三角形、神経構造、及び/又は骨構造)の存在を予測し得る。第2のセットの実施形態では、解剖学的構造の予測は、MRI56及びCT55のうちの少なくとも1つからの少なくとも1つの術前スキャンを使用して実行され得る。また、ナビゲートされるカメラを有する第3のセットの実施形態では、予測は、二次元(two-dimensional、2D)CT(例えば、Cアーム54)からの出力を使用して実行され得る。第3のセットの実施形態では、予測構成要素34は、2Dから3Dへの画像再構成を使用して、Kambinの三角形及び/又は骨ランドマークを識別し得る。注釈構成要素36は、次いで、カメラ画像上に識別の表現をオーバーレイし得る。したがって、較正ターゲット又はナビゲートされたCアームを使用して、患者の表現型に応じてアトラス又は統計的形状モデルに基づいてKambinの三角形を予測し得る。
【0130】
これらの実施形態のうちの1つ又は2つ以上において、事前知識を有する専門家又は外科医は、前もって訓練データの画像に注釈又はラベル付けし(例えば、どの外科医が解剖学的構造の場所を示すことを既に構築したか)、例えば、他のサンプルの統計的セットから直接学習して、次いでそれに基づいて構築してもよい。注釈付けされた画像は、様々なレベルの組織浸透又は生物学的利用能を有し得る。訓練されると、これらの実施形態のモデル64は、キャプチャされた画像内のこれらの構造の存在を予測するために使用され得、各々は、これらの構造の周囲の対応する信頼区間を有する。アクセス中により多くの画像が利用可能になるにつれて、これらの構造の境界が狭められ得る。
【0131】
いくつかの実施形態では、軌道構成要素38は、カメラ画像及び様々なランドマークを使用して、向き情報及び補正を提供し得る(例えば、ナビゲートされていないとき)。例えば、カメラの向きが医療処置中に変更される場合、この構成要素は、画像のランドマークの回転を分析し、一定の姿勢を維持することによって、同じ視野を保ち得る。カメラが回転すると、予測構成要素34は、他のどこかの構造を検出し得、次いで、軌道構成要素38は、その姿勢を保つためにカメラ51がどれだけ回転されたかを推測し得る。カメラがナビゲートされる実施形態では、その時、軌道構成要素38は、適切な補正を実行するためにシーンがどれだけ回転されたかを既に知っていることがある。
【0132】
いくつかの実施形態では、情報構成要素31は、ROIがどのようにアクセスされたかについての情報を記憶して、次いでそれから学習し得る(例えば、モデルパラメータとして、又はハイパーパラメータ調整のために)。これら又は他の実施形態では、3D CTスキャンは、モデル64の訓練を実行するために、以前の骨の解剖学的構造情報の使用を可能にし得る。モデル64によって実装されるCNNは、セグメンテーションを実行し得る。このセグメンテーションは、CTスキャンを介した脊柱構造のものであってもよい。セグメンテーションは、例えば、Kambinの三角形53が特定の構造の下又は上にあると疑われる場合に、これらの構造の検出に役立つ。したがって、カメラ51の画像内にあるもののコンテキストが判定され得、当該三角形の改善された検出の確率を増加させる。
【0133】
いくつかの実施形態では、患者人口統計情報(例えば、サイズ、体重、性別、骨の健康、又は別の属性)及びどのレベルが腰部であり得るか(例えば、L1、L2対L4、L5)は、訓練構成要素32及び/又は予測構成要素34を介して得られてもよい。これらの属性は、性能を改善するのを助けるために、モデルパラメータとして、又はハイパーパラメータ調整において役立ち得る。
【0134】
上述したように、モデル64のCNNのいくつかの実施形態は、入力として(すなわち、訓練のために、及び展開時に)カメラ画像のみを有してもよく、例えば、外科医はグラウンドトゥルース注釈を実行する。しかし、他の実施形態は、カメラ画像、いくつかの高レベル情報、及び当該入力のためのCTスキャン(及び場合によっては更にMRIスキャンを使用する)を有してもよく、例えば、3D CTスキャンセグメンテーション結果をグラウンドトゥルースとして使用する。これらの実施形態からのオーバーレイされた出力(例えば、図20Aに示されるような)は、類似し得るが、後者では、他の実施形態は、セグメンテーション情報を有することに起因して、外科医がラベリングすることをもはや必要とせずに、より正確な予測を有する。換言すれば、CTスキャンは、CNNを介して、Kambinの三角形53を自動的に検出して、次いで、カメラ画像を使用してその学習をCNNに転送するのに十分良好であり得る。
【0135】
いくつかの実施形態では、CTスキャンを使用して実行される学習のための注釈は、教師あり、教師なし、又は半教師ありであり得る。
【0136】
いくつかの実施形態では、注釈構成要素36は、例えば、Kambinの三角形53への接近中に撮影されたカメラ51からの画像のセット(例えば、1つ又は2つ以上)に基づいて、解剖学的構造がどこに位置するか(例えば、図20Aの例に表示された領域又は別のROI)を示すUIを医師に提供することができる。これら又は他の実施形態では、軌道構成要素38は、軌道にどのような変更を行う必要があるかを(例えば、医師に知らせるために)判定することができ、結果として、Kambinの三角形53に向かう改善された軌道が達成され得る。いずれの実施形態においても、開示される人工知能の実装形態は、Kambinの三角形53を識別する際の改善された精度を介して、外科用機器の効率及び安全性を改善し得る。例えば、患者を危険にさらす(例えば、神経に接触するとき)外科用器具の不必要で誤った動きが回避され得る。
【0137】
いくつかの実施形態では、軌道構成要素38は、画像をキャプチャしたデバイスから識別された三角形までの現在の距離を判定し、継続的に更新し得る。これら又は他の実施形態では、軌道構成要素38は、識別された三角形に向かって前進する拡張器の位置を判定し得る。画像は、拡張器の側面に取り付けられた、カメラ、電荷結合素子(charge coupled device、CCD)、及び光学センサのうちの少なくとも1つを介してキャプチャされ得る。
【0138】
いくつかの実施形態では、注釈構成要素36は、Kambinの三角形53、SAP52、及び神経19のうちの少なくとも1つをほぼリアルタイムで示すことができる。図20Aの例に示されるように、境界は、カメラ画像上でより太い線で示され得、これらの構造の各々を示すテキストが、同様にその上に注釈付けされ得る。代替的に、ピクセル又は他のマークを使用して構造を区別してもよい。ユーザは、UIデバイス18を介して、何が強調されるべきか、及びそのような代表的な強調がどのように実行されるべきかを選択し得る。例えば、そのようなユーザ構成可能な注釈付けは、SAP境界(又は神経若しくはKambinの三角形の境界)及び/又は対応するテキストをオプションにしてもよい。
【0139】
いくつかの実施形態では、軌道構成要素38は、SAP52、上終板椎骨、及び/又は解剖学的ランドマークとして作用し得るROI内の別の構造の相対的な場所に基づいて、神経に接触することなく、ツールをKambinの三角形53に向かって、又はそれを通して前進させる方法を識別し得る。CTスキャンから、SAP52の存在、脊髄のレベル、及び/又は他の骨ランドマークを予測することができ、これらの各々は、特定の場所のセットで予測される。そして、MRIスキャンから、神経根19、23は、特定の場所に存在すると予測され得る。Kambinの三角形53を識別するために、例えば、神経19、SAP52、及び上終板椎骨を含む3つの辺の存在が予測され得る。
【0140】
いくつかの実施形態では、カメラ51は、血液供給、動脈、神経、などに関する情報を視覚的に得るために、ハイパースペクトル又はマルチスペクトル撮像(すなわち、単なる白色光以外の波長に対して)を実行してもよい。これらの他の波長についての情報をオーバーレイすることは、ユーザにとってオプションであってもよい。
【0141】
いくつかの実施形態では、軌道構成要素38は、拡張器がKambinの三角形53に向かって前進するときに拡張器の位置を識別し、それらの画像に基づいて医師にフィードバックを与えることができる。本明細書では、医師は、人間ベースの手術、コンピュータ使用と人間の手術との組み合わせ、又は純粋な自動化を指す場合がある。
【0142】
いくつかの実施形態では、カメラ51は、Kambinの三角形53及び神経を含む解剖学的構造を識別又は発見するために、開創器(例えば、Foxテロゲン又は別の器具)の先端に取り付けられてもよい。
【0143】
いくつかの実施形態では、カメラ51は、開創器であるアクセスチューブ上に取り付けられ又は統合されてもよい。そして、別の内視鏡又は別の器具を挿入するときに作業空間が使用されないように、その先端に灌注吸引があってもよい。したがって、カメラ51は、ポート自体に組み込まれてもよい。図20Aに関して実証できるように、カメラ51は既に開創器固定具上にあり、その側面に埋め込まれていてもよい。図20Aでは、カメラは下中央に位置しており、上を向いている。
【0144】
一実装形態では、拡張器及びアクセスカニューレは、Kambinの三角形53まで挿入され得るが、それを通過しない場合がある。ディスククリーナはそこを通過し得、次いでディスクを洗浄する。その1つ又は2つ以上の態様又はプローブの他の構造は、拡張器ポート又はKambinの三角形53の周囲の骨にドッキングしてもよい。
【0145】
いくつかの実施形態では、カメラ51は、ナビゲートされ得る(例えば、CTスキャン及びポート/カメラが位置合わせされる)。例えば、カメラのナビゲーションは、ポートがある空間内で知るために、リアルタイムで追跡され得る。すなわち、これは、全てが互いに対してどこにあるかを知り、視点がどこからであるかを知るために、術前画像に位置合わせされ得る。上述したように、カメラ51は、ポートの側面上又は拡張器の側面上にあってもよい。これは、作業チャネルがカメラから(例えば、数ミリメートルだけ)オフセットされることを知って、補償され得る。例えば、これらは約30度であってもよい。0度及び30度の内視鏡があってもよく、30度のものは角の周りを示す。
【0146】
前方を見ているとき、その角度が何であるか、及び作動距離の何らかの良いアイデアを正確に知っているとき、補正され得る何らかの歪みがあり得る。したがって、カメラ51から提供される画像は、画像の中心が実際に作業チャネルを通るように、歪められたカメラ場所に基づいている場合があり、画像処理パイプラインを介して実行されるいくつかのソフトウェア補正があり得る。いくつかの実装形態では、側面から見るとき、ユーザは、角度によって、カメラが遠く離れるほど、上部(例えば、図20Aの上側部分)によりたくさんの歪みを得ることがある。しかし、この大部分は、補正され得る。補正される場合、ユーザには全てが中央にあるように見えることがある。補正されない場合、中央から外れていることによるレンズ効果があり得る。これは、情報の損失を引き起こし得ず、むしろ、異なるエリアを表す異なるピクセルが存在するだけである。これは魚眼歪みとして知られており、補正され得る。
【0147】
CT55を備える実装形態では、患者は、スキャン時にテーブル上に横たわっている可能性がある。その後、数日又は数週間後に手術時間が来て、彼らは、カメラ51を入れるときに異なる位置に横たわっている可能性がある。例えば、小さなデバイスが近くに置かれ、次いで、腰部領域(例えば、L5-S1エリア)にねじ込まれ得る。迅速なCTスキャンが実行され得、次いで、挿入された器具は、CTスキャンにおいてポップアップする反射器を有し得、器具が空間内のどこにあるかを正確に知るカメラが手術室内にある場合もある。したがって、患者、画像、又はデバイスは、例えば、カメラの画像を以前に撮影されたスキャンからの座標系と整列させることによって、位置合わせされ得る。位置合わせは更に、スキャナ及び基準アレイ又はマーカを用いて実行されてもよい。脊柱の柔軟な性質は、移動のリスクを増加させ、それによって不正確さを増加させ得、精度を改善するためのナビゲーションが重要になる。
【0148】
カメラ51がナビゲートされ、3D CTスキャンが使用される実施形態では、予測構成要素34は、椎体及び椎孔を識別するために、(例えば、深層学習を使用して)CTスキャンを自動的にセグメント化し得、椎孔は、筋肉、神経、動脈、静脈、又は他の構造が身体の一部を別の部分と接続することを可能にするために動物の身体内に存在する開いた孔である。これらの識別から、予測構成要素34は、Kambinの三角形53を推定し得る。次いで、Kambinの三角形の表現は、カメラ51の画像上にオーバーレイされ得る。これら又は他の実施形態では、予測構成要素34は、CTスキャンを自動的にセグメント化して(例えば、同時取得MRI CTスキャンを通じて訓練された深層学習を使用して)、出て行く神経根19を識別し得る。次いで、注釈構成要素36は、この神経構造を画像上にオーバーレイし得る。これらの又は他の実施形態では、予測構成要素34は、CTスキャンを自動的にセグメント化して(例えば、深層学習を使用して)、椎骨、椎弓根、横突起(transverse process、TP)、棘突起(spinous process、SP)、及び/又はSAP52などの骨ランドマークを識別し得る。次に、注釈構成要素36は、骨構造をカメラの画像上にオーバーレイし得る。したがって、注釈構成要素36は、表示される情報の量をユーザが精緻化するためのオプションとともに、画像上にKambinの三角形53、神経構造19、23、及び骨構造52のうちの少なくとも1つを同時にオーバーレイし得る。
【0149】
いくつかの実施形態では、機械学習モデルは、3Dスキャンが入力されて、(教師あり学習又は教師なし学習を介して)Kambinの三角形53が各々の三角形のどこにあるかを予測し得、次いで、別の機械学習モデルは、この別のモデルが2Dカメラの画像を使用してKambinの三角形の予測を行うように、これらの予測に基づくラベルを使用して訓練され得る。他の実施形態では、機械学習モデルを訓練するために、Kambinの三角形の人間によるラベリングが使用され得、次いで、現在の患者の当該三角形をリアルタイムで予測するために、2Dカメラ及び3Dスキャンの両方がこのモデルに入力され得る。これらの実施形態は、蒸留学習又は生徒-教師モデルを実装する。
【0150】
いくつかの実施形態では、3D CTスキャンが利用可能であっても、カメラ51はナビゲートされない場合がある。例えば、深層学習は、カメラ51の術中画像がリアルタイムでこの予測モデルに供給されるときに、2Dカメラ画像から直接的に様々な骨ランドマークを識別するために実行され得る。他の実施形態では、ユーザは、Kambinの三角形53の識別の予測を得るために、ある時間(例えば、10秒)待たなければならない場合があり、その期間中、何も動くことができない。いくつかの実装形態では、予測は、カメラフィード自体ほど速くない場合があるが、物が移動するにつれてほぼリアルタイムでそれ自体を更新することができる。例えば、ポートは、特定の角度から見るために回転させられ得る(又はツールが移動させられ得る)。
【0151】
ナビゲートされないとき、3D CTスキャンとの位置合わせは、見つけられたランドマークに基づいてリアルタイムで実行され得る。次いで、Kambinの三角形の信頼区間、神経構造、及び骨構造が、カメラ画像上にオーバーレイされ得る。位置合わせが実行されないため、ユーザは、CTスキャナが見ている場所に対してカメラが見ている場所を知らない場合がある。ナビゲートされて位置合わせされると、ユーザは、カメラ画像の2Dスライスが3D CTスキャン内のどこを見ているかを正確に知ることになる。ナビゲートされたカメラを使用しない場合、ユーザは、患者の骨の解剖学的構造がどのように見えるかを知ることができるが、それをカメラ画像にリンクする方法がない。したがって、この非ナビゲートアプローチは、カメラ画像から骨の予測を得ることと、次いで、それを3D CTスキャンに戻して位置合わせすることとを伴い得、それはまた、骨の存在を予測して、次いで、ユーザが見ているどの2Dスライスかを推定するために使用され得る。
【0152】
いくつかの実施形態では、CT55はXT(コーンビームCT)である。利用可能なCTスキャンが存在しない他の実施形態では、予測構成要素34は、神経ロケータデバイス又は超音波若しくはSentioなどの何らかの他の手段が、カメラ画像上にオーバーレイするための更なる撮像入力を提供するために使用されない限り、何らかの視覚的なものに依拠しなければならない場合がある。一例では、一体型デバイスを使用して、プローブ又はポートを通して電流を送って、デバイスが神経にどれだけ近いかに関する情報を得ることができる。
【0153】
図21及び図22は、1つ又は2つ以上の実施形態による、向上した撮像を用いて正確な手術を行うための方法100及び150を例解する。これらの方法は、1つ又は2つ以上のコンピュータプロセッサ及び/又は他の構成要素を備えるコンピュータシステムを用いて実行され得る。プロセッサは、コンピュータプログラム構成要素を実行するための機械可読命令によって構成されている。以下に提示されるこれらの方法の動作は、例解的であることが意図される。いくつかの実施形態では、方法100及び150は各々、説明されていない1つ又は2つ以上の追加の動作を用いて、及び/又は考察された動作のうちの1つ又は2つ以上を用いずに達成され得る。追加的に、これらの方法の各々の動作の順序が、図21及び図22に例解されている。いくつかの実施形態では、方法100及び150の各々は、1つ又は2つ以上の処理デバイス(例えば、デジタルプロセッサ、アナログプロセッサ、情報を処理するように設計されたデジタル回路、情報を処理するように設計されたアナログ回路、状態機械、及び/又は情報を電子的に処理するための他の機構)において実装され得る。処理デバイスは、電子記憶装置媒体上に電子的に記憶された命令に応答してこれらの方法の動作の一部又は全てを実行する1つ又は2つ以上のデバイスを含み得る。処理デバイスは、これらの動作のうちの1つ又は2つ以上の実行のために特に設計されるハードウェア、ファームウェア、及び/又はソフトウェアを通して構成された1つ又は2つ以上のデバイスを含み得る。
【0154】
方法100の動作102において、患者のROIに対応する1つ又は2つ以上のスキャンが取得され得る。例えば、得られた患者スキャンは、セグメント化されておらず、外科手術領域又は計画された外科手術領域に対応し得る。いくつかの実施形態では、動作102は、(図18に示され、本明細書で説明されている)情報構成要素31と同じ又は同様のプロセッサ構成要素並びにCアーム54、CT55、及び/又はMRI56によって実行される。
【0155】
方法100の動作104において、患者のROI内の画像が、リアルタイムでキャプチャされ得る。例えば、カメラ51は、身体又は患者の内部の画像のセットをリアルタイムで撮影し得、画像のセットのキャプチャは、処置の間に実行される。方法100は、一度に1つ又は2つ以上の画像を使用して実行され得る。いくつかの実施形態では、動作104は、(図18に示され、本明細書で説明されている)情報構成要素31と同じ又は同様のプロセッサ構成要素並びにカメラ51によって実行される。
【0156】
方法100の動作106において、訓練データが得られてもよく、訓練データは、以前に撮影されたスキャンにおいて識別された構造と、以前の医療処置中にリアルタイムでキャプチャされた対応する画像とに基づいてラベル付けされたグラウンドトゥルースを含む。いくつかの実施形態では、動作106は、(図18に示され、本明細書で説明されている)訓練構成要素32と同じ又は同様のプロセッサ構成要素によって実行される。
【0157】
方法100の動作108において、モデルは、得られた訓練データを用いて訓練され得る。例えば、訓練されたCNN又はモデル64の別のものが、画像及び/又はスキャンにおける解剖学的構造の認識又は検出を実行するために得られてもよい。すなわち、訓練構成要素32がニューラルネットワークを訓練した後、結果として生じる訓練されたモデルは、予測データベース60のモデル64内に記憶され得る。いくつかの実施形態では、動作108は、訓練構成要素32と同じ又は同様のプロセッサ構成要素によって実行される。
【0158】
方法100の動作110において、ROI内、その付近、及び/又はその周囲の複数の異なる構造が、椎体及び椎孔、神経根、並びに骨ランドマークの中から(例えば、UIデバイス18を介して手動で、又は所定の構成に基づいて自動的に)選択され得る。いくつかの実施形態では、動作110は、(図18に示され、本明細書で説明されている)情報構成要素31と同じ又は同様のプロセッサ構成要素によって実行される。
【0159】
方法100の動作112において、Kambinの三角形及び/又は各選択された構造は、取得されたスキャン及びキャプチャされた画像を使用して訓練されたMLモデルを介して、識別され得、識別の各々は、信頼基準を満たすことができ、Kambinの三角形の識別は、選択された構造の相対的な場所に基づいている。例えば、予測は、入力としてセグメント化されていないスキャンを受け取り、少なくとも1つの神経構造を識別するラベル付けされた画像ボリュームを出力する画像分析ツールを使用して、セグメント化されていないスキャンから少なくとも1つの神経構造の存在を識別することによって実行される。いくつかの実施形態では、予測構成要素34は、生物医学的画像セグメンテーションのために開発されたCNN及び/又は完全畳み込みネットワークを備え得る、U-Netを介して予測し得る。いくつかの実施形態では、動作112は、(図18に示され、本明細書で説明されている)予測構成要素34と同じ又は同様のプロセッサ構成要素によって実行される。
【0160】
方法100の動作114において、識別された三角形の、及び/又は各選択された構造の表現が、キャプチャされた画像上にオーバーレイされ得る。例えば、Kambinの三角形53へのアプローチの経路上で、解剖学的構造を区別する、強調する、強調表示する、又は他の方法で示す情報は、画像にオーバーレイし得る。いくつかの実施形態では、動作114は、(図18に示され、本明細書で説明される)注釈構成要素36と同じ又は同様のプロセッサ構成要素によって実行される。
【0161】
方法100の動作116において、患者のROI内の別の画像が、引き続いてリアルタイムでキャプチャされ得る。いくつかの実施形態では、動作116は、情報構成要素31と同じ又は同様のプロセッサ構成要素及びカメラ51によって実行される。
【0162】
方法100の動作118において、Kambinの三角形は、取得されたスキャン及び別の画像を使用して訓練されたモデルを介して、再識別され得る。例えば、Kambinの三角形53の後続の識別は、例えば、後続のキャプチャされた画像に基づいて識別された三角形を表す領域を成長させるための、改善された信頼基準を満たし得る。いくつかの実施形態では、動作118は、予測構成要素34と同じ又は同様のプロセッサ構成要素によって実行される。
【0163】
方法100の動作120において、再識別された三角形に関連付けられた信頼基準が更新され得る。例えば、信頼区間は、カメラ51のフィードに基づいてリアルタイムで更新され得る。いくつかの実施形態では、注釈構成要素36は、例えば、カメラ52がROI及び/又はKambinの三角形53に近接している間に、信頼区間を判定し得る。信頼区間は、解剖学的構造が場所のセット(例えば、2D、3D、又は別の適切な数の次元)の各々に存在すると予測される範囲を示し得る。いくつかの実施形態では、信頼基準は、既知の手段を改善する範囲によって満たされてもよく、Kambinの三角形53が実際に予測された場所にある(例えば、当該三角形に向かって前進するための)というより高い保証が得られる。いくつかの実施形態では、動作120は、予測構成要素34又は注釈構成要素36と同じ又は同様のプロセッサ構成要素によって実行される。
【0164】
方法100の動作122において、再識別された三角形の更新された表現が、別の画像上にオーバーレイされ得る。例えば、オーバーレイは、予測を行うために使用されたものと同じ画像であってもよく、又は異なる画像上であってもよい。いくつかの実施形態では、動作122は、注釈構成要素36と同じ又は同様のプロセッサ構成要素によって実行される。
【0165】
図22に描かれる方法150の動作152において、手術室の構成が得られてもよい。例えば、2D CT、3D CT、及びMRIからの出力が利用可能であるかどうかが判定され得る。この例又は別の例では、カメラ51がナビゲート可能であるか又は位置合わせ可能であるかが判定され得る。患者のCTスキャンのみが利用可能である実装形態では、本明細書で考察するように、訓練構成要素32は、他の患者のMRIスキャンを使用して、CTスキャンから神経を検出することができる方法を訓練し得る。したがって、ある特定の骨構造又はランドマークがどこにあるかを知ることによって、予測構成要素34は、神経がどこにあるかを予測し得る。アルゴリズム的アプローチ自体は、特定のツール及び技術の利用可能性に基づいて判定され得る。例えば、システム5は、したがって、ある特定の入力及び/又は条件を使用し、次いで、適切な方法を選定するようにそれ自体を調整してもよい。いくつかの実施形態では、動作152は、情報構成要素31と同じ又は同様のプロセッサ構成要素によって実行される。
【0166】
方法150の動作154において、訓練された機械学習モデルは、構成がナビゲーション及び/又は3D CTスキャンを示すかどうかを判定することによって、得られた構成に基づいて選択され得る。いくつかの実施形態では、動作154は、訓練構成要素32又は予測構成要素34と同じ又は同様のプロセッサ構成要素によって実行される。
【0167】
方法150の動作156において、構成がナビゲーション及び3D CTスキャンを示すという判定に応答して、3D CTスキャンは、ポート及び/又はカメラと位置合わせされ得(例えば、複数の異なる座標系とキャプチャされた画像との間で整列させることによって)、患者の領域に対応する3D CTスキャンが取得され得る。いくつかの実施形態では、動作156は、(図18に示され、本明細書で説明される)軌道構成要素38と同じ又は同様のプロセッサ構成要素によって実行される。
【0168】
方法150の動作158において、画像は、リアルタイムでキャプチャされ得る。
【0169】
方法150の動作160において、Kambinの三角形が、取得された3D CTスキャン及びキャプチャされた画像を使用して選択されたモデルを介して、識別され得る。いくつかの実施形態では、動作160は、予測構成要素34と同じ又は同様のプロセッサ構成要素によって実行される。
【0170】
本明細書で説明される技法は、デジタル電子回路、又はコンピュータハードウェア、ファームウェア、ソフトウェア、又はそれらの組み合わせで実装され得る。本技法は、コンピュータプログラム製品、すなわち、データ処理装置、例えば、プログラマブルプロセッサ、コンピュータ、又は複数のコンピュータによる実行のために、又はその動作を制御するために、情報キャリア、例えば、機械可読記憶デバイス、機械可読記憶媒体、コンピュータ可読記憶デバイス、又はコンピュータ可読記憶媒体において有形に具現化されるコンピュータプログラムとして実装され得る。コンピュータプログラムは、コンパイラ型言語又はインタープリタ型言語を含む任意の形態のプログラミング言語で書くことができ、スタンドアロンプログラムとして、又はモジュール、コンポーネント、サブルーチン、若しくはコンピューティング環境での使用に適した他のユニットとして含む、任意の形態で展開することができる。コンピュータプログラムは、1つのコンピュータ上で、又は1つのサイトにおける、若しくは複数のサイトにわたって分散され、通信ネットワークによって相互接続された複数のコンピュータ上で実行されるように展開することができる。
【0171】
本技法の方法のステップは、入力データ上で動作し、出力を生成することによって本技法の機能を実行するためのコンピュータプログラムを実行する1つ又は2つ以上のプログラマブルプロセッサによって実行され得る。方法のステップはまた、専用論理回路、例えば、FPGA(フィールドプログラマブルゲートアレイ)又はASIC(特定用途向け集積回路)として実装され得る技法によって、及びその装置によって実行され得る。
【0172】
コンピュータプログラムの実行に適したプロセッサには、例として、汎用マイクロプロセッサ及び専用マイクロプロセッサの両方、並びに任意の種類のデジタルコンピュータの任意の1つ又は2つ以上のプロセッサが含まれる。概して、プロセッサは、読み出し専用メモリ又はランダムアクセスメモリ又はその両方から命令及びデータを受け取る。コンピュータの必須要素は、命令を実行するためのプロセッサ、並びに命令及びデータを記憶するための1つ又は2つ以上のメモリデバイスである。概して、コンピュータはまた、磁気ディスク、光磁気ディスク、又は光ディスクなどのデータを記憶するための1つ又は2つ以上の大容量記憶デバイスを含むか、又はそこからデータを受け取るか、そこへデータを転送するか、若しくはその両方を行うように動作可能に結合される。コンピュータプログラム命令及びデータを具現化するのに適した情報キャリアには、例として、EPROM、EEPROM、及びフラッシュメモリデバイスなどの半導体メモリデバイスを含む全ての形態の不揮発性メモリ、内部ハードディスク又はリムーバブルディスクなどの磁気ディスク、光磁気ディスク、並びにCD-ROM及びDVD-ROMディスク、が含まれる。プロセッサ及びメモリは、専用論理回路によって補完され得るか、又は専用論理回路に組み込まれ得る。
【0173】
本開示のいくつかの実施形態は、本明細書で具体的に例解及び/又は説明されている。しかしながら、修正及び変形が企図され、添付の特許請求の範囲の権限内であることが理解されよう。
【0174】
米国特許第8,518,087号の開示は、その全体が参照により本明細書に組み込まれ、本明細書の一部とみなされるべきである。
【0175】
〔実施の態様〕
(1) 外科的方法であって、
外科手術領域又は計画された外科手術領域に対応するセグメント化されていない患者スキャンを取得することと、
前記セグメント化されていないスキャンを入力として受け取り、前記外科手術領域又は計画された外科手術領域内の少なくとも1つの神経構造を識別するラベル付けされた画像ボリュームを出力する画像分析ツールを使用して、前記セグメント化されていないスキャンから前記少なくとも1つの神経構造を識別することと、
識別された前記少なくとも1つの神経構造を組み込む患者別の外科手術計画を作成することと、
前記患者別の計画に従って外科的処置を実行することと、を含む、外科的方法。
(2) 前記セグメント化されていない患者スキャンが、CT又はCBCTスキャンであり、前記少なくとも1つの神経構造を識別することが、前記少なくとも1つの神経構造を識別するために、前記セグメント化されていないスキャンを自動的にセグメント化することを更に含む、実施態様1に記載の外科的方法。
(3) 前記画像分析ツールが、深層学習モデルを使用して、前記セグメント化されていない患者スキャン内の前記少なくとも1つの神経構造を自動的にセグメント化し、前記方法が、前記患者の位置における変化に基づいて、前記識別された少なくとも1つの神経構造の予想される動きを推定することを更に含む、実施態様1に記載の外科的方法。
(4) 前記患者の前記位置における前記変化が、撮像位置から手術位置への変化である、実施態様3に記載の外科的方法。
(5) 前記少なくとも1つの神経構造の前記予想される動きに従って、前記患者別の外科手術計画を調整することを更に含む、実施態様3に記載の外科的方法。
【0176】
(6) 前記セグメント化されていない患者スキャンが、術前患者スキャンであり、前記患者別の外科手術計画が、前記識別された少なくとも1つの神経構造との干渉を回避するように最適化された患者別の外科的アクセス計画であり、出力された前記ラベル付けされた画像ボリュームが、前記外科的処置中に表示される、実施態様1に記載の外科的方法。
(7) コンピュータ実装方法であって、
関心領域(ROI)に対応するスキャンを取得することと、
患者の画像をリアルタイムでキャプチャすることと、
(i)取得された前記スキャン及び(ii)キャプチャされた前記画像を使用して、訓練された機械学習モデルを介して、Kambinの三角形を識別することと、
前記キャプチャされた画像上に、識別された前記Kambinの三角形の表現をオーバーレイすることと、を含む、方法。
(8) (i)以前に撮影されたスキャン及び(ii)以前の医療処置中にリアルタイムでキャプチャされた対応する画像において識別された構造に基づいてラベル付けされた、グラウンドトゥルースを含む訓練データを得ることと、
得られた前記データを用いて前記モデルを訓練することと、を更に含む、実施態様7に記載の方法。
(9) 前記患者の別の画像をキャプチャすることと、
(i)前記取得されたスキャン及び(ii)キャプチャされた前記別の画像を使用して、前記訓練されたモデルを介して、前記Kambinの三角形を再識別することと、
再識別された前記Kambinの三角形に関連付けられた信頼基準を更新することと、
前記再識別されたKambinの三角形の更新された表現を前記キャプチャされた別の画像上にオーバーレイすることと、を更に含む、実施態様7に記載の方法。
(10) (i)椎体及び椎孔、(ii)神経根、並びに(iii)骨ランドマークの中から、前記ROI内の構造を選択することと、
(i)前記取得されたスキャン及び(ii)前記キャプチャされた画像を使用して、前記訓練された機械学習モデルを介して、信頼基準を各々満たす選択された前記構造を識別することであって、前記Kambinの三角形の前記識別が、前記選択された構造の相対的な場所に基づく、識別することと、
1つ又は2つ以上のキャプチャされた画像上に、ユーザインターフェースを介して、前記選択された構造の各々の表現をオーバーレイすることと、を更に含む、実施態様8に記載の方法。
【0177】
(11) 前記機械学習モデルが、畳み込みニューラルネットワークである、実施態様7に記載の方法。
(12) 前記画像をキャプチャしたデバイスから前記識別されたKambinの三角形までの現在の距離を判定することを更に含む、実施態様7に記載の方法。
(13) 前記神経根が、対応するMRIスキャンを使用して識別され、前記モデルが、複数の以前に撮影されたMRIスキャンにおいて識別された神経根構造に基づいてラベル付けされた、グラウンドトゥルースを含む訓練データを用いて更に訓練される、実施態様10に記載の方法。
(14) 前記識別されたKambinの三角形に向かって、インプラント又は器具の少なくとも一部を低侵襲的に前進させることと、
前記前進の軌道が、基準を満たすかどうかを判定することと、
前記軌道が前記基準を満たさなかったという前記判定に応答して、前記基準が満たされるように前記軌道を調整することと、を更に含む、実施態様7に記載の方法。
(15) 前記取得されたスキャンが、三次元(3D)コンピュータ断層撮影(CT)スキャンを含む、実施態様7に記載の方法。
【0178】
(16) 位置合わせ時に、前記器具又はインプラントをナビゲートすることと、
前記スキャンの複数の異なる座標系と前記キャプチャされた画像との間で整列させることによって実行される、ポート及び/又はカメラとの前記スキャンの前記位置合わせと、更に含む、実施態様14に記載の方法。
(17) 前記識別されたKambinの三角形に向かって前進する拡張器の位置を判定することを更に含み、前記画像が、前記拡張器の側面に取り付けられた、カメラ、電荷結合素子(CCD)、及び光学センサのうちの少なくとも1つを介してキャプチャされる、実施態様7に記載の方法。
(18) 前記表現が、前記選択された構造の前記信頼基準を色及び/又は記号で符号化することによって、前記識別されたKambinの三角形を視覚的に区別する、実施態様10に記載の方法。
(19) 状況認識医療処置のための方法であって、前記方法が、
手術室の構成を得ることと、
得られた前記構成に基づいて、訓練された機械学習モデルを選択することであって、前記選択は、前記構成がナビゲーション及び3D CTスキャンを示すかどうかを判定することによって実行される、選択することと、
前記構成がナビゲーション及び3D CTスキャンを示すという前記判定に応答して、(i)前記スキャンの複数の異なる座標系とキャプチャされた画像との間で整列させることによって、3D CTスキャンをポート及び/又はカメラと位置合わせし、(ii)患者の領域に対応する前記3D CTスキャンを取得することと、
前記画像をリアルタイムでキャプチャすることと、
(i)取得された前記3D CTスキャン及び(ii)キャプチャされた前記画像を使用して、選択された前記モデルを介して、Kambinの三角形を識別することと、を含む、方法。
(20) ユーザインターフェースを介して、識別された前記Kambinの三角形の表現の表示を引き起こすように構成された選択を得ることと、
ユーザインターフェースを介して、前記画像の前記キャプチャのためのマルチスペクトル撮像を引き起こすように構成された選択を得ることと、を更に含む、実施態様19に記載の方法。
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14
図15
図16
図17
図18
図19A
図19B
図20A
図20B
図21
図22
【国際調査報告】