IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ ブレイン ナビ バイオテクノロジー カンパニー リミテッドの特許一覧

特許7397092画像マッチングに基づいて手術経路を決定する方法およびシステム
<>
  • 特許-画像マッチングに基づいて手術経路を決定する方法およびシステム 図1
  • 特許-画像マッチングに基づいて手術経路を決定する方法およびシステム 図2
  • 特許-画像マッチングに基づいて手術経路を決定する方法およびシステム 図3
  • 特許-画像マッチングに基づいて手術経路を決定する方法およびシステム 図4A
  • 特許-画像マッチングに基づいて手術経路を決定する方法およびシステム 図4B
  • 特許-画像マッチングに基づいて手術経路を決定する方法およびシステム 図5
  • 特許-画像マッチングに基づいて手術経路を決定する方法およびシステム 図6
  • 特許-画像マッチングに基づいて手術経路を決定する方法およびシステム 図7
  • 特許-画像マッチングに基づいて手術経路を決定する方法およびシステム 図8
  • 特許-画像マッチングに基づいて手術経路を決定する方法およびシステム 図9
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2023-12-04
(45)【発行日】2023-12-12
(54)【発明の名称】画像マッチングに基づいて手術経路を決定する方法およびシステム
(51)【国際特許分類】
   A61B 34/10 20160101AFI20231205BHJP
【FI】
A61B34/10
【請求項の数】 12
(21)【出願番号】P 2021556512
(86)(22)【出願日】2020-03-19
(65)【公表番号】
(43)【公表日】2022-05-18
(86)【国際出願番号】 CN2020080194
(87)【国際公開番号】W WO2020187289
(87)【国際公開日】2020-09-24
【審査請求日】2021-10-29
(31)【優先権主張番号】62/820,804
(32)【優先日】2019-03-19
(33)【優先権主張国・地域又は機関】US
(73)【特許権者】
【識別番号】519452138
【氏名又は名称】ブレイン ナビ バイオテクノロジー カンパニー リミテッド
(74)【代理人】
【識別番号】100125450
【弁理士】
【氏名又は名称】河野 広明
(72)【発明者】
【氏名】チェン シェシャオ
(72)【発明者】
【氏名】ワン カンジュ
【審査官】石川 薫
(56)【参考文献】
【文献】国際公開第2018/223925(WO,A1)
【文献】特開2015-198893(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
A61B 34/00-34/37
(57)【特許請求の範囲】
【請求項1】
プロセッサによる実行に応答して、患者の手術経路を決定する方法を該プロセッサに実行させる命令のセットを含む非一時的なコンピュータ可読記憶媒体であって、前記方法が、
前記患者の医用画像スキャンに基づいて3次元モデルを構築することと、
2次元光学装置のセットを用いて前記患者の画像情報を取得することと、
人工知能エンジンを使用して、前記3次元モデルに関連する2次元特徴点の第1のセットを選択することと、
前記人工知能エンジンを使用して、前記患者の前記画像情報に関連付けられた2次元特徴点の第2のセットを選択することと、
前記2次元特徴点の第1のセットを3次元特徴点の第1のセットに変換することと、
前記2次元特徴点の第2のセットを3次元特徴点の第2のセットに変換することと、
前記3次元特徴点の第1のセットと前記3次元特徴点の第2のセットとを整列させる関係を決定するために、該3次元特徴点の第1のセットと該3次元特徴点の第2のセットとをマッチングすることと、
前記関係に基づいて、前記3次元モデルに関連する第1の座標系から前記2次元光学装置のセットに関連する第2の座標系に座標を変換することと、
前記第2の座標系の前記変換された座標に基づいて、ロボットアームに関連する第3の座標系において手術経路を決定することと
を含み、
前記2次元特徴点のそれぞれが、前記患者自身の顔面上の領域から抽出され、該領域が統計的に平坦である、
非一時的なコンピュータ可読記憶媒体。
【請求項2】
前記方法が、前記3次元モデルの2次元スナップショットを生成することと、該スナップショットの前記2次元特徴点の第1のセットを選択することとをさらに含む、
請求項1に記載の非一時的なコンピュータ可読記憶媒体。
【請求項3】
前記3次元モデルの前記2次元スナップショットを取得するために使用されるアルゴリズムに基づいて、前記2次元スナップショット上の前記2次元特徴点の前記第1のセットを、前記3次元モデルの前記3次元特徴点の前記第1のセットに変換するために逆の動作を実行することをさらに含む、
請求項2に記載の非一時的なコンピュータ可読記憶媒体。
【請求項4】
前記患者の前記画像情報が、該患者の2次元画像情報および該患者に関連する深度情報を含む、
請求項1に記載の非一時的なコンピュータ可読記憶媒体。
【請求項5】
前記2次元特徴点の第2のセットが、前記患者の前記2次元画像情報において選択される、
請求項4に記載の非一時的なコンピュータ可読記憶媒体。
【請求項6】
前記2次元特徴点の第2のセットを前記3次元特徴点の第2のセットに変換することが、前記深度情報に基づく、
請求項5に記載の非一時的なコンピュータ可読記憶媒体。
【請求項7】
プロセッサと、
前記プロセッサによる実行に応答して、該プロセッサに、
患者の医用画像スキャンに基づいて3次元モデルを構築させ、
2次元光学装置のセットを用いて前記患者の画像情報を取得させ、
人工知能エンジンを使用して、前記3次元モデルに関連する2次元特徴点の第1のセットを選択させ、
前記人工知能エンジンを使用して、前記患者の前記画像情報に関連付けられた2次元特徴点の第2のセットを選択させ、
前記2次元特徴点の第1のセットを3次元特徴点の第1のセットに変換させ、
前記2次元特徴点の第2のセットを3次元特徴点の第2のセットに変換させ、
前記3次元特徴点の第1のセットと前記3次元特徴点の第2のセットとを整列させる関係を決定するために、該3次元特徴点の第1のセットと該3次元特徴点の第2のセットとをマッチングさせ、
前記関係に基づいて、前記3次元モデルに関連する第1の座標系から前記2次元光学装置のセットに関連する第2の座標系に座標を変換させ、
前記第2の座標系の前記変換された座標に基づいて、ロボットアームに関連する第3の座標系において手術経路を決定させる
プログラムコードが記憶されている非一時的なコンピュータ可読媒体と
を含み、
前記2次元特徴点のそれぞれが、前記患者自身の顔面上の領域から抽出され、該領域が統計的に平坦である、
患者の手術経路を決定するシステム。
【請求項8】
前記プログラムコードは、前記プロセッサによって実行されると、該プロセッサに、前記3次元モデルの2次元スナップショットをさらに生成させ、該スナップショットの前記2次元特徴点の第1のセットを選択させる、
請求項7に記載のシステム。
【請求項9】
前記プログラムコードが、前記プロセッサによる実行に応答して、該プロセッサに、さらに、前記3次元モデルの前記2次元スナップショットを取得するために使用されるアルゴリズムに基づいて、前記2次元スナップショット上の前記2次元特徴点の前記第1のセットを、前記3次元モデルの前記3次元特徴点の前記第1のセットに変換するために逆の動作を実行させる、
請求項8に記載のシステム。
【請求項10】
前記患者の前記画像情報が、該患者の2次元画像情報および該患者に関連する深度情報を含む、
請求項7に記載のシステム。
【請求項11】
前記2次元特徴点の第2のセットが、前記患者の前記2次元画像情報において選択される、
請求項10に記載のシステム。
【請求項12】
前記2次元特徴点の第2のセットを前記3次元特徴点の第2のセットに変換することが、前記深度情報に基づく、
請求項11に記載のシステム。
【発明の詳細な説明】
【関連出願の相互参照】
【0001】
本出願は、2019年3月19日に出願された米国仮出願第62/820,804号の利益を主張し、その全体が参照により組み込まれる。
【技術分野】
【0002】
本発明の実施形態は、一般に、手術経路上の1つまたは複数の点を決定する方法およびシステムに関する。
【背景技術】
【0003】
本明細書で特に明記しない限り、このセクションで説明するアプローチは、本出願の特許請求の範囲の先行技術ではなく、このセクションに含めることによって先行技術であるとは認められない。
【0004】
手術では手術経路の計画が重要である。手術経路には、患者から離れた安全点および術前点、患者の組織の入口点、手術の目標における目標点など、複数の点が含まれ得る。
【0005】
ロボット手術によって手術経路を正確に制御できる。手術の前に、患者は医用スキャン(例えば、CTまたはMRI、PET、超音波など)を受ける。目的の解剖学的領域への手術経路が計画される。人工知能を使用して、最小限の損傷で最適な経路を外科医に提案することができる。手術を行うには、計画された手術経路に沿って正確に手術を行うために、患者の位置を医用スキャンの視点に合わせることがある。従来のアプローチは基準マークへの接着またはねじ止めに依拠しており、これは広く採用されていない。
【図面の簡単な説明】
【0006】
図1】手術中に遭遇する可能性のあるいくつかの点の間の空間的関係を示す例示的な図である。
図2】患者の手術経路を決定する例示的なプロセスを示すフロー図である。
図3】手術経路計算の例を示す図である。
図4A】最初に収集された、患者に関する2次元画像である。
図4B】2回目に収集された、患者に関する2次元画像である。
図5】2次元スナップショットの画像である。
図6】2次元顔画像の画像である。
図7】構築された3次元モデル座標系から3次元カメラ座標系への座標変換を示す。
図8】座標を変換する例示的なプロセスを示す流れ図である。
図9】本開示のいくつかの実施形態に従って全て配置された、ロボットアーム座標系において光学装置を位置合わせするための例示的なプロセスを示す流れ図である。
【発明を実施するための形態】
【0007】
以下の詳細な説明では、本明細書の一部を形成する添付図面を参照する。図面では、文脈からそうでないことが示されていない限り、同様の記号は通常、同様の成分を示す。詳細な説明、図面、および特許請求の範囲に記載されている例示的な実施形態は、限定することを意図していない。本明細書に提示される主題の精神または範囲から逸脱することなく、他の実施形態を利用することができ、他の変更を加えることができる。本開示の態様は、本明細書に一般的に記載され、図に例示されるように、多種多様な異なる構成で配置、置換、組み合わせ、および設計することができ、その全てが本明細書で明示的に企図されることは容易に理解されよう。
【0008】
図1は、本開示のいくつかの実施形態に従って配置された、手術中に遭遇する可能性のあるいくつかの点の間の空間的関係を示す例示的な図である。図1において、手術経路110は、安全点120、術前点130、入口点140、および目標点150を含み得る。
【0009】
図2は、本開示のいくつかの実施形態に従って構成された、患者の手術経路を決定するための例示的なプロセス200を示す流れ図である。プロセス200は、ブロック210、220、230、240、250、260、270、280および/または290によって示されるように、ハードウェア、ソフトウェアおよび/またはファームウェアによって実行され得る1つまたは複数の動作、機能、またはアクションを含み得る。様々なブロックは、説明する実施形態に限定されることを意図していない。概説された工程および動作は例としてのみ提供され、工程および動作の一部はオプションであり、組み合わせてより少ない工程および動作にしてもよいし、開示される実施形態の本質を損なうことなく追加の工程および動作に拡張してもよい。ブロックは連続した順序で例示されているが、これらのブロックは、並行して、および/または本明細書で説明する順序とは異なる順序で実行されてもよい。
【0010】
プロセス200は、ブロック210「医用画像スキャンに基づいて3Dモデルを構築する」で開始することができる。手術が行われる前に、いくつかの医用撮像技術を使用して患者の状態のスナップショットを取り込み、手術計画を策定することができる。手術計画は、上記の計画された手術経路を含み得る。例えば、外科医は、手術目標の医用画像スキャン(例えば、CTまたはMRI)を指示してもよい。そのような医用画像スキャンは、手術の数日前(例えば、3~5日前)に行われてもよい。3次元モデルは、いくつかの既知のアプローチを使用して医用画像スキャンデータに基づいて構築され得る。したがって、計画された手術経路上の点を3次元モデルにおいて識別することができる。
【0011】
いくつかの実施形態では、人工知能エンジンを使用して、患者への物理的損傷を最小限に抑えた1つまたは複数の計画された手術経路を外科医に提案することができる。患者のCTまたはMRIスキャンに基づいて、人工知能エンジンは、1つまたは複数の最適な計画された手術経路を提案することができる。図3は、本開示のいくつかの実施形態に従って配置された目標点320に到達するための計画された手術経路310の計算の一例を示す。計算には、標準の脳アトラスデータを変換すること、および脳野を識別するためにそれを患者の医用スキャン画像に位置合わせすることが含まれ得る。いくつかの脳野の例には、運動連合野331、表現発話野332、高次精神機能野333、運動野334、感覚野335、体性感覚連合野336、包括的言語野337、視覚野338、受容発話野338、受容発話野339、連合野341、および小脳野342が含まれる。さらに、視床下核などの一般的な目標組織は自動的に識別されてもよい。さらに、上記の各脳野に費用関数を割り当てて、人工知能エンジンが目標組織への1つまたは複数の計画された手術経路を提案してもよい。血管は、TOF(飛行時間MRI)データから識別され得る。外側の脳の境界上の点は、入口点の候補である。
【0012】
ブロック210の後には、ブロック220「2Dスナップショットを生成する」が続き得る。いくつかの実施形態では、2次元スナップショットは、ブロック210で構築された3次元モデルに基づいて生成される。いくつかの実施形態では、2次元スナップショットは、患者の3次元モデルの正面図である。患者の正面図は、患者の少なくともいくつかの顔の特徴を含む。
【0013】
ブロック220の後には、ブロック230「患者の2D顔画像を取得するためにロボットアームを駆動する」が続き得る。いくつかの実施形態では、少なくとも2つの2次元光学装置(例えば、カメラおよび/またはスキャナ)がロボットアームに固定される。ロボットアームを異なる位置に駆動することにより、2つの2次元光学装置は、患者に関連する異なる画像を取り込むことができる。いくつかの実施形態では、2つの2次元光学装置の各々は、患者に関連する2次元画像を収集するように構成される。いくつかの他の実施形態では、2つの2次元光学装置は、組み合わせて、患者に関連する深度情報を収集するように構成される。したがって、少なくとも2つの2次元光学装置は、患者に関連する2次元画像または患者に関連する3次元画像のいずれかを収集することができる。
【0014】
図4Aに関連して、画像410は、最初に収集された患者に関連する2次元画像である。画像410は、座標(X、Y)を有する画像中心411を有する。人工知能エンジンを使用して、画像410内の患者を識別することができる。いくつかの実施形態では、人工知能エンジンは、画像410のフレーム413内の患者を識別することができる。さらに、人工知能エンジンは、画像410内の患者の顔中心点415を識別することができる。顔中心点415は、座標(x、y)を有することができる。いくつかの実施形態では、ロボットアームは、少なくとも第1のオフセット(X-x)および第2のオフセット(Y-y)に基づいて駆動される。
【0015】
例えば、第1の時点で、第1のオフセットまたは第2のオフセットのいずれかが1つまたは複数の所定の閾値よりも大きく、ロボットアームは、第1のオフセットおよび第2のオフセットを減少させるために別の位置に駆動される。
【0016】
いくつかの実施形態では、図4Bに関連して、ロボットアームが第2の時点で第1の更新位置に駆動されたことに応答して、画像420は、ロボットアーム上の2次元光学装置によって収集された患者に関連する2次元画像である。画像420は、更新された座標(X、Y)を有する画像中心421を有する。人工知能エンジンを使用して、画像420内の患者を識別することができる。いくつかの実施形態では、人工知能エンジンは、画像420のフレーム423内の患者を識別することができる。さらに、人工知能エンジンは、画像420内の患者の顔中心点425を識別することができる。顔中心点425は、更新された座標(x、y)を有することができる。いくつかの実施形態では、第1のオフセット(X-x)および第2のオフセット(Y-y)は両方とも、1つまたは複数の所定の閾値未満である。
【0017】
いくつかの実施形態では、第3の時点の第1の更新位置で、人工知能エンジンを使用して、少なくとも3つの特徴点426,427および428を識別することができる。2次元光学装置は、患者に関連する深度情報を収集するように構成される。深度情報を、3次元空間内の第1の平面を画定することができる特徴点426,427および428に割り当てることができる。いくつかの実施形態では、ロボットアームは、ロボットアーム上の2次元光学装置が3次元空間内の第1の平面に実質的に平行な第2の平面上にあるように、第4の時点で回転して第2の更新位置に移動するように駆動される。2次元光学装置の動作パラメータに関連する所定の範囲内の第2の更新位置における画像420の平均深度に応答して、画像420は、患者の2D顔画像として取得され、方法200はブロック240に進む。
【0018】
ブロック240「2Dスナップショットおよび2D顔画像内の2D特徴点を選択する」において、人工知能エンジンを使用して、ブロック220で生成された2次元スナップショット内の2次元特徴点の第1のセットと、ブロック230で撮影された患者の2次元顔画像(例えば、画像420)内の2次元特徴点の第2のセットを選択することができる。
【0019】
図5に関連して、画像500は、ブロック220において生成された2次元スナップショットである。いくつかの実施形態では、人工知能エンジンを使用して、眉間501、右内眼角点502および左内眼角点503を識別することができるが、これは、これらの点が画像500において識別がより容易であるためである。しかしながら、眉間501、右内眼角点502および左内眼角点503は、様々な人種の人々にとって同じ2次元平面上にない場合がある。画像500が2次元スナップショットであると仮定すると、眉間501、右内眼角点502および左内眼角点503は、画像500上の2次元特徴点に適していない。それにもかかわらず、解剖学的構造に基づいて、様々な人種の人々の顔面上の小領域510は統計的に平坦である。したがって、いくつかの実施形態では、人工知能エンジンを使用して、眉間501、右内眼角点502および左内眼角点503をそれぞれ通過し、領域510で交差する3つの線520,530および540を生成する。いくつかの実施形態では、交差点511は、2次元特徴点として選択される。さらに、いくつかの実施形態では、線530上の領域510内の点512と、線540上の領域510内の点513も2次元特徴点として選択される。点511,512および513は、2次元特徴点の第1のセットであってもよい。いくつかの実施形態では、領域510内の追加の2D点を選択して、2次元特徴点の第1のセットの数を増やすことができる。
【0020】
図6に関連して、画像600は、ブロック230において撮影された2次元顔画像である。いくつかの実施形態では、人工知能エンジンを使用して、眉間601、右内眼角点602および左内眼角点603を識別することができるが、これは、これらの点が画像600において識別がより容易であるためである。しかしながら、眉間601、右内眼角点602および左内眼角点603は、様々な人種の人々にとって同じ2次元平面上にない場合がある。画像600が2次元顔画像であると仮定すると、眉間601、右内眼角点602、および左内眼角点603は、画像600上の2次元特徴点に適していない。同様に、解剖学的構造に基づいて、様々な人種の人々の顔面上の小領域610は統計的に平坦である。それにもかかわらず、いくつかの実施形態では、人工知能エンジンを使用して、眉間601、右内眼角点602および左内眼角点603をそれぞれ通過し、領域610で交差する3本の線620,630および640を生成する。いくつかの実施形態では、交差点611は、2次元特徴点として選択される。さらに、いくつかの実施形態では、線630上の領域610内の点612と、線640上の領域610内の点613も2次元特徴点として選択される。点611,612および613は、2次元特徴点の第2のセットであってもよい。いくつかの実施形態では、領域610内の追加の2D点を選択して、2次元特徴点の第2のセットの数を増やすことができる。
【0021】
ブロック240の後には、ブロック250「2D特徴点の第1のセットを3D特徴点の第1のセットに変換する」が続き得る。いくつかの実施形態では、ブロック250において、2次元特徴点の第1のセット(例えば、点511,512および513)は、3次元特徴点の第1のセットに変換される。上述したように、2次元特徴点の第1のセットは、構築された3次元モデルで生成された2次元スナップショットにおいて選択される。構築された3次元モデルの2次元スナップショットを取得したアルゴリズムに基づいて、2次元スナップショット(例えば、ブロック220で生成されたスナップショット)の2次元特徴点の第1のセットを構築された3次元モデル(例えば、ブロック210で生成された3次元モデル)の3次元特徴点の第1のセットに変換するために逆の動作を実行することができる。いくつかの実施形態では、3次元特徴点の第1のセットは、反復最近接点(ICP)アルゴリズムを使用した後続のマッチングを可能にする第1の初期3次元座標を識別することができる。
【0022】
ブロック250の後には、ブロック260「2D特徴点の第2のセットを3D特徴点の第2のセットに変換する」が続き得る。いくつかの実施形態では、ブロック260において、2次元特徴点の第2のセット(例えば、点611,612および613)は、3次元特徴点の第2のセットに変換される。上述したように、患者に関連する深度情報は、2次元光学装置によって収集することができる。いくつかの実施形態では、深度情報を2次元特徴点の第2のセットに追加して、2次元特徴点の第2のセットを3次元特徴点の第2のセットに変換することができる。いくつかの実施形態では、3次元特徴点の第2のセットは、反復最近接点(ICP)アルゴリズムを使用した後続のマッチングを可能にする第2の初期3次元座標を識別することができる。
【0023】
ブロック260の後に、ブロック270「3次元特徴点の第1のセットと3次元特徴点の第2のセットとの間で画像マッチングを実行する」が続き得る。いくつかの実施形態では、3次元特徴点の第1のセットおよび3次元特徴点の第2のセットは、3次元特徴点の第1のセットと3次元特徴点の第2のセットとを整列させる関係を決定するためにマッチングされ、場合によっては、3次元特徴点の2つのセット間の差を最小化するために反復的にマッチングされる。
【0024】
明確にするために、以下の説明は、2つの2次元光学装置(例えば、2つの2次元カメラ)の非限定的な一例と、2つの2次元光学装置に関連する3次元座標系、例えば3次元カメラ座標系を主に使用して、本開示の様々な実施形態を説明する。
【0025】
ブロック270の後には、ブロック280「座標を変換する」が続き得る。ブロック280では、構築された3次元モデルの3次元特徴点の第1のセットが、その元の座標系(すなわち、3次元モデル座標系)から、2つの2次元光学装置によって撮影された画像の座標(すなわち、3次元カメラ座標系)に変換される。変換は、反復最近接点(ICP)などのいくつかの画像比較アプローチに基づいてもよい。ブロック280は、3次元カメラ座標系上の全ての点がロボットアームの座標(すなわち、ロボットアーム座標系)に変換される、追加の座標変換をさらに含むことができる。座標変換の詳細については、以下でさらに説明する。
【0026】
ブロック280の後には、ブロック290「手術経路を決定する」が続き得る。ブロック290において、3次元モデル座標系における計画された手術経路の座標は、ロボットアーム座標系に変換され得る。したがって、ロボットアームは、計画された手術経路上の安全点、術前点、入口点、および/または目標点に移動することができる。
【0027】
いくつかの実施形態では、例示的なプロセス200は、限定ではないが脳手術、神経系手術、内分泌手術、眼科手術、耳手術、呼吸器手術、循環器系手術、リンパ管手術、胃腸手術、口腔および歯科手術、泌尿器手術、生殖手術、骨、軟骨および関節手術、筋肉/軟組織手術、乳房手術、皮膚手術など、様々な種類の手術に適用され得る。
【0028】
要するに、少なくとも2つの2次元カメラまたはスキャナを使用して、患者の顔の特徴を取得することができる。次いで、顔の特徴を、医用画像スキャンに関連する3次元モデルの2次元スナップショットと比較することができる。2次元特徴点の第1のセットは、2次元スナップショットにおいて選択され、2次元特徴点の第2のセットは、2次元カメラまたはスキャナによってそれぞれ取得された2次元の患者の顔画像において選択される。比較するために、2次元特徴点の第1のセットおよび2次元特徴点の第2のセットは、それぞれ、3次元モデルの3次元特徴点の第1のセットおよび3次元特徴点の第2のセットに変換される。いくつかの実施形態では、例示的なプロセス200は、脳手術、神経系手術、内分泌手術、眼科手術、耳手術、呼吸器手術、循環器系手術、リンパ管手術、胃腸手術、口腔および歯科手術、泌尿器手術、生殖手術、骨、軟骨および関節手術、筋肉/軟組織手術、乳房手術、皮膚手術など、様々な種類の手術に適用され得る。
【0029】
図7は、本開示のいくつかの実施形態による、構築された3次元モデル座標系から3次元カメラ座標系への例示的な座標変換を示す。この図について、図8に関連して以下でさらに説明する。
【0030】
図8は、本開示のいくつかの実施形態による、座標を変換する例示的なプロセス800を示す流れ図である。プロセス800は、ブロック810、820、830および/または840によって示されるように、ハードウェア、ソフトウェアおよび/またはファームウェアによって実行され得る1つまたは複数の動作、機能、またはアクションを含み得る。様々なブロックは、説明する実施形態に限定されることを意図していない。概説された工程および動作は例としてのみ提供され、工程および動作の一部はオプションであり、組み合わせてより少ない工程および動作にしてもよいし、開示される実施形態の本質を損なうことなく追加の工程および動作に拡張してもよい。ブロックは連続した順序で例示されているが、これらのブロックは、並行して、および/または本明細書で説明する順序とは異なる順序で実行されてもよい。
【0031】
図7に関連して、ブロック810で初期行列を得る。いくつかの実施形態では、第1の初期行列TMRIおよび第2の初期行列Tcameraを得る。いくつかの実施形態では、
【数1】
式中、
【数2】
【数3】
【数4】
VectorXxはVectorのx成分、VectorXyはVectorのy成分、VectorXzはVectorのz成分である。同様に、VectoryxはVectorのx成分、VectoryyはVectorのy成分、VectoryzはVectorのz成分である。VectorZxはVectorのx成分、VectorZyはVectorのy成分、VectorZzはVectorのz成分である。P1はP1のx座標、P1はP1のy座標、P1はP1のz座標である。
【0032】
いくつかの他の実施形態では、
【数5】
式中、
【数6】
【数7】
【数8】
VectorX’xはVectorX’のx成分、VectorX’yはVectorX’のy成分、VectorX’zはVectorX’のz成分である。同様に、Vectory’xはVectory’のx成分、Vectory’yはVectory’のy成分、Vectory’zはVectory’のz成分である。VectorZ’xはVectorZ’のx成分、VectorZ’yはVectorZ’のy成分、VectorZ’zはVectorZ’のz成分である。P1’はP1’のx座標、P1’はP1’のy座標、P1’はP1’のz座標である。
【0033】
ブロック810の後に、ブロック820「変換行列を得る」が続き得る。いくつかの実施形態では、変換行列は
であってもよく、P1、P2およびP3は、
に従って3次元カメラ座標系に変換される。P1、P2およびP3がそれぞれP1transformed、P2transformed、P3transformedに変換されると仮定すると、P1transformedおよびP1’、P2transformedおよびP2’、ならびにP3transformedおよびP3’の間の差異に関連付けられた距離メトリックは、いくつかの実行可能なICPアプローチに基づいて計算される。
【0034】
ブロック820の後にブロック830が続き得る。ブロック830では、距離メトリックの変化が閾値に達しているかどうかが決定される。閾値に達していない場合、ブロック830はブロック820に戻り、そこでP1transformed、P2transformed、およびP3transformedが選択されて、
が更新され、最終的に新しい変換行列
が得られる。閾値に達している場合、ブロック830の後にブロック840が続き得る。
【0035】
ブロック840では、3次元カメラ座標系からロボットアーム座標系に点を変換するための変換行列が得られる。いくつかの実施形態では、変換行列は、
【数9】
式中、
【数10】
【数11】
【数12】
【数13】
はロボットアーム座標系のカメラ中心(例えば、カメラ座標系の原点)に関連する回転ベクトルであり、
kxは
のx成分であり、kyは
のy成分であり、kzは
のz成分である。Pcxはカメラ中心のx座標、Pcyはカメラ中心のy座標、Pczはロボットアーム座標系におけるカメラ中心のz座標である。いくつかの実施形態において、ロボットアーム座標系でカメラ中心を位置合わせするための例示的なアプローチについて、図9に関連して以下でさらに説明する。
【0036】
変換行列に従って、3次元モデル座標系の手術経路上の点はロボットアーム座標系に変換され得る。したがって、ロボットアームは、手術経路上の1つまたは複数の点に移動することができる。
【0037】
いくつかの実施形態において、図9は、ロボットアーム座標系で光学装置(例えば、カメラ)を位置合わせする例示的なプロセス900を示す流れ図である。いくつかの実施形態では、光学装置はロボットアームのフランジに取り付けられてもよい。上述のように、kx、ky、kz、Pcx、Pcy、およびPczを有するロボットアーム座標系で光学装置を説明するために、まず、光学装置に関連付けられた点(例えば、カメラ座標系の原点)をプロセス900に従ってロボットアーム座標系に位置合わせすることができる。プロセス900は、ブロック910、920、930および/または940によって示されるように、ハードウェア、ソフトウェアおよび/またはファームウェアによって実行され得る1つまたは複数の動作、機能、またはアクションを含み得る。様々なブロックは、説明する実施形態に限定されることを意図していない。概説された工程および動作は例としてのみ提供され、工程および動作の一部はオプションであり、組み合わせてより少ない工程および動作にしてもよいし、開示される実施形態の本質を損なうことなく追加の工程および動作に拡張してもよい。ブロックは連続した順序で例示されているが、これらのブロックは、並行して、および/または本明細書で説明する順序とは異なる順序で実行されてもよい。
【0038】
プロセス900は、ブロック910で開始することができる。ブロック910で、ロボットアームは開始位置に移動するように構成される。いくつかの実施形態では、開始位置は、ロボットアームの基準点(例えば、ロボットアームベース)に隣接して対向している。いくつかの実施形態では、開始位置で、光学装置は、ロボットアームの基準点の1つまたは複数の画像を取り込むように構成されている。取り込まれた画像は、光学装置の点とロボットアームの基準点との空間的関係に関連付けられる。
【0039】
ブロック910の後にブロック920が続き得る。ブロック920では、取り込まれた画像に基づいて、ロボットアームの基準点のメッシュが得られる。
【0040】
ブロック920の後にブロック930が続き得る。ブロック930では、ロボットアームの特定の物理情報に基づいて、ロボットアームの基準点の3次元モデルが構築される。いくつかの実施形態では、物理情報は、ロボットアームの要素の寸法、向き、および/または幾何学的特徴を含んでもよい。
【0041】
ブロック930の後にブロック940が続き得る。ブロック940では、得られたメッシュと構築された3次元モデルとをマッチングさせる。マッチングには、いくつかの技術的に実行可能なアプローチを使用することができ、例えば、所与の収束精度を満たすために、得られたメッシュの点と構築された3次元モデルの点とをマッチングさせる反復最近接点アプローチが使用され得る。所与の収束精度が満たされることに応答して、光学装置の点とロボットアームの基準点との空間的関係を計算できる。この計算に基づいて、カメラの点をロボットアーム座標系に位置合わせし、変換することができる。
【0042】
前述の詳細な説明では、ブロック図、フローチャート、および/または例を使用して、デバイスおよび/またはプロセスの様々な実施形態を説明した。そのようなブロック図、フローチャート、および/または例が1つまたは複数の機能および/または動作を含む限り、そのようなブロック図、フローチャート、または例内の各機能および/または動作は個別および/または集合的に、広範囲のハードウェア、ソフトウェア、ファームウェア、またはそれらの実質的にあらゆる組み合わせによって実装できることが当業者には理解されよう。いくつかの実施形態において、本明細書に記載の主題のいくつかの部分は、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、デジタルシグナルプロセッサ(DSP)、または他の統合フォーマットを介して実装され得る。しかし、当業者は、本明細書に開示される実施形態のいくつかの態様は、全体または一部において、1つまたは複数のコンピュータで実行される1つまたは複数のコンピュータプログラムとして(例えば、1つまたは複数のコンピュータシステムで実行される1つまたは複数のプログラムとして)、1つまたは複数のプロセッサで実行される1つまたは複数のプログラムとして(例えば、1つまたは複数のマイクロプロセッサで実行される1つまたは複数のプログラムとして)、ファームウェアとして、またはそれらの実質的にあらゆる組み合わせとして、集積回路において同等に実装でき、回路の設計および/またはソフトウェアおよび/またはファームウェアのコードの記述は、本開示に照らして当業者の技術の範囲内に十分にあるであろうことを認識するであろう。さらに、当業者は、本明細書に記載の主題のメカニズムが様々な形態のプログラム製品として配信可能であり、本明細書に記載の主題の例示的な実施形態が、実際に配信を実行するために使用される信号伝達媒体の特定の種類にかかわらず適用されることを理解するであろう。信号伝達媒体の例には、フロッピーディスク、ハードディスクドライブ、コンパクトディスク(CD)、デジタル多用途ディスク(DVD)、デジタルテープ、コンピュータメモリなどの記録可能なタイプの媒体、ならびにデジタルおよび/またはアナログ通信媒体など(例えば、光ファイバケーブル、導波路、有線通信リンク、無線通信リンクなど)の伝送タイプの媒体が含まれるがこれらに限定されない。
【0043】
上記から、本開示の様々な実施形態が例示の目的で本明細書に記載されており、本開示の範囲および精神から逸脱することなく様々な改変がなされ得ることが理解されよう。したがって、本明細書で開示された様々な実施形態は、限定することを意図するものではない。
図1
図2
図3
図4A
図4B
図5
図6
図7
図8
図9