IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ マコ サージカル コーポレーションの特許一覧

特許7134872ロボット外科処置中に物理的オブジェクトの識別と追跡を行うシステムおよび方法
<>
  • 特許-ロボット外科処置中に物理的オブジェクトの識別と追跡を行うシステムおよび方法 図1
  • 特許-ロボット外科処置中に物理的オブジェクトの識別と追跡を行うシステムおよび方法 図2
  • 特許-ロボット外科処置中に物理的オブジェクトの識別と追跡を行うシステムおよび方法 図3
  • 特許-ロボット外科処置中に物理的オブジェクトの識別と追跡を行うシステムおよび方法 図4
  • 特許-ロボット外科処置中に物理的オブジェクトの識別と追跡を行うシステムおよび方法 図5
  • 特許-ロボット外科処置中に物理的オブジェクトの識別と追跡を行うシステムおよび方法 図6
  • 特許-ロボット外科処置中に物理的オブジェクトの識別と追跡を行うシステムおよび方法 図7
  • 特許-ロボット外科処置中に物理的オブジェクトの識別と追跡を行うシステムおよび方法 図8
  • 特許-ロボット外科処置中に物理的オブジェクトの識別と追跡を行うシステムおよび方法 図9
  • 特許-ロボット外科処置中に物理的オブジェクトの識別と追跡を行うシステムおよび方法 図10
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2022-09-02
(45)【発行日】2022-09-12
(54)【発明の名称】ロボット外科処置中に物理的オブジェクトの識別と追跡を行うシステムおよび方法
(51)【国際特許分類】
   A61B 34/20 20160101AFI20220905BHJP
   B25J 13/08 20060101ALI20220905BHJP
【FI】
A61B34/20
B25J13/08 A
【請求項の数】 17
(21)【出願番号】P 2018561490
(86)(22)【出願日】2017-05-23
(65)【公表番号】
(43)【公表日】2019-08-29
(86)【国際出願番号】 US2017033962
(87)【国際公開番号】W WO2017205351
(87)【国際公開日】2017-11-30
【審査請求日】2020-04-30
(31)【優先権主張番号】62/340,176
(32)【優先日】2016-05-23
(33)【優先権主張国・地域又は機関】US
(73)【特許権者】
【識別番号】507280594
【氏名又は名称】マコ サージカル コーポレーション
(74)【代理人】
【識別番号】100099623
【弁理士】
【氏名又は名称】奥山 尚一
(74)【代理人】
【識別番号】100107319
【氏名又は名称】松島 鉄男
(74)【代理人】
【識別番号】100125380
【弁理士】
【氏名又は名称】中村 綾子
(74)【代理人】
【識別番号】100142996
【弁理士】
【氏名又は名称】森本 聡二
(74)【代理人】
【識別番号】100166268
【弁理士】
【氏名又は名称】田中 祐
(74)【代理人】
【識別番号】100170379
【弁理士】
【氏名又は名称】徳本 浩一
(74)【代理人】
【識別番号】100180231
【弁理士】
【氏名又は名称】水島 亜希子
(74)【代理人】
【識別番号】100096769
【氏名又は名称】有原 幸一
(72)【発明者】
【氏名】レスラー,パトリック
【審査官】和田 将彦
(56)【参考文献】
【文献】特表2009-509671(JP,A)
【文献】特表2016-512084(JP,A)
【文献】米国特許出願公開第2006/0025677(US,A1)
(58)【調査した分野】(Int.Cl.,DB名)
A61B 34/20
B25J 13/08
(57)【特許請求の範囲】
【請求項1】
標的部位の治療中に避けるべきオブジェクトを追跡するナビゲーションシステムであって、
ロボット装置と、
前記標的部位を治療するための器具であって、前記ロボット装置に取り付け可能な器具と、
記避けるべきオブジェクトに関連して前記ロボット装置と共に動かすことができるように、前記ロボット装置と前記器具のうちいずれか一方に取り付けられたビジョン装置であって、前記ロボット装置を動かした場合に前記ビジョン装置が複数の自由度で動かされることによって可能となる複数の視点から取り込んだ前記避けるべきオブジェクトの複数のビジョンデータセットを生成するように構成されているビジョン装置と、
前記ビジョン装置と通信を行うコンピュータシステムであって、前記ビジョンデータセットにおいて識別可能な前記避けるべきオブジェクトの1つ以上の特徴に基づいて、前記避けるべきオブジェクトに、前記器具の動作を制限するために利用される仮想境界を少なくとも部分的に規定する仮想オブジェクトを仮想的に関連付けるように構成されている少なくとも1つのプロセッサを有するコンピュータシステムと
を備えるナビゲーションシステム。
【請求項2】
前記ビジョン装置がカメラを備えている、請求項1に記載のナビゲーションシステム。
【請求項3】
前記コンピュータシステムが、前記ビジョンデータセットの生成時に前記ビジョン装置がとる各場所での前記ビジョン装置の位置および向きを追跡するように構成されている、請求項1または2に記載のナビゲーションシステム。
【請求項4】
前記コンピュータシステムが、前記避けるべきオブジェクトの前記1つ以上の特徴に基づいて、前記避けるべきオブジェクトの固有性を特定するように構成されている、請求項1~3のいずれか1項に記載のナビゲーションシステム。
【請求項5】
前記コンピュータシステムが、前記避けるべきオブジェクトの固有性に基づいて、前記避けるべきオブジェクトに前記仮想オブジェクトを関連付けるように構成されている、請求項4に記載のナビゲーションシステム。
【請求項6】
前記仮想オブジェクトが、3次元モデル、2次元の面、点群、ボクセル立体、メッシュ面、平面、線、単点のうちの1つ以上を含んでいる、請求項5に記載のナビゲーションシステム。
【請求項7】
前記1つ以上の特徴が、前記ビジョンデータセットにおいて識別可能な特徴セットを含み、
前記コンピュータシステムが前記特徴セットの位置および向きを特定して、前記避けるべきオブジェクトに関連付けられた第1の座標系の位置および向きを確立するように構成されている、請求項1~6のいずれか1項に記載のナビゲーションシステム。
【請求項8】
前記ビジョン装置が、前記ロボット装置と前記器具のうちいずれか一方に対して固定されて、前記第1の座標系を前記ロボット装置と前記器具のうちの前記一方の第2の座標系に変換することができる、請求項7に記載のナビゲーションシステム。
【請求項9】
前記コンピュータシステムが座標変換器を備えており、
前記座標変換器は、前記第1の座標系と前記第2の座標系とのうちの1つを、前記コンピュータシステムが前記避けるべきオブジェクトに対する前記器具の相対的な動きを追跡することができるように、前記第1の座標系または前記第2の座標系のうちの別の座標系に変換するように構成されている、請求項8に記載のナビゲーションシステム。
【請求項10】
前記コンピュータシステムが、前記避けるべきオブジェクトに対する前記器具の相対的な動きを追跡することによって、前記避けるべきオブジェクトを避けながら前記標的部位の組織を治療する前記器具の動きを可能とするように構成されている、請求項9に記載のナビゲーションシステム。
【請求項11】
前記コンピュータシステムが、前記1つ以上の特徴に基づいて、前記避けるべきオブジェクトに関連する情報を特定するように構成されている、請求項1~10のいずれか1項に記載のナビゲーションシステム。
【請求項12】
前記情報が、物理的オブジェクト識別情報と、物理的オブジェクトの種類と、物理的オブジェクトの大きさと、物理的オブジェクトの寸法と、物理的オブジェクトのシリアル番号と、物理的オブジェクトの製造業者と、仮想オブジェクト識別情報と、仮想オブジェクトの種類と、仮想オブジェクトの大きさと、仮想オブジェクトの寸法とのうちの1つ以上を含んでいる、請求項11に記載のナビゲーションシステム。
【請求項13】
前記コンピューシステムは、ビゲーションポインタまたは前記器具の少なくとも1つが前記避けるべきオブジェクトに沿って移動するときに、前記ナビゲーションポインタと前記器具のうち少なくとも一方を使用して前記仮想オブジェクトを定義する、請求項1~12のいずれか1項に記載のナビゲーションシステム。
【請求項14】
前記ロボット装置は、自律モードで動作するように構成され、
前記ロボット装置が前記自律モードで動作している場合には、前記ビジョン装置が自律的に動く、請求項1~13のいずれか1項に記載のナビゲーションシステム。
【請求項15】
標的部位の治療中に避けるべきオブジェクトを追跡するナビゲーションシステムによって実行される方法であって、該ナビゲーションシステムは、ビジョン装置と、前記標的部位を治療するためにロボット装置に取り付け可能な器具と、前記ビジョン装置と通信するコンピュータシステムとを含み、前記ビジョン装置は、前記ロボット装置または前記器具に取り付けられており、
前記ビジョン装置が、前記ロボット装置の動きの結果得られる前記ビジョン装置の動きに応じて、複数の視点から取り込んだ前記避けるべきオブジェクトの複数のビジョンデータセットを生成するステップと、
前記コンピュータシステムが、前記ビジョンデータセットにおいて識別可能な前記避けるべきオブジェクトの1つ以上の特徴に基づいて、前記避けるべきオブジェクトに、前記器具の動作を制限するために利用される仮想境界を部分的に規定する仮想オブジェクトを仮想的に関連付けるステップと
を含む方法。
【請求項16】
前記ロボット装置のコントローラは、前記避けるべきオブジェクトがツール経路内に配置された場合に、該ツール経路を調整するか、または前記器具の移動を停止するものである、請求項1~14のいずれか一項に記載のナビゲーションシステム。
【請求項17】
前記ナビゲーションシステムは、前記避けるべきオブジェクトが計画されたツール経路に干渉することをユーザに警告し、前記避けるべきオブジェクトを移動するようにユーザに通知するものである、請求項1~14のいずれか一項に記載のナビゲーションシステム。
【発明の詳細な説明】
【技術分野】
【0001】
関連出願
本出願は2016年5月23日に出願した米国特許仮出願第62/340176号の優先権の利益を主張するものであり、そのすべての開示内容は引用することによって本明細書の一部をなすものとする。
【0002】
本発明は、一般に、ロボット外科処置中に物理的オブジェクトの識別と追跡を行うシステムおよび方法に関する。
【背景技術】
【0003】
ナビゲーションシステムは、ユーザがオブジェクト(対象物)の位置を正確に特定することを支援するものである。例えば、ナビゲーションシステムは、工業用途や、航空宇宙用途、医療用途で使用されている。医療分野においては、ナビゲーションシステムは、外科医が患者の標的部位に対して外科器具を正確に配置するのを支援する。通常、標的部位は、組織除去などの何らかの形の治療を必要としている部位である。従来のナビゲーションシステムでは、複数のトラッカと協働するローカライザを使用して、例えば除去すべき骨の体積などの、外科器具や標的部位に関連する位置データ、向きデータまたはその両方のデータが提供されている。通常、ローカライザは、トラッカを視野に収めるように配置される。各トラッカは、外科器具や患者と一緒に動くように外科器具や患者に対して固定される。患者に取り付けられるトラッカの多くは、治療中の骨に対して取り付けられるが、骨が硬質であるため、標的部位に対するトラッカの固定的な関係が維持される。そして、外科器具と患者に対してそれぞれ別個のトラッカを使用することによって、外科器具の治療端を標的部位に正確に配置することが可能となる。
【0004】
標的部位の近くには、開創器などの、外科手術中に避けるべき物理的オブジェクト(physical object)が配置される場合が多い。こうした開創器などの物理的オブジェクトは、例えば、トラッカを別途用いることによって、外科器具と同じ方法で追跡することもできるが、開創器などの物理的オブジェクト用にトラッカを追加すれば、特に、ローカライザの追跡対象のオブジェクトの数が増えてしまうなどのため、ナビゲーションシステムのコストや複雑性の大幅な増大につながりかねない。さらに、こうした物理的オブジェクトは通常、器具や患者に関連付けられたトラッカに対して動くことができるため、上述のようなトラッカを基準に、これらの追加の物理的オブジェクトを追跡するのは容易ではない。この点に関してこれまで、ローカライザに取り付けるなどの方法でローカライザに対して固定されたビデオカメラで取り込んだ画像に対して、オブジェクト認識技術を適用することによって、これら追加の物理的オブジェクトを追跡することが提案されている。しかしながら、この手法は、計算量が多く、難しい可能性がある。
【0005】
ロボット外科手術中、特にロボット装置の自律動作中においては、ナビゲーションシステムが標的部位の近くにあるすべての物理的オブジェクトの位置を識別できていなければ、これらの物理的オブジェクトを避けることは難しい。従って、現在、ロボット装置は、そのような物理的オブジェクトとの衝突がないかを監視し、衝突時には、例えば衝突を示すフォーストルクセンサからのフィードバックに依拠して停止するように制御されている。しかしながら、この場合、衝突が発生して初めてロボット装置が停止されるため望ましくない。衝突の結果、ツールが損傷してしまうか、あるいは例えば、回転バーまたは鋸が開創器に当たるなどの衝突によって、破片が生じて患者を危険にさらしてしまう可能性もある。また、物理的オブジェクトとの衝突によって、外科処置が長引く可能性もある。外科処置の長時間化は、患者の全身麻酔時間の延長につながる可能性があり、あるいは他の形で外科処置に伴うリスクを増大させる可能性もある。
【発明の概要】
【発明が解決しようとする課題】
【0006】
従って、本技術分野においては、ロボット外科手術中の物理的オブジェクトの識別と追跡に対処するシステムおよび方法が必要とされている。
【課題を解決するための手段】
【0007】
一実施形態では、外科処置中に、標的部位の近くにある物理的オブジェクトを追跡するためのナビゲーションシステムが提供される。ナビゲーションシステムは、ロボット装置と、ロボット装置に取り付け可能な器具とを備えている。ロボット装置または器具のうちいずれか一方には、ロボット装置と共に動かすことができるようにビジョン装置が取り付けられている。ビジョン装置は、複数のビジョンデータセットを生成するように構成されている。ビジョンデータセットは、ロボット装置を動かした場合にビジョン装置が複数の自由度で動かされることによって可能となる複数の視点から物理的オブジェクトを取り込んだものである。コンピュータシステムは、ビジョン装置と通信を行う。コンピュータシステムは、ビジョンデータセットにおいて識別可能な物理的オブジェクトの1つ以上の特徴に基づいて、物理的オブジェクトに、仮想オブジェクトを関連付けるように構成されている少なくとも1つのプロセッサを有している。仮想オブジェクトは、器具の仮想境界を少なくとも部分的に規定する。
【0008】
他の実施形態では、物理的オブジェクトを追跡する方法が提供される。本方法は、ロボット装置の動きの結果得られるビジョン装置の動きに応じて、複数のビジョンデータセットを生成するステップを含む。ビジョン装置の動きの結果、複数の視点から物理的オブジェクトのビジョンデータセットが取り込まれる。また、本方法は、ビジョンデータセットにおいて識別可能な物理的オブジェクトの1つ以上の特徴に基づいて、物理的オブジェクトに仮想オブジェクトを関連付けるステップをさらに含む。仮想オブジェクトは、器具の仮想境界を規定する。
【発明の効果】
【0009】
上述のシステムおよび方法によって、いくつかの利点が得られる。例えば、1つ以上の特徴を有する物理的オブジェクトに対してビジョン装置を動かすことにより、コンピュータシステムは、物理的オブジェクトの識別および位置特定を行うと共に、物理的オブジェクトに対する器具の相対的な動きを追跡することが可能となる。物理的オブジェクトの位置推定には、ビジョン装置によって取得する1つのビジョンデータセット(例えば、1つの画像)で十分である場合があるかもしれないが、その場合には、それ以降の複数のビジョンデータセットは追跡結果の向上に用いることができる。これは、外科処置時に器具を使って標的部位を治療している間、物理的オブジェクトを避けるのに役立つ場合がある。さらに、可動性のあるロボット装置または器具にビジョン装置を取り付けることによって、例えば、異なる複数の視点からの複数のビデオのコマのような、異なる複数の視点から物理的オブジェクトの複数のビジョンデータセットを取得する手法を活用した低コストのビジョン装置を利用することができる。そしてこれにより、高コストのトラッカを別途設ける必要なしに、これらの物理的オブジェクトの追跡が可能となる。
【0010】
本発明の利点は、以下の詳細な説明を添付の図面と関連させて考察することにより、よりよく理解され、容易に理解されるであろう。
【図面の簡単な説明】
【0011】
図1】ロボット装置と、ローカライザと、ビジョン装置とを備えるロボット外科手術システムを示す斜視図である。
図2】ロボット外科手術システムを制御するための制御システムを示す模式図である。
図3】ロボット外科手術システムで使用される複数の座標系を示す斜視図である。
図4】ビジョン装置によって視認される物理的オブジェクトと共に外科手術部位を示す説明図である。
図5】物理的オブジェクト上の特徴の一例を示す図である。
図6】物理的オブジェクト上の特徴の他の例を示す図である。
図7】符号化された特徴を含む、特徴群の一例を示す図である。
図8】符号化された特徴を含む、特徴セットの一例を示す図である。
図9】物理的オブジェクトに関連付けられた仮想オブジェクトを示す説明図である。
図10】本発明の方法によって実行されるステップのフローチャートである。
【発明を実施するための形態】
【0012】
図1には、患者22を治療するためのシステム20が示されている。図1では、システム20が、医療施設の手術室などの外科環境にある状態を示している。図示の実施形態において、システム20は、機械加工ステーション24と、案内ステーション26とを備えている。案内ステーション26は、手術室内の様々なオブジェクト(対象物)の動きを追跡するように設定されている。そのようなオブジェクトとしては、例えば、外科器具30や、患者の大腿骨F、患者の脛骨Tなどが挙げられる。案内ステーション26は、それらの相対的な位置および向きをユーザに表示する目的のため、そして場合によっては、大腿骨標的部位TSなどの標的部位に対する外科器具30の動きを制御または制限する目的のために、これらのオブジェクトを追跡する。図1では、外科器具30を機械加工ステーション24の一部として示している。
【0013】
案内ステーション26は、ナビゲーションコンピュータ34を収容するナビゲーションカートアセンブリ32を備えている。ナビゲーションインターフェースは、ナビゲーションコンピュータ34と動作可能に通信を行う。ナビゲーションインターフェースは、滅菌環境の外に設置するように適合された第1のディスプレイ36と、滅菌環境の中に設置するように適合された第2のディスプレイ38とを備えている。ディスプレイ36,38は、ナビゲーションカートアセンブリ32に調整可能に取り付けられている。キーボードやマウスなどの第1の入力装置40や第2の入力装置42を使用して、ナビゲーションコンピュータ34に情報を入力するか、あるいは、ナビゲーションコンピュータ34の何らかの特性に対して他の選択や制御を行うことができる。なお、入力装置としては、タッチスクリーン(図示せず)や音声駆動などの他の入力装置も考えられる。
【0014】
ローカライザ44は、ナビゲーションコンピュータ34と通信を行う。図示の実施形態では、ローカライザ44は光学ローカライザであり、ローカライザカメラユニット46を備えている。ローカライザカメラユニット46は、1つ以上の光学位置センサ50を収容する外部ケーシング48を有している。いくつかの実施形態では、少なくとも2つの光学センサ50が使用され、好ましくは、3つまたはそれ以上の光学センサ50が使用される。光学センサ50は、3つの別体の電荷結合素子(CCD)であってもよい。一実施形態では、3つの1次元CCDが使用される。なお、他の実施形態では、それぞれが1つまたは2つ以上の別体のCCDを有する、複数の別体のローカライザカメラユニットを、手術室内の各所に配置することもできることを理解されたい。CCDによって赤外線信号が検出される。さらに、ローカライザ44が異なるモダリティを採用していてもよく、電磁ローカライザや、RFローカライザ、超音波ローカライザ、あるいはオブジェクトの追跡が可能な他の従来のローカライザであってもよい。
【0015】
ローカライザカメラユニット46は調整可能なアームに取り付けられ、後述するトラッカを光学センサ50の(理想的には障害物がない)視野に収められるように光学センサ50が位置決めされる。いくつかの実施形態では、ローカライザカメラユニット46は、回転関節を中心に回転することによって、少なくとも1つの自由度で調整可能とされている。他の実施形態では、ローカライザカメラユニット46は、約2つ以上の自由度で調整可能とされている。
【0016】
ローカライザカメラユニット46は、光学センサ50と通信して光学センサ50から信号を受信するローカライザカメラコントローラ52を備えている。ローカライザカメラコントローラ52は、有線接続または無線接続(図示せず)のいずれかを介してナビゲーションコンピュータ34と通信を行う。そのような接続の1つとして、高速通信およびアイソクロナスリアルタイムデータ転送用のシリアルバスインターフェース規格であるIEEE1394インターフェースを挙げることができる。接続には、企業独自のプロトコルを使用することもできる。他の実施形態では、光学センサ50は、ナビゲーションコンピュータ34と直接通信を行う。
【0017】
オブジェクトを追跡する目的のため、位置や向きの信号、データ、あるいはその両方が、ナビゲーションコンピュータ34に送信される。ナビゲーションカートアセンブリ32、ディスプレイ36,38、およびローカライザカメラユニット46は、2010年5月25日に「Surgery System(外科手術システム)」の名称で発行されているMalackowski他による米国特許第7725162号明細書に記載されているものと同様のものであってもよい。なお、同文献は、引用することによって本明細書の一部をなすものとする。
【0018】
ナビゲーションコンピュータ34は、いずれも本明細書に記載の機能を実行するために必要な、ディスプレイ36,38と、中央処理装置(CPU)などのプロセッサ62と、メモリ(図示せず)と、(内部または外部の)記憶装置(図示せず)とを有している。ナビゲーションコンピュータ34には、以下に説明するようなソフトウェアがロードされる。このソフトウェアは、ローカライザカメラユニット46から受信した信号を、ローカライザが追跡中のオブジェクトの位置および向きを表すローカライザデータに変換するものである。ナビゲーションコンピュータ34は、(ローカルエリアネットワーク(LAN)、インターネットなどの)コンピュータネットワークとの間で、有線通信または無線通信を行うことができる。また、ナビゲーションコンピュータ34には、ユニバーサルシリアルバス(USB)インターフェースや、CD?ROMまたはSDカードなどのデータ担持媒体の読取装置などの1つ以上のデータインターフェースを設けることができる。そして、内部記憶装置、外部記憶装置、またはその両方を、撮像装置で撮影した患者画像の画像データを格納するように構成することができる。あるいは、これに代えてまたは加えて、そのような画像データを、コンピュータネットワークを介して(例えばダウンロードなどによって)受信することもできる。さらに、内部記憶装置、外部記憶装置、またはその両方を、本明細書に記載の様々な項目の較正データや情報を格納するように構成することもできる。このような較正データや情報によって、システム20の事前知識が構成されるが、以下では、この較正データの様々な例についてより詳細に説明する。当然ながら、システム20の事前知識は、これに代えてまたは加えて、他の情報項目を含むこともできる。
【0019】
案内ステーション26は、複数の追跡装置(本明細書では「トラッカ」とも呼ぶ)54,56,58と協働して動作することができる。図示の実施形態では、1つのトラッカ54が患者の大腿骨Fにしっかりと貼り付けられ、別のトラッカ56が患者の脛骨Tにしっかりと貼り付けられている。すなわち、トラッカ54,56は、それぞれ骨の各部にしっかりと貼り付けられている。トラッカ54,56は、米国特許第7725162号明細書に示される方法で、大腿骨Fおよび脛骨Tに取り付けることができる。なお、同文献は、引用することによって本明細書の一部をなすものとする。また、トラッカ54,56を、2014年1月16日に「Navigation Systems and Methods for Indicating and Reducing Line-of-Sight Errors(視線誤差を表示・低減するためのナビゲーションシステムおよび方法)」の名称で出願されている米国特許出願公開第2014/0200621号明細書に示されているトラッカと同様に取り付けることもできる。同文献も、引用することによって本明細書の一部をなすものとする。さらに別の実施形態では、トラッカ54,56を他の生体構造に取り付けることもできる。
【0020】
器具トラッカ58は、外科器具30にしっかりと取り付けられる。器具トラッカ58は、製造時に外科器具30に内蔵してもよく、あるいは外科処置の準備中に外科器具30に別途取り付けてもよい。器具トラッカ58が追跡する外科器具30の治療端としては、回転バー(回転切削器)や電気アブレーションチップ、超音波チップ、矢状鋸刃などの治療エレメントが含まれ得る。
【0021】
トラッカ54,56,58は、内蔵電池で駆動することができるほか、ナビゲーションコンピュータ34を介して給電を受けるリードを有することもできる。なお、ナビゲーションコンピュータ34は、ローカライザカメラユニット46と同様に、外部電力で給電されるのが好ましい。
【0022】
図示の実施形態では、外科器具30は、機械加工ステーション24のマニピュレータ66に取り付けられている。マニピュレータ66は、ロボット装置またはロボットアームとも呼ばれるものである。そのような装置は、「Surgical Manipulator Capable of Controlling a Surgical Instrument in Multiple Modes(複数のモードで外科器具を制御可能な外科マニピュレータ)」の名称で発行されている米国特許第9119655号明細書に示されている。同文献の開示内容は、引用することによって本明細書の一部をなすものとする。外科器具30は、医療処置や外科処置を行うのに有用な任意の外科器具(ツールとも呼ぶ)であり得る。外科器具30は、切削器具、電気外科器具、超音波器具、リーマ、インパクタ、矢状鋸などの器具であってもよい。いくつかの実施形態では、複数の外科器具を使用して患者の治療が行われ、それぞれがローカライザ44によって個別に追跡される。
【0023】
トラッカ54,56,58からの光信号は、ローカライザ44の光学センサ50によって受信される。図示の実施形態では、トラッカ54,56,58は能動トラッカである。この実施形態では、各トラッカ54,56,58は、光学センサ50に光信号を送信する少なくとも3つの能動追跡素子(能動追跡マーカ)を有している。例えば、能動マーカは、赤外線などの光を送信する発光ダイオード(LED)60であってもよい。光学センサ50は、好ましくは100Hz以上、より好ましくは300Hz以上、最も好ましくは500Hz以上のサンプリングレートを有する。いくつかの実施形態では、光学センサ50は、8000Hzのサンプリングレートを有する。サンプリングレートは、LED60から順次発信される光信号を光学センサ50が受信する速度である。いくつかの実施形態では、LED60からの光信号は、各トラッカ54,56,58に対して異なる速度で発信される。
【0024】
ここで図2を参照して、各LED60はトラッカコントローラ61に接続されている。トラッカコントローラ61は、対応するトラッカ54,56,58のハウジングに配置されて、ナビゲーションコンピュータ34との間でデータを送受信するものである。一実施形態では、トラッカコントローラ61は、ナビゲーションコンピュータ34との有線接続を介して数メガバイト/秒程度でデータを送信する。他の実施形態では、無線接続を用いることもできる。これらの実施形態では、ナビゲーションコンピュータ34は、トラッカコントローラ61からのデータを受信する送受信機(図示せず)を有している。
【0025】
他の実施形態では、トラッカ54,56,58は、ローカライザカメラユニット46からの光を反射する反射器などの受動マーカ(図示せず)を有していてもよい。反射された光は、光学センサ50によって受信される。なお、能動構成あるいは受動構成については、当該技術分野において公知である。
【0026】
いくつかの実施形態では、2015年4月14日に「Navigation System Including Optical and Non-Optical Sensors(光学センサと非光学センサとを備えるナビゲーションシステム)」の名称で発行されているWuによる米国特許第9008757号明細書に示されているトラッカなどのように、トラッカ54,56,58は、ジャイロセンサと加速度センサとをさらに備えている。なお、同文献は、引用することによって本明細書の一部をなすものとする。
【0027】
ナビゲーションコンピュータ34は、ナビゲーションプロセッサ62を備えている。ナビゲーションプロセッサ62は、ナビゲーションコンピュータ34の動作を制御するための1つ以上のプロセッサを備え得ることを理解されたい。これらのプロセッサは、任意の種類のマイクロプロセッサまたはマルチプロセッサシステムであってもよい。いずれの実施形態においても、「プロセッサ」という用語によって、実施形態の範囲を1つのプロセッサに限定することは意図していない。
【0028】
ローカライザカメラユニット46は、トラッカ54,56,58のLED60から光学信号を受信し、ローカライザ44に対するトラッカ54,56,58のLED60の位置に関する信号をナビゲーションプロセッサ62に出力する。受信した光学信号(いくつかの実施形態では、これに加えて非光学信号)に基づいて、ナビゲーションプロセッサ62は、三角測量法などの公知の手法によって、ローカライザ44に対するトラッカ54,56,58の相対的な位置および向きを示すデータを生成する。いくつかの実施形態では、このデータは、ローカライザカメラコントローラ52によって生成され、ナビゲーションコンピュータ34に送信される。
【0029】
外科処置が開始される前に、ナビゲーションプロセッサ62には、追加のデータがロードされる。ナビゲーションプロセッサ62は、トラッカ54,56,58の位置および向きと、事前にロードされたデータとに基づいて、大腿骨標的部位TSなどの、外科器具30の治療端を当てるべき標的部位に対する治療端の位置(例えば、外科バーの重心など)や、外科器具30の向きを決定する。いくつかの実施形態では、ナビゲーションプロセッサ62がこれらのデータをマニピュレータコントローラ64に転送する。これに対し、マニピュレータコントローラ64は、これらのデータを使用して、「Surgical Manipulator Capable of Controlling a Surgical Instrument in Multiple Modes(複数のモードで外科器具を制御可能な外科マニピュレータ)」の名称で発行されている米国特許第9119655号明細書に記載されているように、マニピュレータ66を制御することができる。なお、同文献の開示内容は、引用することによって本明細書の一部をなすものとする。一実施形態では、マニピュレータ66は、外科医が設定した仮想境界内に留まるように制御される。本明細書に記載の実施形態では、そのような仮想境界の1つによって、外科器具30で除去すべき大腿骨Fの物質の体積が規定されている。つまり、仮想境界とは、外科器具30の治療端がその内部に留まるべき境界のことである。マニピュレータ66は、「Surgical Manipulator Capable of Controlling a Surgical Instrument in Multiple Modes(複数のモードで外科器具を制御可能な外科マニピュレータ)」の名称で発行されている米国特許第9119655号明細書に記載されているように、ユーザが器具30を掴んで操作することによって器具30を動かす手動操作モードで動作するように制御することも、あるいは自律的に動作するように制御することもできる。なお、同文献の開示内容は、引用することによって本明細書の一部をなすものとする。
【0030】
ナビゲーションプロセッサ62はまた、治療端の標的部位に対する相対位置を示す画像信号を生成する。これらの画像信号は、ディスプレイ36,38に印加される。これらの信号に基づいてディスプレイ36,38は、外科医やスタッフが、治療端の標的部位に対する相対位置を仮想的に見ることを可能にする複数の画像を生成する。多くの場合、ある時点における1つの標的部位に対する治療端の位置が、これら複数の画像で示される。例えば、大腿骨Fと脛骨Tの両方を治療する外科処置の場合、大腿骨Fからの物質除去を行っている間は、大腿骨標的部位TSと、大腿骨標的部位TSに対する外科器具30の治療端の相対位置とを視覚的に示すことができる。同様に、ユーザが大腿骨Fからの物質の除去を終えて、脛骨Tからの物質除去ができる状態になると、ディスプレイ36,38は、外科器具30の治療端の、脛骨Tに関連する標的部位に対する位置のみを示すことができる。
【0031】
ここで図3を参照して、オブジェクトの追跡は、主に、ローカライザ座標系LCLZを参照して行われる。ローカライザ座標系LCLZは、原点と向き(x軸、y軸、z軸の組)とを有している。処置中の目標の1つに、ローカライザ座標系LCLZを既知の位置に保つことが挙げられる。ローカライザカメラユニット46に取り付けた加速度センサ(図示せず)を使用して、外科手術の担当者が不注意でローカライザカメラユニット46にぶつかってしまった場合に起こり得るような、ローカライザ座標系LCLZの突発的な動きや予想外の動きを追跡することができる。
【0032】
ローカライザ座標系LCLZとは別に、トラッカ54,56,58および追跡対象のオブジェクトもまた、それぞれ固有の座標系を有する。例えば、トラッカ54,56,58は、それぞれ、骨トラッカ座標系BTRK1、骨トラッカ座標系BTRK2、および器具トラッカ座標系TLTRを有している。
【0033】
図示の実施形態では、案内ステーション26は、骨にしっかりと取り付けられた骨トラッカ54,56の位置を監視することによって、患者の大腿骨Fと脛骨Tの位置を監視する。大腿骨の座標系はFBONE、脛骨の座標系はTBONEであり、それぞれ、骨トラッカ54,56がしっかりと取り付けられている骨の座標系である。
【0034】
外科器具30による治療の対象である標的部位は、仮想オブジェクトによって定義される。図示の実施形態では、大腿骨標的部位TSが大腿骨Fに関連付けられている。もちろん、脛骨Tの標的部位などの他のいくつかの標的部位も可能であり、それぞれの標的部位が、各標的部位に固有の別個の仮想オブジェクトによって定義される。標的部位を表す仮想オブジェクトは、治療対象の物質の体積や、外科器具30の軌道、外科器具30で切断する平面、穿孔する穴などを定義するように、ユーザが術前に設定することができる。図示の実施形態では、仮想オブジェクトVB(図9参照)は、大腿骨Fから除去すべき物質の体積を定義する。場合によっては、仮想オブジェクトは、術中すなわち外科処置の最中に設定されたり、再設定されたりする。なお、以下では、整形外科処置に関連して説明を行っているが、本明細書に記載のシステムおよび方法は、任意の種類の外科処置にも同様に適していることを理解されたい。
【0035】
処置が開始される前に、大腿骨Fと脛骨Tの(あるいは他の実施形態の場合、他の組織または構造の)術前画像などの、関心対象の生体構造の術前画像が生成される。これらの画像は、患者の生体構造のMRIスキャン、放射線スキャン、またはコンピュータ断層撮影(CT)スキャンによるものであってもよい。これらの画像を使用して、大腿骨Fおよび脛骨Tの仮想モデル、外科器具30による治療の対象となる他の生体構造の仮想モデル、あるいはそれらすべての仮想モデルなどの関心対象の生体構造の仮想モデルが構築される。また、ナビゲーションポインタなどの適切な装置を用いて、大腿骨Fや脛骨Tなどの治療対象の生体構造の表面上の点を取り込むなどの方法によって、このような仮想モデルを術中に生成することもできる。取り込んだ点をコンパイルし、点の間の隙間を埋めることによって、仮想モデルを生成する。また、このような点の集合体を標準骨モデルと複合することにより、標準骨モデルを関心対象の生体構造により適合するように変形することもできる。
【0036】
多くの場合、仮想モデルは、治療中の生体構造の全体あるいは治療対象の生体構造の少なくとも一部を表すデータと、標的部位を定義する仮想オブジェクトを表すデータとを含む3Dモデルである。図示の実施形態では、大腿骨の仮想モデルVMは、大腿骨Fの一部と仮想オブジェクトVBとを表すモデルデータを含む3Dモデルである(図9参照)。仮想オブジェクトVBは、標的部位TSと、外科処置中に大腿骨Fから除去すべき物質の体積とを定義している。仮想オブジェクトは、仮想モデル内で定義することができ、メッシュ面や、CSG(constructive solid geometry)モデル、ボクセルで表現できるほか、他の仮想オブジェクト表現技術を用いて表現することもできる。
【0037】
術前画像、仮想モデル、あるいはそのすべては、当技術分野において公知の方法を用いて、大腿骨座標系FBONEと脛骨座標系TBONEとにマッピングされる。これらの術前画像、仮想モデル、あるいはそのすべては、大腿骨座標系FBONEと脛骨座標系TBONEに対して固定される。術前画像を撮る代わりに、運動学的な検討や骨の追跡などの方法によって手術室で治療計画を立案することもできる。また、同様の方法を用いて上述の3D仮想モデルを生成することもできる。
【0038】
本明細書に記載の処置においては、その初期段階において、骨トラッカ54,56が患者の骨にしっかりと貼り付けられる。座標系FBONEと座標系TBONEの姿勢(位置および向き)は、それぞれ座標系BTRK1と座標系BTRK2とにマッピングされる。一実施形態では、固有のトラッカPT(図1参照)を有する、引用することによって本明細書の一部をなすMalackowski他による米国特許第7725162号明細書に開示されているようなポインタ器具P(図1参照)を使用して、大腿骨座標系FBONEと脛骨座標系TBONEとを、骨トラッカ座標系BTRK1,BTRK2にそれぞれ登録する。これらの骨とそのトラッカ54,56との間に固定的な関係を確立させると、大腿骨座標系FBONEにおける大腿骨Fの位置および向きは骨トラッカ座標系BTRK1に、脛骨座標系TBONEにおける脛骨Tの位置および向きは骨トラッカ座標系BTRK2にそれぞれ変換され、ローカライザカメラユニット46は、トラッカ54,56を追跡することによって、大腿骨Fや脛骨Tを追跡することができる。姿勢を記述したこれらのデータは、マニピュレータコントローラ64およびナビゲーションプロセッサ62と一体のメモリに格納される。
【0039】
外科器具30の治療端(エネルギーアプリケータの遠位端とも呼ぶ)は、固有の座標系EAPPを有している。例えば、座標系EAPPの原点が、外科切削バーの重心を表していてもよい。処置が開始される前に、座標系EAPPの姿勢は、器具トラッカ座標系TLTRの姿勢に対して固定される。これにより、これらの座標系EAPP,TLTRの互いに対して相対的な姿勢が特定される。これらの姿勢を記述したデータは、マニピュレータコントローラ64およびナビゲーションプロセッサ62と一体のメモリに格納される。
【0040】
ここで図2を参照して、ローカライズエンジン100は、ナビゲーションコンピュータ34の一部とみなすことができるソフトウェアモジュールである。ローカライズエンジン100のコンポーネントは、ナビゲーションプロセッサ62上で実行される。ローカライズエンジン100は、マニピュレータコントローラ64、ナビゲーションプロセッサ62、またはこれら両方の上で実行されてもよい。
【0041】
ローカライズエンジン100は、ローカライザカメラコントローラ52からの光学ベースの信号と、いくつかの実施形態ではこれに加えて、トラッカコントローラ61からの非光学ベースの信号とを入力として受信する。これらの信号に基づいて、ローカライズエンジン100は、ローカライザ座標系LCLZにおける骨トラッカ座標系BTRK1,BTRK2の姿勢を特定する。また、ローカライズエンジン100は、器具トラッカ58についても同様の信号を受信し、これらの信号に基づいて、ローカライザ座標系LCLZにおける器具トラッカ座標系TLTRの姿勢を特定する。
【0042】
ローカライズエンジン100は、トラッカ54,56,58の姿勢を表す信号を座標変換器102に転送する。座標変換器102は、ナビゲーションプロセッサ62上で動作するソフトウェアモジュールである。座標変換器102は、術前画像と骨トラッカ54,56の関係を定義したデータ、患者の各仮想モデルと骨トラッカ54,56の関係を定義したデータ、あるいはこれらの関係をすべて定義したデータを参照する。座標変換器102はまた、器具トラッカ58に対する外科器具30の治療端の姿勢を示すデータも格納する。仮想オブジェクトと各仮想モデルとが分かれている場合には、座標変換器102は仮想オブジェクトを定義するデータも参照する。
【0043】
処置の最中、座標変換器102は、トラッカ54,56,58のローカライザ44に対する相対的な姿勢を示すデータを受信する。これらのデータと事前にロードされたデータとに基づいて、座標変換器102は、座標系EAPPと骨座標系FBONE,TBONEのローカライザ座標系LCLZに対する相対的な位置および向きを示すデータを生成する。
【0044】
その結果、座標変換器102は、外科器具30の治療端を当てている標的部位に対する治療端の位置および向きを示すデータを生成する。これらのデータを表す画像信号は、ディスプレイ36,38に転送され、外科医およびスタッフがこの情報を見ることが可能となる。特定の実施形態では、これらのデータを表す他の信号をマニピュレータコントローラ64に転送して、マニピュレータ66を案内し、外科器具30がそれに応じた動きをするようにすることができる。従って、このデータは、他の仮想オブジェクトに対する外科器具30の治療端の相対的な仮想位置を示すものでもあり、例えば、仮想ツールオブジェクトVIなどの別個の仮想オブジェクトとしてモデリングすることもできる。
【0045】
ここで図1を再び参照して、案内ステーション26はビジョン装置72をさらに備えている。図示の実施形態では、ビジョン装置は外科器具30に取り付けられている。他の実施形態では、ビジョン装置72をロボットアームに取り付けることができ、例えば、ロボットアームの遠位端に取り付けることもできる。ビジョン装置72は、好ましくは、障害物がない視野に標的部位を収めるように配置される。ビジョン装置72は、ナビゲーションコンピュータ34と動作可能に通信を行うビジョンコントローラ73(図2を参照)を有している。ビジョン装置72は、撮像装置またはデジタル撮像装置とも呼ばれるものである。ビジョン装置72は、外部ハウジング76を有し、1つ以上の画像センサ78(図2を参照)を支持するカメラ160を備えることができる。画像センサ78は、CMOSセンサなどの適切なセンサの形態をとることができる。
【0046】
ナビゲーションコンピュータ34は、ビジョンコントローラ73と通信して、ビジョンコントローラ73からカメラ160のビジョンデータセットを受信する。ビジョンデータセットは、ビジョン座標系VIS(図3を参照)上に配置される。ビジョンデータセットは、カメラ160の患者に対する動きに合わせてカメラ160が取り込んだ、ビジョン座標系VIS内のデータ点の集合である。これらのデータ点は、xyz座標によって定義され、ビジョンデータファイルとして保存(または格納)することができる。
【0047】
図4に示すように、標的部位の近くには、大腿骨F、脛骨T、および外科器具30以外に、複数の物理的オブジェクトが存在する。このような物理的オブジェクトは、開創器、洗浄吸引器、手術ガイド、切開部周りの皮膚などの種類の物理的オブジェクトを含み得る。本明細書に記載の実施形態では、ナビゲーションコンピュータ34とマニピュレータコントローラ64の少なくとも一方がこれらの物理的オブジェクトを識別、追跡して、これにより、システム20が、外科器具30や、大腿骨F、脛骨T、標的部位の近くにあるすべての物理的オブジェクトの相対位置を特定して、例えば、外科処置の間に外科器具30が物理的オブジェクトを避けられるようにしている。他の実施形態では、物理的オブジェクトがツールガイドである場合などの特定の状況においては、外科器具30が1つ以上の物理的オブジェクトと係合することができるように、物理的オブジェクトを識別、追跡することが望ましい場合もある。説明の便宜上、図示では、物理的オブジェクトを開創器162として示している。
【0048】
図4を参照すると、各物理的オブジェクトは、特徴セット170を規定する複数の特徴を備えており、これにより、外科処置の間に、ナビゲーションコンピュータ34とマニピュレータコントローラ64の少なくとも一方が、カメラ160によって物理的オブジェクトを識別、追跡することができる。特徴セット170は、カメラ160で撮影したビジョンデータセットにおいて識別可能な複数の特徴を含んでいる。また、識別のため、ナビゲーションコンピュータ34とマニピュレータコントローラ64の少なくとも一方が、パターン認識機能を有している。システム20は、検出対象の特徴の配置や符号化方式などの特性についての事前知識を有している。
【0049】
これらの特徴の1つ以上を、(例えば、カメラ160によって検出される放射線の放射などの)能動マーキングとしてもよい。これに加えてまたは代えて、これらの特徴の1つ以上を受動マーキングとすることもできる。受動マーキングは反射性であってもよく、あるいは非反射性であってもよい。受動マーキングは、印字やシールなどを、(例えば、切開部の周りのまたは隣接する患者の皮膚や他の場所などの)物理的オブジェクトの任意の硬い(例えば平面状の)基材や柔らかい基材上に施すことによって実現することができる。また、物理的オブジェクト表面のコーティングや、物理的オブジェクトに作られている表面粗さによって、特徴を定義することもできる。一方、システム20は、(例えば、較正情報の形などで)特徴に関する事前知識を有している。事前知識は、いくつかの異なる種類の物理的オブジェクトについての、特徴符号化方式や特徴間の相対的な位置のうちの1つ以上に関するものであってよい。また、事前知識として得られる特徴は、例えば、物理的オブジェクトの基材上に刻印や印字によって施された受動マーキングであってもよく、あるいは能動マーキングであってもよい。事前知識として得られる特徴として、切開部周りに印字シールなどの受動マーキングを施す場合には、切開口周りの皮膚などの組織を避けて器具30を制御することができるように、この受動マーキングは、リング状に配置されるなど、切開口に関連付けられていると理解される適切な場所に配置されると理解してよい。
【0050】
カメラ160は、各ビジョンデータセットが特徴セット170を構成する特徴の少なくとも一部を含むように、2方向以上の異なる視点からビジョンデータセットを取得するように構成されている。ここで、カメラ160の動きは、ビジョンデータセットの収集時におけるロボット装置と器具30の少なくとも一方の患者に対する動きの結果として得られるものである。このような動きは、ロボット装置と器具30の少なくとも一方の手動操作による場合もあれば、ロボット装置と器具30の少なくとも一方の自律的な動きによる場合もある。例えば、カメラ160は、(例えば、ビデオの各コマのような)連続ビデオデータストリームの形でビジョンデータセットを提供可能なビデオカメラとして実現することができる。一変形例では、ロボット装置が自律的な動きをする間、ロボット装置が器具30と一緒にカメラ160を動かすことができるように、カメラ160は器具30に固く取り付けられる。他の変形例では、カメラ160は、ロボット装置と器具30の少なくとも一方の手動操作によって器具30と一緒に動かされるように、器具30に固く取り付けられる。カメラ160を外科器具30に取り付ける場合、カメラ160は、物理的オブジェクトと、外科器具30が狙う患者の表面とを包含する視野を有する。例えば、外科器具30の長手方向軸が患者に向けられている場合、カメラ160の視野は外科器具30の長手方向軸に沿って延在することができる。
【0051】
カメラ160を外科器具30に一体化することによって、カメラ160のビジョン座標系VISの器具トラッカ座標系TLTRへの較正が容易になることを理解されたい。この較正は、例えば製造時に較正データを定めるなどの方法によって、製造時に行うことができるほか、従来の較正方法を用いて処置の開始前に行うこともできる。従って、ローカライザ座標系LCLZに対するビジョン座標系VISの姿勢は、外科器具30に関連付けられた器具トラッカ58を使用して、上述の変換方法により特定することができる。そしてこれにより、ビジョン座標系VISのローカライザ座標系LCLZへの変換やその逆方向の変換も行うことができる。姿勢を記述したこれらのデータは、マニピュレータコントローラ64およびナビゲーションプロセッサ62と一体のメモリに格納される。
【0052】
カメラ160が、外科器具30ではなくロボット装置に取り付けられる実施形態などの他の実施形態においては、カメラ160が、ハウジング76に固く取り付けられたビジョン装置トラッカ(図示せず)を有していてもよく、これによりビジョン座標系VISとローカライザ座標系LCLZとの間に確固たる関係を構築することができる。例えば、座標変換器102に、ビジョン装置トラッカの座標系とビジョン座標系VISとの間の関係を定義するデータを予めロードしておき、座標変換器102は、このデータを使用し、ローカライザ座標系LCLZ内のビジョン装置トラッカの位置および向きに基づいて、ビジョン座標系VISをローカライザ座標系LCLZに変換することができる。あるいは、ジョイントエンコーダや、ロボット装置の基部に取り付けたロボット基部トラッカ(図示せず)などによって、ロボット装置の追跡をローカライザ座標系LCLZにおいて別途行っている場合、(例えば、較正工程によって)カメラ160をロボット基部トラッカと関連付けることができる。この場合、カメラ160に別途トラッカを設ける必要性はなくなる。そして、ロボット装置の基部が動かず、ロボット基部トラッカが見えている限り、ローカライザ44はカメラ160の位置および向きを決定することができる。
【0053】
ナビゲーションコンピュータ34は、カメラ160から受信したビジョンデータセットを外部または内部の記憶装置に格納するように構成され得る。上述したように、これらのビジョンデータセットはビデオデータストリームの形で受信することができ、ナビゲーションプロセッサ62による処理に備えて少なくとも一時的に格納される。そのような処理として、例えば、受信したビジョンデータセットに含まれる1つ以上の特徴を(例えば、位置特定や復号などによって)識別するためのパターン認識を挙げることができる。
【0054】
一実施形態では、ナビゲーションプロセッサ62は、パターン認識技術を使用して、まずビジョンデータセットに含まれる複数の特徴を識別し、そしてビジョン座標系VISにおける各特徴の座標を(例えば、キーポイント座標などの形で)特定する。ここで、較正データとしてカメラ160の投影モデルを格納しておき、この投影モデルを利用して、カメラ160が提供するビジョンデータセットにおいて識別された1つ以上の特徴に対するカメラ160の位置を特定することができる(例えば、米国特許出願公開第2008/0208041号明細書を参照のこと。なお、同文献は、引用することによって本明細書の一部をなすものとする。)特定の投影モデルの基礎となる変換パラメータは、各カメラの製造業者、またはシステム20の販売業者から提供され得る。また、変換パラメータは、現場に設置された較正治具で推定することができるほか、特定のカメラ機種向けに標準化されていてもよい。いくつかの実施態様では、適切なインターフェースを介してカメラ160自体によって(例えば、現在選択中のズームレベルに応じてリアルタイムで)変換パラメータが提供される場合もある。
【0055】
また較正データとして、特徴セット170に関する情報も、例えばナビゲーションコンピュータ34の内部記憶装置などに提供される。このような情報は、各特徴の相対位置や各特徴に適用された符号化方式を含み得る。各特徴の既知の相対位置と、カメラ160で撮影した(例えば、画像などの)ビジョンデータセットにおける(すなわち、ビジョンデータセットが関連付けられたビジョン座標系VISにおける)各特徴の(投影像の)相対位置とに基づいて、当該ビジョン座標系VISを、関心対象の物理的オブジェクトの物理的オブジェクト座標系POCS(図3参照)などの、各特徴の座標が与えられる任意の参照系に変換する逆透視投影を行うことにより、さらなる変換の変換パラメータを(例えば、リアルタイムで)特定することができる。このような変換を、カメラ160の変換T1で示す。カメラ160の変換T1の変換パラメータは、各特徴jについて、それぞれ以下の方程式系を解くことによって求められる。
j,160=T2・T1-1・Mj,cal
【0056】
式中、Mj,160は、カメラ160のビジョンデータセット(例えば、ビデオの1コマ)において撮像された特徴jであり、ビジョン座標系VISに関連した座標を有している。Mj,calは、較正データとして提供される特徴jの指標(例えば、キーポイント)であり、物理的オブジェクト座標系POCSに関連した座標を有している。そして、第2の変換T2は、カメラ160とそれに関連付けられたビジョン座標系VISとの間の変換パラメータを指定するものである。
【0057】
なお、上述の逆透視投影は、カメラ姿勢推定と呼ばれる場合があるほか、あるいはカメラ姿勢推定との関連で行われるものである。図4に示す実施形態では、個々の特徴は黒い点で記号化されている。また、複数の符号化された特徴(coded feature)を利用することもできる。各特徴は、固有のQR方式の拡張符号を含む2次元の拡張部(extension)を有することができる(QR方式の拡張符号の場合、各特徴が重なっていても問題ない)。図5では、ある1つの拡張特徴(extended feature)170Aが白いリング内にある状態を図示しており、この場合、リングの中心が特徴のキーポイントとなる。一般に、各拡張特徴によって、その特徴の位置(座標)を示す特定のキーポイントまたは中心を規定することができる。コンピュータ画像認識(computer vision)の分野において、特徴(feature)という用語は、キーポイントの周辺(すなわちの特徴の拡張部)を記述するものともみなされる。図6は、例示的なリング形状の拡張特徴についてのキーポイントの概念を模式的に示す図である。このキーポイントの概念を、図5に示す種類の特徴に対して、容易に拡大適用できることが理解されるであろう。また、代替的な実施形態では、個々の特徴を他の方法で規定したり、符号化したりすることもできることが理解されるであろう。例えば、図7において複数の特徴170Bで示すように、異なる数のダッシュを使ったり、あるいはダッシュとドットの異なる組み合わせを使ったりして、各リングをダッシュ表示することもできる。別の例として、色分けによって符号化した円またはドットを使用してもよい。特定の実施態様では、物理的オブジェクト上で平坦な面(すなわち平面)を成す狭い領域内にある個々の特徴をグループ化することもできる。個々の特徴の間の相対位置、ならびに(個々の特徴間の区別を可能にする)各特徴の符号化方式は、較正データとして格納しておくことができる。
【0058】
本実施形態では、図8に示すように、物理的オブジェクトの2次元表面上に(いくつかの黒エリアといくつかの白エリアとの組み合わせの形で)設けられた特徴170Cによって、物理的オブジェクト座標系POCSが定義される。すなわち、これらの特徴170Cが、物理的オブジェクト座標系POCS全体に広がっている。これは、カメラ160から受信したビジョンデータセットにおいて、物理的オブジェクトの表面上に定められた特徴(トラッカ特徴とも呼ぶ)の識別、復号が行われれば、直ちに、物理的オブジェクト座標系POCSと、この物理的オブジェクト座標系POCS内のこれら特徴の座標とを一緒に特定できることを意味する。また、通常、システム20は、物理的オブジェクトの上に設けられる各特徴の相対位置と符号化方式に関する事前知識も(較正データの形で)有することになる。
【0059】
トラッカ特徴は、ナビゲーションコンピュータ34とマニピュレータコントローラ64の少なくとも一方が、各トラッカ特徴のパターン認識や各特徴に埋め込まれた符号化された情報の利用などによって、各特徴に基づいて物理的オブジェクトの識別あるいは物理的オブジェクトに関する情報の識別ができるように、一意に設定されるか、これに加えてまたは代えて符号化されている。そのような情報には、物理的オブジェクト識別情報、物理的オブジェクトの種類、物理的オブジェクトの大きさ、物理的オブジェクトの寸法、物理的オブジェクトのシリアル番号、および物理的オブジェクトの製造業者のうちの1つ以上が含まれ得る。
【0060】
図9を参照すると、ある物理的オブジェクトが識別されると、ナビゲーションコンピュータ34とマニピュレータコントローラ64の少なくとも一方が、メモリ内の、例えば物理的オブジェクトデータベースなどから、この識別された物理的オブジェクトに関連付けられた仮想オブジェクト164を物理的オブジェクト座標系POCS内に読み出すことができる。あるいは、物理的オブジェクト上の各特徴を、仮想オブジェクト識別情報、仮想オブジェクトの種類、仮想オブジェクトの大きさ、または仮想オブジェクトの寸法などの仮想オブジェクトに関する情報で符号化してもよい。例えば、ナビゲーションコンピュータ34に格納した物理的オブジェクトデータベースを、いくつかの異なる製造業者が製造した、いくつかの異なる種類の、そしていくつかの異なる大きさと構成の複数の物理的オブジェクトで構成することができる。そして、各特徴に埋め込まれた符号化された情報によって、ナビゲーションコンピュータ34は、ビジョンデータセット内に視認される物理的オブジェクトの各特徴に基づいて、この特定の物理的オブジェクトに関する具体的な細部を識別し、この物理的オブジェクトに関連付けられた特定の仮想オブジェクトを読み出すことが可能となる。従って、例えば、物理的オブジェクトがある特定のサイズの開創器であると識別された場合、これに関連付けられた仮想オブジェクトはそれと同程度のサイズであり得る。
【0061】
物理的オブジェクト座標系POCS内の特徴座標をビジョン座標系VISに変換することにより、仮想オブジェクト164をビジョン座標系VISに変換することもできる。また(図9に示すように)、仮想オブジェクト164をローカライザ座標系LCLZにさらに変換して、外科器具30の動きを、仮想オブジェクト164に対して追跡することもできる。この点に関して、仮想オブジェクト164は、特徴座標に対して事前に定義されている。例えば、開創器の場合、各開創器の特徴に応じて定められた関連モデルデータを有する複数の開創器の仮想オブジェクトが、3次元モデルとして製造時に事前に定義されており、これにより、物理的オブジェクト座標系POCSにおいて、対象の仮想オブジェクトの位置および向きを知ることができる。
【0062】
代替的な実施形態では、ユーザがナビゲーションポインタまたは外科器具30を使用して仮想オブジェクト164を定義することができ、この場合、外科器具30の座標が既知であることから、物理的オブジェクトに対する仮想オブジェクト164の事前知識は不要となる。よってこの場合、ユーザは、ナビゲーションポインタを用いて輪郭線を描画するだけで、「進入禁止(no-fly)」ゾーンの、例えば点、線、体積、面積などを定義することができる。そして、こうしてトレースした(輪郭線を描画した)ゾーンによって、仮想オブジェクト164の追跡のために使用されている1つ以上の特徴に関連して、仮想オブジェクト164が構築される。
【0063】
仮想オブジェクト164は、開創器162が占める空間などの、外科手術中に避けるべき立体領域や平面領域を定義することができる。図9に示すように、仮想オブジェクト164は、ローカライザ座標系LCLZにおいて標的部位TSの外部に定義されてもよい。また他の実施形態では、仮想オブジェクトの一部が標的部位TSの外部に存在してもよい。仮想オブジェクト164は、ナビゲーションプロセッサ62によって処理されて、ディスプレイ36,38上に表示され、ユーザに示される。これによりユーザは、標的部位TSや、例えば開創器162などの仮想オブジェクト164に対する外科器具30の位置および向きを視覚的に捉えることができる。場合によっては、仮想オブジェクト164は、3次元モデル、2次元の面、点群、ボクセル立体、メッシュ面、平面、線、単点のうちの1つ以上を含む。
【0064】
なお、標的部位TSの近くにある組織の中には弾力性や柔軟性を有するものがあり、そのような弾力性や柔軟性のため、外科処置の間に、開創器162などの物理的オブジェクトが標的部位TSに対して動く可能性がある。これを受けて、システム20は、ローカライザ座標系LCLZなどの関心対象の座標系において、例えば開創器162に関連付けられた仮想オブジェクト164などの仮想オブジェクトについて特定した姿勢を、定期的に最新のものに更新する。このような仮想オブジェクトの姿勢の更新は、ローカライザが行う、トラッカ54,56,58の姿勢の更新と同じ頻度で行われてもよく、マニピュレータコントローラ64が行う、ツール経路に沿った外科器具の新たな指令位置の計算と同じ頻度で行われてもよく、あるいは、任意の他の適切な頻度で行われてもよい。場合によっては、一部の物理的オブジェクトの姿勢の更新を、他の物理的オブジェクトよりも遅くすることもできる。例えば、外科器具30の位置把握がより重要である場合があるため、開創器162の位置の更新頻度を、標的部位TSに対する外科器具30の位置の更新頻度よりも低くすることもできる。
【0065】
いくつかの実施形態では、仮想オブジェクトを、複数の物理的オブジェクトの位置に基づいて作成することもできる。例えば、2つ以上の開創器162の位置によって、仮想切開部168(図9を参照)を図示のように定義することができる。この場合の仮想切開部168は、開創器162が描く輪郭を境界とする仮想開口部となり得る。従って、開創器162に調整が加えられる度に、仮想切開部168の構成は変化し得る。つまり、仮想切開部168は動的な性質を有しており、形状が変化する可能性があるが、本明細書に記載のナビゲーション技術を用いれば、仮想切開部168が、新たなビジョンデータセットで絶えず更新されるため、外科処置の間に標的部位TSの近くで変化が生じたとしても、器具30は、物理的オブジェクト(つまり、当該物理的オブジェクトに関連付けられた仮想オブジェクトが定義する境界)を避けることできる。
【0066】
仮想オブジェクトは避けるべき立体領域または境界を定義することができることから、仮想オブジェクトによって、外科器具30の治療端が進入できない「進入禁止」ゾーンを作成することもできる。「進入禁止」ゾーンは、標的部位の近くに位置する、繊細な生体的構造や、硬い構造、軟組織、骨のような温存すべき部位や、他のツールなどに関連付けることができる。マニピュレータ66は、ローカライザ座標系LCLZなどの共通座標系における仮想オブジェクトの位置を把握しているため、マニピュレータ66が自律モードで動作している場合には、マニピュレータ66が、仮想オブジェクトを避けるように外科器具30の位置決めを制御して、標的部位の近くに位置する、繊細な生体的構造や、硬い構造、軟組織、骨のような温存すべき部位や、他のツールなどを避けることができる。一方、ロボット装置と器具30の少なくとも一方を手動操作している場合には、「進入禁止」ゾーンは、触覚境界として機能し、ユーザが器具30を「進入禁止」ゾーンに入れてしまうのを防ぐ触覚フィードバックをユーザに与える。例えば、各物理的オブジェクトが開創器である場合、開創器の仮想3次元モデルの形をとる仮想オブジェクトが、各物理的オブジェクトに関連付けられて設けられる。この物理的オブジェクトは、カメラ160によって追跡されているため、開創器に対する外科器具30の治療端の相対的な動きを追跡することによって、この物理的オブジェクトを避けることが可能となる。そして、もし開創器の1つが外科器具30のツール経路上に位置しているようなことがあれば、マニピュレータコントローラ64が、当該ツール経路に調整を加えるか、あるいは外科器具30の動きを停止させることができる。あるいは、手動操作モードの場合であれば、そのままではロボット装置と器具30の少なくとも一方が開創器の1つと衝突してしまうような動きがあれば、マニピュレータコントローラ64がその動きを制限または停止することができる。これは、手動操作中に器具30が「進入禁止」ゾーンに差し掛かると、マニピュレータコントローラ64が、関節モータ、ブレーキなどのうち1つ以上を能動的に作動させて、ユーザへの触覚フィードバックを生成するなどの方法で行われる。同様に、例えば開創器の1つなどの物理的オブジェクトが、計画されたツール経路の妨げとなっている場合には、ナビゲーションシステムが、それをユーザに警告して、当該物理的オブジェクトを移動するようにユーザに通知することもできる。
【0067】
ここで図10を参照すると、図10は、標的部位を基準に物理的オブジェクトを追跡する方法の一実施形態を示している。この実施形態では、ロボット装置を自律モードで動作させている。第1のステップ300では、標的部位を治療するために外科器具30が標的部位に対して自律的に動かされることによって、カメラ160が標的部位の近くの物理的オブジェクトに対して相対的に動かされる。さらに、カメラ160自身も、物理的オブジェクトに対して自律的に動き、ステップ302で、複数の視点から取得した物理的オブジェクトのビジョンデータセットを生成する(ただし、1方向の視点のみで十分な場合もある)。そして、ビジョンデータセットは、ビジョン座標系VIS上で定義される。
【0068】
ステップ304では、1つ以上の特徴、好ましくは少なくとも3つまたは4つの特徴がビジョンデータセット内で識別される。そして、ステップ306で、カメラ160がビジョン座標系VISにおける各特徴の特徴座標を特定することができるように、これらの特徴を特徴セット170にグループ化してしてもよい。そして、これらの特徴や他の視覚的識別子(一部の実施形態では、これらは符号化されている)が、パターン認識技術を使用して認識される。この認識に基づいて、ステップ310では、ナビゲーションコンピュータ34とマニピュレータコントローラ64の少なくとも一方によって、物理的オブジェクトに関する情報を取り込むことができる。この情報には、例えば、特徴座標に対する物理的オブジェクト座標系POCSの位置および向きが含まれ得る。
【0069】
そして、ステップ312では、座標変換器102によって、物理的オブジェクト座標系POCSを、ビジョン座標系VISに変換し、そしてさらにローカライザ座標系LCLZに変換することができる。ステップ314では、仮想オブジェクトが物理的オブジェクトに関連付けられる。仮想オブジェクトは、メモリから読み出されて、物理的オブジェクト座標系POCSで定義され、さらに上述の座標変換によって、ビジョン座標系VISに対して定義され、その後、ローカライザ座標系LCLZに対して定義される。ステップ316では、マニピュレータコントローラ64は、マニピュレータ66やこれに取り付けられた外科器具30の自律的な動きを制御することによって、外科器具30が物理的オブジェクトを避けるか、または物理的オブジェクトが規定する他の制限事項を満たすことができるようにする。
【0070】
なお、上記では、物理的オブジェクトに関連付けた仮想オブジェクトを、ローカライザ座標系LCLZに変換して、外科器具30の治療端および標的部位を基準に物理的オブジェクトを追跡しているが、マニピュレータ座標系MNPLなどの任意の共通座標系を使用して、外科器具30と、標的部位と、物理的オブジェクトとの間の相対的な動きや姿勢を追跡することができることも理解されたい。
【0071】
当業者であれば理解するように、本実施形態の各態様は、コンピュータ可読プログラムコードが埋め込まれた1つ以上のコンピュータ可読媒体という形で実施されるコンピュータプログラム製品の形態をとることがある。本明細書に記載の方法を実行するための命令またはコードを含むコンピュータソフトウェアは、(例えば、ROM、固定メモリ、着脱式メモリなどの)関連メモリデバイスの1つ以上に格納しておき、利用準備が整えば、(例えばRAMに)一部または全体をロードして、CPUが実行してもよい。そのようなソフトウェアとしては、ファームウェア、常駐ソフトウェア、マイクロコードなどを挙げることができるが、これらに限定されない。
【0072】
他の実施形態では、物理的オブジェクトの特徴座標やモデルの特定を、SfM(Structure from Motion)技術やSLAM(Simultaneous Localization and Mapping)技術、姿勢推定技術のうち1つ以上の技術を用いて行うことができる。例えば、SLAMは、特徴群に対して適用することができる。また他の例として、SfMによって、異なる複数の視点から取得したビジョンデータセットにおいて識別可能な個々の特徴(必ずしも特徴群でなくてもよい)それぞれについて特徴の軌跡を構築することができる。そして、これら個々の特徴の軌跡に対して、(カメラの)異なる複数の視点に基づいた三角測量を適用することができる。三角測量を利用して、(例えば、物理的オブジェクト座標系上で)特徴座標を3次元に復元し、そして場合によっては最適化することもできる。
【0073】
以上のように、いくつかの実施形態について説明してきたが、本明細書の実施形態は、本発明を包括的に説明することを意図したものではなく、また本発明を特定の形態に限定することを意図したものでもない。上述の記載において使用した用語は、限定的なものではなく記述的なものであることを意図している。また、上述の教示に基づいて多くの変更および変形が可能であり、上述において具体的に記載したものとは異なる方法によって本発明を実施することも可能である。
なお、本願の出願当初の開示事項を維持するために、本願の出願当初の請求項1~28の記載内容を以下に追加する。
(請求項1)
物理的オブジェクトを追跡するためのナビゲーションシステムであって、
ロボット装置と、
前記ロボット装置に取り付け可能な器具と、
前記ロボット装置と共に動かすことができるように、前記ロボット装置と前記器具のうちいずれか一方に取り付けられるビジョン装置であって、前記ロボット装置を動かした場合に前記ビジョン装置が複数の自由度で動かされることによって可能となる複数の視点から取り込んだ前記物理的オブジェクトの複数のビジョンデータセットを生成するように構成されているビジョン装置と、
前記ビジョン装置と通信を行うコンピュータシステムであって、前記ビジョンデータセットにおいて識別可能な前記物理的オブジェクトの1つ以上の特徴に基づいて、前記物理的オブジェクトに、前記器具の仮想境界を少なくとも部分的に規定する仮想オブジェクトを関連付けるように構成されている少なくとも1つのプロセッサを有するコンピュータシステムと
を備えるナビゲーションシステム。
(請求項2)
前記ビジョン装置がカメラを備えている、請求項1に記載のナビゲーションシステム。
(請求項3)
前記コンピュータシステムが、前記ビジョンデータセットの生成時に前記ビジョン装置がとる各場所での前記ビジョン装置の位置および向きを追跡するように構成されている、請求項1または2に記載のナビゲーションシステム。
(請求項4)
前記コンピュータシステムが、前記物理的オブジェクトの前記1つ以上の特徴に基づいて、前記物理的オブジェクトの固有性を特定するように構成されている、請求項1~3のいずれか1項に記載のナビゲーションシステム。
(請求項5)
前記コンピュータシステムが、前記物理的オブジェクトの固有性に基づいて、前記物理的オブジェクトに前記仮想オブジェクトを関連付けるように構成されている、請求項4に記載のナビゲーションシステム。
(請求項6)
前記仮想オブジェクトが、3次元モデル、2次元の面、点群、ボクセル立体、メッシュ面、平面、線、単点のうちの1つ以上を含んでいる、請求項5に記載のナビゲーションシステム。
(請求項7)
前記1つ以上の特徴が、前記ビジョンデータセットにおいて識別可能な特徴セットを含み、
前記コンピュータシステムが前記特徴セットの位置および向きを特定して、前記物理的オブジェクトに関連付けられた第1の座標系の位置および向きを確立するように構成されている、請求項1~6のいずれか1項に記載のナビゲーションシステム。
(請求項8)
前記ビジョン装置が、前記ロボット装置と前記器具のうちいずれか一方に対して固定されて、前記ビジョンデータセットを前記ロボット装置と前記器具のうちの前記一方の第2の座標系に変換することができる、請求項7に記載のナビゲーションシステム。
(請求項9)
前記コンピュータシステムが座標変換器を備えており、
前記座標変換器は、前記第1の座標系と前記第2の座標系とのうちの1つを、前記コンピュータシステムが前記物理的オブジェクトに対する前記器具の相対的な動きを追跡することができるように変換するように構成されている、請求項8に記載のナビゲーションシステム。
(請求項10)
前記コンピュータシステムが、前記物理的オブジェクトに対する前記器具の相対的な動きを追跡することによって、前記物理的オブジェクトを避けながら標的部位の組織を治療する前記器具の動きを可能とするように構成されている、請求項9に記載のナビゲーションシステム。
(請求項11)
前記コンピュータシステムが、前記1つ以上の特徴に基づいて、前記物理的オブジェクトに関連する情報を特定するように構成されている、請求項1~10のいずれか1項に記載のナビゲーションシステム。
(請求項12)
前記情報が、物理的オブジェクト識別情報と、物理的オブジェクトの種類と、物理的オブジェクトの大きさと、物理的オブジェクトの寸法と、物理的オブジェクトのシリアル番号と、物理的オブジェクトの製造業者と、仮想オブジェクト識別情報と、仮想オブジェクトの種類と、仮想オブジェクトの大きさと、仮想オブジェクトの寸法とのうちの1つ以上を含んでいる、請求項11に記載のナビゲーションシステム。
(請求項13)
前記仮想オブジェクトが、ナビゲーションポインタと前記器具のうち少なくとも一方によって定義される、請求項1~12のいずれか1項に記載のナビゲーションシステム。
(請求項14)
前記ロボット装置は、自律モードで動作するように構成され、
前記ロボット装置が前記自律モードで動作している場合には、前記ビジョン装置が自律的に動く、請求項1~13のいずれか1項に記載のナビゲーションシステム。
(請求項15)
ロボット装置と、前記ロボット装置に取り付け可能な器具と、ビジョン装置と、少なくとも1つのプロセッサを有するコンピュータシステムを利用して、標的部位に対して物理的オブジェクトを追跡する方法であって、
前記ロボット装置の動きの結果得られる前記ビジョン装置の動きに応じて、複数の視点から取り込んだ前記物理的オブジェクトの複数のビジョンデータセットを生成するステップと、
前記ビジョンデータセットにおいて識別可能な前記物理的オブジェクトの1つ以上の特徴に基づいて、前記物理的オブジェクトに、前記器具の仮想境界を部分的に規定する仮想オブジェクトを関連付けるステップと
を含む方法。
(請求項16)
前記ビジョン装置がカメラを備えている、請求項15に記載の方法。
(請求項17)
前記ビジョンデータセットの生成時に前記ビジョン装置がとる各場所での前記ビジョン装置の位置および向きを追跡することを含む、請求項15または16に記載の方法。
(請求項18)
前記物理的オブジェクトの前記1つ以上の特徴に基づいて、前記物理的オブジェクトの固有性を特定することを含む、請求項15~17のいずれか1項に記載の方法。
(請求項19)
前記物理的オブジェクトの固有性に基づいて、前記物理的オブジェクトに前記仮想オブジェクトを関連付けることを含む、請求項18に記載の方法。
(請求項20)
前記仮想オブジェクトが、3次元モデル、2次元の面、点群、ボクセル立体、メッシュ面、平面、線、単点のうちの1つ以上を含んでいる、請求項19に記載の方法。
(請求項21)
前記ビジョンデータセットにおいて識別可能な特徴セットの位置および向きを特定して、前記物理的オブジェクトに関連付けられた第1の座標系の位置および向きを確立することを含む、請求項15~20のいずれか1項に記載の方法。
(請求項22)
前記ビジョンデータセットを前記ロボット装置と前記器具のうちの一方の第2の座標系に変換することを含む、請求項21に記載の方法。
(請求項23)
前記第1および第2の座標系のうち1つを、前記コンピュータシステムが前記物理的オブジェクトに対する前記器具の相対的な動きを追跡することができるように変換することを含む、請求項22に記載の方法。
(請求項24)
前記物理的オブジェクトに対する前記器具の相対的な動きを追跡することによって、前記物理的オブジェクトを避けながら標的部位の組織を治療する前記器具の動きを可能とすることを含む、請求項23に記載の方法。
(請求項25)
前記1つ以上の特徴に基づいて、前記物理的オブジェクトに関連する情報を特定することを含む、請求項15~24のいずれか1項に記載の方法。
(請求項26)
前記情報が、物理的オブジェクト識別情報、物理的オブジェクトの種類、物理的オブジェクトの大きさ、物理的オブジェクトの寸法、物理的オブジェクトのシリアル番号、物理的オブジェクトの製造業者、仮想オブジェクト識別情報、仮想オブジェクトの種類、仮想オブジェクトの大きさ、および仮想オブジェクトの寸法のうちの1つ以上を含んでいる、請求項25に記載の方法。
(請求項27)
ナビゲーションポインタと前記器具のうち少なくとも一方によって前記仮想オブジェクトを定義することを含む、請求項15~26のいずれか1項に記載の方法。
(請求項28)
前記ロボット装置を自律的に動かすことによって、前記ビジョン装置が自律的に動いて前記ビジョンデータセットを取り込むようにすることを含む、請求項15~27のいずれか1項に記載の方法。
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10