(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-05-17
(45)【発行日】2024-05-27
(54)【発明の名称】心腔内エコー法のスマートイメージナビゲーション
(51)【国際特許分類】
A61B 8/12 20060101AFI20240520BHJP
A61B 6/12 20060101ALI20240520BHJP
A61B 34/20 20160101ALI20240520BHJP
【FI】
A61B8/12
A61B6/12
A61B34/20
【外国語出願】
(21)【出願番号】P 2022184683
(22)【出願日】2022-11-18
【審査請求日】2023-03-31
(32)【優先日】2021-11-24
(33)【優先権主張国・地域又は機関】US
(73)【特許権者】
【識別番号】593063105
【氏名又は名称】シーメンス メディカル ソリューションズ ユーエスエー インコーポレイテッド
【氏名又は名称原語表記】Siemens Medical Solutions USA,Inc.
(74)【代理人】
【識別番号】110003317
【氏名又は名称】弁理士法人山口・竹本知的財産事務所
(74)【代理人】
【識別番号】100075166
【氏名又は名称】山口 巖
(74)【代理人】
【識別番号】100133167
【氏名又は名称】山本 浩
(74)【代理人】
【識別番号】100169627
【氏名又は名称】竹本 美奈
(72)【発明者】
【氏名】ルゥイ リィアォ
(72)【発明者】
【氏名】ヨン-ホ キム
(72)【発明者】
【氏名】ジャーロッド コリンズ
(72)【発明者】
【氏名】セバスチャン ピアット
(72)【発明者】
【氏名】アンクル カプール
(72)【発明者】
【氏名】アブドゥル アジーズ アマドゥ
(72)【発明者】
【氏名】トマーゾ マンシ
(72)【発明者】
【氏名】ノハ エイ-ゼヒリ
(72)【発明者】
【氏名】ドラン コマニチ
(72)【発明者】
【氏名】サシャ グルビッチ
(72)【発明者】
【氏名】ポォー リウ
(72)【発明者】
【氏名】ジン-ヒョン パク
(72)【発明者】
【氏名】ヂォゥピン シィー
(72)【発明者】
【氏名】シィェンヂィン エス. ヂァン
【審査官】松岡 智也
(56)【参考文献】
【文献】特表2021-515647(JP,A)
【文献】米国特許出願公開第2021/0145412(US,A1)
【文献】特表2014-518123(JP,A)
【文献】特表2019-501703(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
A61B 1/00-1/32、8/00-8/15、34/00-90/98
A61F 2/82-2/97
A61M 25/00-29/04、35/00-36/08、
37/00、99/00
G06T 1/00-1/40、3/00-7/90
G06V 10/00-20/90、30/418、
40/16、40/20
(57)【特許請求の範囲】
【請求項1】
コンピュータにより実行される方法であって、
前記コンピュータが、患者内のカテーテルの現在ビューの画像を受信し、
前記コンピュータが、前記カテーテルを前記現在ビューから目標ビューを目指してナビゲートするロボットナビゲーションシステムのアクションセットを、機械学習ベースネットワークを用いて判断し、
前記機械学習ベースネットワークは、位置推定コンポーネント及びローカル探索コンポーネントを備え、前記位置推定コンポーネントが、前記目標ビューに対する前記現在ビューの相対位置を推定するように構成され、前記ローカル探索コンポーネントが、AIエージェントを訓練して前記カテーテルを前記目標ビューに近づける可能なアクションの報酬値を予測するように構成され、
前記コンピュータが、前記アクションセットに従って前記ロボットナビゲーションシステム
を作動させ、前記現在ビューから前記目標ビューを目指して、前記カテーテルを患者内で自動ナビゲートする、ことを含む、方法。
【請求項2】
前記カテーテルを前記現在ビューから前記目標ビューを目指してナビゲートする前記ロボットナビゲーションシステムの前記アクションセットを、前記機械学習ベースネットワークを用いて判断するときに、
前記コンピュータが、
前記目標ビューを表す、患者の術前医用画像を受信し、
前記術前医用画像と前記カテーテルの前記現在ビューの前記画像との間の第1のレジストレーションを実行し、
前記術前医用画像と
、前記現在ビューの位置から患者内の予定の位置にナビゲートされた前記カテーテルのビューの画像と
、の間の第2のレジストレーションを実行し、
前記第1のレジストレーションと前記第2のレジストレーションとに基づいて、前記現在ビューから前記術前医用画像
に表された前記目標ビューを目指して前記カテーテルをナビゲートする前記ロボットナビゲーションシステムの前記アクションセットを判断する、ことを含む、請求項1に記載の方法。
【請求項3】
前記術前医用画像は、前記カテーテルを自動ナビゲートする
実施中の医療処置の計画段階で取得された医用画像である、請求項2に記載の方法。
【請求項4】
前記カテーテルを前記現在ビューから前記目標ビューを目指してナビゲートする前記ロボットナビゲーションシステムの前記アクションセットを、前記機械学習ベースネットワークを用いて判断するときに、
前記コンピュータが、
1つ以上の保存医用画像から選択された
、前記目標ビューを表す保存医用画像を受信し、
前記カテーテルの前記現在ビューの前記画像に対応する前記ロボットナビゲーションシステムの設定を表す第1の頂点から、前記選択された保存医用画像に対応する前記ロボットナビゲーションシステムの設定を表す第2の頂点へ、グラフにおける経路を決定し、
該決定した経路に基づいて、前記現在ビューから前記選択された保存医用画像に表された
前記目標ビューを目指して前記カテーテルをナビゲートする前記ロボットナビゲーションシステムの前記アクションセットを判断する、ことを含む、請求項1に記載の方法。
【請求項5】
前記1つ以上の保存医用画像を、前記カテーテルを自動ナビゲートする
実施中の医療処置中に保存することをさらに含む、請求項4に記載の方法。
【請求項6】
ユーザ入力の受信に応じて前記グラフに頂点を付すことによってユーザが前記カテーテルをナビゲートするときに前記グラフを生成することをさらに含む、請求項4に記載の方法。
【請求項7】
前記カテーテルを前記現在ビューから前記目標ビューを目指してナビゲートする前記ロボットナビゲーションシステムの前記アクションセットを、前記機械学習ベースネットワークを用いて判断するときに、
前記コンピュータが、
前記目標ビューとして患者の標準的な解剖学的ビューを表している1つ以上の画像を受信し、
前記現在ビューから前記1つ以上の画像に表されている
前記標準的な解剖学的ビューを目指して前記カテーテルをナビゲートする前記ロボットナビゲーションシステムの前記アクションセットを判断する、ことを含む、請求項1に記載の方法。
【請求項8】
前記標準的な解剖学的ビュー
が、患者の臨床的に重要なビュー
である、請求項7に記載の方法。
【請求項9】
前記コンピュータが、前記現在ビューの前記画像を前記目標ビューの画像と比較して類似性尺度を判断し、
前記コンピュータが、前記受信と前記判断と前記自動ナビゲートを、類似性閾値を満足するまで繰り返す、ことをさらに含む、請求項1に記載の方法。
【請求項10】
前記コンピュータが、前記カテーテルの前記現在ビューの分類又は前記カテーテルの前記現在ビュー中の1つ以上の解剖学的対象の同定の少なくともいずれかを実行し、
前記コンピュータが、前記カテーテルの前記現在ビューの前記分類又は前記カテーテルの前記現在ビュー中の前記1つ以上の解剖学的対象の同定の少なくともいずれかを識別する、ことをさらに含む、請求項1に記載の方法。
【請求項11】
患者内のカテーテルの現在ビューの画像を受信する手段と、
前記カテーテルを前記現在ビューから目標ビューを目指してナビゲートするロボットナビゲーションシステムのアクションセットを、機械学習ベースネットワークを用いて判断する手段と、
前記機械学習ベースネットワークは、位置推定コンポーネント及びローカル探索コンポーネントを備え、前記位置推定コンポーネントが、前記目標ビューに対する前記現在ビューの相対位置を推定するように構成され、前記ローカル探索コンポーネントが、AIエージェントを訓練して前記カテーテルを前記目標ビューに近づける可能なアクションの報酬値を予測するように構成され、
前記アクションセットに従って前記ロボットナビゲーションシステムにより、前記現在ビューから前記目標ビューを目指して、前記カテーテルを患者内で自動ナビゲートする手段と、を含む装置。
【請求項12】
前記カテーテルを前記現在ビューから前記目標ビューを目指してナビゲートする前記ロボットナビゲーションシステムの前記アクションセットを、前記機械学習ベースネットワークを用いて判断する前記手段は、
前記目標ビューを表す、患者の術前医用画像を受信する手段と、
前記術前医用画像と前記カテーテルの前記現在ビューの前記画像との間の第1のレジストレーションを実行する手段と、
前記術前医用画像と
、前記現在ビューの位置から患者内の予定の位置にナビゲートされた前記カテーテルのビューの画像と
、の間の第2のレジストレーションを実行する手段と、
前記第1のレジストレーションと前記第2のレジストレーションとに基づいて、前記現在ビューから前記術前医用画像
に表された前記目標ビューを目指して前記カテーテルをナビゲートする前記ロボットナビゲーションシステムの前記アクションセットを判断する手段と、を含む、請求項11に記載の装置。
【請求項13】
前記術前医用画像は、前記カテーテルを自動ナビゲートする
実施中の医療処置の計画段階で取得された医用画像である、請求項12に記載の装置。
【請求項14】
前記カテーテルを前記現在ビューから前記目標ビューを目指してナビゲートする前記ロボットナビゲーションシステムの前記アクションセットを、前記機械学習ベースネットワークを用いて判断する前記手段は、
1つ以上の保存医用画像から選択された
、前記目標ビューを表す保存医用画像を受信する手段と、
前記カテーテルの前記現在ビューの前記画像に対応する前記ロボットナビゲーションシステムの設定を表す第1の頂点から、前記選択された保存医用画像に対応する前記ロボットナビゲーションシステムの設定を表す第2の頂点へ、グラフにおける経路を決定する手段と、
該決定した経路に基づいて、前記現在ビューから前記選択された保存医用画像に表された
前記目標ビューを目指して前記カテーテルをナビゲートする前記ロボットナビゲーションシステムの前記アクションセットを判断する手段と、を含む、請求項11に記載の装置。
【請求項15】
前記1つ以上の保存医用画像を、前記カテーテルを自動ナビゲートする
実施中の医療処置中に保存する手段をさらに含む、請求項14に記載の装置。
【請求項16】
ユーザ入力の受信に応じて前記グラフに頂点を付すことによってユーザが前記カテーテルをナビゲートするときに前記グラフを生成する手段をさらに含む、請求項14に記載の装置。
【請求項17】
前記カテーテルを前記現在ビューから前記目標ビューを目指してナビゲートする前記ロボットナビゲーションシステムの前記アクションセットを、前記機械学習ベースネットワークを用いて判断する前記手段は、
前記目標ビューとして患者の標準的な解剖学的ビューを表している1つ以上の画像を受信する手段と、
前記現在ビューから前記1つ以上の画像に表されている
前記標準的な解剖学的ビューを目指して前記カテーテルをナビゲートする前記ロボットナビゲーションシステムの前記アクションセットを判断する手段とを含む、請求項11に記載の装置。
【請求項18】
コンピュータプログラム命令を記録する非一時的コンピュータ可読媒体であって、
前記コンピュータプログラム命令を実行するプロセッサが、
患者内のカテーテルの現在ビューの画像を受信し、
前記カテーテルを前記現在ビューから目標ビューを目指してナビゲートするロボットナビゲーションシステムのアクションセットを、機械学習ベースネットワークを用いて判断し、
前記機械学習ベースネットワークは、位置推定コンポーネント及びローカル探索コンポーネントを備え、前記位置推定コンポーネントが、前記目標ビューに対する前記現在ビューの相対位置を推定するように構成され、前記ローカル探索コンポーネントが、AIエージェントを訓練して前記カテーテルを前記目標ビューに近づける可能なアクションの報酬値を予測するように構成され、
前記アクションセットに従って前記ロボットナビゲーションシステムにより、前記現在ビューから前記目標ビューを目指して、前記カテーテルを患者内で自動ナビゲートする、ことを含むオペレーションを実行する、非一時的コンピュータ可読媒体。
【請求項19】
前記カテーテルを前記現在ビューから前記目標ビューを目指してナビゲートする前記ロボットナビゲーションシステムの前記アクションセットを、前記機械学習ベースネットワークを用いて判断するオペレーションは、
前記目標ビューを表す、患者の術前医用画像を受信し、
前記術前医用画像と前記カテーテルの前記現在ビューの前記画像との間の第1のレジストレーションを実行し、
前記術前医用画像と
、前記現在ビューの位置から患者内の予定の位置にナビゲートされた前記カテーテルのビューの画像と
、の間の第2のレジストレーションを実行し、
前記第1のレジストレーションと前記第2のレジストレーションとに基づいて、前記現在ビューから前記術前医用画像
に表された前記目標ビューを目指して前記カテーテルをナビゲートする前記ロボットナビゲーションシステムの前記アクションセットを判断する、ことを含む、請求項18に記載の非一時的コンピュータ可読媒体。
【請求項20】
前記カテーテルを前記現在ビューから前記目標ビューを目指してナビゲートする前記ロボットナビゲーションシステムの前記アクションセットを、前記機械学習ベースネットワークを用いて判断するオペレーションは、
1つ以上の保存医用画像から選択された
、前記目標ビューを表す保存医用画像を受信し、
前記カテーテルの前記現在ビューの前記画像に対応する前記ロボットナビゲーションシステムの設定を表す第1の頂点から、前記選択された保存医用画像に対応する前記ロボットナビゲーションシステムの設定を表す第2の頂点へ、グラフにおける経路を決定し、
該決定した経路に基づいて、前記現在ビューから前記選択された保存医用画像に表された
前記目標ビューを目指して前記カテーテルをナビゲートする前記ロボットナビゲーションシステムの前記アクションセットを判断する、ことを含む、請求項18に記載の非一時的コンピュータ可読媒体。
【請求項21】
前記カテーテルを前記現在ビューから前記目標ビューを目指してナビゲートする前記ロボットナビゲーションシステムの前記アクションセットを、前記機械学習ベースネットワークを用いて判断するオペレーションは、
前記目標ビューとして患者の標準的な解剖学的ビューを表している1つ以上の画像を受信し、
前記現在ビューから前記1つ以上の画像に表されている
前記標準的な解剖学的ビューを目指して前記カテーテルをナビゲートする前記ロボットナビゲーションシステムの前記アクションセットを判断する、ことを含む、請求項18に記載の非一時的コンピュータ可読媒体。
【請求項22】
前記標準的な解剖学的ビュー
が、患者の臨床的に重要なビュー
である、請求項21に記載の非一時的コンピュータ可読媒体。
【請求項23】
前記オペレーションは、
前記現在ビューの前記画像を前記目標ビューの画像と比較して類似性尺度を判断し、
前記受信と前記判断と前記自動ナビゲートを、類似性閾値を満足するまで繰り返す、ことをさらに含む、請求項18に記載の非一時的コンピュータ可読媒体。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、概してICE(intracardiac echocardiography:心腔内エコー法)におけるスマートイメージナビゲーションに関し、具体的には、ICEにおけるカテーテルの自動ナビゲーションに関する。
【背景技術】
【0002】
ICE(心腔内エコー法)は、心臓電気生理学的処置のための確立された画像モダリティ(診断法)である。ICEによりオペレータは、全身麻酔不要で心臓の解剖学的構造、血流、及びデバイスを可視化することができるので、治療ガイダンスや、有害事象の検出と監視に非常に適している。このような利点にもかかわらず、ICEは、電気生理学的処置でたまにしか使用されない。これは、ICEの実施が複雑であること、ICEカテーテルの視野が限られていること、ICE処置に2人のオペレータが必要であること、効果的な操作及び撮像には広範な訓練が必要とされること、に起因する。
【発明の概要】
【0003】
一態様によれば、患者内でカテーテルを自動ナビゲートするシステム及び方法が提供される。患者内のカテーテルの現在ビュー(現在像)の画像を受信する。カテーテルを現在ビューから目標ビュー(目標像)を目指してナビゲートするロボットナビゲーションシステムのアクションセット(動作の組み合わせ)を、機械学習ベース(を基礎にした)ネットワークを用いて判断する。カテーテルは、そのアクションセットに従ってロボットナビゲーションシステムにより、現在ビューから目標ビューを目指して、患者内で自動ナビゲートされる。
【0004】
一態様において、患者の術前医用画像を受信する。術前医用画像とカテーテルの現在ビューの画像との間の第1のレジストレーション(位置合わせ)を実行する。術前医用画像と患者内の予定の位置にナビゲートされたカテーテルのビュー(像)の画像との間の第2のレジストレーションを実行する。現在ビューから術前医用画像に相当するビューを目指してカテーテルをナビゲートするロボットナビゲーションシステムのアクションセットは、第1のレジストレーションと第2のレジストレーションとに基づいて判断する。術前医用画像は、カテーテルを自動ナビゲートする当該医療処置の計画段階で取得された医用画像である。
【0005】
一態様において、1つ以上の保存医用画像から選択された保存医用画像を受信(選択を実行)する。カテーテルの現在ビューの画像に対応するロボットナビゲーションシステムの設定(構成/配置)を表す第1の頂点から、選択保存医用画像に対応するロボットナビゲーションシステムの設定を表す第2の頂点へ、グラフにおける経路を決定する。現在ビューから、選択保存医用画像に表された(描写された)ビューを目指してカテーテルをナビゲートする、ロボットナビゲーションシステムのアクションセットは、その決定した経路に基づいて判断する。1つ以上の保存医用画像は、カテーテルを自動ナビゲートする当該医療処置中に保存されたものである。グラフは、ユーザ入力の受信に応じてグラフに頂点を付すことによってユーザがカテーテルをナビゲートするときに生成される。
【0006】
一態様において、患者の標準的な解剖学的ビューを表している1つ以上の画像を受信する。現在ビューからその1つ以上の画像に表されているビューを目指してカテーテルをナビゲートするロボットナビゲーションシステムのアクションセットを判断する。標準的な解剖学的ビューを表している1つ以上の画像は、臨床的に重要なビューを含んでいる。
【0007】
一態様において、現在ビューの画像を目標ビューの画像と比較して類似性尺度を判断する。受信、判断、及び自動ナビゲーションは、類似性閾値を満足するまで繰り返す。
【0008】
一態様において、カテーテルの現在ビューの分類又はカテーテルの現在ビュー中の1つ以上の解剖学的対象の同定の少なくともどちらかを実行する。カテーテルの現在ビューの分類又はカテーテルの現在ビュー中の1つ以上の解剖学的対象の同定の少なくともいずれかが識別される。
【0009】
本発明に関するこれらの利点及び他の利点は、以下の詳細な説明及び図面を参照することにより、当分野で通常の知識をもつ者に把握される。
【図面の簡単な説明】
【0010】
【
図1】医療処置の実施にあたりロボットカテーテルナビゲーションシステムを用いてカテーテルを自動ナビゲートするフレームワークを示す、一実施例に係る図。
【
図2】医療処置の実施にあたりロボットカテーテルナビゲーションシステムを用いてカテーテルを自動ナビゲートする方法を示す、一実施例に係る図。
【
図3】1つ以上の医用画像に従い、術前医用画像に表された目標ビューを目指してカテーテルをナビゲートする方法を示す図。
【
図4】1つ以上の医用画像に従い、保存医用画像に表された目標ビューを目指してカテーテルをナビゲートする方法を示す図。
【
図5】グラフを生成する際の概略図を示す、一実施例に係る図。
【
図6】1つ以上の医用画像に従い、患者の標準的な解剖学的ビューを目指してカテーテルをナビゲートする方法を示す図。
【
図7】現在ビューから目標ビューを目指してカテーテルをナビゲートするロボットナビゲーションシステムのアクションセットを判断する際のワークフローを示す、一実施例に係る図。
【
図8】1つ以上の目標ビューに対しカテーテルの現在ビューの相対的位置を推定する深層学習(ディープラーニング)モデルのネットワークアーキテクチャを示す、一実施例に係る図。
【
図9】標識された解剖学的対象と共にカテーテルのビューの一例を示す、一実施例に係る図。
【
図10】患者の解剖学的構造の実時間定量化及びそこに識別された治療デバイスの実時間追跡と共にカテーテルのビューの一例を示す、一実施例に係る図。
【
図11】一実施形態を実行するために使用可能な人工ニューラルネットワークを例示する図。
【
図12】一実施形態を実行するために使用可能な畳み込みニューラルネットワークを例示する図。
【
図13】一実施形態を実行するために使用可能なコンピュータの高レベルブロック図。
【発明を実施するための形態】
【0011】
本発明は、概して言えば、ICE(心腔内エコー法)におけるスマートイメージナビゲーションの方法及びシステムに関する。本発明の実施例が、当該方法及びシステムを視覚的に理解できるようにここで説明される。デジタル画像は、多くの場合、1つ以上の物体(又は形状)のデジタル表現から構成される。物体のデジタル表現は、おおよそ、物体を識別し操作するという観点でここに説明される。その操作は、コンピュータシステムのメモリや他の回路/ハードウエアにおいて達成される仮想操作である。したがって、本発明の実施例は、コンピュータシステムに保存されたデータを用いてコンピュータシステムで実行可能であることが理解される。
【0012】
本発明は、概して、ロボットカテーテルナビゲーションシステムを自動制御し、医療処置において患者の医用画像に表された目標ビューを目指してカテーテルをナビゲートすることに関する。ここで使用する場合、医用画像に表されたビューは、医用画像の描写にあてはまる。したがって、医用画像に表された目標ビューを目指してカテーテルをナビゲートすることにより、カテーテルのビューが医用画像に表された目標ビューと実質的に同じになるように、カテーテルがナビゲートされる。ここに説明する様々な実施例は、術前計画医用画像に表されたビュー、医療処置中に先に取得されてブックマークされた医用画像に表されたビュー、又は、標準の解剖学的に重要なビューである、目標ビューを提供する。ここに説明する実施例は、効率的で、正確で、再現性のあるビュー回復及び所見を提供する利点がある。
【0013】
一実施例に係る
図1は、医療処置を実施するためにロボットカテーテルナビゲーションシステムを用いてカテーテルを自動ナビゲートする際のフレームワーク100を示す。
図1については、
図1~
図10を参照して以下に詳述する。一実施例に係る
図2は、医療処置を実施するためにロボットカテーテルナビゲーションシステムを用いてカテーテルを自動ナビゲートする方法200を示す。方法200の各ステップは、例えば
図13のコンピュータ1302など、1つ以上の適切なコンピューティングデバイスによって実行される。
図1のフレームワーク100及び
図2の方法200は、例えばICE、TEE(transesophageal echo:経食道心エコー法)などの様々な医療処置のために、ロボットカテーテルナビゲーションシステムを用いてカテーテルを自動ナビゲートする際に実行される。
【0014】
図2のステップ202において、患者内のカテーテルの現在ビューの画像を受信する。カテーテルの現在ビューは、カテーテルが現在位置している所での当該カテーテルのビューにあてはまる。一例では、
図1に示す場合、現在ビューの画像は、フレームワーク100において、現在のプローブポーズ及びUS(超音波)画像外観102に含まれる。
【0015】
現在ビューの画像は、例えば、CT(コンピュータ断層撮影法)、MRI(磁気共鳴画像法)、US、X線、又は他のあらゆる医療画像モダリティ、又は医療画像モダリティの組み合わせなどのいずれかの適切なモダリティのものとすることができる。現在ビューの画像は、例えば二次元(2D)画像及び/又は三次元(3D)ボリュームからなり、1つの入力医用画像又は複数の入力医用画像からなる。現在ビューの画像は、画像が取得される都度に例えばCTスキャナなどの画像取得デバイスから直接受信することができるし、又は、コンピュータシステムのストレージ又はメモリ(例えば、PACS(picture archiving and communication system:医療用画像管理システム))から、先に(前に)取得された医用画像をロードしたり、リモート(遠隔)コンピュータシステムから送信されてきた医用画像を受信したりして、受け取ることができる。
【0016】
図2のステップ204において、機械学習ベース(を基礎にした)ネットワークを用いて、現在ビューから目標ビューを目指してカテーテルをナビゲートするためにロボットナビゲーションシステムのアクションセットを判断する。ロボットカテーテルナビゲーションシステムには、カテーテルの全12の自由度を操作できるロボットカテーテルナビゲーションシステムが含まれる。カテーテルの12自由度は、カテーテルを動かすために可能なすべてのアクション:X、Y、Z平面における正負の平行移動、ヨー、ピッチ、ロールの各軸に関する時計回りと反時計回りの回転、を表す。アクションセットは、カテーテルを動かすために可能なこれらアクションから選択される。
【0017】
第1の実施例において、目標ビューは、術前医用画像に表されたビューである。例えば、
図1に示されるように、アクションセットは、フレームワーク100のオプション1として示す、術前3Dデータ(例えば、CT、MR、US画像)104にナビゲートするために判断される。術前医用画像に表された目標ビューを目指してナビゲートすることについては、
図3を参照して後述する。
【0018】
第2の実施例において、目標ビューは、カテーテルをナビゲートしている当該医療処置において、先に(前に)取得して保存しておいた医用画像に表されたビューである。例えば、
図1に示されるように、アクションセットは、フレームワーク100のオプション2として示す、保存したICEビュー106にナビゲートするために判断される。保存医用画像に表された目標ビューを目指してナビゲートすることについては、
図4を参照して後述する。
【0019】
第3の実施例において、目標ビューは、標準的な解剖学的ビューからなるビューである。標準的な解剖学的ビューは、例えば心臓のA4C(apical 4 chamber:心尖部四腔)などの臨床的に重要なビューである。例えば、
図1に示されるように、アクションセットは、フレームワーク100のオプション3として示す、標準ICEビュー108にナビゲートするように判断される。標準ビューの医用画像に表された目標ビューを目指してナビゲートすることについては、
図6を参照して後述する。
【0020】
一実施例において、アクションセットは、カテーテルを動かすために可能なアクションのそれぞれについて報酬値(reward)を予測する機械学習ベースネットワークを用いて判断する。例えば、AI(人工知能)エージェントが深層強化学習(deep reinforcement learning)で訓練され、ロボットナビゲーションシステムの可能なアクションそれぞれについて報酬値を予測し、最大の報酬値をもつ1つ以上のアクションがアクションセットとして選択される。一例において、
図1に示すように、AIビューナビゲーションシステム110が、可能なアクションごとに報酬値112を予測し、最大報酬値をもつアクションが、ロボットカテーテルナビゲーションシステム116を使用してカテーテルをナビゲートするために選択114される。機械学習ベースネットワークを用いてアクションセットを判断することについては、
図7を参照して後述する。
【0021】
図2のステップ206において、カテーテルは、アクションセットに基づいてロボットナビゲーションシステムを使用することで、現在ビューから目標ビューを目指して患者内で自動ナビゲートされる。一例において、
図1に示すように、ロボットナビゲーションシステム116は、最も高い報酬値をもつアクションを実行118する。その後、現在のプローブポーズ及びUS画像外観102が更新され、AIビューナビゲーション110は、目標ビューを目指してカテーテルをナビゲートするための次のアクションを繰り返し判断する。すなわち、方法200は、カテーテルを目標ビュー目指してナビゲートするために、何度も繰り返して(例えば、所定回数繰り返して)、反復的に再実行され得る。
【0022】
図3は、1つ以上の医用画像に従って、術前医用画像に表された目標ビューを目指してカテーテルをナビゲートする方法300を示す。方法300の各ステップは、例えば
図13のコンピュータ1302などの1つ以上の適切なコンピューティングデバイスによって実行可能である。一実施例において、方法300は、
図2のステップ204において実行される。
図3の方法300は、
図1のオプション1に対応する。
【0023】
図3のステップ302において、患者の術前医用画像が受信される。術前医用画像は、カテーテルがナビゲートされている当該医療処置(例えば、
図1のフレームワーク100又は
図2の方法200で実行される医療処置)の計画段階で取得された医用画像である。一例において、
図1に示すように、術前医用画像はフレームワーク100の術前3Dデータ104である。
【0024】
術前医用画像は、例えば、CT、MRI、US、X線、又は他の医療画像モダリティ、又は、医用画像モダリティの組み合わせなど、各種の適切なモダリティのものである。術前医用画像は、2D画像及び/又は3Dボリュームからなり、1つの入力医用画像又は複数の入力医用画像からなる。術前医用画像は、画像が取得される都度に例えばCTスキャナなどの画像取得デバイスから直接受信することができるし、又は、先に取得された医用画像をコンピュータシステム(例えばPACS)のストレージやメモリからロードしたり、リモートコンピュータシステムから送信されてきた医用画像を受信したりして、受け取ることができる。
【0025】
図3のステップ304において、術前医用画像とカテーテルの現在ビューの現在画像との間の第1のレジストレーションを実行する。一例において、
図1に示すように、第1のレジストレーションは、フレームワーク100のAI画像フュージョン及び計画システム120によって実行される。現在画像は、
図2のステップ202で受信される現在画像である。カテーテルの現在ビューは、カテーテルが現在位置している所のカテーテルのビューにあたる。第1のレジストレーションは、例えば、各種の適切なアプローチを用いて、CTとX線のレジストレーション(例えば、2D/3Dレジストレーション)、CTとDynaCTのレジストレーション(3D/3Dレジストレーション)、又は、CTとUSのレジストレーションとして、実行することができる。例えば、第1のレジストレーションは、既知の画像ベースのレジストレーション技術又は既知の深層学習レジストレーション技術に基づいて実行される。第1のレジストレーションは、術前画像に対するカテーテルの位置特定を提供する。
【0026】
図3のステップ306において、術前医用画像と、患者内の予定の位置にナビゲートされたカテーテルのビューの画像との間の第2のレジストレーションが実行される。一例において、
図1に示すように、第2のレジストレーションは、フレームワーク100のAI画像フュージョン及び計画システム120によって行われる。現在画像(ステップ304)を取得した後、カテーテルを患者内の予定の位置にナビゲートし、画像を取得する。患者内の予定の位置は、標準的な位置であってもよいし、そうでなければ既知の位置であってもよく、解剖学的ランドマークをつけてあってよい。第2のレジストレーションは、ステップ304における第1のレジストレーションに関して説明されているとおりに実行し得る。第2のレジストレーションは、患者の解剖学的構造に対するカテーテルの位置特定を提供し、術前医用画像が目標ビューを画定するために利用可能な場合にのみ実行される。
【0027】
一実施例において、第2のレジストレーションを実行する代わりに、患者の解剖学的構造に対するカテーテルの位置特定を、2つのX線画像を取得してカテーテル先端の正確な姿勢推定を確定することによって、行うことができ、これは次に、(ステップ304で決定された)術前画像に自動的にマッピングされる。別の代替例では、ロボットセンサやカテーテルの先端部にある他のセンサ(例えば、慣性測定ユニット又はファイバブラッググレーティング(FBG)センサ)を使用してカテーテルの先端部を測位する。
【0028】
図3のステップ308において、第1のレジストレーション及び第2のレジストレーションに基づいて、カテーテルの現在ビューから、術前医用画像に表されたビューを目指してカテーテルをナビゲートするために、ロボットナビゲーションシステムのアクションセットを判断する。一例において、
図1に示すように、アクションセットは、フレームワーク100のAIビューナビゲーションシステム110によって判断される。アクションセットは、
図7を参照して後述するが、機械学習ベースネットワークを用いて判断される。
【0029】
一実施例において、AI(人工知能)エージェントは、第1のレジストレーション及び第2のレジストレーションに基づいて、術前医用画像に表されたそれぞれの目標ビューに対する現在ビューの相対的位置を推定するために、マルチタスク位置推定について訓練される。AIエージェントはDRL(Deep Reinforcement Learning:深層強化学習)を用いて訓練され、各ステップで継続して目標ビューへ近づいていく。マルチタスク位置推定から得られる目標ビュー位置特定の精度をさらに高めるために、次に深層アクション学習モデルを用いてローカル(局所)サーチ(探索)を実行する。
【0030】
図4は、1つ以上の医用画像に従い、保存された医用画像に表された目標ビューを目指してカテーテルをナビゲートする方法400を示す。方法400の各ステップは、例えば
図13のコンピュータ1302などの1つ以上の適切なコンピューティングデバイスによって実行される。一実施例において、方法400は、
図2のステップ204で実行される。
図4の方法400は、
図1のオプション2に対応する。
【0031】
図4のステップ402において、保存されている1つ以上の医用画像から保存医用画像の選択を実行する。1つ以上の保存医用画像は、カテーテルをナビゲートしている当該医療処置(例えば、
図1のフレームワーク100又は
図2の方法200で実施される医療処置)において先に取得されて保存された画像である。具体的に、先立つ医療処置の初期段階において、ユーザがカテーテルを患者内の対象となる1つ以上の解剖学的ビューにナビゲートし、そして、ユーザからユーザ入力を受信して、1つ以上の医用画像を取得しブックマークとしてメモリ又はストレージに保存医用画像を保存することにより、容易に再現可能なビューのライブラリを生成する。該医療処置の次の段階において、ステップ402で、ユーザは、カテーテルをナビゲートするために1つ以上の保存医用画像からいずれかを選択し、対象の1つ以上の解剖学的ビューを見る。一例において、
図1に示す場合、1つ以上の保存医用画像は、フレームワーク100の保存したICEビュー106である。
【0032】
保存医用画像は、例えば、CT、MRI、US、X線、又は他の医用画像モダリティ、又は医用画像モダリティの組み合わせなど、いずれかの適切なモダリティのものである。例えば、保存医用画像は、2D画像及び/又は3Dボリュームからなり、1つの入力医用画像又は複数の入力医用画像かならる。保存医用画像は、画像を取得する都度に例えばCTスキャナなどの画像取得装置から直接受信することができるし、先に取得してある医用画像をコンピュータシステム(例えばPACS)のストレージ又はメモリからロードしたり、リモートコンピュータシステムから送信されてきた医用画像を受け取ることなどでも受信することができる。
【0033】
図4のステップ404において、カテーテルの現在ビューの画像に対応するロボットナビゲーションシステムの設定(構成/配置)を表す第1の頂点から、選択保存医用画像に対応するロボットナビゲーションシステムの設定を表す第2の頂点まで、グラフにおける経路を判断する。
【0034】
グラフは、医療処置の事前初期段階において、ユーザが1つ以上の対象とする解剖学的ビューにカテーテルをナビゲートするときに実質的に実時間で、生成される。1つ以上の実施例に係る
図5は、グラフを作成する際の概略
図500を示している。医療処置の事前初期段階において、ユーザは、患者内の経路502に沿ってカテーテルをナビゲートする。ユーザ入力が受信され、対象の解剖学的ビューを表す画像504-A,504-B,504-C,504-D(まとめて保存画像504と呼ぶ)を取得して保存する。グラフ506は、頂点(又はノード)(図において点で示されている)と頂点を接続するエッジから構成されている。
【0035】
形式的に、letG(V,E)がトポロジーグラフ506を表し、Vは頂点の集合、Eは、ロボットナビゲーションシステムの設定空間において頂点を接続するエッジである。頂点Vは、ロボットナビゲーションシステムの設定qを表す。
図5に示してある頂点508-A,508-B,508-C,508-D(まとめて頂点508と呼ぶ)は、保存画像504を取得し保存するユーザ入力を受信したときの、ロボットナビゲーションシステムの設定q(運動/動力の状態)に対応している。グラフG506は、頂点Vが接近しずぎないように密度パラメータαに従って頂点Vを挿入することにより、生成フェーズにおいて実質的に実時間で生成される。密度パラメータαは、探索空間の解像度に関するユーザ定義パラメータである。密度パラメータαが大きくなれば探索は速くなるが、経路に沿ったステップが大きくなって解剖学的構造と衝突する可能性が高まり、経路の安全性が保証されない可能性が出てくる。(
図4に示すステップ404の)クエリーフェーズにおいて、ユーザリクエスト(すなわち、
図4に示すステップ402における保存医用画像の選択)に応じ、開始設定q_s及び目標設定q_tを含む一組の設定が生成される。開始設定q_sはロボットナビゲーションシステムの現在の設定に相当し、目標設定q_tは、選択保存医用画像に対するロボットナビゲーションシステムの設定に相当する。グラフG506において頂点Vとして各設定が表現されているので、離散探索アルゴリズムを適用して、グラフG506において開始設定q_sと目標設定q_tとの間の経路を結ぶエッジのシーケンスを判断することができる。離散探索アルゴリズムは、開始設定q_sと目標設定q_tとの間の経路を判断するために適切な各種のアルゴリズムで、例えばA*(エースター)探索アルゴリズムなどである。カテーテルの現在位置がグラフG506の頂点に対応していない場合は、(密度パラメータαが満たされていると仮定して)新しいノードを現在位置のためにグラフG506に追加する。
【0036】
図4のステップ406において、判断した経路に基づいて、カテーテルの現在ビューから、選択保存医用画像に表されたビューを目指してカテーテルをナビゲートするために、ロボットナビゲーションシステムのアクションセットを判断する。アクションセットは、選択保存医用画像に表された目標ビューに基づいて与えられる。現在の状態(1つのノード)が既知なので、目標ビューへの経路(動作セット)は特定される。
図4の方法400は、経路を容易に再現するために、以前に生成されたすべての可能な軌跡を有する。一例において、
図1に示すように、アクションセットは、フレームワーク100のAIビューナビゲーションシステム110によって判断される。アクションセットは、
図7を参照して後述するが、機械学習ベースネットワークを用いて判断できる。
【0037】
一実施例において、カテーテルの現在ビューの画像を選択保存医用画像と比較して実時間画像類似性尺度を生成することによって、ローカル(局所)ビューの微調整を適用することができる。画像類似性尺度は、各種の適切な尺度であり、例えば、正規化相互相関(NCC)、構造類似性尺度、Dice類似性係数、又は他の適切な測定基準である。実時間画像類似性尺度は目的関数として扱われ、カテーテルの現在ビューの画像と選択保存医用画像との間の画像類似性閾値を最大化するか又は満足するように、カテーテルが操作される。このアプローチは連続して実行され、それによって、カテーテルは、判断された経路に従って目標ビューを目指し操作され、そしてカテーテルの位置は、最小の画像類似性基準が満たされるまで、徐々に微調整される(例えば、方法200を反復することによって)。
【0038】
図6は、1つ以上の医用画像に従って、患者の標準的な解剖学的ビューにカテーテルをナビゲートする方法600を示す。方法600の各ステップは、例えば
図13のコンピュータ1302などの1つ以上の適切なコンピューティングデバイスによって実行することができる。一実施例において、方法600は、
図2のステップ204で実行される。
図6の方法600は、
図1のオプション3に対応する。
【0039】
図6のステップ602において、患者の標準的な解剖学的ビューを表している1つ以上の画像を受信する。標準的な解剖学的ビューは、患者の臨床的に重要なビューである。標準的な解剖学的ビューの例には、PLAX(傍胸骨長軸)、PSAX(傍胸骨短軸)、A4C(心尖部四腔)、A3C(心尖部三腔)、A2C(心尖部二腔)、肋骨下、及びSSN(胸骨上)が含まれる。この標準的な解剖学的ビューは、カテーテルがナビゲートされている当該医療処置(例えば、
図1のフレームワーク100又は
図2の方法200で実行されている医療処置)において、前に見られていない又はナビゲートされていない。一例において、
図1に示す場合、1つ以上の保存医用画像は、フレームワーク100の標準ICEビュー108である。
【0040】
標準的な解剖学的ビューを表す1つ以上の画像は、各種の適切なモダリティのものであり、例えば、CT、MRI、US、X線、又はその他の医療画像モダリティ、又は医療画像モダリティの組み合わせなどである。この1つ以上の画像は、2D画像及び/又は3Dボリュームからなり、1つの入力医用画像又は複数の入力医用画像からなる。1つ以上の画像は、画像が取得される都度に例えばCTスキャナなどの画像取得装置から直接受信することができるし、先に取得されている医用画像をコンピュータシステム(例えばPACS)のストレージ又はメモリからロードしたり、リモートコンピュータシステムから送信されてきた医用画像を受信したりして、受信することもできる。
【0041】
図6のステップ604において、機械学習ベースネットワークを用いて、現在ビューから標準的な解剖学的ビューを表している1つ以上の画像へカテーテルをナビゲートするために、ロボットナビゲーションシステムのアクションセットを判断する。一例において、
図1に示す場合、アクションセットは、フレームワーク100のAIビューナビゲーションシステム110によって判断される。アクションセットは、
図7を参照して後述するが、機械学習ベースネットワークを用いて判断される。
【0042】
一実施例に係る
図7は、現在ビューから目標ビューを目指してカテーテルをナビゲートするためのロボットナビゲーションシステムのアクションセットを判断するワークフロー700を示す。一例において、ワークフロー700は、
図1のAIビューナビゲーションシステム110によって実行される。ワークフロー700は、
図2のステップ204、
図3のステップ308、
図4のステップ406、又は
図6のステップ604において、ロボットナビゲーションシステムのアクションセットを判断するために実行される。ワークフロー700に示されるように、現在ビュー702から1つ以上の目標ビュー708を目指してカテーテルをナビゲートするアクションセットは、位置推定コンポーネント704及びローカル探索コンポーネント706による。
【0043】
位置推定コンポーネント704は、1つ以上の目標ビュー708に対する現在ビュー702の相対位置を推定する。一実施例に係る
図8は、1つ以上の目標ビューに対するカテーテルの現在ビューの相対的位置を推定するための深層学習モデルのネットワークアーキテクチャ800を示す。ほぼ決定論的なヒト心臓構造を考慮すると、すべての目標ビューに対する現在ビューの相対位置をマルチタスク学習により同時に学習することが可能である。カテーテルの現在ビューの画像I802と、P
E1808-A,P
E2808-B,P
EN808-Cとして示されている相対位置(まとめて相対位置808と呼ぶ)をもつN個の目標ビューとが与えられ、ネットワークアーキテクチャ800は、特徴抽出コンポーネント804及び位置推定コンポーネント806を含んでいる。特徴抽出コンポーネント804は、畳み込み(conv)層とプーリング(pooling)層とを含み、Wでパラメータ化されて画像I802から潜在的な特徴を抽出する。位置推定コンポーネント806は、画像I802の相対位置808をそれぞれ推定するためのN分岐を含む。位置推定コンポーネント806の各枝は、FC(全結合)層からなり、{W
i}
n
i=1でパラメータ化される。マルチタスクモデル訓練対象は、次の目的関数に従って定義される。
[式1]
【0044】
目標ビューごとのネットワークアーキテクチャ800の深層学習モデルの個別の訓練を比較することで、マルチタスクモデルには次の利点がある。すべての目標ビューの相対的位置には高い相関関係があるから、教師あり学習においてすべての情報を使用することで、P
E1808-A、P
E2808-B、及びP
EN808-Cの一つ一つを推定する精度を高めることができる。特徴抽出コンポーネントはすべての位置推定コンポーネントによって共有されるので、
図8に示した実施例は、N個の目標ビューに対する相対位置を別々に推定するためのN個のモデルを訓練するよりも、メモリ効率に優れる。
【0045】
図7のローカル探索コンポーネント706は、各ステップでカテーテルを目標ビューに近づける適切な報酬値を予測するAI(人工知能)エージェントを訓練する深層強化学習により、学習する。この報酬値は、例えば、既知の技術を用いて予測することができる。
【0046】
一実施例において、訓練で、個々の目標ビューの空間関係をさらに活用することができる。例えば、A4Cの目標ビューからA3Cへカテーテルを移動させるためにはプローブ回転のみが必要とされる。上述の方法に従ってA4Cビューが取得されたとする。A4CビューからA3Cビューへの回転パラメータを予測するために、畳み込みニューラルネットワークを次の目的関数に従って学習させる。
[式2]
式中、A
iは訓練画像I
iのグランドトゥルース(正解)回転パラメータであり、μ
A4C-A3CはA4CからA3Cへの平均回転角度であり、訓練サンプルから統計的に学習される。経験的に、μ
A4C-A3Cを予備知識として使用することで、モデル予測精度を大幅に改善することができる。訓練サンプルは、様々なアプローチを経て取得される。例えば、訓練サンプルは、大規模患者集団を通じたヒトの解剖学的構造の全体ビューをもっている他の3Dモダリティ(例えば、CT、MRなど)からUS画像のシミュレーションとして取得できる。別の例では、訓練サンプルは、大規模患者集団を通じて記録されたカテーテル位置及びカテーテル位置の多数のバリエーションとのUS画像の同期取得により、取得される。このような訓練サンプルは、オフライン訓練に使用してもよい。別の例では、訓練サンプルは、オフライン訓練されたモデルからの、より少数の患者を通じたエージェントのオンライン更新によって、取得される。
【0047】
一実施例において、カテーテルのナビゲーション中(例えば、
図2のステップ206において)、カテーテルの現在ビューは特定の標準的な解剖学的ビュー(例えば、PLAX、PSAX、A4C、A3C、A2C、肋骨下、又はSSN)であると自動的に分類され、カテーテルの現在ビューに現れている解剖学的対象(例えば、心房、心室、肺静脈、左心耳など)が同定され、現在ビューの分類及び同定された解剖学的対象が現在ビューにおいて識別される。一実施例において、
図1に示す場合、カテーテルの現在ビューの分類と解剖学的対象の同定及びラベリングを、フレームワーク100のAIアナトミー認識122によって行うことができる。一実施例において、現在ビューの分類及び解剖学的対象のラベリングは、機械学習ベースネットワークを用いて実行される。カテーテルのナビゲーション中に遭遇する解剖学的対象を認識し、認識した解剖学的対象を、次のアクションを最適に計画するためAIエージェントに提供することによって、現在ビューの分類及び解剖学的対象のラベリングは、カテーテルのナビゲーションを容易にする。一実施例に係る
図9は、ラベルされた解剖学的対象と共にカテーテルを例示する。ビュー902では、LA(左心房)及びLAA(左心耳)がビューにラベルされている。ビュー904では、LA、LAA、及びLSPV(左上肺静脈)がビューにラベルされている。
【0048】
一実施例において、例えば「Deep Q-learning from Demonstrations」を用いて、カテーテルをナビゲートするために使用されるAIエージェントの訓練及び実行に、臨床医の知識を組み込むことができる。一例において、
図1に示す場合、臨床知識が、フレームワーク100の臨床ノウハウ124として表されている。臨床医の知識は、解剖学に関する知識と、具体的な処置における経路計画の一般的手法とを含む。臨床医の知識の例としては、典型的にはICE検査が、右心房中央に配置されたカテーテル及び三尖弁に面する中立位置のトランスデューサを用いて得られるホームビューで開始されることが挙げられる。ホームビューは、右心房、三尖弁、右心室、及び大動脈弁の典型的には斜位又は短軸ビューの画像化を提供する。ホームビューから、カテーテルを時計回りに回転させると、大動脈弁を長軸に、右室流出路を見ることができる。さらに時計回りに回転させることにより、左心耳を前方に且つ冠静脈洞を後方にして、僧帽弁及び心房中隔を視覚化することができる。
【0049】
一実施例において、安全チェックが、例えば、画像ベースのアプローチ又はセンサベースのアプローチを使用して、実行される。一例では、
図1に示す場合、安全チェックは、フレームワーク100の安全チェック126によって実行される。安全チェックを実行するために、カテーテル(例えば、ICEカテーテル及び治療用カテーテル)近傍の組織境界が明確に輪郭描画される(例えば、ユーザによって)。カテーテルのナビゲーション中に適正な安全域を割り当てることができるように、カテーテルの実時間追跡を実行する。ICEカテーテルをナビゲートする場合、共に位置合わせされた術前画像によって提供される拡大解剖学的ビューが、患者の解剖学的構造に対してICEカテーテルの相対位置を提供するために利用される。
【0050】
一実施例において、実時間(ライブ)の追跡及び定量化を行う。一例において、
図1に示す場合、実時間追跡及び定量化は、フレームワーク100のAI実時間定量化128によって実行される。患者の解剖学的構造の実時間定量化と治療デバイスの実時間追跡は、治療提供の最適なガイダンス及びモニタリングをもたらす。一実施例に係る
図10は、患者の解剖学的構造の実時間定量化とそこに同定された治療デバイスの実時間追跡を伴って、カテーテルのビューを例示する。ビュー1002に示されているのは、左心耳閉鎖処置に関するもので、LAA入口モデル1006は、心周期を通して形状検出及びその測定値の追跡を提供することが示され、これは、デバイスの選択及び治療結果予測に重要である。ビュー1004に示される場合、心房経中隔穿刺針が、トラッカー1008によって追跡されている。ICE画像における治療デバイスの追跡と、4D-ICE又は共に位置合わせされた術前ボリュメトリック画像(例えば、CT、MR、US)のいずれかから生成される3Dロードマップの背景におけるその表示は、治療中のデバイス位置の監視に役立つ。さらに、同定され追跡される対象の治療デバイス及び/又は解剖学的構造が、ICEカテーテルをナビゲートするためにAIエージェントの制御ループに送られるように使用され、対象の治療デバイス又は解剖学的構造が、処置中、ビューの中心に維持されるか、さもなければビュー内に最適配置される。
【0051】
ここに説明する実施例は、特許請求の範囲に係る方法と共に特許請求の範囲に係るシステムに関して説明される。ここに記載される特徴、利点、代替の実施例は、特許請求の範囲に係る他の対象にもあてはまり、その逆もまた同様である。言い換えれば、システムの請求項は、方法の観点で記載又は請求されている特徴をもって改良することができる。この場合、方法の機能的特徴は、提供するシステムの目的ユニットによって実施される。
【0052】
さらに言えば、ここに説明する特定の実施例は、機械学習ベースネットワークを訓練する方法及びシステムに関して説明され、また、訓練された機械学習ベースネットワーク(又はモデル)を利用する方法及びシステムに関して説明される。ここに記載される特徴、利点、代替の実施例は、特許請求の範囲に係る他の対象にもあてはまり、その逆もまた同様である。言い換えれば、機械学習ベースネットワークを訓練する方法及びシステムの請求項は、訓練された機械学習ベースネットワークを利用する方法及びシステムの観点で記載又は請求されている特徴をもって改良することができ、その逆もまた同様である。
【0053】
具体的に、ここに説明される実施例で適用される訓練された機械学習ベースネットワークは、機械学習ベースネットワークを訓練する方法及びシステムでアレンジされ得る。さらに、訓練された機械学習ベースネットワークの入力データは、訓練入力データの有益な特徴及び実施例を含むことが可能で、その逆もまた同様である。また、訓練された機械学習ベースネットワークの出力データは、出力訓練データの有益な特徴及び実施例を含むことが可能で、その逆もまた同様である。
【0054】
概して言うと、訓練された機械学習ベースネットワークは、ヒトが他人の感情と付き合う認知機能を模倣する。具体的には、訓練データに基づく訓練により、訓練された機械学習ベースネットワークは、新しい状況に適応し、パターンを検出し推測することができる。
【0055】
概して言えば、機械学習ベースネットワークのパラメータは、訓練によって適応させることができる。具体的には、教師あり訓練、半教師あり訓練、教師なし訓練、強化学習、及び/又は能動学習(アクティブラーニング)を用いることができる。さらには、表現学習(別の用語が「特徴学習」)を用いることができる。特に、訓練された機械学習ベースネットワークのパラメータは、訓練のいくつかのステップによって繰り返し適応させることができる。
【0056】
具体的に言うと、訓練された機械学習ベースネットワークには、ニューラルネットワーク、サポートベクトルマシン、決定木、及び/又はベイジアンネットワークを用いることができ、及び/又は、訓練された機械学習ベースネットワークは、k平均クラスタリング、Q学習、遺伝的アルゴリズム、及び/又はアソシエーションルール(結合規則)に基づいたものとすることができる。特に、ニューラルネットワークは、ディープニューラルネットワーク、畳み込みニューラルネットワーク、又は畳み込みディープニューラルネットワークとし得る。さらに言えば、ニューラルネットワークは、敵対的ネットワーク、深層敵対的ネットワーク、及び/又は敵対的生成ネットワークとすることができる。
【0057】
一実施例に係る
図11は、人工ニューラルネットワーク1100の実施例を示している。「人工ニューラルネットワーク」の別名が、「ニューラルネットワーク」、「人工ニューラルネット」、又は「ニューラルネット」である。例えば、
図1のAIビューナビゲーションシステム110やAIアナトミー認識122、
図2のステップ204で適用される機械学習ベースネットワーク、
図7の位置推定704、及び
図8のネットワークアーキテクチャ800など、ここに説明される機械学習ネットワークは、人工ニューラルネットワーク1100を使用して実行され得る。
【0058】
人工ニューラルネットワーク1100は、ノード1102-1122及びエッジ1132,1134,・・・,1136を含み、各エッジ1132,1134,・・・,1136は、第1のノード1102-1122から第2のノード1102-1122への有向接続である。大まかに言うと、第1のノード1102-1122と第2のノード1102-1122は別々のノード1102-1122であり、第1のノード1102-1122と第2のノード1102-1122が同一であることも可能である。例えば、
図11において、エッジ1132は、ノード1102からノード1106への有向接続であり、エッジ1134は、ノード1104からノード1106への有向接続である。第1のノード1102-1122から第2のノード1102-1122へのエッジ1132,1134,・・・,1136は、第2のノード1102-1122については「入ってくるエッジ」として、第1のノード1102-1122については「出ていくエッジ」として、表される。
【0059】
この実施例において、人工ニューラルネットワーク1100のノード1102-1122は、層1124-1130に配列することができ、この層は、ノード1102-1122の間のエッジ1132,1134,・・・,1136によって導かれる本質的順位を含むことが可能である。特に、エッジ1132,1134,・・・,1136は、ノードの隣り合った層の間にのみ存在することができる。
図11に示した実施例では、入ってくるエッジのないノード1102,1104のみからなる入力層1124、出ていくエッジのないノード1122のみからなる出力層1130、及び入力層1124と出力層1130との間の隠れ層1126,1128がある。通例、隠れ層1126,1128の数は適宜選択することができる。入力層1124内のノード1102,1104の数は、通常、ニューラルネットワーク1100の入力値の数に関係し、出力層1130内のノード1122の数は、通常、ニューラルネットワーク1100の出力値の数に関係する。
【0060】
具体的には、番号(実数)を、ニューラルネットワーク1100のノード1102-1122それぞれに値として割り振ることができる。ここで、x(n)
i は、n番目の層1124-1130 のi番目のノード1102-1122の値を表す。入力層1124のノード1102-1122の値は、ニューラルネットワーク1100の入力値に等しく、出力層1130のノード1122の値は、ニューラルネットワーク1100の出力値に等しい。さらに、エッジ1132,1134,・・・,1136のそれぞれは、実数である重み(ウェイト)を含むことができ、特に、重みは区間[-1,1]又は区間[0,1]の範囲内の実数である。ここで、w(m,n)
i,jは、m番目の層1124-1130 のi番目のノード1102-1122とn番目の層1124-1130 のj番目のノード1102-1122との間のエッジの重みを表す。さらに、省略形のw(n)
i,jが重みw(n,n+1)
i,jに対して定義される。
【0061】
具体的に、ニューラルネットワーク1100の出力値を計算するために、入力値がニューラルネットワークを通して伝播される。特に、(n+1)番目の層1124-1130のノード1102-1122の値は、n番目の層1124-1130のノード1102-1122の値に基づいて、次式によって計算することができる。
[式3]
【0062】
ここに述べる関数fは伝達関数である(別名「活性化関数」)。既知の伝達関数は、ステップ関数、シグモイド関数(例えば、ロジスティック関数、一般化ロジスティック関数、双曲線タンジェント、アークタンジェント関数、エラー関数、スムーステップ関数)、又は正規化関数である。伝達関数は主に正規化目的に用いられる。
【0063】
具体的に、上記の値は、ニューラルネットワークを通して層の方向に伝播され、この場合、入力層1124の値は、ニューラルネットワーク1100の入力によって与えられ、第1の隠れ層1126の値は、ニューラルネットワークの入力層1124の値に基づいて計算することができ、第2の隠れ層1128の値は、第1の隠れ層1126の値に基づいて計算することができる、などとなる。
【0064】
エッジに値w(m,n)
i,jを設定するために、ニューラルネットワーク1100は、訓練データを用いて訓練する必要がある。具体的には、訓練データは、訓練入力データと訓練出力データとを含む(tiとして表される)。訓練ステップで、ニューラルネットワーク1100に訓練入力データを適用して、計算された出力データを生成する。特に、訓練データ及び計算された出力データは複数の値を含み、その数が出力層のノード数に等しい。
【0065】
具体的に、計算された出力データと訓練データとの比較が、ニューラルネットワーク1100において重みを再帰的に適応させるために使用される(逆伝播アルゴリズム)。特に、重みは次式に従って変化する。
[式4]
式中、γは訓練レートであり、番号δ
(n)
jは次式のように再帰的に計算できる。
(n+1)番目の層が出力層でない場合、δ
(n+1)
jに基づいて、
[式5]
とし、(n+1)番目の層が出力層1130である場合、
[式6]
とし、f’が活性化関数の一次導関数であり、y
(n+1)
jが出力層1130のj番目のノードに関する比較訓練値である。
【0066】
一実施例に係る
図12は、畳み込みニューラルネットワーク1200を示している。例えば、
図1のAIビューナビゲーションシステム110やAIアナトミー認識122、
図2のステップ204で適用される機械学習ベースネットワーク、
図7の位置推定704、及び
図8のネットワークアーキテクチャ800など、ここに説明される機械学習ネットワークは、畳み込みニューラルネットワーク1200を使用して実行装され得る。
【0067】
図12に示す実施例において、畳み込みニューラルネットワーク1200は、入力層1202と、畳み込み層1204と、プーリング層1206と、全結合層1208と、出力層1210とを含む。あるいは、畳み込みニューラルネットワーク1200は、他の種類の層と共に、複数の畳み込み層1204、複数のプーリング層1206、及び複数の全結合層1208を含むことができる。層の順序は適宜選択することができ、通常は、全結合層1208が、出力層1210の前の最後の層として使用される。
【0068】
具体的には、畳み込みニューラルネットワーク1200において、1つの層1202-1210のノード1212-1220は、d次元マトリックスとして又はd次元画像としてアレンジされているとみなすことができる。特に、二次元の場合、n番目の層1202-1210においてiとjでインデックスされたノード1212-1220の値は、x(n)
[i,j]と表すことができる。しかし、1つの層1202-1210のノード1212-1220の配置は、これらが単にエッジの構造と重みによって与えられるというようなことから、畳み込みニューラルネットワーク1200で実行される計算に影響を及ぼさない。
【0069】
具体的に、畳み込み層1204は、特定数のカーネルに基づいて畳み込み演算をなす入ってくるエッジの構造と重みによって特徴付けられる。特に、入ってくるエッジの構造及び重みは、畳み込み層1204のノード1214の値x
(n)
kが、前の層1202のノード1212の値x
(n-1)に基づいて畳み込みx
(n)
k=K
k*x
(n-1)として計算されるように、選択される。このときの畳み込み*は、二次元の場合、次のように定義される。
[式7]
【0070】
ここで、k番目のカーネルKkは、d次元マトリックス(本実施例では二次元マトリックス)であり、通常、ノード1212-1218の数と比較して小さい(例えば、3×3マトリックス、又は5×5マトリックス)。特に、これは、入ってくるエッジの重みが独立ではなく、それらが前記畳み込み方程式を生成するように選択されることを意味する。具体的に、カーネルが3×3マトリックスである場合、それぞれの層1202-1210のノード1212-1220の数にかかわらず、9個の独立した重み(1つの独立した重みに対応するカーネルマトリックスの各エントリー)しかない。特に、畳み込み層1204では、畳み込み層のノード1214の数は、カーネル数を乗じた先行層1202のノード1212の数に等しい。
【0071】
先行層1202のノード1212がd次元マトリックスとして配列されている場合、複数のカーネルを用いることは、さらなる次元(「深さ」次元と表す)を加えていると解釈することができ、その結果、畳み込み層1204のノード1214が、(d+1)次元マトリックスとして配列される。先行層1202のノード1212が、深さ次元を含む(d+1)次元マトリックスとして既に配列されている場合、複数のカーネルを使用することは、深さ次元に沿って拡張していると解釈することができ、その結果、畳み込み層1204のノード1214は、(d+1)次元マトリックスとしても配列され、この場合、深さ次元に関する(d+1)次元マトリックスのサイズは、先行層1202よりも大きくカーネル数倍である。
【0072】
畳み込み層1204を使用する利点は、入力データの空間的にローカルな相関関係を、隣の層のノード間のローカルな結合性パターンを強化することによって、特に、先行層のノードの小さな領域のみに結合されている各ノードによって、活用可能であることである。
【0073】
図12に示す実施例において、入力層1202は、二次元6×6マトリックスとして配配列された36のノード1212を含む。畳み込み層1204は、2つの二次元6×6マトリックスとして配置された72のノード1214を含み、2つのマトリックスの各々は、カーネルを用いた入力層の値の畳み込みの結果である。すなわち、畳み込み層1204のノード1214は、三次元6×6×2マトリックスとして配列されていると解釈することができ、最後の次元が深さ次元である。
【0074】
プーリング層1206は、非線形プーリング関数fに基づくプーリング演算をなす、入ってくるエッジの構造と重み及びそのノード1216の活性化関数によって、特徴付けることができる。例えば、二次元の場合、プーリング層1206のノード1216の値x
(n)は、先行層1204のノード1214の値x
(n-1)に基づいて次のように計算することができる。
[式8]
【0075】
言い換えると、プーリング層1206を用いることによって、先行層1204内の隣り合うノード1214の数d1・d2を、プーリング層内の隣り合う上記ノード数の値の関数として計算される1つのノード1216と置き換えることによって、ノード1214,1216の数を減らすことができる。具体的に、プーリング関数fは、最大関数、平均値、又はL2-Normとすることができる。特に、プーリング層1206については、入ってくるエッジの重みが固定されており、訓練によって修正されない。
【0076】
プーリング層1206を使用する利点は、ノード1214,1216の数及びパラメータの数が減少することである。このことは、ネットワーク内の計算量の減少とオーバーフィッティング(過剰適合)の抑制につながる。
【0077】
図12に示される実施例において、プーリング層1206は最大値プーリングであり、隣り合った4つのノードを1つだけのノードに置き換え、その値は、隣り合った4つのノードの値の最大値である。最大値プーリングは、先行層のd次元マトリックスごとに適用され、この実施例においては、最大値プーリングは、2つの二次元マトリックスごとに適用され、ノードの数を72から18に減らす。
【0078】
全結合層1208は、先行層1206のノード1216と全結合層1208のノード1218との間の大部分の、特にすべての、エッジが存在するということによって、特徴付けられ、この場合、エッジそれぞれの重みは、個々に調節可能である。
【0079】
本実施例において、全結合層1208の先行層1206のノード1216は、二次元マトリックスとして、さらに関係性のないノード(より見易いようにノードの数を減らしてある、ノードの列として示されている)として、両方とも表示されている。本実施例では、全結合層1208内のノード1218の数は、先行層1206内のノード1216の数と等しい。あるいは、ノード1216,1218の数は違っていてもよい。
【0080】
加えて言うと、本実施例において、出力層1210のノード1220の値は、ソフトマックス関数を先行層1208のノード1218の値に適用することによって決定される。ソフトマックス関数を適用することにより、出力層1210のすべてのノード1220の値の合計は1となり、出力層のすべてのノード1220の値は0と1の間の実数となる。
【0081】
畳み込みニューラルネットワーク1200は、ReLU(rectified linear units:正規化線形ユニット)層又は非線形伝達関数を伴う活性化層を含むこともできる。特に、ReLU層に含まれるノード数とノード構造は、先行層に含まれるノード数とノード構造に等しい。具体的には、ReLU層における各ノードの値は、先行層の対応するノードの値に正規化関数を適用して計算される。
【0082】
個々の畳み込みニューラルネットワークブロックの入力と出力は、和(residual:残差/dense:高密度ニューラルネットワーク)、要素ごとの積(attention)、又は他の微分演算子(作用素)を用いて接続することができる。したがって、パイプライン全体が微分可能であれば、畳み込みニューラルネットワークアーキテクチャはシーケンシャルであるよりはネスト(入れ子)化され得る。
【0083】
具体的に、畳み込みニューラルネットワーク1200は、逆伝播(バックプロパゲーション)アルゴリズムに基づいて訓練することができる。過剰適合を防止するために、正則化法、例えば、ノード1212-1220のドロップアウト、確率的プーリング、人工データの使用、L1又はL2ノルムに基づく重み減衰、又は最大ノルム制約を使用することができる。1つのニューラルネットワークを訓練するために別々の損失関数を組み合わせて、合同訓練(ジョイントトレーニング)目的関数に反映させることができる。ニューラルネットワークパラメータのサブセットは、他のデータセットで事前に訓練された重みを保持するために最適化から除外することができる。
【0084】
ここに説明するシステム、装置、及び方法は、デジタル回路を利用して実行可能であるし、周知のコンピュータプロセッサ、メモリユニット、ストレージデバイス、コンピュータソフトウェア、及びその他のコンポーネントを使用する1つ以上のコンピュータを利用して実行可能でもある。通例、コンピュータは、命令を実行するプロセッサと、命令及びデータを保存する1つ以上のメモリとを含む。コンピュータはまた、1つ以上の、磁気ディスク、内蔵ハードディスク及びリムーバブルディスク、磁気光学ディスク、光ディスクなど、1つ以上のストレージデバイスを含むか、又はそれらを接続する。
【0085】
ここに説明するシステム、装置、及び方法は、クライアント-サーバ関係において作動するコンピュータを使用して実行され得る。通常、このようなシステムでは、クライアントコンピュータはサーバコンピュータから離れた所にあり、ネットワークを介して交信する。クライアント-サーバ関係は、クライアントコンピュータ及びサーバコンピュータそれぞれで実行されるコンピュータプログラムによって定義され、制御される。
【0086】
ここに説明するシステム、装置、及び方法は、ネットワークベースのクラウドコンピューティングシステムにおいて実行され得る。このネットワークベースのクラウドコンピューティングシステムの場合、ネットワークに接続されたサーバ又は別のプロセッサが、ネットワークを介して1つ以上のクライアントコンピュータと通信する。クライアントコンピュータは、例えば、クライアントコンピュータに常駐し作動するネットワークブラウザアプリケーションにより、サーバと通信することができる。クライアントコンピュータは、データをサーバに格納し、ネットワークを介してデータにアクセスすることができる。クライアントコンピュータは、ネットワークを介してサーバに、データの要求又はオンラインサービスの要求を送信することができる。サーバは、要求されたサービスを実行し、1つ以上のクライアントコンピュータにデータを提供することができる。また、サーバは、クライアントコンピュータに特定の機能、例えば、計算を実行させたり、特定のデータを画面に表示させたり、というような機能を実行させるように構成されたデータを送信する。例えば、サーバは、
図1~
図4及び
図6の1つ以上のステップ又は機能を含む、ここに説明する方法及びワークフローの1つ以上のステップ又は機能を、クライアントコンピュータに実行させるように構成された要求を送信する。
図1~
図4及び
図6の1つ以上のステップ又は機能を含む、ここに説明する方法及びワークフローの特定のステップ又は機能は、サーバによって、又はネットワークベースのクラウドコンピューティングシステム内の別のプロセッサによって、実行されてもよい。
図1~
図4及び
図6の1つ以上のステップを含む、ここに説明する方法及びワークフローの特定のステップ又は機能は、ネットワークベースのクラウドコンピューティングシステム内のクライアントコンピュータによって実行されてもよい。
図1~
図4及び
図6の1つ以上のステップを含む、ここに説明する方法及びワークフローのステップ又は機能は、サーバにより、及び/又はネットワークベースのクラウドコンピューティングシステム内のクライアントコンピュータにより、あらゆる組み合わせにおいて、実行されてもよい。
【0087】
ここに説明するシステム、装置、及び方法は、情報担体、例えば非一時的機械可読ストレージデバイス、に有形に具体化され、プログラマブルプロセッサにより実行される、コンピュータプログラム(を記録した製品)を使用して実行され得る。
図1~
図4及び
図6の1つ以上のステップ又は機能を含む、ここに説明する方法及びワークフローのステップは、そのようなプロセッサによって実行可能な1つ以上のコンピュータプログラムを使用して実行され得る。コンピュータプログラムは、コンピュータで直接的又は間接的に使用されて特定のアクティビティを実行したり、特定の結果をもたらすことの可能なコンピュータプログラム命令のセットである。コンピュータプログラムは、コンパイル又はインタプリタ言語を含む各種形式のプログラミング言語で書くことができ、スタンドアロンプログラムや、コンピューティング環境での使用に適したモジュール、コンポーネント、サブルーチン、又は他のユニットを含む、各種形式で展開することができる。
【0088】
ここに説明するシステム、装置、及び方法を実行するために使用可能なコンピュータ1302の高レベルブロック図を、
図13に示す。コンピュータ1302は、データストレージデバイス1312及びメモリ1310と直接又は間接的に接続可能なプロセッサ1304を含む。プロセッサ1304は、コンピュータ1302の全体的なオペレーションを定義するコンピュータプログラム命令を実行することにより、コンピュータ1302の全体的なオペレーションを制御する。コンピュータプログラム命令は、データストレージデバイス1312又は他のコンピュータ可読媒体に記録されるか、コンピュータプログラム命令の実行が求められるときにメモリ1310にロードされる。すなわち、
図1~
図4及び
図6の方法及びワークフローのステップ又は機能は、メモリ1310及び/又はデータストレージデバイス1312に記憶されたコンピュータプログラム命令により定義され、該コンピュータープログラム命令を実行するプロセッサ1304によって制御される。例えば、コンピュータプログラム命令は、当分野で通常の知識を有する者によってプログラムされたコンピュータ実行可能コードとして実装され、
図1~
図4及び
図6の方法及びワークフローのステップ又は機能を実行する。したがって、プロセッサ1304は、コンピュータプログラム命令を実行することによって、
図1~
図4及び
図6の方法及びワークフローのステップ又は機能を実行する。コンピュータ1302はまた、ネットワークを介して他のデバイスと通信するためにネットワークインターフェース1306を1つ以上含む。コンピュータ1302は、さらに、ユーザがコンピュータ1302と対話することを可能にする1つ以上の入力/出力デバイス(I/O)1308(例えば、ディスプレイ、キーボード、マウス、スピーカー、ボタンなど)を含むことができる。
【0089】
プロセッサ1304は、汎用マイクロプロセッサと特殊用途マイクロプロセッサの両方を含み、コンピュータ1302の単一プロセッサ又は複数のプロセッサのうちの1つである。プロセッサ1304は、例えば、1つ以上の中央処理ユニット(CPU)を含む。プロセッサ1304、データストレージデバイス1312、及び/又はメモリ1310は、1つ以上の特定用途向け集積回路(ASIC)及び/又は1つ以上のフィールドプログラマブルゲートアレイ(FPGA)を含むか、これらによって補助されるか又は組み込まれる。
【0090】
データストレージデバイス1312及びメモリ1310は、それぞれ、有形の非一時的コンピュータ可読記録媒体を含む。データストレージデバイス1312及びメモリ1310は、それぞれ、ダイナミックランダムアクセスメモリ(DRAM)、スタティックランダムアクセスメモリ(SRAM)、ダブルデータレートシンクロナスランダムアクセスメモリ(DDRRAM)、又は他のランダムアクセスソリッドステートデバイスなどの高速ランダムアクセスメモリを含み、そして、内蔵ハードディスク及びリムーバブルディスクなどの1つ以上の磁気ディスク、磁気光学ディスクストレージデバイス、光ディスクストレージデバイス、フラッシュメモリデバイス、消去可能プログラマブルリードオンリメモリ(EPROM)、電気的消去可能プログラマブルリードオンリメモリ(EEPROM)などの半導体メモリデバイス、コンパクトディスクリードオンリメモリ(CD-ROM)、デジタルバーサタイルディスクリードオンリメモリ(DVD-ROM)、又は他の不揮発性固体ストレージデバイスなど、不揮発性メモリを含む。
【0091】
入力/出力デバイス1308は、プリンタ、スキャナ、ディスプレイスクリーンなどの周辺機器を含む。例えば、入力/出力デバイス1308は、ユーザに情報を表示するための陰極線管(CRT)又は液晶ディスプレイ(LCD)モニタなどのディスプレイデバイス、キーボード、及び、ユーザがコンピュータ1302に入力を行うことができるマウス又はトラックボールなどのポインティングデバイスを含む。
【0092】
画像取得デバイス1314は、コンピュータ1302に接続され、画像データ(例えば、医用画像)をコンピュータ1302に入力する。画像取得デバイス1314及びコンピュータ1302を1つのデバイスとして実装することが可能である。また、画像取得デバイス1314及びコンピュータ1302は、ネットワークを介して無線で通信することも可能である。一実施例において、コンピュータ1302は、画像取得デバイス1314に対して離れた所にある。
【0093】
ここに説明するシステム及び装置のいずれか又はすべては、コンピュータ1302などの1つ以上のコンピュータを利用して実行され得る。
【0094】
当分野で通常の知識を有する者には、実際のコンピュータ又はコンピュータシステムの実行/実装は、他の構造をもつことが可能であると共に他のコンポーネントを含むことも可能であること、そして、
図13は、例示の目的で、そのようなコンピュータのコンポーネントのいくつかの高レベルの表現を示していること、が当然理解される。
【0095】
以上の詳細な説明は、あらゆる点で説明と例示であって限定的ではない、ということが理解されるべきであり、ここに開示される発明の範囲が詳細な説明に基づいて決められるのではなくて、特許法により許可される全範囲に従って解釈される特許請求の範囲に基づいて決められるべきである。ここにあげて説明する実施例が、本発明の原理の例示に過ぎないこと、発明の範囲及び思想から逸脱することなく当分野で通常の知識を有する者が様々な変更/派生を実施可能であること、は当然である。当分野で通常の知識を有する者は、発明の範囲及び思想から逸脱することなく、様々な他の特徴/機能の組み合わせを実施することができる。