IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ ヒュトム インコーポレイテッドの特許一覧

特表2024-530494患者の仮想気腹モデルを生成する装置及び方法
<>
  • 特表-患者の仮想気腹モデルを生成する装置及び方法 図1
  • 特表-患者の仮想気腹モデルを生成する装置及び方法 図2
  • 特表-患者の仮想気腹モデルを生成する装置及び方法 図3
  • 特表-患者の仮想気腹モデルを生成する装置及び方法 図4
  • 特表-患者の仮想気腹モデルを生成する装置及び方法 図5
  • 特表-患者の仮想気腹モデルを生成する装置及び方法 図6
  • 特表-患者の仮想気腹モデルを生成する装置及び方法 図7
  • 特表-患者の仮想気腹モデルを生成する装置及び方法 図8
  • 特表-患者の仮想気腹モデルを生成する装置及び方法 図9
  • 特表-患者の仮想気腹モデルを生成する装置及び方法 図10
  • 特表-患者の仮想気腹モデルを生成する装置及び方法 図11
  • 特表-患者の仮想気腹モデルを生成する装置及び方法 図12
  • 特表-患者の仮想気腹モデルを生成する装置及び方法 図13
  • 特表-患者の仮想気腹モデルを生成する装置及び方法 図14
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公表特許公報(A)
(11)【公表番号】
(43)【公表日】2024-08-21
(54)【発明の名称】患者の仮想気腹モデルを生成する装置及び方法
(51)【国際特許分類】
   G16H 50/00 20180101AFI20240814BHJP
   G16H 10/60 20180101ALI20240814BHJP
   A61B 5/00 20060101ALI20240814BHJP
【FI】
G16H50/00
G16H10/60
A61B5/00 A
【審査請求】有
【予備審査請求】未請求
(21)【出願番号】P 2024507871
(86)(22)【出願日】2022-08-08
(85)【翻訳文提出日】2024-03-18
(86)【国際出願番号】 KR2022011757
(87)【国際公開番号】W WO2023018138
(87)【国際公開日】2023-02-16
(31)【優先権主張番号】10-2021-0105582
(32)【優先日】2021-08-10
(33)【優先権主張国・地域又は機関】KR
(81)【指定国・地域】
(71)【出願人】
【識別番号】524026746
【氏名又は名称】ヒュトム インコーポレイテッド
【氏名又は名称原語表記】HUTOM INC.
【住所又は居所原語表記】6F., 279, Dongmak-ro, Mapo-gu, Seoul 04151 Republic of Korea
(74)【代理人】
【識別番号】100121382
【弁理士】
【氏名又は名称】山下 託嗣
(72)【発明者】
【氏名】ホン,ヘレン
(72)【発明者】
【氏名】イ,ミン ジン
(72)【発明者】
【氏名】ヒョン,ウ ジン
(72)【発明者】
【氏名】キム,ユ ミン
(72)【発明者】
【氏名】ソン,ナク ジュン
【テーマコード(参考)】
4C117
5L099
【Fターム(参考)】
4C117XB16
4C117XD26
4C117XE44
4C117XE45
4C117XG14
4C117XK19
4C117XR07
4C117XR08
4C117XR10
5L099AA22
(57)【要約】
本発明は、患者の年齢、性別、身長、体重、ボディマス指数(Body Mass Index)及び出産経験の有無のような状態データ、前記患者の身体に対する高さと広さの比率、皮膚囲、前記身体の前方-後方に対する距離、脂肪領域及び筋肉領域のような身体データ及び気腹前の患者の腹部3D映像データに表示されるランドマークデータに基づいて前記患者の仮想気腹モデルを生成する装置及び方法に関する。
【特許請求の範囲】
【請求項1】
装置によって行われる、患者の仮想気腹モデルを生成する方法において、
前記患者の状態データを獲得する段階であって、前記状態データは、前記患者の年齢、性別、身長、体重、ボディマス指数(Body Mass Index)及び出産経験の有無のうちの少なくとも1つに対するデータを含む段階と、
前記患者の複数のランドマークデータを獲得する段階であって、前記複数のランドマークデータは前記患者の腹部3D映像データに表示される段階と、
前記患者の複数の断面映像データから抽出された身体データを獲得する段階であって、前記複数の断面映像データは、前記複数のランドマークデータが表示された位置の断面であり、前記身体データは、前記複数の断面映像データ内の前記患者の身体に対する高さと広さの比率、皮膚囲、前記身体の前方-後方に対する距離、脂肪領域及び筋肉領域のうちの少なくとも1つを含む段階と、
前記状態データ、前記複数のランドマークデータ及び前記身体データに基づいて前記患者の実際の気腹(pneumoperitoneum)状態を予測するための仮想気腹モデルを生成する段階と、
を含む方法。
【請求項2】
前記ランドマークデータを獲得する段階は、
前記患者の前記腹部3D映像データに基づいて前記患者のへそを基準として既に設定された位置に1つの基準ランドマークデータを生成し、
前記基準ランドマークデータを基準として前記複数のランドマークデータを更に生成することを特徴とする請求項1に記載の方法。
【請求項3】
前記仮想気腹モデルを生成する段階は、
第1アルゴリズムに基づいて既に格納された複数の気腹形態データのうち、前記状態データ、前記ランドマークがデータ及び前記身体データとの一致率が最も高い特定の気腹形態データを選択することを特徴とする請求項1に記載の方法。
【請求項4】
前記仮想気腹モデルを生成する段階は、
既に格納された複数の気腹形態クラスのうち、前記状態データ、前記ランドマークデータ及び前記身体データと最も高い類似度を有する特定の気腹形態クラスを選択し、
前記第1アルゴリズムに基づいて前記選択された特定の気腹形態クラス内から前記特定の気腹形態データを選択し、
前記既に格納された複数の気腹形態クラスは、複数の既存患者別の前記状態データ、前記身体データ及び気腹形態データに対してクラスタリングして生成されることを特徴とする請求項3に記載の方法。
【請求項5】
前記仮想気腹モデルを生成する段階は、
マシンラーニングモデルを通じて前記状態データ、及び前記身体データに基づいて前記仮想気腹モデルを生成することを特徴とする請求項1に記載の方法。
【請求項6】
前記仮想気腹モデルを生成する段階は、
前記マシンラーニングモデルによって前記患者に対する前記ランドマークデータの気腹後の位置情報を算出し、
前記気腹後の位置情報に基づいて前記患者の身体表面を生成して前記仮想気腹モデルを出力し、
前記マシンラーニングモデルは、複数の既存患者別の前記状態データ、前記身体データ、前記ランドマークデータ及び気腹後のランドマークデータに基づく学習データセットを構築し、構築された学習データセットに基づいて機械学習され、前記気腹後のランドマークデータは、既存患者の手術時に実際の気腹結果に基づいて獲得されるものであることを特徴とする請求項5に記載の方法。
【請求項7】
前記身体データを獲得する段階は、
脂肪抽出モデルを通じて前記複数の断面映像データに基づいて前記脂肪領域を獲得し、
筋肉抽出モデルを通じて前記複数の断面映像データに基づいて前記筋肉領域を獲得し、
前記脂肪抽出モデルは、腹部医療映像データにおける脂肪領域のみを関心領域として指定してトレーニングされたマシンラーニングモデルであり、
前記筋肉抽出モデルは、腹部医療映像データにおける筋肉領域のみを関心領域として指定してトレーニングされたマシンラーニングモデルであることを特徴とする請求項1に記載の方法。
【請求項8】
ハードウェアであるコンピュータで読み取り可能な記録媒体に格納され、請求項1の患者の仮想気腹モデルを生成する方法を実行させるコンピュータプログラム。
【請求項9】
患者の仮想気腹モデルを生成する装置において、
前記患者の仮想気腹モデルを生成するための複数のプロセスが格納されたメモリと、
前記複数のプロセスに基づいて前記患者の仮想気腹モデルを生成するプロセッサと、を含み、
前記プロセッサは、
前記患者の状態データを獲得し、前記状態データは、前記患者の年齢、性別、身長、体重、ボディマス指数(Body Mass Index)及び出産経験の有無のうちの少なくとも1つに対するデータを含み、
前記患者の複数のランドマークデータを獲得し、前記複数のランドマークデータは前記患者の腹部3D映像データに表示され、
前記患者の複数の断面映像データから抽出された身体データを獲得し、前記複数の断面映像データは、前記複数のランドマークデータが表示された位置の断面であり、前記身体データは、前記複数の断面映像データ内の前記患者の身体に対する高さと広さの比率、皮膚囲、前記身体の前方-後方に対する距離、脂肪領域及び筋肉領域のうちの少なくとも1つを含み、
前記状態データ、前記複数のランドマークデータ及び前記身体データに基づいて前記患者の実際の気腹(pneumoperitoneum)状態を予測するための仮想気腹モデルを生成することを特徴とする、装置。
【請求項10】
前記プロセッサは、前記ランドマークデータを獲得する際に、
前記患者の前記腹部3D映像データに基づいて前記患者のへそを基準として既に設定された位置に1つの基準ランドマークデータを生成し、
前記基準ランドマークデータを基準として前記複数のランドマークデータを更に生成することを特徴とする請求項9に記載の装置。
【請求項11】
前記プロセッサは、前記仮想気腹モデルを生成する際に、
第1アルゴリズムに基づいて既に格納された複数の気腹形態データのうち、前記状態データ、前記ランドマークがデータ及び前記身体データとの一致率が最も高い特定の気腹形態データを選択することを特徴とする請求項9に記載の装置。
【請求項12】
前記プロセッサは、前記仮想気腹モデルを生成する際に、
既に格納された複数の気腹形態クラスのうち、前記状態データ、前記ランドマークデータ及び前記身体データと最も高い類似度を有する特定の気腹形態クラスを選択し、
前記第1アルゴリズムに基づいて前記選択された特定の気腹形態クラス内から前記特定の気腹形態データを選択し、
前記既に格納された複数の気腹形態クラスは、複数の既存患者別の前記状態データ、前記身体データ及び気腹形態データに対してクラスタリングして生成されることを特徴とする請求項11に記載の装置。
【請求項13】
前記プロセッサは、前記仮想気腹モデルを生成する際に、
マシンラーニングモデルを通じて前記状態データ、及び前記身体データに基づいて前記仮想気腹モデルを生成することを特徴とする請求項9に記載の装置。
【請求項14】
前記プロセッサは、前記仮想気腹モデルを生成する際に、
前記マシンラーニングモデルによって前記患者に対する前記ランドマークデータの気腹後の位置情報を算出し、
前記気腹後の位置情報に基づいて前記患者の身体表面を生成して前記仮想気腹モデルを出力し、
前記マシンラーニングモデルは、複数の既存患者別の前記状態データ、前記身体データ、前記ランドマークデータ及び気腹後のランドマークデータに基づく学習データセットを構築し、構築された学習データセットに基づいて機械学習され、前記気腹後のランドマークデータは、既存患者の手術時に実際の気腹結果に基づいて獲得されるものであることを特徴とする請求項13に記載の装置。
【請求項15】
前記プロセッサは、前記身体データを獲得する際に、
脂肪抽出モデルを通じて前記複数の断面映像データに基づいて前記脂肪領域を獲得し、
筋肉抽出モデルを通じて前記複数の断面映像データに基づいて前記筋肉領域を獲得し、
前記脂肪抽出モデルは、腹部医療映像データにおける脂肪領域のみを関心領域として指定してトレーニングされたマシンラーニングモデルであり、
前記筋肉抽出モデルは、腹部医療映像データにおける筋肉領域のみを関心領域として指定してトレーニングされたマシンラーニングモデルであることを特徴とする請求項9に記載の装置。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、患者の仮想気腹モデルを生成する装置及び方法に関する。
【背景技術】
【0002】
近年、医療陣が実際と類似した状況で訓練を行えるようにする装置とソフトウェアが必要である。一般に、医療陣のためのシミュレーション装置は、患者の状況と類似するように製作した後、訓練を行う方式である。このようなシミュレーション装置は、患者に発生する様々な状況を提供できず、シミュレーション時に現実感が低下するという問題があった。また、外科的手術の場合、医療陣が実際の手術と同じ条件でシミュレーションできないという問題があった。
【0003】
更に、手術過程で、医師の手術を補助するための情報を提供できる技術の開発が要求されている。手術を補助するための情報を提供するためには、手術行為を認識できなければならない。従来は、手術プロセスを最適化するためのシナリオ構想のためには、事前に撮影された医療映像を参考にするか、非常に熟練した医師から諮問を受けていたが、医療映像だけでは不要なプロセスの判断が難しく、熟練した医師の諮問は特定の患者に合った諮問を受けることが難しいという問題があった。従って、医療映像や熟練した医師の諮問は、手術対象患者に対する手術プロセスの最適化のための補助用途としては活用され難い点が多かった。
【0004】
仮想現実を用いて手術シミュレーションを行う場合、実際の手術時と同じ条件で訓練を行わなければ手術シミュレーションがリハーサルとしての役割を果たせない。
【0005】
特に、最小侵襲手術(例えば、ロボット手術又は腹腔鏡手術)を行う場合、実際の手術時と手術シミュレーション時にカメラの撮影方向が異なると、医療陣がシミュレーション過程で確認した映像と実際の手術時に見える映像が異なることにより、実際の手術と同一に訓練を行った効果が得られなくなる恐れがある。即ち、腹腔内の構造が、腹腔内の構造を確認するためのカメラの位置によって異なり得るため、手術シミュレーション時に実際の手術時と身体の内部に同一にカメラが進入するように実現する必要がある。
【0006】
従って、カメラが実際の手術時と同じ映像を手術シミュレーション時に提供するために、実際の手術時と同様に気腹状態(pneumoperitoneum:患者の体内にガスを注入して手術が容易になるように患者のお腹を膨らませた状態)が適用された仮想気腹モデルを実現する必要がある。
【発明の概要】
【発明が解決しようとする課題】
【0007】
本発明は上記事情に鑑みてなされたものであって、その目的は、患者の年齢、性別、身長、体重、ボディマス指数(Body Mass Index)及び出産経験の有無のような状態データ、前記患者の身体に対する高さと広さの比率、皮膚囲、前記身体の前方-後方に対する距離、脂肪領域及び筋肉領域のような身体データ及び気腹前の患者の腹部3D映像データに表示されるランドマークデータに基づいて前記患者の仮想気腹モデルを生成することにある。
【0008】
また、本発明の他の目的は、患者の実際の気腹状態が予測された前記仮想気腹モデルに基づいて手術シミュレーション環境を提供することによって、前記手術シミュレーションが実際の手術に立派なリハーサルとしての役割を果たせるようにすることにある。
【0009】
本発明が解決しようとする課題は、以上で言及した課題に限定されず、言及していない更に他の課題は、以下の記載から通常の技術者が明確に理解できる。
【課題を解決するための手段】
【0010】
上述した技術的課題を達成するための本発明に係る患者の仮想気腹モデルを生成する方法は、前記患者の状態データを獲得する段階-前記状態データは、前記患者の年齢、性別、身長、体重、ボディマス指数(Body Mass Index)及び出産経験の有無のうちの少なくとも1つに対するデータを含む-と、前記患者の複数のランドマークデータを獲得する段階であって、前記複数のランドマークデータは前記患者の腹部3D映像データに表示される段階と、前記患者の複数の断面映像データから抽出された身体データを獲得する段階であって、前記複数の断面映像データは、前記複数のランドマークデータが表示された位置の断面であり、前記身体データは、前記複数の断面映像データ内の前記患者の身体に対する高さと広さの比率、皮膚囲、前記身体の前方-後方に対する距離、脂肪領域及び筋肉領域のうちの少なくとも1つを含む段階と、前記状態データ、前記複数のランドマークデータ及び前記身体データに基づいて前記患者の実際の気腹(pneumoperitoneum)状態を予測するための仮想気腹モデルを生成する段階とを含んでなる。
【0011】
このとき、前記ランドマークデータを獲得する段階は、前記患者の前記腹部3D映像データに基づいて前記患者のへそを基準として既に設定された位置に1つの基準ランドマークデータを生成し、前記基準ランドマークデータを基準として前記複数のランドマークデータを更に生成できる。
【0012】
また、前記仮想気腹モデルを生成する段階は、第1アルゴリズムに基づいて既に格納された複数の気腹形態データのうち、前記状態データ、前記ランドマークがデータ及び前記身体データとの一致率が最も高い特定の気腹形態データを選択できる。具体的に、前記仮想気腹モデルを生成する段階は、既に格納された複数の気腹形態クラスのうち、前記状態データ、前記ランドマークデータ及び前記身体データと最も高い類似度を有する特定の気腹形態クラスを選択し、前記第1アルゴリズムに基づいて前記選択された特定の気腹形態クラス内から前記特定の気腹形態データを選択し、前記既に格納された複数の気腹形態クラスは、複数の既存患者別の前記状態データ、前記身体データ及び気腹形態データに対してクラスタリングして生成できる。
【0013】
更に、前記仮想気腹モデルを生成する段階は、マシンラーニングモデルを通じて前記状態データ、及び前記身体データに基づいて前記仮想気腹モデルを生成できる。具体的に、前記仮想気腹モデルを生成する段階は、前記マシンラーニングモデルによって前記患者に対する前記ランドマークデータの気腹後の位置情報を算出し、前記気腹後の位置情報に基づいて前記患者の身体表面を生成して前記仮想気腹モデルを出力し、前記マシンラーニングモデルは、複数の既存患者別の前記状態データ、前記身体データ、前記ランドマークデータ及び気腹後のランドマークデータに基づく学習データセットを構築し、前記構築された学習データセットに基づいて機械学習され、前記気腹後のランドマークデータは、既存患者の手術時に実際の気腹結果に基づいて獲得できる。
【0014】
また、前記身体データを獲得する段階は、脂肪抽出モデルを通じて前記複数の断面映像データに基づいて前記脂肪領域を獲得し、筋肉抽出モデルを通じて前記複数の断面映像データに基づいて前記筋肉領域を獲得し、前記脂肪抽出モデルは、腹部医療映像データにおける脂肪領域のみを関心領域として指定してトレーニングされたマシンラーニングモデルであり、前記筋肉抽出モデルは、腹部医療映像データにおける筋肉領域のみを関心領域として指定してトレーニングされたマシンラーニングモデルであり得る。
【0015】
更に、上述した技術的課題を達成するための本発明に係る患者の仮想気腹モデルを生成する装置は、前記患者の仮想気腹モデルを生成するための複数のプロセスが格納されたメモリと、前記複数のプロセスに基づいて前記患者の仮想気腹モデルを生成するプロセッサとを含み、前記プロセッサは、前記患者の状態データを獲得し、前記状態データは、前記患者の年齢、性別、身長、体重、ボディマス指数(Body Mass Index)及び出産経験の有無のうちの少なくとも1つに対するデータを含み、前記患者の複数のランドマークデータを獲得し、前記複数のランドマークデータは前記患者の腹部3D映像データに表示され、前記患者の複数の断面映像データから抽出された身体データを獲得し、前記複数の断面映像データは、前記複数のランドマークデータが表示された位置の断面であり、前記身体データは、前記複数の断面映像データ内の前記患者の身体に対する高さと広さの比率、皮膚囲、前記身体の前方-後方に対する距離、脂肪領域及び筋肉領域のうちの少なくとも1つを含み、前記状態データ、前記複数のランドマークデータ及び前記身体データに基づいて前記患者の実際の気腹(pneumoperitoneum)状態を予測するための仮想気腹モデルを生成することを特徴とする。
【0016】
この他にも、本発明を実現するための他の方法、他の装置、他のシステム及び前記方法を実行するためのコンピュータプログラムを記録するコンピュータ読み取り可能な記録媒体を更に提供できる。
【発明の効果】
【0017】
前記のような本発明によると、患者の年齢、性別、身長、体重、ボディマス指数(Body Mass Index)及び出産経験の有無のような状態データ、前記患者の身体に対する高さと広さの比率、皮膚囲、前記身体の前方-後方に対する距離、脂肪領域及び筋肉領域のような身体データ及び気腹前の患者の腹部3D映像データに表示されるランドマークデータに基づいて前記患者の仮想気腹モデルを生成することによって、前記患者の実際の気腹状態を正確度高く予測できるという効果がある。
【0018】
本発明の効果は、以上で言及した効果に限定されず、言及していない更に他の効果は、以下の記載から通常の技術者が明確に理解できる。
【図面の簡単な説明】
【0019】
図1】本発明に係る患者の仮想気腹モデルを生成するための装置を説明する図である。
図2】本発明に係る複数のランドマークデータを説明する例示図である。
図3】本発明に係る断面映像データ内の患者の身体に対する高さと広さの比率を示す例示図である。
図4】本発明に係る断面映像データ内の患者の身体に対する皮膚囲を示す例示図である。
図5】本発明に係る断面映像データ内の患者の身体の前方-後方に対する距離を示す例示図である。
図6】本発明に係る断面映像データ内の脂肪領域を示す例示図である。
図7】本発明に係る断面映像データ内の筋肉領域を示す例示図である。
図8】本発明に係る既に格納された気腹形態クラスを生成することを説明する図である。
図9】本発明に係る気腹形態クラスのうち第1クラスに含まれる気腹形態データを示す例示図である。
図10】本発明に係る気腹形態クラスのうち第2クラスに含まれる気腹形態データを示す例示図である。
図11】本発明に係る気腹形態クラスのうち第3クラスに含まれる気腹形態データを示す例示図である。
図12】本発明に係る既に格納された気腹形態クラスに基づいて仮想気腹モデルを生成することを説明する図である。
図13】本発明に係る仮想気腹モデルを生成することを説明する例示図である。
図14】本発明に係る患者の仮想気腹モデルを生成する過程を示すフローチャートである。
【発明を実施するための形態】
【0020】
本発明の利点及び特徴、そしてそれらを達成する方法は、添付の図面と共に詳細に後述されている実施例を参照すれば明確になる。しかし、本発明は、以下で開示される実施例に制限されるものではなく、互いに異なる多様な形態にて実現できる。但し、本実施例は本発明の開示を完全なものにし、本発明の属する技術分野における通常の技術者に本発明の範囲を完全に理解させるために提供されるものであり、本発明は請求項の範囲により定義されるに過ぎない。
【0021】
本明細書で用いられる用語は、実施例を説明するためのものであり、本発明を制限しようとするものではない。本明細書において、単数型は特に言及しない限り複数型も含む。明細書で用いられる「含む(comprises)」及び/又は「含んでいる(comprising)」は、言及された構成要素以外に1つ以上の他の構成要素の存在又は追加を排除しない。明細書全体に亘って同一の図面符号は同一の構成要素を示し、「及び/又は」は言及された構成要素のそれぞれ及び1つ以上の全ての組み合わせを含む。たとえ、「第1」、「第2」などが多様な構成要素を叙述するために用いられていても、これらの構成要素は、これらの用語により制限されないのはもちろんである。これらの用語は、単に1つの構成要素を他の構成要素と区別するために用いる。従って、以下で言及される第1構成要素は、本発明の技術的思想内で第2構成要素でもあり得るのは言うまでもない。
【0022】
他の定義がなければ、本明細書で用いられる全ての用語(技術及び科学的用語を含む)は、本発明の属する技術分野における通常の技術者が共通して理解できる意味として用いられる。また、一般に用いられる辞典に定義されている用語は、明白に特に定義されていない限り、理想的に又は過度に解釈されない。
【0023】
以下、添付の図面を参照して、本発明の実施例を詳細に説明する。
【0024】
図1は、本発明に係る患者の仮想気腹モデルを生成するための装置10を説明する図である。
【0025】
図2は、本発明に係る複数のランドマークデータを説明する例示図である。
【0026】
図3は、本発明に係る断面映像データ内の患者の身体に対する高さと広さの比率を示す例示図である。
【0027】
図4は、本発明に係る断面映像データ内の患者の身体に対する皮膚囲を示す例示図である。
【0028】
図5は、本発明に係る断面映像データ内の患者の身体の前方-後方に対する距離を示す例示図である。
【0029】
図6は、本発明に係る断面映像データ内の脂肪領域を示す例示図である。
【0030】
図7は、本発明に係る断面映像データ内の筋肉領域を示す例示図である。
【0031】
図8は、本発明に係る既に格納された気腹形態クラスを生成することを説明する図である。
【0032】
図9は、本発明に係る気腹形態クラスのうち第1クラスに含まれる気腹形態データを示す例示図である。
【0033】
図10は、本発明に係る気腹形態クラスのうち第2クラスに含まれる気腹形態データを示す例示図である。
【0034】
図11は、本発明に係る気腹形態クラスのうち第3クラスに含まれる気腹形態データを示す例示図である。
【0035】
図12は、本発明に係る既に格納された気腹形態クラスに基づいて仮想気腹モデルを生成することを説明する図である。
【0036】
図13は、本発明に係る仮想気腹モデルを生成することを説明する例示図である。
【0037】
以下、図1乃至図13を参照して、本発明に係る患者の仮想気腹モデルを生成するための装置10について説明する。
【0038】
本発明に係る装置10は、前記患者の状態データを獲得し、前記患者の複数のランドマークデータを獲得し、前記患者の複数の断面映像データから抽出された身体データを獲得し、前記状態データ、前記複数のランドマークデータ及び前記身体データに基づいて前記患者の実際の気腹(pneumoperitoneum)状態を予測するための仮想気腹モデルを生成できる。
【0039】
具体的に、最小侵襲手術(例えば、腹腔鏡手術又はロボット手術)を行う場合、身体を貫通したトロカール(Trocar)を通じて身体の内部に進入したカメラによって身体の内部の一部範囲を確認しながら他の位置に挿入された1つ以上のトロカール(Trocar)を通じて進入した手術器具で手術を行える。
【0040】
このとき、手術器具が身体の内部で動く空間を確保するために最小侵襲手術時には、身体の内部(例えば、腹部手術を行う場合に腹壁の間の空間)に既に設定された気体(例えば、二酸化炭素)を注入できる。
【0041】
医療陣は、実際の手術前に予め手術をシミュレーションして実際の手術時に発生し得る様々な変数に対する対策を確保することを所望し、これに対する対策として、実際の手術と同じ仮想手術環境内で仮想の手術シミュレーションを提供できる。
【0042】
最小侵襲手術は、身体の内部に挿入されたカメラ(即ち、内視鏡)のみで確認しながら手術を行うので、医療陣が仮想シミュレーションを行う際に全く異なる位置又は方向に表示された映像で練習を行った後に実際の手術を行うと、医療陣に実際の手術時に提供される映像が全く異なるため、練習効果が全く得られない。特に、身体手術時の患者の身体状態と同一に仮想身体モデルをモデリングしても、カメラが異なる位置又は方向に進入すると、全く異なる映像を見ながら練習を行うため、練習効果が得られない。
【0043】
患者の身体に気腹状態が適用されると、身体の表面(例えば、腹部)の形状が変形することによって、気腹のない3次元身体モデルに気腹のある身体の表面と同じ位置を指定しても、カメラが挿入される角度が変わる。
【0044】
従って、手術シミュレーションを行うための仮想身体モデルの生成時に実際の手術時と同様に気腹状態が適用された仮想気腹モデルを実現する必要がある。
【0045】
以下では、患者の仮想気腹モデルを生成するための装置10が行える仮想気腹モデルの生成方法について説明する。
【0046】
装置10は、患者の状態データ、ランドマークデータ及び身体データに基づいて前記患者の仮想気腹モデルを生成することによって、前記患者の実際の気腹状態を正確度高く予測できるという効果が得られる。
【0047】
具体的に、装置10は、前記患者の年齢、性別、身長、体重、ボディマス指数(Body Mass Index)及び出産経験の有無のような状態データ、前記患者の身体に対する高さと広さの比率、皮膚囲、前記身体の前方-後方に対する距離、脂肪領域及び筋肉領域のような身体データ及び気腹前の患者の腹部3D映像データに表示されるランドマークデータに基づいて前記患者の仮想気腹モデルを生成することによって、前記患者の実際の気腹状態を正確度高く予測できる。
【0048】
このような装置10には、演算処理を行ってユーザに結果を提供できる多様な装置が何れも含まれることができる。
【0049】
ここで、装置10は、コンピュータの形態になり得る。より詳しくは、前記コンピュータには、演算処理を行ってユーザに結果を提供できる多様な装置を何れも含めることができる。
【0050】
例えば、コンピュータは、デスクトップPC、ノートパソコン(Note Book)だけでなく、スマートフォン(Smart phone)、タブレットPC、携帯電話(Cellular phone)、ピーシーエスフォン(PCS phone;Personal Communication Service phone)、同期式/非同期式IMT-2000(International Mobile Telecommunication-2000)の移動端末、パームPC(Palm Personal Computer)、携帯情報端末(PDA;Personal Digital Assant)なども該当し得る。また、ヘッドマウントディスプレイ(Head Mounted Display;HMD)装置がコンピューティング機能を含む場合、HMD装置がコンピュータになり得る。
【0051】
また、コンピュータは、クライアントから要請を受信して情報処理を行うサーバになり得る。
【0052】
そして、装置10は、通信部110、メモリ120及びプロセッサ130を含むことができる。ここで、装置10は、図1に示す構成要素よりも少数の構成要素又はより多数の構成要素を含むことができる。
【0053】
通信部110は、装置10と外部装置(図示せず)、装置10と外部サーバ(図示せず)との間、又は装置10と通信網(図示せず)との間の無線通信を可能にする1つ以上のモジュールを含むことができる。
【0054】
ここで、外部装置(図示せず)は、医療映像データ(以下、腹部3D映像データ)を撮影する医療映像撮影装置であり得る。ここで、医療映像データは、前記患者の身体を3次元モデルで実現可能な全ての医療映像を含むことができる。
【0055】
また、医療映像データは、コンピュータ断層撮影(Computed Tomography;CT)映像、磁気共鳴画像(Magnetic Resonance Imaging;MRI)、陽電子放射断層撮影(Positron Emission Tomography;PET)映像のうちの少なくとも1つを含むことができる。
【0056】
更に、外部サーバ(図示せず)は、複数の患者に対する患者別の医療データを格納するサーバであり得る。
【0057】
また、通信網(図示せず)は、装置10、外部装置(図示せず)及び外部サーバ(図示せず)間の多様な情報を送受信できる。通信網は、多様な形態の通信網が用いられることができ、例えばWLAN(Wireless LAN)、ワイファイ(Wi-Fi)(登録商標)、ワイブロ(Wibro)、ワイマックス(Wimax)(登録商標)、HSDPA(High Speed Downlink Packet Access)などの無線通信方式又はイーサネット(Ethernet)(登録商標)、xDSL(ADSL、VDSL)、HFC(Hybrid Fiber Coax)、FTTC(Fiber to The Curb)、FTTH(Fiber To The Home)などの有線通信方式を用いることができる。
【0058】
一方、通信網は、前記で提示された通信方式に限定されるものではなく、上述した通信方式以外にもその他に広く公知となっているか、今後開発される全ての形態の通信方式を含むことができる。
【0059】
通信部110は、装置10を1つ以上のネットワークに接続する1つ以上のモジュールを含むことができる。
【0060】
メモリ120は、装置10の多様な機能を支援するデータを格納できる。メモリ120は、装置10で駆動される多数のアプリケーションプログラム(application program又はアプリケーション(application))、装置10の動作のためのデータ、命令語を格納できる。このようなアプリケーションプログラムのうちの少なくとも一部は、装置10の基本的な機能のために存在し得る。一方、アプリケーションプログラムは、メモリ120に格納され、装置10上にインストールされてプロセッサ130によって前記装置10の動作(又は機能)を行うように駆動されることができる。
【0061】
また、メモリ120は、本発明に係る仮想気腹モデルを生成するための複数のプロセスを備えることができる。ここで、前記複数のプロセスは、プロセッサ130についての動作を説明する際に後述する。
【0062】
プロセッサ130は、前記アプリケーションプログラムに関連する動作の他にも、通常、装置10の全般的な動作を制御できる。プロセッサ130は、前述した構成要素を通じて入力又は出力される信号、データ、情報などを処理するか、メモリ120に格納されたアプリケーションプログラムを駆動することによって、ユーザに適切な情報又は機能を提供するか、処理できる。
【0063】
また、プロセッサ130は、メモリ120に格納されたアプリケーションプログラムを駆動するために、図1に示した構成要素のうちの少なくとも一部を制御できる。更に、プロセッサ130は、前記アプリケーションプログラムの駆動のために、装置10に含まれている構成要素のうちの少なくとも2つ以上を互いに組み合わせて動作させることができる。
【0064】
プロセッサ130は、前記患者の状態データを獲得できる。ここで、プロセッサ130は、複数のプロセスのうち第1プロセスに基づいて前記患者の状態データを外部サーバ(図示せず)又は前記メモリ120から獲得できる。
【0065】
ここで、前記状態データは、前記患者の年齢、性別、身長、体重、ボディマス指数(Body Mass Index)及び出産経験の有無のうちの少なくとも1つに対するデータを含むことができる。
【0066】
このような前記状態データは、前記患者の腹部を気腹する場合、気腹の形成に影響を及ぼし得る臨床情報であり得る。
【0067】
プロセッサ130は、前記患者の複数のランドマークデータを獲得できる。ここで、プロセッサ130は、複数のプロセスのうち第2プロセスに基づいて前記患者の複数のランドマークデータを獲得できる。ここで、複数のランドマークデータは、前記患者の腹部3D映像データに表示されるものであり得る。複数のランドマークデータは、前記患者の腹部3D映像データにランドマークがマッピングされたデータであるか、ランドマークそれぞれの座標データであり得る。
【0068】
このような前記複数のランドマークデータは、気腹を形成するために該当ランドマークを中心にお腹を膨らませる用途として用いるか、気腹の形成後にどれだけ変形したかを測定できる基準ポイントとして用いられることができる。
【0069】
より詳しくは、プロセッサ130は、前記患者の前記腹部3D映像データに基づいて前記患者のへそを基準として既に設定された位置に1つの基準ランドマークデータを生成し、前記基準ランドマークデータを基準として前記複数のランドマークデータを更に生成できる。
【0070】
ここで、前記複数のランドマークデータは、装置10を通じてユーザが直接生成するか、装置10でへそを中心に既に設定された間隔(例えば、5cm)で自動生成できる。ここで、ユーザは、医療専門家として医師、看護師、臨床病理士、医療映像専門家などとでき、医療装置を修理する技術者とできるが、これに限定されない。
【0071】
図2を参照すると、プロセッサ130は、第1患者の腹部3D映像データ20に基づいて前記第1患者のへそを基準として既に設定された位置に1つの基準ランドマークデータ201を生成できる。
【0072】
その後、プロセッサ130は、前記基準ランドマークデータ201を基準として前記複数のランドマークデータを更に生成できる。
【0073】
ここで、プロセッサ130は、前記基準ランドマークデータ201を基準として既に設定された等間隔で前記複数のランドマークデータを更に生成できるが、必ずしもこれに限定されるものではない。
【0074】
プロセッサ130は、前記患者の複数の断面映像データから抽出された身体データを獲得できる。ここで、プロセッサ130は、複数のプロセスのうち第3プロセスに基づいて前記患者の複数の断面映像データから抽出された身体データを獲得できる。
【0075】
ここで、前記複数の断面映像データは、前記複数のランドマークデータが表示されたそれぞれの位置のうちの何れか1つの位置の断面に対する映像データになることができ、又は2つ以上の位置を1つに繋いだ部分の断面に対する映像データであることもできる。
【0076】
ここで、前記身体データは、前記複数の断面映像データ内の前記患者の身体に対する高さと広さの比率、皮膚囲、前記身体の前方-後方に対する距離、脂肪領域及び筋肉領域のうちの少なくとも1つを含むことができる。
【0077】
ここで、前記身体の前方-後方に対する距離は、へそ部分の前方から背中部分の後方までの距離であり得る。
【0078】
図3を参照すると、プロセッサ130は、前記過程で生成される複数の断面映像データに基づいて前記患者の身体に対する高さ301及び広さ302の比率を獲得できる。ここで、前記高さ301及び広さ302の比率は、前記断面映像データが獲得される位置ごとに異なり得る。または、前記高さ301及び広さ302の比率は、患者ごとに異なり得る。
【0079】
図4を参照すると、プロセッサ130は、前記複数の断面映像データに基づいて前記患者の身体に対する前記皮膚囲401を獲得できる。ここで、前記患者の身体に対する前記皮膚囲401は、前記断面映像データが獲得される位置ごとに異なり得る。または、前記患者の身体に対する前記皮膚囲401は、患者ごとに異なり得る。
【0080】
図5を参照すると、プロセッサ130は、前記複数の断面映像データに基づいて前記患者の身体に対する前記身体の前方-後方に対する距離を獲得できる。ここで、前記患者の身体に対する前記身体の前方-後方に対する距離は、患者ごとに異なり得る。
【0081】
図6を参照すると、プロセッサ130は、メモリ120に備えられた脂肪抽出モデルを通じて前記複数の断面映像データに基づいて第1患者の身体に対する前記脂肪領域601を獲得できる。ここで、前記第1患者の身体に対する前記脂肪領域601は、前記断面映像データが獲得される位置ごとに異なり得る。
【0082】
また、プロセッサ130は、前記脂肪抽出モデルを通じて前記複数の断面映像データに基づいて第2患者の身体に対する前記脂肪領域602を獲得できる。ここで、前記第2患者の身体に対する前記脂肪領域602は、前記断面映像データが獲得される位置ごとに異なり得る。
【0083】
このような前記患者の身体に対する前記脂肪領域は、患者ごとに異なり得る。
【0084】
ここで、脂肪領域は、内蔵脂肪領域及び皮下脂肪領域のうちの少なくとも1つを含むことができる。
【0085】
ここで、前記脂肪抽出モデルは、腹部3D映像データから脂肪領域のみを関心領域として指定してトレーニングされたマシンラーニングモデルであり得る。
【0086】
このようなマシンラーニングモデルは、畳み込みニューラルネットワーク(Convolutional Neural Network、以下CNNという)を含むことができるが、必ずしもこれに限定されず、多様な構造の神経網で形成できる。
【0087】
図7を参照すると、プロセッサ130は、メモリ120に備えられた筋肉抽出モデルを通じて前記複数の断面映像データに基づいて第1患者の身体に対する前記筋肉領域701を獲得できる。ここで、前記第1患者の身体に対する前記筋肉領域701は、前記断面映像データが獲得される位置ごとに異なり得る。
【0088】
また、プロセッサ130は、前記筋肉抽出モデルを通じて前記複数の断面映像データに基づいて第2患者の身体に対する前記筋肉領域702を獲得できる。ここで、前記第2患者の身体に対する前記筋肉領域702は、前記断面映像データが獲得される位置ごとに異なり得る。
【0089】
このような前記患者の身体に対する前記筋肉領域は、患者ごとに異なり得る。
【0090】
ここで、筋肉抽出モデルは、腹部3D映像データから筋肉領域のみを関心領域として指定してトレーニングされたマシンラーニングモデルであり得る。
【0091】
このようなマシンラーニングモデルは、畳み込みニューラルネットワーク(Convolutional Neural Network、以下CNNという)を含むことができるが、必ずしもこれに限定されず、多様な構造の神経網で形成できる。
【0092】
プロセッサ130は、前記状態データ、前記複数のランドマークデータ及び前記身体データに基づいて前記患者の実際の気腹(pneumoperitoneum)状態を予測するための仮想気腹モデルを生成できる。
【0093】
ここで、プロセッサ130は、複数のプロセスのうち第4プロセスに基づいて前記患者の実際の気腹(pneumoperitoneum)状態を予測するための仮想気腹モデルを生成できる。
【0094】
より詳しくは、プロセッサ130は、前記状態データ、前記複数のランドマークデータ及び前記身体データに基づいて既に格納された複数の気腹形態クラス又はマシンラーニングモデルを通じて前記仮想気腹モデルを生成できる。
【0095】
まず、プロセッサ130は、第1アルゴリズムに基づいて既に格納された複数の気腹形態データのうち、前記状態データ、前記ランドマークデータ及び前記身体データとの一致率が最も高い特定の気腹形態データを選択して前記仮想気腹モデルを生成できる。
【0096】
ここで、プロセッサ130は、複数の既存患者別の前記状態データ、前記身体データ及び気腹形態データが多くなる場合、このようなデータに対してクラスタリングして複数の気腹形態クラスを生成できる。
【0097】
ここで、気腹形態データは、実際の既存患者別の気腹後の患者の身体を3Dスキャンして生成した前記患者の実際の気腹形態データであり得る。
【0098】
即ち、図8を参照すると、プロセッサ130は、複数の既存患者別の前記状態データ、前記身体データ及び気腹形態データに対してk-平均法(k-mean clustering)アルゴリズムを通じてクラスタリングしてk個(例えば、k=3とできる)の気腹形態クラスを生成できる。
【0099】
ここで、クラスタリングのために用いられるアルゴリズムは、k-平均法(k-mean clustering)アルゴリズム、adaptive breaking detectionクラスタリングアルゴリズム及びハフ変換(Hough Transform)アルゴリズムのうちの少なくとも1つを含むことができる。
【0100】
即ち、プロセッサ130は、既存患者別の前記状態データ、前記身体データ及び気腹形態データが多くなった場合、特定のアルゴリズム(一例として、k-平均法(k-mean clustering)アルゴリズム)を通じて前記複数の気腹形態クラスを生成できる。
【0101】
ここで、図9に示す複数の気腹形態データは、気腹形態クラスが3つある場合、第1クラス(クラス1)に含まれる既存患者別の気腹形態データであり得る。即ち、第1クラスに含まれる複数の既存患者の場合、状態データ、ランドマークデータ、身体データが類似する1つのクラスに分類された患者であり得る。
【0102】
また、図10に示す複数の気腹形態データは、気腹形態クラスが3つある場合、第2クラス(クラス2)に含まれる既存患者別の気腹形態データであり得る。即ち、第2クラスに含まれる複数の既存患者の場合、状態データ、ランドマークデータ、身体データが類似する1つのクラスに分類された患者であり得る。
【0103】
更に、図11に示す複数の気腹形態データは、気腹形態クラスが3つある場合、第3クラス(クラス3)に含まれる既存患者別の気腹形態データであり得る。即ち、第3クラスに含まれる複数の既存患者の場合、状態データ、ランドマークデータ、身体データが類似する1つのクラスに分類された患者であり得る。
【0104】
これにより、プロセッサ130は、複数の既存患者別のデータが類似度によってクラス別にクラスタリングされることによってデータが多くなった場合、まず最も類似しているクラスを探し、その次に最も類似しているクラスから新規患者と最も類似している気腹形態データを選択することによって、迅速に前記気腹形態データを選択できるという効果が得られる。
【0105】
図12を参照すると、プロセッサ130は、既に格納された複数の気腹形態クラスのうち、前記状態データ、前記身体データ及び前記ランドマークがマッピングされた医療映像データと最も高い類似度を有する特定の気腹形態クラスを選択できる。
【0106】
具体的に、プロセッサ130は、既に格納された複数の気腹形態クラスのうち、SVM(Support Vector Machine)分類モデルに基づいて前記患者に対する前記状態データ、前記ランドマークデータ及び前記身体データと最も高い類似度を有する前記特定の気腹形態クラスを選択できる。
【0107】
そして、プロセッサ130は、前記第1アルゴリズムに基づいて前記選択された特定の気腹形態クラス内から前記特定の気腹形態データを選択できる。
【0108】
具体的に、プロセッサ130は、コサイン類似度アルゴリズムに基づいて前記選択された特定の気腹形態クラス内から前記患者との前記状態データ、前記身体データ及び前記特定の気腹形態データが最も類似している前記特定の気腹形態データを選択できる。
【0109】
即ち、プロセッサ130は、前記コサイン類似度アルゴリズムに基づいて前記選択された特定の気腹形態クラス内から前記患者との前記状態データ、前記身体データ及び前記特定の気腹形態データに対するコサイン類似度が最も高い前記特定の気腹形態データを選択できる。
【0110】
ここで、前記コサイン類似度アルゴリズムに対する式は、下式1によって説明できる。
【0111】
【数1】
【0112】
ここで、Aは、前記患者データに対する前記状態データと前記身体データに対するベクトルであり、Bは、選択された特定のクラス内のデータに対する前記状態データと前記身体データに対するベクトルであり得る。
【0113】
従って、分母部分は、それぞれベクトルの大きさを示し、分子部分は、2つのベクトル間の積として計算できる。2つのベクトルが一致する場合、前記コサイン類似度は、1の値を有し、互いに異なる場合ほど前記コサイン類似度は0に近い値を有することができる。
【0114】
次に、プロセッサ130は、マシンラーニングモデルを通じて前記状態データ、前記ランドマークデータ及び前記身体データに基づいて前記仮想気腹モデルを生成できる。
【0115】
ここで、マシンラーニングモデルは、畳み込みニューラルネットワーク(CNN、Convolutional Neural Network、以下CNNという)を含むことができるが、必ずしもこれに限定されず、多様な構造の神経網で形成されることができる。
【0116】
より詳しくは、プロセッサ130は、前記マシンラーニングモデルによって前記患者に対する前記ランドマークデータの気腹後の位置情報を算出できる。
【0117】
具体的に、プロセッサ130は、前記マシンラーニングモデルのうち、回帰モデルに基づいて前記患者に対する前記ランドマークデータの気腹後の位置情報を算出できる。
【0118】
ここで、前記回帰モデルに対する式は、下式2によって説明できる。
【0119】
【数2】
【0120】
ここで、yは前記ランドマークデータの気腹後の位置情報、x(独立変数)は状態データと身体データ、pは前記状態データと前記身体データの総数、β(ベータ)は前記x(独立変数)に対する影響力を示す情報であり得る。
【0121】
より詳しくは、プロセッサ130は、前記回帰モデルの訓練データに基づいてβ(ベータ)を算出できる。
【0122】
即ち、プロセッサ130 は、訓練データを通じてxとy値の両方を知っているため、前記β(ベータ)を計算できる。ここで、y(従属変数)は、訓練データの気腹前後の動きベクトルであり得る。
【0123】
その後、前記y(位置情報)は、新たなデータに対するxを計算した後、前記β(ベータ)と共に計算すれば予測できる。
【0124】
そして、プロセッサ130は、前記気腹後の位置情報に基づいてTPSワッピング(Thin Plate Spline Warping)を通じて前記患者の身体表面を生成して前記仮想気腹モデルを出力できる。
【0125】
ここで、図13を参照すると、左上は前記患者に対する前記腹部3D映像データに基づいて生成した仮想モデルの側面を示すものであって、前記仮想モデルには、前記複数のランドマークデータが表示されることができる。
【0126】
ここで、左下は前記患者に対する前記仮想モデルの正面を示すものであって、前記仮想モデルには、前記複数のランドマークデータを表示できる。
【0127】
また、右上は、前記マシンラーニングモデルによって前記患者に対する気腹後の前記仮想気腹モデルを示すものであって、前記仮想気腹モデルには、前記複数のランドマークデータの気腹後の位置を表示できる。
【0128】
ここで、右下は、前記患者に対する気腹後の前記仮想気腹モデルの正面を示すものであって、気腹後の前記仮想気腹モデルは、前記複数のランドマークデータの気腹後の位置を表示できる。
【0129】
図13の左と右を比較すると、前記患者の気腹前の状態を示す前記仮想モデルと前記患者の気腹後の状態を示す前記仮想気腹モデルは、前記複数のランドマークデータの位置が変化し、これは気腹による位置変化であって、患者別に多様な形態で気腹されるため、多様な位置に変化し得る。
【0130】
図14は、本発明に係る患者の仮想気腹モデルを生成する過程を示すフローチャートである。ここで、プロセッサ130の動作は、サーバ10で実行可能である。
【0131】
プロセッサ130は、前記患者の状態データを獲得できる(S1401)。
【0132】
具体的に、プロセッサ130は、前記患者の状態データを外部サーバ(図示せず)又は前記メモリ120から獲得できる。
【0133】
ここで、前記状態データは、前記患者の年齢、性別、身長、体重、ボディマス指数(Body Mass Index)及び出産経験の有無のうちの少なくとも1つに対するデータを含むことができる。
【0134】
プロセッサ130は、前記患者の複数のランドマークデータを獲得できる(S1402)。
【0135】
ここで、複数のランドマークデータは、前記患者の腹部3D映像データに表示されるものであり得る。複数のランドマークデータは、前記患者の腹部3D映像データにランドマークがマッピングされたデータであるか、ランドマークそれぞれの座標データであり得る。
【0136】
プロセッサ130は、前記患者の複数の断面映像データから抽出された身体データを獲得できる(S1403)。
【0137】
ここで、前記複数の断面映像データは、前記複数のランドマークデータが表示された位置の断面であり得る。
【0138】
また、前記身体データは、前記複数の断面映像データ内の前記患者の身体に対する高さと広さの比率、皮膚囲、前記身体の前方-後方に対する距離(A-P direction distance)、脂肪領域及び筋肉領域のうちの少なくとも1つを含むことができる。
【0139】
そして、プロセッサ130は、脂肪抽出モデルと筋肉抽出モデルを通じて前記複数の断面映像データに基づいて前記脂肪領域と筋肉領域をそれぞれ獲得できる。
【0140】
プロセッサ130は、前記状態データ、前記複数のランドマークデータ及び前記身体データに基づいて前記患者の実際の気腹(pneumoperitoneum)状態を予測するための仮想気腹モデルを生成できる(S1404)。
【0141】
まず、プロセッサ130は、第1アルゴリズムに基づいて既に格納された複数の気腹形態データのうち、前記状態データ、前記ランドマークデータ及び前記身体データとの一致率が最も高い特定の気腹形態データを選択して前記仮想気腹モデルを生成できる。
【0142】
ここで、プロセッサ130は、既に格納された複数の気腹形態クラスのうち、SVM(Support Vector Machine)分類モデルに基づいて前記患者に対する前記状態データ、前記ランドマークデータ及び前記身体データと最も高い類似度を有する前記特定の気腹形態クラスを選択できる。
【0143】
そして、プロセッサ130は、前記第1アルゴリズムに基づいて前記選択された特定の気腹形態クラス内から前記特定の気腹形態データを選択できる。
【0144】
プロセッサ130は、マシンラーニングモデルを通じて前記状態データ、前記ランドマークデータ及び前記身体データに基づいて前記仮想気腹モデルを生成できる(S1404)。
【0145】
より詳しくは、プロセッサ130は、前記マシンラーニングモデルによって前記患者に対する前記ランドマークデータの気腹後の位置情報を算出できる。
【0146】
そして、プロセッサ130は、前記気腹後の位置情報に基づいてTPSワッピング(Thin Plate Spline Warping)を通じて前記患者の身体表面を生成して前記仮想気腹モデルを出力できる。
【0147】
図14は、段階S1401乃至段階S1404を順次実行するものとして記載しているが、これは本実施例の技術思想を例示的に説明したものに過ぎず、本実施例の属する技術分野における通常の知識を有する者であれば、本実施例の本質的な特性から逸脱しない範囲で図14に記載された順序を変更して実行するか、段階S1401乃至段階S1404のうちの何れか1つ以上の段階を並列的に実行することに多様に修正及び変形して適用可能であるので、図14に示す時系列的な順序に限定されるものではない。
【0148】
以上で前述した本発明の一実施例に係る方法は、ハードウェアであるコンピュータと結合されて実行されるためにプログラム(又はアプリケーション)に具現されて媒体に格納されることができる。ここで、コンピュータは、前述した装置10であり得る。
【0149】
前述したプログラムは、前記コンピュータがプログラムを読み込んでプログラムにより実現された前記方法を実行させるために、前記コンピュータのプロセッサ(CPU)が前記コンピュータの装置インターフェースを介して読み取られるC、C++、JAVA(登録商標)、機械語などのコンピュータ言語でコード化されたコード(Code)を含むことができる。このようなコードは、前記方法を実行するのに必要な機能を定義した関数などに関連する機能的なコード(Functional Code)を含むことができ、前記機能を前記コンピュータのプロセッサが所定の手順通りに実行させるのに必要な実行手順関連の制御コードを含むことができる。また、このようなコードは、前記機能を前記コンピュータのプロセッサが実行させるのに必要な追加の情報やメディアが前記コンピュータの内部又は外部メモリのどの位置(アドレス)で参照されるべきかに対するメモリ参照関連のコードを更に含むことができる。更に、前記コンピュータのプロセッサが前記機能を実行させるために、遠隔(Remote)にある任意の他のコンピュータやサーバなどと通信が必要な場合、コードは前記コンピュータの通信モジュールを用いて遠隔にある任意の他のコンピュータやサーバなどとどのように通信すべきか、通信時に如何なる情報やメディアを送受信すべきかなどに対する通信関連のコードを更に含むことができる。
【0150】
本発明の実施例と関連して説明された方法又はアルゴリズムの段階は、ハードウェアで直接実現されるか、ハードウェアによって実行されるソフトウェアモジュールで実現されるか、又はこれらの結合によって実現できる。ソフトウェアモジュールは、RAM(Random Access Memory)、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)、EEPROM(Electrically Erasable Programmable ROM)、フラッシュメモリ(Flash Memory)、ハードディスク、着脱型ディスク、CD-ROM、又は本発明の属する技術分野において周知となっている任意の形態のコンピュータ読み取り可能な記録媒体に常に存在することもできる。
【0151】
以上、添付の図面を参照して本発明の実施例を説明したが、本発明の属する技術分野における通常の技術者は、本発明がその技術的思想や必須な特徴を変更することなく、他の具体的な形態に実施され得るということが理解できる。従って、以上で述べた実施例は、あらゆる面で例示的なものであり、制限的ではないものとして理解すべきである。
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14
【国際調査報告】