IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ クラリパイ・インコーポレイテッドの特許一覧

<>
  • 特開-医療映像の椎体識別装置及び方法 図1
  • 特開-医療映像の椎体識別装置及び方法 図2
  • 特開-医療映像の椎体識別装置及び方法 図3
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024075557
(43)【公開日】2024-06-04
(54)【発明の名称】医療映像の椎体識別装置及び方法
(51)【国際特許分類】
   A61B 6/03 20060101AFI20240528BHJP
   A61B 6/50 20240101ALI20240528BHJP
   A61B 5/055 20060101ALI20240528BHJP
【FI】
A61B6/03 560J
A61B6/50 500Z
A61B5/055 380
【審査請求】有
【請求項の数】20
【出願形態】OL
(21)【出願番号】P 2023198247
(22)【出願日】2023-11-22
(31)【優先権主張番号】10-2022-0158696
(32)【優先日】2022-11-23
(33)【優先権主張国・地域又は機関】KR
(71)【出願人】
【識別番号】522292448
【氏名又は名称】クラリパイ・インコーポレイテッド
(74)【代理人】
【識別番号】100108453
【弁理士】
【氏名又は名称】村山 靖彦
(74)【代理人】
【識別番号】100110364
【弁理士】
【氏名又は名称】実広 信哉
(74)【代理人】
【識別番号】100133400
【弁理士】
【氏名又は名称】阿部 達彦
(72)【発明者】
【氏名】ジョン・ヒョ・キム
(72)【発明者】
【氏名】チャン・ウォン・キム
(72)【発明者】
【氏名】ジェ・ミュン・イ
(72)【発明者】
【氏名】テ・ジン・キム
【テーマコード(参考)】
4C093
4C096
【Fターム(参考)】
4C093AA22
4C093AA26
4C093DA10
4C093FD03
4C093FF16
4C093FF42
4C096AC06
4C096AD14
4C096DC19
4C096DC36
4C096DC40
(57)【要約】
【課題】3次元医療映像を生成して冠状投影情報に基づいて3次元医療映像から特定椎体を識別する医療映像の椎体識別装置及び方法を提供すること。
【解決手段】本発明による医療映像から椎体を識別する椎体識別装置は、外部から提供される多重スライス医療映像に基づいて椎体を識別する椎骨識別モジュールを含み、椎骨識別モジュールは、多重スライス医療映像を再構成して3次元医療映像を生成し、3次元医療映像を冠状面(Coronal plane)方向に投影して3次元医療映像に対する冠状投影映像を取得し、冠状投影映像を腰椎(Lumbar)及び胸椎(Thoracic)のうち少なくともいずれか1つを含む選択領域に分割し、分割される選択領域に基づいて3次元医療映像から選択映像に対応される領域情報を取得し、領域情報と3次元医療映像に基づいて椎体にナンバリングを行う。
【選択図】図1
【特許請求の範囲】
【請求項1】
医療映像から椎体を識別する椎体識別装置において、
外部から提供される多重スライス医療映像に基づいて椎体を識別する椎骨識別モジュールを含み、
前記椎骨識別モジュールは、
前記多重スライス医療映像を再構成して3次元医療映像を生成し、
前記3次元医療映像を冠状面(Coronal plane)方向に投影して前記3次元医療映像に対する冠状投影映像を取得し、
前記冠状投影映像を腰椎(Lumbar)及び胸椎(Thoracic)のうち少なくともいずれか1つを含む選択領域に分割し、
前記分割される選択領域に基づいて前記3次元医療映像から前記選択領域に対応する領域情報を取得し、
前記領域情報と前記3次元医療映像に基づいて椎体にナンバリングを行う医療映像の椎体識別装置。
【請求項2】
前記3次元医療画像の生成においては、
前記多重スライス医療画像のノイズを低減して前処理を行うことを特徴とする請求項1に記載の医療映像の椎体識別装置。
【請求項3】
前記3次元医療画像の生成においては、
前記多重スライス医療映像のスライスの厚さがスライス内の画素サイズと同一になるようにスライス映像セットを生成し、
前記スライス映像セットに基づいて前記3次元医療映像が生成されるようにすることを特徴とする請求項1に記載の医療映像の椎体識別装置。
【請求項4】
前記スライス映像セットの生成においては、
事前に訓練されたディープラーニングモデルが適用可能であり、
前記ディープラーニングモデルは、
入力される前記多重スライス医療映像の個数より多いスライス映像を出力することを特徴とする請求項3に記載の医療映像の椎体識別装置。
【請求項5】
前記ディープラーニングモデルは、
前記多重スライス医療映像に含まれるスライスを厚さ方向に分割してスライスの厚さが前記スライス内の画素のサイズと同一でありながらも多くのスライス映像を出力することを特徴とする請求項3に記載の医療映像の椎体識別装置。
【請求項6】
前記冠状投影映像の取得においては、
前記3次元医療映像を冠状面方向に投影する時に最大画素強度で投影することを特徴とする請求項1に記載の医療映像の椎体識別装置。
【請求項7】
前記選択領域の分割においては、
事前に訓練されたディープラーニングモデルが適用可能であり、
前記ディープラーニングモデルは、
前記冠状投影された領域から前記選択領域を識別して分割するように作動することを特徴とする請求項1に記載の医療映像の椎体識別装置。
【請求項8】
前記ディープラーニングモデルは、
前記選択領域の識別においてバウンディングボックス(Bounding box)を生成することを特徴とする請求項7に記載の医療映像の椎体識別装置。
【請求項9】
前記領域情報の取得においては、
事前に訓練されたディープラーニングモデルが適用可能であり、
前記ディープラーニングモデルは、
前記3次元医療映像から前記選択領域に対応する領域情報を取得するように訓練されることを特徴とする請求項1に記載の医療映像の椎体識別装置。
【請求項10】
前記椎体のナンバリングの実行においては、
事前に訓練されたディープラーニングモデルに前記3次元医療映像を入力して椎体を分割し、
前記領域情報に基づいて前記椎体にナンバリングを行うことを特徴とする請求項1に記載の医療映像の椎体識別装置。
【請求項11】
医療映像から椎体を識別する椎体識別方法において、
外部から提供されるスライス医療映像を再構成して3次元医療映像を生成する段階;
前記3次元医療映像を冠状面(Coronal plane)方向に投影して前記3次元医療映像に対する冠状投影映像を取得する段階;
前記冠状投影映像を腰椎(Lumbar)及び胸椎(Thoracic)のうち少なくともいずれか1つを含む選択領域に分割する段階;
前記分割される選択領域に基づいて前記3次元医療映像から前記選択領域に対応される領域情報を取得する段階;及び
前記領域情報と前記3次元医療映像に基づいて椎体にナンバリングを行う段階を含む医療映像の椎体識別方法。
【請求項12】
前記3次元医療映像を生成する段階においては、
前記多重スライス医療画像のノイズを低減して前処理を行うことを特徴とする請求項11に記載の医療映像の椎体識別方法。
【請求項13】
前記3次元医療映像を生成する段階は、
前記多重スライス医療映像のスライスの厚さがスライス内の画素サイズと同一になるようにスライス映像セットを生成する段階;及び
前記スライス映像セットに基づいて前記3次元医療映像が生成されるようにする段階を含むことを特徴とする請求項11に記載の医療映像の椎体識別方法。
【請求項14】
前記スライス映像セットを生成する段階においては、
事前に訓練されたディープラーニングモデルが適用可能であり、
前記ディープラーニングモデルは、
入力される前記多重スライス医療映像の個数より多いスライス映像を出力することを特徴とする請求項13に記載の医療映像の椎体識別方法。
【請求項15】
前記ディープラーニングモデルは、
前記多重スライス医療映像に含まれるそれぞれのスライスを厚さ方向に分割してスライスの厚さが前記スライス内の画素サイズと同一でありながらも多くの個数のスライス映像を出力することを特徴とする請求項14に記載の医療映像の椎体識別方法。
【請求項16】
前記冠状投影映像を取得する段階においては、
前記3次元医療映像を冠状面方向に投影する時に最大画素強度で投影することを特徴とする請求項11に記載の医療映像の椎体識別方法。
【請求項17】
前記選択領域に分割する段階においては、
事前に訓練されたディープラーニングモデルが適用可能であり、
前記ディープラーニングモデルは、
前記冠状投影された領域から前記選択領域を識別して分割するように作動することを特徴とする請求項11に記載の医療映像の椎体識別方法。
【請求項18】
前記ディープラーニングモデルは、
前記選択領域の識別においてバウンディングボックス(Bounding box)を生成することを特徴とする請求項17に記載の医療映像の椎体識別方法。
【請求項19】
前記領域情報を取得する段階においては、
事前に訓練されたディープラーニングモデルが適用可能であり、
前記ディープラーニングモデルは、
前記3次元医療映像から前記選択領域に対応される領域情報を取得するように訓練されることを特徴とする請求項11に記載の医療映像の椎体識別方法。
【請求項20】
前記ナンバリングを行う段階には、
事前に訓練されたディープラーニングモデルに前記3次元医療映像を入力して椎体を分割する段階;及び
前記領域の情報に基づいて前記椎体にナンバリングを行う段階を含むことを特徴とする請求項11に記載の医療映像の椎体識別方法。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、医療映像の椎体識別装置及び方法に関し、より詳しくは、医療映像から椎体(Vertebral body)を識別する医療映像の椎体識別装置及び方法に関する。
【背景技術】
【0002】
一般的に、医療装備から取得される医療映像は、現代医学における患者の診断及び治療の過程で病変の存否とその特徴を判別して意思決定を下すのに非常に重要な根拠として活用される。一例として、脊椎(Spine)を撮影した医療映像の分析作業では、判読する医者が上位スライスから下位スライスの順で映像を分析し、胸椎(Thoracic)及び腰椎(Lumbar)を区分している。
【0003】
ただし、最近は、人工知能(Artificial Intelligence、AI)技術の発展によって、訓練されたディープラーニングモデルを利用して医療映像から胸椎及び腰椎を区分する技術に対する研究開発が活発に行われている。
【0004】
従来の椎体を識別する技術は、既に「大韓民国公開特許公報第10-2020-0073953号(人工知能を利用した放射線映像における腰椎領域分析方法、これを行うための記録媒体及び方法、2020.06.24.)」により公開されている。前記公開発明は、スライスパターンを学習したディープラーニングモデルに基づいて腰椎領域を分類することを特徴としている。
【0005】
ただし、従来の椎体識別のためのディープラーニング研究は、人体の矢状面(Sagittal plane)に基づいて胸椎及び腰椎を区分している。しかしながら、脊椎を胸椎及び腰椎に区分する過程で矢状面を利用する場合、肋骨を識別することが困難であるため、椎体の識別に誤りが発生する可能性がある。特に、患者の年齢及び身体条件に応じて矢状面方向で識別を行う時に誤りの可能性が高くなる問題点があった。
【先行技術文献】
【特許文献】
【0006】
大韓民国公開特許公報第10-2020-0073953号(人工知能を利用した放射線映像における腰椎領域分析方法、これを行うための記録媒体及び方法、2020.06.24.)
【発明の概要】
【発明が解決しようとする課題】
【0007】
本発明の目的は、3次元医療映像を生成して冠状投影(Coronalprojection)情報に基づいて3次元医療映像から特定椎体を識別する医療映像の椎体識別装置及び方法を提供することである。
【0008】
また、本発明の他の目的は、特定椎体を識別して番号を付与して後続検査において特定椎体位置での組織成分分析が容易になるようにする医療映像の椎体識別装置及び方法を提供することである。
【課題を解決するための手段】
【0009】
本発明による医療映像から椎体を識別する椎体識別装置は外部から提供される多重スライス医療映像に基づいて椎体を識別する椎骨識別モジュールを含み、前記椎骨識別モジュールは、前記多重スライス医療映像を再構成して3次元医療映像を生成し、前記3次元医療映像を冠状面(Coronal plane)方向に投影して前記3次元医療映像に対する冠状投影映像を取得し、前記冠状投影映像を腰椎(Lumbar)及び胸椎(Thoracic)のうち少なくともいずれか1つを含む選択領域に分割し、前記分割される選択領域に基づいて前記3次元医療映像から前記選択領域に対応する領域情報を取得し、前記領域の情報と前記3次元医療映像に基づいて椎体にナンバリングを行う。
【0010】
前記3次元医療画像の生成においては前記多重スライス医療画像のノイズを低減して前処理を行う。
【0011】
前記3次元医療画像の生成においては、前記多重スライス医療映像のスライスの厚さがスライス内の画素のサイズと同一になるようにスライス映像セットを生成し、前記スライス映像セットに基づいて前記3次元医療映像が生成されるようにする。
【0012】
前記スライス映像セットの生成においては、事前に訓練されたディープラーニングモデルが適用可能であり、前記ディープラーニングモデルは入力される前記多重スライス医療映像の数より多いスライス映像を出力することができる。
【0013】
前記ディープラーニングモデルは、前記多重スライス医療映像に含まれるスライスを厚さ方向に分割してスライスの厚さが前記スライス内の画素のサイズと同一でありながらも多くのスライス映像を出力することができる。
【0014】
前記冠状投影映像の取得においては、前記3次元医療映像を冠状面方向に投影する時に最大画素強度で投影することができる。
【0015】
前記選択領域の分割においては、事前に訓練されたディープラーニングモデルが適用可能であり、前記ディープラーニングモデルは前記冠状投影された領域から前記選択領域を識別して分割するように作動されることができる。
【0016】
前記ディープラーニングモデルは、前記選択領域の識別においてバウンディングボックス(Bounding box)を生成することができる。
【0017】
前記領域情報の取得においては、事前に訓練されたディープラーニングモデルが適用可能であり、前記ディープラーニングモデルは前記3次元医療映像から前記選択領域に対応する領域情報を取得するように訓練されることができる。
【0018】
前記椎体のナンバリング実行においては、事前に訓練されたディープラーニングモデルに前記3次元医療映像を入力して椎体を分割し、前記領域情報に基づいて前記椎体にナンバリングを行うことができる。
【0019】
一方、本発明による医療映像から椎体を識別する椎体識別方法は、外部から提供されるスライス医療映像を再構成して3次元医療映像を生成する段階及び前記3次元医療映像を冠状面(Coronal plane)方向に投影して前記3次元医療映像に対する冠状投影映像を取得する段階及び前記冠状投影映像を腰椎(Lumbar)及び胸椎(Thoracic)のうち少なくともいずれか1つを含む選択領域に分割する段階及び前記分割される選択領域に基づいて前記3次元医療映像から前記選択領域に対応する領域情報を取得する段階及び前記領域情報と前記3次元医療映像に基づいて椎体にナンバリングを行う段階を含む。
【0020】
前記3次元医療映像を生成する段階においては、前記多重スライス医療画像のノイズを低減して前処理を行ってもよい。
【0021】
前記3次元医療映像を生成する段階は、前記多重スライス医療映像のスライスの厚さがスライス内の画素のサイズと同一になるようにスライス映像セットを生成する段階及び前記スライス映像セットに基づいて前記3次元医療映像が生成されるようにする段階を含んでもよい。
【0022】
前記スライス映像セットを生成する段階においては、事前に訓練されたディープラーニングモデルが適用可能であり、前記ディープラーニングモデルは入力される前記多重スライス医療映像の数より多いスライス映像を出力することができる。
【0023】
前記ディープラーニングモデルは、前記多重スライス医療映像に含まれるそれぞれのスライスを厚さ方向に分割してスライスの厚さが前記スライス内の画素のサイズと同一でありながらも多くのスライス映像を出力することができる。
【0024】
前記冠状投影映像を取得する段階においては、前記3次元医療映像を冠状面方向に投影する時に最大画素強度で投影する。
【0025】
前記選択領域に分割する段階においては、事前に訓練されたディープラーニングモデルが適用可能であり、前記ディープラーニングモデルは前記冠状投影された領域から前記選択領域を識別して分割するように作動されることができる。
【0026】
前記ディープラーニングモデルは、前記選択領域の識別においてバウンディングボックス(Bounding box)を生成することができる。
【0027】
前記領域情報を取得する段階においては、事前に訓練されたディープラーニングモデルが適用可能であり、前記ディープラーニングモデルは、前記3次元医療映像から前記選択領域に対応する領域情報を取得するように訓練されることができる。
【0028】
前記ナンバリングを行う段階には、事前に訓練されたディープラーニングモデルに前記3次元医療映像を入力して椎体を分割する段階及び前記領域の情報に基づいて前記椎体にナンバリングを行う段階を含んでもよい。
【発明の効果】
【0029】
本発明による医療映像の椎体識別装置及び方法は、冠状投影情報基づいて椎体識別が可能であるため、より正確な識別性能を見せ、識別された椎体に基づいて後続検査においてより正確な組織成分分析が可能であるという効果がある。
【0030】
以上のような本発明の技術的効果は、以上で言及した効果に制限されず、言及されていないまた他の技術的効果は下記の記載から当業者に明確に理解できるであろう。
【図面の簡単な説明】
【0031】
図1】本実施例による医療映像の椎体識別装置を概略的に示した構成図である。
図2】本実施例による医療映像の椎体識別方法を示したフローチャートである。
図3】本実施例による医療映像の椎体識別方法を示した概念図である。
【発明を実施するための形態】
【0032】
以下、添付の図面を参照して本発明の実施例を詳しく説明する。しかしながら、本実施例は、以下で開示される実施例に限定されるものではなく、互いに異なる多様な形態で実現されることができ、単に本実施例は、本開示が完全になるようにし、通常の知識を有する者に発明の範疇を知らせるために提供されるものである。図面における要素の形状などはより明確な説明のために誇張して表現された部分があり得、図面上において同一符号で表示された要素は同一の要素を意味する。
【0033】
図1は、本実施例による医療映像の椎体識別装置を概略的に示した構成図である。
【0034】
図1は、本実施例による医療映像の椎体識別装置100(以下、椎体識別装置と称する。)は、医療装備10から取得された医療映像データから椎体(Vertebral body)を識別する。そして、椎体識別装置100は、識別された椎体を区分して腰椎(Lumbar)領域または胸椎(Thoracic)領域にナンバリングを行い、結果を判読医者に伝達する。
【0035】
ただし、以下では、本発明の理解を容易にするために腰椎領域にナンバリングを行う方法について説明するが、これは本実施例を説明するためのものであって、椎体識別装置100は腰椎領域及び/又は胸椎領域にナンバリングを行うことができる。
【0036】
そして、医療装備10は、コンピュータ断層撮影機(Computed Tomography、CT)、磁気共鳴画像装置(Magnetic Resonance Imaging、MRI)及び陽電子放出断層撮影装置(Position Emission Tomography、PET)などであってもよいが、医療装備10及び医療映像の種類は限定されない。
【0037】
このような椎体識別装置100は、通信モジュール110及び椎骨識別モジュール120を含んでもよい。ここで、通信モジュール110及び椎骨識別モジュール120はそれぞれが独立した構成として備えられるか、単一のコンピュータシステムに共に構築されてもよい。
【0038】
まず、通信モジュール110は、医療装備100またはサーバ(図示せず)などを介して提供できる医療映像データ11を受信する。ここで、医療映像データ11は患者の脊椎領域を撮影した映像データであり、多重スライス医療映像12を含んでもよい。
【0039】
そして、椎骨識別モジュール120は、通信モジュール110を介して提供される多重スライス医療映像12を処理して椎体を識別する。そして、椎骨識別モジュール120は、識別された椎体の腰椎領域にナンバリングを行う。
【0040】
以下、添付の図面を参照して椎骨識別モジュール120の処理方法について詳しく説明する。ただし、前述の構成要素については詳細な説明を省略し、同一の参照符号を付与して説明する。
【0041】
図2は、本実施例による医療映像の椎体識別方法を示したフローチャートであり、図3は、本実施例による医療映像の椎体識別方法を示した概念図である。
【0042】
図2及び図3に示すように、本実施例による椎体識別においては、椎骨識別モジュール120が通信モジュール110を介して提供される多重スライス医療映像12に前処理を行って3次元医療映像13を生成する(S110)。
【0043】
ここで、椎骨識別モジュール120が多重スライス医療映像12に前処理を行って、3次元医療映像13を生成する方法は多様に実施されることができる。
【0044】
一例として、椎骨識別モジュール120は、入力された多重スライス医療映像12から雑音(Noise)を除去し、雑音が除去された多重スライス医療映像12を再構成して3次元医療映像13を生成する。この時、椎骨識別モジュール120は、事前に訓練された第1ディープラーニングモデルを利用して多重スライス医療映像12から雑音を除去し、3次元医療映像13を生成することができる。
【0045】
一例として、事前に訓練された第1ディープラーニングモデルは低画質の画質を含む多重スライス医療映像と高画質の画質を含む多重スライス医療映像をペアにして雑音を低減するように訓練されたディープラーニングモデルであってもよい。
【0046】
他の例として、事前に訓練された第1ディープラーニングモデルは低画質の画質を含む多重スライス医療映像のサイノグラム(Sinogram)と、高画質の画質を含む多重スライス医療映像のサイノグラムをペアにして訓練されたディープラーニングモデルであってもよい。すなわち、他の例による第1ディープラーニングモデルはサイノグラムにおいて雑音低減を行うことができる。
【0047】
また他の例として、事前に訓練された第1ディープラーニングモデルは、低画質の画質を含む3次元医療映像と、高画質の画質を含む3次元医療映像をベアにして訓練されたディープラーニングモデルであってもよい。すなわち、また他の例による第1ディープラーニングモデルは3次元医療映像を生成した後に雑音低減を行うことができる。
【0048】
このように、椎骨識別モジュール120は、事前に訓練された第1ディープラーニングモデルを利用して多重スライス医療映像12を3次元医療映像13に変換する過程で雑音除去を行うことができる。ただし、これは本実施例を説明するためのものであり、3次元医療映像13を生成する過程で行う雑音低減方法は多様な方式のディープラーニングモデルが適用されることができ、ディープラーニングモデルを適用せずに従来の映像処理方法により行うこともできる。
【0049】
一方、椎骨識別モジュール120は、多重スライス医療映像12から3次元医療映像13を生成する過程において3次元医療映像13の画質改善のために、多重スライス医療映像12のスライスの厚さがスライス内の画素のサイズと同一になるようにスライス映像セットを生成し、3次元医療映像13を再構成することができる。
【0050】
一例として、椎骨識別モジュール120は、事前に訓練された第2ディープラーニングモデルを適用することができる。ここで、第2ディープラーニングモデルは、入力された多重スライス医療映像12の個数より多いスライス映像を出力するように訓練された状態であってもよい。
【0051】
一例として、第2ディープラーニングモデルは多重スライス医療映像12に含まれるスライスを厚さ方向に分割する。従って、第2ディープラーニングモデルは、スライスの厚さがスライス内の画素のサイズと同一でありながらも多くのスライスを出力することが可能できる。
【0052】
このような第2ディープラーニングモデルは薄いスライス(thin slice)及び厚いスライス(thick slice)をペアにして訓練されたディープラーニングモデルであってもよい。従って、第2ディープラーニングモデルはスライスが入力されると、スライスを厚さ方向に分割することができる。
【0053】
このように、椎骨識別モジュール120は、様々な方式で前処理を行い、多重スライス医療映像12を3次元医療映像13に変換することができる。
【0054】
一方、3次元医療映像13が生成されると、椎骨識別モジュール120は生成された3次元医療映像13を冠状投影(Coronal projection)映像14に投影する(S120)。この時、椎骨識別モジュール120は3次元医療映像13において冠状面方向に最大画素強度で投影を行うことができる。
【0055】
以後、椎骨識別モジュール120は、最大画素強度で投影された冠状投影映像14から選択領域15を分割する(S130)。
【0056】
ここで、椎骨識別モジュール120は腰椎領域にナンバリングを行うために腰椎領域を選択領域15に区分することができる。ここで、椎骨識別モジュール120は、腰椎領域及び/又は胸椎領域を区分できるが、前述のように一例として腰椎領域を選択領域15に区分することができる。
【0057】
このような選択領域15の区分においては、事前に訓練された第3ディープラーニングモデルが適用されることができる。
【0058】
一例として、第3ディープラーニングモデルは、冠状投影映像14と、冠状投影映像14に含まれる選択領域15に対する医療映像、例えば、腰椎または胸椎映像をペアにして訓練されることができる。これによって、第3ディープラーニングモデルは、冠状投影映像14が入力される時、冠状投影映像14から選択領域15、本実施例の腰椎領域を区分することができる。この時、第3ディープラーニングモデルの学習においては、椎体の冠状投影映像14から腰椎領域を区分する過程で肋骨の存否に基づいて腰椎領域を区分するように訓練されることができる。
【0059】
また、第3ディープラーニングモデルは、腰椎領域を区分する過程で腰椎領域にバウンディングボックス16を生成することができる。この時、生成されたバウンディングボックス16はディスプレーユニット(図示せず)を介して作業者に出力されることができる。従って、作業者はバウンディングボックス16を介して冠状投影映像14から腰椎領域が正確に区分されているかを確認することができる。
【0060】
一例として、腰椎領域は第1番腰椎から第5番腰椎まで5つの腰椎領域を含んでもよい。これに、第3ディープラーニングモデルは腰椎領域を分割するために、第1番腰椎から第5番腰椎までの一連の腰椎領域を含むバウンディングボックス16が取得されるようにすることができる。
【0061】
また、このような第3ディープラーニングモデルの学習においては、選択領域15を腰椎領域及びディスク(Disc)領域に区分して学習することができ、従って、訓練されたディープラーニングモデルはディスク領域を考慮して腰椎領域を区分することができる。
【0062】
以後、椎骨識別モジュール120は、分割された選択領域15に基づいて前処理された3次元医療映像13から腰椎領域に対応される領域情報17を取得する。
【0063】
一例として、椎骨識別モジュール120は、取得されたバウンディングボックス16に基づいて前処理された3次元医療映像13からバウンディングボックス16に対応される領域情報17を識別することができる。ここで、椎骨識別モジュール120は前処理された3次元医療映像13から領域情報17を識別するために様々な方式を適用することができる。
【0064】
一例として、椎骨識別モジュール120は、事前に訓練された第4ディープラーニングモデルに基づいて3次元医療映像13から領域情報17を識別することができる。
【0065】
一例として、第4ディープラーニングモデルはバウンディングボックス16に対するイメージと3次元医療映像13をペアにして訓練されることができる。従って、第4ディープラーニングモデルは、前処理された3次元医療映像13から選択領域15に対応される領域情報17が出力されるようにすることができる。
【0066】
以後、椎骨識別モジュール120は、事前に取得された領域情報17と、前処理された3次元医療映像13に基づいて特定椎体18を識別してナンバリングを行うことができる。
【0067】
一例として、椎骨識別モジュール120は、前処理された3次元医療映像13を事前に訓練された第5ディープラーニングモデルに入力して前処理された3次元医療映像13の椎体18を分割することができる。
【0068】
一例として、第5ディープラーニングモデルは3次元医療映像13と椎体18の映像をペアにして訓練されることができる。これによって、第5ディープラーニングモデルは前処理された3次元医療映像13から椎体18を識別し、識別された椎体18を出力することができる。
【0069】
以後、椎骨識別モジュール120は、前処理された3次元医療映像13から出力された椎体18と、領域情報17に基づいて椎体18にナンバリングを行うことができる。
【0070】
すなわち、椎骨識別モジュール120は3次元医療映像13から出力された結果である椎体18に冠状面投影による腰椎領域から生成された3次元医療映像13の領域の情報を比較して3次元医療映像13から識別された椎体18にナンバリングを行うことができる。
【0071】
このように、本発明による医療映像の椎体識別装置及び方法は冠状投影情報に基づいて椎体の識別が可能であるため、より正確な識別性能を見せ、識別された椎体に基づいて、後続検査においてより正確な組織成分分析が可能な効果がある。
【0072】
前述され、図面に図示された本発明の一実施例は本発明の技術的思想を限定するものと解釈されてはならない。本発明の保護範囲は請求範囲に記載された事項によってのみ制限され、本発明の技術分野において通常の知識を有する者は、本発明の技術的思想を様々な形態に改良及び変更することが可能である。従って、このような改良及び変更は通常の知識を有する者に自明なものである限り、本発明の保護範囲に属することになるであろう。
【符号の説明】
【0073】
11 医療映像データ
12 多重スライス医療映像
13 3次元医療映像
14 冠状投影(Coronal projection)映像
15 選択領域
16 バウンディングボックス
17 領域情報
18 特定椎体
100 椎体識別装置
110 通信モジュール
120 椎骨識別モジュール
図1
図2
図3