IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ アインサイト インコーポレイテッドの特許一覧

特表2024-532708自然頭部位置で撮影された3次元CBCT映像からの機械学習ベース歯列矯正診断のための頭部計測パラメータ導出方法
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公表特許公報(A)
(11)【公表番号】
(43)【公表日】2024-09-10
(54)【発明の名称】自然頭部位置で撮影された3次元CBCT映像からの機械学習ベース歯列矯正診断のための頭部計測パラメータ導出方法
(51)【国際特許分類】
   A61B 6/03 20060101AFI20240903BHJP
   A61B 6/51 20240101ALI20240903BHJP
   G06T 7/00 20170101ALI20240903BHJP
【FI】
A61B6/03 560G
A61B6/03 560T
A61B6/51 500
G06T7/00 350C
G06T7/00 612
G06T7/00 660Z
【審査請求】有
【予備審査請求】未請求
(21)【出願番号】P 2024506755
(86)(22)【出願日】2021-08-19
(85)【翻訳文提出日】2024-02-01
(86)【国際出願番号】 KR2021011012
(87)【国際公開番号】W WO2023013805
(87)【国際公開日】2023-02-09
(31)【優先権主張番号】10-2021-0102733
(32)【優先日】2021-08-04
(33)【優先権主張国・地域又は機関】KR
(81)【指定国・地域】
(71)【出願人】
【識別番号】524044500
【氏名又は名称】アインサイト インコーポレイテッド
(74)【代理人】
【識別番号】110002398
【氏名又は名称】弁理士法人小倉特許事務所
(72)【発明者】
【氏名】アン,ジャン フン
【テーマコード(参考)】
4C093
5L096
【Fターム(参考)】
4C093AA22
4C093DA05
4C093FF20
4C093FF21
4C093FF22
4C093FF45
5L096BA06
5L096DA02
5L096FA66
5L096FA67
5L096HA11
5L096KA04
(57)【要約】
本発明は,機械学習ベース歯列矯正診断のための頭部計測パラメータ導出方法に関する。より詳細には,本発明は,機械学習アルゴリズムを適用して自然頭部位置で撮影されたコーンビームコンピュータ断層撮影(CBCT)映像データから被検者頭部計測イメージを取得し,歯列矯正精密診断のための13個の診断パラメータを導出するために前記頭部計測イメージ上で複数個の計測点を精密で迅速に検出できる機械学習ベースの歯列矯正診断のための頭部計測パラメータ導出方法に関する。

【特許請求の範囲】
【請求項1】
被検者の頭部を自然頭部位置状態で3Dコーンビームコンピュータ断層撮影(CBCT)した映像データから,被検者に対してそれぞれ視床面頭部イメージ,冠状面頭部イメージ,口腔パノラマイメージ,及び前歯断面イメージを含む診断用頭部計測イメージを取得する段階で抽出された頭部診断用頭部計測イメージを用いた機械学習ベース歯列矯正診断のための頭部計測パラメータ導出方法であって,
機械学習アルゴリズムに基づいて前記頭部計測イメージ上で歯列矯正診断のための13個のパラメータを導出するために複数個の計測点を検出する段階;及び
前記検出された複数個の計測点間の距離又は角度に対応する13個のパラメータを導出する段階を含むことを特徴とする歯列矯正診断のための頭部計測パラメータ導出方法。
【請求項2】
前記13個のパラメータは,歯列矯正診断のための情報を提供するために,上顎骨の突出度,下顎骨の突出度,顎先の突出度,下顎骨中心の変位程度,上顎中切歯中心の変位程度,下顎中切歯中心の変位程度,額と鼻との境界領域で最も低い部分である鼻根点(Nasion)を通る水平面(THP;True horizontal plane)から右側犬歯下端点までの垂直距離,前記THPから左側犬歯下端点までの垂直距離,前記THPから右側上顎第1大臼歯までの垂直距離,前記THPから左側上顎第1大臼歯までの垂直距離,上顎中切歯傾斜度,下顎中切歯傾斜度,及び前記THPに対する下顎骨の垂直傾斜度を含むことを特徴とする請求項1記載の歯列矯正診断のための頭部計測パラメータ導出方法。
【請求項3】
前記機械学習アルゴリズムは,視床面頭部イメージ上で前頭部から鼻孔点(rhinion)までの間に備えられる領域,前記鼻孔点から上部歯までの領域,前記上部歯から下顎骨顎先点(Menton)までの領域,及び前記下顎骨顎先点から顎関節骨(articulare)までの領域に分割し,前記13個のパラメータを導出するための複数個の計測点を検出することを特徴とする請求項1記載の歯列矯正診断のための頭部計測パラメータ導出方法。
【請求項4】
前記機械学習アルゴリズムは,冠状面頭部イメージ上で前頭部から鼻孔点(rhinion)までの領域,及び下顎骨領域に分割し,前記13個のパラメータを導出するための複数個の計測点を検出することを特徴とする請求項1記載の歯列矯正診断のための頭部計測パラメータ導出方法。
【請求項5】
前記機械学習アルゴリズムは,口腔パノラマイメージにおいてR-CNN(Region based convolutional neural networks)機械学習モデルを適用して全体歯での個別領域を感知する過程;
前記感知された全体歯のそれぞれの個別領域ごとに歯の位置を示す歯計測点を検出する過程;
前記検出された歯計測点の位置を分析して全体歯を上顎歯及び下顎歯に分類する過程;
顔面部中央線から前記検出された歯計測点までの水平距離によって順次に,右側上顎歯,左側上顎歯,右側下顎歯,及び左側下顎歯ごとに番号をナンバリングする過程;及び
前記ナンバリングされた歯を分析し,前歯,犬歯及び第1大臼歯を含む特定歯においてパラメータを導出するための複数個の計測点を検出する過程;
を含むことを特徴とする請求項1記載の歯列矯正診断のための頭部計測パラメータ導出方法。
【請求項6】
前記機械学習アルゴリズムは,視床面頭部イメージにおいて,額と鼻との境界領域で最も低い部分である鼻根点(Nasion),上顎骨にある前鼻棘(Anterior nasal spine),及び上顎前歯歯槽点(Prosthion)を連結した線において最も深い部分であるA点(A point,A)を検出し,前記鼻根点を通る垂直面であるNTVP(Nasion true vertical plane)と前記A点との距離の測定によって上顎骨の突出度が導出されることを特徴とする請求項2記載の歯列矯正診断のための頭部計測パラメータ導出方法。
【請求項7】
前記機械学習アルゴリズムは,視床面頭部イメージにおいて,額と鼻との境界領域で最も低い部分である鼻根点(Nasion),下顎前歯の歯槽点(Infradentale),及び顎先(Pog)を連結した最も深い部分であるB点(B point,B)を検出し,
前記鼻根点を通る垂直面であるNTVP(Nasion true vertical plane)と前記B点との距離の測定によって下顎骨の突出度が導出されることを特徴とする請求項2記載の歯列矯正診断のための頭部計測パラメータ導出方法。
【請求項8】
前記機械学習アルゴリズムは,視床面頭部イメージにおいて,額と鼻との境界領域で最も低い部分である鼻根点(Nasion),及び下顎骨から最も前方に出たポゴニオン(Pogonion,Pog)を検出し,
前記鼻根点を通る垂直面であるNTVP(Nasion true vertical plane)と前記ポゴニオンとの距離の測定によって顎先の突出度が導出されることを特徴とする請求項2記載の歯列矯正診断のための頭部計測パラメータ導出方法。
【請求項9】
前記機械学習アルゴリズムは,冠状面頭部イメージにおいて額と鼻との境界領域で最も低い部分である鼻根点(Nasion),及び下顎骨で最も低い地点であるメントン(Menton)を検出し,
前記鼻根点を通る垂直面であるNTVP(Nasion true vertical plane)と前記メントンとの距離の測定によって下顎骨中心の変位程度が導出されることを特徴とする請求項2記載の歯列矯正診断のための頭部計測パラメータ導出方法。
【請求項10】
前記機械学習アルゴリズムは,冠状面頭部イメージにおいて額と鼻との境界領域で最も低い部分である鼻根点(Nasion),及び口腔パノラマイメージにおいて上顎中切歯中央点を検出し,
前記鼻根点を通る垂直面であるNTVP(Nasion true vertical plane)と前記上顎中切歯中央点との距離の測定によって上顎中切歯中心の変位程度が導出されることを特徴とする請求項2記載の歯列矯正診断のための頭部計測パラメータ導出方法。
【請求項11】
前記機械学習アルゴリズムは,冠状面頭部イメージにおいて額と鼻との境界領域で最も低い部分である鼻根点(Nasion),及び口腔パノラマイメージ上で下顎中切歯中央点を検出し,
前記鼻根点を通る垂直面であるNTVP(Nasion true vertical plane)と前記下顎中切歯中央点との距離の測定によって下顎中切歯中心の変位程度が導出されることを特徴とする請求項2記載の歯列矯正診断のための頭部計測パラメータ導出方法。
【請求項12】
前記機械学習アルゴリズムは,冠状面頭部イメージにおいて額と鼻との境界領域で最も低い部分である鼻根点(Nasion),及び口腔パノラマイメージ上で右側犬歯下端点を検出し,
前記鼻根点を通る水平面であるTHP(True horizontal plane)と前記右側犬歯下端点との垂直距離が導出されることを特徴とする請求項2記載の歯列矯正診断のための頭部計測パラメータ導出方法。
【請求項13】
前記機械学習アルゴリズムは,冠状面頭部イメージにおいて額と鼻との境界領域で最も低い部分である鼻根点(Nasion),及び口腔パノラマイメージにおいて左側犬歯下端点を検出し,
前記鼻根点を通る水平面であるTHP(True horizontal plane)と前記左側犬歯下端点との垂直距離が導出されることを特徴とする請求項2記載の歯列矯正診断のための頭部計測パラメータ導出方法。
【請求項14】
前記機械学習アルゴリズムは,冠状面頭部イメージにおいて額と鼻との境界領域で最も低い部分である鼻根点(Nasion),及び口腔パノラマイメージ上で上顎右側第1大臼歯下端点を検出し,
前記鼻根点を通る水平面であるTHP(True horizontal plane)と前記上顎右側第1大臼歯下端点との距離によって,THPから右側上顎第1大臼歯までの垂直距離が導出されることを特徴とする請求項2記載の歯列矯正診断のための頭部計測パラメータ導出方法。
【請求項15】
前記機械学習アルゴリズムは,冠状面頭部イメージにおいて額と鼻との境界領域で最も低い部分である鼻根点(Nasion),及び口腔パノラマイメージ上で上顎左側第1大臼歯下端点を検出し,
前記鼻根点を通る水平線であるTHP(True horizontal plane)と前記上顎左側第1大臼歯下端点との距離によって,THPから上顎左側第1大臼歯までの垂直距離が導出されることを特徴とする請求項2記載の歯列矯正診断のための頭部計測パラメータ導出方法。
【請求項16】
前記機械学習アルゴリズムは,冠状面頭部イメージにおいて額と鼻との境界領域で最も低い部分である鼻根点(Nasion),及び前歯断面イメージ上で上顎前歯上端点及び上顎前歯下端点を検出し,
前記鼻根点を通る水平面であるTHP(True horizontal plane)と前記上顎前歯上部点及び前記上顎前歯下端点との間を連結するベクトルの角度によって上顎中切歯の傾斜度が導出されることを特徴とする請求項2記載の歯列矯正診断のための頭部計測パラメータ導出方法。
【請求項17】
前記機械学習アルゴリズムは,視床面頭部イメージにおいて,下顎骨で最も低い地点であるメントン(Menton)と下顎骨で最大曲率地点であるゴニオン(Gonion),及び前歯断面イメージにおいて下顎前歯上端点と下顎前歯下端点を検出し,
前記メントンと前記ゴニオンとを連結するMeGo線と,前記下顎前歯上端点と前記下顎前歯下端点とを連結するベクトルとの角度によって下顎中切歯の傾斜度を導出することを特徴とする請求項2記載の歯列矯正診断のための頭部計測パラメータ導出方法。
【請求項18】
前記機械学習アルゴリズムは,視床面頭部イメージにおいて,額と鼻との境界領域で最も低い部分である鼻根点(Nasion),下顎骨で最も低い地点であるメントン(Menton),及び下顎骨で最大曲率地点であるゴニオン(Gonion)を検出し,
前記鼻根点を通る水平面であるTHP(True horizontal plane)と,前記メントンと前記ゴニオンとを連結するMeGo線との角度によってTHPに対する下顎骨の垂直傾斜度が導出されることを特徴とする請求項2記載の歯列矯正診断のための頭部計測パラメータ導出方法。
【請求項19】
前記導出された13個のパラメータに対応して被検者の顔面部形状又は咬合状態を診断する段階;をさらに含むことを特徴とする請求項1記載の歯列矯正診断のための頭部計測パラメータ導出方法。
【請求項20】
前記導出された13個のパラメータに対応して被検者の咬合状態を診断する場合に,上顎骨と下顎骨との前後咬合状態が比較的正常範疇である状態,上顎骨が下顎骨に比べてより突出した状態,及び下顎骨が上顎骨に比べてより突出した状態をそれぞれ分類して診断することを特徴とする請求項19記載の歯列矯正診断のための頭部計測パラメータ導出方法。
【請求項21】
前記導出された13個のパラメータに対応して被検者の顔面部形状を診断する場合に,顔面部の長さが正常範疇である状態,顔面部の長さが正常範疇に比べて短い状態,及び顔面部の長さが正常範疇に比べて長い状態をそれぞれ分類して診断することを特徴とする請求項19記載の歯列矯正診断のための頭部計測パラメータ導出方法。
【請求項22】
請求項1~21のいずれか一項の歯列矯正診断のための頭部計測パラメータ導出方法の診断用頭部計測イメージを取得する段階で抽出された頭部診断用頭部計測イメージを入力データにして,前記複数個の計測点を出力データとして検出する段階;及び,
前記検出された複数個の計測点間の距離又は角度に対応する13個のパラメータを導出する段階;が自動で行われるようにプログラミングされ,コンピューティング機器又はコンピューティング可能なクラウドサーバーに設置されることを特徴とする歯列矯正診断のための頭部計測パラメータ導出プログラム。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は,機械学習ベース歯列矯正診断のための頭部計測パラメータ導出方法に関する。より詳細には,本発明は,機械学習アルゴリズムと映像分析処理技術を適用して自然頭部位置(Natural head position)状態でコーンビームコンピュータ断層撮影(CBCT)された映像データから被検者の頭部計測イメージを取得し,歯列矯正の精密診断のための13個のパラメータを導出するために,前記頭部計測イメージ上で複数個の計測点を精密で迅速に検出できる機械学習ベースによる歯列矯正診断のための頭部計測パラメータ導出方法に関する。
【背景技術】
【0002】
一般に,歯並びが乱れており,上下の歯の噛み合わせが不正である状態を不正咬合といい,このような不正咬合を正常咬合にするために歯列矯正治療が行われることがある。一方,歯列矯正のための精密診断や治療計画の樹立において被検者頭部計測イメージ上で解剖学的にあらかじめ決定された解剖学的計測点(anatomical landmark)を検出する作業が要求される。
【0003】
既存のX線(X-ray)映像における画面の歪み(スクリーン歪曲)現象又は不鮮明などの問題点を補完し,最近ではコーンビームコンピュータ断層撮影(Cone-Beam Computer Tomography;CBCT)装備を用いて撮影した被検者の頭部医療映像データから3次元CBCTイメージを取得しており,これに基づいて歯列矯正診断のためのパラメータを導出するための計測点を検出する研究が行われている。特に,最近の研究ではコーンビームシーティー(CBCT)イメージ分析方法として,額と鼻との境界領域で最も低い鼻根点(Nasion)を通過しながら地面に垂直なNTVP(Nasion True Vertical Plane)と,前記鼻根点(Nasion)を通過しながら地面に水平なTHP(True Horizontal Plane)を用いて,前後骨格関係及び歯の突出程度を把握し得る方法などが提案されている。
【0004】
従来,歯列矯正診断パラメータを導出するために,医療関係者などの熟練した作業者が複数個のCBCTイメージ上で約50個以上の多数個の計測点を手動で検出しなければならなかったが,このような方法は,作業者の熟練度によって計測点検出方法と検出正確度が異なるため,正確な矯正診断が難しく,前記計測点検出時間が約30分以上と長くかかり,診療効率が低下する問題があった。
【0005】
このような問題を解決するために,歯列矯正診断分野に機械学習アルゴリズムを導入することによって自然な頭部位置(Natural head position)の状態でコーンビームコンピュータ断層撮影(CBCT)された映像データから被検者頭部計測イメージを取得し,歯列矯正精密診断のために既存に比べて減少した個数のパラメータを導出するために前記頭部計測イメージ上で複数個の計測点を精密で迅速に検出して診療効率を向上させることができる機械学習ベース歯列矯正診断のための頭部計測パラメータ導出方法が切に望まれている現状である。
【発明の概要】
【発明が解決しようとする課題】
【0006】
本発明は,機械学習アルゴリズムを適用して自然頭部位置(Natural head position)状態でコーンビームコンピュータ断層撮影(CBCT)された映像データから被検者頭部計測イメージを取得し,歯列矯正精密診断のために既存に比べて減少した13個のパラメータを導出するために前記頭部計測イメージ上で複数個の計測点を精密で迅速に導出して診療効率を向上させることができる機械学習ベース歯列矯正診断のための頭部計測パラメータ導出方法を提供することを解決しようとする課題とする。
【課題を解決するための手段】
【0007】
上記の課題を解決するために,本発明は,被検者の頭部を自然頭部位置状態で3Dコーンビームコンピュータ断層撮影(CBCT)された映像データから被検者に対してそれぞれ視床面頭部イメージ,冠状面頭部イメージ,口腔パノラマイメージ,及び前歯断面イメージを含む診断用頭部計測イメージを取得する段階で抽出された頭部診断用頭部計測イメージを用いた機械学習ベース歯列矯正診断のための頭部計測パラメータ導出方法であって,機械学習アルゴリズムに基づいて前記頭部計測イメージ上で歯列矯正診断のための13個のパラメータを導出するために複数個の計測点を検出する段階,及び前記検出された複数個の計測点間の距離又は角度に対応する13個のパラメータを導出する段階を含むことを特徴とする歯列矯正診断のための頭部計測パラメータ導出方法を提供することができる。
【0008】
ここで,前記13個のパラメータは,歯列矯正診断のための情報を提供するために上顎骨の突出度,下顎骨の突出度,顎先の突出度,下顎骨中心の変位程度,上顎中切歯中心の変位程度,下顎中切歯中心の変位程度,額と鼻との境界領域で最も低い部分である鼻根点(Nasion)を通る水平面(THP;True Horizontal Plane)から右側犬歯下端点までの垂直距離,前記THPから左側犬歯下端点までの垂直距離,前記THPから右側上顎第1大臼歯までの垂直距離,前記THPから左側上顎第1大臼歯までの垂直距離,上顎中切歯傾斜度,下顎中切歯傾斜度,及び前記THPに対する下顎骨の垂直傾斜度を含んでよい。
【0009】
また,前記機械学習アルゴリズムは,視床面頭部イメージ上で前頭部から鼻孔点(rhinion)までの間に備えられる領域,前記鼻孔点から上部歯までの領域,前記上部歯から下顎骨顎先点(Menton)までの領域,及び前記下顎骨顎先点から顎関節骨(articulare)までの領域に分割し,前記13個のパラメータを導出するための複数個の計測点を検出することができる。
【0010】
そして,前記機械学習アルゴリズムは,冠状面頭部イメージ上で前頭部から鼻孔点(rhinion)までの領域,及び下顎骨領域に分割し,前記13個のパラメータを導出するための複数個の計測点を検出することができる。
【0011】
また,前記機械学習アルゴリズムは,口腔パノラマイメージにおいてR-CNN(Region based convolutional neural networks)機械学習モデルを適用して全体歯での個別領域を感知する過程,前記感知された全体歯のそれぞれの個別領域ごとに歯の位置を示す歯計測点を検出する過程,前記検出された歯計測点の位置を分析して全体歯を上顎歯及び下顎歯に分類する過程,顔面部中央線から前記検出された歯計測点までの水平距離によって順次に,右側上顎歯,左側上顎歯,右側下顎歯,及び左側下顎歯ごとに番号をナンバリングする過程,及び前記ナンバリングされた歯を分析し,前歯,犬歯及び第1大臼歯を含む特定歯においてパラメータを導出するための複数個の計測点を検出する過程を含んでよい。
【0012】
そして,前記機械学習アルゴリズムは,視床面頭部イメージにおいて,額と鼻との境界領域で最も低い部分である鼻根点(Nasion),上顎骨にある前鼻棘(Anterior nasal spine),及び上顎前歯歯槽点(Prosthion)を連結した線において最も深い部分であるA点(A point,A)を検出し,前記鼻根点を通る垂直面であるNTVP(Nasion true vertical plane)と前記A点との距離の測定によって上顎骨の突出度が導出されてよい。
【0013】
また,前記機械学習アルゴリズムは,視床面頭部イメージにおいて,額と鼻との境界領域で最も低い部分である鼻根点(Nasion),下顎前歯の歯槽点(Infradentale),及び顎先(Pog)を連結した最も深い部分であるB点(B point,B)を検出し,前記鼻根点を通る垂直面であるNTVP(Nasion true vertical plane)と前記B点との距離の測定によって下顎骨の突出度が導出されてよい。
【0014】
また,前記機械学習アルゴリズムは,視床面頭部イメージにおいて,額と鼻との境界領域で最も低い部分である鼻根点(Nasion),及び下顎骨から最も前方に出たポゴニオン(Pogonion, Pog)を検出し,前記鼻根点を通る垂直面であるNTVP(Nasion true vertical plane)と前記ポゴニオンとの距離の測定によって顎先の突出度が導出されてよい。
【0015】
また,前記機械学習アルゴリズムは,冠状面頭部イメージにおいて額と鼻との境界領域で最も低い部分である鼻根点(Nasion),及び下顎骨で最も低い地点であるメントン(Menton)を検出し,前記鼻根点を通る垂直面であるNTVP(Nasion true vertical plane)と前記メントンとの距離の測定によって下顎骨中心の変位程度が導出されてよい。
【0016】
また,前記機械学習アルゴリズムは,冠状面頭部イメージにおいて額と鼻との境界領域で最も低い部分である鼻根点(Nasion),及び口腔パノラマイメージにおいて上顎中切歯中央点を検出し,前記鼻根点を通る垂直面であるNTVP(Nasion true vertical plane)と前記上顎中切歯中央点との距離の測定によって上顎中切歯中心の変位程度が導出されてよい。
【0017】
また,前記機械学習アルゴリズムは,冠状面頭部イメージにおいて額と鼻との境界領域で最も低い部分である鼻根点(Nasion),及び口腔パノラマイメージ上で下顎中切歯中央点を検出し,前記鼻根点を通る垂直面であるNTVP(Nasion true vertical plane)と前記下顎中切歯中央点との距離の測定によって下顎中切歯中心の変位程度が導出されてよい。
【0018】
また,前記機械学習アルゴリズムは,冠状面頭部イメージにおいて額と鼻との境界領域で最も低い部分である鼻根点(Nasion),及び口腔パノラマイメージ上で右側犬歯下端点を検出し,前記鼻根点を通る水平面であるTHP(True horizontal plane)と前記右側犬歯下端点との垂直距離が導出されてよい。
【0019】
また,前記機械学習アルゴリズムは,冠状面頭部イメージにおいて額と鼻との境界領域で最も低い部分である鼻根点(Nasion),及び口腔パノラマイメージにおいて左側犬歯下端点を検出し,前記鼻根点を通る水平面であるTHP(True horizontal plane)と前記左側犬歯下端点との垂直距離が導出されてよい。
【0020】
また,前記機械学習アルゴリズムは,冠状面頭部イメージにおいて額と鼻との境界領域で最も低い部分である鼻根点(Nasion),及び口腔パノラマイメージ上で上顎右側第1大臼歯下端点を検出し,前記鼻根点を通る水平面であるTHP(True horizontal plane)と前記上顎右側第1大臼歯下端点との距離によって,THPから右側上顎第1大臼歯までの垂直距離が導出されてよい。
【0021】
また,前記機械学習アルゴリズムは,冠状面頭部イメージにおいて額と鼻との境界領域で最も低い部分である鼻根点(Nasion),及び口腔パノラマイメージ上で上顎左側第1大臼歯下端点を検出し,前記鼻根点を通る水平線であるTHP(True horizontal plane)と前記上顎左側第1大臼歯下端点との距離によって,THPから上顎左側第1大臼歯までの垂直距離が導出されてよい。
【0022】
また,前記機械学習アルゴリズムは,冠状面頭部イメージにおいて額と鼻との境界領域で最も低い部分である鼻根点(Nasion),及び前歯断面イメージ上で上顎前歯上端点及び上顎前歯下端点を検出し,前記鼻根点を通る水平面であるTHP(True horizontal plane)と前記上顎前歯上端点及び前記上顎前歯下端点との間を連結するベクトルの角度によって上顎中切歯の傾斜度が導出されてよい。
【0023】
また,前記機械学習アルゴリズムは,視床面頭部イメージにおいて下顎骨で最も低い地点であるメントン(Menton)と下顎骨で最大曲率地点であるゴニオン(顎角点;Gonion),及び前歯断面イメージにおいて下顎前歯上端点と下顎前歯下端点を検出し,前記メントンと前記ゴニオンとを連結するMeGo線と,前記下顎前歯上端点と前記下顎前歯下端点とを連結するベクトルとの角度によって下顎中切歯の傾斜度が導出されてよい。
【0024】
また,前記機械学習アルゴリズムは,視床面頭部イメージにおいて,額と鼻との境界領域で最も低い部分である鼻根点(Nasion),下顎骨で最も低い地点であるメントン(Menton),及び下顎骨で最大曲率地点であるゴニオン(Gonion)を検出し,前記鼻根点を通る水平面であるTHP(True horizontal plane)と,前記メントンと前記ゴニオンとを連結するMeGo線との角度によってTHPに対する下顎骨の垂直傾斜度が導出されてよい。
【0025】
本発明は,前記導出された13個のパラメータに対応して被検者の顔面部形状又は咬合状態を診断する段階をさらに含んでよい。
【0026】
ここで,前記導出された13個のパラメータに対応して被検者の咬合状態を診断する場合に,上顎骨と下顎骨との前後咬合状態が比較的正常範疇である状態,上顎骨が下顎骨に比べてより突出した状態,及び下顎骨が上顎骨に比べてより突出した状態をそれぞれ分類して診断できる。
【0027】
また,前記導出された13個のパラメータに対応して被検者の顔面部形状を診断する場合に,顔面部の長さが正常範疇である状態,顔面部の長さが正常範疇に比べて短い状態,及び顔面部の長さが正常範疇に比べて長い状態をそれぞれ分類して診断できる。
【0028】
なお,本発明は,歯列矯正診断のための頭部計測パラメータ導出方法の診断用頭部計測イメージを取得する段階で抽出された頭部診断用頭部計測イメージを入力データにして,前記複数個の診断点を出力データとして検出する段階,及び前記検出された複数個の診断点間の距離又は角度に対応する13個のパラメータを導出する段階が自動で行われるようにプログラミングされ,コンピューティング機器又はコンピューティング可能なクラウドサーバーに設置されることを特徴とする歯列矯正診断のためのパラメータ導出プログラムを提供することができる。
【発明の効果】
【0029】
本発明に係る機械学習ベース歯列矯正診断のための頭部計測パラメータ導出方法によれば,機械学習アルゴリズムを適用して自然頭部位置(Natural head position)でコーンビームコンピュータ断層撮影(CBCT)された映像データから被検者に対して視床面(sagittal plane)及び冠状面(coronal plane)方向への頭部イメージ,前歯断面イメージ,及び口腔パノラマイメージを含む複数個の診断用頭部計測イメージを抽出し,前記イメージからパラメータを抽出するためにあらかじめ決定された計測点位置を自動で検出することにより,歯列矯正診断作業が約数十秒以内のレベルで非常に迅速に処理され得る。
【0030】
本発明に係る機械学習ベース歯列矯正診断のための頭部計測パラメータ導出方法によれば,自然頭部位置(Natural head position)で撮影されたコーンビームコンピュータ断層撮影(CBCT)頭部計測イメージ上に検出された計測点に基づいて視床面での前後骨格関係及び歯の突出程度を円滑に把握するために従来に比べて減少した13個の診断パラメータを選定及び導出することにより,前記計測点検出のための機械学習アルゴリズムが単純化し,歯列矯正診断の所要時間が短縮し得る。
【0031】
なお,本発明に係る機械学習ベース歯列矯正診断のための頭部計測パラメータ導出方法によれば,機械学習アルゴリズムを用いた診断用頭部計測イメージ抽出及び前記イメージ上での計測点検出により,13個のパラメータを導出して被検者の顔面部形状又は咬合状態を自動診断する機能だけでなく,前記導出されたパラメータに対応して被検者のためのカスタマイズ型歯科矯正装置を自動で設計するなど,応用範囲がさらに拡大し得る。
【図面の簡単な説明】
【0032】
図1】本発明に係る機械学習ベース歯列矯正診断のための頭部計測パラメータ導出方法を示すフローチャートである。
図2】本発明に係る機械学習ベース歯列矯正診断のための頭部計測パラメータ導出方法において被検者に対する診断用頭部計測イメージを取得する過程を示す図である。
図3】診断用頭部計測イメージ上で複数個の計測点の位置を示す図である。
図4】機械学習アルゴリズムを用いて視床面頭部イメージにおいて複数個の計測点を検出する過程を示す図である。
図5】機械学習アルゴリズムを用いて冠状面頭部イメージにおいて複数個の計測点を検出する過程を示す図である。
図6】機械学習アルゴリズムを用いて口腔パノラマイメージにおいて複数個の計測点を検出する過程を示す図である。
図7】機械学習アルゴリズムを用いて口腔パノラマイメージにおいて複数個の計測点を検出する過程を示す図である。
図8】機械学習アルゴリズムを用いて口腔パノラマイメージにおいて複数個の計測点を検出する過程を示す図である。
図9】機械学習アルゴリズムを用いて口腔パノラマイメージにおいて複数個の計測点を検出する過程を示す図である。
図10】機械学習アルゴリズムを用いて口腔パノラマイメージにおいて複数個の計測点を検出する過程を示す図である。
図11】本発明に係る機械学習ベース歯列矯正診断のための頭部計測パラメータ導出方法が適用されたグラフィックユーザーインタフェース(GUI)画面を示す図である。
図12】本発明に係る機械学習ベース歯列矯正診断のための頭部計測パラメータ導出方法が適用されたグラフィックユーザーインタフェース(GUI)画面を示す図である。
【発明を実施するための形態】
【0033】
以下,添付の図面を参照して,本発明の好ましい実施例を詳細に説明する。ただし,本発明は,ここで説明された実施例に限定されず,他の形態で具体化されてもよい。むしろ,ここで紹介される実施例は,開示された内容が徹底且つ完全となり得るように,そして当業者に発明の思想が十分に伝達され得るようにするために提供されるものである。明細書全体を通じて同一の参照番号は同一の構成要素を示す。
【0034】
図1は,本発明に係る機械学習ベース歯列矯正診断のための頭部計測パラメータ導出方法を示すフローチャートである。
【0035】
図1に示すように,本発明に係る機械学習ベース頭部計測パラメータ導出方法は,被検者の頭部を自然頭部位置(Natural head position)に位置させた状態で歯科用コーンビームコンピュータ断層撮影装置(Cone-Beam Computed Tomograph;CBCT)で撮影したCBCT映像データから,被検者に対してそれぞれ視床面(Sagittal plane)及び冠状面(Coronal plane)方向への頭部イメージ,垂直方向への頭部イメージ,口腔パノラマイメージ,及び前歯断面イメージを含む診断用頭部計測イメージを取得する段階(S100),機械学習アルゴリズムに基づいて前記診断用頭部計測イメージ上で歯列矯正診断のための13個のパラメータを導出するために複数個の計測点を検出する段階(S200),前記検出された複数個の計測点間の距離又は角度に対応する13個のパラメータを導出する段階(S300)を含んで構成される。
【0036】
また,本発明に係る機械学習ベース頭部計測パラメータ導出方法は,前記導出された13個のパラメータに対応して被検者の顔面部形状又は咬合状態を診断する段階(S400)をさらに含んでよい。
【0037】
図2は,本発明に係る機械学習ベース頭部計測パラメータ導出方法において被検者に対する診断用頭部計測イメージを取得する過程を示す図である。
【0038】
図2に示すように,前記診断用頭部計測イメージを取得する段階(S100)においてコーンビームコンピュータ断層撮影装置で撮影して取得したCBCT映像データ10から,それぞれ,被検者に対して左右に分割する視床面(Sagittal plane)方向頭部イメージ20,被検者に対して前方と後方に分割する冠状面方向(Coronal plane)頭部イメージ30,口腔パノラマイメージ40,及び前歯断面イメージ50を含む複数個の診断用頭部計測イメージをそれぞれ取得できる。
【0039】
前記診断用頭部計測イメージを取得する段階(S100)において歯科用コーンビームコンピュータ断層撮影装置(CBCT)を用いて被検者に対する全領域での3次元頭部医療映像データを取得できる。前記CBCT映像データ10は,機械学習アルゴリズムによって前記医療用デジタル映像及び通信標準(Digital Imaging and Communications in Medicine,DICOM)規格を満たすことができ,前記CBCT映像データは,機械学習アルゴリズムに入力されたイメージ抽出機能又は一般的なダイコムビューア(DICOM Viewer)のイメージ抽出機能によって診断用頭部計測イメージを取得できる。
【0040】
ここで,前記CBCT映像データ10は,視床面頭部イメージ20,冠状面頭部イメージ30,口腔パノラマイメージ40,及び前歯断面イメージ50を含む診断用頭部計測イメージとして抽出されてよく,このうち,視床面頭部イメージ20及び冠状面頭部イメージ30はそれぞれ,頭蓋骨骨組織内部を投射し,それを示すモードである視床面骨モードイメージ20a及び冠状面骨モードイメージ30aに分類して抽出でき,また,被検者頭蓋骨骨組織の深さ又は密度などを考慮して外部の形態を示し得るモードである視床面深さモードイメージ20b及び冠状面深さモードイメージ30bに分類して頭部計測イメージを抽出することができる。
【0041】
その後,前記複数個の計測点を検出する段階(S200)において機械学習アルゴリズムを用いて前記診断用頭部計測イメージ上に歯列矯正診断のためのパラメータを導出するための複数個の計測点が自動で検出されてよい。従来は歯科専門医などの熟練者が前記診断用頭部計測イメージ上に計測点を手動で指定したが,このような方法は,作業者の熟練度によって正確度に偏差が発生し,計測点検出時間が約30分~1時間と長くかかるため,診療効率が低下する問題があった。
【0042】
一方,本発明では,顔面プロファイル自動分析モデルとR-CNN(Region based Convolutional Neural Network)などを含む機械学習アルゴリズムを用いて,前記診断用頭部計測イメージにおいてあらかじめ決定された複数個の計測点を自動で感知できる。結果的に,前記13個のパラメータを導出する段階(S300)において,複数個の計測点間に定義された距離又は角度に対応するように選択された13個のパラメータを導出し,前記導出された13個のパラメータを用いて被検者の顔面状態又は口腔状態を感知し,被検者に対する歯列矯正診断を行うことができる。
【0043】
従来は,歯列矯正診断パラメータを導出するために,前記診断用頭部計測イメージから約50個を超える多数の頭部計測計測点を検出しなければならなかったが,本発明では,被検者の視床前後の骨格関係,咬合状態,及び歯突出程度などを効率的に診断するために13個のパラメータを厳選することにより,それを導出するための検出すべき計測点個数を画期的に減少させ,これにより,それを具現するための機械学習アルゴリズムが簡素化し,矯正診断の所要時間が短縮し得る。
【0044】
本発明者らは,歯列矯正診断の目的で,頭部計測分析方法において既存に広く行われていたWits分析法,Rickett分析法,又はMcNamara分析法などを用いる代わりに,自然頭部位置(Natural head position)で撮影された映像において,一般的に鼻柱が始まる部分である鼻根点(Nasion,N点)を通る垂直面であるNTVP(Nasion True vertical plane)又は前記鼻根点を通る水平面であるTHP(True horizontal plane)を活用して,計測点個数を既存に比べて画期的に減少させながらも被検者の前後顎の関係を容易に診断できる方法を考案し,これを機械学習アルゴリズムに適用することにより,複数個の計測点検出過程を迅速で効率的に行うことができる。
【0045】
図3は,視床面頭部イメージ20,冠状面頭部イメージ30,口腔パノラマイメージ40,及び前歯断面イメージ50から13個のパラメータを導出するための複数個の計測点の位置を示す図である。
【0046】
図3に示すように,計測点検出段階(S200)において,機械学習アルゴリズムに基づいて診断用頭部計測イメージ取得段階(S100)で取得された視床面頭部イメージ20,冠状面頭部イメージ30,及び口腔パノラマイメージ40から,前記13個のパラメータを導出するためにあらかじめ決定された計測点が,機械学習アルゴリズム及び映像分析処理技術によって自動で検出されてよい。
【0047】
ここで,前記13個のパラメータは,被検者に対して歯列矯正診断のための情報を提供するために,上顎骨の突出度,下顎骨の突出度,顎先の突出度,下顎骨中心の変位程度,上顎中切歯中心の変位程度,下顎中切歯中心の変位程度,額と鼻との境界領域で最も低い部分である鼻根点(Nasion)を通る水平面(THP;True horizontal plane)から右側犬歯下端点までの垂直距離,前記THPから左側犬歯下端点までの垂直距離,前記THPから右側上顎第1大臼歯までの垂直距離,前記THPから左側上顎第1大臼歯までの垂直距離,上顎中切歯傾斜度,下顎中切歯傾斜度,及び前記THPに対する下顎骨の垂直傾斜度が導出されてよい。
【0048】
このために,前記13個のパラメータは,下表1に示すように,診断用頭部計測イメージから検出された複数個の計測点間の距離又は角度に対応する計測点キーポイント(keypoint)によって定義されてよい。
【0049】
【表1】
【0050】
図3及び表1を参照して,それぞれの診断用頭部計測イメージから検出される複数個の計測点,前記複数個の計測点間の距離又は角度に対応する計測点キーポイント,及びこれらから導出される13個のパラメータについて説明する。
【0051】
機械学習アルゴリズムは,視床面頭部イメージ20において,額と鼻との境界領域で最も低い部分である鼻根点(Nasion,N),上顎骨にある前鼻棘(Anterior nasal spine),及び上顎前歯歯槽点(Prosthion)を連結した線において最も低い部分であるA点(A point,A)を検出し,前記鼻根点(N)を通る垂直面であるNTVP(Nasion true vertical plane)と前記A点(A)との間を,前記視床面頭部イメージ20においてX軸方向への距離測定によって,前記13個のパラメータのうち一つである上顎骨の突出度が導出され,被検者の上顎骨と下顎骨との前後関係を診断できる。
【0052】
また,機械学習アルゴリズムは,視床面頭部イメージ20から,額と鼻との境界領域で最も低い部分である鼻根点(Nasion,N),下顎前歯の歯槽点(Infradentale),及び顎先(Pog)を連結した線において最も深い部分であるB点(B point,B)を検出し,前記鼻根点(N)を通る垂直面であるNTVP(Nasion true vertical plane)と前記B点(B)との間を前記視床面頭部イメージ20からX軸方向への距離測定によって前記13個のパラメータのうち一つである上顎骨の突出度が導出され,被検者の上顎骨と下顎骨との前後関係を診断できる。
【0053】
また,機械学習アルゴリズムは,視床面頭部イメージ20から,額と鼻との境界領域で最も低い部分である鼻根点(Nasion,N),下顎骨から最も前方に出たポゴニオン(Pogonion)を検出し,前記鼻根点(N)を通る垂直面であるNTVP(Nasion true vertical plane)と前記ポゴニオン(Pog)との間を前記視床面頭部イメージ20においてX軸方向への距離測定によって前記13個のパラメータのうち一つである顎先の突出度が導出され,被検者の上顎骨と下顎骨との前後関係を診断できる。
【0054】
また,機械学習アルゴリズムは,冠状面頭部イメージ30から,額と鼻との境界領域で最も低い部分である鼻根点(Nasion,N),下顎骨で最も低い地点であるメントン(Menton,Me)を検出し,前記鼻根点(N)を通る垂直面であるNTVP(Nasion true vertical plane)と前記メントン(Me)との間を前記冠状面頭部イメージ30においてY軸方向への距離測定によって前記13個のパラメータのうち一つである下顎骨中心の変位程度が導出され,被検者の上顎骨と下顎骨との左右咬合関係を診断できる。
【0055】
また,機械学習アルゴリズムは,冠状面頭部イメージ30から抽出した額と鼻との境界領域で最も低い部分である鼻根点(Nasion,N),及び口腔パノラマイメージ40から上顎中切歯中心(UDM)を通る垂直線を検出し,前記鼻根点(N)を通る垂直面であるNTVP(Nasion true vertical plane)と前記上顎中切歯中心(UDM)を通る垂直線との間を前記冠状面頭部イメージにおいてY軸方向への距離測定によって前記13個のパラメータのうち一つである上顎中切歯中心の変位程度が導出され,被検者の上顎骨と下顎骨との左右咬合関係を診断できる。
【0056】
また,機械学習アルゴリズムは,冠状面頭部イメージ30から抽出した額と鼻との境界領域で最も低い部分である鼻根点(N),及び口腔パノラマイメージ40から下顎中切歯中心(LDM)を通る垂直線を検出し,前記鼻根点(N)を通る垂直面であるNTVP(Nasion true vertical plane)と前記下顎中切歯中心(LDM)を通る垂直線との間を前記冠状面頭部イメージにおいてY軸方向への距離測定によって前記13個のパラメータのうち一つである下顎中切歯中心の変位程度が導出され,被検者の上顎骨と下顎骨との左右咬合関係を診断できる。
【0057】
また,機械学習アルゴリズムは,冠状面頭部イメージ30から抽出した額と鼻との境界領域で最も低い部分である鼻根点(N),及び口腔パノラマイメージ40から上顎右側犬歯下端点(Ct(Rt))を検出し,前記鼻根点(Nasion)を通る水平面であるTHP(True horizontal plane)と前記上顎右側犬歯下端点(Ct(Rt))との間の垂直距離が,前記13個のパラメータのうち一つとして導出され,水平面と上顎右側犬歯との間の距離を確認することができる。
【0058】
また,機械学習アルゴリズムは,冠状面頭部イメージ30から抽出した額と鼻との境界領域で最も低い部分である鼻根点(N),及び口腔パノラマイメージ40から左側犬歯下端点(Ct(Lt))を検出し,前記鼻根点を通る水平面であるTHP(True horizontal plane)と前記左側犬歯下端点(Ct(Lt))との間の前記冠状面頭部イメージ30におけるZ軸方向への垂直距離が,前記13個のパラメータのうち一つとして導出され,水平面と上顎左側犬歯との間の距離を確認することができる。
【0059】
結果的に,水平面から測定された上顎右側犬歯と左側犬歯の距離が互いに一致すべきであるが,もし差があれば,犬歯部において上顎骨の傾斜を確認することができる。
【0060】
また,機械学習アルゴリズムは,冠状面頭部イメージ30から抽出した額と鼻との境界領域で最も低い部分である鼻根点(Nasion),及び口腔パノラマイメージ40から上顎右側第1大臼歯(U6MB(Rt))を検出し,前記鼻根点を通る水平面であるTHP(True horizontal plane)と前記上顎右側第1大臼歯(U6MB(Rt))との間の垂直距離が前記13個のパラメータのうち一つとして導出され,水平面と上顎右側第1大臼歯との間の距離を確認することができる。
【0061】
また,学習アルゴリズムは,冠状面頭部イメージ30から抽出した額と鼻との境界領域で最も低い部分である鼻根点(N),及び口腔パノラマイメージ40から上顎左側第1大臼歯(U6MB(Lt))を検出し,前記鼻根点を通る水平面であるTHP(True horizontal plane)と前記上顎左側第1大臼歯(U6MB(Lt))との間の垂直距離が前記13個のパラメータのうち一つとして導出され,水平面と上顎左側第1大臼歯との間の距離を確認することができる。
【0062】
結果的に,水平面から測定された上顎右側第1大臼歯と上顎左側第1大臼歯の距離が互いに一致すべきであるが,もし差があれば,臼歯部において上顎骨の傾斜を確認することができる。
【0063】
また,機械学習アルゴリズムは,視床面頭部イメージ30から抽出した額と鼻との境界領域で最も低い部分である鼻根点(N),及び前歯断面イメージ50上で上顎前歯上端点(T1)上顎前歯下端点(T2)を検出し,前記鼻根点(Nasion)を通る水平面であるTHP(True horizontal plane)と前記上顎前歯上端点(T1)及び前記上顎前歯下端点(T2)間を連結するベクトルとの角度によって,上顎中切歯の傾斜度が前記13個のパラメータのうち一つとして導出され,被検者の咬合状態を診断できる。
【0064】
また,機械学習アルゴリズムは,視床面頭部イメージ30から,下顎骨において最も低い地点であるメントン(Me)と下顎骨において最大曲率地点であるゴニオン(Go),及び前歯断面イメージ50からそれぞれ下顎前歯上端点(T3)と下顎前歯下端点(T4)を検出し,前記メントン(Me)及び前記ゴニオン(Go)間を連結するMeGo線と,前記下顎前歯上端点(T3)及び前記下顎前歯下端点(T4)間を連結するベクトルとの角度によって,下顎中切歯の傾斜度が前記13個のパラメータのうち一つとして導出され,被検者の咬合状態を診断できる。
【0065】
また,機械学習アルゴリズムは,視床面頭部イメージ20から,額と鼻との境界領域で最も低い部分である鼻根点(N),下顎骨において最も低い地点であるメントン(Me),及び下顎骨において最大曲率地点であるゴニオン(Go)を検出し,前記鼻根点(N)を通る水平面であるTHP(True horizontal plane)と,前記メントン(Me)及び前記ゴニオン(Go)間を連結するMeGo線との角度によって,水平基準面(THP)に対する下顎骨の垂直傾斜度が前記13個のパラメータのうち一つとして導出され,被検者の垂直的顎骨関係を診断できる。
【0066】
図4は,機械学習アルゴリズムを用いて視床面頭部イメージにおいてパラメータ導出のための複数個の計測点を検出する過程を示す図である。
【0067】
図4(a)に示すように,機械学習アルゴリズムは,複数個の計測点を検出するために,被検者視床面頭部イメージ20を4個の関心領域(Region of Interest;ROI)に分割できる。ここで,前記視床面頭部イメージ20は,前頭部から2つの鼻骨が出会う最も下に位置する鼻孔点までの間に備えられる第1領域21,前記鼻孔点から上顎歯までの間に備えられる第2領域23,前記上顎歯から下顎骨の顎先点(Menton,Me)までの間に備えられる第3領域25,及び前記下顎骨の顎先点から顎関節骨(Articulare,Ar)までの間に備えられる第4領域29に分割し,それぞれの4個の関心領域でパラメータ導出のための複数個の計測点を検出できる。
【0068】
そのために,機械学習アルゴリズムは,視床面頭部イメージ20をそれぞれの4個関心領域に分割するために,被検者顔面部前方に沿って赤色線で表示され,前記第1領域21,前記第2領域23及び前記第3領域25で構成される顔面部プロファイル領域27,及び被検者下顎骨領域に沿って緑色線で表示され,前記第4領域25で構成される顎プロファイル領域を分割して抽出できる。前記視床面頭部イメージ20から,顔面部プロファイル領域27と第4領域29で構成される顎プロファイル領域の抽出のために,前記視床面頭部イメージ20は,y軸方向にそれぞれ水平又は垂直である複数個の単位ピクセルに分割されてよい。
【0069】
図4(a)に示すように,視床面頭部イメージ20上で被検者顔面部プロファイル領域27を抽出する過程は,視床面頭部イメージ20内の任意の地点で深さ程度及び頭蓋骨境界としての特性観点から,他の隣接するピクセルとの類似性に基づいて顔面部プロファイル領域抽出過程が行われてよい。具体的には,前記視床面頭部イメージ20上で0でないと共に最大のx軸値を有する単位ピクセルの座標値D(xi,i)は,前の行(i-1)で位置した単位ピクセルと比較して,次式を満たす場合に,顔面部プロファイル領域27に存在すると見なされてよい。
【0070】
【数1】
ここで,nは,前記視床面頭部イメージにおいてy軸方向に分割されたピクセルの個数である。
【0071】
次に,前記視床面頭部イメージ20から取得された顔面部プロファイル領域27に基づいて,第4領域29を含む顎プロファイル領域を抽出するために,メントン(Me)が開始点として指定され,図4(b)に示すように,前記視床面頭部イメージにおいて第4領域29で構成される顎プロファイル領域を複数個の関心領域29sに分割した後,前記複数個の関心領域29sのそれぞれにおける平均深さ程度を計算し,前記深さ程度が急に変化する関心領域での深さ程度と頭蓋骨の垂直面との間の実際距離を測定することによって顎関節骨(Ar)を検出できる。
【0072】
図3及び図4を参照して,前記機械学習アルゴリズムは,視床面方向頭部イメージ20を構成する第1領域21でx軸方向に沿って最も低い位置にある地点を鼻根点(N)として検出でき,前記検出された鼻根点(N)を通過しながらz軸方向に沿って延長される垂直面をNTVP(Nasion true vertical plane)と認識し,前記鼻根点(N)を通過しながらy軸方向に沿って延長される水平線をTHP(True horizontal plane)と認識することによってパラメータを導出することができる。
【0073】
また,前記機械学習アルゴリズムは,視床面頭部イメージ20を構成する第2領域23で上顎前歯部のうち最も低い部分である地点をA点(A)として検出できる。一方,機械学習アルゴリズムが,視床面頭部イメージを構成する第2領域23内の上顎前歯部の形状を認識し難い場合に,上顎前歯部の上部に備えられて歯の前方に突出する前鼻隆起点(アカンチオン:acanthion)と上顎前歯部との間の境界領域を緩やかにつなぐことによって上顎前歯部の形状を補完できる。その後,機械学習アルゴリズムは,顔面部プロファイル境界領域内のx軸方向に最も低い位置にある地点又は前記顔面部プロファイル境界領域内の勾配が最も小さい地点をA点として検出できる。
【0074】
また,前記機械学習アルゴリズムは,視床面頭部イメージ20を構成する第3領域25で下顎骨からx軸方向に最も低い地点であるB点(B),下顎骨から最もx軸方向に高い地点であるポゴニオン(Pog),及び下顎骨からy軸方向に最も低い地点であるメントン(Me)をそれぞれ検出できる。
【0075】
一方,被検者の下顎骨が下顎前歯部に比べて内側に入っていると,上記のような方法でB点(B)とポゴニオン(Pog)を円滑に検出できず,この場合,機械学習アルゴリズムは,視床面頭部イメージ20を構成する第3領域25で下顎骨において最も凹んだ地点と膨らんだ地点をそれぞれB点(B)及びポゴニオン(Pog)として検出できる。
【0076】
また,前記機械学習アルゴリズムは,視床面頭部イメージ20を構成する第4領域29で下顎骨の最大曲率地点であるゴニオン(Go)を検出できる。前記機械学習アルゴリズムは,そのために,メントン(Me)を通過しながら下顎骨の下部に接する接線と,関節骨を通過しながら下顎骨の左側部に接する接線との交差点を,ゴニオン(Go)として検出できる。
【0077】
図5は,機械学習アルゴリズムを用いて冠状面方向頭部イメージにおいて複数個の計測点を検出する過程を示す図である。
【0078】
図5に示すように,機械学習アルゴリズムは,複数個の計測点を検出するために,冠状面頭部イメージ30を,2個の関心領域(Region of Interest;ROI)を含めて分割できる。前記機械学習アルゴリズムは,冠状面頭部イメージ30を,顔面部において眼と2つの鼻骨が出会う最も下の地点である鼻孔点間に含まれる第5領域31及び下顎骨領域である第6領域33に分割し,それぞれ頭部計測計測点を検出することができる。
【0079】
一方,冠状面頭部イメージ30と視床面頭部イメージ20に検出されるそれぞれの鼻根点(N)は同じz軸位置座標を共有するので,前記冠状面頭部イメージ30でのy軸位置座標は,鼻根点(N)を検出する過程において主要要素として働き得る。前記冠状面頭部イメージ20において
から
(ここで,ZNは,N点のz軸位置座標で,nは自然数である。)の間に含まれる複数個の単位ピクセルから,鼻骨(鼻柱)領域での左側端座標値(Ti)及び右側端座標値(T’i)を検出することで,前記鼻根点(N)のy軸位置座標(yN)は,下記式2によって検出されてよい。
【0080】
【数2】
【0081】
前記冠状面頭部イメージ30から第6領域33を検出する過程において,機械学習アルゴリズムは,視床面頭部イメージ20から検出されたA点(A)のz軸位置座標(ZA)及びB点のz軸位置座標(ZB)の中央点のz軸位置座標
を通る垂直線と冠状面頭部イメージ30での左側下顎骨及び右側下顎骨とがそれぞれ出会う交差点(S1,S2)を検出し,前記検出された一対の交差点(S1,S2)の下部領域を,前記冠状面頭部イメージ30において第6領域33として指定できる。
【0082】
そして,前記冠状面頭部イメージ30の第6領域33からz軸方向に膨らんだ形状の領域を検出し,前記領域でx軸座標値が最大である地点をメントン(Me)として検出できる。
【0083】
図6図10は,機械学習アルゴリズムを用いて口腔パノラマイメージにおいて複数個の計測点を検出する過程を示す図である。
【0084】
図6は,機械学習アルゴリズムに基づいて口腔パノラマイメージ40においてR-CNN(Region based convolutional neural networks)機械学習モデルを適用して被検者の全体歯からそれぞれの個別歯領域41を感知する過程を示す図である。前記個別歯領域41は,隣接した領域と互いに区別されるように複数個の異なる色で示されてよい。
【0085】
図7は,前記感知された全体歯においてそれぞれの個別歯領域41ごとに歯の位置を示す歯計測点42を検出する過程を示す図である。ここで,前記歯計測点42は,Mask R-CNNモデルから検出された全体歯においてそれぞれの個別歯領域41内部の中央点として検出されてよい。
【0086】
図8は,前記検出された歯計測点42の位置を分析し,口腔パノラマイメージ40において被検者全体歯を上顎歯40a及び下顎歯40bに分類する過程を示す図である。
【0087】
前記分類のための統計的手法として,線形回帰分析(Linear regression method)方法によって,前記検出された複数個の歯計測点42の位置にそれぞれ対応する2次元位置座標を設定し,前記座標を通る二次関数43を生成することができる。図7で感知された歯計測点42の位置と前記二次関数43の相対的な位置を感知し,前記歯計測点42を上部歯計測点42aと下部歯計測点42bとに区分し,これにより,口腔パノラマイメージ40上に現れる全体歯を上顎歯40a又は下顎歯40bに分類できる。
【0088】
図9は,口腔パノラマイメージ40上で顔面部中央線44から水平距離によって上顎歯40a及び下顎歯40bのそれぞれから検出された歯計測点42までの距離計算によって,右側上顎歯40a1,左側上顎歯40a2,右側下顎歯40b1及び左側下顎歯40b2にそれぞれナンバリングする過程を示す図である。
【0089】
前記ナンバリング過程により,口腔パノラマイメージ40上に現れる被検者の全体歯は,前記顔面部中央線44から前記検出された計測点(42,図8参照)までの水平方向距離が短い順に,順次に番号が指定されてよい。
【0090】
また,前記ナンバリング過程により,前記顔面部中央線44から隣接した2つの歯のそれぞれから検出された歯計測点まで距離の異常偏差を感知し,欠損した歯40mを感知できる。図9の実施例において,機械学習アルゴリズムは,右側上顎歯40a1の第1大臼歯(6番歯)が欠損歯40mであることが確認できる。
【0091】
図10は,前記ナンバリングされた歯を分析して,口腔パノラマイメージ40上に現れた全体歯のうち,前歯,犬歯及び第1大臼歯を含む検出対象歯からパラメータを導出するための複数個の計測点を検出する過程を示す図である。
【0092】
図9を参照して,前記13個のパラメータ導出のために計測点の検出が要求される検出対象歯45は,口腔パノラマイメージ40上に現れる全体歯のうち,前記右側上顎歯40a1において前歯(1番歯),犬歯(3番歯),第1大臼歯(6番歯),前記左側上顎歯40a2において前歯(1番歯),犬歯(3番歯),第1大臼歯(6番歯),前記右側下顎歯40b1において前歯(1番歯),及び前記左側下顎歯40a2において前歯(1番歯)である。
【0093】
図10に示すように,機械学習アルゴリズムは,前述した前歯,犬歯及び第1大臼歯を含む複数個の検出対象歯45を含む関心領域(Region of Interest;ROI)の大きさを調整し,前記調整された検出対象歯に対する関心領域をCNNモデルにロードすることで,前記複数個の検出対象歯45のそれぞれから3個の歯計測点47を検出できる。
【0094】
ここで,前記複数個の検出対象歯45のそれぞれから検出される3個の歯計測点47は,歯を構成する歯冠のうち,エナメル質(tooth enamel)部位での左側歯計測点(P1),中央歯計測点(P2)及び右側歯計測点(P3)で構成される。結果的に,CNNモデルから学習された検出対象歯45から検出された3個の歯計測点のそれぞれに対する位置座標48に基づいて,それぞれの検出対象歯45でパラメータを導出するための複数個の計測点が口腔パノラマイメージ40上に検出されてよい。
【0095】
例えば,機械学習アルゴリズムは,パラメータを導出するための複数個の計測点を検出するために,図10に示す口腔パラメータイメージ40において上顎前歯と下顎前歯のそれぞれに検出された3個の計測点のうち,中央歯計測点(P2)の中央点を,上顎中切歯中央点(UDM)及び下顎中切歯中央点(LDM)と定義できる。
【0096】
一方,前記口腔パノラマイメージ40で感知された4個の前歯45からそれぞれ3個の歯計測点(P1,P2,P3)が検出され,前記4個の前歯45のそれぞれに検出された3個の歯計測点(P1,P2,P3)に基づいて,口腔パノラマイメージ40から前歯断面イメージ50が取得されてよい(図3参照)。図3を参照して,機械学習アルゴリズムは,CNNモデル分散処理を活用して,前記前歯断面イメージ50上で上顎前歯上端点(T1),上顎前歯下端点(T2),下顎前歯上端点(T3),及び下顎前歯下端点(T4)を精密に検出できる。
【0097】
機械学習アルゴリズムは,前記前歯断面イメージ上で検出された上顎前歯上端点(T1)及び上顎前歯下端点(T2)間を連結するベクトルと,N点を通る水平面(NTVP)との角度を測定し,前記下顎前歯上端点(T3)及び下顎前歯下端点(T4)間を連結するベクトルとMeGo線との角度を測定することにより,結果的に前歯部傾斜度を評価し,これを歯列矯正診断パラメータとして活用できる。
【0098】
前述したように,本発明に係る機械学習ベース歯列矯正頭部計測パラメータ導出方法は,前記13個のパラメータ導出段階(S300)で導出された13個のパラメータに対応して被検者の顔面部形状又は咬合状態を診断する段階(S400)をさらに含んでよい。
【0099】
ここで,前記13個のパラメータに対応して被検者の咬合状態を診断する場合に,機械学習アルゴリズムは,正常咬合と不正咬合を区別するために,内部保存された前記パラメータ基準値によって,上顎骨と下顎骨との前後関係が比較的正常な範疇である状態,上顎骨が下顎骨に比べてより突出した状態,及び下顎骨が上顎骨に比べてより突出した状態をそれぞれ分類して診断できる。
【0100】
また,前記導出された13個のパラメータに対応して被検者の顔面部形状を診断する場合に,機械学習アルゴリズムは,被検者の顔面部長さ程度を分析して矯正診断を行うために,内部保存された前記パラメータ基準値によって,顔面部長さが正常範疇である状態,顔面部の長さが正常範疇に比べて短い状態,及び顔面部の長さが正常範疇に比べて長い状態をそれぞれ分類して診断できる。
【0101】
図11は,本発明に係る機械学習ベース頭部計測パラメータ導出方法が適用されたグラフィックユーザーインタフェースの画面を示す図であり,図12は,図11に示した前記グラフィックユーザーインタフェースの画面において診断結果表示領域を拡大して示す図である。
【0102】
図11に示す機械学習ベース頭部計測パラメータ導出方法が適用されたグラフィックユーザーインタフェース(Graphic user interface;GUI)は,ディスプレイ媒介で前記機械学習ベース頭部計測パラメータ導出方法を構成するそれぞれの段階が実行される度に,前記それぞれの段階実行過程を示す複数個のイメージ又は入出力アイコンなどがディスプレイの画面に表示されてよい。
【0103】
例えば,機械学習ベース頭部計測パラメータ導出方法において,診断用頭部計測イメージが取得される段階(S100)が実行されると,頭部計測イメージ生成領域100を介して,被検者の顔面部を3Dコーンビームコンピュータ断層撮影(CBCT)した映像データ10,及び前記CBCT映像データ10から抽出した視床面頭部イメージ20,冠状面頭部イメージ30,口腔パノラマイメージ40,及び前歯断面イメージ50などを含む複数個の診断用頭部計測イメージがディスプレイ画面に表示されてよい。
【0104】
そして,機械学習ベース頭部計測パラメータ導出方法において,複数個の計測点を検出する段階(S200)が実行されると,計測点表示領域200から,本発明の機械学習アルゴリズムによってパラメータを導出するための計測点が自動で検出されるか,又は歯科専門医などの熟練者が前記ディスプレイ画面上で,手動により直接検出した計測点を表示できるようにするために,前記検出された計測点に対応する様々な記号,図形などのアイコンがディスプレイ画面に表示されてよい。
【0105】
図12に示すように,機械学習ベース頭部計測パラメータ導出方法において複数個の計測点を検出する段階(S200)が行われると,前記ユーザグラフィックインターフェース(GUI)装置を構成するプロセッサに入力された機械学習アルゴリズムによって13個のパラメータが導出される段階(S300)が行われた後,前記ディスプレイ画面に表示される診断結果表示領域300を介して,導出された13個のパラメータに関する情報310が表示されてよい。
【0106】
一方,本発明に係る機械学習ベース頭部計測パラメータ導出方法は,前記13個のパラメータ導出段階(S300)で導出された13個のパラメータに対応して被検者の顔面部形状又は咬合状態を診断する段階(S400)をさらに含んでよいことは,前述した通りである。
【0107】
そこで,機械学習ベース歯列矯正導出方法において被検者の顔面部形状又は咬合状態を診断する段階(S400)が実行されると,診断結果表示領域300を介して,13個のパラメータに対応して被検者の咬合状態又は顔面部形状に対して自動で診断した情報320がディスプレイ画面上に表示されてよい。
【0108】
例えば,被検者の上顎骨と下顎骨との前後咬合状態が比較的正常範疇の状態である場合に,前記診断情報は「Class I」,被検者の上顎骨が下顎骨に比べてより突出している状態を「Class II」,及び下顎骨が上顎骨に比べてより突出している状態を「Class III」などの字句で示すことができる。
【0109】
また,被検者顔面部の長さが正常範疇である状態を「Meso-cephalic facial pattern」,顔面部の長さが正常範疇に比べて短い状態を「Brachy-cephalic facial pattern」,及び顔面部の長さが正常範疇に比べて長い状態を「Dolicho-cephalic facial pattern」などの字句のように,被検者顔面部形状に関する情報320を前記ディスプレイ画面の診断結果表示領域300に表示することができる。
【0110】
このような頭部計測パラメータ導出方法は,頭部計測パラメータ導出プログラムにプログラム化され,ユーザコンピューティング機器又はコンピューティング可能なクラウドサーバーに設置又は保存されてよく,このようなプログラムは,前述した頭部計測パラメータ導出方法の診断用頭部計測イメージを取得する段階で抽出された頭部診断用頭部計測イメージを入力データにして,前記複数個の計測点を出力データとして検出する段階;及び,前記導出プログラムは,前記検出された複数個の計測点間の距離又は角度に対応する13個のパラメータを導出する段階が自動で行われるようにプログラミングされてよい。
【0111】
勿論,複数個の計測点を出力データとして検出する段階と,前記導出プログラムは前記検出された複数個の計測点間の距離又は角度に対応する13個のパラメータを導出する段階は,順次的又は段階的にユーザの選択によって行われるようにプログラミングされてもよい。
【0112】
このように,本発明に係る機械学習ベース頭部計測パラメータ導出方法は,被検者に対してCBCT撮影された映像データから,機械学習アルゴリズムを適用して特定角度で抽出された診断用頭部計測イメージを取得し,前記診断用頭部計測イメージから検出された複数個の計測点に対応して13個のパラメータを導出するための全体過程が数秒~数十秒で行われるので,歯列矯正診断のためのパラメータの導出が迅速で正確に一貫してなされ得る。
【0113】
また,本発明の機械学習ベース頭部計測パラメータ導出方法が,グラフィックユーザーインタフェースと結合する場合に,前記それぞれの段階で行われた結果をディスプレイ画面に表示することによって,被検者及び歯科専門医などの第3者が歯列矯正診断のための計測点,13個のパラメータの導出過程,及び診断結果を円滑に把握できる。
【0114】
なお,本発明に係る機械学習ベース頭部計測パラメータ導出方法は,被検者の顔面部形状又は咬合状態を自動診断してそれを表示する効果からさらに進んで,前記導出された13個のパラメータに対応して被検者のためのカスタマイズ型歯科矯正装置を自動で設計するなど,その応用範囲がより拡大する優れた期待効果を有する。
【0115】
本明細書は,本発明の好ましい実施例を参照して説明したが,当該技術の分野における当業者は,以下に述べる特許請求の範囲に記載された本発明の思想及び領域から逸脱しない範囲内で本発明を様々に修正及び変更して実施可能であろう。したがって,変形された実施が基本的に本発明の特許請求の範囲の構成要素を含む場合にはいずれも本発明の技術的範疇に含まれると見なすべきである。

図1
図2
図3
図4(a)】
図4(b)】
図5
図6
図7
図8
図9
図10
図11
図12
【国際調査報告】