(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024109182
(43)【公開日】2024-08-14
(54)【発明の名称】支援装置、支援方法、および支援プログラム
(51)【国際特許分類】
A61B 1/24 20060101AFI20240806BHJP
A61C 19/04 20060101ALI20240806BHJP
A61B 5/00 20060101ALI20240806BHJP
A61B 6/51 20240101ALI20240806BHJP
G16H 50/20 20180101ALI20240806BHJP
【FI】
A61B1/24
A61C19/04 Z
A61B5/00 101A
A61B6/14 310
G16H50/20
【審査請求】有
【請求項の数】18
【出願形態】OL
(21)【出願番号】P 2023013834
(22)【出願日】2023-02-01
(71)【出願人】
【識別番号】000138185
【氏名又は名称】株式会社モリタ製作所
(74)【代理人】
【識別番号】110001195
【氏名又は名称】弁理士法人深見特許事務所
(72)【発明者】
【氏名】吉川 英基
(72)【発明者】
【氏名】西村 悠
【テーマコード(参考)】
4C052
4C093
4C117
4C161
5L099
【Fターム(参考)】
4C052AA06
4C052LL07
4C052NN02
4C052NN03
4C052NN05
4C052NN15
4C093AA22
4C093CA18
4C093DA05
4C093FF16
4C093FF28
4C093FF36
4C093FF37
4C117XA01
4C117XB01
4C117XD08
4C117XE43
4C117XE44
4C117XG14
4C117XK19
4C117XR07
4C161AA08
4C161BB01
4C161BB08
4C161CC06
4C161JJ09
4C161NN05
4C161WW04
5L099AA04
5L099AA26
(57)【要約】
【課題】低侵襲かつ短時間で口腔内の生体組織における病態を診断することができる技術を提供する。
【解決手段】支援装置1は、生体組織の三次元形状を示す画像データが入力される入力インターフェース14と、入力インターフェース14から入力される画像データと、画像データに基づき生体組織における病態の診断を支援するための、少なくとも歯牙と歯肉との相対位置に関する情報を含む支援情報を導出するように機械学習により訓練された推定モデル50とを用いて、支援情報を導出する演算装置11とを備える。
【選択図】
図2
【特許請求の範囲】
【請求項1】
少なくとも歯牙および歯肉を含む口腔内の生体組織における病態の診断を支援する支援装置であって、
前記生体組織の三次元形状を示す画像データが入力される入力部と、
前記入力部から入力される前記画像データと、前記画像データに基づき前記生体組織における前記病態の診断を支援するための、少なくとも前記歯牙と前記歯肉との相対位置に関する情報を含む支援情報を導出するように機械学習により訓練された推定モデルとを用いて、前記支援情報を導出する演算部とを備える、支援装置。
【請求項2】
前記支援情報は、前記生体組織の所定の計測ポイントにおける所定の計測方向に沿って存在する前記生体組織の位置を示す複数のレベルの各々に対応する位置情報を含む、請求項1に記載の支援装置。
【請求項3】
前記支援情報は、前記生体組織の所定の計測ポイントにおける所定の計測方向に沿って存在する前記生体組織の位置を示す複数のレベルの間の距離を含む、請求項1に記載の支援装置。
【請求項4】
前記演算部は、
前記支援情報として、前記生体組織の所定の計測ポイントにおける所定の計測方向に沿って存在する前記生体組織の位置を示す複数のレベルの各々に対応する位置情報を導出し、
前記複数のレベルの各々に対応する前記位置情報に基づき、前記複数のレベルの間の距離を算出し、
前記複数のレベルの間の前記距離に基づき、前記病態の種類を示す情報、および前記病態の進行度合いを示す情報のうち、少なくとも1つを算出する、請求項1に記載の支援装置。
【請求項5】
前記支援情報は、前記病態の種類を示す情報、および前記病態の進行度合いを示す情報のうち、少なくとも1つを含む、請求項1に記載の支援装置。
【請求項6】
前記推定モデルは、前記画像データと前記画像データに関連付けられた前記支援情報とを含む教師データを用いて、前記機械学習により訓練されている、請求項1~請求項5のいずれか1項に記載の支援装置。
【請求項7】
前記所定の計測ポイントは、前記歯牙に含まれる歯冠部を上面から見た場合の前記歯牙の周囲に位置するポイントである、請求項2~請求項4のいずれか1項に記載の支援装置。
【請求項8】
前記所定の計測方向は、前記歯牙の歯軸に沿った方向である、請求項2~請求項4のいずれか1項に記載の支援装置。
【請求項9】
前記複数のレベルは、前記生体組織における、歯冠部の頂上、前記歯肉の辺縁、歯槽骨の頂上、前記歯牙と前記歯肉との境界、根尖部、根分岐部、前記歯牙のセメント質とエナメル質との境界、および前記根分岐部において欠損した前記歯槽骨の欠損部分の最深部のうち、いずれかの位置を示す、請求項2~請求項4のいずれか1項に記載の支援装置。
【請求項10】
前記演算部は、前記推定モデルを用いて、前記入力部から入力される前記画像データに加えて、前記所定の計測ポイントおよび前記所定の計測方向に基づき、前記生体組織の前記所定の計測ポイントにおける前記所定の計測方向に沿った部位の前記支援情報を導出する、請求項2~請求項4のいずれか1項に記載の支援装置。
【請求項11】
前記演算部は、前記推定モデルを用いて、前記入力部から入力される前記画像データに加えて、前記生体組織を有する患者の性別、年齢、および骨密度に関連する情報のうちの少なくとも1つに基づき、前記支援情報として前記病態の進行度合いを示す情報を導出する、請求項1に記載の支援装置。
【請求項12】
前記画像データは、前記生体組織の表面を示す点群の各点の位置情報を含む光学スキャナで撮影された光学スキャナデータと、前記生体組織をコンピュータ断層撮影することによって得られるCT(Computed Tomography)データとに基づき生成されている、請求項1~請求項5のいずれか1項に記載の支援装置。
【請求項13】
前記光学スキャナデータは、前記生体組織の表面の色を示す情報を含む、請求項12に記載の支援装置。
【請求項14】
前記演算部は、前記生体組織の指定された位置に重畳させて前記支援情報をディスプレイに表示させる、請求項1~請求項5のいずれか1項に記載の支援装置。
【請求項15】
前記演算部は、前記支援情報に応じた色で前記支援情報を前記ディスプレイに表示させる、請求項14に記載の支援装置。
【請求項16】
前記演算部は、前記支援情報に基づいて、前記支援情報の将来の変化を予測したシミュレーション情報を前記ディスプレイに表示させる、請求項14に記載の支援装置。
【請求項17】
コンピュータによって少なくとも歯牙および歯肉を含む口腔内の生体組織における病態の診断を支援する支援方法であって、
前記支援方法は、前記コンピュータが実行する処理として、
前記生体組織の三次元形状を示す画像データを取得するステップと、
前記取得するステップが取得する前記画像データと、前記画像データに基づき前記生体組織における前記病態の診断を支援するための、少なくとも前記歯牙と前記歯肉との相対位置に関する情報を含む支援情報を導出するように機械学習により訓練された推定モデルとを用いて、前記支援情報を導出するステップとを含む、支援方法。
【請求項18】
コンピュータによって少なくとも歯牙および歯肉を含む口腔内の生体組織における病態の診断を支援するための支援プログラムであって、
前記コンピュータに、
前記生体組織の三次元形状を示す画像データを取得するステップと、
前記取得するステップが取得する前記画像データと、前記画像データに基づき前記生体組織における前記病態の診断を支援するための、少なくとも前記歯牙と前記歯肉との相対位置に関する情報を含む支援情報を導出するように機械学習により訓練された推定モデルを用いて、前記支援情報を導出するステップとを実行させる、支援プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、少なくとも歯牙および歯肉を含む口腔内の生体組織における病態の診断を支援する支援装置、支援方法、および支援プログラムに関する。
【背景技術】
【0002】
歯周病は、歯周病原細菌によって引き起こされる感染性炎症性疾患である。歯周病は、歯肉、セメント質、歯根膜、および歯槽骨などで構成される歯周組織に起こる疾患と、壊死性歯周疾患と、歯周組織の膿瘍と、歯周-歯内病変と、歯肉の退縮(たとえば、歯肉が下がる)と、歯槽骨の退縮(たとえば、歯槽骨が下がる)と、強い咬合力、または異常な力によって引き起こされる咬合性外傷とを含む。歯周病が進行すると、歯肉の炎症、歯牙の動揺、または歯槽骨の退縮などが生じる。
【0003】
歯牙および歯肉などの口腔内の生体組織における病態を診断する方法としては、歯周ポケットの深さを測定する方法が知られている。たとえば、特許文献1には、歯科医師などの術者が、ハンドピースのプローブを歯周ポケットに挿入して歯周ポケットの深さを測定することで、歯牙および歯肉の状態を確認することが開示されている。
【先行技術文献】
【特許文献】
【0004】
【発明の概要】
【発明が解決しようとする課題】
【0005】
特許文献1に開示された歯周病の検査方法においては、歯周ポケットにプローブを挿入する必要があるため、患者の負担が大きく、かつ歯周ポケットの深さを測定する術者の技量によって、歯周病の検査結果が変わることがあり得る。病原菌が存在する歯周ポケットにプローブを出し入れするため、症状が軽いまたは症状がない状態の歯牙にプローブを介して病原菌が侵入すると、当該歯牙が歯周病に感染するリスクがある。また、歯周ポケットの深さを測定する際に患者に痛みまたは出血が伴うことがあり、出血を伴う場合は、血中に病原菌が入り込む可能性もある。さらに、各歯牙について複数の箇所で歯周ポケットの深さを測定する場合は、測定時間が長くなる可能性もある。
【0006】
本開示は、このような問題を解決するためになされたものであり、低侵襲かつ短時間で口腔内の生体組織における病態を診断することができる技術を提供することを目的とする。
【課題を解決するための手段】
【0007】
本開示の一例に従えば、少なくとも歯牙および歯肉を含む口腔内の生体組織における病態の診断を支援する支援装置が提供される。支援装置は、生体組織の三次元形状を示す画像データが入力される入力部と、入力部から入力される画像データと、画像データに基づき生体組織における病態の診断を支援するための、少なくとも歯牙と歯肉との相対位置に関する情報を含む支援情報を導出するように機械学習により訓練された推定モデルとを用いて、支援情報を導出する演算部とを備える。
【0008】
本開示の一例に従えば、コンピュータによって少なくとも歯牙および歯肉を含む口腔内の生体組織における病態の診断を支援する支援方法が提供される。支援方法は、コンピュータが実行する処理として、生体組織の三次元形状を示す画像データを取得するステップと、取得するステップが取得する画像データと、画像データに基づき生体組織における病態の診断を支援するための、少なくとも歯牙と歯肉との相対位置に関する情報を含む支援情報を導出するように機械学習により訓練された推定モデルとを用いて、支援情報を導出するステップとを含む。
【0009】
本開示の一例に従えば、コンピュータによって少なくとも歯牙および歯肉を含む口腔内の生体組織における病態の診断を支援するための支援プログラムが提供される。支援プログラムは、コンピュータに、生体組織の三次元形状を示す画像データを取得するステップと、取得するステップが取得する画像データと、画像データに基づき生体組織における病態の診断を支援するための、少なくとも歯牙と歯肉との相対位置に関する情報を含む支援情報を導出するように機械学習により訓練された推定モデルを用いて、支援情報を導出するステップとを実行させる。
【発明の効果】
【0010】
本開示によれば、推定モデルを用いて、少なくとも歯牙および歯肉を含む口腔内の生体組織の三次元形状を示す画像データに基づき、生体組織における病態の診断を支援するための支援情報を導出することができるため、低侵襲かつ短時間で口腔内の生体組織における病態を診断することができる。
【図面の簡単な説明】
【0011】
【
図1】実施の形態1に係る支援装置の適用例を示す図である。
【
図2】実施の形態1に係る支援装置のハードウェア構成を示すブロック図である。
【
図3】実施の形態1に係る支援装置において推定されるパラメータを説明するための図である。
【
図4】実施の形態1に係る支援装置において推定されるパラメータを説明するための図である。
【
図5】CTデータおよびIOSデータの各々における検出対象を説明するための図である。
【
図6】実施の形態1に係る推定モデルの学習フェーズにおける機械学習の一例を説明するための図である。
【
図7】実施の形態1に係る推定モデルの活用フェーズにおける支援情報の推定の一例を説明するための図である。
【
図8】実施の形態1に係る支援装置が実行する支援処理の一例を説明するためのフローチャートである。
【
図9】実施の形態1に係る支援装置による支援情報の第1の表示例を説明するための図である。
【
図10】実施の形態1に係る支援装置による支援情報の第2の表示例を説明するための図である。
【
図11】実施の形態1に係る支援装置による支援情報の第3の表示例を説明するための図である。
【
図12】実施の形態1に係る支援装置による支援情報の第4の表示例を説明するための図である。
【
図13】実施の形態1に係る支援装置による支援情報の第5の表示例を説明するための図である。
【
図14】第1の変形例に係る推定モデルの学習フェーズにおける機械学習の一例を説明するための図である。
【
図15】第1の変形例に係る推定モデルの活用フェーズにおける支援情報の推定の一例を説明するための図である。
【
図16】第2の変形例に係る推定モデルの学習フェーズにおける機械学習の一例を説明するための図である。
【
図17】第2の変形例に係る推定モデルの活用フェーズにおける支援情報の推定の一例を説明するための図である。
【
図18】第3の変形例に係る推定モデルの学習フェーズにおける機械学習の一例を説明するための図である。
【
図19】第3の変形例に係る推定モデルの活用フェーズにおける支援情報の推定の一例を説明するための図である。
【
図20】実施の形態2に係る推定モデルの学習フェーズにおける機械学習の一例を説明するための図である。
【
図21】実施の形態2に係る推定モデルの活用フェーズにおける支援情報の推定の一例を説明するための図である。
【
図22】実施の形態2に係る支援装置による支援情報の出力の一例を説明するための図である。
【
図23】実施の形態3に係る支援装置において推定されるパラメータを説明するための図である。
【
図24】実施の形態3に係る支援装置において推定されるパラメータを説明するための図である。
【発明を実施するための形態】
【0012】
<実施の形態1>
本開示の実施の形態1について、図面を参照しながら詳細に説明する。なお、図中の同一または相当部分については、同一符号を付してその説明は繰り返さない。
【0013】
[適用例]
図1を参照しながら、実施の形態1に係る支援装置1の適用例を説明する。
図1は、実施の形態1に係る支援装置1の適用例を示す図である。
【0014】
歯周病の検査において最も利用されている方法としては、歯周ポケットの深さを測定する方法が挙げられる。具体的には、歯科医師などの術者は、歯牙の周囲に設定された少なくとも1つの計測ポイントに存在する歯周ポケットに機械的または電気的なプローブを挿入して、歯肉辺縁から歯肉が歯牙に正常に付着している部分である歯肉境界(歯周ポケットの底部)までの深さを測定することで、歯周ポケットの深さを計測することができる。計測ポイントの数は、4点または6点など、1つの歯牙に対して任意の数を設定可能である。
図1の例では、1つの歯牙に対して、6点の計測ポイントが設定されている。
【0015】
また、歯周ポケットの深さを測定する方法以外に利用されている歯周病の検査方法としては、口腔内を撮影することで得られるX線画像を用いた方法が挙げられる。この方法は、口腔内のX線画像に基づき、歯冠頂と歯槽骨頂との間の距離、および歯槽骨頂と根尖部との間の距離を測定し、これらの比(以下、「歯冠歯根比」とも称する。)を算出することで、歯槽骨の減退の度合いを測定することを含む。
【0016】
上述したように、術者は、歯周ポケットの測定、およびX線画像を用いることによって、歯周病の検査を行うことができる。しかしながら、これらの検査方法は、患者に掛かる負担、術者の技量による検査精度のばらつき、および検査時間の長期化などの観点から、歯周病の検査として好ましくない場合がある。
【0017】
たとえば、歯周ポケットの測定による歯周病の検査方法においては、歯周ポケットにプローブを挿入する必要があるため、患者の負担が大きい。また、歯周ポケットの深さを測定する術者の技量によって、歯周病の検査結果が変わることがあり、複数ある歯周病の診断のパラメータを術者が経験に基づいて診断して歯周病の進行予測を立てることは豊富な経験および時間を要する。病原菌が存在する歯周ポケットにプローブを出し入れするため、症状が軽いまたは症状がない状態の歯牙にプローブを介して病原菌が侵入すると、当該歯牙が歯周病に感染するリスクがある。また、歯周ポケットの深さを測定する際に患者に痛みまたは出血が伴うことがあり、出血を伴う場合は、血中に病原菌が入り込む可能性もある。さらに、各歯牙について複数の箇所で歯周ポケットの深さを測定する場合は、測定時間が長くなる可能性もある。
【0018】
X線画像を用いた歯周病の検査方法においては、口内法X線撮影またはパノラマ撮影が行われるが、X線の入射方向から見た場合の歯牙の状態しか観察することができず、またX線が入射する方向に重畳された像が示されるため、歯冠歯根比を正確に測定することが難しい。
【0019】
上述したような理由から、今後の治療方針を立てる場合において、定量的に歯周病の検査結果に関するデータを蓄積することができるとは言い難く、経時的に歯周病の進行度合いを推定することも難しい。さらに、患者に歯周病の状態を説明する際には、短時間でインフォームドコンセントを行い、かつ患者の理解を得るような技術も求められている。
【0020】
そこで、実施の形態1に係る支援装置1は、AI(Artificial Intelligence)技術を利用して、少なくとも歯牙および歯肉を含む口腔内の生体組織の三次元形状を示す画像データに基づき、生体組織における病態の診断を支援するための支援情報を推定(導出)するように構成されている。なお、生体組織は、少なくとも歯牙および歯肉を含む口腔内の物体であって、インプラントなどの人工物を含まない。
【0021】
具体的には、支援装置1のユーザは、図示しない三次元スキャナ(光学スキャナ)を用いて患者の口腔内をスキャンすることによって、口腔内の歯牙および歯肉を含む生体組織の表面を示す点群(複数の点)の各点の位置情報を含む三次元データ(光学スキャナデータ)を取得する。三次元データは、位置情報として、予め定められた横方向(X軸方向)、縦方向(Y軸方向)、および高さ方向(Z軸方向)における生体組織の表面を示す各点の座標(X,Y,Z)を含む。さらに、三次元データは、口腔内の歯牙および歯肉を含む生体組織の表面を示す点群(複数の点)の各点に対応する部分(生体組織の表面部分)の実際の色を示す色情報を含んでいてもよい。
【0022】
なお、「ユーザ」は、歯科、口腔外科、整形外科、形成外科、および美容外科など、様々な分野の術者(医師など)または助手(歯科助手、歯科技工士、看護師など)を含む。また、「患者」は、歯科、口腔外科、整形外科、形成外科、および美容外科などの患者を含む。三次元スキャナは、共焦点法または三角測量法などによって患者の口腔内を光学的に撮像可能ないわゆる口腔内スキャナ(IOS:Intra Oral Scanner)であり、ある座標空間上に置かれたスキャン対象である生体組織(たとえば、口腔内の歯牙および歯肉)の表面を構成する点群の各点の位置情報を取得可能である。ユーザは、三次元スキャナによって取得された三次元データを用いることで、生体組織の三次元形状を示すレンダリング画像(外観画像)を生成することができる。「レンダリング画像」とは、あるデータに対して処理または編集を施すことによって生成された画像である。たとえば、ユーザは、三次元スキャナによって取得された生体組織の三次元データに対して処理または編集を施すことによって、所定の視点から見た二次元の生体組織(IOSデータによって示すことが可能な生体組織の部分)を示すレンダリング画像を生成することができ、さらに、所定の視点を多方向にわたって変化させることによって、多方向から見た二次元の生体組織(IOSデータによって示すことが可能な生体組織の部分)を示す複数のレンダリング画像を生成することができる。
【0023】
また、ユーザは、図示しないCT(Computed Tomography)撮像装置を用いて患者の上顎および下顎を撮影することによって、患者の上顎および下顎の周辺における、軟組織部分(皮膚、歯肉など)を含む硬組織部分(骨、歯牙など)の三次元の体積(ボクセル)データを取得する。なお、軟組織部分は、硬組織部分と比べて、X線による検出が弱く、データ取得の精度が低い。このため、軟組織部分が画像で表示された場合、軟組織部分をうっすら視認できるか、または、視認できない部分が生じる可能性がある。CT撮像装置は、放射線の一種であるX線の送信器および受信器を患者の顔の周囲で回転させることで、患者の上顎および下顎をコンピュータ断層撮影するX線撮像装置である。ユーザは、CT撮像装置によって取得された撮影対象である生体組織の体積データを用いることで、生体組織の三次元形状を示すレンダリング画像(断層画像または外観画像)を生成することができる。たとえば、ユーザは、CT撮像装置によって取得された生体組織の体積データに対して処理または編集を施すことによって、所定の視点から見た二次元の生体組織(CTデータによって示すことが可能な生体組織の部分)を示すレンダリング画像を生成することができ、さらに、所定の視点を多方向にわたって変化させることによって、多方向から見た二次元の生体組織(CTデータによって示すことが可能な生体組織の部分)を示す複数のレンダリング画像を生成することができる。
【0024】
以下では、三次元スキャナによって取得される生体組織の表面を示す点群の各点の位置情報を含む三次元データを「IOSデータ」とも称し、IOSデータに基づき生成されるレンダリング画像を「IOS画像」とも称する。また、CT撮像装置によって取得される三次元の体積データを「CTデータ」とも称し、CTデータに基づき生成されるレンダリング画像を「CT画像」とも称する。IOS画像は、スキャン対象である生体組織の表面形状を非常に詳細に示すことができるが、生体組織の表面に現れない内部構成(歯槽骨および根尖部など)については全く示すことができない。CT画像は、撮影対象のうち、硬組織部分(骨、歯牙など)を比較的詳細に示すことができるが、軟組織部分(皮膚、歯肉など)については硬組織部分よりは詳細に示すことができない。
【0025】
ユーザは、同一の患者について取得したIOSデータとCTデータとを合成することで、合成画像データを生成することができる。ここで、IOSデータとCTデータとは、互いにデータ形式が異なる。このため、たとえば、ユーザは、IOSデータのデータ形式をCTデータのデータ形式に変換し、変換後の両データを用いて、生体組織の表面の三次元形状をパターンマッチングさせることで、IOSデータとCTデータとを合成した合成画像データを生成する。なお、ユーザは、CTデータのデータ形式をIOSデータのデータ形式に変換し、変換後の両データを用いて、生体組織の表面の三次元形状をパターンマッチングさせることで、合成画像データを生成してもよい。あるいは、ユーザは、CTデータおよびIOSデータのデータ形式を、共通のデータ形式に変換し、変換後の両データを用いて、生体組織の表面の三次元形状をパターンマッチングさせることで、合成画像データを生成してもよい。ユーザは、合成画像データに対して処理または編集を施すことによって、所定の視点から見た二次元の生体組織(IOSデータおよびCTデータの両方によって示すことが可能な生体組織の部分)を示すレンダリング画像(たとえば、
図1に示す合成画像)を生成することができる。
図1に示すように、合成画像は、IOSデータによって示される生体組織の表面形状と、CTデータによって示される硬組織部分(骨、歯牙など)における断層構造または外観とを、三次元で示すことができる。なお、ユーザは、合成画像データを生成する際、IOSデータおよびCTデータの各々において、輝度、コントラスト、および透過度などを必要に応じて調整してもよい。さらに、ユーザは、IOSデータおよびCTデータの各々において、複数の歯牙の各々、顎骨、および歯槽骨を予めセグメンテーションした上で、合成画像データを生成してもよい。
【0026】
なお、支援装置1は、三次元スキャナからIOSデータを取得するとともに、CT撮像装置からCTデータを取得し、ユーザの入力に従って、取得したIOSデータおよびCTデータに基づき合成画像データを生成してもよい。あるいは、支援装置1は、IOSデータおよびCTデータを取得することなく、ユーザが他の装置を用いて生成した合成画像データを他の装置から取得してもよい。
【0027】
合成画像データに基づき生成可能な合成画像においては、CTデータによって歯槽骨および根尖部などの硬組織部分の三次元形状が示されるとともに、CTデータによって示すことができない歯肉などの軟組織部分の三次元形状については、IOSデータによって示すことができる。これにより、合成画像は、CTデータのみでは表すことができない歯肉などの軟組織部分も、IOSデータによって補うことで、歯槽骨および根尖部などの硬組織部分とともに詳細に示すことができる。
【0028】
詳しくは後述するが、支援装置1は、少なくとも歯牙および歯肉を含む生体組織の合成画像データにおいて、歯周ポケットの深さを計測するための所定の計測方向および所定の計測ポイントを設定する。支援装置1は、後述する推定モデル50を用いて、生体組織における病態の診断を支援するための少なくとも歯牙と歯肉との相対位置に関する情報を含む支援情報を導出する。
【0029】
図1に示すように、たとえば、支援装置1は、支援情報として、合成画像データによって示された各歯牙について、設定された計測ポイントにおける歯周ポケットの深さを示す。これにより、支援装置1は、少なくとも歯牙および歯肉を含む生体組織の三次元形状を示す合成画像データに基づき、生体組織における病態の診断を支援するための支援情報を導出することができるため、ユーザは、低侵襲かつ短時間で口腔内の生体組織における病態を診断することができる。
【0030】
[識別装置のハードウェア構成]
図2を参照しながら、実施の形態1に係る支援装置1のハードウェア構成を説明する。
図2は、実施の形態1に係る支援装置1のハードウェア構成を示すブロック図である。支援装置1は、たとえば、汎用コンピュータで実現されてもよいし、支援情報を推定するためのシステム専用のコンピュータで実現されてもよい。
【0031】
図2に示すように、支援装置1は、主なハードウェア要素として、演算装置11と、メモリ12と、記憶装置13と、入力インターフェース14と、ディスプレイインターフェース15と、周辺機器インターフェース16と、メディア読取装置17と、通信装置18とを備える。
【0032】
演算装置11は、各種のプログラムを実行することで、各種の処理を実行する演算主体(コンピュータ)であり、「演算部」の一例である。演算装置11は、たとえば、CPU(central processing unit)またはMPU(Micro-processing unit)などのプロセッサで構成されている。なお、演算装置11の一例であるプロセッサは、プログラムを実行することによって各種の処理を実行する機能を有するが、これらの機能の一部または全部を、ASIC(Application Specific Integrated Circuit)またはFPGA(Field-Programmable Gate Array)などの専用のハードウェア回路を用いて実装してもよい。「プロセッサ」は、CPUまたはMPUのようにストアードプログラム方式で処理を実行する狭義のプロセッサに限らず、ASICまたはFPGAなどのハードワイヤード回路を含み得る。このため、演算装置11の一例である「プロセッサ」は、コンピュータ読み取り可能なコードおよび/またはハードワイヤード回路によって予め処理が定義されている、処理回路(processing circuitry)と読み替えることもできる。なお、演算装置11は、1チップで構成されてもよいし、複数のチップで構成されてもよい。さらに、プロセッサおよび関連する処理回路は、ローカルエリアネットワークまたは無線ネットワークなどを介して、有線または無線で相互接続された複数のコンピュータで構成されてもよい。プロセッサおよび関連する処理回路は、入力データに基づきリモートで演算し、その演算結果を離れた位置にある他のデバイスへと出力するような、クラウドコンピュータで構成されてもよい。
【0033】
メモリ12は、演算装置11が各種のプログラムを実行するにあたって、プログラムコードやワークメモリなどを一時的に格納する揮発性の記憶領域(たとえば、ワーキングエリア)を含む。記憶部の一例としては、DRAM(dynamic random access memory)およびSRAM(static random access memory)などの揮発性メモリ、または、ROM(Read Only Memory)およびフラッシュメモリなどの不揮発性メモリが挙げられる。
【0034】
記憶装置13は、演算装置11が実行する各種のプログラムまたは各種のデータなどを記憶する。記憶装置13は、1または複数の非一時的コンピュータ可読媒体(non-transitory computer readable medium)であってもよいし、1または複数のコンピュータ読み取り可能な記憶媒体(computer readable storage medium)であってもよい。記憶装置13の一例としては、HDD(Hard Disk Drive)およびSSD(Solid State Drive)などが挙げられる。
【0035】
記憶装置13は、支援プログラム30と、推定モデル50とを格納する。支援プログラム30は、演算装置11が生体組織の三次元形状を示す画像データ(たとえば、合成画像データ)に基づき、推定モデル50を用いて、支援情報を推定するための支援処理の内容が記述されている。
【0036】
推定モデル50は、ニューラルネットワーク51と、ニューラルネットワーク51によって用いられるデータセット52とを含む。推定モデル50は、口腔内の生体組織の三次元形状を示す画像データ(たとえば、合成画像データ)と、画像データに関連付けられた支援情報とを含む教師データを用いた機械学習によって、画像データに基づき支援情報を推定するように訓練されている。
【0037】
ニューラルネットワーク51は、オートエンコーダ、畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)、リカレントニューラルネットワーク(RNN:Recurrent Neural Network)、または敵対的生成ネットワーク(GAN:Generative Adversarial Network)など、実施の形態1のニューラルネットワーク51に適用可能なアルゴリズムであれば、いずれのアルゴリズムが適用されてもよい。なお、推定モデル50は、ニューラルネットワーク51に限らず、ベイズ推定またはサポートベクターマシン(SVM: Support Vector machine)など、他の公知のアルゴリズムを備えていてもよい。
【0038】
データセット52は、ニューラルネットワーク51による演算に用いられる重み係数と、演算時の判定に用いられる判定閾値とを含む。
【0039】
入力インターフェース14は、「入力部」の一例である。入力インターフェース14は、少なくとも歯牙および歯肉を含む生体組織の合成画像データを取得する。入力インターフェース14から入力された合成画像データは、メモリ12または記憶装置13によって記憶され、演算装置11が支援情報を推定する際に用いられる。なお、入力インターフェース14は、合成前のIOSデータおよびCTデータを取得してもよい。たとえば、入力インターフェース14は、図示しない三次元スキャナと通信可能に接続され、三次元スキャナからIOSデータを取得してもよい。また、入力インターフェース14は、図示しないCT撮像装置と通信可能に接続され、CT撮像装置からCTデータを取得してもよい。この場合、演算装置11は、入力インターフェース14から入力されたIOSデータおよびCTデータを合成することで、歯牙および歯肉を含む生体組織の合成画像データを生成し、生成した合成画像データに基づき支援情報を推定する。
【0040】
ディスプレイインターフェース15は、ディスプレイ40を接続するためのインターフェースである。ディスプレイインターフェース15は、支援装置1とディスプレイ40との間のデータの入出力を実現する。
【0041】
周辺機器インターフェース16は、キーボード61およびマウス62などの周辺機器を接続するためのインターフェースである。周辺機器インターフェース16は、支援装置1と周辺機器との間のデータの入出力を実現する。
【0042】
メディア読取装置17は、記憶媒体であるリムーバブルディスク20に格納されている各種のデータを読み出したり、各種のデータをリムーバブルディスク20に書き出したりする。たとえば、メディア読取装置17は、リムーバブルディスク20から支援プログラム30を取得してもよいし、演算装置11によって推定された支援情報をリムーバブルディスク20に書き出してもよい。リムーバブルディスク20は、1または複数の非一時的コンピュータ可読媒体(non-transitory computer readable medium)であってもよいし、1または複数のコンピュータ読み取り可能な記憶媒体(computer readable storage medium)であってもよい。なお、演算装置11がメディア読取装置17を介してリムーバブルディスク20から画像データ(たとえば、合成画像データ)を取得する場合、メディア読取装置17は、「入力部」の一例に成り得る。
【0043】
通信装置18は、有線通信または無線通信を介して、外部装置との間でデータを送受信する。たとえば、通信装置18は、演算装置11によって推定された支援情報を、図示しない外部装置に送信してもよい。なお、演算装置11が通信装置18を介して外部装置から画像データ(たとえば、合成画像データ)を取得する場合、通信装置18は、「入力部」の一例に成り得る。
【0044】
[支援装置において推定されるパラメータ]
上述のように構成された支援装置1は、歯牙および歯肉を含む生体組織の合成画像データに基づき、支援情報として、歯周ポケットの深さなどを示す各種のパラメータを推定するように構成されている。
図3および
図4を参照しながら、実施の形態1に係る支援装置1において推定されるパラメータを説明する。
図3および
図4は、実施の形態1に係る支援装置1において推定されるパラメータを説明するための図である。なお、
図3においては、歯牙および歯肉を含む生体組織の縦断面が示されている。
【0045】
図3に示すように、支援装置1(演算装置11)は、歯牙および歯肉を含む生体組織の合成画像データにおいて、各歯牙に対して所定の基準に従って所定の計測方向を設定する。たとえば、ユーザは、合成画像を見ながら、キーボード61およびマウス62などを用いて、所定の基準として歯牙の傾きを示す歯軸を歯牙ごとに支援装置1に指定する。支援装置1は、ユーザによって指定された歯軸の方向に沿って計測方向を設定する。なお、ユーザは、所定の基準として歯軸の方向以外の方向を支援装置1に指定してもよい。この場合、支援装置1は、ユーザによって指定された歯軸の方向以外の方向に沿って計測方向を設定する。なお、支援装置1は、合成画像データによって示される歯牙および歯肉を含む生体組織の形状に基づき、予め定められた数学的手法で計測方向(たとえば、歯軸)を設定してもよい。
【0046】
支援装置1は、計測方向を設定すると、各歯牙の周囲に少なくとも1つの所定の計測ポイントを設定する。たとえば、ユーザは、合成画像を見ながら、キーボード61およびマウス62などを用いて、各歯牙において少なくとも1つの計測ポイントを支援装置1に指定する。計測ポイントは、歯牙に含まれる歯冠部を上面から見た場合の歯牙の周囲に位置するポイントである。支援装置1は、ユーザによって指定された少なくとも1つの計測ポイントを設定する。なお、支援装置1は、合成画像データによって示される歯牙および歯肉を含む生体組織の形状に基づき、予め定められた数学的手法で少なくとも1つの計測ポイントを設定してもよい。
【0047】
支援装置1は、各歯牙の各計測ポイントにおいて、推定モデル50を用いて、計測方向に沿って存在する生体組織の位置を示す複数のレベルの各々に対応する位置情報(X,Y,Z)を推定する。上述した複数のレベルは、歯冠頂レベルと、歯肉辺縁レベルと、歯槽骨頂レベルと、歯肉境界レベルと、根尖部レベルとを含む。歯冠頂レベルは、計測方向における歯冠部の頂上の位置(たとえば、高さ)に対応するレベルである。歯肉辺縁レベルは、計測方向における歯肉の辺縁の位置(たとえば、高さ)に対応するレベルである。歯槽骨頂レベルは、計測方向における歯槽骨の頂上の位置(たとえば、高さ)に対応するレベルである。歯肉境界レベルは、歯肉が歯牙に正常に付着している部分であって、歯牙と歯肉との境界(歯周ポケットの底部)の位置(たとえば、高さ)に対応するレベルである。根尖部レベルは、計測方向における根尖部の位置(たとえば、高さ)に対応するレベルである。歯周ポケットが存在しない、または、歯周ポケットの深さが極小さい場合、歯肉境界レベルと歯槽骨頂レベルとが同一または略同一になり、歯肉境界レベルと歯槽骨頂レベルとの差が所定の閾値未満となる。
【0048】
支援装置1は、計測方向に沿って存在する複数のレベルの各々に対応する位置情報(X,Y,Z)を推定すると、推定した各レベルの位置情報に基づき、各種のパラメータを算出する。このとき、支援装置1は、歯肉境界レベルと歯槽骨頂レベルとが同一または略同一であるか否かに応じて、異なるパラメータを算出する。
【0049】
具体的には、
図3および
図4に示すように、支援装置1は、歯肉境界レベルと歯槽骨頂レベルとが同一または略同一の場合、パラメータa~gの各パラメータを算出する。パラメータaは、歯冠頂レベルと歯肉辺縁レベルとの間における計測方向に沿った距離を示す値である。パラメータbは、歯冠頂レベルと歯肉境界レベル(歯槽骨頂レベル)との間における計測方向に沿った距離を示す値である。パラメータcは、歯肉辺縁レベルと根尖部レベルとの間における計測方向に沿った距離を示す値である。パラメータdは、歯肉境界レベル(歯槽骨頂レベル)と根尖部レベルとの間における計測方向に沿った距離を示す値である。パラメータeは、歯肉辺縁レベルと歯肉境界レベル(歯槽骨頂レベル)との間における計測方向に沿った距離を示す値である。パラメータfは、パラメータaとパラメータcとの比(a:c)である。パラメータgは、パラメータbとパラメータdとの比(b:d)である。なお、パラメータfおよびパラメータgは、歯冠歯根比とも称される。
【0050】
一方、支援装置1は、歯肉境界レベルと歯槽骨頂レベルとが同一または略同一でない場合、パラメータb’,d’,e’,g’の各パラメータを算出する。パラメータb’は、歯冠頂レベルと歯肉境界レベルとの間における計測方向に沿った距離を示す値である。パラメータd’は、歯肉境界レベルと根尖部レベルとの間における計測方向に沿った距離を示す値である。パラメータe’は、歯肉辺縁レベルと歯肉境界レベルとの間における計測方向に沿った距離を示す値である。パラメータg’は、パラメータb’とパラメータd’との比(b’:d’)である。なお、パラメータg’は、歯冠歯根比とも称される。このように、支援装置1は、歯肉境界レベルと歯槽骨頂レベルとが同一または略同一でない場合、パラメータaに対応する歯冠頂レベルと歯肉辺縁レベルとの間における計測方向に沿った距離を示す値、および、パラメータcに対応する歯肉辺縁レベルと根尖部レベルの間における計測方向に沿った距離を示す値の算出を省略する。すなわち、病態によって歯肉境界レベルと歯槽骨頂レベルとが離れている場合、支援装置1は、歯肉境界レベルを歯槽骨頂レベルの代わりにしてもよいし、歯肉境界レベルと歯槽骨頂レベルと併用してもよい。
【0051】
上述したように、合成画像データは、CTデータとIOSデータとが合成されることによって生成されるデータであるが、CTデータおよびIOSデータの各々から検出可能な部分は決まっている。
【0052】
図5は、CTデータおよびIOSデータの各々における検出対象を説明するための図である。
図5に示すように、支援装置1は、CTデータに基づき、歯軸、歯冠頂、歯槽骨頂、歯肉境界、根尖部、根分岐部、CEJ(Cement Enamel junction)、および計測ポイントを検出可能であるが、歯肉辺縁を検出不可能である。CEJとは、歯根と歯根膜との間に位置するセメント質と、歯肉から出た歯牙を覆っているエナメル質との境目であり、セメント・エナメル境とも称される。すなわち、CTデータは、硬組織部分(骨、歯牙など)における断層構造または外観を示すことができるため、硬組織部分を手掛かりに推定可能な部分については検出することが可能である。一方、CTデータは、軟組織部分(皮膚、歯肉など)については詳細に示すことができないため、歯肉辺縁については十分に検出することができない場合が多い。
【0053】
一方、支援装置1は、IOSデータに基づき、歯冠頂、歯肉辺縁、および計測ポイントを検出可能であるが、歯軸、歯槽骨頂、歯肉境界、根尖部、およびCEJを検出不可能である。すなわち、IOSデータは、硬組織部分および軟組織部分に関わらず、生体組織の表面形状を示すことができるため、生体組織の表面に現れる部分については検出することが可能である。一方IOSデータは、生体組織の表面に現れない部分については示すことができないため、歯槽骨頂および根尖部などの生体組織の内部構成については検出することができない。
【0054】
このように、CTデータおよびIOSデータは、いずれも精度高く検出可能な部分が決まっているが、支援装置1は、CTデータとIOSデータとが合成された合成画像データを用いることによって、
図4に示すような各種のパラメータa~g,b’,d’,e’,g’を算出することができる。また、支援装置1は、合成画像データによって示される歯牙の各々について、計測ポイントごとに、上述した各種のパラメータを算出することができる。
【0055】
ユーザは、支援装置1によって推定される各種のパラメータを用いることで、各歯牙の各計測ポイントについて、歯周病における病態を診断することができる。たとえば、歯肉境界レベルと歯槽骨頂レベルとが同一または略同一である例は、歯肉が減退しておらず、歯周病に罹患していない可能性が高い状態を想定している。この場合、ユーザは、パラメータe(歯肉辺縁レベルと歯肉境界レベル(歯槽骨頂レベル)との間の距離)によって、歯周ポケットの深さを確認することができる。また、ユーザは、パラメータf(歯冠頂レベルと歯肉辺縁レベルとの間の距離と、歯肉辺縁レベルと根尖部レベルとの間の距離との比)、または、パラメータg(歯冠頂レベルと歯肉境界レベル(歯槽骨頂レベル)との間の距離と、歯肉境界レベル(歯槽骨頂レベル)と根尖部レベルとの間の距離との比)によっても、歯肉の減退度合いを確認することができる。
【0056】
一方、歯肉境界レベルと歯槽骨頂レベルとが同一または略同一でない例は、歯肉が減退して、歯周病に罹患している可能性が高い状態を想定している。この場合、ユーザは、パラメータe’(歯肉辺縁レベルと歯肉境界レベルとの間の距離)によって、歯周ポケットの深さを確認することができる。また、ユーザは、パラメータg’(歯冠頂レベルと歯肉境界レベルとの間の距離と、歯肉境界レベルと根尖部レベルとの間の距離との比)によっても、歯肉の減退度合いを確認することができる。
【0057】
このように、ユーザは、支援装置1が推定した各種のパラメータを知ることで、歯牙および歯肉を含む生体組織における歯周病に係る病態を、低侵襲かつ短時間で診断することができる。
【0058】
[推定モデルの訓練]
図6および
図7を参照しながら、機械学習による推定モデル50の訓練について説明する。
図6は、実施の形態1に係る推定モデル50の学習フェーズにおける機械学習の一例を説明するための図である。
【0059】
図6に示すように、実施の形態1においては、歯牙および歯肉を含む生体組織の合成画像データに加えて、計測方向および計測ポイントが教師データに含まれる。たとえば、推定モデル50の訓練時においては、合成画像データ、計測方向、および計測ポイントと、正解データとして当該合成画像データ、当該計測方向、および当該計測ポイントに関連付けられた支援情報とを含む教師データを用いて、機械学習が行われる。また、支援情報としては、各歯牙の各計測ポイントにおける計測方向に沿った各レベル(歯冠頂レベル、歯肉辺縁レベル、歯槽骨頂レベル、歯肉境界レベル、根尖部レベル)の位置情報が採用される。
【0060】
推定モデル50は、合成画像データ、計測方向、および計測ポイントが入力されると、ニューラルネットワーク51によって、当該合成画像データ、当該計測方向、および当該計測ポイントに基づき、各歯牙の各計測ポイントにおける計測方向に沿った各レベルの位置情報(支援情報)を推定する。推定モデル50は、推定した各レベルの位置情報(支援情報)と、当該合成画像データ、当該計測方向、および当該計測ポイントに関連付けられた正解データである各レベルの位置情報(支援情報)とが一致するか否かを判定する。推定モデル50は、両者が一致する場合はデータセット52を更新しない一方で、両者が一致しない場合はデータセット52を更新することで、データセット52を最適化する。
【0061】
このように、推定モデル50は、入力データである合成画像データ、計測方向、および計測ポイントと、正解データである各レベルの位置情報(支援情報)とを含む教師データを利用して、データセット52が最適化されることで、入力データに基づき、各歯牙の各計測ポイントにおける計測方向に沿った各レベル(歯冠頂レベル、歯肉辺縁レベル、歯槽骨頂レベル、歯肉境界レベル、根尖部レベル)の位置情報を精度高く推定できるように訓練される。
【0062】
図7は、実施の形態1に係る推定モデル50の活用フェーズにおける支援情報の推定の一例を説明するための図である。
図7に示すように、実施の形態1に係る推定モデル50は、機械学習によって訓練されることで、合成画像データ、計測方向、および計測ポイントが入力されたときに、当該合成画像データ、当該計測方向、および当該計測ポイントに基づき、支援情報として、各歯牙の各計測ポイントにおける計測方向に沿った各レベル(歯冠頂レベル、歯肉辺縁レベル、歯槽骨頂レベル、歯肉境界レベル、根尖部レベル)の位置情報を精度高く推定することができる。
【0063】
[データ生成処理]
図8を参照しながら、実施の形態1に係る支援装置1が実行する支援処理を説明する。
図8は、実施の形態1に係る支援装置1が実行する支援処理の一例を説明するためのフローチャートである。
図8に示す各STEP(以下、「S」で示す。)は、支援装置1の演算装置11が支援プログラム30を実行することで実現される。
【0064】
図8に示すように、支援装置1は、歯牙および歯肉を含む生体組織の合成画像データを取得する(S1)。支援装置1は、合成画像データに基づき、各歯牙に対して所定の計測方向を設定する(S2)。たとえば、支援装置1は、計測方向として、各歯牙に対して歯軸を設定する。このとき、支援装置1は、ユーザの指定に従って計測方法を設定する。なお、支援装置1は、ユーザの手動ではなく、予め定められた数学的手法で計測方向を設定してもよい。ユーザの手動ではなく、支援装置1が自動で計測方向を設定する場合、必要に応じてユーザがキーボード61およびマウス62などを用いて手動で計測方向を調整してもよい。
【0065】
支援装置1は、合成画像データに基づき、各歯牙に対して所定の計測ポイントを設定する(S3)。たとえば、支援装置1は、ユーザの指定に従い、一般的にプローブを用いて歯周ポケットの深さを測定する歯牙の周囲の位置を計測ポイントとして設定する。なお、支援装置1は、ユーザの手動ではなく、予め定められた数学的手法で計測ポイントを設定してもよい。ユーザの手動ではなく、支援装置1が自動で計測ポイントを設定する場合、必要に応じてユーザがキーボード61およびマウス62などを用いて手動で計測ポイントを調整してもよい。
【0066】
支援装置1は、各歯牙の各計測ポイントにおいて、推定モデル50を用いて、計測方向に沿って存在する複数のレベルの各々に対応する位置情報(X,Y,Z)を推定する(S4)。たとえば、支援装置1は、
図3に示すように、推定モデル50を用いて、歯冠頂レベル、歯肉辺縁レベル、歯槽骨頂レベル、歯肉境界レベル、および根尖部レベルを推定する。
【0067】
支援装置1は、推定した各レベルに基づき、歯肉境界レベルと歯槽骨頂レベルとが同一または略同一であるか否かを判定する(S5)。すなわち、支援装置1は、歯肉が退縮することなく歯肉境界レベルと歯槽骨頂レベルとが同一または略同一であるか、または、歯肉が退縮して歯肉境界レベルと歯槽骨頂レベルとが同一または略同一でないかを判定する。たとえば、支援装置1は、歯肉境界レベルと歯槽骨頂レベルとの差が所定の閾値未満であるか否かを判定する。
【0068】
支援装置1は、歯肉境界レベルと歯槽骨頂レベルとの差が所定の閾値未満であり、歯肉境界レベルと歯槽骨頂レベルとが同一または略同一であると判断した場合(S5でYES)、
図4に示すa~gの各パラメータを算出する(S6)。一方、支援装置1は、歯肉境界レベルと歯槽骨頂レベルとの差が所定の閾値以上であり、歯肉境界レベルと歯槽骨頂レベルとが同一または略同一でないと判断した場合(S5でNO)、
図4に示すb’,d’,e’,g’の各パラメータを算出する(S7)。
【0069】
支援装置1は、ディスプレイ40に歯牙および歯肉を含む生体組織の画像を表示するとともに、当該画像に計測ポイントを付加して表示する(S8)。たとえば、支援装置1は、
図1および後述する
図9に示すように、画像に示される歯牙の周囲に6点の計測ポイントを付加して表示する。
【0070】
さらに、支援装置1は、S6で算出した歯冠歯根比(パラメータf,g,g’)に基づき、歯周病における病態の進行度合いを判定して、その判定結果をディスプレイ40に表示する。
【0071】
具体的には、支援装置1は、1つの計測ポイントについて、S6で算出した歯冠歯根比(パラメータf,g,g’)が1/2よりも小さいか否かを判定する(S9)。具体的には、支援装置1は、歯肉境界レベルと歯槽骨頂レベルとが同一または略同一である場合、パラメータf(=a/c)が1/2よりも小さいか否か、言い換えると歯肉辺縁レベルと根尖部レベルとの間の距離(c)が歯冠頂レベルと歯肉辺縁レベルとの間の距離(a)の2倍よりも大きいか否かを判定する。あるいは、支援装置1は、パラメータg(=b/d)が1/2よりも小さいか否か、言い換えると歯肉境界レベル(歯槽骨頂レベル)と根尖部レベルとの間の距離(d)が歯冠頂レベルと歯肉境界レベル(歯槽骨頂レベル)との間の距離(b)の2倍よりも大きいか否かを判定する。また、支援装置1は、歯肉境界レベルと歯槽骨頂レベルとが同一または略同一でない場合、パラメータg’(=b’/d’)が1/2よりも小さいか否か、言い換えると歯肉境界レベルと根尖部レベルとの間の距離(d’)が歯冠頂レベルと歯肉境界レベルとの間の距離(b’)の2倍よりも大きいか否かを判定する。
【0072】
支援装置1は、歯冠歯根比(パラメータf,g,g’)が1/2よりも小さい場合(S9でYES)、歯肉が減退しておらず、歯周病に罹患している可能性が低いことを示すために、計測ポイントの周囲を第1色(たとえば、緑色)で表示する(S10)。その後、支援装置1は、S14の処理に移行する。
【0073】
一方、支援装置1は、歯冠歯根比(パラメータf,g,g’)が1/2よりも大きい場合(S9でNO)、歯冠歯根比(パラメータf,g,g’)が1よりも小さいか否かを判定する(S11)。具体的には、支援装置1は、歯肉境界レベルと歯槽骨頂レベルとが同一または略同一である場合、パラメータf(=a/c)が1よりも小さいか否か、言い換えると歯肉辺縁レベルと根尖部レベルとの間の距離(c)が歯冠頂レベルと歯肉辺縁レベルとの間の距離(a)よりも大きいか否かを判定する。あるいは、支援装置1は、パラメータg(=b/d)が1よりも小さいか否か、言い換えると歯肉境界レベル(歯槽骨頂レベル)と根尖部レベルとの間の距離(d)が歯冠頂レベルと歯肉境界レベル(歯槽骨頂レベル)との間の距離(b)よりも大きいか否かを判定する。また、支援装置1は、歯肉境界レベルと歯槽骨頂レベルとが同一または略同一でない場合、パラメータg’(=b’/d’)が1よりも小さいか否か、言い換えると歯肉境界レベルと根尖部レベルとの間の距離(d’)が歯冠頂レベルと歯肉境界レベルとの間の距離(b’)よりも大きいか否かを判定する。
【0074】
支援装置1は、歯冠歯根比(パラメータf,g,g’)が1よりも小さい場合(S11でYES)、歯肉が少し減退しており、歯周病に罹患することに注意することを示すために、計測ポイントの周囲を第2色(たとえば、橙色)で表示する(S12)。その後、支援装置1は、S14の処理に移行する。
【0075】
一方、支援装置1は、歯冠歯根比(パラメータf,g,g’)が1よりも大きい場合(S11でNO)、歯肉が大きく減退しており、歯周病に罹患している可能性が高いことを示すために、計測ポイントの周囲を第3色(たとえば、赤色)で表示する(S13)。その後、支援装置1は、S14の処理に移行する。
【0076】
S14において、支援装置1は、画像に示された少なくとも1つの歯牙について、全ての計測ポイントを表示したか否かを判定する(S14)。支援装置1は、全ての計測ポイントを表示していない場合(S14でNO)、S8の処理に移行する。一方、支援装置1は、全ての計測ポイントを表示した場合(S14でYES)、本処理を終了する。
【0077】
[支援情報の表示]
図9~
図13を参照しながら、実施の形態1に係る支援装置1による支援情報の表示の一例を説明する。
図9は、実施の形態1に係る支援装置1による支援情報の第1の表示例を説明するための図である。
【0078】
図9に示すように、支援装置1は、ディスプレイ40に歯冠部を上面から見た場合の歯牙の二次元画像を表示するとともに、歯冠部を上面から見た場合の歯牙の周囲において、6点の計測ポイントを付加して表示する。ユーザがキーボード61およびマウス62などの周辺機器を用いてカーソルを動かして、いずれかの計測ポイントを指定すると、支援装置1は、指定された計測ポイントの付近で、歯牙の番号とともに、支援情報として、指定された計測ポイントにおいて推定したパラメータをポップアップ表示する。
【0079】
たとえば、支援装置1は、カーソルで指定された歯牙において、歯牙の番号と、6点の計測ポイントの各々について推定した歯周ポケットの深さ(パラメータe,e’)とを表示する。支援装置1は、
図8のS9~S13で説明したように、各計測ポイントの周囲を歯冠歯根比に基づく色で表示する。さらに、支援装置1は、カーソルで指定された計測ポイントについて、歯周ポケットの深さ(パラメータe,e’)も歯冠歯根比(f,g,g’)に応じた色で表示する。この例では、36番の歯牙において、6点の計測ポイントの各々について推定したパラメータeの値(3mm~6mmの値)が表示される。さらに、各計測ポイントが歯冠歯根比(f,g)に基づく色で色分けされるとともに、カーソルで指定された計測ポイントに対応するパラメータeの値(6mm)が歯冠歯根比(f,g)に基づく色で表示される。つまり、支援装置1は、歯冠歯根比(f,g)が示す歯肉の減退の程度に応じた色を表示する。これにより、ユーザは、歯周病の状況を客観的に把握し易くなる。
【0080】
なお、支援装置1は、歯周ポケットの深さ(パラメータe,e’)に限らず、カーソルで指定された計測ポイントについて、推定した各種のパラメータの値を表示してもよい。たとえば、支援装置1は、歯肉境界レベルと歯槽骨頂レベルとが同一または略同一である場合、パラメータa~gのいずれかを表示してもよい。また、支援装置1は、歯肉境界レベルと歯槽骨頂レベルとが同一または略同一でない場合、パラメータb’,d’,e’,g’のいずれかを表示してもよい。
【0081】
なお、
図9の例において、支援装置1は、1つの歯牙(36番の歯牙)のみについてパラメータの値を表示しているが、複数の歯牙または全部の歯牙について、各計測ポイントにおけるパラメータの値を表示してもよい。
【0082】
このように、支援装置1は、支援情報として、推定モデル50を用いて推定したパラメータa~gのいずれかまたはパラメータb’,d’,e’,g’のいずれかを、生体組織の指定された位置に重畳させてディスプレイ40に表示することができる。さらに、支援装置1は、支援情報として推定した歯周ポケットの深さ(パラメータe,e’)を、歯冠歯根比(f,g,g’)に応じた色でディスプレイ40に表示することができる。このようなディスプレイ40に表示された色分けされた各パラメータの値は、歯周病などの口腔内の生体組織における病態の進行度合いを示す情報になり得る。
【0083】
図10は、実施の形態1に係る支援装置1による支援情報の第2の表示例を説明するための図である。
図10に示すように、支援装置1は、各歯牙における歯周ポケットの深さをまとめたチャートを作成し、作成したチャートをディスプレイ40に表示してもよい。
【0084】
たとえば、支援装置1は、各歯牙において、支援情報として、6点の計測ポイントの各々について推定した歯周ポケットの深さ(パラメータe,e’)を表示する。なお、
図10の例において、支援装置1は、1つの歯牙(36番の歯牙)のみについて歯周ポケットの深さ(パラメータe,e’)を表示しているが、複数の歯牙または全部の歯牙について、各計測ポイントにおける歯周ポケットの深さ(パラメータe,e’)を表示してもよい。
【0085】
図11は、実施の形態1に係る支援装置1による支援情報の第3の表示例を説明するための図である。
図11に示すように、支援装置1は、歯列を模した二次元画像をディスプレイ40に表示するとともに、整列した各歯牙の各計測ポイントについて、支援情報として、歯周ポケットの深さ(パラメータe,e’)を表示してもよい。たとえば、
図11においては、上側の歯列および下側の歯列の各々に含まれる各歯牙における表側と裏側の画像がディスプレイ40に表示され、各歯牙の歯肉辺縁レベルを「0」とした場合の歯肉境界レベルの位置に点がプロットされている。なお、
図11の例において、支援装置1は、支援情報として、各歯牙の歯周ポケットの深さ(パラメータe,e’)のみを表示しているが、推定モデル50を用いて推定したパラメータa~gのいずれかまたはパラメータb’,d’,e’,g’のいずれかを表示してもよい。
【0086】
図12は、実施の形態1に係る支援装置による支援情報の第4の表示例を説明するための図である。
図12に示すように、支援装置1は、歯列または口腔内を示す三次元画像をディスプレイ40に表示するとともに、ユーザによって指定された計測ポイントの付近で、歯牙の番号とともに、支援情報として、指定された計測ポイントにおいて推定したパラメータをポップアップ表示してもよい。
【0087】
たとえば、支援装置1は、カーソルで指定された歯牙において、歯牙の番号と、6点の計測ポイントの各々について推定した歯周ポケットの深さ(パラメータe,e’)とを表示してもよい。また、支援装置1は、カーソルで指定された歯牙の部分について、歯周ポケットの深さ(パラメータe,e’)を歯冠歯根比(f,g,g’)に応じた色で表示してもよい。この例では、36番の歯牙において、6点の計測ポイントの各々について推定したパラメータeの値(3mm~6mmの値)が表示される。さらに、カーソルで指定された計測ポイントに対応するパラメータeの値(6mm)が歯冠歯根比(f,g)に基づく色で表示される。
【0088】
支援装置1は、各歯牙の付近の歯肉を、歯冠歯根比(f,g,g’)に基づく色で色分けして表示してもよい。たとえば、支援装置1は、歯冠歯根比に応じてヒートマップなどを用いて歯肉の色を強調表示することで、歯周ポケットの深さ(パラメータe,e’)の度合いをユーザに示してもよい。これにより、ユーザは、歯列における各部分について、歯周ポケットの深さ(パラメータe,e’)の度合いを客観的に把握することができる。
【0089】
さらに、支援装置1は、各歯牙の周囲の連続した部分(たとえば、6点を超える計測ポイント)についてパラメータa~gのいずれかまたはパラメータb’,d’,e’,g’のいずれかを算出して表示してもよいし、歯冠歯根比(f,g,g’)については個々の歯牙で平均値または偏差などを算出して表示してもよい。支援装置1は、歯周ポケットの深さをユーザが客観的に把握することができるように、歯肉の色を強調表示してもよい。
【0090】
なお、支援装置1は、歯周ポケットの深さ(パラメータe,e’)に限らず、カーソルで指定された計測ポイントについて、推定した各種のパラメータの値を表示してもよい。たとえば、支援装置1は、歯肉境界レベルと歯槽骨頂レベルとが同一または略同一である場合、パラメータa~gのいずれかを表示してもよい。また、支援装置1は、歯肉境界レベルと歯槽骨頂レベルとが同一または略同一でない場合、パラメータb’,d’,e’,g’のいずれかを表示してもよい。
【0091】
図13は、実施の形態1に係る支援装置による支援情報の第5の表示例を説明するための図である。
図13に示すように、支援装置1は、歯牙および歯肉を含む生体組織の三次元の合成画像をディスプレイ40に表示するとともに、ユーザによって指定された計測ポイントの付近で、歯牙の番号とともに、支援情報として、指定された計測ポイントにおいて推定したパラメータをポップアップ表示してもよい。
【0092】
たとえば、支援装置1は、カーソルで指定された歯牙において、歯牙の番号と、6点の計測ポイントの各々について推定した歯周ポケットの深さ(パラメータe,e’)とを表示してもよい。また、支援装置1は、カーソルで指定された歯牙の部分について、歯周ポケットの深さ(パラメータe,e’)を歯冠歯根比(f,g,g’)に応じた色で表示してもよい。この例では、46番の歯牙において、6点の計測ポイントの各々について推定したパラメータeの値(3mm~6mmの値)が表示される。また、支援装置1は、カーソルで指定された計測ポイントに対応するパラメータeの値(6mm)を歯冠歯根比(f,g)に基づく色で表示してもよい。
【0093】
さらに、支援装置1は、各歯牙の周囲の連続した部分(たとえば、6点を超える計測ポイント)についてパラメータa~gのいずれかまたはパラメータb’,d’,e’,g’のいずれかを算出して表示してもよいし、歯冠歯根比(f,g,g’)については個々の歯牙で平均値または偏差などを算出して表示してもよい。支援装置1は、歯周ポケットの深さをユーザが客観的に把握することができるように、歯肉の色を強調表示してもよい。
【0094】
なお、支援装置1は、歯周ポケットの深さ(パラメータe,e’)に限らず、カーソルで指定された計測ポイントについて、推定した各種のパラメータの値を表示してもよい。たとえば、支援装置1は、歯肉境界レベルと歯槽骨頂レベルとが同一または略同一である場合、パラメータa~gのいずれかを表示してもよい。また、支援装置1は、歯肉境界レベルと歯槽骨頂レベルとが同一または略同一でない場合、パラメータb’,d’,e’,g’のいずれかを表示してもよい。
【0095】
以上のように、支援装置1は、IOSデータおよびCTデータに基づき生成した合成画像の画像データ(合成画像データ)に基づき、各歯牙について、a~gまたはb’,d’,e’,g’の各種のパラメータを推定し、これらパラメータの値をユーザに提示する。これにより、ユーザは、患者の歯周ポケットにプローブを挿入することなく低侵襲で歯周ポケットの深さを確認することができ、自身の技量に頼ることなく精度高く歯周病の進行状態を確認することができる。
【0096】
さらに、支援装置1は、
図9~
図13に示すように、歯牙を含む二次元または三次元の画像をディスプレイ40に表示するとともに、指定された計測ポイントにおける歯周ポケットの深さ(パラメータe,e’)などの各種のパラメータの値を表示したり、歯冠歯根比(f,g,g’)に基づき歯肉またはパラメータの値を色分けしたりする。これにより、ユーザは、歯周病の病態の進行度合いを容易に把握することができるため、患者に対して説明し易くなり、また患者の理解も得やすくすることができる。
【0097】
[実施の形態1の変形例]
図14~
図19を参照しながら、実施の形態1に係る支援装置1の変形例について説明する。なお、実施の形態1に係る支援装置1の変形例においては、実施の形態1に係る支援装置1と異なる部分のみを説明し、実施の形態1に係る支援装置1と同じ部分については、同一符号を付してその説明を繰り返さない。
【0098】
第1の変形例について説明する。
図14は、第1の変形例に係る推定モデル50の学習フェーズにおける機械学習の一例を説明するための図である。
図14に示すように、第1の変形例においては、計測方向および計測ポイントが教師データに含まれない。また、正解データである支援情報として、各歯牙の各計測ポイントにおける計測方向に沿った各レベル(歯冠頂レベル、歯肉辺縁レベル、歯槽骨頂レベル、歯肉境界レベル、根尖部レベル)の位置情報が採用される。
【0099】
推定モデル50は、合成画像データが入力されると、ニューラルネットワーク51によって、当該合成画像データに基づき、各歯牙の各計測ポイントにおける計測方向に沿った各レベルの位置情報(支援情報)を推定する。このとき、推定モデル50は、計測方向および計測ポイントについては入力されていないが、自らの推定によって、各歯牙の各計測ポイントにおける計測方向に沿った各レベルの位置情報(支援情報)を推定する。推定モデル50は、推定した各歯牙の各計測ポイントにおける計測方向に沿った各レベルの位置情報(支援情報)と、当該合成画像データに関連付けられた正解データである各歯牙の各計測ポイントにおける計測方向に沿った各レベルの位置情報(支援情報)とが一致するか否かを判定する。推定モデル50は、両者が一致する場合はデータセット52を更新しない一方で、両者が一致しない場合はデータセット52を更新することで、データセット52を最適化する。
【0100】
このように、推定モデル50は、入力データである合成画像データと、正解データである各レベルの位置情報(支援情報)とを含む教師データを利用して、データセット52が最適化されることで、入力データに基づき、各歯牙の各計測ポイントにおける計測方向に沿った各レベル(歯冠頂レベル、歯肉辺縁レベル、歯槽骨頂レベル、歯肉境界レベル、根尖部レベル)の位置情報を精度高く推定できるように訓練される。つまり、推定モデル50は、入力されていない計測方向および計測ポイントについても機械学習することで、計測方向および計測ポイントが入力されなくとも、入力された合成画像データに基づき、各歯牙の各計測ポイントにおける計測方向に沿った各レベルの位置情報を精度高く推定できるように訓練される。
【0101】
図15は、第1の変形例に係る推定モデル50の活用フェーズにおける支援情報の推定の一例を説明するための図である。
図15に示すように、第1の変形例に係る推定モデル50は、機械学習によって訓練されることで、合成画像データが入力されたときに、当該合成画像データに基づき、支援情報として、各歯牙の各計測ポイントにおける計測方向に沿った各レベル(歯冠頂レベル、歯肉辺縁レベル、歯槽骨頂レベル、歯肉境界レベル、根尖部レベル)の位置情報を推定することができる。このように、第1の変形例に係る推定モデル50によれば、
図8のS2およびS3のようなユーザの指定に従って計測方向および計測ポイントを設定することなく、自動的に計測方向および計測ポイントを推定して、各歯牙の各計測ポイントにおける計測方向に沿った各レベルの位置情報を精度高く推定することができる。
【0102】
なお、学習フェーズにおいては、計測方向および計測ポイントのうちのいずれか1つが、合成画像データとともに入力データに含まれてもよい。この場合、活用フェーズにおいて、推定モデル50は、計測方向および計測ポイントのうちのいずれか1つと、合成画像データとを含む入力データに基づき、各歯牙の各計測ポイントにおける計測方向に沿った各レベルの位置情報を精度高く推定することができる。
【0103】
第2の変形例について説明する。
図16は、第2の変形例に係る推定モデル50の学習フェーズにおける機械学習の一例を説明するための図である。
図16に示すように、第2の変形例においては、支援情報として、各歯牙の各計測ポイントにおける各パラメータ(a~gまたはb’,d’,e’,g’)が採用される。たとえば、推定対象である歯牙において歯肉境界レベルと歯槽骨頂レベルとが同一または略同一である場合、支援情報として、各歯牙の各計測ポイントにおけるa~gの各パラメータが採用される。また、推定対象である歯牙において歯肉境界レベルと歯槽骨頂レベルとが同一または略同一でない場合、支援情報として、各歯牙の各計測ポイントにおけるb’,d’,e’,g’の各パラメータが採用される。
【0104】
推定モデル50の訓練時においては、入力データとして合成画像データ、計測方向、および計測ポイントと、正解データとして当該合成画像データ、当該計測方向、および当該計測ポイントに関連付けられた支援情報(a~gまたはb’,d’,e’,g’)とを含む教師データを用いて、機械学習が行われる。なお、計測方向および計測ポイントのうちのいずれか1つが、合成画像データとともに入力データに含まれてもよい。
【0105】
推定モデル50は、合成画像データ、計測方向、および計測ポイントが入力されると、ニューラルネットワーク51によって、当該画像データ、当該計測方向、および当該計測ポイントに基づき、各歯牙の各計測ポイントにおける各パラメータ(a~gまたはb’,d’,e’,g’)を推定する。推定モデル50は、推定した各パラメータ(a~gまたはb’,d’,e’,g’)(支援情報)と、当該画像データ、当該計測方向、および当該計測ポイントに関連付けられた正解データである各歯牙の各計測ポイントにおける各パラメータ(a~gまたはb’,d’,e’,g’)とが一致するか否かを判定する。推定モデル50は、両者が一致する場合はデータセット52を更新しない一方で、両者が一致しない場合はデータセット52を更新することで、データセット52を最適化する。
【0106】
このように、推定モデル50は、入力データである合成画像データ、計測方向、および計測ポイントと、正解データである各歯牙の各計測ポイントにおける各パラメータ(a~gまたはb’,d’,e’,g’)(支援情報)とを含む教師データを利用して、データセット52が最適化されることで、入力データに基づき、各歯牙の各計測ポイントにおける各パラメータ(a~gまたはb’,d’,e’,g’)を精度高く推定できるように訓練される。
【0107】
図17は、第2の変形例に係る推定モデル50の活用フェーズにおける支援情報の推定の一例を説明するための図である。
図17に示すように、第2の変形例に係る推定モデル50は、機械学習によって訓練されることで、合成画像データ、計測方向、および計測ポイントが入力されたときに、当該画像データ、当該計測方向、および当該計測ポイントに基づき、支援情報として、各歯牙の各計測ポイントにおける各パラメータ(a~gまたはb’,d’,e’,g’)を精度高く推定することができる。
【0108】
なお、学習フェーズにおいては、複数のパラメータ(a~gまたはb’,d’,e’,g’)のうちの少なくとも1つが、正解データである支援情報に含まれてもよい。この場合、活用フェーズにおいて、推定モデル50は、合成画像データ、計測方向、および計測ポイントを含む入力データに基づき、支援情報として、各歯牙の各計測ポイントにおける複数のパラメータ(a~gまたはb’,d’,e’,g’)のうちの少なくとも1つを推定する。
【0109】
第3の変形例について説明する。
図18は、第3の変形例に係る推定モデル50の学習フェーズにおける機械学習の一例を説明するための図である。
図18に示すように、第3の変形例においては、支援情報として、口腔内の生体組織における病態の種類および病態の進行度合いが採用される。
【0110】
推定モデル50の訓練時においては、入力データとして合成画像データ、計測方向、および計測ポイントと、正解データとして当該画像データ、当該計測方向、および当該計測ポイントに関連付けられた支援情報(病態の種類および病態の進行度合い)とを含む教師データを用いて、機械学習が行われる。なお、計測方向および計測ポイントのうちのいずれか1つが、画像データとともに入力データに含まれてもよい。
【0111】
推定モデル50は、合成画像データ、計測方向、および計測ポイントが入力されると、ニューラルネットワーク51によって、当該画像データ、当該計測方向、および当該計測ポイントに基づき、口腔内の生体組織における病態の種類および病態の進行度合いを推定する。推定モデル50は、推定した病態の種類および病態の進行度合い(支援情報)と、当該画像データ、当該計測方向、および当該計測ポイントに関連付けられた正解データである口腔内の生体組織における病態の種類および病態の進行度合いとが一致するか否かを判定する。推定モデル50は、両者が一致する場合はデータセット52を更新しない一方で、両者が一致しない場合はデータセット52を更新することで、データセット52を最適化する。
【0112】
このように、推定モデル50は、入力データである合成画像データ、計測方向、および計測ポイントと、正解データである口腔内の生体組織における病態の種類および病態の進行度合い(支援情報)とを含む教師データを利用して、データセット52が最適化されることで、入力データに基づき、口腔内の生体組織における病態の種類および病態の進行度合いを精度高く推定できるように訓練される。
【0113】
図19は、第3の変形例に係る推定モデル50の活用フェーズにおける支援情報の推定の一例を説明するための図である。
図19に示すように、第3の変形例に係る推定モデル50は、機械学習によって訓練されることで、合成画像データ、計測方向、および計測ポイントが入力されたときに、当該画像データ、当該計測方向、および当該計測ポイントに基づき、支援情報として、口腔内の生体組織における病態の種類および病態の進行度合いを精度高く推定することができる。
【0114】
なお、学習フェーズにおいては、病態の種類および病態の進行度合いのうちの少なくとも1つが、正解データである支援情報に含まれてもよい。この場合、活用フェーズにおいて、推定モデル50は、合成画像データ、計測方向、および計測ポイントを含む入力データに基づき、支援情報として、病態の種類および病態の進行度合いのうちの少なくとも1つを推定する。
【0115】
以上のように、支援装置1は、推定モデル50を用いて、診断情報として、複数のレベル(歯冠頂レベル、歯肉辺縁レベル、歯槽骨頂レベル、歯肉境界レベル、根尖部レベル)のうちの少なくとも1つを推定してもよいし、当該レベルを推定することなくパラメータ(a~gまたはb’,d’,e’,g’)のうちの少なくとも1つを推定してもよいし、当該レベルおよび当該パラメータを推定することなく歯周病における病態の種類および病態の進行度合いのうちの少なくとも1つを推定してもよい。
【0116】
また、歯周病に罹患した歯牙は、歯肉が下がることで、歯周病に罹患していない歯牙よりも、歯牙の表面部分が多く現れる。すなわち、歯周病に罹患しているか否かに応じて、歯牙および歯肉を含む生体組織のの表面の色が異なる。そこで、支援装置1は、三次元スキャナによって取得された三次元データに含まれる生体組織の表面の色を示す色情報を、合成画像データとともに教師データの入力データとして採用して機械学習を行ってもよい。この場合、支援装置1は、合成画像データに加えて生体組織の表面の色に基づき、歯周病における病態の進行度合いを精度高く推定することができる。
【0117】
<実施の形態2>
図20~
図22を参照しながら、実施の形態2に係る支援装置1を説明する。なお、実施の形態2に係る支援装置1においては、実施の形態1に係る支援装置1と異なる部分のみを説明し、実施の形態1に係る支援装置1と同じ部分については、同一符号を付してその説明を繰り返さない。
【0118】
図20は、実施の形態2に係る推定モデル50の学習フェーズにおける機械学習の一例を説明するための図である。
図20に示すように、実施の形態2においては、合成画像データに加えて、当該合成画像データによって示される生体組織を有する患者の性別、年齢、および骨密度に関連する情報のうちの少なくとも1つが教師データに含まれる。骨密度に関連する情報は、個別の歯牙の周囲の顎骨のCT値(CT画像における白黒の画像濃度値)、および個別の歯牙の周囲の顎骨の海綿骨構造指標(TBS:Trabecular Bone Score)のうちの少なくとも1つを含む。また、支援情報として、口腔内の生体組織における病態の進行度合いが採用される。
【0119】
ここで、患者の性別、年齢、および骨密度に関連する情報(CT値,海綿骨構造指標)に応じて、歯周病における病態の進行度合いが異なる傾向にある。たとえば、女性は男性よりも歯周病に罹患し易いと言われている。また、老化によっても歯周病に罹患し易くなる。さらに、骨密度が低いほど歯周病に罹患し易くなる。このため、教師データとして、推定モデル50の入力データに患者の性別、年齢、および骨密度に関連する情報(CT値,海綿骨構造指標)のうちの少なくとも1つを採用すれば、推定モデル50は、歯周病における病態の進行度合いを推定することができる。
【0120】
たとえば、推定モデル50の訓練時においては、入力データとして合成画像データ、性別、年齢、および骨密度に関連する情報(CT値,海綿骨構造指標)と、正解データとして当該画像データ、当該性別、当該年齢、および当該骨密度に関連する情報に関連付けられた支援情報(病態の進行度合い)とを含む教師データを用いて、機械学習が行われる。なお、計測方向および計測ポイントのうちのいずれか1つが、入力データに含まれてもよい。
【0121】
推定モデル50は、合成画像データ、性別、年齢、および骨密度に関連する情報(CT値,海綿骨構造指標)が入力されると、ニューラルネットワーク51によって、当該画像データ、当該性別、当該年齢、および当該骨密度に関連する情報に基づき、口腔内の生体組織における病態の進行度合いを推定する。推定モデル50は、推定した病態の進行度合い(支援情報)と、当該画像データ、当該性別、当該年齢、および当該骨密度に関連する情報に関連付けられた正解データである口腔内の生体組織における病態の進行度合いとが一致するか否かを判定する。推定モデル50は、両者が一致する場合はデータセット52を更新しない一方で、両者が一致しない場合はデータセット52を更新することで、データセット52を最適化する。
【0122】
このように、推定モデル50は、入力データである合成画像データ、性別、年齢、および骨密度に関連する情報(CT値,海綿骨構造指標)と、正解データである口腔内の生体組織における病態の進行度合い(支援情報)とを含む教師データを利用して、データセット52が最適化されることで、入力データに基づき、口腔内の生体組織における病態の進行度合いを精度高く推定できるように訓練される。
【0123】
図21は、実施の形態2に係る推定モデル50の活用フェーズにおける支援情報の推定の一例を説明するための図である。
図21に示すように、実施の形態2に係る推定モデル50は、機械学習によって訓練されることで、合成画像データ、性別、年齢、および骨密度に関連する情報(CT値,海綿骨構造指標)が入力されたときに、当該画像データ、当該性別、当該年齢、および当該骨密度に関連する情報に基づき、口腔内の生体組織における病態の進行度合いを精度高く推定することができる。
【0124】
なお、学習フェーズにおいては、合成画像データに加えて、性別、年齢、および骨密度に関連する情報(CT値,海綿骨構造指標)のうちの少なくとも1つが、入力データに含まれてもよい。この場合、活用フェーズにおいて、推定モデル50は、合成画像データと、性別、年齢、および骨密度に関連する情報(CT値,海綿骨構造指標)のうちの少なくとも1つとに基づき、支援情報として、病態の進行度合いを推定する。
【0125】
このように、支援装置1は、歯周病における病態の進行度合いに影響を与え得る、患者の性別、年齢、および骨密度に関連する情報(CT値,海綿骨構造指標)のうちの少なくとも1つを、教師データの入力データとして採用して機械学習を行うことで、術者の経験によることなく、かつ術者の負担を軽減しながら、歯周病における病態の進行度合いを精度高く推定することができる。また、ユーザは、今後導入されるであろう国民皆歯科健診において、毎年、支援装置1を用いて患者の歯周病における病態の進行度合いを推定して記録すれば、当該記録に基づいて将来における病態の進行度合いをも予測することができる。
【0126】
さらに、上述したような毎年の病態の進行度合いの記録を入力データとし、病態の進行度合いを正解データとした教師データを用いて推定モデル50を機械学習して訓練してもよい。この場合、推定モデル50は、現在の病態の進行度合いを入力されたときに、当該現在の病態の進行度合いに基づき、将来の病態の進行度合いを推定することも可能である。
【0127】
図22は、実施の形態2に係る支援装置1による支援情報の出力の一例を説明するための図である。
図22に示すように、支援装置1は、推定モデル50を用いて推定した歯周病における病態の進行度合いを、所定の判定基準に基づいてスコア化して、算出したスコアをディスプレイ40に表示してもよい。
【0128】
たとえば、
図22(A)に示すように、支援装置1は、歯列全体について、歯周病における病態の進行度合いを推定し、所定の判定基準に基づいて、当該病態の進行度合いに対応するスコアを、「正常」、「進行(要観察)」、「不遇(許容超え)」ごとに算出して表示してもよい。
図22(B)に示すように、支援装置1は、上側左の歯列、上側右の歯列、下側左の歯列、および下側右の歯列の各々について、歯周病における病態の進行度合いを推定し、所定の判定基準に基づいて、当該病態の進行度合いに対応するスコアを、「正常」、「進行(要観察)」、「不遇(許容超え)」ごとに算出して表示してもよい。
図22(C)に示すように、支援装置1は、上側左の歯列、上側右の歯列、下側左の歯列、および下側右の歯列の各々に含まれる各歯牙について、歯周病における病態の進行度合いを推定し、所定の判定基準に基づいて、当該病態の進行度合いに対応するスコアを、「正常」、「進行(要観察)」、「不遇(許容超え)」ごとに算出して表示してもよい。
【0129】
なお、支援装置1は、
図9~
図13に示すような歯牙の画像において、病態の進行度合いに対応するスコアを表示してもよい。たとえば、支援装置1は、
図12または
図13に示すような歯牙および歯肉を含む生体組織の画像において、病態の進行度合いに応じてヒートマップなどを用いて歯肉の色を強調表示してもよい。支援装置1は、このような病態の進行度合いを示した画像を、将来の経過時間ごと(たとえば、1年後、2年後など)に時系列で表示することで、病態の進行度合い(支援情報)の将来の変化を予測したシミュレーション情報をユーザに示してもよい。
【0130】
<実施の形態3>
図23および
図24を参照しながら、実施の形態3に係る支援装置1を説明する。なお、実施の形態3に係る支援装置1においては、実施の形態1に係る支援装置1と異なる部分のみを説明し、実施の形態1に係る支援装置1と同じ部分については、同一符号を付してその説明を繰り返さない。
【0131】
図23および
図24は、実施の形態3に係る支援装置1において推定されるパラメータを説明するための図である。なお、
図23においては、歯牙および歯肉を含む生体組織の縦断面が示されている。
【0132】
図23に示すように、実施の形態3に係る支援装置1は、各歯牙の各計測ポイントにおいて、推定モデル50を用いて、計測方向に沿って存在する生体組織の位置を示す複数のレベルとして、CEJレベル、歯肉辺縁レベル、根分岐部レベル、骨欠損最深部レベル、および根尖部レベルの各々に対応する位置情報(X,Y,Z)を推定する。CEJレベルは、歯根と歯根膜との間に位置するセメント質と、歯肉から出た歯牙を覆っているエナメル質との境目(セメント・エナメル境)の位置(たとえば、高さ)に対応するレベルである。根分岐部レベルは、根分岐部の位置(たとえば、高さ)に対応するレベルである。骨欠損最深部レベルは、根分岐部が病変して根分岐部と歯槽骨との間に空間ができた場合において、当該歯槽骨の欠損最深部の位置(たとえば、高さ)に対応するレベルである。
【0133】
支援装置1は、各歯牙の各計測ポイントにおいて、CEJレベル、歯肉辺縁レベル、根分岐部レベル、骨欠損最深部レベル、および根尖部レベルを推定することで、病変した根分岐部における病態の進行度合いを導出することができる。具体的には、
図23および
図24に示すように、支援装置1は、パラメータh~lの各パラメータを算出する。パラメータhは、CEJレベルと根分岐部レベルとの間における計測方向に沿った距離を示す値である。パラメータiは、CEJレベルと骨欠損最深部レベルとの間における計測方向に沿った距離を示す値である。パラメータjは、CEJレベルと歯肉辺縁レベルとの間における計測方向に沿った距離を示す値である。パラメータkは、根分岐部レベルと骨欠損最深部レベルとの間における計測方向に沿った距離を示す値である。パラメータlは、骨欠損最深部レベルと根尖部レベルとの間における計測方向に沿った距離を示す値である。
【0134】
ユーザは、支援装置1によって推定される各種のパラメータを用いることで、各歯牙の各計測ポイントについて、病変した根分岐部における病態を診断することができる。たとえば、ユーザは、支援装置1によって推定されたパラメータh~lの少なくとも1つに基づき、公知のGlickmanの根分岐部病変分類、Lindheの根分岐部病変分類、またはTarnow&Fletcherの分類などを用いて病変した根分岐部における病態を診断することができる。
【0135】
このように、ユーザは、支援装置1が推定した各種のパラメータを知ることで、歯牙および歯肉を含む生体組織における根分岐部病変に係る病態を、低侵襲かつ短時間で診断することができる。
【0136】
なお、支援装置1は、推定モデル50を用いて、診断情報として、複数のレベル(CEJレベル、歯肉辺縁レベル、根分岐部レベル、骨欠損最深部レベル、根尖部レベル)のうちの少なくとも1つを推定してもよいし、当該レベルを推定することなくパラメータh~lのうちの少なくとも1つを推定してもよいし、当該レベルおよび当該パラメータを推定することなく病変した根分岐部における病態の進行度合いを推定してもよい。
【0137】
なお、上述した実施の形態1および実施の形態2の各々に係る支援装置1は、互いの構成および機能を単独または組み合わせて備えていてもよい。さらに、実施の形態1および実施の形態2の各々に係る支援装置1は、上述した変形例の構成および機能を単独または組み合わせて備えていてもよい。
【0138】
今回開示された実施の形態は全ての点で例示であって制限的なものではないと考えられるべきである。本開示の範囲は上記した説明ではなく特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内での全ての変更が含まれることが意図される。なお、本実施の形態で例示された構成および変形例で例示された構成は、適宜組み合わせることができる。
【符号の説明】
【0139】
1 支援装置、11 演算装置、12 メモリ、13 記憶装置、14 入力インターフェース、15 ディスプレイインターフェース、16 周辺機器インターフェース、17 メディア読取装置、18 通信装置、20 リムーバブルディスク、30 支援プログラム、40 ディスプレイ、50 推定モデル、51 ニューラルネットワーク、52 データセット、61 キーボード、62 マウス。