IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 株式会社DSiの特許一覧

特開2024-22277歯周ポケット測定装置及び歯周ポケット測定方法
<>
  • 特開-歯周ポケット測定装置及び歯周ポケット測定方法 図1
  • 特開-歯周ポケット測定装置及び歯周ポケット測定方法 図2
  • 特開-歯周ポケット測定装置及び歯周ポケット測定方法 図3
  • 特開-歯周ポケット測定装置及び歯周ポケット測定方法 図4A
  • 特開-歯周ポケット測定装置及び歯周ポケット測定方法 図4B
  • 特開-歯周ポケット測定装置及び歯周ポケット測定方法 図4C
  • 特開-歯周ポケット測定装置及び歯周ポケット測定方法 図4D
  • 特開-歯周ポケット測定装置及び歯周ポケット測定方法 図5A
  • 特開-歯周ポケット測定装置及び歯周ポケット測定方法 図5B
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024022277
(43)【公開日】2024-02-16
(54)【発明の名称】歯周ポケット測定装置及び歯周ポケット測定方法
(51)【国際特許分類】
   A61C 19/04 20060101AFI20240208BHJP
【FI】
A61C19/04 C
【審査請求】未請求
【請求項の数】8
【出願形態】OL
(21)【出願番号】P 2022125738
(22)【出願日】2022-08-05
(71)【出願人】
【識別番号】514306629
【氏名又は名称】株式会社DSi
(74)【代理人】
【識別番号】110001151
【氏名又は名称】あいわ弁理士法人
(72)【発明者】
【氏名】佐藤 浩志
【テーマコード(参考)】
4C052
【Fターム(参考)】
4C052AA06
4C052NN02
4C052NN03
4C052NN04
4C052NN05
4C052NN15
(57)【要約】      (修正有)
【課題】歯周ポケットの深さを正確かつ簡便に測定することが可能な歯周ポケット測定装置及び歯周ポケット測定方法を提供する。
【解決手段】歯周ポケット測定装置1は、口腔内を撮影して口腔内形状を取得するスキャナ111と、前記スキャナが前記撮影を行うとき、撮影対象に対し圧縮空気を噴射するエアーブロアー113と、情報処理装置13と、を含み、前記スキャナは、前記エアーブロアーが前記撮影対象に対し前記圧縮空気を噴射している間、前記口腔内形状を示す点群データを取得し、前記情報処理装置は、前記スキャナから前記点群データを受信するセンシングデータ取得部131と、前記点群データに基づいてモデルを生成するモデル生成部133と、前記モデルの特徴に基づいて、歯茎、歯根、歯肉を識別する認識部135と、前記歯茎、歯根、歯肉の識別結果に基づいて歯周ポケットの深さを測定する測定部137と、を有する。
【選択図】図1
【特許請求の範囲】
【請求項1】
口腔内を撮影して口腔内形状を取得するスキャナと、
前記スキャナが前記撮影を行うとき、撮影対象に対し圧縮空気を噴射するエアーブロアーと、
情報処理装置と、を含み、
前記スキャナは、前記エアーブロアーが前記撮影対象に対し前記圧縮空気を噴射している間、前記口腔内形状を示す点群データを取得し、
前記情報処理装置は、
前記スキャナから前記点群データを受信するセンシングデータ取得部と、
前記点群データに基づいてモデルを生成するモデル生成部と、
前記モデルの特徴に基づいて、歯茎、歯根、歯肉を識別する認識部と、
前記歯茎、歯根、歯肉の識別結果に基づいて歯周ポケットの深さを測定する測定部と、
を有する、
歯周ポケット測定装置。
【請求項2】
さらに、少なくとも前記歯周ポケットの深さに基づいて歯周病の進行度を判定する判定部と、を有する
請求項1記載の歯周ポケット測定装置。
【請求項3】
前記スキャナは、複数の前記点群データを連続的に取得し、
前記認識部は、時間経過に伴う前記点群データの位置の変化の特徴に基づいて、歯と歯肉を識別する
請求項1記載の歯周ポケット測定装置。
【請求項4】
前記スキャナは、色情報を有する前記点群データを取得し、
前記認識部は、前記点群データの位置の色情報に基づいて、前記歯茎、歯根、歯肉を識別する
請求項1記載の歯周ポケット測定装置。
【請求項5】
エアーブロアーが撮影対象に対し圧縮空気を噴射している間にスキャナが口腔内を撮影して得られた、口腔内形状を示す点群データを受信するセンシングデータ取得ステップと、
前記点群データに基づいてモデルを生成するモデル生成ステップと、
前記モデルの特徴に基づいて、歯茎、歯根、歯肉を識別する認識ステップと、
前記歯茎、歯根、歯肉の識別結果に基づいて歯周ポケットの深さを測定する測定ステップと、を有する
歯周ポケット測定方法。
【請求項6】
さらに、少なくとも前記歯周ポケットの深さに基づいて歯周病の進行度を判定する判定ステップと、を有する
請求項5記載の歯周ポケット測定方法。
【請求項7】
請求項5記載の方法をコンピュータに実行させるためのプログラム。
【請求項8】
請求項6記載の方法をコンピュータに実行させるためのプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、歯周ポケット測定装置及び歯周ポケット測定方法に関し、具体的には、歯周ポケットの深さを正確かつ簡便に測定する技術に関する。
【背景技術】
【0002】
歯周病の進行度合いを示す指標として、歯周ポケットの深さが用いられている。歯周ポケットの深さとは、歯と歯肉の間の溝すなわち歯肉溝の深さのことである。歯周ポケットの深さは、健康な状態では1mmから3mm程度であるが、歯周病の進行に伴い3mmから6mm以上になることがある。
【0003】
従来、歯周ポケットの深さの測定には、探針(プローブ)と呼ばれる目盛付きの針状の器具が用いられてきた。探針を歯肉溝に入れていき、止まったときの深さを実施者が目視で確認する。1本の歯につき歯肉の数カ所でこれを行う。このような工程による歯周ポケットの深さの測定は、多くの手間と時間を要するだけでなく、実施者による測定結果のばらつきが避けられないという課題があった。例えば、ある患者の歯周病の治療経過をトレースするためのエビデンスとして用いるにはばらつきが大きく、より安定かつ信頼できる測定方法が望まれていた。
【0004】
一方、歯科業界におけるデジタル化(デジタルデンティストリー)の進展により、従来よりも簡易かつ高精度に治療を行うことができる機材が登場している。例えば、Intra Oral Scanner(IOS)と呼ばれる機器は、ワンドと呼ばれる読取器によって患者の口腔内を撮影し、口腔内形状をデジタルデータ(モデル)として出力することができる。典型的には、ワンドは対象物(歯牙や歯肉等)に対して光を放射し、反射光をセンサで検出することにより、対象物の3次元形状を示す点群データを取得する。
【0005】
しかしながら、IOSが撮影できるのは口腔内の可視領域のみであるため、通常は、歯肉溝下にある不可視領域をモデル化することができない。したがって、歯周ポケットの深さの測定用途にはIOSは不向きであると考えられてきた。
【0006】
関連技術として特許文献1及び2がある。特許文献1及び2には、スタイラス状の測定用治具によって歯の表面をなぞることで、歯肉縁下にある支台歯の形状を取得する口腔内スキャナが開示されている。
【先行技術文献】
【特許文献】
【0007】
【特許文献1】特開2018-047299号公報
【特許文献2】特表2016-508754号公報
【特許文献3】特開2017-213060号公報
【非特許文献】
【0008】
【非特許文献1】小野寺亮ほか,「レーサ゛反射強度を用いた色付き点群の補正手法」,[online],電子通信大学,[令和4年7月26日検索],インターネット<URL: http://www.ddm.mi.uec.ac.jp/papers/smt2015s_onodera.pdf>
【発明の概要】
【発明が解決しようとする課題】
【0009】
本発明は、このような課題を解決するためになされたものであり、歯周ポケットの深さを正確かつ簡便に測定することが可能な歯周ポケット測定装置及び歯周ポケット測定方法を提供することを目的とする。
【課題を解決するための手段】
【0010】
本発明の一実施の形態に係る歯周ポケット測定装置は、口腔内を撮影して口腔内形状を取得するスキャナと、前記スキャナが前記撮影を行うとき、撮影対象に対し圧縮空気を噴射するエアーブロアーと、情報処理装置と、を含み、前記スキャナは、前記エアーブロアーが前記撮影対象に対し前記圧縮空気を噴射している間、前記口腔内形状を示す点群データを取得し、前記情報処理装置は、前記スキャナから前記点群データを受信するセンシングデータ取得部と、前記点群データに基づいてモデルを生成するモデル生成部と、前記モデルの特徴に基づいて、歯茎、歯根、歯肉を識別する認識部と、前記歯茎、歯根、歯肉の識別結果に基づいて歯周ポケットの深さを測定する測定部と、を有する。
一実施形態に係る歯周ポケット測定装置は、さらに、少なくとも前記歯周ポケットの深さに基づいて歯周病の進行度を判定する判定部と、を有する。
一実施の形態に係る歯周ポケット測定装置において、前記スキャナは、複数の前記点群データを連続的に取得し、前記認識部は、時間経過に伴う前記点群データの位置の変化の特徴に基づいて、歯と歯肉を識別する。
一実施の形態に係る歯周ポケット測定装置において、前記スキャナは、色情報を有する前記点群データを取得し、前記認識部は、前記点群データの位置の色情報に基づいて、前記歯茎、歯根、歯肉を識別する。
本発明の一実施の形態に係る歯周ポケット測定方法は、エアーブロアーが前記撮影対象に対し前記圧縮空気を噴射している間にスキャナが口腔内を撮影して得られた、口腔内形状を示す点群データを受信するセンシングデータ取得ステップと、前記点群データに基づいてモデルを生成するモデル生成ステップと、前記モデルの特徴に基づいて、歯茎、歯根、歯肉を識別する認識ステップと、前記歯茎、歯根、歯肉の識別結果に基づいて歯周ポケットの深さを測定する測定ステップと、を有する。
一実施の形態に係る歯周ポケット測定方法は、さらに、少なくとも前記歯周ポケットの深さに基づいて歯周病の進行度を判定する判定ステップと、を有する。
本発明の一実施の形態に係るプログラムは、上記方法をコンピュータに実行させる。
【発明の効果】
【0011】
本発明により、歯周ポケットの深さを正確かつ簡便に測定することが可能な歯周ポケット測定装置及び歯周ポケット測定方法を提供することができる。
【図面の簡単な説明】
【0012】
図1】歯周ポケット測定装置1の構成を示すブロック図である。
図2】ワンド11の外観を示す斜視図である。
図3】ワンド11の外観を示す斜視図である。
図4A】歯周ポケット測定装置1の動作を示すフローチャートである。
図4B】歯周ポケット測定装置1の動作を示すフローチャートである。
図4C】歯周ポケット測定装置1の動作を示すフローチャートである。
図4D】歯周ポケット測定装置1の動作を示すフローチャートである。
図5A】歯及び歯肉の模式図である。
図5B】歯冠、歯根及び歯肉の模式図である。
【発明を実施するための形態】
【0013】
以下、本発明を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。
【0014】
図1は、本発明の実施の形態1にかかる歯周ポケット測定装置1の構成を示すブロック図である。歯周ポケット測定装置1は、ワンド11、情報処理装置13を含む。
【0015】
ワンド11は、典型的には歯科医師や歯科衛生士をはじめとする医療スタッフ等(以下、単に歯科医師等という)が把持できるような形状を備えた杖状の機器であり、患者の口腔内形状を撮影するために使用される。図2は、本実施の形態におけるワンド11の外観を示す斜視図である。ワンド11は、スキャナ111、エアーブロアー113を備える。この例では、ワンド11の筐体内に、スキャナ111及びエアーブロアー113が内蔵されている。
【0016】
スキャナ111は、光源1111、センサ1113、カメラ1115を含む。光源1111は、対象物表面の複数の点に光を放射し、その反射光がセンサ1113によって検出される。カメラ1115は、好ましくは対象物表面のカラー画像を取得する。なお、カメラ1115はモノクロ画像を取得するものであっても良い。
【0017】
なお、図2では光源1111、センサ1113及びカメラ1115がワンド11の筐体の先端付近に露出し、並列に配置されている例を示したが、この配置は適宜変更されて良い。例えば、光源1111、センサ1113又はカメラ1115はワンド11の筐体内に外から見えないように配置されても良い。この場合、光源1111、センサ1113又はカメラ1115と筐体外部を結ぶ光路を設け、放射光又は反射光がこの光路を通るように設計することができる。
【0018】
情報処理装置13は、センシングデータ取得部131、モデル生成部133、認識部135、測定部137、判定部139を含む。
【0019】
センシングデータ取得部131は、センサ1113による反射光の検出結果を取得する。また、カメラ1115により撮影された対象物表面の画像を取得する。画像はカラー画像であることが好ましいが、モノクロ画像であっても良い。
【0020】
モデル生成部133は、センサ1113による反射光の検出結果を使用して、例えばActive wavefront sampling法や共焦点法などの公知の手法により、スキャナ111から対象物表面の各点までの距離を特定する。また、この距離に基づいて、対象物表面の各点の3次元座標を特定する。この点の集合を点群データとという。
【0021】
また、モデル生成部133は、カメラ1115が取得した対象物表面のカラー画像を使用して、点群データに色情報を付加する。通常、点群データは座標情報しか持たないが、2次元のカメラ画像上に3次元の点群データを写像し、対応する画素の色情報を点群データに対応づけることにより、点群データに色情報を持たせることができる(非特許文献1参照)。これを色付き点群データという。
【0022】
なお、カメラ1115が取得した画像がモノクロである場合、モデル生成部133は、点群データにモノクロの色情報(白黒の濃淡を示す情報)を付加する。以下、モノクロの色情報が付加された点群データについても色付き点群データと称する。
【0023】
モデル生成部133は、色付き点群データ又は色付き点群データに基づいて作成した3次元データ(ポリゴンデータやCADデータ等)を、モデルとして出力する。
【0024】
センシングデータ取得部131、モデル生成部133は、一定の間隔でセンシング及びモデル生成を繰り返し実行する。こうして生成した複数のモデルを使用することにより、モデルの時間的な変化(動きなど)を利用した各種処理が可能となる。
【0025】
認識部135は、モデル生成部133が出力したモデルから、歯冠、歯根、歯肉を認識する。典型的には、歯(歯冠、歯根を含む)と歯肉の判別手法として、エアーブロアー113噴射時の組織の動きに着目する手法と、組織の色に着目する手法がある。歯冠と歯根の判別手法としては、組織の色に着目する手法がある。そして動き、色いずれを用いる場合にも、閾値による判別手法と、機械学習による判別手法とがある。詳しくは後述する。
【0026】
測定部137は、認識部135の認識結果を使用して、歯周ポケットの深さを測定する。詳しくは後述する。
測定部137は、測定した歯周ポケットの深さを画面表示したり、データベースやファイルに出力したり、帳票に印刷するなどして出力することができる。
【0027】
判定部139は、モデル生成部133が出力したモデルが持つ情報(例えば色、動きなど)及び測定部137により測定された歯周ポケットの深さに基づいて、歯周病の進行度を判定する。詳しくは後述する。
判定部139は、判定した歯周病の進行度を画面表示したり、データベースやファイルに出力したり、帳票に印刷するなどして出力することができる。
【0028】
なお、情報処理装置13は、処理装置(CPU)、記憶装置、入出力装置、通信装置等のハードウェアを有している。上述の各処理部(131,133)は、CPUが記憶装置に格納されたプログラムを実行することによって論理的に実現される。
【0029】
エアーブロアー113は、噴射口1131から圧縮空気を噴射する。図2の例では、スキャナ111の筐体の先端付近にエアーブロアー113の噴射口1131が設けられている。噴射口1131の向きは可変であることが好ましいが、固定されていても良い。いずれにしても、噴射口1131の向きは、対象物に効率良く圧縮空気を噴射できるように設定されているものとする。エアーブロアー113は、スキャナ111が対象物の撮影を行う際(撮影前又は撮影中を含む)、対象物に圧縮空気を噴射する。噴射された圧縮空気は、対象物の表面に存在する唾液や血液等を飛散させて除去する。これにより、スキャナ111は対象物表面からの正確な反射光を取得することができる。また、歯と歯肉の間のポケット状の領域(歯肉溝)内に圧縮空気を噴射すると、圧縮空気によりポケットが押し広げられる。これにより、圧排などの措置を要せずに、歯肉縁下の歯を容易に撮影することができる。
【0030】
エアーブロアー113は、スキャナ111の動作に連動して、圧縮空気の噴射を自動的に開始するよう構成されていても良い。又は、エアーブロアー113は、圧縮空気の噴射を手動で開始するためのボタン等を備えていても良い。
【0031】
エアーブロアー113の風量又は風圧は、固定であっても可変であっても良い。可変である場合、噴射時の風量又は風圧を示す情報を情報処理装置13が取得できることが望ましい。風量又は風圧を示す情報は、例えばm3/minやPaなどの単位で表される物理量であっても良いし、単純に1,2,3,..といった風量又は風圧の大小を示す設定値であっても良い。
【0032】
なお、図2の例では、スキャナ111とエアーブロアー113とは一体化されているが、両者は分離可能に構成されていても良い。例えば、図3に示すように、従来のスキャナ111に、アタッチメント1132を介してエアーブロアー113を外付けすることで、ワンド11を実現しても良い。
【0033】
エアーブロアー113が、スキャナ111が対象物を撮影する際、対象物に圧縮空気を噴射することにより、唾液や血液等で対象物が濡れていたり、対象物が歯肉縁下にあったりするような状況でも、吸引又は圧排等の措置を要せずに、片手の操作のみで対象物の正確なモデルを取得することができる。したがって、従来よりも歯科医師等の手間や労力を軽減できる。また、患者の身体的負担も軽減できる。
【0034】
<歯冠、歯根、歯肉の識別>
(1)振動特性の相違による手法
図5Aは、歯と歯肉の模式図である。歯と歯肉の間のポケット状の領域内に圧縮空気を噴射すると、圧縮空気によりポケットが押し広げられる。圧縮空気の噴射を受けた対象物(歯と歯肉)は振動するが、振動の特性は部位により大きく異なる。すなわち、比較的柔らかい歯肉と、固くて骨に固定された歯(歯冠、歯根を含む)とでは、振幅や周期に相違が生じるはずである。
【0035】
そこで、本実施の形態では、圧縮空気を噴射しながら、歯肉縁下の歯周辺の状態を連続的に撮影する。言い換えれば、所定のフレームレートで「動画」を撮影する。次に、撮影された動画を解析して、対象物の振動特性の相違を検出する。これにより、モデルに含まれる歯と歯肉とを判別する。認識部135が、歯と歯肉とを識別する処理を行う。
【0036】
図4Aのフローチャートを用いて、振動特性の相違により歯(歯冠、歯根を含む)と歯肉を判別する歯周ポケット測定装置1の動作例について説明する。
【0037】
ステップ1:動画の撮影
歯科医師等は、ワンド11を歯肉縁下に向けて撮影を開始する。エアーブロアー113が動作を開始し、噴射された圧縮空気により歯と歯肉の間のポケットが押し広げられる。スキャナ111が撮影を開始し、所定の間隔(フレームレート)で、歯及び歯肉縁下の口腔内形状を連続的に撮影する。これにより、モデル生成部133は、時系列的に連続する複数のモデルを出力する。これは、いわば3次元の「動画」である。この「動画」は、情報処理装置13内の記憶装置に格納される。
【0038】
ステップ2:特徴点の抽出
認識部135は、「動画」に含まれる各モデルから特徴点を抽出する。典型的には、モデルに含まれる点群の全部又は一部を特徴点として利用できる。
【0039】
ステップ3:特徴点の動きの算出
認識部135は、時間的に連続する複数のモデルを比較して、対応する特徴点を見つけ出し、各フレームにおける当該特徴点の座標を記録する。この処理を全てのフレームについて行う。すなわち、時刻t1におけるモデルにおける特徴点Nの座標n1、時刻t2におけるモデルにおける特徴点Nの座標n2、時刻t3におけるモデルにおける特徴点Nの座標n3・・・を順次特定する。そして、特徴点Nの動きを示すデータセット{n1,n2,n3・・・}を生成する。他の特徴点O,P,Q・・・についても同様に処理を行う。
【0040】
ステップ4:特徴点の動きの特性に基づく歯と歯肉との判別
認識部135は、特徴点の動きの特性の違いを検出する。典型的には、閾値による判別手法と、機械学習による判別手法とがある。
【0041】
(閾値による判別)
認識部135は、特徴点Nの動きを示すデータセット{n1,n2,n3・・・}に基づいて、特徴点Nの動きを評価するための指標を算出する。例えば、特徴点Nが振動しているならば、その振幅及び周期を指標として算出することができる。他の特徴点O,P,Q・・・についても同様に指標を算出する。
【0042】
認識部135は、算出した指標に予め定義した閾値を適用することで、特徴点を分別する。例えば、振幅が閾値Xを超える特徴点に対しては歯肉を示すラベルを、閾値X以下の特徴点に対しては歯を示すラベルを付与する。ここで、閾値は、試験等により予め求められた値を採用することができる。例えば、患者の年齢や性別(図示しない記憶領域に予め記憶されているものとする)、エアーブロアー113の風量又は風圧を示す情報等に応じて異なる閾値が定義されていても良い。
【0043】
(機械学習による判別)
認識部135は、特徴点Nの動きを示すデータセット{n1,n2,n3・・・}を学習データとして使用し、機械学習を行うことにより、特徴点を支台歯と歯肉とに分別することができる。例えば、認識部135は、教師なし学習を行う機械学習部1351を有する。機械学習部1351は、多数の特徴点の動きを示すデータセットを学習データとして入力すると、その特性の違いを自動的に識別し、同じ特性を有する特徴点の集合(クラスタ)を形成する。機械学習部1351は、一方のクラスタに含まれる特徴点には歯肉を示すラベルを、他方のクラスタに含まれる特徴点には支台歯を示すラベルを付与する。
【0044】
なお、機械学習部1351は、教師あり学習や深層学習など、他の公知の機械学習手法により、特徴点を支台歯と歯肉とに分別することとしても良い。例えば教師あり学習では、学習フェーズにおいて、特徴点の動きを示すデータセットと、その特徴点が支台歯又は歯肉のいずれであるかを示すラベルと、を組にした多数の既知の教師データを機械学習部1351に与える。これにより、機械学習部1351は、特徴点の動きを示すデータセットと、その特徴点が支台歯又は歯肉のいずれであるかを示すラベルと、の相関を徐々に学習する。学習が進むと、機械学習部1351は、特徴点の動きを示す未知のデータセットを入力して、その特徴点に相関の高いラベルを出力する、推定器として動作するようになる。
【0045】
なお、学習フェーズ及び推定フェーズにおいては、特徴点の動きを示すデータセットの他に、例えば患者の年齢や性別、エアーブロアー113の風量又は風圧を示す情報等を入力しても良い。これにより、患者の年齢や性別、エアーブロアー113の風量又は風圧等に応じて最適な推定を行う学習モデルを生成することが可能となる。
【0046】
(2)色の相違による手法
図5Bは、図5Aの部分拡大図である。歯は、歯冠と歯根とに分けられる。一般に、歯冠部はエナメル質の特性である白に近い色を呈し、歯根部はセメント質の特性であるクリーム色に近い色を呈する。また、歯肉はピンク色や赤色を呈する。本実施の形態では色付き点群データを取得可能であるため、上述のような色の相違に着目して歯冠部、歯根部、歯肉を識別することが可能である。なお、モノクロ画像を使用する場合は、色を白黒の濃淡を示す情報に読み替えるものとする。
【0047】
図4Bのフローチャートを用いて、色の相違により歯冠、歯根、歯肉を判別する歯周ポケット測定装置1の動作例について説明する。
【0048】
ステップ1:撮影
歯科医師等は、ワンド11を歯肉縁下に向けて撮影を開始する。エアーブロアー113が動作を開始し、噴射された圧縮空気により歯と歯肉の間のポケットが押し広げられる。スキャナ111が撮影を開始し、モデル生成部133は歯肉縁下の口腔内形状を示す3次元のモデルを出力する。このモデルは、色付き点群データを含んでいる。モデルは、情報処理装置13内の記憶装置に格納される。
【0049】
ステップ2:特徴点の抽出
認識部135は、モデルから特徴点を抽出する。ここで特徴点には、座標情報のほか色情報も含める。典型的には、モデルに含まれる点群の全部又は一部を特徴点として利用できる。
【0050】
ステップ3:特徴点の色に基づく歯冠、歯根、歯肉の判別
認識部135は、特徴点の色の違いを検出する。典型的には、閾値による判別手法と、機械学習による判別手法とがある。
【0051】
(閾値による判別)
認識部135は、特徴点Nの色を評価するための指標を算出する。例えば、特徴点Nが保持している色情報のRGB値を指標として用いることができる。
【0052】
認識部135は、算出した指標に予め定義した閾値を適用することで、特徴点を分別する。例えば、RGBの各値がr1<R≦r2、g1<G≦g2、かつb1<B≦b2であれば歯冠、r3<R≦r4、g3<G≦g4、かつb3<B≦b4であれば歯根、r5<R≦r6、g5<G≦g6、かつb5<B≦b6であれば歯肉を示すラベルをそれぞれ付与する。ここで、閾値は、試験等により予め求められた値を採用することができる。例えば、患者の年齢や性別に応じて異なる閾値が定義されていても良い。
【0053】
同様の手法として色クラスタリング、減色又は単純化がある。色クラスタリングは、例えばK-means法などの公知技術により実現できる。特徴点の色は実際にはそれぞれ異なるところ、色数Kを指定して色クラスタリングをおこなうことにより、特徴点の色をK個の色に分類することができる。認識部135は、各クラスタに分類された特徴点に対し、クラスタ(歯冠、歯根、歯肉)を示すラベルを付与する。
【0054】
(機械学習による判別)
認識部135は、特徴点Nの色情報を学習データとして使用し、機械学習を行うことにより、特徴点を歯冠、歯根、歯肉に分別することができる。例えば、認識部135は、教師なし学習を行う機械学習部1351を有する。機械学習部1351は、多数の特徴点の色を示すデータセットを学習データとして入力すると、その特性の違いを自動的に識別し、同じ特性を有する特徴点の集合(クラスタ)を形成する。機械学習部1351は、白に近い色クラスタに含まれる特徴点には歯冠を示すラベルを、クリーム色に近い色クラスタに含まれる特徴点には歯根を示すラベルを、赤色に近い色クラスタに含まれる特徴点には歯肉を示すラベルを付与する。
【0055】
なお、機械学習部1351は、教師あり学習や深層学習など、他の公知の機械学習手法により、特徴点を歯冠、歯根、歯肉とに分別することとしても良い。例えば教師あり学習では、学習フェーズにおいて、特徴点の色を示すデータと、その特徴点が歯冠、歯根、歯肉のいずれであるかを示すラベルと、を組にした多数の既知の教師データを機械学習部1351に与える。これにより、機械学習部1351は、特徴点の色を示すデータと、その特徴点が歯冠、歯根、歯肉のいずれであるかを示すラベルと、の相関を徐々に学習する。学習が進むと、機械学習部1351は、特徴点の色を示す未知のデータを入力して、その特徴点に相関の高いラベルを出力する、推定器として動作するようになる。
【0056】
なお、学習フェーズ及び推定フェーズにおいては、特徴点の色を示すデータの他に、例えば患者の年齢や性別を示す情報等を入力しても良い。これにより、患者の年齢や性別に応じて最適な推定を行う学習モデルを生成することが可能となる。
【0057】
ステップ4:歯の種類の判別
認識部135は、特徴点群に含まれる歯のひとつひとつを認識し、それぞれの種類を特定する。すなわち、各歯の種類(一般に中切歯、側切歯、犬歯・・・といった名称や、1番、2番、3番・・・といった番号で識別される)を特定する。この処理は、例えば特許文献3に記載されているような公知技術を利用することで実現できる。
【0058】
<歯周ポケットの深さの測定>
測定部137は、認識部135により歯冠、歯根、歯肉に分類された特徴点を使用して、歯周ポケットの深さを測定する。
(1)歯冠-歯根境界からポケット底までの深さを測定する手法
測定部137は、歯冠-歯根境界からポケット底までの深さ(図5B参照)を測定し、これを歯周ポケットの深さとして出力する。図4Cのフローチャートを用いて、歯周ポケット測定装置1の動作例について説明する。
【0059】
ステップ1:歯冠-歯根境界線の特定
測定部137は、歯冠-歯根の境界線を特定する。具体的には、例えば歯冠クラスタに属する特徴点群と、歯根クラスタに属する特徴点群の境界線を示す3次元の曲線オブジェクトを生成する。
【0060】
ステップ2:ポケット底の特定
測定部137は、ポケット底を特定する。具体的には、例えば歯根クラスタに属する特徴点群と、歯肉クラスタに属する特徴点群の境界線を示す3次元の曲線オブジェクトを生成する。又は、測定部137は、単に歯肉の最も低いところを繋いだ線を示す3次元の曲線オブジェクトを生成し、ポケット底としても良い。
【0061】
ステップ3:測定点の設定
一般に、歯周ポケットの深さの測定は、歯1本あたり数カ所の測定点で行われる。ここでいう測定点とは、従来、歯肉溝に探針を差し込んでいた場所のことである。同様に、測定部137は、歯冠-歯根境界線上に複数の測定点を設定する。設定する測定点の数及び設定の方法は任意である。
【0062】
ステップ4:歯周ポケットの深さの測定
測定部137は、歯冠-歯根境界線上に設定した測定点と、測定点から最も近いポケット底上の点と、の垂直距離(高さの差分)を算出し、歯周ポケットの深さとして出力する。
【0063】
なお、ステップ3の測定点はポケット底上に設けても良い。この場合、測定部137はステップ4で、ポケット底上に設定した測定点と、測定点から最も近い歯冠-歯根境界線上の点と、の垂直距離(高さの差分)を算出し、歯周ポケットの深さとして出力する。
(2)歯肉頂からポケット底までの深さを測定する手法
測定部137は、歯肉頂からポケット底までの深さ(図5B参照)を測定し、これを歯周ポケットの深さとして出力する。図4Dのフローチャートを用いて、歯周ポケット測定装置1の動作例について説明する。
【0064】
ステップ1:ポケット底の特定
測定部137は、ポケット底を特定する。具体的には、例えば歯根クラスタに属する特徴点群と、歯肉クラスタに属する特徴点群の境界線を示す3次元の曲線オブジェクトを生成する。又は、測定部137は、単に歯肉の最も低いところを繋いだ線を示す3次元の曲線オブジェクトを生成し、ポケット底としても良い。
【0065】
ステップ2:歯肉頂線の設定
測定部137は、歯肉頂(歯肉の最も高いところ)を繋いだ線(歯肉頂線という)を示す3次元の曲線オブジェクトを生成する。
【0066】
ステップ3:測定点の設定
測定部137は、ポケット底上に複数の測定点を設定する。設定する測定点の数及び設定の方法は任意である。
【0067】
ステップ4:歯周ポケットの深さの測定
測定部137は、ポケット底上に設定した測定点と、測定点から最も近い歯肉頂線上の点と、の垂直距離(高さの差分)を算出し、歯周ポケットの深さとして出力する。
【0068】
なお、ステップ3の測定点は歯肉頂線上に設けても良い。この場合、測定部137はステップ4で、歯肉頂線上に設定した測定点と、測定点から最も近いポケット底上の点と、の垂直距離(高さの差分)を算出し、歯周ポケットの深さとして出力する。
【0069】
<歯周ポケットの進行度の判定>
判定部139は、モデルが持つ情報(例えば歯肉などの色、エアを噴射した際の歯肉の動きなど)、歯周ポケットの深さに基づいて、歯周病の進行度を判定する。
【0070】
歯周病の進行に伴い、歯周ポケットの深さは増加する傾向があることが知られている。また、歯肉が炎症を起こすことにより、鬱血して歯肉が赤みがかったり、歯肉に締まりがなくなるためエアを噴射した際の振動が大きくなったりする傾向がある。従来は、これらの所見を総合して歯科医師が歯周病の進行度を判定していた。しかしながら、その判定にばらつきがあると、例えば歯周病の治療の成果を正確にトレースすることが困難になってしまう。そこで、本実施の形態では、機械学習により歯周病の進行度合いを判定し、より客観的なデータに基づく治療を支援する。
【0071】
機械学習部1351は、教師あり学習や深層学習など、公知の機械学習手法により、歯周病の進行度を判定することができる。例えば教師あり学習では、学習フェーズにおいて、特徴点の座標及び色情報、特徴点の動きを示す時系列データ(図4Aのステップ3参照)又は特徴点の動きを示す指標(振幅、周期、振動数など)、測定点の座標、測定点における歯周ポケットの深さなどを含むデータセットと、歯周病の進行度を示すラベルと、を組にした多数の既知の教師データを機械学習部1351に与える。ここで歯周病の進行度を示すラベルは、歯科医師による診断結果を用いることができる。例えば、歯科医師は、歯周ポケットの深さが3mm以下であれば「健康」、歯周ポケットの深さが3-5mm程度であって、歯肉が赤く腫れブヨブヨしているときは「軽度歯周病」、歯周ポケットの深さが5-7mm程度であって歯槽骨が溶け始めているときは「中度歯周病」、歯周ポケットの深さが7mm以上であって骨吸収が進み歯がぐらぐらしているときは「重度歯周病」と診断することがある。このような「健康」「軽度歯周病」「中度歯周病」「重度歯周病」といった診断結果が、学習フェーズにおけるラベルとして使用されうる。
【0072】
これにより、機械学習部1351は、データセットに含まれる種々の情報と、歯周病の進行度を示すラベルと、の相関を徐々に学習する。学習が進むと、機械学習部1351は、未知のデータセットを入力して、そのデータセットに相関の高いラベルすなわち歯周病の進行度を出力する、推定器として動作するようになる。
【0073】
なお、判定部139は、モデルが持つ情報(例えば歯肉などの色、エアを噴射した際の歯肉の動きなど)、歯周ポケットの深さに加えて、患者の年齢、歯の種類に関する情報を利用して歯周病の進行度を判定しても良い。歯肉の退縮の進行状況は、患者の年齢、歯の種類によってある程度異なることが知られている。これらの情報を利用することにより、患者の年齢、歯の種類に応じたより適切な判定が可能となる。
【0074】
この場合も、機械学習部1351は、教師あり学習や深層学習など、公知の機械学習手法により、患者の年齢、歯の種類を加味して歯周病の進行度を判定することができる。例えば教師あり学習では、学習フェーズにおいて、特徴点の座標及び色情報、特徴点の動きを示す時系列データ又は特徴点の動きを示す指標、測定点の座標、測定点における歯周ポケットの深さ、測定点が設定された歯の種類(認識部135が特定したものを使用する)、患者の年齢(図示しない記憶領域に予め記憶されているものとする)を含むデータセットと、歯周病の進行度を示すラベルと、を組にした多数の既知の教師データを機械学習部1351に与える。ここで歯周病の進行度を示すラベルは、歯科医師による診断結果を用いることができる。
【0075】
これにより、機械学習部1351は、患者の年齢、歯の種類に関する情報を含むデータセットと、歯周病の進行度を示すラベルと、の相関を徐々に学習する。学習が進むと、機械学習部1351は、未知のデータセットを入力して、そのデータセットに相関の高いラベルすなわち歯周病の進行度を出力する、推定器として動作するようになる。
【0076】
<測定結果、判定結果の保存及び利用>
測定部137は、測定した歯周ポケットの深さの測定結果を、例えば患者の識別子や測定日時と共に、図示しない記憶領域に保存することができる。同様に、判定部139は、歯周病の進行度の判定結果を、患者の識別子や測定日時と共に、図示しない記憶領域に保存することができる。この際、測定又は判定に使用されたカメラ撮影画像やセンシングデータ、モデル等と共に保存しても良い。
【0077】
患者が歯科医院に来院するたびに上述の測定及び判定を行うと、各患者の歯周ポケットの深さ、歯周病の進行度に関する履歴情報が時系列で蓄積されていくことになる。この履歴情報は、患者の治療経過を示すエビデンスとして利用することができる。例えば、過去複数回分の、各測定点における歯周ポケットの深さの測定結果、歯周病の進行度の判定結果、カメラ撮影画像を表やタイムライン等の形式で並べて表示する。歯周ポケットの深さの測定結果のような数値データであれば、グラフによりその時間変化を表現することもできる。これらの時系列の情報に基づいて、患者の歯周病が改善している、又は歯周病が悪化しているといった判断を提示しても良い。これらの表示は、例えば画面、ファイル、帳票等に出力することで実現されうる。
【0078】
なお、上述の実施の形態では、特徴点の座標及び色情報、特徴点の動きを示す時系列データ(図4Aのステップ3参照)又は特徴点の動きを示す指標(振幅、周期、振動数など)、測定点の座標、測定点における歯周ポケットの深さなどをデータセットに含めうることとしたが、これらはあくまで例示であり、これらの情報の一部のみを利用してもよく、ここに示されていない情報をデータセットに含めることとしても良い。
【0079】
本実施の形態によれば、歯周ポケット測定装置1は、時系列的に連続するモデルデータを解析することにより、歯と歯肉とを、その挙動の違いに応じて判別することができる。また、色付き点群データを利用することにより、歯茎、歯根、歯肉を色の違いに応じて判別することができる。そして、これらの解析結果に基づいて歯周ポケットの深さを正確かつ簡便に推定し、また歯周病の進行度を客観的に判定することができる。
【0080】
なお、本発明は上述の実施の形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲において適宜変更することが可能である。例えば、上述の実施の形態において、歯周ポケット測定装置1は3次元点群データを取得したが、例えば2次元の画像データを取得するものであっても良い。この場合、モデル生成部133は、複数の2次元画像データに基づいて3次元モデルを構築することができる。なお、2次元画像からの3次元モデル構築手法は公知技術であるため詳細な説明は割愛する。
【0081】
また、歯周ポケット測定装置1は、点群データを取得する際、色情報(白黒の濃淡に関する情報も含む)に加えて温度等に関する情報を追加で取得しても良い。この場合、例えば、機械学習部1351がこれらの追加的な情報を学習データとして用いるならば、判別精度を向上させることが可能である。
【符号の説明】
【0082】
1 歯周ポケット測定装置
11 ワンド
111 スキャナ
1111 光源
1113 センサ
1115 カメラ
113 エアーブロアー
1131 噴射口
1132 アタッチメント
13 情報処理装置
131 センシングデータ取得部
133 モデル生成部
135 認識部
1351 機械学習部
137 測定部
139 判定部
図1
図2
図3
図4A
図4B
図4C
図4D
図5A
図5B