(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2022-10-13
(45)【発行日】2022-10-21
(54)【発明の名称】口内状態判定装置、口内状態判定方法及びプログラム
(51)【国際特許分類】
A61C 19/04 20060101AFI20221014BHJP
【FI】
A61C19/04 Z
A61C19/04 J
(21)【出願番号】P 2018187666
(22)【出願日】2018-10-02
【審査請求日】2021-06-25
(73)【特許権者】
【識別番号】000006769
【氏名又は名称】ライオン株式会社
(74)【代理人】
【識別番号】100165179
【氏名又は名称】田▲崎▼ 聡
(74)【代理人】
【識別番号】100152272
【氏名又は名称】川越 雄一郎
(74)【代理人】
【識別番号】100153763
【氏名又は名称】加藤 広之
(72)【発明者】
【氏名】鈴木 大輝
(72)【発明者】
【氏名】木村 光夫
(72)【発明者】
【氏名】鈴木 苗穂
(72)【発明者】
【氏名】柚鳥 眞里
(72)【発明者】
【氏名】石田 和裕
(72)【発明者】
【氏名】岡 謙吾
【審査官】黒田 正法
(56)【参考文献】
【文献】国際公開第2013/018522(WO,A1)
【文献】国際公開第2015/008491(WO,A1)
【文献】特表2009-543654(JP,A)
【文献】特開2018-126559(JP,A)
【文献】国際公開第2017/175673(WO,A1)
【文献】特開2014-036880(JP,A)
【文献】独国特許出願公開第102012103970(DE,A1)
【文献】米国特許出願公開第2008/0026340(US,A1)
【文献】米国特許出願公開第2016/0151026(US,A1)
【文献】特開2016-119950(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
A61C 19/04
(57)【特許請求の範囲】
【請求項1】
1本以上の歯と、歯茎のうち当該歯に対応する部分とが撮像された画像のなかから、歯を1本ずつ識別する識別部と、
前記識別部によって識別された結果に基づいて、前記画像に撮像されている歯茎のうち、前記識別部によって識別された歯に対応する部分の歯茎の状態を、前記識別部によって識別された歯ごとに
、少なくとも2種類の評価項目によって判定する第1判定部と、
前記第1判定部の判定結果
を、前記評価項目ごとに、前記画像に撮像されている複数の歯について統計演算することにより、前記画像に撮像されている歯茎全体の状態を判定する第2判定部と、
前記第1判定部による判定結果又は前記第2判定部による判定結果を提示する提示部と、
を備える口内状態判定装置。
【請求項2】
前記第1判定部は、
前記歯茎の状態を、少なくとも3段階の評価段階によって判定する
請求項1に記載の口内状態判定装置。
【請求項3】
前記第1判定部による判定結果又は前記第2判定部による判定結果に基づいて、判定結果に応じた口内ケア情報を取得する口内ケア情報取得部
をさらに備え、
前記提示部は、前記口内ケア情報取得部が取得する口内ケア情報をさらに提示する
請求項1
又は請求項2に記載の口内状態判定装置。
【請求項4】
コンピュータが、1本以上の歯と、歯茎のうち当該歯に対応する部分とが撮像された画像のなかから、歯を1本ずつ識別する識別ステップと、
コンピュータが、前記識別ステップにおいて識別された結果に基づいて、前記画像に撮像されている歯茎のうち、前記識別ステップにおいて識別された歯に対応する部分の歯茎の状態を、前記識別ステップにおいて識別された歯ごとに
、少なくとも2種類の評価項目によって判定する第1判定ステップと、
コンピュータが、前記第1判定ステップにおける判定結果
を、前記評価項目ごとに、前記画像に撮像されている複数の歯について統計演算することにより、前記画像に撮像されている歯茎全体の状態を判定する第2判定ステップと、
コンピュータが、前記第1判定ステップにおいて判定された判定結果又は前記第2判定ステップにおいて判定された判定結果を提示する提示ステップと、
を有する口内状態判定方法。
【請求項5】
コンピュータに、
1本以上の歯と、歯茎のうち当該歯に対応する部分とが撮像された画像のなかから、歯を1本ずつ識別する識別ステップと、
前記識別ステップにおいて識別された結果に基づいて、前記画像に撮像されている歯茎のうち、前記識別ステップにおいて識別された歯に対応する部分の歯茎の状態を、前記識別ステップにおいて識別された歯ごとに
、少なくとも2種類の評価項目によって判定する第1判定ステップと、
前記第1判定ステップにおける判定結果
を、前記評価項目ごとに、前記画像に撮像されている複数の歯について統計演算することにより、前記画像に撮像されている歯茎全体の状態を判定する第2判定ステップと、
前記第1判定ステップにおいて判定された判定結果又は前記第2判定ステップにおいて判定された判定結果を提示する提示ステップと、
を実行させるためのプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、口内状態判定装置、口内状態判定方法及びプログラムに関する。
【背景技術】
【0002】
従来、歯肉組織の画像を評価する技術が開示されている(例えば、特許文献1を参照)。
【先行技術文献】
【特許文献】
【0003】
【発明の概要】
【発明が解決しようとする課題】
【0004】
特許文献1に示すような技術によると、画像の色値に基づいて歯肉組織の画像を抽出することにより、その健康状態を評価する。しかしながら、特許文献1に示すような技術によると、歯肉組織の位置や形状を認識することが難しい場合があり、このような場合には、歯科医や歯科衛生士などの専門家が目視で評価した場合に比べて、その評価結果の精度が低いという課題があった。
【課題を解決するための手段】
【0005】
本発明の一実施形態は、1本以上の歯と、歯茎のうち当該歯に対応する部分とが撮像された画像のなかから、歯を1本ずつ識別する識別部と、前記識別部によって識別された結果に基づいて、前記画像に撮像されている歯茎のうち、前記識別部によって識別された歯に対応する部分の歯茎の状態を、前記識別部によって識別された歯ごとに、少なくとも2種類の評価項目によって判定する第1判定部と、前記第1判定部の判定結果を、前記評価項目ごとに、前記画像に撮像されている複数の歯について統計演算することにより、前記画像に撮像されている歯茎全体の状態を判定する第2判定部と、前記第1判定部による判定結果又は前記第2判定部による判定結果を提示する提示部と、を備える口内状態判定装置である。
【0006】
本発明の一実施形態は、上述の口内状態判定装置において前記第1判定部は、前記歯茎の状態を、少なくとも3段階の評価段階によって判定する。
【0009】
本発明の一実施形態は、上述の口内状態判定装置において前記第1判定部による判定結果又は前記第2判定部による判定結果に基づいて、判定結果に応じた口内ケア情報を取得する口内ケア情報取得部をさらに備え、前記提示部は、前記口内ケア情報取得部が取得する口内ケア情報をさらに提示する。
【0010】
本発明の一実施形態は、コンピュータが、1本以上の歯と、歯茎のうち当該歯に対応する部分とが撮像された画像のなかから、歯を1本ずつ識別する識別ステップと、
コンピュータが、前記識別ステップにおいて識別された結果に基づいて、前記画像に撮像されている歯茎のうち、前記識別ステップにおいて識別された歯に対応する部分の歯茎の状態を、前記識別ステップにおいて識別された歯ごとに、少なくとも2種類の評価項目によって判定する第1判定ステップと、コンピュータが、前記第1判定ステップにおける判定結果を、前記評価項目ごとに、前記画像に撮像されている複数の歯について統計演算することにより、前記画像に撮像されている歯茎全体の状態を判定する第2判定ステップと、コンピュータが、前記第1判定ステップにおいて判定された判定結果又は前記第2判定ステップにおいて判定された判定結果を提示する提示ステップと、を有する口内状態判定方法である。
【0011】
本発明の一実施形態は、コンピュータに、1本以上の歯と、歯茎のうち当該歯に対応する部分とが撮像された画像のなかから、歯を1本ずつ識別する識別ステップと、前記識別ステップにおいて識別された結果に基づいて、前記画像に撮像されている歯茎のうち、前記識別ステップにおいて識別された歯に対応する部分の歯茎の状態を、前記識別ステップにおいて識別された歯ごとに、少なくとも2種類の評価項目によって判定する第1判定ステップと、前記第1判定ステップにおける判定結果を、前記評価項目ごとに、前記画像に撮像されている複数の歯について統計演算することにより、前記画像に撮像されている歯茎全体の状態を判定する第2判定ステップと、前記第1判定ステップにおいて判定された判定結果又は前記第2判定ステップにおいて判定された判定結果を提示する提示ステップと、を実行させるためのプログラムである。
【発明の効果】
【0012】
本発明によれば、歯茎の状態の判定精度を向上させることができる口内状態判定装置、口内状態判定方法及びプログラムを提供することができる。
【図面の簡単な説明】
【0013】
【
図1】第1実施形態の口内状態判定システムの機能構成の一例を示す図である。
【
図2】本実施形態の口内状態判定システムの動作の一例を示す図である。
【
図3】本実施形態のホーム画面の一例を示す図である。
【
図4】本実施形態の撮影画面の一例を示す図である。
【
図5】本実施形態の画像確認画面の一例を示す図である。
【
図6】本実施形態の識別部による歯Tの識別結果の一例を示す図である。
【
図7】本実施形態の歯毎画像の一例を示す図である。
【
図8】本実施形態の歯茎の色の評価段階の一例を示す図である。
【
図9】本実施形態の歯茎の腫れの評価段階の一例を示す図である。
【
図10】本実施形態の歯茎下がりの評価段階の一例を示す図である。
【
図11】本実施形態の第1の判定結果画面の一例を示す図である。
【
図12】本実施形態の第2の判定結果画面の一例を示す図である。
【
図13】第2実施形態の口内状態判定システムの機能構成の一例を示す図である。
【
図14】本実施形態の口内ケア情報表示画面の一例を示す図である。
【発明を実施するための形態】
【0014】
[第1実施形態]
以下、図面を参照して本実施形態の口内状態判定システム1について説明する。
図1は、第1実施形態の口内状態判定システム1の機能構成の一例を示す図である。
口内状態判定システム1は、口内状態判定装置10と、端末装置20とを備える。口内状態判定装置10と端末装置20とは、ネットワークNを介して互いに接続される。
口内状態判定装置10は、例えば、サーバ装置によって構成される。端末装置20は、例えば、スマートフォンやタブレットによって構成される。
【0015】
[端末装置20の機能構成]
端末装置20は、カメラCAMと、表示部DPとを備える。カメラCAMは、端末装置20の操作者の操作に基づいて撮像を行う。表示部DPは、例えば、液晶ディスプレイを備えており、カメラCAMによって撮像される画像や、口内状態判定装置10からネットワークNを介して送信される情報を表示する。
端末装置20は、カメラCAMによって撮像された画像などの情報を、ネットワークNを介して口内状態判定装置10に送信する。
なお、口内状態判定装置10と端末装置20との間において、画像や文字などの情報は、上述したようにネットワークNを介して通信されるが、以下の説明においては、ネットワークNを介するとの説明は省略する。
【0016】
本実施形態の一例では、端末装置20は、口内状態判定装置10に対して口内画像OPを送信する。口内画像OPとは、被験者の口内が撮像された画像である。一例として、口内画像OPとは、端末装置20のカメラCAMによって撮像された、端末装置20の操作者の口内の画像である。この口内画像OPには、1本以上の歯Tと、この歯Tの周囲の歯茎Gとが撮像されている。
なお、以下の説明において、歯Tの周囲の歯茎Gのことを、歯茎Gのうち、歯Tに対応する部分とも称する。換言すれば、口内画像OPとは、1本以上の歯Tと、歯茎Gのうち当該歯Tに対応する部分とが撮像された画像である。
また、以下の説明においては、口内画像OPに、18本の歯T(歯T1~歯T18)が撮像されている場合を一例として説明する。
【0017】
[口内状態判定装置10の機能構成]
口内状態判定装置10は、通信部110と、画像取得部120と、識別部130と、第1判定部140と、第2判定部150とを備える。
【0018】
通信部110は、端末装置20との通信を行う。以下の通信部110は、端末装置20から送信される情報を受信する。また、通信部110は、口内状態判定装置10において生成された情報を端末装置20に送信する。
通信部110は、端末装置20から受信した情報を、画像取得部120に出力する。本実施形態の一例では、通信部110が受信する情報には、上述した口内画像OPが含まれている。
画像取得部120は、通信部110が受信した情報のうち、口内画像OPを取得する。画像取得部120は、取得した口内画像OPを、識別部130に出力する。
【0019】
識別部130は、口内画像OPに撮像されている歯Tを1本ずつ識別する。上述したように、口内画像OPには、1本以上の歯Tが撮像されている。上述の一例のように、口内画像OPに、18本の歯Tが撮像されている場合には、識別部130は、これら歯T1~歯T18を、1本ずつ識別する。
具体的な一例として、識別部130は、口内画像OPのうち歯Tが撮像されている領域の座標値を、歯Tごとに、歯Tの識別結果として出力する。
なお、以下の説明において、識別部130が識別した1本ずつの歯Tの画像のことを、歯毎画像STPとも称する。
識別部130は、口内画像OPの歯Tの識別結果を、第1判定部140に出力する。
【0020】
上述したように、口内画像OPには、歯Tと歯茎Gとが撮像されている。
第1判定部140は、口内画像OPに撮像されている歯茎Gのうち、識別部130によって識別された歯Tに対応する部分の歯茎Gの状態を、識別部130によって識別された歯Tごとに判定する。
上述の一例の場合、第1判定部140は、歯T1について、歯T1に対応する歯茎G1の状態を判定する。また、第1判定部140は、歯T2、歯T3、…、歯T18について、それぞれの歯Tに対応する歯茎G2、歯茎G3、…、歯茎G18の状態を判定する。
第1判定部140は、歯Tごとに判定した歯茎Gの状態を、歯毎判定結果RS1として第2判定部150に出力する。また、第1判定部140は、歯毎判定結果RS1を通信部110に出力する。
【0021】
第2判定部150は、第1判定部140の歯毎判定結果RS1に基づいて、口内画像OPに撮像されている歯茎G全体の状態を判定する。
上述の一例の場合、歯毎判定結果RS1には、歯茎G1~歯茎G18のそれぞれの状態を示す情報が含まれている。第2判定部150は、これら歯茎G1~歯茎G18のそれぞれの状態を示す情報に基づいて、歯茎G全体の状態を判定する。
第2判定部150は、歯茎G全体の状態の判定結果を歯茎全体判定結果RS2として110に出力する。
【0022】
通信部110は、第1判定部140による歯毎判定結果RS1又は第2判定部150による歯茎全体判定結果RS2を提示する。ここで、判定結果を提示することには、判定結果を端末装置20に送信することや、口内状態判定装置10が備える表示装置(不図示)に表示することなどが含まれる。
【0023】
[口内状態判定システム1の動作(運用段階)]
次に、
図2を参照して、口内状態判定システム1の動作の一例について説明する。
図2は、本実施形態の口内状態判定システム1の動作の一例を示す図である。
【0024】
(ステップS210)端末装置20は、ホーム画面(画像P1)を表示する。
図3を参照して、ホーム画面(画像P1)の一例を説明する。
【0025】
図3は、本実施形態のホーム画面の一例を示す図である。ホーム画面(画像P1)には、前回の判定結果の表示操作を受け付ける画像(画像P11)と、前回の判定結果を示す画像(画像P12、画像P13)と、口内状態の判定の開始操作を受け付ける画像(画像P14)とが表示される。口内状態の判定の開始操作を受け付ける画像(画像P14)が操作者によって操作(例えば、タップ操作)されると、端末装置20は、処理をステップS220に進める。
【0026】
(ステップS220)
図2に戻り、端末装置20は、撮影画面(画像P2)を表示する。
図4を参照して、撮影画面(画像P2)の一例を説明する。
【0027】
図4は、本実施形態の撮影画面の一例を示す図である。撮影画面(画像P2)には、カメラCAMによって撮影されている動画像が、いわゆるライブビュー形式によって表示される。また、撮影画面(画像P2)には、撮影ガイド画像(画像P21~画像P23)と、撮影操作を受け付ける画像(画像P24)とが表示される。
ここで、撮影ガイド画像(画像P21)とは、被験者の口唇の外形の位置合わせをするためのガイド枠である。被験者は、口唇を左右に引き、歯Tと歯茎Gとが表示部DPに表示される状態にして、このガイド枠に口唇の輪郭を合わせる。
撮影ガイド画像(画像P22)とは、被験者の上下の歯Tの噛み合わせ位置の位置合わせをするための水平ラインである。被験者は、この水平ラインに上下の歯Tの噛み合わせ位置を合わせる。
撮影ガイド画像(画像P23)とは、被験者の顔正面(正中)の位置合わせをするための垂直ラインである。被験者は、この垂直ラインに顔正面の位置を合わせる。
撮影操作を受け付ける画像(画像P24)が操作者によって操作(例えば、タップ操作)されると、端末装置20は、表示部DPに表示されるカメラCAMの撮影画像を、動画像から静止画像に切り替え、処理をステップS230に進める。
【0028】
(ステップS230)
図2に戻り、端末装置20は、画像確認画面(画像P3)を表示する。
図5を参照して、画像確認画面(画像P3)の一例を説明する。
【0029】
図5は、本実施形態の画像確認画面の一例を示す図である。画像確認画面(画像P3)には、カメラCAMによって撮影された静止画像が表示される。また、画像確認画面(画像P3)には、画像確認のコメント文(画像P31)と、撮影ガイド画像(画像P32)と、画像の拡大縮小操作のコメント文(画像P33)と、取り直し操作を受け付ける画像(画像P34)と、判定開始操作を受け付ける画像(画像P35)とが表示される。
画像確認画面(画像P3)に表示される静止画像が操作者によって操作(例えば、ピンチアウト操作又はピンチイン操作)されると、端末装置20は、表示部DPに表示される静止画像のサイズを、拡大又は縮小する。また、取り直し操作を受け付ける画像(画像P34)が操作者によって操作(例えば、タップ操作)されると、端末装置20は、処理をステップS220に戻す。また、判定開始操作を受け付ける画像(画像P35)が操作者によって操作(例えば、タップ操作)されると、端末装置20は、処理をステップS240に進める。
【0030】
(ステップS240)
図2に戻り、端末装置20は、ステップS230において確認された静止画像を口内画像OPとして口内状態判定装置10に送信する。
【0031】
(ステップS110)口内状態判定装置10の通信部110及び画像取得部120は、ステップS240において端末装置20から送信された口内画像OPを取得する。
【0032】
(ステップS120)口内状態判定装置10の識別部130は、ステップS110において取得された口内画像OPについて、歯Tを1本ずつ識別する。識別部130による歯Tの識別結果の一例を
図6に示す。
【0033】
図6は、本実施形態の識別部130による歯Tの識別結果の一例を示す図である。識別部130は、口内画像OPに含まれる1本ずつの歯Tに対応する歯毎画像STPを、口内画像OPから切り出す。本実施形態の一例では、識別部130は、歯T1~歯T18の18本の歯Tを1本ずつ識別している。この一例の場合、識別部130は、これら歯T1から歯T18のうちn番目(nは自然数)の歯Tnについての画像を、歯毎画像STPnとして口内画像OPから切り出す。例えば、識別部130は、歯T1についての画像を、歯毎画像STP1として口内画像OPから切り出す。
【0034】
(ステップS130)
図2に戻り、口内状態判定装置10の第1判定部140は、ステップS120において識別された歯Tそれぞれに対応する歯茎Gの状態を判定する。第1判定部140は、歯毎画像STPに基づいて歯茎Gの状態を判定する。歯毎画像STPの一例を
図7に示す。
【0035】
図7は、本実施形態の歯毎画像STPの一例を示す図である。歯毎画像STPには、歯領域TPと、歯茎領域GPとが含まれる。ここで、歯毎画像STPには、口唇を含まないことが望ましい。口唇を含まない方法としては、例えば、口唇を含まないように歯茎G2からの所定長さで口内画像OPから切り出す方法や、口唇を認識するように学習させた機械学習モデルによって口唇を含まないように口内画像OPから切り出す方法を使用できる。第1判定部140は、この歯毎画像STPに含まれる歯茎領域GPの状態を判定する。
なお、第1判定部140は、歯茎領域GPのうち、歯間乳頭部(例えば、歯茎G1及び歯茎G3)や、歯肉辺縁(例えば、歯茎G2)の部分の状態を判定対象に含めて、歯茎領域GPの状態を判定してもよい。また、被験者が撮影画像(画像P2)を撮影する場合に歯茎領域GPが口唇により十分に露出されない可能性がある。その場合には、歯間乳頭部および歯肉辺縁の部分のみ、または、歯間乳頭部または歯肉辺縁のいずれか一方の部分のみで歯茎領域GPの状態を判定してもよい。この場合において、第1判定部140は、歯茎G1~歯茎G3のうち、最も状態が悪い部分の評価スコアを、この歯Tについての評価スコアとしてもよい。
【0036】
第1判定部140は、歯茎Gの状態を、少なくとも2種類の評価項目EVによって判定する。本実施形態の一例では、第1判定部140は、歯茎Gの色、腫れ、歯茎下がりの3種類の評価項目EVによって、歯茎Gの状態を判定する。
第1判定部140による評価項目ごとの評価段階LVの一例について
図8から
図10を参照して説明する。
【0037】
図8は、本実施形態の歯茎Gの色の評価段階LVの一例を示す図である。第1判定部140は、歯茎Gの色を評価スコア0~評価スコア2の3段階の評価段階LVによって評価する。
図9は、本実施形態の歯茎Gの腫れの評価段階LVの一例を示す図である。第1判定部140は、歯茎Gの腫れを評価スコア0~評価スコア2の3段階の評価段階LVによって評価する。
図10は、本実施形態の歯茎下がりの評価段階LVの一例を示す図である。第1判定部140は、歯茎下がりを評価スコア0~評価スコア2の3段階の評価段階LVによって評価する。
これら評価スコアには、評価コメントがそれぞれ対応づけられている。この評価スコアと評価コメントとの対応表は、口内状態判定装置10が備える記憶部(不図示)又は外部の装置に予め記憶されている。
【0038】
上述したように第1判定部140は、歯茎Gの状態を、少なくとも3段階の評価段階LVによって判定する。
第1判定部140は、歯茎Gの状態の判定の結果を歯毎判定結果RS1として第2判定部150及び通信部110に出力する。
【0039】
[口内状態判定システム1の学習段階の動作]
なお、上述した識別部130及び第1判定部140は、それぞれ機械学習モデルによって構成されていてもよい。
一例として、識別部130は、物体認識を得意とする機械学習モデルによって構成される。この場合、識別部130の学習段階において、識別部130に対して種々の口内画像OPの画像を与え、口内画像OPから、歯Tと歯茎Gとを含む歯毎画像STPを切り出せるように教師付き学習を行う。
また一例として、第1判定部140は、画像分類を得意とする機械学習モデルによって構成される。この場合、第1判定部140の学習段階において、第1判定部140に対して種々の歯毎画像STPの画像を与え、歯科医や歯科衛生士などの専門家による歯毎画像STPの判定結果を教師データとして教師付き学習を行う。
【0040】
(ステップS140)
図2に戻り、口内状態判定装置10の第2判定部150は、歯毎判定結果RS1に基づいて、口内画像OPに撮像されている歯茎G全体の状態を判定する。ここで、第2判定部150は、第1判定部140による歯Tごとの歯毎判定結果RS1を、口内画像OPに撮像されている複数の歯Tについて統計演算することにより、歯茎G全体の状態を判定する。第1判定部140による統計演算の一例には、歯Tごとの歯毎判定結果RS1の平均値、中央値、最頻値、最小値、又は最大値のいずれかを求める演算がある。
【0041】
また、第2判定部150は、歯毎判定結果RS1を、評価項目EVごとに統計演算を行う。すなわち、第2判定部150は、第1判定部140による歯毎判定結果RS1を、評価項目EVごとに、口内画像OPに撮像されている複数の歯Tについて統計演算することにより、歯茎G全体の状態を判定する。
第2判定部150は、歯茎G全体の状態について判定した結果を歯茎全体判定結果RS2として通信部110に出力する。
【0042】
(ステップS150)口内状態判定装置10の通信部110は、ステップS130における歯毎判定結果RS1及びステップS140における歯茎全体判定結果RS2を、端末装置20に対して送信する。
【0043】
(ステップS250)端末装置20は、ステップS150において送信された判定結果を受信し、受信した判定結果を表示部DPに表示させる。表示部DPに表示される判定結果の一例について、
図11及び
図12を参照して説明する。
【0044】
図11は、本実施形態の第1の判定結果画面(画像P4)の一例を示す図である。第1の判定結果画面(画像P4)には、第2の判定結果画面(画像P5)への表示切替え操作を受け付ける画像(P41)と、歯茎全体判定結果RS2に基づく、歯茎G全体の判定結果を示す画像(画像P42、画像P43)と、ホーム画面(画像P1)の表示操作を受け付ける画像(画像P44)とが表示される。
【0045】
図12は、本実施形態の第2の判定結果画面(画像P5)の一例を示す図である。第2の判定結果画面(画像P5)には、第1の判定結果画面(画像P4)への表示切替え操作を受け付ける画像(P51)と、歯茎全体判定結果RS2に基づく、歯茎G全体の評価項目EVごとの判定結果を示す画像(画像P52)と、歯毎判定結果RS1に基づく、歯Tごとの判定結果を示す画像(画像P53、画像P54)と、コメント画像(画像P55)とが表示される。
【0046】
[第1の実施形態のまとめ]
以上説明したように、口内状態判定システム1は、第1判定部140と、第2判定部150との2つの判定部を備えている。ここで、第1判定部140は、識別部130の識別結果に基づいて、歯T1本ごとに、歯茎Gの状態を判定する。第2判定部150は、第1判定部140の判定結果に基づいて、歯茎G全体の状態を判定する。
【0047】
ここで、従来の画像処理手法によると、口内を撮影した画像のなかから、歯茎Gの位置や形状を認識することが難しい場合があった。このため、従来の画像処理手法によると、判定対象の歯茎Gの位置や形状の自動認識結果が安定せず、歯科医や歯科衛生士などの専門家が目視で判定した場合に比べて、その判定精度が低いという課題が生じることがあった。
【0048】
一方、判定対象の歯茎Gの位置や形状を安定的に自動認識することができれば、歯茎Gの状態の判定精度を高めることができる。ここで、歯茎Gの位置や形状に比べて、歯Tの位置や形状は自動認識しやすい。本実施形態の口内状態判定システム1は、この歯Tの自動認識のしやすさに着目して構成されている。すなわち、本実施形態の口内状態判定システム1は、歯Tごとに歯茎Gの状態を判定し、歯Tごとの判定結果を統計演算することにより歯茎G全体の状態を判定する。
したがって、本実施形態の口内状態判定システム1によれば、歯茎Gの状態の判定精度を向上させることができる。
【0049】
また、本実施形態の口内状態判定システム1によれば、第1判定部140が、歯茎Gの状態を、少なくとも3段階の評価段階LVによって判定する。ここで、仮に2段階の評価段階によって判定する従来技術の場合、歯茎Gの状態について歯科医や歯科衛生士などの専門家に相談すべきか、否か、という2種類のアドバイスしか提示できない場合がある。本実施形態の口内状態判定システム1によれば、少なくとも3段階の評価段階LVによって判定するため、上述の2種類のアドバイスに加えて、例えば、セルフケアすべきという3種類目のアドバイスを提示することができる。
【0050】
また、本実施形態の口内状態判定システム1によれば、第2判定部150が、第1判定部140による歯Tごとの歯毎判定結果RS1を、口内画像OPに撮像されている複数の歯Tについて統計演算することにより、歯茎G全体の状態を判定する。
本実施形態の口内状態判定システム1によれば、第2判定部150が行う統計演算の種類に応じて、種々の判定結果を提示することができる。
例えば、第2判定部150が行う統計演算が、歯毎判定結果RS1の最悪値(最大値)を歯茎G全体の状態とする場合には、少なくとも1本の歯Tについて歯茎Gの状態が悪い場合に、その存在を提示することができる。
また、第2判定部150が行う統計演算が、歯毎判定結果RS1の平均値(又は、中央値、最頻値)を歯茎G全体の状態とする場合には、画像の状態などによって、一部の歯Tについて状態を誤判定した場合であっても、歯茎G全体の判定結果への影響を低減することができる。
【0051】
また、本実施形態の口内状態判定システム1によれば、少なくとも2種類の評価項目EVによって歯茎Gの状態を判定する。このため本実施形態の口内状態判定システム1によれば、例えば、歯茎Gの色のみや、歯茎Gの形状のみによって歯茎Gの状態を判定する場合に比べて、判定精度を向上させることができる。
【0052】
[第2の実施形態]
次に、第2の実施形態について
図13及び
図14を参照して説明する。なお、上述した実施形態と同一の機能及び動作については、同一の符号を付してその説明を省略する。
【0053】
図13は、本実施形態の口内状態判定システム1aの機能構成の一例を示す図である。口内状態判定システム1aは、口内状態判定装置10aを備える。この口内状態判定装置10aは、口内ケア情報取得部160を備える点において、上述した第1の実施形態と異なる。
【0054】
口内ケア情報取得部160は、第1判定部140による歯毎判定結果RS1又は第2判定部150による歯茎全体判定結果RS2に基づいて、判定結果に応じた口内ケア情報OCDを取得する。
ここで、口内ケア情報OCDには、口内ケアの手順や方法を解説するコメントや、口内ケア商品を紹介する情報などが含まれる。歯毎判定結果RS1又は歯茎全体判定結果RS2と、上述の解説コメント又は商品紹介情報とが対応づけられて、口内状態判定装置10aの記憶部(不図示)又は、他の装置に予め記憶されている。
また、口内ケア情報OCDは、被験者アンケート等の調査により別途取得した歯科に関する情報(例えば、インプラント、銀歯、金歯、矯正器具の有無)と対応づけられることによって、適切な解説コメント又は商品紹介情報を被験者に提供することができる。
口内ケア情報取得部160は、歯毎判定結果RS1又は歯茎全体判定結果RS2を検索キーにして検索し、歯毎判定結果RS1又は歯茎全体判定結果RS2に対応付けられている解説コメント又は商品紹介情報を口内ケア情報OCDとして取得する。口内ケア情報取得部160は、取得した口内ケア情報OCDを、通信部110を介して、端末装置20に送信する。すなわち、通信部110(提示部)は、口内ケア情報取得部160が取得する口内ケア情報OCDを提示する。
【0055】
図14は、本実施形態の口内ケア情報OCDの表示画面の一例を示す図である。端末装置20の表示部DPには、判定結果画面(画像P4a)が表示される。この判定結果画面(画像P4a)には、口内ケア情報取得部160から送信された口内ケア情報OCDに基づく画面(画像P45、画像P46)が表示される。
【0056】
以上説明したように、本実施形態の口内状態判定システム1aによれば、歯茎Gの状態の判定結果に加えて、口内のセルフケアに役立つ情報(口内ケア情報OCD)を提示することができる。このため、口内状態判定システム1aによれば、歯茎Gの状態がより悪化する前の段階、すなわち歯科医や歯科衛生士などの専門家に相談すべき状態になる前の段階において、具体的なセルフケアの手順や方法を提示することができる。
【0057】
なお、上述した各実施形態において、口内状態判定装置10(又は口内状態判定装置10a)と、端末装置20との機能分担の一例を説明したが、各装置は上述と異なる機能分担にして構成されていてもよい。例えば、口内状態判定システム1は、口内状態判定装置10の機能の全部又は一部が、端末装置20において動作するソフトウエアとして実現されていてもよい。
【0058】
以上、本発明の実施形態を、図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、本発明の趣旨を逸脱しない範囲で適宜変更を加えることができる。
【0059】
なお、上述の各装置は内部にコンピュータを有している。そして、上述した各装置の各処理の過程は、プログラムの形式でコンピュータ読み取り可能な記録媒体に記憶されており、このプログラムをコンピュータが読み出して実行することによって、上記処理が行われる。ここでコンピュータ読み取り可能な記録媒体とは、磁気ディスク、光磁気ディスク、CD-ROM、DVD-ROM、半導体メモリ等をいう。また、このコンピュータプログラムを通信回線によってコンピュータに配信し、この配信を受けたコンピュータが当該プログラムを実行するようにしてもよい。
【0060】
また、上記プログラムは、前述した機能の一部を実現するためのものであってもよい。
さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。
【符号の説明】
【0061】
1…口内状態判定システム、10および10a…口内状態判定装置、110…通信部、120…画像取得部、130…識別部、140…第1判定部、150…第2判定部、160…口内ケア情報取得部、20…端末装置、CAM…カメラ、DP…表示部、P…画像、OP…口内画像、STP…歯毎画像、TP…歯領域、GP…歯茎領域、G…歯茎、T…歯、RS1…歯毎判定結果、RS2…歯茎全体判定結果、N…ネットワーク、LV…評価段階、EV…評価項目、OCD…口内ケア情報