IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ サンスター株式会社の特許一覧

<>
  • 特開-口腔状態評価システム 図1
  • 特開-口腔状態評価システム 図2
  • 特開-口腔状態評価システム 図3
  • 特開-口腔状態評価システム 図4
  • 特開-口腔状態評価システム 図5
  • 特開-口腔状態評価システム 図6
  • 特開-口腔状態評価システム 図7
  • 特開-口腔状態評価システム 図8
  • 特開-口腔状態評価システム 図9
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2022068483
(43)【公開日】2022-05-10
(54)【発明の名称】口腔状態評価システム
(51)【国際特許分類】
   A61B 1/24 20060101AFI20220427BHJP
   A61B 1/045 20060101ALI20220427BHJP
【FI】
A61B1/24
A61B1/045 614
【審査請求】未請求
【請求項の数】9
【出願形態】OL
(21)【出願番号】P 2020177190
(22)【出願日】2020-10-22
(71)【出願人】
【識別番号】000106324
【氏名又は名称】サンスター株式会社
(74)【代理人】
【識別番号】100105957
【弁理士】
【氏名又は名称】恩田 誠
(74)【代理人】
【識別番号】100068755
【弁理士】
【氏名又は名称】恩田 博宣
(72)【発明者】
【氏名】太田 安里
(72)【発明者】
【氏名】清水 都
(72)【発明者】
【氏名】西浦 正洋
(72)【発明者】
【氏名】東松 道明
【テーマコード(参考)】
4C161
【Fターム(参考)】
4C161AA08
4C161CC06
4C161HH51
4C161SS21
(57)【要約】
【課題】簡易な手段により口腔状態を評価できる口腔状態評価システムを提供する。
【解決手段】口腔状態評価システム10は、少なくとも口腔内の第1特定部位を含む口腔画像をインターフェイス部20から入力情報として取得する情報取得部31と、前記入力情報に基づいて第1特定部位の状態を解析する情報解析部33と、を備え、前記情報解析部33は、前記第1特定部位の状態の解析情報から、前記第1特定部位とは異なる前記口腔内の第2特定部位の状態に関する推定情報を推定する。
【選択図】図1
【特許請求の範囲】
【請求項1】
少なくとも口腔内の第1特定部位を含む口腔画像をインターフェイス部から入力情報として取得する情報取得部と、
前記入力情報に基づいて第1特定部位の状態を解析する情報解析部と、を備え、
前記情報解析部は、前記第1特定部位の状態の解析情報から、前記第1特定部位とは異なる前記口腔内の第2特定部位の状態に関する推定情報を推定する、
口腔状態評価システム。
【請求項2】
前記口腔画像は、前記口腔内の歯画像および歯茎画像を含む
請求項1に記載の口腔状態評価システム。
【請求項3】
前記歯画像は、前記口腔内の中切歯画像、側切歯画像、および、犬歯画像を含む、
請求項2に記載の口腔状態評価システム。
【請求項4】
前記第2特定部位は、前記口腔内の小臼歯および大臼歯の少なくとも1つを含み、
前記推定情報は、前記口腔内の小臼歯および大臼歯に関する情報の少なくとも1つを含む
請求項1から3のいずれか一項に記載の口腔状態評価システム。
【請求項5】
前記推定情報は、前記第2特定部位における前記推定情報は、前記第2特定部位における歯間空隙、歯肉退縮、叢生、歯肉炎症、磨き残し、歯ぎしり、う蝕、知覚過敏、口臭、および、着色の有無または程度に関する情報、歯周病が存在するか否かに関する情報、咀嚼機能が正常か否かに関する情報、咬合が正常か否かに関する情報、嚥下機能が正常か否かに関する情報、および、前記第2特定部位に対応する歯、歯茎、および、口腔粘膜の状態に関する情報の少なくとも1つを含む
請求項1から4のいずれか一項に記載の口腔状態評価システム。
【請求項6】
前記口腔内の状態を評価するために予め前記口腔画像を学習した学習モデルを記憶する情報記憶部をさらに備え、
前記情報解析部は、前記入力情報を前記学習モデルで解析する
請求項1から5のいずれか一項に記載の口腔状態評価システム。
【請求項7】
前記入力情報は、ユーザの生活習慣に関する情報、前記ユーザの口腔内分泌物に関する情報、前記ユーザの口腔内細菌叢に関する情報、前記ユーザ自身の属性に関する情報、および、前記口腔内の状態を検出するセンサにより得られる情報の少なくとも1つをさらに含む
請求項1から6のいずれか一項に記載の口腔状態評価システム。
【請求項8】
前記解析情報および前記推定情報に対応する情報を出力情報として出力する情報出力部をさらに備え、
前記情報出力部は、前記出力情報を少なくとも前記インターフェイス部に出力する
請求項1から7のいずれか一項に記載の口腔状態評価システム。
【請求項9】
前記出力情報は、ユーザの現在の口腔状態に関する情報、前記ユーザの将来の口腔状態予測に関する情報、前記ユーザに対する口腔ケア方法に関する情報、および、前記ユーザの口腔状態が影響をおよぼす前記ユーザの健康状態に関する情報の少なくとも1つを含む
請求項8に記載の口腔状態評価システム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、ユーザの口腔状態を評価する口腔状態評価システムに関する。
【背景技術】
【0002】
口腔内全体を含む画像から口腔状態を分析し、歯科医師等の専門家による判断を補助するシステムが知られている。特許文献1は、ユーザの口腔内全体を撮影したX線画像から、病変箇所を抽出する歯科分析システムを開示する。
【先行技術文献】
【特許文献】
【0003】
【特許文献1】特開2019-208831号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
口腔内全体の状態に関する情報取得は、専門家およびプローブなどの検査用器具または検査用装置によらない場合は困難である。このため簡易な手段により、ユーザ自身の口腔状態を把握できることが求められる。
本発明は、上記課題を解決するための発明であり、簡易な手段により口腔状態を評価できる口腔状態評価システムを提供することを目的とする。
【課題を解決するための手段】
【0005】
本発明に関する口腔状態評価システムは、少なくとも口腔内の第1特定部位を含む口腔画像をインターフェイス部から入力情報として取得する情報取得部と、前記入力情報に基づいて第1特定部位の状態を解析する情報解析部と、を備え、前記情報解析部は、前記第1特定部位の状態の解析情報から、前記第1特定部位とは異なる前記口腔内の第2特定部位の状態に関する推定情報を推定する。
【発明の効果】
【0006】
本発明に関する口腔状態評価システムによれば、簡易な手段により口腔状態を評価できる口腔状態評価システムを提供できる。
【図面の簡単な説明】
【0007】
図1】実施形態の口腔状態評価システムの構成を示すブロック図。
図2】入力情報の一例である口腔画像を示す図。
図3図2の口腔画像の部分拡大模式図。
図4】叢生がある場合の口腔状態の一例を示す図。
図5】叢生がない場合の口腔状態の一例を示す図。
図6】歯間空隙がある場合の口腔状態の一例を示す図。
図7】歯間空隙がない場合の口腔状態の一例を示す図。
図8】歯肉退縮がある場合の口腔状態の一例を示す図。
図9】歯肉退縮がない場合の口腔状態の一例を示す図。
【発明を実施するための形態】
【0008】
(口腔状態評価システムが取り得る形態の一例)
(1)本発明に関する口腔状態評価システムは、少なくとも口腔内の第1特定部位を含む口腔画像をインターフェイス部から入力情報として取得する情報取得部と、前記入力情報に基づいて第1特定部位の状態を解析する情報解析部と、を備え、前記情報解析部は、前記第1特定部位の状態の解析情報から、前記第1特定部位とは異なる前記口腔内の第2特定部位の状態に関する推定情報を推定する。
上記口腔状態評価システムによれば、情報解析部は、第1特定部位を含む口腔画像から第1特定部位とは異なる口腔内の第2特定部位の状態に関する推定情報を推定する。口腔画像に第2特定部位が含まれるか否かに関わらず口腔全体の口腔状態を評価できる。このため、簡易な手段により口腔状態を評価できる。
【0009】
(2)前記口腔状態評価システムの一例によれば、前記口腔画像は、前記口腔内の歯画像および歯茎画像を含む。
上記口腔状態評価システムによれば、口腔画像は、口腔内の適切な部位の画像を含むため口腔状態を適切に評価できる。
【0010】
(3)前記口腔状態評価システムの一例によれば、前記歯画像は、前記口腔内の中切歯画像、側切歯画像、および、犬歯画像を含む。
上記口腔状態評価システムによれば、口腔画像は、口腔内の適切な歯の画像を含むため口腔状態を適切に評価できる。
【0011】
(4)前記口腔状態評価システムの一例によれば、前記第2特定部位は、前記口腔内の小臼歯および大臼歯の少なくとも1つを含み、前記推定情報は、前記口腔内の小臼歯および大臼歯に関する情報の少なくとも1つを含む。
上記口腔状態評価システムによれば、口腔内の小臼歯および大臼歯に関する情報の少なくとも1つを推定するため、口腔状態を適切に評価できる。
【0012】
(5)前記口腔状態評価システムの一例によれば、前記推定情報は、前記第2特定部位における歯間空隙、歯肉退縮、叢生、歯肉炎症、磨き残し、歯ぎしり、う蝕、知覚過敏、口臭、および、着色の有無または程度に関する情報、歯周病が存在するか否かに関する情報、咀嚼機能が正常か否かに関する情報、咬合が正常か否かに関する情報、嚥下機能が正常か否かに関する情報、および、前記第2特定部位に対応する歯、歯茎、および、口腔粘膜の状態に関する情報の少なくとも1つを含む。
上記口腔状態評価システムによれば、第2特定部位における歯および歯茎の状態の少なくとも1つを推定できる。このため口腔状態を適切に評価できる。
【0013】
(6)前記口腔状態評価システムの一例によれば、前記口腔内の状態を評価するために予め前記口腔画像を学習した学習モデルを記憶する情報記憶部をさらに備え、前記情報解析部は、前記入力情報を前記学習モデルで解析する。
上記口腔状態評価システムによれば、学習モデルにより推定情報を推定する。このため口腔状態をより適切に評価できる。
【0014】
(7)前記口腔状態評価システムの一例によれば、前記入力情報は、ユーザの生活習慣に関する情報、前記ユーザの口腔内分泌物に関する情報、前記ユーザの口腔内細菌叢に関する情報、前記ユーザ自身の属性に関する情報、および、前記口腔内の状態を検出するセンサにより得られる情報少なくとも1つをさらに含む。
上記口腔状態評価システムによれば、口腔状態をより適切に評価できる。
【0015】
(8)前記口腔状態評価システムの一例によれば、前記解析情報および前記推定情報に対応する情報を出力情報として出力する情報出力部をさらに備え、前記情報出力部は、前記出力情報を少なくとも前記インターフェイス部に出力する。
上記口腔状態評価システムによれば、ユーザが出力情報を容易に認識できる。
【0016】
(9)前記口腔状態評価システムの一例によれば、前記出力情報は、ユーザの現在の口腔状態に関する情報、前記ユーザの将来の口腔状態予測に関する情報、前記ユーザに対する口腔ケア方法に関する情報、および、前記ユーザの口腔状態が影響をおよぼす前記ユーザの健康状態に関する情報の少なくとも1つを含む。
上記口腔状態評価システムによれば、ユーザが口腔状態に関する出力情報を好適に認識できる。
【0017】
(実施形態)
図1から図9を参照して、本実施形態の口腔状態評価システム10について説明する。口腔状態評価システム10は、入力情報Iを解析し、入力情報Iから得られた解析情報Aに基づいて推定情報Eを推定するシステムである。口腔状態評価システム10は、解析情報Aおよび推定情報Eに対応する出力情報Oを演算し、所定の構成に出力してもよい。口腔状態評価システム10を構成する主な要素は、サーバ30である。好ましくは、口腔状態評価システム10は、サーバ30と情報のやり取りを実行するためのインターフェイス部20を備える。インターフェイス部20は、一例ではユーザが持ち運び可能に構成されたスマートデバイスである。スマートデバイスは、タブレット端末またはスマートフォンを含む。別の例では、インターフェイス部20は、パーソナルコンピュータである。パーソナルコンピュータは、ユーザの住居、店舗または歯科医院に設置される。店舗は、口腔ケアアイテムを販売する店舗またはその他商品を販売する店舗を含む。インターフェイス部20とサーバ30とは、例えばインターネット回線Nを使用して互いに通信可能に構成される。別の例では、インターフェイス部20とサーバ30とは一体で構成される。
【0018】
インターフェイス部20は、制御部21、記憶部22、取得部23、通信部24、および、表示部25を備える。制御部21は、予め定められる制御プログラムを実行する演算処理装置を含む。演算処理装置は、例えばCPU、GPUまたはMPUを含む。
【0019】
記憶部22は、制御部21が実行する各種の制御プログラムおよび各種の制御処理に用いられる情報が記憶される。記憶部22は、例えば不揮発性メモリおよび揮発性メモリを含む。不揮発性メモリは、例えば、ROM、EPROM、EEPROM、および、フラッシュメモリの少なくとも1つを含む。揮発性メモリは、例えば、RAMを含む。
【0020】
取得部23は、ユーザから入力情報Iを取得する。取得部23は、ユーザの入力情報Iを取得するための任意の構成を備える。第1例では、ユーザの口腔の口腔画像Pを取得できるカメラである。口腔画像Pは、静止画および動画を含む。口腔画像Pは、奥行き情報を有する3次元画像または複数の画像を張り合わせることにより構成されるパノラマ画像を含む。カメラは、スマートデバイスに搭載されるカメラであってもよく、別途独立したカメラであってもよい。独立したカメラは、例えば口腔内の撮影に適する先端部にカメラが設けられたペン型のカメラまたは360°の範囲の撮影が可能なカメラである。独立したカメラは、制御部21と有線または無線通信が可能に構成される。独立したカメラが撮影した口腔画像Pは、有線又は無線通信により制御部21に送信される。第2例では、取得部23はユーザが文字等を入力または選択できるように構成されたユーザインタフェースである。ユーザの入力情報Iは、ユーザの生活習慣に関する情報、ユーザの口腔内分泌物に関する情報、ユーザの口腔内細菌叢に関する情報、所定の質問に対する回答情報、および、ユーザ自身の属性に関する情報の少なくとも1つをさらに含んでいてもよい。ユーザの生活習慣に関する情報は、ユーザの食事内容、口腔ケア行動、起床または睡眠時間に関する情報を含む。ユーザの口腔内分泌物に関する情報は、唾液の量、粘性、水素イオン濃度、抗菌成分の量、および、歯の再石灰化に関する成分の量に関する情報を含む。ユーザの口腔内細菌叢に関する情報は、唾液中、歯垢、または粘膜に存在する主な細菌の量および種類に関する情報および主な細菌の抗体の種類および量に関する情報を含む。ユーザの口腔内分泌物に関する情報およびユーザの口腔内細菌叢に関する情報は、ユーザに対する問診の結果であってもよく、ユーザの口腔内に存在する口腔内分泌物等を所定の手段により検査した結果情報であってもよい。所定の質問に関する回答情報は、ユーザの歯茎の状態に関する質問、口腔ケア時の好みのブラッシング方法、1日の歯磨きの回数、1回あたりの歯磨きにかける時間、歯磨きを実施する時刻、口腔ケアアイテムの使用頻度、および、入れ歯の有無を含む。ユーザの歯茎の状態に関する質問は、例えばブラッシング時または飲食時の歯茎からの出血の有無を含む。ユーザ自身の属性に関する情報は、例えばユーザ自身の年齢、性別、身長、体重、利き腕、および、既往歴である。第3例では、取得部23は口腔内の状態を検出するセンサである。センサは、例えば蛍光センサおよび温度センサである。蛍光センサは、所定の波長の光を照射し、光の量を定量して口腔内における所定物の分布および量を測定する。所定物は、例えばステインまたはプラークである。温度センサは、口腔内の温度を測定する。センサは、制御部21と有線または無線通信が可能に構成される。センサにより得られる情報は、有線または無線通信により制御部21に送信される。本実施形態において、取得部23は、第1例から第3例の複数を組み合わせて構成されていてもよい。センサは、咀嚼力、咬合力、歯茎の血流量、口臭、ブラッシング時のブラシ圧の強さ、または、ブラッシング時の歯ブラシの動きの少なくとも1つをさらに測定可能に構成されていてもよい。
【0021】
通信部24は、制御部21の制御に基づいてインターフェイス部20外と通信可能に構成される。通信部24は、インターネット回線Nを介して通信可能に構成される。通信部24は、有線通信または無線通信によりインターフェイス部20のサーバ30と通信可能に構成されていてもよい。通信部24は、例えば取得部23が取得したユーザの入力情報Iを制御部21の制御に基づいて送信し、サーバ30からの出力情報Oを受信する。
【0022】
表示部25は、制御部21の制御に基づいて種々の情報を表示する。種々の情報は、例えば、ユーザの入力情報Iに関する情報およびサーバ30からの出力情報Oに関する情報である。一例では、表示部25は、ディスプレイにより構成される。表示部25のディスプレイがタッチパネルで構成されていてもよい。表示部25の一部が、タッチパネルで構成される場合、その一部が取得部23のユーザインタフェースの機能を兼ねていてもよい。
【0023】
ユーザは、例えばインターフェイス部20に所定のURLを入力すること、または、インターフェイス部20でQRコード(登録商標)を読み取ることによりサーバ30と通信する。ユーザが表示部25に表示されるアイコンを選択することにより、サーバ30との通信が開始されてもよい。
【0024】
サーバ30は、情報取得部31、情報出力部32、情報解析部33、および、情報記憶部34を備える。情報取得部31は、情報が取得可能に構成される。一例では、情報取得部31は、インターフェイス部20の通信部24から情報を取得する。情報出力部32は、情報が出力可能に構成される。一例では、情報出力部32は、インターフェイス部20の通信部24に情報を出力する。
【0025】
情報解析部33は、種々の解析および制御を実行する。情報解析部33は、予め定められる制御プログラムを実行する演算処理装置を含む。演算処理装置は、例えばCPUまたはMPUを含む。情報解析部33は、ユーザからの入力情報Iを解析可能に構成される。第1例では、情報解析部33は、機械学習による学習モデルMにより入力情報Iを解析する。この場合の入力情報Iは、ユーザの口腔画像Pを含む。学習モデルMは、一例では機械学習のモデルの一つである教師あり学習モデルである。第2例では、情報解析部33は、情報記憶部34に記憶される対応表を参照して、入力情報Iを解析する。この場合の入力情報Iは、口腔画像Pに変えてまたは加えてユーザの生活習慣に関する情報、ユーザの口腔内分泌物に関する情報、ユーザの口腔内細菌叢に関する情報、および、所定の質問に対する回答情報の少なくとも1つを含む。対応表は、入力情報Iと解析情報Aとが対応付けられた表である。対応表は、入力情報Iおよび解析情報Aと推定情報Eとが対応付けられていてもよい。口腔画像Pに加えてさらに入力情報Iを含む場合、一例では学習モデルMは、口腔画像P以外の入力情報Iを解析する別の学習モデルをさらに含む。別の学習モデルは、例えば口腔画像Pの解析情報Aを補正するためのパラメータを出力可能に構成される。別の例では学習モデルMは、口腔画像Pおよび口腔画像Pを含まない入力情報Iの両方を組み合わせて学習させるマルチモーダル学習が実行可能なモデルとして構成される。
【0026】
情報記憶部34は、学習モデルM、対応表、および種々の情報の少なくとも1つを記憶する。情報解析部33は、必要に応じて情報記憶部34に記憶される学習モデルM、対応表、および種々の情報を参照する。
【0027】
情報解析部33が実行する学習モデルMを用いた口腔画像Pを含む入力情報Iの解析について説明する。情報解析部33が実行する解析のステップは、複数の工程を含む。複数の工程は、ユーザの口腔画像Pから口腔領域Rを検出する第1工程、口腔画像Pに含まれる口腔領域Rを解析することにより、解析情報Aを演算する第2工程、解析情報Aから推定情報Eを推定する第3工程、および、解析情報Aおよび推定情報Eに対応する出力情報Oを演算する第4工程を含む。
【0028】
第1工程は、情報解析部33により任意の手段により実行される。一例では、顔を検出することに適した学習済みモデルを利用して、ユーザの口腔の口腔画像Pから口腔領域Rを検出する。口腔領域Rは、ユーザの上あごの歯を含む第1口腔領域R1およびユーザの下あごの歯を含む第2口腔領域R2を含む。顔を検出する学習済みモデルは、例えばAPIにより情報解析部33に導入される。
【0029】
第1工程において、口腔画像Pから口腔領域Rが取得できない場合、情報解析部33は、情報出力部32を介してインターフェイス部20の表示部25にその内容を出力する。一例では、口腔画像Pに口腔領域Rが含まれない、口腔画像Pがぶれている、または、口腔画像Pの明るさが適切ではないことにより口腔領域Rが認識できないため、口腔画像Pを含む入力情報Iを再度入力することをユーザに要求する情報をインターフェイス部20の表示部25に出力する。第1口腔領域R1および第2口腔領域R2の一方が取得でき、他方が取得できない場合、情報解析部33は第1工程が完了したと判断してもよく、入力情報Iを再度入力することをユーザに要求する情報をインターフェイス部20に出力してもよい。
【0030】
第2工程において、情報解析部33は、口腔画像Pを解析する。情報解析部33は、情報記憶部34に記憶される学習モデルMにより口腔画像Pを解析する。解析結果である解析情報Aは、口腔領域R内の第1特定部位における歯間空隙、歯肉退縮、叢生、歯肉炎症、磨き残し、歯ぎしり、う蝕、知覚過敏、口臭、および、着色の有無または程度に関する情報、および、第1特定部位に対応する歯、歯茎、および、口腔粘膜の状態に関する情報の少なくとも1つを含む。歯、歯茎、および、口腔粘膜の状態に関する情報は、例えば歯の摩耗、歯の欠損、歯の破折の有無または程度、血色、乾燥状態、および、質感の少なくとも1つを含む。質感は、例えば指で触った場合に引き締まっていると感じられる硬めの質感と、指で触った場合にぶよぶよとしていると感じられる柔らかい質感とを含む複数の質感を含む。第1口腔領域R1における解析情報Aと第2口腔領域R2における解析情報Aとの結果が異なる場合、いずれか一方の解析情報Aを採用するように予め設定されていてもよく、2つの解析情報Aを数値化し、その平均を採用してもよく、2つの解析情報Aを数値化し、絶対値が大きい解析情報Aを採用してもよい。
【0031】
第3工程において、情報解析部33は、入力情報Iおよび解析情報Aから推定情報Eを推定する。推定情報Eは、所定状態の有無、程度、および、発生確率の少なくとも1つに関する情報を含む。推定情報Eは、第1特定部位とは異なる第2特定部位における歯間空隙、歯肉退縮、叢生、歯肉炎症、磨き残し、歯ぎしり、う蝕、知覚過敏、口臭、および、着色の有無または程度に関する情報、または、第2特定部位に対応する歯、歯茎、および、口腔粘膜の状態に関する情報の少なくとも1つを含む。第2特定部位は、口腔内の小臼歯および大臼歯の少なくとも1つを含む。推定情報Eは、口腔内の小臼歯および大臼歯に関する情報の少なくとも1つを含む。推定情報Eは、ユーザの口腔内に歯周病が存在するか否かに関する情報、咀嚼機能が正常か否かに関する情報、咬合が正常か否かに関する情報、嚥下機能が正常か否かに関する情報の少なくとも1つを含んでいてもよい。歯周病が存在するか否かに関する情報は、歯肉と歯との間に生じるいわゆる歯周ポケットの大きさ、深さ、および数の少なくとも1つに関する情報である。咀嚼機能が正常か否かに関する情報は、例えば咀嚼力、偏咀嚼の有無、および、咀嚼音に関する情報である。咬合が正常か否かに関する情報は、例えば咬合力および上あごの歯と下あごの歯とのかみ合わせに関する情報である。嚥下機能が正常か否かに関する情報は、例えば嚥下障害の有無に関する情報である。
【0032】
第4工程において、情報解析部33は、解析情報Aおよび推定情報Eの少なくとも一方に対応する出力情報Oを演算する。出力情報Oは、ユーザの現在の口腔状態に関する情報、ユーザの将来の口腔状態予測に関する情報、ユーザに対する口腔ケア方法に関する情報、およびユーザの口腔状態が影響をおよぼすユーザの健康状態に関する情報の少なくとも1つを含む。
【0033】
口腔領域Rを解析するための学習モデルMについて説明する。学習モデルMは、複数の学習済みモデルを含む。学習モデルMは、口腔領域Rを評価できるか否かを判定する第1学習済みモデルM1と口腔領域Rを実際に評価する第2学習済みモデルM2を含む。
【0034】
第1学習済みモデルM1は、口腔画像Pの口腔領域Rが解析可能な画質か否かをする学習モデルM11、叢生評価が可能か否かを判定する学習モデルM12、上あごの歯における歯間空隙評価が可能か否かを判定する学習モデルM13、下あごの歯における歯間空隙評価が可能か否かを判定する学習モデルM14、および、歯肉退縮評価が可能か否かを判定する学習モデルM15の少なくとも1つを含む。
【0035】
第2学習済みモデルM2は、上あごの歯における叢生の有無を判定する学習モデルM21、下あごの歯における叢生の有無を判定する学習モデルM22、上あごの歯における歯間空隙の有無を判定する学習モデルM23、下あごの歯における歯間空隙の有無を判定する学習モデルM24、および、歯間退縮の有無を判定する学習モデルM25の少なくとも1つを含む。
【0036】
学習モデルMの作成について説明する。学習モデルMは、およそ1万枚の口腔画像Pに基づいて作成した。開発者は、口腔画像Pを学習用画像、検証用画像、および、テスト用画像に分類した。学習用画像は、学習モデルM作成時の教師ありデータである。検証用画像は、学習用画像に基づいた学習モデルMの動作を修正するための画像である。テスト用画像は、学習モデルMの動作を最終的に確認するための画像である。テスト用画像は、例えば学習モデルMが過学習を起こしているか否かの確認のために使用される。学習用画像は、全体の約56パーセントである。検証用画像は、全体の約24%である。テスト用画像は、全体の20%である。本実施形態において、学習モデルMはクラス分類の結果を出力する。学習モデルMは、歯間空隙、歯肉退縮、叢生、歯肉炎症、磨き残し、歯ぎしり、う蝕、知覚過敏、口臭、および、着色の有無または程度に関する情報、第2特定部位に対応する歯、歯茎、および、口腔粘膜の状態に関する情報、ユーザの口腔内に歯周病が存在するか否かに関する情報、咀嚼機能が正常か否かに関する情報、咬合が正常か否かに関する情報、嚥下機能が正常か否かに関する情報の少なくとも1つを出力する。
【0037】
図2は、ユーザの口腔画像Pの一例を示す。口腔画像Pは、少なくとも口腔内の第1特定部位を含む。第1特定部位は、中切歯T1、中切歯T1に対応する歯茎、側切歯T2、側切歯T2に対応する歯茎、犬歯T3、および、犬歯T3に対応する歯茎を含む。口腔画像Pは、口腔内の歯画像および歯茎画像を含む。歯画像は、口腔内の中切歯T1画像、側切歯T2画像、および、犬歯T3画像を含む。歯茎画像は、中切歯T1、側切歯T2、および、犬歯T3に対応する歯茎の画像を含む。口腔画像Pは、ユーザの口腔内における上下左右の4つの第1特定部位のうち、少なくとも1つの第1特定部位を含む。
【0038】
図3を参照して、口腔画像Pに含まれる歯画像の好ましい範囲について説明する。叢生の有無の判断においては、中切歯T1の端部E1から破線L2の範囲が口腔画像Pに含まれることが好ましい。歯間空隙の有無の判定においては、中切歯T1の端部E1から2点鎖線L3の範囲が口腔画像Pに含まれることが好ましい。歯肉退縮の有無の判定においては、中切歯T1の端部E1から実線L1の範囲が口腔画像Pに含まれることが好ましい。この範囲の中切歯T1の画像が口腔画像Pに含まれることにより、対応する歯茎の画像が口腔画像Pに含まれる。
【0039】
各口腔画像Pは、口腔を解析する専門家により教師付けを行った。図4から図9は、教師付けを行った口腔画像Pの一例を示す。口腔を解析する専門家は、例えば歯科医師、歯科衛生士、口腔状態の研究を行う研究者、または、口腔ケア用品の開発を行う開発者である。口腔を解析する専門家は、口腔の口腔画像Pの第1口腔領域R1および第2口腔領域R2ごとに叢生の程度の判定、歯肉退縮の程度の判定、および歯間空隙の程度の判定を行った。口腔を解析する専門家は、叢生の程度の判定において叢生の種類に基づく判定を行った。口腔を解析する専門家は歯肉退縮の判定において、歯肉退縮なしから全体歯肉退縮まで複数の段階の判定を行った。口腔を解析する専門家は歯間空隙の判定において、上あごと下あごのそれぞれに対して、歯間空隙なしから重度の歯間空隙ありまで、複数の段階の評価を行った。
【0040】
口腔内の第1特定部位における状態は、口腔内の第1特定部位とは異なる第2特定部位における状態と相関関係にある。一例では、40~70代の女性75人を対象とした試験において、前歯における歯肉の状態と奥歯における歯肉の状態とが高く相関している。すなわち、第1特定部位において歯肉退縮が発生している場合、第2特定部位においても歯肉退縮が発生している。歯間空隙および叢生の程度についても、同様である。
【0041】
情報解析部33は、解析情報Aおよび推定情報Eを所定の構成に出力する。第1例では、情報解析部33は、情報出力部32に出力する。第2例では、情報解析部33は、情報記憶部34に出力する。第3例では、情報解析部33は、情報出力部32および情報記憶部34の両方に推定情報Eを出力する。
【0042】
解析情報Aおよび推定情報Eは、出力情報Oに対応付けられる。出力情報Oについて説明する。出力情報Oは、ユーザの現在の口腔状態に関する情報、ユーザの将来の口腔状態予測に関する情報、ユーザに対する口腔ケア方法に関する情報、および、ユーザの口腔状態が影響をおよぼすユーザの健康状態に関する情報の少なくとも1つを含む。ユーザの現在の口腔状態に関する情報は、ユーザの口腔内全体の叢生の有無、歯肉退縮の有無、および、歯間空隙の有無に関する情報の少なくとも1つを含む。ユーザの現在の口腔状態に関する情報は、歯肉炎症の有無、磨き残しの有無、磨き残しの状態、歯ぎしりの有無、知覚過敏の有無、および、口臭の有無の少なくとも1つをさらに含んでいてもよい。
【0043】
ユーザの将来の口腔予測に関する情報は、所定期間が経過後のユーザの口腔状態を示す推定画像を含む。ユーザに対する口腔ケア方法に関する情報は、ユーザの口腔状態に適した口腔ケア用品および使用方法に関する情報を含む。ユーザの口腔状態が影響をおよぼすユーザの健康状態に関する情報は、例えば歯周病または口腔状態に関連する口腔以外の健康状態に関する情報を含む。
【0044】
解析情報Aおよび推定情報Eと出力情報Oとの対応は、情報解析部33により任意の手段で実行される。第1例では、予め口腔状態の研究を行う研究者、または、口腔ケア用品の開発を行う開発者によって解析情報Aおよび推定情報Eと出力情報Oとが対応付けられた対応表により実行される。第2例では、解析情報Aおよび推定情報Eと出力情報Oとの対応は、機械学習のモデルにより実行される。
【0045】
本実施形態の口腔状態評価システム10の作用について説明する。ユーザは、取得部23に対して入力情報Iを入力する。制御部21は、通信部24を制御してサーバ30に入力情報Iを出力する。サーバ30は、情報取得部31で入力情報Iを取得する。情報解析部33は、情報記憶部34に記憶される学習モデルMを利用して入力情報Iを解析して第1特定部位の解析情報Aを演算する。情報解析部33は、解析情報Aから第2特定部位を含む推定情報Eを演算する。情報解析部33は、解析情報Aおよび推定情報Eと対応する出力情報Oを演算する。サーバ30は、情報出力部32から出力情報Oをインターフェイス部20に出力する。制御部21は、出力情報Oを通信部24から取得して、表示部25に表示する。ユーザは、出力情報Oを表示部25の表示を介して認識する。
【0046】
(変形例)
実施の形態に関する説明は、本発明に関する口腔状態評価システムが取り得る形態の例示であり、その形態を制限することを意図していない。本発明は、実施形態以外に例えば以下に示される実施形態の変形例、および、相互に矛盾しない少なくとも2つの変形例が組み合わせられた形態を取り得る。
【0047】
・学習モデルMは、回帰分析の結果を出力するように構成されていてもよい。この場合、学習モデルMは、叢生の程度、歯間空隙の程度、および、歯肉退縮の程度の少なくとも1つを数値化して出力する。
【0048】
・学習済みモデルM1および学習済みモデルM2の少なくとも一方は、教師なし学習または強化学習により学習されたモデルであってもよい。各学習モデルM11~M15および各学習モデルM21~M25の少なくとも1つが教師なし学習または強化学習により学習されたモデルであってもよい。
【0049】
・学習モデルMは、口腔画像Pにおいて第1口腔領域R1と第2口腔領域R2を区別することなく、評価が可能か否かを判定する第1学習済みモデルM1および評価を行う第2学習済みモデルM2であってもよい。学習モデルMは、口腔画像Pにおいて、1組の歯および歯茎を認識して、評価が可能か否かを判定する第1学習済みモデルM1および評価を行う第2学習済みモデルM2であってもよい。また、口腔領域R内の1組の歯および歯茎をそれぞれ認識して、過半数が評価可能である場合に、解析を実行する学習モデルMであってもよい。また、1組の歯および歯茎のそれぞれの解析情報Aを採用するように予め設定されていてもよく、1組の歯および歯茎のそれぞれの解析情報Aを数値化し、その平均を採用してもよく、1組の歯および歯茎のそれぞれ解析情報Aを数値化し、絶対値が大きい解析情報Aを採用してもよい。
【0050】
・学習モデルMは、口腔画像Pを出力情報Oとして疑似色で表示されるように構成されていてもよい。一例では、口腔画像Pにおいて学習モデルMが解析に使用した領域、または、歯間空隙、歯肉退縮、および、叢生が生じている領域を赤色で表示する。ユーザは、解析に利用した領域および口腔状態に問題が生じている領域を容易に認識できる。
【0051】
・出力情報Oがユーザの口腔ケア用品および使用方法に関する情報を含む場合、該当する口腔ケア用品を購入するための購入情報が含まれるように構成されていてもよい。一例では、購入情報は該当する口腔ケア用品を購入または体験可能な店舗に関する情報である。別の例では、購入情報は該当する口腔ケア用品を販売するウェブ上のサイト情報である。
【0052】
・入力情報Iは、IoT機器を介して取得されてもよい。一例では、ブラッシングに使用する口腔ケアアイテムにIoT機器を接続することで、入力情報Iを取得する。一例では、入力情報Iは1日の歯磨きの回数および口腔ケアアイテムの使用頻度に関する情報を含む。IoT機器は、取得部23に対して入力情報Iを送信してもよく、サーバ30に対して入力情報Iを送信してもよい。
【0053】
・学習モデルM、対応表、および種々の情報の少なくとも1つがサーバ30の情報記憶部34以外の場所に記憶されていてもよい。一例では、インターフェイス部20に設けられる記憶部に記憶される。別の例では、外部環境に構成されるデータベースに記憶される。
【0054】
入力情報Iは、ユーザの現在の状態情報を含む第1入力情報I1とユーザの過去の状態情報である第2入力情報I2を含んでいてもよい。第1入力情報I1および第2入力情報I2がユーザの口腔画像Pを含む場合、第2入力情報I2に含まれる口腔画像Pは、第1入力情報I1を取得するよりも所定時間前のユーザの口腔内の画像である。第1入力情報I1および第2入力情報I2がユーザの口腔ケアに関する情報を含む場合、第2入力情報I2に含まれる口腔ケアに関する情報は、第1入力情報I1を取得するよりも所定時間前の口腔ケアに関する情報である。所定時間は、一例では1か月以上の時間である。別の例では、所定時間は1年以上の時間である。第2入力情報I2は、取得部23による第1入力情報I1の取得の前に通信部24を介してサーバ30に送信されてもよく、第1入力情報I1の送信と同時に通信部24を介してサーバ30に送信されてもよい。この場合、インターフェイス部20は、第2入力情報I2を少なくとも記憶する記憶部をさらに備える。入力情報Iは、第2入力情報I2よりも所定時間前に取得された第3入力情報I3をさらに含んでいてもよい。情報解析部33は、第1入力情報I1~第3入力情報I3の少なくとも1つを用いて解析情報Aおよび推定情報Eを演算する。第3入力情報I3が追加されることにより、精度がさらに向上する。所定時間の間隔は、各入力情報Iで変更してもよい。入力情報Iは、第4入力情報以降の入力情報Iをさらに含んでいてもよい。
【符号の説明】
【0055】
10 :口腔状態評価システム
20 :インターフェイス部
30 :サーバ
31 :情報取得部
32 :情報出力部
33 :情報解析部
34 :情報記憶部
A :解析情報
E :推定情報
I :入力情報
O :出力情報
図1
図2
図3
図4
図5
図6
図7
図8
図9