(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公表特許公報(A)
(11)【公表番号】
(43)【公表日】2023-12-18
(54)【発明の名称】幾何学的深層学習を使用する歯科スキャンの自動処理
(51)【国際特許分類】
G06T 19/00 20110101AFI20231211BHJP
G16H 30/20 20180101ALI20231211BHJP
G06N 20/00 20190101ALI20231211BHJP
G06N 3/02 20060101ALI20231211BHJP
【FI】
G06T19/00 A
G16H30/20
G06N20/00
G06N3/02
【審査請求】未請求
【予備審査請求】未請求
(21)【出願番号】P 2023535284
(86)(22)【出願日】2021-12-02
(85)【翻訳文提出日】2023-06-09
(86)【国際出願番号】 IB2021061230
(87)【国際公開番号】W WO2022123402
(87)【国際公開日】2022-06-16
(32)【優先日】2020-12-11
(33)【優先権主張国・地域又は機関】US
(81)【指定国・地域】
(71)【出願人】
【識別番号】505005049
【氏名又は名称】スリーエム イノベイティブ プロパティズ カンパニー
(74)【代理人】
【識別番号】100130339
【氏名又は名称】藤井 憲
(74)【代理人】
【識別番号】100135909
【氏名又は名称】野村 和歌子
(74)【代理人】
【識別番号】100133042
【氏名又は名称】佃 誠玄
(74)【代理人】
【識別番号】100171701
【氏名又は名称】浅村 敬一
(72)【発明者】
【氏名】ガンドラッド,ジョナサン ディー.
(72)【発明者】
【氏名】カンリフ,アレクサンドラ アール.
(72)【発明者】
【氏名】ハンセン,ジェームズ ディー.
(72)【発明者】
【氏名】ファブリ,キャメロン エム.
(72)【発明者】
【氏名】ドン,ウェンボー
(72)【発明者】
【氏名】ヤン,エン-ツー
(72)【発明者】
【氏名】ホアン,ジャンビン
(72)【発明者】
【氏名】ナヤー,ヒマンシュ
(72)【発明者】
【氏名】ソマスンダラム,グルプラサド
(72)【発明者】
【氏名】レン,ジネン
(72)【発明者】
【氏名】ディンゲルダイン,ジョーゼフ シー.
(72)【発明者】
【氏名】ホッセイニ,セイイェド アミール ホセイン
(72)【発明者】
【氏名】デムロー,スティーヴン シー.
(72)【発明者】
【氏名】ツィマー,ベンジャミン ディー.
【テーマコード(参考)】
5B050
5L099
【Fターム(参考)】
5B050AA02
5B050BA09
5B050DA04
5B050EA12
5B050EA13
5B050FA05
5B050FA17
5L099AA04
(57)【要約】
機械学習又は幾何学的深層学習が、様々な歯科プロセス及び5つの解決策に適用される。特に、敵対的生成ネットワークは、スマイル設計(仕上げスマイル)、装具レンダリング、スキャンクリーンアップ、修復装具設計、クラウン及びブリッジ設計、及び仮想デボンディングに機械学習を適用する。頂点及びエッジ分類は、歯肉と歯の検出、歯タイプのセグメント化、並びにブラケット及び他の歯列矯正ハードウェアに、機械学習を適用する。回帰は、座標系、診断、ケース複雑度、及び治療期間の0予測に、機械学習を適用する。自動エンコーダ及びクラスタリングは、医師又は技術者及び選好のグループ化に機械学習を適用する。
【特許請求の範囲】
【請求項1】
デジタル3Dモデル修正のコンピュータ実施方法であって、
口腔内構造のデジタル3Dモデルを受信するステップであって、前記モデルが、修正される特徴、歯、及び歯肉のうちの少なくとも1つを含む、ステップと、
トレーニングされた機械学習モデルを前記デジタル3Dモデルに対して実行するステップであって、前記トレーニングされた機械学習モデルが、修正される特徴、セグメント化、座標系、及び歯科修復のうちの少なくとも1つを含む過去のデジタル3Dモデルに基づく、ステップと、
前記デジタル3Dモデルのバージョンを出力するステップであって、前記出力されるバージョンが、修正される前記特徴を欠いている、予測されたセグメント化を含む、予測された座標系を含む、又は設計された修復を含む、ステップと、
を含む、コンピュータ実施方法。
【請求項2】
前記口腔内構造が、修正される特徴を含み、
前記トレーニングされた機械学習モデルが、修正される特徴を有する過去のデジタル3Dモデルに基づいており、
前記デジタル3Dモデルの前記出力されるバージョンが、前記修正される特徴を有していない、
請求項1に記載のコンピュータ実施方法。
【請求項3】
前記口腔内構造が、歯及び歯肉を含み、
前記トレーニングされた機械学習モデルが、セグメント化を有する過去のデジタル3Dモデルに基づいており、
前記デジタル3Dモデルの前記出力されるバージョンが、予測されたセグメント化を含む、
請求項1に記載のコンピュータ実施方法。
【請求項4】
前記口腔内構造が歯を含み、
前記トレーニングされた機械学習モデルが、座標系を有する過去のデジタル3Dモデルに基づいており、
前記デジタル3Dモデルの前記出力されるバージョンが、予測された座標系を含む、
請求項1~3のいずれか一項に記載のコンピュータ実施方法。
【請求項5】
前記口腔内構造が歯を含み、
前記トレーニングされた機械学習モデルが、歯科修復に関する過去のデジタル3Dモデルに基づいており、
前記デジタル3Dモデルの前記出力されるバージョンが、設計された修復を含む、
請求項1~4のいずれか一項に記載のコンピュータ実施方法。
【請求項6】
前記口腔内構造が、歯及び修正される特徴を含み、
前記トレーニングされた機械学習モデルが、歯科修復に関する過去のデジタル3Dモデルと、修正される前記特徴を有する過去のデジタル3Dモデルとに基づいており、
前記デジタル3Dモデルの前記出力されるバージョンが、設計された修復を含み、修正される前記特徴を欠いている、
請求項5に記載のコンピュータ実施方法。
【請求項7】
歯科用又は歯列矯正用部品の構成要素を検証するコンピュータ実施方法であって、
歯科修復に関するデジタル3D構成要素を受信するステップと、
トレーニングされた機械学習モデルを前記デジタル3D構成要素に対して実行するステップであって、前記トレーニングされた機械学習モデルが、歯科修復に関する過去のデジタル3D構成要素に基づいている、ステップと、
前記デジタル3D構成要素が前記歯科修復又は歯列矯正修復に対して許容可能であるかどうかの指示を出力するステップと、
を含む、コンピュータ実施方法。
【請求項8】
前記機械学習モデルがニューラルネットワークである、請求項7に記載の方法。
【請求項9】
請求項7に記載の検証方法の前に、又は検証方法と共に、請求項2に記載のデジタル3Dモデルクリーンアップ方法を実行するステップ、をさらに含む、請求項7に記載の方法。
【請求項10】
請求項7に記載の検証方法の前に、又は検証方法と共に、請求項2に記載のデジタル3Dモデルクリーンアップ方法、請求項3に記載のデジタル3Dモデルセグメント化方法、及び/又は請求項4に記載のデジタル3Dモデル座標系方法を実行するステップ、をさらに含む、請求項7に記載の方法。
【請求項11】
請求項7に記載の検証方法の前に、後に、又は少なくとも部分的に同時に、請求項5に記載の設計方法を実行するステップ、をさらに含む、請求項7に記載の方法。
【請求項12】
請求項5に記載の設計方法及び請求項7に記載の検証方法を実行する前に、又は実行すると共に、請求項2に記載のデジタル3Dモデルクリーンアップ方法を実行するステップ、をさらに含む、請求項11に記載の方法。
【請求項13】
請求項5に記載の設計方法及び請求項7に記載の検証方法を実行する前に、又は実行すると共に、請求項2に記載のデジタル3Dモデルクリーンアップ方法、請求項3に記載のデジタル3Dモデルセグメント化方法、及び/又は請求項4に記載のデジタル3Dモデル座標系方法を実行するステップ、をさらに含む、請求項12に記載の方法。
【請求項14】
前記デジタル3D構成要素が前記歯科修復に対して許容可能であるように、前記デジタル3D構成要素をどのように変更するかの指示を出力するステップ、をさらに含む、請求項7に記載の方法。
【請求項15】
請求項3に記載のデジタル3Dモデル座標系方法を実行する前に、又は実行すると共に、請求項2に記載のデジタル3Dモデルクリーンアップ方法を実行するステップ、をさらに含む、請求項3に記載の方法。
【請求項16】
請求項3に記載のデジタル3Dモデル座標系方法の前に、後に、又は少なくとも部分的に同時に、請求項2に記載のデジタル3Dモデルセグメント化方法を実行するステップ、をさらに含む、請求項3に記載の方法。
【請求項17】
請求項3に記載のデジタル3Dモデルセグメント化方法及び請求項4に記載のデジタル3Dモデル座標系方法を実行する前に、又は実行すると共に、請求項2に記載のデジタル3Dモデルクリーンアップ方法を実行するステップ、をさらに含む、請求項16に記載の方法。
【請求項18】
カスタマイズされた治療計画を生成するコンピュータ実施方法であって、
提供者の過去の治療情報を受信するステップと、
トレーニングされた機械学習モデルを前記提供者の前記過去の治療情報に対して実行するステップと、
前記提供者の各々に対して1つ以上のカスタマイズされた治療計画を出力するステップと、
を含む、コンピュータ実施方法。
【請求項19】
請求項18に記載のカスタマイズされた治療計画方法を実行する前に、又は実行すると共に、請求項2に記載のデジタル3Dモデルクリーンアップ方法、請求項3に記載のデジタル3Dモデルセグメント化方法、及び/又は請求項4に記載のデジタル3Dモデル座標系方法を実行するステップ、をさらに含む、請求項18に記載のコンピュータ実施方法。
【発明の詳細な説明】
【背景技術】
【0001】
機械学習は、様々な産業及び分野において、プロセス及び様々なタスクを自動化及び改善するために使用される。歯列矯正を含む歯科分野では、多くのプロセス及びタスクが手動で実行され、それらを完了するためにユーザフィードバック又は対話に依存することがある。そのようなプロセス及びタスクを自動化する、部分的に自動化する、又は改善するために、歯科分野において機械学習を使用することができる。
【発明の概要】
【0002】
実施形態では、様々な歯科プロセス及びソリューションに適用される機械学習を使用する。特に、敵対的生成ネットワークの実施形態では、スマイル設計(仕上げスマイル)、装具レンダリング、スキャンクリーンアップ、修復装具の設計、クラウン及びブリッジの設計、及び仮想デボンディングに、機械学習を適用する。頂点及びエッジ分類の実施形態では、歯肉と歯の検出、歯タイプのセグメント化、並びにブラケット及び他の歯列矯正ハードウェアに、機械学習を適用する。回帰の実施形態では、座標系、診断、ケース複雑度、及び治療期間の予測に、機械学習を適用する。自動エンコーダ及びクラスタリングの実施形態では、医師(又は技術者)及び選好のグループ化に機械学習を適用する。
【図面の簡単な説明】
【0003】
【
図1】3Dスキャンに基づくデジタルモデルを受信して処理するシステムの図である。
【
図2】同じモデルの生バージョン(左)と、クリーンアップされかつ歯肉がクリッピング/ブリッジされたバージョン(右)とを示す。
【
図3】モデル開発/トレーニング及びモデル展開のためのフローチャートを提供する。
【
図4】根本の欠損(abfraction)(左)及び欠けた歯(右)を含む病理学的特徴を示す。
【
図6】モデルの推論(展開)のための方法ワークフローであり、ジェネレータは、与えられたクリーンなデータ点及びアンクリーンなデータ点を生成する。
【
図8】モデルの推論(展開)のための方法ワークフローであり、ジェネレータは、与えられたクリーンなデータ点及びアンクリーンなデータ点を生成する。
【
図10】自動化コードの特定のラインを一時的に破損することによって生成された「悪い」又は不良な分割面の6つの例を示す。
【
図11】合格の金型分割面と不合格の金型分割面とを区別するためのNNの運用である。
【
図12】自動化コードモジュールのうちの1つ(例えば分割面生成コード)を回帰テストする目的での運用ケースである。
【
図13】製造システムのコンテキストにおいて、分割面が歯科修復装具での使用に適しているかどうかを判定するための運用ケースである。
【
図14】合格の金型分割面と不合格の金型分割面とを区別するためのNNの運用である。
【
図15】回帰テストのコンテキストにおいて合格の金型分割面と不合格の金型分割面とを区別するためのNNの運用である。
【
図16】生産システムのコンテキストにおいて、分割面が歯科修復装具での使用に適しているかどうかを判定するための運用ケースである。
【
図17】正しい中心クリップ配置(左)と不適切な中心クリップ配置(右)の2D画像を示す。
【
図18】3Dメッシュ構成要素が作成される運用である。
【
図19】
図19(左側)は、歯が分割面によって正確に二分された歯の図を示し、右側は、歯が分割面によって不正確に二分された歯の図を示す。
【
図20】ネガティブサンプル(左の画像)が、舌側に過度に侵入した分割面に対応することを除き、
図19と同じ種類のデータサンプルを示す。
【
図21】金型分割面のコンテキストにおける
図18のより詳細な使用である。
【
図24】分割面によって二分された左上側切歯(歯10)の30個の図を示す。
【
図25】分割面によって正確に二分された右上犬歯(歯6)の30個の図を示す。
【
図27】いくつかの上側歯列弓及び下側歯列弓に対するセグメント化の結果の例を示す。
【
図28】セグメント化のためのトレーニングパイプラインである。
【
図29】セグメント化のためのテストパイプラインである。
【
図31】座標系を予測するためのトレーニングパイプラインである。
【
図32】座標系を予測するためのテストパイプラインである。
【
図33】右上歯列弓第2臼歯(UNS=1)の予測を示している。
【
図34】機械学習を使用して提供者及び選好をグループ化するプロセスである。
【発明を実施するための形態】
【0004】
幾何学的深層学習(Geometric Deep Learning、GDL)又は機械学習方法を使用して、いくつかの歯科及び歯列矯正のプロセス及びタスクのための歯科スキャンを処理する。GDLを使用することで、例えば、これらのプロセス及びタスクを自動化する、部分的に自動化する、又は改善することができる。以下は、以下のセクションに説明される実施形態に加えて、歯科及び歯列矯正の用途におけるGDLの例示的な使用である。
【0005】
転移学習の使用:本方法では、良好なトレーニングデータが不足している状況において転移学習を使用することができる。本方法では、十分なトレーニングデータが存在する種類の歯に対して事前トレーニングされたモデルを基本モデルとして使用し、その重みを完全に又は部分的に微調整して、最初の(データ不足の)種類の歯に対して動作するのに適した新しいモデルを作成することができる。
【0006】
他のモダリティの使用:GDLは、マルチビュー2次元(2D)投影、例えば、マルチビュー畳み込みニューラルネットワーク(multi-view convolutional neural network、MVCNN)と共に使用することができる。
【0007】
複数のモダリティを一緒に使用する:本方法では、モダリティのすべて又は一部の機械を使用するパイプラインを作成して、ハイブリッドパイプラインを作成することができる。このパイプラインは、複数のモダリティによるデータを取り込むことができる。
【0008】
図1は、口腔内3次元(3D)スキャン又は物理モデルのスキャンに基づくデジタル3Dモデルを受信して、GDLを使用して処理するためのシステム10の図である。システム10は、口腔内3Dスキャン又は歯の印象のスキャンから歯(12)のデジタル3Dモデルを受信するプロセッサ20を含む。システム10はまた、液晶ディスプレイ(LCD)デバイスなどの電子ディスプレイデバイス16と、ユーザコマンド又は他の情報を受信する入力デバイス18とを含むことができる。複数の視点(view)からの画像セットに基づいてデジタル3D画像又はモデルを生成するためのシステムは、米国特許第7,956,862号及び同第7,605,817号に開示されており、これらの両方は、完全に記載されているかのように参照により本明細書に組み込まれる。これらのシステムは、口腔内スキャナを使用して、歯又は他の口腔内構造の複数のビューからデジタル画像を得ることができ、これらのデジタル画像は、スキャンされた歯を表すデジタル3Dモデルを生成するために処理される。システム10は、例えば、デスクトップ、ノートブック又はタブレットコンピュータを用いて実装することができる。システム10は、3Dスキャンをローカルに、又はネットワークを介してリモートで受信することができる。
【0009】
I.生成-敵対的生成ネットワーク(Generative Adversarial Network、GAN)
これらの実施形態は、例えば、以下を含む。
【0010】
修復最終スマイル設計:敵対的生成ネットワークを使用して、初期3Dメッシュに基づいて最終スマイルの3Dメッシュを作成する。
【0011】
修復装具の設計:敵対的生成ネットワーク(GAN)を使用して、最終スマイル設計の3Dメッシュに基づいて修復装具を作成する。
【0012】
クラウン及びブリッジの設計:GANを使用して、治療の過程で装具(ブレース、ブラケットなど)がどのように見えるかを表示する能力を提供する。
【0013】
仮想デボンディング:GANを使用して、装具(ブラケット、リテーナ、又は他のハードウェア)を含む歯列弓の初期3Dスキャンに基づいて、装具なしのスキャンされた歯列弓メッシュを生成し、代替的に、機械学習セグメント化モジュールを使用して、スキャンされた歯列弓内に存在するブラケット、リテーナ、又は他のハードウェアを識別する。次いで、GAN又は3Dメッシュ処理を使用して、スキャンメッシュから装具を除去することができる。
【0014】
A.メッシュクリーンアップ
これらの実施形態は、歯科スキャンのための自動化された3Dメッシュクリーンアップのための方法を含む。3つの主要な手法、すなわち、3Dメッシュ処理手法、深層学習手法、及び、いくつかの3Dメッシュ処理要素といくつかの深層学習要素とを採用する組み合わせ手法がある。
【0015】
セクション1:歯科スキャンクリーンアップのための3Dメッシュ処理
本方法は、3Dメッシュの様々な特性を有する、様々な口腔内スキャナ及びラボスキャナによって生成された生(クリーンアップ前)のデジタル歯科モデルを受信する。本方法は、標準的なドメイン独立3Dメッシュ修復技法を利用して、後続の動作におけるメッシュ処理の問題を回避する特定のメッシュ品質を保証する。本方法はまた、同じモデルの生(左画像)バージョン並びにクリーンアップされかつ歯肉がクリッピング/ブリッジされた(右画像)バージョンを示す
図2に示されるように、モデル基部除去及び部分的な歯肉のクリッピング/ブリッジなどのカスタム歯列矯正/歯科ドメイン固有アルゴリズムを使用する。これらの自動化されたクリーンアップ結果を、市販又はカスタムのメッシュ操作ソフトウェアを使用した手動での対話を介して、さらに精緻化することができる。メッシュクリーンアップは、したがって、例えば、特徴を除去すること、特徴を追加すること、又は他のクリーンアップ技法を行うことによって、メッシュ又はモデルを修正することを含むことができる。
【0016】
セクション2:歯科スキャンクリーンアップのための深層学習。
より多くのデータが取得されるにつれて、機械学習方法及び特に深層学習方法は、明示的にプログラムされた方法の性能に匹敵するか又はそれを上回る性能を発揮し始める。深層学習方法は、トレーニングのプロセスを通じて、より高次元の潜在的又は隠れた特徴のいくつかの非線形関数の組み合わせを使用してデータから直接的にいくつかの有用な特徴を推論することができるため、特徴を手動で作成する必要がないという大きな利点を有する。メッシュクリーンアップ問題の解決を試みるとき、例えば、PointNet、PointCNN、MeshCNN、及びFeaStNetreなどの方法を使用して、3Dメッシュ上で直接動作することが望ましい場合がある。
【0017】
深層学習アルゴリズムは、2つの主要な開発ステップ、すなわち、1)モデルのトレーニング、及び2)モデルの展開、を有する。
【0018】
モデルのトレーニングでは、過去のケースデータの複数の生(クリーンアップ前)及びクリーンアップされたデジタル3Dモデルを利用する。生又は部分的にクリーンアップされた3Dモデルが、予測される改善かつクリーンアップされた3Dモデルを生成するように設計された深層学習フレームワークに入力される。オプションとして、データ拡張(augmentation)を入力モデルに適用して、深層学習モデルに入力されるデータの量を増加させることができる。いくつかのデータ拡張技法としては、メッシュの平行移動及び回転、均一及び不均一なスケーリング、エッジフリッピング、並びにメッシュ頂点へのランダムノイズの追加が挙げられる。次に、予測されたクリーンアップされたデジタル3Dモデルと実際のクリーンアップされたデジタル3Dモデルとの間の差を最小化するように重みのセットを反復的に調整するプロセスを通じて、モデルをトレーニングする。次に、トレーニング中に使用されなかったケースの予備セットのクリーンアップされたメッシュを生成し、これらの生成された3Dメッシュを、実際のケースデータのクリーンアップされたメッシュと比較することによって、トレーニングされたモデルを評価する。
【0019】
モデル展開段階では、モデルトレーニング中に開発されたトレーニングされたモデルを利用する。トレーニングされたモデルは、以前に見たことがない新しいケースの生のデジタル3Dモデルを入力として受け取り、このケースのクリーンアップされた3Dモデルを生成する。
【0020】
図3は、本明細書でさらに説明される、以下のモデル開発/トレーニング方法及びモデル展開方法のフローチャートを提供する。
【0021】
モデルの開発/トレーニング:
1.入力:過去のケースデータの3Dモデル(22)。
2.オプションのデータ拡張(24)。
3.深層学習モデルをトレーニングする(26)。
4.生成されたクリーンアップされた3Dメッシュをグラウンドトゥルースデータに対して評価する(28)。
【0022】
モデルの展開:
1.入力:新しいケースのデジタル3Dモデル(30)。
2.トレーニングされた深層学習モデルを実行する(32)。
3.提案されたクリーンアップされた3Dメッシュを生成する(34)。
【0023】
セクション3:組み合わせ手法(3Dメッシュ処理+深層学習)。
セクション2で説明したように、深層学習を使用して、明示的にプログラムされた3Dメッシュ処理ステップなしに、入力スキャンからクリーンアップされたメッシュを生成することが可能である。しかしながら、いくつかのメッシュクリーンアップ動作(例えば、穴を埋める、三角形交差を除去する、及び孤立部分を除去する)は、うまく定義されたメッシュ動作であり、深層学習ではなく3Dメッシュ処理方法を使用してより効果的に実施される可能性が高い。代わりに、本方法では、セクション1で説明したすべてではなく、いくつかのメッシュ処理ステップの代わりに深層学習を使用する組み合わせ手法を実装することができる。例えば、深層学習を使用してメッシュ内の歯肉線を識別することができ、歯肉線の下の余分な材料を除去することができる。また、深層学習を使用して、窪み、欠けた歯、根本の欠損、及び凹部を含む、歯科スキャンにおける病理学的特徴(
図4を参照)を識別することもできる。これらの特徴は、いったん検出されると、3Dメッシュ処理アルゴリズムを使用して修復することができる、又は病理学的特徴を直接修復するように深層学習モデルをトレーニングすることができる。
図4は、根本の欠損(左画像)及び欠けた歯(右画像)を含む病理学的特徴を示す。
【0024】
B.推論を使用したメッシュクリーンアップ
これらの方法は、GAN及びGDLを使用して、データから学習した傾向に基づいて手動のメッシュクリーンアッププロセスを自動化する。メッシュの欠陥としては、トポロジー的な穴(topological holes)、滑らかでない表面などが挙げられる。これらの方法では、機械学習手法を使用して、クリーンアップされていない状態のメッシュとクリーンアップされた状態のメッシュとの間のマッピングを構築する。このマッピングは、敵対的トレーニングを通じて学習され、対応するクリーンアップされていないソースメッシュが与えられると、クリーンアップされたメッシュの条件付き分布において具現化される。モデルは、クリーンアップされていない状態の口腔内スキャンを使用して取得された点群のデータセット(データ点と呼ばれる)と、半自動化ソフトウェアプログラムによって、又は訓練された人間によって完全に手動で行われるクリーンアッププロセスを経た後の対応するメッシュとを使用して、トレーニングされる。
【0025】
この機械学習モデルは、後から、他のジオメトリ動作のための前処理ステップとして使用することができる。例えば、デジタル歯列矯正の場合、このモデルを使用して、入力された点群を、ループ内に人間を必要とせずに処理に適した座標系において標準化することができる。これにより、各ケースの処理時間が効果的かつ大幅に短縮されるとともに、このタスクを実行するために人間の作業者を訓練する必要性が低減される。加えて、機械学習モデルは、多数の訓練された人間によって生成されたデータでトレーニングされるため、一人の人間が単独で行う場合と比較して、より高い精度を達成する可能性を有する。
【0026】
図5は、本方法のトレーニングパイプラインの高レベルのワークフローを示す。ディスクリミネータは、ジェネレータをトレーニングするのを支援するためにのみ使用されるため、推論(展開)中には使用されない。ディスクリミネータ(36)は、{アンクリーン、クリーン}データ点のタプルを分類するように学習し、ジェネレータ(38)は、ディスクリミネータをだますための偽のクリーンデータ点を生成するように学習する。
【0027】
図6は、モデルの推論(展開)のための方法ワークフローであり、ジェネレータ(40)は、アンクリーンなデータ点(44)が与えられた場合にクリーンなデータ点(42)を生成する。この段階では、ディスクリミネータはもはや必要とされない。
【0028】
以下はワークフローにおける段階である。
【0029】
1.前処理。
a.(オプション)低減/拡張:本方法は、ランダムダウンサンプリング、カバレッジアウェアサンプリング(coverage aware sampling)、又は他のメッシュ簡略化技法(メッシュが利用可能である場合)などの点群低減技法を使用して、点群のサイズを低減し、より高速な推論を促進することができる。本方法はまた、メッシュ補間技法を使用して点群のサイズを拡張し、より高い粒度を達成することができる。
【0030】
2.モデルの推論:
前処理されたメッシュ/点群は、機械学習モデルを通過し、生成されたメッシュ/点群が得られる。機械学習モデルの使用に関連するステップを以下に示す。
a.モデルのトレーニング:モデルは、テンソル(モデルの重みと呼ばれる)の集合として具現化される。これらのモデルの重みの意味のある値は、トレーニングプロセスを通して学習される。これらの重みは、完全にランダムに初期化される。
【0031】
トレーニングプロセスは、アンクリーンなメッシュ/点群とクリーンなメッシュ/点群との対のセットであるトレーニングデータを使用する。このデータは、モデルの作成前に利用可能であると仮定される。
【0032】
モデルは2つの主要部分を有し、一方はジェネレータであり、他方はディスクリミネータである。ジェネレータは、メッシュ/点群を取り込み、別のメッシュ/点群を生成する。この生成されたメッシュ/点群は、いくつかの所望の幾何学的特徴を有する。ディスクリミネータは、生成されたメッシュ/点群を受け取り、それにスコアを与える。ディスクリミネータはまた、対応するグラウンドトゥルースのクリーンなメッシュ/点群を与えられ、別のスコアを与える。敵対的損失は、これら2つのスコア間の相違を符号化する。全損失関数は、他の成分も含むことができる。ルールベースの問題固有制約を実施するために、いくつかの成分を導入することができる。
【0033】
本方法は、トレーニングデータセットからランダムに選択されたバッチをモデルに渡し、損失関数を計算する。本方法は、計算された損失関数から勾配を推測し、モデルの重みを更新する。モデルのトレーニング中に、ジェネレータは全域関数を最小化するように更新され、ディスクリミネータは全域関数を最大化するように更新される。このプロセスは、所定の反復回数にわたって、又は特定の客観的基準が満たされるまで繰り返される。
【0034】
b.モデルの検証:トレーニングと並行して、オーバーフィッティングなどのトレーニングに伴う潜在的な問題を監視するために、モデルが常に検証されることが典型的である。
本方法は、トレーニングの開始時に利用可能な検証セットが存在すると仮定する。このデータセットは、対にされたアンクリーンなメッシュ/点群及びクリーンなメッシュ/点群のセットであるという点で、トレーニングデータセットに類似している。
【0035】
設定された回数のトレーニングを反復した後、本方法は、検証セットをモデルに通し、損失関数値を計算する。この値は、モデルが見えないデータに対していかに良好に一般化するかの尺度として役立つ。検証損失値は、トレーニングプロセスを停止するための基準として使用することができる。
【0036】
c.モデルのテスト:モデルのテストは、典型的には、関連するグラウンドトゥルースのクリーンなメッシュ/点群を有さない、見えないデータ点に対して行われる。これは展開において行われる。
【0037】
C.歯科修復予測
これらの方法は、メッシュの初期状態を表すメッシュを与えられたとき、トレーニングセットから学習された傾向に基づいて、歯科修復が行われた後のメッシュをGAN及びGDLを使用して予測する。
【0038】
これらの方法では、機械学習手法を使用して、アンクリーンな状態のメッシュとクリーンな状態のメッシュとの間のマップを構築する。このマップは、敵対的トレーニングを通じて学習され、初期状態に対応するメッシュを与えられたとき、修復された歯のメッシュの条件付き分布において具現化される。モデルは、修復されていない初期状態の口腔内スキャンを使用して取得された点群のデータセット(データ点と呼ばれる)と、修復プロセスを経た後の対応するメッシュとを使用してトレーニングされる。
【0039】
推論機械学習モデルは、後からスマイル予測のために使用することができ、これにより、修復プロセスがソフトウェアにおいて完了した後に、歯科矯正医が患者に修復された歯列弓の最終状態を示すことが可能になり得る。
【0040】
図7は、本方法のトレーニングのための高レベルワークフローを示す。ディスクリミネータは、ジェネレータをトレーニングするのを支援するためにのみ使用されるため、推論(展開)中には使用されない。ディスクリミネータ(46)は、{アンクリーン、クリーン}データ点のタプルを分類するように学習し、ジェネレータ(48)は、ディスクリミネータをだますための偽のクリーンデータ点を生成するように学習する。
【0041】
図8は、モデルの推論(展開)のための方法ワークフローであり、ジェネレータ(50)は、アンクリーンなデータ点(54)が与えられた場合にクリーンなデータ点(52)を生成する。この段階では、ディスクリミネータはもはや必要とされない。
【0042】
以下は、ワークフローにおける段階である。
1.前処理:
a.(オプション)低減/拡張:本方法は、ランダムダウンサンプリング、カバレッジアウェアサンプリング、又は他のメッシュ簡略化技法(メッシュが利用可能である場合)などの点群低減技法を使用して、点群のサイズを低減し、より高速な推論を促進することができる。本方法はまた、メッシュ補間技法を使用して、点群のサイズを拡張し、より高い粒度を達成することができる。
【0043】
2.モデルの推論:
前処理されたメッシュ/点群が機械学習モデルを通過し、生成されたメッシュ/点群が得られる。機械学習モデルの使用に関連するステップを以下に示す。
【0044】
a.モデルのトレーニング:モデルは、テンソル(モデルの重みと呼ばれる)の集合として具現化される。これらのモデルの重みの意味のある値は、トレーニングプロセスを通して学習される。これらの重みは、完全にランダムに初期化される。
【0045】
トレーニングプロセスでは、アンクリーンなメッシュ/点群とクリーンなメッシュ/点群との対のセットであるトレーニングデータを使用する。このデータは、モデルの作成前に利用可能であると仮定される。
【0046】
モデルは2つの主要部分を有し、一方はジェネレータであり、他方はディスクリミネータである。ジェネレータは、メッシュ/点群を取り込み、別のメッシュ/点群を生成し、この生成されたメッシュ/点群は、いくつかの所望の幾何学的特徴を有する。ディスクリミネータは、生成されたメッシュ/点群を受け取り、それにスコアを与える。ディスクリミネータはまた、対応するグラウンドトゥルースのクリーンなメッシュ/点群を与えられ、別のスコアを与える。敵対的損失は、これら2つのスコア間の相違を符号化する。
【0047】
全損失関数は、他の成分も含むことができる。ルールベースの問題固有制約を実施するために、いくつかの成分を導入することができる。
【0048】
本方法は、トレーニングデータセットからランダムに選択されたバッチをモデルに渡し、損失関数を計算する。本方法は、計算された損失関数から勾配を推測し、モデルの重みを更新する。モデルのトレーニング中に、ジェネレータは全域関数を最小化するように更新され、ディスクリミネータは全域関数を最大化するように更新される。このプロセスは、所定の反復回数にわたって、又は特定の客観的基準が満たされるまで繰り返される。
【0049】
b.モデルの検証:トレーニングと並行して、オーバーフィッティングなどのトレーニングに伴う潜在的な問題を監視するために、モデルが常に検証されることが一般的である。
【0050】
本方法は、トレーニングの開始時に利用可能な検証セットが存在すると仮定する。このデータセットは、対にされたアンクリーンなメッシュ/点群及びクリーンなメッシュ/点群のセットであるという点で、トレーニングデータセットに類似している。
【0051】
設定された回数のトレーニングを反復した後、本方法は、検証セットをモデルに通し、損失関数値を計算する。この値は、モデルが見えないデータに対していかに良好に一般化するかの尺度として役立つ。検証損失値は、トレーニングプロセスを停止するための基準として使用することができる。
【0052】
c.モデルのテスト:モデルのテストは、典型的には、関連するグラウンドトゥルースのクリーンなメッシュ/点群を有さない、見えないデータ点に対して行われる。これは展開において行われる。
【0053】
D.歯科修復の検証
これらの方法は、歯科修復装具を作成する際に使用するための構成要素の検証状態を判定する。これらの方法は、修復装具生産パイプラインの自動化を促進することができる。少なくとも2つの実施形態があり、すなわち、1)GraphCNNを使用して3Dメッシュ構成要素にクラスラベル(すなわち合格又は不合格)を適用する実施形態、及び、2)CNNを使用して、3Dメッシュ構成要素の1つ以上のビューを表す1つ以上の2Dラスタ画像のセットにクラスラベル(すなわち合格又は不合格)を適用する実施形態、である。
【0054】
各実施形態は、ニューラルネットワーク(NN)を使用して、歯科修復装具で使用される構成要素の表現の2つ以上の状態を区別し、オプションとして、その構成要素が、装具を構築する際に使用するのに許容可能であるかどうかを判定することを目的とする。
【0055】
これらの実施形態では、完成した歯科修復装具に対して品質保証(QA)を行うことができる。いくつかの生産パイプラインでは、有資格者が、完成した装具を検査し、合格/不合格判定を行わなければならない。これらの実施形態は、修復装具を検証するプロセスを自動化し、残っている最大の「隠れた工場」の1つの労力を排除し、例えば多くの場合、1日~2日のパイプラインプロセスをわずか半時間程度に低減することができる。
【0056】
これらの実施形態は、歯科修復装具の構成要素及び/又は完成した歯科修復装具を検証することができる。そのようなQAプロセスのためにこれらの実施形態を使用する利点として、NNは、生成された構成要素及び配置された構成要素の品質を、手動検査によって可能であるよりも迅速かつ効率的に評価することができ、QAプロセスを、数人の専門家をはるかに超える規模で行うことが可能になる。さらなる利点として、例えば人間が見逃すであろう微妙な異常をNNが認識する場合、NNは、手動検査によって可能であるよりも、構成要素の形状又は配置の品質のより正確な判定を生成することができる。さらに別の利点として、NNを使用し、そのNNの結果を調べることで、人間のオペレータが装具構成要素の適切な設計を認識するように訓練されるのを支援することができる。このようにして、知識を新しい人間の専門家に伝えることができる。
【0057】
さらなる用途において、これらの実施形態は、構成要素を生成及び/又は配置するコードのための広範な自動回帰テストフレームワークの作成をサポートする。このさらなる用途の利点は、包括的な回帰テストが可能になることである。これらの実施形態は、回帰テストフレームワークが、何十もの処理されたケースの出力を自動的に検証することを可能にし、開発者がテストの実行を選択するたびに検証を行うことができる。
【0058】
実施形態1-3Dデータの使用
これらの実施形態は、例えば、グラフCNN(GCNN)を実装するためのオープンソースツールキットMeshCNNを部分的に使用して実装することができる。MeshCNNは、メッシュを入力してそのメッシュにクラスラベルを割り当てるサンプルプログラムを有する。サンプルプログラムは、可能なクラスの長いリストを有する。MeshCNNに付随するサンプルプログラムは、適切なラベルを割り当てるために、これらの3Dメッシュを分類することができる。MeshCNNは、歯科修復装具の作成において使用される構成要素(すなわち金型分割面)の2つ以上の状態(例えば合格/不合格)を区別するように適合される。
【0059】
実施形態2-2Dラスタ画像の使用
この実装は、GCNNがCNNに置き換えられることを除いて、実施形態1の実装に類似する。CNNは、2Dラスタ画像を分類するようにトレーニングされる。所与の構成要素について、CNNは、単独で、又は最終的な装具設計において表される他の特徴と併せて、又はそれらの組み合わせにおいて、構成要素(例えば分割面)の3Dジオメトリの異なるビューのセットのそれぞれを、単独で、入力された歯科構造に関連して、又はその両方で、認識するようにトレーニングされる。これらの2Dラスタ画像は、例えば、市販のCADツールであるGeomagic Wrap、又はBlenderなどのオープンソースソフトウェアツールを用いて生成される。
【0060】
用途1-回帰テスト
コンセプトの実証として、MeshCNNを使用して、「合格」の金型分割面の例と「不合格」の金型分割面の例とを区別するようにNNをトレーニングした。「合格」及び「不合格」は、専門家によって判定され得る主観的なラベルであり、異なる専門家の間で変化し得る。このタイプのラベルは、例えば、犬のImageNet画像に対する「犬」というラベルとは対照的である。「犬」のラベルは客観的なものであり、専門家の意見を含まない。
【0061】
これらの実施形態のNNは、歯科修復装具の生産に使用される部品の生産を自動化するコードの品質をテストするための回帰テストシステムに組み込むことができる。一般に、回帰テストは、コード又は入力に対する最近の変更がシステムの出力に悪影響を及ぼしたかどうかを判定するために使用される。この場合、自動化コードの数行を変更し、それらの変更が一連のテストケースの出力に悪影響を及ぼしたかどうかを迅速に判定することができる必要がある。数十のテストケースが存在し得る。数十のテストケースの出力を手動で検査することができるが、技術者又は他の人がすべてのテストケースの出力を手動で検査するのに必要な時間に関して多大なコストがかかる。本実施形態の利点は、このプロセスを合理化することである。たとえ36のテストケースのうちの1つがコード変更後に許容可能な結果を生成できない場合であっても、この実施形態からのNNは、そのエラーを検出するように設計される。
【0062】
用途2-修復物生産パイプライン
さらなる用途として、NNを、回帰テストの外で使用することができ、生産におけるQAステップとして適用することができる。現在、歯科装具の作成に関連する3Dデータを有資格者が手作業で検査しなければならない。これらのデータが検証されなければならない製造プロセスのいくつかの段階がある。
【0063】
一実施形態では、NNを使用して、修復装具の重要な構成要素である「金型分割面」の正確さを検証する。分割面が正確に形成されることが重要である。この新しいNNは、歯ごとに分割面を検査し、分割面が各歯を二分している様子を観察する。
【0064】
構成要素の生成及び配置
これらの実施形態は、自動化コードの出力に対して動作する。自動化コードは、「Automated Creation of Tooth Restoration Dental Appliances」と題されたPCT特許出願第PCT/IB2020/054778号、及び「Neural Network-Based Generation and Placement of Tooth Restoration Dental Appliances」と題された米国特許仮出願第63/030144号の内容の一部又はすべてを具現化することができる。これらの出力のいくつかは、生成される構成要素である。生成される構成要素のリスト(すべてを網羅するものではない)としては、金型分割面、歯肉トリム面、顔リボン(facial ribbons)、切歯隆線(incisal ridges)、舌棚、補剛リブ、「ドア及び窓」、正中離開マトリックス(diastema matrices)が挙げられる。これらの出力の他のものは、配置される構成要素(例えば、患者の歯の幾何学形状に対して特定の方法で位置合わせするために平行移動及び/又は回転させなければならない既成ライブラリ部品)である。配置される構成要素のリスト(すべてを網羅するものではない)としては、切歯位置合わせ特徴、通気孔、後部スナップクランプ、ドアヒンジ、及びドアスナップが挙げられる。技術者は、自動化出力を検査して、生成された構成要素が適切に形成されていること、及び配置されたライブラリ構成要素が適切に位置決めされていることを確認しなければならない。本実施形態からのNNを使用して、構成要素が適切に形成又は配置されているかどうかを判定することができる。利点は、技術者の時間を節約し、技術者が見落とす可能性がある構成要素の形状又は配置の誤りを発見することによって、より高品質の歯科修復装具を製造できる可能性があることである。金型分割面など、特に重要な特定の構成要素が存在する。金型分割面は、装具のその後の形成のための多くの基礎を形成する。金型分割面に誤差がある場合、誤差を発見すること、及び装具作成プロセスにおいて誤差を早期に発見することには大きな価値がある。
【0065】
両方の実施形態のための機械学習
機械学習システムは、動作の2つの段階、すなわち1)トレーニング、及び2)検証/運用を有する。実施形態におけるNNは、良好なジオメトリの例及び不良なジオメトリの例でトレーニングされなければならない。本発明者らの最初のコンセプト実証では、3Dジオメトリに金型分割面を使用した。
図9は、「合格」の分割面の例を示す。
図10は、「不合格」の分割面の例を示す。「不合格」の分割面は、エラーを導入するために自動化コードを意図的かつ一時的に修正することによって生成した。
【0066】
実施形態1のトレーニング及びホールドアウト検証
MeshCNNコードを、歯科修復装具の構成要素部分のこの特定のデータセット上で(修正なしで)実行し、「合格」部分と「不合格」部分とを区別するようにトレーニングした。トレーニングデータセットは、14例の「合格」分割面及び14例の「不合格」分割面を含んでいた。「不合格」例の各々は、「合格」例のうちの1つの破損したインスタンスである(すなわち、生成される分割面が破損するようにコードを変更した)。テストデータセットは、6つの「不合格」例及び7つの「合格」例を含んでいた。20エポックにわたりNNをトレーニングし、ホールドアウト検証セットにおいて100%の精度を達成した。1つのエポックは、各例を1回繰り返すことを含む。この概念実証を実装する目的のために、NNによって必要とされるRAMを節約し、NNを通常のラップトップ上で動作させることができるように、生産分割面よりも少ない数の三角形を用いて分割面を生成した。
【0067】
次に、機械学習モデルをトレーニングする際に一般的であるように、ホールドアウト検証データセット、すなわちトレーニングプロセスに関与しなかったデータサンプルでNNをテストした。18個の「合格」サンプル(すなわち良好な分割面)を準備し、18個の「不合格」サンプル(すなわち不良な分割面)を準備した。NNは、これらのホールドアウト検証データサンプルを100%正しく分類した。
【0068】
実施形態1の図
図11は、実施形態1の要素を示しており、合格の金型分割面と不合格の金型分割面とを区別するために、グラフCNN(GCNN)(56)を使用して、合格/不合格ラベル(58)を3Dメッシュ(60)に直接適用する。
【0069】
図12は、実施形態1を使用して、回帰テスト及びコード開発のコンテキストにおけるトレーニングされたGCNNの運用を説明するフローチャートである。コードテストのコンテキストでは、フルサイズのメッシュとダウンスケールされたメッシュの両方が許容される。これらのメッシュは、装具を作成するために生産システムによって必要とされるよりも少ない三角形を使用して生成することができる(例えば10分の1の数の三角形を用いて構成要素を生成することができる)。
図12のフローチャートは、本明細書でさらに説明されるように、以下の方法を提供する。
【0070】
1.入力:3Dメッシュ(62)及び自動化パラメータ(64)。
a.影響を受けたコードを実行する(68)。
b.3Dメッシュ(70)。
2.入力:NNパラメータ(66)。
a.グラフCNN(72)。
b.分割面(74)のクラスラベル。
3.出力:ラベル==「不合格」の場合、出力は「失敗」である。それ以外の場合、「合格」を出力する(76)。
【0071】
図13は、実施形態1を使用する、生産製造システムのコンテキストにおけるトレーニングされたGCNNの運用を説明するフローチャートであり、構成要素を使用して歯科修復装具を作製するため前に、構成要素の適合性を最初に評価しなければならない。この後者の用途では、構成要素はフルサイズでなければならない(すなわちメッシュは三角形を全数含まなければならない)。
図13のフローチャートは、本明細書でさらに説明されるように、以下の方法を提供する。
【0072】
1.入力:3Dメッシュ(78)及び自動化パラメータ(80)。
a.ランドマークベースの自動化を実行する(84)。
b.3Dメッシュ(86)。
2.入力:NNパラメータ(82)。
a.グラフCNN(88)。
b.分割面のクラスラベル(90)。
3.出力:ラベル==「合格」である場合、テストは合格する。それ以外の場合、テストは失敗する(92)。
【0073】
実施形態2の図
図14は、実施形態2の要素を示しており、CNN(94)を使用して、様々なビュー(100)から得られた3Dメッシュの2Dラスタ画像(98)のセットを分析することによってメッシュに合格/不合格ラベル(96)を適用して、合格の金型分割面と不合格の金型分割面とを区別する。
【0074】
図15は、実施形態2を使用する、回帰テストシステムのコンテキストにおけるトレーニングされたCNNの運用を説明するフローチャートである。
図15のフローチャートは、本明細書でさらに説明されるように、以下の方法を提供する。
【0075】
1.入力:3Dメッシュ(102)及び自動化パラメータ(104)。
a.影響を受けたコードを実行する(108)。
b.3Dメッシュ(110)。
c.3Dメッシュの2Dラスタ画像(メッシュのいくつかのビューの各々から1つの画像)を生成するスクリプト(112)。
d.2Dラスタ画像(114)。
2.入力:NNパラメータ(106)。
a.CNN(116)。
b.クラスラベル(118)。
c.各画像について「合格」又は「不合格」の結果を累積する(120)。
3.出力:いずれかの画像に対してラベル==「不合格」である場合、「失敗」を出力する。それ以外の場合、「合格」を出力する(122)。
【0076】
図16は、実施形態2を使用する、生産製造システムのコンテキストにおけるトレーニングされたCNNの運用を説明するフローチャートであり、構成要素を使用して歯科修復装具を作製する前に、構成要素の適合性を最初に評価しなければならない。
図16のフローチャートは、本明細書でさらに説明されるように、以下の方法を提供する。
【0077】
1.入力:3Dメッシュ(124)及び自動化パラメータ(126)。
a.ランドマークベースの自動化を実行する(130)。
b.3Dメッシュ(132)。
c.3Dメッシュの2Dラスタ画像(メッシュのいくつかのビューの各々から1つの画像)を生成するスクリプト(134)。
d.2Dラスタ画像(136)。
2.入力:NNパラメータ(128)。
a.CNN(138)。
b.クラスラベル(140)。
3.出力:すべての2Dラスタ画像についてラベル==「合格」である場合、テストは合格である。それ以外の場合、テストは失敗する(142)。
【0078】
図17は、中央クリップが配置された歯列弓の合格(左)2D画像及び不合格(右)2D画像を示しており、中央クリップは、左画像では正しく配置されており、右画像では正しく配置されていない。
【0079】
検証
この実施形態は、本明細書に記載されている他の実施形態の拡張である。この実施形態では、上述した4つの項目に加えて、さらに別の項目を追加する。この実施形態では、NNを使用して、歯科修復装具において使用される構成要素の表現の2つ以上の状態を、その構成要素が装具の構築に使用するのに許容可能であるかどうかを判定する目的で区別し、構成要素が許容可能ではないと判明した場合、NNは、いくつかの実施形態では、構成要素の幾何学形状を補正するために構成要素をどのように修正するべきかの指示を出力することができる。
【0080】
「3Dメッシュ構成要素」という用語は、上述のものから生成された構成要素、上述のものから配置された構成要素、又はラピッドプロトタイピング、3D印刷、若しくはステレオリソグラフィシステムとともに使用するように意図された別の3Dメッシュを示すために使用される。構成要素は、ブール演算によって最終部分に統合されるポジティブ特徴又はネガティブ特徴のいずれかとすることができる。この実施形態は、コンテキストフィードバックを自動特徴生成に提供するのに役立ち、構成要素を作成するための1つのアルゴリズム又はルールセットと、その構成要素の品質をチェックするための1つのNN分類とが存在し得る。2つの構成要素の間の関係は、許容可能な結果(作成/生成>分類>再生成>分類>...>最終設計)を保証するための再帰的な「推測及びチェック」メカニズムを含む。
【0081】
この実施形態は、デジタル歯科学及び歯科装具の自動生産のコンテキストにおける3Dメッシュ構成要素を含む。例としては、修復装具、クリアトレイアライナ、ブラケット結合トレイ、舌側ブラケット、修復構成要素(例えばクラウン、義歯)、患者固有のカスタムデバイスなどが挙げられる。歯科医又は提供者は、この実施形態を、提供者が歯科医院で作成したデジタル設計に適用することができる。他の実施形態も可能であり、例えば、設計の自動化がこの実施形態から恩恵を受け得る任意の用途であり、3D印刷のための支持構造の自動設計及び部品固定のための固定具の自動設計を含む。加えて、3D印刷ラボでは、この実施形態をプロトタイプ部品に適用することができ、部品は3Dメッシュとして具現化される。製造環境では、3D印刷されるカスタム構成要素にこの実施形態を適用することができ、この場合、NNの入力は、構成要素の写真、又は物理的部品をスキャンすることによって生成されるメッシュのスクリーンキャプチャから導出される。これにより製造業者は、一般的な3D解析ソフトウェアを使用することなく出力部品の品質を確認することが可能となり、出力部品の品質を確認するために人間の専門家によって必要とされる労力を低減又は排除することができる。この実施形態は、ユーザとソフトウェアとの対話によって適用することができ、又はこの実施形態は、ユーザの直接的な介入なしにプロセスに入力を提供するスマートシステムのバックグラウンド動作の一部とすることができる。
【0082】
この実施形態は、一般に、3Dメッシュに関する問題の検出及びそれらの問題の自動補正に有用である。
【0083】
図18は、この実施形態の要素を提供する。3Dメッシュ構成要素が作成される(144)。検証ニューラルネットワークは、(様々な視野方向から生成された)3Dメッシュ構成要素の2Dラスタ画像を検査し、3Dメッシュ構成要素が合格するかどうかを判定する(146)。検証ニューラルネットワークが合格判定を示す場合、3Dメッシュ構成要素は、意図された用途における使用のためにクリアされる(例えば、金型分割面は、修復装具における使用のためにクリアされる)(148)。検証ニューラルネットワークが、3Dメッシュ構成要素が合格しないと判定した場合、検証ニューラルネットワークは、いくつかの実施形態では、3Dメッシュ構成要素をどのように変更するかの指示を出力することができる(150)。
【0084】
3Dメッシュ構成要素は、以下を通じて作成され、すなわち、本明細書で説明される自動生成、本明細書で説明される自動配置、専門家による手動生成、専門家による手動配置、又はいくつかの他の手段、例えば、ラピッドプロトタイピングラボにおけるCADツールの使用又は別の設定の使用、を通じて作成される。
【0085】
その3Dメッシュ構成要素は、(例えば本明細書で説明される種類の)検証ニューラルネットワークに入力される。検証ニューラルネットワークは、3Dメッシュ構成要素の品質に関する結果、すなわち合格又は不合格のいずれかを示す。結果が合格である場合、3Dメッシュ構成要素は、その意図された目的のために使用されるように(例えば歯科装具に組み込まれるように)送られる。結果が不合格である場合、検証ニューラルネットワークは、いくつかの実施形態では、3Dメッシュ構成要素を期待されたものに近づけるために、3Dメッシュ構成要素をどのように修正するかの指示を出力することができる。
【0086】
以下に説明する実施形態では、金型分割面は、歯列弓内の各歯の近傍で検査される。金型分割面がその歯と正しく交差しない場合、本実施形態は、金型分割面が歯の外側咬頭又は切端をよりきれいに二分するようにするために、金型分割面を舌側又は顔側のいずれかに移動させるべきであるという指示を出力する。金型分割面は、各歯の顔側部分と舌側部分とを分割するように意図されており、これは、金型分割面が歯の外側咬頭頂に沿って延びるべきであることを意味する。金型分割面が舌側方向に行き過ぎた位置で、又は顔側方向に行き過ぎた位置で切断している場合、金型分割面は、各歯の顔側部分と舌側部分とを適切に分割しない。その結果、金型分割面は、その歯の近傍において調整を必要とする。金型分割面を自動的に生成するソフトウェアは、その歯の近くの金型分割面の顔側/舌側の位置決めをずらすように動作可能なパラメータを有する。この実施形態では、金型分割面が各歯をよりきれいに二分するように、適切な方向にこれらのパラメータ値を段階的に変化させる。
【0087】
この実施形態では、いくつかの歯の近傍の金型分割面に変更を要求することができるが(すなわち金型分割面が歯を正確に二分しなかった場合)、他の歯の近傍の金型分割面に変更を要求することはできない(すなわち金型分割面が歯を正確に又はよりきれいに二分した場合)。
【0088】
この実施形態では、2つの検証ニューラルネットワークが存在し、1つは舌側バイアスNNと呼ばれ、1つは顔側バイアスNNと呼ばれる。これらのニューラルネットワークの両方は、歯の3Dジオメトリのビューの2Dラスタ画像でトレーニングされ、歯の3Dジオメトリは、金型分割面に関連して視覚化される(このセクションにおける上記の説明を参照)。金型分割面は、先に定義したように、3Dメッシュ構成要素の一例である。
【0089】
金型分割面に関連する歯の2Dラスタ画像を作成するためのオプションは、以下を含む。
1.金型分割面は、3Dメッシュとして、同様にメッシュである歯とともにシーンに描画することができる。
2.金型分割面は、歯と交差してもよく、その結果、歯の幾何学形状に沿ってその交点の輪郭をトレースする線が生じる。
3.金型分割面は、ブール演算の様式で歯と交差してもよく、それによって、歯の一部分(例えば舌側又は顔側のいずれか)がシーンから減算される。残りのジオメトリの2つの面には、明確にするために、例えば青色及び赤色、又は明るい及び暗いシェーディングなど、色又は異なるシェーディングを与えることができる。
4.金型分割面は、歯と交差してもよく、その結果、色分けされた歯のメッシュが得られる。金型分割面の顔側に位置する歯のメッシュの部分には、例えば赤色又は第1のシェーディングが付けられる。金型分割面の舌側に位置する歯のメッシュの部分には、例えば青色又は第1のシェーディングとは異なる第2のシェーディングが付けられる。このオプションは
図19及び
図20に示されている。
5.上記のいずれか又はすべてを組み合わせる。
【0090】
図19(左側)は、歯が分割面によって正確に二分された歯の図を示す。
図19(右側)は、歯が分割面によって不正確に二分された(例えば分割面が顔側方向に行き過ぎている)歯の図を示す。
図20は、ネガティブサンプル(左側)が、舌側に過度に侵入した分割面に対応することを除き、
図19と同じ種類のデータサンプルを示す。
【0091】
上記の各々について、任意のビューが考慮される。いくつかの実施形態では、マルチビューパイプラインを使用することで、レンダリングされた画像の任意のカメラ位置及び角度を有する任意の数のビューの使用を可能にすることができる。
【0092】
トレーニング:
舌側バイアスNNは、画像の2つのクラス、すなわち、1)金型分割面が正確に形成され、歯を正確に二分するクラス、及び2)金型分割面が不正確に形成され、1つ以上の歯を正確に二分しないクラス、でトレーニングされる。この例では、歯列弓内の各歯のいくつかの任意のビューを反映する画像を作成した。分割面が(上記リストのように)歯と交差するので、これらのビューは、分割面に関連して歯を示すべきである。この場合は、上記のオプション4を使用することができ、分割面が歯と交差しており、歯の上に例えば赤色及び青色の着色又は異なるシェーディングを生成する。
【0093】
この実施形態では、画像の2つのクラス(すなわち合格の分割面を有する画像と、不合格の分割面を有する画像)を区別するように、舌側バイアスNNをトレーニングする。舌側バイアスNNが入力分割面に対して不合格結果を示す場合、本方法は、分割面が、舌側に行き過ぎた様式で歯を二分したことを認識する。したがって、本方法は、金型分割面が自動生成ソフトウェア(例えば本明細書で説明されるような自動生成ソフトウェア)によって再加工されるときに、分割面がその歯に対して舌側に行き過ぎており、反対方向にわずかに移動するべきであるという指示を出力する。分割面を自動的に生成するためのコードは、舌側方向又は顔側方向のいずれかに分割面をずらすことができる、各歯に対するパラメータを有する。分割面の次の反復によって、この歯に対して顔側方向に少しずつ移動するように、このパラメータを調整することができる。
【0094】
別の実施形態では、歯の画像に対して機能する回帰ネットワークを使用して、顔側方向における表面の移動量を実質的に推定することができる。回帰ネットワークは、歯の画像が与えられたときに舌領域又は顔領域における「逸脱」を推定するために使用することができる。その逸脱量をパラメータに変換することが実現可能であり得る。フィードバックループにおけるこの変更により、本方法における反復/修正の数が減少する。
【0095】
顔側バイアスNNは、舌側バイアスNNと同じポジティブクラス画像を用いてトレーニングされるが、ネガティブクラス画像が、歯に沿って顔側方向に行き過ぎた分割面を使用して生成される。顔側バイアスNNが不合格判定を示すとき、本方法は、金型分割面が歯に沿って顔側方向に行き過ぎていることを認識しており、金型分割面を舌側方向に少しずつ移動させるように自動生成ソフトウェアに命令しなければならないことを除いて、トレーニングの詳細の残りのすべては実質的に同じである。
【0096】
別の実施形態では、舌側方向又は顔側方向のいずれかにおける逸脱量の異常を取り出すように、ニューラルネットワークをトレーニングすることができる。そのようなNNは、その推論において歯列弓のメッシュ/画像の最も顕著な部分であったものを強調表示する能力を有する。
【0097】
いくつかの実施形態では、回帰ネットワークを使用して、顔側での逸脱の量を推定し、それに応じて対応するパラメータを調整することができる。
【0098】
トレーニングされたニューラルネットワークの運用:
各歯が別々に分析される。各歯のいくつかの画像がパイプラインに通され、合格/不合格判定が各画像に対して示される。歯/分割面の組み合わせのいくつかの画像がこのパイプラインを通して示される場合、結果を判定するための異なるオプションが存在する。いくつかの実施形態では、いくつかのビューのうちの少なくとも1つが不合格判定を示す場合、本方法は、その歯の近傍で分割面を調整する必要があるという指示を出力する。別の実施形態では、分析された画像の一部又は大部分が不合格判定を示す場合、本方法は、その歯の近傍で分割面を調整する必要があるという指示を出力する。
【0099】
一実施形態において、検証ニューラルネットワークは、畳み込みニューラルネットワーク(CNN)を含む。CNNは、様々な異なるネットワーク構成を具現化することができ、中でも特に、異なる数の層、層ごとの異なる数のノード、ドロップアウト層の異なる使用、畳み込み層の異なる使用、高密度層の異なる使用などを有するネットワークを含む。
【0100】
別の実施形態では、検証ニューラルネットワークは、マルチビューCNN(MVCNN)アーキテクチャの要素を利用してもよい。要約すると、ネットワークの入力は、3Dシーンの任意の数の画像を使用する。すべての画像が、特徴抽出CNNの共有コピーを通過する。次いで、これらの特徴は、ビュープーリングメカニズムを使用してプールされ、典型的には完全に接続されたネットワークである分類ネットワークに供給される。標準的なCNNとの基本的な違いは、この種のアーキテクチャでは同じシーンの複数のビューを使用できることである。トレーニングは類似する方法で動作するが、1つの変更として、一度に1つの画像及びラベル/値を渡す代わりに、本方法では一度に画像及びラベル/値としてメッシュの複数のビューを渡す。
【0101】
さらに別の実施形態では、検証CNN(2Dラスタ画像を使用して動作する)を、MeshGANなどの、3Dデータを使用して直接動作するニューラルネットワークに置き換えることができる。別の実施形態では、検証CNN(2Dラスタ画像を使用して動作する)を、GraphCNN(3Dデータ上で直接動作する)に置き換えることができる。別の実施形態では、検証CNN(2Dラスタ画像を使用して動作する)を、GraphGAN(3Dデータ上で直接動作する)に置き換えることができる。
【0102】
一例では、1)舌側バイアスNN、及び2)顔側バイアスNNの両方に、金型分割面に関連する歯の画像を提供する。
1.両方のニューラルネットワークが合格判定を示す場合、金型分割面は、修復歯科装具の生産に使用されるようにクリアされる。
2.舌側バイアスNNが不合格判定を示し、顔側バイアスNNが合格判定を示す場合、本方法は、金型分割面が舌側方向に行き過ぎているという指示を出力する。金型分割面自動生成ソフトウェアは、金型分割面の次の反復が作成されるときに、歯の近傍において顔側方向に少しずつ金型分割面を調整しなければならない。
3.舌側バイアスNNが合格判定を示し、顔側バイアスNNが不合格判定を示す場合、本方法は、金型分割面が顔側方向に行き過ぎているという指示を出力する。金型分割面自動生成ソフトウェアは、金型分割面の次の反復が作成されるときに、歯の近傍において舌側方向に少しずつ金型分割面を調整しなければならない。
4.舌側バイアスNN及び顔側バイアスNNの両方が不合格判定を示す場合、その結果は人間の意思決定者に提供され、人間の意思決定者は、金型分割面が歯の近傍で調整を必要とするかどうかを決定する。
【0103】
本方法は、各歯をループし、金型分割面がその歯に対して正確に位置決めされているかどうか、又は金型分割面が歯の近傍において舌側方向又は顔側方向のいずれかに調整を必要とするかどうかを判定する。
【0104】
別の実施形態では、それぞれが2クラス分類を実行するように動作可能である舌側バイアスNN及び顔側バイアスNNを含む対のNNを、3クラス分類を実行するように動作可能である単一のNNに置き換えてもよい。この3クラス分類NNは、次の3つのクラスからの2Dラスタ画像でトレーニングされる。
・クラス0-舌側に行き過ぎるように意図的に修正された金型分割面によって歯が二分されている色分けされた歯のビュー。
・クラス1-正確に形成された金型分割面によって歯が二分されている色分けされた歯のビュー。
・クラス2-顔側に行き過ぎるように意図的に修正された金型分割面によって歯が二分されている色分けされた歯のビュー。
【0105】
3クラス分類NNは、3つのクラスラベルのこのセットから予測を示す。
【0106】
別の実施形態では、Nクラス分類NNを採用して、装具の構成要素(すなわち金型分割面)のN個の別個の状態に対応するN個の可能なクラスラベルのうちの1つを、各データサンプルに割り当てることができる。
【0107】
別の実施形態では、2つの別個のNNを有するのではなく、顔側及び舌側からの両方のビューを1つのNNに組み込むことができる。この場合、グラフィカル畳み込みネットワークは、歯のメッシュ全体を入力とし、その特定の歯に対する「半径方向の」調整量を表す1つの回帰値を出力する。そのようなNNへの入力(元の3Dシーン)は、厳密には、シーンからレンダリングされた数個の任意にレンダリングされた画像よりも多くの情報を有する。
【0108】
図21は、金型分割面のコンテキストにおいて、
図18の実施形態のさらなる詳細を提供する。
図21のフローチャートは、本明細書でさらに説明されるように、以下の方法を提供する。
【0109】
1.入力:自動化パラメータ(152)及び患者の歯の3Dメッシュ(154)。
a.分割面が自動化プログラムによって生成される(156)。
b.分割面を歯列弓全体と交差させ、結果として得られる顔側歯列弓部分を赤色で着色し、舌側歯列弓部分を青色で着色する(又はこれらの部分に対して他の色若しくはシェーディングを付ける)(158)。
2.様々な任意の視野角から、色で細分化された歯のN個のビューを生成する(168)。
a.入力:NNパラメータ(160)。
i.各ビューについて、舌側バイアスNNを実行する(162)。
b.入力:NNパラメータ(166)。
i.各ビューについて、顔側バイアスNNを実行する(164)。
3.ビューごとの結果を集約し、Tooth_iの近くの分割面の部分に対する判定を示す(170)。
a.分割面は、Tooth_iの近傍における変更を必要としない(172)。
b.顔側バイアスNNが不合格判定を出力し、舌側バイアスNNが合格判定を出力した場合、分割面がTooth_iの近傍で舌側に移動すべきであることを記録する(172)。
c.舌側バイアスNNが不合格判定を出力し、顔側バイアスNNが合格判定を出力した場合、分割面がTooth_iの近傍で顔側に移動すべきであることを記録する(172)。
d.両方のニューラルネットワークが不合格判定を出力した場合、Tooth_iの位置で何も行わない、又はフラグを立てて人間のオペレータによって分割面を検査する(172)。
4.歯ごとの調整命令を集約する(174)。
a.フィードバック:集約された調整命令をソフトウェアに送って分割面を自動的に生成し(176)、ステップ1.a(156)に戻る。
b.調整がない場合、完了(178)。
【0110】
以下は、検証構成要素の2Dラスタ画像の実施形態の実装において使用されるニューラルネットワークの一実施形態である。
【表1】
【0111】
一実施形態では、1)正しい装具構成要素の例、及び2)正しくないように系統的に変更された装具構成要素の例、でトレーニングされるニューラルネットワークを使用する。このニューラルネットワークは、異なるビューから得られる構成要素の複数の2Dレンダリングを使用して、正しい装具構成要素と正しくない装具構成要素とを区別する。
【0112】
NNは、1)正しい分割面、及び2)舌側に行き過ぎた分割面、を区別するようにトレーニングすることができる。3人の患者のケース、合計54本の歯について、NNでテストした。このテストでは、50本の歯が正しいと予測され、4本の歯が正しくないと予測された。
【0113】
図22は、以下の検証プロセスのフローチャートであり、
図23は、このプロセスを図で表現したものである。
【0114】
1.入力:歯のデータ(180)。
2.装具構成要素を自動的に生成する(182)。
3.装具構成要素に関連する患者の歯の2Dビューを生成する(184)。
4.ニューラルネットワーク(NN)が、装具構成要素の2Dビューを検証する(186)。
a.NNが合格を返す場合、構成要素は、装具における使用のためにクリアされる。
b.NNが不合格を返す場合、いくつかの実施形態では、構成要素設計の次の反復を精緻化するために、フィードバックを修復自動化コードに送ることができる。
5.出力:修復装具で使用できる状態の構成要素(188)。
【0115】
この方法では、ニューラルネットワークは、金型分割面の正確さを検証するようにトレーニングされる。この実施形態は2クラス分類を反映しており、ニューラルネットワークは2つのクラスのデータでトレーニングされた。すなわち分割面は以下のいずれかである。
クラス0:舌側に行き過ぎて位置決めされている、
又は
クラス1:正しい(舌側にも顔側にも行き過ぎていない)。
【0116】
図24の図は、分割面によって二分された左上の側切歯(歯10)の30個のビューを示している。このテストケースでは、舌側方向に0.5mm行き過ぎているように修正された分割面によって歯を二分した。他のテストケースは、舌側方向に1.0mm行き過ぎているように修正された分割面を中心に設計されている。さらに他のテストケースは、歯を正確に二分する(すなわち舌側方向に行き過ぎず、顔側方向にも行き過ぎない)分割面を中心に設計されている。
【0117】
二分された歯の30個のビュー(
図24)の各々をニューラルネットワークに通した。ニューラルネットワークは、各ビューについて予測を行い、そのビューに示される分割面が、次のいずれか、すなわち、クラス0「舌側に行き過ぎている」、又はクラス1「正しく位置決めされている」、であると結論した。このテストケースでは、すべてのビューのグラウンドトゥルースラベルは、同じ「クラス0」であった。しかしながら、この特定の分割面のジオメトリの曖昧さのために、ニューラルネットワークは、ビューのうちのいくつかを正しく分類することができなかった(すなわち、それらのビューに「クラス1」のラベルを割り当てた)。これらの誤って予測されたビューは、図において薄い灰色で示してある。画像におけるこの効果は、アルファチャネルを使用して達成された。ニューラルネットワークが、グラウンドトゥルースラベルに一致しない予測を示した11個のそのようなビューがある。残りの19個のフルカラービューは、ニューラルネットワークがグラウンドトゥルースラベルに一致する予測を得たビューである。検証システムは、30個のうちの19個という過半数により、分割面が舌側に行き過ぎていると結論付けた。これは、グラウンドトゥルースデータが利用可能であるテストケースであった。
【0118】
ニューラルネットワークの結果を視覚化するこの方法は、単一のテストケースに対して歯の多数のビューを編成し、人間がテストケースの結果に目を通して把握することを可能にするため、有利である。
【0119】
図25の図は、分割面によって正確に二分された右上犬歯(歯6)の30個のビューを示している。この場合、ニューラルネットワークは、ビューのうちの1つについて正しくない予測を行っただけである(図の左上付近の薄い灰色のビューを参照)。このテストケースの場合も、30のうち29という過半数により、分割面が正しいという結果がもたらされる。
【0120】
ニューラルネットワークは、以下の3つのクラスのグラウンドトゥルースデータでトレーニングされる。
クラス0:分割面は、舌側に行き過ぎて位置決めされるように意図的に修正される。
クラス1:正しい(舌側にも顔側にも行き過ぎていない)。
クラス2:分割面は、顔側に行き過ぎて位置決めされるように意図的に修正される。
【0121】
本明細書で説明される様々な実施形態は、様々な異なるニューラルネットワークにおいて使用することができる。実施形態2では、CNNを使用する。実施形態1では、グラフ畳み込みニューラルネットワーク(GraphCNN)を使用する。他の実施形態は、以下を含む他のタイプのニューラルネットワークから全体的又は部分的に導出された要素を含んでもよく、すなわち、他のタイプのニューラルネットワークは、パーセプトロン(P)、フィードフォワード(FF)、放射基底ネットワーク(RBF)、ディープフィードフォワード(DFF)、回帰型ニューラルネットワーク(RNN)、長・短期記憶(LSTM)、ゲート付き回帰型ユニット(GRU)、オートエンコーダ(AE)、変分オートエンコーダ(VAE)、ノイズ除去オートエンコーダ(DAE)、スパースオートエンコーダ(SAE)、カプセルオートエンコーダ(CAE)、積層カプセルオートエンコーダ(SCAE)、深層信念ネットワーク(DBN)、深層畳み込みネットワーク(DCN)、デコンボリューションネットワーク(DN)、敵対的生成ネットワーク(GAN)、液体状態機械(LSM)、及びニューラルチューリングマシン(NTM)である。
【0122】
GraphCNNは、3Dメッシュなどの3D形式で提供される歯科データ上で動作することができる。メッシュは、頂点と、頂点を面に配置する方法に関する命令との両方を含む。面の定義には、頂点を結ぶエッジに関する情報が暗黙的に含まれている。
【0123】
CNNは、2Dラスタ画像の形式で提供される歯科データ上で動作することができる。2Dラスタ画像は、色又はシェーディングを使用して、歯科解剖学的構造内の対象領域を強調表示することができる(例えば、金型分割面を歯に適用することによって生じる歯の顔側部分及び舌側部分を示すために、赤色及び青色の着色、又は明るい及び暗いシェーディングを使用する)。
【0124】
これらのニューラルネットワークは、拡張されたデータでトレーニングすることができる。3Dメッシュデータの場合、拡張は、3Dメッシュの形状を変更するがメッシュの本質的なアイデンティティを変更しないように、頂点又は面に適用される確率論的変換又は決定論的変換を含むことができる。メッシュ形状におけるこの変動は、トレーニングデータとして使用されるときに分類器がオーバーフィッティングを回避するのを助けることができる。2Dラスタ画像の場合、画像を、サイズ変更する、伸張する、回転する、せん断する、又はノイズを導入することができる。同様に3Dデータの場合、2Dデータを拡張してトレーニングデータとすることにより、ニューラルネットワークがトレーニング時にオーバーフィッティングを回避するのを助けることができる。
【0125】
本明細書で説明されるニューラルネットワークは、RELUなどの様々な活性化関数を組み込むことができる。他の活性化関数としては、バイナリステップ、同一性(identity)、ロジスティック、及びTanHが挙げられる。ニューラルネットワークは、プーリング及び最大値プーリングなどのダウンサンプリング技法を組み込むことができる。ニューラルネットワークは、オーバーフィッティングを低減し、ドロップアウトなどの正則化技法を使用して一般化誤差を低減することができる。
【0126】
他の検証
以下は、本明細書で説明される検証技法から恩恵を受けることができる歯科装具の他の例である。
【0127】
1.カスタム歯列矯正装具(例えば舌側ブラケット)
いくつかの実施形態では、本明細書で説明される検証技法は、カスタム舌側ブラケットの設計に適用することができる。歯の上に配置された舌側ブラケットのデジタル3Dビューを使用して、舌側ブラケットの設計に対し合否判定を行う検証NNをトレーニングすることができる。このフィードバックは、訓練された技術者が使用してもよいし、舌側ブラケットの次の反復の設計を改善するために、舌側ブラケットを生成した自動化ソフトウェアに送信してもよい。舌側ブラケットの場合、ボンディングパッドは、歯の周囲の輪郭を描き、シェルを形成する厚さを作成し、次いでブール演算を介して歯を減算することによって、特定の歯のために作成される。ブラケット本体は、ライブラリから選択され、パッド上に配置され、ブール加算を介してパッドに統合される。様々なブラケット構成要素(例えばフック及びウィング)が、歯及び歯肉の特定の幾何学形状に最良に適合するように調整され、ブラケット本体に統合されて、3Dジオメトリファイルとしてエクスポートされるブラケットのデジタル設計が完成する。いくつかの実施形態では、STLフォーマットを3Dジオメトリファイルに使用することができる。
【0128】
2.非カスタムブラケットのカスタムインダイレクトボンディング
ブラケットは、ライブラリから選択され、歯の上にカスタムに配置される。ボンディング領域における局所的な歯の解剖学的構造に基づいて微調整が行われ、歯とブラケットとの間の接着結合ライン内の補正を通じて、トルク及び回転のいくらかのカスタマイズが可能である。NNは、ブラケットの配置における不一致を認識するようにトレーニングされ、これらの配置は、自動配置又は技術者が生成した配置のいずれかである。
【0129】
3.アライナ又はクリアトレイアライナ(clear tray aligner、CTA)
別の実施形態では、本明細書で説明される検証技法を、CTAの設計、例えば、アライナトレイを設計するために使用される3Dデータに適用することができる。そのようなデータの例は、次に3Dプリンタに送られる「固定具モデル」と呼ばれる患者の歯の3D表現(例えば3Dメッシュ)である。トリムラインの位置、アタッチメント、バイトランプ又はスリットの幾何学形状及び位置などのパラメータを検証することができる。トリムラインとは、熱成形中にアライナがトリミングされる場所である。直接3D印刷されるアライナでは、より複雑な特徴が可能であり(局所的な厚さ、補強リブの幾何学形状、フラップの配置など)、本明細書で説明される検証技法を適用することができる。
【0130】
トリムラインを示す患者の歯及び歯肉のデジタル3Dモデルを使用して、CTAに対して合格/不合格判定を行う検証NNをトレーニングすることができる。このフィードバックは、訓練された技術者が使用するか、又はCTAを生成した自動化ソフトウェアに送信して、CTAの次の反復の設計を改善することができる。CTAとは、一連の所定の位置に沿って患者の歯を漸進的に移動させるように成形された、一連の取り外し可能なほぼ見えないプラスチックトレイである。
【0131】
本明細書で説明される検証技法を使用して検証することができる他の歯科装具としては、インプラント配置、又は他のタイプの歯科修復物(ベニア、クラウン、又はブリッジなど)の設計に関するデータ又は構造が挙げられる。
【0132】
また、本明細書で説明される検証技法は、人間の専門家による手動配置及びアルゴリズムによる自動配置のいずれか又は両方を含む、ブラケット配置を検証するために使用することができる。
【0133】
II.頂点及びエッジの分類
これらの実施形態は、例えば、機械学習セグメント化モジュールを使用して、スキャンされた歯列弓からハードウェアをセグメント化する能力を提供することを含む。ハードウェアは、ブラケット、ブレース、又は他の複雑な外部人工物の形態であり得る。
【0134】
A.セグメント化
深層学習モデルを使用して、3Dメッシュから歯を自動的にセグメント化する。このプロセスは、2つのステップ、すなわちモデルの開発/トレーニングと、モデルの展開とに分けることができる。トレーニング時には(
図26のフローチャート1)、複数の患者からのセグメント化されていないデジタル3Dモデル及びセグメント化されたデジタル3Dモデルの両方が、深層学習モデルに入力され、深層学習モデルは、予測された歯のセグメント化と実際の歯のセグメント化との間の差を最小化するパターンを学習するように最適化されている。モデルの展開時には(
図26のフローチャート2)、トレーニングされた深層学習モデルを使用して、以前に見たことがない新しいケースデータに対するセグメント化の予測を生成する。
【0135】
図26のフローチャートは、本明細書でさらに説明されるように、以下の方法を提供する。
【0136】
モデルの開発/トレーニング:
1.入力:過去のケースデータにおけるセグメント化されていないデジタル3Dモデル及びセグメント化されたデジタル3Dモデル(190)。
2.(オプション)データの拡張、並びにメッシュのクリーンアップ及びリサンプリング(192)。
3.深層学習モデルをトレーニングする(194)。
4.グラウンドトゥルースセグメント化データに対してセグメント化予測を評価する(196)。
【0137】
モデルの展開:
1.入力:新しいケースの不正咬合のデジタル3Dモデル(198)。
2.(オプション)メッシュのクリーンアップ及びリサンプリング(200)。
3.トレーニングされた深層学習モデルを実行する(202)。
4.提案されたセグメント化を生成する(204)。
【0138】
より多くのデータが取得されるにつれて、機械学習方法及び特に深層学習方法は、明示的にプログラムされた方法の性能を上回る性能を発揮し始める。深層学習方法は、トレーニングのプロセスを通じて、より高次元の潜在的又は隠れた特徴のいくつかの非線形関数の組み合わせを使用してデータから直接的にいくつかの有用な特徴を推論することができるため、特徴を手動で作成する必要がないという大きな利点を有する。セグメント化問題の解決を試みる一方で、不正咬合の3Dメッシュ上で直接動作することが望ましい場合がある。
【0139】
歯肉からの歯のセグメント化のための深層学習:
深層学習モデルは、MeshCNNを使用して3Dメッシュデータから歯のセグメント化を行う。MeshCNNは、3D三角形メッシュのための汎用ディープニューラルネットワークであり、3D形状分類又はセグメント化などのタスクのために使用することができる。このフレームワークは、メッシュエッジに直接適用される畳み込み層、プーリング層、及びアンプーリング層を含み、メッシュの回転、スケーリング、及び平行移動の変化に対して不変であるため、他の手法よりも有利である。MeshCNNを含む深層学習アルゴリズムは、2つの主要な開発ステップ、すなわち、1)モデルのトレーニング、及び2)モデルの展開、を有する。
【0140】
1.モデルのトレーニング
モデルのトレーニングでは、過去のケースデータにおける複数のセグメント化されていないデジタル3Dモデル及びセグメント化されたデジタル3Dモデルを利用する。使用前に、これらの3Dモデルに対して、何らかのメッシュクリーンアップ及びリサンプリングを行うことができる。本発明者らのケースデータでは、穴を埋める、微細エッジを除去する、孤立部分を除去するなどを含む多くの標準的なメッシュクリーンアップ動作が実行された。モデルトレーニング中の計算効率のために、メッシュデシメーションも実行し、面の数をより小さい数(約3000)に減少させた。ディープニューラルネットワークをトレーニングするために使用される3Dメッシュサンプルの数を増加させるために、不均一スケール、頂点シフト、及びエッジフリッピングを含むデータ拡張技法を使用した。セグメント化されていないメッシュ及び各メッシュエッジのラベルをMeshCNNフレームワークに入力した。深層学習モデルにおいて標準的であるように、モデルは、予測されたセグメント化ラベルと実際のセグメント化ラベルとの間の差を最小化するように重みのセットを反復的に調整するプロセスを通じてトレーニングした。次いで、トレーニング中に使用されなかった予備のケースセットに対してセグメント化ラベルを予測し、精度を測定することによって、トレーニングされたモデルを評価した。このモデルは、エッジを歯又は歯肉のいずれかに属するものとして正しく識別する精度が97%に達した。
【0141】
2.モデルの展開
モデルの展開段階では、ステップ1のモデルのトレーニングの間に開発されたトレーニングされたモデルを利用する。トレーニングされたモデルは、入力として、新しいケースにおけるセグメント化されていない3Dスキャンを受け取る。モデルのトレーニング段階中に3Dメッシュに対して実行されたいずれのメッシュクリーンアップ又はリサンプリングも、新しい3Dスキャンデータに適用されるべきである。トレーニングされたモデルは、各エッジについて、エッジが「歯肉」クラスに属するか「歯」クラスに属するかを示すラベルのセットを出力する。
【0142】
いくつかの上側歯列弓及び下側歯列弓に対するセグメント化の結果の例を
図27に示す。
【0143】
歯のタイプ分類の拡張:
上記で作成されたセグメント化の結果は、メッシュ内のエッジが2つのクラス、すなわち(1)歯、(2)歯肉のうちの一方に属すると仮定することによって生成された。これに代えて、エッジは、複数のクラスのうちの1つに属するものとしてラベル付けすることができ、例えば次のとおりである。
1.歯のタイプ別:(1)臼歯、(2)小臼歯、(3)犬歯、(4)切歯、(5)歯肉。
2.歯のタイプ及び歯列弓別:(1)上側歯列弓の臼歯、(2)上側歯列弓の小臼歯、(3)上側歯列弓の犬歯、(4)上側歯列弓の切歯、(5)下側歯列弓の臼歯、(6)下側歯列弓の小臼歯、(7)下側歯列弓の犬歯、(8)下側歯列弓の切歯、(9)歯肉。
3.歯の番号別:(1)歯肉、(2)歯1、(3)歯2、...、(33)歯32。
【0144】
MeshCNNなどの深層学習モデルを、複数のクラスのうちの1つに属するものとしてエッジをラベル付けするようにトレーニングすることができる。
【0145】
B.推論を使用するセグメント化
この方法は、GDLを使用し、異なるスキャンハードウェアを使用してオブジェクトスキャンの部分又はセグメントを推論する。この方法は、機械学習手法を使用して、入力点群のセグメント化を推論する。これらのセグメントは、個々の歯及び歯肉(歯茎)に対応する。モデルは、口腔内スキャンを使用して取得された点群のデータセット(以下、データ点と呼ぶ)を使用してトレーニングされ、データセットは、点群内の各点の(x,y,z)座標と、点から歯及び歯肉への関連するセグメント化の集合として具現化されたものである。
【0146】
このマップは、後に別の幾何学的演算において使用することができる。例えば、デジタル歯列矯正の場合、このモデルを使用して、ループに手動で入力する必要なしに処理に適した座標系において入力点群を標準化することができる。これにより、各ケースの処理時間が効果的かつ大幅に短縮され、このタスクを実行するために人間の作業者を訓練する必要性も低減される。
【0147】
【0148】
図28のフローチャートは、本明細書でさらに説明されるように、トレーニングパイプラインのための以下の方法を提供する。
1.点群/メッシュ(206)。
a.トレーニング及び検証のみのための、関連するセグメント化(212)。
2.(オプション)低減/拡張(208)。
3.(拡張された)点群/メッシュ(210)。
a.トレーニング及び検証のみのための、関連するセグメント化(214)。
4.GDL機械学習モデル(216)。
5.予測されたセグメント化(218)。
【0149】
図29のフローチャートは、本明細書でさらに説明されるように、テストパイプラインのための以下の方法を提供する。
【0150】
1.点群/メッシュ(220)。
2.(オプション)低減/拡張(222)。
3.(拡張された)点群/メッシュ(224)。
4.GDL機械学習モデル(226)。
5.予測されたセグメント化(228)。
【0151】
トレーニング中には、点群及び関連するセグメント化の両方が渡されるが、テスト中には、点群のみが渡される。
【0152】
ワークフローにおける段階は以下のとおりである。
【0153】
1.前処理:
a.(オプション)点群の低減/拡張:本方法は、ランダムダウンサンプリング、カバレッジアウェアサンプリング、又は他のメッシュ簡略化技法(メッシュが利用可能である場合)などの点群低減技法を使用して、点群のサイズを低減し、より高速な推論を促進することができる。本方法はまた、メッシュ補間技法を使用して点群のサイズを拡張し、より高い粒度を達成することができる。
【0154】
b.(オプション)セグメント化の低減/拡張:点群がデシメートされる場合、結果として生じる点群のセグメント化は、デシメートされた点をドロップアウトすることによって相応にデシメートされる。点群が拡張される場合、新たに作成された点に対するセグメント化ラベルは、元の点群内の点に対する最近傍クエリを使用して決定される。
【0155】
2.モデル推論:
(拡張された)点群は機械学習モデルを通過し、関連する近似座標系が得られる。機械学習モデルの使用に関連するステップを以下に示す。
【0156】
a.モデルのトレーニング:モデルは、テンソル(モデルの重みと呼ばれる)の集合として具現化され、これらのモデルの重みの意味のある値は、トレーニングプロセスを通して学習される。これらの重みは、完全にランダムに初期化される。
【0157】
トレーニングプロセスでは、対のデータ点及び関連する座標系のセットであるトレーニングデータを使用する。このデータは、モデルの作成前に利用可能であると仮定される。
【0158】
本方法は、トレーニングデータセットからランダムに選択されたバッチをモデルに渡し、損失関数を計算する。この損失関数は、グラウンドトゥルース座標系と予測される座標系との間の非類似性を測定する。
【0159】
本方法は、計算された損失関数から勾配を推測し、モデルの重みを更新する。このプロセスは、所定の反復回数にわたって、又は特定の客観的基準が満たされるまで繰り返される。
【0160】
b.モデルの検証:トレーニングと並行して、オーバーフィッティングなどのトレーニングに伴う潜在的な問題を監視するためにモデルが常に検証されることが一般的である。
【0161】
本方法は、トレーニングの開始時に利用可能な検証セットを使用することができる。このデータセットは、対になったデータ点及び関連する座標系のセットであるという点で、トレーニングデータセットに類似している。
【0162】
設定された回数のトレーニングを反復した後、本方法は、検証セットをモデルに渡し、損失関数値を計算する。この値は、モデルが見えないデータに対していかに良好に一般化するかの尺度として役立つ。検証損失値は、トレーニングプロセスを停止するための基準として使用することができる。
【0163】
c.モデルのテスト:モデルのテストは、典型的には、関連する注釈付きセグメント化を有さない、見えないデータ点に対して行われる。
【0164】
III.回帰
これらの実施形態は、例えば、以下を含む。
【0165】
ケース複雑度:回帰モジュールを使用して、スキャンされた歯列弓が与えられたケースに対する治療の複雑度レベルを分類する。
【0166】
ケース特性:回帰モデルを使用して、咬合関係(クラス1、2、又は3)、咬合(オーバーバイト/過蓋咬合)、正中線シフトなどのケース特性に基づいて、スキャンされた歯列弓メッシュを分類する。回帰モデルを使用して、咬合関係(クラス1、2、又は3)、咬合(オーバーバイト、オーバージェット、前方/後方交叉咬合)、正中線オフセット、アンテリアレベリング、空間/叢生、歯列弓形状、及び適用されたプロトコル(押出、拡張、遠心移動)などのケース特性の既存のラベルに基づいて、スキャンされた歯列弓メッシュを分類する。
【0167】
治療期間の予測:回帰モジュールを使用して、スキャンされた歯列弓が与えられたケースの治療の複雑度レベルを分類し、これは後に、必要なケアの量及び治療時間を予測するために使用される。
【0168】
A.座標系
この実施形態は、グローバル参照フレームに対する3Dオブジェクトの相対姿勢又は座標系を決定する機械学習方法を含む。このような方法は、歯列矯正治療計画などの問題に影響を及ぼす。
【0169】
3Dオブジェクトの姿勢を決定する問題は、通常、計算ジオメトリ手法を使用して解決される。特に人間及び人間の顔の2D画像からの3D姿勢推定は、よく研究された問題である。しかしながら、参照フレームを与えられた3Dオブジェクトの相対姿勢が重要であり、3Dにおけるオブジェクトの形状に関する情報が利用可能であるシナリオが存在する。従来、形状特徴の明示的な記述及びテンプレートへのマッチング又はテンプレートへの位置合わせを使用して、姿勢を決定する。例えば、反復最近点(IC)アルゴリズムを使用して、観察されたターゲットの3D形状を標準テンプレートに位置合わせすることができる。次いで、推論された変換行列を使用して、参照テンプレートの姿勢をターゲット形状に変換することができる。
【0170】
3D形状の表現に直接適用される深層学習方法は、2つの問題、すなわち、1)オブジェクトの分類、及び2)セマンティックなセグメント化又は頂点/要素ごとの分類、を解決するために使用されてきた。姿勢又は座標系を予測するために同様の技法を使用することが可能である。要件は、モデルが、姿勢(グローバル参照フレームに対する3Dオブジェクトの位置及び向き)を表す実数のセット又は変換行列を予測することである。これは、7つの出力パラメータ(並進のための3つ、回転の四元数表現のための4つ)によって表すことができる。これは、完全な変換行列を表すために必要とされる12個のパラメータよりも少ないパラメータを提供する。しかしながら、この表現は限定されるものではなく、軸角度又はオイラー角などの他の表現を使用することもできる。
【0171】
方法:メッシュジオメトリ(例えば歯のメッシュ表現)の多数のトレーニングデータ及びラベルとしての対応する出力変換パラメータが与えられると、メッシュベース又は点ベースの深層学習モデルを、例えばPointNet、PointCNNなどを使用してトレーニングすることができる。さらに、トレーニング中に、入力メッシュに対して、アンダーサンプリング、回転、点の並べ替えなどのデータ拡張を行うことができる。これは、単一のソースから何千もの拡張された入力データを生成するのを助けることができ、アルゴリズムがより高い性能をもたらす可能性を大幅に増大させる。
図30は、歯の座標系の予測を示す。
【0172】
以下は、座標系予測のための例示的な実施形態である。3D点群又はメッシュデータを受信する方法であって、グローバル参照フレームが与えられたとき、機械学習アルゴリズムを使用して相対的な姿勢及び位置を予測する方法、及び、3D点群又はメッシュデータを受信する方法であって、位置合わせアルゴリズムを使用して、点群を1つ以上のテンプレートの既知のセットに整列させ、次いで、その結果を使用して、グローバル参照フレームに対する相対姿勢及び位置を決定する方法。
【0173】
これらの実施形態は、例えば、3D点群が歯を表し、位置合わせアルゴリズムがICP、点から平面までの距離メトリックを有するICPなどであり得る場合に使用することができる。
【0174】
B.推論を使用する座標系
これらの方法は、GDLを使用して、異なるスキャンハードウェアを使用してその表面から取得される点群のみを使用して、オブジェクトの向き/座標系を推論する。
【0175】
これらの方法では、機械学習手法を使用して、点群と関連する座標系との間のマップを推論する。そのようなアルゴリズムの例は、PointNetの修正を使用することができる。本方法は、6次元表現で具現化される、点群内の各点の(x,y,z)座標及び関連する座標系の集合として具現化される、口腔内スキャンを使用して取得された点群のデータセット(データ点と呼ばれる)を使用して、モデルをトレーニングする。モデルは、点群ドメインと座標系ドメインとの間の回帰マップとして機能し、点群が与えられると、モデルは、関連する座標系を推論する。
【0176】
このマップは、後に他の幾何学的演算において使用することができる。例えば、デジタル歯列矯正の場合、このモデルを使用して、ループ内に人間を必要とせずに処理を行うことができる座標系において入力点群を標準化することができる。これにより、各ケースの処理時間が効果的かつ大幅に短縮され、このタスクを実行するために人間の作業者を訓練する必要性も低減される。
【0177】
【0178】
図31のフローチャートは、本明細書でさらに説明されるように、トレーニングパイプラインの方法を提供する。
1.点群/メッシュ(230)。
a.トレーニング及び検証のみのための座標系(238)。
b.座標系変換(240)。
2.(オプション)低減/拡張(232)。
3.標準化(234)。
4.標準化された点群/メッシュ(236)。
a.トレーニング及び検証のみのための座標系(242)。
5.GDL機械学習モデル(244)。
6.予測される座標系(246)。
【0179】
図32のフローチャートは、本明細書でさらに説明されるような、テストパイプラインのための方法を提供する。
1.点/クラウドメッシュ(248)。
2.(オプション)低減/拡張(250)。
3.標準化(252)。
4.標準化された点群/メッシュ(254)。
5.GDL機械学習モデル(256)。
6.予測された座標系(258)。
【0180】
方法ワークフロー:入力点群は、スキャンされた歯列弓から歯をセグメント化することから得られる。この点群は、元々「グローバル座標系」にある。以下は、ワークフローにおける段階である。
【0181】
1.前処理:
a.(オプション)点群低減/拡張:本方法は、ランダムダウンサンプリング、カバレッジアウェアサンプリング、又は他のメッシュ簡略化技法(メッシュが利用可能である場合)などの点群低減技法を使用して、点群のサイズを低減し、より高速な推論を促進することができる。本方法はまた、メッシュ補間技法を使用して点群のサイズを拡張し、より高い粒度を達成することができる。
【0182】
b.点群の標準化:本方法は、白色化プロセスを使用して、点群の平均を原点に位置させ、点群の主軸をX、Y、Z軸に整列させる。この方法は、主成分分析(Principal Component Analysis、PCA)に基づいている。この方法は、点群内の各点からメッシュ平均を差し引き、PCAを使用して抽出された点群の自己相関行列の固有ベクトルからなる直交行列の逆行列を使用して点群を回転させる。点群を標準化する一方で、本方法はまた、このアフィン変換を反映するように関連する座標系を変更する。
【0183】
c.座標系の決定:座標系は、6次元ベクトルにおいて符号化される。並進成分と呼ばれる最初の3つは、グローバル座標系におけるローカル座標系の原点の位置を符号化する。回転成分と呼ばれる残りの3つは、座標軸の向きを符号化する。この変換は、ケーリー変換を使用する。元の向きは、直交行列として、又はオイラー角のセットとして符号化されてもよく、この方法は、それらを対応するケーリー角に変換する。
【0184】
2.モデルの推論:
標準化された点群は機械学習モデルを通過し、関連する近似座標系が得られる。機械学習モデルの使用に関連するステップを以下に示す。
【0185】
a.モデルのトレーニング:モデルは、テンソル(モデルの重みと称される)の集合として具現化される。これらのモデルの重みの意味のある値は、トレーニングプロセスを通して学習される。これらの重みは、完全にランダムに初期化される。
【0186】
トレーニングプロセスでは、対のデータ点及び関連する座標系のセットであるトレーニングデータを使用する。このデータは、モデルの作成前に利用可能であると仮定される。
【0187】
本方法は、トレーニングデータセットからランダムに選択されたバッチをモデルに渡し、損失関数を計算する。この損失関数は、グラウンドトゥルース座標系と予測される座標系との間の非類似性を測定する。
【0188】
本方法は、計算された損失関数から勾配を推測し、モデルの重みを更新する。このプロセスは、所定の反復回数にわたって、又は特定の客観的基準が満たされるまで繰り返される。
【0189】
b.モデルの検証:トレーニングと並行して、オーバーフィッティングなどのトレーニングに伴う潜在的な問題を監視するために、モデルが常に検証されることが一般的である。
【0190】
本方法は、トレーニングの開始時に利用可能な検証セットが存在すると仮定する。このデータセットは、対になったデータ点及び関連する座標系のセットであるという点で、トレーニングデータセットに類似している。
【0191】
設定された回数のトレーニングを反復した後、本方法は、検証セットをモデルに渡し、損失関数値を計算する。この値は、モデルが見えないデータに対していかに良好に一般化するかの尺度として役立つ。検証損失値は、トレーニングプロセスを停止するための基準として使用することができる。
【0192】
c.モデルのテスト:モデルのテストは、典型的には、関連するグラウンドトゥルース座標系を有さない、見えないデータ点に対して行われる。これは展開において行われる。
【0193】
3.(オプション)後処理:推定される座標系は、6次元ベクトルで具現化され、任意の所望のフォーマット、例えばオイラー角に変換することができる。本方法はまた、この推定された座標系を使用して入力メッシュをそのローカル座標に変換することができ、次いで、それらをパイプラインにおける他の動作のために使用することができる。
【0194】
以下は、このタスクのための本発明者らの実験的設定、及びいくつかの歯についての結果の説明である。
【0195】
実験的設定:
65ケースのセット(部分的に完全である可能性がある)を、4:1分割を使用してトレーニングセットと検証セットに分割した。各ケースは、点群と、人間による注釈付きの関連する座標系の集合であった。これらのケースに対応する点群は、可変の入力点密度を有し、それらのサイズにおいても不均一であった。特徴ベクトルとして点の(x,y,z)座標のみを使用した。
【0196】
結果:
図33は、本発明者らのモデルの性能に関する検証セットでの結果の一部を示しており、右上歯列弓第2臼歯(UNS=1)に関する予測を示している。それぞれのケースについて2つの図がある。第1の図(上の図)は、メッシュ上の座標系オーバーレイに対応する。第2の図(下の図)は、座標系予測を使用して変換された点群の差に対応する。赤色(又は第1のシェーディング)は、本発明者らの機械モデルの予測を示すために使用され、青色(又は第1のシェーディングと異なる第2のシェーディング)は、検証点に対応するグラウンドトゥルース注釈を示すために使用されている。
【0197】
IV.自動エンコーダ及びクラスタ化-提供者及び選好のグループ化
これらの実施形態は、例えば、以下を含む。
【0198】
医師及び選好のグループ化:クラスタリングなどの教師なし手法を使用して、提供者(例えば、医師、技術者、又はその他)が、それぞれの治療選好に基づいてグループ化される。治療選好は、治療処方フォームで示すことができる、又は治療選好は、セットアップ特性(例えば、計画された最終セットアップにおける咬合矯正又は正中線矯正の量)、ステージング特性(例えば、治療期間、歯移動プロトコル、又は過剰矯正方式)、又は結果(例えば、修正/改良の数)などの治療計画における特性に基づくことができる。
【0199】
教師あり手法及び既存のデータにおける提供者識別情報を使用して、推奨システムを、各提供者に対して、それぞれの過去の選好に基づいてトレーニングする。
【0200】
教師あり手法を使用して、提供者の(例えば医師の)注記の長い段落が、セットアップ技術者が治療の設計時に従う手順の正しい順序に翻訳又は変換される。
【0201】
図34のフローチャートは、提供者の選好のための方法を提供する。
【0202】
1.入力:提供者の過去の治療情報、例えば、各提供者の治療処方フォーム(260)。
2.機械学習を使用して、例えば、本明細書で説明される機械学習技法のいずれかを使用して、各提供者の選好を要約する(262)。
3.出力:提供者の選好及び過去の治療に基づいた、各提供者のためのカスタマイズされた治療計画(264)。
【0203】
提供者の選好が機械学習によって要約された後、治療計画アルゴリズムは、それらの選好を考慮し、各提供者の(例えば医師の)過去の治療に従って、カスタマイズされた将来の治療計画を生成する。治療をカスタマイズすることで、医師と技術者との間の計画の修正の数を低減することができる。以下の表は、これらの提供者の選好及びカスタマイズされた治療計画を記憶するための例示的なデータ構造を提供する。カスタマイズされた治療計画は、他の方法及びテンプレートで記憶することができる。
【0204】
【0205】
本明細書で説明される方法及びプロセスは、例えば、プロセッサ20などの1つ以上のプロセッサによって実行できるようにソフトウェアモジュール又はファームウェアモジュールに実装することができる。本方法及びプロセスによって生成された情報は、表示装置16などの表示装置上に表示することができる。本方法及びプロセスにおいてユーザ対話が必要又は望まれる場合、そのような対話は、入力デバイス18などの入力デバイスを介して提供することができる。
【0206】
本明細書で説明されるGDL及び機械学習の実施形態は、以下のような実施形態の任意の組み合わせにおいてGDL処理を使用する目的で組み合わせることができる。
【0207】
セクションIで説明したメッシュ又はモデルクリーンアッププロセスを、セクションIで説明した歯科修復予測プロセスの前に、又は歯科修復予測プロセスと共に実行して、クリーンアップされたメッシュ又はモデルを歯科修復予測プロセスに提供することができる。
【0208】
セクションIで説明したメッシュ又はモデルクリーンアッププロセスを、セクションIIで説明したセグメント化プロセス及びセクションIIIで説明した座標系プロセスと共に、セクションIで説明した歯科修復予測プロセスの前又は歯科修復予測プロセスと共に実行して、セグメント化された及び座標系を有するクリーンアップされたメッシュ又はモデルを歯科修復予測プロセスに提供することができる。
【0209】
セクションIで説明したメッシュ又はモデルクリーンアッププロセスを、セクションIで説明した歯科修復検証プロセスの前に、又は歯科修復検証プロセスと共に実行して、クリーンアップされたメッシュ又はモデルを歯科修復検証プロセスに提供することができる。
【0210】
セクションIで説明したメッシュ又はモデルクリーンアッププロセスを、セクションIIで説明したセグメント化プロセス及びセクションIIIで説明した座標系プロセスと共に、セクションIで説明した歯科修復検証プロセスの前に又は歯科修復検証プロセスと共に実行して、セグメント化された及び座標系を有するクリーンアップされたメッシュ又はモデルを歯科修復検証プロセスに提供することができる。
【0211】
セクションIで説明した歯科修復予測プロセスを、セクションIで説明した歯科修復検証プロセスと共に、一方を他方の前に実行する、又は少なくとも部分的に同時に実行することができる。
【0212】
セクションIで説明したメッシュ又はモデルクリーンアッププロセスを、セクションIで説明した歯科修復予測プロセスが、セクションIで説明した歯科修復検証プロセスと共に実行される前に、又は実行されると共に、実行して、クリーンアップされたメッシュ又はモデルを歯科修復予測プロセス及び歯科修復検証プロセスに提供することができる。
【0213】
セクションIで説明したメッシュ又はモデルクリーンアッププロセスを、セクションIIで説明したセグメント化プロセス及びセクションIIIで説明した座標系プロセスと共に、セクションIで説明した歯科修復予測プロセスがセクションIで説明した歯科修復検証プロセスと共に実行される前に、又は実行されると共に、実行して、セグメント化され座標系を有するクリーンアップメッシュ又はモデルを歯科修復予測及び検証プロセスに提供することができる。
【0214】
セクションIで説明したメッシュ又はモデルクリーンアッププロセスを、セクションIIで説明したセグメント化プロセスの前に、又はセグメント化プロセスと共に実行して、クリーンアップされたメッシュ又はモデルをセグメント化プロセスに提供することができる。
【0215】
セクションIで説明したメッシュ又はモデルクリーンアッププロセスを、セクションIIIで説明した座標系プロセスの前に、又は座標系プロセスと共に実行して、クリーンアップされたメッシュ又はモデルを座標系プロセスに提供することができる。
【0216】
セクションIIで説明したセグメント化プロセスを、セクションIIIで説明した座標系プロセスと共に、一方を他方の前に実行して、又は少なくとも部分的に同時に実行して、セグメント化されかつ座標系を有するメッシュ又はモデルを提供することができる。
【0217】
セクションIで説明したメッシュ又はモデルクリーンアッププロセスを、セクションIIで説明したセグメント化プロセスがセクションIIIで説明した座標系プロセスと共に実行される前に、又は実行されると共に、実行して、クリーンアップされたメッシュ又はモデルをセグメント化プロセス及び座標系プロセスに提供することができる。
【0218】
セクションIで説明したメッシュ又はモデルクリーンアッププロセス、セクションIで説明した歯科修復予測プロセス及び歯科修復検証プロセス、セクションIIで説明したセグメント化プロセス、及びセクションIIIで説明した座標系プロセスは、カスタマイズされた治療計画を生成するときに、セクションIVで説明した提供者グループ化プロセスと共に選択的に使用することができる。
【国際調査報告】