(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公表特許公報(A)
(11)【公表番号】
(43)【公表日】2022-12-16
(54)【発明の名称】複数の機械学習モデルに基づく眼内レンズの選択
(51)【国際特許分類】
G16H 30/20 20180101AFI20221209BHJP
A61F 2/16 20060101ALI20221209BHJP
A61B 34/10 20160101ALI20221209BHJP
A61B 3/028 20060101ALI20221209BHJP
A61B 3/10 20060101ALI20221209BHJP
G06N 20/00 20190101ALI20221209BHJP
【FI】
G16H30/20
A61F2/16
A61B34/10
A61B3/028
A61B3/10 900
G06N20/00
【審査請求】未請求
【予備審査請求】未請求
(21)【出願番号】P 2022521372
(86)(22)【出願日】2020-10-06
(85)【翻訳文提出日】2022-04-07
(86)【国際出願番号】 IB2020059386
(87)【国際公開番号】W WO2021070061
(87)【国際公開日】2021-04-15
(32)【優先日】2019-10-09
(33)【優先権主張国・地域又は機関】US
(81)【指定国・地域】
(71)【出願人】
【識別番号】319008904
【氏名又は名称】アルコン インコーポレイティド
(74)【代理人】
【識別番号】100099759
【氏名又は名称】青木 篤
(74)【代理人】
【識別番号】100123582
【氏名又は名称】三橋 真二
(74)【代理人】
【識別番号】100160705
【氏名又は名称】伊藤 健太郎
(72)【発明者】
【氏名】シンチャン バッタチャリア
(72)【発明者】
【氏名】ラメシュ サランガパニ
【テーマコード(参考)】
4C097
4C316
5L099
【Fターム(参考)】
4C097AA25
4C097BB01
4C097SA10
4C316AA13
4C316AA24
4C316AA25
4C316AB02
4C316FB21
4C316FC12
4C316FZ01
5L099AA26
(57)【要約】
プロセッサと有形の非一時的メモリとを有するコントローラを備えて眼内レンズを選択するための方法及びシステム。複数の機械学習モデルがコントローラによって選択的に実行可能である。コントローラは、眼の少なくとも1つの術前画像を受信し、第1の入力機械学習モデルを介して、第1の一式のデータを抽出するように構成される。コントローラは、眼の複数の生体計測パラメータを受信し、第2の入力機械学習モデルを介して、第2の一式のデータを抽出するように構成される。第1の一式のデータと第2の一式のデータとは、混合された一式のデータを得るために結合される。コントローラは、出力機械学習モデルを介して、混合された一式のデータに基づいて少なくとも1つの出力係数を生成するように構成される。眼内レンズは、少なくとも1つの出力係数に部分的に基づいて選択される。
【選択図】
図3
【特許請求の範囲】
【請求項1】
眼内に挿入するための眼内レンズを選択するためのシステムであって、前記システムが、
プロセッサと、命令が記録された有形の非一時的メモリとを有するコントローラであって、
前記コントローラが、第1の入力機械学習モデル、第2の入力機械学習モデル、及び出力機械学習モデルを含む複数の機械学習モデルを選択的に実行するように構成され、
前記プロセッサによって前記命令が実行されることにより、前記コントローラが、
前記眼の少なくとも1つの術前画像を受信し、前記第1の入力機械学習モデルを介して、前記少なくとも1つの術前画像に部分的に基づいて第1の一式のデータを抽出し、
前記眼の複数の生体計測パラメータを受信し、前記第2の入力機械学習モデルを介して、前記複数の生体計測パラメータに部分的に基づいて第2の一式のデータを抽出し、
前記第1の一式のデータと前記第2の一式のデータとを結合して、混合された一式のデータを取得し、
前記出力機械学習モデルを介して、前記混合された一式のデータに基づいて少なくとも1つの出力係数を生成し、
前記少なくとも1つの出力係数に部分的に基づいて前記眼内レンズを選択する、コントローラを備える、システム。
【請求項2】
前記少なくとも1つの出力係数が、自覚的屈折検査に基づく等価球面度数(MRSE)である、請求項1に記載のシステム。
【請求項3】
前記少なくとも1つの術前画像が、第1のイメージング装置から取得され、前記複数の生体計測パラメータが、前記第1のイメージング装置とは異なる第2のイメージング装置から取得される、請求項1に記載のシステム。
【請求項4】
前記複数の機械学習モデルが第3の入力機械学習モデルを含み、前記少なくとも1つの出力係数を生成する前に、前記コントローラが、
過去のそれぞれの術前画像及び術後画像の対にアクセスし、
前記第3の入力機械学習モデルを介して、前記過去の対に部分的に基づいて第3の一式のデータを抽出し、
前記少なくとも1つの出力係数を生成する前に、前記混合された一式のデータに前記第3の一式のデータを加えるように構成される、請求項1に記載のシステム。
【請求項5】
前記眼内レンズが、1つ又は複数の支持構造体と隣接した光学部を備え、
前記眼内レンズが、少なくとも部分的に流体で満たされた内部空洞を備え、前記流体が、前記眼内レンズの度数を変えるために、前記内部空洞内で移動するように構成される、請求項1に記載のシステム。
【請求項6】
前記少なくとも1つの術前画像が、超音波生体顕微鏡画像である、請求項1に記載のシステム。
【請求項7】
前記複数の機械学習モデルのそれぞれが、それぞれの回帰モデルであり、
前記出力機械学習モデルが、多層パーセプトロンネットワークを含む、請求項1に記載のシステム。
【請求項8】
前記複数の生体計測パラメータが、フラットK値及びスティープK値を含む、請求項1に記載のシステム。
【請求項9】
前記第1の一式のデータが、前記眼の複数の術前寸法を含み、
前記複数の術前寸法が、
前房深度、レンズ厚、レンズ径、溝間距離、第1の赤道面位置、第2の赤道面位置、第3の赤道面位置、虹彩径、角膜の第1の表面から術前レンズの後面までの軸方向の長さ、及び毛様体突起径のうちの1つ又は複数を含む、請求項1に記載のシステム。
【請求項10】
前記少なくとも1つの出力係数を生成する前に、前記コントローラが、
前記複数の術前寸法に部分的に基づいて1つ又は複数の代入術後変数を取得し、前記1つ又は複数の代入術後変数が、術後レンズ厚と術後レンズ位置とを含み、
前記少なくとも1つの出力係数を生成する前に、前記混合された一式のデータに前記1つ又は複数の代入術後変数を加えるように構成される、請求項1に記載のシステム。
【請求項11】
前記第1の一式のデータが、前記眼の複数の術前寸法を含み、
前記複数の術前寸法が、前房深度、レンズ厚、レンズ径、溝間距離、虹彩径、角膜の第1の表面から術前レンズの後面までの軸方向の長さ、毛様体突起径、第1の赤道面位置、第2の赤道面位置、及び第3の赤道面位置のそれぞれを含む、請求項1に記載のシステム。
【請求項12】
眼内に挿入するための眼内レンズを選択する方法であって、前記方法が、
プロセッサと有形の非一時的メモリとを有するコントローラを介して、前記眼の少なくとも1つの術前画像を受信するステップと、
前記コントローラを介して、第1の入力機械学習モデル、第2の入力機械学習モデル、及び出力機械学習モデルを含む複数の機械学習モデルを選択的に実行することと、
前記第1の入力機械学習モデルを介して、前記少なくとも1つの術前画像に部分的に基づいて第1の一式のデータを抽出するステップと、
前記コントローラを介して、前記眼の複数の生体計測パラメータを受信することと、
前記第2の入力機械学習モデルを介して、前記複数の生体計測パラメータに部分的に基づいて第2の一式のデータを抽出するステップと、
前記コントローラを介して、前記第1の一式のデータと前記第2の一式のデータとを結合して、混合された一式のデータを取得するステップと、
前記出力機械学習モデルを介して、前記混合された一式のデータに基づいて少なくとも1つの出力係数を生成するステップと、
前記少なくとも1つの出力係数に部分的に基づいて前記眼内レンズを選択するステップとを含む、方法。
【請求項13】
前記少なくとも1つの出力係数を生成するステップの前に、
前記コントローラを介して、過去のそれぞれの術前画像及び術後画像の対にアクセスするステップと、
前記複数の機械学習モデルに第3の入力機械学習モデルを含めるステップと、
前記第3の入力機械学習モデルを介して、前記過去の対の比較に部分的に基づいて第3の一式のデータを抽出するステップと、
前記少なくとも1つの出力係数を生成するステップの前に、前記混合された一式のデータに前記第3の一式のデータを加えるステップとを更に含む、請求項12に記載の方法。
【請求項14】
前記眼内レンズが、1つ又は複数の支持構造体と隣接した光学部を備え、
前記眼内レンズが、少なくとも部分的に流体で満たされた内部空洞を備え、前記流体が、前記眼内レンズの度数を変えるために、前記内部空洞内で移動するように構成される、請求項12に記載の方法。
【請求項15】
前記複数の機械学習モデルのそれぞれが、それぞれの回帰モデルであり、
前記出力機械学習モデルが、多層パーセプトロンネットワークを含む、請求項12に記載の方法。
【請求項16】
前記複数の生体計測パラメータが、フラットK値及びスティープK値を含む、請求項12に記載の方法。
【請求項17】
前記第1の一式のデータが、前記眼の複数の術前寸法を含み、
前記複数の術前寸法が、
前房深度、レンズ厚、レンズ径、溝間距離、第1の赤道面位置、第2の赤道面位置、第3の赤道面位置、虹彩径、角膜の第1の表面から術前レンズの後面までの軸方向の長さ、及び毛様体突起径のうちの1つ又は複数を含む、請求項12に記載の方法。
【請求項18】
前記第1の一式のデータが、前記眼の複数の術前寸法を含み、
前記複数の術前寸法が、前房深度、レンズ厚、レンズ径、溝間距離、虹彩径、角膜の第1の表面から術前レンズの後面までの軸方向の長さ、及び毛様体突起径のそれぞれを含む、請求項12に記載の方法。
【請求項19】
第1のイメージング装置から前記少なくとも1つの術前画像を取得するステップと、前記第1のイメージング装置とは異なる第2のイメージング装置から前記複数の生体計測パラメータを取得するステップとを更に含む、請求項12に記載の方法。
【請求項20】
眼内に挿入するための眼内レンズを選択するためのシステムであって、前記システムが、
プロセッサと、命令が記録された有形の非一時的メモリとを有するコントローラであって、
前記コントローラが、第1の入力機械学習モデル、第2の入力機械学習モデル、第3の入力機械学習モデル、及び出力機械学習モデルを含む複数の機械学習モデルを選択的に実行するように構成され、
前記プロセッサによって前記命令が実行されることにより、前記コントローラが、
前記眼の少なくとも1つの術前画像を受信し、前記第1の入力機械学習モデルを介して、前記少なくとも1つの術前画像に部分的に基づいて第1の一式のデータを抽出し、
前記眼の複数の生体計測パラメータを受信し、前記第2の入力機械学習モデルを介して、前記複数の生体計測パラメータに部分的に基づいて第2の一式のデータを抽出し、
過去のそれぞれの術前画像及び術後画像の対にアクセスし、前記第3の入力機械学習モデルを介して、前記過去の対に部分的に基づいて第3の一式のデータを抽出し、
前記第1の一式のデータと前記第2の一式のデータと前記第3の一式のデータとを結合して、混合された一式のデータを取得し、
前記出力機械学習モデルを介して、前記混合された一式のデータに基づいて少なくとも1つの出力係数を生成し、
前記少なくとも1つの出力係数に部分的に基づいて前記眼内レンズを選択し、
前記少なくとも1つの術前画像が、第1のイメージング装置から取得され、前記複数の生体計測パラメータが、前記第1のイメージング装置とは異なる第2のイメージング装置から取得される、コントローラを備える、システム。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、一般に、複数の機械学習モデルを用いて眼内に挿入するための眼内レンズ(intraocular lens)を選択するシステム及び方法に関する。
【背景技術】
【0002】
一般に、ヒトの水晶体(lens)は、光が容易に通過し得るように透明である。しかしながら、様々な要因によって、水晶体内の領域が混濁し不透明になって、視覚の質に悪影響が及ぶことがある。このような状況は、白内障手術によって治療され得る。白内障手術では、患者の眼内に挿入するための人工水晶体が選択される。実際、白内障手術は世界中で行われている一般的な手術である。白内障手術の臨床結果を左右する重要な要因は、適切な眼内レンズの選択である。現在、患者の眼に関する様々な術前情報を使用して、挿入されるレンズ度数を予測するいくつかの計算機がある。しかしながら、既存の計算機は、眼の完全な術前画像を入力データとして使用していない。
【発明の概要】
【課題を解決するための手段】
【0003】
本明細書では、プロセッサと有形の非一時的メモリとを有するコントローラを用いて眼内に挿入するための眼内レンズを選択するシステム及び方法が開示される。本システムは、包括的で多面的な手法を採用し、プロセッサと命令が記録された有形の非一時的メモリとを有するコントローラを備える。コントローラは、第1の入力機械学習モデル、第2の入力機械学習モデル、及び出力機械学習モデルを含む複数の機械学習モデルを選択的に実行するように構成される。複数の機械学習モデルのそれぞれは、それぞれの回帰モデルであり得る。一例では、出力機械学習モデルは、多層パーセプトロンネットワークを含む。
【0004】
プロセッサによって命令が実行されることにより、コントローラは、眼の少なくとも1つの術前画像を受信する。コントローラは、第1の入力機械学習モデルを介して、少なくとも1つの術前画像に部分的に基づいて第1の一式のデータを抽出するように構成される。一例では、眼の少なくとも1つの術前画像は、超音波生体顕微鏡画像である。第1の一式のデータは、眼の複数の術前寸法を含み得る。複数の術前寸法は、前房深度、レンズ厚、レンズ径、溝間距離、第1の赤道面位置、第2の赤道面位置、第3の赤道面位置、虹彩径、角膜の第1の表面から術前レンズの後面までの軸方向の長さ、及び毛様体突起径のうちの1つ又は複数を含み得る。或いは、複数の術前寸法は、前房深度、レンズ厚、レンズ径、溝間距離、虹彩径、角膜の第1の表面から術前レンズの後面までの軸方向の長さ、及び毛様体突起径のそれぞれを含み得る。
【0005】
コントローラは、眼の複数の生体計測パラメータを受信し、第2の入力機械学習モデルを介して、複数の生体計測パラメータに部分的に基づいて第2の一式のデータを抽出するように更に構成される。複数の生体計測パラメータは、フラットK値及びスティープK値を含み得る。第1の一式のデータと第2の一式のデータとは、混合された一式のデータを取得するために結合され得る。一例では、術前画像は、第1のイメージング装置から取得され、複数の生体計測パラメータは、第1のイメージング装置とは異なる第2のイメージング装置から取得される。例えば、第1のイメージング装置は超音波装置であってもよく、第2のイメージング装置は光干渉断層撮影装置であってもよい。
【0006】
コントローラは、出力機械学習モデルを介して、混合された一式のデータに基づいて少なくとも1つの出力係数を生成するように構成される。眼内レンズは、出力係数に部分的に基づいて選択される。出力係数は、自覚的屈折検査に基づく等価球面度数(manifest refraction spherical equivalent、MRSE)であってもよい。複数の機械学習モデルは、第3の入力機械学習モデルを含み得る。出力係数を生成する前に、コントローラは、過去のそれぞれの術前画像及び術後画像の対にアクセスし、第3の入力機械学習モデルを介して、この過去の対に部分的に基づいて第3の一式のデータを抽出するように構成され得る。第3の一式のデータは、出力係数を生成する前に、混合された一式のデータに加えられる。
【0007】
眼内レンズは、1つ又は複数の支持構造体と隣接した光学部を備え得る。眼内レンズは、少なくとも部分的に流体で満たされた内部空洞を備え得る。流体は、眼内レンズの度数を変えるために内部空洞内で移動するように構成される。当業者が利用できるあらゆるタイプの眼内レンズが採用されてもよいことを理解されたい。
【0008】
本開示の上記の特徴及び利点並びに他の特徴及び利点は、本開示を実施するための最良の態様の以下の詳細な説明を添付の図面と併せて読めば容易に明らかとなる。
【図面の簡単な説明】
【0009】
【
図1】
図1は、コントローラを備え、眼内に挿入するための眼内レンズを選択するためのシステムの概略図である。
【
図2】
図2は、例示的な眼内レンズの概略斜視図である。
【
図3】
図3は、
図1のコントローラによって実行可能な方法の概略フローチャートである。
【
図4】
図4は、眼の例示的な術前画像の概略部分断面図である。
【
図5】
図5は、眼の例示的な術後画像の概略部分断面図である。
【
図6】
図6は、
図1のコントローラによって実行可能な多層パーセプトロンアルゴリズムの概略的な例である。
【
図7】
図7は、
図1のコントローラによるサポートベクター回帰(SVR)技法の概略的な例である。
【発明を実施するための形態】
【0010】
図面を参照すると、図面では同様の参照番号が同様の構成要素を示しており、
図1は、挿入のための眼内レンズを選択するためのシステム10を概略的に示している。眼内レンズ12の一例を
図2に示す。しかしながら、当業者が利用できるあらゆるタイプの眼内レンズが採用されてもよい。システム10は、複数の機械学習モデルを利用する、ロバストな多面的手法を採用している。後述するように、システム10は、眼内レンズ12の選択を最適化するために豊富な画像データと数値データとの両方を活用する。
【0011】
図2を参照すると、眼内レンズ12は、第1の表面16と第2の表面18とを画定する光学部14を備える。光学部14は、眼内レンズ12の位置決め及び保持をサポートするように構成された、第1の支持構造体20及び第2の支持構造体22などの1つ又は複数の支持構造体と隣接し得る。眼内レンズ12は、少なくとも部分的に流体Fで満たされた内部空洞24を画定し得る。流体Fは、眼内レンズ12の厚さ(及び度数)を変えるために、内部空洞24内で移動可能であるように構成される。眼内レンズ12は、多くの異なる形態をとり、複数の及び/又は代替の構成要素を備えることができることを理解されたい。
【0012】
図1を参照すると、システム10は、少なくとも1つのプロセッサPと、眼内レンズ12を選択するための方法100を実行するための命令が記録された少なくとも1つのメモリM(又は有形の非一時的コンピュータ可読記憶媒体)とを有するコントローラCを備える。方法100は、
図3に示され、
図3を参照しながら以下に説明される。
図4は、眼Eの例示的な術前画像200を示している。
図5は、眼Eの例示的な術後画像300を示している。
【0013】
ここで
図1を参照すると、コントローラCは、短距離ネットワーク28を介して、例えば第1のイメージング装置30などの様々なエンティティと通信するように構成され得る。第1のイメージング装置30は、超音波装置、磁気共鳴イメージング装置、又は当業者が利用できる他のイメージング装置であってもよい。短距離ネットワーク28は、無線であってもよいし、物理的な構成要素を含んでもよい。短距離ネットワーク28は、例えばローカルエリアネットワークの形態のシリアル通信バスなど、様々な方法で実施されたバスであってもよい。ローカルエリアネットワークは、コントローラエリアネットワーク(CAN)、コントローラエリアネットワークウィズフレキシブルデータレート(Controller Area Network with Flexible Data Rate、CAN-FD)、イーサネット(登録商標)、Bluetooth(登録商標)、Wi-Fi、及び他のデータ接続形態を含むが、これらに限定されない。短距離ネットワーク28は、インターネットデバイス間及びデバイスとインターネットとの間の通信を簡素化することを目的とした短距離無線技術(又は無線技術)であると定義される、Bluetooth(登録商標)接続であってもよい。Bluetooth(登録商標)(は、固定及びモバイル電子装置データを短距離で伝送し、2.4GHz帯で動作するパーソナルネットワークを構築するためのオープン無線技術規格である。他のタイプの接続が採用されてもよい。
【0014】
図1を参照すると、コントローラCは、第2のイメージング装置32、ディスプレイモジュール及び/又はユーザインターフェース34、並びにデータベース36と通信し得る。加えて、コントローラCは、長距離ネットワーク44を介して、リモートサーバ40及び/又はクラウドユニット42と通信するように構成され得る。リモートサーバ40は、例えば、研究機関、企業、大学、及び/又は病院などの組織によって維持されている私的又は公的な情報源であってもよい。クラウドユニット42は、データの格納、管理、及び処理を行うためにインターネット上でホストされる1つ又は複数のサーバを備えてもよい。長距離ネットワーク44は、複数の装置を無線分散方式で繋ぐ無線ローカルエリアネットワーク(LAN)、いくつかの無線LANを接続する無線メトロポリタンエリアネットワーク(MAN)、又は近隣の市町村などの広い地域をカバーする無線ワイドエリアネットワーク(WAN)であってもよい。他のタイプの接続が採用されてもよい。
【0015】
コントローラCは、
図1に示すモバイルアプリケーション46を介して、リモートサーバ40との間で無線通信を受信及び送信するように構成され得る。モバイルアプリケーション46は、コントローラCのデータにアクセスできるように、短距離ネットワーク28を介してコントローラCと通信し得る。一例では、モバイルアプリケーション46は、コントローラCに物理的に接続(例えば、有線接続)される。別の例では、モバイルアプリケーション46は、コントローラCに組み込まれる。当業者が利用できるリモートサーバ40及びモバイルアプリケーション46(「アプリ」)の回路及び構成要素が採用されてもよい。
【0016】
コントローラCは、複数の機械学習モデル48を選択的に実行するように特にプログラムされる。コントローラCは、短距離ネットワーク28、長距離ネットワーク44、及び/又はモバイルアプリケーション46を介して、複数の機械学習モデル48にアクセスし得る。或いは、複数の機械学習モデル48は、コントローラCに組み込まれてもよい。複数の機械学習モデル48は、それぞれのコスト関数を最小化するパラメータ、重み、又は構造を求めるように構成され得る。複数の機械学習モデル48のそれぞれは、それぞれの回帰モデルであり得る。一例では、
図1を参照すると、複数の機械学習モデル48は、第1の入力機械学習モデル50と、第2の入力機械学習モデル52と、第3の入力機械学習モデル54と、出力機械学習モデル56とを含む。
【0017】
複数の機械学習モデル48は、ニューラルネットワークアルゴリズムを含み得る。当業者には理解されるように、ニューラルネットワークは、パターンを認識するように設計され、大まかにヒトの脳に倣ってモデリングされたものである。パターンは、ニューラルネットワークによって、数値形態に変換され(translated or converted)、ベクトル又は行列に埋め込まれた実世界データ(例えば、画像、音声、テキスト、時系列など)から認識される。ニューラルネットワークは、入力ベクトルxを出力ベクトルyに結びつけるために深層学習マップを採用し得る。換言すれば、複数の機械学習モデル48のそれぞれは、f(x)がyに対応するように活性化関数fを学習する。訓練プロセスによって、ニューラルネットワークは、入力ベクトルxを出力ベクトルyに変換するための適切な活性化関数f(x)を関連させることができる。単回帰モデルの場合、バイアスと傾きとの2つのパラメータを学習する。バイアスは、入力ベクトルxを0としたときの出力ベクトルyのレベルであり、傾きは、入力ベクトルxが1単位増加するごとに予測される出力ベクトルyの増加率又は減少率である。複数の機械学習モデル48がそれぞれ訓練されると、所与の新たな入力ベクトルxの値により出力ベクトルyの推定値が計算され得る。
【0018】
複数の機械学習モデル48は、多層パーセプトロンネットワークを含み得る。
図6を参照すると、多層パーセプトロンネットワーク400の一例が示されている。多層パーセプトロンネットワーク400は、入力層402と、1つ又は複数の隠れ層408(第1の隠れ層404及び第2の隠れ層406など)と、出力層410とを含む少なくとも3層のノードNを有するフィードフォワード人工ニューラルネットワークである。これらの層のそれぞれが、入力の線形和のアフィン変換を行うように構成されたノードNを備える。ノードNは、それぞれのバイアスとそれぞれの重み付けされたリンクとによって特徴付けられるニューロンである。入力層402のノードNは、入力を受け取り、正規化し、第1の隠れ層404のノードNに転送する。後続の層の各ノードNが、前の層の出力の線形結合を計算する。3つの層を有するネットワークは、活性化関数f(x)=f(3)(f(2)(f(1)(x)))を形成する。活性化関数fは、出力層410のそれぞれのノードNに対して線形であり得る。活性化関数fは、第1の隠れ層404及び第2の隠れ層406に対してシグモイドであってもよい。出力ベクトルyを特徴付ける連続関数を近似するためにシグモイドの線形結合が用いられる。他のタイプのニューラルネットワークが採用されてもよい。
【0019】
複数の機械学習モデル48は、サポートベクター回帰(SVR)モデルを含み得る。
図7は、データポイント502に対するサポートベクター回帰モデル500の一例を示している。サポートベクター回帰モデル500は、関数(
図7の超平面504)を求めるように構成される。このとき、サポートベクター回帰モデル500は、データポイント502がこの関数からマージン506内にある、すなわち、第1の境界線508及び第2の境界線510の内側にあるように構成される。
図7を参照すると、超平面504は、入力ベクトルxを出力ベクトルyに結びつける線、すなわち目標値を予測する線として定義され得る。超平面504は、マージン506を最大化し、予め定められた誤差を最小化するように個別化される。マージン506の外にあるポイント(外部ポイント512など)がある場合、ペナルティがサポートベクター回帰モデル500に組み込まれてもよい。超平面504を決定する前に、サポートベクター回帰モデル500は、低次元のデータセットを高次元のデータセットに対応させるためにカーネル関数を採用してもよい。当業者が利用できる他の機械学習モデルが採用されてもよい。
【0020】
次に
図3を参照すると、
図1のコントローラCによって実行可能な方法100のフローチャートが示されている。方法100は、本明細書に記載された特定の順序で適用される必要はなく、いくつかのブロックが省略されてもよい。メモリMは、コントローラ実行可能命令セットを格納することができ、プロセッサPは、メモリMに格納されたコントローラ実行可能命令セットを実行することができる。
【0021】
図3のブロック102において、コントローラCは、眼の少なくとも1つの術前画像を受信するように構成される。眼Eの例示的な術前画像200を
図4に示す。
図4は、原寸に比例していない。
図4は、角膜203の上面202、角膜203の下面204、術前レンズ206、虹彩208、及び毛様筋210を示している。術前画像200は、超音波生体顕微鏡法を介して取得されてもよい。超音波生体顕微鏡法は、約4mm~5mmの組織浸透深さを有する、約35MHz~100MHzの比較的高い周波数のトランスデューサを採用してもよい。光干渉断層撮影及び磁気共鳴イメージングを含むがこれらに限定されない他のイメージングモダリティが採用されてもよい。複数の機械学習モデル48は、単一の画像又は一連の画像を用いて訓練されてもよい。
【0022】
図3のブロック104において、方法100は、第1の入力機械学習モデル50を介して、
図4に示す例示的な術前画像200などの少なくとも1つの術前画像に部分的に基づいて第1の一式のデータを抽出することを含む。第1の一式のデータは、3次元行列の形態で提示されてもよい。これにより、豊富な画像データを活用するという技術的な利点が提供される。
図4を参照すると、第1の一式のデータは、前房深度212、レンズ厚214、レンズ径216、及び溝間距離218などの複数の術前寸法を含み得る。複数の術前寸法は、(有水晶体前極から測定された)第1の赤道面位置220、(前房深度212に対して測定された)第2の赤道面位置222、及び(有水晶体後極から測定された)第3の赤道面位置224を含み得る。
図4を参照すると、複数の術前寸法は、虹彩径226、角膜203から術前レンズ206の後面までの軸方向の長さ228、及び毛様体突起径230を更に含み得る。
【0023】
図3のブロック106において、コントローラCは、フラットK値、スティープK値、及び平均K値などの眼Eの術前寸法を含み得る複数の生体計測パラメータを受信するように構成される。複数の生体計測パラメータは、前房深度212、レンズ厚214、レンズ径216、毛様体突起径230、及び溝間距離218を更に含み得る。複数の生体計測パラメータは、レンズの度数及び厚さなど、眼内レンズ12に関連するパラメータを更に含み得る。一例では、術前画像200は、第1のイメージング装置30から取得され、複数の生体計測パラメータは、第1のイメージング装置30とは異なる第2のイメージング装置32から取得される。例えば、第1のイメージング装置30は超音波装置であってもよく、第2のイメージング装置32は光干渉断層撮影装置であってもよい。他のイメージングモダリティが採用されてもよいことを理解されたい。別の例では、術前画像200と複数の生体計測パラメータとは、同じイメージングモダリティから取得される。
【0024】
図3のブロック108において、方法100は、第2の入力機械学習モデル52を介して、複数の生体計測パラメータに部分的に基づいて第2の一式のデータを抽出することを含む。第2の一式のデータは、3次元ベクトルの形態で提示されてもよい。
図3のブロック110において、コントローラCは、第1の一式のデータと第2の一式のデータとを結合して、混合された一式のデータを取得するように構成される。
【0025】
任意選択で、ブロック112において、方法100は、
図4及び
図5にそれぞれ示される術前画像200及び術後画像300などの、過去のそれぞれの術前画像及び術後画像の対にアクセスすることを含み得る。
図5は、角膜303の上面302、角膜303の下面304、虹彩308、及び毛様筋310を示している。また、
図5には、挿入された眼内レンズ12、第1の表面16、第2の表面18、第1の支持構造体20、及び第2の支持構造体22も示されている。
図5は、原寸に比例していない。術後画像300は、当業者が利用できる超音波生体顕微鏡法又は他のイメージングモダリティを介して取得することができる。
図1を参照すると、コントローラCは、短距離ネットワーク28を介してデータベース36から過去の対を取得するように構成され得る。コントローラCは、長距離ネットワーク44を介してリモートサーバ40から過去の対を取得するように構成され得る。
【0026】
ブロック114において、コントローラCは、第3の入力機械学習モデル54を介して、過去の対の比較に部分的に基づいて第3の一式のデータを抽出するように構成される。第3の一式のデータは、混合された一式のデータに加えられる。一例では、第3の入力機械学習モデル54は、術前画像200における術前測定値(x)を分類して提案されるレンズ度数(f(x))を決定した後、提案される眼内レンズ度数を用いることによって生じ得る推定誤差を決定するように構成された深層学習ニューラルネットワークである。第3の入力機械学習モデル54は、(術前画像200に基づく)予測された自覚的屈折検査に基づく等価球面度数と、(術後画像300に基づく)術後の自覚的屈折検査に基づく等価球面度数との間の平均二乗誤差として定義されるコスト関数を最小化するように構成され得る。
【0027】
過去の対の比較は、術前画像200と術後画像300との間における特定のパラメータの変化を追跡することを伴い得る。例えば、比較は、
図4に示す第1の距離d1と、
図5に示す第2の距離d2との間の差を評価することを含み得る。第1の距離d1は、術前画像200における術前レンズ206の中心240と、角膜203の上面202上の基準点242との間の距離である。第2の距離d2は、術後画像300における挿入された眼内レンズ12の中心340と、角膜303の上面302上の基準点342との間の距離である。他のパラメータが採用されてもよい。
【0028】
図3のブロック116において、方法100は、出力機械学習モデルを介して、混合された一式のデータに基づいて少なくとも1つの出力係数を生成することを含む。
図6を参照すると、出力機械学習モデル56は、各ノードNのパラメータが他とは独立である、すなわち、各ノードNが一意の一式の重みによって特徴付けられるような全結合パーセプトロンモデルであり得る。
図6を参照すると、出力機械学習モデル56は、第1の出力係数412及び第2の出力係数414などの複数の出力を生成し得る。第1の出力係数412は、自覚的屈折検査に基づく等価球面度数(MRSE)であってもよい。第2の出力係数414は、裸眼遠見視力(uncorrected distance visual acuity、UCDVA)であってもよい。
【0029】
任意選択で、ブロック116において出力係数を生成する前に、コントローラCは、複数の術前寸法に部分的に基づいて1つ又は複数の代入術後変数を取得するように構成され得る。代入術後変数は、術後レンズ厚と術後レンズ位置とを含み得る。代入術後変数は、混合された一式のデータに加えられ、ブロック116において出力係数を生成するための出力機械学習モデル56への追加の入力と見なされる。代入術後変数は、例えば、SRK/T式、Holladay式、Hoffer Q式、Olsen式、及びHaigis式などの当業者が利用できる幾何学的モデル又は眼内レンズ度数計算式から取得され得る。代入術後変数は、当業者が利用できる他の推定方法から取得されてもよい。
【0030】
図3のブロック118において、方法100は、ブロック116において生成された少なくとも1つの出力係数に部分的に基づいて眼内レンズ12を選択することを含む。複数の出力係数がある場合、コントローラCは、複数の出力係数の加重平均又は他の統計的手法(例えば、ニューラルネット)を用いて、挿入される眼内レンズ12の正しい度数を決定するように構成されてもよい。
【0031】
まとめると、システム10及び方法100は、眼内レンズ12の選択プロセスを最適化し、特に、不規則なバイオメトリを有する眼において、予測成功率をより高めることができる。システム10及び方法100は、モデル訓練中とモデル実行中との両方において、広範囲のイメージングモダリティに適用され得る。
【0032】
図1のコントローラCは、コンピュータによって(例えば、コンピュータのプロセッサによって)読み取られ得るデータ(例えば、命令)の提供に関与する非一時的(例えば、有形)媒体を含む、コンピュータ可読媒体(プロセッサ可読媒体とも呼ばれる)を備える。そのような媒体は、不揮発性媒体及び揮発性媒体を含むが限定されない多くの形態をとり得る。不揮発性媒体としては、例えば、光ディスク又は磁気ディスク及び他の永続的メモリが挙げられる。揮発性媒体としては、例えば、主記憶装置を構成し得るダイナミックランダムアクセスメモリ(DRAM)が挙げられる。このような命令は、コンピュータのプロセッサに結合されたシステムバスを備える配線を含む、同軸ケーブル、銅線、及び光ファイバを含む1つ又は複数の伝送媒体によって伝送され得る。コンピュータ可読媒体のいくつかの形態としては、例えば、フロッピー(登録商標)ディスク、フレキシブルディスク、ハードディスク、磁気テープ、若しくは他の磁気媒体、CD-ROM、DVD、若しくは他の光媒体、パンチカード、紙テープ、若しくは他の孔のパターンを有する物理媒体、RAM、PROM、EPROM、フラッシュEEPROM、若しくは他のメモリチップやカートリッジ、又は他のコンピュータが読み取り可能な媒体が挙げられる。
【0033】
本明細書に記載されるルックアップテーブル、データベース、データリポジトリ、又は他のデータストアは、階層型データベース、ファイルシステム内の一式のファイル、独自形式のアプリケーションデータベース、リレーショナルデータベース管理システム(RDBMS)などを含む、様々な種類のデータを格納、アクセス、及び取得するための様々な種類の機構を含み得る。それぞれのそのようなデータストアは、上述したようなコンピュータオペレーティングシステムを採用するコンピューティングデバイス内に含まれてもよく、様々な仕方のうちの1つ又は複数でネットワークを介してアクセスされてもよい。ファイルシステムは、コンピュータオペレーティングシステムからアクセス可能であり、様々な形式で格納されたファイルを含むことができる。RDBMSは、上述のPL/SQL言語などのストアドプロシージャを作成、保存、編集、及び実行するための言語に加えて、構造化照会言語(Structured Query Language、SQL)を採用してもよい。
【0034】
詳細な説明及び図面又は各図は、本開示をサポートし、説明するものであるが、本開示の範囲は、特許請求の範囲によってのみ定義される。特許請求の範囲に記載された開示を実施するための最良の態様及び他の実施形態のいくつかを詳細に説明したが、添付の特許請求の範囲において定義された開示を実施するための様々な代替的な設計及び実施形態が存在する。更に、図面に示された実施形態又は本明細書で言及された様々な実施形態の特徴は、必ずしも互いに独立した実施形態として理解されるべきではない。むしろ、ある実施形態の例のうちの1つにおいて説明された特性のそれぞれは、他の実施形態からの1つ又は複数の他の望ましい特性と組み合わせることが可能であり、その結果、言葉で説明されていない、又は図面を参照することによって説明されていない、他の実施形態を得ることができる。したがって、このような他の実施形態は、添付の特許請求の範囲の枠組み内に含まれる。
【国際調査報告】