(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2023039046
(43)【公開日】2023-03-20
(54)【発明の名称】眼科装置、眼科装置を制御する方法、眼画像を処理する方法、プログラム、及び記録媒体
(51)【国際特許分類】
A61B 3/135 20060101AFI20230313BHJP
【FI】
A61B3/135
【審査請求】未請求
【請求項の数】30
【出願形態】OL
(21)【出願番号】P 2021145994
(22)【出願日】2021-09-08
(71)【出願人】
【識別番号】000220343
【氏名又は名称】株式会社トプコン
(74)【代理人】
【識別番号】100124626
【弁理士】
【氏名又は名称】榎並 智和
(72)【発明者】
【氏名】東 神之介
【テーマコード(参考)】
4C316
【Fターム(参考)】
4C316AA01
4C316AA03
4C316AB11
4C316AB19
4C316FB05
4C316FB21
4C316FB27
(57)【要約】
【課題】眼画像に基づく炎症状態の評価を自動化する。
【解決手段】例示的な実施形態に係る眼科装置1000は、画像取得部1010と、データ処理部1020とを含んでいる。画像取得部1010は、被検眼のシャインプルーフ画像を取得するように構成されている。データ処理部1020は、画像取得部1010により取得されたシャインプルーフ画像から被検眼の炎症状態を示す炎症状態情報を生成するための処理を実行するように構成されている。
【選択図】
図1
【特許請求の範囲】
【請求項1】
被検眼のシャインプルーフ画像を取得する画像取得部と、
前記被検眼の炎症状態を示す炎症状態情報を前記シャインプルーフ画像から生成するための処理を実行するデータ処理部と
を含む、眼科装置。
【請求項2】
前記炎症状態情報は、前記被検眼の前房内の炎症性細胞に関する評価情報である細胞評価情報を含み、
前記データ処理部は、前記前房に相当する前房領域を特定するための第1セグメンテーションと、前記炎症性細胞に相当する細胞領域を特定するための第2セグメンテーションと、前記細胞評価情報を生成するための細胞評価情報生成処理とのうちの少なくとも1つを実行する、
請求項1の眼科装置。
【請求項3】
前記データ処理部は、前記シャインプルーフ画像から前記前房領域を特定するための前記第1セグメンテーションと、前記第1セグメンテーションにより特定された前記前房領域から前記細胞領域を特定するための前記第2セグメンテーションと、前記第2セグメンテーションにより特定された前記細胞領域から前記細胞評価情報を生成するための前記細胞評価情報生成処理とを実行する、
請求項2の眼科装置。
【請求項4】
前記データ処理部は、予め構築された第1推論モデルを用いて前記第1セグメンテーションを実行し、
前記第1推論モデルは、眼画像を少なくとも含む訓練データを用いた機械学習により構築された第1ニューラルネットワークを含み、
前記第1ニューラルネットワークは、シャインプルーフ画像の入力を受け、前房領域を出力するように構成されている、
請求項3の眼科装置。
【請求項5】
前記データ処理部は、予め構築された第2推論モデルを用いて前記第2セグメンテーションを実行し、
前記第2推論モデルは、眼画像を少なくとも含む訓練データを用いた機械学習により構築された第2ニューラルネットワークを含み、
前記第2ニューラルネットワークは、シャインプルーフ画像における前房領域の入力を受け、細胞領域を出力するように構成されている、
請求項3又は4の眼科装置。
【請求項6】
前記データ処理部は、シャインプルーフ画像の前房領域を前記第2ニューラルネットワークの入力層に対応した構造の画像データに変換する変換処理を更に実行し、
前記第2ニューラルネットワークは、前記変換処理により生成された前記画像データの入力を受け、細胞領域を出力するように構成されている、
請求項5の眼科装置。
【請求項7】
前記データ処理部は、予め構築された第3推論モデルを用いて前記細胞評価情報生成処理を実行し、
前記第3推論モデルは、眼画像を少なくとも含む訓練データを用いた機械学習により構築された第3ニューラルネットワークを含み、
前記第3ニューラルネットワークは、シャインプルーフ画像における細胞領域の入力を受け、細胞評価情報を出力するように構成されている、
請求項3~6のいずれかの眼科装置。
【請求項8】
前記データ処理部は、前記シャインプルーフ画像から前記細胞領域を特定するための前記第2セグメンテーションと、前記第2セグメンテーションにより特定された前記細胞領域から前記細胞評価情報を生成するための前記細胞評価情報生成処理とを実行する、
請求項2の眼科装置。
【請求項9】
前記データ処理部は、予め構築された第4推論モデルを用いて前記第2セグメンテーションを実行し、
前記第4推論モデルは、眼画像を少なくとも含む訓練データを用いた機械学習により構築された第4ニューラルネットワークを含み、
前記第4ニューラルネットワークは、シャインプルーフ画像の入力を受け、細胞領域を出力するように構成されている、
請求項8の眼科装置。
【請求項10】
前記データ処理部は、予め構築された第5推論モデルを用いて前記細胞評価情報生成処理を実行し、
前記第5推論モデルは、眼画像を少なくとも含む訓練データを用いた機械学習により構築された第5ニューラルネットワークを含み、
前記第5ニューラルネットワークは、シャインプルーフ画像における細胞領域の入力を受け、細胞評価情報を出力するように構成されている、
請求項8又は9の眼科装置。
【請求項11】
前記データ処理部は、前記シャインプルーフ画像から前記細胞評価情報を生成するための前記細胞評価情報生成処理を実行する、
請求項2の眼科装置。
【請求項12】
前記データ処理部は、予め構築された第6推論モデルを用いて前記細胞評価情報生成処理を実行し、
前記第6推論モデルは、眼画像を少なくとも含む訓練データを用いた機械学習により構築された第6ニューラルネットワークを含み、
前記第6ニューラルネットワークは、シャインプルーフ画像の入力を受け、細胞評価情報を出力するように構成されている、
請求項11の眼科装置。
【請求項13】
前記データ処理部は、前記シャインプルーフ画像から前記前房領域を特定するための前記第1セグメンテーションと、前記第1セグメンテーションにより特定された前記前房領域から前記細胞評価情報を生成するための前記細胞評価情報生成処理とを実行する、
請求項2の眼科装置。
【請求項14】
前記データ処理部は、予め構築された第7推論モデルを用いて前記第1セグメンテーションを実行し、
前記第7推論モデルは、眼画像を少なくとも含む訓練データを用いた機械学習により構築された第7ニューラルネットワークを含み、
前記第7ニューラルネットワークは、シャインプルーフ画像の入力を受け、前房領域を出力するように構成されている、
請求項13の眼科装置。
【請求項15】
前記データ処理部は、予め構築された第8推論モデルを用いて前記細胞評価情報生成処理を実行し、
前記第8推論モデルは、眼画像を少なくとも含む訓練データを用いた機械学習により構築された第8ニューラルネットワークを含み、
前記第8ニューラルネットワークは、シャインプルーフ画像における前房領域の入力を受け、細胞評価情報を出力するように構成されている、
請求項13又は14の眼科装置。
【請求項16】
前記データ処理部は、シャインプルーフ画像の前房領域を前記第8ニューラルネットワークの入力層に対応した構造の画像データに変換する変換処理を更に実行し、
前記第8ニューラルネットワークは、前記変換処理により生成された前記画像データの入力を受け、細胞評価情報を出力するように構成されている、
請求項15の眼科装置。
【請求項17】
前記データ処理部は、前記シャインプルーフ画像に第1解析処理を適用して前記前房領域を特定するための前記第1セグメンテーションと、前記第1セグメンテーションにより特定された前記前房領域に第2解析処理を適用して前記細胞領域を特定するための前記第2セグメンテーションと、前記第2セグメンテーションにより特定された前記細胞領域に第3解析処理を適用して前記細胞評価情報を生成するための前記細胞評価情報生成処理とを実行する、
請求項2の眼科装置。
【請求項18】
前記データ処理部は、前記第3解析処理において、前記第1セグメンテーションにより特定された前記前房領域の部分領域を特定し、前記部分領域に属する前記細胞領域の個数を求め、前記個数と前記部分領域の寸法とに基づいて前記炎症性細胞の密度を算出し、
前記細胞評価情報は、前記密度を含む、
請求項17の眼科装置。
【請求項19】
前記画像取得部は、
前記被検眼にスリット光を投射する照明系と、
前記被検眼を撮影する撮影系と
を含み、
前記照明系及び前記撮影系は、シャインプルーフの条件を満足するように構成されている、
請求項1~18のいずれかの眼科装置。
【請求項20】
前記画像取得部は、前記被検眼の3次元領域を前記スリット光でスキャンして一連のシャインプルーフ画像を収集する、
請求項19の眼科装置。
【請求項21】
前記データ処理部は、前記一連のシャインプルーフ画像に含まれるシャインプルーフ画像から前記炎症状態情報を生成する、
請求項20の眼科装置。
【請求項22】
前記データ処理部は、前記一連のシャインプルーフ画像を加工して加工画像データを生成し、前記加工画像データから前記炎症状態情報を生成する、
請求項20の眼科装置。
【請求項23】
前記撮影系は、前記被検眼を互いに異なる方向からそれぞれ撮影する第1撮影系及び第2撮影系を含む、
請求項19~22のいずれかの眼科装置。
【請求項24】
前記第1撮影系の光軸と前記第2撮影系の光軸とは、前記照明系の光軸に対して互いに反対の方向に傾斜して配置され、
前記データ処理部は、前記第1撮影系により取得された第1シャインプルーフ画像及び前記第2撮影系により取得された第2シャインプルーフ画像の一方を選択し、選択されたシャインプルーフ画像に基づいて前記炎症状態情報を生成する、
請求項23の眼科装置。
【請求項25】
前記データ処理部は、前記第1シャインプルーフ画像及び前記第2シャインプルーフ画像のうち角膜反射アーティファクトを含まないシャインプルーフ画像を選択する、
請求項24の眼科装置。
【請求項26】
前記画像取得部は、予め取得された前記シャインプルーフ画像を受け付ける画像受付部を含む、
請求項1~25のいずれかの眼科装置。
【請求項27】
プロセッサを含む眼科装置を制御する方法であって、
前記眼科装置に、被検眼のシャインプルーフ画像を取得させ、
前記プロセッサに、前記被検眼の炎症状態を示す炎症状態情報を前記シャインプルーフ画像から生成するための処理を実行させる、
方法。
【請求項28】
眼の画像を処理する方法であって、
被検眼のシャインプルーフ画像を取得し、
前記被検眼の炎症状態を示す炎症状態情報を前記シャインプルーフ画像から生成するための処理を実行する、
方法。
【請求項29】
請求項27又は28の方法をコンピュータに実行させるプログラム。
【請求項30】
請求項29のプログラムが記録されたコンピュータ可読な非一時的記録媒体。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、眼科装置、眼科装置を制御する方法、眼画像を処理する方法、プログラム、及び記録媒体に関する。
【背景技術】
【0002】
眼科分野において画像診断は重要な位置を占める。眼科画像診断では、各種の眼科装置が用いられる。眼科装置には、スリットランプ顕微鏡、眼底カメラ、走査型レーザー検眼鏡(SLO)、光干渉断層計(OCT)などがある。また、レフラクトメータ、ケラトメータ、眼圧計、スペキュラーマイクロスコープ、ウェーブフロントアナライザ、マイクロペリメータなどの各種の検査装置や測定装置にも、前眼部や眼底を撮影する機能が搭載されている。
【0003】
これら様々な眼科装置のうち最も広く且つ頻繁に使用される装置の1つが、眼科医にとっての聴診器とも呼ばれるスリットランプ顕微鏡である。スリットランプ顕微鏡は、スリット光で被検眼を照明し、照明された断面を側方から顕微鏡で観察したり撮影したりするための眼科装置である(例えば、特許文献1、2を参照)。また、シャインプルーフの条件を満足するように構成された光学系を用いることにより被検眼の3次元領域を高速でスキャンすることが可能なスリットランプ顕微鏡も知られている(例えば、特許文献3を参照)。なお、スリットランプ顕微鏡の他にも、スリット光で対象物をスキャンする撮像方式としてローリングシャッターカメラなどがある。
【0004】
スリット光を用いて測定を行う眼科装置として、被検眼の炎症状態を評価するためのフレアセルメータがある(例えば、特許文献4、5を参照)。フレアセルメータは、前房内に浮遊している炎症性細胞の個数や前房内の蛋白質濃度(フレア濃度)を測定するための眼科装置であり、例えばレーザー光を1次元的にスキャンすることによって又はLED光をスリット開口で制限することによってスリット光を生成する。
【先行技術文献】
【特許文献】
【0005】
【特許文献1】特開2016-159073号公報
【特許文献2】特開2016-179004号公報
【特許文献3】特開2019-213733号公報
【特許文献4】特開2005-102938号公報
【特許文献5】国際公開第2018/003906号
【発明の概要】
【発明が解決しようとする課題】
【0006】
本発明の1つの目的は、眼画像に基づく炎症状態の評価を自動化することにある。
【課題を解決するための手段】
【0007】
例示的な実施形態に係る眼科装置は、画像取得部と、データ処理部とを含んでいる。画像取得部は、被検眼のシャインプルーフ画像を取得する。データ処理部は、画像取得部により取得されたシャインプルーフ画像から被検眼の炎症状態を示す炎症状態情報を生成するための処理を実行する。
【発明の効果】
【0008】
例示的な実施形態によれば、眼画像に基づく炎症状態の評価を自動化することが可能である。
【図面の簡単な説明】
【0009】
【
図1】例示的な態様に係る眼科装置の構成を表す概略図である。
【
図2A】例示的な態様に係る眼科装置の構成を表す概略図である。
【
図2B】例示的な態様に係る眼科装置の構成を表す概略図である。
【
図2C】例示的な態様に係る眼科装置の構成を表す概略図である。
【
図3】例示的な態様に係る眼科装置の構成を表す概略図である。
【
図4】例示的な態様に係る眼科装置の構成を表す概略図である。
【
図5】例示的な態様に係る眼科装置の構成を表す概略図である。
【
図6】例示的な態様に係る眼科装置の構成を表す概略図である。
【
図7】例示的な態様に係る眼科装置の構成を表す概略図である。
【
図8】例示的な態様に係る眼科装置の構成を表す概略図である。
【
図9】例示的な態様に係る眼科装置の構成を表す概略図である。
【
図10】例示的な態様に係る眼科装置の構成を表す概略図である。
【
図11】例示的な態様に係る眼科装置の構成を表す概略図である。
【
図12】例示的な態様に係る眼科装置の構成を表す概略図である。
【
図13】例示的な態様に係る眼科装置の構成を表す概略図である。
【
図14】例示的な態様に係る眼科装置の構成を表す概略図である。
【
図15】例示的な態様に係る眼科装置の構成を表す概略図である。
【
図16】例示的な態様に係る眼科装置の構成を表す概略図である。
【
図17】例示的な態様に係る眼科装置の構成を表す概略図である。
【
図18】例示的な態様に係る眼科装置の構成を表す概略図である。
【
図19】例示的な態様に係る眼科装置が実行する処理を表すフロー図である。
【
図20】例示的な態様に係る眼科装置が実行する処理を表すフロー図である。
【
図21】例示的な態様に係る眼科装置が実行する処理を表すフロー図である。
【
図22】例示的な態様に係る眼科装置が実行する処理を表すフロー図である。
【
図23】例示的な態様に係る眼科装置の構成を表す概略図である。
【
図24】例示的な態様に係る眼科装置の構成を表す概略図である。
【
図25A】例示的な態様に係る眼科装置の動作を説明するための概略図である。
【
図25B】例示的な態様に係る眼科装置の動作を説明するための概略図である。
【
図26】例示的な態様に係る眼科装置の動作を説明するための概略図である。
【
図27】例示的な態様に係る眼科装置の構成を表す概略図である。
【発明を実施するための形態】
【0010】
実施形態の幾つかの例示的な態様について、図面を参照しながら詳細に説明する。なお、任意の公知技術を実施形態に組み合わせることができる。例えば、本明細書で引用した文献において開示された任意の事項など、当該技術分野の任意の公知技術を、いずれかの実施形態に組み合わせることが可能である。特に、特許文献3(特開2019-213733号公報)に開示されている全ての内容は、参照によって本開示に援用される。同様に、本開示に関連する技術について本願の出願人により開示された任意の技術事項(特許出願、論文などにおいて開示された事項)を、いずれかの実施形態に組み合わせることができる。また、本開示に係る様々な態様のうちのいずれか2つ以上を少なくとも部分的に組み合わせることが可能である。
【0011】
本開示において説明される要素の機能の少なくとも一部は、回路構成(circuitry)又は処理回路構成(processing circuitry)を用いて実装される。回路構成又は処理回路構成は、開示された機能の少なくとも一部を実行するように構成及び/又はプログラムされた、汎用プロセッサ、専用プロセッサ、集積回路、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、ASIC(Application Specific Integrated Circuit)、プログラマブル論理デバイス(例えば、SPLD(Simple Programmable Logic Device)、CPLD(Complex Programmable Logic Device)、FPGA(Field Programmable Gate Array)、従来の回路構成、及びそれらの任意の組み合わせのいずれかを含む。プロセッサは、トランジスタ及び/又は他の回路構成を含む、処理回路構成又は回路構成とみなされる。本開示において、回路構成、ユニット、手段、又はこれらに類する用語は、開示された機能の少なくとも一部を実行するハードウェア、又は、開示された機能の少なくとも一部を実行するようにプログラムされたハードウェアである。ハードウェアは、本明細書に開示されたハードウェアであってよく、或いは、記載された機能の少なくとも一部を実行するようにプログラム及び/又は構成された既知のハードウェアであってもよい。ハードウェアが或るタイプの回路構成とみなされ得るプロセッサである場合、回路構成、ユニット、手段、又はこれらに類する用語は、ハードウェアとソフトウェアとの組み合わせであり、このソフトウェアはハードウェア及び/又はプロセッサを構成するために使用される。
【0012】
<実施形態の概要>
実施形態は、シャインプルーフの条件を満足する光学系を用いて被検眼を撮影することによって生成されたデジタル画像(シャインプルーフ画像と呼ぶ)から被検眼の炎症状態を示す情報(炎症状態情報と呼ぶ)を生成する技術に関する。
【0013】
実施形態によって処理されるシャインプルーフ画像の個数は任意であってよく、幾つかの実施形態は1つのシャインプルーフ画像を処理し、幾つかの実施形態は複数の画像を処理する。この複数の画像は、例えば、スリット光を用いたスキャン(スリットスキャンと呼ぶ)によって収集される。スリットスキャンは、本願の出願人により開発された、被検眼の3次元領域をスリット光でスキャンして一連の画像を収集する眼科イメージング技術であり、特許文献3(特開2019-213733号公報)などにおいて説明されている。
【0014】
幾つかの実施形態によって処理されるシャインプルーフ画像は、シャインプルーフ画像を加工して作成された画像でもよい。シャインプルーフ画像を加工して作成された画像の例としては、補正、編集、強調などの任意のデジタル画像処理をシャインプルーフ画像に適用して作成された画像や、複数のシャインプルーフ画像から構築された3次元画像(ボリューム画像)や、3次元画像に任意のレンダリングを適用して作成された画像などがある。
【0015】
実施形態によって生成される炎症状態情報は、被検眼の炎症状態に関連した任意の情報であってよい。実施形態の炎症状態情報は、前房内に存在する炎症性細胞(前房セル)に関する情報、前房内に存在する蛋白質(前房フレア)に関する情報、水晶体の混濁に関する情報、疾患の発症・経過に関する情報、及び、疾患の活動性に関する情報のうちのいずれか1つ以上を含んでいてよい。幾つかの実施形態は、2つ以上の情報に基づいて総合的な情報(例えば、総合的な評価情報)を生成してもよい。
【0016】
炎症性細胞に関する情報としては、炎症性細胞の密度(濃度)、個数、位置、分布などの任意のパラメータの情報や、所定のパラメータの情報に基づく評価情報などがある。炎症性細胞に関する評価情報を細胞評価情報と呼ぶ。前房フレアに関する情報としては、フレアの濃度、個数、位置、分布などの任意のパラメータの情報や、所定のパラメータの情報に基づく評価情報などがある。水晶体混濁に関する情報としては、混濁の濃度、個数、位置、分布などの任意のパラメータの情報や、所定のパラメータの情報に基づく評価情報などがある。疾患の発症・経過に関する情報としては、発症の有無、発症の状態、罹患期間、経過の状態などの任意のパラメータの情報や、所定のパラメータの情報に基づく評価情報などがある。疾患の活動性に関する情報としては、疾患の活動の状態などの任意のパラメータの情報や、所定のパラメータの情報に基づく評価情報などがある。
【0017】
炎症状態に関する評価情報を生成する実施形態の例示的な態様は、この評価情報を生成する処理を行う眼科装置により生成された情報だけでなく、当該眼科装置に外部から入力された情報(例えば、他の眼科装置により取得された情報、医師により入力された情報)にも基づいて、評価情報を生成するように構成されていてもよい。
【0018】
以上に例示した炎症状態情報を生成するために参照される情報は任意であってよく、例えば、The Standardization of Uveitis Nomenclature(SUN) Working Groupにより提案されたぶどう膜炎疾患の分類基準を含んでいてもよい(“Standardization of uveitis nomenclature for reporting clinical data. Results of the First International Workshop”、American Journal of Ophthalmology、Volume 140、Issue 3、September 2005、Page 509-516)。
【0019】
なお、実施形態の炎症状態情報は、上記の例に限定されるものはない。また、実施形態の炎症状態情報を生成するための参照情報も、上記の例に限定されるものではない。
【0020】
実施形態では、被検眼の前眼部にスリットスキャンを適用可能な例示的な態様についても説明する。スリットスキャンが適用される被検眼の部位は、炎症状態情報の生成に使用されるデータを取得するためのスリットスキャンが適用される部位の一部又は全体を少なくとも含む。例えば、炎症性細胞に関する情報及び/又は前房フレアに関する情報を含む炎症状態情報を生成する場合、前房の少なくとも一部を含む領域に対してスリットスキャンが適用される。また、水晶体混濁に関する情報を含む炎症状態情報を生成する場合、水晶体の少なくとも一部を含む領域に対してスリットスキャンが適用される。スリットスキャン以外の手法で2つ以上のシャインプルーフ画像を取得する場合や、シャインプルーフ画像を1つのみ取得する場合においても同様である。
【0021】
一般に、スリットスキャンが適用される被検眼の領域(部位)は、前眼部の少なくとも一部(例:角膜、虹彩、前房、隅角、毛様体、チン小帯、水晶体、神経、血管などの組織;病変部;治療痕;眼内レンズ、低侵襲緑内障手術(MIGS)デバイスなどの人工物)、及び/又は、後眼部の少なくとも一部(例:硝子体、網膜、脈絡膜、強膜、視神経乳頭、篩状板、黄斑、神経、血管などの組織;病変部;治療痕;人工網膜などの人工物)を含む。幾つかの例示的な態様では、瞼やマイボーム腺などの眼球近傍組織の少なくとも一部にスリットスキャンを適用してもよい。幾つかの例示的な態様では、前眼部の少なくとも一部、後眼部の少なくとも一部、及び、眼球近傍組織の少なくとも一部のうちのいずれか2つを含む3次元領域又は全てを含む3次元領域に対してスリットスキャンを適用してもよい。
【0022】
前述した細胞評価情報を含む炎症状態情報を生成することが可能な実施形態は、次の3つの処理のうちの少なくとも1つを実行するように構成されていてよい:(1)被検眼の前房に相当する画像領域(前房領域と呼ぶ)を特定するためのセグメンテーション(第1セグメンテーション又は前房セグメンテーションと呼ぶ);(2)炎症性細胞に相当する画像領域(細胞領域と呼ぶ)を特定するためのセグメンテーション(第2セグメンテーション又は細胞セグメンテーションと呼ぶ);(3)細胞評価情報を生成するための処理(細胞評価情報生成処理と呼ぶ)。このような実施形態の幾つかの例示的な態様を以下に説明する。
【0023】
第1の例示的な態様は、シャインプルーフ画像から前房領域を特定するための第1セグメンテーションと、この第1セグメンテーションにより特定された前房領域から細胞領域を特定する第2セグメンテーションと、この第2セグメンテーションにより特定された細胞領域から細胞評価情報を生成する細胞評価情報生成処理とのうちの少なくとも1つの処理を実行するように構成されている。本態様の第1セグメンテーションは、機械学習により訓練されたニューラルネットワークを用いて実行されてよいが、これに限定されない。本態様の第2セグメンテーションは、機械学習により訓練されたニューラルネットワークを用いて実行されてよいが、これに限定されない。本態様の細胞評価情報生成処理は、機械学習により訓練されたニューラルネットワークを用いて実行されてよいが、これに限定されない。本態様の詳細については後述する。
【0024】
第2の例示的な態様は、前房領域を特定するための第1セグメンテーションを実行することなく、シャインプルーフ画像から細胞領域を特定するための第2セグメンテーションと、この第2セグメンテーションにより特定された細胞領域から細胞評価情報を生成する細胞評価情報生成処理とのうちの少なくとも1つの処理を実行するように構成されている。本態様の第2セグメンテーションは、機械学習により訓練されたニューラルネットワークを用いて実行されてよいが、これに限定されない。本態様の細胞評価情報生成処理は、機械学習により訓練されたニューラルネットワークを用いて実行されてよいが、これに限定されない。本態様の詳細については後述する。
【0025】
第3の例示的な態様は、前房領域を特定するための第1セグメンテーション及び細胞領域を特定するための第2セグメンテーションを実行することなく、シャインプルーフ画像から細胞評価情報を生成するための細胞評価情報生成処理を実行するように構成されている。本態様の細胞評価情報生成処理は、機械学習により訓練されたニューラルネットワークを用いて実行されてよいが、これに限定されない。本態様の詳細については後述する。
【0026】
第4の例示的な態様は、細胞領域を特定するための第2セグメンテーションを実行することなく、シャインプルーフ画像から前房領域を特定するための第1セグメンテーションと、この第1セグメンテーションにより特定された前房領域から細胞評価情報を生成するための細胞評価情報生成処理とのうちの少なくとも1つを実行するように構成されている。本態様の第1セグメンテーションは、機械学習により訓練されたニューラルネットワークを用いて実行されてよいが、これに限定されない。本態様の細胞評価情報生成処理は、機械学習により訓練されたニューラルネットワークを用いて実行されてよいが、これに限定されない。本態様の詳細については後述する。
【0027】
第5の例示的な態様は、機械学習により訓練されたニューラルネットワークを用いることなく実行される。本態様は、シャインプルーフ画像を解析して前房領域を特定するための第1セグメンテーションと、この第1セグメンテーションにより特定された前房領域を解析して細胞領域を特定するための第2セグメンテーションと、第2セグメンテーションにより特定された細胞領域に基づいて細胞評価情報を生成するための細胞評価情報生成処理とを実行するように構成されている。本態様の詳細については後述する。
【0028】
第6の例示的な態様は、第1セグメンテーションの少なくとも一部、第2セグメンテーションの少なくとも一部、及び、細胞評価情報生成処理の少なくとも一部のうちのいずれか1つ以上を機械学習ベースの構成で実行するとともに、機械学習ベースの構成で実行される処理以外の処理を非機械学習ベースの構成で実行するように構成されている。本態様は、例えば、上記した第1~第4の例示的な態様のいずれかと、第5の例示的な態様とを部分的に組み合わせることによって実現されるものであるから、その詳細な説明については省略する。
【0029】
<眼科装置>
実施形態に係る眼科装置の例示的な態様を提供する。本態様に係る眼科装置の具体例(実施例)については後述する。
【0030】
図1は、本態様に係る眼科装置の構成を示す。眼科装置1000は、画像取得部1010と、データ処理部1020とを含んでいる。
【0031】
画像取得部1010は、被検眼のシャインプルーフ画像を取得するように構成されている。幾つかの例示的な態様の画像取得部1010は、被検眼を撮影してシャインプルーフ画像を取得するように構成されている。このような画像取得部1010の構成例を
図2Aに示す。
【0032】
図2Aに示す画像取得部1010Aは、照明系1011及び撮影系1012を含む。照明系1011は、被検眼にスリット光を投射するように構成されている。撮影系1012は、被検眼の撮影を行うように構成されており、撮像素子1013と、被検眼からの光を撮像素子1013に導く光学系(図示せず)とを含んでいる。
【0033】
照明系1011と撮影系1012とは、シャインプルーフの条件を満足するように構成されており、シャインプルーフカメラとして機能する。より具体的には、照明系1011の光軸を通る平面(物面を含む平面)と、撮影系1012の主面と、撮像素子1013の撮像面とが、同一の直線上にて交差するように、照明系1011及び撮影系1012は構成されている。これにより、物面内の全ての位置(照明系1011の光軸に沿う方向における全ての位置)に撮影系1012のピントが合った状態で撮影を行うことができる。
【0034】
幾つかの例示的な態様において、
図2Aに示す画像取得部1010Aは、被検眼の3次元領域をスリット光でスキャンして一連のシャインプルーフ画像を収集するように構成されている。本例の画像取得部1010Aは、被検眼の3次元領域に対するスリット光の投射位置を移動しながら繰り返し撮影を行うことによって一連のシャインプルーフ画像を収集するように構成されている。
【0035】
幾つかの例示的な態様において、画像取得部1010Aは、スリット光の長手方向に直交する方向にスリット光を平行移動することによって被検眼の3次元領域をスキャンするように構成されてよい。このようなスキャン態様は、スリット光を回転させて前眼部をスキャンする従来の前眼部撮影装置のそれとは異なっている。
【0036】
ここで、スリット光の長手方向は、被検眼への投射位置におけるスリット光のビーム断面の長手方向、換言すると、被検眼上に形成されたスリット光の像の長手方向であり、被検者の体軸に沿う方向(体軸方向)に略一致していてよい。また、長手方向におけるスリット光の寸法は、被検体の体軸方向における角膜径以上であってよく、スリット光の平行移動の距離は、被検体の体軸方向に直交する方向における角膜径以上であってよい。
【0037】
本例の画像取得部1010Aにより収集された一連のシャインプルーフ画像は、時間的に連続して収集された画像群(フレーム群)ではあるが、被検眼の3次元領域における異なる複数の位置から逐次に収集された画像群であるから、一般的な動画像とは異なり、空間的に分布する画像群である。
【0038】
本例の画像取得部1010Aにおいて、照明系1011は、スリット光を被検眼の3次元領域に投射し、撮影系1012は、照明系1011からのスリット光が投射されている被検眼の3次元領域を撮影する。本例の画像取得部1010Aは、更に、照明系1011及び撮影系1012を移動するための機構を含んでいる。
【0039】
本例の画像取得部1010Aが適用された眼科装置1000のデータ処理部1020は、画像取得部1010Aにより収集された一連のシャインプルーフ画像に含まれるシャインプルーフ画像から炎症状態情報を生成するように構成されていてよい。本例のデータ処理部1020は、画像取得部1010Aにより収集された一連のシャインプルーフ画像に含まれる1つ以上のシャインプルーフ画像を処理することによって炎症状態情報の生成を実行する。ここで、炎症状態情報の生成に使用されるシャインプルーフ画像の個数は任意であってよい。
【0040】
また、本例の画像取得部1010Aが適用された眼科装置1000のデータ処理部1020は、画像取得部1010Aにより収集された一連のシャインプルーフ画像を加工して加工画像データを生成する処理と、生成された加工画像データに基づいて炎症状態情報を生成する処理とを実行するように構成されていてよい。
【0041】
例えば、本例のデータ処理部1020は、一連のシャインプルーフ画像に含まれる複数のシャインプルーフ画像から3次元画像(加工画像データの例である)を構築する処理と、この3次元画像に基づいて炎症状態情報を生成する処理とを実行するように構成されていてよい。或いは、本例のデータ処理部1020は、一連のシャインプルーフ画像に含まれる複数のシャインプルーフ画像から3次元画像を構築する処理と、この3次元画像からレンダリング画像(加工画像データの例である)を生成する処理と、このレンダリング画像に基づいて炎症状態情報を生成する処理とを実行するように構成されていてよい。
【0042】
幾つかの例示的な態様において、画像取得部1010Aの撮影系1012は、2つ以上の撮影系を含んでいてよい。例えば、
図2Bに示す画像取得部1010Bの撮影系1012Aは、互いに異なる方向からそれぞれ撮影する第1撮影系1014及び第2撮影系1015を含んでいる。
【0043】
本例の画像取得部1010Bは、一連のシャインプルーフ画像を収集するためのスリットスキャンにおいて被検眼の3次元領域を互いに異なる方向からそれぞれ第1撮影系1014及び第2撮影系1015で撮影するように構成されていてよい。例えば、被検眼への入射位置におけるスリット光のビーム断面の長手方向が上下方向(Y方向)であり、且つ、スリット光の移動方向が水平方向(左右方向、X方向)であるように画像取得部1010Bが構成されている場合において、第1撮影系1014及び第2撮影系1015は、一方が左斜方から被検眼を撮影し、且つ、他方が右斜方から被検眼を撮影するように配置されていてよい。
【0044】
第1撮影系1014により収集される一連のシャインプルーフ画像を第1シャインプルーフ画像群と呼び、第2撮影系1015により収集される一連のシャインプルーフ画像を第2シャインプルーフ画像群と呼ぶ。このような画像取得部1010Bにより収集される一連のシャインプルーフ画像は、第1シャインプルーフ画像群と第2シャインプルーフ画像群とを含んでいる。
【0045】
なお、スリットスキャンを行うことなく、第1撮影系1014により1枚のシャインプルーフ画像(第1シャインプルーフ画像)を取得し、第2撮影系1015により1枚のシャインプルーフ画像(第2シャインプルーフ画像)を取得する場合においても、用語の便宜上、第1撮影系1014により取得された1枚のシャインプルーフ画像を第1シャインプルーフ画像群と呼ぶことがあり、第2撮影系1015により取得された1枚のシャインプルーフ画像を第2シャインプルーフ画像群と呼ぶことがある。このように、本開示において、用語「群」は、複数の要素が含まれる場合だけでなく、1つの要素のみが含まれる場合にも使用されることがある。
【0046】
本例の画像取得部1010Bがスリットスキャンを実行する場合において、第1撮影系1014による被検眼の撮影と第2撮影系1015による被検眼の撮影とは、互いに並行して実行される。すなわち、画像取得部1010Bは、被検眼の3次元領域に対するスリット光の投射位置を移動しつつ、第1撮影系1014による撮影と第2撮影系1015による撮影とを並行して行う。
【0047】
更に、本例の画像取得部1010Bは、第1撮影系1014による撮影(シャインプルーフ画像の収集)と第2撮影系1015による撮影(シャインプルーフ画像の収集)とを互いに同期して実行するように構成されていてよい。この同期関係を参照することで、第1シャインプルーフ画像群と第2シャインプルーフ画像群との間の関連付けを、画像処理等を用いることなく、容易に行うことができる。この関連付けは、例えば、互いの取得時間の差が小さいシャインプルーフ画像同士を対応付けるように実行される。
【0048】
このような態様において、眼科装置1000は、第1撮影系1014による撮影と第2撮影系1015による撮影との相互同期関係を参照して、当該スリットスキャンに対応する一連のシャインプルーフ画像を第1シャインプルーフ画像群及び第2シャインプルーフ画像群から再構成することができる。
【0049】
図2Bに示す画像取得部1010Bが適用されている眼科装置1000の構成例を
図2Cに示す。本例の画像取得部1010Bにおいて、第1撮影系1014の光軸と第2撮影系1015の光軸とは、照明系1011の光軸に対して互いに反対の方向に傾斜して配置されている。更に、本例のデータ処理部1020Aは、画像選択部1021及び炎症状態情報生成部1022を含んでいる。
【0050】
画像選択部1021は、第1撮影系1014により取得された第1シャインプルーフ画像群及び第2撮影系1015により取得された第2シャインプルーフ画像群のうちから画像を選択するように構成されている。例えば、画像選択部1021は、第1撮影系1014により取得された第1シャインプルーフ画像及び第2撮影系1015により取得された第2シャインプルーフ画像の一方を選択するように構成されていてよい。
【0051】
画像選択部1021は、第1撮影系1014による撮影と第2撮影系1015による撮影との同期に基づきそれぞれ収集された第1シャインプルーフ画像群と第2シャインプルーフ画像群との間の対応関係に基づいて、第1シャインプルーフ画像群及び第2シャインプルーフ画像群を収集したスリットスキャンに対応する新たな一連のシャインプルーフ画像を第1シャインプルーフ画像群及び第2シャインプルーフ画像群から選択するように構成されている。端的に言うと、画像選択部1021は、第1撮影系1014及び第2撮影系1015によりそれぞれ収集された第1シャインプルーフ画像群及び第2シャインプルーフ画像群から一連のシャインプルーフ画像を再構成するように構成されている。
【0052】
画像選択部1021が実行する画像選択処理の手法は任意であってよい。例えば、第1撮影系1014及び第2撮影系1015の構成及び/又は配置や、画像選択の目的及び/又は用途など、所定の条件や所定のパラメータに基づいて、画像選択処理の手法を決定及び/又は選択することができる。
【0053】
画像取得部1010Bは、第1撮影系1014による撮影と第2撮影系1015による撮影とを相互同期的に実行する。また、前述したように、第1撮影系1014の光軸と第2撮影系1015の光軸とが、照明系1011の光軸に対して互いに反対の方向に傾斜して配置されている。例えば、第1撮影系1014の光軸は、照明系1011の光軸に対して左方に傾斜して配置されており、且つ、第2撮影系1015の光軸は、照明系1011の光軸に対して右方に傾斜して配置されている。このように配置された第1撮影系1014及び第2撮影系1015をそれぞれ左撮影系及び右撮影系と呼ぶことがある。
【0054】
照明系1011の光軸に対する第1撮影系1014の光軸の傾斜角度と、照明系1011の光軸に対する第2撮影系1015の光軸の傾斜角度とは、互いに等しくてもよいし、互いに相違してもよい。また、これらの傾斜角度は固定されていてもよいし、可変であってもよい。
【0055】
本例の照明系1011は、断面の長手方向がY方向に配向されたスリット光を被検眼に対して正面方向から投射するように構成及び配置される。また、本例の画像取得部1010Bは、照明系1011、第1撮影系1014、及び第2撮影系1015を一体的にX方向に移動することによって、被検眼の前眼部の3次元領域に対してスリットスキャンを適用する。
【0056】
本例の画像選択部1021は、第1撮影系1014により収集された第1シャインプルーフ画像群と第2撮影系1015により収集された第2シャインプルーフ画像群との間の対応関係に基づき、アーティファクトを含まない複数のシャインプルーフ画像を第1シャインプルーフ画像群及び第2シャインプルーフ画像群から選択することによって、第1シャインプルーフ画像群及び第2シャインプルーフ画像群を収集したスリットスキャンに対応する新たな一連のシャインプルーフ画像の選択を行う。このアーティファクトは、任意の種類のアーティファクトであってよい。本例のように前眼部スキャンを行う場合、このアーティファクトは、角膜反射に起因するアーティファクト(角膜反射アーティファクトと呼ぶ)であってよい。以下、画像選択部1021が実行する処理について幾つかの例を説明する。
【0057】
角膜反射アーティファクトが生じるスリット光の投射位置(シャインプルーフ画像、フレーム)は、左撮影系と右撮影系とで異なる。例えば、本例のように、断面の長手方向がY方向に配向されたスリット光を被検眼に対して正面方向から投射しつつ、照明系1011、第1撮影系1014、及び第2撮影系1015を一体的にX方向に移動することによってスリットスキャンを行う場合、スリット光の角膜反射光は、角膜頂点よりも左方の位置にスリット光が投射されているときには左撮影系に入射しやすく、角膜頂点よりも右方の位置にスリット光が投射されているときには右撮影系に入射しやすい。
【0058】
このような事情を考慮し、幾つかの例示的な態様の画像選択部1021は、まず、左撮影系としての第1撮影系1014により収集された第1シャインプルーフ画像群のうちから角膜頂点に対応するシャインプルーフ画像(第1角膜頂点画像)を特定するとともに、右撮影系としての第2撮影系1015により収集された第2シャインプルーフ画像群のうちから角膜頂点に対応するシャインプルーフ画像(第2角膜頂点画像)を特定するように構成される。
【0059】
幾つかの例示的な態様において、角膜頂点画像を特定する処理は、第1シャインプルーフ画像群に含まれる各シャインプルーフ画像から角膜表面に相当する画像を検出する処理と、これらの検出画像のピクセルのZ座標に基づき本例の眼科装置1000に最も近いピクセルを特定する処理と、特定されたピクセルを含むシャインプルーフ画像を第1角膜頂点画像に設定する処理とを含んでいてよい。第2角膜頂点画像の設定も同じ要領で実行されてよい。
【0060】
次に、画像選択部1021は、第1シャインプルーフ画像群のうちから第1角膜頂点画像よりも右方に位置するシャインプルーフ画像群を選択するとともに、第2シャインプルーフ画像群のうちから第2角膜頂点画像よりも左方に位置するシャインプルーフ画像群を選択し、選択された2つのシャインプルーフ画像群(並びに、第1角膜頂点画像及び/又は第2角膜頂点画像)からなる一連のシャインプルーフ画像を形成する。これにより、スリットスキャンが適用された前眼部の3次元領域にわたり、且つ、角膜反射アーティファクトを含まない(その可能性が高い)一連のシャインプルーフ画像が得られる。
【0061】
角膜頂点画像を特定する処理の他の例を説明する。幾つかの例示的な態様の画像選択部1021は、第1撮影系1014(例えば左撮影系)及び第2撮影系1015(例えば右撮影系)により実質的に同時に取得された2つの画像のいずれかに角膜反射アーティファクトが含まれているか判定するように構成される。この角膜反射アーティファクト判定処理は、所定の画像解析を含んでおり、例えば、ピクセルに割り当てられた輝度情報に関する閾値処理を含む。なお、実質的に同時に取得された2つの画像を決定する処理は、第1撮影系1014による撮影と第2撮影系1015による撮影との間の同期関係に基づき実行することができる。
【0062】
アーティファクト判定処理に用いられる閾値処理は、例えば、予め設定された閾値を超える輝度値が割り当てられたピクセルを特定するように実行される。典型的には、閾値は、画像中のスリット光像(スリット光の投射領域)の輝度値よりも高く設定されてよい。これにより、画像選択部1021は、スリット光像をアーティファクトとして判定することなく、スリット光像よりも明るい像をアーティファクトとして判定するように構成される。シャインプルーフ画像においてスリット光像よりも明るい像は、角膜での正反射に起因する像である可能性が高いことを考慮すると、このように構成された画像選択部1021により検出されるアーティファクトは、角膜反射アーティファクトである可能性が高いと考えることができる。
【0063】
画像選択部1021は、アーティファクト判定のために、例えば、パターン認識、セグメンテーション、エッジ検出など、閾値処理以外の任意の画像解析を実行してもよい。一般に、画像解析、画像処理、機械学習、人工知能、コグニティブ・コンピューティングなど、任意の情報処理技術を、アーティファクト判定に適用することが可能である。
【0064】
アーティファクト判定の結果、第1撮影系1014及び第2撮影系1015により実質的に同時に取得された2つの画像の一方の画像にアーティファクトが含まれると判定されたとき、画像選択部1021は、他方の画像を選択する。つまり、画像選択部1021は、第1撮影系1014及び第2撮影系1015により実質的に同時に取得された2つの画像のうち、アーティファクトが含まれると判定された一方の画像ではない他方の画像を選択する。
【0065】
双方の画像にアーティファクトが含まれると判定された場合を想定し、画像選択部1021は、例えば、アーティファクトが観察や診断に与える悪影響の大きさを評価する処理と、悪影響が小さい側の画像を選択する処理とを実行するように構成されてよい。この評価処理は、例えば、アーティファクトの寸法、強度、形状、及び位置のいずれか1つ以上の条件に基づき実行されてよい。典型的には、寸法が大きいアーティファクト、強度が高いアーティファクト、スリット光像などの注目領域やその近傍に位置するアーティファクトなどは、悪影響が大きいと評価される。
【0066】
なお、双方の画像にアーティファクトが含まれる場合などにおいて、特許文献3(特開2019-213733号公報)に開示されているアーティファクト除去を適用してもよい。
【0067】
以上に説明したような画像選択部1021を設けることにより、観察や解析や診断の妨げになるアーティファクトを含まない、被検眼の3次元領域の画像を提供することが可能になる。更に、アーティファクトを含まない被検眼の3次元領域の画像を後段の処理に提供することが可能になる。例えば、アーティファクトを含まない画像群に基づいて被検眼の3次元画像やレンダリング画像を構築することが可能になる。
【0068】
実質的に同一の位置を撮影して得られた画像であっても、左撮影系で得られた画像と右撮影系で得られた画像とでは、描出された所定部位の寸法が互いに異なる場合がある。例えば、実質的に同一の位置を左撮影系及び右撮影系でそれぞれ撮影して得られた左画像及び右画像において、描出されている角膜の厚さや炎症性細胞の寸法や前房フレアの寸法が互いに異なる場合がある。このような場合においても、画像選択部1021を用いることによって所定部位の寸法を合わせることが可能になる。
【0069】
炎症状態情報生成部1022は、選択部1021により選択されたシャインプルーフ画像に基づいて炎症状態情報を生成するように構成されている。炎症状態情報の生成に使用されるシャインプルーフ画像の個数は任意に設定されてよい。また、炎症状態情報生成部1022は、選択部1021により選択された一連のシャインプルーフ画像群に含まれる1以上のシャインプルーフ画像を加工して加工画像データを生成する処理と、生成された加工画像データに基づいて炎症状態情報を生成する処理とを実行するように構成されていてもよい。
【0070】
前述したように、データ処理部1020により生成される炎症状態情報は、被検眼の前房内の炎症性細胞に関する評価情報である細胞評価情報を含んでいてよい。この場合、データ処理部1020は、第1セグメンテーション、第2セグメンテーション、及び細胞評価情報生成処理のうちの少なくとも1つの処理を実行するように構成されていてよい。ここで、第1セグメンテーションは前房に相当する前房領域を特定するための処理であり、第2セグメンテーションは炎症性細胞に相当する細胞領域を特定するための処理であり、細胞評価情報生成処理は細胞評価情報を生成するための処理である。
【0071】
第1セグメンテーションは、機械学習ベースの処理若しくは非機械学習ベースの処理であってよく、又は、機械学習ベースの処理及び非機械学習ベースの処理の組み合わせであってもよい。第2セグメンテーションは、機械学習ベースの処理若しくは非機械学習ベースの処理であってよく、又は、機械学習ベースの処理及び非機械学習ベースの処理の組み合わせであってもよい。細胞評価情報生成処理は、機械学習ベースの処理若しくは非機械学習ベースの処理であってよく、又は、機械学習ベースの処理及び非機械学習ベースの処理の組み合わせであってもよい。
【0072】
第1セグメンテーションに投入されるデータの種類、第2セグメンテーションに投入されるデータの種類、及び、細胞評価情報生成処理に投入されるデータの種類は、いずれも任意であってよい。以下、第1セグメンテーション、第2セグメンテーション、及び細胞評価情報生成処理を含む複数の処理の可能な組み合わせの幾つかの例について説明する。
【0073】
図3に示すデータ処理部1030は、
図1のデータ処理部1020の構成の例である。本例のデータ処理部1030は、第1セグメンテーション部1031、第2セグメンテーション部1032、及び細胞評価情報生成処理部1033を含んでいる。
【0074】
第1セグメンテーション部1031は、前房領域を特定するための第1セグメンテーションを実行するプロセッサを含み、画像取得部1010により取得されたシャインプルーフ画像から前房領域を特定するように構成されている。
【0075】
機械学習を用いて本例の第1セグメンテーションを実行する場合における第1セグメンテーション部1031の構成例を
図4に示す。本例の第1セグメンテーション部1031Aは、予め構築された推論モデル1034(第1推論モデルと呼ぶ)を用いて第1セグメンテーションを実行するように構成されている。第1推論モデル1034は、眼画像(例えば、眼のシャインプルーフ画像、他のモダリティで取得した眼の画像、又は、眼のシャインプルーフ画像及び他のモダリティで取得された眼の画像)を少なくとも含む訓練データを用いた機械学習により構築されたニューラルネットワーク1035(第1ニューラルネットワークと呼ぶ)を含んでいる。
【0076】
第1ニューラルネットワーク1035に入力されるデータはシャインプルーフ画像であり、第1ニューラルネットワーク1035から出力されるデータは前房領域である。すなわち、第1セグメンテーション部1031Aは、画像取得部1010により取得されたシャインプルーフ画像(例えば、1つ以上のシャインプルーフ画像、1つ以上の加工画像データ、又は、1つ以上のシャインプルーフ画像及び1つ以上の加工画像データ)を受け、このシャインプルーフ画像を第1推論モデル1034の第1ニューラルネットワーク1035に入力し、第1ニューラルネットワーク1035からの出力データ(入力されたシャインプルーフ画像における前房領域)を取得するように構成されている。
【0077】
第1推論モデル1034を構築する装置(推論モデル構築装置)は、眼科装置1000に設けられていてもよいし、眼科装置1000の周辺機器(コンピュータなど)に設けられてもよいし、他のコンピュータであってもよい。
【0078】
図5に示すモデル構築部2000は、推論モデル構築装置の例であり、学習処理部2010とニューラルネットワーク2020とを含む。
【0079】
ニューラルネットワーク2020は、典型的には、畳み込みニューラルネットワーク(CNN)を含む。
図5の符号2030は、畳み込みニューラルネットワークの構造の一例を示している。
【0080】
入力層には、画像が入力される。入力層の後ろには、畳み込み層とプーリング層とのペアが複数配置されている。
図5に示す例には畳み込み層とプーリング層とのペアが3つ設けられているが、ペアの個数は任意であってよい。
【0081】
畳み込み層では、画像から特徴(輪郭など)を把握するための畳み込み演算が行われる。畳み込み演算は、入力された画像に対する、この画像と同じ次元のフィルタ関数(重み係数、フィルタカーネル)の積和演算である。畳み込み層では、入力された画像の複数の部分にそれぞれ畳み込み演算を適用する。より具体的には、畳み込み層では、フィルタ関数が適用された部分画像の各ピクセルの値に、そのピクセルに対応するフィルタ関数の値(重み)を乗算して積を算出し、この部分画像の複数のピクセルにわたって積の総和を求める。このように得られた積和値は、出力される画像における対応ピクセルに代入される。フィルタ関数を適用する箇所(部分画像)を移動させながら積和演算を行うことで、入力された画像の全体についての畳み込み演算結果が得られる。このような畳み込み演算によれば、多数の重み係数を用いて様々な特徴が抽出された画像が多数得られる。つまり、平滑化画像やエッジ画像などの多数のフィルタ処理画像が得られる。畳み込み層により生成される多数の画像は特徴マップと呼ばれる。
【0082】
プーリング層では、直前の畳み込み層により生成された特徴マップの圧縮(データの間引きなど)が行われる。より具体的には、プーリング層では、特徴マップ内の注目ピクセルの所定の近傍ピクセルにおける統計値を所定のピクセル間隔ごとに算出し、入力された特徴マップよりも小さな寸法の画像を出力する。なお、プーリング演算に適用される統計値は、例えば、最大値(max pooling)又は平均値(average pooling)である。また、プーリング演算に適用されるピクセル間隔は、ストライド(stride)と呼ばれる。
【0083】
畳み込みニューラルネットワークは、畳み込み層とプーリング層との複数のペアによって処理を行うことにより、入力された画像から多くの特徴を抽出することができる。
【0084】
畳み込み層とプーリング層との最後のペアの後ろには、全結合層が設けられている。
図5に示す例においては2つの全結合層が設けられているが、全結合層の個数は任意であってよい。全結合層では、畳み込みとプーリングとの組み合わせによって圧縮された特徴量を用いて、画像分類、画像セグメンテーション、回帰などの処理を行う。最後の全結合層の後ろには、出力結果を提供する出力層が設けられている。
【0085】
幾つかの例示的な態様において、畳み込みニューラルネットワークは、全結合層を含まなくてもよいし(例えば、全層畳み込みネットワーク(FCN))、サポートベクターマシンや再帰型ニューラルネットワーク(RNN)などを含んでいてもよい。また、ニューラルネットワーク2020に対する機械学習は、転移学習を含んでいてもよい。つまり、ニューラルネットワーク2020は、他の訓練データ(訓練画像)を用いた学習が既に行われてパラメータ調整が為されたニューラルネットワークを含んでいてもよい。また、モデル構築部2000(学習処理部2010)は、学習済みのニューラルネットワーク(ニューラルネットワーク2020)にファインチューニングを適用可能に構成されてもよい。ニューラルネットワーク2020は、公知のオープンソースのニューラルネットワークアーキテクチャを用いて構築されたものであってもよい。
【0086】
学習処理部2010は、訓練データを用いた機械学習をニューラルネットワーク2020に適用する。ニューラルネットワーク2020が畳み込みニューラルネットワークを含んでいる場合、学習処理部2010によって調整されるパラメータは、例えば、畳み込み層のフィルタ係数と、全結合層の結合重み及びオフセットとを含む。
【0087】
前述したように、訓練データは、1以上の眼について取得された1以上のシャインプルーフ画像を含んでいてよい。眼のシャインプルーフ画像は、第1ニューラルネットワーク1035に入力される画像と同種の画像であるから、他の種類の画像のみを含む訓練データを用いて機械学習を行う場合と比較して、第1ニューラルネットワーク1035の出力の品質(正確度、精度など)の向上を図ることができる。
【0088】
訓練データに含まれる画像の種類はシャインプルーフ画像に限定されず、例えば、訓練データは、他の眼科モダリティ(眼底カメラ、OCT装置、SLO、手術用顕微鏡など)により取得された画像や、任意の診療科の画像診断モダリティ(超音波診断装置、X線診断装置、X線CT装置、磁気共鳴イメージング(MRI)装置など)により取得された画像や、実際の眼の画像を加工して生成された画像(加工画像データ)や、擬似的な画像などを含んでいてもよい。また、データ拡張、データオーギュメンテーションなどの技術を利用して、訓練データに含まれる画像等の個数を増加させてもよい。
【0089】
第1ニューラルネットワーク1035を構築するための訓練の手法(機械学習の手法)は任意であってよく、例えば、教師あり学習、教師なし学習、及び強化学習のいずれか、又は、いずれか2以上の組み合わせであってよい。
【0090】
幾つかの例示的な態様では、入力画像に対してラベルを付すアノテーションによって生成された訓練データを用いて教師あり学習が実施される。このアノテーションでは、例えば、訓練データに含まれる各画像について、その画像中の前房領域を特定してラベルを付す。前房領域の特定は、例えば、医師、コンピュータ、及び、他の推論モデルのうちの少なくとも1つによって実行される。学習処理部2010は、このような訓練データを用いた教師あり学習をニューラルネットワーク2020に適用することによって第1ニューラルネットワーク1035を構築することができる。
【0091】
このようにして構築された第1ニューラルネットワーク1035を含む第1推論モデル1034は、シャインプルーフ画像(例えば、画像取得部1010により取得されたシャインプルーフ画像、その加工画像データ)を入力とし、且つ、入力されたシャインプルーフ画像中の前房領域(例えば、前房領域の範囲又は位置を示す情報)を出力とした学習済みモデルである。
【0092】
第1ニューラルネットワーク1035の特定のユニットに処理が集中することを避けるために、学習処理部2010は、ニューラルネットワーク2020の幾つかのユニットをランダムに選んで無効化し、残りのユニットを用いて学習を行ってもよい(ドロップアウト)。
【0093】
推論モデル構築に用いられる手法は、ここに示した例に限定されない。例えば、サポートベクターマシン、ベイズ分類器、ブースティング、k平均法、カーネル密度推定、主成分分析、独立成分分析、自己組織化写像、ランダムフォレスト、敵対的生成ネットワーク(GAN)といった任意の手法を、推論モデルを構築するために利用することが可能である。
【0094】
本例の第1セグメンテーション部1031Aは、このような第1推論モデル1034(第1ニューラルネットワーク1035)を用いることによって、被検眼のシャインプルーフ画像から前房領域を特定する処理を実行する。
【0095】
第2セグメンテーション部1032は、細胞領域を特定するための第2セグメンテーションを実行するプロセッサを含み、第1セグメンテーション部1031により特定された前房領域から細胞領域を特定するように構成されている。
【0096】
機械学習を用いて本例の第2セグメンテーションを実行する場合における第2セグメンテーション部1032の構成例を
図6に示す。本例の第2セグメンテーション部1032Aは、予め構築された推論モデル1036(第2推論モデルと呼ぶ)を用いて第2セグメンテーションを実行するように構成されている。第2推論モデル1036は、眼画像(例えば、眼のシャインプルーフ画像、他のモダリティで取得した眼の画像、又は、眼のシャインプルーフ画像及び他のモダリティで取得された眼の画像)を少なくとも含む訓練データを用いた機械学習により構築されたニューラルネットワーク1037(第2ニューラルネットワークと呼ぶ)を含んでいる。
【0097】
本例の訓練データに含まれる眼画像は、眼の前房の少なくとも一部に相当する画像(前房画像と呼ぶ)を含んでいる。本例の訓練データに含まれる眼画像は、前眼部画像(例えば、シャインプルーフ画像、他のモダリティで取得された画像)に対する手動セグメンテーション又は自動セグメンテーションの結果を含んでいてよく、例えば、前眼部画像から抽出された前房画像、又は、前眼部画像中の前房画像の範囲若しくは位置を示す情報であってよい。
【0098】
第2ニューラルネットワーク1037に入力されるデータは第1セグメンテーション部1031によりシャインプルーフ画像から特定された前房領域(又は、特定及び抽出された前房領域(以下同様))であり、第2ニューラルネットワーク1037から出力されるデータは細胞領域である。すなわち、第2セグメンテーション部1032Aは、第1セグメンテーション部1031により特定された前房領域を受け、この前房領域を第2推論モデル1036の第2ニューラルネットワーク1037に入力し、第2ニューラルネットワーク1037からの出力データ(入力された前房領域における細胞領域)を取得するように構成されている。
【0099】
第2推論モデル1036(第2ニューラルネットワーク1037)の構築は、第1推論モデル1034(第1ニューラルネットワーク1035)の構築と同じ要領で実行されてよい。例えば、第2推論モデル1036(第2ニューラルネットワーク1037)の構築は、
図5に示すモデル構築部2000によって実行される。特に言及しない限り、本例のモデル構築部2000(学習処理部2010及びニューラルネットワーク2020)は、第1推論モデル1034(第1ニューラルネットワーク1035)の構築におけるそれと同じであってよい。
【0100】
第2ニューラルネットワーク1037の構築に用いられる訓練データは、1以上の眼について取得された1以上のシャインプルーフ画像(例えば、前房領域が特定された前眼部画像、前房画像)を含んでいてよい。訓練データに含まれる画像の種類はシャインプルーフ画像に限定されず、例えば、訓練データは、他の眼科モダリティにより取得された画像や、任意の診療科の画像診断モダリティにより取得された画像や、実際の眼の画像を加工して生成された画像や、擬似的な画像などを含んでいてもよい。
【0101】
第2ニューラルネットワーク1037を構築するための訓練の手法(機械学習の手法)は任意であってよく、例えば、教師あり学習、教師なし学習、及び強化学習のいずれか、又は、いずれか2以上の組み合わせであってよい。
【0102】
幾つかの例示的な態様では、入力画像に対してラベルを付すアノテーションによって生成された訓練データを用いて教師あり学習が実施される。このアノテーションでは、例えば、訓練データに含まれる各画像について、その画像中の細胞領域を特定してラベルを付す。細胞領域の特定は、例えば、医師、コンピュータ、及び、他の推論モデルのうちの少なくとも1つによって実行される。学習処理部2010は、このような訓練データを用いた教師あり学習をニューラルネットワーク2020に適用することによって第2ニューラルネットワーク1037を構築することができる。
【0103】
このようにして構築された第2ニューラルネットワーク1037を含む第2推論モデル1036は、第1セグメンテーション部1031により特定された前房領域を入力とし、且つ、入力された前房領域中の細胞領域(例えば、細胞領域の範囲又は位置を示す情報)を出力とした学習済みモデルである。
【0104】
本例の第2セグメンテーション部1032Aは、このような第2推論モデル1036(第2ニューラルネットワーク1037)を用いることによって、被検眼のシャインプルーフ画像中の前房領域から細胞領域を特定する処理を実行する。
【0105】
細胞評価情報生成処理部1033は、細胞評価情報を生成するための細胞評価情報生成処理を実行するプロセッサを含み、第2セグメンテーション部1032により特定された細胞領域から細胞評価情報を生成する。
【0106】
機械学習を用いて本例の細胞評価情報生成処理を実行する場合における細胞評価情報生成処理部1033の構成例を
図7に示す。本例の細胞評価情報生成処理部1033Aは、予め構築された推論モデル1038(第3推論モデルと呼ぶ)を用いて細胞評価情報生成処理を実行するように構成されている。第3推論モデル1038は、眼画像(例えば、眼のシャインプルーフ画像、他のモダリティで取得した眼の画像、又は、眼のシャインプルーフ画像及び他のモダリティで取得された眼の画像)を少なくとも含む訓練データを用いた機械学習により構築されたニューラルネットワーク1039(第3ニューラルネットワークと呼ぶ)を含んでいる。
【0107】
本例の訓練データに含まれる眼画像は、炎症性細胞の画像が描出されている前房画像を少なくとも含み、炎症性細胞の画像が描出されていない前房画像を更に含んでいてもよい。本例の訓練データに含まれる眼画像は、前眼部画像(例えば、シャインプルーフ画像、他のモダリティで取得された画像)に対する手動セグメンテーション又は自動セグメンテーションの結果を含んでいてよく、例えば、前眼部画像中の前房画像から抽出された細胞画像、又は、前房画像中の細胞領域の範囲若しくは位置を示す情報であってよい。
【0108】
第3ニューラルネットワーク1039に入力されるデータは第2セグメンテーション部1032からの出力又はそれに基づくデータ(例えば、細胞領域の範囲、位置、分布などを示すデータ、又は、細胞領域の特定結果が付された前房領域)であり、第3ニューラルネットワーク1039から出力されるデータは細胞評価情報である。すなわち、細胞評価情報生成処理部1033Aは、第2セグメンテーション部1032による細胞領域の特定結果又はそれに基づくデータを受け、細胞領域の特定結果又はそれに基づくデータを第3推論モデル1038の第3ニューラルネットワーク1039に入力し、第3ニューラルネットワーク1037からの出力データ(細胞評価情報)を取得するように構成されている。前述したように、細胞評価情報は、炎症性細胞に関する所定のパラメータ(例えば、炎症性細胞の密度、個数、位置、分布など)についての評価情報である。
【0109】
第3推論モデル1038(第3ニューラルネットワーク1039)の構築は、第1推論モデル1034(第1ニューラルネットワーク1035)の構築と同じ要領で実行されてよい。例えば、第3推論モデル1038(第3ニューラルネットワーク1039)の構築は、
図5に示すモデル構築部2000によって実行される。特に言及しない限り、本例のモデル構築部2000(学習処理部2010及びニューラルネットワーク2020)は、第1推論モデル1034(第1ニューラルネットワーク1035)の構築におけるそれと同じであってよい。
【0110】
第3ニューラルネットワーク1039の構築に用いられる訓練データは、1以上の眼について取得された1以上のシャインプルーフ画像(例えば、細胞領域が特定された前房領域を含む前眼部画像、細胞領域が特定された前房画像)を含んでいてよい。訓練データに含まれる画像の種類はシャインプルーフ画像に限定されず、例えば、訓練データは、他の眼科モダリティにより取得された画像や、任意の診療科の画像診断モダリティにより取得された画像や、実際の眼の画像を加工して生成された画像や、擬似的な画像などを含んでいてもよい。
【0111】
第3ニューラルネットワーク1039を構築するための訓練の手法(機械学習の手法)は任意であってよく、例えば、教師あり学習、教師なし学習、及び強化学習のいずれか、又は、いずれか2以上の組み合わせであってよい。
【0112】
幾つかの例示的な態様では、入力画像に対してラベルを付すアノテーションによって生成された訓練データを用いて教師あり学習が実施される。このアノテーションでは、例えば、訓練データに含まれる各画像(細胞領域が特定されている)に対して、その画像から生成された細胞評価情報がラベルとして付される。画像からの細胞評価情報の生成は、例えば、医師、コンピュータ、及び、他の推論モデルのうちの少なくとも1つによって実行される。学習処理部2010は、このような訓練データを用いた教師あり学習をニューラルネットワーク2020に適用することによって第3ニューラルネットワーク1039を構築することができる。
【0113】
このようにして構築された第3ニューラルネットワーク1039を含む第3推論モデル1038は、第2セグメンテーション部1032による細胞領域の特定結果又はそれに基づくデータを入力とし、且つ、入力された細胞領域の特定結果又はそれに基づくデータに基づく細胞評価情報を出力とした学習済みモデルである。
【0114】
本例の細胞評価情報生成処理部1033Aは、このような第3推論モデル1038(第3ニューラルネットワーク1039)を用いることによって、被検眼のシャインプルーフ画像中の前房領域における細胞領域から細胞評価情報を生成する処理を実行する。
【0115】
図8に示すデータ処理部1040は、
図1のデータ処理部1020の構成の例である。本例のデータ処理部1040は、第1セグメンテーション部1041、変換処理部1042、第2セグメンテーション部1043、及び細胞評価情報生成処理部1044を含んでいる。
【0116】
第1セグメンテーション部1041は、
図3の第1セグメンテーション部1031(例えば、
図4の第1セグメンテーション部1031A)と同様の構成及び機能を有し、画像取得部1010により取得されたシャインプルーフ画像から前房領域を特定するための第1セグメンテーションを実行するように構成されている。
【0117】
変換処理部1042は、第1セグメンテーション部1041により特定された前房領域を、第2セグメンテーション部1043が実行する第2セグメンテーションに応じた構造のデータに変換する。本例の第2セグメンテーション部1043は、
図6の第2セグメンテーション部1032Aのように、機械学習で構築されたニューラルネットワーク(第2ニューラルネットワーク)を用いて第2セグメンテーションを実行するように構成されている。変換処理部1042は、第1セグメンテーション部1041によりシャインプルーフ画像から特定された前房領域を、第2セグメンテーション部1043の第2ニューラルネットワークの入力層に対応した構造の画像データに変換するための変換処理を実行するように構成されている。
【0118】
例えば、第2セグメンテーション部1043の第2ニューラルネットワーク(畳み込みニューラルネットワーク)の入力層が既定の構造(形態、形式)のデータを受け付けるように構成されている場合がある。この既定のデータ構造は、例えば、既定の画像サイズ(例えば、縦方向のピクセル数及び横方向のピクセル数)、既定の画像形状(例えば、正方形又は長方形)などであってよい。一方、眼科装置の仕様、撮影時の条件や設定、被検眼の寸法や形態の個人差などの影響により、第1セグメンテーション部1041によって特定される前房領域の画像サイズや画像形状は様々である。変換処理部1042は、第1セグメンテーション部1041により特定された前房領域の構造(例えば、画像サイズ及び/又は画像形状)を、第2セグメンテーション部1043の第2ニューラルネットワークの入力層が受け付け可能な構造に変換する。
【0119】
画像サイズの変換は、任意の公知の画像サイズ変換技術を用いて実行されてよく、例えば、第1セグメンテーション部1041により特定された前房領域を入力層に応じた画像サイズの複数の部分画像に分割する処理、又は、第1セグメンテーション部1041により特定された前房領域を入力層に応じた画像サイズの単一の画像にリサイズする処理を含んでいてよい。画像形状の変換は、任意の公知の画像変形技術を用いて実行されてよい。他のデータ構造の変換処理についても同様であってよい。
【0120】
なお、本開示では、ニューラルネットワークの構造に対応した変換処理をシャインプルーフ画像の前房領域に適用する場合について幾つかの例を詳細に説明しているが、変換処理の態様やそのための構成はそれらに限定されない。
【0121】
例えば、ニューラルネットワークに入力される画像がシャインプルーフ画像である場合には、入力されるシャインプルーフ画像に同様の変換処理を適用する構成を採用することが可能である。また、ニューラルネットワークに入力される画像がシャインプルーフ画像の任意の加工画像データである場合には、入力される加工画像データに同様の変換処理を適用するように構成を採用することが可能である。
【0122】
また、変換処理を実行する要素(変換処理を実行するプロセッサ。変換処理部と呼ぶ。)の配置も任意であってよい。例えば、変換処理部は、取得されたシャインプルーフ画像に基づき実行される一連の処理の流れにおいて、対象となるニューラルネットワークよりも前の段階(例えば、このニューラルネットワークを含む推論モデルよりも前の段階、又は、この推論モデルの内部であってこのニューラルネットワークよりも前の段階)に配置されていてよく、又は、対象となるニューラルネットワークの内部に配置されていてよい。対象となるニューラルネットワークの内部に配置される場合、このニューラルネットワークの出力に直接に対応する入力を受け付ける入力層よりも前の段階に変換処理部が配置される。
【0123】
第2セグメンテーション部1043は、
図6の第2セグメンテーション部1032Aと同様の構成及び機能を有し、変換処理部1042によりデータ構造が変換された前房領域から細胞領域を特定するための第2セグメンテーションを実行するように構成されている。第2セグメンテーション部1043の第2ニューラルネットワークは、変換処理部1042により生成された画像データ(データ構造が変換された前房領域)の入力を受け、細胞領域を出力するように構成されている。本例の第2ニューラルネットワークを構築するための機械学習は、
図6の第2ニューラルネットワーク1037を構築するための機械学習と同じ要領で実行されてよい。
【0124】
細胞評価情報生成処理部1044は、
図3の細胞評価情報生成処理部1033(例えば、
図7の細胞評価情報生成処理部1033A)と同様の構成及び機能を有し、第2セグメンテーション部1043により特定された細胞領域から細胞評価情報を生成するための細胞評価情報生成処理を実行するように構成されている。
【0125】
このように、本例のデータ処理部1040は、
図3のデータ処理部1030の第1セグメンテーション部1031と第2セグメンテーション部1032との間に変換処理部1042を配置した構成であってよい。しかしながら、本例のデータ処理部1040の構成はこれに限定されない。
【0126】
図9に示すデータ処理部1050は、
図1のデータ処理部1020の構成の例である。本例のデータ処理部1050は、第2セグメンテーション部1051と細胞評価情報生成処理部1052とを含んでいる。
【0127】
第2セグメンテーション部1051は、細胞領域を特定するための第2セグメンテーションを実行するプロセッサを含み、画像取得部1010により取得されたシャインプルーフ画像から細胞領域を特定するように構成されている。
【0128】
機械学習を用いて本例の第2セグメンテーションを実行する場合における第2セグメンテーション部1051の構成例を
図10に示す。本例の第2セグメンテーション部1051Aは、予め構築された推論モデル1053(第4推論モデルと呼ぶ)を用いて第2セグメンテーションを実行するように構成されている。第4推論モデル1053は、眼画像(例えば、眼のシャインプルーフ画像、他のモダリティで取得した眼の画像、又は、眼のシャインプルーフ画像及び他のモダリティで取得された眼の画像)を少なくとも含む訓練データを用いた機械学習により構築されたニューラルネットワーク1054(第4ニューラルネットワークと呼ぶ)を含んでいる。
【0129】
幾つかの例示的な態様において、第4ニューラルネットワーク1054は、
図4の第1ニューラルネットワーク1035の少なくとも一部と
図6の第2ニューラルネットワーク1037の少なくとも一部とを含んでいてもよい。例えば、第4ニューラルネットワーク1054は、第1ニューラルネットワーク1035と第2ニューラルネットワーク1037とを直列に配置したニューラルネットワークであってよい。このような構成の第4ニューラルネットワーク1054は、シャインプルーフ画像から前房領域を特定する機能と、前房領域から細胞領域を特定する機能とを有する。
【0130】
幾つかの例示的な態様において、第4ニューラルネットワーク1054は、前房領域の特定を行うことなく、シャインプルーフ画像から細胞領域を直接に特定するように機械学習が施されていてもよい。第4ニューラルネットワーク1054の態様はこれらに限定されるものではなく、シャインプルーフ画像から細胞領域を特定するための任意の機械学習が適用されたニューラルネットワークを含んでいてよい。
【0131】
第4ニューラルネットワーク1054に入力されるデータはシャインプルーフ画像であり、第4ニューラルネットワーク1054から出力されるデータは細胞領域である。すなわち、第2セグメンテーション部1051Aは、シャインプルーフ画像を受け、このシャインプルーフ画像を第4推論モデル1053の第4ニューラルネットワーク1054に入力し、第4ニューラルネットワーク1054からの出力データ(入力されたシャインプルーフ画像における細胞領域)を取得するように構成されている。
【0132】
第4推論モデル1053(第4ニューラルネットワーク1054)の構築は、第1推論モデル1034(第1ニューラルネットワーク1035)の構築と同じ要領で実行されてよい。例えば、第4推論モデル1053(第4ニューラルネットワーク1054)の構築は、
図5に示すモデル構築部2000によって実行される。特に言及しない限り、本例のモデル構築部2000(学習処理部2010及びニューラルネットワーク2020)は、第1推論モデル1034(第1ニューラルネットワーク1035)の構築におけるそれと同じであってよい。
【0133】
第4ニューラルネットワーク1054の構築に用いられる訓練データは、1以上の眼について取得された1以上のシャインプルーフ画像を含んでいてよい。訓練データに含まれる画像の種類はシャインプルーフ画像に限定されず、例えば、訓練データは、他の眼科モダリティにより取得された画像や、任意の診療科の画像診断モダリティにより取得された画像や、実際の眼の画像を加工して生成された画像や、擬似的な画像などを含んでいてもよい。
【0134】
訓練データに含まれるいずれかの画像は、第4ニューラルネットワーク1054により実行される処理を補助するための情報が付されていてもよい。例えば、事前のアノテーションによって画像中の前房領域にラベルが付されていてもよい。
【0135】
第4ニューラルネットワーク1054を構築するための訓練の手法(機械学習の手法)は任意であってよく、例えば、教師あり学習、教師なし学習、及び強化学習のいずれか、又は、いずれか2以上の組み合わせであってよい。
【0136】
幾つかの例示的な態様では、入力画像に対してラベルを付すアノテーションによって生成された訓練データを用いて教師あり学習が実施される。このアノテーションでは、例えば、訓練データに含まれる各画像について、その画像中の細胞領域を特定してラベルを付す。細胞領域の特定は、例えば、医師、コンピュータ、及び、他の推論モデルのうちの少なくとも1つによって実行される。学習処理部2010は、このような訓練データを用いた教師あり学習をニューラルネットワーク2020に適用することによって第4ニューラルネットワーク1054を構築することができる。
【0137】
このようにして構築された第4ニューラルネットワーク1054を含む第4推論モデル1053は、画像取得部1010により取得されたシャインプルーフ画像(又は、その加工画像データなど)を入力とし、且つ、入力されたシャインプルーフ画像中の細胞領域(例えば、細胞領域の範囲又は位置を示す情報)を出力とした学習済みモデルである。
【0138】
本例の第2セグメンテーション部1051Aは、このような第4推論モデル1053(第4ニューラルネットワーク1054)を用いることによって、被検眼のシャインプルーフ画像から細胞領域を特定する処理を実行する。
【0139】
細胞評価情報生成処理部1052は、細胞評価情報を生成するための細胞評価情報生成処理を実行するプロセッサを含み、第2セグメンテーション部1051により特定された細胞領域から細胞評価情報を生成する。
【0140】
機械学習を用いて本例の細胞評価情報生成処理を実行する場合における細胞評価情報生成処理部1052の構成例を
図11に示す。本例の細胞評価情報生成処理部1052Aは、予め構築された推論モデル1055(第5推論モデルと呼ぶ)を用いて細胞評価情報生成処理を実行するように構成されている。第5推論モデル1055は、眼画像(例えば、眼のシャインプルーフ画像、他のモダリティで取得した眼の画像、又は、眼のシャインプルーフ画像及び他のモダリティで取得された眼の画像)を少なくとも含む訓練データを用いた機械学習により構築されたニューラルネットワーク1056(第5ニューラルネットワークと呼ぶ)を含んでいる。
【0141】
第5ニューラルネットワーク1056に入力されるデータは第2セグメンテーション部1051からの出力又はそれに基づくデータ(例えば、細胞領域の範囲、位置、分布などを示すデータ、又は、細胞領域の特定結果が付された前房領域)であり、第5ニューラルネットワーク1056から出力されるデータは細胞評価情報である。すなわち、細胞評価情報生成処理部1052Aは、第2セグメンテーション部1051による細胞領域の特定結果又はそれに基づくデータを受け、細胞領域の特定結果又はそれに基づくデータを第5推論モデル1055の第5ニューラルネットワーク1056に入力し、第5ニューラルネットワーク1056からの出力データ(細胞評価情報)を取得するように構成されている。
【0142】
第5推論モデル1055(第5ニューラルネットワーク1056)を構築するための機械学習の手法は、
図7の細胞評価情報生成処理部1033の第3ニューラルネットワーク1039を構築するための機械学習の手法と同様であってよい。また、第5推論モデル1055(第5ニューラルネットワーク1056)を構築するための機械学習に用いられる訓練データは、第3ニューラルネットワーク1039を構築するための機械学習に用いられる訓練データと同様であってよい。
【0143】
第5ニューラルネットワーク1056を含む第5推論モデル1055は、第2セグメンテーション部1051による細胞領域の特定結果又はそれに基づくデータを入力とし、且つ、入力された細胞領域の特定結果又はそれに基づくデータに基づく細胞評価情報を出力とした学習済みモデルである。
【0144】
本例の細胞評価情報生成処理部1052Aは、このような第5推論モデル1055(第5ニューラルネットワーク1056)を用いることによって、被検眼のシャインプルーフ画像中の細胞領域から細胞評価情報を生成する処理を実行する。
【0145】
図12に示すデータ処理部1060は、
図1のデータ処理部1020の構成の例である。本例のデータ処理部1060は、細胞評価情報生成処理部1061を含んでいる。
【0146】
細胞評価情報生成処理部1061は、細胞評価情報を生成するための細胞評価情報生成処理を実行するプロセッサを含み、画像取得部1010により取得されたシャインプルーフ画像から細胞評価情報を生成する。
【0147】
機械学習を用いて本例の細胞評価情報生成処理を実行する場合における細胞評価情報生成処理部1061の構成例を
図13に示す。本例の細胞評価情報生成処理部1061Aは、予め構築された推論モデル1062(第6推論モデルと呼ぶ)を用いて細胞評価情報生成処理を実行するように構成されている。第6推論モデル1062は、眼画像(例えば、眼のシャインプルーフ画像、他のモダリティで取得した眼の画像、又は、眼のシャインプルーフ画像及び他のモダリティで取得された眼の画像)を少なくとも含む訓練データを用いた機械学習により構築されたニューラルネットワーク1063(第6ニューラルネットワークと呼ぶ)を含んでいる。
【0148】
幾つかの例示的な態様において、第6ニューラルネットワーク1063は、
図4の第1ニューラルネットワーク1035の少なくとも一部と
図6の第2ニューラルネットワーク1037の少なくとも一部と
図7の第3ニューラルネットワーク1039の少なくとも一部とを含んでいてもよい。例えば、第6ニューラルネットワーク1063は、第1ニューラルネットワーク1035と第2ニューラルネットワーク1037と第3ニューラルネットワーク1039とを直列に配置したニューラルネットワークであってよい。このような構成の第6ニューラルネットワーク1063は、シャインプルーフ画像から前房領域を特定する機能と、前房領域から細胞領域を特定する機能と、細胞領域から細胞評価情報を生成する機能とを有する。
【0149】
幾つかの例示的な態様において、第6ニューラルネットワーク1063は、前房領域の特定及び/又は細胞領域の特定を行うことなく、シャインプルーフ画像から細胞評価情報を直接に生成するように機械学習が施されていてもよい。第6ニューラルネットワーク1063の態様はこれらに限定されるものではなく、シャインプルーフ画像から細胞評価情報を特定するための任意の機械学習が適用されたニューラルネットワークを含んでいてよい。
【0150】
第6ニューラルネットワーク1063に入力されるデータは画像取得部1010からの出力又はそれに基づくデータであり、第6ニューラルネットワーク1063から出力されるデータは細胞評価情報である。すなわち、細胞評価情報生成処理部1061Aは、画像取得部1010により取得されたシャインプルーフ画像(及び/又は、このシャインプルーフ画像に基づくデータ)を受け、このシャインプルーフ画像又はそれに基づくデータを第6推論モデル1062の第6ニューラルネットワーク1063に入力し、第6ニューラルネットワーク1063からの出力データ(細胞評価情報)を取得するように構成されている。
【0151】
第6推論モデル1062(第6ニューラルネットワーク1063)を構築するための機械学習の手法は、
図7の細胞評価情報生成処理部1033の第3ニューラルネットワーク1039を構築するための機械学習の手法と同様であってよい。また、第6推論モデル1062(第6ニューラルネットワーク1063)を構築するための機械学習に用いられる訓練データは、第3ニューラルネットワーク1039を構築するための機械学習に用いられる訓練データと同様であってよい。
【0152】
第6ニューラルネットワーク1063を含む第6推論モデル1062は、画像取得部1010により取得されたシャインプルーフ画像(及び/又は、このシャインプルーフ画像に基づくデータ)を入力とし、且つ、入力されたシャインプルーフ画像(及び/又は、このシャインプルーフ画像に基づくデータ)に基づく細胞評価情報を出力とした学習済みモデルである。
【0153】
本例の細胞評価情報生成処理部1061Aは、このような第6推論モデル1062(第6ニューラルネットワーク1063)を用いることによって、被検眼のシャインプルーフ画像(及び/又は、このシャインプルーフ画像に基づくデータ)から細胞評価情報を生成する処理を実行する。
【0154】
図14に示すデータ処理部1070は、
図1のデータ処理部1020の構成の例である。本例のデータ処理部1070は、第1セグメンテーション部1071と細胞評価情報生成処理部1072とを含んでいる。
【0155】
第1セグメンテーション部1071は、前房領域を特定するための第1セグメンテーションを実行するプロセッサを含み、画像取得部1010により取得されたシャインプルーフ画像から前房領域を特定するように構成されている。
【0156】
機械学習を用いて本例の第1セグメンテーションを実行する場合における第1セグメンテーション部1071の構成例を
図15に示す。本例の第1セグメンテーション部1071Aは、予め構築された推論モデル1073(第7推論モデルと呼ぶ)を用いて第1セグメンテーションを実行するように構成されている。第7推論モデル1073は、眼画像(例えば、眼のシャインプルーフ画像、他のモダリティで取得した眼の画像、又は、眼のシャインプルーフ画像及び他のモダリティで取得された眼の画像)を少なくとも含む訓練データを用いた機械学習により構築されたニューラルネットワーク1074(第7ニューラルネットワークと呼ぶ)を含んでいる。
【0157】
第7推論モデル1073(第7ニューラルネットワーク1074)を構築するための機械学習の手法は、
図4の第1セグメンテーション部1031Aの第1ニューラルネットワーク1035を構築するための機械学習の手法と同様であってよい。また、第7推論モデル1073(第7ニューラルネットワーク1074)を構築するための機械学習に用いられる訓練データは、第1ニューラルネットワーク1035を構築するための機械学習に用いられる訓練データと同様であってよい。幾つかの例示的な態様において、第7ニューラルネットワーク1074は第1ニューラルネットワーク1035と同一又は類似であってよく、第7推論モデル1073は第1推論モデル1034と同一又は類似であってよい。
【0158】
第7ニューラルネットワーク1074を含む第7推論モデル1073は、画像取得部1010により取得されたシャインプルーフ画像(又は、その加工画像データなど)を入力とし、且つ、入力されたシャインプルーフ画像中の前房領域(例えば、前房領域の範囲又は位置を示す情報)を出力とした学習済みモデルである。
【0159】
本例の第1セグメンテーション部1071Aは、このような第7推論モデル1073(第7ニューラルネットワーク1074)を用いることによって、被検眼のシャインプルーフ画像中から前房領域を特定する処理を実行する。
【0160】
細胞評価情報生成処理部1072は、細胞評価情報を生成するための細胞評価情報生成処理を実行するプロセッサを含み、第1セグメンテーション部1071により特定された前房領域から細胞評価情報を生成する。
【0161】
機械学習を用いて本例の細胞評価情報生成処理を実行する場合における細胞評価情報生成処理部1072の構成例を
図16に示す。本例の細胞評価情報生成処理部1072Aは、予め構築された推論モデル1075(第8推論モデルと呼ぶ)を用いて細胞評価情報生成処理を実行するように構成されている。第8推論モデル1075は、眼画像(例えば、眼のシャインプルーフ画像、他のモダリティで取得した眼の画像、又は、眼のシャインプルーフ画像及び他のモダリティで取得された眼の画像)を少なくとも含む訓練データを用いた機械学習により構築されたニューラルネットワーク1076(第8ニューラルネットワークと呼ぶ)を含んでいる。
【0162】
幾つかの例示的な態様において、第8ニューラルネットワーク1076は、
図6の第2ニューラルネットワーク1037の少なくとも一部と
図7の第3ニューラルネットワーク1039の少なくとも一部とを含んでいてもよい。例えば、第8ニューラルネットワーク1076は、第2ニューラルネットワーク1037と第3ニューラルネットワーク1039とを直列に配置したニューラルネットワークであってよい。このような構成の第8ニューラルネットワーク1076は、前房領域から細胞領域を特定する機能と、細胞領域から細胞評価情報を生成する機能とを有する。
【0163】
幾つかの例示的な態様において、第8ニューラルネットワーク1076は、細胞領域の特定を行うことなく、前房領域から細胞評価情報を直接に生成するように機械学習が施されていてもよい。第8ニューラルネットワーク1076の態様はこれらに限定されるものではなく、前房領域から細胞評価情報を特定するための任意の機械学習が適用されたニューラルネットワークを含んでいてよい。
【0164】
第8ニューラルネットワーク1076に入力されるデータは第1セグメンテーション部1071からの出力又はそれに基づくデータであり、第8ニューラルネットワーク1076から出力されるデータは細胞評価情報である。すなわち、細胞評価情報生成処理部1072Aは、第1セグメンテーション部1071によりシャインプルーフ画像から特定された前房領域(及び/又は、この前房領域に基づくデータ)を受け、この前房領域又はそれに基づくデータを第8推論モデル1075の第8ニューラルネットワーク1076に入力し、第8ニューラルネットワーク1076からの出力データ(細胞評価情報)を取得するように構成されている。
【0165】
第8推論モデル1075(第8ニューラルネットワーク1076)を構築するための機械学習の手法は、
図7の細胞評価情報生成処理部1033の第3ニューラルネットワーク1039を構築するための機械学習の手法と同様であってよい。また、第8推論モデル1075(第8ニューラルネットワーク1076)を構築するための機械学習に用いられる訓練データは、第3ニューラルネットワーク1039を構築するための機械学習に用いられる訓練データと同様であってよい。
【0166】
第8ニューラルネットワーク1076を含む第8推論モデル1075は、第1セグメンテーション部1071により特定された前房領域(及び/又は、この前房領域に基づくデータ)を入力とし、且つ、入力された前房領域(及び/又は、この前房領域に基づくデータ)に基づく細胞評価情報を出力とした学習済みモデルである。
【0167】
本例の細胞評価情報生成処理部1072Aは、このような第8推論モデル1075(第8ニューラルネットワーク1076)を用いることによって、被検眼のシャインプルーフ画像中の前房領域(及び/又は、この前房領域に基づくデータ)から細胞評価情報を生成する処理を実行する。
【0168】
図17に示すデータ処理部1080は、
図1のデータ処理部1020の構成の例である。本例のデータ処理部1080は、第1セグメンテーション部1081、変換処理部1082、及び細胞評価情報生成処理部1083を含んでいる。
【0169】
第1セグメンテーション部1081は、
図3の第1セグメンテーション部1031(例えば、
図4の第1セグメンテーション部1031A)と同様の構成及び機能を有し、画像取得部1010により取得されたシャインプルーフ画像から前房領域を特定するための第1セグメンテーションを実行するように構成されている。
【0170】
変換処理部1082は、第1セグメンテーション部1081により特定された前房領域を、細胞評価情報生成処理部1083が実行する細胞評価情報生成処理に応じた構造のデータに変換する。本例の細胞評価情報生成処理部1083は、
図16の細胞評価情報生成処理部1072Aのように、機械学習で構築されたニューラルネットワーク(第8ニューラルネットワーク)を用いて細胞評価情報生成処理を実行するように構成されている。変換処理部1082は、第1セグメンテーション部1081によりシャインプルーフ画像から特定された前房領域を、細胞評価情報生成処理部1083の第8ニューラルネットワークの入力層に対応した構造の画像データに変換するための変換処理を実行するように構成されている。
【0171】
例えば、細胞評価情報生成処理部1083の第8ニューラルネットワーク(畳み込みニューラルネットワーク)の入力層が既定の構造(形態、形式)のデータを受け付けるように構成されている場合がある。この既定のデータ構造は、例えば、既定の画像サイズ(例えば、縦方向のピクセル数及び横方向のピクセル数)、既定の画像形状(例えば、正方形又は長方形)などであってよい。一方、眼科装置の仕様、撮影時の条件や設定、被検眼の寸法や形態の個人差などの影響により、第1セグメンテーション部1081によって特定される前房領域の画像サイズや画像形状は様々である。変換処理部1082は、第1セグメンテーション部1081により特定された前房領域の構造(例えば、画像サイズ及び/又は画像形状)を、細胞評価情報生成処理部1083の第8ニューラルネットワークの入力層が受け付け可能な構造に変換する。
【0172】
画像サイズの変換は、任意の公知の画像サイズ変換技術を用いて実行されてよく、例えば、第1セグメンテーション部1081により特定された前房領域を入力層に応じた画像サイズの複数の部分画像に分割する処理、又は、第1セグメンテーション部1081により特定された前房領域を入力層に応じた画像サイズの単一の画像にリサイズする処理を含んでいてよい。画像形状の変換は、任意の公知の画像変形技術を用いて実行されてよい。他のデータ構造の変換処理についても同様であってよい。
【0173】
細胞評価情報生成処理部1083は、
図14の細胞評価情報生成処理部1072(例えば、
図16の細胞評価情報生成処理部1072A)と同様の構成及び機能を有し、第1セグメンテーション部1081により特定された前房領域を変換処理部1082により加工することによって得られたデータから細胞評価情報を生成するための細胞評価情報生成処理を実行するように構成されている。
【0174】
このように、本例のデータ処理部1080は、
図14のデータ処理部1070の第1セグメンテーション部1071と細胞評価情報生成処理部1072との間に変換処理部1082を配置した構成であってよい。しかしながら、本例のデータ処理部1080の構成はこれに限定されない。
【0175】
ここまでは、主に、機械学習を用いて構築された推論モデル(ニューラルネットワーク)を含むデータ処理部1020の幾つかの例について説明した。しかし、データ処理部1020は、このような機械学習ベースの構成に限定されない。本開示に係るデータ処理部1020は、機械学習ベースの構成のみによって実施されてもよいし、機械学習ベースの構成と非機械学習ベースの構成との組み合わせによって実施されてもよいし、非機械学習ベースの構成のみによって実施されてもよい。
【0176】
以下、非機械学習ベースの構成のみによるデータ処理部1020の幾つかの例について説明する。機械学習ベースの構成と非機械学習ベースの構成との組み合わせによるデータ処理部1020の態様については、当業者であれば、前述した機械学習ベースの構成の幾つかの例と、後述する非機械学習ベースの構成のみによるデータ処理部1020の幾つかの例とに基づいて理解することができるであろう。
【0177】
図18に示すデータ処理部1090は、
図1のデータ処理部1020の構成の例であり、非機械学習ベースの構成を備えている。本例のデータ処理部1090は、第1解析処理部1091と、第2解析処理部1092と、第3解析処理部1093とを含んでいる。
【0178】
第1解析処理部1091は、前房領域を特定するための第1セグメンテーションを実行するプロセッサを含み、画像取得部1010により取得されたシャインプルーフ画像(及び/又は、その加工画像データ)に所定の解析処理(第1解析処理と呼ぶ)を適用して、このシャインプルーフ画像中の前房領域を特定するように構成されている。
【0179】
第1解析処理は、シャインプルーフ画像中の前房領域を特定するための任意の公知のセグメンテーションを含んでいてよい。例えば、前房領域を特定するためのセグメンテーションは、角膜(特に、角膜後面)に相当する画像領域を特定するためのセグメンテーションと、水晶体(特に、水晶体前面)に相当する画像領域を特定するためのセグメンテーションとを含んでいる。角膜に相当する画像領域を角膜領域と呼び、角膜後面に相当する画像領域を角膜後面領域と呼び、水晶体に相当する画像領域を水晶体領域と呼び、水晶体前面に相当する画像領域を水晶体前面領域と呼ぶ。
【0180】
角膜後面領域のセグメンテーションは、任意の公知のセグメンテーションを含んでいてよい。角膜後面領域のセグメンテーションでは、シャインプルーフ画像中のアーティファクトや、ピクセル値のサチュレーションなどが問題となる。これらの問題を解消するために、例えば、
図2Cに示す構成を採用することができる。すなわち、第1撮影系1014及び第2撮影系1015を用いた撮影方法と、画像選択部1021を用いたシャインプルーフ画像の選択方法とを組み合わせることによって、アーティファクトもサチュレーションも無いシャインプルーフ画像を選択し、このシャインプルーフ画像から角膜後面領域を特定することができる。
【0181】
水晶体前面領域のセグメンテーションは、任意の公知のセグメンテーションを含んでいてよい。水晶体前面領域のセグメンテーションでは、被検眼の瞳孔の状態(例えば、散瞳状態、無散瞳状態、小瞳孔眼など)によってシャインプルーフ画像の表現状態(シャインプルーフ画像の見え方)が変化することなどが問題となる。例えば、被検眼が無散瞳状態又は小瞳孔眼である場合、被検眼が散瞳状態である場合と比較して、画像化される水晶体の範囲が小さくなってしまう。このような問題を解消するために、例えば、シャインプルーフ画像に描出されている水晶体前面領域に基づいて画像化されていない水晶体前面の部分(瞳孔に覆われている部分)の位置や形状を推測する処理など、シャインプルーフ画像の表現状態を均一化するための処理を適用することができる。シャインプルーフ画像の表現状態を均一化するための処理は、機械学習ベースで実行されてもよいし、非機械学習ベースで実行されてもよい。また、水晶体前面の位置や形状を推測する処理は、例えば、任意の公知の外挿処理を含んでいてよい。
【0182】
画像取得部1010がスリットスキャンによって一連のシャインプルーフ画像を収集する場合、問題の有る画像と問題の無い画像とが混在していたり、画像間において問題の程度にばらつきがあったりすることがある。例えば、アーティファクトやサチュレーションが有る画像と無い画像とが混在していたり、様々な異なる状態のアーティファクト(位置、寸法、形状など)が幾つかの画像に混入していたりすることがある。これらの現象は、データ処理部1090が実行する処理の品質(例えば、安定性、ロバスト性、再現性、正確度、精度など)に悪影響を与えるおそれがある。幾つかの例示的な態様では、これらの現象を発生させないための対策を講じたり、これらの現象に起因する悪影響を小さくするための対策を講じたりすることができる。前者の対策の例として、第1撮影系1014及び第2撮影系1015を用いた撮影方法と、画像選択部1021を用いたシャインプルーフ画像の選択方法とを組み合わせることがある。後者の対策の例として、画像の補正・ノイズ除去・ノイズ低減、画像パラメータの調整などがある。
【0183】
第2解析処理部1092は、細胞領域を特定するための第2セグメンテーションを実行するプロセッサを含み、第1解析処理部1091によりシャインプルーフ画像から特定された前房領域に第2解析処理を適用して細胞領域を特定するように構成されている。
【0184】
幾つかの例示的な態様において、第2解析処理部1092は、前房領域内の各ピクセルの値(例えば、輝度値、R値、G値、及びB値のうちの少なくとも1つ)に基づいて、細胞領域を特定するように構成されていてよい。幾つかの例示的な態様において、第2解析処理部1092は、細胞領域を特定するためのセグメンテーションを前房領域に適用するように構成されていてよい。このセグメンテーションは、例えば、炎症性細胞(細胞領域)の標準的な形態(例えば、寸法、形状など)に基づき作成されたプログラムにしたがって実行される。幾つかの例示的な態様において、第2解析処理部1092は、これら2つの手法の少なくとも部分的な組み合わせによって細胞領域を特定するように構成されていてよい。
【0185】
画像取得部1010がスリットスキャンによって一連のシャインプルーフ画像を収集する場合に講じうる対策については、第1解析処理部1091の場合と同様であってよい。また、一般的に細胞領域は微小な画像領域であることを考慮し、細胞領域と微小なアーティファクトとを識別するための対策を講じてもよい。例えば、アーティファクト(ゴーストなど)を除去するための処理を実行することで、細胞領域の検出においてアーティファクトが誤検出されることを防止することができる。
【0186】
第3解析処理部1093は、細胞評価情報を生成するための細胞評価情報生成処理を実行するプロセッサを含み、第2解析処理部1092によりシャインプルーフ画像の前房領域から特定された細胞領域に第3解析処理を適用して細胞評価情報を生成するように構成されている。
【0187】
前述したように、細胞評価情報は炎症性細胞に関する任意の評価情報であってよく、例えば、炎症性細胞の状態(例えば、密度、個数、位置、分布などの任意のパラメータ)を表す情報を含んでいてもよいし、炎症性細胞の状態に関する所定のパラメータの情報に基づき生成された評価情報を含んでいてもよい。
【0188】
幾つかの例示的な態様において、第3解析処理部1093は、第2解析処理部1092により特定された1つ以上の細胞領域について、密度、個数、位置、分布などを求めることができる。
【0189】
炎症性細胞の密度を求める処理は、例えば、所定寸法の画像領域(例えば、1ミリメートル四方の画像領域)を設定する処理と、設定された画像領域において第2解析処理部1092により検出された細胞領域の個数をカウントする処理とを含んでいる。ここで、画像領域の寸法(例えば「1ミリメートル」のように、実空間における寸法)は、例えば、眼科装置1000の光学系の仕様(例えば、光学系の設計データ及び/又は光学系の実測データ)に基づいて定義され、典型的にはピクセルと実空間における寸法との対応関係(例えば、ドットピッチ)として定義される。細胞評価情報は、このようにして求められた炎症性細胞の密度の情報を含んでいてもよいし、この密度の情報から得られる評価情報を含んでいてもよい。この評価情報は、例えば、SUN Working Groupにより提案されたぶどう膜炎疾患の分類基準を用いた評価結果を含んでいてよい。この分類基準は、1視野(1ミリメートル四方の大きさの視野)に存在する炎症性細胞の個数(すなわち、炎症性細胞の密度(濃度))に応じたグレードを定義したものであり、グレード「0」は細胞数1個未満、グレード「0.5+」は細胞数1~5個、グレード「1+」は細胞数6~15個、グレード「2+」は細胞数16~25個、グレード「3+」は細胞数26~50個、グレード「4+」は細胞数50個以上として定義されている。なお、この分類基準のグレード区分をより細かくしてもよいし、より粗くしてもよい。また、他の分類基準に基づいて細胞評価情報を生成してもよい。
【0190】
幾つかの例示的な態様において、データ処理部1090(第3解析処理部1093)は、第1解析処理部1091によりシャインプルーフ画像から特定された前房領域の部分領域(例えば、1ミリメートル四方の画像領域)を特定する処理と、この部分領域に属する細胞領域の個数を求める処理と、この個数と部分領域の寸法とに基づいて炎症性細胞の密度を算出する処理とを実行するように構成されていてよい。ここで、データ処理部1090は、第2解析処理部1092により前房領域全体から検出された細胞領域のうち当該部分領域内に位置している細胞領域を選択し、選択された細胞領域に基づいて第3解析処理部1093により密度を求めるように構成されていてもよい。或いは、データ処理部1090は、第2解析処理部1092により当該部分領域を解析して細胞領域を特定し、当該部分領域から特定された細胞領域に基づいて第3解析処理部1093により密度を求めるように構成されていてもよい。
【0191】
炎症性細胞の個数を求める処理は、例えば、第2解析処理部1092により検出された細胞領域の個数をカウントする処理を含んでいる。細胞評価情報は、このようにして求められた炎症性細胞の個数の情報を含んでいてもよいし、この個数の情報から得られる評価情報を含んでいてもよい。例えば、細胞評価情報は、前房領域全体から検出された細胞領域の個数を前房領域の寸法(例えば、面積、体積など)で除算することによって、前房領域全体における炎症性細胞の平均密度を求めることができる。また、細胞評価情報は、前房領域全体から検出された細胞領域の個数に基づく評価結果(例えば、グレード)を含んでいてもよいし、前房領域の部分領域における細胞領域の個数及び/又はそれに基づく評価結果を含んでいてもよい。
【0192】
炎症性細胞の位置を求める処理は、例えば、第2解析処理部1092により検出された細胞領域の位置を特定する処理を含んでいてよい。細胞領域の位置は、例えば、シャインプルーフ画像の定義座標系の座標として表現されてもよいし、又は、シャインプルーフ画像に描出されている所定の画像領域(基準領域)に対する相対位置(例えば、距離、方向など)として表現されてもよい。この基準領域は、例えば、角膜領域、角膜後面領域、水晶体領域、水晶体前面領域、眼の軸に相当する画像領域(例えば、角膜の頂点位置と水晶体前面の頂点位置とを結ぶ直線)などであってよい。細胞評価情報は、このようにして求められた炎症性細胞の位置の情報を含んでいてもよいし、この位置の情報から得られる評価情報を含んでいてもよい。例えば、細胞評価情報は、炎症性細胞の分布(複数の細胞領域の分布)を表す情報を含んでいてもよいし、1つ以上の炎症性細胞の位置に基づく評価結果(例えば、グレード)を含んでいてもよいし、複数の炎症性細胞の位置(分布)に基づく評価結果(例えば、グレード)を含んでいてもよい。
【0193】
眼科装置1000の動作について説明する。なお、以下に説明する動作は例示に過ぎない。例えば、本開示に係る任意の事項、本開示において引用された文献に係る任意の事項、本開示に係る実施形態が属する技術分野に係る任意の事項、本開示に係る実施形態に関連する技術分野に係る任意の事項などを、下記の動作例に組み合わせることができる。
【0194】
眼科装置1000の第1の動作例を
図19に示す。眼科装置1000による撮影の前に実行される各種の動作(準備的動作)は済んでいるものとする。準備的動作としては、眼科装置1000が設置されたテーブルの調整、被検者が使用している椅子の調整、眼科装置1000の顔受け(顎受け、額当てなど)の調整、被検眼に対する眼科装置1000の位置合わせ(アライメント)、スリット光の調整(例えば、光量調整、幅調整、長さ調整、向き調整)などがある。
【0195】
撮影開始の指示を受けて、眼科装置1000は、画像取得部1010によって、被検眼のシャインプルーフ画像を取得する(S1)。
【0196】
更に、眼科装置1000は、データ処理部1020によって、ステップS1で取得されたシャインプルーフ画像に基づいて、被検眼の炎症状態を示す炎症状態情報を生成する(S2)。
【0197】
本動作例のステップS1で取得されるシャインプルーフ画像の枚数は予め設定されていてよく、1枚であってもよいし、2枚以上(例えば、スリットスキャンで収集される一連のシャインプルーフ画像)であってもよい。ステップS2においては、ステップS1で取得されたシャインプルーフ画像の枚数に応じて、前述した様々なデータ処理のうちのいずれかが実行される。このデータ処理は、機械学習ベースの処理でもよいし、非機械学習ベースの処理でもよいし、機械学習ベースの処理と非機械学習ベースの処理との組み合わせでもよい。
【0198】
眼科装置1000が2つ以上の撮影系を含んでいる場合、これら撮影系により取得された複数のシャインプルーフ画像を処理することができる。例えば、
図2Cに示すように眼科装置1000が第1撮影系1014及び第2撮影系1015を含んでいる場合、第1撮影系1014及び第2撮影系1015により取得された2つ以上のシャインプルーフ画像をデータ処理部1020A(画像選択部1021、炎症状態情報生成部1022)によって処理することができる。データ処理部1020Aにより実行されるデータ処理は、機械学習ベースの処理でもよいし、非機械学習ベースの処理でもよいし、機械学習ベースの処理と非機械学習ベースの処理との組み合わせでもよい。
【0199】
眼科装置1000は、ステップS1で取得されたシャインプルーフ画像及び/又はステップS2で生成された炎症状態情報を表示装置に表示させることができる。表示装置は、眼科装置1000の要素であってもよいし、眼科装置1000に接続された外部機器であってもよい。
【0200】
以下、眼科装置1000により実行可能な情報表示の幾つかの例について説明する。情報表示の態様はこれらの例に限定されない。これらの例のうちの少なくとも2つを少なくとも部分的に組み合わせることが可能である。
【0201】
情報表示の第1の例において、眼科装置1000は、ステップS1で取得されたシャインプルーフ画像及び/又はステップS2で生成された炎症状態情報をそのまま表示装置に表示させる。眼科装置1000は、シャインプルーフ画像及び/又は炎症状態情報とともに他の情報(付加情報と呼ぶ)を表示させてもよい。付加情報は、シャインプルーフ画像及び/又は炎症状態情報とともに被検眼の診療のために役立つ任意の情報であってよい。
【0202】
情報表示の第2の例において、眼科装置1000は、従来のスリットランプ顕微鏡により取得された眼の画像(スリットランプ画像と呼ぶ)を摸擬した画像をシャインプルーフ画像から生成し、生成された摸擬画像を表示装置に表示させる。これにより、被検眼の炎症状態の観察に従来から使用されてきており多くの医師が見慣れているスリットランプ画像を模した画像を提供することが可能になる。
【0203】
スリットランプ画像から摸擬画像を生成する処理は、機械学習ベースの処理及び/又は非機械学習ベースの処理によって形成される。
【0204】
機械学習ベースの処理は、例えば、シャインプルーフ画像とスリットランプ画像との複数のペアを含む訓練データを用いた機械学習によって構築されたニューラルネットワークを用いて実行される。このニューラルネットワークは、畳み込みニューラルネットワークを含む。この畳み込みニューラルネットワークは、シャインプルーフ画像の入力を受け、摸擬画像を出力するように構成されている。
【0205】
非機械学習ベースの処理は、例えば、摸擬的なボケを生成する処理や色変換や画質変換など、画像の見え方を変換する処理を含んでいてよい。非機械学習ベースの処理の例示的な態様は、スリットスキャンで収集された一連のシャインプルーフ画像から3次元画像(例えば、8ビットのグレースケールボリューム)を構築する処理と、ピクセル値レンジの最大値(ピクセル値の階調)を低下させる処理(例えば、256階調を10階調に低下させる処理)と、階調が変換された3次元画像の関心領域(例えば、所定寸法の直方体領域)を設定する処理と、設定された関心領域の正面画像(enface画像)を構築する処理(例えば、最大値投影処理(MIP))とを含んでいる。
【0206】
摸擬画像は、広範囲にピントが合ったシャインプルーフ画像と同じ領域を表す画像であってもよいし、シャインプルーフ画像が表す領域の部分領域(例えば、SUN Working Groupにより提案されたぶどう膜炎疾患の分類基準における評価範囲である1視野、つまり1ミリメートル四方の大きさの視野)であってもよい。
【0207】
眼科装置1000は、例えば、摸擬画像中の注目部分を強調表示させることができる。この注目部分の例として、炎症性細胞に相当する画像領域、前房フレアに相当する画像領域、水晶体の混濁に相当する画像領域などがある。
【0208】
情報表示の第3の例において、眼科装置1000は、被検眼の炎症状態を表すマップ(炎症状態マップと呼ぶ)を作成して表示装置に表示させる。
【0209】
炎症状態マップの例として、前房内における炎症性細胞の位置(分布)を表す炎症性細胞マップや、前房内における炎症性細胞の密度(又は、個数)の分布を表す炎症性細胞密度マップ(炎症性細胞個数マップ)などがある。これらの炎症性細胞に関するマップを作成する処理は、例えば、スリットスキャンで収集された一連のシャインプルーフ画像のそれぞれから炎症性細胞に相当する画像領域(細胞領域)を特定する処理(第2セグメンテーション)と、特定された各細胞領域の位置(例えば、シャインプルーフ画像の定義座標系における2次元座標、又は、一連のシャインプルーフに基づく3次元画像の定義座標系における3次元座標)を求める処理と、求められた各細胞領域の位置に基づきマップを作成する処理とを含んでいる。
【0210】
眼科装置1000は、シャインプルーフ画像及び/又は炎症状態情報とともに炎症状態マップを表示させることができる。例えば、眼科装置1000は、スリットスキャンで収集された一連のシャインプルーフ画像に基づく正面画像と、同じ一連のシャインプルーフ画像に基づき生成された炎症状態マップとを表示させることができる。その具体例として、正面画像に炎症状態マップを重ねて表示させることや、正面画像と炎症状態マップとを並べて表示させることができる。
【0211】
眼科装置1000の第2の動作例を
図20に示す。本動作例は、細胞評価情報を取得するために実行される。特に言及しない限り、
図19の動作例に関して説明された任意の事項を本動作例に組み合わせることが可能である。
【0212】
まず、眼科装置1000は、画像取得部1010によって、被検眼のシャインプルーフ画像を取得する(S11)。
【0213】
次に、眼科装置1000は、データ処理部1020によって、前述した第1セグメンテーション、第2セグメンテーション、及び細胞評価情報生成処理のうちの少なくとも1つの処理を、ステップS11で取得されたシャインプルーフ画像に適用する(S12)。
【0214】
眼科装置1000が第1セグメンテーションと第2セグメンテーションと細胞評価情報生成処理とをシャインプルーフ画像に適用する場合、例えば、眼科装置1000のデータ処理部1020として
図3のデータ処理部1030又は
図8のデータ処理部1040が採用される。更に、本例のデータ処理部1020は、
図4の第1セグメンテーション部1031A、
図6の第2セグメンテーション部1032A、及び
図7の細胞評価情報生成処理部1033Aのうちの少なくとも1つを含んでいてよい。
【0215】
眼科装置1000が第1セグメンテーションと第2セグメンテーションと細胞評価情報生成処理とをシャインプルーフ画像に適用する場合の他の例では、眼科装置1000のデータ処理部1020として
図18のデータ処理部1090が採用される。
【0216】
眼科装置1000が第2セグメンテーションと細胞評価情報生成処理とをシャインプルーフ画像に適用する場合(換言すると、第1セグメンテーションを実行しない場合)、例えば、眼科装置1000のデータ処理部1020として
図9のデータ処理部1050が採用される。更に、本例のデータ処理部1020は、
図10の第2セグメンテーション部1051A、及び/又は、
図11の細胞評価情報生成処理部1052Aを含んでいてよい。
【0217】
眼科装置1000が細胞評価情報生成処理をシャインプルーフ画像に適用する場合(換言すると、第1セグメンテーション及び第2セグメンテーションを実行しない場合)、例えば、眼科装置1000のデータ処理部1020として
図12のデータ処理部1060が採用される。更に、本例のデータ処理部1020は、
図13の細胞評価情報生成処理部1061Aを含んでいてよい。
【0218】
眼科装置1000が第1セグメンテーションと細胞評価情報生成処理とをシャインプルーフ画像に適用する場合(換言すると、第2セグメンテーションを実行しない場合)、例えば、眼科装置1000のデータ処理部1020として
図14のデータ処理部1070又は
図17のデータ処理部1080が採用される。更に、本例のデータ処理部1020は、
図15の第1セグメンテーション部1071A、及び/又は、
図16の細胞評価情報生成処理部1072Aを含んでいてよい。
【0219】
ステップS12を実行するために採用可能な構成はこれらに限定されない。例えば、幾つかの例示的な態様に係る眼科装置1000のデータ処理部1020は、第1セグメンテーション、第2セグメンテーション、及び細胞評価情報生成処理のうち、第1セグメンテーションのみを実行可能に構成されてもよいし、第2セグメンテーションのみを実行可能に構成されてもよいし、第1セグメンテーションと第2セグメンテーションのみを実行可能に構成されてもよい。
【0220】
次に、眼科装置1000は、データ処理部1020によって、細胞評価情報を生成する(S13)。なお、ステップS12で細胞評価情報生成処理が実行された場合であって、本検査で取得されるべき全ての細胞評価情報がステップS12で取得された場合には、ステップS13を実行する必要はない(換言すると、ステップS13はステップS12に含まれる)。
【0221】
ステップS12及び/又はステップS13は、ユーザーによる操作を部分的に含んでいてもよい。例えば、ユーザーによる操作の例として、シャインプルーフ画像中の前房領域を指定するための操作、シャインプルーフ画像中の細胞領域を指定するための操作、前房領域中の細胞領域を指定するための操作、前房領域から細胞評価情報を作成するための操作、細胞領域から細胞評価情報を作成するための操作、第1セグメンテーションで特定された前房領域を編集(補正)するための操作、第2セグメンテーションで特定された細胞領域を編集(補正)するための操作、細胞評価情報生成処理で生成された細胞評価情報を編集(補正)するための操作、細胞評価情報生成処理で生成された細胞評価情報から他の細胞評価情報を作成するための操作などがある。
【0222】
これらの操作は、ユーザーインターフェイスを用いて行われる。ユーザーインターフェイスは、表示デバイスや操作デバイスを含む。眼科装置1000は、ユーザーインターフェイスの少なくとも一部を含んでいてもよい。
【0223】
次に、眼科装置1000は、ステップS11で取得されたシャインプルーフ画像、ステップS12で取得された情報(例えば、シャインプルーフ画像に基づく情報、前房領域、前房領域に基づく情報、細胞領域、細胞領域に関する情報、細胞評価情報)、ステップS13で生成された細胞評価情報などを、表示装置に表示させる(S14)。
【0224】
眼科装置1000の第3の動作例を
図21に示す。本動作例は、細胞評価情報を取得するために実行される。特に言及しない限り、
図19の動作例に関して説明された任意の事項及び/又は
図20の動作例に関して説明された任意の事項を本動作例に組み合わせることが可能である。
【0225】
本例に係る眼科装置1000のデータ処理部1020は、畳み込みニューラルネットワークを含む第2セグメンテーション部(例えば、第2セグメンテーション部1032A又は第2セグメンテーション部1051A)と、この畳み込みニューラルネットワークに合わせたデータ構造変換を行う要素(例えば、変換処理部1042又は変換処理部1082)とを含んでいる。
【0226】
まず、眼科装置1000は、画像取得部1010によって、被検眼のシャインプルーフ画像を取得する(S21)。
【0227】
次に、眼科装置1000は、データ処理部1020によって、シャインプルーフ画像から前房領域を特定するための第1セグメンテーション(前房セグメンテーション)を、ステップS21で取得されたシャインプルーフ画像に適用する(S22)。本ステップの前房セグメンテーションの手法は任意であってよく、データ処理部1020によるデータ処理及びユーザーによる操作の一方又は双方を含んでいてよい。ここで、データ処理部1020による前房セグメンテーションは、前述した様々な手法のうちのいずれかの手法であってよい。
【0228】
次に、データ処理部1020は、ステップS22の前房セグメンテーションで特定された前房領域内のゴーストを除去する(S23)。これにより、後述するステップS25の細胞セグメンテーションにおいてゴーストが細胞領域として誤検出されてしまう不都合を防止することができる。
【0229】
次に、データ処理部1020は、ステップS23でゴーストが除去された前房領域を、次のステップS25に用いられる畳み込みニューラルネットワークの入力層に対応した構造の画像データに変換する(S24)。
【0230】
なお、幾つかの例示的な態様において、前房領域からのゴースト除去(本例のステップS23)と、前房領域のデータ構造変換(本例のステップS24)との順序が逆であってもよい。
【0231】
次に、データ処理部1020は、ステップS24で取得された画像データ(前房領域の変換データ)を、細胞セグメンテーションを実行するように構成された第2セグメンテーション部の畳み込みニューラルネットワークに入力する(S25)。これにより、ステップS22で取得された前房領域内の細胞領域が特定される。
【0232】
次に、データ処理部1020は、ステップS25で実行された細胞領域特定の結果に基づいて、被検眼の前房内における炎症性細胞の密度を評価する(S26)。本ステップの処理は、例えば、前述した様々な細胞評価情報生成処理部のうちのいずれかによって実行される。
【0233】
次に、データ処理部1020は、ステップS26で実行された評価の結果に基づいて、細胞評価情報を生成する(S27)。本ステップの処理は、例えば、前述した様々な細胞評価情報生成処理部のうちのいずれかによって実行される。
【0234】
次に、眼科装置1000は、ステップS21~S27で取得された情報を表示装置に表示させる(S28)。
【0235】
本ステップで表示される情報の例として、ステップS21で取得されたシャインプルーフ画像、ステップS22で取得された情報(例えば、シャインプルーフ画像に基づく情報、前房領域、前房領域に基づく情報)、ステップS23で取得された情報(例えば、ゴーストが除去された前房領域、ゴーストが除去された前房領域に基づく情報)、ステップS24で取得された情報(例えば、成形された前房領域、成形された前房領域に基づく情報)、ステップS25で取得された情報(例えば、細胞領域、細胞領域に基づく情報)、ステップS26で取得された情報(例えば、炎症性細胞の密度、密度の評価情報、密度の評価情報に基づく情報)、ステップS27で取得された情報(例えば、細胞評価情報、細胞評価情報に基づく情報)などがある。
【0236】
幾つかの例示的な態様では、ステップS27において、SUN Working Groupにより提案された評価に使用されている炎症性細胞の密度の値(1ミリメートル四方の大きさの領域に存在する炎症性細胞の個数)、及び/又は、この密度の値に対応するグレードが求められ、更に、ステップS28において、少なくともステップS27で求められた密度の値及び/又はグレードが表示される。
【0237】
眼科装置1000の第4の動作例を
図22に示す。本動作例は、細胞評価情報を取得するために実行される。特に言及しない限り、
図19の動作例に関して説明された任意の事項、
図20の動作例に関して説明された任意の事項、及び
図21の動作例に関して説明された任意の事項のうちの少なくとも1つを本動作例に組み合わせることが可能である。
【0238】
本例に係る眼科装置1000のデータ処理部1020は、畳み込みニューラルネットワークを含む細胞評価情報生成処理部(例えば、細胞評価情報生成処理部1033A、細胞評価情報生成処理部1052A、細胞評価情報生成処理部1061A、又は、細胞評価情報生成処理部1072A)と、この畳み込みニューラルネットワークに合わせたデータ構造変換を行う要素(例えば、変換処理部1042又は変換処理部1082)とを含んでいる。
【0239】
まず、眼科装置1000は、画像取得部1010によって、被検眼のシャインプルーフ画像を取得する(S31)。
【0240】
次に、眼科装置1000は、データ処理部1020によって、シャインプルーフ画像から前房領域を特定するための第1セグメンテーション(前房セグメンテーション)を、ステップS31で取得されたシャインプルーフ画像に適用する(S32)。第3の動作例のステップS22と同様に、本ステップの前房セグメンテーションの手法は任意であってよい。
【0241】
次に、データ処理部1020は、ステップS32の前房セグメンテーションで特定された前房領域内のゴーストを除去する(S33)。これにより、後述するステップS35の細胞評価情報生成処理においてゴーストが評価結果に反映されてしまう不都合を防止することができる。
【0242】
次に、データ処理部1020は、ステップS33でゴーストが除去された前房領域を、次のステップS35に用いられる畳み込みニューラルネットワークの入力層に対応した構造の画像データに変換する(S34)。
【0243】
なお、幾つかの例示的な態様において、前房領域からのゴースト除去(本例のステップS33)と、前房領域のデータ構造変換(本例のステップS34)との順序が逆であってもよい。
【0244】
次に、データ処理部1020は、ステップS34で取得された画像データ(前房領域の変換データ)を、細胞評価情報生成処理を実行するように構成された細胞評価情報生成処理部の畳み込みニューラルネットワークに入力する。これにより、ステップS32で取得された前房領域に基づく細胞評価情報が生成される(S35)。
【0245】
次に、眼科装置1000は、ステップS35で生成された細胞評価情報を表示装置に表示させる(S36)。
【0246】
幾つかの例示的な態様では、ステップS35において、SUN Working Groupにより提案された評価に使用されている炎症性細胞の密度の値(1ミリメートル四方の大きさの領域に存在する炎症性細胞の個数)、及び/又は、この密度の値に対応するグレードが求められ、更に、ステップS36において、少なくともステップS35で求められた密度の値及び/又はグレードが表示される。
【0247】
また、幾つかの例示的な態様では、ステップS35において、SUN Working Groupにより提案された評価に使用されている炎症性細胞の密度の値(1ミリメートル四方の大きさの領域に存在する炎症性細胞の個数)が求められる。本態様のデータ処理部1020は、密度値とグレードとの対応関係を表す既定のデータを参照して、ステップS35で求められた密度値に対応するグレードを求める。本態様のステップS36では、データ処理部1020により求められたグレード(及び、本態様のステップS35で求められた密度値)が表示される。
【0248】
ステップS35で生成された細胞評価情報及び/又はそれに基づく情報に加えて、眼科装置1000は、ステップS31~S34で取得された任意の情報を表示装置に表示させることができる。細胞評価情報に加えて表示される情報の例として、ステップS31で取得されたシャインプルーフ画像、ステップS32で取得された情報(例えば、シャインプルーフ画像に基づく情報、前房領域、前房領域に基づく情報)、ステップS33で取得された情報(例えば、ゴーストが除去された前房領域、ゴーストが除去された前房領域に基づく情報)、ステップS34で取得された情報(例えば、成形された前房領域、成形された前房領域に基づく情報)などがある。
【0249】
細胞評価情報以外の炎症状態情報を生成する場合においても、細胞評価情報を生成する場合と同じ要領で炎症状態情報を生成することができる。前述したように、細胞評価情報以外の炎症状態情報の例として、前房フレアに関する情報、水晶体の混濁に関する情報、疾患の発症・経過に関する情報、疾患の活動性に関する情報などがある。
【0250】
これらの例示的な炎症状態情報はいずれも、細胞評価情報の場合と同様に、SUN Working Groupにより提案されたぶどう膜炎疾患の分類基準を参照して生成及び評価されてよい。
【0251】
これらの例示的な炎症状態情報を生成及び評価する処理は、機械学習ベースの処理若しくは非機械学習ベースの処理であってよく、又は、機械学習ベースの処理及び非機械学習ベースの処理の組み合わせであってもよい。機械学習ベースの処理を行うためのニューラルネットワークの構築は、細胞評価情報を生成するためのニューラルネットワークの構築と同じ要領で実行されてよい。非機械学習ベースの処理を行うためのプロセッサは、例えば、評価対象(例えば、前房フレア、水晶体の混濁、疾患の発症・経過、疾患の活動性など)を求めるための処理を少なくとも実行するように構成され、更に、求められた評価対象に基づき評価を行う処理を実行するように構成されていてよい。
【0252】
以上に説明した眼科装置1000として機能することが可能な眼科装置の具体的構成の例を
図23に示す。本例の眼科装置は、スリットランプ顕微鏡とコンピュータ(情報処理装置)とを組み合わせたシステム(スリットランプ顕微鏡システム1)である。
【0253】
スリットランプ顕微鏡システム1は、照明系2と、撮影系3と、動画撮影系4と、光路結合素子5と、移動機構6と、制御部7と、データ処理部8と、通信部9と、ユーザーインターフェイス10とを含む。被検眼Eの角膜を符号Cで示し、水晶体を符号CLで示す。前房は、角膜Cと水晶体との間の領域に相当する
【0254】
スリットランプ顕微鏡システム1の要素群の配置の非限定的な例として、幾つかの例示的な態様のスリットランプ顕微鏡システム1は、顕微鏡本体、コンピュータ、及び顕微鏡本体とコンピュータとの間の通信を担う通信デバイスを含んでいる。顕微鏡本体は、照明系2、撮影系3、動画撮影系4、光路結合素子5、及び移動機構6を含む。コンピュータは、制御部7、データ処理部8、通信部9、及びユーザーインターフェイス10を含む。コンピュータは、例えば、顕微鏡本体の近傍に設置されていてもよいし、ネットワーク上に設置されていてもよい。
【0255】
照明系2、撮影系3、及び移動機構6の組み合わせは、眼科装置1000の画像取得部1010の例である。照明系2は、眼科装置1000の照明系1011の例である。撮影系3は、眼科装置1000の撮影系1012の例である。
【0256】
照明系2は、被検眼Eの前眼部にスリット光を投射する。符号2aは、照明系2の光軸(照明光軸と呼ぶ)を示す。照明系2は、従来のスリットランプ顕微鏡の照明系と同様の構成を備えていてよい。例えば、図示は省略するが、照明系2は、被検眼Eから遠い側から順に、照明光源と、正レンズと、スリット形成部と、対物レンズとを含む。照明光源から出力された照明光は、正レンズを通過してスリット形成部に投射される。スリット形成部は、照明光の一部を通過させてスリット光を生成する。スリット形成部は、一対のスリット刃を有する。これらスリット刃の間隔(スリット幅と呼ぶ)を変化させることで、スリット光の幅を変化させることができる。また、一対のスリット刃を回転させることで、スリット光の長手方向の向きを変化させることができる。また、スリット形成部は、スリット光の長手方向の寸法を変化させることができる。スリット形成部により生成されたスリット光は、対物レンズにより屈折されて被検眼Eの前眼部に投射される。なお、スリット光を生成するための構成は本例に限定されず、スリット光の生成に使用可能な任意の構成であってもよい。照明系2は、スリット光のフォーカス位置を変更するための合焦機構を含んでいてもよい。この合焦機構は、例えば、対物レンズを照明光軸2aに沿って移動させる。或いは、合焦機構は、対物レンズとスリット形成部との間に配置された合焦レンズを移動させる。
【0257】
図23は上面図であり、被検眼Eの軸に沿う方向をZ方向とし、これに直交する方向のうち被検者にとって左右の方向をX方向とし、X方向及びZ方向の双方に直交する方向(上下方向、体軸方向)をY方向とする。本態様では、照明光軸2aが被検眼Eの軸に一致するように被検眼Eに対するスリットランプ顕微鏡システム1のアライメントを行うことができ、より広義には、照明光軸2aが被検眼Eの軸に平行に配置されるようにアライメントを行うことができる。
【0258】
撮影系3は、照明系2からのスリット光が投射されている前眼部を撮影する。符号3aは、撮影系3の光軸(撮影光軸と呼ぶ)を示す。撮影系3は、光学系3Aと、撮像素子3Bとを含む。光学系3Aは、スリット光が投射されている被検眼Eの前眼部からの光を撮像素子3Bに導く。光学系3Aは、従来のスリットランプ顕微鏡の撮影系と同様の構成を備えていてよい。例えば、光学系3Aは、被検眼Eに近い側から順に、対物レンズと、変倍光学系と、結像レンズとを含む。スリット光が投射されている被検眼Eの前眼部からの光は、対物レンズ及び変倍光学系を通過し、結像レンズにより撮像素子3Bの撮像面に結像される。撮像素子3Bは、光学系3Aにより導かれた光を撮像面にて受光する。撮像素子3Bは、2次元の撮像エリアを有するエリアセンサを含む。このエリアセンサは、例えば、電荷結合素子(CCD)イメージセンサ、又は相補型金属酸化膜半導体(CMOS)イメージセンサであってよい。撮影系3は、そのフォーカス位置を変更するための合焦機構を含んでいてもよい。この合焦機構は、例えば、対物レンズを撮影光軸3aに沿って移動させる。或いは、合焦機構は、対物レンズと結像レンズとの間に配置された合焦レンズを撮影光軸3aに沿って移動させる。
【0259】
照明系2及び撮影系3は、シャインプルーフカメラとして機能する。すなわち、照明光軸2aに沿う物面と、光学系3Aと、撮像素子3Bの撮像面とが、いわゆるシャインプルーフの条件を満足するように、照明系2及び撮影系3が構成されている。より具体的には、照明光軸2aを通るYZ面(物面を含む)と、光学系3Aの主面と、撮像素子3Bの撮像面とが、同一の直線上にて交差する。これにより、物面内の全ての位置(照明光軸2aに沿う方向における全ての位置)にピントを合わせて撮影を行うことができる。
【0260】
本態様では、例えば、少なくとも角膜Cの後面から水晶体CLの前面までの範囲(前房)に撮影系3のピントがあるように、照明系2及び撮影系3が構成されている。なお、実用性などを考慮して、例えば、少なくとも角膜Cの前面から水晶体CLの後面までの範囲に撮影系3のピントが合うように、照明系2及び撮影系3を構成してもよい。これにより、スリットランプ顕微鏡システム1は、角膜Cの前面の頂点(Z=Z1)から水晶体CLの後面の頂点(Z=Z2)までの範囲の全体に撮影系3のピントが合っている状態で、被検眼Eの前眼部の撮影を行うことができる。なお、照明光軸2aと撮影光軸3aとの交点は、座標Z=Z0に位置している。このような条件は、照明系2に含まれる要素の構成及び配置、撮影系3に含まれる要素の構成及び配置、並びに、照明系2と撮影系3との相対位置などにしたがって実現される。照明系2と撮影系3との相対位置を示すパラメータは、例えば、照明光軸2aと撮影光軸3aとがなす角度θを含む。角度θは、例えば、17.5度、30度、又は45度に設定される。角度θは可変であってもよい。
【0261】
動画撮影系4は、照明系2及び撮影系3による被検眼の撮影と並行して被検眼Eの前眼部を動画撮影する。動画撮影系4は、ビデオカメラとして機能する。
【0262】
光路結合素子5は、照明系2の光路(照明光路)と、動画撮影系4の光路(動画撮影光路)とを結合している。光路結合素子5は、例えば、ハーフミラー又はダイクロイックミラーなどのビームスプリッタであってよい。
【0263】
照明系2、撮影系3、動画撮影系4、及び光路結合素子5を含む光学系の具体例を
図24に示す。本例において、撮影系3は、2つの撮影系(第1撮影系及び第2撮影系)を含んでいる。幾つかの例示的な態様において、スリットランプ顕微鏡システム1の光学系は、
図24に示す要素群に加えて、又はそれらのいずれかの代わりに、他の要素(例えば、眼科装置1000の説明における任意の要素、公知のスリットランプ顕微鏡の任意の要素、公知の眼科装置の任意の要素)を含んでいてもよい。
【0264】
図24に示す光学系は、照明系20と、左撮影系30Lと、右撮影系30Rと、動画撮影系40とを含んでいる。照明系20は照明系2の例である。左撮影系30L及び右撮影系30Rの組み合わせは、撮影系3の例であり、眼科装置1000の第1撮影系1014及び第2撮影系1015の組み合わせの例である。動画撮影系40は、動画撮影系4の例である。ビームスプリッタ47は、光路結合素子5の例である。
【0265】
図24において、符号20aは照明系20の光軸(照明光軸と呼ぶ)を示し、符号30Laは左撮影系30Lの光軸(左撮影光軸と呼ぶ)を示し、符号30Raは右撮影系30Rの光軸(右撮影光軸と呼ぶ)を示す。左撮影光軸30Laの向きと右撮影光軸30Raの向きとは互いに異なっている。照明光軸20aと左撮影光軸30Laとがなす角度をθLで示し、照明光軸20aと右撮影光軸30Raとがなす角度をθRで示す。角度θLと角度θRとは、互いに等しくてもよいし互いに異なってもよい。角度θL及び角度θRのそれぞれは可変であってもよい。照明光軸20aと左撮影光軸30Laと右撮影光軸30Raとは、一点で交差する。
図23と同様に、この交点のZ座標をZ0で示す。
【0266】
本例の移動機構6は、照明系20、左撮影系30L、及び右撮影系30Rを、矢印49で示す方向(X方向)に移動するように構成されている。幾つかの例示的な態様において、照明系20、左撮影系30L、及び右撮影系30Rは、少なくともX方向に移動可能なステージ上に載置されており、且つ、移動機構6は、制御部7からの制御信号にしたがってこの可動ステージをX方向に移動する。
【0267】
照明系20は、被検眼Eの前眼部にスリット光を投射する。照明系20は、従来のスリットランプ顕微鏡の照明系と同様に、被検眼Eから遠い側から順に、照明光源21と、正レンズ22と、スリット形成部23と、対物レンズ群24及び25とを含む。
【0268】
照明光源21から出力された照明光(例えば可視光)は、正レンズ22により屈折されてスリット形成部23に投射される。投射された照明光の一部は、スリット形成部23が形成するスリットを通過してスリット光となる。生成されたスリット光は、対物レンズ群24及び25により屈折された後、ビームスプリッタ47により反射され、被検眼Eの前眼部に投射される。
【0269】
左撮影系30Lは、反射器31Lと、結像レンズ32Lと、撮像素子33Lとを含む。反射器31L及び結像レンズ32Lは、照明系20によりスリット光が投射されている前眼部からの光(左撮影系30Lの方向に進行する光)を撮像素子33Lに導く。
【0270】
前眼部から左撮影系30Lの方向に進行する光は、スリット光が投射されている前眼部からの光であって、照明光軸20aから離れる方向に進行する光である。反射器31Lは、当該光を照明光軸20aに近づく方向に反射する。結像レンズ32Lは、反射器31Lにより反射された光を屈折して撮像素子33Lの撮像面34Lに結像する。撮像素子33Lは、当該光を撮像面34Lにて受光する。
【0271】
左撮影系30Lは、移動機構6による照明系20、左撮影系30L及び右撮影系30Rの移動と並行して繰り返し撮影を行う。これにより複数の前眼部画像(一連のシャインプルーフ画像)が得られる。
【0272】
照明光軸20aに沿う物面と、反射器31L及び結像レンズ32Lを含む光学系と、撮像面34Lとは、シャインプルーフの条件を満足する。より具体的には、反射器31Lによる撮影系30Lの光路の偏向を考慮すると、照明光軸20aを通るYZ面(物面を含む)と、結像レンズ32Lの主面と、撮像面34Lとが、同一の直線上にて交差する。これにより、左撮影系30Lは、物面内の全ての位置(例えば、角膜前面から水晶体後面までの範囲)にピントを合わせて撮影を行うことができる。
【0273】
右撮影系30Rは、反射器31Rと、結像レンズ32Rと、撮像素子33Rとを含む。反射器31R及び結像レンズ32Rは、照明系20によりスリット光が投射されている前眼部からの光(右撮影系30Rの方向に進行する光)を撮像素子33Rに導く。右撮影系30Rは、移動機構6による照明系20、左撮影系30L及び右撮影系30Rの移動と並行して繰り返し撮影を行うことで、複数の前眼部画像(一連のシャインプルーフ画像)を取得する。照明光軸20aに沿う物面と、反射器31R及び結像レンズ32Rを含む光学系と、撮像面34Rとは、シャインプルーフの条件を満足する。
【0274】
左撮影系30Lによるシャインプルーフ画像収集と右撮影系30Rによるシャインプルーフ画像収集とは、互いに並行して行われる。左撮影系30Lにより収集される一連のシャインプルーフ画像と右撮影系30Rにより収集される一連のシャインプルーフ画像との組み合わせは、第1シャインプルーフ画像群と第2シャインプルーフ画像群との組み合わせに相当する。
【0275】
制御部7は、左撮影系30Lによる繰り返し撮影と、右撮影系30Rによる繰り返し撮影とを同期させることができる。これにより、左撮影系30Lにより得られた一連のシャインプルーフ画像と、右撮影系30Rにより得られた一連のシャインプルーフ画像との間の対応関係が得られる。この対応関係は、時間的な対応関係であり、より具体的には、実質的に同時に取得された画像同士をペアリングするものである。
【0276】
或いは、制御部7又はデータ処理部8は、左撮影系30Lにより得られた複数の前眼部画像と、右撮影系30Rにより得られた複数の前眼部画像との間の対応関係を求める処理を実行することができる。例えば、制御部7又はデータ処理部8は、左撮影系30Lから逐次に入力される前眼部画像と、右撮影系30Rから逐次に入力される前眼部画像とを、それらの入力タイミングによってペアリングすることができる。
【0277】
動画撮影系40は、左撮影系30Lによる撮影及び右撮影系30Rによる撮影と並行して、被検眼Eの前眼部を固定位置から動画撮影する。ここで、動画撮影系40は移動機構6によって移動されなくてもよい。動画撮影系40は、照明系20と同軸に配置されているが、その配置はこれに限定されない。幾つかの例示的な態様では、照明系20と非同軸に動画撮影系を配置することができる。
【0278】
ビームスプリッタ47を透過した光は、反射器48により反射されて動画撮影系40に入射する。動画撮影系40に入射した光は、対物レンズ41により屈折された後、結像レンズ42によって撮像素子43の撮像面に結像される。撮像素子43はエリアセンサである。
【0279】
動画撮影系40は、被検眼Eの動きのモニタ、アライメント、トラッキングなどに利用することができる。更に、動画撮影系40は、一連のシャインプルーフ画像を処理するために利用することができる。
【0280】
図23の参照に戻る。移動機構6は、照明系2及び撮影系3を一体的にX方向に移動するように構成されている。
【0281】
制御部7は、スリットランプ顕微鏡システム1の各部を制御するように構成されている。例えば、制御部7は、照明系2の要素(照明光源、スリット形成部、合焦機構など)、撮影系3の要素(光学系3Aの合焦機構、撮像素子3Bなど)、動画撮影系4の要素(合焦機構、撮像素子など)、移動機構6、データ処理部8、通信部9、ユーザーインターフェイス10などを制御する。
【0282】
制御部7は、照明系2、撮影系3及び移動機構6の制御と、動画撮影系4の制御とを、互いに並行して実行することができる。これにより、眼科装置1000の画像取得部1010によるスリットスキャン(一連のシャインプルーフ画像の収集)と、動画撮影(一連の時系列画像の収集)とを互いに並行して実行することが可能になる。更に、制御部7は、照明系2、撮影系3及び移動機構6の制御と、動画撮影系4の制御とを、互いに同期して実行することができる。これにより、眼科装置1000の画像取得部1010によるスリットスキャンと動画撮影とを互いに同期させることが可能になる。
【0283】
撮影系3が左撮影系30L及び右撮影系30Rを含む態様において、制御部7は、左撮影系30Lによる繰り返し撮影(第1シャインプルーフ画像群の収集)と、右撮影系30Rによる繰り返し撮影(第2シャインプルーフ画像群の収集)とを互いに同期して実行することができる。
【0284】
制御部7は、プロセッサ、主記憶装置、補助記憶装置などを含む。補助記憶装置には、各種の制御プログラム等のコンピュータプログラムが記憶されている。これらのコンピュータプログラムは、スリットランプ顕微鏡システム1がアクセス可能なコンピュータや記憶装置に格納されていてもよい。制御部7の機能は、制御プログラム等のソフトウェアと、プロセッサ等のハードウェアとの協働によって実現される。
【0285】
制御部7は、被検眼Eの前眼部の3次元領域をスリット光でスキャンするために、照明系2、撮影系3及び移動機構6に対して次のような制御を適用することができる。
【0286】
まず、制御部7は、照明系2及び撮影系3を所定のスキャン開始位置に配置するように移動機構6を制御する(アライメント制御)。スキャン開始位置は、例えば、X方向における角膜Cの端部(第1端部)に相当する位置、又は、それよりも被検眼Eの軸から離れた位置である。
図25Aにおける符号X0は、X方向における角膜Cの第1端部に相当するスキャン開始位置を示している。また、
図25Bの符号X0’は、X方向における角膜Cの第1端部に相当する位置よりも被検眼Eの軸EAから離れたスキャン開始位置を示している。
【0287】
制御部7は、照明系2を制御して、被検眼Eの前眼部に対するスリット光の投射を開始させる(スリット光投射制御)。また、制御部7は、撮影系3を制御して、被検眼Eの前眼部の動画撮影を開始させる(撮影制御)。アライメント制御、スリット光投射制御、及び撮影制御の実行後、制御部7は、移動機構6を制御して、照明系2及び撮影系3の移動を開始する(移動制御)。移動制御により、照明系2及び撮影系3が一体的に移動される。つまり、照明系2と撮影系3との相対位置(角度θなど)を維持しつつ(シャインプルーフの条件を満足した状態で)照明系2及び撮影系3が移動される。照明系2及び撮影系3の移動は、前述したスキャン開始位置から所定のスキャン終了位置まで行われる。スキャン終了位置は、例えば、スキャン開始位置と同様に、X方向において第1端部の反対側の角膜Cの端部(第2端部)に相当する位置、又は、それよりも被検眼Eの軸から離れた位置である。
【0288】
本例のスリットスキャンは、スキャン開始位置からスキャン終了位置までの範囲に適用される。このスリットスキャンは、X方向を幅方向とし且つY方向を長手方向としたスリット光の前眼部への投射と、照明系2及び撮影系3のX方向への一体的な移動と、撮影系3による動画撮影とを、互いに並行して(連係して、同期して)実行することによって実現される。スリット光の長さ(つまり、Y方向におけるスリット光のビーム断面の寸法)は、例えば、被検眼Eの表面において角膜Cの径以上に設定されている。また、移動機構6による照明系2及び撮影系3の移動距離は、X方向における角膜径以上に設定されている。これにより、角膜C全体を含む3次元領域にスリットスキャンを適用することが可能になり、前房の広い範囲を撮像することが可能になる。
【0289】
このようなスリットスキャンにより、スリット光の投射位置が異なる複数の前眼部画像(一連のシャインプルーフ画像)が得られる。換言すると、スリット光の投射位置がX方向に移動する様が描写された動画像が得られる。このような複数の前眼部画像(つまり、動画像を構成するフレーム群)の例を
図26に示す。
【0290】
図26は、複数の前眼部画像(フレーム群)F1、F2、F3、・・・、FNを示す。これら前眼部画像Fn(n=1、2、・・・、N)の添字nは、時系列順序を表している。つまり、第n番目に取得された前眼部画像が符号Fnで表される。前眼部画像Fnには、スリット光像Anが含まれている。
図26に示すように、スリット光像A1、A2、A3、・・・、ANは、時系列に沿って右方向に移動している。
図26に示す例では、スキャン開始位置及びスキャン終了位置は、X方向における角膜Cの両端に対応する。なお、スキャン開始位置及び/又はスキャン終了位置は本例に限定されず、例えば、角膜端部よりも被検眼Eの軸から離れた位置であってよい。また、スキャンの向きや回数についても任意に設定することが可能である。
【0291】
データ処理部8は、各種のデータ処理を実行するように構成されている。処理されるデータは、スリットランプ顕微鏡システム1により取得されたデータ、及び、外部から入力されたデータのいずれでもよい。
【0292】
データ処理部8は、プロセッサ、主記憶装置、補助記憶装置などを含む。補助記憶装置には、各種のデータ処理プログラム等のコンピュータプログラムが記憶されている。これらのコンピュータプログラムは、スリットランプ顕微鏡システム1がアクセス可能なコンピュータや記憶装置に記憶されていてもよい。データ処理部8の機能は、データ処理プログラム等のソフトウェアと、プロセッサ等のハードウェアとの協働によって実現される。
【0293】
データ処理部8は、眼科装置1000のデータ処理部1020の説明におけるいずれかの構成を備えていてよい(
図2C、
図3~
図18を参照)。データ処理部8の構成は、それらに限定されない。
【0294】
データ処理部8が画像選択部1021(
図2Cを参照)を備えている場合について説明する。本態様の画像選択部1021は、スリットスキャンにおいて左撮影系30Lにより収集された一連のシャインプルーフ画像と右撮影系30Rにより収集された一連のシャインプルーフ画像との間の対応関係(第1シャインプルーフ画像群と第2シャインプルーフ画像群との間の対応関係)に基づいて、当該スリットスキャンに対応する新たな一連のシャインプルーフ画像をこれら2つの一連のシャインプルーフ画像から選択する。データ処理部8は、
図2Cの炎症状態情報生成部1022と同様に、画像選択部1021により選択された新たな一連のシャインプルーフ画像に基づいて炎症状態情報を生成する。
【0295】
データ処理部8の構成はこれらの例に限定されない。幾つかの例示的な態様のデータ処理部8は、特許文献3(特開2019-213733号公報)に開示されている任意のデータ処理機能など、本願の出願人のいずれかにより開示された当該技術に関する任意のデータ処理機能を有していてよい。
【0296】
通信部9は、スリットランプ顕微鏡システム1と他の装置との間におけるデータ通信を行う。すなわち、通信部9は、他の装置へのデータの送信と、他の装置から送信されたデータの受信とを行う。
【0297】
通信部9が実行するデータ通信の方式は任意であってよい。例えば、通信部9は、インターネットに準拠した通信インターフェイス、専用線に準拠した通信インターフェイス、LANに準拠した通信インターフェイス、近距離通信に準拠した通信インターフェイスなど、各種の通信インターフェイスのうちの1つ以上を含む。データ通信は有線通信でも無線通信でもよい。
【0298】
通信部9により送受信されるデータは暗号化されていてよい。その場合、例えば、制御部7及び/又はデータ処理部8は、通信部9により送信されるデータを暗号化する暗号化処理部、及び、通信部9により受信されたデータを復号化する復号化処理部の少なくとも一方を含む。
【0299】
ユーザーインターフェイス10は、表示デバイス、操作デバイスなど、任意のユーザーインターフェイスデバイスを含む。医師、被検者、補助者などのユーザーは、ユーザーインターフェイス10を用いることによって、スリットランプ顕微鏡システム1の操作や、スリットランプ顕微鏡システム1への情報入力を行うことができる。
【0300】
表示デバイスは、制御部7の制御を受けて各種の情報を表示する。表示デバイスは、液晶ディスプレイ(LCD)などのフラットパネルディスプレイを含んでいてよい。操作デバイスは、スリットランプ顕微鏡システム1を操作するためのデバイスや、情報を入力するためのデバイスを含む。操作デバイスは、例えば、ボタン、スイッチ、レバー、ダイアル、ハンドル、ノブ、マウス、キーボード、トラックボール、操作パネルなどを含む。タッチスクリーンのように、表示デバイスと操作デバイスとが一体化したデバイスを用いてもよい。
【0301】
ユーザーインターフェイスの少なくとも一部がスリットランプ顕微鏡システム1の周辺機器として配置されていてもよい。
【0302】
スリットランプ顕微鏡システム1の要素は、以上に説明したものに限定されない。スリットランプ顕微鏡システム1は、スリットランプ顕微鏡に組み合わせることが可能な任意の要素を含んでいてもよく、より一般に、眼科装置に組み合わせることが可能な任意の要素を含んでいてもよい。また、スリットランプ顕微鏡システム1は、スリットランプ顕微鏡により取得された被検眼のデータを処理するための任意の要素を含んでいてもよく、より一般に、任意の眼科データを処理するための任意要素を含んでいてもよい。
【0303】
例えば、スリットランプ顕微鏡システム1は、被検眼Eを固視させるための光(固視光)を出力する固視系を備えていてよい。固視系は、典型的には、少なくとも1つの可視光源(固視光源)、又は、風景チャートや固視標等の画像を表示する表示デバイスを含む。固視系は、例えば、照明系2又は撮影系3と同軸又は非同軸に配置される。
【0304】
以上に説明した眼科装置1000及びスリットランプ顕微鏡システム1は、被検眼を撮影する機能(撮影機能、画像取得部1010)を備えているが、本開示に係る眼科装置はそのようなもの(眼科撮影装置)に限定されない。幾つかの例示的な態様の眼科装置は、撮影機能の代わりに(又は、撮影機能に加えて)、被検眼の画像を外部から受け付ける機能を有するコンピュータ(情報処理装置)を含んでいる。
【0305】
そのような情報処理装置としての眼科装置の構成例を
図27に示す。本例の眼科装置3000は、画像取得部3010とデータ処理部3020とを含んでいる。画像取得部3010は、画像受付部3011を含んでいる。なお、画像取得部3010は、眼科装置1000の画像取得部1010と同様の構成を更に備えていてもよい。データ処理部3020は、眼科装置1000のデータ処理部1020の説明における任意の構成を備えていてよいが、それに限定されない。
【0306】
画像受付部3011は、予め取得された被検眼のシャインプルーフ画像(換言すると、過去の撮影によって取得された被検眼のシャインプルーフ画像)を受け付けるように構成されている。画像受付部3011は、例えば、通信デバイス及び/又はメディアドライブを含む。通信デバイスは、例えばスリットランプ顕微鏡システム1の通信部9と同様に、外部の記憶装置に保存されているデータを受信するように構成されている。メディアドライブは、記録媒体に記録されているデータを読み出すように構成されている。
【0307】
データ処理部3020は、画像受付部3011により受け付けられたシャインプルーフ画像から被検眼の炎症状態を示す炎症状態情報を生成するための処理を実行するように構成されている。データ処理部3020により実行可能な処理については、眼科装置1000の説明やスリットランプ顕微鏡システム1の説明を参照されたい。
【0308】
本開示は、実施形態の幾つかの例示的な態様を提示するものである。これらの態様は、本発明の例示に過ぎない。したがって、本発明の要旨の範囲内における任意の変形(省略、置換、付加など)を本開示に適用することが可能である。
【0309】
本開示で説明された任意の1つ以上の処理をコンピュータに実行させるプログラムを構成することが可能である。また、そのようなプログラムを記録した記録媒体を作成することが可能である。記録媒体は、コンピュータによって読み取り可能な非一時的記録媒体である。このような記録媒体の形態は任意であり、その例として、磁気ディスク、光ディスク、光磁気ディスク、半導体メモリなどがある。
【0310】
本発明は、本開示で説明された任意の1つ以上の工程を含む方法を含んでいてよい。幾つかの例示的な態様に係る方法は、プロセッサを含む眼科装置(例えば、眼科装置1000、スリットランプ顕微鏡システム1、又は眼科装置3000)を制御する方法であり、眼科装置に被検眼のシャインプルーフ画像を取得させる工程(第1の取得工程と呼ぶ)と、被検眼の炎症状態を示す炎症状態情報をこのシャインプルーフ画像から生成するための処理をプロセッサに実行させる工程(第1の生成工程と呼ぶ)とを含んでいる。
【0311】
第1の取得工程及び/又は第1の生成工程は、眼科装置1000の説明における任意の事項、スリットランプ顕微鏡システム1の説明における任意の事項、及び、眼科装置3000の説明における任意の事項のうちのいずれかによって具体化されてもよい。また、眼科装置1000の説明における任意の工程、スリットランプ顕微鏡システム1の説明における任意の工程、及び、眼科装置3000の説明における任意の工程のうちのいずれかを、第1の取得工程及び第1の生成工程に組み合わせてもよい。
【0312】
また、幾つかの例示的な態様に係る方法は、眼の画像を処理する方法であり、被検眼のシャインプルーフ画像を取得する工程(第2の取得工程と呼ぶ)と、被検眼の炎症状態を示す炎症状態情報をシャインプルーフ画像から生成するための処理を実行する工程(第2の生成工程と呼ぶ)とを含んでいる。
【0313】
第2の取得工程及び/又は第2の生成工程は、眼科装置1000の説明における任意の事項、スリットランプ顕微鏡システム1の説明における任意の事項、及び、眼科装置3000の説明における任意の事項のうちのいずれかによって具体化されてもよい。また、眼科装置1000の説明における任意の工程、スリットランプ顕微鏡システム1の説明における任意の工程、及び、眼科装置3000の説明における任意の工程のうちのいずれかを、第2の取得工程及び第2の生成工程に組み合わせてもよい。
【0314】
本発明は、眼科装置を制御する方法をコンピュータに実行させるプログラム(第1のプログラムと呼ぶ)を含んでいてもよい。また、本発明は、眼の画像を処理する方法をコンピュータに実行させるプログラム(第2のプログラムと呼ぶ)を含んでいてもよい。更に、本発明は、第1のプログラムを記録したコンピュータ可読な非一時的記録媒体を含んでいてもよい。また、本発明は、第2のプログラムを記録したコンピュータ可読な非一時的記録媒体を含んでいてもよい。このような非一時的記録媒体は任意の形態であってよく、その例として、磁気ディスク、光ディスク、光磁気ディスク、半導体メモリなどがある。
【0315】
上記の実施形態では、前房内に存在する炎症性細胞の密度の自動評価について特に詳細に説明した。炎症性細胞の密度の自動評価に際して着目すべき事項には様々なものがあるが、本発明者は、上記の実施形態で説明した各種の事項に加えて、次のような事項についても検討した:(1)シャインプルーフ画像(特に前房領域)内のアーティファクトと細胞領域とを識別すること;(2)スリットランプ顕微鏡を用いて行われていた従来の評価手法(例えば、SUN Working Groupにより提案された評価手法)との整合性を図ること;(3)撮影条件(例えば、カメラのゲイン)の調整や変更にかかわらず、評価の品質(例えば、安定性、ロバスト性、再現性、正確度、精度など)を担保すること。
【0316】
(1)については、上記の実施形態でも幾つかの解決手段が提案されているが、その他にも、睫毛に起因するアーティファクトの検出や除去など、任意の公知のアーティファクト検出技術やアーティファクト除去技術を用いることが可能である。
【0317】
(2)についても、上記の実施形態で幾つかの解決手段が提案されているが、その他にも、例えば、従来の評価手法で得たデータ群と本開示に係る評価手法で得たデータ群との間の対応関係を求め、この対応関係に基づいて従来の評価手法との整合性を向上させることができる。データ群の間の対応関係の作成には、機械学習ベースの処理及び/又は非機械学習ベースの処理が用いられる。機械学習ベースの処理では、例えば、従来の評価手法で得たデータ群と本開示に係る評価手法で得たデータ群との複数のペアを含む訓練データを用いた機械学習が実行される。これにより構築される推論モデルは、本開示に係る評価手法で取得されたデータを入力とし、従来の評価手法で取得されたデータに模したデータを出力としたニューラルネットワークを含むものである。
【0318】
(3)についても同様に、様々な撮影条件(例えば、カメラのゲインの様々な値)に対応して得られた様々なデータの間の対応関係を求め、この対応関係に基づいて評価品質の安定化を図ることができる。データ間の対応関係の作成には、機械学習ベースの処理及び/又は非機械学習ベースの処理が用いられる。機械学習ベースの処理では、例えば、第1の条件で得たデータと第2の条件で得たデータとの複数のペアを含む訓練データを用いた機械学習が実行される。これにより構築される推論モデルは、第1の条件(又は、第2の条件)で取得されたデータを入力とし、第2の条件(又は、第1の条件)で取得されたデータに模したデータを出力としたニューラルネットワークを含むものである。
【0319】
本開示に係る眼科装置、眼科装置を制御する方法、眼画像を処理する方法、プログラム、及び記録媒体によれば、従来は手動(手作業)で行われていた眼画像に基づく炎症状態の評価を少なくとも部分的に自動化することが可能である。
【0320】
本開示では、シャインプルーフ画像に基づき炎症状態の評価を行っているので、広い範囲にピントが合った高品質の画像に基づき評価を行うことができる。よって、被検眼の広い範囲の評価を高い品質で行うことが可能である。
【0321】
また、スリットスキャンを組み合わせることで、被検眼の広い3次元領域にピントが合った高品質のシャインプルーフ画像群(一連のシャインプルーフ画像)を迅速に取得することができ、このシャインプルーフ画像群に基づき評価を行うことが可能となるため、被検眼の非常に広い範囲の評価を高い品質で行うことが可能になる。例えば、前房の広い範囲を評価対象とすることが可能となり、水晶体や角膜なども評価対象に加えることも可能になる。
【0322】
なお、特許文献5(国際公開第2018/003906号)に記載されている発明では、ビデオレートなど1フレームの撮影にかける露光時間が短いと散乱光を検出することができないため、1フレームの撮影に掛ける露光時間を100ミリ秒~1秒程度に設定しているが、被検眼の眼球運動や瞬きの影響を考慮すると、本開示のようなスリットスキャンを行うことはできない。
【0323】
また、特許文献5(国際公開第2018/003906号)に記載されている発明では、角膜におけるスリット光の投影像の寸法を0.2ミリメートル×2ミリメートルに設定しているため、前眼部の広い範囲を画像化することは難しい。これに対し、本実施形態では、例えば、角膜におけるスリット光の投影像の寸法を0.05ミリメートル×8~12ミリメートル程度に設定することができ、それにより前眼部の広い範囲を画像化することが可能になる。
【0324】
更に、本実施形態では、特許文献5(国際公開第2018/003906号)に記載されている発明のような青色LEDではなく白色LEDなどを用いることができるとともに、モノクロカメラではなくカラーカメラを用いて色情報(R信号、G信号、B信号)を利用して評価を行うことができる。
【0325】
このように、本実施形態によれば、前眼部の広い範囲を画像化することができ、前眼部画像や炎症性細胞の像や炎症状態情報の取得に加えて前眼部形状の提示や解析も可能になるため、様々な情報を医師に提供することができるという利点もある。
【符号の説明】
【0326】
1000 眼科装置
1010 画像取得部
1011 照明系
1012 撮影系
1020 データ処理部
1021 画像選択部
1022 炎症状態情報生成部
1031 第1セグメンテーション部
1032 第2セグメンテーション部
1033 細胞評価情報生成処理部
3000 眼科装置
3010 画像取得部
3011 画像受付部
3020 データ処理部