(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2022184520
(43)【公開日】2022-12-13
(54)【発明の名称】画像処理方法、プログラム、画像処理装置、及び眼科システム
(51)【国際特許分類】
A61B 3/10 20060101AFI20221206BHJP
【FI】
A61B3/10
【審査請求】未請求
【請求項の数】12
【出願形態】OL
(21)【出願番号】P 2021092423
(22)【出願日】2021-06-01
(71)【出願人】
【識別番号】000004112
【氏名又は名称】株式会社ニコン
(74)【代理人】
【識別番号】110001519
【氏名又は名称】弁理士法人太陽国際特許事務所
(72)【発明者】
【氏名】田邉 泰士
(72)【発明者】
【氏名】向井 真梨子
(72)【発明者】
【氏名】石田 誠
(72)【発明者】
【氏名】田中 大士
【テーマコード(参考)】
4C316
【Fターム(参考)】
4C316AA09
4C316AA11
4C316AB02
4C316AB11
4C316AB12
4C316AB16
4C316FA14
4C316FB21
4C316FB26
4C316FZ01
(57)【要約】
【課題】眼科装置の部品の劣化を検知する。
【解決手段】プロセッサが行う画像処理方法であって、眼科装置を用いて被検者の被検眼を撮影した被検眼画像を取得するステップと、前記被検眼画像に基づいて、前記眼科装置の前記被検者の顔の一部が接触する部品の劣化を判定するステップと、を含む、画像処理方法。
【選択図】
図6
【特許請求の範囲】
【請求項1】
プロセッサが行う画像処理方法であって、
眼科装置を用いて被検者の被検眼を撮影した被検眼画像を取得するステップと、
前記被検眼画像に基づいて、前記眼科装置の前記被検者の顔の一部が接触する部品の劣化を判定するステップと、
を含む、画像処理方法。
【請求項2】
前記部品の劣化を判定するステップでは、前記被検眼画像への前記部品の映り込みに基づいて、前記部品の劣化の度合いを判定することを含む、請求項1に記載の画像処理方法。
【請求項3】
前記部品の劣化を判定するステップは、
前記被検眼画像への前記部品の映り込み量を計算するステップと、
前記計算された前記部品の映り込み量に基づいて、前記部品の劣化の度合いを判定するステップと、
を含む、請求項2に記載の画像処理方法。
【請求項4】
前記部品の映り込み量を計算するステップは、
前記被検眼画像において、前記部品を示す画像領域のエッジを検出するステップと、
前記検出されたエッジの位置を、前記部品の映り込み量として、計算するステップと、
を含む、請求項3に記載の画像処理方法。
【請求項5】
前記部品の映り込み量を計算するステップは、
前記被検眼画像において、前記部品を示す画像領域のエッジを検出するステップと、
前記検出されたエッジと被検眼画像の端部との間の距離、前記部品の映り込み量として、計算するステップと、
を含む、請求項3に記載の画像処理方法。
【請求項6】
前記被検眼画像への前記部品の映り込み量を計算するステップでは、前記被検眼画像の濃度分布に基づいて前記映り込み量を計算する、請求項3に記載の画像処理方法。
【請求項7】
前記部品の劣化の度合いを示す情報を出力するステップを更に含む、請求項2から請求項6の何れか1項に記載の画像処理方法。
【請求項8】
前記部品の劣化を判定するステップは、
前記部品の劣化度と被検眼画像とを機械学習させた学習モデルを搭載した人工知能に、前記撮影された被検眼画像を入力するステップと、
前記人工知能が前記部品の劣化の度合いを出力するステップと、
を含む、請求項1に記載の画像処理方法。
【請求項9】
プロセッサを備える画像処理装置であって、
前記プロセッサは、
眼科装置を用いて被検者の被検眼を撮影した被検眼画像を取得するステップと、
前記被検眼画像に基づいて、前記眼科装置の前記被検者の顔の一部が接触する部品の劣化を判定するステップと、
を実行する、画像処理装置。
【請求項10】
コンピュータに、
眼科装置を用いて被検者の被検眼を撮影した被検眼画像を取得するステップと、
前記被検眼画像に基づいて、前記眼科装置の前記被検者の顔の一部が接触する部品の劣化を判定するステップと、
を実行させるプログラム。
【請求項11】
被検者の被検眼を撮影し被検眼画像を取得する撮影部と、
プロセッサと、
を備える眼科装置であって、
前記プロセッサは、
前記撮影部を駆動させ、被検者の被検眼の被検眼画像を取得するステップと、
前記被検眼画像に基づいて、前記眼科装置の前記被検者の顔の一部が接触する部品の劣化を判定するステップと、
を実行する、眼科装置。
【請求項12】
被検者の被検眼を撮影し被検眼画像を取得する撮影部とコンピュータとを備える眼科装置の前記コンピュータに、
前記撮影部を駆動させ、被検者の被検眼の被検眼画像を取得するステップと、
前記被検眼画像に基づいて、前記眼科装置の前記被検者の顔の一部が接触する部品の劣化を判定するステップと、
を含む眼科装置用のプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本開示の技術は、画像処理方法、プログラム、画像処理装置、及び眼科システムに関する。
【背景技術】
【0002】
従来、被検眼の撮影時に、被検者の顔を保持するための保持部材を有する眼科装置が知られている(特許文献1)。
【先行技術文献】
【特許文献】
【0003】
【特許文献1】米国公開US2020/0138283
【発明の概要】
【0004】
本開示の技術の第1の態様の画像処理方法は、プロセッサが行う画像処理方法であって、眼科装置を用いて被検者の被検眼を撮影した被検眼画像を取得するステップと、前記被検眼画像に基づいて、前記眼科装置の前記被検者の顔の一部が接触する部品の劣化を判定するステップと、を含む。
【0005】
本開示の技術の第2の態様の画像処理装置は、プロセッサを備える画像処理装置であって、前記プロセッサは、眼科装置を用いて被検者の被検眼を撮影した被検眼画像を取得するステップと、前記被検眼画像に基づいて、前記眼科装置の前記被検者の顔の一部が接触する部品の劣化を判定するステップと、を実行する。
【0006】
本開示の技術の第3の態様のプログラムは、コンピュータに、眼科装置を用いて被検者の被検眼を撮影した被検眼画像を取得するステップと、前記被検眼画像に基づいて、前記眼科装置の前記被検者の顔の一部が接触する部品の劣化を判定するステップと、を実行させる。
【図面の簡単な説明】
【0007】
【
図1】本実施形態に係る眼科システム100の構成を示すブロック図である。
【
図2】眼科装置110の電気系の構成を示すブロック図である。
【
図3A】眼科装置110で被検眼を撮影している様子を示す図である。
【
図4】サーバ140の電気系の構成を示すブロック図である。
【
図5】眼科装置110のCPU16Aの機能ブロック図である。
【
図6】第1の実施の形態の眼科装置110のCPU16Aが実行する画像処理プログラムのフローチャートである。
【
図7A】パッド330の接触部30が劣化していない状態で、被検眼12を撮影して得られた、第1の画像領域500Aと第2の画像領域500B1から500B4とを備えるUWF眼底画像500を示す図である。
【
図7B】接触部30がある程度劣化し、接触部30が、UWF眼底画像500に映っている様子を示す図である。
【
図8A】映り込む接触部30の部分のエッジの長さと接触部30の劣化の度合いとの関係を示すグラフである。
【
図8B】角P4を基準にした接触部30の映り込みを示す領域(R1、R2、R3、R4・・・)を示す図である。
【
図9A】
図7Aに示す、パッド330の接触部30が劣化していない状態で、被検眼12を撮影して得られたUWF眼底画像500の左上角P4から右下角P2までの画像濃度を示す図である。
【
図9B】
図7Bに示す、接触部30がある程度劣化し、接触部30が映っているUWF眼底画像500の左上角P4から右下角P2までの画像濃度を示す図である。
【
図9C】映り込む接触部30の部分の面積と接触部30の劣化の度合いとの関係を示すグラフであ。
【
図10A】第1の画像領域500Aの部分G1の他に、第2の画像領域500B1において、接触部30が映っている部分G211と、映っていない部分G221とを示す図である。
【
図10B】第1の画像領域500Aの部分G1の他に、第2の画像領域500B1において、接触部30が映っている部分G212と、映っていない部分G222とを示す図である。
【
図10C】第1の画像領域500Aの部分G1の他に、第2の画像領域500B1において、接触部30が映っている部分G213と、映っていない部分G223とを示す図である。
【
図10D】第1の画像領域500Aの部分G1の他に、第2の画像領域500B1において、接触部30が映っている部分G214と、映っていない部分G224とを示す図である。
【
図11】第2の実施の形態の眼科装置110のCPU16Aが実行する画像処理プログラムのフローチャートである。
【
図12】第3の実施の形態の眼科装置110のCPU16Aが実行する画像処理プログラムのフローチャートである。
【
図13】
図12のステップ422の劣化度スコア算出処理プログラムのフローチャートである。
【
図14】面積比と劣化度との関係を示すグラフである。
【
図15】第5の実施の形態の眼科システム1000の構成を示すブロック図である。
【
図16】第5の実施の形態の眼科システム1000の作用を示すタイミングチャートである。
【発明を実施するための形態】
【0008】
以下、図面を参照して本開示の技術の実施の形態を詳細に説明する。
【0009】
図1を参照して、本開示の技術の実施の形態に係る眼科システム100の構成について説明する。
図1は、本実施形態に係る眼科システム100の構成を示すブロック図である。
図1に示すように、眼科システム100は、眼科装置110と、ネットワーク130と、サーバ装置(以下、「サーバ」という)140と、画像表示装置(以下、「ビューワ」という)150とを備えて構成される。
眼科装置110は、本開示の技術の「画像処理装置」の一例である。
【0010】
眼科装置110、サーバ140、及びビューワ150は、ネットワーク130を介して、相互に接続されている。ネットワーク130は、LAN、WAN、インターネットや広域イーサ網等の任意のネットワークである。例えば、眼科システム100が1つの病院に構築される場合には、ネットワーク130にLANを採用することができる。
【0011】
眼科装置110は、被検眼を撮影すると共に、眼科に関する検査、測定、および治療の少なくともいずれかを実行する装置である。
サーバ140は、眼科装置110により被検眼が撮影されて得られた被検眼画像を、患者IDに対応して、ネットワーク130を介して受信し、メモリ164に格納する。よって、サーバ140のメモリ164には、各患者の患者IDに対応して、被検眼画像が記憶されている。また、サーバ140は、ビューワ150に、ネットワーク130を介して各種画像を送信する。
【0012】
ビューワ150は、タッチパネルやディスプレイ等であり、通信機能を有する。ビューワ150は、サーバ140により取得した眼底画像を表示する。
【0013】
なお、他の眼科機器(視野測定、眼圧測定などの検査機器)や人工知能を用いた画像解析を行う診断支援装置がネットワーク130を介して、眼科装置110、サーバ140、及びビューワ150に接続されていてもよい。
【0014】
次に、
図2を参照して眼科装置110の構成を説明する。
図2は、本実施形態に係る眼科装置110のハードウェア構成を示すブロック図である。
図2に示すように、眼科装置110は、撮影装置14及び制御装置16を含む。
【0015】
なお、眼科装置110が水平面に設置された場合の水平方向を「X方向」、水平面に対する垂直方向を「Y方向」とし、撮影光学系19の光軸方向を「Z方向」とする。方向の光軸上に被検眼の瞳孔27の中心が位置するように装置が被検眼12に対して配置される。X方向、Y方向、及びZ方向は互いに垂直である。
【0016】
制御装置16は、CPU(Central Processing Unit(中央処理装置))16A、RAM(Random Access Memory)16B、ROM(Read-Only memory)16C、入出力(I/O)16D、入力/表示装置16E、及び通信インターフェース(I/F)16Fを有するコンピュータを備える。制御装置16の各構成は、バスを介して相互に通信可能に接続されている。
【0017】
CPU16Aは、中央演算処理ユニットであり、各種プログラムを実行したり、画像処理を行ったり、各部を制御したりする。すなわち、CPU16Aは、ROM16Cからプログラムを読み出し、RAM16Bを作業領域としてプログラムを実行する。CPU16Aは、ROM16Cに記憶されているプログラムに従って、各構成の制御及び各種の演算処理を行う。本実施形態では、ROM16Cには、スキャン処理を実行するためのスキャンプログラムが記憶されている。
【0018】
RAM16Bは、作業領域として一時的にプログラム又はデータを記憶する。ROM16Cは、各種プログラム及び各種データを記憶する。なお、制御装置16は、更に、HDD(Hard Disk Drive)又はSSD(Solid State Drive)等の記憶装置により構成されるストレージを備える構成としてもよい。この場合、ストレージには、オペレーティングシステムを含む各種プログラム、及び各種データを記憶する。
【0019】
入力/表示装置16Eは、I/Oポート16Dを介してCPU16Aに接続される。入力/表示装置16Eは、被検眼12の画像を表示したり、ユーザから各種指示を受け付けたりするグラフィカルユーザインターフェース(GUI)を有する。GUIとしては、タッチパネルやディスプレイを採用することができる。
後述する
図7に示す画像処理プログラムは、ROM16Cに記憶されている。CPU16Aは、本開示の技術の「プロセッサ」の一例である。制御装置16は、本開示の技術の「コンピュータープログラム製品」の一例である。画像処理プログラムは、本開示の技術の「プログラム」の一例である。
【0020】
制御装置16は、通信インターフェース16Fを介してネットワーク130に接続する。通信インターフェース16Fは、他の機器と通信するためのインターフェースであり、例えば、イーサネット(登録商標)、FDDI、Wi-Fi(登録商標)等の規格が用いられる。
【0021】
なお、
図2では、眼科装置110の制御装置16が入力/表示装置16Eを備えているが、本開示の技術はこれに限定されない。例えば、眼科装置110の制御装置16は入力/表示装置16Eを備えず、眼科装置110とは物理的に独立した別個の入力/表示装置を備えるようにしてもよい。
【0022】
CPU16Aは、撮影装置14によって得られたデータに基づき被検眼12の画像を生成する。なお、CPU16Aとは別に図示せぬ画像処理プロセッサを設けてもよい。この場合、CPU16Aが当該画像処理プロセッサを制御し、撮影装置14によって得られたデータに基づき当該画像処理プロセッサが被検眼12の画像を生成するようにしてもよい。
【0023】
撮影装置14は、被検眼12の画像を撮影する。撮影装置14は、制御装置16の制御下で作動する。撮影装置14は、例えば眼底カメラ、走査型レーザ検眼鏡(Scanning Laser Ophthalmoscope)、OCT(Optical Coherence Tomography、光干渉断層計、以下、OCTと称する)撮像装置である。撮影装置14は、例えば被検眼の眼底を撮像し、後述する眼底画像や断層画像(OCT画像)を取得する。撮影装置14の画角は広角であることが好ましく、後述するように超広角であることが好ましい。その場合、得られた画像をUWF(Ultra Wide Field(超広角))眼底画像と呼んでもよい。超広角で眼底を撮影した画像については、以下UWF眼底画像と呼ぶ。
説明の便宜上、走査型レーザ検眼鏡(Scanning Laser Ophthal)を「SLO」と称する。本実施形態では撮影装置14は、撮影光学系19、SLOユニット18及びOCTユニット20を含む。SLOユニット18は被検眼12の眼底12Aの画像を取得する。OCTユニット20は被検眼12の断層画像を取得する。
【0024】
以下では、SLOユニット18により取得されたSLOデータに基づいて作成された網膜の正面視画像をSLO画像と称し、OCTユニット20により取得されたOCTデータに基づいて作成された網膜の断層画像や正面画像(en-face画像)等をOCT画像と称する。なお、SLO画像は、二次元眼底画像と言及されることもある。また、OCT画像は、被検眼12の撮影部位に応じて、眼底断層画像、後眼部断層画像、前眼部断層画像と言及されることもある。
【0025】
撮影光学系19自体は、CPU16Aの制御下で、図示しない撮影光学系駆動部によりX、Y、Z方向に移動される。撮影装置14と被検眼12とのアラインメント(位置合わせ)は、例えば、撮影装置14のみばかりではなく、眼科装置110全体をX、Y、Z方向に移動させることにより、行われてもよい。
【0026】
撮影光学系19は、第1スキャナ22、第2スキャナ24、光路合成素子21、及び対物光学系26を含む。光路合成素子21はハーフミラー又はビームスプリッタであり、第1スキャナ22及び第2スキャナ24は、二次元で走査可能な光学スキャナである。MEMSスキャナのように1つのデバイスで構成されたり、X方向に走査するガルバノミラーとY方向に走査するガルバノミラーとの2つのデバイスから構成されたり、してもよい。あるいはガルバノミラーとポリゴンミラーなどの組み合わせであってもよい。
撮影光学系19は、図示しないスリットミラー及びメインミラーを備えている。
【0027】
対物光学系26は、楕円鏡などの凹面ミラーを用いた反射光学系や、広角レンズなどを用いた屈折光学系、あるいは、凹面ミラーやレンズを組み合わせた反射屈折光学系でもよい。楕円鏡や広角レンズなどを用いた広角光学系を用いることにより、眼底中心部だけでなく眼底周辺部の網膜を撮影することが可能となる。
【0028】
撮影光学系19によって、眼底において広い画角(FOV:Fieldof View)での観察が実現される。FOVは、撮影装置14によって撮影可能な範囲を示している。FOVは、視野角として表現され得る。画角は、本実施の形態において、内部照射角と外部照射角とで規定され得る。外部照射角とは、眼科装置110から被検眼へ照射される光束の照射角を、瞳孔を基準として規定した照射角である。また、内部照射角とは、眼底12Aへ照射される光束の照射角を、眼球中心Oを基準として規定した照射角である。外部照射角と内部照射角とは、対応関係にある。例えば、外部照射角が120度の場合、内部照射角は約160度に相当する。本実施の形態では、内部照射角は200度としている。
【0029】
ここで、内部照射角で160度以上の撮影画角で撮影されて得られたSLO眼底画像をUWF-SLO眼底画像(UWF眼底画像)と称する。
【0030】
図3Aは、パッド330を装着した状態の眼科装置110により被検者12Hの被検眼12を撮影している様子が示されている。
図3Bには、パッド330の構成が示されている。
図3A及び
図3Bに示すように、眼科装置110には、撮影光学系19と被検眼12との間に、被検眼12の周辺部位が接触されている状態で、被検者の顔を保持するパッド330が設けられている。パッド330は、被検者の顔の一部が接触する接触部30を備える。パッド330は、眼科装置110の交換可能な部品である。
接触部30は、
図3Bでは点線の楕円で囲まれた領域である。接触部30は、比較的柔らかいプラスチックで構成され、撮影光学系19の光軸の方向及び/又は光軸の方向に交差する方向に弾性を有する。接触部30は、所定の厚さを有する。接触部30の中央には、光が通るための開口部32が形成されている。被検眼の撮影時には、被検者の被検眼12の周辺が接触部30に接触する。
【0031】
まず、SLO画像取得について説明する。
【0032】
SLOユニット18は、複数の光源を備えている。
図2に示すように、SLOユニット18は、B光(青色光)の光源40、G光(緑色光)の光源42、R光(赤色光)の光源44、及びIR光(赤外線(例えば、近赤外光))の光源46と、各光源40、42、44、46から出射された光を、反射又は透過して1つの光路に導く光学系48、50、52、54、56とを備えている。光学系48、50、56は、ミラーであり、光学系52、54は、ビームスプリッタ―である。B光は、光学系48で反射し、光学系50を透過し、光学系54で反射し、G光は、光学系50、54で反射し、R光は、光学系52、54を透過し、IR光は、光学系52、56で反射して、それぞれ1つの光路に導かれる。
【0033】
なお、光源40、42、44、46としては、LED光源や、レーザ光源を用いることができる。なお、以下には、レーザ光源を用いた例を説明する。光学系48、56として、全反射ミラーを用いることができる。また、光学系50、52、54として、ダイクロイックミラー、ハーフミラー等を用いることができる。
【0034】
SLOユニット18は、G光、R光、B光およびIR光をそれぞれ個別に発する発光モードや、それらすべてを同時にもしくは幾つかを同時に発する発光モードなど、各種発光モードを切り替え可能に構成されている。
図2に示す例では、B光(青色光)の光源40、G光の光源42、R光の光源44、およびIR光の光源46の4つの光源を備えるが、本開示の技術は、これに限定されない。例えば、SLOユニット18は、更に、白色光の光源を更に備えていてもよい。この場合、上記各種発光モードに加えて、白色光のみを発する発光モード等を設定してもよい。
【0035】
SLOユニット18から撮影光学系19に入射されたレーザ光は、撮影光学系19の第2スキャナ24によってX方向およびY方向に走査される。走査光は、光路合成素子21、対物光学系26、及び瞳孔27を経由して、被検眼12の後眼部(例えば、眼底12A)に照射される。眼底12Aにより反射された反射光は、瞳孔27及び撮影光学系19(対物光学系26、光路合成素子21、及び第2スキャナ24)を経由してSLOユニット18へ入射される。
【0036】
眼底12Aで反射された反射光は、SLOユニット18に設けられた光検出素子70、72、74、76で検出される。本実施形態では、複数の光源、すなわち、B光源40、G光源42、R光源44およびIR光源46に対応させて、SLOユニット18は、B光検出素子70、G光検出素子72、R光検出素子74およびIR光検出素子76を備える。B光検出素子70は、ビームスプリッタ64で反射されたB光を検出する。G光検出素子72は、ビームスプリッタ64を透過し、ビームスプリッタ58で反射されたG光を検出する。R光検出素子74は、ビームスプリッタ64、58を透過し、ビームスプリッタ60で反射されたR光を検出する。IR光検出素子76は、ビームスプリッタ64、58、60を透過し、ビームスプリッタ62で反射されたIR光を検出する。
【0037】
CPU16Aは、B光検出素子70、G光検出素子72、R光検出素子74、およびIR光検出素子76のそれぞれで検出された信号を用いて、各色に対応するSLO画像を生成する。各色に対応するSLO画像には、B光検出素子70で検出された信号を用いて生成されたB-SLO画像、G光検出素子72で検出された信号を用いて生成されたG-SLO画像、R光検出素子74で検出された信号を用いて生成されたR-SLO画像、及びIR光検出素子76で検出された信号を用いて生成されたIR-SLO画像である。また、B光源40、G光源42、R光源44が同時に発光する発光モードの場合、R光検出素子74、G光検出素子72、及びB光検出素子70で検出されたそれぞれの信号を用いて生成されたB-SLO画像、G-SLO画像およびR-SLO画像から、カラー画像であるRGB-SLO画像を合成してもよい。また、G光源42、R光源44が同時に発光する発光モードの場合、R光検出素子74及びG光検出素子72で検出されたそれぞれの信号を用いて生成されたG-SLO画像およびR-SLO画像から、RG-SLO画像を合成してもよい。
なお、作成したUWF-SLO眼底画像(UWF眼底画像)は、RAM16Bに記憶される。
【0038】
ビームスプリッタ58、60、62、64には、ダイクロイックミラー、ハーフミラー等を用いることができる。
【0039】
次にOCT画像取得について説明する。OCTシステムは、
図2に示す制御装置16、OCTユニット20、および撮影光学系19によって実現される三次元画像取得装置である。OCTユニット20は、光源20A、センサ(検出素子)20B、第1の光カプラ20C、参照光学系20D、コリメートレンズ20E、および第2の光カプラ20Fを含む。
【0040】
光源20Aは、光干渉断層撮影のための光を発生する。光源20Aは、広いスペクトル幅をもつ広帯域光源の低干渉性の光を発生する。光源20Aから射出された光は、第1の光カプラ20Cで分割される。分割された一方の光は、測定光として、コリメートレンズ20Eで平行光にされた後、撮影光学系19に入射される。測定光は、撮影光学系19の第1スキャナ22によってX方向およびY方向に走査される。走査光は、光路合成素子21、対物光学系26、及び瞳孔27を経由して、被検眼12の眼底12Aに照射される。被検眼12の眼底12Aで反射された測定光は、撮影光学系19(対物光学系26、光路合成素子21、及び第1スキャナ22)を経由してOCTユニット20へ入射され、コリメートレンズ20Eおよび第1の光カプラ20Cを介して、第2の光カプラ20Fに入射する。なお、本実施形態では、SD-OCTが例示されているが、これに限定されず、波長掃引光源を用いるSS-OCTであってもよい。
【0041】
光源20Aから射出され、第1の光カプラ20Cで分岐された他方の光は、参照光として、参照光学系20Dへ入射され、参照光学系20Dを経由して、第2の光カプラ20Fに入射する。
【0042】
被検眼12で反射および散乱された測定光(戻り光)と、参照光とは、第2の光カプラ20Fで合成されて干渉光が生成される。干渉光はセンサ20Bで検出される。CPU16Aは、センサ20Bからの検出信号(OCTデータ)に基づいて、フーリエ変換などの信号処理を行い、被検眼12の後眼部や前眼部の断層画像やOCTボリュームデータを生成する。
【0043】
なお、眼科装置110は、OCTユニット20を省略したSLOユニットだけの構成とすることが可能である。
【0044】
図4を参照して、サーバ140の構成を説明する。
図4に示すように、サーバ140は、制御ユニット160、及び表示/操作ユニット170を備えている。制御ユニット160は、CPU162を含むコンピュータ、記憶装置であるメモリ164、及び通信インターフェース(I/F)166等を備えている。なお、メモリ164には、
図6に示す画像処理プログラムが記憶されている。表示/操作ユニット170は、画像を表示したり、各種指示を受け付けたりするグラフィックユーザインターフェースであり、ディスプレイ172及びタッチパネル174を備えている。
【0045】
次に、
図5を参照して、眼科装置110のCPUが画像処理プログラムを実行することで実現される各種機能について説明する。画像処理プログラムは、画像取得機能、画像解析機能、及び画像処理機能を備えているCPU16Aがこの各機能を有する画像処理プログラムを実行することで、CPU16Aは、
図5に示すように、画像取得部302、画像解析部304、及び画像処理部306として機能する。
画像取得部302は、本開示の技術の「取得部」の一例である。画像解析部304は、本開示の技術の「判定部」の一例である。画像処理部306は、本開示の技術の「出力部」の一例である。
【0046】
次に、
図6を用いて、画像処理プログラムよる画像処理を詳細に説明する。眼科装置110のCPU16Aが画像処理プログラムを実行することで、
図6のフローチャートに示された画像処理(画像処理方法)が実現される。画像処理プログラムは、オペレータにより入力/表示装置16Eを介してスタートする指示がされると、スタートする。
【0047】
図6のステップ402で、画像取得部302は、RAM16Bから、眼科装置110を用いて被検眼12を撮影して得られた被検眼画像、例えば、UWF眼底画像500(
図7A参照)を取得する。
【0048】
図7Aに示すように、UWF眼底画像500は、被検眼の眼底などの被検眼領域が示される第1の画像領域500Aと、第1の画像領域500Aの周囲に位置する、第1の画像領域500A以外の第2の画像領域500B1から500B4と、を有する。
【0049】
第2の画像領域500B1は、被検眼12の眼底の中心に対して、右上側の領域に対応し、第2の画像領域500B2は、被検眼12の眼底の中心に対して、右下側の領域に対応する。第2の画像領域500B3は、被検眼12の眼底の中心に対して、左下側の領域に対応し、第2の画像領域500B4は、被検眼12の眼底の中心に対して、左上側の領域に対応する。
【0050】
図7Aには、パッド330の接触部30が劣化していない状態で、被検眼12を撮影して得られたUWF眼底画像500が示されている。
【0051】
第1の画像領域500Aは、被検眼12からの反射光により生成された画像領域である。つまり、第1の画像領域500Aは、被検眼12の眼底の画像領域である。
【0052】
第2の画像領域500B1から500B4は、被検眼以外からの反射光により生成された画像領域であり、被検者の瞼、まつ毛やパッド330の開口部32の辺縁領域からなる非被検眼領域である。また、第2の画像領域500B1から500B4は、検査対象である被検眼の眼底ではない背景領域あるいは非対象領域でもある。
【0053】
図6のステップ404で、画像解析部304は、UWF眼底画像500に基づいて、被検者の顔の一部が接触する部分である接触部30の劣化の度合いを判定する。具体的には、画像解析部304は、UWF眼底画像500への接触部30の映り込みに基づいて、パッド330の接触部30の劣化の度合いを判定する。より詳細には、画像解析部304は、UWF眼底画像500への接触部30の映り込み量に基づいて、接触部30の劣化の度合いを判定する。
【0054】
接触部30は、使用され続けると、劣化する。
例えば、
図3A、
図3Bに示すように、被検者12Hは、被検眼12の周辺をパッド330に押し当てた状態で、被検眼12の撮影に臨む。撮影時には、被検者12Hは、被検眼12の瞳が開口部32の中央に位置するように、顔を眼科装置110側に押し込む。これにより、パッド330の接触部30に圧力がかかり、接触部30が弾性変形する。この弾性変形は、被検眼12を撮影する毎に発生する。接触部30は、弾性変形しても、被検者12Hが顔を眼科装置110から外すと、元の形状に戻る。しかし、接触部30は、その形状が繰り返し弾性変形すると、物理的に劣化し、徐々に元の形状に戻らなくなり、伸びて、撓み、例えば、波打った形状にとなる。なお、物理的な劣化は、光照射、湿気、温度、及び接触部30に強い衝撃が加わっても生ずる場合がある。
【0055】
また、オペレータは、異なる被検者の被検眼を撮影する毎に、接触部30をアルコールや消毒液で除菌する。これにより、接触部30は、化学的に劣化し、異なる被検者の被検眼を撮影し続けると、徐々に元の形状に戻らなくなり、伸びた状態となる。
【0056】
このように接触部30が、物理的に劣化したり化学的に劣化したりして、伸びた状態となると、眼科装置110の撮影領域の外に位置していた接触部30が、撮影領域に侵入し、得られた眼底画像に接触部30が映るようになる。
【0057】
図7Bには、接触部30がある程度劣化し、接触部30が、UWF眼底画像500に映っている様子が示されている。
図7Bに示す例では、第2の画像領域500B1に、接触部30における被検眼12の右上の部分500C1が映っており、第2の画像領域500B4に、接触部30における被検眼12の左上の部分が映っている。なお、第2の画像領域500B2及び第2の画像領域500B3には、接触部30が映っていない。
【0058】
接触部30の劣化の度合いが大きくなるにつれて、第2の画像領域500B1から500B4の少なくとも何れかに接触部30が部分的に映り込む映り込み量が大きくなる。接触部30の部分の映り込み量が大きくなるにつれて、映り込む接触部30の部分のエッジ501の長さが大きくなり、エッジ501の所定位置(例えば、中央位置)がUWF眼底画像500の中心に近づき、エッジ501の所定位置とUWF眼底画像500の端部P1からP4の内のエッジ501に最も近い端部との距離が長くなり、映り込む接触部30の部分の面積が大きくなる。
【0059】
換言すると、映り込む接触部30の部分のエッジ501の長さの大きさ、UWF眼底画像500内のエッジ501の所定位置(例えば、中央位置)、エッジ501の所定位置とUWF眼底画像500の端部P1からP4の中のエッジに最も近い端部との距離、及び、映り込む接触部30の部分の面積の大きさから、接触部30の劣化の度合いが分かる。
【0060】
よって、本実施の形態では、
図8Aに示すように、映り込む接触部30の部分のエッジの長さと接触部30の劣化の度合いとの関係がグラフでROM16Cに記憶されている。なお、エッジ501の所定位置とUWF眼底画像500の端部P1からP4の中のエッジに最も近い端部との距離と接触部30の劣化の度合いとの関係がルックアップテーブルの形式でROM16Cに記憶されていてもよい。
【0061】
なお、UWF眼底画像500の各角(コーナー)を基準にした接触部30の映り込みの面積と劣化の度合いとの関係が、ROM16Cに記憶されていてもよい。
図8Bには、角P4を基準にした接触部30の映り込みを示す領域(R1、R2、R3、R4・・・)が示されている。映り込み面積と劣化度は
図9Cのグラフに示すような関係となっており、映り込み面積と劣化度との関係がルックアップテーブルの形式でROM16Cに記憶されていてもよい。
【0062】
図6のステップ404で、画像解析部304は、UWF眼底画像500に、映り込んでいる接触部30の部分を検出する。画像解析部304は、検出した接触部30の映り込んでいる部分のエッジを検出し、検出したエッジの長さを、上記映り込み量として、計算し、計算したエッジの長さと、エッジの長さと接触部30の劣化の度合いとの関係と、から、接触部30の劣化の度合いを判定する。
【0063】
ここで、UWF眼底画像500に映り込んでいる接触部30の部分を検出する方法は次の通りである。
【0064】
図9Aには、
図7Aに示す、パッド330の接触部30が劣化していない状態で、被検眼12を撮影して得られたUWF眼底画像500の左上角P4から右下角P2までの画像濃度が示されている。ここで、画像濃度値は、例えば、輝度、具体的には、明るさを示す値である。
図9Aに示すように、パッド330の接触部30が劣化していないので、UWF眼底画像500には、接触部30の映り込みがない。よって、UWF眼底画像500の第1の画像領域500Aの部分G1の画像濃度値のみが、他の部分G2よりも大きい。
【0065】
図9Bには、
図7Bに示す、接触部30がある程度劣化し、接触部30が映っているUWF眼底画像500の左上角P4から右下角P2までの画像濃度が示されている。
図9Bに示すように、第2の画像領域500B1に、接触部30における被検眼12の右上の部分500C1が映っているが、第2の画像領域500B2には、接触部30が映っていない。よって、第1の画像領域500Aの部分G1の他に、第2の画像領域500B1における接触部30が映っている部分G21の画像濃度値が、接触部30が映っていない部分G22よりも、大きい。
【0066】
図9A及び
図9Bから理解されるように、予め定められる第1の画像領域500Aの部分G1の他に、画像濃度値が比較的大きい部分があると、その部分は、接触部30が映っている部分であると判断できる。
【0067】
そこで、画像解析部304は、第1の画像領域500Aの部分G1の他に、画像濃度値が比較的大きい部分を、接触部30の映り込みがある部分として、検出する。なお、画像解析部304は、第1の画像領域500Aの部分G1の他に、画像濃度値が比較的大きい部分がなければ、接触部30の映り込みがないと判断する。
【0068】
そして、画像解析部304は、検出した接触部30の部分で、隣接する画素の濃度値との差が一定値以上の画素を検出することにより、エッジ501を検出する。画像解析部304は、検出したエッジ501の画素数から、エッジ501の長さを計算する。画像解析部304は、ROM16Cから、エッジの長さと接触部30の劣化の度合いとの関係のグラフを読み出し、読み出したグラフと、計算したエッジの長さとから、接触部30の劣化の度合いを判定する。
【0069】
上記のように、
図8Bに示すように、UWF眼底画像500の角P4を基準にした接触部30の劣化の度合いを示す領域がROM16Cに記憶されていてもよい。この場合、ステップ404で、画像解析部304は、UWF眼底画像500に映り込んでいる接触部30の部分を上記のように検出する。画像解析部304は、検出した接触部30の部分のエッジを上記のように検出し、検出したエッジの所定位置、例えば、中央位置を、上記映り込み量として、検出する。画像解析部304は、ROMに記憶されている、当該エッジに最も近い端部を基準にした、領域毎の劣化の度合いと、検出した中央位置とから、接触部30の劣化の度合いを判定する。具体的には、画像解析部304は、検出した中央位置が、ROM16Cに記憶されている、当該エッジに最も近い端部を基準にした、領域のどの領域に位置するのかを判定し、判定した領域から、当該領域の劣化の度合いを判定する。
【0070】
また、上記のように、エッジ501の所定位置、例えば、中央位置と、UWF眼底画像500の端部(当該エッジに最も近い端部)との距離と接触部30の劣化の度合いとの関係がルックアップテーブルでROM16Cに記憶されていてもよい。この場合、ステップ404で、画像解析部304は、UWF眼底画像500に映り込んでいる接触部30の部分を上記のように検出する。画像解析部304は、検出した接触部30の部分のエッジを上記のように検出し、検出したエッジの所定位置、例えば、中央位置とUWF眼底画像500の端部P1からP4の当該エッジに最も近い端部との距離を、上記映り込み量として、計算する。画像解析部304は、ROMに記憶されている距離と劣化の度合いとの関係と、計算した距離とから、接触部30の劣化の度合いを判定する。具体的には、画像解析部304は、ROMに記憶されている上記関係から、計算した距離に対応する接触部30の劣化の度合いを判定する。
【0071】
上記のように、
図9Cに示すように、映り込む接触部30の部分の面積と接触部30の劣化の度合いとの関係がルックアップテーブルでROM16Cに記憶されていてもよい。接触部30の劣化が進みむにつれて、
図10Aから
図10Dにも示すように、第1の画像領域500Aの部分G1の他に、第2の画像領域500B1において、接触部30が映っている部分G211、G212、G213、G214が、映っていない部分G221、G222、G223、G224より大きくなる。例えば、
図10Aから
図10Dはそれぞれ、劣化の度合いが、R1からR4として定められている。ステップ404で、画像解析部304は、UWF眼底画像500において、接触部30の部分を検出する。画像解析部304は、UWF眼底画像500の画像濃度分布、より具体的には、検出した接触部30の部分の画素数から、映っている接触部30の面積を、上記映り込み量として、計算する。画像解析部304は、映り込む接触部30の部分の面積と接触部30の劣化の度合いとの関係と、計算された面積とから、接触部30の劣化の度合いを判定する。
【0072】
図6のステップ406で、画像処理部306は、ステップ404で判定された劣化の度合いに基づく動作を実行する。画像処理部306は、接触部30の劣化の度合いを出力する。より詳細には、画像処理部306は、接触部30の劣化の度合いを、入力/表示装置16Eに表示する。また、画像処理部306は、接触部30の劣化の度合いを、UWF眼底画像500と共に、サーバ140に送信する。サーバ140は、UWF眼底画像500と共に、接触部30の劣化の度合いを、メモリ164に記憶する。また、画像処理部306は、接触部30の劣化の度合いを、ビューワ150に送信する。ビューワ150は、接触部30の劣化の度合いを、ディスプレイ172(
図4)に表示する。
【0073】
本実施の形態では、接触部の劣化の度合いと接触部の交換時期とを対応して、ROMに記憶してもよい。この場合、ステップ406では更に、画像処理部306は、接触部30の劣化の度合いと、ROMに記憶されている交換時期の情報とから、接触部30の交換時期を判断する。
【0074】
画像処理部306は、さらに、接触部30の交換時期の情報及び眼科装置110の製品型番を含む眼科装置情報を、所定の注文先又は修理センターに、電子メールで送付する。この電子メールを受信した注文先又は修理センターの端末装置は、眼科装置情報に基づいて、接触部30の交換が必要な眼科装置110のユーザの情報を表示する。この表示内容を閲覧した注文先又は修理センターの担当者は、当該ユーザに、交換用の接触部を、交換時期までに発送する。
このように、注文先又は修理センターの担当者は、ユーザに直接面談や電話などで眼科装置110の状態を確認することなく、ユーザの使用状況を把握することができ、適切なタイミングで、交換が必要な部品を発送することができる。
【0075】
以上説明したように、第1の実施の形態では、UWF眼底画像500からパッド330の接触部30の劣化を検知することができる。
【0076】
第1の実施の形態では、
図6の画像処理は、眼底の撮影が終了した後に実行されるが、本開示の技術はこれに限定されない。眼底を撮影しながら、
図6の画像処理が実行されるようにしてもよい。これにより、眼底を撮影しながら、パッド330の接触部30の劣化を検知することができる。
【0077】
次に、第2の実施の形態を説明する。第2の実施の形態の構成は、第1の実施の形態の構成と同様であるので、その説明を省略する。以下、第2の実施の形態の画像処理を、
図10を用いて説明する。
【0078】
図10のステップ412で、画像取得部302は、UWF眼底画像500を取得する。ステップ414で、画像解析部304は、UWF眼底画像500の上記濃度値に基づいて、第1の画像領域500Aの部分G1の他に、濃度値が比較的大きい部分があるか否かを判断する。これにより、UWF眼底画像500の第2の画像領域500B1から500B4の何れかに、パッド330の接触部30の映り込みがあるか否かを判断する。
【0079】
ステップ414で、UWF眼底画像500の第2の画像領域500B1から500B4の何れかに、パッド330の接触部30の映り込みがあると判断されなければ、本画像処理は、ステップ418に進む。
【0080】
しかし、ステップ414で、UWF眼底画像500の第2の画像領域500B1から500B4の何れかに、パッド330の接触部30の映り込みがあると判断された場合には、ステップ416で、画像処理部306は、画像処理アルゴリズムを変更する。
【0081】
一例として、眼科装置110は、複数の異なる画像処理アルゴリズムを記憶している。複数の異なる画像処理アルゴリズムは、少なくとも、パッド330の接触部30の映り込みがない場合の画像処理アルゴリズムと、パッド330の接触部30の映り込みがある場合の画像処理アルゴリズムとを含む。パッド330の接触部30の映り込みの有無に応じて、複数の異なる画像処理アルゴリズムの中から適した画像処理アルゴリズムを選択する。パッド330の接触部30の映り込みがある場合の画像処理アルゴリズムとしては、例えば、パッド330の接触部30の映り込みがある部分を除く部分で画像処理を実行するような画像処理アルゴリズムや、画像データから、パッドの接触部30の画像部分を除去させるような画像処理アルゴリズムがあげられる。
【0082】
ステップ418で、画像処理部306は、画像処理アルゴリズムに基づく画像処理の結果得られたデータを解析し、解析結果を、入力/表示装置16Eに表示する。なお、ステップ416の処理が実行された場合には、画像処理アルゴリズムは、上記のように変更されている。
【0083】
ステップ420で、画像処理部306は、画像処理アルゴリズムに基づいて画像処理されたデータを、RAM16Bに保存する。
【0084】
以上説明したように、第2の実施の形態は、パッド330の接触部の映り込みのあるUWF眼底画像について、パッドの接触部分の画像部分を除いて画像処理を実行するので、眼底画像について精度良く画像処理を実行することができる。
【0085】
次に、第3の実施の形態を説明する。第3の実施の形態の構成は、第1の実施の形態の構成と同様であるので、その説明を省略する。以下、第3の実施の形態の画像処理を、
図11を用いて説明する。
【0086】
図12のステップ412、414の処理が実行され、ステップ414が否定判定の場合、画像処理は、ステップ426に進む。
図12のステップ412、414の処理が実行された後、ステップ414が肯定判定の場合、ステップ422で、画像解析部304は、劣化の度合いを算出する。ステップ422の処理の詳細は、
図13に示されている。
【0087】
図13のステップ432で、画像解析部304は、UWF眼底画像500に映り込んでいる接触部30の部分の領域を検出する。
【0088】
ステップ434で、画像解析部304は、パッド330の接触部30の領域の面積を計算する。
【0089】
ステップ438で、画像解析部304は、接触部30の劣化の度合いを算出する。
図14に示すように、UWF眼底画像500に映り込んでいる接触部30の部分の領域の面積と劣化の度合いとの関係がグラフでROMに予め記憶されている。画像解析部304は、ROMから、接触部30の領域の面積と劣化の度合いとの関係のグラフを読出し、ステップ434で計算された接触部30の領域の面積と、読み出したグラフとから、接触部30の劣化の度合いを算出する。
【0090】
ステップ440で、画像解析部304は、ステップ438で算出された劣化の度合いが、
図14に示す所定の閾値D0を超えているか否かを判断することにより、パッドの接触部30の劣化を判定する。
ここで、劣化の度合いは、UWF眼底画像500に映り込んでいる接触部30の部分の領域の面積が大きくなるに従って、大きくなり、当該面積が、接触部30の映り込みが第1の画像領域500Aに到達する所定値S2の場合に、パッドの接触部0が使用不可(即ち、交換が必要)を示す値(所定の閾値D0)となるように、定められている。
【0091】
ステップ440の劣化の判定の処理が終了すると、
図12のステップ422の処理が終了し、画像処理は、ステップ424に進む。
【0092】
ところで、本開示の技術では、パッドの接触部30の状態(例えば、劣化)の判定を、劣化の度合いに基づいて行うことに限定されない。劣化の度合いが所定の閾値D0の場合の上記面積比はS2であるので、ステップ438を省略し、ステップ440では画像処理部306は、面積比がS2以上か否かを判断することにより、劣化を判断してもよい。
【0093】
ステップ424で、画像処理部306は、劣化の度合いを含む画像解析結果をサーバ140に送信する。サーバ140は、劣化の度合いを含む画像解析結果をメモリ164に記憶する。
【0094】
ステップ426で、画像処理部306は、パッドの接触部30の劣化の度合いに応じたデータ解析及び表示等を行う。
具体的には、UWF眼底画像500に接触部30が映り込んでいる場合には、画像処理部306は、接触部30の劣化の度合いに応じた警告内容を取得し、入力/表示装置16Eに警告内容を表示する。具体的には、例えば、接触部30の劣化の度合いに応じて警告内容が予め定められ、ROM16Cに保存されている。画像処理部306は、ステップ422で算出された接触部30の劣化の度合いに対応する警告内容を取得し、取得した警告内容を入力/表示装置16Eに表示する。
しかし、UWF眼底画像500に接触部30が映り込んでいない場合には、接触部30の状態に問題のない内容を入力/表示装置16Eに表示する。なお、UWF眼底画像500に接触部30が映り込んでいない場合には、入力/表示装置16Eに何も表示しないようにしてもよい。
【0095】
ステップ428で、画像処理部306は、パッド330の接触部30の劣化の度合い及び表示内容を、RAM16Bに保存する。
【0096】
ところで、第1の実施の形態で説明したように、本実施の形態でも、パッド330の接触部30の劣化の度合いと、パッド330の交換時期との関係がROM16Cに予め記憶されている。ステップ426では更に、画像処理部306は、上記算出されたパッド330の接触部30の劣化の度合いと上記関係とに基づいて、パッド330の交換時期を判断する。画像処理部306は、パッド330の交換時期の情報及び眼科装置110の製品型番を含む眼科装置情報を、所定の注文先又は修理センターに、電子メールで送付する。この電子メールを受信した注文先又は修理センターの端末装置は、眼科装置情報に基づいて、接触部30の交換が必要な眼科装置110のユーザの情報を表示する。この表示内容を閲覧した注文先又は修理センターの担当者は、当該ユーザに、交換用の接触部を、交換時期までに発送する。
【0097】
以上説明したように、第3の実施の形態は、UWF眼底画像500から接触部30の劣化の度合いを算出することにより、パッドの接触部30の劣化をより精度良く検知することができる。
【0098】
上記各例では、画像処理(
図6、
図10から
図12)は、眼科装置110が実行しているが、本開示の技術はこれに限定されず、サーバ140、ビューワ150、又は、ネットワーク130に更に設けた別の画像処理装置が実行してもよい。
【0099】
第4の実施の形態を説明する。第4の実施の形態の構成は、第1の構成と同様の部分を有するので、同一の部分には同一の符号を付して、その説明を省略する。
図15は、第4の実施の形態の眼科システム1000の構成を示すブロック図である。眼科システム1000は、拠点Aに配置された眼科装置110と、ネットワーク130と、拠点B(即ち、修理センター)に配置された端末装置700と、拠点Cに配置されたサーバ1400と、を備えて構成される。拠点A、拠点B、及び拠点Cは、互いに物理的に離間した位置に位置する。よって、眼科装置110、端末装置700、及びサーバ1400は、離間した位置に位置する。眼科装置110 、サーバ1400、及び端末装置700は、ネットワーク130を介して、相互に接続されている。
【0100】
端末装置700は、修理センターにあり、具体的には、コンピュータで構成された制御ユニット702を備えている。制御ユニット702には、入出力(I/O)ポート704を介して、ディスプレイ706と、マウス等の操作部708とが接続されている。制御ユニット702は、図示しない通信インターフェースを備え、通信インターフェース及びネットワーク130を介して眼科装置110及びサーバ1400に相互に通信可能に接続されている。
【0101】
サーバ1400は、メンテナンススタッフによって監視されている。メンテナンススタッフとは、眼科装置110のメンテナンスに精通しており、部品の状態情報に基づいて、適切な眼科装置110のメンテナンス方法を選択することが可能な人を指す。サーバ1400は、画像処理装置140Aと情報処理装置140Bとを備える。画像処理装置140Aは、コンピュータで構成されている。情報処理装置140Bは、コンピュータで構成された制御ユニット140B1を備える。制御ユニット140B1は、CPU140B11と、記憶装置140B12と、AIエンジン(artificial intelligenceエンジン、人工知能処理部)140B13と、を備える。
なお、AIエンジン140B13は、本開示の技術の「人口知能」の一例である。
【0102】
画像処理装置140Aは、図示しない通信インターフェースを備え、通信インターフェース及びネットワーク130を介して眼科装置110及び端末装置700と、通信インターフェースを介して情報処理装置140Bと、に相互に通信可能に接続されている。
【0103】
制御ユニット140B1は、図示しない通信インターフェースを備え、通信インターフェース及びネットワーク130を介して眼科装置110及び端末装置700と、通信インターフェースを介して画像処理装置140Aと、に相互に通信可能に接続されている。
【0104】
制御ユニット140B1の上記記憶装置140B12には、眼科装置110の接触部30の劣化の度合いを判定するための基準情報を記憶している。基準情報は、接触部30に劣化がない状態で得られた第1の眼科画像と、接触部30に程度の異なる複数の劣化の各々が生じている状態で得られた複数の第2の眼科画像である。また、記憶装置140B12は複数のモダリティの眼科装置の各々で取得された基準情報を備えてもよい。
【0105】
第4の実施の形態の作用を説明する。眼科システム1000は、眼科装置110の接触部30の劣化を判定する眼科装置管理方法を実行する。眼科装置管理方法は、眼科装置110を用いて撮影された被検眼画像を取得する取得ステップと、被検眼画像に基づいて、眼科装置110の接触部30の劣化を判定する判定ステップと、画像処理装置140Aが上記接触部30の劣化の判定結果を含む眼科装置情報を送信するステップと、を含む。以下、
図16に示す、第4の実施の形態のタイミングチャートを参照して詳細に説明する。
【0106】
図16に示すように、ステップ1001で、眼科装置110は、被検眼の眼底を撮像した被検眼画像を撮影し、被検眼画像データを、画像処理装置140Aに送信する。画像処理装置140Aは、ステップ1011で、被検眼画像データを取得し、被検眼画像データを情報処理装置140Bに送信する。
【0107】
ステップ1002で、眼科装置110は、眼科装置110の識別情報である装置情報をROM16Cから読み出し、読み出した装置情報を、入力/表示装置16Eに表示すると共に、装置識別情報を画像処理装置140Aに送信する。画像処理装置140Aは、ステップ1012で、装置情報を取得し、装置情報を情報処理装置140Bに送信する。
【0108】
情報処理装置140Bは、ステップ1021、1022でそれぞれ、被検眼画像データ、装置情報を受信する。
【0109】
情報処理装置140BのAIエンジン140B13は、ステップ1023で、眼科装置110の接触部30の劣化の度合いを示す状態情報を生成する。
具体的には、まず、AIエンジン140B13は、AIモデル、例えば、畳み込みニューラルネットワークを有する。本実施の形態では、畳み込みニューラルネットワークは、基準情報の第1の眼底画像および第2の眼底画像を組み合わせた情報により、予め機械学習されている。
畳み込みニューラルネットワークは、本開示の技術の「学習モデル」の一例である。
【0110】
AIエンジン140B13は、ステップ1023で、記憶装置140B12に記憶している基準情報及び眼科装置110から送信された被検眼画像を畳み込みニューラルネットワークに入力し、畳み込みニューラルネットワークから接触部30の劣化の度合いを出力させる。具体的には、AIエンジン140B13は、眼科装置110から送信された被検眼画像と、記憶装置140B12から読み出した基準情報とをAIモデルに入力する。なお、記憶装置140B12から読み出される基準情報は、取得された被検眼画像に応じて選択される。例えば、記憶装置140B12から読み出される基準情報は、取得された被検眼画像と同じモダリティ(Modality:種類)の眼科装置で取得された眼科画像に基づく情報である。たとえば、取得された被検眼画像がOCT画像である場合には基準情報もOCT画像が選択される。
【0111】
畳み込みニューラルネットワークは、入力された基準情報と被検眼画像とを比較し、基準情報と被検眼画像との差分を特定する。
【0112】
より具体的には、畳み込みニューラルネットワークは、被検眼画像と第1の眼科画像との、画素値(例えば、輝度値)に基づく特徴量の第1の差分を特定する。当該第1の差分が第1の所定値未満であれば、接触部30は劣化していないことを示す劣化の度合い(劣化度=0)を示す状態情報を出力する。よって、複数の第2の眼科画像の各々との差分を特定しない。よって、計算処理が省略される。
【0113】
しかし、第1の差分が第1の所定値以上であれば、畳み込みニューラルネットワークは、被検眼画像情報と複数の第2の眼科画像の各々との画素値(例えば、輝度値)に基づく特徴量の第2の差分を特定する。畳み込みニューラルネットワークは、特定した各第2の差分に基づいて、接触部30の劣化の度合いを示す状態情報を出力する。
【0114】
情報処理装置140Bは、ステップ1024で、状態情報を、端末装置700に送信し、端末装置700は、ステップ1031で、状態情報を受信する。なお、情報処理装置140Bは、状態情報を、眼科装置110に送信してもよい。
【0115】
端末装置700は、ステップ1032で、状態情報をディスプレイ706に表示する。
【0116】
端末装置700は、ステップ1033で、状態情報に応じた指示情報を生成する。例えば、状態情報が、眼科装置110の接触部30の交換が必要な程度の劣化を示している場合には、端末装置700は、接触部30の交換を指示する指示情報を生成する。このように指示情報は、接触部30の劣化に対処する対処情報でもある。指示情報は、例えば、「修理センターに電話かけて」などでもよい。また、端末装置700が自動的に生成することに代えて、メンテナンススタッフがマニュアルで入力するようにしてもよい。
また、端末装置700は、ステップ1033で、状態情報に応じて、接触部30の寿命を予測してもよい。
【0117】
端末装置700は、ステップ1034で、指示情報を、情報処理装置140Bに送信する。情報処理装置140Bは、ステップ1025で、指示情報を受信し、ステップ1026で、指示情報を画像処理装置140Aに送信する。
【0118】
画像処理装置140Aは、ステップ1013で、指示情報を受信し、ステップ1014で、指示情報を眼科装置110に送信し、ステップ1015で、指示情報をメモリに記憶する。
【0119】
ステップ1003で、眼科装置110は、指示情報を受信し、ステップ1004で、指示情報を、入力/表示装置16Eに表示する。上記のように、接触部30の交換が指示情報として指示されている場合、当該指示情報が表示されるので、ユーザは、接触部30が劣化していること、及び接触部30を交換する必要があることを知ることができる。
【0120】
第4の実施の形態は、ユーザが接触部30に劣化が生じていることに気が付いていない場合等の、ユーザからの連絡がない場合や、メーカーの定期的な技術出動を行っていない場合にも、接触部30に劣化が生じていることを検知することができる。
【0121】
ところで、上記のように、端末装置700は、ステップ1032で、状態情報をディスプレイ706に表示する。端末装置700のメンテナンススタッフは、表示された状態情報を、操作部708を介して、修正することができる。状態情報が修正された場合、修正された状態情報は、眼科装置110に送信される。
【0122】
修正された状態情報と劣化度に関する情報とが関連付けられてAIエンジン140B13にフィードバックするようにしてもよい。AIエンジン140B13が有する学習済みAIモデルでは、教師データとして、フィードバックされた修正済みの状態情報と、これに関連付けられた劣化度に関する情報とを、用いて学習することで、劣化度の推定の精度を向上させることができる。
【0123】
AIエンジン140B13はさらに、劣化度に関する状態情報と、状態情報に基づいて予測される接触部30の寿命と、実際の接触部30が使用不可能となるまでの期間とから、接触部30の寿命予測の精度を高めるようにしてもよい。
【0124】
なお、AIエンジン140B13が、接触部30の交換等の今後すべき対応を提示するようにしてもよい。
【0125】
以上説明したように、第4の実施の形態は、適切なタイミングで、眼科装置とは別拠点にあるサーバ1400が眼科装置110の接触部30の交換を指示したり、ユーザが眼科装置110のメンテナンスを行ったり、することができる。
【0126】
本開示において、各構成要素(装置等)は、矛盾が生じない限りは、1つのみ存在しても2つ以上存在してもよい。
【0127】
以上説明した各例では、コンピュータを利用したソフトウェア構成により画像処理が実現される場合を例示したが、本開示の技術はこれに限定されるものではない。例えば、コンピュータを利用したソフトウェア構成に代えて、FPGA(Field-Programmable Gate Array)またはASIC(Application Specific Integrated Circuit)等のハードウェア構成のみによって、画像処理が実行されるようにしてもよい。画像処理のうちの一部の処理がソフトウェア構成により実行され、残りの処理がハードウェア構成によって実行されるようにしてもよい。
【0128】
このように本開示の技術は、コンピュータを利用したソフトウェア構成により画像処理が実現される場合とされない場合とを含むので、以下の技術を含む。
【0129】
(第1の技術)
眼科装置を用いて被検者の被検眼を撮影した被検眼画像を取得する取得部と、
前記被検眼画像に基づいて、前記眼科装置の前記被検者の顔の一部が接触する部品の劣化を判定する判定部と、
を含む、画像処理装置。
【0130】
(第2の技術)
取得部が、眼科装置を用いて被検者の被検眼を撮影した被検眼画像を取得するステップと、
判定部が、前記被検眼画像に基づいて、前記眼科装置の前記被検者の顔の一部が接触する部品の劣化を判定するステップと、
を含む、画像処理方法。
【0131】
(第3の技術)
画像処理するためのコンピュータープログラム製品であって、
前記コンピュータープログラム製品は、それ自体が一時的な信号ではないコンピュータ可読記憶媒体を備え、
前記コンピュータ可読記憶媒体には、プログラムが格納されており、
前記プログラムは、
コンピュータに、
眼科装置を用いて被検者の被検眼を撮影した被検眼画像を取得するステップと、
前記被検眼画像に基づいて、前記眼科装置の前記被検者の顔の一部が接触する部品の劣化を判定するステップと、
を実行させる、
コンピュータープログラム製品。
【0132】
以上説明した各画像処理はあくまでも一例である。従って、主旨を逸脱しない範囲内において不要なステップを削除したり、新たなステップを追加したり、処理順序を入れ替えたりしてもよいことは言うまでもない。
本明細書に記載された全ての文献、特許出願、及び技術規格は、個々の文献、特許出願、及び技術規格が参照により取り込まれることが具体的にかつ個々に記載された場合と同様に、本明細書中に参照により取り込まれる。
【符号の説明】
【0133】
14 撮影装置
16 制御装置
100 眼科システム
110 眼科装置
140 サーバ
150 ビューワ
302 画像取部
304 画像解析部
306 画像処理部
700 端末装置
1000 眼科システム
1400 サーバ
140A 画像処理装置
140B 情報処理装置