IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 株式会社ニコンの特許一覧 ▶ 株式会社シンクアウトの特許一覧

特許7579889画像処理方法、プログラム、画像処理装置、眼科システム
<>
  • 特許-画像処理方法、プログラム、画像処理装置、眼科システム 図1
  • 特許-画像処理方法、プログラム、画像処理装置、眼科システム 図2
  • 特許-画像処理方法、プログラム、画像処理装置、眼科システム 図3
  • 特許-画像処理方法、プログラム、画像処理装置、眼科システム 図4
  • 特許-画像処理方法、プログラム、画像処理装置、眼科システム 図5
  • 特許-画像処理方法、プログラム、画像処理装置、眼科システム 図6
  • 特許-画像処理方法、プログラム、画像処理装置、眼科システム 図7
  • 特許-画像処理方法、プログラム、画像処理装置、眼科システム 図8
  • 特許-画像処理方法、プログラム、画像処理装置、眼科システム 図9
  • 特許-画像処理方法、プログラム、画像処理装置、眼科システム 図10
  • 特許-画像処理方法、プログラム、画像処理装置、眼科システム 図11
  • 特許-画像処理方法、プログラム、画像処理装置、眼科システム 図12
  • 特許-画像処理方法、プログラム、画像処理装置、眼科システム 図13
  • 特許-画像処理方法、プログラム、画像処理装置、眼科システム 図14
  • 特許-画像処理方法、プログラム、画像処理装置、眼科システム 図15
  • 特許-画像処理方法、プログラム、画像処理装置、眼科システム 図16
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-10-30
(45)【発行日】2024-11-08
(54)【発明の名称】画像処理方法、プログラム、画像処理装置、眼科システム
(51)【国際特許分類】
   A61B 3/10 20060101AFI20241031BHJP
【FI】
A61B3/10 300
【請求項の数】 16
(21)【出願番号】P 2022576259
(86)(22)【出願日】2021-01-19
(86)【国際出願番号】 JP2021001731
(87)【国際公開番号】W WO2022157838
(87)【国際公開日】2022-07-28
【審査請求日】2023-07-13
(73)【特許権者】
【識別番号】000004112
【氏名又は名称】株式会社ニコン
(73)【特許権者】
【識別番号】518148973
【氏名又は名称】株式会社シンクアウト
(74)【代理人】
【識別番号】110000176
【氏名又は名称】弁理士法人一色国際特許事務所
(72)【発明者】
【氏名】田邉 泰士
(72)【発明者】
【氏名】向井 真梨子
(72)【発明者】
【氏名】吉 媛テイ
(72)【発明者】
【氏名】田淵 仁志
【審査官】後藤 昌夫
(56)【参考文献】
【文献】特開2020-058647(JP,A)
【文献】特開2019-202229(JP,A)
【文献】特開2018-020024(JP,A)
【文献】特開2014-110884(JP,A)
【文献】米国特許第08879813(US,B1)
(58)【調査した分野】(Int.Cl.,DB名)
A61B 3/00-3/18
(57)【特許請求の範囲】
【請求項1】
眼科装置で撮影して得られた広角眼底画像を取得する処理と、
異常所見が付与された前記広角眼底画像から複数の部分画像を抽出する処理と、
前記異常所見の根拠となる異常領域が示される第一部分画像を前記複数の部分画像から選択する選択処理と、
前記第一部分画像を表示する表示処理と、
を含む画像処理方法。
【請求項2】
前記表示処理は、前記複数の部分画像のうち、前記異常領域が示されない第二部分画像を、前記第一部分画像と同時に表示する処理である請求項1に記載の画像処理方法。
【請求項3】
前記表示処理は、前記第一部分画像と前記第二部分画像とを異なる表示形態で表示する処理である請求項2に記載の画像処理方法。
【請求項4】
前記表示処理は、前記第一部分画像を前記第二部分画像よりも大きいサイズで表示する請求項3に記載の画像処理方法。
【請求項5】
前記表示処理は、前記第一部分画像から前記異常領域を抽出し、前記第二部分画像よりも高い表示倍率で前記異常領域を表示する請求項3または請求項4に記載の画像処理方法。
【請求項6】
前記表示処理は、前記広角眼底画像における前記第一部分画像の位置を表示する位置表示画像を、前記第一部分画像と同時に表示する処理である請求項1から請求項5のいずれか一項に記載の画像処理方法。
【請求項7】
前記第一部分画像の中の前記異常領域を強調表示する処理をさらに含む、請求項1ないし6のいずれか1に記載の画像処理方法。
【請求項8】
前記強調表示は、前記異常所見の種別に応じて変更される、請求項7に記載の画像処理方法。
【請求項9】
異常所見を推定する推定器に前記広角眼底画像を入力する処理と、
前記推定器に、前記広角眼底画像における前記異常所見を推定させる推定処理と、をさらに含む、請求項1から8のいずれか一項に記載の画像処理方法。
【請求項10】
前記推定器は、異常所見を推定する学習済みモデルである、請求項9に記載の画像処理方法。
【請求項11】
前記広角眼底画像について異常所見に関するアノテーションの追加を受け付ける処理と、
前記アノテーションと前記広角眼底画像とにより前記学習済みモデルを再学習させる処理と、をさらに含む請求項10に記載の画像処理方法。
【請求項12】
前記推定処理は、前記推定器に前記異常所見の深刻度を推定させる処理をさらに含み、
前記表示処理は、
前記深刻度に応じて前記第一部分画像の表示方法を変更する処理を含む、請求項9から11のいずれか一項に記載の画像処理方法。
【請求項13】
前記広角眼底画像での前記異常領域の位置に対してOCTシステムによる撮影を行い、前記位置における断層画像を取得する処理と、
をさらに含む、請求項1から12のいずれか1項に記載の画像処理方法。
【請求項14】
請求項1から13のいずれか1項に記載の画像処理方法を、コンピュータに実行させるプログラム。
【請求項15】
請求項1から13のいずれか1項に記載の画像処理方法を実行する処理部を備える、画像処理装置。
【請求項16】
請求項1から13のいずれか1項に記載の画像処理方法を実行する処理部を備える、眼科システム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、画像処理方法、プログラム、画像処理装置、及び眼科システムに関する。
【背景技術】
【0002】
従来、眼底画像中の詳細観察のため、ユーザの操作により拡大画像を表示する方法が知られている(例えば、特許文献1参照)。
【先行技術文献】
【特許文献】
【0003】
【文献】米国特許出願公開第2020/0069175号明細書
【発明の概要】
【0004】
本開示の技術は、新規な画像処理方法を提供する。
【課題を解決するための手段】
【0005】
本発明の一実施態様は、眼科装置で撮影して得られた広角眼底画像を取得する処理と、異常所見が付与された前記広角眼底画像から複数の部分画像を抽出する処理と、前記異常所見の根拠となる異常領域が示される第一部分画像を前記複数の部分画像から選択する選択処理と、前記第一部分画像を表示する表示処理と、を含む画像処理方法である。
【図面の簡単な説明】
【0006】
図1】第1実施形態に係る情報処理システムの全体構成図である。
図2】第1実施形態に係る情報処理装置のハードウェア構成を示す図である。
図3】第1実施形態に係る眼科装置の構成を示す図である。
図4】第1実施形態に係るサーバの機能構成を示す図である。
図5】第1実施形態に係る検出部の構成を示す図である。
図6】第1実施形態に係る処理概要を示すフローチャートである。
図7】第1実施形態に係る推定処理を示すフローチャートである。
図8】第1実施形態に係る出力処理を示すフローチャートである。
図9】第1実施形態に係る追加処理を示すフローチャートである。
図10】広角眼底画像の部分領域設定例と、生成された部分画像を用いたGUIの一例を示す図である。
図11】広角眼底画像の部分領域設定例と、生成された部分画像を用いたGUIの一例を示す図である。
図12】GUIの一例を示す図である。
図13】GUIの一例を示す図である。
図14】GUIの一例を示す図である。
図15】第2実施形態に係るサーバの機能構成を示す図である。
図16】第2実施形態に係る推定処理を示すフローチャートである。
【発明を実施するための形態】
【0007】
<第1実施形態>
以下、本発明をその一実施形態である第1実施形態に即して図面を参照しつつ説明する。
【0008】
〔構成〕
図1に本発明の一実施形態に係る情報処理システム1の構成を示す。情報処理システム1は、サーバ10、端末20、及び眼科装置30を含む。サーバ10、端末20、および眼科装置30は、ネットワーク5を介して互いにデータの送受信が可能となるように接続されている。
【0009】
ネットワーク5は、無線方式または有線方式の通信手段であり、例えば、インターネット、WAN(Wide Area Network)、LAN(Local Area Network)、公衆通信網、専用線等である。なお、本実施形態による情報処理システム1は複数の情報管理装置によって構成されているが、本発明はこれらの装置の数を限定するものではない。そのため、情報処理システム1は、以下のような機能を備えるものであれば、1以上の装置によって構成することができる。
【0010】
サーバ10及び端末20は、病院や診療所等の医療機関に備えられている情報処理装置であり、主に医療機関の従事者によって操作され、眼科装置30で撮影された画像の取得、ならびに画像の編集及び解析の処理を行う。
【0011】
眼科装置30は、SLO(Scanning. Laser Ophthalmoscope)やOCT(光干渉断層撮影)を行う装置である(図3)。眼科装置30は、制御装置31と、撮影装置32とを有する。
【0012】
図2は、サーバ10、端末20、及び眼科装置30の制御装置31の実現に用いるハードウェア(以下、「情報処理装置100」と称する。)の一例である。同図に示すように、情報処理装置100は、プロセッサ101、主記憶装置102、補助記憶装置103、入力装置104、出力装置105、および通信装置106を備える。これらは図示しないバス等の通信手段を介して互いに通信可能に接続されている。
【0013】
尚、情報処理装置100は、その全ての構成が必ずしもハードウェアで実現されている必要はなく、構成の全部又は一部が、例えば、クラウドシステム(cloud system)のクラウドサーバ(cloud server)のような仮想的な資源によって実現されていてもよい。
【0014】
プロセッサ101は、CPU(Central Processing Unit)、MPU(Micro Processing Unit)等を用いて構成される。プロセッサ101が、主記憶装置102に格納されているプログラムを読み出して実行することにより、サーバ10や端末20、及び制御装置31の機能が実現される。
【0015】
主記憶装置102は、プログラムやデータを記憶する装置であり、ROM(Read Only Memory)、RAM(Random Access Memory)、不揮発性半導体メモリ(NVRAM(Non Volatile RAM))等である。
【0016】
補助記憶装置103は、例えば、SSD(Solid State Drive)、SDメモリカード等の各種不揮発性メモリ(NVRAM:Non-volatile memory)、ハードディスクドライブ、光学式記憶装置(CD(Compact Disc)、DVD(Digital Versatile Disc)等)、クラウドサーバの記憶領域等である。補助記憶装置103に格納されているプログラムやデータは主記憶装置102に随時読み込まれる。
【0017】
入力装置104は、情報の入力を受け付けるインタフェースであり、例えば、キーボード、マウス、タッチパネル、カードリーダ、音声入力装置(マイクロフォン等)、音声認識装置等である。情報処理装置100が通信装置106を介して他の装置との間で情報の入力を受け付ける構成としてもよい。
【0018】
出力装置105は、各種の情報を出力するインタフェースであり、例えば、画面表示装置(液晶モニタ、LCD(Liquid Crystal Display)、グラフィックカード等)、印字装置等)、音声出力装置(スピーカ等)、音声合成装置等である。情報処理装置100が通信装置106を介して他の装置との間で情報の出力を行う構成としてもよい。出力装置105は本発明における表示部に相当する。
【0019】
通信装置106は、ネットワーク5を介した他の装置との間の通信を実現する有線方式又は無線方式の通信インタフェースであり、例えば、NIC(Network Interface Card)、無線通信モジュール、USB(Universal Serial Interface)モジュール、シリアル通信モジュール等である。
【0020】
眼科装置30が備える構成を図3に示す。眼科装置30は、撮影装置32及び制御装置31を含む。なお、制御装置31は、撮影装置32と同じ筐体内に設けられてよいし、撮影装置32とは別体としてもよい。
【0021】
撮影装置32は、制御装置31の制御下で作動する。撮影装置32は、SLOユニット33、撮影光学系34、及びOCTユニット35を含む。撮影光学系34は、光学スキャナ341及び広角光学系342を含む。撮影装置32は、被検眼の画像を撮影する。撮影装置32は、例えば被検眼の眼底を撮像し、後述する眼底画像や断層画像(OCT画像)を取得する。
【0022】
SLOユニット18は被検眼12の眼底12Aの画像を取得する。OCTユニット20は被検眼12の断層画像を取得する。以下では、SLOユニット18により取得されたSLOデータに基づいて作成された網膜の正面視画像をSLO画像と称し、OCTユニット20により取得されたOCTデータに基づいて作成された網膜の断層画像や正面画像(en-face画像)等をOCT画像と称する。なお、SLO画像は、二次元眼底画像と言及されることもある。また、OCT画像は、被検眼12の撮影部位に応じて、眼底断層画像、後眼部断層画像、前眼部断層画像と言及されることもある。
【0023】
以下、眼科装置30で撮影された画像を被検眼画像と称することもある。また、被検眼画像が、後述の通り広角光学系を用いて眼底を撮影した画像である場合には、広角眼底画像Pと称することもある。
【0024】
光学スキャナ341は、SLOユニット33から射出された光をX方向、及びY方向に走査する。光学スキャナ341は、光束を偏向できる光学素子であればよく、例えば、ポリゴンミラーやガルバノミラー等を用いることができる。
【0025】
広角光学系342は、対物光学系を含む。広角光学系342によって、眼底において広角の視野が得られる。SLOシステムは、図3に示す制御装置31、SLOユニット33、及び撮影光学系34によって実現される。SLOシステムは、広角光学系342を備えるため、眼底において広い視野(FOV:Field of View)での観察が実現される。FOVは、撮影装置32によって撮影可能な範囲を示している。FOVは、視野角として表現され得る。視野角は、本実施の形態において、内部照射角と外部照射角とで規定され得る。外部照射角とは、UWF眼科装置110から被検眼へ照射される光束の照射角を、瞳孔を基準として規定した照射角である。また、内部照射角とは、眼底12Aへ照射される光束の照射角を、眼球中心Oを基準として規定した照射角である。外部照射角と内部照射角とは、対応関係にある。例えば、外部照射角が120度の場合、内部照射角は約160度に相当する。本実施の形態では、内部照射角は200度としている。ここで、内部照射角で160度以上の撮影画角で撮影されて得られたSLO眼底画像をUWF-SLO眼底画像と称する。
【0026】
広角光学系342は楕円鏡などの凹面ミラーを用いた反射光学系や、広角レンズなどを用いた屈折光学系、あるいは、凹面ミラーやレンズを組み合わせた反射屈折光学系でもよい。楕円鏡や広角レンズなどを用いた広角光学系を用いることにより、眼底中心部だけでなく眼底周辺部の網膜を撮影することが可能となる。楕円鏡を含むシステムを用いる場合には、国際公開WO2016/103484あるいは国際公開WO2016/103489に記載された楕円鏡を用いたシステムを用いる構成でもよい。国際公開WO2016/103484の開示および国際公開WO2016/103489の開示の各々は、その全体が参照により本明細書に取り込まれる。
【0027】
SLOユニット33は、青色光(B光)の光源331B、緑色光(G光)の光源331G、赤色光(R光)の光源331R、及び、近赤外光などの赤外線(IR光)の光源331IRと、これらの光源からの光を反射又は透過して1つの光路に導く光学系335とを備えている。また、SLOユニット33は、ビームスプリッタ332、B光、G光、R光及び、IR光をそれぞれ検出する検出素子333B、333G、333R、及び、333IRを備える。
【0028】
SLOユニット33は、B光、R光及びG光を発するモードと、IR光を発するモードなど、発光させる光源あるいは発光させる光源の組合せを切り替え可能である。
【0029】
ビームスプリッタ332は、眼底からの反射光を、B光、R光、G光、及びIR光に分解し、それぞれの光を、検出素子333B、333G、333R、333IRへ向けて反射する機能を有する。
【0030】
検出素子333B、333G、333R、333IRは、それぞれ、B光、R光、G光、及びIR光を検出することができる。
【0031】
SLOユニット33から撮影光学系34に入射した光は、光学スキャナ341によってX方向およびY方向に走査される。走査光は広角光学系342を経由して、眼底に照射される。眼底により反射された反射光は、広角光学系342および光学スキャナ341を経由してSLOユニット33へ入射する。
【0032】
眼底により反射された反射光は、広角光学系342および光学スキャナ341を経由してSLOユニット33へ入射し、ビームスプリッタ332によってB光、R光、G光、及びIR光に分解される。これらの光は、それぞれ検出素子333B、333G、333R、333IRに検出される。
【0033】
検出素子333B、333G、333R、333IRが検出したB光、R光、G光、及びIR光の情報を収集することにより、制御装置31のプロセッサ101は、SLO眼底画像を生成することができる。
【0034】
OCTシステムは、図3に示す制御装置31、OCTユニット35、及び撮影光学系34によって構成される。OCTユニット35は、光源351、センサ352、第1の光カプラ353、参照光学系354、コリメートレンズ355、及び第2の光カプラ356を備える。
【0035】
光源351から射出された光は、第1の光カプラ353で分岐される。分岐された一方の光は、測定光として、コリメートレンズ355で平行光化され、撮影光学系34に入射する。撮影光学系34に入射した光は光学スキャナ341によってX方向およびY方向に走査される。走査光は広角光学系342を経由して、眼底に照射される。眼底により反射された測定光は、広角光学系342を経由してOCTユニット35へ入射し、コリメートレンズ355及び第1の光カプラ353を介して、第2の光カプラ356に入射する。
【0036】
光源351が出射し、第1の光カプラ353で分岐された他方の光は、参照光として、参照光学系354を経由して、第2の光カプラ356に入射する。
【0037】
参照光、及び眼底で反射された測定光は、第2の光カプラ356で干渉されて干渉光を生成する。干渉光はセンサ352で受光される。制御装置31は、センサ352からの信号を受信し、断層画像を生成する。なお、OCTシステムを用いて撮影を行うこと、及び撮影によって得られた画像を、以下では簡略に、それぞれOCT撮影及びOCT画像と称する場合がある。
【0038】
〔ソフトウェア構成〕
サーバ10が備える主な機能(機能構成)を図4に示す。同図に示すように、サーバ10は、データベース114、及び管理部120の各機能を備える。管理部120は、特に画像処理部116、検出部118の各機能を備える。データベース114は、サーバ10の主記憶装置102に格納されている。管理部120の各機能は、サーバ10のプロセッサ101がサーバ10の主記憶装置102に格納されているプログラムを読み出して実行することにより実現される。
【0039】
またサーバ10は、上記の機能に加えて、オペレーティングシステム、ファイルシステム、デバイスドライバ、DBMS(DataBase Management System)等の機能を備える。
【0040】
管理部120は、画像の取得や管理等、サーバ10が実行する処理を行う。管理部において取得および管理される画像は、眼科装置30で撮影された画像を含む。画像処理部116は、GUIの生成や、眼科装置30で撮影された画像に対する処理を主に行う。
【0041】
検出部118は、網膜または脈絡膜などを含む眼底において、出血や網膜剥離等の異常があるとの所見(以下、「異常所見」と称する)の有無、及びその詳細を、眼科装置30で撮影された画像から推定する機能を有する。検出部118において、異常所見の有無及びその詳細は、被検眼画像内における異常領域を根拠として推定される。本実施形態において検出部118は、機械学習により生成された学習済みモデルである。
【0042】
詳細には、検出部118は、被検眼画像内における異常領域の画像特徴量を学習するディープラーニングを行うモデルである。検出部118は、入力された被検眼画像に対し、異常所見の有無の推定結果を示す情報を出力するニューラルネットワークを構築する。例えばニューラルネットワークは、深層ニューラルネットワーク(DNN:Deep Neural Network)である。
【0043】
検出部118は、被検眼画像の入力を受け付ける入力層と、異常所見の有無の推定結果を出力する出力層と、被検眼画像の画像特徴量を抽出する中間層とを有する(図5)。入力層、出力層、及び中間層の各層は、ノード(図中、白丸で示す)を備えており、これらの各層のノードは、エッジ(図中、矢印で示す)によって接続されている。なお、図5に示す検出部118の構成は例示であり、ノード及びエッジの数、中間層の数などは適宜変更可能である。
【0044】
検出部118がCNN(Convolutional Neural Network)である場合、中間層は、入力層から入力された被検眼画像における各画素の画素値を畳み込む畳み込み層と、画素値をマッピングするプーリング層とを有し、これらの層を用いて被検眼画像の特徴量を抽出する。出力層は、入力された被検眼画像の異常所見を推定した結果を出力する、一つ又は複数のニューロンを有する。
【0045】
検出部118は、推定結果と共に、推定結果の確からしさを併せて出力することも可能である。確からしさは、例えば検出部118の出力層から出力される確率値であり、例えば、推定された異常所見がどの程度の信頼性を持つかを「0」から「1」までの値で示される。確からしさをユーザに通知することで、ユーザは推定結果がどの程度正確なものかを知ることができる。
【0046】
また、検出部118は、異常所見の深刻度を併せて出力する。深刻度とは、症状の重篤度や、症状のグレード、進行の速さ、症状が人体に与える影響の大きさなどと説明できる。症状などが例えば出血である場合、検出部118は、出血の大きさ、量などから、出血の深刻度を推定する。網膜剥離や新生血管など、他の異常所見に対しても同様に、検出部118は深刻度を出力する。
【0047】
特に本実施形態においては、検出部118がCNNであるものとして説明するが、検出部118はCNNに限定されず、CNN以外のニューラルネットワークや、他の学習アルゴリズムで構築された学習済みモデルであってよい。
【0048】
データベース114には、広角眼底画像P、OCT画像など、網膜及び脈絡膜など有する眼底組織を撮影して得られた画像が保存される。また、被検眼画像には、アノテーションも医療従事者等によって付与することができ、データベース114には、被検眼画像、及び、被検眼画像の一部を示す画像と関連付けて画像中においてアノテーションが付与された箇所及びアノテーションの内容を併せて保存することができる。保存されたデータは、検出部118の学習及び再学習に用いられる。アノテーションには、眼底の異常領域と、異常領域に付された黄斑変性など異常所見の詳細とを示す情報が含まれる。したがって検出部118の学習に用いられる際、アノテーションは、入力画像の異常所見及び異常領域の、正解を示すデータとしての機能を有する。このほかにもデータベース114は、被検眼画像の過去の記録を含む、電子カルテなどの患者の診療記録、患者ID、及び、その他データを保存する。また、データベース118は後述する検出部118で得られた所見に関する情報も、画像と関連付けられて保存する。
【0049】
検出部118の深層学習には、出血、新生血管などの異常領域を含む多数の画像と、これらの画像に対して付されたアノテーションとを含むデータセットが用いられる。このデータセットを検出部118に学習または再学習させることにより、検出部118の深層学習が行われる。
【0050】
〔処理〕
情報処理システム1によって実行される処理の一例について、図6図9のフローチャートを用いて以下に説明する。サーバ10の主記憶装置102に保存されたプログラムが起動され、サーバ10の管理部120によって、情報処理システム1の処理が以下のように実行される。なお、以下ではサーバ10の管理部120によって実行される処理を、簡略に「サーバ10」が実行するものとして記載する場合がある。
【0051】
サーバ10が行う処理の概要は、図6に示すように、大きく4つのステップによって構成される。まず、サーバ10は、眼科装置30が網膜を撮影することによって得られた被検眼画像の取得を行う(S1)。この例では、眼科装置30により撮影された画像として広角眼底画像Pを用いるものとする。広角眼底画像Pは、上記のとおり、眼科装置30のSLOシステムによって撮影されたものである。管理部120は、ネットワーク5を介して眼科装置30に保存された広角眼底画像Pを取得する。
【0052】
次に、管理部120は、取得した広角眼底画像P内における異常所見の有無を推定する(S3)。その後、管理部120は、異常所見の有無を推定した被検眼画像の出力処理を行う(S5)。
【0053】
次に、管理部120は追加処理を行う(S7)。追加処理は、電子カルテへの記入や、再学習などであり、主にユーザからの指示に応じて実行される。
【0054】
(推定処理)
推定処理(S3)の詳細を、図7に示すとともに、以下に説明する。ステップS31において管理部120は、検出部118に広角眼底画像Pを入力する。
【0055】
次に、管理部120は、検出部118の異常の有無に関する推定結果を取得する(S33)。異常があると推定される場合、検出部118の出力には、異常所見の種別、及び異常領域を特定する情報が含まれる。異常領域とは、正常眼との差異が生じている領域である。被検眼画像において撮影される異常領域の例としては、網膜または脈絡膜における、出血点、新生血管領域、網膜剥離領域、無灌流領域等が挙げられる。異常領域を根拠として付された所見が異常所見であり、異常所見の種別としては、網膜または脈絡膜における、出血、新生血管、網膜剥離、無灌流領域の有無や程度などがあげられる。図10には、異常所見の一例として、黄斑Mを含む広角眼底画像Pが示されている。推定結果では、異常領域を含むと推定される画像領域、異常所見の種別を識別した識別結果が取得される。
【0056】
検出部118は、推定結果の確からしさ、及び、異常所見の深刻度を併せて出力する。そして、管理部120は、異常領域を含むと推定される画像領域、異常所見の種別等を識別した識別結果、推定結果の確からしさ、及び、異常所見の深刻度などを含む異常所見情報を生成する。
【0057】
上記の結果、充分な確からしさを持った異常所見が出力される場合、広角眼底画像Pには、異常所見情報が関連付けられて保存された状態となる。推定処理により、異常所見情報が関連付けられた広角眼底画像Pが生成される。
【0058】
(出力処理)
出力処理(S5)の詳細を、図8図10及び図11を用いて以下に説明する。図10は、推定処理(S3)によって異常所見が付与された広角眼底画像Pの例を示す。以下では出血を異常所見の例として用い、説明を行う。広角眼底画像Pには、異常領域として、出血点Bが広角眼底画像Pに表示されている。
【0059】
管理部120は、画像処理部116を用いて、広角眼底画像Pにおける部分領域を示す部分画像の抽出を行う(S51)。管理部120は、広角眼底画像Pの部分領域設定を行い、部分画像を生成する。部分画像は複数枚抽出され、複数の部分画像は互いに重複する領域を有してもよく、また互いに重複していなくてもよい。異常所見が付与されている場合、異常領域が複数の部分画像のいずれかに含まれるように、部分画像の領域が決定される。複数の異常領域が互いに離れて位置する場合には、一つの部分画像がすべての異常領域を含むように部分画像の領域が決定されてもよく、複数の部分画像が異常領域を含むように部分画像の領域が決定されてもよい。
【0060】
図10および図11において、広角眼底画像Pに重ねて示す枠F1、F2、F3、F4は、広角眼底画像Pから抽出される4つの部分領域を示している。また、各図の右側には、広角眼底画像Pが各部分領域を抽出した結果生成された、4つの部分画像D1、D2、D3、D4が示されている。部分画像D1、D2、D3、D4はそれぞれ、枠F1、F2、F3、F4の示す各領域に対応している。
【0061】
画像処理部116は、部分領域のいずれかが異常領域である出血点Bを含むように、広角眼底画像Pから部分画像を抽出する。図10および図11の例においては、枠F2の領域が出血点Bを含み、それ以外の領域(F1、F3、F4)では、出血点Bが含まれない。図10に一例として示すように、画像処理部116は、部分画像D1、D2、D3、D4がいずれも黄斑Mの全体を含むように領域の大きさと配置とを決定する。同時に画像処理部116は、出血点Bがいずれかの領域に含まれるように、換言すれば、出血点Bがいずれかの部分画像に表示されるように、領域の大きさと配置とを決定する。その結果、図10の右側に示すように、部分画像D1、D2、D3、D4には、いずれも黄斑Mが表示される。また、部分画像D2には出血点Bが表示される。
【0062】
本実施形態のように、各部分画像に黄斑や視神経乳頭等の眼底の特徴的構造物が表示される場合、各部分画像や異常領域の広角眼底画像Pにおける位置が、ユーザにとって理解しやすい。
【0063】
図11の部分画像抽出例では、画像処理部116は、黄斑Mを中心とし、枠F1~F4、すなわち部分画像D1~D4に対応する各領域に重複が無いように分割位置を決定する。また、画像処理部116は、出血点Bがいずれかの部分画像に表示されるように、部分画像の配置及び大きさを調整する。この結果、部分画像D1には出血点Bが表示される。
【0064】
なお、異常領域が無い場合、部分画像の設定の方法は、予め定められた方法に従って決定される。例えば、枠F1~F4、すなわち部分画像D1~D4がいずれも黄斑Mの全体を含むように各画像の配置、大きさが定められてもよい(図10)。あるいは、黄斑Mを中心とし、枠F1~F4、すなわち部分画像D1~D4の各領域が重複しないように分割位置が決定されてもよい(図11)。
【0065】
画像処理部116は、上記のようにして広角眼底画像Pから部分画像を抽出し、部分画像D1、D2、D3、D4を作成する。
【0066】
次に画像処理部116は、異常領域を鮮明化する画像処理を行う(S53)。図10及び図11の例では、出血点Bを表示する部分画像D2において、出血点Bを視認し易いように、出血点B及びそれ以外の領域の画素値を変更する処理が行われる。また、画像処理部116は、部分画像D1、D2、D3、D4及び広角眼底画像Pから睫毛の映り込みや、その他のアーチファクトを除去し、画像を視認し易い状態にする。
【0067】
画像処理部116は、さらに異常領域の強調方法を設定する処理を行う(S55)。強調方法は、異常所見の種別、深刻度、確からしさに応じて適宜選択される。例えば、複数個所において異常所見が認められる場合、深刻度の高い異常領域を含む部分画像が、後の表示処理(S59)において優先して表示されるように設定される。また画像処理部116は、複数の部分画像のうち、異常領域が表示される部分画像を、異常領域が表示されない部分画像と区別する形で表示する表示方法を設定する処理を行う。具体的には、異常領域が表示される部分画像の拡大率や表示順を、異常所見の種別、または確からしさに応じて選択する。さらに画像処理部116は、強調する部分に重ねて表示する枠やアイコン等の画像を、異常所見の種別、または確からしさに応じて選択し、後の表示処理(S59)において強調表示として表示されるように設定する。なお、これらの強調方法はユーザの入力を受け付けて設定してもよい。
【0068】
画像処理部116は、ステップS55までに選択された、部分画像抽出方法、異常領域強調方法、及び強調表示にしたがって、GUI(Graphical User Interface)を作成する(S57)。このGUIがネットワーク5を介して端末20に送信され、端末20の出力装置105に表示される(S59)。GUIは、端末20を操作するユーザの指示を受け付け、この指示に応じて表示を変え、また、アイコンや枠などの画像をさらに加えて表示する。
【0069】
GUIの例を図10図14に示す。各図に示すように、GUIでは広角眼底画像Pが左側に配置され、その右方には4つの部分画像D1~D4が配置される。広角眼底画像Pには、部分画像D1、D2、D3、D4に対応する枠F1、F2、F3、F4が重ねて表示される。この枠F1~F4の表示により、部分画像D1~D4のそれぞれが、広角眼底画像Pのどの領域を示しているか、理解が容易となっている。
【0070】
図10では、異常領域である出血点Bが表示される部分画像D2が優先して、最も大きく表示されている。
【0071】
図12では、異常領域を含む部分画像をさらに拡大して示す強調方法(S55参照)が選択された場合のGUIを示している。また、部分画像D1~D4は、いずれも黄斑Mを表示するように、設定されている(S51参照)。図示のように、出血点Bが表示される部分画像D2の拡大率が、他の部分画像D1、D3、D4に比較して大きい。このためユーザは、出血点Bを確認し易い。
【0072】
図13のGUIでは、部分画像D2に表示された出血点Bに対して、小枠Sによる強調表示が付されている(S55参照)。ユーザの指示に応じて、画像処理部116は、小枠S内の画像をさらに拡大し、拡大画像Lとして表示させる。これにより、ユーザは容易に出血点Bを確認できる。ユーザの指示は、例えば小枠Sの画像をマウスクリックする、表示画面上でタップするなどの操作によって行われる。
【0073】
なお、拡大画像Lの表示は、1枚だけでなく、複数枚同時に表示させることも可能である。また、異常領域が複数ある場合に、ユーザの指示に応じて拡大画像Lを順次表示させる方式としてもよい。また、全ての拡大画像Lを順次並べ、サムネイル表示させてもよい。この際、異常所見の種別、深刻度、または確からしさの大きさに基づいて、拡大画像Lを並べることが望ましい。
【0074】
拡大画像Lの拡大率又は画角は、任意に設定される。例えば、医師が視認しやすい拡大率5倍、画角30度に設定される。拡大率又は画角をユーザの指示に応じて変える態様としてもよい。また、医師が予め設定した拡大率又は画角としてもよい。また、ユーザは、枠F1~F4の位置及び大きさを操作して、部分画像D1~D4の位置を変更したり、拡大の範囲を変更したりすることができる。
【0075】
図14のGUIでは、アイコンIC1~IC4による強調表示が付されている。これらの強調表示は、異常所見の種別に応じて異なる。図14においては、医師が異常であると判断して表示を加えた領域、AIが出力した異常領域、医師及びAIによって異常であると判断された領域、及び医師によって異常ではないと判断してGUI上で表示を変更するように指示した領域、の4つの種別に対して、互いに表示が異なるアイコンIC1~IC4が用いられる。このようにして、強調表示の方法が異常所見の種別に応じて区別されている。アイコンIC1~IC4は、例えば、線種、形状、及び色などを互いに変えることにより、互いに異なるように表示される。
【0076】
また、異常領域が複数ある場合、拡大画像を異常所見の深刻度順に表示することが可能である。また、深刻度に応じて部分画像D1~D4の表示順、または拡大画像Lの表示態様が変更される。
【0077】
強調表示についても、深刻度に応じてその態様が変更される。例えば、深刻度がより高い異常領域に対しては、明度、または彩度の高い色による強調表示が用いられる。
【0078】
また、図10図14に示したような強調は画像の分割方法やGUIの表示態様に依存せず、任意の種類の選択が可能である。また、複数の強調方法を組み合わせることも可能である。例えば、図11に示すような部分画像D2を拡大したGUI表示において、さらに小枠S及び拡大画像Lを部分画像D2上に重ねて表示させてもよい。
【0079】
画像処理部116は、眼科装置30と連携してOCTシステムによるOCT撮影を行い、断層画像を取得することも可能である(S61)。OCT撮影の指示は、表示処理(S59)においてGUIを経由して受け付けることも可能である。例として、OCT撮影を行いたい異常領域をマウスクリックなどの操作により、ユーザが指示することができる。
【0080】
ユーザの指示がある場合、画像処理部116は、異常領域がある眼底位置を特定し、ネットワーク5を介して眼科装置30に撮影を指示する。この指示に基づき眼科装置30は、OCTシステムを用いて、異常領域に対してOCT撮影を実行する。OCT撮影により取得された網膜の断層画像は、サーバ10が取得し、さらに端末20の出力装置105に表示される。その際、GUI上に広角眼底画像Pまたは部分画像D1~D4とともに表示されてもよい。
【0081】
ユーザの指示によらずに、OCT撮影がなされてもよい。例えば、異常所見がある場合に画像処理部116は、異常領域が有る眼底位置を特定し、ネットワーク5を介して眼科装置30に撮影を指示する。この指示に基づき眼科装置30は、OCTシステムを用いて、異常領域に対してOCT撮影を実行する。
【0082】
OCT撮影の際、患者の情報に応じて撮影が行われてもよい。例えば、データベース114に保存された電子カルテにおいて、黄斑変性などの診断が得られていた場合、サーバ10は、黄斑M付近のOCT撮影を眼科装置30に指示する。この指示に基づいて、眼科装置30は、異常領域に対してOCT撮影を実行する。
【0083】
(追加処理)
追加処理を図9のフローを用いて説明する。ユーザは、表示処理(S59)において異常所見、及びその領域を確認し、その後、推定結果に対してアノテーションを加えて保存することができる(S71)。保存されたアノテーションは、データベース114に保存され、広角眼底画像P及び推定結果と互いに関連付けられた状態で保存される。
【0084】
保存された、アノテーション及び広角眼底画像Pは検出部118の再学習に使用される(S73)。検出部118は、例えば、異常所見の種別と、正しい異常領域とを示すアノテーションとともに広角眼底画像Pを学習することにより、異常所見を推定する能力を向上させることができる。
【0085】
<第2実施形態>
上記の第1実施形態では、検出部118はCNNを有する学習済みモデルを用いていた。第1実施形態とは異なる実施形態として、異常所見の推定のために機械学習を実施した学習済みモデルではなく、画像処理アルゴリズムを用いてもよい。第2実施形態として以下に説明する。
【0086】
第2実施形態によるサーバ10のソフトウェア構成を図15に示す。第2実施形態では、画像処理アルゴリズムによって構成された検出部119を備える。
【0087】
第2実施形態では、サーバ10、端末20、眼科装置30における、検出部119以外の構成は第1実施形態と同じである。第1実施形態と同じ構成については、第1実施形態で用いたものと同じ参照番号を付して、説明を省略する。
【0088】
第2実施形態における、検出部119による推定処理(S3)を以下に説明する。この例においては、広角眼底画像Pにおいて出血等の異常所見の有無を推定するためのアルゴリズムについて説明する。
【0089】
ステップS35において、検出部119は、血液領域の抽出を行う。ここで血液領域とは、広角眼底画像Pのうち、血管を示す血管領域と、血管からの出血によって形成された出血領域とを含む領域である。ステップS35の処理の結果、広角眼底画像Pから血液領域を抽出した画像が得られる。
【0090】
ステップS36では、検出部119は、血管領域だけの抽出を行う。
【0091】
ステップS35及びS36における領域の抽出では、一般的な画像解析手法が応用される。例えば、広角眼底画像Pを256階調などに階調表示し、閾値と各画素の階調値とを比較することによって二値化画像に変換する。
【0092】
二値化する際、ステップS35では、血液領域とその他の領域とを区別するように閾値が設定される。ステップS36では、血管領域とその他領域を区別するように閾値が設定される。閾値の設定方法についてはモード法など様々な方法が採り得る。
【0093】
ステップS37において、検出部119は、二値化画像中、特に血管領域周辺のノイズを除去する。ノイズ除去処理では、例えば膨張処理(Dilation)、及び収縮処理(Erosion)が用いられる。ステップS37を経ることにより、広角眼底画像Pから血管領域を抽出した画像が得られる。
【0094】
ステップS38において、検出部119は、血液領域を示す画像と血管領域を示す画像との差分を取ることによって出血領域を示す画像を取得することができる。
【0095】
検出部119は、このように取得した画像を元に、出血の有無を推定する(S39)。検出部119は、出血が有ると判断した場合、出血という異常所見と、出血領域を示す画像とを出力する。
【0096】
上記では出血に関する推定処理の例を示したが、その他、新生血管などの異常所見の場合も上記と同様に処理を実行する。その際には、二値化する際の閾値の設定など、領域の抽出に用いるパラメータは、異常所見の種別に応じて適切に設定される。
【0097】
<効果>
上記の実施形態における画像処理は、眼科装置で撮影して得られた広角眼底画像(P)を取得する処理(S1)と、異常所見が付与された前記広角眼底画像から複数の部分画像(D1-D4)を抽出する処理(S1)と、前記異常所見の根拠となる異常領域(B)が示される第一部分画像を前記複数の部分画像から選択する選択処理(S51)と前記第一部分画像を表示する表示処理(S59)とを含む画像処理方法。
を含む。
【0098】
上記構成により、眼底の広範囲の異常所見を網羅しつつ、異常領域を容易に視認可能な表示を得ることができる。
【0099】
表示処理(S59)では、広角眼底画像P上に、異常所見が見られる部分領域を区別できるように表示する。また、部分画像D1~D4のうち、異常所見のある部分画像を拡大表示できる。
【0100】
このような構成により、ユーザは、異常所見の詳細、及び異常領域を容易に視認することができる。
【0101】
また表示処理(S59)では、異常領域を強調表示することも可能である。この強調表示は、異常所見の種別に応じて変更される。
【0102】
上記構成により、異常所見の詳細、及び異常領域が容易に視認可能となる。また、ユーザは、異常所見の種別が複数ある場合などにおいても、異常所見の種別ごとに整理して確認することができる。
【0103】
上記実施形態は、広角眼底画像Pにおける異常所見を推定する推定処理(S3)を含む。推定処理は、異常所見を推定する検出部118、119に広角眼底画像Pを入力する処理(S31)と、検出部118、119に異常所見を推定させる処理と、を含む。
【0104】
このような推定処理により、医師や医療従事者の診断、所見を補助することが可能となる。異常の見落としを防止することも可能となる。
【0105】
上記実施形態は、広角眼底画像Pについて異常所見に関するアノテーションの追加を受け付ける処理(S71)と、アノテーションと広角眼底画像Pとにより検出部118を再学習させる処理(S73)と、を含む。
【0106】
アノテーションを付したデータを用いて、検出部118が再学習するため、検出部118の推定処理の精度を向上させることができる。すなわち、擬陽性や偽陰性などが出力される確率を低下させることができる。
【0107】
推定処理(S3)では、異常所見の深刻度が推定される。また、推定された深刻度に応じて第1領域の表示方法が変更される。
【0108】
上記実施形態は、異常領域の眼底上での位置を特定する処理(S61)と、特定した位置に対してOCTシステムによるOCT撮影を行い、特定した位置における断層画像を取得する処理(S61)とをさらに含む。
【0109】
上記構成により、広角眼底画像Pを確認するだけでなく、異常所見をさらに確認したい場合に、断層画像を正確に、または容易に取得することが可能となる。
【0110】
<変形例>
上記の実施形態において広角眼底画像Pの部分領域設定は矩形の領域によって行われていたが、本発明はこれに限定されない。例えば、放射状に分割線を伸ばして分割してもよいし、スリット状に分割するなど、分割線及び部分領域の形状は、任意の形状が採用され得る。
【0111】
アノテーションには、部分領域設定の形状も含まれ得る。例えば、ユーザが最適と判断した部分領域設定形状をアノテーションに含め、検出部119に学習及び再学習させてもよい。この場合、検出部119が推定した異常所見に対応して、最適な部分領域形状、部分領域位置を出力する。部分画像抽出処理(S51)において、検出部119の出力した部分画像抽出方法にしたがって広角眼底画像Pの部分画像抽出が行われてもよい。
【0112】
表示処理(S59)などにおける表示態様は、画像を用いて異常領域などを色や形状によって区別して表示する態様としていたが、本発明はそのような視認による態様に限定されない。例えば、音声によって表示のバリエーションを設定する態様を用いてもよい。
【0113】
上記実施形態では、OCTシステムを有する眼科装置30を用いたが、本発明はこれに限定されず、OCTシステムを有していない眼科装置、その他のシステムを用いる眼科装置であってもよい。
【0114】
上記実施形態においては、1つのサーバ10に対して複数の端末が接続し、上記のような機能を発揮する態様としていた。本発明は、サーバの数や端末の数を限定するものではなく、例えば、1つの装置のみによって、上記のような機能を実現してもよい。また、端末の数やサーバの数をさらに増やしてもよい。また、各機能は、必ずしもサーバ10などによって実現される必要はなく、複数の装置で分担して、機能を実現する態様とすることができる。すなわち、本発明は制御部または装置の数、装置間での機能の分担を限定するものではない。
【符号の説明】
【0115】
1 情報処理システム
10 サーバ
20 端末
30 眼科装置
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14
図15
図16