IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ エイサー インコーポレイテッドの特許一覧 ▶ 國立臺灣大學醫學院附設醫院の特許一覧

<>
  • 特開-画像処理システムおよび画像処理方法 図1
  • 特開-画像処理システムおよび画像処理方法 図2
  • 特開-画像処理システムおよび画像処理方法 図3
  • 特開-画像処理システムおよび画像処理方法 図4
  • 特開-画像処理システムおよび画像処理方法 図5
  • 特開-画像処理システムおよび画像処理方法 図6
  • 特開-画像処理システムおよび画像処理方法 図7
  • 特開-画像処理システムおよび画像処理方法 図8
  • 特開-画像処理システムおよび画像処理方法 図9
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2022084511
(43)【公開日】2022-06-07
(54)【発明の名称】画像処理システムおよび画像処理方法
(51)【国際特許分類】
   A61B 3/14 20060101AFI20220531BHJP
【FI】
A61B3/14
【審査請求】有
【請求項の数】20
【出願形態】OL
(21)【出願番号】P 2021129318
(22)【出願日】2021-08-05
(31)【優先権主張番号】109141552
(32)【優先日】2020-11-26
(33)【優先権主張国・地域又は機関】TW
(71)【出願人】
【識別番号】509024640
【氏名又は名称】エイサー インコーポレイテッド
【氏名又は名称原語表記】ACER INCORPORATED
(71)【出願人】
【識別番号】518455930
【氏名又は名称】國立臺灣大學醫學院附設醫院
(74)【代理人】
【識別番号】110001494
【氏名又は名称】前田・鈴木国際特許業務法人
(72)【発明者】
【氏名】余 春賢
(72)【発明者】
【氏名】▲黄▼ 振宇
(72)【発明者】
【氏名】謝 成典
(72)【発明者】
【氏名】林 ▲イン▼廷
【テーマコード(参考)】
4C316
【Fターム(参考)】
4C316AA09
4C316AA10
4C316AA25
4C316AB06
4C316AB16
4C316FB21
4C316FB24
4C316FB27
(57)【要約】
【課題】より安価でより便利な眼底画像の解析に適用される画像処理システムおよび画像処理方法を提供する。
【解決手段】カラー眼底画像を得るように構成された検眼鏡装置、および前記カラー眼底画像を受信するように構成され、コンピュータビジョンアルゴリズムまたは深層学習モデルを用いて、前記カラー眼底画像に対応する血管セグメンテーション画像を生成し、前記カラー眼底画像と前記血管セグメンテーション画像を前処理して、初期入力画像を得て、前記初期入力画像を畳み込みニューラルネットワーク内に入力し、前記畳み込みニューラルネットワークは値を出力するプロセッサを含み、前記プロセッサは、前記陥凹乳頭径比および値に従って眼底画像解析情報を生成する画像処理システム。
【選択図】図2
【特許請求の範囲】
【請求項1】
カラー眼底画像を得るように構成された検眼鏡装置、および
前記カラー眼底画像を受信するように構成され、コンピュータビジョンアルゴリズムまたは深層学習モデルを用いて、前記カラー眼底画像に対応する血管セグメンテーション画像を生成し、前記カラー眼底画像と前記血管セグメンテーション画像を前処理して、初期入力画像を得て、前記初期入力画像を畳み込みニューラルネットワーク内に入力し、前記畳み込みニューラルネットワークは値を出力するプロセッサを含み、
前記プロセッサは、前記陥凹乳頭径比および値に従って眼底画像解析情報を生成する画像処理システム。
【請求項2】
前記プロセッサは、前記値が閾値より大きいかどうかを判定するためにさらに用いられ、前記値が前記閾値より大きい場合、前記カラー眼底画像は異常であると見なされ、前記値が前記閾値より大きくない場合、前記カラー眼底画像は正常であると見なされる請求項1に記載の画像処理システム。
【請求項3】
前記プロセッサは、視神経乳頭画像を前記カラー眼底画像に配置し、前記視神経乳頭画像を切り取り、前記視神経乳頭画像を第1の深層学習セグメンテーションネットワーク内に入力し、前記第1の深層学習セグメンテーションネットワークはニューラル乳頭意味解析画像を出力し、前記視神経乳頭画像を第2の深層学習セグメンテーションネットワーク内に入力し、前記第2の深層学習セグメンテーションネットワークはニューラル乳頭意味解析画像を出力し、前記ニューラル乳頭意味解析画像の白色領域を、前記ニューラル乳頭陥凹意味解析画像の白色領域で分割し、前記陥凹乳頭径比を得る請求項1に記載の画像処理システム。
【請求項4】
前記第1の深層学習セグメンテーションネットワークは、第1のU-Net深層学習セグメンテーションネットワークであり、前記プロセッサが前記視神経乳頭画像を前記U-Net深層学習セグメンテーションネットワーク内に入力したとき、前記第1のU-Net深層学習セグメンテーションネットワークによって出力されたニューラル乳頭意味解析画像では、前記視神経乳頭画像範囲は白色であり、残りは黒色であり、
前記第2の深層学習セグメンテーションネットワークは、第2のU-Net深層学習セグメンテーションネットワークであり、前記プロセッサが前記視神経乳頭画像を前記U-Net深層学習セグメンテーションネットワーク内に入力したとき、前記第2のU-Net深層学習セグメンテーションネットワークによって出力されたニューラル乳頭陥凹意味解析画像では、前記視神経乳頭陥凹画像範囲は白色であり、残りは黒色であり、
前記視神経乳頭画像、前記ニューラル乳頭意味解析画像、および前記ニューラル神経陥凹意味解析画像の次元は同じである請求項3に記載の画像処理システム。
【請求項5】
前記血管セグメンテーション画像は、グレースケール画像であり、前記前処理とは、前記カラー眼底画像と前記血管セグメンテーション画像を重ね合わせることを指す請求項1に記載の画像処理システム。
【請求項6】
前記プロセッサは前記カラー眼底マップ内の赤色をフィルタリングした後、次いで、赤色がフィルタリングされた前記カラー眼底画像と前記血管セグメンテーション画像を重ね合わせる請求項5に記載の画像処理システム。
【請求項7】
前記プロセッサは、前記初期入力画像をニューラルネットワーク内に入力し、前記ニューラルネットワークは、前記値を出力し、前記ニューラルネットワークは、トレーニングされていないU-Net深層学習セグメンテーションネットワークによって抽出された複数の特徴を分類し、次いで、分類後の前記複数の特徴が前記ニューラルネットワークに結合される請求項1に記載の画像処理システム。
【請求項8】
前記プロセッサは、前記初期入力画像をニューラルネットワーク内に入力し、前記ニューラルネットワークは前記値を出力し、前記ニューラルネットワークは、トレーニングされたU-Net深層学習セグメンテーションネットワークによって抽出された複数の特徴を取り出し、各前記特徴に対応する重みを固定し、完全接続層(fully connected layer)の重みを調整してニューラルネットワークを生成する請求項1に記載の画像処理システム。
【請求項9】
前記プロセッサが、前記視神経乳頭画像を切り出した後、前記視神経乳頭画像の中心点を原点とし、極座標変換を行って、極座標変換された視神経乳頭画像を生成し、前記プロセッサは、前記極座標変換された視神経乳頭画像を、前記第1の深層学習セグメンテーションネットワーク内に入力し、前記第1の深層学習セグメンテーションネットワークは、前記視神経乳頭意味解析画像を出力し、前記プロセッサは、前記極座標変換された視神経乳頭画像を、前記第2の深層学習セグメンテーションネットワーク内に入力し、前記第2の深層学習セグメンテーションネットワークは、前記視神経乳頭意味解析画像を出力する請求項3に記載の画像処理システム。
【請求項10】
前記プロセッサは、前記血管セグメンテーション画像内で最も厚い血管画像を選択して、前記視神経乳頭画像の長軸を決定し、長軸に垂直な次に厚い血管画像を選択して、前記視神経乳頭画像の短軸を決定し、視神経乳頭陥凹画像の長軸は前記視神経乳頭画像の長軸に平行であり、視神経乳頭陥凹画像の短軸は前記視神経乳頭画像の短軸に平行であり、前記プロセッサは、楕円フィッティングアルゴリズムを用いて、前記視神経乳頭画像の長軸および前記視神経乳頭画像の短軸に従って前記視神経乳頭画像を切り出し、前記プロセッサは、楕円フィッティングアルゴリズムを用いて、前記視神経乳頭陥凹画像の長軸および前記視神経乳頭陥凹画像の短軸に従って前記視神経乳頭画像を切り出す請求項1に記載の画像処理システム。
【請求項11】
検眼鏡装置からカラー眼底画像を得るステップ、および
前記カラー眼底画像をプロセッサで受信し、コンピュータビジョンアルゴリズムまたは深層学習モデルを用いて、前記カラー眼底画像に対応する血管セグメンテーション画像を生成し、前記カラー眼底画像と前記血管セグメンテーション画像を前処理して、初期入力画像を得て、前記初期入力画像を畳み込みニューラルネットワーク内に入力し、前記畳み込みニューラルネットワークは値を出力するステップを含み、
前記プロセッサは、前記陥凹乳頭径比および値に従って眼底画像解析情報を生成する画像処理方法。
【請求項12】
前記プロセッサは、前記値が閾値より大きいかどうかを判定するステップをさらに含み、
前記値が前記閾値より大きい場合、前記カラー眼底画像は異常であると見なされ、前記値が前記閾値より大きくない場合、前記カラー眼底画像は正常であると見なされる請求項11に記載の画像処理方法。
【請求項13】
前記プロセッサは、視神経乳頭画像を前記カラー眼底画像に配置し、前記視神経乳頭画像を切り取るステップ、
前記視神経乳頭画像を第1の深層学習セグメンテーションネットワーク内に入力し、前記第1の深層学習セグメンテーションネットワークからニューラル乳頭意味解析画像を出力するステップ、
前記視神経乳頭画像を第2の深層学習セグメンテーションネットワーク内に入力し、前記第2の深層学習セグメンテーションネットワークからニューラル乳頭意味解析画像を出力するステップ、および
前記ニューラル乳頭意味解析画像の白色領域を、前記ニューラル乳頭陥凹意味解析画像の白色領域で分割し、前記陥凹乳頭径比を得るステップをさらに含む請求項11に記載の画像処理方法。
【請求項14】
前記第1の深層学習セグメンテーションネットワークは、第1のU-Net深層学習セグメンテーションネットワークであり、前記プロセッサが前記視神経乳頭画像を前記U-Net深層学習セグメンテーションネットワーク内に入力したとき、前記第1のU-Net深層学習セグメンテーションネットワークによって出力されたニューラル乳頭意味解析画像では、前記視神経乳頭画像範囲は白色であり、残りは黒色であり、
前記第2の深層学習セグメンテーションネットワークは、第2のU-Net深層学習セグメンテーションネットワークであり、前記プロセッサが前記視神経乳頭画像を前記U-Net深層学習セグメンテーションネットワーク内に入力したとき、前記第2のU-Net深層学習セグメンテーションネットワークによって出力されたニューラル乳頭陥凹意味解析画像では、前記視神経乳頭陥凹画像範囲は白色であり、残りは黒色であり、
前記視神経乳頭画像、前記ニューラル乳頭意味解析画像、および前記ニューラル神経陥凹意味解析画像の次元は同じである請求項13に記載の画像処理方法。
【請求項15】
前記血管セグメンテーション画像は、グレースケール画像であり、前記前処理とは、前記カラー眼底画像と前記血管セグメンテーション画像を重ね合わせることを指す請求項11に記載の画像処理方法。
【請求項16】
前記カラー眼底マップ内の赤色をフィルタリングした後、次いで、赤色がフィルタリングされた前記カラー眼底画像と前記血管セグメンテーション画像を重ね合わせる請求項15に記載の画像処理方法。
【請求項17】
前記初期入力画像をニューラルネットワーク内に入力し、前記ニューラルネットワークから前記値を出力するステップをさらに含み、
前記ニューラルネットワークは、トレーニングされていないU-Net深層学習セグメンテーションネットワークによって抽出された複数の特徴を分類し、次いで、分類後の前記複数の特徴が前記ニューラルネットワークに結合される請求項11に記載の画像処理方法。
【請求項18】
前記ニューラルネットワークが前記値を出力した後、前記初期入力画像をニューラルネットワーク内に入力するステップをさらに含み、
前記ニューラルネットワークは、トレーニングされたU-Net深層学習セグメンテーションネットワークによって抽出された複数の特徴を取り出し、各前記特徴に対応する重みを固定し、完全接続層(fully connected layer)の重みを調整してニューラルネットワークを生成する請求項11に記載の画像処理方法。
【請求項19】
前記視神経乳頭画像を切り出した後、前記視神経乳頭画像の中心点を原点とし、極座標変換を行って、極座標変換された視神経乳頭画像を生成するステップ、
前記極座標変換された視神経乳頭画像を、前記第1の深層学習セグメンテーションネットワーク内に入力し、前記第1の深層学習セグメンテーションネットワークから前記視神経乳頭意味解析画像を出力するステップ、および
前記極座標変換された視神経乳頭画像を、前記第2の深層学習セグメンテーションネットワーク内に入力し、前記第2の深層学習セグメンテーションネットワークから前記視神経乳頭意味解析画像を出力するステップをさらに含む請求項13に記載の画像処理方法。
【請求項20】
前記血管セグメンテーション画像内で最も厚い血管画像を選択して、前記視神経乳頭画像の長軸を決定するステップ、
長軸に垂直な次に厚い血管画像を選択して、前記視神経乳頭画像の短軸を決定するステップ、
その中の視神経乳頭陥凹画像の長軸は前記視神経乳頭画像の長軸に平行であり、視神経乳頭陥凹画像の短軸は前記視神経乳頭画像の短軸に平行であり、
楕円フィッティングアルゴリズムを用いて、前記視神経乳頭画像の長軸および前記視神経乳頭画像の短軸に従って前記視神経乳頭画像を切り出すステップ、および
前記プロセッサは、楕円フィッティングアルゴリズムを用いて、前記視神経乳頭陥凹画像の長軸および前記視神経乳頭陥凹画像の短軸に従って前記視神経乳頭画像を切り出すステップをさらに含む請求項11に記載の画像処理方法。
【発明の詳細な説明】
【技術分野】
【0001】
本出願は、2020年11月26日に出願された台湾特許出願番号第109141552号についての優先権を主張するものであり、これらの全ては引用によって本願に援用される。
【0002】
本発明は、画像処理システムに関するものであり、特に、眼底画像の解析に適用される画像処理システムおよび画像処理方法に関するものである。
【背景技術】
【0003】
緑内障は、台湾または米国における失明原因の第2位となっており、緑内障であることを自覚して診断を受ける人は、3分の1程度である。緑内障を診断する方法は、眼科用光干渉断層撮影(OCT)により、網膜神経線維層(RNFL)厚の画像を得ることである。
【0004】
しかしながら、光干渉断層撮影のコストが高く、機器を入手するのが困難であるのに対し、カラー眼底画像は比較的入手しやすいため、ほとんどの人は、光干渉断層撮影を敢えて撮影することがない。
【0005】
したがって、医師がカラー眼底画像を解釈するのを支援する、より安価でより便利な方法をどのように用いるかが、この分野で解決されるべき問題の1つとなっている。
【発明の概要】
【発明が解決しようとする課題】
【0006】
より安価でより便利な眼底画像の解析に適用される画像処理システムおよび画像処理方法を提供する。
【課題を解決するための手段】
【0007】
上記の問題を解決するために、本開示の一態様は、画像処理システムを提供する。画像処理システムは、検眼鏡装置およびプロセッサを含む。検眼鏡装置はカラー眼底画像を得るように構成される。プロセッサは、カラー眼底画像を受信するように構成され、コンピュータビジョンアルゴリズムまたは深層学習モデルを用いて、カラー眼底画像に対応する血管セグメンテーション画像を生成し、カラー眼底画像と血管セグメンテーション画像を前処理して、初期入力画像を得て、初期入力画像を畳み込みニューラルネットワーク内に入力する。畳み込みニューラルネットワークは値を出力する。また、プロセッサは、陥凹乳頭径比および値から眼底画像解析情報を生成する。
【0008】
本発明のもう1つの態様は、画像処理方法を提供することである。画像処理方法のステップは、視神経乳頭画像をカラー眼底画像に配置するステップ、視神経乳頭画像を切り取るステップ、視神経乳頭画像を第1の深層学習セグメンテーションネットワーク内に入力するステップ、ニューラル乳頭意味解析画像を第1の深層学習セグメンテーションネットワークから出力するステップ、視神経乳頭画像を第2の深層学習セグメンテーションネットワーク内に入力するステップ、ニューラル乳頭意味解析画像を第2の深層学習セグメンテーションネットワークから出力するステップ、およびニューラル乳頭意味解析画像の白色領域を、ニューラル乳頭陥凹意味解析画像の白色領域で分割し、陥凹乳頭径比を得るステップを含む。
【0009】
本発明に示される画像処理システムおよび画像処理方法は、カラー眼底画像を分析して、陥凹乳頭径比および視神経欠損の確率を計算し、眼底画像解析情報を用いて、医師が緑内障の診断にカラー眼底画像を用いるのをアシストすることができるようにする。例えば、医師が、陥凹乳頭径比が正常な人間の目の範囲内に収まっており、視神経欠損の確率が50%以下であることを確認した場合、医師はまず患者が正常であると考え得る。医師が、陥凹乳頭径比が正常な人間の目の範囲内に収まっておらず、視神経欠損の確率が50%以下であることを確認した場合、医師はまず患者が良性緑内障の疑いがあると考え得る。医師が、陥凹乳頭径比が正常な人間の目の範囲内に収まっておらず、視神経欠損の確率が50%以下であると確認した場合、医師はまず患者が悪性緑内障であると考え得る。医師は、患者が眼科用光干渉断層撮影を撮る必要があると考え、次いで医師は断層撮影に基づいて診断が確定されたかどうかを判断する。このようにして、画像処理システムと画像処理方法は、多くの情報を生成し、視神経欠損の確率と陥凹乳頭径比を統合して、医師が患者の緑内障の重症度を評価する助けをすることができる。
【図面の簡単な説明】
【0010】
本発明は、添付の図面を参照しながら以下の詳細な説明から、より完全に理解することができる。
図1図1は、本発明の一実施形態による画像処理システムのブロック図である。
図2図2は、本発明の一実施形態による画像処理方法の概略図である。
図3図3は、本発明の一実施形態による血管セグメンテーション画像を生成する方法を示す概略図である。
図4図4は、本発明の一実施形態による視神経欠損状態の評価方法を示す概略図である。
図5図5は、本発明の実施形態によるU-Net深層学習セグメンテーションネットワークの概略図である。
図6図6は、本発明の一実施形態による画像処理方法のフローチャートである。
図7図7は、本発明の一実施形態による視神経乳頭陥凹(optic cup)および視神経乳頭(optic disc)システムのモデルの概略図である。
図8図8は、本発明の一実施形態によるニューラル乳頭意味解析画像(neural cup semantic analysis image)の概略図である。
図9図9は、本発明の一実施形態による視神経乳頭陥凹の意味解析画像(neural cup semantic analysis image)の概略図である。
【発明を実施するための形態】
【0011】
上述の説明では、本発明を実施するベストモードを開示している。この説明は、本発明の一般原理を例示する目的のものであり、本発明を限定するものではない。本発明の範囲は、添付の特許請求の範囲を参考にして決定される。
【0012】
本発明は、特定の実施形態に関して、且つ特定の図面を参照して説明されるが、本発明はこれに限定されるものではなく、請求項によってのみ限定される。更に理解されることであろうが、用語「含む(comprises)」、「含む(comprising)」、「含む(includes)」および/または「含む(including)」が本明細書で使用されるとき、述べられた特徴、整数、ステップ、動作、要素および/または構成要素の存在を特定するが、1つ又は複数の他の特徴、整数、ステップ、動作、要素、構成要素および/またはこれらの群の存在或いはこれらの追加を除外するものではない。
【0013】
クレーム要素を変えるための、請求項における「第1の」、「第2の」、「第3の」等の序数詞の使用は、それ自体が、1つのクレーム要素を他のクレーム要素と比較して優先度、序列、又は順序を示唆するものではなく、むしろ、単にクレーム要素を区別するために、特定の名前を有する1つのクレーム要素を同じ名前を有する他の要素から区別するためのラベルとして(だけ、序数詞を)使用している。
【0014】
図1図3に示すように、図1は、本発明の一実施形態による画像処理システム100のブロック図である。図2は、本発明の一実施形態による画像処理方法の概略図である。図3は、本発明の一実施形態による血管セグメンテーション画像を生成する方法を示す概略図である。
【0015】
図1に示されるように、画像処理システム100は、検眼鏡装置10およびプロセッサ20を含む。
【0016】
一実施形態では、検眼鏡装置10がカラー眼底画像を得るのに用いられる。
【0017】
一実施形態では、検眼鏡装置10は、直接検眼鏡または間接検眼鏡であり得る。直接検眼鏡を例にとると、検眼鏡装置10は、瞳孔を拡張することなく眼底を直接検査することができる。検査は暗い部屋で行われ、医師DRは、検眼鏡装置10を患者PTの右眼または左眼に近づける。検眼鏡装置10の前部は患者PTと接触しており、前眼部開口Aは患者の目を位置合わせするように用いられ、光色(light color)ノブBは発光のために用いられる。いくつかの例では、光色ノブBは、医師DRが検眼鏡装置10の前部を緑色光、白色光、または偏光に発光するのを選択するようにさせることができる。緑色光は血管の大網出血を観察するために用いられ、白色光は一般的な検査に用いられ、偏光は角膜の反射をなくすために用いられる。角膜の反射がなくなると、眼底の観察がしやすくなる。鋼製リングノブCは、医師DRが検眼鏡装置10の前部にある小さい開口、大きい開口、青色の開口などを選択することができるようになっている。小さい開口は、小さい瞳孔に用いられ、大きい開口は大きい瞳孔に用いられ、青色の開口は、蛍光染色に用いられる。
【0018】
検眼鏡装置10の裏側は、医師DRに面している。いくつかの検眼鏡装置10は、裏側にディスプレイを有する。医師DRは、ディスプレイから患者PTの眼底を直接見ることができる。一実施形態では、検眼鏡装置10は、デジタル眼底カメラである。一般に、200万画素以上のデジタルカメラが、図3のカラー眼底画像310などの高解像度眼底画像を得るのに用いられる。デジタルカメラは、眼底カメラの専用インターフェースに接続され、必要な眼底画像を撮影し、次いで、データ伝送リンクLKを介してコンピュータシステムに送信し、画像解析、保存、および印刷を行う。一実施形態では、プロセッサ20は、カラー眼底画像を受信し、画像分析を実行する役割を担う。
【0019】
一実施形態では、検眼鏡装置10で撮影された眼底画像(即ち、カラー眼底画像310)は、有線または無線伝送によってコンピュータシステムに送信することができる。
【0020】
しかしながら、市場には様々なスタイルやモデルの眼底検査装置があり、これはその一例である。カラー眼底画像を撮影することができる任意の検眼鏡装置であれば、実施形態に適用することができる。
【0021】
一実施形態では、プロセッサ20は、ノートブックコンピュータ、デスクトップコンピュータ、タブレット、携帯電話、または他の電子機器に配置することができる。一実施形態では、プロセッサ30は、例えば、マイクロコントローラ、マイクロプロセッサ、デジタル信号プロセッサ、特定用途向け集積回路(ASIC)または論理回路として実施することができる。
【0022】
画像処理方法200は以下に説明され、画像処理方法200は、画像処理システム100によって実施することができる。
【0023】
ステップ210では、検眼鏡装置10は、カラー眼底画像310を得る。
【0024】
一実施形態では、カラー眼底画像310は、眼球EBの画像である。眼球EBの画像は一般的に赤(または赤やオレンジなどの同様の色)である。視神経乳頭(optic disc)ODと視神経乳頭陥凹(optic cup)OCは、わずかに異なる色領域(例えば、黄色)を示す。
【0025】
より具体的には、医師DRは、検眼鏡装置10を用いて眼底を検査し、医学的に視神経乳頭ODと呼ばれる円板(disk)に類似した構造を見ることができる。これは、視神経が眼球の後部から眼球を貫通する部分を指す。臨床的にこれが視神経の根部である。即ち、この部分の視神経線維は、傘のように約360度放射し(視神経線維は、視神経乳頭OD網(net)から拡張されたカラー眼底マップ310の一部であり、分岐を有する可能性がある)、網膜を構成する。視神経乳頭の外径は中央に陥凹を形成する。カップのような形をしていることから、眼杯OCと呼ばれている。いわゆる陥凹乳頭径比(cup-to-disc ratio: CDR)とは、医師DRがお皿の上にあるコップを見下ろすように、眼底を見ていることを指す。視神経乳頭陥凹OCと視神経乳頭ODの直径の比は、陥凹乳頭径比と呼ばれる。詳細は後述する。
【0026】
ステップ220では、プロセッサ20は、カラー眼底画像310を受信し、画像セグメンテーション操作320を介して、カラー眼底画像310に対応する血管セグメンテーション画像330を生成し、カラー眼底画像310および血管セグメンテーション画像330に対して前処理を行い、初期入力画像410を得る。
【0027】
一実施形態では、画像セグメンテーション操作320は、コンピュータビジョンアルゴリズムまたは深層学習モデルとして実装することができる。コンピュータビジョンアルゴリズムまたは深層学習モデル(例えば、畳み込みニューラルネットワーク、U-Netモデル)は、既存の方法を用いて実施することができる。
【0028】
図3に示されるように、プロセッサ20がカラー眼底画像310を受信した後、プロセッサ20は、カラー眼底画像310の血管をセグメント化する必要がある。プロセッサ20は、画像セグメンテーション操作320(コンピュータビジョンアルゴリズムまたは深層学習モデル)を介して、カラー眼底画像310に対応する血管セグメンテーション画像330を生成する。言い換えれば、プロセッサ20は、カラー眼底画像310内の血管以外の画像をフィルタリングして、血管セグメンテーション画像330を生成する。
【0029】
一実施形態では、血管セグメンテーション画像330は、グレースケール画像であり、前処理とは、カラー眼底画像310と血管セグメンテーション画像330を重ね合わせて、初期入力画像410を得ることを指す。
【0030】
一実施形態では、プロセッサ20がカラー眼底マップ310内の赤色をフィルタリングした後、次いで、赤色がフィルタリングされたカラー眼底画像310と血管セグメンテーション画像330を重ね合わせる。
【0031】
一実施形態では、プロセッサ20は、血管セグメンテーション画像330内で最も厚い血管画像Lを選択して、視神経乳頭画像の長軸を決定し、長軸に垂直な次に厚い血管画像Wを選択して、視神経乳頭画像の短軸を決定する。視神経乳頭陥凹画像の長軸は視神経乳頭画像の長軸に平行であり、視神経乳頭陥凹画像の短軸は視神経乳頭画像の短軸に平行である。プロセッサ20は、楕円フィッティングアルゴリズムを用いて、視神経乳頭画像の長軸および視神経乳頭画像の短軸に従って視神経乳頭画像を切り出す。プロセッサ20は、楕円フィッティングアルゴリズムを用いて、視神経乳頭陥凹画像の長軸および視神経乳頭陥凹画像の短軸に従って視神経乳頭画像を切り出す。視神経乳頭画像の詳細は後述する。
【0032】
ステップ230では、プロセッサ20は、初期入力画像410を深層学習モデルに入力し、深層学習モデルは、値を出力する。
【0033】
一実施形態では、深層学習モデルは、畳み込みニューラルネットワークなどのニューラルネットワークであり得る。
【0034】
一実施形態では、深層学習モデルは、U-Net深層学習セグメンテーションネットワークを適用することができる。図5に示すように、図5は、本発明の実施形態によるU-Net深層学習セグメンテーションネットワークの概略図である。図5は、U-Net深層学習セグメンテーションネットワークを簡略化したものであり、U-Net深層学習セグメンテーションネットワークの概念を説明するためにのみ用いられる。実施中には、U-Net深層学習セグメンテーションネットワークのパラメータは、出力結果の精度に応じて調整することができる。U-Net深層学習セグメンテーションネットワークは、医用画像の画像セグメンテーションに一般的に用いられるネットワークである。一実施形態では、U-Net深層学習セグメンテーションネットワークの経路は、左側の収縮経路と右側の拡張経路によって形成され、左側では2x2の最大プーリングの方法が用いられてダウンサンプリングする。元の画像から抽出されたデータの量は長方形で表されているため、長方形の面積がますます小さくなっていることがわかる。右側では、2x2のアップコンボリューションを用いてアップサンプリングをし、次いで同次元の低深度の特徴テンソルを連結する。そのため、データ量を表す長方形がますます大きくなり、最終的にセグメンテーション画像が出力されることがわかる。これはほんの一例である。U-Net深層学習セグメンテーションネットワークは、さまざまなバリエーションを有することができる。U-Net深層学習セグメンテーションネットワークのパラメータは、実際の実施に応じて調整される、またはパラメータ(例えば、画素サンプリングを縮減するときにU-Net深層学習セグメンテーションネットワークによって撮像された複数の特徴)は、他のアプリケーション用に取り出すことができる。
【0035】
一実施形態では、ステップ230において、U-Net深層学習セグメンテーションネットワークのいくつかのパラメータが、適用のために取り出される。例えば、プロセッサ20は、U-Net深層学習セグメンテーションネットワークによって抽出された複数の特徴を有するニューラルネットワークを形成し、初期入力画像410が正常であるかどうかを判定する。
【0036】
図4に示すように、図4は、本発明の一実施形態による視神経欠損状態430の評価方法を示す概略図である。一実施形態では、プロセッサ20は、初期入力画像410を深層学習モデル420に入力する。深層学習モデル420は、視神経欠損状態430を出力する。視神経欠損状態430は、確率を表す数値であり得る。値が大きいほど視神経欠損の確率が高く、値が小さいほど視神経欠損の確率が低いことを示す。しかしながら、ここでの値の定義は一例に過ぎない。一実施形態では、深層学習モデル420によって出力された欠損430は、欠損の位置を枠で囲む(frame)か、または領域をマークし、その後、プロセッサ20が欠損状態を判定することができる。例えば、プロセッサ20は、全体的な初期入力画像410に対する欠損領域の比率を計算するか、または欠損位置が視神経の末端にあるか視神経の根にあるかどうかを判定する。
【0037】
一実施形態では、プロセッサ20は、初期入力画像410をニューラルネットワーク内に入力し、ニューラルネットワークは値を出力する。ニューラルネットワークは、トレーニングされていないU-Net深層学習セグメンテーションネットワークによって抽出された複数の特徴を分類し、次いで、分類後の複数の特徴がニューラルネットワークに結合される。プロセッサ20は、初期入力画像410をニューラルネットワークに入力し、ニューラルネットワークは値を出力する。一実施形態では、プロセッサ20は、ピクセルサンプリングを低減するときに、トレーニングされていないU-Net深層学習セグメンテーションネットワークによって抽出された複数の特徴を取り出し、これらの特徴を分類し、次いで分類された特徴をニューラルネットワークに結合する。また、プロセッサ20は、初期入力画像410をこのニューラルネットワーク内に入力し、ニューラルネットワークは値を出力する。
【0038】
一実施形態では、プロセッサ20は、初期入力画像410をニューラルネットワーク内に入力し、ニューラルネットワークは値を出力する。ニューラルネットワークは、トレーニングされたU-Net深層学習セグメンテーションネットワークによって抽出された複数の特徴を取り出し、これらの各特徴の重みを固定し、完全接続層(fully connected layer)の重みを調整してニューラルネットワークを生成する。さらに、プロセッサ20は、初期入力画像410をこのニューラルネットワーク内に入力し、ニューラルネットワークは値を出力する。
【0039】
ステップ240では、プロセッサ20は、陥凹乳頭径比および値に基づいて眼底画像解析情報を生成する。
【0040】
一実施形態では、プロセッサ20は、値が閾値(例えば、50%の確率値である0.5)より大きいかどうかを判定するためにさらに用いられる。値が閾値より大きい場合、カラー眼底画像310は異常であると見なされる。値が閾値より大きくない場合、カラー眼底画像310は正常であると見なされる。従って、眼底画像解析情報は、カラー眼底画像310が正常または異常であるという情報を含む。カラー眼底像310が正常であることは、カラー眼底像310の神経線維が正常であることを表している。また、カラー眼底画像310が異常であることは、神経線維欠損がカラー眼底画像310に存在することを表している。
【0041】
図6に示すように、図6は、本発明の一実施形態による画像処理方法600のフローチャートである。ステップ620および640は、並行して順次処理することができ、特定の処理順序はない。ステップ650および655は、並行して順次処理することができ、特定の処理順序はない。ステップ660および630が完了した後、ステップ670が実行される。
【0042】
ステップ610では、プロセッサ20は、カラー眼底画像310を受信する。
【0043】
ステップ620では、プロセッサ20は、コンピュータビジョンアルゴリズムまたは深層学習モデルを用いて、カラー眼底画像310に対応する血管セグメンテーション画像330を生成し、カラー眼底画像310および血管セグメンテーション画像330に対して前処理を行い、初期入力画像410を取得する。
【0044】
ステップ630では、プロセッサ20は、初期入力画像410を畳み込みニューラルネットワーク内に入力し、畳み込みニューラルネットワークは値を出力する。
【0045】
図6および図7図9に一緒に示すように、図7は、本発明の一実施形態による視神経乳頭陥凹(optic cup)および視神経乳頭(optic disc)システム700のモデルの概略図である。図8は、本発明の一実施形態によるニューラル乳頭意味解析画像(neural cup semantic analysis image)の概略図である。図9は、本発明の一実施形態による視神経乳頭陥凹の意味解析画像(neural cup semantic analysis image)の概略図である。陥凹乳頭径比を生成する方法は、以下、即ちステップ640~670で詳述する。
【0046】
一実施形態では、プロセッサ20は、カラー眼底画像310内に視神経乳頭画像を配置する(ステップ640)。プロセッサ20は、視神経乳頭画像を切り出す(ステップ645)。プロセッサ20は、切り出された視神経乳頭画像を視神経乳頭システムに入力する。
【0047】
一実施形態では、例えば、図3に示された血管セグメンテーション画像330は、このステップでは、プロセッサ20は、血管セグメンテーション画像330内で最も厚い血管画像Lを選択して、視神経乳頭画像の長軸を決定し、長軸に垂直な次に厚い血管画像を選択して、視神経乳頭画像の短軸を決定する。プロセッサ20は、楕円フィッティングアルゴリズムを用いて、視神経乳頭画像の長軸および視神経乳頭画像の短軸に従って視神経乳頭画像を切り出す。一実施形態では、プロセッサ20は、視神経乳頭画像の長軸、短軸、および楕円フィッティングアルゴリズムを用いて、視神経乳頭画像範囲を大まかに円で囲むことができる。プロセッサ20は、視神経乳頭の画像範囲を選択する最小の正方形を見つけることができる。切り出すとき、プロセッサ20は、最小の正方形の横軸および縦軸をもう少し拡大し(例えば、横軸の左右側に5画素、および縦軸の上下に5画素)、拡大された正方形を切り出することができる。正方形は、全ての視神経乳頭画像が範囲内にあることを確保するのに十分な大きさである。
【0048】
一実施形態では、プロセッサ20は、視神経乳頭画像を深層学習セグメンテーションネットワークU1内に入力し、深層学習セグメンテーションネットワークU1は、ニューラル乳頭意味解析画像800を出力する(ステップ650)。
【0049】
図8に示すように、ニューラル乳頭意味解析画像800は、グレースケール画像であり、その中の白色領域は、ニューラル乳頭画像範囲PODを表す。一実施形態では、深層学習セグメンテーションネットワークU1は、U-Net深層学習セグメンテーションネットワークである。プロセッサ20が視神経乳頭画像をU-Net深層学習セグメンテーションネットワーク内に入力した後、U-Net深層学習セグメンテーションネットワークによって出力されたニューラル乳頭意味解析画像800では、ニューラル乳頭画像範囲PODは白色であり、残りは黒色である。
【0050】
一実施形態では、プロセッサ20は、視神経乳頭画像を深層学習セグメンテーションネットワークU2内に入力し、深層学習セグメンテーションネットワークU2は、ニューラル乳頭意味解析画像800を出力する(ステップ655)。
【0051】
図9に示すように、ニューラル乳頭陥凹意味解析画像900は、グレースケール画像であり、その中の白色領域は、ニューラル乳頭陥凹画像範囲POCを表す。一実施形態では、深層学習セグメンテーションネットワークU2は、もう1つのU-Net深層学習セグメンテーションネットワークである。プロセッサ20が視神経乳頭画像をもう1つのU-Net深層学習セグメンテーションネットワーク内に入力した後、もう1つのU-Net深層学習セグメンテーションネットワークによって出力されたニューラル乳頭意味解析画像800では、ニューラル乳頭陥凹画像範囲POCは白色であり、残りは黒色である。
【0052】
一実施形態では、プロセッサ20が、視神経乳頭画像を切り出した後(ステップ645)、視神経乳頭画像の中心点を原点とし、極座標変換を行って、極座標変換された視神経乳頭画像を生成する。プロセッサ20は、極座標変換された視神経乳頭画像を、深層学習セグメンテーションネットワークU1内に入力し、深層学習セグメンテーションネットワークU1は、視神経乳頭意味解析画像800を出力する(ステップ650)。プロセッサ20は、極座標変換された視神経乳頭画像を、深層学習セグメンテーションネットワークU2内に入力し、深層学習セグメンテーションネットワークU2は、視神経乳頭意味解析画像を出力する(ステップ655)。極座標変換された視神経乳頭画像は棒グラフであるため、深層学習セグメンテーションネットワークU1およびU2は、円グラフを認識するよりも棒グラフを認識する方が優れている。従って、極座標変換された視神経乳頭画像は、深層学習セグメンテーションネットワークU1およびU2の認識精度を向上させることができる。
【0053】
一実施形態では、切り出された視神経乳頭画像、ニューラル乳頭意味解析画像800、およびニューラル乳頭陥凹意味解析画像900は、同次元を有する。深層学習セグメンテーションネットワークU1とU2の入力は、全て同じ切り出された視神経乳部の画像である。深層学習セグメンテーションネットワークU1は、ニューラル乳頭意味解析画像800を出力し、深層学習セグメンテーションネットワークU2は、ニューラル乳頭陥凹意味解析画像900を出力する。
【0054】
ステップ660では、プロセッサ20は、ニューラル乳頭意味解析画像800(即ち、ニューラル乳頭画像範囲POD)の白色領域を、ニューラル乳頭陥凹意味解析画像900(即ち、ニューラル乳頭陥凹画像範囲POC)の白色領域で分割し、陥凹乳頭径比を得る。
【0055】
ステップ670では、プロセッサ20は、陥凹乳頭径比および値に従って眼底画像解析情報を生成する。
【0056】
一実施形態では、眼底画像解析情報は、陥凹乳頭径比、陥凹乳頭径比が正常な人間の眼の範囲内にあるかどうか、視神経線維に欠損があるかどうか(視神経線維が正常かまたは異常か)などを含む。
【0057】
本発明に示される画像処理システムおよび画像処理方法は、カラー眼底画像を解析して、陥凹乳頭径比および視神経欠損の確率を計算し、眼底画像解析情報を用いて、医師が緑内障の診断にカラー眼底画像を用いるのをアシストすることができるようにする。例えば、医師が陥凹乳頭径比が正常な人間の目の範囲内に収まっており、視神経欠損の確率が50%以下であると確認した場合、医師はまず患者が正常であると考え得る。医師が陥凹乳頭径比が正常な人間の目の範囲内に収まっておらず、視神経欠損の確率が50%以下であると確認した場合、医師はまず患者が良性緑内障の疑いがあると考え得る。医師が陥凹乳頭径比が正常な人間の目の範囲内に収まっておらず、視神経欠損の確率が50%以下であると確認した場合、医師はまず患者が悪性緑内障であると考え得る。医師は、患者が眼科用光干渉断層撮影を撮る必要があると考え、次いで医師は断層撮影に基づいて診断が確定されたかどうかを判断する。このようにして、画像処理システムと画像処理方法は、多くの情報を生成し、視神経欠損の確率と陥凹乳頭径比を統合して、医師が患者の緑内障の重症度を評価する助けをすることができる。
【0058】
本発明の方法、またはその特定の形態または一部は、コードの形態で存在することができる。コードは、フロッピーディスク、CD-ROM、ハードディスク、または他の機械読み取り可能な(コンピュータ読み取り可能な)記憶媒体などの物理媒体、または外部形式に限定されないコンピュータプログラム製品に含まれることもできる。コンピュータなどの機械によってプログラムコードがローディングされて実行されたとき、その機械は、本発明に関与する装置となる。コードは、ワイヤまたはケーブル、光ファイバー、または任意の伝送タイプなど、いくつかの伝送媒体を介して伝送することもできる。コードがコンピュータなどの機械によって受信され、ローディングされて実行されたとき、その機械は、本発明に関与する装置となる。汎用処理ユニットに実装されたとき、処理ユニットと組み合わされたコードは、アプリケーション固有の論理回路と同様に動作する独自の装置を提供する。
【0059】
本発明では好ましい実施例を前述の通り開示したが、これらは決して本発明に限定するものではなく、当該技術を熟知する者なら誰でも、本発明の精神と領域を脱しない範囲内で各種の変更や潤色を加えることができ、従って本発明の保護範囲は、特許請求の範囲で指定した内容を基準とする。
【符号の説明】
【0060】
100 画像処理システム
PT 患者
10 検眼鏡装置
A 前眼部開口
B 光色ノブ
C 鋼製リングノブ
DR 医師
LK データ伝送リンク
20 プロセッサ
200 画像処理方法
210~240 ステップ
310 カラー眼底画像
EB 眼球
OD 視神経乳頭(optic disc)
OC 視神経乳頭陥凹(optic cup)
320 画像セグメンテーション操作
330 血管セグメンテーション画像
L 最も厚い血管画像
W 長軸に垂直なもう1つの厚い血管画像
410 初期入力画像
420 深層学習モデル
430 視神経欠損状態
U1、U2 深層学習セグメンテーションネットワーク
600 画像処理方法
610~670 ステップ
800 ニューラル乳頭意味解析画像
POD ニューラル乳頭画像範囲
900 ニューラル乳頭陥凹意味解析画像
POC ニューラル乳頭陥凹画像範囲


図1
図2
図3
図4
図5
図6
図7
図8
図9