(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-08-01
(45)【発行日】2024-08-09
(54)【発明の名称】医療用画像解析方法
(51)【国際特許分類】
A61B 6/00 20240101AFI20240802BHJP
G06T 7/00 20170101ALI20240802BHJP
G06V 10/82 20220101ALI20240802BHJP
【FI】
A61B6/00 550Z
A61B6/00 560
G06T7/00 612
G06T7/00 350C
G06V10/82
(21)【出願番号】P 2023047867
(22)【出願日】2023-03-24
【審査請求日】2023-03-24
(32)【優先日】2022-03-25
(33)【優先権主張国・地域又は機関】TW
(32)【優先日】2022-03-25
(33)【優先権主張国・地域又は機関】TW
(73)【特許権者】
【識別番号】523108625
【氏名又は名称】バイオメディカ コーポレーション
(73)【特許権者】
【識別番号】523108636
【氏名又は名称】ツァン,ハン-ウェイ
(74)【代理人】
【識別番号】110000671
【氏名又は名称】IBC一番町弁理士法人
(72)【発明者】
【氏名】ツァン,ハン-ウェイ
【審査官】亀澤 智博
(56)【参考文献】
【文献】国際公開第2021/221008(WO,A1)
【文献】特開2021-144675(JP,A)
【文献】特開2019-093137(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
A61B 6/00 - 6/58
A61B 5/055
G01T 1/161 - 1/166
G06T 1/00 , 7/00
G16H 30/00 -30/40
(57)【特許請求の範囲】
【請求項1】
コンピュータによって実行される医療用画像解析方法であって、前記医療用画像解析方法は、
医療用画像を取得し、
前記医療用画像における少なくとも1つの検出領域を選択し、
前記検出領域におけるターゲット画像に対して画像標準化処理を行って解析対象画像を取得し、
前記解析対象画像を画像分類モデルに入力することにより、疾患分析結果を獲得
し、
前記画像分類モデルにはトリプレット損失モデルが含まれ、
前記トリプレット損失モデルの出力結果を、主成分分析によって削減し、座標ドロップポイントに変換し、
前記座標ドロップポイントに所在するグループ範囲に基づいて、前記解析対象画像が所属する分析タイプを取得する
ことを特徴とする医療用画像解析方法。
【請求項2】
全ての前記複数の解析対象画像の前記分析タイプを統合することにより、前記疾患分析結果を獲得する
ことを特徴とする
請求項1に記載の医療用画像解析方法。
【請求項3】
前記画像分類モデルは畳み込みニューラルネットワー
クを更に含み、前記医療用画像解析方法は更に、
前記解析対象画像を前記畳み込みニューラルネットワークに入力し、前記畳み込みニューラルネットワークからの出力から特徴ベクトルを取得し、
前記特徴ベクトルを前記トリプレット損失モデルに入力
することを含む
ことを特徴とする請求項1に記載の医療用画像解析方法。
【請求項4】
全ての前記複数の解析対象画像の前記分析タイプを統合することにより、前記疾患分析結果を獲得する
ことを特徴とする
請求項3に記載の医療用画像解析方法。
【請求項5】
前記画像分類モデルを介して抽出された複数の特徴を、リスク値を取得するために、リスク値予測モデルに入力する
ことを特徴とする
請求項3に記載の医療用画像解析方法。
【請求項6】
前記複数の特徴を前記リスク値予測モデルに入力する前に、更に、前記複数の特徴に対して正規化を行うことを含む
ことを特徴とする
請求項5に記載の医療用画像解析方法。
【請求項7】
前記リスク値予測モデルは多層パーセプトロンである
ことを特徴とする
請求項5に記載の医療用画像解析方法。
【請求項8】
前記検出領域を選択はオブジェクト検出モデルによって実現されるものである
ことを特徴とする請求項1に記載の医療用画像解析方法。
【請求項9】
前記解析対象画像を前記画像分類モデルに入力するステップは、
各前記解析対象画像を前記画像分類モデルにそれぞれ入力して、前記解析対象画像を分析タイプにそれぞれ分類し、
前記複数の解析対象画像に対応する前記分析タイプにおける多い方を、前記疾患分析結果とすることが含まれる
ことを特徴とする請求項1に記載の医療用画像解析方法。
【請求項10】
前記医療用画像の品質が要件を満たしているか確認する場合、前記医療用画像はX線画像である
ことを特徴とする請求項1に記載の医療用画像解析方法。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は医療用画像解析方法に関し、特にニューラルネットワークモデルを用いた医療用画像解析方法に関する。
【背景技術】
【0002】
一般に骨密度計として知られる二重エネルギーX線吸収測定装置(dual energy x-ray absorptiometry,DXA)は、2つのエネルギーのX線を生成できる。
【0003】
異なるエネルギーのX線は、異なる媒体によって異なる方法で減衰される。媒体の密度が高いほどX線の減衰が大きくなる。このようにして、身体の様々な部位の骨密度を検出することができる。
【発明の概要】
【発明が解決しようとする課題】
【0004】
しかし、DXAの測定時間は通常15分から20分間必要となり、設備費も通常のX線装置に比べて高いので、公的検査の普及には繋がらなかった。
【0005】
更に、医学的疾患の検出には組織スライス画像(イメージ)の分析が必要になることが多く、塗抹検査から得られた細胞サンプルから疾患の種類と重症度を分析できる。しかし、手作業で確認するのは手間がかかる上に、判断ミスも起こり易いという問題がある。
【課題を解決するための手段】
【0006】
本発明は上述した問題に鑑みて以下の構成を備える。即ち、
コンピュータによって実行される医療用画像解析方法であって、前記医療用画像解析方法は、
医療用画像を取得し、
前記医療用画像における少なくとも1つの検出領域を選択し、
前記検出領域におけるターゲット画像に対して画像標準化処理を行って解析対象画像を取得し、
前記解析対象画像を画像分類モデルに入力することにより、疾患分析結果を獲得する
ことを特徴とする医療用画像解析方法。
【0007】
前記画像分類モデルにはトリプレット損失モデルが含まれる
ことを特徴とする請求項1に記載の医療用画像解析方法。
【0008】
前記トリプレット損失モデルの出力結果を、主成分分析によって削減し、座標ドロップポイントに変換し、
前記座標ドロップポイントに所在するグループ範囲に基づいて、前記解析対象画像が所属する分析タイプを取得する
ことを特徴とする請求項2に記載の医療用画像解析方法。
【0009】
全ての前記複数の解析対象画像の前記分析タイプを統合することにより、前記疾患分析結果を獲得する
ことを特徴とする請求項3に記載の医療用画像解析方法。
【0010】
前記画像分類モデルは畳み込みニューラルネットワークとトリプレット損失モデルを含み、前記医療用画像解析方法は更に、
前記解析対象画像を前記畳み込みニューラルネットワークに入力し、前記畳み込みニューラルネットワークからの出力から特徴ベクトルを取得し、
前記特徴ベクトルを前記トリプレット損失モデルに入力し、
前記トリプレット損失モデルの出力結果を、主成分分析によって削減し、座標ドロップポイントに変換し、
前記座標ドロップポイントに所在するグループ範囲に基づいて、前記解析対象画像が所属する分析タイプを取得することを含む
ことを特徴とする請求項1に記載の医療用画像解析方法。
【0011】
全ての前記複数の解析対象画像の前記分析タイプを統合することにより、前記疾患分析結果を獲得する
ことを特徴とする請求項5に記載の医療用画像解析方法。
【0012】
前記画像分類モデルを介して抽出された複数の特徴を、リスク値を取得するために、リスク値予測モデルに入力する
ことを特徴とする請求項5に記載の医療用画像解析方法。
【0013】
前記複数の特徴を前記リスク値予測モデルに入力する前に、更に、前記複数の特徴に対して正規化を行うことを含む
ことを特徴とする請求項7に記載の医療用画像解析方法。
【0014】
前記リスク値予測モデルは多層パーセプトロンである
ことを特徴とする請求項7に記載の医療用画像解析方法。
【0015】
前記検出領域を選択はオブジェクト検出モデルによって実現されるものである
ことを特徴とする請求項1に記載の医療用画像解析方法。
【0016】
前記解析対象画像を前記画像分類モデルに入力するステップは、
各前記解析対象画像を前記画像分類モデルにそれぞれ入力して、前記解析対象画像を分析タイプにそれぞれ分類し、
前記複数の解析対象画像に対応する前記分析タイプにおける多い方を、前記前記疾患分析結果とすることが含まれる
ことを特徴とする請求項1に記載の医療用画像解析方法。
【0017】
前記医療用画像の品質が要件を満たしているか確認する場合、前記医療用画像はX線画像である
ことを特徴とする請求項1に記載の医療用画像解析方法。
【発明の効果】
【0018】
本発明の実施形態の医療用画像解析方法によれば、医療用画像に基づいて可能性のある疾患を自動的に解析することができる。また、本発明の複数の実施形態によれば、リスク値を更に分析することができる。
【図面の簡単な説明】
【0019】
【
図1】本発明の医療用画像解析方法の第1の実施形態を説明するフローチャートである。
【
図2】本発明の実施形態による画像標準化処理の詳細なフローチャートである。
【
図3】本発明の他の実施形態による画像標準化処理の詳細なフローチャートである。
【
図4】本発明の実施形態による画像分類処理の詳細なフローチャートである。
【
図5】本発明の他の実施形態による画像分類処理の詳細内フローチャートである。
【
図6】本発明の他の実施形態による画像分類処理の詳細なフローチャートである。
【
図7】本発明の実施形態によるリスク値予測の詳細なフローチャートである。
【
図8】本発明の第2の実施形態によるリスク値予測の詳細なフローチャートである。
【
図9】本発明の第3の実施形態によるリスク値予測の詳細なフローチャートである。
【
図10】本発明の第4の実施形態によるリスク値予測の詳細なフローチャートである。
【
図11】本発明の他の実施形態による医療用画像解析方法の第1の実施形態を説明するフローチャートである。
【
図12A】要件に適合したX線画像を示した図である。
【
図12B】要件に適合しないX線画像を示した図である。
【
図12C】他の要件に適合しないX線画像を示した図である。
【発明を実施するための形態】
【0020】
図1を参照して説明する。ここで、
図1は本発明の医療用画像解析方法の第1の実施形態を説明するフローチャートである。まず、医療用画像を取得する(ステップ100)。特定する患者の疾患の種類に応じて、対応する医療用画像を使用することができる。例えば、X線画像は骨粗鬆症の特定に使用され、パップスミア画像は子宮頸癌の特定に使用され、骨髄塗抹の画像は血液の癌の特定に使用される。
【0021】
本実施形態では、骨粗鬆症を識別するために使用されるX線画像は、脊椎のX線画像、大腿骨のX線画像、鎖骨のX線画像、又は中手骨のX線画像である。
【0022】
本発明では、脊椎のX線画像、大腿骨のX線画像、鎖骨のX線画像、又は中手骨のX線画像の特徴を分析することにより、骨の損失によって引き起こされる微妙な組織構造の変化に基づいて、対応する部分が損傷を受けているかどうかを判断することができる。
【0023】
X線画像は、X線診断装置、移動式X線装置、又はX線装置の巡回車両を利用することにより取得される。装置コストと測定時間は、従来のデュアルエネルギーのX線吸収測定装置よりも低くできる。
【0024】
ステップ200において、医療用画像内の少なくとも1つの検出領域が選択される。例えば、大腿骨のX線画像の場合、大腿骨頸部が検出領域として使用される。
【0025】
また、本実施形態では、ステップ200では、更にユーザが検出領域を一周するためのユーザインターフェースを提供する。
【0026】
本実施形態では、ステップ200は、オブジェクト(物体)検出モデルを利用することにより実施される。オブジェクト検出モデルは、たとえば、Mask R-CNN、YOLO等のモデルにすることができる。
【0027】
オブジェクト検出モデルは事前にトレーニングする必要がある。複数のサンプル画像と、検出ターゲット(例:大腿骨頸部、細胞)を含む対応するラベル付き領域をオブジェクト検出モデルに入力することにより、オブジェクト検出モデルは、大腿X線画像の大腿骨頸部又はスミア(Smear)画像の個々の細胞を検出するようにトレーニングされる。
【0028】
ステップ300では、分析対象の画像である解析対象画像を取得するために、検出領域内のターゲット画像に対して画像標準化(正規化)処理が実行される。
【0029】
説明の都合上、画像標準化処理の詳細な流れは後段で行う。画像標準化により、画像分類モデルへの入力に適した適切なサイズで細部が鮮明な画像を取得できる。
【0030】
ステップ400では、解析対象画像を画像分類モデルに入力する。次に、ステップ500では、画像分類モデルの出力に基づいて疾患分析結果を得る。
【0031】
画像分類モデルはニューラルネットワークモデルであり、具体的な実現の方法については後段で詳しく説明する。疾患分析結果は、例えば、特定の疾患(骨粗鬆症、子宮頸癌、血液癌等)が存在するかどうか、又は特定の疾患の持続期間の更なる推定であっても良い。
【0032】
本実施形態では、検出領域のサイズは、ニューラルネットワークモデルの入力仕様に基づいて決定される。たとえば、ニューラルネットワークモデルに入力するのに適した画像サイズが224ピクセルの正方形である場合、検出領域のサイズも224ピクセルの正方形となる。
【0033】
図2を参照して説明する。ここで
図2は、本発明の実施形態による画像標準化処理の詳細なフローチャートである。画像標準化処理ステップ300は、画像鮮鋭化処理(ステップ301)、(ステップ302)、及びスケーリング(ステップ303)を含む。
【0034】
ステップ301では、鮮鋭化(Sharpen)処理又は等化処理(ヒストグラム等化など)を使用して、画像の詳細をより鮮明にすることができる。
【0035】
シャープニング又はイコライジングの前に、カラーのターゲット画像をグレースケール画像に変換するグレースケール処理も含まれる。なお、ターゲット画像が既にグレースケール画像の場合は、グレースケール処理を行う必要はない。
【0036】
ステップ302では、ターゲット画像に対してクロッピングが実行される。ターゲット画像のサイズが前述のニューラルネットワークモデルに必要とされるサイズを満たさない場合、ターゲット画像は対応するサイズに切断(トリミング)される。例えば、ターゲット画像が長方形の場合には、短手方向の寸法を基準に長手方向における長さをトリミングして正方形の画像を得ても良い。
【0037】
ステップ303では、ステップ302で処理された画像サイズが前述のニューラルネットワークモデルのサイズを満たさない場合、スケーリング(比率を縮小又は拡大すること)して、前述のニューラルネットワークモデルに必要とされるサイズを取得する。上述のステップ301~303により、ターゲット画像に対して前処理をした後、解析対象画像を得ることができる。
【0038】
図3を参照して説明する。ここで、
図3は本発明の他の実施形態による画像標準化処理の詳細なフローチャートである。
図2と比較すると、本実施形態の画像標準化処理は、高テクスチャ特徴領域を計算するステップ(ステップ313)と、範囲サンプリングのステップ(ステップ314)を更に含む。なお、ステップ311、312、及び315は、それぞれステップ301、302、及び303と同様なので、ここでは説明を繰り返さない。
【0039】
ステップ313では、エッジ検出アルゴリズムを使用して、画像内のテクスチャを検出する。エッジ検出アルゴリズムは、例えば、Cannyアルゴリズム、Sobelアルゴリズム等であり得る。特に骨粗鬆症の識別のために、骨組織が最も多い領域をステップ313で発見できる。
【0040】
ステップ314では、ステップ313で発見した骨組織が最も多い領域の中心に基づいて特定の範囲を拡張し、ステップ400では、検出領域と同じサイズの複数の領域画像が特定の範囲内でランダムにサンプリングされ、これらの領域画像が画像分類モデルに入力される。
【0041】
ここでは、サンプリングされた領域画像がニューラルネットワークモデルの必要なサイズを満たしているので、ステップ315は省略しても良い。
【0042】
図4を参照して説明する。ここで、
図4は本発明の実施形態による画像分類処理の詳細なフローチャートである。ステップ401では、前述の解析対象画像又は領域画像が画像分類モデルに入力される。
【0043】
ここで、画像分類モデルはトリプレット損失 (Triplet Loss)モデルである。トリプレット損失モデルは、多様性の少ないデータセットをトレーニングするために使用される。入力データには、アンカー (Anchor)の例や、ポジティブ(Positive)の例や、ネガティブ (Negative)の例が含まれる。
【0044】
モデルを最適化することで、アンカーの例とポジティブの例の距離がアンカーの例とネガティブの例の距離よりも短くなり、サンプルの類似度の計算を実現できる。
【0045】
アンカーの例は、サンプルセット内でランダムに選択されたサンプルであり、ポジティブの例とアンカーの例は同じクラスのサンプルに属し、ネガティブの例とアンカーの例は異なるクラスのサンプルに属する。このようにして、トリプレット損失モデルを通じて画像の特徴をグループ化できる。
【0046】
例えば、骨粗鬆症を伴う集団と骨粗鬆症を伴わない集団とを区別する。前述の子宮頸癌と血液癌の識別では、解析対象画像や局所画像内の個々の細胞をグループ化し、異なる種類の細胞を識別する。ここで、各解析対象画像又は各領域画像は、個々の細胞画像を1つのみ有する。
【0047】
ステップ402において、トリプレット損失モデルの出力は、主成分分析(Principal Component Analysis,PCA)によって次元が削減される。主成分分析は、特徴空間内のデータの射影軸を見つけることができ、射影後にこのデータグループの最大変異量を取得できる。
【0048】
このようにして、次元数を効果的に減らすことができるが、全体的な変異量としては決して多くの量は減らない。このように、主成分分析を用いてグループ化の結果の次元を削減し、各グループの分布座標情報を取得することができる。
【0049】
ステップ401と402の後、解析対象画像又はトリプレット損失モデルに入力された領域画像を座標ドロップポイントに変換することができる。
【0050】
ステップ403では、トレーニング過程で得られた各グループの分布座標情報に基づいて、座標がどのグループの範囲に属するかを判断し、画像がどのグループ(または分析タイプ)に属するかを取得する。
【0051】
ステップ404は、全ての分析タイプを統合することである。ここで、全ての分析タイプを統合することとは、同一の医療用画像に対応する解析対象画像ごと、又は撮影された領域画像ごとに得られた解析タイプを統合することをいう。
【0052】
例えば、同じ医療用画像に対して3つの領域画像がキャプチャされた場合、3つの領域画像は前述のステップ401から403を経た後、それぞれ分析タイプを取得する。ステップ404では、3つの分析タイプが統合され、ステップ500では、統合された結果に基づいて疾患分析結果が得られる。
【0053】
具体的には、分析タイプの多さ(多数決)に基づいて疾患分析結果を求めている。例えば、3つの分析タイプが、骨粗鬆症を患っている2つのタイプと、骨粗鬆症を患っていない1つのタイプである場合、疾患分析結果は、多数決によって骨粗鬆症を患っていると特定される。
【0054】
他の例として、合計N個の細胞の個体の解析対象画像(又は領域画像)が同じ医療用画像に取り込まれ、前述のステップ401~403の後、ステップ404において、N個の個々の細胞をK個の細胞のタイプにグループ化することによって、様々な細胞タイプの個々の細胞数を数えることができ、ステップ500では、これらの細胞タイプの対応する数に基づいて疾患タイプを識別できる。
【0055】
図5を参照して説明する。ここで、
図5は本発明の他の実施形態による画像分類処理の詳細内フローチャートである。
【0056】
図4との違いは、本実施形態が畳み込みニューラルネットワーク(Convolutional Neural Networks,CNN)を画像分類モデルとして使用することである。画像分類モデルは、たとえば、ディープ残差ネットワーク(Deep residual network,ResNet)、グーグルLeネット(GoogleLeNet)、デンスネット(DenseNet)等である。
【0057】
モデルをトレーニングする場合、トレーニングサンプルとして医療用画像を前述の方法に基づいて取得し、解析対象画像又は領域画像を取得し、医療用画像の解析タイプをマークしてモデルに入力する。
【0058】
畳み込みニューラルネットワークの最終層は、抽出された特徴に基づいて可能なクラスの確率を予測するための加重分類器 (例えばXGBoost、重み分類器)である。
【0059】
このため、予測判断する際には、識別対象の医療用画像を前述の方法で解析対象画像又は領域画像に入力し(ステップ411)、予測解析タイプを得ることができる(ステップ412)。ステップ413は、前述のステップ404と同様なので、ここでは説明を繰り返さない。
【0060】
次に、
図6を参照して説明する。ここで
図6は本発明の他の実施形態による画像分類処理の詳細なフローチャートである。
図4と
図5との違いは、本実施形態の画像分類モデルがトリプレット損失モデルと畳み込みニューラルネットワークを同時に含むことであり、トリプレット損失モデルは、この畳み込みニューラルネットワークの後に接続され、本実施形態では、畳み込みニューラルネットワークの末端には加重分類器は存在しない。
【0061】
ステップ421では、解析対象画像が畳み込みニューラルネットワークに入力される。ここでの畳み込みニューラルネットワークには加重分類器が存在しないため、出力は特徴ベクトルとなる。
【0062】
ステップ422では、特徴ベクトルは、トリプレット損失モデルに入力されるため、トリプレット損失モデルは、特徴ベクトルに基づいて解析対象画像をグループ化する。
【0063】
以降のステップ423~425は、それぞれ前述のステップ402~404と同様である。したがって、ステップ500では、統合結果に基づいて疾患分析結果を得ることができる。
【0064】
図7を参照して説明する。ここで、
図7は本発明の実施形態によるリスク値予測の詳細なフローチャートである。前述の
図5の例から続き、本実施形態では、畳み込みニューラルネットワークによって抽出された特徴を再利用することもできる。
【0065】
抽出された特徴を他のニューラルネットワークモデル(ここではリスク値予測モデルと呼ぶ)に入力する(ステップ700)。 ここで、リスク値予測モデルは、多層パーセプトロン(Multilayer perceptron,MLP)であってもよい。
【0066】
トレーニング中に、トレーニングサンプルに対応する抽出された特徴とそれに対応するリスク値がリスク値予測モデルに入力されるため、予測と判定を行うとき、リスク値は、識別されるサンプルの抽出された特徴に基づいて予測され、予測リスク値を得ることができる(ステップ800)。
【0067】
骨粗鬆症識別の適用において、リスク値は、例えば、Tスコア(T-scores)パラメータ又は骨折リスク評価(Fracture Risk Assessment,FRAX)パラメータであり得る。
【0068】
子宮頸癌の識別の適用では、リスク値は、細胞診の等級付け値又は疾患の経過 (子宮頸癌の軽度の前癌病変(Low-Grade Squamous Intraepithelial Lesion,LSIL);重度の前癌病変(High-Grade Squamous Intraepithelial Lesion ,HSIL)等) であり、表1に示すように重症度を表すことができる。
【0069】
【0070】
本実施形態では、畳み込みニューラルネットワークから抽出された特徴に加えて、他の特徴をリスク予測モデルに入力することもできる。例えば、個人データ(性別、年齢など)、身体データ(ボディマス指数(BMI)、身長、体重等)、医療情報(病歴(例えば糖尿病、高血圧))等の特徴である。これらの特徴は、ユーザインターフェースを介してユーザが入力するか、医療記録データベースを読み取ることによって取得できる。
【0071】
図8を参照して説明する。本発明の第2の実施形態によるリスク値予測の詳細なフローチャートである。
図7との差異は、ステップ700の前に、ステップ600も実行されることである。ここで、ステップ600は、抽出された特徴を0と1の間の値の範囲に正規化することである。
【0072】
図9を参照して説明する。ここで、
図9は本発明の第3の実施形態によるリスク値予測の詳細なフローチャートである。上述した
図7と同様に、トリプレット損失モデルによって抽出された特徴も再利用でき、これらの抽出された特徴は、前述のリスク値予測モデルに入力することができる(ステップ700)。なお、ステップ800は上述の通りなので、ここでは説明を繰り返さない。
【0073】
本実施形態では、トリプレット損失モデルから抽出された特徴に加えて、他の特徴もリスク予測モデルに入力することができる。例えば、個人データ(性別、年齢など)、身体データ(ボディマス指数(BMI)、身長、体重等)、医療情報(病歴(例えば糖尿病、高血圧))等の特徴である。なお、これらの特徴は、ユーザインターフェースを介してユーザが入力するか、医療記録データベースを読み取ることによって取得できる。
【0074】
図10を参照して説明する。ここで、
図10本発明の第4の実施形態によるリスク値予測の詳細なフローチャートである。上述した
図8と同様に、ステップ700の前に、抽出された特徴を0と1の間の数値範囲に正規化するステップ600も実行される。
【0075】
次に、
図11を参照して説明する。ここで、
図11は本発明の他の実施形態による医療用画像解析方法の第1の実施形態を説明するフローチャートである。
図1との違いとしては、
図11はX線画像である医療用画像を解析して骨密度解析結果を得るものであり、ステップ101を更に含む点にある。
【0076】
ステップ101では、X線画像の品質(画質)が要件を満たしているかが確認される。要件が満たしている場合(はい)は次のステップに進み、そうでない場合(いいえ)にはプロセスを終了する。
【0077】
具体的には、このステップでは、キャニー(canny)、フォーカス(focus)、ソーベル(Sobel)、ラプラシアン(Laplacian)等のオペレーター関数を使用して、X線画像の画質を確認できる。
【0078】
例えば、しきい値(閾値)を設定することができ、しきい値と比較したX線画像に対して前述の演算子関数の1つを実行した結果に基づいて、このしきい値よりも低い場合は、要件が満たされていることを意味する。
【0079】
たとえば、Sobel 演算子は、水平方向と垂直方向の勾配を計算でき、高すぎるグラデーション値の場合には、イメージに過度のノイズが含まれていることを示す。
【0080】
図12Aと
図12Bを参照して説明する。ここで、
図12Aは要件に適合したX線画像を示した図であり、
図12Bは要件に適合しないX線画像を示した図である。
図12Aとは異なり、
図12Bからは、画像にノイズポイントが多すぎることが分かる。一方、
図12C他の要件に適合しないX線画像を示した図であるが、
図12Cでは、複数の水平に延伸する線(テクスチャ)を含んでしまっていることが分かる。
【0081】
このようにして、X線画像のテクスチャが十分に鮮明であるかどうかを検出することにより、その後の判定結果でエラーを回避するのに十分な鮮明な画像を選び出すことができる。
【0082】
本実施形態では、複数の演算子関数を使用することができ、各演算子関数はしきい値に対応し、これらの演算子関数の計算結果が全て対応するしきい値よりも低い場合、X線画像の画質は要件を満たしていると判断される。
【0083】
上記の医療用画像解析方法は、コンピュータプログラム製品をコンピュータにロードして実行することにより実現される。コンピュータ プログラム製品は、複数のプログラム命令で構成され、非一時的なコンピュータが読み取り可能な記録媒体に格納される。
【0084】
ここで、コンピュータは、例えば、パーソナルコンピュータ、サーバ、並びにコンピューティング機能を備えた他のコンピューティング装置であっても良い。コンピュータは、一般に、処理ユニット(中央処理装置、グラフィック処理装置等)、メモリ、記憶媒体(ハードディスク等)、入出力インターフェース、ネットワークインターフェース等のハードウェア資源を有する。
【0085】
本実施形態では、コンピュータは、医療用画像記憶システム(例えば、Picture archiving and communication system,PACS)又は医療用検出機器と接続して、医療用画像を得ることができる。
【0086】
以上のように、本発明の実施形態の医療用画像解析方法によれば、医療用画像に基づいて可能性のある疾患を自動的に解析することができる。また、本発明の複数の実施形態によれば、リスク値を更に分析することができる。
【符号の説明】
【0087】
100 ステップ
200 検出領域の選択ステップ
300 ステップ
301~303 ステップ
311~315 ステップ
400~404 ステップ
411~413 ステップ
421~425 ステップ
500 ステップ
600 ステップ
700 ステップ
800 ステップ