(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024079743
(43)【公開日】2024-06-11
(54)【発明の名称】画像解析方法、装置、プログラムおよび学習済み深層学習アルゴリズムの製造方法
(51)【国際特許分類】
G06T 7/00 20170101AFI20240604BHJP
G01N 33/48 20060101ALI20240604BHJP
G06V 10/82 20220101ALI20240604BHJP
G06N 3/08 20230101ALI20240604BHJP
【FI】
G06T7/00 630
G01N33/48 M
G06T7/00 350C
G06V10/82
G06N3/08
【審査請求】有
【請求項の数】14
【出願形態】OL
(21)【出願番号】P 2024044051
(22)【出願日】2024-03-19
(62)【分割の表示】P 2022141451の分割
【原出願日】2017-11-17
(71)【出願人】
【識別番号】390014960
【氏名又は名称】シスメックス株式会社
(74)【代理人】
【識別番号】110000796
【氏名又は名称】弁理士法人三枝国際特許事務所
(72)【発明者】
【氏名】関口 陽介
(72)【発明者】
【氏名】袴田 和巳
(72)【発明者】
【氏名】相原 祐希
(72)【発明者】
【氏名】山田 浩平
(72)【発明者】
【氏名】増本 佳那子
(72)【発明者】
【氏名】ジャイン クルパリ
(57)【要約】
【課題】組織または細胞の画像について、細胞核の領域を示すデータを生成する画像解析方法を提供する。
【解決手段】画像解析方法は、ニューラルネットワーク構造の深層学習アルゴリズム60を用いて、組織または細胞の画像を解析する画像解析方法であって、解析対象の組織または細胞を含む解析対象画像78から解析用データ80を生成し、解析用データ80を、深層学習アルゴリズム60に入力し、深層学習アルゴリズム60によって、解析対象画像78における細胞核の領域を示すデータ82,83を生成する。
【選択図】
図3
【特許請求の範囲】
【請求項1】
組織又は細胞の画像を解析するニューラルネットワーク構造の深層学習アルゴリズムを生成するコンピュータプログラムであって、
コンピュータに、
組織又は細胞を撮像した第1の訓練用画像に対応する第1の訓練データを取得する第1の取得ステップと、
前記第1の訓練用画像における細胞核の領域を示す第2の訓練用画像に対応する第2の訓練データを取得する第2の取得ステップと、
前記第1の訓練データと、前記第2の訓練データとの関係を前記深層学習アルゴリズムに学習させる学習ステップと、
を実行させることが可能であり、
前記第1の訓練用画像が、個体から採取された組織試料の標本または個体から採取された細胞を含む試料の標本を明視野下で撮像した明視野画像であり、
前記第2の訓練用画像が、前記標本に対応する、または同一の標本に蛍光核染色を施して調製された標本を蛍光観察下で撮像した細胞核の蛍光画像である、
コンピュータプログラム。
【請求項2】
前記第2の訓練データは、前記細胞核の領域とそれ以外の領域とを区別するために二値化されたデータである、請求項1に記載のコンピュータプログラム。
【請求項3】
前記第2の訓練データは、前記第2の訓練用画像の各画素の色濃度値を所定のしきい値と比較することにより生成される、請求項2に記載のコンピュータプログラム。
【請求項4】
前記第1の訓練データは、前記第1の訓練用画像の各画素の色濃度値を示すデータである、請求項1~3のいずれか1項に記載のコンピュータプログラム。
【請求項5】
前記コンピュータに、
前記第1の取得ステップの前に、前記第1の訓練用画像から前記第1の訓練データを生成するステップと、
前記第2の取得ステップの前に、前記第2の訓練用画像から前記第2の訓練データを生成するステップと、
を更に実行させることが可能である、請求項1~4のいずれか1項に記載のコンピュータプログラム。
【請求項6】
前記コンピュータは、前記標本を撮像する撮像装置に接続されており、
前記第1の訓練用画像および前記第2の訓練用画像は、前記撮像装置が前記標本を撮像した画像であり、前記コンピュータの記憶装置に記憶され、
前記コンピュータプログラムは、前記コンピュータに、
前記記憶装置から前記コンピュータの処理部に前記第1の訓練用画像および前記第2の訓練用画像を入力するステップ、
を更に実行させることが可能である、請求項5に記載のコンピュータプログラム。
【請求項7】
前記学習ステップは、前記第1の訓練データおよび前記第2の訓練データを所定の画素数で切り出した複数のデータを前記深層学習アルゴリズムに学習させるステップを含む、請求項1~6のいずれか1項に記載のコンピュータプログラム。
【請求項8】
前記コンピュータに、
解析対象の組織又は細胞を含む解析対象画像から解析用データを生成するステップと、
前記解析用データを,前記学習ステップによる学習が完了した前記深層学習アルゴリズムに入力するステップと、
学習が完了した前記深層学習アルゴリズムによって,前記解析対象画像における細胞核の領域を示すデータを生成するステップと、
を更に実行させることが可能である、請求項1~7のいずれか1項に記載のコンピュータプログラム。
【請求項9】
前記解析対象画像が、個体から採取された組織試料の標本または個体から採取された細胞を含む試料の標本を明視野下で撮像した明視野画像である、
請求項8に記載のコンピュータプログラム。
【請求項10】
前記ニューラルネットワーク構造は、畳み込みニューラルネットワークである、請求項1~9のいずれか1項に記載のコンピュータプログラム。
【請求項11】
前記第1の訓練用画像および前記第2の訓練用画像が、組織診断用の画像である、請求項1~10のいずれか1項に記載のコンピュータプログラム。
【請求項12】
前記第1の訓練用画像および前記第2の訓練用画像が、細胞診断用の画像である、請求項1~10のいずれか1項に記載のコンピュータプログラム。
【請求項13】
組織又は細胞の画像を解析するニューラルネットワーク構造の深層学習アルゴリズムを生成する装置であって、
前記装置は処理部を備え、
前記処理部は、
組織又は細胞を撮像した第1の訓練用画像に対応する第1の訓練データを取得し、
前記第1の訓練用画像における細胞核の領域を示す第2の訓練用画像に対応する第2の訓練データを取得し、
前記第1の訓練データと、前記第2の訓練データとの関係を前記深層学習アルゴリズムに学習させ、
前記第1の訓練用画像が、個体から採取された組織試料の標本または個体から採取された細胞を含む試料の標本を明視野下で撮像した明視野画像であり、
前記第2の訓練用画像が、前記標本に対応する、または同一の標本に蛍光核染色を施して調製された標本を蛍光観察下で撮像した細胞核の蛍光画像である、
装置。
【請求項14】
組織又は細胞の画像を解析するニューラルネットワーク構造の深層学習アルゴリズムを生成する方法であって、
組織又は細胞を撮像した第1の訓練用画像に対応する第1の訓練データを取得することと、
前記第1の訓練用画像における細胞核の領域を示す第2の訓練用画像に対応する第2の訓練データを取得することと、
前記第1の訓練データと、前記第2の訓練データとの関係を前記深層学習アルゴリズムに学習させることと、
を含み、
前記第1の訓練用画像が、個体から採取された組織試料の標本または個体から採取された細胞を含む試料の標本を明視野下で撮像した明視野画像であり、
前記第2の訓練用画像が、前記標本に対応する、または同一の標本に蛍光核染色を施して調製された標本を蛍光観察下で撮像した細胞核の蛍光画像である、
方法。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、画像解析方法、装置、プログラムおよび学習済み深層学習アルゴリズムの製造方法に関する。より詳細には、組織または細胞の画像の任意の位置について、細胞核の領域を示すデータを生成することを含む画像解析方法に関する。
【背景技術】
【0002】
特許文献1には、病理組織画像において組織像を、正常、良性腫瘍、前癌状態および癌状態の4つのグループに分類し、判定する画像診断支援装置が開示されている。画像分類手段は、画像データから注視領域を抽出し、注視領域の特徴を示す特徴量を算出し、算出した特徴量に基づいてグループの分類を行う。特徴量は、細胞核における単位面積あたりの塊の密度、塊面積の密度、塊の面積、塊の太さ、および塊の長さなどである。画像判定手段は、このような特徴量と判定結果との関係を学習し、学習済みの学習パラメータに基づいて判定を行う。学習は、サポートベクターマシンなどの学習アルゴリズムを用いて、機械学習を実行する。
【先行技術文献】
【特許文献】
【0003】
【発明の概要】
【発明が解決しようとする課題】
【0004】
悪性腫瘍であるか否かを確定診断する際に、病理組織標本を用いた病理組織診断が行われる。また病理組織診断は、手術中に悪性腫瘍を含む組織の切除部位を決定するための術中迅速診断として行われることも少なくない。術中迅速診断は、手術中に患者の患部を切開した状態で待機させ、腫瘍が悪性であるか、切除した組織の断端に腫瘍が残っていないか、リンパ節転移があるか等の判断を病理組織診断により行うものである。術中迅速診断の結果により、待機している患者のその後の手術の方向性が決められる。
【0005】
病理組織診断は、医師、特に病理医が顕微鏡等により組織標本を観察して診断するが、組織標本の観察により正確な確定診断を行えるようになるためには、長い期間、熟練した病理専門医の元で、様々な症例の組織標本の観察を繰り返す必要があり、病理医の育成にも膨大な時間を要している。
【0006】
病理医の不足は深刻であり、病理医が不足している結果、患者の悪性腫瘍の確定診断が遅れ、治療開始が遅れる、あるいは確定診断を待たずに治療を開始するという状態も危惧されている。また、通常の組織診断と術中迅速診断との両方が、少ない病理医に集中するために、一人の病理医の業務量が膨大となり、病理医自身の労務状態も問題となっている。しかし、現在のところこの問題の解消策は見つかっていない。
【0007】
したがって、病理組織診断を装置がサポートできるようになることは、特にその診断が人の目による判断に近いほど、病理医不足の解消、及び病理医の労務状態の改善に大きく貢献すると考えられる。
【0008】
装置が病理組織診断をサポートするという点において、上述の特許文献1に記載の発明では、機械学習による画像解析に基づいて標本組織の病理判定を行っている。この方法では、特徴量を人の手で作成する必要がある。特徴量を人の手で作成する方法には、その人
の力量が画像解析の性能に大きく影響を与えるという問題がある。
【0009】
例えば、顕微鏡を使った組織診断あるいは細胞診断において、観察対象の一つは、細胞核の状態であり、細胞核1つ1つの大きさや形態、並びに複数の細胞核の配列状態等から、良性腫瘍と悪性腫瘍を区別する。このため、病理組織診断において、細胞核を精度よく抽出できることは非常に重要であり、組織診断および細胞診断の根幹となる。
【0010】
本発明は、組織または細胞の画像について、細胞核の領域を示すデータを生成する画像解析方法を提供することを課題とする。
【課題を解決するための手段】
【0011】
本発明の一態様は、画像解析方法である。この一態様において、画像解析方法は、ニューラルネットワーク構造の深層学習アルゴリズム(60)を用いて、組織または細胞の画像を解析する画像解析方法であって、解析対象の組織または細胞を含む解析対象画像(78)から解析用データ(80)を生成し(S21からS23)、解析用データ(80)を、深層学習アルゴリズム(60)に入力し(S24)、深層学習アルゴリズム(60)によって、解析対象画像(78)における細胞核の領域を示すデータ(82,83)を生成する(S25からS28)。これにより、組織または細胞の画像の任意の位置について、細胞核の領域を示すデータを生成することが可能となる。
【0012】
解析対象画像が、組織診断用標本の画像であり、解析対象画像(78)が1つの原色からなる色相を含むか、2以上の原色を組み合わせた色相(R,G,B)を含むことが好ましい。
【0013】
解析対象画像が、細胞診断用標本の画像であり、解析対象画像(78)が1つの原色からなる色相を含むか、2以上の原色を組み合わせた色相(R,G,B)を含むことが好ましい。
【0014】
細胞核の領域を示すデータ(82,83)が、細胞核の領域とそれ以外の領域とを区別して提示するためのデータであることが好ましい。
【0015】
細胞核の領域を示すデータ(82,83)が、細胞核の領域とそれ以外の領域との境界を示すデータであることが好ましい。
【0016】
深層学習アルゴリズム(60)は、解析対象画像(78)内の任意の位置が細胞核の領域か否かを判定することが好ましい。
【0017】
1つの解析対象画像(78)について所定画素数の領域毎に、複数の解析用データ(80)を生成することが好ましい。これにより、ニューラルネットワーク(60)の判別精度を向上させることが可能となる。
【0018】
解析用データ(80)は、所定の画素を中心として周辺の画素を含む所定画素数の領域毎に生成され、深層学習アルゴリズム(60)は、入力された解析用データ(80)に対し所定画素に対し細胞核の領域か否かを示すラベルを生成することが好ましい。これにより、ニューラルネットワーク(60)の判別精度を向上させることが可能となる。
【0019】
ニューラルネットワーク(60)の入力層(60a)のノード数が、解析用データ(80)の所定画素数と組み合わせた原色の数との積に対応していることが好ましい。これにより、ニューラルネットワーク(60)の判別精度を向上させることが可能となる。
【0020】
標本が染色された標本であり、解析対象画像(78)は、染色された標本を顕微鏡の明視野下で撮像した画像であることが好ましい。
【0021】
深層学習アルゴリズム(60)の学習に用いられる訓練データ(74)が、個体から採取された組織試料の標本または個体から採取された細胞を含む試料の標本に対して明視野観察用染色を施して調製された標本の染色像を顕微鏡の明視野下で撮像した明視野画像(70)、および標本に対応する、または同一の標本に蛍光核染色を施して調製された標本の染色像を蛍光顕微鏡の蛍光観察下で撮像した細胞核の蛍光画像(71)であって、蛍光画像(71)の標本内での位置は取得された明視野画像(70)の標本内での位置に対応する蛍光画像(71)、に基づいて生成されていることが好ましい。
【0022】
明視野観察用染色は、核染色にヘマトキシリンを用いることが好ましい。
【0023】
標本が組織試料の標本である場合、明視野観察用染色が、ヘマトキシリン・エオジン染色であり、標本が細胞を含む試料の標本である場合、明視野観察用染色が、パパニコロウ染色であることが好ましい。
【0024】
訓練データ(74)が、明視野画像(70)および蛍光画像(71)から抽出された、細胞核の領域を示すラベル値を含むことが好ましい。これにより、細胞核の領域を示すラベル値をニューラルネットワーク(50)に学習させることが可能となる。
【0025】
訓練データ(74)が、ラベル値を明視野画像(70)の画素毎に含むことが好ましい。これにより、細胞核の領域を示すラベル値をニューラルネットワーク(50)に学習させることが可能となる。
【0026】
訓練データ(74)が、明視野画像(70)における所定画素数の領域毎に生成されていることが好ましい。これにより、細胞核の領域を示すラベル値を、高い精度でニューラルネットワーク(50)に学習させることが可能となる。
【0027】
深層学習アルゴリズム(60)が、解析用データ(80)を、解析対象画像(78)に含まれる細胞核の領域を示すクラスに分類することが好ましい。これにより、解析対象の組織画像や細胞を含む画像の任意の位置について、細胞核の領域と、それ以外の領域とに分類することが可能となる。
【0028】
ニューラルネットワーク(60)の出力層(60b)がソフトマックス関数を活性化関数とするノードであることが好ましい。これにより、ニューラルネットワーク(60)が、解析対象の組織画像や細胞を含む画像の任意の位置を、有限個のクラスに分類することが可能となる。
【0029】
深層学習アルゴリズム(60)は、解析用データ(80)が入力される度に、解析対象画像(78)に含まれる細胞核の領域であるか否かを示すデータ(82)を単位画素毎に生成することが好ましい。これにより、解析対象の組織画像や細胞を含む画像の単位画素(1画素)毎に、細胞核の領域と、それ以外の領域とに分類することが可能となる。
【0030】
深層学習アルゴリズム(60)が、組織試料の種類または細胞を含む試料の種類に応じて生成されていることが好ましい。これにより、解析対象の組織画像や細胞を含む画像の種別に応じて深層学習アルゴリズム(60)を使い分けることが可能となり、ニューラルネットワーク(60)の判別精度を向上させることが可能となる。
【0031】
さらに、組織試料の種類または細胞を含む試料の種類に応じて複数の深層学習アルゴリ
ズム(60)の中から選択された、試料の種類に対応する深層学習アルゴリズム(60)を用いて、解析用データ(80)を処理することが好ましい。これにより、解析対象の組織画像や細胞を含む画像の種別に応じて深層学習アルゴリズム(60)を使い分けることが可能となり、ニューラルネットワーク(60)の判別精度を向上させることが可能となる。
【0032】
本発明の一態様は、画像解析装置である。この一態様において、画像解析装置(200A)は、ニューラルネットワーク構造の深層学習アルゴリズム(60)を用いて、組織または細胞の画像を解析する画像解析装置であって、解析対象の組織または細胞を含む解析対象画像(78)から解析用データ(80)を生成し、解析用データ(80)を、深層学習アルゴリズム(60)に入力し、深層学習アルゴリズム(60)によって、解析対象画像(78)における細胞核の領域を示すデータ(82,83)を生成する処理部(20A)、を備える。これにより、組織画像や細胞を含む画像の任意の位置が細胞核の領域であるか否かを示すデータを生成することが可能となる。
【0033】
本発明の一態様は、コンピュータプログラムである。この一態様において、コンピュータプログラムは、ニューラルネットワーク構造の深層学習アルゴリズム(60)を用いて、組織または細胞の画像を解析するコンピュータプログラムであって、コンピュータに、解析対象の組織または細胞を含む解析対象画像(78)から解析用データ(80)を生成する処理と、解析用データ(80)を、深層学習アルゴリズム(60)に入力する処理と、深層学習アルゴリズム(60)によって、解析対象画像(78)における細胞核の領域を示すデータ(82,83)を生成する処理と、を実行させるプログラムである。これにより、組織または細胞の画像の任意の位置について、細胞核の領域を示すデータを生成することが可能となる。
【0034】
本発明の一態様は、学習済み深層学習アルゴリズムの製造方法である。この一態様において、学習済み深層学習アルゴリズム(60)の製造方法は、組織または細胞を撮像した第1の訓練用画像(70)に対応する第1の訓練データ(72r,72g,72b)を取得する第1の取得ステップと、第1の訓練用画像(70)における細胞核の領域を示す第2の訓練用画像(71)に対応する第2の訓練データ(73)を取得する第2の取得ステップと、第1の訓練データ(72r,72g,72b)と、第2の訓練データ(73)との関係をニューラルネットワーク(50)に学習させる学習ステップ(S13からS19)と、を含む。これにより、組織または細胞の画像の任意の位置について、細胞核の領域を示すデータを生成するための、深層学習アルゴリズムを製造することが可能となる。
【0035】
第1の訓練データ(72r,72g,72b)をニューラルネットワーク(50)の入力層(50a)とし、第2の訓練データ(73)をニューラルネットワーク(50)の出力層(50b)とすることが好ましい。
【0036】
第1の取得ステップの前に、第1の訓練用画像(70)から第1の訓練データ(72r,72g,72b)を生成するステップ(S11)をさらに含み、第2の取得ステップの前に、第2の訓練用画像(71)から第2の訓練データ(73)を生成するステップ(S12)をさらに含むことが好ましい。これにより、組織または細胞の画像の任意の位置について、細胞核の領域を示すデータを生成するための、深層学習アルゴリズムを製造することが可能となる。
【0037】
第1の訓練用画像(70)が、個体から採取された組織試料または個体から採取された細胞を含む試料に対して明視野観察用染色を施して調製された標本の染色像を顕微鏡の明視野下で撮像した明視野画像(70)であり、第2の訓練用画像(71)が、標本に蛍光核染色を施して調製された標本の染色像を顕微鏡の蛍光観察下で撮像した蛍光画像(71
)であって、蛍光画像(71)の標本内での位置は取得された明視野画像(70)の標本内での位置に対応する蛍光画像(71)であることが好ましい。
【0038】
本発明の一態様は、学習済み深層学習アルゴリズムである。この一態様において、学習済み深層学習アルゴリズム(60)は、第1の訓練データ(72r,72g,72b)をニューラルネットワーク(50)の入力層(50a)とし、第2の訓練データ(73)をニューラルネットワーク(50)の出力層(50b)として学習させた深層学習アルゴリズム(60)であって、第1の訓練データ(72r,72g,72b)は、組織または細胞を撮像した第1の訓練用画像(70)から生成され、第2の訓練データ(73)は、第1の訓練用画像における細胞核の領域を示す。
【発明の効果】
【0039】
本発明によると、組織または細胞の画像の任意の位置について、細胞核の領域を示すデータを生成することができる。
【図面の簡単な説明】
【0040】
【
図1】深層学習方法の概要を説明するための模式図である。
【
図2】訓練データの詳細を説明するための模式図である。
【
図3】画像解析方法の概要を説明するための模式図である。
【
図4】第1の実施形態に係る画像解析システムの概略構成図である。
【
図5】ベンダ側装置100のハードウェア構成を示すブロック図である。
【
図6】ユーザ側装置200のハードウェア構成を示すブロック図である。
【
図7】第1の実施形態に係る深層学習装置100Aの機能を説明するためのブロック図である。
【
図8】深層学習処理の手順を示すフローチャートである。
【
図9】ニューラルネットワークによる学習の詳細を説明するための模式図である。
【
図10】第1の実施形態に係る画像解析装置200Aの機能を説明するためのブロック図である。
【
図11】画像解析処理の手順を示すフローチャートである。
【
図12】第2の実施形態に係る画像解析システムの概略構成図である。
【
図13】第2の実施形態に係る統合型の画像解析装置200Bの機能を説明するためのブロック図である。
【
図14】第3の実施形態に係る画像解析システムの概略構成図である。
【
図15】第3の実施形態に係る統合型の画像解析装置100Bの機能を説明するためのブロック図である。
【
図16】実施例1において訓練データの作成に用いた明視野画像、蛍光画像、および蛍光画像から作成した二値化画像である。
【
図17】実施例1において1つ目の胃癌組織の標本(HE染色)の画像を解析した結果である。
【
図18】実施例1において2つ目の胃癌組織の標本(HE染色)の画像を解析した結果である。
【
図19】実施例2において胃癌部の捺印標本(パパニコロウ染色)の画像を解析した結果である。
【
図20】実施例2において非胃癌部の捺印標本(パパニコロウ染色)の画像を解析した結果である。
【発明を実施するための形態】
【0041】
以下、本発明の概要および実施の形態を、添付の図面を参照して詳細に説明する。なお、以下の説明および図面において、同じ符号は同じまたは類似の構成要素を示すこととし、よって、同じまたは類似の構成要素に関する説明を省略する。
【0042】
本発明は、組織または細胞の画像を解析する画像解析方法であって、ニューラルネットワーク構造の深層学習アルゴリズムを用いる画像解析方法に関する。
【0043】
本発明において、組織または細胞の画像は、組織試料の標本または細胞を含む試料の標本から取得される画像である。組織試料の標本または細胞を含む試料の標本は、個体から採取されている。個体は、特に制限されないが、好ましくは哺乳類であり、より好ましくはヒトである。前記個体から試料が採取される際に、個体が生きているか死亡しているかは問わない。前記組織は、個体内に存在するものである限り、制限されない。前記個体から採取された組織としては、外科的な切除組織、生検組織等を挙げることができる。前記細胞を含む試料は、個体から採取されたものである限り、制限されない。例えば、喀痰、胸水、腹水、尿、脳脊髄液、骨髄、血液、のう胞液等を挙げることができる。
【0044】
前記標本は、前記組織試料または細胞を含む試料を顕微鏡等で観察ができるように加工した状態のもの、例えばプレパラートを意図する。前記標本は、公知の方法に従って調製することができる。例えば、組織標本の場合には、前記個体から組織を採取した後に、所定の固定液(ホルマリン固定等)で組織を固定し、その固定組織をパラフィン包埋し、パラフィン包埋組織を薄切する。薄切切片をスライドグラスにのせる。切片がのったスライドグラスに対して光学顕微鏡での観察のため、すなわち明視野観察のための染色を施し、所定の封入処理をして標本が完成する。組織標本の典型例は、組織診断用標本(病理標本)であり、染色は、へマトキシリン・エオジン(HE)染色である。
【0045】
例えば、細胞を含む試料の標本の場合には、前記試料中の細胞を、遠心、塗抹等によってスライドグラス上に付着させ、所定の固定液(エタノール等)で固定し、明視野観察用の染色を施し、所定の封入処理をして標本が完成する。細胞を含む試料の標本の典型例は、細胞診断用標本(細胞診標本)であり、染色は、パパニコロウ染色である。前記細胞診断用標本には、前記組織標本用に採取された組織の捺印標本も含まれる。
【0046】
HE染色、パパニコロウ染色共に核染色はヘマトキシリンである。ヘマトキシリンは、組織細胞染色において核染色剤として幅広く使用されている(例えば、免疫染色、レクチン染色、糖染色、脂肪染色、膠原線維染色等)。このため、本発明は、このようなヘマトキシリンを核染色に使う標本全般において、適用が可能である。
【0047】
本発明においては、深層学習時には、2種類の訓練用画像を用いる。訓練用画像の1つ(第1の訓練用画像)は、個体から採取された組織試料の標本または個体から採取された細胞を含む試料の標本に含まれる、組織または細胞を含む画像である。この画像は、顕微鏡観察により、組織構造または細胞構造が認識できるように染色された標本から取得される。前記染色は、組織構造または細胞構造が認識できる限り制限されないが、好ましくは明視野観察用の染色である。前記明視野観察用染色は、少なくとも細胞核と細胞核以外の部位が、色相で区別可能に染色できる限り制限されない。前記標本が哺乳類の組織標本である場合には、例えば、HE染色を挙げることができる。また、例えば、前記標本が哺乳類の細胞を含む標本である場合には、パパニコロウ染色を挙げることができる。
【0048】
訓練用画像の2つめ(第2の訓練用画像)は、第1の訓練用画像において、どこが細胞核領域であるかを示す、すなわち「細胞核領域である」という正解が第1の訓練用画像のどこの領域であるかを示す画像である。この画像は、第1の訓練用画像を取得した標本と同一の標本、または第1の訓練用画像を取得した標本に対応する標本(例えば、連続切片標本)に対して、細胞核を選択的に染色する蛍光核染色を施し、撮像された画像である。前記蛍光核染色としては、制限されないが、4',6-diamidino-2-phenylindole(DAPI)染
色を挙げることができる。
【0049】
図1に示す例では、第1の訓練用画像としてHE染色された組織の第1の訓練用画像70を、第2の訓練用画像としてDAPI染色された組織であって、第1の訓練用画像70に示されている標本の位置に対応する標本の位置の第2の訓練用画像71をそれぞれ用いる。画像解析処理時に使用する解析対象の解析用データとして、
図3に示す第1の訓練用画像と同じ明視野用染色が施された組織の解析対象画像78を用いる。ニューラルネットワーク50に正解として学習させる判別対象は、組織標本または細胞を含む標本内に含まれる細胞核の領域である。
【0050】
本発明の概要および実施の形態では、HE染色された組織標本を撮像した画像内に含まれる細胞核の領域を、深層学習アルゴリズムによって判別する場合を一例として説明する。
【0051】
[深層学習方法および画像解析方法の概要]
以下ではまず、深層学習方法および画像解析方法の概要について説明する。次に、本発明の複数の実施形態のそれぞれについて、詳細に説明する。
【0052】
・深層学習方法の概要
図1に示すように、深層学習方法では、上述した第1の訓練用画像および第2の訓練用画像のそれぞれから生成される訓練データを用いる。第1の訓練用画像は、HE染色した標本を顕微鏡の明視野観察下で例えばカラー画像として撮像しているため、第1の訓練用画像には複数の色相が含まれる。
【0053】
第1の訓練用画像(明視野画像)70は、例えば公知の光学顕微鏡、蛍光顕微鏡またはバーチャルスライドスキャナ等の画像取得装置を用いて、予め取得することができる。例示的には、本実施形態において画像取得装置から取得されるカラー撮像は、カラースペースがRGBの24ビットカラーであることが好ましい。RGBの24ビットカラーでは、赤色、緑色および青色のそれぞれの濃さ(色濃度)を、8ビット(256段階)で表すことが好ましい。第1の訓練用画像(明視野画像)70は、1以上の原色を含む画像であればよい。
【0054】
本発明において、色相は、例示的には、光の3原色の組み合わせ、または色の3原色の組み合わせで規定される。第1の訓練データは、第1の訓練用画像70から生成される、第1の訓練用画像70に現れる色相を個々の原色に分離して原色毎に生成し、その濃度に応じた符号で表されたデータである。
図1では光の3原色である赤(R)、緑(G)、青(B)の原色毎に分離した単一色の画像72R,72G,72Bを得る。
【0055】
単一色の画像72R,72G,72B上の各画素について各色の色濃度を符号化すると、画像全体をR、G、B毎の各画像について、画素毎の色濃度に対応した符号化
図72r,72g,72bとなる。色濃度は、各色256段階を示す数値で符号化しても良い。また、色濃度は、各色256段階を示す数値に対して、さらに前処理を行って、各画素における色濃度を例えば、値0から値7の8段階で示す数字で符号化してもよい。
図1に例示的に示すR、G、B各色の単一色画像における色濃度符号化
図72r,72g,72bは、各画素における色濃度を値0から値7の8段階(階調で表すと3階調)の符号で表している。色濃度を示す符号は、本明細書において色濃度値ともいう。
【0056】
第2の訓練用画像71は、蛍光核染色された標本を蛍光顕微鏡の蛍光観察下で、2階調以上のグレースケールで撮像またはカラー撮像した画像である。第2の訓練用画像71は、例えば公知の蛍光顕微鏡またはバーチャルスライドスキャナ等明視野画像取得装置を用いて、予め取得することができる。
【0057】
第2の訓練データは、学習対象の組織を撮像した第2の訓練用画像71から生成される、学習対象の組織の細胞核の領域を示す真値像73である。第1の訓練用画像70および第2の訓練用画像71は、標本上の組織の同じ領域または対応する領域を撮像した画像である。
【0058】
第2の訓練データは、2階調以上のグレースケールのまたはカラーの第2の訓練用画像71を、二値化処理により白黒の蛍光画像としてデータ化し、真値像73としてニューラルネットワーク50に正解として学習させる。ニューラルネットワーク60に判別させる対象が、細胞核の領域である場合、真値像73は、細胞核の領域すなわち正解を示すデータである。第2の訓練用画像71が二値化されることにより、細胞核の領域とそれ以外の領域とが区別され、細胞核の領域が判別される。細胞核の領域またはそれ以外の領域のいずれであるかの判断は、例えば、画像内の各画素の色濃度を、所定の条件(例えば、色濃度のしきい値)と比較することにより行う。
【0059】
深層学習方法では、色濃度符号化
図72r,72g,72b(第1の訓練データともいう)および真値像73(第2の訓練データともいう)を訓練データ74として、色濃度符号化
図72r,72g,72bを入力層50aとし、真値像73を出力層50bとするニューラルネットワーク50に学習させる。すなわち、R、G、B各色の色濃度符号化
図72r,72g,72bと真値像73とのペアを、ニューラルネットワーク50の学習の訓練データ74として使用する。
【0060】
図2(a)ないし(c)を参照して、訓練データ74の生成方法を説明する。訓練データ74は、R、G、B各色の色濃度符号化
図72r,72g,72bと真値像73とを組み合わせたデータである。訓練データ74は、
図2(a)では、その画像サイズ(訓練データ1つあたりの大きさ)が説明の便宜のために簡素化されており、色濃度符号化
図72r,72g,72bおよび真値像73が、縦方向9画素および横方向9画素の合計81画素を有する。
【0061】
図2(b)に、訓練データ74を構成する画素の一例を示す。
図2(b)中の上段に示す3つの値74aが、各画素におけるR、G、B各色の濃度値である。例示的には、3つの値は、赤(R)、緑(G)および青(B)の順序で格納されている。色濃度符号化
図72r,72g,72bの各画素は、色濃度値が値0から値7の8段階で示されている。これは、画像の前処理の一例として、撮像された際に256段階で表されている各色の画像72R,72G,72Bの明るさを、8段階の色濃度値にそれぞれ変換する処理である。色濃度値は、例えば最も低い明るさ(RGBカラー256段階で表した時の輝度値が低い階調群)を色濃度値0とし、明るさの程度が高くなるに従い徐々に高い値を割り当ててゆき、最も高い明るさ(RGBカラー256段階で表した時の輝度値が高い階調群)を色濃度値7とする。
図2(b)中の下段に示す値74bが、真値像73の二値データである。真値像73の二値データ74bはラベル値とも呼ぶ。例えばラベル値1は細胞核の領域を示し、ラベル値0はそれ以外の領域を示すこととする。すなわち、
図1に示す真値像73において、ラベル値が1から0に変化する画素または0から1に変化する画素の位置が、細胞核の領域とそれ以外の領域との境界に相当する。
【0062】
図2(c)に示す訓練データ75は、
図2(a)に示す訓練データ74の所定の画素数の領域(以下、「ウィンドウサイズ」と記載する)を切り出したデータである。ウィンドウサイズの訓練データ75も、説明の便宜のために3×3画素に簡素化して示すが、実際の好ましいウィンドウサイズは、例示的には113×113画素程度であり、その中に正常の胃上皮細胞の核が3×3個程度入る大きさが、学習効率の点から好ましい。例えば、
図2(c)に示すように、3×3画素のウィンドウW1を設定し、訓練データ74に対し
てウィンドウW1を移動させる。ウィンドウW1の中心は、訓練データ74のいずれかの画素に位置しており、例えば、黒枠で示すウィンドウW1内の訓練データ74がウィンドウサイズの訓練データ75として切り出される。切り出したウィンドウサイズの訓練データ75は
図1に示すニューラルネットワーク50の学習に用いられる。
【0063】
図1に示すように、ニューラルネットワーク50の入力層50aのノード数は、入力されるウィンドウサイズの訓練データ75の画素数と画像に含まれる原色の数(例えば光の三原色であれば、R、G、Bの3つ)との積に対応している。ウィンドウサイズの訓練データ75の各画素の色濃度値データ76をニューラルネットワークの入力層50aとし、訓練データ75の各画素の真値像73に対応する二値データ74bのうち中心に位置する画素の二値データ77を、ニューラルネットワークの出力層50bとして、ニューラルネットワーク50に学習させる。各画素の色濃度値データ76は、訓練データ75の各画素のR、G、B各色の色濃度値74aの集合データである。例示として、ウィンドウサイズの訓練データ75が3×3画素である場合には、各画素についてR、G、B毎に1つずつの色濃度値74aが与えられるので、色濃度値データ76の色濃度値数は「27」(3×3×3=27)となり、ニューラルネットワーク50の入力層50aのノード数も「27」となる。
【0064】
このように、ニューラルネットワーク50に入力するウィンドウサイズの訓練データ75は、ユーザが作成することなく、コンピュータが自動的に作成することができる。これにより、ニューラルネットワーク50の効率的な深層学習が促進される。
【0065】
図2(c)に示すように、初期状態において、ウィンドウW1の中心は、訓練データ74の左上角に位置している。以後、ウィンドウW1によってウィンドウサイズの訓練データ75を切り出し、ニューラルネットワーク50の学習を行う度に、ウィンドウW1の位置を移動させる。具体的には、ウィンドウW1の中心が訓練データ74の例えば全ての画素を走査するように、ウィンドウW1を1画素単位で移動させる。これにより、訓練データ74の全ての画素から切り出されたウィンドウサイズの訓練データ75が、ニューラルネットワーク50の学習に用いられる。よってニューラルネットワーク50の学習の程度を向上でき、深層学習の結果、
図3に示すニューラルネットワーク60構造を有する深層学習アルゴリズムが得られる。
【0066】
・画像解析方法の概要
図3に示すように、画像解析方法では、解析対象の組織または細胞を含む標本を撮像した解析対象画像(明視野画像)78から、解析用データ80を生成する。前記標本は、第1の訓練用画像と同じ染色が施されていることが好ましい。解析対象画像78も、例えば公知の顕微鏡またはバーチャルスライドスキャナ等を用いて、例えばカラー画像として取得することができる。解析対象画像(明視野画像)78は、1以上の原色を含む画像であればよい。カラーの解析対象画像78を、各画素についてR、G、B各色の色濃度値で符号化すると、画像全体をR、G、B毎に各画素における色濃度値の符号化図として表すことができる(解析用色濃度符号化
図79r,79g,79b)。
図3に例示的に示すR、G、B各色の単一色画像における色濃度の符号を示す色濃度符号化
図79r,79g,79bは、3原色の各画像79R,79G,79Bに代えて、値0から値7の8段階で符号で表された色濃度値を表示している。
【0067】
解析用データ80は、色濃度符号化
図79r,79g,79bの所定の画素数の領域(すなわち、ウィンドウサイズ)を切り出したデータであり、解析対象画像78に含まれている組織または細胞の色濃度値を含むデータである。ウィンドウサイズの解析用データ80も、訓練データ75と同様に、説明の便宜のために3×3画素に簡素化して示すが、実際の好ましいウィンドウサイズは、例示的には113×113画素程度であり、その中に
正常の胃上皮細胞の核が3×3個程度入る大きさが、判別精度の点から好ましく、例えば40倍の視野で113×113画素程度である。例えば、3×3画素のウィンドウW2を設定し、色濃度符号化
図79r,79g,79bに対してウィンドウW2を移動させる。ウィンドウW2の中心は、色濃度符号化
図79r,79g,79bのいずれかの画素に位置しており、色濃度符号化
図79r,79g,79bを、例えば3×3画素の黒枠で示すウィンドウW2によって切り出すと、ウィンドウサイズの解析用データ80が得られる。このように、解析用データ80は、色濃度符号化
図79r,79g,79bから、所定の画素を中心として周辺の画素を含む領域毎に生成される。所定の画素とは、ウィンドウW2の中心に位置する色濃度符号化
図79r,79g,79bの画素を意味し、周辺の画素とは、この所定の画素を中心とする、ウィンドウサイズの範囲内に含まれる色濃度符号化
図79r,79g,79bの画素を意味する。解析用データ80においても、訓練データ74と同様に、各画素について、色濃度値が赤(R)、緑(G)および青(B)の順序で格納されている。
【0068】
画像解析方法では、
図1に示すウィンドウサイズの訓練データ75を用いて学習されたニューラルネットワークを有する深層学習アルゴリズム60を用いて、解析用データ80を処理する。解析用データ80を処理することによって、解析対象の組織または細胞において細胞核の領域であるか否かを示すデータ83を生成する。
【0069】
再び
図3を参照し、R、G、B各色の色濃度符号化
図79r,79g,79bから切り出された解析用データ80が深層学習アルゴリズムを構成するニューラルネットワーク60に入力される。ニューラルネットワーク60の入力層60aのノード数は、入力される画素数と画像に含まれる原色の数との積に対応している。解析用データ80の各画素の色濃度値データ81を、ニューラルネットワーク60に入力すると、出力層60bからは、解析用データ80の中心に位置する画素の推定値82(二値)が出力される。例えば推定値が1の場合は細胞核の領域を示し、推定値が0の場合はそれ以外の領域を示す。すなわち、ニューラルネットワーク60の出力層60bから出力される推定値82は、解析対象画像の画素毎に生成されるデータであり、解析対象画像における細胞核の領域であるか否かを示すデータである。推定値82は、細胞核の領域とそれ以外の領域とを、例えば値1と値0とで区別している。推定値82はラベル値とも呼ばれ、ニューラルネットワークに関する後述する説明ではクラスとも呼ばれる。ニューラルネットワーク60は、入力された解析用データ80に対し、解析用データ80の中心に位置する画素に対し、細胞核の領域か否かを示すラベルを生成する。言い替えると、ニューラルネットワーク60は、解析用データ80を、解析対象画像に含まれる細胞核の領域を示すクラスに分類する。なお、各画素の色濃度値データ81は、解析用データ80の各画素のR、G、B各色の色濃度値の集合データである。
【0070】
以後、ウィンドウW2の中心がR、G、B各色の色濃度符号化
図79r,79g,79bの全ての画素を走査するように、ウィンドウW2を1画素単位で移動させながら、解析用データ80をウィンドウサイズで切り出す。切り出された解析用データ80を、ニューラルネットワーク60に入力する。これにより、解析対象画像における細胞核の領域であるか否かを示すデータとして、二値データ83を得る。
図3に示す例では、二値データ83についてさらに細胞核領域検出処理を行うことにより、細胞核の領域を示す細胞核領域強調画像84を得る。細胞核領域検出処理は、具体的には、例えば推定値82が値1である画素を検出する処理となり、実際に細胞核の領域を判別する処理となる。細胞核領域強調画像84は、画像解析処理により得られた細胞核の領域を、解析対象の解析対象画像78に重ねて表示した画像である。また、細胞核の領域を判別した後に、細胞核とそれ以外の領域を識別可能に表示装置に表示させる処理を行ってもよい。例えば、細胞核の領域を色で塗りつぶす、細胞核の領域とそれ以外の領域との間に線を描画する等の処理を行い、これらを表示装置に識別可能に表示する。
【0071】
<第1の実施形態>
第1の実施形態では、上述の概要で説明した深層学習方法および画像解析方法を実施するシステムの構成について、具体的に説明する。
【0072】
[構成の概要]
図4を参照すると、第1の実施形態に係る画像解析システムは、深層学習装置100Aと、画像解析装置200Aとを備える。ベンダ側装置100は深層学習装置100Aとして動作し、ユーザ側装置200は画像解析装置200Aとして動作する。深層学習装置100Aは、ニューラルネットワーク50に訓練データを使って学習させ、訓練データによって訓練された深層学習アルゴリズム60をユーザに提供する。学習済みのニューラルネットワーク60から構成される深層学習アルゴリズムは、記録媒体98またはネットワーク99を通じて、深層学習装置100Aから画像解析装置200Aに提供される。画像解析装置200Aは、学習済みのニューラルネットワーク60から構成される深層学習アルゴリズムを用いて解析対象の画像の解析を行う。
【0073】
深層学習装置100Aは、例えば汎用コンピュータで構成されており、後述するフローチャートに基づいて、深層学習処理を行う。画像解析装置200Aは、例えば汎用コンピュータで構成されており、後述するフローチャートに基づいて、画像解析処理を行う。記録媒体98は、例えばDVD-ROMやUSBメモリ等の、コンピュータ読み取り可能であって非一時的な有形の記録媒体である。
【0074】
深層学習装置100Aは撮像装置300に接続されている。撮像装置300は、撮像素子301と、蛍光顕微鏡302とを備え、ステージ309上にセットされた学習用の標本308の、明視野画像および蛍光画像を撮像する。学習用の標本308は、上述の染色が施されている。深層学習装置100Aは、撮像装置300によって撮像された第1の訓練用画像70および第2の訓練用画像71を取得する。
【0075】
画像解析装置200Aは撮像装置400に接続されている。撮像装置400は、撮像素子401と、蛍光顕微鏡402とを備え、ステージ409上にセットされた解析対象の標本408の、明視野画像を撮像する。解析対象の標本408は、上述の通り予め染色されている。画像解析装置200Aは、撮像装置400によって撮像された解析対象画像78を取得する。
【0076】
撮像装置300,400には、標本を撮像する機能を有する、公知の蛍光顕微鏡またはバーチャルスライドスキャナ等を用いることができる。撮像装置400は、標本を撮像する機能を有する限り、光学顕微鏡であっても良い。
【0077】
[ハードウェア構成]
図5を参照すると、ベンダ側装置100(100A,100B)は、処理部10(10A,10B)と、入力部16と、出力部17とを備える。
【0078】
処理部10は、後述するデータ処理を行うCPU(Central Processing Unit)11と
、データ処理の作業領域に使用するメモリ12と、後述するプログラムおよび処理データを記録する記録部13と、各部の間でデータを伝送するバス14と、外部機器とのデータの入出力を行うインタフェース部15と、GPU(Graphics Processing Unit)19とを備えている。入力部16および出力部17は、処理部10に接続されている。例示的には、入力部16はキーボードまたはマウス等の入力装置であり、出力部17は液晶ディスプレイ等の表示装置である。GPU19は、CPU11が行う演算処理(例えば、並列演算処理)を補助するアクセラレータとして機能する。すなわち以下の説明においてCPU1
1が行う処理とは、CPU11がGPU19をアクセラレータとして用いて行う処理も含むことを意味する。
【0079】
また、処理部10は、以下の
図8で説明する各ステップの処理を行うために、本発明に係るプログラムおよび学習前のニューラルネットワーク50を、例えば実行形式で記録部13に予め記録している。実行形式は、例えばプログラミング言語からコンパイラにより変換されて生成される形式である。処理部10は、記録部13に記録したプログラムおよび学習前のニューラルネットワーク50を使用して処理を行う。
【0080】
以下の説明においては、特に断らない限り、処理部10が行う処理は、記録部13またはメモリ12に格納されたプログラムおよびニューラルネットワーク50に基づいて、CPU11が行う処理を意味する。CPU11はメモリ12を作業領域として必要なデータ(処理途中の中間データ等)を一時記憶し、記録部13に演算結果等の長期保存するデータを適宜記録する。
【0081】
図6を参照すると、ユーザ側装置200(200A,200B,200C)は、処理部20(20A,20B,20C)と、入力部26と、出力部27とを備える。
【0082】
処理部20は、後述するデータ処理を行うCPU(Central Processing Unit)21と
、データ処理の作業領域に使用するメモリ22と、後述するプログラムおよび処理データを記録する記録部23と、各部の間でデータを伝送するバス24と、外部機器とのデータの入出力を行うインタフェース部25と、GPU(Graphics Processing Unit)29とを備えている。入力部26および出力部27は、処理部20に接続されている。例示的には、入力部26はキーボードまたはマウス等の入力装置であり、出力部27は液晶ディスプレイ等の表示装置である。GPU29は、CPU21が行う演算処理(例えば、並列演算処理)を補助するアクセラレータとして機能する。すなわち以下の説明においてCPU21が行う処理とは、CPU21がGPU29をアクセラレータとして用いて行う処理も含むことを意味する。
【0083】
また、処理部20は、以下の
図11で説明する各ステップの処理を行うために、本発明に係るプログラムおよび学習済みのニューラルネットワーク構造の深層学習アルゴリズム60を、例えば実行形式で記録部23に予め記録している。実行形式は、例えばプログラミング言語からコンパイラにより変換されて生成される形式である。処理部20は、記録部23に記録したプログラムおよび深層学習アルゴリズム60を使用して処理を行う。
【0084】
以下の説明においては、特に断らない限り、処理部20が行う処理は、記録部23またはメモリ22に格納されたプログラムおよび深層学習アルゴリズム60に基づいて、実際には処理部20のCPU21が行う処理を意味する。CPU21はメモリ22を作業領域として必要なデータ(処理途中の中間データ等)を一時記憶し、記録部23に演算結果等の長期保存するデータを適宜記録する。
【0085】
[機能ブロックおよび処理手順]
・深層学習処理
図7を参照すると、第1の実施形態に係る深層学習装置100Aの処理部10Aは、訓練データ生成部101と、訓練データ入力部102と、アルゴリズム更新部103とを備える。これらの機能ブロックは、コンピュータに深層学習処理を実行させるプログラムを、処理部10Aの記録部13またはメモリ12にインストールし、このプログラムをCPU11が実行することにより実現される。ウィンドウサイズデータベース104と、アルゴリズムデータベース105とは、処理部10Aの記録部13またはメモリ12に記録される。
【0086】
学習用の標本の第1の訓練用画像70および第2の訓練用画像71は、撮像装置300によって予め撮像され、処理部10Aの記録部13またはメモリ12に予め記憶されていることとする。ニューラルネットワーク50は、例えば解析対象の標本が由来する組織試料の種別(例えば組織名)または細胞を含む試料の種類と対応付けられて、アルゴリズムデータベース105に予め格納されている。
【0087】
深層学習装置100Aの処理部10Aは、
図8に示す処理を行う。
図7に示す各機能ブロックを用いて説明すると、ステップS11からS13、S18およびS19の処理は、訓練データ生成部101が行う。ステップS14の処理は、訓練データ入力部102が行う。ステップS15からS17の処理は、アルゴリズム更新部103が行う。
【0088】
以下に説明するステップS11からS19では、1対の第1の訓練用画像70(明視野画像)と第2の訓練用画像(第2の訓練用画像71)のペアに対する深層学習処理を説明する。
【0089】
ステップS11において、処理部10Aは、入力された第1の訓練用画像70からR、G、B各色の色濃度符号化
図72r,72g,72bを生成する。色濃度符号化
図72r,72g,72bは、第1の訓練用画像70の各画素のR、G、B各色の色濃度値を段階的に表すことにより作成する。本実施形態では、色濃度値を値0から値7の8段階として各R、G、B階調画像について色濃度符号化
図72r,72g,72bを作成する。色濃度値の割り当ては、例えば最も低い明るさを色濃度値0とし、明るさの程度が高くなるに従い徐々に高い値を割り当ててゆき、最も高い明るさを色濃度値7とする。
【0090】
ステップS12において、処理部10Aは、入力された第2の訓練用画像71の各画素の階調を二値化して真値像73を生成する。真値像73(二値化画像73)は、ニューラルネットワーク50に正解として学習させる訓練データを生成させるために使用する。二値化の処理は、例えば、画像内の各画素の階調を、所定のしきい値と比較することにより行う。
【0091】
ステップS13において、処理部10Aは、入力部16を通じて、深層学習装置100A側のオペレータからの、学習用の組織の種別の入力を受け付ける。処理部10Aは、入力された組織の種別に基づき、ウィンドウサイズデータベース104を参照して、ウィンドウサイズを設定し、アルゴリズムデータベース105を参照して、学習に用いるニューラルネットワーク50を設定する。胃の組織標本を解析対象とする本実施形態では、ウィンドウサイズは例えば113×113画素とする。この画素サイズは、例えば40倍で撮像された画像におけるサイズである。例示的には2つから9つ程度の複数の細胞のうち、少なくとも1つの細胞の細胞核領域の全体形状が、ウィンドウ内に含まれることをサポートするサイズである。ウィンドウサイズは、1回の入力時にニューラルネットワーク50に入力する訓練データの単位であり、ウィンドウサイズの訓練データ75の画素数と画像に含まれる色の原色の数との積が、入力層50aのノード数に対応している。ウィンドウサイズは組織試料の種別または細胞を含む試料の種別と対応付けられて、ウィンドウサイズデータベース104内に予め記録されている。
【0092】
ステップS14において、処理部10Aは、色濃度符号化
図72r,72g,72bおよび真値像73から、ウィンドウサイズの訓練データ75を生成する。具体的には、上述の「深層学習方法の概要」において、
図2(a)ないし(c)を参照して説明したように、色濃度符号化
図72r,72g,72bおよび真値像73を組み合わせた訓練データ74から、ウィンドウW1によって、ウィンドウサイズの訓練データ75を作成する。
【0093】
図8に示すステップS15において、処理部10Aは、ウィンドウサイズの訓練データ75を用いて、ニューラルネットワーク50を学習させる。ニューラルネットワーク50の学習結果は、ウィンドウサイズの訓練データ75を用いてニューラルネットワーク50を学習させる度に蓄積される。
【0094】
実施形態に係る画像解析方法では、畳み込みニューラルネットワークを使用しており、確率的勾配降下法を用いるため、ステップS16において、処理部10Aは、予め定められた所定の試行回数分の学習結果が蓄積されているか否かを判断する。学習結果が所定の試行回数分蓄積されている場合、処理部10AはステップS17の処理を行い、学習結果が所定の試行回数分蓄積されていない場合、処理部10AはステップS18の処理を行う。
【0095】
学習結果が所定の試行回数分蓄積されている場合、ステップS17において、処理部10Aは、ステップS15において蓄積しておいた学習結果を用いて、ニューラルネットワーク50の結合重みwを更新する。実施形態に係る画像解析方法では、確率的勾配降下法を用いるため、所定の試行回数分の学習結果が蓄積した段階で、ニューラルネットワーク50の結合重みwを更新する。結合重みwを更新する処理は、具体的には、後述の(式11)および(式12)に示される、勾配降下法による計算を実施する処理である。
【0096】
ステップS18において、処理部10Aは、入力画像内の規定数の画素を処理したか否かを判断する。入力画像は、訓練データ74であり、訓練データ74内の規定数の画素について、ステップS14からステップS17の一連の処理がなされている場合は、深層学習処理を終了する。ニューラルネットワークの学習は、必ずしも入力画像内の全ての画素に対して行う必要は無く、処理部10Aは、入力画像内の一部の画素、すなわち規定数の画素に対して処理をし学習を行うことができる。規定数の画素は、入力画像内の全ての画素であってもよい。
【0097】
入力画像内の規定数の画素が処理されていない場合は、処理部10Aは、ステップS19において、
図2(c)に示すように、訓練データ74内において、ウィンドウの中心位置を1画素単位で移動させる。その後、処理部10Aは、移動後の新たなウィンドウ位置において、ステップS14からステップS17の一連の処理を行う。すなわち、処理部10Aは、ステップS14において、移動後の新たなウィンドウ位置において訓練データ74をウィンドウサイズで切り出す。引き続き、処理部10Aは、ステップS15において、新たに切り出したウィンドウサイズの訓練データ75を用いて、ニューラルネットワーク50を学習させる。ステップS16において、所定の試行回数分の学習結果が蓄積されている場合は、処理部10Aは、ステップS17において、ニューラルネットワーク50の結合重みwを更新する。このようなウィンドウサイズ毎のニューラルネットワーク50の学習を、訓練データ74内の規定数の画素に対して行う。
【0098】
以上説明した、1対の入力画像のペアに対するステップS11からS19の深層学習処理を、異なる入力画像の複数のペアに対して繰り返し行うことにより、ニューラルネットワーク50の学習の程度を向上させる。これにより、
図3に示すニューラルネットワーク構造の深層学習アルゴリズム60を得る。
【0099】
・ニューラルネットワークの構造
図9(a)に示すように、第1の実施形態では、深層学習タイプのニューラルネットワークを用いる。深層学習タイプのニューラルネットワークは、
図9に示すニューラルネットワーク50のように、入力層50aと、出力層50bと、入力層50aおよび出力層50bの間の中間層50cとを備え、中間層50cが複数の層で構成されている。中間層50cを構成する層の数は、例えば5層以上とすることができる。
【0100】
ニューラルネットワーク50では、層状に配置された複数のノード89が、層間において結合されている。これにより、情報が入力側の層50aから出力側の層50bに、図中矢印Dに示す一方向のみに伝播する。本実施形態では、入力層50aのノード数は、入力される画像の画素数すなわち
図2(c)に示すウィンドウW1の画素数と各画素に含まれる色の原色の数との積に対応している。入力層50aに画像の画素データ(色濃度値)を入力することができるので、ユーザは入力画像から特徴量を別途算出することなく、入力画像を入力層50aに入力することができる。
【0101】
・各ノードにおける演算
図9(b)は、各ノードにおける演算を示す模式図である。各ノード89では、複数の入力を受け取り、1つの出力(z)を計算する。
図9(b)に示す例の場合、ノード89は4つの入力を受け取る。ノード89が受け取る総入力(u)は、以下の(式1)で表される。
【数1】
【0102】
各入力には、それぞれ異なる重みが掛けられる。(式1)中、bはバイアスと呼ばれる値である。ノードの出力(z)は、(式1)で表される総入力(u)に対する所定の関数fの出力となり、以下の(式2)で表される。関数fは活性化関数と呼ばれる。
【数2】
【0103】
図9(c)は、ノード間の演算を示す模式図である。ニューラルネットワーク50では、(式1)で表される総入力(u)に対して、(式2)で表される結果(z)を出力するノードが層状に並べられている。前の層のノードの出力が、次の層のノードの入力となる。
図9(c)に示す例では、図中左側の層のノード89aの出力が、図中右側の層のノード89bの入力となる。右側の層の各ノード89bは、それぞれ、左側の層のノード89aからの出力を受け取る。左側の層の各ノード89aと右側の層の各ノード89bとの間の各結合には、異なる重みが掛けられる。左側の層の複数のノード89aのそれぞれの出力をx
1~x
4とすると、右側の層の3つのノード89bのそれぞれに対する入力は、以下の(式3-1)~(式3-3)で表される。
【数3】
【0104】
これら(式3-1)~(式3-3)を一般化すると、(式3-4)となる。ここで、i=1,・・・I、j=1,・・・Jである。
【数4】
【0105】
(式3-4)を活性化関数に適用すると出力が得られる。出力は以下の(式4)で表される。
【数5】
【0106】
・活性化関数
実施形態に係る画像解析方法では、活性化関数として、正規化線形関数(rectified linear unit function)を用いる。正規化線形関数は以下の(式5)で表される。
【数6】
【0107】
(式5)は、z=uの線形関数のうち、u<0の部分をu=0とする関数である。
図9(c)に示す例では、j=1のノードの出力は、(式5)により、以下の式で表される。
【数7】
【0108】
・ニューラルネットワークの学習
ニューラルネットワークを用いて表現される関数をy(x:w)とおくと、関数y(x:w)は、ニューラルネットワークのパラメータwを変化させると変化する。入力xに対してニューラルネットワークがより好適なパラメータwを選択するように、関数y(x:w)を調整することを、ニューラルネットワークの学習と呼ぶ。ニューラルネットワークを用いて表現される関数の入力と出力との組が複数与えられているとする。ある入力xに対する望ましい出力をdとすると、入出力の組は、{(x
1,d
1),(x
2,d
2),・・・,(x
n,d
n)}と与えられる。(x,d)で表される各組の集合を、訓練データと呼ぶ。具体的には、
図2(b)に示す、R、G、B各色の単一色画像における画素毎の色濃度値と真値像のラベルとの組、の集合が、
図2(a)に示す訓練データである。
【0109】
ニューラルネットワークの学習とは、どのような入出力の組(x
n,d
n)に対しても、入力x
nを与えたときのニューラルネットワークの出力y(x
n:w)が、出力d
nになるべく近づくように重みwを調整することを意味する。誤差関数(error function)とは、ニューラルネットワークを用いて表現される関数と訓練データとの近さ
【数8】
を測る尺度である。誤差関数は損失関数(loss function)とも呼ばれる。実施形態に係
る画像解析方法において用いる誤差関数E(w)は、以下の(式6)で表される。(式6)は交差エントロピー(cross entropy)と呼ばれる。
【数9】
【0110】
(式6)の交差エントロピーの算出方法を説明する。実施形態に係る画像解析方法において用いるニューラルネットワーク50の出力層50bでは、すなわちニューラルネットワークの最終層では、入力xを内容に応じて有限個のクラスに分類するための活性化関数を用いる。活性化関数はソフトマックス関数(softmax function)と呼ばれ、以下の(式7)で表される。なお、出力層50bには、クラス数kと同数のノードが並べられているとする。出力層Lの各ノードk(k=1,・・・K)の総入力uは、前層L-1の出力から、u
k
(L)で与えられるとする。これにより、出力層のk番目のノードの出力は以下
の(式7)で表される。
【数10】
【0111】
(式7)がソフトマックス関数である。(式7)で決まる出力y1,・・・,yKの総和は常に1となる。
【0112】
各クラスをC
1,・・・,C
Kと表すと、出力層Lのノードkの出力y
K(すなわちu
k
(L))は、与えられた入力xがクラスC
Kに属する確率を表す。以下の(式8)を参照されたい。入力xは、(式8)で表される確率が最大になるクラスに分類される。
【数11】
【0113】
ニューラルネットワークの学習では、ニューラルネットワークで表される関数を、各クラスの事後確率(posterior probability)のモデルとみなし、そのような確率モデルの
下で、訓練データに対する重みwの尤度(likelihood)を評価し、尤度を最大化するような重みwを選択する。
【0114】
(式7)のソフトマックス関数による目標出力d
nを、出力が正解のクラスである場合のみ1とし、出力がそれ以外の場合は0になるとする。目標出力をd
n=[d
n1,・・・,d
nK]というベクトル形式で表すと、例えば入力x
nの正解クラスがC
3である場合、目標出力d
n3のみが1となり、それ以外の目標出力は0となる。このように符号化すると、事後分布(posterior)は以下の(式9)で表される。
【数12】
【0115】
訓練データ{(x
n,d
n)}(n=1,・・・,N)に対する重みwの尤度L(w)は、以下の(式10)で表される。尤度L(w)の対数をとり符号を反転すると、(式6)の誤差関数が導出される。
【数13】
【0116】
学習は、訓練データを基に計算される誤差関数E(w)を、ニューラルネットワークのパラメータwについて最小化することを意味する。実施形態に係る画像解析方法では、誤差関数E(w)は(式6)で表される。
【0117】
誤差関数E(w)をパラメータwについて最小化することは、関数E(w)の局所的な極小点を求めることと同じ意味である。パラメータwはノード間の結合の重みである。重みwの極小点は、任意の初期値を出発点として、パラメータwを繰り返し更新する反復計算によって求められる。このような計算の一例には、勾配降下法(gradient descent met
hod)がある。
【0118】
勾配降下法では、次の(式11)で表されるベクトルを用いる。
【数14】
【0119】
勾配降下法では、現在のパラメータwの値を負の勾配方向(すなわち-∇E)に移動させる処理を何度も繰り返す。現在の重みをw
(t)とし、移動後の重みをw
(t+1)とすると、勾配降下法による演算は、以下の(式12)で表される。値tは、パラメータwを移動させた回数を意味する。
【数15】
【0120】
記号
【数16】
は、パラメータwの更新量の大きさを決める定数であり、学習係数と呼ばれる。(式12)で表される演算を繰り返すことにより、値tの増加に伴って誤差関数E(w
(t))が減少し、パラメータwは極小点に到達する。
【0121】
なお、(式12)による演算は、全ての訓練データ(n=1,・・・,N)に対して実施してもよく、一部の訓練データのみに対して実施してもよい。一部の訓練データのみに対して行う勾配降下法は、確率的勾配降下法(stochastic gradient descent)と呼ばれ
る。実施形態に係る画像解析方法では、確率的勾配降下法を用いる。
【0122】
・画像解析処理
図10を参照すると、第1の実施形態に係る画像解析装置200Aの処理部20Aは、解析用データ生成部201と、解析用データ入力部202と、解析部203と、細胞核領域検出部204とを備える。これらの機能ブロックは、本発明に係るコンピュータに画像解析処理を実行させるプログラムを、処理部20Aの記録部23またはメモリ22にインストールし、このプログラムをCPU21が実行することにより実現される。ウィンドウサイズデータベース104と、アルゴリズムデータベース105とは、記録媒体98またはネットワーク99を通じて深層学習装置100Aから提供され、処理部20Aの記録部23またはメモリ22に記録される。
【0123】
解析対象の組織の解析対象画像78は、撮像装置400によって予め撮像され、処理部20Aの記録部23またはメモリ22に予め記録されていることとする。学習済みの結合重みwを含む深層学習アルゴリズム60は、解析対象の組織の標本が由来する組織試料の種別(例えば組織名)または細胞を含む試料の種類と対応付けられてアルゴリズムデータベース105に格納されており、コンピュータに画像解析処理を実行させるプログラムの一部であるプログラムモジュールとして機能する。すなわち、深層学習アルゴリズム60は、CPUおよびメモリを備えるコンピュータにて用いられ、解析対象の組織において細胞核の領域であるか否かを示すデータを出力するという、使用目的に応じた特有の情報の演算または加工を実行するよう、コンピュータを機能させる。具体的には、処理部20AのCPU21は、記録部23またはメモリ22に記録された深層学習アルゴリズム60に規定されているアルゴリズムに従って、学習済みの結合重みwに基づくニューラルネットワーク60の演算を行う。処理部20AのCPU21は、入力層60aに入力された、解
析対象の組織を撮像した解析対象画像78に対して演算を行い、出力層60bから、解析対象の組織において細胞核の領域であるか否かを示すデータである二値画像83を出力する。
【0124】
図11を参照すると、画像解析装置200Aの処理部20Aは、
図11に示す処理を行う。
図10に示す各機能ブロックを用いて説明すると、ステップS21およびS22の処理は、解析用データ生成部201が行う。ステップS23,S24,S26およびS27の処理は、解析用データ入力部202が行う。ステップS25およびS28の処理は、解析部203が行う。ステップS29の処理は、細胞核領域検出部204が行う。
【0125】
ステップS21において、処理部20Aは、入力された解析対象画像78からR、G、B各色の色濃度符号化
図79r,79g,79bを生成する。色濃度符号化
図79r,79g,79bの生成方法は、
図8に示す深層学習処理時におけるステップS11での生成方法と同様である。
【0126】
図11に示すステップS22において、処理部20Aは、入力部26を通じて、解析条件として、画像解析装置200A側のユーザからの、組織の種別の入力を受け付ける。処理部20Aは、入力された組織の種別に基づき、ウィンドウサイズデータベース104およびアルゴリズムデータベース105を参照して、解析に用いるウィンドウサイズを設定し、解析に用いる深層学習アルゴリズム60を取得する。ウィンドウサイズは、1回の入力時にニューラルネットワーク60に入力する解析用データの単位であり、ウィンドウサイズの解析用データ80の画素数と画像に含まれる色の原色の数との積が、入力層60aのノード数に対応している。ウィンドウサイズは組織の種別と対応付けられて、ウィンドウサイズデータベース104内に予め記録されている。ウィンドウサイズは、
図3に示すウィンドウW2のように、例えば3×3画素である。深層学習アルゴリズム60も、組織試料の種別または細胞を含む試料の種別と対応付けられて、
図10に示すアルゴリズムデータベース105内に予め記録されている。
【0127】
図11に示すステップS23において、処理部20Aは、色濃度符号化
図79r,79g,79bから、ウィンドウサイズの解析用データ80を生成する。
【0128】
ステップS24において、処理部20Aは、
図3に示す解析用データ80を、深層学習アルゴリズム60に入力する。ウィンドウの初期位置は、深層学習処理時におけるステップS15と同様に、例えばウィンドウ内の3×3画素の中心に位置する画素が、解析対象画像の左上角に対応する位置である。処理部20Aは、ウィンドウサイズの解析用データ80に含まれる、3×3画素×3原色の合計27個の色濃度値のデータ81を入力層60aに入力すると、深層学習アルゴリズム60は、出力層60bに判別結果82を出力する。
【0129】
図11に示すステップS25において、処理部20Aは、
図3に示す出力層60bに出力される判別結果82を記録する。判別結果82は、解析対象である、色濃度符号化
図79r,79g,79bの中心に位置する画素の推定値(二値)である。例えば推定値が値1の場合は細胞核の領域を示し、推定値が値0の場合はそれ以外の領域を示す。
【0130】
図11に示すステップS26において、処理部20Aは、入力画像内の全ての画素を処理したか否かを判断する。入力画像は、
図3に示す色濃度符号化
図79r,79g,79bであり、色濃度符号化
図79r,79g,79b内の全ての画素について、
図11に示すステップS23からステップS25の一連の処理がなされている場合は、ステップS28の処理を行う。
【0131】
入力画像内の全ての画素が処理されていない場合は、処理部20Aは、ステップS27において、深層学習処理時におけるステップS19と同様に、
図3に示す色濃度符号化
図79r,79g,79b内において、ウィンドウW2の中心位置を1画素単位で移動させる。その後、処理部20Aは、移動後の新たなウィンドウW2の位置において、ステップS23からステップS25の一連の処理を行う。処理部20Aは、ステップS25において、移動後の新たなウィンドウ位置に対応する、判別結果82を記録する。このようなウィンドウサイズ毎の判別結果82の記録を、解析対象画像内の全ての画素に対して行うことにより、解析結果の二値画像83が得られる。解析結果の二値画像83の画像サイズは、解析対象画像の画像サイズと同じである。ここで、二値画像83には、推定値の値1および値0が各画素に付された数値データであってもよく、推定値の値1および値0に代えて、例えば値1および値0のそれぞれに対応付けた表示色で示した画像であっても良い。
【0132】
図11に示すステップS28では、処理部20Aは、解析結果の二値画像83を出力部27に出力する。
【0133】
ステップS29では、ステップS28に引き続き、処理部20Aは、解析結果の二値画像83についてさらに、細胞核の領域の細胞核領域検出処理を行う。二値画像83において、細胞核の領域とそれ以外の領域とは、二値で区別して表されている。したがって、二値画像83において、画素の推定値が1から0に変化する画素または0から1に変化する画素の位置を検出することにより、細胞核の領域を判別することができる。また、別の態様として細胞核の領域とそれ以外の領域との境界、すなわち細胞核の領域を検出することができる。
【0134】
任意ではあるが、処理部20Aは、得られた細胞核の領域を、解析対象の解析対象画像78に重ねることにより、細胞核領域強調画像84を作成する。処理部20Aは、作成した細胞核領域強調画像84を出力部27に出力し、画像解析処理を終了する。
【0135】
以上、画像解析装置200Aのユーザは、解析対象の組織の解析対象画像78を画像解析装置200Aに入力することにより、解析結果として、二値画像83を取得することができる。二値画像83は、解析対象の標本における細胞核の領域とそれ以外の領域とを表しており、ユーザは、解析対象の標本において、細胞核の領域を判別することが可能となる。
【0136】
さらに、画像解析装置200Aのユーザは、解析結果として、細胞核領域強調画像84を取得することができる。細胞核領域強調画像84は、例えば、解析対象の解析対象画像78に、細胞核の領域を色で塗りつぶすことにより生成される。また、別の態様では、細胞核の領域とそれ以外の領域との境界線を重ねることにより生成されている。これにより、ユーザは、解析対象の組織において、細胞核の領域を一目で把握することが可能となる。
【0137】
解析対象の標本において細胞核の領域を示すことは、標本を見慣れていない者に細胞核の状態を把握させる一助となる。
【0138】
<第2の実施形態>
以下、第1の実施形態に係る画像解析システムと相違する点について、第2の実施形態に係る画像解析システムを説明する。
【0139】
[構成の概要]
図12を参照すると、第2の実施形態に係る画像解析システムは、ユーザ側装置200を備え、ユーザ側装置200が、統合型の画像解析装置200Bとして動作する。画像解
析装置200Bは、例えば汎用コンピュータで構成されており、第1の実施形態において説明した深層学習処理および画像解析処理の両方の処理を行う。つまり、第2の実施形態に係る画像解析システムは、ユーザ側で深層学習および画像解析を行う、スタンドアロン型のシステムである。第2の実施形態に係る画像解析システムは、ユーザ側に設置された統合型の画像解析装置200Bが、第1の実施形態に係る深層学習装置100Aおよび画像解析装置200Aの両方の機能を担う点において、第1の実施形態に係る画像解析システムと異なる。
【0140】
画像解析装置200Bは撮像装置400に接続されている。撮像装置400は、深層学習処理時には、学習用の組織の第1の訓練用画像70および第2の訓練用画像71を取得し、画像解析処理時には、解析対象の組織の解析対象画像78を取得する。
【0141】
[ハードウェア構成]
画像解析装置200Bのハードウェア構成は、
図6に示すユーザ側装置200のハードウェア構成と同様である。
【0142】
[機能ブロックおよび処理手順]
図13を参照すると、第2の実施形態に係る画像解析装置200Bの処理部20Bは、訓練データ生成部101と、訓練データ入力部102と、アルゴリズム更新部103と、解析用データ生成部201と、解析用データ入力部202と、解析部203と、細胞核検出部204とを備える。これらの機能ブロックは、コンピュータに深層学習処理および画像解析処理を実行させるプログラムを、処理部20Bの記録部23またはメモリ22にインストールし、このプログラムをCPU21が実行することにより実現される。ウィンドウサイズデータベース104と、アルゴリズムデータベース105とは、処理部20Bの記録部23またはメモリ22に記録され、どちらも深層学習時および画像解析処理時に共通して使用される。学習済みのニューラルネットワーク60は、組織の種別または細胞を含む試料の種別と対応付けられて、アルゴリズムデータベース105に予め格納されており、深層学習処理により結合重みwが更新されて、深層学習アルゴリズム60として、アルゴリズムデータベース105に格納される。なお、学習用の第1の訓練用画像である第1の訓練用画像70および第2の訓練用画像71は、撮像装置400によって予め撮像され、処理部20Bの記録部23またはメモリ22に予め記載されていることとする。解析対象の標本の解析対象画像78も、撮像装置400によって予め撮像され、処理部20Bの記録部23またはメモリ22に予め記録されていることとする。
【0143】
画像解析装置200Bの処理部20Bは、深層学習処理時には、
図8に示す処理を行い、画像解析処理時には、
図11に示す処理を行う。
図13に示す各機能ブロックを用いて説明すると、深層学習処理時には、ステップS11からS13、S18およびS19の処理は、訓練データ生成部101が行う。ステップS14の処理は、訓練データ入力部102が行う。ステップS15からS17の処理は、アルゴリズム更新部103が行う。画像解析処理時には、ステップS21およびS22の処理は、解析用データ生成部201が行う。ステップS23,S24,S26およびS27の処理は、解析用データ入力部202が行う。ステップS25およびS28の処理は、解析部203が行う。ステップS29の処理は、細胞核領域検出部204が行う。
【0144】
第2の実施形態に係る画像解析装置200Bが行う深層学習処理の手順および画像解析処理の手順は、第1の実施形態に係る深層学習装置100Aおよび画像解析装置200Aがそれぞれ行う手順と同様である。なお、第2の実施形態に係る画像解析装置200Bは、次の点において第1の実施形態に係る深層学習装置100Aおよび画像解析装置200Aと異なる。
【0145】
深層学習処理時のステップS13において、処理部20Bは、入力部26を通じて、画像解析装置200Bのユーザからの、学習用の組織の種別の入力を受け付ける。処理部20Bは、入力された組織の種別に基づき、ウィンドウサイズデータベース104を参照して、ウィンドウサイズを設定し、アルゴリズムデータベース105を参照して、学習に用いるニューラルネットワーク50を設定する。
【0146】
以上、画像解析装置200Bのユーザは、解析対象画像78を画像解析装置200Bに入力することにより、解析結果として、二値画像83を取得することができる。さらに、画像解析装置200Bのユーザは、解析結果として、細胞核領域強調画像84を取得することができる。
【0147】
第2の実施形態に係る画像解析装置200Bによると、ユーザは、自身が選択した種類の組織を、学習用の組織として用いることができる。これは、ニューラルネットワーク50の学習がベンダ側任せではなく、ユーザ自身がニューラルネットワーク50の学習の程度を向上できることを意味する。
【0148】
<第3の実施形態>
以下、第2の実施形態に係る画像解析システムと相違する点について、第3の実施形態に係る画像解析システムを説明する。
【0149】
[構成の概要]
図14を参照すると、第3の実施形態に係る画像解析システムは、ベンダ側装置100と、ユーザ側装置200とを備える。ベンダ側装置100は統合型の画像解析装置100Bとして動作し、ユーザ側装置200は端末装置200Cとして動作する。画像解析装置100Bは、例えば汎用コンピュータで構成されており、第1の実施形態において説明した深層学習処理および画像解析処理の両方の処理を行う、クラウドサーバ側の装置である。端末装置200Cは、例えば汎用コンピュータで構成されており、ネットワーク99を通じて、解析対象の画像を画像解析装置100Bに送信し、ネットワーク99を通じて、解析結果の画像を画像解析装置100Bから受信する、ユーザ側の端末装置である。
【0150】
第3の実施形態に係る画像解析システムは、ベンダ側に設置された統合型の画像解析装置100Bが、第1の実施形態に係る深層学習装置100Aおよび画像解析装置200Aの両方の機能を担う点において、第2の実施形態に係る画像解析システムと同様である。一方、第3の実施形態に係る画像解析システムは、端末装置200Cを備え、解析対象の画像の入力インタフェースと、解析結果の画像の出力インタフェースとをユーザ側の端末装置200Cに提供する点において、第2の実施形態に係る画像解析システムと異なる。つまり、第3の実施形態に係る画像解析システムは、深層学習処理および画像解析処理を行うベンダ側が、解析対象の画像および解析結果の画像の入出力インタフェースをユーザ側に提供する、クラウドサービス型のシステムである。
【0151】
画像解析装置100Bは撮像装置300に接続されており、撮像装置300によって撮像される、学習用の組織の第1の訓練用画像70および第2の訓練用画像71を取得する。
【0152】
端末装置200Cは撮像装置400に接続されており、撮像装置400によって撮像される、解析対象の組織の解析対象画像78を取得する。
【0153】
[ハードウェア構成]
画像解析装置100Bのハードウェア構成は、
図5に示すベンダ側装置100のハードウェア構成と同様である。端末装置200Cのハードウェア構成は、
図6に示すユーザ側
装置200のハードウェア構成と同様である。
【0154】
[機能ブロックおよび処理手順]
図15を参照すると、第3の実施形態に係る画像解析装置100Bの処理部10Bは、訓練データ生成部101と、訓練データ入力部102と、アルゴリズム更新部103と、解析用データ生成部201と、解析用データ入力部202と、解析部203と、細胞核領域検出部204とを備える。これらの機能ブロックは、コンピュータに深層学習処理および画像解析処理を実行させるプログラムを、処理部10Bの記録部13またはメモリ12にインストールし、このプログラムをCPU11が実行することにより実現される。ウィンドウサイズデータベース104と、アルゴリズムデータベース105とは、処理部10Bの記録部13またはメモリ12に記録され、どちらも深層学習時および画像解析処理時に共通して使用される。ニューラルネットワーク50は、組織の種別と対応付けられて、アルゴリズムデータベース105に予め格納されており、深層学習処理により結合重みwが更新されて、深層学習アルゴリズム60として、アルゴリズムデータベース105に格納される。
【0155】
なお、学習用の第1の訓練用画像70および第2の訓練用画像71は、撮像装置300によって予め撮像され、処理部10Bの記録部13またはメモリ12に予め記載されていることとする。解析対象の組織の解析対象画像78も、撮像装置400によって予め撮像され、端末装置200Cの処理部20Cの記録部23またはメモリ22に予め記録されていることとする。
【0156】
画像解析装置100Bの処理部10Bは、深層学習処理時には、
図8に示す処理を行い、画像解析処理時には、
図11に示す処理を行う。
図15に示す各機能ブロックを用いて説明すると、深層学習処理時には、ステップS11からS13、S18およびS19の処理は、訓練データ生成部101が行う。ステップS14の処理は、訓練データ入力部102が行う。ステップS15からS17の処理は、アルゴリズム更新部103が行う。画像解析処理時には、ステップS21およびS22の処理は、解析用データ生成部201が行う。ステップS23,S24,S26およびS27の処理は、解析用データ入力部202が行う。ステップS25およびS28の処理は、解析部203が行う。ステップS29の処理は、細胞核領域検出部204が行う。
【0157】
第3の実施形態に係る画像解析装置100Bが行う深層学習処理の手順および画像解析処理の手順は、第1の実施形態に係る深層学習装置100Aおよび画像解析装置200Aがそれぞれ行う手順と同様である。なお、第3の実施形態に係る画像解析装置100Bは、次の4つの点において第1の実施形態に係る深層学習装置100Aおよび画像解析装置200Aと異なる。
【0158】
図11に示す画像解析処理時のステップS21において、処理部10Bは、解析対象の組織の解析対象画像78を、ユーザ側の端末装置200Cから受信し、受信した解析対象画像78からR、G、B各色の色濃度符号化
図79r,79g,79bを生成する。色濃度符号化
図79r,79g,79bの生成方法は、
図8に示す深層学習処理時におけるステップS11での生成方法と同様である。
【0159】
図11に示す画像解析処理時のステップS22において、処理部10Bは、端末装置200Cの入力部26を通じて、解析条件として、端末装置200Cのユーザからの、組織の種別の入力を受け付ける。処理部10Bは、入力された組織の種別に基づき、ウィンドウサイズデータベース104およびアルゴリズムデータベース105を参照して、解析に用いるウィンドウサイズを設定し、解析に用いる深層学習アルゴリズム60を取得する。
【0160】
画像解析処理時のステップS28において、処理部10Bは、解析結果の二値画像83を、ユーザ側の端末装置200Cに送信する。ユーザ側の端末装置200Cでは、処理部20Cが、受信した解析結果の二値画像83を出力部27に出力する。
【0161】
画像解析処理時のステップS29において、処理部10Bは、ステップS28に引き続き、解析結果の二値画像83についてさらに、細胞核の領域の検出処理を行う。処理部10Bは、得られた細胞核の領域を、解析対象の解析対象画像78に重ねることにより、細胞核領域強調画像84を作成する。処理部10Bは、作成した細胞核領域強調画像84を、ユーザ側の端末装置200Cに送信する。ユーザ側の端末装置200Cでは、処理部20Cが、受信した細胞核領域強調画像84を出力部27に出力し、画像解析処理を終了する。
【0162】
以上、端末装置200Cのユーザは、解析対象の組織の解析対象画像78を画像解析装置100Bに送信することにより、解析結果として、二値画像83を取得することができる。さらに、端末装置200Cのユーザは、解析結果として、細胞核領域強調画像84を取得することができる。
【0163】
第3の実施形態に係る画像解析装置100Bによると、ユーザは、ウィンドウサイズデータベース104およびアルゴリズムデータベース105を深層学習装置100Aから取得することなく、画像解析処理の結果を享受することができる。これにより、解析対象の組織を解析するサービスとして、細胞核の領域を判別するサービスを、クラウドサービスとして提供することができる。
【0164】
細胞診を行う病理医の数は全国的に不足している。病理医は、都市部の大病院には在籍しているが、遠隔地の医療機関や、都市部であってもクリニック等の比較的小規模な医療機関には在籍していないケースが殆どである。画像解析装置100Bおよび端末装置200Cにて提供されるクラウドサービスは、このような遠隔地または比較的小規模な医療機関における組織診断や細胞診断の手助けとなる。
【0165】
<その他の形態>
以上、本発明を概要および特定の実施形態によって説明したが、本発明は上記した概要および各実施形態に限定されるものではない。
【0166】
上記第1から第3の実施形態では、胃癌である場合を一例として説明しているが、処理対象とする標本はこれに限定されず、前述の組織試料の標本または細胞を含む試料の標本を用いることができる。
【0167】
上記第1から第3の実施形態では、ステップS13において、処理部10A,20B,10Bは、ウィンドウサイズデータベース104を参照して、ウィンドウサイズの画素数を設定しているが、オペレータまたはユーザがウィンドウサイズを直接設定してもよい。この場合、ウィンドウサイズデータベース104は不要となる。
【0168】
上記第1から第3の実施形態では、ステップS13において、処理部10A,20B,10Bは、入力された組織の種別に基づいて、ウィンドウサイズの画素数を設定しているが、組織の種別の入力に代えて、組織のサイズを入力してもよい。処理部10A,20B,10Bは、入力された組織のサイズに基づいて、ウィンドウサイズデータベース104を参照して、ウィンドウサイズの画素数を設定すればよい。ステップS22においてもステップS13と同様に、組織の種別の入力に代えて、組織のサイズを入力してもよい。処理部20A,20B,10Bは、入力された組織のサイズに基づいて、ウィンドウサイズデータベース104およびアルゴリズムデータベース105を参照して、ウィンドウサイ
ズの画素数を設定し、ニューラルネットワーク60を取得すればよい。
【0169】
組織のサイズを入力する態様については、サイズを数値として直接入力してもよいし、例えば入力のユーザインタフェースをプルダウンメニューとして、ユーザが入力しようとするサイズに対応する、所定の数値範囲をユーザに選択させて入力してもよい。
【0170】
また、ステップS13およびステップS22において、組織の種別または組織のサイズに加えて、組織の第1の訓練用画像70、解析対象画像78および第2の訓練用画像71を撮像した際の撮像倍率を入力してもよい。撮像倍率を入力する態様については、倍率を数値として直接入力してもよいし、例えば入力のユーザインタフェースをプルダウンメニューとして、ユーザが入力しようとする倍率に対応する、所定の数値範囲をユーザに選択させて入力してもよい。
【0171】
上記第1から第3の実施形態では、深層学習処理時および画像解析処理時において、説明の便宜のためにウィンドウサイズを3×3画素と設定しているが、ウィンドウサイズの画素数はこれに限定されない。ウィンドウサイズは、例えば組織試料の種別、細胞を含む試料の種別に応じて設定してもよい。この場合、ウィンドウサイズの画素数と画像に含まれる色の原色の数との積が、ニューラルネットワーク50,60の入力層50a,60aのノード数に対応していればよい。
【0172】
ステップS13において、処理部10A,20B,10Bは、ウィンドウサイズの画素数を取得し、さらに、取得したウィンドウサイズの画素数を、入力された撮像倍率に基づいて補正してもよい。
【0173】
上記第1から第3の実施形態では、ステップS17において、処理部10A,20B,10Bは、深層学習アルゴリズム60を、組織の種別と一対一に対応付けて、アルゴリズムデータベース105に記録している。これに代えて、ステップS17において、処理部10A,20B,10Bは、1つの深層学習アルゴリズム60に、複数の組織の種別を対応付けて、アルゴリズムデータベース105に記録してもよい。
【0174】
上記第1から第3の実施形態では、色相は、光の3原色の組み合わせ、または色の3原色の組み合わせで規定されているが、色相の数は3つに限定されない。色相の数は、赤(R),緑(G),青(B)に黄(Y)を加えた4原色としても良いし、赤(R),緑(G),青(B)の3原色からいずれか1つの色相を減らした2原色としてもよい。あるいは、赤(R),緑(G),青(B)の3原色のいずれか1つ(例えば緑(G))のみの1原色としてもよい。例えば公知の顕微鏡またはバーチャルスライドスキャナ等を用いて取得される明視野画像70および解析対象画像78も、赤(R),緑(G),青(B)の3原色のカラー画像に限定されず、2原色のカラー画像であってもよく、1以上の原色を含む画像であればよい。
【0175】
上記第1から第3の実施形態では、ステップS11において、処理部10A,20B,10Bは、色濃度符号化
図72r,72g,72bを各原色の3階調の単一色画像として生成しているが、色濃度符号化
図72r,72g,72bの原色の階調は、3階調に制限されない。色濃度符号化
図72r,72g,72bの階調は、2階調の画像であってもよく、1階調以上の画像であればよい。同様に、ステップS21において、処理部20A,20B,10Bは、色濃度符号化
図79r,79g,79b各原色ごとの単一色画像として生成しているが、色濃度符号化図を作成する際の原色は3階調に制限されない。色濃度符号化図を作成する際の原色は、2階調の画像であってもよく、1階調以上の画像であればよい。例示的に、色濃度符号化
図72r,72g,72b,79r,79g,79bの階調を、色濃度値が値0から値255の256段階(8階調)とすることができる。
【0176】
上記第1から第3の実施形態では、ステップS11において、処理部10A,20B,10Bは、入力された第1の訓練用画像70からR、G、B各色の色濃度符号化
図72r,72g,72bを生成しているが、入力される第1の訓練用画像70は予め階調化されていてもよい。すなわち、処理部10A,20B,10Bは、R、G、B各色の色濃度符号化
図72r,72g,72bを、例えばバーチャルスライドスキャナ等から直接取得してもよい。同様に、ステップS21において、処理部20A,20B,10Bは、入力された解析対象画像78からR、G、B各色の色濃度符号化
図79r,79g,79bを生成しているが、入力される解析対象画像78は予め階調化されていてもよい。すなわち、処理部20A,20B,10Bは、R、G、B各色の色濃度符号化
図79r,79g,79bを、例えばバーチャルスライドスキャナ等から直接取得してもよい。
【0177】
上記第1から第3の実施形態では、カラーの第1の訓練用画像70,78から色濃度符号化
図72,79を生成する際のカラースペースにはRGBを用いているが、カラースペースはRGBに制限されない。RGB以外にも、YUV、CMY、およびCIE L
*a
*b
*等の種々のカラースペースを用いることができる。
【0178】
上記第1から第3の実施形態では、訓練データ74および解析用データ80において、各画素について濃度値が赤(R),緑(G),青(B)の順番で格納されているが、濃度値を格納および取り扱う順番はこれに限定されない。例えば濃度値は、青(B),緑(G),赤(R)の順番で格納されていてもよく、訓練データ74における濃度値の並び順と、解析用データ80における濃度値の並び順とが同じであればよい。
【0179】
上記第1から第3の実施形態では、ステップS12において、処理部10A,20B,10Bは、入力された第2の訓練用画像71の各画素の階調を二値化して真値像73を生成しているが、予め二値化された真値像73を取得してもよい。
【0180】
上記第1から第3の実施形態では、処理部10A,10Bは一体の装置として実現されているが、処理部10A,10Bは一体の装置である必要はなく、CPU11、メモリ12、記録部13、GPU19等が別所に配置され、これらがネットワークで接続されていてもよい。処理部10A,10Bと、入力部16と、出力部17とについても、一ヶ所に配置される必要は必ずしもなく、それぞれ別所に配置されて互いにネットワークで通信可能に接続されていてもよい。処理部20A,20B,20Cについても処理部10A,10Bと同様である。
【0181】
上記第1から第3の実施形態では、訓練データ生成部101、訓練データ入力部102、アルゴリズム更新部103、解析用データ生成部201、解析用データ入力部202、解析部203および細胞核領域検出部204の各機能ブロックは、単一のCPU11または単一のCPU21において実行されているが、これら各機能ブロックは単一のCPUにおいて実行される必要は必ずしもなく、複数のCPUで分散して実行されてもよい。また、これら各機能ブロックは、複数のGPUで分散して実行されてもよいし、複数のCPUと複数のGPUとで分散して実行されてもよい。
【0182】
上記第2および第3の実施形態では、
図8および
図11で説明する各ステップの処理を行うためのプログラムを記録部13,23に予め記録している。これに代えて、プログラムは、例えばDVD-ROMやUSBメモリ等の、コンピュータ読み取り可能であって非一時的な有形の記録媒体98から処理部10B,20Bにインストールしてもよい。または、処理部10B,20Bをネットワーク99と接続し、ネットワーク99を介して例えば外部のサーバ(図示せず)からプログラムをダウンロードしてインストールしてもよい。
【0183】
上記第1から第3の実施形態では、入力部16,26はキーボードまたはマウス等の入力装置であり、出力部17,27は液晶ディスプレイ等の表示装置として実現されている。これに代えて、入力部16、26と出力部17、27とを一体化してタッチパネル式の表示装置として実現してもよい。または、出力部17,27をプリンター等で構成し、解析結果の二値画像83または細胞核の細胞核領域強調画像84を印刷して出力してもよい。
【0184】
上記第1から第3の実施形態では、撮像装置300は、深層学習装置100Aまたは画像解析装置100Bと直接接続されているが、撮像装置300は、ネットワーク99を介して深層学習装置100Aまたは画像解析装置100Bと接続されていてもよい。撮像装置400についても同様に、撮像装置400は、画像解析装置200Aまたは画像解析装置200Bと直接接続されているが、撮像装置400は、ネットワーク99を介して画像解析装置200Aまたは画像解析装置200Bと接続されていてもよい。
【0185】
<実施例>
以下に本発明の実施例を示し、本発明の特徴をより明確にする。
【実施例0186】
上記第2の実施形態に示すスタンドアロン型のシステムにて、深層学習処理および画像解析処理を行った。学習および解析の対象とする組織は、胃癌組織とした。解析処理は、2つの異なる胃癌組織標本を対象として行った。
【0187】
[訓練データの作成および学習]
HE染色した胃癌組織の明視野画像およびDAPI染色した胃癌組織の蛍光画像のホールスライドイメージ(WSI)を、バーチャルスライドスキャナを用いてカラー撮像した。撮像倍率は40倍であった。その後、明視野画像をもとにR、G、B各色の色濃度値を階調化して、R、G、B各色の色濃度符号化図を作成した。また、DAPI染色した蛍光画像をもとに、予め設定していた閾値を用いて色濃度値を細胞核の領域とそれ以外の領域とに二値化して、二値化画像を作成した。撮像により得られた明視野画像および蛍光画像を、
図16の(a)および(b)にそれぞれ示し、蛍光画像から作成した二値化画像を
図16の(c)に示す。
【0188】
その後、色濃度符号化図と二値化画像とを組み合わせて訓練データを作成した。作成した訓練データを113×113画素のウィンドウサイズに分割し、分割したウィンドウサイズの訓練データを入力層として、ニューラルネットワークを学習させた。ウィンドウサイズとして採用した113×113画素は、例示的には2つから9つ程度の複数の細胞のうち、少なくとも1つの細胞の細胞核領域の全体形状が、ウィンドウ内に含まれることをサポートするサイズであった。
【0189】
[解析対象画像の作成]
訓練データと同様に、HE染色した胃癌組織の明視野画像のホールスライドイメージを、バーチャルスライドスキャナを用いてカラー撮像した。撮像倍率は40倍であった。その後、撮像した明視野画像をもとにR、G、B各色の色濃度符号化図を作成し、作成したR、G、B各色の色濃度符号化図を組み合わせて解析対象画像を作成した。
【0190】
[解析結果]
解析対象画像の各画素を中心に、113×113画素のウィンドウサイズの解析用データを作成し、作成したウィンドウサイズの解析用データを、学習済みのニューラルネットワークに入力した。ニューラルネットワークから出力される解析結果をもとに、細胞核の
領域とそれ以外の領域とに分類し、細胞核の領域の輪郭を白色で囲んだ。解析結果を
図17および
図18に示す。
【0191】
図17は、1つ目の胃癌組織標本画像の解析結果である。
図17の(a)は、胃癌組織をHE染色して撮像した明視野画像であり、
図17の(b)は、解析処理により得られた細胞核の領域の輪郭を、(a)の明視野画像に重ねて表示した画像である。
図17の(b)において白色で囲まれた領域が、細胞核の領域である。
【0192】
図18は、2つ目の胃癌組織標本画像の解析結果である。
図18の(a)は、胃癌組織をHE染色して撮像した明視野画像であり、
図18の(b)は、解析処理により得られた細胞核の領域の輪郭を、(a)の明視野画像に重ねて表示した画像である。
図18の(b)において白色で囲まれた領域が、細胞核の領域である。
【0193】
図17および
図18に示すように、異なる2種類の病理組織画像の任意の位置において、細胞核の領域か否かを判定することができた。細胞核の領域判定の正答率は、85%以上であった。