IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 学校法人順天堂の特許一覧 ▶ シスメックス株式会社の特許一覧

特開2023-61956画像解析方法、装置、コンピュータプログラム、及び深層学習アルゴリズムの生成方法
<>
  • 特開-画像解析方法、装置、コンピュータプログラム、及び深層学習アルゴリズムの生成方法 図1
  • 特開-画像解析方法、装置、コンピュータプログラム、及び深層学習アルゴリズムの生成方法 図2
  • 特開-画像解析方法、装置、コンピュータプログラム、及び深層学習アルゴリズムの生成方法 図3
  • 特開-画像解析方法、装置、コンピュータプログラム、及び深層学習アルゴリズムの生成方法 図4
  • 特開-画像解析方法、装置、コンピュータプログラム、及び深層学習アルゴリズムの生成方法 図5
  • 特開-画像解析方法、装置、コンピュータプログラム、及び深層学習アルゴリズムの生成方法 図6
  • 特開-画像解析方法、装置、コンピュータプログラム、及び深層学習アルゴリズムの生成方法 図7
  • 特開-画像解析方法、装置、コンピュータプログラム、及び深層学習アルゴリズムの生成方法 図8
  • 特開-画像解析方法、装置、コンピュータプログラム、及び深層学習アルゴリズムの生成方法 図9
  • 特開-画像解析方法、装置、コンピュータプログラム、及び深層学習アルゴリズムの生成方法 図10
  • 特開-画像解析方法、装置、コンピュータプログラム、及び深層学習アルゴリズムの生成方法 図11
  • 特開-画像解析方法、装置、コンピュータプログラム、及び深層学習アルゴリズムの生成方法 図12
  • 特開-画像解析方法、装置、コンピュータプログラム、及び深層学習アルゴリズムの生成方法 図13
  • 特開-画像解析方法、装置、コンピュータプログラム、及び深層学習アルゴリズムの生成方法 図14
  • 特開-画像解析方法、装置、コンピュータプログラム、及び深層学習アルゴリズムの生成方法 図15
  • 特開-画像解析方法、装置、コンピュータプログラム、及び深層学習アルゴリズムの生成方法 図16
  • 特開-画像解析方法、装置、コンピュータプログラム、及び深層学習アルゴリズムの生成方法 図17
  • 特開-画像解析方法、装置、コンピュータプログラム、及び深層学習アルゴリズムの生成方法 図18
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2023061956
(43)【公開日】2023-05-02
(54)【発明の名称】画像解析方法、装置、コンピュータプログラム、及び深層学習アルゴリズムの生成方法
(51)【国際特許分類】
   C12Q 1/02 20060101AFI20230425BHJP
   C12M 1/00 20060101ALI20230425BHJP
   G06T 7/00 20170101ALI20230425BHJP
   G06N 20/10 20190101ALI20230425BHJP
【FI】
C12Q1/02
C12M1/00 A
G06T7/00 350C
G06T7/00 630
G06N20/10
【審査請求】有
【請求項の数】19
【出願形態】OL
(21)【出願番号】P 2023008570
(22)【出願日】2023-01-24
(62)【分割の表示】P 2018091776の分割
【原出願日】2018-05-10
(71)【出願人】
【識別番号】502285457
【氏名又は名称】学校法人順天堂
(71)【出願人】
【識別番号】390014960
【氏名又は名称】シスメックス株式会社
(74)【代理人】
【識別番号】110000796
【氏名又は名称】弁理士法人三枝国際特許事務所
(72)【発明者】
【氏名】大坂 顯通
(72)【発明者】
【氏名】田部 陽子
(72)【発明者】
【氏名】木村 考伸
(57)【要約】
【課題】より高精度に、解析用画像に含まれる複数の細胞について各々の形態を識別する
ための画像解析方法を提供することを一課題とする。
【解決手段】ニューラルネットワーク構造を有する深層学習アルゴリズムを用いて、細胞
の形態を解析する画像解析方法であって、解析対象の細胞に関する情報を含む解析データ
を、前記深層学習アルゴリズム(60,61)に入力し、前記深層学習アルゴリズム(6
0,61)によって、前記所定の細胞群に属する複数の細胞の形態分類の各々について、
前記解析対象の細胞が属する確率を算出する方法により、画像を解析する。
【選択図】図1
【特許請求の範囲】
【請求項1】
ニューラルネットワーク構造を有する深層学習アルゴリズムを用いて、細胞の形態を解析する、コンピュータが実施する画像解析方法であって、
解析対象の細胞に関する情報を含む解析データを、前記深層学習アルゴリズムに入力し、
前記深層学習アルゴリズムによって前記解析データを解析して、所定の細胞群に属する複数の細胞の形態分類の各々について前記解析対象の細胞が属する確率を算出し、 前記所定の細胞群は、血中細胞の群であり、
前記形態分類が、異常な芽球又は異常な好中球を含む、
画像解析方法。
【請求項2】
算出した前記確率に基づいて、前記解析対象の細胞が、所定の細胞群に属する複数の細胞の形態分類のいずれかを識別する、
請求項1に記載の画像解析方法。
【請求項3】
前記所定の細胞群は、所定の細胞系統に属する細胞の群である、請求項1又は2に記載の画像解析方法。
【請求項4】
前記所定の細胞系統は、造血系である、請求項3に記載の画像解析方法。
【請求項5】
前記形態分類が、前記解析対象の細胞の種類の識別を含む、請求項1から4のいずれか一項に記載の画像解析方法。
【請求項6】
前記複数の細胞の形態分類が、分葉核好中球、桿状核好中球、後骨髄球、骨髄球、芽球、リンパ球、異型リンパ球、単球、好酸球、好塩基球、赤芽球、巨大血小板、血小板凝集塊、及び巨核球よりなる群から選択される複数の細胞を含む、請求項1から5のいずれか一項に記載の画像解析方法。
【請求項7】
前記形態分類が、前記解析対象の細胞の異常所見の識別を含む、請求項1から6のいずれか一項に記載の画像解析方法。
【請求項8】
前記複数の細胞の形態分類に含まれる異常な芽球または異常な好中球が、形態核異常を有する芽球、空胞が存在する芽球、異常顆粒が存在する芽球、巨大な桿状核好中球、顆粒形態異常を有する桿状核好中球、顆粒分布異常を有する桿状核好中球、巨大な分葉核好中球、顆粒形態異常を有する分葉核好中球、偽ペルゲル核異常を有する分葉核好中球、過分葉が存在する分葉核好中球、および、顆粒分布異常を有する分葉核好中球よりなる群から選択される少なくとも一つの細胞を含む、請求項1から7のいずれか一項に記載の画像解析方法。
【請求項9】
前記深層学習アルゴリズムが、
所定の細胞群に属する複数の細胞の第1の形態分類の各々について、前記解析対象の細胞が属する確率を算出する第1のアルゴリズムと、
所定の細胞群に属する複数の細胞の第2の形態分類の各々について、前記解析対象の細胞が属する確率を算出する第2のアルゴリズムと、
を含む、請求項1から8のいずれか一項に記載の画像解析方法。
【請求項10】
前記第1の形態分類は、前記解析対象の細胞の種類であり、
前記第2の形態分類は、前記解析対象の細胞の異常所見である、
請求項9に記載の画像解析方法。
【請求項11】
前記解析データが、染色された血中細胞を撮像した画像のデータである、請求項1から10のいずれか一項に記載の画像解析方法。
【請求項12】
前記染色が、ライト染色、ギムザ染色、ライトギムザ染色及びメイギムザ染色から選択される、請求項11に記載の画像解析方法。
【請求項13】
前記解析データが、解析対象画像の輝度に関する情報と、少なくとも2種の色相に関する情報を含む、請求項1から12のいずれか一項に記載の画像解析方法。
【請求項14】
ニューラルネットワーク構造を有する深層学習アルゴリズムを用いて、細胞の形態を解析する画像解析装置であって、
解析対象の細胞に関する情報を含む解析データを、前記深層学習アルゴリズムに入力し、前記深層学習アルゴリズムによって前記解析データを解析して、前記所定の細胞群に属する複数の細胞の形態分類の各々について、前記解析対象の細胞が属する確率を算出する処理部を備え、
前記所定の細胞群は、血中細胞の群であり、
前記形態分類が、異常な芽球又は異常な好中球を含む、
画像解析装置。
【請求項15】
前記形態分類が、前記解析対象の細胞の種類の識別を含む、請求項14に記載の画像解析装置。
【請求項16】
前記形態分類が、前記解析対象の細胞の異常所見の識別を含む、請求項14又は15に記載の画像解析装置。
【請求項17】
ニューラルネットワーク構造を有する深層学習アルゴリズムを用いて、細胞の形態を解析する画像解析するためのコンピュータプログラムであって、
解析対象の細胞に関する情報を含む解析データを、前記深層学習アルゴリズムを含む判別器に入力し、前記深層学習アルゴリズムによって前記解析データを解析して、前記所定の細胞群に属する複数の細胞の形態分類の各々について、前記解析対象の細胞が属する確率を算出し、
前記所定の細胞群は、血中細胞の群であり、
前記形態分類が、異常な芽球又は異常な好中球を含む、
処理をコンピュータに実行させる、
コンピュータプログラム。
【請求項18】
前記形態分類が、前記解析対象の細胞の種類の識別を含む、請求項17に記載のコンピュータプログラム。
【請求項19】
前記形態分類が、前記解析対象の細胞の異常所見の識別を含む、請求項17又は19に記載のコンピュータプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、細胞形態を解析する画像解析方法、装置、コンピュータプログラム、及び深
層学習アルゴリズムの生成方法に関する。
【背景技術】
【0002】
特許文献1には、顕微鏡画像を処理するための細胞識別システムが開示されている。前
記細胞識別システムにおいては、機械訓練技法を用いて訓練されたモデルが、取得された
画像内の画素を、細胞、細胞エッジ、背景、及び同等物のうちの1つ又はそれを上回るも
のと関連付ける。機械訓練技法は、ランダムフォレスト決定木技法を使用している。
【先行技術文献】
【特許文献】
【0003】
【特許文献1】特表2016-534709号
【発明の概要】
【発明が解決しようとする課題】
【0004】
細胞検査では、通常検査者が顕微鏡観察により細胞を観察し、細胞の種類や特徴を形態
学的に同定する。しかし、同じ系統の細胞は似た形態を有するため、形態学的に細胞を識
別できるようになるためには、多くの細胞標本を観察し、識別スキルを向上させることが
必要となる。特に疾患に罹患した際に出現する異常細胞の識別には熟練を要する。例えば
、初期の骨髄異型性症候群のように異常細胞の出現頻度が少ない場合、スキルが十分でな
い検査者が異常細胞に気づかない等のリスクもある。
【0005】
また、検査者が1日に観察できる標本枚数には限界があり、1日に100枚を超える観
察は、検査者にも負担となる。
【0006】
細胞検査の処理件数を増やすことは、フロー方式を採用した自動血球分類装置等でも可
能である。しかし、フロー方式の自動血球分類装置からは得られる情報が限られており、
芽球、前骨髄球、巨大血小板といった出現頻度の低い血球については識別が困難であった
【0007】
特許文献1に記載の方法のように、機械訓練技法(機械学習ともいう)を使用して、細
胞を識別する方法も知られている。しかしながら、機械学習モデルを訓練するための訓練
データをユーザが作成する必要があり、モデルの生成に膨大な労力が必要となる。また、
ユーザが訓練データを作成するため、作成可能な訓練データの数が限られ、機械学習モデ
ルによる解析の精度、汎化性能に課題があるというのが現状である。
【0008】
また、特許文献1に記載の方法は、顕微鏡画像において、細胞の部分と非細胞の部分と
を識別するための方法である。したがって、各々の細胞がどのような種類であるか、また
どのような異常所見を含んでいるか等は識別することはできない。
【0009】
本開示は、より高精度に解析用画像に含まれる複数の細胞について各々の形態を識別す
るための画像解析方法を提供することを一課題とする。
【課題を解決するための手段】
【0010】
本開示におけるある実施形態は、ニューラルネットワーク構造を有する深層学習アルゴ
リズム(50,51)を用いて、細胞の形態を解析する画像解析方法に関する。前記画像
解析方法では、解析対象の細胞に関する情報を含む解析データ(80)を、ニューラルネ
ットワーク構造を有する深層学習アルゴリズム(60,61)に入力し、前記深層学習ア
ルゴリズムによって、前記所定の細胞群に属する複数の細胞の形態分類の各々について、
前記解析対象の細胞が属する確率を算出して画像を解析する。本実施形態により、検査者
が顕微鏡観察を行わなくても、所定の細胞群に属する複数の細胞の形態分類の各々につい
て、前記解析対象の細胞が属する確率を求め画像を解析することができる。
【0011】
好ましくは、前記画像解析方法は、算出した前記確率に基づいて、前記解析対象の細胞
が、所定の細胞群に属する複数の細胞の形態分類のいずれかを識別する。本実施形態によ
り、検査者が顕微鏡観察を行わなくても、解析対象の細胞が形態分類のいずれに該当する
かを識別することができる。
【0012】
好ましくは、前記所定の細胞群は、血中細胞の群である。本実施形態により、検査者が
顕微鏡観察を行わなくても、血球の形態分類を行うことができる。
【0013】
前記所定の細胞群は、好ましくは、所定の細胞系統に属する細胞の群である。より好ま
しくは、前記所定の細胞系統は、造血系である。本実施形態により、検査者が顕微鏡観察
を行わなくても、同じ細胞系統に属する細胞の形態分類を行うことができる。
【0014】
好ましくは、前記形態分類が、前記解析対象の細胞の種類の識別である。より好まし
くは、形態学分類が、分葉核好中球及び桿状核好中球を含む好中球、後骨髄球、骨髄球、
前骨髄球、芽球、リンパ球、形質細胞、異型リンパ球、単球、好酸球、好塩基球、赤芽球
、巨大血小板、血小板凝集塊、及び巨核球を含む。本実施形態によれば、似たような形態
を有する同系列の細胞であっても識別することができる。
【0015】
好ましくは、前記形態分類が、前記解析対象の細胞の異常所見の識別である、前記形態
学的分類は、より好ましくは、形態核異常、空胞の存在、顆粒形態異常、顆粒分布異常、
異常顆粒の存在、細胞の大きさ異常、封入体の存在及び裸核よりなる群から選択される少
なくとも一つの細胞を含む。本実施形態によれば異常所見を呈する細胞であっても識別す
ることができる。
【0016】
前記実施形態において、前記細胞の形態に関するデータが、形態学的な分類における細
胞の種類に関するデータ及び形態学的な分類における細胞の特徴に関するデータである。
この実施形態により、形態学的な細胞の種類と、細胞の特徴とを出力することができる。
【0017】
前記実施形態は、好ましくは、前記深層学習アルゴリズムが、所定の細胞群に属する複
数の細胞の第1の形態分類の各々について、前記解析対象の細胞が属する確率を算出する
第1のアルゴリズムと、所定の細胞群に属する複数の細胞の第2の形態分類の各々につい
て、前記解析対象の細胞が属する確率とを算出を算出する第1のアルゴリズムとを含む。
例えば、前記第1の形態分類は、前記解析対象の細胞の種類であり、前記第2の形態分類
は、前記解析対象の細胞の異常所見である。このようにすることにより、似た形態を有す
る細胞の識別精度をより向上することができる。
【0018】
前記実施形態では、前記解析データ(80)が、染色された血中細胞を撮像した画像の
データである。より好ましくは、前記染色が、ライト染色、ギムザ染色、ライトギムザ染
色及びメイギムザ染色から選択される。このようにすることで、従来行われている顕微鏡
下の観察と同様の識別を行うことができる。
【0019】
前記解析データ(80)及び訓練データ(75)が、解析対象画像及び訓練用画像の輝
度に関する情報と、少なくとも2種の色相に関する情報を含む。このようにすることで、
識別精度を向上させることができる。
【0020】
本開示における別の実施形態は、ニューラルネットワーク構造を有する深層学習アルゴ
リズムを用いて、細胞の形態を解析する画像解析装置(200)に関する。前記画像解析
装置(200)は、解析対象の細胞に関する情報を含む解析データ(80)を、前記深層
学習アルゴリズム(60,61)を含む識別器に入力し、前記深層学習アルゴリズム(6
0,61)によって、前記所定の細胞群に属する複数の細胞の形態分類の各々について、
前記解析対象の細胞が属する確率を算出して画像を解析する処理部(10)を備える。好
ましくは、前記形態分類は、前記解析対象の細胞の種類の識別である。また、好ましくは
、前記形態分類は、前記解析対象の細胞の異常所見の識別である。
【0021】
本開示における、別の実施形態は、ニューラルネットワーク構造を有する深層学習アル
ゴリズムを用いて(60,61)、細胞の形態を解析する画像解析するためのコンピュー
タプログラムに関する。前記コンピュータプログラムは、解析対象の細胞に関する情報を
含む解析データ(83)を、前記深層学習アルゴリズム(60,61)によって、前記所
定の細胞群に属する複数の細胞の形態分類の各々について、前記解析対象の細胞が属する
確率を算出して画像を解析する処理をコンピュータ(200)に実行させる。好ましくは
、前記形態分類は、前記解析対象の細胞の種類の識別である。また、好ましくは、前記形
態分類は、前記解析対象の細胞の異常所見の識別である。
【0022】
本開示の別の実施形態は、訓練済みの深層学習アルゴリズム(60,61)の生成方法
に関する。本実施形態は、細胞に関する情報を含む訓練データをニューラルネットワーク
(50,51)の入力層(50a,50b)に入力し、所定の細胞群に属する複数の細胞
の形態分類に紐付けられたラベル値を出力層(51a,51b)として入力する。好まし
くは、前記形態分類は、前記解析対象の細胞の種類の識別である。また、好ましくは、前
記形態分類は、前記解析対象の細胞の異常所見の識別である。
【0023】
画像解析装置(200)、訓練済みの深層学習アルゴリズム(60,61)を使用する
ことにより、検査者のスキルに影響されずに、形態学的な細胞の種類及び細胞の特徴を識
別することができる。
【発明の効果】
【0024】
解析用画像に含まれる複数の細胞について各々の形態を識別することができる。結果と
して、検査者のスキルに影響されない細胞検査を行うことができる。
【図面の簡単な説明】
【0025】
図1】本開示の概要を示す図である。
図2】訓練データの生成手順と、第1の深層学習アルゴリズムと第2の深層学習アルゴリズムの訓練手順の例を示す模式図である。
図3】ラベル値の例を示す。
図4】解析データの生成手順と、深層学習アルゴリズムを用いた細胞の識別の手順の例を示す模式図である。
図5】画像解析システム1の構成例の概略を示す図である。
図6】ベンダ側装置100のハードウェア構成の例を示すブロック図である。
図7】ユーザ側装置200のハードウェア構成の例を示すブロック図である。
図8】深層学習装置100Aの機能の例を説明するためのブロック図である。
図9】深層学習処理の流れの例を示すフローチャートである。
図10】ニューラルネットワークを説明するための模式図である。
図11】画像解析装置200Aの機能の例を説明するためのブロック図である。
図12】画像解析処理の流れの例を示すフローチャートである。
図13】画像解析システム2の構成例の概略を示す図である。
図14】統合型の画像解析装置200Bの機能の例を説明するためのブロック図である。
図15】画像解析システム3の構成例の概略を示す図である。
図16】統合型の画像解析装置100Bの機能の例を説明するためのブロック図である。
図17】深層学習アルゴリズムを用いた細胞の種類の識別結果を示す。
図18】深層学習アルゴリズムを用いた細胞の特徴の識別結果を示す。
【発明を実施するための形態】
【0026】
以下、本発明の概要及び実施の形態を、添付の図面を参照して詳細に説明する。なお、
以下の説明及び図面において、同じ符号は同じ又は類似の構成要素を示すこととし、よっ
て、同じ又は類似の構成要素に関する説明を省略する。
【0027】
[1.画像の解析方法]
本開示の第1の実施形態は、細胞形態を解析する画像の解析方法に関する。前記画像の
解析方法は、解析対象の細胞に関する情報を含む解析データを、ニューラルネットワーク
構造を有する深層学習アルゴリズムを含む識別器(Classifier)に入力する。
前記識別器は、前記所定の細胞群に属する複数の細胞の形態分類の各々について、前記解
析対象の細胞が属する確率を算出する。好ましくは、画像解析方法は、前記確率に基づい
て、前記解析対象の細胞が、所定の細胞群に属する複数の細胞の形態分類のいずれかを識
別することをさらに含む。
【0028】
第1の実施形態において、解析対象の細胞は、所定の細胞群に属する。所定の細胞群は
、哺乳動物や鳥類の体内の各器官を構成する細胞群である。所定の細胞群には、正常の場
合、組織学的な顕微鏡観察や細胞学的な顕微鏡観察により形態学的に分類される複数の細
胞の種類が含まれる。形態学的な分類(「形態分類」ともいう)は、細胞の種類の分類と
細胞の形態学的な特徴の分類を含む。好ましくは、解析対象の細胞は、所定の細胞群に属
する所定の細胞系統に属する細胞群である。所定の細胞系統とは、ある一種の組織幹細胞
から分化した同じ系統に属する細胞群である。所定の細胞系統として好ましくは、造血系
であり、より好ましくは血液中の細胞(「血中細胞」ともいう)である。
【0029】
造血系細胞は、従来法では、明視野用の染色を施した標本を顕微鏡の明視野でヒトが観
察することにより、形態学的に分類される。前記染色は、ライト染色、ギムザ染色、ライ
トギムザ染色及びメイギムザ染色から選択されることが好ましい。より好ましくはメイギ
ムザ染色である。標本は、所定の細胞群に属する各細胞の形態を個々に観察できる限り制
限されない。例えば、塗抹標本、及び捺印標本等を挙げることができる。好ましくは、末
梢血又は骨髄を試料とした塗抹標本であり、より好ましくは、末梢血の塗抹標本である。
【0030】
形態学的な分類では、血中細胞は、分葉核好中球及び桿状核好中球を含む好中球、後骨
髄球、骨髄球、前骨髄球、芽球、リンパ球、形質細胞、異型リンパ球、単球、好酸球、好
塩基球、赤芽球(有核赤血球であり、前赤芽球、好塩基性赤芽球、多染性赤芽球、正染性
赤芽球、前巨赤芽球、好塩基性巨赤芽球、多染性巨赤芽球、及び正染性巨赤芽球を含む)
、巨大血小板、血小板凝集塊、及び巨核球(有核巨核球であり、ミクロメガカリオサイト
を含む)等の細胞の種類を含む。
【0031】
また、前記所定の細胞群には、正常細胞の他、形態学的な異常所見を呈する異常細胞が
含まれていてもよい。異常は、形態学的に分類される細胞の特徴として現れる。異常細胞
の例は、所定の疾患に罹患した際に出現する細胞であり、例えば腫瘍細胞等である。造血
系の場合、所定の疾患は、骨髄異型性症候群、白血病(急性骨髄芽球性白血病、急性骨髄
芽球性白血病、急性前骨髄球性白血病、急性骨髄単球性白血病、急性単球性白血病、赤白
血病、急性巨核芽球性白血病、急性骨髄性白血病、急性リンパ球性白血病、リンパ芽球性
白血病、慢性骨髄性白血病、及び慢性リンパ球性白血病等を含む、悪性リンパ腫(ホジキ
ンリンパ腫及び非ホジキンリンパ腫等)、及び多発性骨髄腫よりなる群から選択される疾
患である。また、造血系の場合、異常所見は、形態核異常、空胞の存在、顆粒形態異常、
顆粒分布異常、異常顆粒の存在、細胞の大きさ異常、封入体の存在及び裸核よりなる群か
ら選択される少なくとも一種の形態学的特徴を有する細胞である。
【0032】
形態核異常には、核が小さくなるもの、核が大きくなるもの、核が過分葉になるもの、
正常であれば分葉するべき核が分葉していないもの(偽ペルゲルの核異常等を含む)、空
胞があるもの、核小体が肥大しているもの、核に切れ込みがあるもの、及び本来であれば
1細胞に1つの核を有するべきところ1細胞に2核異常が存在するもの等を挙げることが
できる。
【0033】
細胞全体の形態の異常として、細胞質に空胞を有するもの(空胞変性とも呼ぶ)、アズ
ール顆粒、好中性顆粒、好酸性顆粒、好塩基性顆粒等の顆粒に形態的な異常を有するもの
、前記顆粒の分布の異常(過剰、又は減少若しくは消失)を有するもの、異常顆粒(例え
ば、中毒性顆粒等)を有するもの、細胞の大きさ異常(正常よりも大きい、又は小さい)
、封入体(デーレー小体、及びアウエル小体等)を有するもの、及び裸核のもの等を挙げ
ることができる。
【0034】
<画像の解析方法の概要>
図1を用いて、画像の解析方法の概要を説明する。
画像の解析方法において使用される識別器は、ニューラルネットワーク構造を有する複
数の深層学習アルゴリズム(単に「アルゴリズム」と呼ぶこともある)を含む。好ましく
は、第1の深層学習アルゴリズム(50)と、第2の深層学習アルゴリズム(51)を含
み、第1の深層学習アルゴリズム(50)は細胞の特徴量を抽出し、第2の深層学習アル
ゴリズム(51)は、第1の深層学習アルゴリズムが抽出した特徴量に基づいて、前記解
析対象の細胞を識別する。より好ましくは、識別器は、図1に示すように第1の深層学習
アルゴリズムの下流に、第2の深層学習アルゴリズムの他、識別の目的に応じて訓練され
た複数種の深層学習アルゴリズム(第2、第3、第4、第5・・・・第iとナンバリング
することがある)を含んでいてもよい。例えば、第2の深層学習アルゴリズムは、上述し
た形態学的な分類に基づく細胞の種類を識別する。また、例えば第3の深層学習アルゴリ
ズムは、上述した形態学的な分類に基づく細胞の特徴を、特徴ごとに識別する。好ましく
は、第1の深層学習アルゴリズムは、コンボリューションコネクトのニューラルネットワ
ークであり、第1の深層学習アルゴリズムの下流に位置する第2以降の深層学習アルゴリ
ズムは、フルコネクトのニューラルネットワークである。
【0035】
次に、図2図4に示す例を用いて訓練データ75の生成方法及び画像の解析方法を説
明する。以下では、説明の便宜上第1の深層学習アルゴリズムと、第2の深層学習アルゴ
リズムを用いて説明する。
【0036】
<訓練データの生成>
深層学習アルゴリズムを訓練するために使用される訓練用画像70は、前記解析対象の
細胞に対応した形態学的な分類に基づく細胞の種類や細胞の特徴が既知である細胞を撮像
した画像である。訓練用画像70を撮像するための標本は、解析対象の細胞と同種の細胞
を含む試料から、解析対象の細胞を含む標本と同様の標本作成方法と染色方法で作成され
ることが好ましい。また、訓練用画像70は、解析対象の細胞の撮像条件と同様の条件で
撮像されることが好ましい。
【0037】
訓練用画像70は、例えば公知の光学顕微鏡、又はバーチャルスライドスキャナ等の撮
像装置を用いて、細胞ごとに予め取得することができる。図2に示す例では、Sysme
x DI-60を用いて訓練用画像70は360画素×365画素で撮像された生画像を
、255画素×255画素に縮小しているが、この縮小は必須ではない。訓練用画像70
の画素数は、解析ができる限り制限されないが、一辺が100画素を超えていることが好
ましい。また、図2に示す例では、好中球を中心とした周囲に赤血球が存在しているが、
目的の細胞のみが入るように画像をトリミングしてもよい。少なくとも、1枚の画像の中
に、訓練しようとする細胞を1細胞含み(赤血球、及び正常サイズの血小板は含まれてい
てもよい)、訓練しようとする細胞に該当する画素が画像全体画素の1/9程度以上存在
していれば訓練用画像70として使用することができる。
【0038】
例示的には、本実施形態において撮像装置における撮像は、RGBカラー及びCMYカ
ラー等で行われることが好ましい。カラー画像は、赤、緑及び青又はシアン、マゼンタ、
イエロー等の各原色の濃淡又は輝度を、24ビットの値(8ビット×3色)で表すことが
好ましい。訓練用画像70は、少なくとも1つの色相と、その色相の濃淡又は輝度とを含
んでいればよいが、少なくとも2つの色相と、それぞれ色相の濃淡又は輝度とを含むこと
がより好ましい。色相とその色相の濃淡又は輝度とを含む情報を色調ともいう。
【0039】
次に、各画素における色調の情報を、例えば、RGBカラーから、輝度の情報と色相の
情報を含むフォーマットに変換する。輝度の情報と色相の情報を含むフォーマットとして
、YUV(YCbCr、YPbPr、YIQ等)等を挙げることができる。ここでは、Y
CbCrフォーマットへの変換を例として説明する。ここでは、訓練用画像がRGBカラ
ーであるため、輝度72Yと、第1の色相(例えば青色系)72Cbと、第2の色相(例
えば、赤色系)72Crとに変換する。RGBから、YCbCrへの変換は公知の方法に
より行うことができる。例えば、RGBから、YCbCrへは、国際規格ITU-R B
T.601にしたがって変換できる。変換した輝度72Y、第1の色相72Cb及び第2
の色相72Crはそれぞれ図2に示すように階調値の行列として表すことができる(以下
、色調行列72y,72cb,72crともいう)。輝度72Y、第1の色相72Cb、
第2の色相72Crは、それぞれ0から255階調までの256階調で表される。ここで
、輝度72Y、第1の色相72Cb、第2の色相72Crに換えて、赤R、緑G、青Bの
3原色や、シアンC、マゼンタM、イエローYの色の3原色で訓練用画像を変換してもよ
い。
【0040】
次に、色調行列72y,72cb,72crに基づいて、画素ごとに、輝度72y、第
1の色相72cb、及び第2の色相72crの3つの階調値を組み合わせた色調ベクトル
データ74を生成する。
【0041】
次に、例えば、図2の訓練用画像70は分葉核好中球であるため、図2の訓練用画像7
0から生成される各色調ベクトルデータ74には、分葉核好中球であることを示すラベル
値77として「1」が付与され、訓練データ75となる。図2では、便宜上訓練データ7
5を3画素×3画素で表しているが、実際は訓練用データ70を撮像した際の画素の分だ
け色調ベクトルデータが存在する。
図3にラベル値77の例を示す。ラベル値は、細胞の種類及び各細胞の特徴の有無に応
じて異なるラベル値77が付与される。
【0042】
<深層学習の概要>
図2を例として、ニューラルネットワークの訓練の概要を説明する。第1のニューラル
ネットワーク50及び第2のニューラルネットワーク51共に、畳み込みニューラルネッ
トワークであることが好ましい。第1のニューラルネットワーク50における入力層50
aのノード数は、入力される訓練データ75の画素数と画像に含まれる輝度と色相の数(
例えば上記例では、輝度72y、第1の色相72cb、及び第2の色相72crの3つ)
との積に対応している。色調ベクトルデータ74はその集合76として第1のニューラル
ネットワーク50の入力層50aに入力される。訓練データ75の各画素のラベル値77
を、第1のニューラルネットワークの出力層50bとして、第1のニューラルネットワー
ク50を訓練する。
【0043】
第1のニューラルネットワーク50は、訓練データ75に基づいて、上述した形態学的
な細胞の種類や細胞の特徴について、特徴量を抽出する。第1のニューラルネットワーク
の出力層50bは、これらの特徴量を反映する結果を出力する。第2のニューラルネット
ワーク51の入力層51aには、第1のニューラルネットワーク50のソフトマックス関
数から出力された各結果が入力される。また、所定の細胞系統に属する細胞は、細胞の形
態が似ているため、第2のニューラルネットワーク51を有する深層学習アルゴリズム5
1をさらに形態学的な特定の細胞の種類や特定の細胞の特徴の識別に特化するよう深層学
習アルゴリズムを訓練する。したがって、第2のニューラルネットワークの出力層にも、
訓練データ75のラベル値77が入力される。
図2の符号50c及び51cは、中間層を示す。
【0044】
斯くして訓練された第1のニューラルネットワーク60を有する第1の深層学習アルゴ
リズム60と、第2のニューラルネットワーク61を有する第2の深層学習アルゴリズム
61とを組み合わせて、解析対象の細胞が、所定の細胞群に属し形態学的に分類される複
数の細胞の種類のいずれに該当するかを識別するための識別器として使用する。
【0045】
<画像の解析方法>
図4に画像の解析方法の例を示す。画像の解析方法では、解析対象の細胞を撮像した解
析用画像78から解析データ81を生成する。解析用画像78は、解析対象の細胞を撮像
した画像である。解析用画像78は、例えば公知の光学顕微鏡、又はバーチャルスライド
スキャナ等の撮像装置を用いて、取得することができる。図4に示す例では、Sysme
x DI-60を用いて解析用画像78は、訓練用画像70と同様に、360画素×36
5画素で撮像された生画像を、255画素×255画素に縮小しているが、この縮小は必
須ではない。訓練用画像70の画素数は、解析ができる限り制限されないが、一辺が10
0画素を超えていることが好ましい。また、図4に示す例では、分葉核好中球を中心とし
た周囲に赤血球が存在しているが、目的の細胞のみが入るように画像をトリミングしても
よい。少なくとも、1枚の画像の中に、訓練しようとする細胞を1細胞含み(赤血球、及
び正常サイズの血小板は含まれていてもよい)、訓練しようとする細胞に該当する画素が
画像全体画素の1/9程度以上存在していれば解析用画像78として使用することができ
る。
【0046】
例示的には、本実施形態において撮像装置における撮像は、RGBカラー及びCMYカ
ラー等で行われることが好ましい。カラー画像は、赤、緑及び青又はシアン、マゼンタ、
イエロー等の各原色の濃淡又は輝度を、24ビットの値(8ビット×3色)で表すことが
好ましい。解析用画像78は、少なくとも1つの色相と、その色相の濃淡又は輝度とを含
んでいればよいが、少なくとも2つの色相と、それぞれ色相の濃淡又は輝度とを含むこと
がより好ましい。色相とその色相の濃淡又は輝度とを含む情報を色調ともいう。
【0047】
例えば、RGBカラーから、輝度の情報と色相の情報を含むフォーマットに変換する。輝
度の情報と色相の情報を含むフォーマットとして、YUV(YCbCr、YPbPr、Y
IQ等)等を挙げることができる。ここでは、YCbCrフォーマットへの変換を例とし
て説明する。ここでは、訓練用画像がRGBカラーであるため、輝度79Yと、第1の色
相(例えば青色系)79Cbと、第2の色相(例えば、赤色系)79Crとに変換する。
RGBから、YCbCrへの変換は公知の方法により行うことができる。例えば、RGB
から、YCbCrへは、国際規格ITU-R BT.601にしたがって変換できる。変
換した輝度79Y、第1の色相79Cb及び第2の色相79Crはそれぞれ図2に示すよ
うに階調値の行列として表すことができる(以下、色調行列79y,79cb,79cr
ともいう)。輝度72Y、第1の色相72Cb、第2の色相72Crは、それぞれ0から
255階調までの256階調で表される。ここで、輝度79Y、第1の色相79Cb、第
2の色相79Crに換えて、赤R、緑G、青Bの3原色や、シアンC、マゼンタM、イエ
ローYの色の3原色で訓練用画像を変換してもよい。
【0048】
次に、色調行列79y,79cb,79crに基づいて、画素ごとに、輝度79y、第
1の色相79cb、及び第2の色相79crの3つの階調値を組み合わせた色調ベクトル
データ80を生成する。1枚の解析用画像78から生成された色調ベクトルデータ80の
集合を解析データ81として生成する。
【0049】
解析データ81の生成と訓練データ75の生成は、少なくとも撮像条件や、各画像から
ニューラルネットワークに入力するベクトルデータの生成条件を同じにすることが好まし
い。
【0050】
解析データ81を訓練済みの第1の深層学習アルゴリズム60を構成する第1のニュー
ラルネットワーク60の入力層60aに入力する。第1の深層学習アルゴリズムは、解析
データ81から特徴量を抽出し、その結果を第1のニューラルネットワーク60の出力層
60cから出力する。出力層60cから出力される値は、訓練データとして入力された形
態学的な細胞の分類や特徴のそれぞれに、解析用画像に含まれる解析対象の細胞が属する
確率である。
【0051】
次に、出力層60cから出力された結果を、訓練済みの第2の深層学習アルゴリズム6
1を構成する第2のニューラルネットワーク61の入力層61aに入力する。第2の深層
学習アルゴリズム61は、入力された特徴量に基づいて、出力層61bから、訓練データ
として入力された形態学的な細胞の分類や特徴のそれぞれに、解析用画像に含まれる解析
対象の細胞が属する確率を出力する。さらに、この確率の中で、値が最も高い形態学的分
類に、解析用画像に含まれる解析対象の細胞が属すると判断し、その形態学的な細胞の種
類又は細胞の特徴をと紐付けられたラベル値が出力される。ラベル値そのもの、あるいは
ラベル値を形態学的な細胞の種類又は細胞の特徴の有無を示す情報(例えば用語等)に置
き換えたデータが細胞の形態に関するデータ83として出力される。図4では解析データ
81から、識別器によってラベル値「1」が最も可能性が高いラベル値82として出力さ
れ、このラベル値に対応する「分葉核好中球」という文字データが、細胞の形態に関する
データ83として出力される。
図4の符号60c及び61cは、中間層を示す。
【0052】
[2.画像解析システム1]
<画像解析システム1の構成>
本開示における第2の実施形態は、画像解析システムに関する。
図5を参照すると、第2の実施形態に係る画像解析システムは、深層学習装置100A
と、画像解析装置200Aとを備える。ベンダ側装置100は深層学習装置100Aとし
て動作し、ユーザ側装置200は画像解析装置200Aとして動作する。深層学習装置1
00Aは、ニューラルネットワーク50に訓練データを使って学習させ、訓練データによ
って訓練された深層学習アルゴリズム60をユーザに提供する。学習済みのニューラルネ
ットワーク60から構成される深層学習アルゴリズムは、記録媒体98又はネットワーク
99を通じて、深層学習装置100Aから画像解析装置200Aに提供される。画像解析
装置200Aは、学習済みのニューラルネットワーク60から構成される深層学習アルゴ
リズムを用いて解析対象の画像の解析を行う。
【0053】
深層学習装置100Aは、例えば汎用コンピュータで構成されており、後述するフロー
チャートに基づいて、深層学習処理を行う。画像解析装置200Aは、例えば汎用コンピ
ュータで構成されており、後述するフローチャートに基づいて、画像解析処理を行う。記
録媒体98は、例えばDVD-ROMやUSBメモリ等の、コンピュータ読み取り可能で
あって非一時的な有形の記録媒体である。
【0054】
深層学習装置100Aは撮像装置300に接続されている。撮像装置300は、撮像素
子301と、蛍光顕微鏡302とを備え、ステージ309上にセットされた学習用の標本
308の、明視野画像を撮像する。訓練用の標本308は、上述の染色が施されている。
深層学習装置100Aは、撮像装置300によって撮像された訓練用画像70を取得する
【0055】
画像解析装置200Aは撮像装置400に接続されている。撮像装置400は、撮像素
子401と、蛍光顕微鏡402とを備え、ステージ409上にセットされた解析対象の標
本408の、明視野画像を撮像する。解析対象の標本408は、上述の通り予め染色され
ている。画像解析装置200Aは、撮像装置400によって撮像された解析対象画像78
を取得する。
撮像装置300,400には、標本を撮像する機能を有する、公知の光学顕微鏡又はバ
ーチャルスライドスキャナ等を用いることができる。
【0056】
<深層学習装置のハードウェア構成>
図6を参照すると、ベンダ側装置100(深層学習装置100A,深層学習装置100
B)は、処理部10(10A,10B)と、入力部16と、出力部17とを備える。
【0057】
処理部10は、後述するデータ処理を行うCPU(Central Processing Unit)11と
、データ処理の作業領域に使用するメモリ12と、後述するプログラム及び処理データを
記録する記録部13と、各部の間でデータを伝送するバス14と、外部機器とのデータの
入出力を行うインタフェース部15と、GPU(Graphics Processing Unit)19とを備
えている。入力部16及び出力部17は、処理部10に接続されている。例示的には、入
力部16はキーボード又はマウス等の入力装置であり、出力部17は液晶ディスプレイ等
の表示装置である。GPU19は、CPU11が行う演算処理(例えば、並列演算処理)
を補助するアクセラレータとして機能する。すなわち以下の説明においてCPU11が行
う処理とは、CPU11がGPU19をアクセラレータとして用いて行う処理も含むこと
を意味する。
【0058】
また、処理部10は、以下の図8で説明する各ステップの処理を行うために、本発明に
係るプログラム及び訓練前のニューラルネットワーク50を、例えば実行形式で記録部1
3に予め記録している。実行形式は、例えばプログラミング言語からコンパイラにより変
換されて生成される形式である。処理部10は、記録部13に記録したプログラムを使用
して、訓練前の第1のニューラルネットワーク50及び第2のニューラルネットワーク5
1の訓練処理を行う。
【0059】
以下の説明においては、特に断らない限り、処理部10が行う処理は、記録部13又は
メモリ12に格納されたプログラム及びニューラルネットワーク50に基づいて、CPU
11が行う処理を意味する。CPU11はメモリ12を作業領域として必要なデータ(処
理途中の中間データ等)を一時記憶し、記録部13に演算結果等の長期保存するデータを
適宜記録する。
【0060】
<画像解析装置のハードウェア構成>
図7を参照すると、ユーザ側装置200(画像解析装置200A,画像解析装置200
B,画像解析装置200C)は、処理部20(20A,20B,20C)と、入力部26
と、出力部27とを備える。
【0061】
処理部20は、後述するデータ処理を行うCPU(Central Processing Unit)21と
、データ処理の作業領域に使用するメモリ22と、後述するプログラム及び処理データを
記録する記録部23と、各部の間でデータを伝送するバス24と、外部機器とのデータの
入出力を行うインタフェース部25と、GPU(Graphics Processing Unit)29とを備
えている。入力部26及び出力部27は、処理部20に接続されている。例示的には、入
力部26はキーボード又はマウス等の入力装置であり、出力部27は液晶ディスプレイ等
の表示装置である。GPU29は、CPU21が行う演算処理(例えば、並列演算処理)
を補助するアクセラレータとして機能する。すなわち以下の説明においてCPU21が行
う処理とは、CPU21がGPU29をアクセラレータとして用いて行う処理も含むこと
を意味する。
【0062】
また、処理部20は、以下の画像解析処理で説明する各ステップの処理を行うために、
本発明に係るプログラム及び訓練済みのニューラルネットワーク構造の深層学習アルゴリ
ズム60を、例えば実行形式で記録部23に予め記録している。実行形式は、例えばプロ
グラミング言語からコンパイラにより変換されて生成される形式である。処理部20は、
記録部23に記録したプログラム及び第1の深層学習アルゴリズム60及び第2の深層学
習アルゴリズム61を使用して処理を行う。
【0063】
以下の説明においては、特に断らない限り、処理部20が行う処理は、記録部23又は
メモリ22に格納されたプログラム及び深層学習アルゴリズム60に基づいて、実際には
処理部20のCPU21が行う処理を意味する。CPU21はメモリ22を作業領域とし
て必要なデータ(処理途中の中間データ等)を一時記憶し、記録部23に演算結果等の長
期保存するデータを適宜記録する。
【0064】
<機能ブロック及び処理手順>
(深層学習処理)
図8を参照すると、本実施形態に係る深層学習装置100Aの処理部10Aは、訓練デ
ータ生成部101と、訓練データ入力部102と、アルゴリズム更新部103とを備える
。これらの機能ブロックは、コンピュータに深層学習処理を実行させるプログラムを、処
理部10Aの記録部13又はメモリ12にインストールし、このプログラムをCPU11
が実行することにより実現される。訓練データデータベース(DB)104と、アルゴリ
ズムデータベース(DB)105とは、処理部10Aの記録部13又はメモリ12に記録
される。
【0065】
訓練用画像70は、撮像装置300によって予め撮像され、処理部10Aの記録部13
又はメモリ12に予め記憶されている。第1の深層学習アルゴリズム50及び第2の深層
学習アルゴリズム51は、例えば解析対象の細胞が属する形態学的な細胞の種類や細胞の
特徴と対応付けられて、アルゴリズムデータベース105に予め格納されている。
【0066】
深層学習装置100Aの処理部10Aは、図9に示す処理を行う。図8に示す各機能ブ
ロックを用いて説明すると、ステップS11、S12、S16及びS17の処理は、訓練
データ生成部101が行う。ステップS13の処理は、訓練データ入力部102が行う。
ステップS14、及びS18の処理は、アルゴリズム更新部103が行う。
図9を用いて、処理部10Aが行う深層学習処理の例について説明する。
【0067】
はじめに、処理部10Aは、訓練用画像70を取得する。訓練用画像70の取得は、オペ
レータの操作によって、撮像装置300から取り込まれるか、記録媒体98から取り込ま
れるか、ネットワーク経由でI/F部15を介して行われる。訓練用画像70を取得する
際に、その訓練用画像70が、形態学的に分類される細胞の種類及び/又は形態学的な細
胞の特徴のいずれを示すものであるかの情報も取得される。形態学的に分類される細胞の
種類及び/又は形態学的な細胞の特徴のいずれを示すものであるかの情報は、訓練用画像
70に紐付けられていてもよく、またオペレータが入力部16から入力してもよい。
【0068】
ステップS11において、処理部10Aは、取得された訓練用画像70を輝度Y、第1
の色相Cb及び第2の色相Crに変換し、上記訓練データの生成方法で説明した手順に従
い色調ベクトルデータ74を生成する。
【0069】
ステップS12において、処理部10Aは、訓練用画像70に紐付けられている、形態
学的に分類される細胞の種類及び/又は形態学的な分類における細胞の特徴のいずれを示
すものであるかの情報と、メモリ12又は記録部13に記憶されている形態学的に分類さ
れる細胞の種類又は形態学的な分類における細胞の特徴に紐図けられたラベル値とに基づ
いて色調ベクトルデータ74に対応するラベル値を付与する。斯くして、処理部10Aは
、訓練データ75を生成する。
【0070】
図8に示すステップS13において、処理部10Aは、訓練データ75を用いて、第1
のニューラルネットワーク50及び第2のニューラルネットワーク51を訓練する。第1
のニューラルネットワーク50及び第2のニューラルネットワーク51の訓練結果は複数
の訓練データ75を用いて訓練する度に蓄積される。
【0071】
本実施形態に係る画像解析方法では、畳み込みニューラルネットワークを使用しており
、確率的勾配降下法を用いるため、ステップS14において、処理部10Aは、予め定め
られた所定の試行回数分の訓練結果が蓄積されているか否かを判断する。訓練結果が所定
の試行回数分蓄積されている場合(YES)、処理部10AはステップS15の処理に進
み、訓練結果が所定の試行回数分蓄積されていない場合(NO)、処理部10Aはステッ
プS16の処理に進む。
【0072】
次に、訓練結果が所定の試行回数分蓄積されている場合、ステップS15において、処
理部10Aは、ステップS13において蓄積しておいた訓練結果を用いて、第1のニュー
ラルネットワーク50及び第2のニューラルネットワーク51の結合重みwを更新する。
本実施形態に係る画像解析方法では、確率的勾配降下法を用いるため、所定の試行回数分
の学習結果が蓄積した段階で、第1のニューラルネットワーク50及び第2のニューラル
ネットワーク51の結合重みwを更新する。結合重みwを更新する処理は、具体的には、
後述の(式11)及び(式12)に示される、勾配降下法による計算を実施する処理であ
る。
【0073】
ステップS16において、処理部10Aは、第1のニューラルネットワーク50及び第
2のニューラルネットワーク51を規定数の訓練用データ75で訓練したか否かを判断す
る。規定数の訓練用データ75で訓練した場合(YES)には、深層学習処理を終了する
【0074】
第1のニューラルネットワーク50及び第2のニューラルネットワーク51を規定数の
訓練用データ75で訓練していない場合(NO)には、処理部10Aは、ステップS16
からステップS17に進み、次の訓練用画像70についてステップS11からステップS16
までの処理を行う。
【0075】
以上説明した処理にしたがって、第1のニューラルネットワーク50及び第2のニュー
ラルネットワーク51を訓練し第2の深層学習アルゴリズム60及び第2の深層学習アル
ゴリズム62を得る。
【0076】
(ニューラルネットワークの構造)
上述したように、本実施形態において、畳み込みニューラルネットワークを用いる。図
10(a)に第1のニューラルネットワーク50と第2のニューラルネットワーク51の
構造を例示する。第1のニューラルネットワーク50と第2のニューラルネットワーク5
1は、入力層50a,51aと、出力層50b,51bと、入力層50a,51a及び出
力層50b,51bの間の中間層50c,51cとを備え、中間層50c,51cが複数
の層で構成されている。中間層50c,51cを構成する層の数は、例えば5層以上とす
ることができる。
【0077】
第1のニューラルネットワーク50と第2のニューラルネットワーク51では、層状に
配置された複数のノード89が、層間において結合されている。これにより、情報が入力
側の層50a,51aから出力側の層50b,51bに、図中矢印Dに示す一方向のみに
伝播する。
【0078】
(各ノードにおける演算)
図10(b)は、各ノードにおける演算を示す模式図である。各ノード89では、複数
の入力を受け取り、1つの出力(z)を計算する。図10(b)に示す例の場合、ノード
89は4つの入力を受け取る。ノード89が受け取る総入力(u)は、以下の(式1)で
表される。
【0079】
【数1】
【0080】
各入力には、それぞれ異なる重みが掛けられる。(式1)中、bはバイアスと呼ばれる
値である。ノードの出力(z)は、(式1)で表される総入力(u)に対する所定の関数
fの出力となり、以下の(式2)で表される。関数fは活性化関数と呼ばれる。
【0081】
【数2】
【0082】
図10(c)は、ノード間の演算を示す模式図である。ニューラルネットワーク50で
は、(式1)で表される総入力(u)に対して、(式2)で表される結果(z)を出力す
るノードが層状に並べられている。前の層のノードの出力が、次の層のノードの入力とな
る。図10(c)に示す例では、図中左側の層のノード89aの出力が、図中右側の層の
ノード89bの入力となる。右側の層の各ノード89bは、それぞれ、左側の層のノード
89aからの出力を受け取る。左側の層の各ノード89aと右側の層の各ノード89bと
の間の各結合には、異なる重みが掛けられる。左側の層の複数のノード89aのそれぞれ
の出力をx~xとすると、右側の層の3つのノード89bのそれぞれに対する入力は
、以下の(式3-1)~(式3-3)で表される。
【0083】
【数3】
これら(式3-1)~(式3-3)を一般化すると、(式3-4)となる。ここで、i
=1,・・・I、j=1,・・・Jである。
【0084】
【数4】
(式3-4)を活性化関数に適用すると出力が得られる。出力は以下の(式4)で表さ
れる。
【0085】
【数5】
【0086】
(活性化関数)
実施形態に係る画像解析方法では、活性化関数として、正規化線形関数(rectified li
near unit function)を用いる。正規化線形関数は以下の(式5)で表される。
【0087】
【数6】
(式5)は、z=uの線形関数のうち、u<0の部分をu=0とする関数である。図9
(c)に示す例では、j=1のノードの出力は、(式5)により、以下の式で表される。
【0088】
【数7】
【0089】
(ニューラルネットワークの学習)
ニューラルネットワークを用いて表現される関数をy(x:w)とおくと、関数y(x
:w)は、ニューラルネットワークのパラメータwを変化させると変化する。入力xに対
してニューラルネットワークがより好適なパラメータwを選択するように、関数y(x:
w)を調整することを、ニューラルネットワークの学習と呼ぶ。ニューラルネットワーク
を用いて表現される関数の入力と出力との組が複数与えられているとする。ある入力xに
対する望ましい出力をdとすると、入出力の組は、{(x,d),(x,d),
・・・,(x,d)}と与えられる。(x,d)で表される各組の集合を、訓練デー
タと呼ぶ。具体的には、図2(b)に示す、R、G、B各色の単一色画像における画素ご
との色濃度値と真値像のラベルとの組、の集合が、図2(a)に示す訓練データである。
ニューラルネットワークの学習とは、どのような入出力の組(x,d)に対しても
、入力xを与えたときのニューラルネットワークの出力y(x:w)が、出力d
なるべく近づくように重みwを調整することを意味する。誤差関数(error function)と
は、ニューラルネットワークを用いて表現される関数と訓練データとの近さ
【0090】
【数8】
を測る尺度である。誤差関数は損失関数(loss function)とも呼ばれる。実施形態に係
る画像解析方法において用いる誤差関数E(w)は、以下の(式6)で表される。(式6
)は交差エントロピー(cross entropy)と呼ばれる。
【0091】
【数9】
(式6)の交差エントロピーの算出方法を説明する。実施形態に係る画像解析方法にお
いて用いるニューラルネットワーク50の出力層50bでは、すなわちニューラルネット
ワークの最終層では、入力xを内容に応じて有限個のクラスに分類するための活性化関数
を用いる。活性化関数はソフトマックス関数(softmax function)と呼ばれ、以下の(式
7)で表される。なお、出力層50bには、クラス数kと同数のノードが並べられている
とする。出力層Lの各ノードk(k=1,・・・K)の総入力uは、前層L-1の出力か
ら、u (L)で与えられるとする。これにより、出力層のk番目のノードの出力は以下
の(式7)で表される。
【0092】
【数10】
(式7)がソフトマックス関数である。(式7)で決まる出力y,・・・,yの総
和は常に1となる。
各クラスをC,・・・,Cと表すと、出力層Lのノードkの出力y(すなわちu
(L))は、与えられた入力xがクラスCに属する確率を表す。以下の(式8)を参
照されたい。入力xは、(式8)で表される確率が最大になるクラスに分類される。
【0093】
【数11】
ニューラルネットワークの学習では、ニューラルネットワークで表される関数を、各ク
ラスの事後確率(posterior probability)のモデルとみなし、そのような確率モデルの
下で、訓練データに対する重みwの尤度(likelihood)を評価し、尤度を最大化するよう
な重みwを選択する。
【0094】
(式7)のソフトマックス関数による目標出力dを、出力が正解のクラスである場合
のみ1とし、出力がそれ以外の場合は0になるとする。目標出力をd=[dn1,・・
・,dnK]というベクトル形式で表すと、例えば入力xの正解クラスがCである場
合、目標出力dn3のみが1となり、それ以外の目標出力は0となる。このように符号化
すると、事後分布(posterior)は以下の(式9)で表される。
【0095】
【数12】
訓練データ{(x,d)}(n=1,・・・,N)に対する重みwの尤度L(w)
は、以下の(式10)で表される。尤度L(w)の対数をとり符号を反転すると、(式6
)の誤差関数が導出される。
【0096】
【数13】
学習は、訓練データを基に計算される誤差関数E(w)を、ニューラルネットワークの
パラメータwについて最小化することを意味する。実施形態に係る画像解析方法では、誤
差関数E(w)は(式6)で表される。
【0097】
誤差関数E(w)をパラメータwについて最小化することは、関数E(w)の局所的な
極小点を求めることと同じ意味である。パラメータwはノード間の結合の重みである。重
みwの極小点は、任意の初期値を出発点として、パラメータwを繰り返し更新する反復計
算によって求められる。このような計算の一例には、勾配降下法(gradient descent met
hod)がある。
【0098】
勾配降下法では、次の(式11)で表されるベクトルを用いる。
【数14】
勾配降下法では、現在のパラメータwの値を負の勾配方向(すなわち-∇E)に移動さ
せる処理を何度も繰り返す。現在の重みをw(t)とし、移動後の重みをw(t+1)
すると、勾配降下法による演算は、以下の(式12)で表される。値tは、パラメータw
を移動させた回数を意味する。
【0099】
【数15】
記号
【数16】
は、パラメータwの更新量の大きさを決める定数であり、学習係数と呼ばれる。(式12
)で表される演算を繰り返すことにより、値tの増加に伴って誤差関数E(w(t))が
減少し、パラメータwは極小点に到達する。
【0100】
なお、(式12)による演算は、全ての訓練データ(n=1,・・・,N)に対して実
施してもよく、一部の訓練データのみに対して実施してもよい。一部の訓練データのみに
対して行う勾配降下法は、確率的勾配降下法(stochastic gradient descent)と呼ばれ
る。実施形態に係る画像解析方法では、確率的勾配降下法を用いる。
【0101】
(画像解析処理)
図11に、解析対象画像78から、細胞の形態に関するデータ83を生成するまでの画
像解析処理を行う画像解析装置200Aの機能ブロック図を示す。画像解析装置200A
の処理部20Aは、解析用データ生成部201と、解析用データ入力部202と、解析部
203と、細胞核領域検出部204とを備える。これらの機能ブロックは、本発明に係る
コンピュータに画像解析処理を実行させるプログラムを、処理部20Aの記録部23又は
メモリ22にインストールし、このプログラムをCPU21が実行することにより実現さ
れる。訓練データデータベース(DB)104と、アルゴリズムデータベース(DB)1
05とは、記録媒体98又はネットワーク99を通じて深層学習装置100Aから提供さ
れ、処理部20Aの記録部23又はメモリ22に記録される。
【0102】
解析対象画像78は、撮像装置400によって撮像され、処理部20Aの記録部23又
はメモリ22に記憶される。訓練済みの結合重みwを含む第1の深層学習アルゴリズム6
0及び第2の深層学習アルゴリズム61は、例えば解析対象の細胞が属する形態学的な分
類に基づく細胞の種類や細胞の特徴と対応付けられて、アルゴリズムデータベース105
に格納されており、コンピュータに画像解析処理を実行させるプログラムの一部であるプ
ログラムモジュールとして機能する。すなわち、第1の深層学習アルゴリズム60及び第
2の深層学習アルゴリズム61は、CPU及びメモリを備えるコンピュータにて用いられ
、前記解析対象の細胞が、所定の細胞群に属し形態学的に分類される複数の細胞の種類の
いずれに該当するかを識別し、前記細胞の形態に関するデータ83を生成するために使用
される。また生成されたデータは、必要に応じて出力される。また、処理部20AのCP
U21は、使用目的に応じた特有の情報の演算又は加工を実行するよう、コンピュータを
機能させる。具体的には、処理部20AのCPU21は、記録部23又はメモリ22に記
録された第1の深層学習アルゴリズム60及び第2の深層学習アルゴリズム61を用いて
、細胞の形態に関するデータ83を生成する。処理部20AのCPU21は、解析データ
81を入力層60aに入力し、第1の深層学習アルゴリズム60によって算出さえた解析
用画像78の特徴量を出力層60bから出力する。処理部20AのCPU21は、第1の
深層学習アルゴリズム60から出力された特徴量を、第2の深層学習アルゴリズムの入力
層61aに入力し、解析対象の細胞が属する形態学的な分類に基づく細胞の種類や細胞の
特徴に関するラベル値を出力層61bから解析対象画像に含まれる細胞が属すると識別さ
れた形態学的な分類に基づく細胞の種類又は細胞の特徴のラベル値を出力する。
図11に示す各機能ブロックを用いて説明すると、ステップS21及びS22の処理は、
解析用データ生成部201が行う。ステップS23、S24、S25及びS27の処理は
、解析用データ入力部202が行う。ステップS26の処理は、解析部203が行う。
【0103】
図12を用いて、処理部20Aが行う解析対象画像78から、細胞の形態に関するデー
タ83を生成するまでの画像解析処理の例を説明する。
【0104】
はじめに、処理部20Aは、解析用画像78を取得する。解析用画像78の取得は、ユ
ーザの操作によって、撮像装置400から取り込まれるか、記録媒体98から取り込まれ
るか、ネットワーク経由でI/F部25を介して行われる。
【0105】
ステップS21において、図9に示すステップS11と同様に、取得された解析用画像
78を輝度Y、第1の色相Cb及び第2の色相Crに変換し、上記解析データの生成方法
で説明した手順に従い色調ベクトルデータ80を生成する。
【0106】
次に、ステップS22において、処理部20Aは、色調ベクトルデータ80から、上記
解析データの生成方法で説明した手順に従い解析データ81を生成する。
【0107】
次に、ステップS23において、処理部20Aは、アルゴリズムデータベース105に
格納されている第1の深層学習アルゴリズムと第2の深層学習アルゴリズムを取得する。
【0108】
次に、ステップS24において、処理部20Aは、解析データ81を第1の深層学習ア
ルゴリズムに入力する。処理部20Aは、上記画像の解析方法で述べた手順に従い、第1
の深層学習アルゴリズムから、出力された特徴量を第2の深層学習アルゴリズムに入力し
、第2の深層学習アルゴリズムから、解析用画像に含まれる解析対象の細胞が属すると判
断される、ラベル値が出力される。処理部20Aは、このラベル値をメモリ22又は記録
部23に記憶する。
【0109】
ステップS25において、処理部20Aは、はじめに取得した解析用画像78を全て識
別したかを判断する。全ての解析用画像78の識別が終わっている(YES)の場合には
、ステップS26へ進み、細胞の形態に関するデータ83を含む解析結果を出力する。全
ての解析用画像78の識別が終わっていない(NO)の場合には、ステップS27に進み
、まだ識別を行っていない解析用画像78に対して、ステップS21からステップS25
の処理を行う。
【0110】
本実施形態により、検査者のスキルを問わず形態学的な分類に基づく細胞の種類及び細
胞の特徴の識別を行うことが可能となり、形態検査のばらつきを抑制することができる。
【0111】
<コンピュータプログラム>
本開示には、ステップS11~S17及び/又はS21~S27の処理をコンピュータ
に実行させる、細胞の形態を解析する画像解析するためのコンピュータプログラムを含む
【0112】
さらに、本開示のある実施形態は、前記コンピュータプログラムを記憶した、記憶媒体
等のプログラム製品に関する。すなわち、前記コンピュータプログラムは、ハードディス
ク、フラッシュメモリ等の半導体メモリ素子、光ディスク等の記憶媒体に記憶される。前
記記憶媒体へのプログラムの記憶形式は、前記提示装置が前記プログラムを読み取り可能
である限り制限されない。前記記憶媒体への記憶は、不揮発性であることが好ましい。
【0113】
[3.画像解析システム2]
<画像解析システム2の構成>
画像解析システムの別の態様について説明する。
図13に第2の画像解析システムの構成例を示す。第2の画像解析システムは、ユーザ
側装置200を備え、ユーザ側装置200が、統合型の画像解析装置200Bとして動作
する。画像解析装置200Bは、例えば汎用コンピュータで構成されており、上記画像解
析システム1で説明した深層学習処理及び画像解析処理の両方の処理を行う。つまり、第
2の画像解析システムは、ユーザ側で深層学習及び画像解析を行う、スタンドアロン型の
システムである。第2の画像解析システムは、ユーザ側に設置された統合型の画像解析装
置200Bが、第1の実施形態に係る深層学習装置100A及び画像解析装置200Aの
両方の機能を担う。
【0114】
図13において、画像解析装置200Bは撮像装置400に接続されている。撮像装置
400は、深層学習処理時には、訓練用画像70を撮像し、画像解析処理時には、解析対
象画像78を撮像する。
【0115】
<ハードウェア構成>
画像解析装置200Bのハードウェア構成は、図7に示すユーザ側装置200のハード
ウェア構成と同様である。
【0116】
<機能ブロック及び処理手順>
図14に、画像解析装置200Bの機能ブロック図を示す。画像解析装置200Bの処
理部20Bは、訓練データ生成部101と、訓練データ入力部102と、アルゴリズム更
新部103と、解析用データ生成部201と、解析用データ入力部202と、解析部20
3と、細胞核検出部204とを備える。これらの機能ブロックは、コンピュータに深層学
習処理及び画像解析処理を実行させるプログラムを、処理部20Bの記録部23又はメモ
リ22にインストールし、このプログラムをCPU21が実行することにより実現される
。訓練データデータベース(DB)104と、アルゴリズムデータベース(DB)105
とは、処理部20Bの記録部23又はメモリ22に記憶され、どちらも深層学習時及び画
像解析処理時に共通して使用される。訓練済みの第1のニューラルネットワーク60及び
第2のニューラルネットワーク61は、例えば解析対象の細胞が属する形態学的な分類に
基づく細胞の種類や細胞の特徴と対応付けられて、アルゴリズムデータベース105に予
め格納されている。深層学習処理により結合重みwが更新されて、深層学習アルゴリズム
60として、アルゴリズムデータベース105に格納される。なお、訓練用画像70は、
撮像装置400によって予め撮像され、訓練データデータベース(DB)104又は処理
部20Bの記録部23若しくはメモリ22に予め記憶されていることとする。解析対象の
標本の解析対象画像78は、撮像装置400によって予め撮像され、処理部20Bの記録
部23又はメモリ22に予め記憶されていることとする。
【0117】
画像解析装置200Bの処理部20Bは、深層学習処理時には、図9に示す処理を行い
、画像解析処理時には、図12に示す処理を行う。図13に示す各機能ブロックを用いて
説明すると、深層学習処理時には、ステップS11、S12、S16及びS17の処理は
、訓練データ生成部101が行う。ステップS13の処理は、訓練データ入力部102が
行う。ステップS14、及びS18の処理は、アルゴリズム更新部103が行う。画像解
析処理時には、ステップS21及びS22の処理は、解析用データ生成部201が行う。
ステップS23、S24、S25及びS27の処理は、解析用データ入力部202が行う
。ステップS26の処理は、解析部203が行う。
【0118】
画像解析装置200Bが行う深層学習処理の手順及び画像解析処理の手順は、深層学習
装置100A及び画像解析装置200Aがそれぞれ行う手順と同様である。但し、画像解
析装置200Bは、訓練画像70を撮像装置400から取得する。
【0119】
画像解析装置200Bでは、ユーザが、識別器の識別精度を確認することができる。万
が一識別器の識別結果がユーザの画像観察による識別結果と異なる場合には、解析データ
81を訓練データ78として、ユーザの画像観察による識別結果をラベル値77として、
第1の深層学習アルゴリズムと第2の深層学習アルゴリズムを訓練し治すことができる。
このようにすることにより、第1のニューラルネットワーク50及び第1のニューラルネ
ットワーク51の訓練効率をより向上することがでる。
【0120】
[4.画像解析システム3]
<画像解析システム3の構成>
画像解析システムの別の態様について説明する。
図15に第3の画像解析システムの構成例を示す。第3の画像解析システムは、ベンダ
側装置100と、ユーザ側装置200とを備える。ベンダ側装置100は統合型の画像解
析装置100Bとして動作し、ユーザ側装置200は端末装置200Cとして動作する。
画像解析装置100Bは、例えば汎用コンピュータで構成されており、上記画像解析シス
テム1で説明した深層学習処理及び画像解析処理の両方の処理を行う、クラウドサーバ側
の装置である。端末装置200Cは、例えば汎用コンピュータで構成されており、ネット
ワーク99を通じて、解析対象の画像を画像解析装置100Bに送信し、ネットワーク9
9を通じて、解析結果の画像を画像解析装置100Bから受信する、ユーザ側の端末装置
である。
【0121】
第3の画像解析システムは、ベンダ側に設置された統合型の画像解析装置100Bが、
深層学習装置100A及び画像解析装置200Aの両方の機能を担う。一方、第3の画像
解析システムは、端末装置200Cを備え、解析用画像78の入力インタフェースと、解
析結果の画像の出力インタフェースとをユーザ側の端末装置200Cに提供する。つまり
、第3の画像解析システムは、深層学習処理及び画像解析処理を行うベンダ側が、解析用
画像78をユーザ側に提供する入力インタフェースと、細胞の形態に関するデータ83を
ユーザ側に提供する出力インタフェースを、クラウドサービス型のシステムである。入力
インタフェースと出力インタフェースは一体化されていてもよい。
【0122】
画像解析装置100Bは撮像装置300に接続されており、撮像装置300によって撮
像される、訓練用画像70を取得する。
【0123】
端末装置200Cは撮像装置400に接続されており、撮像装置400によって撮像さ
れる、解析対象画像78を取得する。
【0124】
<ハードウェア構成>
画像解析装置100Bのハードウェア構成は、図6に示すベンダ側装置100のハード
ウェア構成と同様である。端末装置200Cのハードウェア構成は、図7に示すユーザ側
装置200のハードウェア構成と同様である。
<機能ブロック及び処理手順>
図16に、画像解析装置100Bの機能ブロック図を示す。画像解析装置100Bの処
理部10Bは、訓練データ生成部101と、訓練データ入力部102と、アルゴリズム更
新部103と、解析用データ生成部201と、解析用データ入力部202と、解析部20
3と、細胞核領域検出部204とを備える。これらの機能ブロックは、コンピュータに深
層学習処理及び画像解析処理を実行させるプログラムを、処理部10Bの記録部13又は
メモリ12にインストールし、このプログラムをCPU11が実行することにより実現さ
れる。訓練データデータベース(DB)104と、アルゴリズムデータベース(DB)1
05とは、処理部10Bの記録部13又はメモリ12に記憶され、どちらも深層学習時及
び画像解析処理時に共通して使用される。第1のニューラルネットワーク50及び第2の
ニューラルネットワーク51は、例えば解析対象の細胞が属する形態学的な分類に基づく
細胞の種類や細胞の特徴と対応付けられて、アルゴリズムデータベース105に予め格納
されており、深層学習処理により結合重みwが更新されて、第1の深層学習アルゴリズム
60及び第2の深層学習アルゴリズム61として、アルゴリズムデータベース105に格
納される。
【0125】
訓練用画像70は、撮像装置300によって予め撮像され、訓練データデータベース(
DB)104又は処理部10Bの記録部13若しくはメモリ12に予め記載されている。
解析対象画像78は、撮像装置400によって撮像され、端末装置200Cの処理部20
Cの記録部23又はメモリ22に予め記録されていることとする。
【0126】
画像解析装置100Bの処理部10Bは、深層学習処理時には、図9に示す処理を行い
、画像解析処理時には、図12に示す処理を行う。図16に示す各機能ブロックを用いて
説明すると、深層学習処理時には、ステップS11、S12、S16及びS17の処理は
、訓練データ生成部101が行う。ステップS13の処理は、訓練データ入力部102が
行う。ステップS14、及びS18の処理は、アルゴリズム更新部103が行う。画像解
析処理時には、ステップS21及びS22の処理は、解析用データ生成部201が行う。
ステップS23、S24、S25及びS27の処理は、解析用データ入力部202が行う
。ステップS26の処理は、解析部203が行う。
【0127】
画像解析装置100Bが行う深層学習処理の手順及び画像解析処理の手順は、第1の実
施形態に係る深層学習装置100A及び画像解析装置200Aがそれぞれ行う手順と同様
である。
【0128】
処理部10Bは、解析対象画像78を、ユーザ側の端末装置200Cから受信し、図9
に示すステップS11からS17にしたがって訓練データ75を生成する。
【0129】
図12に示すステップS26において、処理部10Bは、細胞の形態に関するデータ8
3を含む解析結果を、ユーザ側の端末装置200Cに送信する。ユーザ側の端末装置20
0Cでは、処理部20Cが、受信した解析結果を出力部27に出力する。
【0130】
以上、端末装置200Cのユーザは、解析対象画像78を画像解析装置100Bに送信
することにより、解析結果として、細胞の形態に関するデータ83を取得することができ
る。
【0131】
第3の実施形態に係る画像解析装置100Bによると、ユーザは、訓練データデータベ
ース104及びアルゴリズムデータベース105を深層学習装置100Aから取得するこ
となく、識別器を使用することができる。これにより、形態学的な分類に基づく細胞の種
類及び細胞の特徴を識別するサービスを、クラウドサービスとして提供することができる
【0132】
[5.その他の形態]
以上、本発明を概要及び特定の実施形態によって説明したが、本発明は上記した概要及
び各実施形態に限定されるものではない。
【0133】
本開示において、色調を輝度Yと、第1の色相Cbと、第2の色相Crとに変換して訓
練データ75を生成する方法を例示しているが、色調の変換はこれに限定されない。色調
を変換せずに、例えば、赤(R),緑(G),青(B)の3原色まま使用してもよい。あ
るいは、前記原色からいずれか1つの色相を減らした2原色としてもよい。あるいは、赤
(R),緑(G),青(B)の3原色のいずれか1つ(例えば緑(G))のみの1原色と
してもよい。シアン(C)、マゼンタ(M)、イエロー(Y)の3原色に変換してもよい。
原色を例えば解析対象画像78も、赤(R),緑(G),青(B)の3原色のカラー画像
に限定されず、2原色のカラー画像であってもよく、1以上の原色を含む画像であればよ
い。
【0134】
上記訓練データの生成方法及び解析データの生成方法では、ステップS11において、
処理部10A,20B,10Bは、訓練用画像70から色調行列72y,72cb,72
crを生成しているが、訓練用画像70は輝度Yと、第1の色相Cbと、第2の色相Cr
とに変換された画像方法であってもよい。すなわち、処理部10A,20B,10Bは、
輝度Yと、第1の色相Cbと、第2の色相Crとを初めから、例えばバーチャルスライド
スキャナ等から直接取得してもよい。同様に、ステップS21において、処理部20A,
20B,10Bは、解析対象画像78から色調行列72y,72cb,72crを生成し
ているが、処理部20A,20B,10Bは、輝度Yと、第1の色相Cbと、第2の色相
Crとを初めから、例えばバーチャルスライドスキャナ等から直接取得してもよい。
【0135】
RGB、CMY以外にも、YUV、及びCIE L等の種々のカラースペー
スを画像の取得及び色調の変換に用いることができる。
【0136】
色調ベクトルデータ74及び色調ベクトルデータ80において、各画素について輝度Y
、第1の色相Cb、第2の色相Crの順番で色調の情報が格納されているが、色調の情報
の格納する順番及び取り扱う順番はこれに限定されない。但し色調ベクトルデータ74に
おける色調の情報の並び順と、色調ベクトルデータ80における色調の情報の並び順とは
同じであることが好ましい。
【0137】
各場像解析システムにおいて、処理部10A,10Bは一体の装置として実現されてい
るが、処理部10A,10Bは一体の装置である必要はなく、CPU11、メモリ12、
記録部13、GPU19等が別所に配置され、これらがネットワークで接続されていても
よい。処理部10A,10Bと、入力部16と、出力部17とについても、一ヶ所に配置
される必要は必ずしもなく、それぞれ別所に配置されて互いにネットワークで通信可能に
接続されていてもよい。処理部20A,20B,20Cについても処理部10A,10B
と同様である。
【0138】
上記第1から第3の実施形態では、訓練データ生成部101、訓練データ入力部102
、アルゴリズム更新部103、解析用データ生成部201、解析用データ入力部202、
及び解析部203の各機能ブロックは、単一のCPU11又は単一のCPU21において
実行されているが、これら各機能ブロックは単一のCPUにおいて実行される必要は必ず
しもなく、複数のCPUで分散して実行されてもよい。また、これら各機能ブロックは、
複数のGPUで分散して実行されてもよいし、複数のCPUと複数のGPUとで分散して
実行されてもよい。
【0139】
上記第2及び第3の実施形態では、図9及び図12で説明する各ステップの処理を行う
ためのプログラムを記録部13,23に予め記録している。これに代えて、プログラムは
、例えばDVD-ROMやUSBメモリ等の、コンピュータ読み取り可能であって非一時
的な有形の記録媒体98から処理部10B,20Bにインストールしてもよい。又は、処
理部10B,20Bをネットワーク99と接続し、ネットワーク99を介して例えば外部
のサーバ(図示せず)からプログラムをダウンロードしてインストールしてもよい。
【0140】
各画像解析システムにおいて、入力部16,26はキーボード又はマウス等の入力装置
であり、出力部17,27は液晶ディスプレイ等の表示装置として実現されている。これ
に代えて、入力部16,26と出力部17,27とを一体化してタッチパネル式の表示装
置として実現してもよい。又は、出力部17,27をプリンター等で構成してもよい。
【0141】
上記各画像解析システムでは、撮像装置300は、深層学習装置100A又は画像解析
装置100Bと直接接続されているが、撮像装置300は、ネットワーク99を介して深
層学習装置100A又は画像解析装置100Bと接続されていてもよい。撮像装置400
についても同様に、撮像装置400は、画像解析装置200A又は画像解析装置200B
と直接接続されているが、撮像装置400は、ネットワーク99を介して画像解析装置2
00A又は画像解析装置200Bと接続されていてもよい。
【0142】
[6.深層学習アルゴリズムの効果]
深層学習アルゴリズムの効果を検証するため、従来行われている機械学習を用いた細胞
識別方法と本開示における深層学習アルゴリズムを用いた細胞識別法による細胞の識別精
度の比較を行った。
末梢血塗抹標本は、塗抹標本作製装置SP-1000iで作成し、血液像自動分析装置 DI-60に
より、細胞の撮像を行った。染色は、メイギムザ染色である。
従来の機械学習による細胞の識別は、血液像自動分析装置 DI-60で行った。また、バリ
デーションは、医師及び熟練した検査技師を含む3名により画像を観察することで行った

図17に、血球分類精度の比較結果を示す。深層学習アルゴリズムを使用した場合、従
来法よりも高い精度で判別を行うことができた。
【0143】
次に骨髄異型性症候群(MDS)認められる形態学的な特徴を、本開示の深層学習アル
ゴリズムが識別できるか検討した。その結果を図18に示す。
【0144】
図18に示すように、形態核異常、空胞化、顆粒分布異常等も精度よく識別することが
できた。
【0145】
以上の結果から、本開示における深層学習アルゴリズムは、形態学的な分類に基づく細
胞の種類の識別、及び細胞の特徴を精度よく識別できると考えられた。
【符号の説明】
【0146】
200 画像解析装置
10 処理部
50,51 訓練前の深層学習アルゴリズム
50a,51a 入力層
50b,51b 出力層
60,61 訓練済み深層学習アルゴリズム
75 訓練データ
80 解析データ
83 細胞の形態に関するデータ
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14
図15
図16
図17
図18