IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 合同会社みらか中央研究所の特許一覧

特許7580448ゲート領域推定プログラム、ゲート領域推定方法、及びゲート領域推定装置
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-10-31
(45)【発行日】2024-11-11
(54)【発明の名称】ゲート領域推定プログラム、ゲート領域推定方法、及びゲート領域推定装置
(51)【国際特許分類】
   G01N 15/1429 20240101AFI20241101BHJP
   G06N 20/20 20190101ALI20241101BHJP
【FI】
G01N15/1429
G06N20/20
【請求項の数】 13
(21)【出願番号】P 2022510573
(86)(22)【出願日】2021-03-24
(86)【国際出願番号】 JP2021012094
(87)【国際公開番号】W WO2021193673
(87)【国際公開日】2021-09-30
【審査請求日】2023-12-13
(31)【優先権主張番号】P 2020055025
(32)【優先日】2020-03-25
(33)【優先権主張国・地域又は機関】JP
(73)【特許権者】
【識別番号】517448489
【氏名又は名称】合同会社H.U.グループ中央研究所
(74)【代理人】
【識別番号】100114557
【弁理士】
【氏名又は名称】河野 英仁
(74)【代理人】
【識別番号】100078868
【弁理士】
【氏名又は名称】河野 登夫
(72)【発明者】
【氏名】河野 圭伍
(72)【発明者】
【氏名】二田 晴彦
【審査官】野田 華代
(56)【参考文献】
【文献】国際公開第2020/4101(WO,A1)
【文献】米国特許出願公開第2018/181458(US,A1)
【文献】特表2018-505392(JP,A)
【文献】特開2010-122137(JP,A)
【文献】特表2011-515655(JP,A)
【文献】欧州特許出願公開第3054279(EP,A1)
【文献】特許第7445672(JP,B2)
(58)【調査した分野】(Int.Cl.,DB名)
G01N 15/00-15/14
G06N 20/20
(57)【特許請求の範囲】
【請求項1】
測定項目が異なるフローサイトメトリーの測定より得た複数の散布図を含む散布図群を取得し、
散布図群とゲート領域とを含む訓練データに基づき学習を行った複数の学習モデルそれぞれに、取得した散布図群を入力し、
前記複数の学習モデルそれぞれから得た推定ゲート領域を出力する
処理をコンピュータに行わせることを特徴とするゲート領域推定プログラム。
【請求項2】
複数の前記推定ゲート領域に基づき、自信度を判定する
ことを特徴とする請求項1に記載のゲート領域推定プログラム。
【請求項3】
複数の前記推定ゲート領域それぞれを示す各複数の変数の散布度に基づき自信度を判定する
ことを特徴とする請求項2に記載のゲート領域推定プログラム。
【請求項4】
前記変数毎の散布度と所定の複数の閾値とを対照し、変数毎の自信度を複数段階で判定し、変数毎の自信度より、前記推定ゲート領域の前記自信度を判定する
ことを特徴とする請求項3に記載のゲート領域推定プログラム。
【請求項5】
複数の検体それぞれの測定に対する推定ゲート領域の自信度を判定し、前記検体を特定する識別情報と判定した自信度とを対応付けて出力する
ことを特徴とする請求項2から請求項4の何れか1項に記載のゲート領域推定プログラム。
【請求項6】
前記複数の学習モデルそれぞれから得た推定ゲート領域に基づき、1つの学習モデルを選択し、
選択した前記学習モデルが出力した推定ゲート領域を出力する
ことを特徴とする請求項1に記載のゲート領域推定プログラム。
【請求項7】
複数の前記学習モデルが出力した前記推定ゲート領域それぞれに含まれる細胞の数に基づき、学習モデルを選択する
ことを特徴とする請求項6に記載のゲート領域推定プログラム。
【請求項8】
複数の前記学習モデルが出力した前記推定ゲート領域それぞれの面積に基づき、学習モデルを選択する
ことを特徴とする請求項6に記載のゲート領域推定プログラム。
【請求項9】
複数の前記測定項目より得た散布図に基づき、測定された細胞のクラスタリングを行い、
複数の前記学習モデルが出力した前記推定ゲート領域それぞれについて、当該クラスタリングの結果を用いて求めた細胞純度に基づき、学習モデルを選択する
ことを特徴とする請求項6に記載のゲート領域推定プログラム。
【請求項10】
前記複数の学習モデルそれぞれから複数の推定ゲート領域を取得し、
互いに関連する複数の前記推定ゲート領域を含むグループ毎に、1つの学習モデルを選択し、
選択した学習モデルそれぞれの出力した推定ゲート領域を出力する
ことを特徴とする請求項1から請求項9の何れか1項に記載のゲート領域推定プログラム。
【請求項11】
複数の前記推定ゲート領域に基づき、自信度を判定し、
前記複数の学習モデルそれぞれから得た推定ゲート領域に基づき、1つの学習モデルを選択し、
選択した前記学習モデルが出力した推定ゲート領域と、前記自信度とを出力する
ことを特徴とする請求項1に記載のゲート領域推定プログラム。
【請求項12】
コンピュータが、
測定項目が異なるフローサイトメトリーの測定より得た複数の散布図を含む散布図群を取得し、
散布図群とゲート領域とを含む訓練データに基づき学習を行った複数の学習モデルそれぞれに、取得した散布図群を入力し、
前記複数の学習モデルそれぞれから得た推定ゲート領域を出力する
ことを特徴とするゲート領域推定方法。
【請求項13】
測定項目が異なるフローサイトメトリーの測定より得た複数の散布図を含む散布図群を取得する取得部と、
散布図群とゲート領域とを含む訓練データに基づき学習を行った複数の学習モデルそれぞれに、取得した散布図群を入力し、前記複数の学習モデルそれぞれから得た推定ゲート領域を出力する出力部と
を備えることを特徴とするゲート領域推定装置。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、フローサイトメトリーにおけるゲート領域を推定するゲート領域推定プログラム等に関する。
【背景技術】
【0002】
フローサイトメトリー(Flow Cytometry:FCM)は、単一の細胞毎に複数の特徴量を測定できる技術である。FCMでは、流動する液体に懸濁した細胞が一列になるように流す。一個一個流れる細胞に光を当て、その光の散乱や蛍光具合により、細胞の大きさ、内部の複雑さ、構成物質などの指標が得られる。フローサイトメトリーは医療においては、例えば、細胞性免疫検査に利用されている。
【0003】
細胞性免疫検査では、フローサイトメトリーで得られた複数の指標値の解析を行い、検査結果として返却する。解析技術の1つにゲーティングがある。ゲーティングは得られたデータの中から特定の集団のみを選んで解析する技術である。従来、解析対象とする集団の特定は、検査士が2次元の散布図において、楕円形や多角形(「ゲート」という)を描くことにより指定していた。このようなゲートの設定は、検査士の経験や知識による所が大きい。そのため、経験や知識が少ない検査士が適切なゲート設定を行うことは困難である。
【0004】
それに対して、ゲート設定を自動化する技術が提案されている(特許文献1、2等)。しかしながら、従来技術は細胞の密度情報を用いた設定方法や、ルールベースによる手法での設定であり、検査士が蓄積してきた経験や知識が十分、活用されていない。
【先行技術文献】
【特許文献】
【0005】
【文献】特許第6480918号公報
【文献】特許第5047803号公報
【発明の概要】
【発明が解決しようとする課題】
【0006】
そこで、検査士が蓄積した経験や知識に基づくゲート設定データを訓練データとして深層学習を行った学習モデルにより、ゲート領域を推定することが考えられる。しかし、学習モデルによるゲート領域の推定は精度が十分でない。
【0007】
本発明はこのような状況に鑑みてなされたものである。その目的は、学習モデルにより、ゲート領域を推定する場合において、より精度の良い推定結果を出力するゲート領域推定プログラム等の提供である。
【課題を解決するための手段】
【0008】
本発明に係るゲート領域推定プログラムは、測定項目が異なるフローサイトメトリーの測定より得た複数の散布図を含む散布図群を取得し、散布図群とゲート領域とを含む訓練データに基づき学習を行った複数の学習モデルそれぞれに、取得した散布図群を入力し、前記複数の学習モデルそれぞれから得た推定ゲート領域を出力する処理をコンピュータに行わせることを特徴とする。
【発明の効果】
【0009】
本発明にあっては、複数の学習モデルを用いるアンサンブル学習により、精度の良いゲート領域の推定を行うことが可能となる。
【図面の簡単な説明】
【0010】
図1】検査システムの構成例を示す説明図である。
図2】処理部のハードウェア構成例を示すブロック図である。
図3】測定値DBの例を示す説明図である。
図4】特徴情報DBの例を示す説明図である。
図5】ゲートDBの例を示す説明図である。
図6】閾値DBの例を示す説明図である。
図7】自信度DBの例を示す説明図である。
図8】回帰モデルの生成処理に関する説明図である。
図9】回帰モデル生成処理の手順例を示すフローチャートである。
図10】閾値決定処理の手順例を示すフローチャートである。
図11A】ゲート領域の推定結果例を示す説明図である。
図11B】ゲート領域の推定結果例を示す説明図である。
図12】散布度の例を示す説明図である。
図13A】散布度の例を示す説明図である。
図13B】散布度の例を示す説明図である。
図14】ゲート領域推定処理の手順例を示すフローチャートである。
図15】自信度判定処理の手順例を示すフローチャートである。
図16A】ゲート領域の推定結果例を示す説明図である。
図16B】ゲート領域の推定結果例を示す説明図である。
図17A】散布度の例を示す説明図である。
図17B】散布度の例を示す説明図である。
図18】ゲート領域の推定結果例を示す説明図である。
図19A】推定結果表示画面の例を示す説明図である。
図19B】推定結果表示画面の例を示す説明図である。
図20】ID一覧画面の例を示す説明図である。
図21】ゲート領域推定処理の他の手順例を示すフローチャートである。
図22A】外れ値ゲート領域の除外例を示す説明図である。
図22B】外れ値ゲート領域の除外例を示す説明図である。
図23】10個の小集団の例を示す説明図である。
図24】ゲート選択処理の手順例を示すフローチャートである。
図25A】ゲート領域の選択例を示す説明図である。
図25B】ゲート領域の選択例を示す説明図である。
図26】輝度情報によるゲート領域の選択例を示す説明図である。
図27】ゲート領域選択処理の他の手順例を示すフローチャートである。
図28】ゲート領域選択処理の他の手順例を示すフローチャートである。
【発明を実施するための形態】
【0011】
以下実施の形態を、図面を参照して説明する。以下の説明においては、白血病・リンパ腫解析(LLA:Leukemia, Lymphoma Analysis)検査におけるCD45ゲーティングを例として説明する。最初に、LLA検査の工程について説明する。LLA検査は大まかに5つの工程を含む。1.分注、2.前処理、3.測定・描写、4.解析、5.報告である。
【0012】
分注工程では、一つの検体(以下、「ID」と記す。)を分ける工程である。LLA検査では一つのIDを最大10個に分注して検査を行う。分注した各検体をSEQと記す。また、分注した10の検体をSEQ1、SEQ2、…、SEQ10と記す。前処理工程では、各SEQに共通な処理(細胞濃度の調整など)を行い、個別に表面マーカを付ける。SEQ1はネガティブコントロールとする。ネガティブコントロールは、効果を検証したい対象と同一の条件で、既に陰性の結果が出ることが分かっている対象に検査を行うこと、あるいはその対象を意味する語である。陰性対照とも言う。検査においては、検証したい対象と、ネガティブコントロールにおける結果を比較することで、その相対的な差異から検査結果が解析される。
【0013】
測定・描写工程では、10SEQをフローサイトメータで測定を行い、蛍光値を得る。各SEQ内の個々の細胞について、測定値を含めた5つの項目からなる情報が得られる。項目の内訳は、FSC、SSC、FL1、FL2、FL3である。FSCは前方散乱光(FSC:Forward Scattered Light)の測定値を示す。FSCはレーザービームの光軸に対して前方で検出される散乱光の値を示す。FSCは細胞の表面積または大きさにほぼ比例するため、細胞の大きさを示す指標値となる。SSCは側方散乱光(SSC:Side Scattered Light)の測定値を示す。側方散乱光は、レーザービームの光軸に対して90°の角度で検出される光である。SSCは、その大部分が細胞内の物質に光が当たって散乱したものである。SSCは、細胞の顆粒性状、内部構造にほぼ比例するため、細胞の顆粒性状、内部構造を示す指標値となる。FLは蛍光(Fluorescence)を示すが、ここではフローサイトメータが備える複数の蛍光用検出器を示す。数字は蛍光用検出器の順番号を示す。FL1は1番目の蛍光検出器を示すが、ここでは、マーカとして各SEQのマーカ情報が設定される項目の名称である。FL2は2番目の蛍光検出器を示すが、ここでは、マーカとして各SEQのマーカ情報が設定される項目の名称である。FL3は3番目の蛍光用検出器を示すが、ここでは、CD45のマーカ情報が設定される項目の名称である。
【0014】
フローサイトメータは、各SEQで2つの散布図を作成し、散布図をディスプレイ等に表示する。例えば、一つの散布図は、一方の軸をSSCとし、他方の軸をFL3とする。もう一つの散布図は、一方の軸をSSCとし、他方の軸をFSCとする。
【0015】
解析工程では、散布図の様相より、検査士が疾患を推定し、各散布図上に疾患特定に有用なゲートを作成する。そして、ゲート範囲に存在する細胞のみからなるFL1―FL2の散布図を各SEQで作成し、マーカ反応として観察する。報告工程では、特に有用なゲートを2つ報告用に決定し、報告書を作成する。
【0016】
(実施の形態1)
図1は検査システムの構成例を示す説明図である。検査システムはフローサイトメータ(ゲート領域推定装置)10と学習サーバ3とを含む。フローサイトメータ10と学習サーバ3とはネットワークNを介して、通信可能に接続されている。フローサイトメータ10は、装置全体の動作に関する種々の処理を行う処理部1と、検体を受け入れ、フローサイトメトリーによる測定を行う測定部2とを含む。
【0017】
学習サーバ3は、サーバコンピュータ、ワークステーション等で構成する。学習サーバ3は検査システムにおいて、必須の構成ではない。学習サーバ3は、主としてフローサイトメータ10を補完する役目を担い、測定データや学習モデルをバックアップとして記憶する。また、フローサイトメータ10に代わって、学習モデルの生成、学習モデルの再学習を行ってもよい。この場合、学習サーバ3は、学習モデルを特徴付けるパラメータ等をフローサイトメータ10に送信する。なお、学習サーバ3の機能を、クラウドサービスで提供してもよい。
【0018】
図2は、処理部のハードウェア構成例を示すブロック図である。処理部1は制御部11、主記憶部12、補助記憶部13、入力部14、表示部15、通信部16、及び読み取り部17を含む。制御部11、主記憶部12、補助記憶部13、入力部14、表示部15、通信部16、及び読み取り部17はバスBにより接続されている。処理部1はフローサイトメータ10と別体としても良い。処理部1は、PC(Personal Computer)、ノートパソコン、タブレットコンピュータ等で構築する。処理部1を複数のコンピュータからなるマルチコンピュータ、ソフトウェアによって仮想的に構築された仮想マシン又は量子コンピュータで構成してもよい。
【0019】
制御部11は、一又は複数のCPU(Central Processing Unit)、MPU(Micro-Processing Unit)、GPU(Graphics Processing Unit)等の演算処理装置を有する。制御部11は、補助記憶部13に記憶された図示しないOS(Operating System)や制御プログラム1P(ゲート領域推定プログラム)を読み出して実行することにより、フローサイトメータ10に係る種々の情報処理、制御処理等を行う。また、制御部11は取得部、出力部等の機能部を含む。
【0020】
主記憶部12は、SRAM(Static Random Access Memory)、DRAM(Dynamic Random Access Memory)、フラッシュメモリ等である。主記憶部12は主として制御部11が演算処理を実行するために必要なデータを一時的に記憶する。
【0021】
補助記憶部13はハードディスク又はSSD(Solid State Drive)等であり、制御部11が処理を実行するために必要な制御プログラム1Pや各種DB(Database)を記憶する。補助記憶部13は、測定値DB131、特徴情報DB132、ゲートDB133、第1回帰モデル1341から第5回帰モデル1345、閾値DB135、及び自信度DB136を記憶する。補助記憶部13はフローサイトメータ10に接続された外部記憶装置であってもよい。補助記憶部13に記憶する各種DB等を、ネットワークNで接続されたデータベースサーバやクラウドストレージに記憶してもよい。
【0022】
本実施の形態においては、複数の学習モデルを用いるアンサンブル学習を行う。複数の学習モデルの出力結果を用いて、ゲート領域の推定結果について、自信度を求める。本実施の形態においては、アンサンブル学習を行うために第1回帰モデル1341から第5回帰モデル1345の5つの学習モデルを使用するが、それに限らない。学習モデルの数は2つから4つでもよいし、6つ以上としてもよい。
【0023】
入力部14はキーボードやマウスである。表示部15は液晶表示パネル等を含む。表示部15は測定を行うための情報や測定結果、ゲート情報などを種々の情報を表示する。表示部15は入力部14と一体化したタッチパネルディスプレイでもよい。なお、表示部15に表示する情報をフローサイトメータ10の外部表示装置に表示を行ってもよい。
【0024】
通信部16はネットワークNを介して、学習サーバ3と通信を行う。また、制御部11が通信部16を用い、ネットワークN等を介して他のコンピュータから制御プログラム1Pをダウンロードし、補助記憶部13に記憶してもよい。
【0025】
読み取り部17はCD(Compact Disc)-ROM及びDVD(Digital Versatile Disc)-ROMを含む可搬型記憶媒体1aを読み取る。制御部11が読み取り部17を介して、制御プログラム1Pを可搬型記憶媒体1aより読み取り、補助記憶部13に記憶してもよい。また、ネットワークN等を介して他のコンピュータから制御部11が制御プログラム1Pをダウンロードし、補助記憶部13に記憶してもよい。さらにまた、半導体メモリ1bから、制御部11が制御プログラム1Pを読み込んでもよい。
【0026】
補助記憶部13が記憶するデータベースについて説明する。図3は測定値DBの例を示す説明図である。測定値DB131はフローサイトメータ10による測定の測定値を記憶する。図3に示すのは測定値DB131に記憶される1レコードの例である。測定値DB131の各レコードは、基本部1311とデータ部1312とを含む。基本部1311は受付番号列、受付日列、検査番号列、検査日列、カルテ番号列、氏名列、性別列、年齢列、及び採取日列を含む。受付番号列は検査依頼を受け付けた際に発番する受付番号(識別情報)を記憶する。受付日列は、検査依頼を受け付けた日付を記憶する。検査番号列は検査を行う際に発番する検査番号を記憶する。検査日列は検査を実施した日付を記憶する。カルテ番号列は検査依頼に対応するカルテの番号を記憶する。氏名列は検体を提供した被検査者の氏名を記憶する。性別列は被検査者の性別を記憶する。例えば、被検査者が男性であれば、性別列はMを記憶する。被検査者が女性であれば、性別列はFを記憶する。年齢列は被検査者の年齢を記憶する。採取日列は被検査者から検体を採取した日付を記憶する。データ部1312において、各列は測定項目について、細胞毎の測定値を記憶する。各行は一つの細胞について、測定項目毎の測定値を記憶する。
【0027】
図4は特徴情報DBの例を示す説明図である。特徴情報DB132は測定値から得られる特徴を示す情報(以下、「特徴情報」とも言う。)を記憶する。特徴情報は例えば、散布図やヒストグラムである。特徴情報DB132は、受付番号列、検査番号列、順番号列、種別列、横軸列、縦軸列、及び画像列を含む。受付番号列は、受付番号を記憶する。検査番号列は、検査番号を記憶する。順番号列は同一検査内での特徴情報の順番号を記憶する。種別列は特徴情報の種別を記憶する。例えば、種別は上述したように散布図やヒストグラムである。横軸列は散布図やヒストグラムにおいて横軸として採用した項目を記憶する。縦軸列は散布図において縦軸として採用した項目を記憶する。ヒストグラムの場合、縦軸は細胞数であるので、縦軸列は細胞数を記憶する。画像列は散布図やヒストグラムを画像として記憶する。
【0028】
図5はゲートDBの例を示す説明図である。ゲートDB133は散布図に対して、設定されたゲートの情報(ゲート情報)を記憶する。ゲート情報はゲート領域を確定するための情報である。ゲート情報はゲート領域の外形線を示す図形の情報、ゲート領域に含まれる測定値の値範囲、ゲート領域に含まれる測定値の集合などである。散布図画像上において、ゲート領域に含まれる点のピクセル座標値でもよい。ここでは、ゲート情報はゲート領域の外形線を示す図形とし、その形状は楕円形状とするが、それに限られない。図形は複数の辺から構成される多角形や、複数の曲線を結んだ図形でもよい。ゲートDB133は、受付番号列、検査番号列、横軸列、縦軸列、ゲート番号列、CX列、CY列、DX列、DY列、及びθ列を含む。受付番号列は受付番号を記憶する。検査番号列は検査番号を記憶する。横軸列は散布図において横軸として採用した項目を記憶する。縦軸列は散布図において縦軸として採用した項目を記憶する。ゲート番号列はゲートの順番号を記憶する。CX列は楕円の中心x座標値を記憶する。CY列は楕円の中心y座標値を記憶する。DX列は楕円の長径の値を記憶する。DY列は楕円の短径の値を記憶する。θ列は楕円の傾き角度を記憶する。例えば、傾き角度は横軸と楕円の長径とがなす角度である。ゲート形状として、多角形を設定可能とする場合、ゲートDB133は多角形を形づくる複数点の座標列を記憶する。
【0029】
図6は閾値DBの例を示す説明図である。閾値DB135はゲート領域を示す各項目値のバラつきの度合いを示す指標(散布度)に関する閾値を記憶する。当該閾値は、回帰モデルの自信度を判定する際に用いる。図6に示す例はゲート領域が楕円の場合である。閾値DB135はID列、横軸列、縦軸列、CX列、CY列、DX列、及びDY列を含む。ID列は閾値群を特定するIDを記憶する。横軸列は散布図において横軸とする項目を記憶する。縦軸列は散布図において縦軸とする項目を記憶する。CX列は楕円の中心x座標値に関する閾値を記憶する。CY列は楕円の中心y座標値に関する閾値を記憶する。DX列は楕円の長径の値に関する閾値を記憶する。DY列は楕円の短径の値に関する閾値を記憶する。CX列、CY列、DX列、及びDY列はそれぞれ、A列及びB列を含む。A列は閾値Aを記憶する。B列は閾値Bを記憶する。B列の「-」は値が設定されていないことを示す。閾値Aのみが設定されている場合、回帰モデルの自信度は、高又は低のいずれかとなる。閾値Bが設定されている場合は、自信度を数値で示す。例えば、閾値Aより小さいならば自信度50、更に閾値Bよりも小さいならば自信度70とする。なお、閾値は3つ以上であってもよい。
【0030】
図7は自信度DBの例を示す説明図である。自信度DB136は回帰モデルによるゲート領域の推定結果の自信度を記憶する。自信度DB136は受付番号列、検査番号列、ゲート番号列、CX列、CY列、DX列、DY列、ゲート全体列、及び全体列を含む。受付番号列は受付番号を記憶する。検査番号列は検査番号を記憶する。ゲート番号列はゲートの順番号を記憶する。受付番号列、検査番号列及びゲート番号列により、ゲートDB133との対応付けが可能となる。CX列は楕円の中心x座標値の自信度を記憶する。CY列は楕円の中心y座標値の自信度を記憶する。DX列は楕円の長径長の自信度を記憶する。DY列は楕円の短径長の自信度を記憶する。ゲート全体列はゲート毎の自信度を記憶する。全体列は検査毎の自信度を記憶する。図7に示す例では、自信度の値は高又は低である。
【0031】
次に、準備工程について説明する。準備工程は実運用に入る前に行う工程である。図8は回帰モデルの生成処理に関する説明図である。第1回帰モデル1341から第5回帰モデル1345の5つの学習モデルを生成する。図8は、機械学習を行って第1回帰モデル1341から第5回帰モデル1345を生成する処理を示している。基本的な処理の内容は全ての学習モデルで同様である。基本的な処理について、第1回帰モデル1341を代表として説明する。
【0032】
本実施の形態にフローサイトメータ10において、処理部1は、測定部2で得た測定結果に基づき作成した散布図画像に対する適切なゲートの特徴量を学習するディープラーニングを行うことで、複数の散布図画像(散布図群)を入力とし、ゲート情報を出力とする第1回帰モデル1341を生成する。複数の散布図画像とは、少なくとも1軸の項目が異なる複数の散布図画像である。例えば、横軸がSSCで縦軸がFL3の散布図画像、及び、横軸がSSCで縦軸がFSCの散布図画像からなる2つの散布図画像である。3つ以上の散布図画像を入力してもよい。ニューラルネットワークは例えばCNN(Convolution Neural Network)である。第1回帰モデル1341は、各散布図画像の特徴量をそれぞれ学習する複数の特徴抽出器と、各特徴抽出器が出力した特徴量を結合する結合器と、結合した特徴量に基づき、ゲート情報の各項目(中心X座標、中心Y座標、長径、短径、傾斜角度)を推定し出力する複数の推定器とを有する。なお、第1回帰モデル1341に散布図画像ではなく、散布図の基になる測定値の集合を入力してもよい。
【0033】
各特徴抽出器は、入力層、中間層を含む。入力層は、散布図画像に含まれる各画素の画素値の入力を受け付ける複数のニューロンを有し、入力された画素値を中間層に受け渡す。中間層は複数のニューロンを有し、散布図画像内からの特徴量を抽出して出力層に受け渡す。例えば特徴抽出器がCNNである場合、中間層は、入力層から入力された各画素の画素値を畳み込むコンボリューション層と、コンボリューション層で畳み込んだ画素値をマッピングするプーリング層とが交互に連結された構成を有し、画素情報を圧縮しながら最終的に画像特徴量を抽出する。散布図画像を入力する特徴抽出器を画像毎に設けるのではなく、1つの特徴抽出器に複数の散布図画像を入力する構成でもよい。
【0034】
なお、本実施の形態では第1回帰モデル1341がCNNであるものとして説明するが、第1回帰モデル1341はCNNに限定されず、CNN以外のニューラルネットワーク、ベイジアンネットワーク、決定木など、他の学習アルゴリズムで構築された学習済みモデルであってもよい。
【0035】
処理部1は、複数の散布図画像と、散布図に対応したゲート情報の正解値とが対応付けられた訓練データを用いて学習を行う。例えば図8に示すように、訓練データは、複数の散布図画像に対し、ゲート情報がラベル付けされたデータである。なお、ここでは簡略のため、2種類の散布図を1組の散布図とする。また、1組の散布図に対して、1つのゲートを設けるものとして説明するが、複数のゲートを設けてもよい。この場合、ゲート情報には有用度を示す値を含める。
【0036】
処理部1は、訓練データである2つの散布図画像をそれぞれ異なる特徴抽出器に入力する。各特徴抽出器が出力した特徴量が結合器により結合される。結合器による結合は、単純に特徴量を結合する方法(Concatenate)、特徴量を示す値を加算する方法(Add)、特徴量の最大のものを選択する(Maxpool)方法などがある。
【0037】
結合された特徴量に基づき、各推定器は推定結果として、ゲート情報を出力する。各推定器が出力する値の組み合わせで、1組のゲート情報となる。出力するゲート情報は複数組であってもよい。この場合、複数組に応じた数の推定器を設ける。例えば、優先順位1位のゲート情報と、優先順位2位のゲート情報とを出力する場合、図8における推定器の数が5から10個となる。
【0038】
処理部1は推定器から得たゲート情報を、訓練データにおいて散布図画像に対しラベル付けされた情報、すなわち正解値と比較し、推定器からの出力値が正解値に近づくように、特徴抽出器や推定器での演算処理に用いるパラメータを最適化する。当該パラメータは、例えばニューロン間の重み(結合係数)、各ニューロンで用いられる活性化関数の係数などである。パラメータの最適化の方法は特に限定されないが、例えば処理部1は誤差逆伝播法を用いて各種パラメータの最適化を行う。処理部1は、訓練データに含まれる検査毎のデータについて上記の処理を行い、第1回帰モデル1341を生成する。
【0039】
次に、処理部1の制御部11が行う処理について説明する。図9は回帰モデル生成処理の手順例を示すフローチャートである。制御部11は検査履歴を取得する(ステップS1)。検査履歴は過去の検査結果の蓄積であり、測定値DB131に記憶された過去の測定値である。制御部11は処理対象とする1つの履歴を選択する(ステップS2)。制御部11は選択した履歴に対応する特徴情報を取得する(ステップS3)。特徴情報は例えば散布図である。特徴情報は特徴情報DB132から取得する。特徴情報が記憶されていない場合、測定値から生成してもよい。制御部11は選択した履歴に対応するゲート情報を取得する(ステップS4)。ゲート情報はゲートDB133より取得する。制御部11は取得した特徴情報とゲート情報とを訓練データとして、第1回帰モデル1341の学習を行う(ステップS5)。制御部11は未処理の検査履歴があるか否かを判定する(ステップS6)。制御部11は未処理の検査履歴があると判定した場合(ステップS6でYES)、処理をステップS2に戻し、未処理の検査履歴に関する処理を行う。制御部11は未処理の検査履歴がないと判定した場合(ステップS6でNO)、第1回帰モデル1341を記憶し(ステップS7)、処理を終了する。
【0040】
図8及び図9を用いて説明した処理と同様な処理により、第2回帰モデル1342、第3回帰モデル1343、第4回帰モデル1344、第5回帰モデル1345を生成する。ただし、第1回帰モデル1341から第5回帰モデル1345のそれぞれは、例えば、訓練データ、ネットワーク構造、ハイパーパラメータを変えることにより、生成条件が異なる回帰モデルとする。訓練データについては、データ拡張やブートストラップ法で用いる復元抽出法によりデータ数を増やすことにより、5つの学習モデルの訓練データを異なるものとする。ネットワーク構造については、入力層、出力層の数を変える。また、Fine-tuningにより、ある学習モデルから、それと異なる学習モデルを生成する。ハイパーパラメータについては、中間層の層数、各層(レイヤ)のノード数、重み、損失関数、最適化関数、学習率、バッチサイズ等の設定を異なるものとする。
【0041】
第1回帰モデル1341から第5回帰モデル1345を生成した後、自信度を判定するための閾値を決定する。図10は閾値決定処理の手順例を示すフローチャートである。制御部11はテストデータを取得する(ステップS11)。制御部11は取得したテストデータを各回帰モデルに入力する(ステップS12)。制御部11は各回帰モデルから推定出力を取得する(ステップS13)。推定出力は、各回帰モデルが推定したゲート領域を示すパラメータの値である。ゲート領域が楕円の場合、パラメータは中心座標(Cx,Cy)、長半径と短半径との長さ(Dx,Dy)、及び長半径とx軸とがなす角の角度(θ)である。ゲート領域が多角形の場合は、各頂点の座標値である。制御部11は各回帰モデルから出力された値から、パラメータ毎に散布度を算出する(ステップS14)。散布度の一例は標準偏差である。制御部11は未処理のテストデータがあるか否かを判定する(ステップS15)。制御部11は未処理のテストデータがあると判定した場合(ステップS15でYES)、処理をステップS11へ戻し、未処理のテストデータについての処理を行う。制御部11は未処理のテストデータがないと判定した場合(ステップS15でNO)、パラメータ毎の閾値を決定する(ステップS16)。閾値は許容できる出力値のバラつきの限度を意味する。閾値は統計手法により決定する。または、テストデータ毎の散布度の値から、例えばベテランの検査士が判断して、決定する。制御部11は決定した閾値を記憶し(ステップS17)、閾値決定処理を終了する。なお、閾値はフローサイトメータ10が稼働する環境毎、例えば、検査機関毎に調整してもよい。散布度は標準偏差以外に、分散、不偏分散又は平均偏差でもよい。
【0042】
閾値決定処理の具体例を説明する。図11A及び図11Bはゲート領域の推定出力例を示す説明図である。図11はCD45ゲーティングにおける散布図の例である。図11Aは入力とする散布図の例を示す。図11Aは横軸がSSC(Side Scattered Light:側方散乱光)であり、縦軸がFL3(FL=Fluorescence:蛍光用検出器、3は3番目の意。)である。図11Bは、入力された散布図におけるゲート領域を、5つの回帰モデルが推定したそれぞれの結果を示す。図11Bの縦軸、横軸は図11Aと同様である。ここでは、楕円形のゲート領域を1つ推定する例を示す。図11Bでは、入力された散布図にゲート領域が重ね書きされている。AI-1が第1回帰モデル1341の推定結果を示し、AI-2が第2回帰モデル1342の推定結果を示し、以下同様であり、AI-5が第5回帰モデル1345の推定結果を示す。散布図の下にゲート領域である楕円形のパラメータを記載している。上から順に中心X座標(Cx)、中心Y座標(Cy)、長径の長さ(Dx)、短径の長さ(Dy)、傾斜角度(θ)である。
【0043】
図12は散布度の例を示す説明図である。散布度は標準偏差(SD:standard deviation)とする。図12の左表は、図11Bに示した値を再掲載している。なお、傾斜角度は、ゲート領域の形状が正円形とした場合など、SDが大きくなったとしても、推定結果の自信度に影響しないので、SDの算出項目から除外している。SDの閾値は、複数のテストデータに対する結果について算出し、算出結果に基づいて決定する。
【0044】
図13A及び図13Bは散布度の例を示す説明図である。図13A図13Bとは異なるテストデータを入力した場合の推定結果である。図13A及び13Bともに、横軸はSSC、縦軸はFL3である。図13A及び図13Bでは、入力の散布図に5つの回帰モデルが出力したゲート領域を重ねて描いている。散布図右側の数値は楕円形を特定する中心座標、長短径のSDを示している。図13Aは推定結果のバラつきが小さい例であり、図13Bは推定結果のバラつきが大きい例である。図13A図13Bとからすると、Cx:5.6以上、Cy:10.9~36.8の間、Dx:12.3以上、Dy:6.4以上で閾値を決めるとよいと考えられる。2つのテストデータのみでなく、他のデータについてのSDを考慮して、パラメータ毎の最終的な閾値を決定することが望ましい。各パラメータの閾値が決定すれば、準備工程は終了である。なお、上述の閾値決定処理においては、各回帰モデルはゲート領域の推定結果として、1つのゲートを出力する前提で説明したが、複数であってもよい。複数の場合は、ゲート毎に閾値を決定する。ゲート領域として、第1ゲート、第2ゲート、第3ゲートが出力される場合、各回帰モデルの第1ゲートについて、散布度を求め、閾値を決定する。
【0045】
次に、運用工程について説明する。以下の説明では、散布度を標準偏差(SD)とする。また、SDが閾値以下の場合、自信度を高とする。SDが閾値を超えた場合、自信度を低とする。また、各回帰モデルは複数のゲート領域の推定結果を出力するものとする。
【0046】
図14はゲート領域推定処理の手順例を示すフローチャートである。制御部11は散布図を取得する(ステップS31)。ここでの散布図は測定結果を示す点の座標列並びに、横軸の測定項目及び縦軸の測定項目である。制御部11は取得した散布図を各回帰モデル入力する(ステップS32)。制御部11は各回帰モデルがゲート領域の推定出力を取得する(ステップS33)。制御部11は回帰モデル毎、ゲート毎、パラメータ毎に散布度、ここでは標準偏差を算出する(ステップS34)。制御部11は自信度の判定を行う(ステップS35)。制御部11は結果を記憶する(ステップS36)。制御部11はゲート領域の推定結果をゲートDB133に記憶し、自信度を自信度DB136に記憶する。制御部11はゲート領域判定処理を終了する。
【0047】
図15は自信度判定処理の手順例を示すフローチャートである。自信度判定処理は図14のステップS35に対応する処理である。制御部11は対象とするゲート領域を選択する(ステップS51)。制御部11は処理対象とするパラメータ(Cx、Cy、Dx、Dy等の変数)を選択する(ステップS52)。制御部11はパラメータの標準偏差が閾値以下であるか否かを判定する(ステップS53)。制御部11はパラメータの標準偏差が閾値以下であると判定した場合(ステップS53でYES)、全パラメータについて処理済みか否かを判定する(ステップS54)。制御部11は全パラメータについて処理済みでないと判定した場合(ステップS54でNO)、処理をステップS52に戻し、未処理のパラメータについての処理を行う。制御部11は全パラメータについて処理済みと判定した場合(ステップS54でYES)、処理対象としているゲートの自信度が高であることを、一時記憶領域に記憶する(ステップS55)。一時記憶領域は主記憶部12又は補助記憶部13に設ける。制御部11はパラメータの標準偏差が閾値を超えていると判定した場合(ステップS53でNO)、処理対象としているゲートの自信度が低であることを、一時記憶領域に記憶する(ステップS56)。制御部11は全ゲートについて処理済みか否かを判定する(ステップS57)。制御部11は全ゲートについて処理済みでないと判定した場合(ステップS57でNO)、処理をステップS51に戻し、未処理のゲートについての処理を行う。制御部11は全ゲートについて処理済みと判定した場合(ステップS57でYES)、一時記憶領域を参照し、全ゲートの自信度が高であるか否かを判定する(ステップS58)。制御部11は全ゲートの自信度が高であると判定した場合(ステップS58でYES)、処理対象としている散布図におけるゲート領域の推定結果に対する自信度(全体の自信度)が高であることを一時記憶領域に記憶する(ステップS59)。制御部11は全ゲートの自信度が高ではなく、一部のゲートの自信度が低であると判定した場合(ステップS58でNO)、処理対象としている散布図についての推定結果全体の自信度が低であることを一時記憶領域に記憶する(ステップS60)。制御部11は処理を呼び出し元に戻す。
【0048】
ゲート領域推定処理の具体例を説明する。図16A及び図16Bは、ゲート領域の推定結果例を示す説明図である。図16図11と同様に、CD45ゲーティングにおける散布図の例である。図16Aは入力とする散布図の例であり、図16Bは入力された散布図におけるゲート領域を、5つの回帰モデルが推定したそれぞれの結果を示す。図16A及び図16Bにおいて、横軸はSSCであり、縦軸はFL3である。ここでは、推定結果として得たゲート領域の1つを表示している。図16Bでは、入力された散布図にゲート領域が重ね書きされている。AI-1が第1回帰モデル1341の推定結果を示し、AI-2が第2回帰モデル1342の推定結果を示し、以下同様であり、AI-5が第5回帰モデル1345の推定結果を示す。散布図の下にゲート領域である楕円形のパラメータを記載している。上から順に中心X座標(Cx)、中心Y座標(Cy)、長径の長さ(Dx)、短径の長さ(Dy)、傾斜角度(θ)である。
【0049】
図17A及び図17Bは散布度の例を示す説明図である。図17A図17Bとは異なる散布図を入力した場合の推定結果である。図17A及び17Bともに、横軸はSSC、縦軸はFL3である。図17Aは、図16Bに示した5つの図を一つの図として描いたものである。すなわち、図17Aは入力の散布図に5つの回帰モデルが出力したゲート領域を重ねて描いている。図17B図17Aと同様である。散布図右側の数値は楕円形を特定する中心座標、長短径のSDを示している。図17Aは推定結果のバラつきが小さい例であり、図17Bは推定結果のバラつきが大きい例である。ここで、Cx、Cy、Dx、Dyの各SDが20以下ならば自信度を高、20を超える項目が1つでも有るならば、自信度を低とする場合、図17Aに示す結果は、全てSDが20以下であるので、自信度が高と判定される。一方、図17Bに示す結果は、Cx及びDxのSDが20を超えているため、自信度が低と判定される。
【0050】
続いて、複数のゲート領域を推定した場合の自信度の判定例を示す。図18はゲート領域の推定結果例を示す説明図である。図18はゲートG1からG3の3つのゲート領域の推定結果が描かれている。各ゲート領域は5つの回帰モデルが出力したゲート領域を重ねて散布図上に描いている。散布図の下の表は各パラメータのSDを示している。ゲートG1及びG2は、全てのSDが20以下であるので、自信度は高と判定される。ゲートG3はCxのSDが20を超えているため、自信度が低と判定される。複数のゲート領域を推定する場合、全てのゲート領域の推定結果の自信度が高である場合、全体の自信度を高とし、ゲート領域の推定結果の自信度に1つでも低がある場合、全体の自信度を低とする。この定義で判定するならば、図18に示す推定結果は全体としては、自信度が低と判定される。
【0051】
次に、ゲート領域の推定結果の画面表示について説明する。図19A及び図19Bは推定結果表示画面の例を示す説明図である。図19Aは自信度が高であるときの画面例である。図19Bは自信度が低であるときの画面例である。推定結果表示画面は散布図191、自信度192、自信度アイコン193を含む。散布図191は散布図にゲート領域の推定結果を表示したものである。ここで、表示するゲート領域は、5つの回帰モデルが出力した5つの推定領域のうち、所定のアルゴリズムで選択された1つの領域である。自信度192は判定結果全体についての自信度を表示する。図19では、自信度:高をHighで、自信度:低をLowで表示している。自信度アイコン193は自信度を顔アイコンで表現している。自信度が高であれば、笑顔のアイコンを表示し、自信度が低であれば、困った顔のアイコンを表示する。なお、散布図191において、表示するゲート領域を、図13等と同様に5つの回帰モデルが出力した5つの推定領域全てとしてもよい。
【0052】
図20はID一覧画面の例を示す説明図である。ID一覧画面は、検査毎に付されるIDとゲート領域の推定結果の自信度とを対応付けて一覧表示する。ID一覧画面は、ID表示201と自信度表示202とを含む。ID表示201は例えば受付番号を表示する。自信度表示202は例えば自信度が高い場合にAを、自信度が低い場合にaを表示する。ID表示201の1つのIDを選択すると、図19に示した推定結果表示画面を表示する。
【0053】
本実施の形態では、ゲート領域の推定結果に自信度を付して出力する。それにより、自信度表示202を参照して、「A」は熟練度の高い検査士が優先して念入りにチェックする、間違っている可能性の高い「a」は時間を掛けて解析するなど、現場の運用環境に合わせた運用が可能となるという効果を奏する。
【0054】
本実施の形態において、各回帰モデルへ入力する散布図は1つとしたが、それに限らず2つ以上であってもよい。また、散布図は2次元に限らず、3次元以上であってもよい。
【0055】
散布度はゲート領域を表す図形のパラメータの標準偏差、楕円の場合は中心座標、長半径の長さの標準偏差としたが、それに限らない。5つの回帰モデルが推定したゲート領域の面積を散布度としても良い。例えば、散布図に5つの推定ゲート領域を重畳表示した場合に、5つの領域を包含する領域の面積と、5つが重なっている領域の面積とを算出し、前者の面積に占める後者の面積の割合を散布度とする。この場合、値が小さいほど、バラつきが大きいと判断する。1が最大値であり、5つの領域が全て一致するときである。
【0056】
(実施の形態2)
本実施の形態は、5つの回帰モデルが推定した5つのゲート領域のうち、ユーザに提示する1つのゲート領域を選択する手法に関する形態である。アンサンブル学習においては、複数の学習モデルの出力結果を組み合わせて最終的な結果を得る。アンサンブル学習では複数の学習モデルを用いるため、出力のぶれを低減させる効果がある。学習毎に精度のぶれが起きやすいニューラルネットワークにおいて、特に効果的であることが知られている。
【0057】
アンサンブル学習では、学習毎に精度のぶれが起きやすいニューラルネットワークにおいて特に効果的とされ、各種コンペで用いられる技術である。しかし、ゲート領域の推定を行う回帰モデルの出力は多出力であり、複合的に評価する必要がある。単純に複数のモデル間の平均などで各出力を組み合わせても精度は向上しにくい。異なる条件で学習した複数の回帰モデルそれぞれにより、ゲート領域を推定させた場合、学習の違いにより推定結果が異なる。そのため、各回帰モデルが出力した推定結果から各パラメータの平均値を求め、表示する最終的なゲート領域を決定した場合、検査士から見ると、散布図のどの部分を囲う目的のゲートであるのか不明瞭となる可能性が高い。そこで、本実施の形態では、5つの回帰モデルが推定した5つのゲート領域のうち、ユーザに提示する最適なゲート領域を1つ選択する。本実施の形態において、ハードウェア構成や第1回帰モデル1341から第5回帰モデル1345の生成処理等は、実施の形態1と同様である。以下の説明においては、主として実施の形態1と異なる点を説明する。
【0058】
準備工程は実施の形態1と同様であるので説明を省略する。以下、運用工程について説明する。図21はゲート領域推定処理の他の手順例を示すフローチャートである。図14に示した処理に、ゲート領域を選択するための処理が追加されている。制御部11は散布図を取得する(ステップS71)。制御部11は取得した散布図を各回帰モデルへ入力する(ステップS72)。制御部11は各回帰モデルがゲート領域の推定出力を取得する(ステップS73)。制御部11は外れ値を含むゲート領域を選択対象から外す(ステップS74)。5つの回帰モデルが出力したゲート領域の各パラメータについて、中央値を求める。1項目でも中央値から外れるゲート領域は選択対象から外す。なお、ステップS74は必須の処理ではなく省略してもよい。制御部11は、各ゲート領域について特徴量を算出する(ステップS75)。特徴量はゲート内の細胞数、ゲート領域の面積、ゲート内の細胞密度、ゲート内の細胞純度等である。特徴量については、後に補足する。制御部11は特徴量に基づき、最適ゲートを選択する(ステップS76)。制御部11は散布度を算出する(ステップS77)。制御部11は自信度の判定を行う(ステップS78)。ステップS77及びステップS78の内容は、実施の形態1と同様であるから説明を省略する。制御部11は選択したゲート領域及び自信度を記憶し(ステップS79)、ゲート領域推定処理を終了する。
【0059】
次に、外れ値を含むゲート領域を選択対象から外す例を示す。図22A及び図22Bは外れ値ゲート領域の除外例を示す説明図である。図22Aは5つの回帰モデルが出力したゲート領域を散布図に重畳したものである。ゲート領域のうち、ゲート領域Gjは他のゲート領域とは大きさが異なるため、外れ値を含むゲート領域として選択対象から外れる。図22Bは選択対象から外れたゲート領域Gjのみを表示した散布図である。
【0060】
続いて、特徴量の1つである細胞純度について説明する。検査において、各ゲート内に含まれる細胞種は基本的には一種であることが望ましい。凡その細胞種はFSC、SSC、CD45の情報から推測できる。そこで、細胞集団をFSC、SSC、FL3の情報から大まかにクラス分類し、対象ゲート内にどのクラスが最も多いか、またそのクラスの細胞の何割がゲート内に含まれるかを細胞純度と定義する。具体例には、FSC、SSC、FL3の分布において、3次元の自動クラスタリング手法、k-meansを適用し、n個の小集団を作る。nは自然数である。ここではn=10である。図23は10個の小集団の例を示す説明図である。五角形のマークはk-meansに用いられる各小集団の中心を示す。図23では横軸がSSC、縦軸がFL3の2次元表示となっているが、実際は紙面法線方向の軸がFSCである3次元のクラスタリングである。図23において、ゲート領域G内には、クラスCbの細胞が多い。そこで、ゲート領域Gの細胞純度は、クラスCbのうち、ゲート領域Gに含まれる割合とする。すなわち、対象ゲート領域に最も多く含まれるクラスの細胞を求め、対象ゲート領域に含まれる当該クラスの細胞数を当該クラスの細胞全体の数で除した値が、細胞純度である。
【0061】
図24はゲート選択処理の手順例を示すフローチャートである。ゲート選択処理は図21のステップS76に対応するものである。制御部11は細胞のクラスタリングを行う(ステップS91)。例えば上述のようにFSC、SSC、FL3の分布において、k-meansによる3次元の自動クラスタリングを行い、細胞を10個のクラスに分ける。制御部11は5つの回帰モデルそれぞれが出力した5つのゲート領域の中で処理対象とするゲート領域を選択する(ステップS92)。制御部11は選択したゲート領域内に含まれるクラス毎の細胞数を求め、細胞数が最多のクラスを特定する(ステップS93)。制御部11は細胞純度を算出する(ステップS94)。制御部11は未処理のゲート領域が有るか否かを判定する(ステップS95)。制御部11は未処理のゲート領域が有ると判定した場合(ステップS95でYES)、処理をステップS92に戻し、未処理のゲート領域についての処理を行う。制御部11は未処理のゲート領域がないと判定した場合(ステップS95でNO)、出力するゲート領域を選択する(ステップS96)。制御部11は、5つのゲート領域の中から、細胞純度が最大のゲート領域を選択する。制御部11はゲート選択処理を終了する。
【0062】
図25A及び図25Bはゲート領域の選択例を示す説明図である。図25Aは5つの回帰モデルが出力したゲート領域を散布図に重畳したものである。図25Aの右側の数値は、各ゲート領域の細胞純度を示す。ここでは、AI-3すなわち第3回帰モデル1343が出力したゲート領域の細胞純度が0.66で最も大きい値であるので、当該ゲート領域が選択される。図25Bは選択したゲート領域のみを重畳表示した散布図の例である。複数個のゲート領域を出力する場合も同様な処理で可能である。詳細については後述する。
【0063】
次に、細胞純度以外の特徴量について補足する。細胞数は、ゲート領域に含まれる細胞の数である。面積は、2次元の散布図におけるゲート領域を示す図形の面積である。細胞密度は細胞数を面積で除した値である。
【0064】
特徴量として、解析軸以外の測定値を用いてもよい。解析軸とは2次元表示する散布図の横軸、縦軸である。フローサイトメトリー検査では、全次元の測定値から細胞腫の判別を行う。よってゲート内においても他次元(解析軸以外)の測定値は、細胞腫を絞った最適なゲートを決めるための指標となりうる。
【0065】
上述の例では、解析軸はSSCとFL3(CD45)である。この場合、解析軸以外の測定値の例としては、FSC、FL1(CD34)である。このとき、FL1でCD34を測定し、その平均値を基準として、最適ゲートを選択する。例えば、AI-1の平均値が0.21、AI-2の平均値が0.16、AI-3の平均値が0.18、AI-4の平均値が0.20とする。AI-5が出力したゲート領域は外れ値ゲート領域として除外されている。このとき、AI-1が出力したゲート領域が選択される。
【0066】
特徴量として、画像情報を用いてもよい。ゲート内の細胞密度で最適ゲートを選択する場合、細胞分布の偏りに影響を受け適切なゲートを選択できない場合がある。これを避けるために分布状況を画像へ変換して特徴量を取得する。以下、処理例を説明する。散布図の内容を画像情報、ここでは輝度Lとして扱うために、細胞の存在する部分を黒ピクセル(L<255)、それ以外を白ピクセル(L=255)で表現する。
【0067】
図26は輝度情報によるゲート領域の選択例を示す説明図である。図26の上段左は、AI-1が出力したゲート領域を重畳表示した散布図である。図26の下段左はAI-1が出力したゲート領域の特徴量を示す。図26の上段右は、AI-2が出力したゲート領域を重畳表示した散布図である。図26の下段右は、AI-2が出力したゲート領域の特徴量を示す。なお、AI-3からAI-5が出力したゲート領域は、その特徴量がAI-1及びAI-2が出力したゲート領域のものよりも小さく、何れも選択される可能性はないものとする。図26の例において、選択すべきゲート領域は、AI-1が出力した領域である。
【0068】
図26の例において、ゲート領域を選択するための特徴量として細胞密度を採用した場合、AI-1は1.0、AI-2は1.1であるから、AI-2が出力したゲート領域が選択されてしまう。しかし、ゲート領域を選択するための特徴量として黒白比(=白ピクセル数/黒ピクセル数)を採用すると、AI-1は0.7、AI-2は0.5となり、AI-1が出力したゲート領域が選択される。図26の例では、細胞分布に偏りがあるため、特徴量として細胞密度を用いると、不適切な選択がされてしまう。黒白比は細胞密度をある程度反映しつつ、細胞数による影響を低減できるので、適切な選択結果となる。
【0069】
本実施の形態について、上述では、1つのゲート領域を得る場合を説明した。複数個のゲート領域を得るためには、処理の拡張が必要となるが、その拡張方法には2つの方法が考えられる。方法1は、全ゲートを出力する複数個のAIからひとつ最適な出力を選ぶ方法である。例えば、全てのゲート領域について、AI-1の出力した推定結果を選択する方法である。
【0070】
図27はゲート領域選択処理の他の手順例を示すフローチャートである。図27は1つの散布図に複数個のゲート領域を設定する場合の選択処理であり、上述の方法1による処理である。制御部11は処理対象とする回帰モデルを選択する(ステップS111)。制御部11は選択した回帰モデルが出力した複数ゲート領域のうち、処理対象とするゲート領域を選択する(ステップS112)。制御部11は選択したゲート領域の自信度を判定する(ステップS113)。自信度の判定は上述したとおりである。制御部11は自信度を一時記憶領域に記憶する(ステップS114)。制御部11は未処理のゲート領域があるか否かを判定する(ステップS115)。制御部11は未処理のゲート領域があると判定した場合(ステップS115でYES)、処理をステップS112に戻し、未処理のゲート領域についての処理を行う。制御部11は未処理のゲート領域がないと判定した場合(ステップS115でNO)、選択している回帰モデルが出力したゲート領域全体の自信度を判定する(ステップS116)。例えば、設定するゲート領域が3つであり、各ゲート領域の自信度が高、高、低の場合、高の個数2を全体の自信度とする。制御部11は自信度を一時記憶領域に記憶する(ステップS117)。制御部11は未処理対象の回帰モデルがあるか否かを判定する(ステップS118)。制御部11は未処理の回帰モデルがあると判定した場合(ステップS118でYES)、処理をステップS111に戻し、未処理の回帰モデルについての処理を行う。制御部11は未処理の回帰モデルがないと判定した場合(ステップS118でNO)、回帰モデル毎の自信度に基づき、回帰モデルを選択する(ステップS119)。制御部11は選択した回帰モデルが出力したゲート領域を出力し(ステップS120)、処理を終了する。
【0071】
方法2は、全ゲートを出力する複数個のAIから各ゲートにひとつ最適な出力を選ぶ方法である。例えば、第1ゲートはAI-1の出力した推定結果を選択し、第2ゲートはAI-4の出力した推定結果を選択し、第3ゲートはAI-5の出力した推定結果を選択する。方法1は、ひとつのAIが各ゲートを出力するため、ゲート間で重なることが少ないという長所が有る一方、ひとつのゲートがずれていると他ゲートもずれている可能性が高いという短所がある。方法2は、ゲート毎に選ぶため他ゲートのずれの影響は少ないという長所が有る一方、他ゲートの情報がない条件で選ぶとゲート同士が重なりやすいという短所がある。ただし、他ゲートの情報を工夫して加えることで当該短所の影響を軽減可能である。
【0072】
方法2における短所の影響を軽減する処理について説明する。ゲート選択において下記の条件を用いて、他ゲート情報を加えた場合とない場合での選択ゲートの比較を行う。条件1:最適ゲートを決める基準として特徴量「細胞純度」を用いる。条件2:有用度に従って、ゲートを選択する(一般的に解析ゲートには有用度があるため)。その際に他ゲートに含まれる細胞は特徴量の計算から除く。条件1のみを適用した場合と、条件1及び2を適用した場合とで、ゲートの選択を行う。何れか一方でゲートの重なりがなければ、当該選択結果を採用する。なお条件1における特徴量は、ゲート領域に関わるならば細胞純度以外の他の特徴量でも良い。
【0073】
図28はゲート領域選択処理の他の手順例を示すフローチャートである。図28は1つの散布図に複数個のゲート領域を設定する場合の選択処理であり、上述の方法2による処理である。制御部11は複数個のゲート領域の中で、処理対象とするゲート領域を選択する(ステップS131)。例えば、3個のゲート領域を設定する場合、それぞれを第1ゲート、第2ゲート、第3ゲートとする。順番号は検査結果の報告において重要性が大きい順などの有用度で定める。このとき、制御部11は第1ゲート、第2ゲート、第3ゲートの順に処理を行う。制御部11は処理対象とする回帰モデルを選択する(ステップS132)。制御部11は選択した回帰モデルが出力したゲート領域についての特徴量、例えば細胞純度を算出する(ステップS133)。制御部11は未処理の回帰モデルがあるか否かを判定する(ステップS134)。制御部11は未処理の回帰モデルがあると判定した場合(ステップS134でYES)、処理をステップS132に戻し、未処理の回帰モデルについての処理を行う。制御部11は未処理の回帰モデルがないと判定した場合(ステップS134でNO)、特徴量に基づき、いずれかの回帰モデルが出力したゲート領域の中から、最終的に出力するゲート領域を選択する(ステップS135)。制御部11は選択したゲート領域の情報を一時記憶領域に記憶する(ステップS136)。制御部11は未処理のゲート領域があるか否かを判定する(ステップS137)。制御部11は未処理のゲート領域があると判定した場合(ステップS137でYES)、処理をステップS131に戻し、未処理のゲート領域についての処理を行う。制御部11は未処理のゲート領域がないと判定した場合(ステップS137でNO)、一時記憶領域に記憶した選択情報に基づき、すべてのゲート領域を出力し(ステップS138)、処理を終了する。
【0074】
本実施の形態においては、複数の回帰モデルが出力したゲート領域の推定結果から、最適なゲート領域を選択することが可能となる。なお、上述の実施の形態では、LLAにおけるCD45ゲーティングを例としたが、悪性リンパ腫解析(MLA:Malignant Lymphoma Analysis)検査におけるCD45ゲーティングでも、同様な手順で実行可能である。
【0075】
各実施の形態で記載されている技術的特徴(構成要件)はお互いに組み合わせ可能であり、組み合わせすることにより、新しい技術的特徴を形成することができる。
今回開示された実施の形態はすべての点で例示であって、制限的なものではないと考えられるべきである。本発明の範囲は、上記した意味ではなく、請求の範囲によって示され、請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。
【符号の説明】
【0076】
10 フローサイトメータ
1 処理部
11 制御部
12 主記憶部
13 補助記憶部
131 測定値DB
132 特徴情報DB
133 ゲートDB
1341 第1回帰モデル
1342 第2回帰モデル
1343 第3回帰モデル
1344 第4回帰モデル
1345 第5回帰モデル
135 閾値DB
136 自信度DB
14 入力部
15 表示部
16 通信部
17 読み取り部
1P 制御プログラム
1a 可搬型記憶媒体
1b 半導体メモリ
2 測定部
3 学習サーバ
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11A
図11B
図12
図13A
図13B
図14
図15
図16A
図16B
図17A
図17B
図18
図19A
図19B
図20
図21
図22A
図22B
図23
図24
図25A
図25B
図26
図27
図28