(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公表特許公報(A)
(11)【公表番号】
(43)【公表日】2025-01-22
(54)【発明の名称】粒子分類のための方法及びシステム
(51)【国際特許分類】
G06T 7/00 20170101AFI20250115BHJP
G06V 10/82 20220101ALI20250115BHJP
G06V 20/69 20220101ALI20250115BHJP
G06N 3/0464 20230101ALI20250115BHJP
G06N 20/00 20190101ALI20250115BHJP
G01N 15/1433 20240101ALI20250115BHJP
G01N 21/17 20060101ALI20250115BHJP
【FI】
G06T7/00 350C
G06V10/82
G06V20/69
G06N3/0464
G06N20/00
G01N15/1433
G01N21/17 A
【審査請求】未請求
【予備審査請求】未請求
(21)【出願番号】P 2024535397
(86)(22)【出願日】2022-12-13
(85)【翻訳文提出日】2024-06-13
(86)【国際出願番号】 US2022081461
(87)【国際公開番号】W WO2023114776
(87)【国際公開日】2023-06-22
(32)【優先日】2021-12-14
(33)【優先権主張国・地域又は機関】US
(32)【優先日】2022-05-13
(33)【優先権主張国・地域又は機関】US
(81)【指定国・地域】
(71)【出願人】
【識別番号】597160510
【氏名又は名称】リジェネロン・ファーマシューティカルズ・インコーポレイテッド
【氏名又は名称原語表記】REGENERON PHARMACEUTICALS, INC.
(74)【代理人】
【識別番号】100105957
【氏名又は名称】恩田 誠
(74)【代理人】
【識別番号】100068755
【氏名又は名称】恩田 博宣
(74)【代理人】
【識別番号】100142907
【氏名又は名称】本田 淳
(72)【発明者】
【氏名】ナガルカッティ、アスラム
(72)【発明者】
【氏名】ラヴィ、シヴァ ナヴィーン
(72)【発明者】
【氏名】プラディープ、カウシク クリシュナ
(72)【発明者】
【氏名】フー、チンイェン
(72)【発明者】
【氏名】エルナンデス、マルコ
【テーマコード(参考)】
2G059
5L096
【Fターム(参考)】
2G059AA05
2G059BB09
2G059CC16
2G059FF01
2G059FF03
2G059HH01
2G059KK04
2G059MM01
2G059MM02
5L096AA06
5L096BA06
5L096BA18
5L096CA04
5L096DA01
5L096EA35
5L096FA19
5L096FA69
5L096HA11
5L096KA04
5L096MA07
(57)【要約】
粒子分類のための方法及びシステムが本明細書に提供される。医薬品、薬剤、薬物などの流体/試料の複数の画像が、1つ以上の機械学習モデルを使用して分析され得る。1つ以上の機械学習モデルは、例えば、畳み込みニューラルネットワークを含み得る。1つ以上の機械学習モデルは、各画像内の1つ以上のサブビジブル粒子を識別及び分類し得る。1つ以上の1つ以上のサブビジブル粒子は、例えば、細胞、病原体、タンパク質凝集体、シリコンオイル液滴、繊維、気泡、ガラス粒子、それらの組み合わせ、及び/又は同様のものを含み得る。
【選択図】
図1
【特許請求の範囲】
【請求項1】
方法であって、
コンピューティングデバイスによって、複数の入力画像を含む訓練データを受信することであって、前記複数の入力画像の各入力画像が、少なくとも1つのサブビジブル粒子(SVP)を含む、受信することと、
前記複数の入力画像に基づいて、複数の訓練画像を生成することであって、前記複数の訓練画像の各訓練画像が、少なくとも1つのSVPを含む、生成することと、
前記複数の訓練画像に基づいて、畳み込みニューラルネットワーク(CNN)を訓練することと、を含み、訓練された前記CNNが、1つ以上の試験画像において1つ以上のSVPを、第1のSVPタイプ又は第2のSVPタイプを含むものとして分類するように構成されている、方法。
【請求項2】
前記複数の入力画像が、医薬品に関連付けられた複数のフローイメージング顕微鏡画像を含む、請求項1に記載の方法。
【請求項3】
前記訓練データが、前記複数の入力画像に関連付けられた画像メタデータを含み、前記画像メタデータが、前記複数の入力画像の各入力画像における前記少なくとも1つのSVPの場所を示す、請求項1に記載の方法。
【請求項4】
前記少なくとも1つのSVPが、タンパク質粒子、シリコン粒子、繊維粒子、気泡、ガラス粒子、又は他の既知の粒子タイプを含むか、
前記少なくとも1つのSVPが、1.125~130マイクロメートルの範囲の等価円形直径を含むか、
前記複数の訓練画像の各訓練画像が、少なくとも64×64ピクセルのサイズを含むか、
前記第1のSVPタイプが、タンパク質を含むか、又は
前記第2のSVPタイプが、シリコンを含む、のうちの少なくとも1つである、請求項1に記載の方法。
【請求項5】
前記訓練されたCNNが、少なくとも3つの隠れ層を含む、請求項1に記載の方法。
【請求項6】
前記少なくとも3つの隠れ層の各隠れ層が、少なくとも3×3ピクセルのサイズを含む少なくとも1つのフィルタを含む、請求項5に記載の方法。
【請求項7】
前記CNNを訓練することが、複数のハイパーパラメータを判定することを更に含み、前記複数のハイパーパラメータが、64~256の範囲のバッチサイズ、又は5%~50%の範囲のドロップアウト率のうちの1つ以上を含む、請求項1に記載の方法。
【請求項8】
前記CNNを訓練することが、活性化関数を判定することを更に含み、前記活性化関数が、整流された線形単位活性化関数又は双曲線正接活性化関数を含む、請求項1に記載の方法。
【請求項9】
方法であって、
コンピューティングデバイスによって、少なくとも1つのサブビジブル粒子(SVP)を含む少なくとも1つの入力画像を受信することと、
前記少なくとも1つの入力画像に基づいて、少なくとも1つの前処理された画像を生成することと、
訓練された畳み込みニューラルネットワーク(CNN)によって、前記少なくとも1つの前処理された画像に基づいて、前記少なくとも1つのSVPの分類を判定することと、
前記訓練されたCNNによって、前記少なくとも1つのSVPの前記分類の表示を出力することと、を含む、方法。
【請求項10】
前記少なくとも1つの入力画像が、医薬品に関連付けられた少なくとも1つのフローイメージング顕微鏡画像を含む、請求項9に記載の方法。
【請求項11】
前記少なくとも1つの入力画像に関連付けられた画像メタデータを受信することを更に含み、前記画像メタデータが、前記少なくとも1つのSVPの場所を示す、請求項9に記載の方法。
【請求項12】
前記少なくとも1つの前処理された画像を生成することが、
前記少なくとも1つの入力画像を少なくとも64×64ピクセルにサイズ変更すること、又は
少なくとも1つのセグメンテーションアルゴリズムに基づいて、前記少なくとも1つのSVPの場所を判定すること、のうちの少なくとも1つを含む、請求項9に記載の方法。
【請求項13】
前記訓練されたCNNが、少なくとも3つの隠れ層を含み、前記少なくとも3つの隠れ層の各隠れ層が、少なくとも3×3ピクセルのサイズを含む少なくとも1つのフィルタを含む、請求項9に記載の方法。
【請求項14】
前記訓練されたCNNが、複数のハイパーパラメータを含み、前記複数のハイパーパラメータが、64~256の範囲のバッチサイズ、又は5%~50%の範囲のドロップアウト率のうちの1つ以上を含む、請求項9に記載の方法。
【請求項15】
前記訓練されたCNNが、活性化関数を含み、前記活性化関数が、整流された線形単位活性化関数又は双曲線正接活性化関数を含む、請求項9に記載の方法。
【請求項16】
方法であって、
コンピューティングデバイスによって、複数のサブビジブル粒子(SVP)を含む少なくとも1つの入力画像を受信することと、
前記少なくとも1つの入力画像に基づいて、複数の前処理された画像を生成することであって、前記複数の前処理された画像の各前処理された画像が、前記複数のSVPのうちの1つを含む、生成することと、
訓練された畳み込みニューラルネットワーク(CNN)によって、前記複数の前処理された画像に基づいて、前記複数のSVPの各SVPの分類を判定することと、
前記訓練されたCNNによって、前記複数のSVPの各SVPの前記分類の表示を出力することと、を含む、方法。
【請求項17】
少なくとも1つのセグメンテーションアルゴリズムに基づいて、前記複数のSVPの各SVPの場所を判定することを更に含む、請求項16に記載の方法。
【請求項18】
前記少なくとも1つの入力画像が、医薬品に関連付けられた少なくとも1つのフローイメージング顕微鏡画像を含む、請求項16に記載の方法。
【請求項19】
画像メタデータが、前記少なくとも1つのフローイメージング顕微鏡画像に関連付けられたメタデータを含む、請求項18に記載の方法。
【請求項20】
前記複数のSVPが、タンパク質粒子、シリコン粒子、繊維粒子、気泡、又はガラス粒子を含むか、
前記複数のSVPの各SVPが、1.125~130マイクロメートルの範囲の等価円形直径を含むか、又は
前記CNNが、各々が少なくとも64×64ピクセルのサイズを含む訓練画像を使用して訓練される、のうちの少なくとも1つである、請求項16に記載の方法。
【発明の詳細な説明】
【技術分野】
【0001】
関連出願の相互参照
本出願は、2021年12月14日出願の米国仮特許出願第63/289,489号、及び2022年5月13日出願の米国仮特許出願第63/341,775号、に対する優先権を主張するものであり、これらはいずれも、参照することによりその全体が本明細書に組み込まれる。
【背景技術】
【0002】
医薬品中のサブビジブル粒子(SVP)のモニタリングは、ある特定のSVPタイプの免疫原性のために重要である。ある特定のSVPは、数千から数百万の分子の凝集体を表し得るため、医薬品中のSVPの存在は、臨床性能並びに患者の安全性に悪影響を及ぼし得る。既存の方法及びシステムは、医薬品におけるSVPのある特定のタイプ及びサイズを効率的に識別しない。これら及び他の考慮事項を、本明細書で考察する。
【発明の概要】
【0003】
以下の一般的な説明及び以下の詳細な説明は両方とも、あくまで例示的かつ説明的なものにすぎず、限定的なものではないことを理解されたい。本明細書において、粒子分類のための方法及びシステムが記載される。これらの方法及びシステムは、医薬品(例えば、薬剤、薬物、抗体製剤など)の範囲に存在し得るサブビジブル粒子(「SVP」)を検出及び分類するために使用され得る。例えば、医薬品の試料の1つ以上の画像は、フローイメージング顕微鏡(「FIM」)システムによって捕捉され得る。FIMシステムは、試料内に存在する任意のSVPを検出し得る。FIMシステムは、1つ以上の画像内の検出された各SVPの場所を示すメタデータを生成し得る。追加的に、又は代替的に、別のシステム又はデバイスは、(例えば、セグメンテーションアルゴリズムを使用して)SVPを検出し得る。
【0004】
1つ以上の画像は、機械学習モデル(例えば、分類指標)を使用して分析され得る。機械学習モデルは、畳み込みニューラルネットワーク(CNN)を含み得る。CNNは、1つ以上の画像(及び任意選択でメタデータも)を入力として受信し、1つ以上の画像内の各SVPを分類し得る。CNNは、サイズ、タイプなどに従って各SVPを分類し得る。追加の利点は、後に続く説明の中で部分的に述べられるか、又は実践によって学ぶ場合がある。これらの利点は、添付の特許請求の範囲において特に指摘されている要素及び組み合わせによって実現され、達成されるであろう。
【図面の簡単な説明】
【0005】
本明細書において援用され、かつ本明細書の一部をなす添付の図面は、開示される方法及び構成のいくつかの実施形態を例解し、説明とともに、開示される方法及び構成の原理を説明するのに役立つ。
【
図8】例示的な畳み込みニューラルネットワークを示す。
【発明を実施するための形態】
【0006】
本明細書及び添付の特許請求の範囲で使用される場合、単数形「a」、「an」、及び「the」は、文脈上特に指示されていない限り、複数の参照語を含む。本明細書では、範囲は、「約」1つの特定の値から、及び/又は「約」別の特定の値までとして表現されてもよい。そのような範囲が表現されるときに、別の構成は、1つの特定の値から、及び/又は別の特定の値までを含む。同様に、値が近似値として表現される場合、先行詞「約」の使用により、特定の値が別の構成を形成することが理解されるであろう。これらの範囲の各々の終点は、他の終点と関連して、かつ他の終点とは独立して有意であることが更に理解されるであろう。
【0007】
「任意選択の」又は「任意選択に」は、その後に記載する事象又は状況が生じても生じなくてもよいこと、並びにこの説明が、該事象又は状況が生じる場合及び生じない場合を含むことを意味する。
【0008】
この明細書の説明及び特許請求の範囲を通じて、語「含む(comprise)」及びこの語の変形、例えば「含む(comprising)」及び「含む(comprises)」などは、「~を含むがこれに限定されない」を意味し、例えば、他の構成要素、整数、又はステップを除外することを意図するものではない。「例示的な」は、「~の一例」を意味し、好ましい構成又は理想的な構成の表示を伝達することを意図するものではない。「など」は、限定的な意味で使用されるものではなく、説明を目的に使用される。
【0009】
構成要素の組み合わせ、サブセット、相互作用、群などが開示される場合、これらの構成要素の各様々な個別的及び集合的な組み合わせ及び並べ替えについての具体的な言及は明示的に記載されていない場合があるが、各々が本明細書に具体的に企図かつ記載されることが理解される。これは、記載の方法におけるステップを含むがこれらに限定されない、本出願の全ての部分に適用される。したがって、実施され得る様々な追加のステップが存在する場合、これらの追加のステップの各々は、記載の方法の任意の特定の構成又は構成の組み合わせで実施されてもよいことが理解される。
【0010】
当業者には理解されるように、ハードウェア、ソフトウェア、又はソフトウェア及びハードウェアの組み合わせが実装され得る。更に、記憶媒体に具現化されたプロセッサ実行可能命令(例えば、コンピュータソフトウェア)を有するコンピュータ可読記憶媒体(例えば、非一時的)上のコンピュータプログラム製品を実装し得る。ハードディスク、CD-ROM、光学記憶デバイス、磁気記憶デバイス、記憶抵抗器、不揮発性ランダムアクセスメモリ(NVRAM)、フラッシュメモリ、又はそれらの組み合わせを含む、任意の好適なコンピュータ可読記憶媒体を利用し得る。
【0011】
本出願全体を通して、ブロック図及びフローチャートに対する参照がなされる。ブロック図及びフローチャートの各ブロック、並びにブロック図及びフローチャートのブロックの組み合わせはそれぞれ、プロセッサ実行可能命令によって実装され得ることが理解されるであろう。これらのプロセッサ実行可能命令は、汎用コンピュータ、特殊用途向けコンピュータ、又は他のプログラム可能データ処理装置にロードされて、マシンを作り出し得、その結果、コンピュータ又は他のプログラム可能データ処理装置上で実行されるプロセッサ実行可能命令が、フローチャートの単一又は複数のブロックにおいて特定された機能を実装するためのデバイスを創出する。
【0012】
これらのプロセッサ実行可能命令はまた、コンピュータ又は他のプログラム可能データ処理装置が特定の様式で機能するように指示し得るコンピュータ可読メモリ内に記憶されてもよく、その結果、コンピュータ可読メモリ内に記憶されるプロセッサ実行可能命令が、フローチャートの単一又は複数のブロックにおいて特定された機能を実装するためのプロセッサ実行可能命令を含む製造品を作り出す。プロセッサ実行可能命令はまた、コンピュータ又は他のプログラム可能データ処理装置にロードされて、コンピュータ又は他のプログラム可能装置上で一連の操作ステップが実施されて、コンピュータ実装プロセスを作り出し得、その結果コンピュータ又は他のプログラム可能装置上で実行されるプロセッサ実行可能命令が、フローチャートの単一又は複数のブロックにおいて特定された機能を実装するためのステップを提供する。
【0013】
ブロック図及びフローチャートのブロックは、特定された機能を実施するためのデバイスの組み合わせ、特定された機能を実施するためのステップの組み合わせ、及び特定された機能を実施するためのプログラム命令手段をサポートする。ブロック図及びフローチャートの各ブロック、並びにブロック図及びフローチャートのブロックの組み合わせは、特定された機能若しくはステップを実施する特殊用途向けハードウェアベースのコンピュータシステム、又は特殊用途向けハードウェアとコンピュータ命令との組み合わせによって実装され得ることもまた理解されるであろう。
【0014】
粒子分類のための方法及びシステムが本明細書に記載される。本方法及びシステムは、種々の医療及び医薬用途に対して、ハイスループットフローイメージング技術及び機械学習を組み合わせ得る。こうした用途には、医薬品(例えば、薬剤、薬物、抗体製剤など)の流体/試料の画像中の汚染物質及び/又は予想外の粒子の検出及び分類が含まれる。画像は、フローイメージング顕微鏡(「FIM」)システムから受信され得る。画像は、1つ以上の畳み込みニューラルネットワーク(CNN)などの1つ以上の機械学習モデルを使用して分析され得る。
【0015】
画像(以下、「FIM画像」)は、単独では(例えば、顕微鏡又は他の器具の助けなしには)観察できない場合がある、様々なサイズ及びタイプのサブビジブル粒子(「SVP」)を含み得る。例示的なSVPとしては、細胞、病原体、タンパク質凝集体、シリコンオイル液滴、繊維、気泡、ガラス粒子、それらの組み合わせ、及び/又は同様のものが挙げられるが、これらに限定されない。医薬品中のSVPの存在は、有効性、安全性、標準化などにとって望ましくない場合がある。したがって、本方法及びシステムは、医薬品中に存在し得るSVPを検出及び分類し得る。
【0016】
各FIM画像内の各SVPは、1つ以上の機械学習モデルを使用して分類され得る。FIM画像は、各FIM画像中の各未分類粒子の場所を示すメタデータと関連付けられ、非SVPを含む場合がある。メタデータは、FIM画像を捕捉したFIMシステムによって生成されている場合がある。追加的に、又は代替的に、別のシステム又はデバイスは、(例えば、セグメンテーションアルゴリズムを使用して)FIM画像内の粒子を検出し得る。例えば、各FIM画像中の各粒子の場所は、1つ以上の画像セグメンテーションアルゴリズムを使用して判定され得る。
【0017】
FIM画像中の各未分類粒子は、最初に、1つ以上の機械学習モデルによって、SVP(又は特定のSVPタイプ)又は非SVPとして分類され得る。追加的に、又は代替的に、各FIM画像中の各SVP及び/又は各非SVPの初期分類及び/又は場所は、メタデータによって示され得る。FIM画像中の非SVPは無視され得、一方でFIM画像中のSVPは、サイズ及び/又はタイプに従って更に分類され得る。例えば、SVPの各々は、その等価円形直径(ECD)サイズに基づいて分類され得る。SVPは、複数のSVPタイプの各々に対する複数の特徴に従って、1つ以上の機械学習モデルによって更に分類され得る。例えば、1つ以上の機械学習モデルは、特定のタイプのSVPを示すFIM画像の1つ以上の特徴(例えば、タンパク質粒子を示す特徴)に基づいて、少なくとも1つのSVPを分類するように訓練され得る。
【0018】
1つ以上の機械学習モデルは、CNNを含み得る。CNNは、各FIM画像に適用され得る少なくとも1つのフィルタを備え得る。少なくとも1つのフィルタは、例えば3×3ピクセルのサイズを含み得る。一部の実施例では、訓練及び/又は試験のための各FIM画像は、CNNに提供される前に前処理され得る。例えば、各FIM画像は、64×64ピクセルなどの均一なサイズにサイズ変更され得る。他の実施例も可能である。少なくとも1つのフィルタは、CNNによって各リサイズされたFIM画像に適用され得る。
【0019】
CNNは、複数のハイパーパラメータと、各隠れ層のための少なくとも1つの活性化関数と、を含み得る。複数のハイパーパラメータは、例えば、バッチサイズ、ドロップアウト率、エポック数、カーネルサイズ、ストライド、パディングなどを含み得る。少なくとも1つの活性化関数は、例えば、整流された線形単位活性化関数又は双曲線正接活性化関数を含み得る。他の実施例も可能である。
【0020】
CNNは、訓練データセットを使用して訓練され得る。訓練データセットは、複数のFIM画像及び対応するメタデータを含み得る。この対応するメタデータは、初期分類(例えば、SVP若しくは非SVP、SVPタイプA若しくはSVPタイプBなど)、及び/又は各FIM画像中の各粒子の場所を示し得る。一部の実施例では、CNNは、対応するメタデータなしで(例えば、複数のFIM画像のみを使用して)訓練され得ることが理解されるべきである。各FIM画像中の少なくとも1つの粒子の場所はまた、CNN及び/又は別のモデルによって使用される1つ以上の画像セグメンテーションアルゴリズム(例えば、凝集クラスタリング、水流変換など)によって判定され得る。訓練データセット内の複数のFIM画像は、複数のSVPタイプ及び/又はサイズを含み得る。一部の実施例では、訓練データセットの各FIM画像は、1つのSVPのみ、及び/又は1つのSVPタイプのみ、及び/又は1つのSVPサイズのみを含み得る。他の実施例では、訓練データセットの各FIM画像は、複数のSVP及び/又は複数のSVPタイプ及び/又は複数のSVPサイズを含み得る。少なくとも1つのフィルタは、CNNによって訓練データセットの各FIM画像に適用されて、複数のSVPタイプの各々に対応する複数の特徴を判定し得る。訓練データセットで訓練する前に、CNNの少なくとも1つのパラメータは、別の訓練データセット(例えば、「伝達学習」)で訓練された別のCNNに関連付けられたその少なくとも1つのパラメータの値で初期化され得る。
【0021】
CNNは、試験データセットを使用して試験され得る。試験データセットは、複数のFIM画像及び対応するメタデータを含み得る。この対応するメタデータは、初期分類(例えば、SVP若しくは非SVP、SVPタイプA若しくはSVPタイプBなど)、及び/又は各FIM画像中の各粒子の場所を示し得る。一部の実施例では、CNNは、対応するメタデータなしで(例えば、複数のFIM画像のみを使用して)試験され得ることが理解されるべきである。各FIM画像中の少なくとも1つの粒子の場所はまた、CNN及び/又は別のモデルによって使用される1つ以上の画像セグメンテーションアルゴリズム(例えば、凝集クラスタリング、水流変換など)によって判定され得る。試験データセット内の複数のFIM画像は、複数のSVPタイプ及び/又はサイズを含んでもよく、これは、訓練データセット内のタイプ及び/又はサイズと異なっていてもよく、異なっていなくてもよい。一部の実施例では、試験データセットの各FIM画像は、1つのSVPのみ、及び/又は1つのSVPタイプのみ、及び/又は1つのSVPサイズのみを含み得る。他の実施例では、試験データセットの各FIM画像は、複数のSVP及び/又は複数のSVPタイプ及び/又は複数のSVPサイズを含み得る。
【0022】
CNNは、試験データセット内の各FIM画像内の各SVPを分類し得る。例えば、少なくとも1つのフィルタは、CNNの各層において試験データセット内の各FIM画像に適用されてもよい。CNNは、少なくとも1つのSVPのタイプを示す1つ以上の特徴に基づいて、試験データセット内の各FIM画像内の少なくとも1つのSVPを分類し得る。分類は、「タンパク質かタンパク質でないか」、「シリコンかシリコンでないか」、「タンパク質か繊維か」などの二項分類、又は「シリコン、若しくは気泡、若しくはガラス片」などの多クラス分類を含み得る。分類は、少なくとも1つのSVPが特定のタイプであるというスコア又は信頼レベル(例えば、少なくとも1つのSVPがタンパク質粒子であるという90%の信頼性)を含み得る。他の実施例も可能である。
【0023】
ここで
図1を参照すると、粒子分類のための例示的なシステム100が示されている。システム100は、フローイメージング顕微鏡(「FIM」)システムの一部であり得るコンピューティングデバイス102を備え得る。コンピューティングデバイス102は、収集モジュール104及び画像処理モジュール106を備え得る。収集モジュール104は、フローイメージング顕微鏡、静止画像カメラ、ビデオカメラ、赤外線カメラ、光学センサ、それらの組み合わせ、及び/又は同様のもののために構成されているカメラ及び/又は顕微鏡などの撮像デバイスを備え得る。コンピューティングデバイス102は、ネットワーク106を介してクライアントデバイス112及び/又はサーバ110と通信してもよい。一部の実施例では、クライアントデバイス112及びサーバ110は、単一のデバイス(図示せず)であってもよい。ネットワーク106は、通信のために種々のネットワーク経路、プロトコル、デバイス、及び/又は同様のものを使用するように構成されてもよい。ネットワーク106は、システム100に示されるデバイスの各々を接続する複数の通信リンクを有してもよい。ネットワーク106は、光ファイバネットワーク、同軸ケーブルネットワーク、ハイブリッドファイバ同軸ネットワーク、無線ネットワーク、衛星システム、直接ブロードキャストシステム、イーサネットネットワーク、高解像度マルチメディアインターフェースネットワーク、ユニバーサルシリアルバス(USB)ネットワーク、又はそれらの任意の組み合わせであってもよい。
【0024】
クライアントデバイス112は、コンピューティングデバイス、モバイルデバイス、スマートデバイス、それらの組み合わせ、及び/又は同様のものを備え得る。サーバ110は、記憶モジュール110A(例えば、記憶媒体)、撮像処理モジュール110B、及び機械学習モジュール110Cを備える、1つ以上のコンピューティングデバイスを備えてもよい。クライアントデバイス112は、サーバ110の態様と通信及び/又は制御するように構成されているアプリケーションモジュール113を備え得る。例えば、アプリケーションモジュール113は、サーバ110(及びそのモジュール)に、本明細書に記載されるステップ及びプロセスを実施させるように構成されてもよい。
【0025】
システム100は、サブビジブル粒子(「SVP」)の分類のために構成されてもよい。本明細書で使用される場合、「粒子」という用語は、タンパク質又はシリコンの凝集体、ほこり、カビ胞子、細胞、細胞群、繊維、物質の小さい塊、生物、組織、生物学的物質、鉱物、気泡、ガラス片、それらの組み合わせ、及び/又は同様のものなどの物質又は材料の任意の部分を意味する。コンピューティングデバイス102は、高スループットフローイメージング技術を使用して、収集モジュール104及び画像処理モジュール106を介してSVPを含む試料/流体の画像を捕捉し得る。例えば、コンピューティングデバイス102は、FIMシステム(図示せず)のフローセルを通してポンプ注入され得る試料/流体の画像を捕捉するように構成され得る。一部の実施例では、収集モジュール104は、試料/流体内の粒子を含む画像を捕捉し得るデジタル顕微鏡を備え得る。収集モジュール104は、フローセル(図示せず)を通って流れる際に、各試料/流体の連続画像/フレームを捕捉し得る。
【0026】
試料/流体は、医薬品(例えば、薬剤、薬物、抗体製剤など)を含んでもよい。このような画像(以下、「FIM画像」)は、単独では(例えば、顕微鏡又は他の器具の助けを借りなければ)観察できない場合がある多様なタイプのSVPを含み得る。例示的なSVPとしては、細胞、病原体、タンパク質凝集体、シリコンオイル、繊維、気泡、ガラス粒子、それらの組み合わせ、及び/又は同様のものが挙げられるが、これらに限定されない。医薬品中のSVPの存在は、有効性、安全性、標準化などにとって望ましくない場合がある。したがって、システム100は、FIM画像内のSVPを検出及び分類するように構成され得る。
【0027】
コンピューティングデバイス102の収集モジュール104によって捕捉されたFIM画像は、画像処理モジュール106によってメタデータ(又は別個のメタデータが生成され得る)が付加され得る。例えば、画像処理モジュール106は、潜在的に非SVPを含む各FIM画像中の粒子の数、及び/又は各FIM画像中の各粒子の各場所の表示を示すメタデータをFIM画像に付加する(又は別途生成する)場合がある。FIM画像及びメタデータは、記憶のためにネットワーク108を介してサーバ110に送信され得る。例えば、コンピューティングデバイス102は、FIM画像及びメタデータを、記憶のためにサーバ110の記憶モジュール110Aに送信してもよい。本明細書に更に記載するように、クライアントデバイス112は、サーバ110の機械学習モジュール110Cに、例えば、FIM画像自体及び関連するメタデータに基づいて、FIM画像内のSVPを分類させてもよい。
【0028】
ここで
図2を参照すると、様々なサイズのタンパク質及びシリコンSVPを描写する例示的な画像202A、202B、204A、204B、206A、206Bが示されている。SVPは、それらの等価円形直径(ECD)サイズに基づいて分類され得る。SVPのECDは、例えば、マイクロメートル(μm)で測定されてもよい。本明細書に記載されるFIM画像に描写されるSVPのECDは、例えば、およそ1.125μm~130μm超の範囲であり得る。例示的なECDサイズには、非常に小さいECD(<2μm)(図示せず)、小さいECD(>=2μm及び<10μm)(202A、202B)、中程度のECD(>=10μm及び<=25μm)(204A、204B)、及び大きいECD(>=25μm)(206A、206B)が含まれ得る。他の実施例サイズも可能である。
【0029】
本明細書に更に記載するように、クライアントデバイス112は、サーバ110の機械学習モジュール110Cに、例えば、FIM画像自体及び関連するメタデータに基づいて、FIM画像においてSVPを分類させてもよい。一部の実施例では、機械学習モジュール110Cは、対応するメタデータなしで(例えば、FIM画像のみを使用して)、FIM画像内のSVPを分類し得ることが理解されるべきである。説明の目的で、本明細書の記載は、サーバ110の撮像処理モジュール110Bを、FIM画像を受信及び分析するモジュールとして説明するが、画像処理モジュール106は、同様に、コンピューティングデバイス102によって捕捉されたFIM画像のいずれかを受信及び処理し得ることが理解されるべきである。
【0030】
機械学習モジュール110Cは、1つ以上の機械学習モデル、人工知能モデル、それらの組み合わせ、及び/又は同様のものを含み得る。例えば、機械学習モジュール110Cは、畳み込みニューラルネットワーク、画像分類モデル、セグメンテーションモデル、統計アルゴリズムなどを使用してもよく、又はそれを含んでもよい。一部の実施例では、機械学習モジュール110C(又はシステム100の別のモジュール又はデバイス)は、関連するメタデータによって示されていないFIM画像内の任意の粒子を分類し得る。例えば、FIM画像中の粒子は、最初に、機械学習モジュール110Cによって、SVP(又は特定のSVPタイプ)又は非SVPであると分類され得る。追加的に、又は代替的に、各FIM画像中の各SVP及び/又は各非SVPの初期分類及び/又は場所は、関連するメタデータによって示され得る。FIM画像中の非SVPは、検出/分類されると、無視され得るが、FIM画像中のSVPは、タイプ(例えば、タンパク質又はシリコン)によって更に分類/識別され得る。例えば、本明細書に更に記載するように、機械学習モジュール110Cは、各SVPのタイプを示す特徴に基づいて、FIM画像においてSVPを分類するように構成され得る(例えば、訓練され得る)。分類は、「タンパク質かタンパク質でないか」、「シリコンかシリコンでないか」、「タンパク質か繊維か」などの二項分類、又は「シリコン、若しくは気泡、若しくはガラス片」などの多クラス分類であり得る。分類は、対応するSVPが特定のタイプであるというスコア又は信頼レベル(例えば、SVPがタンパク質粒子であるという90%の信頼)を含み得る。他の実施例も可能である。
【0031】
例示的なFIM画像を、
図3A~
図4Bに示す。
図3A及び
図3Bは、例示的なFIM画像302及び304を示す。FIM画像302及び304の各々は、本明細書に更に記載される方法を使用して、機械学習モジュール110Cによって分類され得る、タンパク質SVP302A及び304Aをそれぞれ含む。
図4A及び
図4Bは、例示的なFIM画像402及び404を示す。FIM画像404は、いかなる検出可能なSVPも含まなくてもよい。しかしながら、FIM画像402は、本明細書に更に説明される方法を使用して機械学習モジュール110Cによって分類され得る、1つ以上のシリコンSVP406Aを含み得る。
【0032】
機械学習モジュール110Cは、本明細書に更に記載するように、少なくとも1つのフィルタを使用して、FIM画像のSVPを検出するように構成され得る。少なくとも1つのフィルタは、各FIM画像を一度に1部分ずつ表示/分析する「スライディングウィンドウ」とみなされ得る。
図5Aは、例示的なFIM画像502及びスライディングウィンドウ504(例えば、少なくとも1つのフィルタ)を示す。機械学習モジュール110Cは、スライディングウィンドウ504を使用して、FIM画像502にわたって、FIM画像502の各部分に存在し得るSVPを分類し得る。例えば、機械学習モジュール110Cは、画像処理モジュール110Bに、スライディングウィンドウ504及びFIM画像502の複数の領域内の複数のSVPを検出するための1つ以上のセグメンテーションアルゴリズム/技法を使用して、FIM画像502を分析させ得る。別の実施例として、機械学習モジュール110Cは、FIM画像502に関連付けられたメタデータを使用して、画像処理モジュール110Bに、スライディングウィンドウ504を使用してFIM画像502の特定の部分を分析させてもよい。FIM画像502の特定の部分は、メタデータによって示されてもよく(又は示されなくてもよい)、SVPの場所に対応してもよい。
【0033】
スライディングウィンドウ504を使用してFIM画像502を分析する画像処理モジュール110Bの例示的な結果を、
図5Bに出力画像506として示されている。少なくとも1つのフィルタは、各FIM画像を一度に1部分ずつ表示/分析する「スライドウィンドウ」とみなされ得る。例えば、スライディングウィンドウ504は、FIM画像502のコーナーにおいて開始し、FIM画像502の領域内の任意のSVPの表示を出力し得る。分類は、SVPの存在及び/又はタイプの表示を含み得る。スライディングウィンドウ504は、FIM画像502の各部分を「ループ」又は「わたる」場合があり、SVPが存在する領域508を示してもよい。
【0034】
一部の実施例では、領域508の各々を含むトリミングされた画像は、画像処理モジュール110Bによって生成され、機械学習モジュール110Cによる更なる分析(例えば、SVPタイプの分類)のために記憶モジュール110Aによって記憶され得る。他の実施例では、領域508の各々を含む注釈付き/標識された画像は、画像処理モジュール110Bによって生成され、機械学習モジュール110Cによる更なる分析(例えば、SVPタイプの分類)のために記憶モジュール110Aによって記憶され得る。
【0035】
ここで
図6を参照すると、機械学習モジュール630を訓練するためのシステム600が示されている。機械学習モジュール630は、機械学習モジュール110Cを含んでもよい。機械学習モジュール630は、システム600の訓練モジュール620によって訓練されて、FIM画像内でSVPを分類し得る。例えば、訓練モジュール620は、機械学習(「ML」)技法を使用して、1つ以上の訓練データセット610の分析に基づいて、MLモジュール630を訓練し得る。一部の実施例では、訓練データセット610で訓練する前に、バッチサイズ、ドロップアウト率、エポック数、カーネルサイズ、ストライド、パディングなどの機械学習モジュール630の少なくとも1つのパラメータは、別の訓練データセット(例えば、「伝達学習」)で訓練された別の機械学習モジュール(例えば、別のMLモデル、別のCNNなど)に関連付けられたその少なくとも1つのパラメータの値で初期化されてもよい。
【0036】
訓練データセット610は、任意の数のデータセット又はサブセット610~610Nを含んでもよい。例えば、訓練データセット610は、第1の訓練データセット610A及び第2の訓練データセット610Bを含んでもよい。第1の訓練データセット610Aは、第1の複数のFIM画像を含み得る。
図6に示すように、第1の訓練データセット610A(例えば、第1の複数のFIM画像)は、複数のSVPサイズ(例えば、非常に小さいECDから大きいECDまで)を含んでもよい。一部の実施例では、第1の複数のFIM画像の各FIM画像は、1つのSVPのみ、及び/又は1つのSVPタイプのみ、及び/又は1つのSVPサイズのみを含み得る。他の実施例では、第1の複数のFIM画像は各々、複数のSVP及び/又は複数のSVPタイプ及び/又は複数のSVPサイズを含み得る。第2の訓練データセット610Bは、第2の複数のFIM画像を含み得る。第2の複数のFIM画像は、複数のSVPサイズ(例えば、非常に小さいECDから大きいECDまで)を含んでもよく、これは、第1の複数のFIM画像のサイズと異なっても異なっていなくてもよい。一部の実施例では、第2の複数のFIM画像の各FIM画像は、1つのSVPのみ、及び/又は1つのSVPタイプのみ、及び/又は1つのSVPサイズのみを含み得る。他の実施例では、第2の複数のFIM画像は各々、複数のSVP及び/又は複数のSVPタイプ及び/又は複数のSVPサイズを含み得る。
【0037】
第1の訓練データセット610B又は第2の訓練データセット610Bの一方又は両方のサブセットは、試験データセットに無作為に割り当てられてもよい。一部の実装形態では、試験データセットへの割り当ては完全に無作為ではない場合がある。この場合、1つ以上の基準が、割り当て中に使用され得る。一般に、特定のサイズ及び/又はタイプのSVPを含むFIM画像の分布が、訓練及び試験目的のために適切に割り当てられていることを確実にする一方で、任意の好適な方法を使用して、データを試験データセットに割り当てる場合がある。
【0038】
訓練モジュール620は、1つ以上の特徴選択技法に従って訓練データセット610のFIM画像から特徴セットを抽出することによって、MLモジュール630を訓練し得る。例えば、訓練モジュール620は、統計的に有意な特徴を含む訓練データセット610から特徴セットを抽出することによって、MLモジュール630を訓練してもよい。訓練モジュール620は、種々の方法で、訓練データセット610から特性セットを抽出してもよい。訓練モジュール620は、異なる特徴抽出技法を使用して、各回に特徴抽出を複数回実施し得る。実施例では、異なる技法を使用して生成される特徴セットは各々が、異なる機械学習ベースの分類モデル640A~640Nを生成するために使用されてもよい。例えば、最も高い品質の測定基準を伴う特徴セットが、訓練における使用のために選択され得る。訓練モジュール620は、特徴セットを使用して、種々のSVPを分類するように構成されている1つ以上の機械学習ベースの分類モデル640A~640Nを構築してもよい。
【0039】
訓練データセット610を分析して、標識されていないFIM画像(例えば、SVPタイプ及び/又は存在を示さないもの)における判定された特徴と、訓練データセット610における標識されたFIM画像の特徴との間の任意の依存性、関連付け、及び/又は相関を判定してもよい。識別された相関は、特徴のリストの形態を有してもよい。本明細書で使用される場合、「特徴」という用語は、データのある項目が、1つ以上の特定のカテゴリー内にあるかどうかを判定するために使用され得るデータの項目の任意の特徴を指してもよい。特徴選択技術は、1つ以上の特徴選択ルールを含んでもよい。1つ以上の特徴選択ルールは、特徴発生ルールを含んでもよい。特徴発生ルールは、訓練データセット610においていずれの特徴が閾値の回数にわたって生じるかを判定すること、及び特徴として閾値を満たすそれらの特徴を識別することを含み得る。
【0040】
単一の特徴選択ルールが、特徴を選択するために適用されてもよいし、複数の特徴選択ルールが、特徴を選択するために適用されてもよい。特徴選択ルールは、カスケード方式で適用されてもよく、この際、特徴選択ルールは、特定の順序で適用され、以前のルールの結果に適用される。例えば、特徴発生ルールは、訓練データセット610に適用されて、第1の特徴のリストを生成してもよい。特徴の最終リストは、1つ以上の特徴群(例えば、SVPを分類するために使用され得る特徴の群)を判定するための追加の特徴選択技法により分析されてもよい。任意の好適な計算技術を使用して、フィルタ方法、ラッパ方法、及び/又は埋め込み方法などの任意の特徴選択技法を使用して、特徴群を識別し得る。1つ以上の特徴群は、フィルタ方法に従い選択されてもよい。フィルタ方法には、例えば、ピアソンの相関、線形判別分析、分散分析(ANOVA)、カイ二乗、それらの組み合わせ、及び同様のものが含まれる。フィルタ方法に従った特徴の選択は、任意の機械学習アルゴリズムから独立している。代わりに、特徴は、転帰変数との相関について、様々な統計検定におけるスコアに基づいて選択され得る。
【0041】
別の実施例として、1つ以上の特徴群は、ラッパ方法に従って選択されてもよい。ラッパ方法は、特徴のサブセットを使用し、特徴のサブセットを使用してMLモジュール630を訓練するように構成され得る。以前のモデルから引き出された推論に基づいて、特徴は、サブセットから追加及び/又は削減され得る。ラッパ方法は、例えば、前方特徴量選択、後方特徴量削減、再帰的特徴量削減、それらの組み合わせ、及び同様のものを含む。実施例として、前方特徴量選択を使用して、1つ以上の特徴群を識別してもよい。前方特徴量選択は、対応する機械学習モデルにおける特徴なしに始まる反復方法である。各反復では、モデルを最良に改善する特徴が、新たな変数の追加によって機械学習モデルの性能が改善されなくなるまで加えられる。実施例として、後方削減を使用して、1つ以上の特徴群を識別してもよい。後方削減は、機械学習モデルにおける全ての特徴で始まる反復方法である。各反復では、最下位の特徴が、特徴の削除時に改善が観察されなくなるまで除去される。再帰的特徴量削減を使用して、1つ以上の特徴群を識別してもよい。再帰的特徴量削減は、性能が最良である特徴サブセットを見出すことを目指す貪欲最適化アルゴリズムである。再帰的特徴量削減によって、モデルが反復的に作成され、各反復において最良又は最悪の性能の特徴を別にしておく。再帰的特徴量削減によって、全ての特徴が消耗するまで、特徴が残っている次のモデルが構築される。再帰的特徴量削減によって、次に、それらの削減の順序に基づいて特徴がランク付けされる。
【0042】
更なる実施例として、1つ以上の特徴群は、埋め込み方法に従って選択されてもよい。埋め込み方法によって、フィルタ方法及びラッパ方法の質が組み合わされる。埋め込み方法には、例えば、過学習を低下させるためのペナルティ機能を実装する、最小絶対収縮及び選択演算子(LASSO)及びリッジ回帰が含まれる。例えば、LASSO回帰によって、係数の大きさの絶対値に相当するペナルティを加えるL1正則化が実施され、リッジ回帰によって、係数の大きさの二乗に相当するペナルティを加えるL2正則化が実施される。
【0043】
訓練モジュール620によって特徴セットが生成された後、訓練モジュール620によって、特徴セットに基づいて、機械学習ベースの分類モデル640が生成され得る。機械学習ベースの分類モデルは、機械学習技法を使用して生成される、データ分類のための複雑な数学的モデルを指し得る。一実施例では、機械学習ベースの分類モデル640は、境界特徴を表すサポートベクトルのマップを含み得る。実施例として、境界特徴は、ある特徴セット内の最高ランクの特徴から選択されても、かつ/又はそれらを表してもよい。訓練モジュール620は、機械学習ベースの分類モデル640A~640Nを構築するために、訓練データセット610から判定又は抽出された特徴セットを使用し得る。一部の実施例では、機械学習ベースの分類モデル640A~640Nを、単一の機械学習ベースの分類モデル640に組み合わせてもよい。同様に、MLモジュール630は、単一若しくは複数の機械学習ベースの分類モデル640を含有する単一の分類指標、及び/又は単一若しくは複数の機械学習ベースの分類モデル640を含有する複数の分類指標を表し得る。
【0044】
特徴を、機械学習アプローチ、例えば判別分析;決定木;最近傍(NN)アルゴリズム(例えば、k-NNモデル、レプリケータNNモデルなど);統計アルゴリズム(例えば、ベイジアンネットワークなど);クラスタリングアルゴリズム(例えば、k平均値、平均値シフトなど);ニューラルネットワーク(例えば、リザーバネットワーク、人工ニューラルネットワークなど);サポートベクトル機械(SVM);ロジスティック回帰アルゴリズム;線形回帰アルゴリズム;マルコフモデル又はチェーン;主成分分析(PCA)(例えば、線形モデルについて);多層パーセプトロン(MLP)ANN(例えば、非線形モデルについて);リザーバネットワークの複製(例えば、非線形モデルについて、通常は時系列について);ランダムフォレスト分類;それらの組み合わせ及び/又は同様のものを使用して訓練された分類モデルにおいて組み合わせてもよい。結果として得られるMLモジュール630は、他のFIM画像においてSVPを分類するために使用され得る、訓練データセット610における各FIM画像の各特徴に対する決定ルール又はマッピングを含み得る。実施形態では、訓練モジュール620は、畳み込みニューラルネットワーク(CNN)として機械学習ベースの分類モデル640を訓練してもよく、これは、
図8に関して本明細書で更に説明される。
【0045】
特徴及びMLモジュール630は、試験データセット内のFIM画像中のSVPを検出及び/又は分類するために使用され得る。一実施例では、各検出/分類されたSVPに対する予測/結果は、導出された各特徴が特定のSVPタイプ及び/又はサイズに関連付けられている可能性又は確率に対応する信頼レベルを含む。信頼レベルは、0と1との間の値であり得る。一実施例では、2つの状態(例えば、SVP又はSVPなし、SVPタイプA対タイプBなど)があるとき、信頼レベルは、値pに対応してもよく、これは、特定の検出/分類されたSVPが実際にSVPである可能性を指す。この場合では、値1-pは、特定の検出/分類されたSVPが、第2の状態(例えば、実際にはSVPではない)に属する可能性を指し得る。概して、複数の信頼レベルは、試験データセットの各検出された/分類されたSVPについて、及び3つ以上の状態があるとき、各特徴について提供され得る。
【0046】
図7は、訓練モジュール620を使用して、MLモジュール630を生成するための例示的な訓練方法700を例解するフローチャートである。訓練モジュール620によって、教師あり、教師なし、及び/又は半教師あり(例えば、補強ベース)の機械学習ベースの分類モデル640を実装することができる。
図7に例解する方法700は、教師あり学習方法の実施例であり;訓練方法のこの実施例の変形を以下で考察するが、しかし、他の訓練方法は、教師なし及び/又は半教師ありの機械学習モデルを訓練するために類似的に実装することができる。訓練方法700は、ステップ710においてデータを判定(例えば、アクセス、受信、検索など)してもよい。データは、FIM画像及び関連するメタデータを含み得る。一部の実施例では、データはメタデータを含まなくてもよく、本明細書に記述される訓練は対応するメタデータを使用しなくてもよいことが理解されるべきである。
【0047】
訓練方法700は、ステップ720において、訓練データセット及び試験データセットを生成し得る。訓練データセット及び試験データセットは、FIM画像(又はその一部分)を訓練データセット又は試験データセットのいずれかにランダムに割り当てることによって生成され得る。一部の実装形態では、訓練データ又は試験データとしてのFIM画像(又はその一部分)の割り当ては、完全にランダムでなくてもよい。実施例として、訓練データセットを生成するために、FIM画像の大部分(又はその一部分)を使用し得る。例えば、FIM画像(又はその一部分)の75%を訓練データセットの生成に使用し得、25%を試験データセットの生成に使用し得る。別の実施例では、FIM画像(又はその一部分)の80%を訓練データセットの生成に使用し得、20%を試験データセットの生成に使用し得る。
【0048】
訓練方法700は、ステップ730において、例えば、検出されたSVPの異なる分類の中で区別するための分類指標によって使用することができる1つ以上の特徴を判定(例えば、抽出、選択など)してもよい。実施例として、訓練方法700は、FIM画像(又はその一部分)から特徴のセットを判定し得る。更なる実施例では、特徴のセットは、訓練データセット又は試験データセットのいずれかにおいて、FIM画像(又はその一部分)とは異なるデータから判定されてもよい。そのようなFIM画像(又はその一部分)を使用して、特徴の初期のセットを判定してもよく、それは、訓練データセットを使用して更に低減されてもよい。
【0049】
訓練方法700によって、ステップ740において、1つ以上の特徴を使用して、1つ以上の機械学習モデルがトレーニングされ得る。一実施例では、機械学習モデルは、教師あり学習を使用して訓練され得る。別の実施例では、教師なし学習及び半教師ありを含む、他の機械学習技法が採用され得る。740において訓練された機械学習モデルは、解決される問題及び/又は訓練データセットで利用可能なデータに応じて、異なる基準に基づいて選択され得る。例えば、機械学習分類指標は、異なる程度のバイアスを受け得る。したがって、2つ以上の機械学習モデルを、740において訓練し、750において最適化し、改善し、相互検証することができる。
【0050】
訓練方法700は、760において予測モデルを構築するために、1つ以上の機械学習モデルを選択し得る。予測モデルは、試験データセットを使用して評価してもよい。予測モデルは、ステップ770において、試験データセットを分析し、FIM画像(又はその一部分)中に存在する予測されるSVPを生成してもよい。FIM画像(又はその一部分)中に存在する予測されるSVPは、ステップ780において評価されて、こうした値が所望の精度レベルを達成したかどうかを判定し得る。予測モデルの性能は、予測モデルによって示される複数のデータ点の多数の真の陽性、偽陽性、真の陰性、及び/又は偽陰性の分類に基づいて、多数の方法で評価され得る。
【0051】
例えば、予測モデルの偽陽性は、予測モデルが、実際にはSVPではない(又は特定のSVPタイプではない)SVP(又は特定のSVPタイプ)として、FIM画像内の粒子を誤って分類した回数を指し得る。逆に、予測モデルの偽陰性は、実際には粒子が真のSVPであったときに、機械学習モデルがFIM画像内の粒子をSVPではないと分類した回数を指し得る。真陰性及び真陽性は、予測モデルが1つ以上のFIM画像中の1つ以上の粒子をSVP(又は特定のSVPタイプ)として正しく分類した回数を指し得る。これらの測定に関連するのは、再現率及び精密度の概念である。概して、再現率とは、真陽性及び偽陰性の合計に対する真陽性の比率を指し、これは、予測モデルの感度を定量化する。同様に、精密度は、真陽性及び偽陽性の合計に対する真陽性の比率を指す。こうした所望の精度レベルに達したとき、訓練段階が終了し、予測モデル(例えば、MLモジュール630)がステップ790において出力され得る。所望の精度レベルに達しない場合、訓練方法700のその後の反復は、例えば、FIM画像のより大きい収集を考慮するなどの変動を伴い、ステップ710で開始して実施され得る。
【0052】
本明細書で説明されるように、訓練モジュール620は、畳み込みニューラルネットワーク(CNN)を含み得る、機械学習ベースの分類モデル640を訓練し得る。
図8は、CNNの例示的なニューラルネットワークアーキテクチャ800を示す。機械学習ベースの分類モデル640の各々は、ニューラルネットワークアーキテクチャ800の1つ以上の部分を含む深層学習モデルを含み得る。ニューラルネットワークアーキテクチャ800は、本明細書に記載されるように、畳み込み操作のセットを使用して、複数のFIM画像上で特徴抽出を実施し得、これは、各画像をフィルタリングするために使用される一連のフィルタを含み得る。ニューラルネットワークアーキテクチャ800は、いくつかの畳み込み操作(例えば、特徴抽出操作)を実施し得る。
図8に示すニューラルネットワークアーキテクチャ800の構成要素は、例示のみを意図している。ニューラルネットワークアーキテクチャ800は、当業者が理解し得るように、
図8に示されるもの以外の追加の構成要素及び/又は層を備え得る。
【0053】
ニューラルネットワークアーキテクチャ800は、入力FIM画像802(例えば、上述したようなFIM画像)に対して実施されるいくつかの操作を各々が含み得る複数のブロック804A~804Dを含み得る。入力FIM画像802に対して実施される操作は、例えば、別の畳み込み層、ドロップアウト操作、フラット化操作、密層、又はニューラルネットワークアーキテクチャ800の出力に到達するまで、Convolution2D(Conv2D)操作又はSeparableConvolution2D操作に続くゼロ以上の操作(例えば、プーリング、ドロップアウト、活性化、正規化、BatchNormalization、他の操作、又はそれらの組み合わせ)を含み得る。密層は、別の畳み込み層、別の密層、又はネットワークの出力に到達するまで、密操作(例えば、完全に接続された層)で始まり、ゼロ以上の操作(例えば、プーリング、ドロップアウト、活性化、正規化、BatchNormalization、他の操作、又はそれらの組み合わせ)が続く操作又は層の群を含み得る。畳み込み層に基づく特徴抽出と密操作を使用する特徴分類との間の境界は、特徴抽出技法を使用して生成された多次元マトリクスをベクトルに「フラット化」し得るフラット化操作によって示され得る。
【0054】
ニューラルネットワークアーキテクチャ800は、わずか1つの隠れ層から最大4つの隠れ層に及ぶ、複数の隠れ層を含み得る。複数の隠れ層のうちの1つ以上は、本明細書に記載の少なくとも1つのフィルタ(例えば、スライディングウィンドウ504)を備え得る。少なくとも1つのフィルタは、例えば3×3ピクセルのサイズを含み得る。少なくとも1つのフィルタは、入力FIM画像802に適用され得る。一部の実施例では、入力FIM画像802は、ニューラルネットワークアーキテクチャ800に提供される前に前処理されてもよい。例えば、入力FIM画像802は、64×64ピクセルなどの均一なサイズにサイズ変更され得る。他の実施例も可能である。少なくとも1つのフィルタは、サイズ変更した入力FIM画像802に適用され得る。
【0055】
ニューラルネットワークアーキテクチャ800は、複数のハイパーパラメータと、複数のブロック804A~804Dの各ブロックにおける少なくとも1つの活性化関数と、を含み得る。複数のハイパーパラメータは、例えば、バッチサイズ、ドロップアウト率、エポック数、カーネルサイズ、ストライド、パディングなどを含み得る。少なくとも1つの活性化関数は、例えば、整流された線形単位活性化関数又は双曲線正接活性化関数を含み得る。複数のハイパーパラメータの各々の例示的な値は、以下及び本明細書の他の場所に提供されるが、当然のことながら、これらの値、並びに使用される特定のハイパーパラメータは、実装時に変化し得る。すなわち、本明細書で論じる複数のハイパーパラメータの値及び選択は、例示のみを意味し、限定するものではない。
【0056】
入力FIM画像802は、処理される前にサイズ変更され得る。本明細書に記載されるように、入力FIM画像802は、64×64ピクセルにサイズ変更され得る。複数のブロック804A~804Dの各ブロックにおいて、入力FIM画像802は、特定のカーネルサイズ(例えば、ピクセル数)に従って処理され得る。例えば、
図8に示すように、第1のブロック804Aは、64個の畳み込みフィルタ、同じ値を有するパディングを有する「3」のカーネルサイズ、及び整流された線形単位(RELU)活性化関数を含み得る。次に、入力FIM画像802は、MaxPooling2D操作及びストライド操作などの1つ以上のプーリング操作を含み得る第2のブロック804Bを渡され得る。次いで、入力FIM画像802は、BatchNormalization操作を含み得る第3のブロック804Cに渡され得る。BatchNormalization操作は、入力FIM画像802が各ブロックを通過する際にそれを標準化し得、これは、ニューラルネットワークアーキテクチャ800の訓練を加速し、一般化エラーを低減し得る。例えば、第3のブロック804Cにおいて、入力FIM画像802は、過学習を防止するためにドロップアウト率(例えば、0.15)を適用し得るドロップアウト層を通過し得る。
【0057】
一部の実施例では、ネットワークアーキテクチャ800は、入力FIM画像802をネットワークアーキテクチャ800の複数のブロック804A~804Dを通過させた結果として判定される出力特徴を受信し得るフラット化層及び/又は密層を含み得る。出力特徴は、入力FIM画像802から、及び/又はネットワークアーキテクチャ800の訓練から導出された複数のSVP特徴を含み得る。フラット化層は、出力特徴に基づいてN次元アレイを判定/生成してもよい。アレイは、ニューラルネットワークアーキテクチャ800の最終層に渡されてもよい。例えば、アレイは、その後、1つ以上の密層及び/又は第2のドロップアウト層を通過し得る。
【0058】
入力FIM画像802は、複数のブロック804A~804Dの各ブロックにおいていくつかの畳み込みフィルタを通過してもよく、次いで、出力806が提供されてもよい。出力806は、入力FIM画像802で検出及び分類された各SVPのタイプ(例えば、シリコン又はタンパク質)及び/又はサイズ(例えば、ECDサイズ)の表示を含み得る。出力806は、二項分類(例えば、「SVP/非SVP」)、多クラス分類(例えば、「気泡、繊維、又はガラス片」)、パーセンテージ(例えば、SVPタイプA及び/又はサイズAの70%の信頼性)、数値(例えば、0.7)、それらの組み合わせ、及び/又は同様のものを含み得る。
【0059】
図9は、MLモジュール630などの訓練された機械学習ベースの分類指標を使用して、FIM画像内の1つ以上のSVPを分類するための例示的なプロセスフロー900の例解図を示す。実施例として、
図9に示すように、未分類SVPを含むFIM画像は、MLモジュール630への入力として提供され得る。MLモジュール630は、本明細書に記載の方法を使用してFIM画像を処理して、1つ以上の分類されたSVPを含む出力920に到達し得る。出力920は、SVPの1つ以上の特性を識別し得る。例えば、出力920は、各分類されたSVPのタイプ及び/又はサイズを識別し得る。
【0060】
図10は、MLモジュール630などの、本明細書に記載の1つ以上の機械学習モデルを訓練及び試験するために使用され得る、例示的なデータセットの統計の表を示す。データセットは、合計7,500個の標識されたSVP(シリコン及びタンパク質)を含み得る。
図10に示すように、データセットは、「非常に小さい」ECDから「大きい」ECDまでに及ぶSVPを含有するFIM画像を含み得る。上述のように、第1の訓練データセット610B又は第2の訓練データセット610Bの一方又は両方のサブセットは、試験データセットに無作為に割り当てられてもよい。このサブセットは、データセットの20%を含み得る、
図10に示す「試験セット」に対応し得る。データセットの残りの80%は、本明細書に記載されるように訓練に使用され得る。
【0061】
図11は、本明細書に記載の1つ以上の機械学習モデルを訓練するためのパラメータの表を示す。
図11に示す表は、ニューラルネットワークアーキテクチャ800を使用して実施されて、本明細書に記載の1つ以上の機械学習モデルに対する最適なパラメータを判定した一連の実験に対応する。これらの実験は、
図11に示す表の第1の列に、各実験の対応するバッチサイズ、ドロップアウト率、活性化関数、及び交差検証スコアを用いて標識される。
図11に示す交差検証スコアは、本明細書に記載の訓練方法700の交差検証ステップ750に対応し得る。
【0062】
これらの実験のうちのいくつかについて、ニューラルネットワークアーキテクチャ800は、3つの隠れ層を含み、モデルのハイパーパラメータ(例えば、バッチサイズ、エポック、ドロップアウト率、ストライド/パディング、及びフィルタカウント)、及びニューラルネットワークアーキテクチャ800の複数のブロック804A~804Dの各々によって使用するための最良の活性化関数の調整に焦点を当てた。
図11に示すように、使用したバッチサイズは64~128の範囲であった。所与のバッチサイズの影響は、ニューラルネットワークアーキテクチャ800によって使用される対応する数の訓練エポックに依存していた。平均して、最良の精度は、多くのエポックにわたってより小さいバッチサイズ使用することから導き出されたが、これは表に示される交差検証スコアに見られる。
【0063】
図11に例解する試料実験では、エポック効果は、バッチサイズ及びドロップアウト率に依存していた。概して、大きいバッチサイズ及び大きいドロップアウト率があれば、少ない訓練エポックでも高い精度が得られる。所与のドロップアウト率の影響は、訓練エポック数に大きく依存していた。十分な訓練時間を考慮すると、理想的なドロップアウト率は、およそ15%であると判定された。概して、ドロップアウト率を調整することは、ニューラルネットワークアーキテクチャ800の第2の隠れ層に続いて、最高の性能改善をもたらした。ストライド及びパディングの数は、統計的に有意な方法でニューラルネットワークアーキテクチャ800の性能にほとんど影響を与えなかった。ニューラルネットワークアーキテクチャ800の複数のブロック804A~804Dの各々によって使用するために試験された活性化関数には、シグモイド(ロジスティック関数)、Tanh(双曲線正接)、及びReLU(整流された線形単位)が含まれていた。シグモイド活性化関数は、最も低い試験精度を作り出した(
図11)。ReLU活性化関数は、最も高い試験精度を作り出した(
図11)。Tanh活性化関数は、短い訓練サイクルでは有効であったが、中間及び大きい訓練サイクル(例えば、エポック)では、ReLU活性化関数に劣っていた。
【0064】
上述のように、複数の出力特徴は、入力FIM画像802をニューラルネットワークアーキテクチャ800の複数のブロック804A~804Dに通過させた結果として判定され得る。
図12は、ニューラルネットワークアーキテクチャ800によって生成され得る例示的な特徴マップを示す。例えば、第1の入力FIM画像802Aは、少なくとも1つのタンパク質SVPを含んでもよく、
図12に示す特徴マップ1202、1206、及び1210は、画像802Aをニューラルネットワークアーキテクチャ800の複数のブロック804A~804Dに通過させた結果として判定され得る出力特徴に対応する。別の実施例として、第2の入力FIM画像802Bは、少なくとも1つのシリコンSVPを含んでもよく、
図12に示される特徴マップ1204、1208、及び1212は、画像802Bをニューラルネットワークアーキテクチャ800の複数のブロック804A~804Dに通過させた結果として判定され得る出力特徴に対応する。
【0065】
特徴マップ1202は、画像802Aをニューラルネットワークアーキテクチャ800の第1のブロック804Aに通すことに対応する特徴マップを表し得る一方で、特徴マップ1204は、画像802Bをニューラルネットワークアーキテクチャ800の第1のブロック804Aに通すことに対応する特徴マップを表し得る。特徴マップ1206は、画像802Aをニューラルネットワークアーキテクチャ800の第2のブロック804Bに通すことに対応する特徴マップを表し得る一方で、特徴マップ1208は、画像802Bをニューラルネットワークアーキテクチャ800の第2のブロック804Bに通すことに対応する特徴マップを表し得る。特徴マップ1210は、画像802Aをニューラルネットワークアーキテクチャ800の第3のブロック804Cに通すことに対応する特徴マップを表し得る一方で、特徴マップ1212は、画像802Bをニューラルネットワークアーキテクチャ800の第3のブロック804Cに通すことに対応する特徴マップを表し得る。
【0066】
ここで
図13を参照すると、ニューラルネットワークアーキテクチャ800の精度を描写するグラフが示されている。
図13に示すように、ニューラルネットワークアーキテクチャ800は、反復回数が75を超えると、著しくより正確になる。
図13によっても示されるように、ニューラルネットワークアーキテクチャ800の精度は、反復回数が150回を超えた後、著しく向上することはない。
【0067】
図14A~
図14Dは、ニューラルネットワークアーキテクチャ800の精度を描写する一連の表を示す。
図14Aは、SVPタイプ、すなわちタンパク質又はシリコンに基づくパーセント精度を示す。
図14Bは、ECDサイズに基づくパーセント精度を示す。
図14Cは、
図11に示すような使用された実験及びパラメータに関連するニューラルネットワークアーキテクチャ800のパーセントジ精度を示し、
図14Dは、ECDサイズに基づく同じ実験に対するパーセント精度を示す。
【0068】
図15は、ニューラルネットワークアーキテクチャ800の精度、精密度、再現率、及びF1スコアのレベルを示す。
図15に示すように、SVPをタンパク質粒子又はシリコン粒子として分類するために、82.3%の全体的な精度が達成された。
図16は、粒子数に対するECDサイズに基づくニューラルネットワークアーキテクチャ800の性能の関連する統計を示す。S因子分析を使用するなどの現在の業界標準と比較して、
図13~
図16は、ニューラルネットワークアーキテクチャ800が、SVPを区別する能力が高いことを実証している。
【0069】
図17は、粒子分類のための本方法及びシステムを実装するための例示的な環境1700を描写するブロック図を示す。
図17に示す例示的な環境1700は、コンピューティングデバイス1701と、ネットワーク1704を通して接続されたサーバ1702と、を備える。態様では、記載されるいずれの方法のいくつか又は全てのステップも、コンピューティングデバイス1701及び/又はサーバ1702によって実施されてもよい。コンピューティングデバイス1701は、画像データ1720及び/又は分類データ1722(例えば、FIM画像、関連データ、及び本明細書に記載される1つ以上の機械学習モデル)のうちの1つ以上を記憶するように構成されている1つ以上のコンピュータを備えることができる。サーバ1702は、画像データ1720及び/又は分類データ1722を記憶するように構成されている1つ以上のコンピュータを備えることができる。複数のサーバ1702は、ネットワーク1704を通じてコンピューティングデバイス1701と通信することができる。
【0070】
コンピューティングデバイス1701及びサーバ1702は各々、ハードウェアアーキテクチャに関して、概してプロセッサ1708、メモリシステム1710、入力/出力(I/O)インターフェース1712、及びネットワークインターフェース1714を含む、デジタルコンピュータを備え得る。これらの構成要素は、ローカルインターフェース1716を介して通信的に結合され得る。ローカルインターフェース1716は、例えば、当該技術分野で既知の1つ以上のバス又は他の有線若しくは無線接続であることができるが、これに限定されない。ローカルインターフェース1716は、通信を可能にするために、コントローラ、バッファ(キャッシュ)、ドライバ、リピータ、レシーバなど、簡略化のために省略されている追加の要素を有することができる。更に、ローカルインターフェースは、前述の構成要素間の適切な通信を可能にするためのアドレス、制御、及び/又はデータ接続を含んでもよい。
【0071】
プロセッサ1708は、特にメモリシステム1710に記憶される、ソフトウェアを実行するためのハードウェアデバイスであることができる。プロセッサ1708は、任意のカスタム作製又は市販のプロセッサ、中央処理ユニット(CPU)、コンピューティングデバイス1701及びサーバ1702に関連付けられたいくつかのプロセッサの中の補助プロセッサ、半導体ベースのマイクロプロセッサ(マイクロチップ若しくはチップセットの形態)、又はソフトウェア命令を実行するための概して任意のデバイスとすることができる。コンピューティングデバイス1701及び/又はサーバ1702が動作中であるとき、プロセッサ1708は、メモリシステム1710内に記憶されているソフトウェアを実行し、メモリシステム1710への及びそこからのデータを通信し、ソフトウェアに従って、コンピューティングデバイス1701及びサーバ1702の動作を概ね制御するように構成することができる。
【0072】
I/Oインターフェース1712は、1つ以上のデバイス又は構成要素からユーザ入力を受信するため、かつ/又は1つ以上のデバイス又は構成要素にシステム出力を提供するために使用することができる。ユーザ入力は、例えば、キーボード及び/又はマウスを介して提供することができる。システム出力は、表示デバイス及びプリンタ(図示せず)を介して提供することができる。I/Oインターフェース1712は、例えば、シリアルポート、パラレルポート、スモールコンピュータシステムインターフェース(SCSI)、赤外(IR)インターフェース、無線周波数(RF)インターフェース、及び/又はユニバーサルシリアルバス(USB)インターフェースを含むことができる。
【0073】
ネットワークインターフェース1714は、コンピューティングデバイス1701及び/又はネットワーク1704上のサーバ1702から送信及び受信するために使用することができる。ネットワークインターフェース1714は、例えば、10BaseT Ethernetアダプタ、100BaseT Ethernetアダプタ、LAN PHY Ethernetアダプタ、Token Ringアダプタ、ワイヤレスネットワークアダプタ(例えば、WiFi、セルラー、サテライト)、又は任意の他の好適なネットワークインターフェースデバイスを含み得る。ネットワークインターフェース1714は、ネットワーク1704上での適切な通信を可能にするためのアドレス、制御、及び/又はデータ接続を含み得る。
【0074】
メモリシステム1710は、揮発性メモリ素子(例えば、ランダムアクセスメモリ(DRAM、SRAM、SDRAMなどのRAM))及び不揮発性メモリ素子(例えば、ROM、ハードドライブ、テープ、CDROM、DVDROMなど)のうちのいずれか1つ又はその組み合わせを含むことができる。更に、メモリシステム1710は、電子、磁気、光学、及び/又は他のタイプの記憶媒体を組み込んでもよい。メモリシステム1710は、様々な構成要素が互いに離れて位置するが、プロセッサ1708によってアクセスすることができる、分散型アーキテクチャを有することができることに留意されたい。
【0075】
メモリシステム1710内のソフトウェアは、1つ以上のソフトウェアプログラムを含み得、これらの各々は、論理機能を実装するための実行可能な命令の順序付けされたリストを含む。
図17の実施例では、コンピューティングデバイス1701のメモリシステム1710におけるソフトウェアは、実験データ1720、計算導出データ1722、予測モジュール1726、及び好適なオペレーティングシステム(O/S)1718を含むことができる。
図17の実施例では、サーバ1702のメモリシステム1710内のソフトウェアは、実験データ1720、計算導出データ1722、及び好適なオペレーティングシステム(O/S)1718を含むことができる。オペレーティングシステム1718は、他のコンピュータプログラムの実行を本質的に制御し、スケジューリング、入力-出力制御、ファイル及びデータ管理、メモリ管理、及び通信制御、並びに関連するサービスを提供する。
【0076】
例解の目的で、アプリケーションプログラム及びオペレーティングシステム1718などの他の実行可能なプログラム構成要素は、本明細書では別々のブロックとして例解されているが、そのようなプログラム及び構成要素は、コンピューティングデバイス1701及び/又はサーバ1702の異なる記憶構成要素内で、様々な時間に存在できることが認識される。本明細書で説明する方法はいずれも、コンピュータ可読媒体上に具現化されたコンピュータ可読命令に記憶させることができる。コンピュータ可読媒体は、コンピュータによってアクセス可能な任意の利用可能媒体とすることができる。実施例として、かつ限定を意図するものではないが、コンピュータ可読媒体は、「コンピュータ記憶媒体」及び「通信媒体」を含むことができる。「コンピュータ記憶媒体」は、コンピュータ可読命令、データ構造、プログラムモジュール、又は他のデータなどの、情報を記憶するための任意の方法又は技術で実装される、揮発性及び不揮発性の取り外し可能な媒体及び取り外し不能な媒体を含むことができる。例示的なコンピュータ記憶媒体は、RAM、ROM、EEPROM、フラッシュメモリ若しくは他のメモリ技術、CD-ROM、デジタル多用途ディスク(DVD)若しくは他の光学記憶装置、磁気カセット、磁気テープ、磁気ディスク記憶デバイス若しくは他の磁気記憶デバイス、又は所望の情報の記憶に使用することができ、かつコンピュータによってアクセスすることができる任意の他の媒体を含むことができる。
【0077】
図18は、粒子分類のための例示的な方法1800のフローチャートを示す。方法1800のステップは、単一のコンピューティングデバイス、複数のコンピューティングデバイス、及び同様のものによって、全体的又は部分的に実施されてもよい。例えば、方法1800は、アプリケーションモジュール113を介してクライアントデバイス112などのシステム100のデバイスのうちの1つ以上によって実施され得る。別の実施例として、方法1800は、MLモジュール630などによって、システム600のデバイスのうちの1つ以上によって実施され得る。更なる実施例として、方法1800は、ニューラルネットワークアーキテクチャ800によって実施され得る。なお更なる実施例では、方法1800の一部のステップは、上述のデバイス及び/又はシステムのうちの1つによって実施されてもよく、方法1800の他のステップは、別のデバイス及び/又はシステムによって実施されてもよい。
【0078】
ステップ1810において、コンピューティングデバイスは、訓練データを受信し得る。訓練データは、医薬品(例えば、本明細書に記載のFIM画像及び/又は第1の訓練データセット610A)に関連付けられた複数のフローイメージング顕微鏡画像などの複数の入力画像を含み得る。複数の入力画像の各入力画像は、少なくとも1つのサブビジブル粒子(SVP)を含み得る。少なくとも1つのSVPは、タンパク質粒子、シリコン粒子、繊維粒子、気泡、ガラス粒子などを含み得る。少なくとも1つのSVPは、1.125~130マイクロメートルの範囲の等価円形直径(ECD)を含み得る。
【0079】
一部の実施例では、コンピューティングデバイスは、第2の訓練データを受信してもよい。第2の訓練データは、本明細書に記載のFIM画像(例えば、本明細書に記載の第2の訓練データセット610B)に関連するメタデータなど、複数の入力画像に関連付けられた画像メタデータを含み得る。画像メタデータは、複数のフローイメージング顕微鏡画像に関連付けられたメタデータを含んでもよい。画像メタデータは、複数の入力画像の各入力画像における少なくとも1つのSVPの場所を示し得る。
【0080】
ステップ1820において、コンピューティングデバイスは、複数の訓練画像を生成してもよい。例えば、コンピューティングデバイスは、複数の入力画像(例えば、訓練方法700に従って訓練のために選択された画像)に基づいて、複数の訓練画像を生成してもよい。複数の訓練画像の各訓練画像は、少なくとも1つのSVPを含み得る。複数の訓練画像の各訓練画像は、少なくとも64×64ピクセルのサイズなどの均一なサイズを含み得る。均一なサイズは、本明細書に記載されるように、複数の訓練画像を前処理した結果であり得る。
【0081】
ステップ1830において、コンピューティングデバイスは、畳み込みニューラルネットワーク(CNN)(例えば、ニューラルネットワークアーキテクチャ800)を訓練してもよい。例えば、コンピューティングデバイスは、複数の訓練画像に基づいてCNNを訓練してもよい。訓練されたCNNは、1つ以上の試験画像において1つ以上のSVPを、第1のSVPタイプ又は第2のSVPタイプを含むものとして分類するように構成され得る。第1のSVPタイプは、例えば、タンパク質を含んでもよく、第2のSVPタイプは、シリコンを含んでもよい。別の実施例として、訓練されたCNNは、1つ以上の試験画像中の1つ以上のSVPを、特定のSVPタイプ(例えば、シリコン、タンパク質、又は気泡)を含むものとして分類するように構成されてもよい。訓練されたCNNは、少なくとも3つの隠れ層を含み得る。少なくとも3つの隠れ層の各隠れ層は、少なくとも3×3ピクセル(例えば、スライディングウィンドウ504)のサイズを含む少なくとも1つのフィルタを備えてもよい。
【0082】
CNNを訓練することは、複数のハイパーパラメータを判定することを更に含み得る。複数のハイパーパラメータは、64~256の範囲のバッチサイズ、又は5%~50%の範囲のドロップアウト率のうちの1つ以上を含み得る。CNNを訓練することは、活性化関数を判定することを更に含み得る。活性化関数は、整流された線形単位活性化(RELU)関数又は双曲線正接活性化(Tanh)関数を含み得る。
【0083】
図19は、粒子分類のための例示的な方法1900のフローチャートを示す。方法1900のステップは、単一のコンピューティングデバイス、複数のコンピューティングデバイス、及び同様のものによって、全体的又は部分的に実施されてもよい。例えば、方法1900は、アプリケーションモジュール113を介してクライアントデバイス112などのシステム100のデバイスのうちの1つ以上によって実施され得る。別の実施例として、方法1900は、MLモジュール630などによって、システム600のデバイスのうちの1つ以上によって実施され得る。更なる実施例として、方法1900は、ニューラルネットワークアーキテクチャ800によって実施され得る。なお更なる実施例では、方法1900の一部のステップは、上述のデバイス及び/又はシステムのうちの1つによって実施されてもよく、方法1900の他のステップは、別のデバイス及び/又はシステムによって実施されてもよい。
【0084】
ステップ1910において、コンピューティングデバイスは、少なくとも1つの入力画像(例えば、FIM画像)を受信してもよい。少なくとも1つの入力画像は、少なくとも1つのサブビジブル粒子(SVP)を含み得る。少なくとも1つの入力画像は、医薬品に関連付けられた少なくとも1つのフローイメージング顕微鏡画像を含み得る。一部の実施例では、コンピューティングデバイスは、少なくとも1つの入力画像に関連付けられた画像メタデータを受信してもよい。画像メタデータは、少なくとも1つのフローイメージング顕微鏡画像に関連付けられたメタデータを含んでもよい。画像メタデータは、少なくとも1つのSVPの場所を示し得る。
【0085】
ステップ1920において、コンピューティングデバイスは、少なくとも1つの前処理された画像を生成してもよい。コンピューティングデバイスは、少なくとも1つの入力画像、及び一部の事例では、画像メタデータに基づいて、少なくとも1つの前処理された画像を生成してもよい。例えば、少なくとも1つの前処理された画像を生成することは、少なくとも1つの入力画像を少なくとも64×64ピクセルにサイズ変更することを含み得る。別の実施例として、少なくとも1つの前処理された画像を生成することは、少なくとも1つのセグメンテーションアルゴリズム(例えば、凝集クラスタリング、水流変換など)に基づいて、少なくとも1つのSVPの場所を判定することを含み得る。コンピューティングデバイスは、画像メタデータが場所を示さないとき(又は画像メタデータが方法1900によって使用されないとき)、少なくとも1つのセグメンテーションアルゴリズムを使用して、少なくとも1つのSVPの場所を判定し得る。他の実施例では、コンピューティングデバイスは、少なくとも1つのセグメンテーションアルゴリズムを使用して、少なくとも1つのSVPの場所を判定して、画像メタデータによって示される場所を確認/検証し得る。
【0086】
ステップ1930において、コンピューティングデバイスは、少なくとも1つのSVPの分類を判定し得る。例えば、コンピューティングデバイスは、SVPのタイプを判定し得る。コンピューティングデバイスは、ニューラルネットワークアーキテクチャ800などの訓練された畳み込みニューラルネットワーク(CNN)を使用して、少なくとも1つのSVPの分類を判定し得る。追加的に、又は代替的に、コンピューティングデバイスは、少なくとも1つの前処理された画像を訓練されたCNNに通過させることによって、少なくとも1つのSVPの分類を判定し得る。
【0087】
コンピューティングデバイスは、CNNを訓練してもよい。例えば、コンピューティングデバイスは、複数の訓練画像に基づいてCNNを訓練してもよい。訓練されたCNNは、1つ以上の試験画像において1つ以上のSVPを、第1のSVPタイプ又は第2のSVPタイプを含むものとして分類するように構成され得る。第1のSVPタイプはタンパク質を含んでもよく、第2のSVPタイプはシリコンを含んでもよい。訓練されたCNNは、少なくとも3つの隠れ層を含み得る。少なくとも3つの隠れ層の各隠れ層は、少なくとも3×3ピクセル(例えば、スライディングウィンドウ504)のサイズを含む少なくとも1つのフィルタを備えてもよい。CNNを訓練することは、複数のハイパーパラメータを判定することを含み得る。複数のハイパーパラメータは、64~256の範囲のバッチサイズ、又は5%~50%の範囲のドロップアウト率のうちの1つ以上を含み得る。CNNを訓練することは、活性化関数を判定することを更に含み得る。活性化関数は、整流された線形単位活性化(RELU)関数又は双曲線正接活性化(Tanh)関数を含み得る。
【0088】
ステップ1940において、コンピューティングデバイスは、少なくとも1つのSVPの分類の表示を出力し得る。例えば、コンピューティングデバイスは、ユーザインターフェース又は他の機構を介して、少なくとも1つのSVPがタンパク質粒子を含むことを示す。メッセージ、レポートなどを介して表示を提供することなど、他の実施例も可能である。更に他の実施例では、コンピューティングデバイスは、少なくとも1つのSVPの分類を示すデータレコードを保存し得る。
【0089】
図20は、粒子分類のための例示的な方法2000のフローチャートを示す。方法2000のステップは、単一のコンピューティングデバイス、複数のコンピューティングデバイス、及び同様のものによって、全体的又は部分的に実施されてもよい。例えば、方法2000は、アプリケーションモジュール113を介してクライアントデバイス112などのシステム100のデバイスのうちの1つ以上によって実施され得る。別の実施例として、方法2000は、MLモジュール630などによって、システム600のデバイスのうちの1つ以上によって実施され得る。更なる実施例として、方法2000は、ニューラルネットワークアーキテクチャ800によって実施され得る。なお更なる実施例では、方法2000の一部のステップは、上述のデバイス及び/又はシステムのうちの1つによって実施されてもよく、方法2000の他のステップは、別のデバイス及び/又はシステムによって実施されてもよい。
【0090】
ステップ2010において、コンピューティングデバイスは、少なくとも1つの入力画像(例えば、FIM画像)を受信してもよい。少なくとも1つの入力画像は、複数の1つのサブビジブル粒子(SVP)を含み得る。少なくとも1つの入力画像は、医薬品に関連付けられた少なくとも1つのフローイメージング顕微鏡画像を含み得る。一部の実施例では、コンピューティングデバイスは、少なくとも1つの入力画像に関連付けられた画像メタデータを受信してもよい。画像メタデータは、少なくとも1つのフローイメージング顕微鏡画像に関連付けられたメタデータを含んでもよい。画像メタデータは、複数のSVPの各SVPの場所を示し得る。
【0091】
ステップ2020において、コンピューティングデバイスは、複数の前処理された画像を生成してもよい。複数の前処理された画像の各前処理された画像は、複数のSVPのうちの1つを含み得る。コンピューティングデバイスは、少なくとも1つの入力画像に基づいて、複数の前処理された画像を生成してもよい。追加的に、又は代替的に、コンピューティングデバイスは、少なくとも1つの入力画像及び画像メタデータに基づいて、複数の前処理された画像を生成し得る。例えば、複数の前処理された画像を生成することは、少なくとも1つの入力画像を少なくとも64×64ピクセルにサイズ変更することを含み得る。別の実施例として、複数の前処理された画像を生成することは、少なくとも1つのセグメンテーションアルゴリズム(例えば、凝集クラスタリング、水流変換など)に基づいて、複数のSVPの各SVPの場所を判定することを含み得る。コンピューティングデバイスは、画像メタデータが場所を示さない場合(又は画像メタデータが方法2000によって使用されない場合)、少なくとも1つのセグメンテーションアルゴリズムを使用して、複数のSVPの各SVPの場所を判定し得る。他の実施例では、コンピューティングデバイスは、少なくとも1つのセグメンテーションアルゴリズムを使用して、複数のSVPの各SVPの場所を判定して、画像メタデータによって示される場所を確認/検証し得る。
【0092】
ステップ2030において、コンピューティングデバイスは、複数のSVPの各SVPの分類を判定し得る。例えば、コンピューティングデバイスは、複数のSVPの各SVPのタイプを判定し得る。コンピューティングデバイスは、ニューラルネットワークアーキテクチャ800などの訓練された畳み込みニューラルネットワーク(CNN)を使用して、複数のSVPの各SVPの分類を判定し得る。追加的に、又は代替的に、コンピューティングデバイスは、複数の前処理された画像の各前処理された画像を訓練されたCNNに通すことによって、複数のSVPの各SVPの分類を判定し得る。
【0093】
ステップ2040において、コンピューティングデバイスは、複数のSVPの各SVPの分類の表示を出力し得る。例えば、コンピューティングデバイスは、ユーザインターフェース又は他の機構を介して、複数のSVPの各SVPの分類を示す。メッセージ、レポートなどを介して表示を提供することなど、他の実施例も可能である。更に他の実施例では、コンピューティングデバイスは、複数のSVPの各SVPの分類を示すデータレコードを保存し得る。
【0094】
方法及びシステムは、好ましい実施形態及び特定の実施例に関連して記載されているが、その範囲は、記載されている特定の実施形態に限定されることを意図するものではない。この理由は、本明細書中の実施形態が、全ての点において限定的ではなくむしろ例解的であることを意図したものであるからである。
【0095】
別途明記しない限り、本明細書中に記載のいかなる方法も、そのステップを特定の順序で実施することを必要としていると解釈するべきであることを意図するものでは決してない。したがって、方法についてのある請求項が、実際にそのステップに従うべき順序を列挙していない場合、又は、特許請求の範囲若しくは明細書において特定の順序に限定されることが別途明記されていない場合には、いかなる点においても、順序を推定することは決して意図されない。これは、ステップの配置又は操作の流れの配列に関するロジックの問題、文法的な編成又は句読法から導き出される明白な意味、本明細書中に記載されている実施形態の数又はタイプを含む、解釈するための、あらゆる可能な非明示的基礎に対して成り立つ。
【0096】
当業者は、通常の実験だけを用いることで、本明細書に記載の方法及び組成物の特定の実施形態の多数の同等物を認識し、又は確認できる。かかる同等物は、以下の特許請求の範囲に包含されることが意図される。
【国際調査報告】