(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公表特許公報(A)
(11)【公表番号】
(43)【公表日】2024-07-30
(54)【発明の名称】デジタル画像を分析する方法
(51)【国際特許分類】
G06T 7/00 20170101AFI20240723BHJP
G06V 10/82 20220101ALI20240723BHJP
G06T 7/11 20170101ALI20240723BHJP
【FI】
G06T7/00 350C
G06V10/82
G06T7/00 630
G06T7/11
【審査請求】未請求
【予備審査請求】未請求
(21)【出願番号】P 2024500663
(86)(22)【出願日】2022-07-14
(85)【翻訳文提出日】2024-03-08
(86)【国際出願番号】 EP2022069710
(87)【国際公開番号】W WO2023285584
(87)【国際公開日】2023-01-19
(32)【優先日】2021-07-15
(33)【優先権主張国・地域又は機関】EP
(81)【指定国・地域】
(71)【出願人】
【識別番号】501205108
【氏名又は名称】エフ ホフマン-ラ ロッシュ アクチェン ゲゼルシャフト
(74)【代理人】
【識別番号】110000408
【氏名又は名称】弁理士法人高橋・林アンドパートナーズ
(72)【発明者】
【氏名】アーカドゥ,フィリッポ
(72)【発明者】
【氏名】デ ヴェラ マドリー,マリア クリスティナ
(72)【発明者】
【氏名】ガメス セルナ,シトラリ
(72)【発明者】
【氏名】テシーラ,マルコ
【テーマコード(参考)】
5L096
【Fターム(参考)】
5L096AA06
5L096BA06
5L096BA13
5L096DA01
5L096DA02
5L096FA02
5L096FA16
5L096GA10
5L096HA11
5L096JA22
5L096KA04
(57)【要約】
本明細書に開示されるシステムおよび方法は一般的に、胃腸障害を有する患者からの組織学的画像における陰窩の検出、セグメンテーション、および特徴付けに適用可能な、デジタル画像における孤立したまたは重畳する関心オブジェクトの検出、セグメンテーション、および特徴付けのためのシステムおよび方法に関する。
【選択図】
図1
【特許請求の範囲】
【請求項1】
a)少なくとも1つの関心オブジェクト(112)を含む入力画像(110)を受信するように構成された入力/出力(I/O)ユニット(202)と、
b)ステップを実行するように構成されたプロセッサ(204)と、を含み、前記ステップは、
(i)第1の深層ニューラルネットワークDNN1(304)を使用して、前記少なくとも1つの関心オブジェクトを含む少なくとも第1の関心領域(RoI)(304A)を前記入力画像から取得することと、
(ii)第2の深層ニューラルネットワークDNN2(306)を使用して、前記第1のRoIにおける前記少なくとも1つの関心オブジェクトを分類することと、
(iii)第3の深層ニューラルネットワークDNN3(308)を使用して、前記第1のRoIにおける前記少なくとも1つの関心オブジェクトを検出することと、
(iv)第4の深層ニューラルネットワークDNN4(310)によって生成されたバイナリマスク(310A)を使用して、前記少なくとも1つの分類および検出された関心オブジェクトをセグメント化することと、
(v)前記少なくとも1つの、分類され、検出され、セグメント化された関心オブジェクトから特徴を抽出すること(312)を含む、システム。
【請求項2】
前記入力画像が、複数の孤立したまたは重畳する関心オブジェクトを含む、請求項1に記載のシステム。
【請求項3】
前記入力画像が、デジタル胃腸組織学的画像である、請求項1~2のいずれか一項に記載のシステム。
【請求項4】
前記1つまたは複数の関心オブジェクトが、胃腸障害に関連する病変である、請求項1~3のいずれか一項に記載のシステム。
【請求項5】
異なる時点に関連する画像中の同じ物体の抽出された特徴の比較が、バイオマーカーの時間的発達を評価することを可能にする、請求項1~4のいずれか一項に記載のシステム。
【請求項6】
前記プロセッサは、第5の深層ニューラルネットワークDNN5(506)によって、前記関心オブジェクトの前記分類および検知のステップを実行するように設計される、請求項1~5のいずれか一項に記載の装置。
【請求項7】
前記プロセッサは、前記少なくとも1つの関心オブジェクトのセグメンテーションのステップと並行して、前記少なくとも1つの関心オブジェクトの前記分類および検出のステップを実行するように設計され、前記分類および検出のステップは1つまたは2つのDNNsを使用して実行される、請求項1~6のいずれか一項に記載のシステム。
【請求項8】
前記セグメンテーションのステップは、前記関心領域(RoI)上の第6の深層ニューラルネットワークDNN6(608)を使用して実行される、請求項1~7のいずれか一項に記載のシステム。
【請求項9】
前記プロセッサが、前記入力画像上の第7の深層ニューラルネットワークDNN7(704)を使用して、前記少なくとも1つの関心オブジェクトの前記分類、検出、およびセグメンテーションのステップを実行する、請求項1~8のいずれか一項に記載のシステム。
【請求項10】
前記オブジェクト特徴を抽出するステップはデータ処理装置(102)と通信可能に結合されたデータ駆動型決定装置(104)によって実行され、前記データ処理装置(102)は前記プロセッサ(204)を備える、請求項1~9のいずれか一項に記載のシステム。
【請求項11】
(i)少なくとも1つの関心オブジェクトを含むデータベースから入力画像を受信することと、
(ii)第1の深層ニューラルネットワークDNN1(804)を使用して、前記入力画像から、前記少なくとも1つの関心オブジェクトを含む少なくとも第1の関心領域(RoI)を取得することと、
(iii)第2の深層ニューラルネットワークDNN2(806)を使用して、前記第1のRoIにおける前記少なくとも1つの関心オブジェクトを分類することと、
(iv)第3の深層ニューラルネットワークDNN3(808)を使用して、前記第1のRoIにおける前記少なくとも1つの関心オブジェクトを検出することと、
(v)第4の深層ニューラルネットワークDNN4(810)によって生成されたバイナリマスクを使用して、前記少なくとも1つの、分類および検出された関心オブジェクトをセグメント化することと、
(vi)前記少なくとも1つの、分類され、検出され、セグメント化された関心オブジェクトから特徴を抽出すること(812)を含む、コンピュータ実装方法。
【請求項12】
前記入力画像が、複数の孤立したおよび/または重畳する関心オブジェクトを含む、請求項11に記載の方法。
【請求項13】
前記入力画像が、デジタル胃腸組織学的画像である、請求項11~12のいずれか一項に記載の方法。
【請求項14】
前記1つまたは複数の関心オブジェクトが、胃腸障害に関連する病変である、請求項11~13のいずれか一項に記載の方法。
【請求項15】
異なる時点に関連する画像中の同じ物体の抽出された特徴の比較が、バイオマーカーの時間的発達を評価することを可能にする、請求項11~13のいずれか一項に記載の方法。
【請求項16】
前記少なくとも1つの関心オブジェクトの前記分類および検出のステップが、第5の深層ニューラルネットワークDNN5(906)を使用して実行される、請求項11~15のいずれか一項に記載の方法。
【請求項17】
前記少なくとも1つの関心オブジェクトの前記分類および検出のステップが前記少なくとも1つの関心オブジェクトの前記セグメンテーションのステップと並行して実行され、それによって、前記分類および検出のステップが2つのDNNsを使用して実行され、それによって、前記セグメンテーションのステップが前記関心領域(RoI)上の第6の深層ニューラルネットワークDNN6(1008)を使用して実行される、請求項11~16のいずれか一項に記載の方法。
【請求項18】
前記少なくとも1つの関心オブジェクトの前記分類、検出、およびセグメンテーションのステップは前記入力画像上の第7の深層ニューラルネットワークDNN7(1104)を使用して実行され、任意選択的に、前記深層ニューラルネットワークDNN7(1104)が、マスクR-CNNを含む、請求項11~17のいずれか一項に記載の方法。
【請求項19】
前記少なくとも1つの、検出され、セグメント化された関心オブジェクトの後処理(1206)のステップが実行される、請求項11~18のいずれか一項に記載の方法。
【請求項20】
前述した発明。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、デジタル画像におけるオブジェクト検出、セグメンテーション、および特徴付けに関する。本発明の様々な実施形態は、臨床生検からの撮像データにおけるオブジェクト検出、セグメンテーション、および特徴付けのためのシステムおよび方法に関し、より具体的には炎症性腸疾患(IBD)における疾患重症度を評価するための、孤立した、重畳する陰窩の検出、セグメンテーションおよび特徴付けのためのシステムおよび方法に関するが、これらに限定されない。
【背景技術】
【0002】
デジタル画像処理はコンピュータアルゴリズムを介したデジタル画像の処理であり、産業用、環境用、および医療用撮像を含む広範な用途を有する。デジタル画像処理はハードウェア資源の改善およびソフトウェアの開発により、急速に進歩している分野である。特に、クラウドコンピューティングは、データストレージおよび計算能力の可用性を高め、標準的なコンピュータネットワークシステムに革命をもたらした。急速に成長するデジタル画像のデータセットの利用可能性は、画像処理のための機械学習(ML)アルゴリズムの実装の道を開いている。MLアルゴリズムは、コンピュータが、細部の強調、画像品質の向上、またはフィルタの適用のような、様々なタスクにおける到達可能な能力を高めた結果を伴って、入力値のセットを1つまたは複数の出力特徴にマッピングする決定論的関数を学習することを可能にする。最も成功した画像処理技術は深層ラーニング(DL)アーキテクチャに代表され、これはデータセットから深層ニューラルネットワーク(DNNs)として表される関数を学習することができるMLアルゴリズムのサブセットである。
【0003】
デジタル病理学は例えば、ラジオグラフィ、磁気共鳴撮像法、トモグラフィなどの他の医療撮像モダリティとともに、デジタル画像処理の進歩から利益を得ている。ホールスライドイメージング(WSI)の技術を駆使したデジタル病理学は、組織病理学的変化を可視化し、診断を定式化するために、スライドガラス上のヘマトキシリン・エオジン(H&E)または他の染色物で染色された組織切片のデジタル化された画像を分析することからなる。計算病理学は、典型的には機械学習(ML)アルゴリズムの適用によって、デジタル化された組織病理学画像を分析するステップを包含する。MLモデルの使用は細胞、細胞核、または腺などのより複雑な構造の正確かつ自動化されたセグメンテーションを提供することによって、組織学的診断および予後、例えば、疾患の進行または処置に対する応答における効率的な支援を可能にする。そのようなモデルは、典型的には手動で注釈を付けられた組織学的画像の大きなデータセット上で訓練される。正確で高速なセグメンテーションを達成するために、最新の深層ラーニング(DL)モデルは様々なサイズおよび形状のオブジェクトを検出し、複数のオブジェクトのセグメンテーションならびにセグメンテーション上の不確実性の推定を可能にするために、特にオブジェクト境界において、情報を最大化するために、異なる処理ユニットの組合せを使用する。既知のモデルは、結腸腺癌において非常に近接した腫瘍性腺のセグメント化に成功しているが(“MILD-Net: Minimal information loss dilated network for gland instance segmentation in colon histology images”, Graham. S. et al, Medical Image Analysis, Vol. 52, pp. 199-211 (2019); “Glandular Morphometrics for Objective Grading of Colorectal Adenocarcinoma Histology Images”, Awan R. et al, Scientific Reports 7, Art. Nr. 16852 (2017))、マクロ腺とも呼ばれる、腺が物理的に接触または重畳する場合、個々の腺をセグメント化することができない。さらに、腺の組織学的特徴は、Geboesスコア(“Histopathology of Crohn’s disease and ulcerative colitis”, Geboes K., Inflammatory bowel disease 4 (2003): 210-28)およびNancy Histological Index(NHI)などの、IBDにおける炎症、進行、および治療に対する応答の複雑さを攻略するために広く使用されている組織学的グレーディングシステムではほとんど利用されていない。炎症に加えて、IBDおよび他の胃腸障害は、粘膜構造の歪み、陰窩密度の減少、陰窩脱落、陰窩分岐などの変化を特徴とする。したがって、既知のDLモデルおよびグレーディングシステムの限界を克服することが極めて重要であると考えられる。
【発明の概要】
【発明が解決しようとする課題】
【0004】
したがって、デジタル画像における物体の検出、セグメント化、および特徴付けのための改善されたシステムおよび方法、特に、消化管炎症性疾患の重症度を評価するために、デジタル化された組織病理学画像における孤立した、重畳する腺の検出、セグメンテーション、および特徴付けに適用可能なシステムおよび方法が必要とされている。公知のモデルのさらなる制限および欠点は、図面を参照して本発明の残りの部分で説明するように、先行技術の特徴を本発明のいくつかの態様と比較することによって、当業者に明らかになるであろう。
【図面の簡単な説明】
【0005】
【
図1】本発明の一実施形態による、少なくとも1つの訓練された深層ニューラルネットワークを使用した画像におけるオブジェクト検出、セグメンテーション、および特徴付けのためのシステムの例示的な例を示す図である。
【
図2】本発明の一実施形態による、少なくとも1つの深層ニューラルネットワークを使用したオブジェクト検出、セグメンテーション、および特徴付けのための例示的なデータ処理装置を示すブロック図である。
【
図3】本発明の実施形態による、例えば、4つの訓練された深層ニューラルネットワーク、すなわち、1つは少なくとも1つの関心領域(RoI)を取得するためのもの、1つはオブジェクト分類のためのもの、1つはオブジェクト検出のためのもの、および1つはオブジェクトセグメンテーションのためのものを使用する、画像におけるオブジェクト検出、セグメンテーション、および特徴付けのためのシステムの動作のための例示的なワークフローを示す図である。
【
図4】本発明の実施形態による、例えば、3つの訓練された深層ニューラルネットワーク、すなわち、1つは少なくとも1つの関心領域(RoI)を取得するためのもの、1つはオブジェクト分類およびオブジェクト検出のためのもの、および1つはオブジェクトセグメンテーションのためのものを使用する、画像におけるオブジェクト検出、セグメンテーション、および特徴付けのためのシステムの動作のための例示的なワークフローを示す図である。
【
図5】本発明の実施形態による、例えば、3つの訓練された深層ニューラルネットワーク、すなわち、1つは少なくとも1つの関心領域(RoI)を取得するためのもの、1つはオブジェクト分類およびオブジェクト検出のためのもの、および1つはオブジェクトセグメンテーションのためのものを使用する、画像におけるオブジェクト検出、セグメンテーション、および特徴付けのためのシステムの動作のための例示的なワークフローを示す図であり、オブジェクト分類および検出は、オブジェクトセグメンテーションと並行して実行される。
【
図6】本発明の実施形態による、例えば、少なくとも1つの関心領域(RoI)を取得のため、オブジェクト分類およびオブジェクト検出のため、ならびにオブジェクト分類および検出がオブジェクトセグメンテーションと並行して実行されるオブジェクトセグメンテーションのための1つの訓練された深層ニューラルネットワークを使用する、画像におけるオブジェクト検出、セグメンテーションおよび特徴付けのためのシステムの動作のための例示的なワークフローを示す図である。
【
図7】本発明の一実施形態による、例えば、4つの訓練された深層ニューラルネットワーク、すなわち、1つは少なくとも1つの関心領域(RoI)を取得するためのもの、1つはオブジェクト分類のためのもの、1つはオブジェクト検出のためのもの、1つはオブジェクトセグメンテーションのためのもの、1つはオブジェクトセグメンテーションのためのものを使用して、画像におけるオブジェクト検出、セグメンテーション、および特徴化のための例示的な方法を示すフローチャートを示す図である。
【
図8】本発明の実施形態による、例えば、3つの訓練された深層ニューラルネットワーク、すなわち、1つは少なくとも1つの関心領域(RoI)を取得するためのもの、1つはオブジェクト分類およびオブジェクト検出のためのもの、および1つはオブジェクトセグメンテーションのためのものを使用する、画像におけるオブジェクト検出、セグメンテーション、および特徴付けのための例示的な方法を図示するフローチャートである。
【
図9】本発明の一実施形態による、例えば、3つの訓練された深層ニューラルネットワーク、すなわち、1つは少なくとも1つの関心領域(RoI)を取得するためのもの、1つはオブジェクト分類およびオブジェクト検出のためのもの、および1つはオブジェクトセグメンテーションのためのものを使用して、画像におけるオブジェクト検出、セグメンテーション、および特徴付けのための例示的な方法を図示するフローチャートである。
【
図10】本発明の実施形態による、例えば、少なくとも1つの関心領域(RoI)を取得するため、オブジェクト分類およびオブジェクト検出のため、ならびにオブジェクト分類および検出がオブジェクトセグメンテーションと並行して実行されるオブジェクトセグメンテーションのための1つの訓練された深層ニューラルネットワークを使用する、画像におけるオブジェクト検出、セグメンテーションおよび特徴付けのための例示的な方法を図示するフローチャートである。
【
図11】例えば、少なくとも1つの関心領域(RoI)を取得するため、オブジェクト分類およびオブジェクト検出のため、ならびにオブジェクトセグメンテーションのための1つの訓練された深層ニューラルネットワークを使用する、画像におけるオブジェクト検出、セグメンテーション、および特徴付けのための例示的な方法と、それに続く、検出およびセグメント化されたオブジェクトに対する後処理ステップとを図示するフローチャートである。
【発明を実施するための形態】
【0006】
本発明は、デジタル撮像におけるオブジェクト検出、セグメンテーション、および特徴付けに関する。本発明の様々な実施形態は臨床生検からの画像データにおけるオブジェクト検出、セグメンテーション、および特徴付けのためのシステムおよび方法に関し、より具体的には炎症性腸疾患(IBD)における炎症のレベルを評価するための、孤立した、重畳する陰窩の検出、セグメンテーション、および特徴付けのためのシステムおよび方法に関するが、これらに限定されない。
【0007】
以下で説明する実装形態は1つまたは複数の訓練された人工ニューラルネットワーク(ANN)または教師ありニューラルネットワークの適用によって、画像内の1つまたは複数の孤立したまたは重畳する関心オブジェクトを検出およびセグメント化するために使用される、開示されたシステムおよび方法の態様を参照し、それによって、ネットワークは、ラベル付けされたメタデータを伴う1つまたは複数の関心オブジェクトを含む画像で訓練される。臨床生検からの撮像データに適用される場合、これらのネットワークは、病理学者が手動で事前に注釈を付けた組織学的画像に基づいて訓練される。開示されたシステムおよび方法が、教師なしニューラルネットワークの実装に適合されることができ、したがって、画像の大きなトレーニングデータセットの事前注釈を実行する必要がなくなることが、当業者には明らかであり得る。開示されたシステムおよび方法はさらに、関心オブジェクトを特徴づけ、それらの特徴を抽出し、それらを通してバイオマーカーの時間的発達を評価するように設計されることができる。臨床生検からの撮像データに適用される場合、抽出された腺の特徴、例えば、限定されないが、サイズ、形状および分布は、バイオマーカーの時間的発達への洞察を示すことができ、潰瘍性大腸炎およびクローン病を含む、結腸直腸腺癌、虚血性大腸炎、持続性感染性大腸炎、またはIBDなどの疾患の臨床評価を改善する。
【0008】
本発明の実施形態のいくつかでは、深層ニューラルネットワーク(DNNs)を使用することができる。DNNsは、入力層と、1つまたは複数の隠れ層と、出力層とを備えるネットワークである。DNNsは低レベルのRAWデータから有用な特徴を学習する能力を有し、大きなデータセット上で訓練されたとき、他の機械学習(ML)アプローチよりも優れている。
【0009】
既存のDNNsの中で、畳み込みニューラルネットワーク(CNNs)は、画像認識タスクに特に適している。CNNsは、初期層内の処理ユニットが単純な局所的特徴、例えば、特定の配向またはエッジにおるパターンに応答して活性化することを学習する一方で、より深い層内のユニットが低レベル特徴をより複雑なパターンに組み合わせるように構築される。特に、領域ベースのCNNs(R-CNNs)は関心オブジェクトがどこに位置することができるかを識別する領域提案を抽出し、次いで、CNNsを適用して、オブジェクトを分類し、その周りにバウンディングボックスを定義することによって、そのオブジェクトを領域提案内に位置付ける。R-CNNsの改善されたバージョンは領域提案を抽出する前に特徴マップを作成するために入力画像をCNNに供給するFast R-CNNまたはFaster R-CNNであり、適用された領域提案検索システムのみが異なる。本発明による実施形態のいくつかでは、単純な畳み込みニューラルネットワーク(CNN)がワークフロー全体のために使用され得る。別の実施形態では、提案された関心領域(RoI)の識別のために、ならびにオブジェクト検出のために、高速領域ベース畳み込みニューラルネットワーク(Faster R-CNN)を使用することができる。使用されるR-CNNはセルを検出し、それらをデカルト平面内で追跡するように指定されたセルトラッカーR-CCではない。
【0010】
オブジェクトセグメンテーション技術における最近の進歩は、画像内のオブジェクトの単一のインスタンスを検出し分類することを可能にするインスタンスセグメンテーションモデル(ISM)の開発につながった。ISMは2つの主要な部分、すなわち、分類およびバウンディングボックス予測を含むオブジェクト検出と、画像内の各オブジェクトについてピクセルワイズマスクを作成するオブジェクトセグメンテーションとを含む。ISMは、あらゆるピクセルをクラスのインスタンスではなくクラスに関連付けるセマンティックセグメンテーションモデルなどの他のモデルとは対照的に、複数のインスタンスの検出およびセグメンテーションに特に適している。一実施形態では、高速領域ベース畳み込みニューラルネットワーク(Faster R-CNN)が、提案された関心領域(RoI)の識別のために、ならびにオブジェクト検出のために使用されることができ、一方、2つのCNNsを備えるマスクCNNはバイナリマスクを出力するためにオブジェクトセグメンテーションのために使用することができる。
【0011】
マスクR-CNNは、ISMで使用されるR-CNNに基づく技術である。マスクR-CNNsは、オブジェクト検出のための分岐と並行してオブジェクトマスクを予測するための分岐を追加することによって、より高速なR-CNNsを拡張する。分類およびバウンディングボックス予測を含むオブジェクト検出を、マスク予測を含むオブジェクトセグメンテーションから切り離すことによって、マスクR-CNNs技術は、重畳するインスタンスを検出およびセグメンテーションする際に特に性能がある。一実施形態では、マスクR-CNNはオブジェクト検出と並行してオブジェクトセグメンテーションを実行する能力を備え、Faster R-CNNおよびマスクCNNを置き換えることができ、その結果、処理速度が改善され、特に重畳するオブジェクトを検出する際の精度が改善される。
【0012】
本発明で使用されるように、入力画像という用語は、デジタル画像および/またはアナログ画像のデジタル化されたバージョンを指す。
【0013】
さらに、関心オブジェクトという用語は、手動注釈付きホールスライドイメージ(WSI)を含むがこれに限定されない様々な手段によって得られるデジタル病理画像における臨床的に関連のあるアーチファクトとして定義される。特に、これらの臨床的に関連のあるアーチファクトは腺、陰窩または核のような組織学的に関連のあるアーチファクトであり、一般的な用語である病変または構造または物体と互換的に置き換え可能である。
【0014】
さらに、孤立したという用語は他のオブジェクトから、それらの周辺ピクセルのすべてから少なくとも1つのピクセルによって孤立した、デジタル画像内のオブジェクトを指すことに留意されたい。反対に、重畳するという用語は他のオブジェクトから、その周辺ピクセルの少なくとも1つからどのピクセルによっても孤立していないデジタル画像内のオブジェクトを指し、したがって、それは、隣接するエリアを有するオブジェクトの場合を含む。本発明における腺またはその等価物のいずれかという用語に関連するマクロという用語は、重畳する腺によって覆われる領域を指す。
【0015】
さらに、本発明における分類、検出およびセグメンテーションという用語は、以下の特定の技術的意味を有することに留意されたい。分類とは、物体が例えば、花、人、車、陰窩、または任意の他のクラスのような、あるクラスに属するか否かを確立することを指す。検出は例えば、画像の周りのバウンディングボックスを予測することによって、画像内のオブジェクト位置を特定することを指す。本発明では、バウンディングボックス予測技術は、限定されないが、バウンディングボックス回帰、非最大抑制、シングルショット検出器(SSD)を含む。セグメンテーションは上記で定義されたオブジェクトレベルで実行される分類とは対照的に、ピクセルレベルで実行される分類を指す。セグメンテーションは、ピクセルがオブジェクトのあるクラスに属するか否かに従って画像の各ピクセルを分類することからなる。セグメンテーションは、典型的には画像に適用されるバイナリフィルタであり得るマスクを使用して実行され、信号とも呼ばれる関心オブジェクトに属するピクセルと、背景とも呼ばれる関心オブジェクトに属しないピクセルとを分類する。
【0016】
本発明のいくつかの実施形態によれば、検出という用語は、本明細書で定義されるオブジェクト分類およびオブジェクト検出を含むことができる。
【0017】
本発明は本明細書に記載の実施例を参照することにより、より完全に理解されるのであろう。しかしながら、請求の範囲は、実施例の範囲に限定されると解釈されるべきではない。
【0018】
図1は本発明の一実施形態による、少なくとも1つの深層ニューラルネットワークを使用した画像におけるオブジェクト検出、セグメンテーション、および特徴付けのためのシステムの例示的な例を示す図である。
図1を参照すると、システム100は、データ処理装置102、データ駆動型決定装置104、サーバ106、および通信ネットワーク108を含むことができる。データ処理装置102は、通信ネットワーク108を介して、サーバ106およびデータ駆動型決定装置104に通信可能に結合することができる。他の実施形態では、データ処理装置102およびデータ駆動型決定装置104は単一の装置に組み込まれることができる。データ処理装置102は、少なくとも1つの関心オブジェクト112を含む画像110を入力として受け取ることができる。他の実施形態では、画像110がサーバ106に記憶され、サーバ106から通信ネットワーク108を介してデータ処理装置102に送信され得る。
【0019】
データ処理装置102は入力画像110を受信し、少なくとも1つの訓練された深層ニューラルネットワーク(DNN)を介して、入力画像110内の少なくとも1つの関心オブジェクト112の検出およびセグメンテーションを順次実行するように設計することができる。別の実施形態では、データ処理装置102が単一の訓練された深層ニューラルネットワーク(DNN)を介して、入力画像110内の少なくとも1つの関心オブジェクト112の検出およびセグメンテーションを並行して実行するように構成することができる。データ処理装置102は、入力画像110内の2つ以上の孤立した、重畳する関心オブジェクトの検出およびセグメンテーションを可能にすることができる。データ処理装置102は、関心オブジェクトの形状、サイズ、分布を含むがこれらに限定されない特徴の抽出を可能にすることができる。データ処理装置102の例としてはコンピュータワークステーション、ハンドヘルドコンピュータ、携帯電話、スマート機器が挙げられるが、これらに限定されない。
【0020】
データ駆動型決定装置104は、ソフトウェア、ハードウェア、またはこれらの様々な組合せを備えることができる。データ駆動型決定装置104はデータ処理装置102によって出力された入力オブジェクトおよび特徴を受け取り、例えば臨床組織学的デジタル画像において、検出されたおよびセグメント化された陰窩の前記特徴に基づいてバイオマーカーの状態を評価するように設計することができる。一実施形態では、データ駆動型決定装置104がサーバ106から、オブジェクトを含む異なる画像を処理しながら抽出された1つのオブジェクトの記憶された特徴にアクセスすることができ、それによって、これらの異なる画像は異なる時点で記録され、ラベル付けされ得る。したがって、前記実施形態では、データ駆動型決定装置104がオブジェクト特徴の時間的発達の評価を可能にすることができる。臨床組織学的デジタル画像の場合、オブジェクト特徴の時間的発達の評価は、バイオマーカーの時間的発達の評価に変換することができる。データ駆動型決定装置104の例としてはコンピュータワークステーション、ハンドヘルドコンピュータ、携帯電話、スマート機器が挙げられるが、これらに限定されない。
【0021】
サーバ106は、データ処理装置102に実装された少なくとも1つの訓練されたDNNのための訓練撮像データセットを記憶するように構成され得る。いくつかの実施形態では、サーバ106はまた、訓練データに関連するメタデータを記憶することができる。サーバ106はまた、入力画像110、ならびに入力画像110に関連するいくつかのメタデータを記憶することができる。サーバ106は入力画像110を、通信ネットワーク108を介してデータ処理装置102に送信し、および/または通信ネットワーク108を介してデータ処理装置102から入力画像110の出力オブジェクトおよび特徴を受信するように設計することができる。サーバ106はまた、通信ネットワーク108を介してデータ駆動型決定装置104からオブジェクト特徴に関連付けられたスコアを受信し、記憶するように構成され得る。サーバ106の例はアプリケーションサーバ、クラウドサーバ、データベースサーバ、ファイルサーバ、および/または他のタイプのサーバを含むが、これらに限定されない。
【0022】
通信ネットワーク108は、データ処理装置102、データ駆動型判定装置104、およびサーバを通信可能に結合することができる手段を備えることができる。通信ネットワーク108の例はインターネット、クラウドネットワーク、Wi-Fiネットワーク、パーソナルエリアネットワーク(PAN)、ローカルエリアネットワーク(LAN)、またはメトロポリタンエリアネットワーク(MAN)を含むが、これらに限定されない。システム100の様々なデバイスは、有線および/または無線プロトコルで通信ネットワーク108と接続するように構成され得る。プロトコルの例は伝送制御プロトコル/インターネットプロトコル(TCP/IP)、ハイパーテキスト転送プロトコル(HTTP)、ファイル転送プロトコル(FTP)、ブルートゥース(登録商標)(BT)を含むが、これらに限定されない。
【0023】
少なくとも1つの訓練されたDNNはデータ処理装置102上に展開することができ、訓練されたDNNに供給された入力画像から各オブジェクトのクラス、バウンディングボックス、およびマスク、ならびに前記オブジェクトの抽出された特徴を出力するように構成することができる。少なくとも1つの訓練されたDNNは、少なくとも1つの隠れ層に加えて入力層および出力層に配置された、ニューロンとも呼ばれる複数の相互接続された処理ユニットを含むことができる。各ニューロンは、重みによって調整された接続を用いて、他のニューロンに接続することができる。
【0024】
少なくとも1つの訓練されたDNNは、データ処理装置102上に展開する前に、ランダムな重みで初期化されたDNNアーキテクチャ上の訓練プロセスを通して取得され得る。訓練データセットは画像の対およびそれらのメタデータ、例えば、臨床組織学的デジタル画像の場合、事前注釈付き画像を含むことができる。メタデータは、画像内のオブジェクトの数および位置、並びに浅いまたは詳細なオブジェクト分類を含むことができる。一実施形態では、注釈が病理学者によって手動で実行されることができる。別の実施形態では、訓練プロセスがラベル付けされていない画像の訓練データセットを用いてDNNアーキテクチャ上で実行される。ラベル付けされていない画像は、関連付けられたメタデータなしの画像とすることができる。DNNアーキテクチャは、教師なし学習プロセスを介して前記ラベル付けされていない画像の出力特徴を学習することができる。例示的な実施形態では、サーバ106は訓練データセットを記憶することができ、および/または訓練プロセスがサーバ106によって実行されることができる。
【0025】
いくつかの実施形態では、訓練されたDNNは訓練された畳み込みニューラルネットワーク(CNN)であり得る。CNNsの初期層における処理ユニットは単純な局所的特徴、例えば、特定の配向またはエッジにおけるパターンに応答して活性化することを学習し、一方、より深い層におけるユニットは、低レベルの特徴をより複雑なパターンに組み合わせる。領域ベースのCNNs(R-CNNs)は関心オブジェクトが位置することができる領域提案を抽出し、次いで、CNNsを適用して、オブジェクトを分類し、その周りにバウンディングボックスを定義することによって、そのオブジェクトを領域提案内に位置付ける。
【0026】
他の実施形態では、高速領域ベース型畳み込みニューラルネットワーク(Faster R-CNN)が提案された関心領域(RoI)の識別のために、ならびにオブジェクト検出のために使用することができ、一方、2つのCNNsを備えるマスクCNNはバイナリマスクを出力するためにオブジェクトセグメンテーションのために使用することができる。別の実施形態では、マスクR-CNNがFaster R-CNNおよびマスクCNNを、オブジェクト検出と並行してオブジェクトセグメンテーションを実行する能力で置き換えることができ、その結果、処理速度が改善され、特に重畳するオブジェクトを検出する際の精度が改善される。マスクR-CNNアーキテクチャを用いて設計された実施形態における画像検出およびセグメンテーションのプロセスは例えば、
図6に記載されている。
【0027】
データ駆動型決定装置104によって生成された画像のセットおよび関連するスコアは、ネットワークのさらなる訓練プロセスのために訓練データセットに追加されるようにサーバ106上に展開され得る。データ駆動型決定装置104によって提供される関連メタデータとしてスコアを有する画像は、教師あり学習プロセスのための代替訓練データセットとして使用することができる。いくつかの他の実施形態では、データ駆動型決定装置104のすべての機能がデータ処理装置102に実装される。
【0028】
図2は、本発明の一実施形態による、少なくとも1つの深層ニューラルネットワークを使用したオブジェクト検出、セグメンテーション、および特徴付けのための例示的なデータ処理装置を示すブロック図である。
図2は、
図1の要素に関連して説明される。
図2を参照すると、データ処理装置102のブロック
図200が示される。データ処理装置102は、グラフィカルユーザインタフェース(GUI)202Aと、プロセッサ204と、メモリ206と、ネットワークインターフェース208とをさらに備える入力/出力(I/O)ユニット202を含むことができる。プロセッサ204は、メモリ206、I/Oユニット202、ネットワークインターフェース208と通信可能に結合することができる。1つまたは複数の実施形態では、データ処理装置102は、データ処理の結果を1つまたは複数のスコアリングシステムと相関させるための設備を含むこともできる。
【0029】
I/Oユニット202は、ユーザとデータ処理装置102との間のインターフェースとして機能することができる適切なロジック、回路、およびインターフェースを備えることができる。I/Oユニット202は、少なくとも1つの関心オブジェクト112を含む入力画像110を受信するように構成することができる。I/Oユニット202は、データ処理装置102の異なる動作構成要素を含むことができる。I/Oユニット202は、ユーザインターフェースのためのGUI202Aを提供するようにプログラムすることができる。I/Oユニット202の例は限定されないが、タッチスクリーン、キーボード、マウス、ジョイスティック、マイクロフォン、および例えばGUI202Aを表示するスクリーンのような表示スクリーンを含むことができる。
【0030】
GUI202Aは、ユーザとデータ処理装置102との間の通信を提供するように構成され得る適切なロジック、回路、およびインターフェースを備えることができる。いくつかの実施形態では、GUIがデータ処理装置102に通信可能にまたは機械的に結合された外部スクリーン上に表示することができる。GUI202Aを表示する画面はタッチスクリーンであってもよいし、通常の画面であってもよい。
【0031】
プロセッサ204は、メモリ206に記憶されたプログラムを実行するように構成され得る適切なロジック、回路、およびインターフェースを備えることができる。プログラムは限定されないが、オブジェクト検出およびセグメンテーションを含む、画像処理動作のための命令のセットに対応することができる。いくつかの実施形態では、命令のセットはまた、特徴抽出を含むがこれに限定されない、オブジェクト特徴付け動作を含む。プロセッサ204は、当技術分野で知られているいくつかのプロセッサ技術に基づいて構築することができる。プロセッサ204の例はグラフィック処理ユニット(GPU)、中央処理ユニット(CPU)、マザーボード、ネットワークカードを含むことができるが、これらに限定されない。
【0032】
メモリ206は、プロセッサ204によって実行されるプログラムを記憶するように構成され得る適切なロジック、回路、およびインターフェースを備えることができる。さらに、メモリ206は、入力画像110および/またはその関連メタデータを記憶するように構成され得る。別の実施形態では、メモリはトレーニングデータセットのサブセットまたは全体を記憶することができ、いくつかの実施形態では画像の対およびそれらの関連するメタデータを含む。メモリ206の実装の例はランダムアクセスメモリ(RAM)、読取り専用メモリ(ROM)、ハードディスクドライブ(HDD)、ソリッドステートドライブ(SDD)、および/または他のメモリシステムを含むことができるが、これらに限定されない。
【0033】
ネットワークインターフェース208は、通信ネットワーク108を介してデータ処理装置102、データ駆動型決定装置104、およびサーバ106の間の通信を可能にするように構成され得る適切な論理、回路、およびインターフェースを備えることができる。ネットワークインターフェース208は、通信ネットワーク108との有線または無線通信をサポートするいくつかの既知の技術で実装することができる。ネットワークインターフェース208はコンピュータポート、ネットワークインターフェースコントローラ、ネットワークソケット、または任意の他のネットワークインターフェースシステムを含むことができるが、これらに限定されない。
【0034】
図3は本発明の実施形態による、例えば、4つの訓練された深層ニューラルネットワーク、すなわち、1つは少なくとも1つの関心領域(RoI)を取得するためのもの、1つはオブジェクト分類のためのもの、1つはオブジェクト検出のためのもの、1つはオブジェクトセグメンテーションのためのものを使用する、画像におけるオブジェクト検出、セグメンテーション、および特徴付けのためのシステムの動作のための例示的なワークフローを図示する。
図3を参照すると、例示的なワークフロー300が示されている。ここで、例示的なニューラルネットワークはDNNnとして命名され、nは
図3内のニューラルネットワークのいくつかの事例を区別するために使用される数である。番号付けは、異なる図の間でニューラルネットワークの事例を比較するために使用されないことに留意されたい。
【0035】
入力画像302は、少なくとも1つの関心オブジェクト302Aを含むことができる。いくつかの実施形態では、関心オブジェクト302Aがいくつかの孤立したまたは重畳するオブジェクトによって形成することができる。
【0036】
304において、第1の深層ニューラルネットワークDNN1が実行されることができる。訓練されたDNN1に入力画像302を供給して、少なくとも1つの関心オブジェクト302Aが位置することができる画像内に領域提案304Aを生成することができる。訓練されたDNN1は画像内にいくつかの領域提案を生成することができ、関心オブジェクトごとに1つの領域提案が、孤立したまたは重畳するいくつかの関心オブジェクトが入力画像内に存在する場合、生成することができる。いくつかの実施形態では、DNN1アーキテクチャが領域提案ネットワーク(RPN)などのアルゴリズムを実装することができ、このアルゴリズムは入力画像からの特徴マップ抽出のためのCNNと、次いで、特徴マップ上をスライドし、関心領域(RoI)を生成するための小型ネットワークとを備えることができる。306において、第2の深層ニューラルネットワークDNN2は、304において定義された少なくとも1つの関心領域(RoI)304A上で実行され得る。訓練されたDNN2は各関心領域(RoI)における1つまたは複数の関心オブジェクトの分類を実行することができ、関心オブジェクトのクラス306Aを返すことができる。いくつかの実施形態では、訓練されたDNN2がタスクを順次または並行して実行するために、いくつかの訓練されたDNNsのチェーンを備えることができる。308において、少なくとも1つの、分類されたオブジェクト306Aに対して第3の深層ニューラルネットワークDNN3が実行されることができる。訓練されたDNN3は、306において分類された1つまたは複数の関心オブジェクトの検出が実行されることができる。これらの実施形態のいくつかでは、オブジェクト検出308を実行する訓練されたDNN3が少なくとも1つの関心オブジェクトの周りにバウンディングボックス308Aを返すことができる。いくつかの実施形態では、訓練されたDNN3がタスクを順次または並行して実行するために、いくつかの訓練されたDNNsのチェーンを備えることができる。いくつかの実施形態では、DNN3アーキテクチャがFast R-CNNまたはFaster R-CNNを含むことができるが、これらに限定されない。
【0037】
310において、第4の深層ニューラルネットワークDNN4は、308において定義されたバウンディングボックス308A内の少なくとも1つの検出されたオブジェクト上で実行され得る。訓練されたDNN4は、各バウンディングボックス内の1つまたは複数の関心オブジェクトのセグメンテーションが実行されることができる。いくつかの実施形態では、オブジェクトセグメンテーション310を実行するDNN4がバイナリマスク310Aを返すことができ、これを介して、バウンディングボックス308A内の各ピクセルを、関心オブジェクトまたは背景に属するものとして分類することができる。いくつかの実施形態では、DNN4がタスクを順次または並行して実行するために、いくつかの訓練されたDNNsのチェーンを備えることができる。いくつかの実施形態では、訓練されたDNN4はCNNまたはCNNsの鎖であり得る。
【0038】
312において、特徴312Aは、1つまたは複数の、分類され、検出され、セグメント化された関心オブジェクトから抽出され得る。いくつかの実施形態では、特徴が物体の形状、サイズ、および分布を含むことができるが、これらに限定されない。いくつかの実施形態では、特徴抽出ステップ312がタスクを順次または並列に実行するために、1つのDNNまたはDNNsのチェーンを備えることができる。いくつかの実施形態では、DNNはCNNまたはCNNsの鎖であり得る。
【0039】
図4は本発明の実施形態による、例えば、3つの訓練された深層ニューラルネットワーク、すなわち、1つは少なくとも1つの関心領域(RoI)を取得するためのもの、1つはオブジェクト分類およびオブジェクト検出のためのもの、および1つはオブジェクトセグメンテーションのためのものを使用する、画像におけるオブジェクト検出、セグメンテーション、および特徴付けのためのシステムの動作のための例示的なワークフローを図示する。
図4を参照すると、
図3に示されるワークフロー上に展開する例示的なワークフロー400が示されている。ここで、例示的なニューラルネットワークはDNNnとして命名され、nは
図4内のニューラルネットワークのいくつかの事例を区別するために使用される数である。番号付けは、異なる図の間でニューラルネットワークの事例を比較するために使用されないことに留意されたい。
【0040】
入力画像402は、少なくとも1つの関心オブジェクト402Aを含むことができる。いくつかの実施形態では、関心オブジェクト402Aがいくつかの孤立したまたは重畳するオブジェクトによって形成することができる。
【0041】
404において、第1の深層ニューラルネットワークDNN1が実行されることができる。訓練されたDNN1に入力画像402を供給して、少なくとも1つの関心オブジェクト402Aが位置することができる画像内に領域提案404Aを生成することができる。訓練されたDNN1は画像内にいくつかの領域提案を生成することができ、関心オブジェクトごとに1つの領域提案が、孤立したまたは重畳するいくつかの関心オブジェクトが入力画像内に存在する場合、生成することができる。いくつかの実施形態では、DNN1アーキテクチャが領域提案ネットワーク(RPN)などのアルゴリズムを実装することができ、このアルゴリズムは入力画像からの特徴マップ抽出のためのCNNと、次いで、特徴マップ上をスライドし、関心領域(RoI)を生成するための小型ネットワークとを備えることができる。
【0042】
406において、別の深層ニューラルネットワークDNN5が、404において定義された少なくとも1つの関心領域(RoI)404A上で実行され得る。訓練されたDNN5は各関心領域(RoI)における1つまたは複数の関心オブジェクトの分類を実行することができ、関心オブジェクトのクラス406Aを返すことができる。訓練されたDNN5は各関心領域(RoI)内の1つまたは複数の分類された関心オブジェクトの検出を実行することができ、少なくとも1つの関心オブジェクトの周りにバウンディングボックス406Bを返すことができる。いくつかの実施形態では、訓練されたDNN5がタスクを順次または並行して実行するために、いくつかの訓練されたDNNsのチェーンを備えることができる。いくつかの実施形態では、DNN5アーキテクチャがFast R-CNNまたはFaster R-CNNを含むことができるが、これらに限定されない。
【0043】
408において、別の深層ニューラルネットワークDNN4が、406において定義されたバウンディングボックス406B内の少なくとも1つの検出されたオブジェクトに対して実行され得る。訓練されたDNN4は、各バウンディングボックス内の1つまたは複数の関心オブジェクトのセグメンテーションが実行されることができる。いくつかの実施形態では、オブジェクトセグメンテーション408を実行するDNN4がバイナリマスク408Aを返すことができ、それを通して、バウンディングボックス406B内の各ピクセルを、関心オブジェクトまたは背景に属するものとして分類することができる。いくつかの実施形態では、DNN4がタスクを順次または並行して実行するために、いくつかの訓練されたDNNsのチェーンを備えることができる。いくつかの実施形態では、訓練されたDNN4はCNNまたはCNNsの鎖であり得る。
【0044】
410において、特徴410Aは、1つまたは複数の、分類され、検出され、セグメント化された関心オブジェクトから抽出され得る。いくつかの実施形態では特徴が物体の形状、サイズ、および分布を含むことができるが、これらに限定されない。いくつかの実施形態では、特徴抽出ステップ410がタスクを順次または並列に実行するために、1つのDNNまたはDNNsのチェーンを備えることができる。いくつかの実施形態では、DNNはCNNまたはCNNsの鎖であり得る。
【0045】
図5は本発明の実施形態による、例えば、3つの訓練された深層ニューラルネットワーク、すなわち、1つの少なくとも1つの関心領域(RoI)を取得するためのもの、1つのオブジェクト分類およびオブジェクト検出のためのもの、および1つのオブジェクトセグメンテーションのためのものを使用して、画像におけるオブジェクト検出、セグメンテーション、および特徴付けのためのシステムの動作のための例示的なワークフローを図示し、オブジェクト分類および検出は、オブジェクトセグメンテーションと並行して実行される。
図5を参照すると、例示的なワークフロー500が示されている。ここで、例示的なニューラルネットワークはDNNnとして命名され、nは
図5内のニューラルネットワークのいくつかの事例を区別するために使用される数である。番号付けは、異なる図の間でニューラルネットワークの事例を比較するために使用されないことに留意されたい。
【0046】
入力画像502は、少なくとも1つの関心オブジェクト502Aを含むことができる。いくつかの実施形態では、関心オブジェクト502Aがいくつかの孤立したまたは重畳するオブジェクトによって形成することができる。
【0047】
504において、第1の深層ニューラルネットワークDNN1が実行されることができる。訓練されたDNN1に入力画像502を供給して、少なくとも1つの関心オブジェクト502Aが位置することができる画像内に領域提案504Aを生成することができる。訓練されたDNN1は画像内にいくつかの領域提案を生成することができ、関心オブジェクトごとに1つの領域提案が、孤立したまたは重畳するいくつかの関心オブジェクトが入力画像内に存在する場合、生成することができる。いくつかの実施形態では、DNN1アーキテクチャが領域提案ネットワーク(RPN)などのアルゴリズムを実装することができ、このアルゴリズムは入力画像からの特徴マップ抽出のためのCNNと、次いで、特徴マップ上をスライドし、関心領域(RoI)を生成するための小型ネットワークとを備えることができる。
【0048】
506において、別の深層ニューラルネットワークDNN5が、504において定義された少なくとも1つの関心領域(RoI)504A上で実行され得る。訓練されたDNN5は各関心領域(RoI)における1つまたは複数の関心オブジェクトの分類を実行することができ、関心オブジェクトのクラス506Aを返すことができる。訓練されたDNN5は各関心領域(RoI)内の1つまたは複数の分類された関心オブジェクトの検出を実行することができ、少なくとも1つの関心オブジェクトの周りにバウンディングボックス506Bを返すことができる。いくつかの実施形態では、訓練されたDNN5がタスクを順次または並行して実行するために、いくつかの訓練されたDNNsのチェーンを備えることができる。いくつかの実施形態では、DNN5アーキテクチャがFast R-CNNまたはFaster R-CNNを含むことができるが、これらに限定されない。
【0049】
508において、別の深層ニューラルネットワークDNN6が、506において定義されたバウンディングボックス506B内の少なくとも1つの検出されたオブジェクトに対して実行され得る。訓練されたDNN6は、各関心領域(RoI)における1つまたは複数の関心オブジェクトのセグメンテーションが実行されることができる。いくつかの実施形態では、オブジェクトセグメンテーション508を実行するDNN6がバイナリマスク508Aを返すことができ、それを通して、バウンディングボックス506B内の各ピクセルを、関心オブジェクトまたは背景に属するものとして分類することができる。いくつかの実施形態では、DNN6がタスクを順次または並行して実行するために、いくつかの訓練されたDNNsのチェーンを備えることができる。いくつかの実施形態では、訓練されたDNN6アーキテクチャはCNN、R-CNN、またはCNNもしくはR-CNNsのチェーンを含むことができる。
【0050】
510において、特徴510Aは、1つまたは複数の、分類され、検出され、セグメント化された関心オブジェクトから抽出され得る。いくつかの実施形態では、特徴が物体の形状、サイズ、および分布を含むことができるが、これらに限定されない。いくつかの実施形態では、特徴抽出ステップ510はタスクを順次または並列に実行するために、1つのDNNまたはDNNsのチェーンを備えることができる。いくつかの実施形態では、DNNはCNNまたはCNNsの鎖であり得る。
【0051】
図6は、本発明の実施形態による、オブジェクト分類および検出がオブジェクトセグメンテーションと並行して実行される、例えば少なくとも1つの関心領域(RoI)を取得するため、オブジェクト分類およびオブジェクト検出のため、ならびにオブジェクトセグメンテーションのための、例えば1つの訓練された深層ニューラルネットワークを使用する画像におけるオブジェクト検出、セグメンテーションおよび特徴付けのためのシステムの動作の例示的なワークフローを示す。
図6を参照すると、例示的なワークフロー600が示されている。ここで、例示的なニューラルネットワークはDNNnとして命名され、nは
図6内のニューラルネットワークのいくつかの事例を区別するために使用される数である。番号付けは、異なる図の間でニューラルネットワークの事例を比較するために使用されないことに留意されたい。
【0052】
入力画像602は、少なくとも1つの関心オブジェクト602Aを含むことができる。いくつかの実施形態では、関心オブジェクト602Aがいくつかの孤立したまたは重畳するオブジェクトによって形成することができる。
【0053】
604において、深層ニューラルネットワークDNN7が実行されることができる。訓練されたDNN7は、少なくとも1つの関心オブジェクト602Aが位置することができる画像内に領域提案604Aを生成することができる。訓練されたDNN7は画像内にいくつかの領域提案を生成することができ、関心オブジェクトごとに1つの領域提案が、孤立したまたは重畳するいくつかの関心オブジェクトが入力画像内に存在する場合、生成することができる。いくつかの実施形態では、DNN7アーキテクチャが領域提案ネットワーク(RPN)などのアルゴリズムを実装することができ、このアルゴリズムは入力画像からの特徴マップ抽出のためのCNNと、次いで、特徴マップ上をスライドし、関心領域(RoI)を生成するための小型ネットワークとを備えることができる。さらに、訓練されたDNN7は各関心領域(RoI)における1つまたは複数の関心オブジェクトの分類を実行することができ、関心オブジェクトのクラス604Bを返すことができる。訓練されたDNN7は各関心領域(RoI)内の1つまたは複数の分類された関心オブジェクトの検出を実行することができ、少なくとも1つの関心オブジェクトの周りにバウンディングボックス604Cを返すことができる。いくつかの実施形態では、訓練されたDNN7はタスクを順次または並行して実行するために、いくつかの訓練されたDNNsのチェーンを備えることができる。いくつかの実施形態では、DNN5アーキテクチャがFast R-CNNまたはFaster R-CNNを含むことができるが、これらに限定されない。
【0054】
さらに、訓練されたDNN7は、各関心領域(RoI)における1つまたは複数の関心オブジェクトのセグメンテーションが実行されることができる。いくつかの実施形態では、オブジェクトセグメンテーションを実行するDNN7がバイナリマスク604Dを返すことができ、それを通して、バウンディングボックス604C内の各ピクセルは関心オブジェクトまたは背景に属するものとして分類され得る。いくつかの実施形態では、DNN7はタスクを順次または並行して実行するために、いくつかの訓練されたDNNsのチェーンを備えることができる。いくつかの実施形態では、訓練されたDNN7アーキテクチャがCNN、R-CNN、またはCNNsもしくはR-CNNsの連鎖を含むことができる。別の実施形態では、訓練されたDNN7アーキテクチャがFast R-CNNまたはFaster R-CNNおよび/またはマスクR-CNNを含むことができる。
【0055】
図7は、本発明の一実施形態による、例えば、4つの訓練された深層ニューラルネットワーク、すなわち、1つは少なくとも1つの関心領域(RoI)を取得するためのもの、1つはオブジェクト分類のためのもの、1つはオブジェクト検出のためのもの、1つはオブジェクトセグメンテーションのためのものを使用して、画像におけるオブジェクト検出、セグメンテーション、および特徴化のための例示的な方法を示すフローチャートである。
図7を参照すると、例示的なフローチャート700が示されている。ここで、例示的なニューラルネットワークはDNNnとして命名され、nは
図7内のニューラルネットワークのいくつかの事例を区別するために使用される数である。番号付けは、異なる図の間でニューラルネットワークの事例を比較するために使用されないことに留意されたい。702から712までの動作、またはその中のサブセットは任意のコンピューティングシステム、例えば、データ処理装置102および/またはデータ駆動型決定装置104上で実装され得る。
【0056】
702において、入力画像を受信することができる。いくつかの実施形態では、入力画像がいくつかのデータベースから受信することができる。入力画像は、少なくとも1つの関心オブジェクトを含むことができる。
【0057】
704において、少なくとも1つの関心領域(RoI)は、入力画像上の訓練された深層ニューラルネットワークDNN1を介して、少なくとも1つの関心オブジェクトのために取得され得る。
【0058】
706において、少なくとも1つの関心領域(RoI)上の訓練された深層ニューラルネットワークDNN2を介して、少なくとも1つの関心オブジェクトを分類することができる。
【0059】
708において、少なくとも1つの関心オブジェクトは、少なくとも1つの、分類されたオブジェクト上の訓練された深層ニューラルネットワークDNN3を介して検出され得る。訓練されたDNN3は、バウンディングボックス回帰のステップを含むことができる。
【0060】
710において、少なくとも1つの検出された関心オブジェクトは、少なくとも1つの、分類されたオブジェクト上の訓練された深層ニューラルネットワークDNN4を介してセグメント化され得る。訓練されたDNN4は、バイナリマスクを生成することができる。
【0061】
712において、少なくとも1つのセグメント化された関心オブジェクトから特徴を抽出することができる。いくつかの実施形態では、特徴抽出ステップが訓練されたDNNを介して実行され得る。
【0062】
図8は本発明の実施形態による、例えば、3つの訓練された深層ニューラルネットワーク、すなわち、1つは少なくとも1つの関心領域(RoI)を取得するためのもの、1つはオブジェクト分類およびオブジェクト検出のためのもの、および1つはオブジェクトセグメンテーションのためのものを使用する画像におけるオブジェクト検出、セグメンテーション、および特徴付けのための例示的な方法を示すフローチャートである。
図8を参照すると、例示的なフローチャート800が示されている。ここで、例示的なニューラルネットワークはDNNnとして命名され、nは
図8内のニューラルネットワークのいくつかの事例を区別するために使用される数である。番号付けは、異なる図の間でニューラルネットワークの事例を比較するために使用されないことに留意されたい。802から810までの動作、またはその中のサブセットは任意のコンピューティングシステム、例えば、データ処理装置102および/またはデータ駆動型決定装置104上で実装され得る。
【0063】
802において、入力画像を受信することができる。いくつかの実施形態では、入力画像がいくつかのデータベースから受信することができる。入力画像は、少なくとも1つの関心オブジェクトを含むことができる。
【0064】
804において、少なくとも1つの関心領域(RoI)は、入力画像上の訓練された深層ニューラルネットワークDNN1を介して、少なくとも1つの関心オブジェクトのために取得され得る。
【0065】
806において、少なくとも1つの関心領域(RoI)上の訓練された深層ニューラルネットワークDNN5を介して、少なくとも1つの関心オブジェクトを分類および検出することができる。訓練されたDNN5は、バウンディングボックス回帰のステップを含むことができる。
【0066】
808において、少なくとも1つの検出された関心オブジェクトは、少なくとも1つの、分類されたオブジェクト上の訓練された深層ニューラルネットワークDNN4を介してセグメント化され得る。訓練されたDNN4は、バイナリマスクを生成することができる。
【0067】
810において、少なくとも1つのセグメント化された関心オブジェクトから特徴を抽出することができる。いくつかの実施形態では、特徴抽出ステップが訓練されたDNNを介して実行され得る。
【0068】
図9は本発明の一実施形態による、例えば、3つの訓練された深層ニューラルネットワーク、すなわち、1つは少なくとも1つの関心領域(RoI)を取得するためのもの、1つはオブジェクト分類およびオブジェクト検出のためのもの、および1つはオブジェクトセグメンテーションのためのものを使用して、画像におけるオブジェクト検出、セグメンテーション、および特徴付けのための例示的な方法を示すフローチャートである。
図9を参照すると、例示的なフローチャート900が示されている。ここで、例示的なニューラルネットワークはDNNnとして命名され、nは
図9内のニューラルネットワークのいくつかの事例を区別するために使用される数である。番号付けは、異なる図の間でニューラルネットワークの事例を比較するために使用されないことに留意されたい。902から910までの動作、またはその中のサブセットは任意のコンピューティングシステム、例えば、データ処理装置102および/またはデータ駆動型決定装置104上で実装され得る。
【0069】
902において、入力画像を受信することができる。いくつかの実施形態では、入力画像がいくつかのデータベースから受信することができる。入力画像は、少なくとも1つの関心オブジェクトを含むことができる。
【0070】
904において、少なくとも1つの関心領域(RoI)は、入力画像上の訓練された深層ニューラルネットワークDNN1を介して、少なくとも1つの関心オブジェクトのために取得され得る。
【0071】
906において、少なくとも1つの関心領域(RoI)上の訓練された深層ニューラルネットワークDNN5を介して、少なくとも1つの関心オブジェクトを分類および検出することができる。訓練されたDNN5は、バウンディングボックス回帰のステップを含むことができる。
【0072】
908において、少なくとも1つの関心領域(RoI)上の訓練された深層ニューラルネットワークDNN6を介して、少なくとも1つの関心オブジェクトをセグメント化することができる。訓練されたDNN6は、バイナリマスクを生成することができる。いくつかの実施形態では、訓練されたDNN5およびDNN6が少なくとも1つの関心領域(RoI)上で並列に実行される。
【0073】
910において、少なくとも1つの、検出され、セグメント化された関心オブジェクトから特徴を抽出することができる。いくつかの実施形態では、特徴抽出ステップが訓練されたDNNを介して実行され得る。
【0074】
図10は、本発明の実施形態による、少なくとも1つの関心領域(RoI)を取得するため、オブジェクト分類およびオブジェクト検出のため、ならびにオブジェクト分類および検出がオブジェクトセグメンテーションと並行して実行されるオブジェクトセグメンテーションのための、例えば1つの訓練された深層ニューラルネットワークを使用する、画像におけるオブジェクト検出、セグメンテーションおよび特徴付けのための例示的な方法を示すフローチャートである。
図10を参照すると、例示的なフローチャート1000が示されている。ここで、例示的なニューラルネットワークはDNNnとして命名され、nは
図10内のニューラルネットワークのいくつかの事例を区別するために使用される数である。番号付けは、異なる図の間でニューラルネットワークの事例を比較するために使用されないことに留意されたい。1002から1006までの動作、またはその中のサブセットは任意のコンピューティングシステム、例えば、データ処理装置102および/またはデータ駆動型決定装置104上で実装され得る。
【0075】
1002において、入力画像を受信することができる。いくつかの実施形態では、入力画像がいくつかのデータベースから受信することができる。入力画像は、少なくとも1つの関心オブジェクトを含むことができる。
【0076】
1004において、少なくとも1つの関心領域(RoI)は、入力画像上の訓練された深層ニューラルネットワークDNN7を介して、少なくとも1つの関心オブジェクトのために取得され得る。さらに、少なくとも1つの関心オブジェクトは、少なくとも1つの関心領域(RoI)において分類され、検出され得る。オブジェクト検出は、バウンディングボックス回帰のステップを含むことができる。さらに、少なくとも1つの関心オブジェクトは、少なくとも1つの関心領域(RoI)においてセグメント化され得る。オブジェクトセグメンテーションは、バイナリマスクを生成するステップを含むことができる。いくつかの実施形態では、オブジェクト分類および検出のステップがオブジェクトセグメンテーションのステップと並行して実行される。
【0077】
1006において、少なくとも1つの、検出され、セグメント化された関心オブジェクトから特徴を抽出することができる。いくつかの実施形態では、特徴抽出ステップが訓練されたDNNを介して実行され得る。
【0078】
図11は、少なくとも1つの関心領域(RoI)を取得するため、オブジェクト分類およびオブジェクト検出のため、ならびにオブジェクトセグメンテーションのための、例えば1つの訓練された深層ニューラルネットワークを使用する、画像におけるオブジェクト検出、セグメンテーション、および特徴付けのための例示的な方法と、それに続く、検出およびセグメント化されたオブジェクトに対する後処理ステップとを図示する、フローチャートである。
図11を参照すると、例示的なフローチャート1100が示されている。ここで、例示的なニューラルネットワークはDNNnとして命名され、nは
図11内のニューラルネットワークのいくつかの事例を区別するために使用される数である。番号付けは、異なる図の間でニューラルネットワークの事例を比較するために使用されないことに留意されたい。1102から1108までの動作、またはその中のサブセットは任意のコンピューティングシステム、例えば、データ処理装置102および/またはデータ駆動型決定装置104上で実装され得る。
【0079】
1102において、入力画像を受信することができる。いくつかの実施形態では、入力画像がいくつかのデータベースから受信することができる。入力画像は、少なくとも1つの関心オブジェクトを含むことができる。
【0080】
1104において、少なくとも1つの関心領域(RoI)は、入力画像上の訓練された深層ニューラルネットワークDNN7を介して、少なくとも1つの関心オブジェクトのために取得され得る。さらに、少なくとも1つの関心オブジェクトは、少なくとも1つの関心領域(RoI)において分類され、検出され得る。オブジェクト検出は、バウンディングボックス回帰のステップを含むことができる。さらに、少なくとも1つの関心オブジェクトは、少なくとも1つの関心領域(RoI)においてセグメント化され得る。オブジェクトセグメンテーションは、バイナリマスクを生成するステップを含むことができる。いくつかの実施形態では、オブジェクト分類および検出のステップがオブジェクトセグメンテーションのステップと並行して実行される。
【0081】
1106において、検出され、セグメント化されたオブジェクトに対する後処理ステップが実行されることができる。一実施形態では、セグメンテーションパフォーマンスに関連する不確実性が推定することができ、したがって、前記不確実性に基づいて、オブジェクトはこの段階で、将来の処理から除外することができる。
【0082】
1108において、少なくとも1つの、検出され、セグメント化された関心オブジェクトから特徴を抽出することができる。いくつかの実施形態では、特徴抽出ステップが訓練されたDNNを介して実行され得る。
【0083】
以下に、本発明のさらなる特定の実施形態を列挙する。
1.一実施形態では、システムが開示され、システムは、
a)少なくとも1つの関心オブジェクト(112)を含む入力画像(110)を受信するように構成された入力/出力(I/O)ユニット(202)、および/または、
b)以下のステップを実行するように構成されたプロセッサ(204)含む。
(i)第1の深層ニューラルネットワークDNN1(304)を使用して、前記少なくとも1つの関心オブジェクトを含む少なくとも第1の関心領域(RoI)(304A)を入力画像から取得すること、および/または、
(ii)第2の深層ニューラルネットワークDNN2(306)を使用して、第1のRoIにおける少なくとも1つの関心オブジェクトを分類すること、および/または、
(iii)第3の深層ニューラルネットワークDNN3(308)を使用して、第1のRoIにおける少なくとも1つの関心オブジェクトを検出すること、および/または、
(iv)第4の深層ニューラルネットワークDNN4(310)によって生成されたバイナリマスク(310A)を使用して、少なくとも1つの、分類および検出された関心オブジェクトをセグメント化すること、および/または、
(v)前記少なくとも1つの、分類され、検出され、セグメント化された関心オブジェクトから特徴を抽出すること(312)。
2.一実施形態では、システムが開示され、システムは、
a)少なくとも1つの関心オブジェクト(112)を含む入力画像(110)を受信するように構成された入力/出力(I/O)ユニット(202)、および/または、
b)以下のステップを実行するように構成されたプロセッサ(204)から構成される。
(i)第1の深層ニューラルネットワークDNN1(304)を使用して、前記少なくとも1つの関心オブジェクトを含む少なくとも第1の関心領域(RoI)(304A)を入力画像から取得すること、および/または、
(ii)第2の深層ニューラルネットワークDNN2(306)を使用して、第1のRoIにおける少なくとも1つの関心オブジェクトを分類すること、および/または、
(iii)第3の深層ニューラルネットワークDNN3(308)を使用して、第1のRoIにおける少なくとも1つの関心オブジェクトを検出すること、および/または、
(iv)第4の深層ニューラルネットワークDNN4(310)によって生成されたバイナリマスク(310A)を使用して、少なくとも1つの、分類および検出された関心オブジェクトをセグメント化すること、および/または、
(v)前記少なくとも1つの、分類され、検出され、セグメント化された関心オブジェクトから特徴を抽出すること(312)。
3.一実施形態では、システムが開示され、システムは、
a)少なくとも1つの関心オブジェクト(112)からなる入力画像(110)を受信するように構成された入力/出力(I/O)ユニット(202)、および/または、
b)以下のステップを実行するように構成されたプロセッサ(204)を含む。
(i)第1の深層ニューラルネットワークDNN1(304)を使用して、前記少なくとも1つの関心オブジェクトを含む少なくとも第1の関心領域(RoI)(304A)を入力画像から取得すること、および/または、
(ii)第2の深層ニューラルネットワークDNN2(306)を使用して、第1のRoIにおける少なくとも1つの関心オブジェクトを分類すること、および/または、
(iii)第3の深層ニューラルネットワークDNN3(308)を使用して、第1のRoIにおける少なくとも1つの関心オブジェクトを検出すること、および/または、
(iv)第4の深層ニューラルネットワークDNN4(310)によって生成されたバイナリマスク(310A)を使用して、少なくとも1つの、分類および検出された関心オブジェクトをセグメント化すること、および/または、
(v)前記少なくとも1つの、分類され、検出され、セグメント化された関心オブジェクトから特徴を抽出すること(312)。
4.一実施形態では、システムが開示され、システムは、
a)少なくとも1つの関心オブジェクト(112)からなる入力画像(110)を受信するように構成された入力/出力(I/O)ユニット(202)、および/または、
b)以下のステップを実行するように構成されたプロセッサ(204)から構成される。
(i)第1の深層ニューラルネットワークDNN1(304)を使用して、前記少なくとも1つの関心オブジェクトを含む少なくとも第1の関心領域(RoI)(304A)を入力画像から取得すること、および/または、
(ii)第2の深層ニューラルネットワーク、DNN2(306)を使用して、第1のRoIにおける少なくとも1つの関心オブジェクトを分類すること、および/または、
(iii)第3の深層ニューラルネットワークDNN3(308)を使用して、第1のRoIにおける少なくとも1つの関心オブジェクトを検出すること、および/または、
(iv)第4の深層ニューラルネットワークDNN4(310)によって生成されたバイナリマスク(310A)を使用して、少なくとも1つの、分類および検出された関心オブジェクトをセグメント化すること、および/または、
(v)前記少なくとも1つの、分類され、検出され、セグメント化された関心オブジェクトから特徴を抽出すること(312)。
5.システムは、
a)少なくとも1つの関心オブジェクト(112)を含む入力画像(110)を受信するように構成された入力/出力(I/O)ユニット(202)と、
b)以下のステップを実行するように構成されたプロセッサ(204)とを含む。
(i)第1の深層ニューラルネットワークDNN1(304)を使用して、前記少なくとも1つの関心オブジェクトを含む少なくとも第1の関心領域(RoI)(304A)を入力画像から取得すること、および、
(ii)第2の深層ニューラルネットワークDNN2(306)を使用して、第1のRoIにおける少なくとも1つの関心オブジェクトを分類すること、および、
(iii)第3の深層ニューラルネットワークDNN3(308)を使用して、第1のRoIにおける少なくとも1つの関心オブジェクトを検出すること、および、
(iv)第4の深層ニューラルネットワークDNN4(310)によって生成されたバイナリマスク(310A)を使用して、少なくとも1つの、分類および検出された関心オブジェクトをセグメント化すること、および、
(v)前記少なくとも1つの、分類され、検出され、セグメント化された関心オブジェクトから特徴を抽出すること(312)。
6.別の実施形態では、実施形態1~5のいずれかによるシステムが開示され、プロセッサ(204)は実施形態1~5のステップ(i)~(v)を順次実行するように構成される。
7.別の実施形態では、実施形態1~4のいずれかによるシステムが開示され、プロセッサ(204)は実施形態1~4のステップ(i)~(v)のサブセットを順次実行するように構成される。
8.別の実施形態では、実施形態1~7のいずれかによるシステムが開示され、入力画像は複数の孤立したおよび/または重畳する関心オブジェクトを含む。
9.別の実施形態では、実施形態1~4のいずれかによるシステムが開示され、入力画像は複数の孤立したまたは重畳する関心オブジェクトを含み、および/またはプロセッサは各関心オブジェクトについて実施形態1~4のいずれかの全てのステップを実行するように構成される。
10.別の実施形態では、実施形態1~9のいずれかによるシステムが開示され、入力画像は複数の孤立したまたは重畳する関心オブジェクトを含む。
11.別の実施形態では、実施形態1~10のいずれかによるシステムが開示され、入力画像は複数の孤立した関心オブジェクトを含む。
12.別の実施形態では、実施形態1~10のいずれかによるシステムが開示され、入力画像は複数の重畳する関心オブジェクトを含む。
13.別の実施形態では、実施形態1~12のいずれかによるシステムが開示され、入力画像はデジタル胃腸組織学的画像である。
14.別の実施形態では、実施形態1~13のいずれかによるシステムが開示され、入力画像はデジタル胃腸組織学的画像であり、および/または1つまたは複数の関心オブジェクトは胃腸障害に関連する病変である。
15.別の実施形態では、実施形態1~14のいずれかによるシステムが開示され、入力画像はデジタル胃腸組織学的画像であり、および/または1つまたは複数の関心オブジェクトは胃腸障害に関連する病変であり、および/または異なる時点に関連する画像中の同じオブジェクトの抽出された特徴の比較はバイオマーカーの時間的発達を評価することを可能にする。
16.別の実施形態では、実施形態1~15のいずれかによるシステムが開示され、入力画像はデジタル胃腸組織学的画像である。
17.別の実施形態では、実施形態1~16のいずれかによるシステムが開示され、1つまたは複数の関心オブジェクトが胃腸障害に関連する病変である。
18.別の実施形態では、実施形態1~17のいずれかに記載のシステムが開示され、異なる時点に関連する画像中の同じ物体の抽出された特徴の比較がバイオマーカーの時間的発達を評価することを可能にする。
19.別の実施形態では、実施形態1~18のいずれかに記載の装置が開示され、プロセッサが第5の深層ニューラルネットワークDNN5(506)の手段によって関心オブジェクトの分類および検知のステップを実行するように設計される。
20.別の実施形態では、実施形態1~19のいずれかによるシステムが開示され、プロセッサは少なくとも1つの関心オブジェクトのセグメンテーションのステップと並行して、少なくとも1つの関心オブジェクトの分類および検出のステップを実行するように設計される。
21.別の実施形態では、実施形態1~20のいずれかによるシステムが開示され、プロセッサが少なくとも1つの関心オブジェクトのセグメンテーションのステップと並行して、少なくとも1つの関心オブジェクトの分類および検出のステップを実行するように設計され、それによって、分類および検出のステップが1つまたは2つのDNNsを使用して実行される。
22.別の実施形態では、実施形態1~20のいずれかによるシステムが開示され、プロセッサは少なくとも1つの関心オブジェクトのセグメンテーションのステップと並行して、少なくとも1つの関心オブジェクトの分類および検出のステップを実行するように設計され、それによって、分類および検出のステップは1つのDNNを使用して実行される。
23.別の実施形態では、実施形態1~20のいずれかによるシステムが開示され、プロセッサが少なくとも1つの関心オブジェクトのセグメンテーションのステップと並行して、少なくとも1つの関心オブジェクトの分類および検出のステップを実行するように設計され、それによって、分類および検出のステップが2つのDNNsを使用して実行される。
24.別の実施形態では、実施形態1~23のいずれかによるシステムが開示され、プロセッサが少なくとも1つの関心オブジェクトのセグメンテーションのステップと並行して、少なくとも1つの関心オブジェクトの分類および検出のステップを実行するように設計され、それによって、分類および検出のステップが1つまたは2つのDNNsを使用して実行され、および/またはセグメンテーションのステップが関心領域(RoI)上の第6の深層ニューラルネットワークDNN6(608)を使用して実行される。
25.別の実施形態では、実施形態1~24のいずれかによるシステムが開示され、プロセッサは入力画像上の第7の深層ニューラルネットワークDNN7(704)を使用して、少なくとも1つの関心オブジェクトの分類、検出、およびセグメンテーションのステップを実行する。
26.別の実施形態では、実施形態1~25のいずれかによるシステムが開示され、オブジェクト特徴を抽出するステップはデータ処理装置(102)と通信可能に結合されたデータ駆動型決定装置(104)によって実行され、データ処理装置(102)はプロセッサ(204)を備える。
27.一実施形態では、以下のステップを含むコンピュータ実装方法が開示される。
(i)少なくとも1つの関心オブジェクトを含むデータベースから入力画像を受信すること、および/または、
(ii)第1の深層ニューラルネットワークDNN1(804)を使用して、入力画像から、前記少なくとも1つの関心オブジェクトを含む少なくとも第1の関心領域(RoI)を得ること、および/または、
(iii)第2の深層ニューラルネットワークDNN2(806)を使用して、第1のRoIにおける少なくとも1つの関心オブジェクトを分類すること、および/または、
(iv)第3の深層ニューラルネットワークDNN3(808)を使用して、第1のRoIにおける少なくとも1つの関心オブジェクトを検出すること、および/または、
(v)第4の深層ニューラルネットワークDNN4(810)によって生成されたバイナリマスクを使用して、少なくとも1つの、分類および検出された関心オブジェクトをセグメント化すること、および/または、
(vi)前記少なくとも1つの、分類され、検出され、セグメント化された関心オブジェクトから特徴を抽出すること(812)。
28.一実施形態では、以下のステップを含むコンピュータ実装方法が開示される。
(i)少なくとも1つの関心オブジェクトを含むデータベースから入力画像を受信すること、および、
(ii)第1の深層ニューラルネットワークDNN1(804)を使用して、入力画像から、前記少なくとも1つの関心オブジェクトを含む少なくとも第1の関心領域(RoI)を取得すること、および、
(iii)第2の深層ニューラルネットワークDNN2(806)を使用して、第1のRoIにおける少なくとも1つの関心オブジェクトを分類すること、および、
(iv)第3の深層ニューラルネットワークDNN3(808)を使用して、第1のRoIにおける少なくとも1つの関心オブジェクトを検出すること、および、
(v)第4の深層ニューラルネットワークDNN4(810)によって生成されたバイナリマスクを使用して、少なくとも1つの、分類および検出された関心オブジェクトをセグメント化すること、および
(vi)前記少なくとも1つの、分類され、検出され、セグメント化された関心オブジェクトから特徴を抽出すること(812)。
29.一実施形態では、以下のステップからなるコンピュータ実装方法が開示される。
(i)少なくとも1つの関心オブジェクトを含むデータベースから入力画像を受信すること、および/または、
(ii)第1の深層ニューラルネットワークDNN1(804)を使用して、入力画像から、前記少なくとも1つの関心オブジェクトを含む少なくとも第1の関心領域(RoI)を取得すること、および/または、
(iii)第2の深層ニューラルネットワークDNN2(806)を使用して、第1のRoIにおける少なくとも1つの関心オブジェクトを分類すること、および/または、
(iv)第3の深層ニューラルネットワークDNN3(808)を使用して、第1のRoIにおける少なくとも1つの関心オブジェクトを検出すること、および/または、
(v)第4の深層ニューラルネットワークDNN4(810)によって生成されたバイナリマスクを使用して、少なくとも1つの、分類および検出された関心オブジェクトをセグメント化すること、および/または、
(vi)前記少なくとも1つの、分類され、検出され、セグメント化された関心オブジェクトから特徴を抽出すること(812)。
30.一実施形態では、以下のステップを含むコンピュータ実装方法が開示される。
(i)少なくとも1つの関心オブジェクトからなるデータベースから入力画像を受信すること、および/または、
(ii)第1の深層ニューラルネットワークDNN1(804)を使用して、入力画像から、前記少なくとも1つの関心オブジェクトを含む少なくとも第1の関心領域(RoI)を取得すること、および/または、
(iii)第2の深層ニューラルネットワークDNN2(806)を使用して、第1のRoIにおける少なくとも1つの関心オブジェクトを分類すること、および/または、
(iv)第3の深層ニューラルネットワークDNN3(808)を使用して、第1のRoIにおける少なくとも1つの関心オブジェクトを検出すること、および/または、
(v)第4の深層ニューラルネットワークDNN4(810)によって生成されたバイナリマスクを使用して、少なくとも1つの、分類および検出された関心オブジェクトをセグメント化すること、および/または、
(vi)前記少なくとも1つの、分類され、検出され、セグメント化された関心オブジェクトから特徴を抽出すること(812)。
31.一実施形態では、以下のステップからなるコンピュータ実装方法が開示される。
(i)少なくとも1つの関心オブジェクトからなるデータベースから入力画像を受信すること、および/または、
(ii)第1の深層ニューラルネットワークDNN1(804)を使用して、入力画像から、前記少なくとも1つの関心オブジェクトを含む少なくとも第1の関心領域(RoI)を取得すること、および/または、
(iii)第2の深層ニューラルネットワークDNN2(806を使用して)、第1のRoIにおける少なくとも1つの関心オブジェクトを分類すること、および/または、
(iv)第3の深層ニューラルネットワークDNN3(808)を使用して、第1のRoIにおける少なくとも1つの関心オブジェクトを検出すること、および/または、
(v)第4の深層ニューラルネットワークDNN4(810)によって生成されたバイナリマスクを使用して、少なくとも1つの、分類および検出された関心オブジェクトをセグメント化すること、および/または、
(vi)前記少なくとも1つの、分類され、検出され、セグメント化された関心オブジェクトから特徴を抽出すること(812)。
32.別の実施形態では、実施形態27~31のいずれかに記載の方法が開示され、実施形態18~21のステップが順次実行される。
33.別の実施形態では、実施形態27~31のいずれかによる方法が開示され、実施形態1~4のステップのサブセットが順次実行される。
34.別の実施形態では、実施形態27~33のいずれかによる方法が開示され、入力画像は複数の孤立したおよび/または重畳する関心オブジェクトを含む。
35.別の実施形態では、実施形態27~34のいずれかによる方法が開示され、入力画像は複数の孤立したおよび/または重畳する関心オブジェクトを含み、および/またはプロセッサは関心オブジェクトのそれぞれについて、実施形態27~34のいずれかの全てのステップを実行するように構成される。
36.別の実施形態では、実施形態27~34のいずれかによる方法が開示され、入力画像は複数の孤立した重畳する関心オブジェクトを含む。
37.別の実施形態では、実施形態27~34のいずれかによる方法が開示され、入力画像は複数の孤立したまたは重畳する関心オブジェクトを含む。
38.別の実施形態では、実施形態27~34のいずれかによる方法が開示され、入力画像は複数の孤立した関心オブジェクトを含む。
39.別の実施形態では、実施形態27~34のいずれかによる方法が開示され、入力画像は複数の重畳する関心オブジェクトを含む。
40.別の実施形態では、実施形態27~39のいずれかによる方法が開示され、入力画像がデジタル胃腸組織画像である。
41.別の実施形態では、実施形態27~40のいずれかによる方法が開示され、入力画像はデジタル胃腸組織学的画像であり、および/または1つ以上の関心オブジェクトは胃腸障害に関連する病変である。
42.別の実施形態では、実施形態27~41のいずれかに記載の方法が開示され、1つ以上の関心オブジェクトが胃腸障害に関連する病変である。
43.別の実施形態では、実施形態27~42のいずれかによる方法が開示され、入力画像はデジタル胃腸組織学的画像であり、および/または1つまたは複数の関心オブジェクトは胃腸障害に関連する病変であり、および/または異なる時点に関連する画像における同じ物体の抽出された特徴の比較はバイオマーカーの時間的発達を評価することを可能にする。
44.別の実施形態では、実施形態27~43のいずれかによる方法が開示され、異なる時点に関連する画像における同じ物体の抽出された特徴の比較はバイオマーカーの時間的発達を評価することを可能にする。
45.別の実施形態では、実施形態27~44のいずれかによる方法が開示され、少なくとも1つの関心オブジェクトの分類および検出のステップが第5の深層ニューラルネットワークDNN5(906)を使用して実行される。
46.別の実施形態では、実施形態27~45のいずれかに記載の方法が開示され、プロセッサが少なくとも1つの関心オブジェクトのセグメンテーションのステップと並行して、少なくとも1つの関心オブジェクトの分類および検出のステップを実行するように設計され、それによって、分類および検出のステップが1つまたは2つのDNNsを使用して実行される。
47.別の実施形態では、実施形態27~46のいずれかによる方法が開示され、プロセッサが少なくとも1つの関心オブジェクトのセグメンテーションのステップと並行して、少なくとも1つの関心オブジェクトの分類および検出のステップを実行するように設計され、それによって、分類および検出のステップが1つまたは2つのDNNsを使用して実行され、および/またはセグメンテーションのステップが関心領域(RoI)上の第6の深層ニューラルネットワークDNN6(1008)を使用して実行される。
48.別の実施形態では、実施形態27~47のいずれかによる方法が開示され、少なくとも1つの関心オブジェクトの分類および検出のステップが少なくとも1つの関心オブジェクトのセグメンテーションのステップと並行して実行され、それによって、分類および検出のステップが1つまたは2つのDNNsを使用して実行され、セグメンテーションのステップが関心領域(RoI)上の第6の深層ニューラルネットワークDNN6(1008)を使用して実行される。
49.別の実施形態では、実施形態27~48のいずれかによる方法が開示され、少なくとも1つの関心オブジェクトの分類および検出のステップが少なくとも1つの関心オブジェクトのセグメンテーションのステップと並行して実行され、それによって、分類および検出のステップが2つのDNNsを使用して実行され、それによって、セグメンテーションのステップが関心領域(RoI)上の第6の深層ニューラルネットワークDNN6(1008)を使用して実行される。
50.別の実施形態では、実施形態27~49のいずれかによる方法が開示され、少なくとも1つの関心オブジェクトの分類、検出、およびセグメンテーションのステップは入力画像上の第7の深層ニューラルネットワークDNN7(1104)を使用して実行される。
51.別の実施形態では、実施形態27~50のいずれかによる方法が開示され、少なくとも1つの関心オブジェクトの分類、検出、およびセグメンテーションのステップは入力画像上の第7の深層ニューラルネットワークDNN7(1104)を使用して実行され、および/または任意選択で、深層ニューラルネットワークDNN7(1104)がマスクR-CNNを含む。
52.別の実施形態では、実施形態27~51のいずれかによる方法が開示され、少なくとも1つの関心オブジェクトの分類、検出、およびセグメンテーションのステップは入力画像上の第7の深層ニューラルネットワークDNN7(1104)を使用して実行され、および/または任意選択で、深層ニューラルネットワークDNN7(1104)がマスクR-CNNを含む。
53.別の実施形態では、実施形態27~52のいずれかによる方法が開示され、少なくとも1つの関心オブジェクトの分類、検出、およびセグメンテーションのステップは入力画像上の第7の深層ニューラルネットワークDNN7(1104)を使用して実行され、任意選択で、深層ニューラルネットワークDNN7(1104)がマスクR-CNNを含む。
54.別の実施形態では、実施形態27~53のいずれかによる方法が開示され、関心オブジェクトの少なくとも1つのオブジェクトの分類、検出、およびセグメンテーションのステップは入力画像上の第7の深層ニューラルネットワークDNN7(1104)を使用して実行され、深層ニューラルネットワークDNN7(1104)がマスクR-CNNを含む。
55.別の実施形態では、実施形態18~35のいずれかによる方法が開示され、少なくとも1つの、検出され、セグメント化された関心オブジェクトの後処理(1206)のステップが実行される。
56.さらなる実施形態では、コンピュータによって実行されると、コンピュータに、以下のステップを実行させる命令を含むコンピュータプログラム製品が開示される。
(i)少なくとも1つの関心オブジェクトを含むデータベースから入力画像を受信すること、および/または、
(ii)第1の深層ニューラルネットワークDNN1(804)を使用して、入力画像から、前記少なくとも1つの関心オブジェクトを含む少なくとも第1の関心領域(RoI)を取得すること、および/または、
(iii)第2の深層ニューラルネットワークDNN2(806)を使用して、第1のRoIにおける少なくとも1つの関心オブジェクトを分類すること、および/または、
(iv)第3の深層ニューラルネットワークDNN3(808)を使用して、第1のRoIにおける少なくとも1つの関心オブジェクトを検出すること、および/または、
(v)第4の深層ニューラルネットワークDNN4(810)によって生成されたバイナリマスクを使用して、少なくとも1つの、分類および検出された関心オブジェクトをセグメント化すること、および/または、
(vi)前記少なくとも1つの、分類され、検出され、セグメント化された関心オブジェクトから特徴を抽出すること(812)。
57.さらなる実施形態では、コンピュータによってプログラムが実行されると、コンピュータに、以下のステップを実行させる命令からなるコンピュータプログラム製品が開示される。
(i)少なくとも1つの関心オブジェクトを含むデータベースから入力画像を受信すること、および/または、
(ii)第1の深層ニューラルネットワークDNN1(804)を使用して、入力画像から、前記少なくとも1つの関心オブジェクトを含む少なくとも第1の関心領域(RoI)を取得すること、および/または、
(iii)第2の深層ニューラルネットワークDNN2(806)を使用して、第1のRoIにおける少なくとも1つの関心オブジェクトを分類すること、および/または、
(iv)第3の深層ニューラルネットワークDNN3(808)を使用して、第1のRoIにおける少なくとも1つの関心オブジェクトを検出すること、および/または、
(v)第4の深層ニューラルネットワークDNN4(810)によって生成されたバイナリマスクを使用して、少なくとも1つの、分類および検出された関心オブジェクトをセグメント化すること、および/または、
(vi)前記少なくとも1つの、分類され、検出され、セグメント化された関心オブジェクトから特徴を抽出すること(812)。
58.さらなる実施形態では、コンピュータによって実行されると、コンピュータに、以下のステップを実行させる命令を含むコンピュータプログラム製品が開示される。
(i)少なくとも1つの関心オブジェクトからなるデータベースから入力画像を受信すること、および/または、
(ii)第1の深層ニューラルネットワークDNN1(804)を使用して、入力画像から、前記少なくとも1つの関心オブジェクトを含む少なくとも第1の関心領域(RoI)を取得すること、および/または、
(iii)第2の深層ニューラルネットワークDNN2(806)を使用して、第1のRoIにおける少なくとも1つの関心オブジェクトを分類すること、および/または、
(iv)第3の深層ニューラルネットワークDNN3(808)を使用して、第1のRoIにおける少なくとも1つの関心オブジェクトを検出すること、および/または、
(v)第4の深層ニューラルネットワークDNN4(810)によって生成されたバイナリマスクを使用して、少なくとも1つの、分類および検出された関心オブジェクトをセグメント化すること、および/または、
(vii)前記少なくとも1つの、分類され、検出され、セグメント化された関心オブジェクトから特徴を抽出すること(812)。
59.さらなる実施形態では、コンピュータによってプログラムが実行されると、コンピュータに、以下のステップを実行させる命令からなるコンピュータプログラム製品が開示される。
(i)少なくとも1つの関心オブジェクトからなるデータベースから入力画像を受信すること、および/または、
(ii)第1の深層ニューラルネットワークDNN1(804)を使用して、入力画像から、前記少なくとも1つの関心オブジェクトを含む少なくとも第1の関心領域(RoI)を取得すること、および/または、
(iii)第2の深層ニューラルネットワークDNN2(806)を使用して、第1のRoIにおける少なくとも1つの関心オブジェクトを分類すること、および/または、
(iv)第3の深層ニューラルネットワークDNN3(808)を使用して、第1のRoIにおける少なくとも1つの関心オブジェクトを検出すること、および/または、
(v)第4の深層ニューラルネットワークDNN4(810)によって生成されたバイナリマスクを使用して、少なくとも1つの、分類および検出された関心オブジェクトをセグメント化すること、および/または、
(viii)前記少なくとも1つの、分類され、検出され、セグメント化された関心オブジェクトから特徴を抽出すること(812)。
60.さらなる実施形態では、コンピュータによって実行されると、コンピュータに、以下のステップを実行させる命令を含むコンピュータ可読[記憶]媒体/データキャリアが開示される。
(i)少なくとも1つの関心オブジェクトを含むデータベースから入力画像を受信すること、および/または、
(ii)第1の深層ニューラルネットワークDNN1(804)を使用して、入力画像から、前記少なくとも1つの関心オブジェクトを含む少なくとも第1の関心領域(RoI)を取得すること、および/または、
(iii)第2の深層ニューラルネットワークDNN2(806)を使用して、第1のRoIにおける少なくとも1つの関心オブジェクトを分類すること、および/または、
(iv)第3の深層ニューラルネットワークDNN3(808)を使用して、第1のRoIにおける少なくとも1つの関心オブジェクトを検出すること、および/または、
(v)第4の深層ニューラルネットワークDNN4(810)によって生成されたバイナリマスクを使用して、少なくとも1つの、分類および検出された関心オブジェクトをセグメント化すること、および/または、
(ix)前記少なくとも1つの、分類され、検出され、セグメント化された関心オブジェクトから特徴を抽出すること(812)。
61.さらなる実施形態では、コンピュータによって実行されると、コンピュータに、以下のステップを実行させる命令からなる、コンピュータ可読[記憶]媒体/データキャリアが開示される。
(i)少なくとも1つの関心オブジェクトを含むデータベースから入力画像を受信すること、および/または、
(ii)第1の深層ニューラルネットワークDNN1(804)を使用して、入力画像から、前記少なくとも1つの関心オブジェクトを含む少なくとも第1の関心領域(RoI)を取得すること、および/または、
(iii)第2の深層ニューラルネットワークDNN2(806)を使用して、第1のRoIにおける少なくとも1つの関心オブジェクトオブジェクトを分類すること、および/または、
(iv)第3の深層ニューラルネットワークDNN3(808)を使用して、第1のRoIにおける少なくとも1つの関心オブジェクトを検出すること、および/または、
(v)第4の深層ニューラルネットワークDNN4(810)によって生成されたバイナリマスクを使用して、少なくとも1つの、分類および検出された関心オブジェクトをセグメント化すること、および/または、
(x)前記少なくとも1つの、分類され、検出され、セグメント化された関心オブジェクトから特徴を抽出すること(812)。
62.さらなる実施形態では、コンピュータによって実行されると、コンピュータに、以下のステップを実行させる命令を含むコンピュータ可読[記憶]媒体/データキャリアが開示される。
(vi)少なくとも1つの関心オブジェクトからなるデータベースからの入力画像を受信すること、および/または、
(vii)第1の深層ニューラルネットワークDNN1(804)を使用して、入力画像から、前記少なくとも1つの関心オブジェクトを含む少なくとも第1の関心領域(RoI)を取得すること、および/または、
(viii)第2の深層ニューラルネットワークDNN2(806)を使用して、第1のRoIにおける少なくとも1つの関心オブジェクトを分類すること、および/または、
(ix)第3の深層ニューラルネットワークDNN3(808)を使用して、第1のRoIにおける少なくとも1つの関心オブジェクトを検出すること、および/または、
(x)第4の深層ニューラルネットワークDNN4(810)によって生成されたバイナリマスクを使用して、少なくとも1つの、分類および検出された関心オブジェクトをセグメント化すること、および/または、
(xi)前記少なくとも1つの、分類され、検出され、セグメント化された関心オブジェクトから特徴を抽出すること(812)。
63.さらなる実施形態では、コンピュータによって実行されると、コンピュータに、以下のステップを実行させる命令からなる、コンピュータ可読[記憶]媒体/データキャリアが開示される。
(xi)少なくとも1つの関心オブジェクトからなるデータベースから入力画像を受信すること、および/または、
(xii)第1の深層ニューラルネットワークDNN1(804)を使用して、入力画像から、前記少なくとも1つの関心オブジェクトを含む少なくとも第1の関心領域(RoI)を取得すること、および/または、
(xiii)第2の深層ニューラルネットワークDNN2(806)を使用して、第1のRoIにおける少なくとも1つの関心オブジェクトを分類すること、および/または、
(xiv)第3の深層ニューラルネットワークDNN3(808)を使用して、第1のRoIにおける少なくとも1つの関心オブジェクトを検出すること、および/または、
(xv)第4の深層ニューラルネットワークDNN4(810)によって生成されたバイナリマスクを使用して、少なくとも1つの、分類および検出された関心オブジェクトをセグメント化すること、および/または、
(xii)前記少なくとも1つの、分類され、検出され、セグメント化された関心オブジェクトから特徴を抽出すること(812)。
【0084】
特定の実施形態を参照して本発明を説明するが、本発明の範囲から逸脱することなく、様々な変更を行うことができ、等価物を置き換えることができることが、当業者によって理解されるのであろう。さらに、本発明の範囲から逸脱することなく、特定の状況または材料を本発明の教示に適合させるために、多くの修正を行うことができる。したがって、本発明は開示された特定の実施形態に限定されるものではなく、本発明は添付の特許請求の範囲内に入るすべての実施形態を含むことが意図される。
【国際調査報告】