IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ エフ. ホフマン−エルエー ロシュ アーゲーの特許一覧 ▶ ジェネンテック, インコーポレイテッドの特許一覧

<>
  • 特表-内視鏡疾患の自動評価 図1
  • 特表-内視鏡疾患の自動評価 図2
  • 特表-内視鏡疾患の自動評価 図3
  • 特表-内視鏡疾患の自動評価 図4
  • 特表-内視鏡疾患の自動評価 図5A
  • 特表-内視鏡疾患の自動評価 図5B
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公表特許公報(A)
(11)【公表番号】
(43)【公表日】2023-04-04
(54)【発明の名称】内視鏡疾患の自動評価
(51)【国際特許分類】
   G16H 50/20 20180101AFI20230328BHJP
   G06Q 50/22 20180101ALI20230328BHJP
   G16H 30/00 20180101ALI20230328BHJP
【FI】
G16H50/20
G06Q50/22
G16H30/00
【審査請求】未請求
【予備審査請求】未請求
(21)【出願番号】P 2022547168
(86)(22)【出願日】2021-01-29
(85)【翻訳文提出日】2022-09-27
(86)【国際出願番号】 EP2021052170
(87)【国際公開番号】W WO2021156152
(87)【国際公開日】2021-08-12
(31)【優先権主張番号】20155469.8
(32)【優先日】2020-02-04
(33)【優先権主張国・地域又は機関】EP
(81)【指定国・地域】
(71)【出願人】
【識別番号】514099673
【氏名又は名称】エフ・ホフマン-ラ・ロシュ・アクチェンゲゼルシャフト
(71)【出願人】
【識別番号】509012625
【氏名又は名称】ジェネンテック, インコーポレイテッド
(74)【代理人】
【識別番号】110002077
【氏名又は名称】園田・小林弁理士法人
(72)【発明者】
【氏名】アルカデュ, フィリッポ
(72)【発明者】
【氏名】グティエレス-ベッカー, ベンジャミン
(72)【発明者】
【氏名】タールハンマー, アンドレアス
(72)【発明者】
【氏名】プルノット, マルコ
(72)【発明者】
【氏名】オ, ヨン ソク
【テーマコード(参考)】
5L099
【Fターム(参考)】
5L099AA01
5L099AA03
5L099AA04
5L099AA26
(57)【要約】
本出願は、大腸内視鏡映像又はその一部を分析するため、かつ対象から取得された大腸内視鏡映像を分析することによって対象における潰瘍性大腸炎の重症度を評価するためのデバイス及び方法に関する。大腸内視鏡映像を分析することは、第1の深層ニューラルネットワーク分類器を使用して、対象の大腸内視鏡映像又はその一部からの画像データを少なくとも第1の重症度クラス(より重篤な内視鏡病変)及び第2の重症度クラス(より重篤でない内視鏡病変)に分類することを含み、前記第1の深層ニューラルネットワークは、複数の訓練用大腸内視鏡映像からの訓練画像データを使用して、弱教師付き方式で少なくとも部分的に訓練されており、前記訓練画像データは、前記複数の訓練用大腸内視鏡映像からの連続フレームの複数のセットを含み、セット内のフレームは、同じ重症度クラスラベルを有する。大腸内視鏡映像を分析するためのツールを提供するためのデバイス及び方法についても説明される。
【選択図】図2
【特許請求の範囲】
【請求項1】
大腸内視鏡映像又はその一部を分析する方法であって、前記方法は、第1の深層ニューラルネットワーク分類器を使用して、前記大腸内視鏡映像又はその一部からの画像データを少なくとも第1の重症度クラス及び第2の重症度クラスに分類することを含み、前記第1の重症度クラスは、前記第2の重症度クラスよりも重篤な内視鏡病変に関連付けられ、前記第1の深層ニューラルネットワークは、複数の訓練用大腸内視鏡映像からの訓練画像データを使用して、弱教師付き方式で少なくとも部分的に訓練されており、前記訓練画像データは、前記複数の訓練用大腸内視鏡映像からの連続フレームの複数のセットを含み、セット内のフレームは、同じ重症度クラスラベルを有する、方法。
【請求項2】
前記方法は、第2の深層ニューラルネットワーク分類器を使用して、前記大腸内視鏡映像又はその一部からの画像データを少なくとも第1の品質クラス及び第2の品質クラスに分類することを更に含み、前記第1の品質クラスは、前記第2の品質クラスよりも良好な品質の画像に関連付けられ、前記第1の品質クラスの画像データは、前記第1の深層ニューラルネットワーク分類器に提供され、所望により、前記第2の深層ニューラルネットワークは、複数の訓練用大腸内視鏡映像からの訓練画像データを使用して、弱教師付き方式で少なくとも部分的に訓練されており、前記訓練画像データは、前記複数の訓練用大腸内視鏡映像からの連続フレームの複数のセットを含み、セット内のフレームは、同じ品質クラスラベルを有し、好ましくは、前記訓練画像データ内の連続フレームの各セットは、連続フレームのそれぞれのセットを含む映像の前記セグメントの目視検査によってクラスラベルが割り当てられている、請求項1に記載の方法。
【請求項3】
前記訓練画像データ内のフレームの各セットにおける前記フレームは、大腸の単一の解剖学的セクションに対応する、請求項1又は2に記載の方法。
【請求項4】
前記訓練画像データ内のフレームの各セットは、目視検査が、フレームの前記セットを含む訓練用大腸内視鏡映像の前記セグメントを第1の範囲内の内視鏡重症度スコアと関連付けた場合には、第1の重症度クラスラベルが割り当てられており、所望により、前記訓練画像データ内のフレームの各セットは、2つの独立した目視検査が、フレームの前記セットを含む訓練用大腸内視鏡映像の前記セグメントを第1の範囲内の内視鏡重症度スコアと関連付けた場合には、第1の重症度クラスラベルが割り当てられている、請求項1から3のいずれか一項に記載の方法。
【請求項5】
前記内視鏡重症度スコアは、メイヨークリニック内視鏡サブスコア(MCES)であり、所望により、前記第1の範囲は、MCES>1又はMCES>2である、請求項4に記載の方法。
【請求項6】
前記第1の深層ニューラルネットワーク分類器は、画像データを3つ以上の重症度クラスに分類し、前記訓練画像データ内のフレームの各セットは、目視検査が、フレームの前記セットを含む訓練用大腸内視鏡映像の前記セグメントを、前記3つ以上の重症度クラスの各々に対して所定の異なる範囲内の内視鏡重症度スコアと関連付けた場合には、前記3つ以上の重症度クラスラベルのうちの1つが割り当てられており、所望により、前記訓練画像データ内のフレームの各セットは、2つの独立した目視検査が、フレームの前記セットを含む訓練用大腸内視鏡映像の前記セグメントを同じ前記1つの重症度クラスラベルに関連付けられた範囲内の内視鏡重症度スコアと関連付けた場合には、前記3つ以上の重症度クラスラベルのうちの1つが割り当てられており、好ましくは、前記内視鏡重症度スコアは、前記MCESであり、前記第1の深層ニューラルネットワーク分類器は、画像データを4つの重症度クラスに分類し、各重症度クラスは、異なるMCESに関連付けられる、請求項1から5のいずれか一項に記載の方法。
【請求項7】
前記大腸内視鏡映像又はその一部からの前記画像データは、複数の連続フレームを含み、前記大腸内視鏡映像又はその一部を分析することは、前記第1の深層ニューラルネットワーク分類器を使用して、かつ所望により、前記第2の深層ニューラルネットワーク分類器を使用して、前記大腸内視鏡映像又はその一部からの前記画像データ内の前記複数のフレームを個別に分類することを含む、請求項1から6のいずれか一項に記載の方法。
【請求項8】
個別のフレームを分類することは、前記複数のフレームの各々に対して、前記フレームが前記第1のクラスに属する確率及び/又は前記フレームが前記第2のクラスに属する確率を提供することを含む、請求項7に記載の方法。
【請求項9】
前記大腸内視鏡映像又はその一部を分析することは、前記複数のフレームに対する前記第1の深層ニューラルネットワーク分類器からの前記個別の分類に基づいて、前記大腸内視鏡映像又はその一部に要約済みの重症度クラスを割り当てることを更に含み、所望により、個別のフレームを分類することは、前記複数のフレームの各々に対して、前記フレームが前記第1の重症度クラスに属する確率を提供することを含み、前記複数のフレームの前記個別の分類に基づいて、前記大腸内視鏡映像又はその一部に要約済みの重症度クラスを割り当てることは、前記第1の重症度クラスに属する前記フレームの前記確率の平均が閾値を超える場合に前記第1の重症度クラスを割り当てること、又は前記第1の重症度クラスに割り当てられたフレームの割合が閾値を超える場合に前記第1の重症度クラスを割り当てることを含む、請求項7又は8のいずれかに記載の方法。
【請求項10】
前記第1、第2及び/又は第3の深層ニューラルネットワーク分類器(複数可)は、畳み込みニューラルネットワーク(複数可)(CNN)であり、所望により、前記CNNは、無関係な画像データ上で事前訓練されており、かつ/又は前記CNNは、50層のCNNであり、かつ/又は前記CNNは、深層残差学習フレームワークを使用して事前訓練されたCNNである、請求項1から9のいずれか一項に記載の方法。
【請求項11】
前記内視鏡病変は、潰瘍性大腸炎を示し、かつ/又は前記第1の重症度クラスは、前記第2の重症度クラスよりも重篤な潰瘍性大腸炎に関連付けられている、請求項1から10のいずれか一項に記載の方法。
【請求項12】
対象における潰瘍性大腸炎(UC)の重症度を評価する方法であって、前記方法は、請求項1から11のいずれか一項に記載の方法を使用して、前記対象又はその一部からの大腸内視鏡映像を分析することを含む、方法。
【請求項13】
請求項12に記載の方法であって、前記対象又はその一部からの大腸内視鏡映像を分析することが、
(i)MCES>1に対応する第1の重症度クラスとMCES≦1に対応する第2の重症度クラスとの間で画像データを分類する第1の深層ニューラルネットワーク分類器を使用して前記大腸内視鏡映像又はその一部を分析することと、
(ii)MCES>2に対応する第1の重症度クラスとMCES≦2に対応する第2の重症度クラスとの間で画像データを分類する第1の深層ニューラルネットワーク分類器を使用して前記大腸内視鏡映像又はその一部を分析することと、
(iii)工程(ii)で前記映像の少なくとも1つのセグメントが第1の重症度クラスに割り当てられている場合には第1の治療で、工程(ii)で前記映像のセグメントが第1の重症度クラスに割り当てられていないが、工程(i)で前記映像のセグメントの少なくとも1つが第1の重症度クラスに割り当てられている場合には第2の治療で、UCの治療のために前記対象を選択することと、を含み、
前記方法が、所望により、前記対象を治療することを更に含む、方法
【請求項14】
大腸内視鏡映像又はその一部を分析するためのツールを提供する方法であって、前記方法は、
複数の訓練用大腸内視鏡映像から連続フレームの複数のセットを含む訓練画像データを取得することであって、セット内のフレームが少なくとも第1の重症度クラス及び第2の重症度クラスから選択された同じ重症度クラスラベルを有し、前記第1の重症度クラスが前記第2の重症度クラスよりも重篤な内視鏡病変に関連付けられている、取得することと、
第1の深層ニューラルネットワークを訓練して、少なくとも第1の重症度クラス及び第2の重症度クラスに画像データを分類することであって、前記訓練は、前記訓練画像データ及び前記重症度クラスラベルを使用して弱教師付き方式で実施される、訓練して、分類することと、を含み、
前記方法が、所望により、第2の深層ニューラルネットワーク分類器を使用して、複数のフレームを含む訓練画像データを少なくとも第1の品質クラス及び第2の品質クラスに分類することを更に含み、前記第1の品質クラスは、前記第2の品質クラスよりも良好な品質の画像に関連付けられ、前記第1の深層ニューラルネットワークの訓練は、前記第2の深層ニューラルネットワーク分類器によって前記第1の品質クラスに分類された前記訓練画像データを使用して実施される、
方法。
【請求項15】
対象から取得された大腸内視鏡映像から前記対象における潰瘍性大腸炎の重症度を評価するためのシステムであって、
少なくとも1つのプロセッサと、
前記少なくとも1つのプロセッサによって実行されると、前記少なくとも1つのプロセッサに、前記大腸内視鏡映像又はその一部からの画像データを少なくとも第1の重症度クラス及び第2の重症度クラスに分類することを含む動作を実施させる命令を含む、少なくとも1つの非一時的コンピュータ可読媒体とを備え、
、前記第1の重症度クラスは、前記第2の重症度クラスよりも重篤な潰瘍性大腸炎に関連付けられ、前記第1の深層ニューラルネットワークは、複数の訓練用大腸内視鏡映像からの訓練画像データを使用して、弱教師付き方式で少なくとも部分的に訓練されており、前記訓練画像データは、前記複数の訓練用大腸内視鏡映像からの連続フレームの複数のセットを含み、セット内のフレームは、同じ重症度クラスラベルを有し、前記命令は、所望により、前記少なくとも1つのプロセッサによって実行されると、前記プロセッサに、請求項2~14のいずれか一項に記載の動作を更に実施させる、
システム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、大腸内視鏡映像を分析するためのコンピュータ実装方法、並びにその方法を実装するコンピューティングデバイスに関する。本発明の方法及びデバイスは、潰瘍性大腸炎などの炎症性腸疾患の臨床評価に応用される。従って、本発明はまた、患者における炎症性腸疾患、特に潰瘍性大腸炎の重症度を評価する方法に関する。
【背景技術】
【0002】
潰瘍性大腸炎(UC)などの炎症性腸疾患では、内視鏡病変の存在及び重症度の内視鏡評価が、臨床評価の一貫として確立されている。この評価は、高い変動性及び偏りの影響を受けやすい(レビューについては、Panes et al.,Journal of Crohn’s and Colitis,2016,S542-S547を参照されたい)。これらの問題を軽減することができる方法として、患者と接触せず、特別に訓練された判読者が内視鏡検査データを独自に評価する中央内視鏡判読が注目されている。しかし、このプロセスは「伝統的な」臨床評価よりも更に人的資源集約的であり、その実際の実行可能性を制限するものである。
【0003】
大腸内視鏡映像の評価を自動化するために機械学習アプローチを使用することが提案されている。特に、Stidham et al.(JAMA Network Open.2019 May;2(5):e193963)は、深層学習モデルが、経験豊富な人間のレビュー者と同様に、UCの内視鏡的重症度を分類できるかどうかを判定するための診断的な研究を報告している。この研究では、アルゴリズムを訓練する特定の目的のために専門家によって選択され、個別にスコア付けされた静止画像を用いて訓練された機械学習アルゴリズムが使用され、訓練用の高品質の「グランドトゥルース」データが提供されている。彼らはこのアプローチである程度の成功を示しているが、専門家の消化器内科医が手動で静止画像を慎重に選択する必要があること、及びこれに関連する潜在的な偏り(中央内視鏡判読が低減しようとする偏りと同様)があることから、その実用性は制限されている。
【0004】
従って、大腸内視鏡映像から内視鏡病変の重症度を自動的に評価する方法を改善することが依然として必要とされている。
【発明の概要】
【0005】
本発明者らは、深層ニューラルネットワーク分類器を使用して大腸内視鏡映像を分析するための、特に、かかる映像からの画像データに重症度クラスを関連付けるための、新しいデバイス及び方法を開発した。この方法及びデバイスは、未加工の大腸内視鏡映像データを使用して訓練された深層ニューラルネットワーク分類器を使用して未加工の大腸内視鏡映像又はその一部を分析することによって、臨床的に有意な重症度の評価を取得することができ、訓練データ内の映像全体又は映像のセグメントが同じクラスラベルに関連付けられるという発見に由来する。内視鏡評価を自動化するためのこれまでのアプローチでは、アルゴリズムを訓練する特定の目的のために専門家によって選択され個別にスコア付けされた静止画像を用いて訓練された機械学習アルゴリズムが使用され、訓練用の「グランドトゥルース」データが提供されてきた。対照的に、本発明者らは、例えば臨床試験の出力として一般的に利用可能な未加工の(すなわち、フレーム毎に選択されない)専門家の注釈付き大腸内視鏡映像データを用いて、訓練用の「グランドトゥルース」データが存在しない状態で弱教師付き方式で訓練された深層ニューラルネットワーク分類器を使用して、大腸内視鏡映像を異なる重症度クラスに正確に分類することが可能であることを見出した。
【0006】
炎症性腸疾患の臨床評価の一部として作成されたものなどの専門家の注釈付き大腸内視鏡映像は、中央内視鏡判読などのより厳密な形式であっても、専門家による、大腸の解剖学的セクションを代表する各映像又は映像のセグメントに対する全体的な重症度スコアの割り当てに依存する。従って、かかる映像内の全てのフレームが、専門家がスコアを割り当てる原因となった病変を実際に示すわけではなく、映像の重症度スコアは、映像を構成する個別のフレームの状態を正確に捕捉するとは期待されない。更に、品質及び情報コンテンツは、映像全体にわたって大きく変動し得る。結果として、このデータはノイズが多く、不正確である。驚くべきことに、本発明者らは、かかる未加工の(すなわち、フレーム毎に選択されない)専門家の注釈付き大腸内視鏡映像データを用いて、弱教師付き方式で訓練された深層ニューラルネットワーク分類器を使用して、大腸内視鏡映像を異なる重症度クラスに正確に分類することが可能であることを見出した。
【0007】
従って、本発明の第1の態様は、大腸内視鏡映像又はその一部を分析する方法を提供し、この方法は、第1の深層ニューラルネットワーク分類器を使用して、大腸内視鏡映像又はその一部からの画像データを少なくとも第1の重症度クラス及び第2の重症度クラスに分類することを含み、第1の重症度クラスは、第2の重症度クラスよりも重篤な内視鏡病変に関連付けられ、第1の深層ニューラルネットワークは、複数の訓練用大腸内視鏡映像からの訓練画像データを使用して、弱教師付き方式で少なくとも部分的に訓練されており、訓練画像データは、複数の訓練用大腸内視鏡映像からの連続フレームの複数のセットを含み、セット内のフレームは、同じ重症度クラスラベルを有する。有利には、内視鏡病変は潰瘍性大腸炎を示すことができる。好ましい実施形態において、第1の重症度クラスは、第2の重症度クラスよりも重篤な潰瘍性大腸炎に関連付けられている。
【0008】
本発明の文脈において、「弱教師付き方式」で分類器を訓練することは、訓練データが「グランドトゥルース」データではないデータを含むことを意味する。グランドトゥルース訓練データとは、各訓練データ(例えば、映像内の各フレーム)に、その訓練データが属するクラスを真に反映すると考えられる訓練クラスラベルが割り当てられている訓練データを指す。対照的に、本発明は、不確実な訓練クラスラベルを有するデータを含む訓練データを使用する。例えば、セグメント全体が、割り当てられたクラスラベルに関連付けられた基準を満たすので、訓練映像内のセグメントを形成する複数のフレームに同じクラスラベルを割り当てることができる。しかし、特定のセグメント内の全てのフレームが、セグメントがクラスラベルを割り当てられるようになった特徴を示すという確証はない。従って、セグメント内のありとあらゆるフレームが正しいクラスに割り当てられたか否かに関しては、若干の不確実性があり、結果として得られる訓練データは、弱教師付きの訓練プロセスしか可能にしない。別の例として、訓練映像内のフレームには、予め訓練された分類器又は他の機械学習アルゴリズムを使用するなどして、クラスラベルを自動的に割り当てることができる。かかる実施形態では、各フレームが正しいクラスに割り当てられたか否かについても若干の不確実性があるが、これは、分類器は、以前に見たことのないデータに対するクラスを100%の精度で予測することができるとは期待されておらず、結果として得られる訓練データは、弱教師付きの訓練プロセスしか可能にしないためである。その最も単純な形態において、弱教師付きとは、単に、(未知の)不確実性レベルを有する訓練クラスラベルが割り当てられた訓練データを使用することを指す。実施形態では、訓練クラス割り当てにおける不確実性のレベルを定量化(例えば、推定又は仮定など)することができ、訓練において不確実性を考慮することができる。
【0009】
本発明の文脈において、連続フレームのセットは、一緒になって映像のセグメントを形成するフレームのセットを意味する。従って、用語「連続フレームのセット」及び「映像のセグメント」は、交換可能に使用される。実際には、映像のセグメントは、未加工の映像の対応するセグメントの全ての単一フレームを含まないことがある。実際、フレームは、映像からのデータ量を減らすために、コンテンツに依存しないベースで選択することができる。例えば、これは、例えば24フレーム/秒の映像(すなわち、12フレーム/秒)の1つおきのフレームを使用することによって実施することができる。しかしながら、本開示の文脈において、映像のセグメントを形成する全てのフレームは、各フレームを個別に分析することによってではなく、ラベルがセグメントに割り当てられたことによって、同じラベルを有することになる。好ましくは、ラベルに関連付けられた訓練映像のセグメントを形成する全ての連続フレームが使用される。全てのフレームが使用されない場合、データ削減(フレーム選択)は、好ましくは、手動キュレーションに基づかずに、(又は完全に自動化可能なスキームに基づいて)自動化される。データ削減のための完全に自動化可能なスキームには、1フレームおきの選択、nフレーム(ここで、nは、例えば、2、3、4などであり得る)における1フレームおきの選択、nフレームにおける2フレームおきの選択、毎秒nフレームのランダム選択などが含まれ得る。
【0010】
本発明の文脈において、用語「重症度」は、内視鏡病変の存在によって評価される炎症性腸疾患、特にUCの重症度を指す。内視鏡病変には、紅斑、血管パターンの減少又は欠如、摩損、びらん、出血、及び潰瘍のうちの1又は複数が含まれ得る。
【0011】
実施形態では、本方法は、第2の深層ニューラルネットワーク分類器を使用して、大腸内視鏡映像又はその一部からの画像データを少なくとも第1の品質クラス及び第2の品質クラスに分類することを更に含み、第1の品質クラスは、第2の品質クラスよりも良好な品質の画像に関連付けられ、第1の品質クラスの画像データは、第1の深層ニューラルネットワーク分類器に提供される。
【0012】
本発明者らは、対象映像の訓練中及び評価中の両方で、画像データの品質ベースのフィルタリングのために別個の深層ニューラルネットワーク分類器を使用することにより、未加工の映像が訓練及び評価の両方に使用される状況において重症度ベースの分類の精度が著しく向上することを見出した。
【0013】
実施形態では、第2の深層ニューラルネットワークは、複数の訓練用大腸内視鏡映像からの訓練画像データを使用して、弱教師付き方式で少なくとも部分的に訓練されており、訓練画像データは、複数の訓練用大腸内視鏡映像からの連続フレームの複数のセットを含み、セット内のフレームは、同じ品質クラスラベルを有する。
【0014】
実施形態では、第2の深層ニューラルネットワークは、複数の訓練用大腸内視鏡映像からの訓練画像データを使用して、少なくとも部分的に弱教師付き方式で訓練されており、訓練画像データは、品質クラスラベルが自動的に割り当てられた複数の訓練用大腸内視鏡映像からの複数のフレームを含む。一部のかかる実施形態では、品質クラスラベルは、1又は複数の以前に訓練された機械学習アルゴリズム(例えば、本明細書に記載されるような深層ニューラルネットワーク分類器などの1又は複数の分類器)を使用して自動的にフレームに割り当てられている。
【0015】
発明者らは、驚くべきことに、弱い(不確実な)クラスラベルで品質について注釈付けされた画像データを使用して、品質ベースのフィルタリングを実施し、それによって重症度ベースの評価の精度を改善する深層ニューラルネットワーク分類器を訓練することが可能であることを見出した。弱いクラスラベルは、セグメント毎(すなわち、フレームのセット)ベースで画像データに注釈を付けることによって取得することができる。セグメント毎に品質クラスラベルを割り当てることによって映像に注釈を付けることは、比較的簡単なタスクであり、例えばクラウドソーシングによってスケーリングすることができる。しかし、セグメント内の全ての個別のフレームが、そのセグメントに対する品質クラスラベルの割り当てをもたらす特徴を有するわけではない。従って、セットに割り当てられたラベルは、セットを構成する個別のフレームの弱いラベル付けを表す。同様に、予め訓練された機械学習アルゴリズムを使用して映像に自動的に注釈を付けることは非常に簡単でコスト効率が良いが、全てのフレームに正しいクラスラベルが割り当てられていると期待できるわけではない。この不確実性を考慮して、各フレームに割り当てられたラベルは、弱いラベル付けを表す。それにもかかわらず、本発明者らは、かかる弱いラベルを使用して、品質ベースフィルタリングのための深層ニューラルネットワーク分類器を訓練することが、フィルタリングされたデータに基づいて正確な重症度ベース分類が可能であるようにデータをフィルタリングするのに十分であることを見出した。
【0016】
実施形態では、第2の深層ニューラルネットワークを訓練するために使用される複数の訓練用大腸内視鏡映像と、第1の深層ニューラルネットワークを訓練するために使用される複数の訓練用大腸内視鏡映像とは、部分的に重複していてもよい。例えば、実施形態では、第1の深層ニューラルネットワークを訓練するために使用される訓練画像データは、第2の深層ニューラルネットワークを訓練するために使用される訓練画像データのサブセットであってもよい。有利には、第1の深層ニューラルネットワークを訓練するために使用される訓練画像データは、第2の深層ニューラルネットワークによって第1のクラスに分類されたフレームを含み得る。
【0017】
実施形態では、訓練画像データ内の連続フレームの各セットには、連続フレームの各セットを含む映像のセグメントの目視検査によってクラスラベルが割り当てられている。
【0018】
実施形態では、訓練画像データ内の連続フレームの各セットは、連続フレームのセットから構成される訓練用大腸内視鏡映像セグメントの目視検査で大腸壁及び大腸血管を区別することができる場合には、第1の品質クラスラベルが割り当てられ、そうでない場合には、第2の品質クラスラベルが割り当てられている。
【0019】
本発明者らは、驚くべきことに、大腸内視鏡映像を(i)大腸壁及び血管が見えるセクションと、(ii)それらが見えないセクションとに、セグメント化することによる画像データの品質の粗い評価が、品質ベースフィルタリングのための深層ニューラルネットワーク分類器の訓練に情報を与えるのに十分であることを見出した。有利には、かかる粗い評価は、比較的迅速に取得することができ、クラウドソーシングすることができる。
【0020】
有利には、訓練用大腸内視鏡映像セグメントが水、高反射領域、便及び/又はぼやけの存在又は非存在に基づく1又は複数の基準を更に満たす場合には、訓練画像データ内の連続フレーム(映像のセグメント)の各セットに第1の品質クラスラベルを割り当て、そうでない場合には第2の品質クラスラベルを割り当てることができる。実施形態では、1又は複数の基準は、水、便又は高反射領域が併せてフレーム上で見える領域の最大20%、最大15%、最大10%又は最大5%、好ましくは最大10%をカバーしているかどうかを含む。実施形態では、1又は複数の基準は、水、便又は高反射領域がそれぞれ、フレーム上で見える領域の最大20%、最大15%、最大10%又は最大5%、好ましくは最大10%をカバーしているかどうかを含む。実施形態では、1又は複数の基準は、映像のセグメントが人間の評価によってぼやけていると判定されたか否かを含む。
【0021】
良好な品質クラスに訓練データを割り当てるために、アーチファクトが存在しないというより厳しい基準を使用することは、重症度ベース分類器の訓練に使用される画像の品質を向上させるのに役立ち得る。当業者が理解するように、品質ベースのフィルタリングの厳密性を増大させる場合、フィルタリングされたデータの品質と、フィルタを通過して訓練に利用可能なデータの量との間にトレードオフが存在する。本発明者らは、上記の基準(壁及び血管が見えること、1又は複数のアーチファクトの許容レベル)の組み合わせを用いると、バランスが良く、正確な重症度に基づく評価の提供を可能にすることを見出した。
【0022】
実施形態では、訓練画像データ内のフレームの各セット内のフレームは、大腸の単一の解剖学的セクションに対応する。換言すれば、フレームの各セットは、それが単一の解剖学的セクションに限定されるように定義することができる。完全な大腸内視鏡映像は、複数のかかるセグメントを含むことができ、各セグメントにより、直腸、S状結腸、又は下行結腸などのセクションが探索される。
【0023】
解剖学的セクションによってセグメント化された訓練データを使用することは、訓練用のより詳細なデータを提供することができるので、特に有利であり得る。更に、大腸内視鏡映像に示される大腸の解剖学的セクションに関する情報は、例えば臨床試験からの注釈付き大腸内視鏡映像データの一部として一般に入手可能である。
【0024】
実施形態では、目視検査が、フレームのセットを含む訓練用大腸内視鏡映像のセグメントを第1の範囲内の内視鏡重症度スコアと関連付けた場合、訓練画像データ内のフレームの各セットには、第1の重症度クラスラベルが割り当てられている。所望により、2つの独立した目視検査が、フレームのセットを含む訓練用大腸内視鏡映像のセグメントを第1の範囲内の内視鏡重症度スコアと関連付けた場合、訓練画像データ内のフレームの各セットには、第1の重症度クラスラベルが割り当てられ得る。
【0025】
実施形態では、訓練画像データ内のフレームの各セットは、目視検査が、フレームのセットを含む訓練用大腸内視鏡映像のセグメントを閾値以上の内視鏡重症度スコアと関連付けた場合には、第1の重症度クラスラベルが割り当てられており、訓練画像データ内のフレームの各セットは、目視検査が、フレームのセットを含む訓練用大腸内視鏡映像のセグメントを閾値以下の内視鏡重症度スコアと関連付けた場合には、第2の重症度クラスラベルが割り当てられている。かかる実施形態では、第1の深層ニューラルネットワーク分類器は、バイナリ分類器であり得る。
【0026】
内視鏡重症度スコアは、所定の尺度に従って内視鏡病変の重症度を定量化するために使用される任意のスコアであり得る。実施形態では、内視鏡スコアは、潰瘍性大腸炎などの特定の疾患に関連してもよく、内視鏡病変の重症度は、疾患の重症度の臨床評価に関連付けられる。有利には、内視鏡重症度スコアは、メイヨークリニック(Mayo Clinic)内視鏡サブスコア(MCES)であり得る。一部のかかる実施形態では、第1の範囲は、MCES>1又はMCES>2であり得る。
【0027】
本発明者らは、記載されたような「未加工の」大腸内視鏡映像に基づく弱教師付きアプローチを使用して訓練された深層ニューラルネットワーク分類器が、メイヨー内視鏡サブスコアなどの標準的な内視鏡重症度スコア尺度で専門家が高く評価するクラス、及びかかる尺度のより低い範囲で専門家が評価するクラスに属するものとして、大腸内視鏡映像からの画像データを正確に分類することができることを見出した。
【0028】
バイナリ分類器は、より複雑な分類器(例えば、3つ以上のクラス)よりも比較的容易に訓練することができる。換言すれば、分類器などは、比較的少ない量又は品質の訓練データで高い精度を達成することが期待され得る。対照的に、同様の性能を達成するためにより複雑な分類器を訓練するには、典型的には、より多くのデータ及び/又はより良好な品質のデータが必要となる。本発明者らは、大腸内視鏡映像の臨床的に関連する特性を正確に予測する分類器が、「未加工の」注釈付き大腸内視鏡映像を使用して訓練データに関する要件を軽減しながら、2つのクラスを使用して訓練問題の複雑さを制限することによって取得されることを見出した。このように、本方法は、一般に利用可能かつ/又は取得しやすいデータを使用し、信頼性のある臨床的に関連する予測を生成するので、実用的な適用性が改善されている。
【0029】
メイヨークリニック内視鏡サブスコア(MCES)は、内視鏡検査のみに基づいて潰瘍性大腸炎の病期を評価するための標準化された尺度である。それは、Rutgeerts P.et al.(N Engl J Med.2005;353(23):2462-2476)に記載されている。MCESは4つのレベルを含んでおり、第1のレベルは正常粘膜/非活動性疾患に関連し、第2のレベルは軽度の活動性疾患(発赤、血管パターンの減少、軽度の摩損)に関連し、第3のレベルは中等度の活動性疾患(顕著な発赤、血管パターンの欠如、摩損、びらん)に関連し、第4のレベルは重篤な活動性疾患(自然出血、大きな潰瘍)に関連する。本開示に関連して、メイヨー内視鏡サブスコア尺度の第1のレベルはMCES(又はメイヨー)=0と称され、メイヨー内視鏡サブスコア尺度の第2のレベルはMCES=1と称され、メイヨー内視鏡サブスコア尺度の第3のレベルはMCES=2と称され、メイヨー内視鏡サブスコア尺度の第4のレベルはMCES=3と称される。
【0030】
臨床試験では概してメイヨースコア<=1が寛解と定義されているため、メイヨー>1に属するものとして映像を分類するバイナリ分類器の使用は、特に有利であり得る。メイヨースコア>2は重症疾患として定義されるため、メイヨー>2に属するものとして映像を分類するバイナリ分類器の使用は、特に有利である。理想的には、分類器は、少なくとも重症疾患の徴候を示す映像を識別できる必要がある。
【0031】
当業者が理解するように、訓練データの量を増加させると、その性能が維持される一方で、分類器の複雑さが増加する可能性がある。特に、例えば、メイヨー内視鏡サブスコア尺度の4つのレベルに対応する4つのクラスを有する第1の深層ニューラルネットワーク分類器を訓練することができ、十分な量の訓練データが与えられた場合に良好な性能を有することができる。
【0032】
実施形態では、分類器は、通常の分類モデルを使用して訓練されている。順序分類モデルは、順序変数を予測するために分類器を訓練する場合に特に適切であり得る。MCES尺度などの重症度尺度は、その尺度が任意であり、値の間の順序のみが意味を持つ(すなわち、0、1、2、3に設定された値は、1が0よりも重篤であり、2が1よりも重篤であり、3が2よりも重篤である以外に意味を持たない)ため、かかる変数を表すとみなすことができる。従って、順序分類モデルは、重症度の増加レベルを表すことを意図した2つ以上の重症度クラスが定義されている場合に、有利に使用することができる。
【0033】
本発明者らは、十分な量の訓練データ及び/又は通常の分類モデルが使用される場合には、「未加工の」注釈付き大腸内視鏡映像を使用する訓練データの品質に関する要件が軽減されていても、4つのレベルMCESなどの大腸内視鏡映像の臨床的に関連する特性を確実に予測する分類器を取得することができることを見出した。このように、本方法は、一般に利用可能かつ/又は取得しやすいデータを使用し、信頼性のある臨床的に関連する予測を生成するので、実用的な適用性が改善されている。例えば、本発明者らは、約100個の映像を訓練データとして使用する場合、訓練データ及び対象データの両方として「未加工の」大腸内視鏡映像を使用して、予測MCES>1と予測MCES<=1又は予測MCES>2と予測MCES<=2などの大腸内視鏡映像の臨床的に関連する特性を確実に予測するバイナリ分類器を取得することができることを見出した。本発明者らはまた、約1000個の映像を訓練データとして使用する場合、訓練データ及び対象データの両方として「未加工の」大腸内視鏡映像を使用して、全4レベル尺度で予測されたMCESなどの大腸内視鏡映像の臨床的に関連する特性を確実に予測するマルチクラス分類器を取得することができることを見出した。
【0034】
実施形態では、順序分類モデルは、第1の深層ニューラルネットワーク分類器の複数のインスタンスを訓練することによって実装されてもよく、第1の深層ニューラルネットワーク分類器の各インスタンスは、画像データが第1の重症度クラス又は第2の重症度クラスに属する確率を計算するバイナリ分類器である。かかる実施形態では、第1の深層ニューラルネットワーク分類器の複数のインスタンスの複数のインスタンスの合成出力に基づいて、3つ以上の重症度クラス(第1の重症度クラスは第2の重症度クラスよりも重篤な内視鏡病変又はより重篤な潰瘍性大腸炎に関連し、第2の重症度クラスは第3の重症度クラスよりも重篤な内視鏡病変又はより重篤な潰瘍性大腸炎に関連するなど)の各々に属する確率を取得することができる。例えば、画像データが4つのクラス(MCESの4つのレベルなどのクラス1~4、ここで1は最も低い重症度(MCES=0)、4は最も高い重症度(MCES=3))のうちの1つに属する確率を予測する分類器は、3つのバイナリ深層ニューラルネットワーク分類器、すなわち
(i)画像データが最も低い重症度クラス以外の重症度クラスのいずれかに属する確率(すなわち、P(クラス>1のデータ))及び所望により画像データが第1のクラスに属する確率(P(クラス1のデータ))を提供する分類器と、
(ii)画像データが第3の重症度クラス以上に属する確率(すなわち、P(クラス>2のデータ))及び
所望により画像データが第2のクラス以下に属する確率(P(クラス1又はクラス2のデータ))を提供する分類器と、
(iii)画像データが第4の重症度クラスに属する確率(すなわち、P(クラス>3のデータ)(P(クラス4のデータ)と同等))及び所望により画像データが第3のクラス以下に属する確率(すなわち、P(クラス<4のデータ))を提供する分類器と、
の出力を組み合わせることによって取得することができる。
【0035】
これらの合成出力に基づいて、画像データが第1(最低)の重症度クラスに属する確率をP(クラス1のデータ)又は1-P(クラス>1のデータ)として算出することができる。同様に、画像データが第4(最高)の重症度クラスに属する確率をP(クラス4のデータ)又は1-P(クラス<4のデータ)として算出することができる。画像データが第2の重症度クラスに属する確率をP(クラス>1のデータ)-P(クラス>2のデータ)又は1-P(クラス>2のデータ)-P(クラス1のデータ)として算出することができる。同様に、画像データが第3の重症度クラスに属する確率をP(クラス>2のデータ)-P(クラス>3のデータ)又は1-P(クラス>3のデータ)-P(クラス1又はクラス2のデータ)として算出することができる。
【0036】
かかる実施形態では、第1の深層ニューラルネットワーク分類器の複数のインスタンスの合成出力を使用して行われる予測の性能を最大化するために、第1の深層ニューラルネットワーク分類器の複数のインスタンスを同時に訓練することができる。
【0037】
実施形態では、k=1…Kのクラスを有する順序分類モデルは、出力層においてK-1バイナリ分類器を使用して単一のCNNを訓練することによって実装することができ、各バイナリ分類は、画像データがクラスk>1、k>2…k>K-1に属するか否かを予測し、モデル訓練の損失関数は、分類器の一貫性(すなわち、個別のバイナリ分類からの予測間の一致)を確保しながら、全てのバイナリ分類器にわたる損失を最小化するように適合される。実施形態では、第1の深層ニューラルネットワーク分類器は、Cao et al.(Rank-consistent Ordinal Regression for Neural Networks,2019,arXiv:1901.07884v4、https://arxiv.org/pdf/1901.07884.pdfで入手可能)に記載されているように訓練することができ、その内容は参照により本明細書に援用される。
【0038】
実施形態では、第1の深層ニューラルネットワーク分類器は、画像データを3つ以上の重症度クラスに分類し、訓練画像データ内のフレームの各セットは、目視検査が、フレームのセットを含む訓練用大腸内視鏡映像のセグメントを、3つ以上の重症度クラスの各々に対して所定の異なる範囲内の内視鏡重症度スコアと関連付けた場合、3つ以上の重症度クラスラベルのうちの1つに割り当てられている。一部のかかる実施形態では、訓練画像データ内のフレームの各セットは、2つの独立した目視検査が、フレームのセットを含む訓練用大腸内視鏡映像のセグメントを、同じ該1つの重症度クラスラベルに関連付けられた範囲内の内視鏡重症度スコアと関連付けた場合、3つ以上の重症度クラスラベルのうちの1つに割り当てられている。
【0039】
一部の実施形態では、内視鏡重症度スコアは、メイヨークリニック内視鏡サブスコアであり、第1の深層ニューラルネットワーク分類器は、画像データを4つの重症度クラスに分類し、各重症度クラスは、異なるメイヨークリニック内視鏡サブスコアに関連付けられる。
【0040】
4段階のメイヨー内視鏡サブスコアは潰瘍性大腸炎の内視鏡評価に広く用いられている尺度である。従って、メイヨー内視鏡サブスコア尺度に対応するクラスに画像データを分類することができる分類器、又はメイヨー内視鏡サブスコア尺度に対応させ得るクラスに画像データを分類し得る分類器は、その出力が臨床医によって直接解釈可能であり得るため、特に有用であり得る。更に、かかる分類器は、訓練用のクラスラベルとしてメイヨースコアを直接使用することによって、メイヨースコアで注釈付けされた既存の大腸内視鏡データを使用することができる。
【0041】
実施形態では、大腸内視鏡映像又はその一部からの画像データは、複数の連続フレームを含む。
【0042】
本発明者らは、本発明の方法が、「未加工の」大腸内視鏡データ(すなわち、特に有益なフレームを選択するために処理されていないデータ)を使用する場合であっても、大腸内視鏡映像又はその一部を分析し、臨床的に関連する重症度評価を提供することができることを見出した。換言すれば、本発明の方法は、分類器(複数可)が「未加工の」大腸内視鏡映像を使用して訓練した/された場合であっても、臨床的に適切な重症度評価を提供することができ、「未加工の」大腸内視鏡映像に対して臨床的に適切な評価を提供することができる。当業者が理解するように、深層ニューラルネットワーク分類器は、典型的には、単一画像(すなわち、大腸内視鏡映像の単一フレーム)に対する出力を生成する。本発明者らは、「未加工の」大腸内視鏡映像を使用して、深層ニューラルネットワーク分類器を弱く訓練して、ともに未加工の大腸内視鏡映像又はその一部を形成する連続フレームのセットの複数フレームについて重症度クラスを予測することができることを見出した(連続フレームのセットのフレームの一部又は全部は、例えば、どのフレームが低品質であり、どのフレームが第1の分類器によって分類されるべきではないかを第2の分類器を使用して判定されるかどうかに応じて、第1の分類器を使用して評価されてもよい)。実際、本発明者らは、複数フレームに対する予測を、大腸内視鏡映像又はその一部に対する臨床的に適切な評価に組み合わせることができることを見出した。
【0043】
実施形態では、大腸内視鏡映像又はその一部を分析することは、第1の深層ニューラルネットワーク分類器を使用することと、所望により、第2の深層ニューラルネットワーク分類器を使用して、大腸内視鏡映像又はその一部からの画像データ内の複数フレームを個別に分類することと、を含む。
【0044】
実施形態では、個別のフレームを分類することは、複数のフレームの各々に対して、フレームが第1のクラスに属する確率及び/又はフレームが第2のクラスに属する確率を提供することを含む。
【0045】
実施形態では、フレームが第1の品質クラスに属する確率が閾値に達するか又はそれを超える場合、フレームは、第2の深層ニューラルネットワーク分類器によって第1の品質クラスに分類されるとみなされる。有利には、閾値は0.9~0.99であり得る。実施形態では、閾値は約0.95である。実施形態では、閾値は、訓練画像データ内のフレームセットが、平均20~40個、好ましくは約30個の、第1の品質クラスに分類されたフレームを含むように動的に決定される。
【0046】
発明者らは、驚くべきことに、フレーム毎に画像データの品質フィルタリングのためにナイーブなカットオフを適用することが、重症度ベース分類がセット内の残りのフレームについて正確な結果を生成することを保証するのに十分であることを見出した。当業者が理解するように、品質ベースのフィルタリングの厳密性を増大させる場合、フィルタリングされたデータの品質と、フィルタを通過して訓練に利用可能なデータの量との間にトレードオフが存在する。本発明者らは、上記の値がこの点において良好なバランスを有することを見出した。
【0047】
実施形態では、大腸内視鏡映像又はその一部を分析することは、複数フレームに対する第1の深層ニューラルネットワーク分類器からの個別の分類に基づいて、大腸内視鏡映像又はその一部に要約済みの重症度クラスを割り当てることを更に含む。
【0048】
本発明者らは、個別のフレームからの分類結果に基づいて、大腸内視鏡映像に対する臨床的に関連する要約メトリックを取得することができることを見出した。特に、かかる要約メトリックは、例えば臨床試験から利用可能なものなどの大腸内視鏡映像のための専門的な内視鏡評価メトリックを正確に再現することができる。驚くべきことに、これは、複数のフレームに対する個別の分類における変動性、及び訓練画像データ内の個別のフレームに対して利用可能な弱いラベル付けにもかかわらず当てはまる。
【0049】
実施形態では、個別のフレームを分類することは、複数のフレームの各々に対して、フレームが第1の重症度クラスに属する確率を提供することを含み、複数のフレームに対する個別の分類に基づいて、大腸内視鏡映像又はその一部に要約済みの重症度クラスを割り当てることは、第1の重症度クラスに属するフレームの確率の平均(average)(平均(mean))が閾値を超える場合に、第1の重症度クラスを割り当てることを含む。
【0050】
同様に、個別のフレームを分類することは、複数のフレームの各々に対して、フレームが第2の重症度クラスに属する確率を提供することを含んでもよく、複数のフレームに対する個別の分類に基づいて、大腸内視鏡映像又はその一部に要約済みの重症度クラスを割り当てることは、第2の重症度クラスに属するフレームの確率の平均が閾値を超える場合に、第2の重症度クラスを割り当てることを含む。
【0051】
発明者らは、第1の重症度クラスに属するセット内のフレームの個別の確率を平均化することによって、専門家によってフレームを含む映像に割り当てられるクラスラベルの正確な予測が提供されることを見出した。専門家による内視鏡評価を実施する場合、大腸内視鏡映像又はその一部は概して、映像で特定された最も重篤なカテゴリ(最高重症度スコア)に割り当てられる。従って、映像の中の分類器によって特定された最も重篤なカテゴリは、専門家に基づく評価プロセスを最も厳密に再現した可能性があるものと期待され得る。
【0052】
しかしながら、本発明者らは、驚くべきことに、映像内のフレームにわたって予測を平均化すると、より正確な予測が得られることを見出した。かかる要約済みの予測因子は、外れ値に対して感度が低い可能性があり、弱教師付きを用いて訓練された深層ニューラルネットワークの文脈において、例えば、深層ニューラルネットワークが手動で収集された「グランドトゥルース」データを使用して訓練された場合よりも一般的であり得る。
【0053】
実施形態では、平均値の代わりに又は平均値に加えて、例えばトリム平均値、中央値などの中心化傾向の他の統計的測定値を含む他の要約測定値を使用することができる。
【0054】
一部のかかる実施形態において、閾値は、約0.5、約0.6、約0.7、約0.8又は約0.9など、0.5~0.9である。好ましくは、閾値は約0.5であり得る。実施形態では、複数フレームについての個別の分類に基づいて、大腸内視鏡映像又はその一部について要約済みの重症度クラスを割り当てることは、第1の重症度クラスに属するフレームの確率の平均が閾値を超える場合に第1の重症度クラスを割り当てることを含み、閾値は、所定の許容可能な偽陽性の割合、所定の許容可能な偽陰性の割合、所定の最小精度(真陽性及び真陰性の合計割合)、所定の最小正確度(真陽性及び偽陽性に対する真陽性の比率)、及び/又は所定の最小リコール(真陽性及び偽陰性に対する真陽性の比率)から選択される1又は複数の基準に基づいて動的に決定される。第1の(より高い)重症度クラスにデータを割り当てるための閾値を設定する場合、真陽性は、第1の重症度クラスに正しく割り当てられたデータを参照することができ、真陰性は、第2の(より低い)重症度クラスに正しく割り当てられたデータを参照することができ、偽陰性は、第2の(より低い)重症度クラスに誤って割り当てられたデータを参照することができ、偽陽性は、第1の(より高い)重症度クラスに誤って割り当てられたデータを参照することができる。
【0055】
発明者らは、驚くべきことに、0.5を超える特定の重症度クラスに属する確率に基づく単純な分類であっても、専門家ベースの評価プロセスを正確に再現することができることを見出した。
【0056】
実施形態では、複数フレームの分類に基づいて、大腸内視鏡映像又はその一部に要約済みの重症度クラスを割り当てることは、第1の重症度クラスに割り当てられたフレームの割合が閾値を超える場合に第1の重症度クラスを割り当てることを含む。実施形態では、複数フレームの分類に基づいて、大腸内視鏡映像又はその一部に要約済みの重症度クラスを割り当てることは、複数フレームにわたって最も表現される重症度クラスを割り当てること(すなわち、複数フレームにわたる重症度クラス割り当てのモード)を含む。
【0057】
実施形態では、複数フレームの分類に基づいて大腸内視鏡映像又はその一部に要約済みの重症度クラスを割り当てることは、フレームの割合が閾値を超える最も高い重症度クラスを割り当てることを含む。例えば、大腸内視鏡映像又はその一部に対する要約済みの重症度クラスは、第1の重症度クラスに割り当てられた複数のフレームの割合が第1の閾値を上回る場合、第1の(最も高い)重症度クラスとして定義され、第2の重症度クラスに割り当てられた複数のフレームの割合が第2の閾値を上回る(かつ第1のクラスに割り当てられたフレームの割合が第1の閾値を上回らない)場合、第2の重症度クラスとして定義され、所望により、第3の重症度クラスに割り当てられた複数のフレームの割合が第3の閾値を上回る(かつ第1及び第2のクラスに割り当てられたフレームの割合がそれぞれ第1及び第2の閾値を上回らない)場合、第3の重症度クラスなどとして定義されてもよい。閾値は、クラスに依存して異なり得る。例えば、第1の重症度クラスに対する閾値は、第2及び第3の重症度クラスに対する閾値よりも高くてもよい。
【0058】
実施形態では、複数フレームの分類に基づいて、大腸内視鏡映像又はその一部に要約済みの重症度クラスを割り当てることは、複数インスタンス学習を使用して訓練された第1の深層ニューラルネットワーク分類器を使用することを含む。一部のかかる実施形態では、複数フレームの分類に基づいて、大腸内視鏡映像又はその一部に要約済みの重症度クラスを割り当てることは、各フレームのクラスを予測するために第1の深層ニューラルネットワーク分類器を使用することと、個別の予測の加重平均を使用して予測を組み合わせることと、を含み、重みは、ニューラルネットワーク(注意ベースのプーリング)によって決定される。例えば、参照により本明細書に援用されるIlse et al.(Attention-based Deep Multiple Instance Learning,2018,arXiv:1802.04712v4、https://arxiv.org/pdf/1802.04712.pdfで入手可能)に記載されている複数インスタンス学習アプローチを使用することができる。
【0059】
実施形態では、本方法は、大腸内視鏡映像又はその一部をセグメントに自動的に分離することを更に含み、各セグメントは、第1の深層ニューラルネットワーク分類器によって異なる重症度クラスに分類されるフレームを含まない。一部のかかる実施形態では、第1の深層ニューラルネットワーク分類器が、閾値を超える重症度クラスに属するフレームの確率を出力する場合、フレームは特定の重症度クラスに分類されるとみなされる。有利には、このアプローチは、疾患の徴候を示す大腸の部分を示す映像のセグメントを自動的に検出することを可能にし得る。
【0060】
当業者が理解するように、異なる重症度クラスに分類されたフレームを含まない映像のセグメントは、例えば、第2の深層ニューラルネットワーク分類器によって品質上の理由でフィルタリングされたため、又は特定の重症度クラスに自信を持って割り当てることができなかったために、いかなる重症度分類にも割り当てられなかった1又は複数のフレームを含み得る。
【0061】
実施形態では、本方法は、自動的に作成された各セグメントに要約済みの重症度クラスラベルを割り当てることを更に含み、要約済みの重症度クラスラベルは、各重症度クラスに割り当てられたセグメント内のフレームの割合、及び/又は各重症度クラスに属する各フレームの平均確率に基づく。実施形態では、第1の深層ニューラルネットワーク分類器によって重症度クラスラベルが割り当てられなかったフレームには、各重症度クラスに属する確率が等しく割り当てられる。
【0062】
大腸内視鏡映像を、同じクラスに割り当てられたフレームを含むセグメントに分離することにより、同様の重症度に関連する内視鏡病変を示す大腸のセクション(元の大腸内視鏡映像の連続セグメントに対応する)の識別が可能となり得る。各クラスに割り当てられたセグメント内のフレームの割合又は各クラスに属する各フレームの平均確率を使用することで、セグメントが、第2の深層ニューラルネットワーク分類器によってフィルタリングされたために、又は第1の深層ニューラルネットワーク分類器によって出力されたいずれかのクラスに属するフレームの確率が選択された信頼閾値を超えなかったために、第1の深層ニューラルネットワークによってクラスラベルが割り当てられなかったフレームを含む状況を処理することができる。
【0063】
実施形態では、第2の深層ニューラルネットワーク分類器によってフィルタリングされたフレームには、各重症度クラスに属する確率が等しく割り当てられる。実施形態では、第1の深層ニューラルネットワーク分類器によって出力された確率は、第1の深層ニューラルネットワーク分類器によって出力された任意のクラスに属するフレームの確率が選択された信頼閾値を超えなかったため、特定の重症度クラスに確実に割り当てることができなかったフレームに使用される。
【0064】
要約済みの重症度クラスが取得される実施形態では、本方法は、複数のフレームの各々に対して、要約済みの重症度クラス、及び/又は第1の深層ニューラルネットワーク分類器からの分類を出力することを更に含み得る。
【0065】
実施形態では、本方法は、解剖学的セクションを大腸内視鏡映像又はその一部の各フレームに割り当てることによって大腸内視鏡映像又はその一部をセグメントに自動的に分離することと、大腸内視鏡映像又はその一部を異なる解剖学的セクションに割り当てられたフレームを含まないセグメントに分離することと、を更に含む。実施形態では、第1の深層ニューラルネットワーク分類器からの任意の要約済みの重症度クラスラベルは、単一セグメントからのフレームを使用して取得される。
【0066】
実施形態では、解剖学的セクションを各フレームに割り当てることは、解剖学的セクションを示すグラフィカルラベルをフレームから抽出することを含む。実施形態では、フレームからグラフィカルラベルを抽出することは、少なくとも部分的にフレーム上のグラフィカルラベル内の情報に基づいて、画像データを複数の解剖学的クラスに分類する第3の深層ニューラルネットワーク分類器を使用することを含み、各解剖学的クラスは、解剖学的セクションに対応する。
【0067】
大腸内視鏡映像は、例えば、大腸内視鏡検査を実施する医師によって解剖学的セグメントで注釈が付けられてもよい。映像又はその一部において可視である解剖学的セグメントに関する情報は、例えば画像に埋め込まれたテキスト文字列などのグラフィカルラベルを介して映像の各フレームに含めることができる。かかるグラフィカルラベルは、対象又は訓練用大腸内視鏡映像を異なる解剖学的セクションに対応するセグメントに自動的に分離するために有利に使用することができる。これらは次に、個別の重症度予測と関連付けることができる。解剖学的セクションに基づくセグメント化を対象の大腸内視鏡映像に対して行うことができる場合、これは予測の精度及び/又はその臨床的関連性を高めることができる。解剖学的セクションに基づくセグメント化が訓練データの少なくとも一部に対して実施され得る場合、これは、第1の深層ニューラルネットワーク分類器が、より臨床的に関連する意味を有する可能性が高いデータを用いて訓練されることを可能にし得る。
【0068】
実施形態では、第1、第2及び/又は第3の深層ニューラルネットワーク分類器(複数可)は、畳み込みニューラルネットワーク(複数可)(CNN)である。有利には、CNNは、無関係な画像データについて事前訓練されていてもよい。実施形態では、CNNは50層のCNNである。実施形態では、CNNは、深層残差学習フレームワークを使用して事前訓練されたCNNである。
【0069】
畳み込みニューラルネットワークは、画像認識タスクにおいて特に良好に動作することが示されている。更に、ImageNetデータベースなどの画像データの大規模なコレクションに対する画像認識タスクのために事前訓練されたCNNが利用可能である。これらのCNNは、例えば、画像中の低レベル特徴(例えば、畳み込み層など)を識別するように訓練された低レベル層を「凍結」(すなわち、再訓練しない)し、目下の分類問題に特に有用な高レベル特徴を識別するために高レベル層(例えば、分類層など)のみを再訓練することによって、新しいデータについて部分的に再訓練することができる。この部分的な再訓練は、CNNのパラメータのサブセットのみが訓練によって決定される必要があるので、限られた量のデータを使用して深層CNNを迅速に訓練することができることを意味する。
【0070】
深層残差学習は、画像認識のために開発された学習フレームワークであり、「劣化」(ネットワークの深さが増加するにつれて、精度が飽和し、急速に劣化するという観測)として知られる問題に対処するために開発されている。深層残差学習を使用したCNNの訓練に関する更なる詳細は、本明細書に参考として援用されるhttps://arxiv.org/pdf/1512.03385.pdfに見出すことができる。
【0071】
実施形態では、CNNは、ResNetsとしても知られている深層残差学習を用いて訓練された事前訓練ネットワークである。実施形態では、CNNはResNet50である。ResNet50は、ImageNetデータベースからの100万個以上の画像で訓練されたCNNであり、そのネイティブ形式(再訓練前)では、キーボード、鉛筆、多くの動物などを含む1000個のオブジェクトカテゴリに画像を分類することができる。CNNは、別の画像分類タスクを実施するために再訓練することができる。
【0072】
実施形態では、訓練画像データは、少なくとも50個、少なくとも60個、少なくとも70個、少なくとも80個、少なくとも90個、又は少なくとも100個の個別の大腸内視鏡映像を含む。個別の大腸内視鏡映像は、異なる対象から、かつ/又は異なる時点で取得される。
【0073】
実施形態では、訓練画像データは、大腸の1又は複数の解剖学的セクションの各々からの少なくとも50個、少なくとも60個、少なくとも70個、少なくとも80個、少なくとも90個、又は少なくとも100個の個別の大腸内視鏡映像を含む。実施形態では、訓練画像データは、少なくとも50個、少なくとも60個、少なくとも70個、少なくとも80個、少なくとも90個、又は少なくとも100個の、大腸の3つの解剖学的セクションの各々からの個別の大腸内視鏡映像を含み、これらのセクションは、直腸、S状結腸、下行結腸であることが好ましい。実施形態では、訓練画像データは、大腸の1又は複数の(例えば3つ)の解剖学的セクションの各々からの少なくとも50個、少なくとも60個、少なくとも70個、少なくとも80個、少なくとも90個、又は少なくとも100個の個別の大腸内視鏡映像を含み、第1の深層ニューラルネットワーク分類器は、バイナリ分類器である。実施形態では、訓練画像データは、大腸の1又は複数(例えば3つ)の解剖学的セクションの各々からの少なくとも500個、少なくとも600個、少なくとも700個、少なくとも800個、少なくとも900個又は約1000個の個別の大腸内視鏡映像を含み、第1の深層ニューラルネットワーク分類器はマルチクラス分類器である。好ましくは、第1の深層ニューラルネットワーク分類器は、画像データが4つのクラス(MCESの4つのレベルなどのクラス1~4であり、1が最も低い重症度(MCES=0)、4が最も高い重症度-(MCES=3))のうちの1つに属する確率を予測するマルチクラス分類器である。
【0074】
実施形態では、訓練画像データは、複数の大腸内視鏡映像の各々からの平均30フレームを含む。
【0075】
実施形態では、訓練画像データは、少なくとも5000フレーム、少なくとも6000フレーム、少なくとも7000フレーム、少なくとも8000フレーム、又は少なくとも9000フレームを含む。
【0076】
実施形態では、第1の深層ニューラルネットワーク分類器は、フレームのセットが、少なくとも0.7の受信者動作特性下面積(AUC)を有する第1の重症度クラス又は第2の重症度クラスに属するかどうかを予測することができる。一部のかかる実施形態では、第1の深層ニューラルネットワーク分類器は、150個未満の個別の大腸内視鏡映像で訓練された後に、フレームのセットが少なくとも0.7のAUCを有する第1の重症度クラス又は第2の重症度クラスに属するかどうかを予測することができる。
【0077】
バイナリ分類器の性能は、受信者動作特性曲線下面積(AUC)を定量化することによって測定することができる。当業者が認識するように、受信者動作特性曲線又はROC曲線は、バイナリ分類器の診断能力を示す。これは、種々の閾値設定で真陽性率(TPR)と偽陽性率(FPR)をプロットすることにより取得される。例えば、ROC曲線は、第1の重症度クラスに属すると予測される確率に適用される閾値の異なる値(例えば、0.05のステップで0~1の全ての値)についてFPRに対してTPRをプロットすることによって取得することができる。実施形態では、マルチクラス分類器の性能は、コーエン(Cohen)のκ係数及び/又は予測クラスと真のクラスとの間のパーセント一致を定量化することによって測定することができる。好ましくは、マルチクラス分類器の性能は、コーエンのκ係数を定量化することによって測定される。当業者が認識するように、コーエンのκは(p-p/1-p)として算出することができ、ここでpは予測クラスと真のクラスとの間で観察された相対的一致であり、pは(各クラスに含まれるデータ量に基づいて)予測クラスと真のクラスが偶然一致する確率である。
【0078】
実施形態では、性能は、例えば5分割又は10分割の交差検証などの交差検証を実施し、交差検証の各スプリットについてAUC及び/又はコーエンのκを定量することによって測定することができる。実施形態では、交差検証のスプリットは、同じ個別の大腸内視鏡映像からの画像データがセットの1つにのみ現れるように定義される。一部のかかる実施形態では、交差検証のスプリットは、同じ患者からの画像データがセットの1つにのみ現れるように定義される。これらは、異なるスプリットにおける訓練画像データ間の可能な依存性が、交差検証の結果を人為的に改善することを防止することができる。
【0079】
実施形態では、第1の深層ニューラルネットワーク分類器は、フレームのセットが少なくとも0.75のAUCを有する第1の重症度クラス又は第2の重症度クラスのいずれに属するかを予測することができ、第1の重症度クラスはメイヨースコア>1に対応し、第2の重症度クラスはメイヨースコア≦1に対応する。一部のかかる実施形態では、第1の深層ニューラルネットワーク分類器は、150個未満の個別の大腸内視鏡映像で訓練された後に、フレームのセットが少なくとも0.75のAUCを有する第1の重症度クラス又は第2の重症度クラスに属するかどうかを予測することができる。
【0080】
実施形態では、第1の深層ニューラルネットワーク分類器は、フレームのセットが少なくとも0.75、好ましくは少なくとも0.8のAUCを有する第1の重症度クラス又は第2の重症度クラスのいずれに属するかを予測することができ、第1の重症度クラスはメイヨースコア>2に対応し、第2の重症度クラスはメイヨースコア≦2に対応する。一部のかかる実施形態では、第1の深層ニューラルネットワーク分類器は、150個未満の個別の大腸内視鏡映像で訓練された後に、フレームのセットが少なくとも0.75のAUCを有する第1の重症度クラス又は第2の重症度クラスに属するかどうかを予測することができる。
【0081】
第2の態様によれば、対象における潰瘍性大腸炎(UC)の重症度を評価する方法が提供され、この方法は、第1の態様の実施形態のいずれかに記載の方法を用いて、対象からの大腸内視鏡映像又はその一部を分析することを含む。
【0082】
当業者が理解するように、対象からの大腸内視鏡映像を分析する方法は、コンピュータ実装方法である。実際、深層ニューラルネットワーク分類器を使用する画像分析、及びかかる分類器を提供する方法は、精神活動の範囲を超えた複雑な数学的演算による大量のデータの分析を必要とする。
【0083】
第2の態様の実施形態では、本方法は、UCについて対象を治療することを更に含む。一部の実施形態では、本方法は、第1の深層ニューラルネットワークが、対象からの大腸内視鏡映像からのフレームのセットを第1の重症度クラスに分類する場合に、UCについて対象を治療することを更に含む。一部の実施形態では、本方法は、大腸内視鏡映像又はその一部からのフレームのセットについて要約済みの重症度クラスが第1の重症度クラスである場合に、UCについて対象を治療することを更に含む。
【0084】
一部の実施形態では、第1の深層ニューラルネットワーク分類器は、MCES>1に対応する第1の重症度クラスとMCES≦1に対応する第2の重症度クラスとの間で画像データを分類し、本方法は、大腸内視鏡映像又はその一部からのフレームのセットについて要約済みの重症度クラスが第1の重症度クラスである場合に、UCについて対象を治療することを更に含む。一部の実施形態では、第1の深層ニューラルネットワーク分類器は、MCES>2に対応する第1の重症度クラスとMCES≦2に対応する第2の重症度クラスとの間で画像データを分類し、本方法は、大腸内視鏡映像又はその一部からのフレームのセットについて要約済みの重症度クラスが第1の重症度クラスである場合に、UCについて対象を治療することを更に含む。
【0085】
一部の実施形態では、対象又はその一部からの大腸内視鏡映像を分析することは、(i)MCES>1に対応する第1の重症度クラスとMCES≦1に対応する第2の重症度クラスとの間で画像データを分類する第1の深層ニューラルネットワーク分類器を使用して大腸内視鏡映像又はその一部を分析することと、(ii)MCES>2に対応する第1の重症度クラスとMCES≦2に対応する第2の重症度クラスとの間で画像データを分類する第1の深層ニューラルネットワーク分類器を使用して大腸内視鏡映像又はその一部を分析することと、(iii)工程(ii)で映像の少なくとも1つのセグメントが第1の重症度クラスに割り当てられている場合には第1の治療で、工程(ii)で映像のセグメントが第1の重症度クラスに割り当てられていないが、工程(i)で映像のセグメントの少なくとも1つが第1の重症度クラスに割り当てられている場合には第2の治療で、UCについて対象を治療することと、を含む。
【0086】
一部の実施形態では、対象からの大腸内視鏡映像又はその一部を分析することは、(i)第1の態様の方法を使用して、大腸内視鏡映像又はその一部からフレームの1又は複数のセットについて要約済みの重症度クラスを取得することであって、第1の深層ニューラルネットワーク分類器は、MCES>1に対応する第1の重症度クラスとMCES≦1に対応する第2の重症度クラスとの間で画像データを分類することと、(ii)第1の態様の方法を使用して、大腸内視鏡映像又はその一部からフレームの1又は複数のセットについて要約済みの重症度クラスを取得することであって、第1の深層ニューラルネットワーク分類器は、MCES>2に対応する第1の重症度クラスとMCES≦2に対応する第2の重症度クラスとの間で画像データを分類することと、(iii)工程(ii)で取得された要約済みの重症度クラスのうちの少なくとも1つが第1の重症度クラスである場合、第1の治療で、かつ工程(ii)で取得された要約済みの重症度クラスのうちのいずれも第1の重症度クラスではないが、工程(ii)で取得された要約済みの重症度クラスのうちの少なくとも1つが第1の重症度クラスである場合、第2の治療で、UCについて対象を治療することと、を含む。
【0087】
第3の態様によれば、大腸内視鏡映像又はその一部を分析するためのツールを提供する方法が提供され、この方法は、
複数の訓練用大腸内視鏡映像から連続フレームの複数のセットを含む訓練画像データを取得することであって、セット内のフレームは、少なくとも第1の重症度クラス及び第2の重症度クラスから選択された同じ重症度クラスラベルを有し、第1の重症度クラスは、第2の重症度クラスよりも重篤な内視鏡病変に関連付けられている、ことと、
第1の深層ニューラルネットワークを訓練して、
画像データを少なくとも第1の重症度クラス及び第2の重症度クラスに分類することであって、訓練は、訓練画像データ及び重症度クラスラベルを用いて弱教師付き方式で実施される、ことと、
を含む。好ましくは、内視鏡病変は潰瘍性大腸炎を示す。換言すれば、第1の重症度クラスは、第2の重症度クラスよりも重篤な潰瘍性大腸炎に関連することが好ましい。
【0088】
本方法は、好ましくはコンピュータで実装される。上記で説明したように、少なくとも深層ニューラルネットワーク分類器を訓練する工程は、任意の実際のアプリケーションにおいてコンピュータによって実装される。従って、本方法の工程は、該工程を実施する命令を実行するプロセッサを含み得る。例えば、訓練画像データを取得することは、データソース(例えば、データベース、コンピュータメモリなど)から訓練画像データを取得する命令を実行するプロセッサを含み得る。同様に、第1の深層ニューラルネットワークを訓練することは、第1の深層ニューラルネットワークを訓練する命令を実行するプロセッサを含み得る。
【0089】
実施形態では、本方法は、第2の深層ニューラルネットワーク分類器を使用して、少なくとも第1の品質クラス及び第2の品質クラスの複数フレームを含む訓練画像データを分類することを更に含み、第1の品質クラスは、第2の品質クラスよりも良好な品質の画像に関連付けられ、第1の深層ニューラルネットワークの訓練は、第2の深層ニューラルネットワーク分類器によって第1の品質クラスに分類された訓練画像データを使用して実施される。
【0090】
実施形態では、フレームが第1の品質クラスに属する確率が閾値に達するか又はそれを超える場合、フレームは、第2の深層ニューラルネットワーク分類器によって第1の品質クラスに分類されるとみなされる。有利には、閾値は0.9~0.99、好ましくは約0.95であり得る。
【0091】
実施形態では、本方法は、
複数の訓練用大腸内視鏡映像から連続フレームの複数のセットを含む訓練画像データを取得することであって、訓練画像データ内の連続フレームのセット内のフレームは、少なくとも第1の品質クラス及び第2の品質クラスから選択された同じ品質クラスラベルを有し、第1の品質クラスは、第2の品質クラスよりも良好な品質の画像に関連付けられている、ことと、
第2の深層ニューラルネットワークを訓練して、訓練画像データを少なくとも第1の品質クラス及び第2の品質クラスに分類することであって、訓練は、訓練画像データ及び品質クラスラベルを用いて弱教師付き方式で実施される、ことと、
を更に含む。
【0092】
実施形態では、本方法は、
複数の訓練用大腸内視鏡映像から複数のフレームを含む訓練画像データを取得することであって、訓練画像データ内のフレームには、少なくとも第1の品質クラス及び第2の品質クラスから選択された品質クラスラベルが自動的に割り当てられており、第1の品質クラスは、第2の品質クラスよりも良好な品質の画像に関連付けられており、所望により、品質クラスラベルは、1又は複数の以前に訓練された機械学習アルゴリズムを使用して自動的にフレームに割り当てられている、ことと、
第2の深層ニューラルネットワークを訓練して、訓練画像データを少なくとも第1の品質クラス及び第2の品質クラスに分類することであって、訓練は、訓練画像データ及び品質クラスラベルを使用して弱教師付き方式で実施される、ことと、
を更に含む。
【0093】
実施形態では、第1の深層ニューラルネットワークを訓練するために使用される訓練画像データは、第2の深層ニューラルネットワークを訓練するために使用される訓練画像データのサブセットである。
【0094】
実施形態では、フレームが第2の深層ニューラルネットワーク分類器によって第1のクラスに分類されるとみなされるか否かを判定するために使用される閾値は、訓練画像データ内のフレームのセットが、フィルタリング後に平均20~40個、好ましくは約30個のフレームを含むように動的に決定される。
【0095】
実施形態では、複数の訓練用大腸内視鏡映像から連続フレームの複数のセットを含む訓練画像データを取得することであって、訓練画像データ内の連続フレームのセット内のフレームが同じ品質クラスラベルを有することは、
連続フレームのセットを含む映像セグメントが目視検査に関する1又は複数の品質基準を満たす場合は、連続フレームのセットを第1の品質クラスに割り当てることと、
そうでない場合は、連続フレームのセットを第2の品質クラスに割り当てることと、
によって、訓練画像データ内の連続フレームの各セットに品質クラスラベルを割り当てることを含む。
【0096】
実施形態では、1又は複数の品質基準は、連続フレームのセットから構成される訓練用大腸内視鏡映像セグメントの目視検査で大腸壁及び大腸血管を区別することができること、水の有無に基づく基準、高反射領域の有無に基づく基準、便の有無に基づく基準、及びぼやけに基づく基準の中から選択される。
【0097】
有利には、連続フレームのセットを含む訓練用大腸内視鏡映像セグメントが、連続フレームのセットから構成される映像セグメントの目視検査において少なくとも大腸壁及び大腸血管を区別することができるという基準を満たす場合には、連続フレームのセットを第1の品質クラスに割り当てることができる。実施形態では、連続フレームのセットを含む訓練用大腸内視鏡映像セグメントが、水、高反射領域、便及び/又はぼやけの有無に基づく基準の1又は複数を更に満たす場合には、連続フレームのセットを第1の品質クラスに割り当てることができる。実施形態では、連続フレームのセットを含む訓練用大腸内視鏡映像セグメントが、水、高反射領域、便及び/又はぼやけの有無に基づく基準の全てを更に満たす場合には、連続フレームのセットを第1の品質クラスに割り当てることができる。
【0098】
実施形態では、訓練画像データ内の連続フレームの各セットに品質クラスラベルを割り当てることは、複数の訓練用大腸内視鏡映像から、セグメントが1又は複数の品質基準を満たすか否かに基づいて複数のセグメントを識別することと、各セグメントからの連続フレームのセットに対応する品質クラスラベルを割り当てることと、を更に含む。
【0099】
実施形態では、本方法は、複数の訓練用大腸内視鏡映像の各フレームに解剖学的セクションラベルを割り当てることを更に含み、所望により、フレームから解剖学的セクションを示すグラフィカルラベルを抽出することを含む。所望により、フレームからグラフィカルラベルを抽出することは、少なくとも部分的にフレーム上のグラフィカルラベル内の情報に基づいて、第3の深層ニューラルネットワーク分類器を使用して、画像データを複数のクラスに分類することを含むことができ、各解剖学的クラスは、解剖学的セクションに対応する。実施形態では、本方法は、少なくとも部分的にフレーム上のグラフィカルラベル内の情報に基づいて、第3の深層ニューラルネットワーク分類器を訓練して、画像データを複数の解剖学的クラスに分類することを更に含み、各クラスは、解剖学的セクションに対応する。
【0100】
実施形態では、訓練画像データは、各映像のセグメントに内視鏡重症度スコアが割り当てられた複数の訓練用大腸内視鏡映像を含み、複数の訓練用大腸内視鏡映像から連続フレームの複数のセットを含む訓練画像データを取得することであって、セット内のフレームは、少なくとも第1の重症度クラス及び第2の重症度クラスから選択された同じ重症度クラスラベルを有する、ことは、第1の範囲内で内視鏡重症度スコアが割り当てられたセグメントの一部を形成する連続フレームの各セットに第1の重症度クラスを割り当てることと、第2の範囲内で内視鏡重症度スコアが割り当てられたセグメントの一部を形成する連続フレームの各セットに第2の重症度クラスを割り当てることと、を含む。
【0101】
実施形態では、訓練画像データは、複数の訓練用大腸内視鏡映像を含み、各訓練用大腸内視鏡映像のセグメントは、少なくとも2つの独立して取得された内視鏡重症度スコアの値が割り当てられており、複数の訓練用大腸内視鏡映像から連続フレームの複数のセットを含む訓練画像データを取得することであって、セット内のフレームは、少なくとも第1の重症度クラス及び第2の重症度クラスから選択された同じ重症度クラスラベルを有する、ことは、独立して取得された内視鏡重症度スコアの全ての値に対して第1の範囲内の内視鏡重症度スコアが割り当てられたセグメントの一部を形成する連続フレームの各セットに第1の重症度クラスを割り当てることと、独立して取得された内視鏡重症度スコアの全ての値に対して第2の範囲内の内視鏡重症度スコアが割り当てられたセグメントの一部を形成する連続フレームの各セットに第2の重症度クラスを割り当てることと、を含む。
【0102】
実施形態では、内視鏡重症度スコアの少なくとも2つの独立して取得された値が同じである場合、訓練画像データ内の一連の連続フレームがクラスに割り当てられる。実施形態では、同じ内視鏡重症度スコア又は同じ範囲内の内視鏡重症度スコアが割り当てられていないセグメントは、訓練画像データから除外される。
【0103】
実施形態では、複数の訓練用大腸内視鏡映像から連続フレームの複数のセットを含む訓練画像データを取得することであって、セット内のフレームは、少なくとも第1の重症度クラス及び第2の重症度クラスから選択された同じ重症度クラスラベルを有する、ことは、閾値を超える内視鏡重症度スコアが割り当てられたセグメントの一部を形成する連続フレームの各セットに第1の重症度クラスを割り当てることと、閾値以下の内視鏡重症度スコアが割り当てられたセグメントの一部を形成する連続フレームの各セットに第2の重症度クラスを割り当てることと、を含む。
【0104】
実施形態では、内視鏡重症度スコアは、メイヨークリニック内視鏡サブスコアである。有利には、第1の範囲は、MCES>1又はMCES>2であり得る。同様に、閾値はメイヨークリニック内視鏡サブスコア1又は2であり得る。
【0105】
実施形態では、訓練画像データは、複数の訓練用大腸内視鏡映像からの連続フレームの複数のセットを含み、各映像のセグメントには、内視鏡重症度スコアが割り当てられており、訓練画像データを取得することは、フレームのセットを含む訓練用大腸内視鏡映像のセグメントが、3つ以上の重症度クラスの各々に対して所定の異なる範囲内の内視鏡重症度スコアで割り当てられている場合、3つ以上の重症度クラスラベルのうちの1つを連続フレームの各セットに割り当てることを含み、第1の深層ニューラルネットワークを訓練することは、画像データを3つ以上の重症度クラスに分類するように第1の深層ニューラルネットワークを訓練することを含む。
【0106】
実施形態では、内視鏡重症度スコアは、メイヨー内視鏡サブスコアであり、第1の深層ニューラルネットワーク分類器は、画像データを4つの重症度クラスに分類するように訓練され、各重症度クラスは、異なるメイヨー内視鏡サブスコアに関連付けられる。
【0107】
実施形態では、第1、第2及び/又は第3の深層ニューラルネットワーク分類器(複数可)は、畳み込みニューラルネットワーク(複数可)(CNN)である。一部のかかる実施形態では、第1、第2及び/又は第3の深層ニューラルネットワーク分類器を訓練することは、事前訓練されたCNNを取得することと、訓練画像データを使用してCNNを部分的に再訓練することと、を含む。
【0108】
実施形態では、CNNを部分的に再訓練することは、CNNの1又は複数の下位層のパラメータを固定することと、CNNの残りの(上位レベル)層のパラメータを決定することと、を含む。実施形態では、CNNを部分的に再訓練することは、CNNの最後の5~10層、例えば8層のパラメータを決定することを含む。実施形態では、CNNを部分的に再訓練することは、CNNの層の最後の10~20%のパラメータを決定することを含む(例えば、50層のCNNに対しては、最後の5~10層を再訓練してもよい)。
【0109】
実施形態では、CNNは、無関係な画像データを使用して事前訓練されている。実施形態では、CNNは50層のCNNである。実施形態では、CNNは、深層残差学習フレームワークを使用して事前訓練されたCNNである。実施形態では、CNNはResNet50である。
【0110】
実施形態では、訓練画像データを取得することは、少なくとも50個、少なくとも60個、少なくとも70個、少なくとも80個、少なくとも90個、又は少なくとも100個の個別の大腸内視鏡映像を取得することを含む。
【0111】
実施形態では、訓練画像データを取得することは、少なくとも50個、少なくとも60個、少なくとも70個、少なくとも80個、少なくとも90個、又は少なくとも100個の個別訓練用大腸内視鏡映像を、大腸の1又は複数、好ましくは3つの(例えば、直腸、S状結腸、下行結腸)解剖学的セクションの各々から取得することを含む。
【0112】
実施形態では、訓練画像データを取得することは、複数の訓練用大腸内視鏡映像の各々から平均30フレームを抽出することを含む。
【0113】
実施形態では、訓練画像データを取得することは、複数の訓練用大腸内視鏡映像から少なくとも5000フレーム、少なくとも6000フレーム、少なくとも7000フレーム、少なくとも8000フレーム、又は少なくとも9000フレームを抽出することを含む。
【0114】
実施形態では、本方法は、第1の深層ニューラルネットワークの性能を評価することを更に含む。実施形態では、第1の深層ニューラルネットワークの性能を評価することは、検証画像データを使用して受信動作特性曲線下面積(AUC)を定量化することを含む。実施形態では、第1の深層ニューラルネットワークの性能を評価することは、検証画像データを使用してコーエンのκを計算することを含む。実施形態では、検証画像データは、訓練画像データのサブセットを含む。
【0115】
実施形態では、第1の深層ニューラルネットワークの性能を評価することは、例えば5分割又は10分割の交差検証などの訓練画像データを使用して交差検証を実施することと、交差検証の各スプリットについてAUC又はコーエンのκを定量化することと、を含む。一部のかかる実施形態では、交差検証を実施することは、訓練画像データを複数のスプリットに分離することを含み、同じ個別の大腸内視鏡映像からのフレームのセットは、複数のスプリットには現れない。
【0116】
本態様の方法は、第1の態様に関連して説明した特徴のいずれかを更に含み得る。特に、訓練データ、クラス又は分類器(複数可)の性質、及び分類器(複数可)によってなされる予測に関連する任意の特徴を含む、第1の態様における深層ニューラルネットワーク(複数可)の訓練に関連する任意の特徴は、本態様の文脈において明示的に想定される。
【0117】
第4の態様によれば、対象における潰瘍性大腸炎(UC)の重症度を評価する方法が提供され、この方法は、
第3の態様のいずれかの実施形態による大腸内視鏡映像又はその一部を分析するためのツールを提供することと、
大腸内視鏡映像又はその一部を分析するためのツールを使用して、対象からの大腸内視鏡映像又はその一部を分析することと、
を含む。
【0118】
第5の態様によれば、対象における潰瘍性大腸炎(UC)の重症度を評価する方法が提供され、この方法は、
第3の態様のいずれかの実施形態に記載された方法を使用して第1の深層ニューラルネットワーク分類器及び所望により第2及び/又は第3の深層ニューラルネットワーク分類器を訓練することと、
第1の態様の方法を使用して対象からの大腸内視鏡映像又はその一部を分析することと、
を含む。
【0119】
第6の態様によれば、対象から取得された大腸内視鏡映像から対象における潰瘍性大腸炎の重症度を評価するためのシステムであって、システムは、
少なくとも1つのプロセッサと、
命令を含む少なくとも1つの非一時的コンピュータ可読媒体と、を備え、
命令は、少なくとも1つのプロセッサによって実行されると、少なくとも1つのプロセッサに、
大腸内視鏡映像又はその一部からの画像データを少なくとも第1の重症度クラス及び第2の重症度クラスに分類することを含む動作を実施させ、第1の重症度クラスは、第2の重症度クラスよりも重篤な潰瘍性大腸炎に関連付けられ、第1の深層ニューラルネットワークは、複数の訓練用大腸内視鏡映像からの訓練画像データを使用して、弱教師付き方式で少なくとも部分的に訓練されており、訓練画像データは、複数の訓練用大腸内視鏡映像からの連続フレームの複数のセットを含み、セット内のフレームは、同じ重症度クラスラベルを有する。
【0120】
実施形態では、命令は、少なくとも1つのプロセッサによって実行される場合、更に、第1の態様の実施形態のいずれかに関連して説明された動作をプロセッサに実施させる。
【0121】
第7の態様によれば、対象から取得された大腸内視鏡映像から対象における潰瘍性大腸炎の重症度を評価するための非一時的なコンピュータ可読媒体であって、命令を含み、命令は、少なくとも1つのプロセッサによって実行されると、少なくとも1つのプロセッサに、大腸内視鏡映像又はその一部からの画像データを少なくとも第1の重症度クラス及び第2の重症度クラスに分類することを含む動作を実施させ、第1の重症度クラスは、第2の重症度クラスよりも重篤な潰瘍性大腸炎に関連付けられ、第1の深層ニューラルネットワークは、複数の訓練用大腸内視鏡映像からの訓練画像データを使用して、弱教師付き方式で少なくとも部分的に訓練されており、訓練画像データは、複数の訓練用大腸内視鏡映像からの連続フレームの複数のセットを含み、セット内のフレームは、同じ重症度クラスラベルを有する。
【0122】
実施形態では、命令は、少なくとも1つのプロセッサによって実行される場合、更に、第1の態様の実施形態のいずれかに関連して説明された動作をプロセッサに実施させる。
【0123】
別の態様によれば、対象から取得された大腸内視鏡映像を分析するためのシステムが提供され、システムは、少なくとも1つのプロセッサと、命令を含む少なくとも1つの非一時的なコンピュータ可読媒体と、を備え、
命令は、少なくとも1つのプロセッサによって実行されると、少なくとも1つのプロセッサに、
大腸内視鏡映像又はその一部からの画像データを少なくとも第1の重症度クラス及び第2の重症度クラスに分類することを含む動作を実施させ、
第1の重症度クラスは、第2の重症度クラスよりも重篤な内視鏡病変(又は特により重篤な潰瘍性大腸炎)に関連付けられ、
第1の深層ニューラルネットワークは、複数の訓練用大腸内視鏡映像からの訓練画像データを使用して、弱教師付き方式で少なくとも部分的に訓練されており、
訓練画像データは、複数の訓練用大腸内視鏡映像からの連続フレームの複数のセットを含み、
セット内のフレームは、同じ重症度クラスラベルを有する。
【0124】
更に別の態様によれば、対象から取得された大腸内視鏡映像を分類するためのシステムが提供され、システムは、少なくとも1つのプロセッサと、命令を含む少なくとも1つの非一時的なコンピュータ可読媒体と、を備え、命令は、少なくとも1つのプロセッサによって実行されると、少なくとも1つのプロセッサに、
大腸内視鏡映像又はその一部からの画像データを少なくとも第1の重症度クラス及び第2の重症度クラスに分類することを含む動作を実施させ、第1の重症度クラスは、第2の重症度クラスよりも重篤な内視鏡病変(又は特により重篤な潰瘍性大腸炎)に関連付けられ、第1の深層ニューラルネットワークは、複数の訓練用大腸内視鏡映像からの訓練画像データを使用して、弱教師付き方式で少なくとも部分的に訓練されており、訓練画像データは、複数の訓練用大腸内視鏡映像からの連続フレームの複数のセットを含み、セット内のフレームは、同じ重症度クラスラベルを有する。
【0125】
更なる態様によれば、対象から取得された大腸内視鏡映像を分析するための非一時的なコンピュータ可読媒体であって、命令を含み、命令は、少なくとも1つのプロセッサによって実行されると、少なくとも1つのプロセッサに、大腸内視鏡映像又はその一部からの画像データを少なくとも第1の重症度クラス及び第2の重症度クラスに分類することを含む動作を実施させ、第1の重症度クラスは、第2の重症度クラスよりも重篤な内視鏡病変(又は特により重篤な潰瘍性大腸炎)に関連付けられ、第1の深層ニューラルネットワークは、複数の訓練用大腸内視鏡映像からの訓練画像データを使用して、弱教師付き方式で少なくとも部分的に訓練されており、訓練画像データは、複数の訓練用大腸内視鏡映像からの連続フレームの複数のセットを含み、セット内のフレームは、同じ重症度クラスラベルを有する。
【0126】
更なる態様によれば、対象から取得された大腸内視鏡映像を分類するための非一時的なコンピュータ可読媒体であって、命令を含み、命令は、少なくとも1つのプロセッサによって実行されると、少なくとも1つのプロセッサに、大腸内視鏡映像又はその一部からの画像データを少なくとも第1の重症度クラス及び第2の重症度クラスに分類することを含む動作を実施させ、第1の重症度クラスは、第2の重症度クラスよりも重篤な内視鏡病変(又は特により重篤な潰瘍性大腸炎)に関連付けられ、第1の深層ニューラルネットワークは、複数の訓練用大腸内視鏡映像からの訓練画像データを使用して、弱教師付き方式で少なくとも部分的に訓練されており、訓練画像データは、複数の訓練用大腸内視鏡映像からの連続フレームの複数のセットを含み、セット内のフレームは、同じ重症度クラスラベルを有する。
【0127】
更なる態様によれば、対象における潰瘍性大腸炎を治療する方法が提供され、この方法は、第1の態様の実施形態のいずれかの方法を用いて、対象からの大腸内視鏡映像又はその一部を分析することを含む。
【0128】
一部の実施形態では、本方法は、第1の深層ニューラルネットワークが、対象からの大腸内視鏡映像からのフレームのセットを第1の重症度クラスに分類する場合、かつ/又は大腸内視鏡映像又はその一部からのフレームのセットに対する要約済みの重症度クラスが第1の重症度クラスである場合に、対象をUCについて治療することを更に含む。
【0129】
実施形態では、本方法は、(i)MCES>1に対応する第1の重症度クラスとMCES≦1に対応する第2の重症度クラスとの間で画像データを分類する第1の深層ニューラルネットワーク分類器を使用して大腸内視鏡映像又はその一部を分析することと、(ii)MCES>2に対応する第1の重症度クラスとMCES≦2に対応する第2の重症度クラスとの間で画像データを分類する第1の深層ニューラルネットワーク分類器を使用して大腸内視鏡映像又はその一部を分析することと、(iii)工程(ii)で映像の少なくとも1つのセグメントが第1の重症度クラスに割り当てられている場合には第1の治療で、工程(ii)で映像のセグメントが第1の重症度クラスに割り当てられていないが、工程(i)で映像のセグメントの少なくとも1つが第1の重症度クラスに割り当てられている場合には第2の治療で、UCについて対象を治療することと、を含む。
【図面の簡単な説明】
【0130】
図1】本発明の実施形態が使用され得る例示的なコンピューティングシステムを示す。
図2】大腸内視鏡映像を分析するためのツールを提供する方法、及び大腸内視鏡映像を分析する方法を示すフローチャートである。
図3】大腸内視鏡映像を分析するためのツールを提供する方法、及び大腸内視鏡映像を分析する方法を概略的に示す。
図4】対象における潰瘍性大腸炎の重症度を評価する方法を概略的に示す。
図5A】MCES>1に対応する第1の重症度クラス及びMCES≦1に対応する第2の重症度クラスに大腸内視鏡映像からの画像データを分類する例示的な深層ニューラルネットワーク(図5A)に対する受信者動作特性(ROC)曲線を示す。
図5B】MCES>2に対応する第1の重症度クラス及びMCES≦2に対応する第2の重症度クラスに大腸内視鏡映像からの画像データを分類する例示的な深層ニューラルネットワーク(図5B)に対する受信者動作特性(ROC)曲線を示す。
【発明を実施するための形態】
【0131】
本明細書に記載された図が本発明の実施形態を示す場合、これらは本発明の範囲を限定するものとして解釈されるべきではない。適宜、図示された実施形態の同じ構造的特徴に関連させるために、異なる図において同じ参照番号が使用される。
【0132】
本発明の特定の実施形態を、図面を参照して以下に説明する。
【0133】
図1は、本発明の実施形態が使用され得る例示的なコンピューティングシステムを示している。コンピューティングデバイス1は、1又は複数のプロセッサ101(例えば、サーバの形態であり得る)及び1又は複数のメモリ102を含む。コンピューティングデバイス1は、例えば公衆インターネットを介して、コンピューティングインフラストラクチャの他の要素と通信する手段を備えることができる。コンピューティングデバイス1はまた、概してディスプレイを含むユーザインターフェースを含み得る。図示の実施形態では、コンピューティングデバイス1は、1又は複数の外部データベース202と通信して、例えば、訓練画像データを取得し、分析すべき大腸内視鏡映像又はその一部を受信し、かつ/又は記憶のために大腸内視鏡映像の分析結果を出力することができる。特定の実装形態に応じて、データベース202は、実際にはデータベース102に含まれ得る。実施形態では、第1のコンピューティングデバイス1は、データベース202から受信した訓練データを使用して、以下に更に説明するように、大腸内視鏡映像を分析するためのツールを提供するように構成される。かかる実施形態では、メモリ101は、プロセッサ102によって実行されると、本明細書に記載されるような大腸内視鏡映像を分析するためのツールを提供する方法の工程をプロセッサに実行させる命令を記憶することができる。一部のかかる実施形態では、一旦取得されたツールは、第2のコンピューティングデバイス(図示せず)のプロセッサによって実行されると、プロセッサに、本明細書に記載されるような大腸内視鏡映像を分析する方法の工程を実行させる命令セットの形態で、第2のコンピューティングデバイスに提供されてもよい。第2のコンピューティングデバイスは、例えばディスプレイなどのユーザインターフェースを含むことができ、それを介して分析結果をユーザに出力することができる。実施形態では、第1のコンピューティングデバイス1は、大腸内視鏡映像又はその一部(例えば、データベース202から受信)を分析するように、かつ/又は対象からの大腸内視鏡映像又はその一部を分析することによって対象における潰瘍性大腸炎の重症度を自動的に評価するように構成される。かかる実施形態では、メモリ101は、プロセッサ102によって実行されると、本明細書に記載されているような大腸内視鏡映像を分析する方法の工程をプロセッサに実行させ、所望により潰瘍性大腸炎の重症度を評価させる命令を記憶することができる。
【0134】
図2及び図3は、大腸内視鏡映像を分析するためのツールを提供する方法、及び大腸内視鏡映像を分析する方法の一般的な実施形態を示している。以下に更に説明されるように、大腸内視鏡映像を分析するためのツールを提供する方法は、工程210/310(画像データを取得(訓練)することであって、工程212(未加工の大腸内視鏡映像を取得する)と、所望により工程214~218(解剖学的セクションラベル、品質クラスラベル及び/又は重症度クラスラベルで映像に注釈を付ける)と、を含む)と、工程240/340(重症度スコアリングネットワークを訓練することであって、工程242(各フレームについて重症度クラス予測を取得する)と、246(重症度クラス予測を重症度クラスラベルと比較する)と、所望により工程244(要約済みの重症度クラス予測を取得する)と、を含む)を含む。所望により、かかる方法は、工程220/320(品質制御ネットワークを訓練する)及び工程230/330(品質制御ネットワークを使用して低品質フレームをフィルタリングする)を更に含み得る。大腸内視鏡映像を分析する方法は、工程210/310(分析のための画像データを取得することであって、工程212(未加工の大腸内視鏡映像を取得する)と所望により工程218(解剖学的セクションラベルで映像に注釈を付ける)とを含む)と、所望により工程230/330(品質管理ネットワークを使用して低品質フレームをフィルタリングする)と、工程250/350(重症度スコアリングネットワークを使用して重症度クラス予測を取得することであって、工程252(各フレームについて重症度クラス予測を取得する)と所望により工程254(要約済みの重症度クラス予測を取得する)とを含む)と、を含み得る。換言すれば、訓練工程220/320(品質管理ネットワークを訓練する)及び240/340(重症度スコアリングネットワークを訓練する)、並びに訓練データにクラスラベル(訓練に使用される)に注釈を付ける関連工程214、216は、大腸内視鏡映像を分析するためのツールを提供する方法の一部として実施される。対照的に、大腸内視鏡映像を分析する方法は、本明細書に記載されるように予め訓練された1又は複数の分類器を使用しており、従って、必ずしも訓練工程及び訓練データの関連ラベル付けを必要としない。
【0135】
工程210/310において、訓練(この場合、画像データは「訓練画像データ」と称される)又は分析(この場合、画像データは対象からの大腸内視鏡映像300又はその一部と称される)のために画像データが取得される。訓練画像データは、複数の訓練用大腸内視鏡映像300を含む。各大腸内視鏡映像300(訓練データ又は分析用データのいずれか)は、複数の連続フレーム300~300を含む。訓練画像データにおいて、複数の連続フレーム300~300は、同じ重症度クラスラベルS、Sが割り当てられたセットを形成する。少なくとも2つの重症度クラスが使用され、第1の重症度クラスSは、第2の重症度クラスSよりも重篤な内視鏡病変及び/又はより重篤な潰瘍性大腸炎に関連付けられている。図3に示す実施形態では、合計2つの重症度クラスが使用され、訓練される分類器はバイナリ分類器である。しかし、他の実施形態では、3つ以上のクラスを使用することができ、対応するマルチクラス分類器を訓練することができる。訓練又は分析のために画像データを取得する工程210は、図2に示すような複数の工程を包含することができ、そのうちの一部は任意であり得る。最も単純な場合には、分析のための画像データを取得(210)することは、単に、分析される対象から未加工の大腸内視鏡映像300を取得(212)することを含み得る。例えば、これは、データベース(例えば、データベース202)から、分析のためにデータを提出するユーザから、又は内視鏡に直接関連するコンピューティングデバイスから取得することができる。所望により、分析のための未加工の大腸内視鏡映像300に注釈218を付けて、映像の複数のセグメントの各々において可視の解剖学的セクションを示すラベルA、Aを提供することができる。あるいは、解剖学的セクションラベルA、Aには、機械可読形式で未加工の大腸内視鏡映像300が既に提供されていてもよい。実施形態では、映像のセグメントに解剖学的セクションラベルA、Aを手動で注釈付けすることができ、各フレーム300~300には、フレーム300~300を含むセグメントの解剖学的セクションラベルに対応する解剖学的セクションラベルを割り当てることができる。あるいは、解剖学的セクション情報は、未加工の大腸内視鏡映像300から自動的に抽出されてもよい。かかる実施形態では、映像セグメントに解剖学的セクションラベル300~300で注釈214を付けることは、解剖学的セクションラベルA、Aを映像300の各フレーム300~300に自動的に割り当てることを含む。例えば、未加工の大腸内視鏡映像300には、各フレームに埋め込まれた、フレーム上に見える解剖学的セクションを示すグラフィカルラベルを提供することができる。これらは、例えば、収集時の医療専門家による映像のセグメントの手動注釈に基づいていてもよい。かかる実施形態では、解剖学的セクションラベルで映像の214セグメントに注釈を付けることは、画像データに埋め込まれたグラフィカルラベル内の情報に少なくとも部分的に基づいて、画像データ(すなわち、フレーム300~300のセット)を複数の解剖学的クラスに分類するように訓練された深層ニューラルネットワーク分類器(本明細書では第3の深層ニューラルネットワーク分類器とも称される)を使用して各フレームに解剖学的ラベルA、Aを割り当てることを含み得、各クラスは、解剖学的セクションに対応する。限定された多様性の図形ラベル(例えば、S状結腸、直腸及び下行結腸などの大腸のセクションに対応するテキストの一部の異なる文字列)は、深層ニューラルネットワークがそれらを区別するための比較的容易なパターンであり、従って、この分類に対する誤り率は非常に低い(例えば、誤分類されたフレームの0%に近く、更には0%)と期待される。実施形態では、分析のための未加工の大腸内視鏡映像300は、単一の解剖学的セクションに関連してもよく、又は単一の解剖学的セクションに関連する部分に分割されてもよく、各部分は、本明細書に記載のように別々に分析することができる。かかる実施形態では、解剖学的セクションラベルを有する注釈は使用されなくてもよく、映像の各部分はそれ自体のセグメントを形成してもよい。
【0136】
同様に、訓練画像データを取得(210/310)することは、複数の未加工の大腸内視鏡映像300を取得(212)することを含む。これらの映像は、例えば、1又は複数のデータベース(データベース202など)から取得することができる。訓練用の未加工の大腸内視鏡映像300は、上述のように、解剖学的セクションを示す解剖学的ラベルA、Aを提供するために、所望により注釈218を付けることができる。訓練映像300は、専門家によって提供され、映像のセグメントに割り当てられた重症度情報を伴う。訓練画像データ内の重症度情報は、以下に更に説明するように、直接的又は間接的に、重症度に基づく分類器(重症度スコアリングネットワーク、SSNと称される)を訓練するために使用される。実際には、映像300のセグメントはフレーム300~300のセットであり、セット内の全てのフレームは同じ重症度情報を有する。図3に示す実施形態では、セグメントは解剖学的セクションに対応し、訓練映像300の各セグメントは、同じ解剖学的ラベルA、A及び同じ重症度情報を有するフレームを含む。特に、図3に示す実施形態では、第1のセグメントはフレーム300~300を含み、第2のセグメントはフレーム300~300を含む。重症度情報は、典型的には、内視鏡重症度スコアを含む。あるいは、重症度情報は、重症度スコアに変換可能な情報(例えば、予め確立されたルールを使用して重症度スコアに変換可能なフリーテキストなど)を含み得る。例えば、内視鏡重症度スコアは、メイヨークリニック内視鏡サブスコア(MCES)であってもよい。MCESは、大腸内視鏡映像の目視評価により内視鏡病変を評価するための標準的な尺度である。MCESは、概して、例えば臨床試験において、内視鏡映像の臨床評価の一部として提供される。
【0137】
訓練用の未加工の大腸内視鏡映像300は、所望により、訓練データの一部を形成する映像の各セグメントに対して、重症度クラスラベルS、Sで注釈214を付けることができる。実施形態では、これは、重症度情報をクラスS、Sに変換することを含む。例えば、これは、重症度情報が、訓練される分類器と直接互換性のないフォーマットである場合に有利であり得る。これは、例えば、重症度情報が個別のクラス又は尺度の形態でない場合、クラスの数が、分類器が区別するように訓練されるクラスの数と等しくない場合、及び/又は重症度情報が複数の専門家による評価を含む場合であり得る。逆に、重症度情報が、選択された分類器を訓練する際に使用するのに適したフォーマットに既にある場合には、この工程は必要ではない。
【0138】
実施形態では、目視検査が、フレームのセットを含む訓練用大腸内視鏡映像のセグメントを第1の範囲内の内視鏡重症度スコアと関連付けた場合(すなわち、重症度情報が第1の範囲内の重症度スコアを含む場合)には、訓練画像データ内のフレームのセット(例えば、図3のフレーム300~300)に、第1の重症度クラスラベルSを割り当てることによって、重症度クラスラベルの注釈214を付けることができる。換言すれば、フレームのセットを含む訓練用大腸内視鏡映像のセグメントに関する重症度情報が第1の範囲内の内視鏡重症度スコアを含む場合(すなわち、重症度情報が第1の範囲内の重症度スコアを含む場合)には、訓練画像データ内のフレームのセット(例えば、図3のフレーム300~300)に、第1の重症度クラスラベルSを割り当てることによって、重症度クラスラベルの注釈214を付けることができる。重症度情報が1人以上の専門家からの評価を含み、2つの独立した目視検査が、フレームのセットを含む訓練用大腸内視鏡映像のセグメントを第1の範囲内の内視鏡重症度スコアと関連付けた場合には、訓練画像データ内のフレームのセット(例えば、図3のフレーム300~300)に、第1の重症度クラスラベルを割り当てることによって、重症度クラスラベルの注釈214を付けることができる。換言すれば、フレームのセットを含む訓練用大腸内視鏡映像のセグメントに関する重症度情報が第1の範囲内の2つの独立した内視鏡重症度スコアを含む場合には、訓練画像データ内のフレームのセット(例えば、図3のフレーム300~300)に、第1の重症度クラスラベルを割り当てることによって、重症度クラスラベルの注釈214を付けることができる。実施形態では、2つの独立した目視検査が、フレームのセットを含む訓練用大腸内視鏡映像300のセグメントを同じ内視鏡重症度スコアと関連付け、かつ内視鏡重症度スコアが第1の範囲内にある場合には、訓練画像データ内のフレームのセット(例えば、図3のフレーム300~300)に、第1の重症度クラスラベルSを割り当てることによって、重症度クラスラベルの注釈214を付けることができる。換言すれば、フレームのセットを含む訓練用大腸内視鏡映像のセグメントに関する重症度情報が第1の範囲内の2つの独立した内視鏡重症度スコアを含み、かつ2つの独立した内視鏡重症度スコアが同じである場合には、訓練画像データ内のフレームのセット(例えば、図3のフレーム300~300)に、第1の重症度クラスラベルを割り当てることによって、重症度クラスラベルの注釈214を付けることができる。重症度クラスラベルで注釈される基準を満たさない訓練画像データ内のフレームのセットは、(例えば、重症度情報は、一致する2つの独立した重症度スコア、すなわち同一又は同じ範囲内の2つの独立した重症度スコアを含まないため)訓練データから除外されてもよい。同様のアプローチを、更なる重症度クラスラベル及び対応する重症度スコア範囲に対して実装することができる。例えば、重症度情報が第2の範囲内の内視鏡検査スコア(又は2つの独立した内視鏡検査スコア)を含む場合、第2の重症度クラスラベルSを割り当てることができる。バイナリ分類器が訓練される特定の場合において、目視検査が、フレームのセットを含む訓練用大腸内視鏡映像のセグメントを閾値を上回る(又は少なくとも同じ高さの)内視鏡重症度スコアと関連付けた場合(すなわち、重症度情報が閾値を上回る重症度スコアを含む場合)には、訓練画像データ内のフレーム300~300のセットに、第1の重症度クラスラベルSを割り当てることによって、重症度クラスラベルの注釈214を付けることができる。同様に、目視検査が、フレームのセットを含む訓練用大腸内視鏡映像のセグメントを閾値以下(又は、クラスSが少なくとも閾値と同程度に高い内視鏡重症度スコアを有するデータを含む場合には、閾値以下)の内視鏡重症度スコアと関連付けた場合には、訓練画像データ内のフレームのセットに、第2の重症度クラスラベルSを割り当てることによって、重症度クラスラベルの注釈214を付けることができる。この場合、上述したように、所望により複数のスコア間の一致基準を使用することもできる。例えば、内視鏡重症度スコアがMCESである場合、有用な閾値は、MCES=1又はMCES=2であってもよく、これは、第1の範囲MCES>1又はMCES>2に相当する。画像データを3つ以上の重症度クラスに分類するように分類器を訓練する場合にも、同様のアプローチを実装することができる。特に、目視検査が、フレームのセットを含む訓練用大腸内視鏡映像のセグメントを、3つ以上の重症度クラスの各々に対して所定の異なる(すなわち、重複しない)範囲内の内視鏡重症度スコアと関連付けた場合には、訓練画像データ内のフレームのセットに、3つ以上の重症度クラスラベルのうちの1つを割り当てることによって、重症度クラスラベルの注釈214を付けることができる。かかる場合には、上述したように、所望により複数の独立したスコア間の一致基準を使用することもできる。
【0139】
実施形態では、重症度情報は離散クラス(例えば、MCES尺度の4つのレベルの1つ)の形態であり、分類器は、画像データを重症度情報で使用される異なる離散クラスに対応するクラス(例えば、4つの重症度クラスなどであり、各重症度クラスは異なるMCESに対応する)に分類するように訓練される。かかる実施形態では、重症度情報内の離散クラスを分類器を訓練するのに適したクラスに変換するための集約は必要とされないが、一部の実施形態では、訓練データの一部を形成する映像300の各セグメントに対して重症度クラスラベルS、Sで訓練用映像300に注釈を付ける工程214を実施してもよい。例えば、重症度情報が例えば独立した専門家によって提供される複数のスコアを含む場合、単一のクラスラベルが重症度情報から導出されてもよい。一部のかかる実施形態では、2つの独立した目視検査が、フレームのセットを含む訓練用大腸内視鏡映像のセグメントを同じ第1(それぞれ第2、第3など)の内視鏡重症度スコアと関連付けた場合に、訓練画像データ内のフレームのセットに、第1(クラスの数に応じてそれぞれ第2、第3など)の重症度クラスラベルを割り当てることによって、重症度クラスラベルの注釈214を付けることができる。
【0140】
所望による工程216で、訓練用の未加工の大腸内視鏡映像300に、訓練データの一部を形成する映像300の各セグメントに対する品質クラスラベルQ、Qで注釈を付けることができる。これは、分類器、好ましくはここでは品質管理ネットワーク(QCN)又は第2の深層ニューラルネットワーク分類器とも称される深層ニューラルネットワークが訓練(220)され、使用(230)され、重症度ベース分類器(SSN)を訓練するために使用される訓練データから低品質フレームをフィルタリングする場合に有利である。訓練画像データに品質クラスラベルQ、Qで注釈を付ける(又は以前に注釈付けされたデータから品質クラスラベルを抽出する)ことにより、かかる分類器を訓練することができる。工程216は、1又は複数の基準に基づいて、品質クラスラベルQ、Qを訓練データ内の映像のセグメントに手動で割り当てることによって実施することができる。有利には、これらの基準は映像300の目視検査に適用することができる。例えば、第1の(良好な品質)品質クラスラベルQは、大腸壁及び大腸血管が目視検査で区別できる場合には訓練用大腸内視鏡映像300のセグメントに割り当てられ、そうでない場合には第2の品質クラスラベルが割り当てられる。所望により、訓練用大腸内視鏡映像300のセグメントは、水、高反射領域、便及び/又はぼやけの有無に基づく1又は複数の目視検査基準を更に満たす場合には第1の品質クラスラベルQを割り当てられ、そうでない場合には第2の品質クラスラベルQが割り当てられる。目視検査は、クラウドソーシングで実施されてもよく、かつ/又は専門家以外が実施してもよい。品質クラスラベルQ1、Qの訓練用大腸内視鏡映像300への割り当ては、映像ファイルの注釈付けを可能にする任意の手段を使用して実施することができる。更に、単一の品質注釈で十分な場合もある。当業者が理解するように、品質注釈がセグメント毎に実施される場合、セグメントは複数の連続フレームを含み、各かかるフレームは、その一部であるセグメントのラベルを継承する。複数の独立した品質注釈が実施される場合、それらの結果は、例えば、独立した品質注釈全体にわたってフレームに対して最も一般的な品質クラスラベルを割り当てること、独立した品質注釈全体にわたって最低品質クラスラベルを割り当てること、独立した品質注釈全体にわたって閾値を超えて表される最低品質クラスラベルを割り当てることなど、任意の適切なスキームを使用してフレーム毎に結合されてもよい。図3に示すように、通常、同じ品質クラスラベルQ、Qで注釈されたセグメントが、同じ重症度クラスラベルS、S又は解剖学的ラベルA、Aで注釈されたセグメントに対応する必要はない。対照的に、同じ解剖学的ラベルA、Aを有する訓練映像300のセグメントは、同じ重症度クラスラベルS、Sを有してもよいが、これは、重症度情報は、典型的には、臨床設定において解剖学的セクションベース(例えば、解剖学的セクション毎に1つの重症度スコア)で提供されるためである。他の実施形態では、訓練用の未加工の大腸内視鏡映像300は、訓練データの一部を形成する映像300の各セグメント又は個別の各フレームに対して、品質クラスラベルQ、Qで自動的に注釈を付けることができる。かかる実施形態では、予め訓練された分類器(例えば、深層ニューラルネットワーク分類器など)を使用して、注釈付け実施することができる。
【0141】
工程210の結果として、複数の大腸内視鏡映像からのフレーム300~300の複数のセットを含む訓練画像データが取得され、各フレーム300~300は、重症度クラスラベルS、S、かつ所望により品質クラスラベルQ、Q及び/又は解剖学的ラベルA、Aに関連付けられる。品質クラスラベルQ、Qが訓練データに存在する場合、所望による工程220、320及び230、330は、本明細書に記載されるツールを提供する方法において実装されてもよい。工程220では、フレームを対応する品質クラスに分類するために、深層ニューラルネットワーク分類器(品質管理ネットワーク、QCNと称される)を訓練220することができる。その後、QCNを使用(230)して、画像データを(本明細書に記載されるツールを提供する方法の文脈における訓練画像データか、又は分析のための大腸内視鏡映像からのデータかを)フィルタリングすることができる。品質クラスラベルQ、Qがセグメントレベル注釈に基づいてフレームに割り当てられ、かつ/又は既に訓練された分類器を使用してセグメント又は個別のフレームに自動的に割り当てられるので、訓練(220)は、弱教師付き方式で実施される。従って、これらのフレーム-品質クラス対は、各特定のフレームの品質クラス割り当てに関して比較的高いレベルの不確実性があるので、グランドトゥルース情報を表していない。実際に、セグメント内の全てのフレームが、そのフレームを含むセグメントへの品質ラベルの割り当てをもたらした特徴を表示するとは限らないと予測され、かつ/又は任意の以前に訓練された分類器は、以前に見えないデータを分類する際に100%未満の精度を有することが期待される。訓練されると、QCNは、画像データをフィルタリングするために使用(230,330)することができ、その後、画像データは、以下に更に説明するように、重症度スコアリングネットワークによって分類される。特に、図3に示す実施形態では、QCNは、訓練又は分析映像300の個別のフレーム300~300を入力として取り、第1のクラスP(Q~P(Qに属するフレームの確率及び/又は第2のクラスに属するフレームの確率を出力330Aとして生成する。どのフレームがより低い品質クラスにあり、フィルタリングされるべきかを判定するために、これから、ティック及びクロスによって示されるような離散分類ラベル330Bが導出される。実際には、離散分類ラベル330Bは、どのフレームがより高い品質クラスにあるかを判定するために適用される基準を満たさないフレームを除外することによって、暗黙的にのみ導出され得る。例えば、フレーム(例えば、フレーム300)は、第1の品質クラスに属するフレームの確率P(Qが閾値に達するか又はそれを超える場合にはQCNによって第1の品質クラスに分類され、そうでない場合には第2の品質クラスに分類されるとみなされてもよい。閾値は、事前に又は動的に(すなわち、QCN及びデータの特定のインスタンスに依存して)選択することができる。例えば、閾値は、訓練画像データ内のフレームのセット(すなわち、同じ重症度クラス及び所望により同じ解剖学的セクションラベルが割り当てられた連続フレームのセット)が、第1の品質クラスに分類されたフレームを平均20~40個、好ましくは約30個含むように動的に決定することができる。閾値は、0.9~0.99、好ましくは0.95が適切であることが見出された。
【0142】
工程240/340において、(所望により品質フィルタリングされた)訓練データを使用して、重症度ベースの深層ニューラルネットワーク(SSN、本明細書では第1の深層ニューラルネットワーク分類器とも称される)を訓練し、以前に取得した重症度クラスラベルS、Sを使用して、データを重症度クラスに分類する。訓練240/340は、セグメントレベル注釈に基づいてフレームに重症度クラスラベルS、Sが割り当てられるので、弱教師付き方式で実施される。セグメント内の全てのフレームが、そのフレームを含むセグメントへの重症度クラスラベルの割り当てをもたらした特徴を表示するとは限らないため、これらのフレーム-重症度クラス対は、グランドトゥルース情報を表していないと期待される。訓練されたSSNは、大腸内視鏡映像を分析するために使用(250/350)することができる。SSNは、入力として個別のフレーム300~300を取り、分析される各フレームの重症度クラス予測を出力として生成(242/252)する。特に、図3に示す実施形態では、SSNは、訓練又は分析映像300の個別のフレーム300~300(又は、品質ベースのフィルタリングが使用される場合は個別のフレーム300~300及び300n-1~300)を入力として取り、出力340A/350Aとして、第1のクラスP(S~P(Sに属するフレームの確率及び/又は第2のクラスに属するフレームの確率を生成する。訓練中のSSNの性能を評価するために、離散分類ラベル340B/350Bがこれらの確率から導出され、フレーム毎に重症度クラス注釈と比較(246)されてもよい。離散分類ラベル340B/350Bは、SSNによって出力された1又は複数の確率に閾値を適用することによって取得することができる。例えば、フレーム(例えば、フレーム300)は、第1のクラスに属するフレームの確率(例えば、P(S)が閾値を超える場合、第1のクラスに割り当てられてもよい。フレームは、そうでない場合には第2のクラスに割り当てられてもよく、あるいはフレームが第1のクラスにある確率がある範囲内、典型的には約0.5の範囲内である場合に未知の分類を有するとみなされてもよい。同様に、マルチレベル分類器の場合、これが閾値を超える限り、最も高い確率を有するクラスにフレームを割り当てることができる。あるいは、確率の実際の値にかかわらず、最も高い確率を有するクラスにフレームが割り当てられてもよい。
【0143】
所望による工程244及び/又は254を更に実装することができ、要約済みの重症度クラス予測340C/350Cが、映像のセグメントを構成する(及びSSNで分析された)フレームの各々についての予測(340A/350A又は340B/350B)に基づいて、映像のセグメントについて取得される。図3に示す例では、同じセグメントに属するフレームは、解剖学的セクションラベルAに基づいてグループ化される。訓練データに対する重症度情報が解剖学的セクション毎に割り当てられたことから、要約済みの重症度クラス予測340Cは、訓練240の間にSSNの性能を評価するために、工程246において元の重症度情報と直接比較することができる。更に、大腸内視鏡映像を分析する目的で、解剖学的セグメント毎に要約済みの重症度クラス予測350Cを取得(254)することは、従来の臨床評価で使用される粒度を再現するので、有用であり得る。あるいは、大腸内視鏡映像を分析する目的で、要約済みの重症度クラス予測340C/350Cが取得される基礎となるセグメントは、好ましくはデータに関する事前情報なしで自動的に決定されてもよい。例えば、セグメントは、全てのフレームが同じ離散クラス割り当て350Bを有するか、又は離散クラス割り当て350Bを有さない(すなわち、未知であるか又はフレームが例えば品質上の理由で除外された)一連の連続フレームとして定義されてもよい。
【0144】
複数のフレームを含むセグメントについて要約済みの重症度クラス340C/350Cは、SSNによって出力された確率340A/350Aに直接基づいて、又はこれらの確率から導出された離散クラス割り当て340B/350Bに基づいて取得(244/254)することができる。実施形態では、セグメントに関する要約済みの重症度クラス340C/350Cは、SSNによって出力された第1の重症度クラスに属するフレームの確率340A/350Aの平均が閾値を上回る場合に、第1の重症度クラスをセグメントに割り当てることによって取得(244/254)することができる。図3に示す実施形態では、SSNによって出力された第1の重症度クラス(P(S~P(S)に属するフレーム300~300の確率340A/350Aの平均が閾値を超える場合、第1の重症度クラスをセグメントに割り当てることによって、フレーム300~300を含むセグメントの要約済みの重症度クラス340C/350Cを取得(244/254)することができる。閾値は固定であってもよい。代替的に、閾値は、偽陽性の所定の受容可能な割合、偽陰性の所定の受容可能な割合、所定の最小精度、所定の最小正確度、及び/又は所定の最小リコールから選択される1又は複数の基準に基づいて動的に決定されてもよい。閾値は、0.5~0.9が適切であることが見出されている。別の例として、セグメントに関する要約済みの重症度クラス340C/350Cは、第1の重症度クラスに割り当てられたフレームの割合が閾値を超える場合に、セグメントに第1の重症度クラスを割り当てることによって取得(244/254)することができる。図3に示す例では、閾値を0.5と仮定すると、フレーム300~300の66%が第1の重症度クラスに割り当てられるので、フレーム300~300を含むセグメントについて要約済みの重症度クラス340C/350Cが第1の重症度クラスとして割り当てられる。対照的に、フレーム300n-1~300を含むセグメントの要約済みの重症度クラス340C/350Cは、フレーム300n-1~300の50%が第1の重症度クラスに割り当てられるので、第2の重症度クラスとして割り当てられる。例えば、2つ以上のクラスが使用される場合には、他のスキームを使用してもよい。例えば、セグメントに対する要約済みの重症度クラス340C/350Cは、セグメントのフレームに対する離散クラス割り当て340B/350Cの中で表される最高重症度クラス(すなわち、最も重篤なクラス)を、それぞれの重症度クラスに対する閾値を超えてセグメントに割り当てることによって取得(244/254)することができる。閾値は、より高い重症度クラス(すなわち、離散重症度クラスラベル340B/350Bに割り当てられたセグメント内のフレームのより低い割合を必要とする)に対してより低くすることができる。実際、重症度の高いクラスほど識別が容易になると期待される(従って、重症度の高いクラスでの予測はより高い信頼性で行われる可能性がある)。
【0145】
本明細書に記載される深層ニューラルネットワーク分類器の全ては、好ましくは、畳み込みニューラルネットワーク(複数可)(CNN)である。有利には、使用されるCNNは、例えば、ImageNetデータベース(http://www.image-net.org)からなどの、無関係な画像データ上で事前訓練されていてもよい。本発明者らは、50層のCNNが現在の使用に適切であることを見出したが、例えば追加の層を含む代替的な実装形態も想定される。深層残差学習フレームワーク(He et al.,Deep Residual Learning for Image Recognition,2015,arXiv:1512.03385、https://arxiv.org/pdf/1512.03385.pdfで入手可能であり、参照により本明細書に援用される)を使用して訓練されたCNNは、特に適切であることが分かっている。
【0146】
工程246では、SSNの性能を評価するために、SSNからの予測が対応する重症度クラスラベル(訓練データ内の重症度情報から導出される)と比較される。実施形態では、SSN(第1の深層ニューラルネットワーク)の性能を評価することは、検証画像データを使用して受信動作特性曲線下面積(AUC)を定量化することを含む。実施形態では、SSNの性能を評価することは、検証画像データを使用してコーエンのκを計算することを含む。検証及び訓練画像データは、同じデータの一部を形成することができ、特に、上述したものと同じ特徴の全てを有する。この特定の例は、訓練画像データを使用して交差検証を行うことによるSSNの評価、例えば5分割又は10分割の交差検証である。実施形態では、第1の深層ニューラルネットワークの性能を評価することは、訓練画像データを使用して5分割又は10分割の交差検証を行うことと、交差検証の各スプリットについてAUC又はコーエンのκを定量化することと、を含む。好ましくは、訓練画像データは、交差検証のために複数のスプリットに分離され、同じ個別の大腸内視鏡映像からのフレームのセットは、複数のスプリットには現れない。
【0147】
例えば要約済みの重症度クラス350C及び/又は各フレームに対する予測(1又は複数のクラスに属する確率350A又は離散クラス割り当て350B)を含むSSNの出力は、例えばディスプレイを使用してユーザに出力されてもよい。この情報は、特に、SSNの出力がMCESなどの内視鏡重症度スコア又はスコアの範囲に対応する場合に、対象における潰瘍性大腸炎の重症度を評価するのに有用であり得る。
【0148】
対象における潰瘍性大腸炎の重症度を評価する方法を、図4を参照して説明する。例えば、ユーザインターフェースを介してユーザから、又はデータベース202から取得された、対象(又はその一部、例えば、単一の解剖学的セクションを示す部分、そのサイズを縮小するために元のデータの全てを含まない部分など)からの大腸内視鏡映像400は、図2及び図3を参照して上述したように分析される。詳細には、大腸内視鏡映像400からの画像データ(すなわち、大腸内視鏡映像400の全てのフレーム)は、所望によりQCNに提供され、各フレームを少なくとも第1の品質クラス及び第2の品質クラスに分類することによってフレームに品質ベースのフィルタを適用(430)し、第1の品質クラスのフレームのみが重症度評価に使用される。次いで、データ435を少なくとも第1の重症度クラス及び第2の重症度クラスに分類するSSNを使用して、(所望によりフィルタリングされた)画像データ435(すなわち、品質ベースのフィルタリングが使用されるか否かに応じて、大腸内視鏡映像400のフレームの全て又は一部)を潰瘍性大腸炎の重症度について評価(450A/450B)し、第1の重症度クラスは、第2の重症度クラスよりも重篤な潰瘍性大腸炎に関連付けられる。図4に示す実施形態では、画像データ435の2つの別個の重症度評価450A/450Bが実施され、第1のSSNが評価450Aで使用されて、MCES>1に対応する第1の重症度クラスとMCES≦1に対応する第2の重症度クラスとの間で画像データが分類される。第2のSSNは、評価450Bにおいて使用され、MCES>2に対応する第1の重症度クラスとMCES≦2に対応する第2の重症度クラスとの間で画像データが分類される。例えば、異なるSSNを有する2つ以上の別個の重症度評価を使用する構成、マルチクラスSSNを使用する単一の重症度評価、1又は複数の異なる内視鏡スコアリングスキーム(MCESを含むが、これに限定されない)の値に対応するクラスにデータを分類するSSNを使用する1又は複数の別個の重症度評価など、他の構成も可能であり、想定される。各SSNは、出力455A/455Bとして、データ435の各フレーム又は各セグメント(データ内のフレームのセット)が第1の重症度クラスに属する確率、又はこれらの確率から導出された個別の重症度クラスに属する確率を生成する。これらの出力455A/455Bは、工程460/470において、対象に対する適切な治療コースを決定するために使用される。特に、工程460で、第2の評価450Bからの出力455BがMCES>2を示しているか否かが判定される。例えば、データ435の任意のセグメントについてのSSN2の予測から導かれた要約済みのクラス予測が第1の重症度クラスである場合、第2の評価450Bからの出力455Bは、MCES>2を示すとみなされ得る。その場合には、対象が第1の治療のために選択(465)される。そうでない場合、工程470において、第1の評価450Aからの出力455AがMCES>1を示すか否かが判定される。例えば、データ435の任意のセグメントに対するSSN1の予測から導出された要約済みのクラス予測が第1の重症度クラスである場合、第1の評価450Aからの出力455Aは、MCES>1を示すとみなされ得る。その場合、対象は、第2の治療のために選択(475)される。治療のための対象の選択は、治療を推奨すること、かつ/又は治療から利益を得る可能性がある対象を識別すること、及び/又は特定の治療を必要とする可能性がある対象を識別することを意味し得る。所望により、本方法は、選択された治療に従って対象を治療することを更に含み得る。
【0149】
他の実施形態では、例えば、図4に示す第2のSNN(SSN2)を使用して、単一の重症度評価を実施することができる。かかる実施形態において、本方法は、この評価からの出力が第1の重症度クラスを示す場合、UCのために対象を治療すること、又はUCのための治療のために対象を選択すること(すなわち、治療を推奨し、治療から利益を得る可能性及び/又は治療を必要とする可能性があるものとして対象を識別すること)を含み得る。これは、例えば、SSNが画像データ400からのフレームのセットを第1の重症度クラスに分類する場合、又は画像データ400からのフレームのいずれかのセットが第1の要約済みの重症度クラスを有する場合であり得る。
【0150】
当業者が理解するように、深層ニューラルネットワークを使用して画像データを(重症度又は品質に基づいて)分類することへの言及は、実際には、複数の深層ニューラルネットワークを使用し、複数の深層ニューラルネットワークの予測を組み合わせることを包含し得る。かかる複数の深層ニューラルネットワークの各々は、本明細書に記載された特性を有することができる。同様に、深層ニューラルネットワークを訓練することへの言及は、実際には、本明細書に記載されるような複数の深層ニューラルネットワークの訓練を包含することができ、その一部又は全部は、その後、場合に応じて、品質又は重症度に従って画像データを分類するために使用することができる。
【実施例
【0151】
大腸内視鏡映像を分析するためのツールを提供する例示的な方法をここで説明する。HICKORY臨床試験(NCT02100696)及びLAUREL臨床試験(NCT02165215)では、中等度から重篤な活動性潰瘍性大腸炎(UC)患者の治療におけるエトロリズマブの有効性及び安全性を調査した第III相二重盲検プラセボ対照多施設共同試験から、2000個以上の大腸内視鏡映像が取得された。各映像は、臨床試験の一部として消化器専門医によって注釈が付けられ、2人の異なる判読者による(1)解剖学的セクション(直腸、S状結腸、下行結腸)と、(2)各解剖学的セクションのMCES評価とが示された。2人の判読者が各解剖学的セクションのMCESに同意しなかった映像、及び判読者が例えば不適切な腸管前処置、不十分な映像品質などの品質問題を警告した映像を除外することにより、計104個の未加工の大腸内視鏡映像が選択された。
【0152】
104本の未加工の大腸内視鏡映像の各々について、品質に関する手作業による注釈を専門家以外の者が実施し、「良好な品質」又は「悪い品質」とみなされる映像のセグメントを定義するよう依頼した。これは以下の基準、すなわち(i)カメラが適切な評価を可能にするために大腸壁から十分に離れていること、(ii)大腸壁及びその血管が目視検査で評価できること、及び(iii)視覚的アーチファクトが存在しないか、又はフレームの約10%以上を占めないこと、に基づいて実施された。観察された視覚的アーチファクトには、水、高反射領域、便、ぼやけなどが含まれていた。これは実際には、専門家でない人が映像を見て、ELAN(https://tla.mpi.nl/tools/tla-tools/elan/;Brugman,H.,Russel,A.(2004).Annotating Multimedia/Multi-modal resources with ELAN.In:Proceedings of LREC 2004,Fourth International Conference on Language Resources and Evaluation)を使って見ている間に良好な品質/悪い品質のセグメントを強調することによって行われた。
【0153】
解剖学的セクション注釈は、これらの臨床試験において各未加工の映像の各フレーム上にグラフィカルラベルとして含めた。深層ニューラルネットワーク(解剖学的セクションネットワーク)を訓練し、グラフィカルラベルを構成するフレームの領域に焦点を合わせることにより、各映像の各フレームを3つの解剖学的セクションカテゴリ(直腸、S状結腸、下行結腸)の1つに分類した。これは、Keras(https://keras.io/)を使用して、50層の畳み込みニューラルネットワークResNet50を部分的に再訓練することによって実施された。特に、ReNet50の最後の8つの層は、Kerasで実装されているように、確率的勾配降下(SGD)オプティマイザを使用して再訓練された。学習率は0.001、運動量は0.9を用いた。訓練された解剖学的セクションネットワークは、各映像の各フレームに対して高い信頼度で解剖学的セクションを割り当てることができた。このプロセスの結果は、104個の映像の各々の各フレームに対して、解剖学的セクション(解剖学的セクションネットワークから)、品質クラス(非専門家セグメントレベル注釈から)、MCES(専門家セグメントレベル注釈から)の3つの注釈が利用可能である。品質クラス及びMCESは、少なくとも、セグメント全体に関連して提供されたために弱いラベルであり、セグメントを形成する複数のフレームが、ラベルの割り当てをもたらした視覚的特徴を全て示す可能性は低い。特に、MCESスコアリングのために、大腸の解剖学的セクションに、そのセクションで見られる最も重篤な病変に対応するスコアが割り当てられる。換言すれば、S状結腸を示す映像の全セグメントは、両判読者がこの解剖学的セクションのどこかに中等度の疾患活動性の徴候(顕著な紅斑、血管パターンの欠如、摩損、びらん)を確認した場合、MCES=3に割り当てられる。ただし、このセクションの一部のフレームでは、これらの記号が表示されない場合がある。MCESスコアリングを2つの異なるスキームに従ってバイナリ重症度分類に変換した。第1のスキームでは、判読者からのMCESスコアが>1のセグメントには重症度クラスラベル1を、それ以外のセグメントには重症度クラスラベル2を割り当てた。第2のスキームでは、判読者からのMCESスコアが>2のセグメントには重症度クラスラベル2を、それ以外のセグメントには重症度クラスラベル2を割り当てた。
【0154】
全104個の映像は24フレーム/秒を含んでおり、全フレームは品質管理ネットワーク(QCN)の訓練に使用された。深層ニューラルネットワーク(品質管理ネットワーク)を訓練して、104個の未加工の映像のフレームの各々を良好な品質カテゴリと悪い品質カテゴリに分類した。特に、品質管理ネットワークは、各フレームに対して、フレームが「良好な品質」クラスに属する確率を提供するように訓練された。これは、上述のようにKerasを使用して、50層の畳み込みニューラルネットワークResNet50を部分的に再訓練することによって実施された。特に、最後の8つの層は、SGD、0.001の学習率、0.9の運動量を使用して再訓練された。「良好な品質」クラスに属するフレームの予測確率(P(良好))が0.97を超える場合、フレームは「良好な品質」として分類されるとみなした。この閾値により、未加工の大腸内視鏡映像1個につき約20フレームが選択された。未加工の大腸内視鏡映像1個につき約30フレーム(合計約9360フレーム)を選択をもたらす0.95の閾値も検査され、同様の結果が得られた(図示せず)。訓練したQCNのAUCは0.93±0.05であった。
【0155】
(P(良好)>0.97の閾値に従って)「良好な品質」であると予測される合計約6200フレームが選択された。これらのフレームの全ては、2つの深層ニューラルネットワーク(重症度スコアリングネットワーク、SSN)を別々に訓練するために使用され、第1のSSNには、上述の第1のバイナリスキーム(MCES>1、MCES≦1)に従ってバイナリ重症度分類ラベルを使用し、第2のSSNには、上述の第2のバイナリスキーム(MCES>2、MCES≦2)に従ってバイナリ重症度分類ラベルを使用した。その結果、第1のSSNは、各フレームに対して、フレームが第1の重症度クラスMCES>1に属する確率P(MCES>1)を出力するように訓練された。同様に、第2のSSNは、各フレームに対して、フレームが第1の重症度クラスMCES>2に属する確率P(MCES>1)を出力するように訓練された。両方のSSNは、上述のように使用して、50層の畳み込みニューラルネットワークResNet50を部分的に再訓練することによって訓練された。フレームは、それぞれP(MCES>1)>0.5及びP(MCES>2)>0.5の場合に、第1及び第2の重症度スコアリングネットワークによって第1の重症度クラスに割り当てられるとみなされた。同じ映像Yの同じ解剖学的セクションAからの全フレームにわたるクラス1の平均確率を計算することによって、(解剖学的セクションネットワークからの解剖学的セクションラベルを使用して)各映像の各解剖学的セクションに対して要約分類が計算された。セグメントは、平均(PA,Y(MCES>1))>0.5及び平均(PA,Y(MCES>2))>0.5の場合に、第1及び第2の重症度スコアリングネットワークによって第1の重症度クラスラベルが割り当てられるとみなされた。
【0156】
2つのSSNは、訓練に使用されたのと同じデータを使用して5分割の交差検証を実施することによって遡及的に評価された。特に、約6200個の品質選択されたフレームは、同じ患者からの映像に由来するフレームがセットのうちの1つにのみ現れるという追加の規則を伴って、60%、20%、20%のスキームに従って訓練、調整、及び検証のセットに分割された。ROC曲線は、第1の重症度クラスのセグメントを分類するために適用される閾値を変化させ、予測されたクラス割り当て及び専門家由来のクラス割り当て(上記のバイナリスキームに従って専門家注釈から得られたバイナリ重症度分類ラベル)を比較し、対応する偽陽性率及び偽陰性率を算出することによって、5分割検証の各反復について算出された。対応する曲線下面積(AUC)も各ROC曲線について算出した。平均ROC曲線及び対応する標準偏差、並びに平均ROC曲線のAUCを算出した。
【0157】
これらの分析の結果は、第1のSSN及び第2のSSNについてそれぞれ図5A及び図5Bに示されている。これらの図は、交差検証反復の各々について取得されたROC曲線(偽陽性の関数としての真陽性)(細い曲線)、これらの平均(太い曲線)、及び±1標準偏差エンベロープ(灰色の領域)を示している。示されたROC曲線は、0~1の上記閾値の各値に対するTPR及びFPR値に対応し、0.05のステップを有する。第1のSSNのAUC(平均±標準偏差)は0.76±0.08であった。第2のSSNのAUC(平均±標準偏差)は0.81±0.06であった。このデータは、完全に自動化された大腸内視鏡映像分析アプローチが、未加工の内視鏡映像を唯一の入力として使用して、個別の大腸セクションのMCES値の正確な予測を提供できることを示している。これは、訓練が弱いラベル及び比較的少量の訓練データ(104個の未加工の映像)を使用して実施されているにもかかわらず可能である。更に、臨床試験ではMCES≦1は概して「寛解」に分類されるため、対象が寛解状態にあることを示す大腸内視鏡映像を識別する信頼できる自動アプローチが特に有用となり得る。
【0158】
上記のように、約1000個の映像のより大きなデータセットを品質管理の対象とした。品質管理チェックに合格した全てのフレームとその元のMCES(0~3)注釈を使用して、更なるSSNを訓練した。このように、SSNは、MCES尺度の4つのレベルに対応する4つのクラスの1つに属する各フレームのそれぞれの確率を出力するように訓練された。一部の例では、Cao et al.(Rank-consistent Ordinal Regression for Neural Networks,2019,arXiv:1901.07884v4)に記載されているように、順序分類モデルが使用された。次に、セグメント内のフレームにわたる対応する平均確率を算出した。単一予測MCESスコアは、最も高い平均確率を有するMCESスコアとして各セグメントに割り当てられた。このSSNは、ROC曲線及びAUCを算出する代わりに、コーエンのκ係数を交差検証の各反復について算出したことを除いて、上記で説明したように交差検証によって評価した。
【0159】
用語「コンピュータシステム」は、システムを具現化するため、又は上述の実施形態による方法を実施するためのハードウェア、ソフトウェア、及びデータストレージデバイスを含む。例えば、コンピュータシステムは、中央処理装置(CPU)、入力手段、出力手段及びデータストレージを含むことができ、これらは1又は複数の接続されたコンピューティングデバイスとして具現化することができる。好ましくは、コンピュータシステムはディスプレイを有するか、又は(例えばビジネスプロセスの設計において)視覚的出力ディスプレイを提供するディスプレイを有するコンピューティングデバイスを含む。データストレージは、RAM、ディスクドライブ又は他のコンピュータ可読媒体を含み得る。コンピュータシステムは、ネットワークによって接続され、そのネットワークを介して互いに通信し得る複数のコンピューティングデバイスを含み得る。
【0160】
上記実施形態の方法は、コンピュータプログラムとして、又はコンピュータ上で実施される場合に上述の方法(複数可)を実施するように構成されるコンピュータプログラムを担持するコンピュータプログラム製品又はコンピュータ可読媒体として提供することができる。
【0161】
用語「コンピュータ可読媒体」は、コンピュータ又はコンピュータシステムによって直接読み取られアクセスされ得る任意の非一時的媒体又は複数の媒体を含むが、これらに限定されない。媒体は、フロッピーディスク、ハードディスク記憶媒体及び磁気テープなどの磁気記憶媒体、光ディスク又はCD-ROMなどの光学記憶媒体、RAM、ROM及びフラッシュメモリを含むメモリなどの電気記憶媒体、並びに磁気/光学記憶媒体などの上記のハイブリッド及び組み合わせを含み得るが、これらに限定されない。
【0162】
文脈が特に指示しない限り、上記の特徴の説明及び定義は、本発明の特定の態様又は実施形態に限定されず、記載された全ての態様及び実施形態に等しく適用される。
【0163】
「及び/又は」は、本明細書中で使用される場合、2つの特定された特徴又は構成要素の各々の、他方を有する又は有さない特定の開示として解釈されるべきである。例えば、「A及び/又はB」は、(i)A、(ii)B、及び(iii)A及びBの各々について、あたかもそれぞれが本明細書中に個別に記載されているかのように、具体的な開示として解釈されるべきである。
【0164】
本明細書及び添付の特許請求の範囲で使用されているように、単数形「a」、「an」、及び「the」は、文脈が他に明確に指示しない限り、複数の指示対象を含むことに留意されたい。範囲は、本明細書において、「約」1つの特定の値、及び/又は「約」別の特定の値として表現され得る。かかる範囲が表現される場合、別の実施形態は、1つの特定の値から、かつ/又は他の特定の値までを含む。同様に、値が近似として表現される場合、先行詞「約」を使用することによって、特定の値が別の実施形態を形成することが理解される。数値に関する用語「約」は任意であり、例えば+/-10%を意味する。
【0165】
以下の請求項を含む本明細書全体を通して、文脈が他に要求しない限り、「含む(comprise)」及び「含む(include)」という語、並びに「含む(comprises)」、「含んでいる(comprising)」及び「含んでいる(including)」などの変形例は、記載された整数若しくはステップ又は整数若しくは工程のグループを含むことを意味するが、他の整数若しくはステップ又は整数若しくは工程のグループを除外することは意味しないと理解される。
【0166】
本発明の他の態様及び実施形態は、文脈が別に指示しない限り、用語「からなる(consisting of)」又は「本質的に~からなる(consisting essentially of)」に置き換えられた用語「含んでいる(comprising)」を有する上記の態様及び実施形態を提供する。
【0167】
前述の説明、特許請求の範囲、又は添付の図面に開示された特徴は、その特定の形態で、又は開示された機能を実行するための手段、又は開示された結果を取得するための方法又はプロセスに関して、適宜、個別に、又はかかる特徴の任意の組み合わせで、本発明をその多様な形態で実現するために利用することができる。
【0168】
本発明は、上述の例示的な実施形態に関連して説明されてきたが、本開示を与えられた当業者には、多くのの修正及び変形が明らかであろう。従って、上述した本発明の例示的実施形態は、例示的なものであり、限定的なものではないとみなされる。本発明の精神及び範囲から逸脱することなく、記載された実施形態に対する種々の変更を行うことができる。
【0169】
疑義を避けるために、本明細書に提供されるいかなる理論的説明も、読者の理解を向上させる目的で提供される。本発明者らは、これらの理論的説明のいずれにも拘束されることを望まない。
【0170】
本明細書で使用されるセクションの見出しは、構成上の目的のみであり、記載された主題を限定するものとして解釈されるべきではない。
【0171】
本明細書で言及される全ての文書は、その全体が参照により本明細書に援用される。
図1
図2
図3
図4
図5A
図5B
【国際調査報告】