(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公表特許公報(A)
(11)【公表番号】
(43)【公表日】2024-04-16
(54)【発明の名称】反復画像再構成における機械学習ベースの改善
(51)【国際特許分類】
A61B 6/03 20060101AFI20240409BHJP
G01T 1/161 20060101ALI20240409BHJP
A61B 5/055 20060101ALI20240409BHJP
G06T 1/40 20060101ALI20240409BHJP
G06T 1/00 20060101ALI20240409BHJP
G06T 5/70 20240101ALI20240409BHJP
【FI】
A61B6/03 550U
G01T1/161 A
G01T1/161 B
A61B5/055 376
G06T1/40
G06T1/00 290A
G06T5/70
【審査請求】未請求
【予備審査請求】未請求
(21)【出願番号】P 2023564498
(86)(22)【出願日】2022-04-12
(85)【翻訳文提出日】2023-11-09
(86)【国際出願番号】 EP2022059674
(87)【国際公開番号】W WO2022223356
(87)【国際公開日】2022-10-27
(32)【優先日】2021-04-23
(33)【優先権主張国・地域又は機関】EP
(81)【指定国・地域】
(71)【出願人】
【識別番号】590000248
【氏名又は名称】コーニンクレッカ フィリップス エヌ ヴェ
【氏名又は名称原語表記】Koninklijke Philips N.V.
【住所又は居所原語表記】High Tech Campus 52, 5656 AG Eindhoven,Netherlands
(74)【代理人】
【識別番号】110001690
【氏名又は名称】弁理士法人M&Sパートナーズ
(72)【発明者】
【氏名】サロモン アンドレ フランク
(72)【発明者】
【氏名】ウエルケル クリスチャン
(72)【発明者】
【氏名】ゲディケ アンドレアス ゲオルク
(72)【発明者】
【氏名】グラス ミカエル
【テーマコード(参考)】
4C093
4C096
4C188
5B057
【Fターム(参考)】
4C093AA22
4C093CA06
4C093CA35
4C093FA44
4C093FE12
4C093FE22
4C093FF42
4C093FH07
4C096AB07
4C096AB44
4C096AD12
4C096AD13
4C096DA04
4C096DB01
4C096DE07
4C188EE02
4C188FF04
4C188FF07
4C188LL30
5B057AA08
5B057AA09
5B057BA03
5B057BA07
5B057CD05
5B057CE02
(57)【要約】
反復再構成操作を容易にするためのシステム(CDD)及び関連方法である。反復再構成では、画像ドメイン内の画像は、複数のステップにおいて、投影ドメイン内の測定された投影画像から再構成される。システム及び方法は、訓練された機械学習モジュール(MLM)を使用する。システムは、反復再構成操作において生成された入力補正データを受信する。システムは、入力補正データに基づいて出力補正データを予測する。出力補正データは、所与のステップで再構成されるとき、現在の画像を補正することを容易にするため、新たな画像の中に提供される。
【特許請求の範囲】
【請求項1】
反復再構成操作を容易にするための訓練された機械学習モジュールを備えるシステムであって、1つ又は複数のステップにおいて、画像ドメイン内の画像は、投影ドメイン内の測定された投影データから再構成可能であり、訓練された前記機械学習モジュールは、
前記反復再構成操作において生成された入力補正データを受信することと、
前記入力補正データに基づいて、出力補正データを予測することと、
所与のステップにおいて再構成されるとき、現在の画像を補正することを容易にするため、前記出力補正データを新たな画像の中に提供することとを行い、
前記入力補正データは、逆投影されたエラー投影データに基づき、画像ドメイン内にあり、逆投影された前記エラー投影データは、測定された投影データと推定された投影データとの間のずれを表し、推定された前記投影データは、現在の前記画像の投影ドメインへの順方向投影によって取得され、又は
前記入力補正データは、測定された投影データと推定された投影データとの間のずれに基づき、投影ドメイン内にあり、推定された前記投影データは、所与の反復ステップにおいて再構成された現在の前記画像の投影ドメインへの順方向投影によって取得される、システム。
【請求項2】
訓練された前記機械学習モジュールは、データ品質改善部として機能するので、新たな補正データは前記入力補正データより高い品質を有する、請求項1に記載のシステム。
【請求項3】
前記品質はノイズの品質であり、前記システムは、それぞれの異なるノイズ低減レベルに対して構成された複数の機械学習モジュールを備える、請求項2に記載のシステム。
【請求項4】
所望のノイズ低減レベルに基づいて、複数の前記機械学習モジュールのうちの1つを選択するように選択部信号を受信するための選択部を含む、請求項3に記載のシステム。
【請求項5】
複数の前記機械学習モジュール、又は複数の前記機械学習モジュールのうちの少なくとも1つが、人工ニューラルネットワークモデルを含む、請求項1から4のいずれか一項に記載のシステム。
【請求項6】
前記人工ニューラルネットワークモデルが畳込みニューラルネットワークである、請求項5に記載のシステム。
【請求項7】
前記畳込みニューラルネットワークが、画像ドメイン内のボクセルの、又は投影ドメイン内のピクセルの近辺よりも大きい効果的な受容フィールドを有する、請求項1から6のいずれか一項に記載のシステム。
【請求項8】
前記投影データは、撮像装置によって測定され、前記撮像装置は、X線撮像装置、PET/SPECT撮像装置、及びMRI撮像装置のうちのいずれか1つである、請求項1から7のいずれか一項に記載のシステム。
【請求項9】
データ品質、又は画像品質は、ノイズ、解像度、及び画像アーチファクトのうちの任意の1つ又は複数に関係がある、請求項2から8のいずれか一項に記載のシステム。
【請求項10】
投影ドメイン内の投影データから画像ドメイン内の画像の反復再構成を1つ又は複数のステップにおいて行うためのシステムであって、前記システムは、
所与の反復ステップのときに現在の画像が記憶されるメモリと、
現在の前記画像を投影ドメインにマッピングして、推定された投影データを取得する順方向投影部と、
投影エラーデータを、前記投影データと推定された前記投影データとの間にずれがある場合に、前記ずれとして確立する比較部と、ある場合には、
前記投影エラーデータを画像ドメインに逆投影して入力補正データを取得する逆投影部と、
出力補正画像データを前記入力補正データに基づいて計算するために、請求項1から9のいずれか一項に記載のシステムの訓練された機械学習モジュールとして実装されている補正データ決定部と、
前記出力補正データを現在の前記画像に適用して、現在の前記画像を新たな画像へと更新する更新部とを備える、システム。
【請求項11】
投影ドメイン内の投影データから画像ドメイン内の画像の反復再構成を1つ又は複数のステップにおいて行うためのシステムであって、前記システムは、
所与の反復ステップでの現在の画像が記憶されるメモリと、
現在の前記画像を投影ドメインにマッピングし、推定された投影データを取得する順方向投影部と、
入力補正データを、前記投影データと推定された前記投影データとの間にずれがある場合に、前記ずれとして確立する比較部と、ある場合には、
出力補正データを前記入力補正データに基づいて計算するために、請求項1から9のいずれか一項に記載のシステムの訓練された機械学習モジュールとして実装された補正データ決定部と、
前記出力補正データを画像ドメインに逆投影して、補正画像データを取得する逆投影部と、
前記補正画像データを現在の前記画像に適用して、現在の前記画像を新たな画像へと更新する更新部とを備える、システム。
【請求項12】
請求項1から11のいずれか一項に記載のシステムの機械学習モジュールを訓練データに基づいて訓練する、訓練システム。
【請求項13】
請求項12に記載の訓練システムにおける使用のために訓練データを生成するためのシステムであって、前記システムは、
i)第1の品質及び第2の品質の補正画像データを取得するために投影データを処理することであって、第2の前記品質は第1の前記品質よりも高く、前記システムは、第1の前記品質及び第2の前記品質の前記補正画像データを、訓練システムにおける入力及び訓練対象物に対する訓練データとして提供し、前記処理することは、第1の前記品質及び第2の前記品質のそれぞれの補正画像データを取得するために、異なる量の前記投影データを使用して反復再構成を実施することを含み、それぞれの前記補正画像データは、それぞれの逆投影されたエラー投影データに基づいており、それぞれの前記エラー投影データは、それぞれの測定された投影データとそれぞれの推定された投影データとの間のそれぞれのずれを表し、それぞれの推定された前記投影データは、それぞれの現在の画像の投影ドメインへのそれぞれの順方向投影によって取得される、処理することか、
又はii)第1の品質及び第2の品質の補正投影データを取得するために投影データを処理することであって、前記システムは、第1の前記品質及び第2の前記品質の前記補正投影データを、前記訓練システムにおける入力及び訓練対象物に対する訓練データとして提供する、処理すること、を行う反復再構成部を備え、
前記処理することは、それぞれの補正投影データを取得するために、それぞれの測定された投影データとそれぞれの推定された投影データとの間のそれぞれのずれに基づいて、異なる量の前記投影データを使用して反復再構成を実施することを含み、それぞれの推定された前記投影データは、所与のそれぞれの反復ステップで再構成されたそれぞれの現在の画像の投影ドメインへのそれぞれの順方向投影によって取得される、システム。
【請求項14】
1つ又は複数のステップにおいて、画像ドメイン内の画像が、投影ドメイン内の測定された投影データから再構成可能である、反復再構成操作を容易にするための方法であって、前記方法は、
訓練された機械学習モジュールによって、前記反復再生操作において生成された入力補正データを受信するステップと、前記入力補正データに基づいて、出力補正データを予測するステップと、
所与のステップで再構成されるとき、現在の画像を補正することを容易にするため、前記出力補正データを新たな画像の中に提供するステップとを有し、
前記入力補正データは、逆投影されたエラー投影データに基づき、画像ドメイン内にあり、前記エラー投影データは、測定された投影データと推定された投影データとの間のずれを表し、推定された前記投影データは、現在の前記画像の投影ドメインへの順方向投影によって取得され、又は
前記入力補正データは、測定された投影データと推定された投影データとの間のずれに基づき、投影ドメイン内にあり、推定された前記投影データは、所与の反復ステップにおいて再構成された現在の前記画像の投影ドメインへの順方向投影によって取得される、方法。
【請求項15】
訓練データに基づいて、請求項1から14のいずれか一項に記載のシステムの機械学習モジュールを訓練する、方法。
【請求項16】
機械学習モジュールを訓練する際の使用のための訓練データを生成する方法であって、前記方法は、
i)第1の品質及び第2の品質の補正画像データを取得するために投影データを処理するステップであって、第2の前記品質は第1の前記品質よりも高く、処理する前記ステップは、第1の前記品質及び第2の前記品質のそれぞれの補正画像データを取得するために、異なる量の前記投影データを使用して反復再構成を実施することを含み、それぞれの前記補正画像データは、それぞれの逆投影されたエラー投影データに基づいており、それぞれの前記エラー投影データは、それぞれの測定された投影データとそれぞれの推定された投影データとの間のそれぞれのずれを表し、それぞれの推定された前記投影データは、それぞれの現在の画像の投影ドメインへのそれぞれの順方向投影によって取得される、処理するステップ、並びに
第1の前記品質及び第2の前記品質の前記補正画像データを、訓練システムにおける入力及び訓練対象物に対する訓練データとして提供するステップか、又は
ii)第1の品質及び第2の品質の補正投影データを取得するために投影データを処理するステップであって、処理する前記ステップは、それぞれの補正投影データを取得するために、それぞれの測定された投影データとそれぞれの推定された投影データとの間のそれぞれのずれに基づいて、異なる量の前記投影データを使用して反復再構成を実施することを含み、それぞれの推定された前記投影データは、所与のそれぞれの反復ステップで再構成されたそれぞれの現在の画像の投影ドメインへのそれぞれの順方向投影によって取得される、処理するステップ、並びに
第1の前記品質及び第2の前記品質の前記補正投影データを、訓練システムにおける入力及び訓練対象物に対する訓練データとして提供するステップを有する、方法。
【請求項17】
少なくとも1つの処理ユニットによって実行されると、請求項14から16のいずれか一項による方法を前記処理ユニットに実施させる、コンピュータプログラム。
【請求項18】
請求項17に記載のコンピュータプログラムが記憶されている、又は請求項1から12、14、及び15のいずれか一項に記載のシステムの訓練機械学習モジュールが記憶されている、少なくとも1つのコンピュータ可読媒体。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、反復画像再構成操作を容易にするための訓練された機械学習モジュールを含むシステム、反復画像再構成のためのシステム、機械学習モデルを訓練するための訓練システム、訓練データを生成するためのシステム、関連する方法、コンピュータプログラム要素、及びコンピュータ可読媒体に関する。
【背景技術】
【0002】
撮像は、医療施術者の手持ちの重要なツールである。
【0003】
1つのそのようなツールは、非侵襲的に患者の内部の画像を入手することをできるようにするX線撮像である。患者は、外部からのX線にさらされる。X線は患者の組織を通って、撮像装置の検出部で検出される。このようにして、投影データが取得される。投影データは、X線撮影プロトコルにおいてなど、投影画像として使用される。しかしながら、時には、目下の医療タスクによりふさわしいのは断面図であることがある。この目的のために、投影画像は、再構成アルゴリズムによってコンピュータ的に処理されて、前記断面画像を取得することができる。投影方向に沿って解剖学的組織に介入することは、投影画像において構造体の重ね合わせを生じさせ、以て、潜在的に、極めて重大な細部が不明瞭になるので、断面画像は、通常なら投影画像において利用することができない細部を見えるようにすることによって、診断、及び/又は治療において役立つことができる。
【0004】
断層撮像とも呼ばれる断面撮像は、CT(コンピュータ断層撮影)又は乳房X線撮影(共にX線ベースの)、核撮像(SPECT[単光子放射コンピュータ断層撮影]/PET[陽電子放射断層撮影])、MRI(磁気共鳴撮像)、OCT(光コヒーレンス断層撮影)、及びUS(超音波)断層撮影向けなどの多くのモダリティに利用可能である。
【0005】
反復再構成アルゴリズムを含む異なるタイプの再構成アルゴリズムが存在する。反復再構成アルゴリズムには、代数学的タイプ又は統計学的タイプのものがある。統計学的タイプのものには、最尤ベースのアルゴリズムがある(MLEM、「最尤推定期待値最大化」)。反復再構成アルゴリズムは、最終結果である所望の断面画像に収束する中間画像のシーケンスを計算するために反復して続行される。しかしながら、反復再構成アルゴリズムは、再構成画像の中に統計学的ノイズを招く傾向があるので欠点がないわけではない。より具体的には、収束をある特定のレベルに到達させるために多くの反復が必要とされる一方、統計学的ノイズは各反復において、推定された画像の中に伝播する。これにより、過度の時間、及び/又はコンピュータ計算リソースが浪費される。
【0006】
ノイズ汚染(広まり/ひどさ)を抑制するために、反復再構成において正規化技法が使用されている。ノイズ低減のためのそのような正規化技法は、単純な停止条件の定式化、又は前との相対的な差のような、より高度な正規化手法を含んでいた。停止条件は、関心の特徴が十分に収束するとすぐ、ただし同時に、画像ノイズがそれらの画像特徴のマスキングにおいて優勢になりすぎていない場合、反復を終了するように義務づける。前との相対的な差ベースの正規化は、空間構造に依存した、中間画像の局所的な平滑化を目的としていた。しかしながら、両方の技法は、人工的なノイズ質感、又は、特に小さな構造体に対して、量的な正確さの減少につながることが多いことが判明している。
【発明の概要】
【発明が解決しようとする課題】
【0007】
したがって、改善された断層撮像が必要である。
【0008】
本発明の目的は、さらなる実施形態が従属請求項に組み込まれた、独立請求項の主題によって解決される。本発明の以下の記述されている態様は等しく、反復画像再構成のためのシステム、機械学習モデルを訓練するための訓練システム、訓練データを生成するためのシステム、関連する方法、コンピュータプログラム要素、及びコンピュータ可読媒体に関する。
【課題を解決するための手段】
【0009】
本発明の第1の態様に従って、反復再構成操作を容易にするための訓練された機械学習モジュールを備えるシステムが提供されており、1つ又は複数のステップにおいて、画像ドメイン内の画像は、投影ドメイン内の測定された投影データから再構成可能であり、訓練された機械学習モジュールは、
前記反復再構成操作において生成された入力補正データを受信することと、
入力補正データに基づいて、出力補正データを予測することと、
所与のステップにおいて再構成されるとき、現在の画像を補正することを容易にするため、前記出力補正データを新たな画像の中に提供することとを行うように構成される。
【0010】
現在の前記画像は、初期画像か、又は異なる反復サイクル内の反復再構成によって生成された中間画像のどちらかである。
【0011】
提案されているシステムは好ましくは、反復断層撮影再構成アルゴリズムを使用する。そのような反復再構成アルゴリズムは、直接反転タイプの再構成アルゴリズムと区別されており、ただし、再構成された画像の個々の画像要素(ボクセル又はピクセル)の値の計算は、反復を伴わない。直接反転再構成アルゴリズムの例は、フィルタ逆投影(FBP)アルゴリズムである。
【0012】
提案されているシステムは、反復画像再構成における収束速度を改善するため、及び/又はノイズを低減するために機械学習(「ML」)を使用する。MLは、反復再構成アルゴリズムの実行中に生成された中間画像ではなく、補正データを変換又はフィルタリングするために使用される。
【0013】
反復再構成において、中間再構成画像のノイズ分散は、入手されたデータの、収束レベル及び統計学的ノイズに大いに依存することが判明している。対照的に、補正データ(例えば補正因子)は、収束レベル及び反復とは無関係だが、入手された未加工の投影データだけに依存する、一定の統計学的ノイズレベルを示す。この発見は、中間画像ではなく、補正データをノイズ低減するためにMLを使用することによって、本明細書において活用される。MLは、訓練データから学習された、より前の補正データにおける異なるノイズレベル間の関係を良好に捕捉することが判明している。訓練データはその全体において、履歴画像の患者記録から供給されるか、又は訓練データ生成部TDGによって少なくとも部分的に生成される。
【0014】
ノイズ低減(「ノイズ除去」とも称される)を行おうとすると、MLモデルは広いスペクトルのノイズレベルを低減するために学習する必要があるので、又は反復ごと若しくは画像領域ごとに、入力ノイズに適合する特定のモデルが選択されて訓練されなければならないので、たとえMLが使用されても、中間画像はあまり期待できなさそうである。両方共、実施するのが面倒で困難である。対照的に、提案されているMLベースの、補正データのノイズ低減は、モデルの訓練とモデルアーキテクチャとの両方を単純化し、さらに、より良好なロバスト性をもたらす。本明細書において行われたように、MLベースのノイズ除去を、中間画像の代わりに補正因子に適用することは、補正データが、反復と無関係なノイズを被るだけなので、より単純である。
【0015】
前に述べた、MAP(最大事後)再構成、又はRDP(前との相対的な差)などのノイズ正規化技法は、人工のノイズ質感、又はノイズ質感の欠落をもたらしたが、それにより臨床的受容性の低下が生じ、臨床的なユーザは、小さな構造体の評価(例えば、PET又はSPECT撮像における偽陽性病変についてのリスクアセスメント)ができなくなる。対照的に、提案されている解決策は、ノイズ質感が、各領域における(変動する)収束のレベルのみに依存するため、再構成された画像の自然な外観を保証する。
【0016】
実施形態では、提案されている解決策は、RDPなど、以前の正規化手法で使用されたフィルタリング/平滑化ウィンドウより大きな受容フィールドを使用する。例えば、典型的な前との相対的な差についてのRDPでは、各ボクセルの局所的な平滑化は、最も近い近隣ボクセル、すなわち3×3×3ボクセル近辺のみに依存した。したがって、より小さいボクセルと、各ボクセルにおいてより高い統計学的ノイズとに対して、RDPはノイズを実次元画像の特徴構造から分離する点において効果的でなくなる。本明細書で使用されるある特定のMLモデルと共に、直ぐの前記ボクセル近辺よりも大きい受容フィールドを使用することによって、小さな画像構造でさえ、ノイズによってかき消されることが防止される。
【0017】
実施形態では、入力補正データは、逆投影されたエラー投影データに基づき、画像ドメイン内にあり、エラー投影データは、測定された投影データと推定された投影データとの間のずれを表し、推定された投影データは、現在の画像の投影ドメインへの順方向投影によって取得される。
【0018】
代替の実施形態では、入力補正データは、測定された投影データと推定された投影データとの間のずれに基づき、投影ドメイン内にあり、推定された投影データは、所与の反復ステップにおいて再構成された現在の画像の投影ドメインへの順方向投影によって取得される。
【0019】
実施形態では、モジュールは、新たな補正データが入力補正データより高い品質を有するように、データ/画像品質改善部として機能する。特に、実施形態では、モジュールは、新たな補正データが入力補正データより低いノイズレベルを有するように、ノイズ低減部として機能する。
【0020】
実施形態では、品質はノイズの品質であり、システムは、それぞれの異なるノイズ低減レベル用に構成された複数の機械学習モジュールを備える。
【0021】
実施形態では、システムは、所望のノイズ低減レベルに基づいて、複数のモジュールのうちの1つを選択するために選択部信号を受信するための選択部を含む。
【0022】
選択部及び複数のモジュールはさらに、解像度を改善する、又はアーチファクト汚染を低減するなど、補正データの他の画像品質/データ品質を改善するために使用される。
【0023】
実施形態では、複数の機械学習モジュールは、又は複数の機械学習モジュールのうちの少なくとも1つは、人工ニューラルネットワークモデルを含む、又は人工ニューラルネットワークモデルとして実装される。
【0024】
実施形態では、人工ニューラルネットワークモデルは、畳込みニューラルネットワークである。
【0025】
実施形態では、ネットワークは少なくとも1つの隠れ層を含む。
【0026】
実施形態では、畳込みニューラルネットワークは、画像ドメイン内のボクセルの、又は投影ドメイン内のピクセルの近辺よりも大きい、効果的な受容フィールドを有する。受容フィールドは、ユーザインターフェースを通じてユーザによって選択可能/調整可能である。近辺は好ましくは、ボクセルの直ぐの近辺である。こうしてネットワークは、ボクセルの周りのより大きなエリアに畳込みを適用するように選択され、以てノイズを低減/取り除くなど、データ/画像品質を改善するのに役立つことができる。
【0027】
実施形態では、投影データは撮像装置によって測定され、撮像装置は、X線撮像装置、PET/SPECT撮像装置、及びMRI撮像装置のうちのいずれか1つである。
【0028】
別の態様では、投影ドメイン内の投影データから画像ドメイン内の画像の反復再構成を1つ又は複数のステップにおいて行うためのシステムが提供されており、システムは、
所与の反復ステップのときに現在の画像が記憶されるメモリと、
現在の画像を投影ドメインにマッピングして、推定された投影データを取得する順方向投影部と、
投影エラーデータを、投影データと推定された投影データとの間にずれがある場合に、そのずれとして確立するように構成された比較部と、ある場合には、
投影エラーデータを画像ドメインに逆投影して入力補正データを取得する逆投影部と、
出力補正画像データを入力補正データに基づいて計算するために、上述の実施形態のいずれか1つによる、訓練された機械学習モジュールとして実装されている補正データ決定部と、
出力補正データを現在の画像に適用して、現在の画像を新たな画像へと更新するように構成された更新部とを備える。
【0029】
別の態様では、投影ドメイン内の投影データから画像ドメイン内の画像の反復再構成を1つ又は複数のステップにおいて行うためのシステムが提供されており、システムは、
所与の反復ステップのときに現在の画像が記憶されるメモリと、
現在の画像を投影ドメインにマッピングして、推定された投影データを取得する順方向投影部と、
入力補正データを、投影データと推定された投影データとの間にずれがある場合に、そのずれとして確立するように構成された比較部と、ある場合には、
出力補正データを入力補正データに基づいて計算するために、上述の実施形態のいずれか1つによる訓練された機械学習モジュールとして実装された補正データ決定部と、
出力補正データを画像ドメインに逆投影して、補正画像データを取得するように構成された逆投影部と、
補正画像データを現在の画像に適用して、現在の画像を新たな画像へと更新するように構成された更新部とを備える。
【0030】
上において、訓練された機械学習モジュールは、CTにおいてなど、少なくとも1つ又はいくつかの反復ステップで、ステップごとに交換される。しかしながら、反復の終結まで同じモジュールを保つことも予想される。
【0031】
別の態様では、上述の実施形態又は態様のいずれか1つによる機械学習モジュールを、訓練データに基づいて訓練するように構成された訓練システムが提供される。訓練システムは機械学習訓練アルゴリズムを実装する。訓練システムは、訓練データの少なくとも一部(又はすべて)が記憶されるメモリを含む。訓練システムは、訓練データに基づくモデルの初期バージョンを上で使用された訓練されたモデル/モジュールを作り出すように適合されるように構成される。
【0032】
別の態様では、訓練システムにおける使用のための訓練データを生成するためのシステムが提供されており、システムは、i)第1及び第2の品質(レベル)の補正画像データを取得するために投影データを処理することであって、第1の品質は第2の品質より高い、システムは、第1及び第2の品質の補正画像データを、訓練システムにおける入力及び訓練対象物に対する訓練データとして提供する、処理すること、又は、ii)第1及び第2の品質の補正投影データを取得するために投影データを処理することであって、システムは、第1及び第2の品質の補正投影データを、訓練システムにおける入力及び訓練対象物に対する訓練データとして提供する、投影データを処理すること、を行うように構成された反復構成部を備える。
【0033】
1つの態様では、投影ドメイン内の測定された投影データから画像ドメイン内の画像の反復再構成を、1つ又は複数のステップにおいて行うことを容易にするための、訓練された機械学習モジュールを備えるシステムが提供されており、訓練された機械学習モジュールは、
i.a)測定された投影データと推定された投影データとの間のずれを表す逆投影されたエラー投影データに基づいた入力補正画像データ、又はii.a)測定された投影データと推定された投影データとの間のずれに基づいた入力エラー投影データを受信することであって、推定された投影データは、所与の反復ステップで再構成された現在の画像の投影ドメインへの順方向投射を行うことによって取得される、受信することと、
i.b)新たな画像を取得するために、入力補正画像データに基づいて、現在の前記画像の補正のための出力補正画像データを予測すること、又はii.b)入力エラー投影データに基づいて、現在の前記画像を新たな画像へと更新するための、補正画像データへの逆投影が可能な出力エラー投影データを予測することとを行うように構成される。
【0034】
別の態様では、反復再構成操作を容易にするための方法が提供されており、1つ又は複数のステップにおいて、画像ドメイン内の画像は、投影ドメイン内の測定された投影データから再構成可能であり、方法は、
訓練された機械学習モジュールによって、前記反復再生操作において生成された入力補正データを受信することと、入力補正データに基づいて、出力補正データを予測することと、
所与のステップで再構成されるとき、現在の画像を補正することを容易にするため、前記出力補正データを新たな画像の中に提供することとを有する。
【0035】
別の態様では、反復再構成のための方法が提供されており、1つ又は複数のステップにおいて、画像ドメイン内の画像は、投影ドメイン内の投影データから再構成され、方法は、
推定された投影データを取得するために、所与の反復ステップにおいて現在の画像を投影ドメインに順方向投影することと、
投影エラーデータを、投影データと推定された投影データとの間にずれがある場合に、そのずれとして確立することと、ある場合には、
入力補正データを取得するために投影エラーデータを画像ドメインに逆投影することと、
訓練された機械学習モジュールによって、入力補正データに基づいて、出力補正画像データを計算することと、
現在の画像を新たな画像へと更新するために出力補正データを現在の画像に適用することとを有する。
【0036】
別の態様では、反復再構成のための方法が提供されており、1つ又は複数のステップにおいて、画像ドメイン内の画像は、投影ドメイン内の投影データから再構成され、方法は、
推定された投影データを取得するために、所与の反復ステップにおいて現在の画像を投影ドメインに順方向投影することと、
入力補正データを、投影データと推定された投影データとの間にずれがある場合に、そのずれとして確立することと、ある場合には、
訓練された機械学習モジュールによって、入力補正データに基づいて、出力補正データを計算することと、
補正画像データを取得するために出力補正データを画像ドメインに逆投影することと、
現在の画像を新たな画像へと更新するために補正画像データを現在の画像に適用することとを有する。
【0037】
上において、訓練された機械学習モジュールは、CTにおいて行われるなど、少なくとも1つ、又はいくつかの反復ステップで、ステップごとに交換される。しかしながら、核断層撮像において行われるなど、反復の終結まで同じモジュールを保つことも本明細書において予想される。
【0038】
別の態様では、上述の実施形態又は態様のいずれか1つによる機械学習モジュールを、訓練データに基づいて訓練する方法が提供される。
【0039】
別の態様では、機械学習モジュールの訓練において使用するための訓練データを生成する方法が提供されており、方法は、
i)第1及び第2の品質の補正画像データを取得するために投影データを処理することであって、第2の品質は第1の品質より高い、投影データを処理することと、
第1及び第2の品質の補正画像データを、訓練システムにおける入力及び訓練対象物に対する訓練データとして提供することと、又は、
ii)第1及び第2の品質の補正投影データを取得するために投影データを処理することと、
第1及び第2の品質の補正投影データを、訓練システムにおける入力及び訓練対象物に対する訓練データとして提供することとを有する。
【0040】
したがって、i)及びii)は、画像ドメイン及び投影ドメイン内の訓練データをそれぞれ取得することを表している。いくつかの実施形態では、i)及びii)のうちの一方、又はそれぞれは、2つの異なる反復再構成の実行に基づくが、しかし、所与の投影データの異なる量に基づいている。より少ない量の投影データを使用する再構成は、より低い品質セットをもたらす。より高い量の投影データを使用する再構成は、対応するより高い品質のセットをもたらす。異なる量は、所与の投影データのより小さい及びより大きい角度範囲に基づく。
【0041】
例えば、及び、より具体的には、画像ドメインにおいて、i)処理は、第1及び第2の品質のそれぞれの補正画像データを取得するために、異なる量の投影データを使用して反復再構成を実施することを含み、それぞれの補正画像データは、それぞれの逆投影されたエラー投影データに基づいており、それぞれのエラー投影データは、それぞれの測定された投影データとそれぞれの推定された投影データとの間のそれぞれのずれを表し、それぞれの推定された投影データは、それぞれの現在の画像の投影ドメインへのそれぞれの順方向投影によって取得される。
【0042】
例えば、及び、より具体的には、投影ドメインにおいて、i)処理は、それぞれの補正投影データを取得するために、それぞれの測定された投影データとそれぞれの推定された投影データとの間のそれぞれのずれに基づいて、異なる量の投影データを使用して反復再構成を実施することを含み、それぞれの推定された投影データは、所与のそれぞれの反復ステップで再構成されたそれぞれの現在の画像の投影ドメインへのそれぞれの順方向投影によって取得される。
【0043】
例i)、ii)は、訓練データを生成するための上述のシステムへの同等の適用例である。
【0044】
画像及び/又は投影ドメインにおける訓練データを生成する他の様式もまた想定される。
【0045】
「データ品質」又は「第1及び第2の(データ)品質」は、データ/画像品質又はそれらのレベルに関係付けられる。特に、画像品質は、ノイズ、アーチファクト、及び解像度、又は関心事の他の測定可能な品質を含む。本明細書では特にノイズレベルの低減を想定しているが、アーチファクトによる汚染の低減、及び/又は解像度の増大/維持も同様である。
【0046】
新たな画像を取得するために上を参照した更新部又は操作更新は、比較部の算術比較部操作と類似した算術演算を使用する。画像ドメイン側、又は投影ドメイン側の実施形態における補正データは、所望通り、現在の画像に乗算的に、若しくは加算的に、又はそれらを組み合わせて適用される。実施形態では、ボクセル単位の、及び/又はピクセル単位の減算又は加算が実施される。代替的に、補正操作は、補正データに含まれる補正因子のセットを用いて現在の画像をボクセル単位で乗算する、又は除算することによって乗算的に行われる。
【0047】
別の態様では、少なくとも1つの処理ユニットで実行されると、処理ユニットに上述の任意の方法を実施させるように適合されたコンピュータプログラム要素が提供される。
【0048】
別の態様では、前記プログラム要素を上に記憶している、又は合成された低若しくは高IQ画像を中に記憶しているコンピュータ可読媒体が提供される。
【0049】
本明細書に記述されている原理は、補正データにおけるデータ品質、例えば画像ドメインにおける画像品質(IQ)を改善するためにより一般に使用される。画像ドメインでは、データ品質は画像品質を含む。改善される画像品質はノイズに限定されず、解像度の改善(増大)、及び/又は画像アーチファクト汚染の低減を含む。したがって、機械学習手法は、解像度を改善するため、及び/又は画像ドメイン内の補正データにおける画像アーチファクトを低減するために、本明細書において使用される。そのような又は同様の品質が、投影ドメイン内の補正データに対しても改善される。特に、補正データの解像度は、画像ドメイン内のボクセル位置の空間定義である、所与のvoxelation(「画像行列」)の解像度に適合される。
【0050】
本開示では、「ノイズレベル」(又は、より一般的なデータ品質のレベル)への言及は、点データに限定されるものではなく、あらかじめ規定されたノイズレベルの範囲などの範囲データも含む。第1のそのような範囲[r1、r2]は、それぞれの中点が(r1+r2)/2<(s1+s2)/2のように関係付けられていれば、第2の範囲[s1、s2]よりも低いはずであると言える。ノイズレベル又は品質(画像品質などの)は、データの各ロケーション(ピクセル又はボクセル)の近辺ごとに規定され、又は平均ノイズレベルは、画像/データ全体若しくは画像/データの一部に対して規定される。
【0051】
「反復再構成アルゴリズム」は、個々の画像要素の値の計算が反復ステップを伴うものである。反復は、現実に測定された投影画像のセットに向かって、反復的に合成される(人工的に作成された)投影画像を確実に収束するために、しばしば、順方向及び逆方向の投影操作のシーケンス内で交互に進行する。一般に、反復再構成アルゴリズムは、直接的な反転再構成アルゴリズムよりもコンピュータ的に費用がかかるが、より高い信号対ノイズ比、又はより高い画像品質の利益を有する。
【0052】
反復再構成アルゴリズムは、測定プロセスの周りの、又は投影画像の画像収集のために使用される検出部などの測定機器の周りの統計学的情報を使用しない場合、「代数学的」と呼ばれる。
【0053】
反復再構成アルゴリズムは、再構成画像の計算のために統計学的情報又は統計学的モデルを使用して、測定プロセス又は測定機器の、特に、投影画像の画像収集のために使用される検出部の、周りの特性(ノイズなどの)を捕捉又はモデル化する場合、統計学的(SIR-統計学的反復再構成)と呼ばれる。
【0054】
一般に、「機械学習コンポーネント又はモジュール」は、機械学習(「ML」)アルゴリズムを実装するコンピュータ化された構成である。アルゴリズムはタスクを実施するように構成される。MLアルゴリズムは、訓練データに基づいて、訓練段階でMLアルゴリズムによって調整されるパラメータを有するMLモデルに基づく。MLアルゴリズムでは、タスク遂行能力は、時間が経過するにつれて目に見えて改善され、より(新しく、十分に変化に富み、代表的な)訓練データが、改善された訓練経験での訓練において使用される。遂行能力は、訓練されたモデルにテストデータを供給し、出力を評価するとき、客観的なテストによって測定される。遂行能力は、所与のテストデータに対してある特定のエラー率を達成することを要求することによって規定される。T.M.Mitchellの「Machine Learning」(McGraw-Hill、1997年)の2頁、1A節を参照。本明細書において主な関心のタスクは、インタラクティブな再構成アルゴリズムの実行中に生成される補正データ内のノイズを低減することなど、データ/画像品質を改善することである。
【0055】
次に、本発明の例示的な実施形態を以下の図面を参照しながら説明することとする。
【図面の簡単な説明】
【0056】
【
図2】一実施形態による、断層撮像用データプロセッサのブロック図である。
【
図3】さらなる実施形態による、断層撮像用データプロセッサのブロック図である。
【
図4】第1の実施形態による、断層撮像用のデータ処理のためのコンピュータ実施方法のフローチャートである。
【
図5】さらなる実施形態による、断層撮像用のデータ処理のためのコンピュータ実施方法のフローチャートである。
【
図7】畳込みタイプの人工ニューラルネットワークの受容フィールドの概念を示す図である。
【
図8】機械学習モデルを訓練するための訓練システムのブロック図である。
【
図9】訓練データを生成するため、及び機械学習モデルを訓練するための計算実施方法のフローチャートである。
【発明を実施するための形態】
【0057】
図1を参照すると、コンピュータ撮像装置ARが示されている。装置ARは実施形態において、断層撮像を支援するために撮像装置IA及びデータ処理システムIP(本明細書では「データプロセッサ」と称される)を備える。極簡単に言えば、データプロセッサIPは、撮像部IAによって供給されたデータを断面画像Xに変換する。断面画像XはディスプレイDD上に表示され、画像リポジトリIPRに記憶され、又は別様に処理される。
【0058】
本明細書において提案されているようなデータプロセッサIPは、低減されたノイズ、又はより高いコントラスト対ノイズ比(CNR)などの向上した画像品質を作り出すことができる。データプロセッサIPによって変換されるべきデータは、撮像装置IAによって直接供給されるか、又は画像メモリから取り出される。データプロセッサIPは、下でより詳細に記述することになるブースタコンポーネントCDDのおかげで、低遅延で、向上した画像を作り出す。データプロセッサIPはいくつかの実施形態では、訓練された機械学習モジュールMLMを含む。モジュールMLMは、訓練データTDに基づいて訓練システムTSによって訓練された機械学習モデルMによって実装され、又はそれを含む。
【0059】
撮像装置IA(本明細書では時には単に「撮像部」と称されることがある)は、好ましくは、本明細書では医療目的として想定され、患者PATの1つ又は複数の画像を入手するように操作することができる。概略的には、撮像装置は、呼掛信号XBを生成するための信号ソースSSを備える。呼掛信号XBは、患者PAT内の組織とインタラクションし、以て修正される。次いで、修正された信号は、検出ユニットDTによって検出される。強度値などの検出された信号は、検出部未加工データ、又は投影画像を形成する。
図2において下でより詳細に説明されるが、投影画像はそれ自体が関心のものであるけれども、場合によっては、再構成画像Xを作り出すように再構成モジュールRECONによってさらに処理される。
【0060】
本明細書で想定される撮像部IAは、構造的又は機能的撮像のために構成される。撮像モダリティの範囲は本明細書では、送信撮像、及び放射撮像など、又は超音波(US)撮像などの他のものが想定される。例えば、X線ベースの撮像などの送信撮像において、信号ソースSSはX線管であり、呼掛信号は、管SSによって生成されたX線ビームXBである。この実施形態では、修正されたX線ビームは、検出ユニットDTのX線感応性ピクセルに衝突する。X線感応性検出部DTは、衝突する放射線を強度値の分布として登録する。登録された強度値は投影データλを形成する。X線投影データλは、X線撮影においてなど、それ自体、時には役立つことがあるが、次いで、再構成モジュールRECONによって断面画像へと変換される。そのような変換は、例えばX線ベースのCT撮像において行われる。特に、再構成モジュールRECONは、フィルタ逆投影アルゴリズム又は他のアルゴリズムなどの再構成アルゴリズムを投影画像に適用する。断面画像は、3D空間における2D画像を形成する。CTでは、3D画像ボリュームを取得するために、異なるセットの投影画像から複数のそのような断面画像が再構成される。
【0061】
MRI撮像では、検出ユニットは、投影画像を表す無線周波数信号をピックアップすることができるコイルから形成されており、MRI断面画像は、MRI再構成アルゴリズムによって無線周波数信号から再構成される。
【0062】
CT又はX線撮影におけるX線画像は、患者の解剖学的組織の構造上の詳細を表す。PET又はSPECTなどの放射撮像では、信号ソースSSは、患者の内部に前もって投与された放射性トレーサ物質の形態で存在する。次いで、トレーサ物質によって引き起こされる核事象が、患者の周りの検出部リング内に配置されたPET/SPECT検出部DTにおいて投影画像として登録される。次いで、PET/SPECT再構成アルゴリズムが適用されて、代謝プロセスなどの患者の内部のプロセスの機能上の詳細を表す再構成されたPET/SPECT画像を取得する。
【0063】
撮像装置IAは、操作者コンソールCSから操作者によって制御される。装置IAによって作り出された、又はストレージから取り出された投影データλは、例えば、有線又は無線通信手段を介して、インターフェースINにおいてデータプロセッサIPによって受信される。投影データλは、撮像装置IAから直接受信されるか、又は収集後にデータが保存されるメモリから取り出される。向上した出力画像Xは適切なグレー値、又はカラーパレット上にマッピングされ、ディスプレイ機器DD上の可視化部VIZによって可視化される。データプロセッサIPによって作り出された高IQ画像Xは、出力された断面
図Xの低ノイズのおかげで、小さな規模の構造体をさらにより精密に確認する際の診断医を、より良好に助力することができる。
【0064】
画像向上のためのデータプロセッサIPは、1つ又は複数の汎用コンピューティングユニットPU上で動かされる。コンピューティングユニットPUは、撮像装置、又は撮像リポジトリIRPに通信可能に連結される。他の実施形態では、データプロセッサIPは、撮像装置IAに統合される。データプロセッサIPは、コンソールCSに統合される。データプロセッサIPは、ハードウェア若しくはソフトウェア、又はそれらの組合せにおいて構成される。ハードウェア実装形態は、マイクロプロセッサ若しくはマイクロコントローラなどの適切にプログラムされた回路、FGPA、又は他の汎用回路を含む。本明細書では、ASICS若しくはオンチップシステム又はその他などのハードコード化回路も想定される。GPU(グラフィカル処理ユニット)などの専用プロセッサが使用される。
【0065】
一般に、再構成部RECONによって実行される断層撮影画像再構成アルゴリズムは、投影空間から画像空間へのマッピングを実施する。言い換えると、再構成アルゴリズムは、走査部IAによって供給される投影測定値/線積分/サイノグラムを、画像空間/画像ドメイン内のオブジェクトのスライス、若しくは横断軸画像、又はボリューム画像へと変換する。画像ドメインは、走査部IAの視野(FoV)又はボアによって形成された3D空間の一部分である。概念的に、画像ドメインは、ボクセルなどの3D画像要素から構成される。再構成アルゴリズムはボクセル位置に画像値を埋め込んで画像を作り上げる。再構成アルゴリズムは2つの変換操作を利用する。1つのそのような変換操作は、投影空間から画像空間へのものである。別の操作は、逆方向投影とも称される、画像ドメインから投影ドメインへの逆方向のものである。この他の操作は順方向投影である。患者の長手方向軸(z軸)に沿った複数の断面画像は、一緒に画像ボリュームを画定する。しかしながら、前記ボリュームを形成する複数軸ではなく、単に単一の横断軸の画像Xの提供もまた想定される。
【0066】
本明細書で想定されるような断層撮影再構成アルゴリズムは、目的の機能を改善するために反復の手順として定式化することができる。特に、手順は最適化によって、特にコスト関数の最小化によって定式化される。コスト関数は、反復中に提供される画像ドメイン内の推定された画像が、どのくらい良好に実際に観測される投影測定値λと一致するかを測定する。システム行列が、再構成された画像を投影ドメインへの順方向投影を行うため、及びこの順方向投影を実際に測定された投影データλと比較するために使用される。実際に測定されたデータλとシステム行列に従った順方向投影との間のずれを、コスト関数によって数量化することができる。反復では、画像ドメイン内の画像はコスト関数qを低減するように適合され、したがって、アルゴリズムは補正画像に向かって収束する。効用関数の最大化を含む上述の最適化の双対の定式化もまた企図される。
【0067】
より詳細には、反復放射、若しくは送信、又はMRI、或いは他の断層撮像再構成アルゴリズムは、以下のように記述することができる(単純化のために任意の減衰補正を除外する)。
λ
e=FP[f
i] (1)
【数1】
【数2】
ここで、
λ
eはリスト内、又はフレーム/サイノグラムのモード/フォーマット内などの推定された投影データであり、
λ
mは、検出機器DTで測定された投影データであり、
FPは順方向投影操作子であり、行列として実装され、時には、画像ドメインから投影ドメインへの順方向投影を記述するシステム行列と称されることもあり、
BPは、投影からボクセル値を推定する逆方向投影操作子であり、
f
iは、再構成されるべき画像ドメイン内の画像におけるi番目のボクセルであり、
Gは、反復i中にボクセルfを更新する更新関数である。
【0068】
Gの性質は、使用される最適化アルゴリズムに依存し、更新部UDモジュールによって実装されており、Gの性質はより詳細に下で説明されることとなる。Gの実施形態は、以下の数字で示される方法又は技法、すなわち下降勾配、確率的勾配方法、共役勾配、ネルダーミード期待値最大化(EM)、最大尤度法、又は任意の他のもののうちの1つ又は複数に基づく更新関数を含む。前記最適化の目標は、コスト関数q=||λm-FP[fi]||による留数が十分に小さくなるように、例えばあらかじめ規定された閾値よりも下落するようにボクセル値を調整することである。||.||は、ユークリッド、最小二乗、又は何らかの適切なLpノルムなどの適切な相似法である。
【0069】
核撮像に関連して、再構成操作(1)~(3)は、リストモードにおいて、又はフレーム若しくはサイノグラムモードにおいて行われる。
【0070】
システム行列FPは、あらかじめ1回限りで、又は再構成中にその場で計算される。後者では、行列全体をメモリに保持する必要は必ずしもない。再構成中にメモリスペースを節約することを必要とするとき、システム行列の一部のみを常に計算する。
【0071】
本明細書で使用されるような反復再構成スキームが、2006年に出版された「2006 IEEE Nuclear Science Symposium Conference Record」のpp1715~1722にW.Wang「Systematic and Distributed Time-of-Flight List Mode PET Reconstruction」において記述されている。類似のスキーム、又はCT、MRT、OCT、及び他の断層撮像モダリティが存在する。
【0072】
次に
図2、
図3のブロック図への参照を行うが、データプロセッサシステムIPの動作はより詳細に説明される。プロセッサシステムIPの上述のブースタコンポーネントCDDは、画像ドメインID(
図2)、又は投影ドメインPD(
図3)のどちらか一方において操作可能である2つの原理的な実施形態が想定される。
【0073】
一般に、データプロセッサIPは、反復再構成のために構成された再構成部RECONを含む。再構成部RECONは、順方向投影部コンポーネントFP、及び逆投影部コンポーネントBPを含む。等式(1)~(3)でなど、順方向投影部FPは順方向投影操作を実施する一方、逆投影部BPは逆投影操作を実施する。一般に、順方向投影部FPは、異なる投影方向に沿って、及び画像ドメイン内の画像値にわたって線積分を計算する。それとは逆に、逆投影部BPは、投影ドメイン内の投影データを与える画像ドメイン内のボクセル値を推定しようとする。
【0074】
再構成部はさらにコンポーネントとして比較部COMP及び前記更新部UDを含む。再構成部RECONは、ブースタコンポーネントCDDを含むか、又はブースタコンポーネントCDDと少なくとも協働操作可能である。下で記述することとなるように、反復再構成操作進行中に、ある特定の補正データが生成され、これはブースタコンポーネントCDDによって処理されてより迅速な収束が容易になり、低ノイズの最終結果がもたらされる。前記コンポーネントの機能及び操作は、下記においてより詳細に記述されることとなる。
【0075】
単一のコンピュータ計算エンティティが、データプロセッサIP及びブースタコンポーネントCDDを実装する。データプロセッサIPは、ブースタコンポーネントCDDを含む。代替的に、分散アーキテクチャが使用される。データプロセッサIP及びブースタコンポーネントCDDは、データを交換するように通信可能に連結された別個の物理エンティティに実装される。連結は、有線、無線、又は部分的に両方である通信ネットワークによって実施される。前に述べたように、ブースタコンポーネントCDDは、間もなく明らかになる理由のため、本明細書では補正データ決定部CDDとも称される。補正データ決定部CDDは、上述の機械学習モジュールMLMによって実装されるか、又は少なくとも上述の機械学習モジュールMLMを含む。
【0076】
モデルベースの実施形態では、機械学習モジュールMLMは、上述の訓練データで訓練された機械学習モデルMを含む。モデルベースの実装形態は本明細書において好まれるが、モデルなし、又は「モデルを用いない」実装形態が本明細書において除外されるわけではない。補正データ決定部CDDは前記モデルMによって実装される。
【0077】
補正データ決定部CDDの機械学習の実施形態では、2つの操作段階、すなわち訓練段階、及び配備段階が本明細書では区別される。訓練段階は、
図8、
図9においてさらに下でより詳細に説明することとする。訓練段階はまた学習段階とも称されるが、本明細書では用語、訓練を使用することとする。訓練段階は、モデルMのパラメータが訓練データに基づいて調整される、訓練又は学習と称されるコンピュータ計算手順を含む。前記手順は、訓練、又は学習アルゴリズムに基づく。訓練段階が終了すると、次いでモデルMは、配備中に補正データ決定部CDDとして使用されることが可能である。配備では、訓練モデルは、より効率的な様式で向上した再構成画像を作り出すために、臨床中に使用される。学習段階では1回限りの操作が行われる。代替的に、動的な学習設定では、新たな訓練データが利用可能になると、訓練段階は、繰り返し再び入り込まれる。こうしてモデルMは、新たな訓練データが与えられると再調整される。配備又はテストでは、モデルMは、以前「見た」ことのない、すなわち、訓練又はテストにおいてそれぞれ使用された訓練データセット又はテストデータセットの一部ではなかったデータである入力データを処理するようになされる。
【0078】
次に、データプロセッサIPの画像ドメイン側の実施形態の操作を、
図2を参照してより詳細に説明することとする。本目的のため、機械学習モデルMは配備のために十分訓練されていると想定する。訓練の充足は、訓練されたモデルMに訓練データを処理させ、テスト出力を調べることによって確立させることができる。
【0079】
再構成部RECONは、好ましくは、画像ドメイン内の初期画像から始まり、最終画像が計算される反復再構成操作を実施する。最終画像もまた画像ドメイン内にある。最終画像は、ユーザによる使用のために出力され、例えば、ディスプレイ機器上に関心領域の断面図として表示されるか、画像メモリに記憶されるか、又は別様に処理される。最終画像は、投影データの収集中に検出部DTによって測定された投影データλmに基づいて、再構成部RECONによって生成される。
【0080】
1つ又は複数の反復ステップにおいて、再構成操作は、初期画像から始まって一連の中間画像を作り出し、十分な収束が検出された、又は停止条件が満たされた後に、最終画像に到達する。最新の中間画像は最終画像である。ユーザは、休止信号を発出して反復を停止させ、現在の中間画像を最終画像として出力する。
【0081】
初期画像f0は任意に選択される。初期画像は、例えば、一定値のエントリを有する2D又は3D行列として形成される。行列のエントリは、前記それぞれの位置において画像値(「ボクセル値」)を有するボクセル位置を表す。代替的に、初期画像は、画像化したい関心領域の期待される物理特性とほぼ一致するボクセル値の先験的分布を含む。現在の画像fiがメモリにロードされる。現在の画像fiは、ある特定の中間画像、又は、実際、初期ステージでは初期画像のどちらかである。再構成部RECONによって実装される再構成アルゴリズムは以下のように進行する。順方向投影部FPは、現在の反復iステップにおいて現在の画像を投影ドメインPDに投影する。投影ドメインは、異なる投影方向/角度において検出部DTの放射線感応性の表面を表示する、それぞれの投影面として概念化される。この順方向投影操作FP(.)は、投影ドメインPD内に、推定された投影画像λeを作り出す。順方向投影操作FP(.)によって取得された投影画像λeの値は、異なる投影方向に沿った現在の画像fiの値のそれぞれの線積分を表す。推定された投影画像λeは、さまざまな投影方向で検出部において測定された、実際に測定された投影データλmとは異なる。
【0082】
比較部COMPは、2つのセットの投影データλe、λmを比較し、以てエラーデータΔλを生成する。比較部COMPによる比較操作は、任意の代数学的演算によって、例えば、減算によってピクセルごとの差を取ることによって行われるか、又は対応するロケーションにある測定データの2つのセットのエントリを除算/乗算することによって行われる。2つのセットは同じサイズを有するため、2つのセットは固有のレジストリ内にあるというような対応関係がある。比較を行うための重み付けされた代数演算もまた企図される。
【0083】
次いで、所与の反復ステップiで、比較部COMPによってそのように生成された補正データΔλは逆方向投影部BPに渡され、逆方向投影部BPは、エラーデータΔλを投影ドメインから画像ドメインに逆投影してエラー画像Δfを取得する。一般に、逆投影部BPによって実施される逆投影操作BP(.)は、投影ドメイン内の利用可能な(投影)エラーデータΔλに基づいて、画像ドメイン内のエラー画像Δfのボクセル位置に対するエントリを推定しようとする。エラー画像Δfは、好ましくは、ボクセルの数及び配置に関して現在の画像と同じサイズである。しかしながら、いくつかの実施形態では、エラー画像Δfは、より大きいか又はより小さく、必要な場合、サイズに合わせて拡大縮小される。エラー画像Δfがより小さい場合、エラー画像Δfは局所的に適用され、又は、必要に応じて現在の画像の全体若しくは一部にわたる異なるロケーションでタイリング操作において使用される。
【0084】
より前に述べたように、上で概説した反復再構成手順自体がノイズ寄与を生じさせるが、ノイズ寄与は、測定された投影データΔMに存在するノイズレベルに依存することが出願人によって判明している。したがって、エラー画像は、いわば、最終結果の画像品質をさらに損なう作用である、投影データにおけるこのノイズ寄与を「受け継ぐ」。エラー画像におけるノイズレベルを低減するため、補正データ決定部CDDのあらかじめ訓練された機械学習モデルは、入力で受信された、エラー画像ΔFに適用される。機械学習モジュールMLMは、例えば、畳込みニューラルネットワークなどの人工ニューラルネットワークNNとして実装される。エラー画像Δfは、ネットワークMの対応する次元の入力層に適用され、次いで、それを通って伝播し、出力エラー画像Δf’として出力層で出現する。人工ニューラルネットワークMなどの機械学習モジュールは、元の入力エラー画像Δfにおけるノイズレベルを低減するためにノイズ低減部として機能する訓練手順によって構成されている。出力エラー画像Δf’は一般に、より低いノイズ寄与を含むため、入力エラー画像Δfよりも低いノイズレベルを有する。モデルはエラー入力画像の次元を維持するように構成されることになるが、エラー入力画像及びエラー出力画像は、ボクセルの数及び空間配置の点で同じサイズである。これは、ネットワークMの入力層IL及び出力層OLが同じサイズを有するように構成することによって保証されることが可能である。例えば、画像ボリュームではなく、単一のz位置における単一の断面画像のみが再構成されることになる場合、エラー入力及び出力画像は好ましくは3Dであるが、2Dであってもよい。
【0085】
次いで、ノイズ低減出力エラー画像Δf’は、更新部UDによって現在の画像fiに適用されて、更新された、新たな中間画像fi+1を作り出し、次いで、中間画像fi+1は、次の反復ステップi+1において使用される。すなわち、ここで、順方向投影を含め、上述のようにここで処理された新たな中間画像fi+1は、新たな反復サイクルを開始して、以下同様である。出力エラー画像Δf’は更新部UDによって、任意の適切な代数学的演算により現在の画像に適用されることが、比較部COMPとの関係において上述されている。出力エラー画像Δf’は、現在の画像にボクセル単位で適用される。こうして、エラー出力画像は、ボクセル単位で、現在の画像fiに加算され/現在の画像fiから減算され、又は現在の画像fiへと乗算され、若しくは除算される。この更新又は補正操作は、現在の画像として明確に規定されており、エラー画像は規定により同じサイズを有するので固有のレジストリがある。
【0086】
反復中に作り出された中間画像のエントリは、最終結果/最終画像に収束することが期待される。より前に述べたように、停止条件が満たされると、又はユーザがそのように要求すると、反復は休止されて、メモリMEM内にある現在は中間のものが最終画像/結果として出力される。次いで、最終画像は、ユーザをサポートするために上述のように表示のためにレンダリングされるか、又は最終画像は、記憶されるか、若しくは所望通り別様に処理される。1つのそのような停止条件は、比較部COMPによって実施される。すなわち、投影ドメイン内のエラーがある特定の閾値よりも低いと判明した場合、新たな現在の画像fi+1が最終画像/結果として出力される。
【0087】
こうして、上述のように、比較部COMPの出力は、2つのデータセット間に、測定された投影データλmと推定された投影データλeとの間にずれがある場合、そのずれを表すことが理解されることが可能である。より前に述べたように、ノイズ低減が達成されるレベルは、測定された投影データλmにすでに存在するノイズレベルに大きく依存する。したがって、異なる手順、又は異なる収集では、ノイズ低減の異なるレベルは、低ノイズ汚染を伴う適切に迅速な収束を達成することが必要とされる。このため、複数の又はバンクの異なる訓練された機械学習モジュールMLMiを含むMLモジュールメモリMMを有することが望ましく、それぞれは、異なるノイズレベルに合わせて低減を作り出すように、異なる訓練データ上で訓練される。
【0088】
言い換えれば、メモリMMに保持されている異なるモジュールMLMiは、異なる量だけノイズ低減を達成する。注目すべきことには、最も大きな量の低減は、収束を長引かせるため、常にそれほど役立つわけではない。むしろ、機械学習モデルによって低減されるべきノイズレベルの量は、測定された投影データΛMの現在のセットに存在するノイズと互いに関係付けるべきである。測定された投影データλm内に大量のノイズがある場合、より低いノイズレベルを有する投影データλmと比較して、より高い量だけノイズ低減されるために訓練されたモジュールMLMjが必要とされるが、ここでは、より低い量のノイズ低減のために訓練されたモジュールMLMkが好ましい。
【0089】
画像データプロセッサIPを、測定された投影データλmの現在のセットのノイズレベルにより良好に適応させるために、選択モジュールSL、又は選択部が配置される。選択部SLは、ユーザインターフェースUIを通じてユーザから入力信号を受信する。入力信号は、所望のノイズレベル低減を示し、次いで、選択部は、インターフェースSIFを通じてMLモジュールメモリMM内に置かれ、機械学習モジュールMLMkは、ノイズ低減量が選択されたユーザに最良に対応する。代替的に、選択部SLが自律的に、測定された投影データの現在のセットを解析して現在のノイズレベルを確立し、モジュールメモリMMから適宜最良のモジュールを選択する、自動的な実施形態もまた想定されている。一般に、ノイズ寄与/レベルは、統計学的技法などの当技術分野で知られているような、さまざまなコンピュータ計算技法によって数量化されることが可能である。例えば、投影データλmにおける局所パッチでは、統計学的分散、若しくは標準偏差、又はより高い積率がノイズレベルを特徴付けるために計算される。さまざまなパッチにおけるノイズレベルに対する統計学的計算は結合されて、データλm全体に対する統計学的ノイズレベルの数量化に到達する。ノイズレベルを特徴付けるための他のノイズ特徴付け手順もまた本明細書で使用される。標準偏差及びその二乗は、ノイズを数量化するために使用される。多くのノイズ現実化が入手可能な場合、又はある特定のノイズモデル、例えばポアソン、ガウス、又は他を使用して予測される場合、分散を測定することができる。
【0090】
ユーザが選択したとしても、それとも自動的に選択したとしても、選択された機械学習モジュールMLMはメモリにロードされ、次いで、上述のように補正画像ΔFが受信できるようになっている。より詳細に記述することとなるが、いくつかの機械学習モデルは、特に畳込みニューラルネットワークは、所与のデータロケーションについての処理されたデータの量を表す受容フィールドRFを含む。好ましくは、この受容フィールドのサイズは、収集前にユーザによって選択された所与のボクセルサイズの中間近辺よりも大きいべきである。このため、データプロセッサIPは、撮像装置及び検出部機材などによって異なる、中間近辺の熟慮のボクセルのサイズと一致するように、ユーザに受容フィールドを選択させることができるユーザインターフェースUIを含む。
【0091】
ボクセルサイズは、ユーザインターフェース(図示せず)、例えば、撮像部IAの操作者コンソールCSを通してユーザが選択及び調整可能である。ボクセルサイズは、検出部DLにおけるピクセルサイズと、画像ドメインにおける所望のスライスの厚みとの関数である。ピクセルサイズは、検出部ロジックにおいて、異なる読取値が、投影データにおける所与のピクセル値を計算するためにどのようにグループ化されるべきか、又は「ビニングされる」されるべきかを規定する。
【0092】
次に
図3のブロック図を参照すると、データプロセッサIPについての投影ドメイン側の実施形態が示されている。
図2において同様の記号を有するもの、及び同様の参照符号によって示されているコンポーネントは操作が非常に似ているが、ただここでは、逆投影部BPが機械学習モジュールMLMより後段に配置されている。MLMは、
図2のMLM実施形態におけるのと同様に画像ドメイン内の画像データに対してではなく、投影ドメイン内の投影データに対して訓練されている。より詳細には、
図3の実施形態では、ここで、
図2におけるのと同じようにエラー投影データは、画像ドメインに逆投影されて機械学習モジュールによって変換されるのではなく、しかしながら
図3では、それは、機械学習モジュールMLMによって処理されて、投影ドメイン内にノイズ低減された投影データΔλ’を作り出すエラー投影データΔλである。
図3では、それは、次いで逆投影部BPに適用され、画像ドメインに逆投影されて補正画像Δfを取得する、ノイズ低減された投影データΔλ’である。次いで、補正画像Δfは更新部UDによって、より前に記述した現在の画像f
0に適用される。
【0093】
好ましくは、
図2、
図3の実施形態では、更新部UDが操作する様式は、比較部COMPの操作の様式に対応する。比較部COMPが乗算的に又は加算的に操作する場合、更新部はそれぞれ乗算的に又は加算的に操作する。
【0094】
ボクセルサイズに応じた受容フィールドRFの選択のための選択部コンポーネントSL及びユーザインターフェースUIは、
図2において上述されている通りである。
【0095】
図2、
図3の上述の2つの実施形態において見ることができるように、ある特定の補正データが生成されており、
図2では、補正データΔfは画像ドメインにあり、
図3では、補正データΔλは投影ドメインにある。各実施形態では、それぞれに構成された機械学習モジュールMLMを使用して、補正データにおけるノイズが低減される。したがって、補正データ決定部CDDは、低ノイズ最終画像への迅速な収束を容易にするために反復再構成アルゴリズムを増強する。
【0096】
次に、断層画像生成のためのデータ処理方法のそれぞれのフローチャートを示す
図4、
図5への参照を行う。方法は、
図2、
図3において上述したシステムを実装するために使用され、本明細書では、下記の方法のステップは、上述の
図1から
図3におけるアーキテクチャと必ずしも結びついていない。
図4、
図5における実施形態は、反復再構成による断層画像生成の画像ドメイン側及び投影ドメイン側の実装形態に対応する。
【0097】
最初に、
図4による方法の画像ドメイン側の実施形態に進むと、ステップS410において、現在の画像が存在するか、又はメモリにロードされる。現在の前記画像は、所与の反復ステップで反復再構成アルゴリズムにおいて生成された中間画像f
iであるか、又は現在の画像は、上述の初期画像f
0である。
【0098】
ステップS420では、現在の画像fiは投影ドメインに順方向投影されて、推定された投影データを取得する。
【0099】
ステップS430では、推定された投影データは、撮像手順における投影データ収集中にX線感応性検出部で検出された、測定された投影データと比較される。比較はエラー投影データを生じる。
【0100】
ステップS440では、エラー投影データは画像ドメインに逆投影されて、補正画像Δfの形態において補正データを取得する。
【0101】
ステップS450では、補正画像Δfは、訓練された機械学習モジュールに適用されて、向上した補正画像Δf’を取得又は予測する。特に、そのような予測された補正画像は、初期補正画像Δfより低いノイズレベルを有する。ノイズ低減量は、好ましくは測定された投影データにおけるノイズの関数であり、機械学習モジュールは、異なる量だけノイズレベルの低減を可能にする訓練された機械学習モジュールのバンクから適宜前もって選択される。
【0102】
ステップS460では、現在の画像fiは、向上した補正画像Δf’に基づいて更新される。いくつかのそのような実施形態では、向上した補正画像Δfは、現在の画像に算術的に適用されて、次の反復ステップのために使用することができる、又は十分な収束が確立されたら最終結果として出力される、新たな現在の画像を取得する。収束は、順方向投影ステップS420及び比較ステップS430を再実行することによって確立される。そのように取得された追跡エラー投影データの大きさが、閾値処理ステップS470によって無視されてもよい場合、新たな現在の画像は最終画像として出力され、ボックスS470の右に小さなドットによって示されているように、プロセスフローは終了する。エラーが無視できない場合、すなわち、ステップS470において使用された閾値を超える場合、プロセスフローは次の反復サイクルへと続き、以下同様である。
【0103】
更新ステップS460は、ボクセル単位の乗算、除算、加算、若しくは減算、又は任意のそれらの算術的な組合せを含む。補正画像、及び向上した補正画像は同じサイズを有し、サイズは現在の画像fiに対応する。言い換えれば、行及び列は同じ数のものであり、以て固有のレジストレーションを提供するので、ボクセル単位の更新又は比較操作は明確に規定される。推定及び測定された投影データは、固有のレジストレーションをもたらす同じサイズのものであり、算術演算のここでのピクセル単位の適用は明確に規定されるので、同じことが比較ステップS430にも当てはまる。
【0104】
任意選択の前ステップS450aでは、ステップS450において、複数の、前に訓練された機械学習モデルから使用された機械学習モジュールを特定するため、ユーザ選択信号が受信される。信号は所望のノイズ低減量を示す。この様式において、機械学習モデルは、達成可能なノイズ低減量が、元の測定されたデータに存在するノイズレベルに対応するように選択される。
【0105】
いくつかの実施形態では、機械学習モデルは、畳込みタイプの人工ニューラルネットワーク(「CNN」)である。そのような実施形態には、CNNモデルの受容フィールドのサイズがボクセル近辺のサイズに基づいて選択される、別の任意選択のステップS450bがある。特に、受容フィールドのサイズは、画像ドメイン内のボクセルサイズの直ぐの近辺よりも広く選択される。任意の所与のボクセル位置に対する直ぐの近辺は、直ぐの近辺位置に隣接する8つのボクセル位置を含む。直ぐの近辺を拡張する及び含むより広い近辺もまた規定され、受容は好ましくは、適宜さらに広く選択される。ボクセルサイズは、検出部におけるピクセルサイズ、及び/又は再構成可能な所与の断面画像のスライス厚さの関数である。ボクセルサイズはさらにユーザが調整可能である。そのような実施形態では、モデルメモリMMは、それぞれが異なる受容フィールドで訓練された複数の異なる機械学習モデルを含む。したがって、バンクMMにおける機械学習モデル/モジュールは、1つのインデックスは達成可能なノイズ低減を、他方は受容フィールドのサイズを示す、2次元のインデックスを有する。したがって、ユーザ信号は、セットの又はユーザ選択のボクセルサイズを所与とした十分に大きな受容フィールドを備えるモデルを取り出すことを可能にする。
【0106】
次に、反復再構成を用いた断層画像生成の方法の投影ドメイン側の実施形態に進み、ここで
図5への参照を行う。
【0107】
ステップS510では、前のように現在の画像fiがメモリにロードされるか、又はある。
【0108】
ステップS520では、現在の画像fiは順方向投影されて、投影ドメイン内に、推定された投影データを取得する。
【0109】
次いで、ステップS530では、推定された投影データと測定された投影データとの投影データの2つのセットは、エラー投影データΔλを導出するために比較される。
【0110】
ステップS540では、エラー投影データΔλは、機械学習モジュールに適用され、機械学習モジュールは、エラー投影データΔλを、元のエラー投影データΔλと比較して低いノイズレベルを有する向上したエラー投影データΔλ’に変換する。
【0111】
次いで、向上したエラー投影データΔλ’は、ステップS550で画像ドメインに逆方向投影されて補正画像Δfを取得する。
【0112】
次いで、ステップS560では、補正画像Δfは現在の画像に適用されて新たな画像向けに補正画像Δfを更新し、次いで新たな画像を次の反復ステップのために使用することができ、又は
図4のステップS470に関連して上で説明したように、ステップS570で十分な収束が確立されるかどうかに応じて最終画像として出力される。
【0113】
代替的に、反復はユーザ要求で、又は一旦別の停止条件が満たされると打ち切られる。これは、
図4及び
図5における両実施形態に当てはまる。
【0114】
前の
図4のように、機械学習モデルは任意選択のステップS540aにおいて、測定された投影画像における元のノイズ汚染に対応する所望のノイズ低減量に適合するように選択される。さらに前の
図4のように、受容フィールドが画像ドメイン内のボクセルの直ぐの近辺のサイズよりも大きいように、機械学習モジュールを選択する任意選択のステップS540bがある。ステップS540a、bにおける、及び
図4のS450a、bにおける選択のうちのどちらか一方、又は両方は、ユーザが開始するか、又はi)測定されたデータにおけるノイズ寄与の調査に、並びに/若しくはii)画像システム環境からの現在のボクセルサイズ及びスライスの厚みの照会に基づいて完全に自動的である。
【0115】
特定のモジュールMLMjは、任意選択のステップS450a、S540aとして、再構成の初めに入手された未加工データλmのノイズに基づいて選択される。このモジュールMLMjは結論に至るまで反復すべてにわたって維持され、提案されているシステムを容易に管理することができるようにするので好ましい。各反復では、一旦選択されたモジュールMLMjは、中間再構成画像の更新前に補正データに適用される。実施形態では、モデルは一度選択されるが、結論に至るまで反復すべてにわたって維持され、使用されるのはこの単一のモデルである。代替的に、ユーザが要求すると、又は自動的に、現在のモデルは結論の前に別のものと交換される。モデルは反復ごとに、又はある特定の1つ若しくは複数のサイクルで交換される。例えば、異なるz位置には異なるモデルが使用されるので、CTに対するモデルの交換は好ましい。
【0116】
図2、
図3において示されているように、ステップS450、S540では、訓練された機械学習モジュールは、補正データΔf、Δλがそれぞれ処理されるだけでなく、追加の、前のデータpも共に処理される。そのような追加の、前のデータpを処理することは、機械学習モジュールMLM、MLM
iのそれぞれの画像ドメイン側、又は投影ドメイン側の実施形態の遂行能力をさらに高める。前のデータpは、ボクセル位置又は領域ごとの所望の収束速度を示すデータを含む。例えば、前のデータは、
図2、
図4の実施形態では、各それぞれのボクセルの推定された統計学的計数率(又はノイズレベル)として提供される。この追加の、前の情報は、ノイズ低減を、すなわち、各領域における、又はボクセル近辺における収束を操縦するのを容易にする。上述の収束速度は、機械学習モデルによって実施される操作を平滑化した結果である。平滑化操作は、例えば、畳込みニューラルネットワークのある特定のフィルタウィンドウ又はカーネルによって実施される。より多くの情報が投影データにおいて入手された、画像ドメイン内のそれらの領域の場合、入手できるのがより少ない情報である上、例えばより大きい(より広い)カーネルを用いてより強い平滑化を適用する必要がある領域と比較して、ネットワークMによって学習された平滑化カーネルはより小さくなる(より狭くなる)可能性がある。フィルタリングカーネル/ウィンドウは、
図6、
図7における畳込みニューラルネットワークに関連してより完全に下で探究することとする。
【0117】
次に訓練段階に進んでさらに詳述すると、機械学習モジュールMLM、MLMiは、補正データにおいてノイズレベルを低減するように訓練される。補正データは、画像ドメイン(上述のΔfと称される)内、又は投影ドメイン(Δλ)内のどちらかにある。画像ドメインでは、補正データΔfは、補正因子の2D又は3D配列として形成される。投影ドメインでは、補正データΔλは、測定された投影データと推定された投影データとの差を含む。一般に、補正データΔλは、2Dの強度値と一次元の角度投影方向とを含む3D配列として表される。両方の実施形態では、それぞれの補正データにおける初期ノイズ汚染は、統計学的分散VIを計算することによって測定される。訓練モジュールMLM、MLMiの適用後に、改善された(より低い)統計学的分散V2の補正データΔf’、Δλ’を取得する。
【0118】
複数のそのようなモデルのバンクが、いくつかの実施形態におけるように提供されるMLMiである場合、各モジュールMLMiは、特定の、それぞれの、及び異なるより低いノイズレベルを有する補正データに変換されるように訓練される。したがって、各ノイズレベルに対して、それぞれのMLMiモジュールは訓練されていて、それぞれの、異なる、あらかじめ規定された量だけノイズレベルを低減する。しかしながら、どこかよそで述べられているように、代わりに単一のモデルが実施形態では使用されるので、そのようなモデルのバンクは、本明細書では必要不可欠なものではない。
【0119】
図6は、MLモジュールMLMなどを実装するために使用されるモデルMのアーキテクチャを示す。
【0120】
具体的には、
図6は順方向送りタイプのニューラルネットワークMの概略ブロック図を示す。ネットワークMは、本明細書において他の実施形態では、1つの完全接続層は含まないが、複数の完全接続層は除外されないという点で、好ましくは完全に畳込み式である。本明細書で使用されているように、機能上、ニューラルネットワークMの操作は回帰の1つであり、高ノイズの補正データと低補正データとの先験的な未知の潜伏性の関係に気づく。高ノイズタイプの所与の補正データ配列は、洞穴ノイズバージョンへと回帰推定される。
【0121】
好ましくは、ニューラルネットワークNNは、例えば、好ましくは完全畳込みニューラルネットワークを使用することによって、本明細書で想定されている回帰的補正データから補正データへのタスクを解決するために実施される、教師付き機械学習モデルである。
【0122】
モデルMは、コンピュータ訓練システムTSによって訓練される。訓練の際、訓練システムTSは、モデルMの(モデル)パラメータθの初期セットを適応させる。訓練データは、PACS(画像データ保管通信システム)又は類似のものの中などの医用画像データベース内に見出されるような既存の履歴画像から生成されるか、又は調達される。
【0123】
訓練段階では、配備段階の前にモデルは、訓練データに基づいてパラメータを適応させることによって訓練される。訓練段階では1回限りの操作が行われるか、又は新たな訓練データを用いて繰り返される。次に、上述のコンポーネントをさらに詳しく記述することとする。
【0124】
機械学習モデルMは、1つ(又は複数)のコンピュータメモリMEMに記憶される。あらかじめ訓練されたCNNモデルMは、デスクトップコンピュータ、ワークステーション、ラップトップなどのコンピューティング機器PU上で動かされる機械学習コンポーネントとして配備される。好ましくは、良好なスループットを達成するために、コンピューティング機器PUは、マルチコア設計のものなどの並列計算をサポートする1つ又は複数のプロセッサ(CPU)を含む。1つの実施形態では、GPU(グラフィカル処理ユニット)が使用される。
【0125】
引き続き
図6を参照してさらに、図は順方向送りアーキテクチャにおける畳込みニューラルネットワークMを示している。ネットワークMは、データフローが左から右に、したがって層から層に進むカスケード方式で層内に配置された複数のコンピュータ計算ノードを備える。回帰ネットワークは本明細書では除外されない。
【0126】
配備の際には、補正データの3D配列Xは、入力層ILに適用される。3D配列は、入力層ILにおいてモデルMに送り込まれ、次いで隠れ層L1~L3(見えているのは3つのみであるが、1つ若しくは2つ、又は3つを超える)のシーケンスを通じて伝播されて、入力Xと同じサイズを有するより低いノイズバージョンX’として出力層OLで出現する。ネットワークMは、複数の隠れ層を有するので深層アーキテクチャと言われる。順方向送りネットワークでは、「深さ」とは、入力層ILと出力層OLとの間の隠れ層の数であり、一方、回帰ネットワークでは、深さは、隠れ層の数×通過の回数である。
【0127】
ネットワークの層と、実際は、入力及び出力画像と、隠れ層(本明細書では特徴マップと称される)間の入力及び出力とは、コンピュータ計算効率及びメモリ割当て効率についての2次元以上の行列(「テンソル」)として表されることが可能である。入力配列Xは、実施形態の
図2、
図4で次元x、y、zを有する3D行列として、又は実施形態の
図3、
図5における投影ドメインデータに対する(x、y、α)として表される。したがって、入力データXは、高さ、幅、及び深さを有する一般的な3次元行列を形成する。
【0128】
好ましくは、隠れ層は、本明細書では、L1―LN―k、k>1として表される畳込み層のシーケンスを含む。畳込み層の数は、3若しくは5、又は任意の他の数などの、少なくとも1つである。数は2桁の数値に達する。
【0129】
必ずしもすべての実施形態に当てはまるわけではなく、実際、好ましくは、完全には接続されていない層が、本明細書における実施形態で想定されるアーキテクチャにおいて使用されるが、実施形態では、畳込み層のシーケンスより後段に、1つ又は複数の完全に接続された層がある。
【0130】
各隠れ層Lm、及び入力層ILは、1つ又は複数の畳込み操作子CVを実装する。各層Lmは、同じ数の畳込み操作子CVを実装するか、又は数は、いくつかの若しくはすべての層に対して異なる。
【0131】
畳込み操作子CVは、それぞれの入力に対して実施される畳込み操作を実施する。畳込み操作子は、畳込みカーネルとして概念化される。畳込み操作子は、本明細書ではおもりθと称されるフィルタ要素を形成するエントリを含む行列として実装される。学習段階において調整されるのは、特に、これらのおもりである。第1の層ILは、1つ又は複数の畳込み操作子によって、入力ボリュームVを処理する。特徴マップFMは、1つの特徴マップが層内の各畳込み操作子向けである、畳込み層の出力である。次いで、より前の層の特徴マップが次の層に入力されて、より後の世代の特徴マップFMi、FMi+1が作り出され、最後の層OLがすべての特徴マップを結合して出力補正データX’にするまで、以下同様である。最後の結合部層はさらに、ノイズ除去された補正データX’の推定値を、入力配列Xと同じサイズを有する出力単一特徴マップとして提供する、畳込みとして実現される。
【0132】
入力層IL及びいくつか又はすべての隠れ層の中の畳込み操作子は、好ましくは3Dである。すなわち、すべての3つの空間次元内の空間相互関係をより良好に説明するために空間次元にわたって畳込みがある。
【0133】
畳込み層内の畳込み操作子CVは、畳込み層の出力特徴マップ内のエントリが、その層の入力として受信されたすべてのノードの組合せではないという点で、完全接続層とは区別される。言い換えると、畳込みカーネルは、入力配列Xのサブセットに、又はより前の畳込み層から受信された特徴マップにのみ適用される。サブセット(本明細書では、畳込みウィンドウ又はカーネルとも称される)は、出力特徴マップにおいてエントリごとに異なる。サブセットにおける要素の数によりウィンドウ又はカーネルのサイズが決まる。したがって、畳込み操作子の操作は入力を介して「スライディング」として概念化されることができ、「スライディング」は伝統的な信号処理から知られている伝統的な畳込み操作における個別のフィルタカーネルに似ている。したがって、「畳込み層」と称する。完全接続層では、出力ノードは一般に、入力層のすべてのノードを処理することによって取得される。
【0134】
畳込み操作子のストライドは1以上として選択されることが可能である。ストライドは、サブセットがどのように選択されるかを規定する。1より大きいストライドは、その層の入力の次元に対して特徴マップの次元を低減する。1であるストライドは本明細書では好まれる。入力画像の次元に対応するように特徴マップの次元を維持するために、ゼロパディング層Pが適用される。これにより、処理特徴マップのエッジに据えられた特徴マップエントリでさえ畳込みすることができるようになる。
【0135】
次に、本明細書における実施形態で想定される3D畳込み操作のより詳細を示す
図7への参照を行う。より前に述べたように、効率化の理由で、入力補正データX、出力補正データX’、特徴マップ、及び畳込み操作子自体は、それぞれ、行列として表される。特に、3次元行列が本明細書において想定される。特に、畳込み操作子CVのカーネルは、
図7における座標システムによって示される幅X、高さY、深さZを有する。特に、畳込み操作子のカーネルは、好ましくは、本明細書では3Dカーネルとして想定されるので、特に深さZは1より大きく、例えば2、3、又はそれより大きい。
【0136】
より具体的には、
図7は、第1世代の特徴マップFM=FM
1が作り出されるように補正データ配列Xが処理される、第1の層内の畳込み操作子CVの畳込み操作を表す。同様な畳込み処理が、特徴マップFM
iが畳み込まれて次の世代の特徴マップFM
i+1になり、以下同様である、カスケード層内のさらに後段にある特徴マップに適用される。各畳込み操作子CVは、例示のサイズ3×3×3の小さな立方体として
図7に表されたカーネル(サイズ)によって規定される。出力特徴マップの各ニューラルノードm
ijに対して、畳込み操作子CVは、上述のサブセット、又は入力ブロックV内の動作RAの領域に対して働く。言い換えれば、ニューラルネットワークNNの入力層ILにおいて、畳込み操作子CVは、ブロックXのサブセットである動作RAの領域を特徴マップFMの単一ノードm
ijに作り込む、複数のボクセルにマッピングする。異なる特徴マップノードは、完全な特徴マップを作り上げるように異なるサブセットRAから処理される。k番目の世代の特徴マップの各特徴マップノードを作り上げるための、カーネルによって適用される関数は、
【数3】
と記述される。ただし、fは一次関数などの任意の適切な関数とすることができ、記号「z」は入力データのボクセル、又は動作RAのそれぞれの領域内のより前の特徴マップFM
k-1内のノードである。記号「*」は畳込み操作子を、Wは畳込みにおいて使用されるおもりのセットを示す。
【0137】
出力ノードm
ijごとにそのように処理された入力配列Xのボクセルの数は、この層で、単位m
ijに対するニューラルネットワークの受容フィールドRFのサイズを記述し、mijが位置するこの層に先行するすべての畳込み操作子CVのカーネルサイズ、ストライド及びパディングによって決まる。より具体的には、畳込みニューラルネットワーク(CNN)の局所受容フィールドは、すなわち、出力配列X’の所与の単位m
ijを決定するために処理されたと「理解される」入力配列Xの動作RAの領域のサイズである。例えば、
図7において概略的に示されるように、畳込み操作子のカーネルは、この単一の畳込み操作のためのサイズ3×3×3の局所受容フィールドRFをもたらすサイズ、3×3×3の数を有する。
【0138】
CNNのカスケード化された性質のため、受容フィールドは、
【数4】
が、k>1での、さらにより大きいボクセル数の関数であるとき、操作する層の深さと共に成長する。したがって、
図6で上述したような各(隠れ)層にあるネットワークの各中間ユニットにある局所受容フィールドとは対照的に、モデルMは、全体として、ネットワークMに対するグローバル受容フィールドを有すると言うことができる。したがって、グローバル受容フィールドは、ネットワーク深さ、及び畳込みウィンドウサイズの関数であり、上の動作RAの領域と称される。最良の結果として、CNNを構成するネットワークの深さ、及び全畳込み操作子CVは、グローバルRFが、所与のボクセルサイズに対する直ぐの近辺よりも大きくなるように調整される。したがって、より大きな畳込みウィンドウ、又はネットワークのより大きな深さを選択することができる。より前に述べたように、異なる受容フィールドサイズに対して前もって別個のネットワークを訓練するのではなく、単一の初期「ベース」ネットワークアーキテクチャを使用すること、及びUIを通じてユーザ要求によって、又は自動的に、ネットワーク深さ、又はウィンドウサイズを調整することもできる。ユーザUIによるそのような各調整に対して、新たなMLアーキテクチャにおける訓練が再び走らされる必要がある。したがって、畳込みウィンドウサイズ、及び/又はネットワーク深さが指定され、したがって、現在の画像システム環境に応じた現在のボクセルサイズに照らして、グローバル受容フィールドRFのサイズが指定されると、バンクにおける複数のモデルはオンデマンドで生成される。プロセッサIPは、インターフェース環境を通じて前記撮像システム環境に照会し、モデルのRFは調整されるので、又は適切な訓練モデルがバンクからアクセスされるので、受容フィールドRFは、現在のシステムのボクセルサイズより大きくなる。
【0139】
図7に示されるように深さ方向Zは、一般に、撮像軸に対応するが、しかしながら、必ずしも、例えば、本明細書においても想定されるような再フォーマットされたボリュームV向けではないことが認識されるであろう。いくつかの又は各層L
mにおけるいくつかの又は各畳込みフィルタは、
図6に示されるようにRELU(整流線形ユニット)操作子などの非線形誘導層に結合される。RELU層は、非線形関数f(z)=max(z、0)を、それぞれの畳込みフィルタカーネルCVから受信した出力特徴マップに適用する。RELU層は、非線形コンポーネントをネットワークMに加える。代わりに、シグモイド関数、タンク関数、又はさらに他の関数などの他の非線形操作子が使用される。示されている層ではない、非畳込み層、最大プーリング層P、ドロップアウト層を含む他の層が、任意の組合せにおいて畳込み層と結合されることが可能であり、又はそのような他の層が代わりに使用される。
【0140】
CNNタイプのモデルM向けの上述のアーキテクチャのうちの任意のアーキテクチャでは、CNNモデルMのすべての畳込み/非畳込みフィルタカーネルのためのおもりWの総量は、機械学習モデルの構成を規定する。おもりは層ごとに異なり、各層は、いくつか又はそれぞれがカーネルWの異なるセットを有する、複数の畳込み操作子を含む。訓練段階において学習されるのはこれらのおもりWjである。ただし、インデックスjは層、及びその中の畳込み操作子をまたいで動く。訓練段階が終了すると、完全学習されたおもりは、ノードが中に配置されているアーキテクチャと共にメモリMEMに記憶されることができ、配備のために使用することができる。
【0141】
図6において上述のアーキテクチャを使用する代わりに、他の手法、特に、敵対的生成ネットワーク(「GAN」)などのマルチモデル手法がさらに、本明細書のいくつかの実施形態において想定される。一般に「生成部」及び「判別部」と呼ばれる2つのタイプのMLモデルは、専用のコスト関数によって敵対的に連結される。訓練セットは、必ずしも対ではない、前記高及び低ノイズ補正データである2つのカテゴリのデータを含む。高ノイズカテゴリからおそらく無作為に標本が引き出され、生成部は、低ノイズの等価物を予測しようとし、次いで等価物は処理のために判別部に渡される。判別部は、低ノイズの等価物が低ノイズカテゴリの訓練データセットから引き出されたか、それとも実際は生成部によって生成されたかを判別しようとする。コスト関数は、生成部が、平均で少なくとも、判別部を誤認させることに成功するように、生成部と判別部のネットワークのパラメータに有利になるように構成され、一方、敵対的に、判別部は平均で、2つのデータカテゴリを正しく判別することに成功するように構成される。設定は、生成部がその点で訓練されたと考えられ、反復断層撮影再構成における配備のために、本明細書でその点で使用されることができる、統計学的平衡に収束したことが示された。GANは、arXiv:1406.2661においてarxiv-repository上でオンラインで利用可能な2014年6月10日に提出されたI.Goodfellow他による「Generative Adversarial Networks」において記述されている。
【0142】
機械学習モデルMの訓練の態様は、
図8、
図9において下でさらに説明されることとなる。訓練は、1回限りの操作であるか、又は新たな訓練データが利用可能になったときに以前に訓練されたモデルがさらに訓練される。
【0143】
次に、パラメータを、すなわち、
図6、
図7又は他において論じられた畳込みニューラルネットワークなどの、機械学習モデルのおもりを訓練するための訓練システムTSを示す
図8への参照を行う。訓練データは、データ(x
k、y
k)の対kを備える。訓練データは、対kごと(インデックスkは、特徴マップの生成を意味する、上で使用されたインデックスとは関係がない)に、訓練入力データx
k、及び関連する対象物y
kを含む。このように、訓練データは対k単位で、特に、本明細書で主に想定されるような教師付き学習スキームに対して組織化される。しかしながら、非教師付き学習スキームが本明細書において除外されないことに留意されたい。
【0144】
訓練入力データxkは、履歴画像データベース、又は画像リポジトリから入手される。対象物yk、又は「グラウンドトルース」は、履歴投影データ(好ましくは異なる患者についての)からの以前の反復断層撮影再構成において生成された低ノイズ補正データの例を表し、xkは、より高いノイズレベルにある補正データである。本明細書では、必ずしも、対xk、ykが、同じ患者に対して厳密に同じ解剖学的組織を表すわけではない。いくつかの撮像プロトコルは、異なる投与量を義務づけており、PACSは、検索してそのようなプロトコルごとに画像を見つけ、結合して訓練対にする。
【0145】
訓練段階では、
図6、
図7において示されているCNNネットワークなどの機械学習モデルMのアーキテクチャは、初期のおもりのセットであらかじめ埋められている。モデルMのおもりθは、パラメータ表示M
θを表し、訓練システムTSの目的は、訓練データ(x
k、y
k)対に基づいてパラメータθを最適化すること、したがって適応させることである。言い換えれば、学習は最適化スキームとして数学的に定式化されることができるものである。ただし、コスト関数Fは最小化されるが、代わりに、効用関数を最大化する双対の定式化が使用されてもよい。
【0146】
ここで、コスト関数Fのパラダイムについて仮定すると、これにより、集合させた留数、すなわち、ニューラルネットワークモデルMによって推定されたデータと訓練データ対kのうちのいくつか又はすべてによる対象物との間で被ったエラーが測定される。
argminθF=Σk||Mθ(xk)―yk|| (4)
等式(4)及び下記では、関数M()は、入力xに適用されたモデルMの結果を示す。コスト関数は、L1又はL2などのピクセル/ボクセルベースのコスト関数である。訓練の際には、訓練対の訓練入力データxkは初期化ネットワークMを通じて伝播される。特に、k番目の対に対する訓練入力xkは入力ILで受信され、モデルを通り抜けて、出力訓練データMθ(x)として出力OLで出力される。適切な方法||.||は、モデルMによって作り出された実際の訓練出力Mθ(xk)と、所望の対象物ykとの差(本明細書では留数とも称される)を測定するために、pノルム、又は二乗差などで使用される。回帰タスクに適した任意のコスト関数及び方法||.||が使用される。GAN設定が使用される場合には、コスト関数(4)は、クロスエントロピによって定式化され、Goodfellow他による引用書類、頁3、等式(1)において記述されたように生成部向け及び判別部向けの2つの部分を含む。
【0147】
出力訓練データM(xk)は、適用された入力訓練画像データxkに関連付けられた対象物ykに対する推定値である。一般に、現在熟慮中のk番目の対の出力M(xk)と、関連する対象物ykとの間にはエラーがある。次いで、逆方向/順方向伝播などの最適化スキーム、又は他の勾配ベースの方法を使用して、熟慮の対(xk、yk)、又は全訓練データセットからの訓練対のサブセットに対する留数を減少させるように、モデルMのパラメータθを適合させる。
【0148】
モデルのパラメータθが、現在の対(xk、yk)に対して訓練更新部UPによってその中で更新された第1の内部ループ内での1回又は複数回の反復の後、訓練システムTSは、次の訓練データ対xk+1、yk+1が適宜処理される第2の外部ループに入る。更新部UPの構造は、使用される最適化スキームに依存する。例えば、更新部UPによって管理される内部ループは、順方向/逆方向伝播アルゴリズムの1つ又は複数の順方向及び逆方向通過によって実施される。パラメータを適応させている間に、すべての訓練対の集合させた、例えば合計した留数は現在の対に到達して目的の関数を改善すると考えられる。集合させた留数は、目的の関数Fを、いくつか又はすべての熟慮の対ごとの留数の等式(4)などにおける、二乗した留数の総和として構成することによって形成されることが可能である。二乗和の代わりに、他の算術的な組合せもまた想定される。
【0149】
任意選択で、1つ又は複数の3Dバッチ正規化操作子(「BN」、示されていない)が使用される。バッチ正規化操作子は、モデルMに統合される、例えば、層内の畳込み操作子CVのうちの1つ又は複数に連結される。BN操作子は、勾配作用を消滅させることを緩和させることができ、モデルMの学習段階における勾配ベースの学習アルゴリズム中に、繰り返しの順方向及び逆方向の通過において勾配の大きさの段階的な低減を受ける。3Dバッチ正規化操作子BNは訓練中に使用されるが配備の際にも使用される。2Dバッチ正規化操作子とは対照的に、3Dバッチ正規化操作子は、3Dデータの(小)バッチを入力として受信する。
【0150】
図8に示すような一般化された訓練システムは、すべての学習スキームに対して、特に教師付きスキームに対して考えることができる。非教師付き学習スキームはさらに、本明細書で代替的な実施形態において想定される。GPUは、訓練システムTSを実施するために使用される。
【0151】
次に、訓練データ生成方法と、そのような、又は他の訓練データに基づいて上述のMLモデルMを訓練するための訓練方法とのフローチャートを示す
図9への参照を行う。両方の方法は、組み合わせて使用されてもよいが、本明細書ではそれは要件ではない。何故なら、生成された訓練データはさらに統計学的分析、可視化などの他の目的に使用されてもよく、訓練データ方法はさらに現存する履歴データと共に使用されてもよいからである。したがって、提案されている生成方法は本明細書において常に必要とされるわけではない。
【0152】
最初に訓練データ生成モードに進むと、この方法は、補正データセットの対を生成することができるようにするものであり、1つのセットは他方よりもノイズレベルが低い。方法は、訓練データ生成部TDGによって実装される。より前のセットは訓練入力xを、より後ろのセットはその対象物yを形成する。一般に、投影データの各セット、又は実際、任意の種類の測定値sのセットは、ノイズ寄与nによって汚染された真信号tを含む。これは加法的とみなすことができる。ただし測定値s=t+nである。ノイズ低減又はノイズ除去において、nを低減すること、又は少なくとも比t/nを改善することが望まれる。異なるノイズレベルを有する補正データセットの適切な対を生成して、モデルMを訓練し続けるために、以下の事実を利用することを提案する:断層撮像において、投影データが投影方向ごとに異なる強度測定値を含む。通常、少なくとも180°の角度範囲にわたるそのような測定が行われる。通常、全角度範囲にわたる測定値は、反復再構成において使用される。しかしながら、いくつかの角度、又は角度範囲にわたり捨てられる測定値が多くなればなるほど、反復再構成によって生成されたデータもさらにノイズが多くなる。これは中間及び最終画像に当てはまるだけではなく、反復再構成の反復中に生成された補正データにも当てはまる。
【0153】
概略的には、方法は以下のように進行する:ステップS910において、反復再構成アルゴリズムによって生成された履歴投影データが特定され、アクセスされる。これは、以前の患者からのより前の調査、又は所与の患者からのより前の調査についての画像データベース内の検索を定式化することによって行うことができる。画像データベースは、HIS(病院情報システム)内のPACS(画像データ保管通信システム)を含む。DICOMデータのヘッダデータ内のメタデータ、又は他の構造化されたフォーマットを使用して検索が定式化される。
【0154】
好ましくは、異なる生体特性を有する異なる患者の範囲にわたるそのような投影データはアクセスされてデータの多様性が増加し、その結果、モデルMは訓練されてより良好に一般化される。しかしながら、原則的に、単一の患者についての以前の投影データは、現在の目的に対して十分であり、実際、訓練データとして使用されると驚くほど良好な結果を示している。
【0155】
ステップS920では、異なるノイズレベルにある補正データ配列の対(x、y)kが生成される。配列yは、配列xよりもノイズレベルが局所的に、又は全体的に低い。
【0156】
ステップS930では、前記対(x、y)kを、MLモデルを訓練するために生成された訓練データとして利用可能にさせる。
【0157】
さらに詳細には、ステップS920は以下のように実施されることが可能である:一方はすべての投影データのうちのu%を、他方はv%のみを使用し、v<uの状態で、履歴投影データに基づいて、2つの反復再構成を実行する。例えば、u=100%、v=50%である。それぞれの補正データΔfv、Δfu、又はΔλv、Δuは記憶されて、モデルが画像ドメイン側の配備用に、それとも投影ドメイン側の配備用にそれぞれ訓練されるべきかに応じて、訓練データ(x=Δfv、y=Δfu)又は(x=Δλu、y=Δλ)の事例を形成するように完全に対にされる。これは任意の(u、v)の組合せに対して繰り返される。好ましくは、対(u、v)ごとに複数のそのような事例が何人かの又は各患者kに対して生成される:画像ドメイン側の配備では(xk=Δfv、yk=Δfu)、又は投影ドメイン側の配備では(xk=Δλv、yk=Δλu)である。反復再構成ランkのそれぞれに対する補正データは、好ましくは、収束が反復サイクルi*において検出された後に記憶されるが、時間が押した場合には、i<i*よりも前に記憶される。代替的に、対は、単一の反復再構成を実行すること、及び反復サイクルiでの補正データの1つのセットを、それより後のサイクルj>iでの他方の補正データを記憶することによって生成される。後のサイクルjでの補正データは、それより前のサイクルiでのより前の補正データよりもノイズレベルが低い。サイクルjは、収束が始まったときに選択され、iは収束前より前に選択される。したがって、後のサイクルjでのデータは、対象物yであり、それより前の補正データは、前記yに関連付けられた訓練入力xである。さらに、これは異なる患者のデータ記録に対して繰り返される。
【0158】
パーセンテージ(u、v)、及びサイクル(i、j)はそれぞれ、本明細書ではデータ生成部設計パラメータとして理解される。データ生成部設計パラメータ間の差によって引き起こされるノイズレベルの差によって、(u、v)、及び(i、j)のそれぞれの選択のためのモデルが訓練されることになるノイズ低減量が決まる。
【0159】
さらに代替的に、履歴記録がたまたますでに補正データを保持している場合、これを使用して対の一部を形成し、履歴再構成ランにおいて履歴補正データを生成したとき、使用されていたものより少ない投影データに基づいて、1つの再構成のみが第2の部分に対して実行される。
【0160】
異なるノイズレベルにある2つの補正データセットの対に加えて、第3のデータ項目、すなわち上述の追加の、前のデータp
kは、増大した対(x
k=(p
k、Δf
v)、y
k=Δf
u)又は(x
k=(p
k、Δλ
v)、y
k=Δλ
u)を取得するように生成される。
図2、
図4又は
図3、
図5がどの実施形態を使用するかに応じて、追加の、前のデータp
kは画像又は投影ドメイン内にある。前記追加の、前の情報p
kは、統計学的情報の強度分布の中間又は最終推定値、例えばPET撮像において検出された減衰の、推定された数によって提供されることが可能である。CTでは、p
kは、例えばノイズ推定値によって取得される。
【0161】
追加の、前の情報pkは、MLモデルが、反復再構成アルゴリズムの収束を局所的に操縦する補正データを計算するのに役立つ。追加の、前の情報pkは、補正データと同じサイズを有するので3D配列である。各エントリは、それぞれの位置で局所的に所望のノイズレベルを記述する。
【0162】
追加の、前の情報pkが使用される場合、この配列は、補正データが、適宜サイズ設定されるCNNモデルMの入力層と共にマルチ次元構造を形成するように、3D配列と結合されることが可能である。こうして補正データ及び前の情報は、マルチチャネル方式でネットワークMによって一緒に処理される。畳込み操作子CVは深さ次元を用いて必要な大きさにされてチャネル間処理が可能になり、又は畳込み操作子CVが深さ構成要素を有しないため、各チャネル、補正データ、及び前の情報は、別個に畳み込まれる。
【0163】
次いで訓練方法に進むと、これは上で生成された訓練データ、若しくは履歴データ、又は両方の混合と共に使用される。
【0164】
より詳細には、ステップS940において、訓練データは対(xk、yk)の形態で受信される。各対は、訓練入力xk、及び関連付けられた対象物ykを含む。xkは、より高いノイズにある補正データ配列であり、yはより低いノイズにある対応する補正データ配列である。前の場合と同様に「k」は特定のデータ対向けのインデックスである。インデックス「k」は一般に、異なる患者に対応し、訓練データは患者の記録から照会されてきた。
【0165】
ステップS950では、訓練入力xkは、訓練出力が作り出されるように、初期化された機械学習モデルMに適用される。
【0166】
関連付けられた対象物ykからの訓練出力M(xk)のずれ又は留数は、コスト関数Fによって数量化される。モデルの1つ又は複数のパラメータは、内部ループのうちの1つ又は複数の反復においてステップS960で、コスト関数を改善するように適合される。例えば、モデルパラメータは、コスト関数によって測定された留数を減少させるように適合される。パラメータは特に、畳込み操作子CVのおもりWを含む。
【0167】
次いで訓練方法は、外部ループにおいてステップS940に戻り、ここで次の対の訓練データk+1が送り込まれる。ステップS950では、モデルMのパラメータは、熟慮のすべての対の集合させた留数が減少する、特に最小化されるように適合される。コスト関数は集合させた留数を数量化する。順方向-逆方向伝播、又は類似の勾配ベースの技法が、内部ループにおいて使用される。
【0168】
より一般的には、モデルMのパラメータは、コスト関数又は効用関数のどちらかである目的の関数Fを改善するように調整される。実施形態では、コスト関数は、集合させた留数を測定するように構成される。実施形態では、留数の集合は、熟慮のすべての対に対する、全留数、又はいくつかの留数にわたる加算によって実施される。方法は、好ましくは訓練を加速させるために並列処理が可能なプロセッサを有する、1つ又は複数の汎用処理ユニットTS上で実施される。訓練データ対を線形に処理するのではなく、セットの対は並列に又は「バッチ」処理される。したがって、外部ループはバッチにわたってループする。極端な場合、すべての訓練データは、外部ループがない場合に、一度に処理される。
【0169】
補正データ判定部CDD、及び本明細書における方法は、ノイズ低減への主な参照によって上で説明したが、上述の原理は他のデータ品質、特に、解像度の改善、及び/又は画像アーチファクトの低減などの他の画像品質を改善するためにも使用される。訓練のためのそのような実施形態では、対象物y
kは、関連付けられた訓練入力x
kにおける解像度/アーチファクト汚染より高い解像度、及び/又はより低いアーチファクト汚染を有する補正データとして選択される。CTでは、例えば、ビームハードニング、散乱、動き、コーンビーム、螺旋、リング、及びメタルアーチファクトに起因するアーチファクトがある。訓練データ対(x
k、y
k)は、人間エキスパートに適宜、データにラベル付けさせることによって容易に供給される。異なる解像度は、上述のように投影データを再ビニングすることによってシミュレートされて、上述のステップS910~S930での画像生成方法において、少なくとも1つの新たな反復再構成アルゴリズムを実行して、高又は低解像度の補正データを取得する。訓練アルゴリズムは、データ/画像品質改善の例としてのノイズ低減の実施形態について
図8、
図9で上述した通りである。特に、提案された方法及びシステムでは、補正データの解像度は、画像ドメインの所与のvoxelationの解像度に適合される。GANタイプの設定は、解像度の改善、又はアーチファクトの低減のために使用される。
【0170】
データ処理システムIPSのコンポーネントは、撮像部XIに関連付けられたワークステーションなどの1つ若しくは複数の汎用処理ユニットPU上で、又は撮像部のグループに関連付けられたサーバコンピュータ上で動かされる、1つ又は複数のソフトウェアモジュールとして実装される。
【0171】
代替的に、画像処理システムIPSのいくつか又はすべてのコンポーネントは、適切にプログラムされたマイクロコントローラ若しくはマイクロプロセッサ、そのようなFPGA(フィールドプログラマブルゲートアレイ)などのハードウェア内に構成されるか、又はハードワイヤードのICチップ、特定用途向け集積回路(ASIC)として撮像システムXIに統合される。その上さらなる実施形態では、画像処理システムIPSは、部分的にソフトウェア内、及び部分的にハードウェア内の両方に実装される。
【0172】
画像処理システムIPSの異なるコンポーネントは、単一のデータ処理ユニットPU上に実装される。代替的に、いくつか又はより多くのコンポーネントは、場合によっては、分散アーキテクチャの状態で遠隔に配置された、及びウェブ主催のサービスなどとして、クラウド環境、又はクライアントサーバ設定においてなどの適切な通信ネットワークにおいて接続可能な、異なる処理ユニットPU上に実装される。これにより、単一の医療施設にわたって、又は複数の医療施設にわたってのどちらかで複数の地理学的に分散された撮像場所を供することが可能になる。
【0173】
本明細書に記載の1つ又は複数の特徴は、コンピュータ可読媒体内のコード化された回路として構成されるか、若しくはコンピュータ可読媒体内のコード化された回路と共に実装されるか、及び/又はその組合せとすることができる。回路は個別回路及び/若しくは集積回路、システムオンチップ(SOC)、並びにそれらの組合せ、機械、コンピュータシステム、プロセッサ及びメモリ、コンピュータプログラムを含む。
【0174】
本発明の別の例示的な実施形態では、前の実施形態のうちの1つによる方法の方法ステップを実行するように適合されていることを特徴とするコンピュータプログラム又はコンピュータプログラム要素が適切なシステム上で提供される。
【0175】
したがって、コンピュータプログラム要素は、コンピュータユニット上に記憶されてもよいが、そのことはさらに本発明の実施形態の一部であってもよい。コンピュータユニットは、上述の方法のステップの実施を行う又は誘起するように適合される。さらに、コンピュータユニットは、上述の装置のコンポーネントを動作させるように適合される。コンピューティングユニットは、ユーザの命令を自動的に動作させる、及び/又は実行するように適合させることができる。コンピュータプログラムは、データプロセッサのワーキングメモリにロードされる。こうして、データプロセッサは本発明の方法を成し遂げるために装備される。
【0176】
本発明のこの例示的な実施形態は、初めの使用から本発明を是正するコンピュータプログラムと、更新によって既存のプログラムを本発明を使用するプログラムへと転換させるコンピュータプログラムとの両方をカバーする。
【0177】
さらに、コンピュータプログラム要素は、上述のように方法の例示的な実施形態の手順を満たす、すべての必要なステップ提供することができてもよい。
【0178】
本発明のさらなる例示的な実施形態により、CD-ROMなどのコンピュータ可読媒体が提供され、コンピュータ可読媒体はその上に記憶した、前の節で説明されたコンピュータプログラム要素を有する。
【0179】
コンピュータプログラムは、他のハードウェアと共に、若しくは他のハードウェアの一部として供給される光学ストレージ媒体、又はソリッドステート媒体などの適切な媒体(特に、必ずというわけではないが非一時的媒体)上に記憶、及び/又は分配されるが、さらにインターネット、又は他の有線若しくは無線通信システムを介してなど他の形態で分配される。
【0180】
しかしながら、コンピュータプログラムはさらに、World Wide Webのようなネットワークを介して提供され、そのようなネットワークからデータプロセッサのワーキングメモリにダウンロードされることが可能である。本発明のさらなる例示的な実施形態により、ダウンロードするために利用可能なコンピュータプログラム要素を作成するための媒体が提供され、そのコンピュータプログラム要素は、本発明の、前に記述された実施形態のうちの1つによる方法を実施するように構成される。
【0181】
本発明の実施形態は、異なる主題を参照して説明されることに留意しなければならない。特に、いくつかの実施形態は、方法タイプの請求項を参照して説明されるが、他の実施形態は、機器タイプの請求項を参照して説明される。しかしながら、当業者であれば、別様に通知されていない限り上の及び以下の記述から、主題の1つのタイプに属する特徴の任意の組合せに加えて、異なる主題に関連する特徴間の任意の組合せも、本出願により開示されるべきであると考えられると推論する。しかしながら、すべての特徴は結合されて、特徴の単純な加算より大きな相乗効果をもたらすことができる。
【0182】
本発明は図面と前の記述において詳細に図解され、説明されてきたが、そのような図解及び説明は、説明的又は例示的であり限定的であると考えられるべきではない。本発明は、開示された実施形態に限定されるものではない。開示された実施形態に対する他の変形形態は、図面、本開示、及び従属請求項の調査から特許請求された発明を実践する際に当業者によって理解され、成し遂げられることができる。
【0183】
本請求項の範囲では、単語「備える」は、他の要素又はステップを除外せず、単数形の要素は、複数を除外しない。単一のプロセッサ、又は他のユニットは、本請求項の範囲において記載されているいくつかの項目の機能を満たす。ある特定の手段が互いに異なる従属請求項の範囲に記載されているだけで、これらの手段の組合せを有利に使用できないことを示すものではない。本請求項の範囲における任意の参照符号は、範囲を限定すると解釈されるべきではない。
【国際調査報告】