(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公表特許公報(A)
(11)【公表番号】
(43)【公表日】2024-02-21
(54)【発明の名称】機械学習によるコントラスト強調
(51)【国際特許分類】
A61B 6/00 20240101AFI20240214BHJP
A61B 6/03 20060101ALI20240214BHJP
A61B 5/055 20060101ALI20240214BHJP
G06T 7/00 20170101ALI20240214BHJP
【FI】
A61B6/00 560
A61B6/03 560B
A61B5/055 380
A61B5/055 383
G06T7/00 612
A61B6/00 550A
A61B6/03 560T
【審査請求】未請求
【予備審査請求】未請求
(21)【出願番号】P 2023548648
(86)(22)【出願日】2022-02-14
(85)【翻訳文提出日】2023-08-23
(86)【国際出願番号】 EP2022053452
(87)【国際公開番号】W WO2022171845
(87)【国際公開日】2022-08-18
(32)【優先日】2021-02-15
(33)【優先権主張国・地域又は機関】EP
(81)【指定国・地域】
(71)【出願人】
【識別番号】590000248
【氏名又は名称】コーニンクレッカ フィリップス エヌ ヴェ
【氏名又は名称原語表記】Koninklijke Philips N.V.
【住所又は居所原語表記】High Tech Campus 52, 5656 AG Eindhoven,Netherlands
(74)【代理人】
【識別番号】110001690
【氏名又は名称】弁理士法人M&Sパートナーズ
(72)【発明者】
【氏名】ゴシェン リラン
【テーマコード(参考)】
4C093
4C096
5L096
【Fターム(参考)】
4C093AA01
4C093AA22
4C093AA24
4C093AA26
4C093CA06
4C093CA08
4C093CA13
4C093FF17
4C096AA11
4C096AB07
4C096AB11
4C096AB46
4C096AD14
4C096AD19
4C096AD24
4C096DC01
4C096DC21
4C096FC14
5L096AA06
5L096BA06
5L096BA13
5L096DA01
5L096HA11
5L096KA04
5L096KA15
(57)【要約】
イメージ補正のための対象の機械学習モデルの訓練システム、及び関連する方法。システムは、生成タイプの2つの機械学習モデル(G1、G2)のフレームワークを備え、1つのそのようなモデル(G1)は、対象の機械学習モデルの一部である。訓練は、高画質(IQ)画像及び低IQ画像の少なくとも2つのタイプの訓練画像を含む訓練データセットに基づき、訓練入力イメージは高IQタイプのイメージである。生成ネットワーク(G1)は、IQが低減した訓練出力イメージ(I)を生成するために、高IQタイプの訓練入力イメージを処理する。対象の機械学習モデル(TM)は、訓練出力イメージ(I)及び高IQタイプの訓練入力イメージに基づいて、第2の訓練出力イメージをさらに生成する。第2の生成器ネットワーク(G2)は、第2の訓練出力イメージから、高IQタイプの訓練入力イメージの推定値を推定する。訓練コントローラ(TC)は、高IQタイプの訓練入力イメージの前記推定値と、高IQタイプの上記訓練入力イメージとの間の逸脱に基づいて、機械学習モデルフレームワークのパラメータを調整する。
【特許請求の範囲】
【請求項1】
医用画像のイメージ補正のために対象の機械学習モデルを訓練するための訓練システムであって、前記訓練システムは、
高画質画像及び低画質画像の少なくとも2つのタイプの訓練画像を含む訓練データセットから引き出される訓練入力イメージを受信するための入力インターフェースであって、前記訓練入力イメージは高画質タイプのイメージである、入力インターフェースと、
第1の生成器ネットワーク及び第2の生成器ネットワークを含む機械学習モデルフレームワークであって、前記対象の機械学習モデルは前記第1の生成器ネットワークを含む、機械学習モデルフレームワークと、
画質が低減した訓練出力イメージを生成するために、前記高画質タイプの前記訓練入力イメージを処理する前記第1の生成ネットワークと、
前記第2の訓練出力イメージから、前記高画質タイプの前記訓練入力イメージの推定値を推定するように動作可能な前記第2の生成器ネットワークを備えた、前記訓練出力イメージ及び前記高画質タイプの前記訓練入力イメージに基づいて、第2の訓練出力イメージをさらに生成する前記対象の機械学習モデルと、
少なくとも、前記高画質タイプの前記訓練入力イメージの前記推定値と、前記高画質タイプの前記訓練入力イメージとの間の逸脱に基づいて、前記機械学習モデルフレームワークの少なくとも1つのパラメータを調整するように動作可能である訓練コントローラと
を備える、訓練システム。
【請求項2】
前記機械学習モデルフレームワークは、前記第1の生成器ネットワーク及び弁別器ネットワークを含む敵対的生成タイプのサブネットワークを含み、
前記弁別器が、前記セットから引き出される前記低画質タイプの訓練入力と前記訓練出力イメージとの間で弁別して、弁別結果を生成するように試行し、
前記訓練コントローラは、前記弁別結果にさらに基づいて前記機械学習モデルフレームワークのパラメータを調整するように動作可能である、請求項1に記載の訓練システム。
【請求項3】
i)少なくとも1つのイメージ取得パラメータ、ii)少なくとも1つの再構成パラメータ、iii)患者データのうちのいずれか1つ又は複数を記述するコンテキストデータとともに前記訓練入力画像を処理するように構成されている、請求項1又は2に記載の訓練システム。
【請求項4】
前記第1の生成器ネットワーク及び/又は前記第2の生成器ネットワークのアーキテクチャは、畳み込みタイプのものである、請求項1から3のいずれか一項に記載の訓練システム。
【請求項5】
前記第1の生成器ネットワーク及び/又は前記第2の生成器ネットワークのアーキテクチャは、マルチスケールタイプのものである、請求項1から4のいずれか一項に記載の訓練システム。
【請求項6】
前記画質は、i)コントラストレベル、ii)アーティファクトレベル、及びiii)ノイズレベルのうちのいずれか1つを含む、請求項1から5のいずれか一項に記載の訓練システム。
【請求項7】
前記高画質画像は、造影剤が存在する間にイメージング装置によって記録される画像であり、前記低画質画像は、より少ない量の前記造影剤又は或る造影剤が存在する間に前記イメージング装置又は或るイメージング装置によって記録される画像である、請求項1から6のいずれか一項に記載の訓練システム。
【請求項8】
前記セット内の前記高画質/低画質画像は、X線画像又はMRI画像である、請求項1から7のいずれか一項に記載の訓練システム。
【請求項9】
前記高画質/低画質画像は、コンピュータ断層撮影画像である、請求項8に記載の訓練システム。
【請求項10】
請求項1から9のいずれか一項に記載の訓練システムによって訓練された対象のネットワークが記憶された、記憶媒体。
【請求項11】
処理済みイメージを提供するために、イメージ記憶装置から受信されるか又はイメージング装置によって供給される入力イメージを処理するように動作可能な、請求項10に記載の記憶媒体に記憶された前記対象のネットワークと、
前記処理済み画像を表示するためのディスプレイデバイスと
を備える、イメージング構成部。
【請求項12】
対象の機械学習モデルを訓練する方法であって、前記方法は、
高画質画像及び低画質画像の少なくとも2つのタイプの訓練画像を含む訓練データセットから引き出される訓練入力イメージを受信するステップであって、前記訓練入力イメージは高画質タイプのイメージである、受信するステップと、
生成ネットワークによって、画質が低減した訓練出力イメージを生成するために、前記高画質タイプの前記訓練入力イメージを処理するステップであって、前記生成ネットワークは、第2の生成器ネットワークをさらに含む機械学習モデルフレームワークの一部であり、前記対象の機械学習モデルは前記第1の生成器ネットワークを含む、処理するステップと、
前記対象の機械学習モデルによって、前記訓練出力イメージ及び前記高画質タイプの前記訓練入力イメージをさらに処理するステップであって、第2の訓練出力イメージを生成する、さらに処理するステップと、
前記第2の生成器ネットワークによって、前記第2の出力イメージから、前記高画質タイプの前記訓練入力イメージの推定値を推定するステップと、
訓練コントローラによって、少なくとも、前記高画質タイプの前記訓練入力イメージの前記推定値と、前記高画質タイプの前記訓練入力イメージとの間の逸脱に基づいて、前記機械学習モデルフレームワークの少なくとも1つのパラメータを調整するステップと
を含む、方法。
【請求項13】
請求項10に記載の記憶媒体に記憶された前記対象のネットワークによって、処理済みイメージを提供するために、イメージ記憶装置から受信されるか又はイメージング装置によって供給される入力イメージを処理するステップを含む、イメージ処理の方法。
【請求項14】
少なくとも1つの処理ユニットによって実行されると、前記処理ユニットに請求項12又は13に記載の方法を実施させるように適合されている、コンピュータプログラム。
【請求項15】
請求項14に記載のコンピュータプログラムが記憶されている、コンピュータ可読媒体。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、イメージ補正のために機械学習モデルを訓練するための訓練システム、イメージ補正のためのシステム、機械学習モデルを訓練するための方法、イメージ補正のための方法、イメージング構成部、コンピュータプログラム要素、及びコンピュータ可読媒体に関する。
【背景技術】
【0002】
造影薬は、ますます増大する診断及び介入臨床手技において使用されている。造影薬(「CM」、又は「造影剤」)は、例えば、CT(コンピュータ断層撮影)、血管造影、蛍光透視法、MRI(磁気共鳴イメージング)、及び多くの他のイメージングモダリティにおける診断イメージング検査中、又は、PTCA(経皮経管冠動脈形成術)などのような特定の治療手技の組織視覚化を改善するために患者に血管内投与される。
【0003】
加えて、造影薬は、そのイメージング手技のための指示に応じて、経口的に及び/又は他の自然開口部を介して投与される。(例えば、ヨード)造影薬を使用する数千万例の放射線試験が、毎年実施されている。例えば、2010年中に全CT検査のうち、米国では44%、インドでは35%、日本では74%、中国では10~15%が、ヨードCMを使用したと推定されている。
【0004】
コントラスト補正CTにおいて、非イオン性要素を造影薬として使用することによって、急性アレルギー様反応が引き起こされる可能性がある。これらの反応は、蕁麻疹及び掻痒などの軽度の症状から、心肺停止などのより深刻な症状に及ぶ。
【0005】
ヨウ素に基づく薬剤の最も重篤な副作用のうちの1つは、造影薬誘発性腎症である。Nash他は、「Hospital-acquired renal insufficiency」、Am. J. Kidney Dis(全米腎臓財団の公式ジャーナル)、39巻、930~936ページ(2002)において、すべてのそのような事例が必ずしもCM投与に関連付けられるとは限らないが、造影薬誘発性腎症が、入院患者における急性腎不全の3番目に一般的な原因であると報告している。いずれにせよ、CM投与前の血清中クレアチニンのモニタリングが、コントラスト補正CTデータの取得前に通常行われる。
【0006】
したがって、副作用に関する患者の健康という観点から、造影剤の量を低減することが有益である。しかしながら、これらの健康上のリスクは認識されているものの、コントラスト補正イメージング(CTにおけるものなどの)は、現代の診断イメージングにおける最も有用な日常的手技の1つである。イメージデータ取得前に、非イオン性ヨード造影薬又は他の造影薬が投与される。そのような投与の後、コントラスト補正CTデータ取得が、手動で又はボーラストラッカーによってトリガされて開始される。
【発明の概要】
【発明が解決しようとする課題】
【0007】
結果もたらされる補正断層撮影スライスは、未補正(ネイティブ)データと比較して診断品質を大幅に改善する。未補正CTデータにおいて、固形臓器は、40~60HUの範囲内で同様の密度を有するため、異常の差別化は困難である。コントラスト補正CTによれば、異なる組織の密度は100HUを上回って上昇し得る。イメージコントラストのそのような改善は、例えば、腫瘍及び病変の検出に関して観察され得る。CT血管造影又はCTかん流検査のような、他の診断指標についても、コントラスト補正が必要である。
【0008】
造影剤利用を低減することの前述した臨床上の利点に加えて、コストに関する造影剤利用低減の大幅な経済的利点もある。CMコストは、特定の地域において高くなり得る(日本では120ドル/100ml、それに対して北米では20ドル)。その上、今日一般的に使用されている非イオン性及び低浸透圧性造影剤は、特異的効果に関して患者によってより良好に許容されているが、それでもより高価である。
【0009】
患者に投与される造影剤の量が関心事であるため、自動注入器の使用、高速後押し生理食塩水、より速い回転時間、より広いカバレッジエリア、ボーラス追跡ソフトウェア並びに低kVpプロトコル及びスペクトル/従来式補正アルゴリズムの使用など、造影剤使用を低減するための、一通りの技術的成功要因が開発された。しかしながら、これらの成功要因のいくつかは、高価であり、複雑であり、間違いが発生しやすく、又は、使用が困難である。
【0010】
したがって、上記で言及した欠点のいくつかに対処するための代替的なシステム及び方法が必要とされる。特に、イメージングに使用される造影薬の量を低減することが必要とされる。
【課題を解決するための手段】
【0011】
本発明の目的は、独立請求項の主題によって解決され、さらなる実施形態が、従属請求項に組み込まれている。本発明の以下に記載の態様は、イメージ補正のためのシステム、機械学習モデルを訓練するための方法、イメージ補正の方法、イメージング構成部、コンピュータプログラム要素、及びコンピュータ可読媒体に等しく適用されることに留意されたい。
【0012】
本発明の第1の態様によれば、医用画像のイメージ補正のために対象の機械学習モデルを訓練するための訓練システムであって、訓練システムは、
高画質(IQ)画像及び低IQ画像の少なくとも2つのタイプの訓練画像を含む訓練データセットから引き出される訓練入力イメージを受信するための入力インターフェースであって、訓練入力イメージは高IQタイプのイメージである、入力インターフェースと、
第1の生成器ネットワーク及び第2の生成器ネットワークを含む機械学習モデルフレームワークであって、対象の機械学習モデルは上記第1の生成器ネットワークを含む、機械学習モデルフレームワークと、
ここで、第1の生成ネットワークは、IQが低減した訓練出力イメージを生成するために、高IQタイプの訓練入力イメージを処理するためのものであり、
対象の機械学習(「ML」)モデルは、訓練出力イメージ及び高IQタイプの訓練入力イメージに基づいて、第2の訓練出力イメージをさらに生成するためのものであり、第2の生成器ネットワークは、第2の訓練出力イメージから、高IQタイプの訓練入力イメージの推定値を推定するように動作可能であり、
少なくとも、高IQタイプの訓練入力イメージの推定値と、高IQタイプの上記訓練入力イメージとの間の逸脱に基づいて、機械学習モデルフレームワークの少なくとも1つのパラメータを調整するように動作可能である訓練コントローラと
を備える、訓練システムが提供される。
【0013】
実施形態において、上記機械学習モデルフレームワークは、第1の生成器ネットワーク及び弁別器ネットワークを含む敵対的生成タイプのサブネットワークを含み、弁別器ネットワークは、弁別結果を生成するために、セットから引き出される低IQタイプの訓練入力と訓練出力画像との間の弁別を試行するためのものであり、訓練コントローラは、弁別結果にさらに基づいて機械学習モデルのパラメータを調整するように動作可能である。
【0014】
実施形態において、対象の機械学習モデルは、訓練出力イメージと高IQタイプの訓練入力イメージとを組み合わせることによって、第2の訓練出力イメージを生成するように構成されている。組み合わせることは、訓練出力イメージと高IQタイプの訓練入力イメージとの線形結合によって行われる。特定的には、高IQタイプの訓練入力イメージと、訓練出力イメージ(IQが低減されている)との間の、任意選択的にスケーリングされた差が、IQが低減されている訓練出力イメージに加算される。
【0015】
実施形態において、システムは、i)少なくとも1つのイメージ取得パラメータ、ii)少なくとも1つの再構成パラメータ、iii)患者データのうちのいずれか1つ又は複数を記述するコンテキストデータとともに訓練入力画像を処理するように構成されている。
【0016】
実施形態において、第1の生成器ネットワーク及び/又は第2の生成器ネットワークのアーキテクチャは、畳み込みタイプのものである。
【0017】
実施形態において、第1の生成器ネットワーク及び/又は第2の生成器ネットワークのアーキテクチャは、マルチスケールタイプのものである。
【0018】
実施形態において、IQは、i)コントラスト(レベル)、ii)アーティファクト(レベル)、及びiii)ノイズ(レベル)のうちのいずれか1つを含む。
【0019】
実施形態において、高IQ画像は、造影剤が存在する間にイメージング装置によって記録される画像であり、低IQ画像は、より少ない量の上記造影剤又は或る造影剤が存在する間に上記イメージング装置又は或るイメージング装置によって記録される画像である。
【0020】
したがって、他の実施形態において、高IQ及び低IQの2つのイメージクラスは、それぞれ、高いコントラスト及び低いコントラストを有するイメージのクラスに、又は、低いアーティファクト寄与及び高いアーティファクト寄与を有するイメージ、又は、低いノイズ寄与及び高いノイズ寄与を有するイメージに関係する。高IQ及び低IQのそのような2つのクラスはまた、他のイメージ品質メトリックについても定義される。高IQクラス由来のイメージ標本は、低IQクラス由来の標本よりも高いIQを有する。IQは、ローカル又はグローバルである。高IQクラス由来のイメージ標本のIQメトリックの平均は、は、低IQクラス由来のイメージ標本のIQメトリックよりも高い。主に本明細書において想定されているIQの一例としてのコントラストに関して、高コントラストイメージ(「造影イメージ」)において、当該イメージが取得されたときの撮像装置の視野(「FOV」)内には、低コントラストイメージ(「非造影イメージ」)が取得されたときのFOV内に存在した造影薬の量/濃度よりも高い量/濃度の造影薬が存在している。
【0021】
実施形態において、セット内の高IQ/低IQ画像は、X線画像又はMRI画像である。
【0022】
実施形態において、高IQ/低IQ画像は、コンピュータ断層撮影(CT)画像である。
【0023】
別の態様において、上述した実施形態のいずれか1つの訓練システムによって訓練された対象のネットワークが記憶された記憶媒体が提供される。
【0024】
別の態様において、
処理済みイメージを提供するために、イメージ記憶装置から受信されるか又はイメージング装置によって供給される入力イメージを処理するように動作可能な、上記実施形態のいずれか1つによる対象のネットワークと、
処理済み画像を表示するためのディスプレイデバイスと
を備える、イメージング構成部が提供される。
【0025】
別の態様において、対象の機械学習モデルを訓練する方法であって、方法は、
高画質(IQ)画像及び低IQ画像の少なくとも2つのタイプの訓練画像を含む訓練データセットから引き出される訓練入力イメージを受信するステップであって、訓練入力イメージは高IQタイプのイメージである、受信するステップと、
生成ネットワークによって、IQが低減した訓練出力イメージを生成するために、高IQタイプの訓練入力イメージを処理するステップであって、生成ネットワークは、第2の生成器ネットワークをさらに含む機械学習モデルフレームワークの一部であり、対象の機械学習モデルは上記第1の生成器ネットワークを含む、処理するステップと、
対象の機械学習モデルによって、第2の訓練出力イメージを生成するために、訓練出力イメージ及び高IQタイプの訓練入力イメージを処理するステップと、
第2の生成器ネットワークによって、第2の出力イメージから、高IQタイプの訓練入力イメージの推定値を推定するステップと、
訓練コントローラによって、少なくとも、高IQタイプの訓練入力イメージの推定値と、高IQタイプの上記訓練入力イメージとの間の逸脱に基づいて、機械学習モデルフレームワークの少なくとも1つのパラメータを調整するステップと
を含む、方法が提供される。
【0026】
別の態様において、
上記実施形態のいずれか1つによる対象のネットワークによって、処理済みイメージを提供するために、イメージ記憶装置から受信されるか又はイメージング装置によって供給される入力イメージを処理するステップを含む、イメージ処理の方法が提供される。
【0027】
実施形態において、機械学習モデルフレームワークは、第1の生成器ネットワーク及び弁別器ネットワークを構成要素として含む敵対的生成タイプのサブネットワークを含む。そのような実施形態において、本方法は、
弁別器によって、セットから引き出される低IQタイプの訓練入力と訓練出力画像との間で弁別するステップであって、したがって、弁別結果を生成する、弁別するステップをさらに含み、
機械学習モデルフレームワークのパラメータの調整は、弁別結果にさらに基づく。
【0028】
上記で使用されているものとしての機械学習フレームワークは、一般に、それぞれの入力及び出力に関して少なくとも部分的に相互接続されている複数のMLモデル又はサブMLシステムを備える計算システムである。実施形態において、第1の及び/又は第2の生成器及び/又は弁別器は、人工ニューラルネットワークタイプのものである。
【0029】
別の態様において、少なくとも1つの処理ユニットによって実行されると、処理ユニットに上記方法を実施させるように適合されているコンピュータプログラム要素が提供される。
【0030】
別の態様において、上記プログラム要素を記憶されているコンピュータ可読媒体が提供される。
【0031】
したがって、提案されている訓練方式によれば、依然として十分で有用なコントラストの画像を得るのにより少量の造影剤で十分であり、したがって、コストが節約され、患者の不快感が除かれる。従来のCT走査パラメータを変化させることなく、また、例えば、良好な血管補正及び良好な臓器補正など、CT検査の臨床的許容性を損なうことなく、良好なCM使用の大幅な低減を、以前(大量のCMが使用されたとき)と同じ臨床/放射線効果で低減することができる。提案されているシステム及び方法は、検査画像の補正によって造影剤量低減を補償する。
【0032】
加えて、提案されている方法及びシステムは、造影剤低減プロトコルに限定されない、汎用イメージ補正ツールとして使用される。
【0033】
特に、提案されている方法、及び、提案されているシステムによって訓練されている対象のモデルは、所与の画像における造影薬寄与分のみを、又は主に造影薬寄与分をコントラスト強調するように構成されており、したがって、より「典型的な」外観を有する、すなわち、人工的で不自然な見た目でない画像が生成される。造影薬を表すイメージ部分は、大部分は、変化することなく再現される。
【0034】
加えて、方法及びシステムは、病変及び異常の顕著性を補正することによって診断を日常的に改善し、容易にし得る。
【0035】
その上、注入検査に失敗した場合、方法及びシステムは、そのような検査を救済し、繰り返し走査する必要をなくすことによって、容量低減を可能にし得る。
【0036】
上記の臨床上の利点に加えて、造影剤利用低減の大幅な経済的利点もある。特定の地域では直接コストが高くなり得(例えば、上記で言及したように日本では120ドル/100ml)、例えば入院延長、治療及び反復走査などの間接コストが非常に高くなり得る。
【0037】
本方法には、教師なし学習手法に基づくという魅力的な利点がある。この手法によって、実現不可能であるか、又は、非常に困難で、冗漫であり、時間がかかり、したがって実行するのにコストがかかる、大きい信頼可能な対の訓練データの準備の必要がなくなる。特に、非造影画像と造影画像とを対にすることは、提案されている訓練システムには必要ない。そのようなプロトコルにおいては、所与の患者は、2つの異なる量の造影薬を用いて患者を一切動かすことなく通常通り2回走査されることがないため、これは、CMベースのイメージングの本目的には特に有益である。
【0038】
特に、コントラストに関するIQについて、実施形態において、医用画像のイメージコントラスト補正のために対象の機械学習モデルを訓練するための訓練システムであって、
高コントラスト画像及び低コントラスト画像の少なくとも2つのタイプの訓練画像を含む訓練データセットから引き出される訓練入力イメージを受信するための入力インターフェースであって、訓練入力イメージは高コントラストタイプのイメージである、入力インターフェースと、
第1の生成器ネットワーク及び第2の生成器ネットワークを有する敵対的生成タイプのネットワークを含む人工ニューラルネットワークモデルフレームワークであって、対象の機械学習モデルは上記第1の生成器ネットワークを含む、人工ニューラルネットワークモデルフレームワークと、
ここで、生成ネットワークは、コントラストが低減した訓練出力イメージを生成するために、高コントラストタイプの訓練入力イメージを処理するためのものであり、
弁別器が、セットから引き出される低コントラストタイプの訓練入力と訓練出力イメージとの間で弁別して、弁別結果を生成するように試行し、
対象の機械学習モデルが、訓練出力イメージ及び高コントラストタイプの訓練入力イメージに基づいて、第2の出力イメージを生成するためのものであり、第2の生成器ネットワークは、第2の出力イメージから、高コントラストタイプの訓練入力イメージの推定値を推定するように動作可能であり、
少なくとも、i)弁別結果、及び、ii)高コントラストタイプの訓練入力イメージの推定値と、高コントラストタイプの上記訓練入力イメージとの間の逸脱に基づいて、人工ニューラルネットワークモデルフレームワークのパラメータを調整するように動作可能である訓練コントローラと
を備える、訓練システムが想定される。
【0039】
概して、「機械学習構成要素又はモジュール」は、機械学習(「ML」)アルゴリズムを実施するコンピュータ化構成部である。アルゴリズムは、タスクを実施するように構成されている。MLアルゴリズムは、訓練データに基づいて訓練段階においてMLアルゴリズムによってパラメータが調整されるMLモデルに基づく。MLアルゴリズムにおいて、タスク性能は、概して経時的に測定可能に向上し、より多くの(新たな及び変化した)訓練データが、訓練に使用される。性能は、訓練済みモデルに試験データを供給し、出力を評価するときに、客観試験によって測定される。性能は、所与の試験データに対して特定の誤差率が達成されることを要求することによって規定される。T. M. Mitchell「Machine Learning」2ページ、1.1節、McGraw-Hill、1997を参照されたい。本明細書において主に関心のあるタスクは、イメージコントラストを自動的に増大させること、又は、イメージアーティファクト/ノイズを除去/低減すること、又は、他のIQ(イメージ品質)メトリックを向上させることである。
【0040】
ここで、原寸に比例しない添付の図面を参照して本発明の実施形態を説明する。
【図面の簡単な説明】
【0041】
【
図1】イメージング装置及びイメージ処理システムを含むイメージング構成部のブロック図である。
【
図2】IQエンハンサを実装するために使用され得る機械学習構成要素を訓練するための訓練システムの動作原理の流れ図である。
【
図3】2つの生成器ネットワーク及び弁別器ネットワークを含む訓練システムのブロック図である。
【
図4】
図3の訓練システムの一実施形態を示す図である。
【
図5】
図2~
図4のいずれか1つの訓練システムによって提供されるものとしての訓練済み機械学習モデルの概略ブロック図である。
【
図6】畳み込みタイプの人工ニューラルネットワークモデルを示す図である。
【
図7】IQ補正のためのコンピュータ実施方法の流れ図である。
【
図8】機械学習モデルを訓練するコンピュータ実施方法の流れ図である。
【発明を実施するための形態】
【0042】
図1を参照すると、コンピュータ化イメージング構成部ARが示されている。構成部ARは、実施形態において、イメージング装置IAと、イメージ補正プロセッサIPを含むイメージ補正のためのシステムSIEとを備える。非常に簡潔にまとめると、イメージ補正プロセッサIPは、イメージング装置IAによって得られる画像のイメージ品質(「IQ」)を補正するために使用される。補正される画像は、イメージング装置IAによって直接的に供給されるか、又は、イメージ記憶装置IRPから取り出される。イメージ補正は、イメージコントラストの増大、又は、イメージアーティファクト及び/若しくはノイズの低減若しくは除去を含む。イメージコントラストは、例えば、コントラスト対ノイズ比(CNR)によって測定及び定量化され得る。CNRがより高いことが好ましい。特に、CMによって与えられるコントラストが増大され得る。イメージ補正プロセッサIPは、いくつかの実施形態においては、機械学習モデルTMによって実装される。訓練データTDに基づいて(対象の)モデルTMを含む複数のそのようなMLモデルを訓練し得る訓練システムTSが提供される。そのように訓練されたモデルTMは、その後、イメージ補正プロセッサIPによって、補正画像を計算するために使用され得る。訓練システムTSをより詳細に説明する前に、まずイメージング構成部の構成要素を説明する。
【0043】
イメージング装置IA(本明細書においては単純に「撮像装置」として参照されることがある)は、好ましくは、本明細書においては、医用目的に想定され、患者PATの1つ又は複数のイメージを取得するように動作可能である。広範には、イメージング装置は、質問信号XBを生成するための信号源SSを備える。質問信号XBは、患者PAT内の組織と相互作用し、それによって変調される。その後、変調信号は、検出ユニットDTによって検出される。強度値などの検出された信号は、検出器生データ又は投影画像を形成する。投影画像は、それだけで関心の対象であるが、時として、投影画像は、再構成モジュールRECONによってさらに処理されて、再構成画像Xが生成される。
【0044】
本明細書において想定されている撮像装置IAは、構造的又は機能的イメージングのために構成される。透過イメージング及び放射イメージング、又は超音波(US)イメージングなどの他のイメージングなどの様々なイメージングモダリティが、本明細書において想定されている。例えば、X線ベースのイメージングなどの透過イメージングにおいて、信号源SSはX線管であり、質問信号は、X線管SSによって生成されるX線ビームXBである。この実施形態において、変調X線ビームが、検出ユニットDTのX線感受性画素に衝突する。X線感受性検出器DTは、衝突する放射線を強度値の分布として記録する。記録された強度値が、投影画像πを形成する。X線投影画像πは、X線検査においてなど、それだけで有用であることもあるが、その後、再構成モジュールRECONによって、CTイメージングにおいて断面イメージに変換される。特定的には、再構成モジュールRECONは、フィルタ逆投影又は他のアルゴリズムなどの再構成アルゴリズムを、投影画像に適用する。断面イメージは、3D空間内の2Dイメージを形成する。CTにおいては、複数のそのような断面イメージが、3Dイメージボリュームを得るために、複数の異なる投影イメージセットから再構成される。
【0045】
MRIにおいては、検出ユニットは、投影画像を表す無線周波数信号をピックアップすることが可能であるコイルから形成され、当該無線周波数信号から、MRI再構成アルゴリズムによって、断面イメージが再構成される。
【0046】
CT又は放射線撮影におけるX線画像は、患者の解剖学的構造の構造詳細を表す。PET又はSPECTなどの放射イメージングにおいては、信号源SSは以前に投与されている放射性トレーサ物質の形態で、患者の内部に存在する。その後、トレーサ物質によって引き起こされる核事象が、患者の周囲に配置されたPET/SPECT検出器DTにおいて投影イメージとして記録される。その後、PET/SPECT再構成アルゴリズムが、代謝過程などの患者内部の過程の機能的詳細を表す再構成PET/SPECT画像を得るために適用される。
【0047】
イメージング装置IAは、オペレータによってオペレータコンソールCSから制御される。オペレータは、複数のイメージングパラメータIpを設定し得る。イメージングパラメータは、取得パラメータ、及び/又は、適用可能な場合は再構成パラメータを含む。取得パラメータとは、X線管設定(アンペア数又は電圧)などのようなイメージング動作を制御するイメージング装置の設定を指す。他方、再構成パラメータは、再構成アルゴリズムの動作に関連するパラメータに関連する。再構成パラメータは必ずしも、オペレータコンソールCSにおいて設定されるとは限らず、後の段階において、ワークステーション又は他のコンピュータにおいて設定されてもよい。X線イメージングにおいては、取得パラメータは、走査タイプ、身体部分、例えばmA、mAs、kVp、回転時間、コリメーション設定、ピッチなどのようなXR源(管)XR設定のうちのいずれか1つ又は複数を含む。「走査タイプ」は、らせん状若しくは軸方向であり得、及び/又は、胸部、肺、肺塞栓、心臓などのような、イメージングされる関心領域(ROI)を指定する。「ピッチ」は、マルチスライススパイラルCTにおけるパラメータであり、テーブル増分と検出器コリメーションとの比として定義される。
【0048】
CT若しくはMR又は放射イメージング(PET/SPECT)などにおいて再構成モジュールRECONによる再構成動作が要求される場合、これは、再構成アルゴリズムを調整するために再構成パラメータを指定することを必要とする。CT再構成において想定される適切な再構成パラメータは、再構成フィルタ、再構成アルゴリズム(例えば、FBP、iDose又はIMR)、スライス厚、スライス増分、イメージサイズ(ピクセル又はボクセル単位、m×n)及び視野などのうちのいずれか1つ又は複数を含む。
【0049】
取得パラメータは、その後イメージ値に変換されるイメージ信号を取得するためにイメージング装置がどのように動作すべきかを指定する。再構成パラメータは、イメージ値が、1つのドメイン(例えば、投影ドメイン)から、例えばイメージドメインなどの異なるドメインの他のイメージ値にどのように変換されるかを記述する。したがって、イメージングパラメータ及び/又は再構成パラメータの両方のパラメータが、イメージ値又は画像内のその分布に影響を及ぼしている。
【0050】
特定的に述べられていなければ、以下において、再構成イメージ又は投影イメージの間で区別は行われておらず、両方を単純にイメージ補正プロセッサIPによって処理される入力イメージ又は「画像」Xとして参照する。言い換えれば、イメージ補正プロセッサIPは、そこで、投影ドメインからの画像に対して動作するように構成され、又は、イメージングドメインにおいて再構成される画像に対して作用する。
【0051】
装置IAによって生成されるか、又は、記憶装置IRPから取り出される入力画像Xが、例えば有線又はワイヤレス通信手段を通じて、イメージングプロセッサにおいて、そのインターフェースIN’において受信される。画像Xは、イメージング装置から直接的に受信されるか、又は、取得後に画像が記憶されるイメージングリポジトリIRPから取り出される。
【0052】
一部のイメージングプロトコルは、それ自体では十分に放射線吸収性でない臓器又は組織に関して、画像コントラストをより高いCNRに強調するために、造影剤/薬を患者に投与することを必要とする。造影剤/薬は、CT又は他のX線ベースのイメージングモダリティによって使用されるが、例えば、MRIにおいても使用される。イメージング前又はその最中、一定量の液体造影薬(ヨウ素ベースのものなど)が、患者に投与され、十分な濃度でROIに蓄積することを可能にされ、その後、そのROIに関する又はそのROIの「造影」高コントラスト画像を取得するためのイメージングが開始又は継続する。
【0053】
ほとんどのイメージングモダリティにおいて、技術的、物理的又は他の理由から、取得又は処理される画像は、イメージアーティファクトを課される。イメージアーティファクトは、イメージングされる物体内の実際の構造的又は機能的特性を表さないイメージ構造であり、すなわち、画像内の表現は、いくらか歪められ、又は他の様態で不満足なものになっている。X線イメージングにおいて、そのような画像アーティファクトは、投影画像又は再構成画像内に存在する。イメージアーティファクトは、縞などのビーム硬化アーティファクト、カッピングアーティファクト、リングアーティファクト、部分ボリュームアーティファクト、不完全投影、光子不足、患者運動、らせん及び円錐ビームアーティファクトなどのうちのいずれか1つ又は複数を含む。MRIなどの他のイメージングモダリティは、化学シフト、ラップアラウンド、ギブズアーティファクト、金属アーティファクト、又はRFベースのアーティファクト、磁場不均一性などのような、他のアーティファクトを引き起こす。
【0054】
ノイズに関するIQは、例えば、使用されるX放射線のエネルギー、又は、検出器ハードウェアの不完全性に影響されることが多い。検出器ハードウェアによって導入されるノイズの量を規定するために、検出量子効率(DQE)が使用される。再構成アルゴリズムなどのいくつかのイメージ処理アルゴリズムも、それ自体でノイズを導入する。
【0055】
イメージプロセッサIPは、アーティファクト若しくはノイズが低減されているか、又は、コントラストが増大しているなどの、補正画像を生成することが可能である。例えば、イメージプロセッサIPの入力ポートIN’において受信されるものとしての、アーティファクトが乗っている可能性がある入力画像Xは、処理されて出力画像X’になり、出力ポートOUT’において出力される。イメージプロセッサIPによる動作は、アーティファクトが低減されるか又は完全に除去されるようにする。加えて、又は代わりに、造影剤がまったく存在しないか又はほとんど存在しない状態で取得される低コントラストイメージXは、イメージ補正プロセッサIPによって処理されて、よりコントラストの高いイメージX’にされる。
【0056】
出力画像X’は、適切な濃淡値又は色パレットにマッピングされ、その後、視覚化モジュール(図示せず)によってディスプレイデバイスDD上に視覚化される。
【0057】
したがって、イメージ補正プロセッサIPは、診断医が補正画像X’を使用することによって入力画像Xを適切に解釈するのを補助する。イメージプロセッサIPは、汎用コンピューティングユニット上で作動する。コンピューティングユニットPUは、イメージング装置又はイメージングリポジトリIRPに通信可能に結合される。他の実施形態において、イメージプロセッサIPは、イメージング装置IAに集積される。イメージングプロセッサIPは、ハードウェア若しくはソフトウェア、又はそれらの組合せの中に配置される。ハードウェア実施態様は、マイクロプロセッサ若しくはマイクロコントローラ、FGPA又は他の汎用回路要素などの適切にプログラムされた回路を含む。ASIC又はオンチップシステムなどのようなハードコード回路も、本明細書において想定されている。GPU(グラフィックスプロセッシングユニット)などの専用プロセッサも使用される。
【0058】
ここで、処理される画像の性質をより詳細に参照すると、これは、複数の数字を含む1D、2D若しくは3D又はさらにはより高次元(例えば、イメージの時系列)のデータ構造として概念化され得る。イメージングの基礎となるコントラスト付与メカニズムに応じて、これらの数字は、イメージングされる物理量又は現象の強度値を表す。数字は、本明細書においてはイメージ値として参照される。上記で参照したデータ構造は、1つ又は複数のn次元行列、又は「テンソル」を含む(n>3)。nの適切な値は1、2、3、4又はn>4である。イメージは、グレースケール又はカラーである。カラー画像は、RGB方式又は別の適切な符号化方式で符号化される。
【0059】
イメージ値は、空間的に2次元の構造を表すための行及び列i、jにおいて表される。空間的に3次元のイメージ値は、及び列i、j並びに深さ構成要素kとして表される。
【0060】
実施形態において、イメージは、行及び列i、jを有する2D構造において表されるが、実際には、イメージは、CT 3Dボリュームのスライス画像などの3次元ボリュームの断面又は部分空間を形成する。同様に、MRIボリュームも、3Dにおける断面である2Dスライス画像を含む。経時的に取得される2D又は3D画像が、それぞれ、取得時間を表す第3の構成要素又は第4の構成要素とともに、3D又は4Dイメージデータとして表される。
【0061】
画像は2D構造を表すが、時として、RGBにおいて符号化されるカラーイメージなどにおいて、より高次元の表現が依然として使用される。RGBイメージは、患者内の構造又は機能に対応する2つの空間次元i、jを有する3次元画像として表され、一方、もう1つの構成要素は、それぞれ、任意の所与のイメージロケーションi、jの赤色、緑色及び青色イメージ値を表す。言い換えれば、2Dカラー画像は、各々がそれぞれ所与のイメージロケーションの赤色、緑色及び青色イメージ値を表す3つの別個の2Dイメージの重ね合わせによって形成される3Dボリュームとして表される。
【0062】
したがって、経時的に取得される空間的に3Dのカラー画像は、このように、7次元テンソル、すなわち、3つの空間次元、色値の3つの次元、及び時間の1つの次元として表される。濃淡値イメージは、追加の深さ構成要素なしに表される。
【0063】
イメージデータに関連して、本明細書において使用されるものとしての「サイズ」は、行列又はテンソル内のデータ値(数字)エントリの数を指す。「次元」は、空間構成部の数を指す。例えば、ピクセル50x50を有する行列(例えば、画像)は、イメージ40x40又は50x40よりも大きいサイズを有する。両方が同じ次元を有する。3チャネルイメージ50x50x3は、50x50の2Dイメージよりも大きい次元(3D)を有する。3Dイメージはデータ点もより多くなるため、サイズもより大きい。
【0064】
ここで、コンピュータ化イメージングプロセッサIPをより詳細に参照すると、これは、実施形態において、事前訓練済み機械学習構成要素又はモジュールMLCを含む。事前訓練済み機械学習構成要素MLCは、事前訓練済み機械学習モデルTMを含む。人工ニューラルネットワークなどのような機械学習モデルTMは、下記により十分に説明するコンピュータ化訓練システムTSによって以前に訓練されている。訓練は、訓練データTDのセット(「コーパス」)に基づく。
【0065】
訓練データTDは、特に、履歴画像を含む。実施形態において、訓練データは、以前の患者から収集されている履歴X線、MRI、UV、PET/SPECT又は他のイメージを含む。訓練データのコーパスTDは、本明細書においては、一例として高及び低IQ画像の高コントラスト及び低コントラストイメージとして参照される2つのカテゴリのデータを含む。低コントラスト/高コントラストイメージなどの、低IQ対高IQの対は、本明細書においては、訓練システムTSの動作のためには必要とされない。本明細書において主に想定されていることであるが、イメージ内の高及び低コントラストは必ずしも、それらのイメージが取得されたときの、イメージング装置の視野(FOV)内に存在する異なる造影薬濃度によって引き起こされるとは限らない。低/高コントラストについて、イメージは、「合成的に」生成される代わりに、スペクトル又は二重イメージング技法を使用して生成される。特定的には、低/高コントラストイメージは、2つのクラスの低/高コントラストイメージを規定するための従来のCTイメージも提供するスペクトル走査において得られ得る低keVイメージを使用することによって生成される。
【0066】
加えて、又は代わりに、同じく、従来のCTイメージとともに、それぞれ高及び低コントラストイメージのインスタンスを提供するスペクトル走査において、ヨウ素マップも得られ得る。この場合、ヨウ素マップを、加算又は乗算によって低コントラストイメージと組み合わせることによって、相手方の高コントラスト画像が得られ得る。代替的に、ヨウ素マップは、マップをまず何らかの係数(制御パラメータ)と乗算し、次いで、ヨウ素マップ(乗算されている係数)を低コントラストイメージに加算することによって、低コントラストイメージとそのように組み合わされる。さらに代替的に、任意のモダリティの高コントラストイメージを、任意の又は同じイメージングモダリティの低コントラストイメージと見当合わせすることによって、造影イメージメンバを形成することも可能である。
【0067】
イメージ補正は、アーティファクト低減に関連し、したがって、訓練セットTDは、あるクラスのアーティファクトの乗ったイメージと、別のクラスのアーティファクトのないイメージ(又は深刻度のより低いアーティファクトを有するイメージ)とを含む。分類は、人間の専門家によって、又は、補助機械学習システムによって行われる。同様に、ノイズ低減に関するイメージ補正に関する実施形態について、高及び低IQ画像の2つのクラスは、高及び低ノイズ画像を含む。
【0068】
概して、訓練セットTDからのイメージは、本明細書においては、本明細書において主に参照される高及び低コントラストの2つのカテゴリにおける「訓練イメージ/画像」として参照されるが、下記は、他のタイプのIQについて明示的に想定される。
【0069】
機械学習モデルTMは、概して、訓練モード及び展開モードの2つのモードにおいて動作可能である。訓練モードは、展開モードの前に行われる。訓練モードは、1回限りの動作であってもよいが、繰り返し行われてもよい。より特定的には、機械学習モデルTMは、アーキテクチャと、アーキテクチャに従って構成されている複数のパラメータとを含む。これらのパラメータは初期化される。訓練システムTSは、訓練モード中、訓練されるべきモデルTMによって処理されている入力訓練画像に基づいてパラメータを調整する。1回又は複数回の反復においてパラメータが十分に適合されると、そのように事前訓練されたモデルTMはその後、展開において、上記で言及したようにイメージプロセッサIPの機械学習構成要素MLCにおいて使用される。展開モードにおいて、事前訓練済み機械学習モデルTMは、上記で言及したようにイメージアーティファクト/ノイズを低減若しくは除去し、又は、コントラストを増大させるために、受信入力画像を処理し得る。重大なことに、展開における入力画像Xは、訓練画像の一部出ない場合があり、結果、機械学習モデルTMは、前の入力画像を決して「見て」いない。適切な訓練後、機械学習モデルTMは、入力画像Xを(よりコントラストの低い)入力画像Xのよりコントラストの高いバージョンX’に、又は同様に他のIQメトリックについて変換することが可能である。
【0070】
図2のブロック図を参照して、ここで、提案されているコンピュータ化訓練システムTSの動作をより詳細に説明する。
【0071】
訓練システムTSは、1つ又は複数のコンピュータ可読メモリMEM内に存在する。コンピュータ化訓練システムTSは、汎用CPU回路、又は、好ましくは、1つ若しくは複数のGPU(グラフィックスプロセッシングユニット)などのような専用回路などの、処理装置PUによって実行される。訓練システムTSの構成要素は、単一のコンピューティングデバイス、又は、適切な通信ネットワーク内に接続されている分散若しくは「クラウド」アーキテクチャにあるサーバなどのようなコンピューティングデバイスのグループ上に実装される。
【0072】
機械学習は、機械学習モデルTMのパラメータを調整することを含む。機械学習又は訓練は、訓練システムTSによって実施される。モデルは、入力を処理して出力にすることが可能である。モデルパラメータは、訓練データTDのセットに基づいて、訓練システムTSの訓練コントローラTCによって調整/更新される。パラメータ調整又は更新動作は、最適化問題として定式化される。最適化問題は、1つ又は複数の目的関数Eに関して定式化される。パラメータは、目的関数を改善するように更新される。目的関数は、訓練コントローラTCによって実施される。目的関数は、コスト関数であり、パラメータは、コスト関数によって測定されるものとしてのコストを低減するように更新される。
【0073】
図2に示す動作可換図式を参照して、ここで、提案されている訓練システムTSの動作の原理をより詳細に説明する。この図式は、対象MLモデルTMの訓練に含まれる処理経路を示す。
図2に見られるように、処理経路は、その一貫性がコスト関数E=CC()によってチェックされる閉フィードバックループ又はサイクルを形成する。コスト関数CC()は、訓練システムによって使用される、コスト関数Eのシステムの一部E
jを形成する。コスト関数CCは、本明細書においては、サイクル一貫性チェッカ関数CC(x)(又は略して「チェッカ関数」)として参照される。コスト関数CC(x)によって処理可能な初期入力xは、訓練データセットTDから引き出されるイメージ標本を指す。言及したように、訓練データセットは、実施形態においては、例えばコントラスト補正画像及び非コントラスト補正画像などの、高コントラスト画像及び低コントラスト画像の、2つのクラス又はカテゴリのイメージを含む。「コントラスト補正イメージ」は、本明細書においては、造影イメージとして参照され、非コントラスト補正画像は、非造影イメージとして参照される。ここで、引き出される標本が造影イメージクラスに由来すると仮定すると、そのようなイメージは、そこでは
【数1】
として参照され、一方、非造影イメージクラスのメンバは、本明細書においては記号「x=I」(「バー」記号「-」なし)によって参照される。
【0074】
訓練システムTSは、まず、第1の変換(1)によって入力イメージ
【数2】
を低コントラストイメージIの推定値に変換する。次に、変換(2)が、この低コントラスト推定値をコントラスト強調又はコントラスト向上推定値
【数3】
に変換する。このイメージ
【数4】
から、そのようにサイクルを閉じることにおいて、第3の変換(3)が適用され、再び低コントラストイメージ
【数5】
が推定される。理想的には、この最後の推定値
【数6】
は、適用可能な誤差限界内で、初期入力イメージ
【数7】
と実質的に等しくなるはずである。出力イメージ
【数8】
が入力イメージに概ね類似するか又は等しくなるように、訓練システムTSがモデルパラメータを選択するのを促進するために、サイクルチェッカ関数CC(x)が訓練コントローラTCによってコスト関数として実施される。このサイクルは、
図2の中心において丸め誤差によって示されている。提案されている一貫性サイクルベースの学習は、良好でロバストな結果をもたらすことが分かった。上記で言及した変換(1)~(3)は、部分的に、コスト関数の制御下でパラメータが調整される機械学習モデルとして実施される。上記機械学習モデルは、対象のモデルTMを含む。好ましくは、上述した変換の少なくとも一部を実施するために、ニューラルネットワークタイプのモデルが使用される。特に、変換(1)、(3)は、機械学習モデルに基づき、一方、変換段(2)は、分析的に規定され得るか、又は、同じく機械学習モデルとして規定され得る。対象のモデルTMは、好ましくは、第1の変換(1)及び/又は第2の変換(2)を実施する。
【0075】
サイクル一貫性チェッカ関数CC(x)は、
図2において上述した変換経路(1)~(3)において生成される画像内のコントラストの量を測定するコントラストマップMに関して定式化される。上述したフィードバックループ又はサイクルは、近似可換図式を構成する。恒等関数は、3つの変換(1)~(3)の連結に関して近似される。コントラストを向上させるために対象のモデルTMを訓練することが所望されるにもかかわらずコントラストを低減するという、いくぶん直観に反する第1の変換は、訓練をより弾性的で、ロバストにすることが示されている。加えて、
図2の上記の可換構成を、好ましくはコントラストマップ駆動のサイクル一貫性チェッカ関数CC(x)と組み合わせて使用すると、コントラスト変化がローカルに計上され得ることが分かっている。特定的には、コントラスト補正は、実質的に、造影剤を表す記録画像内の領域に焦点を当てることができる。より特定的には、造影剤を表す領域は、訓練済みモデルTMによって、造影剤を表さない領域よりも強くコントラスト補正される。さらにまたより特定的には、実質的にそのような造影剤を表す領域のみがコントラスト補正され、一方、他の領域はコントラスト補正されず、したがって、実質的に変化しないままである。
【0076】
さらに
図2を参照すると、高及び低コントラストの2つのカテゴリからの画像を使用する代わりに、同じ原理が、高/低ノイズ、高/低アーティファクト寄与などのような、他のイメージ品質(「IQ」)メトリックに適用される。この場合、変換(1)がIQを低減する、すなわち、アーティファクト又はノイズを増大させるように作用する。
【0077】
したがって、
図2の可換図式は、IQ低減の反復サイクルにおける処理を表し、造影イメージなどの高IQクラスからの画像を処理するときに、増大する。入力イメージが低コントラストクラスから引き出される場合、訓練システムは、低コントラスト訓練入力イメージが、好ましくは変化せずに変換(1)~(3)を通過するように、パラメータを助長する。したがって、この図式における処理は、画像カテゴリに関して非対称である。
【0078】
コントラスト補正のために訓練される対象のモデルTMは、好ましくは、追加の相互接続されている機械学習モデル、及び、任意選択的に、これから参照される
図3のブロック図において、これからより詳細に説明される分析モデルとともに、訓練システムTSに組み込まれる。特定的には、
図3は、
図2の上述した原理の一実施形態を示す。
図3は、機械学習モデル及び任意選択の分析変換段(必ずしもMLによって実施されない)を含む複数の構成要素を示す。構成要素は、それらの入力及び出力の一部を、それらの相互接続によって形成される訓練システムにおいて相互接続され、組み込まれる。言及したように、モデルの一部は、ニューラルネットワークタイプMLモデルであるが、必ずしもニューラルネットワークタイプのものではない他の機械学習モデルも、本明細書において想定されている。
【0079】
特定的には、実施形態において、訓練システムTSは、本明細書においては生成器G1及びG2として参照される、生成タイプの2つのMLモデルを含む。加えて、弁別器DS及び分析変換器経路CBが存在する。訓練コントローラTCは、上記で言及したコスト関数E=CC、又は、上述した一貫性チェッカ関数CC()、及び場合によっては、下記により詳細に研究する1つ若しくは複数の正則化項Rを含むコスト関数Ejの系を実施する。コスト関数E、Ejは、モデルによって生成される出力を処理し、コントローラTCの更新器UTは、例えば、コストを低減するなど、目的関数を改善するためにモデルの現在のパラメータを調整する。調整は、反復的に進行する。
【0080】
動作時、訓練入力画像が、
図2において上記で言及したように、造影C(高コントラスト)画像のクラス及び非造影NC(低コントラスト)画像のクラスを含む訓練データTDのセットから引き出される。特に、クラスNC、Cに入るイメージが対にされる必要はない。クラスNC、Cからの訓練画像は、1つずつ又はまとめて訓練システムTSに適用され、複数の言及した構成要素によって、訓練出力を生成するために処理される。訓練出力は、コスト関数E、E
jによって評価され、チェッカCC()を含むコスト関数Eによって返されるコストに基づいて、停止条件が満たされるまで、訓練システムのパラメータが適合される。以下において、これがコスト関数E
jの系への参照であり得、特に、チェッカCC()関数、及び、場合によっては1つ又は複数の正則化項Rなどの他の項を含むという理解の下、単純に「コスト関数E」を参照する。
【0081】
図3の概略図における対象のモデルTMは、下記にさらに詳細に説明するように、第1の生成器G1及び分析変換経路CBを含む。対象のモデルTMは、実施形態において、残りの構成要素G2、DSと併せてともに訓練される、2つのモデルG1、CBを含む。対象のモデルTMは、その後、訓練が完了すると、展開中に処理される画像内のコントラストを補正する(増大させる)ための独立した機械学習モジュールとして後に使用され得る。この展開中の画像は、以前はシステムによって「見られて」いなかったため、特に、訓練データセットの一部ではない。訓練が完了すると、訓練システムの残りの機械構成要素、特に、弁別器DS及び他の生成器G2は、もはや必要とされないため、破棄され得る。訓練は、1回限りであり得、又は、必要に応じて、新たな訓練データが現れるときに繰り返し行われてもよい。後者の事例において、訓練が複数の段階において想定される場合、残りの構成要素D、G2は、将来の訓練実行のために保持されるべきである。
【0082】
生成タイプの2つのモデルG1、G2は、弁別器タイプのモデルDSから区別される。生成タイプのモデルは、未知の標本分布からサンプルを生成し、一方、弁別器は、2つのカテゴリ又はクラスの間の区別を可能にする。本明細書において想定されている好適な実施形態において、弁別器DS及び第1の生成器Gは、ともに、下記により詳細に説明する(グローバルな)訓練システムTSの敵対的に結合されたサブシステムを形成する。実施形態において、このML訓練サブシステムは、Ian Goodfellow及び共同研究者によって、arXiv:1406.2661v1の下でプレプリントとして公開されている2014年の論文「Generative Adversarial Networks」において記述されているMLのタイプである敵対的生成ネットワーク(「GAN」)を形成する。
【0083】
上述した構成要素モデルD、G1、G2の一部又は各々は、それらと関連付けられるそれら自体のコスト関数を有し、これらのコスト関数は、任意選択の正則化項とともに、コスト関数E
jの系を形成する。それらのコスト関数の一部は、サイクル一貫性チェッカCC()を含む。コスト関数のすべて又は一部は、例えば加法的に組み合わされて、1つの共通のコスト関数Eを形成する。
図2の一般原理についてもそうであるように、コスト関数は、好ましくは相互依存的であり、したがって、1つの構成コスト関数におけるコストの変化が、他の構成コスト関数の一部又はすべてによって返されるコストに影響を及ぼす。この相互依存性は、1つの構成要素のコスト関数が、それ自体のモデルのパラメータだけでなく、他のモデルの一部又はすべてのいくつか又はより多くのパラメータも参照するために、発生する。
【0084】
更新器UTによるパラメータの調整は、1回以上の反復を通じた訓練において進行する。調整は、共通のコスト関数Eを改善するために一度に進行するか、又は、構成コスト関数Ejの各々又は一部を一度に1つ(又は複数)、交互に改善するために、代わる代わる進行する。いずれにせよ、上述した機械学習モデルのパラメータの初期の又は現在のセットの調整は、全体的なコストを改善、すなわち低減するように行われる。全体的なコストは、訓練が別個に代わる代わる進行するか、又は、一度に進行するかにかかわらず、含まれる様々な構成コスト関数又は正則化項(存在する場合)による、すべての部分コストを加算したものである。
【0085】
ここで、訓練システムTSのGANタイプのサブシステム(G1、D)をより詳細に参照すると、第1の生成器G1及び弁別器DSは、敵対的に結合されているそれらのそれぞれのコスト関数を有する。特定的には、他のコスト関数のパラメータが一定のままであると仮定すると、第1の生成器G1及び弁別器DSのコスト関数は、ゲーム理論の意味におけるゼロサムゲームを実施する。2つのコスト関数の合計が一定であると考えられる。一方におけるコストの低減が、他方における損失となり、したがって、結果としてそのモデルの関連付けられるコストが増大する。
【0086】
さらにより詳細には、GANサブシステムにおいて、第1の生成器G1は、本明細書においては、コントラスト低減器CRなどのIQ低減器として参照される。これは、実施形態において、以下のように動作する。低減器CRは、訓練データセットTDから引き出される初期入力イメージxを入力としてとる。
図2において上記で説明したように、この入力イメージは、造影C又は非造影NCのいずれかである。入力イメージは、造影/高コントラストタイプCのものである場合、造影剤を表すイメージ領域を含む。低減器CR、G1はこのイメージ
【数9】
に対して、非造影クラスNCからの標本の複製を試行するように、コントラストを低減するように作用する。弁別器DSは、低減器CR’の出力、すなわち、コントラスト低減バージョンIを分析し、このイメージIを、造影C又は非造影NCの2つのクラスのうちのいずれか一方に属するものとして正確に分類するように試行する。したがって、第1の生成器G1/低減器CR及び弁別器DSの2つのコスト関数は、弁別器が、自身が正確に分類する確率を最大化し、一方、生成器が、弁別器による誤分類をもたらす出力を生成するように弁別器を「欺く」ように試行するように構成され、相互依存である。実施形態において、GANのコスト関数がどれだけ正確に定式化され得るかは、式(1、6)において下記にさらに説明される。
【0087】
GANネットワークのコントラスト低減出力Iは、その後、好ましくは代数的演算を使用する分析処理経路として構成されており、そのパラメータが機械学習中に調整されない合成器構成要素、合成コントラストエンハンサ又は「ブースタ」CBに供給される。代替的に、この構成要素CBもまた、そのパラメータが学習中に調整される機械学習構成要素として実装される。コントラストエンハンサCBは、コントラスト低減推定値Iを使用して、コントラスト強調又はコントラスト補正イメージ
【数10】
の推定値を計算する。この推定値におけるコントラストは、少なくともローカルには、初期入力イメージ
【数11】
以上に高い。高コントラスト推定イメージ
【数12】
は、処理のために第2の生成器G2に供給される。これに関連して、第2の生成器G2は、復元器として作用する。したがって、第2の生成器G2は、本明細書の以下の部分において、「復元器RS」として参照される。より特定的には、コントラスト補正推定値
【数13】
は、復元器RSによって、元の入力イメージ
【数14】
を復元しようとする試行において処理される。すなわち、復元器RSは、コントラスト強調イメージに対して、GANによって処理されているものとしての初期コントラスト補正イメージに類似するか又は等しいイメージ
【数15】
を生成するように動作する。したがって、復元器は、コントラストブースタCBの動作によってもたらされたコントラスト強調を無効にするように構成されている。訓練システムのコスト関数Eは、特に、i)弁別器DSによって生成されるものとしての分類結果、及び、ii)初期入力イメージ
【数16】
と復元器RSによって出力されるものとしてのイメージ
【数17】
の両方に基づいてコストを計算する。コスト関数Eは、i)弁別器が低減器CRの出力を正確に分類する場合はより低い部分コストを裁定し、ii)復元器RSの出力
【数18】
と初期入力イメージ
【数19】
との間の逸脱が小さいほど、低い部分コストを裁定する。部分コストii)は、一貫性チェッカ関数CC()によって測定される。
【0088】
同時に、訓練中に引き出される初期入力イメージxが低コントラストタイプのものである場合、GANネットワークは、理想的には、この低コントラストイメージIを本質的にそのままにする。特に、全体としての訓練システムは、非造影セットNCからの標本に対しては、入力イメージが訓練システムTSを通じて伝播している間に、入力イメージに理想的にはまったく変化を加えず、又は、わずかのみの変化を加える等値演算器として作用すべきである。
【0089】
さらに言い換えれば、訓練システムTSは、本質的に、非造影標本がシステムを通じてそのままで伝播することを可能にすることによって、等値演算器を近似する。しかしながら、造影入力画像については、訓練システム配膳として等値演算器を近似するが、これは初期入力及び出力に対してのみである。しかし、造影入力画像は、説明されたコントラスト低減サイクルにおいてシステムTSを通じて伝播するときに変化を被り、その後、ブースタCBによってコントラストを強調され、その後、復元器RSによってもう1度コントラストを低減される。造影及び非造影画像に関するこれら2つの非対称な処理モードは、上述したコスト関数としての一貫性チェッカ関数CCとともに、ロバストな学習及びローカルに焦点を絞ったコントラスト増大を可能にする。コントラストは入力画像の造影イメージ部分のみにおいて増大され、一方、イメージの残りの非造影部分は本質的にそのまま残される(所定の誤差限界内で)。局所的に焦点を絞った又は選択的なコントラスト補正は、コントラストがイメージ内のあらゆる箇所で補正されるために人工的に見えるイメージを生成する傾向にある他のコントラスト補正方式と比較して、より自然に見える造影補正画像を生成することを可能にする。そのような人工的に見えるコントラスト補正イメージは、臨床業務においては広く受け入れられない。
【0090】
訓練システムTSは、コスト関数に関して最適化動作を実施することが理解されよう。しかしながら、効用関数に関するそのような最適化の二重定式化が、同じく本明細書において想定され、したがって、これは、効用関数の最大化とコスト関数の最小化の両方が想定される実施形態である。この場合、目的は、本明細書において説明されているコストを低減することではなく、全体的な効用を増大させることである。しかしながら、コストと効用の両方に関する目的関数の定式化が、コスト関数の最適化に焦点を当てた以下の説明にかかわらず、代替形態として又は組み合わせて想定される。
【0091】
ここで、
図3の上述した訓練システムTSのGANベースの実施態様のさらなる詳細を示す
図4を参照する。
【0092】
コントラストC及び非造影NCの2つのカテゴリの訓練データセットからの訓練入力画像xが、セットTDからランダム又は決定論的スイッチSW1によって選択される。
【0093】
決定論的であるか又はランダムである任意選択の第2のスイッチSW2が、コントラスト低減器CRの出力を通じて、真正又はフェイクl_g、l_fのラベルへの弁別のために弁別器へとスイッチングする。
【0094】
コントラストブースタCBの分析変換経路は、図示のように代数的演算として実装される。より詳細には、代数的演算は、元の入力イメージ
【数20】
とコントラスト低減器CRによって生成されるコントラスト低減バージョンIとの線形結合を形成することを含む。さらにより詳細には、本質的に造影剤に由来するコントラストが、初期イメージ
【数21】
とコントラスト低減バージョンIとの間の点ごとの差をとることによって測定される。このコントラスト測定値は、その後、係数αによって線形スケーリングされ、その後、スケーリングされたコントラストが、初期造影イメージ
【数22】
に加算され、したがって、コントラスト強調推定値
【数23】
が構築される。その後、コントラスト強調推定値
【数24】
は、復元器RSによって、コントラスト低減器CRに入力されたものとしての元の高コントラスト入力イメージ
【数25】
を復元しようと試行するために処理される。元の入力イメージが非造影タイプNCから引き出される場合、ネットワークTSは、イメージが様々なネットワーク段階を通過するときに、イメージを本質的にそのままにする。いずれにせよ、コスト関数は、初期入力イメージxの近似コピーを、xが造影カテゴリから引き出されたか又は非造影カテゴリから引き出されたかにかかわらず、復元器RSの最後の段における出力としてもたらすモデルパラメータに向けた最適化の変換を促進するように構成されている(下記により詳細に示すように)。
【0095】
図4の左側の種々の処理経路は明確にするために破線及び実線で示されている。破線は、GANサブシステムにおけるプロセスフローを表す。
図4の左側部分の実線は、GANとブースタCBとの間のプロセスフローを表す。
【0096】
これまで説明してきた上記事項は、主に、訓練画像が訓練データセットから引き出され、訓練システムを構成する様々な機械学習モデルDS、G1、G2のパラメータを適合させるために処理される訓練段階における訓練システムの訓練態様及び動作に焦点を当てられている。
【0097】
ここで、1度完全に訓練されている第1の生成器G1、CR、及び分析的コントラストブースタ段CBを含む、対象のモデルTMの概略ブロック図を示す
図5を参照する。訓練が完了すると、残りの機械学習モデルDS及び第2の生成器G2=RSは破棄され得る。特定的には、訓練段階が完了すると、コントラスト低減器CRの現在のパラメータ及びコントラストブースタCBに対する命令が、所与のアーキテクチャにおいて、メモリにコピーされる。訓練済みモデルコントラスト低減器CR及びコントラストブースタは、ともに、コントラストエンハンサSIEの機械学習モジュールMLCの対象のモデルTMを形成する。この時点で、機械学習モジュールMLCは、展開又は試験中に、想定される画像コントラスト補正動作を実施するために使用することができる。
【0098】
展開又は試験中の動作において、入力イメージX(モデルCR、DS、RSがそれに対して訓練された訓練データセットからのものではない)が、この時点で訓練済みのコントラスト低減器
【数26】
(ここで波形記号「~」によって示す)において、任意選択的に、下記に詳細に説明するコンテキストデータCXBとともに受信される。入力画像X、及び、場合によってはコンテキストデータCXBは、その後、出力(図示せず)として現れるように訓練済みコントラスト低減器
【数27】
を通じた準備によってともに処理される。この出力は、初期入力イメージとともに、その後、コントラストブースタによって、コントラスト又は他のIQを補正した出力イメージ
【数28】
を生成するために処理される。コントラストブースタは、IQ補正出力イメージ
【数29】
を構築するために、線形結合を使用する。線形結合は、上述したような、ブースタパラメータβを含む。
【0099】
コントラストブースタパラメータβ(≧0)は、固定メタパラメータであるか、又は、タッチスクリーン、キーボード、又は、入力を供給するための任意の他のユーザインターフェースなどの適切なユーザインターフェースUIによって、ユーザによって調整される。コントラスト補正イメージ
【数30】
などのIQ補正イメージは、必要に応じて、さらに処理され、記憶され、又は、視覚化構成要素(図示せず)によってディスプレイデバイスDDに表示される。
【0100】
ここで、生成器G1に使用され得る人工ニューラルネットワークタイプ(「NN」)アーキテクチャを示す
図6を参照する。以下の説明は、第1の生成器G1=CRに焦点を当てているが、同じネットワークセットアップが、第2の生成器G2にも使用される。概して、想定されているNNタイプアーキテクチャは、(概して非イメージ)コンテキストデータCXDのための任意選択の処理経路を有するマルチスケール畳み込みネットワークである。コンテキストデータ処理設備は、第2の生成器G2には必要ないが、必要に応じて、依然として実装され得る。
【0101】
ここで、提案されている対象のモデルCR及び
図6をより詳細に参照すると、これは、訓練入力画像xを、
【数31】
が造影クラスのイメージである場合に、コントラストを低減した訓練出力イメージCR(x)に変換するように構成されている。そうでない場合、CR(x)はxに等しいか、又は、ほぼ等しい。したがって、CRは(擬似)等値演算器として作用する。
【0102】
好ましくは、訓練入力画像の次元及びサイズが保持される。すなわち、訓練入力画像の次元、及び、好ましくはサイズ(数字又は行及び列など)は、出力OUTにおいて供給されるものとしての訓練出力イメージI’の次元及びサイズに対応するか、又は、等しい。
【0103】
しかしながら、訓練入力画像xの処理中、訓練入力画像xは、まず、低減器G1、CRの符号化器構成要素ENCによって、より次元の低い表現χに変換される。加えて、サイズも低減される。訓練入力画像のこのより次元の低い及び/又はサイズの小さい中心中間表現χは、入力イメージxの低減バージョンである。この表現は、モデルCRの最終出力を形成しないという意味で「中間」である。これは、処理中に対象のモデルCR内に形成されるという意味で「中心」である。中心表現χは、その後、最終的に、訓練出力イメージCR(x)の次元及び/又はサイズが訓練入力イメージxの次元及び/又はサイズに一致するように、中心表現の次元/サイズを増大させるように、符号化器ENCと直列に配置されている復号器DEC構成要素によってアップサンプリングされる。したがって、このアーキテクチャは、オートエンコーダの一種である。
【0104】
より次元の低い及び/又はより小さいサイズの表現χはまた、本明細書において「コード」としても参照される。したがって、符号化器ENCは、受信訓練入力画像xを「符号化」し、一方、復号器DECは、そのコードχから、元の訓練入力イメージxと同じ次元及び/又はサイズを有する訓練出力イメージCR(x)を復元又は「復号」するように動作可能である。符号化器ENCが、過剰決定表現を促進するために入力画像xのものよりも大きいサイズ及び/又はより高い次元のコードを生成する実施形態も存在する。この代替的な実施形態において、符号化器ENCは、より高い次元及び/又はサイズにおいて、ただしより高い疎度においてコードχを生成する。特に、Freiman、Moti、Ravindra Manjeshwar、及びLiran Goshenによって「Unsupervised abnormality detection through mixed structure regularization (MSR) in deep sparse autoencoders」Medical Physics、46(5)巻、2223~2231ページ、(2019)に記載されているように、過剰決定及び疎コードを促進するために、正則化メカニズムが使用される。
【0105】
実際に好適な実施形態において本明細書において想定されているように、ニューラルネットワークセットアップが使用される場合、ネットワークCRは、上記で言及したようなオートエンコーダニューラルネットワークとして実装される。
【0106】
訓練データTDは、イメージデータを含むだけでなく、それぞれの訓練イメージと関連付けられる非イメージコンテキストデータCXDも含む。コンテキストデータCXDは、イメージングパラメータ、すなわち、場合によっては、取得及び/又は再構成パラメータを含む。訓練中にコンテキストデータも訓練システムTSに供給される場合、これらは、イメージデータとともに最適化される。下記により十分に説明するように、非イメージコンテキストデータCXDは、再成形器モジュールRSHによって適切な「擬似イメージ」に再成形する必要があり、擬似イメージは、その後、それらが関連付けられる、それらのそれぞれの訓練画像とともに処理される。
【0107】
ニューラルネットワークセットアップがコントラスト低減器CRについて想定される場合、深層学習ネットワークが好適である。実施形態において、そのような深層学習ネットワークは、これより引き続き
図6を参照してより十分に説明するような、それぞれの入力層INと出力層OLとの間に1つ又は複数の(好ましくは少なくとも2つの)隠れ層を有するニューラルネットワークを含む。
【0108】
このブロック図は、本明細書においてマルチスケール処理を有する畳み込みニューロネットワーク(CNN)内のオートエンコーダとして提示されている対象のモデルCRのより多くの詳細を提供する。
【0109】
訓練入力データxは、本明細書においてはイメージングストランドSIとして参照される処理経路において処理される。任意選択的に、訓練が非イメージコンテキスト訓練データCXDも含むことになる場合、これは、再成形器RSHを含む別個の処理ストランドSPにおいて処理される。コンテキストデータCXDは、再成形器RSHによって処理されて、それらのそれぞれの訓練イメージデータと融合される擬似イメージになる。
【0110】
しかしながら、
図6の対象のモデルCRのニューラルネットワークアーキテクチャをより詳細に説明する前に、まず、さらなる説明を容易にするために、いくつかの人工ニューラルネットワーク概念を紹介する。
【0111】
広範には、対象のモデルCRのNN構造は、少なくとも部分的に相互接続され、異なる層L内に配置構成されている複数のノードを含む。層Lは、1つ又は複数のシーケンス内に配置構成される。各ノードは、値を仮定することが可能なエントリであり、及び/又は、先行する層Lの1つ又は複数のノードから受信される入力に基づいて出力を生成し得る。
【0112】
各ノードは、単純なスカラー値(ノード重み)であり得るが、より複雑な線形又は非線形関数でもあり得る特定の関数と関連付けられる。2つの異なる層内のノード間の「接続」とは、後続の層内のノードが先行する層内のノードから入力を受信し得ることを意味する。2つのノード間に接続が定義されない場合、2つのノードのうちの一方の出力は、他方のノードによって入力として受診され得ない。ノードは、その関数を入力に適用することによって、その出力を生成する。これは、受信入力と、ノードの(重みの)スカラーチとの乗算として実施され得る。異なるノードからの2つ以上の入力が、後続の層内のノードによって受信される。複数の異なる入力は、連結関数gによって連結されて、連結値を生成し、この連結値に、受信側ノードがそれ自体の関数fを適用して、ノードの出力を生成する。例えば、gは、先行するノードからの受信入力を積(例えば、ドット積)の和にマッピングし、その後、ノードの関数fが上記積の和に適用される。
【0113】
接続は、それ自体の重み(「接続重み」)を有する。重みは、その接続に沿って進行する出力を重み付けするために使用される。連結された関数は、接続重みを使用して所与のノードのすべての受信入力を組み合わせて、連結ドット積出力を生成する。層間の接続は、固定であるか、又は、処理中に変化する。いくつかの層は、完全に接続され、一方、他の層は完全には接続されない。後続の層内の各ノードが前の層のすべてのノードと接続される場合、2つの層は完全に接続されている。畳み込み層などの、部分的に接続されている層においては、後続の層内のすべてのノードが先行する層内のすべてのノードに接続されてはいない。
【0114】
所与の層のすべてのノードの出力は、本明細書において「層の出力」として参照され、先行する層から受信される入力は、本明細書において「層の入力」として参照される。
【0115】
各層は、2次元、3次元、又はより高次元の行列として表される。次元が3次元以上である場合、行列は一般的にテンソルとして参照される。ノードは、それらの行列又はテンソル内のエントリとして実装される。各層は、サイズ(行i及び列j)、深さk(1より大きい)、及び、場合によってはさらなる次元を有する。代替的に、サイズ、深さ、及び1つ又は複数のさらなる次元は、行列又はテンソル以外のデータ構造によって実現される。
【0116】
ニューロネットワーク構造の対象のモデルCRは、1つ又は複数の初期入力層IL及び1つ又は複数の最終出力層OLを含む。初期入力層ILは、それぞれ、ノードに値をデータ投入することによって、又は、さらなる処理のために最終結果を提示することによって、初期訓練イメージI、及び、任意選択的に、コンテキストデータCXDが受信される場所である。
【0117】
層Lは、
図6に示すように、深層アーキテクチャ内に配置される。このアーキテクチャは、出力層OLと入力層ILとの間に1つ又は複数の隠れ層を含む。隠れ層の数が、ネットワークMの深さを規定する。例えば、いくつかの実施形態において想定される単一の隠れ層は、深さが「1」であることを意味する。しかしながら、好ましくは、少なくとも2つの隠れ層が使用される。好ましくは、4つ、6つ以上などの、偶数の隠れ層が存在する。隠れ層において先行する層から受信される入力は、中間入力として参照され、一方、後続の隠れ層に渡される、隠れ層によって生成される出力は、中間出力として参照される。
【0118】
概して、モデルCRのNNアーキテクチャにおいて、訓練入力イメージなどの訓練入力データIMが、初期入力として1つ又は複数の入力層ILにおいて適用される。データはその後、データ(イメージIM又はパラメータIP)が連続して層を通過するときに、連続して変換される。各層において、その後、次の層などの中間入力としての役割を果たす中間出力が生成され、各時点において、それぞれの層は、最終結果が1つ又は複数の出力層OLに現れるまで、それに演算を適用することによって、受信中間入力に作用する。本明細書において想定されているNNアーキテクチャは、好ましくは、上述したように、データが層から層へと前方に伝播するフィードフォワードタイプのものである。代替的に、1つ又は複数の層が処理中に再訪されるリカレントアーキテクチャも、本明細書において想定される。
【0119】
異なるタイプの層Lは、異なる関数を有し、したがって、異なる演算を適用する。ここで、まず、一部又はすべてが本明細書において異なる組合せ及び部分組合せにおいて想定されている、異なるタイプの層を論じることとする。
【0120】
本明細書において想定されているNN層タイプは、
図3に示すような完全接続層FC、畳み込み層C、逆畳み込み層D、アップサンプリング層(「↑」)、ダウンサンプリング層(「↓」)、活性化層Rのうちのいずれか1つ若しくは複数、又はすべてを組み合わせて含む。層タイプは、ユニットにグループ化されて、各スケールレベルsの、様々な動作ユニットを形成する。例えば、逆畳み込み又は畳み込み層は、アップサンプリング又はダウンサンプリング層及び活性化層と組み合わされる。例えば、
図3の表現「C,↓,R」は、畳み込み層C、後続するダウンサンプリング層↓、及び、次いで後続する活性化層Rとして連続して配置構成されている層のグループを示す。層を2つ、3つ、又はそれ以上の層から成るそのようなユニットにグループ化することには、行列/テンソル及び行列/テンソル乗算として表現されるときには実現上の利点があり得るが、グループ化は、必ずしもすべての実施形態において想定されるとは限らない。
【0121】
ここで、活性化層Rをより詳細に参照すると、これは、ロジスティックベースのシグモイド関数、arctan、softmax、整流関数(x+=max(x,0))などを含む、任意の非線形関数を使用して実装される。整流関数を実施する層は、整流線形ユニット(ReLU)と呼ばれる。活性化層Rは、MLCが非線形パターンをキャプチャすることを可能にするための非線形性を導入するために各ノード内の値に適用される非線形関数を実施する。(中間)入力層のサイズは、整流層Rによって保持される。層Rは、これが閾値を下回る場合に入力を除去又は軽減するための「重要性フィルタ」としての役割も果たす。ノードからの入力は、完全に無効にされ、したがって、接続が存在するにもかかわらず、次の層にまったく転送されない。このとき、ノードは「点火」しないと言われ、このイベントは、その後、次の層に「ゼロ」を転送することによって記録される。所与の構成内の点火しないノードの割合は、MLCの疎度として表現される。
【0122】
ReLUに加えて、又はその代わりに、実施形態において、ドロップアウト層が使用される。これらの層も、2つの層のノード間の接続をランダムに相殺することによって非線形性を導入する。
【0123】
次に、完全接続層FCを参照すると、MLC内の本明細書において想定されている層は必ずしも完全には接続されないが、実施形態において、ネットワークMLCは2つ以上の完全接続層を含む。完全接続層は、上記
図6においてFCとして示されている。完全接続層FCは、各ノードがその活性化関数及び重みと関連付けられる、より従来的な非畳み込みNN構成要素を表す。各ノードの活性化関数は、別個の動作層に編成される。全般的な導入において上記で説明したように、FC内の1つの層内の各ノードは、接続のそれぞれの重みに従って各々が重み付けされた、前の層内のすべてのノードからの入力を受信する。この総入力が、その後、活性化関数層によって合計され、評価される。活性化関数層は、後続の層内のノードに渡されるノード出力を生成するために、それぞれのノードの重みに適用される。FCを使用することの利点は、より複雑な非線形パターンをモデル化することである。
【0124】
畳み込み層C及び逆畳み込み層D(並びに/又はアップサンプリング及びダウンサンプリング層)は、非完全接続層の例である。より詳細には、これらの層は、先行する層のすべてのノードに完全には接続されない。加えて、接続は、先行する層からの(中間)入力を処理するときに変化する。
【0125】
畳み込み層Cにおいて、中間出力の各ノードは、畳み込み層を、先行する層のノードのサブグループと畳み込み、したがって、すべての可能な接続のサブセットのみを含むことによって得られる。その後、接続は、次の中間出力層のノードの新たなグループを選抜するために再定義され、これは、(中間)入力層全体が処理されるまで継続される。
【0126】
畳み込み層Cは、好ましくは中心位置を有する3x3又は5x5などの奇数のサイズを有する行列として構造化される。畳み込み/逆畳み込み層はまた、それが適用されるべきである中間入力の深さに対応する深さも有する。
【0127】
畳み込み/逆畳み込み層のサイズは、概して、それが作用する中間入力のサイズよりも小さい。ちょうど従来の畳み込みと同様に、畳み込み層は、概念的に、その(中間)入力層の上をスライドすると考えられ、フィルタリング済みノードを(中間)出力として生成するために異なるノードグループに選択的に適用される。畳み込み演算自体は、畳み込み層のノード及び/又はその中間入力層内の即時グループ内のすべてのノード間の積の和を形成することを含む。フィルタリング済みノードは、畳み込み層の奇数サイズ行列の中心ノードである。
【0128】
畳み込み層の処理において新たなノードグループにシフトすることは、概念的に、それぞれ、各グループノードの(中間)出力を生成するために、畳み込み層Cに、(中間)入力の上を幅=n(nは自然数)でスライドさせることとして理解される。幅は、各シフトの程度を示すCNNの設計パラメータである。例えば、幅n=1は、次の(中間)出力ノードの値を得るためにその値が畳み込まれることになる次のノードグループの接続を再定義するときに、層Cを実効的に1ノードだけシフトさせることによって、新たなグループが得られることを意味する。幅n=2の場合、ノードの1つの列又は行がスキップされ、したがって、n>2の場合である。上述したスライディングウィンドウ手法の代わりに、畳み込み層によって処理されることになる入力層は、代わりに、複数の部分(タイル)に分割され、これらの各々はその後、別個に、畳み込み層と畳み込まれる。
【0129】
畳み込み層が、それが作用するその中間入力層の最外ノードを越えて延在する場合、ゼロ詰めが使用される。畳み込み/逆畳み込み層は、説明したように連続して適用され、又は、中間入力層の全体において並列に適用される。
【0130】
逆畳み込み層Dは、本質的に、畳み込み層Cによって引き起こされる畳み込みの逆演算である。畳み込み層は、最初に、ピクセルから漸進的により高いレベルの特徴へとマッピングするが、逆畳み込み演算は、特徴をピクセルにマッピングし戻す。機能的には、逆畳み込みは、その後合計される、上述した畳み込み層において使用されているものとしての畳み込み演算に関して定式化され得る。例えば、M D Zeiler他「Adaptive Deconvolutional Networks for Mid and High Level Feature Learning」、2011 International Conference on Computer Vision、バルセロナ、スペインの節2を参照されたい。逆畳み込み層Dはまた、適切な深さを有する行列としても表される。
【0131】
したがって、畳み込み及び逆畳み込み層は、概して、それらの(中間)入力のサイズを保持する。
【0132】
ダウンサンプリング層は、畳み込み/逆畳み込み層C、Dと同様に構造化されるが、それらはその入力データに対して別様に作用する。ダウンサンプリング/アップサンプリング層(本明細書においては単純に「ダウンサンプラ」又は「アップサンプラ」としても参照される)は、奇数又は偶数サイズである。ダウンサンプリング層は、後続の出力層の単一のノードを生成するために、先行する層内のノードグループと一緒になり、したがって、(中間)入力層の空間(より少ない行及び/又は列)を縮小する。これは、平均を形成することによって、又は、カバーされるノードグループから最大/最小値又は何らかの他の指定値を選ぶことによって行われ得る。グループのサイズは、ダウンサンプリング層のサイズに対応する。
【0133】
アップサンプラは、ダウンサンプラに対して擬似逆に作用し、その出力において、好ましくは入力ノードの間を補間することによって、より大きいノードセットを生成する。畳み込み/逆畳み込み及びアップサンプリング/ダウンサンプリング機能は、同じ層内に組み合わされる。例えば、畳み込み及びダウンサンプリングは、2又はそれ以上などの、1よりも大きい幅による畳み込みとして達成される。同様にして、逆畳み込みは、アップサンプリング機能と組み合わされる。
【0134】
さらなる層タイプは、バッチ正規化層Bを含む。これらの層は、前の層内の勾配の正規化を実施する。この正規化は、勾配飽和を防止又は低減する。勾配飽和において、勾配の大きさが、反復中に過度に急速に低減する。同様のバッチ正規化層が、Sergey Ioffe他によって、「Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift」、available online T arXiv:1502.03167v3 [cs.LG] 2 March 2015において説明されている。
【0135】
ここで、引き続き
図6を参照して、対象のモデルTMのイメージングストランドSIにおけるイメージデータの処理をより詳細に説明する。概して、イメージストランドSIにおいて、復号器段DEC内のアップサンプリング層の数は、符号化器段ENC内のダウンサンプリング層の数に対応する。一実施形態において、SIの符号化器ENCは、3つのダウンサンプリング構成要素を含み、復号器DECは、3つのアップサンプリング構成要素を含む。同じことが、畳み込み/逆畳み込み層C、Dにも当てはまる。
図6において、層Lはユニットにグループ化される。このグループ化は、実際的というよりも、概念的なものである。
図6のグループ化の論理は、各ユニットがダウンサンプリング又はアップサンプリングを引き起こすことである。
【0136】
一般に、いくつかの実施形態において、符号化器ENCの最後の層L(ReLUを除外する)は、低次元表現CRに到達するためのダウンサンプラ↓であり、この後、復号器セクションDECにおいて少なくとも1つのアップサンプラ↑が後続する。符号化器ENC内の最後の層の下流の層は、エントリを有する2以上の次元の行列の形態の中心表現CRを提供する。存在するゼロ又は無視できるエントリが多いほど、コードCRは疎になり、これは好適である。より一般的に、符号化器ENDセクション内には少なくとも1つのダウンサンプラが存在し、復号器DECセクション内には少なくとも1つのアップサンプラが存在する。この「ボトルネック」構造は、モデルCRのオートエンコーダベースの実施形態において符号化/復号原理を実施することを可能にする。代替的に、必ずしも空間アップ/ダウンサンプリングが存在せず、代わりに、下記にさらに説明される、疎度ベースの正則化が使用される、AEアーキテクチャの過剰決定変形形態も本明細書において想定される。代替的な実施形態において、そのようなボトルネックは存在せず、コードCRが訓練入力イメージI及び訓練出力イメージI’よりも高い空間次元を有する過剰決定表現を達成するように、符号化器ENCが、1つ又は複数のアップサンプリング動作を実施し、その後、復号器が、対応する数のダウンサンプリング動作を実施する。過剰決定実施形態を有するこのオートエンコーダ実施形態は好ましくは、下記により詳細に説明するような、正則化機能による疎度補正とともに使用される。
【0137】
加えて、符号化器ENCセクション内の少なくとも1つの畳み込み層C及び復号器DECセクション内の少なくとも1つの逆畳み込み層Dが存在する。符号化器段ENC内の畳み込み及びダウンサンプラの順序は、好ましくは、畳み込みが最初であり、次にダウンサンプリングであるが、これは必ずしも、すべての実施形態においてそうであるとは限らない。同様に、復号器DECセクションにおいて、最初に逆畳み込み、次にアップサンプリングがあるが、この順序も、いくつかの実施形態においては逆になる。
【0138】
確かに、処理セクションENC及びDECは、概念的に逆であるが、概して単位元をもたらさず、したがって、ENC-1≠DECである。
【0139】
実施形態において、SIの符号化器ENCは3層ユニットを含む。各ユニットは、連続的に、畳み込み演算子、後続するもう1つの畳み込み、ダウンサンプリング及び整流Rを含む。代替的な実施形態において、代わりに、3つよりも多い又は少ないそのようなユニットが使用される。
【0140】
実施形態において、復号器セクションDECにおいて、畳み込み層Cは、nxnxd(又はより大きい)のサイズを有し、好ましくは各々に整流線形ユニット(ReLU)が後続する。空間次元は、3、5などのような任意の適切な数であり得、一方、深さdは、再成形器ストランドSPに関連して下記により詳細に説明するように、再成形コンテキストパラメータCXDに必要とされる色チャネル(存在する場合)及びチャネルの数の関数である。2つ以上の畳み込み層Cが、スケールを変化させるために使用される。各スケールの最後の畳み込みは、ダウンサンプリング/ダウンスケーリングのために幅2によって行われる。
図3の実施形態において、DEC及びENC内に3対のアップサンプリング動作及びダウンサンプリング動作が存在するため、3つの特徴スケールが実現されるが、代替的な実施形態において、より多くのスケール又はより少ないスケールも想定される。
【0141】
ストランドSIの復号器DECセクションは、符号化器セクションENCの構造を相補的に反映し、対応して、同じ数のユニットを含むが、各ユニットにおいて、畳み込みの各発生は逆畳み込み層に置き換えられ、ダウンサンプリング層の各発生は、アップサンプリング層に置き換えられる。復号器DEC内の最後の下流の層は、好ましくは、最終出力がゼロノードも許容することを保証する。そうでなければ、先行する活性化層Rのために、ゼロよりも大きい値に制限される。この最後の層は、図示のように、最終復号結果を提供するための追加の畳み込み層Cとして実装されるが、これは任意選択である。好ましくは、この最後の畳み込みはサイズ1x1x1を有する。
【0142】
実施形態において、復号器DEC3x3x3(又はより大きいフィルタ)において、逆畳み込み層Dが使用され、好ましくは各々に整流線形ユニット(ReLU)が後続する。2つ以上の逆畳み込み層Dが、符号化器ENCにおいて変更されたものとしてのスケールを元に戻すために使用される。各スケールの最後の畳み込みは、アップサンプリング/アップスケーリングのために幅2によって行われる。復号器DECセクション内のスケールの数は、通常、符号化器ENCセクション内のスケールの数に等しい。
【0143】
好ましくは、ただし必ずしもすべての実施形態においてではないが、スケールs内の各層内の畳み込みフィルタの典型的な数は(23)scであり、s=1,2,3,...はスケール(入力スケールは1に等しい)であり、cはネットワーク制御パラメータであり、通常、c>1である過剰決定設定において最良の性能が得られることが分かった。
【0144】
SIの2つのセクションDEC及びENC内の機能層の他の組合せ又は他の構成も本明細書において企図されるが、好ましくは、2つのセクションDEC、ENCにおけるアップサンプリング層及びダウンサンプリング層並びに/又は畳み込み層及び逆畳み込み層の数は、それぞれ同じである。
【0145】
任意選択的に、ユニットの一部又は各々は、畳み込み層C又は逆畳み込み層Dと活性化層Rとの間に配置された1つ又は複数のバッチ正規化器Bを含む。
【0146】
ここで、任意選択の再成形器RSH、及び、例えば、イメージングパラメータ、取得パラメータ、又は患者記述データ(年齢、性別、患者病歴など)が処理される、コンテキストデータ処理ストランドSPにおける非イメージコンテキストCXDの処理を、より詳細に参照する。再成形器ストランドSPは、実施形態において、3つの隠れ層を含む。特定的には、連続的に、完全接続層FC、それに後続する整流層R、それに後続する第2の完全接続層FCが想定される。代わりに、単一の完全接続層が使用されてもよく、又は、4つ以上の隠れ層、特に、3つ以上のFCが使用されてもよい。
【0147】
機能的には、イメージングパラメータストランドSIは、イメージングパラメータのセットの再成形器として作用するように構成されている。言い換えれば、ストランドSPの出力OLにおいて、その入力層ILにおいて受信されるコンテキストデータCXDに基づいて、「擬似イメージ」が形成される。イメージングパラメータは、入力イメージIMに等しいサイズを有する行列/テンソルに再フォーマットされる。この擬似イメージは、次いで、矢印fL(又は「供給線」)によって示すように、SIストランドの入力層ILにおいて受信される初期イメージデータIMと融合される。
【0148】
畳み込み層は、一定の深さを有し、多次元層に対して作用し得る。畳み込みの深さは、処理されるべき画像のチャネルの数に対応する。例えば、カラーイメージに適用される畳み込み層は、3つの色チャネルRGBの各々にサービスするように、3の深さを有する。3つの層の各々における畳み込み動作は、チャネル毎に異なる。
【0149】
実施形態において、再成形イメージパラメータ(すなわち、擬似イメージ)を追加のチャネルとして訓練入力画像Iに含め、SIセクション内の畳み込み/逆畳み込み層を、再成形イメージパラメータである擬似イメージを処理するように構成されている追加の深さを有するように構成することが、本明細書において提案される。この意味において、イメージングパラメータ及びI内の実際のイメージデータは、多次元複合イメージに融合され、ここで、イメージングパラメータは、追加の次元又は層として実際のイメージデータに含まれる。これによって、複合イメージが、その深さがイメージデータIの実際の次元+イメージングパラメータIpの1つ(又は複数)の次元に対応するマルチチャネル畳み込み/逆畳み込み層によって処理されることが可能になる。
【0150】
実施形態において、再成形器RSHは、最後の完全接続層FCの出力を、本明細書においては「イメージングパラメータボリューム」又は「擬似イメージ」と呼ばれる1つ又は複数の行列、ボリューム又はテンソルの表現に再成形する。各イメージングパラメータボリュームのサイズは、入力イメージIのサイズに等しい。イメージングパラメータボリュームは、追加のチャネルにおいてイメージングストランドISに供給される。追加のチャネルの数は、再成形器ストランドSPによって生成されるイメージングパラメータボリュームの数に対応する。イメージストランドSIへの供給は、最後の完全接続層FCの各出力値を別個のイメージングパラメータボリュームにデータ投入することによって行われ、各事例において、それぞれのボリューム全体が同じ出力値によっていっぱいになる。非イメージデータCXDを有する融合イメージデータVの他の実施形態も想定される。上述したマルチチャネル技術をCNNのコンテキストにおいて使用することは、ほんの一実施形態に過ぎない。しかしながら、より一般的なNN又は非NNコンテキストにおける上記融合技法の同様の適用も、本明細書において想定されている。
【0151】
再成形器ストランドSPの入力層に適用されるものとしてのイメージングパラメータは、1次元又はより多くの次元において表される。イメージングパラメータは、好ましくは、適切な数値フォーマットに符号化されるか、クラスから数値へとそのようにマッピングされる。イメージングパラメータは、1つ又は複数のベクトル又は行列として、ネットワークCRのストランドSP内の入力層ILにおいて提供される。ベクトル若しくは行列、又は実際には一般的にテンソルの次元は、イメージデータIMの次元に等しい。
【0152】
図6に示すものと同様のアーキテクチャが、コントラストブースタCB=G2にも使用される。
【0153】
前述したように、NNは、本明細書において必須要件ではない。例えば、DSは、サポートベクタマシンSVM、k最近傍法、又は、決定木若しくはランダムフォレストなどのような任意の他の分類器セットアップとして実装される。2つの生成器が、異なるNNとして実装されるか、又は、一方がNNモデルとして、他方が非NNとしてモデルとして実装される。本明細書において想定されている生成器G1、G2のいずれか一方又は両方の非NNタイプMLモデルは、変分オートエンコーダ、ボルツマンマシン、ベイズネットワークなどを含む。
【0154】
ここで、イメージ補正のためのコンピュータ実施方法の流れ図を示す
図7を参照する。本方法は、少なくとも2カテゴリイメージ訓練データセットTDに基づいて、上述した訓練システムTSのいずれか1つによって訓練されているものとしての、機械学習モデルG1=CRに基づく。GANセットアップが使用されるが、これは本明細書において必須ではない。
【0155】
ステップS710において、新たなイメージ(データセットTDの一部でない)が事前訓練済み機械学習モデルに供給される。新たなイメージXは、例えば、X線イメージング装置によって取得されている。好ましくは、イメージXは、造影剤(患者に先行して投与されている)がX線イメージング装置の視野(FOV)内に存在している間に取得されている。
【0156】
機械学習モデルCR、CBは、供給されたイメージXを処理して、ステップS720において、IQ補正イメージ
【数32】
、例えば、コントラスト補正イメージ
【数33】
を計算する。コントラスト補正イメージ
【数34】
が出力される。コントラスト補正イメージ
【数35】
は、ディスプレイデバイスに表示され、記憶され、又は他の様態で処理される。
【0157】
特に、補正イメージ
【数36】
内のコントラストは、入力イメージX内のコントラストよりも高い。実施形態において、事前訓練済み機械学習モデルは、機械学習段及び分析段の2つの部分を含む。それらの部分は連続的に動作する。機械学習段は、上述した訓練済みコントラスト低減器CR、G1、上述したコントラストブースタCBなどの、後続する分析段を含む。最初に、コントラスト低減器CR、G1が、入力イメージXのコントラストを低減して、コントラスト低減イメージを生成する。初期イメージ及びコントラスト低減イメージに基づいて、入力イメージにすでに存在するレベルのコントラスト分布が推定される。そのように推定されたコントラストは、その後、コントラストブースタCBによって線形的に又は非線形的に増幅(「強調」)される。線形的に作用する実施形態において、コントラストブースタCBは、乗算的に、点ごとにコントラスト推定値に適用される増幅器係数βを含むように構成されている。そのように増幅されたコントラストは、その後、元の入力イメージXに加えられて、コントラスト補正イメージ
【数37】
が得られる。増幅器又は強調係数βは、固定であるか、又は、ユーザが調整可能である。
【0158】
機械学習モデルの動作の結果として、コントラスト補正イメージ
【数38】
の補正コントラストはグローバルではなく、ローカルに焦点を絞ったものである。特定的には、コントラスト補正は、すでに造影剤を表すイメージ部分においてより顕著である。したがって、機械学習モデルのステップS720における補正動作は、コントラストを表すそれらの1つ又は複数の領域においてのみ、コントラストを増大させることになる。他の画像領域は、(適用可能なマージン内で)変化せずに残されるか、又は、そのような領域においてコントラストが依然として補正される場合、これは、入力イメージXの領域内のコントラストを表す領域内よりも低い程度まで行われる。
【0159】
上述したローカルに焦点を絞ったコントラスト補正は、少なくとも部分的に、訓練を制御するための目的関数の一部としてのサイクル一貫性チェッカ関数の使用を含む、機械学習部分CRが訓練された様式に起因する。同様の、ローカルに作用する補正が、アーティファクト又はノイズなどの他のIQメトリックについて得られる。
【0160】
Xが、造影剤/薬がFOV内に存在しない間に、及び/又は、量/濃度が閾値を下回る場合に取得される入力イメージということになった場合、出力イメージ
【数39】
は、本質的に、入力イメージXのコピーである。したがって、処理ステップは、入力イメージのIQに関して非対称である。
【0161】
ここで、上述したような訓練システムTSフレームワークにおいて対象の機械学習モデルCR、G1を訓練するコンピュータ実施方法の流れ図を示す
図8を参照する。フレームワークは、複数のMLモデルを含む。方法の以下のステップは、モデルを使用して訓練出力イメージを計算することを含む。訓練出力イメージに基づいて、目的関数が、1回又は複数回の反復において現在の(又は初期)パラメータセットを調整することによって、最適化手順において改善される。下記に言及するMLモデルは、初期又は現在のパラメータセットを有すると仮定される。モデルがニューラルネットワークタイプモデルである場合、上記パラメータは、例えば、
図6において上述したような、畳み込みタイプネットワーク(CNN)の場合、様々な層及び/又はフィルタ要素内のネットワークノードの重みを含む。
【0162】
ステップS810において、初期訓練イメージが、訓練データセットから引き出される。セットは、上述したような造影及び非造影イメージの、少なくとも2つのクラスのイメージを含む。
【0163】
まず、ステップS810において造影イメージ
【数40】
が受信される/引き出されると仮定すると、これは、ステップS820において、第1の機械学習モデルによって処理される。第1の機械学習モデルは、第1の訓練出力イメージIを出力する。概して、第1の機械学習モデルは、訓練中に、初期訓練入力イメージ
【数41】
と比較して低減したコントラストを有する第1の訓練出力イメージIを生成するように、入力イメージに対して作用するように構成される。
【0164】
実施形態において、第1の機械学習(「ML」)モデルは生成タイプのものである。しかし、これは好ましくは、任意選択的にGANネットワークの一部であり、GANネットワークは、複数のMLモデルを含む、上述したような(グローバル)トレーニングシステムフレームTSの一部を形成する。GANネットワークは、第1のMLモデルに加えて、別の機械学習モデル、好ましくは弁別器タイプのモデルDSを含む。
【0165】
弁別器モデルDSは、任意選択のステップS830において、第1の訓練出力イメージIを処理して、出力イメージを高コントラスト又は低コントラストのうちの一方に分類しようとする分類試行を表す分類結果を計算する。言い換えれば、S830における分類ステップは、訓練出力イメージが第1のMLモデルによって(人工的に)生成されたか否か、又は、初期訓練データセットの低コントラストカテゴリから引き出されたか否かを弁別するようなものである。
【0166】
ステップS840において、コントラスト低減訓練出力イメージIが再び増大されて、第2の訓練出力イメージ
【数42】
が生成される。ステップS840におけるこのコントラスト増大/コントラスト強調動作は、特に、コントラスト低減イメージ及びステップS810において引き出されるものとしての初期高コントラストイメージに基づく。コントラスト増大/コントラスト強調動作S840において、スケーリング係数が使用される。特に、初期入力イメージ及び第1の出力イメージが、1つ又は複数のそのようなスケーリング係数を使用して線形結合される。加重和が使用される。さらにより詳細には、実施形態において、ステップS840において、第1の出力イメージから初期入力イメージを減算することによって、「ベースコントラスト」が推定される。ベースコントラストは、その後、スケール係数と乗算することによって強調され、スケーリング結果は、その後、初期入力イメージに加算される。理想的には、「ベースコントラスト」は、所与のイメージ内に存在する/符号化されている生来のコントラストを表す。ベースコントラストは、上記イメージが取得されたときに、ノイズ次第の、イメージャIAのFOV内に存在した造影剤の量/濃度によって引き起こされたイメージ情報(イメージIに符号化されているものとしての)の部分である。
【0167】
そのようにコントラスト補正された
【数43】
イメージは、その後、ステップS850において、ステップS810において引き出された初期造影イメージを複製しようとする試行において、第3のMLモデルを使用して再びコントラストを低減される。この第3のMLモデルは、好ましくは同じく生成タイプのものであり、結果、提案されている訓練方法のための訓練システムのMLフレームワークは、生成タイプの2つのMLモデルを含む。
【0168】
ステップS860において、上記で言及した2つ又は3つの機械学習モデルのパラメータが、目的関数(又はコスト関数の系)を改善するように調整される。目的関数の値は、上記で得られた訓練出力イメージ及び現在の分類結果に依存する。ここでも、弁別器モデルDSは任意選択である。
【0169】
上記ステップS810~S860は、任意選択的に新たな分類結果及び新たな訓練出力イメージを得るために、ステップS810において引き出された1つ又は複数の初期訓練イメージについて1回又は複数回の反復において繰り返される。コスト関数は、任意選択の新たに得られた分類結果及び新たな訓練出力イメージに依存し、任意選択の先行する分類結果及び先行する訓練出力イメージにさらに依存する。特定的には、目的関数がコスト関数である場合、すべての以前の又は1つ若しくは複数の訓練入力イメージに対して、累積コストが考慮に入れられる。訓練入力イメージは、1つずつ、又は初期訓練データセットからのサブセットにおいて、引き出され、処理され得る。サブセットは、バッチとして参照されることがある。
【0170】
一定回数の反復の後、及び、複数のそのような初期訓練入力イメージが処理された後、訓練は完了する。訓練は、停止条件が満たされたときに完了する。停止条件は、ユーザ発行信号、プリセット回数の反復、セット内のすべての若しくは一定割合の訓練イメージが処理されたことを受けて、又は、MLパラメータにおいて十分な収束度が検出されたことを受けて、である。訓練が完了したことを受けて、フォローアップステップS870において、第1のMLモデルG1、CRが、コントラスト補正システムの訓練済みモデルの一部として利用可能になり、これはその後、展開中に使用される。イメージ補正のための訓練済みMLモデルは、展開中にステップS840を実施するために使用されるものとしての、固定又はユーザ調整可能コントラストブースタパラメータを含む、分析後処理段をさらに含む。
【0171】
分類動作S830及び2つのコントラスト低減S820、S850のための上述したML構成要素が、意図したとおりに動作し得るように、ステップS860において、そのパラメータが、1回又は複数回の反復において、複数の初期訓練入力イメージに対して調整される。NNタイプMLモデルの順逆伝播技法などの、勾配ベースの方法が使用され、訓練コントローラTCが、目的関数の勾配を評価する。前述したように、本明細書において、目的関数がコスト関数であり、目的関数の改善がコストの低減であることが仮定される。しかしながら、改善がコストの低減又は最小化ではなく、効用の増大又は最大化のうちの一方である場合、この動作原理は効用関数にも容易に適用可能であるため、これは決して、本明細書において記載されている事項を限定しない。
【0172】
コスト関数によって返されるコストは、i)任意選択的にステップS830において計算される分類結果、及び、ii)ステップS810における最初に引き出された低/高コントラスト画像と、復元ステップS850において生成された第2の訓練出力イメージとの間の逸脱に基づく。上記逸脱が小さい場合、被るコストはより低い。任意選択の弁別器に関して、コスト関数は、任意選択の分類結果が正確である場合、より低いコストを裁定するように(下記により詳細に説明するように)構成される。同時に、正確な分類結果に関して上記i)において裁定されたコストに対して敵対的に、コスト関数(又はコスト関数の系内の別のコスト関数)は、第1のMLモデルが、弁別器による不正確な分類結果をもたらすようにコントラストが低減された第1の出力イメージを生成しようとする場合に、より低いコストを裁定する。これら2つの敵対的目的は、反復中に、ゲーム理論的均衡に向かって収束することが示されている。
【0173】
関与するMLモデルのパラメータの十分な収束度が達成されると、システムTSは、造影及び非造影の2つのカテゴリからの訓練イメージに関して非対称に挙動する。特定的には、ステップS810において、低コントラスト初期訓練入力イメージが引き出される場合、イメージが上述した処理ステップS810~S850を通過するとき、これは本質的にそのまま維持される。特に、ステップS860において出力される第2の訓練出力イメージは、ほぼ、初期入力イメージのコピーである。これは、間にコントラストが強調される2サイクルのコントラスト低減を受ける高コントラストイメージについては異なり、さらに、ステップS860において出力される第2の訓練出力イメージは、依然として、初期入力イメージの近似コピーであると予測される。したがって、訓練システムは、低コントラスト入力画像を維持し、高コントラスト入力画像を復元する(サイクル中の上記コントラスト変化にかかわらず)。訓練システムTSのこの非対称挙動は、特に、上記で言及したサイクル一貫性チェッカコスト関数CC()によって強制される。
【0174】
特に、コントラスト補正入力画像に関するこのアップ・ダウンサイクルが、システムTSが、真のコントラスト差をより良好に学習し、したがって、造影剤の存在を表すイメージ部分のみをコントラスト補正することを目的とする機械学習モデルを生成することを可能にする。
【0175】
上述したコスト関数(又はコスト関数の系)は、より詳細に後述するような訓練コントローラTCによって実施される。訓練コントローラTCは、ソフトウェア若しくはハードウェアにおいて、又は部分的に両方において実装される。
【0176】
前述したように、訓練システムTSは、コスト関数の系を使用する。特定的には、機械学習、すなわち、MLパラメータの調整は、訓練コントローラTCによって、コスト関数に基づいて制御される。コスト関数は、学習されるパラメータを数、すなわち「コスト」にマッピングするスカラー関数である。広範には、コントローラTCは、コストが低減されるように、一部又はすべてのMLモデルのパラメータを調整する。この動作は、本明細書においては「コスト関数の改善」として参照される。最適化が目的関数としての効用関数に関して定式化される場合、これは、MLパラメータ調整の関数として効用を増大させることによって改善される。
【0177】
いくつかの又は各コスト関数自体が、下位コスト関数構成要素を含む。サブコスト関数構成要素は、それぞれの(上位)コスト関数をもたらすために、例えば加法的に組み合わされる。したがって、下位コスト関数は、(上位)コスト関数の項として理解される。しかしながら、各下位コスト関数は、それだけでコスト関数であり、本目的のために、単一の上位コスト関数に関する単一の最適化(最小化)、又は、各下位コスト関数のそれぞれの(部分)最適化を含む最適化の系を定式化することと等価である。
【0178】
以下において、「コスト関数」を参照するとき、これは、訓練システム内のMLモデルのフレームワークによって生成される入力及び出力に関して訓練システムの上述した挙動を強制するためにともに使用されるコスト関数の系の一部である。したがって、本明細書において「コスト」関数が参照される場合、これは、訓練システムにおいて付加的に使用される他のコスト関数を除外するものではない。一般に、コスト関数は、入力画像と出力画像との間の関係(例えば、類似度)を測定する適切な距離/逸脱速度L()を使用する。本明細書において使用されるものとしての「入力」及び「出力」は、訓練システムTSの初期入力(イメージ)及び最終出力(イメージ)を指すだけでなく、データが
図2~
図8において上述したような訓練システムTSの様々な段を通過するときに生成される様々な中間入力/出力画像も指す。コスト関数の項は、本明細書においては、パラメータ又はそのようなパラメータから得られ得る結果の特定の望ましい特性を強制するための、任意選択的に本明細書において想定されている正則化器として参照される。
【0179】
コスト関数は、コントラスト低減器(第1の生成器G1)、任意選択の弁別器DS、及び復元器RS(第2の生成器G2)に関して(主に)動作しているものの間で区別され得る。しかしながら、本明細書において使用されるものとしてのコスト関数の一部又はすべては相互依存であり、下記に論じるように、一度に又は交互にすることによって順番に、ともに最適化されることは理解されたい。コスト関数は、出力/入力画像に関して定式化されるだけでなく、(少なくとも)3つのMLモデルのパラメータに関しても定式化される。したがって、1つのMLモデルのコスト関数は、他の(少なくとも2つの)MLモデルのパラメータも参照し、それによって、言及した相互依存性を引き起こす。訓練コントローラTCによって実施されるものとしての訓練システムTSのコスト関数系Eは、本明細書においてはE=(EG1,EDSEG2)として示される。実施形態において、提案されている最適化は、最小化と最大化の両方を含む。
【0180】
ここで、まず、第1の生成器G1のコスト関数E
G1を参照すると、これは、任意選択的に、第1のGANと弁別器との間の敵対的関係を表すGAN項を含む。加えて又は代わりに、(さらなる)コスト関数である、一貫性チェッカ関数CC()が存在する。生成器
【数44】
の2つのコスト関数を1つの(上位)コスト関数に組み合わせると、このコスト関数は、形式的には、以下の最小化タスクとして表記される。
【数45】
【0181】
式中、
【数46】
は、第1の生成器
【数47】
のパラメータを表し、(1)(及び、以下の式にもある)における総和は、訓練セットTDの訓練入力画像
【数48】
にわたるものである。式(1)及び下記において、λ
i’は、各項の最適化における寄与を調整するために使用され得る任意選択の制御パラメータである。これらの制御パラメータは、一般に、メタパラメータであり、最適化において調整されず、したがって、学習されない。一部又はすべてのλ
i’は単位元である。
【0182】
ここで、まず、サイクル一貫性チェッカコスト関数CC()をより詳細に参照すると、これは、造影イメージ及び非造影イメージに対して動作して、両方のクラスからのイメージに対して恒等作用素としてグローバルに作用するように、訓練システムの上述した挙動を強制する。
【0183】
サイクル一貫性チェッカコスト関数は、以下のように表記される。
【数49】
【0184】
Mは、造影剤寄与測度であり、xは、いずれかのクラスC、NCからのイメージである。「∝」は、前述したコントラストスケーリング/強調係数であり、これは好ましくは>1の正の数である。スケーリング係数は、言及したようにユーザによって調整され得るが、好ましくは訓練中は固定されたままである。スケーリング係数は、展開中は、訓練に使用される1つの∝以外の値βに変更され、結果、ユーザは、コントラスト強調の強度を(例えば、ユーザインターフェースUIによって)調整し得る。L(・)は、例えば、L1ノルム若しくは2乗L2ノルムコスト関数、それらの両方の総和、又は加重和などの、上記で言及した類似性測度である。
【0185】
(2a)を最小化することによって、コスト関数Eは、復元器
【数50】
の出力と初期入力xとの間の小さい逸脱についてはより小さいコストを被る。このようにして、訓練システムは、両方のクラスからの画像に対する恒等作用素挙動を近似するように、最適化においてそのパラメータを調整される。
【0186】
したがって、コスト関数E
G1は、正則化器又はコスト関数項CCによって、造影及び非造影のいずれかのイメージクラスからのイメージについて、復元イメージ
【数51】
と初期入力イメージxとの間の逸脱を測定する。小さい逸脱はコストを小さくする。
【0187】
(1)におけるコスト関数EG1は、追加の、任意選択のコスト(部分)関数又は正則化項(被加数)を含む。いくつかのそのような追加の項は、下記で式(3)~(5)において説明され、コントラストマップMの予備知識及び予測を表す。正則化器(3)~(5)は、単独で又は組み合わせて、コントラスト増大などの、上述したローカルに焦点を絞ったIQ補正をさらになお改善する。
【0188】
例えば、マップMの正則化項は、以下によって表現されるものとしての低ノイズ及び/又は粗度を有する解を促進するように構成される。
【数52】
【0189】
式中、(・)
+は整流関数(その引数の正の部分として定義される)であり、N
mapは、例えば、本出願人の米国特許第8,938,110号又は米国特許第1,028,282号に記載されているようないくつかの手法を使用して生成され得る、一部の又は各ピクセルについて断片的に標準偏差又は分散マップに基づいて計算される、
【数53】
のノイズマップであり、R(・)は、粗度ペナルティ又は正則化項(例えば、全変動、Huber損失関数又は任意の他の適切な測度)である。項(3)又は任意の他のそのような同様の項は、式(2b)において上記で説明したような造影薬/剤の寄与又はイメージ内の部分を表す造影剤マップ
【数54】
(ヨウ素マップなど)の区分的に滑らかな解を促進する。
【0190】
追加の項として(1)に含まれる別の任意選択の正則化項は、以下のとおりである。
【数55】
【0191】
イメージにコントラストを加えることによって、強度/HUが増大するのみであり得る(これはイメージアーティファクト次第で真である)ため、この項は、正の(≧0)造影剤マップを促進する。マップによる負の寄与は、非現実的であり、項(4)又は同様の項が、最適化中に正のマップの計算を正則化/促進する。
【0192】
追加の項として(1)に含まれる別の任意選択の正則化項は、以下のとおりである。
λ5L(M(Ii)) (5)
【0193】
非造影入力イメージIは、FOV内に造影剤が存在しない状態で取得されたと仮定されるため、この項は、非造影入力イメージIの低コントラストマップを有する解を促進する。コスト関数Eは、すべての項(3)~(5)、任意の単一の項、又は、式(3)~(5)の任意の(部分)組合せを含む。
【0194】
ここで、任意選択のGANセットアップをより詳細に参照すると、これは、G1とDとの間の敵対的関係をmin-max最適化として定式化するために、2つのコスト関数を必要とする。
【0195】
それらの項のうちの1つ、すなわち、第1の生成器G1の項は、(1)において
【数56】
として定式化されており、第1の生成器G1が、偽分類結果を生成する弁別器DSをもたらす出力の生成に成功しない場合、コストをより高くするように構成される。特定的には、第1の生成器G1のコスト関数の最小化タスクは、フェイクイメージについて弁別器によって予測される逆確率の対数を最小化することである。したがって、生成器は、フェイクイメージである確率が低いサンプルを生成する傾向にある。
【0196】
他方のGANコスト関数E
DS、すなわち、弁別器DSのコスト関数は、以下のように構成される。
【数57】
【0197】
(6)は、交差エントロピーに関する2項分類として定式化される。このコスト関数は、弁別器が生成器
【数58】
によって出力されるものとしての画像Iを正確に分類しない場合に、コストをより高くするように構成されている。したがって、コスト関数ではなく効用関数である弁別目的関数は、真正イメージの対数確率及びフェイクイメージの逆確率の対数の平均を最大化するように構成される。
【0198】
すべて代替的な実施形態において本明細書で想定される最小2乗GANコスト関数又はワッサースタインGANコスト関数などの、(1)、(6)以外のGANセットアップも想定される。GANセットアップは、そのロバスト性のために本明細書において好適ではあるが、本明細書において必須ではない。GANステップが使用されない場合、コスト関数式(6)は必要とされず、コスト関数式(1)の
【数59】
項も必要とされない。この場合、第1の生成器G1は、(少なくとも2つの)イメージカテゴリC、NCにおいて訓練データセットからIQ低減サンプルを生成するように適切に訓練可能である任意の生成ネットワークであり得る。
【0199】
ここで、第2の生成器G2である、復元器RSネットワークのコスト関数E
G2を参照すると、これは、サイクル一貫性正則化器CC()に関して以下のように構成され得る。
【数60】
【0200】
このコスト関数は、(1)と同様に、両方のクラスC、NCからのイメージに対して作用するときに、復元器G2の恒等作用素挙動を促進する。
【0201】
目的関数(系)E=(E
G1,E
DS,E
G2)式(1)、(6)及び(7)に関するこの最適化は、交互最適化手順を使用して行われる。この方式において、最適化は、2つ又は3つのコスト関数、すなわち、ネットワーク
【数61】
及び
【数62】
(並びに、存在する場合は任意選択的に弁別器DS)のコスト関数の各々の最適化ステップの実施の間で順番に交互に、他の2つのモデルのパラメータを定数として処理しながら、行われる。交互最適化手順の一部の又は各ステップは、前述したように勾配ベースであり得る。想定される手法は、確率的勾配降下法を含む。例えば、H Robbins他「A stochastic approximation method」、publ. Ann Math Stat. 22、400~407ページ(1951)、又はD P Kingma他「A method for stochastic optimization」、published as an arXiv pre-print at arXiv:1412.6980 (2014)による「ADAM」アルゴリズムを参照されたい。共役勾配法、ネルダー-ミード法、又はさらには非勾配ベースのものなどの、他の最適化アルゴリズムも、実施形態において本明細書で想定されている。
【0202】
上記の学習タスクは、コスト関数Eによって制御される最適化問題として定式化されているが、本明細書において使用されるものとしての「最適化」は、必ずしも、大域最適が求められることを意味しない。ほとんどの用途にとって、局所最適で十分である。提案されているアルゴリズムが局所(又は大域)最適に収束するときでさえ、これが実際に達成されることは本明細書において必ずしも必要とされない。ほとんどの用途にとって、所定の誤差限界内の近似で十分である。MLパラメータに相当の変化がないとき、反復は先行して中断される。
【0203】
加えて、訓練は、例えば、M Freiman他「Unsupervised abnormality detection through mixed structure regularization (MSR) in deep sparse autoencoders」、publ. Medical Physics 46(5)巻、2223~2231ページ(2019)によって記載されているように、混合構造正則化又はオートミキシングを使用することによってさらに改善又は増強され得る。特定的には、非コントラストイメージ及び造影イメージが、そのように混合される。
【0204】
コントラスト強調イメージの生成に加えて、提案されている方法はまた、仮想非造影(VNC)イメージを含む、追加の有用な結果も提供し得る。例えば、ネットワーク
【数63】
の出力は、造影剤マップを
【数64】
として算出するために使用され得る。
【0205】
上述した訓練システムTS及びコントラストエンハンサSIE(
図5)は、イメージコントラスト補正について説明されているが、記載されている原理は、アーティファクト及びノイズ低減を含む、他のタイプのイメージ品質(IQ)補正にも等しく適用される。したがって、上記は、他のタイプのIQに容易に拡張され得、訓練セットTD内の画像の2つのカテゴリは、ここでは高品質画像及び低品質画像の2つのクラスであり、例えば、一方における高IQ標本の低アーティファクト寄与又は低ノイズの画像、及び、他方における低IQ標本の高アーティファクト寄与又は高ノイズの画像である。例えば、アーティファクトに関連するIQについて、第1の生成器G1は、この実施形態においてはアーティファクト寄与を増大させるように動作し、一方、ノイズに関連するIQについて、第1の生成器G1は、ノイズを増大させる。コントラスト以外のそのようなIQ実施形態において、サイクル一貫性チェッカCC()の測度関数Mは、ピクセル近傍による標準偏差などによって、局所的ノイズを測定するように構成されている。他のノイズフィルタが使用されてもよい。アーティファクトの存在に関するIQについて、測度関数Mは、カップアーティファクト、リング、縞などのような、特定の関心のあるアーティファクトイメージパターンに同調されている高い応答を有する、空間又は周波数ドメインのフィルタとして構成される。
【0206】
本明細書において使用されるものとしての修飾語句「高」/「低」は、所与のIQが、所与の高IQイメージ標本において、低IQイメージ標本においてよりも良好であることを示す。
【0207】
本明細書において開示されている1つ又は複数の特徴は、コンピュータ可読媒体内に符号化されている回路として/によって、及び/又はその組合せで構成又は実施される。回路は、ディスクリート及び/又は集積回路、特定用途向け集積回路(ASIC)、システムオンチップ(SOC)、及びそれらの組合せ、機械、コンピュータシステム、プロセッサ及びメモリ、コンピュータプログラムを含む。
【0208】
本発明の別の例示的な実施形態において、適切なシステム上で、先行する実施形態のうちの1つによる方法のステップを実行するように適合されていることを特徴とするコンピュータプログラム又はコンピュータプログラム要素が提供される。
【0209】
それゆえ、コンピュータプログラム要素は、同じく本発明の一実施形態の一部であり得る、コンピュータユニット上に記憶され得る。このコンピューティングユニットは、上述した方法のステップを実施するか、又は、実施を誘導するように適合される。その上、コンピューティングユニットは、上述した装置の構成要素を操作するように適合される。コンピューティングユニットは、自動的に動作し、及び/又は、ユーザの命令を実行するように適合され得る。コンピュータプログラムが、データプロセッサの作業メモリにロードされる。したがって、データプロセッサは、本発明の方法を実行するように装備される。
【0210】
本発明のこの例示的な実施形態は、最初から本発明を使用するコンピュータプログラムと、更新によって既存のプログラムを、本発明を使用するプログラムにするコンピュータプログラムとの両方をカバーする。
【0211】
さらに、コンピュータプログラム要素は、上述したような方法の例示的な実施形態の手順を満たすのに必要なすべてのステップを提供することが可能であり得る。
【0212】
本発明のさらなる例示的な実施形態によれば、CD-ROMなどのコンピュータ可読媒体が提示され、コンピュータ可読媒体は、コンピュータプログラム要素を記憶されており、コンピュータプログラム要素は、先行する節によって説明されている。
【0213】
コンピュータプログラムは、他のハードウェアとともに又はその一部として供給される光記憶媒体又はソリッドステート媒体のような、適切な媒体(特に、必須ではないが、非一時的媒体)上に記憶及び/又は分散されるが、インターネット又は他の優先若しくはワイヤレス電気通信システムを介して、他の形態で分散されてもよい。
【0214】
しかしながら、コンピュータプログラムはまた、ワールドワイドウェブのようなモデルを介して提示されてもよく、そのようなモデルからデータプロセッサの作業メモリにダウンロードすることができる。本発明のさらなる例示的な実施形態によれば、コンピュータプログラム要素をダウンロードに利用可能にする媒体が提供され、コンピュータプログラム要素は、本発明の前述の実施形態のうちの1つによる方法を実施するように構成されている。
【0215】
本発明の実施形態は、複数の異なる手段を参照して説明されていることに留意されたい。特に、いくつかの実施形態は、方法タイプの請求項を参照して説明されており、一方、他の実施形態は、デバイスタイプの請求項を参照して説明されている。しかしながら、当業者は、上記及び以下の説明から、別途注記されない限り、1つのタイプの主題に属する特徴の任意の組合せに加えて、異なる主題に関係する特徴間の任意の組合せも、本出願によって開示されると推測することになる。しかしながら、すべての特徴を組み合わせて、特徴を単純に加えることを超える相乗効果を提供することができる。
【0216】
図面及び上記の説明において本発明が詳細に図解及び説明されているが、そのような図解及び説明は限定ではなく実例又は例示と考えられるべきである。本発明は開示されている実施形態に限定されるものではない。当業者は、図面、本開示、及び従属請求項を研究することから、特許請求されている本発明を実践することにおいて、開示されている実施形態に対する他の変形形態を理解し、実行することができる。
【0217】
特許請求の範囲において、「備える」という単語は、他の要素又はステップを除外せず、単数形の要素は複数を除外しない。単一のプロセッサ又は他のユニットが、特許請求の範囲内で記載されているいくつかの項目の機能を満たす。特定の方策が相互に異なる従属請求項に記載されているというだけのことは、これらの方策の組合せを好都合に使用することができないということを示すものではない。特許請求の範囲内の任意の参照符号は、それらの範囲を限定されるようには解釈されないものとする。
【国際調査報告】