(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公表特許公報(A)
(11)【公表番号】
(43)【公表日】2022-06-23
(54)【発明の名称】医学映像分割方法、装置、コンピュータデバイスおよびコンピュータプログラム
(51)【国際特許分類】
G06T 7/215 20170101AFI20220616BHJP
G06T 7/00 20170101ALI20220616BHJP
G06T 7/174 20170101ALI20220616BHJP
A61B 5/00 20060101ALI20220616BHJP
【FI】
G06T7/215
G06T7/00 350C
G06T7/174
A61B5/00 G
【審査請求】有
【予備審査請求】未請求
(21)【出願番号】P 2021561990
(86)(22)【出願日】2020-07-29
(85)【翻訳文提出日】2021-10-18
(86)【国際出願番号】 CN2020105409
(87)【国際公開番号】W WO2021031815
(87)【国際公開日】2021-02-25
(31)【優先権主張番号】201910764981.X
(32)【優先日】2019-08-19
(33)【優先権主張国・地域又は機関】CN
(81)【指定国・地域】
(71)【出願人】
【識別番号】517392436
【氏名又は名称】▲騰▼▲訊▼科技(深▲セン▼)有限公司
(74)【代理人】
【識別番号】100110364
【氏名又は名称】実広 信哉
(74)【代理人】
【識別番号】100150197
【氏名又は名称】松尾 直樹
(72)【発明者】
【氏名】曹 世磊
(72)【発明者】
【氏名】胡 一凡
(72)【発明者】
【氏名】▲馬▼ ▲カイ▼
(72)【発明者】
【氏名】▲鄭▼ 冶▲楓▼
【テーマコード(参考)】
4C117
5L096
【Fターム(参考)】
4C117XB01
4C117XD24
4C117XD27
4C117XE18
4C117XE43
4C117XE44
4C117XE45
4C117XK05
4C117XK15
4C117XK18
4C117XK24
4C117XK43
4C117XR07
4C117XR08
5L096BA06
5L096BA13
5L096GA34
5L096HA04
5L096HA11
5L096JA11
5L096KA04
5L096KA15
(57)【要約】
コンピュータデバイスが実行する医学映像分割方法である、この方法は、第1医学映像と、ターゲットオブジェクト領域がラベリングされた第2医学映像とを取得するステップと、前記第1医学映像および前記第2医学映像のそれぞれに特徴抽出を行い、前記第1医学映像の第1特徴情報と前記第2医学映像の第2特徴情報を得るステップと、前記第1特徴情報と前記第2特徴情報とに基づいて、前記第2医学映像から前記第1医学映像へのオプティカルフロー動き情報を取得するステップと、前記オプティカルフロー動き情報、およびラベリングされたターゲットオブジェクト領域に基づいて、前記第1医学映像におけるターゲットオブジェクトを分割し、前記第1医学映像の分割結果を得るステップと、を含む。
【特許請求の範囲】
【請求項1】
コンピュータデバイスが実行する医学映像分割方法であって、
第1医学映像と、ターゲットオブジェクト領域がラベリングされた第2医学映像とを取得するステップと、
前記第1医学映像および前記第2医学映像のそれぞれに特徴抽出を行い、前記第1医学映像の第1特徴情報と前記第2医学映像の第2特徴情報を得るステップと、
前記第1特徴情報と前記第2特徴情報とに基づいて、前記第2医学映像から前記第1医学映像へのオプティカルフロー動き情報を取得するステップと、
前記オプティカルフロー動き情報と、ラベリングされたターゲットオブジェクト領域とに基づいて、前記第1医学映像におけるターゲットオブジェクトを分割し、前記第1医学映像の分割結果を得るステップと、
を含むことを特徴とする医学映像分割方法。
【請求項2】
前記オプティカルフロー動き情報と、ラベリングされたターゲットオブジェクト領域とに基づいて、前記第1医学映像におけるターゲットオブジェクトを分割し、前記第1医学映像の分割結果を得るステップは、
前記オプティカルフロー動き情報と、ラベリングされたターゲットオブジェクト領域とに基づいて、ターゲットオブジェクト領域の再構築を行い、再構築後のターゲットオブジェクト領域を得るステップと、
再構築後のターゲットオブジェクト領域を、前記第1医学映像の分割結果とするステップと、を含む、
ことを特徴とする請求項1に記載の医学映像分割方法。
【請求項3】
前記オプティカルフロー動き情報と、ラベリングされたターゲットオブジェクト領域とに基づいて、ターゲットオブジェクト領域の再構築を行い、再構築後のターゲットオブジェクト領域を得るステップは、
前記オプティカルフロー動き情報に対して、トリリニア補間処理を行い、処理されたオプティカルフロー動き情報を得るステップと、
処理されたオプティカルフロー動き情報と、ラベリングされたターゲットオブジェクト領域とに基づいて、ターゲットオブジェクト領域の再構築を行い、再構築後のターゲットオブジェクト領域を得るステップと、を含む、
ことを特徴とする請求項2に記載の医学映像分割方法。
【請求項4】
前記第1特徴情報と前記第2特徴情報とに基づいて、前記第2医学映像から前記第1医学映像へのオプティカルフロー動き情報を取得するステップは、
前記第1特徴情報と前記第2特徴情報を関連付けて、前記第2医学映像と前記第1医学映像との間の画素位置の対応関係情報を得るステップと、
前記画素位置の対応関係情報に対してアップサンプリング操作を行い、前記第2医学映像から前記第1医学映像へのオプティカルフロー動き情報を得るステップと、を含む、
ことを特徴とする請求項1に記載の医学映像分割方法。
【請求項5】
前記第1特徴情報と前記第2特徴情報を関連付けて、前記第2医学映像と前記第1医学映像との間の画素位置の対応関係情報を得るステップは、
前記第1医学映像の第1特徴情報に対して畳み込み操作を行い、第1畳み込み特徴情報を得るステップと、
前記第2医学映像の第2特徴情報に対して畳み込み操作を行い、第2畳み込み特徴情報を得るステップと、
前記第1畳み込み特徴情報と前記第2畳み込み特徴情報を互いに融合して、第1融合特徴情報を得るステップと、
前記第1融合特徴情報と前記第1畳み込み特徴情報を互いに融合して、第2医学映像と第1医学映像との間の画素位置の対応関係情報を得るステップと、を含む、
ことを特徴とする請求項4に記載の医学映像分割方法。
【請求項6】
前記第1特徴情報と前記第2特徴情報とに基づいて、前記第2医学映像から前記第1医学映像へのオプティカルフロー動き情報を取得するステップは、
第1敵対的生成ネットワークにおける第1生成器を使用して、前記第1特徴情報と前記第2特徴情報とに基づいて、前記第2医学映像から前記第1医学映像へのオプティカルフロー動き情報を取得するステップ、を含む、
ことを特徴とする請求項1に記載の医学映像分割方法。
【請求項7】
前記第1敵対的生成ネットワークは、
第1サンプル医学映像と、ターゲットオブジェクトラベリング結果を有する第2サンプル医学映像とを取得するステップと、
訓練対象となる第1敵対的生成ネットワークにおける第1生成器を使用して、前記第2サンプル医学映像から前記第1サンプル医学映像への第1サンプルオプティカルフロー動き情報を取得するステップと、
前記訓練対象となる第1敵対的生成ネットワークにおける再構築モジュールを使用して、前記第1サンプルオプティカルフロー動き情報に基づいて映像再構築を行い、前記第1サンプル医学映像に対応する第1再構築後の医学映像と、第1分割結果とを得るステップと、
第2敵対的生成ネットワークにおける第2生成器を使用して、前記第1再構築後の医学映像から前記第2サンプル医学映像への第2サンプルオプティカルフロー動き情報を取得するステップと、
第2敵対的生成ネットワークにおける再構築モジュールを使用して、前記第2サンプルオプティカルフロー動き情報に基づいて映像再構築を行い、前記第2サンプル医学映像に対応する第2再構築後の医学映像と、第2分割結果とを得るステップと、
前記第1再構築後の医学映像、前記第1分割結果、前記第2再構築後の医学映像、および前記第2分割結果に基づいて、前記訓練対象となる第1敵対的生成ネットワークを訓練し、訓練済みの第1敵対的生成ネットワークを得るステップと、によって訓練されるものである、
ことを特徴とする請求項6に記載の医学映像分割方法。
【請求項8】
前記第1再構築後の医学映像、前記第1分割結果、前記第2再構築後の医学映像、および前記第2分割結果に基づいて、前記訓練対象となる第1敵対的生成ネットワークを訓練し、訓練済みの第1敵対的生成ネットワークを得るステップは、
前記第1再構築後の医学映像と、前記第2再構築後の医学映像とに基づいて、映像再構築空間における再構築一致性損失を取得するステップと、
前記第1分割結果、前記第2分割結果、および前記第2サンプル医学映像のターゲットオブジェクトラベリング結果に基づいて、分割空間における分割一致性損失を取得するステップと、
前記再構築一致性損失、および前記分割一致性損失に基づいて、前記訓練対象となる第1敵対的生成ネットワークを訓練し、訓練済みの第1敵対的生成ネットワークを得るステップと、を含む、
ことを特徴とする請求項7に記載の医学映像分割方法。
【請求項9】
前記再構築一致性損失には、映像再構築一致性損失と、軌跡一致性損失とが含まれ、
前記第1再構築後の医学映像と、前記第2再構築後の医学映像とに基づいて、映像再構築空間における再構築一致性損失を取得するステップは、
前記第2再構築後の医学映像と前記第2サンプル医学映像とに基づいて、前記第2サンプル医学映像と前記第2再構築後の医学映像が一致に維持される場合の映像再構築一致性損失を取得するステップと、
前記第1サンプルオプティカルフロー動き情報と前記第2サンプルオプティカルフロー動き情報とに基づいて、前記第1サンプルオプティカルフロー動き情報と第2サンプルオプティカルフロー動き情報が軌跡の一致を示す場合の軌跡一致性損失を取得するステップとを、含む、
ことを特徴とする請求項8に記載の医学映像分割方法。
【請求項10】
前記分割一致性損失には、映像分割一致性損失、マスク値損失、およびセマンティクス一致性損失が含まれ、
前記第1分割結果、前記第2分割結果、および前記第2サンプル医学映像のターゲットオブジェクトラベリング結果に基づいて、分割空間における分割一致性損失を取得するステップは、
前記第2分割結果と前記ターゲットオブジェクトラベリング結果とに基づいて、前記ターゲットオブジェクトラベリング結果と前記第2分割結果が一致に維持される場合の映像分割一致性損失を取得するステップと、
前記第1分割結果、前記第2分割結果、および予め設定された分割マスク値に基づいて、前記第1分割結果、前記第2分割結果の、前記予め設定された分割マスク値に対するマスク値損失をそれぞれ取得するステップと、
前記第1分割結果に基づいて、第1分割結果が映像上でセマンティクス一致性を維持する場合のセマンティクス一致性損失を構築するステップと、を含む、
ことを特徴とする請求項8に記載の医学映像分割方法。
【請求項11】
前記第1分割結果に基づいて、第1分割結果が映像上でセマンティクス一致性を維持する場合のセマンティクス一致性損失を構築するステップは、
前記第1分割結果における画素値に対して、予め設定された方向に沿って導関数を求めて、予め設定された方向の、導関数を求める結果を得るステップと、
予め設定された方向の、導関数を求める結果と、前記第1分割結果とに基づいて、第1分割結果が映像上でセマンティクス一致性を維持する場合のセマンティクス一致性損失を構築するステップと、を含む、
ことを特徴とする請求項10に記載の医学映像分割方法。
【請求項12】
前記第1サンプルオプティカルフロー動き情報と、前記第2サンプルオプティカルフロー動き情報に基づいて、前記第1サンプルオプティカルフロー動き情報と前記第2サンプルオプティカルフロー動き情報が軌跡の一致を示す場合の軌跡一致性損失を取得するステップは、
1つのオリジナルの医学映像を生成するステップと、
前記第1サンプルオプティカルフロー動き情報と、前記第2サンプルオプティカルフロー動き情報とに基づいて、前記オリジナルの医学映像を変換し、変換された医学映像を得るステップと、
前記変換された医学映像と前記オリジナルの医学映像との間の変換損失を取得するステップと、
前記変換損失を、前記第1サンプルオプティカルフロー動き情報と前記第2サンプルオプティカルフロー動き情報が軌跡の一致を示す場合の軌跡一致性損失とするステップと、を含む、
ことを特徴とする請求項9に記載の医学映像分割方法。
【請求項13】
前記方法は、さらに、
前記訓練対象となる第1敵対的生成ネットワークにおける判別器を使用して、前記第1サンプル医学映像と前記第1再構築後の医学映像を判別し、判別結果を得るステップと、
前記第1再構築後の医学映像、および前記判別結果に基づいて、前記第1敵対的生成ネットワークの敵対的損失を取得するステップと、を含み、
前記再構築一致性損失、および前記分割一致性損失に基づいて、前記訓練対象となる第1敵対的生成ネットワークを訓練し、訓練後の第1敵対的生成ネットワークを得るステップは、
前記敵対的損失、前記再構築一致性損失、および前記分割一致性損失に基づいて、前記訓練対象となる第1敵対的生成ネットワークを訓練し、訓練済みの第1敵対的生成ネットワークを得るステップ、を含む、
ことを特徴とする請求項8に記載の医学映像分割方法。
【請求項14】
医学映像分割装置であって、
第1医学映像と、ターゲットオブジェクト領域がラベリングされた第2医学映像とを取得する取得ユニットと、
前記第1医学映像および前記第2医学映像のそれぞれに特徴抽出を行い、前記第1医学映像の第1特徴情報と前記第2医学映像の第2特徴情報を得る特徴抽出ユニットと、
前記第1特徴情報と前記第2特徴情報とに基づいて、前記第2医学映像から前記第1医学映像へのオプティカルフロー動き情報を取得するオプティカルフローユニットと、
前記オプティカルフロー動き情報と、ラベリングされたターゲットオブジェクト領域とに基づいて、前記第1医学映像におけるターゲットオブジェクトを分割し、前記第1医学映像の分割結果を得る分割ユニットと、
を含むことを特徴とする医学映像分割装置。
【請求項15】
前記分割ユニットは、
前記オプティカルフロー動き情報と、ラベリングされたターゲットオブジェクト領域とに基づいて、ターゲットオブジェクト領域の再構築を行い、再構築後のターゲットオブジェクト領域を得る再構築サブユニットと、
再構築後のターゲットオブジェクト領域を、前記第1医学映像の分割結果とする分割サブユニットと、を含む、
ことを特徴とする請求項14に記載の医学映像分割装置。
【請求項16】
前記再構築サブユニットは、さらに、
前記オプティカルフロー動き情報に対して、トリリニア補間処理を行い、処理されたオプティカルフロー動き情報を得ることと、
処理されたオプティカルフロー動き情報と、ラベリングされたターゲットオブジェクト領域とに基づいて、ターゲットオブジェクト領域の再構築を行い、再構築後のターゲットオブジェクト領域を得ることと、のために使用される、
ことを特徴とする請求項15に記載の医学映像分割装置。
【請求項17】
前記オプティカルフローユニットは、
前記第1特徴情報と前記第2特徴情報を関連付けて、前記第2医学映像と前記第1医学映像との間の画素位置の対応関係情報を得る関連付けサブユニットと、
前記画素位置の対応関係情報に対してアップサンプリング操作を行い、前記第2医学映像から前記第1医学映像へのオプティカルフロー動き情報を得るサンプリングサブユニットと、を含む、
ことを特徴とする請求項14に記載の医学映像分割装置。
【請求項18】
前記関連付けサブユニットは、さらに、
前記第1医学映像の第1特徴情報に対して畳み込み操作を行い、第1畳み込み特徴情報を得ることと、
前記第2医学映像の第2特徴情報に対して畳み込み操作を行い、第2畳み込み特徴情報を得ることと、
前記第1畳み込み特徴情報と前記第2畳み込み特徴情報を互いに融合して、第1融合特徴情報を得ることと、
前記第1融合特徴情報と前記第1畳み込み特徴情報を互いに融合して、第2医学映像と第1医学映像との間の画素位置の対応関係情報を得る、のために使用される、
ことを特徴とする請求項17に記載の医学映像分割装置。
【請求項19】
コンピュータプログラムが記憶されているコンピュータ読み取り可能な記憶媒体であって、
前記コンピュータプログラムがプロセッサによって実行されると、請求項1~13のいずれか1項に記載の方法のステップが実現される、
ことを特徴とするコンピュータ読み取り可能な記憶媒体。
【請求項20】
メモリ、プロセッサ、およびメモリに記憶され、かつプロセッサ上で実行可能なコンピュータプログラムを含むコンピュータデバイスであって、
前記プロセッサは、前記プログラムを実行すると、請求項1~13のいずれか1項に記載の方法のステップを実現する、
ことを特徴とするコンピュータデバイス。
【発明の詳細な説明】
【技術分野】
【0001】
[関連出願への相互参照]
本願は、2019年08月19日へ中国特許庁に提出された、出願番号が201910764981.Xであり、発明名称が「医学映像分割方法、装置、コンピュータデバイスおよび読み取り可能な記憶媒体」である中国特許出願の優先権を主張し、そのすべての内容は、参照により本願に組み込まれる。
【0002】
[技術分野]
本発明は、人工知能の技術分野に関し、具体的には、医学映像分割方法、装置、コンピュータデバイスおよび読み取り可能な記憶媒体に関する。
【背景技術】
【0003】
人工知能(AI:Artificial Intelligence)の発展に伴い、医療分野、特に医学映像の分割におけるAIの適用は、ますます広範になりつつある。例えば、肝臓の分割を例として、具体的には、肝臓がラベリングされたサンプル映像を使用して、畳み込みニューラルネットワークを訓練し、そして、分割対象となる三次元(3D:3 Dimension)肝臓映像、例えば肝臓の電子コンピュータ断層スキャン(CT、Computed Tomography)映像を、訓練後の畳み込みニューラルネットワークに入力して分割し、例えば肝臓の領域を得るなどのように、器官分割結果を得る。
【0004】
しかしながら、現在のAI分割方式は、器官ラベリングの正確性に非常に依存しており、また、器官がラベリングされた医学映像サンプルを大量で取得してネットワークを訓練する必要があるため、器官分割は非常に時間がかかるので、分割効率が低いという問題が存在している。
【発明の概要】
【課題を解決するための手段】
【0005】
本願の様々な実施例は、医学画像分割方法、装置、コンピュータデバイス、および読み取り可能な記憶媒体を提供する。ここで、以下が含まれている。
【0006】
コンピュータデバイスが実行する医学映像分割方法であって、
第1医学映像と、ターゲットオブジェクト領域がラベリングされた第2医学映像とを取得するステップと、
前記第1医学映像および前記第2医学映像のそれぞれに特徴抽出を行い、前記第1医学映像の第1特徴情報と前記第2医学映像の第2特徴情報を得るステップと、
前記第1特徴情報と前記第2特徴情報とに基づいて、前記第2医学映像から前記第1医学映像へのオプティカルフロー動き情報を取得するステップと、
前記オプティカルフロー動き情報と、ラベリングされたターゲットオブジェクト領域とに基づいて、前記第1医学映像におけるターゲットオブジェクトを分割し、前記第1医学映像の分割結果を得るステップと、
を含むことを特徴とする医学映像分割方法。
【0007】
医学映像分割装置であって、
第1医学映像と、ターゲットオブジェクト領域がラベリングされた第2医学映像とを取得する取得ユニットと、
前記第1医学映像および前記第2医学映像のそれぞれに特徴抽出を行い、前記第1医学映像の第1特徴情報と前記第2医学映像の第2特徴情報を得る特徴抽出ユニットと、
前記第1特徴情報と前記第2特徴情報とに基づいて、前記第2医学映像から前記第1医学映像へのオプティカルフロー動き情報を取得するオプティカルフローユニットと、
前記オプティカルフロー動き情報と、ラベリングされたターゲットオブジェクト領域とに基づいて、前記第1医学映像におけるターゲットオブジェクトを分割し、前記第1医学映像の分割結果を得る分割ユニットと、
を含むことを特徴とする医学映像分割装置。
【0008】
そのうちの1つの実施例では、前記分割ユニットは、
前記オプティカルフロー動き情報と、ラベリングされたターゲットオブジェクト領域とに基づいて、ターゲットオブジェクト領域の再構築を行い、再構築後のターゲットオブジェクト領域を得る再構築サブユニットと、
再構築後のターゲットオブジェクト領域を、前記第1医学映像の分割結果とする分割サブユニットと、を含む。
【0009】
そのうちの1つの実施例では、前記再構築サブユニットは、前記オプティカルフロー動き情報に対して、トリリニア補間処理を行い、処理されたオプティカルフロー動き情報を得ることと、処理されたオプティカルフロー動き情報再構築と、ラベリングされたターゲットオブジェクト領域とに基づいて、ターゲットオブジェクト領域の再構築を行い、再構築後のターゲットオブジェクト領域を得ることと、のために使用される。
【0010】
そのうちの1つの実施例では、前記オプティカルフローユニットは、
前記第1特徴情報と前記第2特徴情報を関連付けて、前記第2医学映像と前記第1医学映像との間の画素位置の対応関係情報を得る関連付けサブユニットと、
前記画素位置の対応関係情報に対してアップサンプリング操作を行い、前記第2医学映像から前記第1医学映像へのオプティカルフロー動き情報を得るサンプリングサブユニットと、を含む。
【0011】
そのうちの1つの実施例では、前記関連付けサブユニットは、具体的には、
前記第1医学映像の第1特徴情報に対して畳み込み操作を行い、第1畳み込み特徴情報を得ることと、
前記第2医学映像の第2特徴情報に対して畳み込み操作を行い、第2畳み込み特徴情報を得ることと、
前記第1畳み込み特徴情報と前記第2畳み込み特徴情報を互いに融合して、第1融合特徴情報を得ることと、
前記第1融合特徴情報と前記第1畳み込み特徴情報を互いに融合して、第2医学映像と第1医学映像との間の画素位置の対応関係情報を得ることと、のために使用される。
【0012】
そのうちの1つの実施例では、前記オプティカルフローユニットは、具体的には、
第1敵対的生成ネットワークにおける第1生成器を使用して、前記第1特徴情報と前記第2特徴情報とに基づいて、前記第2医学映像から前記第1医学映像へのオプティカルフロー動き情報を取得する、ために使用される。
【0013】
そのうちの1つの実施例では、前記医学映像分割装置は、さらに、
第1サンプル医学映像と、ターゲットオブジェクトラベリング結果を有する第2サンプル医学映像とを取得するサンプル取得ユニットと、
訓練対象となる第1敵対的生成ネットワークにおける第1生成器を使用して、前記第2サンプル医学映像から前記第1サンプル医学映像への第1サンプルオプティカルフロー動き情報を取得する第1サンプルオプティカルフローユニットと、
前記訓練対象となる第1敵対的生成ネットワークにおける再構築モジュールを使用して、前記第1サンプルオプティカルフロー動き情報に基づいて映像再構築を行い、前記第1サンプル医学映像に対応する第1再構築後の医学映像と、第1分割結果とを得る第1再構築ユニットと、
第2敵対的生成ネットワークにおける第2生成器を使用して、前記第1再構築後の医学映像から前記第2サンプル医学映像への第2サンプルオプティカルフロー動き情報を取得する第2サンプルオプティカルフローユニットと、
第2敵対的生成ネットワークにおける再構築モジュールを使用して、前記第2サンプルオプティカルフロー動き情報に基づいて映像再構築を行い、前記第2サンプル医学映像に対応する第2再構築後の医学映像と、第2分割結果とを得る第2再構築ユニットと、
前記再構築後の医学映像、前記第1分割結果、前記第2再構築後の医学映像、および前記第2分割結果に基づいて、前記訓練対象となる第1敵対的生成ネットワークを訓練し、訓練済みの第1敵対的生成ネットワークを得る訓練ユニットと、を含む。
【0014】
そのうちの1つの実施例では、前記訓練ユニットは、さらに、
前記第1再構築後の医学映像と、前記第2再構築後の医学映像とに基づいて、映像再構築空間における再構築一致性損失を取得する再構築損失取得サブユニットと、
前記第1分割結果、前記第2分割結果、および前記第2サンプル医学映像のターゲットオブジェクトラベリング結果に基づいて、分割空間における分割一致性損失を取得する分割損失取得サブユニットと、
前記再構築一致性損失、および前記分割一致性損失に基づいて、前記訓練対象となる第1敵対的生成ネットワークを訓練し、訓練済みの第1敵対的生成ネットワークを得る訓練サブユニットと、を含む。
【0015】
そのうちの1つの実施例では、前記再構築一致性損失には、映像再構築一致性損失と、軌跡一致性損失とが含まれ、
前記再構築損失取得サブユニットは、具体的には、前記第2再構築後の医学映像と前記第2サンプル医学映像とに基づいて、前記第2サンプル医学映像と前記第2再構築後の医学映像が一致に維持される場合の映像再構築一致性損失を取得することと、前記第1サンプルオプティカルフロー動き情報と前記第2サンプルオプティカルフロー動き情報とに基づいて、前記第1サンプルオプティカルフロー動き情報と第2サンプルオプティカルフロー動き情報が軌跡の一致を示す場合の軌跡一致性損失を取得することと、のために使用される。
【0016】
そのうちの1つの実施例では、前記分割一致性損失には、映像分割一致性損失、マスク値損失、およびセマンティクス一致性損失が含まれ、
前記分割損失取得サブユニットは、前記第2分割結果と前記ターゲットオブジェクトラベリング結果とに基づいて、前記ターゲットオブジェクトラベリング結果と前記第2分割結果が一致に維持される場合の映像分割一致性損失を取得することと、前記第1分割結果、前記第2分割結果、および予め設定された分割マスク値に基づいて、前記第1分割結果、前記第2分割結果の、前記予め設定された分割マスク値に対するマスク値損失をそれぞれ取得することと、前記第1分割結果に基づいて、第1分割結果が映像上でセマンティクス一致性を維持する場合のセマンティクス一致性損失を構築することと、のために使用される。
【0017】
そのうちの1つの実施例では、前記分割損失取得サブユニットは、さらに、前記第1分割結果における画素値に対して、予め設定された方向に沿って導関数を求めて、予め設定された方向の、導関数を求める結果を得ることと、予め設定された方向の、導関数を求める結果と、前記第1分割結果とに基づいて、第1分割結果が映像上でセマンティクス一致性を維持する場合のセマンティクス一致性損失を構築することと、のために使用される。
【0018】
そのうちの1つの実施例では、前記再構築損失取得サブユニットは、1つのオリジナルの医学映像を生成することと、前記第1サンプルオプティカルフロー動き情報と、前記第2サンプルオプティカルフロー動き情報とに基づいて、前記オリジナルの医学映像を変換し、変換された医学映像を得ることと、前記変換された医学映像と前記オリジナルの医学映像との間の変換損失を取得することと、前記変換損失を、前記第1サンプルオプティカルフロー動き情報と前記第2サンプルオプティカルフロー動き情報が軌跡の一致を示す場合の軌跡一致性損失とすることと、のために使用される。
【0019】
そのうちの1つの実施例では、前記装置は、さらに、敵対的損失取得ユニットを含み、ここで、
前記敵対的損失取得ユニットは、前記訓練対象となる第1敵対的生成ネットワークにおける判別器を使用して、前記第1サンプル医学映像と前記第1再構築後の医学映像を判別し、判別結果を得るために使用され、
前記訓練ユニットは、前記敵対的損失、前記再構築一致性損失、および前記分割一致性損失に基づいて、前記訓練対象となる第1敵対的生成ネットワークを訓練し、訓練済みの第1敵対的生成ネットワークを得るために使用される。
【0020】
メモリ、プロセッサ、およびメモリに記憶され、かつプロセッサ上で実行可能なコンピュータプログラムを含むコンピュータデバイスであって、
前記プロセッサは、前記プログラムを実行すると、本願の実施例によって提供されるいずれかの医学映像分割方法におけるステップを実現する。
【0021】
コンピュータプログラムが記憶されているコンピュータ読み取り可能な記憶媒体であって、
前記コンピュータプログラムがプロセッサによって実行されると本願の実施例によって提供されるいずれかの医学映像分割方法におけるステップが実現される。
【0022】
本願の一または複数の実施例の詳細は、以下の図面および説明において提示される。本願の他の特徴、目的および利点は、明細書、図面および特許請求の範囲から明らかになる。
【0023】
本願の実施例における技術的解決策をより明確に説明するために、以下、実施例の説明において必要とされる図面を簡単に紹介し、明らかに、以下の説明における図面は、本発明のいくつかの実施例に過ぎず、当業者にとっては、創造的な努力を行わない前提で、これらの図面から他の図面を得ることもできる。
【図面の簡単な説明】
【0024】
【
図1】本願の実施例によって提供される医学映像分割方法のシーンの模式図である。
【
図2a】本願の実施例によって提供される医学映像分割方法のフローチャートである。
【
図2b】本願の実施例によって提供される生成器のフレームワークの模式図である。
【
図2c】本願の実施例によって提供されるNon-local Blockの構造の模式図である。
【
図2d】本願の実施例によって提供される分割原理の模式図である。
【
図3a】本願の実施例によって提供される分割ネットワークのアーキテクチャ図である。
【
図3b】本願の実施例によって提供される訓練方法の模式的フローチャートである。
【
図3c】本願の実施例によって提供されるオプティカルフロー動き情報の一致性の模式図である。
【
図4a】本実施例によって提供される分割ネットワークの別のアーキテクチャ図である。
【
図4b】本願の実施例によって提供される医学映像分割の別の模式的フローチャートである。
【
図5a】本願の実施例によって提供される医学映像分割装置の構造の模式図である。
【
図5b】本願の実施例によって提供される医学映像分割装置の別の構造の模式図である。
【
図5c】本願の実施例によって提供される医学映像分割装置の別の構造の模式図である。
【
図5d】本願の実施例によって提供される医学映像分割装置の別の構造の模式図である。
【
図5e】本願の実施例によって提供される医学映像装置の別の構造の模式図である。
【
図5f】本願の実施例によって提供される医学映像装置の別の構造の模式図である。
【
図6】本願の実施例によって提供されるコンピュータデバイスの構造の模式図である。
【発明を実施するための形態】
【0025】
以下、本願の実施例における図面を参照しながら、本願の実施例における技術的解決手段を明確かつ完全に説明し、明らかに、説明される実施例は、本発明の実施例の一部に過ぎず、すべての実施例ではない。本発明における実施例に基づいて、当業者が創造的な努力を行わない前提で得られる他のすべての実施例は、本発明の保護範囲に属するものとする。
【0026】
本願の実施例は、医学映像分割方法、装置、コンピュータデバイス、およびコンピュータ読み取り可能な記憶媒体を提供する。ここで、該医学映像分割装置は、コンピュータデバイスに集積されてもよく、該コンピュータデバイスは、サーバであってもよく、端末などのデバイスであってもよい。
【0027】
本願の実施例で提供される医学映像分割の解決手段は、人工知能のコンピュータビジョン技術(CV:Computer Vision)に関する。人工知能のコンピュータビジョン技術によって、眼底の画像の分割を実現し、分割結果を得ることができる。
【0028】
ここで、コンピュータビジョン(CV:Computer Vision)技術は、どのようにマシンに「観察させる」かを研究する科学であり、さらに言えば、人間の目の代わりに、カメラとコンピュータを使用して、ターゲットに対して識別したり、追跡したり、測定したりするマシンビジョン技術を指し、さらに、グラフィック処理を行うことにより、人間の目が観察するようにより適することができる画像、または機械に伝送して検出され得る画像としてコンピュータに処理させる。科学の一つ学科として、コンピュータビジョンは、関連する理論および技術を研究して、画像または多次元データから情報を取得することができる人工知能システムを構築することを試みる。コンピュータビジョン技術には、一般的に、画像処理、画像識別、画像分割、画像意味理解、画像検索、OCR、ビデオ処理、ビデオ意味理解、ビデオコンテンツ/行為識別、三次元オブジェクト再構築、3D技術、仮想現実、強化現実、同期位置決め、地図構築などの技術が含まれており、さらに、よく見られる顔識別、指紋識別などの生体特徴識別技術が含まれている。
【0029】
本願の実施例において、いわゆる映像分割とは、映像をいくつかの特定の、独特の性質を持つ領域に分けて、興味のあるターゲットを抽出する技術およびプロセスを指す。本願の実施例では、それは、主に、三次元(3D:Three Dimensional)医学映像を分割し、必要なターゲットオブジェクト(例えば、器官)を見つけることを指し、例えば、3D医学映像から肝臓領域、心臓領域、心房領域などを分割することができる。分割されたターゲットオブジェクト(例えば、器官)は、後続で医療看護スタッフや他の医学専門家が分析してさらなる操作を行うように使用され得る。
【0030】
例えば、
図1を参照すると、当該医学映像分割装置がコンピュータデバイスに集積されることを例として、該コンピュータデバイスは、第1医学映像と、ターゲットオブジェクト領域がラベリングされた第2医学映像とを取得し、第1医学映像および第2医学映像のそれぞれに対して特徴抽出を行い、第1医学映像の第1特徴情報と第2医学映像の第2特徴情報を得て、第1特徴情報と第2特徴情報とに基づいて、第2医学映像から第1医学映像へのオプティカルフロー動き情報を取得し、オプティカルフロー動き情報およびラベリングされたターゲットオブジェクト領域に基づいて、第1医学映像におけるターゲットオブジェクトを分割し、第1医学映像の分割結果を得ることができ、例えば、ラベリングされていない心房映像から、心臓領域を分割することができる。
【0031】
以下、それぞれ詳細に説明する。説明すべきものとして、以下の実施例の説明順序は、実施例の好ましい順序として限定されるものではない。
【0032】
本実施例では、医学映像分割装置の観点から説明が行われて、該医学映像分割装置は、具体的には、コンピュータデバイスに集積されてよく、該コンピュータデバイスは、サーバであってよく、端末などのデバイスであってもよいし、ここで、当該端末には、タブレットコンピュータ、ノートパソコン、パーソナルコンピュータ(PC:Personal Computer)、マイクロプロセッシングボックス、または他のデバイスなどが含まれてよい。サーバは、独立したサーバ、または複数のサーバからなるサーバクラスタによって実現され得る。
【0033】
図2aに示すように、当該医学映像分割方法の具体的な手順は、以下の通りであってよい。
【0034】
ステップ201で、第1医学映像と、ターゲットオブジェクト領域がラベリングされた第2医学映像とを取得する。
【0035】
ここで、医学映像は、各医学映像収集デバイスによって、例えば心臓や肝臓などの生体組織に対して映像収集が実行され、当該医学映像分割装置に提供され得る。ここで、当該医学映像収集デバイスには、核磁気共鳴映像形成機器(MRI:Magnetic Resonance Imaging)、コンピュータ断層走査デバイス(CT:Computed Tomography)、膣鏡や内視鏡などの電子デバイスが含まれ得る。
【0036】
ここで、第1医学映像は、ターゲットオブジェクトがラベリングされていない医学映像であって、分割対象となる医学映像であり、各医学映像収集デバイスによって収集され得る。
【0037】
ここで、ターゲットオブジェクトは、例えば肝臓、心臓や腎臓などの生体器官であってよい。いくつかの実施例では、ターゲットオブジェクトは、例えば腫瘍などのような、異常が生じた生体組織であってあってもよい。
【0038】
ここで、第2医学映像は、ターゲットオブジェクトがラベリングされた医学映像、例えば、心臓領域がラベリングされた心臓映像などである。
【0039】
本願の実施例の方法の目的は、ラベリングされた第2医学映像を利用して、第1医学映像からターゲットオブジェクト領域を分割する、ことにある。
【0040】
理解できるものとして、本願の実施例では、第1および第2は、区別のためだけのものであり、時系列などの方面に関する制限がない。
【0041】
ステップ202で、第1医学映像および第2医学映像のそれぞれに対して特徴抽出を行い、第1医学映像の第1特徴情報と第2医学映像の第2特徴情報を得る。
【0042】
例えば、コンピュータデバイスは、第1医学映像および第2医学映像のそれぞれに対して畳み込み操作を行うことで、第1医学映像の第1特徴情報と第2医学映像の第2特徴情報を抽出してもよい。
【0043】
そのうちの1つの実施例では、特徴抽出の精度および効率を確保するために、コンピュータデバイスは、シャム(siamese network)ネットワークを採用して特徴情報を抽出してもよい。例えば、
図2bに示すように、シャム畳み込みニューラルネットワークを採用して、第1医学映像および第2医学映像のそれぞれに対して畳み込み操作を行うことで、第1医学映像の第1特徴情報と第2医学映像の第2特徴情報を抽出してもよい。
図2bに示すように、コンピュータデバイスは、ラベリングされた医学映像xおよびラベリングされていない医学映像yのそれぞれに対して畳み込み操作を行い、各々の特徴マップを抽出してもよい。
【0044】
ここで、畳み込みニューラルネットワークには、複数の畳み込み層が含まれてよく、各畳み込み層は、予め設定された大きさの畳み込み(例えば3*3*3の畳み込み)、バッチ正規化層(Batch Normalization)、および非線形活アクティブ層ReLuによって構成されている。すなわち、各畳み込み層では、その入力に対して、畳み込み処理、正規化処理およびアクティブ関数処理が行われる。
【0045】
第1医学映像を例として、コンピュータデバイスは、第1医学映像を畳み込みニューラルネットワークの1番目の畳み込み層に入力し、1番目の畳み込み層で、畳み込み処理、正規化処理、およびアクティブ関数処理を順次に行い、相応的な特徴情報を出力し、そして、出力された相応的な特徴情報を次の畳み込み層に入力して処理し、順に類推して、最後の畳み込み層が最終的な特徴情報を出力するまで持続する。ここで、第1医学映像の第1特徴情報は、畳み込みニューラルネットワークの最後の畳み込み層によって出力された特徴情報、例えば最終的に出力された特徴マップであってよい。
【0046】
ステップ203で、第1特徴情報と第2特徴情報とに基づいて、第2医学映像から第1医学映像へのオプティカルフロー動き情報を取得する。
【0047】
ここで、オプティカルフロー(optical flow)は、空間内を動く物体の、映像形成が観察される平面上の画素動きの瞬時速度であり、画像シーケンスにおける、画素の時間領域での変化および隣接する画像の間の相関性を利用して、1つ前のフレームと現在のフレームとの間に存在する対応関係を特見つけることによって、隣接する画像の間の物体動き情報を算出する方法である。一般には、オプティカルフローは、シーンにおける前景オブジェクト自体の動き、カメラの動き、または両者の共通動きによって生成されたものである。
【0048】
簡単に言えば、オプティカルフローは、空間内を動く物体の、映像形成が観測される平面上の画素動きの「瞬時速度」であり、オプティカルフローへの研究は、画像シーケンスにおける画素強度データの時間領域変化および相関性を利用して、各々の画素の位置の「動き」を決定することであり、オプティカルフロー場を研究する目的は、ピクチャシーケンスから、直接には得られない実際の動き場を近似し得ることである。
【0049】
ここで、オプティカルフロー動き情報は、具体的には、第2医学映像における、ある位置での画素点が第1医学映像におけるターゲット位置に動く場合の動き情報であってよく、動き方向および動き速度などのような動きパラメータを含む。
【0050】
例えば、t番目の医学映像におけるA画素点の位置が(x1,y1)であり、t+1番目の医学映像ではA点を再び特定し、その位置が(x2,y2)であると仮定すれば、コンピュータデバイスは、A画素点の動きパラメータを、(ux,vy)=(x2,y2)-(x1,y1)として決定することができる。
【0051】
そのうちの1つの実施例では、コンピュータデバイスは、2枚の医学映像の特徴情報に基づいて映像同士の画素位置の関連情報を学習し、そこからオプティカルフロー動き情報を学習することができる。具体的には、「第1特徴情報と第2特徴情報とに基づいて、第2医学映像から第1医学映像へのオプティカルフロー動き情報を取得する」ステップ202は、第1特徴情報と第2特徴情報を関連付けて、第2医学映像と第1医学映像との間の画素位置の対応関係情報を得るステップと、画素位置の対応関係情報に対してアップサンプリング操作を行い、第2医学映像から第1医学映像へのオプティカルフロー動き情報を得るステップと、を含んでもよい。
【0052】
本願の実施例では、医学映像間の画素位置の対応関係を取得するために、2つの医学映像の特徴情報を関連付けるかまたは融合することで、2つの映像を関連付けることができ、これにより、2つの医学映像間の画素位置の対応関係情報を得ることができる。
【0053】
ここで、特徴を関連付ける方式は様々があり、例えば、そのうちの1つの実施例では、「第1特徴情報と第2特徴情報を関連付けて、第2医学映像と第1医学映像との間の画素位置の対応関係情報を得る」ステップは、第1医学映像の第1特徴情報に対して畳み込み操作を行い、第1畳み込み特徴情報を得るステップと、第2医学映像の第2特徴情報に対して畳み込み操作を行い、第2畳み込み特徴情報を得るステップと、第1畳み込み特徴情報と第2畳み込み特徴情報を互いに融合して、第1融合特徴情報を得るステップと、第1融合特徴情報と第1畳み込み特徴情報を互いに融合して、第2医学映像と第1医学映像との間の画素位置の対応関係情報を得るステップと、を含んでもよい。
【0054】
そのうちの1つの実施例では、「第1畳み込み特徴情報と第2畳み込み特徴情報を互いに融合して、第1融合特徴情報を得る」ステップは、第1畳み込み特徴情報と第2畳み込み特徴情報を融合し、融合された畳み込み特徴情報を得るステップと、融合された畳み込み特徴情報と第1畳み込み特徴情報を融合し、第1融合特徴情報を得るステップと、を含む。
【0055】
そのうちの1つの実施例では、「第1融合特徴情報と第1畳み込み特徴情報を互いに融合して、第2医学映像と第1医学映像との間の画素位置の対応関係情報を得る」ステップは、第1融合特徴情報に対して畳み込み操作を行い、所定サイズの第3畳み込み特徴情報を得るステップであって、第3畳み込み特徴情報のサイズが第1特徴情報のサイズと同じであるステップと、所定サイズの第3畳み込み特徴情報と第1畳み込み特徴情報を融合し、第2医学映像と第1医学映像との間の画素位置の対応関係情報を得るステップと、を含む。
【0056】
そのうちの1つの実施例では、映像間の画素位置の関連情報を正確または迅速に取得するために、コンピュータデバイスは、非局所的な操作(Non-local operation)を用いて、医学映像の画素間の時間的および空間的関連情報を取得することができ、例えば、
図2bを参照して、非局所的なブロック(Non-local Block)を用いて非局所的な操作を行うことで、画素レベルの位置対応関係を学習することができる。
【0057】
非局所的なブロックの構造の模式図である
図2cに示すように、ラベリングされた医学映像x(つまり、第2医学映像)の特徴マップがx’であり、ラベリングされていない医学映像y(つまり、第1医学映像)の特徴マップがy’であり、ここで、x’、y’の次元が、それぞれ、T*H*W*1024であり、ここで、Tが、ビデオフレーム数(本願における映像の数に対応する)であると仮定すれば、特徴マップのサイズは、T×H×W×1024になり、つまり、1024個のチャネルがある。
【0058】
x’、y’の次元としてT*H*W*1024を入力し、次に、それぞれ、数が512であり、サイズが1*1*1である畳み込みカーネルを用いて畳み込みを行い、次元がいずれもT*H*W*512である3つのブランチの出力を得て、その後、flat(平滑)およびtrans(変換)操作によって、THW*512、512*THW、およびTHW*512の出力を得て、前の2つのブランチの2つの出力に対して行列乗算を行い、THW*THWの出力を得て、softmax(正規化関数)処理をした後、3番目のブランチの出力と行列乗算を行って、THW*512次元の出力を得、この出力をT*H*W*512次元の出力としてreshapeした後、畳み込みカーネルの数が1024であり、サイズが1*1*1である畳み込み層を通過させて、元のy’の特徴マップT*H*W*1024とelement-wise sum(要素合計)を行い、最後の出力結果を得て、この出力結果に基づいて、ラベリングされた医学映像xとラベリングされていない医学映像yとの間の画素位置の対応関係情報を得ることができる。
【0059】
図2bを参照すると、Non-local Blockを採用して、ラベリングされた医学映像xとラベリングされていない医学映像yとの間の画素位置の対応関係情報を学習した後、アップサンプリング層で、画素位置の対応関係情報に対してアップサンプリング操作を行い、オプティカルフロー動き情報△pを得ることができる。ラベリングされていない医学映像とは、第1医学映像を指し、ラベリングされた医学映像とは、第2医学映像を指す、ということを理解することができる。
【0060】
ステップ204で、オプティカルフロー動き情報と、ラベリングされたターゲットオブジェクト領域とに基づいて、第1医学映像におけるターゲットオブジェクトを分割し、第1医学映像の分割結果を得る。
【0061】
そのうちの1つの実施例では、オプティカルフロー動き情報△p(例えば、画素が動く場合の方向や速度など)が得られた後、オプティカルフロー動き情報に基づいてターゲットオブジェクト領域を再構築し、再構築された領域を、ラベリングされていない医学映像の分割結果とすることができる。
【0062】
例えば、ステップ204は、オプティカルフロー動き情報と、ラベリングされたターゲットオブジェクト領域とに基づいて、ターゲットオブジェクト領域の再構築(例えば、移行)を行い、再構築後のターゲットオブジェクト領域を得るステップと、再構築後のターゲットオブジェクト領域を第1医学映像の分割結果とするステップと、を含んでもよい。本願の実施例では、ターゲットオブジェクト領域の再構築は、ターゲットオブジェクト領域の移行などを含み得る。ターゲットオブジェクト領域の移行によって領域を再構築する。
【0063】
ここで、再構築する方式は様々があり、例えば、オプティカルフロー動き情報に基づいて、ラベリングされたターゲットオブジェクト領域内の画素を移動させ、移動後の画素を得て、移動後の画素に基づいて、ターゲットオブジェクト領域を再構築してもよい。例えば、オプティカルフロー動き情報△pに基づいて、ラベリングされた器官領域内の画素を分割空間内で移行させ、移行後の領域を形成し、該領域をラベリングされていない医学映像の器官分割領域としてもよい。
【0064】
オプティカルフロー動き情報△pを第1医学映像に適用できるようにするために(オプティカルフロー動き情報△pの取得は、ダウンサンプリング設定において行われる可能性があるので)、および再構築の速度を向上させるために、そのうちの1つの実施例では、コンピュータデバイスは、オプティカルフロー動き情報に対して、トリリニア補間(Trilinear Interpolation)処理を行い、処理されたオプティカルフロー動き情報に基づいて、ラベリングされていない第1サンプル医学映像を再構築し、第1再構築後の医学映像を得てもよい。すなわち、「オプティカルフロー動き情報と、ラベリングされたターゲットオブジェクト領域とに基づいて、第1医学映像におけるターゲットオブジェクトを分割し、第1医学映像の分割結果を得る」ステップは、オプティカルフロー動き情報に対して、トリリニア補間処理を行い、処理されたオプティカルフロー動き情報を得るステップと、処理されたオプティカルフロー動き情報再構築と、ラベリングされたターゲットオブジェクト領域とに基づいて、第1医学映像におけるターゲットオブジェクトを分割し、第1医学映像の分割結果を得るステップと、を含んでもよい。
【0065】
具体的には、コンピュータデバイスは、オプティカルフロー動き情報に対してトリリニア補間処理を行い、処理されたオプティカルフロー動き情報を得て、処理されたオプティカルフロー動き情報と、ラベリングされたターゲットオブジェクト領域とに基づいて、ターゲットオブジェクト領域の再構築を行い、再構築後のターゲットオブジェクト領域を得て、再構築後のターゲットオブジェクト領域を第1医学映像の分割結果とすることができる。
【0066】
例えば、コンピュータデバイスは、トリリニア補間のカーネルFに基づいて、予め設定された各方向(例えば、xyz軸方向)において、オプティカルフロー動き情報に対して補間操作を行い、処理されたオプティカルフロー動き情報を得ることができ、この処理されたオプティカルフロー動き情報は、トリリニア補間により実現されたオプティカルフロー動き情報である。具体的には、トリリニア補間プロセスについてが、以下の実施例を参照して、具体的に説明することができる。
【0067】
本願の実施例は、移行映像に基づいて映像を分割空間にマッピングする解決手段を提供する。当該解決手段は、映像から映像へのマッピングモデリングを、画素レベルのオプティカルフロー推定として設定し、画素が動く場合の方向や大きさなどのオプティカルフロー動き情報を学習することによって、ラベリングされていない映像の分割結果を、ラベリングされた映像のラベリング結果から再構築または移転する。解決手段全体の構想は、
図2dに示すようになる。
【0068】
図2dに示すように、医学映像が心房映像であることを例として、優先的に、心臓領域がラベリングされた1枚のラベリングされた映像(Labeled)と、1枚のラベリングされていない映像(Unlabeled)を提供し、その後、ラベリングされた映像からラベリングされていない映像へのオプティカルフロー動き情報△pを学習し、ラベリングされた心臓領域と、オプティカルフロー動き情報△pとによって、心臓領域を再構築(または移行)し、この再構築後の心臓領域(または移行された心臓領域)は、ラベリングされていない映像の心臓分割結果である。
【0069】
以上から分かるように、本願の実施例の解決手段は、ラベリングされた映像からラベリングされていない映像への変換を学習することによって、ラベリングされた映像の対象分割(例えば、器官分割)をラベリングされていない映像に移行し、ラベリングされた医学映像を利用して、ラベリングされていない医学映像に対して、ターゲットオブジェクト分割(例えば、器官分割)を行うことができ、これにより、従来の解決手段のように大量のラベリングデータ無しで分割モデルを訓練することが回避され、1つのラベリングされた医学映像と1つの分割対象となる医学映像を提供するだけで、分割対象となる医学映像への分割を実現することができ、これによって、医学映像の分割精確性および効率を大幅に向上させる。
【0070】
本願の実施例によって提供される分割手段は、任意の映像分割シーンに適用され得て、例えば、医学映像のラベリングシーンに適用され得、現在の画素/ボクセルレベルのラベリングには、時間や労力がかかり、かつ医者からの強力なサポートが必要とされるため、大量のラベルの取得が極めて困難になる。このような背景下で、本願の実施例によって提供される解決手段を採用すると、医者は、一例のデータを正確にラベリングするだけで、本願の実施例の解決手段を使用することにより、残りのデータをラベリングすることができる。医者にとっては、一例の器官などのようなターゲットオブジェクトをラベリングするだけで、他のラベリングされていないデータにおいて、ターゲットオブジェクト(例えば、器官)の正確的な分割を実行することができ、これによって、医者によるラベリング時間を大きく節約ですることがきる。
【0071】
本願の実施例における医学映像分割方法は、AIの深層学習ネットワークによって実現されてよく、例えば、第1医学映像と第2医学映像を取得した後、深層学習が実行された分割ネットワークによって、ターゲットオブジェクト(例えば、器官)の分割を実現してもよく、具体的には、分割ネットワークは、上記のステップ202~203などを実行してもよく、生成器の具体的な構造については、
図2bを参照することができる。
【0072】
ここで、分割ネットワークは、大量のラベリングデータセットによって訓練された分割ネットワークであってよい。具体的な訓練方式は様々があり、例えば、大量のラベリングされた器官の医学映像データセットに基づいて、バックプロパゲーションによって分割ネットワークを訓練してもよい。具体的には、ネットワークのターゲットオブジェクト分割結果と、ラベリング結果とに基づいて、分割損失を計算し(例えば、損失関数によって計算し)、分割損失に基づいてネットワークを訓練してもよい。
【0073】
更に考慮すると、医学映像データセットが、通常、異なる医学映像機器によって収集されるため、異なるデータセットのドメイン間の格差が比較的大きくて、深層ネットワークの一般化性能を深刻に妨げてしまい、そして、従来の訓練方式によれば、オプティカルフロー動き情報の学習正確性が悪くなり、分割正確性が低くなってしまう。
【0074】
アルゴリズムが臨床で本当に補助診断の役割を果たすことができる、ということを確保するために、モデルの一般化性能および分割精確性をさらに向上させる必要がある。また、教師あり訓練方法では、付加的な血管ラベリングを提供する必要があり、これには時間がかかるとともに高価であり、眼部疾患の診断の場合、大規模な血管分類および分割を実行することは現実的ではない。そのため、臨床では、付加的なラベリングを必要としない教師なし訓練方法を設計する必要もある。
【0075】
本願の実施例では、上記の問題に対して、教師なしドメイン適応(Unsupervised Domain Adaptation)技術が採用されている分割ネットワーク訓練方法が提供され、この訓練方法は、ラベルのあるデータセットの特徴構造を学習して知識を新しいデータセットに移行し、ラベルのない新しいデータセットに対して、比較的正確なターゲットオブジェクト分割(例えば、器官分割など)を提供することができ、深層ネットワーク(例えば、血分割ネットワーク)の、他のデータセットにおける一般化性能を効果的に向上させる。
【0076】
分割精確性を向上させるために、本願の実施例における教師なし適応訓練方法は、分割ネットワーク(即ち、生成器)を含む敵対的生成ネットワークを訓練し、その後、訓練済みの敵対的生成ネットワークにおける生成器を用いて、ラベリングされた医学映像からラベリングされていない医学映像へのオプティカルフロー動き情報を取得することによって、ラベルのない医学映像を分割することができる。
【0077】
具体的には、コンピュータデバイスは、ラベリングされたサンプル映像とラベリングされていないサンプル映像を使用して、第1敵対的生成ネットワークと第2敵対的生成ネットワークを含む映像分割ネットワークを訓練することができ、ここで、第1敵対的生成ネットワークは、第1対象分割ネットワーク(即ち、第1生成器)を含み、第2敵対的生成ネットワークは、第2対象分割ネットワーク(即ち、第2生成器)を含む。その後、実際に映像を分割する際に、第1生成器を使用してオプティカルフロー動き情報を学習する。
【0078】
図3aを参照すると、分割ネットワークが提供され、この分割ネットワークは、第1敵対的生成ネットワークと第2敵対的生成ネットワークを含む。ここで、第1敵対的生成ネットワークは、第1対象分割ネットワーク(即ち、第1生成器G
A)、判別器、第1再構築モジュール、および第2再構築モジュールを含み、第2敵対的生成ネットワークは、第2対象分割ネットワーク(即ち、第2生成器G
B)、第3再構築モジュール、および第4再構築モジュールを含む。
【0079】
図3bに示すように、第1敵対的生成ネットワークの訓練プロセスは、具体的には、以下の通りである。
【0080】
ステップ301で、第1サンプル医学映像と、ターゲットオブジェクトラベリング結果を有する第2サンプル医学映像とを取得する。
【0081】
ここで、第1サンプル医学映像yサンプルは、ターゲットオブジェクト(例えば、器官)領域がラベリングされていない医学映像であり、医学映像収集機器によって収集されてよく、第2サンプル医学映像xサンプルは、ターゲットオブジェクト(例えば、器官)領域がラベリングされた医学映像であり、医療関係者が医学映像に対してターゲットオブジェクト(例えば、器官)ラベリングを実行することによって得られたものである。
【0082】
ステップ302で、訓練対象となる第1敵対的生成ネットワークにおける第1生成器を使用して、第2サンプル医学映像から第1サンプル医学映像への第1サンプルオプティカルフロー動き情報を取得する。
【0083】
例えば、コンピュータデバイスは、第1生成器GAを使用して、第2サンプル医学映像xサンプルと第1サンプル医学映像yサンプルとの間の画素相互作用関係を学習し、第2サンプル医学映像xサンプルから第1サンプル医学映像yサンプルへの第1サンプルオプティカルフロー動き情報△pAを学習し把握してもよい。
【0084】
ここで、第1生成器が第1サンプルオプティカルフロー動き情報を取得するプロセスについては、具体的に、上記の実施例によって説明されたオプティカルフロー動き情報の取得プロセスを参照してもよい。第1生成器の構造については、上記の
図2bを参照してもよい。
【0085】
ステップ303で、訓練対象となる第1敵対的生成ネットワークにおける再構築モジュールを使用して、第1サンプルオプティカルフロー動き情報に基づいて映像再構築を行い、第1サンプル医学映像に対応する第1再構築後の医学映像と、第1分割結果とを得る。
【0086】
具体的に、映像再構築については、上記の実施例における説明を参照してもよい。
【0087】
例えば、コンピュータデバイスは、第1サンプルオプティカルフロー動き情報△p
Aに基づいて、ラベリングされた第2サンプル医学映像x
サンプルにおける画素を移動させることによって、ラベリングされていない第1サンプル医学映像を再構築し、第1再構築後の医学映像
【数1】
を得てもよい。コンピュータデバイスは、第1サンプルオプティカルフロー動き情報△p
Aに基づいて、第2サンプル医学映像x
サンプルにおけるターゲットオブジェクトラベリング領域xsの画素を移動させることによって、第1サンプル医学映像y
サンプルのターゲットオブジェクト分割領域
【数2】
を再構築してもよい。
【0088】
オプティカルフロー動き情報△pをオリジナルの医学映像(オプティカルフロー動き情報△pの取得は、ダウンサンプリング設定において行われる可能性があるので)に適用できるようにするために、および再構築の速度を向上させるために、そのうちの1つの実施例では、オプティカルフロー動き情報に対して、トリリニア補間(Trilinear Interpolation)処理を行い、処理されたオプティカルフロー動き情報に基づいて、ラベリングされていない第1サンプル医学映像を再構築し、第1再構築後の医学映像を得てよい。
【0089】
例えば、トリリニア補間のカーネルに基づいて、予め設定された各方向において、オプティカルフロー動き情報に対して補間操作を行い、処理されたオプティカルフロー動き情報を得てよく、この処理されたオプティカルフロー動き情報は、トリリニア補間により実現されたオプティカルフロー動き情報である。
【0090】
△pAは、小さい場合が多いため、本願の実施例では、トリリニア補間(Trilinear Interpolation)によって実現される。オリジナルの医学映像内の各位置p0について、そのターゲット位置は、p=p0+△pになり、本願の実施例では、このプロセスは、以下のように表される。
【0091】
【0092】
ここで、Fは、トリリニア補間のカーネルであり、x-axis、y-axis、z-axis上で同時に操作され、以下のように表される。
【0093】
【0094】
ここで、f(a,b)=max(0,1-|a-b|)とする。F(a,b)における大部分の要素が0であるため、その計算速度が非常に速い。
【0095】
本願の実施例では、再構築の速度および効率を向上させるために、映像(例えば、ラベリングされていない映像、またはラベリングされた映像)を再構築するたびに、学習し把握されたオプティカルフロー動き情報△pに対してトリリニア補間処理を行い、処理された情報に基づいて映像を再構築してもよい。
【0096】
同様に、本願の実施例では、再構築の速度および効率を向上させるために、分割対象領域(例えば、ラベリングされていない医学映像の分割対象領域、またはラベリングされた医学映像の分割対象領域)を再構築するたびに、学習し把握されたオプティカルフロー動き情報△pに対してトリリニア補間処理を行い、その後、処理された情報に基づいて分割対象領域を再構築してもよい。
【0097】
ステップ304で、第2敵対的生成ネットワークにおける第2生成器を使用して、第1再構築後の医学映像から第2サンプル医学映像への第2サンプルオプティカルフロー動き情報を取得する。
【0098】
同様に、第2生成器がオプティカルフロー動き情報を取得する方式、および生成器の構造については、上記の実施例の記載を参照してもよい。
【0099】
例えば、コンピュータデバイスは、第2生成器G
Bを使用して、第2サンプル医学映像x
サンプルと第1再構築後の医学映像
【数5】
との間の画素相互作用関係を学習し、第1再構築後の医学映像
【数6】
から第2サンプル医学映像x
サンプルへのオプティカルフロー動き情報△p
Bを学習し把握してもよい。
【0100】
ステップ305で、第2敵対的生成ネットワークにおける再構築モジュールを使用して、第2サンプルオプティカルフロー動き情報に基づいて映像再構築を行い、第2サンプル医学映像に対応する第2再構築後の医学映像と、第2分割結果とを得る。
【0101】
例えば、第2サンプルオプティカルフロー動き情報△p
Bに基づいて、第1再構築後の医学映像
【数7】
における画素を移動させることによって、ラベリングされた医学映像を再構築し、第2再構築後の医学映像
【数8】
を得る。第2サンプルオプティカルフロー動き情報△p
Bに基づいて、再構築されたターゲットオブジェクト分割領域
【数9】
の画素を移動させることによって、第2サンプル医学映像x
サンプルのターゲットオブジェクト分割領域
【数10】
を再構築する。
【0102】
ステップ306で、第1再構築後の医学映像、第1分割結果、第2再構築後の医学映像、および第2分割結果に基づいて、訓練対象となる第1敵対的生成ネットワークを訓練し、訓練済みの第1敵対的生成ネットワークを得る。
【0103】
理論的には、第1生成器G
Aは、第2サンプル医学映像x
サンプルから第1サンプル医学映像y
サンプルへのオプティカルフロー動き情報△p
Aをキャプチャすることができる。しかし、X→Yの方式は、何千万もの可能性があるので、このマッピングの一意性を確保するために、本願の実施例では、第1再構築後の医学映像
【数11】
と第2サンプル医学映像x
サンプルとの間のデータ関係を学習することにより、ラベリングされた映像を再構築することが望まれる。同様に、再構築された、ラベリングされていない映像
【数12】
が得られた後、コンピュータデバイスは、第2生成器G
Bを使用して、第1再構築後の医学映像
【数13】
と第2サンプル医学映像x
サンプルとの間の画素相互作用関係を学習し、オプティカルフロー動き情報△p
Bを学習し把握してもよい。オプティカルフロー動き情報△p
Bによってラベリングされた映像を
【数14】
として再構築する。
【0104】
具体的には、映像再構築のプロセスは、下式で表される。
【0105】
【0106】
同様に、本願の実施例では、オプティカルフロー動き情報を分割空間に適用し、再構築された、ラベリングされていない映像の分割
【数16】
および再構築された、ラベリングされた映像の分割
【数17】
を得てもよく、数式の表現は以下の通りである。
【0107】
【0108】
本願の実施例では、複数回の映像再構築、分割空間の分割結果の再構築によってネットワークを訓練することは、GAがオプティカルフロー動き情報を学習する正確性を向上させることができる。訓練プロセスでは、映像再構築および分割再構築の正確性を向上させ、さらに、訓練後の生成器が動き情報をキャプチャする正確性を向上させるために、映像再構築空間における再構築一致性損失を構築することによって、映像再構築の正確性を確保し、分割空間における分割一致性損失を構築することによって、映像分割の正確性を確保することができる。
【0109】
例えば、そのうちの1つの実施例では、「第1再構築後の医学映像、第1分割結果、第2再構築後の医学映像、および第2分割結果に基づいて、第1敵対的生成ネットワークを訓練し、訓練後の第1敵対的生成ネットワークを得る」ステップは、ステップS1~ステップS3を含んでもよい。
【0110】
ステップS1で、第1再構築後の医学映像、および第2再構築後の医学映像に基づいて、映像再構築空間における再構築一致性損失を取得する。
【0111】
ここで、再構築一致性損失には、映像再構築プロセスにおける映像再構築一致性損失、およびオプティカルフロー動き情報の軌跡一致性損失などの損失のうちの少なくとも1つが含まれる。
【0112】
例えば、
図3aを参照すると、第2サンプル医学映像x
サンプルから、次に再構築された、ラベリングされていない第1再構築後の医学映像
【数19】
まで、さらに再構築された、ラベリングされた第2再構築後の医学映像
【数20】
まで(即ち、
【数21】
)の後、本願の実施例では、再構築された第2再構築後の医学映像
【数22】
と、ターゲットオブジェクトラベリング結果を有するオリジナルの第2サンプル医学映像x
サンプルとが一致することが望まれ、したがって、映像再構築一致性損失が構築された。
【0113】
具体的には、コンピュータデバイスは、第2再構築後の医学映像と第2サンプル医学映像とに基づいて、第2サンプル医学映像と第2再構築後の医学映像が一致に維持される場合の映像一致性損失を取得してもよい。例えば、
図3aを参照すると、一致性損失関数に基づいて、第2再構築後の医学映像
【数23】
と、第2サンプル医学映像x
サンプルとの間の映像再構築一致性損失を計算してもよい。
【0114】
また例えば、
図3aを参照すると、
【数24】
のオプティカルフロー動き情報を約束するために、本願の実施例では、△p
Aと△p
Bの間では画素レベルで軌跡一致性を示すことが望まれる。したがって、△p
Aと△p
Bの間では軌跡の一致に維持される場合の軌跡一致性損失L
traが構築された。
【0115】
第1サンプルオプティカルフロー動き情報と、第2サンプルオプティカルフロー動き情報とに基づいて、第1サンプルオプティカルフロー動き情報と第2サンプルオプティカルフロー動き情報が軌跡の一致を示す場合の軌跡一致性損失を取得する。例えば、予め設定された軌跡一致性損失関数に基づいて、△pAと△pBの間の軌跡一致性損失Ltraを計算する。
【0116】
そのうちの1つの実施例では、軌跡一致性損失を正確かつ簡便に計算するために、1つの映像を生成してもよく、コンピュータデバイスは、2つのオプティカルフロー動き情報をオリジナルの医学映像に適用して映像変換を行い、変換された映像とオリジナルの医学映像との間の変換損失を計算し、当該損失に基づいて軌跡一致性損失を得てもよい。
【0117】
具体的には、「第1サンプルオプティカルフロー動き情報と、第2サンプルオプティカルフロー動き情報とに基づいて、第1サンプルオプティカルフロー動き情報と第2サンプルオプティカルフロー動き情報が軌跡の一致を示す場合の軌跡一致性損失を取得する」ステップは、1つのオリジナルの医学映像を生成するステップと、第1サンプルオプティカルフロー動き情報と、第2サンプルオプティカルフロー動き情報とに基づいて、オリジナルの医学映像を変換し、変換された医学映像を得るステップと、変換された医学映像とオリジナルの医学映像との間の変換損失を取得するステップと、変換損失を、第1サンプルオプティカルフロー動き情報と第2サンプルオプティカルフロー動き情報が軌跡の一致を示す場合の軌跡一致性損失とするステップと、を含んでもよい。
【0118】
図3cに示すように、△p
Aと△p
Bの間では画素レベルで軌跡一致性を示すという約束情報を実現するために、1つのオリジナルの医学映像r
h*w*c~N(O,I)をランダムに構築し、本願の実施例では、オプティカルフロー動き情報△p
Aと△p
Bがこのオリジナルの医学映像に適用され、これらの一対の変換によって、再構築された映像
【数25】
とオリジナルの医学映像rが一致性を示すことが望まれる。
【0119】
さらに、いくつかの実施例では、映像再構築の正確性を向上させ、さらに、分割正確性を向上させるために、映像構築一致性を維持する場合の他の損失が構築されてもよい。
【0120】
ステップS2で、第1分割結果、第2分割結果、および第2サンプル医学映像のターゲットオブジェクトラベリング結果に基づいて、分割空間における分割一致性損失を取得する。
【0121】
ここで、分割一致性損失は、分割空間において再構築されたターゲットオブジェクト分割結果とラベリングされたターゲットオブジェクト分割結果が一致に維持される場合の損失である。ここで、再構築されたターゲットオブジェクト分割結果およびラベリングされたターゲットオブジェクト分割結果は、映像分割、マスク値、セマンティクスなどの点において一致性を保つことができる。すなわち、分割一致性損失には、映像分割一致性損失、マスク値損失、セマンティクス一致性損失などの損失が含まれる。
【0122】
例えば、
図3aを参照すると、分割空間において一致性
【数26】
を達成し、x
sと
【数27】
を一致に維持させるために、映像分割一致性損失を設定してもよい。具体的には、コンピュータデバイスは、第2分割結果とターゲットオブジェクトラベリング結果とに基づいて、ターゲットオブジェクトラベリング結果と第2分割結果が一致に維持される場合の映像分割一致性損失を取得してもよい。例えば、x
sと
【数28】
の間の差を計算することによって、映像分割一致性損失を得てもよい。
【0123】
また例えば、オプティカルフロー情報を分割空間に使用して得られた分割マスク値が、予め設定された分割マスク値(例えば、{0,1})に近づけることを確保するために、コンピュータデバイスは、得られた分割結果の分割マスク値が予め設定された分割マスク値(例えば、0または1)に近づけるように励ますために、マスク値損失を導入してもよい。そのうちの1つの実施例では、分割マスク値が0または1に近いため、非表示になり、マスク値損失は、ハッシュ損失(hash loss)と呼ばれてもよい。
【0124】
ここで、分割マスク値には、例えば器官分割画像の画素値などのような、分割結果の画素値が含まれてもよい。
【0125】
そのうちの1つの実施例では、オプティカルフロー動き情報に基づいて再構築された分割マスク(例えば、
【数29】
)とオリジナルの分割x
sが大きさでの一致を示すことを確保するために、
【数30】
について約束を実施してもよい。具体的には、コンピュータデバイスは、第1分割結果、第2分割結果と、ターゲットオブジェクトラベリング結果との大きさが一致する約束条件を構築し、マスク値損失に対応する約束条件を得てもよく、訓練を行う際に、マスク値損失、およびそれに対応する約束条件に基づいて、ネットワークに対して訓練を行うことができる。
【0126】
そのうちの1つの実施例では、ネットワークによって学習された分割結果(例えば、分割マスク
【数31】
)が映像上でセマンティクス一致性をも示すことが望まれる。例えば、学習された分割マスク
【数32】
における各画素の数値について、一致するように維持されると、観察を行う際に、ターゲットオブジェクト分割領域(例えば、器官領域)が容易に認識され得る。このため、本願の実施例では、セマンティクス一致性損失が導入され、具体的には、第1分割結果に基づいて、第1分割結果が映像上でセマンティクス一致性を維持する場合のセマンティクス一致性損失が構築されてもよい。そのうちの1つの実施例では、セマンティクス一致性は、外観平滑性と見なすことができ、したがって、セマンティクス一致性損失は、外観平滑性損失(Apperance smooth loss)と呼ばれてもよい。
【0127】
そのうちの1つの実施例では、セマンティクスの一致性を維持するために、観察されたターゲットオブジェクト領域(例えば、器官内部)の数値分布が一致性を有することを確保する必要がある。したがって、コンピュータデバイスは、分割結果映像における画素値に対して導関数を求めることによって、分割結果映像におけるターゲットオブジェクト領域の数値分布一致性を確保する場合の損失を算出してもよい。
【0128】
例えば、コンピュータデバイスは、第1分割結果における画素値に対して、予め設定された方向に沿って導関数を求めて、予め設定された方向の、導関数を求める結果を得て、予め設定された方向の、導関数を求める結果と、第1分割結果とに基づいて、第1分割結果が映像上でセマンティクス一致性を維持する場合のセマンティクス一致性損失を構築してもよい。
【0129】
例えば、分割マスク
【数33】
に対して、x-axis、y-axis、z-axisのそれぞれから導関数を求めて、△y
x-axis、△y
y-axis、△y
z-axisを得て、導関数を求める結果に基づいて、外観平滑性損失を算出してもよい。
【0130】
理解すべきものとして、本願の実施例では、分割空間における分割一致性損失、映像再構築空間における再構築一致性損失は、上記のものに限らず、ニーズに応じて、他のタイプの再構築一致性損失または分割一致性損失を設計してもよい。
【0131】
ステップS3で、再構築一致性損失、分割一致性損失に基づいて、訓練対象となる第1敵対的生成ネットワークに対して訓練を行い、訓練済みの第1敵対的生成ネットワークを得る。
【0132】
1つの実施例では、ネットワークの分割正確性を向上させるために、第1敵対的生成ネットワークは、敵対的生成訓練方式によって訓練されてもよく、例えば、本願の実施例の方法は、第1敵対的生成ネットワークにおける判別器を使用して、サンプル医学映像と第1再構築後の医学映像を判別し、判別結果を得るステップと、第1再構築後の医学映像、および判別結果に基づいて、第1敵対的生成ネットワークの敵対的損失を取得するステップと、をさらに含んでもよい。この場合、本願の実施例では、敵対的損失、再構築一致性損失、分割一致性損失に基づいて、訓練対象となる第1敵対的生成ネットワークに対して訓練を行い、訓練済みの第1敵対的生成ネットワークを得てもよい。
【0133】
そのうちの1つの実施例では、敵対的損失には、極大化敵対的損失、極小化敵対的損失が含まれてもよく、具体的には、第1再構築後の医学映像と第1サンプル医学映像とに基づいて再構築損失を計算し、判断結果に基づいて判別損失を計算し、再構築損失と判別損失とに基づいて、敵対的生成ネットワークを構築する場合の極小化敵対的損失、極大化敵対的損失を計算してもよい。この場合、本願の実施例では、極小化敵対的損失および極大化敵対的損失、再構築一致性損失、分割一致性損失に基づいて、第1敵対的生成ネットワークを反復訓練し、訓練後の敵対的生成ネットワークを得てもよい。
【0134】
例えば、
図3aを参照すると、第1生成器G
Aでは、ラベリングされた映像からラベリングされていない映像へのオプティカルフロー動き情報を正確に学習することが望まれ、判別器Dでは、第1再構築後の医学映像
【数34】
と実際のラベリングされていない第1医学映像yを区別することが望まれる。このようにして、第1生成器G
Aと判別器Dの間では敵対が形成され、第1生成器G
Aでは、最小損失で再構築することが望まれる一方、判別器では、最大損失で区別することが望まれる。したがって、最大損失、最小損失でネットワークを訓練してもよい。
【0135】
以上から分かるように、本願の実施例では、教師なし敵対的生成訓練方式によって映像分割ネットワークを訓練することが提案されており、モデルの他のデータセットにおける一般化性能を効果的に向上させるとともに、生成器がオプティカルフロー動き情報を正確に学習することを可能とし、映像分割の精度を向上させる。
【0136】
例えば、上述のように第1敵対的生成ネットワークを訓練した後、第1敵対的生成ネットワークにおける第1生成器を使用して、ラベリングされた第2医学映像からラベリングされていない第1医学映像へのオプティカルフロー動き情報を正確に学習することができ、これにより、オプティカルフロー動き情報に基づいて、ラベリングされていない第1医学映像内のターゲットオブジェクトを分割することができ、これによって、分割精度を大幅に向上させる。
【0137】
以上の実施例に記載の方法に基づいて、以下、例を挙げてさらに詳しく説明する。
【0138】
本実施例では、該医学映像分割装置がコンピュータデバイスに集積されること合を具体的な例として説明する。
【0139】
(一)分割ネットワークの訓練
上記の
図3aの説明に基づいて、
図4aに示すように、第1生成器GA、第2生成器GB、および複数のWarp(再構築)モジュールなどを含む分割ネットワークのアーキテクチャの模式図が提案されている。
【0140】
(1)優先的には、コンピュータデバイスは、ターゲットオブジェクト(例えば、器官)がラベリングされた、ラベリングされた映像x、およびラベリングされていない、ラベリングされていない映像yを取得する。
図4aを参照すると、x∈R
h*w*cがラベルのある1枚医学映像であり、x
s∈R
h*w*cがそれに対応するラベルであり、h、w、cが、それぞれ、医学映像の冠状、矢状および軸の方向での次元である、ということが約定される。データセット
【数35】
がラベルのない大量の医学映像データセットである、ということが約定される。
【0141】
図4aに示すネットワークにおける第1生成器を使用して、ラベリングされた映像xとラベリングされていない映像yとの間の画素相互作用関係を学習することで、オプティカルフロー動き情報△p
A∈R
h*w*c*3を学習して把握し、しかしながら、Warpによってオプティカルフロー動き情報△p
Aに基づいて、ラベリングされていない映像が
【数36】
として再構築された。Warpによってオプティカルフロー動き情報△p
Aに基づいて、ラベリングされていない映像の分割映像が
【数37】
として再構築された。
【0142】
再構築された、ラベリングされていない映像
【数38】
が得られた後、生成器G
Bを使用して、再構築された映像
【数39】
とラベリングされた映像xとの間の画素相互作用関係を学習し、オプティカルフロー動き情報△p
Bを学習して把握する。Warpによってオプティカルフロー動き情報△p
Bに基づいて、ラベリングされた映像が
【数40】
として再構築された。Warpによってオプティカルフロー動き情報△p
Bに基づいて、ラベリングされた映像xの分割映像が
【数41】
として再構築された。
【0143】
(2)コンピュータデバイスは再構築結果に基づいて損失を算出する。
例えば、予め設定された損失関数、および再構築結果などに基づいて、損失を算出する。上記の実施例に説明された映像再構築空間の再構築一致性損失、分割空間における分割一致性損失、本願の実施例では、下記損失および損失関数が導入される。
【0144】
(2.1)敵対的損失
再構築された映像をターゲットドメインに十分に接近させるために、本願の実施例では、敵対的損失(Adversarial Loss)が導入される。具体的な数式の表現は、以下の通りである。
【0145】
【0146】
ここで、生成器G
Aでは、ラベリングされた映像からラベリングされていない映像へのオプティカルフロー動き情報を正確に学習することが望まれる一方、判別器Dでは、再構築された映像
【数43】
と実際のラベリングされていない映像yを区別することが望まれる。このようにして、生成器G
Aと判別器Dの間では敵対が形成され、生成器G
Aでは、最小損失で再構築を行うことが望まれる一方、判別器では、最大損失で区別を行うことが望まれ、即ち、
【数44】
になる。
【0147】
(2.2)サイクル一致性損失
ラベリングされた映像xから、次に再構築された、ラベリングされていない映像
【数45】
まで、さらに再構築された、ラベリングされた映像
【数46】
まで(即ち
【数47】
)の後、再構築された、ラベリングされた映像
【数48】
と、オリジナルのラベリングされた映像xとが一致することが望まれる。また、分割空間で一致性
【数49】
を達成することが同様に望まれる。そのため、以下のようなサイクル一致性損失が導入される。
【0148】
【0149】
(2.2)軌跡一致性損失
さらに、
【数51】
のオプティカルフロー動き情報を約束するために、本願の実施例では、本願の実施例では、△p
Aと△p
Bの間では画素レベルで軌跡一致性を示すことを望まれ、
図3cに示すようになる。この約束情報を実現するために、1つの映像r
h*w*c
~N(O,I)をランダムに構築して生成し、本願の実施例では、オプティカルフロー動き情報△p
Aと△p
Bがこの映像に適用され、本願の実施例では、これらの一対の変換によって、再構築された映像
【数52】
とオリジナルの映像rが一致性を示すことが望まれる。このプロセスは全体として下記の数式によって表される。
【0150】
【0151】
(2.3)正規損失
オプティカルフロー情報を分割空間に使用して得られた分割マスク値が{0,1}に属することを確保するために、本願の実施例では、その分割マスク値をできるだけ0,1に接近させることを励ますように、ハッシュ損失が導入される。また、本願の実施例では、学習された分割マスク
【数54】
とオリジナルの分割X
Sが大きさでの一致を示すことが望まれるため、本願の実施例では、
【数55】
について約束を実施する。その数式は、全体として以下のように表される。
【0152】
【0153】
また、本願の実施例では、学習された分割マスク
【数57】
が映像上でセマンティクス一致性をも示すことが望まれる。このため、本願の実施例では、器官内部の数値分布が一致性を有することが観察され、本願の実施例では、映像に対して、x-axis、y-axis、z-axisに沿って、それぞれ導関数を求めて、△y
x-axis、△y
y-axis、△y
z-axisを得る。本願の実施例では、希望分割マスク
【数58】
と映像が器官の微分上で一致性を示すことが望まれる。このため、本願の実施例では、以下のような損失が設計される。
【0154】
【0155】
(3)コンピュータデバイスは、上記の算出された損失によって、ネットワークを訓練し、訓練後の第1敵対的生成ネットワークを得る。
【0156】
(二)訓練後の第1敵対的生成ネットワークにおける生成器によって、分割対象となる医学映像におけるターゲットオブジェクト(例えば、器官)の分割を実現することができる。
【0157】
図4bに示すように、ターゲットオブジェクトが器官であることを例として、医学映像分割方法の手順は、具体的には、以下の通りである。
【0158】
ステップ401で、コンピュータデバイスは、ラベリングされた医学映像とラベリングされていない医学映像を取得する。
【0159】
ここで、ラベリングされた医学映像は、ターゲット器官がラベリングされた医学映像であり、ラベリングされていない医学映像は、ラベリングされていない映像のデータセットなどに由来してもよい。
【0160】
ステップ402で、コンピュータデバイスは、生成器を使用して、ラベリングされた医学映像およびラベリングされていない医学映像のそれぞれに対して特徴抽出を行い、ラベリングされていない医学映像の第1特徴情報およびラベリングされた医学映像の第2特徴情報を得る。
【0161】
例えば、
図2bを参照すると、生成器は、複数の畳み込み層によって、ラベリングされた医学映像とラベリングされていない医学映像に対して特徴抽出を行ってもよい。具体的な特徴抽出プロセスについては、上記の実施例における説明を参照する。
【0162】
ステップ403で、コンピュータデバイスは、生成器を使用して、第1特徴情報と第2特徴情報とに基づいて、ラベリングされた医学映像からラベリングされていない医学映像へのオプティカルフロー動き情報を取得する。
【0163】
具体的には、生成器がオプティカルフロー動き情報を学習する具体的なプロセスについては、上記の実施例における説明、例えば、非局所的な操作を行うことなどを参照してもよい。例えば、
図2bに示すプロセスを参照してもよい。
【0164】
ステップ404で、コンピュータデバイスは、再構築モジュールを使用して、オプティカルフロー動き情報、ラベリングされた器官領域に基づいて、ターゲット器官領域の再構築を行い、再構築後のターゲット器官領域を得る。
【0165】
例えば、オプティカルフロー動き情報△pに基づいて、ラベリングされた器官領域内の画素を分割空間にて移動させ、再構築後のターゲット器官領域を形成し、当該領域は、ラベリングされていない映像の器官分割領域としてもよい。
【0166】
ステップ405で、コンピュータデバイスは、再構築後のターゲット器官領域を、ラベリングされていない医学映像の器官分割結果とする。
【0167】
以上から分かるように、本願の実施例の解決手段は、ラベリングされた映像からラベリングされていない映像への変換を学習することによって、ラベリングされた映像の対象分割(例えば、器官分割)をラベリングされた映像に移行し、ラベリングされた医学映像を利用して、ラベリングされていない医学映像に対して、オブジェクト分割(例えば、器官分割)を行うことができ、これにより、従来の解決手段のように大量のラベリングデータタ無しで分割モデルを訓練することが回避され、1つのラベリングされた映像と1つの分割対象となる映像を提供するだけで、分割対象となる映像への分割を実現することができ、これによって、医学映像の分割精確性および効率を大幅に向上させる。
【0168】
以上の方法をよりよく実施するために、本願の実施例では、医学映像分割装置がさらに提供され、当該医学映像分割装置は、コンピュータデバイス、例えばサーバや端末などのデバイスに集積されてもよい。
【0169】
例えば、
図5aに示すように、この医学映像分割装置は、取得ユニット501、特徴抽出ユニット502、オプティカルフローユニット503、および分割ユニット504などを備えていてもよい。ここで、
取得ユニット501は、第1医学映像と、ターゲットオブジェクト領域がラベリングされた第2医学映像とを取得するために使用される。
特徴抽出ユニット502は、第1医学映像および第2医学映像のそれぞれに対して特徴抽出を行い、第1医学映像の第1特徴情報と第2医学映像の第2特徴情報を得るために使用される。
オプティカルフローユニット503は、第1特徴情報と第2特徴情報とに基づいて、第2医学映像から第1医学映像へのオプティカルフロー動き情報を取得するために使用される。
分割ユニット504は、オプティカルフロー動き情報と、ラベリングされたターゲットオブジェクト領域とに基づいて、第1医学映像におけるターゲットオブジェクトを分割し、第1医学映像の分割結果を得るために使用される。
【0170】
そのうちの1つの実施例では、
図5bを参照すると、前記分割ユニット504は、
オプティカルフロー動き情報と、ラベリングされたターゲットオブジェクト領域とに基づいて、ターゲットオブジェクト領域の再構築を行い、再構築後のターゲットオブジェクト領域を得る再構築サブユニット5041と、
再構築後のターゲットオブジェクト領域を第1医学映像の分割結果とする分割サブユニット5042と、を備えていてもよい。
【0171】
そのうちの1つの実施例では、
図5bを参照すると、前記再構築サブユニット5041は、オプティカルフロー動き情報に対して、トリリニア補間処理を行い、処理されたオプティカルフロー動き情報を得ることと、処理されたオプティカルフロー動き情報再構築と、ラベリングされたターゲットオブジェクト領域とに基づいて、ターゲットオブジェクト領域の再構築を行い、再構築後のターゲットオブジェクト領域を得ることと、のために使用される。
【0172】
そのうちの1つの実施例では、
図5cを参照すると、前記オプティカルフローユニット503は、
第1特徴情報と第2特徴情報を関連付けて、第2医学映像と第1医学映像との間の画素位置の対応関係情報を得る関連付けサブユニット5031と、
画素位置の対応関係情報に対してアップサンプリング操作を行い、第2医学映像から第1医学映像へのオプティカルフロー動き情報を得るサンプリングサブユニット5032と、を備えていてもよい。
【0173】
そのうちの1つの実施例では、前記関連付けサブユニット5031は、具体的には、
第1医学映像の第1特徴情報に対して畳み込み操作を行い、第1畳み込み特徴情報を得ることと、第2医学映像の第2特徴情報に対して畳み込み操作を行い、第2畳み込み特徴情報を得ることと、第1畳み込み特徴情報と第2畳み込み特徴情報を互いに融合して、第1融合特徴情報を得ることと、第1融合特徴情報と第1畳み込み特徴情報を互いに融合して、第2医学映像と第1医学映像との間の画素位置の対応関係情報を得ることと、のために使用される。
【0174】
そのうちの1つの実施例では、前記オプティカルフローユニット503は、第1敵対的生成ネットワークにおける第1生成器を使用して、第1特徴情報と第2特徴情報とに基づいて、第2医学映像から第1医学映像へのオプティカルフロー動き情報を取得するために使用される。
【0175】
そのうちの1つの実施例では、
図5dを参照すると、本願の医学映像分割装置は、さらに、
第1サンプル医学映像と、ターゲットオブジェクト領域がラベリングされた第2サンプル医学映像とを取得するサンプル取得ユニット505と、
第1敵対的生成ネットワークにおける第1生成器を使用して、第2サンプル医学映像から第1サンプル医学映像への第1サンプルオプティカルフロー動き情報を取得する第1サンプルオプティカルフローユニット506と、
第1敵対的生成ネットワークにおける再構築モジュールを使用して、第1サンプルオプティカルフロー動き情報に基づいて映像再構築を行い、第1サンプル医学映像に対応する第1再構築後の医学映像と、第1分割結果とを得る第1再構築ユニット507と、
第2敵対的生成ネットワークにおける第2生成器を使用して、第1再構築後の医学映像から第2サンプル医学映像への第2サンプルオプティカルフロー動き情報を取得する第2サンプルオプティカルフローユニット508と、
第2敵対的生成ネットワークにおける再構築モジュールを使用して、第2サンプルオプティカルフロー動き情報に基づいて映像再構築を行い、第2サンプル医学映像に対応する第2再構築後の医学映像、および第2分割結果を得る第2再構築ユニット509と、
第1再構築後の医学映像、第1分割結果、第2再構築後の医学映像、および第2分割結果に基づいて、訓練対象となる第1敵対的生成ネットワークを訓練し、訓練済みの第1敵対的生成ネットワークを得る訓練ユニット510と、を備えていてもよい。
【0176】
そのうちの1つの実施例では、
図5eを参照すると、前記訓練ユニット510は、
第1再構築後の医学映像、および第2再構築後の医学映像に基づいて、映像再構築空間における再構築一致性損失を取得する再構築損失取得サブユニット5101と、
第1分割結果、第2分割結果、および第2サンプル医学映像のターゲットオブジェクトラベリング結果に基づいて、分割空間における分割一致性損失を取得する分割損失取得サブユニット5102と、
再構築一致性損失、分割一致性損失に基づいて、第1敵対的生成ネットワークに対して訓練を行い、訓練後の第1敵対的生成ネットワークを得る訓練サブユニットと、を備えていてもよい。
【0177】
そのうちの1つの実施例では、前記再構築一致性損失には、映像再構築一致性損失と、軌跡一致性損失とが含まれており、前記再構築損失取得サブユニット5101は、第2再構築後の医学映像と第2サンプル医学映像とに基づいて、第2サンプル医学映像と第2再構築後の医学映像が一致に維持される場合の映像再構築一致性損失を取得することと、第1サンプルオプティカルフロー動き情報と第2サンプルオプティカルフロー動き情報とに基づいて、第1サンプルオプティカルフロー動き情報と第2サンプルオプティカルフロー動き情報が軌跡の一致を示す場合の軌跡一致性損失を取得することと、のために使用される。
【0178】
そのうちの1つの実施例では、前記分割一致性損失には、映像分割一致性損失、マスク値損失、およびセマンティクス一致性損失が含まれており、前記分割損失取得サブユニット5102は、第2分割結果とターゲットオブジェクトラベリング結果とに基づいて、ターゲットオブジェクトラベリング結果と第2分割結果が一致に維持される場合の映像分割一致性損失を取得することと、第1分割結果、第2分割結果、および予め設定された分割マスク値に基づいて、第1分割結果、第2分割結果の、予め設定された分割マスク値に対するマスク値損失をそれぞれ取得することと、第1分割結果に基づいて、第1分割結果が映像上でセマンティクス一致性を維持する場合のセマンティクス一致性損失を構築することと、のために使用される。
【0179】
そのうちの1つの実施例では、前記分割損失取得サブユニット5102は、第1分割結果における画素値に対して予め設定された方向に沿って導関数を求めて、予め設定された方向の、導関数を求める結果を得ることと、予め設定された方向の、導関数を求める結果と、第1分割結果とに基づいて、第1分割結果が映像上でセマンティクス一致性を維持する場合のセマンティクス一致性損失を構築することと、のために使用される。
【0180】
そのうちの1つの実施例では、前記再構築損失取得サブユニット5101は、具体的には、1つのオリジナルの医学映像を生成することと、第1サンプルオプティカルフロー動き情報と、第2サンプルオプティカルフロー動き情報とに基づいて、オリジナルの医学映像を変換し、変換された医学映像を得ることと、変換された医学映像とオリジナルの医学映像との間の変換損失を取得することと、変換損失を、第1サンプルオプティカルフロー動き情報と第2サンプルオプティカルフロー動き情報が軌跡の一致を示す場合の軌跡一致性損失とすることと、のために使用される。
【0181】
そのうちの1つの実施例では、
図5fを参照すると、医学映像分割装置は、さらに、敵対的損失取得ユニット511を含み、
前記敵対的損失取得ユニット511は、第1敵対的生成ネットワークにおける判別器を使用して、サンプル医学映像と第1再構築後の医学映像を判別し、判別結果を得ることと、第1再構築後の医学映像、および判別結果に基づいて、第1敵対的生成ネットワークの敵対的損失を取得することと、のために使用される。
【0182】
前記訓練ユニット512は、敵対的損失、再構築一致性損失、分割一致性損失に基づいて、訓練対象となる第1敵対的生成ネットワークに対して訓練を行い、訓練済みの第1敵対的生成ネットワークを得るために使用される。
【0183】
具体的に実行する際に、上記の各ユニットは、独立したエンティティとして実現されてもよく、任意の組み合わせを行って、同一またはいくつかのエンティティとして実現されてもよいし、上記の各ユニットの具体的な実施については、上記の方法の実施例を参照することができ、ここでは、説明が省略される。
【0184】
以上から分かるように、本願の実施例は、取得ユニット501を介して、第1医学映像と、ターゲットオブジェクト領域がラベリングされた第2医学映像とを取得することと、特徴抽出ユニット502を介して、第1医学映像および第2医学映像のそれぞれに対して特徴抽出を行い、第1医学映像の第1特徴情報と第2医学映像の第2特徴情報を得ことと、オプティカルフローユニット503を介して、第1特徴情報と第2特徴情報とに基づいて、第2医学映像から第1医学映像へのオプティカルフロー動き情報を取得することと、分割ユニット504を介して、オプティカルフロー動き情報と、ラベリングされたターゲットオブジェクト領域とに基づいて、第1医学映像におけるターゲットオブジェクトを分割し、第1医学映像の分割結果を得ることと、を実行することができる。この解決手段は、ラベリングされた映像からラベリングされていない映像への変換を学習することによって、ラベリングされた映像の対象(例えば、器官分割)をラベリングされた映像に移行し、ラベリングされた医学映像を利用して、ラベリングされていない医学映像に対して、オブジェクト(例えば、器官分割)を行うことができ、これによって、医学映像の分割精確性および効率を大幅に向上させる。
【0185】
本願の実施例は、コンピュータデバイスをさらに提供し、本願の実施例にかかるコンピュータデバイスの構造の模式図が示されている
図6に示すように、具体的には、
該コンピュータデバイスは、1つ以上の処理カーネルを有するプロセッサ601、1つ以上のコンピュータ読み取り可能な記憶媒体を有するメモリ602、電源603や入力ユニット604などのコンポーネントを含んでもよい。当業者が理解できるように、
図6に示すコンピュータデバイスの構造は、コンピュータデバイスに対しする限定を構成せず、図示に示されるよりも多いまたは少ないコンポーネントを含んだり、一部のコンポーネントを組み合わたり、異なるコンポーネントの配置を取ったりしてもよい。
【0186】
プロセッサ601は、このコンピュータデバイスの制御センターであり、様々なインターフェースおよび回線を利用してコンピュータデバイス全体の各部を接続し、メモリ602に記憶されているソフトウェアプログラムおよび/またはモジュールをランまたは実行すること、かつ、メモリ602に記憶されているデータを呼び出すことで、コンピュータデバイスの各機能を実行したりデータを処理したりすることによって、コンピュータデバイスの全体に対して監視および制御を行う。オプションとして、プロセッサ601は、1つまたは複数の処理カーネルを含んでもよく、好ましくは、プロセッサ601は、アプリケーションプロセッサとモデムプロセッサを集積してもよいし、ここで、アプリケーションプロセッサは、主に、オペレーティングシステム、ユーザーインターフェースおよびアプリケーションプログラムなどを処理し、モデムプロセッサは、主に、無線通信を処理する。理解できるものとして、上記のモデムプロセッサは、プロセッサ601に集積されなくてもよい。
【0187】
メモリ602は、ソフトウェアプログラムおよびモジュールを記憶するために使用されてもよく、プロセッサ601は、メモリ602に記憶されているソフトウェアプログラムおよびモジュールを実行することによって、各種の機能性アプリケーションおよびデータ処理を実行する。メモリ602は、主に、プログラム記憶領域およびデータ記憶領域を含んでもよく、ここで、プログラム記憶領域には、オペレーティングシステム、少なくとも1つの機能によって必要とされるアプリケーションプログラム(例えば、音声再生機能、映像再生機能など)などが記憶されてもよく、データ記憶領域には、コンピュータデバイスの使用に従って作成されたデータなどが記憶されてもよい。さらに、メモリ602は、高速ランダム・アクセス・メモリを含んでもよく、また、例えば少なくとも1つの磁気ディスク記憶デバイス、フラッシュデバイスなどの不揮発性メモリ、または他の揮発性固体記憶デバイスを含んでもよい。相応的に、メモリ602は、メモリ602へのプロセッサ601によるアクセスを可能とするために、メモリコントローラをさらに含んでもよい。
【0188】
コンピュータデバイスは、各コンポーネントに電力を供給する電源603をさらに含み、好ましくは、電源603は、電源管理システムを介して、プロセッサ601に論理的に接続され得て、これにより、充電、放電、および電力消費管理などの機能は、電源管理システムを介して実現され得る。電源603は、1つ以上の直流または交流電源、再充電システム、電源故障検出回路、電源変換器またはインバータ、電源状態インジケータなどの任意のコンポーネントをさらに含んでもよい。
【0189】
当該コンピュータデバイスは、入力ユニット604をさらに含んでもよく、この入力ユニット604は、入力された数字や文字情報を受信することと、ユーザ設定および機能制御に関するキーボード、マウス、ジョイスティック、光学またはトラックボールの信号入力を生成することと、のために使用され得る。
【0190】
図示されていないが、コンピュータデバイスは、表示ユニットなどを含んでもよく、ここでは詳しく説明しない。具体的には、本実施例において、コンピュータデバイスにおけるプロセッサ601は、下記の命令に従って、1つ以上のアプリケーションプログラムのプロセスに対応する実行可能ファイルをメモリ602にロードし、メモリ602に記憶されているアプリケーションプログラムを実行することができ、これにより、下記の各種機能、即ち、
第1医学映像と、ターゲットオブジェクト領域がラベリングされた第2医学映像とを取得することと、第1医学映像および第2医学映像のそれぞれに対して特徴抽出を行い、第1医学映像の第1特徴情報と第2医学映像の第2特徴情報を得ることと、第1特徴情報と第2特徴情報とに基づいて、第2医学映像から第1医学映像へのオプティカルフロー動き情報を取得することと、オプティカルフロー動き情報と、ラベリングされたターゲットオブジェクト領域とに基づいて、第1医学映像におけるターゲットオブジェクトを分割し、第1医学映像の分割結果を得ることと、が実現される。
【0191】
上記の各動作については、具体的には、前の実施例を参照してもよく、ここでは詳細には説明しない。
【0192】
以上から分かるように、本実施例のコンピュータデバイスは、第1医学映像と、ターゲットオブジェクト領域がラベリングされた第2医学映像との後、第1医学映像および第2医学映像のそれぞれに対して特徴抽出を行い、第1医学映像の第1特徴情報と第2医学映像の第2特徴情報を得、第1特徴情報と第2特徴情報とに基づいて、第2医学映像から第1医学映像へのオプティカルフロー動き情報を取得し、オプティカルフロー動き情報と、ラベリングされたターゲットオブジェクト領域とに基づいて、第1医学映像におけるターゲットオブジェクトを分割し、第1医学映像の分割結果を得、したがって、この解決手段は、ラベリングされた映像からラベリングされていない映像への変換を学習することによって、ラベリングされた映像の対象(例えば、器官分割)をラベリングされた映像に移行し、ラベリングされた医学映像を利用して、ラベリングされていない医学映像に対して、ブジェクト(例えば、器官分割)を行うことができ、これによって、医学映像の分割精確性および効率を大幅に向上させる。
【0193】
当業者が理解できるものとして、上記の実施例の各方法におけるステップの全部または一部は、命令によって完成させてもよく、または関連するハードウェアを命令によって制御して完了させてもよいし、当該命令は、コンピュータ読み取り可能な記憶媒体に記憶され、プロセッサによってロードされ実行されてもよい。
【0194】
このため、本願の実施例は、コンピュータプログラムが記憶されているコンピュータ読み取り可能な記憶媒体を提供し、該コンピュータプログラムは、本願の実施例によって提供されるいずれかの医学映像分割方法におけるステップを実行するために、プロセッサによってロードされ得る。例えば、該コンピュータプログラムは、下記のステップ、即ち、
第1医学映像と、ターゲットオブジェクト領域がラベリングされた第2医学映像とを取得するステップと、第1医学映像および第2医学映像のそれぞれに対して特徴抽出を行い、第1医学映像の第1特徴情報と第2医学映像の第2特徴情報を得るステップと、第1特徴情報と第2特徴情報とに基づいて、第2医学映像から第1医学映像へのオプティカルフロー動き情報を取得するステップと、オプティカルフロー動き情報と、ラベリングされたターゲットオブジェクト領域とに基づいて、第1医学映像におけるターゲットオブジェクトを分割し、第1医学映像の分割結果を得るステップと、を実行することができる。
【0195】
以上の各操作の具体的な実施については、前述の実施例を参照してもよく、ここでは詳しく説明しない。
【0196】
ここで、当該コンピュータ読み取り可能な記憶媒体には、読み出し専用メモリ(ROM:Read Only Memory)、ランダム・アクセス・メモリ(RAM:Random Access Memory)、磁気ディスクまたはディスクなどが含まれてもよい。
【0197】
当該コンピュータ読み取り可能な記憶媒体に記憶されている命令は、本願の実施例によって提供されるいずれかの医学映像分割方法におけるステップを実行できるため、本願の実施例によって提供されるいずれかの医学映像分割方法により実現され得る有益な効果を実現することができ、この詳細については、前述の実施例を参照すればよく、ここでは詳しく説明しない。
【0198】
以上、本願の実施例によって提供される医学映像分割方法、装置、コンピュータデバイス、およびコンピュータ読み取り可能な記憶媒体を詳しく説明しており、本明細書では、具体例を用いて本発明の原理および実施形態を説明したが、以上の実施例の説明は、本発明の方法およびそのコアアイデアを理解するためにのみ使用され、また、当業者にとっては、本発明の構想に従って、具体的な実施形態および適用範囲において変更される点があるので、上記のように、本明細書の内容は、本発明に対する制限として理解されるべきではない。
【符号の説明】
【0199】
501 取得ユニット
502 特徴抽出ユニット
503 オプティカルフローユニット
504 分割ユニット
【手続補正書】
【提出日】2021-10-18
【手続補正1】
【補正対象書類名】特許請求の範囲
【補正対象項目名】全文
【補正方法】変更
【補正の内容】
【特許請求の範囲】
【請求項1】
コンピュータデバイスが実行する医学映像分割方法であって、
第1医学映像と、ターゲットオブジェクト領域がラベリングされた第2医学映像とを取得するステップと、
前記第1医学映像および前記第2医学映像のそれぞれに特徴抽出を行い、前記第1医学映像の第1特徴情報と前記第2医学映像の第2特徴情報を得るステップと、
前記第1特徴情報と前記第2特徴情報とに基づいて、前記第2医学映像から前記第1医学映像へのオプティカルフロー動き情報を取得するステップと、
前記オプティカルフロー動き情報と、ラベリングされたターゲットオブジェクト領域とに基づいて、前記第1医学映像におけるターゲットオブジェクトを分割し、前記第1医学映像の分割結果を得るステップと、
を含むことを特徴とする医学映像分割方法。
【請求項2】
前記オプティカルフロー動き情報と、ラベリングされたターゲットオブジェクト領域とに基づいて、前記第1医学映像におけるターゲットオブジェクトを分割し、前記第1医学映像の分割結果を得るステップは、
前記オプティカルフロー動き情報と、ラベリングされたターゲットオブジェクト領域とに基づいて、ターゲットオブジェクト領域の再構築を行い、再構築後のターゲットオブジェクト領域を得るステップと、
再構築後のターゲットオブジェクト領域を、前記第1医学映像の分割結果とするステップと、を含む、
ことを特徴とする請求項1に記載の医学映像分割方法。
【請求項3】
前記オプティカルフロー動き情報と、ラベリングされたターゲットオブジェクト領域とに基づいて、ターゲットオブジェクト領域の再構築を行い、再構築後のターゲットオブジェクト領域を得るステップは、
前記オプティカルフロー動き情報に対して、トリリニア補間処理を行い、処理されたオプティカルフロー動き情報を得るステップと、
処理されたオプティカルフロー動き情報と、ラベリングされたターゲットオブジェクト領域とに基づいて、ターゲットオブジェクト領域の再構築を行い、再構築後のターゲットオブジェクト領域を得るステップと、を含む、
ことを特徴とする請求項2に記載の医学映像分割方法。
【請求項4】
前記第1特徴情報と前記第2特徴情報とに基づいて、前記第2医学映像から前記第1医学映像へのオプティカルフロー動き情報を取得するステップは、
前記第1特徴情報と前記第2特徴情報を関連付けて、前記第2医学映像と前記第1医学映像との間の画素位置の対応関係情報を得るステップと、
前記画素位置の対応関係情報に対してアップサンプリング操作を行い、前記第2医学映像から前記第1医学映像へのオプティカルフロー動き情報を得るステップと、を含む、
ことを特徴とする請求項1に記載の医学映像分割方法。
【請求項5】
前記第1特徴情報と前記第2特徴情報を関連付けて、前記第2医学映像と前記第1医学映像との間の画素位置の対応関係情報を得るステップは、
前記第1医学映像の第1特徴情報に対して畳み込み操作を行い、第1畳み込み特徴情報を得るステップと、
前記第2医学映像の第2特徴情報に対して畳み込み操作を行い、第2畳み込み特徴情報を得るステップと、
前記第1畳み込み特徴情報と前記第2畳み込み特徴情報を互いに融合して、第1融合特徴情報を得るステップと、
前記第1融合特徴情報と前記第1畳み込み特徴情報を互いに融合して、第2医学映像と第1医学映像との間の画素位置の対応関係情報を得るステップと、を含む、
ことを特徴とする請求項4に記載の医学映像分割方法。
【請求項6】
前記第1特徴情報と前記第2特徴情報とに基づいて、前記第2医学映像から前記第1医学映像へのオプティカルフロー動き情報を取得するステップは、
第1敵対的生成ネットワークにおける第1生成器を使用して、前記第1特徴情報と前記第2特徴情報とに基づいて、前記第2医学映像から前記第1医学映像へのオプティカルフロー動き情報を取得するステップ、を含む、
ことを特徴とする請求項1に記載の医学映像分割方法。
【請求項7】
前記第1敵対的生成ネットワークは、
第1サンプル医学映像と、ターゲットオブジェクトラベリング結果を有する第2サンプル医学映像とを取得するステップと、
訓練対象となる第1敵対的生成ネットワークにおける第1生成器を使用して、前記第2サンプル医学映像から前記第1サンプル医学映像への第1サンプルオプティカルフロー動き情報を取得するステップと、
前記訓練対象となる第1敵対的生成ネットワークにおける再構築モジュールを使用して、前記第1サンプルオプティカルフロー動き情報に基づいて映像再構築を行い、前記第1サンプル医学映像に対応する第1再構築後の医学映像と、第1分割結果とを得るステップと、
第2敵対的生成ネットワークにおける第2生成器を使用して、前記第1再構築後の医学映像から前記第2サンプル医学映像への第2サンプルオプティカルフロー動き情報を取得するステップと、
第2敵対的生成ネットワークにおける再構築モジュールを使用して、前記第2サンプルオプティカルフロー動き情報に基づいて映像再構築を行い、前記第2サンプル医学映像に対応する第2再構築後の医学映像と、第2分割結果とを得るステップと、
前記第1再構築後の医学映像、前記第1分割結果、前記第2再構築後の医学映像、および前記第2分割結果に基づいて、前記訓練対象となる第1敵対的生成ネットワークを訓練し、訓練済みの第1敵対的生成ネットワークを得るステップと、によって訓練されるものである、
ことを特徴とする請求項6に記載の医学映像分割方法。
【請求項8】
前記第1再構築後の医学映像、前記第1分割結果、前記第2再構築後の医学映像、および前記第2分割結果に基づいて、前記訓練対象となる第1敵対的生成ネットワークを訓練し、訓練済みの第1敵対的生成ネットワークを得るステップは、
前記第1再構築後の医学映像と、前記第2再構築後の医学映像とに基づいて、映像再構築空間における再構築一致性損失を取得するステップと、
前記第1分割結果、前記第2分割結果、および前記第2サンプル医学映像のターゲットオブジェクトラベリング結果に基づいて、分割空間における分割一致性損失を取得するステップと、
前記再構築一致性損失、および前記分割一致性損失に基づいて、前記訓練対象となる第1敵対的生成ネットワークを訓練し、訓練済みの第1敵対的生成ネットワークを得るステップと、を含む、
ことを特徴とする請求項7に記載の医学映像分割方法。
【請求項9】
前記再構築一致性損失には、映像再構築一致性損失と、軌跡一致性損失とが含まれ、
前記第1再構築後の医学映像と、前記第2再構築後の医学映像とに基づいて、映像再構築空間における再構築一致性損失を取得するステップは、
前記第2再構築後の医学映像と前記第2サンプル医学映像とに基づいて、前記第2サンプル医学映像と前記第2再構築後の医学映像が一致に維持される場合の映像再構築一致性損失を取得するステップと、
前記第1サンプルオプティカルフロー動き情報と前記第2サンプルオプティカルフロー動き情報とに基づいて、前記第1サンプルオプティカルフロー動き情報と第2サンプルオプティカルフロー動き情報が軌跡の一致を示す場合の軌跡一致性損失を取得するステップとを、含む、
ことを特徴とする請求項8に記載の医学映像分割方法。
【請求項10】
前記分割一致性損失には、映像分割一致性損失、マスク値損失、およびセマンティクス一致性損失が含まれ、
前記第1分割結果、前記第2分割結果、および前記第2サンプル医学映像のターゲットオブジェクトラベリング結果に基づいて、分割空間における分割一致性損失を取得するステップは、
前記第2分割結果と前記ターゲットオブジェクトラベリング結果とに基づいて、前記ターゲットオブジェクトラベリング結果と前記第2分割結果が一致に維持される場合の映像分割一致性損失を取得するステップと、
前記第1分割結果、前記第2分割結果、および予め設定された分割マスク値に基づいて、前記第1分割結果、前記第2分割結果の、前記予め設定された分割マスク値に対するマスク値損失をそれぞれ取得するステップと、
前記第1分割結果に基づいて、第1分割結果が映像上でセマンティクス一致性を維持する場合のセマンティクス一致性損失を構築するステップと、を含む、
ことを特徴とする請求項8に記載の医学映像分割方法。
【請求項11】
前記第1分割結果に基づいて、第1分割結果が映像上でセマンティクス一致性を維持する場合のセマンティクス一致性損失を構築するステップは、
前記第1分割結果における画素値に対して、予め設定された方向に沿って導関数を求めて、予め設定された方向の、導関数を求める結果を得るステップと、
予め設定された方向の、導関数を求める結果と、前記第1分割結果とに基づいて、第1分割結果が映像上でセマンティクス一致性を維持する場合のセマンティクス一致性損失を構築するステップと、を含む、
ことを特徴とする請求項10に記載の医学映像分割方法。
【請求項12】
前記第1サンプルオプティカルフロー動き情報と、前記第2サンプルオプティカルフロー動き情報に基づいて、前記第1サンプルオプティカルフロー動き情報と前記第2サンプルオプティカルフロー動き情報が軌跡の一致を示す場合の軌跡一致性損失を取得するステップは、
1つのオリジナルの医学映像を生成するステップと、
前記第1サンプルオプティカルフロー動き情報と、前記第2サンプルオプティカルフロー動き情報とに基づいて、前記オリジナルの医学映像を変換し、変換された医学映像を得るステップと、
前記変換された医学映像と前記オリジナルの医学映像との間の変換損失を取得するステップと、
前記変換損失を、前記第1サンプルオプティカルフロー動き情報と前記第2サンプルオプティカルフロー動き情報が軌跡の一致を示す場合の軌跡一致性損失とするステップと、を含む、
ことを特徴とする請求項9に記載の医学映像分割方法。
【請求項13】
前記方法は、さらに、
前記訓練対象となる第1敵対的生成ネットワークにおける判別器を使用して、前記第1サンプル医学映像と前記第1再構築後の医学映像を判別し、判別結果を得るステップと、
前記第1再構築後の医学映像、および前記判別結果に基づいて、前記第1敵対的生成ネットワークの敵対的損失を取得するステップと、を含み、
前記再構築一致性損失、および前記分割一致性損失に基づいて、前記訓練対象となる第1敵対的生成ネットワークを訓練し、訓練後の第1敵対的生成ネットワークを得るステップは、
前記敵対的損失、前記再構築一致性損失、および前記分割一致性損失に基づいて、前記訓練対象となる第1敵対的生成ネットワークを訓練し、訓練済みの第1敵対的生成ネットワークを得るステップ、を含む、
ことを特徴とする請求項8に記載の医学映像分割方法。
【請求項14】
医学映像分割装置であって、
第1医学映像と、ターゲットオブジェクト領域がラベリングされた第2医学映像とを取得する取得ユニットと、
前記第1医学映像および前記第2医学映像のそれぞれに特徴抽出を行い、前記第1医学映像の第1特徴情報と前記第2医学映像の第2特徴情報を得る特徴抽出ユニットと、
前記第1特徴情報と前記第2特徴情報とに基づいて、前記第2医学映像から前記第1医学映像へのオプティカルフロー動き情報を取得するオプティカルフローユニットと、
前記オプティカルフロー動き情報と、ラベリングされたターゲットオブジェクト領域とに基づいて、前記第1医学映像におけるターゲットオブジェクトを分割し、前記第1医学映像の分割結果を得る分割ユニットと、
を含むことを特徴とする医学映像分割装置。
【請求項15】
前記分割ユニットは、
前記オプティカルフロー動き情報と、ラベリングされたターゲットオブジェクト領域とに基づいて、ターゲットオブジェクト領域の再構築を行い、再構築後のターゲットオブジェクト領域を得る再構築サブユニットと、
再構築後のターゲットオブジェクト領域を、前記第1医学映像の分割結果とする分割サブユニットと、を含む、
ことを特徴とする請求項14に記載の医学映像分割装置。
【請求項16】
前記再構築サブユニットは、さらに、
前記オプティカルフロー動き情報に対して、トリリニア補間処理を行い、処理されたオプティカルフロー動き情報を得ることと、
処理されたオプティカルフロー動き情報と、ラベリングされたターゲットオブジェクト領域とに基づいて、ターゲットオブジェクト領域の再構築を行い、再構築後のターゲットオブジェクト領域を得ることと、のために使用される、
ことを特徴とする請求項15に記載の医学映像分割装置。
【請求項17】
前記オプティカルフローユニットは、
前記第1特徴情報と前記第2特徴情報を関連付けて、前記第2医学映像と前記第1医学映像との間の画素位置の対応関係情報を得る関連付けサブユニットと、
前記画素位置の対応関係情報に対してアップサンプリング操作を行い、前記第2医学映像から前記第1医学映像へのオプティカルフロー動き情報を得るサンプリングサブユニットと、を含む、
ことを特徴とする請求項14に記載の医学映像分割装置。
【請求項18】
前記関連付けサブユニットは、さらに、
前記第1医学映像の第1特徴情報に対して畳み込み操作を行い、第1畳み込み特徴情報を得ることと、
前記第2医学映像の第2特徴情報に対して畳み込み操作を行い、第2畳み込み特徴情報を得ることと、
前記第1畳み込み特徴情報と前記第2畳み込み特徴情報を互いに融合して、第1融合特徴情報を得ることと、
前記第1融合特徴情報と前記第1畳み込み特徴情報を互いに融合して、第2医学映像と第1医学映像との間の画素位置の対応関係情報を得る、のために使用される、
ことを特徴とする請求項17に記載の医学映像分割装置。
【請求項19】
メモリ、プロセッサ、およびメモリに記憶され、かつプロセッサ上で実行可能なコンピュータプログラムを含むコンピュータデバイスであって、
前記プロセッサは、前記プログラムを実行すると、請求項1~13のいずれか1項に記載の方法のステップを実現する、
ことを特徴とするコンピュータデバイス。
【請求項20】
コンピュータプログラムであって、
請求項1~13のいずれか1項に記載の方法のステップを、コンピュータデバイスに実現させる、
ことを特徴とするコンピュータプログラム。
【手続補正3】
【補正対象書類名】明細書
【補正対象項目名】0009
【補正方法】変更
【補正の内容】
【0009】
そのうちの1つの実施例では、前記再構築サブユニットは、前記オプティカルフロー動き情報に対して、トリリニア補間処理を行い、処理されたオプティカルフロー動き情報を得ることと、処理されたオプティカルフロー動き情報と、ラベリングされたターゲットオブジェクト領域とに基づいて、ターゲットオブジェクト領域の再構築を行い、再構築後のターゲットオブジェクト領域を得ることと、のために使用される。
【手続補正4】
【補正対象書類名】明細書
【補正対象項目名】0013
【補正方法】変更
【補正の内容】
【0013】
そのうちの1つの実施例では、前記医学映像分割装置は、さらに、
第1サンプル医学映像と、ターゲットオブジェクトラベリング結果を有する第2サンプル医学映像とを取得するサンプル取得ユニットと、
訓練対象となる第1敵対的生成ネットワークにおける第1生成器を使用して、前記第2サンプル医学映像から前記第1サンプル医学映像への第1サンプルオプティカルフロー動き情報を取得する第1サンプルオプティカルフローユニットと、
前記訓練対象となる第1敵対的生成ネットワークにおける再構築モジュールを使用して、前記第1サンプルオプティカルフロー動き情報に基づいて映像再構築を行い、前記第1サンプル医学映像に対応する第1再構築後の医学映像と、第1分割結果とを得る第1再構築ユニットと、
第2敵対的生成ネットワークにおける第2生成器を使用して、前記第1再構築後の医学映像から前記第2サンプル医学映像への第2サンプルオプティカルフロー動き情報を取得する第2サンプルオプティカルフローユニットと、
第2敵対的生成ネットワークにおける再構築モジュールを使用して、前記第2サンプルオプティカルフロー動き情報に基づいて映像再構築を行い、前記第2サンプル医学映像に対応する第2再構築後の医学映像と、第2分割結果とを得る第2再構築ユニットと、
前記第1再構築後の医学映像、前記第1分割結果、前記第2再構築後の医学映像、および前記第2分割結果に基づいて、前記訓練対象となる第1敵対的生成ネットワークを訓練し、訓練済みの第1敵対的生成ネットワークを得る訓練ユニットと、を含む。
【手続補正5】
【補正対象書類名】明細書
【補正対象項目名】0024
【補正方法】変更
【補正の内容】
【0024】
【
図1】本願の実施例によって提供される医学映像分割方法の
適用シーンの模式図である。
【
図2a】本願の実施例によって提供される医学映像分割方法のフローチャートである。
【
図2b】本願の実施例によって提供される生成器のフレームワークの模式図である。
【
図2c】本願の実施例によって提供されるNon-local Blockの構造の模式図である。
【
図2d】本願の実施例によって提供される分割原理の模式図である。
【
図3a】本願の実施例によって提供される分割ネットワークのアーキテクチャ図である。
【
図3b】本願の実施例によって提供される訓練方法の模式的フローチャートである。
【
図3c】本願の実施例によって提供されるオプティカルフロー動き情報の一致性の模式図である。
【
図4a】本実施例によって提供される分割ネットワークの別のアーキテクチャ図である。
【
図4b】本願の実施例によって提供される医学映像分割の別の模式的フローチャートである。
【
図5a】本願の実施例によって提供される医学映像分割装置の構造の模式図である。
【
図5b】本願の実施例によって提供される医学映像分割装置の別の構造の模式図である。
【
図5c】本願の実施例によって提供される医学映像分割装置の別の構造の模式図である。
【
図5d】本願の実施例によって提供される医学映像分割装置の別の構造の模式図である。
【
図5e】本願の実施例によって提供される医学映像装置の別の構造の模式図である。
【
図5f】本願の実施例によって提供される医学映像装置の別の構造の模式図である。
【
図6】本願の実施例によって提供されるコンピュータデバイスの構造の模式図である。
【手続補正6】
【補正対象書類名】明細書
【補正対象項目名】0029
【補正方法】変更
【補正の内容】
【0029】
本願において、いわゆる映像分割とは、映像をいくつかの特定の、独特の性質を持つ領域に分けて、興味のあるターゲットを抽出する技術およびプロセスを指す。本願の実施例では、それは、主に、三次元(3D:Three Dimensional)医学映像を分割し、必要なターゲットオブジェクト(例えば、器官)を見つけることを指し、例えば、3D医学映像から肝臓領域、心臓領域、心房領域などを分割することができる。分割されたターゲットオブジェクト(例えば、器官)は、後続で医療看護スタッフや他の医学専門家が分析してさらなる操作を行うように使用され得る。
【手続補正7】
【補正対象書類名】明細書
【補正対象項目名】0057
【補正方法】変更
【補正の内容】
【0057】
非局所的なブロックの構造の模式図である
図2cに示すように、ラベリングされた医学映像x(つまり、第2医学映像)の特徴マップがx’であり、ラベリングされていない医学映像y(つまり、第1医学映像)の特徴マップがy’であり、ここで、x’、y’の次元が、それぞれ、T*H*W*1024であり、ここで、Tが、
対応するビデオフレーム数(本願における映像の数に対応する)であると仮定すれば、特徴マップのサイズは、T×H×W×1024になり、つまり、1024個のチャネルがある。
【手続補正8】
【補正対象書類名】明細書
【補正対象項目名】0064
【補正方法】変更
【補正の内容】
【0064】
オプティカルフロー動き情報△pを第1医学映像に適用できるようにするために(オプティカルフロー動き情報△pの取得は、ダウンサンプリング設定において行われる可能性があるので)、および再構築の速度を向上させるために、そのうちの1つの実施例では、コンピュータデバイスは、オプティカルフロー動き情報に対して、トリリニア補間(Trilinear Interpolation)処理を行い、処理されたオプティカルフロー動き情報に基づいて、ラベリングされていない第1サンプル医学映像を再構築し、第1再構築後の医学映像を得てもよい。すなわち、「オプティカルフロー動き情報と、ラベリングされたターゲットオブジェクト領域とに基づいて、第1医学映像におけるターゲットオブジェクトを分割し、第1医学映像の分割結果を得る」ステップは、オプティカルフロー動き情報に対して、トリリニア補間処理を行い、処理されたオプティカルフロー動き情報を得るステップと、処理されたオプティカルフロー動き情報と、ラベリングされたターゲットオブジェクト領域とに基づいて、第1医学映像におけるターゲットオブジェクトを分割し、第1医学映像の分割結果を得るステップと、を含んでもよい。
【手続補正9】
【補正対象書類名】明細書
【補正対象項目名】0067
【補正方法】変更
【補正の内容】
【0067】
本願の実施例は、移行映像に基づいて映像を分割空間にマッピングする解決手段を提供する。当該解決手段は、映像から映像へのマッピングモデリングを、画素レベルのオプティカルフロー推定として設定し、画素が動く場合の方向や
速度などのオプティカルフロー動き情報を学習することによって、ラベリングされていない映像の分割結果を、ラベリングされた映像のラベリング結果から再構築または移転する。解決手段全体の構想は、
図2dに示すようになる。
【手続補正10】
【補正対象書類名】明細書
【補正対象項目名】0068
【補正方法】変更
【補正の内容】
【0068】
図2dに示すように、医学映像が心房映像であることを例として、
まず、心臓領域がラベリングされた1枚のラベリングされた映像(Labeled)と、1枚のラベリングされていない映像(Unlabeled)を提供し、その後、ラベリングされた映像からラベリングされていない映像へのオプティカルフロー動き情報△pを学習し、ラベリングされた心臓領域と、オプティカルフロー動き情報△pとによって、心臓領域を再構築(または移行)し、この再構築後の心臓領域(または移行された心臓領域)は、ラベリングされていない映像の心臓分割結果である。
【手続補正11】
【補正対象書類名】明細書
【補正対象項目名】0069
【補正方法】変更
【補正の内容】
【0069】
以上から分かるように、本願の実施例の解決手段は、ラベリングされた映像からラベリングされていない映像への変換を学習することによって、ラベリングされた映像の対象分割(例えば、器官分割)をラベリングされていない映像に移行し、ラベリングされた医学映像を利用して、ラベリングされていない医学映像に対して、ターゲットオブジェクト分割(例えば、器官分割)を行うことができ、これにより、従来の解決手段のように大量のラベリングデータを使用して分割モデルを訓練することが回避され、1つのラベリングされた医学映像と1つの分割対象となる医学映像を提供するだけで、分割対象となる医学映像への分割を実現することができ、これによって、医学映像の分割精確性および効率を大幅に向上させる。
【手続補正12】
【補正対象書類名】明細書
【補正対象項目名】0075
【補正方法】変更
【補正の内容】
【0075】
本願の実施例では、上記の問題に対して、教師なしドメイン適応(Unsupervised Domain Adaptation)技術が採用されている分割ネットワーク訓練方法が提供され、この訓練方法は、ラベルのあるデータセットの特徴構造を学習して知識を新しいデータセットに移行し、ラベルのない新しいデータセットに対して、比較的正確なターゲットオブジェクト分割(例えば、器官分割など)を提供することができ、深層ネットワーク(例えば、血管分割ネットワーク)の、他のデータセットにおける一般化性能を効果的に向上させる。
【手続補正13】
【補正対象書類名】明細書
【補正対象項目名】0141
【補正方法】変更
【補正の内容】
【0141】
図4aに示すネットワークにおける第1生成器を使用して、ラベリングされた映像xとラベリングされていない映像yとの間の画素相互作用関係を学習することで、オプティカルフロー動き情報△p
A∈R
h*w*c*3を学習して把握し、
そして、Warpによってオプティカルフロー動き情報△p
Aに基づいて、ラベリングされていない映像が
【数36】
として再構築された。Warpによってオプティカルフロー動き情報△p
Aに基づいて、ラベリングされていない映像の分割映像が
【数37】
として再構築された。
【手続補正14】
【補正対象書類名】明細書
【補正対象項目名】0143
【補正方法】変更
【補正の内容】
【0143】
(2)コンピュータデバイスは再構築結果に基づいて損失を算出する。
例えば、予め設定された損失関数、および再構築結果などに基づいて、損失を算出する。上記の実施例に説明された映像再構築空間の再構築一致性損失、分割空間における分割一致性損失の以外に、本願の実施例では、下記損失および損失関数が導入される。
【手続補正15】
【補正対象書類名】明細書
【補正対象項目名】0149
【補正方法】変更
【補正の内容】
【0149】
(2.2)軌跡一致性損失
さらに、
【数51】
のオプティカルフロー動き情報を約束するために、本願の実施例では、本願の実施例では、△p
Aと△p
Bの間では画素レベルで軌跡一致性を示すことを望まれ、
図3cに示すようになる。この約束情報を実現するために、1つの映像r
h*w*c
~N(O,I)をランダムに構築
し、本願の実施例では、オプティカルフロー動き情報△p
Aと△p
Bがこの映像に適用され、本願の実施例では、これらの一対の変換によって、再構築された映像
【数52】
とオリジナルの映像rが一致性を示すことが望まれる。このプロセスは全体として下記の数式によって表される。
【手続補正16】
【補正対象書類名】明細書
【補正対象項目名】0167
【補正方法】変更
【補正の内容】
【0167】
以上から分かるように、本願の実施例の解決手段は、ラベリングされた映像からラベリングされていない映像への変換を学習することによって、ラベリングされた映像の対象分割(例えば、器官分割)をラベリングされていない映像に移行し、ラベリングされた医学映像を利用して、ラベリングされていない医学映像に対して、ターゲットオブジェクト分割(例えば、器官分割)を行うことができ、これにより、従来の解決手段のように大量のラベリングデータを使用して分割モデルを訓練することが回避され、1つのラベリングされた映像と1つの分割対象となる映像を提供するだけで、分割対象となる映像への分割を実現することができ、これによって、医学映像の分割精確性および効率を大幅に向上させる。
【手続補正17】
【補正対象書類名】明細書
【補正対象項目名】0171
【補正方法】変更
【補正の内容】
【0171】
そのうちの1つの実施例では、
図5bを参照すると、前記再構築サブユニット5041は、オプティカルフロー動き情報に対して、トリリニア補間処理を行い、処理されたオプティカルフロー動き情報を得ることと、処理されたオプティカルフロー動き情
報と、ラベリングされたターゲットオブジェクト領域とに基づいて、ターゲットオブジェクト領域の再構築を行い、再構築後のターゲットオブジェクト領域を得ることと、のために使用される。
【手続補正18】
【補正対象書類名】明細書
【補正対象項目名】0176
【補正方法】変更
【補正の内容】
【0176】
そのうちの1つの実施例では、
図5eを参照すると、前記訓練ユニット510は、
第1再構築後の医学映像、および第2再構築後の医学映像に基づいて、映像再構築空間における再構築一致性損失を取得する再構築損失取得サブユニット5101と、
第1分割結果、第2分割結果、および第2サンプル医学映像のターゲットオブジェクトラベリング結果に基づいて、分割空間における分割一致性損失を取得する分割損失取得サブユニット5102と、
再構築一致性損失、分割一致性損失に基づいて、第1敵対的生成ネットワークに対して訓練を行い、訓練後の第1敵対的生成ネットワークを得る訓練サブユニット
5103と、を備えていてもよい。
【手続補正19】
【補正対象書類名】明細書
【補正対象項目名】0182
【補正方法】変更
【補正の内容】
【0182】
前記訓練ユニット510は、敵対的損失、再構築一致性損失、分割一致性損失に基づいて、訓練対象となる第1敵対的生成ネットワークに対して訓練を行い、訓練済みの第1敵対的生成ネットワークを得るために使用される。
【手続補正20】
【補正対象書類名】明細書
【補正対象項目名】0184
【補正方法】変更
【補正の内容】
【0184】
以上から分かるように、本願の実施例は、取得ユニット501を介して、第1医学映像と、ターゲットオブジェクト領域がラベリングされた第2医学映像とを取得することと、特徴抽出ユニット502を介して、第1医学映像および第2医学映像のそれぞれに対して特徴抽出を行い、第1医学映像の第1特徴情報と第2医学映像の第2特徴情報を得ことと、オプティカルフローユニット503を介して、第1特徴情報と第2特徴情報とに基づいて、第2医学映像から第1医学映像へのオプティカルフロー動き情報を取得することと、分割ユニット504を介して、オプティカルフロー動き情報と、ラベリングされたターゲットオブジェクト領域とに基づいて、第1医学映像におけるターゲットオブジェクトを分割し、第1医学映像の分割結果を得ることと、を実行することができる。この解決手段は、ラベリングされた映像からラベリングされていない映像への変換を学習することによって、ラベリングされた映像の対象分割(例えば、器官分割)をラベリングされていない映像に移行し、ラベリングされた医学映像を利用して、ラベリングされていない医学映像に対して、ターゲットオブジェクト分割(例えば、器官分割)を行うことができ、これによって、医学映像の分割精確性および効率を大幅に向上させる。
【手続補正21】
【補正対象書類名】明細書
【補正対象項目名】0192
【補正方法】変更
【補正の内容】
【0192】
以上から分かるように、本実施例のコンピュータデバイスは、第1医学映像と、ターゲットオブジェクト領域がラベリングされた第2医学映像とを取得した後、第1医学映像および第2医学映像のそれぞれに対して特徴抽出を行い、第1医学映像の第1特徴情報と第2医学映像の第2特徴情報を得、第1特徴情報と第2特徴情報とに基づいて、第2医学映像から第1医学映像へのオプティカルフロー動き情報を取得し、オプティカルフロー動き情報と、ラベリングされたターゲットオブジェクト領域とに基づいて、第1医学映像におけるターゲットオブジェクトを分割し、第1医学映像の分割結果を得、したがって、この解決手段は、ラベリングされた映像からラベリングされていない映像への変換を学習することによって、ラベリングされた映像の対象分割(例えば、器官分割)をラベリングされていない映像に移行し、ラベリングされた医学映像を利用して、ラベリングされていない医学映像に対して、ターゲットオブジェクト分割(例えば、器官分割)を行うことができ、これによって、医学映像の分割精確性および効率を大幅に向上させる。
【国際調査報告】