(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B1)
(11)【特許番号】
(24)【登録日】2023-11-15
(45)【発行日】2023-11-24
(54)【発明の名称】連合学習に基づくマルチタスクハイブリッド教師あり医用画像分割方法及びシステム
(51)【国際特許分類】
G06T 7/00 20170101AFI20231116BHJP
G06N 3/098 20230101ALI20231116BHJP
G06N 99/00 20190101ALI20231116BHJP
G06N 3/0895 20230101ALI20231116BHJP
【FI】
G06T7/00 350C
G06T7/00 612
G06N3/098
G06N99/00 180
G06N3/0895
(21)【出願番号】P 2023095887
(22)【出願日】2023-06-09
【審査請求日】2023-06-09
(31)【優先権主張番号】202211099106.2
(32)【優先日】2022-09-09
(33)【優先権主張国・地域又は機関】CN
【早期審査対象出願】
(73)【特許権者】
【識別番号】521162399
【氏名又は名称】之江実験室
(74)【代理人】
【識別番号】100128347
【氏名又は名称】西内 盛二
(72)【発明者】
【氏名】李 ▲勁▼松
(72)【発明者】
【氏名】▲趙▼ ▲艶▼霞
(72)【発明者】
【氏名】胡 佩君
(72)【発明者】
【氏名】黄 超
(72)【発明者】
【氏名】田 雨
(72)【発明者】
【氏名】周 天舒
【審査官】伊知地 和之
(56)【参考文献】
【文献】中国特許出願公開第114418954(CN,A)
【文献】欧州特許出願公開第04002271(EP,A1)
【文献】中国特許出願公開第111340819(CN,A)
【文献】特開2021-120852(JP,A)
【文献】特開2022-066963(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
G06T 7/00
G06N 3/098
G06N 99/00
G06N 3/0895
(57)【特許請求の範囲】
【請求項1】
連合学習に基づくマルチタスクハイブリッド教師あり医用画像分割方法であって、ステップS1~ステップS5を含み、
前記ステップS1では、各医療機関において医用画像の分割に必要な弱教師ありデータ、完全教師ありデータ及びラベルなしデータをそれぞれ収集し、前記弱教師ありデータはバウンディングボックスのラベル付き訓練データ及び画像レベルのラベル付き訓練データを含み、前記完全教師ありデータはピクセルレベルのラベル付き訓練データであり、前記弱教師ありデータ、前記完全教師ありデータ及び前記ラベルなし訓練データは対応する医療機関のソースデータセットとして用いられ、
前記ステップS2では、第1段階では、連合学習のマルチタスクネットワークモデルに基づいて、前記バウンディングボックスのラベル付き訓練データ及び前記ピクセルレベルのラベル付き訓練データを利用して予備訓練を行い、2つの異なるグローバル予備訓練連合モデルを取得し、
前記ステップS2は具体的に、サブステップS21~サブステップS25を含み、
前記サブステップS21では、CSP-ResNeXt構造を採用したバックボーンネットワーク、ASPP及びFPNを採用したneck、PANで融合されたマルチスケール情報特徴マップを採用した境界検出タスクブランチ、及び2回のアップサンプリング操作を採用したグローバルマスク分割タスクブランチを含むマルチタスクネットワークモデルを構築し、
前記サブステップS22では、中央サーバ側は前記マルチタスクネットワークモデルに対してXavier初期化及びKaiming初期化の2種の異なるネットワークモデル重み初期化方法をそれぞれ採用し、処理して2つの異なるグローバルネットワークモデルを取得し、
前記サブステップS23では、各クライアントは前記ピクセルレベルのラベル付き訓練データ及び前記バウンディングボックスのラベル付き訓練データに対して前処理操作を行い、それぞれの第1段階の前処理画像データを取得し、
前記サブステップS24では、中央サーバ側は2つの異なるグローバルネットワークモデルを各クライアントにそれぞれ送信し、各クライアントはローカルの第1段階の前処理画像データに基づいて特徴抽出を行い、送られた第1段階の前処理画像データのタイプに基づき、対応するタスクブランチを選択し、適応教師付けによって個性と共通性の両方の情報を学習し、対応するタスクブランチの対応する出力を取得し、
前記サブステップS24では、送られた第1段階の前処理画像データのタイプに基づき、対応するタスクブランチを選択し、適応教師付けによって個性と共通性の両方の情報を学習することは具体的には、
クライアントがピクセルレベルのラベル付き訓練データを受信した場合に、境界検出タスクブランチのパラメータを凍結し、2つの異なる局所訓練モデルのバックボーンネットワーク、neck及びグローバルマスク分割タスクブランチのパラメータのみを訓練し、訓練過程で以下の損失関数を最小化することによって教師あり
学習を行い、
【数1】
(1)
ここで、L
diceはDice損失関数であり、Y
gtはピクセルレベルの利用可能なラベルを表し、Y
P
Lは予測された分割画像の結果を表し、|Y
gt|及び|Y
P
L|はそれぞれY
gtの要素数及びY
P
Lの要素数であり、
クライアントがバウンディングボックスのラベル付き訓練データを受信した場合に、グローバルマスク分割タスクブランチのパラメータを凍結し、2つの異なる局所訓練モデルのバックボーンネットワーク、neck及び境界検出タスクブランチのパラメータのみを訓練し、以下の損失関数を最小化することによって教師あり
学習を行い、
【数2】
(2)
ここで、α
1、α
2及びα
3は最適化されたハイパーパラメータであり、
L
classは分類損失であり、バイナリクロスエントロピー損失(BCE loss)を採用し、式は以下の通りであり、
【数3】
(3)
ここで、p
i(c)はカテゴリがcの予測確率値を表し、cは分類ラベルを表し、Sはネットワークから最後に出力された特徴マップのサイズがS×Sであることを表し、Bは各格子に対応するアンカーボックス(anchor)の数を表し、
は各グリッドユニット(i=1,…,S
2)の各アンカーボックス予測値(j=1,…,B)に対するオブジェクトの有無を表し、1はグリッドユニットiにオブジェクトが存在する場合に、j番目のアンカーボックス予測値が該予測に対して有効であることを表し、0はグリッドユニットiにオブジェクトが存在しないことを表し、
L
objは信頼度損失であり、バイナリクロスエントロピー損失関数を採用して計算し、式は以下の通りであり、
【数4】
(4)
ここで、C
iはオブジェクトの予測信頼度を表し、
は
各グリッドユニット(i=1,…,S
2
)の各アンカーボックス予測値(j=1,…,B)に対するオブジェクトの有無を表し
且つ該
の値は前記
と逆であり、L
boxはL
CIOUであり、該損失は予測ボックスとバウンディングボックスとの間の距離、オーバーラップ率、anchorのサイズ及び比率を考慮し、以下のように定義され、
【数5】
(5)
IOUはバウンディングボックス回帰損失で最も一般的に使用される重なり度合いであり、予測ボックスと実際のボックスとの間の距離を取得でき、それにより検出の効果を反映し、計算式は以下の通りであり、
【数6】
(6)
vはアスペクト比の一致性を評価するパラメータであり、以下のように定義され、
【数7】
(7)
ここで、Y
Pは境界の予測結果であり、Y
bboxはバウンディングボックスレベルの利用可能なラベルを表し、w
gtはラベルボックスの幅であり、h
gtはラベルボックスの高さであり、w
pは予測ボックスの幅であり、h
pは予測ボックスの高さであり、Distance
2は2つの中心点のユークリッド距離であり、Distance
cはラベルボックスと予測ボックスとの最小外接矩形の対角線距離であり、
前記サブステップS25では、各クライアントは所定回数の反復を行った後にいずれも2つの異なる局所訓練モデルを取得し、前記2つの異なる局所訓練モデルを中央サーバ側に返送し、中央サーバ側は各クライアントによって返送された2つの異なる局所訓練モデルを集約して新たなグローバル連合モデルを取得し、前記グローバル連合モデルを各クライアントに送信して再訓練し、第1段階で設定された所定の予備訓練の回数に達するまで前記訓練、統合のステップを繰り返し、2つの異なるグローバル予備訓練連合モデルを取得し、
前記ステップS3では、第2段階では、前記ラベルなし訓練データ、前記画像レベルのラベル付き訓練データ、前記バウンディングボックスのラベル付き訓練データ及び前記ピクセルレベルのラベル付き訓練データを利用し、2つの異なるグローバル予備訓練連合モデルに基づき、反復疑似ラベル生成器によって疑似ラベルを生成し、
前記ステップS3は具体的に、サブステップS31~サブステップS32を含み、
前記サブステップS31では、各クライアントはピクセルレベルのラベル付き訓練データ、バウンディングボックスのラベル付き訓練データ、画像レベルのラベル付き訓練データ及びラベルなし訓練データに対してそれぞれ前処理操作を行い、第2段階の前処理画像データを取得し、
前記サブステップS32では、中央サーバ側は第1段階で生成された2つの異なるグローバル予備訓練連合モデルを各クライアントにそれぞれ送信し、各クライアントはローカルの第2段階の前処理画像データ及びそのデータタイプに基づき、教師ありタイプを自己適応的に選択し、第2段階のネットワークモデルの訓練を行い、
前記サブステップS32では、各クライアントがローカルの第2段階の前処理画像データ及びそのデータタイプに基づき、教師ありタイプを自己適応的に選択することは、具体的には、
クライアントがピクセルレベルのラベル付き訓練データを受信した場合に、境界検出タスクブランチのパラメータを凍結し、2つの異なる局所訓練モデルのバックボーンネットワーク、neck及びグローバルマスク分割タスクブランチのパラメータのみを訓練し、損失関数の式(1)を利用して自己適応教師あり
学習を行い、
クライアントがバウンディングボックスのラベル付き訓練データを受信した場合に、2つの異なる局所訓練モデルの境界検出タスクブランチ及びグローバルマスク分割タスクブランチのパラメータを同時に訓練し、検出タスクが分割タスクを支援する方式を利用して教師あり学習を行い、対応するバウンディングボックスのラベル付き訓練データのラベルを介してグローバルマスク分割タスクブランチの疑似ラベルに対して修正操作を行い、
検出タスクが分割タスクを支援する方式を利用して以下の損失関数を最小化することによって教師あり
学習を行い、
【数8】
(8)
【数9】
(9)
ここで、Y
1=F
1(X
1)及びY
2=F
2(X
2)は境界検出タスクブランチによって予測された疑似ラベルであり、
及び
は2つの異なるグローバル予備訓練モデルパラメータを更新したネットワークであり、X
1及びX
2はクライアントが受信した、前処理操作後に2つの異なるネットワークモデル
及び
に送られたバウンディングボックス訓練データであり、この教師付けの場合に、疑似ラベルの品質を向上させるために、対応するバウンディングボックスレベルの利用可能なラベルに基づいて疑似ラベルの修正操作を行い、修正ポリシーは以下の式に示され、
【数10】
(10)
ここで、*は小数点乗算操作を表し、Y
L
bboxはバウンディングボックスレベルの利用可能なラベルが変換された後のピクセルレベルのラベルを表し、
クライアントが画像レベルのラベル付き訓練データ及びラベルなし訓練データを受信した場合に、境界検出タスクブランチのパラメータを凍結し、2つの異なる局所訓練モデルのバックボーンネットワーク、neck及びグローバルマスク分割タスクブランチのパラメータのみを訓練し、前記2つの異なる局所訓練モデルを利用してクロス疑似ラベル教師あり
学習を行い、
【数11】
(11)
前記ステップS4では、第2段階では、動的サンプル選択方法を利用して高品質の訓練データ及び疑似ラベルを選択し、現在訓練された2つの異なる局所訓練モデルによって生成された疑似ラベル間の予測一致性を利用し、マスクを生成することによって、高品質の訓練データ及び疑似ラベルを選択し、
前記ステップS5では、第1段階及び第2段階に基づき、受信された各クライアントによる反復過程で生成された局所訓練モデルのパラメータに対して、中央サーバ側はクライアント間の自己適応重み割り当てプログラムを介してグローバル連合モデルのパラメータ更新を行う
ことを特徴とする連合学習に基づくマルチタスクハイブリッド教師あり医用画像分割方法。
【請求項2】
前記ステップS5は具体的には、サブステップS51~サブステップS54を含み、
前記サブステップS51では、毎回の訓練過程で、各クライアントは中央サーバ側から反復過程で生成されたグローバル連合モデルパラメータを受信し、
前記サブステップS52では、各クライアントはローカルの訓練データを使用してローカル訓練を行い、ローカルの局所訓練モデルのパラメータ更新を完了し、
前記サブステップS53では、各クライアントはそれぞれの局所訓練モデルパラメータの勾配更新を中央サーバ側に送信し、
前記サブステップS54では、中央サーバ側は各クライアントによってアップロードされた局所訓練モデルパラメータの勾配をまとめ、グローバル連合モデルパラメータに対する更新を完了する
ことを特徴とする請求項1に記載の連合学習に基づくマルチタスクハイブリッド教師あり医用画像分割方法。
【請求項3】
前記ステップS2段階におけるグローバル連合モデルのパラメータ更新に対して、前記サブステップS54では、局所訓練モデルパラメータをまとめる方式は、第1段階のグローバル連合モデルの共有ネットワーク部分のパラメータを更新する方式、グローバル連合モデルのグローバルマスク分割タスクブランチのモデルパラメータを更新する方式、及び第1段階のグローバル連合モデルの検出タスクブランチ部分のパラメータを更新する方式を含み、
第1段階のグローバル連合モデルの共有ネットワーク部分のパラメータを更新する方式では、各クライアントが第1段階で使用した訓練データ量が第1段階で使用された総データ量を占めた割合に基づいてパラメータ重み付けを行い、各クライアントの局所訓練モデルの共有ネットワーク部分のパラメータをグローバル連合モデルの共有ネットワーク部分のパラメータに集め、
グローバル連合モデルのグローバルマスク分割タスクブランチのモデルパラメータを更新する方式では、各クライアントが第1段階で使用したピクセルレベルのラベル付き訓練データ量が第1段階で使用されたピクセルレベルの訓練データの総量を占めた割合に基づいてパラメータ重み付けを行い、各クライアントの局所モデルのグローバルマスク分割ブランチ部分のパラメータをグローバル連合モデルのグローバルマスク分割ブランチ部分のパラメータに集め、
第1段階のグローバル連合モデルの検出タスクブランチ部分のパラメータを更新する方式では、各クライアントが第1段階で使用したバウンディングボックスのラベル付き訓練データ量が第1段階で使用されたバウンディングボックス訓練データの総量を占めた割合に基づいてパラメータ重み付けを行い、各クライアントの局所訓練モデルの検出タスクブランチ部分のパラメータをグローバル連合モデルの検出タスクブランチ部分のパラメータに集める
ことを特徴とする請求項2に記載の連合学習に基づくマルチタスクハイブリッド教師あり医用画像分割方法。
【請求項4】
前記ステップS3の段階におけるグローバル連合モデルのパラメータ更新に対して、前記サブステップS54では、局所訓練モデルパラメータをまとめる方式は、
第2段階でグローバル連合モデルを集約して得る過程で、各クライアントのデータ分布及び各クライアントが現在の訓練スケジュールで選択した高品質の訓練データ量に基づき、適応集約関数を定義することによって集約重みを動的に調整することを含む
ことを特徴とする請求項2に記載の連合学習に基づくマルチタスクハイブリッド教師あり医用画像分割方法。
【請求項5】
請求項1~4のいずれか1項に記載の連合学習に基づくマルチタスクハイブリッド教師あり医用画像分割方法を実現するためのシステムであって、データ収集モジュール、第1段階での連合学習に基づくマルチタスクネットワークモデルモジュール、第2段階での疑似ラベル生成モジュール、第2段階での動的サンプル選択モジュール、及び連合モデル動的更新モジュールを含み、
前記データ収集モジュールは、各医療機関において医用画像の分割に必要な弱教師ありデータ、完全教師ありデータ及びラベルなしデータをそれぞれ収集することに用いられ、前記弱教師ありデータはバウンディングボックスのラベル付き訓練データ及び画像レベルのラベル付き訓練データを含み、前記完全教師ありデータはピクセルレベルのラベル付き訓練データであり、前記弱教師ありデータ、前記完全教師ありデータ及び前記ラベルなし訓練データは対応する医療機関のソースデータセットとして用いられ、
前記第1段階での連合学習に基づくマルチタスクネットワークモデルモジュールは、連合学習のマルチタスクネットワークモデルに基づいて、前記バウンディングボックスのラベル付き訓練データ及び前記ピクセルレベルのラベル付き訓練データを利用して予備訓練を行い、2つの異なるグローバル予備訓練連合モデルを取得することに用いられ、
前記第2段階での疑似ラベル生成モジュールは、前記ラベルなし訓練データ、前記画像レベルのラベル付き訓練データ、前記バウンディングボックスのラベル付き訓練データ及び前記ピクセルレベルのラベル付き訓練データを利用して2つの異なるグローバル予備訓練連合モデルに基づき、反復疑似ラベル生成器によって疑似ラベルを生成することに用いられ、
前記第2段階での動的サンプル選択モジュールは、動的サンプル選択方法を利用して高品質の訓練データ及び疑似ラベルを選択することに用いられ、
前記連合モデル動的更新モジュールは、受信された各クライアントによる反復過程で生成された局所訓練モデルのパラメータに対して、中央サーバ側はクライアント間の自己適応重み割り当てプログラムを介してグローバル連合モデルのパラメータ更新を行うことに用いられる
ことを特徴とする連合学習に基づくマルチタスクハイブリッド教師あり医用画像分割システム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は画像分割の技術分野に関し、特に連合学習に基づくマルチタスクハイブリッド教師あり医用画像分割方法及びシステムに関する。
【背景技術】
【0002】
医用画像分割はコンピュータ支援診断の画像内容分析をサポートする代表的なタスクであり、病変カテゴリを認識できるだけでなく、特定の領域を位置特定でき、臨床診断において重要な役割を果たす。コンピュータのハードウェア性能の向上に伴って、深層学習に基づく画像分割技術は医用画像を処理する有力なツールになる。医用画像分割用の深層学習モデルの最適化は通常、様々なソースからの大量の注釈付きのピクセルレベルの訓練データに依存する。しかし、ピクセルレベルの注釈コストが非常に高く、医用画像のラベル付けには非常に高度な専門知識が必要であるため、各医療機関のピクセルレベルのラベル付き画像は非常に限られており、且つ利用可能な画像のほとんどはラベルなし又は弱ラベル付きのものである。一方、医療機関間の敏感な患者情報の厳密な共有契約によってデータの共有が非常に困難であるため、膨大なピクセルレベルの症例注釈データを収集することは非常に困難な作業であることが多く、これらの規模が小さく、データ分布が不均衡で、情報含有量が少ないピクセルレベルデータを利用するだけではロバスト性及び汎化能力が満足できるモデルを訓練するのに十分ではない。連合学習(FL)は分散型学習フレームワークとして、複数の顧客が生データを共有することなくすべての利用可能なデータを十分に利用して機関間の協力を行うことを目的とし、データのプライバシーのセキュリティを確保した上で、ユーザが共同モデリングを実現することを支援し、それによってモデルの性能を向上させることができ、この技術の応用は医療分野でますます重要な役割を果たしている。
【0003】
公開番号CN113571203Aの特許文献には、連合学習に基づくマルチセンターの脳腫瘍生命予後の予測方法及びシステムが開示されており、前記方法は、C-Sアーキテクチャに基づいてマルチセンターの連合学習モデルを構築し、各センターに分散的に記憶された患者の電子カルテ情報とラジオミクス特徴及び深層学習特徴を組み合わせて全面的な脳腫瘍生命予後分類モデルを確立し、該脳腫瘍生命予後の予測方法及びシステムが提案したアクティブ学習は、連合学習において訓練サンプルが自動的にラベル付けされた各ローカル機器上で利用可能なラベルなしデータを利用したグローバルモデルの構築を検討したが、該技術は画像レベルのカテゴリラベル及びバウンディングボックスラベルなどの弱ラベル付き画像を使用していない。多くの場合、これらの弱ラベル付き画像はラベル無し画像よりも利用価値が高く、ピクセルレベルのラベルと比べて、弱ラベルは広く利用可能であり、取得コストが低い。
【0004】
現在、従来技術には以下の欠陥が存在する。
【0005】
臨床実践において、異なる機関はデータの品質、数量及び教師の可用性に大きな違いが存在する可能性がある。これらのデータを不適切に使用すると、異なるクライアント間の医用画像分割性能が大幅に低下する可能性がある。標準的なFLモデルの訓練過程で、各ローカルクライアントは、先ずサーバから連合モデルをダウンロードし、ローカルでモデルを更新し、次に、各クライアントがローカルで訓練したモデルパラメータをサーバに返送し、最後に、すべてのクライアントのモデルパラメータを集約してグローバル連合モデルを更新する。既存のFLフレームワークのほとんどは、各ローカルクライアントが訓練に用いるデータが同じレベルのラベルに従う必要があることを要求するため、モデルの学習能力が大幅に制限されている。
【0006】
いくつかの半教師あり連合学習方法は、訓練中にピクセルレベルのラベル付き画像を除いたラベルなしデータを利用しようとするが、教師ありの可用性の変化を考慮しておらず、すなわち異なるクライアントは異なるレベルの画像ラベルを有する。異なるラベル強度レベルを有するこれらの弱ラベル付きデータ及びラベルなしデータからの情報を効果的に利用し、特にピクセルレベルのラベル付きデータがないクライアントについては、連合モデルのロバスト性を向上させることに非常に有利であるとともに、訓練の不安定性を防止する。
【0007】
このため、連合学習に基づくマルチタスクハイブリッド教師あり医用画像分割方法及びシステムが提案されている。
【発明の概要】
【発明が解決しようとする課題】
【0008】
本発明は上記技術的課題を解決するために、連合学習に基づくマルチタスクハイブリッド教師あり医用画像分割方法及びシステムを提案する。
【課題を解決するための手段】
【0009】
本発明が採用する技術的解決手段は以下のとおりである。
【0010】
連合学習に基づくマルチタスクハイブリッド教師あり医用画像分割方法は、
各医療機関において医用画像の分割に必要な弱教師ありデータ、完全教師ありデータ及びラベルなしデータをそれぞれ収集するステップS1であって、前記弱教師ありデータはバウンディングボックスのラベル付き訓練データ及び画像レベルのラベル付き訓練データを含み、前記完全教師ありデータはピクセルレベルのラベル付き訓練データであり、前記弱教師ありデータ、前記完全教師ありデータ及び前記ラベルなし訓練データは対応する医療機関のソースデータセットとして用いられるステップS1と、
第1段階では、連合学習のマルチタスクネットワークモデルに基づいて、前記バウンディングボックスのラベル付き訓練データ及び前記ピクセルレベルのラベル付き訓練データを利用して予備訓練を行い、2つの異なるグローバル予備訓練連合モデルを取得するステップS2と、
第2段階では、前記ラベルなし訓練データ、前記画像レベルのラベル付き訓練データ、前記バウンディングボックスのラベル付き訓練データ及び前記ピクセルレベルのラベル付き訓練データを利用して2つの異なるグローバル予備訓練連合モデルに基づき、反復疑似ラベル生成器によって疑似ラベルを生成するステップS3と、
第2段階では、動的サンプル選択方法を利用して高品質の訓練データ及び疑似ラベルを選択するステップS4と、
第1段階及び第2段階に基づき、受信された各クライアントによる反復過程で生成された局所訓練モデルのパラメータに対して、中央サーバ側はクライアント間の自己適応重み割り当てプログラムを介してグローバル連合モデルのパラメータ更新を行うステップS5と、を含む。
【0011】
さらに、前記ステップS2は具体的には、
CSP-ResNeXt構造を採用したバックボーンネットワーク、ASPP及びFPNを採用したneck、PANで融合されたマルチスケール情報特徴マップを採用した境界検出タスクブランチ、及び2回のアップサンプリング操作を採用したグローバルマスク分割タスクブランチを含むマルチタスクネットワークモデルを構築するサブステップS21と、
中央サーバ側は前記マルチタスクネットワークモデルに対してXavier初期化及びKaiming初期化の2種の異なるネットワークモデル重み初期化方法をそれぞれ採用し、処理して2つの異なるグローバルネットワークモデルを取得するサブステップS22と、
各クライアントは前記ピクセルレベルのラベル付き訓練データ及び前記バウンディングボックスのラベル付き訓練データに対して前処理操作を行い、それぞれの第1段階の前処理画像データを取得するサブステップS23と、
中央サーバ側は2つの異なるグローバルネットワークモデルを各クライアントにそれぞれ送信し、各クライアントはローカルの第1段階の前処理画像データに基づいて特徴抽出を行い、送られた第1段階の前処理画像データのタイプに基づき、対応するタスクブランチを選択し、適応教師付けによって個性と共通性の両方の情報を学習し、対応するタスクブランチの対応する出力を取得するサブステップS24と、
各クライアントは所定回数の反復を行った後にいずれも2つの異なる局所訓練モデルを取得し、前記2つの異なる局所訓練モデルを中央サーバ側に返送し、中央サーバ側は各クライアントによって返送された2つの異なる局所訓練モデルを集約して新たなグローバル連合モデルを取得し、前記グローバル連合モデルを各クライアントに送信して再訓練し、第1段階で設定された所定の予備訓練の回数に達するまで前記訓練、統合ステップを繰り返し、2つの異なるグローバル予備訓練連合モデルを取得するサブステップS25と、を含む。
【0012】
さらに、前記サブステップS24では、送られた第1段階の前処理画像データのタイプに基づき、対応するタスクブランチを選択し、適応教師付けによって個性と共通性の両方の情報を学習することは具体的には、
クライアントがピクセルレベルのラベル付き訓練データを受信した場合に、境界検出タスクブランチのパラメータを凍結し、2つの異なる局所訓練モデルのバックボーンネットワーク、neck及びグローバルマスク分割タスクブランチのパラメータのみを訓練することと、
クライアントがバウンディングボックスのラベル付き訓練データを受信した場合に、グローバルマスク分割タスクブランチのパラメータを凍結し、2つの異なる局所訓練モデルのバックボーンネットワーク、neck及び境界検出タスクブランチのパラメータのみを訓練することと、に分けられる。
【0013】
さらに、前記ステップS3は具体的には、
各クライアントはピクセルレベルのラベル付き訓練データ、バウンディングボックスのラベル付き訓練データ、画像レベルのラベル付き訓練データ及びラベルなし訓練データに対してそれぞれ前処理操作を行い、第2段階の前処理画像データを取得するサブステップS31と、
中央サーバ側は第1段階で生成された2つの異なるグローバル予備訓練連合モデルを各クライアントにそれぞれ送信し、各クライアントはローカルの第2段階の前処理画像データ及びそのデータタイプに基づき、教師ありタイプを自己適応的に選択し、第2段階のネットワークモデルの訓練を行うサブステップS32と、を含む。
【0014】
さらに、前記サブステップS32では、各クライアントがローカルの第2段階の前処理画像データ及びそのデータタイプに基づき、教師ありタイプを自己適応的に選択することは具体的には、
クライアントがピクセルレベルのラベル付き訓練データを受信した場合に、境界検出タスクブランチのパラメータを凍結し、2つの異なる局所訓練モデルのバックボーンネットワーク、neck及びグローバルマスク分割タスクブランチのパラメータのみを訓練することと、
クライアントがバウンディングボックスのラベル付き訓練データを受信した場合に、2つの異なる局所訓練モデルの境界検出タスクブランチ及びグローバルマスク分割タスクブランチのパラメータを同時に訓練し、検出タスクが分割タスクを支援する方式を利用して教師あり学習を行い、対応するバウンディングボックスのラベル付き訓練データのラベルを介してグローバルマスク分割タスクブランチの疑似ラベルに対して修正操作を行うことと、
クライアントが画像レベルのラベル付き訓練データ及びラベルなし訓練データを受信した場合に、境界検出タスクブランチのパラメータを凍結し、2つの異なる局所訓練モデルのバックボーンネットワーク、neck及びグローバルマスク分割タスクブランチのパラメータのみを訓練し、前記2つの異なる局所訓練モデルを利用してクロス疑似ラベル教師ありを行うことと、に分けられる。
【0015】
さらに、前記ステップS4は具体的には、動的サンプル選択方法を採用し、現在訓練された2つの異なる局所訓練モデルによって生成された疑似ラベル間の予測一致性を利用し、マスクを生成することによって、高品質の訓練データ及び疑似ラベルを選択することである。
【0016】
さらに、前記ステップS5は具体的には、
毎回の訓練過程で、各クライアントは中央サーバ側から反復過程で生成されたグローバル連合モデルパラメータを受信するサブステップS51と、
各クライアントはローカルの訓練データを使用してローカル訓練を行い、ローカルの局所訓練モデルのパラメータ更新を完了するサブステップS52と、
各クライアントはそれぞれの局所訓練モデルパラメータの勾配更新を中央サーバ側に送信するサブステップS53と、
中央サーバ側は各クライアントによってアップロードされた局所訓練モデルパラメータの勾配をまとめ、グローバル連合モデルパラメータに対する更新を完了するサブステップS54と、を含む。
【0017】
さらに、前記ステップS2の段階におけるグローバル連合モデルのパラメータ更新に対して、前記サブステップS54では局所訓練モデルパラメータをまとめる方式は、
第1段階のグローバル連合モデルの共有ネットワーク部分のパラメータを更新する方式であって、各クライアントが第1段階で使用した訓練データ量が第1段階で使用された総データ量を占めた割合に基づいてパラメータ重み付けを行い、各クライアントの局所訓練モデルの共有ネットワーク部分のパラメータをグローバル連合モデルの共有ネットワーク部分のパラメータに集める方式と、
グローバル連合モデルのグローバルマスク分割タスクブランチのモデルパラメータを更新する方式であって、各クライアントが第1段階で使用したピクセルレベルのラベル付き訓練データ量が第1段階で使用されたピクセルレベルの訓練データの総量を占めた割合に基づいてパラメータ重み付けを行い、各クライアントの局所モデルのグローバルマスク分割ブランチ部分のパラメータをグローバル連合モデルのグローバルマスク分割ブランチ部分のパラメータに集める方式と、
第1段階のグローバル連合モデルの検出タスクブランチ部分のパラメータを更新する方式であって、各クライアントが第1段階で使用したバウンディングボックスのラベル付き訓練データ量が第1段階で使用されたバウンディングボックス訓練データの総量を占めた割合に基づいてパラメータ重み付けを行い、各クライアントの局所訓練モデルの検出タスクブランチ部分のパラメータをグローバル連合モデルの検出タスクブランチ部分のパラメータに集める方式と、を含む。
【0018】
さらに、前記ステップS3の段階におけるグローバル連合モデルのパラメータ更新に対して、前記サブステップS54では局所訓練モデルパラメータをまとめる方式は、
第2段階でグローバル連合モデルを集約する過程で、各クライアントのデータ分布及び各クライアントが現在の訓練スケジュールで選択した高品質の訓練データ量に基づき、適応集約関数を定義することによって集約重みを動的に調整する方式を含む。
【0019】
本発明は連合学習に基づくマルチタスクハイブリッド教師あり医用画像分割システムをさらに提供し、
各医療機関において医用画像の分割に必要な弱教師ありデータ、完全教師ありデータ及びラベルなしデータをそれぞれ収集するためのデータ収集モジュールであって、前記弱教師ありデータはバウンディングボックスのラベル付き訓練データ及び画像レベルのラベル付き訓練データを含み、前記完全教師ありデータはピクセルレベルのラベル付き訓練データであり、前記弱教師ありデータ、前記完全教師ありデータ及び前記ラベルなし訓練データは対応する医療機関のソースデータセットとして用いられるデータ収集モジュールと、
連合学習のマルチタスクネットワークモデルに基づいて、前記バウンディングボックスのラベル付き訓練データ及び前記ピクセルレベルのラベル付き訓練データを利用して予備訓練を行い、2つの異なるグローバル予備訓練連合モデルを取得するための第1段階での連合学習に基づくマルチタスクネットワークモデルモジュールと、
前記ラベルなし訓練データ、前記画像レベルのラベル付き訓練データ、前記バウンディングボックスのラベル付き訓練データ及び前記ピクセルレベルのラベル付き訓練データを利用して2つの異なるグローバル予備訓練連合モデルに基づき、反復疑似ラベル生成器によって疑似ラベルを生成するための第2段階での疑似ラベル生成モジュールと、
動的サンプル選択方法を利用して高品質の訓練データ及び疑似ラベルを選択するための第2段階での動的サンプル選択モジュールと、
受信された、各クライアントによる反復過程で生成された局所訓練モデルのパラメータに対して、中央サーバ側はクライアント間の自己適応重み割り当てプログラムを介してグローバル連合モデルのパラメータ更新を行うための連合モデル動的更新モジュールと、を含む。
【発明の効果】
【0020】
本発明は以下の有益な効果を有する。
【0021】
1、本発明は連合学習に基づくマルチタスクネットワークモデルを構築し、検出タスクが医用画像分割タスクを支援することによって各関与者のデータと組み合わせて協調モデリングを行い、患者のプライバシーを確保した上で、各関与者のデータサイロを打破し、多機関データの潜在能力と深層価値を十分にマイニングし、各協力者が他の関与者の異なるラベル付け形式のデータセットの空間分布及びモデル特徴表現能力から利益を取得することができるだけでなく、タスク間の関係及び効果的な文脈特徴を十分にマイニングし、さらなる有用な情報を取得し、異なる階層の特徴間の情報の相補性を実現し、さらにモデルの精度を向上させる。
【0022】
2、本発明は各クライアントの利用可能な各種の弱教師ありデータ、完全教師あり及びラベルなしデータを利用してグローバルネットワークモデルを構築し、疑似ラベル修正及び動的サンプル選択の訓練ポリシーによって、モデルに対してより価値のあるサンプルを選択し、多くの弱ラベルデータを十分に利用してモデルの性能及び汎化能力を向上させる。
【0023】
3、本発明は連合グローバルモデルを動的に更新するポリシーによって、各クライアントのデータ分布及びモデルの現在の訓練スケジュールに基づいて集約重みを動的に調整することができるデータ駆動方法を設計し、各クライアントの教師の可用性を十分に考慮し、各クライアントがマルチタスクハイブリッド連合最適化期間の重要性を客観的に評価し、連合グローバルモデルが過適合されたクライアントに依存することを防止し、モデルを実際のタスクに近づける。
【図面の簡単な説明】
【0024】
【
図1】
図1は本発明の連合学習に基づくマルチタスクハイブリッド教師あり医用画像分割システムの機能フローチャートである。
【
図2】
図2は本発明のマルチタスクネットワークモデルの構造模式図である。
【
図3】
図3は本発明の訓練ポリシーを示す図である。
【
図4】
図4は本発明のグローバル連合モデル更新ポリシーを示す図である。
【
図5】
図5は本発明の連合学習に基づくマルチタスクハイブリッド教師あり医用画像分割システムの構造模式図である。
【発明を実施するための形態】
【0025】
以下、少なくとも1つの例示的な実施例についての説明は、実際には単なる例示であり、本発明及びその応用又は使用を何ら制限するものではない。本発明の実施例に基づき、当業者が創造的な労働を必要とせずに取得したすべての他の実施例は、いずれも本発明の保護範囲に属する。
【0026】
用語の解釈について
Ground Truth:ラベル付きデータ。
【0027】
neck:中国語訳文は頸部であり、マルチタスク医用画像分割ネットワークアーキテクチャにおける上を受けて下を起こす重要な一環であり、主にバックボーンネットワークbackboneによって抽出された特徴を融合し、ネットワークによって学習された特徴をより多様化し、それによりネットワークの性能を向上させる。
【0028】
Kaiming初期化:何恺明によって提案された初期化方法である。業界ではHe初期化又はKaiming初期化と呼ばれる。平均値が0、分散が2⁄Nのガウス分布が採用され、Nは入力ニューロンの数である。
【0029】
Xavier初期化:
、
の均一分布が採用され、N
inは入力ニューロンの数であり、N
outは出力ニューロンの数である。
【0030】
本願が提案した連合学習に基づくマルチタスクハイブリッド教師あり医用画像分割システムの機能フローチャートは、
図1に示される。該プロセスは2つの段階に分けられ、第1段階ではバウンディングボックスのラベル付き訓練データ及びピクセルレベルのラベル付き訓練データを利用して連合学習に基づくマルチタスクネットワークの予備訓練を行い、複数のタスク共有情報によってバックボーンネットワークの性能を向上させ、第2段階では、ピクセルレベルのラベルがない場合に、先ず段階1の予備訓練により得られた2つの異なるグローバルネットワークモデルに基づき、ラベル無し画像及び弱ラベル付き画像に含まれる有用な情報(すなわち画像レベルのラベル付き訓練データ及びバウンディングボックスのラベル付き訓練データ)を効果的に利用し、反復疑似ラベル生成器によって疑似ラベルを生成し、次にラベルの修正操作を行い、弱ラベル付きデータから取得された情報に基づき、高品質の疑似ラベルで訓練し、クライアント間の自己適応重み割り当てプログラムで医用画像分割グローバルモデルのパラメータ更新を行う。
【0031】
連合学習に基づくマルチタスクハイブリッド教師あり医用画像分割方法は、以下のステップを含む。
【0032】
ステップS1では、各医療機関において医用画像の分割に必要な弱教師ありデータ、完全教師ありデータ及びラベルなしデータをそれぞれ収集し、前記弱教師ありデータはバウンディングボックスのラベル付き訓練データ及び画像レベルのラベル付き訓練データを含み、前記完全教師ありデータはピクセルレベルのラベル付き訓練データであり、前記弱教師ありデータ、前記完全教師ありデータ及び前記ラベルなし訓練データを対応する医療機関のソースデータセットとして用いる。
【0033】
[D
1,…,D
N]がN個のクライアントのソースデータセットを表すと仮定する。クライアントiが与えられ、
、
、
及び
はそれぞれクライアントiからのピクセルレベルのラベル付き訓練データ、ラベルなし訓練データ、画像レベルのラベル付き訓練データ及びバウンディングボックスのラベル付き訓練データを表す。Xは訓練画像セットを表し、Y
gtはピクセルレベルの利用可能なラベルを表し、Y
imgは画像レベルの利用可能なラベルを表し、Y
bboxはバウンディングボックスレベルの利用可能なラベルを表す。
【0034】
ステップS2では、第1段階では、連合学習のマルチタスクネットワークモデルに基づいて、前記バウンディングボックスのラベル付き訓練データ及び前記ピクセルレベルのラベル付き訓練データを利用して予備訓練を行い、2つの異なるグローバル予備訓練連合モデルを取得する。
【0035】
ステップS21では、CSP-ResNeXt構造を採用したバックボーンネットワーク、ASPP及びFPNを採用したneck、PANで融合されたマルチスケール情報特徴マップを採用した境界検出タスクブランチ、及び2回のアップサンプリング操作を採用したグローバルマスク分割タスクブランチを含むマルチタスクネットワークモデルを構築する。
【0036】
図2に示されるマルチタスクネットワークモデルを構築し、前記マルチタスクネットワークモデルは、バックボーンネットワーク部分、neck部分、境界検出タスクブランチ部分及びグローバルマスク分割タスクブランチ部分の4つの主要な部分を含む。バックボーンネットワークはN個のクライアントのソースデータセットの特徴を抽出することに用いられ、ここでCSP-ResNeXt構造をバックボーンとして選択し、最適化過程の勾配冗長性の問題を効果的に解決する。neckは空間特徴ピラミッド畳み込みモジュールASPPと符号化情報を融合した特徴ピラミッドFPNとで構成される。ASPPは異なるスケールの特徴を生成して融合し、FPNは異なるセマンティクスレベルの特徴を融合し、それにより生成された特徴にはマルチスケール及び複数のセマンティクスレベルの特徴が含まれる。境界検出タスクブランチ部分については、アンカーボックスanchorに基づくマルチスケール検出ポリシーが採用され、パス集約ネットワークPANで融合されたマルチスケール情報特徴マップを使用して検出を行い、各マルチスケール特徴マップのグリッドgridはいずれも3つの異なる比率の事前ボックスをラベル付けし、次に検出ヘッドは各グリッドに対して3つの境界(境界の位置を含み、各境界はオブジェクトの信頼度及び各境界領域のカテゴリである)を予測し、次に閾値に基づいて可能性の低い予測境界を除去し、最後に非極大値抑制処理を行って冗長な境界を除去して検出されたオブジェクトを取得する。グローバルマスク分割タスクブランチ部分については、2回のステップが2の転置畳み込みアップサンプリング操作によって元のサイズに回復した後、画像における各ピクセルが属するカテゴリを予測し、医用画像分割の予測結果を取得する。
【0037】
ステップS22では、中央サーバ側は前記マルチタスクネットワークモデルに対してXavier初期化及びKaiming初期化の2種の異なるネットワークモデル重み初期化方法をそれぞれ採用し、処理して2つの異なるグローバルネットワークモデルF1(∙)及びF2(∙)を取得する。
【0038】
ステップS23では、各クライアントは前記ピクセルレベルのラベル付き訓練データ及び前記バウンディングボックスのラベル付き訓練データに対して前処理操作を行い、それぞれの第1段階の前処理画像データを取得する。
【0039】
具体的な前処理操作は、画像をサイズ256x256にリサンプリングすることと、ランダムに反転してサイズ224x224にランダムに切り取ることと、階調値を[-200,200]にし、次にZ-Score正規化処理を行うことと、を含む。
【0040】
ステップS24では、中央サーバ側は2つの異なるグローバルネットワークモデルを各クライアントにそれぞれ送信し、各クライアントはローカルの第1段階の前処理画像データに基づいて特徴抽出を行い、送られた第1段階の前処理画像データのタイプに基づき、対応するタスクブランチを選択し、適応教師付けによって個性と共通性の両方の情報を学習し、対応するタスクブランチの対応する出力を取得する。
【0041】
クライアントがピクセルレベルのラベル付き訓練データを受信した場合に、境界検出タスクブランチのパラメータを凍結し、2つの異なる局所訓練モデルのバックボーンネットワーク、neck及びグローバルマスク分割タスクブランチのパラメータのみを訓練する。
【0042】
訓練過程において以下の損失関数を最小化することによって教師ありを行う。
【数1】
(1)
式中、L
diceはDice損失関数であり、Y
gtはピクセルレベルの利用可能なラベルを表し、Y
P
Lは予測された分割画像の結果を表し、|Y
gt|及び|Y
P
L|はそれぞれY
gtの要素数及びY
P
Lの要素数である。
【0043】
クライアントがバウンディングボックスのラベル付き訓練データを受信した場合に、グローバルマスク分割タスクブランチのパラメータを凍結し、2つの異なる局所訓練モデルのバックボーンネットワーク、neck及び境界検出タスクブランチのパラメータのみを訓練する。
【0044】
以下の損失関数を最小化することによって教師ありを行う。
【数2】
式中、α
1、α
2及びα
3は最適化されたハイパーパラメータである。
L
classは分類損失であり、バイナリクロスエントロピー損失(BCE loss)を採用し、式は以下の通りであり、
【数3】
(3)
式中、p
i(c)はカテゴリがc(ラベルが0又は1であるなどの分類ラベルを一般的に指す)の予測確率値を表し、Sはネットワークから最後に出力された特徴マップのサイズがS×S,であることを表し、Bは各格子に対応するアンカーボックス(anchor)の数を表し、
は各グリッドユニット(i=1,…,S
2)の各アンカーボックス予測値(j=1,…,B)に対するオブジェクトの有無を表し、1はグリッドユニットiにオブジェクトが存在すると、j番目のアンカーボックス予測値が該予測に対して有効であることを表し、0はグリッドユニットiにオブジェクトが存在しないことを表す。
L
objは信頼度損失であり、バイナリクロスエントロピー損失関数を採用して計算し、式は以下の通りであり、
【数4】
(4)
式中、C
iはオブジェクトの予測信頼度を表し、
はオブジェクトのないアンカーボックス(anchor)を表し、L
boxはL
CIOUであり、該損失は予測ボックスとバウンディングボックスとの間の距離、オーバーラップ率、anchorのサイズ及び比率を考慮し、以下のように定義される。
【数5】
(5)
IOUはバウンディングボックス回帰損失で最も一般的に使用される重なり度合いであり、予測ボックスと実際のボックスとの間の距離を取得でき、それにより検出の効果を反映し、計算式は以下の通りである。
【数6】
(6)
vはアスペクト比の一致性を評価するパラメータであり、以下のように定義される。
【数7】
(7)
式中、Y
Pは境界の予測結果であり、Y
bboxはバウンディングボックスレベルの利用可能なラベルを表し、w
gtはラベルボックスの幅であり、h
gtはラベルボックスの高さであり、w
pは予測ボックスの幅であり、h
pは予測ボックスの高さであり、Distance
2は2つの中心点のユークリッド距離であり、Distance
cはラベルボックスと予測ボックスとの最小外接矩形の対角線距離である。
【0045】
ステップS25では、各クライアントは所定回数の反復を行った後にいずれも2つの異なる局所訓練モデルを取得し、前記2つの異なる局所訓練モデルを中央サーバ側に返送し、中央サーバ側は各クライアントによって返送された2つの異なる局所訓練モデルを集約して新たなグローバル連合モデルを取得し、前記グローバル連合モデルを各クライアントに送信して再訓練し、第1段階で設定された所定の予備訓練の回数に達するまで前記訓練、統合ステップを繰り返し、2つの異なるグローバル予備訓練連合モデルを取得する。
【0046】
ステップS3では、第2段階では、前記ラベルなし訓練データ、前記画像レベルのラベル付き訓練データ、前記バウンディングボックスのラベル付き訓練データ及び前記ピクセルレベルのラベル付き訓練データを利用して2つの異なるグローバル予備訓練連合モデルに基づき、反復疑似ラベル生成器によって疑似ラベルを生成する。
【0047】
ステップ31では、各クライアントはピクセルレベルのラベル付き訓練データ、バウンディングボックスのラベル付き訓練データ、画像レベルのラベル付き訓練データ及びラベルなし訓練データに対してそれぞれ前処理操作を行い、第2段階の前処理画像データを取得する。
【0048】
具体的な前処理操作は、画像をサイズ256x256にリサンプリングすることと、ランダムに反転してサイズ224x224にランダムに切り取ることと、階調値を[-200,200]にし、次にZ-Score正規化処理を行い、第2段階の前処理画像データを取得することと、を含む。
【0049】
各種のレベルの画像ラベルを統合するために、バウンディングボックスレベルの利用可能なラベルをピクセルレベルの利用可能なラベルに変更する。具体的には、バウンディングボックスレベルの利用可能なラベルはY
bboxがピクセルレベルのラベルY
L
bboxに変換されることを表し、前景クラスはバウンディングボックス内にあり、背景クラスはバウンディングボックス外にある。従って、Y
gtとY
L
bboxは同じ次元を有し、例えば、
であり、Cは前景クラスの総数を表し、W及びHはそれぞれの2D画像データの幅及び高さを表す。
【0050】
ステップS32では、中央サーバ側は第1段階で生成された2つの異なるグローバル予備訓練連合モデルを各クライアントにそれぞれ送信し、各クライアントはローカルの第2段階の前処理画像データ及びそのデータタイプに基づき、教師ありタイプを自己適応的に選択し、第2段階のネットワークモデルの訓練を行う。
【0051】
図3に示すように、ローカルクライアントに利用可能なピクセルレベルのラベルがない場合に、2つの異なるグローバル予備訓練モデルパラメータを更新したネットワークF
1(∙)及びF
2(∙)を使用してクロス疑似ラベル教師ありを行う。訓練画像Xの前処理操作後に2つの異なるネットワークモデルF
1及びF
2に送られ、該画像データのタイプは教師付けのタイプを決める。
【0052】
図3の(A)に示すように、クライアントがピクセルレベルのラベル付き訓練データを受信した場合に、境界検出タスクブランチのパラメータを凍結し、2つの異なる局所訓練モデルのバックボーンネットワーク、neck及びグローバルマスク分割タスクブランチのパラメータのみを訓練し、損失関数の式(1)を利用して自己適応教師ありを行う。
【0053】
図3の(B)に示すように、クライアントがバウンディングボックスのラベル付き訓練データを受信した場合に、2つの異なる局所訓練モデルの境界検出タスクブランチ及びグローバルマスク分割タスクブランチのパラメータを同時に訓練し、検出タスクが分割タスクを支援する方式を利用して教師あり学習を行い、対応するバウンディングボックスのラベル付き訓練データのラベルを介してグローバルマスク分割タスクブランチの疑似ラベルに対して修正操作を行い、検出タスクが分割タスクを支援する方式を利用して以下の損失関数を最小化することによって教師ありを行う。
【数8】
(8)
【数9】
(9)
式中、Y
1=F
1(X
1)及びY
2=F
2(X
2)は境界検出タスクブランチによって予測された疑似ラベルであり、この教師付けの場合に、疑似ラベルの品質を向上させるために、対応するバウンディングボックスレベルの利用可能なラベルに基づいて疑似ラベルの修正操作を行い、修正ポリシーは以下の式に示される。
【数10】
(10)
式中、*は小数点乗算操作を表す。
【0054】
図3の(C)に示すように、クライアントが画像レベルのラベル付き訓練データ及びラベルなし訓練データを受信した場合に、境界検出タスクブランチのパラメータを凍結し、2つの異なる局所訓練モデルF
1(∙)及びF
2(∙)のバックボーンネットワーク、neck及びグローバルマスク分割タスクブランチのパラメータのみを訓練し、前記2つの異なる局所訓練モデルを利用してクロス疑似ラベル教師ありを行う。
【数11】
(11)
【0055】
ステップS4では、第2段階では、動的サンプル選択方法を利用して高品質の訓練データ及び疑似ラベルを選択する。
【0056】
動的サンプル選択方法を採用し、現在訓練された2つの異なる局所訓練モデルによって生成された疑似ラベル間の予測一致性を利用し、マスクを生成することによって、高品質の訓練データ及び疑似ラベルを選択する。
【0057】
上記疑似ラベルの生成及び修正過程の有効性にもかかわらず、疑似ラベルは正確ではない可能性がある。従って、高品質のデータ及び疑似ラベルを選択するための動的サンプル選択方法が提案される。具体的には、クライアントiが与えられ、該クライアントの訓練データD
iに対して、等式(12)に基づいて1つのマスク
を生成し、言い換えれば、等式(12)に基づいて信頼できる訓練サンプルを選択し(各訓練データに対して、マスク値がm
i=1であると、該データは訓練サンプルに格納されて訓練に用いられる)、dice(Y
1,Y
2)は修正前に疑似ラベルY
1とY
2との一致性を測定することに用いられ、Y
1とY
2との予測一致性がより高いと、疑似ラベルがground truthに近くなることが示され、以上の過程は以下のように示される。
【数12】
(12)
式中、
は1つの閾値であり、選択された訓練サンプルの数に反比例し、ここでε=0.9である。ピクセルレベルのラベルに対して、サンプル選択操作が行われず、すなわちすべての
の訓練サンプルはいずれもm
i=1である。訓練が進むにつれて、モデルはより正確な疑似ラベルを生成する能力が高くなり、従って、
は徐々に|D
i|に増加し、モデルが増加し続ける訓練データセットから学習することを可能にする。
【0058】
各クライアントはローカルの訓練データに基づいて2つの異なる局所訓練モデルの訓練を完了した後、訓練された2つの異なる局所訓練モデルを中央サーバ側にそれぞれ返送し、中央サーバ側は各クライアントによって返送された2つの異なる局所訓練モデルに対して適応集約を行って新たなグローバル連合モデルを取得し、前記グローバル連合モデルを各クライアントに送信して再訓練し、最終的なグローバル連合モデルが収束するまで前記訓練、統合ステップを繰り返す。
【0059】
ステップS5では、第1段階及び第2段階に基づき、受信された各クライアントによる反復過程で生成された局所訓練モデルのパラメータに対して、中央サーバ側はクライアント間の自己適応重み割り当てプログラムを介してグローバル連合モデルのパラメータ更新を行う。
【0060】
ステップS51では、毎回の訓練過程で、各クライアントは中央サーバ側から反復過程で生成されたグローバル連合モデルパラメータを受信する。
【0061】
ステップS52では、各クライアントはローカルの訓練データを使用してローカル訓練を行い、ローカルの局所訓練モデルのパラメータ更新を完了する。
【0062】
ステップS53では、各クライアントはそれぞれの局所訓練モデルパラメータの勾配更新を中央サーバ側に送信する。
【0063】
ステップS54では、中央サーバ側は各クライアントによってアップロードされた局所訓練モデルパラメータの勾配をまとめ、グローバル連合モデルパラメータに対する更新を完了する。
【0064】
図4に示すように、毎回の訓練中に、各ローカルクライアントiは先ず中央サーバ側からt回目の反復過程で生成されたグローバル連合モデル(すなわち中央サーバ側が各クライアントによって返送された訓練モデルを集約して得たグローバルモデル)のパラメータθ
α
tを受信する。次に、各クライアントはローカルの訓練データD
iを使用して、ローカル訓練によってグローバル連合モデルパラメータの更新を行う。最後に、各ローカルクライアントモデルパラメータからの勾配
更新を中央サーバ側に送信し、中央サーバ側は各クライアントによってアップロードされたモデルパラメータをまとめ、式(13)に基づいてグローバル連合モデル(グローバルモデル)のパラメータを更新する。
【数13】
(13)
【0065】
第1段階のグローバル連合モデルの共有ネットワーク部分のパラメータを更新し、各クライアントが第1段階で使用した訓練データ量が第1段階で使用された総データ量を占めた割合に基づいてパラメータ重み付けを行い、各クライアントの局所訓練モデルの共有ネットワーク部分のパラメータをグローバル連合モデルの共有ネットワーク部分のパラメータに集める。
【0066】
第1段階の訓練に対して、マルチブランチタスクモデルはネットワーク部分を共有し、各クライアントの集約重みは以下の式14に示され、
【数14】
(14)
【0067】
グローバル連合モデルのグローバルマスク分割タスクブランチのモデルパラメータを更新し、各クライアントが第1段階で使用したピクセルレベルのラベル付き訓練データ量が第1段階で使用されたピクセルレベルの訓練データの総量を占めた割合に基づいてパラメータ重み付けを行い、各クライアントの局所モデルのグローバルマスク分割ブランチ部分のパラメータをグローバル連合モデルのグローバルマスク分割ブランチ部分のパラメータに集める。
【0068】
グローバルマスク分割タスクブランチの集約重みは以下の式15に示され、
【数15】
(15)
式中、|D
i
L|はピクセルレベルのラベル付き訓練データの数を表す。
【0069】
第1段階のグローバル連合モデルの検出タスクブランチ部分のパラメータを更新し、各クライアントが第1段階で使用したバウンディングボックスのラベル付き訓練データ量が第1段階で使用されたバウンディングボックス訓練データの総量を占めた割合に基づいてパラメータ重み付けを行い、各クライアントの局所訓練モデルの検出タスクブランチ部分のパラメータをグローバル連合モデルの検出タスクブランチ部分のパラメータに集める。
【0070】
検出タスクブランチ部分の集約重みは以下の式16に示され、
【数16】
(16)である。
式中、
は画像レベルのラベル付き訓練データの数を表す。
【0071】
第2段階でグローバル連合モデルを集約する過程で、各クライアントのデータ分布及び各クライアントが現在の訓練スケジュールで選択した高品質の訓練データ量に基づき、適応集約関数を定義することによって集約重みを動的に調整し、このために提案された適応集約関数は以下のように定義される。
【数17】
(17)
【数18】
(18)
式中、μ及びβは最適化されたハイパーパラメータであり、それぞれ10及び3に設定され、異なるクライアントに対する依存度に影響を与える。
【0072】
図5に示すように、連合学習に基づくマルチタスクハイブリッド教師あり医用画像分割システムは、
各医療機関において医用画像の分割に必要な弱教師ありデータ、完全教師ありデータ及びラベルなしデータをそれぞれ収集するためのデータ収集モジュールであって、前記弱教師ありデータはバウンディングボックスのラベル付き訓練データ及び画像レベルのラベル付き訓練データを含み、前記完全教師ありデータはピクセルレベルのラベル付き訓練データであり、前記弱教師ありデータ、前記完全教師ありデータ及び前記ラベルなし訓練データを対応する医療機関のソースデータセットとして用いるデータ収集モジュールと、
連合学習のマルチタスクネットワークモデルに基づいて、前記バウンディングボックスのラベル付き訓練データ及び前記ピクセルレベルのラベル付き訓練データを利用して予備訓練を行い、2つの異なるグローバル予備訓練連合モデルを取得するための第1段階での連合学習に基づくマルチタスクネットワークモデルモジュールと、
前記ラベルなし訓練データ、前記画像レベルのラベル付き訓練データ、前記バウンディングボックスのラベル付き訓練データ及び前記ピクセルレベルのラベル付き訓練データを利用して2つの異なるグローバル予備訓練連合モデルに基づき、反復疑似ラベル生成器によって疑似ラベルを生成するための第2段階での疑似ラベル生成モジュールと、
動的サンプル選択方法を利用して高品質の訓練データ及び疑似ラベルを選択するための第2段階での動的サンプル選択モジュールと、
受信された、各クライアントによる反復過程で生成された局所訓練モデルのパラメータに対して、中央サーバ側はクライアント間の自己適応重み割り当てプログラムを介してグローバル連合モデルのパラメータ更新を行うための連合モデル動的更新モジュールと、を含む。
【0073】
以上より、本発明は、ピクセルレベルのラベル付きデータを利用して基本的な医用画像分割システムを確立するだけでなく、バウンディングボックスのラベル付きデータを利用して医用画像分割システムの精度を向上させることを支援し、クロス疑似教師付け方式を採用して画像レベルのラベル付きデータ及びラベルなしデータを十分に利用して医用画像分割システムの汎化能力を向上させる。該システムは異なるクライアントの間に同じタイプのラベル付きデータがあることを要求せず、異なるクライアントが異なるレベルのラベルであり得るという汎用性の特徴を有する。本発明の課題は、医用画像分割分野のピクセルレベルのラベル付きデータの規模が小さく、分布が不均衡で、患者のプライバシー保護により制限されるため多機関間のデータ共有が困難であるという問題点を解決することであり、既存の連合学習に基づく医用画像分割方法のほとんどは限られたピクセルレベルの症例注釈データのみを考慮する。本発明は、単一のラベルタイプの制限を打破し、マルチタスクハイブリッドモデルアーキテクチャを提案し、連合学習に基づくマルチタスクハイブリッド訓練方式により、各クライアントの境界レベルのラベル付きデータを利用して医用画像分割を支援し、次に連合学習に基づくクロス疑似教師付けと高品質サンプルの動的選択方式を組み合わせ、いかなる形式のラベル付きデータを十分に利用して医用画像分割を行う。また、本発明は、関与者がプライバシーデータを共有することなく各ローカルクライアントに最適化された集約重みを動的に割り当ててグローバル連合モデルを更新することを提案し、さらにモデルのロバスト性を向上させ、医療業界のデータセキュリティ及びプライバシー保護の難題、及び医療資源の不均衡の問題を大幅に緩和する。要するに、本発明は、各臨床機関に分散した異なるレベルのラベルに基づき、データがローカル機関から出ないことを確保することを前提に、患者のプライバシーを漏洩しなかった上で、各臨床機関の協調モデリングを実現し、多機関データの潜在能力と深層価値を十分にマイニングし、各協力者が他の関与者の異なるラベル付け形式のデータセットの空間分布及びモデル特徴表現能力から利益を取得することができ、汎化能力の高い良質な医用画像分割モデルを学習し、大規模なデータセットを有するモデル訓練効果を達成することができ、それにより医師の診断過程で積極的な支援役割を果たし、重要な臨床意味を有する。
【0074】
以上は本発明の好適な実施例に過ぎず、本発明を制限するためのものではなく、当業者であれば、本発明に対して各種の変更及び変化を行うことができる。本発明の精神及び原則内で行われたいかなる修正、同等置換、改良などは、いずれも本発明の保護範囲内に含まれるべきである。
【要約】 (修正有)
【課題】単一のラベルタイプの制限を打破し、連合学習に基づくマルチタスクハイブリッドモデルアーキテクチャを提案し、各関与者のデータサイロを打破し、多機関データの潜在能力と深層価値を十分にマイニングするだけでなく、タスク間の関係を十分に利用してさらに効果的な文脈特徴をマイニングし、異なる階層特徴間の情報の相補性を実現し、さらにモデルの精度及びロバスト性を向上させる。
【解決手段】連合学習に基づくマルチタスクハイブリッド教師あり医用画像分割方法及びシステムは、各種の弱教師ありデータ、完全教師ありデータ及びラベルなしデータに基づくデータ収集モジュールと、連合学習に基づく第1段階でのマルチタスクネットワークモデルモジュールと、第2段階に基づく疑似ラベル生成モジュールと、第2段階に基づく動的サンプル選択モジュールと、異なる段階に基づく連合モデル動的更新モジュールとを含む。
【選択図】
図1