(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-04-05
(45)【発行日】2024-04-15
(54)【発明の名称】複数の撮像モダリティから得られた解剖学的構造の医療画像データを学習するための方法、処理ユニット及び、システム
(51)【国際特許分類】
G06T 7/00 20170101AFI20240408BHJP
A61B 5/00 20060101ALI20240408BHJP
G06N 3/088 20230101ALI20240408BHJP
G06N 3/09 20230101ALI20240408BHJP
G06N 3/096 20230101ALI20240408BHJP
【FI】
G06T7/00 350C
A61B5/00 G
G06N3/088
G06N3/09
G06N3/096
(21)【出願番号】P 2020524235
(86)(22)【出願日】2018-11-02
(86)【国際出願番号】 US2018058855
(87)【国際公開番号】W WO2019090023
(87)【国際公開日】2019-05-09
【審査請求日】2020-12-18
【審判番号】
【審判請求日】2023-01-16
(73)【特許権者】
【識別番号】390041542
【氏名又は名称】ゼネラル・エレクトリック・カンパニイ
(74)【代理人】
【識別番号】100105588
【氏名又は名称】小倉 博
(74)【代理人】
【識別番号】100129779
【氏名又は名称】黒川 俊久
(74)【代理人】
【識別番号】100151286
【氏名又は名称】澤木 亮一
(72)【発明者】
【氏名】ヴァイジャ,ヴィヴェク・プラバカー
(72)【発明者】
【氏名】ムリック,ラケシュ
(72)【発明者】
【氏名】シュリラム,クリシュナ・シーサラム
(72)【発明者】
【氏名】ランジャン,ソハン・ラシュミ
(72)【発明者】
【氏名】アナンギ,パヴァン・クマル・ヴイ
(72)【発明者】
【氏名】シルヴェンカダム,シェシャドゥリ
(72)【発明者】
【氏名】アラダハリ,チャンダン・クマル・マラッパ
(72)【発明者】
【氏名】スリークマリ,アラシ
【合議体】
【審判長】畑中 高行
【審判官】樫本 剛
【審判官】川崎 優
(56)【参考文献】
【文献】特表2020-500377(JP,A)
【文献】特表2020-500378(JP,A)
【文献】松岡拓未 外7名、「CycleGANによる異種モダリティ画像生成を用いた股関節MRIの筋骨格セグメンテーション」、第37回日本医用画像工学会大会、2018年7月25日、OP1-4、75~80頁
(58)【調査した分野】(Int.Cl.,DB名)
G06T 7/00
G06N 3/096
A61B 5/00
(57)【特許請求の範囲】
【請求項1】
第1の撮像モダリティから第1の入力画像データセット(220)を、および前記第1の撮像モダリティとはその種類が異なる第2の撮像モダリティから第2の入力画像データセット(222)を少なくとも得ること(202)と、
新しい医療画像分析に使用される1つまたは複数の特徴プリミティブおよびマッピング関数を生成するために前記第1の入力画像データセット(220)と前記第1の入力画像データセット(220)に付けられたラベルに基づいて第1の教師あり学習畳み込みニューラルネットワーク(CNN)(116)を訓練し、前記第2の入力画像データセット(222)と前記第2の入力画像データセット(222)に付けられたラベルに基づいて、前記第1の教師あり学習CNN(116)とは異なる第2の教師あり学習CNN(116)を訓練し、
前記第1の入力画像データセット(220)と前記第1の入力画像データセット(220)に付けられた前記ラベルと
前記第2の入力画像データセット(222)と前記第2の入力画像データセット(222)に付けられた前記ラベルとに基づいて、前記第1の教師あり学習CNN(116)を
強度マッピング関数を介して訓練すること(308)、ならびに新しい医療画像分析に使用される1つまたは複数の特徴プリミティブおよびマッピング関数を生成するために第1の教師なし学習CNN(114)を前記第1の入力画像データセット(220)で訓練し、前記第1の教師なし学習CNN(114)とは異なる第2の教師なし学習CNN(114)を前記第2の入力画像データセット(222)で訓練し、前記第1の入力画像データセット(220)と前記第2の入力画像データセット(222)で、前記第1の教師なし学習CNN(114)を強度マッピング関数を介して訓練することと、
前記第1及び第2の教師あり学習CNN(116)または前記第1及び第2の教師なし学習CNN(114)の前記1つまたは複数の特徴プリミティブおよび前記マッピング関数を格納すること(218、312)と
を含む、方法(200、300、400)。
【請求項2】
前記1つまたは複数の特徴プリミティブおよび前記マッピング関数を格納した後に、
少なくとも1つの未知の入力画像データセット(404)を得ることと、
前記少なくとも1つの未知の入力画像データセット(404)からパラメータおよびピクセルレベルの出力(408、420)を得ること(402)と、
前記パラメータおよび前記ピクセルレベルの出力(408、420)に対応する少なくとも1つの特徴プリミティブおよびマッピング関数を得ること(412)と、
前記少なくとも1つの特徴プリミティブおよび前記少なくとも1つのマッピング関数を組み合わせて前記少なくとも1つの未知の入力画像データセット(404)を学習するためのCNNを生成すること(414)と、
少なくとも前記未知の入力画像データセット(404)で生成された前記CNNを訓練すること(416)と、
をさらに含み、
前記パラメータは、前記少なくとも1つの未知の入力画像データセット(404)に対応する撮像モダリティ及び、解剖学的構造を含み、
前記第1及び第2の教師あり学習CNN(116)または前記第1及び第2の教師なし学習CNN(114)の少なくとも前記1つまたは複数の特徴プリミティブは、対応する解剖学的構造(126)を特徴付け、
1つまたは複数のフィルタが前記少なくとも1つのマッピング関数に設定されており、
前記1つまたは複数のフィルタは、入力における所与の空間位置で特定のタイプの特徴を検出したときに活性化し、
前記少なくとも1つのマッピング関数は、前記第1及び/または第2の入力画像データセット(220、222)を前記少なくとも1つの特徴プリミティブにマップする、請求項1に記載の方法(200、300、400)。
【請求項3】
前記1つまたは複数の特徴プリミティブおよび前記マッピング関数を格納した後で、
前記第1の入力画像データセット(220)および前記第2の入力画像データセット(222)が前記マッピング関数により共通の特徴プリミティブにマッピングされる、請求項1に記載の方法(200、300、400)。
【請求項4】
前記第1及び第2の入力画像データセットを得た後に、
前記第1の撮像モダリティに対応する前記第1の入力画像データセット(220)の画素の強度を前記第2の入力画像データセット(222)の強度特徴を持つように変換して強度が変換された第1の入力画像データセットを得ることと、
前記第2の教師なし学習CNN(114)を前記強度が変換された第1の入力画像データセットで訓練することをさらに含む、請求項1乃至3のいずれかに記載の方法(200、300、400)。
【請求項5】
前記強度が変換された第1の入力画像データセットの画素の強度が決定されるに際し回帰が使用される、請求項4に記載の方法(200、300、400)。
【請求項6】
メモリユニット(110)を備え、1つまたは複数のプロセッサユニット(108)により実行可能な処理ユニット(104)であって、
第1の撮像モダリティから第1の入力画像データセット(220)を、および前記第1の撮像モダリティとはその種類が異なる第2の撮像モダリティから第2の入力画像データセット(222)を少なくとも得て、
新しい医療画像分析に使用される1つまたは複数の特徴プリミティブおよびマッピング関数を生成するために前記第1の入力画像データセット(220)と前記第1の入力画像データセット(220)に付けられたラベルに基づいて第1の教師あり学習畳み込みニューラルネットワーク(CNN)(116)を
訓練し、前記第2の入力画像データセット(222)と前記第2の入力画像データセット(222)に付けられたラベルに基づいて、前記第1の教師あり学習CNN(116)とは異なる第2の教師あり学習CNN(116)を
訓練し、前記第1の入力画像データセット(220)と前記第1の入力画像データセット(220)に付けられた前記ラベルと前記第2の入力画像データセット(222)と前記第2の入力画像データセット(222)に付けられた前記ラベルとに基づいて、前記第1の教師あり学習CNN(116)を強度マッピング関数を介して訓練すること、ならびに新しい医療画像分析に使用される1つまたは複数の特徴プリミティブおよびマッピング関数を生成するために第1の教師なし学習CNN(114)を前記第1の入力画像データセット(220)で訓練し
、前記第1の教師なし学習CNN(114)とは異なる第2の教師なし学習CNN(114)を前記第2の入力画像データセット(222)で訓練し、前記第1の入力画像データセット(220)と前記第2の入力画像データセット(222)とに基づいて、前記第1の教師なし学習CNN(114)を強度マッピング関数を介して訓練し、
前記第1及び第2の教師あり学習CNN(116)または前記第1及び第2の教師なし学習CNN(114)の前記
1つまたは複数の特徴プリミティブおよび前記マッピング関数を格納するように構成される、処理ユニット(104)。
【請求項7】
前記処理ユニット(104)は、
前記1つまたは複数の特徴プリミティブおよび前記マッピング関数を格納した後に、
少なくとも1つの未知の入力画像データセット(404)を得て、
前記少なくとも1つの未知の入力画像データセット(404)からパラメータおよびピクセルレベルの出力(408、420)を得て、
前記パラメータおよび前記ピクセルレベルの出力(408、420)に対応する少なくとも1つの特徴プリミティブおよびマッピング関数を得て、
前記少なくとも1つの特徴プリミティブおよび前記少なくとも1つのマッピング関数を組み合わせて前記少なくとも1つの未知の入力画像データセット(404)を学習するためのCNNを生成し、
少なくとも前記未知の入力画像データセット(404)で生成された前記CNNを訓練する
ようにさらに構成され、
前記パラメータは、前記少なくとも1つの未知の入力画像データセット(404)に対応する撮像モダリティ及び、画像解剖学的構造を含み、
前記第1及び第2の教師あり学習CNN(116)または前記第1及び第2の教師なし学習CNN(114)の少なくとも前記1つまたは複数の特徴プリミティブは、対応する解剖学的構造(126)を特徴付け、
1つまたは複数のフィルタが前記少なくとも1つのマッピング関数に設定されており、
前記1つまたは複数のフィルタは、入力における所与の空間位置で特定のタイプの特徴を検出したときに活性化し、
前記少なくとも1つのマッピング関数は、前記第1及び/または第2の入力画像データセット(220)を前記少なくとも1つの特徴プリミティブにマップする、請求項6に記載の処理ユニット(104)。
【請求項8】
前記1つまたは複数の特徴プリミティブおよび前記マッピング関数を格納した後で、
前記第1の入力画像データセット(220)および前記第2の入力画像データセット(222)が前記マッピング関数により共通の特徴プリミティブにマッピングされる、請求項6に記載の処理ユニット(104)。
【請求項9】
前記第1及び第2の入力画像データセットを得た後に、
前記処理ユニット(104)は、前記第1の撮像モダリティに対応する前記第1の入力画像データセット(220)の画素の強度を前記第2の入力画像データセット(222)の強度特徴を持つように変換して強度が変換された第1の入力画像データセットを得、
前記第2の教師なし学習CNN(114)を前記強度が変換された第1の入力画像データセットで訓練するように構成される、請求項6に記載の処理ユニット(104)。
【請求項10】
前記強度が変換された第1の入力画像データセットの画素の強度が決定されるに際し回帰が使用される、請求項9に記載の処理ユニット(104)。
【請求項11】
プロセッサユニット(108)と、
前記プロセッサユニット(108)に動作可能に結合されたメモリユニット(110)と、
前記プロセッサユニット(108)に動作可能に結合され、
第1の撮像モダリティから第1の入力画像データセット(220)を、および前記第1の撮像モダリティとはその種類が異なる第2の撮像モダリティから第2の入力画像データセット(222)を少なくとも得て、
新しい医療画像分析に使用される1つまたは複数の特徴プリミティブおよびマッピング関数を生成するために前記第1の入力画像データセット(220)と前記第1の入力画像データセット(220)に付けられたラベルに基づいて第1の教師あり学習CNN(116)を訓練し
、前記第2の入力画像データセット(222)と前記第2の入力画像データセット(222)に付けられたラベルに基づいて、前記第1の教師あり学習CNN(116)とは異なる第2の教師あり学習CNN(116)を訓練し、
前記第1の入力画像データセット(220)と前記第1の入力画像データセット(220)に付けられた前記ラベルと
前記第2の入力画像データセット(222)と前記第2の入力画像データセット(222)に付けられた前記ラベルとに基づいて、前記第1の教師あり学習CNN(116)を
強度マッピング関数を介して訓練すること、ならびに新しい医療画像分析に使用される1つまたは複数の特徴プリミティブおよびマッピング関数を生成するために第1の教師なし学習CNN(114)を前記第1の入力画像データセット(220)で訓練し、前記第1の教師なし学習CNN(114)とは異なる第2の教師なし学習CNN(114)を前記第2の入力画像データセット(222)で訓練し、前記第1の入力画像データセット(220)と前記第2の入力画像データセット(222)で、前記第1の教師なし学習CNN(114)を強度マッピング関数を介して訓練し、
前記第1及び第2の教師あり学習CNN(116)または前記第1及び第2の教師なし学習CNN(114)の
1つまたは複数の特徴プリミティブおよび前記マッピング関数を格納するように構成され、
前記処理ユニット(104)は、1つまたは複数のプロセッサユニット(108)により実行可能である、システム(100)。
【請求項12】
前記処理ユニット(104)は、
前記1つまたは複数の特徴プリミティブおよび前記マッピング関数を格納した後に、
少なくとも1つの未知の入力画像データセット(404)を得て、
前記少なくとも1つの未知の入力画像データセット(404)からパラメータおよびピクセルレベルの出力(408、420)を得て、
前記パラメータおよび前記ピクセルレベルの出力(408、420)に対応する少なくとも1つの特徴プリミティブおよびマッピング関数を得て、
前記少なくとも1つの特徴プリミティブおよび前記少なくとも1つのマッピング関数を組み合わせて前記少なくとも1つの未知の入力画像データセット(404)を学習するためのCNNを生成し、
少なくとも前記未知の入力画像データセット(404)で生成された前記CNNを訓練する
ようにさらに構成され、
前記パラメータは、前記少なくとも1つの未知の入力画像データセット(404)に対応する撮像モダリティ及び、画像解剖学的構造を含み、
前記第1及び第2の教師あり学習CNN(116)または前記第1及び第2の教師なし学習CNN(114)の少なくとも前記1つまたは複数の特徴プリミティブは、対応する解剖学的構造(126)を特徴付け、
1つまたは複数のフィルタが前記少なくとも1つのマッピング関数に設定されており、
前記1つまたは複数のフィルタは、入力における所与の空間位置で特定のタイプの特徴を検出したときに活性化し、
前記少なくとも1つのマッピング関数は、前記第1及び/または第2の入力画像データセット(220)を前記少なくとも1つの特徴プリミティブにマップする、請求項11に記載のシステム(100)。
【請求項13】
前記処理ユニット(104)は、
前記1つまたは複数の特徴プリミティブおよび前記マッピング関数を格納した後で、
前記第1の入力画像データセット(220)および前記第2の入力画像データセット(222)を前記マッピング関数により共通の特徴プリミティブにマッピングする
ようにさらに構成される、請求項11に記載のシステム(100)。
【発明の詳細な説明】
【技術分野】
【0001】
本明細書の実施形態は、一般に、学習ネットワークで使用するための様々な撮像モダリティから得られた様々な解剖学的構造の医療画像データの転送可能な表現学習を生成するためのシステムおよび方法に関する。具体的には、システムおよび方法は、第1および/または第2の撮像モダリティの物理学および解剖学的構造の生物学に基づいて特徴プリミティブのセットとして医療画像データの表現学習を決定し、他の撮像モダリティからの医療画像データの分類およびセグメンテーションなどの問題を学習するための新しい畳み込みネットワークを構成することを目的とする。
【背景技術】
【0002】
理解されるように、機械学習は、「明示的にプログラムされることなく学習する能力をコンピュータに与える」コンピュータサイエンスのサブフィールドである。機械学習は、データから学習し、データを予測することができるアルゴリズムの研究および構成を探索する。機械学習では、特徴学習または表現学習は、生データ入力を機械学習タスクで効果的に利用することができる表現に変換する一連の手法である。表現学習は、分類などの機械学習タスクが、数学的にも計算的にも処理に便利な入力を必要とすることが多いという事実によって動機付けられる。しかし、画像、ビデオ、およびセンサ測定などの実際のデータは通常、複雑かつ冗長であり、非常に変動しやすい。したがって、生データから有用な特徴または表現を識別することが望ましい。現在、手動による特徴識別方法は、高価な人間の労力を必要とし、専門家の知識に依存している。また、手動で生成された表現は通例、一般化には向いておらず、したがって効率的な表現学習手法の設計を動機付けし、特徴または表現学習を自動化および一般化する。
【0003】
さらに、機械学習では、畳み込みニューラルネットワーク(CNNまたはConvNet)または深層畳み込みニューラルネットワークは、フィードフォワード人工ニューラルネットワークの一種であり、そのニューロン間の接続パターンは、動物の視覚皮質の組織に触発されている。畳み込みニューラルネットワーク(CNN)は、生物学的に触発された多層パーセプトロンの変形であり、最小限の前処理で視覚皮質の挙動をエミュレートするように設計されている。多層パーセプトロンネットワーク(MLP)は、入力データのセットを適切な出力のセットにマップするフィードフォワード人工ニューラルネットワークモデルであることに留意されたい。MLPは、有向グラフのノードの複数の層を含み、各層は次の層に完全に接続されている。現在の展開では、CNNは、画像およびビデオ認識、レコメンダシステム、ならびに自然言語処理において幅広い用途を有する。CNNはまた、重み共有アーキテクチャおよび並進不変特性に基づくシフト不変または空間不変人工ニューラルネットワーク(SIANN)としても知られている。
【0004】
深層CNNアーキテクチャでは、畳み込み層がコアビルディングブロックであることに留意されたい。畳み込み層に関連付けられたパラメータは、学習可能なフィルタまたはカーネルのセットを含む。フォワードパスの間、各フィルタは、入力ボリュームの幅および高さにわたって畳み込まれ、フィルタの項目と入力との間の点乗積を計算し、そのフィルタの二次元(2D)活性化マップをもたらす。したがって、ネットワークは、ネットワークが入力における所与の空間位置で特定のタイプの特徴を検出したときに活性化されるフィルタを学習する。深層CNNアーキテクチャは、典型的には、深層学習する問題専用に構築される。深層学習は、人間のような知覚や意思決定を伴う多くのタスクで効果的であることが知られている。深層学習の典型的な用途は、手書き認識、画像認識、および音声認識である。深層学習手法は、訓練データおよびそのデータに対応する成果を使用することによってネットワークモデルを構成する。ネットワークモデルが構成されると、モデルは成果を決定するための新しいデータで使用することができる。さらに、特定の成果について一度学習された深層学習ネットワークは、関連する成果のために有利に再利用され得ることが理解されよう。
【0005】
さらに、CNNは、入力データセットがラベル付けされている教師あり学習に、ならびに入力データセットがラベル付けされていない教師なし学習に使用することができる。ラベル付けされた入力データセットは、データセットの要素がラベルによって表される分類スキームに事前に関連付けられているデータセットである。したがって、CNNは、データセットのラベル付けされたサブセットで訓練され、別のサブセットでテストされて正確な分類結果を検証し得る。
【0006】
深層CNNアーキテクチャは、層が階層的に接続された多層型である。各層の入力から出力へのマッピングおよびフィルタの数が増えると、多層深層CNNは、その動作のために構成する必要のある膨大な数のパラメータをもたらす可能性がある。そのようなCNNの訓練データが不足している場合、学習する問題は、未決定である。この状況では、事前学習したCNNモデルから特定のパラメータを転送することが有利である。転送学習は、層のサブセットで事前学習したパラメータを凍結することによって最適化されるパラメータの数を減らし、残りの層を調整するための適切な初期化を提供する。医療画像の問題のドメインでは、転送学習を使用して分類および識別の様々な問題のためにCNNを事前構成することは、データが不足している状況、複数の撮像モダリティおよび解剖学的構造による異種データタイプの課題、ならびに他の臨床課題の改善に有利である。
【発明の概要】
【0007】
本明細書の一態様によれば、畳み込みニューラルネットワーク(CNN)へのインタラクティブ表現学習転送のための方法が提示される。方法は、第1の撮像モダリティから第1の入力画像データセットを、および第2の撮像モダリティから第2の入力画像データセットを少なくとも得ることを含む。さらに、方法は、第1の入力画像データセットに関連付けられたラベルに基づいて第1の教師あり学習CNNを、および第2の入力画像データセットに関連付けられたラベルに基づいて第2の教師あり学習CNNを共同で訓練して1つまたは複数の特徴プリミティブおよび対応するマッピング関数を生成すること、ならびに第1の教師なし学習CNNを第1の入力画像データセットで、および第2の教師なし学習CNNを第2の入力画像データセットで共同で訓練して入力画像データセットの圧縮表現を学習することの少なくとも1つを実行することであって、圧縮表現は、1つまたは複数の共通の特徴プリミティブおよび対応するマッピング関数を含むことを含む。加えて、方法は、少なくとも1つまたは複数の共通の特徴プリミティブおよび対応するマッピング関数を特徴プリミティブリポジトリに格納することを含む。
【0008】
本明細書の別の態様によれば、畳み込みニューラルネットワーク(CNN)へのインタラクティブ表現学習転送のためのインタラクティブ表現学習転送(IRLT)ユニットが提示される。IRLTユニットは、第1の撮像モダリティから第1の入力画像データセットを、および第2の撮像モダリティから第2の入力画像データセットを少なくとも得て、第1の入力画像データセットに関連付けられたラベルに基づいて第1の教師あり学習CNNを、および第2の入力画像データセットに関連付けられたラベルに基づいて第2の教師あり学習CNNを共同で訓練して1つまたは複数の特徴プリミティブおよび対応するマッピング関数を生成すること、ならびに第1の教師なし学習CNNを第1の入力画像データセットで、および第2の教師なし学習CNNを第2の入力画像データセットで共同で訓練して入力画像データセットの圧縮表現を学習することの少なくとも1つを実行し、圧縮表現は、1つまたは複数の共通の特徴プリミティブおよび対応するマッピング関数を含むように構成されたインタラクティブ学習ネットワークコンフィギュレータを含む。さらに、IRLTユニットは、少なくとも1つまたは複数の共通の特徴プリミティブおよび対応するマッピング関数を格納するように構成された特徴プリミティブリポジトリを含む。
【0009】
本明細書のさらに別の態様によれば、マルチモダリティ転送学習システムが提示される。マルチモダリティ転送学習システムは、プロセッサユニットと、プロセッサユニットに通信可能かつ動作可能に結合されたメモリユニットとを含む。さらに、マルチモダリティ転送学習システムは、プロセッサユニットに動作可能に結合され、第1の撮像モダリティから第1の入力画像データセットを、および第2の撮像モダリティから第2の入力画像データセットを少なくとも得て、第1の入力画像データセットに関連付けられたラベルに基づいて第1の教師あり学習CNNを、および第2の入力画像データセットに関連付けられたラベルに基づいて第2の教師あり学習CNNを共同で訓練して1つまたは複数の特徴プリミティブおよび対応するマッピング関数を生成すること、ならびに第1の教師なし学習CNNを第1の入力画像データセットで、および第2の教師なし学習CNNを第2の入力画像データセットで共同で訓練して入力画像データセットの圧縮表現を学習することの少なくとも1つを実行し、圧縮表現は、1つまたは複数の共通の特徴プリミティブおよび対応するマッピング関数を含むように構成されたインタラクティブ学習ネットワークコンフィギュレータを含むインタラクティブ表現学習転送(IRLT)ユニットを含む。加えて、IRLTユニットは、少なくとも1つまたは複数の共通の特徴プリミティブおよび対応するマッピング関数を格納するように構成された特徴プリミティブリポジトリを含む。
【0010】
本明細書の実施形態のこれらおよび他の特徴および態様は、以下の詳細な説明を添付の図面を参照して検討することでさらによく理解されると考えられ、添付の図面において、類似の符号は、図面の全体を通して類似の部分を表している。
【図面の簡単な説明】
【0011】
【
図1】本明細書の態様による、特徴オントロジーの深層学習によるインタラクティブ表現学習転送のための例示的なシステムの概略図である。
【
図2】本明細書の態様による、ラベル付けされていない画像データから特徴プリミティブのセットを構築して特徴プリミティブリポジトリを増強するための方法を示すフローチャートである。
【
図3】本明細書の態様による、ラベル付けされた画像データから特徴プリミティブのセットを構築して特徴プリミティブリポジトリを増強するための方法を示すフローチャートである。
【
図4】本明細書の態様による、CNNをマッピング関数で事前構成して特徴プリミティブの選択に基づいて
未知のデータセットを学習するための方法を示すフローチャートである。
【
図5】本明細書の態様による、インタラクティブ学習ネットワークコンフィギュレータの一実施形態の概略図である。
【発明を実施するための形態】
【0012】
以下で詳細に説明するように、特徴オントロジーの深層学習によるインタラクティブ表現学習転送(学習転移)のための例示的なシステムおよび方法の様々な実施形態が提示される。これらの実施形態の簡潔な説明を提供しようと努力しても、実際の実施態様のすべての特徴を本明細書に記載することができるというわけではない。エンジニアリングまたは設計プロジェクトなどの実際の実施態様の開発においては、開発者の特定の目的を達成するために、例えばシステム関連および事業関連の制約条件への対応など実施態様に特有の決定を数多くしなければならないことを理解されたい。
【0013】
本明細書の様々な実施形態の要素を説明するとき、「1つの(a、an)」、「この(the)」、および「前記(said)」という冠詞は、それらの要素が1つまたは複数存在することを意味することを意図している。「備える(comprising)」、「含む(including)」および「有する(having)」という用語は、包括的であることを意図し、列挙された要素以外にもさらなる要素が存在してもよいことを意味する。さらに、「構築する」および「構成する」という用語ならびにそれらの変形は、数学的決定または数学的構成の計算を意味することを意図している。「任意のドメイン上に描かれたデータ」または「任意のドメイン上のデータ」という用語は、ドメイン、例えば、ソーシャルメディアデータ、センサデータ、企業データなどに対応するデータを意味することを意図している。
【0014】
本明細書で使用される「転送学習」または「帰納的転送」という用語は、ある問題から異なる関連する問題を解決しながら得られた知識または学習を適用することに焦点を当てた機械学習のアプローチを意味することを意図している。この知識または学習は、典型的には伝達関数、マッピング関数、グラフ、行列、および他のプリミティブの組み合わせおよび変形によって、様々な方法で特徴付けおよび/または表現することができる。また、本明細書で使用される「転送学習プリミティブ」という用語は、上述の機械学習問題を解決することによって得られる知識または学習の特徴付けおよび/または表現を意味することを意図している。
【0015】
さらに、本明細書で使用される「特徴プリミティブ」という用語は、入力データセットの態様の特徴付け、典型的には、解剖学的構造の画像に対応する関心領域(ROI)の外観、形状ジオメトリ、または形態を意味することを意図しており、画像は、超音波撮像システム、コンピュータ断層撮影(CT)撮像システム、陽電子放射断層撮影-CT(PET-CT)撮像システム、磁気共鳴(MR)撮像システムなどの撮像モダリティから得ることができる。また、解剖学的構造は、限定はしないが、肺、肝臓、腎臓、胃、心臓、脳などの人体の内部器官を含んでもよい。
【0016】
本明細書の態様による、特徴オントロジーの深層学習によるインタラクティブ表現学習転送のための例示的なシステム100が
図1に示されている。現在考えられている
図1の構成では、システム100は、マルチモダリティ転送学習(MTL)サブシステム102を含む。MTLサブシステム102は、インタラクティブ表現学習転送(IRLT)ユニット104と、プロセッサユニット108と、メモリユニット110と、ユーザインターフェース106とを含む。プロセッサユニット108は、メモリユニット110に通信可能に結合される。ユーザインターフェース106は、IRLTユニット104に動作可能に結合される。また、IRLTユニット104は、プロセッサユニット108およびメモリユニット110に動作可能に結合される。システム100および/またはMTLサブシステム102は、ディスプレイユニット134を含み得る。MTLサブシステム102は、他の構成要素またはハードウェアを含むことができ、
図1に示す構成要素に限定されないことに留意されたい。
【0017】
ユーザインターフェース106は、入力画像128の特性に対応するユーザ入力130を受信するように構成される。ユーザ入力130は、限定はしないが、撮像モダリティ、入力画像128によって一般に表される解剖学的構造、入力画像128に対応するROIの外観などの入力画像128の態様または特性を含み得る。
【0018】
特定の実施形態では、IRLTユニット104は、1つまたは複数のプロセッサユニット108を介して実行可能であり、メモリユニット110に格納されるソフトウェアシステムまたはコンピュータ命令として実装されてもよい。他の実施形態では、IRLTユニット104は、例えば、FPGA、カスタムチップ、集積回路(IC)、特定用途向けIC(ASIC)などを介してハードウェアシステムとして実装されてもよい。
【0019】
図1に示されるように、IRLTユニット104は、インタラクティブ学習ネットワークコンフィギュレータ(ILNC)112と、教師なし学習用に構成された1つまたは複数のCNN(教師なし学習CNN)114と、教師あり学習用に構成された1つまたは複数のCNN(教師あり学習CNN)116と、特徴プリミティブリポジトリ118とを含み得る。ILNC112は、教師なし学習CNN114、教師あり学習CNN116、および特徴プリミティブリポジトリ118に動作可能に結合される。一実施形態では、INLC112は、ユーザが1つまたは複数の教師あり学習CNN116または教師なし学習CNN114を構成することを可能にするように構成されたグラフィカルユーザインターフェースサブシステムであり得る。
【0020】
特徴プリミティブリポジトリ118は、入力画像128のROIに対応する1つまたは複数の特徴プリミティブおよび1つまたは複数の対応するマッピング関数を格納するように構成される。本明細書で使用される「マッピング関数」という用語は、CNNの出力がROIの態様に基づいて入力画像128のROIを特徴付ける特徴プリミティブになるようにROIを圧縮表現にマップする伝達関数またはCNNフィルタを表すことを意図している。一例では、ROIの態様は、形状ジオメトリ、外観、形態などを含み得る。したがって、特徴プリミティブリポジトリ118は、1つまたは複数のマッピング関数を格納するように構成される。これらのマッピング関数は、対応する特徴プリミティブと併せて、CNNを事前構成して新しい訓練セットを学習するために使用することができる。したがって、特徴プリミティブリポジトリ118は、他のCNNから得られた転送学習である特徴プリミティブおよびマッピング関数を格納し、新しいCNNを事前構成して
未知のデータセットを学習するように構成される。
図1に示すように、特徴プリミティブリポジトリ118が格納するように構成される特徴プリミティブのいくつかの非限定的な例は、画像128のROIに対応する外観120、画像128のROIに対応する形状ジオメトリ124、および画像128に対応する解剖学的構造126を特徴付ける特徴プリミティブを含む。
【0021】
現在考えられている
図1の構成では、ILNC112は、入力画像128に対応するROIの1つまたは複数の態様をインタラクティブに特徴付けるための様々なツールおよびオプションをユーザに提示するように構成される。ILNC112の例示的な実施形態が
図5に示されており、ILNC112の作業は、
図4および
図5を参照してより詳細に説明される。
【0022】
システム100は、特徴プリミティブおよびマッピング関数のポートフォリオを特徴プリミティブリポジトリ118に格納される1つまたは複数の解剖学的構造および撮像モダリティにわたって開発するように構成される。その後、システム100は、ILNC112をユーザに提供し、ユーザが
未知の画像データセットの1つまたは複数のROIに対応するモダリティ、解剖学的構造、形状ジオメトリ、形態などの選択に基づいて新しい
未知の画像データセットを学習するためにCNNを事前構成することを可能にする。例として、CNNの1つの学習成果は、画像データセットを分類する分類スキームであり得る。学習成果の他の非限定的な例は、ピクセルレベルのセグメンテーション、回帰などを含んでもよい。システム100の作業は、
図2~
図5を参照してより詳細に説明される。
【0023】
加えて、システム100および/またはMTLサブシステム102は、特徴プリミティブ、マッピング関数、画像データセットなどの1つまたは複数をディスプレイユニット134上で視覚化するように構成され得る。
【0024】
次に
図2を参照すると、本明細書の態様による、ラベル付けされていない画像データから特徴プリミティブのセットを構築して特徴プリミティブリポジトリを増強するための方法を概して表すフローチャート200が提示される。方法200は、
図1の構成要素を参照して説明される。
【0025】
フローチャート200は、ラベル付けされていない画像データから特徴プリミティブのセットを構築し、特徴プリミティブリポジトリ118などの特徴プリミティブリポジトリを増強するための方法の主要なステップを示すことに留意されたい。いくつかの実施形態では、
図2の方法200の様々なステップ、より具体的には、ステップ202~208は、メモリユニット110およびIRLTユニット104のILNC112と併せてプロセッサユニット108によって実行され得る。さらに、ステップ210は、メモリユニット110および1つまたは複数の教師あり学習CNN116と併せてプロセッサユニット108によって実行されてもよい。また、ステップ214~216は、メモリユニット110および1つまたは複数の教師なし学習CNN114と併せてプロセッサユニット108によって実行され得る。
【0026】
方法200は、ステップ202で開始し、第1の撮像モダリティおよび第2の撮像モダリティに対応する少なくとも第1の入力画像データセット220および第2の入力画像データセット222が得られる。一実施形態では、第1および第2の入力画像データセット220、222は、肝臓、肺、腎臓、心臓、脳、胃などの人体の解剖学的構造に対応し得る。また、第1および第2の撮像モダリティは、超音波撮像システム、MR撮像システム、CT撮像システム、PET-CT撮像システム、またはそれらの組み合わせを含み得る。
【0027】
ステップ204において、入力画像データセット220、222がラベル付けされているかどうかを決定するためにチェックが実施される。前述のように、入力画像データセットを参照するラベルは、形状ジオメトリ、外観、形態など、入力画像の態様を特徴付ける分類スキームまたはスコアを概して表すものとすることができる。ステップ204において、入力画像データセットがラベル付けされていると決定される場合、制御はステップ210に移り、第1のCNNおよび第2のCNNは、入力画像データセット220、222の教師あり学習用に構成される。ステップ210は、
図3を参照してより詳細に説明される。ステップ210に続いて、方法200は、ステップ212によって示されるように終了する。
【0028】
再びステップ204を参照すると、入力画像データセットがラベル付けされていないと決定される場合、制御はステップ206に移り、第2のチェックが実施され、第1の入力画像データセット220および第2の入力画像データセット222が1つまたは複数のCNNを適切に訓練するのに十分なデータを含むかどうかを決定する。ステップ206において、第1および第2の入力画像データセット220、222が十分なデータを含むと決定される場合、制御はステップ214に移る。しかし、ステップ206において、第1および第2の入力画像データセット220、222が十分なデータを有さないと決定されると、制御はステップ208に移る。
【0029】
一例では、ステップ208において、第1の入力画像データセット220が十分なデータを含み、第2の入力画像データセット222が十分なデータを含まないと決定され得る。したがって、この例では、ステップ208において、第2の撮像モダリティに対応する第2の入力画像データセット222は、追加のデータで増強される。第2の入力画像データセット222を増強するための追加のデータは、強度マッピング関数を介して第1の撮像モダリティに対応する第1の入力画像データセット220を処理することによって得ることができる。強度マッピング関数の1つの非限定的な例は、1つまたは複数の対象、例えば、CTおよびMRに対応する第1の撮像モダリティおよび第2の撮像モダリティの使用を介してマルチモダリティで取得を行い、深層学習、手作業により生成された強度の特徴、またはそれらの組み合わせを使用して、第1のモダリティから第2のモダリティへのパッチレベルマッピングを学習し、第1のモダリティの強度を第2のモダリティにマップする回帰フレームワークを含むことができる。その後、制御はステップ214に移る。
【0030】
ステップ214において、第1の教師なし学習CNNおよび第2の教師なし学習CNNは、第1の入力画像データセット220および第2の入力画像データセット222で共同で訓練されて入力画像データセット220、222の圧縮表現を学習し、圧縮表現は、1つまたは複数の共通の特徴プリミティブおよび対応するマッピング関数を含む。
【0031】
1つまたは複数の特徴プリミティブは、第1の入力画像データセット220の画像の態様を特徴付ける。マッピング関数は、入力画像データセットを対応する特徴プリミティブにマップすることに留意されたい。一実施形態では、マッピング関数は、式(1)に従って定義することができる。
【0032】
【数1】
式(1)において、h
CTは、画像P
CTの関心領域がマッピング関数fおよび重み
【0033】
【数2】
を使用してマップされるときに得られる特徴プリミティブのセットである。この例では、画像P
CTは、CT撮像システムの使用を介して得られた画像に対応する。
【0034】
ステップ214の結果として、第1の撮像モダリティおよび第2の撮像モダリティに対応する1つまたは複数のマッピング関数が生成されることに留意されたい。これらのマッピング関数は、第1および第2の入力画像データセット220、222を同じ特徴プリミティブにマップすることに留意されたい。一実施形態では、第2のマッピング関数は、式(2)に従って定義することができる。
【0035】
【数3】
式(2)において、h
MRは、画像P
MRの関心領域がマッピング関数fおよび重み
【0036】
【数4】
を使用してマップされるときに得られる特徴プリミティブのセットである。この例では、画像P
MRは、MR撮像システムを使用して得られる。
【0037】
さらに、ステップ218において、少なくとも1つまたは複数の特徴プリミティブおよび対応するマッピング関数は、特徴プリミティブリポジトリ118に格納される。次に、制御はステップ212に移り、方法200を終了する。
【0038】
次に
図3を参照すると、本明細書の態様による、ラベル付けされた画像データから特徴プリミティブのセットを構築して特徴プリミティブリポジトリを増強するための方法を概して表すフローチャート300が提示される。より具体的には、方法300は、より詳細に
図2のステップ210を説明する。また、方法300は、
図1の構成要素を参照して説明される。
【0039】
フローチャート300は、ラベル付けされた画像データから特徴プリミティブのセットを構築し、特徴プリミティブリポジトリを増強するための方法の主要なステップを示すことに留意されたい。いくつかの実施形態では、
図3の方法300の様々なステップ、より具体的には、ステップ302~308は、メモリユニット110およびIRLTユニット104のILNC112と併せてプロセッサユニット108によって実行され得る。さらに、ステップ310~314は、メモリユニット110および1つまたは複数の教師あり学習CNN116と併せてプロセッサユニット108によって実行されてもよい。
【0040】
方法300は、ステップ302で開始し、少なくとも第1の撮像モダリティおよび第2の撮像モダリティに対応する少なくとも第1の入力画像データセット316および第2の入力画像データセット318が得られる。一実施形態では、第1および第2の入力画像データセット316、318は、人体の解剖学的構造、例えば、肝臓、肺、腎臓、心臓、脳、胃などに対応し得る。また、第1および第2の撮像モダリティは、超音波撮像システム、MR撮像システム、CT撮像システム、PET-CT撮像システム、またはそれらの組み合わせを含み得る。1つまたは複数の教師ありCNNの学習成果は、第1および第2の入力画像データセット316、318における画像の分類であり得ることに留意されたい。
【0041】
ステップ304において、チェックが実施され、第1の入力画像データセット316および第2の入力画像データセット318が1つまたは複数のCNNを適切に訓練するのに十分なデータを含むかどうかを決定する。ステップ304において、第1および第2の入力画像データセット316、318が十分なデータを含むと決定される場合、制御はステップ308に移る。しかし、ステップ304において、第1および第2の入力画像データセット316、318が十分なデータを有さないと決定されると、制御はステップ306に移る。一例では、ステップ306において、第1の入力画像データセット316が十分なデータを含み、第2の入力画像データセット318が十分なデータを含まないと決定され得る。したがって、この例では、ステップ306において、第2のモダリティに対応する第2の入力画像データセット318は、追加のデータで増強される。追加のデータは、強度マッピング関数を介して第1の撮像モダリティに対応する第1の入力画像データセット316を処理することによって得られることに留意されたい。前述のように、強度マッピング関数の1つの非限定的な例は、1つまたは複数の対象、例えば、CTおよびMRに対応する第1の撮像モダリティおよび第2の撮像モダリティの使用を介してマルチモダリティ取得を行い、深層学習、手作りの強度特徴、またはそれらの組み合わせを使用して、第1のモダリティから第2のモダリティへのパッチレベルマッピングを学習し、第1のモダリティの強度を第2のモダリティにマップする回帰フレームワークを含むことができる。その後、制御はステップ308に移る。
【0042】
さらに、ステップ308において、第1の教師あり学習CNNおよび第2の教師あり学習CNNは、第1の入力画像データセット316に関連付けられたラベルおよび第2の入力画像データセット318に関連付けられたラベルに基づいて共同で訓練され、1つまたは複数の特徴プリミティブおよび対応するマッピング関数を生成する。
【0043】
一実施形態では、学習成果は、第1の入力画像データセット316の画像の態様および第2の入力画像データセット318の画像の態様ならびに対応するマッピング関数を特徴付ける1つまたは複数の特徴プリミティブを含むことができ、マッピング関数は、対応する第1の入力画像データセット316および第2の入力画像データセット318を1つまたは複数の特徴プリミティブにマップする。したがって、特徴プリミティブは、第1の入力画像データセット316および第2の入力画像データセット318を取得するために使用される撮像モダリティから独立している。次にステップ312を参照すると、1つまたは複数の特徴プリミティブおよび対応するマッピング関数は、特徴プリミティブリポジトリに格納される。
【0044】
上述の方法200および300は、複数のモダリティにわたる複数の解剖学的構造に対して生成された画像に対応する特徴プリミティブおよびマッピング関数のポートフォリオの作成を可能にする。特徴プリミティブおよびマッピング関数は、特徴プリミティブリポジトリ118に格納される。また、特徴プリミティブおよびマッピング関数のこのポートフォリオは、入力画像データセットを用いたCNNの訓練で得られた学習を特徴付ける。さらに、学習を転送して新しいCNNを事前構成し、異なる未知のデータセットの学習成果を得ることができる。
【0045】
前述を念頭に置いて、
図4は、本明細書の態様による、CNNをマッピング関数で事前構成して特徴プリミティブの選択に基づいて
未知のデータセットを学習するための方法を図示するフローチャート400を示す。方法400は、
図1、
図2および
図3を参照して説明される。フローチャート400は、CNNをマッピング関数で事前構成して特徴プリミティブの選択に基づいて
未知のデータセットを学習するための方法400の主要なステップを示すことに留意されたい。いくつかの実施形態では、
図4の方法400の様々なステップ、より具体的には、ステップ402~406は、メモリユニット110およびIRLTユニット104のILNC112と併せてプロセッサユニット108によって実行され得る。さらに、ステップ408~410は、メモリユニット110および
1つまたは複数の教師あり学習CNN116と併せてプロセッサユニット108によって実行されてもよい。
【0046】
方法400は、ステップ402で開始し、少なくとも1つの入力画像データセット404を得ることができる。少なくとも1つの入力画像データセット404は、未知の入力画像データセットを表す。加えて、入力画像データセット404に対応する少なくとも1つの学習パラメータ406および学習成果408を得ることができる。特定の実施形態では、入力画像データセット404、学習パラメータ406、および学習成果408は、ユーザ入力410として得られてもよい。一実施形態では、学習パラメータ406は、撮像モダリティ、画像解剖学的構造、またはそれらの組み合わせを含むことができる。また、学習成果408は、分類スキーム、回帰スキーム、またはセグメンテーションのようなピクセルレベルの出力を含み得る。
【0047】
ステップ412において、学習パラメータ406および学習成果408に対応する少なくとも1つの特徴プリミティブおよび対応するマッピング関数が特徴プリミティブリポジトリ118から得られる。その後、CNNは、ステップ414によって示されるように、少なくとも1つの特徴プリミティブおよび少なくとも1つのマッピング関数を使用して入力画像データセット404を学習するように構成される。特定の実施形態では、CNNの構成は、特徴プリミティブリポジトリ118から得られた1つまたは複数のフィルタをマッピング関数に設定することを伴う場合がある。ステップ414の処理の結果として、事前構成されたCNNが生成される。さらに、ステップ416において、事前構成されたCNNは、少なくとも入力画像データセット404の訓練サブセットで最適化される。
【0048】
一実施形態では、第1の撮像モダリティに対応するラベル付けされたデータを使用する教師あり学習用の訓練された畳み込みオートエンコーダ(CAE)は、式(3)に従って、いくつかのパラメータで入力画像データセット404に適合される。
【0049】
【数5】
式(3)において、wは、第1の撮像モダリティに対応する画像P
1の関心領域がマッピング関数fおよび重み
【0050】
【数6】
を使用してマップされるときに得られる特徴プリミティブのセットであり、αは、CAEパラメータの疎なセットである。このようにして、フィルタの数を減らすことができる。CAEパラメータαは、少なくとも入力画像データセット404の訓練サブセットでさらに最適化され得る。このようにして、第2の撮像モダリティに対応する教師あり学習の問題について、学習用のフレームワークは、以下の定式化に従って定義され得る。
【0051】
【数7】
定式化(4)では、式(3)で得られたマッピング関数fは、第2の撮像モダリティに対応する画像の関心領域に対応するマッピング関数
【0052】
【数8】
に適用される。その後、ステップ418において、入力画像データセット404は、最適化されたCNNを介して処理され、要求された学習成果408に対応する学習成果420を得る。
【0053】
方法400で実施されるワークフローは、
図5を参照してより詳細に説明される。
図5は、本明細書の態様による、
図1のインタラクティブ表現学習転送ユニット104のインタラクティブ学習ネットワークコンフィギュレータ112の一実施形態の概略
図500である。
図5に示されるように、ブロック
図500は、
図1に示すILNC112を概して表す。参照番号502~508は、それぞれ撮像モダリティ、解剖学的構造、外観、および形状ジオメトリに対応する特徴プリミティブの視覚化を概して表す。視覚化502~508のデータは、
図1の特徴プリミティブリポジトリ118から得ることができる。
【0054】
図5では、ILNC500は、インタラクティブなメニューの選択をユーザに提供する。特に、ILNC500を使用して、ユーザは、CNNによって学習される
未知の画像データセットの1つまたは複数の態様を選択することができる。参照番号510~516は、
未知の画像データセットの特徴付けを支援するためにユーザにとって利用可能であり得るインタラクティブなメニューオプションを概して表す。例として、参照番号510は、
未知の画像データセットの撮像モダリティに関係し得る。ブロック510のメニューオプションは、CT、MR、PET、超音波などを含み得る。同様に、参照番号512~516は、
未知の画像データセットのそれぞれ外観、形状ジオメトリ、および解剖学的構造に関係するメニューオプションを示し得る。
【0055】
インタラクティブなメニューからユーザによって行われた選択により、メニュー選択に対応する特徴プリミティブおよびマッピング関数によるCNNの事前構成が可能になる。参照番号518は、事前構成されたCNNの視覚化を概して表す。特定の実施形態では、参照番号518は、
図1のIRLTユニット104の1つまたは複数の教師あり学習CNN116に対応し得る。加えて、ユーザは、ブロック502~508の特徴プリミティブをグラフィカルに閲覧、視覚化、および組み合わせて、事前構成されたCNN518を作成することができる。
【0056】
上述の特徴オントロジーの深層学習によるインタラクティブ表現学習転送のためのシステムおよび方法は、学習した特徴プリミティブおよびマッピング関数のポートフォリオを組み合わせてCNNを構成し、新しい医療画像分析の問題を解決することができる転送学習パラダイムを提供する。有利には、CNNは、画像の外観および形態を学習するように訓練され得る。例として、腫瘍は、斑点、円柱、円形、明るい/暗いまたは縞模様などに分類され得る。全体として、ネットワークは、解剖学的構造、モダリティ、外観、および形態(形状ジオメトリ)の様々な組み合わせに対して訓練され、事前学習した特徴を今ある新しい問題に即座に転送するように構成された豊富なポートフォリオを生成することができる。
【0057】
任意の実施形態に従って、上述したすべてのそのような物体または利点が必ずしも達成することができるわけではないことを理解されたい。したがって、例えば、当業者には明らかなように、本明細書に記載のシステムおよび手法は、本明細書で教示または示唆されるように他の目的または利点を必ずしも達成することなく、本明細書で教示される1つの利点または1群の利点を達成または改善する態様で具現化または実施されてもよい。
【0058】
本技術は限られた数の実施形態のみに関連して詳細に説明されているが、本明細書がそのような開示された実施形態に限定されないことは容易に理解されるべきである。むしろ、本技術は、これまでに説明されていないが特許請求の範囲の精神および範囲に相応する、任意の数の変形、代替、置換または同等の構成を組み込むように修正することができる。加えて、本技術の様々な実施形態が説明されているが、本明細書の態様は、説明した実施形態のいくつかのみを含んでもよいことを理解されたい。したがって、本明細書は、前述の説明によって限定されるべきではなく、添付の特許請求の範囲によってのみ限定される。
【符号の説明】
【0059】
100 システム
102 マルチモダリティ転送学習(MTL)サブシステム
104 インタラクティブ表現学習転送(IRLT)ユニット
106 ユーザインターフェース
108 プロセッサユニット
110 メモリユニット
112 インタラクティブ学習ネットワークコンフィギュレータ(ILNC)
114 教師なし学習畳み込みニューラルネットワーク(CNN)
116 教師あり学習CNN
118 特徴プリミティブリポジトリ
120 外観
124 形状ジオメトリ
126 解剖学的構造
128 入力画像
130 ユーザ入力
134 ディスプレイユニット
200 フローチャート、方法
202 ステップ
204 ステップ
206 ステップ
208 ステップ
210 ステップ
212 ステップ
214 ステップ
216 ステップ
218 ステップ
220 第1の入力画像データセット
222 第2の入力画像データセット
300 フローチャート、方法
302 ステップ
304 ステップ
306 ステップ
308 ステップ
310 ステップ
312 ステップ
314 ステップ
316 第1の入力画像データセット
318 第2の入力画像データセット
400 フローチャート、方法
402 ステップ
404 入力画像データセット
406 学習パラメータ
408 学習成果
410 ユーザ入力
412 ステップ
414 ステップ
416 ステップ
418 ステップ
420 学習成果
500 概略図、ブロック図、ILNC
502 視覚化、ブロック
504 視覚化、ブロック
506 視覚化、ブロック
508 視覚化、ブロック
510 ブロック
512 ブロック
514 ブロック
516 ブロック
518 事前構成されたCNN