(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B1)
(11)【特許番号】
(24)【登録日】2022-07-19
(45)【発行日】2022-07-27
(54)【発明の名称】血管内光断層画像での生分解性ステントを含むディープラーニング基盤の画像分割方法
(51)【国際特許分類】
A61B 1/313 20060101AFI20220720BHJP
A61B 1/045 20060101ALI20220720BHJP
【FI】
A61B1/313 510
A61B1/045 618
(21)【出願番号】P 2022040272
(22)【出願日】2022-03-15
【審査請求日】2022-03-18
(31)【優先権主張番号】10-2021-0033568
(32)【優先日】2021-03-15
(33)【優先権主張国・地域又は機関】KR
(31)【優先権主張番号】10-2021-0058636
(32)【優先日】2021-05-06
(33)【優先権主張国・地域又は機関】KR
【早期審査対象出願】
(73)【特許権者】
【識別番号】521553818
【氏名又は名称】ドッター インコーポレイテッド
(73)【特許権者】
【識別番号】518174905
【氏名又は名称】韓國科學技術院
【氏名又は名称原語表記】KOREA ADVANCED INSTITUTE OF SCIENCE AND TECHNOLOGY
【住所又は居所原語表記】291, Daehak-ro Yuseong-gu Daejeon 34141 Republic of Korea
(74)【代理人】
【識別番号】110001737
【氏名又は名称】特許業務法人スズエ国際特許事務所
(72)【発明者】
【氏名】ナム、ヒョン・スー
(72)【発明者】
【氏名】ドルゴフ・アレクサンドル
(72)【発明者】
【氏名】リー、サンウォン
(72)【発明者】
【氏名】チョイ、ソキ
(72)【発明者】
【氏名】ユー、ホンキ
(72)【発明者】
【氏名】キム、フンギル
【審査官】田辺 正樹
(56)【参考文献】
【文献】中国特許出願公開第106875445(CN,A)
【文献】米国特許出願公開第2020/0226422(US,A1)
【文献】特表2018-519018(JP,A)
【文献】特開2015-150369(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
A61B1/00-1/32
G06T7/00
(57)【特許請求の範囲】
【請求項1】
少なくとも一つの既に設定されたオブジェクトを分割するように、学習用画像で学習された分割モデル(segmentation model)を格納する格納部;および
前記分割モデルに入力データを入力し、前記入力データにおいて少なくとも一つの既に設定されたオブジェクトを分割する少なくとも一つのプロセッサ;
を含み、
前記分割モデルは、
前記入力データの次元を減少させる少なくとも一つの次元減少ブロックを含むエンコーダ;
前記少なくとも一つの次元減少ブロックから出力されるデータを用いて、前記エンコーダから出力される出力データの次元を増加させる少なくとも一つの次元増加ブロックを含むデコーダ;および
前記出力データの入力を受け、前記出力データに特定のオブジェクトが含まれているか否かを認識する補助分類モデル;
を含み、
前記少なくとも一つの既に設定されたオブジェクトは、
生分解性ステント(stent)のストラット(strut)および組織(tissue)のうち少なくとも一つを含み、
前記入力データは、
血管内光断層画像(Optical Coherence Tomography、OCT)の画像であり、
前記学習用画像は、
第1厚さを有するストラットで構成された第1生分解性ステントを含む複数の第1学習用画像;および
前記第1厚さとは異なる第2厚さを有するストラットで構成された第2生分解性ストラットを含む複数の第2学習用画像;
を含む、画像分割装置。
【請求項2】
前記プロセッサは、
前記分割モデルを学習させる際に、前記補助分類モデルを介して前記学習用画像に前記特定のオブジェクトが含まれているか否かが認識できるように、前記エンコーダおよび前記補助分類モデルに含まれた重み値を最適化することと連動して、前記デコーダの最終特徴値マップに前記学習用画像に含まれた前記少なくとも一つの既に設定されたオブジェクトそれぞれが表現されるように、前記分割モデルに含まれた重み値を最適化する、請求項1に記載の画像分割装置。
【請求項3】
前記学習用画像は、
前記少なくとも一つの既に設定されたオブジェクトそれぞれがラベリングされた画像をランダムクロップしたパッチを少なくとも一つ以上含む、請求項2に記載の画像分割装置。
【請求項4】
前記デコーダの最終出力端は、
前記少なくとも一つの既に設定されたオブジェクトそれぞれと関連した領域分割のための境界が改善されるように、最終分類演算に入力される最終特徴マップを調整する境界改善モジュール;
をさらに含む、請求項1に記載の画像分割装置。
【請求項5】
前記最終分類演算は、
少なくとも一つの畳み込み層およびソフトマックス活性化関数による演算を含む、請求項4に記載の画像分割装置。
【請求項6】
前記境界改善モジュールは、
残差ブロック(residual block)構造を有する、請求項4に記載の画像分割装置。
【請求項7】
前記少なくとも一つの次元減少ブロックおよび前記少なくとも一つの次元増加ブロックは、
互いに異なる拡張比率(dilation rate)を有する複数の畳み込み層が並列的に配置され、残差接続(residual connection)が含まれたマルチスケール拡張残差ブロック(multi-scale dilated residual block)を含む、請求項1に記載の画像分割装置。
【請求項8】
前記少なくとも一つの次元減少ブロックのうち最終層に配置される次元減少ブロックは、
過剰適合を防止するためのドロップアウト層(dropout layer)を含む、請求項1に記載の画像分割装置。
【請求項9】
前記プロセッサは、
前記分割モデルに前記入力データを入力して出力された最終データおよび前記入力データを用いて3次元レンダリングを行う、請求項1に記載の画像分割装置。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、血管内光断層画像にディープラーニングを用いた画像分割法であるセマンティックセグメンテーション(semantic segmentation)技法を適用するものであって、具体的に、生分解性ステントが挿入された血管画像において自動で組織領域およびステントのストラットを分割する方法に関する。
【背景技術】
【0002】
閉塞性動脈硬化症患者を治療するために、血管内イメージング技術を用いて閉塞部位を確認し、ステント挿入術を施すことができる。既に広く用いられている金属材質のステントは、生体異物として施術後にも残り、また、血栓症のリスクが高いという短所がある。そこで、施術後、時間の経過につれて徐々に溶ける生分解性ステント(Bioresorbable stent)が代案として提示されており、血管機能の自然な回復を図ることができた。血管内光断層画像(IV-OCT)の優れた分解能は、血管内壁の微細構造とステントの画像化を可能にすることができる。従来は、施術後、ステント術に対する定量評価のために、IV-OCT画像から血管組織およびステントを手作業で抽出し、ステントの付着程度および施術後の新生内膜の増殖程度を定量的に把握してきた。しかし、これは、多くの時間がかかり、労働強度が非常に高い作業である。これを解決するために高速で血管組織およびステントを正確に自動抽出する方法が開発される必要があり、これに基づいて自動的・定量的にステント術後の評価が行われるべきである。
【発明の概要】
【発明が解決しようとする課題】
【0003】
本開示は、前述した背景技術に対応してなされたものであって、Aurios製品の生分解性ステントセグメンテーションソフトウェア(BIODEGRADABLE STENT(BRS) SEGMENTATION SOFTWARE)を提供する。
本開示の技術的課題は、以上で言及した技術的課題に制限されず、言及していないまた他の技術的課題は、下記の記載から当業者に明らかに理解できるものである。
【課題を解決するための手段】
【0004】
前述したような課題を解決するための本開示の一実施形態による画像分割装置が開示される。前記画像分割装置は、少なくとも一つの既に設定されたオブジェクトを分割するように学習された分割モデル(segmentation model)を格納する格納部;および前記分割モデルに入力データを入力し、前記入力データにおいて少なくとも一つの既に設定されたオブジェクトを分割する少なくとも一つのプロセッサ;を含み、前記分割モデルは、前記入力データの次元を減少させる少なくとも一つの次元減少ブロックを含むエンコーダ;前記少なくとも一つの次元減少ブロックから出力されるデータを用いて、前記エンコーダから出力される出力データの次元を増加させる少なくとも一つの次元増加ブロックを含むデコーダ;および前記出力データの入力を受け、前記出力データに特定のオブジェクトが含まれているか否かを認識する補助分類モデル;を含み、前記少なくとも一つの既に設定されたオブジェクトは、生分解性ステント(stent)のストラット(strut)および組織(tissue)のうち少なくとも一つを含み、前記入力データは、血管内光断層画像(Optical Coherence Tomography、OCT)の画像であってもよい。
【0005】
また、前記プロセッサは、前記分割モデルを学習させる際に、前記補助分類モデルを介して学習用画像に前記特定のオブジェクトが含まれているか否かが認識できるように、前記エンコーダおよび前記補助分類モデルに含まれた重み値を最適化することと連動して、前記デコーダの最終特徴値マップに前記学習用画像に含まれた前記少なくとも一つの既に設定されたオブジェクトそれぞれが表現されるように、前記分割モデルに含まれた重み値を最適化することができる。
【0006】
なお、前記学習用画像は、前記少なくとも一つの既に設定されたオブジェクトそれぞれがラベリングされた画像をランダムクロップしたパッチを少なくとも一つ以上含むことができる。
【0007】
また、前記学習用画像は、第1厚さを有するストラットで構成された第1生分解性ステントを含む複数の第1学習用画像;および前記第1厚さとは異なる第2厚さを有するストラットで構成された第2生分解性ストラットを含む複数の第2学習用画像;を含むことができる。
【0008】
なお、前記デコーダの最終出力端は、前記少なくとも一つの既に設定されたオブジェクトそれぞれと関連した領域分割のための境界が改善されるように、最終分類演算に入力される最終特徴マップを調整する境界改善モジュール;をさらに含むことができる。
【0009】
また、前記最終分類演算は、少なくとも一つの畳み込み層およびソフトマックス活性化関数による演算を含むことができる。
【0010】
なお、前記境界改善モジュールは、残差ブロック(residual block)構造を有することができる。
【0011】
また、前記少なくとも一つの次元減少ブロックおよび前記少なくとも一つの次元増加ブロックは、互いに異なる拡張比率(dilation rate)を有する複数の畳み込み層が並列的に配置され、残差接続(residual connection)が含まれたマルチスケール拡張残差ブロック(multi-scale dilated residual block)を含むことができる。
【0012】
なお、前記少なくとも一つの次元減少ブロックのうち最終層に配置される次元減少ブロックは、過剰適合を防止するためのドロップアウト層(dropout layer)を含むことができる。
【0013】
また、前記プロセッサは、前記分割モデルに前記入力データを入力して出力された最終データおよび前記入力データを用いて3次元レンダリングを行うことができる。
【0014】
本開示から得ることができる技術的解決手段は、以上で言及した解決手段に制限されず、言及していないまた他の解決手段は、下記の記載から本開示が属する技術分野における通常の知識を有する者に明らかに理解できるものである。
【発明の効果】
【0015】
本発明で提示されるIV-OCT画像において血管組織および生分解性ステントのストラットを検出する方法は、生分解性ステント術後の予後観察に有用に使用することができる。また、本方法を用いて生分解性ステント挿入術の結果を3次元レンダリング(ステント位置、新生内膜の生成程度などを含む)するのに使用することができ、これに基づいて生分解性ステントの有効性/安全性を検証する臨床研究に活用できるものと見られており、また、これに基づいて最適の生分解性ステントデザインを導き出すのに活用することができる。
【0016】
本開示から得ることができる効果は、以上で言及した効果に制限されず、言及していないまた他の効果は、下記の記載から本開示が属する技術分野における通常の知識を有する者に明らかに理解できるものである。
【図面の簡単な説明】
【0017】
多様な態様が図面を参照して記載されており、ここで、類似の参照番号は、総括的に類似の構成要素を指すのに用いられる。以下の実施形態において、説明の目的のため、多数の特定の細部事項が一つ以上の態様の総体的な理解を提供するために提示される。しかし、そのような態様がこのような特定の細部事項なしに実施できることは明らかである。他の例示において、公知の構造および装置が一つ以上の態様の記載を容易にするためにブロック図の形態で示される。
【0018】
【
図1】本開示の幾つかの実施形態による画像分割装置の一例を説明するためのブロック構成図である。
【
図2】本開示の幾つかの実施形態による分割モデルの一例を説明するための図である。
【
図3】本開示の幾つかの実施形態によるマルチスケール拡張残差ブロックの一例を説明するための図である。
【
図4】本開示の幾つかの実施形態による学習用画像の一例を説明するための図である。
【
図5】本開示の幾つかの実施形態による学習された分割モデルの性能評価について説明するための図である。
【
図6】本開示の幾つかの実施形態による画像分割装置が行った3次元レンダリング結果の一例を説明するための図である。
【
図7】本開示の幾つかの実施形態による画像分割装置が行った3次元レンダリング結果の他の一例を説明するための図である。
【
図8】本開示内容の実施形態が実現可能な例示的なコンピューティング環境に対する一般的な概略図である。
【発明を実施するための形態】
【0019】
多様な実施形態および/または態様が図面を参照して開示される。下記の説明においては、説明の目的のため、一つ以上の態様の全般的な理解を助けるために多数の具体的な細部事項が開示される。しかし、このような態様は、このような具体的な細部事項がなくても実行可能であるということも、本開示の技術分野における通常の知識を有する者に検知できるものである。以後の記載および添付された図面は、一つ以上の態様の特定の例示的な態様を詳しく記述する。しかし、このような態様は、例示的なものであって、多様な態様の原理における多様な方法のうち一部が用いられてもよく、記述される説明は、そのような態様およびその均等物のいずれも含もうとする意図である。具体的に、本明細書で用いられる「実施形態」、「例」、「態様」、「例示」などは、記述される任意の態様または設計が他の態様または設計よりも良好であるか、または利点があるものと解釈されなくてもよい。
【0020】
以下、図面符号に関係なく同一または類似の構成要素には同一の参照番号を付し、これに対する重複する説明は省略する。また、本明細書に開示された実施形態を説明するにおいて、関連の公知技術に関する具体的な説明が本明細書に開示された実施形態の要旨を不要に濁す恐れがあると判断される場合には、その詳細な説明を省略する。また、添付された図面は、本明細書に開示された実施形態を容易に理解できるようにするためのものにすぎず、添付された図面により本明細書に開示された技術的思想が制限されるものではない。
【0021】
第1、第2などが多様な素子や構成要素を述べるために用いられるが、これらの素子や構成要素は、これらの用語により制限されないことはいうまでもない。これらの用語は、単に一つの素子や構成要素を他の素子や構成要素と区別するために用いるものである。したがって、以下に言及される第1素子や構成要素は、本発明の技術的思想の範囲内で第2素子や構成要素であってもよいことはいうまでもない。
【0022】
他の定義がない限り、本明細書で用いられる全ての用語(技術および科学的用語を含む)は、本発明が属する技術分野における通常の知識を有する者に共通に理解できる意味として用いられてもよい。また一般的に用いられる辞書に定義されている用語は、明らかに特に定義されていない限り、理想的にまたは過度に解釈されない。
【0023】
さらに、用語「または」は、排他的「または」ではなく、内包的「または」を意味するものと意図される。すなわち、別に特定されていないかまたは文脈上明らかでない場合に、「Xは、AまたはBを用いる」は、自然的な内包的置換のうち一つを意味するものと意図される。すなわち、XがAを用いるか;XがBを用いるか;またはXがAおよびBの両方を用いる場合、「XはAまたはBを用いる」がこれらの場合のいずれでも適用されてもよい。また、本明細書で用いられた「および/または」という用語は、列挙された関連アイテムのうち一つ以上のアイテムの可能な全ての組み合わせを指し且つ含むものと理解しなければならない。
【0024】
また、「備える」および/または「含む」という用語は、当該特徴および/または構成要素が存在することを意味するが、一つ以上の他の特徴、構成要素および/またはこれらのグループの存在または追加を排除するものではないことを理解しなければならない。また、別に特定されていないかまたは単数の形態を指示するものとして文脈上明らかでない場合に、本明細書および請求範囲における単数は、一般的に「一つまたはそれ以上」を意味するものと解釈しなければならない。
【0025】
さらに、本明細書で用いられる用語「情報」および「データ」は、互いに交換可能に用いられることが多い。
【0026】
ある構成要素が他の構成要素に「連結されて」いるか「接続されて」いると言及された際には、当該他の構成要素に直接的に連結されているかまたは接続されていてもよいが、その間にまた他の構成要素が存在してもよいものと理解しなければならない。これに対し、ある構成要素が他の構成要素に「直接連結されて」いるか「直接接続されて」いると言及された際には、その間にまた他の構成要素が存在しないものと理解しなければならない。
【0027】
以下の説明で用いられる構成要素に対する接尾辞「モジュール」および「部」は、明細書の作成の容易性だけを考慮して付与または混用されるものであって、それ自体で互いに区別される意味または役割を有するものではない。
【0028】
本開示の目的および効果、そしてそれらを達成するための技術的構成は、添付される図面とともに詳しく後述している実施形態を参照すれば明らかになるものである。本開示を説明するにおいて、公知の機能または構成に関する具体的な説明が本開示の要旨を不要に濁す恐れがあると判断される場合には、その詳細な説明を省略する。そして、後述する用語は本開示における機能を考慮して定義された用語であって、これはユーザ、運用者の意図または慣例などにより異なってもよい。
【0029】
しかしながら、本開示は、以下に開示される実施形態に限定されるものではなく、互いに異なる多様な形態で実現されてもよい。本実施形態は、単に本開示が完全になるようにし、本開示が属する技術分野における通常の知識を有する者に開示の範疇を完全に知らせるために提供されるものであり、本開示は、請求項の範疇により定義されるのみである。したがって、その定義は、本明細書の全般にわたった内容に基づいて下されなければならない。
【0030】
本開示において、画像分割装置は、学習された分割モデル(segmentation model)を用いて、入力データにおいて少なくとも一つの既に設定されたオブジェクトを分割することができる。一例として、画像分割装置は、学習された分割モデルを用いて、血管内光断層画像(Optical Coherence Tomography、OCT)において生分解性ステント(stent)のストラット(strut)を分割することができる。ここで、ストラットは、ステントの円周方向に沿って配置され、複数のセルを形成する部材であってもよい。
【0031】
具体的に、生分解性ステントは、血管、食道、胆管などの管状構造の身体の器官に挿入され、管状構造内部の内容物の流れを円滑にする医療機器であってもよい。そして、生分解性ステントは、施術後、時間の経過につれて、体内で徐々に溶ける材質からなることができる。この際、従来の金属ステントは、光源を反射する材質であるため、光断層撮影画像において目立って表示されることができた。しかし、生分解性ステントの場合、光源が透過する材質からなるため、ユーザが明らかに識別し難いことがある。
【0032】
より具体的に、血管内光断層画像技術で用いられる光源は、1240nm~1350nmの帯域幅を有することができる。このような光源下で、金属ステントは、影などが表現されて目立って表れることができる。これに対し、生分解性ステントの場合は、造影剤(血管内部)と血管壁の中間の陰影を帯び、レンガのような長方形の形状であることができる。そして、高さ(ストラット厚さ)は80~160micronを有し、長さ(ストラット幅)は100~300micron有することができる。また、生分解性ステントは、金属ステントとは異なり、影などが表現されないことがある。換言すれば、生分解性ステントのストラットは、光断層撮影画像においてユーザが明らかに識別し難いことがある。したがって、本開示における画像分割装置は、分割モデルを用いて、血管内光断層画像において生分解性ステントを分割することができる。以下、
図1~
図7を通じて本開示に係る画像分割装置について説明する。
【0033】
図1は、本開示の幾つかの実施形態による画像分割装置の一例を説明するためのブロック構成図である。
【0034】
図1を参照すれば、画像分割装置1000は、格納部100およびプロセッサ200を含むことができる。ただし、上述した構成要素は、画像分割装置1000を実現する際に必須のものではないため、画像分割装置1000は、上記で列挙された構成要素よりも多いか、または少ない構成要素を有してもよい。
【0035】
画像分割装置1000は、ユーザが所有しているPC(personal computer)、ノートブック(note book)、モバイル端末(mobile terminal)、スマートフォン(smart phone)、タブレットPC(tablet pc)などを含むことができ、有線/無線ネットワークに接続可能な全ての種類の端末を含むことができる。ただし、これに限定されず、画像分割装置1000は、マイクロプロセッサ、メインフレームコンピュータ、デジタルプロセッサ、携帯用デバイスまたはデバイスコントローラなどのような任意のタイプのサーバであってもよい。
【0036】
本開示において、画像分割装置1000は、学習された分割モデル(segmentation model)に入力データを入力し、入力データにおいて少なくとも一つの既に設定されたオブジェクトを分割することができる。ここで、分割モデルは、入力データの次元を減少させるエンコーダ、およびエンコーダから出力される出力データの次元を増加させるデコーダを含むモデルであってもよい。一例として、分割モデルは、エンコーダとデコーダが対称形態をなすU-ネットワーク(U-Network)を変形した構造を有することができる。ただし、これに限定されるものではない。以下、本開示に係る分割モデルに対しては、
図2~
図3を通じて説明する。
【0037】
一方、少なくとも一つの既に設定されたオブジェクトは、生分解性ステント(stent)のストラット(strut)および組織(tissue)のうち少なくとも一つを含むことができる。ここで、ストラットは、ステントの円周方向に沿って配置され、複数のセルを形成する部材であってもよい。そして、組織は、皮膚組織であってもよい。ただし、これに限定されるものではない。
【0038】
一方、格納部100は、メモリおよび/または永久記憶媒体を含むことができる。メモリは、フラッシュメモリタイプ(flash memory type)、ハードディスクタイプ(hard disk type)、マルチメディアカードマイクロタイプ(multimedia card micro type)、カードタイプのメモリ(例えば、SDまたはXDメモリなど)、RAM(Random Access Memory)、SRAM(Static Random Access Memory)、ROM(Read-Only Memory)、EEPROM(Electrically Erasable Programmable Read-Only Memory)、PROM(Programmable Read-Only Memory)、磁気メモリ、磁気ディスク、光ディスクのうち少なくとも一つのタイプの記憶媒体を含むことができる。
【0039】
本開示において、格納部100は、少なくとも一つの既に設定されたオブジェクトを分割するように学習された分割モデルを格納することができる。ただし、これに限定されるものではない。
【0040】
本開示において、格納部100は、少なくとも一つの既に設定されたオブジェクトを分割するように学習された分割モデルを格納することができる。ただし、これに限定されるものではない。
【0041】
一方、プロセッサ200は、一つ以上のコアで構成されることができ、画像分割装置の中央処理装置(CPU:central processing unit)、汎用グラフィックス処理装置(GPGPU:general purpose graphics processing unit)、テンソル処理装置(TPU:tensor processing unit)などのデータ分析、ディープラーニングのためのプロセッサを含むことができる。プロセッサ200は、格納部100に格納されたコンピュータプログラムを読み取り、本開示の一実施形態による機械学習のためのデータ処理を実行することができる。本開示の一実施形態によるプロセッサ200は、ニューラルネットワークの学習のための演算を実行することができる。プロセッサ200は、ディープラーニング(DL:deep learning)において、学習のための入力データの処理、入力データにおけるフィーチャー抽出、誤差計算、逆伝搬(backpropagation)を用いたニューラルネットワークの重みアップデートなどのニューラルネットワークの学習のための計算を実行することができる。プロセッサ200のCPU、GPGPUおよびTPUのうち少なくとも一つがネットワーク関数の学習を処理することができる。例えば、CPUおよびGPGPUがともにネットワーク関数の学習、ネットワーク関数を用いたデータ分類を処理することができる。また、本開示の一実施形態において、複数の画像分割装置のプロセッサをともに用いて、ネットワーク関数の学習、ネットワーク関数を用いたデータ分類を処理することができる。また、本開示の一実施形態による画像分割装置で行われるコンピュータプログラムは、CPU、GPGPUまたはTPU実行可能プログラムであってもよい。
【0042】
本開示において、プロセッサ200は、格納部100に格納された分割モデルに入力データを入力し、入力データにおいて少なくとも一つの既に設定されたオブジェクトを分割することができる。ただし、これに限定されるものではない。
【0043】
一方、本明細書の全般にわたって、演算モデル、ニューラルネットワーク、ネットワーク関数およびニューラルネットワーク(neural network)は、互いに交換可能な意味として使用できる。すなわち、本開示において、演算モデル、(人工)ニューラルネットワーク、ネットワーク関数およびニューラルネットワークは、互いに交換可能に使用できる。以下では、説明の便宜上、ニューラルネットワークに統一して記述する。
【0044】
ニューラルネットワークは、一般的にノードと称される互いに連結された計算単位の集合で構成されることができる。このようなノードは、ニューロン(neuron)と称されてもよい。ニューラルネットワークは、少なくとも一つ以上のノードを含んで構成される。ニューラルネットワークを構成するノード(またはニューロン)は、一つ以上のリンクにより互いに連結されることができる。
【0045】
ニューラルネットワーク内で、リンクを介して連結された一つ以上のノードは、相対的に入力ノードおよび出力ノードの関係を形成することができる。入力ノードおよび出力ノードの概念は相対的なものであって、一つのノードに対して出力ノードの関係にある任意のノードは、他のノードとの関係において入力ノードの関係にあることができ、その逆も成立することができる。上述したように、入力ノードに対する出力ノードの関係は、リンクを中心に生成されることができる。一つの入力ノードに一つ以上の出力ノードがリンクを介して連結されることができ、その逆も成立することができる。
【0046】
一つのリンクを介して連結された入力ノードおよび出力ノードの関係において、出力ノードのデータは、入力ノードに入力されたデータに基づいてその値が決定されることができる。ここで、入力ノードと出力ノードを互いに連結するリンクは、重み(weight)を有することができる。重みは、可変的であってもよく、ニューラルネットワークが所望の機能を実行するために、ユーザまたはアルゴリズムにより可変してもよい。例えば、一つの出力ノードに一つ以上の入力ノードがそれぞれのリンクにより互いに連結された場合、出力ノードは、前記出力ノードと連結された入力ノードに入力された値およびそれぞれの入力ノードに対応するリンクに設定された重みに基づいて出力ノード値を決定することができる。
【0047】
上述したように、ニューラルネットワークは、一つ以上のノードが一つ以上のリンクを介して互いに連結され、ニューラルネットワーク内で入力ノードおよび出力ノードの関係を形成する。ニューラルネットワーク内で、ノードとリンクの個数およびノードとリンクとの間の相関関係、リンクそれぞれに付与された重みの値に応じて、ニューラルネットワークの特性が決定されることができる。例えば、同一数のノードおよびリンクが存在し、リンクの重み値が異なる二つのニューラルネットワークが存在する場合、二つのニューラルネットワークは、互いに異なるものと認識されることができる。
【0048】
ニューラルネットワークは、一つ以上のノードの集合で構成されることができる。ニューラルネットワークを構成するノードの部分集合は、層(layer)を構成することができる。ニューラルネットワークを構成するノードの一部は、最初入力ノードからの距離に基づいて、一つの層(layer)を構成することができる。例えば、最初入力ノードから距離がnであるノードの集合は、n層を構成することができる。最初入力ノードからの距離は、最初入力ノードから当該ノードまで到達するために経なければならないリンクの最小数により定義されることができる。しかし、このような層の定義は、説明のための任意的なものであって、ニューラルネットワーク内での層の次数は、上述したものとは異なる方法で定義されてもよい。例えば、ノードの層は、最終出力ノードからの距離により定義されてもよい。
【0049】
最初入力ノードは、ニューラルネットワーク内のノードのうち、他のノードとの関係においてリンクを経ずにデータが直接入力される一つ以上のノードを意味し得る。または、ニューラルネットワークネットワーク内で、リンクを基準としたノード間の関係において、リンクに連結された他の入力ノードを有しないノードを意味し得る。これと同様に、最終出力ノードは、ニューラルネットワーク内のノードのうち、他のノードとの関係において、出力ノードを有しない一つ以上のノードを意味し得る。また、隠れノードは、最初入力ノードおよび最後出力ノードではなく、ニューラルネットワークを構成するノードを意味し得る。
【0050】
本開示の一実施形態によるニューラルネットワークは、入力層のノードの個数が出力層のノードの個数と同一であってもよく、入力層から隠れ層に進行するにつれて、ノードの数が減少し再び増加する形態のニューラルネットワークであってもよい。また、本開示の他の一実施形態によるニューラルネットワークは、入力層のノードの個数が出力層のノードの個数よりも少なくてもよく、入力層から隠れ層に進行するにつれて、ノードの数が減少する形態のニューラルネットワークであってもよい。また、本開示のまた他の一実施形態によるニューラルネットワークは、入力層のノードの個数が出力層のノードの個数よりも多くてもよく、入力層から隠れ層に進行するにつれて、ノードの数が増加する形態のニューラルネットワークであってもよい。本開示のさらに他の一実施形態によるニューラルネットワークは、上述したニューラルネットワークの組み合わせられた形態のニューラルネットワークであってもよい。
【0051】
ディープニューラルネットワーク(DNN:deep neural network)は、入力層および出力層の他に、複数の隠れ層を含むニューラルネットワークを意味し得る。ディープニューラルネットワークを用いると、データの潜在構造(latent structures)を把握することができる。すなわち、写真、テキスト、ビデオ、音声、音楽の潜在構造(例えば、ある物体が写真に存在するか、テキストの内容と感情が何であるか、音声の内容と感情が何であるかなど)を把握することができる。ディープニューラルネットワークは、畳み込みニューラルネットワーク(CNN:convolutional neural network)、回帰型ニューラルネットワーク(RNN:recurrent neural network)、オートエンコーダ(auto encoder)、GAN(Generative Adversarial Networks)、制限ボルツマンマシン(RBM:restricted boltzmann machine)、DBN(deep belief network)、Q-ネットワーク、U-ネットワーク、シャムネットワーク、敵対的生成ネットワーク(GAN:Generative Adversarial Network)などを含むことができる。前述したディープニューラルネットワークの記載は例示にすぎず、本開示はこれに制限されない。
【0052】
ニューラルネットワークは、教師あり学習(supervised learning)、教師なし学習(unsupervised learning)、半教師あり学習(semi supervised learning)、または強化学習(reinforcement learning)のうち少なくとも一つの方式で学習されることができる。ニューラルネットワークの学習は、ニューラルネットワークが特定の動作を実行するための知識をニューラルネットワークに適用する過程であってもよい。
【0053】
ニューラルネットワークは、出力のエラーを最小化する方向に学習されることができる。ニューラルネットワークの学習において、学習データをニューラルネットワークに繰り返し入力させ、学習データに対するニューラルネットワークの出力とターゲットのエラーを計算し、エラーを減らすための方向にニューラルネットワークのエラーをニューラルネットワークの出力層から入力層の方向に逆伝搬(backpropagation)してニューラルネットワークの各ノードの重みをアップデートする過程である。教師あり学習の場合は、それぞれの学習データに正解がラベリングされている学習データを用い(すなわち、ラベリングされた学習データ)、教師なし学習の場合は、それぞれの学習データに正解がラベリングされていなくてもよい。すなわち、例えば、データ分類に関する教師あり学習の場合の学習データは、学習データそれぞれにカテゴリがラベリングされたデータであってもよい。ラベリングされた学習データがニューラルネットワークに入力され、ニューラルネットワークの出力(カテゴリ)と学習データのラベルを比較することで、エラー(error)が計算されることができる。他の例として、データ分類に関する教師なし学習の場合は、入力である学習データがニューラルネットワークの出力と比較されることで、エラーが計算されることができる。計算されたエラーは、ニューラルネットワークにおいて逆方向(すなわち、出力層から入力層の方向)に逆伝搬され、逆伝搬に応じてニューラルネットワークの各層の各ノードの連結重みがアップデートされることができる。アップデートされる各ノードの連結重みは、学習率(learning rate)に応じて変化量が決定されることができる。入力データに対するニューラルネットワークの計算およびエラーの逆伝搬は、学習サイクル(epoch)を構成することができる。学習率は、ニューラルネットワークの学習サイクルの繰り返し回数に応じて異に適用されることができる。例えば、ニューラルネットワークの学習初期には、高い学習率を用いてニューラルネットワークが速く一定レベルの性能を確保するようにして効率性を高め、学習後期には、低い学習率を用いて適合率を高めることができる。
【0054】
ニューラルネットワークの学習において、一般的に学習データは、実際データ(すなわち、学習されたニューラルネットワークを用いて処理しようとするデータ)の部分集合であってもよい。したがって、学習データに対するエラーは減少するが実際データに対してはエラーが増加する学習サイクルが存在することができる。過剰適合(overfitting)は、このように、学習データを過剰に学習して実際データに対するエラーが増加する現象である。例えば、黄色の猫を見せて猫を学習したニューラルネットワークが、黄色以外の猫を見ると、猫であることを認識できない現象が過剰適合の一種であってもよい。過剰適合は、機械学習アルゴリズムのエラーを増加させる原因として作用し得る。このような過剰適合を防ぐために、多様な最適化方法を用いることができる。過剰適合を防ぐためには、学習データを増加させるか、またはレギュライゼーション(regularization)、学習過程でネットワークのノードの一部を非活性化するドロップアウト(dropout)、バッチ正規化層(batch normalization layer)の活用などの方法が適用されることができる。
【0055】
一方、本開示の幾つかの実施形態によれば、分割モデルは、エンコーダとデコーダが対称形態をなすU-ネットワークを変形した構造を有することができる。以下、
図2~
図4を通じて本開示に係る分割モデルについて説明する。
【0056】
図2は、本開示の幾つかの実施形態による分割モデルの一例を説明するための図である。
図3は、本開示の幾つかの実施形態によるマルチスケール拡張残差ブロックの一例を説明するための図である。
図4は、本開示の幾つかの実施形態による学習用画像の一例を説明するための図である。
【0057】
図2を参照すれば、分割モデル300は、エンコーダ310、デコーダ320および補助分類モデル330を含むことができる。ただし、これに限定されるものではない。
【0058】
エンコーダ310は、入力データの次元を減少させる少なくとも一つの次元減少ブロックを含むことができる。ただし、これに限定されるものではない。
【0059】
一例として、少なくとも一つの次元減少ブロックのうち入力データが最初に入力される第1次元減少ブロック311は、少なくとも一つの畳み込み層を含むことができる。そして、第1次元減少ブロック311は、少なくとも一つの畳み込み層を介して入力データの次元を減少させることができる。
【0060】
より具体的に、第1次元減少ブロック311は、入力データを次元を有する行列で表して処理することができる。例えば、入力データがRGB(red-green-blue)でエンコードされたイメージデータである場合、R、G、B色別にそれぞれ2次元(例えば、2次元イメージである場合)行列で表されることができる。すなわち、入力データの各ピクセルの色値が行列の成分となることができ、行列の大きさは、イメージの大きさと同一であることができる。したがって、入力データは、3個の2次元行列(3次元のデータアレイ)で表されることができる。この場合、第1次元減少ブロック311は、少なくとも一つの畳み込み層を介して畳み込みフィルタを移動しつつ、畳み込みフィルタとイメージの各位置での行列成分同士で乗じることで、畳み込み過程(畳み込み層の入出力)を実行することができる。畳み込みフィルタは、n*n形態の行列で構成されることができ、一般的にイメージの全体ピクセルの数よりは少ない固定された形態のフィルタで構成されることができる。すなわち、m*mイメージを畳み込み層(例えば、畳み込みフィルタのサイズがn*nである畳み込み層)に入力させる場合、イメージの各ピクセルを含むn*nピクセルを表す行列が畳み込みフィルタとの成分積(すなわち、行列の各成分同士の積)となることができる。畳み込みフィルタとの積により、イメージから畳み込みフィルタとマッチングする成分が抽出されることができる。例えば、イメージから上下直線成分を抽出するための3*3畳み込みフィルタは、[[0、1、0]、[0、1、0]、[0、1、0]]のようにに構成されることができ、このような畳み込みフィルタが入力イメージに適用されると、イメージから畳み込みフィルタとマッチングする上下直線成分が抽出されて出力されることができる。畳み込み層は、イメージを示したそれぞれのチャネルに対するそれぞれの行列(すなわち、R、G、Bコーディングイメージの場合、R、G、B色)に畳み込みフィルタを適用することができる。畳み込み層は、入力イメージに畳み込みフィルタを適用し、入力イメージから畳み込みフィルタとマッチングするフィーチャーを抽出することができる。畳み込みフィルタのフィルタ値(すなわち、行列の各成分の値)は、分割モデルの学習過程で逆伝搬(back propagation)によりアップデートされることができる。
【0061】
一方、本開示において、第1次元減少ブロック311に含まれた少なくとも一つの畳み込み層それぞれに示された数字は、それぞれフィルタのサイズ、拡張比率およびチャネル数に対する例示的な一例であってもよい。
【0062】
例えば、第1次元減少ブロック311に含まれた少なくとも一つの畳み込み層それぞれは、7*7畳み込みフィルタを用いることができる。そして、第1次元減少ブロック311に含まれた少なくとも一つの畳み込み層それぞれの拡張比率(dilation rate)は1であってもよい。ここで、拡張比率は、カーネル間の間隔を意味し得る。そして、第1次元減少ブロック311に含まれた少なくとも一つの畳み込み層それぞれに示されたk64は、例示的なチャネルの数であってもよい。ただし、これに限定されるものではない。
【0063】
一方、第1次元減少ブロック311から出力されるデータが入力される第2次元減少ブロック312は、平均プーリング層(average pooling layer)およびマルチスケール拡張残差ブロック(Multi-Scale Dilated Residual block)を含むことができる。
【0064】
平均プーリング層は、第1次元減少ブロック311から出力されるデータを単純化してメモリ使用量および演算量を減らすための層であってもよい。例えば、2*2平均プーリングフィルタを有するプーリング層に第1次元減少ブロック311の出力を入力させる場合、イメージの各ピクセルにおいて2*2パッチごとに各パッチに含まれる平均値を出力してイメージを圧縮することができる。前述したプーリングは、パッチにおいて最小値を出力するか、またはパッチの最大値を出力する方式であってもよく、任意のプーリング方式が本開示に含まれてもよい。
【0065】
一方、マルチスケール拡張残差ブロックは、互いに異なる拡張比率(dilation rate)を有する複数の畳み込み層、バッチ正規化(batch normalization)層およびReLU(rectified linear unit)層が並列的に配置されているブロックであってもよい。
【0066】
例えば、
図3を参照すれば、マルチスケール拡張残差ブロックは、第1~第5残差(residual)ブロック3121、3122、3123、3124、3125、スキップブロック3126およびReLU層3127を含むことができる。ただし、これに限定されるものではない。
【0067】
第1~第4残差ブロック3121、3122、3123、3124それぞれは、入力データに対する畳み込みを実行することができる。この際、第1~第4残差ブロック3121、3122、3123、3124それぞれは、互いに異なる拡張比率を有することができる。
【0068】
具体的に、第1残差ブロック3121は、カーネル間の間隔が1である少なくとも一つの畳み込み層を含むことができる。そして、第2残差ブロック3122は、カーネル間の間隔が2である少なくとも一つの畳み込み層を含むことができる。そして、第3残差ブロック3123は、カーネル間の間隔が4である少なくとも一つの畳み込み層を含むことができる。また、第4残差ブロック3124は、カーネル間の間隔が8である少なくとも一つの畳み込み層を含むことができる。この場合、一つのステップ(例えば、第2次元減少ブロック312が入力データの次元を減少させて出力するステップ)において、さらに多様な収容領域に対する情報が利用されることができる。ただし、これに限定されるものではない。
【0069】
一方、第1残差ブロック3121をさらに調べると、第1残差ブロック3121は、少なくとも一つのバッチ正規化(batch normalization)層およびReLU(rectified linear unit)(ReLU)層を含むことができる。そして、第1残差ブロック3121は、バッチ正規化活性化関数および正規化線形活性化関数による演算を実行することができる。また、第2~第4残差ブロック3122、3123、3124それぞれも、少なくとも一つのバッチ正規化層および正規化線形ユニットを含むことができる。ただし、これに限定されるものではない。
【0070】
一方、本開示において、第1~第4残差ブロック3121、3122、3123、3124それぞれは、拡張比率は異なるが、フィルタのサイズおよびチャネルの数は同一であってもよい。ただし、これに限定されるものではない。
【0071】
一方、第5残差ブロック3125は、1*1畳み込みフィルタを有する畳み込み層およびバッチ正規化層を含むことができる。仮に第1~第4残差ブロック3121、3122、3123、3124から出力されたそれぞれの出力データがReLU層3127に入力される場合、演算に行われるパラメータが過度に多い。したがって、第5残差ブロック3125は、1*1畳み込みフィルタを有する畳み込み層およびバッチ正規化層を用いて、パラメータの数を減少または最適化させることができる。ただし、これに限定されるものではない。
【0072】
一方、スキップブロック3126は、1*1畳み込みフィルタを有する畳み込み層およびバッチ正規化層を含むことができる。そして、スキップブロック3126は、マルチスケール拡張残差ブロックに入力される入力データに1*1フィルタリングおよびバッチ正規化を行ったデータを第5残差ブロック3125から出力されるデータに連結することができる。この場合、分割モデルの学習過程において、マルチスケール拡張残差ブロックは、入力データと第5残差ブロック3125から出力されるデータとの相違点に基づいて学習を実行することができる。ただし、これに限定されるものではない。
【0073】
一方、ReLU層3127は、マルチスケール拡張残差ブロックの最終端に配置され、出力値が非線形になるように活性化する役割を行うことができる。具体的に、少なくとも一つの畳み込み層で計算された値はいずれも線形演算であるため、畳み込み層のみでは非線形関数の出力を学習することができない。したがって、マルチスケール拡張残差ブロックは、ReLU層3127を介して出力されるデータに非線形性を加えることができる。ただし、これに限定されるものではない。
【0074】
再び
図2を参照すれば、少なくとも一つの次元減少ブロックは、第2次元減少ブロック312から出力されるデータが入力される第3次元減少ブロック313、および第3次元減少ブロック313から出力されるデータが入力される第4次元減少ブロック314をさらに含むことができる。そして、第3次元減少ブロック313および第4次元減少ブロック314は、第2次元減少ブロック312と同一の構造を有することができる。ただし、これに限定されるものではない。
【0075】
一方、少なくとも一つの次元減少ブロックのうちエンコーダ310の最終層に配置されるボトルネックブロック315は、第2次元減少ブロック312と同一の構造を有し、この際、過剰適合を防止するためのドロップアウト層(dropout layer)をさらに含むことができる。ここで、ドロップアウト層は、学習過程でネットワークのノードの一部を省略することで過剰適合を防止可能な層であってもよい。
【0076】
一方、本開示の幾つかの実施形態によれば、ドロップアウト層は、2次元構造の入力データに対する過剰適合を防止するための2D(dimension)ドロップアウト層であってもよい。ただし、これに限定されるものではない。
【0077】
一方、デコーダ320は、少なくとも一つの次元減少ブロックから出力されるデータを用いて、エンコーダ310から出力される出力データの次元を増加させる少なくとも一つの次元増加ブロックを含むことができる。
【0078】
一例として、少なくとも一つの次元増加ブロックのうちエンコーダ310から出力された出力データが最初に入力される第1次元増加ブロック321は、アップサンプリング層(upsampling layer)、接合層(concatenation layer)およびマルチスケール拡張残差ブロックを含むことができる。そして、少なくとも一つの次元増加ブロック中、エンコーダ310から出力された出力データは、アップサンプリング層に入力されることができる。この場合、第1次元増加ブロック321は、アップサンプリングを行った後に畳み込みを行う転置畳み込みまたは補間法(bilinear)などによりボトルネックブロック315から出力された出力イメージの次元を増加させることができる。この際、少なくとも一つの次元減少ブロックにおいて減少した次元を第1次元増加ブロック321において増加させる過程で、ピクセルの位置情報などが流失し得る。これを防止するために、接合層は、次元増加のための情報(例えば、ピクセルの位置情報、高レベルフィーチャーなど)の伝達を受けることができる。一例として、第1次元増加ブロック321の接合層は、第4次元減少ブロック314から次元増加のための情報の伝達を受けることができる。これにより、第1次元増加ブロック321は、データの次元を減少させてから次元を増加させる過程で流失し得るピクセルの位置情報を復元することができる。
【0079】
一方、少なくとも一つの次元増加ブロックは、第1次元増加ブロック321から出力されるデータが入力される第2次元増加ブロック322、および第2次元増加ブロック322から出力されるデータが入力される第3次元増加ブロック323を含むことができる。そして、第2次元増加ブロック322および第3次元増加ブロック323は、第1次元増加ブロック321と同一の構造を有することができる。ただし、これに限定されるものではない。
【0080】
一方、第2次元増加ブロック322の接合層は、第3次元減少ブロック313から次元増加のための情報の伝達を受けることができる。そして、第3次元増加ブロック323の接合層は、第2次元減少ブロック312から次元増加のための情報の伝達を受けることができる。ただし、これに限定されるものではない。
【0081】
一方、少なくとも一つの次元増加ブロックのうちデコーダ320の最終層に配置される最終出力端324は、アップサンプリング層、接合層、少なくとも一つの畳み込み層、境界改善(Boundary Refine)モジュール、逆畳み込み層およびソフトマックス(Softmax)層のうち少なくとも一つを含むことができる。ただし、これに限定されるものではない。
【0082】
一方、最終出力端324は、入力データに含まれた少なくとも一つの既に設定されたオブジェクトそれぞれと関連した領域分割のための最終分類演算を実行することができる。ここで、最終分類演算は、少なくとも一つの畳み込み層およびソフトマックス活性化関数による演算を含むことができる。この際、最終分類演算のため少なくとも一つの畳み込み層は、1*1畳み込みフィルタを用いる層であってもよい。また、ソフトマックス活性化関数は、ソフトマックス層により行われる関数であって、少なくとも一つの既に設定されたオブジェクトを分割するための関数であってもよい。ただし、これに限定されるものではない。
【0083】
一方、最終出力端324の接合層は、第1次元減少ブロック311から次元増加のための情報の伝達を受けることができる。
【0084】
一方、本開示において、境界改善モジュールは、少なくとも一つの既に設定されたオブジェクトそれぞれと関連した領域分割のための境界が改善されるように、最終分類演算に入力される最終特徴マップを調整することができる。
【0085】
具体的に、境界改善モジュールは、3*3畳み込みフィルタを有する少なくとも一つの畳み込み層と、1*1畳み込みフィルタを有する少なくとも一つの畳み込み層との間に位置することができる。そして、境界改善モジュールは、入力データの各ピクセルに対する最終分類演算が起こる1*1畳み込み層を経る前に、少なくとも一つの既に設定されたオブジェクトに対する境界を改善する最終調整作業を実行することができる。ただし、これに限定されるものではない。
【0086】
一方、本開示の幾つかの実施形態によれば、境界改善モジュールは、残差ブロック構造を有することができる。
【0087】
具体的に、境界改善モジュールは、少なくとも一つの畳み込み層およびReLU層を含むスキップブロックを有する構造であってもよい。この場合、分割モデルの学習過程において、境界改善モジュールは、入力データと境界改善を実行して出力されるデータとの相違点に基づいて学習を実行することができる。ただし、これに限定されるものではない。
【0088】
一方、補助分類モデル330は、エンコーダ310から出力される出力データの入力を受け、出力データに特定のオブジェクトが含まれているか否かを認識することができる。ここで、特定のオブジェクトは、ストラットであってもよい。ただし、これに限定されるものではない。
【0089】
一方、補助分類モデル330は、畳み込み層、グローバル平均プーリング(Global Avg Pool)層、全結合(Fully Connected)層およびシグモイド(Sigmoid)層を含むことができる。グローバル平均プーリング層は、入力されたデータに対して各チャネル別フィーチャーマップの単一平均値を抽出して代表性を付与するための層であってもよい。そして、全結合層は、一つの層に存在する全てのニューロンと隣接した層に存在する全てのニューロンが連結される層であってもよい。また、シグモイド層は、非線形値を求めるための関数であってもよい。補助分類モデル330は、これらの活性化関数により、学習過程で入力データに特定のオブジェクトが含まれたか否かを認識することができる。ただし、これに限定されるものではない。
【0090】
一方、本開示の幾つかの実施形態によれば、画像分割装置1000のプロセッサ200は、分割モデル300を学習させる際に、補助分類モデル330を介して学習用画像に特定のオブジェクトが含まれているか否かを認識できるように、エンコーダ310および補助分類モデル330に含まれた重み値を最適化することができる。ここで、特定のオブジェクトは、生分解性ステントのストラットおよび組織のうち少なくとも一つを含むことができる。この際、プロセッサ200は、前記動作と連動して、デコーダ320の最終特徴値マップに学習用画像に含まれた少なくとも一つの既に設定されたオブジェクトそれぞれが表現されるように、分割モデル300に含まれた重み値を最適化することができる。
【0091】
具体的に、プロセッサ200は、分割モデル300に含まれた少なくとも一つの層それぞれの損失関数(Loss Function)を最小化する方向に逆伝搬させ、重み値を最適化することができる。ここで、損失関数は、実際値(Ground truth)と予測値(prediction)との差を数値化する関数であってもよい。
【0092】
以下では、画像分割装置1000のプロセッサ200が、損失関数が最適化できるように、本開示に係る分割モデル300を学習させた方法の一例を説明する。
【0093】
本開示においては、総40個体から得られた学習用画像から30枚ずつランダムでIV-OCT(Intravascular-Optical Coherence Tomography)画像(直交座標系で構成された画像)を抽出し、1,200枚のデータセットを確保した。この際、多様な厚さのステントに対しても画像分割がなされるように、学習用画像は、複数の第1学習用画像および複数の第2学習用画像を含んでいる。
【0094】
第1学習用画像は、第1厚さを有するストラットで構成された第1生分解性ステントを含む複数の画像であってもよい。一例として、総40個体のうち20個体のデータは、ストラット厚さ157umの第1ステントが挿入された結果であってもよい。
【0095】
一方、第2学習用画像は、第1厚さとは異なる第2厚さを有するストラットで構成された第2生分解性ストラットを含む複数の画像であってもよい。一例として、総40個体のうち残りの20個体のデータは、ストラット厚さ100umの第2ステントが挿入された結果であってもよい。これにより、多様な厚さのステントに対しても画像分割がなされるように、データセットを構成した。前記データセットにおいて組織領域およびストラット領域の手作業分割結果を得て、個体単位で訓練(70%=28個体)、検証(10%=4個体)、試験(20%=8個体)セットを構成した。
【0096】
一方、本開示において、分割モデルの学習は、GPUメモリの限界の理由および過剰適合の防止のために、ランダムクロップ(random crop)パッチを基盤として進行することができる。
【0097】
具体的に、総40個体から得られた学習用画像は、少なくとも一つの既に設定されたオブジェクトそれぞれがラベリングされた画像をランダムクロップしたパッチを少なくとも一つ以上含むことができる。
【0098】
例えば、
図4の(a)を参照すれば、学習用画像は、少なくとも一つの既に設定されたオブジェクト410を含むことができる。そして、
図4の(b)を参照すれば、学習用画像に含まれた少なくとも一つの既に設定されたオブジェクト410は、ラベリングされていてもよい。ただし、これに限定されるものではない。
【0099】
一方、本開示の幾つかの実施形態によれば、補助分類モデル330は、ランダムクロップしたパッチに特定のオブジェクトが含まれたか否かが認識できるように学習されることができる。
【0100】
具体的に、画像分割装置1000のプロセッサ200は、分割モデル300を学習させる際に、補助分類モデル330を介して学習用画像に特定のオブジェクトが含まれているか否かが認識できるように、エンコーダ310および補助分類モデル330に含まれた重み値を最適化することができる。そして、プロセッサ200は、これと連動して、デコーダ320の最終特徴値マップに学習用画像に含まれた少なくとも一つの既に設定されたオブジェクトそれぞれが表現されるように、分割モデル300に含まれた重み値を最適化することができる。これにより、本開示に係る分割モデル300は、エンコーダ310およびデコーダ320のストラット分割のための特徴値がさらに最適化される方向に学習されることができる。
【0101】
一方、分割モデル300に含まれた少なくとも一つの層の重みは、損失関数Lを最小化する方向に逆伝搬されて最適化されることができる。ここで、重みは、少なくとも一つの畳み込み層それぞれのカーネル値、少なくとも一つのバッチ正規化層それぞれにおける大きさ(scale)、または少なくとも一つのバッチ正規化層それぞれにおけるオフセットなどであってもよい。ただし、これに限定されるものではない。
【0102】
一方、本開示においては、ADAM(Adaptive Moment Estimation)最適化アルゴリズムが用いられ、学習率は、10-3から始まって20epochの間性能向上がない場合に、学習率を1/10だけ減少させて学習を進行するようにした。また、学習率が10-9に達すると、学習を終了するようにした。
【0103】
一方、本開示において、損失関数Lは、下記の数式により計算されることができる。
【数1】
ここで、λiは、重みであってもよい。そして、L
loglossは、三つのチャネルに対して得られた加重平均cross entropy項であってもよい。そして、L
L1は、ストラット領域を分割する際にsparsityを考慮するためのL1距離項であってもよい。そして、L
auxは、補助分類モデル330の二項分類結果に対するcross entropy項であってもよい。
【数2】
各項は、重みλiにより加重合算されて最適化のための全体損失関数として構成されることができる。
【0104】
一方、本開示において、加重平均cross entropy項L
loglossは、下記の数式により計算されることができる。
【数3】
ここで、g(x)は、実際値(Ground truth)であってもよい。そして、p(x)は、デコーダ320の最終層に配置された最終出力端324に含まれたソフトマックス層の確率算出物であってもよい。そして、w(x)は、ベクトルxに対する重みであってもよい。
【0105】
一方、本開示において、L
L1は、下記の数学式により計算されることができる。
【数4】
加重平均cross entropy項L
loglossは、組織領域、生分解性ステントのストラット領域、背景領域のピクセル個数の偏差を補正するために導入され、それぞれ1:2:10の比率に設定されるようにした。一方、ストラット領域をさらによく捉えるために、重み項を大きく設定することや、dice coefficientのように領域の重なり程度を示す項を追加することは、かえってストラット領域の過大分割を誘発するため、本数学式では考慮していない。ただし、実施形態によっては、dice coefficientのように領域の重なり程度を示す項を追加する一例も可能である。
【0106】
一方、学習された分割モデル300の性能評価は、分割領域の実際値との一致度を把握するために、組織領域およびストラット領域それぞれに対してdice coefficientを算出して行った。以下、本開示に係る学習された分割モデル300の性能評価結果について説明する。
【0107】
図5は、本開示の幾つかの実施形態による学習された分割モデルの性能評価について説明するための図である。
【0108】
図5のInput Imageは、分割モデル300に入力される入力データ510であってもよい。そして、入力データ510は、少なくとも一つのストラット511を含むことができる。Ground Truthは、実際値520であってもよい。そして、実際値520は、入力データ510に含まれた少なくとも一つのストラット511に対応する少なくとも一つのストラット521を示すことができる。また、Predictionは、予測値530であってもよい。すなわち、予測値530は、分割モデル300により入力データ510に対する画像分割が行われた結果であってもよい。そして、予測値530は、入力データ510に含まれた少なくとも一つのストラット511に対応する少なくとも一つのストラット531を分割して示すことができる。ただし、これに限定されるものではない。
【0109】
本開示において、学習された分割モデル300の性能評価は、分割領域の実際値520との一致度を把握するために、組織領域およびストラット領域のそれぞれに対してdice coefficientを算出することができた。dice coefficientは、下記の数式により計算されることができる。
【数5】
ここで、p
c(x)は、ソフトマックス層の確率算出物(prediction)イメージにおいて、特定のチャネルだけ選択された既に設定された大きさの画像であってもよい。そして、g
c(x)は、実際値520において、特定のチャネルだけ選択された既に設定された大きさの画像であってもよい。
【0110】
また、ストラット検出性能は、実際値520との比較により誤検出(false positive)および検出漏れ(false negative)の個数を把握し、適合率(precision:PR)、再現率(recall:RC)、F-スコアを計算することができた。各測定値は、下記の数式のように定義されることができる。
【数6】
ここで、PRは、適合率(precision)であってもよい。そして、RCは、再現率(recall)であってもよい。そして、TPは、正検出(true positive)であってもよい。そして、FPは、誤検出(false positive)であってもよい。そして、FNは、検出漏れ(false negative)であってもよい。
【0111】
画像分割結果に対する定量性能の評価結果は、下記の表1のように示すことができた。
【表1】
【0112】
表1を参照すれば、本開示に係る分割モデル300を用いて画像分割を行った結果、ストラット検出に対する適合率は91.2%を示した。そして、ストラット検出に対する再現率は96%を示した。また、ストラット検出に対するF-スコアは93.5%を示した。これは、単純U-net構造、残差(Residual)U-Net構造、マルチスケール拡張(Multi-scale Dilated)U-Net構造よりも顕著に高い数値である。また、単にマルチスケール拡張(Multi-scale Dilated)U-Net構造に境界改善モジュールを追加するかまたは本開示に係る補助分類モデル330を追加した結果よりも高い結果を示すことができた。
【0113】
また、組織領域およびストラット領域に対するdice coefficientも0.932、0.852を示しており、手作業結果と非常に高いレベルの一致度を示すことを確認することができた。また、ストラットを覆っている新生内膜の厚さに応じた性能評価も行っており、新生内膜の増殖が多い場合にも約85%以上の性能を示すことを確認することができた。
【0114】
一方、本開示の幾つかの実施形態によれば、画像分割装置1000は、分割モデル300を用いて出力された最終データおよび入力データを用いて、3次元レンダリングを行うことができる。以下、
図6および
図7を通じて本開示に係るプロセッサ200が3次元レンダリングを行った一例を説明する。
【0115】
図6は、本開示の幾つかの実施形態による画像分割装置が行った3次元レンダリング結果の一例を説明するための図である。
【0116】
本開示の幾つかの実施形態によれば、画像分割装置1000のプロセッサ200は、分割モデル300を用いて出力された最終データおよび入力データを用いて、新生内膜増殖2Dマップを生成することができる。一例として、
図6の(a)は、ステントが挿入された場合、ステントおよび新生内膜の増殖程度を2Dマップで示した結果であってもよい。
【0117】
一方、画像分割装置1000のプロセッサ200は、分割モデル300に入力データを入力して出力された最終データおよび入力データを用いて生成した3次元レンダリングを行うことができる。一例として、
図6の(b)は、プロセッサ200が最終データおよび入力データを用いて再構成した血管の3次元画面であってもよい。
【0118】
一方、
図6の(c)を参照すれば、画像分割装置1000のプロセッサ200は、生分解性ステントの挿入後の週次による新生内膜の増殖に対する程度を定量測定比較できるようにグラフを生成してもよい。ただし、これに限定されるものではない。
【0119】
図7は、本開示の幾つかの実施形態による画像分割装置が行った3次元レンダリング結果の他の一例を説明するための図である。
【0120】
画像分割装置1000のプロセッサ200は、分割モデル300に入力データを入力して出力された最終データおよび入力データを用いて生成した3次元レンダリングを行うことができる。この場合、プロセッサ200は、画像分割装置1000のディスプレイ部を介して3次元レンダリング結果をユーザに提供することができる。
【0121】
一例として、
図7は、プロセッサ200が最終データおよび入力データを用いて血管およびステントに対して3次元レンダリングを行った後にユーザに提供する画面であってもよい。
【0122】
図8は、本開示内容の実施形態が実現可能な例示的なコンピューティング環境に対する一般的な概略図である。
【0123】
本開示内容が一般的に一つ以上のコンピュータ上で実行可能なコンピュータ実行可能命令語と関連して前述されたが、当業者であれば、本開示内容がその他のプログラムモジュールと結合され、および/またはハードウェアとソフトウェアの組み合わせとして実現可能であることは周知である。
【0124】
一般的に、本明細書におけるモジュールは、特定のタスクを実行するかまたは特定の抽象データ類型を実現するルーチン、手順、プログラム、コンポーネント、データ構造、その他のものを含む。また、当業者であれば、本開示の方法が単一プロセッサまたはマルチプロセッサコンピュータシステム、ミニコンピュータ、メインフレームコンピュータはもちろん、パーソナルコンピュータ、ハンドヘルドコンピューティング装置、マイクロプロセッサ基盤またはプログラム可能な家電製品、その他のもの(これらのそれぞれは、一つ以上の関連装置と連結されて動作することができる)をはじめとする他のコンピュータシステム構成で実施可能であることは周知である。
【0125】
また、本開示の説明された実施形態は、あるタスクが通信ネットワークを介して連結されている遠隔処理装置により行われる分散コンピューティング環境で実施されることができる。分散コンピューティング環境において、プログラムモジュールは、ローカルおよび遠隔メモリ記憶装置の両方に位置することができる。
【0126】
コンピュータは、通常、多様なコンピュータ読み取り可能な媒体を含む。コンピュータによりアクセス可能な媒体として、揮発性および不揮発性媒体、一時的(transitory)および非一時的(non-transitory)媒体、移動式および非移動式媒体を含む。非制限的な例として、コンピュータ読み取り可能な媒体は、コンピュータ読み取り可能な記憶媒体およびコンピュータ読み取り可能な伝送媒体を含むことができる。
【0127】
コンピュータ読み取り可能な記憶媒体は、コンピュータ読み取り可能な命令語、データ構造、プログラムモジュールまたはその他のデータのような情報を格納する任意の方法または技術で実現される揮発性および不揮発性媒体、一時的および非一時的媒体、移動式および非移動式媒体を含む。コンピュータ読み取り可能な記憶媒体は、RAM、ROM、EEPROM、フラッシュメモリまたはその他のメモリ技術、CD-ROM、DVD(digital video disk)またはその他の光ディスク記憶装置、磁気カセット、磁気テープ、磁気ディスク記憶装置またはその他の磁気記憶装置、またはコンピュータによりアクセス可能であるとともに所望の情報を格納するのに使用可能な任意のその他の媒体を含むが、これに限定されない。
【0128】
コンピュータ読み取り可能な伝送媒体は、通常、搬送波(carrier wave)またはその他の伝送メカニズム(transport mechanism)のような被変調データ信号(modulated data signal)にコンピュータ読み取り可能な命令語、データ構造、プログラムモジュールまたはその他のデータなどを実現し、全ての情報伝達媒体を含む。被変調データ信号という用語は、信号内に情報をエンコードするようにその信号の特性のうち一つ以上を設定または変更させた信号を意味する。非制限的な例として、コンピュータ読み取り可能な伝送媒体は、有線ネットワークまたは直接有線接続(direct-wired connection)のような有線媒体、そして音響、RF、赤外線、その他の無線媒体のような無線媒体を含む。上述した媒体のうち任意のものの組み合わせも、コンピュータ読み取り可能な伝送媒体の範囲内に含まれるものとする。
【0129】
コンピュータ1102を含む本開示の多様な側面を実現する例示的な環境1100が示されており、コンピュータ1102は、処理装置1104、システムメモリ1106およびシステムバス1108を含む。システムバス1108は、システムメモリ1106(これに限定されない)をはじめとするシステムコンポーネントを処理装置1104に連結させる。処理装置1104は、多様な商用プロセッサのうち任意のプロセッサであってもよい。デュアルプロセッサおよびその他のマルチプロセッサアーキテクチャも、処理装置1104として用いられることができる。
【0130】
システムバス1108は、メモリバス、周辺装置バス、および多様な商用バスアーキテクチャのうち任意のものを用いるローカルバスにさらに互いに連結可能な幾つかの類型のバス構造のうち任意のものであってもよい。システムメモリ1106は、読み取り専用メモリ(ROM)1110およびランダムアクセスメモリ(RAM)1112を含む。基本入力/出力システム(BIOS)は、ROM、EPROM、EEPROMなどの不揮発性メモリ1110に格納され、このBIOSは、始動中のようなときにコンピュータ1102内の構成要素間に情報を伝送することを手伝う基本的なルーチンを含む。また、RAM1112は、データをキャッシングするための静的RAMなどの高速RAMを含むことができる。
【0131】
また、コンピュータ1102は、内蔵型ハードディスクドライブ(HDD)1114(例えば、EIDE、SATA)-この内蔵型ハードディスクドライブ1114は、また、適したシャシ(図示せず)内で外装型用途として構成されてもよい-、磁気フロッピーディスクドライブ(FDD)1116(例えば、移動式ディスケット1118から読み取りをするかまたはそれに書き込みをするためのものである)、および光ディスクドライブ1120(例えば、CD-ROMディスク1122を読み取りするか、DVDなどのその他の高容量光媒体から読み取りをするか、またはそれに書き込みをするためのものである)を含む。ハードディスクドライブ1114、磁気ディスクドライブ1116および光ディスクドライブ1120は、それぞれハードディスクドライブインターフェース1124、磁気ディスクドライブインターフェース1126および光ドライブインターフェース1128によりシステムバス1108に連結されることができる。外付けドライブを実現するためのインターフェース1124は、例えば、USB(Universal Serial Bus)およびIEEE 1394インターフェース技術のうち少なくとも一つまたは両方を含む。
【0132】
これらのドライブおよびそれと関連したコンピュータ読み取り可能な媒体は、データ、データ構造、コンピュータ実行可能命令語、その他の不揮発性格納を提供する。コンピュータ1102の場合、ドライブおよび媒体は、任意のデータを適当なデジタル形式で格納することに対応する。上記でのコンピュータ読み取り可能な記憶媒体に関する説明が、HDD、移動式磁気ディスク、およびCDまたはDVDなどの移動式光媒体を言及しているが、当業者であれば、ジップドライブ(zip drive)、磁気カセット、フラッシュメモリカード、カートリッジ、その他のコンピュータにより読み取り可能な他類型の記憶媒体も例示的なオペレーティング環境で用いられることができ、また、任意のこのような媒体が本開示の方法を実行するためのコンピュータ実行可能命令語を含み得ることは周知である。
【0133】
オペレーティングシステム1130、一つ以上のアプリケーションプログラム1132、その他のプログラムモジュール1134およびプログラムデータ1136をはじめとする多数のプログラムモジュールがドライブおよびRAM1112に格納されることができる。オペレーティングシステム、アプリケーション、モジュールおよび/またはデータの全部またはその一部がまたRAM1112にキャッシングされることができる。本開示が種々の商業的に利用可能なオペレーティングシステムまたはオペレーティングシステムの組み合わせで実現可能であることは周知である。
【0134】
ユーザは、一つ以上の有線/無線入力装置、例えば、キーボード1138およびマウス1140などのポインティング装置を介してコンピュータ1102に命令および情報を入力することができる。その他の入力装置(図示せず)としては、マイク、IRリモコン、ジョイスティック、ゲームパッド、スタイラスペン、タッチスクリーン、その他のものが挙げられる。これらおよびその他の入力装置がシステムバス1108に連結されている入力装置インターフェース1142を介して処理装置1104に連結されることが多いが、並列ポート、IEEE 1394直列ポート、ゲームポート、USBポート、IRインターフェース、その他のインターフェースにより連結されてもよい。
【0135】
モニタ1144または他類型のディスプレイ装置も、ビデオアダプタ1146などのインターフェースを介してシステムバス1108に連結される。モニタ1144に加え、コンピュータは、一般的にスピーカ、プリンタ、その他の周辺出力装置(図示せず)を含む。
【0136】
コンピュータ1102は、有線および/または無線通信を介した遠隔コンピュータ1148などの一つ以上の遠隔コンピュータへの論理的連結を用いてネットワーク化された環境で動作することができる。遠隔コンピュータ1148は、ワークステーション、サーバコンピュータ、ルータ、パーソナルコンピュータ、携帯用コンピュータ、マイクロプロセッサ基盤の娯楽機器、ピア装置またはその他の通常のネットワークノードであってもよく、一般的にコンピュータ1102に対して記述された構成要素の多数またはその全部を含むが、簡略性のために、メモリ記憶装置1150のみが示されている。示されている論理的連結は、近距離通信網(LAN)1152および/またはさらに大きいネットワーク、例えば、遠距離通信網(WAN)1154への有線/無線連結を含む。このようなLANおよびWANネットワーキング環境は、事務室および会社で一般的なものであり、イントラネットなどの企業規模のコンピュータネットワーク(enterprise-wide computer network)を容易にし、これらの全ては、全世界コンピュータネットワーク、例えば、インターネットに連結されることができる。
【0137】
LANネットワーキング環境で用いられる際に、コンピュータ1102は、有線および/または無線通信ネットワークインターフェースまたはアダプタ1156を介してローカルネットワーク1152に連結される。アダプタ1156は、LAN1152への有線または無線通信を容易にすることができ、また、このLAN1152は、無線アダプタ1156と通信するためにそれに設けられている無線アクセスポイントを含んでいる。WANネットワーキング環境で用いられる際に、コンピュータ1102は、モデム1158を含むか、WAN1154上の通信サーバに連結されるか、またはインターネットを媒介するなど、WAN1154を介して通信を設定するその他の手段を有する。内蔵型または外装型および有線または無線装置であってもよいモデム1158は、直列ポートインターフェース1142を介してシステムバス1108に連結される。ネットワーク化された環境において、コンピュータ1102について説明されたプログラムモジュールまたはその一部が遠隔メモリ/記憶装置1150に格納されることができる。示されたネットワーク連結は例示的なものであり、コンピュータの間に通信リンクを設定するその他の手段が使用可能であることは周知である。
【0138】
コンピュータ1102は、無線通信で配置されて動作する任意の無線装置または個体、例えば、プリンタ、スキャナ、デスクトップおよび/または携帯用コンピュータ、PDA(portable data assistant)、通信衛星、無線検出可能タグと関連した任意の装置または場所、および電話と通信をする動作をする。これは、少なくともWi-Fiおよびブルートゥース(登録商標)無線技術を含む。したがって、通信は、従来のネットワークのように予め定義された構造であるか、または単に少なくとも2個の装置間のアドホック通信(ad hoc communication)であってもよい。
【0139】
Wi-Fi(Wireless Fidelity)は、有線がなくてもインターネットなどへの連結を可能にする。Wi-Fiは、このような装置、例えば、コンピュータが室内および室外で、すなわち、基地局の通話圏内のいなかる所でもデータを送信および受信できるようにするセル電話のような無線技術である。Wi-Fiネットワークは、安全且つ信頼性があるとともに高速の無線連結を提供するために、IEEE 802.11(a、b、g、その他)という無線技術を用いる。コンピュータを互いに、インターネットにおよび有線ネットワーク(IEEE 802.3またはイーサネットを用いる)に連結させるためにWi-Fiが用いられることができる。Wi-Fiネットワークは、非認可2.4および5GHz無線帯域において、例えば、11Mbps(802.11a)または54Mbps(802.11b)データレートで動作するか、または両帯域(デュアル帯域)を含む製品にて動作することができる。
【0140】
本開示の技術分野における通常の知識を有するものであれば、これに開示された実施形態と関連して説明された多様な例示的な論理ブロック、モジュール、プロセッサ、手段、回路およびアルゴリズムステップが電子ハードウェア、(便宜上、ここでは「ソフトウェア」と称される)多様な形態のプログラムまたは設計コードまたはこれらの全ての結合により実現可能であることを理解することができる。ハードウェアおよびソフトウェアのこのような互換性を明らかに説明するために、多様な例示的なコンポーネント、ブロック、モジュール、回路およびステップがこれらの機能と関連して上記で一般的に説明された。このような機能がハードウェアまたはソフトウェアとして実現されるか否かは、特定のアプリケーションおよび全体システムに対して課される設計制約により左右される。本開示の技術分野における通常の知識を有する者であれば、それぞれの特定のアプリケーションに対して多様な方式で説明された機能を実現することができるが、このような実現の決定は、本開示の範囲から外れるものとして解釈してはならない。
【0141】
これに提示された多様な実施形態は、方法、装置、または標準プログラミングおよび/またはエンジニアリング技術を用いた製造物品(article)で実現されることができる。用語「製造物品」は、任意のコンピュータ読み取り可能な装置からアクセス可能なコンピュータプログラムまたは媒体(media)を含む。例えば、コンピュータ読み取り可能な記憶媒体は、磁気記憶装置(例えば、ハードディスク、フロッピーディスク、磁気ストリップなど)、光学ディスク(例えば、CD、DVDなど)、スマートカード、およびフラッシュメモリ装置(例えば、EEPROM、カード、スティック、キードライブなど)を含むが、これらに制限されるものではない。用語「機械読み取り可能な媒体」は、命令および/またはデータを格納、保有、および/または伝達可能な無線チャネルおよび多様な他の媒体を含むが、これらに制限されるものではない。
【0142】
提示されたプロセスに存在するステップの特定の順序または階層構造は、例示的な接近の一例であることを理解しなければならない。設計の優先順位に基づいて、本開示の範囲内で、プロセスに存在するステップの特定の順序または階層構造が再配列可能であることを理解しなければならない。添付された方法の請求項はサンプル順に多様なステップのエレメントを提供するが、提示された特定の順序または階層構造に限定されることを意味しない。
【0143】
提示された実施形態に関する説明は、任意の本開示の技術分野における通常の知識を有する者が本開示を利用または実施できるように提供される。このような実施形態に対する多様な変形は、本開示の技術分野における通常の知識を有する者に明らかなものであり、これに定義された一般的な原理は、本開示の範囲から外れずに他の実施形態に適用されることができる。それにより、本開示は、これに提示された実施形態に限定されるものではなく、これに提示された原理および新規の特徴と一貫する最も広義の範囲で解釈しなければならない。
【要約】 (修正有)
【課題】血管組織及びステントを正確に高速で自動抽出する画像分割装置を提供する。
【解決手段】画像分割装置は、少なくとも一つの既に設定されたオブジェクトを分割するように学習された分割モデル(segmentation model)を格納する格納部と、分割モデルに入力データを入力し、入力データにおいて少なくとも一つの既に設定されたオブジェクトを分割する少なくとも一つのプロセッサと、を含む。分割モデル300は、入力データの次元を減少させる少なくとも一つの次元減少ブロックを含むエンコーダ310と、少なくとも一つの次元減少ブロックから出力されるデータを用いて、エンコーダから出力される出力データの次元を増加させる少なくとも一つの次元増加ブロックを含むデコーダ320と、出力データの入力を受け、出力データに特定のオブジェクトが含まれているか否かを認識する補助分類モデル330と、を含む。
【選択図】
図2