(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公表特許公報(A)
(11)【公表番号】
(43)【公表日】2024-01-31
(54)【発明の名称】医療映像を利用した人体成分分析方法及びその装置
(51)【国際特許分類】
A61B 6/03 20060101AFI20240124BHJP
G16H 50/20 20180101ALI20240124BHJP
G16H 30/00 20180101ALI20240124BHJP
【FI】
A61B6/03 560J
G16H50/20
G16H30/00
A61B6/03 560T
【審査請求】有
【予備審査請求】未請求
(21)【出願番号】P 2023543368
(86)(22)【出願日】2021-05-06
(85)【翻訳文提出日】2023-07-18
(86)【国際出願番号】 KR2021005668
(87)【国際公開番号】W WO2022158654
(87)【国際公開日】2022-07-28
(31)【優先権主張番号】10-2021-0008102
(32)【優先日】2021-01-20
(33)【優先権主張国・地域又は機関】KR
(81)【指定国・地域】
(71)【出願人】
【識別番号】523272546
【氏名又は名称】メディカルアイピー・カンパニー・リミテッド
(74)【代理人】
【識別番号】100108453
【氏名又は名称】村山 靖彦
(74)【代理人】
【識別番号】100110364
【氏名又は名称】実広 信哉
(74)【代理人】
【識別番号】100133400
【氏名又は名称】阿部 達彦
(72)【発明者】
【氏名】サン・ジュン・パク
(72)【発明者】
【氏名】ヒュク・ヒ・イ
(72)【発明者】
【氏名】スン・ホ・ユン
【テーマコード(参考)】
4C093
5L099
【Fターム(参考)】
4C093AA22
4C093AA26
4C093CA50
4C093DA02
4C093DA10
4C093FF16
5L099AA03
5L099AA26
(57)【要約】
医療映像を利用した人体成分分析方法及びその装置に係り、該人体成分分析装置は、学習用医療映像から筋肉や脂肪の人体組織領域をラベリングした学習データを利用し、第1人工知能モデルを学習させた後、第1人工知能モデルを利用し、検査対象医療映像から人体組織を区分し、検査対象医療映像の人体組織の面積、体積または重さに基づいて把握された人体成分情報を出力する。本発明は、ソウル特別市ソウル産業振興院2020年人工知能技術事業化支援事業(CY20053)「CT映像基盤代謝症候群、骨多孔症、筋減少症の機会検診人工知能検証及びその事業化」を介して開発された技術である。
【特許請求の範囲】
【請求項1】
学習用医療映像において、皮膚、骨、内臓臓器、血管、筋肉や脂肪のうち少なくとも1以上の人体組織領域をラベリングした学習データを利用し、第1人工知能モデルを学習させる段階と、
検査対象医療映像の入力を受ける段階と、
前記第1人工知能モデルを利用し、前記検査対象医療映像から人体組織を区分する段階と、
前記検査対象医療映像の人体組織の面積、体積または重さに基づいて把握された人体成分情報を出力する段階と、を含むことを特徴とする医療映像を利用した人体成分分析方法。
【請求項2】
前記人体組織を区分する段階は、前記第1人工知能モデルによって区分された第1人体組織を少なくとも1以上の人工知能モデルが順次連結されたカスケードモデルに入力し、第2人体組織に細分化する段階を含み、
前記人体成分情報を出力する段階は、前記第1人体組織及び前記第2人体組織のうち少なくとも一つに係わる人体成分情報を把握する段階を含むことを特徴とする請求項1に記載の医療映像を利用した人体成分分析方法。
【請求項3】
前記カスケードモデルは、順次連結された少なくとも2以上の人工知能モデルを含むことを特徴とする請求項2に記載の医療映像を利用した人体成分分析方法。
【請求項4】
前記学習用医療映像または前記検査対象医療映像は、人体の全体または一定領域を撮影したCT(computed tomography)映像であることを特徴とする請求項1に記載の医療映像を利用した人体成分分析方法。
【請求項5】
前記出力する段階は、
人体の横断面に係わる人体成分情報を横断面位置別に表示して出力する段階を含むことを特徴とする請求項1に記載の医療映像を利用した人体成分分析方法。
【請求項6】
前記第1人工知能モデルを学習させる段階は、皮膚、骨、内臓臓器、血管、筋肉や脂肪のうち少なくとも1以上の領域をラベリングした学習データを利用し、前記第1人工知能モデルを学習させる段階を含むことを特徴とする請求項1に記載の医療映像を利用した人体成分分析方法。
【請求項7】
脊椎を基準に特定位置をラベリングした学習データを利用して学習させた第2人工知能モデルに、前記第1人工知能モデルを介して区分した前記検査対象医療映像の骨領域を入力し、特定位置を把握する段階をさらに含むことを特徴とする請求項1に記載の医療映像を利用した人体成分分析方法。
【請求項8】
前記第1人工知能モデルを介して学習用医療映像から抽出した骨領域に特定位置をラベリングし、前記第2人工知能モデルの学習データを生成する段階をさらに含むことを特徴とする請求項7に記載の医療映像を利用した人体成分分析方法。
【請求項9】
脊椎を基準に一定領域をラベリングした学習データを利用して学習させた第3人工知能モデルに、前記第1人工知能モデルを介して区分した前記検査対象医療映像の骨領域を入力し、一定領域を把握する段階をさらに含むことを特徴とする請求項1に記載の医療映像を利用した人体成分分析方法。
【請求項10】
前記第1人工知能モデルを介して学習用医療映像から抽出した骨領域に一定領域をラベリングし、前記第3人工知能モデルの学習データを生成する段階をさらに含むことを特徴とする請求項9に記載の医療映像を利用した人体成分分析方法。
【請求項11】
前記一定領域は、脊椎を基準に定義された腹部領域であることを特徴とする請求項9に記載の医療映像を利用した人体成分分析方法。
【請求項12】
医療画像から、皮膚、骨、内臓臓器、血管、筋肉や脂肪のうち少なくとも1以上の人体組織領域をラベリングした学習データを利用して学習された第1人工知能モデルと、
検査対象医療映像を前記第1人工知能モデルに入力し、筋肉や脂肪または骨の人体組織を区分する第1分類部と、
区分された人体組織に基づいて人体成分情報を把握して出力する人体成分把握部と、を含むことを特徴とする人体成分分析装置。
【請求項13】
少なくとも1以上の人工知能モデルを順次連結したカスケードモデルをさらに含み、
前記第1分類部は、前記第1人工知能モデルによって区分された第1人体組織を前記カスケードモデルに入力し、前記第1人体組織を少なくとも1以上の細部化された第2人体組織に区分し、
前記人体成分把握部は、前記第1人体組織及び前記第2人体組織のうち少なくとも一つに係わる人体成分情報を把握することを特徴とする請求項12に記載の人体成分分析装置。
【請求項14】
脊椎に基づいて特定の位置をラベリングした学習データを利用して学習された第2人工知能モデルと、
前記検査対象医療映像の骨領域を前記第2人工知能モデルに入力し、特定位置を把握する第2分類部と、をさらに含み、
前記人体成分把握部は、前記第2分類部によって把握された特定位置に係わる人体成分情報を把握することを特徴とする請求項12に記載の人体成分分析装置。
【請求項15】
医療映像において、皮膚、骨、内臓臓器、血管、筋肉や脂肪のうち少なくとも1以上の人体組織領域をラベリングし、前記第1人工知能モデルの学習データを生成する第1学習データ生成部と、
前記第1人工知能モデルを利用して区分した骨領域に特定位置をラベリングし、前記第2人工知能モデルの学習データを生成する第2学習データ生成部と、をさらに含むことを特徴とする請求項14に記載の人体成分分析装置。
【請求項16】
脊椎を基準に一定領域をラベリングした学習データを利用して学習された第3人工知能モデルと、
前記検査対象医療映像の骨領域を前記第3人工知能モデルに入力し、一定領域を把握する第3分類部と、をさらに含み、
前記人体成分把握部は、前記第3分類部によって把握された一定領域に係わる人体成分情報を把握することを特徴とする請求項12に記載の人体成分分析装置。
【請求項17】
医療映像において、皮膚、骨、内臓臓器、血管、筋肉や脂肪のうち少なくとも1以上の人体組織領域をラベリングし、前記第1人工知能モデルのための学習データを生成する第1学習データ生成部と、
前記第1人工知能モデルを利用して区分した骨領域に一定領域をラベリングし、前記第3人工知能モデルの学習データを生成する第3学習データ生成部と、をさらに含むことを特徴とする請求項16に記載の人体成分分析装置。
【請求項18】
請求項1に記載の方法を実行するためのコンピュータプログラムを記録したコンピュータで読み取り可能な記録媒体。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、人体成分分析に係り、さらに詳細には、医療映像を利用し、人体成分を分析する方法及びその装置に関する。
【背景技術】
【0002】
一般的に、人体成分分析は、生体インピーダンスを測定し、体脂肪及び筋肉量などを算出する方法によってなされる。生体インピーダンス測定方法は、被測定者の身体に電極を連結し、微細な電流を流して抵抗値を測定し、筋肉量と脂肪量を推定する方法である。しかしながら、生体インピーダンス方法は、測定中、被測定者の動きや、筋肉の緊張程度によって測定精度が異なり、また皮膚面積、個別内臓臓器や骨などの成分を測定するという問題点が存在する。
【0003】
本発明は、ソウル特別市ソウル産業振興院2020年人工知能技術事業化支援事業(CY20053)「CT映像基盤代謝症候群、骨多孔症、筋減少症の機会検診人工知能検証及びその事業化」を介して開発された技術である。
【発明の概要】
【発明が解決しようとする課題】
【0004】
本発明がなそうとする技術的課題は、医療映像を利用し、正確な人体成分を測定することができる方法及びその装置を提供するところにある。
【課題を解決するための手段】
【0005】
前述の技術的課題を達成するための本発明の実施形態による医療画像を利用した人体成分分析方法の一例は、学習医療画像から、皮膚、骨、内臓臓器、血管、筋肉または脂肪のうち少なくとも1以上の人体組織領域をラベリングした学習データを利用し、第1人工知能モデルを学習させる段階と、検査対象医療映像を入力される段階と、前記第1人工知能モデルを利用し、前記検査対象医療映像から人体組織を区分する段階と、前記検査対象医療映像の人体組織の面積、体積または重さに基づいて把握された人体成分情報を出力する段階と、を含む。
【0006】
前記技術的課題を達成するための本発明の実施形態による人体成分分析装置の一例は、医療映像において、皮膚、骨、内臓臓器、血管、筋肉や脂肪のうち少なくとも1以上の人体組織領域をラベリングした学習データを利用して学習された第1人工知能モデルと、検査対象医療映像を前記第1人工知能モデルに入力し、人体組織を区分する第1分類部と、前記第1分類部によって区分された人体組織に基づいて人体成分情報を把握して出力する人体成分把握部と、を含む。
【発明の効果】
【0007】
本発明の実施形態によれば、医療映像を分析し、人体の全体または一部に係わる人体成分を正確に把握することができる。該医療映像から人体成分を把握するので、被測定者の過去の医療映像が存在すれば、過去の人体成分も把握することができる。また、一定期間累積された医療映像を利用し、一定期間の間の人体成分変化を把握することができる。
【図面の簡単な説明】
【0008】
【
図1】本発明の実施形態による人体成分分析装置の一例を図示した図である。
【
図2】本発明の実施形態による人体成分分析方法の一例を示したフローチャートである。
【
図3】本発明の実施形態による第1人工知能モデルの一例を図示した図である。
【
図4】本発明の実施形態による第1人工知能モデルの一例を図示した図である。
【
図5】本発明の実施形態による、人体の一部に係わる人体成分を把握する方法の一例を図示した図である。
【
図6】本発明の実施形態による第2人工知能モデルのための学習データの一例を図示した図である。
【
図7】本発明の実施形態による第3人工知能モデルのための学習データの一例を示した図である。
【
図8】本発明の実施形態による人工知能モデルのための学習データの生成方法の一例を図示した図である。
【
図9】本発明の実施形態による生体情報の一例を図示した図である。
【
図10】本発明の実施形態による人体成分分析装置の第1実施形態の構成を図示した図である。
【
図11】本発明の実施形態による人体成分分析装置の第2実施形態の構成を図示した図である。
【
図12】本発明の実施形態による人体成分分析装置の第3実施形態の構成を図示した図である。
【
図13】本発明の実施形態による人体成分分析装置の第4実施形態の構成を図示した図である。
【
図14】本発明の実施形態による人体組織分割方法の一例を図示した図面である。
【発明を実施するための形態】
【0009】
以下において、添付図面を参照し、本発明の実施形態による医療映像を利用した人体成分分析方法及びその装置について詳細に説明する。
【0010】
図1は、本発明の実施形態による人体成分分析装置の一例を図示した図面である。
【0011】
図1を参照すれば、人体成分分析装置100は、医療映像110の入力を受ければ、そこから人体成分を分析して出力する。人体成分分析装置100は、プロセッサ、メモリ、入出力装置などを含む多様な種類のコンピューティング装置によっても具現されたり、クラウドシステムなどによっても具現されたりする。他の例として、人体成分分析装置100は、CT(computed tomography)機器のような医療装備の一部としても具現される。それ以外にも、人体成分分析装置100は、本実施形態の方法が具現されたソフトウェアを含む各種保存装置(例えば、USBメモリなど)によっても具現されるというように多様な形態でありうる。
【0012】
医療映像110は、人体の断面を撮影した三次元医療映像である。該三次元医療映像の一例として、CT映像、MRI(magnetic resonance imaging)映像などが存在する。それら以外にも、医療映像110は、人体の断面を撮影した多様な形態の映像でありうる。以下においては、人工知能モデルの学習に使用される医療映像を、学習用医療映像と命名し、人体成分把握のために使用される医療映像を、検査対象医療映像と命名する。
【0013】
人体成分情報120は、人体組織の面積、重さ、体積、または人体の脂肪量、筋肉量、骨格筋量、内臓脂肪量、特定臓器の体積、皮膚面積のような各種人体組織に係わる情報を意味する。人体成分分析装置100は、人体成分情報120を、文字やグラフのような多様な形態で出力することができ、その一例が
図9に示されている。
【0014】
図2は、本発明の実施形態による人体成分分析方法の一例を示したフローチャートである。
【0015】
図2を参照すれば、人体成分分析装置100は、医療映像において、皮膚、骨、内臓臓器、血管、筋肉や脂肪のうち少なくとも1以上の人体組織を区分する第1人工知能モデルを学習させる(S200)。該第1人工知能モデルの一例が、
図3及び
図4に示されている。
【0016】
人体成分分析装置100は、学習完了された第1人工知能モデルに、検査対象医療映像を入力し、脂肪や筋肉などの人体組織を区分する(S210)。例えば、該検査対象医療映像は、人体の全体領域または一部領域に係わる複数のCT映像によって構成され、人体成分分析装置100は、複数のCT映像を第1人工知能モデルに入力し、それぞれのCT映像において、皮膚、内臓臓器、脂肪や筋肉のような人体組織を区分した結果を得ることができる。
【0017】
人体成分分析装置100は、第1人工知能モデルを利用し、検査対象医療映像から区分された人体組織の面積、体積または重さなどを把握したり、それを利用し、人体成分情報を把握したりする(S230)。例えば、該検査対象医療映像が人体の横断面に係わる複数のCT画像によって構成されている場合、人体成分分析装置100は、それぞれのCT画像から得られた内臓臓器、脂肪または筋肉のような人体組織の面積と、各CT画像の間隔とを利用し、体積を求めることができ、該体積と、それぞれの人体組織の密度(すなわち、特定内臓臓器、脂肪または筋肉などの密度)とを利用し、重量を求めたり、明るさ値を利用し、品質を明らかにしたりすることができる。
【0018】
図3及び
図4は、本発明の実施形態による第1人工知能モデルの一例を図示した図面である。
【0019】
図3及び
図4を共に参照すれば、第1人工知能モデル300は、ディープラーニングまたはマシンラーニングのような学習過程を介して生成されるモデルである。第1人工知能モデル300は、CNN(convolutional neural network)、DenseNet、U-net、GoogLeNet、敵対的生成ネットワーク(Generative adversarial network)のような多様なアーキテクチャによっても具現される。例えば、人工知能モデル200がCNNによて具現される場合、人工知能モデル300は、学習データ400を利用し、人工神経網の連結加重値を調整する学習過程を遂行する。
【0020】
第1人工知能モデル300は、皮膚、骨、内臓臓器、血管、筋肉や脂肪のうち少なくとも1以上の人体組織領域をラベリングした学習データ400を利用して学習させることができる。例えば、医療映像において、脂肪領域を区分する第1人工知能モデルを生成しようとする場合、学習用医療映像に脂肪領域をラベリングした学習データ400を利用し、第1人工知能モデル300を学習させることができる。他の例として、皮膚、脂肪と共に、筋肉や骨または神経のような複数の人体組織を同時に区分する第1人工知能モデル300を生成しようとする場合には、該学習用医療映像に、区分しようとするそれぞれの人体組織をラベリングした学習データ400を利用し、第1人工知能モデルを学習させることができる。
【0021】
学習完了された第1人工知能モデル300は、検査対象医療映像310の入力を受ければ、検査対象医療映像310から各人体組織を区分した結果320を出力する。他の実施形態として、検査対象医療映像310から人体組織を区分した結果は、第1人工知能モデルの追加学習のための学習データとしても活用される。
【0022】
図5は、本発明の実施形態により、人体の特定部位に係わる人体成分を把握する方法の一例を図示した図面である。
【0023】
図5を参照すれば、人体成分分析装置100は、第1人工知能モデル500と共に、第2人工知能モデル510または第3人工知能モデル520を含むものでもある。例えば、人体成分分析装置100は、第1人工知能モデル500と第2人工知能モデル510とを含むか(
図11)、第1人工知能モデル500と第3人工知能モデル520とを含むか(
図12)、あるいは第1人工知能モデル500、第2人工知能モデル510、及び第3人工知能モデル530のいずれも含むように実装することができる。ただし、本実施形態は、説明の便宜のために、第1人工知能モデル500、第2人工知能モデル510及び第3人工知能モデル530をいずれも含む場合について説明する。
【0024】
第1人工知能モデル500は、人体組織を区分するモデルである一方、第2人工知能モデル510及び第3人工知能モデル520は、人体の特定位置を把握するモデルでもある。すなわち、第1人工知能モデル500は、人体組織の分割(segmentation)モデルであり、第2人工知能モデル510及び第3人工知能モデル520は、解剖学的位置把握(anatomic localization)モデルでもある。
【0025】
第2人工知能モデル510は、脊椎を基準に特定位置をラベリングして生成された学習データを利用して学習されたモデルである。例えば、
図6のように、脊椎の矢状面を基準に、脊椎の特定位置610(例えば、L3位置)をラベリングした学習データを利用し、第2人工知能モデル510を学習させることができる。その場合、学習完了された第2人工知能モデル510は、脊椎に係わる情報(例えば、脊椎映像、または脊椎領域に係わるボクセルデータなど)を入力されれば、L3位置550を予測して出力する。
【0026】
第3人工知能モデル520は、脊椎を基準に一定領域をラベリングして生成した学習データを利用して学習されたモデルである。例えば、
図7のように、脊椎の冠状面を基準に、脊椎の区間領域710(例えば、腰区間領域)をラベリングした学習データを利用し、第3人工知能モデルを学習させることができる。その場合、学習完了された第3人工知能モデル520は、骨に係わる情報(例えば、骨映像、または骨領域に係わるボクセルデータなど)を入力されれば、肋骨と骨盤骨との間の腰区間領域560を予測して出力する。
【0027】
人体成分分析装置100は、第2人工知能モデル510または第3人工知能モデルに入力する骨領域(例えば、脊椎領域)に係わる情報を、第1人工知能モデル500を利用して生成する。例えば、人体成分分析装置100は、皮膚、内臓臓器、脂肪や筋肉のような人体組織と共に、骨領域も併せて区分することができるように学習された第1人工知能モデル500を利用し、検査対象医療映像530からの脊椎を含む骨領域540を区分することができる。
【0028】
例えば、人体成分分析装置100は、検査対象医療映像530で区分された骨領域540のボクセル値を「1」に設定し、検査対象医療映像530の残り領域のボクセル値を「0」に設定した骨領域に係わる情報を生成した後、第2人工知能モデル510または第3人工知能モデル520に入力し、検査対象医療映像530の特定位置または特定領域を把握することができる。ここで、ボクセル値「1」とボクセル値「0」は、骨領域と残り領域とを区分するための値に過ぎないものであるが、それに限定されるものではない。検査対象医療映像530において、骨領域と残り領域とを区分するために、ボクセル値は、多様な形態にも設定される。他の実施形態として、人体成分分析装置100は、検査対象医療映像530の骨領域のボクセル値は、そのまま維持し、検査対象医療映像の残り領域のボクセル値を「0」に設定した骨領域情報を生成することができる。
【0029】
人体成分分析装置100は、第2人工知能モデル510または第3人工知能モデル530を介して把握された検査対象医療映像の一定位置または一定領域に基づき、人体の一定位置または一定領域の人体成分を把握して出力することができる。例えば、検査対象医療映像530が、人体の全体、または腹部領域に係わる複数のCT映像によって構成されている場合、人体成分分析装置100は、第2人工知能モデル510または第3人工知能モデル520を介し、検査対象医療映像を構成する複数のCT映像のうち、一定位置に該当するCT映像、または一定領域に該当する複数のCT映像を把握することができる。人体成分分析装置100は、一定位置または一定領域に該当する複数のCT映像で区分された人体組織を基に、人体成分を把握することができる。例えば、一定位置550は、脊椎を基準に定義されたへそ位置(例えば、脊椎のL3位置)であり、一定領域560は、脊椎を基準に定義された腹部領域(例えば、肋骨と骨盤骨との間)でもある。
【0030】
図6は、本発明の実施形態による第2人工知能モデルのための学習データの一例を図示した図面である。
【0031】
図6を参照すれば、第2人工知能モデルは、解剖学的位置を把握するモデルであるので、第2人工知能モデルのための学習データは、脊椎を基準に一定位置(例えば、L3)610をラベリングして生成されうる。例えば、人体成分分析装置100は、脊椎を含む映像600を画面に表示し、ユーザから特定位置610を入力され、学習データを生成することができる。
【0032】
本実施形態は、脊椎の矢状面を表示した学習データを図示しているが、該学習データは、必ずしも矢状面の脊椎映像である必要はなく、骨領域を基準に特定位置をラベリングした学習データであればよい。例えば、
図7のように、冠状面を基準に一定位置をラベリングした学習データが利用されうる。また、本実施形態は、理解の一助とするために、脊椎全体の映像を含む学習データの例を図示しているが、該学習データは、骨領域全体ではなく、骨領域の一部領域の映像を基準に特定位置をラベリングして生成することができる。他の実施形態として、第2人工知能モデルの学習データは、第1人工知能モデルの人体組織の区分結果を利用して生成されうる。それについては、
図8でさらに説明する。
【0033】
図7は、本発明の実施形態による第3人工知能モデルのための学習データの一例を図示した図面である。
【0034】
図7を参照すれば、第3人工知能モデルは、解剖学的位置を把握するモデルであるので、第2人工知能モデルのための学習データは、骨領域を基準に一定領域(例えば、肋骨と骨盤骨との間の領域など)をラベリングして生成されうる。例えば、人体成分分析装置100は、画面に脊椎映像700を表示し、ユーザから一定領域710を選択され、学習データを生成することができる。
【0035】
本実施形態は、骨領域の冠状面を表示した学習データを図示しているが、それに限定されるものではない。例えば、
図6のような矢状面の骨領域映像を基準に一定領域をラベリングして学習データを生成することができる。また、該学習データは、骨領域の全体映像ではなく、骨領域の一部映像につき、一定領域をラベリングして生成することができる。他の実施形態として、第3人工知能モデルの学習データは、第1人工知能モデルの人体組織の区分結果を利用しても生成される。それについては、
図8でさらに説明する。
【0036】
図8は、本発明の実施形態による人工知能モデルのための学習データの生成方法の一例を図示した図面である。
【0037】
図8を参照すれば、第1人工知能モデル820の学習のための第1学習データ810は、学習用医療映像において、皮膚、内蔵臓器、脂肪や筋肉、骨のような人体組織領域をラベリングして(800)生成することができる。例えば、ユーザが直接学習用医療映像において、皮膚、内臓臓器、脂肪や筋肉のような人体組織領域を区分してラベリングすることができる。または、骨、内臓臓器、脂肪や筋肉のような人体組織を区分する従来の多様な分割アルゴリズムを利用し、医療映像において各人体組織を区分し、区分された人体組織に、脂肪や筋肉などの情報をラベリングし、第1学習データを自動生成することができる。
【0038】
第2人工知能モデルの学習のための第2学習データ850と、第3人工知能モデルの学習のための第3学習データ870は、第1人工知能モデル820を利用して生成されうる。例えば、第1人工知能モデル820は、医療映像において、脊椎を含む骨領域830を区分するモデルでもある。その場合、人体成分分析装置100は、第1人工知能モデル820を介し、学習医療映像から区分された骨(すなわち、脊椎)領域を画面に表示し、ユーザから、一定位置(例えば、L3位置)840または一定領域(例えば、肋骨と骨盤骨との間の腰領域)860を入力され、第2学習データ850または第3学習データ870を生成することができる。
【0039】
図9は、本発明の実施形態による生体情報の一例を図示した図面である。
【0040】
図9を参照すれば、人体成分分析装置100は、第1人工知能モデルを介して区分されたそれぞれの人体組織に基づき、皮膚面積、内臓臓器面積、骨格筋面積、内臓脂肪面積のような人体成分情報を把握し、それを数字またはグラフのような多様な形態で表示することができる。
【0041】
人体成分分析装置100は、人体の横断面を撮影した各医療映像において、脂肪や筋肉のような人体組織を区分するので、人体の横断面を基準に人体成分情報を把握し、横断面位置別に表示することができる(900)。他の実施形態として、人体成分分析装置は、イメージファイル、または「マイクロソフト社」のエクセルファイル形態で、人体成分情報を出力することができる。
【0042】
図10は、本発明の実施形態による人体成分分析装置の第1実施形態の構成を図示した図面である。
【0043】
図10を参照すれば、人体成分分析装置100は、第1人工知能モデル1000、第1分類部1010、人体成分把握部1020、第1学習データ生成部1030及び第1学習部1040を含む。人体成分分析装置100が、学習完了された第1人工知能モデル1000を利用する場合、第1学習データ生成部1030及び第1学習部1040は、省略されうる。
【0044】
第1人工知能モデル1000は、検査対象医療映像の入力を受ければ、皮膚、内臓臓器、骨、脂肪や筋肉のような人体組織を区分するモデルである。第1人工知能モデル1000の一例が、
図3及び
図4に示されている。
【0045】
第1分類部1010は、学習完了された第1人工知能モデル1000に、検査対象医療映像を入力し、皮膚、内臓臓器、骨、脂肪や筋肉などのうち少なくとも1以上の人体組織を区分する。例えば、検査対象医療映像が、人体の横断面を撮影した複数のCT映像によって構成されている場合、第1分類部1010は、検査対象医療映像を構成するそれぞれのCT映像を第1人工知能モデル1000に入力し、それぞれのCT映像から、脂肪や筋肉のような各人体組織の区分結果を獲得することができる。
【0046】
人体成分把握部1020は、第1分類部1010によって把握された検査対象医療映像の人体組織区分結果から、皮膚、内臓臓器、骨、脂肪や筋肉などの面積、体積、または重さ、質などを含む人体成分情報を把握して出力する。
【0047】
第1学習データ生成部1030は、学習用医療映像において、皮膚、内臓臓器、骨、脂肪や筋肉などの人体組織領域をラベリングした第1学習データを生成する。例えば、第1学習データ生成部1030は、学習用医療映像を画面に表示し、ユーザから、各人体組織の領域を入力され、学習データを生成することができる。または、第1学習データ生成部1030は、それぞれの人体組織に係わる領域を区分する従来の多様な領域分割アルゴリズムを適用し、学習用医療映像で各領域を自動区分してラベリングし、第1学習データを生成することができる。
【0048】
第1学習部1040は、第1学習データを利用し、第1人工知能モデル1000を学習させる。
【0049】
図11は、本発明の実施形態による人体成分分析装置の第2実施形態の構成を図示した図面である。
【0050】
図11を参照すれば、人体成分分析装置100は、第1人工知能モデル1100、第1分類部1110、第2人工知能モデル1120、第2分類部1130、人体成分把握部1140、第2学習データ生成部1150及び第2学習部1160を含む。人体成分分析装置100が、学習完了された第2人工知能モデル1120を利用する場合、第2学習データ生成部1150及び第2学習部1160は、省略されうる。他の実施形態として、人体成分分析装置100は、
図10で説明した第1学習データ生成部1030及び第1学習部1040をさらに含むものでもある。
【0051】
第1人工知能モデル1100及び第1分類部1110は、
図10で説明した構成と同一であるので、それに係わる説明は、省略する。
【0052】
第2人工知能モデル1120は、骨領域情報が入力されれば、骨領域の特定位置を把握して出力するモデルである。第2人工知能モデル1120の一例が、
図5及び
図6に示されている。
【0053】
第2分類部1130は、第2人工知能モデル1120に骨領域情報を入力し、一定位置を把握する。例えば、第2分類部1130は、脊椎のL3位置を出力する第2人工知能モデルに脊椎情報を入力し、L3位置を把握することができる。第2人工知能モデル1120に入力される脊椎情報は、第1分類部1110が、第1人工知能モデル1100を利用して区分した検査対象医療映像の骨領域に係わる情報(例えば、脊椎を含む骨映像、または骨領域のボクセル情報)である。例えば、第1人工知能モデル1100は、検査対象医療映像から、脂肪や筋肉などの人体組織だけではなく、骨領域も共に区分するモデルであり、第2分類部1130は、第1分類部1110が出力した骨領域の情報を第2人工知能モデル1120に入力し、検査対象医療映像の一定位置を把握することができる。
【0054】
人体成分把握部1140は、第2分類部1120を介して把握された一定位置に該当する検査対象医療映像と、第1分類部1110を介して把握された検査対象医療映像との人体組織領域情報に基づき、人体の一定位置に該当する人体成分情報を把握して出力することができる。
【0055】
第2学習データ生成部1150は、第2人工知能モデル1120のための第2学習データを生成する。該第2学習データは、脊椎全体の映像、または脊椎一部の映像に特定位置をラベリングして生成することができる。例えば、第2学習データ生成部1150は、第1人工知能モデル1100を介し、学習用医療映像から区分された骨領域を利用して生成することができる。第1人工知能モデル1100を利用した第2人工知能モデル1120の第2学習データ生成方法の一例が
図8に示されている。
【0056】
第2学習部1160は、第2学習データを利用し、第2人工知能モデル1120を学習させる。
【0057】
図12は、本発明の実施形態による人体成分分析装置の第3実施形態の構成を図示した図面である。
【0058】
図12を参照すれば、人体成分分析装置100は、第1人工知能モデル1200、第1分類部1210、第3人工知能モデル1220、第3分類部1230、人体成分把握部1240、第3学習データ生成部1250及び第3学習部1260を含む。人体成分分析装置100が学習完了された第3人工知能モデル1220を利用する場合、第3学習データ生成部1250及び第3学習部1260は、省略されうる。他の実施形態として、人体成分分析装置100は、
図10で説明した第1学習データ生成部1030及び第1学習部1040をさらに含むものでもある。
【0059】
第1人工知能モデル1200及び第1分類部1210は、
図10で説明した構成と同一であるので、それに係わる説明は、省略する。
【0060】
第3人工知能モデル1220は、脊椎情報が入力されれば、脊椎の一定領域を把握して出力するモデルである。第3人工知能モデル1220の一例が、
図5及び
図7に示されている。
【0061】
第3分類部1230は、第3人工知能モデル1220に脊椎情報を入力し、一定領域を把握する。例えば、第3分類部1230は、脊椎のL3を基準に、上下一定(すなわち、腹部領域)領域を出力する第3人工知能モデルに脊椎情報を入力し、検査対象医療映像の腹部領域を把握することができる。第3人工知能モデル1220に入力される脊椎情報は、第1分類部1210によって区分された脊椎領域に係わる情報である。例えば、第1人工知能モデル1200は、検査対象医療映像から、脂肪や筋肉のような人体組織だけではなく、骨領域も共に区分するモデルであり、第3分類部1230は、第1分類部1210が出力した骨領域の情報を第3人工知能モデル1220に入力し、検査対象医療映像の一定領域を把握することができる。
【0062】
人体成分把握部1240は、第3分類部1230を介して把握した一定領域に該当する検査対象医療映像と、第1分類部1210を介して把握した検査対象医療映像との人体組織領域情報に基づいて、人体の一定領域に該当する人体成分情報を把握することができる。
【0063】
第3学習データ生成部1250は、第3人工知能モデル1220のための第3学習データを生成する。該第3学習データは、脊椎全体の映像、または脊椎一部の映像に、一定領域をラベリングして生成されうる。例えば、第3学習データ生成部1250は、第1人工知能モデル1200を介し、学習用医療映像から区分された骨領域を利用して生成することができる。第1人工知能モデル1200を利用した第3学習データの生成方法の一例が、
図8に示されている。
【0064】
第3学習部1260は、第3学習データを利用し、第3人工知能モデル1220を学習させる。
【0065】
図13は、本発明の実施形態による人体成分分析装置の第4実施形態の構成を図示した図面である。
【0066】
図13を参照すれば、人体成分分析装置100は、第1人工知能モデル1300、第1分類部1310、第2人工知能モデル1320、第2分類部1330、第3人工知能モデル1340、第3分類部1350及び人体成分把握部1360を含む。他の実施形態として、人体成分分析装置100は、それぞれの人工知能モデル1300,1320,1340を学習させる学習部をさらに含むものでもある。
【0067】
第1人工知能モデル1300及び第1分類部1310は、
図10に示されている通りであり、第2人工知能モデル1320及び第2分類部1330は、
図11に示されている通りである。そして、第3人工知能モデル1340及び第3分類部1350は、
図12に示されている通りである。
【0068】
人体成分把握部1360は、第1分類部1310を介して把握した検査対象医療映像のそれぞれの人体組織領域情報、第2分類部1330を介して把握した検査対象医療映像の一定位置情報、及び第3分類部1350を介して把握した検査対象医療映像の一定領域情報に基づき、人体の一定位置または一定領域に係わる人体成分情報を把握することができる。
【0069】
図14は、本発明の実施形態による人体組織分割方法の一例を図示した図面である。
【0070】
図14を参照すれば、人体成分分析装置100は、第1人工知能モデル1400とカスケードモデル1410とを含む。第1人工知能モデル1400は、
図3で説明した第1人工知能モデル300と同一でもある。カスケードモデル1410は、少なくとも1以上の人工知能モデル1420,1422が順次連結された構造を有する。第2人工知能モデル1420の出力値は、第3人工知能モデルの入力値となり、そのような方法により、第N-1人工知能モデルの出力値は、第N人工知能モデル1422の入力値となる。カスケードモデル1410に順次接続された人工知能モデル1420,1422の個数は、実施形態により、多様にも変形される。ここで、カスケードモデル1410は、1つの人工知能モデル1420によっても構成されるということは、言うまでもない。
【0071】
図5などで説明した第2人工知能モデル510と第3人工知能モデル520は、人体の解剖学的位置を把握するモデルであるが、本実施形態のカスケードモデル1410の順次連結された複数の人工知能モデル1420,1422は、第1人工知能モデルが区分した人体組織を細部分割するモデルである。すなわち、第1人工知能モデル1400は、医療映像から、皮膚、骨、内臓臓器、血管、筋肉や脂肪のうち少なくとも1以上の人体組織領域を分割するモデルであり、カスケードモデル1410は、第1人工知能モデル1400によって区分された人体組織を細部化させるモデルである。
【0072】
一実施形態として、第1人工知能モデル1400は、医療映像から筋肉を区分するモデルであり、カスケードモデル1410は、第1人工知能モデル1400が区分した筋肉を、足の筋肉や、胴体の筋肉などに細分化させるモデルでもある。カスケードモデル1410に存在する人工知能モデル1420,1422の個数により、細部化段階は、異なりうる。例えば、該カスケードモデルが、2つの人工知能モデルによって構成されている場合、第2人工知能モデル1420は、筋肉を、胴体、足、腕などに区分するモデルであり、第3人工知能モデルは、足の筋肉を、さらにふくらはぎと太ももとに細分化させるモデルでもある。
【0073】
他の実施形態として、第1人工知能モデル1400は、医療映像から、各種内臓臓器を区分するモデルであり、カスケードモデル1410は、区分された内臓臓器を細分化させるモデルでもある。例えば、第1人工知能モデル1400が、医療映像から肺組織を区分すれば、カスケードモデル1410の第2人工知能モデル1422は、肺組織を、右肺と左肺とに区分し、第3人工知能モデルは、右肺を、上葉、下葉、中葉に区分することができる。
【0074】
さらに他の実施形態として、第1人工知能モデル1400は、医療映像から骨領域を区分するモデルであり、カスケードモデル1410の第2人工知能モデル1422は、骨領域から脊椎骨領域を区分するモデルであり、第3人工知能モデルは、脊椎骨を、頚椎、胸椎、腰椎に分離するモデルでもある。
【0075】
図10ないし
図13の第1人工知能モデル1000,1100,1200,1300は、本実施形態の第1人工知能モデル1400とカスケードモデル1410とに代替されうる。その場合、
図10ないし
図13の第1分類部1010,1110,1210,1310は、第1人工知能モデル1400を利用し、検査対象医療映像から第1人体組織を区分し、カスケードモデル1410のそれぞれの人工知能モデル1420,1422を利用し、第1人体組織を細分化させた第2人体組織ないし第N人体組織を得ることができる。人体成分把握部1020,1140,1240,1360は、第1人体組織ないし第N人体組織のうち少なくとも1以上の人体組織を利用し、人体成分を把握することができる。例えば、筋肉を把握するモデルである場合、人体成分把握部1020,1140,1240,1360は、第1人工知能モデルを介して得た第1人体組織領域を利用し、人体全体筋肉量を把握し、第2人工知能モデルを介して得た第2人体組織領域を利用し、腕や足などの筋肉量を把握し、第3人工知能モデルで得た第3人体組織領域を利用し、ふくらはぎと太ももとの筋肉量をそれぞれ把握することができる。
【0076】
他の実施形態として、第1人工知能モデルは、複数のカスケードモデルと連結され、それぞれのカスケードモデルの第2人工知能モデルは、複数の第3人工知能モデルと連結され、ツリー形態の構造にもなる。例えば、第1人工知能モデルが、骨、脂肪、筋肉をそれぞれ区分するモデルであれば、骨、脂肪、筋肉などをそれぞれ細分化させる第1カスケードモデル、第2カスケードモデル及び第3カスケードモデルが存在しうる。該第1カスケードモデルが骨を区分するモデルであり、該第1カスケードモデルの第2人工知能モデルは、骨を脊椎骨と肋骨とに区分するモデルであれば、該第1カスケードモデルの第2人工知能モデルは、脊椎骨を細分化させる第3-1人工知能モデルと、肋骨を細分化させる第3-2人工知能モデルとに連結されうる。そのように細分化させる人体組織の個数と、細部化段階とにより、ツリー形態の多様な形態の人工知能モデルの連結関係が生成されうる。
【0077】
本発明は、また、コンピュータで読み取り可能な記録媒体に、コンピュータで読み取り可能なコードでもっても具現される。該コンピュータで読み取り可能な記録媒体は、コンピュータシステムによって読み取り可能なデータが保存されるあらゆる種類の記録装置を含む。該コンピュータで読み取り可能な記録媒体の例としては、ROM(read-only memory)、RAM(random access memory)、CD-ROM(compact disc read only memory)、磁気テープ、フロッピーディスク、光データ保存装置などがある。また、該コンピュータで読み取り可能な記録媒体は、ネットワークに連結されたコンピュータシステムに分散され、分散方式でもって、コンピュータで読み取り可能なコードが保存されて実行されうる。
【0078】
以上、本発明について、その望ましい実施形態を中心に説明した。本発明が属する技術分野において通常の知識を有する者であるならば、本発明が、本発明の本質的な特性から逸脱しない範囲で変形された形態にも具現されるということを理解することができるであろう。従って、開示された実施形態は、限定的な観点ではなく、説明的な観点から考慮されなければならない。本発明の範囲は、前述の説明ではなく、特許請求の範囲に示されており、それと同等の範囲内にある全ての違いは、本発明に含まれたものであると解釈されなければならない。
【符号の説明】
【0079】
100 人体成分分析装置
110 医療映像
120 人体成分情報
【国際調査報告】