(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2022142832
(43)【公開日】2022-10-03
(54)【発明の名称】画像処理装置、プログラム及び方法
(51)【国際特許分類】
A61B 6/03 20060101AFI20220926BHJP
G06T 7/00 20170101ALI20220926BHJP
G06T 7/11 20170101ALI20220926BHJP
【FI】
A61B6/03 360T
A61B6/03 360J
G06T7/00 612
G06T7/11
【審査請求】未請求
【請求項の数】10
【出願形態】OL
(21)【出願番号】P 2021043053
(22)【出願日】2021-03-17
(71)【出願人】
【識別番号】594164542
【氏名又は名称】キヤノンメディカルシステムズ株式会社
(74)【代理人】
【識別番号】110001771
【氏名又は名称】弁理士法人虎ノ門知的財産事務所
(72)【発明者】
【氏名】渡部 恭子
【テーマコード(参考)】
4C093
5L096
【Fターム(参考)】
4C093AA22
4C093AA26
4C093CA04
4C093CA08
4C093CA35
4C093CA37
4C093FD03
4C093FD08
4C093FD09
4C093FD13
4C093FF12
4C093FF16
4C093FF28
4C093FF34
4C093FF35
4C093FG04
4C093FG13
4C093FG16
4C093FH02
4C093FH06
4C093FH07
5L096BA06
5L096BA13
5L096DA04
5L096FA02
(57)【要約】
【課題】処理時間を短縮すること。
【解決手段】実施形態の画像処理装置は、推論部と、学習部とを備える。推論部は、仮想患者モデルを用いて画像データに対してシード点を設定し、設定されたシード点を用いて推論を行う。学習部は、前記仮想患者モデルに含まれる臓器の領域の重心位置を前記推論部による推論結果から得られる臓器の領域の重心位置に基づいて補正することにより、前記仮想患者モデルに学習させる。
【選択図】
図1
【特許請求の範囲】
【請求項1】
仮想患者モデルを用いて画像データに対してシード点を設定し、設定されたシード点を用いて推論を行う推論部と、
前記仮想患者モデルに含まれる臓器の領域の重心位置を前記推論部による推論結果から得られる臓器の領域の重心位置に基づいて補正することにより、前記仮想患者モデルに学習させる学習部と、
を備える、画像処理装置。
【請求項2】
前記推論部は、前記画像データにおける前記仮想患者モデルに含まれる前記臓器の領域の補正された重心位置に前記シード点を設定し、設定された前記シード点を用いて推論を行う、
請求項1に記載の画像処理装置。
【請求項3】
前記学習部は、前記仮想患者モデルに含まれる2つの臓器の位置関係を前記推論結果から得られる2つの臓器の位置関係に基づいて補正する、
請求項1又は2に記載の画像処理装置。
【請求項4】
前記学習部は、前記仮想患者モデルに含まれる臓器のボリュームサイズを前記推論結果から得られる臓器のボリュームサイズに基づいて補正する、
請求項1~3のいずれか1つに記載の画像処理装置。
【請求項5】
前記学習部は、前記仮想患者モデルに含まれる臓器の領域の重心位置を、前記仮想患者モデルに含まれる臓器の領域の重心位置と前記推論結果から得られる臓器の領域の重心位置との差分に基づいて補正する、
請求項1~4のいずれか1つに記載の画像処理装置。
【請求項6】
前記学習部は、前記仮想患者モデルに含まれる2つの臓器の位置関係を、前記仮想患者モデルに含まれる2つの臓器の位置関係と前記推論結果から得られる2つの臓器の位置関係との差分に基づいて補正する、
請求項1~5のいずれか1つに記載の画像処理装置。
【請求項7】
前記学習部は、前記仮想患者モデルに含まれる臓器のボリュームサイズを、前記仮想患者モデルに含まれる臓器のボリュームサイズと前記推論結果から得られる臓器のボリュームサイズとの差分に基づいて補正する、
請求項1~6のいずれか1つに記載の画像処理装置。
【請求項8】
前記推論結果を表示部に表示させる表示制御部を備える、
請求項1~7のいずれか1つに記載の画像処理装置。
【請求項9】
コンピュータに、
仮想患者モデルを用いて画像データに対してシード点を設定し、設定されたシード点を用いて推論を行い、
前記仮想患者モデルに含まれる臓器の領域の重心位置を推論結果から得られる臓器の領域の重心位置に基づいて補正することにより、前記仮想患者モデルに学習させる、
処理を実行させるためのプログラム。
【請求項10】
コンピュータが、
仮想患者モデルを用いて画像データに対してシード点を設定し、設定されたシード点を用いて推論を行い、
前記仮想患者モデルに含まれる臓器の領域の重心位置を推論結果から得られる臓器の領域の重心位置に基づいて補正することにより、前記仮想患者モデルに学習させる、
処理を実行する方法。
【発明の詳細な説明】
【技術分野】
【0001】
本明細書及び図面に開示の実施形態は、画像処理装置、プログラム及び方法に関する。
【背景技術】
【0002】
医療分野でもAI(Artificial Intelligence)の活用が検討されつつあるか又は実施されつつある。例えば、セグメンテーション(Segmentation)、ディテクション(Detection)及びクラシフィケーション(Classification)等の各種の推論を行うために、数千又は数万単位で学習用データの作成も行われている。既存ツールで教師データを作成する場合は、手動で領域を指定するため、処理時間がかかる。また、学習済みモデルを用いて画像データ全体からセグメンテーション処理を実行する場合も処理時間がかかる。既存のセグメンテーション処理の精度は、年々向上している。しかしながら、画像データ内の全ての対象物を同時にかつ自動でセグメンテーションする方法は存在しない。
【先行技術文献】
【特許文献】
【0003】
【特許文献1】特表2016-513328号公報
【特許文献2】特開2015-208385号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
本明細書及び図面に開示の実施形態が解決しようとする課題の一つは、処理時間を短縮することである。ただし、本明細書及び図面に開示の実施形態により解決しようとする課題は上記課題に限られない。後述する実施形態に示す各構成による各効果に対応する課題を他の課題として位置付けることもできる。
【課題を解決するための手段】
【0005】
実施形態の画像処理装置は、推論部と、学習部とを備える。推論部は、仮想患者モデルを用いて画像データに対してシード点を設定し、設定されたシード点を用いて推論を行う。学習部は、前記仮想患者モデルに含まれる臓器の領域の重心位置を前記推論部による推論結果から得られる臓器の領域の重心位置に基づいて補正することにより、前記仮想患者モデルに学習させる。
【図面の簡単な説明】
【0006】
【
図1】
図1は、実施形態に係る医用処理システムの構成の一例を示す図である。
【
図2】
図2は、実施形態に係る医用画像診断装置が送信するデータの一例を説明するための図である。
【
図3】
図3は、実施形態に係るアトラス情報モデルの一例を示す図である。
【
図4】
図4は、実施形態に係るアトラス情報モデルの一例を示す図である。
【
図5】
図5は、実施形態に係る画像処理装置が実行するセグメンテーション処理の流れの一例を示すフローチャートである。
【
図6】
図6は、実施形態に係るリストの一例を説明するための図である。
【
図7】
図7は、実施形態に係る表示制御機能が実行する処理の一例を説明するための図である。
【
図8】
図8は、実施形態に係る学習済みモデル生成機能が実行する処理の一例を説明するための図である。
【
図9】
図9は、実施形態に係る学習済みモデル生成機能が実行する処理の一例を説明するための図である。
【発明を実施するための形態】
【0007】
以下、図面を参照しながら、画像処理装置、プログラム及び方法の実施形態を詳細に説明する。なお、本願に係る画像処理装置、プログラム及び方法は、以下に示す実施形態によって限定されるものではない。
【0008】
(実施形態)
図1は、実施形態に係る医用処理システム1の構成の一例を示す図である。
図1に示すように、医用処理システム1は、医用画像診断装置110と、端末装置120と、画像処理装置130とを備える。ここで、医用画像診断装置110と、端末装置120と、画像処理装置130とは、ネットワーク200を介して通信可能に接続されている。
【0009】
医用画像診断装置110は、被検体を撮像又は撮影することにより、医用画像を示す医用画像データを生成する。例えば、医用画像診断装置110は、X線CT(Computed Tomography)装置、超音波診断装置、磁気共鳴イメージング(Magnetic Resonance Imaging:MRI)装置、X線診断装置、PET(Positron Emission Tomography)装置、SPECT(Single Photon Emission Computed Tomography)装置等である。
【0010】
医用画像診断装置110は、医用画像データとして、CT画像を示すCT画像データ、超音波画像を示す超音波画像データ、MRI画像を示すMRI画像データ、X線画像を示すX線画像データ、PET画像を示すPET画像データ、SPECT画像を示すSPECT画像データ等を生成する。
【0011】
CT画像、超音波画像、MRI画像、X線画像、アンギオ画像、PET画像及びSPECT画像は、医用画像の一例である。また、CT画像データ、超音波画像データ、MRI画像データ、X線画像データ、アンギオ画像データ、PET画像データ及びSPECT画像データは、医用画像データの一例である。また、医用画像は、画像の一例であり、医用画像データは、画像データの一例である。
【0012】
そして、医用画像診断装置110は、各種のデータを画像処理装置130に送信する。
図2は、実施形態に係る医用画像診断装置110が送信するデータの一例を説明するための図である。例えば、医用画像診断装置110は、医用画像データ11を画像処理装置130へ送信する。これにより、画像処理装置130は、医用画像データ11に対して各種の処理を実行する。
【0013】
図1の説明に戻る。端末装置120は、病院内に勤務する医師や検査技師等のユーザに画像を閲覧させるための装置である。例えば、端末装置120は、ユーザにより操作されるパーソナルコンピュータ(PC:Personal Computer)、タブレット式PC、PDA(Personal Digital Assistant)、スマートフォン又は携帯電話等によって実現される。例えば、端末装置120は、医用画像診断装置110又は画像処理装置130から送信された各種の画像データを受信する。そして、端末装置120は、受信した画像データに基づく画像(画像データにより示される画像)を端末装置120が備えるディスプレイに表示させる。また、端末装置120は、入力インターフェースを備え、入力インターフェースを介して画像に対する各種操作を受け付ける。
【0014】
画像処理装置130は、医用画像診断装置110から各種のデータを取得し、取得したデータを用いて各種の処理を実行する。例えば、画像処理装置130は、サーバ、ワークステーション、パーソナルコンピュータ、タブレット端末等のコンピュータ機器によって実現される。
【0015】
画像処理装置130は、通信インターフェース131と、メモリ132と、入力インターフェース133と、ディスプレイ134と、処理回路135とを備える。
【0016】
通信インターフェース131は、処理回路135に接続されており、画像処理装置130と医用画像診断装置110との間で行われる通信、及び、画像処理装置130と端末装置120との間で行われる通信を制御する。具体例を挙げて説明すると、通信インターフェース131は、医用画像診断装置110により送信された医用画像データ11を受信し、受信した医用画像データ11を処理回路135に送信する。例えば、通信インターフェース131は、ネットワークカード、ネットワークアダプタ又はNIC(Network Interface Controller)等によって実現される。
【0017】
メモリ132は、処理回路135に接続されており、各種のデータや情報を記憶する。例えば、メモリ132は、医用画像診断装置110により送信された医用画像データ11を記憶する。
【0018】
また、メモリ132は、アトラス情報モデル(アトラス情報)132aを記憶する。アトラス情報モデル132aは、仮想患者モデルの一例である。
図3及び
図4は、実施形態に係るアトラス情報モデル132aの一例を示す図である。
【0019】
アトラス情報モデル132aは、被検体の各臓器の領域の重心位置、隣接する2つの臓器間の位置関係(距離及び方向)、各臓器のボリュームサイズを含む数値モデル情報である。例えば、
図3に示すように、アトラス情報モデル132aは、各臓器に対応する各ノードと、隣接する2つの臓器(2つのノード)を結ぶブランチ(線分)を含む。隣接するノードがブランチで接続されることで、臓器の配置が管理される。
図3の例では、アトラス情報モデル132aは、肺(Lungs)、心臓(Heart)、肝臓(Liver)、胆嚢(Gallbladder)、小腸(Small Intestine)、大腸(Large Intestine)、胃(Stomach)、脾臓(Spleen)、膵臓(Pancreas)、腎臓(Kidneys)、膀胱(Bladder)及び子宮(Uterus)の各臓器に対応する複数のノード(Node1~Node12)のそれぞれを含む。例えば、肺はNode1に対応し、心臓はNode2に対応し、肝臓はNode3に対応する。
【0020】
また、各ノードには、各ノードに対応する臓器の名称がラベルとして付与される。例えば、Node1にはラベルLungsが付与され、Node2にはラベルHeartが付与され、Node3にはラベルLiverが付与されている。他のノードについても同様である。
【0021】
図3の例では、Node2は、Node1に隣接するとともにNode3に隣接する。そのため、Node2とNode1とがブランチで接続されているとともに、Node2とNode3とがブランチで接続されている。
【0022】
また、各ノードは、臓器内の区分毎に細分化されてもよい。例えば、
図3の例では、心臓が更に左心房132a_1、左心室132a_2、右心房132a_3及び右心室132a_4の区分ごとに細分化されている。この場合、細分化モデルとして、左心房132a_1がNode2-1に対応し、左心室132a_2がNode2-2に対応し、右心房132a_3がNode2-3に対応し、右心室132a_4がNode2-4に対応する。
【0023】
アトラス情報モデル132aは、ノード毎に、臓器の領域の重心位置、隣接する2つの臓器間の位置関係(距離及び方向)、臓器のボリュームサイズを含む。例えば、
図4には、アトラス情報モデル132aに含まれる全ノードに関する情報のうち、Node2に関する情報が示されている。以下、Node2に関する情報の一例について説明するが、他のノードに関する情報もNode2に関する情報と同様である。
【0024】
図4に示すように、Node2に関する情報は、「Label(ラベル)」、「細分化モデル」、「隣接Node」、「重心位置」、「位置関係情報」及び「ボリュームサイズ」の各項目を有する。「Label(ラベル)」の項目には、Node2に付与されたラベルHeartが登録されている。また、「細分化モデル」の項目には、心臓の区分毎に細分化されたモデル(細分化モデル)であるNode2-1~2-4が登録されている。また、「隣接Node」の項目には、Node2に隣接するノードであるNode1及びNode3が登録されている。
【0025】
また、「重心位置」の項目には、心臓の3次元の重心位置(x1,y1,z1)が登録されている。なお、臓器が複数の領域に分かれる場合には、領域毎に重心位置が登録されてもよい。例えば、肺や腎臓は、2つの領域に分かれる。このため、肺や腎臓では、2つの領域のそれぞれの重心位置が登録されてもよい。
【0026】
また、「位置関係情報」の項目には、Node2を基準とした場合のNode2に隣接するNode1やNode3の相対的な位置関係を示す情報である位置関係情報が登録されている。具体例を挙げて説明すると、「位置関係情報」の項目には、Node2に隣接するNode1やNode3がNode2を基準としてどの方向に、Node2からどれだけ離れた距離に存在し得るかを示す位置関係情報が登録されている。例えば、「位置関係情報」の項目には、Node2を基準としてNode1が存在しうる方向の範囲、及び、Node2を基準としてNode1が存在し得る距離の範囲を示す位置関係情報1が登録されている。Node2を基準としてNode1が存在し得る距離の範囲は、例えば、Node2からNode1までの距離であって、Node1が存在し得る距離の範囲である。また、「位置関係情報」の項目には、Node2を基準としてNode3が存在しうる方向の範囲、及び、Node2を基準としてNode3が存在し得る距離の範囲を示す位置関係情報2が登録されている。Node2を基準としてNode3が存在し得る距離の範囲は、例えば、Node2からNode3までの距離であって、Node3が存在し得る距離の範囲である。また、「ボリュームサイズ」の項目には、心臓のボリュームサイズVが登録されている。
【0027】
アトラス情報モデル132aは、学習されて、アトラス情報モデル132aの登録内容が変化する。アトラス情報モデル132aが学習される前は、例えば、アトラス情報モデル132aには、
図4に示す内容が登録されているものとする。
【0028】
図1の説明に戻り、メモリ132は、処理回路135が各種機能を実現するためのプログラムを記憶する。例えば、メモリ132は、フラッシュメモリ等の半導体メモリ素子、ハードディスク又は光ディスク等によって実現される。メモリ132は、記憶部の一例である。
【0029】
入力インターフェース133は、処理回路135に接続されており、ユーザからの各種の指示、要求及び情報の入力操作を受け付ける。例えば、入力インターフェース133は、ユーザから受け付けた入力操作を電気信号へ変換し、この電気信号を処理回路135に送信する。例えば、入力インターフェース133は、トラックボール、スイッチボタン、マウス、キーボード、操作面へ触れることで入力操作を行うタッチパッド、表示画面とタッチパッドとが一体化されたタッチスクリーン、光学センサを用いた非接触入力回路、及び、音声入力回路等によって実現される。なお、本明細書において、入力インターフェース133は、マウス、キーボード等の物理的な操作部品を備えるものだけに限られない。例えば、画像処理装置130とは別体に設けられた外部の入力機器から入力操作に対応する電気信号を受け取り、この電気信号を処理回路135へ送信する電気信号の処理回路も入力インターフェース133の例に含まれる。
【0030】
ディスプレイ134は、処理回路135に接続されており、各種の情報及び各種の画像を表示する。例えば、ディスプレイ134は、処理回路135から送信される情報及びデータを表示用の電気信号に変換して出力する。例えば、ディスプレイ134は、液晶モニタやCRT(Cathode Ray Tube)モニタ、タッチパネル等によって実現される。
【0031】
処理回路135は、入力インターフェース133を介してユーザから受け付けた入力操作に応じて、画像処理装置130の動作を制御する。例えば、処理回路135は、プロセッサによって実現される。
【0032】
以上、本実施形態に係る医用処理システム1の構成の一例について説明した。例えば、医用処理システム1に含まれる画像処理装置130は、病院や医院等の医療機関に設置され、医療機関に入院又は通院する患者等を被検体として、医用画像診断装置110によって生成される医用画像データを用いた各種の画像診断に利用される。本実施形態では、画像処理装置130は、処理時間を短縮することができるように、以下に説明する各種の処理を実行する。
【0033】
図1に示すように、画像処理装置130の処理回路135は、制御機能135a、取得機能135b、セグメンテーション実行機能135c、修正機能135d、選択機能135e、表示制御機能135f及び学習済みモデル生成機能135gを実行する。制御機能135aは、学習部の一例である。取得機能135bは、取得部の一例である。セグメンテーション実行機能135cは、推論部の一例である。修正機能135dは、修正部の一例である。選択機能135eは、選択部の一例である。表示制御機能135fは、表示制御部の一例である。学習済みモデル生成機能135gは、生成部の一例である。
【0034】
ここで、例えば、処理回路135が有する各処理機能は、コンピュータによって実行可能なプログラムの形態でメモリ132に記憶される。
図1に示す処理回路135の構成要素である制御機能135a、取得機能135b、セグメンテーション実行機能135c、修正機能135d、選択機能135e、表示制御機能135f及び学習済みモデル生成機能135gの各処理機能は、コンピュータによって実行可能なプログラムの形態でメモリ132に記憶されている。処理回路135は、各プログラムをメモリ132から読み出し、読み出された各プログラムを実行することで、各プログラムに対応する機能を実現する。換言すると、各プログラムを読み出した状態の処理回路135は、
図1の処理回路135内に示された各機能を有することとなる。
【0035】
制御機能135aは、入力インターフェース133を介して入力された各種指示及び各種要求に応じた処理を実行するように、画像処理装置130の通信インターフェース131、メモリ132、ディスプレイ134、及び、各機能135b~135gを制御する。
【0036】
取得機能135bは、各種のデータを取得する。例えば、取得機能135bは、医用画像診断装置110から送信された医用画像データ11を取得し、取得された医用画像データ11をメモリ132に記憶させる。制御機能135a以外の各機能135b~135gの詳細については後述する。
【0037】
次に、画像処理装置130が実行するセグメンテーション処理の一例について説明する。
図5は、実施形態に係る画像処理装置130が実行するセグメンテーション処理の流れの一例を示すフローチャートである。画像処理装置130は、例えば、医用画像データ11がメモリ132に記憶された状態で、入力インターフェース133を介してユーザによりセグメンテーション処理を実行するための指示が処理回路135に入力された場合に、セグメンテーション処理を実行する。
【0038】
(ステップS101)
図5に示すように、ステップS101では、取得機能135bは、メモリ132に記憶された医用画像データ11を取得する。例えば、医用画像データ11は、被検体のセグメンテーションされる対象の臓器が描出された3次元の医用画像データである。例えば、医用画像データ11は、セグメンテーションされる対象の心臓、肺、肝臓及び腎臓が描出された3次元のCT画像データである。
【0039】
(ステップS102)
次に、ステップS102では、取得機能135bは、メモリ132に記憶されたアトラス情報モデル132aを取得する。アトラス情報モデル132aは、以下で説明する処理に用いられる。なお、メモリ132に、子供用のアトラス情報モデル132a、大人用のアトラス情報モデル132a、日本人用のアトラス情報モデル132a及び外国人用のアトラス情報モデル132a等の複数の被検体の属性に対応する複数のアトラス情報モデル132aが記憶されていてもよい。この場合、取得機能135bは、メモリ132に記憶された複数のアトラス情報モデル132aの中から、ステップS101で取得された医用画像データ11にセグメンテーション対象の臓器が描出された被検体の属性に対応するアトラス情報モデル132aを取得する。また、ステップS102では、取得機能135bは、後述する学習済みモデル生成機能135gにより生成された後述する学習済みモデル12(
図9)に医用画像データ11を入力し、学習済みモデル12から出力されたアトラス情報モデルを取得してもよい。このようにして取得されたアトラス情報モデルは、アトラス情報モデル132aに代えて以下で説明する処理に用いられる。本実施形態では、例えば、ステップS102において、取得機能135bが、メモリ132に記憶されたアトラス情報モデル132aを取得するのか、又は、学習済みモデル12を用いてアトラス情報を取得するのかについては、ユーザにより設定可能である。以下では、ステップS102でメモリ132からアトラス情報モデル132aが取得された場合について説明する。なお、この時点では、アトラス情報モデル132aは、学習される前のモデルであり、例えば、
図4に示す内容が含まれるモデルである。
【0040】
(ステップS103)
次に、ステップS103では、セグメンテーション実行機能135cは、シード点の位置を取得する。ステップS103では、セグメンテーション実行機能135cは、様々な方法でシード点の位置を取得することができる。以下、シード点の位置を取得する方法の例として、シード点の位置を取得する2つの方法について説明する。
【0041】
シード点の位置を取得する1つ目の方法について説明する。例えば、セグメンテーション実行機能135cは、アトラス情報モデル132aに含まれるセグメンテーションの対象の臓器の領域の重心位置をシード点の位置として取得する。例えば、セグメンテーションの対象の臓器が、心臓、肺、肝臓及び腎臓である場合について説明する。この場合、セグメンテーション実行機能135cは、アトラス情報モデル132aから、心臓、肺、肝臓及び腎臓のそれぞれの重心位置をシード点の位置として取得する。
【0042】
シード点を取得する2つ目の方法について説明する。例えば、アトラス情報モデル132aには、上述した各種の情報に加えて、解剖学的な特徴点の位置が登録されているものとする。そして、セグメンテーション実行機能135cは、医用画像データ11からアトラス情報モデル132aに含まれる解剖学的な特徴点と同一の特徴点の位置を抽出する。
【0043】
ここでは、アトラス情報モデル132aに含まれる3つの特徴点の位置が、特徴点V1(x11,y11,z11)、特徴点V2(x12,y12,z13)、特徴点V3(x13,y13,z13)であるものとする。この場合、セグメンテーション実行機能135cは、医用画像データ11から、特徴点V1と同一の特徴点C1の位置(特徴点C1(x21,y21,z21))、特徴点V2と同一の特徴点C2の位置(特徴点C2(x22,y22,z22))、特徴点V3と同一の特徴点C3の位置(特徴点C3(x23,y23,z23))を抽出する。
【0044】
そして、セグメンテーション実行機能135cは、解剖学的に同じ特徴点の間の位置ずれの合計「LS」を最小化するように、以下の座標変換行列「H」を求める。具体的には、セグメンテーション実行機能135cは、以下の式に示すように、V1(x11,y11,z11)とC1(x21,y21,z21)との間の位置ずれ、V2(x12,y12,z13)とC2(x22,y22,z22)との間の位置ずれ、及び、V3(x13,y13,z13)とC3(x23,y23,z23)との間の位置ずれの合計「LS」を最小化するように、座標変換行列「H」を求める。
【0045】
LS = ((x21,y21,z21)-H(x11,y11,z11))
+((x22,y22,z22)-H(x12,y12,z12))
+((x23,y23,z23)-H(x13,y13,z13))
【0046】
なお、上記の式において((x21,y21,z21)-H(x11,y11,z11))は、例えば、H(x11,y11,z11)とC1(x21,y21,z21)との間の距離を示す。同様に、以下の式において、((x22,y22,z22)-H(x12,y12,z12))は、例えば、H(x12,y12,z12)とC2(x22,y22,z22)との間の距離を示し、((x23,y23,z23)-H(x13,y13,z13))は、例えば、H(x13,y13,z13)とC3(x23,y23,z23)との間の距離を示す。
【0047】
そして、セグメンテーション実行機能135cは、アトラス情報モデル132aに含まれるセグメンテーション対象の臓器の領域の重心位置を取得する。そして、セグメンテーション実行機能135cは、セグメンテーション対象の臓器の領域の重心位置を座標変換行列「H」により変換し、変換後の位置をシード点の位置として取得する。例えば、セグメンテーション対象の臓器が、心臓、肺、肝臓及び腎臓である場合について説明する。この場合、セグメンテーション実行機能135cは、アトラス情報モデル132aから、心臓、肺、肝臓及び腎臓のそれぞれの重心位置を座標変換行列「H」により変換し、変換後の位置をシード点の位置として取得する。
【0048】
(ステップS104)
次に、ステップS104では、セグメンテーション実行機能135cは、医用画像データ11におけるステップS103で取得されたシード点の位置にシード点を設定する。このように、セグメンテーション実行機能135cは、アトラス情報モデル132aを用いて医用画像データ11に対してシード点を設定する。
【0049】
(ステップS105)
次に、ステップS105では、修正機能135dは、医用画像データ11に基づく医用画像をディスプレイ14に表示させるとともに、ディスプレイ14に表示された医用画像上に各シード点を重畳表示させる。ここで、医用画像上に重畳表示されたシード点の位置は、ユーザにより修正可能である。例えば、ユーザは、シード点の位置を修正する場合には、入力インターフェース133を介して、シード点の位置を修正させるための修正指示を処理回路135に入力する。修正指示には、修正対象のシード点、及び、修正対象のシード点の修正後の位置等の情報が含まれる。一方、ユーザは、シード点の位置を修正しない場合及びシード点の位置の修正が完了した場合には、入力インターフェース133を介して、シード点の位置を修正させない修正不要指示を処理回路135に入力する。
【0050】
(ステップS106)
次に、ステップS106では、修正機能135dは、シード点の位置を修正するか否かを判定する。例えば、修正機能135dは、修正指示を受け付けた場合には、シード点の位置を修正すると判定する。一方、修正機能135dは、修正不要指示を受け付けた場合には、シード点の位置を修正しないと判定する。シード点の位置を修正する場合(ステップS106:Yes)、修正機能135dは、ステップS107へ進む。一方、シード点の位置を修正しない場合(ステップS106:No)、修正機能135dは、ステップS108へ進む。
【0051】
(ステップS107)
ステップS107では、修正機能135dは、修正指示に基づきシード点の位置を修正する。そして、修正機能135dは、ステップS104に戻る。ステップS107からステップS104に戻った場合、ステップS104では、セグメンテーション実行機能135cは、修正された位置にシード点を設定する。そして、処理回路135は、ステップS105以降の処理を行う。
【0052】
(ステップS108)
ステップS108では、セグメンテーション実行機能135cは、セグメンテーションの対象の臓器毎に、デフォルトのセグメンテーション処理のアルゴリズムを設定する。かかるアルゴリズムは、例えば、学習済みモデルを用いてセグメンテーション処理を行うアルゴリズムである。学習済みモデルに医用画像データ11が入力されると、学習済みモデルはセグメンテーション結果を出力する。なお、学習済みモデルは、医用画像データ11及びシード点の位置が入力されると、セグメンテーション結果を出力してもよい。
【0053】
なお、デフォルトのセグメンテーション処理のアルゴリズムは、DLL化された(学習しないルールに従った)アルゴリズムであってもよい。このようなアルゴリズムの一例としては、リージョングローイング(Region growing)法が挙げられる。リージョングローイング法は、例えば、シード点が設定された位置(画素)から、シード点が設定された画素の画素値との差が閾値以内の領域を次々と連結し、連結された領域を抽出するアルゴリズムである。
【0054】
(ステップS109)
次に、ステップS109では、選択機能135eは、セグメンテーションの対象の臓器毎に、適用可能なセグメンテーション処理のアルゴリズムのリストをディスプレイ134に表示させる。
図6は、実施形態に係るリストの一例を説明するための図である。
図6に示すように、選択機能135eは、臓器毎に、適用可能なセグメンテーション処理のアルゴリズムのリストをディスプレイ134に表示させる。例えば、
図6に示すように、選択機能135eは、入力インターフェース133を介してユーザにより肺(Lung)が選択されると、肺の領域をセグメンテーション(抽出)する処理のアルゴリズムであって適用可能な処理のアルゴリズムのリストをディスプレイ134に表示させる。なお、アルゴリズムは、例えば、学習済みモデルを用いてセグメンテーション処理を行うアルゴリズムである。学習済みモデルに医用画像データ11が入力されると、学習済みモデルはセグメンテーション結果を出力する。なお、学習済みモデルは、医用画像データ11及びシード点の位置が入力されると、セグメンテーション結果を出力してもよい。なお、セグメンテーション処理のアルゴリズムは、DLL化されたリージョングローイング法等のアルゴリズムであってもよい。
【0055】
具体的には、選択機能135eは、
図6に示すように、「アルゴリズムA」、「アルゴリズムB」及び「アルゴリズムC」をディスプレイ134に表示させる。なお、「アルゴリズムA」は、ステップS108で設定されたデフォルトのアルゴリズムである。このため、ステップS109では、選択機能135eは、デフォルトのアルゴリズムとして設定された「アルゴリズムA」が選択された状態で「アルゴリズムA」、「アルゴリズムB」及び「アルゴリズムC」をディスプレイ134に表示させる。ここで、ユーザは、アルゴリズムを変更する場合には、入力インターフェース133を介して、アルゴリズムを変更させるための変更指示を処理回路135に入力する。変更指示には、変更後のアルゴリズム等の情報が含まれる。一方、ユーザは、アルゴリズムを変更しない場合及びアルゴリズムの変更が完了した場合には、入力インターフェース133を介して、アルゴリズムを変更させない変更不要指示を処理回路135に入力する。
【0056】
(ステップS110)
次に、ステップS110では、選択機能135eは、臓器毎にアルゴリズムを変更する否かを判定する。例えば、選択機能135eは、変更指示を受け付けた場合には、アルゴリズムを変更すると判定する。一方、選択機能135eは、変更不要指示を受け付けた場合には、アルゴリズムを変更しないと判定する。アルゴリズムを変更する場合(ステップS110:Yes)、選択機能135eは、ステップS111へ進む。一方、アルゴリズムを変更しない場合(ステップS110:No)、選択機能135eは、ステップS112へ進む。
【0057】
(ステップS111)
ステップS111では、選択機能135eは、変更指示に基づきアルゴリズムを選択(変更)し、選択されたアルゴリズムを設定する。そして、選択機能135eは、ステップS109に戻る。ステップS111からステップS109に戻った場合、ステップS109では、選択機能135eは、ステップS111で設定されたアルゴリズムが選択された状態で、上述したリストをディスプレイ134に表示させる。そして、処理回路135は、ステップS110以降の処理を行う。
【0058】
(ステップS112)
ステップS112では、セグメンテーション実行機能135cは、設定されたアルゴリズムで、設定されたシード点を用いて、医用画像データ11からセグメンテーション対象の臓器の領域をセグメンテーション(抽出)する処理をセグメンテーション対象の臓器毎に実行する。すなわち、セグメンテーション実行機能135cは、設定されたシード点を用いて、推論を行う。
【0059】
例えば、設定されたアルゴリズムが、医用画像データ11が入力されると、セグメンテーション結果を出力する学習済みモデルである場合について説明する。この場合、セグメンテーション実行機能135cは、対象の臓器のボリュームサイズをアトラス情報モデル132aから取得する。そして、セグメンテーション実行機能135cは、取得されたボリュームサイズに基づいて、対象の臓器を含み、かつ、シード点が設定された位置を含むスライス方向の範囲を特定する。ここでいうスライス方向の範囲とは、医用画像データ11におけるスライス方向の範囲である。そして、セグメンテーション実行機能135cは、医用画像データ11全体ではなく、医用画像データ11の特定されたスライス方向の範囲の部分を学習済みモデルに入力する。これにより、学習済みモデルは、医用画像データ11全体ではなく、特定されたスライス方向の範囲の部分に絞ってセグメンテーションを行い、セグメンテーション結果を出力する。このため、処理時間の増大を抑制することができる。そして、セグメンテーション実行機能135cは、学習済みモデルから出力されたセグメンテーション結果を取得する。
【0060】
また、例えば、設定されたアルゴリズムが、医用画像データ11及びシード点の位置が入力されると、セグメンテーション結果を出力する学習済みモデルである場合について説明する。この場合、セグメンテーション実行機能135cは、医用画像データ11及びシード点の位置を学習済みモデルに入力する。そして、セグメンテーション実行機能135cは、学習済みモデルから出力されたセグメンテーション結果を取得する。
【0061】
なお、例えば、設定されたアルゴリズムが、DLL化されたアルゴリズムである場合には、セグメンテーション実行機能135cは、設定されたアルゴリズムで、設定されたシード点を用いて、医用画像データ11からセグメンテーション対象の臓器の領域をセグメンテーションする処理を実行する。
【0062】
(ステップS113)
次に、ステップS113では、表示制御機能135fは、医用画像データ11に基づく医用画像をディスプレイ134に表示させるとともに、医用画像上にセグメンテーション結果を重畳表示させる。
図7は、実施形態に係る表示制御機能135fが実行する処理の一例を説明するための図である。ここでは、ステップS112で、心臓、肺、肝臓及び腎臓のそれぞれの領域がセグメンテーションされた場合について説明する。医用画像データ11が3次元CT画像データである場合、表示制御機能135fは、医用画像データ11からコロナル像の画像データであるMPR(Multi-Planar Reconstruction)画像データを生成し、
図7に示すように、生成したMPR画像データに基づくコロナル像11aをディスプレイ134に表示させる。そして、表示制御機能135fは、コロナル像11a上に肺、心臓、肝臓及び腎臓のそれぞれの領域を異なる色で重畳表示させる。具体的には、表示制御機能135fは、コロナル像11a上に、肺を構成する2つの領域12a,12b、心臓の領域12c、肝臓の領域12d及び腎臓を構成する2つの領域12e,12fのそれぞれの領域を異なる色で表示させる。更に、表示制御機能135fは、コロナル像11a上に、肺の領域12aの重心位置を示すマーク13a、肺の領域12bの重心位置を示すマーク13b、心臓の領域12cの重心位置を示すマーク13c、肝臓の領域12dの重心位置を示すマーク13d、腎臓の領域12eの重心位置を示すマーク13d、及び、腎臓の領域12fの重心位置を示すマーク13fを表示させる。
【0063】
ここで、セグメンテーション結果は、ユーザにより修正可能である。ここでは、領域12a~12fのそれぞれの領域がセグメンテーションされた場合について説明する。この場合、領域12a~12fのそれぞれの領域は、ユーザにより修正可能である。例えば、ユーザは、領域12a~12fのうち少なくとも1つの領域の範囲を修正する場合には、入力インターフェース133を介して、修正対象の領域の範囲を修正させるための範囲修正指示を処理回路135に入力する。範囲修正指示には、修正対象の領域、及び、修正対象の領域の修正後の範囲等の各種の情報が含まれる。一方、ユーザは、領域12a~12fの範囲を修正しない場合には、入力インターフェース133を介して、領域12a~12fの範囲を修正させない範囲修正不要指示を処理回路135に入力する。
【0064】
(ステップS114)
次に、ステップS114では、修正機能135dは、領域12a~12fのうち少なくとも1つの領域の範囲を修正するか否かを判定する。例えば、修正機能135dは、範囲修正指示を受け付けた場合には、領域12a~12fのうち少なくとも1つの領域の範囲を修正すると判定する。一方、修正機能135dは、範囲修正不要指示を受け付けた場合には、領域12a~12fの範囲を修正しないと判定する。領域12a~12fのうち少なくとも1つの領域の範囲を修正する場合(ステップS114:Yes)、修正機能135dは、ステップS115へ進む。一方、領域12a~12fの範囲を修正しない場合(ステップS114:No)、修正機能135dは、ステップS116へ進む。
【0065】
(ステップS115)
ステップS115では、修正機能135dは、範囲修正指示に基づき修正対象の領域の範囲を修正する。具体的には、修正機能135dは、範囲修正指示に含まれる修正対象の領域の範囲が、範囲修正指示に含まれる修正後の範囲となるように、修正対象の領域を修正する。ステップS112でセグメンテーションされた臓器の領域に代えてステップS115で範囲が修正された領域が、後述するステップS116における処理に用いられる。そして、修正機能135dは、ステップS114に戻る。
【0066】
(ステップS116)
次に、ステップS116では、制御機能135aは、各種情報及び各種データをメモリ132に記憶させることで各種情報及び各種データをメモリ132に保存する。ここで保存される各種情報及び各種データは、アトラス情報モデル132aに学習させる際に用いられる。例えば、制御機能135aは、ステップS112でセグメンテーションされた臓器の領域の重心位置を算出する。ただし、制御機能135aは、ステップS115において範囲が変更された領域については、範囲が変更された領域の重心位置を算出する。そして、制御機能135aは、算出された重心位置をメモリ132に保存する。
【0067】
また、制御機能135aは、セグメンテーションされた臓器の領域から、セグメンテーションされた隣接する2つの臓器についての位置関係情報を算出する。ただし、制御機能135aは、ステップS115において範囲が変更された領域については、範囲が変更された領域を用いて、隣接する2つの臓器についての位置関係情報を算出する。そして、制御機能135aは、算出された位置関係情報をメモリ132に保存する。
【0068】
また、制御機能135aは、セグメンテーションされた臓器の領域から、セグメンテーションされた臓器のボリュームサイズを算出する。ただし、制御機能135aは、ステップS115において範囲が変更された領域については、範囲が変更された領域から臓器のボリュームサイズを算出する。そして、制御機能135aは、算出されたボリュームサイズをメモリ132に保存する。
【0069】
また、制御機能135aは、医用画像データ11をメモリ132に保存する。また、制御機能135aは、セグメンテーションされた臓器の領域をメモリ132に保存する。ただし、制御機能135aは、ステップS115において範囲が変更された領域については、範囲が変更された領域をメモリ132に保存する。セグメンテーションされた臓器の領域及び範囲が変更された領域は、例えば、一般的なセグメンテーションモデルの教師データとして用いられることができる。
【0070】
ここで、ユーザは、入力インターフェース133を介して、ステップS116においてメモリ132に保存された重心位置、位置関係情報、ボリュームサイズ及び領域を修正することができる。また、処理回路135は、重心位置、位置関係情報、ボリュームサイズ及び領域を修正するためのアプリケーションを実行することにより、ステップS116においてメモリ132に保存された重心位置、位置関係情報、ボリュームサイズ及び領域を修正してもよい。このように、セグメンテーション結果は、ユーザにより修正可能である。
【0071】
以上、
図5に示すセグメンテーション処理について説明した。次に、
図5に示すセグメンテーション処理により得られた各種情報及び各種データを用いてアトラス情報モデル132aに学習させる方法の一例について説明する。例えば、制御機能135aは、メモリ132に保存された臓器の領域の重心位置、位置関係情報、臓器のボリュームサイズを取得する。そして、制御機能135aは、取得された臓器の領域の重心位置、位置関係情報、臓器のボリュームサイズを用いて、アトラス情報モデル132aに含まれる臓器の領域の重心位置、位置関係情報、臓器のボリュームサイズを補正する。制御機能135aは、このような補正を繰り返し行うことにより、アトラス情報モデル132aに学習させる。すなわち、制御機能135aは、セグメンテーション結果に基づいて、アトラス情報モデル132aに学習させる。このように、制御機能135aは、アトラス情報モデル132aに含まれる臓器の領域の重心位置を、セグメンテーション結果から得られる臓器の領域の重心位置に基づいて補正する。また、制御機能135aは、アトラス情報モデル132aに含まれる2つの臓器の位置関係を、セグメンテーション結果から得られる2つの臓器の位置関係に基づいて補正する。また、制御機能135aは、アトラス情報モデル132aに含まれる臓器のボリュームサイズを、セグメンテーション結果から得られる臓器のボリュームサイズに基づいて補正する。セグメンテーション結果は、推論結果の一例である。
【0072】
なお、学習されたアトラス情報モデル132aは、各種の推論を行う際に用いられる。例えば、セグメンテーション実行機能135cにより、医用画像データ11からセグメンテーション対象の臓器の領域をセグメンテーションする処理が実行される際に用いられる。この場合、セグメンテーション実行機能135cは、医用画像データ11におけるアトラス情報モデル132aに含まれる臓器の領域の補正された重心位置に基づいてシード点を設定し、設定されたシード点を用いてセグメンテーションを行う。
【0073】
アトラス情報モデル132aに学習させる方法の具体例について説明する。例えば、制御機能135aは、学習済みモデル生成機能135gを制御し、学習済みモデル生成機能135gに以下の処理を実行させる。例えば、学習済みモデル生成機能135gは、学習済みモデルを生成し、生成された学習済みモデルに次々に追加学習させることで、間接的に、アトラス情報モデル132aに学習させる。以下、この場合の詳細について説明する。例えば、
図5に示すセグメンテーション処理のステップS116において、心臓の領域12cの重心位置(x1´,y1´,z1´)、心臓を基準として肺が存在しうる方向の範囲及び心臓を基準として肺が存在し得る距離の範囲を示す位置関係情報1´、心臓を基準として肝臓が存在しうる方向の範囲及び心臓を基準として肝臓が存在し得る距離の範囲を示す位置関係情報2´、及び、心臓のボリュームサイズV´がメモリ132に記憶された場合について説明する。
【0074】
図8は、実施形態に係る学習済みモデル生成機能135gが実行する処理の一例を説明するための図である。学習済みモデル生成機能135gは、アトラス情報モデル132aの重心位置(x1,y1,z1)を重心位置(x1´,y1´,z1´)に更新する。また、学習済みモデル生成機能135gは、アトラス情報モデル132aの位置関係情報1を位置関係情報1´に更新する。また、学習済みモデル生成機能135gは、アトラス情報モデル132aの位置関係情報2を位置関係情報2´に更新する。また、学習済みモデル生成機能135gは、アトラス情報モデル132aの心臓のボリュームサイズVを心臓のボリュームサイズV´に更新する。このようにして、学習済みモデル生成機能135gは、
図8に示すアトラス情報モデル132bを生成する。
【0075】
そして、学習済みモデル生成機能135gは、メモリ132から医用画像データ11を取得する。
【0076】
図9は、実施形態に係る学習済みモデル生成機能135gが実行する処理の一例を説明するための図である。
図9には、実施形態の学習済みモデル12の生成方法の一例が示されている。
図9に示すように、学習済みモデル生成機能135gは、医用画像データ11と、アトラス情報モデル132bとの関係を学習することによって学習済みモデル12を生成する。
【0077】
このように、学習済みモデル生成機能135gは、医用画像データ11と、アトラス情報モデル132bとを対応付けて学習することによって学習済みモデル12を生成する。
【0078】
例えば、学習済みモデル生成機能135gは、医用画像データ11を入力データとし、アトラス情報モデル132bを教師データとして機械エンジンに入力することによって、機械学習を行う。例えば、機械学習エンジンは、ディープラーニング(Deep Learning)、ニューラルネットワーク(Neural Network)、ロジスティック(Logistic)回帰分析、非線形判別分析、サポートベクターマシン(Support Vector Machine:SVM)、ランダムフォレスト(Random Forest)、ナイーブベイズ(Naive Bays)等の各種のアルゴリムを用いて、機械学習を行う。
【0079】
学習済みモデル生成機能135gは、このような機械学習の結果として学習済みモデル12を生成する。学習済みモデル12は、医用画像データ11に相当する画像データが入力されることで、アトラス情報モデル132bに相当するモデルを推定(生成)し、出力する。
【0080】
そして、学習済みモデル生成機能135gは、生成した学習済みモデル12をメモリ132に記憶させる。そして、学習済みモデル生成機能135gは、新たな医用画像データ11と、新たなアトラス情報モデル132bとを対応付けて学習することによって学習済みモデル12に追加学習させる。本実施形態では、このようにして学習済みモデル12に追加学習させることが繰り返し行われる。
【0081】
そして、上述したように、ステップS102では、取得機能135bは、追加学習された学習済みモデル12に医用画像データ11を入力し、学習済みモデル12から出力されたアトラス情報モデルを取得する。したがって、取得機能135bは、間接的に学習されたアトラス情報モデルを取得することができる。
【0082】
以上、実施形態に係る画像処理装置130について説明した。実施形態に係る画像処理装置130は、ユーザの操作を必要とすることなく、医用画像データ11内の各臓器のセグメンテーション処理を同時に実行することができる。
【0083】
また、実施形態に係る画像処理装置130は、AIを使って医用画像データ11全体から臓器をセグメンテーションするのではなく、学習されたアトラス情報モデルを用いて各臓器の重心をシード点として、セグメンテーション処理を行う。
【0084】
以上のことから、実施形態に係る画像処理装置130は、セグメンテーション処理全体の処理時間を短縮することができる。
【0085】
(実施形態の変形例1)
上述した実施形態では、アトラス情報モデル132aが特定の臓器に特化せず、複数の臓器の領域の重心位置や複数の臓器のボリュームサイズ等を含む場合について説明した。しかしながら、アトラス情報モデル132aが、特定の臓器(例えば心臓等)に特化したモデルであってもよい。そこで、このような変形例を実施形態の変形例1として説明する。なお、実施形態の変形例1の説明では、主に、実施形態と異なる点について説明し、実施形態と同様の構成の説明については省略する場合がある。
【0086】
例えば、変形例1では、アトラス情報モデル132aは、心臓に特化したモデルである。すなわち、アトラス情報モデル132aは、心臓を基準としたモデルである。具体的には、アトラス情報モデル132aは、心臓の重心位置、心臓のボリュームサイズ等の心臓に関する情報を有するが、他の臓器の領域の重心位置や他の臓器のボリュームサイズ等の情報を有さない。例えば、変形例1では、アトラス情報モデル132aは、先の
図4に示す心臓に関する情報(Node2に関する情報)を有するが、他の臓器に関する情報を有さない。
【0087】
変形例1において、画像処理装置130が、上述したようなアトラス情報モデル132aを用いて、セグメンテーション処理を実行する場合について説明する。以下、セグメンテーション処理の対象の臓器が、心臓、肺及び肝臓である場合について説明する。
【0088】
まず、セグメンテーション実行機能135cは、アトラス情報モデル132aに含まれる心臓の重心位置をシード点の位置として取得する。セグメンテーション実行機能135cは、取得されたシード点の位置にシード点を設定する。そして、セグメンテーション実行機能135cは、設定されたシード点を用いて、医用画像データ11から心臓の領域をセグメンテーション(抽出)するセグメンテーション処理を実行する。そして、セグメンテーション実行機能135cは、セグメンテーションされた心臓の領域を取得する。
【0089】
そして、セグメンテーション実行機能135cは、アトラス情報モデル132aに含まれる位置関係情報1及び位置関係情報2を取得する。そして、セグメンテーション実行機能135cは、セグメンテーションされた心臓の領域と位置関係情報1とから、おおよその肺の領域の重心位置を推定する。そして、セグメンテーション実行機能135cは、医用画像データ11の推定された肺の領域の重心位置にシード点を設定する。そして、セグメンテーション実行機能135cは、設定されたシード点を用いて、医用画像データ11から肺の領域をセグメンテーションするセグメンテーション処理を実行して、肺の領域をセグメンテーションする。
【0090】
また、セグメンテーション実行機能135cは、セグメンテーションされた心臓の領域と位置関係情報2とから、おおよその肝臓の領域の重心位置を推定する。そして、セグメンテーション実行機能135cは、医用画像データ11の推定された肝臓の領域の重心位置にシード点を設定する。そして、セグメンテーション実行機能135cは、設定されたシード点を用いて、医用画像データ11から肝臓の領域をセグメンテーションするセグメンテーション処理を実行して、肝臓の領域をセグメンテーションする。
【0091】
したがって、実施形態の変形例1によれば、画像処理装置130は、ユーザの操作を必要とすることなく、医用画像データ11内の各臓器のセグメンテーション処理を同時に実行することができる。
【0092】
また、実施形態の変形例1に係る画像処理装置130は、AIを使って医用画像データ11全体から臓器をセグメンテーションするのではなく、学習されたアトラス情報モデルを用いて各臓器の重心をシード点として、セグメンテーション処理を行う。
【0093】
以上のことから、実施形態の変形例1に係る画像処理装置130は、セグメンテーション処理全体の処理時間を短縮することができる。
【0094】
(実施形態の変形例2)
上述した実施形態では、画像処理装置130が、ステップS116において、セグメンテーションされた臓器の領域の重心位置、セグメンテーションされた隣接する2つの臓器についての位置関係情報、及び、セグメンテーションされた臓器のボリュームサイズをメモリ132に保存する場合について説明した。そして、上述した実施形態では、画像処理装置130が、保存されたこれらの情報を用いて、アトラス情報モデル132aに学習させる場合について説明した。しかしながら、画像処理装置130は、ステップS116において、アトラス情報モデル132aに含まれる情報と、セグメンテーションの結果から得られる情報との差分をメモリ132に保存させてもよい。そして、画像処理装置130は、保存された差分を用いて、アトラス情報モデル132aに学習させてもよい。そこで、このような変形例を実施形態の変形例2として説明する。なお、実施形態の変形例2の説明では、主に、実施形態と異なる点について説明し、実施形態と同様の構成の説明については省略する場合がある。
【0095】
変形例2では、ステップS116において、制御機能135aは、アトラス情報モデル132aに含まれる臓器の領域の重心位置と、医用画像データ11におけるステップS112でセグメンテーションされた臓器の領域の重心位置との差分(重心位置の差分)を算出する。例えば、制御機能135aは、アトラス情報モデル132aに含まれる臓器の領域の重心位置を基準として、重心位置の差分を算出する。ただし、制御機能135aは、ステップS115において範囲が変更された領域については、範囲が変更された領域の重心位置と、アトラス情報モデル132aに含まれる臓器の領域の重心位置との差分を算出する。なお、同一の臓器の間で重心位置の差分が算出される。そして、制御機能135aは、算出された重心位置の差分をメモリ132に保存する。
【0096】
また、ステップS116において、制御機能135aは、アトラス情報モデル132aに含まれる位置関係情報と、セグメンテーションされた隣接する2つの臓器についての位置関係情報との差分(位置関係情報の差分)を算出する。例えば、制御機能135aは、アトラス情報モデル132aに含まれる位置関係情報を基準として、位置関係情報の差分を算出する。ただし、制御機能135aは、ステップS115において範囲が変更された領域については、範囲が変更された領域を用いて隣接する2つの臓器についての位置関係情報を算出し、算出された位置関係情報とアトラス情報モデル132aに含まれる位置関係情報との差分(位置関係情報の差分)を算出する。なお、同一の2つの隣接する臓器の間で位置関係情報の差分が算出される。そして、制御機能135aは、算出された位置関係情報の差分をメモリ132に保存する。
【0097】
また、ステップS116において、制御機能135aは、アトラス情報モデル132aに含まれる臓器のボリュームサイズと、セグメンテーションされた臓器のボリュームサイズとの差分(ボリュームサイズの差分)を算出する。例えば、制御機能135aは、アトラス情報モデル132aに含まれる臓器のボリュームサイズを基準として、ボリュームサイズの差分を算出する。ただし、制御機能135aは、ステップS115において範囲が変更された領域については、範囲が変更された領域から臓器のボリュームサイズを算出し、算出されたボリュームサイズとアトラス情報モデル132aに含まれる臓器のボリュームサイズとの差分(ボリュームサイズの差分)を算出する。なお、同一の臓器の間でボリュームサイズの差分が算出される。そして、制御機能135aは、算出されたボリュームサイズの差分をメモリ132に保存する。
【0098】
次に、変形例2において、アトラス情報モデル132aに学習させる方法の一例について説明する。例えば、制御機能135aは、メモリ132に保存された重心位置の差分、位置関係情報の差分、ボリュームサイズの差分を取得する。そして、制御機能135aは、取得された重心位置の差分、位置関係情報の差分、ボリュームサイズの差分を用いて、アトラス情報モデル132aに含まれる臓器の領域の重心位置、位置関係情報、臓器のボリュームサイズを補正する。すなわち、制御機能135aは、アトラス情報モデル132aに含まれる臓器の領域の重心位置を、アトラス情報モデル132aに含まれる臓器の領域の重心位置とセグメンテーション結果から得られる臓器の領域の重心位置との差分に基づいて補正する。また、制御機能135aは、アトラス情報モデル132aに含まれる2つの臓器の位置関係を、アトラス情報モデル132aに含まれる2つの臓器の位置関係とセグメンテーション結果から得られる2つの臓器の位置関係との差分に基づいて補正する。また、制御機能135aは、アトラス情報モデル132aに含まれる臓器のボリュームサイズを、アトラス情報モデル132aに含まれる臓器のボリュームサイズとセグメンテーション結果から得られる臓器のボリュームサイズとの差分に基づいて補正する。このような補正を繰り返し行うことにより、アトラス情報モデル132aに学習させる。
【0099】
変形例2において、アトラス情報モデル132aに学習させる方法の具体例について説明する。例えば、制御機能135aは、学習済みモデル生成機能135gを制御し、学習済みモデル生成機能135gに以下の処理を実行させる。例えば、上述した実施形態では、学習済みモデル生成機能135gが、アトラス情報モデル132bを用いて学習済みモデル12に次々に追加学習させることで、間接的に、アトラス情報モデル132aに学習させる場合について説明した。一方、変形例2では、学習済みモデル生成機能135gは、アトラス情報モデル132bに代えて、制御機能135aにより取得された重心位置の差分、位置関係情報の差分、ボリュームサイズの差分を用いて学習済みモデル12に次々に追加学習させることで、間接的に、アトラス情報モデル132aに学習させる。
【0100】
以上、実施形態の変形例2に係る画像処理装置130について説明した。変形例2に係る画像処理装置130は、実施形態に係る画像処理装置130と同様に、セグメンテーション処理全体の処理時間を短縮することができる。
【0101】
なお、画像処理装置130の処理回路135は、シード点を用いたディテクション(detection)を行ってもよい。処理回路135は、学習済みモデルを用いて、かかるディテクションを行う。以下の説明では、このような学習済みモデルは、例えば、ディテクション用学習済みモデルと称される。
【0102】
まず、処理回路135が実行する学習時のディテクション用学習済みモデルを生成する処理の一例について説明する。例えば、処理回路135は、学習時において、3次元データである医用画像データ11と、セグメンテーション実行機能135cにより医用画像データ11からセグメンテーションされた臓器の領域を包含する直方体の8つの頂点の座標と、ラベル(例えば、医用画像データ11からセグメンテーションされた臓器の名称)との関係を学習することによってディテクション用学習済みモデルを生成する。以下の説明では、ラベルが臓器の名称である場合について説明するが、ラベルはこれに限られない。このように、処理回路135は、医用画像データ11と、座標と、臓器の名称とを対応付けて学習することによってディテクション用学習済みモデルを生成する。
【0103】
例えば、処理回路135は、医用画像データ11を入力データとし、座標及びラベルの組合せを教師データとして機械エンジンに入力することによって、機械学習を行う。例えば、機械学習エンジンは、ディープラーニング、ニューラルネットワーク、ロジスティック回帰分析、非線形判別分析、サポートベクターマシン、ランダムフォレスト、ナイーブベイズ等の各種のアルゴリムを用いて、機械学習を行う。
【0104】
処理回路135は、このような機械学習の結果としてディテクション用学習済みモデルを生成する。ディテクション用学習済みモデルは、医用画像データ11に相当する画像データが入力されることで、医用画像データ11に相当する画像データにおいてセグメンテーションされた臓器の領域を包含する直方体の頂点の座標に相当する座標、及び、医用画像データ11に相当する画像データにおいてセグメンテーションされた臓器の名称に相当する臓器の名称を推定(生成)し、出力する。
【0105】
そして、処理回路135は、生成されたディテクション用学習済みモデルをメモリ132に記憶させる。上述したようなディテクション用学習済みモデルを生成する方法によれば、教師データを作成する際に要する時間の増大を抑制することができる。
【0106】
次に、処理回路135が実行する運用時のディテクション用学習済みモデルを用いたディテクション処理の一例について説明する。例えば、処理回路135は、運用時において、医用画像データ11をディテクション用学習済みモデルに入力し、ディテクション用学習済みモデルに、医用画像データ11においてセグメンテーションされた臓器の領域を包含する直方体の頂点の座標に相当する座標、及び、医用画像データ11においてセグメンテーションされた臓器の名称に相当する臓器の名称を推定させ、出力させる。そして、処理回路135は、ディテクション用学習済みモデルにより出力された座標及び臓器の名称を取得する。
【0107】
そして、処理回路135は、医用画像データ11に基づく医用画像をディスプレイ134に表示させるとともに、医用画像上にディテクション結果を重畳表示させる。例えば、処理回路135は、3次元データである医用画像データ11からコロナル像の画像データであるMPR画像データを生成する。そして、処理回路135は、生成したMPR画像データに基づくコロナル像をディスプレイ134に表示させる。また、処理回路135は、取得された座標により3次元空間における位置が示される8つの頂点を結ぶことにより得られる直方体を、コロナル像のコロナル断面で切断した場合のコロナル断面における直方体の形状(例えば矩形)を特定する。そして、処理回路135は、ディスプレイ134に表示されたコロナル像に、特定された形状を重畳表示させる。更に、処理回路135は、取得された臓器の名称をディスプレイ134に表示させる。これにより、ユーザは、ディスプレイ134に表示された形状内に存在する臓器の名称を把握することができる。
【0108】
また、画像処理装置130の処理回路135は、シード点を用いたクラシフィケーション(classification)を行ってもよい。処理回路135は、学習済みモデルを用いて、かかるクラシフィケーションを行う。以下の説明では、このような学習済みモデルは、例えば、クラシフィケーション用学習済みモデルと称される。
【0109】
まず、処理回路135が実行する学習時のクラシフィケーション用学習済みモデルを生成する処理の一例について説明する。例えば、処理回路135は、学習時において、3次元データである医用画像データ11と、セグメンテーション実行機能135cにより医用画像データ11からセグメンテーションされた臓器の領域内の腫瘍の位置を示す情報(以下、位置情報と称する)と、腫瘍が悪性であるのか又は良性であるのかを示す情報(以下、良悪性情報と称する)との関係を学習することによってクラシフィケーション用学習済みモデルを生成する。このように、処理回路135は、医用画像データ11と、位置情報と、良悪性情報とを対応付けて学習することによってクラシフィケーション用学習済みモデルを生成する。
【0110】
例えば、処理回路135は、医用画像データ11を入力データとし、位置情報及び良悪性情報の組合せを教師データとして機械エンジンに入力することによって、機械学習を行う。例えば、機械学習エンジンは、ディープラーニング、ニューラルネットワーク、ロジスティック回帰分析、非線形判別分析、サポートベクターマシン、ランダムフォレスト、ナイーブベイズ等の各種のアルゴリムを用いて、機械学習を行う。
【0111】
処理回路135は、このような機械学習の結果としてクラシフィケーション用学習済みモデルを生成する。クラシフィケーション用学習済みモデルは、医用画像データ11に相当する画像データが入力されることで、位置情報及び良悪性情報を推定(生成)し、出力する。
【0112】
そして、処理回路135は、生成されたクラシフィケーション用学習済みモデルをメモリ132に記憶させる。上述したようなクラシフィケーション用学習済みモデルを生成する方法によれば、教師データを作成する際に要する時間の増大を抑制することができる。
【0113】
次に、処理回路135が実行する運用時のクラシフィケーション用学習済みモデルを用いたクラシフィケーション処理の一例について説明する。例えば、処理回路135は、運用時において、医用画像データ11をクラシフィケーション用学習済みモデルに入力し、クラシフィケーション用学習済みモデルに、位置情報及び良悪性情報を推定させ、出力させる。そして、処理回路135は、クラシフィケーション用学習済みモデルにより出力された位置情報及び良悪性情報を取得する。
【0114】
そして、処理回路135は、医用画像データ11に基づく医用画像をディスプレイ134に表示させるとともに、医用画像上にクラシフィケーション結果を表示させる。例えば、処理回路135は、3次元データである医用画像データ11からコロナル像の画像データであるMPR画像データを生成する。そして、処理回路135は、生成したMPR画像データに基づくコロナル像をディスプレイ134に表示させる。また、処理回路135は、ディスプレイ134に表示されたコロナル像上の位置情報により示される腫瘍の位置に腫瘍を示すマークを重畳表示させる。更に、処理回路135は、良悪性情報をディスプレイ134に表示させる。これにより、ユーザは、ディスプレイ134に表示された腫瘍の位置及び腫瘍が悪性であるのか良性であるのかを把握することができる。
【0115】
なお、上述した実施形態の説明で用いた「プロセッサ」という文言は、例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、又は、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)、プログラマブル論理デバイス(例えば、単純プログラマブル論理デバイス(Simple Programmable Logic Device:SPLD)、複合プログラマブル論理デバイス(Complex Programmable Logic Device:CPLD)、及びフィールドプログラマブルゲートアレイ(Field Programmable Gate Array:FPGA))等の回路を意味する。ここで、メモリ132にプログラムを保存する代わりに、プロセッサの回路内にプログラムを直接組み込むように構成しても構わない。この場合には、プロセッサは回路内に組み込まれたプログラムを読み出し実行することで機能を実現する。また、本実施形態の各プロセッサは、プロセッサごとに単一の回路として構成される場合に限らず、複数の独立した回路を組み合わせて一つのプロセッサとして構成され、その機能を実現するようにしてもよい。
【0116】
ここで、プロセッサによって実行されるプログラムは、ROM(Read Only Memory)や記憶回路等に予め組み込まれて提供される。なお、このプログラムは、これらの装置にインストール可能な形式又は実行可能な形式のファイルでCD(Compact Disk)-ROM、FD(Flexible Disk)、CD-R(Recordable)、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な非一過性の記憶媒体に記録されて提供されてもよい。また、このプログラムは、インターネット等のネットワークに接続されたコンピュータ上に格納され、ネットワーク経由でダウンロードされることによって提供又は配布されてもよい。例えば、このプログラムは、上述した各処理機能を含むモジュールで構成される。実際のハードウェアとしては、CPUが、ROM等の記憶媒体からプログラムを読み出して実行することにより、各モジュールが主記憶装置上にロードされて、主記憶装置上に生成される。
【0117】
以上説明した少なくとも一つの実施形態によれば、処理時間を短縮することができる。
【0118】
いくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。
【符号の説明】
【0119】
130 画像処理装置
135a 制御機能
135c セグメンテーション実行機能