(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2025149187
(43)【公開日】2025-10-08
(54)【発明の名称】画像処理装置、方法およびプログラム並びに学習装置、方法およびプログラム
(51)【国際特許分類】
A61B 6/03 20060101AFI20251001BHJP
A61B 5/055 20060101ALI20251001BHJP
【FI】
A61B6/03 560Z
A61B6/03 560T
A61B5/055 380
【審査請求】未請求
【請求項の数】20
【出願形態】OL
(21)【出願番号】P 2024049673
(22)【出願日】2024-03-26
(71)【出願人】
【識別番号】306037311
【氏名又は名称】富士フイルム株式会社
(74)【代理人】
【識別番号】110001519
【氏名又は名称】弁理士法人太陽国際特許事務所
(72)【発明者】
【氏名】工藤 彰
【テーマコード(参考)】
4C093
4C096
【Fターム(参考)】
4C093AA22
4C093AA26
4C093FF16
4C093FF33
4C093FF42
4C096AA03
4C096AA04
4C096AA17
4C096AA18
4C096AD14
4C096BA19
4C096DC19
4C096DC33
4C096DC36
(57)【要約】 (修正有)
【課題】画像処理装置、方法およびプログラム、学習装置、方法およびプログラム、並びに導出モデルにおいて、解剖学的構造を維持した画像のドメイン変換を行うことができるようにする。
【解決手段】プロセッサが、第1モダリティの第1画像から第2画像を導出し、第2画像から第1モダリティとは異なる第2モダリティの第3画像を導出する。
【選択図】
図3
【特許請求の範囲】
【請求項1】
少なくとも1つのプロセッサを備え、
前記プロセッサは、
第1モダリティの第1画像から第2画像を導出し、
前記第2画像から前記第1モダリティとは異なる第2モダリティの第3画像を導出する画像処理装置。
【請求項2】
前記プロセッサは、第1変換モデルを使用して、前記第1モダリティの前記第1画像から前記第2画像を導出し、
第2変換モデルを使用して、前記第2画像から前記第2モダリティの前記第3画像を導出する請求項1に記載の画像処理装置。
【請求項3】
前記第1変換モデルは3次元画像変換モデルであり、
前記プロセッサは、前記第1変換モデルを使用して3次元の前記第1画像から3次元の前記第2画像を導出する請求項2に記載の画像処理装置。
【請求項4】
前記第2変換モデルは2次元画像変換モデルであり、
前記プロセッサは、3次元の前記第2画像から少なくとも1つの断層画像を抽出し、
前記第2変換モデルを使用して、前記断層画像から前記第3画像を導出する請求項2または3に記載の画像処理装置。
【請求項5】
前記第1変換モデルは2次元画像変換モデルであり、
前記プロセッサは、前記第1変換モデルを使用して、2次元座標で表される前記第1画像から2次元座標で表される前記第2画像を導出する請求項2に記載の画像処理装置。
【請求項6】
前記第2変換モデルは3次元画像変換モデルであり、
前記プロセッサは、複数の2次元座標で表される前記第2画像から3次元の第2画像を導出し、
前記第2変換モデルを使用して、前記3次元の第2画像から前記第3画像を導出する請求項2または5に記載の画像処理装置。
【請求項7】
前記プロセッサは、前記第3画像に含まれる解剖構造を分類することにより、前記解剖構造についての分類結果を導出する請求項1に記載の画像処理装置。
【請求項8】
前記プロセッサは、前記第3画像に含まれる解剖構造を分類することにより、前記解剖構造についての分類結果を導出する請求項2に記載の画像処理装置。
【請求項9】
前記プロセッサは、前記第3画像を用いた前記解剖構造の分類結果と、前記第3画像と同一モダリティの実画像を用いた前記解剖構造の分類結果とを判別する判別器に対して敵対的学習を導入し、
前記第3画像に対する前記解剖構造の分類結果を前記判別器が判別できないような前記第3画像を導出するように、前記第1変換モデルおよび前記第2変換モデルの学習を行う請求項8に記載の画像処理装置。
【請求項10】
前記第2画像は、前記第1画像および前記第3画像の表現形式とは異なる請求項1に記載の画像処理装置。
【請求項11】
前記プロセッサは、前記第3画像が前記プロセッサにより導出されたものであることを認識可能に保存または表示する請求項1に記載の画像処理装置。
【請求項12】
第2モダリティの画像に含まれる解剖構造を分類する分類モデルを構築するための学習を行う学習装置であって、
少なくとも1つのプロセッサを備え、
前記プロセッサは、請求項1に記載の画像処理装置により導出された第3画像を学習データとして使用して前記学習を行う学習装置。
【請求項13】
前記プロセッサは、前記第3画像を導出した前記第1画像における前記解剖構造の分類結果を用いて、前記学習を行う請求項12に記載の学習装置。
【請求項14】
前記プロセッサは、前記第2モダリティにより取得された実画像をさらに前記学習データとして使用して前記学習を行う請求項12に記載の学習装置。
【請求項15】
前記プロセッサは、前記実画像について、前記学習に使用する頻度を前記第3画像よりも多くする請求項14に記載の学習装置。
【請求項16】
前記プロセッサは、前記実画像について、前記学習に使用する際の重みづけを前記第3画像よりも大きくする請求項14に記載の学習装置。
【請求項17】
コンピュータが、第1モダリティの第1画像から第2画像を導出し、
前記第2画像から前記第1モダリティとは異なる第2モダリティの第3画像を導出する画像処理方法。
【請求項18】
コンピュータが、第2モダリティの画像に含まれる解剖構造を分類する分類モデルを構築するための学習を行う学習方法であって、
請求項1に記載の画像処理装置により導出された第3画像を学習データとして使用して前記学習を行う学習方法。
【請求項19】
第1モダリティの第1画像から第2画像を導出する手順と、
前記第2画像から前記第1モダリティとは異なる第2モダリティの第3画像を導出する手順とをコンピュータに実行させる画像処理プログラム。
【請求項20】
第2モダリティの画像に含まれる解剖構造を分類する分類モデルを構築するための学習をコンピュータに実行させる学習プログラムであって、
請求項1に記載の画像処理装置により導出された第3画像を学習データとして使用して前記学習をコンピュータに実行させる学習プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、画像処理装置、方法およびプログラム、並びに学習装置、方法およびプログラムに関するものである。
【背景技術】
【0002】
医療分野においては、CT(Computed Tomography)装置およびMRI(Magnetic Resonance Imaging)装置、超音波撮影装置、PET(Positron Emission Tomography)装置、X線撮影装置等の各種モダリティ(すなわち、撮影装置または撮影方式)の進歩により、より質の高い医用画像を用いての画像診断が可能となってきている。このようなモダリティにより取得される3次元画像は、モダリティ毎に画像の特徴が異なる。このため、臨床現場では複数のモダリティの画像を見比べて診断を行うケースがある。例えば、椎体検査で軟部組織はMRI装置により取得されたMRI画像を使用し、骨構造についてはCT装置により取得されたCT画像を用いることが行われている。
【0003】
一方、AI(Artificial Intelligence)を用いたコンピュータ支援診断(Computer Aided Diagnosis, Computer Aided Detection :CAD)システムは、対象とする医用画像を撮影したモダリティ毎に構築されることが一般的である。ここで、医用画像はCT装置およびMRI装置のようにモダリティが異なると、画像の表現形式が異なる。例えば、画像に含まれる人体の組織が同じであっても、CT画像とMRI画像とでは濃度が異なるものとなる。また、MRI画像は、T1強調画像、T2強調画像、脂肪抑制画像および拡散強調画像等の多様な撮影条件があり、撮影条件に応じて磁場強度等が異なるため、生成される画像の見え方、すなわち画像の表現形式がそれぞれ異なる。例えば、T1強調画像では、主に脂肪組織が白く見え、水、液性成分および嚢胞は黒く見え、腫瘍はやや黒く見える。また、T2強調画像では、脂肪組織だけでなく、水、液性成分および嚢胞も白く見える。また、MRI画像は、同一の撮影条件であってもMRI装置の製造会社によって表現形式が異なるものとなる場合がある。このように、同一モダリティの画像であっても撮影条件等が異なることにより表現形式が異なるものとなる。
【0004】
このため、CADシステムを、学習に使用した表現形式の画像とは異なる表現形式の画像に適用した場合、画像解析の精度が低下する可能性がある。したがって、例えば、CT画像から擬似的なMRI画像を生成する処理、または、逆に、MRI画像から擬似的なCT画像を生成する処理などの、異種モダリティ間または表現形式が異なる画像間で画像のドメイン変換を行う高性能な画像変換器が要求される。
【0005】
このような要求に対応するため、敵対的生成ネットワーク(Generative Adversarial Networks:GAN)を用いて、ドメインが異なる画像を生成する各種手法が提案されている。例えば、非特許文献1には、敵対的学習により、2つの異なるドメインの画像を相互に変換する手法が提案されている。また、非特許文献2には、敵対的学習により、2以上の多数の異なるドメインの画像を相互に変換する手法が提案されている。
【先行技術文献】
【非特許文献】
【0006】
【非特許文献1】Jun-Yan Zhu, et al., Unpaired Image-to-Image Translation using Cycle-Consistent Adversarial Networks, Berkeley AI Research (BAIR) laboratory, UC Berkeley, ArXiv: 1703.10593, 24 AUG 2020
【非特許文献2】Yunjey Choi, et al., StarGAN: Unified Generative Adversarial Networks for Multi-Domain Image-to-Image Translation,arXiv:1711.09020, 21 SEP 2018
【発明の概要】
【発明が解決しようとする課題】
【0007】
MRI画像は上述したように表現形式が異なる複数種類の画像が存在する。このため、CT画像をMRI画像に変換した場合、MRI画像の表現形式によっては、MRI画像においてCT画像に含まれる解剖学的構造が維持できなくなる可能性がある。
【0008】
本開示は上記事情に鑑みなされたものであり、解剖学的構造を維持した画像のドメイン変換を行うことができるようにすることを目的とする。
【課題を解決するための手段】
【0009】
本開示による画像処理装置は、少なくとも1つのプロセッサを備え、
プロセッサは、
第1モダリティの第1画像から第2画像を導出し、
第2画像から第1モダリティとは異なる第2モダリティの第3画像を導出する。
【0010】
本開示による学習装置は、第2モダリティの画像に含まれる解剖構造を分類する分類モデルを構築するための学習を行う学習装置であって、
少なくとも1つのプロセッサを備え、
プロセッサは、本開示による画像処理装置により導出された第3画像を学習データとして使用して学習を行う。
【0011】
本開示による画像処理方法は、コンピュータが、第1モダリティの第1画像から第2画像を導出し、
第2画像から第1モダリティとは異なる第2モダリティの第3画像を導出する。
【0012】
本開示による学習方法は、コンピュータが、第2モダリティの画像に含まれる解剖構造を分類する分類モデルを構築するための学習を行う学習方法であって、
本開示による画像処理装置により導出された第3画像を学習データとして使用して学習を行う。
【0013】
本開示による学習プログラムは、第1モダリティの第1画像から第2画像を導出する手順と、
第2画像から第1モダリティとは異なる第2モダリティの第3画像を導出する手順とをコンピュータに実行させる。
【0014】
本開示による学習プログラムは、第2モダリティの画像に含まれる解剖構造を分類する分類モデルを構築するための学習をコンピュータに実行させる学習プログラムであって、
本開示による画像処理装置により導出された第3画像を学習データとして使用して学習をコンピュータに実行させる。
【発明の効果】
【0015】
本開示によれば、解剖学的構造を維持した画像のドメイン変換を行うことができる。
【図面の簡単な説明】
【0016】
【
図1】本開示の実施形態による画像処理装置および学習装置を適用した診断支援システムの概要を示すハードウェア構成図
【
図2】本実施形態による画像処理装置のハードウェア構成を示す図
【
図3】本実施形態による画像処理装置の機能的な構成を示す図
【
図6】第1変換モデルを構築するための学習を説明するための図
【
図7】第2変換モデルを構築するための学習を説明するための図
【
図8】変換モデルおよび分類モデルを構築するための学習を説明するための図
【
図10】本実施形態による画像処理装置が行う処理を示すフローチャート
【
図11】本実施形態による学習装置のハードウェア構成を示す図
【
図12】本実施形態による学習装置の機能的な構成を示す図
【
図13】分類モデルを構築するための分類器の学習を説明するための図
【
図14】本実施形態による学習装置が行う処理を示すフローチャート
【発明を実施するための形態】
【0017】
以下、図面を参照して本開示の実施形態について説明する。
図1は、本開示の実施形態による画像処理装置および学習装置を適用した、診断支援システムの概要を示すハードウェア構成図である。
図1に示すように、診断支援システムでは、本実施形態による画像処理装置1、モダリティ2、画像保管サーバ3、および学習装置4が、ネットワーク5を経由して通信可能な状態で接続されている。
【0018】
モダリティ2は、被検体の診断対象となる部位を撮影することにより、その部位を表す画像を生成する装置であり、具体的には、CT装置、MRI装置、超音波撮影装置、PET装置、およびX線撮影装置等である。モダリティ2により生成された被検体の画像は画像保管サーバ3に送信され、保存される。本実施形態においては、モダリティ2として、CT装置2AおよびMRI装置2Bを含むものとする。
【0019】
本実施形態においては、CT装置2AあるいはMRI装置2Bにより3次元画像および2次元画像が取得される。本実施形態において、3次元画像および2次元画像はともに断層画像を含むが、3次元画像とは、2次元画像に対してスライス間隔およびスライス厚の少なくとも一方が小さい複数の断層画像、および複数の断層画像から生成された、各画素が3次元座標で表される画像の少なくともいずれかを含む。例えば、3次元画像とは、スライス厚およびスライス間隔の少なくとも一方が5mm以下である複数の断層画像を含む。なお、3次元画像は、CT装置2AまたはMRI装置2Bが被検体を3次元撮影することにより取得される。
【0020】
一方、2次元画像は、CT装置2AまたはMRI装置2Bが被検体を2次元撮影することにより取得される。2次元画像は、3次元画像に含まれる断層画像に対してスライス間隔が大きい複数の断層画像、および3次元画像に含まれる断層画像に対してスライス厚が大きい少なくとも1以上の断層画像の少なくとも一方を含む。断層画像は、各画素が2次元座標で表される画像を含む。なお、3次元画像または2次元画像が複数の断層画像で構成される場合、断層画像は撮影方向における各断層画像の位置座標を含むため、複数の断層画像全体としては、各画素が3次元座標で表される。撮影方向とは、例えば、断層画像が表す断層面に垂直な方向である。
【0021】
画像保管サーバ3は、各種データを保存して管理するコンピュータであり、大容量外部記憶装置およびデータベース管理用ソフトウェアを備えている。画像保管サーバ3は、有線あるいは無線のネットワーク5を介して他の装置と通信を行い、画像データ等を送受信する。具体的にはモダリティ2で生成された画像の画像データを含む各種データをネットワーク経由で取得し、大容量外部記憶装置等の記録媒体に保存して管理する。なお、画像データの格納形式およびネットワーク5経由での各装置間の通信は、DICOM(Digital Imaging and Communication in Medicine)等のプロトコルに基づいている。また、本実施形態においては、画像保管サーバ3は、後述する学習データも保存して管理している。
【0022】
本実施形態の画像処理装置1および学習装置4は、それぞれ1台のコンピュータに、本実施形態の画像処理プログラムおよび学習プログラムをそれぞれインストールしたものである。コンピュータは、診断を行う医師が直接操作するワークステーションまたはパーソナルコンピュータでもよいし、それらとネットワークを介して接続されたサーバコンピュータでもよい。画像処理プログラムおよび学習プログラムは、ネットワークに接続されたサーバコンピュータの記憶装置、もしくはネットワークストレージに、外部からアクセス可能な状態で記憶され、要求に応じて医師が使用するコンピュータにダウンロードされ、インストールされる。または、DVD(Digital Versatile Disc)あるいはCD-ROM(Compact Disc Read Only Memory)等の記録媒体に記録されて配布され、その記録媒体からコンピュータにインストールされる。
【0023】
以下、本実施形態による画像処理装置について説明する。
図2は、本実施形態による画像処理装置のハードウェア構成を示す図である。
図2に示すように、画像処理装置1は、CPU(Central Processing Unit)11、ディスプレイ14、入力デバイス15、メモリ16、およびネットワーク5に接続されるネットワークI/F(InterFace)17を含む。CPU11、ディスプレイ14、入力デバイス15、メモリ16およびネットワークI/F17は、バス19に接続される。なお、CPU11は、本開示におけるプロセッサの一例である。
【0024】
メモリ16は、記憶部13およびRAM(Random Access Memory)18を含む。RAM18は、一次記憶用のメモリであり、例えば、SRAM(Static Random Access Memory)またはDRAM(Dynamic Random Access Memory)等のRAMである。
【0025】
記憶部13は、不揮発性のメモリであり、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)、EEPROM(Electrically Erasable and Programmable Read Only Memory)、およびフラッシュメモリ等の少なくとも1つによって実現される。記憶媒体としての記憶部13には、本実施形態による画像処理プログラム12が記憶される。CPU11は、記憶部13から画像処理プログラム12を読み出してRAM18に展開し、展開した画像処理プログラム12を実行する。なお、記憶部13には、後述する変換モデル30および分類モデル35も記憶されている。
【0026】
ディスプレイ14は、各種画面を表示する装置であり、例えば、液晶ディスプレイまたはEL(Electro Luminescence)ディスプレイである。入力デバイス15は、ユーザが入力を行うための装置であり、例えば、キーボード、マウス、音声入力用のマイク、接触を含む近接入力用のタッチパッド、およびジェスチャー入力用のカメラの少なくともいずれかである。ネットワークI/F17は、ネットワーク5に接続するためのインタフェースである。
【0027】
次いで、本実施形態による画像処理装置の機能的な構成を説明する。
図3は、本実施形態による画像処理装置の機能的な構成を示す図である。
図3に示すように画像処理装置1は、情報取得部21、導出部22、分類部23、学習部24および表示制御部25を備える。そして、CPU11が画像処理プログラム12を実行することにより、CPU11は、情報取得部21、導出部22、分類部23、学習部24および表示制御部25として機能する。
【0028】
情報取得部21は、ネットワーク5を介して、画像保管サーバ3から、処理対象となる第1画像G1を取得する。本実施形態においては、スライス厚が小さい複数の断層画像を含む3次元CT画像を第1画像G1として取得するものとする。CT装置2Aが本開示の第1モダリティの一例であり、3次元CT画像である第1画像G1が、本開示の第1モダリティの第1画像の一例である。なお、本実施形態において、モダリティの画像は、例えば、モダリティの撮像方式で表現された画像である。例えば、CT画像は、CT装置の撮像方式で表現された画像である。なお、撮影方式で表現された画像とは、実際にCT装置によって撮像された実画像、および画像処理によって疑似的に導出された疑似画像の少なくとも一方を含む。
【0029】
導出部22は、変換モデルを用いて、第1モダリティの第1画像G1から第1モダリティとは異なる第2モダリティの第3画像G3を導出する。
【0030】
図4は変換モデルの構成を示す概略ブロック図である。
図4に示すように、変換モデル30は第1変換モデル31および第2変換モデル32を有する。導出部22は、第1変換モデル31を使用して、第1モダリティの第1画像G1、すなわち3次元CT画像から第2画像G2を導出し、第2変換モデル32を使用して、第2画像G2から第1モダリティとは異なる第2モダリティの第3画像G3、すなわちMRI画像を導出する。MRI装置2Bが本開示の第2モダリティの一例であり、MRI画像である第3画像G3が、本開示の第2モダリティの第3画像の一例である。
【0031】
第1変換モデル31は、例えば3次元の畳み込みニューラルネットワーク(3D-CNN(Convolutional Neural Network)であり、3次元画像に対して3次元のフィルタを用いて畳み込みを行うことにより、入力された第1画像G1の表現形式とは異なる表現形式の第2画像G2を導出する。本実施形態においては、第1変換モデル31は、入力された3次元CT画像の表現形式を3次元MRI画像の表現形式に変換するための、すなわちドメインを変換するためのドメイン変換ネットワークである。
【0032】
なお、第1変換モデル31は、第1画像G1である3次元CT画像を変換することにより、3次元CT画像に含まれる解剖構造を3次元的に表現可能な3次元MRI画像を第2画像G2として導出する。第1変換モデル31が導出するMRI画像としては、例えば汎用性が高い、T1強調画像またはT2強調画像が挙げられる。本実施形態においては、T1強調画像を第2画像G2として導出するものとする。以降の説明においては、T1強調画像およびT2強調画像をMRI-T1強調画像およびMRI-T2強調画像と称する場合があるものとする。
【0033】
第2変換モデル32は、例えば、2次元の畳み込みニューラルネットワーク(2D-CNN)であり、2次元座標で表される画像に対して2次元のフィルタを用いて畳み込みを行うことにより、入力された第2画像G2の表現形式とは異なる表現形式の第3画像G3を導出するドメイン変換ネットワークである。第2変換モデル32は2D-CNNであるため、第1変換モデル31が導出した3次元の第2画像G2から少なくとも1つの断層画像が抽出され、抽出された断層画像である第2画像G2が第2変換モデル32に入力される。本実施形態においては、第1変換モデル31が導出したMRI画像はT1強調画像であるため、抽出された断層画像は、2次元座標で表されるT1強調画像である。なお、3次元の第2画像G2に含まれる断層画像よりもスライス間隔が大きい複数の断層画像が抽出された場合、またはスライス厚が大きい1以上の断層画像が抽出された場合、抽出された複数の断層画像または1以上の断層画像は2次元画像を構成する。
【0034】
第2変換モデル32は入力された2次元座標で表される断層画像であるT1強調画像の表現形式を、例えばT2強調画像、拡散強調画像、脂肪抑制画像およびFLAIR画像等のT1強調画像とは異なる表現形式の断層画像に変換する。また、MRI画像は、装置を製造する製造会社によっても画像の見え方が異なるものとなる。このため、第2変換モデル32は、断層画像であるT1強調画像の表現形式を、各種製造会社のMRI画像の見え方となる表現形式の断層画像に変換するものであってもよい。
図4においては、第2変換モデル32は、T1強調画像を拡散強調画像に変換することを示している。
【0035】
本実施形態においては、第2変換モデル32は、T1強調画像をT1強調画像以外の他の1種類の表現形式のMRI画像に変換するように構築されたものであってもよく、複数種類の表現形式のMRI画像に変換可能なものであってもよい。後者の場合、第2変換モデル32には、T1強調画像に加えて、変換する表現形式を指定する情報が入力され、入力されたT1強調画像が入力された表現形式のMRI画像に変換されることとなる。以降の説明においては、第2変換モデル32は、入力されたT1強調画像を1種類の表現形式のMRI画像に変換するものとする。
【0036】
第2変換モデル32は、2次元座標で表される画像である第2画像G2を、第2画像G2とは表現形式が異なる2次元座標で表される画像である第3画像G3に変換するものである。ここで、第2変換モデル32は、第2画像G2に含まれる2次元座標で構成される1つの断層画像を、第3画像G3に含まれる2次元座標で構成される1つの断層画像に変換する処理を行う。第2変換モデル32は、第2画像G2が複数の断層画像を含む場合は、複数の断層画像のそれぞれを、複数の断層画像を含む第3画像G3に変換する。ここで、第2変換モデル32が行う変換処理において、入力される第2画像G2に含まれる断層画像と、出力される第3画像G3に含まれる断層画像とは、断層画像が示す座標は同一となる。このため、第2画像G2から第2変換モデル32に入力される複数の断層画像のスライス間隔および少なくとも1つの断層画像のスライス厚の少なくとも一方が小さければ、第2変換モデル32が導出する第3画像G3に含まれる複数の断層画像のスライス間隔および少なくとも1つの断層画像のスライス厚の少なくとも一方も小さくなる。したがって、使用する目的に応じた数、並びにスライス間隔およびスライス厚の少なくとも一方での断層画像が3次元の第2画像G2から抽出されて、第3画像G3に変換される。
【0037】
例えば、3次元の第2画像G2が第1のスライス間隔を有する複数の断層画像で構成される場合、3次元の第2画像G2に含まれる第1のスライス間隔を有する複数の断層画像のそれぞれを第2変換モデル32によって変換することにより、第1のスライス間隔を有する複数の断層画像からなる3次元の第3画像G3を取得することができる。一方、撮影時の位置決めのために使用するスカウト画像は、スライス間隔が例えば7mm以上であり、数枚のみしか取得されない。このため、7mm以上のスライス間隔で数枚の断層画像を第2画像G2から抽出して第2変換モデル32によって変換することにより、スカウト画像として使用できるスライス間隔および枚数の断層画像からなる第3画像G3を取得することができる。
【0038】
上記のように導出された第3画像G3は、MRI撮影装置により実際に撮影された実画像ではなく、擬似的に導出された疑似画像である。このため、導出部22において、疑似画像であることを表す情報を第3画像G3に付与してもよい。例えば、第3画像G3に疑似画像であることを表すマーク(例えばFakeを表すFのマーク)を重畳したり、第3画像G3のヘッダに疑似画像であることを表す情報を記述したりしてもよい。
【0039】
分類部23は、導出部22が導出した第3画像G3に含まれる解剖構造をセグメンテーションすなわち分類する。分類する解剖構造は、被検体の撮影部位に応じて異なる。例えば、第3画像G3の撮影部位が胸部の場合は心臓、肺および気管支等が分類される解剖構造となる。また、第3画像G3の撮影部位が腹部の場合は、肝臓および膵臓等が分類される解剖構造となる。
【0040】
分類部23は、2次元座標により表される画像に含まれる解剖構造を分類するように学習がなされた分類モデル35を使用して、第3画像G3に含まれる少なくとも1つの断層画像のそれぞれから解剖構造を抽出し、抽出した解剖構造がいずれの臓器であるかを分類し、解剖構造の分類結果を導出する。分類結果は入力された画像の各画素の解剖構造が何であるかを表すものであり、分類部23は、同一の解剖構造に分類された画素をラベリングすることにより、解剖構造の分類結果を表すマスクを導出する。
図5はマスクを示す図である。
図5に示すマスク37は胸部のアキシャル画像であり、分類部23により分類された解剖構造である心臓にラベル38が付与され、肺にラベル39が付与されている。
【0041】
なお、マスクとは、画素の位置座標ごとに付与されたラベルを示すマスク画像、画素の位置座標ごとのモダリティが検出した信号値により生成されるモダリティ画像とマスク画像とを合成した合成画像、およびモダリティ画像とマスク画像を重畳させた重畳画像の少なくともいずれかを含む。また、分類部23は、第1画像G1、第2画像G2および第3画像G3の少なくともいずれかである対象画像から解剖構造を分類し、対象画像と対象画像以外の画像との対応関係に基づいて、対象画像以外の画像における解剖構造の分類結果を導出してもよい。例えば、分類モデル35を使用して第1画像G1から第1画像G1のマスクを導出し、第1画像G1および第1画像G1のマスクを第1変換モデル31に入力することにより、第2画像G2および第2画像G2のマスクを導出するものとしてもよい。また、分類モデル35を使用して第2画像G2から第2画像G2のマスクを導出し、第2画像G2および第2画像G2のマスクを第2変換モデル32に入力することにより、第3画像G3および第3画像G3のマスクを導出するとものしてもよい。
【0042】
なお、分類部23は、導出部22が導出した疑似画像であるMRI画像のみならず、MRI装置により被検体を撮影することにより取得した実画像であるMRI画像の解剖構造を分類することも可能である。このため、後述するように、分類モデル35を構築するためには、実画像および疑似画像の双方が使用される。
【0043】
なお、導出部22が導出した第3画像G3および分類部23が導出した分類結果を表すマスクは、互いに対応付けられてネットワーク5を介して画像保管サーバ3に送信され、保存される。
【0044】
学習部24は、変換モデル30および分類モデル35の学習を行う。まず、変換モデル30のみを学習する場合について説明する。なお、CPU11を学習部24として機能させるための学習プログラムを画像処理プログラム12とは別に用意し、学習プログラムによりCPU11を学習部24として機能させるようにしてもよい。
【0045】
本実施形態においては、学習部24は、敵対的学習により変換モデル30を構築する。学習に際し変換モデル30は、敵対的生成ネットワーク(Generative Adversarial Networks:GAN)を構成する。
図6は変換モデル30に含まれる第1変換モデル31を構築するための学習を説明するための図である。
図6に示すように、第1変換モデル31を構築するために、本実施形態においては、生成器(ジェネレータ(Generator))41および判別器(ディスクリミネータ(Discriminator))42を使用する。学習に際しては、実画像である3次元CT画像CR0、および実画像である3次元MRI画像MR0が使用される。なお、3次元MRI画像MR0はT1強調画像である。学習に使用する3次元CT画像CR0および3次元MRI画像MR0は、同一被写体のものでなくてもよい。
【0046】
生成器41は、第1変換モデル31を構築するものであり、3次元の畳み込みニューラルネットワーク(3D-CNN)からなる。生成器41の学習に際して、学習部24は、実画像である3次元CT画像CR0を生成器41に入力し、3次元のMRI画像(本実施形態においてはT1強調画像)MF0を出力させる。生成器41から出力される3次元のMRI画像MF0は、MRI撮影装置により被検体を撮影することにより取得された実画像ではなく、疑似画像である。
【0047】
なお、生成器41に入力する3次元CT画像CR0は、物理サイズを等方化したうえで姿勢変換および拡大縮小を無作為にデータ拡張処理として適用し、適用した画像から固定サイズ領域を切り出したものを使用すればよい。
【0048】
判別器42は、例えば畳み込みニューラルネットワークからなり、入力された画像が実画像であるか疑似画像であるかを判別し、判別結果RF1を出力する。判別器42が、実画像であるMRI画像MR0が入力された場合に、入力された画像を実画像であると判別した場合には、判別結果RF1は正解である。判別器42が、実画像であるMRI画像MR0が入力された場合に、疑似画像、すなわち生成器41が導出したMRI画像MF0であると判別した場合には、判別結果RF1は不正解である。判別器42が、入力された疑似画像を実画像であると判別した場合には、判別結果RF1は不正解であり、疑似画像と判別した場合には、判別結果RF1は正解である。
【0049】
学習部24は、判別器42が出力した判別結果RF1に基づいて損失L1を導出する。本実施形態においては、学習部24は、入力された画像が実画像であるか、生成器41により導出された疑似画像であるかの判別結果RF1を正解するように判別器42を学習する。具体的には、学習部24は、損失L1が予め定められたしきい値以下となるように判別器42を学習する。
【0050】
また、学習部24は、入力された実画像、すなわち3次元CT画像CR0から3次元のMRI画像MF0を導出し、判別器42が判別結果RF1を不正解とするように生成器41を学習する。具体的には、学習部24は、損失L1が予め定められたしきい値以下となるように、生成器41を構成する3D-CNNを学習する。
【0051】
学習が進行すると、生成器41と判別器42とが精度を高めあい、判別器42は、どのようなMRI画像が入力されても実画像か疑似画像かをより高精度に判別できるようになる。一方、生成器41は、3次元CT画像から、判別器42により判別されない、より実画像のMRI画像に近い疑似画像を生成できるようになる。このようにして学習を進めることにより、生成器41が第1変換モデル31として構築される。
【0052】
なお、第1変換モデル31を構築するための学習としては、「Unpaired Image-to-Image Translation using Cycle-Consistent Adversarial Networks, Jun-Yan Zhu, arxiv:1703.10593」に記載されたCycleGANの手法を用いてもよい。また、同一部位についての3次元CT画像と3次元MRI画像とを用意し、生成器41がCT画像から導出したMRI画像と、用意されたMRI画像との相違を損失として使用して学習を行うようにしてもよい。
【0053】
次いで、第2変換モデル32の構築について説明する。
図7は変換モデル30に含まれる第2変換モデル32を構築するための学習を説明するための図である。
図7に示すように、第2変換モデル32を構築するために、本実施形態においては、
図6に示す生成器41および判別器42と同様に、生成器43および判別器44を使用する。学習に際しては、2次元座標で表される実画像である1以上のMRI-T1強調画像、およびMRI-T1強調画像以外の2次元座標で表される実画像である1以上のMRI画像が使用される。ここでは、MRI-T1強調画像以外のMRI画像として拡散強調画像を使用するものとする。学習に使用するMRI-T1強調画像および拡散強調画像は、同一被写体のものでなくてもよい。
【0054】
生成器43は、2次元の畳み込みニューラルネットワーク(2D-CNN)からなる。生成器43の学習に際して、学習部24は、実画像である2次元座標で表されるMRI-T1強調画像MR1を生成器43に入力し、2次元座標で表される拡散強調画像MF1を出力させる。なお、複数の2次元座標で表されるMRI-T1強調画像、すなわち2次元のMRI-T1強調画像を使用する場合は、学習部24は、2次元座標で表されるMRI-T1強調画像のそれぞれを生成器43に入力し、入力されたMRI-T1強調画像のそれぞれについての拡散強調画像MF1を出力させる。生成器43から出力される拡散強調画像MF1は、MRI撮影装置により被検体を撮影することにより取得された実画像ではなく、疑似画像である。
【0055】
なお、生成器43に入力する2次元座標で表されるMRI-T1強調画像MR1は、物理サイズを等方化したうえで姿勢変換および拡大縮小を無作為にデータ拡張処理として適用し、適用した画像から固定サイズ領域を切り出したものを使用すればよい。
【0056】
判別器44は、例えば畳み込みニューラルネットワークからなり、入力された画像が実画像であるか疑似画像であるかを判別し、判別結果RF2を出力する。判別器44が、実画像である拡散強調画像MR2が入力された場合に、入力された画像を実画像であると判別した場合には、判別結果RF2は正解である。判別器44が、実画像である拡散強調画像MR2が入力された場合に、疑似画像、すなわち生成器43が導出した拡散強調画像MF1であると判別した場合には、判別結果RF2は不正解である。判別器44が、入力された疑似画像を実画像であると判別した場合には、判別結果RF2は不正解であり、疑似画像と判別した場合には、判別結果RF2は正解である。
【0057】
学習部24は、判別器44が出力した判別結果RF2に基づいて損失L2を導出する。本実施形態においては、学習部24は、入力された画像が実画像であるか、生成器43により導出された疑似画像であるかの判別結果RF2を正解するように判別器44を学習する。具体的には、学習部24は、損失L2が予め定められたしきい値以下となるように判別器44を学習する。
【0058】
また、学習部24は、入力された実画像、すなわち2次元座標で表されるMRI-T1強調画像MR1から2次元座標で表される拡散強調画像MF1を導出し、判別器44が判別結果RF2を不正解とするように生成器43を学習する。具体的には、学習部24は、損失L2が予め定められたしきい値以下となるように、生成器43を構成する2D-CNNを学習する。
【0059】
学習が進行すると、生成器43と判別器44とが精度を高めあい、判別器44は、どのような2次元座標で表されるMRI画像が入力されても実画像か疑似画像かをより高精度に判別できるようになる。一方、生成器43は、2次元座標で表されるMRI-T1強調画像から、判別器44により判別されない、より実画像の拡散強調画像に近い疑似画像を生成できるようになる。このようにして学習を進めることにより、生成器43が第2変換モデル32として構築される。
【0060】
なお、第2変換モデル32を、入力された画像の表現形式を複数種類の表現形式に変換可能なように構築する場合は、例えば、「Yunjey Choi, Minje Choi, Munyoung Kim, Jung-Woo Ha, Sunghun Kim, Jaegul Choo "StarGAN: Unified Generative Adversarial Networks for Multi-Domain Image-to-Image Translation",arXiv:1711.09020」に記載されたStarGANの手法を用いてもよい。また、「Xun Huang, Ming-Yu Liu, Serge Belongie, Jan Kautz、Multimodal Unsupervised Image-to-Image Translation、arXiv:1804.04732 」に記載されたMUNITの手法を用いてもよい。
【0061】
次いで、変換モデル30および分類モデル35を同時に学習する場合について説明する。学習部24は、敵対的学習により変換モデル30および分類モデル35を構築する。学習に際し変換モデル30および分類モデル35は、敵対的生成ネットワークを構成する。
図8は変換モデル30および分類モデル35を構築するための学習を説明するための図である。
図8に示すように、変換モデル30および分類モデル35を構築するために、本実施形態においては、示す生成器(ジェネレータ(Generator))45、分類器(セグメンタ(Segmenter))46および判別器(ディスクリミネータ(Discriminator))47を使用する。
【0062】
学習に際しては、実画像である3次元CT画像CR1、3次元CT画像CR1に含まれる解剖構造の分類結果を表すマスクMCR1、実画像である2次元MRI画像MR2、および2次元MRI画像MR2に含まれる解剖構造の分類結果であるマスクMMR2が使用される。学習に使用する3次元CT画像CR1および2次元MRI画像MR2は、同一被写体のものでなくてもよい。
【0063】
生成器45は、第1変換モデル31および第2変換モデル32を含む変換モデル30を構築するものであり、
図6に示す生成器41および
図7に示す生成器43を含む。生成器45の学習に際して、学習部24は、実画像である3次元CT画像CR1を生成器45に入力し、2次元座標で表される1以上のMRI画像(T1強調画像)MF2を出力させる。なお、3次元CT画像よりもスライス間隔が小さい複数の2次元座標で表されるMRI画像MF2、または3次元CT画像よりもスライス厚が大きい1以上の2次元座標で表されるMRI画像MF2を出力させる場合、出力されたMRI画像MF2は2次元画像を構成する。
【0064】
分類器46は、例えば2次元の畳み込みニューラルネットワーク(2D-CNN)からなり、入力された画像に含まれる解剖構造を分類する。分類器46は、入力された画像に含まれる各種解剖構造毎に解剖構造であることの確率を導出し、確率がしきい値以上の解剖構造をその解剖構造として分類する処理を行う。分類結果は入力された画像の各画素の解剖構造が何であるかを表すものであり、同一の解剖構造に分類された画素をラベリングすることにより、解剖構造の分類結果を表すマスクを取得する。
【0065】
なお、分類器46の学習には、実画像である2次元座標で表されるMRI画像MR2および疑似画像である2次元座標で表されるMRI画像MF2の双方が使用される。実画像であるMRI画像MR2に基づいて取得されたマスクおよび疑似画像であるMRI画像MF2に基づいて取得されたマスクの参照符号をそれぞれMMR3、MMF3とする。なお、分類器46の学習に際しては、実画像であるMRI画像MR2を、疑似画像であるMRI画像MF2よりも多く使用することが、学習精度を高めるうえで好ましい。
【0066】
判別器47は、例えば畳み込みニューラルネットワークからなり、画像およびその画像に含まれる解剖構造のマスクが入力されると、マスクが実画像を分類することにより取得されたものであるか、疑似画像を分類することにより取得されたものであるかを判別し、判別結果RF3を出力する。判別器47が、実画像であるMRI画像MR2に基づいて取得されたマスクMMR3およびMRI画像MR2が入力された場合に、入力されたマスクMMR3を実画像に基づいて取得されたマスクであると判別した場合には、判別結果RF3は正解である。一方、実画像であるMRI画像MR2に基づいて取得されたマスクMMR3およびMRI画像MR2が入力された場合に、疑似画像、すなわち生成器45が導出したMRI画像MF2に基づいて取得されたマスクであると判別した場合には、判別結果RF3は不正解である。また、判別器47が、入力された疑似画像(すなわちMRI画像MF2)に基づいて取得されたマスクMMF3を実画像に基づいて取得されたマスクであると判別した場合には、判別結果RF3は不正解であり、疑似画像に基づいて取得されたマスクと判別した場合には、判別結果RF3は正解である。
【0067】
学習部24は、疑似画像であるMRI画像MF2の入力により分類器46が出力したマスクMMF3と、CT画像CR1に含まれる解剖構造の分類結果を表すマスクMCR1との相違を損失L3として導出する。また、実画像であるMRI画像MR2の入力により分類器46が出力したマスクMMR3と、MRI画像MR2のマスクMMR2との損失についても損失L3として導出する。
【0068】
損失L3は例えば、以下の式(1)または式(2)により導出することができる。正解データとはマスクMCR1またはマスクMMR2のデータであり、推論データとはマスクMMF3またはマスクMMR3のデータである。式(1)は二値のクロスエントロピーロスであり、式(2)はMSE(Means Square Error)である。式(1)、(2)において、左辺が損失L3である。また、式(1)、(2)において、実画像であるMRI画像MR2に基づいて導出したマスクMMR3についての損失を導出する場合は、疑似画像であるMRI画像MF2に基づいて導出したマスクMMF3の損失を導出する場合よりも、重みwiを大きくする。これにより、より高精度で分類を行うように分類器46を学習することができるようになる。
【0069】
【0070】
なお、多クラスの分類を行う場合には、下記の式(3)を用いて損失L3を導出してもよい。式(3)において、jが異なるクラス(例えば心臓と肺)を表し、wijはi番目のサンプルのj番目のクラスに対する重みである。
【0071】
【数2】
そして、学習部24は、損失L3が予め定められたしきい値以下となるように、分類器46を学習する。
【0072】
また、学習部24は、判別器47が出力した判別結果RF3に基づいて損失L4を導出する。本実施形態においては、学習部24は、入力されたマスクが実画像に基づいて導出されたものであるか、生成器45により導出された疑似画像に基づいて導出されたものであるかの判別結果RF3を正解するように判別器47を学習する。具体的には、学習部24は、損失L4が予め定められたしきい値以下となるように判別器47を学習する。
【0073】
また、学習部24は、入力された実画像、すなわち3次元CT画像CR1から2次元座標で表されるMRI画像MF2を導出し、判別器47が判別結果RF3を不正解とするように生成器45を学習する。具体的には、学習部24は、損失L4が予め定められたしきい値以下となるように、生成器45を構成する3D-CNNおよび2D-CNNを学習する。
【0074】
学習が進行すると、生成器45、分類器46および判別器47が精度を高めあい、判別器47は、どのようなマスクが入力されても、実画像に基づいて導出されたマスクであるか、疑似画像に基づいて導出されたマスクであるかをより高精度に判別できるようになる。一方、生成器45は、判別器47により判別されない、より実画像のMRI画像に近い疑似画像を生成できるようになる。また、分類器46は、実画像であって疑似画像であってもMRI画像が入力されると、それに含まれる解剖構造を精度よく分類できるようになる。このようにして学習を進めることにより、生成器45が変換モデル30として構築され、分類器46が分類モデル35として構築される。
【0075】
表示制御部25は、導出された第3画像G3を表示する。
図9は第3画像の表示画面を示す図である。
図9に示すように、表示画面50には、第3画像G3すなわちMRI画像が表示されている。第3画像G3には、疑似画像であることを表す情報である「F」のマーク51が同時に表示される。また、第3画像G3に含まれる心臓および肺には、それぞれマスク52,53が付与されている。これにより、第3画像G3を見た者は、第3画像G3が擬似的に導出されたものであることを認識することができる。なお、第3画像G3が複数ある場合、入力デバイス15からの指示により、複数の第3画像G3を切り替えて表示することができる。
【0076】
次いで、本実施形態において行われる処理について説明する。
図10は本実施形態において行われる処理を示すフローチャートである。まず、情報取得部21が画像保管サーバ3から第1画像G1を取得する(ステップST1)。次いで、導出部22が、第1変換モデル31を使用して、第1モダリティの第1画像G1から第2画像G2を導出し(ステップST2)、第2変換モデル32を使用して、第2画像G2から第1モダリティとは異なる第2モダリティの第3画像G3を導出する(ステップST3)。次いで、分類部23が、第3画像G3に含まれる解剖構造を分類する(ステップST4)。そして、表示制御部25が第3画像G3をディスプレイ14に表示し(ステップST5)、処理を終了する。
【0077】
このように、本実施形態においては、第1変換モデル31を使用して、第1モダリティの第1画像G1から第2画像G2を導出し、第2変換モデル32を使用して、第2画像G2から第1モダリティとは異なる第2モダリティの第3画像G3を導出するようにした。このため、第1画像G1から第3画像G3に直接変換するよりも、第1画像G1から第2画像G2に変換する場合、および第2画像G2から第3画像G3に変換する場合のそれぞれにおける表現形式のギャップ、すなわちドメインギャップは小さくなる。したがって、第1画像G1から第2画像G2への変換、および第2画像G2から第3画像G3に変換において、画像内の解剖構造が破綻することを抑制でき、その結果、解剖構造を維持した画像のドメイン変換を行うことができる。
【0078】
次いで、本実施形態による学習装置について説明する。本実施形態による学習装置4は、画像に含まれる解剖構造をセグメンテーションして分類するための分類モデルを構築するものである。具体的には、MRI画像に含まれる解剖構造を分類するための分類モデルを構築する。
【0079】
図11は本実施形態による学習装置のハードウェア構成を示す図である。
図11に示すように、学習装置4は、CPU61、ディスプレイ64、入力デバイス65、メモリ66、およびネットワークに接続されるネットワークI/F67を含む。CPU61、ディスプレイ64、入力デバイス65、メモリ66およびネットワークI/F67は、バス69に接続される。メモリ66は、記憶部63およびRAM68を含む。なお、CPU61は、本開示におけるプロセッサの一例である。CPU61、ディスプレイ64、入力デバイス65、メモリ66、およびネットワークI/F67は、
図2に示すCPU11、ディスプレイ14、入力デバイス15、メモリ16、およびネットワークI/F17に対応するため、ここでは詳細な説明は省略する。なお、記憶部63には本実施形態による学習プログラム62が記憶される。
【0080】
図12は本実施形態による学習装置の機能的な構成を示す図である。
図12に示すように、本実施形態による学習装置4は、情報取得部71および学習部72を備える。そして、CPU61が学習プログラム62を実行することにより、CPU61は、情報取得部71および学習部72として機能する。
【0081】
情報取得部71は、ネットワーク5を介して、画像保管サーバ3から、学習に使用するための学習データを取得する。本実施形態において使用する学習データは、本実施形態による画像処理装置1により導出された第3画像G3および第3画像G3に基づいて取得されたマスクのペア、並びに第3画像G3と表現形式が同一の実画像および実画像に基づいて導出されたマスクのペアである。なお、学習に使用する第3画像G3および実画像は2次元画像、すなわちスライス間隔またはスライス厚が3次元画像よりも大きい、少なくとも1つの2次元座標で表される画像を含むものとする。
【0082】
本実施形態による学習装置4は、上述したようにMRI画像に含まれる解剖構造を分類するための分類モデルを構築するための分類器の学習を行う。このため、情報取得部71は、MRI装置により被検体を撮影することにより取得した実画像であるMRI画像MR5およびMRI画像MR5に含まれる解剖構造の分類結果を表すマスクMMR5のペアを第1学習データ81として取得する。また、情報取得部71は、本実施形態による画像処理装置1により導出された第3画像G3であるMRI画像MF5、およびMRI画像MF0に含まれる解剖構造の分類結果を表すマスクMMF5のペアを第2学習データ82として取得する。
【0083】
学習部72は、画像に含まれる解剖構造のセグメンテーションを行うための分類モデルを構築するために分類器の学習を行う。
図13は、分類モデルを構築するための分類器の学習を説明するための図である。分類器80は、例えば2次元の畳み込みニューラルネットワーク(2D-CNN)からなり、入力された2次元座標で表される画像に含まれる解剖構造を分類する。学習には、情報取得部71が取得した第1学習データ81および第2学習データ82が使用される。
【0084】
この際、学習部72は、分類器80に第1学習データ81に含まれる2次元座標で表されるMRI画像MR5を入力し、解剖構造の分類結果を表すマスクMMR6を導出する。また、学習部72は、分類器80に第2学習データ82に含まれる2次元座標で表されるMRI画像MF5を入力し、解剖構造の分類結果を表すマスクMMF6を導出する。そして、学習部72は、マスクMMR5とマスクMMR6との相違、およびマスクMMF5とマスクMMF6との相違を損失L5として導出し、損失L5が予め定められたしきい値以下となるように、分類器80を学習することにより、分類モデルを構築する。
【0085】
なお、分類器80の学習に際しては、第1学習データ81と第2学習データ82とでは、第1学習データ81のサンプル数を多くしてもよい。また、損失L5を導出する際には、本実施形態による画像処理装置1における分類モデル35を構築した場合と同様に、第1学習データ81に対する損失の重みづけを大きくしてもよい。
【0086】
次いで、本実施形態による学習装置4が行う処理について説明する。
図14は本実施形態による学習装置が行う処理を示すフローチャートである。まず、情報取得部71が画像保管サーバ3から第1学習データおよび第2学習データを取得する(学習データ取得:ステップST11)。次いで、学習部72が、第1学習データおよび第2学習データを用いて分類器の学習を行うことにより分類モデルを構築し(ステップST12)、処理を終了する。
【0087】
このように、本実施形態による学習装置においては、本実施形態による画像処理装置1により導出した第3画像G3を学習データとして使用している。このため、学習データを増やすことができるため、画像に含まれる解剖構造を分類するための分類モデルを高精度に構築することができる。
【0088】
なお、上記学習装置の実施形態においては、第1学習データおよび第2学習データを分類器の学習に使用しているが、これに限定されるものではない。本実施形態による画像処理装置1が導出した第3画像G3を含む第2学習データのみを用いて学習を行うようにしてもよい。
【0089】
また、上記画像処理装置の実施形態においては、第1変換モデル31により第1画像G1(3次元CT画像)をモダリティが異なる第2画像G2(3次元MRI-T1強調画像)に変換し、第2画像G2から2次元画像を抽出し、第2変換モデル32により2次元の第2画像G2をモダリティが同一であるが表現形式が異なる第3画像G3に変換しているが、これに限定されるものではない。第2変換モデル32により、2次元の第2画像G2を第2画像G2とはモダリティが異なる2次元の第3画像G3に変換するようにしてもよい。すなわち、第1画像G1は第1モダリティに対応し、第2画像G2は第2モダリティに対応し、第3画像G4は第3モダリティに対応し、第3モダリティは、第1モダリティおよび第2モダリティと異なってもよい。この場合、例えば、2次元のMRI画像をMRI以外のX線画像、超音波画像またはPET画像等に変換するように第2変換モデル32を構築すればよい。
【0090】
また、第1変換モデル31により、3次元の第1画像G1をモダリティが同一であるが表現形式が異なる3次元の第2画像G2に変換するようにしてもよい。この場合、第2変換モデル32により、3次元の第2画像G2から抽出した2次元画像である第2画像G2を、第1画像G1とはモダリティが異なる2次元の第3画像G3に変換するようにすればよい。モダリティが同一であるが表現形式が異なる画像としては、CTの造影画像と非造影画像、肺野および縦隔といったカーネルが異なる画像、スライス間隔およびスライス厚の少なくとも一方が異なる画像、並びにMRI画像における種類が異なる画像等が挙げられる。この場合、例えば、3次元CT造影画像を3次元CT非造影画像に変換するように第1変換モデル31を構築し、3次元CT非造影画像から抽出された2次元CT非造影画像を2次元MRI-T1強調画像に変換するように第2変換モデル32を構築すればよい。
【0091】
また、変換モデル30により、2次元の第1画像G1から3次元の第3画像G3を導出するようにしてもよい。この場合、第1変換モデル31により、複数の2次元の第1画像G1を第1画像G1とはモダリティが異なる複数の2次元の第2画像G2に変換し、2次元の第2画像G2を、スライス補間等することにより3次元の第2画像G2を導出する。そして、第2変換モデル32により、3次元の第2画像G2を第2画像G2とは表現形式が異なる3次元の第3画像G3に変換するようにしてもよい。この場合、例えば、2次元のCT画像を2次元のMRI-T2強調画像に変換するように第1変換モデル31を構築し、3次元のMRI-T2強調画像を3次元のMRI-T1強調画像に変換するように第2変換モデル32を構築すればよい。例えば、第1変換モデル31は、2D-CNNで構成され、第2変換モデル32は、3D-CNNで構成される。
【0092】
また、第1変換モデル31により、複数の2次元の第1画像G1を第1画像G1とはモダリティが異なる複数の2次元の第2画像G2に変換し、2次元の第2画像G2から3次元の第2画像G2を導出し、第2変換モデル32により3次元の第2画像G2を第2画像G2とはモダリティが異なる3次元の第3画像G3に変換するようにしてもよい。この場合、例えば、2次元のCT画像を2次元のMRI-T2強調画像に変換するように第1変換モデル31を構築し、3次元のMRI-T2強調画像を3次元のPET画像に変換するように第2変換モデル32を構築すればよい。例えば、第1変換モデル31は、2D-CNNで構成され、第2変換モデル32は、3D-CNNで構成される。
【0093】
また、第1変換モデル31により、2次元の第1画像G1をモダリティが同一であるが表現形式が異なる2次元の第2画像G2に変換するようにしてもよい。この場合、2次元の第2画像G2から3次元の第2画像G2を導出し、第2変換モデル32により、3次元の第2画像G2を、第1画像G1とはモダリティが異なる3次元の第3画像G3に変換するようにすればよい。モダリティが同一であるが表現形式が異なる画像としては、CTの造影画像と非造影画像、肺野および縦隔といったカーネルが異なる画像、スライス間隔およびスライス厚の少なくとも一方が異なる画像、並びにMRI画像における種類が異なる画像等が挙げられる。この場合、例えば、2次元CT造影画像を2次元CT非造影画像に変換するように第1変換モデル31を構築し、2次元CT非造影画像から導出された3次元CT非造影画像を3次元MRI-T1強調画像に変換するように第2変換モデル32を構築してもよい。例えば、第1変換モデル31は、2D-CNNで構成され、第2変換モデル32は、3D-CNNで構成される。
【0094】
また、上記実施形態においては、画像処理装置1が学習部24を有するものとしているが、これに限定されるものではない。画像処理装置1とは別個の学習装置により変換モデル30および分類モデル35を構築し、構築された変換モデル30および分類モデル35を画像処理装置1の導出部22および分類部23に適用するようにしてもよい。
【0095】
また、上記実施形態において、例えば、情報取得部21、導出部22、分類部23、学習部24および表示制御部25、並びに情報取得部71および学習部72といった各種の処理を実行する処理部(processing unit)のハードウェア的な構造としては、次に示す各種のプロセッサ(processor)を用いることができる。上記各種のプロセッサには、上述したように、ソフトウェア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPUに加えて、GPU(Graphics Processing Unit)、FPGA(Field Programmable Gate Array)等の製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device :PLD)、ASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が含まれる。
【0096】
1つの処理部は、これらの各種のプロセッサのうちの1つで構成されてもよいし、同種または異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせまたはCPUとFPGAとの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。
【0097】
複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアントおよびサーバ等のコンピュータに代表されるように、1つ以上のCPUとソフトウェアとの組み合わせで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)等に代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサの1つ以上を用いて構成される。
【0098】
さらに、これらの各種のプロセッサのハードウェア的な構造としては、より具体的には、半導体素子等の回路素子を組み合わせた電気回路(circuitry)を用いることができる。
【0099】
以下、本開示の付記項を記載する。
(付記項1)
少なくとも1つのプロセッサを備え、
前記プロセッサは、
第1モダリティの第1画像から第2画像を導出し、
前記第2画像から前記第1モダリティとは異なる第2モダリティの第3画像を導出する画像処理装置。
(付記項2)
前記プロセッサは、第1変換モデルを使用して、前記第1モダリティの前記第1画像から前記第2画像を導出し、
第2変換モデルを使用して、前記第2画像から前記第2モダリティの前記第3画像を導出する付記項1に記載の画像処理装置。
(付記項3)
前記第1変換モデルは3次元画像変換モデルであり、
前記プロセッサは、前記第1変換モデルを使用して3次元の前記第1画像から3次元の前記第2画像を導出する付記項2に記載の画像処理装置。
(付記項4)
前記第2変換モデルは2次元画像変換モデルであり、
前記プロセッサは、3次元の前記第2画像から少なくとも1つの断層画像を抽出し、
前記第2変換モデルを使用して、前記断層画像から前記第3画像を導出する付記項2または3に記載の画像処理装置。
(付記項5)
前記第1変換モデルは2次元画像変換モデルであり、
前記プロセッサは、前記第1変換モデルを使用して、2次元座標で表される前記第1画像から2次元座標で表される前記第2画像を導出する付記項2に記載の画像処理装置。
(付記項6)
前記第2変換モデルは3次元画像変換モデルであり、
前記プロセッサは、複数の2次元座標で表される前記第2画像から3次元の第2画像を導出し、
前記第2変換モデルを使用して、前記3次元の第2画像から前記第3画像を導出する付記項2または5に記載の画像処理装置。
(付記項7)
前記プロセッサは、前記第3画像に含まれる解剖構造を分類することにより、前記解剖構造についての分類結果を導出する付記項1に記載の画像処理装置。
(付記項8)
前記プロセッサは、前記第3画像に含まれる解剖構造を分類することにより、前記解剖構造についての分類結果を導出する付記項2から6のいずれか1項に記載の画像処理装置。
(付記項9)
前記プロセッサは、前記第3画像を用いた前記解剖構造の分類結果と、前記第3画像と同一モダリティの実画像を用いた前記解剖構造の分類結果とを判別する判別器に対して敵対的学習を導入し、
前記第3画像に対する前記解剖構造の分類結果を前記判別器が判別できないような前記第3画像を導出するように、前記第1変換モデルおよび前記第2変換モデルの学習を行う付記項8に記載の画像処理装置。
(付記項10)
前記第2画像は、前記第1画像および前記第3画像の表現形式とは異なる付記項1から9のいずれか1項に記載の画像処理装置。
(付記項11)
前記プロセッサは、前記第3画像が前記プロセッサにより導出されたものであることを認識可能に保存または表示する付記項1から10のいずれか1項に記載の画像処理装置。
(付記項12)
第2モダリティの画像に含まれる解剖構造を分類する分類モデルを構築するための学習を行う学習装置であって、
少なくとも1つのプロセッサを備え、
前記プロセッサは、付記項1から11のいずれか1項に記載の画像処理装置により導出された第3画像を学習データとして使用して前記学習を行う学習装置。
(付記項13)
前記プロセッサは、前記第3画像を導出した前記第1画像における前記解剖構造の分類結果を用いて、前記学習を行う付記項12に記載の学習装置。
(付記項14)
前記プロセッサは、前記第2モダリティにより取得された実画像をさらに前記学習データとして使用して前記学習を行う付記項12または13に記載の学習装置。
(付記項15)
前記プロセッサは、前記実画像について、前記学習に使用する頻度を前記第3画像よりも多くする付記項14に記載の学習装置。
(付記項16)
前記プロセッサは、前記実画像について、前記学習に使用する際の重みづけを前記第3画像よりも大きくする付記項14または15に記載の学習装置。
(付記項17)
コンピュータが、第1モダリティの第1画像から第2画像を導出し、
前記第2画像から前記第1モダリティとは異なる第2モダリティの第3画像を導出する画像処理方法。
(付記項18)
コンピュータが、第2モダリティの画像に含まれる解剖構造を分類する分類モデルを構築するための学習を行う学習方法であって、
付記項1から11のいずれか1項に記載の画像処理装置により導出された第3画像を学習データとして使用して前記学習を行う学習方法。
(付記項19)
第1モダリティの第1画像から第2画像を導出する手順と、
前記第2画像から前記第1モダリティとは異なる第2モダリティの第3画像を導出する手順とをコンピュータに実行させる画像処理プログラム。
(付記項20)
第2モダリティの画像に含まれる解剖構造を分類する分類モデルを構築するための学習をコンピュータに実行させる学習プログラムであって、
付記項1から11のいずれか1項に記載の画像処理装置により導出された第3画像を学習データとして使用して前記学習をコンピュータに実行させる学習プログラム。
【符号の説明】
【0100】
1 画像処理装置
2 モダリティ
2A CT装置
4 学習装置
5 ネットワーク
11、61 CPU
12 画像処理プログラム
13、63 記憶部
14、64 ディスプレイ
15、65 入力デバイス
16、66 メモリ
17、67 ネットワークI/F
18、68 RAM
19、69 バス
21、71 情報取得部
22 導出部
23 分類部
24、72 学習部
25 表示制御部
30 変換モデル
31 第1変換モデル
32 第2変換モデル
35 分類モデル
37 マスク
38,39 ラベル
41,43,45 生成器
42,44,47 判別器
46 分類器
50 表示画面
51 マーク
52,53 ラベル
62 学習プログラム
80 分類器
81 第1学習データ
82 第2学習データ
CR0、CR1 CT画像
G1 第1画像
G2 第2画像
G3 第3画像
L1~L5 損失