IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 富士フイルム株式会社の特許一覧

(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-11-06
(45)【発行日】2024-11-14
(54)【発明の名称】推定装置、方法およびプログラム
(51)【国際特許分類】
   A61B 6/00 20240101AFI20241107BHJP
   A61B 6/03 20060101ALI20241107BHJP
   G06T 1/00 20060101ALI20241107BHJP
   G06T 5/00 20240101ALI20241107BHJP
   G06T 1/40 20060101ALI20241107BHJP
【FI】
A61B6/00 560
A61B6/00 550S
A61B6/00 533
A61B6/03 571
A61B6/00 550P
G06T1/00 290A
G06T5/00
G06T1/40
【請求項の数】 5
(21)【出願番号】P 2021040687
(22)【出願日】2021-03-12
(65)【公開番号】P2022140051
(43)【公開日】2022-09-26
【審査請求日】2023-12-07
(73)【特許権者】
【識別番号】306037311
【氏名又は名称】富士フイルム株式会社
(74)【代理人】
【識別番号】110001519
【氏名又は名称】弁理士法人太陽国際特許事務所
(72)【発明者】
【氏名】瀧 伴子
【審査官】宮川 数正
(56)【参考文献】
【文献】国際公開第2019/208307(WO,A1)
【文献】特開2010-187991(JP,A)
【文献】特開2004-188187(JP,A)
【文献】特開2020-093083(JP,A)
【文献】中国特許出願公開第111179373(CN,A)
(58)【調査した分野】(Int.Cl.,DB名)
A61B 6/00-6/58
G06T 1/00-5/94
G06T 7/00-7/90
(57)【特許請求の範囲】
【請求項1】
少なくとも1つのプロセッサを備え、
前記プロセッサは、
複数の組成を含む被写体を単純撮影することにより取得した単純2次元画像から前記被写体の特定の組成を強調した少なくとも1つの強調画像の推定結果を導出する学習済みニューラルネットワークとして機能し、
前記学習済みニューラルネットワークは、前記被写体の3次元のCT画像を合成することにより導出された前記被写体を表す合成2次元画像と、前記CT画像から導出された前記被写体の特定の組成を強調した学習用強調画像とを教師データとして用いて学習されてなり、
前記学習用強調画像は、前記CT画像をあらかじめ定められた方向に投影することにより導出された、エネルギー分布が異なる放射線による前記被写体の撮影をシミュレーションした2つの合成2次元画像を重み付け減算することにより導出される、推定装置。
【請求項2】
前記合成2次元画像は、3次元空間上の各位置における組成についての放射線の減弱係数を導出し、前記減弱係数に基づいてあらかじめ定められた方向に前記CT画像を投影することにより導出される請求項1に記載の推定装置。
【請求項3】
前記特定の組成は、前記被写体の軟部、骨部、筋肉および脂肪の少なくとも1つである請求項1または2に記載の推定装置。
【請求項4】
複数の組成を含む被写体を単純撮影することにより取得した単純放射線画像から前記被写体の特定の組成を強調した少なくとも1つの強調画像の推定結果を導出する学習済みニューラルネットワークを用いて、前記単純放射線画像から前記被写体の特定の組成を強調した少なくとも1つの強調画像の推定結果を導出する推定方法であって、
前記学習済みニューラルネットワークは、前記被写体の3次元のCT画像を合成することにより導出された前記被写体を表す合成2次元画像と、前記CT画像から導出された前記被写体の特定の組成を強調した学習用強調画像とを教師データとして用いて学習されてなり、
前記学習用強調画像は、前記CT画像をあらかじめ定められた方向に投影することにより導出された、エネルギー分布が異なる放射線による前記被写体の撮影をシミュレーションした2つの合成2次元画像を重み付け減算することにより導出される、推定方法。
【請求項5】
複数の組成を含む被写体を単純撮影することにより取得した単純放射線画像から前記被写体の特定の組成を強調した少なくとも1つの強調画像の推定結果を導出する学習済みニューラルネットワークを用いて、前記単純放射線画像から前記被写体の特定の組成を強調した少なくとも1つの強調画像の推定結果を導出する手順をコンピュータに実行させる推定プログラムであって、
前記学習済みニューラルネットワークは、前記被写体の3次元のCT画像を合成することにより導出された前記被写体を表す合成2次元画像と、前記CT画像から導出された前記被写体の特定の組成を強調した学習用強調画像とを教師データとして用いて学習されてなり、
前記学習用強調画像は、前記CT画像をあらかじめ定められた方向に投影することにより導出された、エネルギー分布が異なる放射線による前記被写体の撮影をシミュレーションした2つの合成2次元画像を重み付け減算することにより導出される、推定プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、推定装置、方法およびプログラムに関する。
【背景技術】
【0002】
従来より、被写体を構成する物質によって透過した放射線の減衰量が異なることを利用して、エネルギー分布が異なる2種類の放射線を被写体に照射して得られた2枚の放射線画像を用いたエネルギーサブトラクション処理が知られている。エネルギーサブトラクション処理とは、上記のようにして得られた2つの放射線画像の各画素を対応させて、画素間で適当な重み係数を乗算した上で減算(サブトラクト)を行って、特定の構造物を強調した画像を取得する方法である。また、骨部および軟部のみならず、軟部における脂肪および筋肉等の人体の組成をエネルギーサブトラクション処理により導出することも行われている(特許文献1参照)。
【0003】
また、被写体を撮影することにより取得された放射線画像を用いて、取得された放射線画像とは異なる放射線画像を導出する各種手法が提案されている。例えば、特許文献2には、単純撮影により取得された被写体の放射線画像と、同一の被写体の骨部画像とを教師データとして用いてニューラルネットワークを学習することにより構築された学習済みモデルを用いることにより、単純撮影により取得された被写体の放射線画像から骨部画像を導出する手法が提案されている。
【0004】
なお、単純撮影とは、被写体に1回放射線を照射して、被写体の透過像である1枚の2次元画像を取得する撮影方法である。以降の説明においては、単純撮影により取得した2次元画像を単純2次元画像と称するものとする。
【先行技術文献】
【特許文献】
【0005】
【文献】特開2018-153605号公報
【文献】米国特許第7545965号明細書
【発明の概要】
【発明が解決しようとする課題】
【0006】
しかしながら、さらに高精度で骨部等の特定の組成を強調した画像を推定することが望まれている。
【0007】
本開示は上記事情に鑑みなされたものであり、特定の組成を強調した画像を高精度で推定できるようにすることを目的とする。
【課題を解決するための手段】
【0008】
本開示による推定装置は、少なくとも1つのプロセッサを備え、
プロセッサは、複数の組成を含む被写体を単純撮影することにより取得した単純2次元画像から被写体の特定の組成を強調した少なくとも1つの強調画像の推定結果を導出する学習済みニューラルネットワークとして機能し、
学習済みニューラルネットワークは、被写体の3次元のCT画像を合成することにより導出された被写体を表す合成2次元画像と、CT画像から導出された被写体の特定の組成を強調した学習用強調画像とを教師データとして用いて学習されてなる。
【0009】
なお、本開示による推定装置においては、合成2次元画像は、3次元空間上の各位置における組成についての放射線の減弱係数を導出し、減弱係数に基づいてあらかじめ定められた方向にCT画像を投影することにより導出されるものであってもよい。
【0010】
また、本開示による推定装置においては、学習用強調画像は、CT画像における特定の組成の領域を特定し、特定の組成の領域のCT画像をあらかじめ定められた方向に投影することにより導出されるものであってもよい。
【0011】
また、本開示による推定装置においては、学習用強調画像は、CT画像をあらかじめ定められた方向に投影することにより導出された、エネルギー分布が異なる放射線による被写体の撮影をシミュレーションした2つの合成2次元画像を重み付け減算することにより導出されるものであってもよい。
【0012】
また、本開示による推定装置においては、特定の組成は、被写体の軟部、骨部、筋肉および脂肪の少なくとも1つであってもよい。
【0013】
本開示による推定方法は、複数の組成を含む被写体を単純撮影することにより取得した単純放射線画像から被写体の特定の組成を強調した少なくとも1つの強調画像の推定結果を導出する学習済みニューラルネットワークを用いて、単純放射線画像から被写体の特定の組成を強調した少なくとも1つの強調画像の推定結果を導出する推定方法であって、
学習済みニューラルネットワークは、被写体の3次元のCT画像を合成することにより導出された被写体を表す合成2次元画像と、CT画像から導出された被写体の特定の組成を強調した学習用強調画像とを教師データとして用いて学習されてなる。
【0014】
なお、本開示による推定方法を、コンピュータに実行させるためのプログラムとして提供してもよい。
【発明の効果】
【0015】
本開示によれば、特定の組成を強調した画像を高精度で推定できる
【図面の簡単な説明】
【0016】
図1】本開示の第1の実施形態による推定装置を適用した放射線画像撮影システムの構成を示す概略ブロック図
図2】第1の実施形態による推定装置の概略構成を示す図
図3】第1の実施形態による推定装置の機能的な構成を示す図
図4】本実施形態において用いられるニューラルネットワークの概略構成を示す図
図5】教師データを示す図
図6】第1の実施形態による情報導出装置の概略構成を示す図
図7】第1の実施形態による情報導出装置の機能的な構成を示す図
図8】合成2次元画像の導出を説明するための図
図9】合成2次元画像の導出を説明するための図
図10】CT値を説明するための図
図11】骨部画像の導出を説明するための図
図12】骨部画像を示す図
図13】軟部画像の導出を説明するための図
図14】軟部画像を示す図
図15】ニューラルネットワークの学習を説明するための図
図16】学習済みニューラルネットワークが行う処理の概念図
図17】推定結果の表示画面を示す図
図18】第1の実施形態において行われる学習処理のフローチャート
図19】第1の実施形態において行われる推定処理のフローチャート
図20】筋肉画像の導出を説明するための図
図21】筋肉画像を示す図
図22】脂肪画像の導出を説明するための図
図23】脂肪画像を示す図
図24】教師データの他の例を示す図
図25】第3の実施形態による情報導出装置の機能的な構成を示す図
図26】第3の実施形態における合成2次元画像の導出を説明するための図
【発明を実施するための形態】
【0017】
以下、図面を参照して本開示の実施形態について説明する。図1は本開示の第1の実施形態による推定装置を適用した放射線画像撮影システムの構成を示す概略ブロック図である。図1に示すように、第1の実施形態による放射線画像撮影システムは、撮影装置1と、CT装置7と、画像保存システム9と、第1の実施形態による推定装置10と、情報導出装置50とを備える。撮影装置1、CT(Computed Tomography)装置7、推定装置10および情報導出装置50は、不図示のネットワークを介して画像保存システム9と接続されている。
【0018】
撮影装置1は、放射線検出器5に、放射線源3から発せられ、被写体Hを透過したX線等の放射線を照射することにより、被写体Hの単純放射線画像G0を取得することが可能な撮影装置である。取得された単純放射線画像G0は、推定装置10に入力される。単純放射線画像G0は例えば被写体Hの股間周辺を含む正面像である。
【0019】
放射線検出器5は、放射線画像の記録および読み出しを繰り返して行うことができるものであり、放射線の照射を直接受けて電荷を発生する、いわゆる直接型の放射線検出器を用いてもよいし、放射線を一旦可視光に変換し、その可視光を電荷信号に変換する、いわゆる間接型の放射線検出器を用いるようにしてもよい。また、放射線画像信号の読出方式としては、TFT(thin film transistor)スイッチをオン・オフさせることによって放射線画像信号が読み出される、いわゆるTFT読出方式のもの、または読取り光を照射することによって放射線画像信号が読み出される、いわゆる光読出方式のものを用いることが望ましいが、これに限らずその他のものを用いるようにしてもよい。
【0020】
CT装置7は、被写体HをCT撮影することにより、被写体Hにおける複数の断層面を表す複数の断層画像を3次元のCT画像V0として取得する。CT画像における各画素(ボクセル)のCT値は、人体を構成する組成における放射線の吸収率を数値化したものである。CT値については後述する。
【0021】
画像保存システム9は、撮影装置1により取得された放射線画像の画像データおよびCT装置7により取得されたCT画像の画像データを保存するシステムである。画像保存システム9は、保存している放射線画像およびCT画像から、推定装置10および情報導出装置50からの要求に応じた画像を取り出して、要求元の装置に送信する。画像保存システム9の具体例としては、PACS(Picture Archiving and Communication Systems)が挙げられる。なお、本実施形態においては、画像保存システム9には、後述するニューラルネットワークを学習するための多数の教師データが保存されている。
【0022】
次いで、第1の実施形態に係る推定装置について説明する。まず、図2を参照して、第1の実施形態に係る推定装置のハードウェア構成を説明する。図2に示すように、推定装置10は、ワークステーション、サーバコンピュータおよびパーソナルコンピュータ等のコンピュータであり、CPU(Central Processing Unit)11、不揮発性のストレージ13、および一時記憶領域としてのメモリ16を備える。また、推定装置10は、液晶ディスプレイ等のディスプレイ14、キーボードおよびマウス等の入力デバイス15、並びに不図示のネットワークに接続されるネットワークI/F(InterFace)17を備える。CPU11、ストレージ13、ディスプレイ14、入力デバイス15、メモリ16およびネットワークI/F17は、バス18に接続される。なお、CPU11は、本開示におけるプロセッサの一例である。
【0023】
ストレージ13は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、およびフラッシュメモリ等によって実現される。記憶媒体としてのストレージ13には、推定装置10にインストールされた推定プログラム12Aおよび学習プログラム12Bが記憶される。CPU11は、ストレージ13から推定プログラム12Aおよび学習プログラム12Bを読み出してメモリ16に展開し、展開した推定プログラム12Aおよび学習プログラム12Bを実行する。
【0024】
なお、推定プログラム12Aおよび学習プログラム12Bは、ネットワークに接続されたサーバコンピュータの記憶装置、あるいはネットワークストレージに、外部からアクセス可能な状態で記憶され、要求に応じて推定装置10を構成するコンピュータにダウンロードされ、インストールされる。または、DVD(Digital Versatile Disc)、CD-ROM(Compact Disc Read Only Memory)等の記録媒体に記録されて配布され、その記録媒体から推定装置10を構成するコンピュータにインストールされる。
【0025】
次いで、第1の実施形態による推定装置の機能的な構成を説明する。図3は、第1の実施形態による推定装置の機能的な構成を示す図である。図3に示すように、推定装置10は、画像取得部21、情報取得部22、推定部23、学習部24および表示制御部25を備える。そして、CPU11は、推定プログラム12Aを実行することにより、画像取得部21、情報取得部22、推定部23および表示制御部25として機能する。また、CPU11は、学習プログラム12Bを実行することにより、学習部24として機能する。
【0026】
画像取得部21は、撮影装置1に被写体Hの単純撮影を行わせることにより、放射線検出器5から、例えば被写体Hの股間付近の正面像である単純放射線画像G0を取得する。単純放射線画像G0の取得に際しては、撮影線量、線質、菅電圧、放射線源3と放射線検出器5の表面との距離であるSID(Source Image receptor Distance)、放射線源3と被写体Hの表面との距離であるSOD(Source Object Distance)、および散乱線除去グリッドの有無等の撮影条件が設定される。
【0027】
撮影条件は、操作者による入力デバイス15からの入力により設定すればよい。設定された撮影条件は、ストレージ13に記憶される。単純放射線画像G0および撮影条件は画像保存システム9にも送信されて保存される。
【0028】
なお、本実施形態においては、推定プログラム12Aとは別個のプログラムにより単純放射線画像G0を取得してストレージ13に記憶するようにしてもよい。この場合、画像取得部21は、ストレージ13に記憶された単純放射線画像G0を処理のためにストレージ13から読み出すことにより取得する。
【0029】
情報取得部22は、画像保存システム9からネットワークI/F17を介して、後述するニューラルネットワークを学習するための教師データを取得する。
【0030】
推定部23は、単純放射線画像G0から被写体Hに含まれる骨部を強調した骨部画像および軟部を強調した軟部画像の推定結果を導出する。このために、推定部23は、単純放射線画像G0が入力されると骨部画像および軟部画像を出力する学習済みニューラルネットワーク23Aを用いて骨部画像および軟部画像の推定結果を導出する。なお、本実施形態においては、骨部画像および軟部画像の推定結果を導出する対象として、被写体Hの股関節付近の画像とするがこれに限定されるものではない。また、推定部23が導出する高粒画像および軟部画像が強調画像の一例である。
【0031】
学習部24は、教師データを用いてニューラルネットワークを機械学習することにより、学習済みニューラルネットワーク23Aを構築する。ニューラルネットワークとしては、単純パーセプトロン、多層パーセプトロン、ディープニューラルネットワーク、畳み込みニューラルネットワーク、ディープビリーフネットワーク、リカレントニューラルネットワーク、および確率的ニューラルネットワーク等が挙げられる。本実施形態においては、ニューラルネットワークとして畳み込みニューラルネットワークを用いるものとする。
【0032】
図4は、本実施形態において用いられるニューラルネットワークを示す図である。図4に示すように、ニューラルネットワーク30は、入力層31、中間層32および出力層33を備える。中間層32は、例えば、複数の畳み込み層35、複数のプーリング層36および全結合層37を備える。ニューラルネットワーク30では、出力層33の前段に全結合層37が存在している。そして、ニューラルネットワーク30では、入力層31と全結合層37との間において、畳み込み層35とプーリング層36とが交互に配置されている。
【0033】
なお、ニューラルネットワーク30の構成は図4の例に限定されるものではない。例えば、ニューラルネットワーク30は、入力層31と全結合層37との間に、1つの畳み込み層35と1つのプーリング層36とを備えるものであってもよい。
【0034】
図5はニューラルネットワークの学習に使用する教師データの例を示す図である。図5に示すように、教師データ40は、学習用データ41と正解データ42とからなる。本実施形態においては、骨密度の推定結果を得るために学習済みニューラルネットワーク23Aに入力されるデータは単純放射線画像G0であるが、学習用データ41は、CT画像V0を合成することにより導出された被写体Hを表す合成2次元画像C0を含む。
【0035】
正解データ42は、学習用データ41を取得した被写体の対象骨(すなわち大腿骨)付近の骨部画像Gbおよび軟部画像Gsである。正解データ42である骨部画像Gbおよび軟部画像GsはCT画像V0から情報導出装置50により導出される。以下、情報導出装置50について説明する。CT画像V0から導出された骨部画像Gbおよび軟部画像Gsが学習用強調画像の一例である。
【0036】
図6は第1の実施形態による情報導出装置の構成を示す概略ブロック図である。図6に示すように第1の実施形態による情報導出装置50は、ワークステーション、サーバコンピュータおよびパーソナルコンピュータ等のコンピュータであり、CPU51、不揮発性のストレージ53、および一時記憶領域としてのメモリ56を含む。また、情報導出装置50は、液晶ディスプレイ等のディスプレイ54、キーボードおよびマウス等のポインティングデバイス等からなる入力デバイス55、並びに不図示のネットワークに接続されるネットワークI/F57を含む。CPU51、ストレージ53、ディスプレイ54、入力デバイス55、メモリ56およびネットワークI/F57は、バス58に接続される。
【0037】
ストレージ53は、ストレージ13と同様に、HDD、SSD、およびフラッシュメモリ等によって実現される。記憶媒体としてのストレージ53には、情報導出プログラム52が記憶される。CPU51は、ストレージ53から情報導出プログラム52を読み出してメモリ56に展開し、展開した情報導出プログラム52を実行する。
【0038】
次いで、第1の実施形態による情報導出装置の機能的な構成を説明する。図7は、第1の実施形態による情報導出装置の機能的な構成を示す図である。図7に示すように第1の実施形態による情報導出装置50は、画像取得部61、合成部62および強調画像導出部63を備える。そして、CPU51が情報導出プログラム52を実行することにより、CPU51は、画像取得部61、合成部62および強調画像導出部63として機能する。
【0039】
画像取得部61は、学習用データ41を導出するためのCT画像V0を画像保存システム9から取得する。なお、画像取得部61は、推定装置10の画像取得部21と同様に、CT装置7に被写体Hの撮影を行わせることにより、CT画像V0を取得するものであってもよい。
【0040】
合成部62は、CT画像V0を合成することにより被写体Hを表す合成2次元画像C0を導出する。図8は合成2次元画像C0の導出を説明するための図である。なお、図8においては説明のために3次元のCT画像V0を2次元で示している。図8に示すようにCT画像V0により表される3次元空間に被写体Hが含まれている。被写体Hは、骨部、脂肪、筋肉および内臓の複数の組成からなる。
【0041】
ここで、CT画像V0の各画素におけるCT値V0(x,y,z)は、その画素における組成の減弱係数μiと水の減弱係数μwとを用いて、下記の式(1)により表すことができる。(x,y,z)はCT画像V0の画素位置を表す座標である。なお、以降の説明において、減弱係数は特に断りがない限り線源弱係数を意味するものとする。減弱係数は吸収または散乱等によって放射線が減弱する程度(割合)を表す。減弱係数は、放射線が透過する構造物の具体的な組成(密度等)および厚さ(質量)によって異なる。
V0(x,y,z)=(μi-μw)/μw×1000 (1)
【0042】
水の減弱係数μwは既知である。したがって、式(1)をμiについて解くことにより、下記の式(2)に示すように各組成の減弱係数μiを算出することができる。
μi=V0(x,y,z)×μw/1000+μw (2)
【0043】
合成部62は、図8に示すように、被写体Hに照射線量I0の放射線を仮想的に照射し、仮想的な平面64に設置された放射線検出器(不図示)により被写体Hを透過した放射線を仮想的に検出した合成2次元画像C0を導出する。なお、仮想的な放射線の照射線量I0および放射線エネルギーは、あらかじめ定められた撮影条件に応じて設定される。この際、合成2次元画像C0の各画素についての到達線量I1(x,y)は、被写体H内の1以上の組成を透過する。このため、到達線量I1(x,y)は、照射線量I0の放射線が透過する1以上の組成の減弱係数μiを用いて下記の式(3)により導出することができる。なお、到達線量I1(x,y)が合成2次元画像C0の各画素の画素値となる。
I1(x,y)=I0×exp(-∫μi・dt) (3)
【0044】
なお、照射する放射線源を面光源と仮定した場合、式(3)において使用する減弱係数μiは、図8に示す上下方向に並ぶ各画素のCT値から式(2)により導出したものを用いればよい。また、照射する光源の面光源を点光源と仮定した場合、図9に示すように、点光源と仮想的な平面64上の各位置との幾何学的な位置関係に基づいて、各画素に到達する放射線の経路上にある画素を特定し、特定した画素のCT値から式(2)により導出した減弱係数を用いればよい。
【0045】
強調画像導出部63は、CT画像V0を用いて、被写体の骨部を強調した骨部画像Gbおよび軟部を強調した軟部画像Gsを導出する。ここで、CT値について説明する。図10はCT値を説明するための図である。CT値は、人体におけるX線の吸収率を数値化したものである。具体的には、図10に示すように、水は0、空気のCT値は-1000(単位はHU)というように、人体を構成する組成に応じてCT値が定められている。
【0046】
強調画像導出部63は、まずCT画像V0のCT値に基づいてCT画像V0における骨部領域を特定する。具体的にはしきい値処理によりCT値が100~1000となる画素からなる領域を骨部領域に特定する。なお、しきい値処理に代えて、CT画像V0から骨部領域を検出するように学習がなされた学習済みニューラルネットワークを用いて骨部領域を特定してもよい。また、CT画像V0をディスプレイ54に表示し、表示したCT画像V0においてマニュアル操作による骨部領域の指定を受け付けることにより、骨部領域を特定するようにしてもよい。
【0047】
そして、強調画像導出部63は、図11に示すようにCT画像V0に含まれる被写体H内の骨部領域HbのCT値を、合成2次元画像C0を導出する際と同様に仮想的な平面64に投影することにより、骨部画像Gbを導出する。骨部画像Gbを図12に示す。
【0048】
また、強調画像導出部63は、CT画像V0のCT値に基づいてCT画像V0における軟部領域を特定する。具体的にはしきい値処理によりCT値が-100~70となる画素からなる領域を軟部領域に特定する。なお、しきい値処理に代えて、CT画像V0から軟部領域を検出するように学習がなされた学習済みニューラルネットワークを用いて軟部領域を特定してもよい。また、CT画像V0をディスプレイ54に表示し、表示したCT画像V0においてマニュアル操作による軟部領域の指定を受け付けることにより、軟部領域を特定するようにしてもよい。
【0049】
そして、強調画像導出部63は、図13に示すようにCT画像V0に含まれる被写体H内の軟部領域HsのCT値を、合成2次元画像C0を導出する際と同様に仮想的な平面64に投影することにより、軟部画像Gsを導出する。軟部画像Gsを図14に示す。
【0050】
正解データ42として用いられる骨部画像Gbおよび軟部画像Gsは、学習用データ41を取得した時期と同一時期に導出され、画像保存システム9に送信される。画像保存システム9においては、学習用データ41と正解データ42とが対応付けられて教師データ40として保存される。なお、学習のロバスト性向上のために、同一の画像に対して拡大縮小、コントラストの変更、移動、面内の回転、反転およびノイズ付与等の少なくとも1つを行った画像を学習用データ41として含む教師データ40を追加で作成して保存するようにしてもよい。
【0051】
推定装置10に戻り、学習部24は、多数の教師データ40を用いてニューラルネットワークを学習する。図15は、ニューラルネットワーク30の学習を説明するための図である。ニューラルネットワーク30の学習を行うに際し、学習部24は、ニューラルネットワーク30の入力層31に学習用データ41すなわち合成2次元画像C0を入力する。そして、学習部24は、ニューラルネットワーク30の出力層33から、骨部画像および軟部画像を出力データ47として出力させる。そして、学習部24は、出力データ47と正解データ42との相違を損失L0として導出する。なお、損失は、出力データ47の骨部画像と正解データ42の骨部画像との間、および出力データの軟部画像と正解データ42の軟部画像との間でそれぞれ導出されるが、参照符号としてはL0を用いるものとする。
【0052】
学習部24は、損失L0に基づいてニューラルネットワーク30を学習する。具体的には、学習部24は、損失L0を小さくするように、畳み込み層35におけるカーネルの係数、各層間の結合の重み、および全結合層37における結合の重み等(以下パラメータ48とする)を調整する。パラメータ48の調整方法としては、例えば、誤差逆伝播法を用いることができる。学習部24は、損失L0が予め定められたしきい値以下となるまでパラメータ48の調整を繰り返す。これによって、単純放射線画像G0が入力された場合に、入力された単純放射線画像G0についての骨部画像Gbおよび軟部画像Gsを出力するようにパラメータ48が調整されて、学習済みニューラルネットワーク23Aが構築される。構築された学習済みニューラルネットワーク23Aはストレージ13に記憶される。
【0053】
図16は学習済みニューラルネットワーク23Aが行う処理の概念図である。図16に示すように、上記のようにして構築された学習済みニューラルネットワーク23Aに、患者の単純放射線画像G0が入力されると、学習済みニューラルネットワーク23Aは入力された単純放射線画像G0についての骨部画像Gbおよび軟部画像Gsを出力するようになる。
【0054】
表示制御部25は、推定部23が推定した骨部画像Gbおよび軟部画像Gsの推定結果をディスプレイ14に表示する。図17は推定結果の表示画面を示す図である。図17に示すように表示画面70は、第1の画像表示領域71と第2の画像表示領域72とを有する。第1の画像表示領域71には被写体Hの単純放射線画像G0が表示される。また、第2の画像表示領域72には、推定部23が推定した骨部画像Gbおよび軟部画像Gsが表示される。
【0055】
次いで、第1の実施形態において行われる処理について説明する。図18は第1の実施形態において行われる学習処理を示すフローチャートである。まず、情報取得部22が画像保存システム9から教師データ40を取得し(ステップST1)、学習部24が、教師データ40に含まれる学習用データ41をニューラルネットワーク30に入力して骨部画像Gbおよび軟部画像Gsを出力させ、正解データ42との相違に基づく損失L0を用いてニューラルネットワーク30を学習し(ステップST2)、ステップST1にリターンする。そして、学習部24は、損失L0が予め定められたしきい値となるまで、ステップST1,ST2の処理を繰り返し、学習処理を終了する。なお、学習部24は、学習を予め定められた回数繰り返すことにより、学習処理を終了するものであってもよい。これにより、学習部24は、学習済みニューラルネットワーク23Aを構築する。
【0056】
次いで、第1の実施形態における推定処理について説明する。図19は第1の実施形態における推定処理を示すフローチャートである。なお、単純放射線画像G0は、撮影により取得されてストレージ13に記憶されているものとする。処理を開始する指示が入力デバイス15から入力されると、画像取得部21が、単純放射線画像G0をストレージ13から取得する(ステップST11)。次いで、推定部23が単純放射線画像G0から骨部画像Gbおよび軟部画像Gsの推定結果を導出する(ステップST12)。そして、表示制御部25が、推定部23が導出した骨部画像Gbおよび軟部画像Gsの推定結果を単純放射線画像G0と併せてディスプレイ14に表示し(ステップST13)、処理を終了する。
【0057】
このように、本実施形態においては、CT画像V0から導出した合成2次元画像C0およびCT画像V0から導出した骨部画像Gbおよび軟部画像Gsを教師データとして学習がなされることにより構築された学習済みニューラルネットワーク23Aを用いて、単純放射線画像G0についての骨部画像Gbおよび軟部画像Gsの推定結果を導出するようにした。ここで、本実施形態においては、ニューラルネットワークの学習にCT画像V0から導出した合成2次元画像C0とCT画像V0から導出した骨部画像Gbおよび軟部画像Gsを用いている。このため、1つの放射線画像と放射線画像から導出した骨部画像Gbおよび軟部画像Gsに関連する情報とを教師データとして用いる場合と比較して、学習済みニューラルネットワーク23Aは、単純放射線画像G0からより精度よく骨部画像Gbおよび軟部画像Gsの推定結果を導出可能なものとなっている。したがって、本実施形態によればより精度よく骨部画像Gbおよび軟部画像Gsの推定結果を導出することができる。
【0058】
なお、上記第1の実施形態においては、骨部画像Gbおよび軟部画像Gsの推定結果を導出しているが、これに限定されるものではない。骨部画像Gbおよび軟部画像Gsのいずれか一方の推定結果を導出するようにしてもよい。この場合、学習済みニューラルネットワーク23Aは、正解データを骨部画像Gbおよび軟部画像Gsのいずれか一方とする教師データにより学習を行うことにより構築すればよい。
【0059】
また、上記第1の実施形態においては、単純放射線画像G0から骨部画像Gbおよび軟部画像の推定結果を導出しているが、これに限定されるものではない。例えば、筋肉画像および脂肪画像の推定結果を導出するようにしてもよい。以下、これを第2の実施形態として説明する。
【0060】
なお、第2の実施形態における推定装置および情報導出装置の構成は、上記第1の実施形態における推定装置10および情報導出装置50の構成と同一であり、行われる処理のみが異なるため、ここでは詳細な説明は省略する。第2の実施形態においては、情報導出装置50の強調画像導出部63において、正解データ42としての骨部画像Gbおよび軟部画像Gsの導出に代えて、筋肉画像Gmおよび脂肪画像Gfを導出するようにしたものである。
【0061】
第2の実施形態において、強調画像導出部63は、まずCT画像V0のCT値に基づいてCT画像V0における筋肉領域を特定する。具体的にはしきい値処理によりCT値が60~70となる画素からなる領域を筋肉領域に特定する。なお、しきい値処理に代えて、CT画像V0から筋肉領域を検出するように学習がなされた学習済みニューラルネットワークを用いて筋肉領域を特定してもよい。また、CT画像V0をディスプレイ54に表示し、表示したCT画像V0においてマニュアル操作による筋肉領域の指定を受け付けることにより、筋肉領域を特定するようにしてもよい。
【0062】
そして、強調画像導出部63は、図20に示すようにCT画像V0に含まれる被写体H内の筋肉領域HmのCT値を、合成2次元画像C0を導出する際と同様に仮想的な平面64に投影することにより、筋肉画像Gmを導出する。筋肉画像Gmを図21に示す。
【0063】
また、強調画像導出部63は、CT画像V0のCT値に基づいてCT画像V0における脂肪領域を特定する。具体的にはしきい値処理によりCT値が-100~-10となる画素からなる領域を脂肪領域に特定する。なお、しきい値処理に代えて、CT画像V0から脂肪領域を検出するように学習がなされた学習済みニューラルネットワークを用いて脂肪領域を特定してもよい。また、CT画像V0をディスプレイ54に表示し、表示したCT画像V0においてマニュアル操作による脂肪領域の指定を受け付けることにより、脂肪領域を特定するようにしてもよい。
【0064】
そして、強調画像導出部63は、図22に示すようにCT画像V0に含まれる被写体H内の脂肪領域HfのCT値を、合成2次元画像C0を導出する際と同様に仮想的な平面64に投影することにより、脂肪画像Gfを導出する。脂肪画像Gfを図23に示す。
【0065】
第2の実施形態においては、情報導出装置50が導出した筋肉画像Gmおよび脂肪画像Gfが教師データの正解データとして用いられる。図24は第2の実施形態において導出される教師データを示す図である。図24に示すように教師データ40Aは、合成2次元画像C0を含む学習用データ41と、筋肉画像Gmおよび脂肪画像Gfを含む正解データ42Aとからなる。
【0066】
図24に示す教師データ40Aを用いてニューラルネットワークを学習することにより、単純放射線画像G0が入力されると筋肉画像Gmおよび脂肪画像Gfを推定結果として出力する学習済みニューラルネットワーク23Aを構築することができる。
【0067】
なお、上記第2の実施形態においては、筋肉画像Gmおよび脂肪画像Gfの推定結果を導出しているが、これに限定されるものではない。筋肉画像Gmおよび脂肪画像Gfのいずれか一方の推定結果を導出するようにしてもよい。この場合、学習済みニューラルネットワーク23Aは、正解データを筋肉画像Gmおよび脂肪画像Gfのいずれか一方とする教師データにより学習を行うことにより構築すればよい。
【0068】
次いで、本開示の第3の実施形態について説明する。図25は第3の実施形態による情報導出装置の機能的な構成を示す図である。なお、図25において図7と同一の構成については同一の参照番号を付与し、詳細な説明は省略する。上記第1および第2の実施形態においては、正解データ42となる学習用強調画像(すなわち、骨部画像Gb、軟部画像Gs、筋肉画像Gmおよび脂肪画像Gf)を、CT画像V0における被写体H内の特定の組成を投影することにより導出している。第3の実施形態においては、低エネルギーの放射線画像および高エネルギーの放射線画像をシミュレーションした2つの合成2次元画像をCT画像V0から導出し、導出した2つの合成2次元画像を重み付け減算することにより学習用強調画像を導出するようにしたものである。
【0069】
このために、図25に示すように、第3の実施形態による情報導出装置50Aは、第1の実施形態による情報導出装置50に対して、合成部62Aおよび強調画像導出部63Aをさらに備える。なお、以下の説明においては、学習用強調画像として、骨部画像Gbおよび軟部画像Gsを導出するものとして説明する。
【0070】
第3の実施形態においては、合成部62Aは、図26に示すように、被写体Hにエネルギー分布が異なる2種類の線量IL0,IH0の放射線を仮想的に照射し、仮想的な平面64に設置された放射線検出器により被写体Hを透過した透過線量IL1,IH1の放射線を仮想的に検出した2つの合成2次元画像CL0,CH0を導出する。合成2次元画像CL0は、いわゆる軟線も含む低エネルギーの放射線による被写体Hの放射線画像に対応する。合成2次元画像CH0は、軟線が除かれた高エネルギーの放射線による被写体Hの放射線画像に対応する。
【0071】
強調画像導出部63Aは、合成2次元画像CL0,CH0における骨部領域および軟部領域を特定する。骨部領域および軟部領域は、合成2次元画像CL0,CH0において明確に画素値が異なる。このため、強調画像導出部63Aは、しきい値処理により合成2次元画像CL0,CH0における骨部領域および軟部領域を特定する。なお、しきい値処理に代えて、合成2次元画像CL0,CH0における骨部領域および軟部領域を検出するように学習がなされた学習済みニューラルネットワークを用いて骨部領域および軟部領域を特定してもよい。また、合成2次元画像CL0,CH0をディスプレイ54に表示し、表示した合成2次元画像CL0,CH0においてマニュアル操作による骨部領域および軟部領域の指定を受け付けることにより、骨部領域および軟部領域を特定するようにしてもよい。
【0072】
第3の実施形態においては、強調画像導出部63Aは2つの合成2次元画像を重み付け減算することにより骨部画像Gbおよび軟部画像Gsを導出する。このために、強調画像導出部63Aは、2つの合成2次元画像CL0,CH0における軟部領域について、低エネルギー画像に対応する合成2次元画像CL0の画素値CLs(x,y)と高エネルギー画像である合成2次元画像CH0の画素値CHs(x,y)との比率CLs(x,y)/CHs(x,y)を、骨部画像Gbを導出するための重み付け減算を行う際の重み係数αとして導出する。なお、比率CLs(x,y)/CHs(x,y)は、軟部についての高エネルギーの放射線に対する減弱係数μhsに対する低エネルギーの放射線に対する減弱係数μlsの比率μls/μhsを表すものとなる。
【0073】
また、強調画像導出部63Aは、2つの合成2次元画像CL0,CH0における骨部領域について、低エネルギー画像に対応する合成2次元画像CL0の画素値CLb(x,y)と高エネルギー画像に対応する合成2次元画像CH0の画素値CHb(x,y)との比率CLb(x,y)/CHb(x,y)を、軟部画像Gsを導出するための重み付け減算を行う際の重み係数βとして導出する。なお、比率CLb(x,y)/CHb(x,y)は、骨部についての高エネルギーの放射線に対する減弱係数μhbに対する低エネルギーの放射線に対する減弱係数μlbの比率μlb/μhbを表すものとなる。
【0074】
第3の実施形態において、強調画像導出部63Aは、導出した重み係数α、βを用いて、合成2次元画像CL0,CH0を下記式(4)、(5)により重み付け減算することにより、骨部画像Gbおよび軟部画像Gsを導出する。
Gb(x,y)=α・CH0(x,y)-CL0(x,y) (4)
Gs(x、y)=CH0(x、y)-β×CH0(x、y) (5)
【0075】
なお、上記各実施形態においては、推定装置10においてニューラルネットワークの学習を行って学習済みニューラルネットワーク23Aを構築しているが、これに限定されるものではない。推定装置10以外の他の装置において構築された学習済みニューラルネットワーク23Aを、本実施形態における推定装置10の推定部23に用いるようにしてもよい。
【0076】
また、上記各実施形態においては、放射線検出器5を用いて被写体Hを撮影するシステムにおいて取得した放射線画像を用いて強調画像を推定する処理を行っているが、放射線検出器に代えて、蓄積性蛍光体シートを用いて放射線画像を取得する場合にも、本開示の技術を適用できることはもちろんである。
【0077】
また、上記実施形態における放射線は、とくに限定されるものではなく、X線の他、α線またはγ線等を用いることができる。
【0078】
また、上記実施形態において、例えば、推定装置10の画像取得部21、情報取得部22、推定部23、学習部24および表示制御部25、並びに情報導出装置50等の画像取得部61、合成部62および強調画像導出部63等といった各種の処理を実行する処理部(Processing Unit)のハードウェア的な構造としては、次に示す各種のプロセッサ(Processor)を用いることができる。上記各種のプロセッサには、上述したように、ソフトウェア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPUに加えて、FPGA(Field Programmable Gate Array)等の製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device :PLD)、ASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が含まれる。
【0079】
1つの処理部は、これらの各種のプロセッサのうちの1つで構成されてもよいし、同種または異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせまたはCPUとFPGAとの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。
【0080】
複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアントおよびサーバ等のコンピュータに代表されるように、1つ以上のCPUとソフトウェアとの組み合わせで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)等に代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサの1つ以上を用いて構成される。
【0081】
さらに、これらの各種のプロセッサのハードウェア的な構造としては、より具体的には、半導体素子等の回路素子を組み合わせた電気回路(Circuitry)を用いることができる。
【符号の説明】
【0082】
1 撮影装置
3 放射線源
5 放射線検出器
7 CT装置
9 画像保存システム
10 推定装置
11、51 CPU
12 推定処理プログラム
12B 学習プログラム
13、53 ストレージ
14、54 ディスプレイ
15、55 入力デバイス
16、56 メモリ
17、57 ネットワークI/F
18、58 バス
21 画像取得部
22 情報取得部
23 推定部
23A 学習済みニューラルネットワーク
24 学習部
25 表示制御部
30 ニューラルネットワーク
31 入力層
32 中間層
33 出力層
35 畳み込み層
36 プーリング層
37 全結合層
40、40A 教師データ
41 学習用データ
42、42A 正解データ
47 出力データ
48 パラメータ
50,50A 情報導出装置
52 情報導出プログラム
61 画像取得部
62、62A 合成部
63、63A 強調画像導出部
64 平面
70 表示画面
71 第1の画像表示領域
72 第2の画像表示領域
C0、CL0、CH0 合成2次元画像
G0 単純放射線画像
Gb 骨部画像
Gf 脂肪画像
Gm 筋肉画像
Gs 軟部画像
H 被写体
Hb 骨部領域
Hf 脂肪領域
Hm 筋肉領域
Hs 軟部領域
I0、IL0、IH0 照射線量
I1、IL1、IH1 到達線量
V0 CT画像
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14
図15
図16
図17
図18
図19
図20
図21
図22
図23
図24
図25
図26