(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2023-11-30
(45)【発行日】2023-12-08
(54)【発明の名称】教師画像生成装置、方法およびプログラム、学習装置、方法およびプログラム、判別器、並びに放射線画像処理装置、方法およびプログラム
(51)【国際特許分類】
A61B 6/12 20060101AFI20231201BHJP
A61B 6/00 20060101ALI20231201BHJP
【FI】
A61B6/12
A61B6/00 350D
A61B6/00 360Z
(21)【出願番号】P 2020017709
(22)【出願日】2020-02-05
【審査請求日】2022-01-24
【前置審査】
(73)【特許権者】
【識別番号】306037311
【氏名又は名称】富士フイルム株式会社
(74)【代理人】
【識別番号】110001519
【氏名又は名称】弁理士法人太陽国際特許事務所
(72)【発明者】
【氏名】浜渦 紳
【審査官】亀澤 智博
(56)【参考文献】
【文献】特開2017-185007(JP,A)
【文献】国際公開第2019/138438(WO,A1)
【文献】特表2018-502646(JP,A)
【文献】特表2006-506117(JP,A)
【文献】国際公開第2018/159775(WO,A1)
【文献】I. KOMPATSIARIS et al.,“Deformable boundary detection of stents in angiographic images”,IEEE Transactions on Medical Imaging,2000年06月,Vol. 19, No. 6,p.652-662,DOI: 10.1109/42.870673
(58)【調査した分野】(Int.Cl.,DB名)
A61B 6/00 - 6/14
G06T 1/00 , 7/00
G16H 30/00 -30/40
(57)【特許請求の範囲】
【請求項1】
少なくとも1つのプロセッサを備え、
前記プロセッサは、
人体を含む放射線画像、および放射線撮影以外の手法により取得された、手術用具を表す手術用具画像を取得し、
前記手術用具の放射線吸収率、前記放射線画像における放射線散乱の程度、および前記放射線画像におけるビームハードニングの少なくとも1つに応じて設定された合成パラメータによって、前記放射線画像に前記手術用具画像を合成することにより、対象画像が入力されると該対象画像における前記手術用具の領域を判別する判別器を学習するための教師画像を生成するように構成される教師画像生成装置。
【請求項2】
前記プロセッサは、さらに
前記放射線画像の撮影条件に応じたノイズの少なくとも1つに応じて前記合成パラメータを設定するように構成される請求項1に記載の教師画像生成装置。
【請求項3】
前記手術用具は、ガーゼ、メス、鋏、ドレイン、縫合針、糸、鉗子およびステントグラフトの少なくとも1つを含む請求項1
または2に記載の教師画像生成装置。
【請求項4】
前記手術用具がガーゼである場合、前記ガーゼは、放射線吸収糸を少なくとも一部に含む請求項
3に記載の教師画像生成装置。
【請求項5】
少なくとも1つのプロセッサを備え、
前記プロセッサは、
請求項1から
4のいずれか1項に記載の教師画像生成装置により生成された教師画像と、前記教師画像における前記手術用具の領域を表す正解データとからなる多数の教師データにより、入力された放射線画像における手術用具の領域を判別する判別器を学習するように構成される学習装置。
【請求項6】
請求項
5に記載の学習装置により学習がなされた判別器。
【請求項7】
少なくとも1つのプロセッサを備え、
前記プロセッサは、
請求項
6に記載の判別器により、前記入力された放射線画像における前記手術用具の領域を判別することにより、前記手術用具の領域を検出するように構成される放射線画像処理装置。
【請求項8】
前記プロセッサは、前記手術用具の領域の検出結果を表示画面に表示するように構成される請求項
7に記載の放射線画像処理装置。
【請求項9】
人体を含む放射線画像、および放射線撮影以外の手法により取得された、手術用具を表す手術用具画像を取得し、
前記手術用具の放射線吸収率、前記放射線画像における放射線散乱の程度、および前記放射線画像におけるビームハードニングの少なくとも1つに応じて設定された合成パラメータによって、前記放射線画像に前記手術用具画像を合成することにより、対象画像が入力されると該対象画像における前記手術用具の領域を判別する判別器を学習するための教師画像を生成する教師画像生成方法。
【請求項10】
請求項1から
4のいずれか1項に記載の教師画像生成装置により生成された教師画像と、前記教師画像における前記手術用具の領域を表す正解データとからなる多数の教師データにより、入力された放射線画像における手術用具の領域を判別する判別器を学習する学習方法。
【請求項11】
請求項
6に記載の判別器により、前記入力された放射線画像における前記手術用具の領域を判別することにより、該手術用具の領域を検出する放射線画像処理方法。
【請求項12】
人体を含む放射線画像、および放射線撮影以外の手法により取得された、手術用具を表す手術用具画像を取得する手順と、
前記手術用具の放射線吸収率、前記放射線画像における放射線散乱の程度、および前記放射線画像におけるビームハードニングの少なくとも1つに応じて設定された合成パラメータによって、前記放射線画像に前記手術用具画像を合成することにより、対象画像が入力されると該対象画像における前記手術用具の領域を判別する判別器を学習するための教師画像を生成する手順とをコンピュータに実行させる教師画像生成プログラム。
【請求項13】
請求項1から
4のいずれか1項に記載の教師画像生成装置により生成された教師画像と、前記教師画像における前記手術用具の領域を表す正解データとからなる多数の教師データにより、入力された放射線画像における手術用具の領域を判別する判別器を学習する手順をコンピュータに実行させる学習プログラム。
【請求項14】
請求項
6に記載の判別器により、前記入力された放射線画像における前記手術用具の領域を判別することにより、該手術用具の領域を検出する手順をコンピュータに実行させる放射線画像処理プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、教師画像生成装置、方法およびプログラム、学習装置、方法およびプログラム、判別器、並びに放射線画像処理装置、方法およびプログラムに関するものである。
【背景技術】
【0002】
患者の外科的手術を行う際には、出血を抑えるためのガーゼ、傷口または切開部分を縫うための糸と縫合針、切開のためのメスおよび鋏、血液を排出するためのドレイン、並びに切開部分を開くための鉗子等の様々な手術用具が使用される。このような手術用具は、手術後に患者の体内に残存していると、重篤な合併症を発生する恐れがある。このため、手術後は患者の体内に手術用具が残存していないことを確認する必要がある。
【0003】
このため、ガーゼ画像の特徴を学習した判別器を用意し、手術野をカメラにより撮影することにより取得した画像を判別器に入力して、ガーゼの有無を判別する手法が提案されている(特許文献1参照)。
【先行技術文献】
【特許文献】
【0004】
【発明の概要】
【発明が解決しようとする課題】
【0005】
しかしながら、ガーゼは血に染まるため、カメラにより取得した画像ではガーゼを発見することは判別器を用いたとしても困難である。また、縫合針のように小さな手術用具は、内臓の間に入り込んでしまう可能性があるため、カメラにより取得した画像では、判別器を用いたとしても発見することは困難である。一方、術後に患者の放射線画像を取得し、放射線画像を観察することにより、患者の体内に手術用具が残存しているか否かを確認することが考えられる。しかしながら、長時間の手術の後では、術者も看護師も疲労しているため、手術用具の残存を見逃してしまう可能性がある。また、判別器の学習に必要なガーゼ等の手術器具が残存した放射線画像は極めて稀であるため、判別器の学習のために大量に収集することは困難である。
【0006】
本開示は上記事情に鑑みなされたものであり、手術後における手術用具の患者体内の残存を確実に防止できるようにすることを目的とする。
【課題を解決するための手段】
【0007】
本開示による教師画像生成装置は、少なくとも1つのプロセッサを備え、
プロセッサは、
人体を含む放射線画像、および放射線撮影以外の手法により取得された、手術用具を表す手術用具画像を取得し、
放射線画像に手術用具画像を合成することにより、対象画像が入力されると対象画像における手術用具の領域を判別する判別器を学習するための教師画像を生成するように構成される。
【0008】
「放射線撮影以外の手法」とは、手術用具に放射線を照射し、手術用具を透過した放射線を検出することにより画像を取得する以外の手法を意味する。具体的には、コンピュータグラフィックスによる生成、および写真撮影の手法等が挙げられる。
【0009】
なお、本開示による教師画像生成装置においては、プロセッサは、手術用具の特性に応じた合成パラメータによって放射線画像および手術用具画像を合成することにより、教師画像を生成するように構成されるものであってもよい。
【0010】
また、本開示による教師画像生成装置においては、プロセッサは、手術用具の放射線吸収率、放射線画像における放射線散乱の程度、放射線画像におけるビームハードニング、および放射線画像の撮影条件に応じたノイズの少なくとも1つに応じて合成パラメータを設定するように構成されるものであってもよい。
【0011】
また、本開示による教師画像生成装置においては、手術用具は、ガーゼ、メス、鋏、ドレイン、縫合針、糸、鉗子およびステントグラフトの少なくとも1つを含むものであってもよい。
【0012】
この場合、ガーゼは、放射線吸収糸を少なくとも一部に含むものであってもよい。
【0013】
本開示による学習装置は、少なくとも1つのプロセッサを備え、
プロセッサは、
本開示による教師画像生成装置により生成された教師画像と、教師画像における手術用具の領域を表す正解データとからなる多数の教師データにより、入力された放射線画像における手術用具の領域を判別する判別器を学習するように構成される。
【0014】
本開示による判別器は、本開示による学習装置により学習がなされてなる。
【0015】
本開示による放射線画像処理装置は、少なくとも1つのプロセッサを備え、
プロセッサは、
本開示による判別器により、入力された放射線画像における手術用具の領域を判別することにより、手術用具の領域を検出するように構成される。
【0016】
なお、本開示による放射線画像処理装置においては、プロセッサは、手術用具の領域の検出結果を表示画面に表示するように構成されるものであってもよい。
【0017】
本開示による教師データは、本開示による教師画像生成装置により生成された教師画像と、教師画像における手術用具の領域を表す正解データとからなり、入力された放射線画像における手術用具の領域を判別する判別器を学習するためのものである。
【0018】
本開示による教師画像生成方法は、人体を含む放射線画像、および放射線撮影以外の手法により取得された、手術用具を表す手術用具画像を取得し、
放射線画像に手術用具画像を合成することにより、対象画像が入力されると対象画像における手術用具の領域を判別する判別器を学習するための教師画像を生成する。
【0019】
本開示による学習方法は、本開示による教師画像生成装置により生成された教師画像と、教師画像における手術用具の領域を表す正解データとからなる多数の教師データにより、入力された放射線画像における手術用具の領域を判別する判別器を学習する。
【0020】
本開示による放射線画像処理方法は、本開示による判別器により、入力された放射線画像における手術用具の領域を判別することにより、手術用具の領域を検出する。
【0021】
なお、本開示による教師画像生成方法、学習方法および放射線画像処理方法をコンピュータに実行させるためのプログラムとして提供してもよい。
【発明の効果】
【0022】
本開示によれば、手術後における手術用具の患者体内の残存を確実に防止できる。
【図面の簡単な説明】
【0023】
【
図1】本開示の実施形態による放射線画像処理装置を適用した放射線画像撮影システムの構成を示す概略ブロック図
【
図2】本実施形態による放射線画像処理装置の概略構成を示す図
【
図3】本実施形態による放射線画像処理装置の機能的な構成を示す図
【
図4】教師画像を生成するための放射線画像を示す図
【
図9】本実施形態における教師画像生成処理のフローチャート
【
図10】本実施形態における学習処理のフローチャート
【
図11】本実施形態における検出処理のフローチャート
【発明を実施するための形態】
【0024】
以下、図面を参照して本開示の実施形態について説明する。
図1は、本開示の実施形態による放射線画像処理装置を適用した放射線画像撮影システムの構成を示す概略ブロック図である。
図1に示すように、本実施形態による放射線画像撮影システム100は、外科的手術を行った後の、患者である被写体の放射線画像を取得して、放射線画像に含まれる手術用具を検出するためのものである。本実施形態による放射線画像撮影システム100は、撮影装置1、コンソール2、画像保存システム6および放射線画像処理装置7を備える。
【0025】
撮影装置1は、X線源等の放射線源4から発せられ、被写体Hを透過した放射線を放射線検出器5に照射することにより、手術台3に仰臥した被写体Hの放射線画像G0を取得するための撮影装置である。放射線画像G0はコンソール2に入力される。
【0026】
また、放射線検出器5は、可搬型の放射線検出器であり、手術台3に設けられた取付部3Aにより手術台3に取り付けられている。なお、放射線検出器5は、手術台3に固定されたものであってもよい。
【0027】
コンソール2は、無線通信LAN(Local Area Network)等のネットワークを介して、不図示のRIS(Radiology Information System)等から取得した撮影オーダおよび各種情報と、技師等により直接行われた指示等とを用いて、撮影装置1の制御を行う機能を有している。一例として、本実施形態では、サーバコンピュータをコンソール2として用いている。
【0028】
画像保存システム6は、撮影装置1により撮影された放射線画像の画像データを保存するシステムである。画像保存システム6は、保存している放射線画像から、コンソール2および放射線画像処理装置7等からの要求に応じた画像を取り出して、要求元の装置に送信する。画像保存システム6の具体例としては、PACS(Picture Archiving and Communication Systems)が挙げられる。
【0029】
次に、本実施形態に係る放射線画像処理装置について説明する。なお、本実施形態に係る放射線画像処理装置7は、本開示による教師データ生成装置、学習装置を内包するものであるが、以降の説明においては、放射線画像処理装置にて代表させるものとする。
【0030】
まず、
図2を参照して、本実施形態に係る放射線画像処理装置のハードウェア構成を説明する。
図2に示すように、放射線画像処理装置7は、ワークステーション、サーバコンピュータおよびパーソナルコンピュータ等のコンピュータであり、CPU(Central Processing Unit)11、不揮発性のストレージ13、および一時記憶領域としてのメモリ16を備える。また、放射線画像処理装置7は、液晶ディスプレイ等のディスプレイ14、キーボードおよびマウス等の入力デバイス15、並びにネットワーク10に接続されるネットワークI/F(InterFace)17を備える。CPU11、ストレージ13、ディスプレイ14、入力デバイス15、メモリ16およびネットワークI/F17は、バス18に接続される。なお、CPU11は、本開示におけるプロセッサの一例である。
【0031】
ストレージ13は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、およびフラッシュメモリ等によって実現される。記憶媒体としてのストレージ13には、放射線画像処理装置7にインストールされた教師画像生成プログラム21、学習プログラム22および放射線画像処理プログラム23が記憶される。CPU11は、ストレージ13から教師画像生成プログラム21、学習プログラム22および放射線画像処理プログラム23を読み出してからメモリ16に展開し、展開した教師画像生成プログラム21、学習プログラム22および放射線画像処理プログラム23を実行する。
【0032】
なお、教師画像生成プログラム21、学習プログラム22および放射線画像処理プログラム23は、ネットワークに接続されたサーバコンピュータの記憶装置、あるいはネットワークストレージに、外部からアクセス可能な状態で記憶され、要求に応じて放射線画像処理装置7を構成するコンピュータにダウンロードされ、インストールされる。または、DVD(Digital Versatile Disc)、CD-ROM(Compact Disc Read Only Memory)等の記録媒体に記録されて配布され、その記録媒体から放射線画像処理装置7を構成するコンピュータにインストールされる。
【0033】
次いで、本実施形態による放射線画像処理装置の機能的な構成を説明する。
図3は、本実施形態による放射線画像処理装置の機能的な構成を示す図である。
図3に示すように,放射線画像処理装置(教師画像生成装置および学習装置)7は、画像取得部31、合成部32、学習部33、検出部34および表示制御部35を備える。そして、CPU11が、教師画像生成プログラム21、学習プログラム22および放射線画像処理プログラム23を実行することにより、画像取得部31、合成部32、学習部33、検出部34および表示制御部35として機能する。
【0034】
なお、画像取得部31および合成部32が,本実施形態による教師画像生成装置を構成する。画像取得部31および学習部33が、本実施形態による学習装置を構成する。画像取得部31、検出部34および表示制御部35が、本実施形態による放射線画像処理装置7を構成する。
【0035】
画像取得部31は、後述する教師画像T0を生成するために、画像保存システム6からネットワークI/F17を介して任意の被写体Hを含む放射線画像G0を取得する。
図4は放射線画像G0を示す図である。なお、
図4は人体の胸部の放射線画像を示すが、放射線画像G0に含まれる被写体はこれに限定されるものではない。
【0036】
また、画像取得部31は、教師画像T0を生成するために、手術用具を表す手術用具画像M0も画像保存システム6から取得する。手術用具画像M0は、放射線撮影以外の手法により取得された画像である。例えば手術用具画像M0は、コンピュータグラフィックス等により作成された手術用具を表す3次元的な画像である。なお、本実施形態においては、手術用具として、傷口または切開部分を縫うための縫合針を用いるものとする。
図5は手術用具としての縫合針の画像を示す図である。なお、
図5においては、縫合針の手術用具画像M0を2次元で示しているが、3次元的に回転させたり、移動させたりすることが可能であるものとする。なお、手術用具画像M0は手術用具の写真画像であってもよい。
【0037】
また、画像取得部31は、放射線源4を駆動して手術後の被写体Hに放射線を照射し、被写体Hを透過した放射線を放射線検出器5により検出して、手術用具の検出対象となる放射線画像G1を取得する。この際、画像取得部31は、放射線源4において使用するターゲットおよびフィルタの種類、撮影線量、管電圧およびSID等の撮影条件を設定する。
【0038】
合成部32は、放射線画像G0に手術用具画像M0を合成することにより、対象となる放射線画像G1が入力されると放射線画像G1における手術用具の領域を判別する判別器を学習するための教師画像T0を生成する。合成部32は、手術用具(本実施形態においては縫合針)の特性に応じた合成パラメータによって放射線画像G0および手術用具画像M0を合成して教師画像T0を生成する。合成部32は、手術用具(本実施形態においては縫合針)の放射線吸収率、手術用具による放射線散乱の程度、放射線画像G0におけるビームハードニング、および放射線画像G0の撮影条件に応じたノイズの少なくとも1つにより、合成パラメータを設定する。
【0039】
なお、放射線画像G0における手術用具画像M0の位置および手術用具画像M0の向きは、放射線画像G0をディスプレイ14に表示し、操作者による入力デバイス15からの指示により指定すればよい。
【0040】
本実施形態においては、例えば、下記の式(1)により教師画像T0を生成するものとする。すなわち、放射線画像G0における手術用具画像M0を合成する領域の画素(x,y)において、放射線画像G0の画素値G0(x,y)から、重み係数w1により重み付けた手術用具画像M0の画素値M0(x,y)を減算することにより、教師画像T0の画素値T0(x,y)を導出する。なお、重み係数w1は0以上1以下の値をとる。重み係数w1は本実施形態の合成パラメータに含まれる。
図6は教師画像を示す図である。
図6に示すように、教師画像T0においては、被写体の右肺に縫合針40が含まれたものとなる。
【0041】
T0(x,y)=G0(x,y)-w1・M0(x,y) (1)
【0042】
ここで、手術用具の放射線吸収率が高ければ、手術用具を放射線撮影することにより取得される放射線画像においては、手術用具のコントラストが高くなる。例えば、手術用具が縫合針、鋏およびメスのような金属の場合、手術用具の放射線画像はコントラストが高くなる。このため、教師画像T0においては手術用具のコントラストが高くなりすぎないように、放射線画像G0と手術用具画像M0との重み付け減算を行う際に、手術用具画像M0の重み係数w1を大きくする。
【0043】
また、放射線の散乱により、放射線画像におけるコントラストが低下する。放射線の散乱は、被写体Hの体厚が大きいほどその影響が大きくなる。また、被写体Hの体厚が大きいほど放射線画像G0に含まれる被写体領域の濃度は小さくなる。このため、合成部32は、放射線画像G0に含まれる被写体領域の濃度の平均値を導出し、平均値が小さいほど、すなわち被写体Hの体厚が大きいほど、放射線画像G0と手術用具画像M0との濃度差が小さくなるように、重み係数w1を小さくして教師画像T0を生成する。
【0044】
ここで、放射線源4に印加される管電圧が高く、放射線が高エネルギーであるほど、放射線が被写体Hを透過する過程において、放射線の低エネルギー成分が被写体Hに吸収され、放射線が高エネルギー化するビームハードニングが生じる。ビームハードニングが生じると、放射線画像におけるコントラストが低下する。また、ビームハードニングによる放射線の高エネルギー化は、被写体Hの体厚が大きいほど大きくなる。また、被写体Hの体厚が大きいほど放射線画像G0に含まれる被写体領域の濃度は小さくなる。このため、合成部32は、放射線画像G0に含まれる被写体領域の濃度の平均値を導出し、平均値が小さいほど、すなわち被写体Hの体厚が大きいほど、放射線画像G0と手術用具画像M0との濃度差が小さくなるように、重み係数w1を小さくして教師画像T0を生成する。
【0045】
また、撮影条件における放射線量が小さいと、放射線画像G0に含まれるノイズが多くなる。このため、合成部32は、放射線量が小さい場合、下記の式(2)に示すように、式(1)に対して放射線量に応じたノイズN(x,y)を加算することにより教師画像T0を生成する。この場合、重み係数w1は予め定められた値としてもよく、上記の手術用号の放射線吸収率、放射線散乱の程度およびビームハードニングの少なくとも1つに応じて設定してもよい。また、ノイズN(x,y)は予め定められたシミュレーションにより導出して、ストレージ13に記憶しておけばよい。なお、ノイズN(x,y)も合成パラメータに含まれる。
【0046】
T0(x,y)=G0(x,y)-w1・M0(x,y)+N(x,y) (2)
【0047】
本実施形態においては、合成部32は、後述する判別器の学習のために、放射線画像G0における手術用具画像M0の合成位置を変更したり、合成パラメータを変更したりして、複数の教師画像T0を生成する。これにより、手術用具画像M0が放射線撮影されたような態様にて放射線画像G0に合成された教師画像T0が生成されることとなる。なお、被写体Hが異なる複数の放射線画像G0を用いて教師画像T0を生成してもよい。
【0048】
学習部33は、教師画像T0および教師画像T0における手術用具の領域が特定された正解データを含む教師データ、並びに手術用具を含まない放射線画像からなる教師データを用いて、入力された放射線画像における手術用具の領域を判別するように検出部34が有する判別器34Aを学習する。教師データは複数用意される。なお、正解データは、教師画像T0を生成した際の手術用具画像M0の領域をマスクしたマスク画像を用いればよい。
【0049】
判別器34Aとしては、機械学習モデルを用いることができる。機械学習モデルの一例として、ニューラルネットワークモデルが挙げられる。ニューラルネットワークモデルとしては、単純パーセプトロン、多層パーセプトロン、ディープニューラルネットワーク、畳み込みニューラルネットワーク、ディープビリーフネットワーク、リカレントニューラルネットワーク、および確率的ニューラルネットワーク等が挙げられる。本実施形態においては、判別器34Aとして畳み込みニューラルネットワークを用いるものとする。
【0050】
図7は、教師画像T0および教師画像T0における手術用具の領域が特定された正解データを含む教師データを模式的に示す図である。
図7に示すように、教師データ45は、手術用具を含む教師画像T0および手術用具の領域が特定された正解データC0を含む。
【0051】
判別器34Aは、教師データに含まれる教師画像T0が入力されると、教師画像T0の各画素が手術用具の領域であることの確率を出力するように学習がなされる。判別器34Aが出力した、確率が予め定められたしきい値以上となる画素からなる領域が手術用具の領域となる。学習部33は、教師画像T0を判別器34Aに入力し、手術用具の領域となる確率を出力させる。そして、判別器34Aが出力した予め定められたしきい値以上となる確率となる画素からなる領域と、教師データに含まれる正解データにより表される領域との相違を損失として導出する。そして、損失に基づいて判別器34Aを学習する。具体的には、損失を小さくするように、畳み込みニューラルネットワークにおけるカーネルの係数およびニューラルネットワークの結合の重み等を導出する。学習部33は、損失が予め定められたしきい値以下となるまで学習を繰り返す。これによって、入力された放射線画像に含まれる手術用具の領域について、予め定められたしきい値以上の高い確率を出力することにより、入力された放射線画像に含まれる手術用具の領域を抽出するように、判別器34Aの学習がなされる。
【0052】
検出部34は、学習済みの判別器34Aが適用されてなる。検出部34に対象の放射線画像G1が入力されると、検出部34は、検出対象となる放射線画像G1に含まれる手術用具の領域を判別器34Aに抽出させることにより、手術用具の領域を検出する。
【0053】
表示制御部35は、検出部34が検出対象となる放射線画像G1から検出した手術用具の領域を強調して、放射線画像G1をディスプレイ14に表示する。
図8は放射線画像の表示画面を示す図である。
図8に示すように、表示画面50には放射線画像G1が表示されており、放射線画像G1に含まれる手術用具の領域51を矩形領域52で囲むことにより、手術用具の領域51が強調されている。なお、
図8においては矩形領域52は白抜きにて示しているが、色を付与してもよい。なお、矩形領域52の付与に代えて、手術用具の領域付近に矢印および星印等のマークを付与することにより、手術用具の領域を強調してもよい。
【0054】
次いで、本実施形態において行われる処理について説明する。
図9は本実施形態において行われる教師画像生成処理のフローチャートである。まず、画像取得部31が、教師画像T0を生成するための放射線画像G0および手術用具画像M0を取得する(ステップST1)。次いで、合成部32が放射線画像G0と手術用具画像M0との合成パラメータを設定し(ステップST2)、合成パラメータに応じて放射線画像G0と手術用具画像M0とを合成して教師画像T0を生成し(ステップST3)、処理を終了する。
【0055】
次いで、本実施形態における学習処理について説明する。
図10は本実施形態において行われる学習処理のフローチャートである。学習部33が、教師画像T0および正解データからなる教師データおよび手術用具を含まない放射線画像からなる教師データを取得し(ステップST11)、判別器34Aに教師データを入力して手術用具の領域の抽出結果を取得し、正解データとの相違に基づく損失を用いて判別器34Aを学習し(ステップST12)、ステップST11にリターンする。そして、学習部33は、損失が予め定められたしきい値となるまで、ステップST11,ST12の処理を繰り返し、学習を終了する。なお、学習部33は、予め定められた回数学習を繰り返すことにより、学習を終了するものであってもよい。
【0056】
次いで、本実施形態における手術用具の領域の検出処理について説明する。
図11は本実施形態において行われる検出処理のフローチャートである。画像取得部31が、検出対象となる放射線画像G1を取得し(ステップST21)、検出部34が、放射線画像G1から手術用具の領域を検出する(ステップST22)。そして、表示制御部35が、手術用具の領域を強調した放射線画像G1をディスプレイ14に表示し(ステップST23)、処理を終了する。
【0057】
このように、本実施形態においては、放射線画像G0および手術用具を表す手術用具画像M0を合成することにより生成した教師画像T0、およびこの教師画像T0における手術用具の領域を表す正解データからなる教師データにより、入力された放射線画像から手術用具の領域を判別するように学習がなされた判別器34Aを検出部34が備えるものとした。そして、判別器34Aによって、入力された放射線画像G0における手術用具の領域を判別することにより、手術用具の領域を検出するようにした。このため、本実施形態によれば、検出結果を参照することにより、患者の体内に手術用具が残存していないかを確実に確認することができる。したがって、本実施形態によれば、手術後における手術用具の患者体内の残存を確実に防止できる。
【0058】
一方、判別器34Aの学習に必要な、手術器具が残存した放射線画像は極めて稀であるため、判別器34Aの学習のために大量に収集することは困難であった。本実施形態においては、放射線画像G0および放射線撮影以外の手法により取得された手術用具を表す手術用具画像M0を合成することにより生成した教師画像T0を用いて、判別器34Aを学習している。このため、十分な数の教師画像T0を用意することができ、その結果、手術器具の検出精度が高い判別器34Aを構築することができる。
【0059】
また、合成パラメータによって放射線画像G0および手術用具画像M0を合成することにより教師画像T0を生成しているため、放射線撮影以外の手法により取得された手術用具画像M0を、放射線撮影したかのような態様で放射線画像G0と合成された教師画像T0を生成することができる。このため、手術用具画像M0を用意するために、手術用具を放射線撮影する必要がなくなる。
【0060】
なお、上記実施形態においては、手術用具として縫合針を検出の対象としているが、これに限定されるものではない。ガーゼ、メス、鋏、ドレイン、糸、鉗子およびステントグラフト等の手術の際に使用する任意の手術用具を検出の対象とすることができる。この場合、教師画像T0を生成するための、手術用具を含む手術用具画像M0は、対象となる手術用具を撮影することにより取得すればよい。また、判別器34Aは対象となる手術用具を判別するように学習すればよい。なお、判別器34Aを複数チャンネルの検出を行うように学習することにより、1種類の手術用具のみならず、複数種類の手術用具を判別するように、判別器34Aを構築することも可能である。
【0061】
ここで、手術用具として使用するガーゼについて説明する。
図12はガーゼを示す図である。
図12に示すように、ガーゼ60は綿糸が平織りされてなる生地であり、その一部に放射線吸収糸61が織り込まれている。綿糸は放射線を透過するが、放射線吸収糸61は放射線を吸収する。このため、ガーゼ60の放射線画像には、線状の放射線吸収糸61のみが含まれる。ここで、手術の際には、出血を吸収するために、ガーゼ60は丸められて人体内に挿入される。このため、教師画像T0を生成するために放射線画像G0と合成する手術用具画像M0としては、
図13に示すように、放射線吸収糸61が丸まった状態を表すものを使用する。
【0062】
また、上記実施形態においては、放射線は、とくに限定されるものではなく、X線の他、α線またはγ線等を適用することができる。
【0063】
また、上記実施形態において、例えば、画像取得部31、合成部32、学習部33、検出部34および表示制御部35といった各種の処理を実行する処理部(Processing Unit)のハードウェア的な構造としては、次に示す各種のプロセッサ(Processor)を用いることができる。上記各種のプロセッサには、上述したように、ソフトウェア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPUに加えて、FPGA(Field Programmable Gate Array)等の製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device :PLD)、ASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が含まれる。
【0064】
1つの処理部は、これらの各種のプロセッサのうちの1つで構成されてもよいし、同種または異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせまたはCPUとFPGAとの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。
【0065】
複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアントおよびサーバ等のコンピュータに代表されるように、1つ以上のCPUとソフトウェアとの組み合わせで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)等に代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサの1つ以上を用いて構成される。
【0066】
さらに、これらの各種のプロセッサのハードウェア的な構造としては、より具体的には、半導体素子等の回路素子を組み合わせた電気回路(Circuitry)を用いることができる。
【符号の説明】
【0067】
1 撮影装置
2 コンソール
3 手術台
3A 取付部
4 放射線源
5 放射線検出器
6 画像保存システム
7 放射線画像処理装置
11 CPU
13 ストレージ
14 ディスプレイ
15 入力デバイス
16 メモリ
17 ネットワークI/F
18 バス
21 教師画像生成プログラム
22 学習プログラム
23 放射線画像処理プログラム
31 画像取得部
32 合成部
33 学習部
34 検出部
34A 判別器
35 表示制御部
40 縫合針
45 教師データ
50 表示画面
51 手術用具の領域
52 矩形領域
60 ガーゼ
61 放射線吸収糸
100 放射線画像撮影システム
C0 正解データ
G0、G1 放射線画像
H 被写体
M0 手術用具画像