IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 富士フイルム株式会社の特許一覧

特開2025-149688画像処理装置、画像処理方法、及び画像処理プログラム
<>
  • 特開-画像処理装置、画像処理方法、及び画像処理プログラム 図1
  • 特開-画像処理装置、画像処理方法、及び画像処理プログラム 図2
  • 特開-画像処理装置、画像処理方法、及び画像処理プログラム 図3
  • 特開-画像処理装置、画像処理方法、及び画像処理プログラム 図4
  • 特開-画像処理装置、画像処理方法、及び画像処理プログラム 図5
  • 特開-画像処理装置、画像処理方法、及び画像処理プログラム 図6
  • 特開-画像処理装置、画像処理方法、及び画像処理プログラム 図7
  • 特開-画像処理装置、画像処理方法、及び画像処理プログラム 図8
  • 特開-画像処理装置、画像処理方法、及び画像処理プログラム 図9
  • 特開-画像処理装置、画像処理方法、及び画像処理プログラム 図10
  • 特開-画像処理装置、画像処理方法、及び画像処理プログラム 図11
  • 特開-画像処理装置、画像処理方法、及び画像処理プログラム 図12
  • 特開-画像処理装置、画像処理方法、及び画像処理プログラム 図13
  • 特開-画像処理装置、画像処理方法、及び画像処理プログラム 図14
  • 特開-画像処理装置、画像処理方法、及び画像処理プログラム 図15
  • 特開-画像処理装置、画像処理方法、及び画像処理プログラム 図16
  • 特開-画像処理装置、画像処理方法、及び画像処理プログラム 図17
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2025149688
(43)【公開日】2025-10-08
(54)【発明の名称】画像処理装置、画像処理方法、及び画像処理プログラム
(51)【国際特許分類】
   A61B 6/03 20060101AFI20251001BHJP
   G06T 7/00 20170101ALI20251001BHJP
【FI】
A61B6/03 560J
G06T7/00 350B
G06T7/00 612
【審査請求】未請求
【請求項の数】15
【出願形態】OL
(21)【出願番号】P 2024050491
(22)【出願日】2024-03-26
(71)【出願人】
【識別番号】306037311
【氏名又は名称】富士フイルム株式会社
(74)【代理人】
【識別番号】110001519
【氏名又は名称】弁理士法人太陽国際特許事務所
(72)【発明者】
【氏名】小池 樹
(72)【発明者】
【氏名】竹本 和馬
【テーマコード(参考)】
4C093
5L096
【Fターム(参考)】
4C093AA22
4C093AA26
4C093DA02
4C093FF16
4C093FF23
4C093FF42
4C093FG15
5L096AA03
5L096AA09
5L096BA06
5L096BA13
5L096CA02
5L096DA01
5L096EA02
5L096FA59
5L096FA69
5L096KA04
5L096KA15
(57)【要約】
【課題】2次元医療画像に対する臓器認識を高精度に行うことができる画像処理装置、画像処理方法、及び画像処理プログラムを得る。
【解決手段】画像処理装置は、第1の2次元医療画像を入力とし、第1の2次元医療画像に対する臓器認識結果を出力とする機械学習モデルを学習させる画像処理装置であって、被検体を撮影して得られた3次元医療画像に基づいて第2の2次元医療画像を生成し、生成した第2の2次元医療画像、及び3次元医療画像における臓器認識結果に基づく第2の2次元医療画像に対応する臓器認識結果を正解データとして機械学習モデルを学習させる。
【選択図】図7
【特許請求の範囲】
【請求項1】
少なくとも一つのプロセッサを備え、かつ第1の2次元医療画像を入力とし、前記第1の2次元医療画像に対する臓器認識結果を出力とする機械学習モデルを学習させる画像処理装置であって、
前記プロセッサは、
被検体を撮影して得られた3次元医療画像に基づいて第2の2次元医療画像を生成し、
生成した前記第2の2次元医療画像、及び前記3次元医療画像における臓器認識結果に基づく前記第2の2次元医療画像に対応する臓器認識結果を正解データとして前記機械学習モデルを学習させる
画像処理装置。
【請求項2】
前記3次元医療画像は、被検体を撮影して得られた断層画像群を含み、
前記プロセッサは、
第1の3次元医療画像に基づいて、前記第1の3次元医療画像よりもスライス間隔が狭いか又はスライス厚が薄い第2の3次元医療画像を生成する
前記第2の3次元医療画像に基づいて前記第2の2次元医療画像を生成する
請求項1に記載の画像処理装置。
【請求項3】
前記プロセッサは、
前記第2の3次元医療画像を前記第1の2次元医療画像の撮影方向に相当する方向に投影することによって前記第2の2次元医療画像を生成する
請求項2に記載の画像処理装置。
【請求項4】
前記プロセッサは、
前記第2の3次元医療画像に基づいて、エッジを強調させる画像処理を行うことによって前記第2の2次元医療画像を生成する
請求項3に記載の画像処理装置。
【請求項5】
前記プロセッサは、
前記第2の3次元医療画像を前記撮影方向に相当する方向に投影することによって投影画像を生成し、前記投影画像に対して前記画像処理を行うことによって前記第2の2次元医療画像を生成する
請求項4に記載の画像処理装置。
【請求項6】
前記プロセッサは、
前記第1の3次元医療画像の撮影に用いられた撮影装置又は認識対象の臓器に応じて異なる前記画像処理を行う
請求項4に記載の画像処理装置。
【請求項7】
前記臓器認識結果は、認識した臓器の範囲を表す情報である
請求項1から請求項6の何れか1項に記載の画像処理装置。
【請求項8】
前記プロセッサは、
更に、前記3次元医療画像が撮影された際の検査情報を用いて前記機械学習モデルを学習させる
請求項1から請求項6の何れか1項に記載の画像処理装置。
【請求項9】
前記プロセッサは、
更に、前記3次元医療画像が撮影された際の前記被検体の生体情報を用いて前記機械学習モデルを学習させる
請求項1から請求項6の何れか1項に記載の画像処理装置。
【請求項10】
前記機械学習モデルは、前記第1の2次元医療画像及び前記生体情報を入力とし、前記臓器認識結果を出力とする
請求項9に記載の画像処理装置。
【請求項11】
少なくとも一つのプロセッサを備え、かつ第1の2次元医療画像を入力とし、前記第1の2次元医療画像に対する臓器認識結果を出力とする機械学習モデルを学習させる画像処理装置の前記プロセッサが、
被検体を撮影して得られた3次元医療画像に基づいて第2の2次元医療画像を生成し、
生成した前記第2の2次元医療画像、及び前記3次元医療画像における臓器認識結果に基づく前記第2の2次元医療画像に対応する臓器認識結果を正解データとして前記機械学習モデルを学習させる
処理を実行する画像処理方法。
【請求項12】
少なくとも一つのプロセッサを備え、かつ第1の2次元医療画像を入力とし、前記第1の2次元医療画像に対する臓器認識結果を出力とする機械学習モデルを学習させる画像処理装置の前記プロセッサに、
被検体を撮影して得られた3次元医療画像に基づいて第2の2次元医療画像を生成し、
生成した前記第2の2次元医療画像、及び前記3次元医療画像における臓器認識結果に基づく前記第2の2次元医療画像に対応する臓器認識結果を正解データとして前記機械学習モデルを学習させる
処理を実行させるための画像処理プログラム。
【請求項13】
少なくとも一つのプロセッサを備える画像処理装置であって、
前記プロセッサは、
被検体を撮影して得られた2次元医療画像を取得し、
第1の2次元医療画像を入力とし、入力の第1の2次元医療画像に対する臓器認識結果を出力とする学習済みモデルであって、被検体を撮影して得られた3次元医療画像に基づいて生成された第2の2次元医療画像及び前記3次元医療画像における臓器認識結果に基づく前記第2の2次元医療画像に対応する臓器認識結果を正解データとして学習された学習済みモデルに対して、取得した2次元医療画像を入力することによって、取得した2次元医療画像に対する臓器認識結果を取得する
画像処理装置。
【請求項14】
少なくとも一つのプロセッサを備える画像処理装置の前記プロセッサが、
被検体を撮影して得られた2次元医療画像を取得し、
第1の2次元医療画像を入力とし、入力の第1の2次元医療画像に対する臓器認識結果を出力とする学習済みモデルであって、被検体を撮影して得られた3次元医療画像に基づいて生成された第2の2次元医療画像及び前記3次元医療画像における臓器認識結果に基づく前記第2の2次元医療画像に対応する臓器認識結果を正解データとして学習された学習済みモデルに対して、取得した2次元医療画像を入力することによって、取得した2次元医療画像に対する臓器認識結果を取得する
処理を実行する画像処理方法。
【請求項15】
少なくとも一つのプロセッサを備える画像処理装置の前記プロセッサに、
被検体を撮影して得られた2次元医療画像を取得し、
第1の2次元医療画像を入力とし、入力の第1の2次元医療画像に対する臓器認識結果を出力とする学習済みモデルであって、被検体を撮影して得られた3次元医療画像に基づいて生成された第2の2次元医療画像及び前記3次元医療画像における臓器認識結果に基づく前記第2の2次元医療画像に対応する臓器認識結果を正解データとして学習された学習済みモデルに対して、取得した2次元医療画像を入力することによって、取得した2次元医療画像に対する臓器認識結果を取得する
処理を実行させるための画像処理プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、画像処理装置、画像処理方法、及び画像処理プログラムに関する。
【背景技術】
【0002】
特許文献1には、疾患名を含む情報と被検体の位置合わせ画像とに基づいた出力情報を出力する学習済みモデルに対して、取得された疾患名を含む情報と被検体の位置合わせ画像とを入力し、出力情報に基づいたスキャン範囲を出力する技術が開示されている。
【先行技術文献】
【特許文献】
【0003】
【特許文献1】特開2023-065669号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
CT(Computed Tomography)装置等の3次元医療画像を撮影する撮影装置では、3次元医療画像の撮影前に、スカウト画像と呼ばれる2次元医療画像が撮影される場合がある。この場合、2次元医療画像に対する臓器認識結果に基づいて、3次元医療画像の撮影範囲が決定される。従って、2次元医療画像に対する臓器認識を高精度に行うことが求められる。なお、スカウト画像はスキャノグラムとも呼ばれる。
【0005】
例えば、スカウト画像に対する臓器認識のために、スカウト画像及びスカウト画像における臓器認識結果を正解データとして学習された学習済みモデルを用いることが考えられる。しかしながら、スカウト画像等の2次元医療画像では、臓器によっては、人では視認が難しい場合がある。このため、被検体を撮影して得られた2次元医療画像を用いて学習された学習済みモデルでは、臓器認識の精度に改善の余地がある。
【0006】
本開示は、以上の事情を鑑みてなされたものであり、2次元医療画像に対する臓器認識を高精度に行うことができる画像処理装置、画像処理方法、及び画像処理プログラムを提供することを目的とする。
【課題を解決するための手段】
【0007】
本開示の画像処理装置は、少なくとも一つのプロセッサを備え、かつ第1の2次元医療画像を入力とし、第1の2次元医療画像に対する臓器認識結果を出力とする機械学習モデルを学習させる画像処理装置であって、プロセッサは、被検体を撮影して得られた3次元医療画像に基づいて第2の2次元医療画像を生成し、生成した第2の2次元医療画像、及び3次元医療画像における臓器認識結果に基づく第2の2次元医療画像に対応する臓器認識結果を正解データとして機械学習モデルを学習させる。
【0008】
また、本開示の画像処理方法は、少なくとも一つのプロセッサを備え、かつ第1の2次元医療画像を入力とし、第1の2次元医療画像に対する臓器認識結果を出力とする機械学習モデルを学習させる画像処理装置のプロセッサが、被検体を撮影して得られた3次元医療画像に基づいて第2の2次元医療画像を生成し、生成した第2の2次元医療画像、及び3次元医療画像における臓器認識結果に基づく第2の2次元医療画像に対応する臓器認識結果を正解データとして機械学習モデルを学習させる処理を実行する。
【0009】
また、本開示の画像処理プログラムは、少なくとも一つのプロセッサを備え、かつ第1の2次元医療画像を入力とし、第1の2次元医療画像に対する臓器認識結果を出力とする機械学習モデルを学習させる画像処理装置のプロセッサに、被検体を撮影して得られた3次元医療画像に基づいて第2の2次元医療画像を生成し、生成した第2の2次元医療画像、及び3次元医療画像における臓器認識結果に基づく第2の2次元医療画像に対応する臓器認識結果を正解データとして機械学習モデルを学習させる処理を実行させる。
【発明の効果】
【0010】
本開示によれば、2次元医療画像に対する臓器認識を高精度に行うことができる。
【図面の簡単な説明】
【0011】
図1】画像処理装置のハードウェア構成の一例を示すブロック図である。
図2】CT画像及び臓器領域情報を説明するための図である。
図3】第1実施形態に係る認識モデルを説明するための図である。
図4】画像処理装置の機能的な構成の一例を示すブロック図である。
図5】第1の3次元医療画像に基づいて第2の3次元医療画像を生成する処理を説明するための図である。
図6】臓器領域情報の生成処理を説明するための図である。
図7】正解データの生成処理を説明するための図である。
図8】学習処理の一例を示すフローチャートである。
図9】CT装置の概要を示す斜視図である。
図10】コンソールのハードウェア構成の一例を示すブロック図である。
図11】コンソールの機能的な構成の一例を示すブロック図である。
図12】臓器認識処理の一例を示すフローチャートである。
図13】第2実施形態に係る生体情報を説明するための図である。
図14】第2実施形態に係る認識モデルを説明するための図である。
図15】変形例に係る生体情報を説明するための図である。
図16】変形例に係る生体情報を説明するための図である。
図17】変形例に係る臓器認識結果の一例を示す図である。
【発明を実施するための形態】
【0012】
以下、図面を参照して、本開示の技術を実施するための形態例を詳細に説明する。
【0013】
[第1実施形態]
まず、本実施形態に係る学習フェーズについて説明する。図1を参照して、本実施形態に係る画像処理装置10のハードウェア構成を説明する。図1に示すように、画像処理装置10は、CPU(Central Processing Unit)20、メモリ21、ディスプレイ24、入力装置25、及びネットワークI/F(InterFace)26を含む。画像処理装置10の例としては、パーソナルコンピュータ又はサーバコンピュータ等のコンピュータが挙げられる。
【0014】
CPU10は、後述する記憶部22に記憶されるプログラムを実行することにより、各種機能を実現する。CPU20は、開示の技術に係るプロセッサの一例である。
【0015】
メモリ21は、記憶部22及びRAM(Random Access Memory)23を含む。RAM23は、一次記憶用のメモリであり、例えば、SRAM(Static Random Access Memory)又はDRAM(Dynamic Random Access Memory)等のRAMである。
【0016】
記憶部22は、不揮発性のメモリであり、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)、及びフラッシュメモリ等の少なくとも1つによって実現される。記憶媒体としての記憶部22には、画像処理プログラム30が記憶される。CPU20は、記憶部22から画像処理プログラム30を読み出してからRAM23に展開し、展開した画像処理プログラム30を実行する。
【0017】
ディスプレイ24は、各種画面を表示する装置であり、例えば、液晶ディスプレイ又はEL(Electro Luminescence)ディスプレイである。入力装置25は、ユーザが入力を行うための装置であり、例えば、キーボード、マウス、音声入力用のマイク、接触を含む近接入力用のタッチパッド、及びジェスチャー入力用のカメラの少なくとも何れかである。ネットワークI/F26は、ネットワークに接続するためのインタフェースである。バス27は、CPU20、メモリ21、ディスプレイ24、入力装置25、及びネットワークI/F26を接続する。
【0018】
また、記憶部22には、CT画像32、臓器領域情報34、及び認識モデル36が記憶される。CT画像32は、CT装置により患者等の被検体を撮影して得られた3次元画像である。一例として図2に示すように、本実施形態に係るCT画像32は、被検体の体軸方向に直交するアキシャル断面を表す断層画像群を含む。なお、断層画像群は、アキシャル断面以外の断面を表す断層画像群でもよい。また、CT画像32は、ボリュームデータでもよい。CT画像32は、認識モデル36の学習に用いられるデータであり、予め撮影された複数のCT画像32が記憶部22に記憶される。CT画像32は、開示の技術に係る3次元医療画像の一例である。
【0019】
臓器領域情報34は、複数のCT画像32それぞれに対応して複数用意される。臓器領域情報34は、対応するCT画像32における認識対象の臓器の範囲を表す情報を含む。一例として図2に示すように、臓器領域情報34は、CT画像32を構成する各断層画像における臓器領域が特定の色で塗りつぶされたマスク画像群を含む。臓器領域情報34は、CT画像32に対応する臓器認識結果に相当する。ここでいう臓器には、肺及び肝臓等の胸腔及び腹腔に位置する器官以外の骨及び血管等も含まれる。
【0020】
認識モデル36は、画像処理装置10により機械学習が行われるモデルである。一例として図3に示すように、認識モデル36は、第1の2次元医療画像を入力とし、入力の第1の2次元医療画像に対する臓器認識結果を出力とする機械学習モデルである。認識モデル36は、臓器認識結果として、認識した臓器の範囲を表す情報を出力する。具体的には、認識モデル36は、臓器認識結果として、入力の第1の2次元医療画像から認識した臓器領域を特定の色で塗りつぶしたマスク画像を出力する。更に、認識モデル36は、CT画像32が撮影された際の検査情報も入力とする。検査情報の例としては、被検体の検査対象の部位又は臓器等が挙げられる。例えば、検査情報は、CT画像32に付加されている。なお、認識モデル36は、検査情報毎に用意されてもよい。この場合、CPU20は、検査情報に応じて認識モデル36を使い分けてもよい。
【0021】
本実施形態では、第1の2次元医療画像として、被検体の前面から背面に向けて、すなわち、所謂AP(Anterior Posterior)方向にX線等の放射線を照射して得られる放射線画像を適用した例を説明する。認識モデル36に入力される第1の2次元医療画像の例としては、スカウト画像等が挙げられる。すなわち、本実施形態に係る第1の2次元医療画像の撮影方向はAP方向である。第1の2次元医療画像は、CT画像32の断面の方向に対応して、被検体に対してAP方向以外の方向に放射線を照射して得られる放射線画像でもよい。
【0022】
次に、図4を参照して、画像処理装置10の機能的な構成について説明する。図4に示すように、画像処理装置10は、取得部40、生成部42、及び学習部44を含む。CPU20が画像処理プログラム30を実行することにより、取得部40、生成部42、及び学習部44として機能する。
【0023】
取得部40は、CT画像32及び臓器領域情報34を記憶部22から取得する。生成部42は、取得部40により取得されたCT画像32に基づいてCT画像33を生成する。以下、生成部42によるCT画像33の生成処理の具体的な一例を説明する。
【0024】
生成部42は、CT画像32に基づいて、CT画像32よりもスライス間隔が狭いか又はスライス厚が薄いCT画像33を生成する。一例として図5に示すように、本実施形態に係る生成部42は、CT画像32に基づいて、CT画像32よりもスライス間隔が狭く、かつスライス厚が薄いCT画像33を生成する。スライス間隔とは、特定の方向に沿った断層画像間の距離を意味する。特定の方向とは、断層画像が表す断面に交差する方向であり、断層画像がアキシャル断面を表す画像である場合は、体軸方向に相当する。また、断層画像がコロナル断面を表す画像である場合は、AP方向が特定の方向に相当する。また、スライス厚とは、各断層画像が有する情報の上記特定の方向に沿った厚みを意味する。例えば、スライス厚が5mmのアキシャル断面を表す断層画像は、体軸方向の上下それぞれ2.5mmずつの臓器の情報が1枚の画像として表されたものである。
【0025】
例えば、生成部42は、以下の参考文献1に記載のVirtual Thin Sliceの手法を用いて、CT画像32からCT画像33を生成する。これにより、CT画像32よりも高解像度のCT画像33が生成される。CT画像32は、開示の技術に係る第1の3次元医療画像の一例であり、CT画像33は、開示の技術に係る第2の3次元医療画像の一例である。
【0026】
参考文献1:Virtual Thin Slice: 3D Conditional GAN-based Super-resolution for CT Slice Interval, Akira Kudo et al., 30 Aug 2019, arXiv:1908.11506.
【0027】
また、図6に示すように、生成部42は、CT画像32、CT画像33、及び臓器領域情報34に基づいて、CT画像33に対応するマスク画像群である臓器領域情報35を生成する。臓器領域情報35は、CT画像32に基づくCT画像33に対応する臓器認識結果に相当する。
【0028】
次に、図7に示すように、生成部42は、CT画像33を第1の2次元医療画像の撮影方向に相当する方向(以下、「投影方向」という)に投影することによって2次元の投影画像G0を生成する。図7の例では、投影方向が矢印Yで示されている。この投影画像G0はレイサム画像とも呼ばれる。そして、生成部42は、投影画像G0に対してエッジを強調させる画像処理を行うことによって2次元医療画像G1を生成する。すなわち、生成部42は、CT画像33に基づいて、エッジを強調させる画像処理を行うことによって2次元医療画像G1を生成する。このように生成された2次元医療画像G1は、CT装置により撮影されるスカウト画像を模擬した疑似スカウト画像である。2次元医療画像G1は、開示の技術に係る第2の2次元医療画像の一例である。
【0029】
なお、生成部42は、3次元医療画像の撮影に用いられた撮影装置又は認識対象の臓器に応じて異なる画像処理を行ってもよい。例えば、生成部42は、撮影装置毎に予め設定された強調度に従ってエッジを強調させる画像処理を行ってもよい。また、生成部42は、認識対象の臓器毎に予め設定された強調度に従ってエッジを強調させる画像処理を行ってもよい。例えば、生成部42は、頭部等の骨がある臓器に対しては、相対的に強調度を高くしてエッジを強調させる画像処理を行い、肺に対しては相対的に強調度を低くしてエッジを強調させる画像処理を行ってもよい。これにより、生成部42は、撮影装置の特性又は認識対象の臓器に応じて、よりスカウト画像に類似する2次元医療画像G1を生成することができる。
【0030】
また、図7に示すように、生成部42は、臓器領域情報35を、投影画像G0を生成する際の投影方向と同じ方向に対して投影することによって、2次元医療画像G1に対応する臓器認識結果を表すマスク画像G2を生成する。
【0031】
学習部44は、生成部42により生成された2次元医療画像G1及びマスク画像G2を正解データとして認識モデル36を学習させる。例えば、学習部44は、検査情報及び2次元医療画像G1を認識モデル36に対して入力した場合の認識モデル36の出力と、2次元医療画像G1に対応するマスク画像G2との誤差が最小となるように認識モデル36を学習させる。学習部44は、複数組のCT画像32及び臓器領域情報34に基づく複数組の正解データを用いて認識モデル36を学習させる。
【0032】
次に、図8を参照して、画像処理装置10の作用を説明する。CPU20が画像処理プログラム30を実行することによって、図8に示す学習処理が実行される。この学習処理は、例えば、ユーザにより実行開始の指示が入力された場合に実行される。
【0033】
図8のステップS10で、取得部40は、CT画像32及び臓器領域情報34を記憶部22から取得する。ステップS12で、生成部42は、前述したように、ステップS10で取得されたCT画像32に基づいてCT画像33を生成する。ステップS14で、生成部42は、CT画像32、CT画像33、及び臓器領域情報34に基づいて、CT画像33に対応する臓器領域情報35を生成する。
【0034】
ステップS16で、生成部42は、CT画像33を投影方向に投影することによって投影画像G0を生成する。ステップS18で、生成部42は、投影画像G0に対してエッジを強調させる画像処理を行うことによって2次元医療画像G1を生成する。ステップS20で、生成部42は、臓器領域情報35を、投影画像G0を生成する際の投影方向と同じ方向に対して投影することによって、2次元医療画像G1に対応するマスク画像G2を生成する。
【0035】
ステップS22で、学習部44は、前述したように、ステップS18で生成された2次元医療画像G1及びステップS20で生成されたマスク画像G2を正解データとして認識モデル36を学習させる。ステップS22の処理が終了すると、学習処理が終了する。
【0036】
次に、上記の学習フェーズにより学習された認識モデル36を用いた運用フェーズについて説明する。図9を参照して、CT装置1の構成を説明する。図9に示すように、本実施形態に係るCT装置1は、ガントリ2、寝台3、及びコンソール4を備える。コンソール4は、開示の技術に係る画像処理装置の一例である。なお、コンソール4と画像処理装置10は、異なる装置であってもよい。また、例えば、画像処理装置10は、ネットワークを介してコンソール4、又はコンソール4から画像を取得し、かつ保管する画像保管サーバと接続されてもよい。また、例えば、画像処理装置10は、コンソール4又は画像保管サーバからスカウト画像を取得し、スカウト画像の臓器認識結果をコンソール4又は画像保管サーバに出力する構成としてもよい。
【0037】
ガントリ2は、その中央に開口部5を有するトンネル状の構造を有する。ガントリ2の内部には、X線を放射する線源部及びX線を検出して放射線画像を生成する検出部が設けられている(いずれも不図示)。線源部及び検出部は、それぞれ、互いに対向する位置関係を維持した状態でガントリ2の環状形状に沿って回転することが可能である。また、ガントリ2の内部には、CT装置1の動作を制御する制御部が設けられている。
【0038】
寝台3には、被検体Hが載せられる。寝台3は、被検体Hが横たわる寝台部3A、寝台部3Aを支持する基部3B、及び寝台部3Aを矢印A方向に往復移動させる駆動部3Cを有する。寝台部3Aは、駆動部3Cにより基部3Bに対して矢印A方向にスライド可能である。CT画像の撮影を行う場合、寝台部3Aがスライドすることで、寝台部3Aに横たわる被検体Hはガントリ2の開口部5内に搬送される。
【0039】
ガントリ2の駆動及び寝台3の駆動は、コンソール4からの技師等のユーザの入力により行われる。
【0040】
次に、図10を参照して、本実施形態に係るコンソール4のハードウェア構成を説明する。図10に示すように、コンソール4は、CPU60、メモリ61、ディスプレイ64、入力装置65、及びネットワークI/F66を含む。コンソール4の例としては、パーソナルコンピュータ又はサーバコンピュータ等のコンピュータが挙げられる。
【0041】
CPU60は、後述する記憶部62に記憶されるプログラムを実行することにより、各種機能を実現する。CPU60は、開示の技術に係るプロセッサの一例である。
【0042】
メモリ61は、記憶部62及びRAM63を含む。RAM63は、一次記憶用のメモリであり、例えば、SRAM又はDRAM等のRAMである。
【0043】
記憶部62は、不揮発性のメモリであり、例えば、HDD、SSD、及びフラッシュメモリ等の少なくとも1つによって実現される。記憶媒体としての記憶部62には、画像処理プログラム70が記憶される。CPU60は、記憶部62から画像処理プログラム70を読み出してからRAM63に展開し、展開した画像処理プログラム70を実行する。
【0044】
ディスプレイ64は、各種画面を表示する装置であり、例えば、液晶ディスプレイ又はELディスプレイである。入力装置65は、ユーザが入力を行うための装置であり、例えば、キーボード、マウス、音声入力用のマイク、接触を含む近接入力用のタッチパッド、及びジェスチャー入力用のカメラの少なくとも何れかである。ネットワークI/F66は、ネットワークに接続するためのインタフェースである。コンソール4は、ネットワークI/F66を介して、ガントリ2が備える制御部との各種通信を行う。バス67は、CPU60、メモリ61、ディスプレイ64、入力装置65、及びネットワークI/F66を接続する。
【0045】
また、記憶部62には、認識モデル36が記憶される。認識モデル36は、前述した学習フェーズにより学習された学習済みモデルの一例である。
【0046】
次に、図11を参照して、コンソール4の機能的な構成について説明する。図11に示すように、コンソール4は、取得部80及び認識部82を含む。CPU60が画像処理プログラム70を実行することにより、取得部80及び認識部82として機能する。
【0047】
取得部80は、CT装置1により被検体Hの前面から背面に向けて放射線を照射して撮影された2次元医療画像を取得する。この2次元医療画像はスカウト画像と称される。また、取得部80は、記憶部62に記憶された撮影オーダー等から、被検体Hの検査情報を取得する。
【0048】
認識部82は、認識モデル36に対して、取得部80により取得された検査情報及び2次元医療画像を入力する。これにより、認識モデル36は、入力の検査情報及び2次元医療画像に対応する臓器認識結果を出力する。認識部82は、認識モデル36から出力された臓器認識結果を取得することによって、2次元医療画像における臓器範囲を認識する。
【0049】
次に、図12を参照して、コンソール4の作用を説明する。CPU60が画像処理プログラム70を実行することによって、図12に示す臓器認識処理が実行される。この臓器認識処理は、例えば、ユーザにより実行開始の指示が入力された場合に実行される。
【0050】
図12のステップS30で、取得部80は、前述したように、検査情報及び2次元医療画像を取得する。ステップS32で、認識部82は、認識モデル36に対して、ステップS30で取得された検査情報及び2次元医療画像を入力することによって、当該2次元医療画像に対する臓器認識結果を取得する。ステップS32の処理が終了すると、臓器認識処理が終了する。臓器認識処理により認識された臓器範囲は、CT装置1によるCT画像の撮影範囲の決定に使用される。
【0051】
以上説明したように、本実施形態によれば、2次元医療画像に対する臓器認識を高精度に行うことができる。
【0052】
[第2実施形態]
開示の技術の第2実施形態を説明する。本実施形態では、認識モデル36、学習部44の機能、及び認識部82の機能が第1実施形態とは異なるのみであるため、認識モデル36、学習部44の機能、及び認識部82の機能について説明する。本実施形態では、認識モデル36の入力に、被検体の生体情報を用いる点が第1実施形態とは異なる。また、本実施形態では、認識対象の臓器が心臓であり、被検体の生体情報が心臓の大きさを表すサイズ情報である場合を例に説明する。
【0053】
一例として図13のグラフに示すように、心電波形と心臓の大きさとを対応付けることができる。そこで、本実施形態では、画像処理装置10の記憶部22に生体データ38が記憶される。図13に示すように、生体データ38では、心電波形の時間t1~t6のそれぞれに対応して、心臓の大きさを表すサイズ情報が記憶される。本実施形態では、サイズ情報は、心臓の大きさの割合で表される。また、心臓の大きさの割合は、最小のタイミングの大きさを1とした比率で表される。なお、生体データ38は、被検体の過去の測定データに基づくものであってもよい。また、生体データ38は、例えば、被検体と同じ体格及び性別の複数の被検体の測定データの平均値等の一般的な測定データに基づくものであってもよい。また、本実施形態では、CT画像32に、そのCT画像32が時間t1~t6の何れのタイミングで撮影されたものであるかを表すタイミング情報が付加されているものとする。
【0054】
図14に示すように、本実施形態に係る認識モデル36は、認識対象の臓器の大きさを表すサイズ情報及び第1の2次元医療画像を入力とし、入力の第1の2次元医療画像に対する臓器認識結果を出力とする機械学習モデルである。
【0055】
本実施形態に係る学習部44は、更に、CT画像32が撮影された際のサイズ情報を用いて認識モデル36を学習させる。具体的には、学習部44は、生体データ38を参照し、2次元医療画像G1を生成するために用いられたCT画像32に付加されたタイミング情報に対応するサイズ情報を取得する。そして、学習部44は、サイズ情報及び2次元医療画像G1を認識モデル36に対して入力した場合の認識モデル36の出力と、2次元医療画像G1に対応するマスク画像G2との誤差が最小となるように認識モデル36を学習させる。
【0056】
本実施形態では、運用フェーズにおいて、2次元医療画像の撮影時に被検体が心電センサを装着している場合を例に説明する。本実施形態に係る認識部82は、心電センサにより測定された心電波形の取得時刻及び2次元医療画像の撮影時刻に基づいて、2次元医療画像が撮影されたタイミングが時間t1~t6の何れに相当するかを特定する。認識部82は、特定したタイミングに対応するサイズ情報を生体データ38から取得する。
【0057】
認識部82は、認識モデル36に対して、取得したサイズ情報及び取得部80により取得された2次元医療画像を入力することによって、2次元医療画像に対する臓器認識結果を取得する。
【0058】
以上説明したように、本実施形態によれば、被検体の生体情報に基づいて、2次元医療画像に対する臓器認識を高精度に行うことができる。
【0059】
なお、第2実施形態において、認識対象の臓器として肺野を適用し、被検体の生体情報として肺野の大きさを表すサイズ情報を適用する形態としてもよい。一例として図15のグラフに示すように、被検体の呼吸情報と肺野の大きさとを対応付けることができる。そこで、この形態例では、図15に示すように、生体データ38において、呼吸情報の時間t1~t5のそれぞれに対応して、肺野の大きさを表すサイズ情報が記憶される。本実施形態では、サイズ情報は、肺野の大きさの割合で表される。また、肺野の大きさの割合は、呼吸の一つの周期の中間のタイミングにおける大きさを1とした比率で表される。この形態例では、学習部44及び認識部82は、第2実施形態における心電波形及び心臓の大きさを表すサイズ情報に代えて、呼吸情報及び肺野の大きさを表すサイズ情報を使用する。
【0060】
また、第2実施形態において、認識対象の臓器として肝臓を適用し、被検体の生体情報として肝臓の体軸方向(すなわち、2次元医療画像における上下方向)の位置を表す位置情報を適用する形態としてもよい。一例として図16に示すように、被検体の呼吸情報と肝臓の位置情報とを対応付けることができる。そこで、この形態例では、生体データ38において、呼吸情報の時間t1~t5のそれぞれに対応して、肝臓の位置情報が記憶される。この形態例では、学習部44及び認識部82は、第2実施形態における心電波形及び心臓の大きさを表すサイズ情報に代えて、呼吸情報及び肝臓の位置情報を使用する。
【0061】
また、上記各実施形態において、認識部82は、CT画像32に基づいて生成された2次元医療画像G1を用いて学習された第1の認識モデル36と、実際に被検体に対して放射線を照射して撮影された2次元医療画像を用いて学習された第2の認識モデル36と、を使い分けてもよい。この場合、認識部82は、CT装置1により撮影された2次元医療画像における視認し易い臓器として設定された臓器については、第2の認識モデル36を使用することによって臓器認識結果を取得してもよい。また、この場合、認識部82は、CT装置1により撮影された2次元医療画像における視認し難い臓器として設定された臓器(例えば、頸椎の棘突起等)については、第1の認識モデル36を使用することによって臓器認識結果を取得してもよい。また、CPU60は、第1の認識モデル36を使用して得られた臓器認識結果と、第2の認識モデル36を使用して得られた臓器認識結果とを識別可能に表示する制御を行ってもよい。この場合、ユーザは、臓器認識結果における2次元医療画像から認識できた部分と、3次元医療画像から認識できた部分とを識別することができる。
【0062】
また、上記各実施形態において、一例として図17に示すように、CPU60は、臓器認識結果として、認識した臓器の範囲を特定の一色で塗りつぶすのではなく、認識した臓器の範囲を確信度に応じて異なる色で塗りつぶすことによって確信度を識別可能としてもよい。臓器の確信度とは、臓器の範囲内である可能性の高さを表す指標値の一例である。図17では、撮影方向が被検体の左右方向であり、かつこの形態例における認識対象の臓器として頸椎を適用した場合の臓器認識結果の例を示している。スカウト画像上で境界が不明瞭な部分は物理的に撮影方向の厚みが薄いことが多く、境界が不明瞭な部分の確信度が低下する傾向にある。このため、CPU60が、認識した臓器の範囲を確信度に応じて異なる表示態様で表示する制御を行うことによって臓器の3次元構造を把握可能に表示することができる。ここでいう表示態様とは、色以外にも透明度、枠線の太さ、及び枠線の種類等を含む。
【0063】
また、上記各実施形態では、3次元医療画像として、CT画像を適用した場合について説明したが、開示の技術はこの態様に限定されない。3次元医療画像として、MRI(Magnetic Resonance Imaging)装置により撮影された3次元画像、又はPET(Positron Emission Tomography)装置により撮影された3次元画像を適用してもよい。
【0064】
また、上記各実施形態において、3次元医療画像がMRI画像である場合、3次元医療画像は、2次元医療画像の一例であるスカウト画像よりもスライス厚が薄く、かつスライス間隔が狭い断層画像群を含んでもよい。
【0065】
また、上記各実施形態において、例えば、コンソール4の各機能部及び画像処理装置10の各機能部のような各種の処理を実行する処理部(processing unit)のハードウェア的な構造としては、次に示す各種のプロセッサ(processor)を用いることができる。上記各種のプロセッサには、前述したように、ソフトウェア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPUに加えて、FPGA(Field Programmable Gate Array)等の製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、ASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が含まれる。
【0066】
1つの処理部は、これらの各種のプロセッサのうちの1つで構成されてもよいし、同種又は異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせや、CPUとFPGAとの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。
【0067】
複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアント及びサーバ等のコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組み合わせで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System on Chip:SoC)等に代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサの1つ以上を用いて構成される。
【0068】
更に、これらの各種のプロセッサのハードウェア的な構造としては、より具体的には、半導体素子などの回路素子を組み合わせた電気回路(circuitry)を用いることができる。
【0069】
また、上記各実施形態では、画像処理プログラム30が記憶部22に予め記憶(インストール)されている態様を説明したが、これに限定されない。画像処理プログラム30は、CD-ROM(Compact Disc Read Only Memory)、DVD-ROM(Digital Versatile Disc Read Only Memory)、及びUSB(Universal Serial Bus)メモリ等の記録媒体に記録された形態で提供されてもよい。また、画像処理プログラム30は、ネットワークを介して外部装置からダウンロードされる形態としてもよい。
【0070】
また、上記実施形態では、画像処理プログラム70が記憶部62に予め記憶(インストール)されている態様を説明したが、これに限定されない。画像処理プログラム70は、CD-ROM、DVD-ROM、及びUSBメモリ等の記録媒体に記録された形態で提供されてもよい。また、画像処理プログラム70は、ネットワークを介して外部装置からダウンロードされる形態としてもよい。
【0071】
以上の実施形態に関し、更に以下の付記を開示する。
(付記1)
少なくとも一つのプロセッサを備え、かつ第1の2次元医療画像を入力とし、前記第1の2次元医療画像に対する臓器認識結果を出力とする機械学習モデルを学習させる画像処理装置であって、
前記プロセッサは、
被検体を撮影して得られた3次元医療画像に基づいて第2の2次元医療画像を生成し、
生成した前記第2の2次元医療画像、及び前記3次元医療画像における臓器認識結果に基づく前記第2の2次元医療画像に対応する臓器認識結果を正解データとして前記機械学習モデルを学習させる
画像処理装置。
【0072】
(付記2)
前記3次元医療画像は、被検体を撮影して得られた断層画像群を含み、
前記プロセッサは、
第1の3次元医療画像に基づいて、前記第1の3次元医療画像よりもスライス間隔が狭いか又はスライス厚が薄い第2の3次元医療画像を生成する
前記第2の3次元医療画像に基づいて前記第2の2次元医療画像を生成する
付記1に記載の画像処理装置。
【0073】
(付記3)
前記プロセッサは、
前記第2の3次元医療画像を前記第1の2次元医療画像の撮影方向に相当する方向に投影することによって前記第2の2次元医療画像を生成する
付記2に記載の画像処理装置。
【0074】
(付記4)
前記プロセッサは、
前記第2の3次元医療画像に基づいて、エッジを強調させる画像処理を行うことによって前記第2の2次元医療画像を生成する
付記3に記載の画像処理装置。
【0075】
(付記5)
前記プロセッサは、
前記第2の3次元医療画像を前記撮影方向に相当する方向に投影することによって投影画像を生成し、前記投影画像に対して前記画像処理を行うことによって前記第2の2次元医療画像を生成する
付記4に記載の画像処理装置。
【0076】
(付記6)
前記プロセッサは、
前記第1の3次元医療画像の撮影に用いられた撮影装置又は認識対象の臓器に応じて異なる前記画像処理を行う
付記4又は付記5に記載の画像処理装置。
【0077】
(付記7)
前記臓器認識結果は、認識した臓器の範囲を表す情報である
付記1から付記6の何れか1つに記載の画像処理装置。
【0078】
(付記8)
前記プロセッサは、
更に、前記3次元医療画像が撮影された際の検査情報を用いて前記機械学習モデルを学習させる
付記1から付記7の何れか1つに記載の画像処理装置。
【0079】
(付記9)
前記プロセッサは、
更に、前記3次元医療画像が撮影された際の前記被検体の生体情報を用いて前記機械学習モデルを学習させる
付記1から付記8の何れか1つに記載の画像処理装置。
【0080】
(付記10)
前記機械学習モデルは、前記第1の2次元医療画像及び前記生体情報を入力とし、前記臓器認識結果を出力とする
付記9に記載の画像処理装置。
【0081】
(付記11)
少なくとも一つのプロセッサを備え、かつ第1の2次元医療画像を入力とし、前記第1の2次元医療画像に対する臓器認識結果を出力とする機械学習モデルを学習させる画像処理装置の前記プロセッサが、
被検体を撮影して得られた3次元医療画像に基づいて第2の2次元医療画像を生成し、
生成した前記第2の2次元医療画像、及び前記3次元医療画像における臓器認識結果に基づく前記第2の2次元医療画像に対応する臓器認識結果を正解データとして前記機械学習モデルを学習させる
処理を実行する画像処理方法。
【0082】
(付記12)
少なくとも一つのプロセッサを備え、かつ第1の2次元医療画像を入力とし、前記第1の2次元医療画像に対する臓器認識結果を出力とする機械学習モデルを学習させる画像処理装置の前記プロセッサに、
被検体を撮影して得られた3次元医療画像に基づいて第2の2次元医療画像を生成し、
生成した前記第2の2次元医療画像、及び前記3次元医療画像における臓器認識結果に基づく前記第2の2次元医療画像に対応する臓器認識結果を正解データとして前記機械学習モデルを学習させる
処理を実行させるための画像処理プログラム。
【0083】
(付記13)
少なくとも一つのプロセッサを備える画像処理装置であって、
前記プロセッサは、
被検体を撮影して得られた2次元医療画像を取得し、
第1の2次元医療画像を入力とし、入力の第1の2次元医療画像に対する臓器認識結果を出力とする学習済みモデルであって、被検体を撮影して得られた3次元医療画像に基づいて生成された第2の2次元医療画像及び前記3次元医療画像における臓器認識結果に基づく前記第2の2次元医療画像に対応する臓器認識結果を正解データとして学習された学習済みモデルに対して、取得した2次元医療画像を入力することによって、取得した2次元医療画像に対する臓器認識結果を取得する
画像処理装置。
【0084】
(付記14)
少なくとも一つのプロセッサを備える画像処理装置の前記プロセッサが、
被検体を撮影して得られた2次元医療画像を取得し、
第1の2次元医療画像を入力とし、入力の第1の2次元医療画像に対する臓器認識結果を出力とする学習済みモデルであって、被検体を撮影して得られた3次元医療画像に基づいて生成された第2の2次元医療画像及び前記3次元医療画像における臓器認識結果に基づく前記第2の2次元医療画像に対応する臓器認識結果を正解データとして学習された学習済みモデルに対して、取得した2次元医療画像を入力することによって、取得した2次元医療画像に対する臓器認識結果を取得する
処理を実行する画像処理方法。
【0085】
(付記15)
少なくとも一つのプロセッサを備える画像処理装置の前記プロセッサに、
被検体を撮影して得られた2次元医療画像を取得し、
第1の2次元医療画像を入力とし、入力の第1の2次元医療画像に対する臓器認識結果を出力とする学習済みモデルであって、被検体を撮影して得られた3次元医療画像に基づいて生成された第2の2次元医療画像及び前記3次元医療画像における臓器認識結果に基づく前記第2の2次元医療画像に対応する臓器認識結果を正解データとして学習された学習済みモデルに対して、取得した2次元医療画像を入力することによって、取得した2次元医療画像に対する臓器認識結果を取得する
処理を実行させるための画像処理プログラム。
【符号の説明】
【0086】
1 CT装置
2 ガントリ
3 寝台
3A 寝台部
3B 基部
3C 駆動部
4 コンソール
5 開口部
10 画像処理装置
20、60 CPU
21、61 メモリ
22、62 記憶部
23、63 RAM
24、64 ディスプレイ
25、65 入力装置
26、66 ネットワークI/F
27、67 バス
30、70 画像処理プログラム
32、33 CT画像
34、35 臓器領域情報
36 認識モデル
38 生体データ
40、80 取得部
42 生成部
44 学習部
82 認識部
G0 投影画像
G1 2次元医療画像
G2 マスク画像
A、Y 矢印
H 被検体
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14
図15
図16
図17