IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 富士フイルム株式会社の特許一覧

特開2024-140470画像処理装置、画像処理方法、画像処理プログラム、学習装置、学習方法、及び学習プログラム
<>
  • 特開-画像処理装置、画像処理方法、画像処理プログラム、学習装置、学習方法、及び学習プログラム 図1
  • 特開-画像処理装置、画像処理方法、画像処理プログラム、学習装置、学習方法、及び学習プログラム 図2
  • 特開-画像処理装置、画像処理方法、画像処理プログラム、学習装置、学習方法、及び学習プログラム 図3
  • 特開-画像処理装置、画像処理方法、画像処理プログラム、学習装置、学習方法、及び学習プログラム 図4
  • 特開-画像処理装置、画像処理方法、画像処理プログラム、学習装置、学習方法、及び学習プログラム 図5
  • 特開-画像処理装置、画像処理方法、画像処理プログラム、学習装置、学習方法、及び学習プログラム 図6
  • 特開-画像処理装置、画像処理方法、画像処理プログラム、学習装置、学習方法、及び学習プログラム 図7
  • 特開-画像処理装置、画像処理方法、画像処理プログラム、学習装置、学習方法、及び学習プログラム 図8
  • 特開-画像処理装置、画像処理方法、画像処理プログラム、学習装置、学習方法、及び学習プログラム 図9
  • 特開-画像処理装置、画像処理方法、画像処理プログラム、学習装置、学習方法、及び学習プログラム 図10
  • 特開-画像処理装置、画像処理方法、画像処理プログラム、学習装置、学習方法、及び学習プログラム 図11
  • 特開-画像処理装置、画像処理方法、画像処理プログラム、学習装置、学習方法、及び学習プログラム 図12
  • 特開-画像処理装置、画像処理方法、画像処理プログラム、学習装置、学習方法、及び学習プログラム 図13
  • 特開-画像処理装置、画像処理方法、画像処理プログラム、学習装置、学習方法、及び学習プログラム 図14
  • 特開-画像処理装置、画像処理方法、画像処理プログラム、学習装置、学習方法、及び学習プログラム 図15
  • 特開-画像処理装置、画像処理方法、画像処理プログラム、学習装置、学習方法、及び学習プログラム 図16
  • 特開-画像処理装置、画像処理方法、画像処理プログラム、学習装置、学習方法、及び学習プログラム 図17
  • 特開-画像処理装置、画像処理方法、画像処理プログラム、学習装置、学習方法、及び学習プログラム 図18
  • 特開-画像処理装置、画像処理方法、画像処理プログラム、学習装置、学習方法、及び学習プログラム 図19
  • 特開-画像処理装置、画像処理方法、画像処理プログラム、学習装置、学習方法、及び学習プログラム 図20
  • 特開-画像処理装置、画像処理方法、画像処理プログラム、学習装置、学習方法、及び学習プログラム 図21
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024140470
(43)【公開日】2024-10-10
(54)【発明の名称】画像処理装置、画像処理方法、画像処理プログラム、学習装置、学習方法、及び学習プログラム
(51)【国際特許分類】
   G16H 30/40 20180101AFI20241003BHJP
   A61B 6/46 20240101ALI20241003BHJP
   A61B 6/00 20240101ALI20241003BHJP
   A61B 6/03 20060101ALI20241003BHJP
【FI】
G16H30/40
A61B6/03 360Q
A61B6/00 350P
A61B6/00 350D
A61B6/03 360J
A61B6/03 360D
A61B6/03 360T
A61B6/00 360Z
【審査請求】未請求
【請求項の数】14
【出願形態】OL
(21)【出願番号】P 2023051616
(22)【出願日】2023-03-28
(71)【出願人】
【識別番号】306037311
【氏名又は名称】富士フイルム株式会社
(74)【代理人】
【識別番号】110001519
【氏名又は名称】弁理士法人太陽国際特許事務所
(72)【発明者】
【氏名】平原 暢之
【テーマコード(参考)】
4C093
5L099
【Fターム(参考)】
4C093AA01
4C093AA22
4C093AA26
4C093CA18
4C093DA10
4C093FF16
4C093FF28
4C093FF33
4C093FF34
4C093FG16
4C093FG18
5L099AA26
(57)【要約】
【課題】異常が発生していない医用画像を精度良く生成することができる画像処理装置、画像処理方法、及び画像処理プログラムを得る。
【解決手段】画像処理装置は、医用画像に含まれる解剖学的領域内の複数の部分領域のうちの少なくとも1つの推定対象の部分領域を、推定対象以外の少なくとも1つの部分領域に基づいて推定した推定医用画像を生成する。
【選択図】図4
【特許請求の範囲】
【請求項1】
少なくとも一つのプロセッサを備える画像処理装置であって、
前記プロセッサは、
医用画像に含まれる解剖学的領域内の複数の部分領域のうちの少なくとも1つの推定対象の部分領域を、前記推定対象以外の少なくとも1つの前記部分領域に基づいて推定した推定医用画像を生成する
画像処理装置。
【請求項2】
前記プロセッサは、
前記解剖学的領域を前記複数の部分領域に分割する
請求項1に記載の画像処理装置。
【請求項3】
前記プロセッサは、
前記推定医用画像の前記推定対象の部分領域と、前記医用画像の前記推定対象の部分領域に対応する領域とを比較可能に表示する制御を行う
請求項1又は請求項2に記載の画像処理装置。
【請求項4】
前記プロセッサは、
前記推定医用画像の前記推定対象の部分領域と、前記医用画像の前記推定対象の部分領域に対応する領域との差分を表す情報を表示する制御を行う
請求項1に記載の画像処理装置。
【請求項5】
前記プロセッサは、
前記推定医用画像の前記推定対象の部分領域と、前記医用画像の前記推定対象の部分領域に対応する領域との差分を表す値が閾値以上の場合、前記制御を行う
請求項3に記載の画像処理装置。
【請求項6】
前記プロセッサは、
前記複数の部分領域それぞれについて前記推定医用画像を生成し、
少なくとも1つの前記推定医用画像についての前記差分を表す値が前記閾値以上の場合、前記制御を行う
請求項5に記載の画像処理装置。
【請求項7】
前記推定医用画像は、前記医用画像における前記解剖学的領域に、前記複数の部分領域の少なくとも1つについて生成された前記推定医用画像が合成された画像である
請求項1に記載の画像処理装置。
【請求項8】
前記プロセッサは、
前記解剖学的領域内の異常の候補を検出する処理を行い、
前記推定医用画像を生成する学習済みモデルであって、前記複数の部分領域それぞれについて予め学習された複数の学習済みモデルのうち、検出された前記異常の候補が存在する前記部分領域に対応する前記学習済みモデルのみを用いて、前記推定医用画像を生成する
請求項1に記載の画像処理装置。
【請求項9】
前記解剖学的領域は、膵臓であり、
前記複数の部分領域は、頭部、体部、及び尾部を含む
請求項1に記載の画像処理装置。
【請求項10】
医用画像に含まれる解剖学的領域内の複数の部分領域のうちの少なくとも1つの推定対象の部分領域を、前記推定対象以外の少なくとも1つの前記部分領域に基づいて推定した推定医用画像を生成する
処理を画像処理装置が備えるプロセッサが実行する画像処理方法。
【請求項11】
医用画像に含まれる解剖学的領域内の複数の部分領域のうちの少なくとも1つの推定対象の部分領域を、前記推定対象以外の少なくとも1つの前記部分領域に基づいて推定した推定医用画像を生成する
処理を画像処理装置が備えるプロセッサに実行させるための画像処理プログラム。
【請求項12】
少なくとも一つのプロセッサを備える学習装置であって、
前記プロセッサは、
医用画像に含まれる解剖学的領域内の複数の部分領域のうちの少なくとも1つの推定対象の第1の部分領域以外の少なくとも1つの第2の部分領域に基づいて前記第1の部分領域を推定した推定医用画像と、前記解剖学的領域に異常が発生していない正常医用画像とを学習用データとして用いた機械学習を行うことによって、前記第2の部分領域を入力とし、前記推定医用画像を出力とする学習済みモデルを生成する
学習装置。
【請求項13】
医用画像に含まれる解剖学的領域内の複数の部分領域のうちの少なくとも1つの推定対象の第1の部分領域以外の少なくとも1つの第2の部分領域に基づいて前記第1の部分領域を推定した推定医用画像と、前記解剖学的領域に異常が発生していない正常医用画像とを学習用データとして用いた機械学習を行うことによって、前記第2の部分領域を入力とし、前記推定医用画像を出力とする学習済みモデルを生成する
処理を学習装置が備えるプロセッサが実行する学習方法。
【請求項14】
医用画像に含まれる解剖学的領域内の複数の部分領域のうちの少なくとも1つの推定対象の第1の部分領域以外の少なくとも1つの第2の部分領域に基づいて前記第1の部分領域を推定した推定医用画像と、前記解剖学的領域に異常が発生していない正常医用画像とを学習用データとして用いた機械学習を行うことによって、前記第2の部分領域を入力とし、前記推定医用画像を出力とする学習済みモデルを生成する
処理を学習装置が備えるプロセッサに実行させるための学習プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、画像処理装置、画像処理方法、画像処理プログラム、学習装置、学習方法、及び学習プログラムに関する。
【背景技術】
【0002】
特許文献1には、医用画像から異常陰影の候補領域を検出し、検出した候補領域の少なくとも一部を含む小領域を注目領域として設定する技術が開示されている。この技術では、更に、注目領域の近傍に存在する小領域を近傍領域として設定し、注目領域及び近傍領域が正常な人工画像を生成する。
【先行技術文献】
【特許文献】
【0003】
【特許文献1】特開2006-325937号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
医用画像の読影者は、例えば、膵がん等の病変の診断において、医用画像における病変の発生に伴う病変の周辺部分の形状変化及び性状変化等の異常に基づいて、病変の発生有無を判断する場合がある。この場合、形状変化及び性状変化等の異常が発生していない医用画像を精度良く生成することができると、読影者の読影を効果的に支援することができる。
【0005】
本開示は、以上の事情を鑑みてなされたものであり、異常が発生していない医用画像を精度良く生成することができる画像処理装置、画像処理方法、画像処理プログラム、学習装置、学習方法、及び学習プログラムを提供することを目的とする。
【課題を解決するための手段】
【0006】
第1の態様の画像処理装置は、少なくとも一つのプロセッサを備える画像処理装置であって、プロセッサは、医用画像に含まれる解剖学的領域内の複数の部分領域のうちの少なくとも1つの推定対象の部分領域を、推定対象以外の少なくとも1つの部分領域に基づいて推定した推定医用画像を生成する。
【0007】
第2の態様の画像処理装置は、第1の態様の画像処理装置において、プロセッサは、解剖学的領域を複数の部分領域に分割する。
【0008】
第3の態様の画像処理装置は、第1の態様又は第2の態様の画像処理装置において、プロセッサは、推定医用画像の推定対象の部分領域と、医用画像の推定対象の部分領域に対応する領域とを比較可能に表示する制御を行う。
【0009】
第4の態様の画像処理装置は、第1の態様から第3の態様の何れか1態様の画像処理装置において、プロセッサは、推定医用画像の推定対象の部分領域と、医用画像の推定対象の部分領域に対応する領域との差分を表す情報を表示する制御を行う。
【0010】
第5の態様の画像処理装置は、第3の態様又は第4の態様の画像処理装置において、プロセッサは、推定医用画像の推定対象の部分領域と、医用画像の推定対象の部分領域に対応する領域との差分を表す値が閾値以上の場合、上記制御を行う。
【0011】
第6の態様の画像処理装置は、第5の態様の画像処理装置において、プロセッサは、複数の部分領域それぞれについて推定医用画像を生成し、少なくとも1つの推定医用画像についての差分を表す値が閾値以上の場合、上記制御を行う。
【0012】
第7の態様の画像処理装置は、第1の態様から第6の態様の何れか1態様の画像処理装置において、推定医用画像は、医用画像における解剖学的領域に、複数の部分領域の少なくとも1つについて生成された推定医用画像が合成された画像である。
【0013】
第8の態様の画像処理装置は、第1の態様から第7の態様の何れか1態様の画像処理装置において、プロセッサは、解剖学的領域内の異常の候補を検出する処理を行い、推定医用画像を生成する学習済みモデルであって、複数の部分領域それぞれについて予め学習された複数の学習済みモデルのうち、検出された異常の候補が存在する部分領域に対応する学習済みモデルのみを用いて、推定医用画像を生成する。
【0014】
第9の態様の画像処理装置は、第1の態様から第8の態様の何れか1態様の画像処理装置において、解剖学的領域は、膵臓であり、複数の部分領域は、頭部、体部、及び尾部を含む。
【0015】
第10の態様の画像処理方法は、医用画像に含まれる解剖学的領域内の複数の部分領域のうちの少なくとも1つの推定対象の部分領域を、推定対象以外の少なくとも1つの部分領域に基づいて推定した推定医用画像を生成する処理を画像処理装置が備えるプロセッサが実行するものである。
【0016】
第11の態様の画像処理プログラムは、医用画像に含まれる解剖学的領域内の複数の部分領域のうちの少なくとも1つの推定対象の部分領域を、推定対象以外の少なくとも1つの部分領域に基づいて推定した推定医用画像を生成する処理を画像処理装置が備えるプロセッサに実行させるためのものである。
【0017】
第12の態様の学習装置は、少なくとも一つのプロセッサを備える学習装置であって、プロセッサは、医用画像に含まれる解剖学的領域内の複数の部分領域のうちの少なくとも1つの推定対象の第1の部分領域以外の少なくとも1つの第2の部分領域に基づいて第1の部分領域を推定した推定医用画像と、解剖学的領域に異常が発生していない正常医用画像とを学習用データとして用いた機械学習を行うことによって、第2の部分領域を入力とし、推定医用画像を出力とする学習済みモデルを生成する。
【0018】
第13の態様の学習方法は、医用画像に含まれる解剖学的領域内の複数の部分領域のうちの少なくとも1つの推定対象の第1の部分領域以外の少なくとも1つの第2の部分領域に基づいて第1の部分領域を推定した推定医用画像と、解剖学的領域に異常が発生していない正常医用画像とを学習用データとして用いた機械学習を行うことによって、第2の部分領域を入力とし、推定医用画像を出力とする学習済みモデルを生成する処理を学習装置が備えるプロセッサが実行するものである。
【0019】
第14の態様の学習プログラムは、医用画像に含まれる解剖学的領域内の複数の部分領域のうちの少なくとも1つの推定対象の第1の部分領域以外の少なくとも1つの第2の部分領域に基づいて第1の部分領域を推定した推定医用画像と、解剖学的領域に異常が発生していない正常医用画像とを学習用データとして用いた機械学習を行うことによって、第2の部分領域を入力とし、推定医用画像を出力とする学習済みモデルを生成する処理を学習装置が備えるプロセッサに実行させるためのものである。
【発明の効果】
【0020】
本開示によれば、異常が発生していない医用画像を精度良く生成することができる。
【図面の簡単な説明】
【0021】
図1】医療情報システムの概略構成を示すブロック図である。
図2】第1実施形態に係る画像処理装置のハードウェア構成の一例を示すブロック図である。
図3】学習フェーズにおける画像処理装置の機能的な構成の一例を示すブロック図である。
図4】第1の学習済みモデルを説明するための図である。
図5】第2の学習済みモデルを説明するための図である。
図6】第3の学習済みモデルを説明するための図である。
図7】第1実施形態に係る運用フェーズにおける画像処理装置の機能的な構成の一例を示すブロック図である。
図8】表示画面の一例を示す図である。
図9】変形例に係る表示画面の一例を示す図である。
図10】学習処理の一例を示すフローチャートである。
図11】第1実施形態に係る診断支援処理の一例を示すフローチャートである。
図12】第2実施形態に係る画像処理装置のハードウェア構成の一例を示すブロック図である。
図13】第2実施形態に係る運用フェーズにおける画像処理装置の機能的な構成の一例を示すブロック図である。
図14】第2実施形態に係る学習済みモデルを用いた医用画像の生成処理を説明するための図である。
図15】第2実施形態に係る診断支援処理の一例を示すフローチャートである。
図16】変形例に係る学習済みモデルを説明するための図である。
図17】変形例に係る学習済みモデルを説明するための図である。
図18】変形例に係る学習済みモデルを説明するための図である。
図19】変形例に係る学習済みモデルを説明するための図である。
図20】変形例に係る表示画面の一例を示す図である。
図21】変形例に係る表示画面の一例を示す図である。
【発明を実施するための形態】
【0022】
以下、図面を参照して、本開示の技術を実施するための形態例を詳細に説明する。
【0023】
[第1実施形態]
まず、図1を参照して、本実施形態に係る医療情報システム1の構成を説明する。図1に示すように、医療情報システム1は、画像処理装置10、撮影装置12、及び画像保管サーバ14を含む。画像処理装置10、撮影装置12、及び画像保管サーバ14は、有線又は無線のネットワーク18を介して互いに通信可能な状態で接続される。画像処理装置10は、例えば、パーソナルコンピュータ又はサーバコンピュータ等のコンピュータである。
【0024】
撮影装置12は、被検体の診断対象とする部位を撮影することにより、その部位を表す医用画像を生成する装置である。撮影装置12の例としては、単純X線撮影装置、内視鏡装置、CT(Computed Tomography)装置、MRI(Magnetic Resonance Imaging)装置、及びPET(Positron Emission Tomography)装置等が挙げられる。本実施形態では、撮影装置12がCT装置であり、診断対象とする部位が腹部である例を説明する。すなわち、本実施形態に係る撮影装置12は、被検体の腹部のCT画像を、複数の断層画像からなる3次元の医用画像として生成する。撮影装置12により生成された医用画像は、ネットワーク18を介して画像保管サーバ14に送信され、画像保管サーバ14により保存される。
【0025】
画像保管サーバ14は、各種データを保存して管理するコンピュータであり、大容量の外部記憶装置及びデータベース管理用ソフトウェアを備える。画像保管サーバ14は、撮影装置12により生成された医用画像を、ネットワーク18を介して受信し、受信した医用画像を保存して管理する。画像保管サーバ14による画像データの格納形式及びネットワーク18を介した他の装置との通信は、DICOM(Digital Imaging and Communication in Medicine)等のプロトコルに基づいている。
【0026】
次に、図2を参照して、本実施形態に係る画像処理装置10のハードウェア構成を説明する。図2に示すように、画像処理装置10は、CPU(Central Processing Unit)20、一時記憶領域としてのメモリ21、及び不揮発性の記憶部22を含む。また、画像処理装置10は、液晶ディスプレイ等のディスプレイ23、キーボードとマウス等の入力装置24、及びネットワーク18に接続されるネットワークI/F(InterFace)25を含む。CPU20、メモリ21、記憶部22、ディスプレイ23、入力装置24、及びネットワークI/F25は、バス27に接続される。CPU20は、開示の技術に係るプロセッサの一例である。
【0027】
記憶部22は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、又はフラッシュメモリ等によって実現される。記憶媒体としての記憶部22には、学習プログラム30及び画像処理プログラム31が記憶される。CPU20は、記憶部22から学習プログラム30を読み出してからメモリ21に展開し、展開した学習プログラム30を実行する。また、CPU20は、記憶部22から画像処理プログラム31を読み出してからメモリ21に展開し、展開した画像処理プログラム31を実行する。
【0028】
ところで、医用画像において、解剖学的領域内の部分領域に異常が発生している場合、その異常が発生していない部分領域を推定した医用画像を生成することができると、読影者による医用画像の読影を効果的に支援することができる。本実施形態に係る画像処理装置10は、読影者による医用画像の読影を効果的に支援するために、異常が発生していない状態を推定した医用画像を生成する機能を有する。なお、本実施形態では、処理対象の解剖学的領域として、膵臓を適用した例を説明する。
【0029】
上記機能を実現するために、記憶部22には、複数の学習済みモデル32が記憶される。本実施形態では、学習済みモデル32の個数が3個である場合について説明する。図3を参照して、本実施形態に係る学習済みモデル32の学習フェーズにおける画像処理装置10の機能的な構成について説明する。以下では、3個の学習済みモデル32を区別する場合は、学習済みモデル32A、32B、32Cのように、末尾にA、B、Cを付与するものとする。学習フェーズにおける画像処理装置10は、開示の技術に係る学習装置の一例である。
【0030】
図3に示すように、学習フェーズにおける画像処理装置10は、分割部40、画像処理部42、及び学習部44を含む。CPU20が学習プログラム30を実行することにより、分割部40、画像処理部42、及び学習部44として機能する。
【0031】
図4図6に示すように、分割部40は、医用画像に含まれる解剖学的領域の一例としての膵臓を、複数の部分領域に分割する。本実施形態では、分割部40は、膵臓を頭部P1、体部P2、及び尾部P3の3つの部分領域に分割する。この分割には、例えば、静脈及び動脈等の医学書において定義された頭部P1、体部P2、及び尾部P3の境界が用いられる。また、この分割には、例えば、多数の患者の膵臓を撮影して得られた医用画像における頭部P1、体部P2、及び尾部P3それぞれの径及び体積等のサイズを表す値の平均値等の統計値が用いられてもよい。
【0032】
この学習フェーズで用いられる医用画像は、膵臓に異常が発生していない、すなわち、膵臓が健常な状態の医用画像(以下、「正常医用画像」という)である。本実施形態における膵臓の異常とは、がん、嚢胞、及び炎症等の直接的に治療を行う対象となる病変だけではなく、間接所見も含む。間接所見とは、病変の発生に伴う病変の周辺組織の形状及び性状のうちの少なくとも一方の特徴を表す所見を意味する。例えば、膵がんを疑う間接所見の例としては、膵臓における部分的な萎縮及び腫大等の形状異常等が挙げられる。
【0033】
図4に示すように、画像処理部42は、医用画像における尾部P3を隠す画像処理を実行する。また、図5に示すように、画像処理部42は、医用画像における体部P2を隠す画像処理を実行する。また、図6に示すように、画像処理部42は、医用画像における頭部P1を隠す画像処理を実行する。この画像処理の例としては、隠す対象の領域を背景色等の予め定められた色に塗りつぶす処理が挙げられる。図4図6の例では、この画像処理によって隠される領域の輪郭が一点鎖線で示されている。
【0034】
学習部44は、医用画像に含まれる膵臓内の複数の部分領域のうちの少なくとも1つの推定対象の第1の部分領域以外の少なくとも1つの第2の部分領域に基づいて第1の部分領域を推定した推定医用画像と、正常医用画像とを学習用データ(教師データと称されることもある)として用いた機械学習を行う。これにより、学習部44は、第2の部分領域を入力とし、推定医用画像を出力とする学習済みモデル32を生成する。
【0035】
具体的には、図4に示すように、学習部44は、画像処理部42による尾部P3を隠す画像処理の実行後の医用画像を学習済みモデル32Aに入力する。学習済みモデル32Aは、入力の医用画像に含まれる膵臓内の2つの部分領域である頭部P1及び体部P2に基づいて尾部P3を推定した推定医用画像を生成し、かつ出力する。学習部44は、分割部40による分割処理の実行前の正常医用画像と、学習済みモデル32Aから出力された推定医用画像とのロスを計算し、そのロスが最小となるように、学習済みモデル32Aを学習させる。学習済みモデル32Aは、入力の医用画像の膵臓の頭部P1及び体部P2に基づいて、その医用画像の膵臓の尾部P3を推定した推定医用画像を生成するモデルである。
【0036】
また、図5に示すように、学習部44は、画像処理部42による体部P2を隠す画像処理の実行後の医用画像を学習済みモデル32Bに入力する。学習済みモデル32Bは、入力の医用画像に含まれる膵臓内の2つの部分領域である頭部P1及び尾部P3に基づいて体部P2を推定した推定医用画像を生成し、かつ出力する。学習部44は、分割部40による分割処理の実行前の正常医用画像と、学習済みモデル32Bから出力された推定医用画像とのロスを計算し、そのロスが最小となるように、学習済みモデル32Bを学習させる。学習済みモデル32Bは、入力の医用画像の膵臓の頭部P1及び尾部P3に基づいて、その医用画像の膵臓の体部P2を推定した推定医用画像を生成するモデルである。
【0037】
また、図6に示すように、学習部44は、画像処理部42による頭部P1を隠す画像処理の実行後の医用画像を学習済みモデル32Cに入力する。学習済みモデル32Cは、入力の医用画像に含まれる膵臓内の2つの部分領域である体部P2及び尾部P3に基づいて頭部P1を推定した推定医用画像を生成し、かつ出力する。学習部44は、分割部40による分割処理の実行前の正常医用画像と、学習済みモデル32Cから出力された推定医用画像とのロスを計算し、そのロスが最小となるように、学習済みモデル32Cを学習させる。学習済みモデル32Cは、入力の医用画像の膵臓の体部P2及び尾部P3に基づいて、その医用画像の膵臓の頭部P1を推定した推定医用画像を生成するモデルである。
【0038】
3個の学習済みモデル32それぞれは、例えば、CNN(Convolutional Neural Network)によって構成される。学習部44は、以上の学習を多数の医用画像を用いて行う。以上のように学習された3個の学習済みモデル32が記憶部22に記憶される。前述したように、3個の学習済みモデル32の学習には膵臓が健常な状態の医用画像が用いられているため、3個の学習済みモデル32からは頭部P1、体部P2、及び尾部P3のそれぞれが健常な状態を推定した医用画像が出力される。
【0039】
次に、図7を参照して、本実施形態に係る学習済みモデル32の運用フェーズにおける画像処理装置10の機能的な構成について説明する。図7に示すように、画像処理装置10は、取得部50、分割部52、画像処理部54、生成部56、導出部58、及び表示制御部60を含む。CPU20が画像処理プログラム31を実行することにより、取得部50、分割部52、画像処理部54、生成部56、導出部58、及び表示制御部60として機能する。
【0040】
取得部50は、診断対象の医用画像(以下、「診断対象画像」という)を、ネットワークI/F25を介して、画像保管サーバ14から取得する。分割部52は、分割部40と同様に、診断対象画像に含まれる解剖学的領域の一例としての膵臓を、頭部P1、体部P2、及び尾部P3の3つの部分領域に分割する。
【0041】
画像処理部54は、画像処理部42と同様に、診断対象画像における尾部P3を隠す画像処理を実行する。また、画像処理部54は、診断対象画像における体部P2を隠す画像処理を実行する。また、画像処理部54は、診断対象画像における頭部P1を隠す画像処理を実行する。
【0042】
生成部56は、診断対象画像に含まれる解剖学的領域内の複数の部分領域のうちの少なくとも1つの推定対象の部分領域を、推定対象以外の少なくとも1つの部分領域に基づいて推定した推定医用画像を生成する。本実施形態では、生成部56は、複数の部分領域それぞれについて推定医用画像を生成する。推定医用画像は、診断対象画像における解剖学的領域に、複数の部分領域の少なくとも1つについて生成された推定医用画像が合成された画像である。
【0043】
具体的には、生成部56は、画像処理部54による尾部P3を隠す画像処理の実行後の診断対象画像を学習済みモデル32Aに入力する。学習済みモデル32Aは、入力の診断対象画像に含まれる膵臓内の2つの部分領域である頭部P1及び体部P2に基づいて尾部P3を推定した推定医用画像を生成し、かつ出力する。このように、生成部56は、診断対象画像に含まれる膵臓内の頭部P1、体部P2、及び尾部P3のうちの尾部P3を頭部P1及び体部P2に基づいて推定した推定医用画像(以下、「尾部推定医用画像」という)を生成する。
【0044】
また、生成部56は、画像処理部54による体部P2を隠す画像処理の実行後の診断対象画像を学習済みモデル32Bに入力する。学習済みモデル32Bは、入力の診断対象画像に含まれる膵臓内の2つの部分領域である頭部P1及び尾部P3に基づいて体部P2を推定した推定医用画像を生成し、かつ出力する。このように、生成部56は、診断対象画像に含まれる膵臓内の頭部P1、体部P2、及び尾部P3のうちの体部P2を頭部P1及び尾部P3に基づいて推定した推定医用画像(以下、「体部推定医用画像」という)を生成する。
【0045】
また、生成部56は、画像処理部54による頭部P1を隠す画像処理の実行後の診断対象画像を学習済みモデル32Cに入力する。学習済みモデル32Cは、入力の診断対象画像に含まれる膵臓内の2つの部分領域である体部P2及び尾部P3に基づいて頭部P1を推定した推定医用画像を生成し、かつ出力する。このように、生成部56は、診断対象画像に含まれる膵臓内の頭部P1、体部P2、及び尾部P3のうちの頭部P1を体部P2及び尾部P3に基づいて推定した推定医用画像(以下、「頭部推定医用画像」という)を生成する。
【0046】
導出部58は、生成部56により生成された推定医用画像それぞれについて、推定医用画像の推定対象の部分領域と、診断対象画像の推定対象の部分領域に対応する領域との差分を表す値を導出する。すなわち、導出部58は、尾部推定医用画像の尾部P3と診断対象画像の尾部P3との差分を表す値を導出する。また、導出部58は、体部推定医用画像の体部P2と診断対象画像の体部P2との差分を表す値を導出する。また、導出部58は、頭部推定医用画像の頭部P1と診断対象画像の頭部P1との差分を表す値を導出する。この部分領域の差分を表す値の例として、体積の差、長径の差、及び断面積の差等の部分領域の大きさの差分を表す値が挙げられる。また、この部分領域の差分を表す値の例として、その部分領域のCT値の平均値、分散、及び合計値等の統計値の差分も挙げられる。
【0047】
表示制御部60は、少なくとも1つの推定医用画像について導出部58により導出された差分を表す値が閾値以上の場合、その差分を表す値が閾値以上の推定医用画像の推定対象の部分領域と、診断対象画像の推定対象の部分領域とを比較可能に表示する制御を行う。本実施形態では、一例として図8に示すように、表示制御部60は、推定医用画像と診断対象画像とをディスプレイ23に並べて表示する制御を行うことによって比較可能に表示する制御を行う。図8の例では、尾部推定医用画像の尾部P3と診断対象画像の尾部P3との差分を表す値が閾値以上の場合を示している。
【0048】
なお、表示制御部60は、図9に示すように、差分を表す値が閾値以上の推定医用画像の部分領域と、診断対象画像の推定対象の部分領域とを拡大した状態でディスプレイ23に並べて表示する制御を行うことによって比較可能に表示する制御を行ってもよい。図9の例では、尾部推定医用画像の尾部P3と診断対象画像の尾部P3との差分を表す値が閾値以上であり、尾部P3を拡大した状態を示している。
【0049】
次に、図10及び図11を参照して、本実施形態に係る画像処理装置10の作用を説明する。CPU20が学習プログラム30を実行することによって、図10に示す学習処理が実行される。CPU20が画像処理プログラム31を実行することによって、図11に示す診断支援処理が実行される。図10に示す学習処理及び図11に示す診断支援処理は、例えば、それぞれユーザにより実行開始の指示が入力された場合に実行される。
【0050】
図10のステップS10で、分割部40は、前述したように、膵臓を頭部P1、体部P2、及び尾部P3の3つの部分領域に分割する。ステップS12で、画像処理部42は、医用画像における尾部P3を隠す画像処理を実行する。また、画像処理部42は、医用画像における体部P2を隠す画像処理を実行する。また、画像処理部42は、医用画像における頭部P1を隠す画像処理を実行する。
【0051】
ステップS14で、学習部44は、前述したように、ステップS12による尾部P3を隠す画像処理の実行後の医用画像と、正常医用画像とを学習用データとして用いた機械学習を行うことによって学習済みモデル32Aを生成する。また、学習部44は、前述したように、ステップS12による体部P2を隠す画像処理の実行後の医用画像と、正常医用画像とを学習用データとして用いた機械学習を行うことによって学習済みモデル32Bを生成する。また、学習部44は、前述したように、ステップS12による頭部P1を隠す画像処理の実行後の医用画像と、正常医用画像とを学習用データとして用いた機械学習を行うことによって学習済みモデル32Cを生成する。そして、学習部44は、生成した学習済みモデル32A、32B、32Cを記憶部22に記憶する制御を行う。ステップS14の処理が終了すると、学習処理が終了する。
【0052】
図11のステップS20で、取得部50は、診断対象画像を、ネットワークI/F25を介して、画像保管サーバ14から取得する。ステップS22で、分割部52は、前述したように、ステップS20で取得された診断対象画像に含まれる膵臓を、頭部P1、体部P2、及び尾部P3の3つの部分領域に分割する。ステップS24で、画像処理部54は、診断対象画像における尾部P3を隠す画像処理を実行する。また、画像処理部54は、診断対象画像における体部P2を隠す画像処理を実行する。また、画像処理部54は、診断対象画像における頭部P1を隠す画像処理を実行する。
【0053】
ステップS26で、生成部56は、ステップS24による尾部P3を隠す画像処理の実行後の診断対象画像を学習済みモデル32Aに入力することによって尾部推定医用画像を生成する。また、生成部56は、ステップS24による体部P2を隠す画像処理の実行後の診断対象画像を学習済みモデル32Bに入力することによって体部推定医用画像を生成する。また、生成部56は、ステップS24による頭部P1を隠す画像処理の実行後の診断対象画像を学習済みモデル32Cに入力することによって頭部推定医用画像を生成する。
【0054】
ステップS28で、導出部58は、ステップS26で生成された尾部推定医用画像の尾部P3と診断対象画像の尾部P3との差分を表す値を導出する。また、導出部58は、ステップS26で生成された体部推定医用画像の体部P2と診断対象画像の体部P2との差分を表す値を導出する。また、導出部58は、ステップS26で生成された頭部推定医用画像の頭部P1と診断対象画像の頭部P1との差分を表す値を導出する。
【0055】
ステップS30で、表示制御部60は、ステップS28で3つの推定医用画像ついて導出された差分を表す値の少なくとも1つが閾値以上であるか否かを判定する。この判定が肯定判定となった場合、処理はステップS32に移行する。ステップS32で、表示制御部60は、前述したように、差分を表す値が閾値以上の推定医用画像の部分領域と、診断対象画像の推定対象の部分領域とを比較可能に表示する制御を行う。ステップS32の処理が終了すると、診断支援処理が終了する。
【0056】
一方、ステップS30の判定が否定判定となった場合、処理はステップS34に移行する。ステップS34で、表示制御部60は、診断対象画像をディスプレイ23に表示する制御を行う。ステップS34の処理が終了すると、診断支援処理が終了する。
【0057】
以上説明したように、本実施形態によれば、異常が発生していない医用画像を精度良く生成することができる結果、読影者による医用画像の読影を効果的に支援することができる。
【0058】
[第2実施形態]
開示の技術の第2実施形態を説明する。なお、本実施形態に係る医療情報システム1の構成は、第1実施形態と同一であるため、説明を省略する。
【0059】
図12を参照して、本実施形態に係る画像処理装置10のハードウェア構成を説明する。第1実施形態に係る画像処理装置10と同一の構成要素については、同一の符号を付して説明を省略する。図12に示すように、本実施形態に係る画像処理装置10の記憶部22には、更に学習済みモデル34が記憶される。
【0060】
学習済みモデル34は、医用画像から病変及び間接所見等の異常の候補を検出するためのモデルである。学習済みモデル34は、例えば、CNNによって構成される。学習済みモデル34は、例えば、異常を含む医用画像と、その医用画像中の異常が存在する領域を特定した情報と、の多数の組み合わせを学習用データとして用いた機械学習によって学習されたモデルである。
【0061】
次に、本実施形態に係る画像処理装置10の機能的な構成について説明する。学習済みモデル32の学習フェーズにおける画像処理装置10の機能的な構成については第1実施形態と同一であるため、説明を省略する。
【0062】
図13を参照して、本実施形態に係る学習済みモデル32の運用フェーズにおける画像処理装置10の機能的な構成について説明する。第1実施形態に係る学習済みモデル32の運用フェーズにおける画像処理装置10と同一の機能を有する機能部については、同一の符号を付して説明を省略する。図13に示すように、画像処理装置10は、取得部50、分割部52、検出部53、画像処理部54A、生成部56A、及び表示制御部60Aを含む。CPU20が画像処理プログラム31を実行することにより、取得部50、分割部52、検出部53、画像処理部54A、生成部56A、及び表示制御部60Aとして機能する。
【0063】
図14に示すように、検出部53は、診断対象画像に含まれる解剖学的領域の一例としての膵臓内の異常の候補を検出する処理を行う。具体的には、検出部53は、診断対象画像を学習済みモデル34に入力する。学習済みモデル34は、入力の診断対象画像に含まれる膵臓内の異常の候補を検出し、検出した異常の候補が存在する領域を特定した情報を出力する。この情報は、例えば、診断対象画像内の異常の候補が存在する領域のボクセルに特定の値が格納された画像でもよいし、異常の候補が存在する頭部P1、体部P2、及び尾部P3の3つの部分領域の何れかを表す情報でもよい。
【0064】
画像処理部54Aは、検出部53により検出された異常の候補が存在する部分領域を隠す画像処理を実行する。生成部56Aは、複数の学習済みモデル32のうち、検出部53により検出された異常の候補が存在する部分領域に対応する学習済みモデル32のみを用いて、推定医用画像を生成する。具体的には、生成部56Aは、異常の候補が存在する部分領域に対応する学習済みモデル32に対し、画像処理部54Aによる異常の候補が存在する部分領域を隠す画像処理の実行後の診断対象画像を入力することによって、推定医用画像を生成する。図14では、破線で囲まれた尾部P3に異常の候補(例えば、尾部P3の萎縮)が検出され、尾部P3を隠す画像処理が実行され、その画像処理の実行後の診断対象画像が学習済みモデル32Aに入力されることによって尾部推定医用画像が生成される例を示している。
【0065】
表示制御部60Aは、生成部56Aにより生成された推定医用画像の異常の候補が存在する部分領域と、診断対象画像の推定対象の部分領域とを比較可能に表示する制御を行う。この比較可能に表示する制御の具体的な内容は第1実施形態と同様であるため、説明を省略する。
【0066】
次に、図15を参照して、本実施形態に係る画像処理装置10の作用を説明する。なお、本実施形態に係る学習処理は、第1実施形態に係る学習処理(図10参照)と同一であるため、説明を省略する。CPU20が画像処理プログラム31を実行することによって、図15に示す診断支援処理が実行される。図15に示す診断支援処理は、例えば、ユーザにより実行開始の指示が入力された場合に実行される。図15における図11と同一の処理を実行するステップについては、同一のステップ番号を付して説明を省略する。
【0067】
図15のステップS22の処理が終了すると、処理はステップS23に移行する。ステップS23で、検出部53は、前述したように、診断対象画像に含まれる膵臓内の異常の候補を検出する処理を行う。ステップS24Aで、画像処理部54Aは、ステップS23で検出された異常の候補が存在する部分領域を隠す画像処理を実行する。
【0068】
ステップS26Aで、生成部56Aは、前述したように、複数の学習済みモデル32のうち、ステップS23で検出された異常の候補が存在する部分領域に対応する学習済みモデル32のみを用いて、推定医用画像を生成する。ステップS32Aで、表示制御部60Aは、ステップS26Aで生成された推定医用画像の異常の候補が存在する部分領域と、診断対象画像の推定対象の部分領域とを比較可能に表示する制御を行う。ステップS32Aの処理が終了すると、診断支援処理が終了する。
【0069】
以上説明したように、本実施形態によれば、第1実施形態と同様の効果を奏することができる。
【0070】
なお、上記各実施形態において、学習済みモデル32として、GAN(Generative Adversarial Network)と称される生成モデルを適用する形態としてもよい。この形態例における医用画像の膵臓の頭部P1及び体部P2に基づいて、その医用画像の膵臓の尾部P3を推定した推定医用画像を生成する学習済みモデル32Aの一例を図16に示す。図16に示すように、この形態例の学習済みモデル32Aは、生成器33A及び識別器33Bを含む。生成器はGeneratorとも称され、識別器はDiscriminatorとも称される。生成器33A及び識別器33Bの各々は、例えば、CNNによって構成される。
【0071】
学習部44は、画像処理部42による尾部P3を隠す画像処理の実行後の医用画像を生成器33Aに入力する。生成器33Aは、入力の医用画像に含まれる膵臓内の2つの部分領域である頭部P1及び体部P2に基づいて尾部P3を推定した推定医用画像を生成し、かつ出力する。識別器33Bは、分割部40による分割処理の実行前の医用画像と、生成器33Aから出力された推定医用画像とを比較することによって推定医用画像が本物の医用画像であるか又は偽物の医用画像であるかを識別する。そして、識別器33Bは、識別結果として、推定医用画像が本物の医用画像であるか又は偽物の医用画像であるかを表す情報を出力する。識別結果の例としては、推定医用画像が本物の医用画像である確率が挙げられる。また、識別結果の例としては、推定医用画像が本物の医用画像であることを表す「1」及び偽物の医用画像であることを表す「0」のような2値が挙げられる。
【0072】
学習部44は、生成器33Aがより本物の医用画像に近い推定医用画像を生成できるように生成器33Aを学習させる。また、学習部44は、識別器33Bがより高精度に推定医用画像が偽物の医用画像であると識別できるように識別器33Bを学習させる。例えば、学習部44は、生成器33Aのロスが小さくなると識別器33Bのロスが大きくなるロス関数を用いて、生成器33Aの学習の際には生成器33Aのロスが最小化されるように学習させる。また、学習部44は、そのロス関数を用いて、識別器33Bの学習の際には識別器33Bのロスが最小化されるように学習させる。学習済みモデル32は、生成器33A及び識別器33Bが多数の学習用データを用いて交互に学習されることによって得られるモデルである。また、この形態例において、更に、分割部40による分割処理の実行前の医用画像と推定医用画像との間におけるReconstruction Lossと呼ばれるロスを学習に用いてもよい。
【0073】
図16では、学習済みモデル32AにGANを適用する例を示したが、学習済みモデル32B、32Cについても同様にGANを適用することが可能である。
【0074】
また、図17に示すように、生成器33Aに入力される医用画像は、膵臓に異常が発生している医用画像に基づくものであってもよい。図17では、尾部P3に萎縮が発生している例を示している。この形態例では、画像処理部42は、異常が発生している尾部P3を隠す画像処理を実行する。学習部44は、画像処理部42による尾部P3を隠す画像処理の実行後の医用画像を生成器33Aに入力する。識別器33Bは、膵臓に異常が発生していない医用画像と、生成器33Aから出力された推定医用画像とを比較することによって推定医用画像が本物の医用画像であるか又は偽物の医用画像であるかを識別する。この膵臓に異常が発生していない医用画像と、膵臓に異常が発生している医用画像とは同一の患者を撮影して得られたものであってもよいし、異なる患者を撮影して得られたものであってもよい。
【0075】
図17では、尾部P3に異常が発生している医用画像に基づいて学習済みモデル32Aが学習される例を示したが、学習済みモデル32B、32Cについても同様の学習が可能である。この場合、学習済みモデル32Bの学習には、体部P2に異常が発生している医用画像が用いられ、学習済みモデル32Cの学習には、頭部P1に異常が発生している医用画像が用いられる。
【0076】
また、一例として図18に示すように、学習済みモデル32は、2つの識別器33B1、33B2を備えてもよい。この場合、例えば、識別器33B1は、膵臓に異常が発生している医用画像と、生成器33Aから出力された推定医用画像とを比較することによって推定医用画像の膵臓の形状が正常であるか否かを識別する。また、この場合、識別器33B2は、膵臓に異常が発生している医用画像と、生成器33Aから出力された推定医用画像とを比較することによって推定医用画像のCT画像らしさを識別する。このCT画像らしさは、例えば、CT値の統計値等から識別することができる。
【0077】
また、一例として図19に示すように、この形態例において、識別器33B1及び識別器33B2は、正常医用画像と推定医用画像とを比較してもよい。この場合の正常医用画像と、膵臓に異常が発生している医用画像とは同一の患者を撮影して得られたものであってもよいし、異なる患者を撮影して得られたものであってもよい。
【0078】
また、上記各実施形態では、表示制御部60、60Aは、推定医用画像の推定対象の部分領域と、診断対象画像の推定対象の部分領域とを比較可能に表示する制御を行う場合について説明したが、これに限定されない。表示制御部60、60Aは、推定医用画像の推定対象の部分領域と、診断対象画像の推定対象の部分領域に対応する領域との差分を表す情報を表示する制御を行ってもよい。
【0079】
例えば、図20に示すように、表示制御部60、60Aは、推定医用画像の推定対象の部分領域と、診断対象画像の推定対象の部分領域に対応する領域とを重畳させ、かつこれらの部分領域の差分の領域を予め定められた色で塗りつぶした状態で表示する制御を行ってもよい。図20の例では、推定医用画像の膵臓と診断対象画像の膵臓との差分の領域が斜線で塗りつぶされている。また、表示制御部60、60Aは、この差分の領域の色を、差分を表す値に応じて異ならせてもよい。具体的には、例えば、表示制御部60、60Aは、この差分の領域の各ボクセルについて、CT値の差分が小さいほど青色に近い色になるようにし、CT値の差分が大きいほど赤色に近い色となるようにしてもよい。
【0080】
また、例えば、表示制御部60、60Aは、推定医用画像の推定対象の部分領域の輪郭と、診断対象画像の推定対象の部分領域に対応する領域の輪郭とを重畳して表示する制御を行ってもよい。
【0081】
また、例えば、表示制御部60、60Aは、推定医用画像の推定対象の部分領域と、診断対象画像の推定対象の部分領域それぞれについて、ボリュームレンダリング又はサーフェスレンダリングを用いて画像を生成してもよい。この場合、表示制御部60、60Aは、生成したそれぞれの画像を並べて表示する制御を行ってもよいし、重畳して表示する制御を行ってもよい。
【0082】
また、例えば、図21に示すように、表示制御部60、60Aは、推定医用画像の推定対象の部分領域と、診断対象画像の推定対象の部分領域に対応する領域との差異を表すテキストを表示する制御を行ってもよい。図21では、診断対象画像の膵臓の尾部P3が萎縮している場合のテキストの例を示している。
【0083】
また、上記各実施形態では、処理対象の解剖学的領域として膵臓を適用し、解剖学的領域内の複数の部分領域として頭部、体部、及び尾部を適用する場合について説明したが、これに限定されない。例えば、処理対象の解剖学的領域として肝臓を適用し、解剖学的領域内の複数の部分領域としてS1~S8等の各区域を適用する形態としてよい。また、例えば、処理対象の解剖学的領域として小腸を適用し、解剖学的領域内の複数の部分領域として十二指腸、空腸、及び回腸を適用する形態としてよい。また、例えば、処理対象の解剖学的領域として膵臓を適用し、解剖学的領域内の複数の部分領域として膵実質及び膵管を適用する形態としてよい。
【0084】
また、上記各実施形態において、学習済みモデル32として、頭部P1に基づいて体部P2を推定した推定医用画像を生成するモデルを適用してもよいし、頭部P1に基づいて尾部P3を推定した推定医用画像を生成するモデルを適用してもよい。また、学習済みモデル32として、頭部P1に基づいて体部P2及び尾部P3を推定した推定医用画像を生成するモデルを適用してもよい。
【0085】
また、上記各実施形態において、学習済みモデル32として、体部P2に基づいて頭部P1を推定した推定医用画像を生成するモデルを適用してもよいし、体部P2に基づいて尾部P3を推定した推定医用画像を生成するモデルを適用してもよい。また、学習済みモデル32として、体部P2に基づいて頭部P1及び尾部P3を推定した推定医用画像を生成するモデルを適用してもよい。
【0086】
また、上記各実施形態において、学習済みモデル32として、尾部P3に基づいて頭部P1を推定した推定医用画像を生成するモデルを適用してもよいし、尾部P3に基づいて体部P2を推定した推定医用画像を生成するモデルを適用してもよい。また、学習済みモデル32として、尾部P3に基づいて頭部P1及び体部P2を推定した推定医用画像を生成するモデルを適用してもよい。
【0087】
また、上記各実施形態において、学習済みモデル32A、32B、32Cそれぞれにより推定された頭部P1、体部P2、及び尾部P3を合成した膵臓の推定医用画像を生成してもよい。
【0088】
また、上記各実施形態では、学習済みモデル32がCNNによって構成される場合について説明したが、これに限定されない。学習済みモデル32は、CNN以外の機械学習の手法によって構成されてもよい。
【0089】
また、上記各実施形態では、診断対象画像として、CT画像を適用した場合について説明したが、これに限定されない。診断対象画像として、単純X線撮影装置により撮影された放射線画像、及びMRI装置により撮影されたMRI画像等のCT画像以外の医用画像を適用してもよい。
【0090】
また、上記各実施形態に係る診断支援処理のステップS20~S28、S20~S26Aの処理は、ユーザにより実行開始の指示が入力される前に実行されてもよい。この場合、ユーザにより実行開始の指示が入力されると、ステップS30以降の処理、又はステップS32Aが実行され、画面表示が行われる。
【0091】
また、上記各実施形態において、例えば、画像処理装置10の各機能部のように各種の処理を実行する処理部(processing unit)のハードウェア的な構造としては、次に示す各種のプロセッサ(processor)を用いることができる。上記各種のプロセッサには、前述したように、ソフトウェア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPUに加えて、FPGA(Field Programmable Gate Array)等の製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、ASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が含まれる。
【0092】
1つの処理部は、これらの各種のプロセッサのうちの1つで構成されてもよいし、同種又は異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせや、CPUとFPGAとの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。
【0093】
複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアント及びサーバ等のコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組み合わせで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System on Chip:SoC)等に代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサの1つ以上を用いて構成される。
【0094】
更に、これらの各種のプロセッサのハードウェア的な構造としては、より具体的には、半導体素子などの回路素子を組み合わせた電気回路(circuitry)を用いることができる。
【0095】
また、上記実施形態では、学習プログラム30及び画像処理プログラム31が記憶部22に予め記憶(インストール)されている態様を説明したが、これに限定されない。学習プログラム30及び画像処理プログラム31は、CD-ROM(Compact Disc Read Only Memory)、DVD-ROM(Digital Versatile Disc Read Only Memory)、及びUSB(Universal Serial Bus)メモリ等の記録媒体に記録された形態で提供されてもよい。また、学習プログラム30及び画像処理プログラム31は、ネットワークを介して外部装置からダウンロードされる形態としてもよい。
【符号の説明】
【0096】
1 医療情報システム
10 画像処理装置
12 撮影装置
14 画像保管サーバ
18 ネットワーク
20 CPU
21 メモリ
22 記憶部
23 ディスプレイ
24 入力装置
25 ネットワークI/F
27 バス
30 学習プログラム
31 画像処理プログラム
32、32A、32B、32C、34 学習済みモデル
33A 生成器
33B、33B1、33B2 識別器
40、52 分割部
42、54、54A 画像処理部
44 学習部
50 取得部
53 検出部
56、56A 生成部
58 導出部
60、60A 表示制御部
P1 頭部
P2 体部
P3 尾部
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14
図15
図16
図17
図18
図19
図20
図21