IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 富士フイルム株式会社の特許一覧

特許7086818情報処理装置、情報処理方法、及びプログラム
<>
  • 特許-情報処理装置、情報処理方法、及びプログラム 図1
  • 特許-情報処理装置、情報処理方法、及びプログラム 図2
  • 特許-情報処理装置、情報処理方法、及びプログラム 図3
  • 特許-情報処理装置、情報処理方法、及びプログラム 図4
  • 特許-情報処理装置、情報処理方法、及びプログラム 図5
  • 特許-情報処理装置、情報処理方法、及びプログラム 図6
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2022-06-10
(45)【発行日】2022-06-20
(54)【発明の名称】情報処理装置、情報処理方法、及びプログラム
(51)【国際特許分類】
   A61B 6/03 20060101AFI20220613BHJP
   A61B 5/00 20060101ALI20220613BHJP
   G06T 7/00 20170101ALI20220613BHJP
【FI】
A61B6/03 360T
A61B5/00 G
G06T7/00 350C
A61B6/03 360J
【請求項の数】 7
(21)【出願番号】P 2018202950
(22)【出願日】2018-10-29
(65)【公開番号】P2020068881
(43)【公開日】2020-05-07
【審査請求日】2021-01-20
(73)【特許権者】
【識別番号】306037311
【氏名又は名称】富士フイルム株式会社
(74)【代理人】
【識別番号】110001519
【氏名又は名称】特許業務法人太陽国際特許事務所
(72)【発明者】
【氏名】山田 健太
【審査官】遠藤 直恵
(56)【参考文献】
【文献】特開2015-198928(JP,A)
【文献】特表2017-534401(JP,A)
【文献】特開平04-332548(JP,A)
【文献】特開2012-130667(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
A61B 6/00-6/14、5/00-5/01
(57)【特許請求の範囲】
【請求項1】
被検体を撮影して得られた医用画像を表す画像データ及び前記医用画像から抽出された領域を表す情報を学習用データとして用いた機械学習によって予め得られた1つの第1の学習済みモデルに対して前記医用画像を表す画像データを入力する入力部と、
前記入力部による入力により前記第1の学習済みモデルから出力された前記領域を表す情報を取得する取得部と、
前記被検体を撮影して得られた画像から前記被検体の体格を表す情報を抽出する抽出部と、
前記抽出部により抽出された前記被検体の体格を表す情報を用いて、前記被検体が分類されるグループを特定する特定部と、
前記入力部により入力された医用画像データ及び前記取得部により取得された前記領域を表す情報を学習用データとして、前記特定部により特定されたグループ毎に前記第1の学習済みモデルを再学習させることによって第2の学習済みモデルを前記グループ毎に生成する生成部と、
を備えた情報処理装置。
【請求項2】
前記被検体の体格を表す情報は、前記被検体の骨格である
請求項1に記載の情報処理装置。
【請求項3】
前記被検体の体格を表す情報は、前記被検体の体表である
請求項1に記載の情報処理装置。
【請求項4】
前記被検体の体格を表す情報の抽出に用いられる前記画像は、前記医用画像である
請求項1から請求項の何れか1項に記載の情報処理装置。
【請求項5】
前記グループは、前記被検体の年齢、性別、人種、又は種族によって前記被検体が分類されるグループである
請求項1から請求項の何れか1項に記載の情報処理装置。
【請求項6】
被検体を撮影して得られた医用画像を表す画像データ及び前記医用画像から抽出された領域を表す情報を学習用データとして用いた機械学習によって予め得られた1つの第1の学習済みモデルに対して前記医用画像を表す画像データを入力し、
前記入力により前記第1の学習済みモデルから出力された前記領域を表す情報を取得し、
前記被検体を撮影して得られた画像から前記被検体の体格を表す情報を抽出し、
抽出した前記被検体の体格を表す情報を用いて、前記被検体が分類されるグループを特定し、
入力した医用画像データ及び取得した前記領域を表す情報を学習用データとして、特定したグループ毎に前記第1の学習済みモデルを再学習させることによって第2の学習済みモデルを前記グループ毎に生成する
処理をコンピュータが実行する情報処理方法。
【請求項7】
被検体を撮影して得られた医用画像を表す画像データ及び前記医用画像から抽出された領域を表す情報を学習用データとして用いた機械学習によって予め得られた1つの第1の学習済みモデルに対して前記医用画像を表す画像データを入力し、
前記入力により前記第1の学習済みモデルから出力された前記領域を表す情報を取得し、
前記被検体を撮影して得られた画像から前記被検体の体格を表す情報を抽出し、
抽出した前記被検体の体格を表す情報を用いて、前記被検体が分類されるグループを特定し、
入力した医用画像データ及び取得した前記領域を表す情報を学習用データとして、特定したグループ毎に前記第1の学習済みモデルを再学習させることによって第2の学習済みモデルを前記グループ毎に生成する
処理をコンピュータに実行させるためのプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、情報処理装置、情報処理方法、及びプログラムに関する。
【背景技術】
【0002】
従来、入力画像に含まれる顔を、検出すべき顔の傾きを変えながら検出する顔検出方法が開示されている(特許文献1参照)。この顔検出方法では、検出すべき顔の傾きに応じて、第1の検出処理及び第2の検出処理の何れかの検出処理によって顔検出を行う。
【0003】
また、入力画像の種類に応じた顔検出手法を用いて、入力画像から顔を検出する画像処理装置が開示されている(特許文献2参照)。
【先行技術文献】
【特許文献】
【0004】
【文献】特開2007-128127号公報
【文献】特開2009-70099号公報
【発明の概要】
【発明が解決しようとする課題】
【0005】
ところで、医用画像から対象とする領域を精度良く抽出することができると、医師が診断を行ううえで好ましい。しかしながら、特許文献1及び特許文献2に記載の技術では、医用画像から対象とする領域を精度良く抽出することはできない。
【0006】
本開示は、以上の事情を鑑みて成されたものであり、医用画像から対象とする領域を精度良く抽出することができる情報処理装置、情報処理方法、及びプログラムを提供することを目的とする。
【課題を解決するための手段】
【0007】
上記目的を達成するために、本開示の情報処理装置は、被検体を撮影して得られた画像から被検体の体格を表す情報を抽出する抽出部と、抽出部により抽出された被検体の体格を表す情報を用いて、被検体が分類されるグループを特定する特定部と、グループ毎の被検体を撮影して得られた医用画像を表す画像データ及び医用画像から抽出された領域を表す情報を学習用データとして用いた機械学習によって、医用画像を表す画像データを入力とし、領域を表す情報を出力とした学習済みモデルをグループ毎に生成する生成部と、を備える。
【0008】
なお、本開示の情報処理装置は、医用画像を表す画像データ及び領域を表す情報を学習用データとして用いた機械学習によって予め得られた1つの学習済みモデルに対して医用画像を表す画像データを入力する入力部と、入力部による入力により1つの学習済みモデルから出力された領域を表す情報を取得する取得部と、を更に備え、生成部が、入力部により入力された医用画像データ及び取得部により取得された領域を表す情報を学習用データとして、特定部により特定されたグループ毎に1つの学習済みモデルを再学習させることによって学習済みモデルをグループ毎に生成してもよい。
【0009】
また、本開示の情報処理装置は、被検体の体格を表す情報が、被検体の骨格であってもよい。
【0010】
また、本開示の情報処理装置は、被検体の体格を表す情報が、被検体の体表であってもよい。
【0011】
また、本開示の情報処理装置は、被検体の体格を表す情報の抽出に用いられる画像が、医用画像であってもよい。
【0012】
また、本開示の情報処理装置は、グループが、被検体の年齢、性別、人種、又は種族によって被検体が分類されるグループであってもよい。
【0013】
一方、上記目的を達成するために、本開示の情報処理方法は、被検体を撮影して得られた画像から被検体の体格を表す情報を抽出し、抽出した被検体の体格を表す情報を用いて、被検体が分類されるグループを特定し、グループ毎の被検体を撮影して得られた医用画像を表す画像データ及び医用画像から抽出された領域を表す情報を学習用データとして用いた機械学習によって、医用画像を表す画像データを入力とし、領域を表す情報を出力とした学習済みモデルをグループ毎に生成する処理をコンピュータが実行するものである。
【0014】
また、上記目的を達成するために、本開示のプログラムは、被検体を撮影して得られた画像から被検体の体格を表す情報を抽出し、抽出した被検体の体格を表す情報を用いて、被検体が分類されるグループを特定し、グループ毎の被検体を撮影して得られた医用画像を表す画像データ及び医用画像から抽出された領域を表す情報を学習用データとして用いた機械学習によって、医用画像を表す画像データを入力とし、領域を表す情報を出力とした学習済みモデルをグループ毎に生成する処理をコンピュータに実行させるためのものである。
【0015】
また、本開示の情報処理装置は、コンピュータに実行させるための命令を記憶するメモリと、記憶された命令を実行するよう構成されたプロセッサと、を備え、プロセッサは、被検体を撮影して得られた画像から被検体の体格を表す情報を抽出し、抽出した被検体の体格を表す情報を用いて、被検体が分類されるグループを特定し、グループ毎の被検体を撮影して得られた医用画像を表す画像データ及び医用画像から抽出された領域を表す情報を学習用データとして用いた機械学習によって、医用画像を表す画像データを入力とし、領域を表す情報を出力とした学習済みモデルをグループ毎に生成する。
【発明の効果】
【0016】
本開示によれば、医用画像から対象とする領域を精度良く抽出することができる。
【図面の簡単な説明】
【0017】
図1】実施形態に係る診断支援システムの構成の一例を示すブロック図である。
図2】実施形態に係る情報処理装置のハードウェア構成の一例を示すブロック図である。
図3】実施形態に係る学習済みモデルの一例を示す図である。
図4】実施形態に係る情報処理装置の機能的な構成の一例を示すブロック図である。
図5】実施形態に係る診断支援処理の一例を示すフローチャートである。
図6】実施形態に係る再学習処理の一例を示すフローチャートである。
【発明を実施するための形態】
【0018】
以下、図面を参照して、本開示の技術を実施するための形態例を詳細に説明する。
【0019】
まず、図1を参照して、本実施形態に係る診断支援システム10の構成を説明する。図1に示すように、診断支援システム10は、画像管理装置12及び情報処理装置14を含む。画像管理装置12及び情報処理装置14は、各々ネットワークNに接続され、ネットワークNを介した通信が可能とされる。画像管理装置12は、CT(Computed Tomography)及びMRI(Magnetic Resonance Imaging)等の医用画像を撮影する撮影装置により被検体を撮影して得られた医用画像を表す画像データ(以下、「医用画像データ」という)を記憶する。画像管理装置12の例としては、PACS(Picture Archiving and Communication System)等が挙げられる。情報処理装置14は、画像管理装置12に記憶された医用画像データを用いて診断の支援を行う。情報処理装置14の例としては、パーソナルコンピュータ及びサーバコンピュータ等の情報処理装置が挙げられる。
【0020】
次に、図2を参照して、本実施形態に係る情報処理装置14のハードウェア構成を説明する。図2に示すように、情報処理装置14は、CPU(Central Processing Unit)20、一時記憶領域としてのメモリ21、及び不揮発性の記憶部22を含む。また、情報処理装置14は、液晶ディスプレイ等の表示部23、キーボードとマウス等の入力部24、及びネットワークNに接続されるネットワークI/F(InterFace)25を含む。CPU20、メモリ21、記憶部22、表示部23、入力部24、及びネットワークI/F25は、バス26に接続される。
【0021】
記憶部22は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、及びフラッシュメモリ等によって実現される。記憶媒体としての記憶部22には、情報処理プログラム30が記憶される。CPU20は、記憶部22から情報処理プログラム30を読み出してからメモリ21に展開し、展開した情報処理プログラム30を実行する。
【0022】
また、記憶部22には、1つの学習済みモデル32、及び複数(本実施形態では、2つ)の学習済みモデル34が記憶される。図3を参照して、学習済みモデル32について説明する。図3に示すように、本実施形態では、学習済みモデル32の一例として入力層、複数の中間層、及び出力層を含むニューラルネットワークを適用した形態例を説明する。
【0023】
学習済みモデル32には、入力データの一例として、CTにより被検体を撮影して得られた医用画像データが入力される。また、学習済みモデル32からは、出力データの一例として、入力の医用画像データが示す医用画像から抽出された領域を表す情報が出力される。本実施形態では、学習済みモデル32は、入力の医用画像データが示す医用画像における肺領域を抽出し、抽出した肺領域を予め定められた色(例えば、赤色)で塗りつぶした画像を表す画像データを出力する。図3では、抽出された肺領域を斜線の領域で示している。
【0024】
学習済みモデル32は、複数組の医用画像データ及び医用画像データにおける肺領域を表す情報を学習用データ(教師データとも称される)として用いた機械学習によって予め得られたモデルである。なお、この際の機械学習に用いられる手法の例としては、誤差逆伝播法等が挙げられる。
【0025】
また、本実施形態に係る学習済みモデル32は、後述する被検体が分類されるグループの区別はなく、汎用のモデルとして予め得られている。
【0026】
なお、本実施形態では、学習済みモデル32が左右両方の肺領域を抽出する場合について説明するが、これに限定されない。学習済みモデル32が左右の何れか一方の肺領域を抽出してもよいし、肺以外の領域を抽出してもよいし、複数種類の領域を抽出してもよい。学習済みモデル32が抽出する領域の例としては、臓器領域、骨の領域、血管の領域、及び皮下脂肪の領域等が挙げられる。
【0027】
学習済みモデル32と同様に、学習済みモデル34にも入力層、複数の中間層、及び出力層を含むニューラルネットワークが適用される。また、学習済みモデル32と同様に、学習済みモデル34にもCTにより被検体を撮影して得られた医用画像データが入力され、学習済みモデル34からも入力の医用画像データが示す医用画像から抽出された領域を表す情報が出力される。学習済みモデル34は、後述する生成部52により被検体が分類されるグループ毎に生成される。
【0028】
次に、図4を参照して、本実施形態に係る情報処理装置14の機能的な構成について説明する。図4に示すように、情報処理装置14は、入力部40、取得部42、出力部44、抽出部46、特定部48、記憶制御部50、及び生成部52を含む。CPU20が情報処理プログラム30を実行することで、入力部40、取得部42、出力部44、抽出部46、特定部48、記憶制御部50、及び生成部52として機能する。
【0029】
入力部40は、画像管理装置12から医用画像データを取得し、取得した医用画像データを学習済みモデル32に入力する。取得部42は、入力部40による入力に対応して学習済みモデル32から出力された医用画像から抽出された領域を表す情報を取得する。
【0030】
出力部44は、取得部42により取得された医用画像から抽出された領域を表す情報を表示部23に出力する。この出力により、表示部23には、例えば、肺領域が予め定められた色で塗りつぶされた画像が表示される。ユーザは、表示部23に表示された画像を用いて、被検体の診断を行う。なお、出力部44は、取得部42により取得された医用画像から抽出された領域を表す情報を記憶部22に出力(記憶)してもよいし、画像管理装置12に出力(送信)してもよい。
【0031】
抽出部46は、入力部40により画像管理装置12から取得された医用画像データが示す医用画像から、被検体の体格を表す情報を抽出する。本実施形態では、抽出部46は、医用画像に対して画像解析処理を行うことによって、被検体の体格を表す情報として被検体の骨格を抽出する。具体的には、例えば、骨の領域は他の領域に比べてCT画像の信号値が高いため、抽出部46は、医用画像から信号値が閾値以上の領域を抽出することによって、被検体の骨格を抽出する。この際、抽出部46は、抽出した骨格における椎骨及び骨盤の特徴を識別し、かつ頭部、胸部、腹部、及び下肢等の部位を識別する。なお、この場合の閾値は、例えば、医用画像における骨の領域と他の領域とを区別可能な値の下限値として予め定められている。
【0032】
特定部48は、抽出部46により抽出された被検体の体格を表す情報を用いて、被検体が分類されるグループを特定する。本実施形態では、特定部48は、抽出部46により抽出された被検体の骨格を用いて、その被検体が分類されるグループが小児であるか、又は成人であるかを特定する。具体的には、例えば、特定部48は、被検体の骨格について、全身における頭部の割合から、その被検体が分類されるグループが小児であるか、又は成人であるかを特定する。なお、全身における頭部の割合は、幼児から小学生までは15%以上25%以下程度であり、高校生以上では15%未満となる場合が多い。そこで、例えば、15%を閾値とすることで、被検体が分類されるグループを特定することができる。
【0033】
なお、ここでいう小児とは、予め定められた年齢未満の子供を意味し、成人とは、予め定められた年齢以上の人を意味する。また、小児と成人との境界の年齢は、特に限定されず、例えば、15歳としてもよいし、18歳としてもよい。また、被検体を分類するグループの数は2つに限定されず、3つ以上としてもよい。
【0034】
記憶制御部50は、入力部40により画像管理装置12から取得された医用画像データ、及びその医用画像データについて取得部42により取得された医用画像から抽出された領域を表す情報を、特定部48により特定されたグループに対応付けて記憶部22に記憶する制御を行う。
【0035】
生成部52は、記憶部22に記憶されたグループ毎の複数組の医用画像データ及び医用画像から抽出された領域を表す情報を学習用データとして用いた機械学習によって、学習済みモデル34をグループ毎に生成する。本実施形態では、生成部52は、記憶部22に記憶されたグループ毎の複数組の医用画像データ及び医用画像から抽出された領域を表す情報を学習用データとして、特定部48により特定されたグループ毎に学習済みモデル32を再学習させる。この再学習によって生成部52は、学習済みモデル34をグループ毎に生成する。
【0036】
すなわち、本実施形態では、生成部52により、1つの汎用の学習済みモデル32から、小児のグループに対応する学習済みモデル34と、成人のグループに対応する学習済みモデル34とが生成される。
【0037】
次に、図5及び図6を参照して、本実施形態に係る情報処理装置14の作用を説明する。CPU20が情報処理プログラム30を実行することによって、図5に示す診断支援処理及び図6に示す再学習処理が実行される。図5に示す診断支援処理は、例えば、ユーザにより入力部24を介して、診断支援処理の実行指示が入力された場合に実行される。
【0038】
図5のステップS10で、入力部40は、画像管理装置12から医用画像データを取得する。ステップS12で、入力部40は、ステップS10で取得した医用画像データを学習済みモデル32に入力する。ステップS14で、取得部42は、ステップS12の処理による入力に対応して学習済みモデル32から出力された医用画像から抽出された領域を表す情報を取得する。
【0039】
ステップS16で、出力部44は、前述したように、ステップS14の処理により取得された医用画像から抽出された領域を表す情報を表示部23に出力する。ステップS18で、抽出部46は、前述したように、ステップS10の処理により取得された医用画像データが示す医用画像から、被検体の体格を表す情報を抽出する。
【0040】
ステップS20で、特定部48は、前述したように、ステップS18の処理により抽出された被検体の体格を表す情報を用いて、被検体が分類されるグループを特定する。ステップS22で、ステップS10の処理により取得された医用画像データ及びステップS14の処理により取得された医用画像から抽出された領域を表す情報を、ステップS20の処理により特定されたグループに対応付けて、学習用データとして記憶部22に記憶する制御を行う。ステップS22の処理が終了すると、診断支援処理が終了する。
【0041】
図5に示す診断支援処理が各被検体を撮影して得られた医用画像データについて実行されることによって、グループ毎に学習用データが記憶部22に蓄積される。各グループについて、図5に示す記憶制御処理により、所定の件数(例えば、100件)以上の学習用データが記憶部22に記憶されると、図6に示す再学習処理が実行される。なお、図6に示す再学習処理は、図5のステップS22の処理により学習用データが記憶部22に記憶されるたびに実行されてもよいし、ユーザにより実行指示が入力された場合に実行されてもよい。
【0042】
図6のステップS30で、生成部52は、所定の件数以上の学習用データが記憶されたグループに対応する学習用データ(すなわち、医用画像データ及び医用画像から抽出された領域を表す情報)を記憶部22から取得する。ステップS32で、生成部52は、前述したように、ステップS30で取得した学習用データを用いて、学習済みモデル32を再学習させることによって、所定の件数以上の学習用データが記憶されたグループに対応する学習済みモデル34を生成する。ステップS32の処理が終了すると、再学習処理が終了する。各グループについて図6に示す再学習処理が実行されることによって、各グループに対応する学習済みモデル34が生成される。
【0043】
各グループについて学習済みモデル34が生成された後は、例えば、医用画像データを、その医用画像データに対応する被検体が分類されるグループに対応する学習済みモデル34に入力する。これにより、その医用画像データが示す医用画像から抽出された領域を表す情報を取得することができる。
【0044】
以上説明したように、本実施形態によれば、被検体の体格を表す情報を用いて被検体が分類されるグループを特定し、特定したグループ毎の医用画像データ及び医用画像から抽出された領域を表す情報を学習用データとして用いた機械学習によって、学習済みモデル34をグループ毎に生成する。
【0045】
被検体を撮影して得られた医用画像は、小児であるか、又は成人であるかによって、撮影時の放射線量、臓器の大きさ、及び脂肪の量等が異なる。具体的には、小児の方が成人よりも撮影時の放射線量が少ない、臓器が小さい、及び脂肪が小さい等の特徴がある。従って、本実施形態のように、小児に対応する学習済みモデル34と成人に対応する学習済みモデル34とを個別に生成することによって、医用画像から対象とする領域を精度良く抽出することができる。
【0046】
また、本実施形態によれば、被検体を撮影して得られた医用画像から被検体の体格を表す情報を抽出し、抽出した情報を用いて被検体が分類されるグループを特定している。従って、被検体の体格を抽出するための専用の画像が不要となり、またユーザがグループを設定することなくグループを特定することができる結果、被検体が分類されるグループを効率的に特定することができる。
【0047】
なお、上記実施形態では、学習済みモデル32を再学習させることによって学習済みモデル34を生成する場合について説明したが、これに限定されない。グループ毎の医用画像データ及び医用画像から抽出された領域を表す情報を学習用データとして用いた機械学習によって、学習済みモデル34をグループ毎にゼロから生成する形態としてもよい。
【0048】
また、上記実施形態では、被検体の体格を表す情報として、被検体の骨格を適用した場合について説明したが、これに限定されない。例えば、被検体の体格を表す情報として、被検体の体表を適用する形態としてもよい。この場合、特定部48が、抽出された被検体の体表から被検体の腹囲長及び肩幅等を導出し、導出した被検体の腹囲長及び肩幅等の体格から、被検体が分類されるグループを特定する形態が例示される。この場合、例えば、性別の特定のための閾値としてメタボリックシンドロームの判定基準を適用することができる。
【0049】
また、上記実施形態では、被検体が分類されるグループとして、被検体の年齢によって被検体が分類されるグループ(上記実施形態では、小児及び成人)を適用した場合について説明したが、これに限定されない。例えば、被検体が分類されるグループとして、被検体の性別によって分類されるグループを適用する形態としてもよいし、被検体の人種によって分類されるグループを適用する形態としてもよい。また、例えば、被検体が分類されるグループとして、人、犬、及び猫等の被検体の種族によって分類されるグループを適用する形態としてもよい。また、以上の例の複数の組み合わせによって被検体を分類してもよい。この場合、被検体を「小児・男性」、「小児・女性」、「成人・男性」、及び「成人・女性」のように、被検体の年齢及び性別の組み合わせによって分類されるグループに分類する形態が例示される。
【0050】
例えば、骨盤の中央の孔の形状は、男性では三角形に近く、女性では円形に近い。従って、骨盤の中央の孔の形状から被検体の性別を特定することができる。また、例えば、骨の総数、尾の骨の有無、及び歯の数等から、被検体が人であるか、又は人以外の動物であるかを特定することができる。
【0051】
また、上記実施形態では、医用画像から被検体の体格を表す情報を抽出する場合について説明したが、これに限定されない。例えば、医用以外の撮影装置により撮影された画像から被検体の体格を表す情報を抽出する形態としてもよい。この場合、デジタルカメラにより被検体を撮影して得られた画像に対して画像解析処理を行うことによって、画像から被検体の体表を抽出する形態が例示される。
【0052】
また、上記実施形態において、学習済みモデル34を生成した後、医用画像から被検体が分類されるグループを特定できなかった場合は、学習済みモデル32を用いてもよい。
【0053】
また、上記実施形態において、例えば、入力部40、取得部42、出力部44、抽出部46、特定部48、記憶制御部50、及び生成部52といった各種の処理を実行する処理部(processing unit)のハードウェア的な構造としては、次に示す各種のプロセッサ(processor)を用いることができる。上記各種のプロセッサには、前述したように、ソフトウェア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPUに加えて、FPGA(Field-Programmable Gate Array)等の製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、ASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が含まれる。
【0054】
1つの処理部は、これらの各種のプロセッサのうちの1つで構成されてもよいし、同種又は異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせや、CPUとFPGAとの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。
複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアント及びサーバ等のコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組み合わせで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)等に代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサの1つ以上を用いて構成される。
【0055】
更に、これらの各種のプロセッサのハードウェア的な構造としては、より具体的には、半導体素子などの回路素子を組み合わせた電気回路(circuitry)を用いることができる。
【0056】
また、上記実施形態では、情報処理プログラム30が記憶部22に予め記憶(インストール)されている態様を説明したが、これに限定されない。情報処理プログラム30は、CD-ROM(Compact Disc Read Only Memory)、DVD-ROM(Digital Versatile Disc Read Only Memory)、及びUSB(Universal Serial Bus)メモリ等の記録媒体に記録された形態で提供されてもよい。また、情報処理プログラム30は、ネットワークを介して外部装置からダウンロードされる形態としてもよい。
【符号の説明】
【0057】
10 診断支援システム
12 画像管理装置
14 情報処理装置
20 CPU
21 メモリ
22 記憶部
23 表示部
24 入力部
25 ネットワークI/F
26 バス
30 情報処理プログラム
32、34 学習済みモデル
40 入力部
42 取得部
44 出力部
46 抽出部
48 特定部
50 記憶制御部
52 生成部
N ネットワーク
図1
図2
図3
図4
図5
図6