(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024131327
(43)【公開日】2024-09-30
(54)【発明の名称】診断支援プログラム、診断支援方法および診断支援装置
(51)【国際特許分類】
G16H 30/40 20180101AFI20240920BHJP
【FI】
G16H30/40
【審査請求】未請求
【請求項の数】8
【出願形態】OL
(21)【出願番号】P 2023041527
(22)【出願日】2023-03-16
(71)【出願人】
【識別番号】521443520
【氏名又は名称】Ridgelinez株式会社
(71)【出願人】
【識別番号】000002093
【氏名又は名称】住友化学株式会社
(74)【代理人】
【識別番号】110002918
【氏名又は名称】弁理士法人扶桑国際特許事務所
(72)【発明者】
【氏名】河野 洋行
(72)【発明者】
【氏名】水谷 晃大
(72)【発明者】
【氏名】浅葉 海
(72)【発明者】
【氏名】野村 昌弘
(72)【発明者】
【氏名】大塚 恭平
(72)【発明者】
【氏名】佐々木 克典
【テーマコード(参考)】
5L099
【Fターム(参考)】
5L099AA04
5L099AA26
(57)【要約】
【課題】診断スキル向上に役立つ情報を提供する。
【解決手段】処理部2は、人物U1により作成された学習データ4a,4b,・・・を用いた機械学習によって作成された疾患識別モデルM1を用いて、入力された医用画像3に対応する疾患を識別して第1の識別結果を出力し、人物U2により作成された学習データ5a,5b,・・・を用いた機械学習によって作成された疾患識別モデルM2を用いて、医用画像3に対応する疾患を識別して第2の識別結果を出力し、第1の識別結果と第2の識別結果とを比較可能な状態で表示させる。
【選択図】
図1
【特許請求の範囲】
【請求項1】
コンピュータに、
第1の人物により作成された学習データを用いた機械学習によって作成された第1の疾患識別モデルを用いて、入力された医用画像に対応する疾患を識別して第1の識別結果を出力し、
第2の人物により作成された学習データを用いた機械学習によって作成された第2の疾患識別モデルを用いて、前記医用画像に対応する疾患を識別して第2の識別結果を出力し、
前記第1の識別結果と前記第2の識別結果とを比較可能な状態で表示させる、
処理を実行させる診断支援プログラム。
【請求項2】
前記コンピュータに、
複数の人物により作成された学習データを用いた機械学習によって作成された第3の疾患識別モデルを用いて、前記医用画像に対応する疾患を識別して第3の識別結果を出力し、
前記第1の識別結果と前記第3の識別結果とを比較可能な状態で表示させる、
処理をさらに実行させる請求項1記載の診断支援プログラム。
【請求項3】
前記コンピュータに、
人物の指定を受け付け、
異なる人物により作成された学習データを用いた機械学習によってそれぞれ作成された複数の疾患識別モデルの中から、指定された人物に対応する疾患識別モデルを前記第2の疾患識別モデルとして選択する、
処理をさらに実行させる請求項1記載の診断支援プログラム。
【請求項4】
前記第2の疾患識別モデルは、前記第2の人物からの指定に基づいて複数の疾患識別モデルを組み合わせることで形成されており、
前記コンピュータに、
前記第2の疾患識別モデルにおける前記複数の疾患識別モデルの構成を示す情報を表示させる、
処理をさらに実行させる請求項1記載の診断支援プログラム。
【請求項5】
前記コンピュータに、
それぞれ疾患の識別結果が対応付けられた複数の症例画像の中から、前記医用画像と類似する類似画像を検索し、
前記第1の識別結果および前記第2の識別結果と、前記医用画像と、前記類似画像と、前記類似画像に対応付けられた疾患の識別結果とを同一画面上に表示させる、
処理をさらに実行させる請求項1記載の診断支援プログラム。
【請求項6】
第1のコンピュータが、
第1の人物により作成された学習データを用いた機械学習によって作成された第1の疾患識別モデルを用いて、入力された医用画像に対応する疾患を識別して第1の識別結果を出力し、
第2の人物により作成された学習データを用いた機械学習によって作成された第2の疾患識別モデルを用いて、前記医用画像に対応する疾患を識別して第2の識別結果を出力し、
前記第1の識別結果と前記第2の識別結果とを比較可能な状態で表示させる、
診断支援方法。
【請求項7】
前記第1の人物により操作される第2のコンピュータが、
診断対象とする対象医用画像を含む画面を表示装置に表示させた状態で、前記第1の人物による抽出指示操作に応じて前記画面から前記対象医用画像を抽出し、
抽出された前記対象医用画像を前記医用画像として前記第1のコンピュータに送信する、
請求項6記載の診断支援方法。
【請求項8】
第1の人物により作成された学習データを用いた機械学習によって作成された第1の疾患識別モデルを用いて、入力された医用画像に対応する疾患を識別して第1の識別結果を出力し、
第2の人物により作成された学習データを用いた機械学習によって作成された第2の疾患識別モデルを用いて、前記医用画像に対応する疾患を識別して第2の識別結果を出力し、
前記第1の識別結果と前記第2の識別結果とを比較可能な状態で表示させる、処理部、
を有する診断支援装置。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、診断支援プログラム、診断支援方法および診断支援装置に関する。
【背景技術】
【0002】
医用画像は、各種疾患の診断に広く利用されている。医用画像を用いることで、疾患の種類や程度、病変の広がりなどを正確に評価できるようになる。また、医用画像を用いた診断は大きな手間がかかることから、このような診断作業をコンピュータによって何らかの形で支援する技術が求められている。
【0003】
医用画像を用いた診断支援技術としては、次のような提案がある。例えば、解析対象の画像に対して複数の学習済みモデルに基づく演算を行い、複数の学習済みモデルによる診断に係る1つの情報を算出して出力する診断支援システムが提案されている。また、パラメータ条件が異なる複数の機械学習モデルのそれぞれに同一の医用データを入力することで得られたモデルごとの出力結果と、各出力結果に対する成否の判定結果とに基づいて、各機械学習モデルを評価する医用情報処理装置が提案されている。
【先行技術文献】
【特許文献】
【0004】
【特許文献1】国際公開第2019/021386号
【特許文献2】特開2020-204970号公報
【発明の概要】
【発明が解決しようとする課題】
【0005】
ところで、医用画像を用いて診断を行う多くの医師は多忙であり、自分の診断スキルを向上させる機会を確保することが難しいという問題がある。例えば、他の医師による診断結果を参照したり、医師同士で診断結果をピアレビューすることが診断スキルの向上に役立つが、多忙な医師はそのような機会を確保することが難しい。
【0006】
1つの側面では、本発明は、診断スキル向上に役立つ情報を提供可能な診断支援プログラム、診断支援方法および診断支援装置を提供することを目的とする。
【課題を解決するための手段】
【0007】
1つの案では、コンピュータに、第1の人物により作成された学習データを用いた機械学習によって作成された第1の疾患識別モデルを用いて、入力された医用画像に対応する疾患を識別して第1の識別結果を出力し、第2の人物により作成された学習データを用いた機械学習によって作成された第2の疾患識別モデルを用いて、医用画像に対応する疾患を識別して第2の識別結果を出力し、第1の識別結果と第2の識別結果とを比較可能な状態で表示させる、処理を実行させる診断支援プログラムが提供される。
【0008】
また、1つの案では、上記の診断支援プログラムに基づく処理と同様の処理をコンピュータが実行する診断支援方法が提供される。
さらに、1つの案では、上記の診断支援プログラムに基づく処理と同様の処理を実行する診断支援装置が提供される。
【発明の効果】
【0009】
1つの側面では、診断スキル向上に役立つ情報を提供できる。
【図面の簡単な説明】
【0010】
【
図1】第1の実施の形態に係る診断支援装置の構成例および処理例を示す図である。
【
図2】第2の実施の形態に係る診断支援システムの構成例を示す図である。
【
図3】サーバのハードウェア構成例を示す図である。
【
図4】サーバおよびユーザ端末が備える処理機能の構成例を示す図である。
【
図6】学習データ作成のための画面表示例を示す図である。
【
図7】ユーザモデルおよび集合知モデルの作成について説明するための図である。
【
図8】疾患識別モデルにおける診断フローの例を示す図である。
【
図9】診断対象の病理画像の取得処理を示す図である。
【
図10】診断対象の病理画像の取得処理手順を示すフローチャートの例である。
【
図11】サーバによる診断処理手順を示すフローチャートの例である。
【
図12】診断結果の基本表示画面の表示例を示す図である。
【
図14】他者モデル選択画面の表示例を示す図である。
【
図15】診断フロー表示画面の表示例を示す図である。
【発明を実施するための形態】
【0011】
以下、本発明の実施の形態について図面を参照して説明する。
〔第1の実施の形態〕
図1は、第1の実施の形態に係る診断支援装置の構成例および処理例を示す図である。
図1に示す診断支援装置1は、医用画像の診断作業を支援する情報処理装置である。特に、診断支援装置1は、診断スキルの向上に役立つ情報をユーザに提供する。なお、医用画像としては、例えば、顕微鏡画像、CT(Computed Tomography)画像、MRI(Magnetic Resonance Imaging)などを適用可能である。
【0012】
診断支援装置1は、処理部2を有する。処理部2は、例えばプロセッサである。処理部2は、疾患識別対象の医用画像3の入力を受け付けると、次のような処理を実行する。
処理部2は、疾患識別モデルM1を用いて、入力された医用画像3に対応する疾患を識別する(ステップS1)。疾患識別モデルM1は、人物U1により作成された学習データ4a,4b,・・・を用いた機械学習によって作成される。
【0013】
また、処理部2は、疾患識別モデルM2を用いて、入力された医用画像3に対応する疾患を識別する(ステップS2)。疾患識別モデルM2は、人物U1とは異なる人物U2により作成された学習データ5a,5b,・・・を用いた機械学習によって作成される。
【0014】
なお、疾患識別モデルM1,M2は、同一種類の疾患(ラベル)を識別する学習済みモデルである。また、人物U1,U2の一方は、この診断支援装置1から出力される疾患の識別結果を視認するユーザ自身であってもよい。
【0015】
処理部2は、疾患識別モデルM1を用いた疾患の識別結果と、疾患識別モデルM2を用いた疾患の識別結果とを、比較可能な状態で表示させる(ステップS3)。
図1では、ステップS3の処理によって識別結果表示画面6が表示されるものとする。識別結果表示画面6には、入力された医用画像3とともに、疾患識別モデルM1を用いた疾患の識別結果情報7aと、疾患識別モデルM2を用いた疾患の識別結果情報7bとが並列して表示されている。
図1の例では、疾患識別モデルM1,M2は、疾患D1か疾患D2かを識別するものとする。一例として、識別結果情報7aとして、疾患識別モデルM1によって疾患D1,D2のそれぞれについて算出された確率が表示され、識別結果情報7bとして、疾患識別モデルM2によって疾患D1,D2のそれぞれについて算出された確率が表示されている。
【0016】
ここで、学習データ4a,4b,・・・および学習データ5a,5b,・・・のそれぞれは、例えば、教師データとしての医用画像と、疾患D1,D2のいずれであるかを示す正解ラベルとを含む。学習データ4a,4b,・・・は、人物U1による診断によってラベル付けされたデータであるので、疾患識別モデルM1は、人物U1による診断のスキルや傾向を反映したものとなる。したがって、疾患識別モデルM1を用いた疾患の識別結果は、人物U1による診断結果を疑似的に示すことになる。同様に、学習データ5a,5b,・・・は、人物U2による診断によってラベル付けされたデータであるので、疾患識別モデルM2は、人物U2による診断のスキルや傾向を反映したものとなる。したがって、疾患識別モデルM2を用いた疾患の識別結果は、人物U2による診断結果を疑似的に示すことになる。
【0017】
ユーザは、疾患識別モデルM1を用いた疾患の識別結果と、疾患識別モデルM2を用いた疾患の識別結果とが比較可能な状態で表示された画面を視認することで、医用画像3に対する人物U1,U2のそれぞれによる診断結果を疑似的に参照できる。そして、ユーザは、それらの診断結果を比較検討し、ユーザ自身の診断スキル向上のために役立てることができる。特に、人物U1,U2の一方がユーザ自身である場合、ユーザは、同一の医用画像3に対するユーザ自身の診断結果と他者による診断結果とを、他者と実際にコミュニケーションをとることなく比較検討できる。
【0018】
このように、第1の実施の形態に係る診断支援装置1は、ユーザに対して診断スキル向上に役立つ情報を提供できる。ユーザは、診断スキル向上に役立つ情報を容易に取得でき、また、診断スキル向上に役立つ機会を容易に得ることが可能となる。
【0019】
〔第2の実施の形態〕
次に、医用画像の例として、顕微鏡によって得られる病理画像を適用した場合について説明する。
【0020】
図2は、第2の実施の形態に係る診断支援システムの構成例を示す図である。
図2に示す診断支援システムは、サーバ100とユーザ端末200a,200b,200c,・・・を含む。
【0021】
サーバ100は、ユーザに対して病理画像を用いた診断支援サービスを提供するサーバコンピュータである。サーバ100は基本的に、病理画像に基づいて疾患を識別する疾患識別モデルを、ユーザが作成した学習データを用いた機械学習によって作成する。そして、サーバ100は、ユーザの操作によって入力された診断対象の病理画像を学習済みの疾患識別モデルに入力し、疾患の識別結果(診断結果)を出力する。
【0022】
ユーザ端末200a,200b,200c,・・・は、サービスの提供を受けるユーザが使用する端末装置であり、例えば、パーソナルコンピュータである。本実施の形態では、ユーザとして病理診断を行う病理医を想定する。
【0023】
なお、以下の説明では、ユーザ端末200a,200b,200c,・・・を特に区別せずに指し示す場合には、「ユーザ端末200」と記載する場合がある。
ところで、近年、病理医の不足が深刻化している。このため、病理医は診断業務に追われており、診断スキル向上のための自己研鑽や教育の機会を確保することが難しくなっている。例えば、病理医が他の病理医とのコミュニケーションやピアレビューの場を持つことが難しいことから、各病理医の診断基準に偏りが生じる可能性がある。また、病理医が学会やカンファレンスに参加できず、病理医の間で知見を共有することが難しくなっている。
【0024】
このような問題に対して、本実施の形態のサーバ100は、それぞれ異なるユーザの知見に基づいて作成された疾患識別モデルを用いて、診断対象の病理画像に基づく疾患識別処理を実行し、各処理による識別結果を1人のユーザに提示できるようになっている。このような疾患識別モデルとしては、ユーザ自身によって作成された識別疾患モデル(自己モデル)に加えて、他のユーザによって作成された疾患識別モデル(他者モデル)や、複数のユーザの知見を基に作成された疾患識別モデル(集合知モデル)を用いることが可能になっている。
【0025】
サーバ100は、自己モデルを用いた識別結果と、それ以外の識別疾患モデルを用いた識別結果とを、画面上で比較可能な状態にしてユーザ端末200に表示させる。これにより、ユーザは、ユーザ自身の診断結果と他の特定のユーザまたは複数のユーザの診断結果とを疑似的に比較検討できるようになる。このため、ユーザに対して診断スキル向上のための自己研鑽や教育の機会を容易に与えることが可能となる。特に、他者モデルや集合知モデルとして、経験豊富で高い診断スキルを有する病理医による信頼性の高い疾患識別モデルを用いることができる。このような信頼性の高い疾患識別モデルを用いた識別結果と、自己モデルを用いた識別結果とをユーザが比較検討できるようにすることで、ユーザの診断スキルを高めることが可能となる。
【0026】
なお、上記の診断支援サービスは、病理医の教育目的だけでなく、例えば、病理医による診断実務を補助するために利用されてもよい。
図3は、サーバのハードウェア構成例を示す図である。サーバ100は、例えば、
図3に示すようなコンピュータとして実現される。
図3に示すサーバ100は、プロセッサ101、RAM(Random Access Memory)102、HDD(Hard Disk Drive)103、GPU(Graphics Processing Unit)104、入力インタフェース(I/F)105、読み取り装置106および通信インタフェース(I/F)107を備える。
【0027】
プロセッサ101は、サーバ100全体を統括的に制御する。プロセッサ101は、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)またはPLD(Programmable Logic Device)である。また、プロセッサ101は、CPU、MPU、DSP、ASIC、PLDのうちの2以上の要素の組み合わせであってもよい。
【0028】
RAM102は、サーバ100の主記憶装置として使用される。RAM102には、プロセッサ101に実行させるOS(Operating System)プログラムやアプリケーションプログラムの少なくとも一部が一時的に格納される。また、RAM102には、プロセッサ101による処理に必要な各種データが格納される。
【0029】
HDD103は、サーバ100の補助記憶装置として使用される。HDD103には、OSプログラム、アプリケーションプログラム、および各種データが格納される。なお、補助記憶装置としては、SSD(Solid State Drive)などの他の種類の不揮発性記憶装置を使用することもできる。
【0030】
GPU104には、表示装置104aが接続されている。GPU104は、プロセッサ101からの命令にしたがって、画像を表示装置104aに表示させる。表示装置104aとしては、液晶ディスプレイや有機EL(ElectroLuminescence)ディスプレイなどを使用できる。
【0031】
入力インタフェース105には、入力装置105aが接続されている。入力インタフェース105は、入力装置105aから出力される信号をプロセッサ101に送信する。入力装置105aとしては、キーボードやポインティングデバイスなどを使用できる。ポインティングデバイスとしては、マウス、タッチパネル、タブレット、タッチパッド、トラックボールなどを使用できる。
【0032】
読み取り装置106には、可搬型記録媒体106aが脱着される。読み取り装置106は、可搬型記録媒体106aに記録されたデータを読み取ってプロセッサ101に送信する。可搬型記録媒体106aとしては、光ディスク、半導体メモリなどを使用できる。
【0033】
通信インタフェース107は、ネットワーク107aを介してユーザ端末200a,200b,200c,・・・などの他の装置との間でデータの送受信を行う。
以上のようなハードウェア構成によって、サーバ100の処理機能を実現することができる。なお、ユーザ端末200も
図3に示すようなハードウェア構成を有するコンピュータとして実現可能である。
【0034】
図4は、サーバおよびユーザ端末が備える処理機能の構成例を示す図である。
サーバ100は、病理画像記憶部111、診断支援用データ記憶部112、病理画像表示制御部113および診断支援部114を備える。病理画像記憶部111および診断支援用データ記憶部112は、HDD103など、サーバ100が備える記憶装置の記憶領域である。病理画像表示制御部113および診断支援部114の処理は、例えば、プロセッサ101が所定のプログラムを実行することで実現される。
【0035】
サーバ100は、ユーザ端末200に対して、病理画像の表示サービスと、病理画像を用いた診断支援サービスとを提供する。病理画像記憶部111および病理画像表示制御部113は前者のサービスに関連し、診断支援用データ記憶部112および診断支援部114は後者のサービスに関連する。なお、前者のサービスと後者のサービスはそれぞれ別のサーバによって提供されてもよく、この場合、病理画像記憶部111および病理画像表示制御部113と、診断支援用データ記憶部112および診断支援部114とは、それぞれ別のサーバに実装される。
【0036】
病理画像記憶部111には、ユーザが閲覧可能な病理画像が記憶される。病理画像表示制御部113は、ユーザ端末への操作によってユーザに指定された病理画像を病理画像記憶部111から取得し、ユーザ端末200に送信する。
【0037】
診断支援用データ記憶部112には、診断支援部114によって参照される各種のデータが記憶される。例えば、診断支援用データ記憶部112には、学習済みの疾患識別モデルを示すデータ(ニューラルネットワーク上の重み係数など)などが記憶される。診断支援部114は、ユーザ端末200から診断対象の病理画像を取得し、その病理画像を疾患識別モデルに入力して得られた診断結果をユーザ端末200に表示させる。
【0038】
ユーザ端末200は、病理画像ビューア201と診断支援エージェント202を備える。病理画像ビューア201および診断支援エージェント202の処理は、例えば、ユーザ端末200が備える図示しないプロセッサが所定のプログラムを実行することで実現される。
【0039】
病理画像ビューア201は、病理画像表示制御部113から送信された病理画像を、ユーザ端末200に接続された表示装置に表示させる。
診断支援エージェント202は、診断支援サービスに対するユーザインタフェース機能を実現する。例えば、診断支援エージェント202は、学習用データとして用いる病理画像や診断対象の病理画像を取得して、診断支援部114に送信する。このような病理画像の取得方法の1つとして、診断支援エージェント202は、病理画像ビューア201によって表示された病理画像を取得できるようになっている。また、診断支援エージェント202は、疾患識別モデルを用いた診断結果を、ユーザ端末200に接続された表示装置に表示させる。
【0040】
図5は、診断支援部の内部構成例を示す図である。診断支援部114は、学習データ収集部121、学習処理部122、診断対象検出部123、疾患識別部124、類似画像検索部125および診断結果表示処理部126を備える。
【0041】
学習データ収集部121は、疾患識別モデルの学習に用いる学習データをユーザ端末200から収集する。学習データは、ユーザによって疾患名がラベル付けされた病理画像であり、ユーザ端末200に対する操作によってユーザによって作成される。学習データ収集部121は、このような学習データをユーザ端末200の診断支援エージェント202からユーザごとに取得し、学習データ記憶部131に格納する。なお、学習データ記憶部131は、
図4の診断支援用データ記憶部112に確保される記憶領域である。
【0042】
学習処理部122は、学習データ記憶部131に格納された学習データを用いて機械学習を実行し、疾患識別モデルを作成する。具体的には、学習処理部122は、あるユーザによって作成された学習データを用いて、そのユーザに対応する疾患識別モデル(ユーザモデル)を作成する。その結果、それぞれ個別のユーザに対応するユーザモデル141a,141b,・・・が作成される。また、学習処理部122は、複数のユーザのそれぞれによって作成された学習データを用いて集合知モデル142を作成する。
【0043】
診断対象検出部123は、ユーザ端末200の診断支援エージェント202から診断対象の病理画像を受信し、その病理画像を一定サイズの画像ブロックに分割する。診断対象検出部123は、分割された画像ブロックの中から、疾患部位を含む可能性の高い画像ブロックを検出する。診断対象ブロックの検出は、機械学習によってあらかじめ作成された画像認識モデル143を用いて実行される。画像認識モデル143は、疾患部位の病理画像と疾患部位でない病理画像とを用いて細胞の形状などの病理画像の特徴を学習することで作成された学習済みモデルである。診断対象検出部123は、画像認識モデル143によって疾患部位であると判定された画像ブロック(診断対象ブロック)を、疾患識別部124および類似画像検索部125に入力する。
【0044】
疾患識別部124は、診断対象ブロックを疾患識別モデルに入力することで疾患を識別する。この処理では、疾患識別部124は、ユーザモデル141a,141b,・・・のうち、診断支援対象のユーザに対応する自己モデル、およびあらかじめ設定された他者モデルと、集合知モデル142とを用い、各モデルによる疾患識別結果を個別に出力する。
【0045】
類似画像検索部125は、症例画像記憶部132に格納された症例画像の中から、診断対象ブロックと類似する類似画像を検索する。症例画像記憶部132は、
図4の診断支援用データ記憶部112に確保される記憶領域である。症例画像記憶部132には、疾患部位の病理画像(症例画像)があらかじめ格納される。なお、類似画像検索部125の検索対象画像は、症例画像記憶部132に格納された病理画像の代わりに、学習データ記憶部131に格納された疾患部位の病理画像であってもよい。この場合、検索対象の病理画像は、経験豊富で高い知見を有する病理医によってラベル付けされたものであることが望ましい。
【0046】
また、類似画像検索部125による検索は、機械学習によってあらかじめ作成された類似度計算モデル144を用いて実行される。類似度計算モデル144は、入力される2つの画像から適切な特徴量を算出し、各画像の特徴量間の類似度を算出する処理を学習することで作成された学習済みモデルである。
【0047】
類似画像検索部125は、症例画像記憶部132から症例画像を1つずつ選択し、類似度計算モデル144を用いて、選択された症例画像と診断対象ブロックのそれぞれの特徴量を算出し、特徴量間の類似度を算出する。例えば、各画像を基に複数種類の特徴量が算出されて多次元ベクトル空間にマッピングされ、その空間における特徴量間の距離の算出結果を基に類似度が算出される。類似画像検索部125は、症例画像記憶部132に格納された症例画像の中から、診断対象ブロックとの類似度が高い順に所定数の症例画像を抽出する。
【0048】
診断結果表示処理部126は、疾患識別部124による疾患の識別結果をユーザに提示するための診断結果表示画像を作成し、診断支援エージェント202に送信する。基本的に、診断結果表示処理部126は、自己モデルによる疾患識別結果と、他者モデルまたは集合知モデル142の少なくとも一方による疾患識別結果とが、比較可能な状態で表示された画面を作成する。これにより、ユーザ自身の知見に基づく疾患識別結果を、特定の他者や複数の他者の知見に基づく疾患識別結果と容易に比較可能にする。また、この画面には、自己モデルによって疾患部位と識別された画像ブロックも表示される。これにより、疾患識別結果に対応する病理画像の領域も同時に比較可能にする。
【0049】
さらに、診断結果表示処理部126は、ユーザモデルの作成者の指定を受け付けることにより、任意の他者モデルによる疾患識別結果を画面に表示させることもできる。この場合、診断結果表示処理部126は、指定された作成者に対応する他者モデルを用いた疾患識別処理を疾患識別部124に実行させ、その識別結果を画面に表示させる。
【0050】
また、診断結果表示処理部126は、上記の複数の疾患識別結果や疾患部位の画像とともに、その画像と類似する過去の症例画像を画面に表示させることができる。この症例画像は、類似画像検索部125から取得される。また、症例画像とともに、この症例画像の診断結果を示す情報(疾患名など)も表示される。これにより、疾患部位として識別された画像ブロックと、これと類似する過去の症例画像および診断結果とを比較検討できるようにする。
【0051】
次に、ユーザモデル(自己モデル)の作成処理について説明する。
まず、
図6は、学習データ作成のための画面表示例を示す図である。
学習データ作成の際、学習データ収集部121はまず、学習データとして収集する画像を取得するための画像トリミング画面300をユーザ端末200に表示させる。画像トリミング画面300には、病理画像表示部301、トリミングボタン302および確定ボタン303を含む。診断支援エージェント202が病理画像を取り込むと、病理画像表示部301には、取り込まれた病理画像304が表示される。病理画像の取り込みは、例えば、病理画像のファイル名を指定する方法や、そのファイルを示すアイコンを病理画像表示部301にドラッグ・アンド・ドロップする方法、画面上に表示された病理画像を病理画像表示部301にドラッグ・アンド・ドロップする方法などによって行われる。また、後述する、デスクトップ画面をキャプチャする方法を用いて病理画像が取り込まれてもよい。
【0052】
病理画像が取り込まれた後、ユーザは、トリミングボタン302を押下することで、取り込まれた病理画像の中から学習データとして取得する画像領域を指定することが可能となる。例えば、トリミングボタン302の押下後に、マウス操作によってトリミング領域305が指定される。トリミング領域305を指定した状態で確定ボタン303を押下することで、学習データとして取得する画像領域が決定される。すると、学習データ収集部121は次に、学習データ保存画面310をユーザ端末200に表示させる。
【0053】
学習データ保存画面310は、画像表示部311とラベル指定部312を含む。画像表示部311には、トリミング領域305から切り出された部分病理画像313が表示される。ユーザは、ラベル指定部312に対する入力操作により、部分病理画像313に付加するラベルを指定できる。
図6では、大腸における腫瘍の種類を示すラベルが、チェックボックスを用いて指定される場合を例示している。
【0054】
ラベルが指定され、ラベル指定部312内の保存ボタン314が押下されると、診断支援エージェント202は、部分病理画像313とラベルの指定情報とをサーバ100に送信する。学習データ収集部121は、受信した部分病理画像313に指定されたラベルを付加することで学習データを作成し、ユーザの識別情報に対応付けて学習データ記憶部131に格納する。
【0055】
このような手順により、ユーザは、ユーザ端末200の操作によって自己モデル作成用の学習データをサーバ100に保存できる。このようにして保存された学習データは、ユーザ自身の診断結果に基づいて作成されたものとなる。ユーザの学習データがある程度の数だけ保存された後、ユーザがユーザ端末200から学習開始を指示すると、学習処理部122は、それらの学習データを用いて機械学習を実行し、ユーザに対応するユーザモデルを作成する。
【0056】
図7は、ユーザモデルおよび集合知モデルの作成について説明するための図である。
図7では、ユーザA,B,C,・・・のそれぞれに対応するユーザモデル141a,141b,141c,・・・が作成されるものとする。
【0057】
この場合、
図6に示した手順により、ユーザAによって作成された学習データ131a-1,131a-2,131a-3,・・・が学習データ記憶部131に格納される。そして、これらの学習データ131a-1,131a-2,131a-3,・・・を用いた機械学習により、ユーザAに対応するユーザモデル141aが作成される。同様に、ユーザBによって作成された学習データ131b-1,131b-2,131b-3,・・・が学習データ記憶部131に格納される。そして、これらの学習データ131b-1,131b-2,131b-3,・・・を用いた機械学習により、ユーザBに対応するユーザモデル141bが作成される。また、ユーザCによって作成された学習データ131c-1,131c-2,131c-3,・・・が学習データ記憶部131に格納される。そして、これらの学習データ131c-1,131c-2,131c-3,・・・を用いた機械学習により、ユーザCに対応するユーザモデル141cが作成される。
【0058】
このようにして、個々のユーザによる診断結果を反映した学習済みモデルが作成される。さらに、ユーザA,B,C,・・・によって作成された学習データを用いた機械学習により、集合知モデル142が作成される。これにより、集合知モデル142は、ユーザA,B,C,・・・による診断結果を反映した、ある程度診断精度の高い学習済みモデルとなる。
【0059】
ただし、集合知モデル142は、ユーザモデルの作成元のユーザA,B,C,・・・のうち、特定の複数のユーザによって作成された学習データだけを用いた機械学習により作成されてもよい。特定の複数のユーザとしては、例えば、経験豊富で高い診断スキルを有する病理医が選択される。これにより、集合知モデル142の診断精度を高めることができる。なお、集合知モデル142は、学習データ収集部121によって収集された学習データでなく、別途上記の特定の複数のユーザによって作成された学習データを用いて作成されてもよい。
【0060】
図8は、疾患識別モデルにおける診断フローの例を示す図である。学習処理部122によって作成される疾患識別モデル(ユーザモデルおよび集合知モデル)は、実際には複数の疾患識別モデル(以下、「内部モデル」と記載する)を組み合わせて形成されてもよい。以下の説明では、疾患識別モデルにおける複数の内部モデルを用いた処理の流れを「診断フロー」と記載する。
【0061】
図8では、内部モデルとして、腫瘍か非腫瘍かを識別する腫瘍・非腫瘍モデル151と、悪性の腫瘍か良性の腫瘍かを識別する悪性・良性モデル152と、腺癌かカルチノイドかを識別する腺癌・カルチノイドモデル153と、高分化型か中低分化型かを識別する高分化・中低分化モデル154と、HA(Hyperplastic Polyp)かSSA/P(Sessile Serrated Adenoma/Polyp)かを識別するHA・SSA/Pモデル155とが含まれる場合を例示している。
【0062】
図8の例では、入力された画像ブロックに対して、まず腫瘍・非腫瘍モデル151によって腫瘍か非腫瘍かが識別される。腫瘍である場合、次に悪性・良性モデル152によって悪性の腫瘍か良性の腫瘍かが識別される。悪性の腫瘍である場合、次に腺癌・カルチノイドモデル153によって腺癌かカルチノイドかが識別される。腺癌である場合、次に高分化・中低分化モデル154によって高分化型か中分化型または低分化型(中低分化型)かが識別される。また、悪性・良性モデル152によって良性の腫瘍と識別された場合、次にHA・SSA/Pモデル155によってHAかSSA/Pかが識別される。このような診断フローにより、入力された画像ブロックが、高分化型の腺癌、中低分化型の腺癌、カルチノイド、HA、SSA/P、非腫瘍のいずれであるかを識別する疾患識別処理が実行される。
【0063】
ユーザは、自己モデルにおける診断フローの内容(どのような内部モデルをどのように組み合わせて疾患識別処理を実行するか)を任意に設定できる。そして、学習処理部122は、ユーザによって設定された診断フローを有する疾患識別モデルを、機械学習によって作成する。なお、集合知モデルの診断フローは、管理者側であらかじめ設定されるが、時間経過に伴って再設定されてもよい。
【0064】
次に、作成された疾患識別モデルを用いた診断処理について説明する。
図9は、診断対象の病理画像の取得処理を示す図である。
図9では、ユーザ端末200において表示装置211,212によるマルチモニタ環境が構築されているとする。一例として、表示装置211が主モニタであり、表示装置212が副モニタであるとする。
【0065】
表示装置211には、病理画像ビューア201によってビューア画面320が表示されている。ビューア画面320には、病理画像記憶部111から読み出された病理画像321が表示されている。一方、表示装置212には、診断支援エージェント202によって診断開始画面330が表示されている。
【0066】
この状態で、診断開始画面330の読み込みボタン331が押下されたとする。すると、診断支援エージェント202は、主モニタである表示装置211のデスクトップ画面をキャプチャし、さらに、キャプチャされたデスクトップ画面の画像から病理画像321を抽出する。病理画像321の抽出は、例えば、デスクトップ画面の画像から、所定の特徴を有する領域を抽出することで実行される。このような抽出が、学習済みモデルを用いて実行されてもよい。
【0067】
抽出された病理画像321は、診断開始画面330の画像表示部332に表示される。そして、診断開始画面330の診断ボタン333が押下されると、診断支援エージェント202は、抽出された病理画像321をサーバ100に送信し、診断処理の開始を指示する。
【0068】
このような処理により、ユーザは、病理画像ビューア201を用いて病理画像を表示させておくだけで、診断対象の病理画像を簡単な操作で取得し、その病理画像についての診断処理をサーバ100に実行させることができる。また、デスクトップ画面をキャプチャし、キャプチャされたデスクトップ画面の画像から特徴量に基づいて病理画像が抽出されることで、病理画像ビューア201がどのメーカのどの製品かに関係なく、診断対象の病理画像を取得できる。
【0069】
図10は、診断対象の病理画像の取得処理手順を示すフローチャートの例である。
[ステップS11]診断支援エージェント202は、診断開始画面330の読み込みボタン331が押下されると、主モニタのデスクトップ画面をキャプチャする。
【0070】
[ステップS12]診断支援エージェント202は、キャプチャされたデスクトップ画面の画像から病理画像の領域を抽出し、抽出された病理画像を診断開始画面330の画像表示部332に表示させる。
【0071】
[ステップS13]診断支援エージェント202は、診断開始画面330の診断ボタン333が押下されると、抽出された病理画像をサーバ100に送信し、診断処理の開始を指示する。
【0072】
なお、上記の処理では、デスクトップ画面をキャプチャする方法を用いたが、例えば、病理画像ビューア201のウィンドウをキャプチャする方法を用いることで、シングルモニタ環境でも診断対象の病理画像を簡単な操作で取得できる。例えば、診断支援エージェント202は、読み込みボタン331が押下されると、あらかじめ決められた特定のアプリケーションのウィンドウが表示されているかを判定する。診断支援エージェント202は、該当するアプリケーションのウィンドウが表示されている場合、そのアプリケーションのウィンドウをキャプチャし、病理画像を抽出する。また、別の方法として、診断支援エージェント202は、読み込みボタン331が押下されると、現在表示されているウィンドウを示す情報を一覧表示して、病理画像ビューア201のウィンドウをユーザに選択させ、選択されたウィンドウをキャプチャしてもよい。この場合、病理画像ビューア201がどのメーカのどの製品かに関係なく、診断対象の病理画像を取得できる。
【0073】
図11は、サーバによる診断処理手順を示すフローチャートの例である。
[ステップS21]診断対象検出部123は、ユーザ端末200から送信された病理画像および診断開始指示を受信する。
【0074】
[ステップS22]診断対象検出部123は、受信した病理画像を、一定サイズの画像ブロックに分割する。
[ステップS23]診断対象検出部123は、分割された各画像ブロックについて、画像認識モデル143を用いて疾患部位か否かを識別し、疾患部位と識別された画像ブロックを診断対象ブロックとして特定する。
【0075】
[ステップS24]ステップS29までの診断処理ループが、診断対象ブロックのそれぞれについて実行される。
[ステップS25]疾患識別部124は、診断対象ブロックを自己モデルに入力して演算を実行し、疾患の識別結果を出力する。
【0076】
[ステップS26]疾患識別部124は、診断対象ブロックをあらかじめ指定された他者モデルに入力して演算を実行し、疾患の識別結果を出力する。
[ステップS27]疾患識別部124は、診断対象ブロックを集合知モデルに入力して演算を実行し、疾患の識別結果を出力する。
【0077】
[ステップS28]類似画像検索部125は、類似度計算モデル144を用いて、診断対象ブロックと症例画像記憶部132に格納された各症例画像との類似度を算出する。類似画像検索部125は、症例画像記憶部132に格納された症例画像の中から、診断対象ブロックとの類似度が高い順に所定数の症例画像を類似画像として抽出する。このとき、類似画像とともに、類似画像についての診断結果を示す情報と、診断対象ブロックとの類似度とが出力される。
【0078】
[ステップS29]すべての診断対象ブロックについて診断処理ループが実行されると、処理がステップS30に進められる。
[ステップS30]診断結果表示処理部126は、ステップS25~S28で得られた情報に基づき、診断結果を示す画面を生成してユーザ端末200に表示させる。
【0079】
上記処理では、病理画像内の画像ブロックの中から、画像認識モデル143によって疾患部位の可能性が高い画像ブロックのみが選別されて、選別された画像ブロックに対する疾患識別処理が実行される。これにより、疾患識別処理が実行される画像ブロック数が抑制されるので、識別結果を得られるまでの時間を短縮できる。また、過去に診断された病理画像を用いて学習された画像認識モデル143によって画像ブロックが選別されることで、疾患部位の可能性が高い画像ブロックを正確に疾患識別の対象に含めることができ、疾患識別精度を向上させることができる。
【0080】
次に、診断結果の表示処理について説明する。
図12は、診断結果の基本表示画面の表示例を示す図である。
図9の診断ボタン333の押下に応じて
図11のステップS21~S29の処理が実行されると、診断結果表示処理部126はまず、診断結果の基本表示画面340をユーザ端末200に表示させる。
【0081】
基本表示画面340は、病理画像表示部341と識別結果表示部342を含む。病理画像表示部341には、診断対象となった病理画像343(ユーザ端末200から受信した病理画像)が表示される。識別結果表示部342には、自己モデルによる疾患の識別結果と、集合知モデルによる疾患の識別結果とが表示される。
【0082】
自己モデルによる疾患の識別結果としては、例えば、
図11のステップS25でいずれかの疾患であると識別された診断対象ブロックのうち、最も高い確率で、ある一種類の疾患と識別された診断対象ブロックが選択され、選択された診断対象ブロックについての識別結果が表示される。例えば、3つの診断対象ブロックのうち、第1の診断対象ブロックは80%の確率で高分化型の腺癌と識別され、第2の識別対象ブロックは70%の確率で高分化型の腺癌と識別され、第3の識別対象ブロックは75%でカルチノイドと識別されたとする。この場合、最も高い確率値で識別された第1の診断対象ブロックについての識別結果が表示される。
【0083】
図12の例では、自己モデルにより、ある診断対象ブロックが高分化型の腺癌であると最大の確率値で識別された場合を示している。また、識別結果を示す情報として、診断フロー内の各内部モデルでの確率値も示している。
図12の例では、
図8に例示した診断フローが用いられたものとし、腫瘍・非腫瘍モデル151により96.8%の確率で腫瘍と判定され、腺癌・カルチノイドモデル153により88.1%の確率で腺癌と判定され、高分化・中低分化モデル154により78.2%の確率で高分化型と判定され、21.8%の確率で中・低分化型と判定されたことが表示されている。
【0084】
また、病理画像表示部341の病理画像343には、自己モデルにより上記のように疾患が識別された診断対象ブロックの領域を示す枠344が表示される。これにより、疾患であると識別された画像領域をユーザが容易に確認できるようになる。
【0085】
また、集合知モデルによる疾患の識別結果としては、自己モデルにより上記のように疾患が識別された診断対象ブロックについての識別結果を示す情報が表示される。これにより、ユーザは、自己モデルにより疾患であると識別された画像領域について、自己モデルによる診断結果と集合知モデルによる診断結果とを比較検討することができる。
【0086】
なお、識別結果表示部342には、集合知モデルによる疾患の識別結果の代わりに、あらかじめ指定された他者モデルによる疾患の識別結果が表示されてもよい。この場合、自己モデルにより上記のように疾患が識別された診断対象ブロックについて、他者モデルを用いて識別した場合の識別結果を示す情報が表示される。また、識別結果表示部342には、自己モデル、他者モデルおよび集合知モデルをそれぞれ用いた疾患の識別結果が表示されてもよい。
【0087】
また、詳細ボタン345が押下されると、識別結果表示部342は、識別結果と類似画像とを並列表示する詳細表示画面をユーザ端末200に表示させる。
図13は、詳細表示画面の表示例を示す図である。詳細表示画面350は、対象画像表示部351と、識別結果表示部352と、類似画像表示部353を含む。
【0088】
対象画像表示部351には、
図11のステップS25でいずれかの疾患であると識別された診断対象ブロックのうち、最も高い確率で、ある一種類の疾患と識別された診断対象ブロック354が拡大表示される。
【0089】
識別結果表示部352には、自己モデルによる疾患の識別結果と、集合知モデルによる疾患の識別結果と、あらかじめ指定された他者モデルによる疾患の識別結果が表示される。このうち、自己モデルによる疾患の識別結果としては、対象画像表示部351に表示された診断対象ブロック354についての自己モデルによる識別結果を示す情報が表示される。この情報は、
図12の識別結果表示部342に表示された、自己モデルによる疾患の識別結果と同じである。また、集合知モデルによる疾患の識別結果としては、対象画像表示部351に表示された診断対象ブロック354についての集合知モデルによる識別結果を示す情報が表示される。同様に、他者モデルによる疾患の識別結果としては、対象画像表示部351に表示された診断対象ブロック354についての他者モデルによる識別結果を示す情報が表示される。
【0090】
このような対象画像表示部351および識別結果表示部352の表示により、ユーザは、疾患と識別された部位の拡大画像と、その部位についての自己モデル、集合知モデルおよび他者モデルによる各診断結果とを一画面上で視認し、比較検討できるようになる。
【0091】
類似画像表示部353には、
図11のステップS28で過去の症例画像の中から検索された、診断対象ブロック354に類似する類似画像が表示される。この類似画像表示部353には、類似画像とともに、その類似画像についての診断結果を示す情報と、診断対象ブロック354との類似度とが表示される。
【0092】
このような類似画像表示部353の表示により、ユーザは、診断対象の画像およびその診断結果と、類似する症例画像およびその診断結果とを一画面上で視認し、比較検討できるようになる。
【0093】
また、識別結果表示部352における他者モデルの識別結果の表示領域には、選択ボタン355が表示されている。ユーザは、選択ボタン355を押下することで、疾患識別に用いる他者モデルを選択することができる。さらに、詳細表示画面350には、診断フローボタン356が表示されている。ユーザは、診断フローボタン356を押下することで、使用している疾患識別モデルの診断フローを確認することができる。
【0094】
図14は、他者モデル選択画面の表示例を示す図である。診断結果表示処理部126は、
図13の選択ボタン355が押下されると、他者モデル選択画面360をユーザ端末200に表示させる。他者モデル選択画面360は、ユーザ選択部361とモデル情報表示部362を含む。
【0095】
ユーザ選択部361には、診断対象の臓器を選択するための選択部363と、選択可能なユーザの一覧が表示されるユーザ一覧表示部364とが表示される。ユーザ一覧表示部364には、選択部363で選択された臓器についての疾患識別モデル(ユーザモデル)を作成したユーザのユーザ名が一覧表示されるとともに、各ユーザの情報や対応するユーザモデルの情報(所属する組織や役職、識別の対象など)も表示される。ユーザ端末200を操作するユーザは、ラジオボックスに対する選択入力によって一覧表示されたユーザ名の中からユーザモデルを使用したいユーザ(他者)を選択できる。
【0096】
ユーザが選択されると、モデル情報表示部362に、選択されたユーザに対応するユーザモデル(他者モデル)に関する各種の情報が表示される。そして、ユーザが決定ボタン365を押下することで、疾患識別に用いる他者モデルが決定される。このような他者モデル選択画面360により、ユーザは診断結果を比較したい他のユーザを任意に選択・変更することができる。
【0097】
診断結果表示処理部126は、決定ボタン365が押下されると、
図13のような詳細表示画面350をユーザ端末200に再度表示させる。ここで、決定ボタン365の押下により他者モデルが変更された場合、診断結果表示処理部126は、変更後の他者モデルを用いた、対象画像表示部351の診断対象ブロック354に対する疾患識別処理を疾患識別部124に実行させる。診断結果表示処理部126は、変更後の他者モデルによる識別結果の情報を取得し、取得した情報を識別結果表示部352における他者モデルの識別結果の領域に表示させる。
【0098】
図15は、診断フロー表示画面の表示例を示す図である。診断結果表示処理部126は、
図13の診断フローボタン356が押下されると、診断フロー表示画面370をユーザ端末200に表示させる。診断フロー表示画面370には、診断フロー詳細表示部371、モデル選択ボタン372a~372c、予測結果表示部373、対象画像・ヒートマップ表示部374が表示される。
【0099】
診断フロー詳細表示部371には、モデル選択ボタン372a~372cによって選択された疾患識別モデルにおける診断フローの内容が表示される。診断フロー詳細表示部371には、モデル選択ボタン372aが押下された場合、自己モデルの診断フローが表示される。モデル選択ボタン372bが押下された場合、集合知モデルの診断フローが表示される。モデル選択ボタン372cが押下された場合、他者モデルの診断フローが表示される。
【0100】
図15の例では、診断フロー詳細表示部371には、
図8に例示した診断フローが表示されている。この例では、診断対象ブロックが高分化型の腺癌と識別されており、診断フロー詳細表示部371では、高分化型の腺癌に至るフローが実線で描画され、その他の疾患名に至るフローが破線で描画されている。
【0101】
予測結果表示部373には、診断フロー詳細表示部371に表示された診断フローに含まれる各内部モデルにより、識別対象のラベルごとに算出された確率値が表示される。
図15の例では、表示された診断フローに含まれる内部モデルのうち、腫瘍・非腫瘍モデルによって算出された確率値が「フロー1」の欄に表示され、悪性・良性モデルによって算出された確率値が「フロー2」の欄に表示され、腺癌・カルチノイドモデルによって算出された確率値が「フロー3」の欄に表示され、高分化・中低分化モデルによって算出された確率値が「フロー4」の欄に表示されている。このような表示により、ユーザは、診断フローの内部における識別の経過を確認できる。
【0102】
対象画像・ヒートマップ表示部374には、診断対象ブロック375と、診断対象ブロック375の領域に対応するヒートマップ376が表示される。ヒートマップ376は、例えば、疾患識別モデル(基本的には自己モデル)を形成するニューラルネットワークの内部から取得された特徴量に基づき、診断対象ブロック375において識別の根拠となる特徴部分を色分けして表示した画像である。ヒートマップ376により、診断対象ブロック375におけるどの部分に着目して疾患を識別したかが可視化される。
【0103】
以上説明した第2の実施の形態では、病理医自身の診断結果と他の病理医の診断結果とを疑似的に比較検討できる。病理医は、このような比較検討を、他の病理医と実際のコミュニケーションをとることなく、ユーザ端末200を操作するだけで行うことができる。このため、診断スキルの向上に役立つ機会を、多忙な病理医に対して容易に提供できる。また、診断対象の画像に類似する過去の症例画像や、診断フローの内容も病理医が確認できることにより、診断スキルの向上に役立つ様々な情報を簡単な操作で提供できる。
【0104】
なお、上記の第2の実施の形態では、医用画像として病理画像を適用した例を示したが、CT画像、MRIなどの他の種類の医用画像が適用されてもよい。
また、診断対象ブロックについての複数モデルによる診断結果を参照したユーザが、それらの診断結果に基づいてその診断対象ブロックに対応する疾患を判定し、診断対象ブロックに教師ラベルを付加して学習データとして学習データ記憶部131に格納できるようにしてもよい。これにより、学習データ記憶部131に格納されるユーザの学習データを最適化でき、このユーザに対応する自己モデルを更新された学習データを用いて再作成することで、自己モデルの疾患識別精度を向上させることが可能となる。
【0105】
なお、上記の各実施の形態に示した装置(例えば、診断支援装置1、サーバ100、ユーザ端末200)の処理機能は、コンピュータによって実現することができる。その場合、各装置が有すべき機能の処理内容を記述したプログラムが提供され、そのプログラムをコンピュータで実行することにより、上記処理機能がコンピュータ上で実現される。処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、磁気記憶装置、光ディスク、半導体メモリなどがある。磁気記憶装置には、ハードディスク装置(HDD)、磁気テープなどがある。光ディスクには、CD(Compact Disc)、DVD(Digital Versatile Disc)、ブルーレイディスク(Blu-ray Disc:BD、登録商標)などがある。
【0106】
プログラムを流通させる場合には、例えば、そのプログラムが記録されたDVD、CDなどの可搬型記録媒体が販売される。また、プログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することもできる。
【0107】
プログラムを実行するコンピュータは、例えば、可搬型記録媒体に記録されたプログラムまたはサーバコンピュータから転送されたプログラムを、自己の記憶装置に格納する。そして、コンピュータは、自己の記憶装置からプログラムを読み取り、プログラムにしたがった処理を実行する。なお、コンピュータは、可搬型記録媒体から直接プログラムを読み取り、そのプログラムにしたがった処理を実行することもできる。また、コンピュータは、ネットワークを介して接続されたサーバコンピュータからプログラムが転送されるごとに、逐次、受け取ったプログラムにしたがった処理を実行することもできる。
【符号の説明】
【0108】
1 診断支援装置
2 処理部
3 医用画像
4a,4b,5a,5b 学習データ
6 識別結果表示画面
7a,7b 識別結果情報
M1,M2 疾患識別モデル
S1~S3 ステップ
U1,U2 人物