(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-07-29
(45)【発行日】2024-08-06
(54)【発明の名称】医療診断支援装置、医療診断支援方法、およびプログラム
(51)【国際特許分類】
G16H 50/20 20180101AFI20240730BHJP
G16H 30/40 20180101ALI20240730BHJP
【FI】
G16H50/20
G16H30/40
(21)【出願番号】P 2020104348
(22)【出願日】2020-06-17
【審査請求日】2023-03-29
(73)【特許権者】
【識別番号】000001270
【氏名又は名称】コニカミノルタ株式会社
(74)【代理人】
【識別番号】110001807
【氏名又は名称】弁理士法人磯野国際特許商標事務所
(72)【発明者】
【氏名】清水 亜麻衣
(72)【発明者】
【氏名】角森 昭教
【審査官】早川 学
(56)【参考文献】
【文献】米国特許出願公開第2004/0184644(US,A1)
【文献】特開2018-082766(JP,A)
【文献】特開2015-036858(JP,A)
【文献】国際公開第2019/220833(WO,A1)
【文献】特開2007-289656(JP,A)
【文献】特開2018-116554(JP,A)
【文献】MEHRIZI, Rahil et al.,Automatic Health Problem Detection from Gait Videos Using Deep Neural Networks,arXiv,Version 1,Cornell University,2019年06月04日,pp.1-8,[検索日:2024.05.10], Internet<URL:https://arxiv.org/abs/1906.01480v1>
(58)【調査した分野】(Int.Cl.,DB名)
G16H 10/00-80/00
G06Q 50/22
A61B 1/00-90/98
(57)【特許請求の範囲】
【請求項1】
対象者の画像であって、少なくとも動画像を含む複数の画像を取得する取得部と、
前記取得部により取得された前記複数の画像の各々から、互いに異なる特徴に関する情報を抽出し、前記対象者の受診科情報に基づいて、前記互いに異なる特徴に関する情報を、更に抽出する抽出部と、
前記抽出部により抽出された前記互いに異なる特徴に関する情報から、前記対象者の疾患の候補と、前記疾患の確度又は重篤度を推定する推定部と、
前記推定部により推定された、前記対象者の疾患の候補と、前記疾患の確度又は重篤度を出力部に出力させる制御部と、を備え、
前記抽出部および前記推定部の少なくとも一方に、学習済みの識別器を適用する、
医療診断支援装置。
【請求項2】
前記複数の画像の各々は、前記対象者をそれぞれ異なる視点から撮影したものである、
請求項1に記載の医療診断支援装置。
【請求項3】
前記推定部は、1つ以上の前記疾患の候補を推定する、
請求項1又は2に記載の医療診断支援装置。
【請求項4】
前記推定部は、
前記抽出部により抽出された前記互いに異なる特徴に関する情報と前記対象者の受診科情報に基づいて、前記対象者の疾患の候補を推定する、
請求項1から3のうちいずれか1項に記載の医療診断支援装置。
【請求項5】
前記抽出部は、
前記複数の画像の各々から、互いに異なる複数の特徴に関する情報を抽出する、
請求項1から4のうちいずれか1項に記載の医療診断支援装置。
【請求項6】
前記学習済みの識別器は、
地域、病院、診療科のうち少なくとも何れかごとに設けられる、
請求項1から5のうちいずれか1項に記載の医療診断支援装置。
【請求項7】
各前記複数の画像は、動画または/および静止画を含む、
請求項1から6のうちいずれか1項に記載の医療診断支援装置。
【請求項8】
前記対象者の識別情報、動画、及び静止画を互いに関連付けて記憶する記憶部を、
更に備える請求項1から7のうちいずれか1項に記載の医療診断支援装置。
【請求項9】
前記静止画は、
異なる時刻、または/および異なる場所における、同一の前記対象者の画像である、
請求項7又は8に記載の医療診断支援装置。
【請求項10】
前記出力部は、診察室に設けられた端末により構成される、
請求項1から9のうちいずれか1項に記載の医療診断支援装置。
【請求項11】
取得部が、対象者の画像であって、少なくとも動画像を含む複数の画像を取得するステップと、
抽出部が、取得された前記複数の画像の各々から、互いに異なる特徴に関する情報を抽出するステップと、
前記抽出部が、前記対象者の受診科情報に基づいて、前記互いに異なる特徴に関する情報を、更に抽出するステップと、
推定部が、抽出された前記互いに異なる特徴に関する情報から、前記対象者の疾患の候補と、前記疾患の確度又は重篤度を推定するステップと、
制御部が、推定された、前記対象者の疾患の候補と、前記疾患の確度又は重篤度を出力部に出力させるステップと、を含み、
前記抽出部および前記推定部の少なくとも一方において、学習済みの識別器により推論させる、
医療診断支援装置が実行する医療診断支援方法。
【請求項12】
コンピュータに、
対象者の画像であって、少なくとも動画像を含む複数の画像を取得する工程、
取得された前記複数の画像の各々から、互いに異なる特徴に関する情報を抽出する工程、
前記対象者の受診科情報に基づいて、前記互いに異なる特徴に関する情報を、更に抽出する工程、
抽出された前記互いに異なる特徴に関する情報から、前記対象者の疾患の候補と、前記疾患の確度又は重篤度を推定する工程、
推定された、前記対象者の疾患の候補と、前記疾患の確度又は重篤度を出力部に出力させる工程、
前記抽出および前記推定の少なくとも一方において、学習済みの識別器により推論させる工程、
を実行させるためのプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、医療診断支援装置、医療診断支援方法、およびプログラムに関する。
【背景技術】
【0002】
従来、被験者に自身の歩行状態と膝の状態との関係性を効果的に提示する歩行分析方法に関する技術が提案されている。
【0003】
例えば、公知の歩行分析方法は、歩行中の被験者の腰部の加速度データを取得する取得工程と、母集団から予め測定された歩行サンプルデータと該母集団から予め得られた膝に関する主観的評価スコアのサンプルデータとの統計情報、及び取得工程で取得された腰部の加速度データを用いて、当該被験者の膝に関する主観的評価スコアを推定する推定工程とを含んでいる(例えば、特許文献1)。
【先行技術文献】
【特許文献】
【0004】
【発明の概要】
【発明が解決しようとする課題】
【0005】
特許文献1に記載された技術は、被験者に自身の歩行状態と膝の状態との関係性を効果的に提示する技術である。しかしながら、特許文献1に記載された技術では、被験者の膝に関する主観的評価スコアを推定するものであるため、被験者が罹患した疾患の候補を被験者に予め提示することは、難しい。
【0006】
そこで、本発明は、被験者である患者が罹患した疾患の候補を予め提示するとともに、所見を算出することにより、検査前に患者の状態を把握することができる、医療診断支援装置、医療診断支援方法、およびプログラムを提供することを課題とする。
【課題を解決するための手段】
【0007】
すなわち、本発明の上記課題は、下記の構成により解決される。
(1)対象者の画像であって、少なくとも動画像を含む複数の画像を取得する取得部と、
前記取得部により取得された前記複数の画像の各々から、互いに異なる特徴に関する情報を抽出し、前記対象者の受診科情報に基づいて、前記互いに異なる特徴に関する情報を、更に抽出する抽出部と、
前記抽出部により抽出された前記互いに異なる特徴に関する情報から、前記対象者の疾患の候補と、前記疾患の確度又は重篤度を推定する推定部と、
前記推定部により推定された、前記対象者の疾患の候補と、前記疾患の確度又は重篤度を出力部に出力させる制御部と、を備え、
前記抽出部および前記推定部の少なくとも一方に、学習済みの識別器を適用する、
医療診断支援装置。
【0008】
(2)前記複数の画像の各々は、前記対象者をそれぞれ異なる視点から撮影したものである、
(1)に記載の医療診断支援装置。
【0009】
(3)前記推定部は、1つ以上の前記疾患の候補を推定する、
(1)又は(2)に記載の医療診断支援装置。
【0010】
(4)前記推定部は、
前記抽出部により抽出された前記互いに異なる特徴に関する情報と前記対象者の受診科情報に基づいて、前記対象者の疾患の候補を推定する、
(1)から(3)のうちいずれか1つに記載の医療診断支援装置。
【0011】
(5)前記抽出部は、
前記複数の画像の各々から、互いに異なる複数の特徴に関する情報を抽出する、
(1)から(4)のうちいずれか1つに記載の医療診断支援装置。
【0012】
(6)前記学習済みの識別器は、
地域、病院、診療科のうち少なくとも何れかごとに設けられる、
(1)から(5)のうちいずれか1つに記載の医療診断支援装置。
【0013】
(7)各前記複数の画像は、動画または/および静止画を含む、
(1)から(6)のうちいずれか1つに記載の医療診断支援装置。
【0014】
(8)前記対象者の識別情報、動画、及び静止画を互いに関連付けて記憶する記憶部を、
更に備える(1)から(7)のうちいずれか1つに記載の医療診断支援装置。
【0015】
(9)前記静止画は、
異なる時刻、または/および異なる場所における、同一の前記対象者の画像である、
(7)又は(8)に記載の医療診断支援装置。
【0016】
(10)前記出力部は、診察室に設けられた端末により構成される、
(1)から(9)のうちいずれか1つに記載の医療診断支援装置。
【0019】
(11) 取得部が、対象者の画像であって、少なくとも動画像を含む複数の画像を取得するステップと、
抽出部が、取得された前記複数の画像の各々から、互いに異なる特徴に関する情報を抽出するステップと、
前記抽出部が、前記対象者の受診科情報に基づいて、前記互いに異なる特徴に関する情報を、更に抽出するステップと、
推定部が、抽出された前記互いに異なる特徴に関する情報から、前記対象者の疾患の候補と、前記疾患の確度又は重篤度を推定するステップと、
制御部が、推定された、前記対象者の疾患の候補と、前記疾患の確度又は重篤度を出力部に出力させるステップと、を含み、
前記抽出部および前記推定部の少なくとも一方において、学習済みの識別器により推論させる、
医療診断支援装置が実行する医療診断支援方法。
【0021】
(12)コンピュータに、
対象者の画像であって、少なくとも動画像を含む複数の画像を取得する工程、
取得された前記複数の画像の各々から、互いに異なる特徴に関する情報を抽出する工程、
前記対象者の受診科情報に基づいて、前記互いに異なる特徴に関する情報を、更に抽出する工程、
抽出された前記互いに異なる特徴に関する情報から、前記対象者の疾患の候補と、前記疾患の確度又は重篤度を推定する工程、
推定された、前記対象者の疾患の候補と、前記疾患の確度又は重篤度を出力部に出力させる工程、
前記抽出および前記推定の少なくとも一方において、学習済みの識別器により推論させる工程、
ことを実行させるためのプログラム。
【発明の効果】
【0023】
本発明によれば、被験者である患者の疾患の候補を予め提示するとともに、所見を算出することにより、検査前に患者の状態を把握することができる。
【0024】
これにより、問診後の必要な検査の絞り込みや、疾患の特定を補助することができるとともに、適切な検査を早期に実施することができ、疾患の早期発見・早期治療を実現することができる。
【図面の簡単な説明】
【0025】
【
図1A】第1の実施形態に係る医療診断支援装置の構成例を説明する図である。
【
図1B】第1の実施形態に係る医療診断支援装置のCPUの機能を示したブロック図である。
【
図2】第1の実施形態に係る医療診断支援装置が実行する疾患候補推定処理を示したフローチャートである。
【
図3】特徴情報抽出処理を示したフローチャートである。
【
図4】CPUが、抽出部において、複数の画像の各々から、学習済みモデルを用いて、互いに異なる特徴に関する情報を抽出する概念を示した説明図である。
【
図5】CPUが、推定部において、抽出部により抽出された互いに異なる特徴に関する情報から、学習済みモデルを用いて、対象者の疾患の候補と、疾患の確度又は重篤度を推定する概念を示した説明図である。
【
図6】CPUが、表示部の表示画面に、対象者の疾患の候補と、疾患の確度及び重篤度の推定結果を表示させた表示画面例である。
【
図7】第1の実施形態に係る医療診断支援装置の抽出部において使用される学習済みモデルの学習方法の処理を示したフローチャートである。
【
図8】第1の実施形態に係る医療診断支援装置の抽出部において使用される学習済みモデルの学習方法の概念を示した説明図である。
【
図9】第1の実施形態に係る医療診断支援装置の推定部において使用される学習済みモデルの学習方法の処理を示したフローチャートである。
【
図10】第1の実施形態に係る医療診断支援装置の推定部において使用される学習済みモデルの学習方法の概念を示した説明図である。
【
図11A】第2の実施形態に係る画像処理装置のCPUの機能を示したブロック図である。
【
図11B】第2の実施形態に係る医療診断支援装置の疾患候補推定処理を示したフローチャートである。
【
図12】対象者の疾患の候補、確度、及び重篤度の推定と特定の処理を示したフローチャートである。
【
図13】CPUが、推定部において、複数の画像の各々から、学習済みモデルを用いて、対象者の疾患の候補、確度、重篤度を推定する概念を示した説明図である。
【
図14】CPUが、特定部において、推定情報(対象者の疾患の候補、確度、重篤度)から特定情報(対象者の疾患の候補、確度、重篤度)を特定する概念を示した説明図である。
【
図15】第2の実施形態に係る医療診断支援装置の推定部において使用される学習済みモデルの学習方法の処理を示したフローチャートである。
【
図16】第2の実施形態に係る医療診断支援装置の推定部において使用される学習済みモデルの学習方法の概念を示した説明図である。
【発明を実施するための形態】
【0026】
以下に、本発明を実施するための形態について詳細に説明する。なお、以下に説明する実施の形態は、本発明を実現するための一例であり、本発明が適用される装置の構成や各種条件によって適宜修正又は変更されるべきものであり、本発明は以下の実施の形態に限定されるものではない。また、後述する各実施形態の一部を適宜組み合わせて構成してもよい。なお、同一の部材については同一の符号を付し、説明を適宜省略する。
【0027】
<第1の実施形態>
[画像処理装置全体の構成]
図1Aは、第1の実施形態に係る医療診断支援装置100の構成例を説明する図である。第1の実施形態に係る医療診断支援装置100は、CPU101、画像取得部102、学習済みモデル103、出力部104、表示部105、ROM(Read Only Memory)106、RAM(Random Access Memory)107、外部記憶装置108、及び情報取得部110を備えて構成されている。外部記憶装置108は、疾患特定プログラム109(109A,109B)を含んで構成されている。
【0028】
図1Aに示されるように、CPU101は、医療診断支援装置100の全体を統括して制御する演算処理装置である。CPU101は、ROM106や外部記憶装置108に格納されたプログラムを実行することにより、各種の制御を行う。CPU101は、例えば、外部記憶装置108に格納された疾患特定プログラム109Aを実行することにより、
図1Bに示す、取得部111、抽出部112、推定部113、及び制御部114を実現する。
【0029】
図1Bは、第1の実施形態に係る医療診断支援装置100のCPU101の機能を示したブロック図である。
【0030】
取得部111は、対象者の画像であって、少なくとも動画像を含む複数の画像を取得する機能を有している。なお、取得部111は、後述する画像取得部102から、対象者の画像であって、少なくとも動画像を含む複数の画像を取得する。なお、複数の画像には、動画または/および静止画を含むものとする。また、対象者とは、患者又は被験者のことをいう。
【0031】
抽出部112は、取得部111により取得された複数の画像の各々から、互いに異なる特徴に関する情報を抽出する機能を有している。抽出部112は、例えば、複数の画像の各々から、互いに異なる複数の特徴に関する情報を抽出する。
【0032】
推定部113は、抽出部112により抽出された互いに異なる特徴に関する情報から、対象者の疾患の候補と、疾患の確度又は重篤度を推定する機能を有している。推定部113は、1つ以上の疾患の候補を推定する。なお、確度には、確信度が含まれる。また、重篤度には、重症度が含まれる。また、推定部113は、対象者の受診科情報に基づいて、対象者の疾患の候補を推定することができる。ここで、受診科情報とは、病院における診療科のうち対象者が受診している診療科の情報のことであり、受診科情報には、例えば、診察履歴や処置や手術の履歴などが含まれる。
【0033】
制御部114は、推定部113により推定された、対象者の疾患の候補と、疾患の確度又は重篤度を出力部104に出力させる機能を有している。
【0034】
なお、第1の実施形態では、CPU101は、医療診断支援装置100の全体を統括して制御しているが、医療診断支援装置100の全体を制御する代わりに、例えば、複数のハードウェアが処理を分担することにより、医療診断支援装置100の全体を制御してもよい。
【0035】
画像取得部102は、対象者の画像であって、少なくとも動画像を含む複数の画像を取得する。画像取得部102は、例えば、待合室や受付場所などに設置されたカメラで撮影した画像(静止画)、待合室から診察室への移動をカメラで撮影した画像(動画)、又は、待合室における様子を撮像した画像(動画)を取得する。なお、複数の画像には、動画または/および静止画を含むものとする。画像取得部102は、取得した複数の画像をCPU101の取得部111に送出する。
【0036】
学習済みモデル103は、事前学習済みの識別器を含んで構成され、各種パラメータを記憶し、保存する。学習済みモデル103は、CPU101の抽出部112及び推定部113の少なくとも一方に適用される。学習済みモデル103は、任意の学習モデルを適用するこができ、例えば、地域、病院、診療科のうち少なくとも何れかごとに異なる学習モデルが設けられる。また、例えば、学習済みモデル103以外により推論する場合は、画像処理又は人間による主観評価方法により推論してもよい。なお、学習済みモデル103の詳細については、後述する。
【0037】
出力部104は、CPU101の制御部114により、対象者の疾患の候補と、疾患の確度又は重篤度を出力する。出力部104は、例えば、医師や看護師などが使用する、診察室に設けられた端末により構成される。
【0038】
表示部105は、出力部104により、疾患の候補と、疾患の確度又は重篤度を表示する。表示部105は、例えば、液晶ディスプレイ、有機ELディスプレイ、プリンタ等の表示デバイス、又は、表示するためのソフトウエア(ビューワ)で構成される。
【0039】
ROM106は、例えば、医療診断支援装置100を制御する制御プログラムを格納する。
RAM107は、例えば、DRAM(Dynamic Random Access Memory)により構成され、CPU101が制御プログラムや疾患特定プログラム109(109A,109B)を実行するために必要なデータや画像データを一時的に記憶するワーキングメモリとして機能する。
【0040】
外部記憶装置108は、例えば、ハードディスクドライブ(HDD:Hard Disk Drive)により構成され、対象者の識別情報、動画、及び静止画を互いに関連付けて記憶する。
【0041】
情報取得部110は、対象者の受診科情報を取得する。情報取得部110は、例えば、対象者である患者情報や患者生体情報の入力を受け、受診科情報を取得する。情報取得部110は、例えば、ユーザからの各種操作を受け付ける、キーボード、マウス、各種スイッチ、ボタン、タッチパネル等の操作部材から構成される。
【0042】
[医療診断支援装置の処理]
次に、上記構成からなる医療診断支援装置100が実行する疾患候補推定処理について、
図1A及び
図1Bを参照しながら、フローチャートを用いて説明する。
【0043】
図2は、第1の実施形態に係る医療診断支援装置100が実行する疾患候補推定処理を示したフローチャートである。
【0044】
まず、医療診断支援装置100のCPU101は、取得部111において、対象者の画像であって、少なくとも動画像を含む複数の画像を取得する(ステップS001)。この場合、CPU101は、画像取得部102から複数の画像を取得する。
【0045】
次に、医療診断支援装置100のCPU101は、抽出部112において、取得部111により取得された複数の画像の各々から、互いに異なる特徴に関する情報を抽出する(ステップS003)。
【0046】
この場合、CPU101は、特徴情報抽出処理を実行し(ステップS003)、互いに異なる特徴に関する情報を抽出する。ここで、
図3に示すフローチャートを用いて、医療診断支援装置100のCPU101が実行する特徴情報抽出処理について、説明する。
【0047】
図3は、特徴情報抽出処理を示したフローチャートである。
CPU101は、待合室や受付場所などに設置されたカメラで撮影した画像や、待合室から診察室への移動経路(例えば、廊下)に設置されたカメラで撮影した画像から対象者を検出すると、このフローチャートを開始する。
【0048】
CPU101は、複数の画像の各々から、画像を取得した場所と動画と静止画の何れであるかを判定する(ステップS101)。CPU101は、例えば、取得した画像が、待合室や受付場所などに設置されたカメラなどにより、対象者が静止画として撮像された画像の場合、その撮像された待合室での静止画から顔画像を抽出する(ステップS103)。
【0049】
ここで、CPU101は、対象者の画像が取得された場所と動画と静止画の何れかを判定する。CPU101は、、例えば、待合室での静止画、待合室から診察室への移動の動画、および待合室における動画のうち何れであるかを判定する。
【0050】
また、撮像された画像が静止画の場合、異なる時刻、または/および異なる場所における、同一の対象者の画像(顔画像)を取得する。
【0051】
そして、CPU101は、取得した顔画像から対象者の顔色を算出する(ステップS105)。この場合、CPU101は、例えば、対象者である患者の顔画像の黒み度、青み度などを算出する。つまり、CPU101は、待合室に設置されたカメラで撮影した静止画により、対象者の安静時の顔画像の色味の特徴を抽出する。
【0052】
一方、CPU101は、取得した画像が、待合室から診察室への移動する動画の場合(ステップS101)、その動画の中から人物を抽出する(ステップS107)。そして、CPU101は、トラッキングにより移動量(歩行距離)を算出し(ステップS109)、待合室を立った時間と診察室前に立った時間とから、対象者の歩行時間を算出する(ステップS111)。そして、CPU101は、歩行距離と歩行時間から、対象者の歩行速度(移動速度)を算出する(ステップS113)。つまり、CPU101は、待合室から診察室への移動経路に設置されたカメラで撮影した動画により、対象者の歩行速度の特徴を抽出する。
【0053】
他方、CPU101は、取得した画像が、待合室における動画の場合(ステップS101)、その動画の中から人物の肩を抽出する(ステップS115)。そして、CPU101は、対象者の息の吸い始め、息の吐き出し終わりのタイミング(呼吸タイミング)を抽出する(ステップS117)。そして、CPU101は、対象者の呼吸速度を算出する(ステップS119)。この場合、CPU101は、対象者の安静時の呼吸速度として、1分あたりの呼吸タイミングを何回繰り返したかを算出する。つまり、CPU101は、待合室に設置されたカメラで撮影した動画により、対象者の安静時の呼吸速度の特徴を抽出する。
【0054】
このように、CPU101は、抽出部112において、対象者をそれぞれ異なる視点から撮影した複数の画像の各々から、互いに異なる特徴に関する情報を抽出する。なお、CPU101は、抽出部112において、対象者をそれぞれ異なる視点から撮影した複数の画像の各々から、互いに異なる複数の特徴に関する情報を抽出してもよい。
【0055】
図4は、CPU101が、抽出部112において、複数の画像の各々から、学習済みモデル103(学習済みモデル103a~103c)を用いて、互いに異なる特徴に関する情報を抽出(算出)する概念を示した説明図である。
【0056】
図4に示すように、CPU101は、抽出部112において、静止画SIと診療科に関する情報(診療科情報)とに学習済みモデル103aを適用して、顔色情報EI1を抽出する。同様に、CPU101は、抽出部112において、動画MI1と診療科情報とに学習済みモデル103bを適用して、移動速度EI2を抽出する。同様に、CPU101は、抽出部112において、動画MI2と診療科情報とに学習済みモデル103cを適用して、呼吸速度EI3を抽出する。
【0057】
なお、抽出部112は、診療科情報を適用することにより、診療科ごとに必要な特徴(例えば、固有な特徴)を絞る(抽出する)ことができる。このため、CPU101は、例えば、診療科ごとに学習済みモデル103を切り替えてもよく、また、地域や病院ごとに固有の学習済みモデル103を適用してもよい。
【0058】
図3に戻り、CPU101は、顔色情報EI1、移動速度EI2、及び呼吸速度EI3を算出(抽出)すると、特徴情報抽出処理を終了し、
図2のフローチャートに戻り、処理を続ける。
【0059】
CPU101は、算出(抽出)された、顔色情報EI1、移動速度EI2、及び呼吸速度EI3(互いに異なる特徴に関する情報)を抽出結果として外部記憶装置108に保存する(ステップS005)。
【0060】
次に、CPU101は、抽出部112により抽出された互いに異なる特徴に関する情報から、対象者の複数の疾患の候補を推定する(ステップS007)。この場合、CPU101は、推定部113において、1つ以上の疾患の候補を推定する。CPU101は、対象者の受診科情報に基づいて、対象者の疾患の候補を推定することができる。なお、受診科情報は、任意の構成要素であり、CPU101は、推定部113において疾患の候補を推定する際、受診科情報以外の情報により推定してもよい。例えば、流行性のある疾患について、流行している地域情報に基づいて、対象者の疾患の候補を推定してもよい。
【0061】
また、CPU101は、抽出部112により抽出された互いに異なる特徴に関する情報から、疾患の確度又は重篤度を推定する(ステップS009)。
【0062】
図5は、CPU101が、推定部113において、抽出部112により抽出された互いに異なる特徴に関する情報から、学習済みモデル103dを用いて、対象者の疾患の候補と、疾患の確度又は重篤度を推定する概念を示した説明図である。
【0063】
図5に示すように、CPU101は、推定部113において、顔色情報EI1、移動速度EI2、及び呼吸速度EI3(互いに異なる特徴に関する情報)から、学習済みモデル103dを適用して、対象者の疾患の候補と、疾患の確度又は重篤度を推定する。具体的には、CPU101は、顔色情報EI1、移動速度EI2、及び呼吸速度EI3から、1.COPD(慢性閉塞性肺疾患)の確度が90%、重篤度が5と、2.肺線維症の確度が85%、重篤度が4と、3.喘息の確度が50%、重篤度が4と、推定する。
【0064】
図2のフローチャートに戻り、CPU101は、対象者の疾患の候補と、疾患の確度又は重篤度の推定結果を表示部105に表示させ(ステップS011)、疾患候補推定処理を終了する。
【0065】
図6は、CPU101が、表示部105の表示画面DSに、対象者の疾患の候補と、疾患の確度及び重篤度の推定結果を表示させた表示画面例である。
【0066】
図6に示すように、表示部105の表示画面DSには、1.COPD(慢性閉塞性肺疾患)の確度が90%、重篤度が5と、2.肺線維症の確度が95%、重篤度が4と、3.喘息の確度が50%、重篤度が4と、表示されている。
【0067】
なお、表示画面DSに表示される疾患の候補は、推定された疾患の候補の全てを表示してもよく、また、例えば、疾患の確度が50%以上の疾患の候補を表示するようにしてもよい。本実施の形態では、一例として、疾患の確度が50%以上の疾患の候補を表示している。
【0068】
このように、医療診断支援装置100のCPU101は、被験者である患者(対象者)の疾患の候補を予め提示するとともに、所見を算出することにより、医師や看護師である医療従事者などは、検査前に患者の状態を把握することができる。
【0069】
次に、抽出部112において使用される学習済みモデル103(学習済みモデル103a~103c)について、説明する。
【0070】
[学習済みモデルの生成]
抽出部112において使用される学習済みモデル103(学習済みモデル103a~103c)は、予め準備した画像情報を入力とし、出力を各目的に応じた抽出結果(例えば、顔色算出用の場合は、顔領域画像)とした多数(例えば数千から十数万組)のデータセットを学習サンプルデータとして用い、これにより機械学習する。学習器(不図示)としては、CPUおよびGPU(Graphics Processing Unit)のプロセッサを用いたスタンドアロンの高性能コンピュータ、又はクラウドコンピュータを用いることができる。
【0071】
学習器(不図示)は、パーセプトロンを組み合わせて構成したニューラルネットワークを用いた学習方法について、フローチャートを用いて説明するが、本実施形態はこれに限定されるものではなく、教師あり学習であれば、種種の手法を取り得る。例えば、学習器(不図示)には、ランダムフォレスト、サポートベクターマシン(SVM:Support Vector Machine)、ブースティング(Boosting)、ベイジアン(Bsysian)、ネットワーク線形判別法、及び非線形判別法等を適用することができる。
【0072】
[学習済みモデルの学習方法]
図7は、第1の実施形態に係る医療診断支援装置100の抽出部112において使用される学習済みモデル103(学習済みモデル103a~103c)の学習方法の処理を示したフローチャートである。
【0073】
学習器(不図示)は、教師データである学習サンプルデータを読み込む。例えば、最初であれば1組目(画像情報、疾患の候補、確度、重篤度)の学習サンプルデータを読み込み、i回目であれば、i組目の学習サンプルデータを読み込む(ステップS201)。
【0074】
学習器(不図示)は、読み込んだ学習サンプルデータのうち、入力データ(画像情報)をニューラルネットワークに入力する(ステップS203)。
【0075】
学習器(不図示)は、ニューラルネットワークの推定結果、即ち、推定された目的に応じた結果(例えば、顔色算出用の場合は、顔領域画像)を、教師データと比較する(ステップS205)。
【0076】
学習器(不図示)は、比較結果からパラメータを調整する(ステップS207)。例えば、学習器(不図示)は、バックプロパゲーション(Back-propagation:誤差逆伝搬法)という処理を行うことにより、比較結果の誤差が小さくなるように、パラメータを調整し、更新する。
【0077】
学習器(不図示)は、1~i組目まで全データの全処理が完了した場合(ステップS209のYES)、ステップS211に進む。一方、全データの全処理が完了していない場合(ステップS209のNO)、学習器(不図示)は、ステップ201に戻り、次の学習サンプルデータを読み込み、ステップS201以下の処理を繰り返す。
【0078】
学習器(不図示)は、ステップS207までの処理で構築された学習済みモデルを記憶し(ステップS211)、処理を終了する。このように、学習済みモデル103(学習済みモデル103a~103c)は、学習サンプルデータにより機械学習する。
【0079】
これにより、第1の実施形態に係る医療診断支援装置100のCPU101は、抽出部112に、学習済みモデル103(学習済みモデル103a~103c)を適用することができる。
【0080】
図8は、第1の実施形態に係る医療診断支援装置100の抽出部112において使用される学習済みモデル103(学習済みモデル103a~103c)の学習方法の概念を示した説明図である。
図8では、1種類の画像(動画)から、1つ以上の特徴を抽出(算出)している。また、各特徴は、他の種類の画像から得られる特徴とは、異なるようになっている。
【0081】
図8に示すように、学習済みモデル103aは、例えば、静止画SIから、対象者の顔色の情報として、赤み、青み、黄色み、白み、黒みなどを抽出し、評価する。具体的には、学習済みモデル103aは、赤みは「0.20」、青みは「025」、黄色みは「0」、白みは「0.10」、黒みは「0.75」と、静止画SIから抽出する。なお、各評価値は、「0」から「1」の間で、正規化されている。
【0082】
これにより、学習済みモデル103aは、静止画SIの対象者の顔色は、例えば、黒みがかっているなどと評価することができる。
【0083】
また、学習済みモデル103bは、動画MI1から、待合室を立った時間と診察室前に立った時間とから、対象者の歩行時間を抽出する。そして、学習済みモデル103bは、歩行距離と歩行時間から、対象者の歩行速度(移動速度)を抽出する。具体的には、学習済みモデル103bは、待合室から診察室までの対象者の歩行速度は、0.3[m/s]、対象者の歩行距離は、4.0[m]と抽出する。
【0084】
これにより、学習済みモデル103bは、例えば、動画MI1の対象者は、0.8[m/s]以下であることから、対象者の歩行速度が遅いと評価することができる。
【0085】
また、学習済みモデル103cは、動画MI2から、対象者の息切れ度合い(待合室での呼吸度合い)を抽出する。呼吸度合いとは、1分間に呼吸を何回繰り返すかを示す、呼吸速度である。具体的には、学習済みモデル103cは、対象者の息切れ度合いを40[回/min]と抽出する。
【0086】
これにより、学習済みモデル103cは、例えば、動画MI2の対象者は、呼吸速度が大きい、又は呼吸速度が速いと評価することができる。ここで、学習済みモデル103cは、例えば、1分間に呼吸の回数が12~20回を正常と評価し、25回以上の場合は頻呼吸と評価する。また、呼吸の回数が1分間に40回以上の場合については、COPDと評価してもよい。
【0087】
なお、息切れの表現は、特に限定されるものではなく、例えば、十分に息が吸えない、息が十分に吐けない、息が詰まるなど、息切れ度合いにより適切な表現で評価することができる。
【0088】
次に、推定部113使用される学習済みモデル103(学習済みモデル103d)について、説明する。
【0089】
[学習済みモデルの生成]
推定部113において使用される学習済みモデル103(学習済みモデル103d)は、予め準備した各特徴に対する数値データを入力とし、出力を疾患(疾患の候補、確度、重篤度)とした多数(例えば数千から十数万組)のデータセットを学習サンプルデータとして用い、これにより機械学習する。学習器(不図示)としては、CPUおよびGPUのプロセッサを用いたスタンドアロンの高性能コンピュータ、又はクラウドコンピュータを用いることができる。
【0090】
学習器(不図示)は、パーセプトロンを組み合わせて構成したニューラルネットワークを用いた学習方法について、フローチャートを用いて説明するが、本実施形態はこれに限定されるものではなく、教師あり学習であれば、種種の手法を取り得る。例えば、学習器(不図示)には、ランダムフォレスト、サポートベクターマシン(SVM:Support Vector Machine)、ブースティング(Boosting)、ベイジアン(Bsysian)、ネットワーク線形判別法、及び非線形判別法等を適用することができる。
【0091】
[学習済みモデルの学習方法]
図9は、第1の実施形態に係る医療診断支援装置100の推定部113において使用される学習済みモデル103(学習済みモデル103d)の学習方法の処理を示したフローチャートである。
図9に示すフローチャートにおいて、
図7に示すフローチャートと同一の処理については同一の符号を付し、説明を適宜、省略する。
【0092】
なお、
図9に示すフローチャートと
図7に示すフローチャートとにおける異なる処理は、ステップS301からステップS305であるため、
図7に示すフローチャートと異なる処理について説明する。
【0093】
学習器(不図示)は、教師データである学習サンプルデータを読み込む。例えば、最初であれば1組目(各特徴に対する数値データ(特徴データ)、疾患の候補、確度、重篤度)の学習サンプルデータを読み込み、i回目であれば、i組目の学習サンプルデータを読み込む(ステップS301)。
【0094】
学習器(不図示)は、読み込んだ学習サンプルデータのうち、入力データ(各特徴に対する数値データ(特徴データ))をニューラルネットワークに入力する(ステップS303)。
【0095】
学習器(不図示)は、ニューラルネットワークの推定結果、即ち、推定された疾患の候補、確度、重篤度を、教師データと比較する(ステップS305)。
【0096】
以降の処理は、
図7のフローチャートと同様であり、学習器(不図示)は、ステップS207までの処理で構築された学習済みモデルを記憶し(ステップS211)、処理を終了する。このように、学習済みモデル103(学習済みモデル103d)は、学習サンプルデータにより機械学習する。
【0097】
これにより、第1の実施形態に係る医療診断支援装置100のCPU101は、推定部113に、学習済みモデル103(学習済みモデル103d)を適用することができる。
【0098】
図10は、第1の実施形態に係る医療診断支援装置100の推定部113において使用される学習済みモデル103(学習済みモデル103d)の学習方法の概念を示した説明図である。
図10では、得られた各特徴から、疾患と重篤度との対応を学習させ、疾患の確度と重篤度を推定する。
【0099】
図10に示すように、学習済みモデル103dは、得られた各特徴から、予め学習させた識別器により、疾患と重篤度との対応を学習する。学習済みモデル103dは、例えば、「顔色の赤み」、「顔色の青み」、「顔色の黄色み」、「顔色の白み」、「顔色の黒み」、「歩行速度[m/s]」、「歩行距離[m]」、及び「呼吸速度[回/min]」などから、予め学習させた識別器により、COPDの確度と重篤度、肺線維症の確度と重篤度、喘息の確度と重篤度などを推定する。
【0100】
具体的には、識別器は、予め所定の入力データに対して、正解データとして、COPDの確度が「1」、重篤度が「5」、肺線維症の確度が「1」、重篤度が「4」、喘息の確度が「0.4」、重篤度が「3」などと学習済みである。なお、確度は、正規化された0~1の値であり、重篤度は、5段階で評価された値とする。
【0101】
学習済みモデル103dは、特徴データとして、顔色の赤みが「0.20」、顔色の青みが「0.25」、顔色の黄色みが「0」、顔色の白みが「0.1」、顔色の黒みが「0.75」、歩行速度[m/s]が「0.3」、歩行距離[m]が「4.0」、及び呼吸速度[回/min]が「40」などを取得する。
【0102】
これにより、学習済みモデル103dは、例えば、COPDの確度が「0.9」、重篤度が「5」、肺線維症の確度が「0.85」、重篤度が「4」、喘息の確度が「0.5」、重篤度が「4」などと推定することができる。
【0103】
以上説明したように、第1の実施形態における医療診断支援装置100のCPU101は、取得部111、抽出部112、推定部113、及び制御部114を備えて構成されている。医療診断支援装置100のCPU101は、抽出部112において、取得部111により取得された複数の画像の各々から、互いに異なる特徴に関する情報を抽出し、推定部113において、抽出された互いに異なる特徴に関する情報から、対象者の疾患の候補と、疾患の確度又は重篤度を推定する。
【0104】
これにより、第1の実施形態における医療診断支援装置100は、被験者である患者の疾患の候補、確度又は重篤度を予め提示することにより、検査前に患者の状態を把握することができる。
【0105】
また、第1の実施形態における医療診断支援装置100は、問診後の必要な検査の絞り込みや、疾患の特定を補助することができるとともに、適切な検査を早期に実施することができるので、疾患の早期発見・早期治療を実現することができる。
【0106】
次に、第2の実施形態に係る医療診断支援装置100について、説明する。
【0107】
<第2の実施形態>
[画像処理装置全体の構成]
第2の実施形態に係る医療診断支援装置100は、
図1Aと同様の構成を備えているが、CPU101の代わりにCPU101aを備えて構成されている。CPU101aは、第1の実施形態のCPU101と同様に、医療診断支援装置100の全体を統括して制御する演算処理装置である。
【0108】
CPU101aは、ROM106や外部記憶装置108に格納されたプログラムを実行することにより、各種の制御を行う。CPU101aは、例えば、外部記憶装置108に格納された疾患特定プログラム109Bを実行することにより、
図11Aに示す、取得部111、推定部113a、特定部115、及び制御部114を実現する。
【0109】
図11Aは、第2の実施形態に係る医療診断支援装置100のCPU101aの機能を示したブロック図である。なお、
図1Bに示す第1の実施形態に係る医療診断支援装置100のCPU101と同一の構成要素には同一の符号を付し、説明を適宜、省略する。
【0110】
取得部111は、対象者の画像であって、少なくとも動画像を含む複数の画像を取得する機能を有している。複数の画像には、動画または/および静止画とを含むものとする。
【0111】
推定部113aは、取得部111により取得された複数の画像の各々から、学習済みモデル103(学習済みの識別器)を用いて、対象者の疾患の候補と、疾患の確度又は重篤度を推定する機能を有している。推定部113aは、1つ以上の疾患の候補を推定する。また、推定部113aは、取得部111により取得された複数の画像の各々に加えて、対象者の受診科情報に基づいて、対象者の疾患の候補を推定することができる。
【0112】
特定部115は、推定部113aにより推定された、対象者の疾患の候補、疾患の確度又は重篤度から、対象者の疾患の候補、疾患の確度又は重篤度を特定する機能を有している。
【0113】
制御部114は、特定部115により特定された、疾患の候補、疾患の確度又は重篤度を出力部104に出力させる機能を有している。
【0114】
学習済みモデル103(学習済みモデル103e~103g)は、事前学習済みの識別器を含んで構成され、各種パラメータを記憶し、保存する。学習済みモデル103(学習済みモデル103e~103g)は、任意の学習モデルを適用するこができ、例えば、地域、病院、診療科のうち少なくとも何れかごとに異なる学習モデルが設けられる。なお、学習済みモデル103(学習済みモデル103e~103g)の詳細については、後述する。
【0115】
なお、第2の実施形態では、CPU101aは、医療診断支援装置100の全体を統括して制御しているが、医療診断支援装置100の全体を制御する代わりに、例えば、複数のハードウェアが処理を分担することにより、医療診断支援装置100の全体を制御してもよい。
【0116】
[医療診断支援装置の処理]
次に、上記構成からなる医療診断支援装置100が実行する疾患候補推定処理について、
図11Aを参照しながら、フローチャートを用いて説明する。
【0117】
図11Bは、第2の実施形態に係る医療診断支援装置100が実行する疾患候補推定処理を示したフローチャートである。なお、
図2のフローチャートと同一の処理には同一の符号を付し、説明を適宜省略する。
【0118】
まず、医療診断支援装置100のCPU101aは、取得部111において、対象者の画像であって、少なくとも動画像を含む複数の画像を取得する(ステップS001)。この場合、CPU101は、画像取得部102から複数の画像を取得する。なお、複数の画像には、動画または/および静止画を含むものとする。
【0119】
医療診断支援装置100のCPU101aは、推定部113aにおいて、「疾患の候補、確度、及び重篤度の推定と特定」(ステップS401)を実行する。ここで、
図12に示すフローチャートを用いて、医療診断支援装置100のCPU101aが実行する「疾患の候補、確度、及び重篤度の推定と特定」の処理について、説明する。
【0120】
図12は、「疾患の候補、確度、及び重篤度の推定と特定の処理」を示したフローチャートである。CPU101aは、推定部113aにおいて、複数の画像のうち、対象者の静止画から、疾患の候補、確度、及び重篤度を推定する(ステップS501)。推定部113aは、1つ以上の疾患の候補を推定する。推定部113aは、対象者の受診科情報に基づいて、対象者の疾患の候補を推定することができる。なお、受診科情報は、任意の構成要素である。静止画は、異なる時刻、または/および異なる場所における、同一の対象者の画像を含むものとする。
【0121】
また、CPU101aは、推定部113aにおいて、複数の画像のうち、対象者の動画(例えば、動画1)から、疾患の候補、確度、及び重篤度を推定する(ステップS503)。この場合、推定部113aは、同様に、1つ以上の疾患の候補を推定する。推定部113aは、対象者の受診科情報に基づいて、対象者の疾患の候補を推定することができる。なお、受診科情報は、任意の構成要素である。
【0122】
また、CPU101aは、推定部113aにおいて、複数の画像のうち、対象者の動画(例えば、動画2)から、疾患の候補、確度、及び重篤度を推定する(ステップS505)。この場合、推定部113aは、同様に、1つ以上の疾患の候補を推定する。推定部113aは、対象者の受診科情報に基づいて、対象者の疾患の候補を推定することができる。なお、受診科情報は、任意の構成要素である。
【0123】
図13は、CPU101aが、推定部113aにおいて、複数の画像の各々から、学習済みモデル103(学習済みモデル103e~103g)を用いて、疾患の候補、確度、及び重篤度を推定する概念を示した説明図である。
【0124】
図13に示すように、CPU101aは、推定部113aにおいて、対象者の静止画SIと診療科に関する情報(診療科情報)とに学習済みモデル103eを適用して、疾患の候補を、「COPD」、「肺線維症」、「風邪」と推定する(推定情報IF1)。この場合、推定部113aは、推定情報IF1として、COPDの確度が「90%」、重篤度が「5」と推定し、肺線維症の確度が「85%」、重篤度が「5」と推定し、風邪の確度が「10%」、重篤度が「1」と推定する。
【0125】
また、CPU101aは、推定部113aにおいて、対象者の動画(動画1)MI1と診療科情報とに学習済みモデル103fを適用して、疾患の候補を、「COPD」、「肺線維症」、「風邪」と推定する(推定情報IF2)。この場合、推定部113aは、推定情報IF2として、COPDの確度が「90%」、重篤度が「5」と推定し、肺線維症の確度が「85%」、重篤度が「4」と推定し、風邪の確度が「10%」、重篤度が「1」と推定する。
【0126】
また、CPU101aは、推定部113aにおいて、対象者の動画(動画2)MI2と診療科情報とに学習済みモデル103gを適用して、疾患の候補を、「COPD」、「肺線維症」、「喘息」と推定する(推定情報IF3)。この場合、推定部113aは、推定情報IF3として、COPDの確度が「90%」、重篤度が「5」と推定し、肺線維症の確度が「85%」、重篤度が「4」と推定し、喘息の確度が「80%」、重篤度が「4」と推定する。
【0127】
図12のフローチャートに戻り、CPU101aは、特定部115において、推定部113aにより推定された、対象者の疾患の候補、疾患の確度、又は重篤度から、対象者の疾患の候補、疾患の確度、又は重篤度を特定する(ステップS507)。この場合、特定部115は、対象者の疾患の候補、疾患の確度、又は重篤度を正規化する。
【0128】
図14は、CPU101aが、特定部115において、対象者の推定情報(疾患の候補、確度、及び重篤度)IF1~IF3から対象者の特定情報(疾患の候補、確度、及び重篤度)IF4を特定する概念を示した説明図である。
【0129】
図14に示すように、対象者の推定情報IF1では、COPDの確度が「90%」、重篤度が「5」と推定され、肺線維症の確度が「85%」、重篤度が「5」と推定され、風邪の確度が「10%」、重篤度が「1」と推定されている。対象者の推定情報IF2では、COPDの確度が「90%」、重篤度が「5」と推定され、肺線維症の確度が「85%」、重篤度が「4」と推定され、風邪の確度が「10%」、重篤度が「1」と推定されている。対象者の推定情報IF3では、COPDの確度が「90%」、重篤度が「5」と推定され、肺線維症の確度が「85%」、重篤度が「4」と推定され、喘息の確度が「80%」、重篤度が「4」と推定されている。
【0130】
CPU101aは、特定部115において、対象者の推定情報IF1~IF3から、対象者の疾患の候補を、「COPD」、「肺線維症」、「喘息」、「風邪」と特定し、COPDの確度が「90%」、重篤度が「5」と特定し、肺線維症の確度が「85%」、重篤度が「4」と特定し、喘息の確度が「27%」、重篤度が「4」と特定し、風邪の確度が「6%」、重篤度が「1」と特定している。
【0131】
ここで、
図14に示した各疾患の候補の確度を算出する際、CPU101aは、例えば、対象者の推定情報IF1~IF3における平均値を算出する。具体的には、対象者の推定情報IF1~IF3において、推定された確度を出現回数で除算して平均値を算出する。なお、推定情報IF1~IF3において確度が推定されていない場合は、「0」として計算する。
【0132】
例えば、対象者のCOPDの確度は、(0.9+0.9+0.9)/3により、0.9(90%)と算出される。対象者の肺線維症の確度は、(0.85+0.85+0.85)/3により、0.85(85%)と算出される。対象者の喘息の確度は、(0.8/3)により、0.27(27%)と算出される。対象者の風邪の確度は、(0.1+0.1)/3により、0.06(6%)と算出される。これらの疾患の候補、確度、及び重篤度を対象者の特定情報IF4とする。
【0133】
図12のフローチャートに戻り、CPU101aは、疾患の候補、確度、及び重篤度の特定をすると(ステップS507)、「疾患の候補、確度、及び重篤度の推定と特定」の処理を終了し、
図11Bのフローチャートに戻る。
【0134】
CPU101aは、特定した対象者の特定情報IF4の内容を特定結果として表示部105に表示し(ステップS009)、疾患候補推定処理の処理を終了する。
【0135】
このように、医療診断支援装置100のCPU101aは、被験者である患者の疾患の候補、確度、又は重篤度を予め提示することができるので、医師や看護師である医療従事者などは、検査前に患者の状態を把握することができる。
【0136】
次に、抽出部112において使用される学習済みモデル103(学習済みモデル103e~103g)について、説明する。
【0137】
[学習済みモデルの生成]
推定部113aにおいて使用される学習済みモデル103(学習済みモデル103e~103g)は、予め準備した画像情報を入力とし、出力を各目的に応じた抽出結果(疾患の候補、確度、重篤度)とした多数(例えば数千から十数万組)のデータセットを学習サンプルデータとして用い、これにより機械学習する。学習器(不図示)としては、CPUおよびGPUのプロセッサを用いたスタンドアロンの高性能コンピュータ、又はクラウドコンピュータを用いることができる。
【0138】
学習器(不図示)は、パーセプトロンを組み合わせて構成したニューラルネットワークを用いた学習方法について、フローチャートを用いて説明するが、本実施形態はこれに限定されるものではなく、教師あり学習であれば、種種の手法を取り得る。例えば、学習器(不図示)には、ランダムフォレスト、サポートベクターマシン(SVM:Support Vector Machine)、ブースティング(Boosting)、ベイジアン(Bsysian)、ネットワーク線形判別法、及び非線形判別法等を適用することができる。
【0139】
[学習済みモデルの学習方法]
図15は、第2の実施形態に係る医療診断支援装置100の推定部113aにおいて使用される学習済みモデル103(学習済みモデル103e~103g)の学習方法の処理を示したフローチャートである。なお、
図7及び
図9のフローチャートと同一の処理には同一の符号を付し、説明を適宜、省略する。
【0140】
学習器(不図示)は、教師データである学習サンプルデータを読み込む。例えば、最初であれば1組目(画像情報、疾患の候補、確度、重篤度)の学習サンプルデータを読み込み、i回目であれば、i組目の学習サンプルデータを読み込む(ステップS601)。
【0141】
学習器(不図示)は、読み込んだ学習サンプルデータのうち、入力データ(画像情報)をニューラルネットワークに入力する(ステップS603)。
【0142】
学習器(不図示)は、ニューラルネットワークの推定結果、即ち、推定された目的に応じた結果(疾患の候補、確度、重篤度)を、教師データと比較する(ステップS605)。
【0143】
学習器(不図示)は、比較結果からパラメータを調整する(ステップS207)。例えば、学習器(不図示)は、バックプロパゲーション(Back-propagation:誤差逆伝搬法)という処理を行うことにより、比較結果の誤差が小さくなるように、パラメータを調整し、更新する。
【0144】
学習器(不図示)は、1~i組目まで全データの全処理が完了した場合(ステップS209のYES)、ステップS211に進む。一方、全データの全処理が完了していない場合(ステップS209のNO)、学習器(不図示)は、ステップ601に戻り、次の学習サンプルデータを読み込み、ステップS601以下の処理を繰り返す。
【0145】
学習器(不図示)は、ステップS207までの処理で構築された学習済みモデルを記憶し(ステップS211)、処理を終了する。このように、学習済みモデル103(学習済みモデル103e~103g)は、学習サンプルデータにより機械学習する。
【0146】
これにより、第2の実施形態に係る医療診断支援装置100のCPU101aは、推定部113aに、学習済みモデル103(学習済みモデル103e~103g)を適用することができる。
【0147】
図16は、第2の実施形態に係る医療診断支援装置100の推定部113aにおいて使用される学習済みモデル103(学習済みモデル103e~103g)の学習方法の概念を示した説明図である。
図16では、複数の画像の各々から、1つ以上の特徴を抽出(算出)して、疾患の候補、確度、及び重篤度を学習することを示している。
【0148】
図16に示すように、学習済みモデル103eは、例えば、対象者の静止画SIから、COPDの確度が「1」、重篤度が「5」、肺線維症の確度が「1」、重篤度が「5」、かぜ症候群が「0.1」、重篤度が「3」、喘息の確度が「0」、重篤度が「0」などと推定する。また、学習済みモデル103fは、例えば、対象者の動画(動画1)MI1から、COPDの確度が「1」、重篤度が「5」、肺線維症の確度が「1」、重篤度が「5」、かぜ症候群が「0.1」、重篤度が「4」、喘息の確度が「0」、重篤度が「0」などと推定する。また、学習済みモデル103gは、例えば、対象者の動画(動画2)MI2から、COPDの確度が「1」、重篤度が「5」、肺線維症の確度が「1」、重篤度が「5」、かぜ症候群が「0」、重篤度が「0」、喘息の確度が「0.8」、重篤度が「3」などと推定する。
【0149】
以上説明したように、第2の実施形態における医療診断支援装置100のCPU101aは、取得部111、推定部113a、特定部115、及び制御部114を備えて構成されている。医療診断支援装置100のCPU101aは、推定部113aにおいて、複数の画像の各々から、学習済みモデル103(学習済みモデル103e~103g)を用いて、対象者の疾患の候補と、疾患の確度又は重篤度を推定し、特定部115において、推定部113aにより推定された、対象者の疾患の候補、疾患の確度又は重篤度から、対象者の疾患の候補、疾患の確度又は重篤度を特定する。
【0150】
これにより、第2の実施形態における医療診断支援装置100は、被験者である患者の疾患の候補、確度又は重篤度を予め提示することにより、検査前に患者の状態を把握することができる。
【0151】
また、第2の実施形態における医療診断支援装置100は、問診後の必要な検査の絞り込みや、疾患の特定を補助することができるとともに、適切な検査を早期に実施することができるので、疾患の早期発見・早期治療を実現することができる。
【符号の説明】
【0152】
100 医療診断支援装置
101,101a CPU
102 画像取得部
103,103a,103b,103c,103d 学習済みモデル
103e,103f,103g 学習済みモデル
104 出力部
105 表示部
106 ROM
107 RAM
108 外部記憶装置
109 疾患特定プログラム
110 情報取得部
111 取得部
112 抽出部
113,113a 推定部
114 制御部
115 特定部