IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 公立大学法人会津大学の特許一覧 ▶ 公立大学法人福島県立医科大学の特許一覧

特開2023-148802学習モデル生成プログラム、学習モデル生成装置及び学習モデル生成方法
<>
  • 特開-学習モデル生成プログラム、学習モデル生成装置及び学習モデル生成方法 図1
  • 特開-学習モデル生成プログラム、学習モデル生成装置及び学習モデル生成方法 図2
  • 特開-学習モデル生成プログラム、学習モデル生成装置及び学習モデル生成方法 図3
  • 特開-学習モデル生成プログラム、学習モデル生成装置及び学習モデル生成方法 図4
  • 特開-学習モデル生成プログラム、学習モデル生成装置及び学習モデル生成方法 図5
  • 特開-学習モデル生成プログラム、学習モデル生成装置及び学習モデル生成方法 図6
  • 特開-学習モデル生成プログラム、学習モデル生成装置及び学習モデル生成方法 図7
  • 特開-学習モデル生成プログラム、学習モデル生成装置及び学習モデル生成方法 図8
  • 特開-学習モデル生成プログラム、学習モデル生成装置及び学習モデル生成方法 図9
  • 特開-学習モデル生成プログラム、学習モデル生成装置及び学習モデル生成方法 図10
  • 特開-学習モデル生成プログラム、学習モデル生成装置及び学習モデル生成方法 図11
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2023148802
(43)【公開日】2023-10-13
(54)【発明の名称】学習モデル生成プログラム、学習モデル生成装置及び学習モデル生成方法
(51)【国際特許分類】
   G16H 30/00 20180101AFI20231005BHJP
【FI】
G16H30/00
【審査請求】未請求
【請求項の数】6
【出願形態】OL
(21)【出願番号】P 2022057019
(22)【出願日】2022-03-30
【新規性喪失の例外の表示】特許法第30条第2項適用申請有り (1)令和3年5月21日にDDW(Digestive Disease Week▲R▼)2021にて発表。 (2)令和3年5月21日にhttps://ddwhighlights.com/home及びhttps://els-jbs-prod-cdn.jbs.elsevierhealth.com/pb/assets/raw/Health%20Advance/journals/ymge/DDW_2021_YMGE12714.pdfにて発表。 (3)令和3年11月13日に第76回日本大腸肛門病学会学術集会にて発表。
(71)【出願人】
【識別番号】506301140
【氏名又は名称】公立大学法人会津大学
(71)【出願人】
【識別番号】509013703
【氏名又は名称】公立大学法人福島県立医科大学
(74)【代理人】
【識別番号】100094525
【弁理士】
【氏名又は名称】土井 健二
(74)【代理人】
【識別番号】100094514
【弁理士】
【氏名又は名称】林 恒徳
(72)【発明者】
【氏名】朱 欣
(72)【発明者】
【氏名】冨樫 一智
(72)【発明者】
【氏名】根本 大樹
【テーマコード(参考)】
5L099
【Fターム(参考)】
5L099AA26
(57)【要約】
【課題】T1b大腸癌と他の大腸癌との区別を精度良く行うことを可能とする学習モデル生成プログラム、学習モデル生成装置及び学習モデル生成方法を提供する。
【解決手段】第1状態の大腸癌が映る複数の画像データに対して、第1状態に対応する識別情報を付加することによって、複数の第1教師データを生成し、第1状態以外の第2状態の大腸癌が映る複数の画像データに対して、第2状態に対応する識別情報を付加することによって、複数の第2教師データを生成し、複数の第1教師データと複数の第2教師データとを用いた機械学習を行うことによって第1学習モデルを生成し、生成した第1学習モデルに対して複数の第1教師データを用いた機械学習を再度行うことによって第2学習モデルを生成する。
【選択図】図4
【特許請求の範囲】
【請求項1】
画像データを用いた機械学習を行うことによって大腸癌の状態の判定を行う処理をコンピュータに実行させる学習モデル生成プログラムであって、
第1状態の大腸癌が映る複数の画像データに対して、前記第1状態に対応する識別情報を付加することによって、複数の第1教師データを生成し、
前記第1状態以外の第2状態の大腸癌が映る複数の画像データに対して、前記第2状態に対応する識別情報を付加することによって、複数の第2教師データを生成し、
前記複数の第1教師データと前記複数の第2教師データとを用いた機械学習を行うことによって第1学習モデルを生成し、
生成した前記第1学習モデルに対して前記複数の第1教師データを用いた機械学習を再度行うことによって第2学習モデルを生成する、
ことを特徴とする学習モデル生成プログラム。
【請求項2】
前記第1状態の大腸癌は、T1b大腸癌であり、
前記第2状態の大腸癌は、Tis大腸癌とT1a大腸癌とのうちの少なくともいずれか1つである、
ことを特徴とする請求項1に記載の学習モデル生成プログラム。
【請求項3】
前記第2学習モデルを生成する処理では、
前記複数の第1教師データのうち、第3状態の大腸癌が映る画像データに対応する複数の第3教師データを特定し、
前記第1学習モデルに対して前記複数の第3教師データを用いた機械学習を再度行うことによって前記第2学習モデルを生成する、
ことを特徴とする請求項1に記載の学習モデル生成プログラム。
【請求項4】
さらに、前記複数の第3教師データのうち、第4状態の大腸癌が映る画像データに対応する複数の第4教師データを特定し、
前記第2学習モデルに対して前記複数の第4教師データを用いた機械学習を再度行うことによって第3学習モデルを生成する、
処理をコンピュータに実行させることを特徴とする請求項3に記載の学習モデル生成プログラム。
【請求項5】
画像データを用いた機械学習を行うことによって大腸癌の状態の判定を行う処理を行う学習モデル生成装置であって、
第1状態の大腸癌が映る複数の画像データに対して、前記第1状態に対応する識別情報を付加することによって、複数の第1教師データを生成し、前記第1状態以外の第2状態の大腸癌が映る複数の画像データに対して、前記第2状態に対応する識別情報を付加することによって、複数の第2教師データを生成するデータ生成部と、
前記複数の第1教師データと前記複数の第2教師データとを用いた機械学習を行うことによって第1学習モデルを生成する第1モデル生成部と、
生成した前記第1学習モデルに対して前記複数の第1教師データを用いた機械学習を再度行うことによって第2学習モデルを生成する第2モデル生成部と、を有する、
ことを特徴とする学習モデル生成装置。
【請求項6】
画像データを用いた機械学習を行うことによって大腸癌の状態の判定を行う処理をコンピュータが実行する学習モデル生成方法であって、
第1状態の大腸癌が映る複数の画像データに対して、前記第1状態に対応する識別情報を付加することによって、複数の第1教師データを生成し、
前記第1状態以外の第2状態の大腸癌が映る複数の画像データに対して、前記第2状態に対応する識別情報を付加することによって、複数の第2教師データを生成し、
前記複数の第1教師データと前記複数の第2教師データとを用いた機械学習を行うことによって第1学習モデルを生成し、
生成した前記第1学習モデルに対して前記複数の第1教師データを用いた機械学習を再度行うことによって第2学習モデルを生成する、
ことを特徴とする学習モデル生成方法。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、学習モデル生成プログラム、学習モデル生成装置及び学習モデル生成方法に関する。
【背景技術】
【0002】
大腸癌は、例えば、Tis大腸癌とT1a大腸癌とT1b大腸癌とに分類される。具体的に、浸潤深さが大腸粘膜下1mm未満である大腸癌は、Tis大腸癌またはT1a大腸癌と診断され、一般的に、内視鏡手術による治療が行われる。これに対し、浸潤深さが大腸粘膜下1mm以上である大腸癌は、T1b大腸癌と診断され、一般的に、外科手術による治療が行われる(非特許文献1乃至3参照)。そのため、大腸癌がT1b大腸癌であるか否かの判定精度の向上は、臨床医学において非常に重要な課題である(非特許文献4参照)。
【先行技術文献】
【非特許文献】
【0003】
【非特許文献1】Horie H, Togashi K, Kawamura YJ, et al. “Colonoscopic stigmata of 1 mm or deeper submucosal invasion in colorectal cancer”, Dis Colon Rectum, 2008 Oct;51(10):1529-34, DOI: 10.1007/s10350-008-9263-y, Epub 2008 Jul 1
【非特許文献2】Saitoh Y, Obara T, Watari J, et al. “Invasion depth diagnosis of depressed type early colorectal cancers by combined use of videoendoscopy and chromoendoscopy.”, Gastrointest Endosc, 1998 Oct;48(4):362-70, DOI: 10.1016/s0016-5107(98)70004-5
【非特許文献3】Fujii T, Saito Y, et al. “Efficacy of the invasive/non-invasive pattern by magnifying chromoendoscopy to estimate the depth of invasion of early colorectal neoplasms.”, Am J Gastroenterol 2008 Nov;103(11):2700-6, doi: 10.1111/j.1572-0241.2008.02190.x, Epub 2008 Oct 3
【非特許文献4】Nao Ito, Hiroshi Kawahira, Hirotaka Nakashima, Masaya Uesato, Hideaki Miyauchi, Hisahiro Matsubara, “Endoscopic Diagnostic Support System for cT1b Colorectal Cancer Using Deep Learning”, Oncology 2019;96(1):44-50, DOI: 10.1159/000491636, Published online: August 21, 2018
【発明の概要】
【発明が解決しようとする課題】
【0004】
ここで、一般的な内視鏡検査では、T1b大腸癌と他の大腸癌(Tis大腸癌やT1a大腸癌)との区別を行うことが非常に難しい(非特許文献1及び2参照)。そのため、臨床医学の分野では、T1b大腸癌と他の大腸癌との区別を精度良く行うことが可能な手法が望まれている。
【0005】
そこで、本発明の目的は、T1b大腸癌と他の大腸癌との区別を精度良く行うことを可能とする学習モデル生成プログラム、学習モデル生成装置及び学習モデル生成方法を提供することにある。
【課題を解決するための手段】
【0006】
上記目的を達成するための本発明における学習モデル生成プログラムは、画像データを用いた機械学習を行うことによって大腸癌の状態の判定を行う処理をコンピュータに実行させる学習モデル生成プログラムであって、第1状態の大腸癌が映る複数の画像データに対して、前記第1状態に対応する識別情報を付加することによって、複数の第1教師データを生成し、前記第1状態以外の第2状態の大腸癌が映る複数の画像データに対して、前記第2状態に対応する識別情報を付加することによって、複数の第2教師データを生成し、前記複数の第1教師データと前記複数の第2教師データとを用いた機械学習を行うことによって第1学習モデルを生成し、生成した前記第1学習モデルに対して前記複数の第1教師データを用いた機械学習を再度行うことによって第2学習モデルを生成する。
【発明の効果】
【0007】
本発明における学習モデル生成プログラム、学習モデル生成装置及び学習モデル生成方法によれば、T1b大腸癌と他の大腸癌との区別を精度良く行うことが可能になる。
【図面の簡単な説明】
【0008】
図1図1は、第1の実施の形態における情報処理装置1の構成例を示す図である。
図2図2は、第1の実施の形態の概略を説明する図である。
図3図3は、第1の実施の形態における学習モデル生成処理の具体例を説明する図である。
図4図4は、第1の実施の形態における学習モデル生成処理の具体例を説明する図である。
図5図5は、第1教師データDT1の具体例を説明する図である。
図6図6は、第2教師データDT2の具体例を説明する図である。
図7図7は、第3教師データDT3の具体例を説明する図である。
図8図8は、第1の実施の形態における学習モデル生成処理の詳細を説明するフローチャート図である。
図9図9は、第1の実施の形態における学習モデル生成処理の詳細を説明するフローチャート図である。
図10図10は、第1学習モデルM1及び第2学習モデルM2の判定精度の検証結果について説明する図である。
図11図11は、第1学習モデルM1及び第2学習モデルM2の判定精度の検証結果について説明する図である。
【発明を実施するための形態】
【0009】
以下、図面を参照して本発明の実施の形態について説明する。しかしながら、かかる実施の形態例が、本発明の技術的範囲を限定するものではない。
【0010】
[第1の実施の形態における情報処理装置1の構成例]
初めに、第1の実施の形態における情報処理装置1(以下、学習モデル生成装置1とも呼ぶ)の構成例について説明を行う。図1は、第1の実施の形態における情報処理装置1の構成例を示す図である。
【0011】
情報処理装置1は、コンピュータ装置であって、例えば、汎用的なPC(Personal Computer)である。そして、情報処理装置1は、例えば、画像データに映る大腸癌の種類の判定を行う学習モデルを生成する処理(以下、学習モデル生成処理とも呼ぶ)を行う。
【0012】
情報処理装置1は、汎用的なコンピュータ装置のハードウエア構成を有し、例えば、図1に示すように、プロセッサであるCPU101と、メモリ102と、通信インタフェース103と、記憶媒体104とを有する。各部は、バス105を介して互いに接続される。
【0013】
記憶媒体104は、例えば、学習モデル生成処理を行うためのプログラム(図示しない)を記憶するプログラム格納領域(図示しない)を有する。
【0014】
また、記憶媒体104は、例えば、学習モデル生成処理を行う際に用いられる情報を記憶する記憶領域(図示せず)を有する。なお、記憶媒体104は、例えば、HDD(Hard Disk Drive)やSSD(Solid State Drive)であってよい。
【0015】
CPU101は、例えば、記憶媒体104からメモリ102にロードされたプログラム(図示せず)を実行して学習モデル生成処理を行う。
【0016】
通信インタフェース103は、例えば、インターネット網等のネットワークNWを介して作業者端末2と通信を行う。なお、作業者端末2は、例えば、PC(Personal Computer)であり、学習モデルの生成を行う作業者(以下、単に作業者とも呼ぶ)が必要な情報の入力等を行う端末であってよい。
【0017】
[第1の実施の形態の概略]
次に、第1の実施の形態の概略について説明を行う。図2は、第1の実施の形態の概略を説明する図である。
【0018】
情報処理装置1は、図2に示すように、例えば、情報管理部111、データ生成部112、第1モデル生成部113、第2モデル生成部114、モデル出力部115及びモデル制御部116を含む各機能を実現する。なお、情報管理部111、データ生成部112、第1モデル生成部113、第2モデル生成部114及びモデル出力部115は、例えば、学習モデル生成処理を実現する機能である。また、モデル制御部116は、例えば、学習モデル生成処理によって生成された学習モデルを用いて画像データに映る体調癌の種類を判定する処理(以下、推論処理とも呼ぶ)を実現する機能である。
【0019】
情報処理装置1の情報管理部111は、例えば、作業者が作業者端末2を介して入力した各種情報を記憶媒体104に記憶する。具体的に、情報管理部111は、例えば、Tis大腸癌、T1a大腸癌及びT1b大腸癌のうちのいずれかが映る画像データ(以下、学習用画像データとも呼ぶ)の入力を受け付けた場合、受け付けた画像データを記憶媒体104に記憶する。以下、T1b大腸癌を第1状態の大腸癌とも呼び、Tis大腸癌及びT1a大腸癌を第2状態の大腸癌とも呼ぶ。
【0020】
情報処理装置1のデータ生成部112は、例えば、情報管理部111が記憶媒体104に記憶した画像データを用いることによって教師データを生成する。そして、データ生成部112は、例えば、生成した教師データを記憶媒体104に記憶する。
【0021】
具体的に、データ生成部112は、例えば、T1b大腸癌が映る複数の画像データのそれぞれに対して、T1b大腸癌を示す識別情報を付加することによって、複数の教師データ(以下、第1教師データとも呼ぶ)を生成する。また、データ生成部112は、例えば、Tis大腸癌またはT1a大腸癌が映る複数の画像データのそれぞれに対して、Tis大腸癌とT1a大腸癌とのうちの少なくともいずれかであることを示す識別情報を付加することによって、複数の教師データ(以下、第2教師データとも呼ぶ)を生成する。
【0022】
第1モデル生成部113は、例えば、データ生成部112が記憶媒体104に記憶した複数の第1教師データ及び複数の第2教師データを用いた機械学習を行うことによって、学習モデル(以下、第1学習モデルとも呼ぶ)を生成する。
【0023】
第2モデル生成部114は、例えば、データ生成部112が記憶媒体104に記憶した複数の第1教師データの少なくとも一部の教師データを用いることにより、第1モデル生成部113が生成した第1学習モデルの再学習を行うことによって、学習モデル(以下、第2学習モデルとも呼ぶ)を生成する。
【0024】
具体的に、第2モデル生成部114は、例えば、データ生成部112が記憶媒体104に記憶した第1教師データのうち、典型的な状態(以下、第3状態とも呼ぶ)のT1b大腸癌が映る画像データに対応する教師データ(以下、第3教師データとも呼ぶ)を用いることによって、第2学習モデルを生成する。
【0025】
さらに具体的に、内視鏡検査を行う医師(以下、単に医師とも呼ぶ)は、例えば、データ生成部112が記憶媒体104に記憶した第1教師データのそれぞれを目視によって確認することにより、第1教師データのそれぞれが第3教師データに該当するか否かの判断を行う。そして、第2モデル生成部114は、例えば、医師によって特定された第3教師データの機械学習を行うことによって、第2学習モデルを生成する。
【0026】
モデル出力部115は、例えば、第2モデル生成部114が生成した第2学習モデルを作業者端末2に出力する。
【0027】
モデル制御部116は、例えば、新たな画像データ(以下、検証用画像データとも呼ぶ)の入力を受け付けた場合、受け付けた画像データを第2学習モデルに入力する。そして、モデル制御部116は、例えば、新たな画像データの入力に伴って第2学習モデルから出力されたラベルを取得する。
【0028】
その後、モデル制御部116は、例えば、取得したラベルが示す情報(例えば、新たな画像データに映る大腸癌の種類についての推論結果を示す情報)を出力する。具体的に、モデル制御部116は、例えば、取得したラベルが示す情報を作業者端末2に出力する。
【0029】
なお、第2学習モデルによる推論処理は、例えば、情報処理装置1と異なる他の情報処理装置(図示せず)において行われるものであってもよい。そして、モデル制御部116は、この場合、例えば、他の情報処理装置において実現される機能であってもよい。
【0030】
すなわち、本実施の形態における情報処理装置1は、例えば、第1段階として、T1b大腸癌に対応する第1教師データだけでなく、Tis大腸癌及びT1a大腸癌に対応する第2教師データについても用いることによって、第1学習モデルの生成を行う。そして、情報処理装置1は、例えば、第2段階として、T1b大腸癌に対応する第1教師データのうちの少なくとも一部の教師データ(例えば、第3教師データ)を用いることによって、第2学習データの生成を行う。
【0031】
これにより、本実施の形態における情報処理装置1は、例えば、T1b大腸癌が映る画像データを十分に用意することができない場合であっても、高い判定精度の学習モデル(第2学習モデル)を生成することが可能になる。
【0032】
具体的に、情報処理装置1は、例えば、T1b大腸癌に対応する第1教師データの再学習を行わない場合の学習モデル(第1学習モデル)よりも、汎化性能の高い学習モデルを生成することが可能になる。
【0033】
[第1の実施の形態における学習モデル生成処理の具体例]
次に、第1の実施の形態における学習モデル生成処理の具体例について説明を行う。図3及び図4は、第1の実施の形態における学習モデル生成処理の具体例を説明する図である。
【0034】
情報処理装置1は、図3に示すように、例えば、複数の第1教師データDT1及び複数の第2教師データDT2のそれぞれの機械学習を行うことによって、第1学習モデルM1を生成する。
【0035】
具体的に、情報処理装置1(データ生成部112)は、例えば、第1教師データDT1の数が第2教師データDT2の数と同程度になるように、オーバーサンプリングを行うことによって第1教師データDT1の数を増加させる。そして、情報処理装置1は、例えば、数を増加させた後の第1教師データDT1と第2教師データDT2とのそれぞれについて、サイズ変更、回転及び反転を行うことによって、第1教師データDT1及び第2教師データDT2の数をさらに増加させる。その後、情報処理装置1(第1モデル生成部113)は、例えば、サイズ変更等を行うことによってさらに増加させた第1教師データDT1及び第2教師データDT2を用いた機械学習を行うことによって、第1学習モデルM1を生成する。
【0036】
その後、情報処理装置1は、図4に示すように、例えば、複数の第1教師データDT1のうちの少なくとも一部の複数の第1教師データDT1(以下、複数の第3教師データDT3とも呼ぶ)の機械学習を用いることにより、第1学習モデルM1の再学習を行うことによって第2学習モデルM2を生成する。なお、情報処理装置1は、この場合、例えば、複数の第3教師データDT3に加え、複数の第2教師データDT2についても用いることによって、第2学習モデルM2の生成を行うものであってもよい。
【0037】
具体的に、情報処理装置1(データ生成部112)は、例えば、第1教師データDT1のうち、T1b大腸癌の典型的な画像データを含む第1教師データDT1を第3教師データDT3として抽出する。なお、図4に示す例では、190枚の第1教師データDT1のうちの42枚が医師によって第3教師データDT3として特定されたことを示している。そして、情報処理装置1は、例えば、抽出された第3教師データDT3の数が第2教師データDT2の数と同程度になるように、オーバーサンプリングを行うことによって第3教師データDT3の数を増加させる。さらに、情報処理装置1は、例えば、数を増加させた後の第3教師データDT3と第2教師データDT2とのそれぞれについて、サイズ変更、回転及び反転を行うことによって、第3教師データDT3及び第2教師データDT2の数をさらに増加させる。その後、情報処理装置1(第1モデル生成部113)は、例えば、サイズ変更等を行うことによってさらに増加させた第3教師データDT3及び第2教師データDT2を用いることにより、第1学習モデルM1の再学習を行って第2学習モデルM2を生成する。
【0038】
なお、図3及び図4に示す例は、第1学習モデルM1及び第2学習モデルM2の一例であり、これに限られない。具体的に、情報処理装置1は、例えば、「ResNet50 Feature Extractor」以外の学習モデルを用いるものであってもよいし、「FocalLoss」以外の損失関数を用いるものであってもよい。
【0039】
[第1の実施の形態における教師データの具体例]
次に、第1の実施の形態における第1教師データDT1、第2教師データDT2及び第3教師データDT3の具体例について説明を行う。図5は、第1教師データDT1の具体例を説明する図である。また、図6は、第2教師データDT2の具体例を説明する図である。さらに、図7は、第3教師データDT3の具体例を説明する図である。
【0040】
第1教師データDT1は、図5に示すように、例えば、各教師データに含まれる画像データの名称(例えば、ファイル名)や画像データの格納場所(例えば、ファイルパス)等が設定される「画像データ」と、各教師データに含まれる画像データに映る大腸癌の種別を示す識別情報が設定される「識別情報」とを項目として有する。
【0041】
具体的に、図5に示す第1教師データDT1において、1行目のデータには、例えば、「画像データ」として「AAA」が設定されており、「識別情報」として「T1b」が設定されている。また、図5に示す第1教師データDT1において、2行目のデータには、例えば、「画像データ」として「BBB」が設定されており、「識別情報」として「T1b」が設定されている。図5に含まれる他のデータについての説明は省略する。
【0042】
また、第2教師データDT2は、図6に示すように、例えば、図5に示す第1教師データDT1の場合と同様の項目を有している。
【0043】
具体的に、図6に示す第2教師データDT2において、1行目のデータには、例えば、「画像データ」として「EEE」が設定されており、「識別情報」として「T1a」が設定されている。また、図6に示す第2教師データDT2において、2行目のデータには、例えば、「画像データ」として「FFF」が設定されており、「識別情報」として「Tis」が設定されている。図6に含まれる他のデータについての説明は省略する。
【0044】
また、第3教師データDT3は、図7に示すように、例えば、図5に示す第1教師データDT1の場合と同様の項目を有している。
【0045】
具体的に、図7に示す第3教師データDT3において、1行目のデータには、例えば、「画像データ」として「AAA」が設定されており、「識別情報」として「T1b」が設定されている。また、図7に示す第3教師データDT3において、2行目のデータには、例えば、「画像データ」として「DDD」が設定されており、「識別情報」として「T1b」が設定されている。図7に含まれる他のデータについての説明は省略する。
【0046】
すなわち、図7に示す例は、例えば、図5に示す第1教師データDT1のうち、1行目のデータや4行目のデータを含む複数のデータが第3教師データDT3として特定されたことを示している。
【0047】
[第1の実施の形態の詳細]
次に、第1の実施の形態における学習モデル生成処理の詳細について説明を行う。図8及び図9は、第1の実施の形態における学習モデル生成処理の詳細を説明するフローチャート図である。
【0048】
[学習モデル記憶処理]
初めに、学習モデル生成処理のうち、画像データを記憶媒体104に記憶する処理(以下、画像データ記憶処理とも呼ぶ)について説明を行う。図8は、画像データ記憶処理について説明する図である。
【0049】
情報管理部111は、図8に示すように、例えば、画像データの入力を受け付けるまで待機する(S11のNO)。具体的に、情報管理部111は、例えば、作業者が作業者端末2を介して画像データの入力を行うまで待機する。
【0050】
そして、画像データの入力を受け付けた場合(S11のYES)、情報管理部111は、例えば、入力を受け付けた画像データを記憶媒体104に記憶する(S12)。
【0051】
すなわち、情報管理部111は、例えば、画像データの入力を受け付けるごとに、受け付けた画像データを記憶媒体104に記憶することにより、複数の画像データを記憶媒体104に蓄積する。また、情報管理部111は、例えば、複数の画像データの入力を受け付けた場合、入力を受け付けた複数の画像データを記憶媒体104に記憶する。
【0052】
[学習モデル生成処理のメイン処理]
次に、学習モデル生成処理のメイン処理について説明を行う。図9は、学習モデル生成処理のメイン処理について説明する図である。
【0053】
データ生成部112は、図9に示すように、例えば、T1b大腸癌が映る複数の画像データのそれぞれに対して、T1b大腸癌を示す識別情報を付加することによって、複数の第1教師データDT1を生成する(S21)。
【0054】
また、データ生成部112は、例えば、Tis大腸癌またはT1a大腸癌が映る複数の画像データのそれぞれに対して、TisとT1bとのうちの少なくともいずれかであることを示す識別情報を付加することによって、複数の第2教師データDT2を生成する(S22)。
【0055】
なお、データ生成部112は、S22の処理において、例えば、Tis大腸癌が映る複数の画像データのそれぞれに対して、Tis大腸癌を示す識別情報を付加することによって、複数の第2教師データDT2のうちの一部を生成するものであってもよい。また、データ生成部112は、S22の処理において、例えば、T1a大腸癌が映る複数の画像データのそれぞれに対して、T1a大腸癌を示す識別情報を付加することによって、複数の第2教師データDT2の他の一部を生成するものであってもよい。
【0056】
そして、第1モデル生成部113は、例えば、データ生成部112が記憶媒体104に記憶した複数の第1教師データDT1及び複数の第2教師データDT2を用いた機械学習を行うことによって、第1学習モデルM1を生成する(S23)。
【0057】
次に、データ生成部112は、例えば、S21の処理で生成した複数の第1教師データDT1のうち、典型的なT1b大腸癌が映る画像データに対応する第1教師データDT1を第3教師データDT3として特定する(S24)。
【0058】
具体的に、情報処理装置1は、例えば、S21の処理で生成した複数の第1教師データDT1のそれぞれについて、第3教師データDT3であるか否かを示す情報(以下、指定情報とも呼ぶ)の入力を受け付ける。指定情報は、例えば、複数の第1教師データDT1のそれぞれに含まれる画像データが典型的な状態のT1b大腸癌が映る画像データであるか否か(第3教師データDT3に含まれる画像データであるか否か)の判断を行った医師によって情報処理装置1に入力されるものであってよい。そして、情報処理装置1は、例えば、第1教師データDT1のそれぞれについて入力された指定情報を参照することによって、S21の処理で生成した複数の第1教師データDT1に含まれる複数の第3教師データDT3を特定するものであってよい。
【0059】
なお、医師は、例えば、T1bの典型的な内視鏡所見(深い陥凹、ひだのひきつれ、表面凹凸不整、潰瘍・びらん、易出血性及び緊満感)が確認された画像データに対応する第1教師データDT1を、第3教師データDT3として特定するものであってよい。
【0060】
その後、第2モデル生成部114は、例えば、データ生成部112が特定した第3教師データDT3を用いることにより、第1モデル生成部113が生成した第1学習モデルM1の再学習を行って第2学習モデルM2を生成する(S25)。
【0061】
そして、モデル出力部115は、例えば、第2モデル生成部114が生成した第2学習モデルM2を作業者端末2に出力する(S26)。
【0062】
[第1学習モデルM1及び第2学習モデルM2の判定精度]
次に、第1学習モデルM1及び第2学習モデルM2の判定精度の検証結果について説明を行う。図10及び図11は、第1学習モデルM1及び第2学習モデルM2の判定精度の検証結果について説明する図である。なお、以下、T1b大腸癌が映る画像データに対応する大腸癌の種類が正しく判定された確率を「感度」と呼ぶ。また、Tis大腸癌またはT1a大腸癌が映る画像データに対応する大腸癌の種類が正しく判定された確率を「特異度」と呼ぶ。また、全ての画像データに対応する大腸癌の種類が正しく判定された確率を「正診率」とも呼ぶ。
【0063】
図10に示す結果は、第1学習モデルM1の「感度」、「特異度」及び「正診率」のそれぞれが「62.2(%)」、「88.5(%)」及び「83.1(%)」であったのに対し、第2学習モデルM2の「感度」、「特異度」及び「正診率」のそれぞれが「72.0(%)」、「88.2(%)」及び「84.9(%)」であったことを示している。
【0064】
すなわち、図10に示す結果は、例えば、第2学習モデルM2の生成(第1学習モデルM1の再学習)を行うことによって、「特異度」を大きく低下させることなく、「感度」を大きく上昇させることに成功したことを示している。
【0065】
また、図11に示す結果は、エキスパートA(例えば、ベテランの医師)による「感度」、「特異度」及び「正診率」のそれぞれが「80.5(%)」、「76.6(%)」及び「77.4(%)」であり、エキスパートB(例えば、ベテランの医師)による「感度」、「特異度」及び「正診率」のそれぞれが「78.1(%)」、「82.6(%)」及び「81.6(%)」であり、トレーニーA(例えば、研修医)による「感度」、「特異度」及び「正診率」のそれぞれが「92.7(%)」、「33.3(%)」及び「45.4(%)」であり、トレーニーB(例えば、研修医)による「感度」、「特異度」及び「正診率」のそれぞれが「98.8(%)」、「14.3(%)」及び「31.5(%)」であるのに対し、第2学習モデルM2の「感度」、「特異度」及び「正診率」のそれぞれが「72.0(%)」、「88.2(%)」及び「84.9(%)」であったことを示している。
【0066】
すなわち、図11に示す結果は、例えば、第2学習モデルM2の「特異度」が、エキスパートA、エキスパートB、トレーニーA及びトレーニーBのそれぞれよりも高いことを示している。
【0067】
なお、本実施の形態における情報処理装置1は、各種のチューニングを行うことによって、例えば、エキスパートA、エキスパートB、トレーニーA及びトレーニーBのそれぞれよりも「感度」の高い学習モデルを生成することも可能である。
【0068】
また、本実施の形態における情報処理装置1は、例えば、患者の年齢、性別及び病歴等の情報に基づいて必要な閾値の調整等を行うことにより、学習モデルの「感度」や「特異度」をより向上させることも可能である。
【0069】
このように、本実施の形態における情報処理装置1は、例えば、第1状態の大腸癌が映る複数の画像データに対して、第1状態に対応する識別情報を付加することによって、複数の第1教師データDT1を生成する。また、情報処理装置1は、例えば、第1状態以外の第2状態の大腸癌が映る複数の画像データに対して、第2状態に対応する識別情報を付加することによって、複数の第2教師データDT2を生成する。
【0070】
その後、本実施の形態における情報処理装置1は、例えば、複数の第1教師データDT1と複数の第2教師データDT2とを用いた機械学習を行うことによって第1学習モデルM1を生成する。そして。情報処理装置1は、例えば、生成した第1学習モデルM1に対して複数の第1教師データDT1を用いた機械学習を再度行うことによって第2学習モデルM2を生成する。具体的に、情報処理装置1は、例えば、複数の第1教師データDT1のうち、典型的な第1状態を示す複数の第3教師データDT3を用いることによって第2学習モデルM2を生成する。
【0071】
すなわち、本実施の形態における情報処理装置1は、例えば、第1段階として、T1b大腸癌に対応する第1教師データDT1だけでなく、Tis大腸癌及びT1a大腸癌に対応する第2教師データDT2についても用いることによって、第1学習モデルM1を生成する。そして、情報処理装置1は、例えば、第2段階として、T1b大腸癌に対応する第1教師データDT1のうちの少なくとも一部の教師データを用いることによって、第2学習モデルM2を生成する。
【0072】
これにより、本実施の形態における情報処理装置1は、例えば、T1b大腸癌が映る画像データを十分に用意することができない場合であっても、高い判定精度の第2学習モデルM2を生成することが可能になる。
【0073】
そのため、医師は、例えば、情報処理装置1によって生成された第2学習モデルM2による推論結果を参照しながら内視鏡検査を行うことで、T1b大腸癌の見逃しを防止することが可能になる。また、医師は、例えば、情報処理装置1によって生成された第2学習モデルM2による推論結果を参照しながら内視鏡検査を行うことで、内視鏡検査の実施時間を短縮すること(内視鏡検査の実施速度を向上させること)が可能になり、内視鏡検査を行う医師や内視鏡検査を受ける患者の精神的及び肉体的な負担を軽減することが可能になる。さらに、医師は、例えば、情報処理装置1によって生成された第2学習モデルM2による推論結果を、研修医や学生に対する教育(例えば、内視鏡検査の実施訓練等)に活用することが可能になる。
【0074】
また、本実施の形態における情報処理装置1は、図11に示すように、例えば、医師による診断よりも特異度の高い第2学習モデルM2を生成することが可能になる。そのため、医師は、例えば、情報処理装置1によって生成された第2学習モデルM2による推論結果を参照しながら内視鏡検査を行うことで、大腸癌でなかった患者(すなわち、内視鏡手術が必ずしも必要でない患者)に対して内視鏡手術が行われるケースや、Tis大腸癌またはT1a大腸癌である患者(すなわち、外科手術が必ずしも必要でない患者)に対して外科手術が行われるケースの発生を抑制することが可能になる。
【0075】
なお、例えば、T1b大腸癌が映る多くの画像データを1か所の病院等において用意することが困難である場合、作業者は、例えば、複数の病院等において撮影された画像データ(T1b大腸癌が映る画像データ)を収集する必要がある。しかしながら、各病院等において撮影された画像データは、カメラから被写体(大腸)までの距離や撮影角度等が一定でない可能性がある。
【0076】
この点、本実施の形態における情報処理装置1は、例えば、第1学習モデルM1を生成した後、典型的なT1b大腸癌に対応する第1教師データDT1(第3教師データDT3)を用いて再学習を行う。そのため、本実施の形態における情報処理装置1は、例えば、再学習を行わない場合よりも汎化性能の高い第2学習モデルM2を生成することが可能になり、T1b大腸癌が映る多くの画像データを1か所の病院等において用意することが困難である場合であっても、高い判定精度の第2学習モデルM2を生成することが可能になる。
【0077】
また、上記の例では、典型的な大腸癌が映る画像データを含む第1教師データDT1(第3教師データDT3)を用いた再学習が1回行われる場合について説明を行ったが、これに限られない。情報処理装置1は、例えば、典型的な状態のT1b大腸癌が映る画像データを含む第1教師データDT1(第3教師データDT3)を用いた再学習によって第2学習モデルM2を生成した後、第3教師データDT3のうち、より典型的な状態(以下、第4状態とも呼ぶ)のT1b大腸癌であると医師が判断した大腸癌が映る画像データを含む複数の第3教師データDT3(以下、第4教師データとも呼ぶ)を用いた2回目の再学習によって新たな学習モデル(以下、第3学習モデルとも呼ぶ)を生成するものであってもよい。これにより、情報処理装置1は、例えば、判断精度がより高い学習モデル(第3学習モデル)を生成することが可能になる。
【符号の説明】
【0078】
1:情報処理装置
2:作業者端末
101:CPU
102:メモリ
103:通信インタフェース
104:記憶媒体
105:バス
111:情報管理部
112:データ生成部
113:第1モデル生成部
114:第2モデル生成部
115:モデル出力部
116:モデル制御部
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11