IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 富士フイルム株式会社の特許一覧

特開2024-164938医療画像処理装置、その作動方法、及び医療画像処理装置用プログラム、並びに内視鏡システム
<>
  • 特開-医療画像処理装置、その作動方法、及び医療画像処理装置用プログラム、並びに内視鏡システム 図1
  • 特開-医療画像処理装置、その作動方法、及び医療画像処理装置用プログラム、並びに内視鏡システム 図2
  • 特開-医療画像処理装置、その作動方法、及び医療画像処理装置用プログラム、並びに内視鏡システム 図3
  • 特開-医療画像処理装置、その作動方法、及び医療画像処理装置用プログラム、並びに内視鏡システム 図4
  • 特開-医療画像処理装置、その作動方法、及び医療画像処理装置用プログラム、並びに内視鏡システム 図5
  • 特開-医療画像処理装置、その作動方法、及び医療画像処理装置用プログラム、並びに内視鏡システム 図6
  • 特開-医療画像処理装置、その作動方法、及び医療画像処理装置用プログラム、並びに内視鏡システム 図7
  • 特開-医療画像処理装置、その作動方法、及び医療画像処理装置用プログラム、並びに内視鏡システム 図8
  • 特開-医療画像処理装置、その作動方法、及び医療画像処理装置用プログラム、並びに内視鏡システム 図9
  • 特開-医療画像処理装置、その作動方法、及び医療画像処理装置用プログラム、並びに内視鏡システム 図10
  • 特開-医療画像処理装置、その作動方法、及び医療画像処理装置用プログラム、並びに内視鏡システム 図11
  • 特開-医療画像処理装置、その作動方法、及び医療画像処理装置用プログラム、並びに内視鏡システム 図12
  • 特開-医療画像処理装置、その作動方法、及び医療画像処理装置用プログラム、並びに内視鏡システム 図13
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024164938
(43)【公開日】2024-11-28
(54)【発明の名称】医療画像処理装置、その作動方法、及び医療画像処理装置用プログラム、並びに内視鏡システム
(51)【国際特許分類】
   A61B 1/045 20060101AFI20241121BHJP
【FI】
A61B1/045 614
【審査請求】未請求
【請求項の数】13
【出願形態】OL
(21)【出願番号】P 2023080678
(22)【出願日】2023-05-16
(71)【出願人】
【識別番号】306037311
【氏名又は名称】富士フイルム株式会社
(74)【代理人】
【識別番号】110001988
【氏名又は名称】弁理士法人小林国際特許事務所
(72)【発明者】
【氏名】加門 駿平
【テーマコード(参考)】
4C161
【Fターム(参考)】
4C161AA01
4C161AA02
4C161CC06
4C161DD03
4C161WW02
4C161WW10
4C161WW13
(57)【要約】
【課題】部位情報に応じた検出処理において誤検出を防ぎ、安定して検出を行うことを可能とする医療画像処理装置、その作動方法、及び医療画像処理装置用プログラム、並びに内視鏡システムを提供する。
【解決手段】 医療画像処理装置20は、医療画像を取得する医療画像取得部41と、被写体の部位を第1の部位および第2の部位に分類する部位分類部42と、医療画像から注目領域を検出する注目領域検出部43とを備え、注目領域検出部43は、第1の部位のデータと第2の部位のデータとを有する第1データセットで機械学習により得られる第1の学習済みモデル、又は第2の部位のデータを有する第2データセットで機械学習により得られた第2の学習済みモデルによって注目領域を検出する。
【選択図】図3
【特許請求の範囲】
【請求項1】
プロセッサを備え、
前記プロセッサは、
被写体を撮像した医療画像を取得し、
前記医療画像の被写体の部位を第1の部位または第2の部位に分類し、
前記被写体の部位が前記第1の部位と分類された前記医療画像について、前記第1の部位のデータと前記第2の部位のデータとを有する第1データセットで機械学習により得られた第1の学習済みモデルによって前記医療画像から注目領域を検出し、
前記被写体の部位が前記第2の部位と分類された前記医療画像について、前記第2の部位のデータを有する第2データセットで機械学習により得られた第2の学習済みモデルによって前記医療画像から注目領域を検出し、
前記第1データセットは、前記第2の部位のデータに比べて、前記第1の部位のデータが相対的に多く含まれる医療画像処理装置。
【請求項2】
前記第1の学習済みモデルは、前記第1の部位における注目領域の検出精度が、前記第2の部位における注目領域の検出精度よりも高く、
前記第2の学習済みモデルは、前記第2の部位における注目領域の検出精度が、前記第1の部位における注目領域の検出精度よりも高い請求項1に記載の医療画像処理装置。
【請求項3】
前記第1データセットは、前記第1の部位のデータであり、かつ注目領域を含む画像及び注目領域を含まない画像と、第2の部位のデータであり、かつ注目領域を含まない画像とから構成される請求項1に記載の医療画像処理装置。
【請求項4】
前記第1の学習済みモデル又は前記第2の学習済みモデルは、データ及び/又はデータの組み合わせが異なる第1データセット又は第2データセットでそれぞれ学習された前記学習済みモデルである請求項1に記載の医療画像処理装置。
【請求項5】
前記プロセッサは、医療画像を解析することにより、前記医療画像が撮像された被写体の部位を示す分類結果を取得し、前記分類結果に応じた前記第1の学習済みモデル又は前記第2の学習済みモデルの選択を行う請求項1に記載の医療画像処理装置。
【請求項6】
前記プロセッサは、ユーザの入力に応じて、前記医療画像が撮像された被写体の部位を示す分類結果を取得し、前記分類結果に応じた前記第1の学習済みモデル又は前記第2の学習済みモデルの選択を行う請求項1に記載の医療画像処理装置。
【請求項7】
前記プロセッサは、前記第1の学習済みモデル又は前記第2の学習済みモデルによる検出結果を報知する制御を行う請求項1に記載の医療画像処理装置。
【請求項8】
前記プロセッサは、取得された前記時系列順の医療画像を医療画像表示ディスプレイに表示する表示制御を行い、
前記報知として、前記注目領域が検出された医療画像に、前記検出結果を重畳して前記医療画像表示ディスプレイに表示する請求項7に記載の医療画像処理装置。
【請求項9】
前記プロセッサは、前記検出結果に加えて、前記第1の学習済みモデル又は前記第2の学習済みモデルの選択状況も報知する請求項7に記載の医療画像処理装置。
【請求項10】
前記機械学習は、深層学習である請求項1に記載の医療画像処理装置。
【請求項11】
前記医療画像を撮像する内視鏡と、
請求項1ないし10のいずれか1項に記載の医療画像処理装置とを備える内視鏡システム。
【請求項12】
被写体を撮像した医療画像を取得するステップと、
前記医療画像が撮像された被写体の部位を第1の部位または第2の部位に分類するステップと、
前記被写体の部位が第1の部位と分類された前記医療画像について、前記第1の部位のデータと前記第2の部位のデータとを有する第1データセットで機械学習により得られた第1の学習済みモデルによって前記医療画像から注目領域を検出するステップと、
前記被写体の部位が前記第2の部位と分類された前記医療画像について、前記第2の部位のデータを有する第2データセットで機械学習により得られた第2の学習済みモデルによって前記医療画像から注目領域を検出するステップとを備え、前記第1データセットは、前記第2の部位のデータに比べて、前記第1の部位のデータが相対的に多く含まれる医療画像処理装置の作動方法。
【請求項13】
医療画像処理装置用のプログラムであって、
被写体を撮像した医療画像を取得する処理と、
前記医療画像が撮像された被写体の部位を第1の部位または第2の部位に分類する処理と、
前記被写体の部位が第1の部位と分類された前記医療画像について、前記第1の部位のデータと前記第2の部位のデータとを有する第1データセットで機械学習により得られた第1の学習済みモデルによって前記医療画像から注目領域を検出する処理と、
前記被写体の部位が前記第2の部位と分類された前記医療画像について、前記第2の部位のデータを有する第2データセットで機械学習により得られた第2の学習済みモデルによって前記医療画像から注目領域を検出する処理とをコンピュータに実行させ、前記第1データセットは、前記第2の部位のデータに比べて、前記第1の部位のデータが相対的に多く含まれる医療画像処理装置用プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、医療画像処理装置、その作動方法、及び医療画像処理装置用プログラム、並びに内視鏡システムに関する。
【背景技術】
【0002】
医療分野では、医師が医療画像の観察又は診断を行う場合、内視鏡システムや、超音波診断システム等で取得した時系列順の医療画像に対して、様々な画像処理を施したものを用いる。特許文献1記載の医療画像処理装置では、取得した医療画像の生体内の部位を示す部位情報を取得し、医療画像に対して注目領域の検出等の認識処理を行う。認識処理では、深層学習等で学習した部位情報に応じた複数の学習済みモデルのいずれかを用いる。これらの学習済みモデルは、対象となる部位に応じて生体内の各部位を撮像した画像セットを用いて学習したものである。また、特許文献1には、注目領域を検出した結果を撮像部位に応じた態様で表示装置に表示させることが記載されている。
【0003】
特許文献2に記載のプロセッサ装置(医療画像処理装置)においても、取得した医療画像に写る生体の撮像部位を認識し、さらに、医療画像に対して撮像部位に係る情報を取得する認識処理を行う。これらの認識処理には、深層学習等で学習した学習済みモデルを用いる。
【先行技術文献】
【特許文献】
【0004】
【特許文献1】国際公開第2020/162275号
【特許文献2】特開2022-137276号公報
【発明の概要】
【発明が解決しようとする課題】
【0005】
上記特許文献1、2に記載のように、部位情報に応じた認識処理等に用いられる学習済みモデルは、対象となる生体内の部位を撮像した医療画像から構成される画像セットを用いて学習したものである。もし仮に、取得した部位情報が間違っていたり、ユーザである医師が間違って部位情報を入力した場合、実際の部位とは異なる部位の医療画像から構成される画像セットに基づく学習済みモデルで認識処理を行うことになる。このように、実際の部位とは異なる部位の画像セットに基づく学習済みモデルで認識処理を行うと、誤検出の多発、あるいは、実際は注目領域ではない箇所を注目領域として検出し、また逆に、実際は注目領域である箇所を注目領域ではないとして検出するなど不安定な挙動を示すことがある。
【0006】
本発明は、部位情報に応じた検出処理において誤検出を防ぎ、安定して検出を行うことを可能とする医療画像処理装置、その作動方法、及び医療画像処理装置用プログラム、並びに内視鏡システムを提供することを目的とする。
【課題を解決するための手段】
【0007】
本発明の医療画像処理装置は、プロセッサを備え、プロセッサは、被写体を撮像した医療画像を取得し、医療画像の被写体の部位を第1の部位または第2の部位に分類し、被写体の部位が第1の部位と分類された医療画像について、第1の部位のデータと第2の部位のデータとを有する第1データセットで機械学習により得られた第1の学習済みモデルによって医療画像から注目領域を検出し、被写体の部位が第2の部位と分類された医療画像について、第2の部位のデータを有する第2データセットで機械学習により得られた第2の学習済みモデルによって医療画像から注目領域を検出し、第1データセットは、第2の部位のデータに比べて、第1の部位のデータが相対的に多く含まれる。
【0008】
第1の学習済みモデルは、第1の部位における注目領域の検出精度が、第2の部位における注目領域の検出精度よりも高く、第2の学習済みモデルは、第2の部位における注目領域の検出精度が、第1の部位における注目領域の検出精度よりも高いことが好ましい。
【0009】
第1データセットは、第1の部位のデータであり、かつ注目領域を含む画像及び注目領域を含まない画像と、第2の部位のデータであり、かつ注目領域を含まない画像とから構成されることが好ましい。
【0010】
第1の学習済みモデル又は第2の学習済みモデルは、データ及び/又はデータの組み合わせが異なる第1データセット又は第2データセットでそれぞれ学習された学習済みモデルであることが好ましい。
【0011】
プロセッサは、医療画像を解析することにより、医療画像が撮像された被写体の部位を示す分類結果を取得し、分類結果に応じた第1の学習済みモデル又は第2の学習済みモデルの選択を行うことが好ましい。
【0012】
プロセッサは、ユーザの入力に応じて、医療画像が撮像された被写体の部位を示す分類結果を取得し、分類結果に応じた第1の学習済みモデル又は第2の学習済みモデルの選択を行うことが好ましい。
【0013】
プロセッサは、第1の学習済みモデル又は第2の学習済みモデルによる検出結果を報知する制御を行うことが好ましい。プロセッサは、取得された時系列順の医療画像を医療画像表示ディスプレイに表示する表示制御を行い、報知として、注目領域が検出された医療画像に、検出結果を重畳して医療画像表示ディスプレイに表示することが好ましい。。
【0014】
プロセッサは、検出結果に加えて、第1の学習済みモデル又は第2の学習済みモデルの選択状況も報知することが好ましい。機械学習は、深層学習であることが好ましい。
【0015】
本発明の内視鏡システムは、医療画像を撮像する内視鏡と、上記の医療画像処理装置とを備える。
【0016】
本発明の医療画像処理装置の作動方法は、被写体を撮像した医療画像を取得するステップと、医療画像が撮像された被写体の部位を第1の部位または第2の部位に分類するステップと、被写体の部位が第1の部位と分類された医療画像について、第1の部位のデータと第2の部位のデータとを有する第1データセットで機械学習により得られた第1の学習済みモデルによって医療画像から注目領域を検出するステップと、被写体の部位が第2の部位と分類された医療画像について、第2の部位のデータを有する第2データセットで機械学習により得られた第2の学習済みモデルによって医療画像から注目領域を検出するステップとを備え、第1データセットは、第2の部位のデータに比べて、第1の部位のデータが相対的に多く含まれる。
【0017】
本発明の医療画像処理装置のプログラムは、被写体を撮像した医療画像を取得する処理と、医療画像が撮像された被写体の部位を第1の部位または第2の部位に分類する処理と、被写体の部位が第1の部位と分類された医療画像について、第1の部位のデータと第2の部位のデータとを有する第1データセットで機械学習により得られた第1の学習済みモデルによって医療画像から注目領域を検出する処理と、被写体の部位が第2の部位と分類された医療画像について、第2の部位のデータを有する第2データセットで機械学習により得られた第2の学習済みモデルによって医療画像から注目領域を検出する処理とをコンピュータに実行させ、第1データセットは、第2の部位のデータに比べて、第1の部位のデータが相対的に多く含まれる。
【発明の効果】
【0018】
本発明によれば、部位情報に応じた検出処理において誤検出を防ぎ、安定して検出を行うことができる。
【図面の簡単な説明】
【0019】
図1】内視鏡システムの概略図である。
図2】医療画像処理装置の構成を説明するブロック図である。
図3】医療画像処理装置の機能を示すブロック図である。
図4】内視鏡システムによる検査の状態を説明する説明図である。
図5】部位分類部及び注目領域検出部の処理を説明する説明図である。
図6】医療画像表示ディスプレイの表示態様を示す画像図である。
図7】学習部による学習済みモデルを生成する学習を説明する説明図であり、第1データセットを入力する場合(A)と、第2データセットを入力する場合(B)の説明図である。
図8】医療画像処理装置の動作を示すフローチャートである。
図9】部位分類部及び注目領域検出部の処理の具体例であり、部位の分類結果として胃が認識された場合(A)、食道が認識された場合(B)の説明図である。
図10】第2実施形態に係る医療画像処理装置の構成の一部を示すブロック図である。
図11】第2実施形態に係る医療画像処理装置が、ユーザの操作により部位情報の入力を受け付ける場合の表示画面を示す画像図である。
図12】第1変形例における学習済みモデルを生成する学習を説明する説明図である。
図13】第3変形例における医療画像表示ディスプレイの表示画面を示す画像図である。
【発明を実施するための形態】
【0020】
[第1実施形態]
図1に示すように、本発明に係る医療画像処理装置20は、内視鏡システム10に含まれる。内視鏡システム10は、観察対象を撮像して内視鏡画像などの医療画像を取得する。
【0021】
内視鏡システム10は、内視鏡12、光源装置13、プロセッサ装置14、ディスプレイ15、及び、プロセッサ装置側入力デバイス16、医療画像処理装置20、医療画像表示ディスプレイ21、及び、医療画像処理装置側入力デバイス22を備える。内視鏡12は、光源装置13と光学的又は電気的に接続され、かつ、プロセッサ装置14と電気的に接続される。医療画像処理装置20は、光源装置13及びプロセッサ装置14と電気的に接続される。
【0022】
内視鏡12は、挿入部12a、操作部12b、湾曲部12c及び先端部12dを有している。挿入部12aは、被検体の体内に挿入される。操作部12bは、挿入部12aの基端部分に設けられる。湾曲部12c及び先端部12dは、挿入部12aの先端側に設けられる。湾曲部12cは、操作部12bのアングルノブ12eを操作することにより湾曲動作する。先端部12dは、湾曲部12cの湾曲動作によって所望の方向に向けられる。
【0023】
内視鏡12の内部には、被写体の像を結像するための撮像光学系、及び、被写体に照明光を照射するための照明光学系が設けられる。操作部12bには、アングルノブ12e、モード切替スイッチ12f、静止画像取得指示スイッチ12h、及びズーム操作部12iが設けられる。モード切替スイッチ12fは、観察モードの切り替え操作に用いる。静止画像取得指示スイッチ12hは、被写体の静止画像の取得指示に用いる。ズーム操作部12iは、観察対象の拡大又は縮小の操作に用いる。なお、操作部12bには、モード切替スイッチ12f及び静止画像取得指示スイッチ12hの他、プロセッサ装置14に対する各種の操作を行うためのスコープ側入力デバイス19を設けてもよい。
【0024】
光源装置13は、照明光を発生する。プロセッサ装置14は、内視鏡システム10のシステム制御を行い、さらに、内視鏡12から送信された画像信号に対して画像処理等を行うことによって医療画像を生成等する。プロセッサ装置14は、ディスプレイ15に加えて、医療画像処理装置20に医療画像を送信する。ディスプレイ15は、プロセッサ装置14から送信される医療画像の他、操作画像等を表示する。プロセッサ装置側入力デバイス16は、キーボード、マウス、フットスイッチ、及びタッチペン等を有し、ユーザによる機能設定等の入力操作を受け付ける。
【0025】
医療画像処理装置20は、医療画像表示ディスプレイ21と接続されている。医療画像処理装置20は、プロセッサ装置14から送信される医療画像を受信し、受信した医療画像に基づいて、各種処理を行う。医療画像処理装置20は、医療画像の他、各種処理の結果を医療画像表示ディスプレイ21に送信する。医療画像表示ディスプレイ21は、医療画像処理装置20から送信される医療画像などを表示する。
【0026】
内視鏡システム10は、通常モード、注目領域検出モード、及び、部位分類モードを備えている。通常モードは、医療画像として、白色光を観察対象に照明して得られるカラーの通常画像をディスプレイ15に表示する。部位分類モードでは、医療画像に対して部位分類処理を行い、分類結果に応じた注目領域検出器を選択する検出器選択処理を行う。また、部位分類モードでは、分類した部位の種類等を必要に応じて医療画像表示ディスプレイ21に表示する。注目領域検出モードでは、医療画像に対して注目領域検出処理を行い、注目領域を検出した場合に、注目領域が存在することを医療画像表示ディスプレイ21で表示する。
【0027】
以上の通常モード、注目領域検出モード、及び、部位分類モードについては、医療画像処理装置側入力デバイス22によって設定が可能である。モードの設定については、順次切り替えの他、2つ以上のモードを同時に実行すること(例えば、部位分類モード、及び、注目領域検出モードを全て実行する)も可能である。医療画像処理装置20が実施する部位分類モード、及び、注目領域検出モードの詳細については、後述する。
【0028】
図2に示すように、本実施形態の医療画像処理装置20は、ハードウェア構成としては、制御部25、通信部26、及び記憶部27が、データバス28を介して電気的に相互接続されているコンピュータである。医療画像処理装置20には、上述した医療画像表示ディスプレイ21と、医療画像処理装置側入力デバイス22とが接続されている。また、医療画像処理装置20は、報知を行うためのスピーカ29を備えている。
【0029】
医療画像処理装置側入力デバイス22は、上述したプロセッサ装置側入力デバイス16と同様の構成、すなわち、キーボード、マウス、フットスイッチ等の入力装置である。なお、これに限らず、医療画像表示ディスプレイ21に設けたタッチパネル、及び/又は、内視鏡12のスコープ側入力デバイス19等を、医療画像処理装置側入力デバイス22に含めてもよい。あるいは、プロセッサ装置側入力デバイス16と、医療画像処理装置側入力デバイス22とを、共通の入力デバイスから構成し、使用目的、又は使用状況に合わせて、プロセッサ装置14の操作と、医療画像処理装置20の操作とを切り替えて行うようにしてもよい。
【0030】
医療画像処理装置20を構成するコンピュータは、医療画像処理装置側入力デバイス22からの各種の指示の入力を受け付ける。医療画像処理装置20は、プロセッサ装置14から送信される医療画像を受信し、受信した医療画像に基づいて、部位分類処理、又は、注目領域検出処理などの各種処理を行う。医療画像処理装置20は、医療画像の他、各種処理の結果を医療画像表示ディスプレイ21に送信する。医療画像表示ディスプレイ21は、プロセッサ装置14から取得した医療画像の他に、医療画像処理装置側入力デバイス22の操作に応じた各種操作画面を表示する場合もある。例えば、操作画面にはGUI(Graphical User Interface)による操作機能が備えられる。医療画像処理装置20を構成するコンピュータは、操作画面を通じてユーザから入力を受け付けることができる。
【0031】
制御部25は、プロセッサであるCPU(Central Processing Unit)31、RAM(Random Access Memory)32、及びROM(Read Only Memory)33等を含む。CPU31は、記憶部27等に記憶されたプログラムをRAM32、又はROM33へロードして、プログラムにしたがった処理を実行することにより、コンピュータの各部を統括的に制御する。通信部26は、ネットワーク30を介した各種情報の伝送制御を行うネットワークインターフェースである。なお、RAM32、又はROM33は、記憶部27の機能を備えていてもよい。
【0032】
記憶部27は、メモリの一例であり、例えば、医療画像処理装置20を構成するコンピュータに内蔵、もしくはケーブルやネットワーク30を通じて接続されたハードディスクドライブ、ソリッドステートドライブ、又はハードディスクドライブ等を複数台連装したディスクアレイである。記憶部27には、制御プログラム、各種アプリケーションプログラム、これらのプログラムに使用するための各種データ、及び、これらのプログラムに付随する各種操作画面の表示データ等が記憶されている。
【0033】
本実施形態の記憶部27は、医療画像処理装置用プログラム34、医療画像処理装置用データ35等の各種データを記憶する。医療画像処理装置用プログラム34又は医療画像処理装置用データ35は、医療画像処理装置20の各種機能を実施するためのプログラム又はデータである。医療画像処理装置用プログラム34と医療画像処理装置用データ35とにより、医療画像処理装置20の機能が実現される。医療画像処理装置用データ35には、例えば、データが一時的に保存される領域である一時保存部35aと、プログラムのデータ等が記憶されるデータ記憶部35bとを含む。
【0034】
医療画像処理装置20を構成するコンピュータは、専用に設計された装置の他、汎用のサーバ装置、又はPC(Personal Computer)等とすることができる。また、医療画像処理装置20の機能を発揮することができればよく、他の機能を果たす装置とコンピュータを共用してもよいし、内視鏡用プロセッサ装置、及び/又は、診療情報管理装置等に医療画像処理装置20の機能を組み込むこともできる。医療画像処理装置20には医療画像処理に関するプログラムがプログラム用メモリである記憶部27に格納されている。
【0035】
図3に示すように、医療画像処理装置20は、制御部25により、記憶部27内の医療画像処理装置用プログラム34が動作することによって、医療画像取得部41と、部位分類部42と、注目領域検出部43と、表示制御部44と、報知制御部45と、学習部46との機能が実現する。
【0036】
医療画像取得部41は、プロセッサ装置14から順次医療画像を取得することによって、被写体を撮像した医療画像を取得する。本実施形態では、医療画像取得部41がプロセッサ装置14から取得する医療画像は、時系列順の複数の医療画像である。本実施形態では、医療画像として、内視鏡12で得られる内視鏡画像を取得するが、これに限らず、超音波画像、CT(Computed Tomography)画像、MRI(Magnetic Resonance Imaging)画像などその他の医療画像を受信してもよい。
【0037】
部位分類部42は、医療画像取得部41が取得した医療画像を解析することにより、医療画像が撮像された被写体の部位を分類する部位分類処理を行う。注目領域検出部43は、部位分類部42で行った部位分類処理に基づき、注目領域検出器を選択する検出器選択処理、及び選択された注目領域検出器によって医療画像から注目領域を検出する注目領域検出処理を行う。部位分類処理、検出器選択処理、及び注目領域検出処理の具体的な内容については後述する。
【0038】
注目領域検出処理、又は、部位分類処理としては、例えば、NN(Neural Network)、CNN(Convolutional Neural Network)、RNN(Recurrent Neural Network)などを用いた深層学習(ディープラーニング)により得られた学習済みモデルが行う処理であることが好ましい。あるいは、深層学習に限らず、他の機械学習、例えば、Adaboost、ランダムフォレストを用いた学習により得られた学習済みモデルが行う処理でもよい。
【0039】
なお、注目領域検出部43により注目領域検出処理で検出される注目領域は、例えば、がんに代表される病変部、処理の跡、手術の跡、出血箇所、良性腫瘍部、炎症部(いわゆる炎症の他、出血または萎縮等の変化がある部分を含む)を含む領域である。すなわち、病変を含む領域、病変の可能性がある領域、または、暗部領域(ヒダ(襞)の裏、管腔奥のため観察光が届きにくい領域)など病変の可能性にかかわらず詳細な観察が必要である領域等が注目領域になり得る。注目領域検出処理は、病変部、良性腫瘍部、炎症部のうち少なくともいずれかを含む領域を注目領域として検出する。
【0040】
また、部位分類部42が行う部位分類処理では、医療画像50が撮像された被写体の部位を、第1の部位または第2の部位に分類する。部位分類部42では、第1の部位および第2の部位を含む予め設定された複数の被写体の部位を認識するため、上述したように医療画像を学習し、生成した学習済みを用いる。そして、部位分類処理では、学習済みモデルを利用して、第1の部位または第2の部位が医療画像に含まれるか否かを判定する。部位分類処理において、検査対象である複数の被写体の部位は、検査の目的等に応じて設定される。
【0041】
図4に示すように、本実施形態では、内視鏡システム10は上部消化管100の検査を行う。すなわち、内視鏡12による上部消化管100の撮像を行う場合であり、部位分類部42により予め設定された複数の被写体の部位として、食道101、胃102、十二指腸103が設定されている場合を例示する。このように、部位分類部42により予め設定された複数の被写体の部位のいずれかが、特許請求の範囲における「第1の部位」および「第2の部位」に相当する。なお、これに限らず、部位分類部42により予め設定された複数の被写体の部位は、「第1の部位」および「第2の部位」を少なくとも含んでいればよく、3つ以上の部位を含んでもよい。
【0042】
なお、これに限らず、内視鏡システム10が行う検査としては、例えば下部消化管の検査等、被写体の他の部分の検査でもよい。なお、下部消化管の検査の場合、予め設定された複数の被写体の部位としては、例えば、大腸と小腸とが設定されている。また、部位分類処理において、予め設定された被写体の部位としては、さらに細かい部位に設定してもよい。例えば、胃内部を検査する場合には、予め設定された被写体の部位としては、穹窿部、胃体上部、胃体中部、胃体下部、噴門部、胃角部等に設定してもよい。また、大腸内部を検査する場合には、予め設定された被写体の部位としては、直腸、S字結腸、下行結腸、横行結腸等に設定してもよい。
【0043】
図5に示すように、医療画像取得部41が時系列順に取得した医療画像50が、部位分類部42に入力される。部位分類部42は、医療画像50を用いて、部位分類処理を行う。上述したように、本実施形態では、予め設定された複数の被写体の部位として、食道101、胃102、十二指腸103が設定されている。すなわち、部位分類部42は、医療画像50を解析することにより、医療画像50が撮像された被写体の部位が、食道101、胃102、十二指腸103のうち、いずれの部位であるかを認識して分類する部位分類処理を行う。部位分類部42が行った部位分類処理による分類結果と、部位分類処理が行われた医療画像50が注目領域検出部43に入力される。
【0044】
注目領域検出部43は、複数の注目領域検出器である、食道用病変検出器43A、胃用病変検出器43B、及び、十二指腸用病変検出器43Cを含む。食道用病変検出器43A、胃用病変検出器43B、及び、十二指腸用病変検出器43Cは、予め設定された複数の被写体の部位である、食道101、胃102、十二指腸103にそれぞれ対応している。
【0045】
注目領域検出部43は、部位分類部42による分類結果を取得し、分類結果に応じた食道用病変検出器43A、胃用病変検出器43B、及び、十二指腸用病変検出器43Cのいずれか1つを選択する。すなわち、注目領域検出部43は、部位分類部42が医療画像50を分類した分類結果が食道101の場合、食道用病変検出器43Aを選択し、また同様に分類結果が胃102の場合、胃用病変検出器43Bを選択し、また同様に分類結果が十二指腸103の場合、十二指腸用病変検出器43Cを選択する。このように、被写体の部位が第1の部位と分類された場合に、注目領域検出部43により選択される注目領域検出器が、「第1の学習済みモデル」に相当する。同様に、被写体の部位が第2の部位と分類された場合に、注目領域検出部43により選択される注目領域検出器が、「第2の学習済みモデル」に相当する。
【0046】
注目領域検出部43は、検出器選択処理により選択された食道用病変検出器43A、胃用病変検出器43B、及び、十二指腸用病変検出器43Cのいずれか1つによって医療画像50から注目領域を検出する注目領域検出処理を行う。検出された注目領域の情報、及び、注目領域が検出された医療画像50は、表示制御部44に入力される。表示制御部44は、時系列順に、医療画像50を医療画像表示ディスプレイ21に表示させる表示制御を行う。また、表示制御部44は、注目領域が検出された場合、検出結果を報知する。
【0047】
表示制御部44は、時系列順に取得され、部位分類処理、及び注目領域検出処理が施された医療画像50を医療画像表示ディスプレイ21に表示する表示制御を行うとともに、注目領域の検出結果を報知する制御を行う。表示制御部44による検出結果の報知は、検査中に行われることが好ましい。具体的には、報知制御部45は、時系列順の医療画像50が医療画像表示ディスプレイ21に表示された場合、注目領域の検出結果を、注目領域が検出された医療画像50に重畳して医療画像表示ディスプレイ21に表示する。
【0048】
例えば、図6に示すように、注目領域検出部43により医療画像50から注目領域55が検出された場合、表示制御部44は、検査中動画として医療画像50をリアルタイムに表示するメイン画面51の外枠51Aを、検出結果報知用の色で強調表示することが好ましい。また、検出結果報知用の色は、注目領域が未検出の場合の色と異ならせることが好ましい。例えば、注目領域が未検出の場合の色を黄色とした場合には、検出結果報知用の色は、黄色に対して補色となる青色とすることが好ましい。
【0049】
また、表示制御部44による検出結果の報知は、これらに限定するものではなく、メイン画面51に表示する医療画像50内の注目領域55を含む部分を、実際の色とは異なる色(濃淡、明度、彩度等を異ならせた色)で強調表示したり、注目領域55を含む部分又は注目領域55の周辺に図形を重畳表示してもよい。
【0050】
報知制御部45は、医療画像表示ディスプレイ21への表示とは異なる方法で、注目領域の検出結果を報知する制御を行う。例えば、報知制御部45は、スピーカ29を制御し、注目領域検出部43により医療画像50から注目領域が検出された場合、報知音をスピーカ29から再生する。また、例えば、上述した表示制御部44での検出結果報知用の強調表示に合わせて報知音をスピーカ29から再生させる。
【0051】
学習部46は、上述した食道用病変検出器43A、胃用病変検出器43B、十二指腸用病変検出器43Cを深層学習によって生成する。食道用病変検出器43A、胃用病変検出器43B、十二指腸用病変検出器43Cは、学習部46が行う深層学習により得られる学習済みモデルである。なお、注目領域検出部43に含まれる注目領域検出器を深層学習により生成する構成としてはこれに限らず、医療画像処理装置20の外部に設けた装置で、学習部46と同様の深層学習を行い、生成した学習済みモデルを取得して、注目領域検出器として使用してもよい。例えば、ネットワーク30を介して接続された外部のクラウドサーバなどに学習部46と同様の機能を実行させ、このクラウドサーバ上の学習部により深層学習した学習済みモデルを医療画像処理装置20が取得し、注目領域検出部43に含まれる複数の注目領域検出器としてもよい。
【0052】
図7(A)及び図7(B)に示すように、学習部46による深層学習は、複数の医療画像を有する第1データセットDS1、又は第2データセットDS2を入力して行う。学習部46により生成し、食道用病変検出器43A、胃用病変検出器43B、及び十二指腸用病変検出器43Cのいずれかとして用いる第1の学習済みモデル43X1は、第1データセットDS1で上述した深層学習により得られた学習済みモデルである。第1データセットDS1は、複数の第1の部位のデータD1と、複数の第2の部位のデータD2とを有する。具体的には、データD1は、第1の部位を撮像した医療画像のデータであり、データD2は、第2の部位を撮像した医療画像のデータである。
【0053】
なお、「第1の部位」、及び「第2の部位」は、第1の学習済みモデルが、食道用病変検出器43A、胃用病変検出器43B、及び、十二指腸用病変検出器43Cのどれに該当するかに応じて内容が変わる。具体的には、第1の学習済みモデルが食道用病変検出器43Aの場合、「第1の部位」は、食道用病変検出器43Aが対応する部位、すなわち食道であり、「第2の部位」とは、予め設定された複数の被写体の部位のうち、第1の部位を除くもの、胃、又は十二指腸である。
【0054】
図7(B)に示すように、第2の学習済みモデル43X2は、第2データセットDS2で上述した深層学習により得られた学習済みモデルである。第2データセットDS2は、複数の第2の部位のデータD2を有する。上述した具体例のように、第1の部位が食道、第2の部位が胃である場合、第1の部位のデータD1は、食道を撮像した医療画像のデータであり、第2の部位のデータD2は、胃を撮像した医療画像のデータである。
【0055】
また、上述した具体例では、第2の部位を十二指腸としてもよい。この場合、第2の部位のデータD2は、十二指腸を撮像した医療画像のデータであり、第2データセットDS2は、複数の第2の部位のデータD2、すなわち十二指腸を撮像した医療画像のデータを有する。
【0056】
また、第1の学習済みモデルが胃用病変検出器43Bの場合、「第1の部位」は、胃用病変検出器43Bが対応する部位、すなわち胃であり、「第2の部位」とは、予め設定された複数の被写体の部位のうち、第1の部位を除くもの、食道、又は十二指腸である。また、第1の学習済みモデルが十二指腸用病変検出器43Cの場合、「第1の部位」は、十二指腸であり、「第2の部位」とは、予め設定された複数の被写体の部位のうち、第1の部位を除くもの、胃、又は食道である。以上の場合においても、上述した具体例と同様に、第1の部位のデータD1と第2の部位のデータD2とを有する第1データセットDS1、及び第2の部位のデータD2を有する第2データセットDS2を学習部46がそれぞれ深層学習して、第1の学習済みモデル、及び第2の学習済みモデルが得られる。
【0057】
以上のように、第1のデータセットDS1又は第2データセットDS2を学習部46に入力し、深層学習を行って第1の学習済みモデル又は第2の学習済みモデルである食道用病変検出器43A、胃用病変検出器43B、及び、十二指腸用病変検出器43Cを得ている。
【0058】
第1データセットDS1は、第2の部位のデータD2に比べて、第1の部位のデータD1が相対的に多く含まれる。例えば、第1データセットDS1は、第1の部位が食道である場合、第2の部位のデータD2である胃、又は十二指腸のデータに比べて、第1の部位のデータD1である食道のデータが相対的に多く含まれる。
【0059】
食道用病変検出器43A、胃用病変検出器43B、及び、十二指腸用病変検出器43Cは、それぞれのデータD1、D2、及び/又はデータD1、D2の組み合わせが異なる第1データセットDS1又は第2データセットDS2で学習された第1の学習済みモデル又は第2の学習済みモデルであることが好ましい。これにより、食道用病変検出器43A、胃用病変検出器43B、十二指腸用病変検出器43Cにそれぞれ最適な第1の学習済みモデル又は第2の学習済みモデルが生成される。
【0060】
次に、内視鏡システム10を用いて検査を行う場合、医療画像処理装置20の処理の流れについて、図8に示すフローチャート、及び、図9に示す説明図を用いて説明する。なお、図8及び図9に示す例は、内視鏡システム10において、注目領域検出モード、及び、部位分類モードという2つのモードを同時に実行する場合の動作を示す。ユーザである医師は、内視鏡システム10を電源オン状態とし、被検体内を観察する。そして、内視鏡システム10は、医療画像50である内視鏡画像を順次撮影する。
【0061】
医療画像処理装置20では、先ず、医療画像取得部41がプロセッサ装置14から複数の医療画像を時系列順に取得する(ステップST110)。次に、部位分類部42が取得した医療画像50の部位分類処理を行う(ステップST120)。本実施形態では、部位分類部42は、医療画像50が撮像された被写体の部位を、第1の部位または第2の部位に分類する部位分類処理を行う。具体的には、食道101、胃102、十二指腸103のうち、いずれの部位であるかを認識して分類する部位分類処理を行う。
【0062】
次に、注目領域検出部43が部位分類部42による分類結果を用いて、食道用病変検出器43A、胃用病変検出器43B、及び、十二指腸用病変検出器43Cのいずれか1つ、すなわち第1の学習済みモデル又は第2の学習済みモデルを選択する検出器選択処理を行い(ステップST130)、これに続いて、検出器選択処理により選択された食道用病変検出器43A、胃用病変検出器43B、及び、十二指腸用病変検出器43Cのいずれか1つ、すなわち第1の学習済みモデル又は第2の学習済みモデルによって医療画像50から注目領域を検出する注目領域検出処理を行う(ステップST140)。
【0063】
注目領域検出部43による注目領域の検出結果、及び、医療画像50に基づき、表示制御部44及び報知制御部45が、注目領域の検出結果を報知する(ステップST150)。ユーザが検査を続行したい場合(ステップST160でY)、医療画像取得部41による医療画像50の取得に戻り(ステップST110)、上記の処理を繰り返す。ユーザが検査を終了したい場合(ステップST160でN)、内視鏡システム10の電源をオフ状態とする。
【0064】
以上のように、内視鏡システム10を用いて検査を行う場合、実際は、第1の部位を撮像して取得した医療画像50にも関わらず、部位分類部42が行った部位分類処理で、第2の部位に分類してしまうことがある。例えば、被写体の部位の境界付近で撮像された医療画像50については、部位分類部42が行う部位分類処理が誤った分類結果を出すことがある。または、被写体である消化管の蠕動による管腔の形態変化、被写体に対して液体等を噴射した場合の水被り、あるいは、内視鏡12の撮像光学系にピントずれが起きた場合の影響等によっても、部位分類部42が行う部位分類処理が誤った分類結果を出すことがある。図4に示す例では、食道101と胃102との境界104付近、胃102と十二指腸との境界付近105で撮像された医療画像50が該当する。
【0065】
図9(A)に示すように、分類結果が胃102である場合、注目領域検出部43では、胃用病変検出器43Bが選択され、医療画像50に対して注目領域55の検出が行われる。一方、図9(B)に示すように、分類結果が食道101である場合、注目領域検出部43では、食道用病変検出器43Aが選択され、医療画像50に対して注目領域55の検出が行われる。
【0066】
上述したような、境界104、105付近で医療画像50を撮像した場合、例えば、実際は、胃102を撮像して医療画像50を取得しているにも関わらず、部位分類部42は、食道101であるという分類結果を出す可能性がある。この場合、注目領域検出部43は、誤った分類結果に基づき、食道用病変検出器43Aを選択してしまう。
【0067】
しかしながら、本実施形態では、第1の部位のデータD1と、第2の部位のデータD2とを有する第1データセットDS1を学習部46に入力しているため、食道用病変検出器43Aを学習した第1データセットDS1の中に、第2の部位のデータD2、すなわち、胃のデータも含まれている。よって、実際には、胃を撮像して取得した医療画像50に対して、胃のデータを含む第1データセットDS1で学習した第1の学習済みモデルで検出を行っているため、注目領域検出部43による誤検出が少ない。また、注目領域検出部43が、実際は注目領域ではない箇所を注目領域として検出すること、および、実際は注目領域である箇所を注目領域ではないとして検出することが少なくなり、安定した挙動で、注目領域を検出することができる。
【0068】
一方、胃102を撮像して医療画像50を取得した場合、部位分類部42は、胃102という正しい分類結果を出すことがほとんどである。この場合、注目領域検出部43は、正しい分類結果に基づき、胃用病変検出器43Bが選択され、医療画像50に対して注目領域55の検出が行われる。上述した具体例のように、第1の部位が食道、第2の部位が胃である場合、胃用病変検出器43Bを学習した第2データセットDS2の中に、第2の部位である胃の医療画像のデータが含まれている。よって、注目領域検出部43による誤検出が少ない。
【0069】
また、本実施形態では、深層学習を行う第1データセットDS1は、第2の部位のデータD2に比べて、第1の部位のデータD1が相対的に多く含まれる。例えば、第1の部位が食道である場合、第2の部位のデータD2である胃、又は十二指腸のデータに比べて、第1の部位のデータD1である食道のデータが相対的に多い。このようにして生成された第1の学習済みモデルは、食道用病変検出器43Aとなる。これにより、分類結果が食道101である場合、食道のデータを多く含む第1データセットDS1で学習した食道用病変検出器43Aで注目領域の検出を行っているため、注目領域検出部43がさらに高い精度で注目領域の検出を行うことが可能となり、安定した挙動で、注目領域を検出することができる。
【0070】
[第2実施形態]
上記第1実施形態では、部位分類部42が医療画像を解析することにより、医療画像50が撮像された被写体の部位を示す分類結果を取得しているが、本発明はこれに限らず、図10に示すように、ユーザの入力に応じて、医療画像50が撮像された被写体の部位を示す分類結果を取得してもよい。この場合、例えば、部位分類部42は、ユーザが医療画像処理装置側入力デバイス22を操作して入力した部位情報Sを受け付ける。そして、部位分類部42は、ユーザが入力した部位情報Sを分類結果として用いる。なお、本実施形態に係る医療画像処理装置の構成は、部位分類部42以外については、上記第1実施形態に係る医療画像処理装置20と同様であり、説明を省略する。
【0071】
部位情報Sを入力する場合、例えば、図11に示すように、医療画像表示ディスプレイ21に、検査中動画として医療画像50をリアルタイムに表示するとともに、被写体の部位を示す模式図PDを表示する。なお、図11に示す例では、上記第1実施形態と同様に、被写体の部位として、食道、胃、十二指腸が設定されている。ユーザは、医療画像50を観察しながら、医療画像処理装置側入力デバイス22を操作して、ポインタ56の位置を、模式図PDにおける部位(食道、胃、十二指腸のいずれか1つ)の位置に合わせる。これにより、ユーザが部位情報Sを入力することができる。
【0072】
本実施形態に係る医療画像処理装置の処理の流れでは、上記第1実施形態における部位分類処理(ステップST120;図8参照)のときに、ユーザである医師が医療画像処理装置側入力デバイス22を操作して部位情報を入力する。そして、ユーザが入力した部位情報を分類結果として用いて、食道用病変検出器43A、胃用病変検出器43B、及び、十二指腸用病変検出器43Cのいずれか1つを選択する検出器選択処理を行う(ステップST130;図8参照)。以降の処理は、上記第1実施形態と同様である。
【0073】
以上のように、本実施形態に係る医療画像処理装置を含む内視鏡システムを用いて検査を行う場合、実際は、第1の部位を撮像して取得した医療画像50にも関わらず、ユーザが入力した部位情報が誤りで、第2の部位に分類してしまうことがある。特に、被写体の部位の境界付近で撮像された医療画像50については、判断が難しく、誤った分類結果を出すことがある。または、検査中にユーザが操作を忘れてしまうことにより、適切な分類結果に切り替えることができない場合もある。
【0074】
しかしながら、上記第1実施形態と同様に、第1の部位のデータD1と、第2の部位のデータD2とを有する第1データセットDS1を学習部46に入力しているため、第1の学習済みモデルを学習した第1データセットDS1の中に、第2の部位のデータD2も含まれている。よって、ユーザが入力した部位情報が誤りで、第2の部位に分類してしまった場合、例えば、実際には胃を撮像して取得した医療画像50に対して、ユーザの入力により食道に分類してしまった場合、胃のデータを含む第1データセットDS1で学習した学習済みモデルで検出を行っているため、注目領域検出部43による誤検出が少ない。また、上記第1実施形態と同様に、注目領域検出部43は、安定した挙動で、注目領域を検出することができる。
【0075】
[第1変形例]
上記各実施形態では、深層学習を行うデータセットについて、これらのデータの中に注目領域を含むか否かについては限定していない。図12に示す変形例では、第1データセットDS1は、第1の部位のデータD1であり、かつ注目領域を含む画像D11及び注目領域を含まない画像D12と、第2の部位のデータD2であり、かつ注目領域を含まない画像D21とから構成される。これにより、部位分類部42による分類結果が第1の部位である場合、第1の部位のデータとして注目領域を含む画像D11から構成される第1データセットDS1で学習した第1の学習済みモデル43X1で注目領域の検出を行っているため、注目領域検出部43がさらに高い精度で注目領域の検出を行うことが可能となり、安定した挙動で、注目領域を検出することができる。特に、第2の部位の医療画像50が、第1の学習済みモデルに入力された場合に、注目領域の誤検出を抑制することができる。
【0076】
[第2変形例]
上記各自実施形態及び第1変形例では、第1の学習済みモデル及び第2の学習済みモデルによる検出精度を調整するため、第1の学習済みモデル及び第2の学習済みモデルを学習するための第1データセットDS1及び第2データセットDS2において、データD1、D2の数及び内容を異なるようにしているが、本発明は、これに限らず、学習部46による学習時の各データD1、D2の比重(重みづけ)を異ならせることで調整してもよい。この場合、各データD1、D2の比重を異ならせることにより、第1の学習済みモデルは、第1の部位における注目領域の検出精度が、第2の部位における注目領域の検出精度よりも高く、第2の学習済みモデルは、第2の部位における注目領域の検出精度が、第1の部位における注目領域の検出精度よりも高いことが好ましい。
【0077】
なお、本明細書において検出精度が高いとは、感度が高いこと及び/又は特異度が高いことであることが好ましい。感度が高いとは、注目領域と判定されるべきものを正しく注目領域と判定する可能性が高いことであり、特異度が高いとは、正常である(注目領域が無い)のに、注目領域があると判断される可能性が低いことである。
【0078】
[第3変形例]
上記各実施形態では、注目領域検出部43により医療画像50から注目領域55が検出された場合、表示制御部44は、注目領域55の検出結果を、注目領域が検出された医療画像50に重畳して医療画像表示ディスプレイ21に表示させているが、本発明はこれに限らず、図13に示すように、注目領域55の検出を示すメッセージMS1を重畳して、医療画像表示ディスプレイ21に表示させてもよい。また、このように、注目領域55の検出を示すメッセージMS1としては、注目領域検出部43で選択された第1の学習済みモデル又は第2の学習済みモデルの選択状況を表示させてもよい。
【0079】
図13に示す変形例では、注目領域検出部43で選択された第1の学習済みモデル又は第2の学習済みモデルとして、胃用病変検出器43Bが選択されていることを示す「Stomach」というメッセージMS1が表示されている。なお、注目領域検出部43で選択された第1の学習済みモデル又は第2の学習済みモデルの選択状況を表示させる表示態様としては、これに限らず、図11に示すように、被写体の部位に対応する模式図PDを第1の学習済みモデル又は第2の学習済みモデルの選択状況として、医療画像表示ディスプレイ21に表示させてもよい。
【0080】
また、表示制御部44は、上記各実施形態のように、注目領域55の検出結果を表示する表示形態に加えて、図13に示す変形例のように、第1の学習済みモデル又は第2の学習済みモデルの選択状況を示すメッセージも報知する表示を行ってもよい。これにより第1の学習済みモデル又は第2の学習済みモデルの選択状況と、医療画像表示ディスプレイ21に表示されている医療画像50とを比較して、第1の学習済みモデル又は第2の学習済みモデルが正しく選択されているか否かをユーザが確認することができる。
【0081】
上記各実施形態において、医療画像取得部、部位分類部、注目領域検出部、表示制御部、報知制御部、学習部といった各種の処理を実行する処理部(processing unit)のハードウェア的な構造は、次に示すような各種のプロセッサ(processor)である。各種のプロセッサには、ソフトウエア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPU(Central Processing Unit)、GPU(Graphical Processing Unit)、FPGA (Field Programmable Gate Array) などの製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、各種の処理を実行するために専用に設計された回路構成を有するプロセッサである専用電気回路などが含まれる。
【0082】
1つの処理部は、これら各種のプロセッサのうちの1つで構成されてもよいし、同種または異種の2つ以上のプロセッサの組み合せ(例えば、複数のFPGA、CPUとFPGAの組み合わせ、またはCPUとGPUの組み合わせ等)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアントやサーバなどのコンピュータに代表されるように、1つ以上のCPUとソフトウエアの組み合わせで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)などに代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサを1つ以上用いて構成される。
【0083】
さらに、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子などの回路素子を組み合わせた形態の電気回路(circuitry)である。また、記憶部のハードウェア的な構造はHDD(hard disc drive)やSSD(solid state drive)等の記憶装置である。
【0084】
[付記項1]
プロセッサを備え、
前記プロセッサは、
被写体を撮像した医療画像を取得し、
前記医療画像の被写体の部位を第1の部位または第2の部位に分類し、
前記被写体の部位が前記第1の部位と分類された前記医療画像について、前記第1の部位のデータと前記第2の部位のデータとを有する第1データセットで機械学習により得られた第1の学習済みモデルによって前記医療画像から注目領域を検出し、
前記被写体の部位が前記第2の部位と分類された前記医療画像について、前記第2の部位のデータを有する第2データセットで機械学習により得られた第2の学習済みモデルによって前記医療画像から注目領域を検出し、
前記第1データセットは、前記第2の部位のデータに比べて、前記第1の部位のデータが相対的に多く含まれる医療画像処理装置。
[付記項2]
前記第1の学習済みモデルは、前記第1の部位における注目領域の検出精度が、前記第2の部位における注目領域の検出精度よりも高く、
前記第2の学習済みモデルは、前記第2の部位における注目領域の検出精度が、前記第1の部位における注目領域の検出精度よりも高い請求項1に記載の医療画像処理装置。
[付記項3]
前記第1データセットは、前記第1の部位のデータであり、かつ注目領域を含む画像及び注目領域を含まない画像と、第2の部位のデータであり、かつ注目領域を含まない画像とから構成される請求項1又は2に記載の医療画像処理装置。
[付記項4]
前記第1の学習済みモデル又は前記第2の学習済みモデルは、データ及び/又はデータの組み合わせが異なる第1データセット又は第2データセットでそれぞれ学習された前記学習済みモデルである請求項1ないし3のいずれか1項に記載の医療画像処理装置。
[付記項5]
前記プロセッサは、医療画像を解析することにより、前記医療画像が撮像された被写体の部位を示す分類結果を取得し、前記分類結果に応じた前記第1の学習済みモデル又は前記第2の学習済みモデルの選択を行う請求項1ないし4のいずれか1項に記載の医療画像処理装置。
[付記項6]
前記プロセッサは、ユーザの入力に応じて、前記医療画像が撮像された被写体の部位を示す分類結果を取得し、前記分類結果に応じた前記第1の学習済みモデル又は前記第2の学習済みモデルの選択を行う請求項1ないし5のいずれか1項に記載の医療画像処理装置。
[付記項7]
前記プロセッサは、前記第1の学習済みモデル又は前記第2の学習済みモデルによる検出結果を報知する制御を行う請求項1ないし6のいずれか1項に記載の医療画像処理装置。
[付記項8]
前記プロセッサは、取得された前記時系列順の医療画像を医療画像表示ディスプレイに表示する表示制御を行い、
前記報知として、前記注目領域が検出された医療画像に、前記検出結果を重畳して前記医療画像表示ディスプレイに表示する請求項7に記載の医療画像処理装置。
[付記項9]
前記プロセッサは、前記検出結果に加えて、前記第1の学習済みモデル又は前記第2の学習済みモデルの選択状況も報知する請求項7に記載の医療画像処理装置。
[付記項10]
前記機械学習は、深層学習である請求項1ないし9のいずれか1項に記載の医療画像処理装置。
[付記項11]
前記医療画像を撮像する内視鏡と、
請求項1ないし10のいずれか1項に記載の医療画像処理装置とを備える内視鏡システム。
[付記項12]
被写体を撮像した医療画像を取得するステップと、
前記医療画像が撮像された被写体の部位を第1の部位または第2の部位に分類するステップと、
前記被写体の部位が第1の部位と分類された前記医療画像について、前記第1の部位のデータと前記第2の部位のデータとを有する第1データセットで機械学習により得られた第1の学習済みモデルによって前記医療画像から注目領域を検出するステップと、
前記被写体の部位が前記第2の部位と分類された前記医療画像について、前記第2の部位のデータを有する第2データセットで機械学習により得られた第2の学習済みモデルによって前記医療画像から注目領域を検出するステップとを備え、前記第1データセットは、前記第2の部位のデータに比べて、前記第1の部位のデータが相対的に多く含まれる医療画像処理装置の作動方法。
[付記項13]
医療画像処理装置用のプログラムであって、
被写体を撮像した医療画像を取得する処理と、
前記医療画像が撮像された被写体の部位を第1の部位または第2の部位に分類する処理と、
前記被写体の部位が第1の部位と分類された前記医療画像について、前記第1の部位のデータと前記第2の部位のデータとを有する第1データセットで機械学習により得られた第1の学習済みモデルによって前記医療画像から注目領域を検出する処理と、
前記被写体の部位が前記第2の部位と分類された前記医療画像について、前記第2の部位のデータを有する第2データセットで機械学習により得られた第2の学習済みモデルによって前記医療画像から注目領域を検出する処理とをコンピュータに実行させ、前記第1データセットは、前記第2の部位のデータに比べて、前記第1の部位のデータが相対的に多く含まれる医療画像処理装置用プログラム。
【符号の説明】
【0085】
10 内視鏡システム
12 内視鏡
12a 挿入部
12b 操作部
12c 湾曲部
12d 先端部
12e アングルノブ
12f モード切替スイッチ
12h 静止画像取得指示スイッチ
12i ズーム操作部
13 光源装置
14 プロセッサ装置
15 ディスプレイ
16 プロセッサ装置側入力デバイス
19 スコープ側入力デバイス
20 医療画像処理装置
21 医療画像表示ディスプレイ
22 医療画像処理装置側入力デバイス
25 制御部
26 通信部
27 記憶部
28 データバス
29 スピーカ
30 ネットワーク
31 CPU(Central Processing Unit)
32 RAM(Random Access Memory)
33 ROM(Read Only Memory)
34 医療画像処理装置用プログラム
35 医療画像処理装置用データ
35a 一時保存部
35b データ記憶部
41 医療画像取得部
42 部位分類部
43 注目領域検出部
43A 食道用病変検出器
43B 胃用病変検出器
43C 十二指腸用病変検出器
43X1 第1の学習済みモデル
43X2 第2の学習済みモデル
44 表示制御部
45 報知制御部
46 学習部
50 医療画像
51 メイン画面
51A 外枠
55 注目領域
56 ポインタ
100 上部消化管
101 食道
102 胃
103 十二指腸
104、105 境界
D1、D2 データ
D11 注目領域を含む画像
D12 注目領域を含まない画像
D21 注目領域を含まない画像
DS1 第1データセット
DS2 第2データセット
MS1 メッセージ
PD 模式図
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13