(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2022-06-10
(45)【発行日】2022-06-20
(54)【発明の名称】医用画像処理装置、医用画像処理システム及び医用画像処理プログラム
(51)【国際特許分類】
A61B 5/055 20060101AFI20220613BHJP
A61B 6/03 20060101ALI20220613BHJP
G06T 7/00 20170101ALI20220613BHJP
【FI】
A61B5/055 380
A61B6/03 360J
A61B6/03 360T
A61B6/03 370E
G06T7/00 350B
G06T7/00 614
(21)【出願番号】P 2018160005
(22)【出願日】2018-08-29
【審査請求日】2021-05-26
(73)【特許権者】
【識別番号】594164542
【氏名又は名称】キヤノンメディカルシステムズ株式会社
(74)【代理人】
【識別番号】110001771
【氏名又は名称】特許業務法人虎ノ門知的財産事務所
(72)【発明者】
【氏名】五十嵐 匠真
【審査官】亀澤 智博
(56)【参考文献】
【文献】特開2008-173167(JP,A)
【文献】特開2008-289916(JP,A)
【文献】特開2016-007270(JP,A)
【文献】特許第6200618(JP,B1)
【文献】米国特許出願公開第2016/0110632(US,A1)
【文献】特表2018-516703(JP,A)
【文献】特開2005-269214(JP,A)
【文献】特開2004-048587(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
A61B 5/055
A61B 6/00 - 6/14
A61B 8/00 - 8/15
G01T 1/161 - 1/166
G06T 1/00 , 7/00
(57)【特許請求の範囲】
【請求項1】
画像処理によって抽出された医用画像内の抽出領域と、前記抽出領域に対して修正者が修正を施した修正領域とを取得する取得部と、
前記抽出領域と前記修正領域との差分と、前記抽出領域との関係を学習することにより得られた学習済みモデルであって、前記画像処理によって医用画像内から抽出される抽出領域に対して修正を施した後の修正後領域を推定するように機能付けられた学習済みモデルを記憶する記憶部と、
前記画像処理によって医用画像内から抽出された抽出領域を前記学習済みモデルに入力させることで、修正後領域を推定するように制御する推定部と、
を備える、医用画像処理装置。
【請求項2】
前記記憶部は、前記抽出領域と前記修正領域との差分領域に対する画像解析の結果と、前記抽出領域との関係を学習することで得られた学習済みモデルを記憶し、
前記推定部は、前記画像処理によって医用画像内から抽出された抽出領域の画像解析の結果を前記学習済みモデルに入力させることで、当該抽出領域において修正が施される領域を推定するように制御する、請求項1に記載の医用画像処理装置。
【請求項3】
前記記憶部は、前記画像処理によって医用画像内から抽出される抽出領域に対して修正を施した修正者ごとの学習済みモデルを記憶し、
前記推定部は、医用画像内から抽出された抽出領域を前記修正者ごとの学習済みモデルに対して入力させることで、前記修正者ごとの修正後領域を推定するように制御する、請求項1又は2に記載の医用画像処理装置。
【請求項4】
前記記憶部は、前記画像処理によって医用画像内から抽出される抽出領域に対して複数の修正者によって実施された修正結果に対応する複数の画像解析の結果を統合した結果と、前記抽出領域との関係を学習することで得られた学習済みモデルを記憶し、
前記推定部は、前記画像処理によって医用画像内から抽出された抽出領域の画像解析の結果を前記学習済みモデルに入力させることで、当該抽出領域において修正が施される領域を推定するように制御する、請求項2に記載の医用画像処理装置。
【請求項5】
前記学習済みモデルを生成する学習部を更に備える、請求項1~4のいずれか1つに記載の医用画像処理装置。
【請求項6】
前記医用画像において、前記画像処理によって抽出された医用画像内の抽出領域と、前記修正後領域とを識別可能に表示させるように制御する表示制御部をさらに備える、請求項1~5のいずれか1つに記載の医用画像処理装置。
【請求項7】
前記医用画像において、前記修正者ごとの修正後領域を識別可能に表示させるように制御する表示制御部をさらに備える、請求項3に記載の医用画像処理装置。
【請求項8】
画像処理によって抽出された医用画像内の抽出領域と、前記抽出領域に対して修正者が修正を施した修正領域とを取得する取得部と、
前記抽出領域と前記修正領域との差分と、前記抽出領域との関係を学習することにより得られた学習済みモデルであって、前記画像処理によって医用画像内から抽出される抽出領域に対して修正を施した後の修正後領域を推定するように機能付けられた学習済みモデルを記憶する記憶部と、
前記画像処理によって医用画像内から抽出された抽出領域を前記学習済みモデルに入力させることで、修正後領域を推定するように制御する推定部と、
を備える、医用画像処理システム。
【請求項9】
画像処理によって抽出された医用画像内の抽出領域と、前記抽出領域に対して修正者が修正を施した修正領域とを取得する取得機能と、
前記抽出領域と前記修正領域との差分と、前記抽出領域との関係を学習することにより得られた学習済みモデルであって、前記画像処理によって医用画像内から抽出される抽出領域に対して修正を施した後の修正後領域を推定するように機能付けられた学習済みモデルに対して、前記画像処理によって医用画像内から抽出された抽出領域を入力させることで、修正後領域を推定するように制御する推定機能と、
をコンピュータに実現させるための医用画像処理プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明の実施形態は、医用画像処理装置、医用画像処理システム及び医用画像処理プログラムに関する。
【背景技術】
【0002】
従来、医用画像に対して実施される画像処理アプリケーションに搭載された画像処理アルゴリズムは、医用画像の典型的な画像を対象として、画像処理アプリケーションの開発者、或いは、評価者などの主観や、統計的観念によって最適化されている場合がある。そのような画像処理アプリケーションにおいては、ユーザ(操作者)が画像処理アプリケーションの出力に期待することと、画像処理アプリケーションの最適化の方針が一致するとは限らない。また、最適化の際に参照される典型的な画像がユーザの用いている画像と大きく異なる場合にも、ユーザの期待と最適化の内容とが食い違ってしまう場合がある。そのため、そのような画像処理アプリケーションが臨床の場で使用されると、画像処理アルゴリズムが出力した結果がユーザの期待する出力とは異なってしまう場合がある。ユーザは画像処理アルゴリズムから出力される結果が自身の期待に沿った内容となるよう、出力される結果に対して、修正を加える場合がある。
【先行技術文献】
【特許文献】
【0003】
【文献】特開2014-30556号公報
【文献】特開2014-212820号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
本発明が解決しようとする課題は、画像処理アプリケーションを用いたワークフローの効率を向上させることである。
【課題を解決するための手段】
【0005】
実施形態に係る医用画像処理装置は、取得部と、記憶部と、推定部とを備える。取得部は、画像処理によって抽出された医用画像内の抽出領域と、前記抽出領域に対して修正者が修正を施した修正領域とを取得する。記憶部は、前記抽出領域と前記修正領域との差分と、前記抽出領域との関係を学習することにより得られた学習済みモデルであって、前記画像処理によって医用画像内から抽出される抽出領域に対して修正を施した後の修正後領域を推定するように機能付けられた学習済みモデルを記憶する。推定部は、前記画像処理によって医用画像内から抽出された抽出領域を前記学習済みモデルに入力させることで、修正後領域を推定するように制御する。
【図面の簡単な説明】
【0006】
【
図1】
図1は、本実施形態に係る医用画像報処理システムの構成の一例を示す図である。
【
図2】
図2は、本実施形態に係る医用画像処理装置によって行われる学習時及び運用時の処理を示す図である。
【
図3】
図3は、本実施形態に係る医用画像処理装置の学習時の処理の一例を説明するための図である。
【
図4A】
図4Aは、本実施形態に係る解析機能による解析処理の一例を説明するための図である。
【
図4B】
図4Bは、本実施形態に係る学習済みモデルの生成に用いられるテクスチャパラメータを模式的に示す図である。
【
図5】
図5は、本実施形態に係る医用画像処理装置の運用時の処理の一例を説明するための図である。
【
図6】
図6は、本実施形態に係る医用画像処理装置による学習時の処理の手順を示すフローチャートである。
【
図7】
図7は、本実施形態に係る医用画像処理装置による運用時の処理の手順を示すフローチャートである。
【
図8】
図8は、本実施形態に係る学習済みモデルの生成に用いられるテクスチャパラメータを模式的に示す図である。
【発明を実施するための形態】
【0007】
以下、図面を参照しながら、医用画像処理装置、医用画像処理システム及び医用画像処理プログラムの実施形態について詳細に説明する。なお、本願に係る医用画像処理装置、医用画像処理システム及び医用画像処理プログラムは、以下に示す実施形態によって限定されるものではない。
【0008】
(実施形態)
図1は、本実施形態に係る医用画像処理システム100の構成例を示す図である。
図1に示すように、本実施形態に係る医用画像処理システム100は、医用画像診断装置110と、端末装置120と、医用画像処理装置130とを含む。ここで、各装置は、ネットワーク200を介して通信可能に接続されている。
【0009】
医用画像診断装置110は、被検体を撮像して医用画像を生成する。そして、医用画像診断装置110は、生成した医用画像を端末装置120や医用画像処理装置130に送信する。例えば、医用画像診断装置110は、X線診断装置、X線CT(Computed Tomography)装置、MRI(Magnetic Resonance Imaging)装置、超音波診断装置、SPECT(Single Photon Emission Computed Tomography)装置、PET(Positron Emission computed Tomography)装置等である。
【0010】
端末装置120は、病院内に勤務する医師や検査技師に医用画像を閲覧させるための装置である。例えば、端末装置140は、病院内に勤務する医師や検査技師により操作されるパーソナルコンピュータ(PC:Personal Computer)やタブレット式PC、PDA(Personal Digital Assistant)、携帯電話等によって実現される。例えば、端末装置120は、医用画像診断装置110又は医用画像処理装置130から受信した医用画像を自装置のディスプレイに表示させるとともに、自装置の入力インターフェースを介して医用画像に対する各種操作を受け付ける。
【0011】
医用画像処理装置130は、医用画像診断装置110及び端末装置120から各種の情報を取得し、取得した情報を用いて各種の情報処理を行う。例えば、医用画像処理装置130は、サーバやワークステーション、パーソナルコンピュータ、タブレット端末等のコンピュータ機器によって実現される。
【0012】
図1に示すように、医用画像処理装置130は、通信インターフェース131と、記憶回路132と、入力インターフェース133と、ディスプレイ134と、処理回路135とを有する。
【0013】
通信インターフェース131は、処理回路135に接続されており、医用画像処理装置130と各装置との間で行われる通信を制御する。具体的には、通信インターフェース131は、各装置から各種の情報を受信し、受信した情報を処理回路135に出力する。例えば、通信インターフェース131は、ネットワークカードやネットワークアダプタ、NIC(Network Interface Controller)等によって実現される。
【0014】
記憶回路132は、処理回路135に接続されており、各種のデータを記憶する。例えば、記憶回路132は、医用画像診断装置110から受信した医用画像や、端末装置120から取得した医用画像などを記憶する。また、記憶回路132は、処理回路135が読み出して実行することで各種機能を実現するための種々のプログラムを記憶する。例えば、記憶回路132は、RAM(Random Access Memory)、フラッシュメモリ等の半導体メモリ素子や、ハードディスク、光ディスク等によって実現される。なお、記憶回路132は、記憶部の一例である。
【0015】
入力インターフェース133は、処理回路135に接続されており、操作者から各種の指示及び情報の入力操作を受け付ける。具体的には、入力インターフェース133は、操作者から受け付けた入力操作を電気信号へ変換して処理回路135に出力する。例えば、入力インターフェース133は、トラックボール、スイッチボタン、マウス、キーボード、操作面へ触れることで入力操作を行うタッチパッド、表示画面とタッチパッドとが一体化されたタッチスクリーン、光学センサを用いた非接触入力回路、及び音声入力回路等によって実現される。なお、本明細書において、入力インターフェース133は、マウス、キーボード等の物理的な操作部品を備えるものだけに限られない。例えば、装置とは別体に設けられた外部の入力機器から入力操作に対応する電気信号を受け取り、この電気信号を制御回路へ出力する電気信号の処理回路も入力インターフェース133の例に含まれる。
【0016】
ディスプレイ134は、処理回路135に接続されており、各種の情報及び画像を表示する。具体的には、ディスプレイ134は、処理回路135から送られる情報及び画像のデータを表示用の電気信号に変換して出力する。例えば、ディスプレイ134は、液晶モニタやCRT(Cathode Ray Tube)モニタ、タッチパネル等によって実現される。
【0017】
処理回路135は、入力インターフェース133を介して操作者から受け付けた入力操作に応じて、医用画像処理装置130の動作を制御する。例えば、処理回路135は、プロセッサによって実現される。
【0018】
以上、本実施形態に係る医用画像処理システム100の構成について説明した。例えば、本実施形態に係る医用画像処理システム100は、病院や医院等の医療機関に設置され、医療機関に入院又は通院する患者等を被検体として、医用画像診断装置110によって生成される医用画像を用いた各種の画像診断に利用される。
【0019】
ここで、医用画像を用いた画像診断では、医用画像診断装置110によって収集された医用画像に対して画像処理アプリケーションが実施され、処理後の医用画像が診断に用いられる場合がある。例えば、MRI装置によって収集されたFLAIR(Fluid-Attenuated Inversion Recovery)画像に対して脳白質の高輝度領域を抽出する画像処理アプリケーションが実施され、処理後のFLAIR画像が多発性硬化症の診断に用いられる。
【0020】
しかしながら、上述したように、このような画像処理アプリケーションに搭載された画像処理アルゴリズムは、医用画像の典型的な画像を対象として、画像処理アプリケーションの開発者、或いは、評価者などの主観や、統計的観念によって最適化されている。すなわち、このような画像処理アルゴリズムは、入力された医用画像に応じて出力結果が一意に決まる。したがって、出力結果に対してユーザ(操作者)が満足しない場合、ユーザがマニュアル操作によって出力結果を修正する場合がある。また、このようなユーザは、出力結果に対して高頻度で修正を加える可能性が高く、このような修正は、診断ワークフローの妨げとなる。さらに、ユーザごとに修正の傾向が異なる場合もあり、各ユーザにとって適切な出力結果を画像アプリケーションから出力することは困難である。
【0021】
そこで、本実施形態では、医用画像処理システム100における医用画像処理装置130が、画像処理アプリケーションによる出力結果と、出力結果に対するユーザ(修正者)の修正結果との関係を学習することで、画像処理アプリケーションによる出力結果の入力に対して修正を加えられるであろう領域を反映した出力結果を出力する学習済みモデルを構築する。そして、医用画像処理装置130は、新たに取得される画像処理アプリケーションによる出力結果を学習済みモデルに入力させることで、修正後の出力結果を推定する。これにより、医用画像処理装置130は、ユーザの修正傾向に沿った出力結果を自動で取得することができ、ユーザ自身がマニュアルで修正することなく適切な出力結果を提供することができる。その結果、医用画像処理装置130は、画像処理アプリケーションを用いたワークフローの効率を向上させることを可能にする。
【0022】
以下、本実施形態に係る医用画像処理装置130の詳細について説明する。
図1に示すように、医用画像処理装置130の処理回路135は、制御機能135a、画像処理機能135b、解析機能135c、学習機能135d、及び、推定機能135eを実行する。ここで、制御機能135aは、取得部及び表示制御部の一例である。また、画像処理機能135bは、取得部の一例である。また、学習機能135dは、学習部の一例である。また、推定機能135eは、推定部の一例である。
【0023】
制御機能135aは、入力インターフェース133を介して入力された各種要求に応じた処理を実行するように制御する。例えば、制御機能135aは、通信インターフェース131を介した医用画像等の送受信、記憶回路132への情報の格納、ディスプレイ134への情報(例えば、表示画像や、画像処理機能135bの処理結果、解析機能135cの解析結果、推定機能135eの推定結果など)の表示などを制御する。
【0024】
例えば、制御機能135aは、医用画像診断装置110から医用画像を取得して、記憶回路132に格納する。また、例えば、制御機能135aは、医用画像診断装置110から取得した医用画像に対して処理を実行するためのGUIや、各機能による処理結果をディスプレイ134に表示させるように制御する。なお、制御機能135aによって表示される表示内容の詳細については、後述する。
【0025】
画像処理機能135bは、医用画像診断装置110から取得した医用画像に対して所定の画像処理を実行する。具体的には、画像処理機能135bは、医用画像に含まれる所定の領域を抽出するための画像処理を実行する。例えば、画像処理機能135bは、画像処理アプリケーションに搭載された通常(学習アルゴリズムではない)の画像処理アルゴリズムにより、医用画像から所定の領域を抽出する。一例を挙げると、画像処理機能135bは、頭部を対象にして収集されたMRI画像に含まれる脳白質の高輝度領域を抽出する画像処理アプリケーションである。
【0026】
なお、画像処理機能135bは、画像処理の内容に応じて、種々の画像処理アルゴリズムを実行し、医用画像から領域を抽出することができる。例えば、画像処理機能135bは、医用画像に含まれる腫瘍領域を抽出する画像処理アルゴリズムを実行する場合でもよい。
【0027】
解析機能135cは、画像処理機能135bによって抽出された領域と、当該領域に対して操作者が修正を加えた領域との差分領域に対して画像解析を行う。また、解析機能135cは、画像処理機能135bによって抽出された領域に対して画像解析を行う。なお、解析機能135cによる処理の詳細については、後述する。
【0028】
学習機能135dは、画像処理機能135bによって抽出された領域と当該領域に対して操作者が修正を加えた領域との差分と、画像処理機能135bによって抽出された領域との関係を学習することにより、画像処理機能135bによって医用画像内から抽出される領域に対して修正を施した後の修正後領域を推定するように機能付けられた学習済みモデルを生成する。なお、学習機能135dによる処理の詳細については、後述する。
【0029】
推定機能135eは、画像処理機能135bによって医用画像内から抽出された領域を学習済みモデルに入力させることで、修正後領域を推定するように制御する。なお、推定機能135eによる処理の詳細については、後述する。
【0030】
本実施形態では、上述した処理回路135の各機能が、学習済みモデルを生成する学習時の処理と、生成された学習済みモデルを利用する運用時の処理とを行う。具体的には、制御機能135a、画像処理機能135b、解析機能135c、学習機能135dが、医用画像診断装置110によって収集された医用画像に対して画像処理アプリケーションが実施されて出力された出力結果に対してユーザが修正を施した場合、又は、操作者から学習開始の指示を受け付けた場合に、学習時の処理を行う。また、制御機能135a、画像処理機能135b、解析機能135c及び推定機能135eが、医用画像診断装置110によって収集された医用画像に対して画像処理アプリケーションが実施されて出力結果が出力された場合に、運用時の処理を行う。
【0031】
図2は、本実施形態に係る医用画像処理装置130によって行われる学習時及び運用時の処理を示す図である。
【0032】
例えば、
図2の上側に示すように、学習時には、学習機能135dが、画像処理機能135bによる領域の抽出結果と、抽出結果に対する修正の解析機能135cによる解析結果との関係を学習することによって、医用画像内から抽出された領域に基づいて、修正後の領域を出力する学習済みモデルを生成する。
【0033】
かかる場合には、まず、制御機能135aが、医用画像診断装置110から医用画像を取得して、記憶回路132に格納する。画像処理機能135bは、制御機能135aによって取得された医用画像に対して画像処理アルゴリズムによる画像処理を実行することで、領域を抽出して、抽出結果を医用画像に対応付けて記憶回路132に格納する。ここで、画像処理機能135bは、例えば、操作者によって指定された画像処理アルゴリズムによる領域の抽出を行う。すなわち、画像処理機能135bは、操作者が画像診断を行う際に選択した画像処理アルゴリズムによる領域抽出を行う。
【0034】
そして、制御機能135aは、画像処理機能135bによる抽出結果をディスプレイ134に表示させる。操作者は、入力インターフェースを介して、ディスプレイ134に表示された領域の抽出結果を修正するための修正操作を実行する。具体的には、操作者は、画像処理機能135bによって抽出された領域を修正する修正操作を実行する。ここで、操作者によって修正された領域の情報は、医用画像及び画像処理機能135bによる抽出結果に対応付けて、記憶回路132に格納される。
【0035】
解析機能135cは、画像処理機能135bによって抽出された抽出領域と、操作者によって修正された修正領域との差分領域を抽出し、抽出した差分領域における画像解析を行う。具体的には、解析機能135cは、差分領域における画像特徴量を取得するための画像解析を行う。例えば、解析機能135cは、差分領域に対してテクスチャ解析を行うことで、差分領域における画像特徴量を取得する。解析機能135cは、取得した画像特徴量を、医用画像、画像処理機能135bによる抽出結果及び修正領域に対応付けて、記憶回路132に格納される。
【0036】
学習機能135dは、画像処理機能135bによって抽出された抽出領域と、差分領域における画像解析の結果との関係を学習することで、学習済みモデルを生成する。具体的には、学習機能135dは、記憶回路132を参照して、画像処理機能135bによって抽出された抽出領域及び差分領域における画像解析の結果を取得する。そして、学習機能135dは、取得した抽出領域及び画像解析の結果を学習用データとして機械学習エンジンに入力することによって、機械学習を行う。ここで、抽出領域に関する情報は、例えば、抽出領域の輝度情報が用いられる。
【0037】
なお、機械学習エンジンは、例えば、入力された標準画像及び画像特徴量に基づいて、記憶回路142のDBを参照し、画像相関や画像特徴量の比較を行うことで、臨床に最適な撮像パラメータを決定する。例えば、機械学習エンジンは、ディープラーニング(Deep Learning)や、ニューラルネットワーク(Neural Network)、ロジスティック(Logistic)回帰分析、非線形判別分析、サポートベクターマシン(Support Vector Machine:SVM)、ランダムフォレスト(Random Forest)、ナイーブベイズ(Naive Bayes)等の各種のアルゴリズムを用いて、最適なパラメータを決定する。
【0038】
このような機械学習の結果として、学習機能135dは、画像処理機能135bによる出力結果の入力に対して修正を加えられるであろう領域を反映した出力結果を出力する学習済みモデルを生成する。そして、学習機能135dは、生成した学習済みモデルを記憶回路142に記憶させる。なお、このとき、学習機能135dは、以前に作成した学習済みモデルが既に記憶回路132に記憶されていた場合には、新しく作成した学習済みモデルで、記憶されている学習済みモデルを置き換える。
【0039】
また、学習機能135dは、修正を施す操作者(修正者)ごとに学習済みモデルを生成して、記憶回路132にそれぞれ記憶させることもできる。例えば、画像処理機能135bによって抽出された領域に対する修正は、操作者ごとに異なる傾向を有する場合がある。そこで、学習機能135dは、操作者を一意に特定するための識別子(例えば、ユーザID)を学習済みアルゴリズムに対応付けて記憶回路132に記憶させる。そして、学習機能135dは、既に記憶されている学習済みモデルを新しく生成した学習済みモデルに置き換える場合には、画像診断を行う際に入力されるユーザIDなどに基づいて操作者を識別し、対応する学習済みモデルを特定する。
【0040】
以下、
図3~
図4Bを用いて、学習時の処理の一例について説明する。
図3は、本実施形態に係る医用画像処理装置130の学習時の処理の一例を説明するための図である。ここで、
図3においては、頭部を対象にして収集されたMRI画像に含まれる脳白質から抽出された高輝度領域に対して修正が加えられる場合について示す。
【0041】
例えば、画像処理機能135bは、
図3の左端に示す原画像(頭部を対象にして収集されたMRI画像)を対象として画像処理アルゴリズムを適用することで、
図3の左から2番目の画像に示すように、脳白質の高輝度領域を抽出する。そして、画像処理機能135bによって高輝度領域が抽出されると、制御機能135aは、抽出結果(
図3の左から2番目の画像)をディスプレイ134に表示させる。
【0042】
操作者は、ディスプレイ134に表示された抽出結果を参照して、脳白質の高輝度領域の抽出結果に対して修正を加える。すなわち、操作者、
図3の左から3番目の画像に示すように、画像処理機能135bによって抽出された高輝度領域を修正する。
【0043】
解析機能135cは、操作者によって修正された修正領域と、画像処理機能135bによって抽出された抽出領域との差分領域に対してテクスチャ解析を実行する。例えば、解析機能135cは、
図3の左から2番目の画像に示された抽出領域と、
図3の左から3番目の画像に示された修正領域との差分領域に対してテクスチャ解析を実行する。
【0044】
図4Aは、本実施形態に係る解析機能135cによる解析処理の一例を説明するための図である。ここで、
図4Aにおいては、画像処理機能135bによって抽出された抽出領域に対して操作者が修正を加えることで、不要な領域が削除された修正領域を領域R1内に示す。また、
図4Aにおいて下段に示す2枚の画像は、それぞれ領域R1付近を拡大した同一の画像であり、3×3のカーネルの位置が移動されたものを示す。
【0045】
例えば、解析機能135cは、画像処理機能135bによって抽出された抽出領域と、操作者によって抽出領域が修正された後の修正領域との差分領域を抽出する。すなわち、解析機能135cは、抽出領域のうち、
図4Aの領域R1内に示す修正領域以外の領域を抽出する。そして、解析機能135cは、抽出した差分領域に対して、例えば、3×3の9画素のカーネルを適用させて、差分領域における各位置の画素値を算出する。一例を挙げると、解析機能135cは、
図4Aに示すように、差分領域に対してカーネルの位置を変えながら、カーネルの中央の画素の位置における画素値を周囲の8画素の画素値から算出する。そして、解析機能135cは、差分領域の各位置における画素値に基づいて、種々のテクスチャパラメータをそれぞれ算出する。
【0046】
一例を挙げると、解析機能135cは、差分領域の各位置における画素値の「Mean」、「SD」、「Skewness」、「Kurtosis」、「Energy」、「Entropy」、「dissimilarity」、「Homogeneity」、「size」などをそれぞれ算出する。すなわち、解析機能135cは、1つの差分領域について、複数のテクスチャパラメータを算出する。解析機能135cは、操作者によって修正された修正領域について、それぞれ差分領域を抽出して、各差分領域について複数のテクスチャパラメータをそれぞれ算出する。そして、解析機能135cは、算出した複数のテクスチャパラメータを差分領域に対応付けて記憶回路132に記憶させる。なお、上記したテクスチャパラメータは、あくまでも一例であり、解析機能135cは、その他種々のテクスチャパラメータを算出することができる。
【0047】
図3に戻って、学習機能135dは、抽出領域と差分領域のテクスチャ解析の結果とを用いて学習済みモデルを生成して、記憶回路132における学習済みモデルのデータベースに格納する。例えば、学習機能135dは、抽出領域の輝度値と、対応する差分領域における複数のテクスチャパラメータとの関係を学習することで、抽出領域の輝度値に基づいて操作者に修正傾向に対応するテクスチャパラメータを出力する学習済みモデルを生成する。
【0048】
図4Bは、本実施形態に係る学習済みモデルの生成に用いられるテクスチャパラメータを模式的に示す図である。なお、
図4Bでは、差分領域ごとに3つのテクスチャパラメータを算出した場合を例に示す。本実施形態に係る学習済みモデルの生成に用いられるテクスチャパラメータは、例えば、
図4Bに示すように、差分領域ごとに(点ごとに)、第1のパラメータ(横方向の軸の値)、第2のパラメータ(縦方向の軸の値)、及び、第3のパラメータ(奥行方向の軸の値)の3次元の情報を有する。
【0049】
学習機能135dは、多数の医用画像(脳のMRI画像)から取得された、抽出領域の輝度値の情報と、
図4Bに示すようなテクスチャパラメータの情報とから学習済みモデルを生成する。なお、
図4Bでは、3つのテクスチャパラメータを算出したため、差分領域ごとに3次元の情報を有しているが、例えば、上記した9つのテクスチャパラメータを算出する場合、差分領域ごとに9次元の情報を有することとなる。例えば、学習機能135dは、このように学習済みモデルを生成して、生成した学習済みモデルを記憶回路132に格納する。
【0050】
一方、例えば、
図2の下側に示すように、運用時には、制御機能135aが、医用画像診断装置110から医用画像を取得して、記憶回路132に格納する。画像処理機能135bは、制御機能135aによって取得された医用画像に対して画像処理アルゴリズムによる画像処理を実行することで、抽出領域を抽出して、医用画像に対応付けて記憶回路132に格納する。
【0051】
その後、推定機能135eが、抽出領域を学習済みモデルにさせることで、修正後の領域を推定する。具体的には、推定機能135eは、画像処理機能135bによって抽出された抽出領域の輝度値の情報を学習済みモデルに入力させることで、テクスチャパラメータを出力させる。そして、推定機能135eは、出力されたテクスチャパラメータに対応する領域を修正後領域として推定する。
【0052】
例えば、推定機能135eは、解析機能135cが抽出領域に対して実行したテクスチャ解析の結果を参照して、抽出領域において、学習済みモデルから出力されたテクスチャパラメータに対応する領域を特定する。推定機能135eは、特定した領域を修正後領域として推定する。
【0053】
図5は、本実施形態に係る医用画像処理装置の運用時の処理の一例を説明するための図である。ここで、
図5においては、頭部を対象にして収集されたMRI画像に含まれる脳白質から抽出された高輝度領域における修正後領域を推定する場合について示す。
【0054】
例えば、画像処理機能135bは、
図5の左端に示す原画像(頭部を対象にして収集されたMRI画像)を対象として画像処理アルゴリズムを適用することで、
図5の左から2番目の画像に示すように、脳白質の高輝度領域を抽出する。解析機能135cは、高輝度領域におけるテクスチャ解析を実行する。
【0055】
推定機能135eは、高輝度領域の輝度値を学習済みモデルに入力させることで、テクスチャパラメータの値を取得する。さらに、推定機能135eは、解析機能135cが高輝度領域に対して実行したテクスチャ解析の結果を参照して、高輝度領域において、学習済みモデルから出力されたテクスチャパラメータに対応する領域(修正後領域)を特定する。
【0056】
制御機能135aは、推定機能135eによって推定された修正後領域を医用画像に反映させた表示画像(
図5の右端の画像)をディスプレイ134に表示させる。ここで、制御機能135aは、画像処理機能135bによって抽出された抽出領域と、推定機能135eによって推定された修正後領域とを識別可能に表示させることができる。例えば、制御機能135aは、抽出領域と修正後領域とを異なる色で示すことで、識別可能に表示させることができる。
【0057】
ここで、医用画像処理装置130では、推定機能135eによって推定された修正後領域に対してさらに修正を加え、その結果を学習済みモデルに反映させることもできる。例えば、操作者は、ディスプレイ134に表示された表示画像を参照して、修正後領域について再修正を行うか否かを判断する。そして、再修正を行う場合、操作者は、入力インターフェース133を介して、修正後領域を修正する。
【0058】
解析機能135cは、操作者によって修正された修正領域と、修正後領域との差分領域に対してテクスチャ解析を実行する。そして、学習機能135dは、テクスチャ解析の結果を用いて、学習済みモデルを新たに生成して、記憶回路132に格納済みの学習済みモデルと置き換える。
【0059】
以上、医用画像処理装置130の処理回路135が有する各処理機能について説明した。ここで、前述したように、処理回路135がプロセッサによって実現される場合には、処理回路135が有する各処理機能は、コンピュータによって実行可能なプログラムの形態で記憶回路132に記憶されている。そして、処理回路135は、記憶回路132から各プログラムを読み出して実行することで、各プログラムに対応する機能を実現する。換言すると、各プログラムを読み出した状態の処理回路135は、
図1の処理回路135に示された各機能を有することとなる。なお、
図1では、単一のプロセッサによって各処理機能が実現されるものとして説明したが、複数の独立したプロセッサを組み合わせて処理回路を構成し、各プロセッサがプログラムを実行することにより機能を実現するものとしても構わない。また、処理回路135が有する処理機能は、単一又は複数の処理回路に適宜に分散又は統合されて実現されてもよい。また、
図1に示す例では、単一の記憶回路132が各処理機能に対応するプログラムを記憶するものとして説明したが、複数の記憶回路を分散して配置して、処理回路が個別の記憶回路から対応するプログラムを読み出す構成としても構わない。
【0060】
次に、医用画像処理装置130による処理の手順を説明する。
図6は、本実施形態に係る医用画像処理装置130による学習時の処理の手順を示すフローチャートである。ここで、
図6におけるステップS101、ステップS103は、処理回路135が記憶回路132から制御機能135aに対応するプログラムを呼び出して実行することにより、実現されるステップである。また、
図6におけるステップS102は、処理回路135が記憶回路132から画像処理機能135bに対応するプログラムを呼び出して実行することにより、実現されるステップである。また、
図6におけるステップS104、ステップS105は、処理回路135が記憶回路132から解析機能135cに対応するプログラムを呼び出して実行することにより、実現されるステップである。また、
図6におけるステップS106、ステップS107は、処理回路135が記憶回路132から学習機能135dに対応するプログラムを呼び出して実行することにより、実現されるステップである。
【0061】
図6に示すように、医用画像処理装置130においては、処理回路135が、まず、画像処理が開始されたか否かを判定する(ステップS101)。ここで、画像処理が開始されると(ステップS101、肯定)、処理回路135は、指定された原画像に対して画像処理を実行して(ステップS102)、処理結果を表示する(ステップS103)。なお、画像処理が開始されるまで、処理回路135は待機状態である(ステップS101、否定)。
【0062】
そして、処理回路135は、処理結果に対して修正を受け付けたか否かを判定する(ステップS104)。ここで、修正を受け付けていない場合(ステップS104、否定)、処理回路135は処理を終了する。一方、修正を受け付けた場合(ステップS104、肯定)、処理回路135は、修正された領域のテクスチャ解析を実行する(ステップS105)。
【0063】
その後、処理回路135は、解析結果を用いて修正に関する学習済みモデルを作成して(ステップS106)、作成した学習済みモデルを記憶回路132に格納する(ステップS107)。
【0064】
図7は、本実施形態に係る医用画像処理装置130による運用時の処理の手順を示すフローチャートである。ここで、
図7におけるステップS201、ステップS204は、処理回路135が記憶回路132から制御機能135aに対応するプログラムを呼び出して実行することにより、実現されるステップである。また、
図7におけるステップS202は、処理回路135が記憶回路132から画像処理機能135bに対応するプログラムを呼び出して実行することにより、実現されるステップである。また、
図7におけるステップS203は、処理回路135が記憶回路132から推定機能135e及び解析機能135cに対応するプログラムを呼び出して実行することにより、実現されるステップである。また、
図7におけるステップS205、ステップS206は、処理回路135が記憶回路132から解析機能135cに対応するプログラムを呼び出して実行することにより、実現されるステップである。また、
図7におけるステップS207は、処理回路135が記憶回路132から学習機能135dに対応するプログラムを呼び出して実行することにより、実現されるステップである。
【0065】
図7に示すように、医用画像処理装置130においては、処理回路135が、まず、画像処理が開始されたか否かを判定する(ステップS201)。ここで、画像処理が開始されると(ステップS201、肯定)、処理回路135は、指定された原画像に対して画像処理を実行する(ステップS202)。なお、画像処理が開始されるまで、処理回路135は待機状態である(ステップS201、否定)。
【0066】
そして、処理回路135は、画像処理の結果を学習済みモデルに入力して(ステップS203)、学習済みモデルの出力結果に基づく表示画像を表示させる(ステップS204)。その後、処理回路135は、表示画像に対して修正を受け付けたか否かを判定する(ステップS205)。
【0067】
ここで、修正を受け付けていない場合(ステップS205、否定)、処理回路135は処理を終了する。一方、修正を受け付けた場合(ステップS205、肯定)、処理回路135は、修正された領域のテクスチャ解析を実行する(ステップS206)。その後、処理回路135は、学習済みモデルを更新するステップS107)。
【0068】
上述したように、本実施形態によれば、制御機能135a及び画像処理機能135bは、画像処理によって抽出された医用画像内の抽出領域と、抽出領域に対して操作者(修正者)が修正を施した修正領域とを取得する。記憶回路132は、抽出領域と修正領域との差分と、抽出領域との関係を学習することにより得られた学習済みモデルであって、画像処理によって医用画像内から抽出される抽出領域に対して修正を施した後の修正後領域を推定するように機能付けられた学習済みモデルを記憶する。推定機能135eは、画像処理によって医用画像内から抽出された抽出領域を学習済みモデルに入力させることで、修正後領域を推定するように制御する。したがって、本実施形態に係る医用画像処理装置130は、画像処理アプリケーションによる処理結果を、修正者の修正傾向に沿って自動で修正することでき、画像処理アプリケーションを用いたワークフローの効率を向上させることを可能にする。例えば、医用画像処理装置130は、画像処理アプリケーションの最適化が、ユーザが期待する最適化とは異なるものであったとしても、画像処理アプリケーションの出力をユーザが期待する内容に自動で修正することができ、画像処理アプリケーションを用いたワークフローの効率を向上させることを可能にする。また、例えば、医用画像処理装置130は、ユーザが画像処理アプリケーションに入力した医用画像が、画像処理アプリケーションの開発時に用いられた典型的な画像とは大きくかけ離れた画像であっても、画像処理アプリケーションの出力をユーザが期待する内容に自動で修正することができ、画像処理アプリケーションを用いたワークフローの効率を向上させることを可能にする。さらに、本実施形態に係る医用画像処理装置130は、画像処理アルゴリズムによる過大検出を抑止することを可能にする。
【0069】
また、本実施形態によれば、記憶回路132は、抽出領域と修正領域との差分領域に対する画像解析の結果と、抽出領域との関係を学習することで得られた学習済みモデルを記憶する。推定機能135eは、画像処理によって医用画像内から抽出された抽出領域の画像解析の結果を学習済みモデルに入力させることで、当該抽出領域において修正が施される領域を推定するように制御する。したがって、本実施形態に係る医用画像処理装置130は、適切な修正を容易に行うことを可能にする。
【0070】
また、本実施形態によれば、画像解析は、テクスチャ解析である。したがって、本実施形態に係る医用画像処理装置130は、種々の画像特徴量を用いて学習済みモデルを生成することができ、修正者の修正傾向をより正確に反映させた修正を自動で行うことを可能にする。
【0071】
また、本実施形態によれば、記憶回路132は、画像処理によって医用画像内から抽出される抽出領域に対して修正を施した修正者ごとの学習済みモデルを記憶する。推定機能135eは、医用画像内から抽出された抽出領域を修正者ごとの学習済みモデルに対して入力させることで、修正者ごとの修正後領域を推定するように制御する。したがって、本実施形態に係る医用画像処理装置130は、修正者ごとに、修正傾向に沿った修正を自動で行うことができ、複数の修正者によって修正された場合でもワークフローの効率を向上させることを可能にする。
【0072】
また、本実施形態によれば、学習機能135dは、学習済みモデルを生成する。したがって、本実施形態に係る医用画像処理装置130は、スタンドアローンでの処理を行うことを可能にする。
【0073】
また、本実施形態によれば、制御機能135aは、医用画像において、画像処理によって抽出された医用画像内の抽出領域と、修正後領域とを識別可能に表示させるように制御する。したがって、本実施形態に係る医用画像処理装置130は、自動で行った修正後の結果とともに修正前の結果を操作者に提示することを可能にする。
【0074】
(他の実施形態)
なお、上述した実施形態は、医用画像処理装置130が有する構成又は機能の一部を変更することで、適宜に変形して実施することも可能である。そこで、以下では、上述した実施形態に係るいくつかの変形例を他の実施形態として説明する。なお、以下では、上述した実施形態と異なる点を主に説明することとし、既に説明した内容と共通する点については詳細な説明を省略する。また、以下で説明する各実施形態は、個別に実施されてもよいし、適宜に組み合わせて実施されてもよい。
【0075】
(他の実施形態-1)
例えば、上述した実施形態では、修正者ごとに修正後領域を表示する場合について説明した。しかしながら、実施形態はこれに限定されるものではなく、例えば、複数の修正者に対応する学習済みモデルを用いて、複数の修正後領域を1つの医用画像内に表示させる場合でもよい。
【0076】
かかる場合には、例えば、推定機能135eは、画像処理機能135bによって抽出された抽出領域の情報を、複数の学習済みモデルにそれぞれ入力させて、各出力結果に基づいて、複数の修正後領域をそれぞれ推定する。制御機能135aは、推定された複数の修正後領域を1つの医用画像上で表示させる。ここで、制御機能135aは、修正者ごとの修正後領域を識別可能に表示させるように制御する。これにより、医用画像処理装置130は、複数の修正後領域の中から、最適な修正結果を操作者に選択させることを可能にする。
【0077】
(他の実施形態-2)
また、例えば、上述した実施形態では、修正者ごとの学習済みモデルを生成して記憶する場合について説明した。しかしながら、実施形態はこれに限定されるものではなく、例えば、複数の修正者により修正結果を統合した学習済みモデルを生成する場合でもよい。
【0078】
かかる場合には、例えば、記憶回路132は、画像処理によって医用画像内から抽出される抽出領域に対して複数の修正者によって実施された修正結果に対応する複数の画像解析の結果を統合した結果と、抽出領域との関係を学習することで得られた学習済みモデルを記憶する。推定機能135eは、画像処理によって医用画像内から抽出された抽出領域の画像解析の結果を学習済みモデルに入力させることで、当該抽出領域において修正が施される領域を推定するように制御する。
【0079】
図8は、本実施形態に係る学習済みモデルの生成に用いられるテクスチャパラメータを模式的に示す図である。なお、
図8では、差分領域ごとに3つのテクスチャパラメータを算出した場合を例に示す。また、
図8では、2人の修正者による修正結果から得られた差分領域ごとのテクスチャパラメータをそれぞれ黒丸と黒三角で示す。本実施形態に係る学習済みモデルの生成に用いられるテクスチャパラメータは、例えば、
図8に示すように、差分領域ごとに、第1のパラメータ(横方向の軸の値)、第2のパラメータ(縦方向の軸の値)、及び、第3のパラメータ(奥行方向の軸の値)の3次元の情報を有する。
【0080】
学習機能135dは、多数の医用画像(脳のMRI画像)から取得された、2人の修正者の結果において、テクスチャパラメータの情報が類似するもののみを用いて学習済みモデルを生成する。例えば、学習機能135dは、
図8における領域R2に含まれるテクスチャパラメータと、各テクスチャパラメータに対応する抽出領域とを用いて学習済みモデルを生成して、記憶回路132に格納する。これにより、本実施形態に係る医用画像処理装置130は、より精度の高い修正を自動で行うことを可能にする。
【0081】
(他の実施形態-3)
また、上述した実施形態では、医用画像処理システム100が設置された病院や医院等の医療機関ごとに学習済みモデルを生成して、使用する場合の例を説明した。しかしながら、実施形態はこれに限定されるものではなく、例えば、生成した医療機関とは異なる医療機関において、生成された学習済みモデルが使用される場合でもよい。
【0082】
かかる場合には、医用画像処理装置130は、ネットワーク200を介して他の医療機関と接続され、他の医療機関において生成された学習済みモデル(修正者ごとの学習済みモデル及び複数の修正者の修正結果を統合した学習済みモデル)を取得して、取得した学習済みモデルを用いて修正後領域を推定する。
【0083】
また、上述した実施形態では、医用画像処理システム100が設置された病院や医院等の医療機関ごとに学習済みモデルを生成する場合の例を説明した。しかしながら、実施形態はこれに限定されるものではなく、例えば、複数の医療機関や、複数の国の学習用データを集約した総合的な学習済みモデルが生成されてもよい。
【0084】
(他の実施形態-4)
また、上述した実施形態では、医用画像処理装置130が、病院や医院等の医療機関に設置される場合の例を説明したが、実施形態はこれに限られない。例えば、医用画像処理装置130は、医療機関とは別の場所に設置され、ネットワーク200を介して、1つ又は複数の医療機関に設置された医用画像診断装置110と通信可能に接続されていてもよい。
【0085】
この場合には、例えば、医用画像処理装置130が、ネットワーク200を介して、各医用機関に設置された医用画像診断装置110から医用画像を収集して、学習済みモデルを生成又は更新する。そして、医用画像処理装置130は、ネットワーク200を介して、各医用機関に設置された端末装置120から領域抽出の画像処理要求を受信し、当該要求を送信した端末装置120に対して、推定した修正後領域を送信する。
【0086】
この場合に、例えば、医用画像処理システム100は、端末装置120をクライアントとし、医用画像処理装置130をサーバとしたクライアントサーバシステムとして実現される。より具体的には、例えば、医用画像処理システム100は、インターネット等を介して、端末装置120と医用画像処理装置130とを接続したクラウドシステムとして実現される。
【0087】
(他の実施形態-5)
また、上述した実施形態では、医用画像処理装置130が、学習時の処理及び運用時の処理の両方を行う場合の例を説明したが、実施形態はこれに限られない。例えば、医用画像処理装置130が有する機能のうち、学習済みモデルを生成する機能が、医療機関とは別の場所に設置されてネットワーク200を介して接続された他の装置(以下、モデル生成装置と呼ぶ)に実装されていてもよい。
【0088】
この場合には、例えば、モデル生成装置が、定期的に、ネットワーク200を介して、各医用機関に設置された医用画像診断装置110から医用画像を収集して、学習済みモデルを生成又は更新する。そして、医用画像処理装置130が、モデル生成装置から最新の学習済みモデルを取得して、推定処理を実行する。
【0089】
この場合に、例えば、医用画像処理システム100は、医用画像処理装置130をクライアントとし、モデル生成装置をサーバとしたクライアントサーバシステムとして実現される。より具体的には、例えば、医用画像処理システム100は、インターネット等を介して、モデル生成装置と医用画像処理装置130とを接続したクラウドシステムとして実現される。この場合に、例えば、医用画像処理システム100は、クライアントである医用画像処理装置130には必要最小限の処理を実行させ、サーバであるモデル生成装置に大部分の処理を実行させるシンクライアント(Thin Client)の形態で実現される。
【0090】
(他の実施形態-6)
また、上述した各実施形態では、本明細書における表示制御部、取得部、学習部、及び推定部を、それぞれ、処理回路145の制御機能135a、制御機能135a及び画像処理機能135b、学習機能135d、及び推定機能135eによって実現する場合の例を説明したが、実施形態はこれに限られない。例えば、本明細書における表示制御部、取得部、学習部、及び推定部は、実施形態で述べた制御機能135a、制御機能135a及び画像処理機能135b、学習機能135d、及び推定機能135eによって実現する他にも、ハードウェアのみ、又は、ハードウェアとソフトウェアとの混合によって同機能を実現するものであっても構わない。
【0091】
なお、上述した説明で用いた「プロセッサ」という文言は、例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、或いは、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)、プログラマブル論理デバイス(例えば、単純プログラマブル論理デバイス(Simple Programmable Logic Device:SPLD)、複合プログラマブル論理デバイス(Complex Programmable Logic Device:CPLD)、及びフィールドプログラマブルゲートアレイ(Field Programmable Gate Array:FPGA))等の回路を意味する。プロセッサは、記憶回路132に保存されたプログラムを読み出して実行することで、機能を実現する。なお、記憶回路132にプログラムを保存する代わりに、プロセッサの回路内にプログラムを直接組み込むように構成しても構わない。この場合は、プロセッサは回路内に組み込まれたプログラムを読み出して実行することで機能を実現する。また、本実施形態のプロセッサは、単一の回路として構成される場合に限らず、複数の独立した回路を組み合わせて一つのプロセッサとして構成され、その機能を実現するようにしてもよい。
【0092】
ここで、プロセッサによって実行されるプログラム(医用画像処理プログラム)は、ROM(Read Only Memory)や記憶回路等に予め組み込まれて提供される。なお、このプログラムは、これらの装置にインストール可能な形式又は実行可能な形式のファイルでCD(Compact Disk)-ROM、FD(Flexible Disk)、CD-R(Recordable)、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記憶媒体に記録されて提供されてもよい。また、このプログラムは、インターネット等のネットワークに接続されたコンピュータ上に保存され、ネットワーク経由でダウンロードされることにより提供又は配布されてもよい。例えば、このプログラムは、上述した各機能部を含むモジュールで構成される。実際のハードウェアとしては、CPUが、ROM等の記憶媒体からプログラムを読み出して実行することにより、各モジュールが主記憶装置上にロードされて、主記憶装置上に生成される。
【0093】
以上説明した少なくとも1つの実施形態によれば、画像処理アプリケーションを用いたワークフローの効率を向上させることができる。
【0094】
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これらの実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これらの実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。
【符号の説明】
【0095】
100 医用画像処理システム
130 医用画像処理装置
132 記憶回路
135 処理回路
135a 制御機能
135b 画像処理機能
135c 解析機能
135d 学習機能
135e 推定機能