IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ JSR株式会社の特許一覧 ▶ 学校法人慶應義塾の特許一覧

特開2024-17731椎体中心推定モデル学習装置、椎体中心推定装置、椎体中心推定モデル学習方法、椎体中心推定方法及びプログラム
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024017731
(43)【公開日】2024-02-08
(54)【発明の名称】椎体中心推定モデル学習装置、椎体中心推定装置、椎体中心推定モデル学習方法、椎体中心推定方法及びプログラム
(51)【国際特許分類】
   A61B 6/46 20240101AFI20240201BHJP
   A61B 6/03 20060101ALI20240201BHJP
   G06T 7/00 20170101ALI20240201BHJP
【FI】
A61B6/03 360Z
A61B6/03 377
A61B6/03 360J
G06T7/00 350C
G06T7/00 614
【審査請求】未請求
【請求項の数】7
【出願形態】OL
(21)【出願番号】P 2022120567
(22)【出願日】2022-07-28
(71)【出願人】
【識別番号】000004178
【氏名又は名称】JSR株式会社
(71)【出願人】
【識別番号】598121341
【氏名又は名称】慶應義塾
(74)【代理人】
【識別番号】100149548
【弁理士】
【氏名又は名称】松沼 泰史
(74)【代理人】
【識別番号】100181722
【弁理士】
【氏名又は名称】春田 洋孝
(72)【発明者】
【氏名】渡邉 航太
(72)【発明者】
【氏名】名倉 武雄
(72)【発明者】
【氏名】加藤 修三
(72)【発明者】
【氏名】佐次田 哲
(72)【発明者】
【氏名】古山 敦之
(72)【発明者】
【氏名】堀川 晋
【テーマコード(参考)】
4C093
5L096
【Fターム(参考)】
4C093AA22
4C093AA25
4C093AA26
4C093CA18
4C093CA23
4C093DA10
4C093FD03
4C093FD08
4C093FF21
4C093FF28
4C093FF42
5L096BA13
5L096DA02
5L096FA62
5L096FA69
5L096HA08
5L096HA11
5L096KA04
5L096KA15
(57)【要約】
【課題】椎体に係る身体の異常を治療する際の治療方針の決定に要する負担を軽減する技術を提供すること。
【解決手段】椎体が写る画像であって矢状面の画像である矢状面椎体画像の画像データに基づき前記椎体の中心の位置を推定する数理モデルである椎体中心推定モデルを、学習により更新する学習部、を備え、前記学習では、前記矢状面椎体画像の画像データと前記矢状面椎体画像に写る前記椎体の中心の位置を示す正解データとの対を含む訓練データが用いられ、前記学習では、前記訓練データが含む前記画像データに対する前記椎体中心推定モデルの推定の結果と前記訓練データが含む前記正解データとの違いを小さくするように前記椎体中心推定モデルが更新される、椎体中心推定モデル学習装置。
【選択図】図15
【特許請求の範囲】
【請求項1】
椎体が写る画像であって矢状面の画像である矢状面椎体画像の画像データに基づき前記椎体の中心の位置を推定する数理モデルである椎体中心推定モデルを、学習により更新する学習実行部、
を備え、
前記学習では、前記矢状面椎体画像の画像データと前記矢状面椎体画像に写る前記椎体の中心の位置を示す正解データとの対を含む訓練データが用いられ、
前記学習では、前記訓練データが含む前記画像データに対する前記椎体中心推定モデルの推定の結果と前記訓練データが含む前記正解データとの違いを小さくするように前記椎体中心推定モデルが更新される、
椎体中心推定モデル学習装置。
【請求項2】
前記学習実行部はさらに、前記椎体を写す画像であって冠状面の画像である冠状面画像の画像データにも基づいて前記椎体中心推定モデルの学習を行う、
請求項1に記載の椎体中心推定モデル学習装置。
【請求項3】
推定対象の画像の画像データである推定対象画像データを取得する対象データ取得実行部と、
椎体が写る画像であって矢状面の画像である矢状面椎体画像の画像データに基づき前記椎体の中心の位置を推定する数理モデルである椎体中心推定モデルを、学習により更新する学習部、を備え、前記学習では、前記矢状面椎体画像の画像データと前記矢状面椎体画像に写る前記椎体の中心の位置を示す正解データとの対を含む訓練データが用いられ、前記学習では、前記訓練データが含む前記画像データに対する前記椎体中心推定モデルの推定の結果と前記訓練データが含む前記正解データとの違いを小さくするように前記椎体中心推定モデルが更新される、椎体中心推定モデル学習装置、によって得られた学習済みの椎体中心推定モデルを前記推定対象画像データに対して実行する椎体中心推定部と、
を備える椎体中心推定装置。
【請求項4】
椎体が写る画像であって矢状面の画像である矢状面椎体画像の画像データに基づき前記椎体の中心の位置を推定する数理モデルである椎体中心推定モデルを、学習により更新する学習実行ステップ、
を有し、
前記学習では、前記矢状面椎体画像の画像データと前記矢状面椎体画像に写る前記椎体の中心の位置を示す正解データとの対を含む訓練データが用いられ、
前記学習では、前記訓練データが含む前記画像データに対する前記椎体中心推定モデルの推定の結果と前記訓練データが含む前記正解データとの違いを小さくするように前記椎体中心推定モデルが更新される、
椎体中心推定モデル学習方法。
【請求項5】
推定対象の画像の画像データである推定対象画像データを取得する対象データ取得実行ステップと、
椎体が写る画像であって矢状面の画像である矢状面椎体画像の画像データに基づき前記椎体の中心の位置を推定する数理モデルである椎体中心推定モデルを、学習により更新する学習ステップ、を有し、前記学習では、前記矢状面椎体画像の画像データと前記矢状面椎体画像に写る前記椎体の中心の位置を示す正解データとの対を含む訓練データが用いられ、前記学習では、前記訓練データが含む前記画像データに対する前記椎体中心推定モデルの推定の結果と前記訓練データが含む前記正解データとの違いを小さくするように前記椎体中心推定モデルが更新される、椎体中心推定モデル学習方法、によって得られた学習済みの椎体中心推定モデルを前記推定対象画像データに対して実行する椎体中心推定ステップと、
を有する椎体中心推定方法。
【請求項6】
請求項1又は2に記載の椎体中心推定モデル学習装置としてコンピュータを機能させるためのプログラム。
【請求項7】
請求項3に記載の椎体中心推定装置としてコンピュータを機能させるためのプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、椎体中心推定モデル学習装置、椎体中心推定装置、椎体中心推定モデル学習方法、椎体中心推定方法及びプログラムに関する。
【背景技術】
【0002】
椎体に係る身体の異常を治療する技術がある。このような技術では、椎体を撮影し、その撮影結果に基づいて治療方針が決定される場合がある。具体的には、放射線技師等の撮影結果から椎体の状態を推定する者(医師等)が撮影結果から椎体の状態を読み取り、読み取った結果に基づいて治療方針が決定される。そのため、撮影結果から椎体の状態を推定する者は、撮影結果から椎体の状態を読み取る必要があった。
【先行技術文献】
【特許文献】
【0003】
【特許文献1】米国特許第10292770号明細書
【特許文献2】特表2019-514548号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
しかしながら、撮影結果から椎体の状態を読み取ることは必ずしも容易ではなく、負担が大きい場合もあった。その結果、治療の方針を決定することも容易ではなく、治療方針の決定の負担が大きい場合もあった。
【0005】
上記事情に鑑み、本発明は、椎体に係る身体の異常を治療する際の治療方針の決定に要する負担を軽減する技術を提供することを目的としている。
【課題を解決するための手段】
【0006】
本発明の一態様は、椎体が写る画像であって矢状面の画像である矢状面椎体画像の画像データに基づき前記椎体の中心の位置を推定する数理モデルである椎体中心推定モデルを、学習により更新する学習実行部、を備え、前記学習では、前記矢状面椎体画像の画像データと前記矢状面椎体画像に写る前記椎体の中心の位置を示す正解データとの対を含む訓練データが用いられ、前記学習では、前記訓練データが含む前記画像データに対する前記椎体中心推定モデルの推定の結果と前記訓練データが含む前記正解データとの違いを小さくするように前記椎体中心推定モデルが更新される、椎体中心推定モデル学習装置である。
【0007】
本発明の一態様は、推定対象の画像の画像データである推定対象画像データを取得する対象データ取得実行部と、椎体が写る画像であって矢状面の画像である矢状面椎体画像の画像データに基づき前記椎体の中心の位置を推定する数理モデルである椎体中心推定モデルを、学習により更新する学習部、を備え、前記学習では、前記矢状面椎体画像の画像データと前記矢状面椎体画像に写る前記椎体の中心の位置を示す正解データとの対を含む訓練データが用いられ、前記学習では、前記訓練データが含む前記画像データに対する前記椎体中心推定モデルの推定の結果と前記訓練データが含む前記正解データとの違いを小さくするように前記椎体中心推定モデルが更新される、椎体中心推定モデル学習装置、によって得られた学習済みの椎体中心推定モデルを前記推定対象画像データに対して実行する椎体中心推定部と、を備える椎体中心推定装置である。
【0008】
本発明の一態様は、椎体が写る画像であって矢状面の画像である矢状面椎体画像の画像データに基づき前記椎体の中心の位置を推定する数理モデルである椎体中心推定モデルを、学習により更新する学習実行ステップ、を有し、前記学習では、前記矢状面椎体画像の画像データと前記矢状面椎体画像に写る前記椎体の中心の位置を示す正解データとの対を含む訓練データが用いられ、前記学習では、前記訓練データが含む前記画像データに対する前記椎体中心推定モデルの推定の結果と前記訓練データが含む前記正解データとの違いを小さくするように前記椎体中心推定モデルが更新される、椎体中心推定モデル学習方法である。
【0009】
本発明の一態様は、推定対象の画像の画像データである推定対象画像データを取得する対象データ取得実行ステップと、椎体が写る画像であって矢状面の画像である矢状面椎体画像の画像データに基づき前記椎体の中心の位置を推定する数理モデルである椎体中心推定モデルを、学習により更新する学習ステップ、を有し、前記学習では、前記矢状面椎体画像の画像データと前記矢状面椎体画像に写る前記椎体の中心の位置を示す正解データとの対を含む訓練データが用いられ、前記学習では、前記訓練データが含む前記画像データに対する前記椎体中心推定モデルの推定の結果と前記訓練データが含む前記正解データとの違いを小さくするように前記椎体中心推定モデルが更新される、椎体中心推定モデル学習方法、によって得られた学習済みの椎体中心推定モデルを前記推定対象画像データに対して実行する椎体中心推定ステップと、を有する椎体中心推定方法である。
【0010】
本発明の一態様は、上記の椎体中心推定モデル学習装置としてコンピュータを機能させるためのプログラムである。
【0011】
本発明の一態様は、上記の椎体中心推定装置としてコンピュータを機能させるためのプログラムである。
【発明の効果】
【0012】
本発明により、椎体に係る身体の異常を治療する際の治療方針の決定に要する負担を軽減することが可能となる。
【図面の簡単な説明】
【0013】
図1】第1実施形態の椎体推定モデル学習装置の概要を説明する説明図。
図2】第1実施形態における椎体推定モデル学習装置のハードウェア構成の一例を示す図。
図3】第1実施形態における椎体推定モデル学習装置が備える制御部の構成の一例を示す図。
図4】第1実施形態における椎体推定モデル学習装置が実行する処理の流れの一例を示すフローチャート。
図5】第1実施形態における椎体推定装置のハードウェア構成の一例を示す図。
図6】第1実施形態における椎体推定装置が備える制御部の構成の一例を示す図。
図7】第1実施形態における椎体推定装置が実行する処理の流れの一例を示すフローチャート。
図8】第1実施形態の第4変形例における椎体推定装置が備える制御部の構成の一例を示す図。
図9】第1実施形態の第2変形例における椎体推定装置が備える制御部の構成の一例を示す図。
図10】第1実施形態の第2変形例における制御部の実行する処理の流れの一例を示すフローチャート。
図11】第2実施形態における類似症例推定装置の概要を説明する説明図。
図12】第2実施形態における類似症例推定装置のハードウェア構成の一例を示す図。
図13】第2実施形態における類似症例推定装置が備える制御部の構成の一例を示す図。
図14】第2実施形態における類似症例推定装置が実行する処理の流れの一例を示す図。
図15】第3実施形態の椎体中心推定システムの概要を説明する説明図。
図16】第3実施形態における椎体中心推定モデル学習装置のハードウェア構成の一例を示す図。
図17】第3実施形態における椎体中心推定モデル学習装置が備える制御部の構成の一例を示す図。
図18】第3実施形態における椎体中心推定モデル学習装置が実行する処理の流れの一例を示すフローチャート。
図19】第3実施形態における椎体中心推定装置のハードウェア構成の一例を示す図である。
図20】第3実施形態における椎体中心推定装置が備える制御部の構成の一例を示す図。
図21】第3実施形態における椎体中心推定装置が実行する処理の流れの一例を示すフローチャート。
図22】第3実施形態におけるパラメータ推定装置のハードウェア構成の一例を示す図。
図23】第3実施形態におけるパラメータ推定装置が実行する処理の流れの一例を示すフローチャート。
【発明を実施するための形態】
【0014】
(第1実施形態)
図1は、第1実施形態の椎体推定モデル学習装置1の概要を説明する説明図である。椎体推定モデル学習装置1は、人又は動物の椎体の位置を推定する数理モデルを、機械学習の方法を用いて得る。
【0015】
人又は動物の椎体の位置を推定する数理モデルの取得に際して、椎体推定モデル学習装置1は、椎体推定モデルの学習を行う。椎体推定モデルは、入力された椎体2次元画像データに基づき、その椎体2次元画像データの画像に写る椎体頂点の各位置と中心指向ベクトルとを推定する数理モデルである。椎体2次元画像データは、椎体が写る2次元画像の画像データである。椎体頂点は、椎体の隅の各頂点である。中心指向ベクトルは、椎体頂点ごとのベクトルであって各椎体頂点から椎体の中心に向かうベクトルである。中心は、例えば重心である。中心は、例えば4つの椎体頂点が構成する四角形の対角線の交点であってもよい。以下、椎体2次元画像データが示す画像を椎体2次元画像という。
【0016】
図1における画像G1は、椎体2次元画像の一例である。画像G1には3つの椎体が写る。図1における画像G2は、画像G1に写る椎体頂点を示す画像である。より具体的には、画像G2の点P1~P12がそれぞれ椎体頂点の一例である。画像G2において椎体頂点P1~P4は3つの椎体の1つに属する4つの頂点である。画像G2において椎体頂点P5~P8は3つの椎体の他の1つの椎体に属する4つの頂点である。画像G2において椎体頂点P9~P12は3つの椎体の最後の1つの椎体に属する4つの頂点である。
【0017】
図1における画像G2は、中心指向ベクトルの例として、画像G1に写る椎体頂点のうちの3つについて中心指向ベクトルを示す。画像G2におけるベクトルV1、ベクトルV2及びベクトルV3はいずれも、中心指向ベクトルの一例である。ベクトルV1は、椎体頂点P3における中心指向ベクトルである。ベクトルV2は、椎体頂点P7における中心指向ベクトルである。ベクトルV3は、椎体頂点P11における中心指向ベクトルである。
【0018】
なお、数理モデルは、実行される条件と順番と(以下「実行規則」という。)が予め定められた1又は複数の処理を含む集合である。学習とは、機械学習の方法による数理モデルの更新を意味する。数理モデルの更新とは、数理モデルにおけるパラメータの値を好適に調整することを意味する。また、数理モデルの実行とは、数理モデルが含む各処理を実行規則にしたがって実行すること意味する。なお、数理モデルが含む処理は、他の数理モデルを実行する処理を含んでもよい。
【0019】
学習による数理モデルの更新は、学習に関する所定の終了条件(以下「学習終了条件」という。)が満たされるまで行われる。学習終了条件は、例えば所定の回数の学習が行われた、という条件である。
【0020】
なお、椎体2次元画像データは、3次元CT(Computed Tomography)画像から得られた2次元画像の画像データであってもよいし、MRI(Magnetic Resonance Imaging)を用いて得られた2次元の画像の画像データであってもよし、レントゲン撮影で得られたX線写真の画像データであってもよい。3次元CT画像から椎体2次元画像データを取得する場合、例えばDigitally Reconstructed Radiograph(DRR)が用いられる。
【0021】
椎体2次元画像データは画像内に椎体が写る画像の画像データであればどのようなものであってもよいが、椎体推定モデルの精度の向上の観点や、椎体2次元画像データの取得に要する負担の軽減のためには工夫された技術が実行されることが望ましい。このような技術の例については変形例にて説明する。
【0022】
<椎体推定モデルの学習の詳細>
椎体推定モデルの学習では、椎体2次元画像データと、正解頂点情報と、正解中心指向ベクトル情報と、の組が訓練データとして用いられる。正解頂点情報は、同じ組に属する椎体2次元画像データが示す画像に写る椎体頂点の各位置を示す情報である。正解中心指向ベクトル情報は、同じ組に属する椎体2次元画像データが示す画像に写る椎体頂点ごとの中心指向ベクトルを示す情報である。学習では1回の試行ごとに1つの訓練データが用いられる。学習では1回の試行ごとに椎体推定モデルが更新される。
【0023】
より具体的に椎体推定モデルの学習を説明する。椎体推定モデルの学習では、訓練データの含む椎体2次元画像データに対して椎体推定モデルが実行される。椎体推定モデルの学習では、椎体推定モデルの実行により得られた推定の結果と、正解頂点情報が示す椎体頂点の各位置と各中心指向ベクトルと、の違いを小さくするように、椎体推定モデルの更新が行われる。すなわち、正解頂点情報及び正解中心指向ベクトル情報は椎体推定モデルの学習における正解データである。なお、違いを表す損失関数は、例えば二乗誤差関数であってもよい。
【0024】
図2は、第1実施形態における椎体推定モデル学習装置1のハードウェア構成の一例を示す図である。椎体推定モデル学習装置1は、バスで接続されたCPU(Central Processing Unit)等のプロセッサ91とメモリ92とを備える制御部11を備え、プログラムを実行する。椎体推定モデル学習装置1は、プログラムの実行によって制御部11、入力部12、通信部13、記憶部14及び出力部15を備える装置として機能する。
【0025】
より具体的には、プロセッサ91が記憶部14に記憶されているプログラムを読み出し、読み出したプログラムをメモリ92に記憶させる。プロセッサ91が、メモリ92に記憶させたプログラムを実行することによって、椎体推定モデル学習装置1は、制御部11、入力部12、通信部13、記憶部14及び出力部15を備える装置として機能する。
【0026】
制御部11は、椎体推定モデル学習装置1が備える各種機能部の動作を制御する。制御部11は、椎体推定モデルを実行する。制御部11は、例えば出力部15の動作を制御し、出力部15に椎体推定モデルの実行結果を出力させる。制御部11は、例えば椎体推定モデルの実行により生じた各種情報を記憶部14に記録する。記憶部14が記憶する各種情報は、例えば椎体推定モデルの学習結果を含む。
【0027】
入力部12は、マウスやキーボード、タッチパネル等の入力装置を含んで構成される。入力部12は、これらの入力装置を椎体推定モデル学習装置1に接続するインタフェースとして構成されてもよい。入力部12は、椎体推定モデル学習装置1に対する各種情報の入力を受け付ける。入力部12には、例えば椎体推定モデルの学習に用いられる訓練データが入力される。
【0028】
通信部13は、椎体推定モデル学習装置1を外部装置に接続するための通信インタフェースを含んで構成される。通信部13は、有線又は無線を介して外部装置と通信する。外部装置は、例えば椎体推定モデルの学習に用いられる訓練データの送信元の装置である。通信部13は、椎体推定モデルの学習に用いられる訓練データの送信元との通信によって椎体推定モデルの学習に用いられる訓練データを椎体推定モデルの学習に用いられる訓練データの送信元から受信する。外部装置は、例えば学習済みの椎体推定モデルを実行する装置である。通信部13は、学習済みの椎体推定モデルを実行する装置との通信によって学習済みの椎体推定モデルを学習済みの椎体推定モデルを実行する装置に送信する。
【0029】
記憶部14は、磁気ハードディスク装置や半導体記憶装置などのコンピュータ読み出し可能な記憶媒体装置を用いて構成される。記憶部14は椎体推定モデル学習装置1に関する各種情報を記憶する。記憶部14は、例えば入力部12又は通信部13を介して入力された情報を記憶する。記憶部14は、例えば椎体推定モデルを予め記憶する。記憶部14は、例えば椎体推定モデルの実行により生じた各種情報を記憶する。
【0030】
出力部15は、各種情報を出力する。出力部15は、例えばCRT(Cathode Ray Tube)ディスプレイや液晶ディスプレイ、有機EL(Electro-Luminescence)ディスプレイ等の表示装置を含んで構成される。出力部15は、これらの表示装置を椎体推定モデル学習装置1に接続するインタフェースとして構成されてもよい。出力部15は、例えば入力部12又は通信部13に入力された情報を出力する。出力部15は、例えば椎体推定モデルの実行結果を表示してもよい。
【0031】
図3は、第1実施形態における椎体推定モデル学習装置1が備える制御部11の構成の一例を示す図である。制御部11は、訓練データ取得部111、学習部112、記憶制御部113及び出力制御部114を備える。
【0032】
訓練データ取得部111は、訓練データを取得する。訓練データ取得部111は、例えば入力部12又は通信部13に入力された訓練データを取得する。訓練データ取得部111は、予め記憶部14に記憶済みの訓練データを読み出すことで訓練データを取得してもよい。
【0033】
学習部112は、椎体推定モデルの学習を実行する。学習部112は、椎体推定モデル実行部121及び更新部122を備える。椎体推定モデル実行部121は、訓練データ取得部111の取得した訓練データに含まれる椎体2次元画像データに対して椎体推定モデルを実行する。椎体推定モデル実行部121は、椎体推定モデルの実行により、実行対象の椎体2次元画像データの示す画像に写る椎体頂点の各位置と中心指向ベクトルとを推定する。なお、実行対象とは、処理又は数理モデルの実行の対象を意味する。したがって、椎体推定モデルの実行対象とは、椎体推定モデル実行部121の推定の推定対象である。
【0034】
椎体推定モデル実行部121は、具体的には椎体推定モデルを表現するニューラルネットワークである。したがって椎体推定モデル実行部121による椎体推定モデルの実行とは、椎体推定モデルを表現するニューラルネットワークが動作することを意味する。
【0035】
更新部122は、椎体推定モデル実行部121の推定結果と、訓練データに含まれる正解データとに基づき、推定結果と正解データとの違いを小さくするように、椎体推定モデルを更新する。
【0036】
記憶制御部113は各種情報を記憶部14に記録する。出力制御部114は出力部15の動作を制御する。
【0037】
図4は、第1実施形態における椎体推定モデル学習装置1が実行する処理の流れの一例を示すフローチャートである。訓練データ取得部111が訓練データを取得する(ステップS101)。次に、椎体推定モデル実行部121が、ステップS101で取得された訓練データに含まれる椎体2次元画像データに対して椎体推定モデルを実行する(ステップS102)。椎体推定モデルの実行により、実行対象の椎体2次元画像データの示す画像に写る椎体頂点の各位置と中心指向ベクトルとが推定される。
【0038】
次に更新部122が、ステップS102の実行により得られた推定の結果と、ステップS101で取得された訓練データに含まれる正解頂点情報及び正解中心指向ベクトル情報に基づき、椎体推定モデルを更新する(ステップS103)。次に、更新部122は、学習終了条件が満たされたか否かを判定する(ステップS104)。学習終了条件が満たされた場合(ステップS104:YES)、処理が終了する。一方、学習終了条件が満たされない場合(ステップS104:NO)、ステップS101の処理に戻る。
【0039】
このようにして得られた学習済みの椎体推定モデルは、入力された画像データの画像であって推定対象の画像に写る椎体頂点の各位置と各中心指向ベクトルとを推定する処理、に用いられる。このような処理を実行するものの一例が、これから説明する椎体推定装置2である。椎体推定装置2は、学習済みの椎体推定モデルを、例えば通信によって椎体推定モデル学習装置1から取得することで、学習済みの椎体推定モデルの実行前に予め取得する。椎体推定装置2は、学習済みの椎体推定モデルを、例えば学習済みの椎体推定モデルを表現するニューラルネットワークが備え付けられることで、学習済みの椎体推定モデルの実行前に予め取得してもよい。
【0040】
椎体推定装置2は、椎体推定モデル学習装置1の得た学習済みの椎体推定モデルを用いて、推定対象の画像に写る椎体頂点の各位置と各中心指向ベクトルとを推定する。
【0041】
図5は、第1実施形態における椎体推定装置2のハードウェア構成の一例を示す図である。椎体推定装置2は、バスで接続されたCPU等のプロセッサ93とメモリ94とを備える制御部21を備え、プログラムを実行する。椎体推定装置2は、プログラムの実行によって制御部21、入力部22、通信部23、記憶部24及び出力部25を備える装置として機能する。
【0042】
より具体的には、プロセッサ93が記憶部24に記憶されているプログラムを読み出し、読み出したプログラムをメモリ94に記憶させる。プロセッサ93が、メモリ94に記憶させたプログラムを実行することによって、椎体推定装置2は、制御部21、入力部22、通信部23、記憶部24及び出力部25を備える装置として機能する。
【0043】
制御部21は、椎体推定装置2が備える各種機能部の動作を制御する。制御部21は、学習済みの椎体推定モデルを実行する。制御部21は、例えば出力部25の動作を制御し、出力部25に学習済みの椎体推定モデルの実行結果を出力させる。制御部21は、例えば学習済みの椎体推定モデルの実行により生じた各種情報を記憶部24に記録する。記憶部24が記憶する各種情報は、例えば学習済みの椎体推定モデルの実行結果を含む。
【0044】
入力部22は、マウスやキーボード、タッチパネル等の入力装置を含んで構成される。入力部22は、これらの入力装置を椎体推定装置2に接続するインタフェースとして構成されてもよい。入力部22は、椎体推定装置2に対する各種情報の入力を受け付ける。入力部22には、例えば推定対象の画像の画像データが入力される。
【0045】
通信部23は、椎体推定装置2を外部装置に接続するための通信インタフェースを含んで構成される。通信部23は、有線又は無線を介して外部装置と通信する。外部装置は、例えば推定対象の画像の画像データの送信元の装置である。通信部23は、推定対象の画像の画像データの送信元の装置との通信によって推定対象の画像の画像データを推定対象の画像の画像データの送信元の装置から受信してもよい。外部装置は、例えば椎体推定モデル学習装置1である。通信部23は、椎体推定モデル学習装置1との通信によって学習済みの椎体推定モデルを椎体推定モデル学習装置1から受信してもよい。
【0046】
記憶部24は、磁気ハードディスク装置や半導体記憶装置などのコンピュータ読み出し可能な記憶媒体装置を用いて構成される。記憶部24は椎体推定装置2に関する各種情報を記憶する。記憶部24は、例えば入力部22又は通信部23を介して入力された情報を記憶する。記憶部24は、例えば学習済みの椎体推定モデルを学習済みの椎体推定モデルの実行前に予め記憶する。記憶部24は、例えば学習済みの椎体推定モデルの実行により生じた各種情報を記憶する。
【0047】
出力部25は、各種情報を出力する。出力部25は、例えばCRTディスプレイや液晶ディスプレイ、有機ELディスプレイ等の表示装置を含んで構成される。出力部25は、これらの表示装置を椎体推定装置2に接続するインタフェースとして構成されてもよい。出力部25は、例えば入力部22又は通信部23に入力された情報を出力する。出力部25は、例えば学習済みの椎体推定モデルの実行結果を出力してもよい。
【0048】
図6は、第1実施形態における椎体推定装置2が備える制御部21の構成の一例を示す図である。制御部21は、対象データ取得部211、椎体推定部212、記憶制御部213及び出力制御部214を備える。
【0049】
対象データ取得部211は、学習済みの椎体推定モデルの実行対象の椎体2次元画像データを取得する。対象データ取得部211の取得する椎体2次元画像データが、推定対象の画像の画像データである。対象データ取得部211は、例えば入力部22又は通信部23を介して入力された椎体2次元画像データを学習済みの椎体推定モデルの実行対象の椎体2次元画像データとして取得する。
【0050】
椎体推定部212は、対象データ取得部211の取得した椎体2次元画像データに対して学習済みの椎体推定モデルを実行する。椎体推定部212は、椎体推定モデルの実行により、実行対象の椎体2次元画像データの示す画像に写る椎体頂点の各位置と中心指向ベクトルとを推定する。
【0051】
記憶制御部213は各種情報を記憶部14に記録する。出力制御部214は出力部15の動作を制御する。
【0052】
図7は、第1実施形態における椎体推定装置2が実行する処理の流れの一例を示すフローチャートである。対象データ取得部211が、推定対象の画像の画像データを取得する(ステップS201)。次に、椎体推定部212が、対象データ取得部211の取得した画像データに対して学習済みの椎体推定モデルを実行することで、推定対象の画像に写る椎体頂点の各位置と中心指向ベクトルとを推定する(ステップS202)。次に、出力制御部214が出力部25の動作を制御して、ステップS202で得られた推定の結果を、出力部25に出力させる(ステップS203)。出力の方法は、例えば表示である。
【0053】
このように構成された第1実施形態の椎体推定モデル学習装置1は、画像中の椎体の隅の頂点と頂点から中心に向かうベクトルとを推定する数理モデルを得る。椎体に係る身体の異常を治療する治療方針の決定に際しては画像から椎体の位置を読み取ることが行われるが、読み取りは難しい場合や医師等の椎体の位置を読み取る者の技量に依存する場合がある。しかし、椎体の隅の頂点と頂点から中心に向かうベクトルとを椎体の位置を読み取る者が知れば、ベクトルの終点が近い位置にある椎体は同じ椎体の隅の頂点であろうと、椎体の位置を読み取る者は推定でき、椎体の位置の読み取りに要する負担が軽減される。したがって、椎体に係る身体の異常を治療する際の治療方針の決定に要する椎体の位置を読み取る者の負担が軽減される。そのため、椎体の隅の頂点と頂点から中心に向かうベクトルとを推定する数理モデルを学習により得る椎体推定モデル学習装置1は、椎体に係る身体の異常を治療する際の治療方針の決定に要する負担を軽減することができる。
【0054】
このように構成された第1実施形態の椎体推定装置2は、学習済みの椎体推定モデルを用いて、椎体の隅の頂点と頂点から中心に向かうベクトルとを推定する。そのため、椎体推定装置2は、椎体に係る身体の異常を治療する際の治療方針の決定に要する負担を軽減することができる。
【0055】
(第1実施形態の第1変形例)
椎体推定モデルの推定する椎体頂点の位置は、例えば、椎体頂点の位置である可能性の高さの画像内の分布を示す情報(以下「ヒートマップ情報」という。)によって示されてもよい。ヒートマップ情報は、例えば等高線で示される。なお、椎体推定モデルの推定する椎体頂点の位置がヒートマップ情報によって示される場合、学習済みの椎体推定モデルも椎体頂点の位置をヒートマップ情報によって示す。
【0056】
(第1実施形態の第2変形例)
椎体推定モデルには、例えば1/4の解像度の椎体2次元画像等の解像度の下げられた椎体2次元画像が入力されてもよい。このような解像度の下げられた画像が椎体2次元画像に入力されることで、演算量が軽減される。なお、椎体推定モデルに解像度の下げられた椎体2次元画像が入力される場合、学習済みの椎体推定モデルにも解像度の下げられた椎体2次元画像が入力される。
【0057】
(第1実施形態の第3変形例)
椎体推定モデルに解像度の下げられた椎体2次元画像が入力される場合、椎体推定モデルによる椎体頂点の位置の推定の精度も、解像度の低下に応じた度合だけ低下してしまう。そこで、椎体推定モデルの学習では、解像度の下げられた椎体2次元画像上の椎体頂点の位置を示す情報の推定だけではなく、低下された解像度を元に戻した場合における椎体頂点の位置を示す情報も椎体推定モデルが推定するように学習が行われてもよい。以下、低下された解像度を元に戻した場合における椎体頂点の位置を示す情報を、オリジナル位置指示情報という。オリジナル位置指示情報は、例えば、解像度の下げられた椎体2次元画像上の椎体頂点の位置を示す情報を始点とし、低下された解像度を元に戻した場合における椎体頂点の位置を終点とする位置ベクトルで示される。
【0058】
このような、オリジナル位置指示情報を推定する椎体推定モデルの学習では、訓練データの含む正解データに、低下された解像度を元に戻した場合における椎体頂点の位置を示す情報も含めて学習が行われる。
【0059】
椎体推定装置2がこのような、オリジナル位置指示情報を推定するように学習が行われた学習済みの椎体推定モデルを用いる場合には、椎体推定装置2は、学習済みの椎体推定モデルの実行により、推定対象の椎体2次元画像についてオリジナル位置指示情報も推定する。
【0060】
(第1実施形態の第4変形例)
椎体推定装置2は、学習済みの椎体推定モデルの実行により得られた推定の結果に基づき、推定対象の画像に写る各椎体を区別する。すなわち、椎体推定装置2は、学習済みの椎体推定モデルの実行により得られた推定の結果に基づき、推定対象の画像に写る各椎体をそれぞれ他の椎体と異なる椎体であると判定する。以下、推定対象の画像に写る各椎体をそれぞれ他の椎体と異なる椎体であると判定する処理を、椎体判定処理という。
【0061】
椎体判定処理は、椎体中心推定処理とグルーピング処理とを含む。椎体中心推定処理は、学習済みの椎体推定モデルの実行により得られた推定の結果に基づき、推定対象の画像に写る各椎体の中心を推定する処理である。
【0062】
椎体の中心は1つの椎体に1つであるので、椎体を識別する情報でもある。そこで、椎体の中心を用いて、推定対象の画像に写る各椎体頂点と各中心指向ベクトルとを分類することが可能である。具体的には、推定対象の画像に写る各椎体頂点と各中心指向ベクトルとがいずれの椎体に属するかという判定の処理を、推定対象の画像に写る各椎体頂点と各中心指向ベクトルとがいずれの椎体の中心に属するかという判定の処理で代替可能である。
【0063】
グルーピング処理は、推定対象に写る各椎体頂点と各中心指向ベクトルとについて、いずれの椎体の中心に属するかを判定する処理である。グルーピング処理における分類は、具体的には、椎体中心推定処理によって推定された各椎体の中心を示す情報と、学習済みの椎体推定モデルの実行により得られた椎体頂点の各位置と各中心指向ベクトルと、に基づいて行われる。グルーピング処理の実行により、推定対象に写る椎体頂点と中心指向ベクトルと椎体の中心とが、同じ椎体に属するもの同士で分類される。
【0064】
グルーピング処理では、中心指向ベクトルの終点と椎体中心推定処理で推定されたいずれか1つの中心との距離が所定の閾値よりも短い場合に、その中心と、その中心指向ベクトルと、その中心指向ベクトルの始点の椎体頂点とが同じ椎体に属すると判定される。このようにして、グルーピング処理は、推定対象に写る各椎体頂点と各中心指向ベクトルとについて、いずれの椎体の中心に属するかを判定する。
【0065】
なお、椎体2次元画像には、椎体が正面から撮影された場合には1つの椎体に4つの頂点が写ることが期待される。しかしながら、椎体が曲がった状態で撮影されるなどの椎体の撮影時の状況によっては、推定対象の椎体2次元画像に3つ以下の椎体頂点しか映っていない椎体が存在する場合がある。そのため、椎体判定処理では、3つの以下の椎体頂点と3つ以下の中心指向ベクトルが属する椎体が推定される場合があってもよい。
【0066】
出力制御部214は、出力部25の動作を制御して、出力部25に椎体判定処理の実行により得られた推定の結果を出力させる。出力の方法は、例えば表示である。
【0067】
図8は、第1実施形態の第4変形例における椎体推定装置2が備える制御部21aの構成の一例を示す図である。以下説明の簡単のため、制御部21と同様の機能を有するものについては、図6と同じ符号を付すことで説明を省略する。制御部21aは、椎体判定部215を備える点で、第1実施形態の制御部21と異なる。椎体判定部215は、椎体判定処理を実行する。
【0068】
(第1実施形態の第5変形例)
椎体推定装置2は、椎体判定処理の実行により得られた推定の結果に基づき、推定対象の画像に写る脊椎のコブ角を推定してもよい。以下、椎体判定処理の実行により得られた推定の結果に基づき推定対象の画像に写る脊椎のコブ角を算出する処理、をコブ角算出処理という。なお、椎体推定モデルの推定する各椎体頂点の位置がそれぞれヒートマップ情報によって示される場合、コブ角算出処理における椎体頂点の各位置は、椎体頂点位置ごとのヒートマップ情報が示す極大値の位置である。
【0069】
図9は、第1実施形態の第2変形例における椎体推定装置2が備える制御部21bの構成の一例を示す図である。以下説明の簡単のため、制御部21と同様の機能を有するものについては、図6と同じ符号を付すことで説明を省略する。制御部21bは、コブ角算出部216を備える点で、第1実施形態の第4変形例の制御部21aと異なる。コブ角算出部216は、図10を用いて説明するコブ角算出処理を実行する。
【0070】
図10は、第1実施形態の第2変形例における制御部21bの実行する処理の流れの一例を示すフローチャートである。以下説明の簡単のため、傾きが0の方向を、矢状面と冠状面とが交わる線に垂直な軸であって冠状面に平行な軸に平行な方向として制御部21bの実行する処理の流れの一例を説明する。コブ角算出処理は、椎体判定処理の実行後に実行される。そして、椎体判定処理は、例えばステップS202の処理の実行後に実行される。椎体判定部215が、ステップS202で推定された推定の結果を取得する。すなわち、椎体判定部215が、椎体推定部212による推定の結果を取得する(ステップS301)。次に、椎体判定部215が、椎体判定処理の実行により推定対象の画像に写る各椎体を区別する(ステップS302)。
【0071】
次に、コブ角算出部216が、極値点椎体対を判定する(ステップS303)。極値点椎体対は、互いに隣接する椎体の対であって、一方の椎体の傾きから他方の椎体の傾きに変化する際に、隣接する椎体間の傾きの符号が反転する、対である。したがって極値点椎体対は、例えば、脊椎の首に近い側を上と定義し脊椎の腰椎に近い側を下と定義した場合に、上の椎体の上縁が形成する脊椎角の符号と、下の椎体の下縁が形成する脊椎角の符号とが異なる、互いに隣接する椎体の対である。脊椎角は、首から腰椎に向かう直線に対する角度である。
【0072】
ステップS303において具体的には、コブ角算出部216はまず、ステップS302で区別された椎体ごとに、各椎体の各頂点の位置に基づいて、椎体の上縁及び下縁の傾きをそれぞれ算出する。次に、コブ角算出部216は、隣接する2つの椎体の対ごとに、互いに隣接しないという条件を満たす上縁と下縁との組の上縁の傾きの符号と下縁の傾きの符号が反転するか否かを判定する。コブ角算出部216は、各対についての判定結果に基づき、椎体の傾きの変化量の符号が反転する対を判定する。このようにして、コブ角算出部216は、極値点椎体対を判定する。
【0073】
なお、ステップS303の処理において、極値点椎体対は複数存在する。次に、記憶制御部213が、極値点椎体対と判定された椎体の対のうち上側の椎体を示す情報を、極値点椎体として記憶部24等の所定の記憶装置に記録する(ステップS304)。すなわち、極値点椎体とは、極値点椎体対と判定された椎体の対のうち上側の椎体である。以下、所定の記憶装置が記憶部24である場合を例に、コブ角算出処理を説明する。
【0074】
次に、記憶制御部213が、複数存在する極値点椎体のうち互いに最も近い2つの極値点椎体の組み合わせを記録する(ステップS305)。たとえば、検出された極値点椎体が椎体T1と椎体L5の2つであった場合、記憶制御部213は、記憶部24に椎体T1及び椎体L5を記録する。次に、コブ角算出部216は、記憶部24に記憶されている極値点椎体の組み合わせについて、上側の椎体の上縁が形成する脊椎角と、下側の椎体の下縁が形成する脊椎角の傾きの差の絶対値をコブ角として算出する(ステップS306)。たとえば上記の例では、椎体T1の上縁が形成する脊椎角と、椎体L5の下縁が形成する脊椎角の差の絶対値をコブ角として算出する。このとき、ノイズ除去のため、一定の傾き条件を閾値として設定し、これ以下の値はコブ角の算出対象に含めないこととしてもよい。一定の傾き条件とは、たとえば絶対値で5度である。
【0075】
なお、ステップS303からステップS307の処理が、コブ角算出処理の一例である。なお、コブ角算出部216はコブ角算出処理においてステップS307の次に、ステップS307の処理で得られた各コブ角のうち大きいものから順に、Major,Mainor1、Minor2と判定してもよい。
【0076】
(第1実施形態の第6変形例)
上述したように、椎体2次元画像データは画像内に椎体が写る画像の画像データであればどのようなものであってもよいが、椎体推定モデルの精度の向上の観点や、椎体2次元画像データの取得に要する負担の軽減のためには工夫された技術が実行されることが望ましい。そこで、ここでは、そのような工夫された技術の一例を説明する。
【0077】
椎体2次元画像データは、例えばROI推定処理の実行により得られる。ROI推定処理は、2次元画像データを実行対象とする処理である。ROI推定処理は、実行対象の2次元画像データが示す画像内の関心領域(ROI:Region of Interest)を推定する処理である。このような場合、椎体2次元画像データは、ROI推定処理の実行対象の2次元画像データの画像からROI推定処理によって推定された関心領域を除く領域の像が消された画像の画像データである。
【0078】
ROI推定処理は、より具体的には、実行対象の2次元画像データが示す画像内の関心領域を推定する数理モデルであって2次元画像データと関心領域を示す正解データとの対を用いた学習により得られた数理モデル(以下「ROIモデル」という。)を実行する処理である。
【0079】
このようにROIモデルは学習により得られた数理モデルである。ROIモデルの学習では関心領域を示す情報が正解データとして用いられる。学習では、訓練データの含む2次元画像データに対するROIモデルの実行結果と正解データとの違いを小さくするようにROIモデルが更新される。学習に際して用いられる訓練データの含む2次元画像データには、椎体の像を写す2次元画像の画像データが用いられ、正解データは椎体を写す領域を関心領域として示す。このようにして、実行対象の2次元画像データから椎体を写す関心領域を推定するROIモデルが得られる。
【0080】
なお、ROIモデルの学習における訓練データの一部は椎体の像の写らない2次元画像データを含む訓練データであってもよい。このような場合、正解データは関心領域が無いことを示す。また、ROIモデルの学習における訓練データの含む2次元画像データには椎体の像が写る2次元画像データのみが用いられてもよい。そしてこのような場合、正解データは必ず、椎体の像の写る領域を関心領域として示してもよい。また、訓練データの含む正解データは、ROIモデルの実行対象の2次元画像データの画像の一部の領域であって、椎体の像を写すという条件を満たすランダムに選択された領域、を関心領域として示してもよい。
【0081】
脊椎の撮影は、さまざまな環境で行われ得る。そのため、撮影の状況に応じて画像にばらつきが生じてしまう。ROI推定処理の実行により得られた椎体2次元画像データが用いられれば、このような撮影時のばらつきが軽減された画像データを用いて、椎体頂点の各位置と中心指向ベクトルとが推定される。そのため、椎体推定モデルの学習の効率も向上するし、学習済みの椎体推定モデルによる推定の精度も向上する。学習において上述したような関心領域のランダムな選択が行われる場合、学習済みの椎体推定モデルによる推定の精度が向上する。その理由を説明する。
【0082】
<関心領域のランダムな選択が行われることで推定の精度が向上する理由>
学習に用いられるデータセットは、多くが画像の左右に大きく余白があるような画像の画像データであり、少量は余白がほとんどない画像の画像データである、というデータセットである場合がある。このようなデータセットをそのまま学習に用いると、画像の左右に大きく余白があるような画像の画像データに対する推定の精度は高いものの、それ以外の画像データについては推定の精度が低いために、過学習が生じてしまう可能性がある。過学習した学習済みの数理モデルをアプリケーションに組み込んだ場合、学習時に用いられた画像の撮影の状況と異なる状況で得られた画像の画像データに対して、推定精度が低い場合がある。
【0083】
そのため、学習では学習データセットの偏りを軽減した学習が行われることが望ましい。関心領域のランダムな選択は、学習に用いるデータをランダムに選ぶために、このような学習データセットの偏りを軽減することができる。より具体的には、関心領域をランダムに選択することで、大多数の余白が多いデータから少数派の余白の少ないデータに近いデータを一定確率で生成することができ、余白の少ないデータの相対的な割合が増える。そのため、関心領域のランダムな選択は、学習に用いるデータをランダムに選ぶために、このような学習データセットの偏りを軽減することができる。したがって、関心領域のランダムな選択が行われることで学習済みの椎体推定モデルによる推定の精度が向上する。ここまでで関心領域のランダムな選択が行われることで推定の精度が向上する理由の説明を終了する。
【0084】
ROI推定処理は、例えば訓練データ取得部111が実行する。椎体推定モデル学習装置1に2次元画像データと正解データとの対が入力された場合、訓練データ取得部111は、ROI推定処理の実行により、入力された2次元画像データから椎体2次元画像データを生成する。訓練データ取得部111は、生成した椎体2次元画像データと入力された正解データとの対を訓練データとして取得する。
【0085】
ROI推定処理は、例えば対象データ取得部211が実行する。椎体推定装置2に2次元画像データが入力された場合、対象データ取得部211は、ROI推定処理の実行により、入力された2次元画像データから椎体2次元画像データを生成する。対象データ取得部211は、生成した椎体2次元画像データを学習済みの椎体推定モデルの実行対象として取得する。
【0086】
(第1実施形態の第7変形例)
椎体推定モデルの学習では、複数の椎体2次元画像が用いられてもよい。このような場合、複数の椎体2次元画像の一部は、左右を反転させた椎体2次元画像であってもよいし、白黒の反転等の色の反転が行われた椎体2次元画像であってもよい。すなわち、椎体推定モデルの実行対象の2次元画像の画像データの集合は、色又は左右が反転した2次元画像の画像データを含む集合であってもよい。
【0087】
椎体推定モデルの学習では、色及び左右の反転が行われていない椎体2次元画像と、色の反転が行われ左右の反転が行われていない椎体2次元画像と、色の反転は行われず左右の反転が行われた椎体2次元画像と、色及び左右の反転が行われた椎体2次元画像との4つそれぞれについて、椎体推定モデルの実行が行われてもよい。このような場合、各画像に対する椎体推定モデルの推定結果に基づき、各推定結果の差が小さくなるように椎体推定モデルが更新されてもよい。
【0088】
このような4種類の椎体2次元画像の画像データを用いて学習された学習済みの椎体推定モデルを椎体推定装置2が用いる場合には、上記の4種類の画像の画像データに対して学習済みの椎体推定モデルが実行されてもよい。このような場合、4つの推定のうちの1つ以上3つ以下の推定においてのみ頂点の位置と中心指向ベクトルとが推定される椎体が生じる場合がある。このように、4つ全てではなくても少なくとも1つで頂点の位置と中心指向ベクトルとが推定されれば、ユーザはその結果を、実際に椎体が存在する、と受け取ってもよい。
【0089】
実験では、1種類の椎体2次元画像データだけを用いた場合には検出されなかった椎体が、このような4種類の椎体2次元画像の画像データを用いることで、17回の試行で連続して検出された、という結果が一例として得られている。
【0090】
このように、色又は左右が反転した椎体2次元画像の画像データも用いた椎体推定モデルの学習は、推定の精度を上げる効果を奏する。また、このように、色又は左右が反転した椎体2次元画像の画像データも用いた推定の結果であって学習済みの椎体推定モデルの実行で得られる推定の結果は、色及び左右の反転の無い1種類の椎体2次元画像データに基づく推定よりも、推定の精度が高いという効果を奏する。
【0091】
(第1実施形態の第8の変形例)
なお、椎体推定モデル学習装置1は、ネットワークを介して通信可能に接続された複数台の情報処理装置を用いて実装されてもよい。この場合、椎体推定モデル学習装置1が備える各機能部は、複数の情報処理装置に分散して実装されてもよい。
【0092】
なお、椎体推定装置2は、ネットワークを介して通信可能に接続された複数台の情報処理装置を用いて実装されてもよい。この場合、椎体推定装置2が備える各機能部は、複数の情報処理装置に分散して実装されてもよい。
【0093】
なお、椎体推定モデル学習装置1及び椎体推定装置2は、必ずしも異なる装置として実装される必要は無い。椎体推定モデル学習装置1及び椎体推定装置2は、例えば両者の機能を併せ持つ1つの装置として実装されてもよい。
【0094】
(第2実施形態)
第2実施形態の類似症例推定装置5を説明する。図11は、第2実施形態の類似症例推定装置5の概要を説明する説明図である。類似症例推定装置5は、解析対象取得部511と、類似度推定部512とを備える。解析対象取得部511は、解析対象の脊椎2次元画像データを取得する。脊椎2次元画像データは、脊椎の像を写す2次元画像である脊椎2次元像の画像データ(以下「脊椎画像データ」という。)である。以下、解析対象の脊椎2次元画像データ(以下「解析対象画像データ」という。)の示す画像を解析対象画像という。類似度推定部512は、解析対象画像が示す症例と、他の脊椎2次元画像が示す症例との類似の度合を推定する。
【0095】
なお、症例は、具体的には、脊椎の状態を意味する。以下、類似の度合の推定に用いられる他の脊椎2次元画像を基準画像という。脊椎2次元画像には複数の椎体が写る。以下、解析対象画像が示す症例と、基準画像が示す症例との類似の度合を推定する処理を、類似度推定処理という。
【0096】
類似の度合は、椎体ベクトルの集合(以下「椎体ベクトル集合」という。)の類似の度合である。椎体ベクトルは、脊椎2次元画像から得られるベクトルであってベクトル条件を満たすベクトルである。ベクトル条件は、脊椎2次元画像に写る複数の椎体のうち互いに隣接する2つの椎体の各中心同士を結ぶベクトルであり始点と終点とに関する予め定められた条件である。
【0097】
ベクトル条件は例えば、脊椎に沿って始点が終点よりも仙骨に近いという条件であってもよい。ベクトル条件は例えば、脊椎に沿って終点が始点よりも仙骨に近いという条件であってもよい。すなわち、ベクトル条件は例えば、ベクトル条件は、脊椎に沿って始点が終点よりも仙骨に近いという条件と、脊椎に沿って終点が始点よりも仙骨に近いという条件と、のうちの予め定められた一方の条件であってもよい。
【0098】
図11に示す画像G501は、解析対象画像の一例である。画像G501にはベクトルの集合を示す画像G502が重畳されている。画像G502が示すベクトルの集合は、脊椎に沿って始点が終点よりも仙骨に近いという条件を満たす16個の椎体ベクトルの集合である。
【0099】
類似の度合を示す指標は、例えば解析対象画像から得られる椎体特徴量と、基準画像から得られる椎体特徴量との間の類似の度合であってもよい。椎体特徴量は、椎体ベクトル集合に含まれる各ベクトルを要素とする行列(すなわちテンソル)の特徴量である。類似度は例えばコサイン類似度である。椎体特徴量の違いが小さいほど、解析対象画像が示す症例と基準画像が示す症例との一致の度合が高い。
【0100】
類似の度合を示す指標は、例えば総角度差であってもよい。総角度差は椎体角度差を、脊椎2次元画像に写るN個(Nは椎体ベクトルの最大数)の椎体ベクトル全てについて加算した値である。椎体角度差は、解析対象画像に写る椎体ベクトルであって脊椎に沿って仙骨への近さがn番目(nは1以上N以下の整数)の椎体ベクトルと、基準画像に写る椎体ベクトルであって脊椎に沿って仙骨への近さがn番目の椎体ベクトルとの間の角度差である。総角度差が大きいほど解析対象画像が示す症例と基準画像が示す症例との一致の度合が高い。
【0101】
なお、脊椎2次元画像に写る椎体ベクトルは上述した定義であるため、脊椎2次元画像に写る椎体の中心を示す情報(以下「椎体中心情報」という。)に基づいて得られる。椎体中心情報は、例えば上述の学習済みの椎体推定モデルと上述の椎体中心推定処理との実行により得られる。
【0102】
以下、椎体中心情報を得る処理を椎体中心情報取得処理という。椎体中心情報取得処理は、類似度推定部512が実行する。
【0103】
椎体中心情報取得処理は、椎体中心情報を取得可能であればどのような処理であってもよい。椎体中心情報取得処理は、例えば後述の第3実施形態に示す学習済みの椎体中心推定モデルを実行する処理であってもよい。また椎体中心情報取得処理は、例えばユーザが各椎体について椎体の中心であると判定した位置を示す情報を取得する処理であってもよい。ユーザが椎体の中心であると判定した位置を示す情報もまた、椎体の中心を示す情報であるので椎体中心情報の一例である。
【0104】
図12は、第2実施形態における類似症例推定装置5のハードウェア構成の一例を示す図である。類似症例推定装置5は、バスで接続されたCPUやGPU等のプロセッサ95とメモリ96とを備える制御部51を備え、プログラムを実行する。類似症例推定装置5は、プログラムの実行によって制御部51、入力部52、通信部53、記憶部54及び出力部55を備える装置として機能する。
【0105】
より具体的には、プロセッサ95が記憶部54に記憶されているプログラムを読み出し、読み出したプログラムをメモリ96に記憶させる。プロセッサ95が、メモリ96に記憶させたプログラムを実行することによって、類似症例推定装置5は、制御部51、入力部52、通信部53、記憶部54及び出力部55を備える装置として機能する。
【0106】
制御部51は、類似症例推定装置5が備える各種機能部の動作を制御する。制御部51は、例えば椎体中心情報取得処理を実行する。制御部51は、類似度推定処理を実行する。制御部11は、例えば出力部55の動作を制御し、出力部55に類似度推定処理の推定の結果を出力させる。制御部51は、例えば類似度推定処理の実行により生じた各種情報を記憶部54に記録する。
【0107】
入力部52は、マウスやキーボード、タッチパネル等の入力装置を含んで構成される。入力部52は、これらの入力装置を類似症例推定装置5に接続するインタフェースとして構成されてもよい。入力部52は、類似症例推定装置5に対する各種情報の入力を受け付ける。入力部52には、例えば解析対象画像の画像データが入力される。入力部52には、例えば基準画像の画像データが入力される。
【0108】
通信部53は、類似症例推定装置5を外部装置に接続するための通信インタフェースを含んで構成される。通信部53は、有線又は無線を介して外部装置と通信する。外部装置は、例えば解析対象画像の画像データの送信元の装置である。通信部53は、解析対象画像の画像データの送信元の装置との通信によって、解析対象画像の画像データを取得する。外部装置は、例えば基準画像の画像データの送信元の装置である。通信部53は、基準画像の画像データの送信元の装置との通信によって、基準画像の画像データを取得する。
【0109】
なお基準画像の画像データは予め記憶部54に記憶済みであってもよい。以下説明の簡単のため基準画像の画像データが予め記憶部54に記憶済みである場合を例に、類似症例推定装置5を説明する。
【0110】
記憶部54は、磁気ハードディスク装置や半導体記憶装置などのコンピュータ読み出し可能な記憶媒体装置(a non-transitory computer readable medium)を用いて構成される。記憶部54は類似症例推定装置5に関する各種情報を記憶する。記憶部54は、例えば入力部52又は通信部53を介して入力された情報を記憶する。記憶部54は、例えば椎体中心情報取得処理の結果を記憶する。記憶部54は、例えば類似度推定処理の結果を記憶する。記憶部54は、例えば予め基準画像の画像データを記憶していてもよい。
【0111】
出力部55は、各種情報を出力する。出力部55は、例えばCRTディスプレイや液晶ディスプレイ、有機ELディスプレイ等の表示装置を含んで構成される。出力部55は、これらの表示装置を類似症例推定装置5に接続するインタフェースとして構成されてもよい。出力部55は、例えば入力部52又は通信部53に入力された情報を出力する。出力部55は、例えば椎体中心情報取得処理の結果を表示してもよい。図11の画像G501は、椎体中心情報取得処理の結果の表示の一例である。出力部55は、例えば椎体類似度推定処理の結果を表示してもよい。
【0112】
図13は、第2実施形態における類似症例推定装置5が備える制御部51の構成の一例を示す図である。制御部51は、解析対象取得部511、類似度推定部512、記憶制御部513及び出力制御部514を備える。
【0113】
類似度推定部512は、上述したように、椎体中心情報取得処理を実行する。類似度推定部512は、上述したように、椎体類似度推定処理を実行する。
【0114】
記憶制御部513は各種情報を記憶部54に記録する。出力制御部514は出力部55の動作を制御する。
【0115】
図14は、第2実施形態における類似症例推定装置5が実行する処理の流れの一例を示すフローチャートである。解析対象取得部511が解析対象画像の画像データを取得する(ステップS401)。次に類似度推定部512が椎体中心情報取得処理を解析対象画像の画像データと、基準画像の画像データとに対して実行する(ステップS402)。次に類似度推定部512がステップS402で得られた結果を用いて、椎体類似度推定処理を実行する(ステップS403)。次に、出力制御部514が出力部55の動作を制御して、椎体類似度推定処理の結果を出力させる(ステップS404)。
【0116】
このように構成された第2実施形態の類似症例推定装置5は、椎体ベクトル集合の類似の度合に基づいて、2つの画像が示す症例の一致の度合を推定する。症例が似通っているほど、治療方針も似通った方針を使用することができる。例えば基準画像が過去に治療が行われた際の症例であって治療の成功例であれば、解析対象画像の症例においても似通った治療を行って治療が成功する可能性が高い。そのため、類似症例推定装置5は椎体に係る身体の異常を治療する際の治療方針の決定に要する負担を軽減することができる。
【0117】
(第2実施形態の変形例)
なお類似の度合を取得する対象の基準画像の画像データは複数であってもよい。このような場合、例えば制御部51は基準画像ごとに解析対象画像との類似の度合を得る。このような場合、出力制御部514は例えば、出力部55の動作を制御して、類似の度合の高さの順に基準画像が並んだ画像を表示させてもよい。
【0118】
(第3実施形態)
図15は、第3実施形態の椎体中心推定システム100の概要を説明する説明図である。椎体中心推定システム100は、椎体中心推定モデル学習装置6、椎体中心推定装置7及びパラメータ推定装置8を備える。
【0119】
椎体中心推定モデル学習装置6は、椎体中心推定モデルを、学習により更新する学習実行部611を備える。椎体中心推定モデルは、椎体が写る画像であって矢状面の画像である矢状面椎体画像の画像データに基づき、矢状面椎体画像に写る椎体の中心の位置を推定する数理モデルである。
【0120】
なお、数理モデルは、実行される条件と順番と(以下「実行規則」という。)が予め定められた1又は複数の処理を含む集合である。学習とは、機械学習の方法による数理モデルの更新を意味する。数理モデルの更新とは、数理モデルにおけるパラメータの値を好適に調整することを意味する。また、数理モデルの実行とは、数理モデルが含む各処理を実行規則にしたがって実行すること意味する。なお、数理モデルが含む処理は、他の数理モデルを実行する処理を含んでもよい。
【0121】
学習による数理モデルの更新は、学習に関する所定の終了条件(以下「学習終了条件」という。)が満たされるまで行われる。学習終了条件は、例えば所定の回数の学習が行われた、という条件である。学習終了条件が満たされた時点の椎体中心推定モデルが、学習済みの椎体中心推定モデルである。
【0122】
椎体中心推定モデルの学習における訓練データは、入力側データと、出力側データとを含む。入力側データは、学習対象の数理モデルに入力されるデータである。学習対象の数理モデルは具体的には椎体中心推定モデルである。出力側データは、学習対象の数理モデル(すなわち椎体中心推定モデル)の出力との比較に用いられるデータである。すなわち出力側データは、機械学習におけるいわゆる正解データである。
【0123】
入力側データは矢状面椎体画像の画像データを含む。出力側データは、矢状面椎体画像に写る椎体の中心の位置を示すデータ(以下「正解中心データ」という。)である。このように、椎体中心推定モデルにおける学習では、矢状面椎体画像の画像データと矢状面椎体画像に写る椎体の中心の位置を示す正解データとの対を含む訓練データが用いられる。
【0124】
学習では、訓練データが含む矢状面椎体画像の画像データに対する椎体中心推定モデルの推定の結果と、訓練データが含む正解データとの違いを小さくするように椎体中心推定モデルが更新される。なお違いは、例えば二乗誤差関数で表現されてもよい。なお、学習では1回の試行ごとに1つの訓練データが用いられる。学習では1回の試行ごとに椎体中心推定モデルが更新される。
【0125】
なおこのように椎体の中心は、学習により得られた椎体中心推定モデルにより推測される位置であるので、学習の際に用いられた出力側データに依存する位置である。したがって椎体の中心は、出力側データの示す椎体の中心を例えばユーザが指定する場合には、その指定を行うユーザが定義する位置である。
【0126】
なお、矢状面椎体画像の画像データは、3次元CT(Computed Tomography)画像から得られた矢状面椎体画像の画像データであってもよいし、MRI(Magnetic Resonance Imaging)を用いて得られた矢状面椎体画像の画像データであってもよし、レントゲン撮影で得られた矢状面椎体画像の画像データであってもよい。3次元CT画像から矢状面椎体画像の画像データを取得する場合、例えばDigitally Reconstructed Radiograph(DRR)が用いられる。
【0127】
椎体中心推定装置7は、学習済みの椎体中心推定モデルを用いて推定対象の画像に写る椎体の中心を推定する。
【0128】
パラメータ推定装置8は、椎体中心推定装置7の推定した中心に基づいて、脊椎の状態に関するパラメータの値を推定する。脊椎の状態に関するパラメータ(以下「脊椎状態パラメータ」という。)は、例えばTK(thoracic kyphosis)や、LL(lumbar lordosis)や、PT(pelvic tilt)や、PI(pelvic incidence)や、SS(sacral slope)や、SVA(Sagittal vertical axis)である。
【0129】
なお椎体中心推定モデルによって推定される椎体の中心は、例えばC7や、T1~T12や、L1~L5や、S1上縁の前後点や、骨頭中心点である。
【0130】
パラメータ推定装置8は、椎体の中心に基づいて脊椎状態パラメータを推定可能であればどのような方法で、脊椎状態パラメータを推定してもよい。パラメータ推定装置8は例えば、矢状面の画像に写るC7~S1までの椎体中心点列に対して3次曲線のフィッティングを行うことで、脊椎状態パラメータの値を取得してもよい。
【0131】
図16は、第3実施形態における椎体中心推定モデル学習装置6のハードウェア構成の一例を示す図である。椎体中心推定モデル学習装置6は、バスで接続されたCPU(Central Processing Unit)やGPU(Graphics Processing Unit)等のプロセッサ901とメモリ902とを備える制御部61を備え、プログラムを実行する。椎体中心推定モデル学習装置6は、プログラムの実行によって制御部61、入力部62、通信部63、記憶部64及び出力部65を備える装置として機能する。
【0132】
より具体的には、プロセッサ901が記憶部64に記憶されているプログラムを読み出し、読み出したプログラムをメモリ902に記憶させる。プロセッサ901が、メモリ902に記憶させたプログラムを実行することによって、椎体中心推定モデル学習装置6は、制御部61、入力部62、通信部63、記憶部64及び出力部65を備える装置として機能する。
【0133】
制御部61は、椎体中心推定モデル学習装置6が備える各種機能部の動作を制御する。制御部61は、椎体中心推定モデルを実行する。制御部61は、例えば出力部65の動作を制御し、出力部65に椎体中心推定モデルの実行結果を出力させる。制御部61は、例えば椎体中心推定モデルの実行により生じた各種情報を記憶部64に記録する。記憶部64が記憶する各種情報は、例えば椎体中心推定モデルの学習結果を含む。
【0134】
入力部62は、マウスやキーボード、タッチパネル等の入力装置を含んで構成される。入力部62は、これらの入力装置を椎体中心推定モデル学習装置6に接続するインタフェースとして構成されてもよい。入力部62は、椎体中心推定モデル学習装置6に対する各種情報の入力を受け付ける。入力部62には、例えば椎体中心推定モデルの学習に用いられる訓練データが入力される。
【0135】
通信部63は、椎体中心推定モデル学習装置6を外部装置に接続するための通信インタフェースを含んで構成される。通信部63は、有線又は無線を介して外部装置と通信する。外部装置は、例えば椎体中心推定モデルの学習に用いられる訓練データの送信元の装置である。通信部63は、椎体中心推定モデルの学習に用いられる訓練データの送信元との通信によって椎体中心推定モデルの学習に用いられる訓練データを椎体中心推定モデルの学習に用いられる訓練データの送信元から受信する。外部装置は、例えば学習済みの椎体中心推定モデルを実行する装置である。通信部63は、学習済みの椎体中心推定モデルを実行する装置との通信によって学習済みの椎体中心推定モデルを学習済みの椎体中心推定モデルを実行する装置に送信する。
【0136】
記憶部64は、磁気ハードディスク装置や半導体記憶装置などのコンピュータ読み出し可能な記憶媒体装置(a non-transitory computer readable medium)を用いて構成される。記憶部64は椎体中心推定モデル学習装置6に関する各種情報を記憶する。記憶部64は、例えば入力部62又は通信部63を介して入力された情報を記憶する。記憶部64は、例えば椎体中心推定モデルを予め記憶する。記憶部64は、例えば椎体中心推定モデルの実行により生じた各種情報を記憶する。
【0137】
出力部65は、各種情報を出力する。出力部65は、例えばCRT(Cathode Ray Tube)ディスプレイや液晶ディスプレイ、有機EL(Electro-Luminescence)ディスプレイ等の表示装置を含んで構成される。出力部65は、これらの表示装置を椎体中心推定モデル学習装置6に接続するインタフェースとして構成されてもよい。出力部65は、例えば入力部62又は通信部63に入力された情報を出力する。出力部65は、例えば椎体中心推定モデルの実行結果を表示してもよい。
【0138】
図17は、第3実施形態における椎体中心推定モデル学習装置6が備える制御部61の構成の一例を示す図である。制御部61は、訓練データ取得実行部610、学習実行部611、記憶制御部612及び出力制御部613を備える。
【0139】
訓練データ取得実行部610は、訓練データを取得する。訓練データ取得実行部610は、例えば入力部62又は通信部63に入力された訓練データを取得する。訓練データ取得実行部610は、予め記憶部64に記憶済みの訓練データを読み出すことで訓練データを取得してもよい。
【0140】
学習実行部611は、椎体中心推定モデルの学習を実行する。
【0141】
記憶制御部612は各種情報を記憶部64に記録する。出力制御部613は出力部65の動作を制御する。
【0142】
図18は、第3実施形態における椎体中心推定モデル学習装置6が実行する処理の流れの一例を示すフローチャートである。訓練データ取得実行部610が訓練データを取得する(ステップS501)。次に、学習実行部611が、ステップS501で取得された訓練データに含まれる入力側データに対して椎体中心推定モデルを実行する(ステップS502)。椎体中心推定モデルの実行により、実行対象の入力側データの示す画像に写る椎体の中心が推定される。
【0143】
次に学習実行部611が、ステップS502の実行により得られた推定の結果と、ステップS501で取得された訓練データに含まれる出力側データとに基づき、椎体中心推定モデルを更新する(ステップS503)。次に、学習実行部611は、学習終了条件が満たされたか否かを判定する(ステップS504)。学習終了条件が満たされた場合(ステップS504:YES)、処理が終了する。一方、学習終了条件が満たされない場合(ステップS504:NO)、ステップS501の処理に戻る。
【0144】
このようにして得られた学習済みの椎体中心推定モデルは、入力された画像データの画像であって椎体を写す画像に写る椎体の中心を推定する処理、に用いられる。得られた学習済みの椎体中心推定モデルは、椎体中心推定装置7によって推定対象のセンチメントの推定に用いられる。学習済みの椎体中心推定モデルは椎体中心推定装置7が実行可能な状態になれば、どのような方法で椎体中心推定装置7の制御化に置かれてもよい。学習済みの椎体中心推定モデルは、例えば学習終了条件が満たされた後に通信によって椎体中心推定モデル学習装置6から椎体中心推定装置7に送信されることで、椎体中心推定装置7による実行が可能になる。
【0145】
椎体中心推定装置7は、椎体中心推定モデル学習装置6の得た学習済みの椎体中心推定モデルを用いて、推定対象の画像に写る椎体の中心を推定する。推定対象の画像は椎体の写る画像である。
【0146】
図19は、第3実施形態における椎体中心推定装置7のハードウェア構成の一例を示す図である。椎体中心推定装置7は、バスで接続されたCPUやGPU等のプロセッサ903とメモリ904とを備える制御部71を備え、プログラムを実行する。椎体中心推定装置7は、プログラムの実行によって制御部71、入力部72、通信部73、記憶部74及び出力部75を備える装置として機能する。
【0147】
より具体的には、プロセッサ903が記憶部74に記憶されているプログラムを読み出し、読み出したプログラムをメモリ904に記憶させる。プロセッサ903が、メモリ904に記憶させたプログラムを実行することによって、椎体中心推定装置7は、制御部71、入力部72、通信部73、記憶部74及び出力部75を備える装置として機能する。
【0148】
制御部71は、椎体中心推定装置7が備える各種機能部の動作を制御する。制御部71は、学習済みの椎体中心推定モデルを実行する。制御部71は、例えば出力部75の動作を制御し、出力部75に学習済みの椎体中心推定モデルの実行結果を出力させる。制御部71は、例えば学習済みの椎体中心推定モデルの実行により生じた各種情報を記憶部74に記録する。記憶部74が記憶する各種情報は、例えば学習済みの椎体中心推定モデルの実行結果を含む。
【0149】
入力部72は、マウスやキーボード、タッチパネル等の入力装置を含んで構成される。入力部72は、これらの入力装置を椎体中心推定装置7に接続するインタフェースとして構成されてもよい。入力部72は、椎体中心推定装置7に対する各種情報の入力を受け付ける。入力部72には、例えば推定対象の画像の画像データが入力される。
【0150】
通信部73は、椎体中心推定装置7を外部装置に接続するための通信インタフェースを含んで構成される。通信部73は、有線又は無線を介して外部装置と通信する。外部装置は、例えば推定対象の画像の画像データの送信元の装置である。通信部73は、推定対象の画像の画像データの送信元の装置との通信によって推定対象の画像の画像データを推定対象の画像の画像データの送信元の装置から受信してもよい。外部装置は、例えば椎体中心推定モデル学習装置6である。通信部73は、椎体中心推定モデル学習装置6との通信によって学習済みの椎体中心推定モデルを椎体中心推定モデル学習装置6から受信してもよい。
【0151】
記憶部74は、磁気ハードディスク装置や半導体記憶装置などのコンピュータ読み出し可能な記憶媒体装置を用いて構成される。記憶部74は椎体中心推定装置7に関する各種情報を記憶する。記憶部74は、例えば入力部72又は通信部73を介して入力された情報を記憶する。記憶部74は、例えば学習済みの椎体中心推定モデルを学習済みの椎体中心推定モデルの実行前に予め記憶する。記憶部74は、例えば学習済みの椎体中心推定モデルの実行により生じた各種情報を記憶する。
【0152】
出力部75は、各種情報を出力する。出力部75は、例えばCRTディスプレイや液晶ディスプレイ、有機ELディスプレイ等の表示装置を含んで構成される。出力部75は、これらの表示装置を椎体中心推定装置7に接続するインタフェースとして構成されてもよい。出力部75は、例えば入力部72又は通信部73に入力された情報を出力する。出力部75は、例えば学習済みの椎体中心推定モデルの実行結果を出力してもよい。
【0153】
図20は、第3実施形態における椎体中心推定装置7が備える制御部71の構成の一例を示す図である。制御部71は、対象データ取得実行部710、椎体中心推定部711、記憶制御部712及び出力制御部713を備える。
【0154】
対象データ取得実行部710は、学習済みの椎体中心推定モデルの実行対象の画像データであって椎体の写る2次元画像の画像データ(以下「推定対象画像データ」という。)を取得する。対象データ取得実行部710の取得した推定対象画像データが、推定対象の画像の画像データである。対象データ取得実行部710は、例えば入力部72又は通信部73を介して入力された画像データを推定対象画像データとして取得する。
【0155】
椎体中心推定部711は、対象データ取得実行部710の取得した画像データに対して学習済みの椎体中心推定モデルを実行する。椎体中心推定部711は、椎体中心推定モデルの実行により、実行対象の画像データの示す画像に写る椎体の中心を推定する。
【0156】
記憶制御部712は各種情報を記憶部74に記録する。出力制御部713は出力部75の動作を制御する。
【0157】
図21は、第3実施形態における椎体中心推定装置7が実行する処理の流れの一例を示すフローチャートである。対象データ取得実行部710が、推定対象画像データを取得する(ステップS601)。次に、椎体中心推定部711が、対象データ取得実行部710の取得した推定対象画像データに対して学習済みの椎体中心推定モデルを実行することで、推定対象画像データが示す画像に写る椎体の中心を推定する(ステップS602)。次に、出力制御部713が出力部75の動作を制御して、ステップS602で得られた推定の結果を、出力部75に出力させる(ステップS603)。出力の方法は、例えば表示である。
【0158】
図22は、第3実施形態におけるパラメータ推定装置8のハードウェア構成の一例を示す図である。パラメータ推定装置8は、バスで接続されたCPUやGPU等のプロセッサ905とメモリ906とを備える制御部81を備え、プログラムを実行する。パラメータ推定装置8は、プログラムの実行によって制御部81、入力部82、通信部83、記憶部84及び出力部85を備える装置として機能する。
【0159】
より具体的には、プロセッサ905が記憶部84に記憶されているプログラムを読み出し、読み出したプログラムをメモリ906に記憶させる。プロセッサ905が、メモリ906に記憶させたプログラムを実行することによって、パラメータ推定装置8は、制御部81、入力部82、通信部83、記憶部84及び出力部85を備える装置として機能する。
【0160】
制御部81は、パラメータ推定装置8が備える各種機能部の動作を制御する。制御部81は、椎体中心推定装置7の推定した中心に基づいて、脊椎状態パラメータの値を推定する。制御部81は、例えば出力部85の動作を制御し、出力部85に推定した脊椎状態パラメータの値を出力させる。
【0161】
入力部82は、マウスやキーボード、タッチパネル等の入力装置を含んで構成される。入力部82は、これらの入力装置をパラメータ推定装置8に接続するインタフェースとして構成されてもよい。入力部82は、パラメータ推定装置8に対する各種情報の入力を受け付ける。入力部82には、例えば脊椎状態パラメータの推定対象の画像の画像データと、その画像データの画像に写る椎体の中心を示す情報であって椎体中心推定装置7が推定した椎体の中心を示す情報とが入力される。
【0162】
通信部83は、パラメータ推定装置8を外部装置に接続するための通信インタフェースを含んで構成される。通信部83は、有線又は無線を介して外部装置と通信する。外部装置は、例えば脊椎状態パラメータの推定対象の画像の画像データの送信元の装置である。通信部83は、脊椎状態パラメータの推定対象の画像の画像データの送信元の装置との通信によって推定対象の画像の画像データを脊椎状態パラメータの推定対象の画像の画像データの送信元の装置から受信してもよい。外部装置は、例えば椎体中心推定装置7であってもよい。このような場合、通信部83は椎体中心推定装置7との通信によって椎体中心推定装置7の推定の結果を取得してもよい。
【0163】
記憶部84は、磁気ハードディスク装置や半導体記憶装置などのコンピュータ読み出し可能な記憶媒体装置を用いて構成される。記憶部84はパラメータ推定装置8に関する各種情報を記憶する。記憶部84は、例えば入力部82又は通信部83を介して入力された情報を記憶する。記憶部84は、例えば推定した脊椎状態パラメータの値を記憶する。
【0164】
出力部85は、各種情報を出力する。出力部85は、例えばCRTディスプレイや液晶ディスプレイ、有機ELディスプレイ等の表示装置を含んで構成される。出力部85は、これらの表示装置をパラメータ推定装置8に接続するインタフェースとして構成されてもよい。出力部85は、例えば入力部82又は通信部83に入力された情報を出力する。出力部85は、例えば制御部81による推定の結果を出力してもよい。
【0165】
図23は、第3実施形態におけるパラメータ推定装置8が実行する処理の流れの一例を示すフローチャートである。入力部82又は通信部83に、脊椎状態パラメータの推定対象の画像の画像データと、その画像データの画像に写る椎体の中心を示す情報であって椎体中心推定装置7が推定した椎体の中心を示す情報とが入力される(ステップS701)。次に、制御部81が、ステップS701で取得された画像データとステップS3701で取得された椎体の中心を示す情報とに基づいて脊椎状態パラメータの値を推定する(ステップS702)。次に、制御部81が出力部85の動作を制御して、ステップS702で得られた脊椎状態パラメータの値を、出力部85に出力させる(ステップS703)。出力の方法は、例えば表示である。
【0166】
このように構成された第3実施形態の椎体中心推定モデル学習装置6は、画像中の椎体の中心を推定する数理モデルを得る。椎体に係る身体の異常を治療する治療方針の決定に際しては画像から椎体の中心を読み取ることが行われるが、読み取りは難しい場合や医師等の椎体の中心を読み取る者の技量に依存する場合がある。しかし、椎体の中心が数理モデルによって推定されるのであれば、椎体の中心を読み取る者の技量に依存する精度のばらつきは抑制される。また、椎体の中心が数理モデルによって推定されるのであれば、椎体の中心を読み取る者による椎体の中心の読み取りに要する労力が軽減される。そのため、椎体中心推定モデル学習装置6は、椎体に係る身体の異常を治療する際の治療方針の決定に要する負担を軽減することができる。
【0167】
また、このように構成された第3実施形態の椎体中心推定装置7は、学習済みの椎体中心推定モデルを用いて、椎体の中心を推定する。そのため、椎体中心推定装置7は、椎体に係る身体の異常を治療する際の治療方針の決定に要する負担を軽減することができる。
【0168】
また、このように構成された第3実施形態の椎体中心推定システム100は、椎体中心推定装置7を備える。そのため、椎体中心推定システム100は、椎体に係る身体の異常を治療する際の治療方針の決定に要する負担を軽減することができる。
【0169】
(第3実施形態の変形例)
なお、訓練データが含む入力側データには、矢状面に加えてさらに冠状面の画像の画像データが含まれてもよい。したがって、学習実行部611では、椎体を写す画像であって冠状面の画像である冠状面画像の画像データにも基づいて椎体中心推定モデルの学習が行われてもよい。
【0170】
なお、椎体中心推定モデル学習装置6は、ネットワークを介して通信可能に接続された複数台の情報処理装置を用いて実装されてもよい。この場合、椎体中心推定モデル学習装置6が備える各機能部は、複数の情報処理装置に分散して実装されてもよい。
【0171】
なお、椎体中心推定装置7は、ネットワークを介して通信可能に接続された複数台の情報処理装置を用いて実装されてもよい。この場合、椎体中心推定装置7が備える各機能部は、複数の情報処理装置に分散して実装されてもよい。
【0172】
なお、パラメータ推定装置8は、ネットワークを介して通信可能に接続された複数台の情報処理装置を用いて実装されてもよい。この場合、パラメータ推定装置8が備える各機能部は、複数の情報処理装置に分散して実装されてもよい。
【0173】
なお、椎体中心推定モデル学習装置6及び椎体中心推定装置7は、必ずしも異なる装置として実装される必要は無い。椎体中心推定モデル学習装置6及び椎体中心推定装置7は、例えば両者の機能を併せ持つ1つの装置として実装されてもよい。
【0174】
なお、椎体中心推定装置7及びパラメータ推定装置8は、必ずしも異なる装置として実装される必要は無い。椎体中心推定装置7及びパラメータ推定装置8は、例えば両者の機能を併せ持つ1つの装置として実装されてもよい。
【0175】
(その他の変形例)
なお、椎体推定モデル学習装置1と、椎体推定装置2と、類似症例推定装置5と、椎体中心推定モデル学習装置6と、椎体中心推定装置7と、パラメータ推定装置8と、の各機能の全て又は一部は、ASIC(Application Specific Integrated Circuit)やPLD(Programmable Logic Device)やFPGA(Field Programmable Gate Array)等のハードウェアを用いて実現されてもよい。プログラムは、コンピュータ読み取り可能な記録媒体に記録されてもよい。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置である。プログラムは、電気通信回線を介して送信されてもよい。
【0176】
各実施形態は、組み合わされてもよい。
【0177】
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。
【符号の説明】
【0178】
1…椎体推定モデル学習装置、 11…制御部、 12…入力部、 13…通信部、 14…記憶部、 15…出力部、 111…訓練データ取得部、 112…学習部、 113…記憶制御部、 114…出力制御部、 121…椎体推定モデル実行部、 122…更新部、 2…椎体推定装置、 21、21a、21b…制御部、 22…入力部、 23…通信部、 24…記憶部、 25…出力部、 211…対象データ取得部、 212…椎体推定部、 213…記憶制御部、 214…出力制御部、 215…椎体判定部、 216…コブ角算出部、 5…類似症例推定装置、 51…制御部、 52…入力部、 53…通信部、 54…記憶部、 55…出力部、 511…解析対象取得部、 512…類似度推定部、 513…記憶制御部、 514…出力制御部、 100…椎体中心推定システム、 6…椎体中心推定モデル学習装置、 61…制御部、 62…入力部、 63…通信部、 64…記憶部、 65…出力部、 610…訓練データ取得実行部、 611…学習実行部、 612…記憶制御部、 613…出力制御部、 7…椎体中心推定装置、 71…制御部、 72…入力部、 73…通信部、 74…記憶部、 75…出力部、 710…対象データ取得実行部、 711…椎体中心推定部、 712…記憶制御部、 713…出力制御部、 8…パラメータ推定装置、 81…制御部、 82…入力部、 83…通信部、 84…記憶部、 85…出力部、 91…プロセッサ、 92…メモリ、 93…プロセッサ、 94…メモリ、 95…プロセッサ、 96…メモリ、 901…プロセッサ、 902…メモリ、 903…プロセッサ、 904…メモリ、 905…プロセッサ、 906…メモリ
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14
図15
図16
図17
図18
図19
図20
図21
図22
図23