IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 学校法人帝京大学の特許一覧

特開2023-153576血管区分判別システム、血管区分判別方法およびプログラム
<>
  • 特開-血管区分判別システム、血管区分判別方法およびプログラム 図1
  • 特開-血管区分判別システム、血管区分判別方法およびプログラム 図2
  • 特開-血管区分判別システム、血管区分判別方法およびプログラム 図3
  • 特開-血管区分判別システム、血管区分判別方法およびプログラム 図4
  • 特開-血管区分判別システム、血管区分判別方法およびプログラム 図5
  • 特開-血管区分判別システム、血管区分判別方法およびプログラム 図6
  • 特開-血管区分判別システム、血管区分判別方法およびプログラム 図7
  • 特開-血管区分判別システム、血管区分判別方法およびプログラム 図8
  • 特開-血管区分判別システム、血管区分判別方法およびプログラム 図9
  • 特開-血管区分判別システム、血管区分判別方法およびプログラム 図10
  • 特開-血管区分判別システム、血管区分判別方法およびプログラム 図11
  • 特開-血管区分判別システム、血管区分判別方法およびプログラム 図12
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2023153576
(43)【公開日】2023-10-18
(54)【発明の名称】血管区分判別システム、血管区分判別方法およびプログラム
(51)【国際特許分類】
   A61B 6/03 20060101AFI20231011BHJP
   A61B 5/055 20060101ALI20231011BHJP
   A61B 34/10 20160101ALI20231011BHJP
【FI】
A61B6/03 377
A61B6/03 360G
A61B6/03 360J
A61B5/055 390
A61B34/10
【審査請求】未請求
【請求項の数】14
【出願形態】OL
(21)【出願番号】P 2022062934
(22)【出願日】2022-04-05
(71)【出願人】
【識別番号】399086263
【氏名又は名称】学校法人帝京大学
(74)【代理人】
【識別番号】100165179
【弁理士】
【氏名又は名称】田▲崎▼ 聡
(74)【代理人】
【識別番号】100188558
【弁理士】
【氏名又は名称】飯田 雅人
(74)【代理人】
【識別番号】100175824
【弁理士】
【氏名又は名称】小林 淳一
(74)【代理人】
【識別番号】100152272
【弁理士】
【氏名又は名称】川越 雄一郎
(74)【代理人】
【識別番号】100181722
【弁理士】
【氏名又は名称】春田 洋孝
(72)【発明者】
【氏名】高田 剛志
【テーマコード(参考)】
4C093
4C096
【Fターム(参考)】
4C093AA22
4C093AA25
4C093AA26
4C093CA23
4C093DA02
4C093FD03
4C093FF16
4C093FF22
4C093FF42
4C096AA10
4C096AA18
4C096AB36
4C096AC05
4C096AD14
4C096DC19
4C096DC40
(57)【要約】
【課題】X線透視や超音波装置が使用できない状況下でも患者の大動脈のZone1、Zone2、Zone3を容易に識別できるようにする。
【解決手段】血管区分判別システムは、患者の腹部表面の3次元構造を認識し、患者の腹部表面の3次元構造から患者の腹部表面のデプス画像を生成し、深層学習モデルの学習に使用される学習用データセットを生成し、学習済み深層学習モデルを用いることにより患者の大動脈区分を判別する。学習用データセット生成部は、血管区分判別装置による大動脈区分の判別対象の患者とは異なる者の腹部CT画像などから学習用の腹部表面の3次元構造を生成し、学習用の腹部表面の3次元構造から学習用のデプス画像を生成し、腹部CT画像に基づいて、学習用のデプス画像中の各ピクセルと、大動脈Zone1、大動脈Zone2、大動脈Zone3およびそれら以外のいずれかとの対応関係を示す学習用データセットを生成する。
【選択図】図1
【特許請求の範囲】
【請求項1】
患者の腹部表面の3次元構造を認識する3次元構造認識装置と、
前記3次元構造認識装置によって認識された患者の腹部表面の3次元構造から患者の腹部表面のデプス画像を生成するデプス画像生成部と、
深層学習モデルを用いることにより、前記3次元構造認識装置によって腹部表面の3次元構造が認識された患者の大動脈区分を判別する血管区分判別装置と、
前記深層学習モデルの学習に使用される学習用データセットを生成する学習用データセット生成部とを備え、
前記深層学習モデルの学習が行われる前に、前記学習用データセット生成部は、
前記血管区分判別装置による大動脈区分の判別対象の患者とは異なる者の腹部CT(Computed Tomography)画像、腹部MRI(Magnetic Resonance Imaging)画像および腹部MRA(magnetic resonance angiography)画像のいずれかから学習用の腹部表面の3次元構造を生成し、
前記学習用の腹部表面の3次元構造から学習用のデプス画像を生成し、
前記腹部CT画像、前記腹部MRI画像および前記腹部MRA画像のいずれかに基づいて、前記学習用のデプス画像中の各ピクセルと、大動脈のZone1に対応する第1血管区分、大動脈のZone2に対応する第2血管区分、大動脈のZone3に対応する第3血管区分および他の区分のいずれかとの対応関係を示す学習用データセットを生成し、
前記学習用データセット生成部によって生成された前記学習用データセットを使用して前記深層学習モデルの学習が行われた後に、
前記3次元構造認識装置が、患者の腹部表面の3次元構造を認識し、
前記デプス画像生成部が、前記3次元構造認識装置によって認識された患者の腹部表面の3次元構造から患者の腹部表面のデプス画像を生成し、
前記血管区分判別装置が、学習済みの前記深層学習モデルを用いることにより、前記デプス画像生成部によって生成された患者の腹部表面のデプス画像中の各ピクセルが、前記第1血管区分、前記第2血管区分、前記第3血管区分および前記他の区分のいずれかに該当するかを推定する、
血管区分判別システム。
【請求項2】
前記血管区分判別装置による患者の大動脈区分の推定結果を患者の腹部表面に投影したバーチャル画像を生成する可視化装置を備える、
請求項1に記載の血管区分判別システム。
【請求項3】
前記血管区分判別装置は、
前記学習用データセット生成部によって生成された前記学習用データセットを使用して前記深層学習モデルの学習を行う学習部と、
学習済みの前記深層学習モデルを用いることにより、前記デプス画像生成部によって生成された患者の腹部表面のデプス画像中の各ピクセルが、前記第1血管区分、前記第2血管区分、前記第3血管区分および前記他の区分のいずれかに該当するかを推定する推定部とを備え、
前記学習部は、学習済みの前記深層学習モデルを用いた前記第2血管区分の推定精度が所定の閾値以上になるように、前記深層学習モデルの学習を行う、
請求項1に記載の血管区分判別システム。
【請求項4】
前記3次元構造認識装置は、患者の腹部CT画像、腹部MRI画像および腹部MRA画像のいずれかから患者の腹部表面の3次元構造を生成する機能を有する、
請求項1に記載の血管区分判別システム。
【請求項5】
前記血管区分判別装置は、患者の大動脈区分の推定結果として、
患者のランドマーク部から患者の前記第1血管区分までの長さ、患者のランドマーク部から患者の前記第2血管区分までの長さ、および、患者のランドマーク部から患者の前記第3血管区分までの長さを出力する、
請求項1に記載の血管区分判別システム。
【請求項6】
患者の腹部表面の3次元構造を認識する3次元構造認識装置と、
前記3次元構造認識装置によって認識された患者の腹部表面の3次元構造から患者の腹部表面のデプス画像を生成するデプス画像生成部と、
深層学習モデルを用いることにより、前記3次元構造認識装置によって腹部表面の3次元構造が認識された患者の大動脈区分を判別する血管区分判別装置と、
前記深層学習モデルの学習に使用される学習用データセットを生成する学習用データセット生成部とを備える血管区分判別システムの血管区分判別方法であって、
前記深層学習モデルの学習が行われる前に、前記学習用データセット生成部が、
前記血管区分判別装置による大動脈区分の判別対象の患者とは異なる者の腹部CT画像、腹部MRI画像および腹部MRA画像のいずれかから学習用の腹部表面の3次元構造を生成し、
前記学習用の腹部表面の3次元構造から学習用のデプス画像を生成し、
前記腹部CT画像、前記腹部MRI画像および前記腹部MRA画像のいずれかに基づいて、前記学習用のデプス画像中の各ピクセルと、大動脈のZone1に対応する第1血管区分、大動脈のZone2に対応する第2血管区分、大動脈のZone3に対応する第3血管区分および他の区分のいずれかとの対応関係を示す学習用データセットを生成する学習用データセット生成ステップと、
前記学習用データセット生成ステップにおいて生成された前記学習用データセットを使用して前記深層学習モデルの学習が行われた後に、前記3次元構造認識装置が、患者の腹部表面の3次元構造を認識する3次元構造認識ステップと、
前記デプス画像生成部が、前記3次元構造認識ステップにおいて認識された患者の腹部表面の3次元構造から患者の腹部表面のデプス画像を生成するデプス画像生成ステップと、
前記血管区分判別装置が、学習済みの前記深層学習モデルを用いることにより、前記デプス画像生成ステップにおいて生成された患者の腹部表面のデプス画像中の各ピクセルが、前記第1血管区分、前記第2血管区分、前記第3血管区分および前記他の区分のいずれかに該当するかを推定する血管区分判別ステップとを備える、
血管区分判別方法。
【請求項7】
患者の腹部表面の3次元構造を認識する3次元構造認識装置と、
前記3次元構造認識装置によって認識された患者の腹部表面の3次元構造から患者の腹部表面のデプス画像を生成するデプス画像生成部と、
深層学習モデルの学習に使用される学習用データセットを生成する学習用データセット生成部とを備える血管区分判別システムに備えられる血管区分判別装置を構成するコンピュータに、
前記学習用データセット生成部によって生成された前記学習用データセットを使用して深層学習モデルの学習を行う学習ステップと、
血管区分判別ステップとを実行させるためのプログラムであって、
前記学習用データセット生成部は、
前記血管区分判別装置による大動脈区分の判別対象の患者とは異なる者の腹部CT画像、腹部MRI画像および腹部MRA画像のいずれかから学習用の腹部表面の3次元構造を生成し、
前記学習用の腹部表面の3次元構造から学習用のデプス画像を生成し、
前記腹部CT画像、前記腹部MRI画像および前記腹部MRA画像のいずれかに基づいて、前記学習用のデプス画像中の各ピクセルと、大動脈のZone1に対応する第1血管区分、大動脈のZone2に対応する第2血管区分、大動脈のZone3に対応する第3血管区分および他の区分のいずれかとの対応関係を示す前記学習用データセットを生成し、
前記学習ステップの実行後に、前記3次元構造認識装置が、患者の腹部表面の3次元構造を認識し、前記デプス画像生成部が、前記3次元構造認識装置によって認識された患者の腹部表面の3次元構造から患者の腹部表面のデプス画像を生成し、
前記血管区分判別ステップでは、学習済みの前記深層学習モデルを用いることにより、前記デプス画像生成部によって生成された患者の腹部表面のデプス画像中の各ピクセルが、前記第1血管区分、前記第2血管区分、前記第3血管区分および前記他の区分のいずれかに該当するかが推定される、
プログラム。
【請求項8】
患者の腹部表面の3次元構造を認識する3次元構造認識装置と、
深層学習モデルを用いることにより、前記3次元構造認識装置によって腹部表面の3次元構造が認識された患者の大動脈区分を判別する血管区分判別装置と、
前記深層学習モデルの学習に使用される学習用データセットを生成する学習用データセット生成部とを備え、
前記深層学習モデルの学習が行われる前に、前記学習用データセット生成部は、
前記血管区分判別装置による大動脈区分の判別対象の患者とは異なる者の腹部CT画像、腹部MRI画像および腹部MRA画像のいずれかから学習用の腹部表面の3次元構造を生成し、
前記腹部CT画像、前記腹部MRI画像および前記腹部MRA画像のいずれかに基づいて、前記学習用の腹部表面の3次元構造上の各点と、大動脈のZone1に対応する第1血管区分、大動脈のZone2に対応する第2血管区分、大動脈のZone3に対応する第3血管区分および他の区分のいずれかとの対応関係を示す学習用データセットを生成し、
前記学習用データセット生成部によって生成された前記学習用データセットを使用して前記深層学習モデルの学習が行われた後に、
前記3次元構造認識装置が、患者の腹部表面の3次元構造を認識し、
前記血管区分判別装置が、学習済みの前記深層学習モデルを用いることにより、前記3次元構造認識装置によって認識された患者の腹部表面の3次元構造上の各点が、前記第1血管区分、前記第2血管区分、前記第3血管区分および前記他の区分のいずれかに該当するかを推定する、
血管区分判別システム。
【請求項9】
前記血管区分判別装置による患者の大動脈区分の推定結果を患者の腹部表面に投影したバーチャル画像を生成する可視化装置を備える、
請求項8に記載の血管区分判別システム。
【請求項10】
前記血管区分判別装置は、
前記学習用データセット生成部によって生成された前記学習用データセットを使用して前記深層学習モデルの学習を行う学習部と、
学習済みの前記深層学習モデルを用いることにより、前記3次元構造認識装置によって認識された患者の腹部表面の3次元構造上の各点が、前記第1血管区分、前記第2血管区分、前記第3血管区分および前記他の区分のいずれかに該当するかを推定する推定部とを備え、
前記学習部は、学習済みの前記深層学習モデルを用いた前記第2血管区分の推定精度が所定の閾値以上になるように、前記深層学習モデルの学習を行う、
請求項8に記載の血管区分判別システム。
【請求項11】
前記3次元構造認識装置は、患者の腹部CT画像、腹部MRI画像および腹部MRA画像のいずれかから患者の腹部表面の3次元構造を生成する機能を有する、
請求項8に記載の血管区分判別システム。
【請求項12】
前記血管区分判別装置は、患者の大動脈区分の推定結果として、
患者のランドマーク部から患者の前記第1血管区分までの長さ、患者のランドマーク部から患者の前記第2血管区分までの長さ、および、患者のランドマーク部から患者の前記第3血管区分までの長さを出力する、
請求項8に記載の血管区分判別システム。
【請求項13】
患者の腹部表面の3次元構造を認識する3次元構造認識装置と、
深層学習モデルを用いることにより、前記3次元構造認識装置によって腹部表面の3次元構造が認識された患者の大動脈区分を判別する血管区分判別装置と、
前記深層学習モデルの学習に使用される学習用データセットを生成する学習用データセット生成部とを備える血管区分判別システムの血管区分判別方法であって、
前記深層学習モデルの学習が行われる前に、前記学習用データセット生成部が、
前記血管区分判別装置による大動脈区分の判別対象の患者とは異なる者の腹部CT画像、腹部MRI画像および腹部MRA画像のいずれかから学習用の腹部表面の3次元構造を生成し、
前記腹部CT画像、前記腹部MRI画像および前記腹部MRA画像のいずれかに基づいて、前記学習用の腹部表面の3次元構造上の各点と、大動脈のZone1に対応する第1血管区分、大動脈のZone2に対応する第2血管区分、大動脈のZone3に対応する第3血管区分および他の区分のいずれかとの対応関係を示す学習用データセットを生成する学習用データセット生成ステップと、
前記学習用データセット生成ステップにおいて生成された前記学習用データセットを使用して前記深層学習モデルの学習が行われた後に、前記3次元構造認識装置が、患者の腹部表面の3次元構造を認識する3次元構造認識ステップと、
前記血管区分判別装置が、学習済みの前記深層学習モデルを用いることにより、前記3次元構造認識ステップにおいて認識された患者の腹部表面の3次元構造上の各点が、前記第1血管区分、前記第2血管区分、前記第3血管区分および前記他の区分のいずれかに該当するかを推定する血管区分判別ステップとを備える、
血管区分判別方法。
【請求項14】
患者の腹部表面の3次元構造を認識する3次元構造認識装置と、
深層学習モデルの学習に使用される学習用データセットを生成する学習用データセット生成部とを備える血管区分判別システムに備えられる血管区分判別装置を構成するコンピュータに、
前記学習用データセット生成部によって生成された前記学習用データセットを使用して深層学習モデルの学習を行う学習ステップと、
血管区分判別ステップとを実行させるためのプログラムであって、
前記学習用データセット生成部は、
前記血管区分判別装置による大動脈区分の判別対象の患者とは異なる者の腹部CT画像、腹部MRI画像および腹部MRA画像のいずれかから学習用の腹部表面の3次元構造を生成し、
前記腹部CT画像、前記腹部MRI画像および前記腹部MRA画像のいずれかに基づいて、前記学習用の腹部表面の3次元構造上の各点と、大動脈のZone1に対応する第1血管区分、大動脈のZone2に対応する第2血管区分、大動脈のZone3に対応する第3血管区分および他の区分のいずれかとの対応関係を示す前記学習用データセットを生成し、
前記学習ステップの実行後に、前記3次元構造認識装置が、患者の腹部表面の3次元構造を認識し、
前記血管区分判別ステップでは、学習済みの前記深層学習モデルを用いることにより、前記3次元構造認識装置によって認識された患者の腹部表面の3次元構造上の各点が、前記第1血管区分、前記第2血管区分、前記第3血管区分および前記他の区分のいずれかに該当するかが推定される、
プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、血管区分判別システム、血管区分判別方法およびプログラムに関する。
【背景技術】
【0002】
大動脈内バルーン遮断(REBOA:Resuscitative Endovascular Balloon Occlusion of the Aorta)とは、循環動態不安定な外傷性出血などに対してバルーンカテーテルを使って止血や出血量のコントロールを行う救命救急の手法である。REBOAでは、カテーテルを使用して大動脈内にバルーンが留置される。REBOAは、通常のカテーテル治療とは異なり、X線透視装置、超音波装置等が使用できない状況下においても行われる。近年においては、REBOAが、外傷性出血のみでなく非外傷性出血にも有効な手法としても注目を集めている。
REBOAでは、バルーンを留置する大動脈のZone1~Zone3(大動脈のZone1~Zone3は大動脈の分枝位置に応じて区分されたもの)を調整することで非出血部の灌流を選択的に温存することができる。大動脈のZone1~Zone3については、例えば非特許文献1に記載されている。
【0003】
X線透視装置、超音波装置等が使用可能であり、X線透視装置、超音波装置等によってカテーテルおよび大動脈のZone1~Zone3を透視可能な状況下においては、カテーテルの位置および大動脈のZone1~Zone3の位置を確認しながら、大動脈のZone1~Zone3に対するカテーテルの位置の調整が行われる。
例えば緊急時などのような、X線透視装置、超音波装置等が使用不可能であり、X線透視装置、超音波装置等によって大動脈のZone1~Zone3を透視不可能な状況下においても、REBOAが行われる場合がある。
そのような場合に、従来においては、術者は、患者の大動脈のZone1~Zone3を把握できない状態でREBOAを行う必要があった。
【先行技術文献】
【非特許文献】
【0004】
【非特許文献1】Markus Harboe Olsen他 “Standardized distances for placement of REBOA in patients with aortic stenosis” Scientific Reports volume 10 Article number: 13410 (2020)
【非特許文献2】Takeshi Takata, Susumu Nakabayashi, Hiroshi Kondo, Masayoshi Yamamoto, Shigeru Furui, Kenshiro Shiraishi, Takenori Kobayashi, Hiroshi Oba, Takahide Okamoto & Jun’ichi Kotoku “Mixed Reality Visualization of Radiation Dose for Health Professionals and Patients in Interventional Radiology” Journal of Medical Systems 45:38 (2021)
【非特許文献3】Emily Rae, Andras Lasso, Matthew S. Holden, Evelyn Morin, Ron Levy & Gabor Fichtinger “Neurosurgical burr hole placement using the Microsoft HoloLens” Medical Imaging 2018: Image-Guided Procedures, Robotic Interventions, and Modeling
【発明の概要】
【発明が解決しようとする課題】
【0005】
上述した点に鑑み、本発明は、X線透視や超音波装置が使用できない状況下においても患者の大動脈のZone1、Zone2、Zone3を容易に識別できるようにし、REBOAの実現を支援することができる血管区分判別システム、血管区分判別方法およびプログラムを提供することを目的とする。
【課題を解決するための手段】
【0006】
本発明の一態様は、患者の腹部表面の3次元構造を認識する3次元構造認識装置と、前記3次元構造認識装置によって認識された患者の腹部表面の3次元構造から患者の腹部表面のデプス画像を生成するデプス画像生成部と、深層学習モデルを用いることにより、前記3次元構造認識装置によって腹部表面の3次元構造が認識された患者の大動脈区分を判別する血管区分判別装置と、前記深層学習モデルの学習に使用される学習用データセットを生成する学習用データセット生成部とを備え、前記深層学習モデルの学習が行われる前に、前記学習用データセット生成部は、前記血管区分判別装置による大動脈区分の判別対象の患者とは異なる者の腹部CT(Computed Tomography)画像、腹部MRI(Magnetic Resonance Imaging)画像および腹部MRA(magnetic resonance angiography)画像のいずれかから学習用の腹部表面の3次元構造を生成し、前記学習用の腹部表面の3次元構造から学習用のデプス画像を生成し、前記腹部CT画像、前記腹部MRI画像および前記腹部MRA画像のいずれかに基づいて、前記学習用のデプス画像中の各ピクセルと、大動脈のZone1に対応する第1血管区分、大動脈のZone2に対応する第2血管区分、大動脈のZone3に対応する第3血管区分および他の区分のいずれかとの対応関係を示す学習用データセットを生成し、前記学習用データセット生成部によって生成された前記学習用データセットを使用して前記深層学習モデルの学習が行われた後に、前記3次元構造認識装置が、患者の腹部表面の3次元構造を認識し、前記デプス画像生成部が、前記3次元構造認識装置によって認識された患者の腹部表面の3次元構造から患者の腹部表面のデプス画像を生成し、前記血管区分判別装置が、学習済みの前記深層学習モデルを用いることにより、前記デプス画像生成部によって生成された患者の腹部表面のデプス画像中の各ピクセルが、前記第1血管区分、前記第2血管区分、前記第3血管区分および前記他の区分のいずれかに該当するかを推定する、血管区分判別システムである。
【0007】
本発明の一態様は、患者の腹部表面の3次元構造を認識する3次元構造認識装置と、前記3次元構造認識装置によって認識された患者の腹部表面の3次元構造から患者の腹部表面のデプス画像を生成するデプス画像生成部と、深層学習モデルを用いることにより、前記3次元構造認識装置によって腹部表面の3次元構造が認識された患者の大動脈区分を判別する血管区分判別装置と、前記深層学習モデルの学習に使用される学習用データセットを生成する学習用データセット生成部とを備える血管区分判別システムの血管区分判別方法であって、前記深層学習モデルの学習が行われる前に、前記学習用データセット生成部が、前記血管区分判別装置による大動脈区分の判別対象の患者とは異なる者の腹部CT画像、腹部MRI画像および腹部MRA画像のいずれかから学習用の腹部表面の3次元構造を生成し、前記学習用の腹部表面の3次元構造から学習用のデプス画像を生成し、前記腹部CT画像、前記腹部MRI画像および前記腹部MRA画像のいずれかに基づいて、前記学習用のデプス画像中の各ピクセルと、大動脈のZone1に対応する第1血管区分、大動脈のZone2に対応する第2血管区分、大動脈のZone3に対応する第3血管区分および他の区分のいずれかとの対応関係を示す学習用データセットを生成する学習用データセット生成ステップと、前記学習用データセット生成ステップにおいて生成された前記学習用データセットを使用して前記深層学習モデルの学習が行われた後に、前記3次元構造認識装置が、患者の腹部表面の3次元構造を認識する3次元構造認識ステップと、前記デプス画像生成部が、前記3次元構造認識ステップにおいて認識された患者の腹部表面の3次元構造から患者の腹部表面のデプス画像を生成するデプス画像生成ステップと、前記血管区分判別装置が、学習済みの前記深層学習モデルを用いることにより、前記デプス画像生成ステップにおいて生成された患者の腹部表面のデプス画像中の各ピクセルが、前記第1血管区分、前記第2血管区分、前記第3血管区分および前記他の区分のいずれかに該当するかを推定する血管区分判別ステップとを備える、血管区分判別方法である。
【0008】
本発明の一態様は、患者の腹部表面の3次元構造を認識する3次元構造認識装置と、前記3次元構造認識装置によって認識された患者の腹部表面の3次元構造から患者の腹部表面のデプス画像を生成するデプス画像生成部と、深層学習モデルの学習に使用される学習用データセットを生成する学習用データセット生成部とを備える血管区分判別システムに備えられる血管区分判別装置を構成するコンピュータに、前記学習用データセット生成部によって生成された前記学習用データセットを使用して深層学習モデルの学習を行う学習ステップと、血管区分判別ステップとを実行させるためのプログラムであって、前記学習用データセット生成部は、前記血管区分判別装置による大動脈区分の判別対象の患者とは異なる者の腹部CT画像、腹部MRI画像および腹部MRA画像のいずれかから学習用の腹部表面の3次元構造を生成し、前記学習用の腹部表面の3次元構造から学習用のデプス画像を生成し、前記腹部CT画像、前記腹部MRI画像および前記腹部MRA画像のいずれかに基づいて、前記学習用のデプス画像中の各ピクセルと、大動脈のZone1に対応する第1血管区分、大動脈のZone2に対応する第2血管区分、大動脈のZone3に対応する第3血管区分および他の区分のいずれかとの対応関係を示す前記学習用データセットを生成し、前記学習ステップの実行後に、前記3次元構造認識装置が、患者の腹部表面の3次元構造を認識し、前記デプス画像生成部が、前記3次元構造認識装置によって認識された患者の腹部表面の3次元構造から患者の腹部表面のデプス画像を生成し、前記血管区分判別ステップでは、学習済みの前記深層学習モデルを用いることにより、前記デプス画像生成部によって生成された患者の腹部表面のデプス画像中の各ピクセルが、前記第1血管区分、前記第2血管区分、前記第3血管区分および前記他の区分のいずれかに該当するかが推定される、プログラムである。
【0009】
本発明の一態様は、患者の腹部表面の3次元構造を認識する3次元構造認識装置と、深層学習モデルを用いることにより、前記3次元構造認識装置によって腹部表面の3次元構造が認識された患者の大動脈区分を判別する血管区分判別装置と、前記深層学習モデルの学習に使用される学習用データセットを生成する学習用データセット生成部とを備え、前記深層学習モデルの学習が行われる前に、前記学習用データセット生成部は、前記血管区分判別装置による大動脈区分の判別対象の患者とは異なる者の腹部CT画像、腹部MRI画像および腹部MRA画像のいずれかから学習用の腹部表面の3次元構造を生成し、前記腹部CT画像、前記腹部MRI画像および前記腹部MRA画像のいずれかに基づいて、前記学習用の腹部表面の3次元構造上の各点と、大動脈のZone1に対応する第1血管区分、大動脈のZone2に対応する第2血管区分、大動脈のZone3に対応する第3血管区分および他の区分のいずれかとの対応関係を示す学習用データセットを生成し、前記学習用データセット生成部によって生成された前記学習用データセットを使用して前記深層学習モデルの学習が行われた後に、前記3次元構造認識装置が、患者の腹部表面の3次元構造を認識し、前記血管区分判別装置が、学習済みの前記深層学習モデルを用いることにより、前記3次元構造認識装置によって認識された患者の腹部表面の3次元構造上の各点が、前記第1血管区分、前記第2血管区分、前記第3血管区分および前記他の区分のいずれかに該当するかを推定する、血管区分判別システムである。
【0010】
本発明の一態様は、患者の腹部表面の3次元構造を認識する3次元構造認識装置と、深層学習モデルを用いることにより、前記3次元構造認識装置によって腹部表面の3次元構造が認識された患者の大動脈区分を判別する血管区分判別装置と、前記深層学習モデルの学習に使用される学習用データセットを生成する学習用データセット生成部とを備える血管区分判別システムの血管区分判別方法であって、前記深層学習モデルの学習が行われる前に、前記学習用データセット生成部が、前記血管区分判別装置による大動脈区分の判別対象の患者とは異なる者の腹部CT画像、腹部MRI画像および腹部MRA画像のいずれかから学習用の腹部表面の3次元構造を生成し、前記腹部CT画像、前記腹部MRI画像および前記腹部MRA画像のいずれかに基づいて、前記学習用の腹部表面の3次元構造上の各点と、大動脈のZone1に対応する第1血管区分、大動脈のZone2に対応する第2血管区分、大動脈のZone3に対応する第3血管区分および他の区分のいずれかとの対応関係を示す学習用データセットを生成する学習用データセット生成ステップと、前記学習用データセット生成ステップにおいて生成された前記学習用データセットを使用して前記深層学習モデルの学習が行われた後に、前記3次元構造認識装置が、患者の腹部表面の3次元構造を認識する3次元構造認識ステップと、前記血管区分判別装置が、学習済みの前記深層学習モデルを用いることにより、前記3次元構造認識ステップにおいて認識された患者の腹部表面の3次元構造上の各点が、前記第1血管区分、前記第2血管区分、前記第3血管区分および前記他の区分のいずれかに該当するかを推定する血管区分判別ステップとを備える、血管区分判別方法である。
【0011】
本発明の一態様は、患者の腹部表面の3次元構造を認識する3次元構造認識装置と、深層学習モデルの学習に使用される学習用データセットを生成する学習用データセット生成部とを備える血管区分判別システムに備えられる血管区分判別装置を構成するコンピュータに、前記学習用データセット生成部によって生成された前記学習用データセットを使用して深層学習モデルの学習を行う学習ステップと、血管区分判別ステップとを実行させるためのプログラムであって、前記学習用データセット生成部は、前記血管区分判別装置による大動脈区分の判別対象の患者とは異なる者の腹部CT画像、腹部MRI画像および腹部MRA画像のいずれかから学習用の腹部表面の3次元構造を生成し、前記腹部CT画像、前記腹部MRI画像および前記腹部MRA画像のいずれかに基づいて、前記学習用の腹部表面の3次元構造上の各点と、大動脈のZone1に対応する第1血管区分、大動脈のZone2に対応する第2血管区分、大動脈のZone3に対応する第3血管区分および他の区分のいずれかとの対応関係を示す前記学習用データセットを生成し、前記学習ステップの実行後に、前記3次元構造認識装置が、患者の腹部表面の3次元構造を認識し、前記血管区分判別ステップでは、学習済みの前記深層学習モデルを用いることにより、前記3次元構造認識装置によって認識された患者の腹部表面の3次元構造上の各点が、前記第1血管区分、前記第2血管区分、前記第3血管区分および前記他の区分のいずれかに該当するかが推定される、プログラムである。
【発明の効果】
【0012】
本発明によれば、X線透視や超音波装置が使用できない状況下においても患者の大動脈のZone1、Zone2、Zone3を容易に識別できるようにし、REBOAの実現を支援することができる血管区分判別システム、血管区分判別方法およびプログラムを提供することができる。
【図面の簡単な説明】
【0013】
図1】第1実施形態の血管区分判別システム1の一例を示す図である。
図2】学習用データセット生成部13によって実行される処理の一例を説明するための図である。
図3】第1実施形態の血管区分判別システム1において実行される処理の一例を説明するためのフローチャートである。
図4】本発明者の研究における学習用データセットを使用したセマンティックセグメンテーションモデルの学習を概念的に示す図である。
図5】本発明者の研究における学習済みのセマンティックセグメンテーションモデルの検証(Test)を概念的に示す図である。
図6】本発明者の研究において学習済みのセマンティックセグメンテーションモデルを用いて推定したZone1、Zone2、Zone3の類似度(similarity)を、ダイス係数およびJaccard係数を用いて評価した結果を示す図である。
図7】本発明者の研究において学習済みのセマンティックセグメンテーションモデルを用いて推定されたZone1とZone2との境界線の位置誤差(Position Error)、Zone2とZone3との境界線の位置誤差などを示す図である。
図8】本発明者の研究において学習済みのセマンティックセグメンテーションモデルを用いて推定された大動脈区分の位置誤差が10mm未満になった4つの例を示す図である。
図9】本発明者の研究において学習済みのセマンティックセグメンテーションモデルを用いて推定された大動脈区分の位置誤差が20mmより大きくなった4つの例を示す図である。
図10】HoloLens2を使用してZoneの推定結果を患者の体表へリアルタイムに投影する技術を概念的に説明するための図である。
図11】第3実施形態の血管区分判別システム2の一例を示す図である。
図12】第3実施形態の血管区分判別システム2において実行される処理の一例を説明するためのフローチャートである。
【発明を実施するための形態】
【0014】
以下、図面を参照し、本発明の血管区分判別システム、血管区分判別方法およびプログラムの実施形態について説明する。
【0015】
[第1実施形態]
図1は第1実施形態の血管区分判別システム1の一例を示す図である。
図1に示す例では、第1実施形態の血管区分判別システム1が、例えば緊急時などのX線透視や超音波装置が使用できない状況下における術者による患者に対するREBOAの実現を支援する。血管区分判別システム1は、3次元構造認識装置11と、デプス画像生成部12と、学習用データセット生成部13と、血管区分判別装置14と、可視化装置15とを備えている。
3次元構造認識装置11は、患者の腹部表面の3次元構造を認識する。3次元構造認識装置11は、例えば下記のURLが示すwebサイトに記載された「LiDARスキャナ」と同様の技術を用いることによって、患者の腹部表面の3次元構造を認識し、患者の腹部表面の3次元データを生成する。
https://bablishe.com/about-lidar-scanner-of-ipad-pro-2020/
【0016】
3次元構造認識装置11としては、例えば下記のURLが示すwebサイトに記載された製品などを用いることができる。
https://www.apple.com/jp/ipad-pro/specs/
https://www.microsoft.com/ja-jp/hololens/hardware
【0017】
前者の製品は、例えば下記のURLが示すwebサイトに記載された手順で使用され、外界の3次元構造を認識する。
https://prono82.com/2020/09/28/apple%E7%A4%BElidar%E6%90%AD%E8%BC%89ipad-pro%E3%81%AB%E3%82%88%E3%82%8B3d%E7%82%B9%E7%BE%A4%E3%82%B9%E3%82%AD%E3%83%A3%E3%83%B3%E3%82%A2%E3%83%97%E3%83%AA%E3%81%AE%E3%83%AA%E3%83%AA%E3%83%BC%E3%82%B9/
【0018】
また、後者の製品は、例えば下記のURLが示すwebサイトに記載された手順で使用され、外界の3次元構造を認識する。
https://docs.microsoft.com/ja-jp/windows/mixed-reality/design/spatial-mapping
https://zenn.dev/hiromu/articles/20210421-scene-understanding
【0019】
デプス画像生成部12は、3次元構造認識装置11によって認識された患者の腹部表面の3次元構造から患者の腹部表面のデプス画像を生成する。デプス画像とは、例えば下記のURLが示すwebサイトに記載されているように、距離に応じて色付けを行った画像である。つまり、デプス画像生成部12は、3次元構造認識装置11からの距離に応じて患者の腹部表面に色付けを行った患者の腹部表面の2次元画像を生成する。デプス画像生成部12は、例えば下記のURLが示すwebサイトに記載された技術を用いることによって患者の腹部表面のデプス画像を生成する。
https://www.cit.nihon-u.ac.jp/laboratorydata/kenkyu/kouennkai/reference/No.47/pdf/2-53.pdf
【0020】
学習用データセット生成部13は、学習用データセットを生成する。
血管区分判別装置14は、深層学習モデル14Aを用いることにより、3次元構造認識装置11によって腹部表面の3次元構造が認識された患者の大動脈区分を判別する。
【0021】
図2は学習用データセット生成部13によって実行される処理の一例を説明するための図である。
図2に示す例では、学習用データセット生成部13が、血管区分判別装置14による大動脈区分の判別対象の患者とは異なる者の腹部CT(Computed Tomography)画像(図2の左側に示す画像)から学習用の腹部表面の3次元構造(図2の中央上側に示す構造)を生成する。つまり、学習用データセット生成部13が、図2に「Render」で示す処理を実行する。この処理において生成される学習用の腹部表面の3次元構造は、仮に3次元構造認識装置11がその者(つまり、腹部CT画像の対象者)の腹部表面の3次元構造を認識した場合に得られる認識結果(3次元構造)と同様になる。
また、学習用データセット生成部13は、図2に「Render」で示す処理によって生成された学習用の腹部表面の3次元構造から、学習用のデプス画像(図2の右上側に示す画像)を生成する。つまり、学習用データセット生成部13が、図2に「Project」で示す処理を実行する。
【0022】
更に、学習用データセット生成部13は、腹部CT画像(図2の左側に示す画像)に基づいて、学習用のデプス画像(図2の右上側に示す画像)中の各ピクセルと、大動脈のZone1に対応する第1血管区、大動脈のZone2に対応する第2血管区分、大動脈のZone3に対応する第3血管区分および他の区分(図2に「Out of Zones」で示す区分)のいずれかとの対応関係を示す情報(図2の中央下側に示す情報)を生成する。つまり、学習用データセット生成部13が、図2に「Label」で示す処理を実行する。
また、学習用データセット生成部13は、図2に「Project」で示す処理によって生成された学習用のデプス画像(図2の右上側に示す画像)と、図2に「Label」で示す処理によって生成された情報(図2の中央下側に示す情報)との組である学習用データセットを、深層学習モデル14Aの学習に使用される教師データとして生成する。
図2に示す例では、学習用データセットを生成するために血管区分判別装置14による大動脈区分の判別対象の患者とは異なる者の腹部CT画像が用いられるが、他の例では、学習用データセットを生成するために血管区分判別装置14による大動脈区分の判別対象の患者とは異なる者の腹部MRI(Magnetic Resonance Imaging)画像を用いてもよく、更に他の例では、学習用データセットを生成するために血管区分判別装置14による大動脈区分の判別対象の患者とは異なる者の腹部MRA(magnetic resonance angiography)画像を用いてもよい。
【0023】
図1に示す例では、血管区分判別装置14が、学習部141と、推定部142とを備えている。学習部141は、学習用データセット生成部13によって生成された学習用データセット(例えば図2の右上側に示す画像および図2の中央下側に示す情報)を使用して深層学習モデル14Aの学習を行う。
詳細には、REBOAが行われる場合に大動脈のZone2に対応する第2血管区分の推定精度が低いと臓器虚血リスクが高くなる点に鑑み、学習部141は、学習済みの深層学習モデル14Aを用いた大動脈のZone2に対応する第2血管区分の推定精度が所定の閾値以上になるように、深層学習モデル14Aの学習を行う。
第1実施形態の血管区分判別システム1では、深層学習モデル14Aとして、セグメンテーションモデルが用いられる。
詳細には、第1実施形態の血管区分判別システム1の第1例では、深層学習モデル14Aとして、例えば下記のURLが示すwebサイト等に記載されているセマンティックセグメンテーションのモデルが用いられる。
https://jp.mathworks.com/content/dam/mathworks/mathworks-dot-com/company/events/webinar-cta/2459280_Basics_of_semantic_segmentation.pdf
https://qiita.com/fujiya228/items/ea30dac6ef827d608a56
【0024】
第1実施形態の血管区分判別システム1の第2例では、深層学習モデル14Aとして、例えば下記のURLが示すwebサイトに記載されているインスタンスセグメンテーション、パノプティックセグメンテーション等のようなセマンティックセグメンテーション以外のセグメンテーションのモデルが用いられてもよい。
https://www.skillupai.com/blog/tech/segmentation1/
【0025】
図1に示す例では、推定部142が、学習済みの深層学習モデル14Aを用いることにより、デプス画像生成部12によって生成された患者の腹部表面のデプス画像中の各ピクセルが、大動脈のZone1に対応する第1血管区分、大動脈のZone2に対応する第2血管区分、大動脈のZone3に対応する第3血管区分および他の区分(つまり、第1血管区分、第2血管区分および第3血管区分のいずれにも該当しない区分)のいずれかに該当するかを推定する。
つまり、図1に示す例では、学習用データセット生成部13によって生成された学習用データセットを使用して深層学習モデル14Aの学習が行われた後に、3次元構造認識装置11が、患者の腹部表面の3次元構造を認識する。また、デプス画像生成部12が、3次元構造認識装置11によって認識された患者の腹部表面の3次元構造から患者の腹部表面のデプス画像を生成する。更に、血管区分判別装置14の推定部142が、学習済みの深層学習モデル14Aを用いることにより、デプス画像生成部12によって生成された患者の腹部表面のデプス画像中の各ピクセルが、大動脈のZone1に対応する第1血管区分、大動脈のZone2に対応する第2血管区分、大動脈のZone3に対応する第3血管区分および他の区分(図2に「Out of Zones」で示す区分)のいずれかに該当するかを推定する。
【0026】
可視化装置15は、血管区分判別装置14による患者の大動脈区分の推定結果を患者の腹部表面に投影したバーチャル画像を生成する。可視化装置15は、バーチャル画像生成部15Aと、バーチャル画像提示部15Bとを備えている。
バーチャル画像生成部15Aは、患者の第1血管区分(Zone1)と第2血管区分(Zone2)と第3血管区分(Zone3)とを患者の腹部表面に投影したバーチャル画像を生成する。バーチャル画像提示部15Bは、バーチャル画像生成部15Aによって生成されたバーチャル画像を血管区分判別システム1の利用者(例えば術者など)に提示する。
【0027】
第1実施形態の血管区分判別システム1の第1例では、可視化装置15が、例えば非特許文献2、非特許文献3、下記のURLが示すwebサイトに記載された技術などを用いることによって、患者の第1血管区分(Zone1)と第2血管区分(Zone2)と第3血管区分(Zone3)とを患者の腹部表面に投影する。
https://prtimes.jp/main/html/rd/p/000000073.000004318.html
第1実施形態の血管区分判別システム1の第1例の投影手法は、例えば、基準となる外部マーカーを用いる手法、手動で位置合わせを行うことによって人体に情報を重ね合わせる手法などである。
【0028】
第1実施形態の血管区分判別システム1の第2例では、可視化装置15として、例えば下記のURLが示すwebサイトに記載された製品が用いられる。
https://www.apple.com/jp/ipad-pro/specs/
第1実施形態の血管区分判別システム1の第2例では、可視化装置15が、例えば下記のURLが示すwebサイトに記載されている技術と同様の技術を用いることによって、現実の3次元オブジェクト(つまり、患者の腹部表面)を直接マーカーにする、すなわち、外部から手を加えることなく、患者の第1血管区分(Zone1)と第2血管区分(Zone2)と第3血管区分(Zone3)とを患者の腹部表面に直接投影する。
https://library.vuforia.com/features/objects/object-reco.html
https://www.youtube.com/watch?v=jbaUDMvv2Zw
【0029】
第1実施形態の血管区分判別システム1の第3例では、可視化装置15として、例えば下記のURLが示すwebサイトに記載された製品が用いられる。
https://www.microsoft.com/ja-jp/hololens/hardware
第1実施形態の血管区分判別システム1の第3例では、可視化装置15が、例えば下記のURLが示すwebサイトに記載されている技術と同様の技術を用いることによって、現実の3次元オブジェクト(つまり、患者の腹部表面)を直接マーカーにする、すなわち、外部から手を加えることなく、患者の第1血管区分(Zone1)と第2血管区分(Zone2)と第3血管区分(Zone3)とを患者の腹部表面に直接投影する。
https://docs.microsoft.com/ja-jp/azure/object-anchors/overview
https://car.watch.impress.co.jp/docs/news/1278295.html
https://library.vuforia.com/features/objects/object-reco.html
https://www.youtube.com/watch?v=jbaUDMvv2Zw
【0030】
第1実施形態の血管区分判別システム1の第3例では、可視化装置15が、例えば下記のURLが示すwebサイトに記載されている技術と同様の技術を用いることによって、患者の第1血管区分(Zone1)と第2血管区分(Zone2)と第3血管区分(Zone3)とを患者の腹部表面に投影したバーチャル画像を生成し、そのバーチャル画像を血管区分判別システム1の利用者(例えば術者など)に提示する。
https://www.ogis-ri.co.jp/otc/hiroba/technical/point-DX/part6.html
https://www.tattichan.work/entry/2019/12/06/Reprojection%E3%81%AB%E3%81%A4%E3%81%84%E3%81%A6%E6%95%B4%E7%90%86%E3%81%99%E3%82%8B
https://www.businessinsider.jp/post-185961
https://hanada-sekkei.co.jp/armrvr
https://www.youtube.com/watch?v=QZiQ71EDF-o
【0031】
図3は第1実施形態の血管区分判別システム1において実行される処理の一例を説明するためのフローチャートである。
図3に示す例では、ステップS11において、学習用データセット生成部13が、深層学習モデル14Aの学習に使用される学習用データセットを生成する。
詳細には、ステップS11Aにおいて、学習用データセット生成部13が、血管区分判別装置14による大動脈区分の判別対象の患者とは異なる者の腹部CT画像、腹部MRI画像および腹部MRA画像のいずれかから学習用の腹部表面の3次元構造を生成する。
次いで、ステップS11Bでは、学習用データセット生成部13が、ステップS11Aにおいて生成された学習用の腹部表面の3次元構造から、学習用のデプス画像を生成する。
次いで、ステップS11Cでは、学習用データセット生成部13が、腹部CT画像、腹部MRI画像および腹部MRA画像のいずれかに基づいて、学習用のデプス画像中の各ピクセルと、大動脈のZone1に対応する第1血管区分、大動脈のZone2に対応する第2血管区分、大動脈のZone3に対応する第3血管区分および他の区分(つまり、第1血管区分、第2血管区分および第3血管区分のいずれにも該当しない区分)のいずれかとの対応関係を示す学習用データセットを生成する。
【0032】
次いで、ステップS12では、血管区分判別装置14の学習部141が、ステップS11において生成された学習用データセットを使用して深層学習モデル14Aの学習を行う。
次いで、ステップS13では、3次元構造認識装置11が、血管区分判別装置14による大動脈区分の判別対象の患者の腹部表面の3次元構造を認識する。
次いで、ステップS14では、デプス画像生成部12が、ステップS13において認識された患者の腹部表面の3次元構造から患者の腹部表面のデプス画像を生成する。
次いで、ステップS15では、血管区分判別装置14が、ステップS12において学習が行われた学習済みの深層学習モデル14Aを用いることにより、ステップS13において腹部表面の3次元構造が認識された患者の大動脈区分を判別する。
詳細には、ステップS15では、血管区分判別装置14の推定部142が、学習済みの深層学習モデル14Aを用いることにより、ステップS14において生成された患者の腹部表面のデプス画像中の各ピクセルが、大動脈のZone1に対応する第1血管区分、大動脈のZone2に対応する第2血管区分、大動脈のZone3に対応する第3血管区分および他の区分(つまり、第1血管区分、第2血管区分および第3血管区分のいずれにも該当しない区分)のいずれかに該当するかを推定する。
次いで、ステップS16では、可視化装置15のバーチャル画像生成部15Aが、患者の第1血管区分(Zone1)と第2血管区分(Zone2)と第3血管区分(Zone3)とを患者の腹部表面に投影したバーチャル画像を生成する。また、可視化装置15のバーチャル画像提示部15Bは、バーチャル画像生成部15Aによって生成されたバーチャル画像を血管区分判別システム1の利用者(例えば術者など)に提示する。
【0033】
そのため、第1実施形態の血管区分判別システム1によれば、血管区分判別システム1の利用者(例えば術者など)は、X線透視や超音波装置が使用できない状況下においても患者の大動脈のZone1、Zone2、Zone3を容易に識別することができる。その結果、X線透視や超音波装置が使用できない状況下におけるREBOAの実現可能性を向上させることができる。
【0034】
上述したように、図1に示す例では、3次元構造認識装置11が、LiDARスキャナと同様の技術を用いることによって、血管区分判別装置14による大動脈区分の判別対象の患者の腹部表面の3次元構造を認識し、患者の腹部表面の3次元データを生成する。
他の例では、3次元構造認識装置11が、図2に示す例のように、血管区分判別装置14による大動脈区分の判別対象の患者の腹部CT画像、腹部MRI画像および腹部MRA画像のいずれかから患者の腹部表面の3次元構造を生成する機能を有していてもよい。
【0035】
上述したように、図1に示す例では、血管区分判別装置14が、患者の大動脈区分の推定結果として、第1血管区分(Zone1)、第2血管区分(Zone2)および第3血管区分(Zone3)を患者の腹部表面に投影したバーチャル画像を生成するために可視化装置15によって用いられる情報を出力する。
他の例では、血管区分判別装置14が、患者の大動脈区分の推定結果として、患者のランドマーク部(つまり、穿刺に適した部位(すなわち、カテーテル挿入部位))から患者の第1血管区分(Zone1)までの長さ、患者のランドマーク部から患者の第2血管区分(Zone2)までの長さ、および、患者のランドマーク部から患者の第3血管区分(Zone3)までの長さを例えば数値などで出力してもよい。
【0036】
更に、他の例では、可視化装置15として、例えば下記のURLが示すwebサイトに記載された製品が用いられる。
https://www.apple.com/jp/ipad-pro/specs/
更に、この例では、その製品の下記のURLが示すwebサイトに記載された技術を用いることによって、患者のランドマーク部(カテーテル挿入部位)から患者の第1血管区分(Zone1)までの長さ、患者のランドマーク部から患者の第2血管区分(Zone2)までの長さ、および、患者のランドマーク部から患者の第3血管区分(Zone3)までの長さが計測される。
https://support.apple.com/ja-jp/guide/ipad/ipad8ac2cfea/ipados
具体的には、この例では、血管区分判別システム1の利用者(例えば術者など)が、血管区分判別システム1の利用者に提示されたバーチャル画像上で、患者のランドマーク部(カテーテル挿入部位)に相当するポイントと、患者の例えば第1血管区分(Zone1)に相当するポイントとを指定することによって、それらの2つのポイント間の長さが計測され、血管区分判別システム1の利用者に提示される。そのため、血管区分判別システム1の利用者は、提示された結果を用いることによって、患者に挿入されるカテーテル長を決定することができる。
【0037】
また、他の例では、可視化装置15として、例えば下記のURLが示すwebサイトに記載された製品が用いられる。
https://www.microsoft.com/ja-jp/hololens/hardware
更に、この例では、その製品の下記のURLが示すwebサイトに記載された技術を用いることによって、患者のランドマーク部(カテーテル挿入部位)から患者の第1血管区分(Zone1)までの長さ、患者のランドマーク部から患者の第2血管区分(Zone2)までの長さ、および、患者のランドマーク部から患者の第3血管区分(Zone3)までの長さが計測される。
https://www.windowscentral.com/hololens-gets-virtual-tape-measure
この例においても、血管区分判別システム1の利用者(例えば術者など)が、血管区分判別システム1の利用者に提示されたバーチャル画像上で、患者のランドマーク部(カテーテル挿入部位)に相当するポイントと、患者の例えば第1血管区分(Zone1)に相当するポイントとを指定することによって、それらの2つのポイント間の長さが計測され、血管区分判別システム1の利用者に提示される。そのため、血管区分判別システム1の利用者は、提示された結果を用いることによって、患者に挿入されるカテーテル長を決定することができる。
【0038】
上述した2つの例では、患者に挿入されるバルーンカテーテルとして、例えば下記のURLが示すwebサイトに記載されているようなレングスマーク(length marks)が施されているバルーンカテーテルが用いられる。
https://prytimemedical.com/product/er-reboa-plus-catheter/
【0039】
更に他の例では、学習用データセット生成部13が、腹部CT画像(図2の左側に示す画像)、腹部MRI画像および腹部MRA画像のいずれかに基づいて、バルーンカテーテルが挿入される血管の走行状態(蛇行状態)を学習するための学習用データセットを生成してもよい。
この例では、血管区分判別装置14の学習部141が、その学習用データセットを使用して深層学習モデル14Aの学習を行う。血管区分判別装置14の推定部142は、学習済みの深層学習モデル14Aを用いることにより、バルーンカテーテルが挿入される患者の血管の走行状態(蛇行状態)を推定する。更に、血管区分判別システム1の利用者(例えば術者など)が、血管区分判別システム1の利用者に提示されたバーチャル画像上で、患者のランドマーク部(カテーテル挿入部位)に相当するポイントと、患者の例えば第1血管区分(Zone1)に相当するポイントとを指定する場合には、それらの2つのポイント間の直線距離と、血管区分判別装置14の推定部142の推定結果とに基づいて、それらの2つのポイント間の血管に沿った長さが推定されて出力される。
この例の変形例では、学習用データセット生成部13が、腹部CT画像(図2の左側に示す画像)、腹部MRI画像および腹部MRA画像のいずれかに基づいて、患者のランドマーク部(カテーテル挿入部位)に相当するポイントと、患者の例えば第1血管区分(Zone1)に相当するポイントとの間の血管に沿った長さを学習するための学習用データセットを生成してもよい。
【0040】
更に他の例では、可視化装置15が、患者の血管内に挿入されたバルーンカテーテルのバルーンが患者の第1血管区分(Zone1)、第2血管区分(Zone2)および第3血管区分(Zone3)のいずれかに留置された状態(すなわち、バルーンが拡張した状態)のバーチャル画像を生成し、血管区分判別システム1の利用者(例えば術者など)に提示してもよい。この例では、バルーンが患者の第1血管区分(Zone1)、第2血管区分(Zone2)および第3血管区分(Zone3)のいずれかに実際に留置された状態を、血管区分判別システム1の利用者が容易に想像することができる。
【0041】
<実施例>
本発明者は、第1実施形態の血管区分判別システム1を検証する研究において、患者体表から大動脈区分を瞬時に判別する深層学習モデル14Aの開発を行った。具体的には、本発明者は、高度な深層学習の基盤に基づいたセグメンテーション技術と、3次元構造認識装置11に相当するカメラから照射される赤外光の反射から得られる患者の深度情報を融合して患者体表の3次元情報から大動脈区分の推定を行った。
【0042】
本発明者の専門は診療放射線技術や機械学習、複合現実であり、これまでは目に見えない放射線被ばくを複合現実により可視化する研究などを行ってきた。複合現実の医療応用は進んでおり、臓器の三次元可視化や遠隔医療で活躍を始めている。本発明者は、他の未知な情報も直感的なかたちで可視化することで医療の支援に繋がると考え、X線透視装置が物理的に使用不可能な状況下でも行われる救命医療のREBOAに注目した。可視化するZone区分を深層学習の技術を用いて高精度に推定することで、従来とは一線を画する精度と没入感での可視化を可能とし、救命医療の質が大幅に向上すると考えて本研究を立案した。
【0043】
本発明者は、深層学習によるセグメンテーションの技術を用いてZone推定を可能とするモデルを構築し、高精度な推定を可能とする学習済みモデルを確立するために、以下を行った。
学習用データセットは、深層学習を行う上で極めて重要な役割を担っており、この完成度によって研究全体の成果が左右される。したがって、本発明者は、まず、学習用データセットの準備に注力した。学習には腹部CT画像から作成する体表面3次元画像を用いた。本発明者は、CT画像として、帝京大学附属病院が保有するデータを主に使用した。更に、本発明者は、学習データの偏りを避けるためにオープンアクセスのCT画像データベースも活用した。診療放射線技師でもある本発明者が学習データのセグメンテーションを行い、学習ラベルとして用いた。さらに、本発明者は、体表画像のみでは予測精度が不十分だった場合に備え、年齢や体重の情報も収集し、必要に応じて学習に加えた。
【0044】
本発明者は、学習用データセットを使用してセマンティックセグメンテーションモデルの学習を行った。本発明者は、学習に際してハイパーパラメータの探索やネットワーク構造の修正を適宜行って最適な学習モデルを構築した。本発明者は、学習したモデルについて、再現性や適合率、ダイス係数などを用いて総合的に評価した。中でも特に、臓器虚血リスクの高いZone2の再現性に注目し、高リスクの領域を高精度で判別できるモデルを生み出すことを目指した。
【0045】
図4は本発明者の研究における学習用データセットを使用したセマンティックセグメンテーションモデルの学習を概念的に示す図である。図5は本発明者の研究における学習済みのセマンティックセグメンテーションモデルの検証(Test)を概念的に示す図である。図6は本発明者の研究において学習済みのセマンティックセグメンテーションモデルを用いて推定したZone1、Zone2、Zone3の類似度(similarity)を、ダイス係数およびJaccard係数を用いて評価した結果を示す図である。図7は本発明者の研究において学習済みのセマンティックセグメンテーションモデルを用いて推定されたZone1とZone2との境界線の位置誤差(Position Error)、Zone2とZone3との境界線の位置誤差などを示す図である。図8は本発明者の研究において学習済みのセマンティックセグメンテーションモデルを用いて推定された大動脈区分の位置誤差が10mm未満になった4つの例を示す図である。図9は本発明者の研究において学習済みのセマンティックセグメンテーションモデルを用いて推定された大動脈区分の位置誤差が20mmより大きくなった4つの例を示す図である。
【0046】
更に、本発明者は、現実とバーチャルをシームレスに融合する複合現実を用いて、学習済みモデルを用いて推定されたZoneを直感的に可視化できるアプリケーションを開発するために、以下を行った。
本発明者は、研究において、タブレット型端末であるiPad Pro(「iPad」は登録商標)(Apple社製)上で動作し、学習済みモデルからZoneを推定して可視化するアプリケーションを開発した。iPad Proは赤外線カメラを備えており、現実空間の三次計測が可能である。この赤外線カメラで撮影される患者体表の三次元情報を学習済みモデルへ入力し、Zoneの推定結果を通常のカメラで撮影される体表へリアルタイムに投影する。これにより、血管区分判別システム1の利用者(例えば術者)が、iPad Proを人体にかざすだけでZone区分が可視化される。この研究では、iPad Proが、3次元構造認識装置11としての機能と、可視化装置15としての機能とを有する。
【0047】
また、本発明者は、研究において、ヘッドセット型端末であるHoloLens2(「HOLOLENS」は国際登録商標)(Microsoft社製)上で動作し、学習済みモデルからZoneを推定して可視化するアプリケーションを開発した。HoloLens2もiPad Proと同様、赤外線カメラを備えており、現実空間の三次的計測が可能である。体表の三次元情報を学習済みモデルへの入力とし、Zoneの推定結果をシースルーのHoloLens2を通して見える体表へリアルタイムに投影する。これにより、血管区分判別システム1の利用者(例えば術者)が、HoloLens2をつけて患者を覗き込むだけでZone区分が可視化される。この研究では、HoloLens2が、3次元構造認識装置11としての機能と、可視化装置15としての機能とを有する。
HoloLens2は、iPad Proとはオペレーションシステムやハードウェア構成が異なるためアプリケーションの表層部分の変更は必須だが、システムの根幹をなすZone区分推定に関する部分は共用できる(つまり、可視化装置15として、iPad Proを用いることも、HoloLens2を用いることも可能である)。
【0048】
図10はHoloLens2を使用してZoneの推定結果を患者の体表へリアルタイムに投影する技術を概念的に説明するための図である。
【0049】
本発明者は、上述した研究の結果、患者の体表面の3次元画像からZone区分を十分に高精度に推定可能であることを見い出した。具体的には、本発明者が、使用予定のCT画像の極一部からデータセットを構築し、深層学習によるセグメンテーションのテストを行った結果、Zone1の再現性が最大で0.99になり、Zone2の再現性が最大で0.95になり、Zone3の再現性が最大で0.98になった。
本発明者は、複合現実を用いた可視化について、これまでの研究で培った知識や経験から実装方法の検討を進めており、Zoneを患者体表に投影する技術を実現する(つまり、実機において血管区分判別システム1として動作させる)目処が立っている。
【0050】
[第2実施形態]
以下、本発明の血管区分判別システム、血管区分判別方法およびプログラムの第2実施形態について説明する。
第2実施形態の血管区分判別システム1は、後述する点を除き、上述した第1実施形態の血管区分判別システム1と同様に構成されている。従って、第2実施形態の血管区分判別システム1によれば、後述する点を除き、上述した第1実施形態の血管区分判別システム1と同様の効果を奏することができる。
【0051】
上述したように、第1実施形態の血管区分判別システム1では、深層学習モデル14Aとして、セグメンテーションモデルが用いられる。
一方、第2実施形態の血管区分判別システム1では、深層学習モデル14Aとして、例えば下記のURLが示すwebサイトに記載されているGAN(Generative Adversarial Network)等の疑似画像生成技術が用いられる。
https://ledge.ai/gan/
https://www.nedo.go.jp/news/press/AA5_101472.html
【0052】
[第3実施形態]
以下、本発明の血管区分判別システム、血管区分判別方法およびプログラムの第3実施形態について説明する。
第3実施形態の血管区分判別システム2は、後述する点を除き、上述した第1実施形態の血管区分判別システム1と同様に構成されている。従って、第3実施形態の血管区分判別システム2によれば、後述する点を除き、上述した第1実施形態の血管区分判別システム1と同様の効果を奏することができる。
【0053】
図11は第3実施形態の血管区分判別システム2の一例を示す図である。
図11に示す例では、第3実施形態の血管区分判別システム2が、第1実施形態の血管区分判別システム1と同様に、例えば緊急時などのX線透視や超音波装置が使用できない状況下における術者による患者に対するREBOAの実現を支援する。血管区分判別システム2は、3次元構造認識装置21と、学習用データセット生成部23と、血管区分判別装置24と、可視化装置25とを備えている。
3次元構造認識装置21は、図1に示す3次元構造認識装置11と同様に、患者の腹部表面の3次元構造を認識する。
【0054】
学習用データセット生成部23は、学習用データセットを生成する。
血管区分判別装置24は、深層学習モデル24Aを用いることにより、3次元構造認識装置21によって腹部表面の3次元構造が認識された患者の大動脈区分を判別する。
【0055】
第3実施形態の血管区分判別システム2の一例では、学習用データセット生成部23が、血管区分判別装置24による大動脈区分の判別対象の患者とは異なる者の腹部CT画像、腹部MRI画像および腹部MRA画像のいずれかから学習用の腹部表面の3次元構造を生成する。
【0056】
更に、学習用データセット生成部23は、腹部CT画像、腹部MRI画像および腹部MRA画像のいずれかに基づいて、学習用の腹部表面の3次元構造上の各点と、大動脈のZone1に対応する第1血管区、大動脈のZone2に対応する第2血管区分、大動脈のZone3に対応する第3血管区分および他の区分のいずれかとの対応関係を示す情報を生成する。
また、学習用データセット生成部23は、学習用の腹部表面の3次元構造と、上述した情報との組である学習用データセットを、深層学習モデル24Aの学習に使用される教師データとして生成する。
【0057】
図11に示す例では、血管区分判別装置24が、学習部241と、推定部242とを備えている。学習部241は、学習用データセット生成部23によって生成された学習用データセットを使用して深層学習モデル24Aの学習を行う。
詳細には、REBOAが行われる場合に大動脈のZone2に対応する第2血管区分の推定精度が低いと臓器虚血リスクが高くなる点に鑑み、学習部241は、学習済みの深層学習モデル24Aを用いた大動脈のZone2に対応する第2血管区分の推定精度が所定の閾値以上になるように、深層学習モデル24Aの学習を行う。
第3実施形態の血管区分判別システム2では、深層学習モデル24Aとして、第1実施形態の血管区分判別システム1と同様に、セグメンテーションモデルが用いられる。
詳細には、第3実施形態の血管区分判別システム1の第1例では、深層学習モデル24Aとして、上述したセマンティックセグメンテーションのモデルが用いられる。
【0058】
第3実施形態の血管区分判別システム2の第2例では、深層学習モデル24Aとして、上述したインスタンスセグメンテーション、パノプティックセグメンテーション等のようなセマンティックセグメンテーション以外のセグメンテーションのモデルが用いられてもよい。
【0059】
図11に示す例では、推定部242が、学習済みの深層学習モデル24Aを用いることにより、3次元構造認識装置21によって認識された患者の3次元構造上の各点が、大動脈のZone1に対応する第1血管区分、大動脈のZone2に対応する第2血管区分、大動脈のZone3に対応する第3血管区分および他の区分(つまり、第1血管区分、第2血管区分および第3血管区分のいずれにも該当しない区分)のいずれかに該当するかを推定する。
つまり、図11に示す例では、学習用データセット生成部23によって生成された学習用データセットを使用して深層学習モデル24Aの学習が行われた後に、3次元構造認識装置21が、患者の腹部表面の3次元構造を認識する。また、血管区分判別装置24の推定部242が、学習済みの深層学習モデル24Aを用いることにより、3次元構造認識装置21によって認識された患者の3次元構造上の各点が、大動脈のZone1に対応する第1血管区分、大動脈のZone2に対応する第2血管区分、大動脈のZone3に対応する第3血管区分および他の区分のいずれかに該当するかを推定する。
【0060】
可視化装置25は、血管区分判別装置24による患者の大動脈区分の推定結果を患者の腹部表面に投影したバーチャル画像を生成する。可視化装置25は、バーチャル画像生成部25Aと、バーチャル画像提示部25Bとを備えている。
バーチャル画像生成部25Aは、患者の第1血管区分(Zone1)と第2血管区分(Zone2)と第3血管区分(Zone3)とを患者の腹部表面に投影したバーチャル画像を生成する。バーチャル画像提示部25Bは、バーチャル画像生成部25Aによって生成されたバーチャル画像を血管区分判別システム2の利用者(例えば術者など)に提示する。
【0061】
第3実施形態の血管区分判別システム2の第1例では、可視化装置25が、第1実施形態の血管区分判別システム1の第1例と同様に、患者の第1血管区分(Zone1)と第2血管区分(Zone2)と第3血管区分(Zone3)とを患者の腹部表面に投影する。
【0062】
第3実施形態の血管区分判別システム2の第2例では、可視化装置25が、第1実施形態の血管区分判別システム1の第2例と同様に、現実の3次元オブジェクト(つまり、患者の腹部表面)を直接マーカーにする、すなわち、外部から手を加えることなく、患者の第1血管区分(Zone1)と第2血管区分(Zone2)と第3血管区分(Zone3)とを患者の腹部表面に直接投影する。
【0063】
第3実施形態の血管区分判別システム2の第3例では、可視化装置25が、第1実施形態の血管区分判別システム1の第3例と同様に、現実の3次元オブジェクト(つまり、患者の腹部表面)を直接マーカーにする、すなわち、外部から手を加えることなく、患者の第1血管区分(Zone1)と第2血管区分(Zone2)と第3血管区分(Zone3)とを患者の腹部表面に直接投影する。
【0064】
第3実施形態の血管区分判別システム2の第3例では、可視化装置25が、第1実施形態の血管区分判別システム1の第3例と同様に、患者の第1血管区分(Zone1)と第2血管区分(Zone2)と第3血管区分(Zone3)とを患者の腹部表面に投影したバーチャル画像を生成し、そのバーチャル画像を血管区分判別システム2の利用者(例えば術者など)に提示する。
【0065】
図12は第3実施形態の血管区分判別システム2において実行される処理の一例を説明するためのフローチャートである。
図12に示す例では、ステップS21において、学習用データセット生成部23が、深層学習モデル24Aの学習に使用される学習用データセットを生成する。
詳細には、ステップS21Aにおいて、学習用データセット生成部23が、血管区分判別装置14による大動脈区分の判別対象の患者とは異なる者の腹部CT画像、腹部MRI画像および腹部MRA画像のいずれかから学習用の腹部表面の3次元構造を生成する。
次いで、ステップS21Cでは、学習用データセット生成部13が、腹部CT画像、腹部MRI画像および腹部MRA画像のいずれかに基づいて、学習用の腹部表面の3次元構造上の各点と、大動脈のZone1に対応する第1血管区分、大動脈のZone2に対応する第2血管区分、大動脈のZone3に対応する第3血管区分および他の区分(つまり、第1血管区分、第2血管区分および第3血管区分のいずれにも該当しない区分)のいずれかとの対応関係を示す学習用データセットを生成する。
【0066】
次いで、ステップS22では、血管区分判別装置24の学習部241が、ステップS21において生成された学習用データセットを使用して深層学習モデル24Aの学習を行う。
次いで、ステップS23では、3次元構造認識装置21が、血管区分判別装置24による大動脈区分の判別対象の患者の腹部表面の3次元構造を認識する。
次いで、ステップS25では、血管区分判別装置14が、ステップS22において学習が行われた学習済みの深層学習モデル24Aを用いることにより、ステップS23において腹部表面の3次元構造が認識された患者の大動脈区分を判別する。
詳細には、ステップS25では、血管区分判別装置24の推定部242が、学習済みの深層学習モデル24Aを用いることにより、ステップS23において認識された患者の腹部表面の3次元構造上の各点が、大動脈のZone1に対応する第1血管区分、大動脈のZone2に対応する第2血管区分、大動脈のZone3に対応する第3血管区分および他の区分(つまり、第1血管区分、第2血管区分および第3血管区分のいずれにも該当しない区分)のいずれかに該当するかを推定する。
次いで、ステップS26では、可視化装置25のバーチャル画像生成部25Aが、患者の第1血管区分(Zone1)と第2血管区分(Zone2)と第3血管区分(Zone3)とを患者の腹部表面に投影したバーチャル画像を生成する。また、可視化装置25のバーチャル画像提示部25Bは、バーチャル画像生成部25Aによって生成されたバーチャル画像を血管区分判別システム2の利用者(例えば術者など)に提示する。
【0067】
そのため、第3実施形態の血管区分判別システム2によれば、血管区分判別システム2の利用者(例えば術者など)は、X線透視や超音波装置が使用できない状況下においても患者の大動脈のZone1、Zone2、Zone3を容易に識別することができる。その結果、X線透視や超音波装置が使用できない状況下におけるREBOAの実現可能性を向上させることができる。
【0068】
上述したように、図11に示す例では、3次元構造認識装置21が、LiDARスキャナと同様の技術を用いることによって、血管区分判別装置24による大動脈区分の判別対象の患者の腹部表面の3次元構造を認識し、患者の腹部表面の3次元データを生成する。
他の例では、3次元構造認識装置21が、図2に示す例のように、血管区分判別装置24による大動脈区分の判別対象の患者の腹部CT画像、腹部MRI画像および腹部MRA画像のいずれかから患者の腹部表面の3次元構造を生成する機能を有していてもよい。
【0069】
上述したように、図11に示す例では、血管区分判別装置24が、患者の大動脈区分の推定結果として、第1血管区分(Zone1)、第2血管区分(Zone2)および第3血管区分(Zone3)を患者の腹部表面に投影したバーチャル画像を生成するために可視化装置25によって用いられる情報を出力する。
他の例では、血管区分判別装置24が、患者の大動脈区分の推定結果として、患者のランドマーク部(つまり、穿刺に適した部位(すなわち、カテーテル挿入部位))から患者の第1血管区分(Zone1)までの長さ、患者のランドマーク部から患者の第2血管区分(Zone2)までの長さ、および、患者のランドマーク部から患者の第3血管区分(Zone3)までの長さを例えば数値などで出力してもよい。
【0070】
[第4実施形態]
以下、本発明の血管区分判別システム、血管区分判別方法およびプログラムの第4実施形態について説明する。
第4実施形態の血管区分判別システム2は、後述する点を除き、上述した第3実施形態の血管区分判別システム2と同様に構成されている。従って、第4実施形態の血管区分判別システム2によれば、後述する点を除き、上述した第3実施形態の血管区分判別システム2と同様の効果を奏することができる。
【0071】
上述したように、第3実施形態の血管区分判別システム2では、深層学習モデル24Aとして、セグメンテーションモデルが用いられる。
一方、第4実施形態の血管区分判別システム2では、深層学習モデル24Aとして、上述したGAN等の疑似画像生成技術が用いられる。
【0072】
以上、本発明の実施形態を図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、本発明の趣旨を逸脱しない範囲で適宜変更を加えることができる。上述した各実施形態および各例に記載の構成を組み合わせてもよい。
【0073】
なお、上記の実施形態における血管区分判別システム1、2の全部または一部は、専用のハードウェアにより実現されるものであってもよく、また、メモリおよびマイクロプロセッサにより実現させるものであってもよい。
なお、血管区分判別システム1の全部または一部は、メモリおよびCPU(中央演算装置)により構成され、各システムが備える各部の機能を実現するためのプログラムをメモリにロードして実行することによりその機能を実現させるものであってもよい。
なお、血管区分判別システム1の全部または一部の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより各部の処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含むものとする。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。
【符号の説明】
【0074】
1…血管区分判別システム、11…3次元構造認識装置、12…デプス画像生成部、13…学習用データセット生成部、14…血管区分判別装置、14A…深層学習モデル、141…学習部、142…推定部、15…可視化装置、15A…バーチャル画像生成部、15B…バーチャル画像提示部、2…血管区分判別システム、21…3次元構造認識装置、23…学習用データセット生成部、24…血管区分判別装置、24A…深層学習モデル、241…学習部、242…推定部、25…可視化装置、25A…バーチャル画像生成部、25B…バーチャル画像提示部
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12