IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ オリンパス株式会社の特許一覧

特開2024-144311学習支援装置、内視鏡システム、学習支援方法および記録媒体
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024144311
(43)【公開日】2024-10-11
(54)【発明の名称】学習支援装置、内視鏡システム、学習支援方法および記録媒体
(51)【国際特許分類】
   A61B 1/045 20060101AFI20241003BHJP
【FI】
A61B1/045 614
A61B1/045 618
【審査請求】未請求
【請求項の数】13
【出願形態】OL
(21)【出願番号】P 2024049549
(22)【出願日】2024-03-26
(31)【優先権主張番号】63/455045
(32)【優先日】2023-03-28
(33)【優先権主張国・地域又は機関】US
(71)【出願人】
【識別番号】000000376
【氏名又は名称】オリンパス株式会社
(74)【代理人】
【識別番号】100118913
【弁理士】
【氏名又は名称】上田 邦生
(74)【代理人】
【識別番号】100142789
【弁理士】
【氏名又は名称】柳 順一郎
(74)【代理人】
【識別番号】100201466
【弁理士】
【氏名又は名称】竹内 邦彦
(72)【発明者】
【氏名】佐々井 亮太
(72)【発明者】
【氏名】柳原 勝
【テーマコード(参考)】
4C161
【Fターム(参考)】
4C161AA24
4C161CC06
4C161HH52
4C161HH56
4C161JJ08
4C161WW02
4C161WW04
4C161WW06
4C161YY12
(57)【要約】      (修正有)
【課題】臨床画像に近いリアリティのあるトレーニング画像を生成する、学習支援装置を提供する。
【解決手段】一態様は、内視鏡画像内の処置具を認識する学習モデルの作成を支援する学習支援装置であって、プロセッサを備え、該プロセッサが、1つ以上の処置具の画像を配置データに基づいて画像領域内に配置することによって前記1つ以上の処置具を含む前景画像を生成し、前記配置データは、内視鏡から見た前記1つ以上の処置具の3次元的な配置を示すデータであり、前記前景画像を背景画像上に重畳してトレーニング画像を生成する、学習支援装置である。
【選択図】図3
【特許請求の範囲】
【請求項1】
内視鏡画像内の処置具を認識する学習モデルの作成を支援する学習支援装置であって、
プロセッサを備え、
該プロセッサが、
1つ以上の処置具の画像を配置データに基づいて画像領域内に配置することによって前記1つ以上の処置具を含む前景画像を生成し、前記配置データは、内視鏡から見た前記1つ以上の処置具の3次元的な配置を示すデータであり、
前記前景画像を背景画像上に重畳してトレーニング画像を生成する、学習支援装置。
【請求項2】
前記配置データが、内視鏡画像内の前記処置具の数、前記内視鏡画像内の各前記処置具の先端および基端の位置、前記内視鏡画像内の各前記処置具の面積、前記内視鏡から見た各前記処置具の3次元的な位置および姿勢の内、少なくとも1つを含む、請求項1に記載の学習支援装置。
【請求項3】
前記配置データは、各前記処置具の内視鏡からの距離に関する距離情報を含み、
前記プロセッサは、
前記前景画像内の各前記処置具の彩度、色相および明度の少なくとも1つを前記距離情報に基づいて調整し、
調整された前記前景画像を前記背景画像上に重畳して前記トレーニング画像を生成する、請求項1に記載の学習支援装置。
【請求項4】
前記プロセッサが、
前記前景画像内の各前記処置具の明度を、前記内視鏡から見た各前記処置具の3次元的な位置および姿勢と、内視鏡の照明光の明るさの空間分布と、に基づいて補正し、
補正された前記前景画像を前記背景画像上に重畳して前記トレーニング画像を生成する、請求項1に記載の学習支援装置。
【請求項5】
前記プロセッサが、
前記背景画像の明度分布に基づいて、各前記処置具の明度を調整し、
調整された前記前景画像を前記背景画像上に重畳して前記トレーニング画像を生成する、請求項1に記載の学習支援装置。
【請求項6】
学習用モデルを記憶する記憶部をさらに備え、
前記プロセッサが、前記学習用モデルに前記トレーニング画像を学習させることによって、内視鏡画像内の処置具を認識する学習モデルを作成する、請求項1に記載の学習支援装置。
【請求項7】
前記プロセッサが、
明るさが相互に異なる複数の前記トレーニング画像を生成し、
前記複数のトレーニング画像を前記学習用モデルに学習させることによって、内視鏡画像の異なる明るさに対応する複数の学習モデルを作成する、請求項6に記載の学習支援装置。
【請求項8】
前記プロセッサが、
前記前景画像内の前記1つ以上の処置具の領域のみを抽出したマスク画像を生成し、
前記マスク画像に基づいて前記トレーニング画像内の前記処置具の領域をアノテーションする、請求項6に記載の学習支援装置。
【請求項9】
請求項6の学習支援装置と、
内視鏡画像を取得する内視鏡と、
プロセッサと、前記学習モデルを記憶する記憶部と、を有する画像処理装置と、
を備え、
前記画像処理装置のプロセッサが、前記内視鏡画像を前記学習モデルに入力し、前記学習モデルによる前記内視鏡画像内の前記処置具の認識結果を取得する、内視鏡システム。
【請求項10】
前記プロセッサが、
前記内視鏡画像の色相、彩度および回転角度の少なくとも1つを、前記学習モデルの作成に使用された前記トレーニング画像に基づいて補正し、
補正された前記内視鏡画像を前記学習モデルに入力して前記内視鏡画像内の処置具を認識する、請求項9に記載の内視鏡システム。
【請求項11】
表示装置をさらに備え、
前記画像処理装置のプロセッサが、前記認識結果を前記表示装置に表示する、請求項9に記載の内視鏡システム。
【請求項12】
内視鏡画像内の処置具を認識する学習モデルの作成を支援する学習支援方法であって、
1つ以上の処置具の画像を配置データに基づいて画像領域内に配置することによって前記1つ以上の処置具を含む前景画像を生成し、前記配置データは、内視鏡から見た前記1つ以上の処置具の3次元的な配置を示すデータであり、
前記前景画像を背景画像上に重畳してトレーニング画像を生成する、学習支援方法。
【請求項13】
請求項12に記載の学習支援方法をコンピュータに実行させるための学習支援プログラムを記憶した、コンピュータ読み取り可能な非一時的な記録媒体。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、学習支援装置、内視鏡システム、学習支援方法および記録媒体に関するものである。
【背景技術】
【0002】
内視鏡システムにおいて、内視鏡画像内の処置具を自動認識する技術が使用されている。処置具を認識する技術の1つは深層学習を利用した手法であり、深層学習には、多数のトレーニング画像が必要である。
一方、2つの画像からトレーニング画像を生成する技術が知られている(例えば、特許文献1参照。)。特許文献1において、第1の画像と第2の画像の各画素の強度を単に平均化することによって、トレーニング画像が生成される。
【先行技術文献】
【特許文献】
【0003】
【特許文献1】米国特許第10614346号明細書
【発明の概要】
【発明が解決しようとする課題】
【0004】
内視鏡手術中の処置具の認識性能を向上するためには、処置具を含む臨床画像か、または、これに近いリアリティのある画像をトレーニング画像として使用することが望ましい。しかし、所望の処置具を含む臨床画像が無いまたは少ないことがある。また、臨床画像が無いまたは少ない処置具について、特許文献1の単純な方法によって、臨床画像に近いリアリティのあるトレーニング画像を生成することは困難である。
【課題を解決するための手段】
【0005】
本発明の一態様は、内視鏡画像内の処置具を認識する学習モデルの作成を支援する学習支援装置であって、プロセッサを備え、該プロセッサが、1つ以上の処置具の画像を配置データに基づいて画像領域内に配置することによって前記1つ以上の処置具を含む前景画像を生成し、前記配置データは、内視鏡から見た前記1つ以上の処置具の3次元的な配置を示すデータであり、前記前景画像を背景画像上に重畳してトレーニング画像を生成する、学習支援装置である。
【0006】
本発明の他の態様は、上記学習支援装置と、内視鏡画像を取得する内視鏡と、プロセッサと、前記学習モデルを記憶する記憶部と、を有する画像処理装置と、を備え、前記画像処理装置のプロセッサが、前記内視鏡画像を前記学習モデルに入力し、前記学習モデルによる前記内視鏡画像内の前記処置具の認識結果を取得する、内視鏡システムである。
【0007】
本発明の他の態様は、内視鏡画像内の処置具を認識する学習モデルの作成を支援する学習支援方法であって、1つ以上の処置具の画像を配置データに基づいて画像領域内に配置することによって前記1つ以上の処置具を含む前景画像を生成し、前記配置データは、内視鏡から見た前記1つ以上の処置具の3次元的な配置を示すデータであり、前記前景画像を背景画像上に重畳してトレーニング画像を生成する、学習支援方法である。
本発明の他の態様は、上記の学習支援方法をコンピュータに実行させるための学習支援プログラムを記憶した、コンピュータ読み取り可能な非一時的な記録媒体である。
【図面の簡単な説明】
【0008】
図1】学習支援装置が適用される内視鏡システムの一例の全体構成図である。
図2A】追従制御を説明する内視鏡画像を示す図である。
図2B】追従制御を説明する内視鏡画像を示す図である。
図3】第1実施形態に係る学習支援装置の構成を示すブロック図である。
図4】処置具に関する配置データの一例を示す図である。
図5A】腹腔鏡手術における内視鏡ポートおよび処置具ポートの配置と観察領域の一例を示す図である。
図5B】腹腔鏡手術における内視鏡ポートおよび処置具ポートの配置と観察領域の他の例を示す図である。
図5C】腹腔鏡手術における内視鏡ポートおよび処置具ポートの配置と観察領域の他の例を示す図である。
図6A】腹腔内における処置具および内視鏡の3次元的な位置関係を示す図である。
図6B図6Aの位置関係に基づいて作成される配置データを示す図である。
図7】第1実施形態に係る学習支援方法のフローチャートである。
図8図7の学習支援方法における画像処理を説明する図である。
図9】配置データに基づく処置具画像の選択方法を説明する図である。
図10】第1実施形態に係る学習支援方法の変形例のフローチャートである。
図11】第2実施形態に係る学習支援装置の構成を示すブロック図である。
図12】配置データの作成方法を説明する図である。
図13】第2実施形態に係る学習支援方法のフローチャートである。
図14図13の学習支援方法における画像処理を説明する図である。
図15】第3実施形態に係る学習支援装置の構成を示すブロック図である。
図16】内視鏡の照明光の明るさの空間分布を説明する図である。
図17】第3実施形態に係る学習支援方法のフローチャートである。
図18】第4実施形態に係る学習支援装置の構成を示すブロック図である。
図19】第4実施形態に係る学習支援方法のフローチャートである。
図20】背景画像の明度分布に基づく処置具の明度の調整を説明する図である。
図21】第5実施形態に係る内視鏡システムの構成を示すブロック図である。
図22A】第5実施形態に係る学習支援方法のフローチャートである。
図22B】第5実施形態に係る画像処理方法のフローチャートである。
図23】第5実施形態に係る学習支援方法を説明する図である。
図24】表示装置に表示される処置具の認識結果の例を示す図である。
図25】トレーニング画像に基づく内視鏡画像の補正を説明する図である。
【発明を実施するための形態】
【0009】
(第1実施形態)
本発明の第1実施形態に係る学習支援装置および学習支援方法について図面を参照して説明する。
本実施形態に係る学習支援装置10は、内視鏡画像内の処置具を認識する学習モデルの作成を支援するものであり、具体的には、学習モデルの作成に必要なトレーニング画像を生成する。
【0010】
図1は、学習支援装置10によって作成された学習モデルが適用される内視鏡システム100の一例を示している。内視鏡システム100は、内視鏡11と、内視鏡11の位置および姿勢を変更する移動装置12と、制御装置13と、表示装置14と、を備える。内視鏡システム100は、内視鏡11および処置具16を被検体Xである患者の体内に挿入し、処置具16を内視鏡11によって観察しながら処置具16で処置対象部位を処置する手術に使用され、例えば、腹腔鏡下手術に使用される。
【0011】
制御装置13は、処置具16の位置に基づいて移動装置12を制御することによって内視鏡11の視野を処置具16に追従させる追従制御を行う。図2Aおよび図2Bは、追従制御の一例を示している。この例において、内視鏡画像G内の所定の特定領域H内に処置具16の先端が配置されるように、移動装置12が制御される。すなわち、先端が特定領域H内に位置するときには内視鏡11は移動せず(図2A参照。)、先端が特定領域H外に位置するときには、先端が特定領域Hに入るように内視鏡11が移動させられる(図2B参照。)。
学習モデルは、例えば、追従制御中に内視鏡画像G内の追従対象の処置具16を認識するために使用される。
【0012】
図3に示されるように、学習支援装置10は、中央演算処理装置のようなプロセッサ1と、記憶部2と、メモリ3と、入出力部4と、を備える。
記憶部2は、コンピュータ読み取り可能な非一時的な記録媒体であり、例えば、ハードディスクドライブ、光ディスクまたはフラッシュメモリ等である。記憶部2は、後述する本実施形態に係る学習支援方法をプロセッサ1に実行させるための学習支援プログラム5aを記憶している。さらに、記憶部2は、学習支援方法に必要なサンプル画像群A1,A2,A3,…,Bおよび配置データ6aを記憶している。
【0013】
プロセッサ1は、記憶部2からRAM(Random Access Memory)等のメモリ3に読み込まれた学習支援プログラム5aに従って、サンプル画像群A1,A2,A3,…,Bからトレーニング画像Dを生成する。
入出力部4は、公知の入力インタフェースおよび出力インタフェースを有する。
【0014】
サンプル画像群A1,A2,A3,…,Bは、臨床画像内に映り得る物体の画像である。臨床画像は、実際の内視鏡手術中に内視鏡11によって撮影される内視鏡画像である。本実施形態において、サンプル画像群は、複数の処置具画像群A1,A2,A3,…と、背景画像群Bと、を含む。
【0015】
処置具画像群A1,A2,A3,…は、処置具16a,16b,16c,…をそれぞれ含む複数の処置具画像からなり、処置具16a,16b,16c,…は相互に異なる。
処置具画像群A1の複数の処置具画像は、処置具16aの奥行方向の距離(すなわち、大きさ)および姿勢が相互に異なる複数のカラーの画像からなる。例えば、複数の処置具画像は、任意の背景上に様々な距離および様々な姿勢で配置された処置具16aを内視鏡で撮影することによって取得される。同様に、他の処置具画像群A2,A3,…の複数の処置具画像も、処置具16b,16c,…の距離および姿勢が相互に異なる複数のカラーの画像からなる。
背景画像群Bは、相互に異なる複数のカラーの背景画像からなる。背景画像は、臓器の画像であり、例えば、腹腔内の様々な位置を様々な角度から内視鏡で撮影することによって取得される。
【0016】
配置データ6aは、内視鏡から見た1つ以上の処置具の3次元的な配置を示すデータであり、1つ以上の処置具の各々の内視鏡からの距離に関する距離情報を含む。配置データ6aは、内視鏡手術中に実際に発生し得る臨床画像内の処置具の3次元的な配置に基づいて作成される。
【0017】
図4は、配置データ6aの一例を示している。配置データ6aは、1つ以上の処置具16を含む画像データであり、内視鏡画像内における、処置具16の数と、各処置具16の種類、先端aおよび基端bの各々の位置ならびに面積Saと、の情報を含む。先端aから基端bまでの処置具16の長さdと面積Saは、内視鏡から処置具16までの距離と相関し、距離が近い程、長さdおよび面積Saは大きくなる。本実施形態において、距離情報は、長さdおよび面積Saを含む。
内視鏡手術中に起こり得る処置具の配置は、術式等の内視鏡手術の条件によって制約されるので、配置のパターンの数は有限である。内視鏡手術中に起こり得る処置具のあらゆる配置を網羅する多数の配置データ6aが準備され、例えば、数千以上の配置データ6aが準備される。
【0018】
図5Aから図6Bは、配置データ6aの作成方法の一例を説明している。
図5Aから図5Cに示されるように、腹腔鏡手術の術式毎に、内視鏡ポートP1および処置具ポートP2の配置と、内視鏡11によって観察される腹腔内の観察領域Qの位置は、決まっている。図5A図5Bおよび図5Cは、S状結腸切除術、胆のう摘出手術および鼠経ヘルニア根治術をそれぞれ示している。図6Aに示されるように、内視鏡11および処置具16は、患者Xの腹壁に設けられたポートP1,P2から腹腔内にそれぞれ挿入される。
【0019】
内視鏡11および処置具16の動きは、ポートP1,P2を中心とする揺動および長手方向の移動に制限されるので、各処置具16が内視鏡11の先端に対して取り得る3次元な位置および姿勢は、ポートP1,P2の配置および観察領域Qによって決まるある一定の範囲内に制限される。したがって、臨床画像内の処置具16の数、位置および姿勢の範囲は術式に応じて決まる。図6Bに示されるように、前記一定の範囲内で内視鏡11の先端に対する各処置具16の位置および姿勢を網羅的に変化させることによって、臨床画像内の処置具の数、位置a,bおよび面積Saを網羅する多数の配置データ6aが生成される。
【0020】
次に、学習支援装置10が実行する学習支援方法について説明する。
図7に示されるように、本実施形態に係る学習支援方法は、前景画像Cを生成するステップS1と、前景画像Cの色を調整するステップS2と、色が調整された前景画像C’が背景画像上に重畳されたトレーニング画像Dを生成するステップS3と、を含む。
図8は、本実施形態に係る学習支援方法における画像処理を説明している。
【0021】
プロセッサ1は、学習支援方法の実行に必要なデータ、具体的には、画像群A1,A2,A3,…,Bおよび配置データ6aを記憶部2から読み込む(ステップS0)。
ステップS1において、プロセッサ1は、複数の処置具画像群A1,A2,A3,…から、配置データ6aに基づいて配置された1つ以上の処置具を含む前景画像Cを生成する。
【0022】
具体的には、プロセッサ1は、配置データ6aに基づいて処置具画像群A1,A2,A3,…から1以上の処置具画像A1a,A3a,A3bを選択する(ステップS1a)。
図9は、1つの処置具16aと3つの処置具16cとを含む配置データ6aに基づく処置具画像の選択方法を説明している。
プロセッサ1は、複数の処置具画像群A1,A2,A3,…から、配置データ6aに含まれる処置具と同一の種類の処置具の画像群A1,A3を選択する。次に、プロセッサ1は、配置データ6aから各処置具の長さdを算出し、長さdおよび面積Saと同一または近い長さおよび面積を有する処置具の処置具画像A1a,A3a,A3b,A3cを処置具画像群A1,A3から選択する。例えば、プロセッサ1は、長さdおよび面積Saと、各処置具画像内の処置具の長さおよび面積との一致度を算出し、一致度が閾値以下である処置具画像を選択する。
【0023】
次に、プロセッサ1は、選択された各処置具画像A1a,A3a,A3bの背景を除去し、各処置具画像A1a,A3a,A3b内の処置具16a,16cの画像を抽出する(ステップS1b)。
次に、プロセッサ1は、処置具16a,16cの画像を配置データ6aに基づいて2次元の画像領域J内に配置して前景画像Cを生成する(ステップS1c)。
【0024】
次のステップS2において、プロセッサ1は、配置データ6aに含まれる各処置具16a,16cの距離情報に基づき、前景画像C内の各処置具16a,16cの色を調整し、それにより調整された前景画像C’を生成する。
本明細書において、「色」は、色の3要素である彩度、色相および明度のことを言い、「色を調整する」は、彩度、色相および明度の少なくとも1つを調整することを言う。
【0025】
例えば、プロセッサ1は、各処置具16a,16cの内視鏡からの距離を各処置具16a,16cの長さdおよび面積Saから見積もり、距離が近い程、明度が高くなるように、各処置具16a,16cの明度を調整する。
プロセッサ1は、距離に基づいて彩度および色相を調整してもよい。例えば、プロセッサ1は、距離が近い程、彩度が高くなるように彩度を調整してもよく、距離が近い程、色相が内視鏡の照明光の色相(例えば白)に近付くように色相を調整してもよい。
【0026】
次のステップS3において、プロセッサ1は、背景画像群Bから任意の1つの背景画像Baを選択し(ステップS3a)、色が調整された前景画像C’を背景画像Ba上に重畳してトレーニング画像Dを生成する(ステップS3b)。
プロセッサ1は、ステップS1~S3を繰り返し、全ての配置データ6aを使用して多数のトレーニング画像Dを生成する(ステップS4)。これにより、内視鏡手術中に起こり得る臨床画像内の処置具の配置を網羅した多数のトレーニング画像Dが生成される。
【0027】
このように、本実施形態によれば、トレーニング画像Dは、画像群A1,A2,A3,…,Bから生成され、処置具を含む臨床画像は不要である。したがって、臨床画像が無いまたは少ない処置具を含む様々な処置具用のトレーニング画像Dを生成することができ、それにより、臨床画像の無いまたは少ない処置具を含む様々な処置具用の学習モデルの作成を支援することができる。
【0028】
また、本実施形態によれば、実際の内視鏡手術中の処置具の配置に基づいて、配置データ6aが事前に作成される。このような配置データ6aを使用することによって、処置具の配置および色が臨床画像に近いリアリティのあるトレーニング画像Dを生成することができる。また、このようなトレーニング画像Dを学習することによって、臨床画像内の処置具の認識精度の高い学習モデルを生成することができ、内視鏡手術中の内視鏡画像内の処置具の認識性能を向上することができる。
【0029】
具体的には、前景画像C内の処置具の配置は、位置a,bおよび面積Saに基づいて決定され、それにより、トレーニング画像D内の処置具の配置は、臨床画像内の処置具の3次元的な配置と同一または近くなる。また、各処置具の色を内視鏡からの距離に基づいて調整することによって、トレーニング画像D内の各処置具の色は、臨床画像内の各処置具の色と同一または近くなる。
このように、臨床画像内の処置具の配置および色との乖離が少ないトレーニング画像Dを生成することができる。
【0030】
図10に示されるように、本実施形態の学習支援方法は、前景画像Cに基づいてマスク画像Eを生成するステップS5と、マスク画像Eに基づいてトレーニング画像DをアノテーションするステップS6と、をさらに含んでいてもよい。
図10に示されるステップS5,S6のタイミングは一例であり、適宜変更することができる。
【0031】
図8に示されるように、マスク画像Eは、前景画像C内の処置具16a,16cの領域のみが抽出された画像である。ステップS6において、プロセッサ1は、マスク画像E内の処置具16a,16cの領域と同一位置の領域をトレーニング画像Dから選択し、選択された領域の位置を処置具の領域の位置の情報としてトレーニング画像Dに付す。
【0032】
処置具を認識する学習モデルを作成するためには、処置具の領域の位置の情報を各トレーニング画像Dに付すアノテーションが必要である。前景画像Cからマスク画像Eを生成することによって、トレーニング画像Dのアノテーションを自動化し、多数のトレーニング画像Dのアノテーションをプロセッサ1に実行させることができる。また、前景画像C内の処置具の領域の位置はトレーニング画像D内の処置具の領域の位置と一致するので、前景画像Cから生成されたマスク画像Eを使用することによって、トレーニング画像Dに正確にアノテーションすることができる。
【0033】
図10に示されるように、本実施形態の学習支援方法は、複数のトレーニング画像Dを学習することによって内視鏡画像内の処置具を認識する学習モデルを作成するステップS7をさらに含んでいてもよい。この場合、記憶部2は、トレーニング画像Dを学習して学習モデルを作成する学習用モデル7(図3参照。)をさらに記憶している。
【0034】
アノテーション後、プロセッサ1は、アノテーションされた多数のトレーニング画像Dを学習用モデル7に学習させ、学習用モデル7は学習モデルを作成する。
この構成によれば、学習支援装置10によって、トレーニング画像Dの生成から学習モデルの作成までの全ての処理を行うことができる。
【0035】
本実施形態の学習支援方法は、ステップS2を必ずしも含んでいなくてもよい。すなわち、ステップS3において、プロセッサ1は、前景画像Cを背景画像Ba上に重畳してトレーニング画像Dを生成してもよい。
配置データ6aに基づいて生成された前景画像Cは、処置具の配置が臨床画像に近い画像である。したがって、前景画像Cを使用することによっても、リアリティのあるトレーニング画像Dを生成することができる。
【0036】
(第2実施形態)
次に、本発明の第2実施形態に係る学習支援装置および学習支援方法について説明する。
本実施形態は、処置具画像に代えてCG(computer graphics)から前景画像Cを生成する点において、第1実施形態と相違する。本実施形態において、第1実施形態と異なる構成について説明し、第1実施形態と共通する構成については同一の符号を付して説明を省略する。
【0037】
図11に示されるように、本実施形態に係る学習支援装置20は、プロセッサ1と、記憶部2と、メモリ3と、入出力部4と、を備える。
記憶部2は、後述する本実施形態に係る学習支援方法をプロセッサ1に実行させるための学習支援プログラム5bを記憶している。さらに、記憶部2は、学習支援方法に必要な、複数のCAD(Computer Aided Design)データI1,I2,I3,…と、背景画像群Bと、配置データ6bと、記憶している。
CADデータI1,I2,I3,…はそれぞれ、処置具16a,16b,16c,…の3次元モデルの3次元CADデータであり、処置具16a,16b,16c,…は相互に異なる。
【0038】
配置データ6bは、処置具の数、および、各処置具の位置姿勢の情報を含む。処置具の位置姿勢は、内視鏡から見た処置具の3次元的な位置および姿勢である。本実施形態において、距離情報は、位置姿勢の情報を含む。
本実施形態においても、内視鏡手術中に起こり得る臨床画像内の処置具のあらゆる配置を網羅する多数の配置データ6bが準備され、例えば、数千以上の配置データ6bが準備される。
【0039】
図12は、配置データ6bの作成方法の一例を説明している。
上述したように、各処置具16が内視鏡11の先端に対して取り得る3次元な位置および姿勢は、各術式のポートP1,P2の配置および観察領域Qによって決まるある一定の範囲内に制限される。前記一定の範囲内で内視鏡11の先端に対する各処置具16の位置および姿勢を網羅的に変化させることによって、臨床画像内の処置具の数および各処置具の位置姿勢を網羅する多数の配置データ6bが生成される。
【0040】
次に、学習支援装置20が実行する学習支援方法について説明する。
図13に示されるように、本実施形態に係る学習支援方法は、前景画像Cを生成するステップS11と、前景画像Cの色を調整するステップS21と、色が調整された前景画像C’が背景画像上に重畳されたトレーニング画像Dを生成するステップS3と、を含む。
図14は、本実施形態に係る学習支援方法における画像処理を説明している。
【0041】
プロセッサ1は、学習支援方法の実行に必要なデータ、具体的には、CADデータI1,I2,I3,…、背景画像群Bおよび配置データ6bを記憶部2から読み込む(ステップS0)。
ステップS11において、プロセッサ1は、複数のCADデータI1,I2,I3,…から、配置データ6bに基づいて配置された1つ以上の処置具を含む前景画像Cを生成する。
具体的には、プロセッサ1は、複数のCADデータI1,I2,I3,…から、配置データ6bに含まれる処置具と同一の種類の処置具のCADデータを選択する(ステップS11a)。
【0042】
次に、プロセッサ1は、配置データ6b内の各処置具の位置姿勢に基づいて、3次元の画像領域J内にCADデータの3次元モデルからなる処置具16a,16cの画像を配置し、それにより、3次元CG画像を作成する(ステップS11b)。
次に、プロセッサ1は、内視鏡11から見た処置具16a,16cの位置姿勢に基づいて3次元CG画像を2次元化することによって、処置具16a,16cを内視鏡から見た2次元CG画像である前景画像Cを生成する(ステップS11c)。
【0043】
次のステップS21において、プロセッサ1は、配置データ6bに含まれる各処置具の距離情報に基づき、前景画像C内の各処置具16a,16cの色を調整し、それにより前景画像C’を生成する。
例えば、プロセッサ1は、各処置具16a,16cの内視鏡からの距離を各処置具16a,16cの位置姿勢から算出し、距離が近い程、明度が高くなるように、各処置具16a,16cの明度を調整する。第1実施形態と同様、プロセッサ1は、距離に基づいて彩度および色相を調整してもよい。
ステップS3,S4は、第1実施形態において説明した通りである。
【0044】
このように、本実施形態によれば、トレーニング画像Dは、CADデータI1,I2,I3および背景画像群Bから生成され、処置具を含む臨床画像は不要である。したがって、臨床画像が無いまたは少ない処置具を含む様々な処置具用のトレーニング画像Dを生成することができ、それにより、臨床画像の無いまたは少ない処置具を含む様々な処置具用の学習モデルの作成を支援することができる。
【0045】
また、本実施形態によれば、実際の内視鏡手術中の処置具の配置に基づいて、配置データ6bが事前に作成される。このような配置データ6bを使用することによって、処置具の配置および色が臨床画像に近いリアリティのあるトレーニング画像Dを生成することができる。また、このようなトレーニング画像Dを学習することによって、臨床画像内の処置具の認識精度の高い学習モデルを生成することができ、内視鏡手術中の内視鏡画像内の処置具の認識性能を向上することができる。
【0046】
具体的には、前景画像C内の処置具の配置は、配置データ6bに含まれる各処置具の位置姿勢に基づいて決定され、それにより、トレーニング画像D内の処置具の配置は、臨床画像内の処置具の3次元的な配置と同一または近くなる。また、各処置具の色を内視鏡からの距離に基づいて調整することによって、トレーニング画像D内の各処置具の色は、臨床画像内の各処置具の色と同一または近くなる。
このように、臨床画像内の処置具の配置および色との乖離が少ないトレーニング画像Dを生成することができる。
【0047】
第1実施形態と同様、本実施形態の学習支援方法も、ステップS5,S6,S7をさらに含んでいてもよく、また、ステップS2を含んでいなくてもよい。
【0048】
(第3実施形態)
次に、本発明の第3実施形態に係る学習支援装置および学習支援方法について説明する。
本実施形態は、内視鏡11の照明に基づいて前景画像Cの色を調整する点において、第1実施形態と相違する。本実施形態において、第1実施形態と異なる構成について説明し、第1実施形態と共通する構成については同一の符号を付して説明を省略する。
【0049】
図15に示されるように、本実施形態に係る学習支援装置30は、プロセッサ1と、記憶部2と、メモリ3と、入出力部4と、を備える。
記憶部2は、後述する本実施形態に係る学習支援方法をプロセッサ1に実行させるための学習支援プログラム5cを記憶している。さらに、記憶部2は、学習支援方法に必要なサンプル画像群A1,A2,A3,…,B、配置データ6cおよび照明の数式モデル8を記憶している。
【0050】
配置データ6cは、第1実施形態において説明した処置具の数、各処置具の種類、各処置具の先端および基端の位置ならびに各処置具の面積の情報に加えて、内視鏡から見た各処置具の位置姿勢情報を含む。
位置姿勢情報は、内視鏡から見た処置具の3次元的な位置および姿勢の情報である。例えば、位置姿勢情報は、内視鏡によって処置具画像を撮影したときの、内視鏡に対する処置具の3次元的な位置および姿勢の情報であり、処置具画像と位置姿勢情報とのペアが記憶部2に記憶される。本実施形態において、距離情報は、位置姿勢情報を含む。
【0051】
図16に示されるように、内視鏡手術において、内視鏡11の先端から射出される照明光Lで処置具16は照明される。照明光Lは、明るさの空間分布を有し、内視鏡11の先端から離れるにつれて暗くなる。したがって、臨床画像内の処置具の明度は、内視鏡11の先端から遠い程、低くなる。
数式モデル8は、照明光Lの明るさの空間分布を表現する数式モデルであり、例えば、内視鏡手術に使用される内視鏡11および照明光Lの光学特性に基づいて作成される。
【0052】
次に、学習支援装置30が実行する学習支援方法について説明する。
図17に示されるように、本実施形態に係る学習支援方法は、前景画像Cを生成するステップS1と、前景画像Cの色を調整するステップS22と、色が調整された前景画像C’が背景画像上に重畳されたトレーニング画像Dを生成するステップS3と、を含む。
【0053】
プロセッサ1は、学習支援方法の実行に必要なデータ、具体的には、画像群A1,A2、A3,…,B、配置データ6cおよび数式モデル8を記憶部2から読み込む(ステップS0)。
ステップS1において、プロセッサ1は、処置具画像群A1,A2,A3,…から1以上の処置具画像A1a,A3a,A3bを位置姿勢情報と一緒に選択する(ステップS1a)。ステップS1のその他の処理は、第1実施形態において説明した通りである。
【0054】
ステップS22において、プロセッサ1は、前景画像C内の各処置具に対応する位置姿勢情報と、数式モデル8とに基づき、前景画像C内の各処置具の明度を調整し、それにより、前景画像C’を生成する。前景画像C’において、各処置具の明度は内視鏡11からの距離に応じて異なり、距離が近い程、明度が高くなる。
ステップS3,S4は、第1実施形態において説明した通りである。
【0055】
第1実施形態と同様、本実施形態によれば、臨床画像が無いまたは少ない処置具を含む様々な処置具用のトレーニング画像Dを生成することができ、それにより、臨床画像の無いまたは少ない処置具を含む様々な処置具用の学習モデルの作成を支援することができる。
また、本実施形態によれば、配置データ6cを使用することによって、処置具の配置が臨床画像に近いリアリティのあるトレーニング画像Dを生成することができ、それにより、臨床画像内の処置具の認識精度の高い学習モデルを生成することができ、内視鏡手術中の内視鏡画像内の処置具の認識性能を向上することができる。
【0056】
また、本実施形態によれば、前景画像C内の各処置具の明度が、位置姿勢情報および数式モデル8に基づいて調整され、それにより、トレーニング画像D内の各処置具の明度は、臨床画像内の各処置具の明度と同一または近くなる。このような前景画像C’から、臨床画像内の処置具の明度との乖離が少ないトレーニング画像Dを生成することができる。
第1実施形態と同様、本実施形態の学習支援方法も、ステップS5,S6,S7をさらに含んでいてもよい
【0057】
本実施形態において、プロセッサ1は、処置具画像に代えて、CG(computer graphics)から前景画像Cを生成してもよい。
すなわち、記憶部2は、処置具画像群A1,A2,A3,…に代えて、第2実施形態において説明したCADデータI1,I2,I3,…を記憶してもよく、本実施形態の学習支援方法は、ステップS1に代えて、第2実施形態において説明したステップS11を含んでいてもよい。
【0058】
(第4実施形態)
次に、本発明の第4実施形態に係る学習支援装置および学習支援方法について説明する。
本実施形態は、内視鏡からの距離に加えて背景画像の明度分布に基づいて前景画像Cの色を調整する点において、第1実施形態と相違する。本実施形態において、第1実施形態と異なる構成について説明し、第1実施形態と共通する構成については同一の符号を付して説明を省略する。
【0059】
図18に示されるように、本実施形態に係る学習支援装置40は、プロセッサ1と、記憶部2と、メモリ3と、入出力部4と、を備える。
記憶部2は、後述する本実施形態に係る学習支援方法をプロセッサ1に実行させるための学習支援プログラム5dを記憶している。さらに、記憶部2は、学習支援方法に必要なサンプル画像群A1,A2,A3,…,Bおよび配置データ6aを記憶している。
【0060】
次に、学習支援装置40が実行する学習支援方法について説明する。
図19に示されるように、本実施形態に係る学習支援方法は、前景画像Cを生成するステップS1と、前景画像Cの色を調整するステップS23と、色が調整された前景画像C’が背景画像上に重畳されたトレーニング画像Dを生成するステップS3と、を含む。
【0061】
ステップS0,S1,S4は、第1実施形態において説明した通りである。
ステップS23において、プロセッサ1は、背景画像群Bから1つの背景画像Baを選択し、各処置具の内視鏡からの距離と背景画像Baの明度分布とに基づいて、前景画像C内の各処置具の明度を調整する。
【0062】
図20は、トレーニング画像Dの一例を示している。
具体的には、プロセッサ1は、前景画像C内の1以上の処置具の中から、距離が所定値以上である処置具を選択する。プロセッサ1は、選択された処置具に対して下記の明度の調整を行い、距離が所定値未満であり選択されなかった処置具に対して明度の調整を行わない。
後述するように、明度は背景の明るさに応じて調整される。距離が近い場合、処置具の明度は背景側の明るさよりも内視鏡からの照明光の影響を受けやすく、距離が遠い程、処置具の明度は、照明光の影響よりも背景側の明るさの影響が支配的になる。したがって、明度の調整は、距離が所定値以上である処置具に対して選択的に行われる。
【0063】
次に、プロセッサ1は、選択された処置具16b,16cが重畳される領域における背景画像Baの明度に応じて当該処置具16b,16cの明度を調整し、背景画像Baの明度が高い程、処置具の明度を高くする。例えば、図20に示されるように、背景画像Baが、左下が明るく、右上が暗い明度分布を有する場合、左下の処置具16cの明度は高く調整され、右上の処置具16bの明度は低く調整される。
次のステップS3において、プロセッサ1は、ステップS22において選択した背景画像Ba上に前景画像C’を重畳してトレーニング画像Dを生成する。
【0064】
一例において、プロセッサ1は、下式(1)に従って明度を調整し、それにより、背景画像の平均明度からの差分に応じて処置具の領域の明度を調整する。
(b,g,r)=(b+br_shift,g+gr_shift,r+br_shift)
ここで、(b,g,r)は、前景画像C内の処置具の領域の各画素のRGB値であり、brは、背景画像の各画素の明度であり、Brは、背景画像の平均明度であり、br_shift=br-Brである。
【0065】
第1実施形態と同様、本実施形態によれば、臨床画像が無いまたは少ない処置具を含む様々な処置具用のトレーニング画像Dを生成することができ、それにより、臨床画像の無いまたは少ない処置具を含む様々な処置具用の学習モデルの作成を支援することができる。
また、本実施形態によれば、配置データ6aを使用することによって、処置具の配置が臨床画像に近いリアリティのあるトレーニング画像Dを生成することができ、それにより、臨床画像内の処置具の認識精度の高い学習モデルを生成することができ、内視鏡手術中の内視鏡画像内の処置具の認識性能を向上することができる。
【0066】
また、本実施形態によれば、前景画像C内の各処置具の明度が、背景画像の明度分布に基づいて調整され、それにより、トレーニング画像D内の各処置具の明度は、臨床画像内の各処置具の明度と同一または近くなる。このような前景画像C’から、臨床画像内の処置具の明度との乖離が少ないトレーニング画像Dを生成することができる。
第1実施形態と同様、本実施形態の学習支援方法も、ステップS5,S6,S7をさらに含んでいてもよい
【0067】
本実施形態において、プロセッサ1は、処置具画像に代えて、CG(computer graphics)から前景画像Cを生成してもよい。
すなわち、記憶部2は、処置具画像群A1,A2,A3,…に代えて、第2実施形態において説明したCADデータI1,I2,I3,…を記憶してもよく、本実施形態の学習支援方法は、ステップS1に代えて、第2実施形態において説明したステップS11を含んでいてもよい。
【0068】
(第5実施形態)
次に、本発明の第5実施形態に係る学習支援装置および内視鏡システムについて説明する。
図21に示されるように、本実施形態に係る内視鏡システム200は、内視鏡11と、内視鏡11の位置および姿勢を変更する移動装置12と、内視鏡11および移動装置12を制御する制御装置13と、表示装置14と、画像処理装置15と、学習支援装置50と、を備える。
内視鏡システム200は、第1実施形態において説明した内視鏡システム100と同様、例えば、腹腔鏡下手術に使用される。
【0069】
内視鏡11は、CCDイメージセンサまたはCMOSイメージセンサのような撮像素子を含むカメラを有し、カメラによって被検体X内の内視鏡画像Gを取得する。カメラは、ステレオ画像を取得する3次元カメラであってもよい。
内視鏡画像Gは、内視鏡11から制御装置13または画像処理装置15を経由して表示装置14に送信され、表示装置14に表示される。表示装置14は、液晶ディスプレイまたは有機ELディスプレイ等の任意のディスプレイである。
【0070】
移動装置12は、多関節のロボットアームからなる電動ホルダ12aを備え、制御装置13によって制御される。内視鏡11は、電動ホルダ12aの先端部に保持され、電動ホルダ12aの動作によって内視鏡11の先端の位置および姿勢が3次元的に変更される。移動装置12は、内視鏡11の先端部に設けられた湾曲部等、内視鏡11の先端の位置および姿勢を変更することができる他の機構であってもよい。
【0071】
制御装置13は、プロセッサ、記憶部と、メモリおよび入出力インタフェース等を備える。また、制御装置13は、内視鏡11と接続される光源装置17を備え、光源装置17から内視鏡11に供給される照明光Lの強度を制御することができる。光源装置17は、制御装置13と別体であってもよい。
第1実施形態において説明したように、制御装置13は、内視鏡11の視野を追従対象の所定の処置具16に追従させる追従制御を実行する。例えば、追従制御において、制御装置13は、ステレオ内視鏡画像Gから処置具16の先端の3次元の位置を取得し、先端の位置に基づいて移動装置12を制御する。
【0072】
画像処理装置15は、プロセッサ151、記憶部152、メモリおよび入出力部等を備える。
記憶部152は、コンピュータ読み取り可能な非一時的な記録媒体であり、例えば、ハードディスクドライブ、光ディスクまたはフラッシュメモリ等である。記憶部152は、後述する画像処理方法をプロセッサ151に実行させるための画像処理プログラム152aを記憶している。
【0073】
学習支援装置50は、学習支援装置10と同様、プロセッサ1、記憶部2、メモリ3および入出力部4を備える。記憶部2は、後述する本実施形態に係る学習支援方法をプロセッサ1に実行させるための学習支援プログラムを記憶している。本実施形態の学習支援方法は、第1から第4実施形態において説明したいずれかの学習支援方法に基づく。したがって、記憶部2は、本実施形態の学習支援方法に応じて、データA1,A2,A3,…,B,I1,I2,I3,…,6a,6b,6cおよび8のいずれかを記憶している。
【0074】
次に、第1実施形態の学習支援方法を例に、学習支援装置50が実行する学習支援方法について説明する。
図22Aに示されるように、本実施形態に係る学習支援方法は、前景画像Cを生成するステップS12と、前景画像Cの色を調整するステップS2と、背景画像上に前景画像C’が重畳されたトレーニング画像Dを生成するステップS3と、前景画像Cに基づいてマスク画像Eを生成するステップS5と、マスク画像Eに基づいてトレーニング画像DをアノテーションするステップS6と、複数のトレーニング画像Dを学習することによって内視鏡画像G内の処置具を認識する学習モデルを作成するステップS7と、を含む。
【0075】
ステップS12において、プロセッサ1は、1つの配置データに基づいて明るさの異なる複数の前景画像Cを生成する。
例えば、図23に示されるように、記憶部2は、複数の処置具画像群からそれぞれなる複数のセットα,β,γを記憶している。複数のセットα,β,γは、相互に異なる明るさに対応している。例えば、セットαは、暗い処置具画像からなる処置具画像群A1,A2,A3からなり、セットγは、明るい処置具画像からなる処置具画像群A1”,A2”,A3”からなる。
プロセッサ1は、各セットα,β,γから前景画像Cを生成し、それにより、各配置データ6について、処置具の数、種類および配置が同一であり明るさが相互に異なる複数の前景画像Cを生成する。
【0076】
次のステップS2において、プロセッサ1は、各前景画像C内の処置具の色を調整する。
次のステップS3において、プロセッサ1は、背景画像上に各前景画像C’を重畳して、1つの配置データ6について明るさの異なる複数のトレーニング画像Dを生成する。
ステップS4,S5,S6は、第1実施形態において説明した通りである。
【0077】
全てのトレーニング画像Dのアノテーション後(ステップS6)、プロセッサ1は、同一のセットα、βまたはγから生成された多数のトレーニング画像Dを学習し、それにより、内視鏡画像の異なる明るさに対応する複数の学習モデル9a,9b,9cを作成する(ステップS7)。例えば、学習モデル9aは、暗い内視鏡画像G用であり、学習モデル9cは、明るい内視鏡画像G用である。学習モデル9a,9b,9cは、学習支援装置50の記憶部2に記憶される。
【0078】
次に、内視鏡手術中に画像処理装置15が実行する画像処理方法について説明する。
図22Bに示されるように、本実施形態に係る画像処理方法は、光源装置17から照明光Lの明るさの情報を取得するステップS101と、明るさに基づいて学習支援装置50から学習モデルを読み込むステップS102と、内視鏡画像Gを取得するステップS103と、内視鏡画像G内の処置具を学習モデルによって認識するステップS104と、認識結果を表示装置14に出力するステップS105と、を含む。
【0079】
内視鏡手術中、内視鏡11から画像処理装置15に内視鏡画像Gが逐次入力される。
プロセッサ151は、光源装置17から、照明光Lの明るさの現在の設定値を取得し(ステップS101)、設定値に対応する学習モデル9a、9bまたは9cを学習支援装置50から読み込む(ステップS102)。
次に、プロセッサ151は、画像処理装置15に入力された内視鏡画像Gを取得し(ステップS103)、読み込まれた学習モデルに内視鏡画像Gを入力し、学習モデルによる認識結果として認識された処置具の領域の位置を得る(ステップS104)。
【0080】
プロセッサ151は、処置具の認識結果を表示装置14に表示する(ステップS105)。例えば、図24に示されるように、プロセッサ151は、内視鏡画像G内の認識された処置具16の領域にカラーのマーカを重畳したり、認識された処置具16を囲む枠を内視鏡画像Gに重畳したりしてもよい。
処置具の認識結果は、制御装置13による追従制御に使用されてもよい。
【0081】
ここで、本実施形態によれば、第1から第4実施形態において説明した通り、トレーニング画像Dは、処置具の配置および色が臨床画像に近いリアリティのある画像であり、このようなトレーニング画像Dの学習によって作成された学習モデルは、臨床画像内の処置具の認識精度が高い。したがって、内視鏡手術中の内視鏡画像G内の処置具の認識性能を向上することができる。また、これにより、追従制御において、内視鏡11の視野を処置具に安定的に追従させることができ、より快適な視野を、術者または助手等のユーザに提供することができる。
【0082】
また、内視鏡画像Gの明るさは、照明光Lの明るさに応じて異なる。本実施形態によれば、照明光Lの明るさに応じた学習モデルが処置具の認識に使用される。例えば、照明光Lが暗いとき、暗いトレーニング画像Dの学習によって作成された暗い内視鏡画像G用の学習モデルが使用される。これにより、内視鏡画像G内の処置具の認識精度をさらに向上することができる。
【0083】
本実施形態のステップS104において、プロセッサ151は、内視鏡画像Gがトレーニング画像Dに近付くように内視鏡画像Gを補正し(ステップS104a)、補正された内視鏡画像Gを学習モデルに入力してもよい(ステップS104b)。
具体的には、図25に示されるように、プロセッサ151は、内視鏡画像Gの色相、彩度および回転角度の少なくとも1つを補正し、内視鏡画像G内の処置具の見え方をトレーニング画像D内の処置具の見え方に近付ける。トレーニング画像Dは、学習モデルの作成に使用された複数のトレーニング画像Dのいずれかである。
【0084】
上述したように、内視鏡画像G内の処置具の配置は、術式によってある程度決まる。しかし、内視鏡11の姿勢等に応じて、内視鏡画像G内の処置具の位置は周方向にずれ得る。内視鏡画像G内の処置具の配置がトレーニング画像D内の処置具の配置に近付くように内視鏡画像Gを回転させ、回転された内視鏡画像Gを学習モデルに入力することによって、処置具の認識精度を向上することができる。
【0085】
また、内視鏡画像G内の処置具の色相および彩度は、トレーニング画像D内の処置具の色相および彩度とは異なり得る。内視鏡画像G内の処置具の色相および彩度がトレーニング画像D内の処置具の色相および彩度に近付くように内視鏡画像G内の処置具の色相および彩度を補正し、補正後の内視鏡画像Gを学習モデルに入力することによって、認識性能を向上することができる。
ステップS105において、プロセッサ151は、認識結果を逆回転させ(ステップS105a)、その後、認識結果を内視鏡画像Gに重畳して表示装置14に表示してもよい。
【0086】
本実施形態において、プロセッサ1は、処置具画像群の複数のセットα,β,γから明るさの異なる複数のトレーニング画像Dを生成することとしたが、他の方法を用いて複数のトレーニング画像Dを生成してもよい。
例えば、プロセッサ1は、1つの前景画像Cから、画像処理によって明るさの異なる複数の前景画像を生成し、複数の前景画像から複数のトレーニング画像Dを生成してもよい。
【0087】
本実施形態において、学習支援装置50が、制御装置13および画像処理装置15とは別体であることとしたが、これに代えて、制御装置13および画像処理装置15の少なくとも一方と一体であってもよい。例えば、学習支援装置50および画像処理装置15が、制御装置13に組み込まれていてもよい。
【0088】
以上、本発明の実施形態およびその変形例について説明したが、本発明はこれに限定されるものではなく、本発明の要旨を逸脱しない範囲で適宜変更可能である。
上記各実施形態および変形例において、サンプル画像群が、処置具画像群A1,A2,A3,…および背景画像群Bから構成されることとしたが、他の物体の画像群をさらに含んでいてもよい。他の物体は、例えば、ガーゼまたはネラトンチューブ等の人工物、または、臓器であってもよい。
【符号の説明】
【0089】
10,20,30,40,50 学習支援装置
1 プロセッサ
2 記憶部
3 メモリ
4 入出力部
5a,5b,5c,5d,5e 学習支援プログラム
6a,6b,6c,6d 配置データ
7 学習用モデル
8 数式モデル
11 内視鏡
15 画像処理装置
100 内視鏡システム
A1,A2,A3 処置具画像群
B 背景画像群
C,C’ 前景画像
D トレーニング画像
E マスク画像
I1,I2,I3 CADデータ
G 内視鏡画像
L 照明光
図1
図2A
図2B
図3
図4
図5A
図5B
図5C
図6A
図6B
図7
図8
図9
図10
図11
図12
図13
図14
図15
図16
図17
図18
図19
図20
図21
図22A
図22B
図23
図24
図25