(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2023106142
(43)【公開日】2023-08-01
(54)【発明の名称】画像処理装置および画像処理方法
(51)【国際特許分類】
G06T 7/00 20170101AFI20230725BHJP
G06T 7/11 20170101ALI20230725BHJP
A61B 5/00 20060101ALI20230725BHJP
【FI】
G06T7/00 612
G06T7/00 350B
G06T7/11
A61B5/00 M
【審査請求】有
【請求項の数】9
【出願形態】OL
(21)【出願番号】P 2022007289
(22)【出願日】2022-01-20
【国等の委託研究の成果に係る記載事項】(出願人による申告)令和3年度、国立研究開発法人科学技術振興機構、研究成果展開事業大学発新産業創出プログラム「蚊のバイオミメティクスによる無痛針穿刺と微細血管認識とを融合した自動注射システム」委託研究、産業技術力強化法第17条の適用を受ける特許出願
(71)【出願人】
【識別番号】399030060
【氏名又は名称】学校法人 関西大学
(74)【代理人】
【識別番号】110000338
【氏名又は名称】弁理士法人 HARAKENZO WORLD PATENT & TRADEMARK
(72)【発明者】
【氏名】青柳 誠司
(72)【発明者】
【氏名】鈴木 昌人
【テーマコード(参考)】
4C117
5L096
【Fターム(参考)】
4C117XE03
4C117XE43
4C117XK05
4C117XK25
5L096BA06
5L096CA02
5L096DA01
5L096EA12
5L096EA43
5L096FA02
5L096FA04
5L096FA12
5L096HA11
5L096JA16
5L096KA04
5L096KA15
(57)【要約】
【課題】二次元画像を用いて細静脈または細動脈を高精度で抽出することを可能とする。
【解決手段】画像処理装置(1)は、二次元画像から体毛の領域を抽出する第1領域抽出部(13)と、二次元画像から、第1領域抽出部(13)によって抽出された体毛の領域を識別する画像識別部(14)と、画像識別部(14)によって体毛の領域が識別された画像から、細静脈または細動脈の領域を抽出する第2領域抽出部(15)と、を備える。
【選択図】
図3
【特許請求の範囲】
【請求項1】
二次元画像から体毛の領域を抽出する第1領域抽出部と、
前記二次元画像から、前記第1領域抽出部によって抽出された前記体毛の領域を識別する画像識別部と、
前記画像識別部によって前記体毛の領域が識別された画像から、細静脈または細動脈の領域を抽出する第2領域抽出部と、を備える画像処理装置。
【請求項2】
二次元画像から体毛の領域を抽出する第1領域抽出部と、
前記二次元画像から、細静脈または細動脈の領域を抽出する第2領域抽出部と、
前記第2領域抽出部によって抽出された前記細静脈または前記細動脈の領域の画像から、前記第1領域抽出部によって抽出された前記体毛の領域ではない前記細静脈または前記細動脈の領域を識別する画像識別部と、を備える画像処理装置。
【請求項3】
前記第2領域抽出部は、係蹄部先端を抽出し、当該係蹄部先端に基づいて、前記細静脈または前記細動脈の領域を判定する、請求項1または2に記載の画像処理装置。
【請求項4】
前記第1領域抽出部は、機械学習によって、前記二次元画像から前記体毛の領域を抽出するように学習されており、
前記第2領域抽出部は、機械学習によって、前記二次元画像から前記細静脈または前記細動脈の領域を抽出するように学習されている、請求項1または2に記載の画像処理装置。
【請求項5】
二次元画像から、係蹄部先端を抽出する係蹄部先端抽出部と、
前記二次元画像から、細静脈または細動脈の候補領域を抽出する候補領域抽出部と、
前記係蹄部先端抽出部によって抽出された前記係蹄部先端と前記候補領域とに基づいて、前記細静脈または前記細動脈の領域を判定する微細血管判定部と、を備える画像処理装置。
【請求項6】
前記微細血管判定部は、前記係蹄部先端抽出部によって抽出された係蹄部先端を含む前記候補領域を前記細静脈または前記細動脈の領域と判定する、請求項5に記載の画像処理装置。
【請求項7】
二次元画像から体毛の領域を抽出し、
前記二次元画像から、抽出された前記体毛の領域を識別し、
前記体毛の領域が識別された画像から、細静脈または細動脈の領域を抽出する、画像処理方法。
【請求項8】
二次元画像から体毛の領域を抽出し、
前記二次元画像から、細静脈または細動脈の領域を抽出し、
抽出された前記細静脈または前記細動脈の領域の画像から、抽出された前記体毛の領域ではない前記細静脈または前記細動脈の領域を識別する、画像処理方法。
【請求項9】
二次元画像から、係蹄部先端を抽出し、
前記二次元画像から、細静脈または細動脈の候補領域を抽出し、
抽出された前記係蹄部先端と前記候補領域とに基づいて、前記細静脈または前記細動脈の領域を判定する、画像処理方法。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、画像処理装置および画像処理方法に関する。
【背景技術】
【0002】
近年、画像処理を用いた医療機器の開発が盛んに行われている。非特許文献1には、Rec-FCN(Recurrent Fully Convolutional Network)等を用いて、画像から毛細血管を抽出する技術が開示されている。
【0003】
また、特許文献1には、光音響信号から再構成された三次元画像に含まれる表在血管と体毛との分別精度を向上させる技術が開示されている。
【先行技術文献】
【特許文献】
【0004】
【非特許文献】
【0005】
【非特許文献1】Alvin I.Chen, Max L.Balter, Timothy J.Maguire and Martin L.Yarmush, 文献名「Deep learning robotic guidance for autonomous vascular access」,p.104-115,2020
【発明の概要】
【発明が解決しようとする課題】
【0006】
皮膚を撮影した画像には、細静脈、細動脈以外に、体毛やゴミ等が含まれており、細静脈、細動脈と体毛やゴミ等とを識別する必要がある。しかしながら、上述の非特許文献1に開示された技術を用いたとしても、細静脈、細動脈と体毛やゴミ等とを識別することができない可能性がある。
【0007】
また、特許文献1に開示された技術を用いた場合、表在血管と体毛とを識別することができる。しかしながら、特許文献1に開示された画像処理装置は、三次元画像を撮影する必要があり、画像処理装置を含んだシステムが非常に高価になるといった課題がある。
【0008】
本発明の一態様は、二次元画像を用いて微細血管(細静脈、細動脈)を高精度で抽出することが可能な画像処理装置および画像処理方法を提供することを目的とする。
【課題を解決するための手段】
【0009】
上記の課題を解決するために、本発明の一態様に係る画像処理装置は、二次元画像から体毛の領域を抽出する第1領域抽出部と、前記二次元画像から、前記第1領域抽出部によって抽出された前記体毛の領域を識別する画像識別部と、前記画像識別部によって前記体毛の領域が識別された画像から、細静脈または細動脈の領域を抽出する第2領域抽出部と、を備える。
【0010】
また、上記の課題を解決するために、本発明の一態様に係る画像処理装置は、二次元画像から体毛の領域を抽出する第1領域抽出部と、前記二次元画像から、細静脈または細動脈の領域を抽出する第2領域抽出部と、前記第2領域抽出部によって抽出された前記細静脈または前記細動脈の領域の画像から、前記第1領域抽出部によって抽出された前記体毛の領域ではない前記細静脈または前記細動脈の領域を識別する画像識別部と、を備える。
【0011】
また、上記の課題を解決するために、本発明の一態様に係る画像処理装置は、二次元画像から、係蹄部先端を抽出する係蹄部先端抽出部と、前記二次元画像から、細静脈または細動脈の候補領域を抽出する候補領域抽出部と、前記係蹄部先端抽出部によって抽出された前記係蹄部先端と前記候補領域とに基づいて、前記細静脈または前記細動脈の領域を判定する微細血管判定部と、を備える。
【0012】
また、上記の課題を解決するために、本発明の一態様に係る画像処理方法は、二次元画像から体毛の領域を抽出し、前記二次元画像から、抽出された前記体毛の領域を識別し、前記体毛の領域が識別された画像から、細静脈または細動脈の領域を抽出する。
【0013】
また、上記の課題を解決するために、本発明の一態様に係る画像処理方法は、二次元画像から体毛の領域を抽出し、前記二次元画像から、細静脈または細動脈の領域を抽出し、抽出された前記細静脈または前記細動脈の領域の画像から、抽出された前記体毛の領域ではない前記細静脈または前記細動脈の領域を識別する。
【0014】
また、上記の課題を解決するために、本発明の一態様に係る画像処理方法は、二次元画像から、係蹄部先端を抽出し、前記二次元画像から、細静脈または細動脈の候補領域を抽出し、抽出された前記係蹄部先端と前記候補領域とに基づいて、前記細静脈または前記細動脈の領域を判定する。
【発明の効果】
【0015】
本発明の一態様によれば、二次元画像を用いて微細血管(細静脈、細動脈)を高精度で抽出することが可能な画像処理装置および画像処理方法を提供することができる。
【図面の簡単な説明】
【0016】
【
図1】本発明の第1の実施形態に係る画像撮影装置の構成例を示す図である。
【
図2】本発明の第1の実施形態に係る画像処理システムの構成例を示す図である。
【
図3】本発明の第1の実施形態に係る画像処理装置の構成例を示す図である。
【
図4】前処理部によって二値化処理された後の画像の一例を示す図である。
【
図5】U-Netの概要を説明するための図である。
【
図6】学習回数とDice係数との相関を示す学習曲線図である。
【
図8】オブジェクトのクラス(体毛、係蹄部先端、微細血管)ごとの正答率の一例を示す図である。
【
図9】本発明の第1の実施形態に係る画像処理装置の処理手順を説明するためのフローチャートである。
【
図10】本発明の第2の実施形態に係る画像処理装置の構成例を示す図である。
【
図11】本発明の第2の実施形態に係る画像処理装置の処理手順を説明するためのフローチャートである。
【
図12】本発明の第3の実施形態に係る画像処理装置の構成例を示す図である。
【
図14】本発明の第3の実施形態に係る画像処理装置の処理手順を説明するためのフローチャートである。
【
図15】領域抽出部によって体毛と判定された領域を示す図である。
【
図16】画像識別部によって微細血管が識別された後の画像を示す図である。
【発明を実施するための形態】
【0017】
(実施形態1)
<本発明の背景>
本出願人は、蚊の針が無痛で人間から血液を吸引できる機構に着目し、そのメカニズムを模倣した無痛採血針の研究を行ってきた。この研究の成果として、外径0.09mmという世界最細の針の作製、およびこれを用いた採血に成功した。ただし、この針を用いて従来の採血対象であった血管(直径約数mm)からは採血ができない。これは微細針の折損を防止する観点からその長さを例えば2mmに制限しており、太い血管の外皮を突破できないからである。
【0018】
このため、細い血管(以下、微細血管と呼ぶ。)を穿刺・採血の対象とする必要があるが、これらは肉眼では容易に観察することができない。また、皮膚表面での乱反射が原因となり、通常の顕微鏡を用いて微細血管を視認することができない。そのため、微細血管を可視化する画像撮影装置が必要になる。本明細書においては、皮膚表面付近に分布する細静脈・細動脈と呼ばれる直径0.1mmから0.2mmの微細な血管を、微細血管と呼ぶことにする。
【0019】
通常の光学系を用いて皮膚表面を観察する場合、照射光の大部分が皮膚表面で乱反射する。その結果、照射光が皮膚内部まで透過し難くなり、微細血管の視認性が低下する。この問題を解決するためには、光学的マッチング液が有効である。光学的マッチング液とは、皮膚と近い屈折率を有する液体であり、皮膚表面の凹凸を埋めることにより光の乱反射を抑制する。本出願人が開発したマッチング液は、水、グリセリン、ヒアルロン酸、クロルヘキシジングルコン酸塩を混合した液体(以下、ハイドロゲルと呼ぶ。)であり、ヘキシジングルコン酸塩の効果により皮膚の消毒を同時に行うことが可能である。
【0020】
また,通常の光学系を用いた場合に、微細血管の視認性が低くなる要因として、微細血管と皮膚組織で白色光の吸収特性の差異が小さいことが挙げられる。これは、白色光は様々な波長の光を含むため、光の吸収特性も平均化されることが原因である。したがって、単色光を照射した方が、微細血管が強調され、視認性が向上する。
【0021】
<画像撮影装置の構成例>
図1は、本発明の一実施形態に係る画像撮影装置の構成例を示す図である。
図1に示すように、微細血管を可視化する画像撮影装置2は、カメラ21と、緑色光源22と、スロット23と、を備えている。
【0022】
カメラ21は、ズームマイクロレンズCMOS(Complementary Metal Oxide Semiconductor)カメラ等によって構成される。また、緑色光源22は、緑色LED(Light Emitting Diode)等によって構成される。画像撮影装置2は、微細血管の可視性が高い緑色光源22を用い、消毒液の成分を含むハイドロゲル25を皮膚表面に塗布することにより皮膚表面の乱反射を抑制している。このように、画像撮影装置2は、皮膚の皺が画像に映り込まないようにすることで、高精度な微細血管の二次元画像を撮影することを可能にしている。
【0023】
後述の画像処理装置によって微細血管を抽出し、スロット23を介して、抽出された微細血管から採血が行われるように、図示しない制御装置等によって採血針24の移動等が制御される。
【0024】
<皮膚表面付近(表皮下)に分布する微細血管の配置>
図1に示すように、皮膚に分布する動脈を細動脈と呼ぶ。ここから毛細血管がループ状に上行し、ループ状の毛細血管の先端において係蹄を構成して細静脈に移行する。細静脈から血液は最終的に皮静脈へ流れる。本明細書においては、
図1に示す係蹄の先端部分(最上部:最も皮膚表面に近い部分)を係蹄部先端と呼ぶことにする。
【0025】
<画像処理システム100の構成例>
図2は、本発明の一実施形態に係る画像処理システム100の構成例を示す図である。
図2に示すように、
図1に示す画像撮影装置2と、本実施形態に係る画像処理装置1とが、通信ネットワーク3を介して通信可能に接続されている。
【0026】
画像処理装置1は、通信ネットワーク3を介して、画像撮影装置2から微細血管を含んだ画像を取得することができる。通信ネットワーク3の一例として、無線LAN(Local Area Network)、有線LAN、WAN(Wide Area Network)、公衆回線網、モバイルデータ通信網、又は、これらのネットワークの組み合わせを用いることができる。
【0027】
<画像処理装置1の構成例>
図3は、本発明の一実施形態に係る画像処理装置1の構成例を示す図である。画像処理装置1は、画像取得部11と、前処理部12と、第1領域抽出部13と、画像識別部14と、第2領域抽出部15と、を備えている。
【0028】
画像取得部11は、通信ネットワーク3を介して、画像撮影装置2から微細血管を含んだ画像を取得する。画像取得部11は、画像撮影装置2から取得した画像を前処理部12に出力する。
【0029】
<前処理部12の動作>
前処理部12は、画像処理により画像の明度等を調整した後、二値化処理で閾値以下の明度の領域を抽出する。画像撮影装置2によって微細血管が可視化された画像は、画像内、または画像毎に明るさ、暗さが一定ではない。前処理部12は、全ての画像において輝度値を均一化させ、明暗を調整するための正規化処理を行う。
【0030】
具体的には、画像撮影装置2は、緑色光源22を利用して微細血管を可視化しているので、前処理部12は、カラー画像をRGBに分割し、Green(グレースケール)のみを使用する。前処理部12は、全ての画像から平均値となる輝度値を決定し、画像内の小領域毎に決定した輝度値を平均値になるようにすることで画像全体の明るさのムラを減らす。本実施形態においては、輝度の平均値を128として説明する。なお、輝度値は、0~255の値である。
【0031】
P(x0,y0)を注目画素とし、周辺小領域P(125×125)の範囲内で平均値P(x,y)を求める。そして、前処理部12は、周辺画素の平均値P(x,y)との輝度の差分Pn(x,y)を次式(式1)および(式2)で求める。
【0032】
Pn(x,y)=P(x0,y0)-P(x,y) ・・・(式1)
P(x0,y0)=Pn(x,y)×3+128 ・・・(式2)
(式2)のように指定した輝度の平均値128に、注目画素と周辺領域の平均値との差分Pn(x,y)を3倍して加えることで、画像全体の平均値が128となるようにヒストグラムを調整する。
【0033】
前処理部12は、正規化処理を行った後の画像に対して、二値化処理で閾値以下の明度の領域を抽出する。
図4は、前処理部12によって二値化処理された後の画像の一例を示す図である。
図4において、黒い丸い部分が係蹄部先端であり、
図1に示す係蹄部先端を上から見たときの形状となっている。また、係蹄部先端と重なっている部分が微細血管である。なお、
図4の中央には、体毛の領域が存在している。
【0034】
第1領域抽出部13は、例えば、U-Net等によって構成されており、体毛の領域を抽出するように学習されている。また、第2領域抽出部15は、例えば、U-Net等によって構成されており、微細血管の領域を抽出するように学習されている。なお、機械学習はU-Netに限定されず、U-Net++、RNN、CNN、R-CNN、Fast R-CNN、Faster R-CNN、SegNet等であってもよい。
【0035】
<U-Netによる学習方法>
図5は、U-Netの概要を説明するための図である。U-Netは、深層学習の中でセマンティックセグメンテーションに分類されている。セマンティックセグメンテーションとは、対象物をピクセル単位で複数の領域に分割することである。U-Netは、全結合層のないFCN(Fully Convolution Network)の1つであり、画像を高速かつ正確にセグメンテーションを行うU字型の構造を有する畳み込みニューラルネットワークである。U-Netは、通常のCNNとは違い、FCNやSegNetと同様に全結合層を持たず、畳み込み層で構成される。U-Netは、EncoderとDecoderとで構成されるモデルである。
【0036】
図5に示すように、4ステップの3×3畳み込み層131~134によって、ダウンサンプリングを行うEncoderが構成されており、最大値プーリング後ごとに、畳み込みチャネル数を増加させる。また、最大値プーリング後ごとの特徴マップを、Decoderの同一空間サイズの特徴マップに結合する。
【0037】
また、4ステップの3×3畳み込み層136~139によって、アップサンプリングを行うDecoderが構成されており、スキップ接続で入力したEncoderからの特徴を結合し、畳み込み層136~139ごとにチャネル数を減少させて、入力画像と同じサイズの確率マップ(セグメンテーション・マップ)を作成する。
【0038】
学習する際には、まず、前処理部12によって作成された画像からU-Netの教師データとして使用するマスク画像が作成される。マスク画像は、人間の判断によって画像から微細血管が存在する領域(ピクセル)を塗りつぶすことで作成される。この手法によって作成された26枚のマスク画像に対して、回転処理(2°刻みで360°まで)および反転処理(上下左右)を施すことにより、学習データの数を増やす。これらの処理により、元のマスク画像1枚を360枚に増やすことができるため、最終的に9360枚のデータセットを得ることができる。なお、体毛の領域を抽出するためのマスク画像についても、同様の手法で作成することができる。また、元のマスク画像の枚数は一例であり、この枚数に限定されるものではない。
【0039】
学習の評価のため、データセットの9割を訓練データとし、1割をテストデータとして分割した後、U-Netによる学習を行う。微細血管の領域抽出の検出精度を確認するために、Dice係数を使用した。Dice係数は、正解画像とU―Netの推測画像の類似度を評価するものであり、正解領域をX、推測領域をYとして次式(式3)で求めることができる。
【0040】
【0041】
図6は、学習回数とDice係数との相関を示す学習曲線図である。
図6においては、横軸を学習回数、縦軸をDice係数としている。9割の訓練データと、1割のテストデータとの組み合わせを変えながら、学習してゆくことにより、
図6に示す学習曲線図が得られた。
図6に示すように、20回の学習でDice係数がほぼ飽和することが分かる。この結果から、データセット全てに対して20回の学習を行い、第1領域抽出部13および第2領域抽出部15を作成した。なお、学習方法および学習回数は、これらに限定されるものではない。
【0042】
<CNNによる学習方法>
図7は、CNNの概要を説明するための図である。CNNは、深層学習の中で代表的な手法であり、何層にも分かれた深い層を持ち、特に、画像認識の分野で優れた性能を発揮しているネットワークである。CNNは、入力層141と、出力層147と、畳み込み層142~144と、最大プーリング層と、全結合層145~146とで構成されている。
【0043】
CNNの特徴として、学習の際に入力データから自動的に必要な特徴を抽出する。この機能を、畳み込み層142~144と最大プーリング層とで実現している。畳み込み層142~144は、単純型細胞をモデルに考えられたもので、特定の形状に反応して特徴を捉えることが可能であり、画像全体にフィルタをスライドさせながらかけて特徴マップを出力する。最大プーリング層は、畳み込み層で抽出された特徴の次元を削減し、パラメータ数や計算量を減らすことに利用される。
【0044】
プーリングは、カーネルサイズ2×2の最大プーリングである。本実施形態においては、60×60に切り出されたオブジェクト画像をCNNに入力し、異なるフィルタの畳み込みと2×2のプーリングを3回繰り返す。
【0045】
学習する際には、まず、前処理部12によって作成された画像から、人手によってオブジェクトをそれぞれ切出し、体毛、微細血管、係蹄部先端の3種類に分類して学習データとする。本実施形態においては、体毛を154枚、係蹄部先端を242枚、微細血管を159枚に分類した。この状態では、総数が555枚であり、学習データとしては少ないため、過学習の発生や精度が低くなってしまう。そこで、この学習データを回転処理(30°刻みで360°まで)し、合計6660枚を作成して学習データを増やしている。
【0046】
学習の評価のため、データセットの9割を訓練データとし、1割をテストデータとして分割した後、CNNによる学習を30回行った。
図8は、オブジェクトのクラス(体毛、係蹄部先端、微細血管)ごとの正答率(適合率、再現率)の一例を示す図である。
【0047】
なお、体毛が微細血管として誤判定されるのを防止するために、後述のように、微細血管と判定されたオブジェクトであっても、係蹄部先端を含まないオブジェクトは体毛であると判定するようにしてもよい。
【0048】
<第1領域抽出部13、第2領域抽出部15の動作>
第2領域抽出部15が、前処理された後の画像から微細血管を抽出した場合、誤判定で体毛が微細血管として抽出されることがある。そのため、第1領域抽出部13によって体毛を抽出しておき、第2領域抽出部15が、第1領域抽出部13によって抽出された体毛を識別した画像から、微細血管を抽出するようにしている。
【0049】
第1領域抽出部13は、前処理部12によって前処理された後の画像から、体毛の領域を抽出する。第1領域抽出部13は、上述のようにU-Net、CNN等を用いて体毛の領域を抽出するように学習されている。
【0050】
画像識別部14は、前処理部12によって前処理された後の画像から、第1領域抽出部13によって抽出された体毛の領域ではない微細血管の領域を識別する。例えば、画像識別部14は、前処理部12によって前処理された後の画像から、第1領域抽出部13によって抽出された体毛の領域の画像を除去するようにしてもよい。また、画像識別部14は、前処理部12によって前処理された後の画像から、第1領域抽出部13によって抽出された体毛の領域の画像を判別できるように画像を変更するようにしてもよい。例えば、画像識別部14は、前処理部12によって前処理された後の画像において、各領域の色または階調を異ならせることで、微細血管の領域と微細血管の領域以外の領域(体毛の領域を含む)とを識別可能にしてもよい。
【0051】
第2領域抽出部15は、画像識別部14によって体毛の領域が識別された後の画像から、毛細血管の領域を抽出する。第2領域抽出部15は、上述のようにU-Net、CNN等を用いて微細血管の領域を抽出するように学習されている。
【0052】
<画像処理装置1の処理手順>
図9は、本発明の第1の実施形態に係る画像処理装置1の処理手順を説明するためのフローチャートである。まず、画像取得部11が、画像撮影装置2によって撮影された二次元画像を取得する(S1)。
【0053】
次に、前処理部12は、画像取得部11によって取得された二次元画像に対して前処理を行い、前処理を行った後の画像を第1領域抽出部13および画像識別部14に出力する(S2)。
【0054】
次に、第1領域抽出部13は、前処理部12によって前処理が行われた後の入力画像から、体毛の領域を抽出する(S3)。そして、画像識別部14は、前処理部12によって前処理が行われた後の入力画像から、第1領域抽出部13によって抽出された体毛の領域を識別する(S4)。
【0055】
最後に、第2領域抽出部15は、画像識別部14によって体毛の領域が識別された後の画像から、微細血管の領域を抽出する(S5)。
【0056】
<画像処理装置1の効果>
以上説明したように、本実施形態に係る画像処理装置1によれば、第2領域抽出部15が、画像識別部14によって体毛の領域が識別された後の画像から、微細血管の領域を抽出する。したがって、第2領域抽出部15は、微細血管を高精度で抽出することが可能となる。
【0057】
また、画像処理装置1は、二次元画像を用いて微細血管を抽出するので、画像撮影装置2を含んだ画像処理システムを安価で実現することが可能となる。
【0058】
(実施形態2)
実施形態1に係る画像処理装置1は、体毛の領域が識別された後の画像から、微細血管の領域を抽出するものである。実施形態2に係る画像処理装置1Aは、体毛の領域と微細血管の領域とを別々に抽出し、微細血管として抽出された領域から、体毛として抽出された領域を識別するものである。
【0059】
図10は、本発明の実施形態2に係る画像処理装置1Aの構成例を示す図である。画像処理装置1Aは、画像取得部11と、前処理部12と、第1領域抽出部13と、画像識別部14Aと、第2領域抽出部15Aと、を備えている。なお、実施形態1において説明した構成要素と同じ機能を有する構成要素については、同じ符号を付し、その説明を適宜省略する。
【0060】
画像取得部11は、通信ネットワーク3を介して、画像撮影装置2から微細血管を含んだ画像を取得する。画像取得部11は、画像撮影装置2から取得した画像を前処理部12に出力する。
【0061】
前処理部12は、全ての画像において輝度値を均一化させ、明暗を調整するための正規化処理を行う。そして、前処理部12は、正規化処理を行った後の画像に対して、二値化処理で閾値以下の明度の領域を抽出する。
【0062】
第1領域抽出部13は、前処理部12によって前処理された後の画像から、体毛の領域を抽出する。第1領域抽出部13は、上述のようにU-Net、CNN等を用いて体毛の領域を抽出するように学習されている。
【0063】
第2領域抽出部15Aは、前処理部12によって前処理された後の画像から、微細血管の領域を抽出する。第2領域抽出部15Aは、上述のようにU-Net、CNN等を用いて微細血管の領域を抽出するように学習されている。
【0064】
画像識別部14Aは、第2領域抽出部15Aによって抽出された微細血管の領域の画像から、第1領域抽出部13によって抽出された体毛の領域の画像を識別する。この処理は、第2領域抽出部15Aによって体毛が微細血管として誤判定された場合、画像識別部14Aによって微細血管と誤判定された体毛を識別するために行われる。
【0065】
例えば、画像識別部14Aは、第2領域抽出部15Aによって抽出された微細血管の領域の画像から、第1領域抽出部13によって抽出された体毛の領域の画像を除去するようにしてもよい。また、画像識別部14Aは、第2領域抽出部15Aによって抽出された微細血管の領域の画像から、第1領域抽出部13によって抽出された体毛の領域の画像を判別できるように画像を変更するようにしてもよい。
【0066】
<画像処理装置1Aの処理手順>
図11は、本発明の第2の実施形態に係る画像処理装置1Aの処理手順を説明するためのフローチャートである。まず、画像取得部11が、画像撮影装置2によって撮影された二次元画像を取得する(S11)。
【0067】
次に、前処理部12は、画像取得部11によって取得された二次元画像に対して前処理を行い、前処理を行った後の画像を第1領域抽出部13および第2領域抽出部15Aに出力する(S12)。
【0068】
次に、第1領域抽出部13は、前処理部12によって前処理が行われた後の入力画像から、体毛の領域を抽出する(S13)。また、第2領域抽出部15Aは、前処理部12によって前処理が行われた後の入力画像から、微細血管の領域を抽出する(S14)。
【0069】
最後に、画像識別部14Aは、第2領域抽出部15Aによって抽出された微細血管の領域の画像から、第1領域抽出部13によって抽出された体毛の領域の画像を識別する(S15)。
【0070】
<画像処理装置1Aの効果>
以上説明したように、本実施形態に係る画像処理装置1Aによれば、画像識別部14Aが、第2領域抽出部15Aによって抽出された微細血管の領域の画像から、第1領域抽出部13によって抽出された体毛の領域の画像を識別する。したがって、画像識別部14Aは、微細血管を高精度で抽出することができる。
【0071】
また、画像処理装置1Aは、二次元画像を用いて微細血管を抽出するので、画像撮影装置2を含んだ画像処理システムを安価で実現することが可能となる。
【0072】
(実施形態3)
実施形態1に係る画像処理装置1および実施形態2に係る画像処理装置1Aは、U-Net、CNN等の機械学習によって微細血管および体毛を抽出するものである。実施形態3に係る画像処理装置1Bは、画像処理によって係蹄部先端を抽出して微細血管を判定するものである。
【0073】
図12は、本発明の実施形態3に係る画像処理装置1Bの構成例を示す図である。画像処理装置1Bは、画像取得部11と、前処理部12Bと、領域抽出部16と、画像識別部14Bと、を備えている。なお、実施形態1および2において説明した構成要素と同じ機能を有する構成要素については、同じ符号を付し、その説明を適宜省略する。
【0074】
画像取得部11は、通信ネットワーク3を介して、画像撮影装置2から微細血管を含んだ画像を取得する。画像取得部11は、画像撮影装置2から取得した画像を前処理部12に出力する。
【0075】
前処理部12Bは、全ての画像において輝度値を均一化させ、明暗を調整するための正規化処理を行う。なお、本実施形態において、二値化処理は、前処理部12Bで行われず、領域抽出部16によって行われる。
【0076】
領域抽出部16は、前処理部12Bによって前処理された後の画像から、微細血管を判定する。そして、画像識別部14Bは、領域抽出部16によって微細血管と判定された領域の画像を識別し、識別後の画像を出力する。
【0077】
例えば、画像識別部14Bは、領域抽出部16によって微細血管と判定された領域以外の画像(オブジェクト)を除去するようにしてもよい。また、画像識別部14Bは、領域抽出部16によって微細血管と判定された領域の画像を判別できるように画像を変更するようにしてもよい。例えば、画像識別部14Bは、前処理部12Bによって前処理された後の画像を二値化した画像において、各領域の色または階調を異ならせることで、微細血管の領域と微細血管の領域以外の領域(体毛の領域を含む)とを識別可能にしてもよい。
【0078】
図13は、領域抽出部16の構成例を示す図である。領域抽出部16は、係蹄部先端抽出部161と、候補領域抽出部162と、微細血管判定部163と、を備えている。
【0079】
係蹄部先端抽出部161は、前処理部12Bによって前処理された後の画像から、画像処理によって係蹄部先端を抽出する。係蹄部先端抽出部161は、まず、前処理部12Bによって前処理された後の画像から、オブジェクトを検出し、各オブジェクトの座標情報を取得する。そして、係蹄部先端抽出部161は、各オブジェクトの中から黒い丸いオブジェクトを係蹄部先端として抽出し、係蹄部先端の座標情報を取得する。
【0080】
具体的には、係蹄部先端抽出部161は、二次元画像を第1閾値で二値化した画像(微細血管および体毛は消えて係蹄部先端が残った画像)から、画像処理によって、係蹄部先端に対応するオブジェクト(点状の円形領域)を抽出する。なお、画像処理は、円形領域を抽出できるものであればよい。
【0081】
候補領域抽出部162は、二次元画像を第1閾値とは異なる第2閾値で二値化した画像(微細血管および体毛が残った画像)から、実施形態1の第1領域抽出部13と同様に、体毛の領域を抽出する。そして、候補領域抽出部162は、二値化した画像から体毛の領域を除去する。
【0082】
そして、候補領域抽出部162は、体毛の領域を除去した画像から、微細血管の複数の候補領域をオブジェクトとして抽出し、各オブジェクトの座標情報を取得する。候補領域抽出部162は、予め微細血管を抽出するように機械学習されている。
【0083】
微細血管判定部163は、各オブジェクトの座標情報を参照して、微細血管の候補領域のうち、係蹄部先端のオブジェクトを含む(重なっている)候補領域を、微細血管の領域と特定する。
【0084】
なお、第1の実施形態において説明した第2領域抽出部15または第2の実施形態において説明した第2領域抽出部15Aが、領域抽出部16の構成と同様の構成を有しており、係蹄部先端を抽出し、抽出した係蹄部先端に基づいて微細血管を判定するようにしてもよい。
【0085】
<画像処理装置1Bの処理手順>
図14は、本発明の第3の実施形態に係る画像処理装置1Bの処理手順を説明するためのフローチャートである。まず、画像取得部11が、画像撮影装置2によって撮影された二次元画像を取得する(S21)。
【0086】
次に、前処理部12Bは、画像取得部11によって取得された二次元画像に対して前処理を行い、前処理を行った後の画像を領域抽出部16に出力する(S22)。
【0087】
次に、係蹄部先端抽出部161は、前処理部12Bによって前処理が行われた後の入力画像から、係蹄部先端のオブジェクトを抽出する(S23)。そして、候補領域抽出部162は、二次元画像から体毛の領域を除去した後、微細血管の複数の候補領域を抽出する(S24)。
【0088】
微細血管判定部163は、微細血管の候補領域のうち、係蹄部先端のオブジェクトを含む(重なっている)候補領域を、微細血管の領域と判定する(S25)。最後に、画像識別部14Bは、微細血管判定部163によって微細血管と判定された領域の画像を識別する(S26)。
【0089】
図15は、領域抽出部16によって体毛と判定された領域を示す図である。
図15において、斜線を施した領域が体毛として判定された領域を示している。黒い領域が体毛以外の部分として判定された領域を示している。
【0090】
図16は、画像識別部14Bによって微細血管が識別された後の画像を示す図である。
図16において、斜線を施した領域が微細血管として判定された領域を示している。
図16に示すように、微細血管と判定された領域が、それ以外の体毛を含む領域と識別可能となっている。
【0091】
<画像処理装置1Bの効果>
以上説明したように、本実施形態に係る画像処理装置1Bによれば、領域抽出部16が、前処理部12Bによって前処理された後の画像から体毛の領域を除去した後、係蹄部先端に基づいて微細血管を判定する。そして、画像識別部14Bが、領域抽出部16によって微細血管と判定された領域の画像を識別する。したがって、画像識別部14Bは、微細血管を高精度で抽出することができる。
【0092】
また、画像処理装置1Bは、二次元画像を用いて微細血管を抽出するので、画像撮影装置2を含んだ画像処理システムを安価で実現することが可能となる。
【0093】
<ソフトウェアによる実現例>
画像処理装置1、1A、1Bの制御ブロック(特に、前処理部12、第1領域抽出部13、画像識別部14、14A、14B、第2領域抽出部15、15A、領域抽出部16)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、ソフトウェアによって実現してもよい。
【0094】
後者の場合、画像処理装置1、1A、1Bは、各機能を実現するソフトウェアであるプログラムの命令を実行するコンピュータを備えている。このコンピュータは、例えば少なくとも1つのプロセッサを備えていると共に、上記プログラムを記憶したコンピュータ読み取り可能な少なくとも1つの記録媒体を備えている。そして、上記コンピュータにおいて、上記プロセッサが上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記プロセッサとしては、例えばCPU(Central Processing Unit)を用いることができる。上記記録媒体としては、「一時的でない有形の媒体」、例えば、ROM(Read Only Memory)等の他、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムを展開するRAM(Random Access Memory)などをさらに備えていてもよい。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明の一態様は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
【0095】
〔まとめ〕
本発明の態様1に係る画像処理装置は、
二次元画像から体毛の領域を抽出する第1領域抽出部と、
前記二次元画像から、前記第1領域抽出部によって抽出された前記体毛の領域を識別する画像識別部と、
前記画像識別部によって前記体毛の領域が識別された画像から、細静脈または細動脈の領域を抽出する第2領域抽出部と、を備える。
【0096】
上記構成によれば、第2領域抽出部が、画像識別部によって体毛の領域が識別された後の画像から、細静脈または細動脈の領域を抽出するので、細静脈または細動脈を高精度で抽出することができる。
【0097】
本発明の態様2に係る画像処理装置は、
二次元画像から体毛の領域を抽出する第1領域抽出部と、
前記二次元画像から、細静脈または細動脈の領域を抽出する第2領域抽出部と、
前記第2領域抽出部によって抽出された前記細静脈または前記細動脈の領域の画像から、前記第1領域抽出部によって抽出された前記体毛の領域ではない前記細静脈または前記細動脈の領域を識別する画像識別部と、を備える。
【0098】
上記構成によれば、画像識別部が、第2領域抽出部によって抽出された細静脈または細動脈の領域の画像から、第1領域抽出部によって抽出された体毛の領域の画像を識別するので、細静脈または細動脈を高精度で抽出することができる。
【0099】
本発明の態様3に係る画像処理装置は、態様1または2に記載の画像処理装置であって、
前記第2領域抽出部は、係蹄部先端を抽出し、当該係蹄部先端に基づいて、前記細静脈または前記細動脈の領域を判定する。
【0100】
上記構成によれば、第2領域抽出部が、細静脈または細動脈をさらに高精度で抽出することができる。
【0101】
本発明の態様4に係る画像処理装置は、態様1または2に記載の画像処理装置であって、
前記第1領域抽出部は、機械学習によって、前記二次元画像から前記体毛の領域を抽出するように学習されており、
前記第2領域抽出部は、機械学習によって、前記二次元画像から前記細静脈または前記細動脈の領域を抽出するように学習されている。
【0102】
上記構成によれば、第1領域抽出部および第2領域抽出部の学習精度を上げることによって、さらに細静脈または細動脈を高精度で抽出することができる。
【0103】
本発明の態様5に係る画像処理装置は、
二次元画像から、係蹄部先端を抽出する係蹄部先端抽出部と、
前記二次元画像から、細静脈または細動脈の候補領域を抽出する候補領域抽出部と、
前記係蹄部先端抽出部によって抽出された前記係蹄部先端と前記候補領域とに基づいて、前記細静脈または前記細動脈の領域を判定する微細血管判定部と、を備える。
【0104】
上記構成によれば、微細血管判定部が、係蹄部先端抽出部によって抽出された係蹄部先端と候補領域とに基づいて、細静脈または細動脈の領域を判定するので、細静脈または細動脈を高精度で抽出することができる。
【0105】
本発明の態様6に係る画像処理装置は、態様5に記載の画像処理装置であって、
前記微細血管判定部は、前記係蹄部先端抽出部によって抽出された係蹄部先端を含む前記候補領域を前記細静脈または前記細動脈の領域と判定する。
【0106】
上記構成によれば、さらに毛細血管を高精度で抽出することができる。
【0107】
本発明の態様7に係る画像処理方法は、
二次元画像から体毛の領域を抽出し、
前記二次元画像から、抽出された前記体毛の領域を識別し、
前記体毛の領域が識別された画像から、細静脈または細動脈の領域を抽出する。
【0108】
上記構成によれば、体毛の領域が識別された後の画像から、細静脈または細動脈の領域を抽出するので、細静脈または細動脈を高精度で抽出することができる。
【0109】
本発明の態様8に係る画像処理方法は、
二次元画像から体毛の領域を抽出し、
前記二次元画像から、細静脈または細動脈の領域を抽出し、
抽出された前記細静脈または前記細動脈の領域の画像から、抽出された前記体毛の領域ではない前記細静脈または前記細動脈の領域を識別する。
【0110】
上記構成によれば、抽出された細静脈または細動脈の領域の画像から、抽出された体毛の領域の画像を識別するので、細静脈または細動脈を高精度で抽出することができる。
【0111】
本発明の態様9に係る画像処理方法は、
二次元画像から、係蹄部先端を抽出し、
前記二次元画像から、細静脈または細動脈の候補領域を抽出し、
抽出された前記係蹄部先端と前記候補領域とに基づいて、前記細静脈または前記細動脈の領域を判定する。
【0112】
上記構成によれば、抽出された係蹄部先端と候補領域とに基づいて、細静脈または細動脈の領域を判定するので、細静脈または細動脈を高精度で抽出することができる。
【0113】
〔付記事項〕
本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。
【符号の説明】
【0114】
1、1A、1B 画像処理装置
2 画像撮影装置
3 通信ネットワーク
11 画像取得部
12、12B 前処理部
13 第1領域抽出部
14、14A、14B 画像識別部
15、15A 第2領域抽出部
16 領域抽出部
21 カメラ
22 緑色光源
23 スロット
24 採血針
25 ハイドロゲル
100 画像処理システム
161 係蹄部先端抽出部
162 候補領域抽出部
163 微細血管判定部
【手続補正書】
【提出日】2023-05-22
【手続補正1】
【補正対象書類名】特許請求の範囲
【補正対象項目名】全文
【補正方法】変更
【補正の内容】
【特許請求の範囲】
【請求項1】
二次元画像から体毛の領域を抽出する第1領域抽出部と、
前記二次元画像から、前記第1領域抽出部によって抽出された前記体毛の領域を識別する画像識別部と、
前記画像識別部によって前記体毛の領域が識別された画像から、細静脈または細動脈の領域を抽出する第2領域抽出部と、を備え、
前記第2領域抽出部は、係蹄部先端を抽出し、当該係蹄部先端に基づいて、前記細静脈または前記細動脈の領域を判定する、画像処理装置。
【請求項2】
二次元画像から体毛の領域を抽出する第1領域抽出部と、
前記二次元画像から、細静脈または細動脈の領域を抽出する第2領域抽出部と、
前記第2領域抽出部によって抽出された前記細静脈または前記細動脈の領域の画像から、前記第1領域抽出部によって抽出された前記体毛の領域ではない前記細静脈または前記細動脈の領域を識別する画像識別部と、を備える画像処理装置。
【請求項3】
前記第2領域抽出部は、係蹄部先端を抽出し、当該係蹄部先端に基づいて、前記細静脈または前記細動脈の領域を判定する、請求項2に記載の画像処理装置。
【請求項4】
前記第1領域抽出部は、機械学習によって、前記二次元画像から前記体毛の領域を抽出するように学習されており、
前記第2領域抽出部は、機械学習によって、前記二次元画像から前記細静脈または前記細動脈の領域を抽出するように学習されている、請求項1または2に記載の画像処理装置。
【請求項5】
二次元画像から、係蹄部先端を抽出する係蹄部先端抽出部と、
前記二次元画像から、細静脈または細動脈の候補領域を抽出する候補領域抽出部と、
前記係蹄部先端抽出部によって抽出された前記係蹄部先端と前記候補領域とに基づいて、前記細静脈または前記細動脈の領域を判定する微細血管判定部と、を備える画像処理装置。
【請求項6】
前記微細血管判定部は、前記係蹄部先端抽出部によって抽出された係蹄部先端を含む前記候補領域を前記細静脈または前記細動脈の領域と判定する、請求項5に記載の画像処理装置。
【請求項7】
二次元画像から体毛の領域を抽出し、
前記二次元画像から、抽出された前記体毛の領域を識別し、
前記体毛の領域が識別された画像から、細静脈または細動脈の領域を抽出し、
前記細静脈または前記細動脈の領域を抽出する工程において、係蹄部先端を抽出し、当該係蹄部先端に基づいて、前記細静脈または前記細動脈の領域を判定する、画像処理方法。
【請求項8】
二次元画像から体毛の領域を抽出し、
前記二次元画像から、細静脈または細動脈の領域を抽出し、
抽出された前記細静脈または前記細動脈の領域の画像から、抽出された前記体毛の領域ではない前記細静脈または前記細動脈の領域を識別する、画像処理方法。
【請求項9】
二次元画像から、係蹄部先端を抽出し、
前記二次元画像から、細静脈または細動脈の候補領域を抽出し、
抽出された前記係蹄部先端と前記候補領域とに基づいて、前記細静脈または前記細動脈の領域を判定する、画像処理方法。