IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 株式会社シンクアウトの特許一覧

特許7491552手術用覆布、機械学習装置及び識別システム
<>
  • 特許-手術用覆布、機械学習装置及び識別システム 図1
  • 特許-手術用覆布、機械学習装置及び識別システム 図2
  • 特許-手術用覆布、機械学習装置及び識別システム 図3
  • 特許-手術用覆布、機械学習装置及び識別システム 図4
  • 特許-手術用覆布、機械学習装置及び識別システム 図5
  • 特許-手術用覆布、機械学習装置及び識別システム 図6
  • 特許-手術用覆布、機械学習装置及び識別システム 図7
  • 特許-手術用覆布、機械学習装置及び識別システム 図8
  • 特許-手術用覆布、機械学習装置及び識別システム 図9
  • 特許-手術用覆布、機械学習装置及び識別システム 図10
  • 特許-手術用覆布、機械学習装置及び識別システム 図11
  • 特許-手術用覆布、機械学習装置及び識別システム 図12
  • 特許-手術用覆布、機械学習装置及び識別システム 図13
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-05-20
(45)【発行日】2024-05-28
(54)【発明の名称】手術用覆布、機械学習装置及び識別システム
(51)【国際特許分類】
   A61B 46/20 20160101AFI20240521BHJP
   A61B 34/10 20160101ALI20240521BHJP
【FI】
A61B46/20
A61B34/10
【請求項の数】 7
(21)【出願番号】P 2020084476
(22)【出願日】2020-05-13
(65)【公開番号】P2021177963
(43)【公開日】2021-11-18
【審査請求日】2023-02-09
(73)【特許権者】
【識別番号】518148973
【氏名又は名称】株式会社シンクアウト
(74)【代理人】
【識別番号】110000154
【氏名又は名称】弁理士法人はるか国際特許事務所
(72)【発明者】
【氏名】升本 浩紀
(72)【発明者】
【氏名】田淵 仁志
【審査官】近藤 裕之
(56)【参考文献】
【文献】特開2003-230571(JP,A)
【文献】特開2008-167943(JP,A)
【文献】特開2011-246862(JP,A)
【文献】特開2003-325544(JP,A)
【文献】米国特許第10265133(US,B1)
【文献】右眼と左眼を見分けるAIが実臨床で運用されるまで-眼科医・升本浩紀が語る「医療AI応用までの道のり」(3),2019年10月13日
(58)【調査した分野】(Int.Cl.,DB名)
A61B 46/00
A61B 46/20
A61B 34/00-34/10
(57)【特許請求の範囲】
【請求項1】
患者を覆ったときに、患者の右目または左目の位置に配置される開口と、前記開口をまたいで、手術時に排出される液体を受ける受水袋の反対側に少なくとも一部が表示され、前記受水袋の位置から前記開口側に延伸する直線に直交する方向のうち、一方側と他方側とを識別する図形と、を有する手術用覆布により患者が覆われた状態で撮像された画像と、該画像に対して前記開口が右目に位置するか左目に位置するかを表す情報と、を含む学習データを用いて、学習が実行済みであるニューラルネットワークモデルを有し、
前記図形は、前記直交する方向に延伸して設けられた境界線により分離された領域に異なる色が付された図形であり、
前記画像を入力とし、前記開口が右目に位置するか左目に位置するかを表す識別結果を出力することを特徴とする機械学習装置。
【請求項2】
患者を覆ったときに、患者の右目または左目の位置に配置される開口と、前記開口をまたいで、手術時に排出される液体を受ける受水袋の反対側に少なくとも一部が表示され、前記受水袋の位置から前記開口側に延伸する直線に直交する方向のうち、一方側と他方側とを識別する図形と、を有する手術用覆布により患者が覆われた状態で撮像された画像と、該画像に対して前記開口が右目に位置するか左目に位置するかを表す情報と、を含む学習データを用いて、学習が実行済みであるニューラルネットワークモデルを有し、
前記図形は、前記開口の近傍に設けられ、前記直交する方向のうち、一方側または他方側を指し示す矢印状の図形であり、
前記画像を入力とし、前記開口が右目に位置するか左目に位置するかを表す識別結果を出力することを特徴とする機械学習装置。
【請求項3】
請求項1又は2に記載の機械学習装置と、
患者に付された識別票に基づいて、手術対象が右目か左目のいずれであるかを識別する識別部と、
前記識別部が識別した手術対象と、前記機械学習装置による識別結果と、が対応するか否かを表示する表示部と、
を有することを特徴とする識別システム。
【請求項4】
さらに、前記手術用覆布を有することを特徴とする請求項3に記載の識別システム。
【請求項5】
さらに、前記識別部が識別した手術対象と、前記機械学習装置による識別結果と、が対応しない場合に警告を発する警告部を有することを特徴とする請求項3または4に記載の識別システム。
【請求項6】
ニューラルネットワークモデルを有する識別システムによる識別方法であって、
前記識別システムが、手術用覆布により患者が覆われた状態で撮像された画像を取得するステップと、
前記識別システムが、開口が右目に位置するか左目に位置するかを表す識別結果を出力するステップと、
を含み、
前記ニューラルネットワークモデルは、前記手術用覆布により患者が覆われた状態で撮像された画像と、該画像に対して前記開口が右目に位置するか左目に位置するかを表す情報と、を含む学習データを用いて、学習が実行済みであり、
前記手術用覆布は、患者を覆ったときに、患者の右目または左目の位置に配置される前記開口と、前記開口をまたいで、手術時に排出される液体を受ける受水袋の反対側に少なくとも一部が表示され、前記受水袋の位置から前記開口側に延伸する直線に直交する方向のうち、一方側と他方側とを識別する図形と、を有し、
前記図形は、前記直交する方向に延伸して設けられた境界線により分離された領域に異なる色が付された図形である、
ことを特徴とする識別方法。
【請求項7】
ニューラルネットワークモデルを有する識別システムによる識別方法であって、
前記識別システムが、手術用覆布により患者が覆われた状態で撮像された画像を取得するステップと、
前記識別システムが、開口が右目に位置するか左目に位置するかを表す識別結果を出力するステップと、
を含み、
前記ニューラルネットワークモデルは、前記手術用覆布により患者が覆われた状態で撮像された画像と、該画像に対して前記開口が右目に位置するか左目に位置するかを表す情報と、を含む学習データを用いて、学習が実行済みであり、
前記手術用覆布は、患者を覆ったときに、患者の右目または左目の位置に配置される前記開口と、前記開口をまたいで、手術時に排出される液体を受ける受水袋の反対側に少なくとも一部が表示され、前記受水袋の位置から前記開口側に延伸する直線に直交する方向のうち、一方側と他方側とを識別する図形と、を有し、
前記図形は、前記開口の近傍に設けられ、前記直交する方向のうち、一方側または他方側を指し示す矢印状の図形である、
ことを特徴とする識別方法。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、手術用覆布、機械学習装置及び識別システムに関する。
【背景技術】
【0002】
従来から、手術を行う際、手術を行う部位以外を覆うために、手術用覆布が用いられている。例えば、下記特許文献1は、手術時に生じる血液、体液、生理食塩水等の液体を受けるための受水袋が設けられた医療用ドレープを開示している。
【先行技術文献】
【特許文献】
【0003】
【文献】特開2004-159977号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
手術用覆布は手術を行うための開口が設けられており、手術用覆布は、患者を覆ったときに手術を行う部位に開口が位置するように配置される。手術を行う患部が眼球である場合、手術用覆布は患者の上半身または全身を覆うように配置される。この時、眼球は全身に比して小さいため、手術用覆布に設けられた開口が手術対象である右目と左目の位置を取り違えて配置されるというヒューマンエラーが起こる可能性がある。
【0005】
本開示は、上記実情に鑑みてなされたものであり、その目的は、手術用覆布に設けられた開口が手術対象である右目と左目の位置を取り違えて配置されるヒューマンエラーの発生を防止するための手術用覆布、機械学習装置及び識別システムを提供することにある。
【課題を解決するための手段】
【0006】
上記課題を解決するために、本開示に係る手術用覆布は、手術時に患者を覆う手術用覆布であって、患者を覆ったときに、患者の右目または左目の位置に配置される開口と、前記開口をまたいで、手術時に排出される液体を受ける受水袋の反対側に少なくとも一部が表示され、前記受水袋の位置から前記開口側に延伸する直線に直交する方向のうち、一方側と他方側とを識別する図形と、を有することを特徴とする。
【0007】
また、本開示に係る機械学習装置は、上記手術用覆布により患者が覆われた状態で撮像された画像と、該画像に対して前記開口が右目に位置するか左目に位置するかを表す情報と、を含む学習データを用いて、学習が実行済みであるニューラルネットワークモデルを有し、前記画像を入力とし、前記開口が右目に位置するか左目に位置するかを表す識別結果を出力することを特徴とする。
【0008】
また、本開示に係る識別システムは、上記機械学習装置と、患者に付された識別票に基づいて、手術対象が右目か左目のいずれであるかを識別する識別部と、前記識別部が識別した手術対象と、前記機械学習装置による識別結果と、が対応するか否かを表示する表示部と、を有することを特徴とする。
【図面の簡単な説明】
【0009】
図1】本実施形態に係る手術用覆布の一例を示す図である。
図2】本実施形態に係る識別システムの一例を示す図である。
図3】情報処理装置及び端末装置のハードウェア構成の一例を示す図である。
図4】端末装置の機能ブロックの一例を示す図である。
図5】患者データベースに記憶される患者管理情報の一例を示す図である。
図6】識別票の一例を示す図である。
図7】表示デバイスに表示される画像の一例である。
図8】手術用覆布の開口が右目に位置するか左目に位置するか識別する方法を示すフローチャートである。
図9】本実施形態に係る手術用覆布の他の一例を示す図である。
図10】本実施形態に係る手術用覆布の他の一例を示す図である。
図11】本実施形態に係る手術用覆布の他の一例を示す図である。
図12】本実施形態に係る手術用覆布の他の一例を示す図である。
図13】本実施形態に係る手術用覆布の他の一例を示す図である。
【発明を実施するための形態】
【0010】
本開示における実施形態について、図面を用いて以下に説明する。本開示における手術用覆布100は、手術時に患者を覆う手術用覆布100であって、図1に示すように、基布102に設けられた開口104と、受水袋106と、表面に表された図形と、を有する。
【0011】
基布102は、抗菌性や抗ウイルス性を有し、撥水加工が施された不織布またはフィルムである。開口104は、手術を行うために基布102に設けられた穴であり、眼球及びその周囲を手術するときに必要かつ十分な大きさである。手術用覆布100が患者を覆ったときに、患者の右目または左目の位置に開口104が位置するように、手術用覆布100は配置される。開口104の形状は、図1に示すように矩形であってもよいし、円形や楕円形であってもよい。
【0012】
受水袋106は、開口104の側方に設けられ、手術中に生じる液体を内部に受け止める。例えば、受水袋106は、手術用覆布100が患者に被せられた状態で、開口104に対して患者の右手側または左手側に設けられる。例えば図1に示す例では、受水袋106は、開口104の図面上左側に設けられる。受水袋106は、手術時に生じる血液、体液、生理食塩水等の液体が漏れないように、ポリエチレンやナイロン等のシート状の素材で形成される。なお、受水袋106は省略されてもよい。
【0013】
図形は、開口104をまたいで、手術時に排出される液体を受ける受水袋106の反対側に少なくとも一部が表示され、受水袋106の位置から開口104側に延伸する直線に直交する方向のうち、一方側と他方側とを識別するために用いられる図形である。具体的には、例えば、図1に示すように、受水袋106が開口104の右側に設けられている場合、図形は、開口104の右側に上下方向に延伸して設けられた縦線108である。手術用覆布100は、縦線108が患者の正中に位置するように、患者に被せられる。
【0014】
続いて、上記図形を用いて、開口104が右目に位置するか左目に位置するかを識別する機械学習装置、及び、開口104が手術対象の位置にあるか否かを識別する識別システム200について説明する。なお、本実施形態では、端末装置204が機械学習装置として機能する場合について説明する。図2は、識別システム200の全体構成の一例を示す図である。識別システム200は、情報処理装置202と、第1端末装置204Aと、第2端末装置204Bと、ネットワーク206と、を含む。
【0015】
情報処理装置202は、CPU302やメモリ等で構成されるPC(Personal Computer)やサーバであって、ネットワーク206を介して第1端末装置204A及び第2端末装置204Bと接続される。第1端末装置204A及び第2端末装置204Bは、CPU302やメモリ等で構成されるタブレットやスマートフォンであって、ネットワーク206を介して情報処理装置202に対して情報の送受信を行う。なお、図2には、端末装置204として、第1端末装置204Aと第2端末装置204Bが記載されているが、端末装置204は1台であってもよいし、3台以上であってもよい。また、端末装置204は、携帯できない据え付けタイプのものであってもよい。
【0016】
ネットワーク206は、例えば、LAN(Local Area Network)である。LAN回線によって、情報処理装置202と、第1端末装置204Aと、第2端末装置204Bと、は接続される。なお、ネットワーク206は、一定の限定された領域内において、機器間に設置する内部ネットワーク206であってもよいし、インターネットであってもよい。
【0017】
図3は、情報処理装置202、第1端末装置204A及び第2端末装置204Bのハードウェア構成の一例を示す図である。図3には、一般的な組込みシステムが記載されており、プロセッサであるCPU302(Central Processing Unit)、メモリであるRAM304(Random Access Memory)、外部記憶装置306、表示デバイス308、I/O310(Inpur/Output)、撮像デバイス312、及び、入力デバイス314がデータバス316により相互に電気信号のやり取りができるよう接続されている。なお、ここで示した組込みシステムのハードウェア構成は一例であり、これ以外の構成のものであってもよい。
【0018】
外部記憶装置306は、HDD(Hard Disk Drive)やSSD(Solid State Drive)等の静的に情報を記録できる装置である。表示デバイス308は、CRT(Cathode Ray Tube)やいわゆるフラットパネルディスプレイ等であって、画像を表示する。I/O310は、組込みシステムが外部の機器と情報をやり取りするための一又は複数のインタフェースである。I/O310には、有線接続するための各種ポート及び、無線接続のためのコントローラが含まれていてよい。撮像デバイス312は、レンズとイメージセンサを含み、撮像を行うデバイスである。入力デバイス314は、キーボードやマウス、タッチパネル等の、ユーザが情報を入力するための一又は複数の機器である。
【0019】
なお、図3は一般的な組込みシステムの一例であって、情報処理装置202、第1端末装置204A及び第2端末装置204Bは、図3に示す各部の一部が省略されてもよい。例えば、情報処理装置202は、撮像デバイス312を有しない構成であってもよい。
【0020】
情報処理装置202と端末装置204の少なくとも一方は、機械学習装置として機能する。情報処理装置202または端末装置204を機械学習装置として機能させるためのプログラムは、外部記憶装置306に記憶され、必要に応じてRAM304に読みだされてCPU302により実行される。すなわち、RAM304には、CPU302により実行されることにより、図4に示す機能ブロックとして示した各種機能を実現させるためのコードが記憶される。当該プログラムは、光ディスク、光磁気ディスク、フラッシュメモリ等のコンピュータが読み込むことができる情報記録媒体に記録されて提供されても、I/O310を介して外部のインターネット等の情報通信回線を介して提供されてもよい。
【0021】
図4は、端末装置204の機能ブロックを示す図である。各端末装置204は、学習データ取得部402と、第1識別部404とパラメータ記憶部406とパラメータ更新部408を含む学習部410と、患者データベース414と、第2識別部412と、表示部416と、警告部418とを含む。
【0022】
学習データ取得部402は、手術用覆布100により患者が覆われた状態で撮像された画像(図7参照)と、該画像に対して開口104が右目に位置するか左目に位置するかを表す情報と、を含む学習データを取得する。具体的には、撮像デバイス312は、右目または左目に開口104が位置し、縦線108が患者の正中に位置するように手術用覆布100が被せられた患者の画像を撮像する。このように取得された画像を、以下、患者画像とする。学習データ取得部402は、各患者画像とともに、当該患者画像を取得する際に開口104が位置する眼球が右目であるか左目であるかを識別する情報をあわせて学習データとして取得する。例えば、ユーザがI/O310に識別する情報を入力することによって、学習データ取得部402は、識別する情報を取得する。
【0023】
学習部410は、学習データに基づいて、患者画像を入力とし、識別結果を出力とするニューラルネットワークである、ニューラルネットワークモデルを学習させる。学習が実行された学習部410は、患者画像を入力とし、開口104が右目に位置するか左目に位置するかを表す識別結果を出力する。
【0024】
具体的には、第1識別部404は、患者画像が入力されると、パラメータ記憶部406に記憶されたパラメータを用いて、開口104が右目に位置するか左目に位置するかを表す識別結果を出力する。パラメータ記憶部406は、例えばニューラルネットワークがCNNである場合、CNNの各ノード間の重み係数などのパラメータを記憶する。パラメータ更新部408は、1個の学習データを用いて学習を実行するごとに、パラメータ記憶部406に記憶されたパラメータを更新する。
【0025】
学習部410における学習は、例えば、以下のように実行される。まず、ニューラルネットワークには、学習データ取得部402が取得したn個の学習データが入力される。ここで、nは学習に十分な数であって適宜設定される。また、ニューラルネットワークは、学習データi(iは1からnの整数)が入力されて、スコアを算出する。
【0026】
ここで、スコアは、入力された患者画像に表された開口104が右目(または左目)に配置されている確率を表す値であって、例えば、CNNの出力値である。そして、患者画像iと関連付けて取得された、開口104が位置する眼球が右目であるか左目であるかを識別する情報iと、スコアiとの比較結果(以下、誤差)が特定される。誤差は、例えば0以上1以下の値をとるデータであって、比較した結果が一致している場合に値として1をとり、一致しない場合に値として0をとるデータである。
【0027】
さらに、当該誤差に基づいて、パラメータ更新部408は、例えば誤差逆伝搬法により、CNNの各ノード間の重み係数を更新する。ニューラルネットワークは、iを1からnまで変化させて、学習データが入力される毎に重み係数の更新を繰り返し実行する。これにより、学習部410の学習が実行される。学習が繰り返し実行され、それ以上学習を実行しても識別精度が向上しない場合には、当該状態におけるパラメータが、固定の値としてパラメータ記憶部406に記憶される。
【0028】
患者データベース414は、手術対象である患者に関する各情報を記憶するデータベースである。具体的には、患者データベース414は、図5に示すような、各患者を識別する患者管理IDと、手術の対象が右目であるか左目であるかを表す手術対象と、手術の日時及び手術室と、が関連付けられた患者管理情報を記憶する。患者管理IDは、各患者に固有の値が設定され、手術対象は、右目、左目または両目のいずれかの値が設定される。患者管理情報には、各患者と関連付けられた他の情報が含まれてもよい。なお、患者データベース414は、情報処理装置202に含まれる構成としてもよい。
【0029】
第2識別部412は、患者に付された識別票に基づいて、手術対象が右目か左目のいずれであるかを識別する。具体的には、例えば、撮像デバイス312は、図6(a)またはず6(b)に示す識別票に記載された2次元バーコードを撮像する。2次元バーコードには、例えば、手術対象である患者の患者管理IDに関する情報が含まれる。識別票が撮像された画像は、以下識別画像とする。第2識別部412は、患者データベース414に記憶された患者管理情報を参照し、識別画像に表された2次元バーコードに含まれる患者管理IDに基づいて、手術対象が右目であるか左目であるか両目であるかを識別する。
【0030】
なお、識別票は、2次元バーコード以外の情報が記載されていてもよい。識別票は、ユーザが認識できる文字で、手術の対象が右目であるか左目であるかを表す情報が記載されていてもよい。例えば、図6(a)に示すように、手術対象が右目であることを表す「R」の文字や、図6(b)に示すように、手術対象が左目であることを表す「L」の文字が記載されていてもよい。また、識別票の患者管理IDを含む記載は、2次元バーコードでなくてもよい。例えば、識別票に基づいて端末装置204が患者管理IDを表す情報を取得できればよく、識別票は、2次元バーコードに代えて1次元バーコードやURLなどが記載されていてもよいし、非接触型のICチップであってもよい。
【0031】
表示部416は、第2識別部412が識別した手術対象と、機械学習装置による識別結果と、が対応するか否かを表示する。具体的には、第2識別部412が識別した手術対象が左目であり、機械学習装置による識別結果が左目である場合、表示部416は、図7に示すように左目を表す「L」の文字を表示する。表示部416の機能は、表示デバイス308によって実現される。
【0032】
また、表示部416は、撮像デバイス312で撮像している患者画像をあわせて表示する。当該患者画像が表示される領域には、患者の正中を表す仮想的な線が表示される。当該正中を表す仮想的な線が手術用覆布100に記載された縦線108と一致するように、端末装置204は配置される。当該配置により、第1識別部404による識別の精度を向上することができる。
【0033】
警告部418は、第2識別部412が識別した手術対象と、機械学習装置による識別結果と、が対応しない場合に警告を発する。具体的には、警告部418は、第2識別部412が識別した手術対象と、機械学習装置による識別結果と、が異なるときに、表示部416に手術対象と識別結果が異なる旨を表示させる。これにより、ユーザは、手術用覆布100の配置される位置や向きが異なっていることを認識できる。また、警告部418は、第2識別部412が識別した手術対象と、機械学習装置による識別結果と、が異なるときに、警告音を発してもよい。
【0034】
次に、識別システム200を用いて、手術用覆布100の開口104が右目に位置するか左目に位置するか識別する方法について、図8に示すフローチャートを用いて説明する。まず、患者の身体の一部に、図6(a)または図6(b)に示す識別票が付される(S802)。例えば、右目が手術対象である患者の右肩に図6(a)に示す識別票が付され、左目が手術対象である患者の左肩に図6(b)に示す識別票が付され、両目が手術対象である患者の両肩に図6(a)及び図6(b)に示す識別票が付される。S802のステップは、患者の個室等の手術室以外の場所で行われる。
【0035】
次に、第2識別部412は、患者に付された識別票に基づいて、手術対象が右目か左目のいずれであるかを識別する(S804)。例えば、撮像デバイス312は、手術室に移動した患者の右肩及び/または左肩に付された識別票の2次元バーコードを撮像し、識別画像を取得する。識別画像に表された2次元バーコードに含まれる患者管理IDが2である場合、第2識別部412は、図5に示す患者管理情報を参照し、患者管理IDが2である患者の手術対象が左目であると識別する。
【0036】
次に、手術用覆布100が患者に被せられる(S806)。具体的には、図7に示すように、手術対象である右目または左目の位置に手術用覆布100の開口104が位置するように、かつ、縦線108が患者の正中に位置するように、手術台に横たわった患者に手術用覆布100が被せられる。このとき、ユーザは、識別票に記載された「R」または「L」の文字を視認することによって手術対象が右目であるか左目であるかを認識し、認識した右目または左目の位置に開口104が位置するように、手術用覆布100を被せる。ここで、ユーザは手術用覆布100の向きや開口104の位置に過誤がないように注意を払うものの、手術用覆布100を被せる行為は人為的な行為であるため、ヒューマンエラーが生じるリスクがある。
【0037】
次に、第1識別部404は、開口104が右目に位置するか左目に位置するかを識別する(S808)。具体的には、撮像デバイス312が撮像した患者画像は端末装置204の表示装置にリアルタイムで表示される。ユーザは、表示された患者画像を確認しながら、表示部416に表示される患者の正中を表す仮想的な線が、手術用覆布100に記載された縦線108と一致するように端末装置204を固定する。固定された状態で撮像された患者画像に基づいて、第1識別部404は、開口104が右目に位置するか左目に位置するかを識別する。
【0038】
次に、表示部416は、第2識別部412が識別した手術対象と、機械学習装置による識別結果と、が対応するか否かを表示する(S810)。具体的には、第2識別部412が識別した手術対象が左目であり、機械学習装置による識別結果が左目である場合、表示部416は、図7に示すように左目を表す「L」の文字を表示する。手術対象と識別結果が異なるときには、警告部418は、表示部416に手術対象と識別結果が異なる旨を表示させる。
【0039】
以上のように、ユーザは、手術用覆布100の開口104が手術対象の位置に対応して配置されているかどうか、識別システム200による支援を受けることができる。これにより、医療過誤が生じるリスクを予め軽減することができる。
【0040】
〔変形例〕
上記においては、識別に用いられる図形として縦線108が記載されている手術用覆布100について説明した。しかし、図形の形状はこれに限られない。例えば、手術用覆布100は、図9(a)乃至図13に示す図形が記載されていてもよい。
【0041】
具体的には、図9(a)に示すように、図形は、上記縦線108に加えて、縦線108で分けられる2個の領域のうち開口104側の領域に、受水袋106の位置から開口104側に延伸する方向に横線902を有してもよい。また、図9(b)に示すように、横線902は、縦線108に対して斜めに記載された斜め線904であってもよい。
【0042】
また、図形は、上記縦線108に加えて、開口104の縁に設けられたマーカ1002であってもよい。例えば、図形は、矩形状の開口104の4隅の1か所に記載された円形状の印であってもよい。図10(a)に示す例では、マーカ1002は、図面上開口104の左下の隅に設けられた円形状の印である。図10(b)に示す例では、マーカ1002は、図面上開口104の右上の隅に設けられた円形状の印である。図11(a)に示す例では、図形は斜め線904を有し、さらに、図面上開口104の右上の隅及び左上の隅に円形状の印を有する。図11(b)に示す例では、マーカ1002は、開口104の上側の辺及び右側の辺に沿った線である。マーカ1002は、縦線108と同じ色で記載されてもよいし、異なる色で記載されてもよい。また、マーカ1002が2か所以上に記載される場合には、各マーカ1002は異なる色で記載されてもよい。
【0043】
また、図形は、直交する方向に延伸して設けられた境界線により分離された領域に異なる色が付された図形であってもよい。具体的には、図12(a)に示すように、矩形状の手術用覆布100の上下方向と左右方向をそれぞれ2個の領域(合計4個の領域)に区分し、各領域にそれぞれ異なる色が付されてもよい。この場合、左右方向の境界線が患者の正中に位置するように手術用覆布100が被せられる。また、図12(b)に示すように、当該4個の領域は、矩形状の開口104の左上の隅より左上側、右上の隅より右上側、左下の隅より左下側、右下の隅より右下側に設けられてもよい。この場合、右上及び右下の領域の左端部が患者の正中に位置するように手術用覆布100が被せられる。
【0044】
また、図形は、開口104の近傍に設けられ、直交する方向のうち、一方側または他方側を指し示す矢印状の図形であってもよい。例えば、図12に示すように、図形は、開口104の右側付近に記載された矢印状の図形であってもよい。矢印1302は、上記実施形態の縦線108と同じ位置に記載され、矢印1302が患者の正中に位置し、矢印1302の先端が患者の頭の方向に位置するように手術用覆布100が被せられる。
【0045】
以上のような変形例によれば、縦線108だけでなく縦線108以外の構成を用いることにより、上記識別をより高精度に行うことができる。
【0046】
本発明は、上記の実施例または変形例に限定されるものではなく、種々の変形が可能である。上記構成や方法は一例であって、これに限定されるものではない。上記の実施例で示した構成と実質的に同一の構成、同一の作用効果を奏する構成または同一の目的を達成する構成で置き換えてもよい。例えば、学習部410が端末装置204に含まれる構成について説明したが、学習部410は情報処理装置202に含まれていてもよい。また、識別システム200が患者データベース414を有しない構成であってもよい。この場合には、識別票に記載された2次元バーコードには、患者管理IDを表す情報ではなく、手術対象を表す情報が含まれていてもよい。
【0047】
また、撮像デバイス312は、端末装置204の外部に配置されてもよい。具体的には、例えば、表示デバイス312は手術室の天井に据え付けられてもよい。この場合、端末装置204は、表示デバイス312が撮像した画像を、ネットワークを介して取得してもよい。
【符号の説明】
【0048】
100 手術用覆布、102 基布、104 開口、106 受水袋、108 縦線、200 識別システム、202 情報処理装置、204 端末装置、206 ネットワーク、302 CPU、304 RAM、306 外部記憶装置、308 表示デバイス、310 I/O、312 撮像デバイス、314 入力デバイス、316 データバス、402 学習データ取得部、404 第1識別部、406 パラメータ記憶部、408 パラメータ更新部、410 学習部、412 第2識別部、414 患者データベース、416 表示部、418 警告部、902 横線、904 斜め線、1002 マーカ、1302 矢印。

図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13