IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ ビュノ インコーポレイテッドの特許一覧 ▶ ソウル ナショナル ユニバーシティ ホスピタルの特許一覧

特許7178672被検体に対する眼底映像の読取を支援する方法及びそれを利用した装置
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2022-11-17
(45)【発行日】2022-11-28
(54)【発明の名称】被検体に対する眼底映像の読取を支援する方法及びそれを利用した装置
(51)【国際特許分類】
   A61B 3/14 20060101AFI20221118BHJP
   G06N 3/02 20060101ALI20221118BHJP
   G16H 50/20 20180101ALI20221118BHJP
【FI】
A61B3/14
G06N3/02
G16H50/20
【請求項の数】 15
(21)【出願番号】P 2020523359
(86)(22)【出願日】2018-07-18
(65)【公表番号】
(43)【公表日】2021-01-07
(86)【国際出願番号】 KR2018008099
(87)【国際公開番号】W WO2019083129
(87)【国際公開日】2019-05-02
【審査請求日】2021-05-25
(31)【優先権主張番号】10-2017-0141129
(32)【優先日】2017-10-27
(33)【優先権主張国・地域又は機関】KR
(31)【優先権主張番号】10-2017-0141130
(32)【優先日】2017-10-27
(33)【優先権主張国・地域又は機関】KR
(73)【特許権者】
【識別番号】520047532
【氏名又は名称】ビュノ インコーポレイテッド
【氏名又は名称原語表記】VUNO, INC.
(73)【特許権者】
【識別番号】504314133
【氏名又は名称】ソウル ナショナル ユニバーシティ ホスピタル
(74)【代理人】
【識別番号】100121728
【弁理士】
【氏名又は名称】井関 勝守
(74)【代理人】
【識別番号】100165803
【弁理士】
【氏名又は名称】金子 修平
(74)【代理人】
【識別番号】100170900
【弁理士】
【氏名又は名称】大西 渉
(72)【発明者】
【氏名】バク サンジュン
(72)【発明者】
【氏名】シン ジュヨン
(72)【発明者】
【氏名】ソン ジェミン
(72)【発明者】
【氏名】ギム サングン
(72)【発明者】
【氏名】ジョン ギュファン
(72)【発明者】
【氏名】ギム ヒョンジュン
【審査官】高松 大
(56)【参考文献】
【文献】特表2011-520503(JP,A)
【文献】特開2002-330951(JP,A)
【文献】特開2013-069076(JP,A)
【文献】特開2014-104275(JP,A)
【文献】特開平09-313447(JP,A)
【文献】特開平07-136121(JP,A)
【文献】米国特許第05868134(US,A)
【文献】特表2013-501553(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
A61B 3/14
G06N 3/02
G16H 50/20
(57)【特許請求の範囲】
【請求項1】
コンピューティング装置によって行われる方法であって、
(a)被検体の眼底映像を獲得することと、
(b)機械学習モデル(machine learning model)に基づいて前記眼底映像から区画区分情報を含む属性情報を生成することと、
(c)前記属性情報を外部エンティティ(entity)に提供することと、を含み、
前記区画区分情報は、前記眼底映像内の眼底の構造的特性に応じた個別区画を示すために用いられ、
前記属性情報は、黄斑の中心位置及び視神経乳頭の中心位置における位置情報をさらに含み、
前記個別区画は、前記眼底映像に関する黄斑領域及び視神経乳頭領域を含み、
前記黄斑領域及び前記視神経領域は、前記黄斑の中心位置と前記視神経乳頭の中心位置との間の第1距離に基づいて特定される、方法。
【請求項2】
前記区画区分情報は、前記眼底映像内の眼底の構造的特性に応じた少なくとも3つの個別区画を示すために用いられる、請求項1に記載の方法。
【請求項3】
前記眼底の前記個別区画は、少なくとも黄斑領域、視神経乳頭上側領域、視神経乳頭下側領域、外側(temporal)領域、上外側(superotemporal)領域、下外側(inferotemporal)領域、上鼻側(superonasal)領域、及び下鼻側(inferonasal)領域を含み、
前記視神経乳頭領域は、前記視神経乳頭上側領域と前記視神経乳頭下側領域に分割される、請求項1又は2に記載の方法。
【請求項4】
前記区画区分情報は、前記機械学習モデルを用いて前記眼底映像から特定された(i)黄斑の中心位置、及び(ii)視神経乳頭の中心位置に基づいて、前記眼底映像から生成される、請求項1~3のいずれか1項に記載の方法。
【請求項5】
前記区画区分情報は、
前記第1距離の長さ以下の半径を有する黄斑の中心円、
前記第1距離の長さ以下の半径を有する視神経乳頭の中心円、
前記黄斑の中心位置と前記視神経乳頭の中心位置とを通る第1直線の少なくとも一部、
前記第1直線に垂直に視神経乳頭の中心位置を通る第2直線の少なくとも一部、及び、
前記第1直線に平行で且つ前記黄斑の中心円に接する第3直線の少なくとも一部
のいずれかの組み合わせに基づいて、前記眼底映像から生成される、請求項1~4のいずれか1項に記載の方法。
【請求項6】
前記属性情報はさらに、
前記眼底映像が左眼の映像であるのか右眼の映像であるのかを示す両眼区分情報
記眼底映像に含まれた視神経血管の映像を分離して示す血管情報、及び、
前記眼底映像によるC/D比(cup-to-disk ratio)の情報
のうちの少なくとも一つを含む、請求項1~5のいずれか1項に記載の方法。
【請求項7】
前記生成された情報に基づいて前記外部エンティティに前記属性情報を提供することをさらに含む、請求項1~6のいずれか1項に記載の方法。
【請求項8】
請求項1~7のいずれか1項に記載の方法をコンピューティング装置に行わせるように構成された命令語(instructions)を含む、機械読取可能な記録媒体に記録された、コンピュータプログラム。
【請求項9】
機械学習モデルに基づいた処理に使用するためのコンピューティング装置であって、
通信部と、
前記通信部を制御するように構成されたプロセッサと、を含み、
前記プロセッサは、
(a)被検体の眼底映像を得る、
(b)機械学習モデルに基づいて前記眼底映像から区画区分情報を含む属性情報を生成する、及び、
(c)前記属性情報を外部エンティティに提供する、ようにさらに構成され、
前記区画区分情報は、前記眼底映像内の眼底の構造的特性に応じた個別区画を示すために用いられ、
前記属性情報は、黄斑の中心位置及び視神経乳頭の中心位置における位置情報をさらに含み、
前記個別区画は、前記眼底映像に関する黄斑領域及び視神経乳頭領域を含み、
前記黄斑領域及び前記視神経領域は、前記黄斑の中心位置と前記視神経乳頭の中心位置との間の第1距離に基づいて特定される、コンピューティング装置。
【請求項10】
前記区画区分情報は、前記眼底映像内の眼底の構造的特性に応じた少なくとも3つの個別区画を示すために用いられる、請求項9に記載のコンピューティング装置。
【請求項11】
前記眼底の前記個別区画は、少なくとも黄斑領域、視神経乳頭上側領域、視神経乳頭下側領域、外側(temporal)領域、上外側(superotemporal)領域、下外側(inferotemporal)領域、上鼻側(superonasal)領域、及び下鼻側(inferonasal)領域を含み、
前記視神経乳頭領域は、前記視神経乳頭上側領域と前記視神経乳頭下側領域に分割される、請求項9又は10に記載のコンピューティング装置。
【請求項12】
前記区画区分情報は、前記機械学習モデルを用いて前記眼底映像から特定された(i)黄斑の中心位置、及び(ii)視神経乳頭の中心位置に基づいて、前記眼底映像から生成される、請求項9~11のいずれか1項に記載のコンピューティング装置。
【請求項13】
前記区画区分情報は、
前記第1距離の長さ以下の半径を有する黄斑の中心円、
前記第1距離以下の半径を有する視神経乳頭の中心円、
前記黄斑の中心位置と前記視神経乳頭の中心位置とを通る第1直線の少なくとも一部、
前記第1直線に垂直に視神経乳頭の中心位置を通る第2直線の少なくとも一部、及び、
前記第1直線に平行で且つ前記黄斑の中心円に接する第3直線の少なくとも一部
のいずれかの組み合わせに基づいて、前記眼底映像から生成される、請求項9~12のいずれか1項に記載のコンピューティング装置。
【請求項14】
前記属性情報はさらに、
前記眼底映像が左眼の映像であるのか右眼の映像であるのかを示す両眼区分情報
記眼底映像に含まれた視神経血管の映像を分離して示す血管情報、及び、
前記眼底映像によるC/D比(cup-to-disk ratio)の情報
のうちの少なくとも一つを含む、請求項9~13のいずれか1項に記載のコンピューティング装置。
【請求項15】
前記プロセッサは、前記生成された情報に基づいて前記外部エンティティに前記属性情報を提供するようにさらに構成されている、請求項9~14のいずれか1項に記載のコンピューティング装置。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、被検体に対する眼底映像の読取を支援する方法及びそれを利用したコンピューティング装置に関する。詳しくは、本発明によるコンピューティング装置は、前記被検体の眼底映像を獲得し、前記眼底映像の属性情報を抽出するための機械学習モデルに基づいて前記眼底映像から前記属性情報を抽出し、抽出された前記属性情報を外部エンティティ(entity)に提供する。また、本発明によるコンピューティング装置は、前記抽出された属性情報に関する評価情報または属性情報の修正情報が獲得されたら、それに基づいて前記機械学習モデルを更新することもできる。
【背景技術】
【0002】
眼底映像は、網膜、視神経、黄斑部の異常を観察することができるため、眼科で読取用に頻繁に活用されている。しかし、眼底映像を読み取るために提供されていた従来のラベリング(labeling)システムは、以下のいくつかの側面で効率的または効果的ではなかった。
【0003】
まず、従来のラベリングシステムは、選択項目間の論理的関係を考慮せず、不必要であるか非合理的なラベリングを行う場合があった。詳しくは、疾病間の排他的な関係が考慮されず、病理学的に不可能なラベリングを許容する場合があった。
【0004】
また、従来のラベリングシステムは所見(finding)と診断(diagnosis)を混用して効率的なデータの管理が難しく、所見に対応する位置を表示するための区画の設定が眼球の構造的特性を反映しない短所があった。
【0005】
よって、本発明ではこのような問題点を解決し、医療チームをしてより効率的で正確に眼底映像に対するラベリングができるように支援する眼底映像の読取支援方法及びそれを利用した装置を提案しようとする。
【先行技術文献】
【非特許文献】
【0006】
【文献】Goodfellow,Ian J.;Pouget-Abadie,Jean;Mirza,Mehdi;Xu,Bing;Warde-Farley,David;Ozair,Sherjil;Courville,Aaron;Bengio,Yoshua(2014).“Generative Adversarial Networks”
【文献】Ronneberger O.,Fischer P.,Brox T.(2015)U-Net:Convolutional Networks for Biomedicla Image Segmentation.In:Navab N.,Hornegger J.,Wells W.,Frangi A.(eds)Medical Image Computing and Computer-Assisted Intervention-MICCAI 2015.Lecture Notes in Computer Science,vol 9315.Springer,Cham
【発明の概要】
【発明が解決しようとする課題】
【0007】
本発明は、人工知能を利用して解剖学的特性を反映して区画される領域を提供することで、眼底映像読取の便宜を適用することを目的とする。
【0008】
また、本発明は論理的に適切な項目のみを選別してラベリングシステムに含ませることで、疾病の排他的関係をラベリング項目に反映するだけでなく、所見と診断を互いに区分して効率的にデータがまとめられるようにすることを目的とする。
【0009】
そして、本発明は、主要所見の位置的特性と眼球の構造的特性を考慮した区画設定、特に黄斑と視神経乳頭の位置を自動的に探知して区画分割を容易にすることを目的とする。
【課題を解決するための手段】
【0010】
上述した本発明の目的を達成し、後述する本発明の特徴的な効果を実現するための本発明の特徴的な構成は下記のとおりである。
【0011】
本発明の一様態によると、被検体に対する眼底映像の読取を支援する方法が提供されるが、その方法は、(a)コンピューティング装置が、前記被検体の眼底映像を獲得するか、前記コンピューティング装置に連動される他の装置をして獲得するように支援するステップと、(b)前記コンピューティング装置が、前記眼底映像の属性情報を抽出するための機械学習モデル(machine learning model)に基づいて前記眼底映像から前記属性情報を抽出するか、前記他の装置をして抽出するように支援するステップと、(c)前記コンピューティング装置が、抽出された前記属性情報を外部エンティティに提供するか、前記他の装置をして提供するように支援するステップと、を含む。
【0012】
好ましくは、前記方法は、(d)前記抽出された属性情報に関して評価した評価情報または前記抽出された属性情報を任意に修正した修正情報が獲得されたら、前記コンピューティング装置が、前記評価情報または前記修正情報に基づいて前記機械学習モデルを更新するか、前記他の装置をして更新するように支援するステップを更に含む。
【0013】
本発明の他の一様態によると、被検体に対する眼底映像の読取を支援する方法が提供されるが、その方法は、(a)コンピューティング装置が、前記被検体の眼底映像を獲得するか、前記コンピューティング装置に連動される他の装置をして獲得するように支援するステップと、(b)前記コンピューティング装置が、(i)前記眼底映像の正常可否情報を生成するか、前記他の装置をして生成するように支援するプロセスと、(ii)少なくとも一つのユーザから前記正常可否情報を入力されるか、前記他の装置をして入力されるように支援するプロセスとのうち少なくとも一つを行うステップと、(c)前記コンピューティング装置が、前記眼底映像の個別区画を示す区画区分情報を生成するか、前記他の装置をして生成するように支援し、(i)前記個別区画に対応する所見情報を生成するか、前記他の装置をして生成するように支援するプロセルと、(ii)前記少なくとも一つのユーザから前記所見情報を入力されるか、前記他の装置をして入力されるように支援するプロセスとのうち少なくとも一つを行うステップと、(d)前記コンピューティング装置が、(i)前記所見情報に基づいて前記眼底映像に対する診断情報を生成するか、前記他の装置をして生成するように支援するプロセスと、(ii)前記少なくとも一つのユーザから前記眼底映像及び前記所見情報に対応する前記診断情報を入力されるか、前記他の装置をして入力されるように支援するプロセスとのうち少なくとも一つを行うステップと、(e)前記コンピューティング装置が、前記眼底映像に対する前記所見情報及び前記診断情報を貯蔵または外部エンティティに提供するか、前記他の装置をして貯蔵または提供するように支援するステップと、を含む。
【0014】
本発明の他の様態によると、本発明による他の方法を行うように具現された命令語(instructions)を含む、機械読取可能な非一時的記録媒体に貯蔵された、コンピュータプログラムも提供される。
【0015】
本発明のまた他の様態によると、被検体に対する眼底映像の読取を支援する方法が提供されるが、そのコンピューティング装置は、前記被検体の眼底映像を獲得する通信部と、前記通信部を介して獲得された前記眼底映像の属性情報を抽出するための機械学習モデルに基づいて前記眼底映像から前記属性情報を抽出するか、前記通信部を介して前記他の装置をして抽出するように支援するプロセッサと、を含むが、前記プロセッサは、抽出された前記属性情報を外部エンティティに提供するか、前記他の装置をして提供するように支援する。
【0016】
好ましくは、前記抽出された属性情報に関して評価した評価情報または前記抽出された属性情報を任意に修正した修正情報が前記通信部を介して獲得されたら、前記プロセッサは、前記評価情報または前記修正情報に基づいて前記機械学習モデルを更新するか、前記他の装置をして更新するように支援する。
【0017】
本発明のまた他の一様態によると、被検体に対する眼底映像の読取を支援するコンピューティング装置が提供されるが、そのコンピューティング装置は、前記被検体の眼底映像を獲得する入力モジュールを具現する通信部と、(1-i)前記眼底映像の正常可否情報を生成するか、前記通信部を介して連動される他の装置をして生成するように支援するプロセスと、(1-ii)前記通信部を介して少なくとも一つのユーザから前記正常可否情報を入力されるか、前記他の装置をして入力されるように支援するプロセスとのうち少なくとも一つを行う判別モジュールを具現するプロセッサと、を含むが、前記判別モジュールは、前記眼底映像の個別区画を示す区画区分情報を生成するか、前記他の装置をして生成するように支援し、前記プロセッサは、(2-i)前記個別区画に対応する所見情報を生成するか、前記他の装置をして生成するように支援するプロセスと、(2-ii)前記通信部を介して前記少なくとも一つのユーザから前記所見情報を入力されるか、前記他の装置をして入力されるように支援するプロセスとのうち少なくとも一つを行う所見入力モジュールと、(3-i)前記所見情報に基づいて前記眼底映像に対する診断情報を生成するか、前記他の装置をして生成するように支援するプロセスと、(3-ii)前記通信部を介して前記少なくとも一つのユーザから前記眼底映像及び前記所見情報に対応する前記診断情報を入力されるか、前記他の装置をして入力されるように支援するプロセスとのうち少なくとも一つを行う診断結果入力モジュールと、前記眼底映像に対する前記所見情報及び前記診断情報を貯蔵または外部エンティティに提供するか、前記通信部を介して前記他の装置をして貯蔵または提供するように支援する貯蔵及び伝送モジュールと、を更に具現する。
【発明の効果】
【0018】
本発明によると、従来の眼底映像ラベルイング方式のような論理的、病理学的に不必要であるか非合理的な読取を防止することができ、眼球の構造的特性を考慮した区画設定によって、所見に対応する位置を効果的に表示することができる効果がある。
【0019】
また、本発明によると、効率的にデータをまとめることができて人工知能学習モデルのためのデータの取得が容易であり、事前に学習された情報を介して読取に容易に利用し得る初期の属性情報、例えば、両眼区分情報、黄斑及び視神経乳頭の位置情報、血管情報、C/D比(cup-to-disk ratio)の情報などが提供される効果がある。
【0020】
これによって、本発明には論理的、病理学的に不可能な読取をシステムから抜き出すようにして医療チームがミスをする余地を除去する効果があり、ユーザの使用経験が蓄積されるほど学習モデルが持続的に更新されることで正確度が上がる長所がある。
【0021】
要するに、効率的で正確な読取を可能にすることで、医療チームの時間を節約し診療の質を上げて、医療現場におけるワークフロー(workflow)を革新する効果がある。
【0022】
そして、本発明によると、従来病院で利用されていた眼底撮影映像、例えば、眼底撮影機器及び医用画像保管電送システム(PACS)から獲得された映像をそのまま活用することができるため、本発明の方法は、コンピュータ運営体制に従属されない。
【図面の簡単な説明】
【0023】
本発明の実施例の説明に利用されるために添付された以下の図面は本発明の実施例のうち単に一部に過ぎず、本発明が属する技術分野における通常の知識を有する者(以下、「通常の技術者」という)にとっては発明的作業が行われずにこの図面に基づいて他の図面が得られる。
【0024】
図1】本発明に利用される機械学習モデルの一例示であって、CNN(convolutional neural network;畳み込みニューラルネットワーク)の主要概念を示す図である。
図2】本発明によって被検体に対する眼底映像の読取を支援する方法(以下、「眼底映像読取支援方法」という)を行うコンピューティング装置の例示的構成を概略的に示す概念図である。
図3】本発明による眼底映像読取支援方法を行うコンピューティング装置のハードウェア及びソフトウェアアーキテクチャを例示的に示す概念図である。
図4】本発明による眼底映像読取支援方法の一実施例において、血管の映像のみを分離して示す血管情報を例示的に示す図である。
図5】視神経乳頭及び黄斑中心の位置を検出する従来の方式を説明するために示す図である。
図6】本発明による眼底映像読取支援方法の一実施例において、視神経乳頭及び黄斑中心の位置を検出するための機械学習モデルを例示する図である。
図7】本発明による眼底映像読取支援方法の一実施例において、抽出される眼底映像の区画を示す区画区分情報を例示的に示す図である。
図8】本発明による眼底映像読取支援方法の一実施例を例示的に示すフローチャートである。
図9】本発明による眼底映像読取支援方法の他の実施例を例示的に示すフローチャートである。
図10a図9に例示した実施例の各ステップで提供されるユーザインタフェース(UI;user interface)を例示的に示す図である。
図10b図9に例示した実施例の各ステップで提供されるユーザインタフェース(UI)を例示的に示す図である。
図10c図9に例示した実施例の各ステップで提供されるユーザインタフェース(UI)を例示的に示す図である。
図10d図9に例示した実施例の各ステップで提供されるユーザインタフェース(UI)を例示的に示す図である。
図10e図9に例示した実施例の各ステップで提供されるユーザインタフェース(UI)を例示的に示す図である。
図11図9に例示した実施例において、所見情報から診断情報を生成する方式の一例としてベイジアンネットワークを示す図である。
【発明を実施するための形態】
【0025】
後述する本発明に対する詳細な説明は、本発明の目的、技術的解法、及び長所を明確にするために、本発明が実施され得る特定の実施例を例示として図示する添付図面を参照する。これらの実施例は通常の技術者が本発明を十分に実施し得るように詳細に説明される。
【0026】
そして、本発明の詳細な説明及び請求項にわたって「学習」または「ラーニング」は手順によるコンピューティング(computing)を介して機械学習(machine learning)を行うことを意味する用語であるゆえ、人間の教育活動のような精神的作用を称するように意図されていないことを通常の技術者は理解できるはずである。
【0027】
そして、本発明の詳細な説明及び請求項にわたって、「含む」という単語及びその変形は、他の技術的特徴、付加物、構成要素、またはステップを除外すると意図されていない。通常の技術者にとって本発明の他の目的、長所、及び特性は、一部は本説明書から、そして一部は本発明の実施例から明らかになるはずである。以下の例示及び図面は実例として提供され、本発明を限定するように意図されていない。
【0028】
なお、本発明は、本明細書に示した実施例の全ての可能な組み合わせを網羅する。本発明の多様な実施例は、互いに異なるが相互排他的な必要はないことを理解すべきである。例えば、ここに記載されている特定の形状、構造、及び特性は、実施例に関して本発明の思想及び範囲を逸脱しないながらも他の実施例に具現されてもよい。また、それぞれの開示された実施例内の個別の構成要素の位置または配置は、本発明の思想及び範囲を逸脱しないながらも変更され得ることを理解すべきである。よって、後述する詳細な説明は限定的な意味で取られるのではなく、本発明の範囲は、適切に説明されるのであれば、その請求項が主張するものと均等な全ての範囲と共に添付した請求項によってのみ限られる。図面において、類似した参照符号は多様な側面にわたって同じであるか類似した機能を指す。
【0029】
本明細書において、異なるように表示されるか明白に文脈に矛盾しない限り、単数に称された項目は、その文脈で異なるように要求されない限り、複数のものを併せる。また、本発明を説明するに当たって、関連する公知構成または機能に関する具体的な説明が本発明の要旨を不明確にする恐れがあると判断される場合、その詳細な説明は省略する。
【0030】
以下、通常の技術者が本発明を容易に実施し得るようにするために、本発明の好ましい実施例について添付した図面を参照して詳細に説明する。
【0031】
図1は、本発明に利用される機械学習モデルの一例示であって、CNNの主要概念を示す図である。
【0032】
図1を参照すると、本発明で利用される機械学習モデルのうち、深い神経網モデルは人工神経網を多層に積み上げた形態に簡略に説明される。つまり、深い構造のネットワークという意味で深い神経網またはディープ神経網(deep neural network)と表現し、図1に示したように、多層のネットワークからなる構造で多量のデータを学習させることでそれぞれの生体信号の特徴、生体信号間の関係を自動的に学習し、それを介して目的関数、つまり、致命的症状の予測正確度のエラー(error)を最小化する方法でネットワークを学習させていく形態である。これは、一見人間の頭脳の神経細胞間の連結とも表現されるゆえ、このような深い神経網は人工知能の次世代モデルとして位置づけられている。
【0033】
次に、図2は本発明による眼底映像読取支援方法を行うコンピューティング装置の例示的構成を概略的に示す概念図である。
【0034】
図2を参照すると、本発明の一実施例によるコンピューティング装置200は、通信部210及びプロセッサ220を含み、前記通信部210を介して外部コンピューティング装置(図示せず)と直間接的に通信する。
【0035】
詳しくは、前記コンピューティング装置200は、典型的なコンピュータハードウェア(例えば、コンピュータプロセッサ、メモリ、ストレージ、入力装置及び出力装置、その他の従来のコンピューティング装置の構成要素を含む装置と、ルータ、スイッチなどのような電子通信装置と、ネットワークアタッチトストレージ(NAS)及びストレージエリアネットワーク(SAN)のような電子情報ストレージシステム)とコンピュータソフトウェア(つまり、コンピューティング装置をして特定の方式で機能するようにするインストラクション)の組み合わせとを利用して所望のシステム性能を達成するものである。
【0036】
このようなコンピューティング装置の通信部210は、連動される他のコンピューティング装置と要請と応答を送受信するゆえ、一実施例としてそのような要請と応答は同じTCPセッションによって行われるが、それに限らず、例えば、UDPデータグラムとして送受信されてもよい。なお、広い意味で前記通信部210は命令語または指示などを伝達されるためのキーボード、マウス、その他の外部入力装置を含む。
【0037】
また、コンピューティング装置のプロセッサ220は、MPU(Micro Processing Unit)またはCPU(Central Processing Unit)、キャッシュメモリ(Cache Memory)、データバス(Data Bus)などのハードウェア構成を含む。また、運営体制、特定の目的を行うアプリケーションのソフトウェア構成を更に含んでもよい。
【0038】
図3は、本発明による眼底映像読取支援方法を行うコンピューティング装置のハードウェア及びソフトウェアアーキテクチャを例示的に示す概念図である。
【0039】
図3を参照して本発明による方法及び装置の構成を調べると、コンピューティング装置200はその一構成要素として映像獲得モジュール310を含む。このような映像獲得モジュール310は、前記コンピューティング装置200に含まれた通信部210、または前記通信部210及びプロセッサ220の連動によって具現されることは通常の技術者なら理解できるはずである。
【0040】
映像獲得モジュール310は、被検体の眼底映像を獲得する。例えば、これは前記被検体の眼底映像撮影機器または医用画像保管電送システム(PACS)から獲得されるが、これに限らない。大部分の眼底映像が中間映像であるため、糖尿病患者の7-segment montageにも対応可能である。
【0041】
次に、その獲得された眼底映像は判別モジュール320に伝達されるが、判別モジュール320では機械学習モデルに基づいて眼底映像の属性情報を抽出する。
【0042】
例えば、眼底映像の属性情報は、(i)前記眼底映像に含まれた視神経血管の映像のみを分離して示す血管情報、(ii)前記眼底映像が左眼の映像であるのか右眼の映像であるのかを示す両眼区分情報、(iii)前記眼底映像に含まれた黄斑及び視神経乳頭のうち少なくとも一つの位置を示す位置情報、(iv)前記眼底映像の区画を示す区画区分情報、(v)前記眼底映像によるC/D比の情報などを含む。
【0043】
第一、前記血管情報の場合、判別モジュールの機械学習モデルは畳み込みニューラルネットワーク及びGAN(generative adversarial networks)を含む。
【0044】
GANに関する論文である、非特許文献1:[Goodfellow,Ian J.;Pouget-Abadie,Jean;Mirza,Mehdi;Xu,Bing;Warde-Farley,David;Ozair,Sherjil;Courville,Aaron;Bengio,Yoshua(2014).“Generative Adversarial Networks”]によると、GANの生成器は実際と類似したデータを生成することで判別機を騙して、その類似したデータを実際データと判別するようにすることを目標とし、判別機は実際データと生成された類似データを区分することを目標とする。このGANによる学習が行われる過程において、生成器と判別機はそれぞれの目標を達成するためにネットワーク加重値を更新するが、十分に学習した後は生成器が実際と類似したデータを生成し、判別機による判別率が理論的に0.5に収束されることが明らかになっている。結果的に、GANによって十分に学習された生成器は実際データと近いデータを生成するようになるため、機械学習におけるデータの不均衡問題が解決される。
【0045】
このような畳み込みニューラルネットワーク(CNN)とGANを共に利用する方式で十分な繰り返し(interation)を経て学習を行うと、この機械学習モデルに基づいて前記視神経血管の映像が抽出されるが、図4は本発明による眼底映像読取支援方法の一実施例において、血管の映像のみを分離して示す血管情報を例示的に示す図である。
【0046】
第二、前記両眼区分情報の場合、前記機械学習モデルは分画ネットワーク(segmentation networks)を含み、前記機械学習モデルに基づいて前記眼底映像の視神経乳頭(optic disk)の形状及び前記視神経乳頭から出る血との走行のうち少なくとも一つを判別することで、前記視神経乳頭の形状及び前記血管の走行によって前記眼底映像の両眼区分情報が抽出される。
【0047】
詳しくは、この両眼区分情報の抽出において、視神経乳頭の位置のみでは該当眼底映像が左眼の映像なのか右眼の映像なのかを判断することができないことがあるゆえ、それに対する判別の正確度を上げるために、視神経乳頭の位置のみで判断が不可能な場合の眼底映像を学習データとして利用して前記機械学習モデルの学習を行った。右眼の場合、眼科で通常に撮影する映像はその中央に焦点が合わせられるため視神経乳頭が右側にあるが、学習データには右眼であるにも関わらず、視神経乳頭が左側または下側に位置するイメージを含ませることで、両眼区分の正確度を上げることができる。
【0048】
眼底映像の個別チャネル(channel)のz-score(標準化点数)を求めて畳み込みニューラルネットワークの入力として利用するが、z-scoreは下記数式1のようである。
【0049】
【数1】
【0050】
このz-scoreを利用することで眼底映像の明るさ(intensity)や明暗(contract)に影響を受けずに、完全に映像に現れた形態情報を利用して両眼を区分することができる。ここに利用される例示的な分画ネットワークの形態は以下のようである。
【0051】
conv(2)-conv-maxpool(2)-conv(2)-conv-conv-maxpool(2)-conv-conv-conv-maxpool(22)-conv-conv-conv-maxpool(2)-conv-conv-dense(256)-dense(1)
【0052】
ここで、入力データは512×512のz-scoreで変換されたRGB映像であり、convとmaxpoolのstrideは(x)で表現されている。また、ここで、活性化(activation)関数はsleuが、最後のdense layerにはsigmoidが利用されており、損失(loss)関数としてはbinary cross entropyが利用されている。
【0053】
次に、第三、前記位置情報の場合、前記機械学習モデルは分画ネットワークを含み、それに基づいて前記黄斑及び前記視神経乳頭のうち少なくとも一つの位置が抽出される。
【0054】
図5は視神経乳頭及び黄斑中心の位置を検出する従来の方式を説明するために示した図であるが、視神経乳頭及び黄斑は眼底映像読取の際に基準点の役割をし、従来は黄斑の位置をOCT(optical coherence tomography)撮影を介して検出しおり、視神経乳頭は眼底映像で明るくて鮮明に現わされる部分であってその位置の判定が比較的容易なため、視神経乳頭は眼底映像から検出していた。このような従来の技法とは異なって、本発明ではOCT撮影映像を利用せずも黄斑と視神経乳頭の位置をいずれも眼底映像から検出することができる。
【0055】
図6は、本発明による眼底映像読取支援方法の一実施例において、視神経乳頭及び黄斑中心の位置を検出するための機械学習モデルを例示する図である。
【0056】
詳しくは、この視神経乳頭及び黄斑中心位置の検出において、正常の眼底映像だけでなく病変がある眼底映像に対しても利用専門家がラベリング(詳しくは、位置座標をつける)したデータを学習データとして利用して前記機械学習モデルの学習を行っているが、機械学習モデルの一例として、非特許文献2:[Ronneberger O.,Fischer P.,Brox T.(2015)U-Net:Convolutional Networks for Biomedicla Image Segmentation.In:Navab N.,Hornegger J.,Wells W.,Frangi A.(eds)Medical Image Computing and Computer-Assisted Intervention-MICCAI2015.Lecture Notes in Computer Science,vol 9315.Springer,Cham]に開示されているように、パッディング(padding)の形態、層(layer)の個数、個別層の深さ(depth)をパラメータとするU-Netで利用されたdepth concatenation技法が活用される。その具体的なネットワークの形態は図6に示した通りである。
【0057】
図6に示したこのネットワークでは、640×640のRGB映像に対して個別チャネルごとにz-scoreを求め、分画(segment)された血管(vessel)を入力として利用し、batch-normalizationが利用されており、損失関数としてはbinary cross entropyが利用されている。図6において、operationは個別blockの演算(operation)を示し、skip-connectedはU-Netにおいてdepth concat layerを意味し、upsampleはbilinear interpolationで長さと幅をそれぞれ2倍に増やしたことを意味する。
【0058】
第四、前記区画区分情報の場合、前記機械学習モデルは分画ネットワークを含み、それに基づいて前記黄斑及び前記視神経乳頭の位置が抽出されることで、前記黄斑の中心位置及び前記視神経乳頭の中心位置に基づいて前記眼底映像を個別区画に区分する情報である前記区画区分情報が抽出される。好ましくは、前記個別区画は3つ以上に構成されるが、医療チームの必要に応じて多様に構成されてもよい。
【0059】
個別区画を区分する一実施例として、前記個別区画は、黄斑(macula)領域、視神経乳頭上側(superior disk)領域、視神経乳頭下側(inferior disk)領域、外側(temporal)領域、上外側(superotemporal)領域、下外側(inferotemporal)領域、上鼻側(superonasal)領域、及び下鼻側(inferonasal)領域を含む。
【0060】
図7は、この実施例で抽出される眼底映像の区画を示す区画区分情報を例示的に示す図である。
【0061】
図7を参照すると、前記黄斑領域は、前記黄斑の中心位置と前記視神経乳頭の中心位置との間の距離がdであれば、0<k1≦1を満足する所定のk1に対し、k1×dを半径にし、前記黄斑の中心位置を中心点とする黄斑中心円の内部領域である。
【0062】
また、前記視神経乳頭上側領域は、前記距離d及び0<k2≦1を満足する所定のk2に対し、k2×dを半径にし、前記視神経乳頭の中心位置を中心点とする視神経乳頭中心円の内部領域である視神経乳頭領域が、前記黄斑の中心位置と前記視神経乳頭の中心位置を通る直線l1によって分割される領域のうち上側の領域である。
【0063】
そして、前記視神経乳頭下側領域は、前記視神経乳頭領域が前記直線l1によって分割される領域のうち下側の領域である。
【0064】
また、前記上鼻側領域は、前記直線l1に垂直に前記視神経乳頭の中心位置を通る直線l2及び前記直線l1によって分割される領域のうち、前記黄斑から遠い上側の領域から前記視神経乳頭上側領域を除外した領域である。
【0065】
次に、前記下鼻側領域は、前記直線l2及び前記直線l1によって分割される領域のうち、前記黄斑から遠い下側の領域から前記視神経乳頭下側領域を除外した領域である。
【0066】
また、前記外側領域は、前記直線l1に平行し前記黄斑中心円に接するが前記視神経乳頭から遠くなる方向に延長される2つの半直線l3及びl4と前記黄斑中心円によって分割される領域のうち、前記直線l1を含む領域から前記黄斑領域を除外した領域である。
【0067】
前記上外側領域は、前記直線l2及び前記直線l1によって分割される領域のうち、前記黄斑に近い上側の領域のから前記視神経乳頭上側領域、前記黄斑領域、及び前記外側領域を除外した領域である。
【0068】
そして、前記下外側領域は、前記直線l2及び前記直線l1によって分割される領域のうち、前記黄斑に近い下側の領域から前記視神経乳頭下側領域、前記黄斑領域、及び前記外側領域を除外した領域である。
【0069】
好ましくはk1=2/3、k2=2/5であり、その結果は図7に例示的に示した通りである。
【0070】
第五、前記C/D比情報である場合、前記機械学習モデルは分画ネットワークを含み、それに基づいて視神経乳頭及び眼杯(optic cup)を識別することで前記C/D比が抽出される。
【0071】
眼底読取の臨床において、眼杯は視神経乳頭の内側に血管が脳の方に連結された部分を意味し、視神経束が眼杯と視神経乳頭との間に入るため、C/D比が高ければ視神経の損傷を意味し、これは緑内障を疑う一つの根拠となり得る。
【0072】
ここで利用された分画ネットワークモデルは、例えば、VGG(Visual Geometry Group)ネットワーク形態の畳み込みブロック(convolution blok)を積層し、その畳み込みブロックに完全連結層(fully-connected layer)を連結したモデルあり、それを介して緑内障が高い正確度で自動的に読み取られる(ROC_AUC 0.8617以上)。
【0073】
上述したように、判別モジュール320で利用される機械学習モデルの学習は判別モジュール320で行われてもよく、別途の学習モデル330によって学習されてもよい。
【0074】
機械学習モデルに基づいて個別眼底映像に関して属性情報が抽出されたら、その属性情報は貯蔵及び伝送モジュール340を介して貯蔵されるか、外部エンティティに提供されるが、コンピューティング装置200に連動される他の装置(図示せず)に提供される。
【0075】
更に図3を参照すると、前記抽出された属性情報に関して評価した評価情報及び抽出された属性情報を任意に修正した修正情報を獲得する結果入力モジュール350、及び前記評価情報または前記修正情報に基づいて前記機械学習モデルを更新する更新モジュール360がコンピューティング装置200の構成要素として更に提供されるが、このようなモジュール310乃至360は通信部210及びプロセッサ220によって具現される。
【0076】
より詳しくは、前記結果入力モジュール350は、後述する眼底映像読取支援方法の第2実施例で所見入力モジュール352(図示せず)及び診断結果入力モジュール354(図示せず)を更に含む。
【0077】
以下、本発明による眼底映像読取支援方法の第1実施例を図8を参照して詳しく説明する。図8は、本発明の第1実施例による眼底映像読取支援方法を例示的に示すフローチャートである。
【0078】
図8を参照すると、この実施例による眼底映像読取支援方法は、前記図3に関して説明したように、まず、コンピューティング装置200の通信部210によって具現される映像獲得モジュール310が、前記被検体の眼底映像を獲得するか、コンピューティング装置200に連動される他の装置(図示せず)をして獲得するように支援するステップS810を含む。
【0079】
次に、本発明の一実施例による眼底映像読取支援方法は、前記コンピューティング装置200のプロセッサ220によって具現される判別モジュール320が、前記眼底映像の属性情報を抽出するための機械学習モデルに基づいて前記眼底映像から前記属性情報を抽出するか、前記他の装置をして抽出するように支援するステップS820と、前記コンピューティング装置200の通信部210及びプロセッサ220によって具現される貯蔵及び伝送モジュール340が抽出された前記属性情報を外部エンティティに提供するか、前記他の装置をして提供するように支援するステップS830と、を更に含む。
【0080】
ここで、外部エンティティとは前記コンピューティング装置のユーザ、管理者、前記被検体を担当する担当医療専門家などを含むが、その他にも前記眼底映像を読み取ることができる主体であればどの主体でも含まれると理解すべきである。
【0081】
一方、この実施例による眼底映像読取支援方法を行う前に、前記機械学習モデルが予め学習されるステップ(図示せず)を経る必要があるが、そのための学習モジュール330が前記プロセッサ220によって実行される。
【0082】
例えば、前記学習モジュール330は、多数の従来の被検体に対する個別眼底映像及びそれをラベリングしたデータを学習データとして利用して前記機械学習モデルを学習する。
【0083】
この実施例では、予め学習された機械学習モデルに基づいて眼底映像の読み取りを支援するが、抽出された属性情報を評価するか、修正した情報を更に前記機械学習モデルに対する再学習の資料とする活用すれば前記機械学習モデルがより正確になる長所があるため、このような長所を取るために、本発明のこの実施例による眼底映像読取支援方法は、前記プロセッサ220が、前記抽出された属性情報に関して評価した評価情報または前記抽出された属性情報を任意に修正した修正情報を結果入力モジュール350を介して獲得し、前記評価情報または前記修正情報に基づいて更新モジュール360を介して前記機械学習モデルを更新するか、前記他の装置をして更新するように支援するステップS840を更に含む。この際、以前の学習では考慮されていなかった眼底映像及びラベリングデータが追加に考慮され、以前の学習の際にあったエラーを直すことができて、前記機械学習モデルの正確度が上がるゆえ、データが蓄積されるほど前記機械学習の性能が持続的に向上される長所がある。
【0084】
ここで、前記評価情報、前記修正情報は前記医療専門家などの外部エンティティから提供される。
【0085】
次に、図9及び図10a乃至図10eを参照して、本発明による眼底映像読取支援方法の第2実施例を説明する。
【0086】
図9は本発明による眼底映像読取支援方法の第2実施例を例示的に示すフローチャートであり、図10a乃至図10eは図9に例示した実施例の各ステップで提供されるユーザインタフェース(UI)を例示的に示す図である。
【0087】
図9を参照すると、この第2実施例による眼底映像読取支援方法は、まず、コンピューティング装置200の通信部210によって具現される映像獲得モジュール310が、前記被検体の眼底映像を獲得するか、前記コンピューティング装置200に連動される他の装置をして獲得するように支援するステップS910を含む。
【0088】
図10aに例示的に示したように、このステップS910において、ユーザ、つまり、読取者の便宜のために前記被検体の識別番号、年齢、性別、及び前記眼底映像の両眼区分情報のうち少なくとも一つがユーザに提供される。また、読取は多数のユーザによって行われてもよく、この実施例にの方法によって眼底映像の読取を支援する少なくとも一つのユーザは、全体M個のユーザグループのうち第nユーザグループに含まれたkn名のユーザのうちから選択されることで、一つの前記眼底映像に対して多数の読取が行われることができ、それを介して読取結果としてのラベリングデータに対する交差検証が行われる。
【0089】
更に図9を参照すると、この実施例による眼底映像読取支援方法は、前記コンピューティング装置200のプロセッサ220によって具現される判別モジュール320が、(i)前記眼底映像の正常可否を生成するか、前記他の装置をして生成するように支援するプロセスと、(ii)少なくとも一つのユーザから前記正常可否情報を入力されるか、前記他の装置をして入力されるように支援するプロセスとの うち少なくとも一つを行うステップS920を更に含む。
【0090】
図10bに例示的に示したように、ここで前記正常可否情報は、異常眼底(abnormal fundus)及び正常眼底(normal fundus)のうち一つである。例えば、このうちから正常眼底が選択される場合、該当眼底映像に対するこの実施例の方法が完了されてから次の眼底映像がローディング(loading)される。
【0091】
ところが、ステップS920の前に、前記眼底映像の品質が先に評価されるべきである場合、前記眼底映像読取支援方法は、前記判別モジュール320が、(i)前記眼底映像の品質を評価する映像品質情報を生成するか、前記他の装置をして生成するように支援するプロセスと、(ii)前記少なくとも一つのユーザから前記映像品質情報を入力されるか、前記他の装置をして入力されるように支援するプロセスとのうちから少なくとも一つを行うステップS915(図示せず)を更に含む。
【0092】
図10aに例示的に示したように、ここで前記映像品質情報は、良好、媒体混濁(media opacity)、小さい瞳孔/焦点ぼけ(small pupil/defocusing)、及び判定不可(ungradable)のうち少なくとも一つを含む。例えば、このうちから判定不可が選択される場合、該当眼底映像に対するこの実施例の方法が完了されてから次の眼底映像がローディングされる。
【0093】
ステップS920を行った後、この実施例による前記眼底映像読取支援方法は、前記コンピューティング装置200のプロセッサ220が、前記判別モジュール320を介して、前記眼底映像の個別区画を示す区画区分情報を生成するか、前記他の装置をして生成するように支援し、前記所見入力モジュール352を介して、(i)前記個別区画に対応する所見情報を生成するか、前記他の装置をして生成するように支援するプロセスと、(ii)前記通信部210を介して前記少なくとも一つのユーザから前記所見情報を入力されるか、前記他の装置をして入力されるように支援するプロセスとのうち少なくとも一つを行うステップS930を更に含む。
【0094】
図10cに例示的に示したように、ここで眼底映像の個別区画に対応する所見情報は、出血、硬性滲出物、棉花状白斑、ドルーゼン及びドルーゼノイド沈着物(drusen&drusenoid deposits)、網膜色素変化(retinal pigmentary change)を含むが、これに限らず、macular hole、vascular abnormality、membrane、fluid accumulation、chroioretinal atrophy/scar、choroidal lesion、myelinated nerve fiber、RNFL defect、galucomatous disc change、non-galucomatous disc change、other fidings or artifactなどを含む。
【0095】
次に、この実施例による前記眼底映像読取支援方法は、前記コンピューティング装置200のプロセッサ220が、前記診断結果入力モジュール354を介して、(i)前記所見情報に基づいて前記眼底映像に対する診断情報を生成するか、前記他の装置をして生成するように支援するプロセスと、(ii)前記少なくとも一つのユーザから前記眼底映像及び前記所見情報に対応する前記診断情報を入力されるか、前記他の装置をして入力されるように支援するプロセスとのうち少なくとも一つを行うステップS940を更に含む。
【0096】
図10dに例示的に示したように、ここで診断情報は、Dry AMD、Wet AMD、Early DR、Advanced DR、CRVO、BRVO/Hemi-CRVO、Epiretinal membrane、Macular Hole、Other Retinal/Choroidal Diseases/Findings、Glaucoma Suspect、Other Disc Diseases/Findings、Floaters/Artifacts Suspectを含む。
【0097】
このような診断情報は一つだけでなく多数個が選択されてもよい。但し、この診断情報の間には排他的関係があるゆえ、Dry AMDとWet AMDの選択は互いに排他的で、Early DRとAdvanced DRの選択も互いに排他的で、CRVOとBRVO/Hemi-CRVOの選択も互いに排他的である。これは論理的、病理学的に不必要であるか非合理的な読取を防止するためである。
【0098】
上述したように、所見情報に基づいて診断情報を生成する機械学習モデルにCNNなどディープラーニング技法が利用されてもよいが、ベイジアンネットワークのように従来よく知られているその他の統計方法が活用されてもよい。
【0099】
図11は、図9に例示した実施例において、所見情報から診断情報を生成する方式の一つとしてベイジアンネットワークを示す図である。
【0100】
ベイジアンネットワークは入力値である所見情報から最終的な診断情報を確率的に推論するのに利用されるゆえ、図11に例示的に示した各ノード間の連結はその確率値に対応する。
【0101】
次に、本発明のこの実施例による眼底映像読取支援方法は、前記プロセッサ220が、貯蔵及び伝送モジュール340を介して前記眼底映像に対する前記所見情報及び前記診断情報を貯蔵または外部エンティティに提供するか、前記他の装置をして貯蔵または提供するように支援するステップS950を更に含む。
【0102】
図10eに例示的に示したユーザインタフェースのように、ステップS950において、前記少なくとも一つのユーザの選択によって前記眼底映像に対する所見情報及び前記診断情報を眼科医に提供することで、前記眼科医をして前記所見情報及び前記診断情報を修正するように支援することもできる。
【0103】
第1実施例と同じく、第2実施例による眼底映像読取支援方法も、所見情報及び診断情報に関して評価情報または機械学習モデルによって判定された所見情報及び診断情報を任意に修正した修正情報を所見入力モジュール352または診断結果入力モジュール354を介して獲得し、前記評価情報または前記修正情報に基づいて更新モジュール360を介して前記機械学習モデルを更新するか、前記他の装置をして更新するように支援するステップS960(図示せず)を更に含む。この際、以前の学習の際にあったエラーを直すことができて、前記機械学習モデルの正確度が上がるゆえ、データが蓄積されるほど前記機械学習モデルの性能が持続的に向上される長所がある。
【0104】
このように本発明は上述した全ての実施例にわたって、従来の医療専門家がその経験や知識に依存して一々眼底映像を読み取ることに比べ効率的で正確な読取を可能にすることで、医療チームの時間を節約し、診療の質を上げ、医療現場におけるワークフローを革新することができる効果がある。
【0105】
前記実施例の説明に基づいて該当技術分野の通常の技術者は、本発明がソフトウェア及びハードウェアの結合を介して達成されるか、ハードウェアのみで達成されることを明確に理解できるはずである。本発明の技術的解法及び対象物、または先行技術に寄与する部分は、多様なコンピュータ構成要素を介して行われるプログラム命令語の形態で具現されて機械で読取可能な記録媒体に記録される。前記機械で読取可能な記録媒体は、プログラム命令語、データファイル、データ構造などを単独にまたは組み合わせて含む。前記機械で読取可能な記録媒体に記録されるプログラム命令語は、本発明のために特別に設計されて構成されたものであるか、コンピュータソフトウェア分野の通常の技術者に公知されて使用可能なものであってもよい。機械で読取可能な記録媒体としては、ハードディスク、フロッピーディスク、及び磁気テープのような磁気媒体、CD-ROM、DVDのような光記録媒体、フロプティカルディスク(floptical disk)のような磁気-光媒体(magneto-optical media)、及びROM、RAM、フラッシュメモリなどのようなプログラム命令語を貯蔵し行うように特別に構成されたハードウェア装置が含まれる。プログラム命令語の例としては、コンパイラによって作られるもののような機械語コードだけでなく、インタプリタなどを使用してコンピュータによって実行される高級言語コードも含まれる。
【0106】
前記ハードウェア装置は、本発明による処理を行うために一つ以上のソフトウェアモジュールとして作動するように構成されるが、その逆も同じである。前記ハードウェア装置は、プログラム命令語を貯蔵するためのROM/RAMなどのようなメモリと結合され、前記メモリに貯蔵された命令語を実行するように構成されるCPUやGPUのようなプロセッサを含み、外部装置と信号を交換する通信部を含む。なお、前記ハードウェア装置は開発者によって作成された命令語を伝達されるためのキーボード、マウス、その他の外部入力装置を含む。
【0107】
これまで本発明が具体的な構成要素などのような特定事項と限定された実施例及び図面によって説明されたが、これは本発明のより全般的な理解を助けるために提供されたものに過ぎず、本発明は前記実施例に限らないものであって、本発明の属する技術分野の通常的な知識を有する者であれば、このような記載から多様な修正及び変形を図ることができるはずである。
【0108】
よって、本発明の思想は上述した実施例に限って決められてはならず、後述する特許請求の範囲だけでなく、この特許請求の範囲と均等にまたは等価的に変形された全てのものは本発明の思想の範疇に属するといえる。
【0109】
そのように均等にまたは等価的に変形されたものには、例えば、本発明による他の方法を実施したことと同じ結果を出す、論理的に同値(logically equivalent)の方法が含まれる。

図1
図2
図3
図4
図5
図6
図7
図8
図9
図10a
図10b
図10c
図10d
図10e
図11