IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 学校法人帝京大学の特許一覧

特許7540711眼球運動自動記録システム、演算装置、演算方法およびプログラム
<>
  • 特許-眼球運動自動記録システム、演算装置、演算方法およびプログラム 図1
  • 特許-眼球運動自動記録システム、演算装置、演算方法およびプログラム 図2
  • 特許-眼球運動自動記録システム、演算装置、演算方法およびプログラム 図3
  • 特許-眼球運動自動記録システム、演算装置、演算方法およびプログラム 図4
  • 特許-眼球運動自動記録システム、演算装置、演算方法およびプログラム 図5
  • 特許-眼球運動自動記録システム、演算装置、演算方法およびプログラム 図6
  • 特許-眼球運動自動記録システム、演算装置、演算方法およびプログラム 図7
  • 特許-眼球運動自動記録システム、演算装置、演算方法およびプログラム 図8
  • 特許-眼球運動自動記録システム、演算装置、演算方法およびプログラム 図9
  • 特許-眼球運動自動記録システム、演算装置、演算方法およびプログラム 図10
  • 特許-眼球運動自動記録システム、演算装置、演算方法およびプログラム 図11
  • 特許-眼球運動自動記録システム、演算装置、演算方法およびプログラム 図12
  • 特許-眼球運動自動記録システム、演算装置、演算方法およびプログラム 図13
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-08-19
(45)【発行日】2024-08-27
(54)【発明の名称】眼球運動自動記録システム、演算装置、演算方法およびプログラム
(51)【国際特許分類】
   A61B 3/113 20060101AFI20240820BHJP
【FI】
A61B3/113
【請求項の数】 8
(21)【出願番号】P 2020207084
(22)【出願日】2020-12-14
(65)【公開番号】P2022094363
(43)【公開日】2022-06-27
【審査請求日】2023-12-07
【新規性喪失の例外の表示】特許法第30条第2項適用 開催日(公開日) 令和2年11月5日 集会名、開催場所 第74回日本臨床眼科学会(会期:令和2年11月5日~12月6日) WEB開催視聴システム「MICEnavi」を使用したオンライン開催 主管校 金沢大学医薬保健研究域医学系眼科学 研究発表抄録・研究発表データ公開URL < https://www.micenavi.jp/74ringan/refresh > < https://www.micenavi.jp/74ringan/search/detail_branch/id:7 > < https://www.micenavi.jp/74ringan/search/detail_session/id:10135 > < https://www.micenavi.jp/74ringan/search/detail_program/id:425 >
【新規性喪失の例外の表示】特許法第30条第2項適用 プレプリントサーバー公開日 令和2年11月12日/令和2年11月16日 刊行物 研究論文 『Automatic Measurements of Smooth Pursuit Eye Movements by Video-Oculography and Deep Learning-Based Object Detection』 〔プレプリントサーバー MedRxiv 投稿公開URL〕(イエール大学・CSHL・BMJ共同運営) [初稿投稿] < https://www.medrxiv.org/content/10.1101/2020.11.09.20227736v1 > < https://www.medrxiv.org/content/10.1101/2020.11.09.20227736v1.full.pdf > [第2版投稿] < https://www.medrxiv.org/content/10.1101/2020.11.09.20227736v2 > < https://www.medrxiv.org/content/10.1101/2020.11.09.20227736v2.full.pdf >
(73)【特許権者】
【識別番号】399086263
【氏名又は名称】学校法人帝京大学
(74)【代理人】
【識別番号】100106909
【弁理士】
【氏名又は名称】棚井 澄雄
(74)【代理人】
【識別番号】100188558
【弁理士】
【氏名又は名称】飯田 雅人
(74)【代理人】
【識別番号】100165179
【弁理士】
【氏名又は名称】田▲崎▼ 聡
(74)【代理人】
【識別番号】100206999
【弁理士】
【氏名又は名称】萩原 綾夏
(72)【発明者】
【氏名】広田 雅和
【審査官】渡戸 正義
(56)【参考文献】
【文献】特開2013-223713(JP,A)
【文献】特開2015-211741(JP,A)
【文献】米国特許出願公開第2012/0290401(US,A1)
(58)【調査した分野】(Int.Cl.,DB名)
A61B 3/00 ー 3/18
(57)【特許請求の範囲】
【請求項1】
被験者の眼の画像である第1画像を撮影する第1撮影部と、
被験者の視標追跡検査に用いられる視標を含む画像である第2画像を撮影する第2撮影部と、
演算装置とを備える眼球運動自動記録システムであって、
前記演算装置は、
前記第1撮影部によって撮影された前記第1画像を取得する第1画像取得部と、
VOG(Video-oculography)を用いることにより、前記第1画像取得部によって取得された前記第1画像に基づいて被験者の視線位置を計測する視線位置計測部と、
前記第2撮影部によって撮影された前記第2画像を取得する第2画像取得部と、
物体認識アルゴリズムを用いることにより、前記第2画像取得部によって取得された前記第2画像に含まれる前記視標に対応する2次元領域を特定する2次元領域特定部と、
前記2次元領域特定部によって特定された前記2次元領域に基づいて前記視標の位置を算出する視標位置算出部と、
前記視線位置計測部によって計測された被験者の視線位置であって、前記第2画像取得部によって取得された前記第2画像が前記第2撮影部によって撮影された時点における被験者の視線位置を、前記第2画像にマージするマージ処理部とを備える、
眼球運動自動記録システム。
【請求項2】
前記2次元領域特定部は、前記物体認識アルゴリズムとして、SSD(Single Shot MultiBox Detector)を用いる、
請求項1に記載の眼球運動自動記録システム。
【請求項3】
前記2次元領域はバウンディングボックスであり、
前記視標位置算出部は、前記視標の位置として、前記バウンディングボックスの重心位置を算出する、
請求項2に記載の眼球運動自動記録システム。
【請求項4】
前記演算装置は、
前記視標位置算出部によって算出された前記視標の位置に対する、前記視線位置計測部によって計測された被験者の視線位置のずれ量を算出する位置ずれ量算出部を備える、
請求項1に記載の眼球運動自動記録システム。
【請求項5】
前記演算装置は、
前記視標位置算出部によって算出された前記視標の位置の移動速度と、前記視線位置計測部によって計測された被験者の視線位置の移動速度との差を算出する移動速度差算出部を備える、
請求項1に記載の眼球運動自動記録システム。
【請求項6】
第1撮影部によって撮影された被験者の眼の画像である第1画像を取得する第1画像取得部と、
VOGを用いることにより、前記第1画像取得部によって取得された前記第1画像に基づいて被験者の視線位置を計測する視線位置計測部と、
第2撮影部によって撮影された被験者の視標追跡検査に用いられる視標を含む画像である第2画像を取得する第2画像取得部と、
物体認識アルゴリズムを用いることにより、前記第2画像取得部によって取得された前記第2画像に含まれる前記視標に対応する2次元領域を特定する2次元領域特定部と、
前記2次元領域特定部によって特定された前記2次元領域に基づいて前記視標の位置を算出する視標位置算出部と、
前記視線位置計測部によって計測された被験者の視線位置であって、前記第2画像取得部によって取得された前記第2画像が前記第2撮影部によって撮影された時点における被験者の視線位置を、前記第2画像にマージするマージ処理部とを備える、
演算装置。
【請求項7】
第1撮影部によって撮影された被験者の眼の画像である第1画像を取得する第1画像取得ステップと、
VOGを用いることにより、前記第1画像取得ステップにおいて取得された前記第1画像に基づいて被験者の視線位置を計測する視線位置計測ステップと、
第2撮影部によって撮影された被験者の視標追跡検査に用いられる視標を含む画像である第2画像を取得する第2画像取得ステップと、
物体認識アルゴリズムを用いることにより、前記第2画像取得ステップにおいて取得された前記第2画像に含まれる前記視標に対応する2次元領域を特定する2次元領域特定ステップと、
前記2次元領域特定ステップにおいて特定された前記2次元領域に基づいて前記視標の位置を算出する視標位置算出ステップと、
前記視線位置計測ステップにおいて計測された被験者の視線位置であって、前記第2画像取得ステップにおいて取得された前記第2画像が前記第2撮影部によって撮影された時点における被験者の視線位置を、前記第2画像にマージするマージ処理ステップとを備える、
演算方法。
【請求項8】
コンピュータに、
第1撮影部によって撮影された被験者の眼の画像である第1画像を取得する第1画像取得ステップと、
VOGを用いることにより、前記第1画像取得ステップにおいて取得された前記第1画像に基づいて被験者の視線位置を計測する視線位置計測ステップと、
第2撮影部によって撮影された被験者の視標追跡検査に用いられる視標を含む画像である第2画像を取得する第2画像取得ステップと、
物体認識アルゴリズムを用いることにより、前記第2画像取得ステップにおいて取得された前記第2画像に含まれる前記視標に対応する2次元領域を特定する2次元領域特定ステップと、
前記2次元領域特定ステップにおいて特定された前記2次元領域に基づいて前記視標の位置を算出する視標位置算出ステップと、
前記視線位置計測ステップにおいて計測された被験者の視線位置であって、前記第2画像取得ステップにおいて取得された前記第2画像が前記第2撮影部によって撮影された時点における被験者の視線位置を、前記第2画像にマージするマージ処理ステップとを実行させるためのプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、眼球運動自動記録システム、演算装置、演算方法およびプログラムに関する。
【背景技術】
【0002】
従来から、VOG(Video-oculography)ゴーグル、解析部、入力部、出力部およびデータベースから構成されている眼振解析システムが知られている(特許文献1参照)。特許文献1に記載された技術では、VOGゴーグルが、カメラとマイクと頭位センサとを備えている。VOGゴーグルは、カメラとして、ホットミラーとカメラレンズとカメラ本体とを備えている。さらに、VOGゴーグルは、撮像IC(集積回路)としてのCMOS(complementary metal-oxide semiconductor)基板と、光源としての赤外線LED(Light Emitting Diode)とを備えている。
ところで、特許文献1に記載された技術では、被験者の眼振の有無を解析することができるものの、被験者の視標追跡検査を行うことができない。
【0003】
また従来から、被験者の視標追跡検査を行うことができるビデオ式眼振計測装置が知られている(例えば下記URL参照)。
http://0c7.co.jp/products/interacoustics/products/vog/
【0004】
ところで、上述したビデオ式眼振計測装置では、視標として、ディスプレイに表示される視標が用いられるため、ビデオ式眼振計測装置が眼科診察室に設置される場合には、眼科診察室のスペースを圧迫してしまうおそれがある。
また、視標追跡検査が必要な被験者の多くは、眼球運動異常を有する子どもであるため、視標として、ディスプレイに表示される視標が用いられる場合には、被験者(子ども)が視標を追跡してくれないおそれがある。
さらに、視標として、ディスプレイに表示される視標が用いられる場合には、視標の動き等が予め設定されたものであるため、例えば被験者の状況に応じて臨機応変に視標を呈示する等の対応を行うことができない。
一方、ディスプレイに表示される視標の代わりに、実物の視標が用いられる従来技術においては、定性的な視標追跡検査を行うことができるものの、定量的な視標追跡検査を行うことができなかった。
また、視標追跡検査中の視標を撮影した動画像を構成する多数の静止画像のそれぞれに含まれる視標の位置を特定する処理が、例えば検査技師、医師などによって手動で行われる場合には、視標の位置の特定に膨大な時間を要してしまう。
【先行技術文献】
【特許文献】
【0005】
【文献】特開2020-018704号公報
【発明の概要】
【発明が解決しようとする課題】
【0006】
上述した問題点に鑑み、本発明は、定量的な視標追跡検査および迅速な視標の位置の特定を実現することができる眼球運動自動記録システム、演算装置、演算方法およびプログラムを提供することを目的とする。
【課題を解決するための手段】
【0007】
本発明の一態様は、被験者の眼の画像である第1画像を撮影する第1撮影部と、被験者の視標追跡検査に用いられる視標を含む画像である第2画像を撮影する第2撮影部と、演算装置とを備える眼球運動自動記録システムであって、前記演算装置は、前記第1撮影部によって撮影された前記第1画像を取得する第1画像取得部と、VOG(Video-oculography)を用いることにより、前記第1画像取得部によって取得された前記第1画像に基づいて被験者の視線位置を計測する視線位置計測部と、前記第2撮影部によって撮影された前記第2画像を取得する第2画像取得部と、物体認識アルゴリズムを用いることにより、前記第2画像取得部によって取得された前記第2画像に含まれる前記視標に対応する2次元領域を特定する2次元領域特定部と、前記2次元領域特定部によって特定された前記2次元領域に基づいて前記視標の位置を算出する視標位置算出部と、前記視線位置計測部によって計測された被験者の視線位置であって、前記第2画像取得部によって取得された前記第2画像が前記第2撮影部によって撮影された時点における被験者の視線位置を、前記第2画像にマージするマージ処理部とを備える、眼球運動自動記録システムである。
【0008】
本発明の一態様は、第1撮影部によって撮影された被験者の眼の画像である第1画像を取得する第1画像取得部と、VOGを用いることにより、前記第1画像取得部によって取得された前記第1画像に基づいて被験者の視線位置を計測する視線位置計測部と、第2撮影部によって撮影された被験者の視標追跡検査に用いられる視標を含む画像である第2画像を取得する第2画像取得部と、物体認識アルゴリズムを用いることにより、前記第2画像取得部によって取得された前記第2画像に含まれる前記視標に対応する2次元領域を特定する2次元領域特定部と、前記2次元領域特定部によって特定された前記2次元領域に基づいて前記視標の位置を算出する視標位置算出部と、前記視線位置計測部によって計測された被験者の視線位置であって、前記第2画像取得部によって取得された前記第2画像が前記第2撮影部によって撮影された時点における被験者の視線位置を、前記第2画像にマージするマージ処理部とを備える、演算装置である。
【0009】
本発明の一態様は、第1撮影部によって撮影された被験者の眼の画像である第1画像を取得する第1画像取得ステップと、VOGを用いることにより、前記第1画像取得ステップにおいて取得された前記第1画像に基づいて被験者の視線位置を計測する視線位置計測ステップと、第2撮影部によって撮影された被験者の視標追跡検査に用いられる視標を含む画像である第2画像を取得する第2画像取得ステップと、物体認識アルゴリズムを用いることにより、前記第2画像取得ステップにおいて取得された前記第2画像に含まれる前記視標に対応する2次元領域を特定する2次元領域特定ステップと、前記2次元領域特定ステップにおいて特定された前記2次元領域に基づいて前記視標の位置を算出する視標位置算出ステップと、前記視線位置計測ステップにおいて計測された被験者の視線位置であって、前記第2画像取得ステップにおいて取得された前記第2画像が前記第2撮影部によって撮影された時点における被験者の視線位置を、前記第2画像にマージするマージ処理ステップとを備える、演算方法である。
【0010】
本発明の一態様は、コンピュータに、第1撮影部によって撮影された被験者の眼の画像である第1画像を取得する第1画像取得ステップと、VOGを用いることにより、前記第1画像取得ステップにおいて取得された前記第1画像に基づいて被験者の視線位置を計測する視線位置計測ステップと、第2撮影部によって撮影された被験者の視標追跡検査に用いられる視標を含む画像である第2画像を取得する第2画像取得ステップと、物体認識アルゴリズムを用いることにより、前記第2画像取得ステップにおいて取得された前記第2画像に含まれる前記視標に対応する2次元領域を特定する2次元領域特定ステップと、前記2次元領域特定ステップにおいて特定された前記2次元領域に基づいて前記視標の位置を算出する視標位置算出ステップと、前記視線位置計測ステップにおいて計測された被験者の視線位置であって、前記第2画像取得ステップにおいて取得された前記第2画像が前記第2撮影部によって撮影された時点における被験者の視線位置を、前記第2画像にマージするマージ処理ステップとを実行させるためのプログラムである。
【発明の効果】
【0011】
本発明によれば、定量的な視標追跡検査および迅速な視標の位置の特定を実現することができる眼球運動自動記録システム、演算装置、演算方法およびプログラムを提供することができる。
【図面の簡単な説明】
【0012】
図1】第1実施形態の眼球運動自動記録システムの構成の一例を示す図である。
図2】第1実施形態の眼球運動自動記録システムにおいて実行される処理の一例を示すフローチャートである。
図3】実施例において第1実施形態の眼球運動自動記録システム1の一部として用いた機器を示す図である。
図4図4図3に示すカメラモジュールを拡大して示した図である。
図5】実施例において用いた視標を示す図である。
図6】実施例において用いたSSDを説明するための図である。
図7図6に示すソース1(38×38)、ソース5(3×3)およびソース6(1×1)を説明するための図である。
図8】SSDの訓練を説明するための図である。
図9】データ解析について説明するための図である。
図10】実施例の結果の代表例を示す図である。
図11図10に示す代表例における水平垂直眼位と視標位置との関係を可視化した図である。
図12】実施例において得られた眼位(被験者の視線位置)と視標の位置との関係を示す図である。
図13】実施例において得られたSPEM速度と視標速度との関係を示す図である。
【発明を実施するための形態】
【0013】
以下、図面を参照し、本発明の眼球運動自動記録システム、演算装置、演算方法およびプログラムの実施形態について説明する。
【0014】
[第1実施形態]
図1は第1実施形態の眼球運動自動記録システム1の構成の一例を示す図である。
図1に示す例では、第1実施形態の眼球運動自動記録システム1が、第1撮影部11と、第2撮影部12と、演算装置13とを備えている。第1撮影部11は、被験者の眼の画像である第1画像を撮影する。第2撮影部12は、被験者の視標追跡検査に用いられる視標10(図5参照)を含む画像である第2画像を撮影する。
演算装置13は、第1画像取得部13Aと、視線位置計測部13Bと、第2画像取得部13Cと、2次元領域特定部13Dと、視標位置算出部13Eと、マージ処理部13Fと、位置ずれ量算出部13Gと、移動速度差算出部13Hとを備えている。
【0015】
第1画像取得部13Aは、第1撮影部11によって撮影された第1画像(被験者の眼の画像)を取得する。
視線位置計測部13Bは、VOG(Video-oculography)を用いることにより、第1画像取得部13Aによって取得された第1画像(被験者の眼の画像)に基づいて被験者の視線位置を計測する。VOGは、近赤外光を被験者の両眼に照射し、角膜反射と瞳孔の相対位置関係から被験者の視線情報を取得する技術である。VOGでは、被験者の眼球運動を数値化・可視化することができる。
【0016】
第2画像取得部13Cは、第2撮影部12によって撮影された第2画像(視標10を含む画像)を取得する。
2次元領域特定部13Dは、物体認識アルゴリズムを用いることにより、第2画像取得部13Cによって取得された第2画像に含まれる視標10に対応する2次元領域10A(図10参照)を特定する。つまり、2次元領域特定部13Dは、第2画像上のどの領域が視標10に対応する2次元領域10Aであるかを特定する。
2次元領域特定部13Dは、物体認識アルゴリズムとして、SSD(Single Shot MultiBox Detector)を用いる。SSDは、画像内に含まれる物体が何であるかを予測し、物体の領域と予測値とを出力する物体認識深層学習アルゴリズムである。また、2次元領域特定部13Dによって特定される2次元領域10Aは、「バウンディングボックス」と称される矩形領域である。
図1に示す例では、2次元領域10A(バウンディングボックス)が、第2画像上の視標10を囲う矩形領域(第2画像上の視標10に外接する矩形領域)であるが、他の例では、第2画像上の視標10が、2次元領域10A(バウンディングボックス)からはみ出していてもよい。
【0017】
図1に示す例では、視標位置算出部13Eが、2次元領域特定部13Dによって特定された2次元領域10Aに基づいて視標10の位置(第2画像上の視標10の位置)を算出する。詳細には、視標位置算出部13Eは、視標10の位置として、バウンディングボックスの重心位置を算出する。
他の例では、視標位置算出部13Eが、移動平均、移動中央値などを用いることによって、第2画像上の視標10の位置を算出してもよい。
【0018】
図1に示す例では、マージ処理部13Fが、視線位置計測部13Bによって計測された被験者の視線位置であって、第2画像取得部13Cによって取得された第2画像が第2撮影部12によって撮影された時点における被験者の視線位置を、その第2画像にマージする。その結果、第2画像上の視標10の位置と、その第2画像が撮影された時点における被験者の視線位置(視標10を追跡する被験者の視線位置)とを、第2画像上において比較できるようになる。
位置ずれ量算出部13Gは、視標位置算出部13Eによって算出された視標10の位置に対する、視線位置計測部13Bによって計測された被験者の視線位置のずれ量を算出する。
図1に示す例では、演算装置13が位置ずれ量算出部13Gを備えているが、他の例では、演算装置13が位置ずれ量算出部13Gを備えていなくてもよい(例えば、視標10の位置に対する被験者の視線位置のずれ量が、演算装置13の外部において算出されてもよい)。
【0019】
図1に示す例では、移動速度差算出部13Hが、視標位置算出部13Eによって算出された視標10の位置の移動速度と、視線位置計測部13Bによって計測された被験者の視線位置の移動速度との差を算出する。
図1に示す例では、演算装置13が移動速度差算出部13Hを備えているが、他の例では、演算装置13が移動速度差算出部13Hを備えていなくてもよい(例えば、視標10の位置の移動速度と被験者の視線位置の移動速度との差が、演算装置13の外部において算出されてもよい)。
【0020】
図2は第1実施形態の眼球運動自動記録システム1において実行される処理の一例を示すフローチャートである。
図2に示す例では、ステップS11において、第1撮影部11が、被験者の眼の画像である第1画像を撮影する。
また、ステップS12では、第2撮影部12が、被験者の視標追跡検査に用いられる視標10を含む画像である第2画像を撮影する。
次いで、ステップS13では、演算装置13が演算などの処理を実行する。
【0021】
具体的には、ステップS13Aでは、第1画像取得部13Aが、ステップS11において撮影された第1画像(被験者の眼の画像)を取得する。
次いで、ステップS13Bでは、視線位置計測部13Bが、VOGを用いることにより、ステップS13Aにおいて取得された第1画像(被験者の眼の画像)に基づいて被験者の視線位置を計測する。
【0022】
また、ステップS13Cでは、第2画像取得部13Cが、ステップS12において撮影された第2画像(視標10を含む画像)を取得する。
次いで、ステップS13Dでは、2次元領域特定部13Dが、物体認識アルゴリズムを用いることにより、ステップS13Cにおいて取得された第2画像に含まれる視標10に対応する2次元領域10Aを特定する。
次いで、ステップS13Eでは、視標位置算出部13Eが、ステップS13Dにおいて特定された2次元領域10Aに基づいて視標10の位置(第2画像上の視標10の位置)を算出する。
【0023】
次いで、ステップS13Fでは、マージ処理部13Fが、ステップS13Bにおいて計測された被験者の視線位置であって、ステップS13Cにおいて取得された第2画像が第2撮影部12によって撮影された時点における被験者の視線位置を、その第2画像にマージする。
次いで、ステップS13Gでは、位置ずれ量算出部13Gが、ステップS13Eにおいて算出された視標10の位置に対する、ステップS13Bにおいて計測された被験者の視線位置のずれ量を算出する。
また、ステップS13Hでは、移動速度差算出部13Hが、ステップS13Eにおいて算出された視標10の位置の移動速度と、ステップS13Bにおいて計測された被験者の視線位置の移動速度との差を算出する。
【0024】
以下、実施例を示して本発明を詳細に説明するが、本発明は以下の実施例に限定されるものではなく、その要旨を逸脱しない範囲で適宜変更して実施することができる。
【0025】
<実施例>
本発明者は、第1実施形態の眼球運動自動記録システム1を用いて滑動性追従眼球運動(SPEM)の評価を行った。滑動性追従眼球運動は、動く物体を中心窩付近で捉え続けるための眼球運動である(Robinson DA, J Physiol, 1965)。
眼科臨床においては、9方向むき眼位検査を行うことでSPEMから眼球運動異常をスクリーニングしているが、検者が肉眼的に判定するため、検査中の記録が残らないことや検査結果が定性的である問題を抱えている。
【0026】
眼球運動は近赤外光を両眼に照射し、角膜反射と瞳孔の位置関係から非侵襲的に両眼の眼位を計測するVOGを用いることで他覚的定量評価できる。先行研究において、斜視患者のSPEM速度は健常者よりも有意に遅いことが報告されている(Lions C et al., Plos one, 2013)。
VOGは実験室レベルにおいては眼球運動を他覚的定量評価する機器として頻繁に用いられているが、眼科臨床においてはまだ普及していない。その原因として、視標の動きが限定されること、即ち、プログラムされた動作を繰り返すため異常が疑われる部位を重点的に検査できないことや、検査方法が変わるため、以前の検査結果との比較が困難であることが挙げられる。
従って、眼科外来で実施されている9方向むき眼位検査と同じ方法でSPEMを他覚的定量評価する必要がある。
【0027】
そこで本発明者は、人工知能技術である畳み込みニューラルネットワーク(CNN)に着目した。CNNは画像の各ピクセルにおける輝度値に対して複数のフィルタを掛けることにより特徴量を抽出する。
先行研究において、CNNを利用した物体検出アルゴリズムであるSSDは従来の物体検出法であるラスタースキャン法よりも2倍以上の処理速度を有すことが報告されており(Liu W et al., arXiv, 2015)、リアルタイム解析にも応用が見込める。
【0028】
本発明者は、VOGとSSDを組み合わせたSPEM計測システムを開発し、その測定精度を評価した。
【0029】
評価の対象は屈折異常以外に眼科的疾患のない健常者11名とした。平均年齢は21.3歳、等価球面屈折度数(SE)は右眼が-2.95D、左眼が-2.70Dだった。立体視は全例が40秒だった。交代プリズム遮蔽試験は近見-3.1PD、遠見-0.9PDだった(「-」は外方偏位、「+」は内方偏位を示す)。
【0030】
図3は実施例において第1実施形態の眼球運動自動記録システム1の一部として用いた機器を示す図である。
本実施例では、NAC Image Technology Inc.製のEMR-9を眼球運動計測用VOGとして使用した。本機器はカメラモジュールで取得した外界の映像と被験者の眼位から計算した視線位置をコントローラで結合し、測定画面に出力する。
【0031】
図4図3に示すカメラモジュールを拡大して示した図である。
カメラモジュールは全体を水平垂直に8cm移動可能で、中央に取り付けられたシーンカメラはサンプリングレートが29.97Hz、視野角62度、中央位置をpitch方向に60度旋回可能である。
左右眼の上方に設置されたアイカメラはサンプリングレート240Hz、視野角は水平43度、垂直28.6度で、中心位置を水平方向に各眼1.3cm調整可能である。アイカメラから照射された近赤外光はハーフミラーによって反射する。ハーフミラーも調整が可能であり、垂直方向に2.5cm、pitch方向に30度回旋可能である。
【0032】
測定画面の左下部分および右下部分には、アイカメラの画像が表示可能であり、測定画面の左上部分には、一眼の2値化画像が表示可能である。角膜反射と瞳孔の位置関係から眼位が計算され、被験者の視線位置が計測される。計測された被験者の視線位置は、遅延時間52ms以下で、測定画面の右上部分のシーンカメラの映像に含められて表示可能である。
【0033】
図5は実施例において用いた視標10を示す図である。
本実施例では、眼球運動検査(視標追跡検査)の視標10として、10cm×10cmのキャラクターの固視目標を用い、9方向むき眼位検査を視距離1.0mで実施した(視標10の視角は5.7°)。検査中、各被験者にはキャラクターの鼻を固視し続けるように指示した。
【0034】
図6は実施例において用いたSSDを説明するための図である。
図6に示すように、SSDは、CNNのモデルであるVGG16に物体認識用のエクストラモジュールを追加したモデルである。SSDは、VGGネットワークの4ブロック目における3層目の畳み込み層の特徴量をソース1、最終出力層における特徴量をソース2とし、ソース2に対して特徴量が10×10、5×5、3×3、1×1になる畳み込みを行い、ソース3からソース6までの特徴量を出力する。
【0035】
図7図6に示すソース1(38×38)、ソース5(3×3)およびソース6(1×1)を説明するための図である。
図6に示すVGGネットワークの4ブロック、3番目の畳み込み層から出力したソース1は、図7に示すように、特徴量マップが38×38である。ソース5は、特徴量マップが3×3であり、ソース6は、特徴量マップが1×1である。各ソースは特徴量マップの数が異なり、特徴量マップが細かいほど小さい物体の検出精度が高くなる。
【0036】
図8はSSDの訓練を説明するための図である。
SSDの訓練では、グランドトゥルースと呼ばれる、物体の正解位置ラベルに対して、いくつものバウンディングボックスを用意し、訓練を繰り返す内に正解のボックスに近いバウンディングボックスを学習する。
【0037】
本実施例では、EMR-9のシーンカメラで測定した被験者の9方向むき眼位検査中の画像500枚をデータセットとして使用した。
640×480ピクセルの全ての画像を300×300ピクセルにリサイズし、データセットをランダムに訓練用300枚選択し、訓練は100epochとした。訓練画像はランダムに輝度、コントラスト、色、カラーチャンネルを不規則に変えるスワップ、画像拡大、切り取りを実施した。
検証用データは100枚として、10epoch毎に検証データで精度を評価した。また、テストデータを100枚用意した。
【0038】
図9はデータ解析について説明するための図である。
本実施例では、SSDの精度は75% average precision (AP75)で評価した。AP75はテストデータにおける正解のボックスに対するSSDが予測したバウンディングボックスが対象となる。
SSD予測したバウンディングボックスが正解のボックスに対して75%以上重なっており、物体のラベルも正しい場合をTrue positive(TP)とし、75%以下の重なりであればFalse positive(FP)とする。また、画像内に正解のボックスが存在するが、SSDが物体を検出しなかった場合はFalse negative(FN)とし、precisionはTPをTPとFPの合計で除した値、recallはTPをTPとFNの合計で除した値とし、横軸にrecall、縦軸にprecisionを取ったグラフの面積がAP75となる。
【0039】
本実施例では、統計解析は、VOGで計測した両眼の眼位(被験者の視線位置)とSSDが予測したバウンディングボックスの中心座標(重心座標)から計算した視標位置の関係および、SPEMの速度と視標の速度の関係について、simple linear regression analysisを実施した。
【0040】
図10は実施例の結果の代表例を示す図である。詳細には、図10は第2撮影部12によって撮影された第2画像(視標10を含む画像)に、その第2画像が撮影された時点における被験者の視線位置(視線位置計測部13Bによって計測された被験者の視線位置)がマージされたものを示す図である。
図10において、「右眼」は被験者の右眼の視線位置(視線位置計測部13Bによって計測された被験者の右眼の視線位置)を示しており、「左眼」は被験者の左眼の視線位置(視線位置計測部13Bによって計測された被験者の左眼の視線位置)を示している。
図10に示す例では、SSDが視標10を高精度で認識しており、テストデータにおけるAP75は97.7%であった。
【0041】
図11図10に示す代表例における水平垂直眼位と視標位置との関係を可視化した図である。詳細には、図11(A)は代表例における水平眼位と視標位置との関係を示しており、図11(B)は代表例における垂直眼位と視標位置との関係を示している。
図11(A)および図11(B)において、「Dominant eye」は優位眼の視線位置を示しており、「Nondominant eye」は非優位眼の視線位置を示しており、「Target」は視標10の位置を示している。
【0042】
図12は実施例において得られた眼位(被験者の視線位置)と視標10の位置との関係を示す図である。詳細には、図12(A)は優位眼の水平眼位(横軸)と視標10の水平位置(縦軸)との関係を示しており、図12(B)は非優位眼の水平眼位(横軸)と視標10の水平位置(縦軸)との関係を示している。
図12(A)および図12(B)に示すように、両眼とも水平眼位が水平方向の視標位置と有意な正の相関があることを確認できた。
【0043】
図13は実施例において得られたSPEM速度と視標速度との関係を示す図である。詳細には、図13(A)は優位眼の水平方向のSPEM速度(横軸)と水平方向の視標速度(縦軸)との関係を示しており、図13(B)は非優位眼の水平方向のSPEM速度(横軸)と水平方向の視標速度(縦軸)との関係を示している。
図13(A)および図13(B)に示すように、両眼とも水平方向のSPEM速度が水平方向の視標速度と有意な正の相関があることを確認できた。
【0044】
上述したように、本実施例では、SSDが高精度で視標を検出することを確認した。VOGで検出した両眼の眼位とSSDを用いて計算した視標位置とが有意な正の相関を有することを確認した。
【0045】
第1実施形態の眼球運動自動記録システム1を用いることによって、眼科臨床における検査の方法を変更することなく、被験者の眼球運動を数値化・可視化することができる。
また、第1実施形態の眼球運動自動記録システム1を用いることによって、過去に実施した検査結果との比較を行うことができ、疾患の判定基準を明確にすることができる。
また、SSDを用いて高精度に位置を算出可能な視標10として、子どもが興味を持つ視標10を使用することにより、視標追跡検査中に被験者(子ども)が視標10を追跡してくれないおそれを抑制することができ、その結果、検査時間を短縮することができる。
【0046】
[第2実施形態]
以下、本発明の眼球運動自動記録システム、演算装置、演算方法およびプログラムの第2実施形態について説明する。
第2実施形態の眼球運動自動記録システム1は、後述する点を除き、上述した第1実施形態の眼球運動自動記録システム1と同様に構成されている。従って、第2実施形態の眼球運動自動記録システム1によれば、後述する点を除き、上述した第1実施形態の眼球運動自動記録システム1と同様の効果を奏することができる。
【0047】
上述したように、第1実施形態の眼球運動自動記録システム1では、2次元領域特定部13Dが、物体認識アルゴリズムとして、SSDを用いる。
一方、第2実施形態の眼球運動自動記録システム1では、2次元領域特定部13Dが、SSD以外の物体認識アルゴリズム(例えばR-CNN、YOLO等)を用いるか、あるいは、物体検出法としてラスタースキャン法を用いる。
【0048】
以上、本発明の実施形態を図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、本発明の趣旨を逸脱しない範囲で適宜変更を加えることができる。上述した各実施形態および各例に記載の構成を組み合わせてもよい。
【0049】
なお、上記の実施形態における眼球運動自動記録システム1の全部または一部は、専用のハードウェアにより実現されるものであってもよく、また、メモリおよびマイクロプロセッサにより実現させるものであってもよい。
なお、眼球運動自動記録システム1の全部または一部は、メモリおよびCPU(中央演算装置)により構成され、各システムが備える各部の機能を実現するためのプログラムをメモリにロードして実行することによりその機能を実現させるものであってもよい。
なお、眼球運動自動記録システム1の全部または一部の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより各部の処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含むものとする。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。
【符号の説明】
【0050】
1…眼球運動自動記録システム、10…視標、10A…2次元領域、11…第1撮影部、12…第2撮影部、13…演算装置、13A…第1画像取得部、13B…視線位置計測部、13C…第2画像取得部、13D…2次元領域特定部、13E…視標位置算出部、13F…マージ処理部、13G…位置ずれ量算出部、13H…移動速度差算出部
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13