IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ ライオン株式会社の特許一覧

特許7570208涙液角結膜状態検査装置、涙液角結膜状態検査方法、及びプログラム
<>
  • 特許-涙液角結膜状態検査装置、涙液角結膜状態検査方法、及びプログラム 図1
  • 特許-涙液角結膜状態検査装置、涙液角結膜状態検査方法、及びプログラム 図2
  • 特許-涙液角結膜状態検査装置、涙液角結膜状態検査方法、及びプログラム 図3
  • 特許-涙液角結膜状態検査装置、涙液角結膜状態検査方法、及びプログラム 図4
  • 特許-涙液角結膜状態検査装置、涙液角結膜状態検査方法、及びプログラム 図5
  • 特許-涙液角結膜状態検査装置、涙液角結膜状態検査方法、及びプログラム 図6
  • 特許-涙液角結膜状態検査装置、涙液角結膜状態検査方法、及びプログラム 図7
  • 特許-涙液角結膜状態検査装置、涙液角結膜状態検査方法、及びプログラム 図8
  • 特許-涙液角結膜状態検査装置、涙液角結膜状態検査方法、及びプログラム 図9
  • 特許-涙液角結膜状態検査装置、涙液角結膜状態検査方法、及びプログラム 図10
  • 特許-涙液角結膜状態検査装置、涙液角結膜状態検査方法、及びプログラム 図11
  • 特許-涙液角結膜状態検査装置、涙液角結膜状態検査方法、及びプログラム 図12
  • 特許-涙液角結膜状態検査装置、涙液角結膜状態検査方法、及びプログラム 図13
  • 特許-涙液角結膜状態検査装置、涙液角結膜状態検査方法、及びプログラム 図14
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-10-10
(45)【発行日】2024-10-21
(54)【発明の名称】涙液角結膜状態検査装置、涙液角結膜状態検査方法、及びプログラム
(51)【国際特許分類】
   A61B 3/10 20060101AFI20241011BHJP
【FI】
A61B3/10
【請求項の数】 11
(21)【出願番号】P 2020180593
(22)【出願日】2020-10-28
(65)【公開番号】P2022071558
(43)【公開日】2022-05-16
【審査請求日】2023-05-08
(73)【特許権者】
【識別番号】000006769
【氏名又は名称】ライオン株式会社
(74)【代理人】
【識別番号】100165179
【弁理士】
【氏名又は名称】田▲崎▼ 聡
(74)【代理人】
【識別番号】100152272
【弁理士】
【氏名又は名称】川越 雄一郎
(74)【代理人】
【識別番号】100153763
【弁理士】
【氏名又は名称】加藤 広之
(72)【発明者】
【氏名】吉田 雅貴
(72)【発明者】
【氏名】宮崎 汐理
(72)【発明者】
【氏名】長谷川 誠
【審査官】福田 裕司
(56)【参考文献】
【文献】欧州特許出願公開第03666177(EP,A1)
【文献】米国特許出願公開第2019/0110753(US,A1)
【文献】特開2019-025257(JP,A)
【文献】特開2020-121038(JP,A)
【文献】国際公開第2019/168142(WO,A1)
【文献】特開2019-155011(JP,A)
【文献】特開2019-177032(JP,A)
【文献】特開2020-058615(JP,A)
【文献】特開2016-187695(JP,A)
【文献】特開2020-036837(JP,A)
【文献】中国特許出願公開第111700582(CN,A)
【文献】米国特許出願公開第2017/0188805(US,A1)
【文献】米国特許出願公開第2013/0226008(US,A1)
(58)【調査した分野】(Int.Cl.,DB名)
A61B 3/10
(57)【特許請求の範囲】
【請求項1】
デジタルカメラによって撮影されたユーザーの目の画像であるユーザー画像データを取得する画像データ取得部と、
デジタルカメラによって撮影された被検者の目の画像である被検者画像データと、前記被検者の涙液の状態と角結膜の状態とのうち少なくとも1つ以上が検査された結果を含む被検者検査データとの組み合わせからなるデータセットと、前記ユーザー画像データと、に基づいて、前記ユーザーの涙液の状態と角結膜の状態とのうち少なくとも1つ以上が検査された場合の結果を含むユーザー検査データを予測する予測部と、
を備え、
前記被検者の目の画像及び前記ユーザーの目の画像はそれぞれ、目のうち白目と黒目とを合わせた部分が切り出された画像であり、
前記被検者の目の画像及び前記ユーザーの目の画像ではそれぞれ、白目と黒目とを合わせた部分について縦の長さと横の長さとの比率が0.62から0.75の範囲内である撮影条件を満たす、
涙液角結膜状態検査装置。
【請求項2】
前記被検者の目の画像及び前記ユーザーの目の画像ではそれぞれ、白目と黒目とを合わせた部分の縦の長さと、前記部分のうちの黒目の縦の長さとの比率が1.20から1.40の範囲内である撮影条件を満たす
請求項1に記載の涙液角結膜状態検査装置。
【請求項3】
デジタルカメラによって撮影されたユーザーの目の画像であるユーザー画像データを取得する画像データ取得部と、
デジタルカメラによって撮影された被検者の目の画像である被検者画像データと、前記被検者の涙液の状態と角結膜の状態とのうち少なくとも1つ以上が検査された結果を含む被検者検査データとの組み合わせからなるデータセットと、前記ユーザー画像データと、に基づいて、前記ユーザーの涙液の状態と角結膜の状態とのうち少なくとも1つ以上が検査された場合の結果を含むユーザー検査データを予測する予測部と、
を備え
前記被検者の目の画像及び前記ユーザーの目の画像はそれぞれ、目のうち白目と黒目とを合わせた部分が切り出された画像であり、
前記被検者の目の画像及び前記ユーザーの目の画像ではそれぞれ、白目と黒目とを合わせた部分の縦の長さと、前記部分のうちの黒目の縦の長さとの比率が1.20から1.40の範囲内である撮影条件を満たす、
涙液角結膜状態検査装置。
【請求項4】
前記画像データ取得部によって取得された前記ユーザー画像データが所定の撮影条件を満たされているか否かを判定する撮影条件判定部を備える
請求項1から請求項3のいずれか一項に記載の涙液角結膜状態検査装置。
【請求項5】
前記予測部は、前記データセットに基づいて前記被検者画像データと、前記被検者検査データとの関係が深層学習によって学習された学習結果と、前記ユーザー画像データとに基づいて、前記ユーザー検査データを予測する
請求項1から請求項4のいずれか一項に記載の涙液角結膜状態検査装置。
【請求項6】
前記ユーザーによるアンケートへの回答結果であるユーザー回答結果を取得する回答結果取得部をさらに備え、
前記予測部は、前記被検者によるアンケートへの回答結果である被検者回答結果と、前記被検者画像データと、前記被検者検査データとの組み合わせからなる被検者第2データセットと、前記ユーザー画像データと、前記ユーザー回答結果とに基づいて前記ユーザー検査データを予測する
請求項1から請求項5のいずれか一項に記載の涙液角結膜状態検査装置。
【請求項7】
前記被検者と前記ユーザーとは同一の人物である
請求項1から請求項6のいずれか一項に記載の涙液角結膜状態検査装置。
【請求項8】
デジタルカメラによって撮影されたユーザーの目の画像であるユーザー画像データを取得する画像データ取得過程と、
デジタルカメラによって撮影された被検者の目の画像である被検者画像データと、前記被検者の涙液の状態と角結膜の状態とのうち少なくとも1つ以上が検査された結果を含む被検者検査データとの組み合わせからなるデータセットと、前記ユーザー画像データと、に基づいて、前記ユーザーの涙液の状態と角結膜の状態とのうち少なくとも1つ以上が検査された場合の結果を含むユーザー検査データを予測する予測過程と、
コンピュータが実行する涙液角結膜状態検査方法であって、
前記被検者の目の画像及び前記ユーザーの目の画像はそれぞれ、目のうち白目と黒目とを合わせた部分が切り出された画像であり、
前記被検者の目の画像及び前記ユーザーの目の画像ではそれぞれ、白目と黒目とを合わせた部分について縦の長さと横の長さとの比率が0.62から0.75の範囲内である撮影条件を満たす、
涙液角結膜状態検査方法。
【請求項9】
デジタルカメラによって撮影されたユーザーの目の画像であるユーザー画像データを取得する画像データ取得過程と、
デジタルカメラによって撮影された被検者の目の画像である被検者画像データと、前記被検者の涙液の状態と角結膜の状態とのうち少なくとも1つ以上が検査された結果を含む被検者検査データとの組み合わせからなるデータセットと、前記ユーザー画像データと、に基づいて、前記ユーザーの涙液の状態と角結膜の状態とのうち少なくとも1つ以上が検査された場合の結果を含むユーザー検査データを予測する予測過程と、
コンピュータが実行する涙液角結膜状態検査方法であって、
前記被検者の目の画像及び前記ユーザーの目の画像はそれぞれ、目のうち白目と黒目とを合わせた部分が切り出された画像であり、
前記被検者の目の画像及び前記ユーザーの目の画像ではそれぞれ、白目と黒目とを合わせた部分の縦の長さと、前記部分のうちの黒目の縦の長さとの比率が1.20から1.40の範囲内である撮影条件を満たす、
涙液角結膜状態検査方法。
【請求項10】
コンピュータに、
デジタルカメラによって撮影されたユーザーの目の画像であるユーザー画像データを取得する画像データ取得過ステップと、
デジタルカメラによって撮影された被検者の目の画像である被検者画像データと、前記被検者の涙液の状態と角結膜の状態とのうち少なくとも1つ以上が検査された結果を含む被検者検査データとの組み合わせからなるデータセットと、前記ユーザー画像データと、に基づいて、前記ユーザーの涙液の状態と角結膜の状態とのうち少なくとも1つ以上が検査された場合の結果を含むユーザー検査データを予測する予測ステップと、
を実行させるためのプログラムであって、
前記被検者の目の画像及び前記ユーザーの目の画像はそれぞれ、目のうち白目と黒目とを合わせた部分が切り出された画像であり、
前記被検者の目の画像及び前記ユーザーの目の画像ではそれぞれ、白目と黒目とを合わせた部分について縦の長さと横の長さとの比率が0.62から0.75の範囲内である撮影条件を満たす、
プログラム。
【請求項11】
コンピュータに、
デジタルカメラによって撮影されたユーザーの目の画像であるユーザー画像データを取得する画像データ取得過ステップと、
デジタルカメラによって撮影された被検者の目の画像である被検者画像データと、前記被検者の涙液の状態と角結膜の状態とのうち少なくとも1つ以上が検査された結果を含む被検者検査データとの組み合わせからなるデータセットと、前記ユーザー画像データと、に基づいて、前記ユーザーの涙液の状態と角結膜の状態とのうち少なくとも1つ以上が検査された場合の結果を含むユーザー検査データを予測する予測ステップと、
を実行させるためのプログラムであって、
前記被検者の目の画像及び前記ユーザーの目の画像はそれぞれ、目のうち白目と黒目とを合わせた部分が切り出された画像であり、
前記被検者の目の画像及び前記ユーザーの目の画像ではそれぞれ、白目と黒目とを合わせた部分の縦の長さと、前記部分のうちの黒目の縦の長さとの比率が1.20から1.40の範囲内である撮影条件を満たす、
プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、涙液角結膜状態検査装置、涙液角結膜状態検査方法、及びプログラムに関する。
【背景技術】
【0002】
近年、テレワーク導入が加速され、テレワーク実践者の7割以上が目の疲れを感じるなど、目の不調を感じる人が急激に増加している。テレワークだけでなく様々なサービスがオンライン化されることが見込まれ、人々の目への負担は今後ますます増大していくと予想される。
ドライアイとは、涙液が不安定になることで目の不快感や視機能の異常、目の表面に傷を伴うなど、様々な原因と症状からなる疾患である。現在、ドライアイの治療として、眼表面の層別治療が行われている。眼表面の層別治療では、眼表面の異常を層別に検査した上でそれらの異常に適した点眼あるいは治療を選択することで、従来に比べてより効率的にドライアイを治療することができる。眼表面の層別治療における検査には、特殊な装置、あるいは染色試薬投与が必要であり、検査は眼科でしか行えない。
【0003】
機械学習の技術を用い臨床における眼科検査機器から取得できる画像データを眼科医の診断に即した手法に基づいて分類するとともに、画像データに存在する特徴から患者の疾患を導き出す眼科診断支援の装置が知られている(特許文献1)。
【先行技術文献】
【特許文献】
【0004】
【文献】特開2020-36835号公報
【非特許文献】
【0005】
【文献】島▲崎▼ 潤、2006年ドライアイ診断基準、「あたらしい眼科」、メディカル葵出版、2007年2月28日、24巻、2月号、p.181-184
【発明の概要】
【発明が解決しようとする課題】
【0006】
しかしながら、特許文献1に記載されるような眼科診断支援の装置では、眼科検査機器から取得される画像データを用いるため特殊な検査機器を必要としていた。眼科検査機器などの特殊な検査機を用いず、簡易な検査によって目の状態を検査することが求められていた。
【0007】
本発明は上記の点に鑑みてなされたものであり、簡易な検査によって目の状態を検査できる涙液角結膜状態検査装置、涙液角結膜状態検査方法、及びプログラムを提供する。
【課題を解決するための手段】
【0008】
本発明は上記の課題を解決するためになされたものであり、本発明の一態様は、デジタルカメラによって撮影されたユーザーの目の画像であるユーザー画像データを取得する画像データ取得部と、デジタルカメラによって撮影された被検者の目の画像である被検者画像データと、前記被検者の涙液の状態と角結膜の状態とのうち少なくとも1つ以上が検査された結果を含む被検者検査データとの組み合わせからなるデータセットと、前記ユーザー画像データとに基づいて、前記ユーザーの涙液の状態と角結膜の状態とのうち少なくとも1つ以上が検査された場合の結果を含むユーザー検査データを予測する予測部と、を備える涙液角結膜状態検査装置である。
【0009】
また、本発明の一態様は、上記の涙液角結膜状態検査装置において、前記被検者の目の画像及び前記ユーザーの目の画像にはそれぞれ、黒目の全体が撮影されていることが含まれる。
【0010】
また、本発明の一態様は、上記の涙液角結膜状態検査装置において、前記被検者の目の画像及び前記ユーザーの目の画像ではそれぞれ、白目と黒目とを合わせた部分について縦の長さと横の長さとの比率が所定の範囲内であることが含まれる。
【0011】
また、本発明の一態様は、上記の涙液角結膜状態検査装置において、前記被検者の目の画像及び前記ユーザーの目の画像ではそれぞれ、白目と黒目とを合わせた部分の縦の長さと、前記部分のうちの黒目の縦の長さとの比率が所定の範囲内であることが含まれる。
【0012】
また、本発明の一態様は、上記の涙液角結膜状態検査装置において、前記被検者の目の画像及び前記ユーザーの目の画像はそれぞれ、目のうち白目と黒目とを合わせた部分が切り出された画像である。
【0013】
また、本発明の一態様は、上記の涙液角結膜状態検査装置において、前記予測部は、前記データセットに基づいて前記被検者画像データと、前記被検者検査データとの関係が深層学習によって学習された学習結果と、前記ユーザー画像データとに基づいて、前記ユーザー検査データを予測する。
【0014】
また、本発明の一態様は、上記の涙液角結膜状態検査装置において、前記ユーザーによるアンケートへの回答結果であるユーザー回答結果を取得する回答結果取得部をさらに備え、前記予測部は、前記被検者によるアンケートへの回答結果である被検者回答結果と、前記被検者画像データと、前記被検者検査データとの組み合わせからなる被検者第2データセットと、前記ユーザー画像データと、前記ユーザー回答結果とに基づいて前記ユーザー検査データを予測する。
【0015】
また、本発明の一態様は、上記の涙液角結膜状態検査装置において、前記被検者と前記ユーザーとは同一の人物である。
【0016】
また、本発明の一態様は、デジタルカメラによって撮影されたユーザーの目の画像であるユーザー画像データを取得する画像データ取得過程と、デジタルカメラによって撮影された被検者の目の画像である被検者画像データと、前記被検者の涙液の状態と角結膜の状態とのうち少なくとも1つ以上が検査された結果を含む被検者検査データとの組み合わせからなるデータセットと、前記ユーザー画像データと、に基づいて、前記ユーザーの涙液の状態と角結膜の状態とのうち少なくとも1つ以上が検査された場合の結果を含むユーザー検査データを予測する予測過程と、を有する涙液角結膜状態検査方法である。
【0017】
また、本発明の一態様は、コンピュータに、デジタルカメラによって撮影されたユーザーの目の画像であるユーザー画像データを取得する画像データ取得過ステップと、デジタルカメラによって撮影された被検者の目の画像である被検者画像データと、前記被検者の涙液の状態と角結膜の状態とのうち少なくとも1つ以上が検査された結果を含む被検者検査データとの組み合わせからなるデータセットと、前記ユーザー画像データと、に基づいて、前記ユーザーの涙液の状態と角結膜の状態とのうち少なくとも1つ以上が検査された場合の結果を含むユーザー検査データを予測する予測ステップと、を実行させるためのプログラムである。
【発明の効果】
【0018】
本発明によれば、簡易な検査によって目の状態を検査できる。
【図面の簡単な説明】
【0019】
図1】本発明の実施形態に係る検査システムの構成の一例を示す図である。
図2】本発明の実施形態に係る撮影装置の構成の一例を示す図である。
図3】本発明の実施形態に係る所定の撮影条件の一例を示す図である。
図4】本発明の実施形態に係るユーザー画像データの一例を示す図である。
図5】本発明の実施形態に係る涙液角結膜状態検査装置の構成の一例を示す図である。
図6】本発明の実施形態に係る目状態予測処理の一例を示す図である。
図7】本発明の実施形態に係る撮影画面の一例を示す図である。
図8】本発明の実施形態に係る撮影画面の一例を示す図である。
図9】本発明の実施形態に係る予測結果表示画面の一例を示す図である。
図10】本発明の実施形態に係る予測処理の一例を示す図である。
図11】本発明の変形例に係る涙液角結膜状態検査装置の構成の一例を示す図である。
図12】本発明の変形例に係る撮影画面の一例を示す図である。
図13】本発明の変形例に係る予測結果表示画面の一例を示す図である。
図14】本発明の変形例に係る履歴画面の一例を示す図である。
【発明を実施するための形態】
【0020】
(実施形態)
以下、図面を参照しながら本発明の実施形態について詳しく説明する。図1は、本実施形態に係る検査システムE1の構成の一例を示す図である。検査システムE1は、撮影装置1と、涙液角結膜状態検査装置2とを備える。
【0021】
撮影装置1は、デジタルカメラを備え、ユーザーU1の目を撮影する。撮影装置1は、一例として、デジタルカメラを備えるスマートフォンである。撮影装置1は、デジタルカメラによって撮影されたユーザーU1の目の画像であるユーザー画像データP1を涙液角結膜状態検査装置2に送信する。涙液角結膜状態検査装置2は、一例として、サーバである。
【0022】
涙液角結膜状態検査装置2は、深層学習によって学習された学習結果L1を記憶している。学習結果L1は、デジタルカメラによって撮影された被検者の目の画像である被検者画像データと、被検者の目の状態が検査された結果を含む被検者検査データとの関係が深層学習によって学習された結果である。被検者検査データは、測定値、定められた基準によるスコア値、画像データであってもよい。本実施形態において、目の状態とは、涙液の状態と角結膜の状態とのうち少なくとも1つ以上である。涙液の状態には、涙液の量、涙液油層厚み、ムチン層の障害面積、涙液層破壊時間、非侵襲的涙液層破壊時間のうち少なくとも1つ以上が含まれる。角結膜の状態には、角結膜の障害面積が含まれる。スコア値には例えば、非特許文献1に記載の基準が用いられる。
被検者とは、学習に用いられる被検者画像データ及び被検者検査データの提供者である。
【0023】
涙液角結膜状態検査装置2は、深層学習によって学習された学習結果と、ユーザー画像データP1とに基づいて、ユーザーU1の目の状態が検査された場合の結果を含む検査データを予測する。涙液角結膜状態検査装置2は、検査データを予測した結果である予測結果A1を撮影装置1に送信する。撮影装置1は、予測結果A1をユーザーU1に提示する。
【0024】
[撮影装置の構成]
図2は、本実施形態に係る撮影装置1の構成の一例を示す図である。撮影装置1は、撮影装置制御部10と、撮影部11と、撮影装置通信部12と、表示部13と、操作受付部14とを備える。
【0025】
撮影装置制御部10は、画像取得部100と、撮影条件判定部101と、白目黒目部分抽出部102と、画像出力部103と、予測結果取得部104と、提示部105とを備える。撮影装置制御部10は、一例としてCPU(Central Processing Unit)により実現され、画像取得部100と、撮影条件判定部101と、白目黒目部分抽出部102と、画像出力部103と、予測結果取得部104と、提示部105とはそれぞれ、CPUがROM(Read Only Memory)からプログラムを読み込んで処理を実行することにより実現される。
【0026】
画像取得部100は、撮影部11によって撮影画像P0を取得する。撮影画像P0は、ユーザーU1の目が撮影された画像である。撮影画像P0は、一例として、染色試薬などでユーザーU1の目が染色されていない状態において当該目が撮影された画像である。撮影画像P0は、一例として、1枚の画像である。撮影画像P0は、複数の画像のセットであってもよい。なお、撮影部11は、ユーザーU1の目が染色された状態において当該目を撮影してもよい。染色とは、例えば、フルオレセイン染色、あるいはリサミングリーン染色などの染色である。
撮影条件判定部101は、画像取得部100によって取得された撮影画像P0について、所定の撮影条件が満たされているか否かを判定する。
【0027】
ここで図3を参照し、所定の撮影条件について説明する。図3は、本実施形態に係る所定の撮影条件の一例を示す図である。所定の撮影条件について説明する前に、本実施形態における黒目と白目について説明する。黒目とは、目を正目からみた場合に角膜に対応する部分である。目を正目からみた場合に、角膜の奥側には瞳孔と、虹彩とがあるため、換言すれば黒目は、瞳孔と、虹彩とを含む部分でもある。一方、白目とは、目を正目からみた場合に球結膜に対応する部分である。
【0028】
本実施形態において所定の撮影条件には、以下の3つの撮影条件が含まれる。
1つ目の撮影条件は、黒目の全体が撮影されていることである。
2つ目の撮影条件は、白目と黒目とを合わせた部分について縦の長さと横の長さとの比率(以下の説明で縦横比率という)が所定の範囲内であることが含まれる。縦横比率について所定の範囲とは、一例として、0.62から0.75の範囲である。図3において、撮影画像R1、撮影画像R2、及び撮影画像R3はそれぞれ、2つ目の撮影条件を説明するための撮影画像の一例である。撮影画像R1、撮影画像R2、及び撮影画像R3はそれぞれについて、縦横比率はそれぞれ、0.61、0.64、及び0.76である。撮影画像R1では、瞼が十分に開いておらず、2つ目の撮影条件が満たされていない。撮影画像R2では、瞼が十分に開いており、2つ目の撮影条件が満たされている。撮影画像R3では、瞼が開き過ぎており、2つ目の撮影条件が満たされていない。
【0029】
3つ目の撮影条件は、白目と黒目とを合わせた部分の縦の長さと、白目と黒目とを合わせた部分のうちの黒目の縦の長さとの比率(以下の説明で白目黒目比率という)が所定の範囲内であることが含まれる。白目黒目比率について所定の範囲とは、一例として、1.20から1.40の範囲である。図3において、撮影画像R4、撮影画像R5、及び撮影画像R6はそれぞれ、3つ目の撮影条件を説明するための撮影画像の一例である。撮影画像R4、撮影画像R5、及び撮影画像R6それぞれについて、白目黒目比率はそれぞれ、1.12、1.31、及び1.51である。撮影画像R5では、3つ目の撮影条件が満たされている。撮影画像R4、及び撮影画像R6では、3つ目の撮影条件が満たされていない。
【0030】
図2に戻って撮影装置1の構成の説明を続ける。
白目黒目部分抽出部102は、撮影画像P0から目のうち白目と黒目とを合わせた部分を切り出す。目のうち白目と黒目とを合わせた部分とは、目のうち瞼及び皮膚などを除いた眼球の部分である。撮影画像P0から目のうち白目と黒目とを合わせた部分が切り出された画像を、ユーザー画像データP1という。図4に、ユーザー画像データP1の一例を示す。ユーザー画像データP1では、目のうち白目と黒目とを合わせた部分以外の部分が削除されている。目のうち白目と黒目とを合わせた部分以外の部分には、瞼及び皮膚が含まれる。本実施形態において、ユーザー画像データP1は、目のうち白目と黒目とを合わせた部分が切り出された画像である。
【0031】
なお、撮影画像P0に対して目のうち白目と黒目とを合わせた部分が切り出す処理が行われずに、撮影画像P0がそのままユーザー画像データP1とされてもよい。その場合、白目黒目部分抽出部102は、撮影装置制御部10の構成から省略されてもよい。
【0032】
画像出力部103は、ユーザー画像データP1を涙液角結膜状態検査装置2に出力する。
予測結果取得部104は、涙液角結膜状態検査装置2から予測結果A1を取得する。予測結果A1は、例えば、目の状態をスコアによって示す。予測結果A1は、例えば、涙液の状態についてのスコアと、角結膜の状態についてのスコアとのうち少なくとも1つ以上を含む。
提示部105は、予測結果A1を提示する。提示部105は、予測結果A1を表示部13に表示させることによって予測結果A1を提示する。
【0033】
撮影部11は、デジタルカメラを含んで構成される。撮影部11は、ユーザーU1の目を撮影する。ユーザーU1の目は、正面から撮影されることが好ましい。また、撮影部11がユーザーU1の目を撮影する場合に、撮影部11を構成するデジタルカメラのレンズと、ユーザーU1の目との距離が近い場合であっても、ピントが適切に調整されることが好ましい。
【0034】
撮影部11が撮影する画像は、静止画であってもよいし、動画であってもよい。撮影部11が動画を撮影する場合には、画像取得部100は、動画に含まれる複数のフレームのなかから撮影画像P0を選択する。例えば、画像取得部100は、動画に含まれる複数のフレームのなかから、上述した所定の撮影条件を満たすフレームを選択する。この場合、画像取得部100は、撮影条件判定部101に動画に含まれる複数のフレームそれぞれについて所定の撮影条件を満たすか否かの判定を実行させる。
【0035】
撮影装置通信部12は、無線ネットワークを介して、涙液角結膜状態検査装置2と通信を行う。撮影装置通信部12は、無線ネットワークを介して通信を行うためのハードウェアを含む。
表示部13は、各種の情報を表示する。表示部13は、撮影部11が撮影した撮影画像P0、あるいは、予測結果A1を表示する。表示部13は、液晶ディスプレイ、または有機エレクトロルミネッセンス(EL:Electroluminescence)ディスプレイである。
操作受付部14は、ユーザーU1からの操作を受け付ける。操作受付部14は、例えば、タッチパネルを含み、表示部13と一体となって構成される。
【0036】
[涙液角結膜状態検査装置の構成]
図5は、本実施形態に係る涙液角結膜状態検査装置2の構成の一例を示す図である。涙液角結膜状態検査装置2は、検査装置制御部20と、記憶部21と、検査装置通信部22とを備える。
【0037】
検査装置制御部20は、画像データ取得部200と、予測部201と、予測結果出力部202と、学習部203とを備える。検査装置制御部20は、一例としてCPUにより実現され、画像データ取得部200と、予測部201と、予測結果出力部202と、学習部203とはそれぞれ、CPUがROMからプログラムを読み込んで処理を実行することにより実現される。
【0038】
画像データ取得部200は、撮影装置1からユーザー画像データP1を取得する。
予測部201は、学習結果L1と、ユーザー画像データP1とに基づいて、ユーザー検査データを予測する。ユーザー検査データは、ユーザーU1の涙液の状態と角結膜の状態とのうち少なくとも1つ以上が検査された場合の結果を含む。
【0039】
予測結果出力部202は、予測部201が予測したユーザー検査データを、予測結果A1として撮影装置1に出力する。
学習部203は、被検者画像データと、被検者検査データとの関係を学習する。被検者画像データは、デジタルカメラによって撮影された被検者の目の画像である。このデジタルカメラは、撮影装置1に備えられるデジタルカメラとは異なっていてよい。
【0040】
被検者検査データは、被検者の目の状態が検査された結果を含む。被検者は、複数であってよい。被検者のなかにユーザーU1は含まれていても、含まれていなくてもよい。被検者の目の画像の撮影、及び被検者の目の状態の検査は同一日時に行われる。
涙液の量は、例えば光干渉断層計にて涙液メニスカス高さを指標に検査される。涙液油層厚みは、例えば光干渉計にて検査される。ムチン層障害面積は、例えばリサミングリーン染色された眼の染色面積又は染色の濃さを指標に検査される。涙液層破壊時間は、例えばフルオレセイン染色された涙液が瞬き直後から破壊されるまでの時間を指標に検査される。非侵襲的涙液層破壊時間は、光干渉像にて可視化した涙液が瞬き直後から破壊されるまでの時間を指標に検査される。角結膜障害面積は、例えばフルオレセイン染色された眼の染色面積又は染色の濃さを指標に検査される。
【0041】
学習部203は、被検者画像データと、被検者検査データとの組み合わせからなるデータセットに基づいて学習を実行する。当該データセットは、記憶部21に予め記憶されて、学習部203は、記憶部21から当該データセットを取得してもよいし、学習部203は、サーバなどの外部装置から当該データセットを取得してもよい。学習部203は、学習した結果を学習結果L1として記憶部21に記憶させる。
【0042】
学習部203は、一例として、深層学習に基づいて学習を実行する。学習結果L1は、学習が実行されることによってウェイト及びバイアスの各パラメータが変更されたニューラルネットワークを示す情報である。
【0043】
被検者画像データは、上述した所定の撮影条件が満たされた状態において被検者の目が撮影された画像である。なお、被検者画像データは、上述した所定の撮影条件が満たされていなくてもよい。また、被検者画像データには、所定の撮影条件を満たす画像と、所定の撮影条件を満たさない画像との両方が含まれていてもよい。
被検者画像データは、本実施形態のようにユーザー画像データP1として所定の撮影条件を満たす画像が用いられる場合には、予測の精度を向上させるために所定の撮影条件を満たしていることが好ましい。
【0044】
被検者画像データは、目のうち白目と黒目とを合わせた部分が切り出された画像である。なお、被検者画像データは、当該部分が切り出されていない画像であってもよい。また、被検者画像データには、目のうち白目と黒目とを合わせた部分が切り出された画像と、当該部分が切り出されていない画像との両方が含まれていてもよい。
被検者画像データは、本実施形態のようにユーザー画像データP1として目のうち白目と黒目とを合わせた部分が切り出された画像が用いられる場合には、予測の精度を向上させるために当該部分が切り出された画像であることが好ましい。
【0045】
被検者画像データには、正常な目の画像と、異常な目の画像とが含まれる。角結膜障害面積が異常な目の画像とは、例えば、角結膜障害面積が33%以上の時と同一日時に撮影された目の画像である。角結膜障害面積が正常な目の画像とは、例えば、角結膜障害面積が33%未満の時と同一日時に撮影された目の画像である。同様に、ムチン層障害面積、涙液層破壊時間、非侵襲的涙液層破壊時間、涙液油層厚み、涙液の量が異常な画像とは、例えば、ムチン層障害面積が33%以上、涙液層破壊時間が5秒以下、非侵襲的涙液層破壊時間が10秒以下、涙液油層厚みが80μm未満、涙液の量が310μm未満の時と同一日時に撮影された目の画像である。ムチン層障害面積、涙液層破壊時間、非侵襲的涙液層破壊時間、涙液油層厚み、涙液の量が正常な画像とは、例えば、ムチン層障害面積が33%未満、涙液層破壊時間が5秒超、非侵襲的涙液層破壊時間が10秒超、涙液油層厚みが80μm以上、涙液の量が310μm以上の時と同一日時に撮影された目の画像である。
【0046】
本実施形態では、被検者画像データに含まれる正常な目の画像の数と、異常な目の画像の数とは等しい。正常な目の画像の数と、異常な目の画像の数とは、例えば、それぞれ1000枚である。正常な目の画像の数と、異常な目の画像の数とは、予測の精度の向上のためには等しいことが好ましい。なお、被検者画像データに含まれる正常な目の画像の数と、異常な目の画像の数とは異なっていてもよい。
【0047】
学習部203は、学習の実行前に被検者画像データに変形を加えてもよい。この変形には、例えば、拡大及び縮小、回転、縦横の平行移動、あるいは、せん断歪みによる変形が含まれる。例えば、学習部203は、被検者画像データに変形を加えることによって、例えば、黒目の部分が画像内の中心に位置するようにして、かつ、複数の画像間において黒目の部分の大きさが共通となるようにする。
学習部203は、変形を加える前の元の被検者画像データと、被検者画像データに変形を加えて得られる新たな画像とを組み合わせることによって、被検者画像データの数を増幅させてもよい。
【0048】
学習部203が深層学習に用いるニューラルネットワークでは、中間層の数は3層である。なお、深層学習に用いるニューラルネットワークの中間層は、3層より多くてもよい。
学習部203は、所定の回数だけ深層学習を実行する。この所定の回数は、例えば、5回である。なお、所定の回数は、5以外の回数であってもよい。
【0049】
なお、学習部203は、深層学習以外の機械学習に基づいて学習を実行してもよい。
外部装置によって学習された結果が学習結果L1として記憶部21に予め記憶されてもよい。その場合、学習部203は、検査装置制御部20の構成から省略されてもよい。
【0050】
記憶部21は、各種の情報を記憶する。記憶部21が記憶する情報には、学習結果L1が含まれる。記憶部21は、磁気ハードディスク装置や半導体記憶装置等の記憶装置を用いて構成される。
検査装置通信部22は、無線ネットワークを介して、撮影装置1と通信を行う。検査装置通信部22は、無線ネットワークを介して通信を行うためのハードウェアを含む。
【0051】
[撮影装置の目状態予測処理]
次に図6を参照し、撮影装置1がユーザーU1の目を撮影して、予測結果A1を提示する処理である目状態予測処理について説明する。図6は、本実施形態に係る目状態予測処理の一例を示す図である。
【0052】
ステップS10:撮影装置制御部10は、表示部13に撮影画面を表示させる。撮影画面は、撮影部11がユーザーU1の目を撮影する場合に表示部13に表示される画面である。撮影画面には、撮影部11によって撮影されるユーザーU1の顔の画像が即時に表示される。
【0053】
撮影画面には、撮影部11によって撮影されるユーザーU1の顔の画像の他に、撮影ガイドが表示されてよい。撮影ガイドは、撮影の手順をユーザーU1に示すためのテキスト、アイコンなどである。撮影ガイドには、所定の撮影条件を満たした状態でユーザーU1の目が撮影されるために、ユーザーU1に対して指示を行うテキスト、アイコンが含まれてもよい。テキストは、例えば、「まぶたが黒目にかからない程度に目を開いてください。」などのテキストである。アイコンは、例えば、撮影画面においてユーザーU1の目の画像の上下に表示される目を開くことを指示する矢印などである。
【0054】
ステップS20:撮影部11は、ユーザーU1の目を撮影する。撮影部11は、ユーザーU1の目が撮影された撮影画像P0を生成する。
ステップS30:画像取得部100は、撮影部11から撮影画像P0を取得する。画像取得部100は、取得した撮影画像P0を撮影条件判定部101に供給する。
【0055】
ステップS40:撮影条件判定部101は、画像取得部100によって取得された撮影画像P0ついて、所定の撮影条件が満たされているか否かを判定する。撮影条件判定部101は、撮影画像P0のうち黒目の部分と、白目の部分とを抽出する。撮影条件判定部101は、この抽出の処理において画像認識の技術を用いる。撮影条件判定部101は、抽出した黒目の部分と、白目の部分とに基づいて判定を行う。
【0056】
本実施形態では、撮影条件判定部101は、所定の撮影条件として、上述した3つの撮影条件全てが満たされている場合に、所定の撮影条件が満たされていると判定する。なお、撮影条件判定部101は、所定の撮影条件として、上述した3つの撮影条件のうち1つ以上が満たされている場合に、所定の撮影条件が満たされていると判定してもよい。
【0057】
撮影条件判定部101が所定の撮影条件が満たされていると判定する場合(ステップS40;YES)、撮影条件判定部101は、撮影画像P0を白目黒目部分抽出部102に供給する。その後、撮影装置制御部10はステップS50の処理を実行する。一方、撮影条件判定部101が所定の撮影条件が満たされていないと判定する場合(ステップS40;NO)、撮影装置制御部10はステップS90の処理を実行する。
【0058】
ステップS50:白目黒目部分抽出部102は、撮影画像P0から目のうち白目と黒目とを合わせた部分を切り出す。白目黒目部分抽出部102は、画像認識の技術に基づいて、撮影画像P0から目のうち白目と黒目とを合わせた部分と、それ以外の部分とを判定する。白目黒目部分抽出部102は、撮影画像P0から目のうち白目と黒目とを合わせた部分以外の部分を削除することによって、目のうち白目と黒目とを合わせた部分を切り出す。白目黒目部分抽出部102は、撮影画像P0から目のうち白目と黒目とを合わせた部分を切り出す処理を行って得られる画像をユーザー画像データP1として画像出力部103に供給する。
【0059】
ステップS60:画像出力部103は、ユーザー画像データP1を涙液角結膜状態検査装置2に出力する。ここで画像出力部103は、撮影装置通信部12を介してユーザー画像データP1を涙液角結膜状態検査装置2に送信する。
【0060】
なお、撮影装置制御部10は、画像出力部103がユーザー画像データP1を涙液角結膜状態検査装置2に出力する前に、撮影されたユーザー画像データP1を表示部13に表示させてユーザーU1に確認を促してもよい。ユーザーU1によってユーザー画像データP1が承認された場合に、画像出力部103は、ユーザー画像データP1を涙液角結膜状態検査装置2に出力してもよい。ユーザーU1によってユーザー画像データP1が承認されなかった場合に、撮影装置制御部10は、ステップS10の処理を再度実行してもよい。ユーザーU1による承認は、操作受付部14からの操作として行われる。
【0061】
ステップS70:予測結果取得部104は、涙液角結膜状態検査装置2から予測結果A1を取得する。ここで予測結果取得部104は、撮影装置通信部12を介して予測結果A1を涙液角結膜状態検査装置2から受信する。
【0062】
ステップS80:提示部105は、予測結果A1を提示する。提示部105は、予測結果A1を表示部13に表示させることによって予測結果A1を提示する。
【0063】
ステップS90:撮影条件判定部101は、表示部13を制御し、表示部13に撮影ガイドを表示させる。ステップS90において表示される撮影ガイドは、例えば、所定の撮影条件のうち満たされていない撮影条件に応じた内容を含む。例えば、撮影画像P0が1つ目の撮影条件を満たしていない場合、「まぶたが黒目にかからない程度に目を開いてください。」などのテキストを表示させる。ステップS90においても、ステップS10において表示されたのと同様の撮影ガイドが表示されてもよい。
撮影条件判定部101がステップS90の処理を終えると、撮影装置1は、ステップS20の処理を再び実行する。
以上で、撮影装置1は、目状態予測処理を終了する。
【0064】
なお、上述したように、ユーザー画像データP1は、所定の撮影条件を満たす撮影画像P0から生成されている。したがって、ユーザー画像データP1は、所定の撮影条件が満たされた状態においてユーザーU1の目が撮影された画像である。
なお、ユーザー画像データP1は、所定の撮影条件を満たしていなくてもよい。その場合、上述したステップS40の処理は省略される。また、その場合、撮影条件判定部101は、撮影装置制御部10の構成から省略されてもよい。
【0065】
ここで図7から図10を参照し、撮影装置1の表示部13が表示する各種画面について説明する。
図7は、本実施形態に係る撮影画面G1の一例を示す図である。撮影画面G1では、ユーザーU1の目を含む顔の画像と、撮影ガイドとが表示されている。撮影画面G1では、撮影ガイドとして、撮影の手順がテキストによって表示されている。
【0066】
図8は、本実施形態に係る撮影画面G2の一例を示す図である。撮影画面G2では、ユーザーU1の目の撮影が完了し、撮影されたユーザー画像データP2が表示されている。撮影画面G2には、撮影されたユーザー画像データP2をユーザーU1が承認するためのボタンである「評価スタート」ボタンと、再度撮影を実行するためのボタンである「もう一度撮影」ボタンとが表示されている。
【0067】
図9は、本実施形態に係る予測結果表示画面G3の一例を示す図である。予測結果表示画面G3は、予測結果A1に基づいて、ユーザーU1の目の状態が検査された場合の結果を含む検査データが表示されている。予測結果表示画面G3では、一例として、涙液油層厚み、涙の量、ムチン層障害面積、及び角結膜障害面積のそれぞれの状態が、スコアを用いて表示されている。また、予測結果表示画面G3では、予測結果A1に基づいて、ユーザーU1の目の健康リスクについて総合的な予測結果が表示されている。
【0068】
[涙液角結膜状態検査装置の予測処理]
次に図10を参照し、涙液角結膜状態検査装置2の予測処理について説明する。図10は、本実施形態に係る予測処理の一例を示す図である。図10に示す予測処理は、図6に示した目状態予測処理においてステップ60の処理が実行された後に実行される。
【0069】
ステップS100:画像データ取得部200は、撮影装置1からユーザー画像データP1を取得する。画像データ取得部200は、検査装置通信部22を介して、撮影装置1からユーザー画像データP1を受信する。画像データ取得部200は、取得したユーザー画像データP1を予測部201に供給する。
【0070】
ステップS110:予測部201は、記憶部21から学習結果L1を取得する。
ステップS120:予測部201は、学習結果L1と、ユーザー画像データP1とに基づいて、ユーザー検査データを予測する。予測部201は、深層学習に基づいて予測を行う。
【0071】
上述したように学習結果L1とは、デジタルカメラによって撮影された被検者の目の画像である被検者画像データと、被検者の目の状態が検査された結果を含む被検者検査データとの組み合わせからなるデータセットに基づいて、被検者画像データと、被検者検査データとの関係が深層学習によって学習された結果である。つまり、学習結果L1とは、被検者画像データと、被検者検査データとの組み合わせからなるデータセットに基づいて学習が行われた結果である。したがって、予測部201は、被検者画像データと、被検者検査データとの組み合わせからなるデータセットと、ユーザー画像データP1と、に基づいて、ユーザー検査データを予測する。
【0072】
予測部201は、深層学習に用いられるニューラルネットワークの入力層にユーザー画像データP1を構成する画素の各画素値を入力する。ニューラルネットワークの出力層には、入力された画素値と、ウェイト及びバイアスとに応じた値が出力される。出力層に出力される値と、目の状態についてのスコアとは予め対応づけられている。
予測部201は、予測結果A1を予測結果出力部202に供給する。
【0073】
ステップS130:予測結果出力部202は、予測結果A1を撮影装置1に出力する。ここで予測結果出力部202は、検査装置通信部22を介して予測結果A1を撮影装置1に送信する。
以上で、涙液角結膜状態検査装置2は、予測処理を終了する。
【0074】
[実施形態のまとめ]
以上に説明したように、本実施形態に係る涙液角結膜状態検査装置2は、画像データ取得部200と、予測部201とを備える。
画像データ取得部200は、デジタルカメラ(本実施形態において、撮影装置1)によって撮影されたユーザーU1の目の画像であるユーザー画像データP1を取得する。
予測部201は、デジタルカメラによって撮影された被検者の目の画像である被検者画像データと、当該被検者の涙液の状態と角結膜の状態とのうち少なくとも1つ以上(本実施形態において、目の状態)が検査された結果を含む被検者検査データとの組み合わせからなるデータセット(本実施形態において、学習結果L1)と、ユーザー画像データP1と、に基づいて、ユーザーU1の涙液の状態と角結膜の状態とのうち少なくとも1つ以上(本実施形態において、目の状態)が検査された場合の結果を含むユーザー検査データを予測する。
【0075】
この構成により、本実施形態に係る涙液角結膜状態検査装置2は、デジタルカメラによって撮影されたユーザーU1の目の画像からユーザーU1の涙液の状態と角結膜の状態とのうち少なくとも1つ以上が検査された場合の結果を含むユーザー検査データを予測できるため、簡易な検査によって目の状態を検査できる。本実施形態において目の状態とは、涙液の状態と角結膜の状態とのうち少なくとも1つ以上である。涙液角結膜状態検査装置2では、眼科検査機器を用いず、スマートフォンなどに付属のデジタルカメラを用いてユーザーU1の目を撮影することによって、簡易な検査によって目の状態を検査できる。
【0076】
また、本実施形態に係る涙液角結膜状態検査装置2では、被検者の目の画像及びユーザーU1の目の画像はそれぞれ、目が染色されていない状態において当該目が撮影された画像である。
この構成により、本実施形態に係る涙液角結膜状態検査装置2では、染色のための薬剤を用いず、スマートフォンなどに付属のデジタルカメラを用いてユーザーU1の目を撮影することによって、簡易な検査によって目の状態を検査できる。
【0077】
また、本実施形態に係る涙液角結膜状態検査装置2では、被検者の目の画像及びユーザーU1の目の画像はそれぞれ、所定の撮影条件が満たされた状態において目が撮影された画像である。
この構成により、本実施形態に係る涙液角結膜状態検査装置2では、ユーザー検査データを予測する精度を、所定の撮影条件が満たされていない場合に比べて向上させることができる。
【0078】
また、本実施形態に係る涙液角結膜状態検査装置2では、被検者の目の画像及びユーザーU1の目の画像はそれぞれ、目のうち白目と黒目とを合わせた部分が切り出された画像である。
この構成により、本実施形態に係る涙液角結膜状態検査装置2では、被検者の目の画像及びユーザーU1の目の画像において、目のうち瞼及び皮膚などの眼球以外の部分についての特徴量を除いてユーザー検査データの予測ができるため、目のうち白目と黒目とを合わせた部分を切り出さない場合に比べてユーザー検査データを予測する精度を向上させることができる。
【0079】
また、本実施形態に係る涙液角結膜状態検査装置2では、予測部201は、被検者画像データと、被検者検査データとの組み合わせからなるデータセットに基づいて被検者画像データと、被検者検査データとの関係が深層学習によって学習された学習結果L1と、ユーザー画像データP1とに基づいて、ユーザー検査データを予測する。
この構成により、本実施形態に係る涙液角結膜状態検査装置2では、深層学習によって学習された学習結果L1に基づいて予測を行うため、深層学習を用いない場合に比べて予測の精度を向上させることができる。
【0080】
なお、本実施形態では、検査システムE1において、撮影装置1と涙液角結膜状態検査装置2とが別体として備えられる場合の一例について説明したが、これに限られない。撮影装置1と涙液角結膜状態検査装置2とは一体の装置であってもよい。
また、本実施形態では、撮影装置1と涙液角結膜状態検査装置2とが無線通信によって通信を行う場合の一例について説明したが、これに限られない。撮影装置1と涙液角結膜状態検査装置2とは、有線通信によって通信を行ってもよい。
【0081】
涙液角結膜状態検査装置2の機能の一部が、撮影装置1に備えられてもよい。例えば、予測部201が撮影装置1に備えられてもよい。また、学習結果L1が撮影装置1に記憶されてもよい。
撮影装置1の機能の一部が、涙液角結膜状態検査装置2に備えられてもよい。例えば、撮影条件判定部101、あるいは白目黒目部分抽出部102などが涙液角結膜状態検査装置2に備えられてもよい。本実施形態では、撮影条件判定部101及び白目黒目部分抽出部102が撮影装置1に備えられることによって、撮影条件を判定する処理、及び白目黒目部分を切り出す処理が撮影装置1によって行われる。そのため、それらの処理に伴う涙液角結膜状態検査装置2(つまり、サーバ)の負荷を軽減できる。
【0082】
なお、本実施形態では、撮影装置1がスマートフォンである場合の一例について説明したが、これに限られない。撮影装置1は、ドラッグストアなどの店舗に設置されてデジタルカメラを備えるパーソナルコンピュータ(Personal Computer:PC)などの端末装置であってもよい。また、撮影装置1は、デジタルカメラを備えるタブレット端末であってもよい。また、撮影装置1は、デジタルカメラを備えるゲーム機であってもよい。
【0083】
また、撮影装置1は、ユーザーU1が撮影装置1を使用している最中に、ユーザーU1の目を撮影し、予測結果A1に基づいて目が疲労していることを、アラートの表示、あるいは警告音などによって報知してもよい。その場合、撮影装置1は、ユーザーU1の目を所定の周期において撮影する。
【0084】
(変形例)
図11から図14を参照し、上記実施形態の変形例について説明する。上記実施形態では、デジタルカメラによって撮影されたユーザーの目の画像であるユーザー画像データに基づいて、目の状態について予測が行われる場合について説明をした。本実施形態では、ユーザー画像データとともに、ユーザーによるアンケートへの回答結果に基づいて、目の状態について予測が行われる場合について説明をする。
本実施形態に係る撮影装置を撮影装置1aといい、涙液角結膜状態検査装置を涙液角結膜状態検査装置2aという。なお、上述した実施形態と同一の構成については同一の符号を付して、同一の構成及び動作についてはその説明を省略する。
【0085】
撮影装置1aの構成と、上記実施形態に係る撮影装置1の構成とは、撮影装置1aがユーザー回答結果Q1を取得する点以外は同様であるため、構成の詳細な説明は省略する。
撮影装置1aは、ユーザー回答結果Q1を操作受付部14がユーザーU1の操作を受け付けることによって取得する。ユーザー回答結果Q1は、ユーザーU1によるアンケートへの回答結果である。このアンケートは、例えば、撮影画面において表示される。このアンケートは、例えば、ユーザーU1の目の自覚症状に関する質問事項を含む。このアンケートでは、例えば、撮影装置1aによってユーザーU1の目が撮影される時の目の自覚症状を選択肢から選択させることによって申告させる。
【0086】
図11は、本変形例に係る涙液角結膜状態検査装置2aの構成の一例を示す図である。本変形例に係る涙液角結膜状態検査装置2a(図11)と実施形態に係る涙液角結膜状態検査装置2(図5)とを比較すると、検査装置制御部20a、及び学習結果L1aが異なる。ここで、他の構成要素が持つ機能は実施形態と同じである。実施形態と同じ機能の説明は省略し、本変形例では、実施形態と異なる部分を中心に説明する。
【0087】
検査装置制御部20aは、画像データ取得部200と、予測部201aと、予測結果出力部202と、学習部203aと、回答結果取得部204aとを備える。
学習部203aは、被検者回答結果と、被検者画像データと、被検者検査データとの関係を学習する。被検者回答結果は、被検者によるアンケートへの回答結果である。
学習部203aは、学習に深層学習を用いる。この深層学習に用いられるニューラルネットワークには、被検者画像データを構成する画素の各画素値とともに、被検者回答結果が入力される。
【0088】
回答結果取得部204aは、撮影装置1からユーザー回答結果Q1を取得する。
予測部201aは、学習結果L1aと、ユーザー回答結果Q1と、ユーザー画像データP1とに基づいて、ユーザー検査データを予測する。予測部201aは、深層学習に基づいて予測を行う。
【0089】
記憶部21は、学習結果L1aを記憶する。学習結果L1aは、被検者回答結果と、被検者画像データと、被検者検査データとの組み合わせからなる被検者第2データセットに基づいて、被検者回答結果及び被検者画像データと、被検者検査データとの関係が深層学習によって学習された結果である。つまり、学習結果L1aとは、被検者回答結果と、被検者画像データと、被検者検査データとの組み合わせからなる被検者第2データセットに基づいて学習が行われた結果である。したがって、予測部201aは、被検者回答結果と、被検者画像データと、被検者検査データとの組み合わせからなる被検者第2データセットと、ユーザー画像データP1と、ユーザー回答結果Q1とに基づいてユーザー検査データを予測する。
【0090】
図12に示す撮影画面G4は、撮影装置1aが、ユーザー画像データP1及びユーザー回答結果Q1を涙液角結膜状態検査装置2に出力する前に表示される。
撮影画面G4では、ユーザー画像データP2とともに、アンケートが表示されている。
【0091】
図13に示す予測結果表示画面G6、及び図14に示す履歴画面G7は、撮影装置1aが、涙液角結膜状態検査装置2から取得した予測結果A1を提示するために表示される。
図13に示す予測結果表示画面G6は、予測結果A1に応じて目の状態を改善するためのアドバイスが表示されている。
図14に示す履歴画面G7では、目の状態についてのスコアの履歴がグラフによって表示されている。
【0092】
本変形例に係る涙液角結膜状態検査装置2aは、回答結果取得部204aを備える。回答結果取得部204aは、ユーザーU1によるアンケートへの回答結果であるユーザー回答結果Q1を取得する。予測部201aは、被検者によるアンケートへの回答結果である被検者回答結果と、被検者画像データと、被検者検査データとの組み合わせからなる被検者第2データセットと、ユーザー画像データP1と、ユーザー回答結果Q1とに基づいてユーザー検査データを予測する。
この構成により、本変形例に係る涙液角結膜状態検査装置2aでは、ユーザー回答結果Q1に基づいて、予測の精度を向上させることができる。また、涙液角結膜状態検査装置2aでは、予測結果A1に応じて目の状態を改善するためのユーザーU1へのアドバイスを生成できる。
【0093】
なお、上述した実施形態及び変形例において、被検者とユーザーU1とは同一の人物であってもよい。被検者とユーザーU1とは同一の人物である場合、被検者画像データは、ユーザー画像データP1として用いられるユーザーU1の目の画像が撮像されるより以前の時期にデジタルカメラによって撮影されたユーザーU1の目の画像である。また、被検者とユーザーU1とは同一の人物である場合、被検者回答結果は、ユーザー回答結果Q1として用いられるユーザーU1によるアンケートへの回答結果が得られるより前の時期に得られたユーザーU1によるアンケートへの回答結果である。
【0094】
被検者とユーザーU1とが同一の人物である場合、涙液角結膜状態検査装置2、または涙液角結膜状態検査装置2aでは、ユーザー検査データを予測する精度を、被検者とユーザーU1とが同一の人物でない場合に比べて向上させることができる。
【0095】
被検者とユーザーU1とが同一の人物である場合、涙液角結膜状態検査装置2、または涙液角結膜状態検査装置2aは、ユーザーU1を患者として、遠隔治療及びまたは遠隔診断に好適に用いられる。
患者であるユーザーU1は、1回以上、眼科に通院して、自身の目の画像データと検査データと(データセット)を取得し蓄積する。ユーザーU1は、その後通院せずとも、撮影装置1(例えばスマートフォン)に備えられるデジタルカメラによって自身の目の画像を撮影して、眼科医に当該画像を送信するだけで、涙液角膜状態を判定することができる。涙液角結膜状態検査装置2、または涙液角結膜状態検査装置2aを用いることによって、ユーザーU1は、遠隔の場合などの通院の負担を軽減することができる。また、ユーザーU1は、眼科医に自身の目の画像を送信しなくても、自分で症状の経過観察をすることができる。そのため、ユーザーU1は、症状が悪化した場合に通院すればよく、医療費を軽減することができる。
【0096】
なお、上述した実施形態における撮影装置1、1a、または涙液角結膜状態検査装置2、2aの一部、例えば、撮影装置制御部10、及び検査装置制御部20、20aをコンピュータで実現するようにしてもよい。その場合、この制御機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。なお、ここでいう「コンピュータシステム」とは、撮影装置1、1a、または涙液角結膜状態検査装置2、2aに内蔵されたコンピュータシステムであって、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよい。
また、上述した実施形態における撮影装置1、1a及び涙液角結膜状態検査装置2、2aの一部、または全部を、LSI(Large Scale Integration)等の集積回路として実現してもよい。撮影装置1、1a及び涙液角結膜状態検査装置2、2aの各機能ブロックは個別にプロセッサ化してもよいし、一部、または全部を集積してプロセッサ化してもよい。また、集積回路化の手法はLSIに限らず専用回路、または汎用プロセッサで実現してもよい。また、半導体技術の進歩によりLSIに代替する集積回路化の技術が出現した場合、当該技術による集積回路を用いてもよい。
【0097】
以上、図面を参照してこの発明の一実施形態について詳しく説明してきたが、具体的な構成は上述のものに限られることはなく、この発明の要旨を逸脱しない範囲内において様々な設計変更等をすることが可能である。
【符号の説明】
【0098】
1、1a…撮影装置、2、2a…涙液角結膜状態検査装置、200…画像データ取得部、201…予測部、U1…ユーザー、P1…ユーザー画像データ
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14