特許第6012846号(P6012846)IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ HOYA株式会社の特許一覧

特許6012846眼鏡レンズの設計システム、供給システム、設計方法及び製造方法
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】6012846
(24)【登録日】2016年9月30日
(45)【発行日】2016年10月25日
(54)【発明の名称】眼鏡レンズの設計システム、供給システム、設計方法及び製造方法
(51)【国際特許分類】
   G02C 7/02 20060101AFI20161011BHJP
   G02C 13/00 20060101ALI20161011BHJP
【FI】
   G02C7/02
   G02C13/00
【請求項の数】16
【全頁数】35
(21)【出願番号】特願2015-503067(P2015-503067)
(86)(22)【出願日】2014年2月28日
(86)【国際出願番号】JP2014055177
(87)【国際公開番号】WO2014133167
(87)【国際公開日】20140904
【審査請求日】2015年8月20日
(31)【優先権主張番号】特願2013-39000(P2013-39000)
(32)【優先日】2013年2月28日
(33)【優先権主張国】JP
(31)【優先権主張番号】特願2013-42509(P2013-42509)
(32)【優先日】2013年3月5日
(33)【優先権主張国】JP
(73)【特許権者】
【識別番号】000113263
【氏名又は名称】HOYA株式会社
(74)【代理人】
【識別番号】100078880
【弁理士】
【氏名又は名称】松岡 修平
(74)【代理人】
【識別番号】100169856
【弁理士】
【氏名又は名称】尾山 栄啓
(72)【発明者】
【氏名】西村 英敏
(72)【発明者】
【氏名】大平 倫裕
【審査官】 吉川 陽吾
(56)【参考文献】
【文献】 特開2013−226397(JP,A)
【文献】 特開2010−266892(JP,A)
【文献】 特表2010−524011(JP,A)
【文献】 特許第5279153(JP,B1)
【文献】 特開2010−243827(JP,A)
【文献】 特開平10−066678(JP,A)
【文献】 米国特許出願公開第2005/0088616(US,A1)
【文献】 特許第4942661(JP,B2)
(58)【調査した分野】(Int.Cl.,DB名)
G02C 7/00−13/00
(57)【特許請求の範囲】
【請求項1】
被検者に対して第一の距離を空けて配置され、該被検者の撮影を行う第一の撮影装置と、
該被検者に対して該第一の距離より離れた第二の距離を空けて配置され、視対象の撮影を行う第二の撮影装置と、
前記第一の撮影装置により撮影された画像に基づいて前記被検者の眼の位置を決定する決定手段と、
前記第二の撮影装置により撮影された画像に基づいて前記視対象の位置を暫定的に算出し、暫定的に算出された視対象の位置を前記第一の撮影装置と前記第二の撮影装置との相対的な位置姿勢関係に基づいて確定する視対象確定手段と、
前記視対象を視るときの被検者の視線情報を、前記決定された眼の位置及び前記確定された視対象の位置に基づいて算出する視線情報算出手段と、
所定の処方情報及び前記算出された視線情報に基づいて眼鏡レンズの形状を設計する形状設計手段と、を備えると共に、更に、
所定の時間間隔毎に、前記第一の撮影装置により撮影された画像に基づいて前記被検者の頭部の位置及び姿勢を検出すると共に、該検出前後で前記被検者の頭部の位置及び姿勢が擬似的に保たれるように、前記確定された視対象の位置を該検出前後の該頭部の位置差及び姿勢差の分だけ擬似的に移動させる擬似移動手段を備え、
前記視線情報算出手段は、前記決定された眼の位置及び前記擬似的に移動された視対象の位置に基づいて前記視線情報を算出する、
眼鏡レンズの設計システム。
【請求項2】
前記第一の撮影装置によって撮影された画像に基づいて特定される角膜頂点位置に基づいて装用パラメータを算出する装用パラメータ算出手段を更に備え、
前記形状設計手段は前記装用パラメータ算出手段により算出された装用パラメータを用いて眼鏡レンズの形状を設計する、
請求項1に記載の眼鏡レンズの設計システム。
【請求項3】
前記装用パラメータは、フレーム前傾角、フレームそり角、フレーム頂点間距離、瞳孔間距離、近業目的距離の少なくともいずれかを含む、
請求項2に記載の眼鏡レンズの設計システム。
【請求項4】
前記装用パラメータ算出手段は、前記装用パラメータを時系列データとして連続的に算出し、該時系列データとして連続的に算出された値を用いて真の装用パラメータを決定する、
請求項2又は請求項3に記載の眼鏡レンズの設計システム。
【請求項5】
前記第一の撮影装置による撮影時刻を第一の時刻と定義し、前記第二の撮影装置による撮影時刻を第二の時刻と定義した場合に、
前記疑似移動手段は、
前記第一の時刻に撮影された画像に基づいて該第一の時刻における前記被検者の頭部の位置及び姿勢を算出し、
算出された前記第一の時刻における被検者の頭部の位置及び姿勢、並びに該第一の時刻と前記第二の時刻との時間差に基づいて該第二の時刻における該頭部の位置及び姿勢を推定することにより、該頭部の位置及び姿勢を検出する
請求項1から請求項4の何れか一項に記載の眼鏡レンズの設計システム。
【請求項6】
前記被検者の画像は、前記第一の撮影装置により所定のフレームレートで撮影され、
所定数のフレームに対して前記決定手段による決定が行われることにより、該所定数のフレーム画像について前記眼の暫定位置が算出され、算出された該所定数のフレーム画像内における暫定位置に基づいて真の眼の位置が決定される、
請求項1から請求項5の何れか一項に記載の眼鏡レンズの設計システム。
【請求項7】
前記視線情報は視線のベクトル情報であって、前記眼の位置と前記視対象の位置とを結ぶ視線のベクトル長及び単位ベクトルを含む、
請求項1から請求項6の何れか一項に記載の眼鏡レンズの設計システム。
【請求項8】
前記視線情報は視線の時間軸情報を更に含む、
請求項7に記載の眼鏡レンズの設計システム。
【請求項9】
所定の処方情報に基づいて眼鏡レンズの仮形状を設計する仮形状設計手段と、
前記算出された視線情報に含まれる視線のベクトル長、単位ベクトル及び時間軸情報に基づいて、前記被検者が前記仮形状の眼鏡レンズを装用したときに視線が通過する該レンズ上の位置及び該位置での視線の滞留時間を計算することにより、該被検者による該レンズ内の使用領域及び使用頻度を算出する使用算出手段と、
算出された使用領域及び使用頻度に基づいて前記仮形状を補正することにより、前記眼鏡レンズの本形状を設計する本形状設計手段と、を更に備える、
請求項8に記載の眼鏡レンズの設計システム。
【請求項10】
前記算出された視線情報に関する情報を表示する視線情報表示手段を更に備える、
請求項1から請求項9の何れか一項に記載の眼鏡レンズの設計システム。
【請求項11】
請求項1から請求項10の何れか一項に記載の眼鏡レンズの設計システムと、
前記眼鏡レンズの設計システムによる設計データを用いて眼鏡レンズを製造する眼鏡レンズ製造装置と、を備える、
眼鏡レンズの供給システム。
【請求項12】
被検者に対して第一の距離を空けて配置された第一の撮影装置によって該被検者の撮影が行われると共に、該被検者に対して該第一の距離より離れた第二の距離を空けて配置された第二の撮影装置によって視対象の撮影が行われる撮影ステップと、
前記撮影ステップにて前記第一の撮影装置により撮影された画像に基づいて前記被検者の眼の位置を決定する決定ステップと、
前記撮影ステップにて前記第二の撮影装置により撮影された画像に基づいて前記視対象の位置を暫定的に算出し、暫定的に算出された視対象の位置を前記第一の撮影装置と前記第二の撮影装置との相対的な位置姿勢関係に基づいて確定する確定ステップと、
前記視対象を視るときの被検者の視線情報を、前記決定ステップにて決定された眼の位置及び前記確定ステップにて確定された視対象の位置に基づいて算出する算出ステップと、
所定の処方情報及び前記算出ステップにて算出された視線情報に基づいて眼鏡レンズの形状を設計する形状設計ステップと、
を含み、
所定の時間間隔毎に、
前記第一の撮影装置により撮影された画像に基づいて前記被検者の頭部の位置及び姿勢を検出する検出ステップと、
検出前後で前記被検者の頭部の位置及び姿勢が擬似的に保たれるように、前記確定ステップにて確定された視対象の位置を該検出前後の該頭部の位置差及び姿勢差の分だけ擬似的に移動させる擬似移動ステップと、
を行い、
前記算出ステップにて、
前記決定ステップにて決定された眼の位置及び前記擬似移動ステップにて擬似的に移動された視対象の位置に基づいて前記視線情報を算出する、
眼鏡レンズの設計方法。
【請求項13】
前記第一の撮影装置によって撮影された画像に基づいて特定される角膜頂点位置に基づいて装用パラメータを算出する装用パラメータ算出ステップを更に含み、
前記形状設計ステップにおいて、前記算出された装用パラメータを用いて眼鏡レンズの形状を設計する、
請求項12に記載の眼鏡レンズの設計方法。
【請求項14】
前記装用パラメータは、フレーム前傾角、フレームそり角、フレーム頂点間距離、瞳孔間距離、近業目的距離の少なくともいずれかを含む、
請求項13に記載の眼鏡レンズの設計方法。
【請求項15】
前記装用パラメータ算出ステップにおいて、前記装用パラメータは時系列データとして連続的に算出され、該時系列データとして連続的に算出された値を用いて真の装用パラメータが決定される、
請求項13又は請求項14に記載の眼鏡レンズの設計方法。
【請求項16】
請求項12から請求項15の何れか一項に記載の設計方法を用いて設計された眼鏡レンズを製造する眼鏡レンズ製造工程
を含む、
眼鏡レンズの製造方法。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、被検者の視線情報を用いて眼鏡レンズを設計する方法及び製造する方法に関する。
【背景技術】
【0002】
近年、顧客(装用予定者又は被検者)の処方に一層適した眼鏡レンズを提供するため、装用予定者の視線情報を眼鏡レンズの設計に取り込むことが提案されている。このような眼鏡レンズの具体的設計方法が、日本国特許第4942661号公報(以下、特許文献1と記す)に記載されている。
【0003】
しかし、特許文献1に記載の設計方法は、視線計測を行う際に装用予定者に眼鏡を装用させることを前提としているため、裸眼の装用予定者に対応できないという問題が指摘される。
【発明の概要】
【0004】
非特許文献1(Kenneth Alberto Funes Mora and Jean-Marc Odobez: " Gaze Estimation from Multimodal Kinect Data" p.4321-4326)に、RGB画像と距離画像(奥行き情報)とを取得可能なRGB−Dカメラを用いて被検者と視対象とを撮影し、撮影された画像に基づいて視対象を視る被検者の視線を計測する技術が記載されている。非特許文献1に記載の方法によれば、被検者は視線計測を行う際に裸眼である。
【0005】
そこで、本発明者は、非特許文献1に記載の視線計測技術を眼鏡レンズの設計に取り込むことにより、装用予定者が裸眼であるかに拘わらずその視線の動き等に適した収差配分を持つ眼鏡レンズの提供が可能になると考え、検討を重ねた。その結果、本発明者は、非特許文献1に記載の視線計測技術を眼鏡レンズの設計に単純には取り込むことができないという知見を得た。具体的には、非特許文献1に記載の視線計測技術では、被検者と視対象とを一画像に収めるため、被検者から遠く離れた位置に設置されたカメラで撮影を行う必要がある。撮影画像には被検者が小さくしか写らないため、撮影画像を基に行う各要素の検出精度及び推定精度が低い。より詳細には、非特許文献1に記載の視線計測技術では、被検者の眼の検出精度、被検者の頭部の位置及び姿勢の推定精度が低い。視線はこれらの検出値及び推定値に基づいて計測されるため、眼鏡レンズの設計に必要な精度レベルに達しない。このような理由により、非特許文献1に記載の視線計測技術を眼鏡レンズの設計に単純には取り込むことはできない。
【0006】
本発明は上記の事情に鑑みてなされたものであり、その目的とするところは、精度の高い視線情報に基づいて設計することが可能な眼鏡レンズの設計システム、供給システム、設計方法及び該視線情報に基づいて製造することが可能な眼鏡レンズの製造方法を提供することである。
【0007】
本発明の一形態に係る眼鏡レンズの設計システムは、被検者に対して第一の距離を空けて配置され、該被検者の撮影を行う第一の撮影装置と、該被検者に対して該第一の距離より離れた第二の距離を空けて配置され、視対象の撮影を行う第二の撮影装置と、第一の撮影装置により撮影された画像に基づいて被検者の眼の位置を決定する決定手段と、第二の撮影装置により撮影された画像に基づいて視対象の位置を暫定的に算出し、暫定的に算出された視対象の位置を第一の撮影装置と第二の撮影装置との相対的な位置姿勢関係に基づいて確定する視対象確定手段と、視対象を視るときの被検者の視線情報を、決定された眼の位置及び確定された視対象の位置に基づいて算出する視線情報算出手段と、所定の処方情報及び算出された視線情報に基づいて眼鏡レンズの形状を設計する形状設計手段と、を備えると共に、更に、所定の時間間隔毎に、第一の撮影装置により撮影された画像に基づいて被検者の頭部の位置及び姿勢を検出すると共に、該検出前後で被検者の頭部の位置及び姿勢が擬似的に保たれるように、確定された視対象の位置を該検出前後の該頭部の位置差及び姿勢差の分だけ擬似的に移動させる擬似移動手段を備える。視線情報算出手段は、決定された眼の位置及び擬似的に移動された視対象の位置に基づいて視線情報を算出する。
【0008】
本発明の一形態によれば、第一の撮影装置によって被検者を大きく撮影することができるため、被検者の眼の三次元位置並びに頭部の三次元位置及び姿勢を高い精度で検出することができる。これにより、視線情報を高い精度で算出することが可能となる。このように、本発明の一形態によれば、精度の高い視線情報を採取し、採取された視線情報を用いることにより、精度の高い眼鏡レンズの設計が可能となる。
【0009】
眼鏡レンズの設計システムは、第一の撮影装置によって撮影された画像に基づいて特定される角膜頂点位置に基づいて装用パラメータを算出する装用パラメータ算出手段を更に備えていてもよい。この場合、形状設計手段は装用パラメータ算出手段により算出された装用パラメータを用いて眼鏡レンズの形状を設計する。
【0010】
装用パラメータは、フレーム前傾角、フレームそり角、フレーム頂点間距離、瞳孔間距離、近業目的距離の少なくともいずれかを含んでいてもよい。
【0011】
装用パラメータ算出手段は、装用パラメータを時系列データとして連続的に算出し、該時系列データとして連続的に算出された値を用いて真の装用パラメータを決定してもよい。
【0012】
第一の撮影装置による撮影時刻を第一の時刻と定義し、第二の撮影装置による撮影時刻を第二の時刻と定義した場合に、疑似移動手段は、第一の時刻に撮影された画像に基づいて該第一の時刻における被検者の頭部の位置及び姿勢を算出し、算出された第一の時刻における被検者の頭部の位置及び姿勢、並びに該第一の時刻と第二の時刻との時間差に基づいて該第二の時刻における該頭部の位置及び姿勢を推定することにより、該頭部の位置及び姿勢を検出してもよい。
【0013】
被検者の画像は、第一の撮影装置により所定のフレームレートで撮影され、所定数のフレームに対して決定手段による決定が行われることにより、該所定数のフレーム画像について眼の暫定位置が算出され、算出された該所定数のフレーム画像内における暫定位置に基づいて真の眼の位置が決定されてもよい。
【0014】
視線情報は視線のベクトル情報であって、眼の位置と視対象の位置とを結ぶ視線のベクトル長及び単位ベクトルを含んでいてもよい。
【0015】
視線情報は視線の時間軸情報を更に含んでいてもよい。
【0016】
眼鏡レンズの設計システムは、所定の処方情報に基づいて眼鏡レンズの仮形状を設計する仮形状設計手段と、算出された視線情報に含まれる視線のベクトル長、単位ベクトル及び時間軸情報に基づいて、被検者が仮形状の眼鏡レンズを装用したときに視線が通過する該レンズ上の位置及び該位置での視線の滞留時間を計算することにより、該被検者による該レンズ内の使用領域及び使用頻度を算出する使用算出手段と、算出された使用領域及び使用頻度に基づいて仮形状を補正することにより、眼鏡レンズの本形状を設計する本形状設計手段と、を更に備えていてもよい。
【0017】
眼鏡レンズの設計システムは、算出された視線情報及び装用パラメータに関する情報を表示する視線情報表示手段を更に備えていてもよい。
【0018】
本発明の一形態に係る眼鏡レンズの供給システムは、上述のいずれかの眼鏡レンズの設計システムと、眼鏡レンズの設計システムによる設計データを用いて眼鏡レンズを製造する眼鏡レンズ製造装置と、を備える。
【0019】
本発明の一形態に係る眼鏡レンズの設計方法は、被検者に対して第一の距離を空けて配置された第一の撮影装置によって被検者の撮影が行われると共に、被検者に対して第一の距離より離れた第二の距離を空けて配置された第二の撮影装置によって視対象の撮影が行われる撮影ステップと、撮影ステップにて第一の撮影装置により撮影された画像に基づいて被検者の眼の位置を決定する決定ステップと、撮影ステップにて第二の撮影装置により撮影された画像に基づいて視対象の位置を暫定的に算出し、暫定的に算出された視対象の位置を第一の撮影装置と第二の撮影装置との相対的な位置姿勢関係に基づいて確定する確定ステップと、視対象を視るときの被検者の視線情報を、決定ステップにて決定された眼の位置及び確定ステップにて確定された視対象の位置に基づいて算出する算出ステップと、所定の処方情報及び算出ステップにて算出された視線情報に基づいて眼鏡レンズの形状を設計する形状設計ステップとを含み、所定の時間間隔毎に、第一の撮影装置により撮影された画像に基づいて被検者の頭部の位置及び姿勢を検出する検出ステップと、検出前後で被検者の頭部の位置及び姿勢が擬似的に保たれるように、確定ステップにて確定された視対象の位置を検出前後の頭部の位置差及び姿勢差の分だけ擬似的に移動させる擬似移動ステップとを行い、算出ステップにて、決定ステップにて決定された眼の位置及び擬似移動ステップにて擬似的に移動された視対象の位置に基づいて視線情報を算出する方法である。
【0020】
本発明の一形態によれば、第一の撮影装置によって被検者を大きく撮影することができるため、被検者の眼の三次元位置並びに頭部の三次元位置及び姿勢を高い精度で検出することができる。これにより、視線情報を高い精度で算出することが可能となる。このように、本発明の一形態によれば、精度の高い視線情報を採取し、採取された視線情報を用いることにより、精度の高い眼鏡レンズを設計が設計される。
【0021】
眼鏡レンズの設計方法は、撮影装置によって撮影された画像に基づいて特定される角膜頂点位置に基づいて装用パラメータを算出する装用パラメータ算出ステップを更に含んでいてもよい。この場合、形状設計ステップにおいて、算出された装用パラメータを用いて眼鏡レンズの形状を設計することができる。
【0022】
装用パラメータは、フレーム前傾角、フレームそり角、フレーム頂点間距離、瞳孔間距離、近業目的距離の少なくともいずれかを含んでいてもよい。
【0023】
装用パラメータ算出ステップにおいて、装用パラメータは時系列データとして連続的に算出され、該時系列データとして連続的に算出された値を用いて真の装用パラメータが決定されてもよい。
【0024】
また、第一の撮影装置による撮影時刻を第一の時刻と定義し、第二の撮影装置による撮影時刻を第二の時刻と定義した場合に、検出ステップにて、第一の時刻に撮影された画像に基づいて第一の時刻における被検者の頭部の位置及び姿勢を算出し、算出された第一の時刻における被検者の頭部の位置及び姿勢、並びに第一の時刻と第二の時刻との時間差に基づいて第二の時刻における頭部の位置及び姿勢を推定することにより、頭部の位置及び姿勢を検出してもよい。
【0025】
また、撮影ステップにおいて、被検者の画像は、例えば第一の撮影装置により所定のフレームレートで撮影される。この場合、所定数のフレームに対して決定ステップが行われることにより、所定数のフレーム画像について眼の暫定位置が算出され、算出された所定数のフレーム画像内における暫定位置に基づいて真の眼の位置が決定されるようにしてもよい。
【0026】
視線情報は、例えば視線のベクトル情報であって、眼の位置と視対象の位置とを結ぶ視線のベクトル長及び単位ベクトルを含む。
【0027】
また、視線情報は、視線の時間軸情報を更に含むものであってもよい。
【0028】
また、本発明の一形態に係る眼鏡レンズの設計方法は、所定の処方情報に基づいて眼鏡レンズの仮形状を設計する仮形状設計ステップと、算出ステップにて算出された視線情報に含まれる視線のベクトル長、単位ベクトル及び時間軸情報に基づいて、被検者が仮形状の眼鏡レンズを装用したときに視線が通過するレンズ上の位置及び位置での視線の滞留時間を計算することにより、被検者によるレンズ内の使用領域及び使用頻度を算出する使用算出ステップと、算出された使用領域及び使用頻度に基づいて仮形状を補正することにより、眼鏡レンズの本形状を設計する本形状設計ステップとを含む方法である。
【0029】
眼鏡レンズの設計方法は、算出された視線情報に関する情報を表示する視線情報表示ステップを更に含んでいてもよい。
【0030】
また、本発明の一形態に係る眼鏡レンズの製造方法は、上記の方法を用いて設計された眼鏡レンズを製造する眼鏡レンズ製造工程を含む方法である。
【図面の簡単な説明】
【0031】
図1】本発明の実施形態の眼鏡レンズ製造システムの構成を示すブロック図である。
図2】本発明の実施形態における眼鏡レンズの製造工程のフローチャートを示す図である。
図3】本発明の実施例1の視線情報採取装置の構成を示すブロック図である。
図4】本発明の実施例1の視線情報採取装置の使用状態を示す図である。
図5】本発明の実施例1の視線情報採取処理のフローチャートを示す図である。
図6図5の処理ステップS2(眼球回旋中心座標の算出処理)のフローチャートを示す図である。
図7】眼球モデルを例示する図である。
図8】本発明の実施例1のRGB−Dカメラの座標系と装用予定者の頭部の座標系とを示す図である。
図9図5の処理ステップS3(視対象座標の算出処理)のフローチャートを示す図である。
図10】2台のRGB−Dカメラの撮影タイミングが非同期の場合のタイムチャートを例示する図である。
図11】本発明の実施例2の視線情報・装用パラメータ採取処理のフローチャートを示す図である。
図12】本発明の実施例2のフレーム前傾角算出処理のフローチャートである。
図13】正面顔三次元データの横断面図であり、フレーム前傾角算出処理を説明するための図である。
図14】本発明の実施例2のフレームそり角算出処理のフローチャートである。
図15】正面顔三次元データの上断面図であり、フレームそり角算出処理を説明する図である。
図16】本発明の実施例2のフレーム頂点間距離算出処理のフローチャートである。
図17】正面顔三次元データの横断面図であり、フレーム頂点間算出処理を説明する図である。
図18】正面顔三次元データの正面図であり、瞳孔間距離算出処理を説明するための図である。
図19】眼鏡レンズ設計用コンピュータによる累進屈折力レンズの設計工程のフローチャートを示す図である。
図20】眼鏡レンズ設計用コンピュータによって構築される仮想モデル例を示す図である。
図21】設計例1における最適化前後のレンズの非点収差分布を示す図である。
図22】設計例2における最適化前後のlogMAR視力値の分布を示す図である。
図23】設計例3−1における、視線の状態を説明する為の図である。
図24】設計例3−1における透過平均度数を表すグラフである。
図25】設計例3−2における、瞳孔間距離PDの状態を説明するための図である。
図26】設計例3−2における透過非点収差について従来設計との差を表すグラフである。
図27】設計例3−3におけるアイポイント位置、視線通過位置、加入度の状態を説明するための図である。
図28】設計例4−1における加入度曲線、および従来設計による加入度曲線を表すグラフである。
図29】従来設計と設計例4−1における透過非点収差図である。
図30】設計例4−1と従来設計での透過非点収差の差を表すグラフである。
図31】設計例4―2と従来設計での加入度曲線を表すグラフである。
図32】従来設計と設計例4−2における透過非点収差図である。
図33】設計例4−2と従来設計での透過非点収差の差を表すグラフである。
図34】眼鏡レンズ設計用コンピュータによる単焦点レンズの設計工程のフローチャートを示す図である。
図35】設計の結果と、フレーム、視線情報を重ねたイメージ図の例である。
【発明を実施するための形態】
【0032】
以下、図面を参照して、本発明の実施形態に係る眼鏡レンズ製造システム(眼鏡レンズ供給システム)について説明する。
【0033】
[眼鏡レンズ製造システム1]
図1は、本実施形態の眼鏡レンズ製造システム1の構成を示すブロック図である。図1に示されるように、眼鏡レンズ製造システム1は、顧客(装用予定者又は被検者)に対する処方に応じた眼鏡レンズを発注する眼鏡店10と、眼鏡店10からの発注を受けて眼鏡レンズを製造する眼鏡レンズ製造工場20を有している。眼鏡レンズ製造工場20への発注は、インターネット等の所定のネットワークやFAX等によるデータ送信を通じて行われる。発注者には眼科医や一般消費者を含めてもよい。
【0034】
[眼鏡店10]
眼鏡店10には、店頭コンピュータ100及び視線情報採取装置150が設置されている。店頭コンピュータ100は、例えば一般的なPC(Personal Computer)であり、眼鏡レンズ製造工場20への眼鏡レンズの発注を行うためのソフトウェアがインストールされている。店頭コンピュータ100には、眼鏡店スタッフによるマウスやキーボード等の操作を通じてレンズデータ及びフレームデータが入力される。また、店頭コンピュータ100には、LAN(Local Area Network)等のネットワークやシリアルケーブルを介して視線情報採取装置150が接続されており、視線情報採取装置150により採取された装用予定者の視線情報が入力される。レンズデータには、例えば、視線情報採取装置150により採取された視線情報、処方値(球面屈折力、乱視屈折力、乱視軸方向、プリズム屈折力、プリズム基底方向、加入度数、瞳孔間距離(PD:Pupillary Distance)等)、レンズ材質、屈折率、光学設計の種類、レンズ外径、レンズ厚、コバ厚、偏心、ベースカーブ、眼鏡レンズの装用条件(角膜頂点間距離、レンズ前傾角、レンズそり角)、眼鏡レンズの種類(単焦点球面、単焦点非球面、多焦点(二重焦点、累進)、コーティング(染色加工、ハードコート、反射防止膜、紫外線カット等))、顧客の要望に応じたレイアウトデータ等が含まれる。フレームデータには、顧客が選択したフレームの形状データが含まれる。フレームデータは、例えばバーコードタグで管理されており、バーコードリーダによるフレームに貼り付けられたバーコードタグの読み取りを通じて入手することができる。店頭コンピュータ100は、発注データ(レンズデータ及びフレームデータ)を例えばインターネット経由で眼鏡レンズ製造工場20に送信する。
【0035】
[眼鏡レンズ製造工場20]
眼鏡レンズ製造工場20には、ホストコンピュータ200を中心としたLANが構築されており、眼鏡レンズ設計用コンピュータ202や眼鏡レンズ加工用コンピュータ204をはじめ多数の端末装置が接続されている。眼鏡レンズ設計用コンピュータ202、眼鏡レンズ加工用コンピュータ204は一般的なPCであり、それぞれ、眼鏡レンズ設計用のプログラム、眼鏡レンズ加工用のプログラムがインストールされている。ホストコンピュータ200には、店頭コンピュータ100からインターネット経由で送信された発注データが入力される。ホストコンピュータ200は、入力された発注データを眼鏡レンズ設計用コンピュータ202に送信する。
【0036】
[眼鏡レンズ製造工場20内での眼鏡レンズの製造]
図2のS1(眼鏡レンズの設計)]
図2は、眼鏡レンズ製造工場20内での眼鏡レンズの製造工程を示すフローチャートである。眼鏡レンズ設計用コンピュータ202は、受注に応じた眼鏡レンズを設計するためのプログラムがインストールされており、発注データに基づいてレンズ設計データと玉型加工データを作成する。眼鏡レンズ設計用コンピュータ202による眼鏡レンズの設計は、後に詳細に説明する。眼鏡レンズ設計用コンピュータ202は、作成されたレンズ設計データ及び玉型加工データを眼鏡レンズ加工用コンピュータ204に転送する。
【0037】
図2のS2(眼鏡レンズの製造)]
眼鏡レンズ加工用コンピュータ204は、眼鏡レンズ設計用コンピュータ202から転送されたレンズ設計データ及び玉型加工データを読み込み、加工機206を駆動制御する。
【0038】
例えば、注型重合法によりプラスチック眼鏡レンズを製造する場合を考える。この場合、加工機206は、レンズ設計データに従って例えば金属、ガラス、セラミックス等の材料を研削・研磨することにより、レンズの外面(凸面)、内面(凹面)の各面に対応する成形型を製作する。製作された一対の成形型は、眼鏡レンズの厚みに対応する間隔をもって対向配置され、両成形型の外周面が粘着テープで巻き付けられて、成形型間が封止される。一対の成形型は、眼鏡レンズ用成形装置208にセットされると、粘着テープの一部に孔が開けられ、この孔を通じてレンズ原料液がキャビティ(成形型間の封止空間)に注入される。キャビティに注入され充填されたレンズ原料液は、熱や紫外線照射等によって重合硬化される。これにより、一対の成形型の各転写面形状及び粘着テープによる周縁形状が転写された重合体(眼鏡レンズ基材)が得られる。重合硬化によって得られた眼鏡レンズ基材は、成形型から取り外される。離型された眼鏡レンズ基材には、アニール処理による残留応力の除去や染色加工、ハードコート加工、反射防止膜、紫外線カット等の各種コーティングが施される。これにより、眼鏡レンズが完成して眼鏡店10に納品される。
【0039】
また、眼鏡レンズ製造工場20には、生産性を向上させるため、全製作範囲の度数を複数のグループに区分し、各グループの度数範囲に適合した凸面カーブ形状(例えば球面形状、非球面形状など)とレンズ径を有するセミフィニッシュトレンズブランク群が眼鏡レンズの注文に備えて予め用意されていてもよい。セミフィニッシュトレンズブランクは、例えば樹脂ブランク又はガラスブランクであり、凸面、凹面が夫々、光学面(完成面)、非光学面(未完成面)である。この場合、レンズデータに基づいて最適なセミフィニッシュトレンズブランクが選択され、選択されたセミフィニッシュトレンズブランクが加工機206にセットされる。加工機206は、セットされたセミフィニッシュトレンズブランクの凹面をレンズ設計データに従って研削・研磨することにより、アンカットレンズを製作する。凹面形状製作後のアンカットレンズには、染色加工、ハードコート加工、反射防止膜、紫外線カット等の各種コーティングが施される。各種コーティング後のアンカットレンズは、眼鏡レンズ設計用コンピュータ202により作成される玉型加工データに基づいて外周面が周縁加工される。玉型形状に加工された眼鏡レンズは眼鏡店10に納品される。
【0040】
[視線情報採取装置150による視線情報採取方法]
上述したように、非特許文献1に記載の視線計測技術では、被検者と視対象とを一画像に収めるため、被検者から遠く離れた位置に設置されたカメラで撮影を行う必要がある。撮影画像には被検者が小さくしか写らないため、撮影画像に基づく被験者の眼の検出精度、被検者の頭部の位置及び姿勢の推定精度が低い。視線はこれらの検出値及び推定値に基づいて計測されるため、眼鏡レンズの設計に必要な精度レベルに達しない。そこで、以下に、眼鏡レンズの設計に利用可能な精度を達成する視線情報を採取するのに好適な視線情報採取処理について2例(実施例1〜2)説明する。
【0041】
[実施例1]
[視線情報採取装置150の構成]
図3は、本実施例1の視線情報採取装置150の構成を示すブロック図である。図3に示されるように、本実施例1の視線情報採取装置150は、情報処理端末152、RGB−Dカメラ154−1及び154−2を備えている。
【0042】
情報処理端末152は、例えば、デスクトップPC(Personal Computer)、ラップトップPC、ノートPC、タブレットPC、スマートフォン等の端末であり、プロセッサ152a、メモリ152b、ユーザインタフェース152c及びモニタ152dを備えている。プロセッサ152aは、視線情報採取装置150内の各構成要素を統括的に制御する。プロセッサ152aは、メモリ152bに記憶されている各種プログラム等を実行することにより、装用予定者の視線情報を採取する。ユーザインタフェース152cは、マウスやキーボード等の入力デバイスである。眼鏡店スタッフは、ユーザインタフェース152cを介して視線情報採取装置150を操作することができる。モニタ152dには、例えば、視線情報採取装置150による装用予定者の視線情報の採取に必要なGUI(Graphical User Interface)が表示される。
【0043】
RGB−Dカメラ154−1、154−2は、カメラ154a及び距離画像撮影部154bを備えている。カメラ154aは、被写体の二次元のRGB画像を撮影可能なデジタルカメラである。距離画像撮影部154bは、距離画像を撮影可能なセンサである。距離画像は二次元画像であり、画像を構成する各ピクセルが奥行き方向の情報(すなわち被写体の距離情報)を持っている。距離画像を構成する各ピクセルは、カメラ154aによるRGB画像を構成する各ピクセルと対応関係にある。なお、RGB−Dカメラ自体は公知であり、例えば非特許文献1にて参照することができる。
【0044】
プロセッサ152aは、距離画像撮影部154bより入力した距離画像を構成する各ピクセルの奥行き情報(距離画像)に基づいてカメラ154aによるRGB画像内の各対応ピクセルの三次元座標データを計算することにより、三次元情報を持つ被写体画像を生成することができる。ここでは、この三次元画像生成機能を利用及び改良発展させることにより、視線情報採取装置150による装用予定者の視線情報の採取を可能としている。
【0045】
図4は、本実施例1における視線情報採取装置150の使用状態を示す図である。また、図5は、図4の状態で使用される視線情報採取装置150による視線情報採取処理のフローチャートを示す図である。図4に示されるように、RGB−Dカメラ154−1は、テーブル上に設置されている。図4の例において、装用予定者Sは、RGB−Dカメラ154−1の近傍位置に置かれた椅子に着席し、RGB−Dカメラ154−1側を視るように指示される。また、装用予定者SからみてRGB−Dカメラ154−1よりも離れた位置であってRGB−Dカメラ154−1の後方にもテーブルが設置されている。RGB−Dカメラ154−1の後方のテーブルには、RGB−Dカメラ154−2が設置されている。なお、装用予定者S、RGB−Dカメラ154−1及び154−2の相対位置を調節可能とするため、椅子の位置及び座面の高さ並びに各テーブルの位置及びテーブル天板の高さ等は適宜調整可能となっている。
【0046】
[視線情報採取装置150による視線情報採取処理]
図5のS11(RGB−Dカメラによる撮影処理)]
RGB−Dカメラ154−1は装用予定者SのRGB画像及び距離画像を所定のフレームレートで撮影する。また、RGB−Dカメラ154−2もRGB−Dカメラ154−1と同期したタイミングで視対象OのRGB画像及び距離画像を所定のフレームレートで撮影する。
【0047】
図5のS12(眼球回旋中心座標の算出処理)]
プロセッサ152aは、装用予定者Sの視線の始点となる眼球回旋中心の座標νrc1を算出する。本処理ステップS12の大まかな流れとしては、図5の処理ステップS11(RGB−Dカメラによる撮影処理)にてRGB−Dカメラ154−1により撮影されたフレーム毎に装用予定者Sの眼球回旋中心座標νrc1の暫定値が算出され(後述の図6の処理ステップS12a〜S12g)、統計値を求めるのに十分な数の暫定値が得られると、これら暫定値の平均値が眼球回旋中心座標νrc1の確定値(これを真の眼の位置とする)として算出される(後述の図6の処理ステップS12h、S12i)。なお、装用予定者Sは、眼球回旋中心座標νrc1の算出のため、次の点に留意することが望ましい。
・両眼を撮影するため、RGB−Dカメラ154−1に対して真正面を向く。
・撮影中は頭部を動かさない。
・各眼の角膜頂点位置の検出精度を向上させるため、眼鏡を装用している場合はこれを外す。
【0048】
図6に、本処理ステップS12をより詳細に説明するフローチャートを示す。
【0049】
図6の処理ステップS12a〉
プロセッサ152aは、図5の処理ステップS11(RGB−Dカメラによる撮影処理)にてRGB−Dカメラ154−1により撮影されたRGB画像及び距離画像を取得する。
【0050】
図6の処理ステップS12b〉
プロセッサ152aは、RGB−Dカメラ154−1より取得したRGB画像を解析することにより、RGB画像内の装用予定者Sの眼の領域を検出する。例えば、非特許文献2(Paul Viola and Michel J. Jones: "Robust Real-Time Face Detection", International Journal of Computer Vision 57(2), pp.137-154, (2004))に記載の公知技術を利用することにより、装用予定者Sの眼の領域を検出することができる。
【0051】
図6の処理ステップS12c〉
プロセッサ152aは、図6の処理ステップS12bにて検出された眼の領域の中心に角膜頂点が位置するとみなすことにより、RGB画像内における角膜頂点位置座標を特定する。すなわち、図6の処理ステップS12bにて検出された眼の領域の中心に位置するピクセル(座標)を角膜頂点が写るピクセルとする。
【0052】
図6の処理ステップS12d〉
プロセッサ152aは、図6の処理ステップS12cにて特定されたピクセル(RGB画像内における角膜頂点位置座標)に対応する距離画像のピクセルを特定する。これにより、角膜頂点の三次元座標(x,y,z)が得られる。
【0053】
図6の処理ステップS12e〉
ここでは、公知の眼球モデルを利用することにより、角膜頂点位置座標(x,y,z)から眼球回旋中心の三次元座標νrc1を算出する。例えば、Gullstrandの模型眼を用いた場合を考える。この場合、眼球回旋中心は、角膜頂点からZ軸沿いに13mm後方に位置するものとして定義することができる(図7の眼球モデル参照)。
【0054】
装用予定者Sは、上述したように、RGB−Dカメラ154−1に対して真正面を向くように指示されているが、撮影中、RGB−Dカメラ154−1と装用予定者Sの頭部とが必ずしも正対しているとは限らない。なお、ここでいう「正対」とは、RGB−Dカメラ154−1の座標系(座標軸)の向きと装用予定者Sの頭部の座標系(座標軸)の向きとが一致している状態を指す。
【0055】
図8(a)、図8(b)の各図に、RGB−Dカメラ154−1の座標系と装用予定者Sの頭部の座標系とを示す。図8(a)、図8(b)の各図に示されるように、RGB−Dカメラ154−1の座標系は、RGB−Dカメラ154−1の光学中心を原点とする座標系であり、以下、「第一のカメラ座標系」と記す。第一のカメラ座標系は、RGB−Dカメラ154−1の水平方向にX軸を持ち、RGB−Dカメラ154−1の垂直方向にY軸(図8では便宜上符号Yccを付す。)を持ち、RGB−Dカメラ154−1の奥行き方向にZ軸(RGB−Dカメラ154−1より前方へ向かうほどプラスの値であり、図8では便宜上符号Zccを付す。)を持つ。また、装用予定者Sの頭部の座標系は、頭部の所定位置(例えば鼻部の中心位置)を原点とする座標系であり、以下、「頭部座標系」と記す。頭部座標系は、装用予定者Sの頭部の水平方向にX軸を持ち、頭部の垂直方向にY軸(図8では便宜上符号Yhhを付す。)を持ち、頭部の奥行き方向にZ軸(頭部の奥側ほどプラスの値であり、図8では便宜上符号Zhhを付す。)を持つ。
【0056】
図8(a)に示されるように、第一のカメラ座標系の向きと頭部座標系の向きとが不一致の場合を考える。この場合に、図6の処理ステップS12dにて求められた、第一のカメラ座標系での角膜頂点位置座標(x,y,z)に対してZ成分に13mm相当の座標値加算を行うと、頭部座標系ではこの座標値加算がY成分とZ成分とに分解される。そのため、眼球回旋中心座標νrc1が精確に算出されないことが判る。眼球回旋中心座標νrc1を精確に算出するためには、少なくとも第一のカメラ座標系の向きと頭部座標系の向きとを一致させる必要がある。そこで、本処理ステップS12eでは、プロセッサ152aは、RGB−Dカメラ154−1より取得した距離画像に基づいて装用予定者Sの頭部の位置及び姿勢を推定する。例えば、非特許文献3(Gabriele Fanelli, Juergen Gall, and Luc Van Gool: "Real Time Head Pose Estimation with Random Regression Forests" (2011))に記載の公知技術を利用することにより、RGB−Dカメラ154−1より取得した距離画像に基づいて装用予定者Sの頭部の位置及び姿勢を推定することができる。なお、位置は、XYZの三軸で定義され、姿勢は、ロール角、ヨー角、ピッチ角で定義される。
【0057】
図6の処理ステップS12f〉
プロセッサ152aは、図6の処理ステップS12eにて推定された装用予定者Sの頭部の位置及び姿勢に基づいて頭部座標系を定義する。プロセッサ152aは、所定の座標変換を行う(少なくとも第一のカメラ座標系の座標軸の向きと頭部座標系の座標軸の向きとを一致させる)ことにより、第一のカメラ座標系での角膜頂点位置座標(x,y,z)を頭部座標系での角膜頂点位置座標(x,y,z)に変換する(図8(b)参照)。本処理ステップS12fを行うことにより、ソフトウェア処理上、装用予定者SがRGB−Dカメラ154−1に対して真正面を向いた状態となる。
【0058】
図6の処理ステップS12g〉
プロセッサ152aは、図6の処理ステップS12fによる座標変換後の角膜頂点位置座標(x,y,z)のZ成分に既定値α(ここでは13mm相当の値)を加算することにより、眼球回旋中心座標νrc1(x,y,z+α)を得る。ここで得られる眼球回旋中心座標νrc1(x,y,z+α)は、ある1つのフレームにおける眼球回旋中心座標であり暫定値である。なお、既定値αは13mm相当の値に限らない。厳密には、角膜頂点と眼球回旋中心との距離は人種や性別、年齢、視力等など、種々の要因を考慮すると一意には決まらない。そこで、これらの要因を考慮して適切な既定値α(眼球モデル)を選択することにより、装用予定者Sに対して一層適正な既定値αを設定できるようにしてもよい。
【0059】
図6の処理ステップS12h〉
図6の処理ステップS12a〜S12gは、各フレームに対して行われる。本処理ステップS12hでは、プロセッサ152aは、図6の処理ステップS12a〜S12gを複数回行うことにより、所定フレーム数分の眼球回旋中心座標νrc1(x,y,z+α)の暫定値が得られたか否かを判定する。プロセッサ152aは、所定フレーム数分の眼球回旋中心座標νrc1(x,y,z+α)の暫定値が得られた場合(S12h:YES)、図6の処理ステップS12iに処理を進める。プロセッサ152aは、所定フレーム数分の眼球回旋中心座標νrc1(x,y,z+α)の暫定値が得られていない場合(S12h:NO)、図6の処理ステップS12aに処理を戻し、次フレームに対して図6の処理ステップS12a〜S12gを行う。
【0060】
図6の処理ステップS12i〉
所定フレーム数は、統計値を求めるのに十分なフレーム数である。そこで、プロセッサ152aは、所定フレーム数分の暫定値を平均した値を算出し、算出された平均値を眼球回旋中心座標νrc1(x,y,z+α)の確定値とする。このようにして、視線の始点である眼球回旋中心座標νrc1(x,y,z+α)が求まる。
【0061】
図5のS13(視対象座標の算出処理)]
装用予定者Sは、撮影中、視対象Oを注視するように指示されている。装用予定者Sは、視対象Oを注視するため、例えば普段使用している眼鏡をかけてもよい。視対象Oは、例えば、ランダムに又は規則的に動く若しくはランダムな又は規則的な位置に出現する又は配置される対象物である。プロセッサ152aは、装用予定者Sの視線の終点となる視対象Oの座標を算出する。なお、視線情報採取装置150により採取される視線情報は視線のベクトル情報であって、眼球回旋中心(視線の始点)と視対象O(視線の終点)と結ぶ視線のベクトル長及び単位ベクトルを含む。図9に、本処理ステップS13を詳細に説明するフローチャートを示す。
【0062】
図9の処理ステップS13a〉
プロセッサ152aは、図5の処理ステップS11(RGB−Dカメラによる撮影処理)にてRGB−Dカメラ154−2により撮影されたRGB画像及び距離画像を取得する。
【0063】
図9の処理ステップS13b〉
プロセッサ152aは、RGB−Dカメラ154−2より取得したRGB画像を解析することにより、RGB画像内の視対象Oの座標を検出する。例えば、非特許文献2に記載の公知技術を利用することにより、視対象Oの座標を検出することができる。
【0064】
図9の処理ステップS13c〉
プロセッサ152aは、図9の処理ステップS13bにて検出された座標(ピクセル)に対応する距離画像のピクセルを特定する。これにより、視対象Oの三次元座標νo2が得られる。
【0065】
図9の処理ステップS13d〉
上記の通り、視線の始点(眼球回旋中心)と終点(視対象O)とが座標系の異なる別々のRGB−Dカメラによって撮影される。ここで、RGB−Dカメラ154−2の座標系は、RGB−Dカメラ154−2の光学中心を原点とする座標系であり、以下、「第二のカメラ座標系」と記す。第二のカメラ座標系も第一のカメラ座標系と同じく、RGB−Dカメラ154−2の水平方向にX軸を持ち、RGB−Dカメラ154−2の垂直方向にY軸を持ち、RGB−Dカメラ154−2の奥行き方向にZ軸(RGB−Dカメラ154−2より前方へ向かうほどプラスの値となる。)を持つ。
【0066】
座標系の異なる別々のRGB−Dカメラで撮影された視線の始点(眼球回旋中心)及び終点(視対象O)に基づいて視線情報を算出するには、例えば第二のカメラ座標系における視対象Oの座標νo2を、第一のカメラ座標系からみたときの座標νo1に変換する必要がある。かかる変換処理は、第二のカメラ座標系からみた第一のカメラ座標系の相対関係(相対的な位置や向き等の関係)から得られる回転行列、並進ベクトルを夫々、R21、t21と定義し、所定の時間軸上の時刻をtと定義した場合に、次式を用いて行われる。
νo1=R21(νo2−t21
【0067】
例えば、RGB−Dカメラ154−1とRGB−Dカメラ154−2とを治具等を用いて設置することにより、互いの相対的な位置関係及び姿勢関係が既知となる場合を考える。この場合、回転行列R21及び並進ベクトルt21を既知のパラメータとして取り扱うことができる。また、RGB−Dカメラ154−1とRGB−Dカメラ154−2との相対的な位置関係及び姿勢関係が未知の場合を考える。この場合、RGB−Dカメラ154−1とRGB−Dカメラ154−2とで同一の特徴点(例えば装用予定者Sの顔の特徴点)を測定し、測定された同一の特徴点に基づいてRGB−Dカメラ154−1とRGB−Dカメラ154−2との相対的な位置関係及び姿勢関係を推定する。なお、この種の推定技術は周知であるため、詳細な説明は省略する。
【0068】
図9の処理ステップS13e〉
RGB−Dカメラ154−1により撮影された装用予定者Sの眼球回旋中心の座標系は、上記の通り、頭部座標系に変換されている。そのため、RGB−Dカメラ154−2により撮影された視対象Oは、図9の処理ステップS13dにて第一のカメラ座標系からみたときの座標値に変換された後、更に、眼球回旋中心と同じく頭部座標系に変換される必要がある。ここで、装用予定者Sは、視対象Oを眼で追うため、視線だけでなく頭部も動かす。そのため、頭部座標系は、第一のカメラ座標系に対して刻々と変化している。プロセッサ152aは、頭部座標系の変化を追跡するため、所定の時間間隔毎に、RGB−Dカメラ154−1より取得した距離画像に基づいて装用予定者Sの頭部の位置及び姿勢を検出する。
【0069】
図9の処理ステップS13f〉
プロセッサ152aは、装用予定者Sの頭部の位置及び姿勢を検出する毎に、検出前後での頭部の位置差及び姿勢差を算出する。プロセッサ152aは、算出された頭部の位置差及び姿勢差に基づいて頭部座標系を更新する。プロセッサ152aは、第一のカメラ座標系を更新後の頭部座標系に変換することにより、第一のカメラ座標系からみたときの視対象Oの座標νo1を、頭部座標系からみたときの視対象Oの座標νohに変換する。換言すると、プロセッサ152aは、検出前後で頭部の位置及び姿勢がソフトウェア処理上保たれるように(RGB−Dカメラ154−1に対して真正面を向いた状態で維持されるように)、視対象Oの座標を検出前後の頭部の位置差及び姿勢差に相当する分だけ変更する。
【0070】
図5のS13(視対象座標の算出処理)の補足]
図9のフローチャートの説明は、RGB−Dカメラ154−1とRGB−Dカメラ154−2とが同期したタイミングで夫々の被写体(装用予定者S、視対象O)を撮影していることを前提としている。しかし、2台のRGB−Dカメラの撮影タイミングはハードウェア上で必ずしも同期しているとは限らない。そこで、次の処理を行うことにより、RGB−Dカメラ154−1とRGB−Dカメラ154−2との撮影タイミングをソフトウェア処理上で同期させる。
【0071】
図10に、2台のRGB−Dカメラの撮影タイミングが非同期の場合のタイムチャートを例示する。図10に示されるように、例えば、RGB−Dカメラ154−1による撮影時刻t12とRGB−Dカメラ154−2による撮影時刻t22は非同期である。また、他の互いの撮影時刻も同様に非同期である。なお、撮影時刻はRGB画像及び距離画像のメタデータであり、各RGB−Dカメラが実際に撮影を行った時刻を示す。
【0072】
ここで、例えば撮影時刻t22における視対象Oの座標νo2を頭部座標系からみたときの視対象Oの座標νohに変換する場合を考える。この場合、プロセッサ152aは、撮影時刻t12における装用予定者Sの頭部の位置及び姿勢並びに撮影時刻t12と撮影時刻t22との時間差を参照し、かつ平滑化スプライン等の内挿アルゴリズムを用いることにより、撮影時刻t22における頭部の位置及び姿勢の各パラメータを内挿する。内挿された値は、撮影時刻t22における頭部の位置及び姿勢の推定値である。プロセッサ152aは、この推定値から撮影時刻t22における頭部座標系を算出し、撮影時刻t22における視対象Oの座標νo2を、算出された頭部座標系からみたときの視対象Oの座標νohに変換する。なお、変形例として、撮影時刻t12における視対象Oの座標νo2を内挿することにより、RGB−Dカメラ154−1とRGB−Dカメラ154−2との撮影タイミングを同期させてもよい。
【0073】
図5のS14(視線情報の算出処理)]
プロセッサ152aは、図5の処理ステップS12(眼球回旋中心座標の算出処理)にて算出された眼球回旋中心座標νrc1(x,y,z+α)を始点とし、図5の処理ステップ処理ステップS13(視対象座標の算出処理)にて算出された視対象Oの座標νohを終点とする視線ベクトル(ベクトル長及び単位ベクトルを含む。)を算出する。プロセッサ152aは、算出された視線情報をメモリ152b内の所定領域に保存する。なお、視線情報には、視線を視対象Oに向けたときの時間軸情報(例えば時刻の情報であり、具体的には、RGB−Dカメラ154−1又はRGB−Dカメラ154−2による撮影時刻)も含まれる。
【0074】
図5のS15(終了判定処理)]
プロセッサ152aは、メモリ152b内に所定時間分(所定数)の視線情報を採取(保存)したか否かを判定する。プロセッサ152aは、所定時間分の視線情報を採取した場合(図5のS15:YES)、本フローチャートの処理を終了させる。プロセッサ152aは、所定時間分の視線情報を採取していない場合(図5のS15:NO)、図5の処理ステップ処理ステップS13(視対象座標の算出処理)に処理を戻す。
【0075】
なお、プロセッサ152aは、所定時間分の視線情報を採取した後(S15:YESの後)、当該視線情報に関する情報をモニタ152dに表示してもよい。視線情報に関する情報の表示の形式として様々なものがあり得る。例えば、フレーム型にカットされたレンズの画像の上に視線通過点の頻度が等高線、濃淡、ドット等で表示されても良い。
【0076】
本実施例1によれば、視線の始点は眼鏡レンズの設計時における原点と同じ眼球回旋中心に設定されている。そのため、眼鏡レンズの設計時における原点と視線の始点とのズレに起因する視線の方向及び距離の誤差がそもそも生じない。従って、本実施例1により採取される視線情報は眼鏡レンズの設計に利用するのに好適である。また、本実施例1によれば、装用予定者Sの眼前に設置されたRGB−Dカメラ154−1により装用予定者Sが撮影される。装用予定者SがRGB画像内に大きく写るため、RGB画像による眼の二次元位置を高い精度で検出することができる。また、RGB−Dカメラ154−1と装用予定者Sとの距離が近いため、距離画像による眼の奥行き方向の位置も高い精度で検出することができる。装用予定者Sの頭部の位置及び姿勢についても同様に高い精度で検出することができる。このように、本実施例1によれば、装用予定者Sの眼並びに頭部の位置及び姿勢を高い精度で検出することができるため、視線情報の算出精度が向上する。従って、眼鏡レンズを設計するのに有利な視線情報が得られる。
【0077】
[本実施例1の変形例1]
本実施例1では、RGB−Dカメラを用いて角膜頂点の三次元座標を特定している。具体的には、本実施例1では、カメラ154aによるRGB画像を利用して角膜頂点座標(ピクセル)を特定し、特定された角膜頂点のピクセルに対応した、距離画像撮影部154bによる距離画像のピクセルから角膜頂点の三次元座標を特定するという方法が採用されている。一方、変形例1では、例えば非特許文献4(Tae Kyun Kim, Seok Cheol Kee and Sang Ryong Kim: "Real-Time Normalization and Feature Extraction of 3D Face Data Using Curvature Characteristics")に記載の技術を適用することにより、RGB画像を利用することなく距離画像から角膜頂点座標を直接特定することができる。また、視対象Oについても特徴的な形状を持つ対象物を視対象とした場合、非特許文献4に記載の技術を適用することにより、RGB画像を利用することなく距離画像から視対象Oの座標を直接特定することができる。変形例1では、RGB−Dカメラを距離画像センサに代えることができるため、例えば視線情報採取装置のコストが抑えられる。
【0078】
[実施例2]
以下、視線情報採取処理に関する実施例2を説明する。以下で詳細に説明するように、実施例2では、視線情報と共に装用パラメータが同時かつ時系列的に、かつ装用予定者Sの頭部姿勢を考慮して採取される。なお、本実施例2において、本実施例1と重複する内容については、便宜上その説明を適宜省略又は簡略する。また、本実施例2において、本実施例1と同様の構成及び処理ステップについては、同様の符号を付してその説明を適宜省略又は簡略する。
【0079】
図4は、本実施例2の視線情報採取装置150の使用状態を示す図である。図3は、本実施例2における視線情報採取装置150の構成を表すブロック図である。図11は、図4の状態で使用される視線情報採取装置150による、視線情報・装用パラメータ採取処理のフローチャートである。
【0080】
[視線情報採取装置150による視線情報・装用パラメータ採取処理]
図11のS511(RGB−Dカメラによる撮影処理)]
RGB−Dカメラ154−1は、装用予定者SのRGB画像及び距離画像を所定のフレームレートで撮影し、RGB−Dカメラ154−2は視対象OのRGB画像及び距離画像を所定のフレームレートで撮影する。
【0081】
図11のS512(角膜頂点位置、眼球回旋中心座標の算出処理)]
プロセッサ152aは、装用予定者Sの視線の始点となる眼球回旋中心の座標νrc1を算出し保持する。本処理ステップS512は図5の処理ステップS12(眼球回旋中心座標の算出処理)と同様であるため、更なる説明は省略する。なお、本ステップS152では、眼球回旋中心を求める為に測定された角膜頂点座標も保持するようにする。具体的には、角膜頂点座標も所定フレーム数分取得される為、その平均値を角膜頂点座標として確定し保持する。保持された角膜頂点座標は、後に装用パラメータを算出する際に利用される。
【0082】
図11のS513−1(視対象座標の取得処理)]
装用予定者Sは、撮影中、視対象Oを注視するように指示されている。装用予定者Sは、視対象Oを注視するため、裸眼もしくは、例えば普段使用している眼鏡をかけてもよいが、S513−2で装用パラメータのうち、フレーム前傾角、フレームそり角、フレーム頂点間距離のいずれかを算出する場合は、必ず眼鏡をかける必要がある。視対象Oは、例えば、ランダムに又は規則的に動く若しくはランダムな又は規則的な位置に出現する又は配置される対象物である。プロセッサ152aは、装用予定者Sの視線の終点となる視対象Oの座標を算出する。視対象Oの座標の取得処理は、図5のステップS13と同様である為、詳細な説明は省略する。
【0083】
図11のS513−2(装用パラメータの算出処理)]
プロセッサ152aは、装用パラメータ(フレーム前傾角、フレームそり角、フレーム頂点間距離、瞳孔間距離)を算出する(近業目的距離のみS514にて算出する)。各装用パラメータ取得処理の詳細について以下、説明する。
【0084】
[フレーム前傾角の算出処理]
図12は、フレーム前傾角算出処理のフローチャートである。なお、本処理では、図11のステップS513−1で求められた頭部位置・姿勢に基づいて定義される装用予定者Sの正面顔3次元データ、及びS512で保持された角膜頂点座標(眼鏡をかけない状態で取得される角膜頂点座標)を利用する。
【0085】
図12のステップS501a]
図13は、正面顔三次元データの横断面図であり、フレーム前傾角算出処理を説明するための図である。図13には、正面顔三次元データの横断面図が示されるとともに、角膜頂点位置Vが示されている。プロセッサ152aは、角膜頂点位置Vから上下にピクセルを走査し、Z座標の値が不連続に急激に変化する点をフレーム特徴点として検出する。この走査によって、顔面からZ軸方向にシフトした位置F(x,y,z)及びF(x、y、z)が、フレーム特徴点として検出される。
【0086】
図12のステップS501b]
プロセッサ152aは、このように検出されたフレーム特徴点の位置F,Fを用いてフレーム前傾角を算出する。フレーム前傾角(θ)は、下記のように表される。
【0087】
[フレーム前傾角の算出処理]
図14は、フレームそり角算出処理のフローチャートである。なお、本処理では、図11のステップS513−1で求められた頭部位置・姿勢に基づいて定義される装用予定者Sの正面顔3次元データ、及びS512で保持された角膜頂点座標を利用する。
【0088】
図14のステップS502a]
図15は、正面顔三次元データの上断面図であり、フレームそり角算出処理を説明する図である。図15には、正面顔三次元データの上断面図が示されるとともに、角膜頂点位置Vが示されている。プロセッサ152aは、角膜頂点位置Vから左右にピクセルを走査し、Z座標が不連続に急激に変化する点をフレーム特徴点として検出する。この走査によって、顔面からZ軸方向にシフトした位置F(x,y,z)及びF(x、y、z)が、フレーム特徴点として検出される。
【0089】
図14のステップS502b]
プロセッサ152aは、このように検出されたフレーム特徴点の位置F,Fを用いてフレームそり角を算出する。フレームそり角(θ)は、下記のように表される。
【0090】
[フレーム頂点間距離の算出処理]
図16は、フレーム頂点間距離算出処理のフローチャートである。なお、本処理では、図11のステップS513−1で求められた頭部位置・姿勢に基づいて定義される装用予定者Sの正面顔3次元データ、及びS512で保持された角膜頂点座標を利用する。
【0091】
図16のステップS503a]
図17は、正面顔三次元データの横断面図であり、フレーム頂点間距離算出処理を説明する為の図である。図17には、正面顔三次元データの横断面図が示されると共に、角膜頂点位置V、フレーム特徴点F、Fが示されている。図12のステップS501aの場合と同様に、プロセッサ152aは、フレーム特徴点の位置F,Fを算出する。
【0092】
図16のステップS503b]
図17において、直線Lは、角膜頂点VからZ軸に平行に引いた直線であり、直線Lは、フレーム特徴点F、Fを結ぶ直線である。プロセッサ152aは、直線Lと直線Lとの交点Xと、角膜頂点Vとの距離をフレーム頂点間距離として算出する。
【0093】
[瞳孔間距離の算出処理]
図18は、正面顔三次元データの正面図であり、瞳孔間距離算出処理を説明するための図である。プロセッサ152aは、図11のステップS512にて取得される左右眼の角膜頂点位置((xr2、yr2、zr2)及び(xl2、yl2、zl2))を利用しX軸に沿ってxl2−xr2を計算することによって瞳孔間距離を算出する。
【0094】
図11のS514(視線情報の算出処理)]
プロセッサ152aは、図11の処理ステップS512(眼球回旋中心座標の算出処理)にて算出された眼球回旋中心座標νrc1(x,y,z+α)を始点とし、図11の処理ステップ処理ステップS513−1(視対象座標の算出処理)にて算出された視対象Oの座標νohを終点とする視線ベクトルを算出する。プロセッサ152aは、算出された視線情報をメモリ152b内の所定領域に保存する。なお、視線情報には、視線を視対象Oに向けたときの時間軸情報(例えば時刻の情報であり、具体的には、RGB−Dカメラ154−1による撮影時刻)も含まれる。なお、近業目的距離については装用予定者Sの近業作業に合わせた距離に視対象を設置し、その状態で算出された視線ベクトル長を近業目的距離と見なすことで算出可能である。
【0095】
図11のS515(終了判定処理)]
プロセッサ152aは、メモリ152b内に所定時間分(所定数)の視線情報を採取(保存)したか否かを判定する。プロセッサ152aは、所定時間分の視線情報を採取した場合(図11のS515:YES)、本フローチャートの処理を終了させる。プロセッサ152aは、所定時間分の視線情報を採取していない場合(図11のS515:NO)、図11の処理ステップ処理ステップS513−1(視対象座標の算出処理)に処理を戻す。
【0096】
本実施例2によれば、実施例1と同様に、視線の視点が眼鏡レンズの設計時における原点と同じ眼球回旋中心に設定されているため、本実施例により採集される視線情報は眼鏡レンズの設計に利用するのに好適である。また、視線情報(方向、距離)は、時系列データとして連続的に測定される。したがって、装用予定者Sがレンズのどの部分を高頻度で使用しているかを判定でき、判定された使用頻度に基づいて適切な収差配分をレンズに与えることができる。
【0097】
また、本実施例2によれば、装用パラメータも同時的に取得されると共に、時系列のデータとして連続的に取得される。したがって、時系列データとして取得された装用パラメータについて、平均値やメジアンを使用することによって、より信頼度の高い装用パラメータを採取できることとなる(これを真の装用パラメータとする)。本実施例によれば、図3に一例として示したような簡易な構成で、視線情報及び装用パラメータを同時的に且つ時系列データとして取得できる。さらに、本実施例2によれば、装用パラメータの算出処理において頭部姿勢が考慮されている。したがって、正確な装用パラメータを取得できることとなる。
【0098】
[眼鏡レンズ設計用コンピュータ202による眼鏡レンズの具体的設計方法]
次に、本実施例1にて採取された視線情報を用いて眼鏡レンズを設計する方法を説明する。図19に、眼鏡レンズ設計用コンピュータ202による累進屈折力レンズの設計工程のフローチャートを示す。
【0099】
[累進屈折力レンズの設計例]
図19のS201(仮想モデルの構築)]
眼鏡レンズ設計用コンピュータ202は、装用予定者Sが眼鏡レンズを装用した状態を想定した、眼球及び眼鏡レンズからなる所定の仮想モデルを構築する。図20は、眼鏡レンズ設計用コンピュータ202によって構築される仮想モデル例を示す。
【0100】
眼球の眼軸長は、遠視、近視で異なる。そこで、眼鏡レンズ設計用コンピュータ202は、遠視、近視の度合いで眼軸長がどれだけ異なるかを予め記憶している。その中から、眼鏡レンズ設計用コンピュータ202は、受注データに含まれる装用予定者Sの処方値(球面屈折力、乱視屈折力)に従って適切な眼球モデルEを選択し、選択された眼球モデルEを仮想モデル空間に配置する。眼球モデルEの中心には眼球回旋中心Eが定義される。
【0101】
眼鏡レンズ設計用コンピュータ202は、眼球回旋中心Eを原点として初期的な眼鏡レンズモデルLを設計する。具体的には、眼鏡レンズ設計用コンピュータ202は、受注データに含まれる処方値に基づき、レンズの外面(凸面)、内面(凹面)の各面を球面形状、非球面形状、累進面形状又は自由曲面形状(累進面形状以外のもの)の何れかの形状に決定する。例えば、片面累進屈折力レンズの場合、凸面または凹面が累進面形状に決定される。眼鏡レンズ設計用コンピュータ202は、処方値やレンズの屈折率等に基づいて中心肉厚を決定し、決定された中心肉厚だけ空けて凸面と凹面とを配置することにより、初期的な眼鏡レンズモデルLを設計する。
【0102】
眼鏡レンズ設計用コンピュータ202は、図11のフローによって測定された装用パラメータの値に基づき、フレームの測定値からレンズ配置のパラメータであるレンズそり角、レンズ前傾角、角膜頂点間距離CVDの数値に変換を行う。変換は測定された装用パラメータの値と、フレームの形状、ヤゲンまたは溝位置、レンズの度数、ベースカーブ、フィッティングポイント位置、肉厚などを用いて行う。得られたレンズそり角、レンズ前傾角、角膜頂点間距離CVDに基づいて、眼球モデルEに対して眼鏡レンズモデルLを配置する。装用パラメータの測定値がない場合は任意の値を指定し、そこからレンズ配置のパラメータを計算してもよい。角膜頂点間距離CVDは、眼鏡レンズモデルLの後方頂点と眼球モデルEの角膜頂点との距離である。フィッティングポイントは、JIS規格にあるボクシングシステムにおけるBサイズの半分を基準線(データムライン)とし、データムラインから何mm上又は何mm下に瞳孔中心があるか、若しくはフレームの下リムから何mm上に瞳孔中心があるかによって決められる。まなお、上記の各種パラメータが不明な場合は、レンズ配置のパラメータとして標準的な値を採用してもよい。一例として、角膜頂点間距離CVDは、規定の値(12.5mm等)としてもよい。
【0103】
図19のS202(視線情報の取得)]
眼鏡レンズ設計用コンピュータ202は、本実施例1にて採取された視線情報を視線情報採取装置150より取得する。取得される視線情報には、上述したように、ベクトル長及び単位ベクトルを含む視線ベクトルの情報及び視線を視対象Oに向けたときの時間軸情報が含まれる。
【0104】
図19のS203(使用領域及び使用頻度の算出)]
眼鏡レンズ設計用コンピュータ202は、視線情報に基づいて装用予定者Sによる眼鏡レンズモデルL内の使用領域(視線が通過する領域)及び領域内での使用頻度を算出する。具体的には、眼鏡レンズ設計用コンピュータ202は、眼球回旋中心Eを原点とする各視線情報の単位ベクトル(視線の方向)と眼鏡レンズモデル(例えば凸面)Lとが交差する点を計算し、計算された交点の分布から使用領域を求める。眼鏡レンズ設計用コンピュータ202はまた、各視線情報の単位ベクトル及び時間軸情報に基づいて、使用領域内の各位置で各視線が眼鏡レンズモデルL上に滞留する時間を計算し、計算された各位置での滞留時間から領域内での使用頻度を求める。
【0105】
図19のS204(主注視線の設定)]
眼鏡レンズ設計用コンピュータ202は、図19の処理ステップS203(使用領域及び使用頻度の算出)にて算出された使用領域及び使用頻度に基づいて眼鏡レンズモデルL上で使用頻度の高い複数の位置(点)を算出し、隣接する算出点同士をスプライン補間等を用いて滑らかに接続することにより、眼鏡レンズモデルL上に主注視線を引く。眼鏡レンズ設計用コンピュータ202は、眼鏡レンズモデルL上に引かれた主注視線上を通過する各視線情報のベクトル長(視線の距離情報)に基づいて主注視線上の加入度分布を設定する。加入度分布は、例えば、主注視線上に複数の制御点を等間隔で配置し、各制御点を通過する視線情報のベクトル長に基づいて各制御点における屈折力を計算し、隣接する制御点間の屈折力をBスプライン等のスプライン補間等を用いて補間することにより得られる。
【0106】
図19のS205(水平方向のプリズム作用のコントロール)]
眼鏡レンズ設計用コンピュータ202は、図19の処理ステップS204(主注視線の設定)にて設定された主注視線から水平方向に延びる複数の断面曲線を定義し、遠用部、累進帯、近用部の各部の度数分布に応じて各断面曲線上の屈折力分布を設定する。
【0107】
図19のS206(レンズ面形状の仮決定)]
眼鏡レンズ設計用コンピュータ202は、主注視線上及び水平方向に延びる各断面曲線上の屈折力分布をスプライン補間等を用いて滑らかに接続し、接続後の屈折力分布を周知の換算式によって曲率分布に換算することにより、眼鏡レンズモデルLのレンズ面の幾何学形状を暫定的に決める。
【0108】
図19のS207(光線追跡計算)]
眼鏡レンズ設計用コンピュータ202は、暫定的に決められた眼鏡レンズモデルLに対して光線追跡による最適化計算を行い、図19の処理ステップS203(使用領域及び使用頻度の算出)にて算出された使用領域を評価する。使用領域を最適化するための所定の収束条件を定義する評価値及び評価関数は、任意に設定することができる。
【0109】
図19のS208(収束条件の充足判定)]
眼鏡レンズ設計用コンピュータ202は、図19の処理ステップS207(光線追跡計算)における評価結果に基づいて所定の収束条件が満たされるか否かを判定する。眼鏡レンズ設計用コンピュータ202は、所定の収束条件が満たされない場合(図19のS208:NO)、図19の処理ステップS209(加入度分布の微調節)に進む。
【0110】
図19のS209(加入度分布の微調節)]
眼鏡レンズ設計用コンピュータ202は、所定の収束条件を満たすべく、眼鏡レンズモデルLの主注視線上の各制御点の位置や屈折力等を変更することにより、加入度分布を微調節する。
【0111】
図19のS210(水平方向のプリズム作用のコントロール)]
眼鏡レンズ設計用コンピュータ202は、図19の処理ステップS209(加入度分布の微調節)による加入度分布の微調節後、図19の処理ステップS205(水平方向のプリズム作用のコントロール)と同様に、主注視線から水平方向に延びる複数の断面曲線を定義し、遠用部、累進帯、近用部の各部の度数分布に応じて各断面曲線上の屈折力分布を設定する。眼鏡レンズ設計用コンピュータ202は次いで、本フローチャートの処理を図19の処理ステップS206(レンズ面形状の仮決定)に戻す。
【0112】
例えば、図19の処理ステップS206(レンズ面形状の仮決定)から図19の処理ステップS210(水平方向のプリズム作用のコントロール)を繰り返すことによりレンズ面形状を補正した結果、図19の処理ステップS208(収束条件の充足判定)にて所定の収束条件が満たされると判定される場合(図19のS208:YES)を考える。この場合、眼鏡レンズ設計用コンピュータ202は、図19の処理ステップS206(レンズ面形状の仮決定)後の暫定的なレンズ面形状に対し、装用条件(例えばレンズ前傾角、レンズそり角等)に応じた非球面補正量を計算して付加する。これにより、レンズ面形状が確定して、累進屈折力レンズの形状設計が完了する。
【0113】
本設計工程によれば、実際の装用状態に適した収差配分であって且つ装用予定者S個々の視線の使い方及び視距離に適した累進屈折力レンズが設計される。
【0114】
ここで、夫々異なる収束条件を採用したときの設計例を2例(設計例1〜2)説明する。
【0115】
〈設計例1〉
図21(a)は、設計例1における最適化前のレンズの透過非点収差分布を示し、図21(b)は、設計例1における最適化後のレンズの透過非点収差分布を示す。設計例1では、図19の処理ステップS203(使用領域及び使用頻度の算出)にて算出された使用領域(図21中、楕円で囲われた領域)内で透過非点収差が2.0ディオプタ(2.0D)以下となるように評価関数が設定されている。設計例1では、図21(b)に示されるように、使用領域内の透過非点収差が2.0D以下に抑えられるため、使用領域内での揺れや歪みが軽減される。
【0116】
〈設計例2〉
図22(a)は、設計例2における最適化前のlogMAR視力値の分布を示し、図22(b)は、設計例2における最適化後のlogMAR視力値の分布を示す。logMAR視力値の詳細については、例えば特許第4033344号公報にて参照することができる。設計例2では、フィッティングポイントFPよりレンズ上方の遠用部内の使用領域においてlogMAR視力値が0.155以下(小数視力換算で0.7以上)となる面積が分布図の面積換算(レンズ表面の面積ではない。)で190mmより大きくなるように評価関数が設定されている。設計例2では、図22(b)に示されるように、例えば自動車の運転など、主に遠方視する状況を想定した場合に、遠用部内の使用領域で装用予定者Sが明瞭に視認できる範囲を広く取ることができる。
【0117】
更に、本実施形態による視線情報を用いた累進屈折力レンズの設計例について5例(設計例3−1〜3、設計例4−1〜2)説明する。なお、実施例3−1〜3は、主注視線の内寄せ量の設定に関する設計例であり、設計例4−1〜2は、加入度曲線の設定に関する設計例である。
【0118】
〈設計例3−1〉
人(装用予定者S)が正面視していると考えている場合でも、顔が傾いている場合がある。このような場合、そり角が無いと想定している場合でも正面視線に対してレンズが見かけ上、傾いているような状態になる。ここれらの状態を比較する為、図23(a)に顔の傾きがない場合、図23(b)に顔の傾きがある場合の視線の状態を示す。なお、各図において、上側にレンズ装用状態における上断面図を頭部座標系とともに示し、下側にレンズ上の正面視線の通過位置を示す。
【0119】
顔の傾きが無い状態(図23(a))では、正面視線は、想定された瞳孔間距離PDの設定位置P,Pを通る。他方、顔の傾きがある状態(図23(b))(ここでは、一例として頭部がY軸周りに10度傾いていると想定)、実際の正面視線は、想定された瞳孔間距離PDの設定位置P,Pではなく、これらの位置からシフトした位置Q、Qを通過することとなる。すなわち、図23(b)の状態は、正面視線に対して見掛け上フレームのそり角10度が付いた状態に相当する。
【0120】
そこで本設計例では、見かけのそり角に応じたプリズムの補正と、収差補正による設計を行った。
【0121】
図24は、従来設計(見かけのそり角に対する補正を行わない場合)と、上記設計例(見かけのそり角に応じた補正(プリズム補正、収差補正等))の場合との比較を表す図である。なお、ここでは、S+3.00、ADD2.50Dで計算した。具体的には、図24は、見かけのそり角がない場合の設計を基準として、従来設計の場合と本設計例の場合それぞれについて、透過平均度数(右レンズの凸面座標ベース、Y=0mm位置での断面の差分、X軸の範囲は±20mm)について基準となる設計からの差分をグラフ化したものである。図24において、破線の曲線は、従来設計と基準となる設計との透過平均度数の差であり、実線の曲線は、本設計例と基準となる設計との透過平均度数の差である。
【0122】
図24に示されるように、従来設計では、基準となる設計との差が0.3D以上であるのに対して、本設計例では、基準となる設計からの差が0.1D以下に抑えられている。
【0123】
〈設計例3−2〉
瞳孔間距離PDの計測誤差によって実際の視線通過位置とレンズの想定している瞳孔間距離PDに違いが生じる場合がある。本設計例は、このような場合に対し対処するための例である。図25は、このような状況下での本設計例を説明する為の図である。なお、ここでは、実際の視線が、右目の計測された瞳孔間距離PDに対して鼻側に1mmずれていた場合を想定する。このよう状況においては、従来設計の場合、正面視線の位置に対してレンズが偏心していることになるため、計測された瞳孔間距離PDもシフトすることとなり、中間〜近方を見るときの視線が通るレンズ上の位置が、非点収差のある領域を通ることになる(図25に示した非点収差図上に破線で表された視線通過位置を参照)。
【0124】
他方、上述した通り本実施形態によれば、視線のレンズ上の通過位置の滞留時間情報が取得できるため、この滞留時間情報に応じて瞳孔間距離PDを変更することができる。したがって、中間〜近方を見るときの視線が通るレンズ上の位置を非点収差が少ない位置を通るようにすることができる。
【0125】
図26は、上記のような状況における、従来設計と本設計例との差を示す図である。なお、ここではS+0.00D、ADD2.50Dで計算した。具体的には、図26は、透過非点収差のグラフであり(凸面座標値ベース)、従来設計と本設計例との比較を表している。図26に示されるように、従来設計の場合は、図25における破線の曲線が主注視線となり、瞳孔間距離PDを修正した本設計例と比較して最大0.4Dの非点収差がつく。
【0126】
〈設計例3−3〉
アイポイントEP位置が左右で異なるとき、フィッティングポイントFPの位置が異なることによって、下方回旋量が左右で同じであった場合、近方視する際の視線通過位置のレンズ上での高さと内寄せ量が左右で異なる可能性があり、修正する必要がある。図27(a)は、このような状況を説明する図である。ここでは、右より左のFPが2mm高い場合を例示する。図27(a)に示されるように、左眼に関して、近方視における実際の視線通過位置が、PからQにずれ、また、視線の内寄せ量も異なっている(図27(a)において実際の視線位置は実線の曲線で示す)。
【0127】
図27(b)は、加入度曲線を表すグラフであり、破線のグラフが従来設計の場合の加入度のグラフであり、実線の曲線が本設計例の場合の加入度のグラフである。図27(b)に示されるように、従来設計場合には右眼のPの位置では2.50Dの加入度が得られているが、左眼のQの位置では2.36Dしか得られていない。
【0128】
他方、本設計例では、視線情報から主注視線上での加入度を調整することでQの位置でも加入度2.50Dを確保することができる。
【0129】
〈設計例4−1〉
本設計例は、上述の実施形態によるフィッティングポイントFP上での距離情報や近方距離から加入度曲線を設定する例である。一例として、オーダー処方は、S0.00、ADD2.50D(距離換算で40cm)であるとする。測定では、フィティングポイントFPでの距離情報は1.7m(約0.6D相当)、近方距離は45cmであったため、加入度は約2.22Dで十分であるとみなし、ADD2.22で設計する。すなわち、本設計では、S0.00D、ADD2.22Dとなる。
【0130】
図28は、本設計例による加入度曲線を示すグラフである(図28の実線の曲線)。また、図28では、比較の為に従来設計による加入度曲線のグラフも図示している(図28の破線の曲線)。図28から理解されるように、近方距離に関して、従来設計では実際に使っている距離よりも近い距離に設定されているため近方視の際には逆に近づかないと見ずらくなってしまう。また、従来設計では、加入度変化が大きく、非点収差が大きくなり、中間部が狭くなってしまう。
【0131】
図29(a)に従来設計による透過非点収差図を示し、図29(b)に本設計例による透過非点収差図を示す。なお、図29は、右レンズの凸面座標値ベース、X、Y軸の範囲は±20mm,5mmピッチである。図29から理解されるように、従来設計では不必要に大きな加入度をつけることによって非点収差が大きくなる。他方、本設計例によれば、近方視をする際の視線通過位置で十分な加入度を満たすように主注視線上の加入度曲線を設計できるため、非点収差を減らすことができる。また、本設計例によれば、収差の最小値が小さくなり収差の入り込みも低減され、中間部が広く確保される。なお、透過非点収差図は、眼球回旋中心とレンズ後面の頂点を半径とする参照球面上の非点収差を表しており、光線は物体からレンズを通り眼球回旋中心を通る。
【0132】
図30は、本設計例と従来設計による透過非点収差(右レンズの凸面座標値ベース)の差を示すグラフである。詳細には、Y=−5mm、X=±20mmの断面方向での非点収差の差を表している。図30から理解されるように、Y=−5mm、X=±20mmの断面方向での、本設計例と従来設計での非点収差の差は最大0.25D以上あり、本設計例が有利であることが理解される。
【0133】
〈設計例4−2〉
本設計例は、上述の実施形態によるフィッティングポイントFP若しくはそれより上の遠方視線の距離情報を更に考慮して加入度曲線を設定する場合の例である。一例として、オーダー処方は、S0.00D、ADD2.50Dであるとする。測定された遠方視線の距離情報が有限距離(ここでは一例として2mであるとする)の場合、オーダー処方にその距離を度数として加えた値を遠方度数として設計することができる。近用を見る位置ではその距離情報を度数に換算し、上記により加えられた遠方の度数を勘案した上で加入度曲線を設定する。例えば、(近用を見る位置の度数)=(加えた有限距離)+(加入度変化)との設計とする。
【0134】
図31は、本設計例による加入度曲線を示すグラフである(図31の実線の曲線)。また、図31では、比較の為に従来設計による加入度曲線のグラフも図示している(図31の破線の曲線)。図31から理解されるように、従来設計では、遠方視において実際に使っている距離よりも遠い距離となる為、その分調節が必要となり疲労するおそれがある。また、従来設計では、加入度変化が大きく、非点収差が大きくなり、中間部が狭くなってしまう。
【0135】
図32(a)に従来設計による透過非点収差図を示し(オーダー処方S0.00,ADD2.50Dでの設計)、図32(b)に本設計例による透過非点収差図を示す(S0.50D、ADD2.00Dでの設計)。なお、図32は、右レンズの凸面座標値ベース、X、Y軸の範囲は±20mm,5mmピッチである。図32から理解されるように、本設計例によれば、遠方の度数に、必要な距離(すなわち、測定された距離)分の度数を加算したことにより、処方された加入度を少なくしたとしても近方視する際の視線通過位置で必要な近用の度数を達成できるため、余分な加入度を入れる必要がなく非点収差を抑えることができる。また、本設計例によれば、収差の最大値が小さくなり、収差の入り込みも低減されており、中間部が広く確保される。
【0136】
図33は、本設計例と従来設計による透過非点収差(右レンズの凸面座標値ベース)の差を示すグラフである。詳細には、Y=−5mm、X=±20mmの断面方向での非点収差の差を表している。図33から理解されるように、Y=−5mm、X=±20mmの断面方向での、本設計例と従来設計での非点収差の差は最大0.45D以上あり、本設計例が有利であることが理解される。
【0137】
なおここまで説明してきた透過平均度数、透過非点収差とはレンズ凸面とレンズ凹面を透過し、眼球回旋中心を通る光線が、眼球回旋中心とレンズの後方頂点を結ぶ距離を半径とした球面(後方頂点球面 図20のV)上での光線の平均度数誤差、非点収差のことである。
【0138】
[単焦点レンズの設計例]
図34に、眼鏡レンズ設計用コンピュータ202による単焦点レンズの設計工程のフローチャートを示す。
【0139】
図34のS301(仮想モデルの構築)からS303(使用領域及び使用頻度の算出)]
眼鏡レンズ設計用コンピュータ202は、図34の処理ステップS301(仮想モデルの構築)、処理ステップS302(視線情報の取得)及び処理ステップS303(使用領域及び使用頻度の算出)を行う。本設計例の初期的な眼鏡レンズモデルLは、例えば処方値に基づいて選択された球面形状を持つ球面レンズである。これらの処理ステップは、図19の処理ステップS201(仮想モデルの構築)から処理ステップS203(使用領域及び使用頻度の算出)と同様であるため、具体的説明は省略する。
【0140】
図34のS304(非球面係数等の初期設定)]
眼鏡レンズ設計用コンピュータ202は、図34の処理ステップS303(使用領域及び使用頻度の算出)にて算出された使用領域及び使用頻度に基づいて初期的な眼鏡レンズモデルLをベースに非球面係数や自由曲面に関するパラメータの初期値を設定する。
【0141】
図34のS305(レンズ面形状の仮決定)]
眼鏡レンズ設計用コンピュータ202は、非球面係数や自由曲面に関するパラメータに基づいて眼鏡レンズモデルLのレンズ面の幾何学形状を暫定的に決める。
【0142】
図34のS306(光線追跡計算)]
眼鏡レンズ設計用コンピュータ202は、暫定的に決められた眼鏡レンズモデルLに対して光線追跡による最適化計算を行い、図34の処理ステップS303(使用領域及び使用頻度の算出)にて算出された使用領域を評価する。
【0143】
図34のS307(収束条件の充足判定)]
眼鏡レンズ設計用コンピュータ202は、図34の処理ステップS306(光線追跡計算)における評価結果に基づいて所定の収束条件が満たされるか否かを判定する。眼鏡レンズ設計用コンピュータ202は、所定の収束条件が満たされない場合(図34のS307:NO)、図34の処理ステップS308(非球面係数等の変更)に進む。
【0144】
図34のS308(非球面係数等の変更)]
眼鏡レンズ設計用コンピュータ202は、所定の収束条件を満たすべく、非球面係数や自由曲面に関するパラメータを変更する。眼鏡レンズ設計用コンピュータ202は次いで、本フローチャートの処理を図34の処理ステップS305(レンズ面形状の仮決定)に戻す。
【0145】
例えば、図34の処理ステップS305(レンズ面形状の仮決定)から図15の処理ステップS308(非球面係数等の変更)を繰り返すことによりレンズ面形状を補正した結果、図34の処理ステップS307(収束条件の充足判定)にて所定の収束条件が満たされると判定される場合(図34のS307:YES)を考える。この場合、眼鏡レンズ設計用コンピュータ202は、図34の処理ステップS305(レンズ面形状の仮決定)後の暫定的なレンズ面形状に対し、装用条件(例えばレンズ前傾角、レンズそり角等)に応じた非球面補正量を計算して付加する。これにより、レンズ面形状が確定して、単焦点レンズの形状設計が完了する。
【0146】
本設計工程によれば、実際の装用状態に適した収差配分であって且つ装用予定者S個々の視線の使い方及び視距離に適した単焦点レンズが設計される。
【0147】
上記においては、装用予定者Sの視線情報を用いて累進屈折力レンズや単焦点レンズを設計する例を説明したが、別の実施形態では、規定の複数種類の眼鏡レンズの中から、装用予定者Sの視線情報に対応する条件に最も適した眼鏡レンズを選択するようにしてもよい。
【0148】
なお、眼鏡レンズ設計用コンピュータ202は、ホストコンピュータ200を通じインターネット経由で、設計したレンズの透過非点収差分布、透過平均度数分布、logMAR視力分布、または特許文献2にあるような性能指数(特許第3919097号)や撮影装置によって得られたRGB画像や任意のRGB画像、3次元の仮想物体の画像に対して、光線の収差に応じて各画素にたいして画像処理を加えた図、に関する情報とその情報に例えば、視線通過点の頻度が等高線、濃淡、ドット等で重ねて、モニタ152dに表示してもよい。表示は上記分布図やRGB画像、3次元の仮想物体の画像の上にフレーム型にカットされたレンズの画像を重ねて表示しても良い。このような表示画像の例を、図35に示す。なお、図35は、設計の結果とフレーム、視線情報を重ねたイメージ図であり、図22に示した設計結果としてのlogMARの分布図を使用している。詳細には、図35(a)は、視線滞留時間と通過位置を等高線で表示した場合の例であり、図35(b)は、視線通過位置をプロットした場合の例である。
【0149】
以上が本発明の例示的な実施形態の説明である。本発明の実施形態は、上記に説明したものに限定されず、本発明の技術的思想の範囲において様々な変形が可能である。例えば明細書中に例示的に明示される実施例や変形例又は自明な実施例や変形例を適宜組み合わせた内容も本願の実施形態に含まれる。
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14
図15
図16
図17
図18
図19
図20
図21
図22
図23
図24
図25
図26
図27
図28
図29
図30
図31
図32
図33
図34
図35