(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2023-03-09
(45)【発行日】2023-03-17
(54)【発明の名称】画像作成装置、眼鏡レンズ選択システム、画像作成方法およびプログラム
(51)【国際特許分類】
G02C 13/00 20060101AFI20230310BHJP
A61B 3/113 20060101ALI20230310BHJP
G06T 7/00 20170101ALI20230310BHJP
【FI】
G02C13/00
A61B3/113
G06T7/00
(21)【出願番号】P 2019564219
(86)(22)【出願日】2018-01-11
(86)【国際出願番号】 JP2018000528
(87)【国際公開番号】W WO2019138515
(87)【国際公開日】2019-07-18
【審査請求日】2020-09-16
(73)【特許権者】
【識別番号】300035870
【氏名又は名称】株式会社ニコン・エシロール
(74)【代理人】
【識別番号】100161207
【氏名又は名称】西澤 和純
(74)【代理人】
【識別番号】100140774
【氏名又は名称】大浪 一徳
(74)【代理人】
【識別番号】100175824
【氏名又は名称】小林 淳一
(72)【発明者】
【氏名】趙 成鎮
【審査官】加藤 範久
(56)【参考文献】
【文献】国際公開第2010/044383(WO,A1)
【文献】国際公開第2017/047178(WO,A1)
【文献】特表2015-522834(JP,A)
【文献】特開平07-261724(JP,A)
【文献】国際公開第2009/122684(WO,A1)
【文献】特開2010-134460(JP,A)
【文献】特開平11-183856(JP,A)
【文献】特開2009-230699(JP,A)
【文献】米国特許出願公開第2017/0052393(US,A1)
【文献】国際公開第2013/067230(WO,A1)
(58)【調査した分野】(Int.Cl.,DB名)
G02C 13/00
A61B 3/113
G06T 7/00
G06T 7/20
(57)【特許請求の範囲】
【請求項1】
被験者から離隔して設置され前記被験者に対し相対的に変位する表示装置を目視する前記被験者を撮像した撮像画像から、特徴を検出する特徴検出部と、
検出された前記特徴の位置および/または検出された前記特徴の間の距離に基づいて、前記被験者と前記表示装置との間の距離および前記被験者の顔の向きを算出するパラメータ算出部と、
前記被験者と前記表示装置との間の距離および前記顔の向きに基づいて、前記被験者が眼鏡レンズを通して前記表示装置を目視した場合の仮想的な第1視野と、前記被験者が前記眼鏡レンズを通さずに前記表示装置を目視した場合の仮想的な第2視野とを含み、前記表示装置に表示される
、前記表示装置の位置に配置された仮想的な基準物体の大きさが前記距離および前記顔の向きによらず略一定にされた、
仮想的な視野の画像を作成する画像作成部と、
前記仮想的な視野の画像を前記表示装置に表示させる表示制御部とを備える画像作成装置。
【請求項2】
請求項1に記載の画像作成装置において、
前記パラメータ算出部は、検出された前記特徴の位置および/または検出された前記特徴の間の距離に基づいて、前記被験者の眼の位置を算出し、
前記画像作成部は、前記眼の位置、前記被験者と前記表示装置との間の距離および前記顔の向きに基づいて、前記被験者が前記眼の位置から前記眼鏡レンズを通して前記表示装置を目視した場合の
前記仮想的な視野の画像を作成する画像作成装置。
【請求項3】
請求項2に記載の画像作成装置において、
前記画像作成部は、前記被験者が前記表示装置の位置に
配置された仮想的な基準物体を目視する場合の、前記仮想的な視野の画像を作成する画像作成装置。
【請求項4】
請求項3に記載の画像作成装置において、
前記画像作成部は、前記
基準物体を含む3次元の仮想空間を構築し、前記眼の位置に関わらず、前記仮想的な視野の画像の画角を、前記表示装置の表示画面の大きさに対応させる画像作成装置。
【請求項5】
請求項4に記載の画像作成装置において、
前記画像作成部は、前記眼から出射された光の、前記眼鏡レンズからの出射方向に基づいて、前記眼鏡レンズによる局所的なゆがみを算出する画像作成装置。
【請求項6】
請求項4または5に記載の画像作成装置において、
前記画像作成部は、前記仮想空間に配置された物体上の点から出射され、前記眼鏡レンズを透過し、前記眼の網膜に入射する光線を光線追跡した結果に基づいて、前記網膜における収差量を算出し、前記収差量に基づいた畳み込み計算によりぼけを含む前記仮想的な視野の画像を作成する画像作成装置。
【請求項7】
請求項6に記載の画像作成装置において、
前記画像作成部は、前記被験者の調節力、年齢、および処方データの少なくとも一つに基づいて前記収差量を算出する画像作成装置。
【請求項8】
請求項6または7に記載の画像作成装置において、
前記画像作成部は、前記被験者と前記表示装置との間の距離に基づいて前記畳み込み計算のカーネルを変化させる画像作成装置。
【請求項9】
請求項1から8までのいずれか一項に記載の画像作成装置において、
前記パラメータ算出部は、前記被験者の処方データおよび/または眼鏡レンズを装用した前記被験者の実測値に基づいて、前記仮想的な視野の画像を作成する際の眼鏡レンズの位置および姿勢を算出する画像作成装置。
【請求項10】
請求項1から9までのいずれか一項に記載の画像作成装置において、
前記特徴検出部は、前記特徴を、前記被験者の顔、および前記被験者の頭部に配置された部材の少なくとも一つに対応する、前記撮像画像の一部分から検出する画像作成装置。
【請求項11】
請求項1から10までのいずれか一項に記載の画像作成装置と、
前記表示装置と、
前記表示装置を目視する被験者を撮像する撮像部と
を備える眼鏡レンズ選択システム。
【請求項12】
被験者を撮像した撮像画像から、特徴を検出することと、被験者から離隔して設置され前記被験者に対し相対的に変位する表示装置を目視する前記
検出された前記特徴の位置および/または検出された前記特徴の間の距離に基づいて、前記被験者と前記表示装置との間の距離および前記被験者の顔の向きを算出することと、
前記被験者と前記表示装置との間の距離および前記顔の向きに基づいて、前記被験者が眼鏡レンズを通して前記表示装置を目視した場合の仮想的な第1視野と、前記被験者が前記眼鏡レンズを通さずに前記表示装置を目視した場合の仮想的な第2視野とを含み、前記表示装置に表示される
、前記表示装置の位置に配置された仮想的な基準物体の大きさが前記距離および前記顔の向きによらず略一定にされた、視野の画像を作成することと、
前記仮想的な視野の画像を前記表示装置に表示させることとを備える画像作成方法。
【請求項13】
被験者から離隔して設置され前記被験者に対し相対的に変位する表示装置を目視する前記被験者を撮像した撮像画像から、特徴を検出する特徴検出処理と、
検出された前記特徴の位置および/または検出された前記特徴の間の距離に基づいて、前記被験者と前記表示装置との間の距離および前記被験者の顔の向きを算出するパラメータ算出処理と、
前記被験者と前記表示装置との間の距離および前記顔の向きに基づいて、前記被験者が眼鏡レンズを通して前記表示装置を目視した場合の仮想的な第1視野と、前記被験者が前記眼鏡レンズを通さずに前記表示装置を目視した場合の仮想的な第2視野とを含み、前記表示装置に表示される
、前記表示装置の位置に配置された仮想的な基準物体の大きさが前記距離および前記顔の向きによらず略一定にされた、視野の画像を作成する画像作成処理と、
前記仮想的な視野の画像を前記表示装置に表示させる表示制御処理とを処理装置に行わせるためのプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、画像作成装置、眼鏡レンズ選択システム、画像作成方法およびプログラムに関する。
【背景技術】
【0002】
眼鏡レンズの装用者が、仮想的な眼鏡レンズを通して目視した場合の視野の画像を生成するため、種々の方法の提案がなされている。例えば、特許文献1では、頭部に装着可能で、距離画像センサにより取得した情報を利用する装置が記載されている。このような装置よりも簡易的な構成で、被験者に眼鏡レンズを通した見え方をリアルに体験させることが望まれている。
【先行技術文献】
【特許文献】
【0003】
【発明の概要】
【0004】
本発明の第1の態様によると、画像作成装置は、被験者から離隔して設置され前記被験者に対し相対的に変位する表示装置を目視する前記被験者を撮像した撮像画像から、特徴を検出する特徴検出部と、検出された前記特徴の位置および/または検出された前記特徴の間の距離に基づいて、前記被験者と前記表示装置との間の距離および前記被験者の顔の向きを算出するパラメータ算出部と、前記被験者と前記表示装置との間の距離および前記顔の向きに基づいて、前記被験者が眼鏡レンズを通して前記表示装置を目視した場合の仮想的な第1視野と、前記被験者が前記眼鏡レンズを通さずに前記表示装置を目視した場合の仮想的な第2視野とを含み、前記表示装置に表示される、前記表示装置の位置に配置された仮想的な基準物体の大きさが前記距離および前記顔の向きによらず略一定にされた、仮想的な視野の画像を作成する画像作成部と、前記仮想的な視野の画像を前記表示装置に表示させる表示制御部とを備える。
本発明の第2の態様によると、眼鏡レンズ選択システムは、第1の態様の画像作成装置と、前記表示装置と、前記表示装置を目視する被験者を撮像する撮像部とを備える。
本発明の第3の態様によると、画像作成装置は、被験者を撮像した撮像画像から、特徴を検出することと、被験者から離隔して設置され前記被験者に対し相対的に変位する表示装置を目視する前記検出された前記特徴の位置および/または検出された前記特徴の間の距離に基づいて、前記被験者と前記表示装置との間の距離および前記被験者の顔の向きを算出することと、前記被験者と前記表示装置との間の距離および前記顔の向きに基づいて、前記被験者が眼鏡レンズを通して前記表示装置を目視した場合の仮想的な第1視野と、前記被験者が前記眼鏡レンズを通さずに前記表示装置を目視した場合の仮想的な第2視野とを含み、前記表示装置に表示される、前記表示装置の位置に配置された仮想的な基準物体の大きさが前記距離および前記顔の向きによらず略一定にされた、視野の画像を作成することと、前記仮想的な視野の画像を前記表示装置に表示させることとを備える。
本発明の第4の態様によると、プログラムは、被験者から離隔して設置され前記被験者に対し相対的に変位する表示装置を目視する前記被験者を撮像した撮像画像から、特徴を検出する特徴検出処理と、検出された前記特徴の位置および/または検出された前記特徴の間の距離に基づいて、前記被験者と前記表示装置との間の距離および前記被験者の顔の向きを算出するパラメータ算出処理と、前記被験者と前記表示装置との間の距離および前記顔の向きに基づいて、前記被験者が眼鏡レンズを通して前記表示装置を目視した場合の仮想的な第1視野と、前記被験者が前記眼鏡レンズを通さずに前記表示装置を目視した場合の仮想的な第2視野とを含み、前記表示装置に表示される、前記表示装置の位置に配置された仮想的な基準物体の大きさが前記距離および前記顔の向きによらず略一定にされた、視野の画像を作成する画像作成処理と、前記仮想的な視野の画像を前記表示装置に表示させる表示制御処理とを処理装置に行わせるためのものである。
【図面の簡単な説明】
【0005】
【
図1】
図1は、一実施形態の画像作成装置の概略構成を示す概念図である。
【
図2】
図2(A)は、被験者の顔を撮像した画像を模式的に示す図であり、
図2(B)は、被験者の顔の特徴を示す概念図である。
【
図3】
図3(A)は、被験者が眼鏡レンズを通して見る場合の視野の範囲を説明するための図であり、
図3(B)は、
図3(A)の場合の表示画像の一例を模式的に示す図である。
【
図4】
図4(A)は、被験者が眼鏡レンズを通して見る場合の視野の範囲を説明するための図であり、
図4(B)は、
図4(A)の場合の表示画像の一例を模式的に示す図である。
【
図5】
図5(A)は、仮想空間にある物体の配置を示す概念図であり、
図5(B)は、
図5(A)の場合の表示画像の一例を模式的に示す図である。
【
図6】
図6(A)は、仮想空間にある物体の配置を示す概念図であり、
図6(B)は、
図6(A)の場合の表示画像の一例を模式的に示す図である。
【
図7】
図7は、仮想的な視野の画像にゆがみを加える方法を説明するための概念図である。
【
図8】
図8は、仮想的な視野の画像にゆがみを加える方法を説明するための概念図である。
【
図9】
図9(A)は、方向依存性の無いぼけ画像の作成方法の一例を示す概念図である。
図9(B)は、方向依存性を有するぼけ画像の作成方法の一例を示す概念図である。
【
図10】
図10は、調節力に基づいたカーネルの変化を説明するための概念図である。
【
図11】一実施形態の画像作成方法を含む、眼鏡レンズの製造方法の流れを示すフローチャートである。
【
図12】一実施形態に係るプログラムを説明するための図である。
【発明を実施するための形態】
【0006】
以下の実施形態では、適宜図面を参照しながら、画像作成装置等について説明する。以下の説明では、眼鏡レンズにおける「上方」、「下方」、「上部」、「下部」等と表記する場合は、当該眼鏡レンズが装用されたときに装用者から見たレンズ内の位置関係に基づくものとする。
【0007】
図1は、本実施形態の画像作成装置の概略構成を示す概念図である。画像作成装置1は、撮像部10と、表示部20と、情報処理部30とを備える。情報処理部30は、入力部31と、通信部32と、記憶部33と、制御部40とを備える。制御部40は、特徴検出部41と、パラメータ算出部42と、画像作成部43と、表示制御部44とを備える。
【0008】
画像作成装置1は、被験者Sが眼鏡レンズの形状データ等に基づいた仮想的な眼鏡レンズを通して表示部20を目視した場合の仮想的な視野の画像(以下、視野画像と呼ぶ)を作成する。
【0009】
撮像部10は、カメラ等の撮像装置を備え、被験者Sの頭部、特に顔を撮像する。撮像して得た画像から、後述するパラメータ算出部42による処理に必要な特徴を検出することができれば、撮像部10はいずれの位置に配置されてもよい。撮像部10へ入射した光(画像)は光電変換されて光強度を示す信号となった後、A/D変換されて制御部40に入力される(矢印A1)。
【0010】
表示部20は、液晶モニタ等の表示装置を備え、画像作成部43が作成した視野画像を表示制御部44の制御により表示する(矢印A2)。
【0011】
情報処理部30は、電子計算機等の情報処理装置を備え、視野画像の作成等に必要な情報処理を行う。
なお、情報処理部30は、スマートフォンやノートパソコン等のように撮像部10および/若しくは表示部20と一体的に構成されていてもよく、または、撮像部10および/若しくは表示部20から物理的に離れた位置に配置されてもよい。さらに、情報処理部30が行う処理の一部は、遠隔に配置された電子計算機やサーバ等により行われてもよく、情報処理部30に記憶されるデータの少なくとも一部は、遠隔に配置されたサーバ等に記憶されてもよい。
【0012】
入力部31は、マウス、キーボード、各種ボタンおよび/またはタッチパネル等の入力装置を含んで構成される。入力部31は、制御部40の行う処理に必要な情報等を、ユーザから受け付ける。
【0013】
通信部32は、インターネット等のネットワークに無線や有線接続により通信可能な通信装置を含んで構成され、被験者Sの処方データや眼鏡レンズの形状データを受信したり、適宜必要なデータを送受信する。
【0014】
記憶部33は、不揮発性の記憶媒体で構成され、被験者Sの処方データや眼鏡レンズの形状データ等の各種データ、制御部40が処理を実行するためのプログラム等を記憶する。
【0015】
制御部40は、CPU等のプロセッサを含んで構成され、記憶部33に記憶されたプログラムを実行し、画像作成装置1の各動作の主体となる。制御部40は、撮像部10が撮像して得た画像に基づいて視野画像を作成し、表示部20に表示させる。
【0016】
制御部40の特徴検出部41は、撮像部10が撮像した被験者Sの頭部の画像から、画像処理により特徴を検出する。以下の説明で「特徴」とは、特徴点、エッジ、コーナーならびにこれらを適宜含む2次元および3次元の要素等の、画像処理により他の部分と区別可能な画像中の点、線、または部分とする。
【0017】
図2(A)は、撮像部10が被験者Sの頭部を撮像して得た画像(以下、被験者画像Isと呼ぶ)を模式的に示す図である。
図2(A)の被験者画像Isは被験者Sを正面から撮像した画像となっており、被験者Sの顔における、左眉毛BL、右眉毛BR、左眼EL、右眼ER、左瞳孔PL、右瞳孔PR、鼻N、口唇M、顔の輪郭C等の、特徴的な構造または色彩等を有する部分が示されている。
【0018】
図2(B)は、特徴検出部41が検出する特徴Fを示す図である。特徴検出部41は、被験者画像Isから、FAST法やキャニー法等の画像処理を用いて特徴点、エッジおよび/またはコーナー等の特徴Fの検出を行う。これらの特徴Fの少なくとも一部は、撮像部10に対する被験者Sの顔の向きが変化しても検出可能なものが好ましい。特徴検出部41は、記憶部33に記憶されている過去に取得された特徴Fの情報等に基づいて、検出した特徴Fが鼻N、顔の輪郭C等のいずれの顔の部分に対応するかを決定する。なお、特徴検出部41は、顔画像のデータセットを利用して機械学習することにより得られる顔特徴点検出モデルを、特徴Fとして検出してもよい。
【0019】
図2(B)には、被験者画像Isから特徴検出部41が検出する特徴Fとして、左眉毛BLに対応する線状の特徴FbL、右眉毛BRに対応する線状の特徴FbR、左眼ELの瞳孔中心に対応する特徴点FeL(以下、左眼特徴点と呼ぶ)、右眼ERの瞳孔中心に対応する特徴点FeR(以下、右眼特徴点と呼ぶ)、鼻尖に対応する特徴点Fna(以下、鼻特徴点と呼ぶ)、鼻Nに対応し、鼻根から鼻尖を通り左右の外鼻孔へと分岐した線分からなる特徴Fn、上下の口唇Mの赤い部分の輪郭に対応する特徴Fm、および顔の輪郭Cに対応する線状の特徴Fcが示されている。
【0020】
特徴検出部41は,各特徴Fを構成する特徴点の座標のデータ、各特徴Fを構成する線分を表現する、複数の特徴点の座標を紐づけたデータ、および特徴Fと対応する顔の部分等を記憶部33に記憶させる。
なお、後述のパラメータ算出部42が所望のパラメータを算出することができれば、各特徴Fを表現するデータ構造は特に限定されない。
【0021】
パラメータ算出部42は、特徴検出部41が検出した被験者画像Isにおける特徴Fの位置に基づいて、被験者Sの顔の位置および顔の向き等のパラメータを算出する。ここで、「顔の向き」は、
図1にR、P、Yの記号でそれぞれ模式的に示された回転方向に対応する頭部のロール角、ピッチ角、ヨー角で記述することができる。ここで、ロール角は、被験者Sの前後方向に伸びる軸(z軸)の周りの回転角であり、ピッチ角は、被験者Sの左右方向に伸びる軸(x軸)の周りの回転角であり、ヨー角は、被験者Sの上下方向に伸びる軸(y軸)の周りの回転角である。
図1には、x軸、y軸およびz軸の方向と向きを座標軸900で示した。
なお、座標系の取り方等、顔の向きの数学的な表現方法は特に限定されない。
【0022】
パラメータ算出部42が特徴Fから顔の向きを算出する方法は特に限定されない。例えばHorprasertらの論文(T. Horprasert, Y. Yacoob, and L. Davis, ”Computing 3-D Head Orientation from a Monocular Image Sequence,” Proceedings of the Second International Conference on Automatic Face and Gesture Recognition(米国), IEEE,1996年, pp.242-247)には眼の端(目頭、目尻)および鼻尖を含む数個の特徴点から頭部のロール角、ピッチ角、ヨー角を計算する方法が示されている。ここでは、目頭や目尻が同一直線上にあるとして計算を行っている。パラメータ算出部42による被験者Sの顔の向きの算出には、この論文で用いられているような、顔の一部に対応する特徴点が所定の空間的関係にあると仮定して計算する方法の他、様々な頭部姿勢推定(Head pose estimation)方法を用いて被験者画像Isから被験者Sの顔の向きを算出することができる。
【0023】
パラメータ算出部42は、特徴検出部41が検出した被験者画像Isにおける特徴Fの位置と、パラメータ算出部42が算出した顔の向きと、被験者Sの顔の一部の長さの実測値とから、被験者Sの位置を算出することができる。パラメータ算出部42は、被験者画像Isにおける左眼特徴点FeLと右眼特徴点FeRとの間の距離PDiを、これらの特徴点の座標から算出する。パラメータ算出部42は、算出した画像上の距離PDiを、算出した顔の向きに基づいて顔の正面から見た場合の長さに変換し、この長さと実測した瞳孔間距離(PD)との比較に基づいて被験者Sと撮像部10との間の距離を算出する。
【0024】
例えば、パラメータ算出部42は、撮像部10の撮像素子の焦点面の縦横のサイズと焦点距離とから、既知の瞳孔間距離PDが画像上の距離PDiとなる、撮像部10から被験者Sまでの距離を求めることができる。
なお、画像作成装置1が、ToF(Time of Flight)方式により測距を行って距離画像を撮像するToFカメラ、またはステレオカメラを備える等、被写体画像Isから検出した特徴Fを用いる以外の方法で撮像部10から被験者Sまでの距離を測定してもよい。
【0025】
図1に示されるように、パラメータ算出部42は、算出した被験者Sと撮像部10との間の距離Ezと、予め定められた撮像部10と表示部20との間の距離Czとの和により、被験者Sと表示部20との間の距離を算出する。また、パラメータ算出部42は、被験者Sと撮像部10との間の距離Ezと、撮像部10から見た被験者Sの眼Eの方向から、被験者Sの眼Eと撮像部10との間のy軸方向の距離Eyを算出する。パラメータ算出部42は、この距離Eyと、予め定められた表示部20の位置Oと撮像部10との間のy軸方向の距離Cyとから、表示部20を基準とした眼Eのy軸方向の位置を算出する。パラメータ算出部42は、x軸方向についてもy軸方向と同様に計算して、表示部20を基準とした眼Eの三次元位置を算出する。撮像部10と表示部20との位置関係を示す距離Cy,Cz等は、入力部31を介してユーザにより入力されるか、予め記憶部33に記憶された数値を用いる。
なお、撮像部10の撮像方向が表示部20の表示画面の法線方向と異なる場合には、当該撮像方向と当該法線方向とがなす角度が予め測定され画像作成装置1のユーザ(以下、単に「ユーザ」と呼ぶ)等により入力される。パラメータ算出部42は、入力された当該角度に基づいて被験者画像Isから算出される被験者Sの顔および眼の三次元位置ならびに顔の向きを表示部20を基準とした値に補正することができる。
【0026】
画像作成部43は、パラメータ算出部42が算出した、被験者Sと表示部20との間の距離および被験者Sの顔の向きに基づいて、被験者Sが眼鏡レンズを通して表示部20を目視した場合の仮想的な視野の画像(視野画像)を作成する。後述するように、視野画像は、表示部20の位置に仮想的な物体があるとして、被験者Sが表示部20に対して(すなわち仮想的な物体に対して)様々な位置から目視したときに、当該仮想的な物体を仮想的な眼鏡レンズを通して当該位置から目視した場合の視野の画像となる。視野画像は、被験者Sの顔の向き等に追従して視野画像における眼鏡レンズの位置および向きが追従するリアルタイム動画として構成されるが、視野画像を含む動画が記録された後に再生してもよい。
【0027】
画像作成部43は、仮想空間における各物体の位置、形状、テクスチャ等のデータ(以下、仮想空間記述データと呼ぶ)を取得し、仮想空間を構築する。仮想空間記述データに含まれる各値については、記憶部33に記憶された情報や通信部32を介して外部から取得した情報に基づいて設定されたり、ユーザと呼ぶ)の入力に基づいて設定される。仮想空間における物体の配置の態様は特に限定されないが、本実施形態のように表示部20の位置に仮想物体が配置されていると、表示部20を目視する被験者Sにとって位置や大きさが把握しやすいため好ましい。さらに、表示部20の位置に配置された仮想物体を基準に、仮想空間に配置され表示部20に表示される他の仮想物体がどのように見えるかを被験者Sが把握しやすくなるため好ましい。
【0028】
仮想空間記述データによる仮想空間の表現方法は特に限定されないが、例えば、仮想空間に配置される各物体(幾何オブジェクト)がどこでどの向きに配置されるかを示す位置情報が設定されており、幾何オブジェクトの表面での光の反射率および透過率、色、テクスチャについての情報等が適宜設定されている。幾何オブジェクトの微細な立体構造等は、テクスチャとしての幾何オブジェクトの平面の情報で適宜置き換えて表現され得る。仮想空間記述データは、仮想空間を照らす照明に関するデータを含んでもよい。照明に関するデータは、照明の位置、照明の光の色、波長分布、光の強さ等を適宜備える。
【0029】
画像作成部43は、被験者Sが表示部20を目視する際に仮想的に装用する眼鏡レンズについてのデータ(以下、眼鏡レンズ記述データと呼ぶ)を取得する。眼鏡レンズ記述データに含まれる各値については、記憶部33に記憶された情報や通信部32を介して外部から取得した情報に基づいて設定されたり、ユーザからの、被験者Sの処方データおよびレンズの種類の入力に基づいて設定される。眼鏡レンズ記述データは、眼鏡レンズの形状データや、眼鏡レンズの材料特性データを含む。眼鏡レンズの形状データは、眼鏡レンズの外形情報、中心厚、眼鏡レンズの物体側および眼球側の前後二面ならびに周囲面の形状データ等を備える。眼鏡レンズの材料特性データは、屈折率等のデータを備える。
なお、眼鏡レンズ記述データは、眼鏡レンズを通して見るときの収差量を表す値を含んでもよい。当該収差量は、球面収差、非点収差、コマ収差等についての収差量を含むことが好ましい。当該収差量は、処方データ、レンズの形状、レンズの材料、後述する装用パラメータ、注視点との距離、および/または眼の調節力等に基づいて予め光線追跡から算出された数値であり、ベクトルや行列等の形式で適宜表現される。
【0030】
画像作成部43は、被験者Sが眼鏡レンズを装用しているときの、被験者Sと眼鏡レンズとの相対位置(以下、眼鏡レンズ位置と呼ぶ)を設定する。眼鏡レンズ位置は、ユーザが入力した眼鏡レンズ位置に関するデータ(以下、眼鏡レンズ位置データと呼ぶ)に基づいて設定されることが好ましい。眼鏡レンズ位置データは、被験者Sが眼鏡レンズを装用しているときに実測等により得られ入力された眼鏡レンズ位置に関する装用パラメータを含み、当該装用パラメータは、例えば角膜頂点間距離や前傾角、反り角等を含む。ユーザが被験者Sに関して眼鏡レンズ位置データを用いないように入力した場合は、画像作成部43は、眼鏡レンズが設計される際の基準となっている、眼鏡レンズと眼球との位置関係に基づいて眼鏡レンズ位置を設定する。
【0031】
画像作成部43は、撮像部10による撮像で得られた被験者画像Isに基づいてパラメータ算出部42が被験者Sの眼Eの位置および顔の向きを算出すると、当該眼Eの位置から表示部20の位置にある仮想物体を目視した場合の視野画像を作成する。画像作成部43は、眼Eの位置と、顔の向きと、眼鏡レンズ位置と、眼鏡レンズ記述データと、仮想空間記述データとから、眼鏡レンズを通して仮想物体を目視した場合の視野画像を作成する。
【0032】
図3(A)は、視野画像を説明するための概念図である。
図3(A)では眼鏡レンズ9L、9Rが眼鏡レンズ記述データに基づく仮想的なものとして示されている。被験者Sの眼球EbL、EbRは、表示部20を目視しており、右眼球EbRの光軸Axは表示部20の中心Oを通っている。表示部20には視野画像21が表示されており、視野画像21には3つの仮想物体V(Vo,V1,V2)の画像が示されている。眼鏡レンズ9L、9Rは、左眼球EbLおよび右眼球EbRの前方の眼鏡レンズ位置に仮想的に配置されている。
【0033】
図3(A)において、破線L1,L2は右眼球EbRからの、眼鏡レンズ9Rを通して見ることのできる視野の範囲の左端および右端をそれぞれ模式的に示している。つまり、被験者Sは、表示部20の左側が眼鏡レンズ9Rを通して目視できる範囲であるが、表示部20の右側の一部については、眼鏡レンズ9Rを通して目視できない範囲となっている。
【0034】
図3(B)は、
図3(A)の場合の視野画像21を模式的に示した図である。視野画像21のハッチングがされた部分22は、被験者Sが仮想的な眼鏡レンズ9Rを通して表示部20を目視した場合の視野の画像である。視野画像21のハッチングされていない部分23は、被験者Sが仮想的な眼鏡レンズ9Rを通さずに表示部20を目視した場合の視野の画像である。
図3(A)で眼鏡レンズ9Rを通しては目視できない視野画像21の右側の一部の領域については、被験者Sの裸眼による視野の画像が表示される。このように、画像作成部43は、被験者Sの視野における眼鏡レンズ9L、9Rの領域に基づいて、視野画像21を作成する。
なお、視野画像21は、左眼または右眼のいずれか一方の視野に基づいて作成してもよいし、両眼の視野についての視野画像を利き目の度合等に基づいて局所的にずらして合成した合成画像として作成してもよい。また、本実施形態ではパラメータ算出部42が眼の位置を算出し、当該眼の位置を視点に画像作成部43が視野画像を作成しているが、視点は厳密に眼の位置に合わせなくともよく、例えば両眼の中央の位置を視点位置とする等、適宜設定することができる。
【0035】
図4(A)は、
図3(A)の状態から、被験者Sが頭部を右側に向けた状態を示す概念図である。
図4(A)および
図4(B)では、
図3(A)および
図3(B)と同一部分については同一の符号で参照し適宜説明を省略する。破線L1,L2でそれぞれ模式的に示される、右眼球EbRからの眼鏡レンズ9Rを通して見ることのできる視野の範囲の左端および右端は、表示部20に向かって右側に移動している。つまり、被験者Sは、表示部20の右側を眼鏡レンズ9Rを通して目視しているが、表示部20の左側の一部については、眼鏡レンズ9Rを通しては目視できない。
【0036】
図4(B)は、
図4(A)の場合の視野画像21を模式的に示した図である。
図4(A)で眼鏡レンズ9Rを通しては目視できない左側の一部の領域については、被験者Sの裸眼による視野の画像が表示される。このように、画像作成部43は、被験者Sが眼の位置や顔の向きを変化させた場合には、それに伴う、視野における眼鏡レンズ9L、9Rの領域の変化に基づいて、視野画像21を作成する。
【0037】
図5(A)は、視野画像21における画角の調整を説明するための概念図である。本実施形態では、表示部20の位置に仮想的な物体(以下、基準物体Voと呼ぶ)が配置されるように仮想空間を構築している。ここで、被験者Sと表示部20との間の距離が変化すると、本来は、被験者Sの視野における基準物体Voの大きさも変化するが、画像作成部43は、仮想物体間の見え方の関係を見易く表示するために、このような場合でも基準物体Voの視野画像21における大きさが略一定になるように視野画像21についての画角を調整する。
【0038】
図5(A)では、仮想物体Vとして、基準物体Vo、仮想物体V1、仮想物体V2が模式的に示されている。仮想空間は、基準物体Voが表示部20(破線で模式的に示した)の位置にあるものとして構築されている。被験者Sの視野は、被験者Sの眼Eから延びる一点鎖線L3およびL4にはさまれた領域として模式的に示した。
【0039】
図5(B)は、
図5(A)の場合に表示部20に表示される視野画像21を示す図である。
図5(A)に示したように被験者S側から近い順に仮想物体V1、基準物体Vo、仮想物体V2の順でならんでいるため、視野画像21では仮想物体V1が最も手前にあり、仮想物体V2が最も後ろにあるように重ねて示されている。上記の通り、画像作成部43は、基準物体Voの大きさが略一定になるように視野画像21に対応する画角を調整するため、視野画像21における基準物体Voの幅Loは、視点位置が変わっても略一定となる。
【0040】
図6(A)は、
図5(A)の場合よりも被験者Sと表示部20との間の距離が短い場合を示す概念図である。
図6(A)および
図6(B)では、
図5(A)および
図5(B)と同一部分については同一の符号で参照し適宜説明を省略する。
【0041】
図6(B)は、
図6(A)の場合に表示部20に表示される視野画像21を示す図である。被験者Sと基準物体Voとの間の距離が
図5(A)に示した場合に比べて短くなったため、被験者Sの視野における基準物体Voの大きさは本来大きくなるが、視野画像21における基準物体Voの大きさは略一定に調整され、従って視野画像21における基準物体Voの幅Loも略一定の値に保たれる。言い換えると、視野画像21における基準物体Voの大きさは、視点位置に関わらず、表示部20の表示画面の大きさと一定の関係にある。
【0042】
画像作成部43は、視野画像21の作成において、被験者Sの眼の位置を視点位置として仮想空間を透視投影等によりレンダリングして投影画像を作成する。投影画像には、視野画像21と比較して、眼鏡レンズ9L,9R等により引き起こされる後述のぼけやゆがみが加えられていない。画像作成部43は、投影画像を作成する際に、視点位置に関係なく、表示部20の位置に配置された仮想物体Voの大きさが略一定になるように画角を調整する。言い換えると、画像作成部43は、視野画像21を作成する際に、視点位置に関係なく、視野画像21の画角が表示部20の表示画面の大きさと対応するように視野画像21を作成する。これにより、基準物体Voが大きく変化しないため、
図5(B)や
図6(B)に示されるように、仮想空間で基準物体Voの周囲にある仮想物体V1およびV2の見え方が視点位置によりどう変化するかを捉えやすくなる。
【0043】
画像作成部43は、投影画像を生成した後、仮想的な眼鏡レンズ9(眼鏡レンズ9L、9Rの左右を区別せずに指す場合、眼鏡レンズ9と呼ぶ)によって生じるゆがみを当該投影画像に加える画像処理を行う。
【0044】
以下の実施形態において、「ゆがみ」とは、対象物が実際の形状とは異なる形状の像として認識されることを示し、縦横斜め等の任意の方向に対象物の像が伸縮することを主に指す。「ゆがみ」には、歪曲収差(distortion)を適宜含むが、本実施形態では、累進屈折力レンズのレンズ面のように、屈折力や非点収差が変化する面を通して対象物を見ることで起こる対象物の像の伸縮を主に想定している。
【0045】
図7は、投影画像にゆがみを加える方法を説明するための概念図である。画像作成部43は、被験者Sが表示部20の表示画面S20を見る際の網膜と表示画面S20上の注視点Ptとを結ぶ光路を、回旋点Crから眼鏡レンズ9を透過し、眼鏡レンズ9の表面の点P1から注視点Ptまでを結ぶ光線追跡により算出する。回旋点Crの位置は、被験者Sの顔の形状に関する実測して得たデータを用いて設定することが好ましいが、眼鏡レンズ9の設計の際に想定されている回旋点の位置や、一般的な位置を用いて設定することができる。
なお、光線追跡の計算では網膜の各点に入射または網膜の各点から出射する光線を追跡してもよい。
【0046】
画像作成部43は、眼鏡レンズ9の近傍に仮想的な面(以下、仮想面S1と呼ぶ)を設定する。仮想面S1は、被験者Sが正面を見たとき、または眼球Ebが眼鏡レンズ9のフィッティングポイントを見たときに、仮想面S1が表示画面S20と略平行、または眼球Ebの光軸Axと仮想面S1とが略垂直に交差するように設定されることが好ましい。画像作成部43は、仮想面S1上の一部の点P0を通る光線を光線追跡し、当該光線追跡の結果に基づいて算出された視野画像21の局所的なゆがみの度合に基づいて投影画像にゆがみを加える。
【0047】
図8は、光線追跡による視野画像21の局所的なゆがみの算出方法を示す図である。説明をわかりやすくするため、仮想面S1および表示画面S20をx軸およびy軸(座標系902参照)に平行な格子状の線で分割して示し、表示画面S20の位置に、仮想空間を透視投影等によりレンダリングして得られた投影画像が配置されているものとする。当該投影画像には、仮想物体V3が含まれている。
【0048】
画像作成部43は、光線追跡により、回旋点Crと仮想面S1上の点P01、P02、P03、P04等の座標点とを通る光線が入射する表示画面S20上のそれぞれ対応する点Pt1、Pt2、Pt3、Pt4等の位置を算出する。
【0049】
画像作成部43は、
図7に示したように、眼鏡レンズ9の表示部20側の面上の点P1から、点P1を通る光線が入射する表示画面S20上の点Ptへと向かうベクトルVtを光線追跡により算出する。点P1の座標をP1(x1,y1,z1)、点Ptの座標をPt(xt,yt,zt)、ベクトルVtをVt(vx,vy,vz)と表す(座標系901参照)と、aを(zt-z1)/vzとして、点Pのx座標xtとy座標ytは以下の式(1)のように表される。
xt=x1+a*vx、yt=y1+a*vy …式(1)
近似的に、zt-z1は被験者Sと表示部20との間の距離を用いることができるため、画像作成部43は、ベクトルVtに基づいて点Pのx座標xtとy座標ytを算出することができる。点P0と点P1は光線追跡により対応付けてもよいが、近似的に点P0のx座標およびy座標は点P1と同じ値を用いることができる。画像作成部43は、このような方法で点P01~P04と点Pt1~t4(
図8)を対応付けることができる。
なお、眼鏡レンズ記述データまたは眼鏡レンズ位置データ等の眼鏡レンズ9に関するデータが、眼鏡レンズ9と紐づけて眼鏡レンズ9から表示部20へ向かう視線の方向を示すパラメータである上述のベクトルVtを含んでいてもよい。これにより、視野画像21を作成する際の演算処理の量を減らすことができる。
【0050】
図8では、仮想面S1上で点P01、P02、P03およびP04に囲まれた四角形の部分領域(二点鎖線で囲まれた領域)R1は、表示画面S20上で点Pt1、Pt2、Pt3、およびPt4に囲まれた部分領域R2に対応する。従って、画像作成部43は、仮想空間からレンダリングして得た投影画像の部分領域R2に対応する部分が、部分領域R1に含まれるように当該投影画像を伸縮する。
図8の例では、表示画面S20上の部分領域R2が、y軸方向の幅がより小さい仮想面S1上の部分領域R1に対応することに基づいて、部分領域R2に対応する仮想物体V3の画像が、y軸方向に縮むように加工されることになる。言い換えると、光線追跡を行っていない眼鏡レンズ9上の点については、線形補間により定められたゆがみが加えられることになる。
【0051】
画像作成部43は、上述のように、被験者Sの眼から出射された光の、眼鏡レンズ9からの出射方向に基づいて、視野画像21における局所的なゆがみの方向や量を算出し、当該ゆがみを加えた視野画像21を作成する。これにより、画像作成部43は、眼鏡レンズ9の面に対応する全ての座標点について光線追跡を行わなくともゆがみを加えた視野画像21を作成することができる。従って、画像作成部43は、高速にゆがみを加えた視野画像21を作成することが可能となり、当該視野画像21からなる、より高いフレームレートの動画像を作成することが可能となる。
【0052】
画像作成部43は、仮想空間をレンダリングして得た、視点位置から仮想空間を見た投影画像にゆがみを加えた後、仮想的な眼鏡レンズ9によって生じるぼけを当該投影画像に加える画像処理を行う。
【0053】
以下の実施形態において、「ぼけ」とは、対象物を、当該対象物を視認するのに適切な分解能よりも低い分解能で認識した際に起こる対象物のディテールの消失を指す。より具体的には、「ぼけ」は、主に、デフォーカス状態(ピントがずれた状態)で撮像された画像や、対象物からの光の眼光学系の光学的収差による結像面が網膜とずれている際に認識される像で見られる輪郭やパターンの不明瞭化を指す。
【0054】
図9(A)および
図9(B)は、画像にぼけを加える方法の一例を説明するための概念図である。
図9(A)は、ぼけを加える前の画像Boから、ぼけに方向依存性の無い場合のぼけ画像B1を作成する際の画像処理を示す概念図である。この場合のぼけ画像B1は、例えば、非点収差がない場合の屈折力エラーによるぼけに基づいて作成したものである。
【0055】
ぼけ画像B1は、画像中の各画素の画素値を、点像分布関数(Point Spread Function;PSF)をカーネルとして畳み込み積分することにより取得することができる。丸の中にXが描かれた記号は畳み込み積分を示す。ぼけを加える前の画像Boを方向依存性の無い点像分布関数PSF1により畳み込み積分すると、ぼけ画像B1に示すように各点が一様にぼけたような画像が得られる。ぼけ画像B1は非方向依存的なぼけ画像B1となる。畳み込み積分は、コンピュータによる離散的な計算においては、3×3、5×5等の行列(
図10参照、以下、ぼけカーネル行列と呼ぶ)をカーネルとした畳み込み処理を行うことに相当する。
【0056】
図9(B)は、ぼけに方向依存性がある場合のぼけ画像B2を作成する際の画像処理を示す概念図である。この場合のぼけ画像B2は、非点収差と屈折力エラーとによるぼけを模したものである。
【0057】
ぼけを加える前の像Boを方向依存性(斜め45度方向)を有する点像分布関数PSF2により畳み込み積分すると、ぼけ画像B2に示すように各点が斜め45度方向に向かってより強くぼけた画像が得られる。ぼけ画像B2は方向依存的なぼけ画像B2となる。
【0058】
図9(A)(B)の例では、ぼけを加える前の画像Boの全体に対し同じ点像分布関数を用いて畳み込み処理をしてぼけ画像B1,B2を作成する例を示した。しかし、画像作成部43は、投影画像の各位置において、適宜異なる点像分布関数に対応したぼけカーネル行列をカーネルとして畳み込み処理を行い視野画像21を作成することができる。
【0059】
画像作成部43は、入力部31若しくは通信部32を介して、または記憶部33に記憶された被験者Sの過去のデータから、被験者Sの眼鏡レンズの処方データを参照し、球面度数、乱視度数および乱視軸のデータ等の眼の屈折力に関するデータを取得する。画像作成部43は、取得した眼の屈折力に関するデータと、表示部20の中心O(
図1)等の所定の位置を見る際の眼鏡レンズ9の屈折力から、被験者Sが表示部20に焦点を合わせる際のぼけカーネル行列を設定する。
【0060】
画像作成部43は、被験者Sの調節力を取得する。被験者Sの調節力は、例えば、調節力の大きさに基づいて、ディオプタ(D)等を単位とした数値(以下、調節力パラメータと呼ぶ)により設定される。調節力パラメータは、ユーザにより入力部31から入力されてもよいし、被験者Sの処方データにおける年齢から既知のデータに基づいて設定してもよいし、処方データが累進屈折力レンズ等の場合は加入度等に基づいて算出してもよい。
【0061】
画像作成部43は、被験者Sの球面度数、乱視度数および乱視軸のデータから計算される屈折力と、被験者Sが表示部20の中心O等を目視する際の眼鏡レンズ9の屈折力および非点収差と、被験者Sと表示部20との間の距離と、仮想空間の物体の位置と、調節力パラメータによる調節力とに基づいて、光線追跡により収差量を求め、ぼけカーネル行列Kを設定する。調節力が大きいと、眼の屈折力の変化量が大きいため、眼の屈折力の変化量に合わせて例えば0.25D等の任意の屈折力毎に異なるぼけカーネル行列Kを設定する。
【0062】
図10は、屈折力が変化したときのぼけカーネル行列Kの変化を示す概念図である。被験者Sが調節により眼球Ebの屈折力を大きくしていくと、ぼけカーネル行列Kは、ぼけカーネル行列K1、K2、K3、K4、K5、K6の順に変化していく。
図10ではぼけカーネル行列Kは3×3の場合を示しており、ぼけカーネル行列K1,K2,K3,K4,K5およびK6にそれぞれ対応する点像分布関数PSF1,PSF2,PSF3,PSF4,PSF5およびPSF6を重ねて模式的に示している。
【0063】
ぼけカーネル行列K4は、中央の数値が1.00となっており、ぼけを生じないカーネルとなる。被験者Sは、注視点において、調節力の範囲内で、最もぼけを生じない屈折力に調節を行うと考えられる。従って、画像作成部43は、被験者Sの調節力に基づいて実現可能な屈折力に基づいたぼけカーネル行列Kのうちで、最もぼけの少ない、すなわちぼけカーネル行列Kの最も中央の要素の数値の最も大きいぼけカーネル行列K4を、表示部20の中心Oに対応する視野画像21の位置のカーネルとして設定する。画像作成部43は、当該ぼけカーネル行列K4に対応する被験者Sの屈折力(以下、調節後屈折力と呼ぶ)の値を取得する。
【0064】
画像作成部43は、想定されるぼけカーネル行列Kのうちで、最も中央の要素の数値が最も大きい値をとるぼけカーネル行列Kが複数ある場合は、最も調節量の小さい場合に対応するぼけカーネル行列Kを表示部20の中心Oに対応する視野画像21の位置のカーネルとして設定する。
【0065】
画像作成部43は、取得した調節後屈折力、乱視度数および乱視軸と、仮想空間内の各点の位置と、当該各点を目視する際に視線が透過する眼鏡レンズ9の位置の屈折力および非点収差とに基づいて、視野画像21の各点のぼけカーネル行列Kを算出する。
なお、視野画像21において、眼鏡レンズ9を通さずに見る部分については、上述のようにして得た被験者Sの調節力に基づいてぼけカーネル行列Kを算出してもよいし、被験者Sの裸眼の検眼データに基づいてぼけを加えてもよい。
【0066】
画像作成部43は、仮想空間に配置された仮想物体V上の各点から出射され、眼鏡レンズ9を透過し、眼Eの網膜に入射する光線を光線追跡する。ここで、画像作成部43は、上記で得られた調節後調節力に基づいて眼球モデルにおけるレンズのパラメータを設定する。眼球モデルは、適宜過去に測定された眼球のデータを基に構築されたものを利用してよい。画像作成部43は、光線追跡において網膜の各点に入射する各光線の収束位置から、視野画像21の各点における収差量を算出することができる。画像作成部43は、視野画像21の各点における収差量に基づいて当該各点のぼけカーネル行列Kを設定する。
なお、眼鏡レンズ9の各点において眼鏡レンズ形状データおよび眼鏡レンズ位置データ等に基づいて光線追跡により予め算出されたぼけカーネル行列Kが眼鏡レンズ9と紐づけられたデータを、画像作成部43が取得する構成にしてもよい。
【0067】
視野画像21の各点に対応するぼけカーネル行列Kが設定されたら、画像作成部43は、これらのぼけカーネル行列Kをカーネルとして、上述したゆがみが加えられた画像の画素値を示す行列に畳み込み処理を行い、視野画像21を作成する。
なお、仮想空間を視点位置に基づいてレンダリングして得た2次元画像に、まずぼけカーネル行列Kを用いた上述の方法によりぼけを加えた後、ゆがみを加えてもよい。
【0068】
表示制御部44(
図1)は、画像作成部43により作成された視野画像21の表示部20の表示画面への表示を制御する。表示制御部44は、撮像部10が順次撮像した被験者画像Isに基づいて、画像作成部43が順次作成した視野画像21を、順次表示部20に表示する。
【0069】
被験者Sは、表示部20に表示された視野画像21を様々な位置から目視ししながら、仮想的な眼鏡レンズ9を通して表示部20の位置にある基準物体Vo等がどのように見えるかを体験することができる。画像作成装置1は、被験者Sがこのような体験に基づいて装用する眼鏡レンズを選択するための眼鏡レンズ選択システムとして構成することができる。
【0070】
さらに、被験者Sは、仮想的な眼鏡レンズ9を通して、仮想空間において基準物体Voの周囲にある他の仮想物体V1,V2がどのように視野に映るかを体験することができる。眼鏡レンズの装用者は、累進屈折力レンズにおける注視点から離れた点での見え方や、単焦点レンズにおけるレンズの辺縁部における見え方を特に気にする場合がある。本実施形態の画像作成装置1は、眼鏡レンズを装用する場合のこのような見え方のシミュレーションを行う装置として特に好適である。
【0071】
図11は、本実施形態の画像作成装置を用いた画像作成方法の流れを示すフローチャートである。ステップS1001において、被験者Sが表示部20に表示される画像を無理なく見えるように、被験者Sが矯正レンズを装用する等により被験者Sの視力が矯正される。矯正レンズとしては、被験者Sが普段装用している眼鏡レンズでもよい。ステップS1001が終了したら、ステップS1003が開始される。ステップS1003において、画像作成部43は、仮想空間に配置される仮想物体Vを設定し、仮想空間を構築する。ステップS1003が終了したらステップS1005が開始される。
【0072】
ステップS1005において、画像作成部43は、眼鏡レンズ記述データを取得し、被験者Sが仮想的な眼鏡レンズ9を装用した際の被験者Sに対する眼鏡レンズの相対位置を決定する。ステップS1005が終了したら、ステップS1007が開始される。
なお、ステップS1001、1003および1005は、異なる順番で行われてもよい。
【0073】
ステップS1007において、撮像部10は、表示部20を目視する被験者Sを撮像し、特徴検出部41は、撮像により得られた被験者画像Isから特徴Fを検出する。ステップS1007が終了したら、ステップS1009が開始される。ステップS1009において、パラメータ算出部42は、検出された特徴Fの位置および検出された特徴Fの間の距離に基づいて、被験者Sと表示部20との間の距離および被験者Sの顔の向きを算出する。ステップS1009が終了したら、ステップS1011が開始される。
【0074】
ステップS1011において、画像作成部43は、被験者Sと表示部20との間の距離および顔の向きに基づいて、被験者Sが眼鏡レンズ9を通して表示部20を目視した場合の仮想的な視野の画像(視野画像21)を作成する。ステップS1011が終了したら、ステップS1013に進む。
【0075】
ステップS1013において、制御部40は、ユーザにより眼鏡レンズ9を変更する変更指示が入力されたか否かを判定する。変更指示が入力された場合、制御部40はステップS1013を肯定判定してステップS1005に戻る。変更指示が入力されていない場合、制御部40はステップS1013を否定判定してステップS1015に進む。
【0076】
ステップS1015において、制御部40は、視野画像21の作成を終了する終了指示が入力されたか否かを判定する。終了指示が入力された場合、制御部40はステップS1015を肯定判定してステップS1017に進む。終了指示が入力されていない場合、制御部40はステップS1015を否定判定してステップS1007に戻る。終了指示の入力がされるまでステップS1007~ステップS1015が繰り返され、視野画像21が動画像として連続的に表示されることになる。
【0077】
ステップS1017において、ユーザは、視野画像21を目視した被験者Sの応答を取得し、当該応答に基づいて被験者Sが装用する眼鏡レンズが選択される。例えば、眼鏡店において、被験者Sは、購入を検討している眼鏡レンズを仮想的に装用した場合の視野画像21を目視する。この場合の視野画像21は、被験者Sが予め得た処方データに基づいた球面度数、乱視度数および加入度等を有する仮想的な眼鏡レンズを通して見る際の画像であり、視野画像21は、当該眼鏡レンズにより矯正された視力で表示部20を目視する際の仮想的な画像となる。眼鏡店の販売員であるユーザは、被験者Sから、視野画像21を目視した印象を被験者Sから聞き取る。当該印象に基づいて被験者Sが購入する眼鏡レンズが選択され、不図示の眼鏡レンズ発注装置に入力される。
なお、画像作成装置1に、被験者Sが装用する眼鏡レンズの情報が入力され、画像作成装置1が発注を行う構成にしてもよい。また、被験者Sが、視野画像21を目視した後、自分で入力部31を介して装用する(購入する)眼鏡レンズを入力してもよい。ステップS1017が終了したら、ステップS1019が開始される。
【0078】
ステップS1019において、眼鏡レンズ発注装置は、被験者Sが装用する眼鏡レンズを発注し、眼鏡レンズを受注した不図示の眼鏡レンズ受注装置は、不図示の眼鏡レンズ加工機に眼鏡レンズを製造させる。ステップS1019が終了したら、処理を終了する。
【0079】
上述の実施の形態によれば、次の作用効果が得られる。
(1)本実施形態の画像作成装置は、表示部20を目視する被験者Sを撮像した被験者画像Isから、特徴Fを検出する特徴検出部41と、検出された特徴Fの位置および/または検出された特徴Fの間の距離に基づいて、被験者Sと表示部20との間の距離および被験者Sの顔の向き を算出するパラメータ算出部43と、被験者Sと表示部20との間の距離および顔の向きに基づいて、被験者Sが眼鏡レンズ9を通して表示部20を目視した場合の視野画像21を作成する画像作成部43と、視野画像21を表示部20に表示させる表示制御部44とを備える。これにより、被験者Sを撮像した画像における特徴Fを利用した効率的な処理により、被験者Sに眼鏡レンズ9を通した見え方を体験させることができる。また、距離画像センサやヘッドマウントディスプレイ等の特殊な装置を用いなくても、一般的なカメラで撮像した画像だけで被験者Sに眼鏡レンズ9を通した見え方をリアルに体験させることができる。
【0080】
(2)本実施形態の画像作成装置において、パラメータ算出部42は、検出された特徴Fの位置および/または検出された特徴Fの間の距離に基づいて、被験者Sの眼の位置を算出し、画像作成部43は、眼の位置、被験者Sと表示部20との間の距離および顔の向きに基づいて、被験者Sが眼の位置から眼鏡レンズ9を通して表示部20を目視した場合の視野画像21を作成する。これにより、より精密な視点位置が得られ、被験者Sに眼鏡レンズ9を通したより実際に近い見え方を体験させることができる。
【0081】
(3)本実施形態の画像作成装置において、画像作成部43は、被験者Sが表示部20の位置にある仮想的な物体(基準物体Vo)を目視する場合の、視野画像21を作成する。これにより、被験者Sに、表示部20の位置にある物体がどう見えるかを、わかりやすく体験させることができる。
【0082】
(4)本実施形態の画像作成装置において、画像作成部43は、基準物体Voを含む3次元の仮想空間を構築し、被験者Sの眼の位置に関わらず、視野画像21の画角を、表示部20の表示画面S20の大きさに対応させる。これにより、大きさや位置が把握しやすい基準物体Voを基準に他の仮想物体Vが表示されるため、被験者Sは立体的な感覚を得やすかったり、注視点以外の位置の見え方を把握しやすい。
【0083】
(5)本実施形態の画像作成装置において、画像作成部43は、眼Eから出射された光の、眼鏡レンズ9からの出射方向に基づいて、眼鏡レンズ9による局所的なゆがみを算出する。これにより、局所的なゆがみを用いて視野画像21の各部分を処理することにより、高速に視野画像21を作成することができる。
【0084】
(6)本実施形態の画像処理装置において、画像作成部43は、仮想空間に配置された仮想物体V上の点から出射され、眼鏡レンズ9を透過し、眼Eの網膜に入射する光線を光線追跡した結果に基づいて、網膜における収差量を算出し、この収差量に基づいた畳み込み計算によりぼけを含む視野画像21を作成する。これにより、被験者Sは、眼鏡レンズ9の各点に対応するぼけが考慮された、眼鏡レンズ9を通したより実際に近い見え方を体験することができる。
【0085】
(7)本実施形態の画像処理装置において、被験者Sは、調節力、年齢、および/または処方データに基づいたパラメータ等に基づいて収差量を算出する。これにより、被験者Sは、被験者Sの調節力が考慮された、眼鏡レンズ9を通したより実際に近い見え方を体験することができる。
【0086】
(8)本実施形態の画像処理装置において、画像作成部43は、被験者Sと表示部20との間の距離に基づいて畳み込み計算のカーネルであるぼけカーネル行列を変化させる。これにより、少ない処理でぼけカーネル行列を設定し、高速に視野画像21にぼけを加えることができる。
【0087】
(9)本実施形態の画像処理装置において、パラメータ算出部42は、被験者Sの処方データおよび/または眼鏡レンズを装用した被験者Sの実測値に基づいて、視野画像21を作成する際の眼鏡レンズ9の位置および姿勢を算出する。これにより、被験者Sに合った眼鏡レンズ位置を用いて、被験者Sにより実際に近い見え方を体験させることができる。
【0088】
(10)本実施形態の画像処理装置において、特徴検出部41は、特徴Fを、被験者Sの顔に対応する、被験者画像Isの一部分から検出する。これにより、被験者Sの顔を撮像した画像から被験者Sと表示部20との間の距離等のパラメータを算出し、効率的に処理ができる。また、ヘッドマウントディスプレイ等の被験者の眼前にレンズが配置された装置を必要としないため、このようなレンズによる収差の影響を考慮する必要が無い。
【0089】
(11)本実施形態の画像処理方法では、表示部20を目視する被験者Sを撮像した被験者画像Isから、複数の特徴を検出し、検出された特徴Fの位置および/または検出された特徴Fの間の距離に基づいて、被験者Sと表示部20との間の距離および被験者Sの顔の向きを算出し、被験者Sと表示部20との間の距離および顔の向きに基づいて、被験者Sが眼鏡レンズ9を通して表示部20を目視した場合の視野画像21を作成し、視野画像21を表示部20に表示させる。これにより、被験者Sを撮像した画像における特徴Fを利用した効率的な処理により、被験者Sに眼鏡レンズ9を通した見え方を体験させることができる。
【0090】
次のような変形例も本発明の範囲内であり、上述の実施形態と組み合わせることが可能である。上述の実施形態と同一の参照符号で示された部分は、同一の機能を有し適宜説明を省略する。
(変形例1)
上述の実施形態では、パラメータ算出部42は、被験者Sの特徴Fから、瞳孔間距離PDを用いて被験者Sと表示部20との間の距離等のパラメータを算出した。しかし、被験者Sが、長さが既知の部分を有する部材を頭部に装着し、パラメータ算出部42は被験者画像Is中の当該部分の長さを用いて被験者Sと表示部20との間の距離等のパラメータを算出してもよい。例えば、被験者Sが表示部20を目視する際に装用する矯正レンズおよび/または当該矯正レンズのフレーム等に、特徴検出部41が特徴Fとして検出可能なマーク等を付しておくことができる。
【0091】
このように、特徴検出部41が、特徴Fを、被験者Sの頭部に配置された部材に対応する、被験者画像Isの一部分から検出する構成にすることができる。これにより、検出しやすい特徴に基づいて、正確に被験者Sと表示部20との間の距離等のパラメータを算出することができる。
【0092】
(変形例2)
上述の実施形態では、画像作成装置1は表示部20を1つ備える構成としたが、複数の表示部20を備える構成としてもよい。この場合、複数の表示部20は、被験者Sからそれぞれ異なる距離に配置されることが好ましい。例えば、複数の表示部20は、被験者Sから、遠距離(1m以上等、適宜設定される)、近距離(50cm未満等、適宜設定される)、および遠距離と近距離との間の中間距離から選択される少なくとも2つ以上の距離に配置されることが好ましい。これにより、被験者Sに異なる距離の対象物の間で視線を移動させた際の見え方を体験させたり等、より詳しく仮想的な眼鏡レンズを通した見え方を体験させることができる。
【0093】
(変形例3)
上述の実施形態において、表示部20が3次元ディスプレイを含んで構成されてもよい。この場合、画像作成部43は、被験者Sの左眼の位置を視点とした視野画像21である左眼視野画像と、被験者Sの右眼の位置を視点とした視野画像21である右眼視野画像とを作成する。被験者Sが表示部20の3次元ディスプレイを目視する際には、特殊な光学特性を備えた眼鏡や視差障壁等を用いた方法により、被験者Sの左眼に左眼視野画像を、被験者Sの右眼に右眼視野画像を提示される。これにより、被験者Sは、視野画像21を見る際に立体感を得ることができ、より現実に近い体験をすることができる。
【0094】
(変形例4)
上述の実施形態では、画像作成装置1は撮像部10を1つ備える構成としたが、複数の撮像部10を備える構成としてもよい。複数の撮像部10から得られた被験者画像Isを用いることにより、より正確に被験者Sと表示部20との間の距離や被験者Sの顔の向きを測定することができる。
【0095】
(変形例5)
画像作成装置1の情報処理機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録された、上述した画像作成処理およびそれに関連する処理の制御に関するプログラムをコンピュータシステムに読み込ませ、実行させてもよい。なお、ここでいう「コンピュータシステム」とは、OS(Operating System)や周辺機器のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、光ディスク、メモリカード等の可搬型記録媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持するものを含んでもよい。また上記のプログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせにより実現するものであってもよい。
【0096】
また、パーソナルコンピュータ(以下、PCと記載)等に適用する場合、上述した制御に関するプログラムは、CD-ROM、DVD-ROM等の記録媒体やインターネット等のデータ信号を通じて提供することができる。
図12はその様子を示す図である。PC950は、CD-ROM953を介してプログラムの提供を受ける。また、PC950は通信回線951との接続機能を有する。コンピュータ952は上記プログラムを提供するサーバーコンピュータであり、ハードディスク等の記録媒体にプログラムを格納する。通信回線951は、インターネット、パソコン通信などの通信回線、あるいは専用通信回線などである。コンピュータ952はハードディスクを使用してプログラムを読み出し、通信回線951を介してプログラムをPC950に送信する。すなわち、プログラムをデータ信号として搬送波により搬送して、通信回線951を介して送信する。このように、プログラムは、記録媒体や搬送波などの種々の形態のコンピュータ読み込み可能なコンピュータプログラム製品として供給できる。
【0097】
上述した情報処理機能を実現するためのプログラムとして、表示部20を目視する被験者Sを撮像した被験者画像Isから、複数の特徴Fを検出する特徴検出処理と、検出された特徴Fの位置および/または検出された特徴Fの間の距離に基づいて、被験者Sと表示部20との間の距離および被験者Sの顔の向きを算出するパラメータ算出処理と、被験者Sと表示部20との間の距離および顔の向きに基づいて、被験者Sが眼鏡レンズ9を通して表示部20を目視した場合の視野画像21を作成する画像作成処理と、視野画像21を表示部20に表示させる表示制御処理とを処理装置に行わせるためのプログラムが含まれる。
【0098】
本発明は上記実施形態の内容に限定されるものではない。特に、上述の実施形態や変形例で示された事項は適宜組み合わせることができる。本発明の技術的思想の範囲内で考えられるその他の態様も本発明の範囲内に含まれる。
【符号の説明】
【0099】
1…画像作成装置、9,9L,9R…眼鏡レンズ、10…撮像部、20…表示部、21…視野画像、30…情報処理部、40…制御部、41…特徴検出部、42…パラメータ算出部、43…画像作成部、44…表示制御部、E…眼、Eb,EbL,EbR…眼球、F…特徴、K,K1,K2,K3,K4,K5,K6…ぼけカーネル行列、S…被験者、S1…仮想面、S20…表示画面、Vo…基準物体。