IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ アセウペ フランスの特許一覧

<>
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公表特許公報(A)
(11)【公表番号】
(43)【公表日】2024-07-30
(54)【発明の名称】仮想眼鏡を試着する方法
(51)【国際特許分類】
   A61B 3/10 20060101AFI20240723BHJP
   G02C 13/00 20060101ALI20240723BHJP
   G06T 17/20 20060101ALI20240723BHJP
   G06T 17/30 20060101ALI20240723BHJP
   G06T 19/00 20110101ALI20240723BHJP
   G06T 7/00 20170101ALI20240723BHJP
   A61B 5/107 20060101ALI20240723BHJP
【FI】
A61B3/10
G02C13/00
G06T17/20
G06T17/30
G06T19/00 600
G06T7/00 660A
A61B5/107 110
【審査請求】未請求
【予備審査請求】有
(21)【出願番号】P 2023570407
(86)(22)【出願日】2022-06-17
(85)【翻訳文提出日】2024-01-09
(86)【国際出願番号】 EP2022066607
(87)【国際公開番号】W WO2022263654
(87)【国際公開日】2022-12-22
(31)【優先権主張番号】2106482
(32)【優先日】2021-06-18
(33)【優先権主張国・地域又は機関】FR
(81)【指定国・地域】
【公序良俗違反の表示】
(特許庁注:以下のものは登録商標)
1.SWIFT
(71)【出願人】
【識別番号】521537678
【氏名又は名称】アセウペ フランス
【氏名又は名称原語表記】ACEP France
(74)【代理人】
【識別番号】100139723
【弁理士】
【氏名又は名称】樋口 洋
(72)【発明者】
【氏名】グリヨン,ブノワ
(72)【発明者】
【氏名】サヤグ,ジャン-フィリップ
【テーマコード(参考)】
2H006
4C038
4C316
5B050
5L096
【Fターム(参考)】
2H006DA05
4C038VA04
4C038VA20
4C038VB03
4C038VB04
4C038VC02
4C038VC05
4C038VC14
4C316AA15
4C316AA21
4C316AA27
4C316FB26
4C316FC21
5B050AA02
5B050BA06
5B050BA09
5B050BA12
5B050BA13
5B050DA04
5B050EA19
5B050EA26
5B050FA02
5B050FA05
5L096AA09
5L096DA01
5L096FA67
5L096FA69
(57)【要約】
本発明は、以下の工程を含む仮想眼鏡を試着する方法に関する:-[100]ユーザの顔に実際の眼鏡を配置する工程;-[200]測定装置によって、前記ユーザの顔に対する前記実際の眼鏡の位置を測定する工程;-[300]前記実際の眼鏡を取り外した後、3Dマッピング手段を用いてユーザの顔をマッピングする工程;-[400]前記ユーザの顔および前記仮想眼鏡の3Dモデルを構築する工程;-[500]工程[400]で構築されたユーザの顔の3Dモデルから、前記ユーザの眼科パラメータを測定する工程。
【特許請求の範囲】
【請求項1】
仮想眼鏡を試着する方法であって、
-[100]ユーザの顔の上に実際の眼鏡を配置する工程、
-[200]測定装置によって、前記ユーザの顔に対する前記実際の眼鏡の位置を測定する工程、
-[300]3Dマッピング手段によって、前記ユーザの顔をマッピングする工程、
-[400]工程[200]において測定された位置を考慮して、前記ユーザの顔および前記仮想眼鏡の3Dモデルを構築する工程、および
-[500]工程[400]で構築された前記ユーザの顔の3Dモデルに基づいて、前記ユーザの眼科パラメータを測定する工程
を含む、方法。
【請求項2】
-[310]画像キャプチャ手段によって、前記ユーザの顔の画像をキャプチャする工程、
-[320]工程[310]においてキャプチャされた画像上で、前記ユーザの瞳孔の位置を識別する工程、
-[340]工程[320]において決定された瞳孔の位置を、工程[400]において確立された3Dモデルに統合する工程
をさらに含むことを特徴とする、請求項1に記載の仮想眼鏡を試着する方法。
【請求項3】
前記ユーザの特定の識別子と関連付けて、前記位置を保存する工程[210]をさらに含むことを特徴とする、請求項1に記載の仮想眼鏡を試着する方法。
【請求項4】
工程[310]においてキャプチャされた前記ユーザの顔の画像上に、仮想眼鏡を表示手段上に表示する工程[600]をさらに含み、前記仮想眼鏡は、工程[200]において測定された位置を再現するように位置決めされることを特徴とする、請求項2に記載の仮想眼鏡を試着する方法。
【請求項5】
工程[500]で測定される前記眼科パラメータは、瞳孔高さ、パントスコープ角度、フレームの水平度、フレームに対するレンズの水平度、遠方視および/または近方視における瞳孔偏差、前記フレームのキャンバ、レンズ-眼間距離、および各レンズ上のセンタリングマークの位置からなる群から選択されることを特徴とする、請求項1~4のいずれか一項に記載の仮想眼鏡を試着する方法。
【請求項6】
前記ユーザの顔に対する前記実際の眼鏡の位置の測定が、前記実際の眼鏡と前記ユーザの鼻の縁との間の接触点を決定する工程を含むことを特徴とする、請求項1~5のいずれか一項に記載の仮想眼鏡を試着する方法。
【請求項7】
前記ユーザの顔上の前記実際の眼鏡の位置の測定が、前記実際の眼鏡と前記ユーザの各耳との間の接触点を決定する工程を含むことを特徴とする、請求項1~6のいずれか一項に記載の仮想眼鏡を試着する方法。
【請求項8】
前記測定装置は、距離を測定することができる手段を含むことを特徴とする、請求項1~7のいずれか一項に記載の仮想眼鏡を試着する方法。
【請求項9】
前記距離を測定することができる手段は、超音波センサ、飛行時間カメラ、トゥルーデプスカメラ、LIDARであることを特徴とする、請求項8に記載の仮想眼鏡を試着する方法。
【請求項10】
前記距離を測定することができる手段は、ユーザの顔および実際の眼鏡の深度マップを構築することができるコンピューティング手段と関連付けられることを特徴とする、請求項8に記載の仮想眼鏡を試着する方法。
【請求項11】
前記画像キャプチャ手段がビデオセンサであることを特徴とする、請求項1~10のいずれか一項に記載の仮想眼鏡を試着する方法。
【請求項12】
前記表示手段がビデオスクリーンであることを特徴とする、請求項11に記載の仮想眼鏡を試着する方法。
【請求項13】
前記画像キャプチャ手段および前記表示手段が、タブレットに含まれることを特徴とする、請求項1~12のいずれか一項に記載の仮想眼鏡を試着する方法。
【請求項14】
前記測定装置、前記画像キャプチャ手段および前記表示手段がタブレットに含まれることを特徴とする、請求項1~13のいずれか一項に記載の仮想眼鏡を試着する方法。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、仮想眼鏡を試着する方法、および、試着される仮想眼鏡と同様の実際の眼鏡に装着するための眼鏡レンズを準備するためのパラメータを測定する方法に関する。
【背景技術】
【0002】
眼科医による矯正レンズの処方後、患者はレンズが取り付けられるフレームを選択する。
【0003】
通常、フレームの選択は眼鏡店で行われ、フレーム、患者の顔、および、近方視および/または遠方視における姿勢に特有の様々なパラメータが測定される。これらのパラメータの中で、特に、レンズ-眼の距離、フレームのキャンバ角、フレームの傾斜角、瞳孔間隔および瞳孔高さを挙げることができる。これらのパラメータを測定することにより、フレームおよび患者に完全に適合した眼科用レンズを調製することができる。
【0004】
近年、フレームを着用しているユーザの顔の画像に基づいて眼科パラメータを自動的に計算するための装置が開発されてきた。これらの装置は、少なくとも1つのカメラと、所望のパラメータを計算するためにカメラによってキャプチャされた画像を処理することができるコンピュータとを備える、固定コラムまたは携帯タブレットの形態をとる。多くの場合、検査されるフレームは、測定の精度を改善するために、予め定められたサイズの基準フレームに一時的に関連付けられる。
【0005】
数年来、眼鏡店におけるフレームの実際のフィッティングは、店舗または家庭における仮想フレームのフィッティング手段と競合している。典型的には、これらのフィッティング手段は、ユーザの画像をリアルタイムでキャプチャし、仮想フレームに関連付けて表示スクリーン上に送信するカメラを備える。これらの手段は、ユーザの画像から顔の位置、ユーザの目の位置などのデータを抽出し、データベース内でユーザによって選択された3D眼鏡が重ね合わされたユーザの顔を含む仮想シーンを計算することができるコンピュータプログラムと関連付けられる。
【0006】
この仮想フィッティングは、ユーザのスマートフォンまたはコンピュータ上で実施することが可能であるので、完全に非局在化することができる。利用可能なフレームの数は、もはや眼鏡店のディスプレイのサイズによって制限されるのではなく、サーバの容量によって制限される。したがって、顧客は、日中または夜間の任意の時間に数千のフレームから選択することができる。
【0007】
それにもかかわらず、仮想フレームが選択されると、ユーザの眼科的パラメータを測定することが依然として必要であり、これは、顧客が眼鏡店に戻り、仮想眼鏡と同等の実際の眼鏡を着用する必要があることを意味する。
【0008】
眼鏡店でのこの経過を回避するための装置が既に提案されている。例えば、仮想試験中に生成された3Dシーンに基づいて眼科パラメータを直接計算することが想定されている。しかしながら、3Dシーンにおける仮想眼鏡の位置は粗く、正確に計算を行うことができない。
【0009】
同じフレームに対して、各着用者は、耳の位置、鼻の形状および頬骨の高さに応じて、眼鏡の位置は異なる。したがって、眼科パラメータを計算するためにこのシーンをそれだけで使用することは不可能である。
【発明の概要】
【発明が解決しようとする課題】
【0010】
本発明は、フレーム着用者の眼科パラメータを、これらのフレームの仮想フィッティングと同時に正確に計算することを可能にする方法を提供することによって、この問題を解決することを目的とする。また、本発明による方法は、検査中の仮想フレームの位置の精度を改善することを可能にする。
【課題を解決するための手段】
【0011】
本発明は、仮想眼鏡を試着するための方法に関し、この方法は以下を含む:
-[100]ユーザの顔に実際の眼鏡を配置する工程、
-[200]測定装置によって、前記ユーザの顔に対する前記実際の眼鏡の位置を測定する工程、
-[300]3Dマッピング手段によって、ユーザの顔をマッピングする工程、
-[400]工程[200]において測定された位置を考慮して、前記ユーザの顔および前記仮想眼鏡の3Dモデルを構築する工程、
-[500]工程[400]で構築されたユーザの顔の3Dモデルに基づいて、前記ユーザの眼科パラメータを測定する工程。従来技術の方法は、仮想眼鏡がユーザの顔の表面に任意に配置される3Dモデルを作成することからなる。従来技術では、フレームのブリッジの下部は、鼻の縁の最も高い部分に体系的に配置され、前記ブリッジの後面はユーザの額と接触している。この位置は、ユーザによって通常使用される位置には必ずしも対応せず、眼科用パラメータを正確に計算することができない。
【0012】
対照的に、本発明による方法では、ユーザの顔および前記仮想眼鏡の3Dモデルは、ユーザが正常な状態で実際の眼鏡を着用する方法を考慮して作成される。その結果、仮想眼鏡にもかかわらず、後者は、ユーザが同等の実際の眼鏡を着用するのと全く同じように3Dモデルに配置される。したがって、直接3Dモデルから眼科パラメータを正確に計算することができる。
【0013】
「工程[200]で測定された位置を考慮に入れる」とは、工程[400]で構築された3Dモデルにおいて、ユーザの顔の表現に対する仮想眼鏡の位置が、工程[200]で測定された位置の全部または一部を再現することを理解されたい。好ましくは、工程[400]で構築された3Dモデルにおいて、ユーザの顔の表現に対する仮想眼鏡の位置は、工程[200]で測定された任意の点で再現する。
【0014】
好ましい実施形態によれば、工程[300]におけるユーザの顔のマッピングは、ユーザの顔から実際の眼鏡を取り外した後に実行される。
【0015】
好ましい実施形態によれば、本発明による方法は、以下の工程をさらに含む:
-[310]画像キャプチャ手段によって、ユーザの顔の画像をキャプチャする工程、
-[320]工程[310]においてキャプチャされた画像上で、ユーザの瞳孔の位置を識別する工程、
-[340]工程[320]において決定された瞳孔の位置を、工程[400]において確立された3Dモデルに統合する工程。
【0016】
本発明の文脈において、瞳孔の位置は、角膜反射の位置に置き換えることができる。したがって、用語「瞳孔の位置」および「角膜反射の位置」は、互換的に使用することができる。
【0017】
好ましい実施形態によれば、本発明による方法はさらに、前記ユーザの特定の識別子と関連づけて、前記ユーザの顔に対する前記実際の眼鏡の前記位置を保存する工程[210]を含む。
【0018】
好ましい実施形態によれば、本発明による方法は、工程[310]においてキャプチャされた前記ユーザの顔の画像上に、仮想眼鏡を表示手段上に表示する工程[600]を含み、前記仮想眼鏡は、工程[200]において測定された位置を再現するように位置決めされることを特徴とする。
【0019】
後者の実施形態の文脈において、工程[200]は、ユーザによって、または、ユーザが着用している実際の眼鏡の位置で工程[600]において表示された仮想眼鏡の位置を比較する第三者によって実行されてもよく、前記表示手段を前記実際の眼鏡および前記仮想眼鏡に一致させるための情報を提供する。
【0020】
好ましい実施形態によれば、工程[340]で測定される眼科パラメータは、瞳孔高さ、パントスコープ角度、フレームの水平度、フレームに対するレンズの水平度、遠方視および/または近方視における瞳孔偏差、フレームのキャンバ、および各レンズ上のセンタリングマークの位置からなる群から選択される。
【0021】
好ましい実施形態によれば、前記ユーザの顔に対する前記実際の眼鏡の位置の測定は、前記実際の眼鏡と前記ユーザの鼻の縁との間の接触点を決定することを含む。
【0022】
好ましい実施形態によれば、工程[340]で測定される眼科パラメータは、瞳孔高さ、パントスコープ角度、フレームの水平度、フレームに対するレンズの水平度、遠方視および/または近方視における瞳孔偏差、前記フレームのキャンバ、レンズ-眼間距離、および各レンズ上のセンタリングマークの位置からなる群から選択される。
【0023】
好ましい実施形態によれば、前記ユーザの顔に対する前記実際の眼鏡の位置の測定は、前記実際の眼鏡と前記ユーザの鼻の縁との間の接触点を決定することを含む。
【0024】
さらにより好ましい実施形態によれば、前記ユーザの顔上の前記実際の眼鏡の位置の測定は、前記実際の眼鏡と前記ユーザの各耳との間の接触点を決定することをさらに含む。
【0025】
好ましい実施形態によれば、工程[200]で使用される前記測定装置は、距離を測定することができる手段を備える。
【0026】
好ましい実施形態によれば、距離を測定することができる前記手段は、超音波センサ、飛行時間カメラ、トゥルーデプス(truedepth)カメラまたはLIDARである。
【0027】
好ましい実施形態によれば、距離を測定することができる前記手段は、ユーザの顔および実際の眼鏡の深度マップを構築することができるコンピューティング手段と関連付けられる。
【0028】
好ましい実施形態によれば、工程[310]で使用される前記画像キャプチャ手段はビデオセンサである。
【0029】
好ましい実施形態によれば、工程[600]で使用される前記表示手段はビデオスクリーンである。
【0030】
好ましい実施形態によれば、前記画像キャプチャ手段および前記表示手段は、タブレットまたはスマートフォンに含まれる。
【0031】
好ましい実施形態によれば、前記測定装置、前記画像キャプチャ手段および前記表示手段はタブレットに含まれる。
【0032】
本発明はまた、画像キャプチャセンサと、表示手段と、測定装置と、本発明による方法を実行するコンピュータプログラムを実装するコンピューティング手段とを備える装置に関する。
【0033】
本発明による方法の工程は、上記の順序とは異なる順序で実施することができる。例えば、工程[300]は、工程[100]または工程[200]の前に実行することができる。
【発明を実施するための形態】
【0034】
本発明の文脈において、工程[100]は、ユーザの顔に実際の眼鏡を配置することを含む。
【0035】
「実際の眼鏡」により、1つの面と2つのテンプルとからなる任意の補強部材が理解されるべきである。前記面は、ユーザの鼻に載ることを意図されたブリッジをさらに含む。前記面にガラスが存在することは必須ではない。「実際の」という用語は、「仮想」という用語とは対照的に使用される。したがって、前記実際の眼鏡は物理的材料で作製され、触れることができる。
【0036】
前記実際の眼鏡は、必ずしも矯正レンズを受容することを意図した眼鏡ではない。それは、例えば、本発明による方法の文脈でのみ使用するために構築された構造で構成されてもよい。
【0037】
一実施形態によれば、前記実際の眼鏡は、市販のすべてのフレームからなる群から選択される。
【0038】
本発明の別の好ましい実施形態によれば、前記実際の眼鏡は、その表面に所定のサイズおよび位置のマークが一時的または永久的に配置された眼鏡フレームである。これらのマークの存在により、フレームおよびその位置の検出が容易になる。例えば、これらのマークは、フレームの残りの部分とは異なる色を有する幾何学的形状で構成されてもよい。
【0039】
本発明の文脈において、「前記ユーザの顔に対する前記実際の眼鏡の位置」により、少なくとも、ユーザの鼻における、前記実際の眼鏡のブリッジとユーザの鼻との間の接触点の位置が理解されるべきである。好ましくは、前記位置は、ユーザの耳における、前記実際の眼鏡のテンプルとユーザの鼻との間の接触点の位置をさらに含む。さらにより好ましくは、前記位置は、前記実際の眼鏡のテンプル上の、前記実際の眼鏡のテンプルとユーザの耳との間の接触点の位置をさらに含む。
【0040】
前記位置は、基準フレームに対して空間的に定義される。前記基準フレームの性質は、本発明の文脈では重要ではない。例えば、基準フレーム
【数1】
は、ユーザの顔の4つの固定点を使用することによって定義することができる。有利には、これらの固定点は、ユーザの左眼の目頭、右眼の目頭、左眼の目尻、右眼の目尻、鼻の先端および顎の先端からなる群から選択される。
【0041】
前記「測定装置」は、当業者に利用可能な多くの装置から選択することができる。例えば、前記測定装置は、定規、コンパス、および/またはノギス(calliper)などの手動測定手段のセットであってもよい。
【0042】
本発明による方法が、工程[310]でキャプチャされた前記ユーザの顔の画像上に仮想眼鏡を表示手段上に表示する工程[600]を含む場合、前記測定装置は、ユーザまたは第三者が、前記表示手段上に前記実際の眼鏡と前記仮想眼鏡とを一致させるための情報を入力することができるインターフェースを含むことができる。
【0043】
特に、前記インターフェースは、キーボード、ジョイスティック、マウスまたはタッチスクリーンであってもよい。本発明の好ましい実施形態によれば、前記インターフェースは、工程[600]において表示手段として機能するタッチスクリーンである。
【0044】
この実施形態の文脈では、任意に位置決めされたユーザの顔および仮想眼鏡の第1の3Dモデルは、工程[300]で得られた3Dマッピングから作成される。「任意に」により、仮想眼鏡が、第1の3Dモデルの任意の場所に無差別に配置され得ることが理解されるべきである。それにもかかわらず、有利には、前記仮想眼鏡は、前記仮想眼鏡の少なくともブリッジがユーザの顔の鼻の縁と接触するように配置される。
【0045】
その後、前記仮想眼鏡は、工程[310]でキャプチャされた前記ユーザの顔の画像上に前記表示手段上で表示される。
【0046】
したがって、ユーザまたは第三者は、表示された仮想眼鏡の位置を、ユーザが着用している実際の眼鏡の位置と比較し、前記インターフェースを介して補正情報(例えば、上方、下方、前後回転、左右回転)を入力することができる。前記補正情報は、前記3Dモデルにおける仮想眼鏡の位置を補正するために使用される。実際の眼鏡の表示と仮想眼鏡の表示とが完全に一致する場合、3Dモデルにおける仮想眼鏡の位置は、工程[200]で求められた前記ユーザの顔に対する前記実際の眼鏡の位置に対応すると考えられる。
【0047】
有利には、工程[200]で使用される前記測定装置は、ユーザの顔および着用された実際の眼鏡の3Dマッピングを作成することができる手段である。3Dマッピングは、環境を連続的にスキャンし、得られた信号を処理して前記3Dマッピングを確立するために協働する複数の装置構成要素のセットによって得ることができる。
【0048】
工程[200]の文脈において、「ユーザの顔」により、少なくとも目、鼻の縁、および耳の上部と頭蓋骨の残りの部分との間の接合点を含む、ユーザの頭蓋骨の前面の少なくとも一部が理解されるべきである。有利には、工程[200]でマッピングされたユーザの顔は、ユーザの額の上部、顎および耳の後部によって画定される顔の領域を少なくとも含む。
【0049】
ユーザの顔の3Dマッピングを作成することができる前記手段は、個人の身体の一部のデジタル化に適した任意のタイプの3Dスキャナで構成されてもよい。例えば、3Dスキャナは、ハンドヘルド3Dスキャナであってもよい。いくつかの実施形態では、3Dスキャナは、少なくとも2つの2D画像を使用して3Dスキャンを生成する。例えば、3Dスキャナは、ユーザの顔の複数の2D画像をキャプチャする複数のカメラを含むことができる。その後、3Dスキャナは、2D画像を重ね合わせて組み立てる。2D画像上の各点は、3Dスキャンを生成するために、空間内のスケールおよび位置を再構築するために数学的に三角測量される。重ね合わされる2D画像の数が多いほど、結果として生じる3Dスキャンの解像度および信頼性が高くなる。
【0050】
他の実施形態では、3Dスキャナは、単一のカメラと、ユーザの顔の3D画像を生成するために使用することができるユーザの顔の複数の画像を正確にキャプチャすることを可能にする追加の機器とを含むことができる。例えば、3Dスキャナは、カメラと、カメラがユーザの顔の複数の画像をキャプチャできるように配置されたミラーとを含むことができる。別の例では、3Dスキャナは、単一のカメラと、カメラが異なる位置からユーザの顔の複数の画像をキャプチャできるようにカメラを別の位置に移動させることを可能にする機構とを含むことができる。さらに別の例では、3Dスキャナは、単一のカメラと、インジケータまたは他の機構によって、複数の画像をキャプチャするためにカメラを移動させる方法をユーザに示す対話型インターフェースとを含むことができる。
【0051】
別の実施形態では、3Dスキャナは、単一のカメラと構造化光プロジェクタとを含むことができる。構造化光プロジェクタは、グリッドまたはパターンをユーザの顔の上に投影することができ、これは、カメラによって収集され、デコードされてキャプチャされた物体の絶対寸法距離を提供し、ユーザの顔の3Dスキャンを生成する。
【0052】
この後者の実施形態では、工程[200]において使用される3Dマッピングを作成することができる前記手段は、ユーザの顔の上に光放射パターンを投影することができる第1の投影手段を備えることができる。好ましい実施形態によれば、この目的のために使用される光放射は、典型的には赤外線(IR)範囲内にある。
【0053】
光放射パターンを用いて患者の画像をキャプチャするために、工程[200]において使用される3Dマッピングを作成することができる前記手段は、第1のカメラをさらに備える。好ましくは、第1の投影手段の光軸は、前記第1のカメラの光軸に平行である。さらに、前記第1のカメラは、前記第1の投影手段によって放射された光放射を記録することができるセンサを備える。
【0054】
前記第1のカメラによって記録された画像を処理するために、工程[200]において使用される3Dマッピングを生成することができる前記手段は、3Dマッピングを生成するためにパターンの画像を処理することができる処理装置をさらに備える。
【0055】
本発明の好ましい実施形態によれば、前記測定装置は、超音波センサ、飛行時間カメラ、トゥルーデプスカメラおよびLIDARからなる群から選択される距離を測定することができる手段を備える。
【0056】
本発明のさらにより好ましい実施形態によれば、距離を測定することができる前記手段は、ユーザの顔および実際の眼鏡の深度マップを構築することができるコンピューティング手段に関連付けられる。
【0057】
さらに、3Dマッピングを作成することができる手段は、有利には、以下を前記3Dマッピングから抽出することができる処理装置に関連付けられる:前記実際の眼鏡のブリッジとユーザの鼻との間の接触点のユーザの鼻上の位置;有利には、前記実際の眼鏡のテンプルとユーザの鼻との間の接触点のユーザの耳上の位置;さらにより有利には、前記実際の眼鏡のテンプルとユーザの鼻との間の接触点の実際の眼鏡のテンプル上の位置。
【0058】
好ましい実施形態によれば、処理装置は、患者の顔の部分、例えば目頭、瞳孔の中心、額の中央、および/または顎の中央を識別し、それらの3D位置を決定することができる。
【0059】
3Dマッピングを生成することができる機器のこのセットは、例えば、スマートフォンまたはタブレットに提供される。これに関して、本発明による方法は、スマートフォンまたはタブレットによって実施される。この実施形態において、本発明による方法は、より詳細には、スマートフォンまたはタブレット専用のソフトウェアによって実施される。
【0060】
好ましい実施形態によれば、本発明による方法は、前記ユーザの特定の識別子に関連付けられた前記位置をデータベースに保存する工程[210]をさらに含む。
【0061】
「特定の識別子」により、ユーザを識別することを可能にする任意の単一または複数の手段が理解されるべきである。これらの中で、特に、民法上の身分、社会保障番号、パスポート番号、住所、生年月日、顧客番号、人体測定データ、およびそれらの組合せに言及することができる。好ましい実施形態によれば、前記特定の識別子は、ユーザの人体計測データであり、より好ましくは、ユーザの顔の3Dマッピングに基づいて得られる人体計測データである。任意の他の特定の識別子を、本発明による方法の文脈において用いるために作成することができる。
【0062】
「バックアップ」により、任意の記憶媒体上での前記情報の保存が理解されるべきである。適切な記憶媒体は、例えば、物理的な(例えばハードディスク)または仮想的な(例えばクラウド)電子および電磁情報媒体である。本発明の好ましい実施形態によれば、前記記憶媒体は、インターネットネットワークを介して遠隔でアクセス可能である。
【0063】
前記特定の識別子は、前記位置に関連付けられ、記憶媒体の読み取りによって、特定のユーザの顔に対する前記実際の眼鏡の位置を見つけることが可能になる。
【0064】
3Dマッピング手段によって、前記実際の眼鏡を取り外した後、ユーザの顔をマッピングする工程[300]は、工程[200]において使用される前記測定デバイスと同一または異なる手段によって実行され得る。
【0065】
好ましい実施形態によれば、本発明による方法は、画像キャプチャ手段によって、前記実際の眼鏡を取り外した後、ユーザの顔の画像をキャプチャする工程[310]をさらに含む。
【0066】
好ましくは、「画像キャプチャ手段」により、写真センサ(例えば、CCD、CMOS)が理解されるべきである。前記センサは、デジタル画像を生成することができる前記センサの信号を処理するための手段と関連付けられる。工程[200]において使用される測定装置が画像キャプチャ手段を含む場合、後者は、工程[310]において使用される画像キャプチャ手段と同一であっても異なっていてもよい。
【0067】
ユーザの顔の画像のキャプチャは、適切な時にまたは連続的に行われる。
【0068】
前記画像キャプチャ手段は、例えばスマートフォンまたはタブレットに提供される。この点に関して、本発明による方法は、スマートフォンまたはタブレットによって実施される。この実施形態では、本発明による方法は、より詳細には、スマートフォンまたはタブレット専用のソフトウェアによって実施される。
【0069】
好ましい実施形態によれば、本発明による方法は、工程[310]でキャプチャされたユーザの顔の画像上で、前記ユーザの瞳孔の位置を識別する工程[320]をさらに含む。この工程を実行するために、様々なアルゴリズムを実装することができる。これらのアルゴリズムは、ユーザの顔を検出し、次いで先に識別された領域内のユーザの目を検出し、最後にユーザの瞳孔を検出する、連続的な工程を実施することができる。これらのアルゴリズムの中では、Ciesla et al.(Ciesla,M.,& Koziol,P.(2012).Eye Pupil Rental Using Webcam.ArXiv,abs/1202.6517.)によって記載されたものに言及することができる。.
【0070】
工程[340]において、工程[320]で決定された瞳孔の位置は、工程[400]で確立された3Dモデルに統合される。
【0071】
「統合される」により、工程[310]でキャプチャされた画像から測定された瞳孔の前記2D位置が、工程[300]で確立された3Dマッピングの基準フレーム内の3D位置に変換され、次いで3Dモデルに統合されることが理解されるべきである。この操作は、目頭および目尻ならびに角膜の頂点の3D位置を考慮することによって簡単に行うことができる。
【0072】
好ましい実施形態によれば、本発明による方法は、ユーザの顔および前記仮想眼鏡の3Dモデルを構築する工程[400]をさらに含む。
【0073】
工程[400]で実行されるユーザの顔および仮想眼鏡の3Dモデルの構築は、当業者に知られている任意の3Dモデリングシステムによって行うことができる。この構築により、少なくともユーザの顔と選択された仮想眼鏡とを含む3Dシーンが得られる(例えば、https://fr.wikipedia.org/wiki/scene_3Dを参照されたい)。
【0074】
3Dモデルの構築を可能にするソフトウェアは、当業者に周知であり、これらの中でも、特に、Ogre3D、Autodesk 3ds Max、Autodesk Maya、MotionBuilder、Autodesk Softimage、Bryce 3D、Carrara、Cinema 4D、Dynamation、Houdini、LightWave 3D、MASSIVE、Messiah、Moviestorm、Softimage 3D、Strata 3D、Swift 3Dを挙げることができる。
【0075】
本発明の文脈において、3Dモデルの前記構築は、レンダリングエンジンの実装を含んでいなくてもよい。実際、このモデリングの主な目的は、ユーザの顔に対する仮想眼鏡の要素の相対位置を計算することである。したがって、このシーンのレンダリングを計算し、それを表示する必要はない(本発明による方法が工程[600]をさらに含む場合を除く)。
【0076】
本発明の文脈において、「仮想眼鏡」という用語は、仮想環境に表示されるが物理的な世界の一部ではない眼鏡を指す。
【0077】
多くの仮想眼鏡が市販されている。ユーザが工程[400]の前に選択することができる数千の仮想眼鏡を含む多くのデータベースが存在する。
【0078】
実際には、仮想眼鏡は、三角形、直線、曲面などの様々な幾何学的実体によって接続された3D空間内の点の集合によって定義される。この点の集合は、前記仮想眼鏡の様々な表面の色、テクスチャおよび反射率に関する情報によって補完することができる。データの集合(点および他の情報)である、仮想眼鏡は、手動で、アルゴリズム的に、またはスキャンによって作成することができる。この情報セットは、1つまたは複数のコンピュータファイルに統合することができる。有利には、前記ファイルは、1つまたは複数の記憶媒体上に保存される。好ましくは、前記記憶媒体は、インターネットネットワークを介して遠隔でアクセス可能である。
【0079】
本発明による方法が工程[600]を含まない場合、前記仮想眼鏡は、テクスチャを含まなくてもよい、なぜならば、前記仮想眼鏡の3D幾何学的形状のみが眼科パラメータを計算するために必要であるからである。
【0080】
工程[500]は、工程[400]で構築されたユーザの顔の3Dモデルに基づいて、ユーザの眼科パラメータを測定することからなる。工程[500]で測定される眼科パラメータの中で、瞳孔高さ、パントスコープ角度、フレームの水平度、フレームに対するレンズの水平度、遠方視および/または近方視における瞳孔偏差、レンズ-眼間距離、フレームのキャンバ、頭部-眼係数、レンズ-眼間距離、および各レンズ上のセンタリングマークの位置を挙げることができる。
【0081】
例えば、工程[400]で計算された3Dモデルに基づいて、レンズを囲むフレームの外糸(cerclage)の位置に対するユーザの瞳孔の位置に基づいて瞳孔の高さを計算することは容易である。
【0082】
同様に、レンズ-眼間距離は、3Dモデルにおける角膜の頂点およびレンズの位置(または外糸の位置から推測される位置)に基づいて計算することができる。
【0083】
パントスコープ角度は、垂直面に対する仮想眼鏡の顔の角度を測定することによって計算することができる。
【0084】
これらの計算は全て、眼科パラメータの計算に必要な様々な点(角膜の頂点、レンズの位置など)をコンピュータインターフェースを介して指定することができるオペレータにより行うことができる。有利には、オペレータによって識別された点に基づいて計算が自動化され得る。
【0085】
あるいは、工程[500]の全体は、眼科パラメータの計算に必要な点を前記3Dモデル内で識別し、その計算を行うようにプログラムされた情報処理手段によって自動的に実行される。
【0086】
工程[310]で入力された前記ユーザの顔の画像上に仮想眼鏡を表示手段に表示する工程[600]において、前記仮想眼鏡は、工程[200]で測定された位置を再現するように配置されることを特徴とする。
【0087】
本発明の文脈において、「表示手段」により、画像、より詳細にはデジタル画像の表示を可能にする任意の手段が理解されるべきである。
【0088】
工程[400]で作成された前記3Dモデルに基づいて、前記ユーザの顔の画像上に仮想眼鏡を含むデジタル画像を作成することは、3Dコンピュータグラフィックスの従来の工程である。好ましくは、工程[500]は、3Dレンダリングエンジンを実装する。3Dレンダリングエンジンは、特に、3D投影、テクスチャおよび照明効果をそこにレンダリングすることにより1つまたは複数の3D画像を計算する、従来のソフトウェアまたは特殊グラフィックスカードに統合されたアルゴリズムであってもよい。
【0089】
3Dレンダリングエンジンは、デジタル化画像の要素(光の色、強度およびタイプ、影およびそれらの組合せなど)を分析し、この画像は、仮想「カメラ」によって見られると想定され、仮想「カメラ」のxyz座標は、視野角および物体の位置を決定する。
【0090】
本発明の文脈で使用できる3Dレンダリングエンジンの中で、特に、Arnold、Aqsis、Arion Render、Artlantis、Atomontage1、Blender、Brazil r/s、BusyRay、Cycles、Enscape、FinalRender、Fryrender、Guerilla Render、Fryrender、Guerilla Render、Fryrender、Guerilla Render、 Fryrender、Guerilla Render2、Indigo、Iray、Kerkythea、KeyShot、Kray、Lightscape、LightWorks、Lumiscaphe、LuxRender、Maxwell Render、Mental Ray、Mitsuba3、Nova、Octane4、POV-Ray、RenderMan、Redsdk、Redway3d、Sunflow、Turtle、V-Ray、VIRTUALIGHT、およびYafaRayを挙げることができる。
【0091】
工程[310]でキャプチャされたユーザの顔の画像上に仮想眼鏡を表示手段に表示する工程[600]を実施することを可能にする多くの方法が、従来技術に記載されている。これらの中で、特に国際公開第013207号および欧州特許第2526510号明細書に記載されている方法、またはSmartMirror(登録商標)などの市販のソフトウェアを挙げることができる。
【0092】
本発明による方法全体は、スマートフォン、タブレットまたはコンピュータに実装されたソフトウェアによって実施することができる。
【0093】
したがって、本発明はまた、本発明による方法を実施することを特徴とするスマートフォン、タブレットまたはコンピュータに関する。
【国際調査報告】