(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公表特許公報(A)
(11)【公表番号】
(43)【公表日】2024-06-28
(54)【発明の名称】光学製品のシミュレーション方法
(51)【国際特許分類】
A61B 3/103 20060101AFI20240621BHJP
A61B 3/113 20060101ALI20240621BHJP
【FI】
A61B3/103
A61B3/113
【審査請求】未請求
【予備審査請求】未請求
(21)【出願番号】P 2023570406
(86)(22)【出願日】2022-06-17
(85)【翻訳文提出日】2024-01-09
(86)【国際出願番号】 EP2022066604
(87)【国際公開番号】W WO2022263652
(87)【国際公開日】2022-12-22
(32)【優先日】2021-06-18
(33)【優先権主張国・地域又は機関】FR
(81)【指定国・地域】
(71)【出願人】
【識別番号】521537678
【氏名又は名称】アセウペ フランス
【氏名又は名称原語表記】ACEP France
(74)【代理人】
【識別番号】100139723
【氏名又は名称】樋口 洋
(72)【発明者】
【氏名】サヤグ,ジャン-フィリップ
【テーマコード(参考)】
4C316
【Fターム(参考)】
4C316AA11
4C316AA13
4C316AA21
4C316FC04
4C316FC21
(57)【要約】
本発明は、少なくとも入力周辺機器(11a)および表示周辺機器(11b)を備えるモバイル機器(11)を用いて拡張現実で光学レンズをシミュレートする方法(100)に関し、方法(100)は、少なくとも、キャプチャフェーズ(P1)、ユーザによる環境内の対象の観察中のデータ取得フェーズ(P2)、および少なくとも処理ユニット(11c)によって実行され、仮想レンズが生成されユーザの環境の少なくとも1つの画像上へ重ね合わされることを可能にするシミュレーションフェーズ(P3)を含む。
【特許請求の範囲】
【請求項1】
少なくとも1つの入力周辺機器(11a)および1つの表示周辺機器(11b)を含むモバイル機器(11)を用いて拡張現実で光学レンズをシミュレートする方法(100)であって、少なくとも以下:
少なくとも以下の工程を含む1つのキャプチャフェーズ(P1):
a1)少なくとも1つの画像キャプチャ要素(12)を用いて、ユーザの環境の少なくとも1つの画像をキャプチャする工程(110);
少なくとも以下の工程を含むデータ取得フェーズ(P2):
b1)少なくとも1つの測定ユニット(14)を用いて、モバイル機器(11)と環境内の少なくとも1つの対象との間の距離を決定する工程(210);
および、少なくとも以下の工程を含む、前記モバイル機器(11)の少なくとも1つの処理ユニット(11c)によって実行されるシミュレーションフェーズ(P3):
c1)前記データ取得フェーズ(P2)の間に取得されたデータに応じて、環境の前記少なくとも1つの画像上で、実際に決定された光学補正レンズの光学効果を再現する仮想レンズを適用し、シミュレーションを前記表示周辺機器上に表示する工程(310);
を含むことを特徴とする、方法(100)。
【請求項2】
工程c1において、前記仮想レンズは、異なる変更可能なマッピングを有するレンズの既存のデータベースから選択されるか、またはカスタムマッピングを用いて作成されることを特徴とする、請求項1に記載の方法(100)。
【請求項3】
前記シミュレーションフェーズ(P3)において、前記ユーザは、多焦点、度数変化あり、累進、漸進、特定の位置決め、近視の進行の抑制、固定またはグラディエントまたはバイグラディエントの色合い、フォトクロミック、偏光、コーティング、または耐疲労性のレンズをシミュレートするように選択することを特徴とする、請求項1または2に記載の方法(100)。
【請求項4】
前記データ取得フェーズ(P2)は、前記モバイル機器の前記表示周辺機器(11b)を介して前記着用者が環境を観察する間に行われ、前記着用者の頭部の動き、および運動センサ(13)を用いて前記着用者と前記モバイル機器(11)との間の距離を決定することからなる工程b2を含むことを特徴とする、請求項1~3のいずれか一項に記載の方法(100)。
【請求項5】
前記着用者の頭部における動きの決定は、前記運動センサ(13)を用いて、前記モバイル機器(11)に対する前記着用者の顔および目の動きを検出することからなることを特徴とする、請求項4に記載の方法(100)。
【請求項6】
工程a1は、少なくとも1つの画像キャプチャ要素(12)を用いて、前記ユーザの環境の少なくとも1つの画像をリアルタイムでキャプチャする工程であることを特徴とする、請求項1~5のいずれか一項に記載の方法(100)。
【請求項7】
工程b1において、前記モバイル機器(11)と前記対象との間の距離を決定することを可能にする前記測定ユニット(14)は、遠隔測定装置またはアプリケーションであることを特徴とする、請求項1~6のいずれか一項に記載の方法(100)。
【請求項8】
前記測定ユニット(14)は、レーザ、超音波、音響測定距離計、または遠隔測定アプリケーションであることを特徴とする、請求項7に記載の方法(100)。
【請求項9】
少なくとも前記画像キャプチャ要素(12)および前記測定ユニット(14)は、前記モバイル機器(11)に組み込まれることを特徴とする、請求項1~8のいずれか一項に記載の方法(100)。
【請求項10】
前記モバイル機器(11)はタブレットまたはスマートフォンであり、前記表示周辺機器(11b)は前記タブレットまたは前記スマートフォンの画面であることを特徴とする、請求項1~9のいずれか一項に記載の方法(100)。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、光学の分野に関し、より詳細には、拡張現実を用いたレンズまたはレンズタイプの光学製品の試着の分野に関する。
【背景技術】
【0002】
光学製品の試着の分野において、処方箋に含まれる個人の視力に関する情報を使用して、その視力に適した補正レンズを選択し、試着のためにそれらを製造することが知られている。このタイプの試着の欠点は、選択された光学製品が患者に適さない場合、廃棄され、別の光学製品が再び製造されなければならないという事実にある。
【0003】
この欠点を克服するために、拡張現実においてレンズをシミュレートする方法がよく知られており、これは、タブレットを使用して、ユーザがリアルタイムでキャプチャされたユーザの環境の画像に対するレンズの効果をシミュレートすることを可能にする。しかしながら、このタイプの方法は、度数が変化するレンズ、すなわち、その表面全体にわたって、異なる視距離専用の異なる度数を提供することを特徴とするレンズの効果を現実的にシミュレートすることはできない。実際、このシミュレーションシステムは、環境の様々な要素とタブレットとの間の距離を考慮しておらず、したがって、示されているレンズのデザインに応じて知覚される視野の3D認識を可能な限り忠実に再現することができない。したがって、このタイプのシステムは、特にいわゆる「近方」視力およびいわゆる「遠方」視力を補正するための累進レンズのシミュレーションの場合、着用者にとって現実をほとんど表さないシミュレーション体験を提供する。
【発明の概要】
【発明が解決しようとする課題】
【0004】
したがって、本発明の目的は、上述の欠点を解消し、ユーザから様々な距離に位置する要素からなる環境の視覚的認識に対する光学レンズの影響の現実的な再現を可能にする、拡張現実に基づく光学レンズのシミュレーション方法を提案することである。
【課題を解決するための手段】
【0005】
本発明によれば、少なくとも1つの入力周辺機器および1つの表示周辺機器を含むモバイル機器を用いて拡張現実で光学レンズをシミュレートする方法が提案され、この方法は、少なくとも以下を含む:
少なくとも以下の工程を含む1つのキャプチャフェーズ(P1):
a1)少なくとも1つの画像キャプチャ要素を用いて、ユーザの環境の少なくとも1つの画像をキャプチャする工程;
少なくとも以下の工程を含むデータ取得フェーズ(P2):
b1)少なくとも1つの測定ユニットを用いて、モバイル機器と環境内の少なくとも1つの対象との間の距離を決定する工程;
および、少なくとも以下の工程を含む、前記少なくとも1つの処理ユニットによって実行される1つのシミュレーションフェーズ(P3):
c1)データ取得フェーズ(P2)の間に取得されたデータに応じて、環境の前記少なくとも1つの画像上で、実際に決定された光学補正レンズの光学効果を再現する仮想レンズを適用し、シミュレーションを表示周辺機器上に表示する工程。
【0006】
いわゆる「モバイル機器」とは、自律的に使用可能な携帯型コンピュータ機器である。これは、例えば、タブレット、スマートフォンまたはラップトップである。
【0007】
いわゆる「ユーザ」とは、補正レンズのシミュレーションを得るためにモバイル機器を使用する個人であり、例えば、補正製品が設計された患者または眼鏡技師であってもよい。
【0008】
いわゆる「レンズ」とは、視力欠陥を補正するために眼の角膜上に置かれる、非常に薄く凹状の、透明な光学装具である。異なるタイプのコーティングまたは色合いを有する異なるタイプの光学補正を提供するレンズを指すために、「レンズタイプ」に言及する。
【0009】
いわゆる「入力周辺機器」とは、コンピュータなどの情報処理システムにデータを供給することができる周辺コンピュータ機器である。これは、例えば、キーボード、マウス、タッチスクリーン(タッチスクリーンは、入力周辺機器と出力周辺機器の両方と見なすことができる)である。この周辺機器は、モバイル機器に一体化され、したがって、機器の一体部分を形成する、または、有線または無線接続によってモバイル機器にデータを送信することができる。
【0010】
いわゆる「表示周辺機器」とは、情報を表示することができる出力装置であり、例えば、モバイル機器の画面、または、有線または無線接続を介してモバイル機器からデータを受信する画面である。
【0011】
いわゆる「画像キャプチャ要素」とは、写真またはビデオカメラタイプの装置である。この装置は、モバイル機器(例えば、スマートフォンまたはタブレットのカメラである)に組み込まれるか、または、独立してモバイル機器に接続されてもよい。
【0012】
いわゆる「測定ユニット」とは、距離測定を可能にする機器またはアプリケーションである。この機器は、モバイル機器に組み込まれるか、または、有線または無線接続によってモバイル機器にデータを送信することができる。
【0013】
いわゆる「処理ユニット」とは、環境および将来の着用者の視力に関する情報の記憶および利用に利用されるモバイル機器のすべての要素(プロセッサ、メモリなど)である。
【0014】
いわゆる「仮想レンズ」とは、拡張現実で生成され、画像に光学的効果(例えば、ぼやけた領域の生成、画像の色の変化など)を生成することを可能にする画像フィルタである。
【0015】
好ましくは、工程c1において、前記仮想レンズは、異なる変更可能なマッピングを有するレンズの既存のデータベースから選択されるか、または必要に応じて完全に生成される。
【0016】
レンズのいわゆる「マッピング」とは、異なる光学補正度数領域がその表面上に配置される態様である。
【0017】
有利には、シミュレーションフェーズ(P3)において、ユーザは、レンズをシミュレートすることを選択する:多焦点、度数変化あり、累進、漸進、特定の位置決め、近視の進行の抑制、固定またはグラディエントまたはバイグラディエントの色合い、フォトクロミック、偏光、コーティング、または耐疲労性。
【0018】
好ましくは、データ取得フェーズ(P2)は、モバイル機器の表示周辺機器を通して着用者が環境を観察するときに行われ、着用者の頭部の動き、および運動センサを用いて着用者とモバイル機器との間の距離を決定することからなる工程b2を含む。
【0019】
いわゆる「着用者」とは、レンズが意図される患者である。
【0020】
さらにより好ましくは、着用者の頭部における動きの決定は、運動センサを使用して、モバイル機器に対する着用者の顔および目の動きを検出することからなる。
【0021】
有利には、工程a1は、少なくとも1つの画像キャプチャ要素を使用して、ユーザの環境の少なくとも1つの画像をリアルタイムでキャプチャする工程である。
【0022】
好ましくは、工程b1において、モバイル機器と対象との間の距離を決定することを可能にする測定ユニットは、遠隔測定装置またはアプリケーションである。
【0023】
いわゆる「遠隔測定装置またはアプリケーション」とは、光学的(例えばレーザ遠隔測定)、音響的(例えばソナー)または無線的(例えばレーダ)である、コンピュータ手段(例えば、対象の画像のキャプチャ後の距離計算に基づくアプリケーション)によって対象の距離を測定することを可能にする装置およびアプリケーションである。
【0024】
有利には、レーザ、超音波、音響測定距離計、または遠隔測定アプリケーションである。
【0025】
好ましくは、少なくとも画像キャプチャ要素および測定ユニットは、モバイル機器に組み込まれる。
【0026】
有利には、モバイル機器はタブレットまたはスマートフォンであり、表示周辺機器は前記タブレットまたは前記スマートフォンの画面である。
【0027】
好ましくは、工程c1において、シミュレーションはモバイル機器の表示周辺機器に表示される。
【0028】
他の利点および特徴は、添付の図面を参照して、本発明による方法の一実施形態の以下の説明からより明らかになるであろう。
【図面の簡単な説明】
【0029】
【
図2】本発明による方法を実行するためのシステムの一実施形態の概略図
【発明を実施するための形態】
【0030】
したがって、
図1および2によれば、少なくとも1つの入力周辺機器11aおよび1つの表示周辺機器11bを備えるモバイル機器11を用いて、拡張現実において光学レンズをシミュレートする方法100が記載され、前記方法100は、少なくとも以下を含む点を特徴とする:
少なくとも以下の工程を含む1つのキャプチャフェーズ(P1):
a1)少なくとも1つの画像キャプチャ要素12を用いて、ユーザの環境の少なくとも1つの画像をキャプチャする工程、110;
少なくとも以下の工程を含むデータ取得フェーズ(P2):
b1)少なくとも1つの測定ユニット14を用いて、モバイル機器11と環境内の少なくとも1つの対象との間の距離を決定する工程、210;
および、少なくとも以下の工程を含む、モバイル機器の前記少なくとも1つの処理ユニット11cによって実行されるシミュレーションフェーズ(P3):
c1)データ取得フェーズ(P2)の間に取得されたデータに応じて、環境の前記少なくとも1つの画像上で、実際に決定された光学補正レンズの光学効果を再現する仮想レンズを適用し、シミュレーションを表示周辺機器上に表示する工程、310。
【0031】
モバイル機器11は、タブレット、スマートフォン、またはラップトップであってもよい。モバイル機器11に関係なく、表示周辺機器11bは、モバイル機器11の画面、または有線または無線接続(例えば、USBケーブル接続、ブルートゥース(登録商標)接続など)によってモバイル機器11に接続された独立した画面である。モバイル機器11がタブレットまたはスマートフォンである場合、入力周辺機器11aは、好ましくはタッチスクリーンである。モバイル機器11がラップトップPCである場合、入力周辺機器11aは、キーボードおよび/またはマウスおよび/またはタッチスクリーンとなる。この入力周辺機器11の目的は、シミュレートされる異なるタイプのレンズを選択すること、または新しいマッピングを有するレンズを作成することを可能にすることである。それはまた、シミュレーションのために製品の光学補正を入力するために使用されてもよい。
【0032】
画像キャプチャ要素12は、写真またはビデオカメラタイプの装置であり、モバイル機器(例えばタブレットまたはスマートフォンのカメラ)に組み込まれるか、または有線または無線接続(例えば、USBケーブル接続、ブルートゥース(登録商標)接続など)によってモバイル機器に接続することができる。この画像キャプチャ要素12の目的は、環境の画像をキャプチャし、この画像をモバイル機器11の表示周辺機器11bに送信することである。キャプチャされた画像は、リアルタイムまたはオフラインで取り込まれた画像であってもよい。
【0033】
次に、処理ユニット11cは、データ取得フェーズP2の間に取得された全てのデータを処理し、モバイル機器11に予め記憶された光学レンズの一般的な製造に関する一定の情報を考慮に入れることによって、カスタムレンズ画像を生成する。環境-モバイル機器11の距離を考慮することは、レンズのシミュレーションの精度の決定因子である。実際、これによって、屈折異常および/または老視を補正するための装置を備えた屈折異常または正視眼によって知覚され得るものを可能な限り忠実に再現することが可能になる。度数変化を有する任意のレンズは、その表面全体にわたって、無限遠から30cmの間であり得る視距離に特化した異なる度数のマッピングを提供する。これは、ユーザの視野において、光学ゾーンを通して認識される任意の対象が、その遠方位置に対応しない場合にぼやけて認識されることを意味する。したがって、ユーザは、標的の対象からの距離に対応する光学ゾーンを使用するために、その視線方向を修正する必要がある。例えば、累進レンズの場合、被検者が階段を降りるために下を見ると、近方視用に確保された光学ゾーンを使用し、目標とする段差は不明瞭に見える。別の実施例:被検者が累進レンズで遠くを見る場合、被検者の水平視野の周囲に位置する対象は、前記累進レンズの表面上で横方向に存在するアイソ-非点収差(iso-astigmatisms)のためにぼやけて知覚される。
【0034】
したがって、この距離測定(工程b1)の利点は、選択されたレンズのマッピングに応じて知覚される視野の3D認識を可能な限り忠実に再現し、したがって異なるタイプのレンズの間に存在する差異を実証することである。
【0035】
拡張現実で開発されたこのレンズは、画像キャプチャ要素12によってキャプチャされた環境の画像上に重ね合わされる。
【0036】
表示周辺機器を見るユーザは、実際に補正レンズを装着している場合に見るものを正確に見る。このシミュレーションに続いて、眼用製品が適切であれば、製品の製造を開始することができる。
【0037】
好ましくは、工程c1の間、前記仮想レンズは、異なる変更可能なマッピングを有するレンズの既存のデータベースから選択されるか、または必要に応じて完全に作成される。ユーザは、「標準」マッピングを有するレンズをデータベースから選択することができ、次いで処理ユニット11cは、このマッピングに従って特定の仮想光学補正レンズ、例えば累進レンズを生成する。ユーザは、必要に応じて、データベースからレンズのマッピングを修正するか、または将来の着用者のニーズを満たすように、カスタムマッピングを有する新しいレンズまたは新しい仮想レンズを作成することを選択することができる。
【0038】
有利には、シミュレーションフェーズ(P3)の間、ユーザは、レンズをシミュレートすることを選択することができる:多焦点、度数変化あり、累進、漸進、特定の位置決め、近視の進行の抑制、固定またはグラディエントまたはバイグラディエントの色合い、フォトクロミック、偏光、コーティング、または耐疲労性。
【0039】
好ましくは、データ取得フェーズ(P2)は、工程b2を含み、これは、モバイル機器11の表示周辺機器11bを介して着用者が環境を観察する間に行われ、着用者の頭部の動き、および運動センサ13を用いて着用者とモバイル機器11との間の距離を決定する工程からなる。
【0040】
データ取得フェーズ(P2)の間、表示周辺機器11b上で観察される環境の画像に対する着用者の視覚的挙動が決定され、記録され、モバイル機器11との間の距離、およびモバイル機器11と環境内の対象との間の距離が測定される。これらのデータは処理ユニット11cに送信され、処理ユニット11cは、着用者に必要な光学補正を決定し、この補正に対応するレンズまたはレンズをシミュレートするために、データを記録し解釈する。
【0041】
さらにより好ましくは、着用者の頭部における動きの決定は、運動センサ13を用いて、モバイル機器11に対する着用者の顔および目の動きを検出することからなる。運動センサ13は、動きを検出することができる任意のタイプのセンサの形態をとることができる。好ましくは、モバイル機器11の一部を形成するか、または有線または無線接続によってモバイル機器11に接続することができる光学センサである。センサ13は、モバイル機器11を手で保持しながら環境を観察する着用者の動きを検出することを可能にする。例えば、着用者がモバイル機器11に接近または後退すること、着用者が機器11を上方左右に動かすこと、または加速度センサを用いて着用者とモバイル機器11との間の距離を決定することを検出することができる。
【0042】
有利には、工程a1は、少なくとも1つの画像キャプチャ要素12を用いて、ユーザの環境の少なくとも1つの画像をリアルタイムでキャプチャする工程である。
【0043】
好ましくは、工程b1において、モバイル機器11と対象との間の距離を決定することを可能にする測定ユニット14は、遠隔測定装置またはアプリケーションである。「遠隔測定装置またはアプリケーション」という用語は、光学的(例えばレーザ遠隔測定)、音響的(例えばソナー)または無線的(例えばレーダ)であるコンピュータ手段(例えば、対象の画像のキャプチャ後の距離計算に基づくアプリケーション)によって、対象の距離を測定することを可能にする装置およびアプリケーションである。
【0044】
モバイル機器11がタブレットまたはスマートフォンである場合、測定ユニット14は、例えば、アンドロイド(登録商標)およびiOS上の「Mapulator」または「EasyMeasure」などの遠隔測定アプリケーションであってもよい。「Easy measure」は、リアルタイムでおよび拡張現実で画像キャプチャ装置12を用いて、モバイル機器11と対象との間の距離を含むいくつかの距離を正確に測定することを可能にする。特定の実施形態では、測定ユニット14は、有線または無線接続によってモバイル機器11に接続されたレーザ距離計であり、その動作は以下の通りである:環境内の対象にレーザ光線を投射し、これは光線を反射し、次いで距離計が放射と受信との間の位相シフトを計算する。
【0045】
好ましくは、モバイル機器11は、LiDAR(Light Dection and Ranging)技術を備える。LiDAR技術は、光またはレーザによる検出および距離推定を可能にする。この遠隔測定技術は、そのエミッタ(モバイル機器11)に戻される光ビームの特性を分析することによって可能である。LiDARは、不可視パルスグリーンスペクトルレーザを用いて距離を測定するために光を使用する。これらのパルス(毎分数千回発生する)は、光がセンサに戻るのに必要な時間を測定する。これにより、スキャナの前方に環境の「画像」が作成される。
【0046】
有利には、測定ユニット14は、レーザ、超音波、音響測定距離計、または遠隔測定アプリケーションである。
【0047】
好ましくは、画像キャプチャ要素12および測定ユニット14は、モバイル機器11に一体化される。本明細書において「一体化される」という用語は、モバイル機器11がこれらの異なる要素を制御することを意味し、これらの要素は、モバイル機器11の本体/ケーシングの一体型部分であるか、またはモバイル機器11の外部にある(それらはモバイル機器11のケーシングの一部ではない)が、モバイル機器11の制御下でのみ動作することができる。このようにして、シミュレーションの設定が容易になる。運動センサ13は、モバイル機器11に組み込むこともできる。当然ながら、モバイル機器11に組み込まれたものとは異なる運動センサ13、画像キャプチャ要素12、および/または測定ユニット14が必要とされる場合、モバイル機器11に有線または無線接続によってそれらを接続することによって、適切な装置を使用することが可能である。
【0048】
有利には、モバイル機器11はタブレットまたはスマートフォンであり、表示周辺機器11bは前記タブレットまたは前記スマートフォンの画面である。既存のモバイル機器11の中から、このタイプのシミュレーションをサポートするのに十分な性能の機器が選択される。例えば、iPad(登録商標)タイプのタブレットが選択される。タブレットまたはスマートフォンでは、画像キャプチャ要素12および測定ユニット14は、好ましくは、機器11の後方にあり、一方、画像センサはむしろ画面の側面の前方にある。
【0049】
さらに有利には、シミュレーションは、モバイル機器11の表示周辺機器11bに表示される。
【0050】
最後に、上述の本発明による方法100の実施例は、特定の例示にすぎず、本発明を何ら限定するものではないことは言うまでもない。
【国際調査報告】