IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ コー・ヤング・テクノロジー・インコーポレーテッドの特許一覧

特許7646827携帯用3次元映像測定装置、これを用いた3次元映像測定方法及び医療映像整合システム
<図1>
  • 特許-携帯用3次元映像測定装置、これを用いた3次元映像測定方法及び医療映像整合システム 図1
  • 特許-携帯用3次元映像測定装置、これを用いた3次元映像測定方法及び医療映像整合システム 図2a
  • 特許-携帯用3次元映像測定装置、これを用いた3次元映像測定方法及び医療映像整合システム 図2b
  • 特許-携帯用3次元映像測定装置、これを用いた3次元映像測定方法及び医療映像整合システム 図3
  • 特許-携帯用3次元映像測定装置、これを用いた3次元映像測定方法及び医療映像整合システム 図4
  • 特許-携帯用3次元映像測定装置、これを用いた3次元映像測定方法及び医療映像整合システム 図5
  • 特許-携帯用3次元映像測定装置、これを用いた3次元映像測定方法及び医療映像整合システム 図6
  • 特許-携帯用3次元映像測定装置、これを用いた3次元映像測定方法及び医療映像整合システム 図7
  • 特許-携帯用3次元映像測定装置、これを用いた3次元映像測定方法及び医療映像整合システム 図8
  • 特許-携帯用3次元映像測定装置、これを用いた3次元映像測定方法及び医療映像整合システム 図9
  • 特許-携帯用3次元映像測定装置、これを用いた3次元映像測定方法及び医療映像整合システム 図10
  • 特許-携帯用3次元映像測定装置、これを用いた3次元映像測定方法及び医療映像整合システム 図11
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2025-03-07
(45)【発行日】2025-03-17
(54)【発明の名称】携帯用3次元映像測定装置、これを用いた3次元映像測定方法及び医療映像整合システム
(51)【国際特許分類】
   G01B 11/25 20060101AFI20250310BHJP
【FI】
G01B11/25 H
【請求項の数】 10
(21)【出願番号】P 2023522556
(86)(22)【出願日】2021-10-13
(65)【公表番号】
(43)【公表日】2023-10-27
(86)【国際出願番号】 KR2021014106
(87)【国際公開番号】W WO2022080853
(87)【国際公開日】2022-04-21
【審査請求日】2023-04-12
(31)【優先権主張番号】10-2020-0131843
(32)【優先日】2020-10-13
(33)【優先権主張国・地域又は機関】KR
(73)【特許権者】
【識別番号】506414749
【氏名又は名称】コー・ヤング・テクノロジー・インコーポレーテッド
(74)【代理人】
【識別番号】110001519
【氏名又は名称】弁理士法人太陽国際特許事務所
(72)【発明者】
【氏名】チョン、ムン ヨン
(72)【発明者】
【氏名】リュ、ソン ヨル
【審査官】仲野 一秀
(56)【参考文献】
【文献】特表2012-530267(JP,A)
【文献】特開2010-54320(JP,A)
【文献】特開2001-238894(JP,A)
【文献】中国特許出願公開第110720986(CN,A)
(58)【調査した分野】(Int.Cl.,DB名)
G01B 11/00-11/30
A61C 19/04
(57)【特許請求の範囲】
【請求項1】
携帯用3次元映像測定装置において、
パターン光を出力するように構成された光源と、
前記パターン光が対象体から反射して生成された反射光を受信し、パターンが反映された前記対象体のライトフィールド画像を生成するように構成されたライトフィールドカメラと、
前記光源から出力された前記パターン光が前記対象体に照射されるように前記パターン光を反射させて、前記対象体から反射した前記反射光が前記ライトフィールドカメラに到達するように前記反射光を透過させる光路制御要素と、
通信回路と、
プロセッサと、を含み、
前記対象体のライトフィールド画像は、前記反射光の色情報及び方向情報を含む複数のサブ画像が結合された画像であり、
前記光源から出力されて前記対象体に照射される前記パターン光の光路、及び前記対象体から反射して前記ライトフィールドカメラに到達する前記反射光の光路は、前記光路制御要素と前記対象体との間の区間で同軸をなして重畳し、
前記プロセッサは、
前記ライトフィールドカメラを介して取得した前記対象体のライトフィールド画像に含まれた前記複数のサブ画像を用いて、前記対象体の表面を構成する複数の点それぞれにおける反射光の強さを測定し、
前記測定した反射光の強さに基づいて位相データを生成し、
前記生成した位相データに基づいて、前記複数の点それぞれの高さを計算することによって、前記対象体の表面に対する3次元画像を生成し、
前記通信回路を介して前記対象体の表面に対する3次元画像を外部電子装置に伝送するように構成され、
前記対象体の表面に対する3次元画像は、前記対象体に対する医療画像との整合のために用いられる画像であり、前記対象体に対する医療画像は、前記対象体に対するCT画像またはMRI画像のうちの1つである、携帯用3次元映像測定装置。
【請求項2】
前記携帯用3次元映像測定装置の所定の位置から移動可能に設けられるマーカーをさらに含み、
前記プロセッサは、
前記所定の位置から前記マーカーの変位を示す情報を前記外部電子装置に伝送するように構成された、請求項1に記載の携帯用3次元映像測定装置。
【請求項3】
前記光源及び前記ライトフィールドカメラは
前記光路制御要素を基準に互いに垂直方向に配置される、
請求項1に記載の携帯用3次元映像測定装置。
【請求項4】
前記ライトフィールドカメラは、
複数のマイクロレンズが配列されたレンズアレイと、
前記レンズアレイを通過した前記反射光をキャプチャーする画像センサとを含む、請求項1に記載の携帯用3次元映像測定装置。
【請求項5】
前記光源は、
複数のパターンが形成されたパターン部と、
前記パターン部に光を照射するLEDとを含む、請求項1に記載の携帯用3次元映像測定装置。
【請求項6】
前記LEDが出力する光は赤外線光である、請求項5に記載の携帯用3次元映像測定装置。
【請求項7】
前記光路制御要素は半透過鏡である、請求項1に記載の携帯用3次元映像測定装置。
【請求項8】
内部に前記光源、前記ライトフィールドカメラ及び前記光路制御要素が配置される第1ハウジングと、
前記第1ハウジングに結合され、前記光源から出力された前記パターン光が前記対象体に照射されるように開口が形成された第2ハウジングとをさらに含む、請求項1に記載の携帯用3次元映像測定装置。
【請求項9】
前記第2ハウジングは、前記第1ハウジングに対して回転可能に結合された、請求項8に記載の携帯用3次元映像測定装置。
【請求項10】
携帯用3次元映像測定装置の3次元映像の測定方法において、
光源によって出力されたパターン光を光路制御要素を介して対象体に照射する動作と、
ライトフィールドカメラによって前記パターン光が前記対象体から反射して生成された反射光を前記光路制御要素を介して受信し、パターンが反映された前記対象体のライトフィールド画像を生成する動作と、
前記対象体のライトフィールド画像に含まれた複数のサブ画像を用いて、前記対象体の表面を構成する複数の点それぞれにおける反射光の強さを測定し、前記測定した反射光の強さに基づいて位相データを生成し、前記生成した位相データに基づいて、前記複数の点それぞれの高さを計算することによって、前記対象体の表面に対する3次元画像を生成する動作と、
前記対象体の表面に対する3次元画像を外部電子装置に伝送する動作と、を含み、
前記対象体のライトフィールド画像は、前記反射光の色情報及び方向情報を含む前記複数のサブ画像が結合された画像であり、
前記光源から出力されて前記対象体に照射される前記パターン光の光路及び前記対象体から反射して前記ライトフィールドカメラに到達する前記反射光の光路は、前記光路制御要素と前記対象体との間の区間で同軸をなして重畳し、
前記対象体の表面に対する3次元画像は、前記対象体に対する医療画像との整合のために用いられる画像であり、前記対象体に対する医療画像は、前記対象体に対するCT画像またはMRI画像のうちの1つである、3次元映像測定方法。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は携帯用3次元映像測定装置に関するものである。詳しくは携帯性を有する3次元映像測定装置を提供し、測定しようとする対象体に対する精密な3次元測定を行う方法に関するものである。また、携帯用3次元映像測定装置を含む医療映像整合システムに関するものである。
【0002】
本開示は、WC300プロジェクト技術開発支援の一環として行った研究から導き出されたものである[課題固有番号:S2482672、研究課題名:整合精度1mm以下の手術用ナビゲーション融合頭頸部手術ロボットシステムの開発]。
【背景技術】
【0003】
対象体の3次元映像を測定するための多様な方法が産業現場で活用されているが、その中には対象体に一定のパターン光を照射して発生するパターンを測定し、これから対象体の3次元映像を取得する方法が活用されている。例えば、対象体にパターン光を照射して発生するモワレ模様を測定し、これから対象体の3次元映像を取得するモワレ方式の3次元映像測定技術がある。
【0004】
近頃、手術用ナビゲーション(surgical navigation)技術が医師の外科手術をサポートするために活用されているが、一般的な手術用ナビゲーション技術は、手術用器具上にマーカー(marker)を配置し、患者の医療画像(例:CT画像、MRI画像)の上に手術用器具の位置及び姿勢情報を表示する形態で情報を提供する。前記手術用ナビゲーションシステムでは、患者の特定の患部に対する3次元映像情報を取得及び処理する必要があるので、3次元映像を測定する技術が活用され得る。
【発明の概要】
【発明が解決しようとする課題】
【0005】
ステレオ(stereo)カメラを用いる3次元映像測定装置の場合、固定パターンを用いた三角測量方式を通じて対象体に対する3次元映像を測定することができる。三角測量方式は他の位置で撮影された2つ以上の映像を用いて対象体に対する3次元映像を測定する方法である。例えば、対象体にパターン光を照射して、他の位置に配置された2台以上のカメラを用いてパターン光が照射された対象体に対する画像を取得し、取得した画像を用いて対象体に対する3次元映像を取得することができる。前記の3次元映像測定装置の場合、三角測量方式を用いるために、2台以上のカメラを含まなければならない。前記の3次元映像測定装置の場合、2台以上のカメラと異なる位置からパターン光を照射する光源を含まなければならない。
【0006】
共焦点(chromatic confocal)センサを用いる3次元映像測定装置の場合、レンズの色収差を用いて対象体の深度を測定し、対象体に対する3次元映像を測定することができる。共焦点センサを用いる3次元映像の場合、対象体に対する3次元映像を取得するために、対象体の側面へのスキャニングを行わなければならない。
【課題を解決するための手段】
【0007】
本開示の多様な実施例による携帯用3次元映像測定装置は、パターン光を出力するように構成された光源、前記パターン光が対象体から反射して生成された反射光を受信して前記対象体のライトフィールド画像(light field image)を生成するように構成されたカメラ、及び前記光源から出力された前記パターン光が前記対象体に照射されるように前記パターン光を反射させて、前記対象体から反射した前記反射光が前記カメラに到達するように前記反射光を透過させる光路制御要素を含み、前記光源から出力されて前記対象体に照射される前記パターン光の光路及び前記対象体から反射して前記カメラに到達する前記反射光の光路は、前記光路制御要素と前記対象体との間の区間で同軸をなして重畳され得る。
【0008】
本開示の多様な実施例による医療映像整合システムは、パターン光を出力するように構成された光源、前記パターン光が対象体から反射して生成された反射光を受信して前記対象体のライトフィールド画像を生成するように構成されたカメラ、前記光源から出力された前記パターン光が前記対象体に照射されるように前記パターン光を反射させて、前記対象体から反射した前記反射光が前記カメラに到達するように前記反射光を透過させる光路制御要素、通信回路及びプロセッサを含む携帯用3次元映像測定装置;及び前記通信回路と通信可能に構成された外部電子装置を含み、前記光源から出力されて前記対象体に照射される前記パターン光の光路及び前記対象体から反射して前記カメラに到達する前記反射光の光路は、前記光路制御要素と前記対象体との間の区間で同軸をなして重畳し、前記プロセッサは、前記カメラを通して取得した前記対象体のライトフィールド画像を用いて、前記対象体の表面に対する3次元画像を生成し、前記通信回路を通して前記対象体の表面に対する3次元画像を前記外部電子装置に伝送するように構成され得る。
【0009】
本開示の多様な実施例による携帯用3次元映像測定装置の3次元映像測定方法は、光源によって出力されたパターン光を光路制御要素を介して対象体に照射する動作及びカメラによって前記パターン光が前記対象体から反射して生成された反射光を前記光路制御要素を介して受信し、前記対象体のライトフィールド画像を生成する動作を含むことができ、前記光源から出力されて前記対象体に照射される前記パターン光の光路及び前記対象体から反射して前記カメラに到達する前記反射光の光路は、前記光路制御要素と前記対象体との間の区間で同軸をなして重畳し得る。
【発明の効果】
【0010】
本開示の多様な実施例による3次元映像測定装置は、ライトフィールド画像を生成する1台のカメラを用いて対象体のライトフィールド画像を生成し、対象体のライトフィールド画像を用いて対象体の表面に対する3次元画像を生成することができる。本開示の多様な実施例による3次元映像測定装置は、1台のカメラのみを用いて具現され得るので、既存の2台以上のカメラを含んで具現されるステレオ方式の3次元映像測定装置に比べて小型化が可能である。また、1台のカメラのみを用いて具現され得るので、3次元映像測定装置の生産価格を下げることができ、重さを減らして携帯性を高めることができる。
【0011】
本開示の多様な実施例によれば、小型化された3次元映像測定装置を用いて対象体を撮影する場合、使用者は3次元映像測定装置を移動させやすくなり、3次元映像測定装置の撮影の姿勢を変更しやすくなり得る。上記の場合、使用者は3次元映像測定装置を用いて対象体の多様な姿勢(例:横になった姿勢、うつ伏せの姿勢)を撮影することができる。
【0012】
本開示の多様な実施例による3次元映像測定装置は、ライトフィールド画像を生成するカメラを用いるので、一度の測定でも対象体に対する3次元画像を生成することができる。
【0013】
本開示の多様な実施例による3次元映像測定装置は、パターン光を照射する光源の光軸と対象体から反射した光を受信するカメラの光軸が一部区間で同軸を形成するので、取得される対象体のライトフィールド画像の歪み現象を最小化でき、装置を小型化して具現できる。光源の光軸とカメラの光軸が一部区間で同軸を形成する場合、光源から照射されるパターン光の傾きによりライトフィールド画像が歪む現象が発生しないことができる。
【0014】
本開示の多様な実施例による3次元映像測定装置は、パターン光を照射する光源の光軸と、対象体から反射した光を受信するカメラの光軸が一部区間で同軸を形成するので、パターン光が対象体に均一に照射され得、光量の損失を最小化することができる。
【図面の簡単な説明】
【0015】
図1】本開示の多様な実施例による医療映像整合システムを示したブロック図である。
図2a】多様な実施例による携帯用3次元映像測定装置の断面図である。
図2b】多様な実施例による携帯用3次元映像測定装置の断面図である。
図3】多様な実施例による携帯用3次元映像測定装置の断面図である。
図4】本開示の多様な実施例による医療映像整合システムの動作フローチャートである。
図5】本開示の多様な実施例による医療映像整合システムの動作フローチャートである。
図6】本開示の多様な実施例による携帯用3次元映像測定装置の動作フローチャートである。
図7】本開示の多様な実施例による医療映像整合システムが用いられる例示を示した図面である。
図8】本開示の多様な実施例によるカメラの構造を説明するための図面である。
図9】本開示の多様な実施例によるカメラのレンズアレイを説明するための図面である。
図10】本開示の多様な実施例によるカメラによって取得されたライトフィールド画像に含まれた複数のサブ画像の被写体深度が異なって形成される過程を示した図面である。
図11】本開示の多様な実施例による互いに異なる被写体深度を有する複数のサブ画像を含むライトフィールド画像を説明するための図面である。
【発明を実施するための形態】
【0016】
本開示の実施例は本開示の技術的思想を説明するための目的で例示されたものである。本開示による権利範囲が以下に提示される実施例やこれら実施例に関する具体的説明により限定されるものではない。
【0017】
本開示に用いられる全ての技術用語及び科学用語は、特に定義されない限り、本開示が属する技術分野において通常の知識を有する者に一般的に理解される意味を有する。本開示に用いられる全ての用語は、本開示をより一層明確に説明するために選択されたものであり、本開示による権利範囲を制限するために選択されたわけではない。
【0018】
本開示で用いられる「含む」、「備える」、「有する」等のような表現は、該表現が含まれる語句または文章で特に言及されない限り、他の実施例を含む可能性を内包する開放型用語(open-ended terms)であると理解されるべきである。
【0019】
本開示で記述された単数型の表現は、特に言及されない限り複数型の意味を含むことができ、これは請求の範囲に記載された単数型の表現にも同様に適用される。
【0020】
本開示で用いられる「第1」、「第2」等の表現は複数の構成要素を相互に区分するために用いられ、該構成要素の順序または重要度を限定するものではない。
【0021】
本開示で用いられる用語「部」は、ソフトウェア、またはFPGA(field-Programmable gate array)、ASIC(application specific integrated circuit)のようなハードウェアの構成要素を意味する。しかし、「部」はハードウェア及びソフトウェアに限定されるものではない。「部」はアドレッシングできる保存媒体にあるように構成されてもよく、1つまたはそれ以上のプロセッサ(110)を再生させるように構成されてもよい。よって、一例として、「部」はソフトウェア構成要素、オブジェクト指向のソフトウェア構成要素、クラス構成要素及びタスク構成要素のような各構成要素と、プロセッサ(110)、関数、属性、プロシージャ、サブルーチン、プログラムコードのセグメント、ドライバー、ファームウェア、マイクロコード、回路、データ、データベース、データ構造、テーブル、アレイ及び変数を含む。構成要素と「部」内で提供される機能は、さらに小さい数の構成要素及び「部」に結合されるか、追加の構成要素と「部」にさらに分離され得る。
【0022】
本開示で用いられる「~に基づいて」という表現は、該表現が含まれる語句または文章で記述される、決定、判断の行為または動作に影響を与える1つ以上の因子の記述に用いられ、この表現は決定、判断の行為または動作に影響を与える追加の因子を排除しない。
【0023】
本開示で、ある構成要素が他の構成要素に「連結されて」いる、または「接続されて」いると言及された場合、前記ある構成要素が前記他の構成要素に直接的に連結または接続され得、または、新たな他の構成要素を媒介に連結または接続され得るものとして理解されるべきである。
【0024】
以下、添付した図面を参照して本開示の実施例を説明する。添付の図面で、同一または対応する構成要素には同一の参照符号が付与されている。また、以下の実施例の説明において、同一または対応する構成要素の重複した記述は省略され得る。しかし、構成要素に関する記述が省略されても、その構成要素がある実施例に含まれないことを意図するわけではない。
【0025】
図示されたフローチャートにおいてプロセス段階、方法段階、アルゴリズムなどが逐次説明されたが、そのようなプロセス、方法及びアルゴリズムは、任意の適した順序で作動するように構成され得る。言い換えれば、本開示の多様な実施例で説明されるプロセス、方法及びアルゴリズムの各段階が、本開示で記述された順序で行われる必要はない。また、一部の段階が非同時に行われると説明されたとしても、他の実施例ではこのような一部の段階が同時に行われ得る。また、図面での描写によるプロセスの例示は、例示されたプロセスがそれに対する他の変化及び修正を除くことを意味せず、例示されたプロセスまたはその段階のうち任意のものが本開示の多様な実施例のうちの1つ以上に必須であることを意味せず、例示されたプロセスが望ましいということを意味しない。
【0026】
図1は本開示の多様な実施例による医療映像整合システム(10)を示したブロック図である。
【0027】
図1を参照すると、多様な実施例による医療映像整合システム(10)は携帯用3次元映像測定装置(100)及び外部電子装置(20)を含むことができる。携帯用3次元映像測定装置(100)及び外部電子装置(20)は互いに通信連結されて多様なデータ(例:画像)を送受信することができる。図1に示された構成のうち、一部が省略または置換されても、本文書に開示された多様な実施例を具現するにおいては支障がない。
【0028】
多様な実施例による携帯用3次元映像測定装置(100)は、プロセッサ(110)、光源(120)、カメラ(130)、光路制御要素(140)、または、通信回路(150)を含むことができる。携帯用3次元映像測定装置(100)は第1ハウジング(図示せず)及び第2ハウジング(図示せず)をさらに含むことができる。
【0029】
多様な実施例によるプロセッサ(110)は、携帯用3次元映像測定装置(100)の各構成要素の制御及び/または通信に関する演算やデータ処理を行うことができる構成であってもよい。プロセッサ(110)は、例えば、携帯用3次元映像測定装置(100)の各構成要素と作動的に連結され得る。プロセッサ(110)は携帯用3次元映像測定装置(100)の他の構成要素から受信された命令またはデータをメモリ(図示せず)にロード(load)し、メモリに保存された命令またはデータを処理して、結果データを保存することができる。
【0030】
多様な実施例による光源(120)はパターン光を出力することができる。光源(120)は対象体にパターン光を照射することができる。パターン光は対象体に対する3次元画像を測定するために特定の模様を有する光であるか、一定、または特定の周期のパターンを有する光であり得る。パターン光は、例えば、ランダムドット(random dot)形態のパターン光、チェック形態のパターン光、縞模様の明るさが正弦波形態のパターン光、明るい部分と暗い部分が繰り返し示されるオン・オフ(on-off)形態のパターン光、または、明るさの変化が三角波形態の三角波パターン光を含むことができる。ただし、これはあくまで説明のためのものであり、パターン光の形態はこれに制限されない。
【0031】
多様な実施例による光源(120)は複数のパターンが形成されたパターン部及びパターン部に光を照射するLEDを含むことができる。光源(120)はLEDから出力された光を集光させてパターン部に照射されるように構成された集光レンズ(condensing lens)をさらに含むことができる。LEDから出力された光は複数のパターンが形成されたパターン部を通過してパターンが反映され得る。LEDは、例えば、赤外線光を放出することができるが、これに制限されはしない。
【0032】
多様な実施例によるカメラ(130)は対象体の画像を撮影する構成であり得る。カメラ(130)は対象体を撮影して対象体の画像データを取得でき、前記取得した画像データを加工して対象体の3次元画像を取得できる。例えば、カメラ(130)はパターン光が照射された対象体を撮影して対象体の画像を取得できる。プロセッサ(110)はパターン光を利用した位相変移方式に基づいて対象体の3次元画像を生成できる。例えば、光源(120)を介して一定の形態のパターン光を対象体に照射した場合、対象体の表面の屈曲によって表面に現れる光の強さが変わり得る。前記の場合、カメラ(130)は、パターンが反映された対象体のライトフィールド画像を生成でき、プロセッサ(110)はそこから位相データを生成して対象体の表面を構成する各点の高さを計算することで、対象体の表面に対する3次元画像を生成できる。
【0033】
多様な実施例によるカメラ(130)は、ライトフィールド画像(light field image)を生成するライトフィールドカメラ(130)であり得る。ライトフィールドカメラ(130)は対象体を撮影した後に対象体の深度を事後的に決定して、互いに異なる対象体の深度を有する画像を組み合わせるように構成され得る。ライトフィールドカメラ(130)の画像センサは事後的かつ可変的な対象体深度を有し得る。
【0034】
多様な実施例によるカメラ(130)は、集光レンズ、レンズアレイ(lens array)及び画像センサを含むことができる。集光レンズは、例えば、対象体から入り込む光を集光することができる。レンズアレイは、例えば、複数のマイクロレンズが配列されたレンズであり得る。画像センサは、例えば、レンズアレイを通過した光をキャプチャーして、キャプチャーした光を用いてライトフィールド画像を生成することができる。画像センサは複数のマイクロレンズのそれぞれに対応する領域で区分され得る。画像センサは、例えば、CCD(charge-coupled device)センサまたはCMOS(complementary metal-oxide semiconductor)センサを含むことができる。カメラ(130)に含まれた構成要素それぞれに関する具体的な説明は図8図11で述べることにする。
【0035】
多様な実施例によるカメラ(130)で生成するライトフィールド画像は光の色情報と方向情報を共に保存する複数のサブ画像を含むことができる。例えば、対象体にパターン光が照射されて対象体から反射した反射光がカメラ(130)に受信された場合、ライトフィールド画像は反射光の色情報及び方向情報を含む複数のサブ画像が結合された画像であり得る。カメラ(130)はライトフィールド画像に含まれた複数のサブ画像を用いて再焦点(refocusing)過程を進めることができる。例えば、カメラ(130)は再焦点過程でライトフィールド画像のピクセルのうちから所望の対象体の深度、及びそれにより逆算される光路及び方向に対応するピクセルの生成情報を組み合わせて所望の深度の画像を生成できる。例えば、カメラ(130)は再焦点過程で対象体の全領域に対して焦点が合う画像を生成することもできる。カメラ(130)に正確な撮影対象領域の像を結ばせるためには、携帯用3次元映像測定装置(100)と対象体の撮影対象領域との距離が適宜調節される必要があるが、ライトフィールド画像を生成するカメラ(130)を用いる場合、対象体の深度を事後的に決定でき、対象体の全領域に対して焦点が合うライトフィールド画像を生成することができるので、事前に焦点距離を調節する必要がない。ライトフィールド画像を生成するカメラ(130)の場合、一般レンズを用いるカメラ(130)に比べて測定可能な深さの範囲(depth range)が広く、一度の撮影で対象体の3次元画像を取得できる。
【0036】
多様な実施例による光路制御要素(140)は光源(120)から出力されたパターン光が対象体に照射されるようにパターン光を特定の方向に反射させることができる。光路制御要素(140)は対象体から反射した反射光がカメラ(130)に到達するように反射光を透過させることができる。光路制御要素(140)は、例えば、半透過鏡であり得る。多様な実施例によれば、光源(120)及びカメラ(130)は光路制御要素(140)を基準に互いに垂直方向に配置され得る。
【0037】
多様な実施例による第1ハウジングは内部に光源(120)、カメラ(130)及び光路制御要素(140)が配置され得る。多様な実施例による第2ハウジングは、第1ハウジングに結合され、光源(120)から出力されたパターン光が対象体に照射されるように開口が形成され得る。第2ハウジングは第1ハウジングに対して回転可能に結合され得る。第1ハウジングまたは第2ハウジングは、携帯用3次元映像測定装置(100)が使用者にとって移動と運搬及び使用が容易になる構成(例:取っ手)が結合され得る。
【0038】
多様な実施例によれば、通信回路(150)は外部電子装置(20)と通信チャネルを設立し、外部電子装置(20)と多様なデータを送受信できる。多様な実施例によれば、通信回路(150)はセルラー通信モジュールを含みセルラーネットワーク(例:3G、LTE、5G、WibroまたはWimax)に連結されるように構成できる。多様な実施例によれば、通信回路(150)は近距離通信モジュールを含み近距離通信(例:Wi-Fi、Bluetooth(登録商標)、Bluetooth(登録商標) Low Energy(BLE)、UWB)を用いて外部電子装置(20)とデータを送受信できるが、これに制限されない。
【0039】
多様な実施例によるプロセッサ(110)はカメラ(130)を介して取得した対象体のライトフィールド画像を用いて対象体の表面に対する3次元画像を生成できる。例えば、照射されたパターン光は、対象体の撮影領域の表面の屈曲によって実際の撮影対象領域の表面に現れる光の強さが変わり得る。プロセッサ(110)は対象体のライトフィールド画像を用いて、対象体の表面の屈曲により変わった光の強さを測定し、これから位相データを生成して表面を構成する各点の高さを計算することができる。プロセッサ(110)は対象体の表面を構成する各点の高さを計算することによって、対象体の表面に対する3次元画像を生成することができる。
【0040】
多様な実施例によるプロセッサ(110)は通信回路(150)を介して対象体の表面に対する3次元画像を外部電子装置(20)に伝送することができる。
【0041】
多様な実施例による外部電子装置(20)はコントローラ(21)、結像装置(23)、ストレージ(25)及び通信回路(27)を含むことができる。多様な実施例によるコントローラ(21)は外部電子装置(20)の各構成要素の制御及び/または通信に関する演算やデータ処理を行える構成であり得る。コントローラ(21)は、例えば、外部電子装置(20)の各構成要素と作動的に連結され得る。
【0042】
多様な実施例による結像装置(23)は、携帯用3次元映像測定装置(100)に付着されたマーカー(図示せず)のパターン面の少なくとも一部を撮像してパターン面の少なくとも一部に対するパターン画像を結像することができる。結像装置(23)は、例えば、マーカーの少なくとも一部に対する画像の結像が可能で、少なくとも2台以上のカメラを含むことができる。外部電子装置(20)は結像されたパターン画像を用いてマーカーまたはマーカーが付着された携帯用3次元映像測定装置(100)の位置及び/または姿勢を決定することができる。
【0043】
例えば、外部電子装置(20)はマーカーのパターン画像が取得される場合、パターン画像からマーカーのパターンを構成する基本単位として、サブパターンのうち少なくとも1つが抽出され得る。抽出された少なくとも1つのサブパターンの全体のパターン内における位置が決定され、決定されたサブパターンの全体のパターン内の位置に基づいてマーカーの姿勢が決定され得る。ここで、マーカーの姿勢は、マーカーの結像装置(23)に対する相対的な3次元的方向ないし方位を意味し得る。例えば、マーカーまたは携帯用3次元映像測定装置(100)の位置は、少なくとも2台以上のカメラを含む結像装置(23)によって結像された画像のうち、ステレオスコピック関係を有する2つの画像に基づいた三角法(triangulation)を用いて決定され得る。前記のようにマーカーの位置及び姿勢が決定されると、マーカーと前記マーカーが付着された携帯用3次元映像測定装置(100)との間の幾何学的関係に基づいて、マーカーが付着された携帯用3次元映像測定装置(100)の位置及び姿勢が決定され得る。
【0044】
多様な実施例によるストレージ(25)は外部電子装置(20)の少なくとも1つの構成要素(例:コントローラ(21))によって用いられる多様なデータを保存することができる。例えば、ストレージ(25)は、コントローラ(21)により、携帯用3次元映像測定装置(100)から受信した対象体の表面に対する3次元画像を保存することができる。例えば、ストレージ(25)は、コントローラ(21)により、医療装置(図示せず)から受信した医療画像(例:CT画像、MRI画像)を保存することができる。
【0045】
多様な実施例による外部電子装置(20)の通信回路(27)は携帯用3次元映像測定装置(100)と通信チャネルを設立して、携帯用3次元映像測定装置(100)と多様なデータを送受信することができる。多様な実施例によれば、外部電子装置(20)の通信回路(27)はセルラー通信モジュールを含みセルラーネットワーク(例:3G、LTE、5G、WibroまたはWimax)に連結されるように構成できる。多様な実施例によれば、外部電子装置(20)の通信回路(27)は近距離通信モジュールを含み近距離通信(例:Wi-Fi、Bluetooth(登録商標)、Bluetooth(登録商標) Low Energy(BLE)、UWB)を用いて携帯用3次元映像測定装置(100)とデータを送受信できるが、これに制限されない。
【0046】
多様な実施例による外部電子装置(20)のコントローラ(21)は携帯用3次元映像測定装置(100)から受信した対象体の表面に対する3次元画像と、対象体に対する医療画像間の映像整合を行うことができる。携帯用3次元映像測定装置(100)が生成した対象体の表面に対する3次元画像は、先に医療画像に含まれたターゲットの外部の表面またはその一部であり得る。例えば、医療画像が対象体の頭の3次元形状をモデリングした画像である場合、対象体の表面に対する3次元画像は対象体の頭の表面にある目、鼻、口、耳などの外部形状を測定した画像であり得る。
【0047】
多様な実施例によれば、対象体の表面に対する3次元画像は、携帯用3次元映像測定装置(100)に関する固有座標系(例えば、x1y1z1座標系)を有し得る。対象体の表面に対する3次元画像の座標系は、医療画像の座標系(例えば、x2y2z2)と異なり得、外部電子装置(20)の座標系(例えば、x0y0z0)と異なり得る。外部電子装置(20)の座標系は、例えば、外部電子装置(20)の結像装置の座標系を意味し得る。具体的な映像整合方法は以下の図4で説明することにする。
【0048】
図2a及び図2bは多様な実施例による携帯用3次元映像測定装置(100)の断面図である。具体的に図2a及び図2bは携帯用3次元映像測定装置(100)の構成要素を、配置関係を説明するために一部構成要素のみを概略的に示した図面である。図1で説明した内容と重複する内容は省略する。
【0049】
図2aを参照すると、多様な実施例による携帯用3次元映像測定装置(100)は光源(120)、カメラ(130)及び光路制御要素(140)を含むことができる。携帯用3次元映像測定装置(100)は、内部に光源(120)、カメラ(130)及び光路制御要素(140)が配置される第1ハウジング(210)及び第1ハウジング(210)に結合され、光源(120)から出力されたパターン光が対象体(0)に照射されるように開口(225)が形成された第2ハウジング(220)を含むことができる。多様な実施例による光源(120)及びカメラ(130)は、光路制御要素(140)を基準に互いに垂直方向に配置され得る。多様な実施例によれば、光を集光させるための少なくとも1つの集光レンズ(231、235)が光路制御要素(140)周辺に配置され得る。
【0050】
多様な実施例による光源(120)は複数のパターンが形成されたパターン部(123)、パターン部(123)に光を照射するLED(121)を含むことができる。光源(120)はパターン部(123)及びLED(121)の間に、LED(121)から出力された光を集光させてパターン部(123)に照射されるように構成された集光レンズ(125)をさらに含むことができる。LED(121)から出力された光はパターン部(123)を通過してパターンが反映され得る。多様な実施例によれば、光源(120)から出力されたパターン光は光路制御要素(140)に入射し得る。光路制御要素(140)に入射されたパターン光は対象体(0)に照射されるように第2ハウジング(220)方向に反射され得る。第2ハウジング(220)内部に入射したパターン光は、反射鏡(240)により反射して第2ハウジング(220)の開口(225)を介して対象体(0)に照射され得る。
【0051】
多様な実施例によれば、対象体(0)に照射されたパターン光は対象体(0)によって反射され得る。対象体(0)から反射した反射光は再び開口(225)を介して第2ハウジング(220)内部に入射され得る。前記反射光は反射鏡(240)により反射して光路制御要素(140)に入射し得る。光路制御要素(140)に入射された反射光は光路制御要素(140)を通過してカメラ(130)に到達することができる。光路制御要素(140)を通過した反射光は集光レンズ(137)を通過して、複数のマイクロレンズが配列されたレンズアレイ(135)を通過し得る。画像センサ(131)はレンズアレイ(135)を通過した反射光をキャプチャーすることができる。画像センサ(131)は反射光をキャプチャーして、対象体(0)のライトフィールド画像を生成することができる。前記対象体(0)のライトフィールド画像は対象体(0)に照射されたパターンに関する画像であり得る。プロセッサ(110)は対象体(0)のライトフィールド画像を用いて対象体(0)の表面に対する3次元画像を生成でき、通信回路(150)を介して対象体(0)の表面に対する3次元画像を外部電子装置(20)に伝送することができる。
【0052】
多様な実施例によれば、光源(120)から出力されて対象体(0)に照射されるパターン光の光路(250)及び対象体(0)から反射してカメラ(130)に到達する反射光の光路(260)は、光路制御要素(140)と対象体(0)との間の区間で同軸をなして重畳できる。対象体(0)に照射されるパターン光の光路(250)と、対象体(0)から反射した反射光の光路(260)が同軸をなす場合、携帯用3次元映像測定装置(100)の小型化が可能であり、対象体(0)に対する正確な画像を取得することができる。例えば、対象体(0)に照射されるパターン光の光路(250)と、対象体(0)から反射した反射光の光路(260)が同軸をなさない場合、パターン光が斜めに対象体(0)に照射されるか、対象体(0)から反射した反射光がカメラ(130)に斜めに到達し得る。斜めに照射されたパターン光によって対象体(0)に形成されたパターンは、垂直に照射されたパターン光によって、対象体(0)に形成されたパターンに比べて歪んだ形状を有し得る。前記の場合、対象体(0)に対する歪んだ画像が取得され得る。一方、対象体(0)に照射されるパターン光の光路(250)と対象体(0)から反射した反射光の光路(260)が同軸をなす場合、使用者は3次元映像測定装置(100)を用いて対象体(0)に対する歪みのない正確な画像を取得することができる。
【0053】
多様な実施例によれば、携帯用3次元映像測定装置(100)が対象体(0)に照射されるパターン光の光路(250)と対象体(0)から反射した反射光の光路(260)が同軸をなす場合、対象体(0)の撮影が容易になり得る。小型化された3次元映像測定装置(100)を用いて対象体(0)を撮影する場合、使用者は3次元映像測定装置を移動しやすくなり、3次元映像測定装置の撮影の姿勢を変更しやすくなり得る。前記の場合、使用者は3次元映像測定装置(100)を用いて対象体の多様な姿勢(例:横になった姿勢、うつ伏せの姿勢)を撮影することができる。
【0054】
多様な実施例によれば、携帯用3次元映像測定装置(100)が対象体(0)に照射されるパターン光の光路(250)と、対象体(0)から反射した反射光の光路(260)が同軸をなす場合、2台以上のカメラを用いた三角測量方式を通じて対象体に対する画像を取得するのではなく、1台のカメラ(130)を用いて対象体に対する画像を取得できるため、既存の2台以上のカメラを含んで具現されるステレオ方式の3次元映像測定装置に比べて小型化が可能であり、生産価格を下げられ、重さを減らして携帯性を高めることができる。
【0055】
多様な実施例による3次元映像測定装置(100)は、対象体(0)に照射されるパターン光の光路(250)と対象体(0)から反射した反射光の光路(260)が同軸をなすため、パターン光が対象体(0)に均一に照射され得、光量の損失を最小化することができる。
【0056】
図2bを参照すると、多様な実施例による携帯用3次元映像測定装置(100)は、図2aに示された別途の反射鏡(240)を含まないことができる。前記の場合、光路制御要素(140)から反射したパターン光は、追加の反射なしで前記パターン光の光路(250)上に形成された開口(225)を介して対象体(0)に照射され得る。携帯用3次元映像測定装置(100)は、図2a及び図2bに示された構造以外にも、対象体(0)に照射されるパターン光の光路(250)と、対象体から反射した反射光の光路(260)が同軸をなし得る多様な構造が適用され得る。
【0057】
図3は多様な実施例による携帯用3次元映像測定装置(100)の断面図である。具体的に、図3は携帯用3次元映像測定装置(100)の構成要素を、配置関係を説明するために一部構成要素のみを概略的に示した図面である。図2で説明した内容と重複する内容は省略する。
【0058】
多様な実施例による携帯用3次元映像測定装置(100)はマーカー(310)をさらに含むことができる。例えば、マーカー(310)は携帯用3次元映像測定装置(100)の第1ハウジング(210)に付着され得る。マーカー(310)はパターンが形成されたパターン面及びマーカー(310)の外部から見た方向によって固有に現れるパターンの、少なくとも一部がマーカー(310)の外部から識別可能なように構成されたレンズを含むことができる。マーカー(310)のレンズはボールレンズ(ball lens)であってもよく、パターン面は曲面形状を有してもよい。
【0059】
多様な実施例による外部電子装置(20)は結像装置(23)を介してマーカー(310)のパターン面の少なくとも一部を撮像し、パターン面の少なくとも一部に対するパターン画像を結像することができる。外部電子装置(20)は結像したパターン画像に基づいて、マーカー(310)が付着された携帯用3次元映像測定装置(100)の位置(locationまたはcoordinate)及び姿勢(postureまたはorientation)を決定することができる。携帯用3次元映像測定装置(100)の位置は、直交座標系のx、y、z軸上での座標のような空間座標で定義され得る。携帯用3次元映像測定装置(100)の姿勢は、ロール(roll)、ピッチ(pitch)、ヨー(yaw)で定義され得る。外部電子装置(20)は結像装置(23)を介して携帯用3次元映像測定装置(100)に付着されたマーカー(310)を撮像することにより、携帯用3次元映像測定装置(100)の位置及び姿勢をトラッキング(tracking)することができる。
【0060】
例えば、外部電子装置(20)は結像装置(23)を介して、携帯用3次元映像測定装置(100)に付着されたマーカー(310)のパターン面の少なくとも一部に対する画像を結像することができる。例えば、外部電子装置(20)の結像装置(23)は、マーカー(310)のボールレンズを介してマーカー(310)の外部から視覚的に識別されるパターンの少なくとも一部に対するパターン画像を結像することができる。パターン面の少なくとも一部に対するパターン画像が取得されれば、外部電子装置(20)はパターン面の少なくとも一部に対するパターン画像から抽出された情報を処理してマーカー(310)の位置及び姿勢を決定することができる。外部電子装置(20)はマーカー(310)の位置及び姿勢に基づいてマーカー(310)が付着された携帯用3次元映像測定装置(100)の位置及び姿勢を決定することができる。パターン面の少なくとも一部に対する画像を用いてマーカー(310)の位置及び姿勢を計算する具体的な方法は、一般的なオプティカルトラッキング方法と同一であってもよい。
【0061】
多様な実施例によるマーカー(310)は、携帯用3次元映像測定装置(100)の所定の位置から移動可能に設けられ得る。プロセッサ(110)は、通信回路(150)を介して、携帯用3次元映像測定装置(100)の前記所定の位置からマーカー(310)の変位を示す情報を外部電子装置(20)に伝送することができる。外部電子装置(20)はマーカー(310)の変位を示す情報を受信し、受信したマーカー(310)の変位を示す情報に基づいて携帯用3次元映像測定装置(100)の位置または姿勢を補正することができる。補正された携帯用3次元映像測定装置(100)の位置または姿勢に関する情報は対象体(0)の表面に対する3次元画像と医療画像間の映像整合に用いられ得る。
【0062】
対象体(0)の表面に対する3次元画像は携帯用3次元映像測定装置(100)に関する固有座標系(例えば、x1y1z1座標系)を有することができる。対象体(0)の表面に対する3次元画像の座標系は、医療画像の座標系(例えば、x2y2z2)と異なり得、外部電子装置(20)の座標系(例えば、x0y0z0)と異なり得る。
【0063】
多様な実施例による医療映像整合システム(10)は、医療画像の座標系(例えば、x2y2z2)と対象体(0)の表面に対する3次元画像の座標系(例えば、x1y1z1)を外部電子装置(20)の座標系(例えば、x0y0z0)に変換ないし整列することができる。外部電子装置(20)は座標系が互いに異なる医療画像と対象体(0)の表面に対する3次元画像の整合を行うことができる。医療画像と対象体(0)の表面に対する3次元画像の整合を行うために、外部電子装置(20)は医療画像から表面画像を抽出し、前記抽出した表面画像と受信した対象体(0)の表面に対する3次元画像間の整合を行うことができる。ここでの医療画像から抽出した表面画像は、医療画像の座標系(例えば、x2y2z2)と同一になり得る。また、外部電子装置(20)は、携帯用3次元映像測定装置(100)に付着されたマーカー(310)を媒介として、対象体(0)の表面に対する3次元画像の座標系(例えば、x1y1z1)を外部電子装置(20)の座標系(例えば、x0y0z0)に変換することができる。また、医療画像及び医療画像から抽出された表面画像も外部電子装置(20)の座標系(例えば、x0y0z0)に変換することができる。外部電子装置(20)は、多様な映像整合アルゴリズムを用いて、対象体(0)の表面に対する3次元画像と医療画像との間の整合を行うことができる。例えば、外部電子装置(20)はICP(interactive closest point)アルゴリズムを用いて整合を行うことができる。
【0064】
多様な実施例による携帯用3次元映像測定装置(100)はベアリング(320)及びセンサ(330)をさらに含むことができる。多様な実施例による第2ハウジング(220)は第1ハウジング(210)に対して回転可能に結合され得る。ベアリング(320)は第2ハウジング(220)が第1ハウジング(210)に対して回転可能に結合するための機械要素であり得る。第2ハウジング(220)は、ベアリング(320)の中心軸を基準に回転でき、第1ハウジング(210)とは無関係に回転することができる。センサ(330)は第2ハウジング(220)が第1ハウジング(210)に対して回転した角度をセンシングするセンサであり得る。センサ(330)は、例えば、ジャイロセンサ、エンコーダ(encoder)であってもよい。多様な実施例によるプロセッサ(110)は、通信回路(150)を介して第2ハウジング(220)が第1ハウジング(210)に対して回転した角度に関する情報を外部電子装置(20)に伝送することができる。
【0065】
図4は本開示の多様な実施例による医療映像整合システム(10)の動作フローチャートである。
【0066】
動作フローチャート400を参照すると、多様な実施例による外部電子装置(20)は、動作401において、医療装置から対象体の医療画像を受信して保存することができる。医療画像は、例えば、CT画像、MRI画像であってもよい。
【0067】
多様な実施例による携帯用3次元映像測定装置(100)は、動作403で、対象体にパターン光を照射することができる。例えば、携帯用3次元映像測定装置(100)は光源(120)を介してパターン光を出力することができる。光源(120)を介して出力されたパターン光は光路制御要素(140)により反射して対象体に照射され得る。
【0068】
多様な実施例による携帯用3次元映像測定装置(100)は、動作405において、対象体から反射した反射光を受信して対象体のライトフィールド画像を生成することができる。例えば、対象体から反射した反射光は光路制御要素(140)を介してカメラ(130)に到達することができる。カメラ(130)は反射光を受信して対象体のライトフィールド画像を生成することができる。
【0069】
多様な実施例による携帯用3次元映像測定装置(100)は、動作407において、対象体のライトフィールド画像を用いて対象体の表面に対する3次元画像を生成することができる。例えば、プロセッサ(110)は対象体のライトフィールド画像に含まれたパターン光の光の強さを測定して、測定したパターン光の光の強さに基づいて位相データを生成することができる。プロセッサ(110)は生成した位相データに基づいて対象体の表面を構成する各点の高さを計算することによって、対象体の表面に対する3次元画像を生成することができる。
【0070】
多様な実施例による携帯用3次元映像測定装置(100)は、動作409において、対象体の表面に対する3次元画像を外部電子装置(20)に伝送することができる。例えば、携帯用3次元映像測定装置(100)のプロセッサ(110)は、通信回路(150)を介して、対象体の表面に対する3次元画像を外部電子装置(20)に伝送することができる。
【0071】
多様な実施例による外部電子装置(20)は、動作411において、携帯用3次元測定装置から受信した対象体の表面に対する3次元画像と、既に保存済みの対象体の医療画像間の映像整合を行うことができる。
【0072】
図5は本開示の多様な実施例による医療映像整合システムの動作フローチャートである。図4で説明した内容と重複する内容は省略する。
【0073】
動作フローチャート500を参照すると、多様な実施例による外部電子装置(20)は、動作501において、医療装置から対象体の医療画像を受信して保存することができる。
【0074】
多様な実施例による携帯用3次元映像測定装置(100)は、動作503において、対象体にパターン光を照射することができる。
【0075】
多様な実施例による携帯用3次元映像測定装置(100)は、動作505において、対象体から反射した反射光を受信して対象体のライトフィールド画像を生成することができる。
【0076】
多様な実施例による携帯用3次元映像測定装置(100)は、動作507において、対象体のライトフィールド画像を用いて対象体の表面に対する3次元画像を生成することができる。
【0077】
多様な実施例による携帯用3次元映像測定装置(100)は、動作509において、対象体の表面に対する3次元画像を外部電子装置(20)に伝送することができる。
【0078】
多様な実施例による外部電子装置(20)は、動作511において、携帯用3次元映像測定装置(100)に付着されたマーカー(310)のパターン面の少なくとも一部の画像を結像することができる。例えば、外部電子装置(20)は、結像装置を介して、マーカー(310)のパターン面の少なくとも一部のパターン画像を結像することができる。
【0079】
多様な実施例による外部電子装置(20)は、動作513で、結像したパターン画像に基づいて、マーカー(310)が付着された携帯用3次元映像測定装置(100)の位置及び姿勢を決定することができる。例えば、外部電子装置(20)は、パターン面の少なくとも一部に対するパターン画像から抽出された情報を処理して、マーカー(310)の位置及び姿勢を決定することができる。外部電子装置(20)はマーカー(310)の位置及び姿勢に基づいて、マーカー(310)が付着された携帯用3次元映像測定装置(100)の位置及び姿勢を決定することができる。
【0080】
多様な実施例による外部電子装置(20)は、動作515において、対象体の表面に対する3次元画像と対象体の医療画像との間の映像整合を行うことができる。例えば、外部電子装置(20)は携帯用3次元映像測定装置(100)に付着されたマーカー(310)を媒介として、対象体の表面に対する3次元画像の座標系を外部電子装置(20)の座標系に変換することができる。外部電子装置(20)は医療画像の座標系を外部電子装置(20)の座標系に変換することができる。座標系の変換を完了した後、外部電子装置(20)は対象体の表面に対する3次元画像と対象体の医療画像間の映像整合を行うことができる。
【0081】
図6は本開示の多様な実施例による携帯用3次元映像測定装置(100)の動作フローチャートである。
【0082】
動作フローチャート600を参照すると、多様な実施例による携帯用3次元映像測定装置(100)は、動作610において、光源(120)により出力されたパターン光を対象体に照射することができる。例えば、携帯用3次元映像測定装置(100)は光源(120)を介してパターン光を出力することができる。出力されたパターン光は光路制御要素(140)により反射して対象体に照射されることができる。
【0083】
多様な実施例による携帯用3次元映像測定装置(100)は、動作620において、パターン光が対象体から反射して生成された反射光を受信することができる。例えば、対象体に照射されたパターン光は、対象体によって反射して再び携帯用3次元映像測定装置(100)に入射され得る。反射光は光路制御要素(140)を通過してカメラ(130)に到達することができる。
【0084】
多様な実施例による携帯用3次元映像測定装置(100)は、動作630において、カメラ(130)を介して反射光を受信し、対象体のライトフィールド画像を生成することができる。多様な実施例による携帯用3次元映像測定装置(100)は、動作640において、対象体のライトフィールド画像に基づいて、対象体の表面に対する3次元画像を生成することができる。多様な実施例による携帯用3次元映像測定装置(100)は、動作650において、対象体の表面に対する3次元画像を外部電子装置に伝送することができる。
【0085】
図7は本開示の多様な実施例による医療映像整合システム(10)が用いられる例示を示した図面である。
【0086】
図7を参照すると、医師(doctor、D)は携帯用3次元映像測定装置(100)を用いて患者(patient、P)の表面に対する3次元画像を取得することができる。例えば、医師(D)は携帯用3次元映像測定装置(100)を用いて患者(P)の表面にパターン光を照射することができる。照射されたパターン光によって、患者(P)の表面にはパターン(710)が形成され得る。携帯用3次元映像測定装置(100)は患者(P)から反射した反射光を受信して患者(P)のライトフィールド画像を生成することができる。患者(P)のライトフィールド画像は、例えば、照射されたパターン(710)に関する複数のサブ画像が結合された画像であり得る。携帯用3次元映像測定装置(100)は患者(P)のライトフィールド画像を用いて患者(P)の表面に対する3次元画像を生成することができる。携帯用3次元映像測定装置(100)は生成した患者(P)の表面に対する3次元画像を外部電子装置(20)に伝送することができる。
【0087】
多様な実施例による外部電子装置(20)は、結像装置を介して携帯用3次元映像測定装置(100)に付着されたマーカー(310)のパターン面の少なくとも一部を撮像してパターン面の少なくとも一部に対するパターン画像を結像することができる。外部電子装置(20)は結像したパターン画像に基づいてマーカー(310)が付着された携帯用3次元映像測定装置(100)の位置及び姿勢を決定することができる。
【0088】
多様な実施例による外部電子装置(20)は患者(P)の表面に対する3次元画像の座標系を外部電子装置(20)の座標系に変換ないし整列することができる。例えば、外部電子装置(20)はマーカー(310)を介して決定した携帯用3次元映像測定装置(100)の位置及び姿勢に基づいて、患者(P)の表面に対する3次元画像の座標系を外部電子装置(20)の座標系に変換することができる。
【0089】
多様な実施例による外部電子装置(20)は医療装置から受信した患者(P)の医療画像の座標系を外部電子装置(20)の座標系に変換ないし整列することができる。多様な実施例による外部電子装置(20)は患者(P)の表面に対する3次元画像と患者(P)の医療画像間の座標系を互いに統一することによって映像整合を行うことができる。
【0090】
図8は本開示の多様な実施例によるカメラ(130)の構造を説明するための図面である。
【0091】
図8を参照すると、カメラ(130)は対象体(810)から順に配置される、集光レンズ(137)、レンズアレイ(135)、及び画像センサ(131)を含むことができる。カメラ(130)はライトフィールド画像を取得するための1つの配置構造として、例示的なものであり、ライトフィールド画像を取得するために示された構造と異なる構造が適用され得るのは当然のことである。
【0092】
多様な実施例による集光レンズ(137)は対象体(810)から反射した反射光を集光する構成であり、集光レンズ(137)は対象体(810)から反射した反射光が1つのポイントに集光されるように、1つの焦点距離を有する凸レンズになり得る。集光レンズ(137)が複数のレンズなどを用いて具現された場合には、公知の薄レンズ理論(thin lens theory)により複数のレンズを1つの薄いレンズとして定義することができる。これにより、集光レンズ(137)の直径、焦点距離及び中心はこのように定義された1つの薄いレンズの直径、焦点距離及び中心でそれぞれ示すことができる。
【0093】
多様な実施例によるレンズアレイ(135)は、集光レンズ(137)を通過して入ってくる光を分散させ、互いに異なる位置に形成される複数のポイントに集光させることができる。レンズアレイは複数のマイクロレンズで構成され得る。例えば、レンズアレイ(135)は集光レンズ(137)の焦点距離よりさらに集光レンズ(137)に近くに配置され得る。例えば、レンズアレイ(135)は集光レンズ(137)から、集光レンズ(137)の焦点距離よりさらに遠くに配置され得る。
【0094】
多様な実施例によるレンズアレイ(135)は集光レンズ(137)の焦点距離に対応する位置に配置され得る。前記の場合、集光レンズ(137)から入ってくる光の焦点は複数のマイクロレンズ(135a)の1つに形成され得る。また、画像センサ(131)はレンズアレイ(135)に含まれたそれぞれのマイクロレンズ(135a)の焦点距離に対応する位置に固定されて設けられ得る。
【0095】
多様な実施例による画像センサ(131)はレンズアレイ(135)を通過した光をセンシングすることができる。また、画像センサ(131)は複数のポイントに対応する複数のサブ画像を含むライトフィールド画像を取得することができる。画像センサ(131)は任意の物体の結像画像を取得するように構成された任意の種類の少なくとも1つの結像素子を含むことができ、画像センサ(131)は複数の画素(fixel、131a)で構成され得る。
【0096】
多様な実施例による画像センサ(131)は1回の撮影時に、例えば、写真集合体ファイルのフォーマット(format)を有するライトフィールド画像を出力することができる。写真集合体ファイルは複数のマイクロレンズの焦点に対応する位置に対象体の焦点が形成され、互いに異なる被写体の深度を有する複数のサブ画像を含むことができる。それぞれのサブ画像にはX、Y座標により光の色情報と方向情報が共に保存され得る。
【0097】
多様な実施例によるそれぞれのサブ画像は、互いに異なる被写体深度を有するが、同一の対象体を撮影することができる。それぞれのサブ画像で見られる対象体の姿は実質的に同一であり得、互いに鮮明に見える部分とぼやけて見える部分の位置で差が発生し得る。鮮明に見える部分は対応するマイクロレンズ(135a)の焦点が形成されて被写体深度を有する部分であり、ぼやけて見える部分はこれを除いた部分になり得る。
【0098】
多様な実施例によるライトフィールドカメラは対象体を撮影した後に被写体深度を事後的に決定し、互いに異なる被写体深度を有する画像を組み合わせるように構成され得る。従って、ライトフィールドカメラの画像センサは事後的かつ可変的な被写体深度を有し得る。また、ライトフィールドカメラで生成するライトフィールド画像は光の色情報と方向情報を共に保存する複数のサブ画像を含むことができる。
【0099】
他の実施例で、カメラ(130)は複数のサブ画像を用いて再焦点(refocusing)過程を進めることができる。再焦点過程でライトフィールド画像のピクセルのうちから所望の被写体深度、及びそれによって逆算される光路ないし方向に対応するピクセルの色情報を組み合わせて、所望の深度の画像を新たに抽出することができる。これを通じて、照射されたパターンが鮮明に識別可能な画像を生成することができる。
【0100】
図9は本開示の多様な実施例によるカメラ(130)のレンズアレイ(135)を説明するための図面である。
【0101】
多様な実施例によれば、レンズアレイ(135)に含まれた複数のマイクロレンズ(135a)はN個(Nは1以上の自然数)で提供され得る。即ち、N個は複数個を意味し得る。例えば、レンズアレイ(135)には各行に対してi個のマイクロレンズが配置され、各列に対してj個のマイクロレンズが配置され得る。よって、N個のマイクロレンズはi*j個の行列で構成され得る。例えば、より細かいライトフィールドを形成するために、レンズアレイ(135)は略1000*1000個のマイクロレンズが配列される形態を有することができる。マイクロレンズの配列及び個数は集光レンズ(137)及びマイクロレンズの多様な条件(例:物性、撮影環境、サブ画像の要求される解像度、または画像センサの画素数)により変わり得る。
【0102】
多様な実施例によるN個の複数のマイクロレンズは、集光レンズ(137)を通過して入ってくる光をN個のポイントに分散させることができる。図8に示された画像センサ(131)はN個のマイクロレンズが形成するN個のポイントに対応するN個の区域に区分され得る。N個のマイクロレンズそれぞれの焦点は画像センサ(131)のN個の区域に分散するように形成され得る。
【0103】
多様な実施例によれば、N個の区域でN個のサブ画像を結像する場合、ライトフィールド画像は互いに異なる被写体深度を有するN個のサブ画像を含むことができる。また、プロセッサはN個の画像のうち、所定の位置に被写体深度が形成された画像を選択することができる。
【0104】
図10は本開示の多様な実施例によるカメラ(130)によって取得されたライトフィールド画像に含まれる、複数のサブ画像の被写体深度が異なって形成される過程を示した図面である。
【0105】
多様な実施例によるカメラ(130)は集光レンズ(137)、レンズアレイ(135)、及び画像センサ(131)を含むことができる。第1対象体(1010)は第2対象体(1020)に比べて集光レンズ(137)に近く配置され得る。
【0106】
多様な実施例によれば、第1対象体(1010)の 上段から出た光は集光レンズ(137)を介して集光され、レンズアレイ(135)の下側に配置されたマイクロレンズ(135c)に焦点が形成され得る。マイクロレンズ(135c)から出た光は画像センサ(131)の下側に配置された区域(A1)に到達することができる。これにより、第1対象体(1010)の上端から出た光の光量は主に下側区域(A1)に分布することになり、残りの区域に光量が少なく分布し得る。即ち、下側区域(A1)に含まれた各画素(131e、131f、131g)には第1対象体(1010)の上端の姿が鮮明に結像され得る。
【0107】
多様な実施例によれば、第2対象体(1020)の上端から出た光は集光レンズ(137)を介して集光され、レンズアレイ(135)の中間部分のマイクロレンズ(135b)に焦点が形成され得る。マイクロレンズ(135b)から出た光は画像センサ(131)の中間部分に配置された区域(A2)に到達することができる。これにより、第2対象体(1020)の上端から出た光の光量は主に中間区域(A2)に分布することになり、残りの区域に光量が少なく分布し得る。即ち、中間区域(A2)に含まれる各画素(131b、131c、131d)には第2対象体(1020)の上端の姿が鮮明に結像され得る。
【0108】
下側区域(A1)には第2対象体(1020)から出る光の光量が少なく分布するため、第2対象体(1020)に対する姿はぼやけた状態で結像され得る。また、中間区域(A2)には第1対象体(1010)から出る光の光量が少なく分布するので、第1対象体(1010)に対する姿はぼやけた状態で結像され得る。従って、下側区域(A1)は第1対象体(1010)に対して被写体深度が形成されたサブ画像を出力し、中間区域(A2)は第2対象体(1020)に対して被写体深度が形成されたサブ画像を出力することができる。
【0109】
上述の内容によると、多様な実施例によるカメラを介して対象体を撮影すると、互いに異なる被写体深度を有する複数のサブ画像を含むライトフィールド画像を生成することができる。
【0110】
図11は本開示の多様な実施例による、互いに異なる被写体深度を有する複数のサブ画像を含むライトフィールド画像(1100)を説明するための図面である。
【0111】
図11を参照すると、多様な実施例によるライトフィールド画像(1100)は画像センサ(131)で互いに異なる位置の区域(C1、C2、C3、C4)に被写体深度が形成された複数のサブ画像を含む写真集合体ファイルとして出力され得る。複数の区域(C1、C2、C3、C4)はサブ画像内で互いに異なる位置になり得、状況に応じては少なくとも2つの区域が互いに同一の位置になり得る。写真集合体ファイルは互いに物理的に分離された複数のサブ画像を単に集めた集合体フォーマットになり得る。これとは異なり、写真集合体ファイルは新たな拡張子形式で複数のサブ画像が互いに一体に結合されたフォーマットになり得る。多様な実施例によれば、それぞれのサブ画像は互いに異なる被写体深度を有するように、光の色情報と方向情報を含むことができる。図11に示された矢印の方向は、被写体深度が形成される距離が増加する方向を示すことができる。
【0112】
上記の方法は特定の実施例を通して説明されたが、上記の方法は、また、コンピュータで読み取れる記録媒体に、コンピュータが読み取れるコードとして具現することが可能である。コンピュータが読み取れる記録媒体はコンピュータシステムによって読み取り可能なデータが保存される全種類の記録装置を含む。コンピュータが読み取れる記録媒体の例としては、ROM、RAM、CD-ROM、磁気テープ、フロッピー(登録商標)ディスク、光データ保存装置などが含まれ得る。また、コンピュータが読み取れる記録媒体はネットワークで連結されたコンピュータシステムに分散して、分散方式でコンピュータが読み取れるコードが保存されて実行され得る。そして、前記実施例を具現するための機能的な(functional)プログラム、コード及びコードセグメントは本開示が属する技術分野のプログラマーによって容易に推論され得る。
【0113】
以上、一部の実施例と添付の図面に示された例により本開示の技術的思想が説明されたが、本開示が属する技術分野において通常の知識を有する者が理解できる本開示の技術的思想及び範囲を逸脱しない範囲で多様な置換、変形及び変更がなされるという点を理解する必要がある。また、そのような置換、変形及び変更は添付の請求の範囲内に属するものと考えられるべきである。
図1
図2a
図2b
図3
図4
図5
図6
図7
図8
図9
図10
図11