(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-05-01
(45)【発行日】2024-05-13
(54)【発明の名称】映像獲得装置及び電子装置
(51)【国際特許分類】
H04N 23/13 20230101AFI20240502BHJP
H04N 25/10 20230101ALI20240502BHJP
H04N 25/70 20230101ALI20240502BHJP
【FI】
H04N23/13
H04N25/10
H04N25/70
(21)【出願番号】P 2022085042
(22)【出願日】2022-05-25
【審査請求日】2022-10-18
(31)【優先権主張番号】10-2021-0067898
(32)【優先日】2021-05-26
(33)【優先権主張国・地域又は機関】KR
(73)【特許権者】
【識別番号】390019839
【氏名又は名称】三星電子株式会社
【氏名又は名称原語表記】Samsung Electronics Co.,Ltd.
【住所又は居所原語表記】129,Samsung-ro,Yeongtong-gu,Suwon-si,Gyeonggi-do,Republic of Korea
(74)【代理人】
【識別番号】110000671
【氏名又は名称】IBC一番町弁理士法人
(72)【発明者】
【氏名】金 祐 ▲しょく▼
【審査官】鈴木 肇
(56)【参考文献】
【文献】特開2009-260411(JP,A)
【文献】特開平08-116490(JP,A)
【文献】特開2018-107817(JP,A)
【文献】特表2019-512194(JP,A)
【文献】特開2021-029509(JP,A)
【文献】米国特許出願公開第2019/0068846(US,A1)
(58)【調査した分野】(Int.Cl.,DB名)
H04N 5/222- 5/257
H04N 5/30 - 5/33
H04N 9/01 - 9/11
H04N 23/00 -23/76
H04N 23/90 -23/959
H04N 25/00 -25/79
(57)【特許請求の範囲】
【請求項1】
第1波長帯域の光の検出に基づいて第1映像を獲得する第1イメージセンサと、
前記第1波長帯域よりも広い第2波長帯域の光の検出に基づいて第2映像を獲得する第2イメージセンサと、
前記第2映像に基づいて前記第1映像の領域ごとに色相変換が要求されるかどうかを判断し、色相変換が要求される、前記第1映像の領域に対してのみ色相変換をすることにより、前記第1映像及び前記第2映像から、前記第1映像に対応する空間解像度と前記第2映像に対応する色域を有する第3映像を形成するプロセッサと、を含む、映像獲得装置。
【請求項2】
前記プロセッサは、
前記第1映像の画素値を前記第2映像の画素値を参照して補正して、前記第3映像を形成する、請求項1に記載の映像獲得装置。
【請求項3】
前記プロセッサは、
前記第1映像と前記第2映像とを二次元平面上で整合し、前記第1映像の画素と前記第2映像の画素との対応関係を把握した後、前記第1映像の画素値を補正する、請求項2に記載の映像獲得装置。
【請求項4】
前記プロセッサは、
前記第1映像と前記第2映像に対して収差補正を遂行した後、前記整合を行う、請求項3に記載の映像獲得装置。
【請求項5】
前記第3映像または前記第1映像を出力する映像出力部をさらに含む、請求項1に記載の映像獲得装置。
【請求項6】
前記映像出力部は、前記第1映像と、
前記第3映像と前記第1映像との差映像と、を出力する、請求項5に記載の映像獲得装置。
【請求項7】
前記第1映像は、第1色域を示し、
前記第3映像は、前記第1色域よりも広い第2色域を示す、請求項1に記載の映像獲得装置。
【請求項8】
前記第1イメージセンサは、
複数の第1センシング要素がアレイされた第1センサ層と、
前記第1センサ層上に配置され、交互に配列された赤色フィルタ、緑色フィルタ、青色フィルタを含むカラーフィルタと、を備える、第1画素アレイを含む、請求項1に記載の映像獲得装置。
【請求項9】
前記第2イメージセンサは、
複数の第2センシング要素がアレイされた第2センサ層と、
前記第2センサ層上に配置され、透過波長帯域が異なる複数のユニットフィルタからなるフィルタグループが反復配列された分光フィルタと、を備える、第2画素アレイを含む、請求項8に記載の映像獲得装置。
【請求項10】
前記複数のユニットフィルタそれぞれの透過波長帯域は、
可視光線を含み、可視光線よりも広い範囲の波長帯域に含まれる、請求項9に記載の映像獲得装置。
【請求項11】
前記フィルタグループは、4×4アレイ状に配列される16個のユニットフィルタを含む、請求項10に記載の映像獲得装置。
【請求項12】
前記第1画素アレイと前記第2画素アレイは、同じ回路基板上に水平に離隔されるように配置される、請求項9に記載の映像獲得装置。
【請求項13】
前記第1センサ層からの信号を処理する第1回路要素と、前記第2センサ層からの信号を処理する第2回路要素と、が前記回路基板に備えられる、請求項12に記載の映像獲得装置。
【請求項14】
前記第1回路要素、前記第2回路要素の動作を同期させるタイミングコントローラをさらに含む、請求項13に記載の映像獲得装置。
【請求項15】
前記第1映像に係わるデータ、前記第2映像に係わるデータが保存されるメモリをさらに含む、請求項12に記載の映像獲得装置。
【請求項16】
前記メモリが前記回路基板内に備えられる、請求項15に記載の映像獲得装置。
【請求項17】
被写体の光学像を前記第1イメージセンサに形成するものであって、1つ以上のレンズを含む第1イメージング光学系と、
前記被写体の光学像を前記第2イメージセンサに形成するものであって、1つ以上のレンズを含む第2イメージング光学系と、をさらに含む、請求項1に記載の映像獲得装置。
【請求項18】
前記第1イメージング光学系と前記第2イメージング光学系は、同じ焦点距離と同じ画角を有するように設定される、請求項17に記載の映像獲得装置。
【請求項19】
請求項1ないし18のうちいずれか1項に記載の映像獲得装置を含む、電子装置。
【請求項20】
前記電子装置は、モバイルフォン、スマートフォン、タブレット、スマートタブレット、デジタルカメラ、カムコーダ、ノート型パソコン、テレビ、スマートテレビ、スマート冷蔵庫、保安カメラ、ロボットまたは医療用カメラを含む、請求項19に記載の電子装置。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、映像獲得装置及びそれを含む電子装置に関する。
【背景技術】
【0002】
映像センサは、被写体から入射される光を受光し、受光された光を光電変換して電気的信号を生成する装置である。
【0003】
映像センサは、カラー表現のために、通常、赤色光、緑色光、青色光を選択的に透過させるフィルタ要素のアレイからなるカラーフィルタを使用し、各フィルタ要素を透過した光量をセンシングした後、映像処理を通じて被写体に係わるカラー映像を形成する。
【0004】
そのような映像の獲得において、カラーフィルタに備えられるフィルタ要素が透過させる波長帯域が限定されるので、被写体を表現する色域が制限される。
【発明の概要】
【発明が解決しようとする課題】
【0005】
本発明が解決しようとする課題は、広色域の映像を提供する映像獲得装置及びそれを含む電子装置を提供することである。
【課題を解決するための手段】
【0006】
上述した課題は、以下の手段により解決される。
【0007】
第1波長帯域の光に基づく第1映像を獲得する第1イメージセンサと、前記第1波長帯域よりも広い第2波長帯の光に基づく第2映像を獲得する第2イメージセンサと、前記第1映像及び前記第2映像から、前記第1映像に対応する空間解像度と前記第2映像に対応する色域を有する第3映像を形成するプロセッサとを含む映像獲得装置。
【0008】
前記プロセッサは、前記第1映像の画素値を前記第2映像の画素値を参照して補正して前記第3映像を形成する。
【0009】
前記プロセッサは、前記第1映像と前記第2映像とを二次元平面上で整合し、前記第1映像の画素と前記第2映像の画素との対応関係を把握した後、前記第1映像の画素値を補正することができる。
【0010】
前記プロセッサは、前記第1映像と前記第2映像に対して収差補正を遂行した後、前記整合を行うことができる。
【0011】
前記映像獲得装置は、前記第3映像または前記第1映像を出力する映像出力部をさらに含む。
【0012】
前記映像出力部は、前記第1映像と、前記第3映像と前記第1映像との差映像を出力することができる。
【0013】
前記第1映像は、第1色域を示し、前記第3映像は、前記第1色域よりも広い第2色域を示す。
【0014】
前記第1イメージセンサは、複数の第1センシング要素がアレイされた第1センサ層と、前記第1センサ層上に配置され、交互に配列された赤色フィルタ、緑色フィルタ、青色フィルタを含むカラーフィルタを備える第1画素アレイを含む。
【0015】
前記第2イメージセンサは、複数の第2センシング要素がアレイされた第2センサ層と、前記第2センサ層上に配置され、透過波長帯域が異なる複数のユニットフィルタからなるフィルタグループが反復配列された分光フィルタを備える第2画素アレイを含む。
【0016】
前記複数のユニットフィルタそれぞれの透過波長帯域は、可視光線を含み、可視光線帯域よりも広い波長帯域に含まれる。
【0017】
前記フィルタグループは、4×4アレイ状に配列される16個のユニットフィルタを含む。
【0018】
前記第1画素アレイと前記第2画素アレイは、同じ回路基板上に水平に離隔されるように配置されうる。
【0019】
前記第1センサ層からの信号を処理する第1回路要素と、前記第2センサ層からの信号を処理する第2回路要素とが前記回路基板に備えられる。
【0020】
前記映像獲得装置は、前記第1回路要素、前記第2回路要素の動作を同期させるタイミングコントローラをさらに含む。
【0021】
前記映像獲得装置は、前記第1映像に係わるデータ、前記第2映像に係わるデータが保存されるメモリをさらに含んでもよい。
【0022】
前記メモリは、前記回路基板内に備えられる。
【0023】
前記映像獲得装置は、被写体の光学像を前記第1イメージセンサに形成するものであって、1つ以上のレンズを含む第1イメージング光学系と、前記被写体の光学像を前記第2イメージセンサに形成するものであって、1つ以上のレンズを含む第2イメージング光学系とをさらに含む。
【0024】
前記第1イメージング光学系と前記第2イメージング光学系は、同じ焦点距離と同じ画角を有するように設定されうる。
【0025】
前述したいずれか1つの映像獲得装置を含む電子装置。
【0026】
前記電子装置は、モバイルフォン、スマートフォン、タブレット、スマートタブレット、デジタルカメラ、カムコーダ、ノート型パソコン、テレビ、スマートテレビ、スマート冷蔵庫、保安カメラ、ロボットまたは医療用カメラを含む。
【発明の効果】
【0027】
上述した映像獲得装置によれば、互いに異なる種類の2つのイメージセンサを活用して、高解像度を有し、広色域を表現する映像を提供することができる。
【0028】
上述した映像獲得装置は、多様な電子装置に採用されうる。
【図面の簡単な説明】
【0029】
【
図1】実施形態による映像獲得装置の概略的な構造を示すブロック図である。
【
図2】実施形態による映像獲得装置で獲得した映像が示す色域を説明する色座標である。
【
図3】実施形態による映像獲得装置の概略的な構造を示す概念図である。
【
図4】実施形態による映像獲得装置に備えられる第1イメージセンサ、第2イメージセンサの回路構成を示す図面である。
【
図5】実施形態による映像獲得装置に備えられる第1イメージセンサによる波長スペクトルを示す図面である。
【
図6】実施形態による映像獲得装置に備えられる第1イメージセンサの例示的な画素配列を示す図面である。
【
図7】実施形態による映像獲得装置に備えられる第1イメージセンサの例示的な画素配列を示す図面である。
【
図8】実施形態による映像獲得装置に備えられる第1イメージセンサの例示的な画素配列を示す図面である。
【
図9】実施形態による映像獲得装置に備えられる第2イメージセンサによる波長スペクトルを示す図面である。
【
図10】実施形態による映像獲得装置に備えられる第2イメージセンサの例示的な画素配列を示す図面である。
【
図11】実施形態による映像獲得装置に備えられる第2イメージセンサの例示的な画素配列を示す図面である。
【
図12】実施形態による映像獲得装置に備えられる第2イメージセンサの例示的な画素配列を示す図面である。
【
図13】実施形態による映像獲得装置の映像処理過程を概略的に説明するフローチャートである。
【
図14】実施形態による電子装置の概略的な構造を示すブロック図である。
【
図15】
図14の電子装置に備えられるカメラモジュールを概略的に示すブロック図である。
【
図16】実施形態による映像獲得装置が適用された電子装置の多様な例を示す図面である。
【
図17】実施形態による映像獲得装置が適用された電子装置の多様な例を示す図面である。
【
図18】実施形態による映像獲得装置が適用された電子装置の多様な例を示す図面である。
【
図19】実施形態による映像獲得装置が適用された電子装置の多様な例を示す図面である。
【
図20】実施形態による映像獲得装置が適用された電子装置の多様な例を示す図面である。
【
図21】実施形態による映像獲得装置が適用された電子装置の多様な例を示す図面である。
【
図22】実施形態による映像獲得装置が適用された電子装置の多様な例を示す図面である。
【
図23】実施形態による映像獲得装置が適用された電子装置の多様な例を示す図面である。
【
図24】実施形態による映像獲得装置が適用された電子装置の多様な例を示す図面である。
【
図25】実施形態による映像獲得装置が適用された電子装置の多様な例を示す図面である。
【発明を実施するための形態】
【0030】
以下、添付された図面を参照して実施形態を詳細に説明する。説明される実施形態は、例示的なものに過ぎず、そのような実施形態から多様な変形が可能である。以下の図面で同じ参照符号は、同じ構成要素を指し、図面上で各構成要素の大きさは、説明の明確にするために、便宜的に、誇張されうる。
【0031】
以下、「上部」や「上」という記載は、接触して直ぐ上にあるものだけではなく、非接触で上にあるものも含む。
【0032】
第1、第2などの用語は、多様な構成要素を説明するのに使用されうるが、1つの構成要素を他の構成要素から区別する目的のみに使用される。そのような用語は、構成要素の物質または構造が異なることを限定するものではない。
【0033】
単数の表現は、文脈上、明白に異なって意味しない限り、複数の表現を含む。また、ある部分がある構成要素を「含む」とするとき、それは、特に反対を意図する旨の記載がない限り、他の構成要素を除くものではなく、他の構成要素をさらに含んでもよいということを意味する。
【0034】
また、明細書に記載された「...部」、「モジュール」などの用語は、少なくとも1つの機能や動作を処理する単位を意味し、これは、ハードウェアまたはソフトウェアによって具現されるか、ハードウェアとソフトウェアとの結合によって具現されうる。
【0035】
「前記」の用語及びそれと類似した指示用語の使用は、単数及び複数の両方に該当するものでもある。
【0036】
方法を構成する段階は、説明された順序によって行わなければならないという明白な言及がなければ、適当な順序で行われうる。また、全ての例示的な用語(例えば、など)の使用は、単に技術的思想を詳細に説明するためのものであって、請求項によって限定されない以上、そのような用語によって権利範囲が限定されるものではない。
【0037】
図1は、実施形態による映像獲得装置の概略的な構造を示すブロック図であり、
図2は、実施形態による映像獲得装置で獲得した映像が示す色域を説明する色座標である。
【0038】
映像獲得装置1000は、第1波長帯域に基づく第1映像IM1を獲得する第1イメージセンサ100、第1波長帯域よりも広い第2波長帯域に基づく第2映像IM2を獲得する第2イメージセンサ200及び第1映像IM1と第2映像IM2とを信号処理し、第3映像IM3を形成するプロセッサ500を含む。
【0039】
第1イメージセンサ100は、一般的なRGBカメラに採用されるセンサであって、ベイヤーカラーフィルタアレイを使用するCMOSイメージセンサー(CMOS image sensor)でもある。第1イメージセンサ100が獲得する第1映像IM1は、赤色、緑色、青色に基づくRGB映像であり、一般的なRGBカメラによって獲得される色域(color gamut)範囲を有することができる。例えば、s-RGB(standard RGB)色域、BT.709色域、DCI-P3色域、またはAdobe RGB色域を有することができる。
図2には、BT.709の色域、DCI-P3色域が例示的に図示されている。
【0040】
第2イメージセンサ200は、第1イメージセンサ100よりさらに多種の波長光をセンシングするセンサである。第2イメージセンサ200は、例えば、16個のチャネルを使用し、または31個のチャネル、またはその他異なる個数のチャネルを使用することができる。各チャネルの帯域幅は、R、G、B帯域よりも狭く設定され、全てのチャネルの帯域幅を合わせた全体帯域幅は、RGB帯域幅、すなわち、可視光線帯域幅を含み、それより広くもなる。例えば、約350nm~1000nmの帯域幅を有することができる。第2イメージセンサ200が獲得する第2映像IM2は、超分光(hyperspectral)映像であり、RGB波長帯域よりも広い波長帯域、例えば、可視光線帯域を含み、それよりも広い波長帯域である紫外線ないし赤外線波長帯域を16個以上のチャネルに分割した波長に基づく映像でもある。第2映像IM2は、第2イメージセンサ200の利用可能な全ての数のチャネルを活用して取得した映像であり、または、特定チャネルを選別して取得した映像でもある。第2映像IM2の空間解像度は、第1映像IM1の空間解像度よりも低くてもよいが、それに限定されない。
【0041】
第1イメージセンサ100と第2イメージセンサ200は、それぞれ別個のチップで構成され、または単一のチップで構成される。
【0042】
第3映像IM3は、第1イメージセンサ100による第1映像IM1に対応する空間解像度と第2イメージセンサ200による第2映像IM2に対応する色域を有する映像である。第3映像IM3は、第1映像IM1と同じ空間解像度を有し、同時に色域は、拡大された映像であり、例えば、
図2のDCI-P3以上の色域範囲を有することができる。このように形成された第3映像IM3の品質は、第1映像IM1との色差(color difference)を計算して評価されうる。
【0043】
第3映像IM3は、第1映像IM1の画素値を第2映像IM2の画素値を参照して補正する方式で獲得されうる。このために、第1映像IM1と第2映像IM2とを二次元平面上で整合(image registration)し、第1映像IM1の画素と第2映像IM2の画素との対応関係を把握することができる。次いで、対応する画素別に色相変換の要否を判断し、これにより、第1映像IM1の画素値が補正されうる。
【0044】
第1映像IM1と第2映像IM2との映像整合前に、第1映像IM1と第2映像IM2に対する収差補正が行われる。第1イメージセンサ100、第2イメージセンサ200に光学像を形成するイメージングレンズによる歪曲、幾何収差、色収差などの収差が発生し、それを補正した後、映像整合が行われる。
【0045】
映像獲得装置1000は、映像出力部700をさらに含んでもよい。映像出力部700は、第3映像IM3を出力し、または、選択的に、第3映像IM3と第1映像IM1のうち、いずれか1つを出力することができる。また、出力される映像が一般RGB映像(第1映像)であるか、色域が拡大された映像(第3映像)であるかについての付加情報が共に出力されうる。映像出力部700はまた、第3映像IM3と第1映像IM1との差に係わる差映像を出力し、または第1映像IM1と当該差映像を共に出力する。この際、領域別に色相変換が行われたか否かを判断し、色相変換がなされた領域に対してのみ差映像を出力することができる。このような選択的出力は、ユーザの入力によって決定されうる。
【0046】
プロセッサ500の映像処理過程をさらに詳細に説明すれば、次の通りである。
【0047】
映像整合部520は、第1イメージセンサ100と第2イメージセンサ200との相対的位置情報を活用して第1映像IM1と第2映像IM2とを整合(image registration)することができる。映像整合部520は、第1イメージセンサ100、第2イメージセンサ200で獲得した映像の空間解像度(spatial resolution)、映像獲得に使用された光学系の画角(field of view)、焦点距離(focal length)などを考慮して映像の各画素間の位置関係を把握する。この際、1のセンサの映像を基準にして他のセンサの映像を、その上に重畳させることができる。例えば、第1イメージセンサ100が獲得した第1映像IM1を基準にして当該第1映像IM1の各画素に対して、それに対応する第2映像IM2の画素を探すことができる。このために、第2映像IM2の画素に対してスケーリング(scaling)、トランスレーション、ローテーション(rotation)、アフィン変換(affine transform)、透視変換(perspective transform)などを行うことができる。第1映像IM1の画素に該当する第2映像IM2の画素は、1つ以上でもあり、複数の第2映像IM2の画素を位置によって一定比率で混合して第1映像の画素に該当する第2映像IM2の画素値を生成することができる。第2映像IM2の各チャネル別に映像を使用してそれぞれ映像整合を行ってもよい。整合の精度を高めるために、サブ画素(Sub-pixel)単位で整合を行うことができる。サブ画素(Sub-pixel)単位の整合では、画素の位置が整数ではなく、実数で表現されうる。
【0048】
映像整合部520はまた焦点制御(focus control)を通じて第1イメージセンサ100と第2イメージセンサ200とが同じ位置の被写体に焦点を合わせるようにして整合の効率を高めうる。そして、2つのセンサが同じ画角(field of view)を有するようにし、映像整合遂行を迅速で正確にさせうる。例えば、第1イメージセンサ100と第2イメージセンサ200に光学像を形成するためのイメージング光学系が同じ焦点距離と同じ画角を有する場合、第1映像IM1と第2映像IM2との間には、トランスレーションのみ存在し、関連変数(parameter)は、第1イメージセンサ100と第2イメージセンサ200との相対的位置及び各光学系の焦点距離を使用して計算されうる。
【0049】
第2映像IM2の空間解像度が第1映像IM1の空間解像度よりも高い場合、第2映像IM2をダウンサンプリングして映像整合を行うことができる。この際、バイラテラルフィルタリング(bi-lateral filtering)、 ガイデットフィルタリング(guided filtering)のようにエッジ情報を考慮したフィルタリングを使用してダウンサンプリングして映像整合をさらに正確に遂行することができる。
【0050】
第2映像IM2の空間解像度が第1映像IM1の空間解像度よりも低い場合、インターポレーションを通じて第1映像の各画素位置に該当する第2映像サンプルを各チャネル別に生成することができる。同様に、バイラテラルフィルタリング(bi-lateral filtering)、 ガイデットフィルタリング(guided filtering)のようにエッジ情報を考慮してインターポレーションすることができる。
【0051】
または、第1映像IM1の空間解像度と第2映像IM2の空間解像度を同一にした後、映像整合を行うことができる。2映像の解像度が同一になるようにデモザイシングを行うことができる。その場合、2つのイメージセンサに光学像をそれぞれ形成する2つの光学系が同じ焦点距離と画角とを有すれば、別途のインターポレーションなしにトランスレーションのみ考慮して映像整合を行うことができる。
【0052】
整合を行う前に、第1映像IM1、第2映像IM2に含まれた収差を補正することができる。すなわち、第1映像IM1、第2映像IM2の獲得時に使用されるイメージング光学系に含まれたレンズによる、歪曲、幾何収差、色収差などの影響を補正(correction)した後に整合を行うことができる。
【0053】
映像整合部520は、映像内のエッジ特徴(edge feature)情報を抽出して2映像間の特徴をマッチング(matching)させうる。被写体の境界領域で映像整合が合わない場合、カラー歪曲(color distortion)が発生するので、エッジ情報を抽出して2映像間のエッジが整列(align)されるように整合を行い、境界領域で歪曲が発生しないように処理することができる。エッジ(edge)以外にコーナーポイントのような他の映像特徴点(image features)を使用して映像整合を行うことができる。
【0054】
色相変換部540では、第2映像IM2に含まれた画素値を使用して第1映像IM1を使用した線形変換(linear transformation)が使用されうる。第2イメージセンサ200のチャネル数がn個である場合、3xnマトリックス(matrix)を使用して線形変換することができる。すなわち、
v’=Lv
ここで、vは、第2映像の画素値からなるn次元ベクトル、Lは、3xnマトリックス、そしてv’は、R、G、B値を示す3次元ベクトルである。
【0055】
または、vをXYZ座標空間に変換した後、再びRGB色空間に変換する過程を経てカラーマッピングを行うことができる。または、上述した線形変換の代わりに、さらに複雑なクロスチャネル(cross-channel)を考慮するか、2次項を考慮するなどの変換を使用することができる。または、非線形変換(non-linear transform)方法が使用されうる。
【0056】
カラーマッピング時、領域別にカラーマッピングが必要な領域であるか否かを判断し、必要な領域に対してのみ色域を拡大するカラーマッピングを行ってもよい。例えば、映像の領域を方形の複数のブロックに区分した後、各ブロック別に第2映像が示す色域が、第1映像が示す色域内にあれば、その領域に対してカラーマッピングを行わない。対応する領域において第2映像IM2が、第1映像IM1が示す色域外にあるならば、当該領域に対してカラーマッピングを行う。色域が拡大されたWCG(wide color gamut)映像(第3映像)を示すために、一般RGB映像よりもさらに大きいビットデプスを使用して映像を保存することができる。
【0057】
図3は、実施形態による映像獲得装置の概略的な構造を示す概念図であり、
図4は、実施形態による映像獲得装置に備えられる第1イメージセンサ、第2イメージセンサの回路構成を示す。
【0058】
映像獲得装置1000は、第1波長帯域に基づく第1映像IM1を獲得する第1イメージセンサ100、前記第1波長帯域よりも広い第2波長帯域に基づく第2映像IM2を獲得する第2イメージセンサ200、及び第1映像IM1及び第2映像IM2を信号処理し、第3映像を形成するプロセッサ500を含む。映像獲得装置1000はまた、第1映像IM1、第2映像IM2に係わるデータが保存されるメモリ300をさらに含み、映像を出力する映像出力部700をさらに含む。
【0059】
映像獲得装置1000はまた、第1イメージセンサ100に被写体OBJの光学像(optical image)を形成する第1イメージング光学系190、第2イメージセンサ200に被写体OBJの光学像を形成する第2イメージング光学系290を含む。第1イメージング光学系190と第2イメージング光学系290は、それぞれ1つのレンズを含むものとして図示されているが、これは、例示的なものであり、これに限定されない。第1イメージング光学系190と第2イメージング光学系290は、同じ焦点距離と同じ画角を有するように構成され、その場合、第3映像IM3を形成するために、第1映像IM1と第2映像IM2とを整合する過程がさらに容易になる。但し、これに限定されるものではない。
【0060】
第1イメージセンサ100は、第1画素アレイPA1を含み、第1画素アレイPA1は、複数の第1センシング要素がアレイされた第1センサ層110と、第1センサ層110上に配置されたカラーフィルタ120を含む。カラーフィルタ120は、交互に配列された赤色フィルタ、緑色フィルタ、青色フィルタを含む。第1画素アレイPA1上には、第1マイクロレンズアレイ130が配置されうる。第1画素アレイPA1に適用される画素配列の多様な例示は、
図5ないし
図8で説明する。
【0061】
第2イメージセンサは、第2画素アレイPA2を含み、第2画素アレイPA2は、複数の第2センシング要素がアレイされた第2センサ層210と、第2センサ層210上に配置された分光フィルタ220を含む。分光フィルタ220は、複数のフィルタグループを含み、複数のフィルタグループそれぞれは、透過波長帯域が異なる複数のユニットフィルタからなる。分光フィルタ220は、カラーフィルタ120よりも広い波長帯域、例えば、紫外線ないし赤外線波長範囲の波長帯域をカラーフィルタ120よりも細分してフィルタリングするように構成されうる。第2画素アレイPA2上には、第2マイクロレンズアレイ230が配置されうる。第2画素アレイPA2に適用される画素配列の例示は、
図10ないし
図12で説明する。
【0062】
第1センサ層110、第2センサ層210は、CCD(charge coupled device)センサまたはCMOS(complementary metal oxide semiconductor)センサを含むが、これに限定されない。
【0063】
第1画素アレイPA1と第2画素アレイPA2は、同じ回路基板SU上に水平に、例えば、X方向に離隔されるように配置されうる。
【0064】
回路基板SUには、第1センサ層110からの信号を処理する第1回路要素と、第2センサ層210からの信号を処理する第2回路要素とが備えられる。但し、これに限定されず、第1回路要素と第2回路要素は、それぞれ別の基板に備えられてもよい。
【0065】
第1映像IM1と第2映像IM2に係わるデータが保存されるメモリ300は、回路基板SUと別個に図示されたが、これは、例示的なものであり、回路基板SU内に、回路要素と同層または別の層に区分されて配置されうる。メモリ300は、映像をライン単位で保存するラインメモリであり、映像全体を保存するフレームバッファでもある。メモリ300には、SRAM(static random access memory)、またはDRAM(dynamic random access memory)が使用されうる。
【0066】
回路基板SUに映像獲得装置1000に必要な多様な回路要素が集積配置されうる。例えば、多様なアナログ回路、デジタル回路を含むロジックレイヤが備えられ、データが保存されるメモリレイヤが備えられる。ロジックレイヤとメモリレイヤは、異なる層でもって構成されるか、または同じ層でもって構成されうる。
【0067】
図4を参照すれば、第1画素アレイPA1にロウデコーダ102、出力回路103、タイミングコントローラ(TC)101が連結される。ロウデコーダ102は、タイミングコントローラ101から出力されたロウアドレス信号に応答して第1画素アレイPA1のロウ(行)1つを選択する。出力回路103は、選択されたロウに沿って配列された複数の画素からカラム(列)単位で光感知信号を出力する。そのために、出力回路103は、カラムデコーダとアナログ-デジタル変換器(ADC;analog to digital converter)を含む。例えば、出力回路103は、カラムデコーダと第1画素アレイPA1との間でカラム別にそれぞれ配置された複数のADC、またはカラムデコーダの出力端に配置された1つのADCを含む。タイミングコントローラ101、ロウデコーダ102、及び出力回路103は、1つのチップまたはそれぞれ別個のチップによって具現されうる。例示された回路要素の少なくとも一部が
図3の回路基板SUに備えられうる。出力回路103を介して出力された第1映像IM1を処理するためのプロセッサがタイミングコントローラ101、ロウデコーダ102、及び出力回路103と共に1つのチップにも具現されうる。
【0068】
第2画素アレイPA2にもロウデコーダ202、出力回路203、タイミングコントローラ(TC)201が連結され、上述したところと同様に、第2画素アレイPA2からの信号が処理されうる。また、出力回路203を介して出力された第2映像IM2を処理するためのプロセッサがタイミングコントローラ201、ロウデコーダ202、及び出力回路203と共に1つのチップにも具現される。
【0069】
第1画素アレイPA1と第2画素アレイPA2は、画素サイズ、個数が同一であるように図示されたが、これは、便宜上の例示であり、それに限定されるものではない。
【0070】
互いに異なる種類の2つのセンサを動作させるに当たって、互いに異なる解像度及び出力速度、ならびに映像整合に必要な領域の大きさによってタイミング制御(timing control)が必要である。例えば、第1イメージセンサ100を基準に1つの映像列を読込むとき、その領域に該当する第2イメージセンサ200の映像列は、既にバッファに保存されていてもよく、新たに読み込んでもよい。そのようなタイミングを正しく計算して読み取る必要がある。あるいは、第1イメージセンサ100、第2イメージセンサ200の動作は、同じ同期(synchronization)信号を使用して同期されうる。例えば、タイミングコントローラ400がさらに備えられ、第1イメージセンサ100、第2イメージセンサ200に同期信号(sync.)を伝送しうる。
【0071】
図5は、実施形態による映像獲得装置に備えられる第1イメージセンサによる波長スペクトルを示し、
図6ないし
図8は、実施形態による映像獲得装置に備えられる第1イメージセンサの例示的な画素配列を示す。
【0072】
図6を参照すれば、第1画素アレイPA1に備えられるカラーフィルタ120には、赤色R、緑色G、青色B波長帯域をフィルタリングするフィルタがベイヤーパターン(Bayer pattern)に配列されている。すなわち、1つの単位画素は、2×2アレイに配列されたサブ画素を含み、複数の単位画素が2次元的に反復配列される。単位画素の1行に赤色フィルタ、緑色フィルタが配置されて、2行に緑色フィルタ、青色フィルタが配置される。画素配列は、ベイヤーパターン以外に、他の方式によっても可能である。
【0073】
例えば、
図7を参照すれば、マゼンタ(Magenta)画素M、シアン(Cyan)画素C、イエロー(Yellow)画素Y、及び緑色画素Gが1つの単位画素を構成するCYGM方式の配列も可能である。また、
図8を参照すれば、緑色画素G、赤色画素R、青色画素B、及び白色画素Wが1つの単位画素を構成するRGBW方式の配列も可能である。また、図示されていないが、単位画素が3×2アレイ状を有してもよい。その他にも、第1画素アレイPA1の画素は、第1イメージセンサ100の色特性によって多様な方式で配列されうる。
【0074】
図9は、実施形態による映像獲得装置に備えられる第2イメージセンサによる波長スペクトルを示し、
図10ないし
図12は、他の実施形態による映像獲得装置の第2イメージセンサの例示的な画素配列を示す。
【0075】
図10を参照すれば、第2画素アレイPA2に備えられる分光フィルタ220は、2次元形態に配列される複数のフィルタグループ221を含む。ここで、各フィルタグループ221は、4×4アレイ状に配列される16個のユニットフィルタF1~F16を含んでもよい。
【0076】
第1及び第2ユニットフィルタF1、F2は、紫外線領域の中心波長UV1、UV2をそれぞれ有し、第3ないし第5ユニットフィルタF3~F5は、青色光領域の中心波長B1~B3をそれぞれ有する。第6ないし第11ユニットフィルタF6~F11は、緑色光領域の中心波長G1~G6をそれぞれ有し、第12ないし第14ユニットフィルタF12~F14は、赤色光領域の中心波長R1~R3をそれぞれ有する。そして、第15及び第16ユニットフィルタF15、F16は、近赤外線領域の中心波長NIR1、NIR2をそれぞれ有する。
【0077】
図11は、分光フィルタ220に備えられる、他の例の1つのフィルタグループ222の平面図を図示している。
図11を参照すれば、フィルタグループ222は、3×3アレイ状に配列される9個のユニットフィルタF1~F9を含む。ここで、第1及び第2ユニットフィルタF1、F2は、紫外線領域の中心波長UV1、UV2をそれぞれ有し、第4、第5及び第7ユニットフィルタF4、F5、F7は、青色光領域の中心波長B1~B3をそれぞれ有する。第3及び第6ユニットフィルタF3、F6は、緑色光領域の中心波長G1、G2をそれぞれ有し、第8及び第9ユニットフィルタF8、F9は、赤色光領域の中心波長R1、R2をそれぞれ有する。
【0078】
図12は、分光フィルタ220に備えられる、他の例の1つのフィルタグループ223の平面図を図示している。
図12を参照すれば、フィルタグループ223は、5×5アレイ状に配列される25個のユニットフィルタF1~F25を含む。ここで、第1ないし第3ユニットフィルタF1~F3は、紫外線領域の中心波長UV1~UV3をそれぞれ有し、第6、第7、第8、第11及び第12ユニットフィルタF6、F7、F8、F11、F12は、青色光領域の中心波長B1~B5をそれぞれ有する。第4、第5及び第9ユニットフィルタF4、F5、F9は、緑色光領域の中心波長G1~G3をそれぞれ有し、第10、第13、第14、第15、第18及び第19ユニットフィルタF10、F13、F14、F15、F18、F19は、赤色光領域の中心波長R1~R6をそれぞれ有する。そして、第20、第23、第24及び第25ユニットフィルタF20、F23、F24、F25は、近赤外線領域の中心波長NIR1~NIR4をそれぞれ有する。
【0079】
分光フィルタ220に備えられる上述したユニットフィルタは、2枚の反射板を有する共振構造を有し、共振構造の特性によって透過される波長帯域が決定されうる。反射板の材質及びキャビティ内の誘電物質の材質、キャビティ厚によって透過波長帯域が調節されうる。それ以外にも、グレーティングを活用した構造、DBR(distributed bragg reflector)を活用した構造などがユニットフィルタに適用されうる。
【0080】
それ以外にも、第2画素アレイPA2の画素は、第2イメージセンサ200の色特性によって多様な方式で配列されうる。
【0081】
図13は、実施形態による映像獲得装置の映像処理過程を概略的に説明するフローチャートである。
【0082】
第1イメージセンサ100から第1映像が獲得され(S810)、第2イメージセンサ200から第2映像が獲得される(S820)。
【0083】
第1映像及び/または第2映像に対して、必要に応じて、収差補正が行われる(S830)。例えば、第1映像IM1、第2映像IM2の獲得時に使用されるイメージング光学系に含まれたレンズによる、歪曲、幾何収差、色収差などの影響を補正(correction)した後に整合を行うことができる。
【0084】
第1映像と第2映像とが整合される(S840)。映像整合時、第1映像と第2映像の解像度を考慮することができる(S842)。例えば、第2映像IM2の空間解像度が第1映像IM1の空間解像度よりも高い場合、第2映像IM2をダウンサンプリングして映像整合を行うことができる。第2映像IM2の空間解像度が第1映像IM1の空間解像度よりも低い場合、インターポレーションを通じて第1映像の各画素位置に該当する第2映像サンプルを各チャネル別に生成することができる。映像整合時、バイラテラルフィルタリング(bi-lateral filtering),ガイデットフィルタリング(guided filtering)のようにエッジ情報を考慮することができる。
【0085】
または、第1映像と第2映像とを同じ解像度で調節した後、映像整合が行われる(S846)。第1映像と第2映像の解像度が同一になるようにデモザイシングを行うことができる。その場合、2つのイメージセンサに光学像をそれぞれ形成する2つの光学系が同じ焦点距離と画角とを有すれば、別途のインターポレーションなしにトランスレーションのみ考慮して映像整合を行うことができる。
【0086】
色相変換段階(S860)で第2映像の画素値を参照して第1映像の画素値が補正され、第3映像が形成される。この際、領域別に、色相変換の要否を判断し、必要な領域に対してのみ色域を拡大する色相変換が行われうる。例えば、映像の領域を複数のブロックに区分した後、各ブロック別に、第2映像が示す色域が、第1映像が示す色域内にあるか否かを判断する。対応する領域で第2映像IM2が、第1映像IM1が示す色域の外にある場合にのみ当該領域に対して色相変換を行う。
【0087】
映像出力(S870)時、第1映像、第3映像、第1映像と第3映像の差映像のうち、いずれか1つ以上が選択的に出力されうる。映像についての付加情報が共に出力されうる。
【0088】
上述した映像獲得装置1000は、多様な高性能光学装置または高性能電子装置に採用されうる。そのような電子装置は、例えば、スマートフォン(smart phone)、携帯電話、ハンドフォン、PDA(personal digital assistant)、ラップトップ(laptop)、PC、多様な携帯用機器、家電製品、保安カメラ、医療用カメラ、自動車、モノのインターネット(IoT;Internet of Things)機器、その他モバイルまたは非モバイルコンピューティング装置でもあるが、これらに制限されない。
【0089】
電子装置は、映像獲得装置1000以外にも、それに備えられたイメージセンサを制御するプロセッサ、例えば、アプリケーションプロセッサ(AP:Application Processor)をさらに含み、プロセッサを通じて運用体制または応用プログラムを駆動して多数のハードウェアまたはソフトウェア構成要素を制御し、各種データ処理及び演算を行うことができる。プロセッサは、GPU(Graphic Processing Unit)及び/または、イメージ信号プロセッサ(Image Signal Processor)をさらに含む。プロセッサにイメージ信号プロセッサが含まれる場合、イメージセンサによって獲得されたイメージ(または、映像)を、プロセッサを用いて保存及び/または出力することができる。
【0090】
図14は、実施形態による電子装置の概略的な構造を示すブロック図である。
図14を参照すれば、ネットワーク環境ED00で電子装置ED01は、第1ネットワークED98(近距離無線通信ネットワークなど)を介して他の電子装置ED02と通信するか、または第2ネットワークED99(遠距離無線通信ネットワークなど)を介してさらに他の電子装置ED04及び/または、サーバED08と通信することができる。電子装置ED01は、サーバED08を介して電子装置ED04と通信することができる。電子装置ED01は、プロセッサED20、メモリED30、入力装置ED50、音響出力装置ED55、表示装置ED60、オーディオモジュールED70、センサモジュールED76、インターフェースED77、ハプティックモジュールED79、カメラモジュールED80、電力管理モジュールED88、バッテリED89、通信モジュールED90、加入者識別モジュールED96、及び/またはアンテナモジュールED97を含む。電子装置ED01には、該構成要素の一部(表示装置ED60など)が省略されるか、他の構成要素が追加されうる。該構成要素の一部は、1つの統合された回路によって具現されうる。例えば、センサモジュールED76(指紋センサ、虹彩センサ、照度センサなど)は、表示装置ED60(ディスプレイなど)に埋め込まれて具現されうる。
【0091】
プロセッサED20は、ソフトウェア(プログラムED40など)を実行し、プロセッサED20に連結された電子装置ED01のうち、1つまたは複数個の他の構成要素(ハードウェア、ソフトウェア構成要素など)を制御し、多様なデータ処理または演算を行うことができる。データ処理または演算の一部において、プロセッサED20は、他の構成要素(センサモジュールED76、通信モジュールED90など)から受信された命令及び/またはデータを揮発性メモリED32にロードし、揮発性メモリED32に保存された命令及び/またはデータを処理し、結果データを不揮発性メモリED34に保存することができる。プロセッサED20は、メインプロセッサED21(中央処理装置、アプリケーションプロセッサなど)、及びそれと独立して、または共に運用可能な補助プロセッサED23(グラフィック処理装置、イメージシグナルプロセッサ、センサハブプロセッサ、コミュニケーションプロセッサなど)を含む。補助プロセッサED23は、メインプロセッサED21よりも電力を少なく使用し、特化された機能を行うことができる。
【0092】
補助プロセッサED23は、メインプロセッサED21がインアクティブ状態(スリープ状態)にある間に、メインプロセッサED21の代わりに、またはメインプロセッサED21がアクティブ状態(アプリケーション実行状態)にある間に、メインプロセッサED21と共に、電子装置ED01の構成要素の一部構成要素(表示装置ED60、センサモジュールED76、通信モジュールED90など)に係わる機能及び/または状態を制御することができる。補助プロセッサED23(イメージシグナルプロセッサ、コミュニケーションプロセッサなど)は、機能的に関連した他の構成要素(カメラモジュールED80、通信モジュールED90など)の一部としても具現される。
【0093】
メモリED30は、電子装置ED01の構成要素(プロセッサED20、センサモジュールED76など)が必要とする多様なデータを保存することができる。データは、例えば、ソフトウェア(プログラムED40など)、及びそれに対する命令に係わる入力データ及び/または出力データを含む。メモリED30は、揮発性メモリED32及び/または不揮発性メモリED34を含む。不揮発性メモリED32は、電子装置ED01内に固設された内蔵メモリED36と脱着可能な外装メモリED38を含む。
【0094】
プログラムED40は、メモリED30にソフトウェアとして保存され、運用体制ED42、ミドルウェアED44及び/またはアプリケーションED46を含む。
【0095】
入力装置ED50は、電子装置ED01の構成要素(プロセッサED20など)に使用される命令及び/またはデータを電子装置ED01の外部(ユーザなど)から受信することができる。入力装置ED50は、マイク、マウス、キーボード、及び/またはデジタルペン(スタイラスペンなど)を含む。
【0096】
音響出力装置ED55は、音響信号を電子装置ED01の外部に出力することができる。音響出力装置ED55は、スピーカ及び/またはレシーバを含む。スピーカは、マルチメディア再生または録音再生のように一般の用途で使用され、レシーバは、着信電話を受信するために使用されうる。レシーバは、スピーカの一部に結合されているか、または独立した別途の装置として具現されうる。
【0097】
表示装置ED60は、電子装置ED01の外部に情報を視覚的に提供することができる。表示装置ED60は、ディスプレイ、ホログラム装置、またはプロジェクタ及び当該装置を制御するための制御回路を含む。表示装置ED60は、タッチを感知するように設定されたタッチ回路(Touch Circuitry)、及び/またはタッチによって発生する力の強度を測定するように設定されたセンサ回路(圧力センサなど)を含む。
【0098】
オーディオモジュールED70は、音を電気信号に変換させるか、逆に、電気信号を音に変換させる。オーディオモジュールED70は、入力装置ED50を介して音を獲得するか、音響出力装置ED55、及び/または電子装置ED01と直接または、無線で連結された他の電子装置(電子装置ED02など)のスピーカ及び/またはヘッドホーンを介して音を出力することができる。
【0099】
センサモジュールED76は、電子装置ED01の作動状態(電力、温度など)、または外部の環境状態(ユーザ状態など)を感知し、感知された状態に対応する電気信号及び/またはデータ値を生成することができる。センサモジュールED76は、ジェスチャーセンサ、ジャイロセンサ、気圧センサ、マグネチックセンサ、加速度センサ、グリップセンサ、近接センサ、カラーセンサ、IR(Infrared)センサ、生体センサ、温度センサ、湿度センサ、及び/または照度センサを含む。
【0100】
インターフェースED77は、電子装置ED01が他の電子装置(電子装置ED02など)と直接または、無線で連結されるために使用される1つまたは複数の指定されたプロトコルを支援することができる。インターフェースED77は、HDMI(High Definition Multimedia Interface)、USB(Universal Serial Bus)インターフェース、SDカードインターフェース、及び/またはオーディオインターフェースを含む。
【0101】
連結端子ED78は、電子装置ED01が他の電子装置(電子装置ED02など)と物理的に連結されるコネクタを含む。連結端子ED78は、HDMIコネクタ、USBコネクタ、SDカードコネクタ、及び/またはオーディオコネクタ(ヘッドホーンコネクタなど)を含む。
【0102】
ハプティックモジュールED79は、電気的信号をユーザが触覚または運動感覚を通じて認知する機械的な刺激(振動、動きなど)または電気的な刺激に変換することができる。ハプティックモジュールED79は、モータ、圧電素子、及び/または電気刺激装置を含む。
【0103】
カメラモジュールED80は、静止映像及び動画を撮影することができる。カメラモジュールED80は、上述した映像獲得装置1000を含み、追加的なレンズアセンブリーイメージシグナルプロセッサ、及び/またはフラッシュを含む。カメラモジュールED80に含まれたレンズアセンブリーは、イメージ撮影の対象である被写体から放出される光を収集することができる。
【0104】
電力管理モジュールED88は、電子装置ED01に供給される電力を管理することができる。電力管理モジュールED88は、PMIC(Power Management IntegratedCircuit)の一部として具現されうる。
【0105】
バッテリED89は、電子装置ED01の構成要素に電力を供給することができる。バッテリED89は、使い捨て1次電池、再充電可能な2次電池、及び/または燃料電池を含む。
【0106】
通信モジュールED90は、電子装置ED01と他の電子装置(電子装置ED02、電子装置ED04、サーバED08など)との直接(有線)通信チャネル及び/または、無線通信チャネルの樹立、及び樹立された通信チャネルを介した通信遂行を支援することができる。通信モジュールED90は、プロセッサED20(アプリケーションプロセッサなど)と独立して運用され、直接通信及び/または、無線通信を支援する1つまたは複数のコミュニケーションプロセッサを含む。通信モジュールED90は、無線通信モジュールED92(セルラ通信モジュール、近距離無線通信モジュール、GNSS(Global Navigation Satellite Systemなど)通信モジュール)及び/または有線通信モジュールED94(LAN(Local Area Network)通信モジュール、電力線通信モジュールなど)を含む。それら通信モジュールのうち、該当する通信モジュールは、第1ネットワークED98(ブルートゥース、WiFi DirectまたはIrDA(Infrared Data Association)のような近距離通信ネットワーク)または第2ネットワークED99(セルラネットワーク、インターネット、またはコンピューターネットワーク(LAN、WANなど)のような遠距離通信ネットワーク)を介して他の電子装置と通信することができる。そのような様々な通信モジュールは、1つの構成要素(単一チップなど)に統合されるか、または互いに別途の複数の構成要素(複数チップ)によっても具現される。無線通信モジュールED92は、加入者識別モジュールED96に保存された加入者情報(国際モバイル加入者識別子(IMSI)など)を用いて第1ネットワークED98及び/または第2ネットワークED99のような通信ネットワーク内で電子装置ED01を確認及び認証することができる。
【0107】
アンテナモジュールED97は、信号及び/または電力を外部(他の電子装置など)に送信するか、外部から受信することができる。アンテナは、基板(PCBなど)上に形成された導電性パターンからなる放射体を含むことができる。アンテナモジュールED97は、1つまたは複数のアンテナを含む。複数のアンテナが含まれた場合、通信モジュールED90によって複数のアンテナのうち、第1ネットワークED98及び/または第2ネットワークED99のような通信ネットワークで使用される通信方式に適したアンテナが選択されうる。選択されたアンテナを介して通信モジュールED90と他の電子装置との間に信号及び/または電力が送信されるか、受信されうる。アンテナ以外に他の部品(RFICなど)がアンテナモジュールED97の一部として含まれうる。
【0108】
構成要素の一部は、周辺機器間の通信方式(バス、GPIO(General Purpose Input and Output)、SPI(Serial Peripheral Interface)、MIPI(Mobile Industry Processor Interface)など)を介して互いに連結されて信号(命令、データなど)を互いに交換することができる。
【0109】
命令またはデータは、第2ネットワークED99に連結されたサーバED08を介して電子装置ED01と外部の電子装置ED04との間に送信または受信されうる。他の電子装置ED02、ED04は、電子装置ED01と同種でもよく、または異種の装置であってもよい。電子装置ED01で実行される動作の全部または一部は、他の電子装置ED02、ED04、ED08のうち、1つまたは複数の装置で実行されうる。例えば、電子装置ED01がある機能やサービスを行わなければならないとき、機能またはサービスを自己が実行する代りに、1つまたは複数の他の電子装置にその機能またはそのサービスの一部または全体を行うことを要請することができる。要請を受信した1つまたは複数の異なる電子装置は、要請に係わる追加機能またはサービスを実行し、その実行の結果を電子装置ED01に伝達することができる。そのために、クラウドコンピューティング、分散コンピューティング、及び/またはクライアント-サーバコンピューティング技術が用いられうる。
【0110】
図15は、
図14の電子装置に備えられるカメラモジュールED80を概略的に例示したブロック図である。カメラモジュールED80は、前述した映像獲得装置1000を含み、またはそれから変形された構造を有しうる。
図15を参照すれば、カメラモジュールED80は、レンズアセンブリーCM10、フラッシュCM20、イメージセンサCM30、イメージスタビライザーCM40、メモリCM50(バッファメモリなど)、及び/または、イメージシグナルプロセッサCM60を含む。
【0111】
イメージセンサCM30は、前述した映像獲得装置1000に備えられる第1イメージセンサ100、第2イメージセンサ200を含む。第1イメージセンサ100、第2イメージセンサ200は、被写体から放出または反射されてレンズアセンブリーCM10を介して伝達した光を電気的な信号に変換することで、被写体に対応するイメージを獲得することができる。第1イメージセンサ100は、RGB映像を獲得し、第2イメージセンサ200は、紫外線ないし赤外線波長範囲の超分光(hyperspectral)映像を獲得することができる。
【0112】
イメージセンサCM30は、前述した第1イメージセンサ100、第2イメージセンサ200以外にも、他のRGBセンサ、BW(Black and White)センサ、IRセンサ、またはUVセンサのように属性の異なるイメージセンサのうち、選択された1つまたは複数のセンサをさらに含む。イメージセンサCM30に含まれたそれぞれのセンサは、CCD(Charged Coupled Device)センサ及び/またはCMOS(Complementary Metal Oxide Semiconductor)センサによって具現されうる。
【0113】
レンズアセンブリーCM10は、イメージ撮影の対象である被写体から放出される光を収集することができる。カメラモジュールED80は、複数のレンズアセンブリーCM10を含み、そのような場合、カメラモジュールED80は、デュアルカメラ、360度カメラ、または球形カメラ(Spherical Camera)にもなる。複数のレンズアセンブリーCM10の一部は、同じレンズ属性(画角、焦点距離、自動焦点、Fナンバー(F Number)、光学ズームなど)を有するか、または他のレンズ属性を有することができる。レンズアセンブリーCM10は、広角レンズまたは望遠レンズを含むことができる。
【0114】
レンズアセンブリーCM10は、イメージセンサCM30に備えられる2つのイメージセンサが同じ位置の被写体の光学像を形成するように構成され、及び/またはフォーカス制御されうる。
【0115】
フラッシュCM20は、被写体から放出または反射する光を強化するために使用される光を放出することができる。フラッシュCM20は、1つまたは複数の発光ダイオード(RGB(Red-Green-Blue)LED、White LED、Infrared LED、Ultraviolet LEDなど)、及び/またはXenon Lampを含む。
【0116】
イメージスタビライザーCM40は、カメラモジュールED80またはそれを含む電子装置CM01の動きに反応して、レンズアセンブリーCM10に含まれた1つまたは複数個のレンズまたはイメージセンサ1000を特定の方向に動かすか、イメージセンサ1000の動作特性を制御(リードアウト(Read-Out)タイミングの調整など)して動きによる否定的な影響が補償されるようにすることができる。イメージスタビライザーCM40は、カメラモジュールED80の内部または外部に配置されたジャイロセンサ(図示せず)または加速度センサ(図示せず)を用いてカメラモジュールED80または電子装置ED01の動きを感知することができる。イメージスタビライザーCM40は、光学式によっても具現される。
【0117】
メモリCM50には、イメージセンサ1000を介して獲得されたイメージの一部または全体データが次のイメージ処理作業のために保存されうる。例えば、複数のイメージが高速に獲得される場合、獲得された原本データ(ベイヤーパターンデータ、高解像度データなど)は、メモリCM50に保存され、低解像度イメージのみをディスプレイした後、選択された(ユーザ選択など)イメージの原本データをイメージシグナルプロセッサCM60に伝達させるのに使用されうる。メモリCM50は、電子装置ED01のメモリED30に統合されているか、または独立して運用される別途のメモリで構成されうる。
【0118】
イメージシグナルプロセッサCM60は、イメージセンサCM30を介して獲得されたイメージまたはメモリCM50に保存されたイメージデータに対してイメージ処理を行うことができる。
図1ないし
図13で説明したように、イメージセンサCM30に含まれる2つのイメージセンサが獲得した第1映像(例えば、RGB映像)、第2映像(例えば、超分光映像)を処理し、色域が拡大された第3映像を形成することができる。そのために、プロセッサ500の構成がイメージシグナルプロセッサCM60に含まれうる。
【0119】
イメージ処理は、それ以外にも、デプスマップ(Depth Map)生成、3次元モデリング、パノラマ生成、特徴点抽出、イメージ合成、及び/またはイメージ補償(ノイズ減少、解像度調整、明るさ調整、ブラーリング(Blurring)、シャープニング(Sharpening)、ソフトニング(Softening)など)を含む。イメージシグナルプロセッサCM60は、カメラモジュールED80に含まれた構成要素(イメージセンサCM30など)に対する制御(露出時間制御、またはリードアウトタイミング制御など)を行うことができる。イメージシグナルプロセッサCM60によって処理されたイメージは、追加処理のためにメモリCM50に再び保存されるか、カメラモジュールED80の外部構成要素(メモリED30、表示装置ED60、電子装置ED02、電子装置ED04、サーバED08など)に提供されうる。イメージシグナルプロセッサCM60は、プロセッサED20に統合されるか、プロセッサED20と独立して運用される別途のプロセッサで構成されうる。イメージシグナルプロセッサCM60がプロセッサED20と別途のプロセッサで構成された場合、イメージシグナルプロセッサCM60によって処理されたイメージは、プロセッサED20によって、さらにイメージ処理を経た後、表示装置ED60を通じて表示されうる。
【0120】
電子装置ED01は、それぞれ異なる属性または機能を有する複数のカメラモジュールED80を含んでもよい。そのような場合、複数のカメラモジュールED80のうち、1つは、広角カメラで、他の1つは、望遠カメラであってもよい。同様に、複数のカメラモジュールED80のうち、1つは、前面カメラで、他の1つは、背面カメラでありうる。
【0121】
図16ないし
図25は、実施形態による映像獲得装置が適用された電子装置の多様な例を示す。
【0122】
実施形態による映像獲得装置は、
図16に図示されたモバイルフォンまたはスマートフォン5100m、
図17に図示されたタブレットまたはスマートタブレット5200、
図18に図示されたデジタルカメラまたはカムコーダ5300、
図19に図示されたノート型パソコン5400、または
図20に図示されたテレビまたはスマートテレビ5500などに適用されうる。例えば、スマートフォン5100mまたはスマートタブレット5200は、高解像度イメージセンサがそれぞれ搭載された複数の高解像度カメラを含むことができる。高解像度カメラを用いて映像内の被写体のデプス(depth)情報を抽出するか、映像のアウトフォーカシングを調節するか、映像内の被写体を自動識別することができる。
【0123】
また、映像獲得装置1000は、
図21に図示されたスマート冷蔵庫5600、
図22に図示された保安カメラ5700、
図23に図示されたロボット5800、
図24に図示された医療用カメラ5900などに適用されうる。例えば、スマート冷蔵庫5600は、映像獲得装置1000を用いて冷蔵庫内にある飲食物を自動認識し、特定飲食物の存否、入庫または出庫された飲食物の種類などを、スマートフォンを介してユーザに知らせることができる。保安カメラ5700は、超高解像度映像を提供し、高感度を利用して暗い環境でも映像内の事物または人を認識可能にしうる。ロボット5800は、人が直接接近できない災害または産業現場に投入されて高解像度映像を提供することができる。医療用カメラ5900は、診断または手術のための高解像度映像を提供し、視野を動的に調節することができる。
【0124】
また、映像獲得装置1000は、
図25に図示されたように車両6000に適用されうる。車両6000は、多様な位置に配置された複数の車両用カメラ6010、6020、6030、6040を含み、それぞれの車両用カメラ6010、6020、6030、6040は、実施例による映像獲得装置を含む。車両6000は、複数の車両用カメラ6010、6020、6030、6040を用いて車両6000の内部または周辺に係わる多様な情報を運転者に提供し、映像内の事物または人を自動認識して自律走行に必要な情報を提供することができる。
【0125】
上述した映像獲得装置及びそれを含む電子装置が、たとえ図面に図示された実施形態に基づいて説明されたにしても、それらは、例示的なものに過ぎず、当該分野で通常の知識を有する者であれば、それらにより、多様な変形及び均等な他の実施形態が可能であるという点を理解するであろう。したがって、開示された実施形態は、限定的な観点ではなく説明的な観点で考慮されねばならない。権利範囲は、本明細書において上述した説明ではなく、特許請求の範囲に示されており、それと同等な範囲内にある全ての相違点は、権利範囲に含まれていると解釈されねばならない。
【符号の説明】
【0126】
100 第1イメージセンサ
110 第1センサ層
120 カラーフィルタ
130 第1マイクロレンズアレイ
190 第1イメージング光学系
200 第2イメージセンサ
210 第2センサ層
220 分光フィルタ
230 第2マイクロレンズアレイ
290 第2イメージング光学系
300 メモリ
500 プロセッサ
700 映像出力部
1000 映像獲得装置