IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ グァンドン オッポ モバイル テレコミュニケーションズ コーポレーション リミテッドの特許一覧

<>
  • 特許-ユーザ機器及び斜視補正方法 図1
  • 特許-ユーザ機器及び斜視補正方法 図2
  • 特許-ユーザ機器及び斜視補正方法 図3
  • 特許-ユーザ機器及び斜視補正方法 図4
  • 特許-ユーザ機器及び斜視補正方法 図5
  • 特許-ユーザ機器及び斜視補正方法 図6
  • 特許-ユーザ機器及び斜視補正方法 図7
  • 特許-ユーザ機器及び斜視補正方法 図8
  • 特許-ユーザ機器及び斜視補正方法 図9
  • 特許-ユーザ機器及び斜視補正方法 図10
  • 特許-ユーザ機器及び斜視補正方法 図11
  • 特許-ユーザ機器及び斜視補正方法 図12
  • 特許-ユーザ機器及び斜視補正方法 図13
  • 特許-ユーザ機器及び斜視補正方法 図14
  • 特許-ユーザ機器及び斜視補正方法 図15
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2023-09-08
(45)【発行日】2023-09-19
(54)【発明の名称】ユーザ機器及び斜視補正方法
(51)【国際特許分類】
   H04N 23/60 20230101AFI20230911BHJP
   G06T 3/00 20060101ALI20230911BHJP
   H04N 23/67 20230101ALI20230911BHJP
【FI】
H04N23/60 500
G06T3/00 770
H04N23/67
【請求項の数】 12
(21)【出願番号】P 2021568633
(86)(22)【出願日】2019-05-24
(65)【公表番号】
(43)【公表日】2022-07-27
(86)【国際出願番号】 CN2019088417
(87)【国際公開番号】W WO2020237441
(87)【国際公開日】2020-12-03
【審査請求日】2021-11-16
(73)【特許権者】
【識別番号】516227559
【氏名又は名称】オッポ広東移動通信有限公司
【氏名又は名称原語表記】GUANGDONG OPPO MOBILE TELECOMMUNICATIONS CORP., LTD.
【住所又は居所原語表記】No. 18 Haibin Road,Wusha, Chang’an,Dongguan, Guangdong 523860 China
(74)【代理人】
【識別番号】100126000
【弁理士】
【氏名又は名称】岩池 満
(74)【代理人】
【識別番号】100203105
【弁理士】
【氏名又は名称】江口 能弘
(72)【発明者】
【氏名】張 洪偉
【審査官】吉川 康男
(56)【参考文献】
【文献】特開2000-236434(JP,A)
【文献】特開2017-223648(JP,A)
【文献】特開平11-144036(JP,A)
【文献】特開2011-216958(JP,A)
【文献】特開平04-083478(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
H04N 23/60
G06T 3/00
H04N 23/67
(57)【特許請求の範囲】
【請求項1】
画像感知モジュールと、
前記画像感知モジュールに接続されたプロセッサとを含むユーザ機器であって、
前記プロセッサは、
前記画像感知モジュールを制御して互いに対応するいくつかのカラー画像、赤外線(IR)画像及び深度画像を異なる撮影角度で撮影し、
前記深度画像から平面パラメータを推定し、
前記深度画像から平面パラメータを推定することにおける同一の前記深度画像から焦点距離データを算出し、
前記画像感知モジュールを制御して前記焦点距離データからこれらの焦点距離において部分合焦画像を撮影し、
前記部分合焦画像から合焦画像データを切り取り、これらの合焦画像データを完全合焦画像に合成し、
前記完全合焦画像を非透視画像に調整し、
異なる撮影角度でのいくつかの前記非透視画像を単一画像に合成することを特徴とする、ユーザ機器。
【請求項2】
前記完全合焦画像を非透視画像に調整することは、前記深度画像から算出された透視座標軸において前記完全合焦画像の四隅の座標データを推定することと、前記完全合焦画像をドラッグして実世界座標軸において非透視画像を形成することとを含むことを特徴とする、請求項に記載のユーザ機器。
【請求項3】
記ユーザ機器は、表示モジュールを更に含み、前記プロセッサは、前記表示モジュールに表示された前記単一画像にトリミング候補枠を設定することを特徴とする、請求項に記載のユーザ機器。
【請求項4】
前記深度画像から平面パラメータを推定することは、前記深度画像から平面の法線ベクトルを推定することを含み、
前記ユーザ機器は、慣性計測ユニット(IMU)を更に含み、前記深度画像から平面パラメータを推定することは、IMUのデータから透視垂直座標軸及び透視水平座標軸を推定することを更に含むことを特徴とする、請求項1に記載のユーザ機器。
【請求項5】
前記深度画像から平面パラメータを推定することにおける同一の前記深度画像から焦点距離データを算出することは、焦点距離に対応する被写界深度の領域が重なって前記深度画像に対応する前記カラー画像の全体をカバーするように、いくつかの焦点距離を決定することを含み、
前記深度画像から平面パラメータを推定することにおける同一の前記深度画像から焦点距離データを算出することは、前記カラー画像における前記被写界深度の各領域が被写体のテクスチャを有するか否かを判定することを更に含むことを特徴とする、請求項1に記載のユーザ機器。
【請求項6】
画像感知モジュールによって互いに対応するいくつかのカラー画像、赤外線(IR)画像及び深度画像を異なる撮影角度で撮影するステップと、
前記深度画像から平面パラメータを推定するステップと、
前記深度画像から平面パラメータを推定するステップにおける同一の前記深度画像から焦点距離データを算出するステップと、
前記画像感知モジュールによって、焦点距離データからこれらの焦点距離において部分合焦画像を撮影するステップと、
前記部分合焦画像から合焦画像データを切り取り、これらの合焦画像データを完全合焦画像に合成するステップと
前記完全合焦画像を非透視画像に調整するステップと、
異なる撮影角度でのいくつかの前記非透視画像を単一画像に合成するステップを含むことを特徴とする、斜視補正方法。
【請求項7】
前記完全合焦画像を非透視画像に調整するステップは、前記深度画像から算出された透視座標軸において前記完全合焦画像の四隅の座標データを推定するステップと、前記完全合焦画像をドラッグして実世界座標軸において非透視画像を形成するステップとを更に含むことを特徴とする、請求項に記載の斜視補正方法。
【請求項8】
表示モジュールに表示された単一画像にトリミング候補枠を設定するステップを更に含むことを特徴とする、請求項に記載の斜視補正方法。
【請求項9】
前記深度画像から平面パラメータを推定するステップは、前記深度画像から平面の法線ベクトルを推定するステップを含むことを特徴とする、請求項に記載の斜視補正方法。
【請求項10】
前記深度画像から平面パラメータを推定するステップは、IMUのデータから透視垂直座標軸及び透視水平座標軸を推定するステップを更に含むことを特徴とする、請求項に記載の斜視補正方法。
【請求項11】
前記深度画像から平面パラメータを推定するステップにおける同一の前記深度画像から焦点距離データを算出するステップは、焦点距離に対応する被写界深度の領域が重なって前記深度画像に対応する前記カラー画像の全体をカバーするように、いくつかの焦点距離を決定するステップを含むことを特徴とする、請求項に記載の斜視補正方法。
【請求項12】
前記深度画像から平面パラメータを推定するステップにおける同一の前記深度画像から焦点距離データを算出するステップは、前記カラー画像における被写界深度の各領域が被写体のテクスチャを有するか否かを判定するステップを更に含むことを特徴とする、請求項11に記載の斜視補正方法。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、画像処理技術の分野に関し、より具体的には、ユーザ機器(UE)及び斜視補正方法に関する。
【背景技術】
【0002】
図1を参照すると、現在の技術では、ユーザが携帯電話などのユーザ機器1を用いて輪郭が鮮明な斜め配向平面(oriented plane surface)の写真を撮る場合、ユーザ機器1は、斜め配向平面の画像を歪みの無い形状に補正する。しかしながら、斜め配向平面の輪郭が不鮮明である場合、又は一部のみが撮影領域2内にある場合、又は斜め配向平面が撮影領域2の幅よりも大きい横幅を有する場合、ユーザは、被写体全体の透視歪み(perspective distortion)の無い単一の合焦画像を得ることができない。
【0003】
米国特許第6449004号は、斜視補正(oblique view correction)機能を備えた電子カメラを開示している。被写体の光像を光電的に撮影して画像データを生成する撮像素子を備えた電子カメラを開示している。傾斜角情報提供装置が、撮像素子の感知面と被写体の正面との間の傾斜角に関する情報を提供する。距離測定器が、被写体までの距離を測定する。補正器が、提供された傾斜角情報と測定された距離に基づいて補正して、画像データを生成することによって、正面が撮像素子の感知面に平行な平面にある擬似被写体像を生成する。
【0004】
米国特許第7365301号は、3次元形状検出装置、画像撮影装置及び3次元形状検出プログラムを開示している。パターン光を投影する投影手段と、パターン光が投影された被写体のパターン光投影画像を撮影する画像撮影手段と、パターン光投影画像から抽出されたパターン光の軌跡に基づいて被写体の3次元形状を算出する3次元形状算出手段とを含む3次元形状検出装置を開示している。
【0005】
米国特許第7711259号は、撮像部の被写界深度を増加させる方法及び装置を開示している。撮像部が、それぞれ異なる焦点位置で複数の画像を撮影し、これらの画像を1枚の画像に合成して鮮鋭化することを開示している。別の実施形態において、画像撮影中に焦点位置が変化しながら単一画像を撮影し、得られた画像が鮮鋭化される。
【0006】
ヨーロッパ特許出願第0908847号は、画像合成装置及び画像合成方法を開示している。画像合成装置が、記憶された画像情報を用いて、選択された画像の位置関係を設定するための座標変換パラメータを生成し、生成された座標変換パラメータを任意の画像の基準位置として変更し、得られた座標変換パラメータを画像合成情報として提供し、画像合成情報に従って画像を合成することを開示している。
【0007】
視野が被写体よりも狭いカメラによって透視歪みの無い単一画像を得る技術が存在しない。
【0008】
ユーザが透視歪みの無い単一画像を得ることを可能にするユーザ機器(UE)及び斜視補正方法を提供することがまだ必要である。
【発明の概要】
【0009】
本開示の目的は、ユーザが透視歪み(perspective distortion)の無い単一画像を得ることを可能にするユーザ機器(UE)及び斜視補正方法を提案することである。
【0010】
本開示の第1の態様では、ユーザ機器(UE)は、画像感知モジュールと、前記画像感知モジュールに接続されたプロセッサとを含む。前記プロセッサは、前記画像感知モジュールを制御してカラー画像、赤外線(IR)画像及び深度画像を撮影し、前記深度画像から平面パラメータを推定し、前記深度画像から焦点距離データを算出し、前記画像感知モジュールを制御して前記焦点距離データから焦点距離において部分合焦画像(部分的に焦点の合った画像:partially focused image)を撮影し、前記部分合焦画像から合焦画像データを切り取り、これらの合焦画像データを完全合焦画像(全体合焦画像、全体的に焦点の合った画像:wholly focused image)に合成する。
【0011】
本開示の実施形態において、前記プロセッサは、前記完全合焦画像を非透視画像(non-perspective image)に調整する。
【0012】
本開示の実施形態において、前記完全合焦画像を非透視画像に調整する方法は、前記深度画像から算出された透視座標軸(perspective coordinate axes)において前記完全合焦画像の四隅の座標データを推定するステップと、前記完全合焦画像をドラッグして実世界座標軸(real world coordinate axes)において非透視画像を形成するステップとを含む。
【0013】
本開示の実施形態において、前記プロセッサは、いくつかの前記非透視画像を単一画像に合成する。
【0014】
本開示の実施形態において、前記UEは、表示モジュールを更に含み、前記プロセッサは、前記表示モジュールに表示された前記単一画像にトリミング候補枠(trimming candidate frame)を設定する。
【0015】
本開示の実施形態において、前記深度画像から平面パラメータを推定する方法は、前記深度画像から平面の法線ベクトルを推定するステップを含む。
【0016】
本開示の実施形態において、前記UEは、慣性計測ユニット(IMU)を更に含む。前記深度画像から平面パラメータを推定する方法は、IMUのデータから透視垂直座標軸及び透視水平座標軸を推定するステップを更に含む。
【0017】
本開示の実施形態において、前記深度画像から焦点距離データを算出する方法は、焦点距離に対応する被写界深度(depth of field)の領域が重なって前記カラー画像の全体をカバーするように、いくつかの焦点距離を決定するステップを含む。
【0018】
本開示の実施形態において、前記深度画像から焦点距離データを算出する方法は、被写界深度の各領域がテクスチャ(texture)を有するか否かを判定するステップを更に含む。
【0019】
本開示の実施形態において、前記画像感知モジュールは、カラー画像を感知するカメラモジュールと、深度画像を感知する深度感知モジュールとを含む。
【0020】
本開示の実施形態において、前記画像感知モジュールは、前記カメラモジュール及び前記深度感知モジュールを制御する画像プロセッサを更に含む。
【0021】
本開示の実施形態において、前記カメラモジュールは、レンズモジュールと、画像センサと、画像センサドライバと、合焦及び光学画像安定化(OIS)ドライバと、合焦及びOISアクチュエータと、ジャイロセンサとを含む。前記画像センサドライバは、前記画像センサを制御して画像を撮影する。前記合焦及びOISドライバは、前記合焦及びOISアクチュエータを制御して前記レンズモジュールの焦点を合わせ、前記レンズモジュールを動かして人間の手振れ(hand shock)を補正する(補償する:compensate)。前記ジャイロセンサは、前記合焦及びOISドライバに動きデータ(motion data)を提供する。
【0022】
本開示の実施形態において、前記深度感知モジュールは、プロジェクターと、レンズと、レンジセンサと、レンジセンサドライバとを含む。前記レンジセンサドライバは、前記プロジェクターを制御してドットマトリックスパルス光を投射し、前記レンジセンサを制御して前記レンズによって合焦した反射ドットマトリックス画像を撮影する。
【0023】
本開示の実施形態において、前記UEは、プログラム、画像データ、平面パラメータ及び変換行列(translation matrix)を記録するメモリを更に含む。
【0024】
本開示の実施形態において、前記深度画像は、点群データを含む。
【0025】
本開示の実施形態において、前記UEは、人間の指示を受け付ける入力モジュールと、マルチメディアデータを圧縮及び解凍するコーデックと、前記コーデックに接続されたスピーカ及びマイクと、メッセージを送受信する無線通信モジュールと、測位情報を提供する全地球的航法衛星システム(GNSS)モジュールとを更に含む。
【0026】
本開示の第2の態様では、斜視補正方法は、画像感知モジュールによってカラー画像、赤外線(IR)画像、深度画像を撮影するステップと、前記深度画像から平面パラメータを推定するステップと、前記深度画像から焦点距離データを算出するステップと、前記画像感知モジュールによって、焦点距離データからこれらの焦点距離において部分合焦画像を撮影するステップと、前記部分合焦画像から合焦画像データを切り取り、これらの合焦画像データを完全合焦画像に合成するステップとを含む。
【0027】
本開示の実施形態において、前記斜視補正方法は、前記完全合焦画像を非透視画像に調整するステップを更に含む。
【0028】
本開示の実施形態において、前記完全合焦画像を非透視画像に調整するステップは、前記深度画像から算出された透視座標軸において前記完全合焦画像の四隅の座標データを推定するステップと、前記完全合焦画像をドラッグして実世界座標軸において非透視画像を形成するステップとを更に含む。
【0029】
本開示の実施形態において、前記斜視補正方法は、いくつかの前記非透視画像を単一画像に合成するステップを更に含む。
【0030】
本開示の実施形態において、前記斜視補正方法は、表示モジュールに表示された前記単一画像にトリミング候補枠を設定するステップを更に含む。
【0031】
本開示の実施形態において、前記深度画像から平面パラメータを推定するステップは、前記深度画像から平面の法線ベクトルを推定するステップを含む。
【0032】
本開示の実施形態において、前記深度画像から平面パラメータを推定するステップは、IMUのデータから透視垂直座標軸及び透視水平座標軸を推定するステップを更に含む。
【0033】
本開示の実施形態において、前記深度画像から焦点距離データを算出するステップは、焦点距離に対応する被写界深度の領域が重なって前記カラー画像の全体をカバーするように、いくつかの焦点距離を決定するステップを含む。
【0034】
本開示の実施形態において、前記深度画像から焦点距離データを算出するステップは、被写界深度の各領域がテクスチャを有するか否かを判定するステップを更に含む。
【0035】
本開示の実施形態において、前記画像感知モジュールは、カラー画像を感知するカメラモジュールと、深度画像を感知する深度感知モジュールとを含む。
【0036】
本開示の実施形態において、前記画像感知モジュールは、前記カメラモジュール及び前記深度感知モジュールを制御する画像プロセッサを更に含む。
【0037】
本開示の実施形態において、前記カメラモジュールは、レンズモジュールと、画像センサと、画像センサドライバと、合焦及び光学画像安定化(OIS)ドライバと、合焦及びOISアクチュエータと、ジャイロセンサとを含む。前記画像センサドライバは、前記画像センサを制御して画像を撮影する。前記合焦及びOISドライバは、前記合焦及びOISアクチュエータを制御して前記レンズモジュールの焦点を合わせ、前記レンズモジュールを動かして人間の手振れを補償する。前記ジャイロセンサは、前記合焦及びOISドライバに動きデータを提供する。
【0038】
本開示の実施形態において、前記深度感知モジュールは、プロジェクターと、レンズと、レンジセンサと、レンジセンサドライバとを含む。前記レンジセンサドライバは、前記プロジェクターを制御してドットマトリックスパルス光を投射し、前記レンジセンサを制御して前記レンズによって合焦した反射ドットマトリックス画像を撮影する。
【0039】
本開示の実施形態において、前記斜視補正方法は、プログラム、画像データ、平面パラメータ及び変換行列を記録するメモリを提供するステップを更に含む。
【0040】
本開示の実施形態において、前記深度画像は、点群データを含む。
【0041】
本開示の実施形態において、前記斜視補正方法は、人間の指示を受け付ける入力モジュールと、マルチメディアデータを圧縮及び解凍するコーデックと、前記コーデックに接続されたスピーカ及びマイクと、メッセージを送受信する無線通信モジュールと、測位情報を提供する全地球的航法衛星システム(GNSS)モジュールとを提供するステップを更に含む。
【0042】
したがって、本発明の実施形態は、ユーザが透視歪みの無い単一画像を得ることを可能にするユーザ機器(UE)及び斜視補正方法を提供する。
【0043】
本開示の実施形態又は従来技術をより明確に説明するために、実施形態で説明される以下の図面について簡単に紹介する。図面が本開示のいくつかの実施形態に過ぎず、当業者であれば、前提を定めることなく、これらの図に基づいて他の図を得ることができることは明らかである。
【図面の簡単な説明】
【0044】
図1】従来技術のユーザ機器の概略適用図である。
図2】本開示の実施形態に係るユーザ機器(UE)の概略図である。
図3】本開示の実施形態に係る斜視補正方法を示すフローチャートである。
図4】本開示の実施形態に係る深度画像から平面パラメータを推定するステップを示すフローチャートである。
図5】本開示の実施形態に係る深度画像から焦点距離データを算出するステップを示すフローチャートである。
図6】本開示の実施形態に係る完全合焦画像を非透視画像に調整するステップを示すフローチャートである。
図7】本開示の実施形態に係るカラー画像、赤外線(IR)画像及び深度画像を撮影するステップの概略図である。
図8】本開示の実施形態に係る深度画像から平面パラメータを推定するステップの概略図である。
図9】本開示の実施形態に係る深度画像から焦点距離データを算出するステップの概略図である。
図10】本開示の実施形態に係る焦点位置、焦点距離、被写界深度(DOF)及びDOFの領域の関係を説明する概略図である。
図11】本開示の実施形態に係る焦点距離データから焦点距離において部分合焦画像を撮影するステップの概略図である。
図12】本開示の実施形態に係る部分合焦画像から合焦画像データを切り取り、これらの合焦画像データを完全合焦画像に合成するステップの概略図である。
図13】本開示の実施形態に係る完全合焦画像を非透視画像に調整するステップの概略図である。
図14】本開示の実施形態に係るいくつかの非透視画像を単一画像に合成するステップの概略図である。
図15】本開示の実施形態に係る表示モジュールに表示された単一画像にトリミング候補枠を設定するステップの概略図である。
【発明を実施するための形態】
【0045】
以下の添付図面を参照して、本開示の実施形態を技術的事項、構造的特徴、達成される目的及び効果とともに詳細に説明する。具体的には、本開示の実施形態における用語は、特定の実施形態の目的を説明するためのものに過ぎず、本開示を限定するものではない。
【0046】
図2及び図3を参照すると、いくつかの実施形態において、ユーザ機器(UE)100は、画像感知モジュール10と、画像感知モジュール10に接続されたプロセッサ20とを含む。プロセッサ20は、画像感知モジュール10を制御してカラー画像C_I、赤外線(IR)画像IR_I及び深度画像D_Iを撮影し、深度画像D_Iから平面パラメータを推定し、深度画像D_Iから焦点距離データを算出し、画像感知モジュール10を制御して焦点距離データからこれらの焦点距離において部分合焦画像PF_Iを撮影し、部分合焦画像PF_Iから合焦画像データを切り取り、これらの合焦画像データを完全合焦画像WF_Iに合成する。
【0047】
詳細には、図7を参照すると、UE100のプロセッサ20は、画像感知モジュール10を制御して、例えば、被写体の左側のカラー画像C_I、赤外線(IR)画像IR_I及び深度画像D_Iを撮影し、被写体の右側のカラー画像C_I’、赤外線(IR)画像IR_I’及び深度画像D_I’を撮影する。
【0048】
いくつかの実施形態において、図4及び図8を参照すると、深度画像D_Iから平面パラメータを推定する方法は、深度画像D_Iから平面の法線ベクトルN_Vを推定するステップを含む。
【0049】
詳細には、図8を参照すると、UE100は、深度画像D_Iから平面の法線ベクトルN_Vを推定し、深度画像D_I’から平面の法線ベクトルN_V’を推定する。
【0050】
いくつかの実施形態において、図2図4及び図8を参照すると、UEは、慣性計測ユニット(IMU)40を更に含む。深度画像D_Iから平面パラメータを推定する方法は、IMU40のデータから透視垂直座標軸PV_CA及び透視水平座標軸PH_CAを推定するステップを更に含む。
【0051】
詳細には、図8を参照すると、UE100は、IMU40のデータから深度画像D_Iの透視垂直座標軸PV_CA及び透視水平座標軸PH_CAを推定し、IMU40のデータから深度画像D_I’の透視垂直座標軸PV_CA’及び透視水平座標軸PH_CA’を推定する。
【0052】
いくつかの実施形態において、図5及び図9を参照すると、深度画像D_Iから焦点距離データを算出する方法は、焦点距離FD_1~FD_4に対応する被写界深度の領域DF_A1~DF_A4が重なってカラー画像C_Iの全体をカバーするように、いくつかの焦点距離FD_1~FD_4を決定するステップを含む。
【0053】
詳細には、図9及び図10を参照すると、UE100の焦点位置F_1は、焦点距離FD_1及び被写界深度DF_1を有する。被写体上の被写界深度DF_1の交差領域(intersection area)は、被写界深度の領域DF_A1である。被写界深度の領域DF_A1は、深度画像D_Iのデータから算出することができる。一方、UE100の焦点位置F_2は、焦点距離FD_2及び被写界深度DF_2を有する。被写体上の被写界深度DF_2の交差領域は、被写界深度の領域DF_A2である。UE100の焦点位置F_3は、焦点距離FD_3及び被写界深度DF_3を有する。被写体上の被写界深度DF_3の交差領域は、被写界深度の領域DF_A3である。UE100の焦点位置F_4は、焦点距離FD_4及び被写界深度DF_4を有する。被写体上の被写界深度DF_4の交差領域は、被写界深度の領域DF_A4である。
【0054】
詳細には、図5図9及び図10を参照すると、UE100は、焦点位置F_1~F_4に対応する被写界深度の領域DF_A1~DF_A4が重なってカラー画像C_Iの全体をカバーするように、いくつかの焦点位置F_1~F_4を決定する。UE100は、焦点位置F_1~F_4に対応する被写界深度の領域DF_A1’~DF_A4’が重なってカラー画像C_I’の全体をカバーするように、いくつかの焦点位置F_1’~F_4’を決定する。
【0055】
いくつかの実施形態において、図5を参照すると、深度画像D_Iから焦点距離データを算出する方法は、被写界深度の領域DF_A1~DF_A4がそれぞれテクスチャを有するか否かを判定するステップを更に含む。
【0056】
詳細には、図3図11及び図12を参照すると、プロセッサ20は、画像感知モジュール10を制御して、焦点距離データから焦点距離FD_2において部分合焦画像PF_I2を撮影し、焦点距離データから焦点距離FD_3において部分合焦画像PF_I3を撮影し、部分合焦画像PF_I2から合焦画像データを切り取り、部分合焦画像PF_I3から合焦画像データを切り取り、これらの合焦画像データを完全合焦画像WF_Iに合成する。プロセッサ20は、画像感知モジュール10を制御して、部分合焦画像PF_I2’を撮影し、部分合焦画像PF_I3’を撮影し、部分合焦画像PF_I2’から合焦画像データを切り取り、部分合焦画像PF_I3’から合焦画像データを切り取り、これらの合焦画像データを完全合焦画像WF_I’に合成する。
【0057】
いくつかの実施形態において、図3を参照すると、プロセッサ20は、完全合焦画像WF_Iを非透視画像NP_Iに調整する。いくつかの実施形態において、図3図6及び図13を参照すると、完全合焦画像WF_Iを非透視画像NP_Iに調整する方法は、深度画像D_Iから算出された透視座標軸P_CAにおいて完全合焦画像WF_Iの四隅C1~C4の座標データを推定するステップと、完全合焦画像WF_Iをドラッグして実世界座標軸R_CAにおいて非透視画像NP_Iを形成するステップとを含む。
【0058】
詳細には、UE100は、深度画像D_Iから算出された透視座標軸P_CAにおいて完全合焦画像WF_Iの四隅C1~C4の座標データを推定した後、完全合焦画像WF_Iをドラッグして実世界座標軸R_CAにおいて非透視画像NP_Iを形成する。詳細には、UE100は、透視座標軸P_CAから実世界座標軸R_CAへの変換行列を提供する。完全合焦画像WF_Iは、完全合焦画像WF_Iのデータに変換行列を乗算することによって、非透視画像NP_Iに変換される。一方、UE100は、深度画像D_I’から算出された透視座標軸P_CA’において完全合焦画像WF_I’の四隅C1’~C4’の座標データを推定した後、完全合焦画像WF_I’をドラッグして実世界座標軸R_CAにおいて非透視画像NP_I’を形成する。
【0059】
いくつかの実施形態において、図14を参照すると、プロセッサ20は、いくつかの非透視画像NP_Iを単一画像S_Iに合成する。
【0060】
詳細には、プロセッサ20は、非透視画像NP_I、NP_I’を単一画像S_Iに合成する。
【0061】
いくつかの実施形態において、図15を参照すると、UE100は、表示モジュール30を更に含み、プロセッサ20は、表示モジュール30に表示された単一画像S_Iにトリミング候補枠TC_Fを設定する。いくつかの実施形態において、図2を参照すると、画像感知モジュール10は、カラー画像C_Iを感知するカメラモジュール11と、深度画像D_Iを感知する深度感知モジュール12とを含む。いくつかの実施形態において、図2を参照すると、画像感知モジュール10は、カメラモジュール11及び深度感知モジュール12を制御する画像プロセッサ13を更に含む。いくつかの実施形態において、図2を参照すると、カメラモジュール11は、レンズモジュール111と、画像センサ112と、画像センサドライバ113と、合焦及び光学画像安定化(OIS)ドライバ114と、合焦及びOISアクチュエータ115と、ジャイロセンサ116とを含む。画像センサドライバ113は、画像センサ112を制御して画像を撮影する。合焦及びOISドライバ114は、合焦及びOISアクチュエータ115を制御してレンズモジュール111の焦点を合わせ、レンズモジュール111を動かして人間の手振れを補償する。ジャイロセンサ116は、合焦及びOISドライバ114に動きデータを提供する。
【0062】
いくつかの実施形態において、図2を参照すると、深度感知モジュール12は、プロジェクター124と、レンズ121と、レンジセンサ122と、レンジセンサドライバ123とを含む。レンジセンサドライバ123は、プロジェクター124を制御してドットマトリックスパルス光を投射し、レンジセンサ122を制御してレンズ121によって合焦した反射ドットマトリックス画像を撮影する。いくつかの実施形態において、図2を参照すると、UE100は、プログラム、画像データ、平面パラメータ及び変換行列を記録するメモリ50を更に含む。いくつかの実施形態において、深度画像D_Iは、点群データを含む。いくつかの実施形態において、図2を参照すると、UE100は、人間の指示を受け付ける入力モジュール60と、マルチメディアデータを圧縮及び解凍するコーデック70と、コーデック70に接続されたスピーカ80及びマイク90と、メッセージを送受信する無線通信モジュール91と、測位情報を提供する全地球的航法衛星システム(GNSS)モジュール92とを更に含む。
【0063】
また、図3を参照すると、いくつかの実施形態において、斜視補正方法は、ブロックS100で、画像感知モジュール10によってカラー画像C_I、赤外線(IR)画像IR_I及び深度画像D_Iを撮影するステップと、ブロックS200で、深度画像D_Iから平面パラメータを推定するステップと、ブロックS300で、深度画像D_Iから焦点距離データを算出するステップと、ブロックS400で、画像感知モジュール10によって、焦点距離データからこれらの焦点距離FD_1~FD_4において部分合焦画像PF_Iを撮影するステップと、ブロックS500で、部分合焦画像PF_Iから合焦画像データを切り取り、これらの合焦画像データを完全合焦画像WF_Iに合成するステップとを含む。
【0064】
詳細には、図2及び図7を参照すると、UE100のプロセッサ20は、画像感知モジュール10を制御して、例えば、被写体の左側のカラー画像C_I、赤外線(IR)画像IR_I及び深度画像D_Iを撮影し、被写体の右側のカラー画像C_I’、赤外線(IR)画像IR_I’及び深度画像D_I’を撮影する。
【0065】
いくつかの実施形態において、図4及び図8を参照すると、ブロックS200で、深度画像D_Iから平面パラメータを推定するステップは、ブロックS210で、深度画像D_Iから平面の法線ベクトルN_Vを推定するステップを含む。
【0066】
詳細には、図8を参照すると、UE100は、深度画像D_Iから平面の法線ベクトルN_Vを推定し、深度画像D_I’から平面の法線ベクトルN_V’を推定する。
【0067】
いくつかの実施形態において、図2、4及び8を参照すると、ブロックS200で、深度画像から平面パラメータを推定するステップは、ブロックS220で、IMU40のデータから透視垂直座標軸PV_CA及び透視水平座標軸PH_CAを推定するステップを更に含む。
【0068】
詳細には、図8を参照すると、UE100は、IMU40のデータから深度画像D_Iの透視垂直座標軸PV_CA及び透視水平座標軸PH_CAを推定し、IMU40のデータから深度画像D_I’の透視垂直座標軸PV_CA’及び透視水平座標軸PH_CA’を推定する。
【0069】
いくつかの実施形態において、図5及び図9を参照すると、ブロックS300で、深度画像から焦点距離データを算出するステップは、ブロックS310で、焦点距離FD_1~FD_4に対応する被写界深度の領域DF_A1~DF_A4が重なってカラー画像C_Iの全体をカバーするように、いくつかの焦点距離FD_1~FD_4を決定するステップを含む。
【0070】
詳細には、図9及び図10を参照すると、UE100の焦点位置F_1は、焦点距離FD_1及び被写界深度DF_1を有する。被写体上の被写界深度DF_1の交差領域は、被写界深度の領域DF_A1である。被写界深度の領域DF_A1は、深度画像D_Iのデータから算出することができる。一方、UE100の焦点位置F_2は、焦点距離FD_2及び被写界深度DF_2を有する。被写体上の被写界深度DF_2の交差領域は、被写界深度の領域DF_A2である。UE100の焦点位置F_3は、焦点距離FD_3及び被写界深度DF_3を有する。被写体上の被写界深度DF_3の交差領域は、被写界深度の領域DF_A3である。UE100の焦点位置F_4は、焦点距離FD_4及び被写界深度DF_4を有する。被写体上の被写界深度DF_4の交差領域は、被写界深度の領域DF_A4である。
【0071】
詳細には、図5図9及び図10を参照すると、UE100は、焦点位置F_1~F_4に対応する被写界深度の領域DF_A1~DF_A4が重なってカラー画像C_Iの全体をカバーするように、いくつかの焦点位置F_1~F_4を決定する。UE100は、焦点位置F_1’~F_4’に対応する被写界深度の領域DF_A1’~DF_A4’が重なってカラー画像C_I’の全体をカバーするように、いくつかの焦点位置F_1’~F_4’を決定する。
【0072】
いくつかの実施形態において、ブロックS300で、深度画像から焦点距離データを算出するステップは、ブロックS320で、被写界深度の領域DF_A1~DF_A4がそれぞれテクスチャを有するか否かを判定するステップを更に含む。
【0073】
詳細には、図3図11及び図12を参照すると、プロセッサ20は、画像感知モジュール10を制御して、焦点距離データから焦点距離FD_2において部分合焦画像PF_I2を撮影し、焦点距離データから焦点距離FD_3において部分合焦画像PF_I3を撮影し、部分合焦画像PF_I2から合焦画像データを切り取り、部分合焦画像PF_I3から合焦画像データを切り取り、これらの合焦画像データを完全合焦画像WF_Iに合成する。プロセッサ20は、画像感知モジュール10を制御して、部分合焦画像PF_I2’を撮影し、部分合焦画像PF_I3’を撮影し、部分合焦画像PF_I2’から合焦画像データを切り取り、部分合焦画像PF_I3’から合焦画像データを切り取り、これらの合焦画像データを完全合焦画像WF_I’に合成する。
【0074】
いくつかの実施形態において、図3を参照すると、斜視補正方法は、ブロックS600で、完全合焦画像WF_Iを非透視画像NP_Iに調整するステップを更に含む。いくつかの実施形態において、図3図6及び図13を参照すると、ブロックS600で、完全合焦画像WF_Iを非透視画像NP_Iに調整するステップは、ブロックS610で、深度画像D_Iから算出された透視座標軸P_CAにおいて完全合焦画像WF_Iの四隅C1~C4の座標データを推定するステップと、ブロックS620で、完全合焦画像WF_Iをドラッグして実世界座標軸R_CAにおいて非透視画像NP_Iを形成するステップとを更に含む。
【0075】
詳細には、UE100は、深度画像D_Iから算出された透視座標軸P_CAにおいて完全合焦画像WF_Iの四隅C1~C4の座標データを推定した後、完全合焦画像WF_Iをドラッグして実世界座標軸R_CAにおいて非透視画像NP_Iを形成する。詳細には、UE100は、透視座標軸P_CAから実世界座標軸R_CAへの変換行列を提供する。完全合焦画像WF_Iは、完全合焦画像WF_Iのデータに変換行列を乗算することによって、非透視画像NP_Iに変換される。一方、UE100は、深度画像D_I’から算出された透視座標軸P_CA’において完全合焦画像WF_I’の四隅C1’~C4’の座標データを推定した後、完全合焦画像WF_I’をドラッグして実世界座標軸R_CAにおいて非透視画像NP_I’を形成する。いくつかの実施形態において、図14を参照すると、斜視補正方法は、ブロックS700で、いくつかの非透視画像NP_Iを単一画像S_Iに合成するステップを更に含む。
【0076】
詳細には、プロセッサ20は、非透視画像NP_I、NP_I’を単一画像S_Iに合成する。
【0077】
いくつかの実施形態において、図15を参照すると、斜視補正方法は、ブロックS800で、表示モジュール30に表示された単一画像S_Iにトリミング候補枠TC_Fを設定するステップを更に含む。いくつかの実施形態において、図2を参照すると、画像感知モジュール10は、カラー画像C_Iを感知するカメラモジュール11と、深度画像D_Iを感知する深度感知モジュール12とを含む。いくつかの実施形態において、図2を参照すると、画像感知モジュール10は、カメラモジュール11及び深度感知モジュール12を制御する画像プロセッサ13を更に含む。
【0078】
いくつかの実施形態において、図2を参照すると、カメラモジュール11は、レンズモジュール111と、画像センサ112と、画像センサドライバ113と、合焦及び光学画像安定化(OIS)ドライバ114と、合焦及びOISアクチュエータ115と、ジャイロセンサ116とを含む。画像センサドライバ113は、画像センサ112を制御して画像を撮影する。合焦及びOISドライバ114は、合焦及びOISアクチュエータ115を制御してレンズモジュール111の焦点を合わせ、レンズモジュール111を動かして人間の手振れを補償する。ジャイロセンサ116は、合焦及びOISドライバ114に動きデータを提供する。いくつかの実施形態において、図2を参照すると、深度感知モジュール12は、プロジェクター124と、レンズ121と、レンジセンサ122と、レンジセンサドライバ123とを含む。レンジセンサドライバ123は、プロジェクター124を制御してドットマトリックスパルス光を投射し、レンジセンサ122を制御してレンズ121によって合焦した反射ドットマトリックス画像を撮影する。
【0079】
いくつかの実施形態において、図2を参照すると、斜視補正方法は、プログラム、画像データ、平面パラメータ及び変換行列を記録するメモリ50を提供するステップを更に含む。いくつかの実施形態において、深度画像D_Iは、点群データを含む。いくつかの実施形態において、図2を参照すると、斜視補正方法は、人間の指示を受け付ける入力モジュール60と、マルチメディアデータを圧縮及び解凍するコーデック70と、コーデック70に接続されたスピーカ80及びマイク90と、メッセージを送受信する無線通信モジュール91と、測位情報を提供する全地球的航法衛星システム(GNSS)モジュール92とを提供するステップを更に含む。
【0080】
斜視補正方法の利点は、以下の2点を含む。
1.透視歪みの無い単一の完全合焦画像を提供する。
2.カメラの撮影領域の幅よりも大きい横幅を有する被写体の単一画像を提供する。
【0081】
本開示の実施形態において、UE及び斜視補正方法を提供する。透視歪みの無い単一の合焦画像を提供するために、UEの画像センサ通信方法は、画像感知モジュールによってカラー画像、赤外線画像及び深度画像を撮影するステップと、深度画像から平面パラメータを推定するステップと、深度画像から焦点距離データを算出するステップと、画像感知モジュールによって、焦点距離データからこれらの焦点距離において部分合焦画像を撮影するステップと、部分合焦画像から合焦画像データを切り取り、これらの合焦画像データを完全合焦画像に合成するステップとを含む。
【0082】
本開示の実施形態で説明及び開示されるユニット、アルゴリズム及びステップのそれぞれは、電子ハードウェア、又はコンピュータのソフトウェアと電子ハードウェアとの組み合わせを使用して実現されることが当業者に理解される。機能がハードウェアによって実行されるかソフトウェアによって実行されるかは、技術案の適用条件と設計要件に依存する。当業者は、異なる方法を使用して、特定の用途ごとに機能を実現することができるが、そのような実現は、本開示の範囲を超えてはならない。上述したシステム、装置及びユニットの動作プロセスが基本的に同じであるので、上述した実施形態におけるシステム、装置及びユニットの動作プロセスを参照することができることは、当業者に理解される。説明の便宜及び簡潔にするために、これらの動作プロセスについては詳しく説明しない。本開示の実施形態における開示されたシステム、装置及び方法は、他の方法によって実現できることが理解される。上述した実施形態は例示である。ユニットの分割は、単に論理的機能に基づくものであり、他の分割は実現可能である。複数のユニット又はコンポーネントは、他のシステムに組み合わされてもよく、統合されてもよい。一部の特徴が省略されてもよく、スキップされてもよい。一方、表示又は議論された相互結合、直接結合又は通信結合は、電気的、機械的又は他の種類の形態による間接的又は通信的であるかどうかにかかわらず、いくつかのポート、装置又はユニットを介して動作する。分離コンポーネントとして説明したユニットは、物理的に分離していてもよく、分離していなくてもよい。表示用のユニットは、物理的なユニットであってもなくてもよく、すなわち、1箇所に配置されていてもよく、複数のネットワークユニットに分散してもよい。実施形態の目的に従って一部又は全部のユニットを使用する。更に、各実施形態における各機能ユニットが1つの処理ユニットに統合されてもよく、物理的に独立してもよく、2つ以上のユニットが1つの処理ユニットに統合されてもよい。ソフトウェア機能ユニットが実現され、製品として使用及び販売される場合、コンピュータの読み取り可能な記憶媒体に記憶することができる。この理解に基づいて、本開示が提案する技術案は、本質的に又は部分的にソフトウェア製品の形態として実現することができる。或いは、従来技術に有益な技術案の一部を、ソフトウェア製品の形態として実現することができる。コンピュータのソフトウェア製品は、本開示の実施形態に開示されるステップの全部又は一部を演算装置(パーソナルコンピュータ、サーバー又はネットワークデバイスなど)に実行させる複数の命令を含む記憶媒体に、格納される。記憶媒体は、プログラムコードを記憶可能なUSBディスク、モバイルハードディスク、読み取り専用メモリ(ROM)、ランダムアクセスメモリ(RAM)、フロッピーディスク又は他の種類の媒体を含む。
【0083】
本開示は、最も実用的かつ好ましい実施形態と考えられるものに関連して説明された。しかし、本開示は、開示された実施形態に限定されるものではなく、添付の特許請求の範囲の最も広い解釈の範囲から逸脱することなくなされた様々なアレンジをカバーすることを意図していることが理解される。
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14
図15