(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2023137620
(43)【公開日】2023-09-29
(54)【発明の名称】画像処理方法、装置、電子機器及び読み取り可能な記憶媒体
(51)【国際特許分類】
H04N 23/60 20230101AFI20230922BHJP
G06T 1/00 20060101ALI20230922BHJP
G03B 15/00 20210101ALI20230922BHJP
G03B 17/18 20210101ALI20230922BHJP
G03B 19/07 20210101ALI20230922BHJP
【FI】
H04N5/232 290
G06T1/00 510
G03B15/00 D
G03B17/18 Z
G03B19/07
【審査請求】有
【請求項の数】13
【出願形態】OL
(21)【出願番号】P 2022043890
(22)【出願日】2022-03-18
(11)【特許番号】
(45)【特許公報発行日】2023-08-09
(71)【出願人】
【識別番号】517372494
【氏名又は名称】維沃移動通信有限公司
【氏名又は名称原語表記】VIVO MOBILE COMMUNICATION CO., LTD.
【住所又は居所原語表記】No.1, vivo Road, Chang’an, Dongguan,Guangdong 523863, China
(74)【代理人】
【識別番号】100099759
【弁理士】
【氏名又は名称】青木 篤
(74)【代理人】
【識別番号】100123582
【弁理士】
【氏名又は名称】三橋 真二
(74)【代理人】
【識別番号】100092624
【弁理士】
【氏名又は名称】鶴田 準一
(74)【代理人】
【識別番号】100114018
【弁理士】
【氏名又は名称】南山 知広
(74)【代理人】
【識別番号】100153729
【弁理士】
【氏名又は名称】森本 有一
(74)【代理人】
【識別番号】100196601
【弁理士】
【氏名又は名称】酒井 祐市
(72)【発明者】
【氏名】伊藤 康幸
(72)【発明者】
【氏名】萩原 泰文
(72)【発明者】
【氏名】近藤 克博
【テーマコード(参考)】
2H054
2H102
5B057
5C122
【Fターム(参考)】
2H054BB05
2H054BB07
2H102AA41
2H102BB02
2H102CA02
5B057BA02
5B057CB01
5B057CB08
5B057CB12
5B057CB13
5B057CB16
5B057CD12
5B057CE08
5B057DC32
5C122DA09
5C122DA16
5C122EA12
5C122EA35
5C122EA37
5C122EA60
5C122FA18
5C122FG02
5C122FH18
5C122HB01
(57)【要約】
【課題】本開示は、画像処理方法、装置、電子機器及び読み取り可能な記憶媒体を提供する。
【解決手段】本開示において、この方法は、第1種類のカメラにより採集された第1種類の画像を受信し、第2種類のカメラにより採集された第2種類の画像を受信することを含み、前記第1種類のカメラと第2種類のカメラが表示スクリーンの透過領域の下に設置され、且つ第1種類のカメラと第2種類のカメラの動作波長範囲が異なり、前記第1種類の画像と第2種類の画像を画像統合処理して目標画像を取得する。本開示は、アンダースクリーン撮像装置の感度低下、解像度劣化、フレア発生などの問題を減少するか、もしくはなくすことができるため、アンダースクリーン撮像装置の画質を向上させる。
【選択図】
図2
【特許請求の範囲】
【請求項1】
画像処理方法であって、
第1種類のカメラにより採集された第1種類の画像を受信し、第2種類のカメラにより採集された第2種類の画像を受信することを含み、
前記第1種類のカメラと第2種類のカメラが表示スクリーンの透過領域の下に設置され、且つ第1種類のカメラと第2種類のカメラの動作波長範囲が異なり、
前記第1種類の画像と第2種類の画像を画像統合処理して目標画像を取得することを特徴とする画像処理方法。
【請求項2】
前記第1種類の画像と第2種類の画像を画像統合処理する前に、前記第1種類の画像と第2種類の画像の歪みと視差を補正することを含むこと特徴とする請求項1に記載の画像処理方法。
【請求項3】
前記第1種類のカメラは、可視領域の光により結像するRGBカメラであり、第2種類のカメラは、赤外線の光により結像するNIRカメラであること特徴とする請求項1または2に記載の画像処理方法。
【請求項4】
前記第1種類のカメラは、第1のカメラを含み、前記第2種類のカメラは、第2のカメラを含み、前記第1種類の画像は、第1のカメラにより採集された第1画像を含み、前記第2種類の画像は、第2のカメラにより採集された第2画像を含むこと特徴とする請求項3に記載の画像処理方法。
【請求項5】
前記第1種類の画像と第2種類の画像を画像統合処理して目標画像を取得することは、
前記第1画像をRGBフォーマットからYUVフォーマットに変換して前記第1画像の第1のY信号と第1のUV信号を取得し、前記第2画像から第1のY信号を抽出することと、
前記第1のY信号と第2のY信号を統合して、第3のY信号を取得することと、
前記第3のY信号を用いて、前記第1のUV信号と合成して目標画像を取得することを含むことを特徴とする請求項4に記載の画像処理方法。
【請求項6】
前記第1種類の画像と第2種類の画像を画像統合処理して目標画像を取得することは、
前記第1画像をRGBフォーマットからYUVフォーマットに変換して前記第1画像の第1のY信号と第1のUV信号を取得することと、前記第2画像から第1のY信号を抽出することと、
前記第1のY信号と第2のY信号の第1の差分を算出することと、
前記第1の差分に基づいて、フレア位置を検出し、前記第1画像と第2画像におけるフレアを除去して、更新後の第1のY信号と、第1のUV信号と、第2のY信号を取得することと、
更新後の第1のY信号と第2のY信号を統合して、第4のY信号を取得することと、
前記第4のY信号を用いて、更新後の前記第1のUV信号と合成して目標画像を取得することを含むことを特徴とする請求項4に記載の画像処理方法。
【請求項7】
前記前記第1種類の画像と第2種類の画像を画像統合処理して目標画像を取得することは、
前記第1画像と第2画像との視差情報に基づいて、第1の深度画像を生成することと、
前記目標画像と前記目標画像に対応する前記第1の深度画像を出力することをさらに含むことを特徴とする請求項6に記載の画像処理方法。
【請求項8】
前記第1種類のカメラは、第1のカメラを含み、前記第2種類のカメラは、第2のカメラと第3のカメラを含み、前記第1種類の画像は、第1のカメラにより採集された第1画像を含み、前記第2種類の画像は、第2のカメラにより採集された第2画像と第3のカメラにより採集された第3画像を含むことを特徴とする請求項3に記載の画像処理方法。
【請求項9】
前記第1種類の画像と第2種類の画像を画像統合処理して目標画像を取得することは、
前記第1画像をRGBフォーマットからYUVフォーマットに変換して前記第1画像の第1のY信号と第1のUV信号を取得することと、前記第2画像から第1のY信号を抽出することと、前記第3画像から第5のY信号を抽出することと、
前記第1のY信号と、第2のY信号と、第5のY信号を統合して、第6のY信号を取得することと、
前記第6のY信号を用いて、前記第1のUV信号と合成して目標画像を取得することを含むことを特徴とする請求項8に記載の画像処理方法。
【請求項10】
前記第1種類の画像と第2種類の画像を画像統合処理して目標画像を取得することは、
前記第1画像をRGBフォーマットからYUVフォーマットに変換して前記第1画像の第1のY信号と第1のUV信号を取得することと、前記第2画像から第1のY信号を抽出することと、前記第3画像から第5のY信号を抽出することと、
前記第1のY信号と第2のY信号の第1の差分を算出することと、前記第1のY信号と、第2のY信号との第2の差分を算出することと、
前記第1の差分と第2の差分に基づいて、フレア位置を検出し、前記第1画像、第2画像と第3画像におけるフレアを除去して、更新後の第1のY信号と、第1のUV信号と、第2のY信号と、第5のY信号を取得することと、
更新後の第1のY信号と、第2のY信号と、第5のY信号を統合して、第7のY信号を取得することと、
前記第7のY信号を用いて、更新後の前記第1のUV信号と合成して目標画像を取得することをことを含むことを特徴とする請求項8に記載の画像処理方法。
【請求項11】
前記前記第1種類の画像と第2種類の画像を画像統合処理して目標画像を取得することは、
前記第1画像、第2画像と第3画像との視差情報に基づいて、第2の深度画像を生成することと、
前記目標画像と前記目標画像に対応する前記第2の深度画像を出力することを更に含むことを特徴とする請求項10に記載の画像処理方法。
【請求項12】
画像処理装置であって、
第1種類のカメラにより採集された第1種類の画像を受信し、第2種類のカメラにより採集された第2種類の画像を受信するための受信モジュールと、
前記第1種類の画像と第2種類の画像を画像統合処理して目標画像を取得するための統合モジュールを含み、
前記第1種類のカメラと第2種類のカメラが表示スクリーンの透過領域の下に設置され、且つ第1種類のカメラと第2種類のカメラの動作波長範囲が異なることを特徴とする画像処理装置。
【請求項13】
、
前記統合モジュールにより前記第1種類の画像と第2種類の画像を画像統合処理する前に,前記第1種類の画像と第2種類の画像の歪みと視差を補正する補正モジュールを更に含むことを特徴とする請求項12に記載の画像処理装置。
【請求項14】
前記第1種類のカメラは、可視領域の光により結像するRGBカメラであり、第2種類のカメラは、赤外線の光により結像するNIRカメラであることを特徴とする請求項12または13に記載の画像処理装置。
【請求項15】
前記第1種類のカメラは、第1のカメラを含み、前記第2種類のカメラは、第2のカメラを含み、前記第1種類の画像は、第1のカメラにより採集された第1画像を含み、前記第2種類の画像は、第2のカメラにより採集された第2画像を含むことを特徴とする請求項14に記載の画像処理装置。
【請求項16】
前記第1種類のカメラは、第1のカメラを含み、前記第2種類のカメラは、第2のカメラと第3のカメラを含み、前記第1種類の画像は、第1のカメラにより採集された第1画像を含み、前記第2種類の画像は、第2のカメラにより採集された第2画像と第3のカメラにより採集された第3画像を含むことを特徴とする請求項14に記載の画像処理装置。
【請求項17】
電子機器であって、プロセッサーとメモリを含み,
前記メモリが、前記プロセッサー上に実行可能なプログラムまたは指令を記憶し、前記プログラムまたは指令が前記プロセッサーに実行されると請求項1―11のいずれか一項に記載の画像処理方法のステップを実現することを特徴とする電子機器。
【請求項18】
透過領域を有する表示スクリーンと、
前記透過領域下に設置される少なくとも第1種類のカメラと第2種類のカメラを更に含むことを特徴とする請求項17に記載の電子機器。
【請求項19】
読み取り可能な記憶媒体であって、
前記読み取り可能な記憶媒体にプログラムまたは指令を記憶し、前記プログラムまたは指令がプロセッサーに実行されると請求項1―11のいずれか一項に記載の画像処理方法のステップを実現する読み取り可能な記憶媒体。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、画像処理技術分野に関する。具体的に、画像処理方法、装置、電子機器及び読み取り可能な記憶媒体に関する。
【背景技術】
【0002】
従来では、多く電子機器(スマートフォンやタブレットパソコンなど)にフロントカメラが設置される。フロントカメラは、主に自撮り用にディスプレイと同じ側に設置される。フロントカメラはディスプレイと同じ側に設置されるため、フロントカメラの設置場所はディスプレイを避ける必要があり、そのためスマートフォンの裏側全面をディスプレイとする所謂フルスクリーンデザインを実現することが難しい。通常は、ディスプレイの外側のベゼル部分にフロントカメラを設置するベゼル型や、ディスプレイの一部に穴を開けてフロントカメラを設置するノッチ型やドットドロップ型、パンチホール型などがある。
【0003】
また、スマートフォンの側壁にフロントカメラを格納しておき撮影時に飛び出させるポップアップ(POPUP)型を採用して、スマートフォンのディスプレイをフルスクリーンデザイン化することに成功した例はあるが、コスト、厚さ、信頼性などの課題や、撮影時のカメラの出し入れに時間がかかるなどの課題がある。更に裏面にも第2のディスプレイを設置してリアカメラを自撮りにも使用するというアイディアもあるが、コスト面やデザイン面で課題がある。
【0004】
そこで近年、ディスプレイの下にフロントカメラを設置して、ディスプレイを通して自撮り撮影を行う、アンダースクリーン撮像装置の開発が行われている。フロントカメラ直上のディスプレイの透過率を高くして撮影に必要な光量を確保すると同時に、ディスプレイ使用時のディスプレイの表示コントラストも十分に取れるようにすることができれば、コストや厚さ、信頼性などの問題もなく、フルスクリーンデザインのスマートフォンが実現可能となる。
【発明の概要】
【発明が解決しようとする課題】
【0005】
本開示の少なくとも一つの実施例により、アンダースクリーン撮像装置の画質を向上させるための画像処理方法、装置、電子機器及び読み取り可能な記憶媒体を提供する。
【課題を解決するための手段】
【0006】
上記の技術問題を解決するために、本開示は、以下のように実現される。
第一態様では、本開示実施例による画像処理方法であって、
第1種類のカメラにより採集された第1種類の画像を受信し、第2種類のカメラにより採集された第2種類の画像を受信することと、
前記第1種類の画像と第2種類の画像を画像統合処理して目標画像を取得することを含み、
ここで、前記第1種類のカメラと第2種類のカメラが表示スクリーンの透過領域の下に設置され、且つ第1種類のカメラと第2種類のカメラの動作波長範囲が異なる。
第二態様では、本開示実施例による画像処理装置であって、
第1種類のカメラにより採集された第1種類の画像を受信し、第2種類のカメラにより採集された第2種類の画像を受信するための受信モジュールと、
前記第1種類の画像と第2種類の画像を画像統合処理して目標画像を取得するための統合モジュールを含み、
前記第1種類のカメラと第2種類のカメラが表示スクリーンの透過領域の下に設置され、且つ第1種類のカメラと第2種類のカメラの動作波長範囲が異なる。
第三態様では、本開示実施例による電子機器であって、プロセッサーとメモリを含み,前記メモリが、前記プロセッサー上に実行可能なプログラムまたは指令を記憶し、前記プログラムまたは指令が前記プロセッサーに実行されると前記第一態様に記載の画像処理方法のステップを実現する。
第四態様では、本開示実施例による読み取り可能な記憶媒体であって、前記読み取り可能な記憶媒体にプログラムまたは指令を記憶し、前記プログラムまたは指令がプロセッサーに実行されると前記方法のステップを実現する。
【発明の効果】
【0007】
本開示実施例従来技術に比べて、本開示実施例による画像処理方法、装置、電子機器及び読み取り可能な記憶媒体は、アンダースクリーン撮像装置の感度低下、解像度劣化、フレア発生などの問題を減少するか、もしくはなくすことができるため、アンダースクリーン撮像装置の画質を向上させる。
【図面の簡単な説明】
【0008】
【
図1】本開示実施例における画像処理方法のフローチャートである。
【
図2】本開示実施例におけるアンダースクリーン撮像装置の一つ構成概要図である。
【
図3】本開示実施例の第1の応用シーンでの画像統合のフローチャートである。
【
図4】本開示実施例の第1の応用シーンでの画像統合の別のフローチャートである。
【
図5】本開示実施例の第1の応用シーンでの画像統合の別のフローチャートである。
【
図6】本開示実施例におけるアンダースクリーン撮像装置の別の構成概要図である。
【
図7】本開示実施例の第2の応用シーンでの画像統合のフローチャートである。
【
図8】本開示実施例の第2の応用シーンでの画像統合の別のフローチャートである。
【
図9】本開示実施例の第2の応用シーンでの画像統合の別のフローチャートである。
【
図10】本開示実施例における画像処理装置の構成概要図である。
【
図11】本開示実施例における画像処理装置の別の構成概要図である。
【
図12】本開示実施例における統合モジュールの構成概要図である。
【
図13】本開示実施例における統合モジュールの構成概要図である。
【
図14】本開示実施例における統合モジュールの構成概要図である。
【
図15】本開示実施例における統合モジュールの構成概要図である。
【
図16】本開示実施例における統合モジュールの構成概要図である。
【
図17】本開示実施例における統合モジュールの構成概要図である。
【
図18】本開示実施例における電子機器の構成概要図である。
【発明を実施するための形態】
【0009】
以下、本開示の実施例の図面とともに、本開示の実施例の技術手段を明確且つ完全的に記載する。明らかに、記載する実施例は、本開示の実施例の一部であり、全てではない。本開示の実施例に基づき、当業者が創造性のある作業をしなくても為しえる全ての他の実施例は、いずれも本開示の保護範囲に属するものである。
【0010】
本開示の明細書及び特許請求の範囲における用語「第1」、「第2」などは、類似した対象を区別するためのものであり、必ずしも特定の順序又は優先順位を説明するためのものではない。ここで説明した本開示の実施例が、例えばここでの図示又は説明以外の順序でも実施できるように、このように使用されたデータは、適宜入れ替えてもよいと理解すべきである。尚且つ、用語「第1」、「第2」などにより区別される対象は、通常同種なものであり、対象な数を限定しない。例えば、第一対象は、一つでもよく、複数でもよい。なお、明細書及び特許請求の範囲における「及び/又は」は、接続対象の少なくとも1つを表す。文字「/」は、一般に、前後関連な対象が「或いは」の関係となることを示す。
【0011】
従来技術のアンダースクリーン撮像装置において、ディスプレイを通して撮像するために、カメラを設置する箇所のディスプレイの透過率を上げる必要があるが、ディスプレイの透過率を上げる場合に、表示のコントラストの低下があるため、表示品質が低下し、他の部分との均一性に影響を与える問題があるため、ディスプレイの透過率を上げるには限界がある。
【0012】
そのため、アンダースクリーン撮像装置のデメリットとしては、以下のような画質劣化の問題を挙げる。(1)ディスプレイの透過光量の低下による感度の低下である。(2)ディスプレイの画素の回折効果による解像度の低下である。(3)ディスプレイを構成するレイヤーからの光の散乱によるフレアである。(4)ディスプレイの透過率の波長依存性と構成層の位相変化によるカラーシフト、アーティファクト、偽色などが発生する。(5)ディスプレイ構成層の不均一性による画像の歪みである。
【0013】
これらの課題に対して、画像処理やカメラの改善による様々な解決策が検討されているが、まだ商品化できるだけの解決には至っていないのが現状である。特に感度低下、解像度劣化、フレア発生については大きな問題が残っている。カメラをディスプレイの下に配置するため、カメラを大きくして感度を上げるとスマートフォンが厚くなってしまうという問題もある。
【0014】
一方で、最近のスマートフォンでは、前面のディスプレイ側に個人認証用のカメラを設置する場合も多くなってきている。この場合、赤外線のDOT PROJECTORと赤外線カメラを用いたSTRUCTURED LIGHT方式や、赤外線レーザーと赤外線カメラを用いたTIME OF FLIGHT方式などが用いられている。これらの方式では、レーザー光を照射して対象物からの反射光を高精度に受光する必要があることからディスプレイの下に設置することは困難であり、ディスプレイの外側にこれらの個人認証システムを設置する場所が必要になるため、フルスクリーンデザインを採用できない。従って、上記のアンダースクリーン撮像装置を用いる場合には指紋認証方式の個人認証システムを用いる場合が多いが、指紋認証方式はまだ認証精度が十分ではなく、高い信頼性が必要な用途には使用できないという問題がある。
【0015】
本開示実施例によれば、上記の課題を解決するための一つとしては、表示スクリーンの下に設置されるアンダースクリーン撮像装置に適用される画像処理方法を提供する。具体的に、本開示実施例では、スクリーンの下に異なる動作波長の複数のカメラが設置され、表示スクリーンのカメラの設置部分の上に光の透過率を向上させる光透過領域(高透過領域と称する)を設置できる。
【0016】
図1に示すように、当該画像処理方法において、
第1種類のカメラにより採集された第1種類の画像を受信し、第2種類のカメラにより採集された第2種類の画像を受信するステップ11を含む。ここで、前記第1種類のカメラと第2種類のカメラが表示スクリーンの透過領域の下に設置され、且つ第1種類のカメラと第2種類のカメラの動作波長範囲が異なる。
ここで、表示スクリーンの光透過領域の下に設置される第1種類のカメラと第2種類のカメラにより目標対象の画像が採集されて、第1種類の画像と第2種類の画像を取得する。前記光透過領域の透過率が所定の第1閾値より大きい。光透過領域と表示スクリーンの他の部分の均一性に損なわれる問題を軽減させるために、前記光透過領域の透過率が、所定の第1閾値より大きい第2閾値より小さい。
【0017】
本開示実施例において、第1種類のカメラと第2種類のカメラがそれぞれことなる波長範囲の光により結像する。前記第1種類のカメラが一個か複数であてもよく、前記第2種類のカメラも一個か複数であってもよい。具体的に、前記第1種類のカメラは、可視領域の光により結像するRGBカメラであり、前記第2種類のカメラは、赤外線の光により結像するNIRカメラである。
【0018】
ステップ12では、前記第1種類の画像と第2種類の画像を画像統合処理して目標画像を取得する。
ここで、ステップ12において、異なる波長による結像する画像を統合処理により、本開示実施例が異なる波長のそれぞれの結像特性で、アンダースクリーン撮像装置の感度低下、解像度劣化、フレア発生などの問題を減少するか、もしくはなくすことができるため、アンダースクリーン撮像装置の画質を向上させる。
【0019】
アンダースクリーン撮像装置の位置が異なるため、同一の目標対象を採集された画像は、一般に、視野角、光軸、視差などに違いがある。そのため、ステップ12の前に、本開示実施例は、前記第1種類の画像と第2種類の画像を歪や視差を補正してもよい。そして、ステップ12で、補正後の第1種類の画像と第2種類の画像を画像統合処理する。
【0020】
前記第1種類のカメラは、RGBカメラであり、前記第2種類のカメラは、NIRカメラであり、且つ、前記第1種類のカメラは、第1のカメラを含み、前記第2種類のカメラは、第2のカメラを含む第1の応用シーンで、第1のカメラは、第1画像(RGB画像)を取得し、第2のカメラは、第2画像(YUV画像)を取得する。本開示実施例は、上記ステップ12においても複数の実現方式がある。
【0021】
第1の方式では、前記(1)の感度低下の問題と(2)の解像度低下の問題を解決できる。具体的に、前記第1画像をRGBフォーマットからYUVフォーマットに変換して前記第1画像の第1のY信号と第1のUV信号を取得し、前記第2画像から第2のY信号を抽出する。前記第1のY信号と第2のY信号を統合して、第3のY信号を取得する。前記第3のY信号を用いて、前記第1のUV信号と合成して目標画像を取得する。
【0022】
第2の方式では、前記(1)の感度低下の問題と。(2)の解像度低下の問題と、(3)のフレアの発生する問題を解決できる。具体的に、前記第1画像をRGBフォーマットからYUVフォーマットに変換して前記第1画像の第1のY信号と第1のUV信号を取得すし、前記第2画像から第2のY信号を抽出する。前記第1のY信号と第2のY信号の第1の差分を算出する。前記第1の差分に基づいて、フレア位置を検出し、前記第1画像と第2画像におけるフレアを除去して、更新後の第1のY信号と、第1のUV信号と、第2のY信号を取得する。更新後の第1のY信号と第2のY信号を統合して、第4のY信号を取得する。前記第4のY信号を用いて、更新後の前記第1のUV信号と合成して目標画像を取得する。
【0023】
第3の方式では、前記(1)の感度低下の問題と、(2)の解像度の低下と、(3)のフレアの発生と、(4)の顔認証の問題を解決できる。具体的に、前記第2の実現方式を基に、前記第1画像と第2画像との視差情報に基づいて、第1の深度画像を生成し、前記目標画像と前記目標画像に対応する前記第1の深度画像を出力することで、前記第1の深度画像の深度情報に基づいて、顔認識を行う。
【0024】
前記第1種類のカメラは、RGBカメラであり、前記第2種類のカメラは、NIRカメラであり、且つ、前記第1種類のカメラは、第1のカメラを含み、前記第2種類のカメラは、第2のカメラと第3のカメラを含む第2の応用シーンで、第1のカメラは、第1画像(RGB画像)を採集し、第2のカメラは、第2画像(白黒画像)を採集し、第3のカメラは、第3画像(白黒画像)を採集する。本開示実施例は、上記ステップ12においても複数の実現方式がある。
【0025】
第1の方式では、前記(1)の感度低下の問題と(2)の解像度低下の問題を解決できる。具体的に、前記第1画像をRGBフォーマットからYUVフォーマットに変換して前記第1画像の第1のY信号と第1のUV信号を取得し、前記第2画像から第2のY信号を抽出し、前記第3画像から第5のY信号を抽出する。前記第1のY信号と、第2のY信号と、第5のY信号を統合して、第6のY信号を取得する。前記第6のY信号を用いて、前記第1のUV信号と合成して目標画像を取得する。
【0026】
第2の方式では、前記(1)の感度低下の問題と、(2)の解像度の低下と、(3)のフレアの発生する問題を解決できる。具体的に、前記第1画像をRGBフォーマットからYUVフォーマットに変換して前記第1画像の第1のY信号と第1のUV信号を取得し、前記第2画像から第2のY信号を抽出し、前記第3画像から第5のY信号を抽出する。前記第1のY信号と第2のY信号の第1の差分を算出し、前記第1のY信号と、第2のY信号との第2の差分を算出する。前記第1の差分と第2の差分に基づいて、フレア位置を検出し、前記第1画像と、第2画像と第3画像におけるフレアを除去して、更新後の第1のY信号と、第1のUV信号と、第2のY信号と、第5のY信号を取得し、更新後の第1のY信号と、第2のY信号と、第5のY信号を統合して、第7のY信号を取得し、前記第7のY信号を用いて、更新後の前記第1のUV信号と合成して目標画像を取得する。
【0027】
第3の方式では、前記(1)の感度低下、(2)の解像度の低下、(3)のフレアの発生と(4)の顔認証の問題を解決できる。具体的に、前記第2の実現方式を基に、前記第1画像、第2画像と第3画像との視差情報に基づいて、第2の深度画像を生成し、前記目標画像と前記目標画像に対応する前記第2の深度画像を出力する。
【0028】
以下では、前記第1種類のカメラは、RGBカメラとし、前記第2種類のカメラは、NIRカメラとして例を挙げる。幾つかの図面をとともに、以上の第1の応用シーンと第2の応用シーンのフローをさらに詳細に説明する。
【0029】
図2~
図5を参照する。上記の第1の応用シーンに対応して、
図2に示すように、表示スクリーンの下に二つのカメラを配置するアンダースクリーン撮像装置である。表示スクリーンに、一つの高透過領域を含む。ここで、前記高透過領域の光透過率が表示スクリーンの他の部分より高い。高透過領域の下に、第1種類のカメラと第2種類のカメラが設置される。これらのカメラは、表示表面の高透過領域を透過した光を受光して撮像する。ここで、第1種類のカメラは、カメラ1を含み、第2種類のカメラは、カメラ2を含む。具体的に、前記カメラ1は、通常に用いられる可視領域の光を受光できるRGBカメラであり、カメラ2は、赤外線NIR光のみを検出するNIRカメラである。カメラ1とカメラ2は、それぞれ、目標対象の画像を採集して、カメラ1により採集される第1画像とカメラ2により採集される第2画像を取得する。
【0030】
図2に示されるアンダースクリーン撮像装置により、
図3~
図5に示される多種な画像統合方法を更に提供する。
【0031】
図3は、(1)の感度低下の問題と、(2)の解像度の低下の問題を解決するための、二つのアンダースクリーンカメラからの出力画像を用いる画像統合の処理フローを示す。まず、カメラ1(RGBカメラ)からの第1画像とカメラ2(NIRカメラ)からの第2画像が、視野角、光軸、視差などに違いがある。そのため、それらを検出してから、視差補正して、補正後の第1種類の画像と第2種類の画像を取得する。その後、カメラ1(RGBカメラ)により採集された前記第1画像をRGBフォーマットからYUVフォーマットに変換して前記第1画像の第1のY信号と第1のUV信号に分離される。RGBカメラからの第1のY信号とNIRカメラからの第2のY信号を用いて画像統合処理して、第3のY信号を取得する。暗い場所の感度の向上とノイズの低減とともに、輝度の解像度の向上もできる。その後、画像統合後の第3のY信号とRGBカメラからの第1のUV信号を用いて、カラーの目標画像を合成して出力する。
【0032】
図4は、(3)のフレアの発生する問題を解決するための、二つのアンダースクリーンカメラからの出力画像を用いるフレア除去と画像統合の処理フローを示す。まず、カメラ1(RGBカメラ)からの第1画像とカメラ2(NIRカメラ)からの第2画像が、視野角、光軸、視差などに違いがあるため、それらを検出してから、視差補正して、補正後の第1画像と第2画像を取得する。その後、カメラ1(RGBカメラ)により採集された前記第1画像をRGBフォーマットからYUVフォーマットに変換して第1のY信号と第1のUV信号に分離される。RGBカメラからの第1のY信号と第1のUV信号、及びNIRカメラからの第2のY信号を比較して差分を形成してRGBカメラにおけるフレアの発生状態とNIRカメラにおけるフレアの発生状態の差分を検出することで、フレアとその以外の画像を分離でき、この情報を用いて、フレアを効率的にに除去できる。特に、NIRカメラでは、夜景に大きな問題となるLEDライトのフレアは、検出されないため、効率的に上記フレアを除去できる。フレア除去後、RGBカメラからの第1のY信号とNIRカメラからの第2のY信号を画像統合処理して、第4のY信号を取得することで、暗い場所の感度の向上とノイズの低減とともに、輝度の解像度の向上もできる。その後、画像統合後の第4のY信号とRGBカメラからの第1のUV信号を用いて、カラーの目標画像を合成して出力する。
【0033】
図5は、(4)の顔認識機能ための、二つのアンダースクリーンカメラからの出力画像を用いるフレア除去及び画像統合の処理と顔認証のフローを示す。まず、カメラ1(RGBカメラ)からの第1画像とカメラ2(NIRカメラ)からの第2画像が、視野角、光軸、視差などに違いがあるため、それらを検出してから、視差補正して、補正後の第1画像と第2画像を取得する。その後、カメラ1(RGBカメラ)により採集された前記第1画像をRGBフォーマットからYUVフォーマットに変換して第1のY信号と第1のUV信号に分離される。RGBカメラからの第1のY信号と第1のUV信号、及びNIRカメラからの第2のY信号を比較して差分を形成してRGBカメラにおけるフレアの発生状態とNIRカメラにおけるフレアの発生状態の差分を検出することで、フレアとその以外の画像を分離でき、この情報を用いて、フレアを効率的に除去できる。特に、NIRカメラでは、夜景に大きな問題となるLEDライトのフレアは、検出されないため、効率的に上記フレアを除去できる。フレア除去後、RGBカメラからの第1のY信号とNIRカメラからの第2のY信号を画像統合処理して、第4のY信号を取得することで、暗い場所の感度の向上とノイズの低減とともに、輝度の解像度の向上もできる。その後、画像統合後の第4のY信号とRGBカメラからの第1のUV信号を用いて、カラーの目標画像を合成して出力する。また、カメラ1とカメラ2の視差情報に基づいて、深度画像(DEPTH MAP)を生成し、その三次元情報と出力される前記目標画像を用いて、顔認識を行う。
【0034】
図6~
図9を参照して、上記の第2の応用シーンに対応して、
図6に示すように、表示スクリーンの下に三つのカメラを配置するアンダースクリーン撮像装置である。カメラ1は、通常に用いられる可視領域の光を受光できるRGBカメラであり、カメラ2とカメラ3は、いずれも赤外線NIR光のみを検出するNIRカメラである。カメラ1と、カメラ2と、カメラ3は、ディスプレイの高透過領域に配置され、ディスプレイの高透過領域を透過した光を受光して撮像する。上記の実施例において、RGBカメラとNIRカメラの解像度、光学特性に違いがあるため、視差の検出精度に問題がある。この実施例において、上記の実施例に比べて、特に、暗い場所に対して検出精度が高い二つのNIRカメラが設置されるため、NIRカメラ間に正しい視差情報を取得できるため、深度画像の精度を向上できて、顔識別精度を向上できる。
【0035】
図7は、(1)の感度低下の問題と、(2)の解像度の低下の問題を解決するための、三つのアンダースクリーンカメラからの出力画像を用いる画像統合の処理フローを示す。まず、カメラ1(RGBカメラ)からの第1画像と、カメラ2(NIRカメラ)からの第2画像と、カメラ3(NIRカメラ)からの第3画像が、視野角、光軸、視差などに違いがあるため、それらを検出してから、視差補正して、補正後の第1画像と、第2画像と第3画像を取得する。その後、カメラ1(RGBカメラ)により採集された前記第1画像をRGBフォーマットからYUVフォーマットに変換して第1のY信号と第1のUV信号に分離されることで、RGBカメラからのY信号とNIRカメラからの二とのY信号をもちいて画像統合処理して、暗い場所の感度の向上とノイズの低減とともに、輝度の解像度の向上もできる。その後、画像統合後のY信号とRGBカメラからのUV信号を用いて、カラーの目標画像を合成して出力する。
【0036】
図8は、(3)のフレアの発生する問題を解決するために、三つのアンダースクリーンカメラからの出力画像を用いるフレア除去と画像統合の処理フローを示す。まず、カメラ1(RGBカメラ)からの第1画像と、カメラ2(NIRカメラ)からの第2画像と、カメラ3(NIRカメラ)からの第3画像が、視野角、光軸、視差などに違いがあるため、それらを検出してから、視差補正して、補正後の第1画像と、第2画像と第3画像を取得する。その後、カメラ1(RGBカメラ)により採集された前記第1画像をRGBフォーマットからYUVフォーマットに変換して第1のY信号と第1のUV信号に分離する。RGBカメラからのY信号とUV信号、及びNIRカメラからの二つのY信号を比較して差分を形成してRGBカメラにおけるフレアの発生状態と二つのNIRカメラにおけるフレアの発生状態の差分を検出することで、フレアとその以外の画像を分離でき、この情報を用いて、フレアを効率的に除去できる。特に、NIRカメラでは、夜景に大きな問題となるLEDライトのフレアは、検出されないため、効率的に上記フレアを除去できる。フレア除去後、RGBカメラからのY信号とNIRカメラからの二つのY信号を画像統合処理して、暗い場所の感度の向上とノイズの低減とともに、輝度の解像度の向上もできる。その後、画像統合後のY信号とRGBカメラからのUV信号を用いて、カラーの目標画像を合成して出力する。
【0037】
図9は、(4)の顔認識機能ための、三つのアンダースクリーンカメラからの出力画像を用いるフレア除去及び画像統合の処理と顔認証のフローを示す。まず、カメラ1(RGBカメラ)からの第1画像と、カメラ2(NIRカメラ)からの第2画像と、カメラ3(NIRカメラ)からの第3画像が、視野角、光軸、視差などに違いがあるため、それらを検出してから、視差補正して、補正後の第1画像と、第2画像と第3画像を取得する。その後、カメラ1(RGBカメラ)により採集された前記第1画像をRGBフォーマットからYUVフォーマットに変換して第1のY信号と第1のUV信号に分離される。RGBカメラからのY信号とUV信号、及びNIRカメラからの二つのY信号を比較して差分を形成してRGBカメラにおけるフレアの発生状態と二つのNIRカメラにおけるフレアの発生状態の差分を検出することで、フレアとその以外の画像を分離でき、この情報を用いて、フレアを効率的に除去できる。特に、NIRカメラでは、夜景に大きな問題となるLEDライトのフレアは、検出されないため、効率的に上記フレアを除去できる。フレア除去後、RGBカメラからのY信号とNIRカメラからの二つのY信号を画像統合処理して、暗い場所の感度の向上とノイズの低減とともに、輝度の解像度の向上もできる。その後、画像統合後のY信号とRGBカメラからのUV信号を用いて、カラーの目標画像を合成して出力する。また、カメラ1、カメラ2とカメラ3の視差情報に基づいて、深度画像を生成し、その三次元情報と出力される前記目標画像を用いて、顔認識を行う。
【0038】
以上、本開示実施例における各種方法を紹介した。以下、さらに、上記方法を実施するための装置を提供する。
【0039】
図10を参考する。本開示実施例は、さらに画像処理装置90を提供する。画像処理装置90には、
第1種類のカメラにより採集された第1種類の画像を受信する、第2種類のカメラにより採集された第2種類の画像を受信するための受信モジュール91であって、前記第1種類のカメラと第2種類のカメラが表示スクリーンの透過領域の下に設置され、且つ第1種類のカメラと第2種類のカメラの動作波長範囲が異なる受信モジュール91と、
前記第1種類の画像と第2種類の画像を画像統合処理して目標画像を取得するための統合モジュール92が含まれる。
【0040】
オプションとして、前記第1種類のカメラは、可視領域の光により結像するRGBカメラであり、第2種類のカメラは、赤外線の光により結像するNIRカメラである。
【0041】
図11を参考する。本開示実施例は、さらに別の画像処理装置90を提供する。この装置は、
図9を基に、さらに、前記統合モジュールが前記第1種類の画像と第2種類の画像を画像統合処理する前に、前記第1種類の画像と第2種類の画像を歪みや視差を補正する補正モジュール93を含む。このように、前記統合モジュール92が統合処理する時、前記第1種類の画像と第2種類の画像を画像統合することになる。
【0042】
第1種類のカメラは、第1のカメラを含み、第2種類のカメラは、第2のカメラを含む応用シーンに対して、前記第1種類の画像は、第1のカメラにより採集された第1画像を含み、前記第2種類の画像は、第2のカメラにより採集された第2画像を含む。この時、
図12を参照する。ひとつの実現方式として、
図10または、
図11における統合モジュール92は、具体的に、
前記第1画像をRGBフォーマットからYUVフォーマットに変換して前記第1画像の第1のY信号と第1のUV信号を取得し、前記第2画像から第1のY信号を抽出するための第1の抽出サブモジュール9201と、
前記第1のY信号と第2のY信号を統合して、第3のY信号を取得するための第1の統合サブモジュール9202と、
前記第3のY信号を用いて、前記第1のUV信号と合成して目標画像を取得するための第1の合成サブモジュール9203とを含む。
【0043】
図13を参照する。別の実現方式として、
図10または、
図11における統合モジュール92は、具体的に、
前記第1画像をRGBフォーマットからYUVフォーマットに変換して前記第1画像の第1のY信号と第1のUV信号を取得し、前記第2画像から第1のY信号を抽出するための第1の抽出モジュール9201と、
前記第1のY信号と第2のY信号の第1の差分を算出するための第1の算出サブモジュール9204と、
前記第1の差分に基づいて、フレア位置を検出し、前記第1画像と第2画像におけるフレアを除去して、更新後の第1のY信号と、第1のUV信号と、第2のY信号を取得するための第1のフレア除去サブモジュール9205と、
更新後の第1のY信号と第2のY信号を統合して、第4のY信号を取得するための第2の統合サブモジュール9206と、
前記第4のY信号を用いて、更新後の前記第1のUV信号と合成して目標画像を取得するための第2の合成サブモジュール9207を含む。
【0044】
図14を参照する。また別の実現方式として、
図13を基に、前記統合モジュール92は、さらに、
前記第1画像と第2画像との視差情報に基づいて、第1の深度画像を生成するための第1の生成サブモジュール9208と、
前記目標画像と前記目標画像に対応する前記第1の深度画像を出力するための前記第2の合成サブモジュール9207を含む。
【0045】
第1種類のカメラは、第1のカメラを含み、第2種類のカメラは、第2のカメラと第3のカメラを含む応用シーンに対して、前記第1種類の画像は、第1のカメラにより採集された第1画像を含み、前記第2種類の画像は、第2のカメラにより採集された第2画像と第3のカメラにより採集された第3画像を含む。この時、
図15を参照して、ひとつの実現方式として、
図10または、
図11における統合モジュール92は、具体的に、
前記第1画像をRGBフォーマットからYUVフォーマットに変換して前記第1画像の第1のY信号と第1のUV信号を取得する、前記第2画像から第1のY信号を抽出し、前記第3画像から第5のY信号を抽出するための第2の抽出サブモジュール9211と、
前記第1のY信号と、第2のY信号と、第5のY信号を統合して、第6のY信号を取得するための第2の統合サブモジュール9212と、
前記第6のY信号を用いて、前記第1のUV信号と合成して目標画像を取得するための第3の合成サブモジュール9213を含む。
【0046】
図16を参照する。別の実現方式として、
図10または
図11にける前記統合モジュール92は、具体的に、
前記第1画像をRGBフォーマットからYUVフォーマットに変換して前記第1画像の第1のY信号と第1のUV信号を取得し、前記第2画像から第1のY信号を抽出し、前記第3画像から第5のY信号を抽出するための第2の抽出サブモジュール9211と、
前記第1のY信号と第2のY信号の第1の差分を算出し、前記第1のY信号と、第2のY信号との第2の差分を算出するための第1の算出サブモジュール9214と、
前記第1の差分と第2の差分に基づいて、フレア位置を検出し、前記第1画像、第2画像と第3画像におけるフレアを除去して、更新後の第1のY信号と、第1のUV信号と、第2のY信号と、第5のY信号を取得するための第2のフレア除去サブモジュール9215と、
更新後の第1のY信号と、第2のY信号と、第5のY信号を統合して、第7のY信号を取得するための第4の統合サブモジュール9216と、
前記第7のY信号を用いて、更新後の前記第1のUV信号と合成して目標画像を取得するための第4の合成サブモジュール9217を含む。
【0047】
図17を参照する。また別の実現方式として、
図16を基に、前記統合モジュール92は、さらに、
前記第1画像、第2画像と第3画像との視差情報に基づいて、第2の深度画像を生成するための第2の生成サブモジュール9218と、
前記目標画像と前記目標画像に対応する前記第2の深度画像を出力するための前記第4の合成サブモジュール9217を含む。
【0048】
なお、この実施例における機器は、上記の画像処理方法に適用される機器に対応する機器である。上記各実施例における実現方式は、いずれも、この機器の実施例に適用でき、同じ技術効果も達成できる。本開示実施例に提供される上記機器は、上記方法実施例に実現されたすべての方法ステップを実現でき、且つ同じ技術効果を達成できる。ここで、当該実施例において方法実施例と同様な部分及び有益な効果の説明を省略する。
【0049】
図18を参考する。本開示実施例は、プロセッサー1801と、メモリ1802を含む電子機器1800をさらに、提供する。メモリ1802に記憶され、且つプロセッサー1801上実行できるコンピュータープログラムは、プロセッサー1801に実行されると、上記画像処理方法実施例における各プロセスを実現し、且つ、同じ技術効果も達成できる。重複を避けるため、ここで省略する。
【0050】
本開示実施例は、コンピューター読み取り可能な記憶媒体も提供する。前記コンピューター読み取り可能な記憶媒体にコンピュータープログラムを記憶し、前記プログラムがプロセッサーに実行されると上記画像処理方法の各プロセスを実現し、且つ同じ効果を達成できる。重複を避けるため、ここで省略する。ここで、前記コンピューター読み取り可能な記憶媒体は、例えば、ROM(READ-ONLY MEMORY)、RAM(RANDOM ACCESS MEMORY)、磁気ディスクまたは光ディスクなどである。
【0051】
なお、本明細書において、用語「含む」、「備える」又はそれらの任意の他の変形は、非排他的包含を含むことを意図し、それにより一連の要素を含むプロセス、方法、物品又はユーザ装置は、それらの要素だけでなく、明確に列挙されていない他の要素、又はこのようなプロセス、方法、物品又はユーザ装置に固有の要素も含む。更なる限定がない場合、語句「1つの……含む」で限定された要素について、前記要素を含むプロセス、方法、物品又はユーザ装置にさらに別の同じ要素が存在することは排除されない。
上記の実施形態の記載によれば、当業者は、上記実施例の方法がソフトバンクに必要なハードウェアプラットフォームを加える方式で実現できることが自明である。当然のことで、ハードウェアで実現できる。しかし、多くな場合に、前者のほうが好ましい方式である。このような理解を基に、本開示の技術手段は、本質に、もしくは、従来技術に対して貢献する部分は、ソフトバンクプロダクトの方式で具体化される。このコンピュータプロダクトは、一つの記憶媒体(例えば、ROM/RAM、磁気ディスクまたは光ディスクなど)に記憶され、一つの端末(携帯電話、コンピュータ、サーバー、空気調節機またはネットワーク機器など)に本開示の各実施例に記載の方法を実行させるよう、いくつかの指令を含む。
【0052】
図面とともに、本開示の実施例を説明したが、当業者は、一旦基本的な創造性概念を知ると、これらの実施例に対して別の変更及び補正を行うことができる。したがって、添付の特許請求の範囲は、好ましい実施例と本開示の実施例の範囲内に含まれる全ての変更及び補正を含むものと解釈されることを意図する。
【手続補正書】
【提出日】2022-12-06
【手続補正1】
【補正対象書類名】特許請求の範囲
【補正対象項目名】全文
【補正方法】変更
【補正の内容】
【特許請求の範囲】
【請求項1】
画像処理方法であって、
第1種類のカメラにより採集された第1種類の画像を受信し、第2種類のカメラにより採集された第2種類の画像を受信することを含み、
前記第1種類のカメラと前記第2種類のカメラが表示スクリーンの透過領域の下に設置され、且つ前記第1種類のカメラと前記第2種類のカメラの動作波長範囲が異なり、
前記第1種類の画像と前記第2種類の画像を画像統合処理して目標画像を取得し、
前記第1種類のカメラは、可視領域の光により結像するRGBカメラであり、前記第2種類のカメラは、赤外線の光により結像するNIRカメラであり、
前記第1種類のカメラは、第1のカメラを含み、前記第2種類のカメラは、第2のカメラを含み、前記第1種類の画像は、前記第1のカメラにより採集された第1画像を含み、前記第2種類の画像は、前記第2のカメラにより採集された第2画像を含み、
前記第1種類の画像と前記第2種類の画像を画像統合処理して目標画像を取得することは、
前記第1画像をRGBフォーマットからYUVフォーマットに変換して前記第1画像の第1のY信号と第1のUV信号を取得し、前記第2画像から第2のY信号を抽出することと、
前記第1のY信号と、第1のUV信号と、第2のY信号を更新処理して、更新後の第1のY信号と、第1のUV信号と、第2のY信号を取得することと、
更新後の第1のY信号と第2のY信号を統合して、第4のY信号を取得することと、
前記第4のY信号を用いて、更新後の第1のUV信号と合成して目標画像を取得することを含むことを特徴とする画像処理方法。
【請求項2】
前記第1種類の画像と第2種類の画像を画像統合処理する前に、前記第1種類の画像と第2種類の画像の歪みと視差を補正することを含むことを特徴とする請求項1に記載の画像処理方法。
【請求項3】
前記更新処理は、前記第1のY信号と第2のY信号の第1の差分を算出することと、
前記第1の差分に基づいて、フレア位置を検出し、前記第1画像と第2画像におけるフレアを除去することと、を含むことを特徴とする請求項1に記載の画像処理方法。
【請求項4】
前記第1種類の画像と第2種類の画像を画像統合処理して目標画像を取得することは、
前記第1画像と前記第2画像との視差情報に基づいて、第1の深度画像を生成することと、
前記目標画像と前記目標画像に対応する前記第1の深度画像を出力することをさらに含むことを特徴とする請求項3に記載の画像処理方法。
【請求項5】
前記第2種類のカメラは、さらに、第3のカメラを含み、前記第2種類の画像は、さらに、前記第3のカメラにより採集された第3画像を含むことを特徴とする請求項1に記載の画像処理方法。
【請求項6】
前記第1種類の画像と第2種類の画像を画像統合処理して目標画像を取得することは、さらに、
前記第1画像をRGBフォーマットからYUVフォーマットに変換して前記第1画像の第1のY信号と第1のUV信号を取得することと、前記第2画像から第2のY信号を抽出することと、前記第3画像から第5のY信号を抽出することと、
前記第1のY信号と、第2のY信号と、第5のY信号を統合して、第6のY信号を取得することと、
前記第6のY信号を用いて、前記第1のUV信号と合成して目標画像を取得することを含むことを特徴とする請求項5に記載の画像処理方法。
【請求項7】
前記第1種類の画像と第2種類の画像を画像統合処理して目標画像を取得することは、さらに、
前記第1画像をRGBフォーマットからYUVフォーマットに変換して前記第1画像の第1のY信号と第1のUV信号を取得することと、前記第2画像から第2のY信号を抽出することと、前記第3画像から第5のY信号を抽出することと、
前記第1のY信号と第2のY信号の第1の差分を算出することと、前記第1のY信号と、第2のY信号との第2の差分を算出することと、
前記第1の差分と第2の差分に基づいて、フレア位置を検出し、前記第1画像、第2画像と第3画像におけるフレアを除去して、更新後の第1のY信号と、第1のUV信号と、第2のY信号と、第5のY信号を取得することと、
更新後の第1のY信号と、第2のY信号と、第5のY信号を統合して、第7のY信号を取得することと、
前記第7のY信号を用いて、更新後の前記第1のUV信号と合成して目標画像を取得することを含むことを特徴とする請求項5に記載の画像処理方法。
【請求項8】
前記第1種類の画像と第2種類の画像を画像統合処理して目標画像を取得することは、
前記第1画像、第2画像と第3画像との視差情報に基づいて、第2の深度画像を生成することと、
前記目標画像と前記目標画像に対応する前記第2の深度画像を出力することを更に含むことを特徴とする請求項7に記載の画像処理方法。
【請求項9】
画像処理装置であって、
第1種類のカメラにより採集された第1種類の画像を受信し、第2種類のカメラにより採集された第2種類の画像を受信するための受信モジュールと、
前記第1種類の画像と第2種類の画像を画像統合処理して目標画像を取得するための統合モジュールを含み、
前記第1種類のカメラと第2種類のカメラが表示スクリーンの透過領域の下に設置され、且つ第1種類のカメラと第2種類のカメラの動作波長範囲が異なり、
前記第1種類のカメラは、可視領域の光により結像するRGBカメラであり、第2種類のカメラは、赤外線の光により結像するNIRカメラであり、
前記第1種類のカメラは、第1のカメラを含み、前記第2種類のカメラは、第2のカメラを含み、前記第1種類の画像は、第1のカメラにより採集された第1画像を含み、前記第2種類の画像は、第2のカメラにより採集された第2画像を含み、
前記統合モジュールは、
前記第1画像をRGBフォーマットからYUVフォーマットに変換して前記第1画像の第1のY信号と第1のUV信号を取得し、前記第2画像から第2のY信号を抽出し、
前記第1のY信号と、第1のUV信号と、第2のY信号を更新処理して、更新後の第1のY信号と、第1のUV信号と、第2のY信号を取得し、
更新後の第1のY信号と第2のY信号を統合して、第4のY信号を取得し、
前記第4のY信号を用いて、更新後の前記第1のUV信号と合成して目標画像を取得するように構成される、ことを特徴とする画像処理装置。
【請求項10】
前記統合モジュールにより前記第1種類の画像と第2種類の画像を画像統合処理する前に,前記第1種類の画像と第2種類の画像の歪みと視差を補正する補正モジュールを更に含むことを特徴とする請求項9に記載の画像処理装置。
【請求項11】
前記第2種類のカメラは、さらに、第3のカメラを含み、前記第2種類の画像は、さらに、前記第3のカメラにより採集された第3画像を含むことを特徴とする請求項9に記載の画像処理装置。
【請求項12】
電子機器であって、プロセッサーとメモリを含み,
前記メモリが、前記プロセッサー上に実行可能なプログラムまたは指令を記憶し、前記プログラムまたは指令が前記プロセッサーに実行されると請求項1―8のいずれか一項に記載の画像処理方法のステップを実現することを特徴とする電子機器。
【請求項13】
透過領域を有する表示スクリーンと、
前記透過領域下に設置される少なくとも第1種類のカメラと第2種類のカメラを更に含むことを特徴とする請求項12に記載の電子機器。
【請求項14】
読み取り可能な記憶媒体であって、
前記読み取り可能な記憶媒体にプログラムまたは指令を記憶し、前記プログラムまたは指令がプロセッサーに実行されると請求項1―8のいずれか一項に記載の画像処理方法のステップを実現する読み取り可能な記憶媒体。
【手続補正書】
【提出日】2023-06-28
【手続補正1】
【補正対象書類名】特許請求の範囲
【補正対象項目名】全文
【補正方法】変更
【補正の内容】
【特許請求の範囲】
【請求項1】
画像処理方法であって、
第1種類のカメラにより採集された第1種類の画像を受信し、第2種類のカメラにより採集された第2種類の画像を受信することを含み、
前記第1種類のカメラと第2種類のカメラが表示スクリーンの透過領域の下に設置され、且つ第1種類のカメラと第2種類のカメラの動作波長範囲が異なり、
前記第1種類の画像と第2種類の画像を画像統合処理して目標画像を取得し、
前記第1種類のカメラは、可視領域の光により結像するRGBカメラであり、第2種類のカメラは、赤外線の光により結像するNIRカメラであり、
前記第1種類のカメラは、第1のカメラを含み、前記第2種類のカメラは、第2のカメラを含み、前記第1種類の画像は、第1のカメラにより採集された第1画像を含み、前記第2種類の画像は、第2のカメラにより採集された第2画像を含み、
前記第1種類の画像と第2種類の画像を画像統合処理して目標画像を取得することは、
前記第1画像をRGBフォーマットからYUVフォーマットに変換して前記第1画像の第1のY信号と第1のUV信号を取得し、前記第2画像から第1のY信号を抽出することと、
第1のY信号と、第1のUV信号と、第2のY信号を更新処理して、更新後の第1のY信号と、第1のUV信号と、第2のY信号を取得することと、
更新後の第1のY信号と第2のY信号を統合して、第4のY信号を取得することと、
前記第4のY信号を用いて、更新後の前記第1のUV信号と合成して目標画像を取得することを含み、
前記更新処理は、前記第1のY信号と第2のY信号の第1の差分を算出することと、
前記第1の差分に基づいて、フレア位置を検出し、前記第1画像と第2画像におけるフレアを除去することと、を含むことを特徴とする画像処理方法。
【請求項2】
前記第1種類の画像と第2種類の画像を画像統合処理する前に、前記第1種類の画像と第2種類の画像の歪みと視差を補正することを含むこと特徴とする請求項1に記載の方法。
【請求項3】
前記前記第1種類の画像と第2種類の画像を画像統合処理して目標画像を取得することは、
前記第1画像と第2画像との視差情報に基づいて、第1の深度画像を生成することと、
前記目標画像と前記目標画像に対応する前記第1の深度画像を出力することをさらに含むことを特徴とする請求項1に記載の方法。
【請求項4】
前記第2種類のカメラは、さらに、第3のカメラを含み、前記第2種類の画像は、さらに、第3のカメラにより採集された第3画像を含むことを特徴とする請求項1に記載の方法。
【請求項5】
前記第1種類の画像と第2種類の画像を画像統合処理して目標画像を取得することは、さらに、
前記第1画像をRGBフォーマットからYUVフォーマットに変換して前記第1画像の第1のY信号と第1のUV信号を取得することと、前記第2画像から第1のY信号を抽出することと、前記第3画像から第5のY信号を抽出することと、
前記第1のY信号と、第2のY信号と、第5のY信号を統合して、第6のY信号を取得することと、
前記第6のY信号を用いて、前記第1のUV信号と合成して目標画像を取得することを含むことを特徴とする請求項4に記載の方法。
【請求項6】
前記第1種類の画像と第2種類の画像を画像統合処理して目標画像を取得することは、さらに、
前記第1画像をRGBフォーマットからYUVフォーマットに変換して前記第1画像の第1のY信号と第1のUV信号を取得することと、前記第2画像から第1のY信号を抽出することと、前記第3画像から第5のY信号を抽出することと、
前記第1のY信号と第2のY信号の第1の差分を算出することと、前記第1のY信号と、第5のY信号との第2の差分を算出することと、
前記第1の差分と第2の差分に基づいて、フレア位置を検出し、前記第1画像、第2画像と第3画像におけるフレアを除去して、更新後の第1のY信号と、第1のUV信号と、第2のY信号と、第5のY信号を取得することと、
更新後の第1のY信号と、第2のY信号と、第5のY信号を統合して、第7のY信号を取得することと、
前記第7のY信号を用いて、更新後の前記第1のUV信号と合成して目標画像を取得することをことを含むことを特徴とする請求項4に記載の方法。
【請求項7】
前記前記第1種類の画像と第2種類の画像を画像統合処理して目標画像を取得することは、
前記第1画像、第2画像と第3画像との視差情報に基づいて、第2の深度画像を生成することと、
前記目標画像と前記目標画像に対応する前記第2の深度画像を出力することを更に含むことを特徴とする請求項6に記載の方法。
【請求項8】
画像処理装置であって、
第1種類のカメラにより採集された第1種類の画像を受信し、第2種類のカメラにより採集された第2種類の画像を受信するための受信モジュールと、
前記第1種類の画像と第2種類の画像を画像統合処理して目標画像を取得するための統合モジュールを含み、
前記第1種類のカメラと第2種類のカメラが表示スクリーンの透過領域の下に設置され、且つ第1種類のカメラと第2種類のカメラの動作波長範囲が異なり、
前記第1種類のカメラは、可視領域の光により結像するRGBカメラであり、第2種類のカメラは、赤外線の光により結像するNIRカメラであり、
前記第1種類のカメラは、第1のカメラを含み、前記第2種類のカメラは、第2のカメラを含み、前記第1種類の画像は、第1のカメラにより採集された第1画像を含み、前記第2種類の画像は、第2のカメラにより採集された第2画像を含み、
前記統合モジュールは、
前記第1画像をRGBフォーマットからYUVフォーマットに変換して前記第1画像の第1のY信号と第1のUV信号を取得し、前記第2画像から第1のY信号を抽出し、
第1のY信号と、第1のUV信号と、第2のY信号を更新処理して、更新後の第1のY信号と、第1のUV信号と、第2のY信号を取得し、
更新後の第1のY信号と第2のY信号を統合して、第4のY信号を取得し、
前記第4のY信号を用いて、更新後の前記第1のUV信号と合成して目標画像を取得するように構成され、
前記更新処理は、前記第1のY信号と第2のY信号の第1の差分を算出することと、
前記第1の差分に基づいて、フレア位置を検出し、前記第1画像と第2画像におけるフレアを除去することと、を含むことを特徴とする画像処理装置。
【請求項9】
前記統合モジュールにより前記第1種類の画像と第2種類の画像を画像統合処理する前に、前記第1種類の画像と第2種類の画像の歪みと視差を補正する補正モジュールを更に含むことを特徴とする請求項8に記載の画像処理装置。
【請求項10】
前記第2種類のカメラは、さらに、第3のカメラを含み、前記第2種類の画像は、さらに、第3のカメラにより採集された第3画像を含むことを特徴とする請求項8に記載の画像処理装置。
【請求項11】
電子機器であって、プロセッサーとメモリを含み、
前記メモリが、前記プロセッサー上に実行可能なプログラムまたは指令を記憶し、前記プログラムまたは指令が前記プロセッサーに実行されると請求項1-7のいずれかの一つに記載の画像処理方法のステップを実現することを特徴とする。
【請求項12】
請求項11に記載の電子機器であって、
透過領域を有する表示スクリーンと、
前記透過領域下に設置される少なくとも第1種類のカメラと第2種類のカメラを更に含むことを特徴とする電子機器。
【請求項13】
読み取り可能な記憶媒体であって、
前記読み取り可能な記憶媒体にプログラムまたは指令を記憶し、前記プログラムまたは指令がプロセッサーに実行されると請求項1-7のいずれかの一つに記載の画像処理方法のステップを実現する読み取り可能な記憶媒体。