(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2023-10-19
(45)【発行日】2023-10-27
(54)【発明の名称】撮像装置
(51)【国際特許分類】
G03B 17/18 20210101AFI20231020BHJP
G03B 15/00 20210101ALI20231020BHJP
G02B 7/28 20210101ALI20231020BHJP
G03B 13/36 20210101ALI20231020BHJP
H04N 23/67 20230101ALI20231020BHJP
【FI】
G03B17/18
G03B15/00 Q
G02B7/28 Z
G03B13/36
H04N23/67 100
(21)【出願番号】P 2022151005
(22)【出願日】2022-09-22
(62)【分割の表示】P 2022029824の分割
【原出願日】2022-02-28
【審査請求日】2022-09-22
(31)【優先権主張番号】P 2021115043
(32)【優先日】2021-07-12
(33)【優先権主張国・地域又は機関】JP
(73)【特許権者】
【識別番号】314012076
【氏名又は名称】パナソニックIPマネジメント株式会社
(74)【代理人】
【識別番号】100132241
【氏名又は名称】岡部 博史
(74)【代理人】
【識別番号】100135703
【氏名又は名称】岡部 英隆
(74)【代理人】
【識別番号】100199314
【氏名又は名称】竹内 寛
(72)【発明者】
【氏名】中村 匡利
(72)【発明者】
【氏名】新谷 侑
【審査官】門田 宏
(56)【参考文献】
【文献】中国特許出願公開第107836109(CN,A)
【文献】米国特許出願公開第2017/0054897(US,A1)
【文献】特開2017-022565(JP,A)
【文献】特開2017-228082(JP,A)
【文献】特開平11-183787(JP,A)
【文献】特開平10-142490(JP,A)
【文献】特開2018-007082(JP,A)
【文献】特開2018-006803(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
G03B 17/18
G03B 15/00
G02B 7/28
G03B 13/36
H04N 23/67
(57)【特許請求の範囲】
【請求項1】
被写体像を撮像して画像データを生成する撮像部と、
前記画像データが示す画像における被写体までの距離を示す距離情報を取得する測距部と、
前記画像において前記被写体が位置する領域に関する被写体検出情報を取得する検出部と、
前記距離情報及び前記被写体検出情報に基づいて、前記画像における前記被写体に沿った形状を有する被写体領域を認識する認識部と、
前記画像データが示す画像を表示する表示部とを備え、
前記認識部は、前記被写体領域の認識結果に基づいて、前記画像において前記被写体に沿って前記被写体領域を、前記撮像部におけるオートフォーカス対象の被写体に対するオートフォーカス枠又は前記オートフォーカス対象の候補枠として前記表示部に表示させる
撮像装置。
【請求項2】
前記検出部は、前記画像において所定種別の被写体が検出された検出領域を、前記被写体検出情報として取得し、
前記認識部は、前記被写体検出情報における前記検出領域であって、且つ前記距離情報が示す距離が共通する領域を、一の被写体領域として認識する
請求項1に記載の撮像装置。
【請求項3】
前記被写体検出情報は、前記画像において前記所定種別の被写体が位置する確率の分布に基づいて前記検出領域を示す
請求項2に記載の撮像装置。
【請求項4】
前記画像における位置を指定する入力部をさらに備え、
前記認識部は、前記入力部において指定された位置に応じて、前記指定された位置を含む被写体領域を認識する
請求項1に記載の撮像装置。
【請求項5】
前記認識部は、前記認識した被写体領域に基づいて、前記被写体に合焦する合焦動作を制御する
請求項1に記載の撮像装置。
【請求項6】
前記所定種別にそれぞれ該当する複数の被写体が前記画像における背景上で互いに重畳する場合、
前記認識部は、前記複数の被写体が検出された検出領域としての前記被写体検出情報と、各被写体までの距離を示す距離情報とに基づいて、前記複数の被写体における個別の被写体を互いに区別して前記個別の被写体に対応する被写体領域を認識する
請求項2に記載の撮像装置。
【請求項7】
請求項1~6のいずれか1項に記載の撮像装置
におけるプロセッサを前記認識部として機能させるためのプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、被写体までの距離を測定する測距機能を有する撮像装置に関する。
【背景技術】
【0002】
特許文献1は、デジタルカメラなどの撮像装置等に用いられる距離検出装置を開示する。この距離検出装置は、撮像手段により生成された、結像光学系の第1の瞳領域を通過した光束による第1の信号(A像信号)と、結像光学系の第1の瞳領域とは異なる第2の瞳領域を通過した光束による第2の信号(B像信号)とに基づき、被写体までの被写体距離を検出する演算手段を備える。演算手段は、位相差方式により第1の信号と第2の信号とに基づき被写体距離等を算出する第1の処理と、DFD方式により、上記位相差方式と同じ第1の信号と第2の信号とに基づき、被写体距離等を算出する第2の処理とを行っている。特許文献1の撮像手段では、各画素内において、A画素としての光電変換部と、B画素としての光電変換部とを配置している。
【先行技術文献】
【特許文献】
【0003】
【発明の概要】
【発明が解決しようとする課題】
【0004】
本開示は、画像における被写体の形状に沿って被写体を認識し易くすることができる撮像装置を提供する。
【課題を解決するための手段】
【0005】
本開示における撮像装置は、撮像装置は、被写体像を撮像して画像データを生成する撮像部と、画像データが示す画像における被写体までの距離を示す距離情報を取得する測距部と、画像において被写体が位置する領域に関する被写体検出情報を取得する検出部と、距離情報及び被写体検出情報に基づいて、画像における被写体に沿った形状を有する被写体領域を認識する認識部とを備える。
【発明の効果】
【0006】
本開示における撮像装置によると、画像における被写体の形状に沿って被写体を認識し易くすることができる。
【図面の簡単な説明】
【0007】
【
図1】本開示の実施形態1に係るデジタルカメラの構成を示す図
【
図2】デジタルカメラのイメージセンサにおけるセンサ画素を説明するための図
【
図3】デジタルカメラの測距機能の動作の概要を説明するための図
【
図4】デジタルカメラの動作を説明するためのフローチャート
【
図5】デジタルカメラにおける距離マップ合成処理を例示するフローチャート
【
図6】デジタルカメラにおける距離マップ合成処理を説明するための図
【
図7】デジタルカメラにおけるAF枠の表示処理を例示するフローチャート
【
図8】デジタルカメラにおけるAF枠の表示例を示す図
【
図9】実施形態2に係るデジタルカメラの構成を示す図
【
図10】実施形態2のデジタルカメラの動作を説明するためのフローチャート
【
図11】実施形態2のデジタルカメラの動作を説明するための図
【
図12】実施形態2のデジタルカメラにおける被写体認識処理を例示するフローチャート
【
図13】実施形態2のデジタルカメラの被写体認識処理を説明するための図
【
図14】実施形態2のデジタルカメラの被写体認識処理の変形例を説明するための図
【発明を実施するための形態】
【0008】
以下、適宜図面を参照しながら、実施の形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。なお、発明者(ら)は、当業者が本開示を十分に理解するために添付図面および以下の説明を提供するのであって、これらによって特許請求の範囲に記載の主題を限定することを意図するものではない。
【0009】
(実施形態1)
実施形態1では、本開示に係る撮像装置の一例として、2種類の測距法による測距機能を有するデジタルカメラについて説明する。
【0010】
1.構成
実施形態1に係るデジタルカメラの構成について、
図1,2を用いて説明する。
【0011】
図1は、本実施形態に係るデジタルカメラ100の構成を示す図である。本実施形態のデジタルカメラ100は、イメージセンサ115と、画像処理エンジン120と、表示モニタ130と、制御部135とを備える。さらに、デジタルカメラ100は、バッファメモリ125と、カードスロット140と、フラッシュメモリ145と、操作部150と、通信モジュール155とを備える。また、デジタルカメラ100は、例えば光学系110及びレンズ駆動部112を備える。
【0012】
光学系110は、フォーカスレンズ、ズームレンズ、光学式手ぶれ補正レンズ(OIS)、絞り、シャッタ等を含む。フォーカスレンズは、イメージセンサ115上に形成される被写体像のフォーカス状態を変化させるためのレンズである。ズームレンズは、光学系で形成される被写体像の倍率を変化させるためのレンズである。フォーカスレンズ等は、それぞれ1枚又は複数枚のレンズで構成される。
【0013】
レンズ駆動部112は、光学系110におけるフォーカスレンズ等を駆動する。レンズ駆動部112はモータを含み、制御部135の制御に基づいてフォーカスレンズを光学系110の光軸に沿って移動させる。レンズ駆動部112においてフォーカスレンズを駆動する構成は、DCモータ、ステッピングモータ、サーボモータ、または超音波モータなどで実現できる。
【0014】
イメージセンサ115は、光学系110を介して形成された被写体像を撮像して、撮像データを生成する。撮像データは、イメージセンサ115による撮像画像を示す画像データを構成する。イメージセンサ115は、所定のフレームレート(例えば、30フレーム/秒)で新しいフレームの画像データを生成する。イメージセンサ115における、撮像データの生成タイミングおよび電子シャッタ動作は、制御部135によって制御される。イメージセンサ115は、CMOSイメージセンサ、CCDイメージセンサ、またはNMOSイメージセンサなど、種々のイメージセンサを用いることができる。
【0015】
イメージセンサ115は、静止画像の撮像動作、スルー画像の撮像動作等を実行する。スルー画像は主に動画像であり、ユーザが静止画像の撮像のための構図を決めるために表示モニタ130に表示される。スルー画像及び静止画像は、それぞれ本実施形態における撮像画像の一例である。イメージセンサ115は、本実施形態における撮像部の一例である。
【0016】
本実施形態のイメージセンサ115は、像面位相差方式のセンサ画素116を備える。
図2は、イメージセンサ115におけるセンサ画素116を説明するための図である。
【0017】
像面位相差方式のセンサ画素116は、例えば、
図2に示すようにイメージセンサ115の像面上で、画像撮影用の画素の代わりに配置される。換言すると、イメージセンサ115は、センサ画素116の個数分だけ、画像撮影において遮光された画素を有することとなる。複数のセンサ画素116は、イメージセンサ115の像面上で、それぞれ像面位相差方式の測距機能において距離の測定対象とする位置に配置され、像面位相差方式の測距点を構成する。例えば、センサ画素116は、光学系110において瞳分割した2種の光学像を結像するように区分された光電変換部などを備える。
【0018】
図1に戻り、画像処理エンジン120は、イメージセンサ115から出力された撮像データに対して各種の処理を施して画像データを生成したり、画像データに各種の処理を施して、表示モニタ130に表示するための画像を生成したりする。各種処理としては、センサ画素116の分の遮光画素の補間処理、ホワイトバランス補正、ガンマ補正、YC変換処理、電子ズーム処理、圧縮処理、伸張処理等が挙げられるが、これらに限定されない。画像処理エンジン120は、ハードワイヤードな電子回路で構成してもよいし、プログラムを用いたマイクロコンピュータ、プロセッサなどで構成してもよい。
【0019】
本実施形態において、画像処理エンジン120は、DFD(Depth from defocus)方式の測距機能を実現するDFD演算部121と、像面位相差方式の測距機能を実現する位相差演算部122とを含む。本実施形態において、DFD演算部121は第1の測距部の一例であり、位相差演算部122は第2の測距部の一例である。各演算部121,122は、例えば各々の測距機能用の演算回路で構成される。各演算部121,122については後述する。
【0020】
表示モニタ130は、種々の情報を表示する表示部の一例である。例えば、表示モニタ130は、イメージセンサ115で撮像され、画像処理エンジン120で画像処理された画像データが示す画像(スルー画像)を表示する。また、表示モニタ130は、ユーザがデジタルカメラ100に対して種々の設定を行うためのメニュー画面等を表示する。表示モニタ130は、例えば、液晶ディスプレイデバイスまたは有機ELデバイスで構成できる。
【0021】
操作部150は、デジタルカメラ100の外装に設けられた操作ボタンや操作レバー等のハードキーの総称であり、使用者による操作を受け付ける。操作部150は、例えば、レリーズボタン、モードダイヤル、タッチパネルを含む。操作部150はユーザによる操作を受け付けると、ユーザ操作に対応した操作信号を制御部135に送信する。
【0022】
制御部135は、デジタルカメラ100全体の動作を統括制御する。制御部135はCPU等を含み、CPUがプログラム(ソフトウェア)を実行することで所定の機能を実現する。制御部135は、CPUに代えて、所定の機能を実現するように設計された専用の電子回路で構成されるプロセッサを含んでもよい。すなわち、制御部135は、CPU、MPU、GPU、DSU、FPGA、ASIC等の種々のプロセッサで実現できる。制御部135は1つまたは複数のプロセッサで構成してもよい。また、制御部135は、画像処理エンジン120などと共に1つの半導体チップで構成してもよい。
【0023】
バッファメモリ125は、画像処理エンジン120や制御部135のワークメモリとして機能する記録媒体である。バッファメモリ125は、DRAM(Dynamic Random Access Memory)などにより実現される。フラッシュメモリ145は不揮発性の記録媒体である。また、図示していないが、制御部135は各種の内部メモリを有してもよく、例えばROMを内蔵してもよい。ROMには、制御部135が実行する様々なプログラムが記憶されている。また、制御部135は、CPUの作業領域として機能するRAMを内蔵してもよい。
【0024】
カードスロット140は、着脱可能なメモリカード142が挿入される手段である。カードスロット140は、メモリカード142を電気的及び機械的に接続可能である。メモリカード142は、内部にフラッシュメモリ等の記録素子を備えた外部メモリである。メモリカード142は、画像処理エンジン120で生成される画像データなどのデータを格納できる。
【0025】
通信モジュール155は、通信規格IEEE802.11またはWi-Fi規格等に準拠した通信を行う通信モジュール(回路)である。デジタルカメラ100は、通信モジュール155を介して、他の機器と通信することができる。デジタルカメラ100は、通信モジュール155を介して、他の機器と直接通信を行ってもよいし、アクセスポイント経由で通信を行ってもよい。通信モジュール155は、インターネット等の通信ネットワークに接続可能であってもよい。
【0026】
2.動作
以上のように構成されるデジタルカメラ100の動作について、以下説明する。
【0027】
本実施形態のデジタルカメラ100は、性能が異なる2つの測距技術を組み合わせることで、より高精度に被写体までの距離を示す距離情報を生成する。こうしたデジタルカメラ100の測距機能の動作の概要を、
図3を用いて説明する。
【0028】
図3(A)は、本実施形態のデジタルカメラ100における撮像画像Imを例示する。撮像画像Imは、例えばスルー画像などを含む各種動画像の1フレームを構成する。以下、撮像画像Imにおける水平方向をX方向とし、垂直方向をY方向とする。又、デジタルカメラ100から被写体までの距離方向をZ方向という場合がある。
【0029】
図3(B)~(D)は、それぞれ
図3(A)の撮像画像Imに対応する各種の距離マップM1~M3を例示する。距離マップM1~M3は、例えば撮像画像Imと同様の二次元座標系(X,Y)において測距点毎の測距結果を示す距離情報の一例である。
図3(B)~(D)に例示する距離マップM1~M3では、測距結果の距離値を灰色の濃淡で示しており、灰色が淡いほど近い距離を示し、灰色が濃いほど遠い距離を示す。
【0030】
本実施形態のデジタルカメラ100は、DFD方式による測距を行って、例えば
図3(B)に示すように、DFD距離マップM1を生成する。DFD距離マップM1は、DFD方式の測距結果を示す距離マップである。また、本実施形態のデジタルカメラ100は、さらに像面位相差方式による測距を行って、この測距結果を示す位相差距離マップM2(
図3(C))を生成する。
【0031】
DFD距離マップM1は、例えば
図3(B)に示すように、比較的高い空間解像度を有する。空間解像度は、例えば3次元空間における少なくとも何れかの方向において被写体の空間位置を検知する各種の解像度である。例えば、空間解像度は、X,Y方向の二次元の解像度(即ち測距点の個数)、及びZ方向の解像度(即ち測距精度)を含む。
【0032】
図3(A)~(D)では、撮像画像Imにおける被写体に二人の人物50,51が含まれ、一方の人物50にピントが合った例を示している。又、本例では、他方の人物51がピントから外れている。
【0033】
本例のDFD距離マップM1においては、
図3(B)に示すように、ピントが合った人物50の外形が現れており、人物50のような被写体を高精度に検知できる。一方で、ピントが外れた人物51は検知できていない。このように、DFD距離マップM1の測距精度は、デジタルカメラ100の合焦位置に近い距離範囲に限って高精度に得られる場合が考えられる。即ち、合焦位置から遠くなると、ボケ量が過多である大ボケによって、測距精度の低下が生じる場合が考えられる。
【0034】
又、位相差距離マップM2では、例えば
図3(C)に示すように、空間解像度がDFD距離マップM1(
図3(C))よりも低いことが想定される。例えば、位相差距離マップM2における二次元の解像度は、イメージセンサ115に設けたセンサ画素116の個数に対応することから制限される。また、位相差距離マップM2の測距精度は、合焦位置に近い距離範囲においては、DFD距離マップM1の測距精度を下回ると考えられる。
【0035】
一方、位相差距離マップM2の測距精度は、上記の距離範囲外では、DFD距離マップM1の測距精度を上回ることが考えられる。例えば、
図3(A)の撮像画像Imにおいてピントが外れた人物51は、
図3(C)に示すように、位相差距離マップM2においては検知できている。このように、位相差距離マップM2では、特定の距離範囲に限らずに測距精度を安定的に得られる分解能の利点が考えられる。
【0036】
そこで、本実施形態のデジタルカメラ100は、以上のように異なる性能の2つの距離マップM1,M2を合成して、DFD距離マップM1の利点と位相差距離マップM2の利点とを持たせた合成距離マップM3を生成する(
図3(D))。
【0037】
図3(D)は、
図3(B)のDFD距離マップM1と
図3(C)の位相差距離マップM2とから得られる合成距離マップM3を例示する。本実施形態の合成距離マップM3によると、例えば
図3(D)に示すように、ピントが合った人物50の外形を得られると共に、ピントが合っていない人物51も検知できている。
【0038】
このように、本実施形態のデジタルカメラ100は、DFD距離マップM1による高い空間解像度と、位相差距離マップM2による安定した測距の分解能とを持たせた合成距離マップM3を得られる。以下、本実施形態におけるデジタルカメラ100の動作の詳細を説明する。
【0039】
2-1.全体動作
本実施形態のデジタルカメラ100における全体的な動作について、
図4を用いて説明する。
図4は、デジタルカメラ100の動作を説明するためのフローチャートである。
【0040】
図4のフローチャートに示す処理は、例えばイメージセンサ115がスルー画像等の各種動画像の撮像動作を実行中に、フレーム周期などの所定周期毎に行われる。本フローの処理は、例えばデジタルカメラ100の制御部135によって実行される。
【0041】
まず、デジタルカメラ100の制御部135は、DFD演算部121から、DFD距離マップM1を取得する(S1)。DFD距離マップM1は、第1の空間解像度を有する第1の距離情報の一例である。
【0042】
ステップS1において、DFD演算部121は、例えば2フレームの撮像画像等の画像データに基づいて、予め設定された測距点毎にDFD演算を行うことによりDFD方式の測距を行って、DFD距離マップM1を生成する。DFD演算は、フレーム間のボケ量の差異に基づいてデフォーカス量(或いは被写体距離)を算出する演算であり、例えば点拡がり関数または光伝達関数などを演算する。DFD方式の測距には適宜、公知技術を適用可能である(例えば、特許文献1)。
【0043】
また、制御部135は、位相差演算部122から、位相差距離マップM2を取得する(S2)。位相差距離マップM2は、第2の空間解像度を有する第2の距離情報の一例である。なお、ステップS1,S2の処理順は、特に限定されない。
【0044】
ステップS2において、位相差演算部122は、イメージセンサ115におけるセンサ画素116から入力されるセンサ信号に基づき、像面位相差方式の測距を行って、位相差距離マップM2を生成する。像面位相差方式の測距は、例えば、センサ画素116による測距点毎に、センサ信号から瞳分割による2種の光学像の差異に応じたデフォーカス量等を算出することにより行える。像面位相差方式の測距には適宜、公知技術を適用可能である(例えば、特許文献1)。
【0045】
次に、本実施形態の制御部135は、取得した各距離マップM1,M2に基づいて、DFD距離マップM1と位相差距離マップM2とを合成する(S3)。こうした距離マップ合成処理(S3)で生成される合成距離マップM3は、本実施形態における第3の距離情報の一例である。
【0046】
本実施形態の距離マップ合成処理(S3)では、撮像画像Imにおける個々の領域別に、各距離マップM1,M2のデータを互いに比較して、より高精度の距離データを採用することによって合成距離マップM3を生成する。ステップS3の処理の詳細は、後述する。
【0047】
次に、制御部135は、生成された合成距離マップM3を用いて、デジタルカメラ100における各種の制御を行う(S4)。例えば、制御部135は、合成距離マップM3に基づき、AF(オートフォーカス)動作を制御したり、AF動作の対象とする被写体の検知結果を示すAF枠などの情報を表示させたりする。
【0048】
制御部135は、合成距離マップM3を用いた各種制御を行う(S4)と、本フローチャートに示す処理を終了する。
【0049】
以上のデジタルカメラ100の動作によると、DFD距離マップM1と位相差距離マップM2とから(S1,S2)、空間解像度および測距分解能を向上させた合成距離マップM3を取得できる(S3)。こうした高精度の合成距離マップM3は、デジタルカメラ100における様々な制御等に活用できる(S4)。
【0050】
例えば、合成距離マップM3における高い空間解像度によると、
図3(A)~(D)の例において、デジタルカメラ100は、人物50の形状に沿った領域を抽出できる。このように抽出された領域は、例えばコントラストAF方式などのAF評価値の算出に用いることで、背景抜け等を抑制した高精度のAF制御を実現できる。また、抽出された人物50の形状を表示モニタ130等に表示することで、デジタルカメラ100の検知精度の高さをユーザに可視化することもできる。こうした可視化の処理例については後述する。
【0051】
又、デジタルカメラ100は、合成距離マップM3をAF制御に用いることで、DFD距離マップM1による高い空間解像度の距離データに基づき、撮像画像Im上に小さく映った被写体でも精度良くピントを合わせられる。また、
図3(A)の人物51などの合焦位置から離れた被写体にピントを合わせ直す場合も、合成距離マップM3において、位相差距離マップM2による広範囲の測距分解能により、AF制御を高速に動作させることができる。
【0052】
2-2.距離マップ合成処理
図4のステップS3における距離マップ合成処理について、
図5~6を用いて説明する。
【0053】
図5は、デジタルカメラ100における距離マップ合成処理を例示するフローチャートである。本フローに示す処理は、例えば制御部135が画像処理エンジン120を制御することにより実行される。
【0054】
図6(A),(B)は、それぞれ合成前のDFD距離マップM1及び位相差距離マップM2を例示する。
図5に例示する処理は、例えば
図6(A),(B)に示すように各距離マップM1,M2が
図4のステップS1,S2で取得された状態で開始される。
【0055】
まず、制御部135は、例えば高解像度のDFD距離マップM1に合わせるように、低解像度の位相差距離マップM2における領域を正規化する処理を行う(S11)。ステップS11の処理について、
図6(A)~(C)を用いて説明する。
【0056】
図6(A),(B)では、各距離マップM1,M2の解像度に対応したデータ点P1,P2をそれぞれ例示している。各データ点P1,P2は、それぞれ撮像画像Imにおいて対応する位置の測距点毎に測距された結果の距離値を有する。
【0057】
図6(A)に示すように、DFD距離マップM1は、高解像度が実現される多数のデータ点P1を含んだサイズのデータ領域で構成される。一方、
図6(B)に示すように、位相差距離マップM2は、DFD距離マップM1のデータ点P1の個数よりも少ないN個のデータ点P2によるデータ領域で構成される。そこで、ステップS11では、位相差距離マップM2のデータ領域が、DFD距離マップM1に合わせて正規化される。
【0058】
図6(C)は、正規化された位相差距離マップM2’を例示する。正規化された位相差距離マップM2’は、DFD距離マップM1と同じサイズのデータ領域をN個の分割領域R2-1~R2-Nに分割して構成される。例えば、ステップS11において、制御部135は、ステップS2で取得された位相差距離マップM2における各データ点P2の距離値を、各々の分割領域R2-1~R2-Nの距離データとして割り当てて、正規化された位相差距離マップM2’を管理する。
【0059】
次に、制御部135は、正規化された位相差距離マップM2’における1~N番目の分割領域R2-1~R2-Nから順番に、1つの分割領域R2を選択する(S12)。ステップS12~S18では、選択された分割領域R2毎に、DFD距離マップM1と位相差距離マップM2’を比較する処理が順次、行われる。
【0060】
制御部135は、DFD距離マップM1から、選択中の分割領域R2に対応する領域R1とその距離データを抽出する(S13)。
図6(D)は、
図6(A)のDFD距離マップM1において、
図6(C)の1~N番目の分割領域R2-1~R2-Nの対応領域R1-1~R1-Nを例示する。DFD距離マップM1の各対応領域R1は、撮像画像Im上で、対応する位相差距離マップM2’の分割領域R2と同じ領域の測距結果として複数のデータ点P1を含む。
【0061】
制御部135は、例えばDFD距離マップM1から抽出した対応領域R1における距離データに基づいて、選択中の分割領域R2に対するDFD測距の評価値を算出する(S14)。DFD測距の評価値は、例えばDFD距離マップM1の対応領域R1における各データ点P1の距離値にわたる平均値であり、例えば相加平均、相乗平均あるいは各種の加重平均で演算される。
【0062】
次に、制御部135は、選択中の分割領域R2における2つの距離マップM1,M2’間の比較として、算出したDFD測距の評価値が、例えば位相差距離マップM2’の距離データに応じた所定の許容範囲内にあるか否かを判断する(S15)。当該許容範囲は、例えば位相差距離マップM2’において選択中の分割領域R2に割り当てられた距離値と、DFD測距の評価値とが、合致していると想定される許容誤差の距離範囲に設定される。
【0063】
制御部135は、選択中の分割領域R2に対するDFD測距の評価値が、上記の許容範囲内にあると判断した場合(S15でYES)、DFD測距マップM1の対応領域R1の距離データを、合成距離マップM3に採用することを決定する(S16)。この場合、DFD距離マップM1は、位相差距離マップM2’と比較して特にずれておらず、対応領域R1の測距結果は高精度と考えられる。
【0064】
一方、制御部135は、選択中の分割領域R2に対するDFD測距の評価値が許容範囲内にないと判断した場合(S15でNO)、合成距離マップM3に位相差測距マップM2’の距離データを採用することを決定する(S17)。この場合、DFD距離マップM1が、位相差距離マップM2’から比較的ずれていることから、対応領域R2において大ボケ等による測距精度の低下を生じたことを検知できる。
【0065】
制御部135は、全ての分割領域R2-1~R2-Nにおいて、採用する距離データが決定されていないとき(S18でNO)、新たな分割領域R2を選択して、ステップS12以降の処理を行う。これにより、2つの距離マップM1,M2’間の比較(S12~S18)が分割領域R2毎に繰り返される。
【0066】
全ての分割領域R2-1~R2-Nにおいて、採用する距離データが決定されると(S18でYES)、制御部135は、2つの距離マップM1,M2の合成結果として合成距離マップM3を生成する(S19)。
図6(E)に、ステップS19における合成距離マップM3を例示する。
【0067】
図6(E)は、
図6(C),(D)の各距離マップM1,M2’から生成される合成距離マップM3を例示する。合成距離マップM3は、DFD距離マップM1の距離データを有する領域であるDFD領域R31と、位相差距離マップM2’の距離データを有する領域である位相差領域R32とを含む。合成距離マップM3は、例えば、DFD距離マップM1と同じデータ領域を、各対応領域R1-1~R1-Nと同様にN個の分割領域に分割して構成される。
【0068】
例えばステップS19において、制御部135は、ステップS16で決定した対応領域R1の距離データを、合成距離データM3におけるDFD領域R31中の分割領域に割り当てる。又、制御部135は、ステップS17で決定した分割領域R2の距離データを、合成距離データM3における位相差領域R32中の分割領域に割り当てる。このようにDFD距離マップM1と位相差距離マップM2’とを組み合わせて、合成距離マップM3を生成できる(S19)。
【0069】
制御部135は、以上のように合成距離マップM3を生成する(S19)と、距離マップ合成処理(
図4のS3)を終了して、例えばステップS4の処理に進む。
【0070】
以上の距離マップ合成処理(S3)によると、DFD方式により高い空間解像度を有するDFD領域R31と、像面位相差方式により広い距離範囲で測距精度が安定した位相差領域R32とを有する合成距離マップM3を得ることができる(S19)。
【0071】
また、正規化した位相差距離マップM2’の分割領域R2毎に、各距離マップM1,M2を比較して一方の距離データを採用する処理により、合成距離マップM3の生成を行い易くすることができる(S11~S19)。例えば、分割領域R2毎に、DFD測距の評価値と、位相差距離マップM2’の距離値とを比較することにより(S15)、DFD距離マップM1の対応領域R1において測距精度の低下が生じていないかを容易に判定できる。
【0072】
ステップS14,15におけるDFD測距の評価値は、特に対応領域R1における距離値の平均値に限らず、例えば最頻値、分散度、或いは最大値と最小値間の差分などであってもよい。又、DFD測距の評価値の比較対象は、位相差距離マップM2’の距離値でなくてもよい。例えば、評価値の種類に応じて測距精度の低下を判定するための基準値が予め設定されてもよい。又、デジタルカメラ100は、合焦位置付近の前後においてDFD方式の測距精度が高く得られると想定される距離範囲を求めて、DFD距離マップM1の距離データが、求めた距離範囲内であるか否かの判定をステップS15等で行ってもよい。
【0073】
また、上記の説明では、分割領域R2毎に、2つの距離マップM1,M2の何れかの距離データが合成距離マップM3に採用された(S16,S17)。本実施形態のデジタルカメラ100はこれに限らず、例えば分割領域R2の内部において、DFD距離マップM1の距離データを採用する部分と、位相差距離マップM2’の距離データを採用する部分とを設けてもよい。
【0074】
例えば、制御部135は、DFD距離マップM1の対応領域R1内で、データ点P1毎に測距精度の低下の有無を判定して、測距精度の低下が有ると判定されたデータ点P1の距離データを選択的に位相差距離マップM2’の距離データに置換してもよい。或いは、デジタルカメラ100は、位相差距離マップM2のデータ点P2の距離データを、DFD距離マップM1のデータ点P1の距離データで補間するように、2つの距離マップM1,M2を組み合わせる合成によって、合成距離マップM3を生成してもよい。
【0075】
2-3.AF枠の表示処理
以上のような合成距離マップM3を用いてデジタルカメラ100が被写体の形状を認識していることをユーザに可視化する処理の一例を、
図7~8を用いて説明する。以下では、AF枠の表示に合成距離マップM3を用いる処理例を説明する。
【0076】
図7は、デジタルカメラ100におけるAF枠の表示処理を例示するフローチャートである。
図8は、デジタルカメラ100におけるAF枠の表示例を示す図である。
図7のフローチャートに示す処理は、例えばデジタルカメラ100において生成された合成距離マップM3がバッファメモリ125等に格納された状態で、所定のユーザ操作の入力に応じて開始される。
【0077】
まず、制御部135は、デジタルカメラ100の操作部150を介して、ユーザ操作により指定された位置情報を取得する(S31)。当該ユーザ操作は、ライブビュー等の撮像画像Im上でユーザ所望の被写体の位置を指定する各種の操作であり、例えば、タッチパネルにおけるタッチ操作等である。
【0078】
次に、制御部135は、現在の撮像画像Imに応じた合成距離マップM3を参照して(S32)、例えば取得した位置情報が示す指定位置が、合成距離マップM3においてDFD領域R31(
図6(E))内であるか否かを判断する(S33)。
【0079】
ユーザ操作の指定位置が、合成距離マップM3のDFD領域R31内である場合(S33でYES)、制御部135は、合成距離マップM3における距離データに基づいて、指定位置を含む被写体の領域とその形状を抽出する(S34)。例えば、制御部135は、合成距離マップM3の距離データにエッジ解析等を行って、指定位置を含む被写体の輪郭形状に沿った領域を抽出する。合成距離マップM3のDFD領域R31によると、高解像度の距離データから、指定された被写体の形状が精度良く抽出できる。
【0080】
次に、制御部135は、合成距離マップM3のDFD領域R1から抽出した情報に基づいて、例えば抽出した被写体領域の形状を有するAF枠F1を表示するように、表示モニタ130を制御する(S35)。ステップS35におけるAF枠F1の表示例を、
図8(A)に示す。AF枠F1は、第1の検出情報の一例である。
【0081】
図8(A)の例では、デジタルカメラ100の被写体として、合焦位置に近い人物50と遠い人物51とがいる際に、前者の人物50の位置を指定するユーザ操作が入力された場合の表示例を示す。本例において、デジタルカメラ100の制御部135は、このユーザ操作に応じて(S31)、合成距離マップM3から人物50の形状を抽出する(S34)。これにより、表示モニタ130に、人物50の形状に沿ったAF枠F1が表示される(S35)。
【0082】
図7に戻り、ユーザ操作の指定位置が、合成距離マップM3のDFD領域R31内ではない場合(S33でNO)、当該指定位置は位相差領域R32にあることとなる。この場合、制御部135は、例えば、撮像画像Imに対して別途、行われる画像認識の結果を参照して(S36)、指定位置を含む矩形領域等を取得する。ステップS36の画像認識は、例えば人物の一部又は全体、或いは動物などの各種の被写体の位置を認識する種々の処理であってもよい。
【0083】
次に、制御部135は、取得した画像認識結果の矩形領域等に基づき、例えば矩形のAF枠F2を表示するように、表示モニタ130を制御する(S37)。ステップS37におけるAF枠F2の表示例を、
図8(B)に示す。AF枠F2は、第2の検出情報の一例である。
【0084】
図8(B)では、
図8(A)と同様の被写体の人物50,51において、合焦位置から遠い人物51の位置がユーザ操作により指定された場合を例示する。この際、AF枠F2の線種などの表示態様は、被写体の形状に沿ったAF枠F1と異ならせてもよい。又、ステップS36,S37において、制御部135は、合成距離マップM3の距離データに基づいて、被写体の位置及び大きさ等を認識することにより、矩形のAF枠F2を配置してもよい。
【0085】
制御部135は、AF枠F1,F2を表示させる(S35,S37)と、本フローチャートに示す処理を終了する。この際、AF枠F1,F2の表示は随時、更新されてもよい。例えば、制御部135は、所定の周期で本フローに示す処理を繰り返してもよい。この場合、ユーザ操作の指定位置(S31)は、最初の処理実行時に入力された位置を使い回してもよいし、最初の位置から被写体を追尾した結果の位置に更新されてもよい。こうした被写体の追尾は、逐次得られる合成距離マップM3を用いて行われてもよいし、適宜、画像認識で行われてもよい。
【0086】
以上のAF枠の表示処理によると、デジタルカメラ100において、合成距離マップM3のDFD領域R31により高精度に測距できている被写体に対しては、被写体の形状に沿ったAF枠F1が表示されきる(
図8(A)参照)。これにより、ユーザに対して、デジタルカメラ100が高精度に被写体の形状を認識していることを可視化することができる。
【0087】
また、ユーザ操作により指定された被写体が、DFD領域R31外の場合であっても(
図8(B)参照)、デジタルカメラ100は、合成距離マップM3を用いて、こうした被写体へのピント合わせを高速に行える。すると、その後に得られるDFD距離マップM3では、指定された被写体が、DFD領域R1内になると考えられる。これにより、デジタルカメラ100は、ユーザ操作を入力した当初は
図8(B)に示すように指定された人物51に矩形のAF枠F2を表示してから、新たな合成距離マップM3により人物51の形状を抽出でき次第、AF枠F2として表示する形状を更新してもよい。
【0088】
以上のステップS33~S35では、指定位置が合成距離マップM3においてDFD領域R31内である場合(S33でYES)、被写体の形状に沿ったAF枠F1が表示される例を説明した。制御部135は、合成距離マップM3から被写体の形状を抽出する(S34)際に、その輪郭形状がDFD領域R31に収まるか否かを判定してもよい。
【0089】
上記のように抽出された被写体の形状が、DFD領域R31に収まらなかった場合、一部に位相差領域R32の解像度を含み、形状の認識精度が低減し得る。こうした場合、制御部135は、抽出した形状に沿ったAF枠F1の代わりに、矩形のAF枠F2を表示させてもよい。
【0090】
或いは、制御部135は、上記のように位相差領域R32を含みながら抽出された形状に沿ったAF枠F1を、そうでない場合とは線種等を変更した上で表示させてもよい。このように、デジタルカメラ100による形状の認識精度の程度がユーザに可視化されてもよい。又、AF枠F1の形状は、合成距離マップM3から抽出した形状と完全に一致しなくてもよく、適宜補間または平滑化等が行われてもよい。
【0091】
3.まとめ
以上のように、本実施形態における撮像装置の一例のデジタルカメラ100は、撮像部の一例のイメージセンサ115と、第1の測距部の一例のDFD演算部121と、第2の測距部の一例の位相差演算部122と、制御部135とを備える。イメージセンサ115は、被写体像を撮像して画像データを生成する。DFD演算部121は、画像データが示す画像における被写体と自装置との間の距離を、第1の空間解像度において示す第1の距離情報の一例であるDFD距離マップM1を取得する(S1)。位相差演算部122は、第1の空間解像度とは異なる第2の空間解像度において、画像における距離を示す第2の距離情報の一例である位相差距離マップM2を取得する(S2)。制御部135は、DFD距離マップM1及び位相差距離マップM2に基づいて、画像における領域別に第1又は第2の空間解像度において距離を示す第3の距離情報の一例である合成距離マップM3を取得する(S3)。
【0092】
以上のデジタルカメラ100によると、空間解像度が異なるDFD距離マップM1と位相差距離マップM2とに基づいた合成距離マップM3により、被写体までの距離を精度良く得ることができる。合成距離マップM3によると、DFD距離マップM1の空間解像度と、位相差距離マップM2の空間解像度とを画像上の領域別に含み、精度良い測距結果を得ることが可能である。
【0093】
本実施形態において、合成距離マップM3は、画像における領域毎に、DFD距離マップM1及び位相差距離マップM2のうちのより高い測距精度の距離情報を含む。これにより、合成距離マップM3において高精度の測距精度が得られる。
【0094】
本実施形態において、DFD距離マップM1の測距精度は、特定の距離範囲内において位相差距離マップM2よりも高い。位相差距離マップM2の測距精度は、当該距離範囲外においてDFD距離マップM1よりも高い。合成距離マップM3は、当該距離範囲内におけるDFD距離マップM1の距離データと、当該距離範囲外における位相差距離マップM2の距離データとを含む。これにより、上記の距離範囲の内外でDFD距離マップM1と位相差距離マップM2とがそれぞれより高い測距精度を有する距離データを合成距離マップM3に含めて、合成距離マップM3の測距精度を向上できる。
【0095】
本実施形態において、上記特定の距離範囲は、イメージセンサ115において合焦した合焦位置を含む範囲である。DFD演算部121は、イメージセンサ115によって生成された画像データに基づいて、DFD距離マップM1を生成する。デジタルカメラ100における合焦位置の近辺の距離範囲ではDFD距離マップM1の距離データを用いて、合成距離マップM3の測距精度を向上できる。
【0096】
本実施形態において、DFD距離マップM1の空間解像度(第1の空間解像度)は、画像に対応する2次元方向(X,Y)において、位相差距離マップM2の空間解像度(第2の空間解像度)よりも高解像度である。これにより、DFD距離マップM1の距離データを用いた領域では、合成距離マップM3において高い解像度が得られる。一方、位相差距離マップM2の空間解像度は、距離のZ方向において、DFD距離マップM1よりも安定した測距の分解能を含んでもよい。
【0097】
本実施形態において、DFD演算部121は、DFD(Depth from defocus)方式による測距を行って、DFD距離マップM1を生成する。位相差演算部122は、像面位相差方式による測距を行って、位相差距離マップM2を生成する。こうした異なる測距法に基づく距離マップM1,M2を合成して、精度良い合成距離マップM3を得ることができる。
【0098】
本実施形態において、制御部135は、合成距離マップM3に基づいて、被写体に合焦する合焦動作を制御する(S4)。合成距離マップM3によると、高精度の測距結果により、合焦動作の制御を行い易くできる。
【0099】
本実施形態において、デジタルカメラ100は、画像データが示す画像を表示する表示部の一例である表示モニタ130をさらに備える。制御部135は、合成距離マップM3に基づいて、画像において被写体に沿った形状を有する第1の検出情報の一例であるAF枠F1を表示モニタ130に表示させる(S35)。合成距離マップM3による高精度の測距結果を、被写体に沿ったAF枠F1等により、ユーザに可視化して、デジタルカメラ100を利用し易くすることができる。
【0100】
本実施形態において、制御部135は、合成距離マップM3において被写体が第1の空間解像度の領域の一例のDFD領域R1に位置する場合に(S33でYES)、第1の検出情報のAF枠F1を表示させる(S35)。制御部135は、合成距離マップM3において被写体がDFD領域R1に位置しない場合に(S33でNO)、第1の検出情報とは異なる形状を有する第2の検出情報の一例のAF枠F2を表示させる(S37)。これにより、デジタルカメラ100が被写体の形状を精度良く認識できる場合に選択的に第1の検出情報を可視化でき、ユーザにとってデジタルカメラ100を利用し易くできる。
【0101】
本実施形態において、デジタルカメラ100は、被写体像を撮像して画像データを生成するイメージセンサ115と、画像データが示す画像を表示する表示モニタ130と、画像データが示す画像における被写体と自装置との間の距離を示す距離情報に基づいて、表示モニタ130を制御する制御部135とを備える。制御部135は、被写体が、特定の距離範囲内に位置する場合に(S33でYES)、画像において被写体に沿った形状を有する第1の検出情報を表示モニタ130に表示させてもよい(S35)。これにより、デジタルカメラ100において、被写体までの距離を精度良く得ることで被写体の形状が認識できた際に、こうした認識結果をユーザに可視化して、デジタルカメラ100を利用し易くすることができる。
【0102】
本実施形態において、制御部135は、被写体が、距離範囲内に位置しない場合に(S33でNO)、第1の検出情報とは異なる形状を有する第2の検出情報を表示モニタ130に表示させてもよい(S37)。これにより、デジタルカメラ100において、被写体までの距離を精度良く得られない、或いは被写体の形状が認識できなかった際にも、表示モニタ130の表示により、ユーザにとってデジタルカメラ100を利用し易くできる。
【0103】
本実施形態のデジタルカメラ100において、DFD演算部121及び位相差演算部122のうちの一方が、撮像画像Imにおいて被写体が位置する領域に関する被写体検出情報を取得する検出部の一例であり、他方が測距部の一例であってもよい。制御部135は、距離情報及び被写体検出情報に基づいて、撮像画像Imにおける被写体に沿った形状を有する被写体領域を認識する認識部の一例であってもよい。こうしたデジタルカメラ100によると、撮像画像Imにおける被写体の形状に沿って被写体を認識し易くすることができる。
【0104】
本実施形態において、検出部は、被写体検出情報として、画像における被写体までの距離を、第1の空間解像度において示す第1の距離情報を取得する。測距部は、距離情報として、第1の空間解像度とは異なる第2の空間解像度において、画像における被写体までの距離を示す第2の距離情報を取得する。制御部135は、第1の距離情報及び第2の距離情報に基づいて、画像における領域別に第1又は第2の空間解像度において被写体領域を認識する。これにより、第1及び第2の距離情報を組み合わせて、撮像画像Imにおける被写体の形状に沿って被写体を認識し易くできる。
【0105】
本実施形態において、例えば第1の測距部としてのDFD演算部121の第1の空間解像度は、画像に対応する2次元方向において、第2の測距部としての位相差演算部122の第2の空間解像度よりも高解像度である。制御部135は、第1の距離情報が示す距離が、第2の距離情報が示す距離から所定範囲内にある領域には(S15でYES)、合成距離マップM3にDFD距離マップM2のデータを採用して(S16)、第1の空間解像度において被写体領域を認識する。例えば、こうしたDFD領域内の位置が指定されると(S33でYES)、制御部135は、合成距離マップM3から第1の空間解像度において被写体の形状を抽出する(S34)。こうして、制御部135は、第1の距離情報から被写体の位置として検出され、且つ第2の距離情報が示す距離が所定条件を満たす領域を、第1の空間解像度において被写体領域として認識してもよい(
図8(A)参照)。
【0106】
一方、制御部135は、第1の距離情報が示す距離が、第2の距離情報が示す距離から所定範囲内にない領域には(S15でNO)、合成距離マップM3に位相差距離マップM2のデータを採用することから(S17)、第2の空間解像度において被写体領域を認識する。このように、第1及び第2の距離情報を組み合わせて用いることで、撮像画像Imの範囲にわたり種々の被写体に沿った形状を認識し易くできる。
【0107】
(実施形態2)
以下、本開示の実施形態2について、
図9~13を用いて説明する。実施形態1では、2種類の測距技術を用いて撮像画像における被写体領域を認識するデジタルカメラ100について説明した。実施形態2では、画像認識技術と測距技術とを用いて、被写体領域を認識するデジタルカメラについて説明する。
【0108】
以下、実施形態1に係るデジタルカメラ100と同様の構成、動作の説明は適宜、省略して、本実施形態に係るデジタルカメラを説明する。
【0109】
1.構成
図9は、実施形態2に係るデジタルカメラ100Aの構成を示す。本実施形態のデジタルカメラ100Aは、実施形態1のデジタルカメラ100と同様の構成において、例えば画像処理エンジン120において更に人物検出部123を備える。人物検出部123は、画像認識技術により所定種別の被写体として人物を検出する検出部の一例である。本実施形態のデジタルカメラ100Aにおいては、DFD演算部121と位相差演算部122のうちの一方が省略されてもよい。
【0110】
例えば、人物検出部123は、人物といった予め設定された種別の被写体が画像上の各位置に存在するか否かを検出するセグメンテーション(例えばセマンティックセグメンテーション)を実現するように、機械学習等により構築される。人物検出部123は、例えば完全畳み込みネットワーク(FCN)等のニューラルネットワークによる学習済みモデルを採用する。人物検出部123は、イメージセンサ115の撮像画像を示す情報を入力して、当該モデルによる画像認識処理を実行して、後述する被写体検出情報を生成する。
【0111】
人物検出部123の学習済みモデルは、特に上記に限らず、例えばマスクR-CNNなどであってもよいし、特にニューラルネットワークに限らない種々の画像認識に関する機械学習モデルであってもよい。また、人物検出部123は機械学習に限らず、種々の画像認識アルゴリズムを採用してもよい。人物検出部123は、例えばDSP等で構成されてもよい。人物検出部123は、画像処理エンジン120と制御部135との協働によって構成されてもよい。また、人物検出部123は、画像処理エンジン120とは別に構成されてもよく、制御部135と一体的に構成されてもよい。
【0112】
2.動作
図10は、実施形態2のデジタルカメラ100Aの動作を説明するためのフローチャートである。
図11は、本実施形態のデジタルカメラ100Aの動作を説明するための図である。以下では、DFD演算部121を省略可能なデジタルカメラ100Aの動作例を説明する。
【0113】
本実施形態のデジタルカメラ100は、例えば、実施形態1と同様に撮像動作の実行中に、
図4のフローの代わりに
図10のフローに示す処理を行う。
図11(A)は、本実施形態のデジタルカメラ100Aにおける撮像画像Imを例示する。本例では、
図11(A)中の右側から順に距離を置いて並ぶ3人の人物60,61,62が撮像画像Imに映っている。
【0114】
本実施形態のデジタルカメラ100において、制御部135は、例えば、実施形態1でDFD距離マップM1を取得したステップS1の代わりに、人物検出部123から検出結果を示す被写体検出情報の一例として人物確率マップを取得する(S1A)。ステップS1Aで取得される被写体検出情報について、
図11(B)を用いて説明する。
【0115】
図11(B)は、
図11(A)の撮像画像Imに対応する人物確率マップM10を例示する。人物確率マップM10は、例えば撮像画像Imにおける画素毎に、人物60~62が存在する確率を示す。
図11(B)の例では、人物60~62の存在確率が高いほど濃淡を淡く図示している。
【0116】
ステップS1Aにおいて、人物検出部123は、例えば、イメージセンサ115から撮像画像Imの画像データを学習済みモデルに入力して、人物検出の画像認識処理を行うことにより、
図11(B)に例示するように人物確率マップM10を生成する。人物確率マップM10によると、撮像画像Imにおいて比較的高い存在確率の画素の集合により、人物60~62の存在が検出された領域すなわち検出領域R11~R12が、人物60~62らが位置する範囲の外形に沿って得られる。
【0117】
図11(A),(B)の例では、撮像画像Imに映る人物60~62のうちの2人の人物60,61の位置が一部重畳していることから、人物確率マップM10は、各人物60,61が互いに切り分けられず併存した検出領域R11を含む。こうした検出領域R11のように、撮像画像Imにおける人物検出の画像認識処理のみでは、複数の人物60,61のうちの着目する一方といった所望の被写体の領域を、他のものから切り分けて認識することが困難な事態が考えられる。
【0118】
そこで、本実施形態のデジタルカメラ100Aは、人物確率マップM10といった被写体検出情報に加えて、検出領域R11における人物60,61間の切り分けに距離情報を用いる。例えば、制御部135は、実施形態1と同様に位相差演算部122から位相差距離マップM2を取得する(S2)。
図11(C)に、本実施形態のステップS2において取得される位相差距離マップM2を例示する。
【0119】
図11(C)は、
図11(A)の撮像画像Imに対応する位相差距離マップM2を例示する。
図11(C)の例では、実施形態1と同様に距離値を濃淡で図示している。ステップS2において、位相差演算部122は、撮像画像Imの撮像時のイメージセンサ115におけるセンサ画素116からのセンサ信号に基づき、実施形態1と同様に位相差距離マップM2を生成する。本例では、位相差距離マップM2の解像度は、人物確率マップM10の解像度よりも低い。
【0120】
次に、本実施形態の制御部135は、例えば実施形態1のステップS3の代わりに、取得した人物確率マップM10及び位相差距離マップM2に基づいて被写体認識処理を行う(S3A)。ステップS3Aの処理による認識結果の一例を
図11(D)に示す。
【0121】
図11(D)は、
図11(B),(C)の各マップM2,M10に基づく人物認識マップM20を例示する。被写体認識処理(S3A)では、例えば個々の人物60,61,62といった被写体の形状に沿った領域、即ち人物領域R20,R21,R22が認識される。人物認識マップM20は、撮像画像Imにおける各人物60~62に対応する人物領域R20~R22をそれぞれ含む、被写体認識処理(S3A)の認識結果の一例である。
【0122】
図11(D)の例では、人物認識マップM20において、各人物領域R20~R22を、各々の距離に応じた濃淡の灰色で図示し、人物領域R20~R22以外の部分は白色で図示している。本実施形態の被写体認識処理(S3A)では、位相差距離マップM2が示す距離の差異に基づいて、人物確率マップM10の検出領域R11から別個の人物領域R20,R21がそれぞれ認識される。被写体認識処理(S3A)についての詳細は後述する。
【0123】
次に、制御部135は、被写体認識処理(S3A)の結果に基づいて、例えば実施形態1と同様にデジタルカメラ100における各種の制御を行う(S4)。例えば、制御部135は、実施形態1の合成距離マップM3の代わりに人物認識マップM20を用いて、AF動作を制御したりAF枠などの情報を表示させたりする。
【0124】
制御部135は、実施形態1と同様に各種制御を行う(S4)と、本フローチャートに示す処理を終了する。
【0125】
以上のデジタルカメラ100の動作によると、画像認識による人物の検出結果の人物確率マップM10に、位相差距離マップM2のような距離情報を組み合わせることにより、各人物60~62に沿った形状を有する人物領域R20~R22を認識できる(S1A~S3A)。人物領域R20~R22は、本実施形態における被写体領域の一例である。
【0126】
例えば、
図11(B)の人物確率マップM10では切り分けられなかった検出領域R11における2人の人物60,61について、
図11(D)に示すように別々の人物領域R20,R21として切り分けて認識することができる。こうした識別が高精度の人物領域R20~R21が得られることで、AF制御等のデジタルカメラ100Aにおける各種制御(S4)を精度良くすることができる。
【0127】
2-1.被写体認識処理
図10のステップS3Aにおける被写体認識処理について、
図12~13を用いて説明する。
【0128】
図12は、本実施形態のデジタルカメラ100における被写体認識処理(S3A)を例示するフローチャートである。
図13は、本実施形態の被写体認識処理を説明するための図である。本フローに示す処理は、例えば制御部135が画像処理エンジン120を制御することにより実行される。
【0129】
まず、制御部135は、例えば位相差演算部122から取得した位相差距離マップM2に、実施形態1のステップS11と同様に正規化の処理を行う(S21)。本実施形態におけるステップS21の処理結果を
図13(A)に例示する。
【0130】
図13(A)は、
図11(B)の位相差距離マップM2が正規化された距離マップM2’を例示する。本実施形態のステップS11は、位相差距離マップM2の解像度を、人物確率マップM10の解像度に合わせるアップサンプリングによって行われる。
【0131】
また、制御部135は、例えば人物検出部123から取得した人物確率マップM10に対して、検出領域R11~R12を抽出するための二値化を行う(S22)。ステップS22の処理結果を
図13(B)に例示する。
【0132】
図13(B)は、
図11(B)の人物確率マップM10を二値化した結果として得られる人物検出マップM11を例示する。
図13(B)の例では、二値化処理(S22)により抽出された検出領域R11~R12を白色で図示し、そうでない領域を黒色で図示している。ステップS22の処理は、例えば人物確率マップM10における画素毎の存在確率を、所定のしきい値と比較することにより行われる。当該しきい値は、人物60~62が位置すると想定される存在確率の基準として設定され、例えば50%以上である。
【0133】
次に、制御部135は、例えば人物検出マップM11において抽出された検出領域R11~R12の各画素から順番に、1つの画素を選択する(S23)。ステップS23~S27において選択された画素毎に人物検出マップM11と距離マップM2’とを照合する処理により、当該画素が何れの人物60~62に対応するかを決定でき、各人物領域R20~R22の境界を把握することができる(
図11(D)参照)。
【0134】
例えば、制御部135は、正規化された距離マップM2’に基づいて、選択中の画素に対応する距離値が、所定の距離範囲内であるか否かを判断する(S24)。ステップS24の距離範囲は、被写体の人物60~62までの距離として想定される範囲に予め設定され、例えば、選択中の画素を含む検出領域中の距離データの代表値から許容誤差の範囲に設定される。制御部135は、当該検出領域の全体または選択中の画素近傍などの距離データから、代表値を抽出してもよいし、各種平均値又は最頻値などを代表値として算出してもよい。又、上記の距離範囲は、背景と被写体とを区別する上限値を有してもよい。
【0135】
制御部135は、選択中の画素の距離値が、上記の距離範囲内にあると判断した場合(S24でYES)、当該画素の距離値を、人物認識マップM20に採用することを決定する(S25)。これにより、例えば
図13(A)の距離マップM2’において灰色で図示した部分であって、且つ検出領域R11~R12(
図13(B))内の距離データが、
図11(D)の人物認識マップM20に採用される。
【0136】
一方、制御部135は、選択中の画素の距離値が上記の距離範囲内にないと判断した場合(S24でNO)、当該画素の距離値を、人物認識マップM20に採用しないことを決定する(S26)。これにより、例えば
図13(A)の距離マップM2’において黒色で図示した部分の距離データは、
図11(D)の人物認識マップM20から除外される。
【0137】
制御部135は、人物検出マップM11の検出領域R11~R12における全ての画素において、距離データを採用するか否かが決定されていないとき(S27でNO)、検出領域R11~R12から新たな画素を選択して、ステップS12以降の処理を行う。これにより、2種類のマップM11,M2’間の照合(S23~S27)が画素単位で繰り返される。
【0138】
検出領域R11~R12における全ての画素において距離データの採否が決定されると(S27でYES)、制御部135は、照合した2種類のマップM1,M2の合成により、例えば
図11(D)に示すように人物認識マップM20を生成する(S28)。
【0139】
例えばステップS28において、制御部135は、人物検出マップM11の検出領域R11~R12の各画素において、距離マップM2’から採用することを決定した距離データを設定し、その他の画素には空値を設定する。こうして生成される人物認識マップM20は、例えば
図11(D)に示すように、距離が異なる人物60~62に対応した各々の人物領域R20~R22をそれぞれ識別可能に含み得る。
【0140】
又、制御部135は、例えば操作部150において、撮像画像Im上の位置を指定するユーザ操作が入力されたか否かを判断する(S29)。ステップS29の対象とするユーザ操作は、例えば実施形態1のステップS31(
図7)と同様である。
【0141】
位置指定のユーザ操作が入力された場合(S29でYES)、制御部135は、生成した人物認識マップM20から、指定された位置を含む人物領域を切り出す(S30)。ユーザは、例えば
図13(A)の撮像画像Im中の人物60~62から所望の人物を選択して、選択した人物の位置を指定する操作を入力できる。ステップS30の処理結果を
図13(C),(D)に例示する。
【0142】
図13(C)は、
図11(A)の撮像画像Imから1人の人物61が選択された場合の処理結果を例示する。
図13(D)は、
図13(C)とは別の人物62が選択された場合の処理結果を例示する。
【0143】
ステップS29において、上記位置指定のユーザ操作に応じて、制御部135は、例えば、人物認識マップM20において、指定された位置に隣接して距離値が共通する画素の集合を抽出することにより、指定された位置の人物領域を認識する(S30)。距離値が共通するか否かは、適宜許容誤差の範囲内で画素毎の距離値が一致するか否かにより判定できる。
【0144】
例えば、
図11(A)の撮像画像Imにおける中央の人物61の位置が指定されると(S29でYES)、制御部135は、
図13(C)に例示するように人物領域R21を切り出す(S30)。又、左側の人物62の位置が指定されると(S29でYES)、制御部135は、
図13(D)に例示するように、別の人物領域R22を切り出す(S30)。
【0145】
制御部135は、例えばステップS30で上記のように切り出した人物領域R21,R22を認識結果として、被写体認識処理(
図10のS3A)を終了する。制御部135は、その後のステップS4において、認識結果の人物領域R21,R22をデジタルカメラ100Aの各種制御に用いる。
【0146】
又、制御部135は、例えば位置指定のユーザ操作が入力されていない場合(S29でNO)、ステップS28において生成した人物認識マップM20を認識結果として被写体認識処理(
図10のS3A)を終了して、ステップS4に進む。
【0147】
以上の被写体認識処理(S3A)によると、人物検出マップM11で人物60~62の存在が検出された検出領域R11,R12の範囲内において、距離マップM2’の距離データが、人物60~62に対応し得るか照合される(S23~S27)。これにより、各人物60~62の形状に沿った人物領域R20~R22の認識を精度良く行える。
【0148】
又、距離マップM2’から人物60~62に対応し得る距離データを人物認識マップM20に採用することで(S25)、個々の人物60~62の人物領域R20~R22を別個に認識し易くできる。例えば
図13(C)の例では、
図13(B)の人物検出マップM11における検出領域R11から、
図11(A)中で右側の人物60に対応する部分を除外して、中央の人物61に応じた人物領域R11を切り出すことができる(S30)。
【0149】
以上の説明では、ステップS23~S27の処理を検出領域R11,R12の画素単位で行う例を説明した。ステップS23~S27の処理単位は特にこれに限らず、例えば実施形態1と同様の分割領域であってもよい(
図6(C)参照)。この場合、制御部135は、分割領域内において検出領域R11,R12の範囲外の部分については適宜、距離データを人物認識マップM20に採用しないようにする。
【0150】
上記のステップS28において、制御部135は、例えば人物認識マップM20において距離値が共通する画素集合として、各人物領域R20~R22をそれぞれ識別することができる。制御部135は、人物認識マップM20において、各人物領域R20~R22に識別情報を付して管理してもよい。
【0151】
上記のステップS29では、ユーザ操作により撮像画像Im上の位置が指定される例を説明した。こうした指定はユーザ操作に限らず、デジタルカメラ100Aの各種機能の動作に応じた自動的な指定であってもよい。又、指定位置は、画面中央など予め設定された所定位置であってもよい。こうした場合であっても、上記のステップS29,S30と同様に、制御部135は、指定位置を含む人物領域を、対応する人物の形状に沿って認識することができる。
【0152】
また、以上の説明では、人物認識マップM20を生成してから人物領域を切り出す(S28~S30)といった処理例を説明した。本実施形態のデジタルカメラ100Aでは、人物認識マップM20を生成せずに所望の人物領域が認識されてもよい。例えば、制御部135は、所望の被写体の指定位置を予め入力して、当該指定位置を含む検出領域についてステップS23~S27を行うにあたり、ステップS24の判断基準の距離範囲を、指定位置近傍の距離データを用いて設定する。こうして、制御部135は、ステップS28の人物認識マップM20(
図11(D))の代わりに、ステップS30と同様に特定の人物領域のみを含む情報を生成してもよい(
図13(C),(D)参照)。
【0153】
また、以上の説明では、位相差距離マップM2を用いて被写体認識処理(S3A)を行うデジタルカメラ100の動作例を説明した。本実施形態のデジタルカメラ100Aはこれに限らず、例えば位相差距離マップM2の代わりにDFD距離マップM1を被写体認識処理(S3A)に用いてもよく、位相差演算部122が省略されてもよい。この場合、制御部135は、例えばステップS21において、DFD距離マップM1と人物確率マップM10のうちの解像度がより高い一方のマップが他方に合わせるように正規化して、ステップS22以降の処理を行う。これによっても、上記と同様に被写体の形状を認識し易くできる。
【0154】
3.まとめ
以上のように、本実施形態における撮像装置の一例のデジタルカメラ100Aは、撮像部の一例のイメージセンサ115と、測距部の一例の位相差演算部122と、検出部の一例の人物検出部123と、認識部の一例の制御部135とを備える。イメージセンサ115は、被写体像を撮像して画像データを生成する。位相差演算部122は、画像データが示す撮像画像Im(
図11(A))における被写体までの距離を示す距離情報の一例として位相差距離マップM2を取得する(S2、
図11(C))。人物検出部123は、画像において被写体の一例の人物60~62が位置する領域に関する被写体検出情報の一例として人物確率マップM10を取得する(S1、
図11(B))。制御部135は、距離情報及び被写体検出情報に基づいて、画像における被写体に沿った形状を有する被写体領域の一例として人物領域R20~R22を認識する(S3A、
図11(D))。
【0155】
以上のデジタルカメラ100Aによると、位相差距離マップM2のような距離情報と、人物確率マップM10のような被写体検出情報とを組み合わせて用いることにより、画像における被写体の形状に沿って被写体を認識し易くすることができる。例えば、認識部としての制御部135は、
図11(D)の各人物領域R20~R22のように、被写体検出情報から被写体の位置として検出され、且つ距離情報が示す距離が所定条件を満たす領域を、被写体領域として認識する。これにより、検出領域R11~R12のように人物60~62の外形を精度良く捉えながら、距離情報により別々の人物60~62を識別でき、個々の被写体の形状を認識し易くできる。
【0156】
本実施形態において、被写体検出情報としての人物確率マップM10は、撮像画像Imにおいて所定種別の被写体として人物60~62が検出された検出領域R11~R12を示す。制御部135は、被写体検出情報における検出領域R11~R12であって、且つ距離情報が示す距離が共通する領域を、各人物領域R20~R22のように一の被写体領域として認識する。これにより、例えば複数の人物60,61の位置が重畳していても、別々の人物60,61の人物領域R20,R21を識別でき、被写体を認識し易くできる。
【0157】
本実施形態において、被写体検出情報としての人物確率マップM10(
図11(B))は、撮像画像Imにおいて人物60~62といった所定種別の被写体が位置する確率の分布に基づいて検出領域R11~R12を示す。これにより、撮像画像Imにおいて被写体が位置する部分の形状を精度良く認識することができる。本実施形態において、人物検出マップM11(
図13(B))が被写体検出情報の一例であってもよい。例えば、人物検出部123が人物検出マップM11を出力してもよく、
図12のステップS22の処理が省略されてもよい。
【0158】
本実施形態において、デジタルカメラ100Aは、撮像画像Imにおける位置を指定する入力部の一例として操作部150をさらに備える。制御部135は、操作部150において指定された位置に応じて、指定された位置を含む被写体領域を認識する(
図13(C),(D)参照)。
【0159】
本実施形態において、制御部135は、認識した被写体領域に基づいて、被写体に合焦する合焦動作を制御する(S4)。これにより、被写体の形状に沿った認識結果を用いて、AF動作などのデジタルカメラ100Aの動作を制御し易くできる。
【0160】
本実施形態において、デジタルカメラ100Aは、画像データが示す撮像画像Imを表示する表示部の一例として表示モニタ130をさらに備える。本実施形態の制御部135は、人物領域R20~R22といった被写体領域の認識結果に基づいて、例えば実施形態1のステップS35と同様に、撮像画像人物領域R20~E22において被写体に沿って被写体領域を表示モニタ130に表示させてもよい(
図7,8(A)参照)。これにより、デジタルカメラ100Aが被写体の形状を精度良く認識できることをユーザに可視化できる。
【0161】
(他の実施形態)
以上のように、本出願において開示する技術の例示として、実施の形態1を説明した。しかしながら、本開示における技術は、これに限定されず、適宜、変更、置き換え、付加、省略などを行った実施の形態にも適用可能である。また、上記実施の形態1で説明した各構成要素を組み合わせて、新たな実施の形態とすることも可能である。
【0162】
上記の実施形態2では、位相差演算部122又はDFD演算部121と人物検出部123とを用いる動作例を説明したが、位相差演算部122及びDFD演算部121と人物検出部123とを用いてもよい。こうした変形例について、
図14を用いて説明する。
【0163】
図14は、実施形態2のデジタルカメラ100Aの被写体認識処理の変形例を説明するための図である。
図14(A)は、
図11(A)の撮像画像Imに対応するDFD距離マップM1を例示する。
図14(B)は、
図14(A)及び
図11(C)の各距離マップM1,M2に基づく合成距離マップM3を例示する。
図14(C)は、
図14(B)及び
図11(B)の各マップM3,M10に基づく人物認識マップM40を例示する。
【0164】
実施形態2では、被写体認識処理(
図12)において位相差距離マップM2が正規化された距離マップM2’を用いた。本変形例において、制御部135は、例えば実施形態1と同様にDFD距離マップM1(
図14(A))と位相差距離マップM2(
図11(C))とから合成距離マップM3を生成して、上記の距離マップM2’の代わりに用いる。例えば、制御部135は、合成距離マップM3(
図14(B))を用いて、実施形態2と同様に
図12のステップS22以降の処理を行う。こうして得られる人物認識マップM40を
図14(C)に例示する。
【0165】
本変形例の被写体認識処理によると、例えば
図14(A)~(C)に示すように、DFD距離マップM1において検知された人物60,61の形状が、人物領域R40,R41において精度良く認識できる。一方、DFD距離マップM1において検知されなかった人物62についても、例えば人物検出マップM11(
図13(B))において認識されることで、人物認識マップM40(
図14(C))において当該人物62の形状に沿った人物領域R42を得ることができる。
【0166】
以上のように、本実施形態のデジタルカメラ100Aにおいて、測距部は、第1の測距部の一例としてのDFD演算部121と、第2の測距部の一例としての位相差演算部122とを含んでもよい。第1の測距部は、画像における被写体までの距離を、第1の空間解像度において示す第1の距離情報を取得する。第2の測距部は、第1の空間解像度とは異なる第2の空間解像度において、画像における被写体までの距離を示す第2の距離情報を取得する。本実施形態における認識部の一例としての制御部135は、第1の距離情報と第2の距離情報と被写体検出情報とに基づいて、被写体領域を認識してもよい。これにより、画像における被写体の形状に沿って被写体を、より認識し易くできる。
【0167】
上記の各実施形態では、検出部の一例として人物といった所定種別の被写体をセグメンテーションで検出する人物検出部123について説明した。本実施形態において、検出部は、特に上記の人物検出部123に限定されない。例えば、人物検出部123の所定種別は、特に人物全般に限らず、個人、性別又は年代などであってもよい。又、本実施形態の検出部は、動物、又は乗り物など、人物とは異なる所定種別の被写体を検出してもよい。
【0168】
また、本実施形態の検出部は、上述したセグメンテーションの代わりに、所定種別の被写体を矩形などで囲むバウンダリボックスを、被写体検出情報の検出領域として検出してもよい。例えば、本実施形態の制御部135は、上記の検出領域内に、実施形態2と同様に被写体認識処理(
図12)のステップS23~S27を行う。この場合においても、ステップS24~S26における距離データを用いた照合によって矩形などの検出領域内で背景の部分を除外でき、所望の被写体の形状に沿った領域を認識できる。
【0169】
上記の各実施形態では、第1及び第2の測距部の一例として、DFD演算部121及び位相差演算部122を例示した。本実施形態において、第1及び第2の測距部は、これに限定されず、種々の測距法を用いる各種の構成を適用可能である。例えば、各測距部には、TOF(Time of flight)法、レンジファインダ、2眼ステレオ測距法、色別測距法、或いは機械学習等の人工知能による距離推定などが適用されてもよい。すなわち、本実施形態において距離情報(又は被写体検出情報)は、各種アクティブセンシング方式の測距により取得されてもよい。また、本実施形態の距離情報又は被写体検出情報として、コントラストAF方式の評価値等が用いられてもよい。
【0170】
上記の各実施形態において、合成距離マップM3をデジタルカメラ100の制御に用いる例を説明した。合成距離マップM3の用途はこれに限らず、例えば合成距離マップM3の生成時に撮影された各種の撮影画像の画像処理に利用されてもよい。この際、合成距離マップM3は撮影画像の画像データと共にデジタルカメラ100から外部に出力されてもよく、例えば動画を含む画像データの編集等の後処理に用いられてもよい。また、合成距離マップM3は、シーン認識あるいは各種の判別処理に用いられてもよい。
【0171】
また、上記の各実施形態では、第1~第3の距離情報の一例として各種距離マップM1~M3を例示した。本実施形態において、第1~第3の距離情報は距離マップに限らず、例えば3次元点群又は距離画像など、被写体までの距離の測定結果を示す各種の情報であってもよい。また、各種距離情報は、被写体までの距離に対応する各種の量で表されてもよく、例えばデフォーカス量で表されてもよい。
【0172】
また、上記の各実施形態では、2つの距離マップM1,M2を合成した合成距離マップM3を用いて被写体の形状を示すAF枠F1を第1の検出情報として例示した。本実施形態において、デジタルカメラ100は、必ずしも合成距離マップM3に限らず、被写体の形状を抽出可能な程度に精度良い測距結果を示す各種の距離情報に基づいて、第1の検出情報を生成して、表示部に表示させてもよい。
【0173】
また、上記の各実施形態では、AF枠の表示処理(
図7)において、ユーザ操作による指定位置の入力に応じてAF枠が表示される例を説明した。本実施形態において、デジタルカメラ100は、ユーザ操作の入力に限らずAF枠を表示してもよく、この場合にも上記と同様に合成距離マップM3を参照してAF枠の形状を設定できる。また、デジタルカメラ100は、AF対象の被写体に対するAF枠に限らず、AF対象の候補枠などの、複数の被写体に対する表示枠を表示する際にも、上記と同様に合成距離マップM3を利用してもよい。例えば、デジタルカメラ100は、撮像画像Imの画像認識によって被写体が検知された位置が、DFD領域R31か否かを判断して、表示枠の形状を設定してもよい。こうした表示枠も、その形状に応じて第1又は第2の検出情報の一例である。
【0174】
また、上記の各実施形態では、光学系110及びレンズ駆動部112を備えるデジタルカメラ100を例示した。本実施形態の撮像装置は、光学系110及びレンズ駆動部112を備えなくてもよく、例えば交換レンズ式のカメラであってもよい。
【0175】
また、上記の各実施形態では、撮像装置の例としてデジタルカメラを説明したが、これに限定されない。本開示の撮像装置は、画像撮影機能を有する電子機器(例えば、ビデオカメラ、スマートフォン、タブレット端末等)であればよい。
【0176】
以上のように、本開示における技術の例示として、実施の形態を説明した。そのために、添付図面および詳細な説明を提供した。
【0177】
したがって、添付図面および詳細な説明に記載された構成要素の中には、課題解決のために必須な構成要素だけでなく、上記技術を例示するために、課題解決のためには必須でない構成要素も含まれ得る。そのため、それらの必須ではない構成要素が添付図面や詳細な説明に記載されていることをもって、直ちに、それらの必須ではない構成要素が必須であるとの認定をするべきではない。
【0178】
また、上述の実施の形態は、本開示における技術を例示するためのものであるから、特許請求の範囲またはその均等の範囲において種々の変更、置き換え、付加、省略などを行うことができる。
【産業上の利用可能性】
【0179】
本開示は、測距機能を有する各種の撮像装置に適用可能である。
【符号の説明】
【0180】
100,100A デジタルカメラ
115 イメージセンサ
121 DFD演算部
122 位相差演算部
123 人物検出部
130 表示モニタ
135 制御部
150 操作部