(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-11-01
(45)【発行日】2024-11-12
(54)【発明の名称】画像処理装置、画像処理装置の制御方法、およびプログラム
(51)【国際特許分類】
H04N 23/60 20230101AFI20241105BHJP
H04N 23/69 20230101ALI20241105BHJP
G03B 7/00 20210101ALI20241105BHJP
G03B 19/07 20210101ALI20241105BHJP
G03B 17/20 20210101ALI20241105BHJP
G03B 13/10 20210101ALI20241105BHJP
G02B 7/34 20210101ALN20241105BHJP
G03B 13/36 20210101ALN20241105BHJP
【FI】
H04N23/60 100
H04N23/69
G03B7/00
G03B19/07
G03B17/20
G03B13/10
G02B7/34
G03B13/36
(21)【出願番号】P 2020069707
(22)【出願日】2020-04-08
【審査請求日】2023-04-03
(31)【優先権主張番号】P 2020017856
(32)【優先日】2020-02-05
(33)【優先権主張国・地域又は機関】JP
(73)【特許権者】
【識別番号】000001007
【氏名又は名称】キヤノン株式会社
(74)【代理人】
【識別番号】100110412
【氏名又は名称】藤元 亮輔
(74)【代理人】
【識別番号】100104628
【氏名又は名称】水本 敦也
(74)【代理人】
【識別番号】100121614
【氏名又は名称】平山 倫也
(72)【発明者】
【氏名】江幡 裕也
(72)【発明者】
【氏名】谷口 浩之
【審査官】村山 絢子
(56)【参考文献】
【文献】特開平07-151950(JP,A)
【文献】特開2014-103489(JP,A)
【文献】特開平05-130477(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
H04N 23/00
H04N 23/40-23/76
H04N 23/90-23/959
H04N 5/222-5/257
G03B 15/00-15/16
G03B 17/18-17/20
G03B 17/36
G03B 19/00-19/16
G03B 13/00-13/36
G03B 7/00
G02B 7/34
(57)【特許請求の範囲】
【請求項1】
光学系を介して撮像された画像を表示する表示手段と、
前記表示手段
を見るユーザの注視位置を
検出する
検出手段と、
前記表示手段に表示されている画像のズーム位置を変更する制御手段と、を有し、
前記制御手段は、
アシスト制御の開始が指示された場合、前記表示手段に表示されている前記画像を、第1のズーム位置から前記第1のズーム位置よりも広角側の第2のズーム位置までズームアウトし、
前記アシスト制御の停止が指示された場合、ズームアウト画像を、前記
検出手段により
検出された前記注視位置に基づいて、前記第2のズーム位置から前記第2のズーム位置よりも望遠側の第3のズーム位置までズームイン
し、
前記注視位置の注視時間に基づいて、前記第2のズーム位置から前記第3のズーム位置までズームインする速度を変更することを特徴とする画像処理装置。
【請求項2】
前記制御手段は、前記注視位置が前記表示手段に表示される範囲内で、前記ズームアウト画像を前記第3のズーム位置までズームインすることを特徴とする請求項1に記載の画像処理装置。
【請求項3】
前記制御手段は、前記注視位置を包含する枠を前記表示手段に表示し、
前記枠は、前記第1のズーム位置に対応する画角に対応する大きさであることを特徴とする請求項1または2に記載の画像処理装置。
【請求項4】
前記制御手段は、前記第1のズーム位置の画角枠と前記注視位置を包含する枠とが重なったと判定した場合、前記アシスト制御の停止が指示されたと判定することを特徴とする請求項1乃至3のいずれか一項に記載の画像処理装置。
【請求項5】
前記制御手段は、ユーザによる操作手段の操作に基づいて前記アシスト制御の停止が指示されたと判定することを特徴とする請求項1乃至4のいずれか一項に記載の画像処理装置。
【請求項6】
前記制御手段は、前記第1のズーム位置に対応する画角枠と前記注視位置を包含する枠との距離が所定の距離よりも小さくなるまでの時間に基づいて、前記第2のズーム位置から前記第3のズーム位置までズームインする速度を変更することを特徴とする請求項1乃至
5のいずれか一項に記載の画像処理装置。
【請求項7】
光学系を介して撮像された画像を表示する表示手段と、
前記表示手段
を見るユーザの注視位置を
検出する
検出手段と、前記表示手段に表示されている画像のズーム位置を変更する制御手段と、を有する画像処理装置の制御方法であって、
アシスト制御の開始指示を受けて、前記表示手段に表示されている前記画像を、第1のズーム位置から前記第1のズーム位置よりも広角側の第2のズーム位置までズームアウトするステップと、
前記アシスト制御の停止指示を受けて、ズームアウト画像を、前記
検出手段により
検出された前記注視位置に基づいて、前記第2のズーム位置から前記第2のズーム位置よりも望遠側の第3のズーム位置までズームインするステップと、
前記注視位置の注視時間に基づいて、前記第2のズーム位置から前記第3のズーム位置までズームインする速度を変更するステップと、を有することを特徴とする画像処理装置の制御方法。
【請求項8】
請求項
7に記載の制御方法をコンピュータに実行させることを特徴とするプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、被写体が撮影画角から外れた場合に再補足するための撮影アシスト機能を有する撮像装置に関する。
【背景技術】
【0002】
従来、望遠撮影のように狭い撮影画角から外れた被写体の再補足を容易にする撮影アシスト機能を有する撮像装置が知られている。例えば、撮影画角から外れた被写体を再補足しようとして撮影者が操作部材を介して撮影アシストを開始すると、自動で広角側にズームアウトを行って被写体を捉え、その後に撮影アシストを解除すると、自動で望遠側にズームインを行う(フレーミングアシスト)。
【0003】
特許文献1には、ファインダを覗く撮影者の視線位置の情報に基づいて撮影者が意図する被写体を認識する技術が開示されている。特許文献2には、視線位置のバラつきと距離情報とに基づいて焦点制御を行う技術が開示されている。
【先行技術文献】
【特許文献】
【0004】
【文献】特開2004-8323号公報
【文献】特許第5828070号公報
【発明の概要】
【発明が解決しようとする課題】
【0005】
しかしながら、被写体が撮影画角から外れて再補足が必要な場合には、対象となる被写体が一時的に存在しなくなるため、特許文献1や特許文献2に開示された技術の適用は困難である。
【0006】
そこで本発明は、撮影画角から外れた被写体を再補足することを容易にして撮影機会の損失を低減することが可能な画像処理装置、撮像装置、画像処理装置の制御方法、および、プログラムを提供することを目的とする。
【課題を解決するための手段】
【0007】
本発明の一側面としての画像処理装置は、光学系を介して撮像された画像を表示する表示手段と、前記表示手段を見るユーザの注視位置を検出する検出手段と、前記表示手段に表示されている画像のズーム位置を変更する制御手段とを有し、前記制御手段は、アシスト制御の開始が指示された場合、前記表示手段に表示されている前記画像を、第1のズーム位置から前記第1のズーム位置よりも広角側の第2のズーム位置までズームアウトし、前記アシスト制御の停止が指示された場合、ズームアウト画像を、前記検出手段により検出された前記注視位置に基づいて、前記第2のズーム位置から前記第2のズーム位置よりも望遠側の第3のズーム位置までズームインし、前記注視位置の注視時間に基づいて、前記第2のズーム位置から前記第3のズーム位置までズームインする速度を変更する。
本発明の他の目的及び特徴は、以下の実施形態において説明される。
【発明の効果】
【0008】
本発明によれば、撮影画角から外れた被写体を再補足することを容易にして撮影機会の損失を低減することが可能な画像処理装置、撮像装置、画像処理装置の制御方法、および、プログラムを提供することができる。
【図面の簡単な説明】
【0009】
【
図1】第1乃至第3の実施形態における撮像装置のブロック図である。
【
図2】第1乃至第3の実施形態における撮像装置の断面図である。
【
図3】各実施形態における視線検出方法の原理の説明図である。
【
図4】各実施形態における眼球用撮像素子に投影される眼球像と眼球用撮像素子の出力強度を示す図である。
【
図5】各実施形態における視線検出方法のフローチャートである。
【
図6】第1の実施形態における制御方法のフローチャートである。
【
図7】第1の実施形態における表示部の表示画面の概略図である。
【
図8】第2の実施形態における制御方法のフローチャートである。
【
図9】第3の実施形態における制御方法のフローチャートである。
【
図10】第2および第3の実施形態における表示部の表示画面の概略図である。
【
図11】第4の実施形態における撮像装置のブロック図である。
【
図12】第4の実施形態における制御方法のフローチャートである。
【
図13】第4の実施形態における表示部の表示画面の概略図である。
【
図14】第5の実施形態における撮像装置の外観概略図である。
【
図15】第5の実施形態における撮像装置の電気的構成を示すブロック図である。
【
図16】第5の実施形態におけるファインダ内視野の説明図である。
【0010】
【
図17】第5の実施形態における表示画角の変更図である。
【
図18】第5の実施形態における撮影アシスト処理のフローチャートである。
【
図19】第5の実施形態における制御方法のフローチャートである。
【
図20】第6の実施形態における表示画角の変更図である。
【
図21】第6の実施形態における制御方法のフローチャートである
【
図22】第7の実施形態における表示画角の変更図である。
【
図23】第7の実施形態における制御方法のフローチャートである。
【発明を実施するための形態】
【0011】
以下、本発明の実施形態について、図面を参照しながら詳細に説明する。
【0012】
(第1の実施形態)
まず、
図1および
図2を参照して、本発明の第1の実施形態における撮像装置(画像処理装置)について説明する。
図1は、デジタルカメラ(撮像装置)100のブロック図である。
図2は、デジタルカメラ100の断面図である。なお、
図1および
図2において、対応する部位は同じ番号で表記されている。
【0013】
図1において、結像光学部101はフォーカスレンズや防振レンズを含む複数のレンズ群および絞りなどの光学系(撮像光学系)を有する。また結像光学部101は、絞り制御回路211および焦点調節回路212を有する。撮影の際、結像光学部101は、焦点調節回路212でフォーカス調節、絞り制御回路211で露出調節を行うとともに、ブレ補正等を行い、撮像素子102に光学像を結像する。撮像素子102は、光学像を電気信号(アナログ画像信号)に変換する光電変換機能を有し、CCDセンサやCMOSセンサ等で構成される。A/D変換部103は、撮像素子102からのアナログ画像信号をデジタル画像信号に変換する。変換後の画像データは後段の画像処理部104に入力される。バス116は、主に、CPU114などから各ブロックの制御信号を伝送するためのシステムバスである。バス117は、主に、画像データを転送るためのデータバスである。
【0014】
CPU114は、画像処理装置全体の制御を司るマイクロコンピュータ等で構成され、各機能ブロックに対して動作指示を行い、各種の制御処理を実行する。またCPU114は、各種制御処理の際に必要となる演算を行う。CPU114は、バス116を介して、撮像素子102、画像処理部104、データ転送部105、メモリ制御部106、不揮発性メモリ制御部108、記録メディア制御部110、表示制御部112、および、操作部(操作手段)115を制御する。またCPU114は、バス116を介して、視線検出回路120、測光回路202、自動焦点検出回路203、および、光源駆動回路205を制御する。CPU114を構成するマイクロコンピュータは、ROM109に記録されたプログラムを実行することにより、本実施例の各処理を実現する。またCPU114は、結像光学部101のレンズや絞りの制御を行い、焦点距離等の情報を取得する。またCPU114は、推定手段114aおよび制御手段114bを有する。推定手段114aは、視線検出回路120および眼球用撮像素子121を用いて、表示部113における撮影者の注視位置を推定する。制御手段114bは、結像光学部101の焦点距離を変更する。
【0015】
データ転送部105は、データ転送を行う複数のDMAC(Direct Memory Access Controller)で構成されている。DRAM(メモリ)107は、データを記憶する記憶部であり、所定枚数の静止画像や所定時間の動画像、音声等のデータやCPU114の動作用の定数、プログラム等を格納するのに十分な記憶容量を備える。メモリ制御部106は、CPU114或いはデータ転送部105からの指示に応じて、DRAM107へのデータ書き込み及びデータ読み出しを行う。不揮発性メモリ制御部108は、CPU114からの指示に応じて、ROM(不揮発性メモリ)109にデータの書き込み及び読み出しを行う。ROM109は、電気的に消去・記録可能なメモリであり、EEPROM等が用いられる。ROM109には、CPU114の動作用の定数、プログラム等が記憶される。
【0016】
画像処理部104は、各種画像処理部及びバッファメモリ等から構成されており、画像データに対して、倍率色収差補正、現像処理、ノイズリダクション処理、幾何変形、および、拡縮処理(リサイズ処理)などを適切に行う。また画像処理部104は、A/D変換器103により変換された画像データに対して画素補正、黒レベル補正、シェーディング補正、傷補正などを適正に行う撮像補正部を備える。
【0017】
記録メディア111は、SDカード等の記録媒体であり、記録メディア制御部110により制御され、画像データの記録や、記録データの読み出しを行う。表示部(表示手段)113は、液晶ディスプレイや電子ビューファインダーから成り、表示制御部112により制御され、画像処理部104から転送された各種の画像データ(結像光学部101を介して撮像された画像など)やメニュー画面などを表示する。また、静止画撮影の撮影前や、動画撮影時には、A/D変換部103から入力された画像データをリアルタイムで処理して、表示する。
【0018】
操作手段である操作部115は、撮影者により操作されるスイッチやボタン、タッチパネル等を含み、電源のON/OFF、シャッターのON/OFF等の操作に使用される。撮影アシスト機能を実施するための専用ボタンを具備し、押下することで撮影アシストが開始される。
【0019】
光源駆動回路205は、撮影者の眼球を照明するための光源(照明光源)210(210a、210b)を駆動する。視線検出回路120は、眼球用撮像素子121上に結像された眼球と光源210の角膜反射による像の位置関係に基づいて視線方向を検出する。
【0020】
図2において、1Aはレンズ交換式カメラにおける撮影レンズ(レンズ装置)であり、
図1の結像光学部101に相当する。本実施形態では、便宜上、撮影レンズ1Aの内部には二枚のレンズ2101、2102が設けられているように示しているが、実際には多数のレンズで構成されている。1Bはカメラ筐体部(カメラ本体)である。撮像素子102は、デジタルカメラ100の撮影レンズ1Aの予定結像面に配置されている。接眼レンズ12は、表示部113に表示された被写体像を観察するために配置されている。
【0021】
210a、210bは、光源の角膜反射による反射象と瞳孔の関係から視線方向を検出するための撮影者の眼球14を照明するための光源である。光源210a、210bは、赤外発光ダイオードからなり、接眼レンズ12の周りに配置されている。照明された眼球像と光源210a、210bの角膜反射による像は、接眼レンズ12を透過し、光分割器15で反射され、受光レンズ16によってCCDなどの光電素子列を2次元的に配した眼球用撮像素子121上に結像される。受光レンズ16は、撮影者の眼球14の瞳孔と眼球用撮像素子121を共役な結像関係に位置付けている。CPU114は、視線検出回路120を制御し、眼球用撮像素子121上に結像された眼球と光源210a、210bの角膜反射による像の位置関係から後述する所定のアルゴリズムで視線方向を検出する。
【0022】
2111は撮影レンズ1内に設けられ絞り、211は絞り制御回路、213はレンズ駆動モーター、214は駆動ギヤなどからなるレンズ駆動部材である。215はフォトカプラーであり、レンズ駆動部材214に連動するパルス板216の回転を検知して、その回転(回転情報)を焦点調節回路212に伝える。焦点調節回路212は、回転情報とカメラ側からのレンズ駆動量の情報とに基づいて、レンズ駆動モーター213を所定量だけ駆動させ、撮影レンズ1Aを合焦点位置に移動させる。217は、撮影レンズ1Aとカメラ筐体1Bとのインターフェイスとなるマウント接点である。操作部115は、タッチパネル対応液晶、撮影アシストボタン、ボタン式十字キーなどの操作部材を含む。操作部115は、後述の撮影アシスト操作による制御などに使用される。なお本実施形態において、デジタルカメラ(撮像装置)100は、カメラ筐体(カメラ本体)1Bに着脱可能な撮影レンズ(交換レンズ)1Aであるが、本実施形態は、カメラ本体と撮影レンズとが一体的に構成された撮像装置にも適用可能である。
【0023】
次に、
図3乃至
図5を参照して、本実施形態における視線検出方法について説明する。
図3は、視線検出方法の原理の説明図であり、視線検出を行うための光学系の説明図である。
図2において、光源210a、210bは、観察者に対して不感の赤外光を放射する発光ダイオード等の光源である。光源210a、210bは、受光レンズ16の光軸に対して略対称に配置され、観察者の眼球14を照らしている。眼球14で反射した照明光の一部は、受光レンズ16により、眼球用撮像素子121に集光する。
【0024】
図4(a)は眼球用撮像素子121に投影される眼球像の概略図、
図4(b)は眼球用撮像素子121におけるCCDの出力強度図である。
図5は、視線検出ルーチン(視線検出方法)のフローチャートである。
図5の視線検出ルーチンは、CPU114および視線検出回路120を含む注視点位置推定手段(推定手段)により実行される。
【0025】
図5において、視線検出ルーチンが開始すると、まずステップS501において、CPU114は、光源駆動回路205を制御して光源210a、210bを駆動する。光源210a、210bは、CPU114の制御に従って、観察者の眼球14に向けて赤外光を放射する。光源210a、210bからの赤外光により照明された観察者の眼球像は、眼球用撮像素子121上に受光レンズ16を通して結像し、眼球用撮像素子121により光電変換され、眼球像は電気信号(眼球画像信号)としての処理が可能となる。続いてステップS502において、眼球用撮像素子121から得られた眼球画像信号は、CPU114に送られる。
【0026】
続いてステップS503において、CPU114は、ステップS502にて得られた眼球画像信号の情報に基づいて、
図3に示される光源210a、210bの角膜反射像Pd、Peおよび瞳孔中心cに対応する点の座標を求める。光源210a、210bより放射された赤外光は、観察者の眼球14の角膜142を照明する。このとき角膜142の表面で反射した赤外光の一部により形成される角膜反射像Pd、Peは、受光レンズ16により集光され、眼球用撮像素子121上に結像する(図中の点Pd’、 Pe’)。同様に、瞳孔141の端部a、bからの光束も眼球用撮像素子121上に結像する。
【0027】
図4(a)は、眼球用撮像素子121から得られる反射像の画像例を示す。
図4(b)は、
図4(a)の画像例の領域αにおける、眼球用撮像素子121から得られる輝度情報例を示す。
図4(a)に示されるように、水平方向をX軸、垂直方向をY軸とする。このとき、光源210a、210bの角膜反射像が結像した像Pd’、Pe’のX軸方向(水平方向)の座標をXd、Xeとする。また、瞳孔14bの端部(瞳孔端a、b)からの光束が結像した像a’、b’のX軸方向の座標をそれぞれXa、Xbとする。
図4(b)の輝度情報例において、光源210a、210bの角膜反射像が結像した像Pd’、Pe’に相当する位置Xd、Xeでは、強いレベルの輝度が得られている。瞳孔141の領域に相当する、座標XaからXbの間の領域は、位置Xd、Xeを除き、低いレベルの輝度が得られる。これに対し、瞳孔141の外側の光彩143の領域に相当する、Xaよりも低いX座標の値を持つ領域およびXbより高いX座標の値を持つ領域では、前述の2種の輝度レベルの中間の値が得られる。X座標の位置に対する輝度レベルの変動情報に基づいて、光源210a、210bの角膜反射像が結像した像Pd’、Pe’のX座標Xd、Xeと、瞳孔端の像a’、b’のX座標Xa、Xbとを得ることができる。
【0028】
また、受光レンズ16の光軸に対する眼球14の光軸の回転角θxが小さい場合、眼球用撮像素子121上に結像する瞳孔中心cに相当する箇所(c’とする)の座標Xcは、Xc≒(Xa+Xb)/2と表すことができる。これにより、眼球用撮像素子121上に結像する瞳孔中心に相当するc’のX座標、光源210a、210bの角膜反射像Pd’、Pe’を見積もることができる。
【0029】
続いて、
図5のステップS504において、CPU114は、眼球像の結像倍率βを算出する。結像倍率βは、受光レンズ16に対する眼球14の位置により決まる倍率であり、実質的には角膜反射像Pd‘、Pe’の間隔(Xd-Xe)の関数として求めることができる。
【0030】
続いてステップS505において、2軸の眼球回転角度(回転角θx、θy)角膜反射像Pd、Peの中点のX座標と角膜142の曲率中心OのX座標とは略一致する。このため、角膜142の曲率中心Oから瞳孔141の中心cまでの標準的な距離をOcとすると、眼球14の光軸のZ-X平面内の回転角θxは、以下の式(1)のように表される。
【0031】
θx=β*Oc*SINθx≒{(Xd+Xe)/2}-Xc … (1)
また、
図3および
図4においては、観察者の眼球がY軸に垂直な平面内で回転する場合の回転角θxを算出する例を示しているが、観察者の眼球がX軸に垂直な平面内で回転する場合の回転角θyの算出方法も同様である。
【0032】
ステップS505にて観察者の眼球14の光軸の回転角θx、θyが算出されると、ステップS506に進む。ステップS506において、CPU114は、DRAM(メモリ)107に記憶された補正係数データを読み込む。続いてステップS507において、CPU114は、回転角θx、θyを用いて、表示部113上で観察者の視線の位置(注視している点の位置(注視点))を求める。注視点位置を表示部113上での瞳孔141の中心cに対応する座標(Hx,Hy)とすると、座標Hx、Hyはそれぞれ以下の式(2)、(3)で表される。
【0033】
Hx=m×(Ax×θx+Bx) … (2)
Hy=m×(Ay×θy+By) … (3)
このとき、係数mは、デジタルカメラ100のファインダ光学系の構成で定まる定数、すなわち回転角θx、θyを表示部113上での瞳孔141の中心cに対応する位置座標に変換する変換係数であり、予め決定されてDRAM107に記憶されている。また、Ax、Bx、Ay、Byは、観察者の視線の個人差を補正する視線補正係数であり、後述するキャリブレーション作業を行うことで取得され、視線検出ルーチンが開始する前にDRAM107に記憶されている。
【0034】
前述のように表示部113上での瞳孔141の中心cの座標(Hx、Hy)を算出した後、ステップS508において、CPU114は、DRAM107に算出した座標を記憶させ、
図5の視線検出ルーチンを終える。また、CPU114は、視線の位置がある領域にどのくらい留まっていたかを計測し、注視時間としてDRAM107に記憶する。
【0035】
なお本実施形態では、光源210a、210bの角膜反射像を利用した表示素子上での注視点座標取得手法を示しているが、これに限定されるものではなく撮像された眼球画像から眼球回転角度を取得する手法を採用してもよい。
【0036】
次に、
図6および
図7を参照して、本実施形態における制御方法について説明する。
図6は、本実施形態における制御方法のフローチャートである。
図6の各ステップは、主に、CPU114により実行される。
図7は、本実施形態における表示部113の表示画面の概略図である。
【0037】
図6のフローが開始された時点で、
図7(a)の被写体1403が表示部113に表示されている。まずステップS601において、CPU114は、操作部115の撮影アシストボタンが押下され撮影アシスト動作(撮影アシスト制御)が開始されたか否かを判定する。撮影アシスト動作が開始していない場合、ステップS601を繰り返す。一方、撮影アシスト動作が開始した場合、ステップS602に進む。
【0038】
ステップS602において、CPU114は、レンズ駆動モーター213を制御して、
図6(b)に示されるように所定の広角画角までズームアウト動作を行う。すなわち制御手段114bは、表示部113に表示されている画像を、第1の焦点距離から第1の焦点距離よりも広角側の第2の焦点距離までズームアウトする。なお、ズームアウト動作を行う際の焦点距離などは、撮影者が所望の値に設定することが可能である。
図6(b)中の1412は、撮影アシスト制御開始時の焦点距離での画角枠(撮影画角)を示している。撮影アシスト制御開始時の焦点距離の画角枠1412は、ズームアウト動作に従って、表示部113に表示される大きさは小さくなる。
図6(b)中の1411は、
図5の視線検出ルーチンにより算出された注視点位置(注視位置)を包含する注視位置表示枠である。注視位置表示枠1411は、撮影アシスト制御開始時の焦点距離の画角枠1412と同じ大きさで表示される。
図6(b)において、撮影者の注視点位置は、被写体1402周辺となっている。
【0039】
続いてステップS603において、CPU114は、撮影アシストボタンの押下が解除されて撮影アシスト動作が解除(停止)したか否かを判定する。撮影アシスト動作が解除されていない場合、ステップS603を繰り返す。一方、撮影アシストボタンの押下が解除された場合、ステップS604に進む。ステップS604において、CPU114は、レンズ駆動モーター213を制御して、
図6(c)に示されるように注視位置表示枠1411が、画角内に内包される最大焦点距離までズームイン動作を行う。すなわち制御手段114bは、ステップS602にてズームアウトした画像(ズームアウト画像)を、推定手段114aにより推定された注視位置に基づいて、第2の焦点距離から第2の焦点距離よりも望遠側の第3の焦点距離までズームインする。
【0040】
以上のように、本実施形態において、制御手段114bは、表示部113に表示されている画像を、第1の焦点距離から第1の焦点距離よりも広角側の第2の焦点距離までズームアウトする。そして制御手段114bは、ズームアウト画像を、推定手段114aにより推定された注視位置に基づいて、第2の焦点距離から第2の焦点距離よりも望遠側の第3の焦点距離までズームインする。
【0041】
好ましくは、制御手段114bは、注視位置が表示部113に表示される範囲内で、ズームアウト画像を第3の焦点距離までズームインする。また好ましくは、表示部113は、注視位置を包含する枠(注視位置表示枠1411)を表示部113に表示する。より好ましくは、この枠は、第1の焦点距離の画角枠と同じ大きさである。また好ましくは、制御手段114bは、撮影アシスト制御を開始した場合、表示部113に表示されている画像を、第1の焦点距離から第2の焦点距離までズームアウトする。そして制御手段114bは、撮影アシスト動作を停止した場合、ズームアウト画像を、第2の焦点距離から第3の焦点距離までズームインする。より好ましくは、制御手段114bは、撮影者による操作部115の操作に基づいて撮影アシスト制御の解除命令を受けた場合、撮影アシスト制御を停止する。
【0042】
本実施形態によれば、撮影アシスト動作の解除時に撮影者の注視点位置を含む枠までズームイン動作を行う。これにより、被写体の不意の移動など中心点位置が移動した際や、異なる被写体などに注視点位置が移動した場合においてもズームイン動作により画角内から撮影対象となる被写体が外れることを防止し、撮影機会の損失を低減することができる。
【0043】
(第2の実施形態)
次に、
図8および
図10を参照して、本発明の第2の実施形態について説明する。
図8は、本実施形態における制御方法のフローチャートである。
図10は、本実施形態における表示部113の表示画面の概略図である。なお、本実施形態のデジタルカメラの構成は、第1の実施形態で説明したデジタルカメラ100と同様の構成であるため、その説明は省略する。
【0044】
まずステップS801において、CPU114は、操作部115の撮影アシストボタンが押下され撮影アシスト動作(撮影アシスト制御)が開始されたか否かを判定する。撮影アシスト動作が開始していない場合、ステップS801を繰り返す。一方、撮影アシスト動作が開始した場合、ステップS802に進む。またCPU114は、注視点位置での注視時間を計測する。
【0045】
ステップS802において、CPU114は、レンズ駆動モーター213を制御して、第1の実施形態と同様に所定の広角画角までズームアウト動作を行う。
図8(a)は、ズームアウト動作後の表示部113に表示される画面の例を示している。
図8(a)において、1000は撮影アシスト制御開始時の焦点距離の画角枠、1001はレンズの光学中心位置、1002は
図5の視線検出ルーチンにより算出された注視点位置を包含する注視位置表示枠である。
【0046】
続いてステップS803において、CPU114は、撮影アシスト制御開始時の焦点距離の画角枠1000と注視位置表示枠1002とが重なったか否かを判定する。本実施形態では、画角枠1000と注視位置表示枠1002との重なった領域の面積が各枠の面積の70%以上となったときに各枠が重なったと判定するが、これに限定されるものではない。
図10(b)は、撮影者が注視位置(注視位置表示枠1002の位置)を変えずに、デジタルカメラ100を右方向にパン動作させたことにより撮影アシスト制御開始時の焦点距離の画角枠1000と注視位置表示枠1002とが重なった状態を示す。ステップS803にて画角枠1000と注視位置表示枠1002とが重なっていない場合、ステップS803を繰り返す。一方、画角枠1000と注視位置表示枠1002とが重なったと判定された場合、ステップS804に進む。
【0047】
ステップS804において、CPU114は、撮影アシスト動作を解除(停止)する。すなわち制御手段114bは、第1の焦点距離の画角枠1000と注視位置を包含する枠1002とが重なったと判定した場合、撮影アシスト動作を停止する。なお、撮影アシスト動作の解除条件と撮影アシスト制御開始時の焦点距離の画角枠1000と注視位置表示枠1002とが重なったことの判定の他に、操作部115の撮影アシストボタンの押下が解除されたことを判定条件として加えてもよい。この判定条件を加えることで、より撮影者の意図通りの撮影アシスト動作解除タイミングを判定することができる。
【0048】
続いてステップS805において、CPU114は、レンズ駆動モーター213を制御して、
図10(c)に示されるように撮影アシスト制御開始時の焦点距離までズームイン動作を実施する。またCPU114は、計測された注視時間の長さに応じてレンズ駆動モーター213の駆動速度を上げて、撮影アシスト動作解除後のズームイン速度を速める制御をしてもよい。すなわち制御手段114bは、注視位置の注視時間に基づいて、第2の焦点距離から第3の焦点距離までズームインする速度を変更してもよい。ズームイン速度の制御により、撮影者が明確に撮影対象となる被写体を特定し、集中している場合には注視時間が長くなり、スピーディに撮影対象となる被写体にズームインすることが可能となる。一方、撮影対象となる被写体が定まらず周囲の被写体などに視線が移動し注視時間が短くなった場合には撮影アシスト制御開始時の焦点距離までのズームインが遅くなり、周囲の被写体の様子をより長く観察でき、不意の被写体変更などにも機敏に対応が可能となる。
【0049】
本実施形態によれば、撮影アシスト解除タイミングを撮影アシスト制御開始時の焦点距離の画角枠1000と注視位置表示枠1002が重なったタイミングで素早く判定することが可能となり、撮影機会の損失を低減することができる。
【0050】
(第3の実施形態)
次に、
図9および
図10を参照して、本発明の第3の実施形態について説明する。
図9は、本実施形態における制御方法のフローチャートである。
図10は、本実施形態における表示部113の表示画面の概略図である。なお、本実施形態のデジタルカメラの構成は、第1の実施形態で説明したデジタルカメラ100と同様の構成であるため、その説明は省略する。また、
図9のフローチャートは、第2の実施形態で説明した
図8のフローチャートと同じ処理を含むため、同じ処理について重複する説明は省略する。
【0051】
ステップS901は、
図8のステップS801と同様である。ステップS901の撮影アシスト動作開始の判定後、ステップS902に進む。ステップS902において、CPU114は、撮影アシスト制御開始時の焦点距離の画角枠1000と注視位置表示枠1002とが重なるまでの時間計測を開始する。
【0052】
続くステップS903、S904は、
図8のステップS802、S803とそれぞれ同様である。ステップS904にて撮影アシスト制御開始時の焦点距離の画角枠1000と注視位置表示枠1002とが重なったと判定された場合、ステップS905に進む。ステップS905において、CPU114は、ステップS902にて開始した時間計測を完了する。続くステップS906は、
図8のステップS804と同様である。
【0053】
続いてステップS907において、CPU114は、レンズ駆動モーター213を制御し、
図10(c)に示されるように撮影アシスト制御開始時の焦点距離までズームイン動作を実施する。またCPU114は、撮影アシスト制御開始時の焦点距離(第1の焦点距離)の画角枠1000と注視位置表示枠1002が重なるまでの計測時間の長さに応じてレンズ駆動モーター213の駆動速度を変更し、撮影アシスト動作解除後のズームイン速度を変更する。すなわち、計測時間が短い場合にはズームイン速度を速くし、計測時間が長い場合にはズームイン速度を遅くする。
【0054】
以上のように、本実施形態において、制御手段114bは、注視位置の注視時間が所定の時間を超えた場合、撮影アシスト制御を停止する。好ましくは、制御手段114bは、第1の焦点距離の画角枠1000と注視位置表示枠1002との距離が所定の距離よりも小さくなるまでの時間に基づいて、第2の焦点距離から第3の焦点距離までズームインする速度を変更する。
【0055】
本実施形態によれば、撮影者が明確に撮影対象となる被写体を特定し、素早くデジタルカメラ100を向けた場合には、スピーディに撮影対象となる被写体にズームインすることが可能となる。一方、撮影対象となる被写体が定まらず、ゆっくりデジタルカメラ100を向けた場合、撮影アシスト制御開始時の焦点距離までのズームインが遅くなり、周囲の被写体の様子をより長く観察することができる。その結果、不意の被写体変更などにも機敏に対応が可能となり、撮影機会の損失を低減することができる。
【0056】
(第4の実施形態)
次に、本発明の第4の実施形態における撮像装置(画像処理装置)について説明する。本実施形態の撮像装置は、記録用のメイン撮像部とは別に、フレーミングを補助するための広角の画像を撮影するサブ撮像部を有する。なお、本実施形態における撮像装置の構成および保持撮影領域表示処理の一部は、第1の実施形態と同一であり、異なる部分のみを説明し、同一の部分についての説明は省略する。
【0057】
図11は、本実施形態におけるデジタルカメラ(撮像装置)500のブロック図である。なお、第1の実施形態と同一の要素については同一の記号を付し、ここでの詳細な説明を省略する。
図11において、主に望遠撮影を行うメインカメラ用結像光学部501は、フォーカスレンズや防振レンズを含む複数のレンズ群および絞りを備えている。撮影の際、メインカメラ用結像光学部501は、焦点調節回路5212でフォーカス調整、絞り制御回路5211で露出調節、およびブレ補正などを行い、メインカメラ用撮像素子502に光学像を結像する。メインカメラ用撮像素子502は、光学像を電気信号(アナログ画像信号)に変換する光電変換機能を有し、CCDセンサやCMOSセンサなどで構成される。メインカメラ用A/D変換部503は、メインカメラ用撮像素子502からのアナログ画像信号をデジタル画像信号に変換する。変換後の画像データは後段の画像処理部104に入力される。
【0058】
またデジタルカメラ500は、広角撮影を行う目的で同様の機能を有するサブカメラ用結像光学部504、サブカメラ用撮像素子505、および、サブカメラ用A/D変換部506を備えている。変換後の画像データは、後段の画像処理部104に入力される。サブカメラ用結像光学部504は、メインカメラ用結像光学部501と同様に、焦点調節回路5214および絞り制御回路5213を備えている。なお本実施形態において、画像処理部104以降の要素は、
図1を参照して説明した第1の実施形態と同一である。
【0059】
次に、
図12および
図13を参照して、本実施形態における制御方法を説明する。
図12は、本実施形態における制御方法のフローチャートである。
図13は、本実施形態における表示部113の表示画面の概略図である。
【0060】
まずステップS1201において、CPU114は、操作部115の撮影アシストボタンが押下され撮影アシスト動作(撮影アシスト制御)が開始されたか否かを判定する。撮影アシスト動作が開始していない場合、ステップS1201を繰り返す。一方、撮影アシスト動作が開始した場合、ステップS1202に進む。
【0061】
ステップS1202において、CPU114は、
図13(a)に示されるように表示部113の表示画面を、メインカメラより広角側を撮影可能なサブカメラでの撮影画像(広角画像)に切り替える。
図13(a)において、1303はメインカメラの撮影画角を示し、1302は
図5の視線検出ルーチンにより算出された注視点位置を包含する注視位置表示枠を示す。
【0062】
続いてステップS1203において、CPU114は、メインカメラの撮影画角1303と注視位置表示枠1302とが重なったか否かを判定する。本実施形態では、メインカメラの撮影画角1303と注視位置表示枠1302との重なった領域の面積が各枠の面積の70%以上となったときにメインカメラの撮影画角1303と注視位置表示枠1302とが重なったと判定するが、これに限定されるものではない。
図13(b)は、撮影者が注視位置(注視位置表示枠1302の位置)を変えずに、デジタルカメラ100を右方向にパン動作させたことによりメインカメラの撮影画角1303と注視位置表示枠1302とが重なった状態を示す。ステップS1203にてメインカメラの撮影画角1303と注視位置表示枠1302とが重なっていない場合、ステップS1203を繰り返す。一方、ステップS1203にてメインカメラの撮影画角1303と注視位置表示枠1302とが重なった場合、ステップS1204に進む。
【0063】
ステップS1204において、CPU114は撮影アシスト動作を解除(停止)する。なお、撮影アシスト動作の解除条件とメインカメラの撮影画角1303と注視位置表示枠1002とが重なったことの判定の他に、操作部115の撮影アシストボタンの押下が解除されたことを判定条件として加えてもよい。この判定条件を加えることで、より撮影者の意図通りの撮影アシスト動作解除タイミングを判定することができる。続いてステップS1205において、CPU114は、
図13(c)に示されるように表示部113の表示画面が、サブカメラより望遠側のメインカメラの撮影画像(望遠画角)に切り替える。
【0064】
以上のように、本実施形態において、撮像装置500は、第1の撮像素子(メインカメラ用撮像素子502)および第2の撮像素子(サブカメラ用撮像素子505)を有する。第1の撮像素子は、第1の光学系(メインカメラ用結像光学部501)を介して形成された光学像を光電変換して第1の画像を取得する。第2の撮像素子は、第2の光学系(サブカメラ用結像光学部504)を介して形成された光学像を光電変換して第1の画像よりも広角の第2の画像を取得する。制御手段114bは、表示部113に第2の画像を表示する。そして制御手段114bは、第2の画像に重畳して表示された第1の画像の画角枠(メインカメラの撮影画角1303)と、第2の画像における注視位置を包含する枠(注視位置表示枠1302)とが重なったか否かを判定する。第1の画像の画角枠と注視位置を包含する枠とが重なった場合、制御手段114bは、表示部113に表示されている第2の画像を第1の画像に切り替える。
【0065】
本実施形態によれば、撮影アシスト解除タイミングをメインカメラの撮影画角1303と注視位置表示枠1002とが重なったタイミングで素早く判断することが可能となり、撮影機会の損失を低減することができる。
【0066】
(第5の実施形態)
次に、
図14乃至
図19を参照して、本発明の第5の実施形態について説明する。
図14は本実施形態におけるデジタルカメラ(撮像装置)100の外観概略図である。
図14(a)はデジタルカメラ100の正面斜視図、
図14(b)は背面斜視図をそれぞれ示す。本実施形態において、デジタルカメラ100は、
図14(a)に示されるように、撮影レンズ(レンズ装置)1Aおよびカメラ筐体部(カメラ本体)1Bを備えて構成されている。またカメラ筐体部1Bには、撮影者からの撮像操作を受ける操作部115の一部を構成するレリーズボタン5が配置されている。また、
図14(b)に示されるように、デジタルカメラ100の背面には、表示部113を、撮影者が覗きこむための接眼レンズ12が配置されている。また、デジタルカメラ100には、操作部115の一部として、後述するカメラ操作に用いられる操作部材α(タッチパネル対応液晶41)、操作部材β(レバー式操作部材42)、および、操作部材γ(ボタン式十字キー43)が配置されている。操作部材α、β、γは、例えば、後述の推定注視点枠位置の手動操作による移動制御の際に用いられる。
図1は、
図14(a)中のY軸とZ軸が成すYZ平面でデジタルカメラ100を切断した断面図に相当する。なお、
図1及び
図14において、対応する部位は同じ番号で表記されている。
【0067】
図15は、デジタルカメラ100の電気的構成を示すブロック図である。なお
図15において、
図1と同一のものは同一番号を付している。CPU114には、視線検出回路120、測光回路202、自動焦点検出回路203、信号入力回路204、表示制御部112、光源駆動回路205、追尾回路207、認識回路208、画像処理回路209が接続されている。またCPU114は、撮影レンズ1A内に配置された焦点調節回路212および絞り制御回路211と、マウント接点217を介して信号の伝達が行われる。CPU114に付随したメモリ部4は、撮像素子102および眼球用撮像素子121からの撮像信号の記憶機能及び、後述する視線の個人差を補正する視線補正データの記憶機能を有している。
【0068】
視線検出回路120は、眼球用撮像素子121(CCD-EYE)からの眼球像が結像することによる出力をA/D変換し、この像情報をCPU114に送信する。CPU114は、視線検出に必要な眼球像の各特徴点を後述する所定のアルゴリズムに従って抽出し、更に各特徴点の位置から撮影者の視線を算出する。測光回路202は、測光センサの役割も兼ねる撮像素子102から得られる信号を元に、被写界の明るさに対応した輝度信号出力を増幅後、対数圧縮、A/D変換し、被写界輝度情報として、CPU114に送る。
【0069】
自動焦点検出回路203は、撮像素子102におけるCCDの中に含まれる、位相差検出のために使用される複数の画素からの信号電圧をA/D変換し、CPU114に送る。CPU114は、前記複数の画素の信号から、各焦点検出ポイントに対応する被写体までの距離を演算する。これは撮像面位相差AFとして知られる公知の技術である。本実施例では、一例として、
図16のファインダ内視野像で示した箇所に対応する撮像面上の位置に180か所の焦点検出ポイントがあるとする。
【0070】
追尾回路207は、CPU114の制御により、画像を入力して、被写体を追尾する回路であり、画像情報の追尾枠の情報をCPU114に送信する。なお、追尾処理は、例えば、SAD(Sum Of Absolute Difference)により、2枚の画像間の類似度を求めて追尾が行われる。また、追尾回路207には、SAD以外の追尾処理を用いても良い。認識回路208は、入力画像に対して、被写体認識する回路であり、例えば人物の顔検出や動物の検出を行う。画像処理回路209は、入力画像に対して、各種画像処理部及びバッファメモリ等から構成されており、画像データに対して、倍率色収差補正、現像処理、ノイズリダクション処理、幾何変形、拡縮といったリサイズなどの処理を適切に行う。その他、画像処理回路209は、画像データに対して画素補正、黒レベル補正、シェーディング補正、傷補正などを適正に行う補正部等を備える。
【0071】
信号入力回路204には、レリーズボタン5の第一ストロークでONし、カメラの測光、測距、視線検出動作等を開始するためのスイッチSW1と、レリーズボタンの第二ストロークでONし、レリーズ動作を開始するためのスイッチSW2が接続される。前記信号が信号入力回路204に入力され、CPU114に送信される。操作部材α(タッチパネル対応液晶41)、操作部材β(レバー式操作部材42)、操作部材γ(ボタン式十字キー43)は、CPU114にその操作信号が伝わる構成となっており、それに応じて後述する推定注視点枠位置の移動操作制御等が行われる。
【0072】
図16は、ファインダ視野内の説明図であり、表示部113が動作した状態を示す。
図16において、300は視野マスク、400は焦点検出領域、4001~4180は表示部113に示されるスルー画像に、撮像面上における複数の焦点検出ポイントに対応する位置に重ねて表示した180個の測距点視標を示す。また、それらの指標の内、現在の推定注視点位置に対応する指標を図における推定注視点Aのように枠を出現させた表示を行う。なお、本実施形態の視線検出方法は、第1の実施形態において
図3乃至
図5を参照して説明したとおりである。
【0073】
図16を参照して、キャリブレーション作業について説明する。前述のように、視線検出ルーチンにおいて眼球画像から眼球の回転角度θx、θyを取得し、瞳孔中心位置を表示部113上において対応する位置に座標変換する演算を行って注視点位置を推定している。
【0074】
しかし、人間の眼球の形状の個人差等の要因により、視線補正係数Ax,Ay,Bx,Byの値を撮影者によって適切な値に調整しなければ、
図16(b)に示したように、撮影者が実際に注視している位置Bと演算された推定注視点Cの位置にずれが生じてしまう。上記例では位置Bの人物に注視したいにも関わらず、背景が注視されているとカメラ側が誤って推定しており、適切な焦点検出および調整ができない状態となっている。そこで、カメラによって撮像を行う前に、キャリブレーション作業を行い、使用者に適切な補正係数の値を取得し、カメラに記憶させる必要がある。
【0075】
従来、キャリブレーション作業は、撮像前にファインダ視野内に
図16(c)のような位置の異なる複数の指標を強調表示し、観察者にその指標を見てもらうことで行う。各視標注視時に注視点検出フローを行い、算出された複数の推定注視点座標と各視標座標の位置から適切な前記係数の値を求める作業を行うことが公知の技術として知られている。
【0076】
次に、
図17および
図18を参照して、撮影アシスト処理について説明する。
【0077】
図17は、本実施形態における表示画角の変更図であり、撮影時に自動で表示画角のズームアウト、ズームインを行った場合(撮影アシストを行った場合)を示す。
図18は、撮影アシスト処理のフローチャートである。
図18の各ステップは、主に、CPU114により実行される。
【0078】
図17(a)中の800は、電子ズームの場合は、撮像素子102で捉えた画像であり、光学式ズームの場合は、撮像素子102で捉える画角外の撮影シーンを模式的に示す。801は、表示部113で表示している表示画像を示す。802は、撮影者が、撮影したい被写体を表している。
図17(b)の803の点線枠は、警告表示を示し、表示部113に表示されている画像の枠を、例えば赤で点滅表示させていることを示す。
図17(a)は、運動会のお遊戯を撮影している例であり、手振れにより、撮影被写体802が、表示部113の表示から外れてしまった状態を示す。
図17(b)は、後述する撮影アシスト処理フローにて、撮影被写体802を見失ったことを検知して、表示画角を広角側にすることを事前に撮影者に教えるために表示の最外角を点滅表示させる状態を示す。
図17(c)は、
図17(b)の警告表示後に、表示画角を広げたときの状態を示す。なお
図17(c)では、撮影被写体802が見つかっているが、見つかるまで画角を段階的に広げるものとする。
図17(d)は、その後、撮影者が、撮影被写体802を表示部113の中心位置に戻すことによって、
図17(a)の画角まで画角を戻した状態を示す。
【0079】
次に、
図18を用いて、具体的な撮影アシスト処理について説明する。なお本実施形態において、ズーム動作は光学式ズームであるとして説明するが、これに限定されるものではない。ズーム動作を電子ズームで行う場合、画像処理回路209で画像をトリミングして画角を変更することで同じ動作となる。この点は、前述の第1乃至第4の実施形態でも同様である。
【0080】
撮影アシスト処理が開始されると、CPU114は、ステップS100の撮影被写体見失い判定処理を行う。撮影被写体見失い判定処理は、
図19を参照して後述するが、本処理を行うことで、被写体を見失ったか否かを判定する。続いてステップS101において、CPU114は、撮影被写体見失い判定処理の結果を元に、撮影者が被写体を見失ったかどうかの判定を行う。撮影者が被写体を見失ったと判定した場合、ステップS102へ進む。一方、撮影者が被写体を見失っていない(撮影者が撮影被写体を捉えている)と判定した場合、何もせずに処理を終える。
【0081】
続いてステップS102において、CPU114は、予めカメラメニューで設定される撮影アシストの自動で画角を変更する時に警告表示を行うか行わないかのモードであり、その警告表示モードを設定しているか判定する。警告表示モードに設定されている場合、ステップS103へ進む。一方、警告表示モードに設定されていない場合、ステップS105へ進む。
【0082】
ステップS103において、CPU114は、
図17(b)に示されるように、表示部113へ警告表示を閾値(c)秒間行う。続いてステップS104において、CPU114は、ステップS100と同様に再度、撮影被写体見失い判定処理を行う。続いてステップS105において、CPU114は、ステップS101と同様の判定または、最大画角に到達したか判定を行う。被写体を見失ったと判定した場合、または、最大画角であると判定した場合、ステップS106へ進む。一方、被写体を見失っていない(撮影者が撮影被写体を捉えている)と判定し、かつ、最大画角ではないと判定した場合、何もせずに処理を終える。
【0083】
ステップS106において、CPU114は、
図17(c)に示されるように、レンズ駆動モーター213を制御して、所定の画角まで表示するため、ズームアウトする。続いてステップS107において、CPU114は、ステップS100と同様に再度、撮影被写体見失い判定処理を行う。続いてステップS108において、CPU114は、ステップS101と同様の判定を行う。被写体を見失ったと判定した場合、ステップS102へ戻る。すなわち、被写体を見失っている場合、被写体が見つかるまで、ステップS102~S106を繰り返し、画角を段階的に広げる動作となる。これは、1度で最大画角に広げると探す被写体が多くなることを回避するためである。一方、被写体を見失っていないと判定した場合、ステップS109へ進む。
【0084】
ステップS109において、CPU114は、レンズ駆動モーター213を制御して、注視領域が含まれる画角までズームインする。続いてステップS110において、CPU114は、ズームアウト前の画角か否かを判定する。ズームアウト前の画角に戻ったと判定した場合、処理を終える。処理を終えたときの表示形態が、
図17(d)となる。一方、ズームアウト前の画角でない場合、ステップS111へ進む。ステップS111において、CPU114は、撮影者が撮影被写体802を画面の中心に捕えようと、カメラをパンニングしたか否かを判定する。カメラをパンニングしたと判定した場合、ステップS109へ戻る。一方、カメラをパンニングしたと判定していない場合、ステップS112へ進む。なお、ステップS111の判定は、撮影被写体802が画面内の中心方向に位置したか否かにより行っても良い。
【0085】
ステップS112において、CPU114は、閾値(d)時間以上同じ画角か否か、または、レリーズボタン5を押し込まれて撮影動作を行ったか否かを判定する。閾値(d)時間以上同じ画角であるか、または、撮影動作を行った場合、処理を終える。一方、閾値(d)時間以上同じ画角ではなく、かつ撮影動作を行っていない場合、ステップS111へ戻る。処理を終えた時の表示形態が、
図17(d)となる。
【0086】
次に、
図19を参照して、本実施形態における撮影被写体見失い判定処理の説明を行う。
図19は、本実施形態における制御方法(撮影被写体見失い判定処理)のフローチャートである。
【0087】
まずステップS200において、CPU114は、閾値(a)時間以内に注視点の移動回数を計測するためのタイマーをリセットしてからスタートさせる。続いてステップS201において、CPU114は、視線検出ルーチンで検出した注視点があるか否かを判定する。注視点がある場合、ステップS202へ進む。一方、注視点がない場合、ステップS203へ進む。
【0088】
ステップS202において、CPU114は、閾値(e)秒以内にステップS201で判定した注視点が移動したか否かを判定する。注視点が移動した場合、ステップS203へ進む。一方、注視点が移動していない場合、ステップS206へ進む。
【0089】
ステップS203において、CPU114は、最初の注視点を検出してから閾値(a)秒以内か否かを判定する。最初の注視点を検出してから閾値(a)秒以内である場合、ステップS204へ進む。一方、最初の注視点を検出してから閾値(a)秒以内でない場合、ステップS200へ戻る。
【0090】
ステップS204において、CPU114は、注視点が閾値(b)回以上移動したか否かを判定する。注視点が閾値(b)回以上移動した場合、ステップS205へ進む。一方、注視点が閾値(b)回以上移動していない場合、ステップS201へ戻る。ステップS205において、CPU114は、被写体を見失ったと判定し、処理を終える。ステップS206において、CPU114は、撮影被写体がいると判定し、処理を終える。
【0091】
以上のように、本実施形態の撮影被写体見失い判定処理では、ある規定時間以内に、注視点がある領域を移動していることを元に見失い判定を行う。本実施形態によれば、被写体の見失いを検出して、撮影タイミングを逃す可能性を軽減することが可能となる。
【0092】
(第6の実施形態)
次に、
図20および
図21を参照して、本発明の第6の実施形態について説明する。本実施形態は、注視点、および認識回路208で被写体を認識した結果を用いる点で、第5の実施形態とは異なる。
【0093】
図20は、本実施形態における表示画角の変更図であり、
図17と同じ場面を示している。
図20(a)の顔枠1000は、認識回路208で、認識した被写体の顔に対して、顔枠を示している。また、
図20(a)は、番号を付していないが、表示画像801の被写体に顔枠が表示されていることを示している。なお、本実施例では、顔枠として説明するが、認識回路208で検出した被写体枠を表示しても良い。
図20(b)の顔枠1002は、撮影者がすでに注視した顔枠を点線で示し、顔枠1001は撮影者が注視していない顔枠である。なお、注視した顔枠1002を点線で示しているが、注視した枠と注視していない枠の判定が、撮影者が認識できるのであれば、どのような表示形態であっても良く、例えば、注視した顔枠を消すでも良い。
図20(c)は、
図17(c)と同様に、表示画角を広げたときの図である。
【0094】
次に、
図21を参照して、本実施形態における撮影被写体見失い判定処理の説明を行う。
図21は、本実施形態における制御方法(撮影被写体見失い判定処理)のフローチャートである。
【0095】
まずステップS300において、CPU114は、顔または被写体枠を表示する。なお、撮影アシスト処理開始前に事前に顔または被写体枠が表示されている場合、ステップS300を行わなくても良い。続いてステップS301において、CPU114は、視線検出ルーチンで検出した注視点の近傍にある顔または被写体枠をステップS302の判定対象とする。続いてステップS302において、CPU114は、顔または被写体枠を注視しているか否かを判定する。なお、注視した枠の中心から閾値(f)画素以内にある顔枠は、同時に見えている可能性が高いため、注視したとみなすることも可能とする。顔または被写体枠を注視している場合、ステップS303へ進む。一方、顔または被写体枠を注視していない場合、ステップS304へ進む。
【0096】
ステップS303において、CPU114は、閾値(e)秒以内に注視点が移動したか否かを判定する。なお、顔または被写体枠の大きさに応じて閾値(e)を変更しても良い。閾値(e)秒以内に注視点が移動した場合、ステップS304へ進む。一方、閾値(e)秒以内に注視点が移動していない場合、ステップS307へ進む。
【0097】
ステップS304において、CPU114は、注視点が移動する前の顔または被写体枠、すなわちステップS301にて対象とした枠に関して、
図20(b)の顔枠1002のように表示形態を変更する。続いてステップS305において、CPU114は、表示部113で表示している画像上の顔または被写体枠を全て確認したか否かを判定する。なお、顔または被写体枠の大きさに応じて、1つの顔または被写体枠に対して注視する回数を変更しても良い。これは、被写体が小さいと撮影者が一度見てはいるが、本来撮影した被写体にも関わらず見逃している可能性を救うためである。表示画面上の顔または被写体枠を全て確認した場合、ステップS306へ進む。一方、確認していない顔または被写体枠が存在する場合、ステップS301へ戻る。ステップS306において、CPU114は、被写体を見失ったと判定し、処理を終える。ステップS307において、CPU114は、撮影被写体がいると判定し、処理を終える。
【0098】
以上のように、本実施形態の撮影被写体見失い判定処理では、被写体枠に対して、注視しているか否かに応じて被写体の見失いの判定を行う。本実施形態によれば、判定被写体の見失いを検出して、撮影タイミングを逃す可能性を軽減することが可能となる。また、顔枠を表示し、撮影者が顔枠に対して注視したか否かを判定しやすい表示形態とすることで、同じ被写体の確認を何度も行うことを防止することができる。
【0099】
(第7の実施形態)
次に、
図22および
図23を参照して、本発明の第7の実施形態について説明する。本実施形態は、被写体が動体である点で、第6の実施形態と異なる。
【0100】
図22は、本実施形態における表示画角の変更図である。
図22(a)は、レーシングカー(被写体)が右上から左下へ移動時のある時間を切り取ったときの表示部113の表示画面を示す。認識回路208で認識した被写体枠1300として、各被写体の四隅に枠が表示されている。
図22(b)は、
図22(a)で撮影被写体802が存在しないと判定して、表示部113で表示する画像の画角を広げ、画角を広げたことにより、撮影被写体802が画角に入ってきた状態を示す。また、被写体枠1302は、撮影者がすでに注視した顔枠を点線で示している。なお、注視した被写体枠1302を点線で示しているが、注視した枠と注視していない枠の判定が、撮影者が認識できるのであれば、どのような表示形態であっても良く、例えば、注視した枠を消しても良い。
図22(c)は、
図17(d)と同様に、撮影被写体802が入りきる画角かあるいはズームアウト前の画角、この場合
図22(a)の画角までズームインした状態を示す。
【0101】
次に、
図23を参照して、本実施形態における撮影被写体見失い判定処理について説明する。
図23は、本実施形態における制御方法(撮影被写体見失い判定処理)のフローチャートである。
【0102】
まずステップS400において、CPU114は、被写体枠を表示する。なお、撮影アシスト処理開始前に事前に被写体枠が表示されている場合、ステップS400を行わなくても良い。続いてステップS401において、CPU114は、視線検出ルーチンで検出した注視点の近傍にある被写体をステップS402の判定対象とする。続いてステップS402において、CPU114は、前フレームと現フレームからブロックマッチング法などにより被写体の動きベクトル(動き情報)を算出する。なお、動きベクトル算出は別の方法を用いても良い。続いてステップS403において、CPU114は、視線検出で用いた画像の前フレームと現フレームからステップS402と同様の方法により被写体の動きベクトルを算出する。なお、動きベクトル算出は、ステップS402と異なる方法を用いても良い。
【0103】
続いてステップS404において、CPU114は、ステップS402で算出した被写体の動きベクトルと,ステップS403で算出した注視点の動きベクトルが同じか否かを判定する。被写体の動きベクトルと注視点の動きベクトルとが同じである場合、ステップS405へ進む。一方、被写体の動きベクトルと注視点の動きベクトルとが異なる場合、ステップS406へ進む。
【0104】
ステップS405において、CPU114は、動体の被写体を注視していると判定して、ステップS407へ進む。ステップS406において、CPU114は、動体の被写体を注視していないと判定して、ステップS408へ進む。ステップS407において、CPU114は、閾値(e)秒以内に注視点が移動したか否かを判定する。なお、被写体枠の大きさに応じて閾値(e)を変更しても良い。閾値(e)秒以内に注視点が移動した場合、ステップS408へ進む。一方、閾値(e)秒以内に注視点が移動していない場合、ステップS411へ進む。
【0105】
ステップS408において、CPU114は、注視点が移動する前の被写体枠、すなわちステップS401で対象とした被写体枠に関して、
図22(b)の被写体枠1302のように表示形態を変更する。続いてステップS409において、CPU114は、表示部113で表示している画像上の被写体枠を全て確認したか否かを判定する。なお、被写体枠の大きさに応じて、1つの被写体枠に対して注視する回数を変更しても良い。これは、被写体が小さいと撮影者が一度見てはいるが、本来撮影した被写体にも関わらず見逃している可能性を救うためである。表示画面上の被写体枠の全てについて確認済みである場合、ステップS410へ進む。一方、まだ確認していない被写体枠が存在する場合、ステップS401へ戻る。ステップS410において、CPU114は、被写体を見失ったと判定し、処理を終える。ステップS411において、CPU114は、撮影被写体が存在すると判定し、処理を終える。
【0106】
以上、説明したように、撮影被写体見失い判定処理では、被写体枠の動きベクトルと注視点の動きベクトルとを用いて被写体(動体)を注視しているか否かを判定し、かつ注視点の移動に応じて被写体の見失いの判定を行う。本実施形態によれば、判定被写体の見失いを検出して、撮影タイミングを逃す可能性を軽減することが可能となる。
【0107】
以上のように、第5乃至第7の実施形態において、制御手段(CPU114)は、注視位置が変更されたと判定した場合、画角を変更する。好ましくは、制御手段は、注視位置が閾値時間内に閾値回数以上変更されたと判定した場合、画角を変更する。また好ましくは、制御手段は、画像をトリミングして画角を変更するか、または光学系を駆動して結像位置を変更することで、画角を変更する。
【0108】
また、第5乃至第7の実施形態において、制御手段は、注視位置が変更されたと判定した場合、表示手段(表示部113)に警告表示を行う。好ましくは、制御手段は、注視位置が閾値時間内に閾値回数以上変更されたと判定した場合、警告表示を行う。
【0109】
好ましくは、画像処理装置は、画像から被写体を認識する認識手段(認識回路208)を有する。制御手段は、注視位置が認識手段により認識された被写体の位置であって、かつ注視位置が閾値時間内に閾値回数以上変更されたと判定した場合、画角を変更する。また好ましくは、制御手段は、注視位置が認識手段により認識された被写体の位置であって、注視位置が閾値時間内に閾値回数以上変更されたと判定した場合、警告表示を行う。また好ましくは、制御手段は、認識手段により認識された第1の被写体および第2の被写体のそれぞれに対して表示手段に被写体認識情報を表示する。そして制御手段は、注視位置が認識手段により認識された第1の被写体および第2の被写体のそれぞれ位置である場合、被写体認識情報の表示方法を変更する。より好ましくは、制御手段は、第1の被写体の注視時間が閾値以下であり、かつ注視位置が第1の被写体から第2の被写体へ移動したと判定した場合、第1の被写体に関する被写体認識情報の表示方法を変更する。また好ましくは、制御手段は、認識手段により認識された被写体の動き情報と、注視位置の動き情報とに基づいて、注視位置が認識手段により認識された被写体の位置であるか否かを判定する。すなわち制御手段は、被写体の動き情報と注視位置の動き情報との一致度が閾値以上である場合、注視位置が認識手段により認識された被写体の位置であると判定する。
【0110】
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
【0111】
各実施形態の画像処理装置は、撮影アシスト機能の解除判定の条件に注視位置の情報を利用し、撮影アシスト機能の解除後に注視位置が画角内に内包される焦点距離までズームイン制御を行うことができる。このため各実施形態によれば、撮影画角から外れた被写体を再補足することを容易にして撮影機会の損失を低減することが可能な画像処理装置、撮像装置、制御方法、および、プログラムを提供することが可能である。
【0112】
以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。
【符号の説明】
【0113】
100 撮像装置(画像処理装置)
113 表示部(表示手段)
114a 推定手段
114b 制御手段