(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024170166
(43)【公開日】2024-12-06
(54)【発明の名称】電子機器および電子機器の制御方法
(51)【国際特許分類】
H04N 23/63 20230101AFI20241129BHJP
G03B 17/20 20210101ALI20241129BHJP
G06F 3/01 20060101ALI20241129BHJP
G06F 3/04812 20220101ALI20241129BHJP
【FI】
H04N23/63 300
G03B17/20
G06F3/01 510
G06F3/04812
【審査請求】未請求
【請求項の数】17
【出願形態】OL
(21)【出願番号】P 2023087182
(22)【出願日】2023-05-26
(71)【出願人】
【識別番号】000001007
【氏名又は名称】キヤノン株式会社
(74)【代理人】
【識別番号】110002860
【氏名又は名称】弁理士法人秀和特許事務所
(72)【発明者】
【氏名】高梨 豪也
【テーマコード(参考)】
2H102
5C122
5E555
【Fターム(参考)】
2H102AA71
2H102BA01
2H102BB02
2H102BB26
2H102CA34
5C122DA01
5C122EA47
5C122FA07
5C122FA11
5C122FD01
5C122FD13
5C122FH10
5C122FH11
5C122FH14
5C122FK37
5C122FK40
5C122FK41
5C122GA01
5C122HA13
5C122HA35
5C122HA46
5C122HA75
5C122HA76
5C122HA86
5C122HA88
5C122HB01
5C122HB05
5C122HB06
5C122HB10
5E555AA08
5E555AA12
5E555AA22
5E555BA02
5E555BA05
5E555BA06
5E555BA18
5E555BB02
5E555BB05
5E555BB06
5E555BB18
5E555BC04
5E555BE10
5E555CA41
5E555CA42
5E555CB45
5E555CB65
5E555CC05
5E555DB06
5E555DB18
5E555DC13
5E555EA22
5E555FA00
(57)【要約】
【課題】視線位置の表示と画像の視認性の確保とを両立させる電子機器を提供する。
【解決手段】電子機器は、撮像された画像を見るユーザーの視線位置の情報を取得する取得手段と、前記ユーザーの視線位置に基づいて、前記ユーザーの視線が向けられた被写体を推定する推定手段と、前記画像の撮像の状況および前記画像に含まれる被写体の状況の少なくとも一方に基づいて、前記推定手段によって推定された被写体を示す第1アイテムを表示するか否かを制御する制御手段とを有することを特徴とする。
【選択図】
図8A
【特許請求の範囲】
【請求項1】
撮像された画像を見るユーザーの視線位置の情報を取得する取得手段と、
前記ユーザーの視線位置に基づいて、前記ユーザーの視線が向けられた被写体を推定する推定手段と、
前記画像の撮像の状況および前記画像に含まれる被写体の状況の少なくとも一方に基づいて、前記推定手段によって推定された被写体を示す第1アイテムを表示するか否かを制御する制御手段と
を有することを特徴とする電子機器。
【請求項2】
前記制御手段は、前記ユーザーの視線位置が前記画像に含まれる被写体から離れた位置に存在する場合に、前記ユーザーの視線位置を示す第2アイテムを表示するように制御する
ことを特徴とする請求項1に記載の電子機器。
【請求項3】
前記制御手段は、
前記ユーザーが前記推定手段によって推定された被写体に注目している場合、
前記画像の撮像範囲が変化した場合、または
前記画像を撮像する撮像装置の姿勢が変化した場合に、
前記第1アイテムを表示するように制御する
ことを特徴とする請求項1に記載の電子機器。
【請求項4】
前記制御手段は、所定の時間における前記ユーザーの視線位置の移動量が第1閾値より小さい場合、または所定の時間におけるまばたきの回数が第2閾値より小さい場合に、前記ユーザーが前記推定手段によって推定された被写体に注目していると判定する
ことを特徴とする請求項3に記載の電子機器。
【請求項5】
前記制御手段は、ズーム操作が行われた場合、前記ズーム操作による焦点距離の変化量が第3閾値より大きい場合、または前記ズーム操作によるズーム倍率の変化量が第4閾値より大きい場合に、前記画像の撮像範囲が変化したと判定する
ことを特徴とする請求項3に記載の電子機器。
【請求項6】
前記制御手段は、パン操作もしくはチルト操作が行われた場合、または前記パン操作もしくは前記チルト操作による撮像範囲の移動量が第5閾値より大きい場合に、前記画像の撮像範囲が変化したと判定する
ことを特徴とする請求項3に記載の電子機器。
【請求項7】
前記制御手段は、前記ユーザーの視線位置の情報が取得された状態で前記撮像装置の姿勢が変化したか否かを判定する
ことを特徴とする請求項3に記載の電子機器。
【請求項8】
前記制御手段は、
前記画像に含まれる被写体の数が変化した場合、
前記画像に含まれる被写体の数が2つ以上である場合、
前記推定手段によって推定された被写体が加速または減速する動作をしている場合、または
前記推定手段によって推定された被写体が合焦状態でない場合に、
前記第1アイテムを表示するように制御する
ことを特徴とする請求項1に記載の電子機器。
【請求項9】
前記被写体の数は、前記画像に含まれる被写体のうち所定の種別の被写体の数である
ことを特徴とする請求項8に記載の電子機器。
【請求項10】
前記被写体の数は、前記推定手段によって推定された被写体を含む所定の範囲で検出される被写体の数である
ことを特徴とする請求項8に記載の電子機器。
【請求項11】
前記所定の範囲は、前記画像を撮像する際の焦点距離、撮影距離、撮影モード情報および前記推定手段によって推定された被写体の大きさのうちの少なくともいずれかに基づいて決定される
ことを特徴とする請求項10に記載の電子機器。
【請求項12】
前記制御手段は、前記推定手段によって推定された被写体が合焦状態であり、前記合焦状態の被写体とは異なる被写体に対して、前記ユーザーの視線位置が検出された場合に、前記第1アイテムを表示するように制御する
ことを特徴とする請求項8に記載の電子機器。
【請求項13】
前記制御手段は、前記ユーザーの視線位置の情報の取得に失敗した場合、
前記画像の前に撮像された画像に対して前記第1アイテムを表示していなかった場合は、前記画像に対しても前記第1アイテムを表示せず、
前記画像の前に撮像された画像に対して前記第1アイテムを表示していた場合は、前記画像に対し、前記画像の前に撮像された画像と同じ位置に前記第1アイテムを表示する、
ように制御する
ことを特徴とする請求項1に記載の電子機器。
【請求項14】
前記制御手段は、前記ユーザーの視線位置の情報の取得に失敗し、前記画像に対して前記第1アイテムを表示する場合、前記ユーザーの視線位置の情報の取得に成功した場合とは異なる態様で前記第1アイテムを表示する
ことを特徴とする請求項13に記載の電子機器。
【請求項15】
撮像された画像を見るユーザーの視線位置の情報を取得する取得ステップと、
前記ユーザーの視線位置に基づいて、前記ユーザーの視線が向けられた被写体を推定する推定ステップと、
前記画像の撮像の状況および前記画像に含まれる被写体の状況の少なくとも一方に基づいて、前記推定ステップで推定された被写体を示す第1アイテムを表示するか否かを制御する制御ステップと
を有することを特徴とする電子機器の制御方法。
【請求項16】
コンピュータを、請求項1~14のいずれか1項に記載の電子機器の各手段として機能させるためのプログラム。
【請求項17】
コンピュータを、請求項1~14のいずれか1項に記載の電子機器の各手段として機能させるためのプログラムを格納したコンピュータが読み取り可能な記憶媒体。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、電子機器および電子機器の制御方法に関する。
【背景技術】
【0002】
従来、ファインダー視野内を覗くユーザーの視線位置を検出する機能を搭載した撮像装置が提供されている。また近年では、撮影光学系を通過した光束を受光する撮像素子で取得された画像を表示することが可能な電子ビューファインダを有する撮像装置が提供されている。電子ビューファインダを有する撮像装置は、さまざまな種類の被写体を認識し検出することが可能である。このような撮像装置は、検出した視線位置の情報、および取得した画像での被写体の認識結果に基づいて、ユーザーの意思を反映した被写体位置で、焦点検出制御を行うことが可能である。
【0003】
特許文献1は、オートフォーカス(以下、AFと呼ぶ)機能の状況に応じて、視線検出を優先したい場合と、ファインダー内の表示を優先したい場合とで視線位置の表示状態を好適に制御する技術を開示している。特許文献2は、ファインダー内におけるユーザーの視線が所定時間以上停留することで対応する機能を起動させる場合に、視線の停留を判別するための所定時間を適切に設定する技術を開示している。
【先行技術文献】
【特許文献】
【0004】
【特許文献1】特開2021-131441号公報
【特許文献2】特開平09-015483号公報
【発明の概要】
【発明が解決しようとする課題】
【0005】
しかしながら、実際の撮影シーンでは、視線位置およびAF枠などの表示は、視認性およびユーザーの操作性などを考慮して適切に制御されることが好ましい。例えば、視線位置の情報をAF対象領域(AF枠)の確定に採用する場合、AF枠を表示するまでの視線の停留時間をあらかじめ設定しても、AF枠の表示状態は、ユーザーにとって適時に変更されるとは限らない。
【0006】
そこで、本発明は、視線位置の表示と画像の視認性の確保とを両立させる電子機器を提供することを目的とする。
【課題を解決するための手段】
【0007】
本発明の第1の態様は、撮像された画像を見るユーザーの視線位置の情報を取得する取得手段と、前記ユーザーの視線位置に基づいて、前記ユーザーの視線が向けられた被写体を推定する推定手段と、前記画像の撮像の状況および前記画像に含まれる被写体の状況の少なくとも一方に基づいて、前記推定手段によって推定された被写体を示す第1アイテムを表示するか否かを制御する制御手段とを有することを特徴とする電子機器である。
【0008】
本発明の第2の態様は、撮像された画像を見るユーザーの視線位置の情報を取得する取得ステップと、前記ユーザーの視線位置に基づいて、前記ユーザーの視線が向けられた被写体を推定する推定ステップと、前記画像の撮像の状況および前記画像に含まれる被写体の状況の少なくとも一方に基づいて、前記推定ステップで推定された被写体を示す第1アイテムを表示するか否かを制御する制御ステップとを有することを特徴とする電子機器の制御方法である。
【0009】
本発明の第3の態様は、コンピュータを、上述した電子機器の各手段として機能させるためのプログラムである。本発明の第4の態様は、コンピュータを、上述した電子機器の各手段として機能させるためのプログラムを格納したコンピュータが読み取り可能な記憶媒体である。
【発明の効果】
【0010】
本発明によれば、視線位置の表示と画像の視認性の確保とを両立させる電子機器を提供することができる。
【図面の簡単な説明】
【0011】
【
図3】カメラ内の電気的構成の一例を示すブロック図である。
【
図4】ファインダー内視野の表示例を示す図である。
【
図5】視線検出方法の原理を説明するための図である。
【
図8A】アイコン表示制御処理を例示するフローチャートである。
【
図8B】撮像状況に基づくアイコン表示判定処理のフローチャートである。
【
図8C】被写体状況に基づくアイコン表示判定処理のフローチャートである。
【
図9】被写体の動き情報について説明する図である。
【
図10】視線位置を示すアイコンについて説明する図である。
【
図11】ズーム操作に基づくアイコン表示について説明する図である。
【
図12】カメラの姿勢変化に基づくアイコン表示について説明する図である。
【
図13】被写体数の変化に基づくアイコン表示について説明する図である。
【
図14】被写体の動き情報に基づくアイコン表示について説明する図である。
【
図15】実施形態2に係るアイコン表示判定処理のフローチャートである。
【
図16】フォーカスロック状態でのアイコン表示について説明する図である。
【
図17】ピント追従状態でのアイコン表示について説明する図である。
【発明を実施するための形態】
【0012】
[実施形態1]
以下、添付の図面を参照して本発明の実施形態について説明する。
【0013】
<構成の説明>
図1(a),1(b)~
図3を参照してカメラの構成の例を説明する。
図1(a),1(b)は、実施形態に係るカメラ1(デジタルスチルカメラ;レンズ交換式カメラ)の外観の一例を示す。
図1(a)は正面斜視図であり、
図1(b)は背面斜視図である。
図1(a)に示すように、カメラ1は、撮影レンズユニット1Aおよびカメラ筐体1Bを有する。カメラ筐体1Bには、ユーザー(撮影者)からの撮影操作を受け付け可能な操作部材であるレリーズボタン5が配置されている。
【0014】
図1(b)に示すように、カメラ筐体1Bの背面には、カメラ筐体1B内に含まれている表示デバイス10(表示パネル)を見るためにユーザーが覗き込む接眼レンズ12(接眼光学系)が配置されている。なお、接眼光学系には複数枚のレンズが含まれていてもよい。カメラ筐体1Bの背面には、ユーザーからの各種操作を受け付け可能な操作部材41~43も配置されている。例えば、操作部材41はタッチ操作を受け付け可能なタッチパネルであり、操作部材42は各方向に押し倒し可能な操作レバーであり、操作部材43は
4方向のそれぞれに押し込み可能な4方向キーである。操作部材41(タッチパネル)は、液晶パネルなどの表示パネルを備えており、表示パネルで画像を表示する機能を有する。
【0015】
図2は、
図1(a)に示したY軸とZ軸とが成すYZ平面でカメラ1を切断した断面図であり、カメラ1の内部構成の一例を示す。
図2において、
図1(a),1(b)と同じ構成に対しては同じ符号が付される。
【0016】
撮影レンズユニット1Aは、2枚のレンズ101,102、絞り111、絞り駆動部112、レンズ駆動モーター113、レンズ駆動部材114、フォトカプラ115、パルス板116、マウント接点117、焦点調節回路118を含む。また、撮影レンズユニット1Aは、加速度センサ119、ズーム駆動部120、レンズCPU121を含む。なお、簡単のために2枚のレンズ101,102を示したが、撮影レンズユニット1Aは、実際は2枚より多くのレンズを含む。撮影レンズユニット1Aに含まれる各構成は、レンズCPU121により制御される。
【0017】
撮影レンズユニット1A内に設けられた絞り111は、絞り駆動部112によって駆動される。レンズ駆動部材114は駆動ギヤなどを含む。フォトカプラ115は、レンズ駆動部材114に連動するパルス板116の回転を検知して、焦点調節回路118に伝える。焦点調節回路118は、フォトカプラ115からの情報と、カメラ筐体1Bからの情報(レンズ駆動量の情報)とに基づいてレンズ駆動モーター113を駆動し、レンズ101を移動させて合焦位置を変更する。マウント接点117は、撮影レンズユニット1Aとカメラ筐体1Bとのインターフェースである。
【0018】
加速度センサ119は、撮影レンズユニット1Aに内蔵され、レンズ101,102のパンニングを検出する。また、加速度センサ6はカメラ筐体1Bに内蔵され、カメラ筐体1Bのパンニングを検出する。カメラ1のパンニングは、撮影レンズユニット1Aに内蔵される加速度センサ119、およびカメラ筐体1Bに内蔵される加速度センサ6の少なくともいずれかを用いて判定される。
【0019】
ズーム駆動部120は、不図示のレンズ鏡筒に備えられた操作部材に対するユーザーの手動操作に基づいてズーム駆動を行うか、マウント接点117を介して通知されるカメラ筐体1Bからの指示によりズーム駆動を行う。レンズCPU121は、ズーム駆動の情報を、撮影レンズユニット1Aからマウント接点117を介してカメラ筐体1Bに通知する。カメラ1は、ズーム駆動の情報に基づいて、ズーム操作による画角変更を検出することができる。
【0020】
カメラ筐体1Bは、撮像素子2、CPU3、メモリ部4、表示デバイス10、表示デバイス駆動回路11などを含む。撮像素子2は、撮影レンズユニット1Aの予定結像面に配置されている。CPU3は、マイクロコンピュータの中央処理部であり、カメラ1全体を制御する。メモリ部4は、撮像素子2により撮像された画像などを記憶する。表示デバイス10は、液晶などで構成されており、撮像された画像(被写体像)などを表示デバイス10の表示面に表示する。表示デバイス駆動回路11は、表示デバイス10を駆動する。ユーザーは、接眼レンズ12を通して、表示デバイス10の表示面に表示された画像(撮像素子2により撮像された画像など)を見ることができる。
【0021】
カメラ筐体1Bは、接眼レンズ12、光源13a,13b、光分割器15、受光レンズ16、眼用撮像素子17なども含む。光源13a,13bは、ユーザーの眼球14を照明するための光源である。光源13a,13bは、光の角膜反射による反射像(角膜反射像;プルキニエ像)と瞳孔との関係から視線方向(視線の方向;ユーザーが見ている方向)
を検出するために一眼レフカメラなどで用いられている。具体的には、光源13aおよび光源13bのそれぞれは、ユーザーに対して不感の赤外光を発する赤外発光ダイオードなどであり、接眼レンズ12の周りに配置されている。
【0022】
照明された眼球14の光学像(眼球像;光源13a,13bから発せられて眼球14で反射した反射光による像)は、接眼レンズ12を透過し、光分割器15で反射される。そして、眼球像は、受光レンズ16によって、CCDまたはCMOSなどの光電素子列を2次元的に配した眼用撮像素子17上に結像される。受光レンズ16は、眼球14の瞳孔と眼用撮像素子17とを共役な結像関係に位置付けている。眼球14の視線方向は、眼用撮像素子17上に結像された眼球像における瞳孔と角膜反射像との位置関係から、所定のアルゴリズムにより検出される。
【0023】
図3は、カメラ1内の電気的構成の一例を示すブロック図である。
図3において、
図1(a),1(b)および
図2と同じ構成に対しては同じ符号が付され、これらの構成についての詳細な説明は省略される。CPU3は、視線検出回路201、測光回路202、自動焦点検出回路203、信号入力回路204、表示デバイス駆動回路11、光源駆動回路205、加速度センサ6、メモリ部4、画像処理部208および姿勢検出部207に接続されている。
【0024】
また、CPU3は、マウント接点117を介して、レンズCPU121に信号を伝達する。レンズCPU121は、CPU3からの信号に基づいて、撮影レンズユニット1A内に配置された焦点調節回路118、絞り駆動部112に含まれる絞り制御回路206、加速度センサ119およびズーム駆動部120を制御する。
【0025】
CPU3に付随したメモリ部4は、撮像素子2および眼用撮像素子17からの撮像信号の記憶機能を有している。CPU3は、メモリ部4へ記憶した撮像素子2の撮像信号を撮影画像へ変換し、変換した撮影画像をメモリ部4に接続される記録媒体7へ転送する。
【0026】
姿勢検出部207は、カメラ1を構えるユーザーの姿勢情報を検出する。姿勢検出部207は、例えば、加速度センサ6を用いてユーザーの姿勢情報を検出することができる。カメラ1は、被写体に対して撮像素子2が水平となる正位置(横位置)での撮影、および被写体に対して撮像素子2が垂直となる縦位置での撮影が可能である。姿勢検出部207は、ユーザーがファインダーを覗きながらカメラ1の姿勢を変えた場合にも、カメラ1の姿勢変化を検出することができる。
【0027】
視線検出回路201は、眼用撮像素子17上に眼球像が結像した状態での眼用撮像素子17の出力(眼を撮像した眼画像)をA/D変換し、その結果をCPU3に送信する。CPU3は、所定のアルゴリズムに従って、眼画像から視線検出に用いられる特徴点を抽出し、特徴点の位置から、表示デバイス10の表示面におけるユーザーの視点(視線位置;視線が注がれている位置;ユーザーが見ている位置)を算出する。
【0028】
測光回路202は、測光センサの役割を兼ねる撮像素子2から得られる信号、具体的には被写界の明るさに対応した輝度信号の増幅、対数圧縮、A/D変換などを行い、その結果である被写界輝度情報をCPU3に送る。被写界輝度情報は、撮像された画像の各画素の輝度を示す情報である。また、測光回路202は、撮像素子2により撮像された画像から特定の被写体(特定の物体)を検出し、その結果である被写体情報と被写体領域情報をCPU3に送る。被写体情報(物体情報)は、検出された被写体に関連した情報であり、被写体領域情報(物体領域情報)は、検出された被写体の領域を示す情報である。被写体情報および被写体領域情報は、被写界輝度情報を解析して得ることもできる。
【0029】
自動焦点検出回路203は、撮像素子2の中に含まれる、位相差検出のために使用される複数の検出素子(複数の画素)からの信号電圧をA/D変換し、CPU3に送る。CPU3は複数の検出素子の信号から、各焦点検出ポイントに対応する被写体までの距離を演算する。これは撮像面位相差AFとして知られる公知の技術である。本実施形態では、一例として、
図4(a)に示すようなファインダー内視野(ファインダーを覗いたときの視野)、具体的には表示デバイス10の表示面に示した180か所に対応する、撮像面上の180か所のそれぞれに、焦点検出ポイントがあるとする。
【0030】
信号入力回路204には、スイッチSW1とスイッチSW2とが接続されている。スイッチSW1は、レリーズボタン5の第1ストローク(半押し)でONし、カメラ1の測光や焦点検出(測距)などを開始するためのスイッチである。スイッチSW2は、レリーズボタン5の第2ストローク(全押し)でONし、撮影動作を開始するためのスイッチである。スイッチSW1,SW2からのON信号が信号入力回路204に入力され、CPU3に送信される。測光や焦点検出は、設定された測光領域や焦点検出領域内、または選択(決定)された主被写体の領域内で行われる。例えば、測光では、測光回路202により、対象の領域の輝度が被写界輝度情報から判断され、焦点検出では、自動焦点検出回路203により、対象の領域に存在する被写体までの距離が判断される。
【0031】
操作部材41(タッチパネル)、操作部材42(操作レバー)、操作部材43(4方向キー)は、ユーザーから受け付けた操作に対応する操作信号をCPU3に送る。光源駆動回路205は、光源13a,13bを駆動する。
【0032】
画像処理部208は、撮像素子2により撮像された画像に対して各種画像処理を適用する。また、画像処理部208は、撮像された画像から、各種情報を取得したり生成したりする。画像処理部208は、例えば特定の機能を実現するように設計されたASIC(Application Specific Integrated Circuit)などの専用のハードウェア回路によって実現されてもよい。また、画像処理部208は、ソフトウェアを実行することで特定の機能を実現するDSP(Digital Signal Processor)のようなプロセッサによって実現されてもよい。
【0033】
画像処理部208による画像処理は、前処理、色補間処理、補正処理、検出処理、データ加工処理、評価値算出処理などを含む。前処理は、信号増幅、基準レベル調整、欠陥画素補正などの処理を含む。色補間処理は、画像データに含まれていない色成分の値を補間する処理であり、デモザイク処理とも呼ばれる。補正処理は、ホワイトバランスを調整する処理、画像の輝度を補正する処理、撮影レンズユニット1Aの光学収差を補正する処理、色を補正する処理などを含む。
【0034】
検出処理は、特徴領域(例えば、顔、人体、動物、自動車などの領域)の検出処理、特徴領域の追尾処理、人物の認識処理などを含む。画像処理部208は、画像を表示する表示デバイス10の表示面におけるユーザーの視線位置の情報を検出し、画像内の被写体を検出することにより、ユーザーが注目している被写体を特定することができる。また、画像処理部208は、時系列に沿った画像の差分を解析することにより、画像内の被写体が画像平面においてどのように動作しているかといった被写体の動き特性情報を取得することができる。
【0035】
データ加工処理は、スケーリング処理、符号化および復号処理、ヘッダ情報生成処理などを含む。評価値算出処理は、位相差信号を用いたAF処理のための1対の信号、コントラストAF用の評価値、自動露出制御に用いる評価値などの算出処理を含む。なお、画像処理部208が実施する画像処理は、上記の例に限定されない。
【0036】
図4(a),4(b)は、ファインダー内視野の表示例を示す図であり、表示デバイス10が動作した状態(画像を表示した状態)を示す。
図4(a)に示すように、ファインダー内視野には、視野マスク300、焦点検出領域400、180個の測距点指標401などがある。180個の測距点指標401のそれぞれは、撮像面上における焦点検出ポイントに対応する位置に表示されるように、表示デバイス10に表示されたスルー画像(ライブビュー画像)に重ねて表示される。画像処理部208は、ユーザーがファインダーを覗いたときに眼用撮像素子17により取得される眼画像から、表示デバイス10の表示面におけるユーザーの視線位置の情報を取得することができる。
【0037】
図4(a)において、視線位置421は、ユーザーの視線が検出された位置(視線位置を含む領域)である。また、被写体422は、画像処理部208による画像の解析により検出された人物である。以下の説明では、検出対象が人物である場合、斜線部の頭部の領域が被写体として検出される。人の眼球には固視微動と呼ばれる揺らぎを伴う動作が生じるため、画像処理部208は、視線位置の近傍に存在する被写体を、ユーザーの視線が向けられた被写体として推定することが好ましい。視線位置と、被写体が存在する位置とにずれがある場合、画像処理部208は、ユーザーの視線が向けられた被写体を示すアイコン423を表示する。アイコン423が表示されることで、ユーザーは、自身が見ていると推定された被写体を確認することができる。また、画像処理部208は、ユーザーが所望の被写体の近傍に視線を向けることで、ユーザーが見ている被写体を推定することができる。
【0038】
視線位置の近傍は、視線位置を含む所定の範囲とすることができる。所定の範囲は、例えば、画像を撮像する際の焦点距離、撮影距離、撮影モード情報および視線が向けられた被写体の大きさに基づいて決定される。被写体の大きさは、画像内での大きさであり、例えば被写体が占める画素数により表すことができる。また、所定の範囲は、被写体の種類、移動速度などに基づいて決定されてもよい。視線位置の近傍に複数の被写体が検出された場合、画像処理部208は、視線位置により近い被写体を、ユーザーの視線が向けられた被写体と推定することができる。
【0039】
図4(b)は、画像に複数の被写体が存在する例を示す。
図4(b)に示す画像では、被写体431および被写体432が検出されている。視線位置433は、ユーザーの視線が検出された位置である。アイコン434(第1アイテムに相当)は、画像処理部208によって、ユーザーの視線が向けられていると推定された被写体(以下、推定被写体とも称される)を示す。
【0040】
画像処理部208は、ユーザーが被写体432の近傍に視線を移動させると、推定被写体を被写体431から被写体432に変更する。画像処理部208は、推定被写体を示すアイコン434を、視線の移動先である被写体432に対して表示する。なお、画像内で検出する被写体は、人物に限られず、動物または乗り物などであってもよい。
【0041】
<視線検出処理の説明>
図5,6(a),6(b),7を用いて、視線位置を取得するための視線検出処理(視線検出方法)について説明する。右目の視線も左目の視線も、以下の視線検出方法で検出される。
図5は視線検出方法の原理を説明するための図であり、視線を検出するための光学系の概略図である。
図5に示すように、光源13a,13bは受光レンズ16の光軸に対して略対称に配置され、ユーザーの眼球14を照らす。光源13a,13bから発せられて眼球14で反射した光の一部は、受光レンズ16によって、眼用撮像素子17に集光する。
図6(a)は眼用撮像素子17で撮像された眼画像(眼用撮像素子17に投影された眼の光学像)の概略図であり、
図6(b)は眼用撮像素子17の出力強度を示す図である。
図7は、視線検出処理のフローチャートである。
【0042】
図7の視線検出処理が開始すると、ステップS1では、CPU3は、ユーザーの眼球14に向けて赤外光を発するように、光源駆動回路205を用いて光源13a,13bを駆動する。赤外光によって照明されたユーザーの眼の光学像は、受光レンズ16を通って眼用撮像素子17上に結像し、眼用撮像素子17によって光電変換される。これによって、処理可能な眼画像の電気信号が得られる。
【0043】
ステップS2では、CPU3は、眼用撮像素子17から視線検出回路201を介して眼画像(画像データ、画像信号)を取得する。
【0044】
ステップS3では、CPU3は、S2で得られた眼画像から、光源13a,13bの角膜反射像Pd,Peおよび瞳孔141の中心cに対応する点の座標を取得する。光源13a,13bより発せられた赤外光は、ユーザーの眼球14の角膜142を照明する。このとき、角膜142の表面で反射した赤外光の一部によって形成される角膜反射像Pd,Peは、受光レンズ16によって集光され、眼用撮像素子17上に結像して、眼画像における角膜反射像Pd’,Pe’となる。同様に瞳孔141の端部a,bからの光束も眼用撮像素子17上に結像して、眼画像における瞳孔端像a’,b’となる。
【0045】
図6(b)は、
図6(a)の眼画像における領域αの輝度情報(輝度分布)を示す。
図6(b)では、眼画像の水平方向をX軸方向、垂直方向をY軸方向とし、X軸方向の輝度分布が示されている。角膜反射像Pd’,Pe’のX軸方向(水平方向)の座標をXd,Xeとし、瞳孔端像a’,b’のX軸方向の座標をXa,Xbとする。
【0046】
図6(b)に示すように、角膜反射像Pd’,Pe’の座標Xd,Xeでは、極端に高いレベルの輝度が得られる。瞳孔141の領域(瞳孔141からの光束が眼用撮像素子17上に結像して得られる瞳孔像の領域)に相当する、座標Xaから座標Xbまでの領域では、座標Xd,Xeを除いて、極端に低いレベルの輝度が得られる。そして、瞳孔141の外側の虹彩143の領域(虹彩143からの光束が結像して得られる、瞳孔像の外側の虹彩像の領域)では、上記2種の輝度の中間の輝度が得られる。例えば、X座標(X軸方向の座標)が座標Xaより大きい領域と、X座標が座標Xbより小さい領域とで、上記2種の輝度の中間の輝度が得られる。
【0047】
図6(b)に示すような輝度分布から、角膜反射像Pd’,Pe’のX座標Xd,Xeと、瞳孔端像a’,b’のX座標Xa,Xbを得ることができる。例えば、輝度が極端に高い座標を角膜反射像Pd’,Pe’の座標として得ることができ、輝度が極端に低い座標を瞳孔端像a’,b’の座標として得ることができる。また、受光レンズ16の光軸に対する眼球14の光軸の回転角θxが小さい場合には、瞳孔中心cからの光束が眼用撮像素子17上に結像して得られる瞳孔中心像c’(瞳孔像の中心)の座標Xcは、Xc≒(Xa+Xb)/2と表すことができる。つまり、瞳孔端像a’,b’のX座標Xa,Xbから、瞳孔中心像c’の座標Xcを算出できる。このようにして、角膜反射像Pd’,Pe’の座標と、瞳孔中心像c’の座標とを見積もることができる。
【0048】
ステップS4では、CPU3は、眼画像の結像倍率βを算出する。結像倍率βは受光レンズ16に対する眼球14の位置によって決まる倍率で、角膜反射像Pd‘,Pe’の間隔(Xd-Xe)の関数を用いて算出することができる。
【0049】
ステップS5では、CPU3は、受光レンズ16の光軸に対する眼球140の光軸の回転角を算出する。角膜反射像PdとPeとの中点のX座標と角膜142の曲率中心OのX座標とはほぼ一致する。このため、角膜142の曲率中心Oから瞳孔中心cまでの標準的な距離をOcとすると、Z-X平面(Y軸に垂直な平面)内での眼球14の回転角θXは
、以下の式1で算出できる。Z-Y平面(X軸に垂直な平面)内での眼球140の回転角θyも、回転角θxの算出方法と同様の方法で算出できる。
β*Oc*SINθX≒{(Xd+Xe)/2}-Xc・・・(式1)
【0050】
ステップS6では、CPU3は、ステップS5で算出した回転角θx,θyを用いて、表示デバイス10上でユーザーの視線位置(以下、視点とも称する)を推定する。視点の座標(Hx,Hy)が瞳孔中心cに対応する座標であるとすると、視点の座標(Hx,Hy)は以下の式2,3で算出できる。
Hx=m×(Ax×θx+Bx) ・・・(式2)
Hy=m×(Ay×θy+By) ・・・(式3)
【0051】
式2,3のパラメータmは、視線検出処理を行うための光学系の構成で定まる定数であり、回転角θx,θyを表示デバイス10上での瞳孔中心cに対応する座標に変換する変換係数である。パラメータmは、あらかじめ決定され、メモリ部4に格納される。視線補正パラメータAx,Bx,Ay,Byは、視線の個人差を補正する視線補正パラメータである。視線補正パラメータAx,Bx,Ay,Byは、視線検出のキャリブレーションを行うことで取得され、あらかじめメモリ部4に格納される。
【0052】
ステップS7では、CPU3は、視点の座標および眼画像を取得した時刻(以下、視線検出時刻)をメモリ部4に格納し、視線検出処理を終了する。
【0053】
なお、視線検出方法は上記方法に限られず、眼画像に基づいて視線を検出する如何なる方法であってもよい。また、視線検出の結果(最終結果)として視点の座標(Hx,Hy)を得る例を説明したが、回転角θx,θyなど、視線に関する情報(視線情報)であれば、どのような情報が視線検出の結果として得られてもよい。
【0054】
<アイコン表示制御処理の説明>
図8A~8Cを用いて、ユーザーの視線が向けられた被写体を示すアイコンの表示制御について説明する。
図8Aは、実施形態1のアイコン表示制御処理を例示するフローチャートである。
図8Aに示す処理は、画像の取得、被写体検出、アイコン表示制御の処理を含む。CPU3は、時系列に画像を取得し、
図8Aに示す処理を繰り返し実行する。
【0055】
ステップS8001では、CPU3は、撮像素子2により撮像され、画像処理部208が各種画像処理を適用して生成した画像を取得する。ステップS8002では、CPU3は、ステップS8001で取得した画像に含まれる被写体を検出する。具体的には、CPU3は、画像から検出した人物の頭部の位置の情報を、被写体位置の情報として取得する。例えば、
図9(a)の画像では、CPU3は、被写体901を検出し、被写体901の頭部の位置の情報を取得する。
【0056】
ステップS8003では、CPU3は、画像に含まれる被写体の動き情報(動き特性の情報、動作の情報)を取得する。CPU3は、ステップS8001で取得した画像を、過去に画像処理部208が生成した画像と比較することで、画像に含まれる被写体の動き情報を取得することができる。例えば、
図9(a)~9(c)は、それぞれ、時刻t1、時刻t1よりも後の時刻t2、時刻t2よりも後の時刻t3に生成された画像である。この場合、CPU3は、被写体901が略等速で移動しているという動き情報を取得することができる。また、
図9(d)のように、画像内で被写体901を含む複数の被写体が検出
され、いずれも同様の動き特性を示している場合、これらの複数の被写体は、被写体群902として扱われる。
【0057】
ステップS8004では、CPU3は、眼用撮像素子17および視線検出回路201により、
図5~7で説明した視線検出処理を行い、視線位置の情報を取得する。ステップS8005では、CPU3は、ステップS8004で視線検出(視線位置の情報の取得)に成功したか否かを判定する。視線検出に成功した場合、処理はステップS8007に進む。視線検出に失敗した場合、処理はステップS8006に進む。
【0058】
ステップS8006では、CPU3は、前回の処理(現在の画像の前に撮像された画像に対する処理)でのアイコン(第1アイテム)の表示位置と表示するか否かの表示状態とを維持し、ステップS8001に戻る。具体的には、CPU3は、前回の処理でアイコンを表示していなかった場合は、現在の画像に対してもアイコンを表示せず、前回の処理でアイコンを表示していた場合は、現在の画像に対し、前回の画像と同じ位置にアイコンを表示するように制御する。
【0059】
なお、CPU3は、視線検出に失敗した場合、視線検出に失敗したことをユーザーに報知するため、視線検出に成功した場合とは異なる態様でアイコンを表示してもよい。例えば、CPU3は、視線検出に失敗した場合、視線検出に成功した場合と異なる色でアイコンを表示したり、アイコンを点滅表示したりする。なお、アイコンの色が頻繁に変わることで視認性が低下しないようにするため、CPU3は、視線検出に失敗したと判定してから所定の時間が経過をしてからアイコンの表示態様を変更するようにしてもよい。
【0060】
ステップS8007では、CPU3は、ステップS8004で取得した視線位置で被写体が検出されているか否かを判定する。CPU3は、ユーザーの視線位置の近傍に、ステップS8002で検出された被写体が存在する場合に、視線位置で被写体が検出されたと判定することができる。視線位置で被写体が検出された場合、処理はステップS8009に進む。視線位置で被写体が検出されていない場合、処理は、ステップS8008に進む。
【0061】
ステップS8008では、CPU3は、ステップS8004で取得した視線位置にアイコンを表示する。例えば、
図10では、ユーザーの視線位置が画像内に含まれる被写体1001から離れた位置に存在するため、CPU3は、検出されたユーザーの視線位置を示すアイコン1002(第2アイテム)を表示する。CPU3は、例えば、画像内に含まれる被写体1001が、ユーザーの視線位置から所定の距離以上離れている場合に、ユーザーの視線位置を示すアイコンを表示する。
【0062】
視線位置を示すアイコン1002を表示する場合、ユーザーの視線位置には被写体が存在しないため、CPU3は、ユーザーの視線が向けられた被写体を示すアイコン(第1アイテム)を表示しない。これにより、CPU3は、被写体1001をユーザーの視線が向けられた被写体として捕捉していないことをユーザーに報知することができる。
【0063】
領域1003は、ユーザーの視線位置の近傍を示す領域である。CPU3は、被写体が視線位置の近傍に存在するか否かを判定するための領域として領域1003を設定する。領域1003は、操作部材41~43を用いてユーザーにより設定されてもよい。また、CPU3は、撮影レンズユニット1Aの焦点距離または合焦位置における撮影物体距離などレンズの光学状態に応じて自動で領域1003を設定してもよく、カメラ1に設定されたAF機能のモード設定などに応じて自動で領域1003を設定してもよい。すなわち、視線位置の近傍は、ユーザーの視線位置を含み、ユーザーまたはCPU3によって設定可能な領域である。
【0064】
ステップS8009では、CPU3は、ユーザーによるカメラ1の撮像の状況に基づいて、ユーザーの視線が向けられた被写体を示すアイコンを表示するか否かを判定する。カメラ1の撮像の状況は、例えば、ユーザーが画像処理部208によって推定された被写体に注目しているか否か、画像の撮像範囲が変化したか否か、画像を撮像する撮像装置の姿勢が変化したか否かといった状況を含む。
【0065】
図8Bを参照して、ステップS8009の処理の詳細を説明する。ステップS8201では、CPU3は、撮影者であるユーザーが撮影したい被写体(視線を向けていると推定された被写体、推定被写体)に注目しているか否かを判定する。
【0066】
ユーザーが推定被写体に注目しているか否かは、眼用撮像素子17で撮像された眼画像から、ユーザーの視線位置の安定度合い、ユーザーのまばたきの有無または頻度などによって判定される。例えば、CPU3は、所定の時間におけるユーザーの視線位置の移動量が第1閾値より小さい場合、または所定の時間におけるまばたきの回数が第2閾値より小さい場合に、ユーザーが推定被写体に注目していると判定することができる。視線位置の安定度合およびまばたきの頻度には個人差があるため、第1閾値および第2閾値は、ユーザーごとにあらかじめ設定できるようにしてもよい。ユーザーが推定被写体に注目している場合、処理はステップS8202に進む。ユーザーが推定被写体に注目していない場合、処理はステップS8203に進む。
【0067】
ステップS8202では、CPU3は、推定被写体を示すアイコンを表示する、と判定する。CPU3は、推定被写体を示すアイコンを表示することで、ユーザーが注目している被写体が撮像対象として捉えられていることをユーザーに報知することができる。例えば、イルカショーなどで撮影したい被写体が所望の位置に移動するのを身構えて待っている場合、サッカーのゴール前での撮影機会を狙っている場合など、ユーザーが注目する被写体を示すアイコンが表示されることで、ユーザーは撮影機会を逃さずにすむ。
【0068】
ステップS8203では、CPU3は、ズーム操作、パン操作またはチルト操作があったか否かを判定する。ズーム操作は、ユーザーの撮影レンズユニット1Aに対するズーム操作およびカメラ1に対するデジタルズーム操作を含む。CPU3は、ズーム操作、パン操作またはチルト操作があったか否かを判定することにより、画像の撮像範囲が変化したか否かを判定する。
【0069】
CPU3は、例えば、ズーム操作が行われた場合、ズーム操作による焦点距離の変化量が第3閾値より大きい場合、またはズーム操作によるズーム倍率の変化量が第4閾値より大きい場合に、画像の撮像範囲が変化したと判定することができる。また、CPU3は、パン操作もしくはチルト操作が行われた場合、またはパン操作もしくはチルト操作による撮像範囲の移動量が第5閾値より大きい場合に、画像の撮像範囲が変化したと判定することができる。第3閾値~第5閾値は、例えば、撮像範囲の変化によって、ユーザーが視線を向けていた被写体を見失う可能性があるか否かに基づいて決定することができる。ズーム操作、パン操作またはチルト操作があった場合、処理はステップS8202に進む。ズーム操作、パン操作またはチルト操作がない場合、処理はステップS8204に進む。
【0070】
ステップS8202では、CPU3は、推定被写体を示す「アイコンを表示」すると判定する。ズーム操作などにより構図が変化すると、ユーザーが視線を向けていた被写体の位置は変化する場合がある。もともと視線を向けていた被写体の位置に、異なる被写体が存在するようになると、ユーザーは、撮影しようとしていた被写体を見失う可能性がある。そこで、CPU3は、ズーム操作などにより画像の撮像範囲が変化したが場合には、推定被写体を示すアイコンを表示することで、ユーザーが撮影しようとしていた被写体を見
失わないようにすることができる。
【0071】
図11(a),11(b)は、ズーム操作に基づくアイコン表示について説明する図である。
図11(a)は、TELE側にズームした状態で被写体1101が、ユーザーの視線が向けられた被写体として推定されている状態を示す。視線位置1102(表示デバイス10上では視線位置1102を示すアイコンは非表示)の近傍には被写体が1つしか存在しないため、ユーザーの視線が向けられた被写体を示すアイコンは非表示となっている。
【0072】
図11(b)は、
図11(a)の状態から、WIDE方向にズーム操作した後の状況を示す。
図11(b)では、画像内に被写体1101とは異なる被写体1103が検出されている。視線位置1102がズーム操作前と同じ位置である場合、ユーザーは、被写体1103が推定被写体として捉えられていないか混乱する可能性がある。そこで、CPU3は、ユーザーが被写体1101に視線を向けている場合、被写体1101が推定被写体として捉えられていることをユーザーに報知するため、被写体1101に対してアイコンを表示すると判定する。
【0073】
ステップS8204では、CPU3は、カメラ1の姿勢が変化したか否かを判定する。カメラ1による撮影では、ユーザーは、画像の長辺が水平方向となるように撮影する横位置と、画像の長辺が鉛直方向となるように撮影する縦位置とを使い分ける。CPU3は、横位置から縦位置への持ち替えなどによって、カメラ1の姿勢が変化したか否かを判定する。CPU3は、姿勢検出部207により、カメラ1の姿勢の情報を取得することができる。
【0074】
なお、CPU3は、ユーザーの視線位置の情報が取得された状態でカメラ1の姿勢が変化したか否かを判定してもよい。ファインダーを覗きながらカメラ1の姿勢を変化させている場合、推定被写体を示すアイコンが表示されることで、ユーザーは、所望の被写体を確認しやすくなる。カメラ1の姿勢が変化した場合、処理はステップS8202に進む。カメラ1の姿勢が変化していない場合、処理はステップS8205に進む。
【0075】
ステップS8202では、CPU3は、推定被写体を示すアイコンを表示すると判定する。カメラ1の姿勢が変化した場合、ユーザーの視線位置は不安定になりやすく、ユーザーがカメラ1の姿勢が変化する前に見ていた被写体を見失わないようにするためである。
【0076】
図12(a),12(b)は、カメラ1の姿勢変化に基づくアイコン表示について説明する図である。
図12(a)は、横位置で撮像している画像の例を示す。
図12(a)では、被写体1201および被写体1202が検出されている。ユーザーの視線は、被写体1201に向けられている。
図12(b)は、
図12(a)の状態から、ユーザーがカメラ1を縦位置に持ち替えた後の画像の例を示す。カメラ1を横位置から縦位置に持ち替える間、構図の変更によりユーザーの視線位置は不安定になる。ユーザーが、被写体1202を、これまで見ていた被写体1201として誤認識しないようにするため、CPU3は、推定被写体を示すアイコン1203を表示すると判定する。
【0077】
ステップS8205では、CPU3は、推定被写体を示すアイコンを表示するか否かは未確定(「アイコン表示は未確定」)と判定する。すなわち、ステップS8201、ステップS8203、ステップS8204のいずれの条件も満たさない場合、CPU3は、後述する
図8AのステップS8020で、被写体の状況に基づき、推定被写体を示すアイコンを表示するか否か判定する。
【0078】
ステップS8206では、CPU3は、推定被写体を示すアイコンが現時点で表示状態
であるか非表示状態であるかを判定する。推定被写体を示すアイコンが非表示状態である場合、処理はステップS8207に進む。推定被写体を示すアイコンが表示状態である場合、
図8Bに示す処理は終了する。
【0079】
ステップS8207では、CPU3は、現在時刻を基準時刻として、メモリ部4に記録する。ステップS8207は、推定被写体を示すアイコンが現時点で非表示状態であり、ステップS8202でアイコンを表示すると判定された場合の処理である。CPU3は、アイコンが非表示状態から表示状態に遷移すると判定された際の時刻(基準時刻)を記録しておくことで、CPU3は、アイコンが表示状態に遷移してからの時間を計測することができる。
【0080】
以上、
図8Bに示す処理によって、CPU3は、撮像の状況(撮影者側の状況)に基づいて、ユーザーの視線が向けられた被写体のアイコンを表示するか否かを判定する。CPU3は、
図8Bの処理を終了し、
図8AのステップS8010に進む。
【0081】
図8AのステップS8010では、CPU3は、ステップS8009による推定被写体を示すアイコンの表示判定の結果が「アイコンを表示」するであったか否かを判定する。判定結果が「アイコンを表示」するであった場合、処理はステップS8011に進む。判定結果が「アイコン表示は未確定」であった場合、処理はステップS8020に進む。
【0082】
ステップS8011では、CPU3は、
図8BのステップS8207で記録した基準時刻から所定時間が経過したか否かを判定する。すなわち、CPU3は、推定被写体を示すアイコンが非表示状態から表示状態に遷移した時刻(基準時刻)から所定時間が経過したか否かを判定する。基準時刻から所定時間が経過した場合、処理はステップS8013に進む。基準時刻から所定時間が経過していない場合、処理はステップS8012に進む。
【0083】
ステップS8012では、CPU3は、推定被写体を示すアイコン(例えば、
図4(a)のアイコン423)を表示する。ステップS8013では、CPU3は、推定被写体を示すアイコンを非表示とする。撮像状況が変化して推定被写体を示すアイコンを表示してから、所定時間が経過した後は、ユーザーは安定して所望の被写体に視線を向けられることが想定されるため、CPU3は、推定被写体を示すアイコンを非表示とする。
【0084】
なお、推定被写体を示すアイコンを非表示状態から表示状態に切り替えて所定時間が経過すると、自動的に非表示とする例を示したが、CPU3は、アイコンの表示状態を維持してもよい。また、基準時刻から推定被写体を示すアイコンを非表示とするまでの所定時間は、ユーザーによって設定できるようにしてもよい。ステップS8012およびステップS8013において、推定被写体を示すアイコンがそれぞれ表示状態および非表示状態になると、処理はステップS8001に戻る。
【0085】
ステップ8020では、CPU3は、被写体の状況に基づいて、ユーザーの視線が向けられた被写体を示すアイコンを表示するか否かを判定する。被写体の状況は、例えば、画像に含まれる被写体の数が変化したか否か、画像に含まれる被写体の数が2つ以上であるか否か、推定被写体が加速または減速する動作しているか否か、推定被写体が合焦状態であるか否かといった状況を含む。
【0086】
図8Cを参照して、ステップS8020の処理の詳細を説明する。ステップS8301では、CPU3は、前回の画像(フレーム)から、画像内の被写体の数に増減があるか否かを判定する。なお、被写体の数は、画像内の被写体の数に限られず、視線位置の近傍で検出される被写体の数としてもよい。具体的には、被写体の数は、視線が向けられた推定被写体を含む所定の範囲で検出される被写体の数とすることができる。所定の範囲は、例
えば、画像を撮像する際の焦点距離、撮影距離、撮影モード情報および推定被写体の大きさのうちの少なくともいずれかに基づいて決定することができる。検出対象の被写体は、人物、動物、自動車など画像の解析により検出可能な被写体である。
【0087】
なお、CPU3は、画像に含まれる被写体のうち所定の種別の被写体を検出するようにしてもよい。例えば、ユーザーが所定の種別として動物を設定した場合、CPU3は、動物を被写体として検出する。ユーザーは、所定の種別として複数の種別の被写体を設定してもよい。検出された被写体の数に増減がある場合、処理はS8302に進む。検出された被写体の数に増減がない場合、処理はS8303に進む。
【0088】
ステップS8302では、CPU3は、推定被写体を示すアイコンを表示する、と判定する。推定被写体を示すアイコンを表示されることで、被写体の数に増減があった場合でも、ユーザーは、自身が見ている被写体を容易に確認することができる。
【0089】
ステップS8303では、CPU3は、視線位置の近傍で検出される被写体の数が1つであるか否かを判定する。被写体の数が1つである場合、処理はステップS8304に進む。被写体の数が複数である場合、処理はステップS8307へ進む。
【0090】
ステップS8304では、CPU3は、画面内の視線位置の近傍に存在する1つの被写体が合焦状態であるか否かを判定する。被写体が合焦状態である場合、処理はステップS8305に進む。被写体が合焦状態でない場合、処理はステップS8306に進む。
【0091】
ステップS8305では、CPU3は、「アイコンを非表示」にすると判定する。ステップS8306では、CPU3は、「アイコンを表示」すると判定する。CPU3は、ユーザーが視線を向けている被写体が非合焦状態である場合にアイコンを表示することで、当該被写体が合焦状態でないことをユーザーに報知することができる。
【0092】
図13(a),13(b)は、ステップS8301~S8306の処理で説明した被写体数の変化に基づくアイコン表示について説明する図である。
図13(a)は、時刻t11に、被写体1301が視線位置1302の近傍に存在する状況を示す。ユーザーの視線が向けられる対象が被写体1301であることが明白なため、推定被写体を示すアイコンおよび視線位置1302を示すアイコンは非表示とされる。
【0093】
図13(b)は、
図13(a)の状況の後、構図内に異なる被写体1303が入り込んできた状態を示す。被写体1303は視線位置1304の近傍に現れたため、CPU3は、被写体1301および被写体1303のどちらに視線が向けられていたかをユーザーに報知することが好ましい。したがって、CPU3は、ユーザーの視線が向けられた被写体を示すアイコン1305を表示する。なお、視線位置1304を示すアイコンは非表示とされる。
【0094】
ステップS8307では、CPU3は、ユーザーの視線位置の近傍に存在する被写体が静止または等速動作中であるか否かを判定する。ステップS8307は視線位置の近傍に複数の被写体が存在する場合に実行される処理である。CPU3は、視線位置の近傍の被写体の動き特性の情報(動き情報)を取得する。動き情報は、
図9(a)~9(c)を用いて説明した
図8AのステップS8003の方法と同様に取得することができる。被写体の動き特性(動作)によっては、ユーザーが所望の被写体を見失わないように、ユーザーの視線が向けられた被写体を示すアイコンが表示されることが好ましい。
【0095】
CPU3は、動き情報に基づいて、視線位置の近傍に存在する被写体が静止または等速動作中であると判定した場合、ステップS8308に進む。一方、CPU3は、視線位置
の近傍に存在する被写体のいずれかが、加速または減速しながら動作していると判定した場合、ステップS8310に進む。
【0096】
ステップS8308では、CPU3は、ユーザーが視線を向けている被写体が合焦状態であるか否かを判定する。ユーザーが視線を向けている被写体が合焦状態である場合、処理はステップS8309に進む。ユーザーが視線を向けている被写体が非合焦状態である場合、処理はステップS8310に進む。
【0097】
ステップS8309では、CPU3は、「アイコンを非表示」にすると判定する。被写体が合焦状態である場合、ユーザーの視線は安定して所望の被写体に向けられていると想定されるため、推定被写体を示すアイコンは非表示にすると判定される。
【0098】
ステップS8310では、CPU3は、「アイコンを表示」すると判定する。被写体が非合焦状態である場合、ユーザーが安定していないと想定されるため、推定被写体を示すアイコンを表示すると判定される。また、視線位置の近傍に存在する被写体が、加速または減速しながら動作している場合(例えば、ダンスなどの激しい動きをしている場合)、CPU3は、ユーザーが視線を向けている被写体を示すアイコンを表示すると判定する。ユーザーが視線を向けている被写体を示すアイコンが表示されることで、ユーザーは所望の被写体を見失いにくくなる。
【0099】
図14(a)~14(d)は、ステップS8307~S8310の処理で説明した被写体の動き情報に基づくアイコン表示について説明する図である。
図14(a)は、いわゆるポートレート撮影の例であり、複数の被写体は静止状態である。画像から検出された被写体1401は非合焦状態とする。CPU3は、視線位置1402の近傍に存在する被写体1401にユーザーの視線が向けられていると推定し、被写体1401が推定被写体であることを示すアイコン1403を表示する。
【0100】
図14(b)は、被写体1401が合焦状態となった状況を示す。CPU3は、被写体1401に対して、合焦状態であることを示すアイコン1404を表示し、推定被写体であることを示すアイコン1403を非表示とする。CPU3は、合焦状態であることを示すアイコン1404を優先して表示することで、表示する情報量を抑制し、視認性を確保することができる。また、CPU3は、被写体1401が合焦状態になったことを、ユーザーに対して適時に報知することができる。
【0101】
図14(c)は、視線位置の近傍の被写体1411と周辺に存在する複数の被写体とを含む被写体群1414が、同様の動き特性を有する状況を示す。
図14(c)は、時刻t21での状況を示す。CPU3は、視線位置1412の近傍に存在する被写体1411に対して、推定被写体であることを示すアイコン1413を表示する。
【0102】
図14(d)は、
図14(c)の状況の後、被写体1411と周辺に存在する複数の被写体とを含む被写体群1414が同じ向きに略等速で移動している状況を示す。
図14(d)は、時刻t22での状況を示す。このとき視線位置1412の近傍には、被写体1411とは異なる被写体1415が存在する。したがって、ユーザーの視線が向けられた被写体は、被写体1415と推定される。
【0103】
図14(d)では、被写体1415は合焦状態であるものとする。時刻t22では、被写体群1414に含まれる被写体1411および被写体1415は、同様の動き特性により移動している。CPU3は、被写体1415に対して合焦状態であることを示すアイコン1416を表示するが、推定被写体であることを示すアイコンは表示しない。CPU3は、被写体1415が推定被写体であることを示すアイコンは表示せず、アイコン141
6を優先して表示することで、表示する情報量を抑制して視認性を確保することができる。また、CPU3は、被写体1415が合焦状態になったことを、ユーザーに対して適時に報知することができる。
【0104】
ステップS8312では、CPU3は、ステップS8301~S8310までの処理で「アイコンを表示」すると判定されたか、「アイコンを非表示」にすると判定されたかを判定する。「アイコンを表示」すると判定された場合、処理はステップS8313に進む。「アイコンを非表示」にすると判定された場合、
図8Cに示す処理は終了する。
【0105】
ステップS8313では、CPU3は、推定被写体を示すアイコンが現時点で表示状態であるか非表示状態であるかを判定する。推定被写体を示すアイコンが非表示状態である場合、処理はステップS8314に進む。推定被写体を示すアイコンが表示状態である場合、
図8Cに示す処理は終了する。
【0106】
ステップS8314では、CPU3は、現在時刻を基準時刻として、メモリ部4に記録する。ステップS8314は、推定被写体を示すアイコンが現時点で非表示状態であり、「アイコンを表示」すると判定された場合の処理である。CPU3は、アイコンが非表示状態から表示状態に切り替えると判定された時刻(基準時刻)を記録しておくことで、CPU3は、アイコンが表示状態に遷移してからの時間を計測することができる。
【0107】
以上、
図8Cに示す処理によって、CPU3は、被写体の状況に基づいて、ユーザーの視線が向けられた被写体のアイコンを表示するか否かを判定する。CPU3は、
図8Cの処理を終了し、
図8AのステップS8021に進む。
【0108】
図8AのステップS8021では、CPU3は、ステップS8020による推定被写体を示すアイコンの表示判定の結果が「アイコンを表示」するであったか否かを判定する。判定結果が「アイコンを表示」するであった場合、処理はステップS8022に進む。判定結果が「アイコンを非表示」にするであった場合、処理はステップS8025に進む。
【0109】
ステップS8022では、CPU3は、
図8CのステップS8314で記録した基準時刻から所定時間が経過したか否かを判定する。すなわち、CPU3は、推定被写体を示すアイコンが非表示状態から表示状態に遷移した時刻(基準時刻)から所定時間が経過したか否かを判定する。基準時刻から所定時間が経過した場合、処理はステップS8024に進む。基準時刻から所定時間が経過していない場合、処理はステップS8023に進む。
【0110】
ステップS8023では、CPU3は、ユーザーの視線が向けられた被写体(推定被写体)を示すアイコンを表示する。ステップS8024では、CPU3は、推定被写体を示すアイコンを非表示にする。ステップS8023およびステップS8024において、推定被写体を示すアイコンがそれぞれ表示状態および非表示状態になると、処理はステップS8001に戻る。
【0111】
ステップS8025では、CPU3は、ステップS8020の判定結果に対応して、ユーザーの視線が向けられた被写体(推定被写体)を示すアイコンを非表示にする。ステップS8026では、CPU3は、ステップS8207またはステップS8314で記録した基準時刻を初期化し、ステップS8001に戻る。
【0112】
上記の実施形態1によれば、カメラ1は、画像の撮像の状況および画像に含まれる被写体の状況の少なくとも一方に基づいて、ユーザーが視線を向けていると推定された被写体(推定被写体)を示すアイコンを表示するか否かを制御する。カメラ1は、推定被写体を示すアイコンを、自動的に表示したり非表示にしたりすることで、状況に応じた視認性の
確保および操作性の向上を両立させることが可能となる。
【0113】
なお、
図8Aで説明したアイコン表示制御処理は、撮像状況に基づくアイコン表示判定(
図8B)の後に、被写体状況に基づくアイコン表示判定(
図8C)をする処理の例を示すが、判定の順序はこれに限られない。CPU3は、撮像状況として説明した各種条件および被写体状況として説明した各種条件のうちの少なくともいずれかの条件を、任意の順序で判定することにより、推定被写体を示すアイコンを表示するか否かを判定してもよい。
【0114】
[実施形態2]
実施形態1では、カメラ1は、視線位置の近傍に存在する被写体の合焦状態を判定し、合焦状態である場合に、ユーザーの視線が向けられた被写体(推定被写体)を示すアイコンを非表示とするように制御する。一方、一般的な撮影手法として、特定の被写体にピントを合わせた後に構図を変える場合(フォーカスロック)、ピント位置を維持したまま他の被写体を探索するために視線位置を変える場合などが存在する。実施形態2は、被写体が合焦状態になってから、ユーザーが構図を変えたり視線位置を変えたりする場合に、推定被写体を示すアイコンを表示する実施形態である。被写体が合焦状態になった後も、推定被写体を示すアイコンを継続して表示することで、フォーカスロックおよび他の被写体の探索などに関する操作性は向上する。
【0115】
図15は、実施形態2に係るアイコン表示判定処理のフローチャートである。
図15の処理は、
図8Cの被写体状況に基づくアイコン表示判定処理に対し、ステップS8501~S8504およびステップS8505~S8513を追加した処理である。
図8Cと同じ処理については、同じ符号を付して詳細な説明は省略する。
【0116】
ステップS8304で、画面内の視線位置の近傍に存在する1つの被写体が合焦状態であると判定された場合、処理はステップS8501に進む。ステップS8501では、画面内の視線位置の近傍に1つの被写体が存在し、その被写体は合焦状態である。ステップS8501では、CPU3は、合焦状態の被写体に対してフォーカス位置が固定されたフォーカスロック状態であって、視線位置がフォーカスロック対象の被写体(合焦状態の被写体)とは異なる位置にあるか否かを判定する。
【0117】
視線位置がフォーカスロック対象の被写体とは異なる位置にあるか否かは、例えば、フォーカスロック対象の被写体(合焦状態の被写体)と視線位置との距離が所定の閾値以上であるか否かによって判定することができる。CPU3は、フォーカスロック対象の被写体と視線位置との距離が所定の閾値以上である場合に、視線位置がフォーカスロック対象の被写体とは異なる位置にあると判定する。所定の閾値は、カメラ1の撮影モード、焦点距離といったレンズの状態などに基づいて動的に切り替えられてもよい。
【0118】
視線位置がフォーカスロック対象の被写体とは異なる位置にある場合、処理はステップS8502に進む。視線位置がフォーカスロック対象の被写体の位置にない場合、処理はステップS8504に進む。
【0119】
ステップS8502では、CPU3は、視線位置の近傍に、フォーカスロック対象の被写体とは異なる被写体が存在するか否かを判定する。視線位置の近傍に被写体が存在する場合、処理はステップS8503に進む。視線位置の近傍に被写体が存在しない場合、処理はステップS8504に進む。
【0120】
ステップS8503では、CPU3は、「アイコンを表示」すると判定する。ステップS8504では、CPU3は、「アイコンを非表示」にすると判定する。ユーザーがフォ
ーカスロック対象の被写体とは異なる被写体を見ている場合、CPU3は、ユーザーの視線が向けられた被写体を示すアイコンを表示することで、ユーザーに対し推定被写体を報知することができる。
【0121】
ステップS8308で、ユーザーが視線を向けている被写体が合焦状態であると判定された場合、処理はステップS8505に進む。ステップS8505では、視線位置の近傍に複数の被写体が存在する。複数の被写体は静止または等速動作中であり合焦状態である。ステップS8505では、CPU3は、合焦状態の被写体が静止しているか、等速で動作しているかを判定する。合焦状態の被写体が静止している場合、処理はステップS8506に進む。合焦状態の被写体が等速動作中である場合、処理はステップS8510に進む。
【0122】
ステップS8506では、合焦状態の被写体に対してフォーカス位置が固定されたフォーカスロック状態であり、CPU3は、視線位置がフォーカスロック対象の被写体(合焦状態の被写体)とは異なる位置にあるか否かを判定する。視線位置がフォーカスロック対象の被写体とは異なる位置にある場合、処理はステップS8507に進む。視線位置がフォーカスロック対象の被写体の位置にある場合、処理はステップS8509に進む。
【0123】
ステップS8507では、CPU3は、視線位置の近傍に、フォーカスロック対象の被写体とは異なる被写体が存在するか否かを判定する。視線位置の近傍に被写体が存在する場合、処理はステップS8508に進む。視線位置の近傍に被写体が存在しない場合、処理はステップS8509に進む。
【0124】
ステップS8508では、CPU3は、「アイコンを表示」すると判定する。ステップS8509では、CPU3は、「アイコンを非表示」にすると判定する。ユーザーがフォーカスロック対象の被写体とは異なる被写体を見ている場合、CPU3は、推定被写体を示すアイコンを表示することで、ユーザーの視線が向けられた被写体を、ユーザーに報知することができる。
【0125】
図16(a)~16(d)は、フォーカスロック状態でのアイコン表示について説明する図である。
図16(a)および
図16(b)の被写体1401、視線位置1402、アイコン1403、アイコン1404は、実施形態1の
図14(a),14(b)と同様である。
図16(a)では、視線位置1402の近傍に被写体1401が存在する。
図16(b)では、被写体1401が合焦状態となり、合焦状態であることを示すアイコン1404が表示される。一方、推定被写体を示すアイコン1403は非表示となる。また、CPU3は、被写体1401に対してフォーカスをロック状態に設定する。
【0126】
図16(c)は、
図16(b)で被写体1401に対してフォーカスをロックした状態から、ユーザーの視線が被写体1401とは異なる視線位置1601に移動した状況を示す。ユーザーの視線が視線位置1601に移動しても、被写体1401に対してフォーカスロック状態である場合、CPU3は、被写体1401が合焦状態であることを示すアイコン1404の表示を維持する。視線位置1601の近傍には被写体が存在しないため、CPU3は、ユーザーの視線が向けられている被写体を示すアイコン(第1アイテム)および視線位置を示すアイコン(第2アイテム)を表示しない。
【0127】
図16(d)は、
図16(c)の状況から、ユーザーの視線が視線位置1602に移動した状況を示す。ユーザーの視線が視線位置1601に移動しても、被写体1401に対してフォーカスロック状態であるため、CPU3は、被写体1401が合焦状態であることを示すアイコン1404の表示を維持する。また、CPU3は、視線位置1602の近傍に存在する被写体1603に対して、ユーザーの視線が向けられた被写体を示すアイコ
ン1604を表示する。合焦位置を示すアイコン1404および推定被写体を示すアイコン1604を表示することにより、CPU3は、合焦位置とともに、ユーザーが視線を向けた他の所望の被写体を、ユーザーに報知することが可能となる。
【0128】
なお、フォーカスロック機能はオートフォーカスのモードがワンショットモードである場合に動作することが一般的であるが、実施形態2は、サーボモードといった他のモードでも適用可能である。例えば、被写体1401がサーボモードで合焦している状況で、ユーザーが視線を他の被写体に移した場合、CPU3は、
図16(c),16(d)で説明した処理と同様に各アイコンの表示制御をしてもよい。
【0129】
ステップS8510では、合焦状態の被写体が等速動作中であり、CPU3は、視線位置が合焦状態(動体被写体に対してピント追従が成功している状態)の被写体とは異なる位置にあるか否かを判定する。視線位置がフォーカスロック対象の被写体とは異なる位置にある場合、処理はステップS8511に進む。視線位置が合焦状態の被写体の位置にある場合、処理はステップS8513に進む。
【0130】
ステップS8511では、CPU3は、視線位置の近傍に、ピント追従に成功している被写体とは異なる被写体が存在するか否かを判定する。視線位置の近傍に被写体が存在する場合、処理はステップS8512に進む。視線位置の近傍に被写体が存在しない場合、処理はステップS8513に進む。
【0131】
ステップS8512では、CPU3は、「アイコンを表示」すると判定する。ステップS8513では、CPU3は、「アイコンを非表示」にすると判定する。ユーザーがピント追従に成功している等速動作中の被写体とは異なる被写体を見ている場合、CPU3は、推定被写体を示すアイコンを表示することで、ユーザーの視線が向けられた被写体を報知することができる。
【0132】
図17(a)~17(c)は、ピント追従状態でのアイコン表示について説明する図である。
図17(a)および
図17(b)の被写体1411、視線位置1412、アイコン1413、被写体1415、アイコン1416は、実施形態1の
図14(c),14(d)と同様である。被写体1411および被写体1415は、等速で移動中(等速動作中)であり、
図17(b)では、視線位置1412の近傍に存在する被写体1415が合焦状態となっている。CPU3は、被写体1415が合焦状態であることを示すアイコン1416を表示し、ユーザーの視線が向けられた被写体(
図17(b)では被写体1415)を示すアイコンを非表示にする。
【0133】
図17(c)では、CPU3は、被写体1415に対してサーボAFモード(被写体の動きに合わせてピントを合わせ続けるモード)などでピント位置の追従または予測動作を行う。
図17(c)は、被写体1415が合焦状態でピント追従に成功している状態で、ユーザーの視線が視線位置1701に移動した状況を示す。
【0134】
ユーザーの視線が視線位置1701に移動しても、被写体1415に対してピント追従に成功している場合、CPU3は、被写体1415が合焦状態であることを示すアイコン1416の表示を維持する。また、CPU3は、視線位置1701の近傍に存在する被写体1702に対して、ユーザーの視線が向けられた被写体を示すアイコン1703を表示する。合焦位置を示すアイコン1416および推定被写体を示すアイコン1703を表示することにより、CPU3は、合焦位置とともに、ユーザーが視線を向けた他の所望の被写体を、ユーザーに報知することが可能となる。
【0135】
上記の実施形態2によれば、カメラ1は、被写体が合焦状態となり、当該被写体が推定
被写体であることを示すアイコンを非表示としても、ユーザーの視線が他の被写体に移った場合には、他の被写体が推定被写体であることを示すアイコンを表示する。すなわち、カメラ1は、視線位置近傍の被写体に対して合焦またはピント追従している状態において、視認性を良くするために視線が向けられた被写体を示すアイコンを非表示とする。そして、カメラ1は、ユーザーが他の被写体に視線を移した場合には、視線位置近傍の被写体に対し、ユーザーの視線が向けられた被写体(推定被写体)を示すアイコンを表示する。カメラ1は、被写体への合焦またはピント追従状態で、ユーザーが他の被写体に視線を向けた場合に、推定被写体を示すアイコンを表示することで、視認性の確保および操作性の向上を両立させることが可能となる。
【0136】
なお、上記実施形態はあくまで一例であり、本発明の要旨の範囲内で上記実施形態の構成を適宜変形したり変更したりすることにより得られる構成も、本発明に含まれる。上記実施形態の構成を適宜組み合わせて得られる構成も、本発明に含まれる。
【0137】
例えば、EVF(電子ビューファインダー)で被写体を見る場合の例を説明したが、OVF(光学ビューファインダー)で被写体を見る場合にも本発明は適用可能である。本発明は撮像装置(カメラ)以外にも適用可能であり、3次元のコンピュータグラフィックなどを見る場合にも適用可能である。本発明は、視点を検出することのできる様々な電子機器に適用可能である。
【0138】
[他の電子機器への適用例]
図18(a)は、ノート型パーソナルコンピュータ1810(ノートPC)の外観図である。
図18(a)では、ノートPC1810の表示部1811を見るユーザーを撮像する撮像ユニット1815がノートPC1810に接続されており、ノートPC1810は撮像ユニット1815から撮像結果を取得する。そして、ノートPC1810は、撮像結果に基づいてユーザーの視点を検出する。本発明は、ノートPC1810にも適用可能である。
【0139】
図18(b)は、スマートフォン1820の外観図である。
図18(b)では、スマートフォン1820は、インカメラ1821(フロントカメラ)の撮像結果に基づいて、スマートフォン1820の表示部1822を見るユーザーの視点を検出する。本発明は、スマートフォン1820にも適用可能である。同様に、本発明は、種々のタブレット端末にも適用可能である。
【0140】
図18(c)は、ゲーム機1830の外観図である。
図18(c)では、ゲームのVR(Virtual Reality)画像を表示部1836に表示するヘッドマウントディスプレイ1835(HMD)が、ゲーム機1830に接続されている。HMD1835は、HMD1835を装着したユーザーの眼を撮像するカメラ1837を有しており、ゲーム機1830は、HMD1835から撮像結果を取得する。そして、ゲーム機1830は、撮像結果に基づいてユーザーの視点を検出する。本発明は、ゲーム機1830にも適用可能である。ゲーム機1830の構成要素はHMD1835に内蔵されていてもよい。従って、本発明は、HMD1835にも適用可能である。HMDに表示したVR画像を見る場合に本発明が適用可能であるのと同様に、眼鏡型のウェアラブル端末のレンズ部分などに表示したAR(Augmented Reality)画像や、レンズ部分の先にある実物を見る場合にも本発明は適用可能である。VR技術やAR技術に本発明が適用可能であるのと同様に、MR(Mixed Reality)技術やSR(Substitutional Reality)技術などの別のxR技術にも本発明は適用可能である。
【0141】
[その他の実施形態]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は
記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
【0142】
本実施形態の開示は、以下の構成、方法、プログラムおよび媒体を含む。
(構成1)
撮像された画像を見るユーザーの視線位置の情報を取得する取得手段と、
前記ユーザーの視線位置に基づいて、前記ユーザーの視線が向けられた被写体を推定する推定手段と、
前記画像の撮像の状況および前記画像に含まれる被写体の状況の少なくとも一方に基づいて、前記推定手段によって推定された被写体を示す第1アイテムを表示するか否かを制御する制御手段と
を有することを特徴とする電子機器。
(構成2)
前記制御手段は、前記ユーザーの視線位置が前記画像に含まれる被写体から離れた位置に存在する場合に、前記ユーザーの視線位置を示す第2アイテムを表示するように制御する
ことを特徴とする構成1に記載の電子機器。
(構成3)
前記制御手段は、
前記ユーザーが前記推定手段によって推定された被写体に注目している場合、
前記画像の撮像範囲が変化した場合、または
前記画像を撮像する撮像装置の姿勢が変化した場合に、
前記第1アイテムを表示するように制御する
ことを特徴とする構成1または2に記載の電子機器。
(構成4)
前記制御手段は、所定の時間における前記ユーザーの視線位置の移動量が第1閾値より小さい場合、または所定の時間におけるまばたきの回数が第2閾値より小さい場合に、前記ユーザーが前記推定手段によって推定された被写体に注目していると判定する
ことを特徴とする構成3に記載の電子機器。
(構成5)
前記制御手段は、ズーム操作が行われた場合、前記ズーム操作による焦点距離の変化量が第3閾値より大きい場合、または前記ズーム操作によるズーム倍率の変化量が第4閾値より大きい場合に、前記画像の撮像範囲が変化したと判定する
ことを特徴とする構成3に記載の電子機器。
(構成6)
前記制御手段は、パン操作もしくはチルト操作が行われた場合、または前記パン操作もしくは前記チルト操作による撮像範囲の移動量が第5閾値より大きい場合に、前記画像の撮像範囲が変化したと判定する
ことを特徴とする構成3に記載の電子機器。
(構成7)
前記制御手段は、前記ユーザーの視線位置の情報が取得された状態で前記撮像装置の姿勢が変化したか否かを判定する
ことを特徴とする構成3に記載の電子機器。
(構成8)
前記制御手段は、
前記画像に含まれる被写体の数が変化した場合、
前記画像に含まれる被写体の数が2つ以上である場合、
前記推定手段によって推定された被写体が加速または減速する動作をしている場合、または
前記推定手段によって推定された被写体が合焦状態でない場合に、
前記第1アイテムを表示するように制御する
ことを特徴とする構成1~7のいずれかに記載の電子機器。
(構成9)
前記被写体の数は、前記画像に含まれる被写体のうち所定の種別の被写体の数である
ことを特徴とする構成8に記載の電子機器。
(構成10)
前記被写体の数は、前記推定手段によって推定された被写体を含む所定の範囲で検出される被写体の数である
ことを特徴とする構成8または9に記載の電子機器。
(構成11)
前記所定の範囲は、前記画像を撮像する際の焦点距離、撮影距離、撮影モード情報および前記推定手段によって推定された被写体の大きさのうちの少なくともいずれかに基づいて決定される
ことを特徴とする構成10に記載の電子機器。
(構成12)
前記制御手段は、前記推定手段によって推定された被写体が合焦状態であり、前記合焦状態の被写体とは異なる被写体に対して、前記ユーザーの視線位置が検出された場合に、前記第1アイテムを表示するように制御する
ことを特徴とする構成8~11のいずれかに記載の電子機器。
(構成13)
前記制御手段は、前記ユーザーの視線位置の情報の取得に失敗した場合、
前記画像の前に撮像された画像に対して前記第1アイテムを表示していなかった場合は、前記画像に対しても前記第1アイテムを表示せず、
前記画像の前に撮像された画像に対して前記第1アイテムを表示していた場合は、前記画像に対し、前記画像の前に撮像された画像と同じ位置に前記第1アイテムを表示する、
ように制御する
ことを特徴とする構成1~12のいずれかに記載の電子機器。
(構成14)
前記制御手段は、前記ユーザーの視線位置の情報の取得に失敗し、前記画像に対して前記第1アイテムを表示する場合、前記ユーザーの視線位置の情報の取得に成功した場合とは異なる態様で前記第1アイテムを表示する
ことを特徴とする構成13に記載の電子機器。
(方法)
撮像された画像を見るユーザーの視線位置の情報を取得する取得ステップと、
前記ユーザーの視線位置に基づいて、前記ユーザーの視線が向けられた被写体を推定する推定ステップと、
前記画像の撮像の状況および前記画像に含まれる被写体の状況の少なくとも一方に基づいて、前記推定ステップで推定された被写体を示す第1アイテムを表示するか否かを制御する制御ステップと
を有することを特徴とする電子機器の制御方法。
(プログラム)
コンピュータを、構成1~14のいずれかに記載の電子機器の各手段として機能させるためのプログラム。
(媒体)
コンピュータを、構成1~14のいずれかに記載の電子機器の各手段として機能させるためのプログラムを格納したコンピュータが読み取り可能な記憶媒体。
【符号の説明】
【0143】
1:カメラ(電子機器)、3:CPU、10:表示デバイス、11:表示デバイス駆動回路、17:眼用撮像素子、201:視線検出回路、208:画像処理部