IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ キヤノン株式会社の特許一覧

特許7567012電子機器、電子機器の制御方法、プログラムおよび記憶媒体
<>
  • 特許-電子機器、電子機器の制御方法、プログラムおよび記憶媒体 図1
  • 特許-電子機器、電子機器の制御方法、プログラムおよび記憶媒体 図2
  • 特許-電子機器、電子機器の制御方法、プログラムおよび記憶媒体 図3
  • 特許-電子機器、電子機器の制御方法、プログラムおよび記憶媒体 図4
  • 特許-電子機器、電子機器の制御方法、プログラムおよび記憶媒体 図5
  • 特許-電子機器、電子機器の制御方法、プログラムおよび記憶媒体 図6
  • 特許-電子機器、電子機器の制御方法、プログラムおよび記憶媒体 図7
  • 特許-電子機器、電子機器の制御方法、プログラムおよび記憶媒体 図8
  • 特許-電子機器、電子機器の制御方法、プログラムおよび記憶媒体 図9
  • 特許-電子機器、電子機器の制御方法、プログラムおよび記憶媒体 図10
  • 特許-電子機器、電子機器の制御方法、プログラムおよび記憶媒体 図11
  • 特許-電子機器、電子機器の制御方法、プログラムおよび記憶媒体 図12
  • 特許-電子機器、電子機器の制御方法、プログラムおよび記憶媒体 図13
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-10-04
(45)【発行日】2024-10-15
(54)【発明の名称】電子機器、電子機器の制御方法、プログラムおよび記憶媒体
(51)【国際特許分類】
   H04N 23/63 20230101AFI20241007BHJP
   H04N 23/611 20230101ALI20241007BHJP
   G02B 7/28 20210101ALI20241007BHJP
   G03B 13/02 20210101ALI20241007BHJP
   G03B 15/00 20210101ALI20241007BHJP
   G03B 17/20 20210101ALI20241007BHJP
【FI】
H04N23/63 300
H04N23/611
G02B7/28 N
G03B13/02
G03B15/00 Q
G03B17/20
【請求項の数】 14
(21)【出願番号】P 2023185320
(22)【出願日】2023-10-30
(62)【分割の表示】P 2019162729の分割
【原出願日】2019-09-06
(65)【公開番号】P2024003037
(43)【公開日】2024-01-11
【審査請求日】2023-10-31
(73)【特許権者】
【識別番号】000001007
【氏名又は名称】キヤノン株式会社
(74)【代理人】
【識別番号】110002860
【氏名又は名称】弁理士法人秀和特許事務所
(72)【発明者】
【氏名】坂東 和馬
(72)【発明者】
【氏名】形川 浩靖
【審査官】藏田 敦之
(56)【参考文献】
【文献】特開2018-129659(JP,A)
【文献】特開2018-205648(JP,A)
【文献】特開平5-304631(JP,A)
【文献】特開平9-160112(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
H04N 23/63
H04N 23/611
G02B 7/28
G03B 13/02
G03B 15/00
G03B 17/20
(57)【特許請求の範囲】
【請求項1】
入力画像と第1のGUI画像と第2のGUI画像とを表示部に表示する表示制御手段と、
前記入力画像における所定の物体の位置を検出する第1の検出手段と、
前記入力画像におけるユーザの視点を検出する第2の検出手段と、
を有し、
前記表示制御手段は、
前記第1の検出手段により検出される前記所定の物体の位置に対応する位置に前記第1のGUI画像を表示し、前記第2の検出手段により検出される前記視点に対応する位置に前記第2のGUI画像を表示し、
前記第1のGUI画像と前記第2のGUI画像とが重なりあう場合に、前記第1のGUI画像と前記第2のGUI画像とが重なりあわない場合に比べて、前記第1のGUI画像を目立たなくする、
ことを特徴とする電子機器。
【請求項2】
前記所定の物体の位置が前記視点に基づいて検出される場合に、前記表示制御手段は、前記第のGUI画像を表示しない、
ことを特徴とする請求項1に記載の電子機器。
【請求項3】
前記第の検出手段は、前記入力画像を構成するフレーム画像を用いて前記所定の物体を追尾する、
ことを特徴とする請求項1または2に記載の電子機器。
【請求項4】
前記所定の物体は顔である、
ことを特徴とする請求項1からのいずれか一項に記載の電子機器。
【請求項5】
前記視点に基づかずに検出された前記所定の物体の位置の信頼度が閾値より低い場合に、前記第1の検出手段は、前記視点に基づいて前記所定の物体の位置を検出する、
ことを特徴とする請求項1からのいずれか一項に記載の電子機器。
【請求項6】
前記第の検出手段は、
前記視点に基づかずに物体の位置を抽出し、
前記信頼度が前記閾値より低い場合に、前記抽出された前記物体の位置を前記視点に基づいて補正して、前記補正された物体の位置を前記視点に基づいて検出された位置として検出し、
前記信頼度が前記閾値より高い場合に、前記抽出された前記物体の位置を前記視点に基づいて補正せずに、前記抽出された前記物体の位置を前記視点に基づかずに検出された位置として検出する、
ことを特徴とする請求項に記載の電子機器。
【請求項7】
前記第の検出手段が前記視点を検出する場合の前記閾値は、前記視点を検出しない場合に比べて大きい、
ことを特徴とする請求項またはに記載の電子機器。
【請求項8】
前記第1のGUI画像と前記第2のGUI画像とが重なりあう場合に、前記表示制御手段は、前記第のGUI画像が前記第のGUI画像より目立つように前記第のGUI画像の輝度、色、サイズおよび透明度のうち少なくともいずれかを変える、
ことを特徴とする請求項1から7のいずれか一項に記載の電子機器。
【請求項9】
前記第1のGUI画像と前記第2のGUI画像とが重なりあう場合に、前記表示制御手段は、前記第1のGUI画像が前記第2のGUI画像より目立たなくなるように前記第のGUI画像の輝度、色、サイズおよび透明度のうち少なくともいずれかを変える、
ことを特徴とする請求項1から8のいずれか一項に記載の電子機器。
【請求項10】
前記第1のGUI画像と前記第2のGUI画像とが重なりあう場合に、前記表示制御手段は、前記第のGUI画像を表示しない、
ことを特徴とする請求項1から7のいずれか一項に記載の電子機器。
【請求項11】
前記表示制御手段は、
前記信頼度が前記閾値より低い場合に、前記入力画像におけるユーザの視点を示す第2のGUI画像を表示し、
前記信頼度が前記閾値より高い場合に、前記入力画像におけるユーザの視点を示す第2のGUI画像を表示しない、
ことを特徴とする請求項からのいずれか一項に記載の電子機器。
【請求項12】
入力画像と第1のGUI画像と第2のGUI画像とを表示部に表示する表示制御ステップと、
前記入力画像における所定の物体の位置を検出する第1の検出ステップと、
前記入力画像におけるユーザの視点を検出する第2の検出ステップと、
を有し、
前記表示制御ステップでは、
前記第1の検出ステップで検出される前記所定の物体の位置に対応する位置に前記第1のGUI画像を表示し、前記第2の検出ステップで検出される前記視点に対応する位置に前記第2のGUI画像を表示し、
前記第1のGUI画像と前記第2のGUI画像とが重なりあう場合に、前記第1のGUI画像と前記第2のGUI画像とが重なりあわない場合に比べて、前記第1のGUI画像を目立たなくする、
ことを特徴とする電子機器の制御方法。
【請求項13】
コンピュータを、請求項1から11のいずれか1項に記載された電子機器の各手段として機能させるためのプログラム。
【請求項14】
コンピュータを、請求項1から11のいずれか1項に記載された電子機器の各手段として機能させるためのプログラムを格納したコンピュータが読み取り可能な記憶媒体。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、電子機器、電子機器の制御方法、プログラムおよび記憶媒体に関する。
【背景技術】
【0002】
近年、カメラの自動化・インテリジェント化が進み、手動で物体の位置を入力せずとも、ファインダを覗くユーザーの視線位置の情報(視線情報;視線入力情報)に基づいてユーザーの意図する物体を検出し、焦点制御を行う技術が提案されている。特許文献1では、視線情報を用いて、物体の領域として検出した領域を補正することで物体の検出精度を向上させる技術が開示されている。
【先行技術文献】
【特許文献】
【0003】
【文献】特開2018-205648号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
ここで、ユーザーの視線位置を取得する際に、ユーザーの所望の領域(ユーザーが見たい領域)以外の領域にGUI画像が表示されている場合に、ユーザーの視線は表示されているGUI画像を向きやすく、視線を所望の領域に保ちにくいという問題がある。そのため、視線情報を用いても、物体の領域として検出された領域の位置と物体の実際の位置とのずれが生じてしまうことがあった。
【0005】
そこで、本発明は、ユーザーの視線を所望の領域に向けやすくすることを目的とする。
【課題を解決するための手段】
【0006】
本発明の一態様は、
入力画像と第1のGUI画像と第2のGUI画像とを表示部に表示する表示制御手段と、
前記入力画像における所定の物体の位置を検出する第1の検出手段と、
前記入力画像におけるユーザの視点を検出する第2の検出手段と、
を有し、
前記表示制御手段は、
前記第1の検出手段により検出される前記所定の物体の位置に対応する位置に前記第1のGUI画像を表示し、前記第2の検出手段により検出される前記視点に対応する位置に前記第2のGUI画像を表示し、
前記第1のGUI画像と前記第2のGUI画像とが重なりあう場合に、前記第1のGUI画像と前記第2のGUI画像とが重なりあわない場合に比べて、前記第1のGUI画像を目立たなくする、
ことを特徴とする電子機器である。
【発明の効果】
【0007】
本発明によれば、ユーザーの視線を所望の領域に向けやすくすることができる。
【図面の簡単な説明】
【0008】
図1】本実施形態に係るカメラの断面図である。
図2】本実施形態に係るカメラのブロック図である。
図3】本実施形態に係るファインダ内視野を示す図である。
図4】本実施形態に係る視野検出方法の原理を説明するための図である。
図5】本実施形態に係る眼画像を示す図である。
図6】本実施形態に係る視線検出動作のフローチャートである。
図7】従来のライブビュー画像の表示例を示す図である。
図8】実施形態1に係る追尾処理のフローチャートである。
図9】実施形態1に係るライブビュー画像の表示例を示す図である。
図10】実施形態2に係る追尾処理のフローチャートである。
図11】実施形態2に係るライブビュー画像の表示例を示す図である。
図12】実施形態3に係るカメラのブロック図である。
図13】実施形態3に係る顔検出処理のフローチャートである。
【発明を実施するための形態】
【0009】
以下、添付の図面を参照して本発明の好適な実施形態を説明する。
【0010】
(実施形態1)
<構成の説明>
ユーザー 図1は、本実施形態に係るカメラ1(デジタルスチルカメラ;レンズ交換式カメラ)の断面図であり、カメラ1の大まかな内部構成を示す。カメラ1は、撮影レンズユニット1A、カメラ筐体1Bを含む。
【0011】
撮影レンズユニット1A内には、2枚のレンズ101,102、絞り111、絞り駆動部112、レンズ駆動モーター113、レンズ駆動部材114、フォトカプラー115、パルス板116、マウント接点117、焦点調節回路118等が含まれている。レンズ駆動部材114は駆動ギヤ等からなり、フォトカプラー115は、レンズ駆動部材114に連動するパルス板116の回転を検知して、焦点調節回路118に伝える。焦点調節回路118は、フォトカプラー115からの情報と、カメラ筐体1Bからの情報(レンズ駆動量の情報)とに基づいてレンズ駆動モーター113を駆動し、レンズ101を移動させて合焦位置を変更する。マウント接点117は、撮影レンズユニット1Aとカメラ筐体1Bとのインターフェイスである。なお、簡単のために2枚のレンズ101,102を示したが、実際は2枚より多くのレンズが撮影レンズユニット1A内に含まれている。
【0012】
カメラ筐体1B内には、撮像素子2、CPU3、メモリ部4、表示デバイス10、表示デバイス駆動回路11、接眼レンズ12等が含まれている。撮像素子2は、撮影レンズユニット1Aの予定結像面に配置されている。CPU3は、マイクロコンピュータの中央処理部であり、カメラ1全体を制御する。メモリ部4は、撮像素子2により撮像された画像等を記憶する。表示デバイス10は、液晶等で構成されており、撮像された画像(被写体像)等を表示する。表示デバイス駆動回路11は、表示デバイス10を駆動する。接眼レンズ12は、表示デバイス10に表示された画像(視認用画像)を観察するためのレンズである。
【0013】
カメラ筐体1B内には、光源13a,13b、光分割器15、受光レンズ16、眼用撮像素子17等も含まれている。光源13a,13bは、光の角膜反射による反射像(角膜反射像)と瞳孔の関係から視線方向を検出するために従来から一眼レフカメラ等で用いられている光源であり、ユーザーの眼球14を照明するための光源である。具体的には、光源13a,13bは、ユーザーに対して不感の赤外光を発する赤外発光ダイオード等であり、接眼レンズ12の周りに配置されている。照明された眼球14の光学像(眼球像;光源13a,13bから発せられて眼球14で反射した反射光による像)は、接眼レンズ12を透過し、光分割器15で反射される。そして、眼球像は、受光レンズ16によって、CCD等の光電素子列を2次元的に配した眼用撮像素子17上に結像される。受光レンズ16は、眼球14の瞳孔と眼用撮像素子17を共役な結像関係に位置付けている。後述する所定のアルゴリズムにより、眼用撮像素子17上に結像された眼球像における角膜反射像の位置から、視線方向(視認用画像における視点)が検出される。
【0014】
図2は、カメラ1内の電気的構成を示すブロック図である。CPU3には、視線検出回路201、測光回路202、自動焦点検出回路203、表示デバイス駆動回路11、光源
駆動回路205、追尾処理回路207等が接続されている。また、CPU3は、撮影レンズユニット1A内に配置された焦点調節回路118と、撮影レンズユニット1A内の絞り駆動部112に含まれた絞り制御回路206とに、マウント接点117を介して信号を伝達する。CPU3に付随したメモリ部4は、撮像素子2および眼用撮像素子17からの撮像信号の記憶機能と、後述する視線の個人差を補正する視線補正パラメータの記憶機能とを有する。
【0015】
視線検出回路201は、眼用撮像素子17(CCD-EYE)上に眼球像が結像した状態での眼用撮像素子17の出力(眼を撮像した眼画像)をA/D変換し、その結果をCPU3に送信する。CPU3は、後述する所定のアルゴリズムに従って眼画像から視線検出に必要な特徴点を抽出し、特徴点の位置からユーザーの視線(視認用画像における視点)を算出する。
【0016】
測光回路202は、測光センサの役割を兼ねた撮像素子2から得られる信号、具体的には被写界の明るさに対応した輝度信号の増幅、対数圧縮、A/D変換等を行い、その結果を被写界輝度情報としてCPU3に送る。
【0017】
自動焦点検出回路203は、撮像素子2におけるCCDの中に含まれる、位相差検出のために使用される複数の検出素子(複数の画素)からの信号電圧をA/D変換し、CPU3に送る。CPU3は、複数の検出素子の信号から、各焦点検出ポイントに対応する被写体までの距離を演算する。これは撮像面位相差AFとして知られる公知の技術である。本実施形態では、一例として、図3(a)のファインダ内視野像(視認用画像)に示した180か所に対応する撮像面上の180か所のそれぞれに、焦点検出ポイントがあるとする。
【0018】
追尾処理回路207は、撮像素子2によって撮像された画像に基づいて物体の追尾処理を行う。具体的には、追尾処理回路207は、現フレーム画像(現在のフレーム画像)と、基準画像とのマッチング処理を行い、基準画像と最も類似度(相関度)が高い領域を追尾対象物の領域として現フレーム画像から抽出(検出)する。本実施形態では、基準画像は、前フレーム画像(現在よりも前のフレーム画像)のうち、追尾対象物の領域として検出した領域の画像(部分画像)である。また、上記類似度は、画像の特徴量の類似度であってもよい。そして、追尾処理回路207は、類似度に応じて追尾を継続するか否かを判断する。また、追尾処理回路207は、追尾信頼度(追尾処理の信頼度;追尾の状態値)を、検出した領域に対応する類似度に基づいて算出し、CPU3に送る。追尾処理は、オートフォーカス制御等のために行われ、追尾信頼度は、被写体を示すGUIの表示制御等に用いられる。
【0019】
図3(a)は、ファインダ内視野を示した図であり、表示デバイス10が動作した状態(視認用画像を表示した状態)を示す。図3(a)に示すように、ファインダ内視野には、焦点検出領域300、180個の測距点指標301、視野マスク302等がある。180個の測距点指標301のそれぞれは、撮像面上における焦点検出ポイントに対応する位置に表示されるように、表示デバイス10に表示されたスルー画像(ライブビュー画像)に重ねて表示される。また、180個の測距点指標301のうち、現在の視点A(推定位置)に対応する測距点指標301は、枠等で強調されて表示される。
【0020】
<視線検出動作の説明>
図4図5(a),図5(b),図6を用いて、視線検出方法について説明する。図4は、視線検出方法の原理を説明するための図であり、視線検出を行うための光学系の概略図である。図4に示すように、光源13a,13bは受光レンズ16の光軸に対して略対称に配置され、ユーザーの眼球14を照らす。光源13a,13bから発せられて眼球1
4で反射した光の一部は、受光レンズ16によって、眼用撮像素子17に集光する。図5(a)は、眼用撮像素子17で撮像された眼画像(眼用撮像素子17に投影された眼球像)の概略図であり、図5(b)は眼用撮像素子17におけるCCDの出力強度を示す図である。図6は、視線検出動作の概略フローチャートを表す。
【0021】
視線検出動作が開始すると、図6のステップS601で、光源13a,13bは、ユーザーの眼球14に向けて赤外光を発する。赤外光によって照明されたユーザーの眼球像は、受光レンズ16を通して眼用撮像素子17上に結像され、眼用撮像素子17により光電変換される。これにより、処理可能な眼画像の電気信号が得られる。
【0022】
ステップS602では、視線検出回路201は、眼用撮像素子17から得られた眼画像(眼画像信号;眼画像の電気信号)をCPU3に送る。
【0023】
ステップS603では、CPU3は、ステップS602で得られた眼画像から、光源13a,13bの角膜反射像Pd,Peと瞳孔中心cに対応する点の座標を求める。
【0024】
光源13a,13bより発せられた赤外光は、ユーザーの眼球14の角膜142を照明する。このとき、角膜142の表面で反射した赤外光の一部により形成される角膜反射像Pd,Peは、受光レンズ16により集光され、眼用撮像素子17上に結像して、眼画像における角膜反射像Pd’,Pe’となる。同様に瞳孔141の端部a,bからの光束も眼用撮像素子17上に結像して、眼画像における瞳孔端像a’,b’となる。
【0025】
図5(b)は、図5(a)の眼画像における領域α’の輝度情報(輝度分布)を示す。図5(b)では、眼画像の水平方向をX軸方向、垂直方向をY軸方向とし、X軸方向の輝度分布が示されている。本実施形態では、角膜反射像Pd’,Pe’のX軸方向(水平方向)の座標をXd,Xeとし、瞳孔端像a’,b’のX軸方向の座標をXa,Xbとする。図5(b)に示すように、角膜反射像Pd’,Pe’の座標Xd,Xeでは、極端に高いレベルの輝度が得られる。瞳孔141の領域(瞳孔141からの光束が眼用撮像素子17上に結像して得られる瞳孔像の領域)に相当する、座標Xaから座標Xbまでの領域では、座標Xd,Xeを除いて、極端に低いレベルの輝度が得られる。そして、瞳孔141の外側の光彩143の領域(光彩143からの光束が結像して得られる、瞳孔像の外側の光彩像の領域)では、上記2種の輝度の中間の輝度が得られる。具体的には、X座標(X軸方向の座標)が座標Xaより小さい領域と、X座標が座標Xbより大きい領域とで、上記2種の輝度の中間の輝度が得られる。
【0026】
図5(b)に示すような輝度分布から、角膜反射像Pd’,Pe’のX座標Xd,Xeと、瞳孔端像a’,b’のX座標Xa,Xbを得ることができる。具体的には、輝度が極端に高い座標を角膜反射像Pd’,Pe’の座標として得ることができ、輝度が極端に低い座標を瞳孔端像a’,b’の座標として得ることができる。また、受光レンズ16の光軸に対する眼球14の光軸の回転角θxが小さい場合には、瞳孔中心cからの光束が眼用撮像素子17上に結像して得られる瞳孔中心像c’(瞳孔像の中心)の座標Xcは、Xc≒(Xa+Xb)/2と表すことができる。つまり、瞳孔端像a’,b’のX座標Xa,Xbから、瞳孔中心像c’の座標Xcを算出できる。このようにして、角膜反射像Pd’,Pe’の座標と、瞳孔中心像c’の座標とを見積もることができる。
【0027】
ステップS604では、CPU3は、眼球像の結像倍率βを算出する。結像倍率βは、受光レンズ16に対する眼球14の位置により決まる倍率で、角膜反射像Pd’,Pe’の間隔(Xd-Xe)の関数を用いて求めることができる。
【0028】
ステップS605では、CPU3は、受光レンズ16の光軸に対する眼球14の光軸の
回転角を算出する。角膜反射像Pdと角膜反射像Peの中点のX座標と角膜142の曲率中心OのX座標とはほぼ一致する。このため、角膜142の曲率中心Oから瞳孔141の中心cまでの標準的な距離をOcとすると、Z-X平面(Y軸に垂直な平面)内での眼球14の回転角θは、以下の式1で算出できる。Z-Y平面(X軸に垂直な平面)内での眼球14の回転角θyも、回転角θxの算出方法と同様の方法で算出できる。

β×Oc×SINθ≒{(Xd+Xe)/2}-Xc ・・・(式1)
【0029】
ステップS606では、CPU3は、ステップS605で算出した回転角θx,θyを用いて、表示デバイス10に表示された視認用画像におけるユーザーの視点(視線が注がれた位置;ユーザーが見ている位置)を求める(推定する)。視点の座標(Hx,Hy)が瞳孔中心cに対応する座標であるとすると、視点の座標(Hx,Hy)は以下の式2,3で算出できる。

Hx=m×(Ax×θx+Bx) ・・・(式2)
Hy=m×(Ay×θy+By) ・・・(式3)
【0030】
式2,3のパラメータmは、カメラ1のファインダ光学系(受光レンズ16等)の構成で定まる定数であり、回転角θx,θyを視認用画像において瞳孔中心cに対応する座標に変換する変換係数であり、予め決定されてメモリ部4に格納されるとする。パラメータAx,Bx,Ay,Byは、視線の個人差を補正する視線補正パラメータであり、後述するキャリブレーション作業を行うことで取得され、視線検出動作が開始する前にメモリ部4に格納されるとする。
【0031】
ステップS607では、CPU3は、視点の座標(Hx,Hy)をメモリ部4に格納し、視線検出動作を終える。
【0032】
上述の説明では、光源13a,13bの角膜反射像を利用して表示デバイス上での視点(注視点)の座標を取得する方法について説明したが、これに限らず、撮像された眼球画像から視点の座標(眼球回転角度)を取得する手法であれば適用することができる。
【0033】
<キャリブレーション作業の説明>
前述のように、視線検出動作において眼画像から眼球14の回転角度θx,θyを取得し、瞳孔中心cの位置を視認用画像上での位置に座標変換することで、視点を推定できる。
【0034】
しかし、人間の眼球の形状の個人差等の要因により、視点を高精度に推定できないことがある。具体的には、視線補正パラメータAx,Ay,Bx,Byをユーザーに適した値に調整しなければ、図3(b)に示したように、実際の視点Bと推定された視点Cとのずれが生じてしまう。図3(b)では、ユーザーは人物を注視しているが、カメラ1は背景が注視されていると誤って推定しており、適切な焦点検出及び調整ができない状態に陥ってしまっている。
【0035】
そこで、カメラ1が撮像を行う前に、キャリブレーション作業を行い、ユーザーに適した視点補正パラメータを取得し、カメラ1に格納する必要がある。
【0036】
従来より、キャリブレーション作業は、撮像前に図3(c)のような位置の異なる複数の指標を視認用画像で強調表示し、ユーザーにその指標を見てもらうことで行われている
。そして、各指標の注視時に視線検出動作を行い、算出された複数の視点(推定位置)と、各指標の座標とから、ユーザーに適した視点補正パラメータを求める技術が、公知の技術として知られている。なお、ユーザーの見るべき位置が示唆されれば、指標の表示でなくてもよく、輝度や色の変更で位置が強調されてもよい。
【0037】
<従来の追尾処理(従来手法)>
図7(a)~図7(d)は、従来手法におけるフレーム画像701の表示例を示す図である。フレーム画像701内には、被写体702と被写体を追尾した領域を示す被写体GUI703とが表示されている。被写体GUI703は、カメラが動きのある被写体として識別している領域(被写体認識領域;認識領域)を示すGUI画像である。ユーザーは画面をタッチするなどして被写体702が追尾対象の被写体であることをカメラに指示し、被写体を画面に収めながら動画を撮影する。
【0038】
図7(a)は、追尾対象の物体(被写体)を追尾し始めた直後であって、被写体702と被写体GUI703とが一致している状態を示す図である。この時、被写体702と被写体GUI703で囲まれる領域との類似度(被写体認識領域の確からしさ)を表す追尾信頼度(例えば、0~100%)は高い値となる。なお、追尾信頼度は、被写体GUI703の位置の信頼度と捉えることもできる。図7(b),図7(c)は、被写体702が高速で移動したり、または背景物体と同化したりすることで、被写体GUI703が被写体702から徐々にずれていく様子を示す図である。図7(d)は、追尾信頼度が閾値Thを下回り、追尾処理を停止して被写体GUI703が非表示となった状態を示す図である。
【0039】
上述のように、従来の追尾処理では、被写体702が高速で移動したり、背景物体と同化する場合に、被写体を適切に追尾できないことがある。ここで、被写体702の追尾処理において、ユーザーの視線704に基づいて被写体認識領域を調整することが考えられる。図7(d)に示すように、被写体GUI703が非表示となった後であれば、視線704が被写体702をとらえやすいため、視線704に基づいて被写体認識領域を調整することは有用である。しかし、図7(c)に示すように、被写体702からずれた被写体GUI703が表示されていると、視線704は被写体GUI703を向きやすく、被写体702に保ちにくい。そのため、図7(c)に示すフレーム画像の状態において、視線704に基づいて被写体認識領域を調整すると、被写体認識領域と実際の被写体とのずれが生じてしまう。
【0040】
<視点を用いた追尾処理(本実施形態)>
図8は、本実施形態に係る追尾処理の例を示すフローチャートである。このフローチャートにおける各処理は、CPU3が、メモリ部4に格納されているプログラムを実行することで実現される。また、本実施形態では、このフローチャートにおける処理は、カメラの電源がONにされると開始される。
【0041】
ステップS801では、カメラの電源がONにされて撮像素子2によってスルー画像(入力画像)の取得が開始されると、CPU3は、表示デバイス10でのスルー画像の表示を開始する。本実施形態では、ユーザーは、ファインダ内の表示デバイス10に表示されたスルー画像を見ることで被写体の視認を行う。
【0042】
ステップS802では、CPU3は、視線入力がONであるか否かを判定する。本実施形態では、CPU3は、視線検出機能(視線入力機能)がONになっている場合に視線入力がONであると判定するものとする。視線入力がONの場合はステップS803に進み、そうでない場合はステップS808に進む。
【0043】
ステップS803では、CPU3は、図6に示す視線検出ルーチンを実行する。本実施形態では、図6で示した視線検出ルーチンを実行することで、表示デバイス10上での上述の視点の座標(Hx,Hy)を取得する。
【0044】
ステップS804では、CPU3は、被写体の位置を示す被写体GUIと視点(視線の位置;推定注視点)を示す視線GUIとが重なりあっているか否かを判定する。重なりあっている場合はステップS806に進み、そうでない場合はステップS805に進む。ここで、被写体GUIと視線GUIとが重なりあっている場合として、例えば、被写体GUIである線と視線GUIである線とが交差している場合や、被写体GUIの領域と視線GUIの領域との一方に他方の少なくとも一部が含まれる場合等が挙げられる。なお、被写体GUIは後述するステップS813で表示されるため、被写体GUIが表示されていない場合(処理開始直後など)は、ステップS805に進むものとする。
【0045】
ステップS805では、CPU3は、視線GUIを表示デバイス10に表示する。本実施形態では、視線GUIは、ユーザーの視線の位置を囲む枠である。
【0046】
ステップS806では、CPU3は、視線GUIを非表示にする。これは、被写体に被写体GUIと視線GUIが重複して表示されると、当該被写体が見づらくなり、ユーザーに不快感を与えるおそれがあるためである。なお、被写体GUIを見やすくすることができればよく、視線GUIの色を薄くしたり、視線GUIを小さくしたりして、視線GUIを目立たなくしてもよい。
【0047】
ステップS807では、CPU3は、閾値Thを閾値Th1に設定する。ステップS808では、CPU3は、閾値Thを閾値Th2(<閾値Th1)に設定する。詳細は後述するが、本実施形態では、追尾信頼度が閾値Th以下になると被写体GUIを消す(非表示にする)ことで、被写体からずれた被写体GUIに視線が向くことを防ぐ。そのため、視点を検出する場合の閾値Th1は、視点を検出しない場合の閾値Th2に比べて大きくしている。これにより、視点を検出する場合に、被写体GUIのずれ始めを素早く検知し、視線を被写体に向けやすくすることが可能となる。本実施形態では、閾値Th1を70%、閾値Th2を50%とする例について説明する。
【0048】
ステップS809では、CPU3は、追尾処理回路207を制御して、動体検出(追尾処理)を行う。CPU3は、視点に基づかずに物体の位置を抽出していると捉えることもできる。動体検出方法は、既存の種々の方法を適用可能である。例えば、前述したように、フレーム間のマッチング処理を行い、フレーム間の類似度(相関度)が最も高い領域を被写体認識領域として検出する。また、CPU3は、追尾処理回路207を制御して、検出した領域に対応する類似度に応じて追尾信頼度を算出する。なお、追尾信頼度は、類似度が高いほど高くなる。
【0049】
ステップS810では、CPU3は、ステップS809の結果(動体の領域の検出結果)を被写体位置情報として設定する。被写体位置情報は、例えば、測距点として用いられる。
【0050】
ステップS811では、CPU3は、追尾信頼度が閾値Thより低いか否かを判定する。追尾信頼度が閾値Thより低い場合はステップS812に進み、そうでない場合は、ステップS813に進む。ここで、追尾信頼度が閾値Thより低い場合とは、被写体位置と被写体GUIの位置にずれが生じている場合である。また、追尾信頼度が閾値Thより高い場合とは、被写体位置と被写体GUIの位置が略一致している場合である。
【0051】
ステップS812では、CPU3は、被写体GUIを非表示にする。なお、被写体GU
Iに視線が向くのを防ぐことができればよく、被写体GUIの色を薄くすることや、被写体GUIを小さくする等を行って被写体GUIを目立たなくしてもよい。また、被写体GUIの他にも、撮影画面上には撮影設定情報を表示するOSD(On Screen Display)がGUIとして表示されていることがある。これらのOSDも、視線が被写体以外に向いてしまい、視線情報を用いた追尾処理を妨げる要因となりうるので、被写体GUIと同様にOSDの表示態様を変更する(OSDを目立たなくする)とよい。なお、被写体GUIを非表示にして視線GUIのみが表示されることで、視線入力によって追尾処理を行っていることをユーザーが認識しやすくすることもできる。
【0052】
ステップS813では、CPU3は、被写体GUIを表示する。これは、被写体位置と被写体GUIの位置とが略一致している可能性が高いためである。
【0053】
ステップS814では、CPU3は、視線情報に基づいて被写体位置情報を更新する。ここで、上述のステップS812において被写体GUIを非表示にしているため、ユーザーは被写体を注視している可能性が高い。よって、視線の位置と被写体認識領域の位置とを重みづけ加算して被写体認識領域を補正することで、被写体認識領域と被写体とのずれを低減している。なお、視線の位置を含む領域(視線GUIに対応する領域)をそのまま被写体認識領域として用いてもよい。なお、信頼度が閾値Thより低い場合に、CPU3は、ステップS809で視点に基づかずに抽出された物体の位置を視点に基づいて補正した物体の位置を、被写体認識領域(視点に基づいて検出された位置)として検出していると捉えることもできる。また、信頼度が閾値Thより高い場合に、CPU3は、(視線に基づいて補正せずに)抽出された物体の位置を、被写体認識領域(視線に基づかずに検出された位置)として検出していると捉えることもできる。
【0054】
ステップS815では、CPU3は、ユーザーの操作によっての撮影スイッチ(不図示)がONにされたか否かを判定する。ONにされた場合はステップS816に進み、そうでない場合はステップS802に戻る。
【0055】
ステップS816では、CPU3は、撮影動作を行う。具体的には、CPU3は、撮像素子2によって取得された画像信号をメモリ部4に記録する。
【0056】
ステップS817では、CPU3は、撮影が終了したか否かを判定する。撮影が終了した場合は本処理フローを終了し、そうでない場合はステップS802に戻る。撮影が終了した場合とは、例えば、電源がOFFにされた場合である。
【0057】
図9(a)~図9(d)は、それぞれ本実施形態における動画やライブビューにおけるフレーム画像701の一例を示す。
【0058】
図9(a)は、動体である被写体702を追尾し始めた直後であって、被写体702と被写体GUI703が一致している状態を示す図である。この時、追尾信頼度は高い値(例えば、90%)となる。また、図9(a)には、OSD901、視線GUI905が表示されている。ここで、視線検出機能がオンであるため、閾値Thは閾値Th1(例えば、70%)である。
【0059】
図9(b)は、被写体702の位置と被写体GUI703とがずれ始めているが、追尾信頼度(例えば、80%)が閾値Th(閾値Th1)より高い状態を示す図である。また、図9(b)は、被写体GUI703と視線GUI905とが重なりあっている状態を示している。視線GUI905と被写体GUI703とが重なりあうと情報が煩雑になり、ユーザーに不快感を与えるおそれがある。そのため、本実施形態では、被写体GUI703と視線GUI905とが重なりあう場合には、被写体GUI703の見やすさを優先す
る(図9(b)の例では視線GUI905を非表示にしている)。
【0060】
図9(c)は、被写体702の位置と被写体GUI703とが大きくずれており、追尾信頼度(例えば、60%)が閾値Th(閾値Th1)を下回った状態を示す図である。図9(c)の例では、被写体GUI703を非表示にして目立たなくしている。また、図9(c)の例では、OSD901の色を薄くして目立たなくしている。本実施形態では、視線検出機能がONの場合に、比較的大きい閾値Th1を用いることで、被写体GUI703のずれ始めを素早くに検知している。そして、被写体GUI703のずれ始めを検知した場合に、被写体GUI703を非表示にしたりOSD901の色を薄くすることでユーザーの視線を被写体GUI703やOSD901に向けにくくして、ユーザーの視線を被写体702に向けやすくしている。
【0061】
図9(d)は、視線の位置に基づいて追尾処理を行った結果、被写体GUI703の位置と被写体702の位置とが再び略一致した状態を示す図である。図9(d)の例では、追尾信頼度(例えば、90%)が閾値Th(閾値Th1)より高くなったため、被写体GUI703を再び表示して、OSD901を通常の色に戻している。なお、図9(d)の例では、視線GUI905は、被写体GUI703に重なるので非表示となっている。
【0062】
以上のように、本実施形態では、視線検出機能がONの場合に、追尾信頼度を評価するための閾値Thを大きくする。このようにして、被写体GUIと被写体の位置とのずれ始めを素早く検知し、被写体GUI703を目立たなくすることで、ユーザーの視線を被写体に向けやすくして、視線情報を用いた追尾処理の精度を向上させることができる。また、被写体GUIを目立たなくすることによって、ユーザーに視線情報を用いて追尾処理を行っていることを意識させることで、ユーザーが被写体を注視しやすくしている。
【0063】
(実施形態2)
実施形態1では、被写体GUIの位置と視線位置が重なりあう場合を除いて、視線GUIを常時表示させる例について説明したが、本実施形態では、視線情報を用いて追尾処理を行う場合のみ視線GUIを表示する例について説明する。
【0064】
図10は、本実施形態に係る追尾処理の例を示すフローチャートである。このフローチャートにおける各処理は、CPU3が、メモリ部4に格納されているプログラムを実行することで実現される。また、本実施形態では、このフローチャートにおける処理は、カメラの電源がONにされると開始される。なお、図8に示す処理と同じ処理については、同じ番号を付して説明を省略する。
【0065】
本実施形態では、図8に示すステップS804~S806の処理は行わないため、視線検出ルーチンを行った直後に視線GUIを表示したり非表示にしたりする処理は行われない。視線GUIが表示されるタイミングは、ステップS811で追尾信頼度が閾値Thを下回り、被写体GUI703が非表示にされた後のタイミング(ステップS1018)である。また、視線GUIが非表示にされるタイミングは、ステップS811で追尾信頼度が閾値Thを上回り、被写体GUI703が表示された後のタイミング(ステップS1019)である。
【0066】
このようにすることで、視線GUIを必要以上に表示してユーザーに不快感を与えることなく、視線情報を用いて追尾処理を行っていることをユーザーに認識させることが可能となる。
【0067】
図11(a)~図11(d)は、それぞれ本実施形態における動画やライブビューにおけるフレーム画像701を示している。
【0068】
図11(a)は、動体である被写体702を追尾し始めた直後であって、被写体702と被写体GUI703が一致している(追尾信頼度が閾値Th1より高い)状態を示す図である。このとき、視線GUI905と被写体GUI703が同時に表示デバイス10上に表示されると、表示デバイス10上の情報が煩雑になり、ユーザーに不快感を与えるおそれがあるため、実施形態1とは異なり、視線GUI905は表示されていない。
【0069】
図11(c)は、追尾信頼度が閾値Thを下回った(ステップS811-Yes)状態を示す図である。この場合、視線情報を用いて追尾処理が行われることをユーザーに認識させるために、視線GUI905が表示される。一方、図11(b),図11(d)では、追尾信頼度が閾値Thより高い(ステップS811-No)ため、図11(a)と同様に視線GUI905を非表示にしている。
【0070】
以上のように、本実施形態では、視線情報が追尾処理に使用される場合のみ視線GUIを表示する。このようにすることで、表示デバイス10上の情報の煩雑さを抑えつつ、ユーザーの視線を被写体に向けやすくして、視線情報を用いた追尾処理の精度を向上させることができる。また、視線情報を用いて追尾処理を行っていることをユーザーに認識させることができる。
【0071】
(実施形態3)
上述の実施形態では、動体の追尾処理を行う際に視線情報を用いる例について説明したが、本実施形態では、顔検出を行う際に視線情報を用いる例について説明する。
【0072】
図12は、本実施形態におけるカメラ1内の電気的構成を示すブロック図である。図12では、図2における追尾処理回路207の代わりに顔検出回路208が設けられている。
【0073】
顔検出回路208は、あらかじめメモリ部4に記憶される人の顔のテンプレートデータを用いて、フレーム画像内で当該テンプレートとの類似度が基準値以上となる部分(領域)を顔画像として検出する。なお、顔検出の方法は上記に限定されず、公知の種々の技術を適用可能である。
【0074】
図13は、本実施形態に係る顔検出処理を示すフローチャートである。このフローチャートにおける各処理は、CPU3が、メモリ部4に格納されているプログラムを実行することで実現される。また、本実施形態では、このフローチャートにおける処理は、カメラの電源がONにされると開始される。なお、図8に示す処理と同じ処理については、同じ番号を付して説明を省略する。
【0075】
ステップS1304では、CPU3は、顔の位置を示す顔GUIと視線GUIとが重なりあっているか否かを判定する。重なりあっている場合はステップS806に進み、そうでない場合はステップS805に進む。ここで、顔GUIと視線GUIとが重なりあっている場合として、例えば、顔GUIである線と視線GUIである線とが交差している場合や、顔GUIの領域と視線GUIの領域との一方に他方の少なくとも一部が含まれる場合等が挙げられる。なお、顔GUIは後述するステップS1313で表示されるため、顔GUIが表示されていない場合(処理開始直後など)は、ステップS805に進むものとする。
【0076】
ステップS1307では、CPU3は、閾値Thを閾値Th1に設定する。ステップS1308では、CPU3は、閾値Thを閾値Th2(<閾値Th1)に設定する。本実施形態では、後述処理によって後述の顔信頼度が閾値Th以下になると顔GUIを消す(非
表示にする)ことで、顔からずれた顔GUIに視線が向くことを防ぐ。そのため、視点を検出する場合の閾値Th(閾値Th1)は、視点を検出しない場合の閾値Th(閾値Th2)に比べて大きくしている。これにより、視点を検出する場合に、顔GUIのずれ始めを検知し、視線を顔に向けやすくすることが可能となる。本実施形態では、閾値Th1を70%、閾値Th2を50%とする例について説明する。
【0077】
ステップS1309では、CPU3は、顔検出回路208を制御して、顔検出を行う。顔検出方法は、既存の種々の方法を適用可能である。例えば、現在のフレームにおける画像において、基準画像とのマッチング処理を行い、基準画像と最も類似度(相関度)が高い領域を抽出する。基準画像は、例えば、あらかじめメモリ部4に格納されている顔のテンプレート画像である。また、CPU3は、顔検出回路208を制御して、検出した領域に対応する類似度に応じて顔信頼度を算出する。なお、顔信頼度は、類似度が高いほど高くなる。
【0078】
ステップS1310では、CPU3は、ステップS1309の結果(顔の領域の検出結果)を顔位置情報として設定する。顔位置情報は、例えば、測距点として用いられる。
【0079】
ステップS1311では、CPU3は、顔信頼度が閾値Thより低いか否かを判定する。顔信頼度が閾値Thより低い場合はステップS812に進み、そうでない場合は、ステップS813に進む。ここで、顔信頼度が閾値Thより低い場合とは、顔位置と顔GUIの位置にずれが生じている場合である。また、顔信頼度が閾値Thより高い場合とは、顔位置と顔GUIの位置とが略一致している場合である。
【0080】
ステップS1312では、CPU3は、顔GUIを非表示にする。これは、顔位置と顔GUIの位置のずれが大きい可能性が高いためである。なお、顔GUIに視線が向くのを防ぐことができればよく、顔GUIの色を薄くしたり、顔GUIを小さくしたりして、顔GUIを目立たなくしてもよい。また、実施形態1と同様にOSDの表示態様を変更する(目立たなくする)とよい。なお、顔GUIを非表示にして視線GUIのみが表示されることで、視線入力によって顔検出処理を行っていることをユーザーが認識しやすくすることもできる。
【0081】
ステップS1313では、CPU3は、顔GUIを表示する。これは、顔位置と顔GUIの位置とが略一致している可能性が高いためである。
【0082】
ステップS1314では、CPU3は、視線情報に基づいて顔位置情報を更新する。例えば、視線の位置と顔と認識された領域(顔認識領域)の位置とを重みづけ加算して顔認識領域を補正することで、顔認識領域と顔とのずれを低減することができる。なお、視線の位置を含む領域(視線GUIに対応する領域)をそのまま顔認識領域として用いてもよい。
【0083】
以上説明したように本実施形態によれば、視線検出機能を使用する場合に、顔信頼度の閾値を大きくすることで、顔GUIと顔位置のずれはじめを素早く検知し、顔GUIを非表示とする。これにより、視線が顔に向きやすくなるため、視線情報を用いた顔検出処理の精度を向上させることが可能となる。
【0084】
(変形例)
上述の実施形態では、GUIを目立たなくする方法として、非表示にしたりサイズを小さくしたり、色を薄くする例について説明したが、これらに限定されない。例えば、輝度や色を背景に応じて(背景の輝度や色に近づけるように)変更したり、GUIの透過度(透明度)を高くする等によってGUIを目立たなくしてもよい。
【0085】
上述の実施形態では、被写体GUIと視線の位置を示す視線GUIとが重なりあっている場合に、被写体GUIを目立つように、視線GUIを目立たなくする例について説明したが、視線GUIを目立つように、被写体GUIを目立たなくしてもよい。具体的には、被写体GUIと視線の位置を示す視線GUIとが重なりあっている場合に、被写体GUIの輝度や色、サイズ等を変更することで被写体GUIを目立たなくするとよい。
【0086】
上述の実施形態では、カメラにおいて被写体の追尾処理や顔検出処理を行う場合に、被写体GUIや顔GUIを目立たなくすることで、ユーザーの視線を所望の領域(被写体や顔を含む領域)に向けやすくする例について説明した。しかし、追尾処理や顔検出処理を行っていない場合にも本発明を適用可能である。例えば、表示装置においてユーザーの視点(視線の位置)の検出が行われている場合に、所望の領域と異なる領域にGUI画像が表示されていると、ユーザーの視線は当該GUI画像を向きやすい。そのため、ユーザーの視線を所望の領域に向けやすくするために、ユーザーの視点(視線の位置)の検出を行っている場合に、当該視点の検出を行っていない場合に比べてGUI画像を目立たなくしてもよい。例えば、本発明は、以下の表示制御部と検出部とを備える電子機器として捉えることもできる。ここで、表示制御部は、入力画像とGUI画像とを表示部に表示する。検出部は、入力画像におけるユーザーの視点を検出する。また、検出部は、検出部が視点の検出を行っている場合に、表示制御部が、視点の検出を行っていない場合に比べて、GUI画像を目立たなくする。
【0087】
また、上述の実施形態では、本発明をカメラに適用した例について説明したが、これに限定されない。例えば、本発明は、視線入力を受け付け可能な電子機器であれば適用可能である。例えば、本発明はパーソナルコンピュータやPDA、携帯電話端末、ディスプレイ、HMD(ヘッドマウントディスプレイ)等にも適用可能である。
【0088】
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
【符号の説明】
【0089】
1:カメラ 3:CPU
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13