IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ ソニー株式会社の特許一覧

<>
  • 特開-撮像装置、制御方法、プログラム 図1
  • 特開-撮像装置、制御方法、プログラム 図2
  • 特開-撮像装置、制御方法、プログラム 図3
  • 特開-撮像装置、制御方法、プログラム 図4
  • 特開-撮像装置、制御方法、プログラム 図5
  • 特開-撮像装置、制御方法、プログラム 図6
  • 特開-撮像装置、制御方法、プログラム 図7
  • 特開-撮像装置、制御方法、プログラム 図8
  • 特開-撮像装置、制御方法、プログラム 図9
  • 特開-撮像装置、制御方法、プログラム 図10
  • 特開-撮像装置、制御方法、プログラム 図11
  • 特開-撮像装置、制御方法、プログラム 図12
  • 特開-撮像装置、制御方法、プログラム 図13
  • 特開-撮像装置、制御方法、プログラム 図14
  • 特開-撮像装置、制御方法、プログラム 図15
  • 特開-撮像装置、制御方法、プログラム 図16
  • 特開-撮像装置、制御方法、プログラム 図17
  • 特開-撮像装置、制御方法、プログラム 図18
  • 特開-撮像装置、制御方法、プログラム 図19
  • 特開-撮像装置、制御方法、プログラム 図20
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024163915
(43)【公開日】2024-11-25
(54)【発明の名称】撮像装置、制御方法、プログラム
(51)【国際特許分類】
   H04N 23/67 20230101AFI20241118BHJP
   G03B 17/02 20210101ALI20241118BHJP
   G02B 7/08 20210101ALI20241118BHJP
【FI】
H04N5/232 127
G03B17/02
G02B7/08 A
【審査請求】未請求
【請求項の数】19
【出願形態】OL
(21)【出願番号】P 2021163336
(22)【出願日】2021-10-04
(71)【出願人】
【識別番号】000002185
【氏名又は名称】ソニーグループ株式会社
(74)【代理人】
【識別番号】100116942
【弁理士】
【氏名又は名称】岩田 雅信
(74)【代理人】
【識別番号】100167704
【弁理士】
【氏名又は名称】中川 裕人
(72)【発明者】
【氏名】猪俣 誠一
【テーマコード(参考)】
2H044
2H100
5C122
【Fターム(参考)】
2H044DA01
2H100AA18
5C122EA42
5C122EA65
5C122FC06
5C122FD01
5C122FD02
5C122FD13
5C122FH11
5C122FH14
5C122FK33
5C122FK37
5C122FK38
5C122FK41
5C122FL03
5C122HA13
5C122HA35
5C122HB01
5C122HB05
(57)【要約】
【課題】マニュアルフォーカス状態からトラッキングオートフォーカスに円滑に遷移できるようにする。
【解決手段】 撮像装置が、手動操作に基づくフォーカスレンズ駆動が行われるマニュアルフォーカス状態でトリガ検出を行い、トリガの検出に基づいてトラッキングオートフォーカス処理を開始するフォーカス制御部を備えるようにする。
【選択図】図5
【特許請求の範囲】
【請求項1】
手動操作に基づくフォーカスレンズ駆動が行われるマニュアルフォーカス状態でトリガを検出する処理であるトリガ検出を行い、前記トリガ検出の結果に基づいてトラッキングオートフォーカス処理を開始する制御部を備える
撮像装置。
【請求項2】
前記トリガは、撮像画像を表示する画面内で位置を指定するユーザ操作である
請求項1に記載の撮像装置。
【請求項3】
前記トリガは、ユーザによる特定の操作子の操作である
請求項1に記載の撮像装置。
【請求項4】
前記トリガは、撮像画像に対する物体検出処理に基づいて発生される
請求項1に記載の撮像装置。
【請求項5】
前記トリガは、センシング情報に基づいて発生される
請求項1に記載の撮像装置。
【請求項6】
前記センシング情報は、被写体に対する奥行情報である
請求項5に記載の撮像装置。
【請求項7】
前記トリガは、撮像画像の画像平面内の領域としての面内範囲の設定に基づいて発生される
請求項1に記載の撮像装置。
【請求項8】
前記制御部は、前記面内範囲の提示制御を行う
請求項7に記載の撮像装置。
【請求項9】
前記トリガは、被写体までの距離についての範囲である奥行範囲の設定に基づいて発生される
請求項1に記載の撮像装置。
【請求項10】
前記制御部は、前記奥行範囲の提示制御を行う
請求項9に記載の撮像装置。
【請求項11】
前記制御部は、
操作により指定された、撮像画像の面内の指定位置に基づいて、トラッキングオートフォーカス処理の対象を決定する
請求項1に記載の撮像装置。
【請求項12】
前記制御部は、
撮像画像の画像平面内の領域として設定された面内範囲に基づいて、トラッキングオートフォーカス処理の対象を決定する
請求項1に記載の撮像装置。
【請求項13】
前記制御部は、
被写体までの距離についての範囲である奥行範囲の設定に基づいて、トラッキングオートフォーカス処理の対象を決定する
請求項1に記載の撮像装置。
【請求項14】
前記制御部は、
被写体に対する奥行情報の検出に基づいて、トラッキングオートフォーカス処理の対象を決定する
請求項1に記載の撮像装置。
【請求項15】
前記制御部は、
撮像画像に対する物体検出処理に基づいて、トラッキングオートフォーカス処理の対象を決定する
請求項1に記載の撮像装置。
【請求項16】
前記制御部は、
撮像画像に対する物体検出処理による検出物体が複数ある場合、複数の検出物体の中から選択された検出物体を、トラッキングオートフォーカス処理の対象とする
請求項15に記載の撮像装置。
【請求項17】
前記制御部は、
マニュアルフォーカス状態でのピント位置に基づいて、トラッキングオートフォーカス処理の対象を決定する
請求項1に記載の撮像装置。
【請求項18】
撮像装置が、手動操作に基づくフォーカスレンズ駆動が行われるマニュアルフォーカス状態でトリガを検出する処理であるトリガ検出を行い、前記トリガ検出の結果に基づいてトラッキングオートフォーカス処理を開始するようにする撮像装置の制御方法。
【請求項19】
手動操作に基づくフォーカスレンズ駆動が行われるマニュアルフォーカス状態でトリガを検出する処理であるトリガ検出を行い、前記トリガ検出の結果に基づいてトラッキングオートフォーカス処理を開始するフォーカス制御処理を、撮像装置に実行させるプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本技術は撮像装置、撮像装置の制御方法、プログラムに関し、特にフォーカス制御の技術に関する。
【背景技術】
【0002】
例えば特許文献1に記載されるように、撮像装置には、自動的なフォーカス制御としてオートフォーカス機能(以下、オートフォーカス(Auto Focus)を「AF」と記載する場合がある)が用意されるとともに、手動操作によるマニュアルフォーカス機能(以下、マニュアルフォーカス(Manual Focus)を「MF」と記載する場合がある)が用意されているものがある。
【先行技術文献】
【特許文献】
【0003】
【特許文献1】特開2008-262049号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
このような撮像装置では、ユーザの多様な撮影機会に応じて、AF制御とMF動作を連動させ、適切なフォーカス制御を行うことが望ましい。例えばユーザ操作によるMFでフォーカス動作を行っている状態(以下、MF状態ともいう)から、複雑な操作を経ずに、適切なターゲットに対してトラッキングAFが実行できるようにすることが望まれる。
そこで本開示では、MF状態からユーザの意図に沿ったトラッキングAFが簡易に実現できるようにする技術を提案する。
【課題を解決するための手段】
【0005】
本技術に係る撮像装置は、手動操作に基づくフォーカスレンズ駆動が行われるマニュアルフォーカス状態でトリガを検出する処理であるトリガ検出を行い、前記トリガ検出の結果に基づいてトラッキングオートフォーカス処理を開始する制御部を備える。
マニュアルフォーカス状態で所定のトリガを検出することに応じて、トラッキングオートフォーカスを発動させる。
【図面の簡単な説明】
【0006】
図1】本技術の実施の形態の撮像装置の斜視図である。
図2】実施の形態の撮像装置の背面図である。
図3】実施の形態の撮像装置のブロック図である。
図4】実施の形態の撮像装置の機能構成例の説明図である。
図5】第1の実施の形態の処理のフローチャートである。
図6】実施の形態のデフォーカス情報又は距離情報の検出の説明図である。
図7】第1の実施の形態による動作状態遷移の説明図である。
図8】第1の実施の形態のモード設定の説明図である。
図9】第1の実施の形態のタッチ操作の設定の説明図である。
図10】第2の実施の形態の処理のフローチャートである。
図11】第2の実施の形態による動作状態遷移の説明図である。
図12】第2の実施の形態のキーアサインの説明図である。
図13】第3の実施の形態の処理のフローチャートである。
図14】第3の実施の形態による動作状態遷移の説明図である。
図15】セマンティックセグメンテーションによる物体検出の説明図である。
図16】第4の実施の形態の処理のフローチャートである。
図17】第4の実施の形態による動作状態遷移の説明図である。
図18】第4の実施の形態におけるカラーマップの説明図である。
図19】第5の実施の形態の処理のフローチャートである。
図20】第5の実施の形態による動作状態遷移の説明図である。
【発明を実施するための形態】
【0007】
以下、実施の形態を次の順序で説明する。
<1.撮像装置の構成>
<2.撮像装置の機能構成>
<3.第1の実施の形態>
<4.第2の実施の形態>
<5.第3の実施の形態>
<6.第4の実施の形態>
<7.第5の実施の形態>
<8.まとめ及び変形例>
【0008】
本開示で用いるいくつかの語句について説明しておく。
「画像」は動画及び静止画を含む用語として用いる。表示される画像としての意味だけでなく、画像データとしての意味も含むものとする。
「撮像」とは、イメージセンサの光電変換に基づいて画像データを生成することを指す。
「撮像画像」は、イメージセンサの光電変換を経て得られた撮像された画像のことであり、動画や静止画として記録される画像や、スルー画等としてモニタ表示される画像を含む。
「被写体」とは、撮像画像に含まれる全ての被写体を指す。
「物体検出処理」とは、画像内で特定の被写体の種別を検出する処理の総称とする。
「検出物体」は被写体のうちで物体検出処理により検出された物体である。例えば被写体のうちで、顔、人、瞳、動物、特定物として検出された画像や、検出された被写体自体を指す用語とする。
「トラッキングオートフォーカス(トラッキングAF)」は、ターゲットとした被写体に対して自動的に追尾するようにするフォーカス動作である。
【0009】
<1.撮像装置の構成>
本実施の形態に係る撮像装置1の外観を図1及び図2に示す。
なお撮像装置1は、交換式のレンズを備えたカメラの例としているが、これに限られることなく、レンズ一体型のカメラであってもよい。また本開示の技術は、スチルカメラやビデオカメラや他の機器に組み込まれる各種の撮像装置に広く適用することができる。
【0010】
撮像装置1は、内外に所要の各部が配置されるカメラ筐体2と、カメラ筐体2の前面部2aに取り付けられたレンズ鏡筒3とを備えて構成されている。
カメラ筐体2の後面部2bには、背面モニタ4が配置されている。背面モニタ4には、スルー画や記録画像などが表示される。
【0011】
背面モニタ4は、例えば、液晶ディスプレイ(LCD:Liquid Crystal Display)や有機EL(Electro-Luminescence)ディスプレイ等のディスプレイデバイスで形成される。
【0012】
カメラ筐体2の上面部2cには、EVF(Electric View Finder)5が配置されている。EVF5は、EVFモニタ5aとEVFモニタ5aの上方及び左右の側方を囲むように後方に突出された枠状の囲い部5bを備えている。
EVFモニタ5aは、LCDや有機ELディスプレイ等を用いて形成されている。なお、EVFモニタ5aに代わって光学式ファインダ(OVF:Optical View Finder)が設けられていてもよい。
【0013】
後面部2bや上面部2cには、各種の操作子6が設けられている。操作子6としては、ボタン、ダイヤル、押圧及び回転可能な複合操作子など、各種の態様のものを含んでいる。これらの操作子6により、例えば、シャッター操作、メニュー操作、再生操作、モード選択/切替操作、フォーカス操作、ズーム操作、シャッタースピードやF値等のパラメータ選択/設定が可能とされる。
【0014】
ここで操作子6として、カスタムキー6C1、6C2、6C3、6C4、6C5、6C6を示している。これらは、いわゆるアサイナブルボタンとして機能する操作子であり、例えば初期的に所定の操作機能が割り当てられているが、それに関わらず、ユーザが任意の操作機能を割り当てることのできるボタンである。
例えばカスタムキー6C4などを、後述するトラッキングAFのためのトリガ操作のボタンとして割り当てることなどが可能とされる。
【0015】
レンズ鏡筒3は、内部に各種のレンズが配置されており、リング状のフォーカスリング7とリング状のズームリング8を備えて構成されている。
【0016】
フォーカスリング7は周方向に回動可能とされ、回動方向に応じて各種レンズが光軸方向に移動することによりピント位置を光軸方向に移動させることができる。
「ピント位置」は、撮像装置1からピントが合っている光軸方向の位置である。これは、例えば、ピントが合っている被写体がいる場合には、撮像装置1に対する被写体の位置である。ピント位置はフォーカス制御により変化する。
フォーカスリング7を回動させることにより撮像装置1に対するピント位置を近くしたり遠くしたりすることができる。また、フォーカスリング7を回動させることにより、合焦状態を手動調整するマニュアルフォーカス制御を実現することができる。
【0017】
ズームリング8は周方向に回動可能とされ、回動方向に応じて各種レンズが光軸方向に移動することにより手動によるズーミング制御を行うことができる。
【0018】
図3は、撮像装置1のブロック図である。なお、この図では、特にカメラ筐体2とレンズ鏡筒3を区別せずに示している。
撮像装置1のカメラ筐体2及びレンズ鏡筒3の内外には、レンズ系9、撮像素子部10、信号処理部11、記録制御部12、表示部13、出力部14、操作部15、カメラ制御部16、メモリ部17、ドライバ部18、センサ部19などが設けられている。また、これ以外にも電源部などが適宜設けられている。
【0019】
レンズ系9は、入射端レンズ、ズームレンズ、フォーカスレンズ、集光レンズなどの各種レンズや、信号電荷が飽和せずにダイナミックレンジ内に入っている状態でセンシングが行われるようにレンズやアイリス(絞り)による開口量などを調整することで露光制御を行う絞り機構を備えて構成されている。フォーカルプレーンシャッタなどのシャッタユニットを備えて構成される場合もある。
なお、レンズ系9などの光学系部品は一部がカメラ筐体2に設けられていてもよい。
【0020】
撮像素子部10は、例えばCCD(Charge Coupled Device)型やCMOS(Complementary Metal-Oxide Semiconductor)型のイメージセンサや、光電変換した信号に対する信号処理回路を有する。2次元配列されたセンシング素子を有するイメージセンサにより、レンズ系9を介して入射された被写体からの光を光電変換する。そして信号処理回路で、光電変換による電気信号について、例えばCDS(Correlated Double Sampling)処理やAGC(Automatic Gain Control)処理やA/D(Analog/Digital)変換処理を行う。撮像素子部10は、これらの処理によって得たデジタルデータとしての撮像画像信号を、信号処理部11やカメラ制御部16に出力する。
【0021】
信号処理部11は、例えば、DSP(Digital Signal Processor)などのデジタル信号処理に特化したマイクロプロセッサや、マイクロコンピュータなどにより構成される。
この信号処理部11は、撮像素子部10から送られてくるデジタル信号(撮像画像信号)に対して、各種の信号処理を施す。
具体的には、R,G,Bの色チャンネル間の補正処理、ホワイトバランス補正、収差補正、シェーディング補正等の処理を行う。
また、信号処理部11は、R,G,Bの画像データから、輝度(Y)信号及び色(C)信号を生成(分離)するYC生成処理や、輝度や色を調整する処理、ニー補正やガンマ補正などの各処理を行う。
【0022】
更に、信号処理部11は、解像度変換処理や記録用や通信用のための符号化を行うコーデック処理などを行うことによって最終的な出力形式への変換を行う。最終的な出力形式へ変換された画像データは、メモリ部17に記憶される。また、画像データが表示部13に出力されることにより、背面モニタ4やEVFモニタ5aに画像が表示される。更に、外部出力端子から出力されることにより、撮像装置1の外部に設けられたモニタ等の機器に表示される。
【0023】
記録制御部12は、例えば不揮発性メモリからなる記録媒体に対して、静止画データや動画データ等の画像ファイル(コンテンツファイル)や、画像ファイルの属性情報、サムネイル画像等を記憶する処理を行う。
記録制御部12の実際の形態は多様に考えられる。例えば、記録制御部12が撮像装置1に内蔵されるフラッシュメモリに対する記録処理を行う構成されていてもよいし、撮像装置1に着脱できるメモリカード(例えば可搬型のフラッシュメモリ)と該メモリカードに対して記憶や読み出しのためのアクセスを行うアクセス部とで構成されていてもよい。また撮像装置1に内蔵されている形態としてHDD(Hard Disk Drive)などとして実現されることもある。
【0024】
表示部13は、撮像者に対して各種の表示を行うための処理を実行する。表示部13は、例えば、背面モニタ4やEVFモニタ5aとされる。表示部13は、信号処理部11から入力される適切な解像度に変換された画像データを表示する処理を行う。これにより、動画記録中のモニタ画像、動画記録開始或いはシャッター操作までのスタンバイ中の撮像画像である所謂スルー画などを表示させる。
更に、表示部13は、カメラ制御部16からの指示に基づいて各種操作メニューやアイコン、メッセージ等、GUI(Graphical User Interface)としての表示を画面上で実現させる。
また、表示部13は、記録制御部12において記録媒体から読み出された画像データの再生画像を表示させることが可能である。
【0025】
なお、本例においては、EVFモニタ5a及び背面モニタ4の双方が設けられているが、このような構成に限定されず、EVFモニタ5aと背面モニタ4の何れか一方のみが設けられていてもよいし、EVFモニタ5aと背面モニタ4の何れか一方或いは双方が着脱可能な構成とされていてもよい。
【0026】
出力部14は、外部機器とのデータ通信やネットワーク通信を有線や無線で行う。例えば、外部の表示装置、記録装置、再生装置等に対して撮像画像データ(静止画ファイルや動画ファイル)の送信を行う。
また、出力部14は、ネットワーク通信部として機能してもよい。例えば、インターネット、ホームネットワーク、LAN(Local Area Network)等の各種のネットワークによる通信を行い、ネットワーク上のサーバや端末等との間で各種データの送受信を行うようにしてもよい。
【0027】
操作部15は、上述した各種操作子6(カスタムキー6C1等を含む)だけでなく、タッチパネル方式を採用した背面モニタ4なども含んでおり、ユーザ(撮像者等)のタップ操作やスワイプ操作などの種々の操作に応じた操作情報をカメラ制御部16に出力する。
なお、操作部15は撮像装置1とは別体のリモートコントローラ等の外部操作機器の受信部として機能してもよい。外部操作機器としてはスマートフォン、タブレット、ブルートゥース(登録商標)リモートコントローラ、有線リモートコントローラ、フォーカス操作用のワイヤレス操作装置などが考えられる。
【0028】
マニュアルフォーカス制御についての操作を検出するフォーカスリング7やズーミング制御についての操作を検出するズームリング8は、操作部15の一態様とされている。
【0029】
カメラ制御部16は、CPU(Central Processing Unit)を備えたマイクロコンピュータ(演算処理装置)により構成され、撮像装置1の統括的な制御を行う。なお図3でカメラ制御部16として説明する制御機能は、実際には、カメラ筐体2側とレンズ鏡筒3側のそれぞれに搭載される別個のマイクロコンピュータにより実現される場合もある。
【0030】
カメラ制御部16は、例えば、ユーザ操作に応じた動画や静止画の記録制御、シャッタースピード、ゲイン、絞り等の制御、フォーカス制御、ズーム制御、信号処理部11における各種信号処理についての指示、記録した画像ファイルの再生動作制御などを行う。
またカメラ制御部16は各種撮影モードの切り替え等を行う。各種撮影モードとは、例えば、静止画像撮影モード、動画撮影モード、静止画を連続的に取得する連写モードなどである。
【0031】
カメラ制御部16は、これらの機能に対するユーザの操作を可能とするためのユーザインタフェース制御を行う。UI(User Interface)制御は、撮像装置1に設けられた各操作子6に対する操作を検出する処理や、背面モニタ4に対する表示処理や操作検出処理等を行う。
【0032】
また、カメラ制御部16は、レンズ系9が備える各種のレンズを制御するためにドライバ部18に対する指示を行う。
例えば、AF制御のための必要な光量を確保するために絞り値を指定する処理や、絞り値に応じた絞り機構の動作指示などを行う。
【0033】
メモリ部17は、カメラ制御部16が実行する処理に用いられる情報等を記憶する。図示するメモリ部17としては、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、フラッシュメモリなどを包括的に示している。
メモリ部17はカメラ制御部16としてのマイクロコンピュータチップに内蔵されるメモリ領域であってもよいし、別体のメモリチップにより構成されてもよい。
【0034】
メモリ部17のROMやフラッシュメモリ等には、カメラ制御部16が利用するプログラム等が記憶される。ROMやフラッシュメモリ等には、CPUが各部を制御するためのOS(Operating System)や画像ファイル等のコンテンツファイルの他、各種動作のためのアプリケーションプログラムやファームウェア等が記憶される。
カメラ制御部16は、当該プログラムを実行することで、レンズ鏡筒3を含む撮像装置1の全体を制御する。
【0035】
メモリ部17のRAMは、カメラ制御部16のCPUが実行する各種データ処理の際に用いられるデータやプログラム等が一時的に格納されることにより、カメラ制御部16の作業領域として利用される。
【0036】
ドライバ部18は、例えば、ズームレンズ駆動モータに対するモータドライバ、フォーカスレンズ駆動モータに対するモータドライバ、絞り機構を駆動するモータに対する絞り機構ドライバ等が設けられている。
各ドライバはカメラ制御部16からの指示に応じて駆動電流を対応する駆動モータに供給する。
【0037】
センサ部19は、撮像装置1に搭載される各種のセンサを包括的に示している。センサ部19としては、例えば位置情報センサ、照度センサ、加速度センサ等が搭載されている。
フォーカスリング7やズームリング8に設けられフォーカスリング7やズームリング8の回動方向の検出や操作量の検出を行うセンサはセンサ部19の一態様とされる。
またセンサ部19としては例えばIMU( inertial measurement unit:慣性計測装置)が搭載されており、例えばピッチ-、ヨー、ロールの3軸の角速度(ジャイロ)センサで角速度を検出することができるようにしてもよい。
【0038】
またセンサ部19としてToF(Time of Flight)センサなどの測距センサを備えている場合がある。測距センサにより得られる距離情報は、被写体までの奥行(デプス:depth)情報となる。例えばカメラ制御部16は、測距センサの検出値に基づいて、撮像画像の各フレームに対応したデプスマップを生成したり、特定の被写体の奥行情報を検出したりすることができる。
【0039】
なおカメラ制御部16は、距離に代えて,或いは距離と共に、被写体のデフォーカス情報を得ることもできる。例えば撮像素子部10のイメージセンサに設けられた像面位相差画素の出力から得られる位相差信号によりデフォーカス情報が得られる。デフォーカス情報は、フォーカス制御で合焦している位置からの距離差分に相当するため、奥行情報と等価に扱うこともできる。例えばカメラ制御部16は、像面位相差画素からの信号に基づいてデフォーカスマップを生成し、デフォーカスマップをデプスマップに変換したり、特定の被写体のデフォーカス情報からその被写体の奥行情報を検出したりすることができる。
【0040】
本開示では「奥行情報」は、デフォーカス情報や距離情報を含む意味で用いている。
【0041】
<2.撮像装置の機能構成>
カメラ制御部16は、メモリ部17に記憶されたプログラムを実行することにより各種の機能を備える。
カメラ制御部16が備える各機能について図4を参照して説明する。なお、各機能の一部は信号処理部11が有していてもよい。また、カメラ制御部16と信号処理部11が協働することにより各機能の一部が実現されてもよい。
【0042】
カメラ制御部16は本実施の形態の処理に関する機能として、フォーカス制御部30、UI制御部31、ピント位置検出部32、奥行情報検出部33、範囲設定部34、物体検出部35としての機能を備えている。
【0043】
フォーカス制御部30は、主にAF制御を実行する機能である。例えば上述の像面位相差画素からの信号に基づくデフォーカス情報を用いてAF制御を行う。例えばAFモードでは、撮像画像の面内のフォーカス制御対象領域内の被写体に合焦するようにレンズ駆動制御を行う。例えば画面中央の被写体を対象としてAF制御を行う。
また、トラッキングAFでは、フォーカス制御対象の移動(特に光軸方向の移動)に応じてフォーカス制御対象に合焦し続けるためのレンズ駆動制御を行う。
本実施の形態の場合、フォーカス制御部30は、手動操作に基づくフォーカスレンズ駆動が行われるMF状態でトリガ検出を行い、トリガ検出に基づいてトラッキングAF処理を開始する処理を行う。
【0044】
UI制御部31は、ユーザに対する出力やユーザからの入力に対応する機能である。
UI制御部31は、例えば表示部13に所定のGUI表示を実行させ、ユーザに各種の情報を提示したり、操作を提供したりする処理を行う。例えばメニュー表示や状態表示のためのアイコン表示などを実行する。
またUI制御部31は、操作部15に対するユーザ操作を検出する処理を行う。具体的には、操作子6の操作を検出する処理や、背面モニタ4に対するタッチ操作や、フォーカスリング7を回動させる操作を検出する処理や、ズームリング8を回動させる操作を検出する処理などを行う。
【0045】
なおUI制御部31は外部操作機器による操作を検出するものとしてもよい。
例えば、スマートフォン、タブレット、無線リモートコントローラ、有線リモートコントローラ、フォーカス操作用のワイヤレス操作装置のような外部操作機器からの操作信号を操作部15で受信した場合に、UI制御部31はそれらの操作を検出するものとする。
【0046】
ピント位置検出部32は、MF動作に可変される焦点位置を検出する。例えばフォーカスリング7の回動量や、フォーカスレンズの位置センサの情報などにより、逐次、MFにおける現在の焦点位置を検出する。これにより、例えばMF状態からトラッキングAFに移行するときに、その時点のピント位置を認識することができる。
【0047】
奥行情報検出部33は、被写体についての奥行情報を検出する。例えばデフォーカス情報や距離情報である。上述のように測距センサの検出情報やデフォーカス情報に基づいて、撮像画像の各フレームに対応するデプスマップやデフォーカスマップを生成することもある。
なお、デフォーカス情報は、像面位相差画素を用いる検出方式に限らず、別体位相差方式などであってもよい。
【0048】
範囲設定部34は、後述する面内範囲や奥行範囲の設定処理を行う機能である。例えばユーザの操作に応じて、或いは自動的に、面内範囲や奥行範囲の設定を行う。
【0049】
物体検出部35は、撮像画像の画像解析による物体検出処理を行う機能である。例えば撮像画像内出、顔、瞳、人(身体)、動物、特定の物品などの検出を行う。
物体検出の手法としては、人物検出、動物検出などの物体認識手法が知られているが、セマンティックセグメンテーション(Semantic Segmentation)などの手法を用いることもできる。
【0050】
<3.第1の実施の形態>
以下、実施の形態の具体的な処理例を説明していく。実施の形態の処理例は、例えば動画撮像時に、MF状態から所定のトリガ検出に応じてトラッキングAFを発動させる制御処理となる。
【0051】
まずこのような制御処理を行う必要性を説明しておく。
動画撮像時などに実行するトラッキングAFは、予めピントを合わせ続けたい被写体がユーザ操作又は自動処理などで指定された場合に、撮像装置1が指定した被写体を画像信号処理によって検出し、検出した被写体をオートフォーカスによってピントを合わせ続ける機能である。ユーザにとっては、トラッキングAFを使用することによって、特定の被写体にピントを合わせ続けることが容易になる。
【0052】
通常、このトラッキングAFは、オートフォーカスモードから開始される機能として提供されている。動画撮像時のオートフォーカスは、一般に常時動作するコンティニュアスAFとして提供されているため、画面内のどこかにピントが合っている状態からトラッキングAFが開始されることを意味する。
【0053】
しかし、動画撮像において1シーン中に特定の被写体に終始ピントを合わせておきたいとは限らない。例えば、シーンの最初は画面内に主被写体を入れずにピントを止めておいて、シーンの途中から画面内の主被写体に対してピントが追従するような演出がありえる。
【0054】
このようなシーンを撮像するためには、
(a)最初から最後までマニュアルフォーカス操作によって所望のピント状態を得る。
(b)最初にマニュアルフォーカスにしてピントを止めておいて途中からオートフォーカスに切り替えてピントが制御されるようにする。
(c)最初にマニュアルフォーカスにしてピントを止めておいて途中からオートフォーカスに切り替えた後にトラッキングAFを開始する
といった手法が考えられる。
【0055】
ところが、(a)の場合は難しいマニュアルフォーカス操作が求められ、(b)の場合は十分なオートフォーカス性能が求められ、(c)の場合は操作ステップ数が増えてしまう。
本実施の形態では、例えばこのようなMF状態からトラッキングAFを発動させることを、より簡易に実現できるようにする処理を提供する。すなわち動画撮像などの場合に、複雑なフォーカス操作無しに、ピントを止める事と、ピントを特定の被写体に追従させることを、シームレスに切り替えられる実現手段を提供するともいえる。
【0056】
図5は、カメラ制御部16の制御処理例である。特にここではMF状態からトラッキングAFに遷移する処理例を示している。
図においてはマニュアルフォーカス(MF)状態における処理と、オートフォーカス(AF)状態における処理とを、それぞれ破線で囲って示している。
なお、ステップS100,S101,S102の処理に( )を付しているが、これは任意処理、つまり必須の処理ではないという意味である。
以上は、後述する第2から第5の実施の形態のフローチャート(図10図13図16図19)でも同様とする。
そして図5や、後述する第2から第5の実施の形態の処理例は、図4のフォーカス制御部30、UI制御部31、ピント位置検出部32、奥行情報検出部33、範囲設定部34、物体検出部35としての機能の全部又は一部を備えているカメラ制御部16により実行される処理例である。
【0057】
図5の処理において、MF状態では、カメラ制御部16は、逐次ステップS100、S101、S102の処理を行いながら、ステップS103でトリガ検出を行う。
【0058】
ステップS100は、カメラ制御部16が現在のピント位置を検出する処理である。MF状態において、ユーザのフォーカスリング7の操作に応じてフォーカスレンズが駆動された場合、カメラ制御部16はステップS100で、その駆動後のピント位置を検出する。これによりカメラ制御部16は、MF状態の期間に常時、ピント位置を把握する。
例えばレンズ鏡筒3において、フォーカスレンズがフォーカスリング7の操作に応じてメカニカルに光軸方向に移動される構造の場合、カメラ制御部16は、そのフォーカスレンズの移動に応じてピント位置を検出する。
また例えばカメラ制御部16が、フォーカスリング7の操作に応じてモータ駆動制御を行い、フォーカスレンズを光軸方向に移動される構造の場合、カメラ制御部16は、そのフォーカスリング7の操作に応じてフォーカスレンズの移動制御を行いながら、ピント位置を検出する。
【0059】
ステップS101としてカメラ制御部16は、物体検出処理を行う。この物体検出処理は、例えば撮像画像の1フレーム毎、或いは間欠的なフレーム毎にカメラ制御部16が実行し、被写体のうちで特定の物体を検出する。例えば1フレームの画像内で、顔、身体、瞳などを検出する。
この物体検出処理では、人に限らず、動物、特定の動物を検出してもよいし、車、飛行体、船舶、その他の物品など、特定の物体を検出してもよい。
また1フレーム内で1つの物体を検出してもよいし、複数の物体を検出してもよい。
さらにカメラ制御部16は、検出する対象の物体について優先順位を設定してもよい。例えば人の顔を優先する、動物を優先するなどである。各種の物体や部位について優先順位付けをしてもよい。例えば人の検出の場合に、瞳、顔、身体の順に優先順位付けを行うなどである。
【0060】
ステップS102としてカメラ制御部16は、奥行情報としてデフォーカス値又は距離の検出処理を行う。この処理は被写体に対する奥行情報を検出するものである。カメラ制御部16は、この処理を例えば撮像画像の1フレーム毎、或いは間欠的なフレーム毎に実行する。なおデフォーカス情報は、ピント位置からの距離に相当する情報となるので奥行情報として用いることができる。
このステップS102の処理により、例えばデフォーカスマップやデプスマップとして、フレーム内の全領域の奥行情報を得るようにしてもよいし、例えばステップS101の物体検出で検出した物体についてのデフォーカス値や距離値を判定するように、フレーム内の一部の領域の奥行情報を検出するものとしてもよい。
【0061】
図6は、フレーム内の全域で奥行情報(デフォーカス値又は距離値)を得る場合の例である。1フレームの画像の面内について、検出ブロック60毎に奥行情報を検出する。1つの検出ブロック60は1又は複数の画素群の領域に相当する。測距センサの検出値や、デフォーカス量の検出値に基づいて、検出ブロック60毎に奥行情報が検出されることで、デプスマップやデフォーカスマップが生成できる。
なおデプスマップは各検出ブロック60の測距情報により生成できる。また各検出ブロック60のデフォーカス情報によるデフォーカスマップを、デプスマップに変換することもできる。
【0062】
以上のように、MF状態でステップS103におけるトリガ検出がなされていない期間は、カメラ制御部16はステップS100、S101、S102を実行する。但し第1の実施の形態では、これらは任意処理であり、MF状態において実行されなくてもよい。後述するステップS201でのトラッキングAFのターゲットの決定の際に、ピント位置、検出物体、距離情報のそれぞれが用いられる場合、その必要に応じてステップS100、S101、S102の一部又は全部が実行されるようにすればよい。
また、これらステップS100、S101、S102の処理は、MF状態で逐次行うことに限らず、例えばステップS103でトリガ検知された後に、必要に応じて実行するようにしてもよい。
【0063】
ステップS103でカメラ制御部16は、トリガ検出として、位置と開始の指示を監視する。これはユーザ操作により、トラッキングAFの開始の指示と、トラッキングAFのターゲットとする面内位置の指示を検出する処理である。面内位置とは、フレーム(画像)の一画面内の位置のことである。
例えばカメラ制御部16は、背面モニタ4に表示しているスルー画に対するユーザのタッチ操作(又はそれと同等の操作)を監視する。
タッチ操作自体がトラッキングAFの開始の指示となり、背面モニタ4上でのタッチした位置が、トラッキングAFのターゲットとする面内位置の指示となる。
【0064】
例えばタッチ操作によるトリガを検出したら、カメラ制御部16は、ステップS103からステップS201に進み、ターゲットを決定してトラッキングAF制御を開始する。
【0065】
ターゲットの決定は次のような例がある。ターゲット決定例を(TG11)から(TG18)として説明する。
なお各例において「被写体」をターゲットとする場合と「検出物体」をターゲットとする場合を挙げているが、「被写体」をターゲットとするというのは、例えば該当位置の被写体の特徴(色、模様等)をターゲットとするという意味で、「検出物体」をターゲットとするということは被写体のうちで物体検出処理により特定の被写体として検出された物体をターゲットにするという意味である。
【0066】
(TG11)指定位置の被写体をターゲットとする。
例えばタッチ操作により指定された面内位置の被写体としての色、模様、パターン、その他の特徴を検出し、それをターゲットとする。
なお、この場合、カメラ制御部16は、ステップS100、S101、S102の処理を実行しておく必要はない。
【0067】
(TG12)指定位置付近の検出物体をターゲットとする。
ユーザが指定した面内位置、もしくはその付近における検出物体をターゲットとする。指定位置の付近とするのは、必ずしもユーザが正確に検出物体の位置をタッチするとは限らないためである。ユーザが、例えば画面内の「顔」の付近をタッチすれば、カメラ制御部16は、その「顔」をターゲットとして決定することになる。
なおカメラ制御部16は、このターゲットの決定のためにステップS101の物体検出を行っておく。
【0068】
(TG13)指定位置付近の複数の検出物体のうちでサイズ条件を用いてターゲットを選択する。
ユーザが指定した面内位置の付近に複数の検出物体が存在する場合に、その複数の検出物体の中で、サイズ条件によりターゲットを決定する例である。サイズとは画面内の面積と考えればよい。検出物体に該当する画素数と考えてもよい。
例えば複数の人が被写体となっていた場合に、最も撮像装置1に近い人の顔が最もサイズが大きくなり、最も遠い人の顔が最もサイズが小さくなる。このような面内のサイズにより選択する。例えば最もサイズが大きい検出物体をターゲットとする。もちろん、最もサイズが小さい検出物体をターゲットとする例もある。或いは3以上の検出物体が存在する場合に、中央のサイズ、中間のサイズの検出物体をターゲットとする例もある。
なお、この(TG13)のターゲット決定のためには、カメラ制御部16は、ステップS101の物体検出を行っておく。
【0069】
(TG14)指定位置付近の複数の検出物体のうちで優先条件を用いてターゲットを選択する。
ユーザが指定した面内位置の付近に複数の検出物体が存在する場合は、物体種別の優先条件によりターゲットを決定する例である。優先条件は、予め設定されていてもよいし、ユーザが任意に設定してもよい。例えば優先順位として「1:瞳」「2:顔」「3:身体」として設定される例、「1:女性」「2:男性」(或いはその逆)として設定される例、「1:笑顔」「2:笑っていない顔」として設定される例、「1:動物」「2:人」として設定される例、などが想定される。これらは撮影の目的などに応じて設定されればよい。
そして例えば複数の検出物体が存在する場合に、その中で優先順位により最上位となる検出物体をターゲットとする。
なお、この(TG14)のターゲット決定のためには、カメラ制御部16は、ステップS101の物体検出を行っておく。
【0070】
(TG15)指定位置付近の複数の検出物体のうちでピント位置を用いてターゲットを選択する。
ユーザが指定した面内位置の付近に複数の検出物体が存在する場合は、その時点のピント位置、つまりユーザがMF状態で設定したピント位置との比較により、ターゲットの決定を行う例が考えられる。具体的には奥行方向の距離がピント位置に最近傍となっている検出物体をターゲットとする。これにより、MFで設定したピント位置に近い検出物体に対して円滑にトラッキングAFを開始できる。
なお、例としてはピント位置から最も離れた検出物体や、ピント位置から所定距離だけ離れた位置に近い検出物体をターゲットとするなど、ピント位置を用いたターゲット選択の例は,他にも考えられる。
この(TG15)のターゲット決定のためには、カメラ制御部16は、ステップS101の物体検出と、ステップS100のピント位置検出と、ステップS102の奥行情報の検出を行っておく。
【0071】
(TG16)指定位置付近の複数の検出物体のうちで奥行情報(デフォーカス情報又は距離情報)を用いてターゲットを選択する。
ユーザが指定した面内位置の付近に複数の検出物体が存在する場合は、各検出物体の奥行情報によりターゲットの決定を行う。例えば最至近(最も撮像装置1に近い)の検出物体をターゲットとする。これにより、撮像装置1からみて近い人物等をターゲットとすることができる。最至近の検出物体であればトラッキングAFの過程でターゲットをロスト(追尾不能となる)することも起こりにくい。
なお、例としては最遠(最も撮像装置1から遠い)の検出物体や、中間位置の検出物体をターゲットとするなど、検出物体の奥行情報を用いたターゲット選択の例は,他にも考えられる。
この(TG16)のターゲット決定のためには、カメラ制御部16は、ステップS101の物体検出と、ステップS102の奥行情報の検出を行っておく。
【0072】
(TG17)指定位置付近のピント位置の最近傍の被写体をターゲットとする。
ユーザが指定した面内位置を基準にした所定範囲を指定位置付近とする。例えば指定位置を中心として面内方向に所定距離の範囲を指定位置付近とする。或いは指定位置を中心に面内方向の矩形範囲を設定し、これを指定位置付近としてもよい。そして指定位置付近とされたエリア内で、奥行方向の距離が最もピント位置に近い被写体をターゲットとする。つまりそのピント位置最近傍の被写体として、色、模様、パターン、その他の特徴を検出し、それをターゲットとする。
この(TG17)のターゲット決定のためには、カメラ制御部16は、ステップS100のピント位置検出と、ステップS102の奥行情報の検出を行っておく。
【0073】
(TG18)指定位置付近の最至近の被写体をターゲットとする。
上記の(TG17)と同様に、ユーザが指定した面内位置を基準にした所定範囲を指定位置付近とする。そして指定位置付近とされたエリア内で、奥行方向の距離が最も撮像装置1に近い被写体をターゲットとする。つまりその最至近の被写体として、色、模様、パターン、その他の特徴を検出し、それをターゲットとする。
この(TG18)のターゲット決定のためには、カメラ制御部16は、ステップS102の奥行情報の検出を行っておく。
【0074】
以上の(TG11)から(TG18)は例であり、他にもターゲット決定例は考えられる。カメラ制御部16はステップS201で以上のような例のターゲット決定を行い、トラッキングAFを開始させる。
そしてステップS202でカメラ制御部16は、実際のトラッキングAFとしての制御処理を行う。即ち後続のフレームにおいてターゲットに対してピント位置が追従されるようにフォーカス制御を実行することになる。
このトラッキングAFの制御は、ステップS203でトラッキングAF終了と判定するまで継続する。
【0075】
ステップS203でカメラ制御部16はトラッキングAFの終了を判定する。例えばユーザ操作としてトラッキングAFの終了、撮像の終了、モード変更などがあった場合にトラッキングAFの終了と判定する。また、トラッキングAFの実行中に追尾不能となることでトラッキングAF終了と判定する場合もある。例えばターゲットがフレームアウトして追尾できなくなることがある。またターゲットとした被写体が、追尾できないものであるとして、トラッキングAFを終了させる場合もある。例えばユーザ操作の指定位置の被写体をターゲットとしたが、追尾すべき被写体範囲が明確に特定できなかった場合、トラッキングAF終了とする場合がある。
【0076】
トラッキングAF終了と判定した場合、図5の例では、カメラ制御部16は例えばステップS100に戻り、MF状態とする。或いは、MF状態に戻らずに、図5の処理を終了し、AFモードの状態としてもよい。
これは後述する第2から第5の実施の形態でも同様である。
【0077】
このような図5の処理によって実現されるトラッキングAFの動作例を図7Aから図7Dで説明する。図7Aから図7D図5の処理過程での撮像画像の表示例を示している。
【0078】
図7Aは、MF状態で、ある位置にピントが合っている状態である。つまりMFである焦点距離に固定されている状態である。図5のステップS100からステップS103の処理期間である。
【0079】
例えばこのMF状態の期間において、ステップS102で奥行情報の検出処理が行われる場合は、図7Bに示すように検出ブロック60毎に測距又はデフォーカス量の検出が行われる。なお図7Bには説明のために検出ブロック60を示しているが、この検出ブロック60は背面モニタ4の画面上に表示されるわけではない。
【0080】
また、例えばMF状態の期間において、ステップS101で各フレームについて物体検出処理が行われる場合がある。図7Bでは、顔が検出され、検出枠51が表示される例を示している。検出枠51が表示されることで、ユーザは物体検出処理で画像内において例えば顔などが検出されたことを知ることができる。
【0081】
ユーザはタッチ操作50を行うことができる。例えば検出枠51の付近をタッチする。
カメラ制御部16は、図5のステップS103で、このタッチ操作50をトリガとして検出し、ステップS201に進む。
例えば図7Cのように、検出された顔をターゲットとしてトラッキングAFを開始する。この場合にカメラ制御部16は、ターゲットとした被写体の範囲にトラッキング枠52を表示させることで、ユーザはトラッキングAFが開始されたこと、及びトラッキングAFのターゲットを知ることができる。
その後トラッキングAF制御により、ピントがターゲットに追従される。図7Dはターゲットの奥行や面内の位置が変化しても、トラッキング枠52が追従し、トラッキングAFが行われている状態を示している。
【0082】
以上のようにMF状態からユーザの操作に応じて円滑にトラッキングAFが発動されることになる。
【0083】
なお、図5のような処理を実行させるためのモード設定の例を説明しておく。図5の処理をカメラ制御部16に実行させるために、ユーザはフォーカスモードをMFモードにしたうえで、タッチ操作をトラッキングAFの開始及び位置のトリガとする設定を行うことが考えられる。
【0084】
まずフォーカスモードをMFモードにする。図8Aは例えば背面モニタ4にファンクションメニュー65を表示させた例である。このときはAFモードが選択されているとすると、フォーカスモード項目66として「AF-C」(コンティニアスAF)が表示されている。
ユーザは、このファンクションメニュー65においてフォーカスモード項目66を選択し、変更キー67を操作する。これによりユーザは、図8Bの「AF-C」「MF」のアイコンとしていずれかを選択できる。ユーザが「MF」を選択することで、図8Cのようにファンクションメニュー65においてフォーカスモード項目66が「MF」となり、マニュアルフォーカスモードが選択された状態となる。
【0085】
なお、以上はファンクションメニュー65を用いたモード選択の操作例であるが、フォーカスモード選択用の操作子6が設けたり、カスタムキー6Cを用いて可能となるようにしたりして、より簡易にフォーカスモード選択を行うことができるようにしてもよい。
【0086】
このようにMFモードを選択した上で、ユーザはタッチ機能の設定を行う。図9Aはメニュー62を表示している状態である。この時点ではメニュー62内の「撮影時のタッチ機能」の項目は「タッチフォーカス」とされているとする。
ユーザはメニュー62で「撮影時のタッチ機能」を選択する。これにより図9Bのサブメニュー63が表示される。ユーザはサブメニュー63において「タッチトラッキング」を選択する。そしてメニュー62に戻ると、図9Cのようにメニュー62内の「撮影時のタッチ機能」の項目は「タッチトラッキング」とされる。
このような操作で、タッチ操作がトラッキングAFのトリガとなる設定が行われるようにする。
以上の設定により、図5の処理が実行される状態とすることができる。
なお、タッチ機能の設定の変更は、以上のようなメニュー62を用いる操作以外でも可能である。例えば所定の操作子6を用いる操作により可能としてもよい。
【0087】
なお、図8Cのような「MF」は一般的なマニュアルフォーカスモードを示すもので、タッチ操作によりトラッキングAFに移行することを示しているものではない。図9Cのように「タッチトラッキング」を選択することで図5の処理が行われるようにしている。これは一般的なMFと、図5のMFを区別できる意味がある。
つまり一般的なMFでは、単にフォーカスリング7の操作に応じたフォーカスレンズ駆動が行われるものであるが、「タッチトラッキング」を選択することで、タッチ操作でトラッキングAFを発動させることができるようになる。つまりユーザは、トラッキングAFを発動させない通常のMFと、図5のようにタッチ操作のトリガによりトラッキングAFを発動させるMFを使い分けることができる。
【0088】
なお、フォーカスモードとして、MFモード、AFモードに加えて、図5のようなMFから所定のトリガによりトラッキングAFへ切り替えるモードを用意し、ユーザが任意に選択できるようにしてもよい。
【0089】
<4.第2の実施の形態>
第2の実施の形態の処理例を図10で説明する。なお以降のフローチャートにおいて説明済みの処理については同一のステップ番号を付し、重複した詳細な説明は避ける。
【0090】
MF状態では、カメラ制御部16は、逐次図10のステップS100、S110、S101、S102の処理が行いながら、ステップS106でトリガ検出を行う。
この場合、上述の図5のステップS100(ピント位置検出)、ステップS101(物体検出)、ステップS102(奥行情報の検出)に加えて、ステップS110でトラッキングAFを開始させる面内範囲の設定が行われる。
なお、これらステップS100、S110、S101、S102の処理は、MF状態で逐次行うことに限らず、例えばステップS106でトリガ検知された後に、必要に応じて実行するようにしてもよい。
【0091】
面内範囲の設定とは、1フレームの画像内の範囲の設定のことである。図11Aに、面内範囲枠53として、ある面内範囲が設定されている例を示している。この面内範囲は、第2の実施の形態では、トラッキングAFを開始する被写体、つまりターゲットの決定に用いるものとしている。
面内範囲は、任意の時点でユーザが面内範囲枠53を表示させ、移動させ、或いは拡大・縮小させる操作を行うことに応じて設定してもよい。或いは、カメラ制御部16が自動的に設定してもよい。例えば面内の中央位置に所定サイズなどで設定してもよい。
さらには、特に指定しない場合は,面内全域が面内範囲に該当するとしてもよい。
【0092】
図10の例では、ステップS106のトリガ検出として開始の指示を監視する。これはカメラ制御部16が、ユーザの特定の操作子6の操作をトリガとして認識するものである。例えばカスタムキー6C4の操作が、当該トリガ操作として割り当てられているとしたら、カメラ制御部16は、カスタムキー6C4の操作をステップS106で監視することになる。
【0093】
開始の指示としての操作、例えばカスタムキー6C4の操作を検出したら、カメラ制御部16はステップS106からステップS201に進み、ターゲットを決定してトラッキングAF制御を開始する。
【0094】
この場合のターゲットの決定は次のような例がある。ターゲット決定例を(TG21)から(TG28)として説明する。
【0095】
(TG21)面内範囲の中心の被写体をターゲットとする。
トリガ発生時のフレームで面内範囲の中心にある被写体について、色、模様、パターン、その他の特徴を検出し、それをターゲットとする。
なお、この場合、カメラ制御部16は、ステップS100、S101、S102の処理を実行しておく必要はない。
ステップS110による面内範囲内の設定を反映させるが、もし面内範囲の設定がされていない場合は、画像全域を面内範囲として扱うようにしてもよい。これは、以下の(TG22)から(TG28)につても同様である。
【0096】
(TG22)面内範囲内の検出物体をターゲットとする。
例えば面内範囲内で「顔」が検出されていれば、カメラ制御部16は、その「顔」をターゲットとして決定することになる。
この(TG22)のターゲット決定のためには、カメラ制御部16は、ステップS101の物体検出を行っておく。
【0097】
(TG23)面内範囲内の複数の検出物体のうちでサイズ条件を用いてターゲットを選択する。
面内範囲内に複数の検出物体が存在する場合は、サイズ条件によりターゲットを決定する。サイズとは画面内での面積である。そして例えば面内範囲内で最もサイズが大きい検出物体をターゲットとする。面内範囲内で最もサイズが小さい検出物体をターゲットとする例や、3以上の検出物体が面内範囲内に存在する場合に、中央のサイズ、中間のサイズの検出物体をターゲットとする例もある。
この(TG23)のターゲット決定のためには、カメラ制御部16は、ステップS101の物体検出を行っておく。
【0098】
(TG24)面内範囲内の複数の検出物体のうちで優先条件を用いてターゲットを選択する。
面内範囲内に複数の検出物体が存在する場合は、物体種別の優先条件によりターゲットを決定する例である。面内範囲内で複数の検出物体が存在する場合に、その中で優先順位により最上位となる検出物体をターゲットとする。
この(TG24)のターゲット決定のためには、カメラ制御部16は、ステップS101の物体検出を行っておく。
【0099】
(TG25)面内範囲内の複数の検出物体のうちでピント位置を用いてターゲットを選択する。
面内範囲内に複数の検出物体が存在する場合は、その時点のピント位置、つまりユーザがMF状態で設定したピント位置との比較により、ターゲットの決定を行う。例えば面内範囲であって、奥行方向の距離がピント位置に最近傍の検出物体をターゲットとする。これにより、MFで設定したピント位置にある検出物体に対して円滑にトラッキングAFを開始できる。
なお、例としては面内範囲であってピント位置から最も離れた検出物体や、面内範囲内であってピント位置から所定距離だけ離れた位置に近い検出物体をターゲットとするなど、ピント位置を用いたターゲット選択の例は,他にも考えられる。
この(TG25)のターゲット決定のためには、カメラ制御部16は、ステップS101の物体検出と、ステップS100のピント位置検出と、ステップS102の奥行情報の検出を行っておく。
【0100】
(TG26)面内範囲内の複数の検出物体のうちで奥行情報(デフォーカス情報又は距離情報)を用いてターゲットを選択する。
面内範囲内に複数の検出物体が存在する場合は、各検出物体の奥行情報によりターゲットの決定を行う。例えば最至近(最も撮像装置1に近い)の検出物体をターゲットとする。これにより、撮像装置1からみて近い人物等をターゲットとすることができる。
なお、例としては最遠(最も撮像装置1から遠い)の検出物体や、中間位置の検出物体をターゲットとするなど、検出物体の奥行情報を用いたターゲット選択の例は,他にも考えられる。
この(TG26)のターゲット決定のためには、カメラ制御部16は、ステップS101の物体検出と、ステップS102の奥行情報の検出を行っておく。
【0101】
(TG27)面内範囲内でピント位置の最近傍の被写体をターゲットとする。
面内範囲内で、奥行方向の距離が最もピント位置に近い被写体をターゲットとする。つまりそのピント位置最近傍の被写体として、色、模様、パターン、その他の特徴を検出し、それをターゲットとする。
この(TG27)のターゲット決定のためには、カメラ制御部16は、ステップS100のピント位置検出と、ステップS102の奥行情報の検出を行っておく。
【0102】
(TG28)面内範囲内の最至近の被写体をターゲットとする。
面内範囲内で、奥行方向の距離が最も撮像装置1に近い被写体をターゲットとする。つまりその最至近の被写体として、色、模様、パターン、その他の特徴を検出し、それをターゲットとする。
この(TG28)のターゲット決定のためには、カメラ制御部16は、ステップS102の奥行情報の検出を行っておく。
【0103】
以上は例であり、他にもターゲット決定例は考えられる。カメラ制御部16はステップS201で以上のような例のターゲット決定を行い、トラッキングAFを開始させる。
そしてステップS202でカメラ制御部16は、実際のトラッキングAFとしての制御処理を行い、またステップS203でトラッキングAF終了の判定を行う。
【0104】
このような図10の処理によって実現されるトラッキングAFの動作例を説明する。図11Aから図11D図10の処理過程での撮像画像の表示例を示している。
【0105】
図11Aは、MF状態で、ある位置にピントが合っている状態である。また図10のステップS110の処理で、面内範囲が設定され、面内範囲枠53が表示された状態である。
【0106】
図11Bは、このMF状態の期間において、ステップS102で奥行情報の検出処理が検出ブロック60毎に行われることや、ステップS101で各フレームについて物体検出処理が行われ、検出に応じて検出枠51が表示されることを示している。
【0107】
ユーザがカスタムキー6C4の操作等により開始の指示を行うと、カメラ制御部16は図10のステップS106で、このカスタムキー6C4の操作等をトリガとして検出し、ステップS201に進む。
そして例えば図11Cのように、検出された顔をターゲットとしてトラッキング枠52を表示させ、トラッキングAFを開始する。図7Dはターゲットの奥行や面内の位置が変化しても、トラッキング枠52が追従し、トラッキングAFが行われている状態を示している。
以上のようにMF状態からユーザの操作に応じて円滑にトラッキングAFが発動されることになる。
【0108】
なお、図10のような処理を実行させるために、特定の操作子6を、ステップS106で検出する開始の指示となるように登録する例を説明しておく。
【0109】
図12Aはカスタムキー設定項目を含むメニュー70を、例えば背面モニタ4に表示させた例である。ここでは、静止画撮影モードのカスタムキー設定の項目75、動画撮影モードのカスタムキー設定の項目76、再生モードのカスタムキー設定の項目77などが用意されている。
【0110】
ユーザは例えば動画撮影モードのカスタムキー設定の項目76を選択し、図12Bのサブメニュー71を表示させる。サブメニュー71には、カスタムキー6C1からカスタムキー6C6についての項目が用意されている。例えばカスタムキー6C4に割り当てたい場合、ユーザはそのカスタムキー6C4を選択する。それにより図12Cのように選択メニュー72が表示され、例えば「トラッキングAF開始」を選択する。
これにより、動画撮影モードにおいては、カスタムキー6C4が、トラッキングAFの開始を指示する操作子に割り当てられたことになる。
【0111】
その後ユーザは、先に図8で説明したようなフォーカスモードの選択によりMFモードを選択しておけば、任意の時点でカスタムキー6C4を押すことで、トラッキングAFを発動させることができる。
つまり、MFモードとして、マニュアルフォーカス操作は普通に行なえるうえで、ユーザが望む時点でトラッキングAFを開始させることができる。
【0112】
<5.第3の実施の形態>
第3の実施の形態の処理例を図13で説明する。これは物体検出に基づくトリガで自動的にトラッキングAFを発動させる例である。
【0113】
MF状態では、カメラ制御部16は、逐次図13のステップS100(ピント位置検出)、ステップS110(面内範囲の設定)、ステップS101(物体検出)の処理が行いながら、ステップS111でトリガ検出を行う。
【0114】
ステップS111のトリガ検出として、カメラ制御部16は、面内範囲に検出物体があるか否かの判定を行う。
つまりステップS101の物体検出処理によって、検出物体が確認された場合に、その検出物体が、面内範囲内にあるか否かを判定する。なお、もし面内範囲の設定が行われていない場合は、画像内の全域を面内範囲とすればよい。
【0115】
カメラ制御部16は、面内範囲において検出物体が存在すると判定したら、それをトリガとしてステップS111からステップS201に進み、ターゲットを決定してトラッキングAF制御を開始する。
【0116】
この場合のターゲット決定例としては、上述の第2の実施の形態で述べた(TG22)(TG23)(TG24)などがある。
(TG22)面内範囲内の検出物体をターゲットとする。
(TG23)面内範囲内の複数の検出物体のうちでサイズ条件を用いてターゲットを選択する。
(TG24)面内範囲内の複数の検出物体のうちで優先条件を用いてターゲットを選択する。
【0117】
以上は例であり、他にもターゲット決定例は考えられる。カメラ制御部16はステップS201で以上のような例のターゲット決定を行い、トラッキングAFを開始させる。
そしてステップS202でカメラ制御部16は、実際のトラッキングAFとしての制御処理を行い、またステップS203でトラッキングAF終了の判定を行う。
【0118】
このような図13の処理によって実現されるトラッキングAFの動作例を説明する。図14Aから図14D図13の処理過程での撮像画像の表示例を示している。
【0119】
図14Aは、MF状態で、ある位置にピントが合っている状態である。また図13のステップS110の処理で、面内範囲が設定され、面内範囲枠53が表示された状態である。
【0120】
図14Bは、このMF状態の期間において、ステップS101で各フレームについて物体検出処理が行われ、検出に応じて検出枠51が表示されることを示している。
【0121】
カメラ制御部16は、図示のように検出物体が面内範囲枠53内に入ったと判定すると、図13のステップS111で、この判定をトリガとしてステップS201に進む。
そしてターゲットを決定し、例えば図14Cのようにトラッキング枠52を表示させ、トラッキングAFを開始する。図14Dはターゲットの奥行や面内の位置が変化しても、トラッキング枠52が追従し、トラッキングAFが行われている状態を示している。
以上のようにMF状態から自動的にトラッキングAFが発動されることになる。
【0122】
なお、画像処理による物体検出の手法としては、人物検出、動物検出などの物体認識手法が知られているが、セマンティックセグメンテーションの手法でセグメントを1つの物体としてとらえる検出を行うようにしてもよい。
図15Bは、図15Aの画像に対して同等の距離範囲となる画素範囲をセグメント(図の白色部分)として検出し、物体として判定する例を示している。即ち画素ごとにクラス識別を行い、画像全体をセグメントに分割する。クラス識別のクラスとは、人、物、空、海などがある。より詳細なクラス分類も可能である。
【0123】
<6.第4の実施の形態>
第4の実施の形態の処理例を図16で説明する。これは奥行情報に基づくトリガで自動的にトラッキングAFを発動させる例である。
【0124】
MF状態では、カメラ制御部16は、逐次図16のステップS100(ピント位置検出)、ステップS110(面内範囲の設定)、ステップS120(奥行範囲の設定)、ステップS102(奥行情報の検出)の処理が行いながら、ステップS121でトリガ検出を行う。
この例では、ステップS120(奥行範囲の設定)、ステップS102(奥行情報の検出)は必須処理としている。
【0125】
ステップS120の奥行範囲の設定とは、奥行方向の距離としての特定の範囲を、トラッキングAFを開始させる範囲として設定することである。
例えば図17Aには、画面上に奥行範囲設定バー61を示している。奥行範囲設定バー61は、撮像装置1の前方の距離として、例えば20mmから無限遠(INF)を表し、ユーザがバー上の操作で奥行方向の距離の範囲を任意に指定できるようにしたものである。この奥行範囲設定バー61の操作に応じて、カメラ制御部16はステップS120で奥行範囲を設定する。奥行範囲設定バー61により、設定された奥行範囲もバー上で明示されることになる。
この図17Aに示した奥行範囲設定バー61は、撮像装置1から距離で奥行範囲を設定する例であるが、図17Eのような奥行範囲設定バー61Aも考えられる。これはデフォーカス値で設定するものである。例えばバー中央の「0」を現在のピント位置として、+(ニア)側、-(ファー)側に、深度(ボケ量)を単位として任意の範囲を指定できるようにしたものである。なお奥行範囲設定バー61Aにおける範囲設定の+側の位置、-側の位置は、それぞれニア側の端部からファー側の端部から間で自由に設定できる。例えば仮にニア側の深度の最大値を「+10」、ファー端の深度の最大値を「-10」としたとき、設定する範囲は「+5から-5」、「+2」から「-1」、「-10」から「-7」、「+3」から「+5」などの例のようにユーザが自由に設定できる。さらには+側、-側の位置を一致させ、「+1」から「+1」などのように設定することを可能としてもよい。
なお、これらのようなユーザの操作手法は一例であり、奥行範囲設定バー61,61A以外を用いる設定操作の手法も考えられる。
【0126】
但し奥行範囲設定バー61等による距離の指定は、ユーザによってわかりにくいことがある。ユーザは奥行範囲設定バー61を見ただけでは、どのような距離の範囲に設定にすると、トラッキングAFを所望の被写体に対して発動できる状態となるかがわかりにくい。
そこで、図18のようなカラーマップにより、設定状態を表すようにするとよい。
この例では被写体91が、設定した奥行範囲内にあり、被写体92は奥行範囲より遠い側、被写体93は奥行範囲より近い側にあるとする。例えば被写体91を含む奥行範囲内の被写体が映っている領域は通常に表示されるようにする。一方、被写体92を含む奥行範囲より遠い被写体が映っている領域は青色(斜線部として示す)に表示され、被写体93を含む奥行範囲より近い被写体が映っている領域は赤色(点描部として示す)に表示される。
例えばこのようにカラーマップ表示を行うことで、画面内で各被写体の遠近関係がわかり、ユーザにとって、奥行範囲の設定の参考とすることができる。
【0127】
なお、奥行範囲はカメラ制御部16が自動的に設定してもよい。例えば奥行範囲がユーザによって指定されていない期間は、カメラ制御部16が規定の奥行範囲を設定しておくこととしてもよい。
【0128】
ステップS102の奥行情報(デフォーカス情報又は距離情報)の検出は、この図16の例では必須の処理とする。特にはこの場合、デフォーカス情報又は測距による距離情報によりデプスマップを生成することが考えられる。
【0129】
ステップS121のトリガ検出としては、カメラ制御部16は、奥行範囲にトラッキングAFの対象たりうる被写体があるか否かの判定を行う。
つまりフレームの各画素(或いは検出ブロック60の単位)について、ステップS102の奥行情報の検出値を参照し、奥行範囲内の距離に該当する画素(被写体)が存在するか否かを確認する。
【0130】
カメラ制御部16は、奥行範囲内の被写体が存在すると判定したら、それをトリガとしてステップS121からステップS201に進み、ターゲットを決定してトラッキングAF制御を開始する。
【0131】
この場合のターゲットの決定は次のような例がある。ターゲット決定例を(TG31)から(TG36)として説明する。
【0132】
(TG31)奥行範囲にある被写体をターゲットとする。
トリガ発生時のフレームで奥行範囲内の被写体について、色、模様、パターン、その他の特徴を検出し、それをターゲットとする。
なお、この場合、カメラ制御部16は、ステップS100、S110の処理を実行しておく必要はない。
【0133】
(TG32)奥行範囲内でピント位置の最近傍の被写体をターゲットとする。
奥行範囲内で、奥行方向の距離が最もピント位置に近い被写体をターゲットとする。
この(TG32)のターゲット決定を行う場合、カメラ制御部16は、ステップS100のピント位置検出を行う必要がある。一方、ステップS110の処理を実行しておく必要はない。
【0134】
(TG33)奥行範囲内の最至近の被写体をターゲットとする。
奥行範囲内で、奥行方向の距離が最も撮像装置1に近い被写体をターゲットとする。
この(TG33)のターゲット決定の場合、カメラ制御部16は、ステップS100、S110の処理を実行しておく必要はない。
【0135】
(TG34)奥行範囲かつ面内範囲にある被写体をターゲットとする。
トリガ発生時のフレームで奥行範囲内の被写体のうちで、面内範囲にある被写体をターゲットとする。
この処理により、ある被写体が奥行範囲に入り、かつ面内範囲に入ったときにトラッキングAFが発動されるようにすることができる。
なお、この場合、カメラ制御部16は、ステップS110の処理を行う。一方、ステップS100の処理を実行しておく必要はない。
【0136】
(TG35)奥行範囲内かつ面内範囲の被写体で、ピント位置の最近傍の被写体をターゲットとする。
トリガ発生時のフレームで奥行範囲内かつ面内範囲内の被写体のうちで、奥行方向の距離が最もピント位置に近い被写体をターゲットとする。
この(TG35)のターゲット決定を行う場合、カメラ制御部16は、ステップS100,S110の処理を行う必要がある。
【0137】
(TG36)奥行範囲内かつ面内範囲の最至近の被写体をターゲットとする。
トリガ発生時のフレームにおいて奥行範囲内且つ面内範囲内の被写体で、奥行方向の距離が最も撮像装置1に近い被写体をターゲットとする。
この(TG36)のターゲット決定の場合、カメラ制御部16は、ステップS110の処理を行う。一方、ステップS100の処理を実行しておく必要はない。
【0138】
以上は例であり、他にもターゲット決定例は考えられる。カメラ制御部16はステップS201で以上のような例のターゲット決定を行い、トラッキングAFを開始させる。
そしてステップS202でカメラ制御部16は、実際のトラッキングAFとしての制御処理を行い、またステップS203でトラッキングAF終了の判定を行う。
【0139】
このような図16の処理によって実現されるトラッキングAFの動作例を説明する。図17Aから図17D図16の処理過程での撮像画像の表示例を示している。
【0140】
図17Aは、MF状態で、ある位置にピントが合っている状態である。またステップS110の処理で、面内範囲が設定される場合、面内範囲枠53が表示される。また奥行範囲の操作のために奥行範囲設定バー61が表示され、ユーザが操作できるようにされる。また奥行範囲設定バー61で、現在設定されている奥行範囲が表示される。
【0141】
図17Bは、このMF状態の期間において、ステップS102で奥行情報の検出処理が検出ブロック60毎に行われることを示している。
【0142】
カメラ制御部16は、奥行範囲内の被写体が検出されたら、図16のステップS121で、この判定をトリガとしてステップS201に進む。
そしてターゲットを決定し、例えば図17Cのようにトラッキング枠52を表示させ、トラッキングAFを開始する。図17Dはターゲットの奥行や面内の位置が変化しても、トラッキング枠52が追従し、トラッキングAFが行われている状態を示している。
以上のようにMF状態から自動的にトラッキングAFが発動されることになる。
【0143】
<7.第5の実施の形態>
第5の実施の形態の処理例を図19で説明する。これは物体検出と奥行情報に基づくトリガで自動的にトラッキングAFを発動させる例である。
【0144】
MF状態では、カメラ制御部16は、逐次図19のステップS100(ピント位置検出)、ステップS110(面内範囲の設定)、ステップS120(奥行範囲の設定)、ステップS101(物体検出)、ステップS102(奥行情報の検出)の処理が行いながら、ステップS130でトリガ検出を行う。
この例では、ステップS101(物体検出)、ステップS102(奥行情報の検出)は必須処理としている。
【0145】
ステップS130のトリガ検出としては、カメラ制御部16は、面内範囲内であって、かつ奥行範囲内の検出物体があるか否かの判定を行う。
つまり物体検出処理の結果を参照し、検出物体が面内範囲内であるか否か、またその検出物体が奥行範囲内であることを確認する。
なお、図19でステップS110,S120を任意処理としているのは、もし面内範囲や奥行範囲が設定されなければ、トリガ検出に関しては、面内全域或いは奥行全域として扱えばよいという意味である。
【0146】
カメラ制御部16は、検出物体が確認され、それが面内範囲かつ奥行範囲内に存在すると判定したら、それをトリガとしてステップS130からステップS201に進み、ターゲットを決定してトラッキングAF制御を開始する。
【0147】
この場合のターゲットの決定は次のような例がある。ターゲット決定例を(TG41)から(TG45)として説明する。
なお、(TG41)から(TG45)で言う面内範囲は、特に設定されていなければ、画像全域と考えることとしてもよい。つまり「面内範囲且つ奥行範囲」は単に「奥行範囲」と読み替えることもできる。また、(TG44)(TG45)については、奥行範囲も特に設定されていなければ奥行方向の全域と考えることができ、「面内範囲且つ奥行範囲」は単に「面内範囲」と読み替えることもできる。
【0148】
(TG41)面内範囲且つ奥行範囲にある検出物体をターゲットとする。
物体検出処理により検出された物体であって、ステップS130のトリガとなった検出物体をターゲットとする例である。
なお、この場合、カメラ制御部16は、ステップS100の処理を実行しておく必要はない。
【0149】
(TG42)面内範囲且つ奥行範囲にある複数の検出物体のうちでサイズ条件を用いてターゲットを選択する。
面内範囲且つ奥行範囲に複数の検出物体が存在する場合は、サイズ条件によりターゲットを決定する。例えば該当する検出物体の内で最もサイズが大きい検出物体をターゲットとする。或いは最もサイズが小さい検出物体をターゲットとする例や、3以上の検出物体が該当する場合に、中央のサイズ、中間のサイズの検出物体をターゲットとする例もある。
この場合、カメラ制御部16は、ステップS100の処理を実行しておく必要はない。
【0150】
(TG43)面内範囲且つ奥行範囲にある複数の検出物体のうちで優先条件を用いてターゲットを選択する。
面内範囲且つ奥行範囲に複数の検出物体が存在する場合は、物体種別の優先条件により最上位となる検出物体をターゲットとする。
この場合、カメラ制御部16は、ステップS100の処理を実行しておく必要はない。
【0151】
(TG44)面内範囲且つ奥行範囲にある複数の検出物体のうちでピント位置を用いてターゲットを選択する。
面内範囲且つ奥行範囲に複数の検出物体が存在する場合は、その時点のピント位置、つまりユーザがMF状態で設定したピント位置との比較により、ターゲットの決定を行う。例えば該当する検出物体のうちで、奥行方向の距離がピント位置に最近傍の検出物体をターゲットとする。これにより、MFで設定したピント位置にある検出物体に対して円滑にトラッキングAFを開始できる。
なお、例としては該当する検出物体のうちで、ピント位置から最も離れた検出物体や、ピント位置から所定距離だけ離れた位置に近い検出物体をターゲットとするなど、ピント位置を用いたターゲット選択の例は,他にも考えられる。
この場合、カメラ制御部16は、ステップS100の処理を実行する。
【0152】
(TG45)面内範囲且つ奥行範囲にある複数の検出物体のうちで奥行情報(デフォーカス情報又は距離情報)を用いてターゲットを選択する。
面内範囲かつ奥行範囲内に複数の検出物体が存在する場合は、各検出物体の奥行情報によりターゲットの決定を行う。例えば最至近(最も撮像装置1に近い)の検出物体をターゲットとする。これにより、撮像装置1からみて近い人物等をターゲットとすることができる。
なお、例としては最遠(最も撮像装置1から遠い)の検出物体や、中間位置の検出物体をターゲットとするなど、検出物体の奥行情報を用いたターゲット選択の例は,他にも考えられる。
この場合、カメラ制御部16は、ステップS100の処理を実行しておく必要はない。
【0153】
以上は例であり、他にもターゲット決定例は考えられる。カメラ制御部16はステップS201で以上のような例のターゲット決定を行い、トラッキングAFを開始させる。
そしてステップS202でカメラ制御部16は、実際のトラッキングAFとしての制御処理を行い、またステップS203でトラッキングAF終了の判定を行う。
【0154】
このような図19の処理によって実現されるトラッキングAFの動作例を説明する。図20Aから図20D図19の処理過程での撮像画像の表示例を示している。
【0155】
図20Aは、MF状態で、ある位置にピントが合っている状態である。またステップS110の処理で、面内範囲が設定される場合、面内範囲枠53が表示される。また奥行範囲の操作のために奥行範囲設定バー61が表示され、ユーザが操作できるようにされる。また奥行範囲設定バー61で、現在設定されている奥行範囲が表示される。
【0156】
図20Bは、このMF状態の期間において、ステップS102で奥行情報の検出処理が検出ブロック60毎に行われることを示している。
またMF状態の期間において、ステップS101で各フレームについて物体検出処理が行われ、検出に応じて検出枠51が表示されることを示している。
【0157】
カメラ制御部16は、検出物体が奥行範囲内にあることを検出したら、図19のステップS130で、これをトリガとしてステップS201に進む。
そしてターゲットを決定し、例えば図20Cのようにトラッキング枠52を表示させ、トラッキングAFを開始する。図20Dはターゲットの奥行や面内の位置が変化しても、トラッキング枠52が追従し、トラッキングAFが行われている状態を示している。
以上のようにMF状態から自動的にトラッキングAFが発動されることになる。
【0158】
<8.まとめ及び変形例>
以上の実施の形態によれば次のような効果が得られる。
実施の形態の撮像装置は、手動操作に基づくフォーカスレンズ駆動が行われるMF状態でトリガ検出を行い、トリガの検出に基づいてトラッキングAF処理を開始するカメラ制御部16を備える。
これによりカメラマン等のユーザがMF状態で任意の距離に合焦させている状態から、複雑な操作を要せずに、特定の被写体などへ追従するトラッキングAFを発動させることができる。従って例えば動画撮像中にMFからトラッキングAFへの遷移を円滑に行うことができる。
なお実施の形態では主に動画撮像時を想定して説明したが、実施の形態のMFからトラッキングAFへの遷移に関する技術は静止画撮影モードにおけるフォーカス制御、例えばシャッタータイミングを狙っているときのフォーカス制御としても同様に適用できる。
【0159】
第1の実施の形態では、トラッキングAFを開始するトリガは、撮像画像を表示する画面内で位置を指定するユーザ操作であるとする例を挙げた。
ユーザは、例えば動画撮像中のスルー画などにおいて表示画面上をタッチするなどの位置指定操作を行うことで、MF状態からトラッキングAFを発動させることができる。この場合、トラッキングAFの開始タイミングと、トラッキングAFのターゲットを同時に指定できることになる。
【0160】
第2の実施の形態では、トラッキングAFを開始するトリガは、ユーザによる特定の操作子の操作である例を挙げた。
カメラマン等のユーザは、例えばカスタムキー6C4など、特定の操作子の操作により、MF状態からトラッキングAFを発動させることができる。この場合ユーザは、トラッキングAFの開始タイミングを指定できることになる。特にトリガを、カスタムキー6C4等の特定の操作子の1回操作(例えばワンプッシュ)のように極めて簡易な操作とすることで、MF状態からのトラッキングAFの発動を極めて円滑に実現できる。
【0161】
第3、第5の実施の形態では、トラッキングAFを開始するトリガは、撮像画像に対する物体検出処理に基づいて発生される例を挙げた。
MF状態で、例えば物体検出処理により顔、瞳、人、動物、特定物などの特定の被写体が検出されることや、特定の被写体が奥行範囲や面内範囲などを用いた所定の条件を満たすことなどの判定結果が得られることをトリガとして、自動的にトラッキングAFを発動させる。これにより追従対象となるべき検出物体がある場合、或いはさらに検出物体が適切な位置状態にあるという、トラッキングAFにとって好適なタイミングでトラッキングAFを自動的に開始させることができ、撮像装置1の操作性、利便性を向上させることができる。
【0162】
第4,第5の実施の形態では、トラッキングAFを開始するトリガは、センシング情報に基づいて発生される例を挙げた。
MF状態で、被写体に対する距離やフォーカス状態(デフォーカス)などのセンシングを行い、そのセンシング結果を用いてトリガを発生させ、自動的にトラッキングAFを発動させる。これにより適切なタイミングでトラッキングAFを自動的に開始させることができ、撮像装置1の操作性、利便性を向上させることができる。
センシング情報としては、像面位相差画素などにより得られるデフォーカス情報(被写体のボケの情報)、測距センサによる距離情報を挙げたが、それ以外にも、被写体側の照度情報、IMU等のモーションセンサによる撮像装置の動きの情報などが考えられる。
例えば被写体側が所定の照度まで明るくなったときに、トラッキングAFを発動させることや、撮像中の撮像装置1の所定の動きを検知してトラッキングAFを発動させるような例も考えられる。
【0163】
特に第4,第5の実施の形態で述べたように、センシング情報として、被写体に対するデフォーカス情報又は距離情報を用いる場合、予め想定した適切なタイミングでトラッキングAFを開始させることなどが容易となる。例えば動画撮像時に、フレームインして遠方から近づいてくる人物を撮影している際に、特定の距離に達したらトラッキングAFを開始させると言ったことが容易に実現できるようになる。
【0164】
第3,第5の実施の形態で述べたように、トラッキングAFを開始するトリガは、撮像画像の画像平面内の領域としての面内範囲の設定に基づいて発生されるようにしてもよい。
撮像画像の画面内で面内範囲(例えば面内範囲枠53で示される範囲)が設定された場合に、例えばその面内範囲に特定の被写体が検出されることなどをトリガとして、自動的にトラッキングAFを発動させる。これにより適切なタイミングでトラッキングAFを自動的に開始させることができ、撮像装置1の操作性を向上させることができる。
【0165】
第2,第3,第4,第5の実施の形態では、カメラ制御部16が面内範囲の提示制御を行う例を挙げた。
例えば面内範囲枠53として面内範囲をユーザに提示する。これによりユーザはトラッキングAFに移行させたい被写体の位置の設定を認識することができる。またユーザは、面内範囲枠53を選択したり、面内範囲枠53のサイズ、形状、位置等を変更したりする操作により、任意に面内範囲を設定できる。
【0166】
第4,第5の実施の形態では、トラッキングAFを開始するトリガは、被写体までの距離についての範囲である奥行範囲の設定に基づいて発生される例を挙げた。
撮像装置1から被写体側の距離方向の範囲である奥行範囲が設定された場合に、例えばその奥行範囲の被写体が検出されること、或いは検出物体が奥行範囲内であることなどをトリガとして、自動的にトラッキングAFを発動させる。これにより適切なタイミングでトラッキングAFを自動的に開始させることができ、撮像装置1の操作性を向上させることができる。
【0167】
第4,第5の実施の形態では、カメラ制御部16が奥行範囲の提示制御を行う例を挙げた。
例えば図17A図20Aの奥行範囲設定バー61や、図18のカラーマップなどとして、奥行範囲を提示する。ユーザは奥行範囲設定バー61により、任意に奥行範囲を設定できる。またカラーマップにより、どの被写体が、奥行範囲に含まれるかを容易に確認できることになる。
【0168】
第1の実施の形態では、カメラ制御部16が、操作により指定された、撮像画像の面内の指定位置に基づいて、トラッキングAF処理の対象(ターゲット)を決定する例を挙げた。
例えばユーザにより動画撮像中のスルー画などにおいて表示画面上をタッチするなどの位置を指定する操作が行われた場合に、その指定された面内の位置に基づいてトラッキングAFのターゲットを決定する。実施の形態の説明から次のような例が想定される。
・指定位置の被写体をターゲットとする。
・指定位置に存在する検出物体をターゲットとする。
・指定位置付近の検出物体をターゲットとする。
これら以外にも各種の例が考えられるが、このように指定位置に基づいてトラッキングAFのターゲットを決定することで、ユーザの位置指定に適したトラッキングAF動作が実現される。
また、指定位置付近の検出物体をターゲットとすることによれば、ユーザの画面に対するタッチ操作位置が、ユーザの望む検出物体の画像から若干ずれていたとしても、当該物体をターゲットとすることができるようになり、操作性を向上させることになる。
【0169】
なお各例において実施の形態で述べたように、「被写体」をターゲットとするというのは、画像としての被写体の色、模様、形状、特徴点などをターゲットとするという意味で、「検出物体」をターゲットとするということは被写体のうちで物体検出処理により特定の被写体として検出された物体をターゲットにするという意味である。
【0170】
第2,第3,第4,第5の実施の形態では、カメラ制御部16が、撮像画像の画像平面内の領域として設定された面内範囲に基づいて、トラッキングAF処理の対象を決定する例を挙げた。
撮像画像の画面内で面内範囲(例えば面内範囲枠53で示される範囲)が設定された場合に、その面内範囲に設定に基づいてトラッキングAFのターゲットを決定する。実施の形態の説明から次のような例が想定される。
・面内範囲の中央の被写体をターゲットとする。
・面内範囲に存在する検出物体をターゲットとする。
・面内範囲かつ奥行範囲に存在する被写体(又は検出物体)をターゲットとする。
・面内範囲で最至近の被写体(又は検出物体)をターゲットとする。
・面内範囲で最遠の被写体(又は検出物体)をターゲットとする。
・面内範囲でその時点のMF状態のピント位置に最も近い被写体(又は検出物体)をターゲットとする。
これら以外にも各種の例が考えられるが、面内範囲の設定を用いてターゲットを決定することによれば、ユーザは、トラッキングAFを開始する被写体の画面内での範囲を決めておくことができるようになる。
【0171】
第4,第5の実施の形態では、カメラ制御部16が、被写体までの距離についての範囲である奥行範囲の設定に基づいて、トラッキングAF処理の対象を決定する例を挙げた。
撮像装置1から被写体側の距離方向の範囲である奥行範囲が設定された場合に、その奥行範囲に設定に基づいてトラッキングAFのターゲットを決定する。実施の形態の説明から次のような例が想定される。
・奥行範囲の中央の被写体をターゲットとする。
・奥行範囲に存在する検出物体をターゲットとする。
・奥行範囲かつ面内範囲に存在する被写体(又は検出物体)をターゲットとする。
・奥行範囲で最至近の被写体(又は検出物体)をターゲットとする。
・奥行範囲で最遠の被写体(又は検出物体)をターゲットとする。
・奥行範囲でその時点のMF状態のピント位置に最も近い被写体(又は検出物体)をターゲットとする。
これら以外にも各種の例が考えられるが、奥行範囲の設定を用いてターゲットを決定することによれば、ユーザは、被写体の距離によってトラッキングAFを実行させるように設定できるようになる。
撮像装置1に最至近の被写体や検出物体をターゲットとするのであれば、トラッキングAFの過程でターゲットをロスト(追尾不能となる)することを起こりにくいものとすることができる。
【0172】
第1,第2,第4,第5の実施の形態では、カメラ制御部16が、被写体に対する奥行情報(デフォーカス情報又は距離情報)の検出に基づいて、トラッキングAF処理の対象を決定する例を挙げた。
デフォーカス情報又は距離情報に基づいてトラッキングAFのターゲットを決定するものとして、実施の形態の説明から次のような例が想定される。
・最至近の被写体(又は検出物体)をターゲットとする。
・最遠の被写体(又は検出物体)をターゲットとする。
・その時点のMF状態のピント位置に最も近い検出物体をターゲットとする。
・その時点のMF状態のピント位置に最も近い被写体をターゲットとする。
これら以外にも各種の例が考えられるが、デフォーカス情報又は距離情報を用いてターゲットを決定することによれば、ユーザは、被写体の距離によってトラッキングAFを実行させるように設定できるようになる。
【0173】
第1,第2,第3,第5の実施の形態では、カメラ制御部16が、撮像画像に対する物体検出処理に基づいて、トラッキングAF処理の対象を決定する例を挙げた。
撮像画像に対する物体検出処理で検出物体が得られることに応じて、トラッキングAFのターゲットを決定する。実施の形態の説明から次のような例が想定される。
・検出物体をターゲットとする。
・検出物体であって、設定された面内範囲にある被写体をターゲットとする。
・検出物体であって、設定された奥行範囲にある被写体をターゲットとする。
・検出物体であって、設定された面内範囲及び設定された奥行範囲にある被写体をターゲットとする。
これら以外にも各種の例が考えられるが、物体検出処理に基づいてターゲットを決定することによれば、画像内で検出される物体を対象としてトラッキングAFが開始されるようにすることができる。
【0174】
第1,第2,第3,第5の実施の形態では、カメラ制御部16が、撮像画像に対する物体検出処理による検出物体が複数ある場合、複数の検出物体のうちで選択した検出物体を、トラッキングAF処理の対象とする例を挙げた。
撮像画像に対する物体検出処理で複数の検出物体が得られる場合は、実施の形態の説明から次のような例が想定される。
・最大サイズの検出物体又は最小サイズの検出物体をターゲットとする。
・最至近の検出物体をターゲットとする。
・最遠の検出物体をターゲットとする。
・優先順位が高い検出物体をターゲットとする
・その時点のMF状態のピント位置に最も近い検出物体をターゲットとする。
・検出物体の1つが面内範囲にあり、他が面内範囲にない場合、面内範囲にあるものをターゲットとする。
・検出物体の1つが奥行範囲にあり、他が奥行範囲にない場合、奥行範囲にあるものをターゲットとする。
・検出物体のうちで、1つが面内範囲及び奥行範囲にあり、他がそれに該当しない場合面内範囲及び奥行範囲にあるものをターゲットとする。
・面内範囲にある複数の検出物体のうちで、サイズ、撮像装置との距離、ピント位置との距離、面内位置、優先順位などの条件で選択したものをターゲットとする。
・奥行範囲にある複数の検出物体のうちで、サイズ、撮像装置との距離、ピント位置との距離、面内位置、優先順位などの条件で選択したものをターゲットとする。
・面内範囲且つ奥行範囲にある複数の検出物体のうちで、サイズ、撮像装置との距離、ピント位置との距離、面内位置、優先順位などの条件で選択したものをターゲットとする。
これら以外にも各種の例が考えられるが、検出処理のうちで選択したものをターゲットとすることで、画像内で複数の検出物体がある場合も、適切にトラッキングAFのターゲットが設定されるようにすることができる。
【0175】
第1,第2,第3,第4,第5の実施の形態では、カメラ制御部16が、MF状態でのピント位置に基づいて、トラッキングAF処理の対象を決定する例を挙げた。
トリガによりトラッキングAFを開始する際、つまり直前のMF状態の操作で設定されたピント位置を用いて、トラッキングAFのターゲットを決定する。実施の形態の説明から次のような例が想定される。
・距離がピント位置の被写体(又は検出物体)をターゲットとする。
・距離がピント位置に近い検出物体をターゲットとする。
・面内範囲で、ピント位置に最も近い被写体(又は検出物体)をターゲットとする。
・奥行範囲で、ピント位置に最も近い被写体(又は検出物体)をターゲットとする。
・面内範囲且つ奥行範囲で、ピント位置に最も近い被写体(又は検出物体)をターゲットとする。
これら以外にも各種の例が考えられるが、MF状態でのピント位置に基づいてターゲットを決定することによれば、ユーザは直前のMF操作により、トラッキングAFが開始される被写体距離を設定できることになる。
【0176】
なお実施の形態では、図5図10図13図16図19のステップS100でフォーカス操作に応じたピント位置検出の処理を行うとしたが、これは撮像装置1からの距離(絶対値)を奥行情報として用いる場合に必要になる。
一方で、奥行範囲や奥行情報はデフォーカス(相対値)に基づいて、設定したり、ターゲット決定に用いたりすることができる。その場合、ステップS100の処理は必須ではない。例えばピント位置に近い被写体や検出物体をターゲットとする手法を採る場合などにおいてステップS100を行わない例もある。
【0177】
実施の形態のプログラムは、上述の図5図10図13図16図19のいずれかの処理を、例えばCPU、DSP等のプロセッサ、或いはこれらを含むデバイスに実行させるプログラムである。
即ち実施の形態のプログラムは、手動操作に基づくフォーカスレンズ駆動が行われるMF状態でトリガ検出を行い、トリガの検出に基づいてトラッキングAF処理を開始するフォーカス制御処理を、撮像装置1(撮像装置1に搭載されるプロセッサ)に実行させるプログラムである。
このようなプログラムにより、MF状態から円滑なトラッキングAFを発動できる撮像装置1を提供できる。
【0178】
このようなプログラムはコンピュータ装置等の機器に内蔵されている記録媒体としてのHDDや、CPUを有するマイクロコンピュータ内のROM等に予め記録しておくことができる。また、このようなプログラムは、フレキシブルディスク、CD-ROM(Compact Disc Read Only Memory)、MO(Magneto Optical)ディスク、DVD(Digital Versatile Disc)、ブルーレイディスク(Blu-ray Disc(登録商標))、磁気ディスク、半導体メモリ、メモリカードなどのリムーバブル記録媒体に、一時的あるいは永続的に格納(記録)しておくことができる。このようなリムーバブル記録媒体は、いわゆるパッケージソフトウェアとして提供することができる。
また、このようなプログラムは、リムーバブル記録媒体からパーソナルコンピュータ等にインストールする他、ダウンロードサイトから、LAN(Local Area Network)、インターネットなどのネットワークを介してダウンロードすることもできる。
【0179】
またこのようなプログラムによれば、実施の形態の撮像装置1の広範な提供に適している。例えば動画や静止画を撮像する専用機器としてのカメラだけでなく、パーソナルコンピュータ、スマートフォンやタブレット等の携帯端末装置、携帯電話機、ゲーム機器などであって撮像機能を備えている機器を、本開示の撮像装置1として機能させることができる。
【0180】
なお、本明細書に記載された効果はあくまでも例示であって限定されるものではなく、また他の効果があってもよい。
【0181】
なお本技術は以下のような構成も採ることができる。
(1)
手動操作に基づくフォーカスレンズ駆動が行われるマニュアルフォーカス状態でトリガを検出する処理であるトリガ検出を行い、前記トリガ検出の結果に基づいてトラッキングオートフォーカス処理を開始する制御部を備える
撮像装置。
(2)
前記トリガは、撮像画像を表示する画面内で位置を指定するユーザ操作である
上記(1)に記載の撮像装置。
(3)
前記トリガは、ユーザによる特定の操作子の操作である
上記(1)又は(2)に記載の撮像装置。
(4)
前記トリガは、撮像画像に対する物体検出処理に基づいて発生される
上記(1)から(3)のいずれかに記載の撮像装置。
(5)
前記トリガは、センシング情報に基づいて発生される
上記(1)から(4)のいずれかに記載の撮像装置。
(6)
前記センシング情報は、被写体に対する奥行情報である
上記(5)に記載の撮像装置。
(7)
前記トリガは、撮像画像の画像平面内の領域としての面内範囲の設定に基づいて発生される
上記(1)から(6)のいずれかに記載の撮像装置。
(8)
前記制御部は、前記面内範囲の提示制御を行う
上記(7)に記載の撮像装置。
(9)
前記トリガは、被写体までの距離についての範囲である奥行範囲の設定に基づいて発生される
上記(1)から(8)のいずれかに記載の撮像装置。
(10)
前記制御部は、前記奥行範囲の提示制御を行う
上記(9)に記載の撮像装置。
(11)
前記制御部は、
操作により指定された、撮像画像の面内の指定位置に基づいて、トラッキングオートフォーカス処理の対象を決定する
上記(1)から(10)のいずれかに記載の撮像装置。
(12)
前記制御部は、
撮像画像の画像平面内の領域として設定された面内範囲に基づいて、トラッキングオートフォーカス処理の対象を決定する
上記(1)から(10)のいずれかに記載の撮像装置。
(13)
前記制御部は、
被写体までの距離についての範囲である奥行範囲の設定に基づいて、トラッキングオートフォーカス処理の対象を決定する
上記(1)から(10)のいずれかに記載の撮像装置。
(14)
前記制御部は、
被写体に対する奥行情報の検出に基づいて、トラッキングオートフォーカス処理の対象を決定する
上記(1)から(13)のいずれかに記載の撮像装置。
(15)
前記制御部は、
撮像画像に対する物体検出処理に基づいて、トラッキングオートフォーカス処理の対象を決定する
上記(1)から(14)のいずれかに記載の撮像装置。
(16)
前記制御部は、
撮像画像に対する物体検出処理による検出物体が複数ある場合、複数の検出物体の中から選択された検出物体を、トラッキングオートフォーカス処理の対象とする
上記(15)に記載の撮像装置。
(17)
前記制御部は、
マニュアルフォーカス状態でのピント位置に基づいて、トラッキングオートフォーカス処理の対象を決定する
上記(1)から(10)(12)(13)(14)(15)(16)のいずれかに記載の撮像装置。
(18)
撮像装置が、手動操作に基づくフォーカスレンズ駆動が行われるマニュアルフォーカス状態でトリガを検出する処理であるトリガ検出を行い、前記トリガ検出の結果に基づいてトラッキングオートフォーカス処理を開始するようにする撮像装置の制御方法。
(19)
手動操作に基づくフォーカスレンズ駆動が行われるマニュアルフォーカス状態でトリガを検出する処理であるトリガ検出を行い、前記トリガ検出の結果に基づいてトラッキングオートフォーカス処理を開始するフォーカス制御処理を、撮像装置に実行させるプログラム。
【符号の説明】
【0182】
1 撮像装置
4 背面モニタ
6 操作子
6C1,6C2,6C3,6C4,6C5,6C6 カスタムキー
7 フォーカスリング
16 カメラ制御部
30 フォーカス制御部
31 UI制御部
32 ピント位置検出部
33 奥行情報検出部
34 範囲設定部
35 物体検出部
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14
図15
図16
図17
図18
図19
図20