(58)【調査した分野】(Int.Cl.,DB名)
前記所定情報を取得可能であると判断された場合であって、前記所定情報を取得可能なカメラが複数存在する場合には、更に、他の選択基準を用いて自己がマスターカメラになるか否かを判断する
ことを特徴とする請求項12記載のカメラ。
【発明を実施するための形態】
【0013】
以下、本発明の一実施の形態を図に従って説明する。
図1(a)は、本発明の一実施の形態に係るカメラシステムを示す説明図である。このカメラシステムは、第1カメラ1Aから第6カメラ1Fまでの6台カメラ(以下、第1カメラ1A〜第6カメラ1Fの全部又はその一部を、カメラ1と表記する)で構成されている。これらカメラ1は、特定被写体30(例えば、ゴルフスウィングを行うゴルファー)を囲繞するように略等間隔に配置され、当該特定被写体30を周囲から動画撮影しようとするものである。
【0014】
図2は、カメラ1の概略構成を示すブロック図である。本実施の形態において、第1カメラ1A〜第6カメラ1Fにおいて、少なくとも1つのカメラは同図に示す構成を備えている。すなわち、カメラ1は、バスライン20を介して各部に接続された制御部3を有しており、この制御部3は、カメラ1の各部を制御するワンチップマイコンである。撮像部4は、CMOSイメージセンサからなりフォーカスレンズ、ズームレンズ等で構成される撮像レンズ5の光軸上に配置され、露光タイミングがライン毎に異なるライン露光順次読み出し方式(ローリングシャッター )により、被写体の光学像に応じたアナログの撮像信号をライン毎に出力する。
【0015】
ユニット回路6は、撮像部4から出力される被写体の光学像に応じたアナログの撮像信号が入力される回路であって、入力した撮像信号を保持するCDSと、その撮像信号を増幅するゲイン調整アンプ(AGC)、増幅された撮像信号をデジタルの撮像信号に変換するA/D変換器(ADC)等から構成されている。撮像部4の出力信号はユニット回路6を経て、各々デジタル信号として信号処理部7に送られる。
【0016】
この送られたデジタル信号は、信号処理部7にて各種信号処理された後、画像処理部8に送られて、各種画像処理が施されるとともに、表示部9に供給されることにより、ライブビュー画像として表示される。また、画像記録時において、画像処理部8で処理された信号は、さらに符号化されて画像記録部(外部記録媒体を含む)10に記録され、画像再生時において、画像記録部10から読み出された画像データは画像処理部8で復号化されて表示部9に表示される。
【0017】
また、バスライン20には、TG(Timing Generator)11、ROM12及びバッファメモリ13が接続されている。TG11は、制御部3が設定するタイミング及びフレーム周期のフレーム同期信号(センサV同期信号)を生成し、このフレーム同期信号に従ったタイミングで、撮像部4、ユニット回路6及びLED17を駆動する。ROM12には静止画撮影時、動画撮影時等の各撮影時における適正な露出値(EV)に対応する絞り値(F)とシャッタースピードとの組み合わせを示すプログラム線図を構成するプログラムAEデータや、EV値表も格納されている。そして、制御部3がプログラム線図により設定されるシャッタースピードに基づき設定した電荷蓄積時間はシャッターパルスとして、TG11を介して撮像部4に供給され、これに従い撮像部4が動作することにより露光期間、露光タイミングが制御される。さらに、ROM12には、後述するフローチャートに示すプログラム及びデジタルカメラとして機能するに必要な各種プログラムが格納されている。
【0018】
バッファメモリ13は、画像データ等を一時保存するバッファであるとともに、制御部3のワーキングメモリ等としても使用される。すなわち、前記画像処理部8は、信号処理部7から送られてきたベイヤーデータに、ペデスタルクランプ等の処理を施した後、RGBデータに変換し、更にRGBデータを輝度(Y)信号及び色差(UV)信号に変換する。この画像処理部8で変換されたYUVデータは、1フレーム分のデータがバッファメモリ13に格納される。バッファメモリ13に格納された1フレーム分のYUVデータは表示部9へ送られ、そこでビデオ信号に変換された後、ライブビュー画像として表示される。
【0019】
なお、静止画撮影モードにおいて使用者によるシャッターキー操作が検出されると、撮像部4及びユニット回路6をライブビュー画像撮像時とは異なる静止画撮影用の駆動方式や駆動タイミングに切り替えることにより静止画撮影処理を実行し、この静止画撮影処理によりバッファメモリ13に格納された1フレーム分のYUVデータは、画像処理部8でJPEG方式等によるデータ圧縮後コード化され、バッファメモリ13内でファイル化された後、バスライン20を介して画像記録部10に静止画データとして記録される。
【0020】
また、動画撮影モードにおいて撮影開始指示が検出されると、撮影処理を開始し、撮影終了指示が検出されるまでの複数フレーム分のYUVデータをバッファメモリ13に格納する。このバッファメモリ13に格納された複数フレーム分のYUVデータは、動画終了指示後において制御部3へ送られ、JPEG方式等(動画撮影の場合は所定のMPEGのコーデック)によりデータ圧縮後コード化されて、バッファメモリ13及びバスライン20を介してフレームデータとしファイル名を付されて画像記録部10に書き込まれる。また、制御部3は、静止画又は動画の再生時には画像記録部10から読み出された静止画や動画のデータを伸張し、静止画データや動画像のフレームデータとしてバッファメモリ13の画像データ作業領域に展開する。
【0021】
さらに、バスライン20には、キー入力部14、無線I/F21、ID番号記憶部22、GPS(Global Positioning System)23、方位センサ24、及び測距センサ25が接続されている。キー入力部14は、シャッターキー、モード設定キー、電源キー等の複数の操作キーを含み、使用者によるキー操作に応じたキー入力信号を検出して制御部3に出力する。
【0022】
無線I/F21は、他のカメラとの間で、ブルートゥース(登録商標)等の近接無線でリンクを行うインタフェースである。ID番号記憶部22は、各カメラ1A〜1F毎に異なる自機のID番号(本実施の形態においては、相互に異なる自然数)を記憶しているとともに、他機から取得したID番号を記憶するリストエリアを有している。GPS23は、複数の測位衛星(GPS衛星)から送られてくる電波をGPS受信アンテナにより受信することによって、現在位置を示す緯度・経度からなる位置データを取得し、取得した位置データを、当該カメラの現在位置を示す位置情報として制御部3に供給する。方位センサ24は、当該カメラにおいて前記撮像レンズ5の光軸が向いている方向を検出し、これを撮影方向として制御部3に供給する。測距センサ25は、被写体までの距離、特に後述する特定被写体までの距離を検出して、制御部3に供給する。
なお、電源部26はバッテリーを備え、バッテリーから各部に電力を供給する。
【0023】
また、第1カメラ1A〜第6カメラ1Fは、全てのカメラが
図2に示した構成を備えているのではなく、GPS23及び方位センサ24を備えていないカメラが含まれている場合もあるものとする。
【0024】
以上の構成にかかる本実施の形態において、ユーザのキー入力部14での操作により電源がオンされて各カメラ1に同期撮影モードが設定されていると、制御部3は、ROM12に記憶されたプログラムに従って、全カメラに共通する処理である
図3のフローチャートに示すマスター/スレーブ決定処理を実行する。すなわち、制御部3は、自機の現在の状態が他のカメラとの同時撮影に参加可能か否かを判断する(ステップSA1)。当該カメラに、同期撮影モードが設定されており同時撮影に参加可能であれば、制御部は次のステップに処理を進める。そして、自機のID番号記憶部22に記憶されている各カメラ固有のID番号を、無線I/F21から外部に送信して他機に近接無線により通知する(ステップSA2)。
【0025】
次に、GPS23と方位センサ24とを備えており、よって、これらより自機の位置と撮影方向とを取得可能であるか否かを判断する(ステップSA3)。つまり、前述のように、第1カメラ1A〜第6カメラ1Fは、全てのカメラが
図2に示した構成を備えているのではなく、GPS23及び方位センサ24を備えていないカメラが含まれている場合もある。そして、これらGPS23及び方位センサ24を備えていないカメラの場合、ステップSA3の判断はNOとなる。よって、ステップSA3からステップSA9に進み、自機をスレーブカメラに設定する。
【0026】
これにより、GPS23や方位センサ24を具備せず、マスターカメラとなることが不適当なカメラがマスターカメラに選定される不都合を未然に防止することができ、適切なマスターカメラ選定が可能となる。
【0027】
また、GPS23と方位センサ24とを備えており、これらより自機の位置と撮影方向とを取得可能であるカメラ1の制御部3は、ステップSA3からステップSA4に処理を進める。そして、自機のリスト(ID番号記憶部22)に未だ記憶されていないID番号の通知が他機からあったか否かを判断する(ステップSA4)。自機のリストに未記憶のID番号の通知が他機からあった場合には、通知のあったID番号をリストに追加して(ステップSA5)、ステップSA4に戻る。したがって、第1カメラ1Aから第6カメラ1Fまでの6台カメラの内、GPS23と方位センサ24とを備えたカメラのID番号が、各カメラ1のリストに記憶されるまで、ステップSA2→SA3→SA2のループ処理が繰り返される。また、このループ処理が繰り返されることにより、GPS23と方位センサ24とを備えたカメラのID番号記憶部22には、同様にGPS23と方位センサ24とを備えたカメラのID番号を記憶した同一のリストが形成されることになる。
【0028】
そこで、各カメラ1は、同一のリスト内において、最も若いID番号は、自機のものであるか否かを判断する(ステップSA6)。最も若いID番号が自機のものでない場合には、自機をスレーブカメラに設定して(ステップSA9)、このマスター/スレーブ決定処理を終了する。
【0029】
また、最も若いID番号は自機のものである場合には、自機をマスターカメラに設定する(ステップSA7)。したがって、このステップSA5までの処理が
図1に示したカメラシステムにおいて実行されることにより、第1カメラ1Aから第6カメラ1Fまでの6台カメラの内の1台のカメラがマスターカメラに決定され、他のカメラがスレーブカメラに決定される。例えば、
図1(b)に示すように、カメラ1Bがマスターカメラに決定され、カメラ1A,1C,1D,1E,1Fスレーブカメラに決定されることとなる。
【0030】
このように本実施の形態においては、最も若いID番号のカメラをマスターカメラに決定するようにしたので、マスターカメラの決定処理が単純にして、迅速な撮影開始が可能となる。無論、これに限ることなく、各カメラの制御能力(制御部3の処理速度等の能力)を比較して、制御能力の最も高いカメラ1をマスターカメラにするようにしてもよい。このようにすれば、高性能のカメラを有効利用して、システム全体を精度よく制御することができる。
【0031】
しかる後に、自機を含むスト内のID番号に対応する複数のカメラを同時撮影への参加候補と決定して(ステップSA6)、マスター/スレーブ決定処理を終了する。したがって、以上のマスター/スレーブ決定処理が
図1に示したカメラシステムにおいて実行されることにより、前述のようにマスターカメラとスレーブカメラとが決定されるとともに、第1カメラ1Aから第6カメラ1Fが同時撮影への参加候補として決定されることとなる。
【0032】
したがって、本実施の形態によれば、カメラシステムを構成するカメラ、及び当該カメラシステムにおけるマスター/スレーブの決定をユーザの手動による指定操作を伴うことなく、自動的に行うことができ、同時撮影に際しての事前操作の簡略することできる。
【0033】
無論、キー入力部14にてのユーザの操作により、カメラシステムを構成するカメラ、及び当該カメラシステムにおけるマスター/スレーブの決定を行うようにしてもよい。このようにすれば、ユーザの意思をカメラシステムを構成するカメラ、及びマスター/スレーブの決定に反映させることができ、任意のカメラでカメラシステムを構成し、いずれか任意のカメラをマスターとすることができる。
【0034】
図4は、前述のステップSA7の処理でマスターカメラに設定されたカメラ(以下、単にマスターカメラという)が有する制御部3が実行するマスターカメラ処理の処理手順を示すフローチャートである。マスターカメラの制御部3は、撮影画像内から撮影対象とすべき特定被写体を選択する(ステップSB1)。ここで撮影画像とは、撮像部4により撮像されユニット回路6、信号処理部7、画像処理部8に送られて、各種画像処理が施されるとともに、表示部9に供給されることにより表示されるライブビュー画像である。したがって、制御部3はこのライブビュー画像中において、例えばフォーカス枠内に存在する被写体、あるいはライブビュー画像中においてユーザがカーソル操作等により指定した被写体を特定被写体として選択する。
【0035】
次に、この選択した特定被写体の特徴情報、例えば特定被写体の色相、彩度、明度、輪郭形状、大きさの各特徴量データを取得する(ステップSB2)。次に、測距センサ25を起動して、前記選択した特定被写体までの距離を検出するとともに(ステップSB3)、GPS23及び方位センサ24からの出力信号に基づき、自機(マスターカメラ)の位置及び撮影方向を検出する(ステップSB4)。
【0036】
更に、これら検出した特定被写体までの距離、自機の位置及び撮影方向に基づいて、特定被写体の位置を算出する(ステップSB5)。つまり、マスターカメラから特定被写体までの距離、当該マスターカメラの位置(緯度・経度)、及び撮影方向から得られる特定被写体に対して撮像レンズ5の光軸が向いている方向(方位)が得られれば、特定被写体の位置(緯度・経度)を算出することが可能である。よって、ステップSB5では、その前段のステップで検出した情報に基づき、特定被写体の位置を算出する。
【0037】
しかる後に、このステップSB5で算出した特定被写体の位置を示す位置情報と、前記ステップSB2で取得した特定被写体の特徴情報とを無線I/F21から各スレーブカメラに送信する(ステップSB6)。引き続き、全てのスレーブカメラから、特定被写体を撮影する準備ができた否かの通知を受けたか否かを判断する(ステップSB7)。つまり、全てのスレーブカメラから、「特定被写体を撮影する準備ができた」又は「特定被写体を撮影する準備ができない」旨の通知を受けたか否かを判断する。これらいずれかの通知を全てのスレーブカメラから受けるまで、次のステップに進むことなくステップSA7の判断を繰り返しつつ待機する。
【0038】
その結果、前記いずれかの通知を全てのスレーブカメラから受けたならば、受けた通知の内容に基づき、特定被写体を撮影する準備ができないスレーブカメラを同時撮影に参加するカメラから除外する(ステップSB8)。そして、同時撮影の開始を同時撮影に参加する全てのスレーブカメラ、つまりステップSB8で除外した後の残る全てのスレーブカメラに指示するとともに、自機も同時撮影を開始し(ステップSB9)、撮影終了までの複数フレーム分のYUVデータをバッファメモリ13に格納し始める。
【0039】
つまり、本実施の形態においては、特定被写体を撮影する準備ができないスレーブカメラに関しては、準備ができるまで待つことなく同時撮影に参加するカメラから除外して同時撮影を行うこととした。よって、迅速に同時撮影を開始することが可能となる。また、その時点で同時撮影に参加可能な最大カメラ数のスレーブカメラを用いて同期動画撮影を行うことができる。
【0040】
なお、本実施の形態においては、マスターカメラ(自機)も同時撮影に参加することとし、より多くのカメラを用いて同期動画撮影を行うようにした。しかし、マスターカメラか撮影に参加することなく、スレーブカメラへの指示のみを行うようにしてもよい。このようにすれば、マスターカメラが有する制御部3の処理能力内において、適正且つ確実に複数のスレーブカメラを制御することができる。
【0041】
引き続き、自機及びスレーブカメラによる同時撮影を終了する否かを判断する(ステップSB10)。この同時撮影終了の判断は、マスターカメラのキー入力部14にてのユーザの操作により撮影終了が指示されたか否か、あるいは、予め設定されている同時撮影の継続時間が終了したか否かにより判断する。
【0042】
同時撮影を終了すると判断したならば、無線I/F21を起動させて近接無線により同時撮影の実行終了を同時撮影に参加する全てのスレーブカメラに指示するとともに、自機も同時撮影を終了する(ステップSB11)。また、特定被写体の位置、同時撮影の開始日時、同時撮影の終了日時、又は自機の位置に基づいて、今回の同時撮影を識別する識別情報としての名称を決定する(ステップSB12)。なお、これら特定被写体の位置、同時撮影の開始日時、同時撮影の終了日時、自機の位置等の名称決定に用いられる要素は一例であって、今回の同時撮影を識別できる名称となるもの、より好ましくは特定被写体を識別できる名称となるのであれば、他の要素であってもよい。
【0043】
そして、この決定した名称を同時撮影に参加した全てのスレーブカメラに送信するとともに、当該名称を付加して自機の撮影画像を保存する(ステップSB13)。すなわち、前記名称を無線I/F21を介してスレーブカメラに送信する。また、自機のバッファメモリ13に格納された複数フレーム分のYUVデータを制御部3へ送り、所定のMPEGのコーデックによりデータ圧縮後コード化して、バッファメモリ13及びバスライン20を介して、動画データとして前記名称を付し画像記録部10に書き込む。これにより、マスターカメラの画像記録部10には、今回の同時撮影において当該マスターカメラが特定被写体を撮影した動画データが固有の名称を付されて記憶されることとなる。
【0044】
図5は、前述のステップSA9の処理でスレーブカメラに設定されたカメラ(以下、単にスレーブカメラという)が有する制御部3が実行するスレーブカメラ処理の処理手順を示すフローチャートである。スレーブカメラの制御部3は、前記ステップSB6の処理でマスターカメラから送信される特定被写体の位置情報と特徴情報とを受信したか否かを判断し(ステップSC1)、これらを受信するまで待機する。
【0045】
特定被写体の位置情報と特徴情報とを受信したならば、GPS23と方位センサ24とで、自機の位置と撮影方向とを取得可能であるか否かを判断する(ステップSC2)。取得可能であるならば、GPS23と方位センサ24とで、自機の位置と撮影方向とを取得する(ステップSC3)。
【0046】
更に、受信した特定被写体の位置情報が示す位置と自機の位置及び撮影方向に基づいて、ライブビュー画像上における特定被写体の位置、又はライブビュー画像外の方向を特定する(ステップSC4)。
【0047】
つまり、当該スレーブカメラの表示部9表示されているライブビュー画像内に特定被写体が存在する場合には、当該ライブビュー画像上における特定被写体の位置であるライブビュー画像上の座標を特定する。また、当該スレーブカメラの表示部9表示されているライブビュー画像内に特定被写体が存在しない場合には、表示されているライブビュー画像に対して、どの方向に特定被写体が存在するのかを特定する。
【0048】
このとき、制御部3はライブビュー画像内に特定被写体が存在する場合には、その位置と自機の位置とに基づき特定被写体までの距離を算出する。そして、撮像レンズ5が有するフォーカスレンズを制御して、ライブビュー画像内の特定被写体を合焦させる。これにより、ライブビュー画像内において特定被写体が明瞭となり、ユーザによる特定被写体の確認が容易となるのみならず、後述する同時撮影において特定被写体にピントがあった撮影結果を得ることが可能となる。
【0049】
しかる後に、この特定された被写体の位置又は方向をライブビュー画像上に表示する(ステップSC5)。この表示の例としては、ライブビュー画像内に特定被写体が存在する場合には、当該特定被写体を枠で囲繞して表示したり、その輪郭を強調表示したり、特定の色で着色表示する等、背景や他の被写体とは視覚上明確に識別できるようにする。また、ライブビュー画像内に特定被写体が存在しない場合には、ライブビュー画像上に矢印を表示して、矢印で指し示す方向に特定被写体が存在することを示す。
【0050】
一方、ステップSC2での判断の結果、自機の位置と撮影方向とを取得不可能であるスレーブカメラの制御部3は、ステップSC6に処理を進め、受信した特徴情報に対応する特定被写体を表示部9に表示されているライブビュー画像内で、画像認識により検出する(ステップSC6)。この検出された特定被写体の位置をライブビュー画像上に表示する(ステップSC7)。この特定被写体の位置の表示に際しては、前述のステップSC5での表示の例と同様に、ライブビュー画像内の特定被写体を枠で囲繞して表示したり、その輪郭を強調表示したり、特定の色で着色表示する等、背景や他の被写体とは視覚上明確に識別できるようにすればよい。
【0051】
したがって、GPS23と方位センサ24とで自機の位置と撮影方向とを取得可能であった場合のステップSC5での処理結果と同様に、自機の位置と撮影方向とを取得不可能であった場合にも、ステップSC7での処理結果により、ライブビュー画像内において特定被写体の位置を表示することが可能となる。
【0052】
そして、ステップSC5又はステップSC7に続くステップSC8では、マスターカメラから情報(位置情報、特徴情報)を受信してから所定時間が経過したか否かを判断する(ステップSC8)。未だ所定時間が経過していない場合には、特定被写体はライブビュー画像の中央であるか否かを判断する(ステップSC9)。特定被写体がライブビュー画像の中央である場合には次のステップSC10に処理を進めるが、特定被写体がライブビュー画像の中央でない場合には、ステップSC2に処理を戻す。
【0053】
したがって、マスターカメラから情報を受信してから所定時間が経過するまでの間、特定被写体がライブビュー画像の中央となるまで、ステップSC2からの処理が繰り返し実行されることとなる。この間ユーザは、当該スレーブカメラの表示部9に表示されているライブビュー画像を見て、特定被写体がライブビュー画像の中央であるか否かを確認し、中央でない場合には特定被写体がライブビュー画像の中央となるように、手作業により当該スレーブカメラの撮影方向や位置を調整する。
【0054】
このとき、ライブビュー画像内に特定被写体が存在せず、当該スレーブカメラの位置や撮影方向が特定被写体から大幅にずれており、ライブビュー画像内に特定被写体が存在しない場合であっても、ステップSC4及びSC5での処理により、例えばライブビュー画像上に矢印が表示されて、矢印で指し示す方向に特定被写体が存在することが示される。したがって、ユーザは矢印に従って当該スレーブカメラの撮影方向を調整することにより、特定被写体がライブビュー画像の中央となるようにすることが可能となる。
【0055】
以上のように、ユーザがスレーブカメラの撮影方向等を調整することにより、特定被写体がライブビュー画像の中央に位置するようになると、当該スレーブカメラの制御部3はステップSC9からステップSC10以降に処理を進める。そして、先ずは無線I/F21を介して、特定被写体を撮影する準備ができたことをマスターカメラに通知する(ステップSC10)。
【0056】
すると、これを受信したマスターカメラの制御部3は、前記ステップSB9の処理でスレーブカメラに同時撮影の実行開始指示を送信する。そこで、スレーブカメラの制御部3は、マスターカメラから実行開始が指示されたか否かを判断し(ステップSC11)、実行開始が指示された時点で同時撮影を開始する(ステップSC12)。すなわち、ステップSB9で説明したように、撮影終了までの複数フレーム分のYUVデータをバッファメモリ13に格納し始める。
【0057】
次に、マスターカメラから同時撮影の実行終了が指示されたか否かを判断する(ステップSC13)。マスターカメラが、同時撮影が終了すると、前記ステップSB11の処理で同時撮影の実行終了を指示するので、この実行終了指示を受信したか否かを判断する。実行終了指示を受信したならば、同時撮影を終了する(ステップSC14)。
【0058】
また、マスターカメラから今回の同時撮影を識別する名称を受信したか否かを判断する(ステップSC15)。マスターカメラは、前述のステップSB13の処理で、決定した名称を同時撮影に参加した全てのスレーブカメラに送信してくるので、この名称を受信したか否かを判断する。そして、この名称を受信したならば、受信した名称を付加して自機の撮影画像を保存する(ステップSC16)。すなわち、自機のバッファメモリ13に格納された複数フレーム分のYUVデータを制御部3へ送り、所定のMPEGのコーデックによりデータ圧縮後コード化して、バッファメモリ13及びバスライン20を介して、動画データとして前記名称を付し画像記録部10に書き込む。
【0059】
したがって、
図4のフローチャートに示したマスターカメラの処理と、
図5のフローチャートに示したスレーブカメラの処理とがそれぞれのカメラで実行されることにより、下記の特徴事項を有する動画データが各カメラの画像記録部10に記憶されることとなる。
(A)撮影開始時点と終了時点とが同一である。
(B)したがって、動画の時間長も同一である。
(C)特定被写体の画像内(フレーム内)における位置は、中央である。
(D)同一の名称が付加されている。
(E)付加された名称は、特定被写体の位置、同時撮影の開始日時、同時撮影の終了日時等の今回の同時撮影を識別することのできるものである。
(F)GPS23及び方位センサ24を具備しないカメラで撮影された画像データにも同一の名称が付加されている。
(G)特定被写体に対する各カメラの相対的な位置は相互に異なるので、動画データは各々異なる方向から特定被写体を撮影したものである。
【0060】
よって、
[1]特徴事項(A)により、同時再生すべき動画の撮影開始時点と終了時点とが共通する複数の動画を同時再生することが可能となる。
[2]特徴事項(B)により、同時再生すべき動画の長さが共通する複数の動画を同時再生することが可能となる。
[3]特徴事項(C)により、複数のカメラにより特定被写体が確実に撮影された動画撮影を得ることができる。しかも、特定被写体が画像内の中央に存在することから、特定被写体を複数のカメラの各々で確実かつ適正に撮影することができる。
[4]特徴事項(D)により、同一の名称が付加された動画データを同時再生することにより、間違いなく同一の特定被写体を同時撮影した動画を同時再生することができる。
[5]特徴事項(E)により、付加された名称は、特定被写体の位置、同時撮影の開始日時、同時撮影の終了日時、自機の位置等に基づいて作成されていることから、今回の同時撮影や特定被写体を端的に表す。したがって、再生時において画像記録部10に記録されている複数の動画データからユーザが、キー入力部14に設けられているキー(画像データ選択手段)により当該動画データを選択する際にも、間違いなく選択を行うことができる。
[6]特徴事項(F)により、GPS23及び方位センサ24を具備しないカメラで撮影された画像データであっても、名称として位置情報を付加して記憶することができる。
[7]特徴事項(G)により、特定被写体を所望の多方向から撮影した撮影結果をえることができる。
【0061】
その結果、[3]及び[7]により、複数のカメラを用いた同時撮影において、同時撮影の撮影対象である特定被写体を所望の多方向から撮影した撮影結果を確実に得ることができる。
【0062】
なお、ステップSC8での判断の結果、マスターカメラからの情報を受信してから所定時間が経過してしまった場合には、特定被写体を撮影する準備ができないことをマスターカメラに通知して(ステップSC17)、このスレーブカメラ処理を終了する。この場合は、ユーザが当該スレーブカメラの撮影状態を確認することなく放置した場合であり、ユーザは撮影方向等から見て当該スレーブカメラによる同時撮影の必要性を感じていない場合が想定される。よって、この場合には、当該スレーブカメラを今回の同時撮影に参加させないことにより、参加するスレーブカメラにユーザの意思を反映させることを可能となる。
【0063】
また、本実施の形態においては、複数のカメラが同時に撮影開始及び終了して特定被写体を動画撮影するシステムに本発明を定用した構成を示した。しかし、前述したように、本発明にいう所定の同時撮影処理とは、少なくとも同じ時間帯で複数のカメラが1又は複数回の同期または非同期の撮影を行う処理のことであり、必ずしも1回毎の撮影タイミングが複数のカメラで一致する必要は無い。したがって、例えばカメラ1A〜1Fが時間差を持って順次撮影を開始したり、時間差を持って順次撮影を終了するシステムや、カメラ1A、1C、1Eが同時撮影を開始し後、そのこれらカメラ1A、1C、1F間に配置されたカメラ1B、1D、1Fが時間差を持って同時撮影を開始する等、異なる撮影タイミングで複数のカメラが特定被写体を撮影するシステムにも適用することができる。
【0064】
要は、各カメラが共通の被写体である特定被写体を撮影するシステムであれば、どのようなシステムであっても、本発明を適用すること可能である。
【0065】
以上、この発明の実施形態について説明したが、この発明はこれらに限定されるものではなく、特許請求の範囲に記載された発明とその均等の範囲を含むものである。
以下に、本願出願時の特許請求の範囲を付記する。
<請求項1>
特定被写体を対象として複数のカメラで所定の同時撮影処理を実行するカメラシステムであって、
前記複数のカメラは、単一のマスターカメラと他のスレーブカメラとに区分され、
前記マスターカメラは、
前記特定被写体に関する所定情報を検出する検出手段と、
この検出手段により検出した前記所定情報を送信する送信手段とを備え、
前記スレーブカメラは、
前記送信手段により送信される前記所定情報を受信する受信手段と、
この受信手段により受信した所定情報に基づいて前記所定の同時撮影処理を実行する実行手段と
を備えることを特徴とするカメラシステム。
<請求項2>
前記複数のカメラにおいて、前記特定被写体の位置を前記所定情報として検出する機能を備えるカメラが前記マスターカメラに区分され、
前記送信手段は、前記検出手段により検出された特定被写体の位置を示す位置情報を前記所定情報として送信し、
前記スレーブカメラの受信手段は前記位置情報を受信し、
前記実行手段は、前記位置情報に基づいて前記所定の同時撮影処理を実行することを特徴とする請求項1記載のカメラシステム。
<請求項3>
前記複数のカメラにおいて、更に前記特定被写体とこれを撮影する当該カメラとの位置関係、撮影方向及び距離のいずれかを前記所定情報として検出する機能を有するカメラが前記マスターカメラとされ、
前記送信手段は、前記検出手段により検出された前記いずれかの所定情報を送信し、
前記スレーブカメラの受信手段は前記いずれかの所定情報を受信し、
前記実行手段は、前記いずれかの所定情報に基づいて前記所定の同時撮影処理を実行することを特徴とする請求項1または2に記載のカメラシステム。
<請求項4>
前記マスターカメラは、
前記検出手段により検出した所定情報に基づき、画像データを識別するための識別情報を生成する識別情報生成手段を備え、
当該マスターカメラの前記送信手段は、前記識別情報を送信し、
前記スレーブカメラは、
前記受信手段より前記識別情報を受信して、前記所定の同時撮影処理により得られた画像データに前記識別情報を付加して記録する記録手段を備えることを特徴とする請求項1、2又は3にいずれか記載のカメラシステム。
<請求項5>
前記マスターカメラの識別情報生成手段は、
前記検出手段により検出した特定被写体の位置又は当該特定被写体を撮影対象とする自機の位置に基づいて、前記識別情報を生成することとを特徴とする請求項4記載のカメラシステム。
<請求項6>
前記マスターカメラは、
前記検出手段により検出した特定被写体の位置を示す位置情報を前記送信手段により送信し、
前記スレーブカメラは、
前記受信手段より前記位置情報を受信し、
前記実行手段により、前記受信手段で受信した位置情報に基づき前記特定被写体に対する撮影の方向を調整されて、前記所定の同時撮影処理を実行することを特徴とする請求項1乃至5にいずれか記載のカメラシステム。
<請求項7>
前記スレーブカメラの実行手段は、
前記受信手段で受信した位置情報と、自機の位置とに基づき前記特定被写体までの距離を算出する第1の算出手段を有し、
この第1の算出手段により算出した距離に基づくフォーカス制御して、前記所定の同時撮影処理を実行することを特徴とする請求項6記載のカメラシステム。
<請求項8>
前記スレーブカメラの実行手段は、
前記受信手段により受信した位置情報により示される位置と自機の位置に基づき前記特定被写体の方向を算出する第2の算出手段と、
この第2の算出手段により算出した方向を撮影時に案内するガイド手段とを有すること特徴とする請求項6又は7記載のカメラシステム。
<請求項9>
前記マスターカメラの検出手段は、
撮影画像内における特定被写体の特徴を検出するものであり、
前記送信手段は、前記検出手段により検出された特定被写体の特徴を示す特徴情報を送信し、
前記スレーブカメラは、
前記受信手段より前記特徴情報を受信し、
前記実行手段により、前記受信手段で受信した特徴情報に基づき前記特定被写体を特定して、前記所定の同時撮影処理を実行することを特徴とする請求項1乃至8にいずれか記載のカメラシステム。
<請求項10>
前記記録手段に記録された複数の画像データの中から、前記識別情報に基づき処理対象とすべき画像データを選択する画像データ選択手段を備えることを特徴とする請求項4記載のカメラシステム。
<請求項11>
前記選択手段は、同一の前記所定の同時撮影処理で得られた画像データを他のカメラと同時再生するに際して、前記選択を実行することを特徴とする請求項10記載のカメラシステム。
<請求項12>
前記マスターカメラの送信手段は、前記所定情報とともに所定の同時撮影処理の実行を指示する指示情報を送信し、
前記スレーブカメラの受信手段は、前記所定情報とともに前記指示情報を受信し、
前記実行手段は、前記指示情報の受信に応答して、前記所定の同時撮影処理を実行することを特徴とする請求項1乃至11にいずれか記載のカメラシステム。
<請求項13>
前記マスターカメラの検出手段は、
同期した動画撮影中において特定被写体の位置を逐次検出するものであり、
前記送信手段は、前記検出手段により検出された特定被写体の位置を示す位置情報を逐次送信し、
前記スレーブカメラは、
前記受信手段より前記位置情報を逐次受信し、
前記実行手段は、前記逐次受信下位置情報に基づき特定被写体の方向を逐次案内するガイド手段を有すること特徴とする請求項12記載のカメラシステム。
<請求項14>
特定被写体を複数のカメラで所定の同時撮影処理を実行するカメラシステムに用いられるカメラであって、
前記特定被写体に関する所定情報を検出する検出手段と、
この検出手段により検出した前記所定情報を送信する送信手段とを備えるマスターカメラ機能、
又は、
前記送信手段により送信される前記所定情報を受信する受信手段と、
この受信手段により受信した所定情報に基づいて前記所定の同時撮影処理を実行する実行手段とを備えるスレーブカメラ機能、
の少なくとも一方の機能を備えることを特徴とするカメラ。
<請求項15>
前記マスターカメラ機能と前記スレーブカメラ機能とを併有することを特徴とする請求項14記載のカメラ。
<請求項16>
前記特定被写体の位置を前記所定情報として検出する機能を備え、
前記送信手段は、前記検出手段により検出された特定被写体の位置を示す位置情報を前記所定情報として送信し、
前記受信手段は前記位置情報を受信し、
前記実行手段は、前記位置情報に基づいて前記所定の同時撮影処理を実行することを特徴とする請求項14又は15記載のカメラ。
<請求項17>
更に前記特定被写体とこれを撮影する当該カメラとの位置関係、撮影方向及び距離のいずれかを前記所定情報として検出する機能を有し、
前記送信手段は、前記検出手段により検出された前記いずれかの所定情報を送信し、
前記受信手段は前記いずれかの所定情報を受信し、
前記実行手段は、前記いずれかの所定情報に基づいて前記所定の同時撮影処理を実行することを特徴とする請求項14又は15記載のカメラ。
<請求項18>
前記検出手段により検出した所定情報に基づき、画像データを識別するための識別情報を生成する識別情報生成手段を備え、
前記送信手段は、前記識別情報を送信し、
前記受信手段より前記識別情報を受信して、前記所定の同時撮影処理より得られた画像データに前記識別情報を付加して記録する記録手段を備えることを特徴とする請求項14、15又は17にいずれか記載のカメラ。
<請求項19>
前記識別情報生成手段は、
前記検出手段により検出した特定被写体の位置又は当該特定被写体を撮影対象とする自機の位置に基づいて、前記識別情報を生成することとを特徴とする請求項18記載のカメラ。
<請求項20>
前記検出手段により検出した特定被写体の位置を示す位置情報を前記送信手段により送信し、
前記受信手段より前記位置情報を受信し、
前記実行手段により、前記受信手段で受信した位置情報に基づき前記特定被写体に対する撮影の方向を調整されて、前記所定の同時撮影処理を実行することを特徴とする請求項14乃至19にいずれか記載のカメラ。
<請求項21>
前記受信手段で受信した位置情報と、自機の位置とに基づき前記特定被写体までの距離を算出する第1の算出手段を有し、
この第1の算出手段により算出した距離に基づくフォーカス制御して、前記所定の同時撮影処理を実行することを特徴とする請求項20記載のカメラ。
<請求項22>
前記受信手段により受信した位置情報により示される位置と自機の位置に基づき前記特定被写体の方向を算出する第2の算出手段と、
この第2の算出手段により算出した方向を撮影時に案内するガイド手段とを有すること特徴とする請求項20又は21記載のカメラ。
<請求項23>
前記検出手段は、撮影画像内における特定被写体の特徴を検出するものであり、
前記送信手段は、前記検出手段により検出された特定被写体の特徴を示す特徴情報を送信し、
前記受信手段より前記特徴情報を受信し、
前記実行手段により、前記受信手段で受信した特徴情報に基づき前記特定被写体を特定して、前記所定の同時撮影処理を実行することを特徴とする請求項14乃至22にいずれか記載のカメラ。
<請求項24>
前記記録手段に記録された複数の画像データの中から、前記識別情報に基づき処理対象とすべき画像データを選択する画像データ選択手段を備えることを特徴とする請求項18記載のカメラ。
<請求項25>
前記選択手段は、同一の同時撮影で得られた画像データを他のカメラと同時再生するに際して、前記選択を実行することを特徴とする請求項24記載のカメラ。
<請求項26>
前記送信手段は、前記所定情報とともに同時撮影の実行を指示する指示情報を送信し、
前記受信手段は、前記所定情報とともに前記指示情報を受信し、
前記実行手段は、前記指示情報の受信に応答して、前記所定の同時撮影処理を実行することを特徴とする請求項14乃至25にいずれか記載のカメラ。
<請求項27>
前記検出手段は、
同期した動画撮影中において特定被写体の位置を逐次検出するものであり、
前記送信手段は、前記検出手段により検出された特定被写体の位置を示す位置情報を逐次送信し、
前記受信手段より前記位置情報を逐次受信し、
前記実行手段は、前記逐次受信下位置情報に基づき特定被写体の方向を逐次案内するガイド手段を有すること特徴とする請求項26記載のカメラ。
<請求項28>
前記マスターカメラ機能と前記スレーブカメラ機能とを併有することを特徴とする請求項14乃至27にいずれか記載のカメラ。
<請求項29>
特定被写体を複数のカメラで同時撮影するカメラシステムに用いられるカメラが有するコンピュータを、
前記特定被写体に関する所定情報を検出する検出手段と、
この検出手段により検出した前記所定情報を送信する送信手段、
又は、
前記送信手段により送信される前記所定情報を受信する受信手段と、
この受信手段により受信した所定情報に基づいて前記所定の同時撮影処理を実行する実行手段、
の少なくとも一方として機能させることを特徴とするプログラム。
<請求項30>
特定被写体を複数のカメラで同時撮影する撮影方法であって、
前記複数のカメラを、単一のマスターカメラと他のスレーブカメラとに区分し、
前記マスターカメラには、
前記特定被写体に関する所定情報を検出する検出ステップと、
この検出ステップにより検出した前記所定情報を送信する送信ステップとを実行させ、
前記スレーブカメラには、
前記送信ステップにより送信される前記所定情報を受信する受信ステップと、
この受信ステップにより受信した所定情報に基づいて前記所定の同時撮影処理を実行する実行ステップと
を実行させることを特徴とする撮影方法。