【実施例1】
【0011】
実施例1では、カメラとディスプレイを有する情報機器について説明する。
図1は、実施例1に係る情報機器1の外観を示す図で、(a)は前面図、(b)は背面図である。情報機器1は、カメラ機能とディスプレイ機能を一体化した情報機器であって、例えば、スマートフォン、タブレットPCなどが相当する。その構成は、1aはリターン釦、1bはホーム釦、1cはマルチタスク釦、2はアウト(OUT)カメラ、2aはオートフォーカス(AF)センサ、2b/2cはRGBセンサ/LEDフラッシュ、3はイン(IN)カメラ、4はタッチセンサ一体型のディスプレイ、4aは光センサ、5は受話口である。背面側にあるアウト(OUT)カメラ2では外部の被写体を撮影し、前面側(ディスプレイ4側)にあるイン(IN)カメラ3では自撮りすることができる。以下、情報機器1のことを単に「カメラ」とも呼ぶことにする。
【0012】
図2は、情報機器(カメラ)1の構成を示すブロック図である。OUTカメラ2は、イメージセンサ201とカメラプロセッサ202から成る。OUTカメラ2での撮影に際し、AFセンサ2aはオートフォーカス機能を、RGBセンサ2bはオートホワイトバランス機能を、LEDフラッシュ2cは暗い撮影環境でのフラッシュ機能をサポートする。RGBセンサ2bとLEDフラッシュ2cは、排他的に動作可能であり、
図1(b)で示すように、OUTカメラ2が配置される背面の1つの窓を共有している。またINカメラ3は、イメージセンサ301とカメラプロセッサ302から成り、
図1(a)に示すように前面に配置され、情報機器1のユーザの自撮りを主な目的として使用される。
【0013】
光センサ4aは、周囲の明るさを検知してディスプレイ4のバックライトを制御し、写し出す表示画面をユーザにとって見えやすい明るさに設定する。位置センサ108は、GPS(Global Positioning System)により情報機器1の位置情報を取得する。
【0014】
ビデオプロセッサ109は、ネットワークからダウンロードする画像データやSDC(SDカード)105bから読み出す画像データを処理して、グラフィックプロセッサ110に送る。グラフィックプロセッサ110は、これら画像データのほか、CPU102で処理するHTML(Hyper Text Markup Language)データ等をグラフィックデータに変換して、ディスプレイ4に表示させる。
【0015】
モバイル通信インタフェース(IF)101aは、3GやLTE(Long Term Evolution)といった通信方式をカバーし、無線LANインタフェース(IF)101bとともに、画像データ等の大容量データをダウンロードするのに好適な無線ネットワーク機能を提供する。無線ネットワークとしては、これら以外の方式のものであってもよい。
【0016】
CPU102、RAM(Random Access Memory)103、FROM(Flash ROM)104は、情報機器1の中心的な演算及びプログラム実行の役割を担っている。FROM104には、画像及び音声の処理やHTMLブラウザなどのプログラムが格納され、必要に応じてRAM103に展開し、CPU102で実行する。RAM103には、一時的に画像及びHTMLのテータも蓄えられる。
【0017】
特にFROM104には、本実施例の特徴であるカメラ共有アプリ104aやSNSアプリ104dのプログラムが格納される。これらのプログラムもまた、RAM103に展開され、CPU102で実行される。ここにカメラ共有アプリ104aは、モバイル通信IF101aや無線LANIF101bを介しインターネット9との間で画像データを送受信する画像通信プロセス104bと、ディスプレイ4に複数のカメラ画像を合成表示する枠組みを定義するオートフレーミングプロセス104cを含む。
【0018】
SDIF105aはSDC(SDカード)105bに、様々なデータを格納することができる。例えば、前記OUTカメラ2やINカメラ3で撮影した画像データを、FROM104の他、SDC105bに蓄えることにより大容量の蓄積が可能となる。USBIF106は、USBデバイスを接続したり、外部から電源供給を受けたりするインタフェースである。
【0019】
マイクロフォン107a、受話スピーカ5は音声通話に用いられ、スピーカ107bは、音楽データを聞くのに用いられる。
【0020】
図3は、複数の情報機器1とサービス提供装置で構成されるカメラ画像共有システムの構成を示す図である。ある特定のエリア7(例えばイベント会場)に、情報機器(カメラ)1を所持した複数のユーザ6(A〜F)が存在している状態を想定する。各ユーザA〜Fは、カメラ画像共有サービス提供装置13に登録されていることを前提としているが、登録方法は限定されるものではない。各カメラ1は、それぞれのユーザ6がシャッタを押し撮影が行われる毎に、インターネット9経由でカメラ画像共有サービス提供装置13にカメラの撮影画像と該撮影画像の特徴量をアップロードする。以降では、ユーザAの撮影動作に注目して、カメラ画像共有サービス提供装置13を利用する場合を説明している。
【0021】
各カメラ1とインターネット9は、モバイル通信の基地局あるいは無線LANのアクセスポイント8で接続される。また、インターネット9には、オートフレーミングサービス提供装置10、カメラ画像共有サービス提供装置13、SNSサービス提供装置16が接続されている(以下、各「・・・サービス提供装置」を単に「・・・サービス」と記す)。
【0022】
カメラ画像共有サービス13は、ユーザ管理データベース(DB)14と、カメラの撮影画像データやその特徴量を格納する画像ストレージ15を有する。オートフレーミングサービス10は、フレーミング処理部11と、フレーミング処理部11で生成したフレーミングパターンを記述したフレーミングテーブル12を有する。ここにフレーミングパターンとは、複数のカメラ画像を合成する際の各画像の配置や大きさなどの表示ルールを記述したものである。オートフレーミングサービス10は、カメラ画像共有サービス13に連動したサービスとする。本例では、カメラ画像共有サービス13が有するユーザ管理DB14に登録されたユーザに対して、カメラ画像共有サービス13とオートフレーミングサービス10の提供を行い、複数のユーザが撮影したカメラ画像を共有し、これら複数の画像を好適に合成(オートフレーミング処理)することをサポートするシステムとなっている。
【0023】
次に、情報機器(カメラ)1の撮影/再生/SNSの動作フローを、それぞれ
図4A〜4Cに分けて説明する。
図4Aは、情報機器1の撮影処理の動作フロー(S100)を示す図である。この処理では、オートフレーミング処理により、自カメラの撮影画像とこれに合成する他カメラの画像を選択して保存する。
【0024】
ユーザは情報機器(カメラ)1のOUTカメラ2もしくはINカメラ3を起動する(S101)。本実施例では、複数のカメラ1のカメラ画像を共有するという目的で、OUTカメラ2の利用を想定しているが、INカメラ3であってもよい。カメラが起動されると、カメラの各種設定(オートフォーカス、オートホワイトバランス、自動露光、オートフラッシュ、撮像ピクセル数のデフォルト値設定など)を自動的に
行う(S102)。もちろん、一部を手動で設定してもよい。カメラ設定が終わると、カメラは撮影を開始し、撮影した画像をディスプレイ4に表示する(S103)。ただし、この時点ではユーザはシャッタを押していない状態である。
【0025】
次にユーザは、カメラ画像共有サービス釦(
図7Aの符号412)を押してカメラ共有アプリ104aを起動し、カメラ画像共有サービス13にログインする(S104)。この時、オートフレーミングサービス10も同時に開始し、フレーミングテーブル12の一部をダウンロードし、カメラ1にて保存済みのフレーミングテーブル12aを更新する(S105)。
【0026】
続いて、他カメラの画像データをカメラ画像共有サービス13からダウンロードする(S106)。ダウンロードする他カメラの画像データは、共有するのに適したカメラのみに制限する。すなわち、位置センサ108で取得した位置情報を用いて自カメラの周辺に存在するカメラに限定し、例えば、自カメラを基準に前後、左右、斜めの合計8方向に対して、近い位置にあるカメラを選定する。さらに、撮影時刻については、現在時刻から遡って所定時間以内に撮影された最新の画像データのみに限定する。これらの他カメラの画像データは、その画像の特徴量とともにダウンロードされる。
【0027】
また、自カメラの撮影画像について、撮影画像に写っている人物の有無、人数、人物もしくは塊のある物体の大きさ、それらの画像内の位置などの特徴量を算出する(S107)。
【0028】
次に、自カメラの画像と他カメラの画像の特徴量を用いて、オートフレーミングプロセス104cによりオートフレーミング処理を行う(S108)。この処理では、どのカメラの画像をディスプレイ4のどの位置にどの程度の大きさで表示するか、複数の画像の表示が重なる場合どちらの画像を前面に表示するかなどの表示ルールとなるフレーミングパターンを自動で決定する。決定されたフレーミングパターンに従いグラフィックプロセッサ110は、自カメラと他カメラの画像を合成した表示画面を作成し、ディスプレイ4に表示する(S109)。オートフレーミング処理(S108)については、
図5、
図6を用いて詳細に説明する。
【0029】
ユーザは、ディスプレイ4に表示された複数カメラ画像の合成画面を見て、自カメラ画像と合成したい他カメラ画像を選択する(S110)。他カメラ画像を選択した後、ユーザがカメラ1のシャッタ釦(
図7A,7Bの符号413)を押すと撮影処理が行われ、自カメラの撮影画像はSDC105bなどのストレージ媒体に保存される(S111)。この時、選択された他カメラ画像は既にダウンロードされているものであり、新たに保存されることはないが、自カメラの画像データに紐付けされる。さらに、シャッタが押されたタイミングで、自カメラで撮影した画像データとその特徴量、及びS110での画像選択に基づくフレーミングパターンの情報が、カメラ画像共有サービス13にアップロードされる(S112)。これらのアップロードされたデータは、他カメラのユーザがカメラ画像共有サービス13を利用する時にも使用される。
【0030】
ユーザは撮影を継続するか否かを選択し(S113)、継続するときはS106に戻り、他カメラの画像のダウンロードから繰り返し行う。このようにして、カメラ1の位置の移動、時間の経過により、ダウンロードすべき他カメラの画像を必要に応じて更新する。なお、既にダウンロード済みのデータが有効であれば、重複してダウンロードする必要はない。
【0031】
図4Bは、情報機器1の再生処理の動作フロー(S120)を示す図である。この処理では、撮影した自カメラ画像に他カメラ画像を合成して再生表示する。ユーザが再生釦(
図7Bの符号415)を押すと(S121)、撮影して保存済みの自カメラ画像と、これに紐付けられた他カメラ画像がストレージ媒体から読み出される(S122)。これら読み出された画像に対してオートフレーミングプロセス104cによりオートフレーミング処理を行い(S123)、その合成画面がディスプレイ4に再生表示される(S124)。また、合成時に選択されたフレーミングパターンの情報がアップロードされる(S125)。
【0032】
なお再生時において、ユーザの指示でフレーミングパターンを変更したとき、例えば、自カメラ画像以外の画像を優先して画面最前面に表示させたような場合には(S126)、S123のオートフレーミング処理に戻り、S125にて、変更されたフレーミングパターンの情報が再度アップロードされる。
【0033】
図4Cは、情報機器1のSNS処理の動作フロー(S130)を示す図である。ここでは、SNS(Social Network Service)サービス16を利用して撮影画像やコメントをアップロードする。
【0034】
ユーザは、SNS釦(
図7Cなどの符号401)を押してSNSアプリ104dを起動し(S131)、SNSサービス16にログインする(S132)。そしてカメラ画像やコメントなどのアップロードを行う(S133)。なお、前記したカメラ画像の再生処理(
図4B)からSNS処理に移行させる場合には、再生画面をSNSに容易にアップロードすることができる。つまり、オートフレーミング処理(S123)と、合成画面の再生表示(S124)が行われた画面を、そのままアップロードすることができる(後述する
図7C、
図7D)。SNSを継続する場合は(S134)、S133に戻り画像やコメントなどのアップロードを繰り返して行う。
【0035】
図5は、情報機器1のオートフレーミング処理(S140)の動作フローを示す図であり、
図4AのステップS108に対応する。ただしここでは、S108での処理に限定せず、オートフレーミング処理の基本的な説明を行う。
【0036】
カメラ画像共有サービス13へのログインとともに、オートフレーミング処理(S140)を開始する。自カメラは撮影を継続しており、撮影画像は例えば毎秒数コマから数十コマ程度でリフレッシュされている。リフレッシュが継続される画像の中から1コマの画像をキャプチャして(S141)、キャプチャした画像に対して特徴量の算出を行う(S142)。また他カメラに対しては、S106にてカメラ画像共有サービス13からダウンロードした特徴量を用いる(S143)。
【0037】
図6は、オートフレーミング処理に用いるカメラ画像の特徴量の例を示す図である。自カメラ画像の場合、写っている人数、人群の塊の大きさと位置、人の顔の大きさ、ユーザ自身が写っているか否か、フォーカス距離、フォーカスしている物体の位置と大きさなどである。一方他カメラ画像では、これらに加え、各々のカメラの位置(自カメラからの方角と距離)、撮影時刻などを特徴量として追加する。
【0038】
次に、自カメラ及び他カメラの特徴量に基づいて、自カメラが保存しているフレーミングテーブル12aからフレーミングパターンを選択する(S144)。その手法は、特徴量を要素とする検索用のインデックスベクトルを用いて、該インデックスベクトルに重み付け距離で近いインデックススベクトルを持つフレーミングパターンを、フレーミングテーブル12aから自動的に選択する。なお、フレーミングテーブル12aは、カメラ画像共有サービス13を開始するとS105にて更新されている。選択されたフレーミングパターンを用いて、グラフィックプロセッサ110は、自カメラを含む複数カメラの画像を合成した表示画面を作成する(S145)。作成した合成画面は、ディスプレイ4に表示される。
【0039】
図7A〜
図7Fは、情報機器(カメラ)1の表示画面の例である。ここでは、ユーザAの所持するカメラ1における表示画面を示す。
図7Aは、
図4Aの撮影画像表示状態(S103)での表示画面を示す。カメラ1のディスプレイ4には、ユーザAのカメラの撮影画像41と、ユーザがAであることを示すユーザマーク411、カメラ画像共有サービス釦412、シャッタ釦413、設定釦414が表示されている。ユーザAは、カメラ画像共有サービス釦412を押すことで、カメラ画像共有サービス13へのログインを開始する。
【0040】
図7Bは、
図4Aのオートフレーミング処理(S108)による合成画面の表示状態(S109)を示す。ユーザAのカメラの撮影画像41の他に、ユーザBのカメラの撮影画像42、ユーザCのカメラの撮影画像43、ユーザDのカメラの撮影画像44、ユーザEのカメラの撮影画像45、ユーザFのカメラの撮影画像46が表示されている。これらのカメラの撮影画像は、カメラ画像共有サービス13からダウンロードしたものであり(
図4AのS106)、カメラAの撮影画像41が現時刻の画像であるのに対して、他の撮影画像は少し前の時刻にシャッタが押され、カメラ画像共有サービス13にアップロードされたものである。各撮影画像には、それぞれのユーザマーク421、431、441、451、461が表示されている。さらに各撮影画像には、ユーザAの撮影画像41と紐付け保存するか否かを選択(S110)する選択釦422、432、442、452、462が表示されている。このような合成表示を行うことで、同じイベントにおけるユーザAの撮影画像41と他のユーザB〜Fの撮影画像42〜46とを一緒に見ることができ、イベントの臨場感を分かりやすく伝えることができる。
【0041】
続いて
図7Bの例では、ユーザBの撮影画像42とユーザCの撮影画像43とが合成用に選択(紐付け)されており、ユーザAがシャッタ釦413を押すと、Aの撮影画像41と特徴量がストレージ媒体に保存されるとともに、Bの撮影画像42とCの撮影画像43、および各々の特徴量が紐付けされて保存される(S111)。
【0042】
図7Cは、
図4Bの再生時のオートフレーミング処理(S123)による合成画面の表示状態(S124)を示す。この場合のオートフレーミング処理(S123)は、ユーザAの撮影画像41と、これに紐付けされたユーザBの撮影画像42とユーザCの撮影画像43に対して行なわれる。ユーザAの撮影画像41が、他の画像より優先して前面に表示されている。また、SNS釦401を押せばSNSアプリ104dが起動し、この画面をアップロードすることができる。
【0043】
図7Dは、
図7Cの状態でフレーミングパターンを変更した場合を示す。ここでは、ユーザAがユーザBの撮影画像42をタップし、Bの撮影画像42を優先させて、再度オートフレーミング処理を実行した後の表示画面である。一般に、自分(ユーザA)のOUTカメラでは自分自身の周りの様子を撮影するが、自分自身を撮影する訳ではない。一方、他人のカメラでは自分自身(ユーザA)を撮影している可能性がある。
図7Dの例では、Bの撮影画像42にユーザAが写っている場合であり、ユーザAは、Bの撮影画像42をタップして、ユーザAが写っているBの撮影画像42を拡大して前面に表示させている。
【0044】
図7Eは、
図7Cの状態でフレーミングパターンを変更した他の場合を示す。ここでは、ユーザAの撮影画像41をタップし、全画面に拡大表示させた例である。
【0045】
図7C〜7Eの表示画面は、いずれもSNSサービス16にアップロード可能である。特に
図7Cや
図7Dのように、Aの撮影画像をBとCの撮影画像と一緒にSNSにアップロードすることにより、イベント会場の様子を臨場感のある画像として、他のSNSユーザに伝えることができる。
【0046】
図7Fは、
図7Bとは異なる合成画面の例を示す。この例では、隣接する撮影画像がその境界で互いに重なりを有する場合、重なる部分の画像を斜めにカットして合成している。これにより、画像が重なって見えなくなる領域が特定の画像に偏らないように、すなわち各画像の境界を均等に表示している。
【0047】
以上、実施例1によれば、複数のカメラ画像を合成した表示画面を得るために、特別なユーザ操作を必要とすることなく、合成するカメラ画像の選択が容易な情報機器、及び
カメラ画像共有システムを提供することができる。さらに、イベント等で複数のカメラの状況を一目で確認できるとともに、複数のカメラ画像を合成した画面をSNSにアップロードして、臨場感のある画像をユーザ間で共有することが可能となる。
【実施例2】
【0048】
実施例2では、カメラ画像共有システムにおける、カメラ画像共有サービス提供装置(カメラ画像共有サービス)13とオートフレーミングサービス提供装置(オートフレーミングサービス)10の動作について説明する。
【0049】
図8は、カメラ画像共有サービス提供装置13のユーザ管理データベース(DB)14の例を示す図である。ユーザ管理DB14に登録されているユーザは、予めカメラ画像を共有あるいは交換することを目的に、グループ名が「イベントT」というユーザグループを形成している。ユーザ管理DB14には、「さくら」をはじめN名のユーザが登録され、そのユーザニックネーム、モバイル番号、IPアドレス、パスワード、メールアドレスのデータが記述されている。これらのユーザが使用する情報機器(カメラ)は特定のものである必要はなく、カメラ機能とディスプレイ機能を有する情報機器であれば利用可能である。例えば、メールアドレスとパスワードを入力してカメラ画像共有サービス13にログインし、サービスの提供を受けることができる。
【0050】
図9は、オートフレーミングサービス提供装置10におけるフレーミング処理部11の動作フローを示す図である。ここでのフレーミング処理(S200)は、ユーザのカメラ画像の特徴量を収集し、グループ化(紐付け)されている複数のカメラ画像の特徴量を要素としてインデックスベクトルを求める。そして、複数のカメラ画像を合成表示するのに好適なフレーミングパターンを求め、インデックスベクトルに対応させてフレーミングテーブル12に登録する処理である。
【0051】
カメラ1から画像データと特徴量をアップロード受信すると(S201)、フレーミングテーブル12の更新を開始する(S202)。まず、アップロードされた特徴量を、カメラ特徴量データベース11aに登録する(S203)。さらに、アップロードされているカメラの位置情報から、例えば
図3のユーザAのカメラに対しその周辺に位置するカメラ(ユーザB、C、D、E、F)を検索し、それらの特徴量をカメラ特徴量データベース11aから読み出す(S204)。
【0052】
次に、読み出した特徴量を用いて、フレーミングパターン候補を作成する(S205)。フレーミングパターンとは、各カメラ画像を合成する際の表示ルール(配置と大きさなど)であって、
図10に示すフレーミングパターンの評価指標に基づいて作成する(S206)。作成した候補が評価指標を満足する場合には、フレーミングテーブル12に追加登録し(S207)、処理を終了する(S208)。作成した候補が評価指標を満足しない場合には、S205に戻りフレーミングパターンの候補を修正して再度作成し、評価を繰り返す。
【0053】
図10は、フレーミングパターンの評価指標の例を示す図である。条件として、ディスプレイ4にどのカメラ画像も表示されないブランクエリアをできるだけ小さくすること、各々のカメラ画像に写っている中心被写体(例えば人物)が視認しやすい程度の大きさであること(そのために、カメラ画像の拡大/縮小、トリミング処理を行う)が挙げられる。さらに、カメラの位置情報を使い、現実のカメラの相対位置関係を維持しながら、距離に応じた表示がなされること、具体的にはAのカメラから近いカメラ画像は比較的大きく、遠いカメラ画像は小さく表示すること、が求められる。これらを満足することで、イベント会場の臨場感を再現する合成画面を作成できる。
【0054】
また、フレーミングパターン候補の作成(S205)にあたっては、過去のフレーミングパターンの選択実績をフィードバックする。フレーミングテーブル12には過去に遡って多量の選択実績のあるフレーミングパターンが登録されており、単一のグループに閉じるものではなく、広くオートフレーミングサービス10を利用するカメラの実績が蓄えられている。これら多量の実績に対して、AI(Artificial Intelligence)学習処理を行うことによって、より好適なフレーミングパターンを含むフレーミングテーブル12を作成することができる。
【0055】
実施例2によれば、インターネット9上にあるオートフレーミングサービス提供装置10から好適なフレーミングパターンの提供を受けることができ、情報機器1では画像合成のためのユーザ操作が軽減する。また情報機器1の小型化、軽量化にも繋がる。
【実施例3】
【0056】
実施例3では、情報機器1においてOUTカメラ2とINカメラ3を同時に取り扱い、それらの画像のオートフレーミング処理を行う場合について説明する。情報機器1(カメラ)の構成は実施例1(
図2)に示した構成と同様であり、OUTカメラ2とINカメラ3の画像のオートフレーミング処理は、FROM104に格納したオートフレーミングプロセス104cにより実行する。
【0057】
図11は、実施例3における情報機器1の撮影動作フローを示す図である。実施例1(
図4A)の動作フロー(S100)と同じ機能のステップについては、同一の番号を付与しており、
図4Aの動作フローとは異なるステップを中心に説明する。
【0058】
カメラ起動を行うと(S101)、OUTカメラ2とINカメラ3の設定を行う(S102a)。カメラの特徴量算出(S107a)では、OUTカメラ2とINカメラ3各々のカメラ画像の特徴量を計算し、オートフレーミング処理(S108a)では、OUTカメラ2とINカメラ3の2つのカメラ画像を対象とする。なお、情報機器1がOUTカメラ2、INカメラ3以外のカメラを備える場合には、備える全てのカメラ画像を対象としてよい。オートフレーミング処理の結果、OUTカメラ2とINカメラ3のカメラ画像を合成した画面が表示される(S109)。ユーザはこの中から撮影する画像を選択して(S110a)、撮影保存(シャッタ押し)を行う(S111)。
【0059】
なお、本実施例においても、カメラ画像共有サービス13の利用が可能であり、そのパスを破線で示している。任意のタイミングでログインし(S104)、フレーミングテーブル12や他ユーザのカメラ画像をダウンロードして(S106)、オートフレーミング処理(S108)を行う。これを撮影保存し、カメラ画像データや特徴量、さらには選択したフレームパターンをアップロード(S112)する。
【0060】
なお、再生処理とSNS処理に関しては、実施例1(
図4B,
図4C)の動作フローと同様である。
【0061】
図12〜
図14は、情報機器(カメラ)1の表示画面の例である。
図12Aと
図12Bは、撮影時の合成画面の表示状態を示し、
図11におけるステップS109に対応する。
図12Aは、横画面でカメラ撮影を行い、OUTカメラ2の画像48とINカメラ3の画像47を横方向に並べて表示するフレーミングパターンが適用されている(S108a)。撮影画像の選択(S110a)では、選択釦482をチェックし、OUTカメラ2の画像48を選択している。
【0062】
図12Bは、縦画面でカメラ撮影を行い、OUTカメラ2の画像48とINカメラ3の画像47を縦方向に並べて表示するフレーミングパターンが適用されている。撮影画像の選択では、選択釦482と472をチェックし、OUTカメラ2の画像48とINカメラ3の画像47の両方を選択している。この状態でシャッタ釦413を押すと(S111)、OUTカメラ2とINカメラ3の両方の画像が同時に撮影保存される。
【0063】
図13A〜
図13Cは、合成するカメラ画像の選択操作方法を示す図である。本例ではカメラ画像の選択は選択釦ではなくシャッタ釦413で行い、選択したいカメラ画像の位置にシャッタ釦413を移動(ドラッグ)させる。
【0064】
図13Aでは、シャッタ釦413をINカメラ3の画像47上に移動させ、画像47の外枠が太線でハイライト表示され選択されていることを示す。
図13Bでは、シャッタ釦413をOUTカメラ2の画像48上に移動させ、画像48がハイライト表示され選択されていることを示す。また
図13Cでは、シャッタ釦413を画像48と画像47の境界線上に移動させ、画像48と画像47をハイライト表示して、OUTカメラ2とINカメラ3の両方の画像を選択している。
【0065】
本例では、シャッタ釦413で撮影保存する画像を選択するという簡単な操作方法を採用している。さらに、シャッタ釦413を移動(ドラッグ)して、シャッタ釦413から指を離すときシャッタが切れるようにしておけば、カメラ画像を選択するという操作とシャッタを切るという操作がユーザの一連の操作で可能となり、使い勝手が一層向上する。
【0066】
図14Aと
図14Bは、撮影保存したカメラ画像を再生表示した状態を示す。
図4Bの再生時の動作フローで、オートフレーミング処理(S123)の後、合成画面の表示(S124)に対応する。
図14A、
図14Bの例では、ともにカメラ画像の中心付近の被写体をクローズアップして表示している。ただし、
図14Aでは、OUTカメラ2の画像48とINカメラ3の画像47を同等に扱うフレーミングパターンを適用しているのに対し、
図14Bでは、OUTカメラ2の画像48を主となるように表示するフレーミングパターンを適用している。
【0067】
以上、実施例3によれば、OUTカメラとINカメラの画像を合成した表示画面を得るのに特別なユーザ操作を必要とすることなく、撮影するカメラの選択が容易な情報機器、及びカメラ画像共有システムを提供することができる。さらに、カメラ画像の選択操作とシャッタ操作がシームレスなGUI(グラフィカルユーザインタフェース)の提供も可能となる。
【0068】
以上各実施例を説明したが、本発明はこれらに限るものでなく、例えば、ある実施例の構成の一部を他の実施例に置き換えることが可能である。また、ある実施例の構成に、他の実施例の構成を加えることも可能である。これらは全て本発明の範疇に属するものである。さらに、文中や図中に現れる数値やメッセージ等もあくまで一例であり、異なるものを用いても本発明の効果を損なうものではない。
【0069】
また、発明の機能等は、それらの一部または全部を、例えば集積回路で設計する等によりハードウェアで実装してもよい。また、マイクロプロセッサユニット、CPU等がそれぞれの機能等を実現する動作プログラムを解釈して実行することによりソフトウェアで実装してもよい。また、ソフトウェアの実装範囲を限定するものでなく、ハードウェアとソフトウェアを併用してもよい。