(58)【調査した分野】(Int.Cl.,DB名)
【発明を実施するための形態】
【0011】
以下、本発明を実施するための形態について図面を参照しながら詳細に説明する。
図1は、本発明による飛行型カメラシステムの実施形態の構成例を示す図である。本実施形態は、飛行型カメラ装置100と、端末装置であるウェアラブルデバイス110と、このウェアラブルデバイス110と一体又は別体として構成される可視光点滅物体111とから成る。
【0012】
飛行型カメラ装置100では、メインフレーム101に4つのモーターフレーム102(支持部)が取り付けられている。モーターフレーム102は、モータ104を支持できるようになっていて、モータ104のモータ軸にはロータブレード103が固定されている。各ロータブレード103には一定の迎え角が形成されており、回転により揚力が発生させられるようになっている。4組のモータ104とロータブレード103は、駆動推進部を構成している。
【0013】
メインフレーム101の下部には、カメラ部であるカメラ105が取り付けられている。このカメラ105は、例えば半天周カメラであり、飛行型カメラ装置100から下方360度の範囲を同時又は順次撮影することができる。カメラ105の周囲には、着陸用脚107が設置されている。メインフレーム101の内部のコントロールボックス106には、
図3で後述する各種制御機器が収められている。その一つとして、飛行型カメラ装置100は、GPS(Global Positioning System:全地球測位システム)の電波を受信するセンサ(カメラ側位置検出部)を備えており、
図1の121として示されるように、GPS衛星130からの電波を受信することにより、自装置の全地球範囲での現在位置を測位することができる。これに加えて、飛行型カメラ装置100は、例えば無線LAN(ローカルエリアネットワーク)やBluetoothとビーコン技術とを組み合わせた屋内測位システムの電波を受信するセンサを備えてもよく、自装置の特定の屋内での現在位置を測位することができる。
【0014】
端末装置である例えば腕時計型のウェアラブルデバイス110(端末側通信制御部)と飛行型カメラ装置100(カメラ側通信制御部)は、
図1の122として示されるように、例えばLTE(Long Term Evolution、「LTE」は登録商標)等の携帯電話通信規格やBLE(Bluetooth Low Energy、「Bluetooth」は登録商標) Class1等の近距離無線規格に基づいてデータ通信を実行することができる。また、ウェアラブルデバイス110は、GPSの電波を受信するセンサ(端末側位置検出部)を備えており、
図1の123として示されるように、GPS衛星130からの電波を受信することにより、自装置の全地球範囲での現在位置を測位することができる。これに加えて、ウェアラブルデバイス110は、例えば前述した無線LAN(ローカルエリアネットワーク)やBluetoothとビーコン技術とを組み合わせた屋内測位システムの電波を受信するセンサを備えてもよく、自装置の特定の屋内での現在位置を測位することができる。
【0015】
可視光点滅物体111(可視光発光部)は、例えばLED(Light Emitting Diode:発光ダイオード)を点滅駆動可能なデバイスであり、可視光を例えば点滅させながら発光することができる。この可視光点滅物体111は、ウェアラブルデバイス110の一部に設置されてもよいし、ウェアラブルデバイス110からは独立して、ブレスレット、ブローチ、またはペンダントに組み込まれてもよい。
【0016】
飛行型カメラ装置100は、
図1の124として示されるように、ウェアラブルデバイス110の現在位置に近づいたときに、その近くにある可視光点滅物体111が点滅発光する光をカメラ105によって捕捉することができ、続いて、
図1の125として示されるように、その可視光点滅物体111を装着しているユーザの顔を認識することができる。
【0017】
図2は、
図1の飛行型カメラシステムの動作説明図である。例えば、親の腕にウェアラブルデバイス110が装着されており、子の腕には可視光点滅物体111が装着されている。最初、飛行型カメラ装置100は親や子から離れた任意の位置に置かれている。
【0018】
この状態で、親が、ウェアラブルデバイス110において、呼出し指示の操作を行うと、ウェアラブルデバイス110は、その呼出し指示に基づいて、GPSセンサにて自装置の現在位置を検出し、その現在位置を飛行型カメラ装置100に送信する現在位置送信処理を実行する(
図2の201)。
【0019】
飛行型カメラ装置100は、ウェアラブルデバイス110からその現在位置を受信したときに、その受信した現在位置とGPSセンサにて順次検出される自装置の現在位置とを順次比較しながら、モータ104およびロータブレード103を含む駆動推進部を制御することにより、受信したウェアラブルデバイス110の現在位置に向けて飛行する処理を実行する(
図2の202)。
【0020】
飛行型カメラ装置100は、受信したウェアラブルデバイス110の現在位置に近づいたら、親が装着しているウェアラブルデバイス110の近くにいる子が装着している可視光点滅物体111が例えば点滅発光する可視光を検索しながら(
図2の203、204)、子の顔を認識する顔認識処理と、カメラ105に対してその認識した顔に合焦させて撮影を行わせる撮影実行処理と、を実行する(
図2の205)。
【0021】
ここで、飛行型カメラ装置100は、飛行開始時に、GPSセンサから自装置の位置を取得して飛行開始位置として記憶する処理を実行する。そして、飛行型カメラ装置100は、撮影を終了すると、記憶している飛行開始位置とGPSセンサにて順次検出される自装置の現在位置とを順次比較しながら、モータ104とロータブレード103を含む駆動推進部を制御することにより、飛行開始位置に向けて飛行して帰還する処理を実行する(
図2の206)。
【0022】
このようにして、本実施形態では、親が操作するウェアラブルデバイス110からの呼出し指示に基づいて、飛行型カメラ装置100が子の上空まで飛行してきて、子を自動的に認識して撮影し、撮影が終わったら再び元の飛行型カメラに戻るという、一連の自動撮影動作を実行することができる。本実施形態のその他の利用シーンとして、例えば、可視光点滅物体111が一体に備えられているウェアラブルデバイス110を装着したユーザが、海岸の沖でサーフィンをするようなときに、海岸に置いておいた飛行型カメラ装置100をウェアラブルデバイス110から呼び出して自分の上空まで飛行させ、サーフィンをしている自分を自動的に撮影させ、撮影が終わったら再び海岸に帰還させるという、一連の自動撮影動作を実行できる。本実施形態のさらに他の利用シーンとして、例えば、可視光点滅物体111が一体に備えられているウェアラブルデバイス110を装着したユーザが、釣りをするようなときに、魚がヒットしたら岩場に置いておいた飛行型カメラ装置100をウェアラブルデバイス110から呼び出して自分の上空まで飛行させ、釣りをしている自分を自動的に撮影させ、撮影が終わったら再び岩場に帰還させるという、一連の自動撮影動作を実行できる。この場合、ウェアラブルデバイス110は例えば携帯電話通信規格に従って自分の現在位置を飛行型カメラ装置100に知らせることができ、飛行型カメラ装置100は例えばGPSまたは前述したビーコンなどに従ってウェアラブルデバイス110の上空まで飛行することができる。このため、飛行型カメラ装置100は、最初はユーザをカメラ105での撮像により特定できないような場所または環境であっても、そこからユーザを特定し追尾することが可能となる。
【0023】
図3は、
図1の飛行型カメラ装置100の構成例を示すブロック図である。コントローラ301には、カメラ105(
図1参照)を含むカメラシステム302、例えばGPSセンサ(カメラ側位置検出部)、加速度センサ、ジャイロなどから構成されるフライトセンサ303、それぞれ#1から#4の各モータ105(
図1参照)を駆動する#1から#4のモータドライバ304、
図1のウェアラブルデバイス110との間で通信を行う通信制御部305(カメラ側通信制御部)、バッテリ307の電圧をモニタしながら各モータドライバ304に電力を供給するパワーセンサ306が接続される。なお、特には図示しないが、バッテリ307の電力は、301〜306の各ユニットにも供給される。コントローラ301は、通信制御部305を介して、
図1のウェアラブルデバイス110との間で各種制御情報を通信する。通信制御部305は、例えばLTE規格やBLE Class1規格による無線通信を制御する集積回路である。また、コントローラ301は、フライトセンサ303から、飛行型カメラ装置100の機体の姿勢に関する情報をリアルタイムで取得する。さらに、コントローラ301は、パワーセンサ306を介して、バッテリ307の電圧をモニタしながら、#1から#4の各モータドライバ304に、それぞれパルス幅変調に基づくデューティ比による電力指示信号を送信する。これにより、#1から#4のモータドライバ304はそれぞれ、#1から#4のモータ105の回転速度を独立して制御することができる。また、コントローラ301は、カメラシステム302を制御して、カメラ105(
図1)による撮影動作を制御する。
【0024】
図2のコントローラ301、カメラシステム302、フライトセンサ303、モータドライバ304、通信制御部305、パワーセンサ306、およびバッテリ307は、
図1のメインフレーム101内のコントロールボックス106の部分に搭載される。
【0025】
図4は、
図1のウェアラブルデバイス110の構成例を示すブロック図である。ウェアラブルデバイス110は、CPU401、メモリ402、センサ部403、タッチパネルディスプレイ404、操作部405、および通信制御部406(端末側通信制御部)を備える。通信制御部406は、飛行型カメラ装置100内の通信制御部305との例えばLTE規格やBLE Class1規格による無線通信を制御する集積回路である。メモリ302は、制御処理プログラム実行時のワークメモリとしても使用される。タッチパネルディスプレイ404は、ユーザが飛行型カメラ装置100を呼び出す装置を行うときの各種メニューを液晶ディスプレイに表示するとともに、ユーザによるタッチ入力指示を受け付けるデバイスである。操作部405は、各種操作入力を行うハードウェアであり、例えばウェアラブルデバイス110のケース横側に設置された操作ボタン類である。CPU401は、ウェアラブルデバイス110の全体動作を制御し、CPUと制御処理プログラムを記憶したROM(リードオンリーメモリ)を内蔵する集積回路である。センサ部403は、少なくともGPSセンサ(端末側位置検出部)のほか、加速度センサなどを備える。
【0026】
ウェアラブルデバイス110にはまた、可視光点滅物体111が接続される。前述したように、この可視光点滅物体111はウェアラブルデバイス110と一体として構成されてもよいし、別体として構成されてもよい。別体の場合には、ウェアラブルデバイス110と可視光点滅物体111は、例えば近距離無線通信規格Bluetoothにより無線接続されてよい。
【0027】
図5は、
図4に示されるウェアラブルデバイス110のCPU401が実行する制御処理例を示すフローチャートである。この処理は、CPU401が、内蔵するROMに記憶された制御処理プログラムを、メモリ402をワークメモリとして使用しながら実行する動作である。CPU401は、例えばユーザが操作部405の特定の操作ボタンを押すことにより、この制御処理を開始する。
【0028】
CPU401はまず、操作部405(
図4)の操作ボタンが押されたか否かを判定し待機する(ステップS501の判定がNOの繰返し)。
【0029】
ステップS501の判定がYESになると、CPU401は、センサ部403内のGPSセンサにて現在位置を取得させる(ステップS502)。
【0030】
CPU401は、GPSセンサにて現在位置が取得できたか否かを判定する(ステップS503)。
【0031】
ステップS503の判定がYESならば、CPU401は、ステップS502で取得した現在位置を、通信制御部406を介して飛行型カメラ装置100に送信する(ステップS505)。
【0032】
次に、CPU401は、通信制御部406を介して飛行型カメラ装置100から検索開始通知を受信するまで、上述のステップS502、S503、S505の一連の処理を繰り返し実行する(ステップS5506の判定がNO)。
【0033】
通信制御部406を介して飛行型カメラ装置100から検索開始通知を受信することによりステップS506の判定がYESになると、CPU401は、可視光点滅物体111に点滅を開始させる(ステップS507)。
【0034】
さらに、CPU401は、ユーザに可視光点滅物体111を飛んでくる飛行型カメラ装置100の方に向けるように促すメッセージを、タッチパネルディスプレイ404のディスプレイに表示する(ステップS508)。
【0035】
次に、CPU401は、静止画撮影、動画撮影、またはタイムラプス撮影などの撮影形態をユーザに指示させるための撮影形態メニューを、タッチパネルディスプレイ404のディスプレイに表示する(ステップS509)。
【0036】
続いて、CPU401は、ユーザがタッチパネルディスプレイ404上でいずれかの撮影形態を指示したか否かを判定する(ステップS510)。
【0037】
ステップS510の判定がYESならば、CPU401は、ユーザが指示した撮影形態を、通信制御部406を介して飛行型カメラ装置100に送信する(ステップS511)。
【0038】
ステップS510の判定がNOならば、CPU401は、ステップS511の処理はスキップする。
【0039】
その後、CPU401は、ユーザが、操作部405の操作ボタンを操作して撮影終了を指示したか否かを判定する(ステップS512)。
【0040】
ステップS512の判定がNOならば、CPU401は、ステップS510の判定処理に戻り、ステップS510からS512の一連の処理を繰り返し実行する。
【0041】
ステップS512の判定がYESになると、CPU401は、撮影終了を、通信制御部406を介して飛行型カメラ装置100に送信する。その後、CPU401は、
図5のフローチャートで示される制御処理を終了する。
【0042】
ステップS502の処理の結果、GPSセンサにて現在位置を取得できなかったことによりステップS503の判定がNOとなったときには、飛行型カメラ装置100はウェアラブルデバイス110の現在位置がわからないため、CPU401は、通信制御部406を介して飛行型カメラ装置100に、終了指示を送信する(ステップS504)。その後、CPU401は、ステップS501の処理に戻る。
【0043】
図6および
図7は、飛行型カメラ装置100の
図3に示されるコントローラ301が実行する制御処理例を示すフローチャートである。この処理は、コントローラ301が、内蔵するROMに記憶された制御処理プログラムを実行する動作である。コントローラ301は、例えばユーザが特には図示しない電源スイッチをオンすることにより、この制御処理を開始する。
【0044】
コントローラ301はまず、フライトセンサ303内のGPSセンサにて現在位置を取得させる(
図6のステップS601)。
【0045】
コントローラ301は、GPSセンサにて現在位置が取得できたか否かを判定する(
図6のステップS602)。
【0046】
ステップS602の判定がNOならば、飛行ができないため、コントローラ301は、そのまま
図6および
図7のフローチャートで示される制御処理を終了する。
【0047】
ステップS602の判定がYESならば、コントローラ301は、ステップS601で取得した現在位置を飛行開始位置としてコントローラ301内の特には図示しないメモリに記憶する(
図6のステップS603)。
【0048】
次に、コントローラ301は、通信制御部305が、ウェアラブルデバイス110のCPU401が
図5のステップS505で送信した現在位置の情報を受信したか否かを判定する(
図6のステップS604)。
【0049】
ステップS604の判定がNOならば、コントローラ301は、通信制御部305が、上記CPU401が
図5のステップS504で送信した終了指示を受信したか否かを判定する(
図6のステップS605)。
【0050】
ステップS605の判定もNOならば、コントローラ301は、ステップS604に戻る。
【0051】
ステップS605の判定がYESとなった場合、ウェアラブルデバイス110の位置がわからず飛行を行えないので、コントローラ301は、そのまま
図6および
図7のフローチャートで示される制御処理を終了する。
【0052】
ステップS604の判定がYESになると、コントローラ301は、#1から#4のモータドライバ304を制御することにより、離陸して、受信したウェアラブルデバイス110の現在位置に対応する目的地に向けて飛行を開始する(
図6のステップS606)。
【0053】
飛行中、コントローラ301は、フライトセンサ303内のGPSセンサにて現在位置を取得する(
図6のステップS607)。
【0054】
コントローラ301は、GPSセンサにて現在位置が取得できたか否かを判定する(
図6のステップS608)。
【0055】
ステップS608の判定がNOならば、それ以上飛行ができないため、コントローラ301は、#1から#4のモータドライバ304を制御してその場に着陸する(
図6のステップS609)。その後、コントローラ301は、
図6および
図7のフローチャートで示される制御処理を終了する。
【0056】
ステップS608の判定がYESならば、コントローラ301は、ステップS607で取得した自装置の現在位置を、ステップS604受信したウェアラブルデバイス110の現在位置と比較することにより、目的地に到着したか否かを判定する(
図6のステップS610)。
【0057】
ステップS610の判定がNOならば、コントローラ301は、ステップS606の処理に移行し、飛行を続行する。
【0058】
ステップS610の判定がYESになると、コントローラ301は、
図7のステップS611の処理に移行する。ステップS611において、コントローラ301は、
図3のフライトセンサ303の出力に基づいて#1から#4のモータドライバ304を制御することにより、
図1の可視光点滅物体111を検索できる高度まで降下する。
【0059】
次に、コントローラ301は、通信制御部305を介してウェアラブルデバイス110に、可視光点滅物体111の検索開始を通知する(
図7のステップS612)。
【0060】
その後、コントローラ301は、
図3のカメラシステム302を介して
図1の半天周カメラ105にて撮像を行いながら、可視光点滅物体111からの可視光の点滅を検索して可視光点滅物体111を検索する(
図7のステップS613)。
【0061】
コントローラ301は、可視光点滅物体111が見つかったか否かを判定する(
図7のステップS614)。
【0062】
ステップS614の判定がNOならば、コントローラ301は、ステップS612の通知の後一定時間が経過したか否かを判定する(
図7のステップS615)。
【0063】
ステップS615の判定がNOならば、コントローラ301は、ステップS613の処理に戻って、可視光点滅物体111の検索を続行する。
【0064】
ステップS615の判定がYESになったら、コントローラ301は、
図7のステップS627からS630の一連の処理を実行する。これらの処理については後述する。
【0065】
ステップ613からS615の繰り返し処理において、可視光点滅物体111が見つかったことによりステップS614の判定がYESになると、コントローラ301は、
図3のフライトセンサ303の出力に基づいて#1から#4のモータドライバ304を制御することにより、可視光点滅物体111を保持しているユーザの顔認識ができる距離まで近づく(
図7のステップS616)。
【0066】
次に、コントローラ301は、電力消費を抑えるために、
図3のフライトセンサ303内のGPSセンサを停止させる(
図7のステップS617)。
【0067】
次に、コントローラ301は、
図3のフライトセンサ303の出力に基づいて#1から#4のモータドライバ304を制御することにより、ユーザとの距離をキープしながら、ユーザの顔を認識する顔認識処理を実行する(
図7のステップS618)。
【0068】
コントローラ301は、ユーザの顔が認識できたか否かを判定する(
図7のステップS619)。
【0069】
ステップS619の判定がNOならば、コントローラ301は、
図3のフライトセンサ303の出力に基づいて#1から#4のモータドライバ304を制御することにより、少し高度を上げ留(ステップS620)。
【0070】
その後、コントローラ301は、ステップS613の処理に戻り、再度可視光点滅物体111の検索を行う。
【0071】
顔認識に成功することによりステップS619の判定がYESになると、コントローラ301は、ウェアラブルデバイス110内のCPU401が
図5のステップS511により送信した撮影形態を、通信制御部305を介して受信しているか否かを判定する(
図7のステップS621)。
【0072】
ステップS621の判定がYESならば、コントローラ301は、受信した撮影形態で、カメラシステム302に対してカメラ105によるユーザの撮影を実行させる(
図7のステップS622)。
【0073】
ステップS621の判定がNOならば、コントローラ301は、予め初期設定された撮影形態で、カメラシステム302に対してカメラ105によるユーザの撮影を実行させる(
図7のステップS623)。
【0074】
コントローラ301は、撮影形態によって設定された撮影が終了したか否かを判定する(
図7のステップS624)。
【0075】
ステップS624の判定がNOならば、コントローラ301は、ウェアラブルデバイス110内のCPU401が
図5のステップS513で送信した撮影終了の指示を受信したか否かを判定する(
図7のステップS625)。
【0076】
ステップS625の判定もNOならば、コントローラ301は、ステップS621の処理に戻ってカメラシステム302にカメラ105による撮影を続行させる。
【0077】
撮影が終了しまたは撮影終了が指示されたことによりステップS624またはステップS625の判定がYESとなった場合には、コントローラ301は、フライトセンサ303内のGPSセンサを起動する(
図7のステップS626)。
【0078】
コントローラ301は、フライトセンサ303内のGPSセンサにて現在位置を取得する(
図7のステップS627)。
【0079】
コントローラ301は、GPSセンサにて現在位置が取得できたか否かを判定する(
図7のステップS628)。
【0080】
ステップS628の判定がNOならば、それ以上飛行ができないため、コントローラ301は、#1から#4のモータドライバ304を制御してその場に着陸する(
図7のステップS629)。その後、コントローラ301は、
図6および
図7のフローチャートで示される制御処理を終了する。
【0081】
ステップS628の判定がYESならば、コントローラ301は、帰還処理を実行する(ステップS630)。
図8は、ステップS630の帰還処理の詳細例を示すフローチャートである。
【0082】
コントローラ301はまず、#1から#4のモータドライバ304を制御することにより、
図6のステップS603で記憶していた飛行開始位置に対応する帰還地に向けて飛行を開始する(ステップS801)。
【0083】
飛行中、コントローラ301は、フライトセンサ303内のGPSセンサにて現在位置を取得する(ステップS802)。
【0084】
コントローラ301は、GPSセンサにて現在位置が取得できたか否かを判定する(ステップS803)。
【0085】
ステップS803の判定がNOならば、それ以上飛行ができないため、コントローラ301は、#1から#4のモータドライバ304を制御してその場に着陸する(ステップS804)。その後、コントローラ301は、
図8のフローチャートで示される
図7のステップS630の処理を終了し、
図6および
図7のフローチャートで示される制御処理を終了する。
【0086】
ステップS803の判定がYESならば、コントローラ301は、ステップS802で取得した自装置の現在位置を、
図6のステップS603で記憶した飛行開始位置と比較することにより、帰還地に到着したか否かを判定する(ステップS805)。
【0087】
ステップS805の判定がNOならば、コントローラ301は、ステップS801の処理に移行し、帰還の飛行を続行する。
【0088】
ステップS805の判定がYESになると、コントローラ301は、#1から#4のモータドライバ304を制御して帰還地に着陸する(ステップS806)。その後、コントローラ301は、
図8のフローチャートで示される
図7のステップS630の処理を終了し、
図6および
図7のフローチャートで示される制御処理を終了する。
【0089】
可視光点滅物体111が見つからず一定時間が経過することにより
図7のステップS615の判定がYESになった場合も、上述した
図7のステップS627からS630の一連の処理(
図8のフローチャートも含む)が実行されることにより、飛行型カメラ装置100は帰還地へ帰還するかまたはその場に着陸する。
【0090】
以上説明した実施形態によれば、飛行型カメラ装置100は、最初はユーザをカメラ105での撮像により特定できないような場所または環境であっても、そこからユーザを特定し追尾可能することが可能となり、撮影が終了したら自動的に飛行開始位置に帰還させることが可能となる。
【0091】
なお、撮影が終了したら飛行開始位置に帰還させるのではなく、ユーザの指示に基づくウェアラブルデバイス110からの通知に基づいて、その場に着陸させたり、上空でホバリングをさせたりするようにしてもよい。
【0092】
以上の実施形態に関して、さらに以下の付記を開示する。
(付記1)
端末装置を追尾して飛行する飛行型カメラ装置であって、
前記端末装置の遠方において前記端末装置の現在位置を基に該端末装置の近傍まで飛行する第1の制御手段と、
前記端末装置の現在位置の近傍において該端末装置又は該端末装置のユーザを識別する第2の制御手段と、
を備える飛行型カメラ装置。
(付記2)
前記第1の制御手段は、全地球測位システムからの電波を受信して位置を算出するGPS受信手段を含み、該GPS受信手段により取得した該飛行型カメラ装置の位置と前記端末装置の現在位置とを順次比較しながら前記端末装置の現在位置の近傍まで飛行する、付記1記載の飛行型カメラ装置。
(付記3)
前記第2の制御手段は、可視光受信手段、通信屋内測位システムからのビーコン電波を受信する手段、携帯電話通信規格によるデータ通信を受信する手段、近距離無線通信規格によるデータ通信を受信する手段、のいずれかを含む付記1又は2記載の飛行型カメラ装置。
(付記4)
前記第2の制御手段は、顔認識手段をさらに含む、付記1ないし3のいずれかに記載の飛行型カメラ装置。
(付記5)
前記第2の制御手段は、前記端末装置と連動する可視光発光装置が発光する可視光を検索する可視光検索処理と、該可視光の検索に成功した後前記ユーザの顔を認識する顔認識処理を実行する、付記4に記載の飛行型カメラ装置。
(付記6)
前記第2の制御手段は、前記認識した顔に合焦させて撮影を行わせる撮影処理を実行する、付記5に記載の飛行型カメラ装置。
(付記7)
撮影を行うカメラ部と、
空中を飛行する駆動推進部と、
自装置の位置を検出するカメラ側位置検出部と、
前記端末装置と通信を行うカメラ側通信制御部と、
をさらに備え、
前記第1の制御手段は、前記カメラ側通信制御部を介して前記端末装置から前記端末装置の現在位置を受信して、該受信した前記端末装置の現在位置と前記カメラ側位置検出部にて順次検出される自装置の現在位置とを順次比較しながら、前記駆動推進部を制御することにより前記受信した前記端末装置の現在位置の近傍まで飛行する処理を実行する、付記1ないし6のいずれかに記載の飛行型カメラ装置。
(付記8)
飛行型カメラ装置が端末装置と通信することにより飛行するシステムであって、
前記端末装置は、現在位置を前記飛行型カメラ装置に送信し、
前記飛行型カメラ装置は、前記端末装置の現在位置を受信して前記端末装置の現在位置に向けて飛行する第1の処理部と、前記受信した前記端末装置の現在位置に近づいたら該端末装置又は該端末装置のユーザを識別する第2の処理部と、
を有する飛行型カメラシステム。
(付記9)
前記端末装置は、ユーザによって保持され前記端末装置と一体又は別体であって可視光を発光する可視光発光装置を更に有する、付記8に記載の飛行型カメラシステム。
(付記10)
前記飛行型カメラ装置は、
前記受信した前記端末装置の現在位置に近づいたら前記可視光発光装置が発光する可視光を検索する可視光検索処理と、該可視光の検索に成功した後ユーザの顔を認識する顔認識処理と、前記カメラ部に該認識した顔の撮影を行わせる撮影処理を実行するカメラ側制御部を有する、付記8または9記載の飛行型カメラシステム。
(付記11)
前記飛行型カメラ装置は、前記可視光の検索を開始した旨を前記端末装置に送信する処理を更に実行し、
前記端装置は、前記飛行型カメラ装置から前記可視光の検索を開始した旨を受信したら、前記可視光発光装置に対して前記可視光を点滅させて発光させる処理を更に実行し、
前記飛行型カメラ装置は、前記可視光の点滅を検出したら、前記検出した可視光の点滅に向かって近づき、前記顔認識処理を実行する、付記10に記載の飛行型カメラシステム。
(付記12)
前記端末装置は、前記ユーザが指示した撮影形態を、前記飛行型カメラ装置に送信する処理を更に実行し、
前記飛行型カメラ装置は、受信した前記撮影形態に応じた撮影を前記カメラ部に実行させる、付記8ないし11のいずれかに記載の飛行型カメラシステム。
(付記13)
前記飛行型カメラ装置は、
飛行開始時に自装置の位置を取得して飛行開始位置として記憶する処理と、
前記撮影の終了時に、記憶している前記飛行開始位置と順次検出される自装置の現在位置とを順次比較しながら、前記飛行開始位置に向けて飛行して帰還する処理とを更に実行する、付記8ないし12のいずれかに記載の飛行型カメラシステム。
(付記14)
前記カメラ側制御部は、所定時間または所定過程の撮影を行った時点で前記撮影を終了する、付記13に記載の飛行型カメラシステム。
(付記15)
前記端末側制御部は、ユーザが撮影終了を指示したときに、前記端末側通信制御部を介して前記飛行型カメラ装置に撮影終了を送信し、
前記カメラ側制御部は、前記カメラ側通信制御部を介して前記撮影終了を受信した時点で前記撮影を終了する、付記13または14記載の飛行型カメラシステム。
(付記16)
飛行型カメラ装置と通信することにより該飛行型カメラ装置を被写体の上空まで飛行させて該被写体の撮影を行わせる端末装置であって、
自装置の位置を検出する端末側位置検出部と、
ユーザの呼出し指示に基づいて、前記端末側位置検出部にて自装置の現在位置を検出し、該現在位置を前記飛行型カメラ装置に送信する現在位置送信処理を実行する端末側制御部と、
を有する端末装置。
(付記17)
前記飛行型カメラ装置に対して撮影制御を行わせる撮影制御部をさらに有する、
付記16記載の端末装置。
(付記18)
飛行型カメラ装置が端末装置の上空へ到達するまでは、前記端末装置の現在位置と測位システムからの電波を受信して前記飛行体カメラ装置を位置制御し、
前記端末装置の上空へ到達後は、前記端末装置又は該端末装置のユーザを識別する、
飛行型カメラ装置の制御方法。
(付記19)
端末装置を追尾して飛行する飛行型カメラ装置を制御するコンピュータに、
前記端末装置の遠方においては前記端末装置の現在位置を基に該端末装置の近傍まで飛行するステップと、
前記端末装置の現在位置の近傍では該端末装置又は該端末装置のユーザを識別するステップと、
を実行させるためのプログラム。