(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公表特許公報(A)
(11)【公表番号】特表2017-508229(P2017-508229A)
(43)【公表日】2017年3月23日
(54)【発明の名称】ジェスチャによって操作する手首装着型カメラシステム
(51)【国際特許分類】
G06F 3/01 20060101AFI20170303BHJP
H04N 5/225 20060101ALI20170303BHJP
【FI】
G06F3/01 570
H04N5/225 F
【審査請求】未請求
【予備審査請求】未請求
【全頁数】29
(21)【出願番号】特願2016-572372(P2016-572372)
(86)(22)【出願日】2015年2月27日
(85)【翻訳文提出日】2016年10月28日
(86)【国際出願番号】US2015018191
(87)【国際公開番号】WO2015131157
(87)【国際公開日】20150903
(31)【優先権主張番号】62/101,289
(32)【優先日】2015年1月8日
(33)【優先権主張国】US
(31)【優先権主張番号】61/946,622
(32)【優先日】2014年2月28日
(33)【優先権主張国】US
(81)【指定国】
AP(BW,GH,GM,KE,LR,LS,MW,MZ,NA,RW,SD,SL,ST,SZ,TZ,UG,ZM,ZW),EA(AM,AZ,BY,KG,KZ,RU,TJ,TM),EP(AL,AT,BE,BG,CH,CY,CZ,DE,DK,EE,ES,FI,FR,GB,GR,HR,HU,IE,IS,IT,LT,LU,LV,MC,MK,MT,NL,NO,PL,PT,RO,RS,SE,SI,SK,SM,TR),OA(BF,BJ,CF,CG,CI,CM,GA,GN,GQ,GW,KM,ML,MR,NE,SN,TD,TG),AE,AG,AL,AM,AO,AT,AU,AZ,BA,BB,BG,BH,BN,BR,BW,BY,BZ,CA,CH,CL,CN,CO,CR,CU,CZ,DE,DK,DM,DO,DZ,EC,EE,EG,ES,FI,GB,GD,GE,GH,GM,GT,HN,HR,HU,ID,IL,IN,IR,IS,JP,KE,KG,KN,KP,KR,KZ,LA,LC,LK,LR,LS,LU,LY,MA,MD,ME,MG,MK,MN,MW,MX,MY,MZ,NA,NG,NI,NO,NZ,OM,PA,PE,PG,PH,PL,PT,QA,RO,RS,RU,RW,SA,SC,SD,SE,SG,SK,SL,SM,ST,SV,SY,TH,TJ,TM,TN,TR,TT,TZ,UA,UG,US
(71)【出願人】
【識別番号】516259228
【氏名又は名称】グプタ ヴィカス
【氏名又は名称原語表記】GUPTA, Vikas
(74)【代理人】
【識別番号】100105050
【弁理士】
【氏名又は名称】鷲田 公一
(72)【発明者】
【氏名】グプタ ヴィカス
【テーマコード(参考)】
5C122
5E555
【Fターム(参考)】
5C122DA01
5C122EA42
5C122FH11
5C122FL00
5C122GC07
5C122GC14
5C122GD16
5C122HA75
5C122HB01
5E555AA04
5E555AA80
5E555BA04
5E555BA18
5E555BA84
5E555BB04
5E555BB18
5E555BD01
5E555CA10
5E555CA41
5E555CA44
5E555CB19
5E555CB21
5E555CB59
5E555CB66
5E555CB69
5E555CC01
5E555DA13
5E555EA13
5E555FA00
(57)【要約】
メディアをキャプチャするシステムおよび方法を開示する。第1の態様においては、本システムは、少なくとも1つのセンサを含むリストバンド型デバイスと、リストバンド型デバイスに結合されているカメラとを備えている。カメラは、少なくとも1つのセンサを使用して判定される少なくとも1つのジェスチャによって制御される。第1の態様においては、本方法は、少なくとも1つのセンサを含むリストバンド型デバイスを作製するステップと、リストバンド型デバイスにカメラを結合するステップと、少なくとも1つのセンサを使用して少なくとも1つのジェスチャを判定するステップと、少なくとも1つのジェスチャを使用することによってカメラを制御するステップと、を含む。
【選択図】
図1
【特許請求の範囲】
【請求項1】
メディアをキャプチャするシステムであって、
リストバンド型デバイスであって、少なくとも1つのセンサを含む、前記リストバンド型デバイスと、
前記リストバンド型デバイスに結合されているカメラであって、前記少なくとも1つのセンサを使用して判定される少なくとも1つのジェスチャによって制御される、前記カメラと、
を備えている、システム。
【請求項2】
前記リストバンド型デバイスがプロセッサを含み、前記プロセッサが、前記少なくとも1つのセンサによって検出されるユーザの動きを解析する、請求項1に記載のシステム。
【請求項3】
前記ユーザの動きが、ユーザの筋肉の変化、腱の変化、生体電磁気学的な変化、および解剖学的輪郭の変化のうちの1つまたは複数を使用して前記少なくとも1つのセンサによって検出される、請求項2に記載のシステム。
【請求項4】
前記ユーザの動きが、前記ユーザの動きから特徴を抽出して前記少なくとも1つのジェスチャを判定するセンサデータ分類、を使用して前記プロセッサによって解析される、請求項2に記載のシステム。
【請求項5】
前記センサデータ分類が、バックプロパゲーション、ベイズネットワーク、ニューラルネットワーク、機械学習のうちの1つまたは複数を含む、請求項4に記載のシステム。
【請求項6】
前記少なくとも1つのセンサが、ジャイロスコープ、加速度計、圧力センサ、温度センサ、光センサのうちの1つまたは複数である、請求項1に記載のシステム。
【請求項7】
前記カメラが、光学ファインダおよびデジタルビューファインダのいずれも使用せずに制御される、請求項1に記載のシステム。
【請求項8】
前記カメラが、親指の爪のサイズであるレンズを含み、さらに前記レンズが、ユーザの回転動作に従うように配置されている、請求項1に記載のシステム。
【請求項9】
前記少なくとも1つのジェスチャが、ユーザが人差し指と親指を互いに約90度に広げてカメラのフレームの1つの角部を形成する動き、を含む、請求項1に記載のシステム。
【請求項10】
シャッターの平面が、人差し指と親指を広げることによって形成される平面に実質的に平行である、請求項9に記載のシステム。
【請求項11】
ユーザが人差し指と親指を互いに約90度に広げることに応えて、前記リストバンド型デバイスが、シャッターを開いてメディアのキャプチャを待機するように前記カメラに命令する、請求項10に記載のシステム。
【請求項12】
前記リストバンド型デバイスが、ユーザが人差し指をわずかに縮めることによってボタンを押す動作をシミュレートしていることを判定し、これによりメディアをキャプチャするように前記カメラをトリガーする、請求項11に記載のシステム。
【請求項13】
前記少なくとも1つのジェスチャが、カメラの機能を初期化する、半円形、円形、OK動作、ハングルーズ動作、人差し指で左にスワイプ、人差し指で右にスワイプ、指同士のタップ、指同士のダブルタップ、モードを切り替える、オプションを選択する、ズーミング、シャッターをトリガーしてキャプチャを開始する、シャッターをトリガーしてモーションキャプチャを開始する、のうちの1つまたは複数を含む、請求項1に記載のシステム。
【請求項14】
前記リストバンド型デバイスおよび前記カメラの両方に結合されている通信装置であって、前記リストバンド型デバイスおよび前記カメラの両方から、スマートフォンおよびクラウドベースのサーバシステムの少なくとも一方を備えている別のデバイスにデータを送信する、前記通信装置、
をさらに備えている、請求項1に記載のシステム。
【請求項15】
前記リストバンド型デバイスが、発光ダイオード(LED)を使用して複数の通知を生成する発光型ユーザインタフェース、を含む、請求項1に記載のシステム。
【請求項16】
メディアをキャプチャする方法であって、
リストバンド型デバイスを作製するステップであって、前記リストバンド型デバイスが少なくとも1つのセンサを含む、ステップと、
前記リストバンド型デバイスにカメラを結合するステップと、
前記少なくとも1つのセンサを使用して少なくとも1つのジェスチャを判定するステップと、
前記少なくとも1つのジェスチャを使用することによって前記カメラを制御するステップと、
を含む、方法。
【請求項17】
ユーザの筋肉の変化、腱の変化、生体電磁気学的な変化、および解剖学的輪郭の変化のうちの1つまたは複数を使用することによって、前記少なくとも1つのセンサを使用してユーザの動きを検出するステップと、
前記ユーザの動きを、前記ユーザの動きから特徴を抽出するセンサデータ分類を使用して前記リストバンド型デバイスのプロセッサによって解析するステップと、
前記抽出された特徴を使用して前記少なくとも1つのジェスチャを判定するステップと、
をさらに含む、請求項16に記載の方法。
【請求項18】
前記少なくとも1つのジェスチャが、ユーザが人差し指と親指を互いに約90度に広げる動きであることに応えて、シャッターを開いてメディアのキャプチャを待機するように、前記リストバンド型デバイスによって前記カメラに命令するステップ、
をさらに含む、請求項16に記載の方法。
【請求項19】
ユーザが人差し指をわずかに縮めることによってボタンを押す動作をシミュレートしていることを、前記リストバンド型デバイスによって判定し、これによりメディアをキャプチャするように前記カメラをトリガーするステップ、
をさらに含む、請求項18に記載の方法。
【請求項20】
前記リストバンド型デバイスおよび前記カメラの両方に通信装置を結合するステップであって、前記通信装置が、前記リストバンド型デバイスおよび前記カメラの両方から、スマートフォンおよびクラウドベースのサーバシステムの少なくとも一方を備えている別のデバイスにデータを送信する、ステップ、
をさらに含む、請求項16に記載の方法。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、ウェアラブルデバイスに関し、より詳細には、ウェアラブルカメラシステムに関する。
【背景技術】
【0002】
瞬間を捉える写真撮影およびビデオ撮影において、タイミングおよびフレーミングは重要な要素である。瞬間を捉えるのにかかる時間をますます短縮することが望まれている。これまでのカメラの解決策では、写真を撮影するために必要な準備、または撮影の準備に必要な予備準備が多すぎる。さらに、これまでの解決策は、架台(mount)、光学式の従来のファインダ、シャッターボタンに依存する。これまでのカメラの解決策としては、従来のデジタル小型カメラ、デジタル一眼レフカメラ(DSLR)、搭載型カメラ(mounted camera)、スマートフォン、ウェアラブルコンピュータが挙げられる。
【0003】
写真撮影およびビデオ撮影を通じて瞬間を捉えるのにかかる時間を効果的かつ効率的に短縮する解決策が強く求められている。
【発明の概要】
【0004】
メディアをキャプチャするシステムおよび方法を開示する。第1の態様においては、本システムは、少なくとも1つのセンサを含むリストバンド型デバイスと、リストバンド型デバイスに結合されているカメラとを備えている。カメラは、少なくとも1つのセンサを使用して判定される少なくとも1つのジェスチャによって制御される。
【0005】
第2の態様においては、本方法は、少なくとも1つのセンサを含むリストバンド型デバイスを作製するステップと、リストバンド型デバイスにカメラを結合するステップと、少なくとも1つのセンサを使用して少なくとも1つのジェスチャを判定するステップと、少なくとも1つのジェスチャを使用することによってカメラを制御するステップと、を含む。
【0006】
添付の図面は、本発明のいくつかの実施形態を示しており、これらの図面は、説明文と合わせて、本発明の原理を説明する役割を果たす。この技術分野における通常の技能を有する者には、図に示した実施形態が例示的なものにすぎず、本発明の範囲を制限するようには意図されていないことが容易に認識されるであろう。
【図面の簡単な説明】
【0007】
【
図1】一実施形態による、メディアをキャプチャするシステムを示している。
【
図2】一実施形態による、ウェアラブルカメラデバイスによってセンサデータを分類するシステムを示している。
【
図3】一実施形態による、メディアをキャプチャする方法を示している。
【
図4】別の実施形態による、メディアをキャプチャする方法を示している。
【
図5】一実施形態による、ユーザの視点におけるウェアラブルカメラデバイスを示している。
【
図6】一実施形態による、ウェアラブルカメラデバイスの側面図を示している。
【
図7】一実施形態による、被写体から見たウェアラブルカメラデバイスを示している。
【
図8】一実施形態による、ユーザの視点におけるウェアラブルカメラデバイスを示している。
【
図9】一実施形態による、ユーザの視点におけるウェアラブルカメラデバイスを示している。
【
図10】一実施形態による、ユーザの視点におけるウェアラブルカメラデバイスを示している。
【
図11】一実施形態による、ユーザの視点におけるウェアラブルカメラデバイスを示している。
【
図12】一実施形態による、ユーザの視点におけるウェアラブルカメラデバイスを示している。
【
図13】一実施形態による、ユーザの視点におけるウェアラブルカメラデバイスを示している。
【
図14】一実施形態による、ユーザの視点におけるウェアラブルカメラデバイスを示している。
【
図15】一実施形態による、ユーザの視点におけるマルチウェアラブルカメラデバイスシステムを示している。
【
図16】一実施形態による、ウェアラブルカメラデバイスのユーザインタフェースディスプレイを示している。
【
図17】一実施形態による、ウェアラブルカメラデバイスによってジェスチャ認識を使用してメディアをキャプチャする方法を示している。
【
図18】一実施形態による、ウェアラブルカメラデバイスによってジェスチャ認識を使用してメディアをキャプチャする方法を示している。
【
図19】一実施形態による、被写体から見たウェアラブルカメラデバイスを示している。
【発明を実施するための形態】
【0008】
本発明は、ウェアラブルデバイスに関し、より詳細には、ウェアラブルカメラシステムに関する。以下の説明は、この技術分野における通常の技能を有する者が本発明を作製および使用できるようにする目的で提示されており、特許出願およびその必要書類の形で提供されている。当業者には、好ましい実施形態に対するさまざまな修正と、本明細書に記載されている一般的な原理および特徴が容易に理解されるであろう。したがって本発明は、示した実施形態に限定されるようには意図されておらず、本明細書に記載されている原理および特徴に矛盾しない最も広い範囲を包含するものとする。
【0009】
従来のカメラの解決策としては、デジタル小型カメラ(例:DSLR)、搭載型カメラ、スマートフォン、メガネ型カメラが挙げられる。従来のカメラの解決策では、一般に、ショットをフレーミングするための3つの方法のうちの1つを使用する。第1の方法では、光学ファインダを利用し、その欠点として、ユーザの目を光学窓に極めて近づける必要があり、これは時間がかかり不便である(ただしこれに限定されない)。第2の方法では、デジタルビューファインダを利用し、その欠点として、デジタル画面が必要である、デジタル画面の大きさおよび重量によってその解決策の携帯性が制限される、画面を表示および更新するためのソフトウェアが必要でありソフトウェアの動作が遅いことがある、画面用の電力および追加のハードウェアが必要である、ユーザが自分の目で見ることのできる目の前の被写体のデジタル表現を見る必要のある不自然なインタフェースが提供される(ただしこれらに限定されない)。第3の方法では、ファインダを利用せず、したがってユーザは撮影する前にショットをフレーミングすることができない。
【0010】
上のいずれの方法においても、ユーザはケースからカメラを取り出して、ファインダを覗き込む、または苦労してショットをフレーミングし、さらにはシャッターボタン/メカニズムの操作方法を調べて認識しておく必要がある。カメラは、一般にはユーザの手に収まるようなサイズおよび重さである。しかしながら、従来のカメラの解決策に共通する標準的なシャッターボタン/メカニズムの位置は存在せず、また、ケースからカメラを取り出してファインダを覗くのに時間がかかる。これらの課題は、瞬間を対象とするメディア(写真やビデオなど)を極めてすばやく捉えたいときに問題である。
【0011】
本発明によるシステムおよび方法では、ジェスチャによって操作され、ユーザの手首に取り付けられる/装着されるウェアラブルカメラシステム(ウェアラブルカメラデバイス)を提供することによって、上述した課題に対処する。ジェスチャによって操作するウェアラブルカメラデバイスでは、従来のデジタルカメラに付随するサイズ、ケース、取り出し、および操作方法の知識の制約が排除される。本ウェアラブルカメラデバイスのユーザは、デバイスを取り出したりケースに入れる必要がなく(なぜならデバイスはユーザの手首にすでに装着されている)、シャッターボタンの操作方法を調べて認識しておく必要がなく、架台を保持または使用することによってデバイスを準備する必要もない。
【0012】
さらに、ジェスチャによって操作するウェアラブルカメラデバイスでは、従来の搭載型カメラに付随する制約が排除される。ウェアラブルカメラデバイスのユーザは、追加の時間および労力と受け入れ部が必要であり可動範囲も限られる架台を使用する必要がなく、フレーミングの範囲をあらかじめ決めたり事前に搭載する技術を使用する必要もなく、さらにはフレーミングするのにデジタルビューファインダまたは光学ファインダに頼る必要もない。
【0013】
これに加えて、ジェスチャによって操作するウェアラブルカメラデバイスでは、従来のスマートフォンのカメラに付随する制約および限られた可動範囲が排除される。ジェスチャによって操作するカメラシステムのユーザは、画像をキャプチャする前に(例えばパターンやパスコードを使用して)デバイスにアクセスする、またはデバイスをロック解除する必要がなく、画像をキャプチャするための特定の写真アプリケーションを利用する必要もなく、写真撮影用に最適化されていないデバイスを使用する必要もない。
【0014】
さらに、ジェスチャによって操作するウェアラブルカメラデバイスでは、従来のメガネ型カメラに付随する制約が排除される。ジェスチャによって操作するウェアラブルカメラデバイスのユーザは、ユーザの目に固定されるレンズまたは何らかのタイプの特殊なアイウェアを利用する必要がなく、さまざまな動作によって視野が遮られることもなく、音声コマンドやウィンクなど直感的でないカメラトリガーも含まれない。
【0015】
本発明によるシステムおよび方法は、ジェスチャ認識を利用することでユーザが高品質の写真/ビデオ/メディアをすばやく効果的に撮影することを可能にするウェアラブルカメラデバイスを提供する。写真もしくはビデオまたはその両方は、単純にユーザの手を使用することでさまざまな角度に写真を容易にフレーミングすることによって撮影され、ファインダの必要がなく、ユーザの手の手の掌または指がハードウェアに接触する必要もなく、ユーザのもう一方の自由な手を使用してシャッターボタンをトリガーする必要もない。一実施形態においては、本ウェアラブルカメラデバイスのユーザは、空いている手を持ち上げて、従来のカメラで写真を撮影しているかのようにこの手でジェスチャし、既知のフレーミングされた領域の中に写真(またはビデオ)をキャプチャする。本ウェアラブルカメラデバイスの利点として、準備、フレーミングしてメディア(写真/ビデオ)をキャプチャするのに要する時間が短縮される。
【0016】
一実施形態においては、本ウェアラブルカメラデバイスは、リストバンド型デバイス(バンド要素)と、リストバンド型デバイスに結合されているカメラ(したがってユーザはカメラのタイプをアップグレードまたは交換することが可能である)、またはリストバンド型デバイス内に組み込まれているカメラ、とを備えている。リストバンド型デバイスは、複数の埋め込まれたセンサ、例えば、ユーザの動きおよびジェスチャを検出する微小電気機械システム(MEMS)デバイス、ジャイロスコープ、加速度計、圧力センサ、光センサ、生体測定センサ、電磁センサ、モーションセンサを含み(ただしこれらに限定されない)、さらに、リストバンド型デバイスは、検出されたジェスチャを解析および分類するプロセッサデバイス/ユニットを含む。
【0017】
別の実施形態においては、本ウェアラブルカメラデバイスは、ユーザの指に接触する手袋状のデバイスと、手袋状のデバイスに結合されている取り付けられたカメラと、を備えている。このデバイスにおいては、ウェアラブルカメラデバイスはリストバンド型デバイス部分を含まず、センサならびにプロセッサおよびコンピューティング要素は、一般的な手袋のようにユーザによって着用される手袋状デバイス内に格納されている。
【0018】
一実施形態においては、カメラはサイズが小さく軽量である。カメラはカメラレンズを含む。一実施形態においては、カメラレンズは、親指の爪のサイズ、ナノサイズ、ペン先端部のサイズ、スマートフォンに配置されている従来のカメラレンズのサイズ、その他の小さいサイズ、のいずれかである。別の実施形態においては、カメラレンズは、親指の爪のサイズよりも小さい。一実施形態においては、カメラはさまざまなタイプのレンズと交換可能であり、したがってユーザは本ウェアラブルカメラデバイスをアップグレードすることができる。一実施形態においては、リストバンド型デバイスは、カスタマイズできるように、さまざまな色や模様、宝飾品を選択することができる。
【0019】
一実施形態においては、カメラレンズを有するカメラは、リストバンド型デバイスに結合されており、カメラレンズがユーザの手首の動きもしくは回転またはその両方に滑らかにかつ自動的かつ連続的に従うことができるような方法で、手首付近に配置されている。一実施形態においては、カメラレンズは、ユーザの手の外縁付近においてリストバンド型デバイスに柔軟に固定されている。これにより、手首が回転したとき、または手が動いたときに、カメラレンズが手首に合わせて動くことができる。
【0020】
別の実施形態においては、カメラレンズは、リストバンド型デバイスの一部分に強固に固定されており、リストバンド型デバイス内に埋め込まれているMEMSデバイスおよびセンサによって検出される手首または手の動きに応えて生成される、リストバンド型デバイスからの電気信号によって、電気機械的に作動する。
【0021】
リストバンド型デバイスは、筋肉の動き、腱の動き、骨の動き、手首の形状の変化、手の形状の変化、指の形状の変化、および/または生体電磁気学的な状態、ユーザのその他の動きおよび変化を、監視、フィルタリング/検出、分類、および処理することによって、センサ信号検出機能、特徴抽出機能、およびジェスチャ認識機能を動作させ、さまざまな技術に基づいて、腕、手首、手、および指のジェスチャを認識する。
【0022】
一実施形態においては、リストバンド型デバイスは、ジェスチャを認識するための主たる入力として、手首の輪郭の生体測定技術および輪郭マップ作成メカニズムを利用する。別の実施形態においては、リストバンド型デバイスは、追加の入力およびセンサデータを検出する追加のセンサを利用して、ジェスチャを判定しジェスチャ認識を実行する。一実施形態においては、リストバンド型デバイス内に埋め込まれたシステム上で実行されるファームウェアが、ジェスチャを監視、フィルタリング、特徴抽出、分類、解釈し、認識されたジェスチャをカメラのファームウェアコマンドとしてカメラに送信して、カメラのファームウェア、ハードウェアコンポーネント、およびカメラの電気機械的機能を制御することができる。
【0023】
特定の時点(N)において、リストバンド型デバイスを着用しているユーザの手、ユーザの指、およびユーザの手首は、すべて特定の方向を向いている。ユーザの手、手首、または指が動く、または位置が変化すると、筋肉/腱が収縮または弛緩し、さらにユーザの骨および皮膚も動く、または位置が変化する/移動する。これらの変化によって、手首の表面における肉体的な解剖学的変化につながる、または生体電磁気学的な変化を引き起こすことがあり、これらの変化を輪郭マップ作成メカニズムによって記録してカメラを制御する。
【0024】
一実施形態においては、リストバンド型デバイスまたはバンドは、ユーザの手首を完全に一周するように既知の周期で所定の距離に互いに隔てられているセンサアレイを含む。別の実施形態においては、リストバンド型デバイスは、ユーザの手首を完全には一周せずに特定の位置または領域を対象とするセンサアレイを含む。センサアレイは、手首の表面までの距離を測定する、または、各センサの位置において手首によって加えられる圧力を測定する。次いで、アナログ−デジタルコンバータ(ADC)が、センサアレイによって検出されたセンサ信号を値の配列に変換する。リストバンド型デバイスによってユーザの手首から集められた値の配列は、時点Nにおけるユーザの手首、手、および指の状態を表している。
【0025】
次いで、リストバンド型デバイスは、複数のフィルタ(例えばメジアンフィルタおよび無限インパルス応答(IIR)フィルタ、ただしこれらに限定されない)を使用して値の配列をフィルタリングすることでノイズおよびモーションアーチファクトを低減/除去し、既知の許容差基準(すなわち各センサ位置における距離または圧力の測定値の許容される±誤差)内の特定のしきい値を満たす特徴を抽出/認識する。リストバンド型デバイスによって信号がフィルタリングされて特徴が抽出されると、センサデータ分類を使用してそれらの特徴を分類する。
【0026】
一実施形態においては、リストバンド型デバイスはセンサデータ分類ユニットを含み、センサデータ分類ユニットは、認識されているジェスチャ(例えば、ユーザの手首、手、および/または指の特定の配置)ごとの特徴集合を含む事前定義された分類器または所定の分類器を含む。一実施形態においては、事前定義された分類器および特徴集合は、十分に大きく多様なトレーニング母集団データから事前に集められた縮小されたトレーニングセットから、リストバンド型デバイスのファームウェアにあらかじめロードされる。
【0027】
別の実施形態においては、事前定義された分類器および特徴集合は、本ウェアラブルカメラデバイスを使用しているユーザ全員に関連するデータを格納しているクラウドベースのデータベースから、リアルタイムで集められる。別の実施形態においては、事前定義された分類器および特徴集合は、本ウェアラブルカメラデバイスの現在の着用者/ユーザに基づいて所定の期間にわたりトレーニングされる。トレーニングとしては、機械学習手法、デバイスフィードバック、ユーザフィードバックが挙げられる(ただしこれらに限定されない)。
【0028】
一連の抽出された特徴が、複数の認識されているジェスチャ(例えば、本ウェアラブルカメラデバイスのカメラを制御することに関連するユーザのジェスチャ)のうちの少なくとも1つの既知のジェスチャに一致するものとして、リストバンド型デバイスによって分類されると、リストバンド型デバイスのファームウェアは、リストバンド型デバイスによるアクション(例えば、警告や通知を解除する、データをクラウドストレージにアップロードするなど)を実行させるコマンド/コールバックを、リストバンド型デバイスのファームウェアに発行する、または、カメラに関連するアクション(例えば、写真を撮る、カメラのシャッターを制御する、カメラのモードを変更する、カメラレンズを作動させるなど)をカメラに実行させるコマンド/コールバックを、カメラのファームウェアに発行する。
【0029】
一実施形態においては、リストバンド型デバイスは、ユーザの動きに関連付けられるセンサデータ値の配列を、頻度Kで検出する。検出された値の配列と、その後の特徴抽出およびジェスチャ認識に基づいて、時点Nにおける一連のコマンドを、認識されているジェスチャから抽出し、イベントN+1/K,N+1/K*2,N+1/K*3などにおいて分類する。これらのイベントはループにおいて連続的に処理され、ウェアラブルカメラデバイスに絶え間ないコマンド制御を提供する。別の実施形態においては、ノイズ、特徴の誤検出、ジェスチャやコマンドの誤分類を低減するため、圧力センサおよび光センサと組み合わせて、追加のセンサ(例えば生体測定センサ、脳波検査(EEG)センサ、脳磁図検査(MEG)センサ、筋電図検査(EMG)センサ、ただしこれらに限定されない)を使用することができる。
【0030】
一実施形態においては、リストバンド型デバイスは、ユーザの腕、手首、手、指、および親指の動きを監視する。ユーザは、写真またはビデオを撮影する準備ができているとき、本ウェアラブルカメラデバイスを持った手を持ち上げて、写真/ビデオをフレーミングする位置に持っていく。ユーザの手が持ち上がり、ユーザの手によって写真/ビデオがフレーミングされた時点で、本ウェアラブルカメラデバイスによって認識される複数の指の動きおよびジェスチャによって、写真/ビデオ(メディア)をキャプチャすることができる。
【0031】
一実施形態においては、人差し指と親指を互いに約90度に広げ、実質的にカメラのフレームの1つの角部を形成する。別の実施形態においては、ユーザの指の間、または人差し指と親指の間のさまざまな角度および位置によってカメラのフレームを形成する一方で、使いやすさを高め、ユーザの疲れを最小にすることが可能である。例えば、ユーザは、4本の指すべてを立てて、親指をこれら4本の指から約90度に広げてカメラのフレームを形成する、あるいは、1本の指を立てるだけで写真/ビデオをフレーミングすることができる。ユーザの複数の動きおよびジェスチャを本ウェアラブルカメラデバイスの複数の機能に関連付けることができ、そのことが本発明の趣旨および範囲内であることは、この技術分野における通常の技能を有する者には容易に認識されるであろう。
【0032】
一実施形態においては、ユーザが人差し指と親指を互いに約90度に広げている場合、シャッター平面(shutter plane)の位置は、たとえユーザの手首が回転しても、人差し指と親指によって形成される平面につねに実質的に平行である。この実施形態においては、リストバンド型デバイスは、特徴抽出およびジェスチャ認識を使用して、筋肉、腱、および手首の動きと、手首の輪郭、手の形状、および動きを監視、処理、分類、および認識することによって、広げられた人差し指と親指を検出してカメラを制御することができる。
【0033】
リストバンド型デバイスは、ユーザが人差し指と親指を互いに約90度に広げたこと(またはユーザが手/指を特定のジェスチャに関連付けられる別の向きに配置させたこと)を検出すると、シャッターを開いて写真またはビデオを撮影/キャプチャするための準備完了状態で待機するように、命令/コマンド/コールを発行する。
【0034】
一実施形態においては、ユーザは、人差し指によるジェスチャとして、伸ばした指をわずかに縮めることによって、ボタンを押す動作をシミュレートする。別の実施形態においては、ユーザは、指で「フリックする」または被写体を「指す」ジェスチャを行う。リストバンド型デバイスは、筋肉の変化、腱の変化、生体電磁気学的な変化、および解剖学的輪郭の変化を収集/検出する複数の埋め込まれたセンサと、検出された動きをアルゴリズム(例えば機械学習分類器)を利用して解析および分類するプロセッサデバイスとを使用して、指と手首の動きを監視および分類し、これらの動きから特徴を抽出することによって、これらのジェスチャを、カメラをトリガーするジェスチャとして認識する。
【0035】
この実施形態においては、リストバンド型デバイスは、カメラをトリガーするジェスチャとして分類される検出された動きに応えて、写真またはビデオをキャプチャするようにカメラをトリガーする。別の実施形態においては、リストバンド型デバイスは、カメラに関連する機能(写真/ビデオをキャプチャする、動作モードを変更/選択する、ズームイン/ズームアウトするなど)に対応する別のジェスチャを検出する。
【0036】
一実施形態においては、動作モードには、手首の周りでリストバンド型デバイスを回転させることによってレンズの位置を調整することが含まれる(ただしこれに限定されない)。一実施形態においては、リストバンド型デバイスは、ユーザの手首に表示される大きさの発光型ユーザインタフェース(UI)を有し、このユーザインタフェース(UI)は、検出されたユーザの動き/ジェスチャによって、またはユーザがユーザインタフェースのディスプレイ画面に直接タッチするジェスチャによって、操作することができる。ユーザインタフェース(UI)は、従来のビデオディスプレイより小さい、同程度の大きさ、またはより大きくすることができる。ユーザインタフェース(UI)は、液晶ディスプレイ、LEDディスプレイ、または別のタイプのディスプレイユニットとすることができる。
【0037】
一実施形態においては、本ウェアラブルカメラデバイスまたはリストバンド型デバイス自体が、WiFi通信機能およびBluetooth(登録商標)通信機能のいずれかを含む通信装置(例えばWiFiまたはBluetooth(登録商標)受信機および送信機)を含み、したがって、検出および解析されたセンサの動きデータのみならず、キャプチャされた写真およびビデオを、別のデバイス(例えばスマートフォン、ノートパソコンなど)またはクラウドストレージシステムに、この通信装置によって無線で伝達することができる。ユーザの情報がシームレスにバックアップされるように、キャプチャされた写真およびビデオを、デバイスまたはクラウドストレージシステムに自動的に送信する(または所定のスケジュールに従って送信する)ことができる。
【0038】
一実施形態においては、リストバンド型デバイスを、ユーザの反対側の手における第2のリストバンド型デバイスと連動して使用することができる。第1のリストバンド型デバイスおよび第2のリストバンド型デバイスは、さまざまなモード、動作、およびデータを互いに伝えることができ、さらにマルチカメラシステムとして連動して機能することもできる。このマルチカメラシステムは、高度な写真/ビデオ撮影(例えばパノラマ写真/ビデオや3D写真/ビデオ、ただしこれらに限定されない)を可能にするための追加のジェスチャ認識機能およびその他の機能を含むことができる。
【0039】
本発明によるシステムおよび方法は、ジェスチャによって操作する手首装着型カメラシステム(ウェアラブルカメラデバイス)を提供し、このデバイスは、ユーザが1日に24時間着用することのできる控えめなアクセサリ型のリストバンドカメラであり、したがってユーザはいつでもどこでも瞬間を捉えることができる。したがって、本ウェアラブルカメラデバイスは使い勝手がよく、高品質のフレーミングされたカメラショットをすばやく生成する。物理的なファインダ(光学式またはデジタル式の両方)、シャッターボタン、およびコマンドボタン/制御ボタンの必要性がなくなる。準備、フレーミング、サイズ設定、およびシャッター操作に、物理的なボタンが必要ない。さらに、ユーザは、リストバンドに関連付けられる複数の異なるスタイル、カラー、デザイン、および模様を選択することによって、ウェアラブルカメラデバイスをカスタマイズすることもできる。
【0040】
本ウェアラブルカメラデバイスのフォームファクタは、リストバンド型デバイスに組み込まれるカメラハードウェアを提供するものであり、したがって、コストのかかるハードウェア(物理的画面またはデジタル画面)やファインダの必要がなく、これによりフットプリント(サイズ、電力、複雑さ)が減少する。リストバンド型デバイスは、手首にフィットし、調整可能であり、位置決めされた調整可能な小型のカメラおよびレンズを含むことができる。別の実施形態においては、リストバンド型デバイスは、追加機能用のファインダとしての役割を果たすことのできるディスプレイユニットを含む。
【0041】
一実施形態においては、カメラは、豆状骨と尺骨の接合部においてリストバンド型デバイスに結合されている。別の実施形態においては、カメラは、小指外転筋の縁部または縁部付近においてリストバンド型デバイスに結合されている。これらの位置では、手首がいかなる角度に動いたり回転しても、人差し指と親指(またはユーザの別の手/指の配置)によって自然に形成される視野の平面が、カメラレンズに平行であるようにすることができる(潜在的な障害物が排除される)。別の実施形態においては、カメラレンズの位置を、手および手首の動きに合わせて電気機械的に動かすことができる。
【0042】
本ウェアラブルカメラデバイスは、特徴抽出およびジェスチャ認識を使用して、筋肉の動き、腱の動き、手の形状、および手首の輪郭を、監視、検出、処理、および分類することによって、腕、手首、手、および指のジェスチャ、動き、および変化を、監視、認識、および解釈することができる。一実施形態においては、カメラを初期化する、カメラを準備完了状態にする、写真やビデオを撮影するために本ウェアラブルカメラデバイスが検出することのできるジェスチャとしては、半円形、円形、OK動作、ハングルーズ動作、人差し指で左にスワイプ、人差し指で右にスワイプ、指同士のタップまたはダブルタップ、人差し指によるタップまたはダブルタップ、90度のフレーミング、コーナーボックスフレーミング(corner box framing)、ダブルビューフレーミング、フレーミング、動作モードの切替え(例:カメラからビデオへ)、モードおよびオプションのスクロール、オプションの選択、シャッターのトリガー、キャプチャの開始、モーションキャプチャ、符号化、ズームイン/ズームアウトが挙げられる(ただしこれらに限定されない)。
【0043】
リストバンド型デバイスは、カメラ機能、さまざまな処理、および無線通信以外の機能として、時計、タイマー、およびインターネット/電子メール機能を含むことができる(ただしこれらに限定されない)。一実施形態においては、リストバンド型デバイスは、カメラレンズの位置を調整または(手首の周りに)回転させる機能を含み、リストバンド上に複数のレンズを有する(前部、後部、表側面など)。一実施形態においては、リストバンド型デバイスは、さまざまなパターン、形状、デザインによってユーザに知らせるための光を放射することのできる(例えば発光ダイオードやLED)穿孔部をバンドの外側に沿って含み、この穿孔部は、ユーザへのフィードバック情報(例えば、写真が撮影された、クラウドストレージに写真がアップロードされた、写真撮影時のエラーなど)を提供するためのインタフェースディスプレイとして機能する。LEDディスプレイおよびパターンは、ユーザによってプログラム可能とする、またはあらかじめ決めることができる。
【0044】
一実施形態においては、リストバンド型デバイスは、筋肉や腱に基づく認識、および生体電磁気学的な認識に加えて、リストバンド型デバイス(またはリストバンド型デバイスのディスプレイユニット)における直接的なタッチジェスチャが認識されるようにタッチ対応型である。一実施形態においては、リストバンド型デバイスは、リストバンドの外側部分の周囲の発光ベースの通知およびオブジェクトをタップ、ドラッグ、およびフリックするための機能を含む。これによりユーザは、発光型ディスプレイの位置を操作および調整する、ユーザにもはや関連しない通知を制御する、特定の通知に対してさまざまな入力応答、タッチ応答、およびジェスチャ応答によって応えることができる。
【0045】
一実施形態においては、リストバンド型デバイスは、片手のみによってジェスチャを実行することによって(片手が自由になる)、動作モード、オプション、およびインタフェースディスプレイを操作するための機能を含む。一実施形態においては、リストバンド型デバイスは、向きを含めてショットをフレーミングすることを支援する少なくとも1つの加速度計を含む。一実施形態においては、リストバンド型デバイスは、(LED通知に加えて)ユーザへのフィードバックを提供するインタフェースディスプレイの一部として、振動することのできる信号センサを含む。一実施形態においては、リストバンド型デバイスは、(音声形式での)追加のフィードバックを提供することができるように、インタフェースディスプレイの一部として音声を出力するスピーカーを含む。
【0046】
一実施形態においては、リストバンド型デバイスは、ユーザおよびユーザの周囲環境からのさまざまなデータを検出する目的で、埋め込まれて回路を介して接続されている複数のセンサを含む。これら複数のセンサには、MEMSデバイス、ジャイロスコープ、加速度計、トルクセンサ、重量センサ、圧力センサ、磁力計、温度センサ、光センサ、カメラ、マイクロフォン、GPS、無線検出センサ、高度センサ、血圧センサ、心拍センサ、生体測定センサ、無線周波数認識装置(RFID)、近距離無線通信(NFC)、移動通信、Wi−Fi、ひずみゲージ、指紋センサ、匂いセンサ、気体センサ、化学センサ、色センサ、音センサ、音響センサ、紫外線センサ、電界センサ、磁界センサ、重力センサ、風速センサ、風向センサ、コンパスセンサ、位置情報センサ、偏光センサ、赤外線放射センサ、反射型フォトセンサのいずれか、またはこれらの組合せ、を含めることができる(ただしこれらに限定されない)。
【0047】
一実施形態においては、リストバンド型デバイスは、複数のアルゴリズム的処理を利用するセンサデータ分類ユニットを使用して、(複数のセンサからの)検出されたセンサデータを解析するプロセッサデバイス、を含む。複数のアルゴリズム的処理には、バックプロパゲーション、ベイズネットワーク、機械学習、ディープラーニング、ニューラルネットワーク、ファジィ平均最大ニューラルネットワーク(fuzzy mean max neural network)、隠れマルコフチェーン、階層型一時メモリ、k最近傍法(KNN)、アダブースト、ヒストグラム解析のいずれか、またはこれらの任意の組合せ、を含めることができる(ただしこれらに限定されない)。
【0048】
一実施形態においては、ユーザは、両方の手に着用した複数のリストバンド型デバイスを利用する。この実施形態においては、複数のリストバンド型デバイス間の無線通信および同期によって、マルチカメラ機能(例えば、新規のフレーミングオプション、より大きなフレーミング領域、3D機能、および360度機能のうちの1つまたは複数、ただしこれらに限定されない)を提供することができる。一実施形態においては、本ウェアラブルカメラデバイスは、さまざまな(パブリックまたはプライベート)ネットワークに接続する機能を含む。
【0049】
以下では、本発明の特徴について、添付の図面を参照しながらさらに詳しく説明する。
【0050】
図1は、一実施形態による、メディアをキャプチャするためのシステム100を示している。メディアとしては、写真、ビデオ、およびそれ以外のタイプのメディアを含むことができる。システム100は、リストバンド型デバイス150と、リストバンド型デバイス150に結合されているカメラ134とを含むウェアラブルカメラデバイスである。カメラ134は、レンズと、本体と、アクチュエータとを備えている。一実施形態においては、リストバンド型デバイス150は、複数の構成要素として、以下に限定されないが、電源102、ランダムアクセスメモリ(RAM)104、マイクロコントローラ(MCU)106、読み出し専用メモリ(ROM)108、時計110、ストレージ/メモリデバイス112(例えばフラッシュメモリ、ただしこれに限定されない)、無線装置114(例えばBluetooth(登録商標)、WiFi、ただしこれらに限定されない)、アンテナ116、触覚/振動センサ118、加速度計120、ジャイロスコープ122、アナログ−デジタルコンバータ(ADC)124、前置増幅器/フィルタ/増幅器/バイアス装置126、複数の外部センサ128(例えば、EKG、EEG、MEG、EMG、圧力、光など)、インシステムプログラミングコンポーネント(ISP)130、内部センサ132、を含む。別の実施形態においては、埋め込まれている加速度計120およびジャイロスコープ122は、複数の外部センサに含まれている。別の実施形態においては、リストバンド型デバイスは、プロセッサと、メモリデバイスと、アプリケーションと、送信機/受信機装置とを含む。
【0051】
複数の外部センサ128は、ユーザの動き(例えば筋肉や腱の動き)を検出し、リストバンド型デバイス150の複数の構成要素は、検出されたユーザの動きを監視および分類し、これらの動きから特徴を抽出することによって、複数のジェスチャを判定する。複数のジェスチャは、リストバンド型デバイス150自体によって、またはカメラ134によって実行されるさまざまなアクション(例えば、写真またはビデオを撮影する、さまざまなオプションをスクロールする、さまざまなモードをスクロールする、ただしこれらに限定されない)を制御する。
【0052】
図2は、一実施形態による、ウェアラブルカメラデバイスによるセンサデータ分類のためのシステム200を示している。システム200は、アプリケーションコンポーネント202と、オペレーティングシステム(OS)コンポーネント204と、複数のドライバ206とを含む。一実施形態においては、アプリケーションコンポーネント202は、入力/出力(I/O)要素と、デジタイザ/分類器と、ジェスチャ検出要素と、センサデータ分類ユニットと、コマンド要素とを含む。一実施形態においては、オペレーティングシステム(OS)204は、スケジューリング/メモリ管理要素と、メッセージパッシング要素とを含む。一実施形態においては、複数のドライバ206の各ドライバとしては、通信ドライバ、センサドライバ、汎用I/O(GPIO)ドライバ、ファイルシステム(FS)ドライバが挙げられる。一実施形態においては、システム200は、リストバンド型デバイスのセンサを使用してユーザの動きを検出し、検出されたユーザの動きを、アプリケーションコンポーネント202およびセンサデータ分類ユニットを使用して処理して、カメラを制御するジェスチャおよび対応するコマンドを求める。
【0053】
図3は、一実施形態による、メディアをキャプチャする方法300を示している。メディアとしては、写真、ビデオ、およびそれ以外のタイプのメディアを含むことができる。方法300は、少なくとも1つのセンサを含むリストバンド型デバイスを作製するステップ302と、リストバンド型デバイスにカメラを結合するステップ304と、少なくとも1つのジェスチャを少なくとも1つのセンサを使用して判定するステップ306と、少なくとも1つのジェスチャを使用することによってカメラを制御するステップ308と、を含む。
【0054】
一実施形態においては、本方法は、ユーザの筋肉の変化、腱の変化、生体電磁気学的な変化、解剖学的輪郭の変化(輪郭マップ作成メカニズムを使用する)のうちの1つまたは複数を利用することによって、少なくとも1つのセンサによってユーザの動きを検出するステップ、をさらに含む。次いで、リストバンド型デバイスのプロセッサが、センサデータ分類ユニットを使用してユーザの動きを解析し、ユーザの動きから特徴を抽出し、抽出された特徴から、さまざまな分類器を使用して少なくとも1つのジェスチャを判定する。例えば、検出されたユーザの動きが、ユーザが人差し指と親指を互いに約90度に広げる少なくとも1つのジェスチャであるものと判定された場合、リストバンド型デバイスは、シャッターを開いて写真/ビデオのキャプチャを待機するようにカメラに命令する/カメラを制御する。
【0055】
リストバンド型デバイスは、ユーザが人差し指をわずかに縮めることによってボタンを押す動作をシミュレートする追加のジェスチャを判定すると、シャッターをトリガーしてメディア(写真/ビデオ)をキャプチャするための命令をカメラに送信する。一実施形態においては、リストバンド型デバイスおよびカメラの両方に通信装置が結合されており、通信装置は、リストバンド型デバイスからのデータ(例えばジェスチャの分類)およびカメラからのデータ(例えば写真およびビデオ)の両方を、別のデバイス(スマートフォン、ノートパソコン、デスクトップパソコン、クラウドベースのサーバシステムのうちの1つまたは複数を備えている)に送信する。
【0056】
図4は、別の実施形態による、メディアをキャプチャする方法400を示している。メディアとしては、写真、ビデオ、およびそれ以外のタイプのメディアを含むことができる。方法400は、ウェアラブルカメラデバイスを使用しているユーザが動きを起こすステップ402と、電圧センサがユーザの動きを検出するステップ404と、電圧センサが、検出されたユーザの動きを信号として記録するステップ406と、この信号を前置増幅器に通すステップ408と、予備増幅された信号を複数のフィルタに通してノイズおよび追加のモーションアーチファクトを除去するステップ410と、フィルタリングされた信号を増幅器に通すステップ412と、増幅された信号をアナログ−デジタルコンバータ(ADC)に通すステップ414と、を含む。
【0057】
フィルタリング、増幅、および変換を行った後の信号から特徴を抽出し(ステップ416)、抽出された特徴から、ジェスチャと、対応する命令、コールバック、および通知を求める(ステップ418)。ウェアラブルカメラデバイスによってコールバックおよび通知を登録し(ステップ420)、命令またはコールバックをリストバンド型デバイスからカメラに送信して実行し(ステップ422)、これによりカメラの特定の制御および機能(例えば写真/ビデオを撮影する)を準備する(ステップ424)。制御および機能を符号化し(ステップ426)、これにより対応するカメラの機能(例えばデータをキャプチャする)をトリガーし(ステップ428)、キャプチャされたメディアをウェアラブルカメラデバイスが送信する(ステップ430)。
【0058】
図5は、一実施形態による、ユーザの視点におけるウェアラブルカメラデバイス500を示している。ウェアラブルカメラデバイス500は、カメラに結合されているリストバンド型デバイス502を含む(またはカメラがリストバンド型デバイス502に埋め込まれている)。さらに、リストバンド型デバイス502は、それ以外のハードウェアコンポーネントと、筋肉、腱、指によるジェスチャの認識器またはセンサ検出デバイスを含む。このウェアラブルカメラデバイス500は、写真/ビデオをフレーミングするときのユーザの視点から示してあり、(従来のデジタルビューファインダまたは光学ファインダの代わりに)ユーザのファインダの役割を果たすビューフレーム(frame of view)を含む。この実施形態においては、ウェアラブルカメラデバイス500は、従来の光学ファインダもデジタルビューファインダも含まず、これによりユーザは、ビューフレーム504を使用することによって自然な写真およびビデオを高い柔軟性で撮影することができる。
【0059】
別の実施形態においては、リストバンド型デバイスのユーザインタフェース(UI)のディスプレイユニット/画面(例えば液晶/LED画面)に、ファインダが表示される。この実施形態においては、ユーザが自分の指/手を使用して被写体にフォーカスして被写体をフレーミングするとき、カメラレンズからの信号を表示するリストバンド型デバイスのディスプレイユニットをチェックすることによって、ユーザは正しいフレームがキャプチャされていることを確認することができる。
【0060】
この
図5においては、被写体をフレーミングするためユーザの人差し指と親指が互いに約90度に広げられている。別の実施形態においては、ユーザの指の間、または人差し指と親指の間のさまざまな角度および位置によってカメラのフレームを形成する一方で、使いやすさを高め、ユーザの疲れを最小にすることが可能である。ユーザが自分の指をこの形状(人差し指と親指が互いに90度をなす)に広げると、リストバンドの内部センサが、ユーザの動きおよび形状(親指に対する人差し指の配置)を筋肉の動きとして検出する。検出された筋肉の動きは、カメラの焦点およびシャッターを準備する特定のジェスチャであるものと判定される。次いで、ウェアラブルカメラデバイス500は、カメラの別のアクション(写真/ビデオを撮影するなど)をトリガーする特定のジェスチャと判定されるユーザの別の動きが検出されるのを待機する。
【0061】
別の実施形態においては、本ウェアラブルカメラデバイスを着用しているユーザは、4本の指すべてを立てた状態で(さらにこれら4本の指から親指を約90度に広げる、または人差し指に親指を沿わせることができる)、自分の手の掌を外側、被写体の方に向ける。この実施形態においては、ユーザが、立てている4本の指のうちの少なくとも1本を下げると、リストバンド型デバイスはユーザの動きを検出し、検出されたユーザの動きからジェスチャを判定し、判定されたジェスチャに基づいて、カメラのアクション(例えばカメラのシャッターをトリガーするアクション、ただしこれに限定されない)を実行させるコマンド/命令を、カメラに送信する。別の実施形態においては、ユーザは、本ウェアラブルカメラデバイス(具体的にはリストバンド型デバイス部分)を、通常の着用位置から180度回転した位置、すなわち反対側の位置に着用する。この実施形態においては、カメラレンズはユーザの方に向いており、したがってユーザは、同様の動きおよびジェスチャ(例えば、立てていた指のうちの1本を下げるなど)を使用して、「自撮り」撮影を行うことができる。
【0062】
図6は、一実施形態による、ウェアラブルカメラデバイス600の側面図を示している。ウェアラブルカメラデバイス600は、
図5のウェアラブルカメラデバイス500に類似する構成要素を有し、リストバンド型デバイス602と、リストバンド型デバイス602に結合されているカメラとを含む。カメラは、被写体608にフォーカスされているカメラレンズ604を含む。ビューフレーム606は被写体608にフォーカスされている。ユーザの人差し指および親指は同じ位置にあり(互いに約90度に広げられている)、したがってカメラはこの場合も、ユーザの別の動きおよび対応するジェスチャが判定されるのを待機する準備完了状態にある。
【0063】
図7は、一実施形態による、被写体から見たウェアラブルカメラデバイス700を示している。ウェアラブルカメラデバイス700は、
図5のウェアラブルカメラデバイス500に類似する構成要素を有し、リストバンド型デバイス702と、リストバンド型デバイス702に結合されているカメラとを含む。カメラはカメラレンズ704を含む。ユーザの人差し指および親指は同じ位置にあり(互いに約90度に広げられている)、したがってカメラはこの場合も、ユーザの別の動きおよび対応するジェスチャが判定されるのを待機する準備完了状態にある。
【0064】
図8は、一実施形態による、ユーザの視点におけるウェアラブルカメラデバイス800を示している。ウェアラブルカメラデバイス800は、
図5のウェアラブルカメラデバイス500に類似する構成要素を有し、リストバンド型デバイス802と、リストバンド型デバイス802に結合されているかまたは組み込まれているカメラとを含む。ユーザの人差し指および親指は、互いに約90度に広げられた姿勢から、ボタンを押すことをシミュレートする動き(806)に移行した。この実施形態においては、ボタンを押すことをシミュレートする動き(806)は、ユーザの人差し指がわずかに下がったときである。別の実施形態においては、別のタイプのユーザの動きを、ボタンを押すことをシミュレートする動き(806)に関連付けることができる。
【0065】
ユーザの人差し指が動くと、リストバンド型デバイス802のセンサが、ユーザのこの動きを検出し、リストバンド型デバイス802の内部コンポーネントおよびセンサデータ分類ユニットが、検出されたユーザの動きに関連付けられる特定のジェスチャが行われたものと判定する。判定されたジェスチャは、ビューフレーム804によってフレーミングされている遠方の被写体808の写真を撮影するようにカメラをトリガーする。
【0066】
本ウェアラブルカメラデバイスのリストバンド型デバイスは、複数のセンサ信号を検出し、それら複数のセンサ信号を使用して複数のジェスチャを判定する。複数のセンサ信号は、1つのジェスチャ(例えば1本の指による「ボタンを押す」動き)を表す、または、リストバンド型デバイスのファームウェアによって1つの動作としてみなされる、特定の順序での一連のジェスチャ(例えば指を左または右にすべらせてタップする)を表すことができる。検出されたセンサ信号からジェスチャが判定されると、リストバンド型デバイスのファームウェアは、カメラを制御するための対応するコマンドを送信する。
図9〜
図11は、リストバンド型デバイスが1つの動作として判定することのできる、さらなる一連のジェスチャを表している。
【0067】
図9は、一実施形態による、ユーザの視点におけるウェアラブルカメラデバイス900を示している。ウェアラブルカメラデバイス900は、
図5のウェアラブルカメラデバイス500に類似する構成要素を有し、リストバンド型デバイス902と、リストバンド型デバイス902に結合されているかまたは組み込まれているカメラとを含む。リストバンド型デバイス902は、ユーザが親指をタップまたはダブルタップする動きを含むジェスチャ904を判定した。ジェスチャ904は、リストバンド型デバイス902に写真/ビデオのターゲット/被写体を表示するように、ウェアラブルカメラデバイス900をトリガーする。この実施形態においては、ユーザが写真またはビデオを撮影しようとしているターゲット/被写体にカメラが正しくフォーカスされているかを確認するため、リストバンド型デバイス902は、カメラによって撮影される被写体を表示することのできるユーザインタフェースディスプレイを含む。
【0068】
図10は、一実施形態による、ユーザの視点におけるウェアラブルカメラデバイス1000を示している。ウェアラブルカメラデバイス1000は、
図5のウェアラブルカメラデバイス500に類似する構成要素を有し、リストバンド型デバイス1002と、リストバンド型デバイス1002に結合されているかまたは組み込まれているカメラとを含む。リストバンド型デバイス1002は、ユーザが親指によって左にスワイプする動きを含むジェスチャ1004を判定した。ジェスチャ1004は、カメラのさまざまなモードを変更してリストバンド型デバイス1002のユーザインタフェースにモード変更を表示するように、ウェアラブルカメラデバイス1000をトリガーする。この実施形態においては、リストバンド型デバイス1002は、さまざまなモードを表示することのできるユーザインタフェースディスプレイを含む。一実施形態においては、モードは、交互のLEDパターンを使用して変わっていく。別の実施形態においては、モードが変わり、テキスト(例えば「写真撮影」、「ビデオ撮影」、「夜間写真」など)がユーザインタフェースディスプレイに表示される。
【0069】
図11は、一実施形態による、ユーザの視点におけるウェアラブルカメラデバイス1100を示している。ウェアラブルカメラデバイス1100は、
図5のウェアラブルカメラデバイス500に類似する構成要素を有し、リストバンド型デバイス1102と、リストバンド型デバイス1102に結合されているかまたは組み込まれているカメラとを含む。リストバンド型デバイス1102は、ユーザが親指によって右にスワイプする動きを含むジェスチャ1104を判定した。ジェスチャ1104も、カメラのさまざまなモードを変更し(左にスワイプする場合とは反対方向であり、したがってユーザはさまざまなオプションを左右にスクロールすることができる)、リストバンド型デバイス1102のユーザインタフェースにモード変更を表示するように、ウェアラブルカメラデバイスをトリガーする。この実施形態においては、リストバンド型デバイス1102は、さまざまなモードを表示することのできるユーザインタフェースディスプレイを含む。一実施形態においては、モードは、交互のLEDパターンを使用して変わっていく。別の実施形態においては、モードが変わり、テキスト(例えば「写真撮影」、「ビデオ撮影」、「夜間写真」など)がユーザインタフェースディスプレイに表示される。
【0070】
図12は、一実施形態による、ユーザの視点におけるウェアラブルカメラデバイス1200を示している。ウェアラブルカメラデバイス1200は、
図5のウェアラブルカメラデバイス500に類似する構成要素を有し、リストバンド型デバイス1202と、リストバンド型デバイス1202に結合されているかまたは組み込まれているカメラとを含む。リストバンド型デバイス1202は、ユーザが指を「C」形状に保持する動きを含むジェスチャ1204を判定した。ジェスチャ1204は、ユーザが(左または右にスワイプすることによって)スクロールした先のモードを選択するように、ウェアラブルカメラデバイス1200をトリガーする。別の実施形態においては、ユーザは、モードの選択に関連付けられる、手によるさまざまな別のジェスチャおよび形状を入力することができる。
【0071】
図13は、一実施形態による、ユーザの視点におけるウェアラブルカメラデバイス1300を示している。ウェアラブルカメラデバイス1300は、
図5のウェアラブルカメラデバイス500に類似する構成要素を有し、リストバンド型デバイス1302と、リストバンド型デバイス1302に結合されているかまたは組み込まれているカメラとを含む。リストバンド型デバイス1302は、ユーザが指をパチンと鳴らす動きを含むジェスチャ1304を判定した。ジェスチャ1304は、ウェアラブルカメラデバイス1300に対する「OK」動作をトリガーする。一実施形態においては、「OK」動作は、デバイスのインタフェース出力(例えばLED、ユーザインタフェースディスプレイなど)上にフィードバックとしてユーザに表示される特定の設定またはコマンドを、ユーザが設定または了解することを表す。
【0072】
図14は、一実施形態による、ユーザの視点におけるウェアラブルカメラデバイス1400を示している。ウェアラブルカメラデバイス1400は、
図5のウェアラブルカメラデバイス500に類似する構成要素を有し、リストバンド型デバイス1402と、リストバンド型デバイス1402に結合されているかまたは組み込まれているカメラとを含む。リストバンド型デバイス1402は、ユーザが人差し指および中指の両方を親指にタップまたはダブルタップする動きを含むジェスチャ1404を判定した。ジェスチャ1404は、ウェアラブルカメラデバイス1400に対する「OK」動作をトリガーする。一実施形態においては、「OK」動作は、デバイスのインタフェース出力(例えばLED、ユーザインタフェースディスプレイなど)上にフィードバックとしてユーザに表示される特定の設定またはコマンドを、ユーザが設定または了解することを表す。「OK」動作にユーザの別の動きを関連付けることができ、そのことが本発明の趣旨および範囲内であることは、この技術分野における通常の技能を有する者には容易に認識されるであろう。
【0073】
図15は、一実施形態による、ユーザの視点におけるマルチウェアラブルカメラデバイスシステム1500を示している。マルチウェアラブルカメラデバイスシステム1500は、第2のウェアラブルカメラデバイス1504に結合されている第1のウェアラブルカメラデバイス1502を含む。第1のウェアラブルカメラデバイス1502および第2のウェアラブルカメラデバイス1504によって、ユーザがターゲット/被写体1506をフレーミングする機能が向上する。さらに、第1のウェアラブルカメラデバイス1502および第2のウェアラブルカメラデバイス1504は、互いに通信し、ユーザがさまざまなデュアルリストバンドモードから選択することを可能にする。一実施形態においては、マルチウェアラブルカメラデバイスシステム1500は、画像/ビデオのキャプチャを同期および互いに結合し(stiches together)、これによってパノラマ撮影または広角撮影を行う。別の実施形態においては、マルチウェアラブルカメラデバイスシステム1500は、3D画像または3Dビデオの同期撮影、3D立体映像、および3Dズーミングを提供する。
【0074】
図16は、一実施形態による、ウェアラブルカメラデバイス1600のユーザインタフェースディスプレイを示している。ウェアラブルカメラデバイス1600は、ユーザインタフェースディスプレイ1602を含む。一実施形態においては、ユーザインタフェースディスプレイ1602は、カメラの設定および通知に基づいてさまざまなパターン(パターン1604など)を表示するLEDを備えている。一実施形態においては、LEDは、ユーザインタフェースディスプレイ1602にレーザ切断によって形成された穴によって組み込まれている。ユーザは、手によるジェスチャ(ユーザインタフェースディスプレイ1602の上で左右に動かす)またはタッチジェスチャ(ユーザインタフェースディスプレイ1602を押す)を使用して、さまざまな通知に応える、またはそれらを削除することができる。本ウェアラブルカメラデバイスはさまざまなタイプのディスプレイユニットおよびユーザインタフェースを含むことができ、そのことが本発明の趣旨および範囲内であることは、この技術分野における通常の技能を有する者には容易に認識されるであろう。
【0075】
図17は、一実施形態による、ウェアラブルカメラデバイスによってジェスチャ認識を使用してメディアをキャプチャする方法を示している。メディアとしては、写真、ビデオ、およびそれ以外のタイプのメディアを含むことができる。方法1700は、2つの時点(NおよびN+1)を表している。本ウェアラブルカメラデバイスのユーザは、時点Nにおいて姿勢A(人差し指と親指を互いに約90度に広げる)から開始し、時点N+1において姿勢B(「ボタンを押す」動きにおいて人差し指をわずかに下げる)で終了する。ウェアラブルカメラデバイスは、複数の埋め込まれているセンサを使用して、ユーザの手の姿勢および動きを検出し、検出された姿勢および動きからさまざまなジェスチャを判定する(ステップ1702)。
【0076】
検出されたユーザの動きからジェスチャを判定する目的で、本ウェアラブルカメラデバイスは、ウェアラブルカメラデバイスのリストバンド型デバイスを着用しているユーザの手首の解剖学的輪郭の輪郭マップを提供する輪郭マップ作成メカニズムを利用する(ステップ1704)。ユーザの手首の周りのリストバンド型デバイス(バンドおよび埋め込まれているセンサ)の位置を、実線によって表してあり、ユーザの手首の輪郭を点線によって表してある。時点Nにおいてユーザの手が姿勢Aであるとき、ユーザの手首の輪郭マップは、手首輪郭形状1であり、時点N+1においてユーザの手の姿勢が姿勢Aから姿勢Bに移行するとき、ユーザの手首の輪郭マップは、手首輪郭形状2である。
【0077】
リストバンド型デバイスは、輪郭マップの変化を求めた後(ステップ1704)、輪郭の形状から、特徴抽出機能および対応する分類器を使用して輪郭の変化を分類する(ステップ1706)。グラフは分類器の重要な機能を示しており、このグラフは、y軸が距離(ミリメートル(mm)単位)であり、x軸が、輪郭マップに基づく手首の周囲のセンサ位置である。時点Nにおいてユーザの手が姿勢Aであるとき、プロットされたグラフは、第1のセンサ配置状態における手首の輪郭形状1を表しており、時点N+1においてユーザの手が姿勢Bであるとき、プロットされたグラフは、第2のセンサ配置状態における手首の輪郭形状2を表している。
【0078】
本ウェアラブルカメラデバイスは、センサ配置状態を分類してジェスチャを判定した後、判定されたジェスチャを、後からカメラに送信される特定のコマンドに関連付ける(ステップ1708)。例えば、ウェアラブルカメラデバイスによって(第1のジェスチャに関連付けられている)第1のセンサ配置状態が判定されたとき、カメラは「カメラ準備完了」コマンドを受信し(なぜならこのコマンドは第1のジェスチャに関連付けられているため)、ウェアラブルカメラデバイスによって(ユーザが手の配置を変更した後の、第2のジェスチャに関連付けられる)第2のセンサ配置状態が判定されたとき、カメラは「シャッターを押す」コマンドを受信し(なぜならこのコマンドは第2のジェスチャに関連付けられているため)、ウェアラブルカメラデバイスによって写真/ビデオがキャプチャされる。さまざまな輪郭形状およびセンサ配置をさまざまなジェスチャに、したがってさまざまなコマンドに関連付けることができ、そのことが本発明の趣旨および範囲内であることは、この技術分野における通常の技能を有する者には容易に認識されるであろう。
【0079】
図18は、一実施形態による、ウェアラブルカメラデバイスによってジェスチャ認識を使用してメディアをキャプチャする方法1800を示している。メディアとしては、写真、ビデオ、およびそれ以外のタイプのメディアを含むことができる。本ウェアラブルカメラデバイスは、本ウェアラブルカメラデバイス(リストバンド型デバイスと、リストバンド型デバイスに結合されているかまたは組み込まれているカメラとを含む)を着用しているユーザの手を監視する(ステップ1802)。ユーザが、手、指、および/または手首の一部分を動かすと(ユーザの動き)、そのユーザの動きに起因して、筋肉、皮膚、腱、および骨も動き(ステップ1804)、これによりウェアラブルカメラデバイスは、ウェアラブルカメラデバイスのリストバンド型デバイス内に埋め込まれているセンサを使用することによって、時点Nにおいてユーザの動きをセンサ値として検出することができる(ステップ1806)。検出されたセンサ値を、アナログ−デジタルコンバータ(ADC)を使用して信号に変換し、値の配列(AV)として格納する(ステップ1808)。格納した後、値の配列(AV)にフィルタ(例えばメジアンフィルタ)を適用する(ステップ1810)。ステップ1802〜ステップ1810は、ウェアラブルカメラデバイスによって利用される方法1800の「監視」段階に相当する。
【0080】
ウェアラブルカメラデバイスは、監視段階を繰り返して、特定のジェスチャ(G、G1など)のための十分なトレーニングデータを作成する(ステップ1812)。十分なトレーニングデータが作成された時点で(またはウェアラブルカメラデバイスにあらかじめダウンロードされる)、各ジェスチャ(G、G1など)について共通の特徴を識別し(ステップ1814)、この場合、各ジェスチャ(G、G1など)は特定のジェスチャ分類器(C、C1など)に関連付けられ、各ジェスチャ分類器は特定のアクション(A、A1など)に関連付けられる。ウェアラブルカメラデバイスは、判定されたジェスチャを受け取り、それぞれに対するジェスチャ分類器を作成する(ステップ1816)。ステップ1812〜ステップ1816は、ウェアラブルカメラデバイスによって利用される方法1800の「分類」段階に相当する。
【0081】
ウェアラブルカメラデバイスによる分類段階が完了し、十分なトレーニングデータが作成された後(ステップ1816)、ウェアラブルカメラデバイスは、フィルタリングされたAV値を、マッチング法(例えば機械学習、k最近傍アルゴリズム(KNN)、ただしこれらに限定されない)を使用して、(ステップ1816で作成された)ジェスチャ分類器と比較する(ステップ1818)。フィルタリングされたAV値からの特徴が特定のジェスチャ分類器と一致する場合、ウェアラブルカメラデバイスは、その特定のジェスチャ分類器に関連付けられるアクションを呼び出す(コマンドをカメラに送信する)(ステップ1820)。例えば、フィルタリングされたAV値(またはセンサデータ)が、アクションA1に関連付けられる分類器C1に関連付けられる特定のジェスチャG1に一致する場合、ウェアラブルカメラデバイスは、アクションA1のコマンド/命令を呼び出してカメラに送信する。ステップ1818〜ステップ1820は、ウェアラブルカメラデバイスによって利用される方法1800の「認識」段階に相当する。
【0082】
ウェアラブルカメラデバイスによる認識段階が完了した後、アクションコマンドまたはコール(例えばカメラのシャッター)がカメラによって受け取られ(ステップ1822)、カメラのファームウェアが、カメラの制御および機能の符号化を開始する(ステップ1824)。アクションコマンドまたはコールを符号化し(ステップ1826)、アクションを実行する(例えばカメラが画像をキャプチャする)(ステップ1828)。画像(またはビデオ)がキャプチャされると、ウェアラブルカメラデバイスはメディアをローカルストレージまたはリモートストレージに送信し(ステップ1830)、ユーザはそのメディアを見ることができる(ステップ1832)。ウェアラブルカメラデバイスが複数のセンサ値を、ジェスチャ、分類器、およびアクションに関連付けることができ、そのことが本発明の趣旨および範囲内であることは、この技術分野における通常の技能を有する者には容易に認識されるであろう。
【0083】
図19は、一実施形態による、被写体から見たウェアラブルカメラデバイス1900を示している。ウェアラブルカメラデバイス1900は、ユーザの手首の周囲を包むリストバンド型デバイス1902(またはバンド)と、リストバンド型デバイス1902に結合されているかまたは組み込まれているカメラ1904とを含む。カメラ1904は、カメラレンズ1906とカメラのサブアセンブリとを含む。一実施形態においては、カメラレンズ1906は、ユーザの手の掌の底部付近においてリストバンド型デバイス1902に機械的に柔軟に取り付けられている。カメラレンズ1906を柔軟に取り付けることによって、ユーザの手首および手の掌の動き/ジェスチャとともに機械的に動く。別の実施形態においては、カメラレンズ1906は、リストバンド型デバイス1902の一部分に強固に固定されており、動き/ジェスチャに基づく電気機械的な作動によって制御することができる。
【0084】
被写体から見たこの図は、カメラレンズ1906をまっすぐに見ている被写体からの図を表す。被写体から見たこの図は、ユーザの手の掌とさまざまな指(中指、薬指、小指)を示している。リストバンド型デバイス1902は、複数の構成要素として、以下に限定されないが、センサ、ディスプレイユニット、ハードウェアプラットフォーム、電池、記憶装置、無線装置を含む。一実施形態においては、リストバンド型デバイス1902がユーザの手首の周りで回転し、これによりカメラレンズ1906を被写体の方に外側に向ける、または「自撮り」撮影機能においてユーザの方に内側に向けることができる。
【0085】
本発明によるシステムおよび方法は、メディア(写真/ビデオ)をキャプチャするためのウェアラブルカメラシステム(ウェアラブルカメラデバイス)を開示する。本ウェアラブルカメラデバイスは、少なくとも1つのセンサを含むリストバンド型デバイスを備えている。一実施形態においては、本ウェアラブルカメラデバイスは、リストバンド型デバイスに結合されているカメラも備えている。別の実施形態においては、カメラは、一体型デバイスとしてのリストバンド型デバイス内に組み込まれている。カメラは、少なくとも1つのセンサによって検出されるユーザの動きおよびセンサデータから判定される少なくとも1つのジェスチャによって制御される。
【0086】
リストバンド型デバイスは、追加のハードウェアコンポーネントとして、少なくとも1つのセンサによって検出されるユーザの動きを解析するプロセッサと、さまざまなデータ(検出されたユーザの動き、判定されたジェスチャなど)を格納するメモリデバイスを含む(ただしこれらに限定されない)。少なくとも1つのセンサは、ユーザの筋肉の変化、腱の変化、生体電磁気学的な変化、解剖学的輪郭の変化のうちの1つまたは複数を検出することによって、ユーザの動きを検出する。一実施形態においては、プロセッサは、検出されたユーザの動きを、フィルタを利用するセンサデータ分類ユニットと、ユーザの動きから特徴を抽出するアルゴリズムとを使用して、少なくとも1つのジェスチャを判定する。センサデータ分類ユニットは、バックプロパゲーション、ベイズネットワーク、ニューラルネットワーク、機械学習のうちの1つまたは複数を利用して、ユーザのジェスチャを判定する。
【0087】
一実施形態においては、少なくとも1つのセンサは、ジャイロスコープ、加速度計、圧力センサ、温度センサ、光センサのうちの1つまたは複数である。一実施形態においては、カメラは、光学ファインダまたはデジタルビューファインダのいずれも使用せずに制御され、ユーザの指によって形成される自然なファインダを使用する。一実施形態においては、カメラは、小型の(例えば親指の爪の大きさの)レンズを含み、レンズは、ユーザの回転動作に従うように配置されている。これによりレンズは、視野が遮られることがなく、ユーザがキャプチャしようとする写真/ビデオ/メディアの被写体をクリアに狙うことができる方法でユーザの手首に配置される。
【0088】
本ウェアラブルカメラデバイスは、さまざまなカメラのアクションをトリガーする複数のジェスチャを判定することができる。一実施形態においては、ジェスチャは、ユーザが人差し指と親指を互いに約90度に広げてカメラのフレームの1つの角部を形成する動きを含む。この実施形態においては、カメラのシャッター平面は、人差し指と親指を広げることによって形成される平面に実質的に平行である。別の実施形態においては、ユーザは、手によるさまざまなジェスチャおよび動作を定め、これらの手によるジェスチャおよび動作それぞれを特定のカメラアクションに関連付けることができる。別の実施形態においては、本ウェアラブルカメラデバイスは、継続的に更新されるデータベースまたはソフトウェアアップデートに基づいて、追加のジェスチャおよび対応するカメラアクションを判定する。
【0089】
一実施形態においては、ユーザが特定のジェスチャにおいて人差し指と親指を互いに約90度に広げ、ウェアラブルカメラデバイスがその特定のジェスチャを判定すると、ウェアラブルカメラデバイスのリストバンド型デバイスは、シャッターを開いてユーザからの写真/ビデオ/メディアキャプチャのジェスチャを待機するように、カメラに命令する、またはカメラを制御する、またはそのようなメッセージをカメラに送信する。一実施形態においては、ユーザは、ボタンを押す動きをシミュレートすることによって、写真/ビデオ/メディアキャプチャのジェスチャを提供する。別の実施形態においては、ユーザは、あらかじめ決められた別のジェスチャによって、または指をパチンと鳴らすなどユーザによって入力される別のジェスチャによって、写真/ビデオ/メディアキャプチャのジェスチャを提供する。
【0090】
一実施形態においては、ウェアラブルカメラデバイスが判定することのできる少なくとも1つのジェスチャまたは複数のジェスチャとしては、カメラの機能を初期化する、半円形、円形、OK動作、ハングルーズ動作、人差し指で左にスワイプ、人差し指で右にスワイプ、指同士のタップ、指同士のダブルタップ、モードを切り替える、オプションを選択する、ズーミング、シャッターをトリガーしてキャプチャを開始する、シャッターをトリガーしてモーションキャプチャを開始する、が挙げられる。
【0091】
一実施形態においては、本ウェアラブルカメラデバイスは、リストバンド型デバイスおよびカメラの両方(またはリストバンド型デバイスとカメラのいずれか一方のみ)に結合されている通信装置(例えば送信機/受信機装置)を含む。この実施形態においては、通信装置は、リストバンド型デバイスからのデータ(例えばユーザの動き、ジェスチャなど)およびカメラからのデータ(例えば写真、ビデオ、メディアなど)の一方または両方を、別のデバイス(スマートフォンおよびクラウドベースのサーバシステムのうちの少なくとも一方を備えている)に送信する。一実施形態においては、リストバンド型デバイスは、カメラのアクションやユーザへの通知および警告に関連付けられるさまざまなパターンを生成する複数の発光ダイオード(LED)を備えたユーザインタフェースディスプレイを含む。
【0092】
上述したように、本発明によるシステムおよび方法では、複数のセンサとプロセッサとを含むリストバンド型デバイスと、リストバンド型デバイスに取り付けられているカメラとを利用して、ジェスチャによって操作する手首装着型カメラシステム(ウェアラブルカメラデバイス)を提供する。本ウェアラブルカメラデバイスは、ユーザが1日に24時間着用することのできる控えめなアクセサリ型のリストバンドカメラであり、したがってユーザはいつでも写真やビデオを容易にキャプチャすることができる。したがって、本ウェアラブルカメラデバイスは、(アクセス性、サイズ、形、重さなどの点で)使い勝手がよく、さまざまなコマンドに関連付けられているユーザの動きおよびジェスチャが本ウェアラブルカメラデバイスによって検出されると、高品質のフレーミングされたカメラショットやビデオをすばやく生成する。
【0093】
ジェスチャを利用して手首装着型カメラシステムを操作するシステムおよび方法を開示した。本明細書に記載されている実施形態は、完全にハードウェアに実施する、または完全にソフトウェアに実施する、またはハードウェア要素およびソフトウェア要素の両方を含む実施形態の形をとることができる。実施形態はソフトウェアにおいて実施することができ、ソフトウェアとしては、アプリケーションソフトウェア、ファームウェア、常駐ソフトウェア、マイクロコードが挙げられる(ただしこれらに限定されない)。
【0094】
本明細書に記載されているステップは、任意の適切なコントローラまたはプロセッサと、ソフトウェアアプリケーションとを使用して実施することができ、ソフトウェアアプリケーションは、任意の適切な格納場所またはコンピュータ可読媒体に格納することができる。ソフトウェアアプリケーションは、本明細書に記載されている機能をプロセッサが実行することを可能にする命令を提供する。
【0095】
さらに、実施形態は、コンピュータが使用可能な媒体またはコンピュータ可読媒体においてアクセス可能なコンピュータプログラム製品であって、コンピュータまたは任意の命令実行システムによって、または関連して使用するためのプログラムコードを提供するコンピュータプログラム製品、の形をとることができる。この説明の目的においては、コンピュータが使用可能な媒体またはコンピュータ可読媒体は、命令実行システム、命令実行装置、または命令実行デバイスによって、またはこれらに関連して使用するためのプログラムを含む、格納する、伝達する、伝搬する、または移動させることのできる任意の装置とすることができる。
【0096】
上記の媒体は、電子的システム、磁気的システム、光学的システム、電磁気的システム、赤外システム、または半導体システム(もしくは装置またはデバイス)、または伝搬媒体(非一時的)とすることができる。コンピュータ可読媒体の例としては、半導体メモリまたは固体メモリ、磁気テープ、リムーバブルディスク、ランダムアクセスメモリ(RAM)、読み出し専用メモリ(ROM)、固定磁気ディスク、光ディスクが挙げられる。光ディスクの現在の例としては、DVD、コンパクトディスク読み出し専用メモリ(CD−ROM)、コンパクトディスク読み取り/書き込み(CD−R/W)が挙げられる。
【0097】
ここまで、本発明について、図示した実施形態に基づいて説明してきたが、これらの実施形態の変形形態が存在することと、そのような変形形態が本発明の趣旨および範囲内であることは、この技術分野における通常の技能を有する者には容易に認識されるであろう。したがって、この技術分野における通常の技能を有する者には、添付の請求項の趣旨および範囲から逸脱することなく、多くの修正を行うことができる。
【0098】
本出願は、米国仮特許出願第61/946,622号「GESTURE OPERATED WRIST MOUNTED CAMERA SYSTEM」(出願日:2014年2月28日)および米国仮特許出願第62/101,289号「GESTURE OPERATED WRIST MOUNTED CAMERA SYSTEM」(出願日:2015年1月8日)の利益を主張し、これらの文書の開示内容全体は参照によって本明細書に組み込まれている。
【国際調査報告】