(58)【調査した分野】(Int.Cl.,DB名)
前記カメラの視野角内で認識されたユーザのハンド動作が変更される場合、前記変更されたハンド動作に対応して前記選択されたオブジェクトに対して所定の機能を行う段階をさらに含むことを特徴とする請求項1に記載のユーザ機器のオブジェクト運用方法。
前記選択されたオブジェクトは、前記オブジェクトの表示サイズを変更して表示することを特徴とすることを特徴とする請求項1に記載のユーザ機器のオブジェクト運用方法。
前記選択されたオブジェクトは、画面とユーザハンドとの間の離隔距離間隔によってオブジェクトの表示サイズが縮小されるか、または拡大されて表示することを特徴とする請求項4に記載のユーザ機器のオブジェクト運用方法。
【発明を実施するための形態】
【0011】
以下、添付した図面を参照して本発明の好ましい実施例によってメッセージ管理方法及び装置に対して詳細に説明する。本発明の詳細な説明に先立って、以下で使用される用語や単語は、通常的や辞書的な意味に限定して解釈されてはならないし、本発明の技術的思想に符合する意味と概念として解釈されなければならない。したがって、本明細書と図面は、本発明の好ましい実施例に過ぎず、本発明の技術的思想をすべて代弁するものではないので、本出願時点においてこれらを代替することができる多様な均等物と変形例があり得ることを理解しなければならない。また、添付の図面において一部の構成要素は、誇張されるか、省略されるかまたは概略的に図示され、各構成要素のサイズは、実際サイズを反映するものではない。したがって、本発明は、添付の図面に描かれた相対的なサイズや間隔によって制限されない。
【0012】
本発明によるユーザ機器はタッチスクリーンとタッチ入力ツールとの間の離隔距離、例えば、深さ(depth)によってユーザ入力、例えば、タッチ及びホバリングを検出する機能を支援する。また、ユーザ機器は、1つの領域で入力イベントが発生するシングル入力(single input)と、2つ以上の領域で入力イベントが同時に発生するマルチ入力(multi input)を検出する機能を支援する。
【0013】
本発明で「ホバリング」は、タッチ入力ツールがタッチスクリーンから所定の離隔距離以内に接近して発生する入力信号として定義される。例えば、ホバリングは、ユーザ機器がタッチ入力ツールの位置を検出することができる水準まで接近して発生する入力信号に対して指称することができる。
【0014】
本発明で「ジェスチャー」は、ユーザの入力動作を意味し、マルチホバリングジェスチャーと、ハンドジェスチャーとに区別することができる。ここで、「マルチホバリングジェスチャー」は、タッチスクリーンから伝達されたホバリングを通じて認識されたユーザの動作を意味し、ホバリング基盤の指ジェスチャーに該当することができる。「ハンドジェスチャー」は、カメラから収集された映像から認識されるハンドイメージを通じて認識されるハンド動作(motion)を意味し、カメラ基盤で手ジェスチャーに該当することができる。
【0015】
本発明による方法及び装置は、携帯端末機に適用することができる。このような携帯端末機は、携帯電話、スマートホン、タブレットパソコン、ハンドヘルド(hand−held)PC、PMP(Portable Multimedia Player)、PDA(Personal Digital Assistant)などになることができることは自明である。以下の説明では、本発明によるユーザ機器のオブジェクト運用方法及び装置が携帯端末機に適用されるものと仮定して説明する。
【0016】
図1は、本発明の実施例による携帯端末機を説明するために示すブロック図である。
【0017】
図1を参照すれば、本発明による端末機100は、表示部110、入力部120、無線通信部130、オーディオ処理部140、カメラ150、センサー部160、GPS受信部170、格納部180及び制御部190を含んでなることができる。
【0018】
表示部110は、端末機100の運用過程に必要な多様な機能画面を表示する。表示部110は、制御部190の制御下に、制御部190から入力された映像データをアナログ信号に変換して表示する。表示部110は、端末機の運用による画面、例えば、ロック画面、ホーム画面、アプリケーション(以下、アプリ(APP)という)実行画面、メニュー画面、キーパッド画面、メッセージ作成画面、インターネット画面などを提供することができる。
【0019】
本発明で表示部110は、ユーザのマルチホバリングジェスチャーによって表示部110に出力されたオブジェクトのグラフィックを異なるように処理して出力する機能を支援する。例えば、表示部110は、マルチホバリング基盤のグラッブジェスチャーが検出される場合、表示部に表示された画面またはオブジェクトのサイズが縮小されるグラフィック効果を出力することができる。この場合、表示部110は、制御部190の制御下に、ユーザのハンドと画面との離隔間隔、すなわち深さ(depth)によってオブジェクトの表示サイズ(size)を縮小するかまたは拡大するグラフィック効果を提供するように支援する。また、表示部110は、マルチホバリング基盤のリリースジェスチャーが検出される場合、表示部110に出力されるオブジェクトのサイズが拡大されるグラフィック効果を出力することができる。この場合、表示部110に出力されるオブジェクトは、他の端末機から受信されるオブジェクトファイルが該当することができる。また、表示部110は、他の端末機から受信されたデータ伝送量によって表示部に出力された画面のサイズを次第に拡大するグラフィック効果を提供するように支援する。
【0020】
表示部110は、液晶表示装置(Liquid Crystal Display:LCD)、OLED(Organic Light Emitted Diode)、AMOLED(Active Matrix Organic Light Emitted Diode)、フレキシブルディスプレイ、透明ディスプレイなどの形態で形成することができる。
【0021】
表示部110は、端末機の運用によって多様な画面を提供する表示パネルと、表示パネルの前面または後面にタッチイベント生成を支援するタッチパネルを含むことができる。例えば、タッチパネルは、表示部に配設(Place on)される。タッチパネルは、表示部110の前面に位置するアドオンタイプ(add−on type)や表示部110内に挿入されるオンセルタイプ(on−cell type)またはインセルタイプ(in−cell type)で具現することができる。タッチパネルは、抵抗膜方式(resistive type)、静電容量方式(capacitive type)及び電磁誘導方式(electromagnetic induction type)などが適用することができる。表示部110は、端末機100の回転方向(または配置方向)によるアプリ実行情報、横モードと縦モード間の変化による適応的画面切替表示を支援することができる。
【0022】
入力部120は、端末機100の運用に必要な多様な入力信号を生成する。入力部120は、数字または文字情報を入力され、各種機能を設定するための多数の入力キー及び機能キー、例えば、サイドキー、ショートカットキー及びホームキーなどを含むことができる。入力部120は、ユーザ設定及びユーザ機器の機能制御と関連したキー信号を生成し、制御部190に伝達する。制御部190は、このようなキー信号に応答して当該入力信号による機能を制御する。入力部120は、端末機100のタッチパネルがフルタッチスクリーン形態で支援された場合、仮想タッチパッドとして提供することができる。
【0023】
また、表示部110にタッチパネルを含む場合、表示部110は、入力部120として動作することができる。この場合、端末機運用のための入力信号は、タッチパネルを通じて生成することができる。タッチパネルは、タッチ入力ツール(例えば、ユーザのハンド、タッチペンなど)による入力イベント生成を支援する。特に、タッチパネルが静電容量方式で構成される場合、タッチパネルは、タッチ入力ツールと画面間の離隔距離による静電容量変化を感知し、静電容量値のサイズによってユーザの動作を区分することができるように支援する。また。タッチ入力ツールと画面間の隔離距離は、距離測定センサー、例えば赤外線センサーを通じて隔離距離、すなわち深さ値を測定することができる。本発明で入力部120は、ユーザの入力操作に応答してタッチ、マルチタッチ、シングルホバリング及びマルチホバリングのうち少なくとも1つの入力イベント生成を支援する。
【0024】
無線通信部130は、端末機の通信を行う。無線通信部130は、支援可能な移動通信ネットワークと通信チャネルを形成し、音声通信、画像通信及びデータ通信のような通信を行う。無線通信部130は、送信される信号の周波数を低雑音増幅及び下降変換する無線周波数受信部などを含むことができる。また、無線通信部130は、移動通信モジュール(例えば、3世代(3−Generation)移動通信モジュール、3.5世代(3.5−Generation)移動通信モジュールまたは4世代(4−Generation)移動通信モジュールなど)、及びデジタル放送モジュール(例えば、DMBモジュール)及び近距離通信モジュールを含むことができる。ここで、近距離通信モジュールは、ワイファイモジュール、ブルートゥースモジュール、ワイファイダイレクトモジュールのうち少なくとも1つを含むことができる。本発明で近距離通信モジュールは、他の端末機と通信チャネルを形成し、制御部190の制御下に、特定オブジェクトのファイルまたはデータを送受信する機能を支援する。
【0025】
本発明で端末機100は、アクセスポイント(AP:access point)として使用される機能を支援することができる。端末機100がアクセスポイントとして使用される場合、端末機100は、当該端末機100をアクセスポイントとして利用する他の端末機と直接ファイルを送受信することができる。または、端末機100が特定アクセスポイントに接続された場合、特定アクセスポイントに連結された他の端末機とファイルを送受信する場合、特定アクセスポイントを通じてファイルを送受信することができる。
【0026】
オーディオ処理部140は、端末機100で生成されたまたは復号されたオーディオ信号出力を支援するスピーカーSPKと音声通話や映像通話、録音機能などを支援するためにオーディオ信号を収集するマイクMICを含むことができる。オーディオ処理部140は、制御部190から入力された音声などのオーディオデータをDA(Digital to Analog)変換し、スピーカーSPKに伝送し、マイクMICから入力された音声などのオーディオデータをAD(Analog to Digital)変換し、制御部190に伝達する。オーディオ処理部140は、コーデック(codec;coder/decoder)で構成することができ、コーデックは、パケットデータなどを処理するデータコーデックと音声などのオーディオ信号を処理するオーディオコーデックを具備することができる。オーディオ処理部140は、受信されるデジタルオーディオ信号をオーディオコーデックを通じてアナログ信号に変換し、スピーカーを通じて再生する。オーディオ処理部140は、マイクから入力されるアナログオーディオ信号を、オーディオコーデックを通じてデジタルオーディオ信号に変換し、制御部190に伝達する。
【0027】
カメラ150は、撮影を通じて映像を収集する機能を支援する。カメラ150は、入力された光信号を電気的信号に変換するカメラセンサーと、カメラセンサーから撮影されるアナログ映像信号をデジタルデータに変換する映像処理装置(Image Signal Processor)及び映像処理装置で出力されるデジタルデータをタッチスクリーンに表示するためにビデオ信号を映像処理(例えば、サイズ調整(scaling)、ノイズ除去、RCG信号変換など)する信号処理装置(Digital Signal Processor)などを含むことができる。ここで、カメラセンサーは、CCD(Charge−coupled Device)センサーまたはCMOS(Complementary Metal−OxideSemiconductor)センサーなどが使用することができ、信号処理処置は、その構成が省略され、DSPで具現することもできる。
【0028】
本発明でカメラ150は、ユーザジェスチャーを認識するためのセンサー機能を支援する。カメラ150は、制御部190の制御下に、バックグラウンド(background)機能で活性化することができる。例えば、カメラ150は、制御部190の制御下に、特定アプリが実行された状態でレンズを通じて収集される映像を制御部190に伝達することができる。
【0029】
センサー部160は、ユーザ機器端末機100を基盤として行われるユーザの入力情報及び周辺環境変化を感知し、それによる情報を制御部190に伝達する機能を支援する。本発明でセンサー部160は、タッチ入力を認識することができるタッチセンサー、タッチ入力ツールの接近を感知する近接センサー、タッチ入力ツールと機器との間の距離を測定することができる距離測定センサー、映像イメージを収集することができるイメージセンサー、3次元空間の動作及び動きを認識することができる動作認識センサー、方向などを感知することができる方向センサー、及び移動速度を検出することができる加速度センサーのうち少なくとも1つを含むことができる。
【0030】
GPS(Global Positioning System)受信部170は、制御部190の制御下に、GPS衛星からGPS衛星信号を受信し、制御部190に伝達する機能を支援する。GPS受信部170は、受信信号によってGPS衛星と接続し、GPS衛星信号を受信される。GPS受信部170は、受信されたGPS衛星信号を制御部190に伝達する。制御部190は、GPS衛星信号を利用して現在位置する携帯端末機の位置情報を計算する。
【0031】
本発明でGPS受信部170は、他の端末機と通信連結する手段として利用することができる。例えば、制御部190は、マルチホバリングジェスチャーが検出されれば、GPS受信部170を通じてユーザ機器のGPS情報をGPSサーバーに伝送する。制御部190は、所定の時間以内にGPSサーバーから他の端末機のGPS座標情報が受信されれば、当該サーバーからファイルを受信することができる。
【0032】
格納部180は、端末機100の運営体制(OS;Operating System)及び多様なアプリケーション(以下、アプリ)を含めて、携帯端末で生成される多様なデータなどを格納する。データは、端末機のアプリケーション(以下、アプリ)実行に発生するデータ及び端末機を利用して生成するか、または外部(例えば、外部サーバー、他の携帯端末、パソコン)から受信し、格納可能なすべての形態のデータを含むことができる。格納部180は、端末機で提供されるユーザインターフェース及び機能処理に対する多様な設定情報を格納することができる。
【0033】
本発明で格納部180は、ユーザのジェスチャーを決定するジェスチャー認識プログラムを含むことができる。ジェスチャー認識プログラムは、ホバリング基盤のマルチホバリングジェスチャーとカメラ基盤のハンドジェスチャーを認識する機能を支援する。ジェスチャー認識プログラムは、カメラから収集された映像からハンド領域を分離し、ハンド形態を認識する機能を支援する。また、ジェスチャー認識プログラムは、収集された映像でユーザのハンド形状が特定状態及び動作に変化する場合、当該動作状態及び動作とマッチングされるジェスチャーを判別する機能を支援する。
【0034】
本発明で格納部180は、人が手を利用して動作することができる多様なハンドジェスチャーに対する情報、例えば、指の配置形態、指の位置情報、ハンドの動作形状、ハンド形態などの情報を格納することができる。また、格納部180は、ユーザのジェスチャーに対応して既定の命令(command)情報を含むことができる。ユーザジェスチャーに対応する命令は、製造時に定義することができるが、ユーザ便宜によって設定が可能である。
【0035】
制御部190は、ユーザ機器の全般的な動作及びユーザ機器の内部構成間の信号フローを制御し、データを処理する機能を行う。制御部190は、バッテリーから内部構成への電源供給を制御する。制御部190は、電源が供給されれば、ユーザ機器の起動過程を制御し、ユーザの設定によってユーザ機器の機能実行のためにプログラム領域に格納された各種応用プログラムを実行する。
【0036】
本発明で制御部190は、タッチスクリーンから受信される入力イベントを受信し、入力イベントによるユーザジェスチャーを区分する機能を支援する。制御部190は、タッチ入力ツールの接近を感知し、タッチ入力ツールとタッチスクリーンとの間の離隔間隔を計算する。ここで、タッチ入力ツールは、タッチペンやユーザのハンドであることができるが、本発明では、タッチ入力ツールがユーザのハンドである場合と仮定して説明する。
【0037】
制御部190は、2つ間の離隔間隔が所定の離隔距離以内である場合、ホバリングを検出することができる。特に、本発明で制御部は、シングルホバリングとマルチホバリングを検出することができる。シングルホバリングは、タッチ入力ツールから1つのホバリング領域が検出される場合と定義される。マルチホバリングは、タッチ入力ツールから2つ以上のホバリング領域が検出される場合と定義される。
【0038】
制御部190は、マルチホバリング領域の位置情報を基盤としてホバリング領域の動きを計算し、動きを基盤としてユーザのマルチホバリングジェスチャーを決定することができる。ここで、位置情報は、ホバリング領域の座標情報を含むことができる。例えば、制御部190は、マルチホバリングが検出された最初の領域を基準として中心点を計算し、ホバリング領域が中心点に近く接近する場合、ホバリング基盤のグラッブジェスチャー(grab gesture)が発生したと決定することができる。また、制御部190は、マルチホバリングが検出された最初の領域を基準としてホバリング領域が互いに遠くなった場合、ホバリング基盤のリリースジェスチャー(release gesture)が発生したと決定することができる。また、制御部190は、ジェスチャー認識プログラムを利用してカメラを通じて収集された映像からハンド領域を分離し、ハンド領域から抽出されたイメージを通じてハンド形態を計算する。制御部190は、計算された手の形態が変更される場合、パターンマッチングを通じてカメラ基盤のハンドジェスチャーを決定することができる。
【0039】
制御部190は、ユーザのジェスチャー、例えば、マルチホバリングジェスチャーまたはハンドジェスチャーが検出されれば、当該ジェスチャーに対応して実行可能な機能または所定の命令による機能を実行し、その実行画面を表示部110に出力する。
【0040】
制御部の具体的な機能は、
図2を参照して詳細に説明する。
【0041】
図2は、本発明の実施例によるユーザ機器のオブジェクト運用方法を説明するための流れ図である。
【0042】
図2を参照すれば、段階210で、端末機100は、ユーザ入力または所定のスケジュールによって表示部110の画面に少なくとも1つのオブジェクトを表示する。ここで、オブジェクトは、ユーザ機器で提供されるデジタル化された情報に対応して画面に出力される客体を意味する。オブジェクトは、表示部110に出力されたアイコン、サムネイルなどと解釈することができる。本発明でオブジェクトは、それに対応するデータファイル、例えば、テキストファイル、音声ファイル、映像ファイル、イメージファイル、URL情報ファイルを含むものと定義することができる。
【0043】
この場合、端末機の運営モードは、ホバリング認識モードで運用中であることができる。ホバリング認識モードは、ホバリング認識機能が支援される特定アプリが実行された状態であるか、またはホバリング認識機能が実行された状態であることができる。本発明でホバリング認識機能は、表示部に特定コンテンツがフルモードで出力された状態、またはユーザ入力によって複数のオブジェクトが選択された状態でホバリングを認識することができるが、これに限定するものではない。
【0044】
段階220で、端末機100は、所定の離隔距離以内でマルチホバリングを検出する。例えば、端末機100は、端末機に接近する人体、例えば、ユーザのハンドから変化する静電容量値を測定する。端末機100は、少なくとも2つ以上の領域で静電容量値の変化を検出することができる。端末機100は、測定された変化量を基盤としてユーザのハンドと画面間の離隔距離を計算する。端末機100は、ユーザのハンドと画面との間の離隔距離が既定の離隔距離(例えば、3cm)以内に接近する場合、ホバリングを検出することができる。端末機100は、ホバリングが検出されれば、検出されたホバリングの位置情報を測定することができる。
【0045】
この際、端末機100は、2つ以上の領域でホバリングが検出される場合、マルチホバリングで決定することができる。すなわち、端末機100は、2つ以上の位置でタッチ入力ツール(例えば、複数の指)が第1離隔距離以内で検出される場合、2つ以上の領域で検出されたホバリングを有効データとして認識することができる。
【0046】
段階230で、端末機100は、既定の時間以内に発生するマルチホバリングの動きを基盤としてグラッブ(grab)ジェスチャーが発生したか否かを決定する。端末機100は、最初に検出されたホバリング領域を基準としてユーザのジェスチャーによるホバリングの方向、距離、速さなどを決定することができる。
【0047】
具体的に、端末機100は、マルチホバリングの動いた方向及び距離を利用して位置ベクトルを算出し、算出された位置ベクトルを利用してグラッブジェスチャーが発生したか否かを決定することができる。端末機100は、2つ以上のホバリング領域から中心点を決定し、ホバリング動きが中心点を基準として近くなる場合、グラッブジェスチャーが発生したと決定することができる。また、制御部190は、2つ以上のホバリング領域を含む外郭わくを決定し、ホバリングの動きが外郭わくの内側に変更された場合、グラッブジェスチャーが発生したと決定することができる。
【0048】
段階240で、端末機100は、ホバリング基盤のグラッブジェスチャーが発生したと決定されれば、表示部110に表示されたオブジェクトを、特定機能を実行するための選択オブジェクトとして決定する。この場合、端末機100は、表示部110に出力された1つのオブジェクトを選択オブジェクトとして決定することができるが、ユーザ入力によってあらかじめ選択されたオブジェクトの選択決定を維持することができる。
【0049】
端末機100は、グラッブジェスチャーによって選択されたオブジェクトに対する視覚的フィードバック効果を出力することができる。例えば、端末機100は、グラッブジェスチャーに対応してユーザが実質的に品物をピックアップすることのようなグラフィック効果を提供することができる。
【0050】
段階250で、端末機100は、選択オブジェクトが決定されれば、カメラ150を活性化させる。ここで、カメラ150は、端末が前面に装着される前面カメラであることができる。この際、カメラ150は、ユーザのハンドを認識することができるセンサー機能に用いられ、バックグラウンドで実行することができる。
【0051】
段階260で、端末機100は、カメラ150から映像を収集し、ユーザのハンドを認識する。例えば、端末機100は、カメラから獲得される映像で色相情報を利用して背景を除いて、ハンド領域を分離することができる。端末機100は、分離したハンド領域からハンドの特徴点を抽出し、ハンドの形態を計算することができる。端末機100は、計算されたハンドの形態情報を利用してハンド形状と動作を認識することができる。端末機100は、ハンド形状と動作を基盤としてパターンマッチング(pattern matching)を行い、ハンドジェスチャーを検出することができる。
【0052】
段階270で、端末機100は、カメラ150の視野角内でユーザのハンドが消えたか否かを決定する。端末機100は、色相情報を通じて映像からハンド領域を分離することができない場合、カメラ視野角内でユーザのハンドが消えたと決定することができる。
【0053】
段階275で、端末機100は、カメラ視野角内でユーザのハンドが消えたと決定されれば、選択されたオブジェクトをファイル伝送待機状態に変更する。この場合、端末機100は、他の端末機との通信チャネルを形成し、他の端末機に伝送待機信号を伝送するか、または通信チャネルが既定の場合、他の端末機に伝送待機信号を伝送することができる。ファイル伝送待機に対する具体的な説明は、
図6を参照して詳しく説明する。
【0054】
段階290で、端末機100は、他の端末機から伝送要請信号が受信されるか否かを決定する。端末機100は、伝送要請信号は、他の端末機から受信される応答信号が該当することができる。段階295で、端末機100は、伝送要請信号が受信される場合、伝送要請信号を発信した他の端末機に選択オブジェクトとして決定されたオブジェクトのファイルまたはデータを伝送する。
【0055】
段階280で、端末機100は、ユーザのハンドがカメラ150の視野角内で消えない場合、カメラ150基盤のハンドジェスチャーを検出することができる。例えば、ユーザは、特定オブジェクトが選択された状態でカメラ視野角内において、投げるジェスチャーを行うことができる。端末機100は、カメラ150から収集される映像からユーザのハンド形態を決定し、パターンマッチングを通じてユーザハンドが投げる動作を行ったと決定することができる。
【0056】
段階285で、端末機100は、ハンドジェスチャーが検出された場合、当該ハンドジェスチャーに対応して選択されたオブジェクトに対する特定機能を行うことができる。例えば、投げる動作に対応してオブジェクト削除命令が定義された場合、端末機100は、投げるジェスチャーに応答して当該オブジェクト削除する機能を行う。
【0057】
図3は、本発明の実施例によるユーザ機器でオブジェクト伝送するユーザインタラクションを説明するための例示図である。
【0058】
図3を参照すれば、表示部110は、ユーザの要請または所定のスケジュールによって1つ以上のオブジェクトを画面に出力することができる。表示部110は、画面に特定オブジェクトがフルモード(full mode)で支援されるか、または多数のオブジェクトが表示される画面を出力することができる。
【0059】
例えば、ユーザは、ユーザ機器で提供するギャラリー機能を行うことができる。ユーザ機器は、ユーザの要請に応答して〈a〉画面に示されたように、特定写真コンテンツ310がフルモードで支援された画面を出力することができる。また、ユーザ機器は、多数の写真オブジェクトリストが表示され、写真リストのうち特定写真が選択された画面を出力することができる。
【0060】
ユーザは、特定写真が表示された状態で当該写真に対する機能を実行するためにユーザのハンド320を画面に接近することができる。ここで、ユーザ機器は、ホバリングとタッチを区分するために画面とタッチ入力ツールとの間の所定の離隔距離が設定することができる。所定の離隔距離は、ユーザ機器がタッチ入力ツールの位置を検出することができる水準まで接近する臨界値であることができる。
【0061】
ユーザ機器は、ユーザのハンド320が所定の離隔距離以内に接近する場合、指から2つ以上のホバリング領域330を検出する。ユーザ機器は、〈a〉画面のように、指の接近を感知し、4個のホバリング領域330を検出することができる。この場合、ユーザの5個の指がすべて所定の離隔距離以内に接近することができるが、指の長さによって、特定指だけが所定の離隔距離以内に接近することができる。
【0062】
ホバリング状態でユーザは、物体を把持することのように指を中心に集めることができる。それから、ユーザ機器は、2つ以上のホバリング領域が中心点に近くなると決定し、ホバリング基盤のグラッブジェスチャーを検出することができる。ユーザ機器は、グラッブジェスチャーに応答して表示部に表示されたオブジェクト、すなわち写真コンテンツを選択オブジェクトとして決定する。
【0063】
このような状態でユーザ機器は、〈b〉画面に示されたように、カメラ150を活性化させてユーザ映像を獲得する。カメラ150は、ユーザのハンド動作を認識するためのセンサーに利用することができる。ユーザ機器は、カメラ150から映像を獲得し、色相情報を利用してハンド領域を分離し、ハンド形状及び形態を認識することができる。ユーザ機器は、カメラ150から獲得された映像からハンド領域を分離することができるか否かによってカメラ150の視野角内でユーザのハンドが消えたと決定することができる。
【0064】
このような状態で、ユーザは、〈c〉画面に示されたように、カメラ150の視野角から離れるようにユーザのハンド320を動かすことができる。それから、制御部は、カメラ150の視野角内でユーザのハンド320が消えたと決定し、選択された写真コンテンツ310に対するファイルを伝送待機状態に変更する。この場合、ユーザ機器は、他のユーザ機器と通信チャネルが形成された状態であることができる。ユーザ機器は、伝送待機状態の場合、通信連結された他のユーザ機器にファイル伝送待機信号を伝送することができる。
【0065】
図4は、本発明の実施例によるユーザ機器でオブジェクトを削除するユーザインタラクションを説明するための例示図である。
【0066】
図4を参照すれば、ユーザは、ユーザ機器で提供するギャラリー機能を実行し、特定写真コンテンツ410をフルモードで出力することができる。ユーザ機器は、写真コンテンツ410を選択するマルチホバリングジェスチャー、例えば、グラッブジェスチャーが検出されれば、カメラ150を駆動させることができる。
【0067】
このような状態で、ユーザは、カメラ150の視野角内でユーザのハンド420で特定モーション、例えば、〈a〉画面に示されたように、投げるジェスチャー(throw gesture)を行うことができる。ユーザ機器は、カメラ150を通じて獲得された映像から手領域を分離し、手の形態から手の動きと形状を認識することができる。
【0068】
ユーザ機器は、ユーザのハンドモーションがパターンマッチングを通じて投げる(throw)動作として決定されれば、〈b〉画面に示されたように、グラッブジェスチャーによって選択された写真コンテンツ410を削除することができる。
【0069】
図5は、本発明の実施例によってグラッブジェスチャーに対応して視覚的フィードバックを出力する画面例示図である。
【0070】
図5を参照すれば、ユーザは、特定コンテンツを選択するためにユーザ機器の上で物体を把持することのように指を中心に集めることができる。それから、ユーザ機器は、ホバリング状態でグラッブジェスチャーが発生したと決定し、表示部に表示された特定コンテンツ510を選択オブジェクトとして決定する。
【0071】
この際、ユーザ機器は、ユーザにオブジェクト選択に対する視覚的なフィードバックを提供することができる。ユーザ機器は、表示部110に表示されたコンテンツ510のサイズを縮小して出力することができる。また、ユーザ機器は、ユーザのハンド520と画面との間の離隔距離間隔が変更されれば、変更された離隔距離によってグラフィック処理されたコンテンツ510のサイズを拡大するかまたは縮小して出力することができる。例えば、ユーザ機器は、ユーザがタッチスクリーンの上で品物をピックアップすることのような視覚的フィードバック効果を提供することができる。これにより、ユーザは、特定コンテンツを現実のように品物をピックアップして品物がユーザの手によって引っ張られて出ることのような効果を経験することができる。
【0072】
このような状態で、ユーザがユーザのハンドを動かす場合、ユーザ機器は、〈b〉画面に示されたように、グラフィック処理されたコンテンツ510をユーザのハンド520が動いた方向によって移動させて表示することができる。
【0073】
図6は、本発明の実施例によるファイル伝送過程を説明するために示す図である。
【0074】
図6を参照すれば、本発明によるファイル伝送過程は、送信側機器Aと受信側機器Bとに分離して説明する。本発明によるユーザ機器は、ファイル伝送を行うにあたって、送信側機器Aと受信側機器Bにいずれも適用が可能である。また、送信側機器Aと受信側機器Bは、通信チャネルが連結された状態、例えば、ペアリング、ワイファイダイレクト、ブルートゥース通信などで連結された状態と仮定する。
【0075】
まず、送信側機器Aで特定コンテンツが選択された後、カメラ視野角内でユーザのハンドが消えたと決定されれば、段階610で、送信側機器は、選択された特定コンテンツをファイル伝送待機状態に変更する。送信側機器Aは、通信チャネルが形成された端末機があるか否かを決定し、他の端末機と通信チャネルが形成された場合、段階620で、受信側機器Bにファイル伝送待機信号を伝送する。この場合、受信側端末機は、伝送待機信号に応答して表示部にファイル伝送待機アラーム情報(例えば、伝送待機メッセージ)を出力することができるが、これに限定するものではない。
【0076】
それから、受信側機器Bは、送信側機器Aからファイル伝送要請信号を受信した後、段階630で、マルチホバリングを検出し、段階640で、マルチホバリングの動きによってリリースジェスチャーを検出することができる。具体的に、受信側機器Bは、2つ以上のホバリング領域を基準としてホバリング領域が互いに遠くなる場合、リリースジェスチャーが検出されたと決定することができる。または、受信側機器Bは、2つ以上のホバリング領域を含む外郭わくを決定し、ホバリング領域が外郭わくの外に変更される場合、リリースジェスチャーが検出されたと決定することができる。
【0077】
受信側機器Bは、リリースジェスチャーが検出されれば、段階650で、リリースジェスチャーに応答して受信側機器に伝送要請信号に応答する応答信号を伝送する。それから、段階660で、送信側機器Aは、応答信号に応答して選択された特定オブジェクトファイルを受信側機器にファイル伝送を開始する。受信側機器Bは、送信側機器Aから伝送されるオブジェクト情報を表示部に表示することができる。
【0078】
図7は、本発明の実施例によるオブジェクトの送受信過程を説明するための画面例示図である。
【0079】
図7を参照すれば、本発明で送信側機器Aと受信側機器Bとの間に通信チャネルが形成された場合、ファイル送受信のためのユーザインタラクションは、まず、送信側機器Aで
図3に示されたように、ホバリング状態でユーザのハンドをグラッブした後、カメラの視野角内でユーザのハンドを消えるように移動させることができる。
【0080】
それから、送信側機器Aは、表示部に表示された写真コンテンツ710を選択オブジェクトとして決定し、決定された写真コンテンツをファイル伝送待機状態に変更する。この際、送信側機器Aは、決定された写真コンテンツが伝送待機状態であることを通知するファイル伝送待機信号を通信チャネルが形成された機器、例えば、受信側機器Bに伝送する。この場合、送信側機器Aは、ファイル伝送待機信号を通じて伝送待機中のコンテンツがあることを認知することができる。
【0081】
このような状態で、受信側機器Bでユーザは機器をタッチせず、機器から所定の間隔が離れた空間で品物をピックアップしてから置くことのようなモーションを行うことができる。受信側機器Bは、指の接近を感知して指の接近を感知し、2つ以上のホバリング領域を検出し、ホバリング領域が検出された開始点を基準として遠くなると決定される場合、リリースジェスチャーが検出されたと決定することができる。
【0082】
受信側機器Bは、リリースジェスチャーが検出されたと決まれば、リリースジェスチャーに応答して送信側機器Aにファイル伝送待機信号に応答する応答信号を伝送する。それから、送信側機器Aは、ファイル伝送待機状態である特定写真コンテンツを受信側機器Bに伝送する。受信側機器Bは、ファイルが伝送中または伝送が完了した場合、図示のように、受信側機器Bから伝送された写真コンテンツ730を表示部に表示することができる。
【0083】
送信側機器と受信側機器のファイル伝送は、ブルートゥース通信、ワイファイダイレクト通信、GPS受信部及びサーバー通信、アクセスポイントを用いた連結通信など多様な方式で連結され、ファイルを送受信することができる。
【0084】
図8は、本発明の実施例によってファイル受信に対応して視覚的フィードバックを出力する画面例示図である。
【0085】
図8を参照すれば、ユーザ機器は、通信チャネルが形成された他の端末機から特定コンテンツに対するファイル及びデータを受信することができる。ユーザ機器は、他の端末機から特定コンテンツに対するファイル及びデータが受信されれば、当該コンテンツ810が伝送状態であることを指示する視覚的フィードバック効果を提供することができる。例えば、ユーザ機器は、
図8に示されたように、受信されるファイルのデータ量によって画面に出力されるオブジェクトのサイズを次第に拡大して出力するグラフィック効果を支援することができる。ユーザは、表示部に出力された画面のサイズによってファイル伝送中またはファイル伝送が完了したことを認知することができる。
【0086】
図9は、本発明の実施例による動画ファイルの送受信過程を説明するために示す画面である。
【0087】
図9を参照すれば、送信側機器Aが動画を再生して出力していると仮定する。送信側機器Aにおける動画再生モードでホバリング基盤のグラッブジェスチャーが検出される場合、再生中の動画コンテンツを伝送待機状態と決定し、受信側機器Bに伝送待機信号を伝送する。
【0088】
次に、受信側機器Bでホバリング基盤のリリースジェスチャーが検出される場合、リリースジェスチャーに応答して伝送待機信号に応答する応答信号を送信側機器Aに伝送する。送信側機器Aは、応答信号に応答して再生中の動画コンテンツを送信側機器Aに伝送する。この際、送信側機器Aは、動画コンテンツに対するファイルだけでなく、再生情報を含んで提供することができる。
【0089】
例えば、送信側機器Aで再生途中に動画コンテンツを受信側機器Bに伝送する場合、受信側機器Bは、提供された再生情報を基盤として送信側機器Aで再生が停止された時点から動画ファイルを再生することができる。
【0090】
以上のように、本発明によるユーザ機器のオブジェクト運用方法に対して本明細書及び図面を通じて好ましい実施例を挙げて説明し、たとえ特定用語が使用されたが、これは、ただ本発明の技術内容を容易に説明し、発明の理解を助けるために一般的な意味として使用されるものに過ぎず、本発明が前述した実施例に限定されるものではない。すなわち、本発明の技術的思想に基づく多様な実施例が可能であることは、本発明の属する技術分野における通常の知識を有する者に自明である。