(58)【調査した分野】(Int.Cl.,DB名)
前記第1ユーザ入力は、タッチスクリーンに対するユーザのジェスチャー、マイクを通じて入力された音声情報及びセンサー部で感知したモーション(motion)情報のうちいずれか1つであり、
前記第2ユーザ入力は、タッチスクリーンに対するユーザのジェスチャー、マイクを通じて入力された音声情報及びセンサー部で感知したモーション(motion)情報のうち他の1つであることを特徴とする請求項1に記載の多重入力処理方法。
前記グラフィック作業は、前記ペンジェスチャーまたは前記手ジェスチャーによる文字書き込み、ドローイング、ペインティング及び消去のうちいずれか1つであることを特徴とする請求項7に記載の多重入力処理装置。
【発明を実施するための形態】
【0011】
本発明の詳細な説明に先立って、以下で使用される用語や単語は、通常的や辞書的な意味に限定して解釈してはならないし、本発明の技術的思想に符合する意味や概念として解釈されなければならない。したがって、以下の説明と添付の図面は、本発明の好ましい実施例に過ぎないもので、本発明の技術的思想をすべて代弁するものではないので、本出願時点においてこれらを代替することができる多様な均等物と変形例があり得ることを理解しなければならない。また、添付の図面において一部の構成要素は、誇張されるか省略されるかまたは概略的に図示され、各構成要素のサイズは、実際サイズを全く反映するものではない。したがって、本発明は、添付の図面に描かれた相対的なサイズや間隔によって制限されない。
【0012】
本発明による多重入力処理方法及び装置は、スマートホン、タブレットパソコン、ノートパソコン、デスクトップパソコン、テレビ、ナビゲーション装置及びビデオフォンなどのようなマルチメディア機器に適用されることができる。また、マルチメディア機器が融合された機器(例えば、通信機能及びタッチスクリーンを有する冷蔵庫)にも適用されることができる。
【0013】
本発明において「入力」は、外部との相互作用のための多様なインターフェースから入力された情報であって、大きく、ユーザ入力とシステム入力を含むことができる。具体的に「ユーザ入力」は、ユーザインターフェース(例えば、タッチスクリーン、マイク、センサー部、キー入力部など)のうち1つを通じて装置に入力されたユーザの入力情報であって、ハンドリング手段(例えば、ユーザの手やペン)を利用したタッチスクリーンに対するユーザのジェスチャーと、マイクを通じて入力された音声情報と、センサー部で感知したモーション(motion)情報などを含むことができる。ここで、モーション情報は、ユーザのモーション情報を含む。ユーザモーション情報は、例えば、カメラ(イメージセンサー)で撮影した「手のモーション」、「顔のモーション」または「目のモーション」などになることができる。また、装置が携帯端末である場合、モーション情報は、当該装置のモーション情報を含むことができる。装置モーション情報は、例えば、ユーザが携帯端末を振って、これによって加速度センサーで感知した当該装置の「加速度情報」になることができる。本発明において「システム入力」は、当該装置の外部環境と関連した情報である。ここで、外部環境は、大きく、自然環境と通信環境を含むことができる。例えば、自然環境と関連した情報は、外部照度、温度、湿度、携帯端末の速度、位置、動きの方向などを含むことができる。そして、通信環境と関連した情報は、LTE、3G、WiFi、ブルートゥースなど当該端末が連結された無線通信網情報と、有線で連結された外部装置の属性情報などを含むことができる。以上、本発明において入力は、ユーザ観点で、当該入力がユーザによって発生したか否かによってユーザ入力とシステム入力に区分されることができる。機器観点で、入力は、当該入力の発生場所を基準としてユーザ入力とシステム入力に区分されることができる。例えば、タッチスクリーンで発生した入力は、ユーザ入力であり、照度センサーで発生した入力は、システム入力であることができる。
【0014】
本発明による方法及び装置は、同時発生した多重入力を処理することができる。特に本発明による方法及び装置は、第1ユーザ入力によって行われる機能の属性を、第2ユーザ入力またはシステム入力に応答して、変更することができる。例えば、方法及び装置は、ペンタッチに応答してペン文字を画面に表示する。この際、「赤色」というユーザの音声が検出された場合、本発明による方法及び装置は、文字の色相を赤色に変更する。また、本発明による方法及び装置は、既に書かれたペン文字の色相を赤色に補正することもできる。このような本発明の特徴的な技術を添付の図面を参照して以下で具体的に説明する。但し、本発明を説明するに際して、関連された公知機能または構成に対する具体的な説明が本発明の要旨を不明にすることができると判断される場合、その詳細な説明を省略する。
【0015】
図1は、本発明の一実施例による多重入力処理装置のブロック構成図である。
【0016】
図1を参照すれば、装置100は、タッチスクリーン110、キー入力部120、格納部130、無線通信部140、オーディオ処理部150、スピーカーSPK、マイクMIC、センサー部160及び制御部170、カメラ180を含むことができる。
【0017】
タッチスクリーン110は、ユーザとの相互作用のためのユーザインターフェースを提供するために、タッチパネル111と表示パネル112を含んで構成される。タッチパネル111は、表示パネル112に安着(place on the display unit)されることができる。具体的にタッチパネル111は、表示パネル112上に位置するアドオンタイプ(add−on type)や表示パネル112内に挿入されるオンセルタイプ(on−cell type)またはインセルタイプ(in−cell type)で具現されることができる。
【0018】
タッチパネル111は、タッチパネル111に対するユーザのジェスチャーに応答してアナログ信号(例えば、タッチイベント)を発生し、アナログ信号をA/D変換し、制御部170に伝達する。制御部170は、伝達されたタッチイベントからユーザのジェスチャーを検出する。すなわち、制御部170は、タッチ地点、タッチの移動距離、タッチの移動方向、タッチの速さ及びタッチの圧力などを検出し、前記構成を制御することができる。
【0019】
タッチパネル111は、手ジェスチャーを感知する手タッチパネル111aとペンジェスチャーを感知するペンタッチパネル111bを含んで構成された複合タッチパネルであることができる。ここで、手タッチパネル111aは、静電容量方式(capacitive type)で構成されることができる。ここで、手タッチパネル111aは、ユーザの手ジェスチャーだけによってタッチイベントを発生するものではなく、他の物体(例えば、静電容量変化を加えることができる伝導性材質の物体)によってもタッチイベントを生成することができる。すなわち手タッチパネル111aでは、ユーザの手のみならず、他の物体によってもタッチイベントが発生することができる。手タッチパネル111aは、静電容量方式に限定されるものではなく、抵抗膜方式(resistive type)、赤外線方式または超音波方式で構成されることもできる。ペンタッチパネル111bは、電子誘導方式(electromagnetic induction type)で構成されることができる。これにより、ペンタッチパネル111bは、磁場を形成することができるように特殊製作されたタッチ用スタイラスペンによってタッチイベントを生成する。
【0020】
タッチスクリーン110に対するユーザジェスチャーは、前述したように、タッチ入力手段が何であるかによって、大きく、手ジェスチャーとペンジェスチャーに区分される。前述したように、手ジェスチャーは、手タッチパネル111aで感知し、ペンジェスチャーは、ペンタッチパネル111bで感知することができる。
【0021】
また、ユーザジェスチャーは、ハンドリング手段が何であるかとは関係なく、タッチ(Touch)とタッチジェスチャー(Touch gesture)に区分される。さらに、タッチジェスチャーは、タップ(Tap)、ダブルタップ(Double Tap)、ロングタップ(Long tap)、ドラッグ(Drag)、ドラッグアンドドロップ(Drag & Drop)、フリック(Flick)及びプレス(Press)などを含むことができる。ここで、タッチは、ユーザが画面のいずれか1つの地点にタッチ入力手段(例えば、指やスタイラスペン)を利用して接触する操作であり、タップは、いずれか1つの地点をタッチした後、タッチ入力手段の移動なしに当該地点でタッチ入力手段をタッチ解除(touch−off)する操作であり、ダブルタップは、いずれか1つの地点を連続的に2回タップする操作であり、ロングタップは、タップよりも相対的に長くタッチした後、タッチ入力手段の移動なしに当該地点でタッチ入力手段をタッチ解除する操作であり、ドラッグは、いずれか1つの地点をタッチした状態でタッチ入力手段を所定方向に移動させる操作であり、ドラッグアンドドロップは、ドラッグした後、タッチ入力手段をタッチ解除する操作であり、フリックは、弾くように、ドラッグに比べてタッチ入力手段を速く移動させた後、タッチ解除する操作を意味する。プレスは、タッチ入力手段でいずれか1つの地点をタッチした後、当該地点を押す操作である。すなわちタッチは、タッチスクリーンに接触(contact)している状態を意味し、タッチジェスチャーは、タッチがタッチスクリーンに接触(touch−on)してタッチ解除(touch−off)までのタッチの動きを意味する。タッチパネル111は、圧力センサーを具備し、タッチされた地点の圧力を感知することができる。感知された圧力情報は、制御部170に伝達され、制御部170は、感知された圧力情報に基づいてタッチとプレスを区分することができる。
【0022】
表示パネル112は、制御部170の制御下に、制御部170から入力された映像データをアナログ信号に変換して表示する。すなわち、表示パネル112は、装置100の利用による多様な画面、例えば、ロック画面、ホーム画面、アプリケーション(アプリ(App)と略称する)実行画面、キーパッドなどを表示することができる。ロック画面は、表示パネル112がオンとされれば、表示パネル112に表示される映像として定義されることができる。ロック解除のためのユーザジェスチャーが検出されれば、制御部170は、表示される映像をロック画面からホーム画面またはアプリ実行画面などに切り替える(changing)ことができる。ホーム画面は、多数のアプリに各々対応する多数のアイコンを含む映像として定義されることができる。
【0023】
多数のアプリアイコンのうち1つがユーザによって選択(例えば、アイコンをタップ)された場合、制御部170は、当該アプリ(例えば、インターネット、文書作成、チャット、文字伝送など)を実行し、その実行画面を表示パネル112に表示することができる。表示パネル112は、制御部170の制御下に、前記画面のうち1つを背景(background)で表示し、他の1つを前景(foreground)として前記背景にオーバーラップして表示することができる。例えば、表示パネル112は、アプリ実行画面を表示し、その上にキーパッドを表示することができる。
【0024】
表示パネル112は、制御部170の制御下に、多数の画面を表示することができる。例えば、表示パネル112は、タッチスクリーン110の第1スクリーン領域にキーパッドを表示し、タッチスクリーン110の第2スクリーン領域に前記キーパッドを通じて入力されたメッセージを表示することができる。
【0025】
表示パネル112は、液晶表示装置(Liquid Crystal Display:LCD)、OLED(Organic Light Emitted Diode)またはAMOLED(Active Matrix Organic Light Emitted Diode)で構成されることができる。
【0026】
キー入力部120は、数字または文字情報を入力され、各種機能を設定するための多数のキーを含むことができる。このようなキーは、方向キー、サイドキー及びショートカットキーなどを含むことができる。キー入力部120は、ユーザ設定及び装置100の機能制御と関連したキーイベントを生成し、制御部170に伝達する。キーイベントは、電源オン/オフイベント、ボリューム調節イベント、画面オン/オフイベントなどを含むことができる。制御部170は、このようなキーイベントに応答して前述した構成を制御する。また、キー入力部120は、多数のキーを含むクォティキーパッド(QWERTY ketpad)、3*4キーパッド、4*3キーパッドなどを含むことができる。キー入力部120は、タッチパネル111がフルタッチスクリーン形態で支援された場合、装置100のケース側面に形成される、画面オン/オフ、装置オン/オフまたはボリューム調節などのための1つ以上のサイドキーのみを含むこともできる。一方、キー入力部120のキーは、ハードキー(hard key)と言い、タッチスクリーン110に表示されるキーは、ソフトキー(soft key)と指称されることができる。
【0027】
格納部130は、制御部170の制御下に、装置100から生成(例えば、文字メッセージ、撮影映像)されるか、無線通信部140を通じて外部から受信したデータ(例えば、文字メッセージ、電子メール)を格納することができる。格納部130は、前記ロック画面、ホーム画面及びキーパッドなどを格納することができる。格納部130は、装置100の運営のための多様な設定値(例えば、画面明るさ、タッチ発生時に振動有無、画面の自動回転有無、背景イメージなど)を格納することができる。
【0028】
格納部130は、装置100の起動運用のための運営体制(OS、Operating System)、通信プログラム、イメージ処理プログラム、表示制御プログラム、ユーザインターフェースプログラム、ユーザ認識プログラム、人工知能プログラム、エンベデッドアプリケーション(embedded application)及びサードパーティアプリケーション(3rd party application)を含むことができる。
【0029】
通信プログラムは、無線通信部140を通じて外部装置と通信を可能にする命令語を含む。グラフィック処理プログラムは、タッチスクリーンに表示されるグラフィックを処理するための様々なソフトウェア構成要素(例えば、イメージのフォーマット変換、表示されるグラフィックのサイズ調節、レンダリング(rendering)及び表示パネル112のバックライトユニットの輝度決定などのためのモジュール)を含む。ここで、グラフィックは、テキスト、ウェブページ、アイコン、写真(picture)、動画及びアニメーションなどを含むことができる。また、グラフィック処理プログラムは、ソフトウェアコーデックを含むことができる。ユーザインターフェースプログラムは、ユーザインターフェースと連関された様々なソフトウェア構成要素を含む。
【0030】
ユーザ認識プログラムは、例えば、音声認識プログラムと顔認識プログラムを含んでなることができる。音声認識プログラムは、音声データから音声特徴情報(例えば、音色、周波数、デシベルなど)を検出することができる。音声認識プログラムは、検出された音声特徴情報をあらかじめ格納された1つ以上の音声特徴情報と比較し、比較結果に基づいてユーザが誰なのかを認識することができる。また、音声認識プログラムは、音声データをテキストに変換するSTT(Speech To Text)機能を具備することができる。顔認識プログラムは、カメラ180で撮影されたイメージからユーザの顔を認識する。具体的に顔認識プログラムは、イメージデータから顔情報を抽出し、抽出された顔情報をあらかじめ格納された1つ以上の顔情報と比較し、比較結果に基づいてユーザが誰なのかを認識することができる。一方、ユーザ認識は、前述した音声認識プログラムや顔認識プログラム以外にも、多様なプログラム(例えば、虹彩認識(iris scan)、静脈認識(vein recognition)、指紋認識(finger scan)などを通じて行われることができる。
【0031】
人工知能プログラムは、音声やイメージデータからユーザの意図を把握するためのプログラムである。例えば、人工知能プログラムは、音声データから文脈(context)を認識して処理する自然語処理エンジン(natural language processing engine)と、イメージデータからユーザのジェスチャーモーションの意図を把握するジェスチャーユーザモーション認識エンジンと、認識された文脈に基づいてユーザの意図を推論する推論エンジンと、認識された文脈やユーザモーションに基づいてユーザと話し合う対話エンジンなどを含んで構成されることができる。
【0032】
エンベデッドアプリケーションは、装置100に基本的に搭載されているアプリケーションを意味する。例えば、エンベデッドアプリケーションは、ブラウザー(browser)、電子メール(email)、インスタントメッセンジャー(instant messenger)などになることができる。サードパーティアプリケーションは、周知されているように、オンラインマーケットから装置100にダウンロードされて設置され得るアプリケーションを意味し、非常に多種多様である。このようなサードパーティアプリケーションは、設置及び除去が自由である。
【0033】
無線通信部140は、音声通話、画像通話またはデータ通信を制御部170の制御下に行う。このために無線通信部140は、送信される信号の周波数を上昇変換及び増幅する無線周波数送信部と、受信される信号の周波数を低雑音増幅及び下降変換する無線周波数受信部などを含むことができる。また、無線通信部140は、移動通信モジュール(例えば、3世代(3−Generation)移動通信モジュール、3.5世代(3.5−Generation)移動通信モジュールまたは4世代(4−Generation)移動通信モジュールなど)、デジタル放送モジュール(例えば、DMBモジュール)及び近距離通信モジュール(例えば、ワイファイ(Wi−Fi)モジュール)、ブルートゥース(bluetooth)モジュール)を含むことができる。
【0034】
オーディオ処理部150は、スピーカーSPK及びマイクMICと結合し、音声認識、音声複製、デジタルレコーディング(recording)及び電話機能のためのオーディオ信号の入力及び出力機能を行う。すなわち、オーディオ処理部150は、スピーカーSPKを通じてオーディオ信号を出力し、マイクMICを通じてオーディオ信号を入力されるための機能を行う。オーディオ処理部150は、制御部170からオーディオデータを受信し、受信したオーディオデータをアナログ信号にD/A変換した後、アナログ信号をスピーカーSPKに出力する。オーディオ処理部150は、マイクMICからアナログ信号を受信し、オーディオデータにA/D変換した後、オーディオデータを制御部170に提供する。スピーカーSPKは、オーディオ処理部150から受信されたアナログ信号を音波(sound wave)に変換して出力する。マイクMICは、人やその他音源(sound source)から伝達された音波をアナログ信号に変換する。
【0035】
センサー部160は、装置100の勾配変化、照度変化、加速度変化などのような多様な状態変化のうち少なくとも1つを検出し、制御部170に伝達することができる。センサー部160は、多様なセンサーよりなることができ、センサーは、制御部170の制御下に、電源が供給され、装置100の状態変化を検出することができる。センサー部160は、1つのチップ(chip)にセンサーが一体化されるか、またはセンサーが別途のチップで具現されることができる。具体的に、センサー部160は、加速度センサーを含むことができる。加速度センサーは、X軸、Y軸及びZ軸成分各々に対する加速度を測定することができる。加速度センサーは、ジャイロセンサーを含むことができ、これにより、装置100の動きがない場合、重力加速度を測定することができる。一例として、タッチスクリーン110が上(例えば、正のZ軸方向)に向けるようにXY平面に配置される場合、センサー部160によって検出される重力加速度でX軸及びY軸成分は、0m/sec2であり、Z軸成分は、+9.8m/sec2であることができる。タッチスクリーン110が裏返された場合、X軸及びY軸成分は、0m/sec2であり、Z軸成分は、−9.8m/sec2であることができる。加速度センサーは、装置100の動きがある場合、装置100の運動加速度と重力加速度が加えられた加速度を検出する。
【0036】
制御部170は、装置100の全般的な動作及び装置100の内部構成間の信号フローを制御し、データを処理する機能を行う。そして、制御部170は、バッテリーから内部構成への電源供給を制御する。
【0037】
制御部170は、CPU(central processing unit)とGPU(graphic processing unit)を含むことができる。周知されたように、CPUは、資料の演算及び比較と、命令語の解釈及び実行などを行うコンピュータシステムの核心的な制御ユニットである。GPUは、CPUの代わりに、グラフィックと関連した資料の演算及び比較と、命令語の解釈及び実行などを行うグラフィック制御ユニットである。CPUとGPUは、各々、2つ以上の独立コア(例えば、クアッドコア(quad−core)が単一集積回路よりなる1つのパッケージ(package)に統合されることができる。また、CPUとGPUは、1つのチップに統合(SoC;System on Chip)されたものであることができる。また、CPUとGPUは、マルチレイヤ(multi layer)にパッケージング(packaging)されたものであってもよい。一方、CPU及びGPUを含む構成がAP(Application Processor)と指称されることができる。
【0038】
本発明による多重入力の処理は、CPUのコアのうち少なくとも1つで行われることができる。また、多重入力の処理でグラフィックと関連した機能は、GPUで行われることもできる。例えば、GPUのコアのうち少なくとも1つがタッチジェスチャーに応答してペン文字を表示する機能を行うことができる。もちろん本発明による多重入力の処理は、GPU及びCPUの両方で行うこともできる。本発明による制御部170の機能は、以下で具体的に説明する。
【0039】
制御部170は、音声認識部を含むことができる。音声認識部は、オーディオ処理部150を通じてマイクMICから入力された音声情報から音声特徴情報(例えば、音色、周波数、デシベルなど)を検出し、これをあらかじめ格納された1つ以上の音声特徴情報と比較し、比較結果に基づいてユーザが誰なのかを認識する。また、制御部170は、顔認識部を含むことができる。このような顔認識部は、カメラ180から入力されたイメージデータから顔情報を抽出し、抽出された顔情報をあらかじめ格納された1つ以上の顔情報と比較し、比較結果に基づいてユーザが誰なのかを認識することができる。制御部170は、認識されたユーザにのみ制御権限を付与することができる。すなわち制御部170は、音声や顔が認識された場合にのみ反応することができる。また、音声認識部は、入力された音声情報において音声の特徴情報をテキストに変換し、テキストを利用してユーザの意図(すなわち特定キーワード(例えば、thicker、redなど)や文脈)を認識することができる。また、顔認識部は、イメージデータからユーザのモーションの意図を把握することができる。このような音声認識部と顔認識部のうち1つ以上は、装置100の内部に設けられる代わりに、外部のサーバーに設けられてもよい。
【0040】
カメラ180は、制御部170の制御下に、被写体を撮影し、制御部170に出力する機能を行う。具体的に、カメラ180は、光を集めるためのレンズと、このような光を電気的な信号に変換するイメージセンサー(例えば、CMOS(Complementary Metal Oxide Semiconductor)またはCCD(Charge Coupled Device)と、イメージセンサーから入力される電気信号を映像データにA/D変換し、制御部170に出力するイメージ信号処理部(Image Signal Processor;ISP)を含んでなることができる。カメラ180のISPは、映像データをプレビューイメージに加工(例えば、タッチスクリーン110の画面サイズに合わせて解像度を調節(resizing))し、制御部170に出力する表示制御モジュールと、映像データをコーディング(例えば、MPEGフォーマットに圧縮)し、制御部170に出力するコーディングモジュールをさらに含むことができる。制御部170は、プレビューイメージをタッチスクリーン110に表示することができる。また、制御部170は、コーディングされた動画を格納部130に格納することができる。
【0041】
一方、デジタル機器のコンバージェンス(convergence)傾向に伴い、変形が非常に多様なので、すべて列挙することはできないが、本発明による装置100は、GPSモジュール、振動モータ、カメラ、ハードウェアコーデック、外部機器(例えば、パソコンなど)と有線で連結するための有線通信部などのように、上記で言及しない構成をさらに含むことができる。また、本発明の装置100は、その提供形態によって前述した構成から特定の構成が除外されるか、他の構成に代替されてもよい。
【0042】
図2及び
図3は、各々本発明の一実施例による多重入力処理方法を説明するための流れ図及び画面例示図である。
【0043】
図2を参照すれば、段階210で、制御部170は、ユーザインターフェースのうち1つから第1ユーザ入力を検出する。例えば、第1ユーザ入力は、ハンドリング手段(例えば、手やペン)を利用して文字書き込み(handwriting)、ドローイング(drawing)またはペインティング(painting)を行うことができるようにするプログラムが実行中の状態で、タッチスクリーンに対するハンドリング手段の動きになることができる。具体的に
図3に示されたように、タッチスクリーン110は、ホーム画面310を表示する。制御部170は、ホーム画面310でメモ作成プログラムの選択(例えば、ペン320を利用してメモ作成プログラムのアイコン311をダブルタップ)を検出する(
図3(a)参照)。制御部170は、メモ作成プログラムの選択に応答してメモ作成画面330をタッチスクリーン110に表示する。制御部170は、メモ作成画面330に対する第1ユーザ入力、例えば、ペン320の動きを検出する。
【0044】
段階220で、制御部170は、第1ユーザ入力に応答して当該機能を行う。例えば、機能は、
図3(b)に示されたように、ペン320の動きに対応する文字「SELAB」を表示するものである。ここで、ペン320のようなハンドリング手段の動きに対応する機能は、文字書き込みに限定されるものではなく、ドローイング、ペインティング及び消去などのようにグラフィック作業と関連した機能のうち1つであることができる。ここで、消去は、文字書き込み、ドローイング及びペインティングなどによって作業された文字や絵を消す機能である。
【0045】
段階230で、制御部170は、第2ユーザ入力またはシステム入力の検出可否を決定する。ここで、第2ユーザ入力は、第1ユーザ入力を生成したユーザインターフェースではない他のインターフェースで発生したものであることができる。例えば、第1ユーザ入力がタッチスクリーン110で発生し、第2ユーザ入力は、マイクMIC及びセンサー部160のうち1つで発生したものである。一方、システム入力は、第1ユーザ入力を生成したユーザインターフェースではない他の所で発生したものである。前述したように、本発明において「システム入力」は、当該装置の外部環境(例えば、自然環境または通信環境)と関連した情報である。これにより、システム入力は、例えば、センサー部160または無線通信部140などで発生したものであることができる。
【0046】
第2ユーザ入力及びシステム入力のうち少なくとも1つが検出された場合、段階240で、制御部170は、検出された入力に応答して前記第1ユーザ入力によって行われた機能の属性を変更する。例えば、機能が文字書き込みである場合、文字の属性を変更するものになる。具体的に
図3(c)、(d)及び(e)を参照すれば、ユーザが「Line red、Line Thicker」と音声入力した場合、制御部170は、このような音声入力に応答して文字「software center」の属性を音声入力に対応するように変更する。すなわち制御部170は、文字の色相を赤色に変更し、そして文字を厚く変更する。システム入力、例えば、外部照度の変化が検出された場合(例えば、現在検出された外部照度の値が20Klux以上(野外に該当)である場合)、制御部170は、文字の色相を明るく変更し、相対的にその背景(すなわちメモ作成画面330)は、暗く変更することができる。
【0047】
一方、前記機能の変更を行うようにする第2ユーザ入力とシステム入力は、あらかじめ指定されることができる。このような指定は、例えば、環境設定画面でユーザによって設定されることができる。ここで、環境設定画面は、サウンド、明るさ、背景画面、ネットワークなどのように当該装置100の使用環境を設定することができるようにする画面である。また、このような指定は、製造社によって設定されることができ、ユーザによって変更が不可能であることがある。前述したように、機能がグラフィックと関連した作業である場合、第2ユーザ入力は、音声入力として指定され、システム入力は、外部照度の変化として指定されることができる。
【0048】
第2ユーザ入力が音声入力である場合、制御部170は、ユーザの意図を把握するために、音声情報を処理する時間が必要である。ここで、音声情報は、マイクMICを通じてオーディオ処理部150から入力されたものであり、処理は、音声情報を分析(例えば、音声情報をテキストに変換など)し、ユーザの意図を認識するものである。このような処理は、サーバーで行うことができる。すなわち無線通信部140は、音声情報を含む音声認識要請メッセージを制御部170から伝達されて、音声認識サーバーに伝送することができる。音声認識サーバーは、音声情報を処理し、その処理結果(すなわちユーザの意図)を含む応答メッセージを装置100に伝送することができる。このような音声処理時間の間にユーザの意図が反映されない状態で機能(例えば、文字書き込み)が行われることができる。例えば、
図3(c)〜(e)をさらに参照すれば、ユーザは、「SELAB」を書いた後、その後、文章は、さらに厚く、そして赤色で書こうとする意図で、前述したように、「Line red、Line Thicker」と音声命令する。ユーザは、このような音声命令と同時に「software center」を書くことができる。この際、「software center」において「soft」は、ユーザの意図が反映されないことがある。すなわちユーザは、タッチスクリーン110に文字を書きながらそれと同時に文字の属性を変更するように音声命令することができる。したがって、既に行われた機能でユーザの意図が反映されなければならない補正必要部分(すなわちユーザの意図が反映されない部分)があり得る。前記段階240は、このような補正プロセス(下記の
図4)を含むことができる。
【0049】
図4は、本発明の一実施例による機能の属性変更方法を説明するための流れ図である。
図5は、本発明の一実施例による補正必要部分の算出方法を説明するための図である。
図4及び
図5の説明は、ユーザがタッチスクリーン110に線を引くと同時に線の属性を変更するように音声命令する状況を仮定する。
【0050】
図4を参照すれば、段階410で、制御部170は、検出された音声情報を分析し、ユーザの意図を認識する。具体的に
図5を参照すれば、制御部170は、音声の開始時点t1を検出する。その後、制御部170は、音声の終了時点t2を検出する。制御部170は、この区間t2−t1の音声情報を分析し、ユーザの意図を認識する。ここで、ユーザの意図の認識は、前述したように、制御部170ではない外部装置である音声認識サーバーで処理されることができる。その後、制御部170は、ユーザの意図によって線引きの属性を変更する。例えば、タッチスクリーン110は、制御部170の制御下に、線を厚く変更して表示する。この際、ユーザが線を厚く変更しようと意図した時点は、t1であるが、ユーザの意図が実際適用される時点は、t3である。すなわちユーザの意図なら、ユーザの引く線は、時間t1である時から太く変更されなければならないが、前述したような処理時間の所要によって実際は、時間t3である時から適用される問題点がある。このような偏差は、以下のような手続によって補正されることができる。
【0051】
段階420で、制御部170は、既に行われた機能の補正が必要であるか否かを決定する。制御部170は、タッチスクリーン110からタッチジェスチャーの入力を検出する同時に、オーディオ処理部150を通じてマイクMICから音声情報の入力を検出した場合、補正が必要なものと決定する。すなわち第1ユーザ入力(ユーザジェスチャー)と第2ユーザ入力(音声情報)が同時に検出される場合、例えば、ユーザが線を引くと同時に、音声として命令する状況において、制御部170は、前記第1ユーザ入力によって既に行われた機能に対して補正が必要なものと決定することができる。制御部170は、タッチイベントの発生が完了した後、音声情報が発生したものなら(例えば、ユーザが線引き作業を仕上げた後、以後に進行する機能の属性を設定するために音声命令する状況である)、既に行われた機能(すなわち線引き)に対して補正が不要なものと決定することができる。
【0052】
補正が必要な場合、段階430で、制御部170は、既に行われた機能で補正必要部分を算出する。例えば、
図5を参照すれば、制御部170は、ユーザの発話時点t1を検出し、ユーザの意図を認識して適用した時点t3を検出する。そして、制御部170は、引かれた(表示された)線でt1からt3である時まで引かれた部分を補正必要部分として決定する。
【0053】
段階440で、制御部170は、補正必要部分にユーザの意図(すなわち線の厚さを太く)を反映する。例えば、制御部170は、t3以後に太くなった線の厚さ分だけ補正必要部分を厚く表示するように制御する。制御部170は、線引き方向に行くほど補正必要部分を次第に厚く表示するように制御することもできる。色相の補正の場合、制御部170は、t3以後に適用された線の色相を補正必要部分に適用することができる。制御部170は、t1以前の線の色相とt3以後に適用された線の色相を混合した色(赤色と青色の混合である紫色)を補正必要部分に適用することもできる。以上、制御部170は、太さ及び色相以外にも、明るさ、透明度などのような補正必要部分のグラフィック的な属性を、前記認識されたユーザ意図に基づいて補正することができる。
【0054】
図6は、本発明の他の実施例による多重入力処理方法を説明するための画面例示図である。
【0055】
図6を参照すれば、制御部170は、メモ作成画面610でペン620の動きを検出する。制御部170は、ペン620の動きによって線を表示するように制御する。表示された線が閉曲線630になった場合、制御部170は、
図6(a)に示されたように、閉曲線630内に色相(例えば、青色)を表示するように制御する。制御部170は、オーディオ処理部150を通じてマイクMICから音声情報の入力を検出する。制御部170は、入力された音声情報を分析し、ユーザの意図(例えば、閉曲線630の形態を楕円(ellipse)に変形)を認識する。制御部170は、ユーザの意図によって閉曲線630を楕円640に変形して表示するように制御する(
図6(b)参照)。
【0056】
図7は、本発明のさらに他の実施例による多重入力処理方法を説明するための画面例示図である。
【0057】
図7を参照すれば、制御部170は、メモ作成画面710でペン720の動きを検出する。制御部170は、ペン720の動きによって線を表示するように制御する。表示された線が閉曲線730になった場合、制御部170は、
図7(a)に示されたように、閉曲線730内に色相(例えば、青色)を表示するように制御する。制御部170は、センサー部160からモーション情報の入力を検出する。例えば、ユーザが装置100を振る場合、センサー部160は、これに対応するモーション情報を発生し、制御部170に伝達する。制御部170は、検出されたモーション情報を利用して速さ(speed)を算出する。そして、制御部170は、算出された速さが既に格納された臨界値を超過した場合、前記検出されたモーション情報が「閉曲線の形態を楕円に変形」を要請するユーザ入力であるものと決定する。前記決定によって制御部170は、閉曲線730を楕円740に変形して表示するように制御する(
図7(b)参照)。一方、前記検出されたモーション情報が「閉曲線の形態を楕円に変形」を要請するユーザ入力であるか否かを決定するための要素は、速さ以外に他の要素(例えば、動きの方向、移動距離など)をも考慮されることができる。このような要素は、環境設定でユーザによって設定されることができる。
【0058】
図8は、本発明のさらに他の実施例による多重入力処理方法を説明するための画面例示図である。
図8の説明は、ユーザがタッチスクリーン110に線を引く状況を仮定する。
【0059】
図8を参照すれば、制御部170は、タッチスクリーン110からハンドリング手段(例えば、手やペン)の動きを検出する。制御部170は、検出されたハンドリング手段の動きによって線を表示するように制御する。このような線引きの機能を行う間に、制御部170は、センサー部160からシステム入力(例えば、上下振動)を検出することができる。制御部170は、システム入力で速さを計算し、計算された速さが既に格納された臨界値を超過した場合、前記システム入力がユーザの意図しない入力として決定する。このような決定によって、制御部170は、前記システム入力が検出された時間の間に行われた機能(例えば、線引き)を補正必要部分として決定し、補正必要部分を前記システム入力が検出された時間の前及び後に行われた機能に基づいて補正する。例えば、制御部170は、
図8に示されたように、装置100の上下振動によって曲がっている線を直線に補正して表示する。一方、前記システム入力がユーザの意図しない入力であるか否かを決定するための要素は、速さ以外に他の要素(例えば、動きの方向、動いた距離)などをも考慮されることができる。
【0060】
以上、本発明は、同時に入力された多重入力を処理する方法及び装置を提供する。ここで、多重入力は、前述したように、互いに異なるユーザインターフェースを通じて入力されたユーザ入力であることができる。また、多重入力は、ユーザ入力とシステム入力を含むこともできる。また、本発明は、ユーザの意図が反映されない機能を補正する方法及び装置を提供する。また、本発明は、ユーザの意図しないシステム入力によって行われた機能を補正する方法及び装置を提供する。
【0061】
前述したような本発明による方法は、多様なコンピュータを通じて行われることができるプログラム命令で具現され、コンピュータで読み取り可能な記録媒体に記録されることができる。ここで、記録媒体は、プログラム命令、データファイル、データ構造などを含むことができる。また、プログラム命令は、本発明のために特別に設計され、構成されたものであるか、またはコンピューターソフトウェア当業者に公知されて使用可能なものであってもよい。また、記録媒体には、ハードディスク、フロッピー(登録商標)ディスク及び磁気テープのような磁気媒体(MagneticMedia)と、CD−ROM、DVDのような光記録媒体(Optical Media)と、フロプチカルディスク(Floptical Disk)のような磁気−光媒体(Magneto−Optical Media)と、ROM(Read Only Memory)と、RAMと、フラッシュメモリなどのようなハードウェア装置が含まれることができる。また、プログラム命令には、コンパイラーによって作われるもののような機械語コードだけでなく、インタプリターなどを使用してコンピュータによって実行されることができる高級言語コードが含まれることができる。ハードウェア装置は、本発明を行うために1つ以上のソフトウェアモジュールとして作動するように構成されることができる。
【0062】
本発明による方法及び装置は、前述した実施例に限定されず、本発明の技術思想が許容する範囲で多様に変形して実施することができる。