【解決手段】システムは、運動を検出するための奥行きセンサー10と、奥行きセンサーから検出された運動を受信し、検出された運動に基づいてジェスチャーを推測し、該ジェスチャーをフィルタリングして適用可能なジェスチャーを許容する機能を有するモーションソフトウェアモジュール18と、通信媒体14と、クライアントコンピュータ16とを有する。クライアントコンピュータは、適用可能なジェスチャーを受信して、適用可能なジェスチャーに基づいたクライアント論理回路にしたがってタスクを実行する。
前記検出された運動が、顔認証を用いて許可されていると判定された使用者によって実行されるものでない場合は、前記ジェスチャーをフィリタリングすることが、前記ジェスチャーを、適用できないものとしてフィルタリングアウトすることを含む、請求項1に記載のシステム。
前記クライアントコンピュータが前記適用可能なジェスチャーと共に音声入力に基づいて前記タスクを実行することを可能とするための前記音声入力を与える音声認識を更に含む、請求項1に記載のシステム。
前記クライアントがマッピング装置であり、前記タスクが、マップを回転させること、マップ上にズームインすること、マップを傾けること、及びマップをパンすることの1つである、請求項1に記載のシステム。
前記クライアントがマッピング装置であり、前記タスクが、マップを回転させること、マップ上にズームインすること、マップを傾けること、及びマップをパンすることの1つである、請求項7に記載の方法。
前記検出された運動が、顔認証を用いて許可されていると判定された使用者によって実行されるものでない場合は、前記ジェスチャーをフィルタリングすることが、前記ジェスチャーを、適用できないものとしてフィルタリングアウトすることを含む、請求項7に記載の方法。
音声認識を用いて音声入力を与える工程を更に含み、前記実行する工程が、前記適用可能なジェスチャーと共に、前記音声入力に基づいて行われる、請求項7に記載の方法。
装置のタッチフリー操作のための、請求項7〜11のいずれか1項に記載の方法を実行するために機械により実行可能な命令のプログラムを記憶するためのコンピュータ読み取り可能な記憶装置において、ジェスチャーを推測する前記工程がCPUを用いて実行される、記憶装置。
【発明を実施するための形態】
【0009】
装置のタッチフリー操作のための新規な方法が提供される。この新規な技術によれば、操作者はモニター、キーボード、マウスなどのいずれのコンピュータ装置にも触れずに装置の機能を実行することが可能である。
【0010】
図1に示されるように、一実施形態における本システムは、奥行きセンサー10、コンピュータ又はCPU 12、通信媒体14及びクライアントコンピュータ16を有している。CPU 12には動作検出ソフトウェアモジュール18が実装されていてもよい。クライアントコンピュータ16は、ターゲットソフトウェアモジュール20を制御することができる。クライアントコンピュータ16には通信クライアントモジュール22が実装されていてもよい。一実施形態では、システムは、マイクロフォン又はマイクロフォンアレイ28などの音声認識を更に含んでいてもよい。
【0011】
奥行きセンサー10は、通常は、画像を記録するだけではなく、更に奥行きを記録し、記録された画像の3D表現を可能とする奥行き認識カメラを含む。当業者には周知であるように、奥行きセンサーは、センサーからの奥行きマップを用いて、例えば、使用者の手のジェスチャーなどの動作、形、及び位置を推測するコンピュータに接続されている。医療現場では、使用者はシステムの操作者、一般的には医師でありうる。本発明の一実施形態では、奥行きセンサーは頭及び手の運動を追跡する。別の実施形態では、奥行きセンサーは、頭及び手を追跡するのみではなく、コンピュータスクリーン又はモニターに近づく、かつ/又はモニターから遠ざかる運動などの全体的な身体の位置も追跡する。一実施形態では、奥行きセンサー10は、Microsoft(登録商標)Kinect、ASUS(登録商標)Xtion PRO、ASUS(登録商標)Xtion PRO LIVEなどのモジュール又はミドルウェアによって実施することができる。1又は2以上の奥行きセンサーを並列して使用することで塞栓部の扱い、視野及び精度を拡張することができる。充分に細かい奥行きマップをリアルタイムで提供することが可能なカメラなどの任意のセンサーを取り付けて本システムと使用することができる。奥行きセンサーは、位置情報を取得し、この情報を下記に述べるようにして処理を行うためにCPU 12に転送する。当該技術分野では周知であるように、ソフトウェア及び奥行きセンサー10によって与えられるドライバーを用いてこの位置情報を取得することができる。
【0012】
CPU 12内の動作検出ソフトウェアモジュール又はモーションソフトウェア18が、奥行きセンサー10から、例えば、手、頭、足などの操作者の関連する身体の部分の位置などの位置情報を毎秒数回、取得する。それぞれの受容された動作及び/又は身体の位置は追跡され、短い運動履歴ファイル又はデータセットに保存される。
【0013】
モーションソフトウェアは、モーションソフトウェア18からの身体部分の運動として検出されたデータを、短い運動履歴のデータとともに用いてより複雑な運動を推測し、このデータを、手の前方への動き、手で円を描く動き、又は頭でうなずくといった意味のあるジェスチャーに処理するソフトウェアを含みうる。例えば、手の直線運動及び/又は円運動が検出され、パラメータが計算されることによって、これらの運動が定量化される。モーションソフトウェアは、運動の大きさ、運動が捉えられた時間、運動の速度及び/又は長さなどの特定の属性をそれぞれのジェスチャーと関連付ける。
【0014】
システムは、身体追跡技術を用いることによって、すなわち、最初の形態から開始して、使用者の個別の運動を追跡し、その特定の使用者による動作のみに対して応答がなされるようにすることによって、特定の使用者と関連付けることができる。例えば、身体の位置及び運動を追跡し、前のフレームにおける位置からの差異が充分に小さいかぎり、これらの運動は同じ人であると仮定される。このシステムは、奥行きセンサー内のカメラによる顔検出及び/又は認識を用いることによって特定の使用者と関連付けることもできる。このシステムは、顔検出及び/又は認識を用いてその身体がそれぞれの状態又は位置において認識された顔と関連付けられたものであることを確認することができる。これらの方法は、例えば、運動が小さい間は身体追跡を用い、不明確さが生じた場合には顔検出及び/又は認識を用いて正しい使用者を見つけた後、前と同様に継続するように組み合わせることができる。
【0015】
動作検出ソフトウェアモジュール18は、更に、どの動作又は運動を許容し、どれを適用不能、例えば、無効な、かつ/又は許可されていないものとして、無視又はフィルタリングする必要があるかを決定することが可能なフィルターを含みうる。無効な、例えば、無関係な動作とは、動作検出ソフトウェアモジュール18によって許容されない動作であってもよい。例えば、動作が小さすぎるか又は遅すぎて使用者の制御不能な自然な運動をフィルタリングできない場合には、この動作は無効又は無関係なものとされる。許可されていない動作とは、適正な使用者によって行われない動作、かつ/又は所定の条件にしたがって行われない動作のことである。例えば、安全及び/又はセキュリティーのため、特定の手の動きの間、かつ/又は手術中の所定の時間においてフットペダルを踏むなどの、対応するハードウェア装置による物理的入力及び/又は相互作用を必要とするようにしてもよい。複数のカメラが使用され、1個のカメラによって医師の全身像が捉えられる一実施形態では、その特定の医師が適当な物理的入力を与えたか否かを判定することができる。例えば、検出された動作に加えて物理的入力を必要とするなどのこうしたセキュリティー手段は、室内の人がシステムを勝手にいじろうとはしないだろうという信頼に基づいたものであるが、それよりもこのセキュリティー手段は、万が一、医師/使用者が誤って何らかのジェスチャーを行った場合に重大な機能が意図せずに行われることを防止する更なるセキュリティーを与えるものである。
【0016】
本システムにハードウェア装置を接続することによって、上記に述べたようなシステムによる望ましくない動作を防止することができる。これは医療用ソフトウェアでは非常に重要な意味を有しうる。例えば、フットペダルなどのハードウェア装置(図に示されていない)を、例えば、フットペダルが踏まれることなどの装置の動作を受信及び解釈し、これらの動作をクライアントの内部論理回路に用いる機能を担ったクライアントコンピュータ16に接続することができる。ハードウェア装置を動作検出及びそのソフトウェアを実行するCPU 12に接続することも可能であり、その場合、装置の状態を検出された動作とともに送信し、かつ/又は装置の状態に基づいて特定の動作をフィルタリングすることができる。
【0017】
フィルタリングされなかった動作は、通信媒体14を通じてクライアントコンピュータ16の通信クライアントモジュール20に送信される。通信媒体14は、シリアル、ローカルエリアネットワーク(LAN)、無線LAN(WLAN)、ブルートゥース、無線などであってもよい。
【0018】
クライアントコンピュータ16は、例えば、ジェスチャーなどの解釈された動作を受信する。ターゲットソフトウェアモジュール20は、受信された動作が有効か否かを判定する。無効な動作とは、ターゲットソフトウェアモジュール20内において定義されていない動作であってもよい。例えば、CARTO(登録商標)クライアントソフトウェアモジュールが作動している場合に、スクリーンに近づく動作をマップを傾けるものとして定義することが可能であるが、別のクライアントが作動している場合にはスクリーンに近づくこの動作を不適切又は無関係なものとして定義されないようにすることもできる。更に、無効な動作は、所定の前提条件が満たされないかぎり許可されないものとすることもできる。例えば、ハードウェア装置がクライアントコンピュータに接続されている場合、動作は、ハードウェア装置の動作と組み合わせて行われる場合にのみ許可又は有効とされるようにすることが可能であり、例えば、手を振る動作を、ハードウェア装置のフットペダルが踏まれている間にそれが行われる場合にのみ有効とすることができる。
【0019】
ターゲットソフトウェアモジュール20などのクライアント論理回路は、それぞれの認識された(例えば、有効な)ジェスチャーにどのように応答するかを決定する。例えば、ターゲットソフトウェアモジュール20が3次元(3D)マップを生成及び表示するグラフィックソフトウェアである場合には、クライアント論理回路は、マップを回転させる、マップの一部にズームインする、マップを傾けるなどのタスクを実行することが可能である。これにより、ジェスチャーが円を描く動作である場合にはクライアント論理回路がマップを回転させるタスクを実行し、ジェスチャーが押す動作である場合にはクライアント論理回路が使用者から遠ざかる方向にマップを傾けるなどのタスクを実行することをその論理回路を用いて、クライアントソフトウェアは決定することができる。
【0020】
本発明のシステムを操作するためには、使用者は、まず制御を行って、タッチフリー操作を作動する必要がある。制御を行うためには、使用者はシステムに使用者が指示を送信することを確認させる。次いで、システムは、上記に述べたように異なる手のジェスチャー及び/又は頭及び/又は他の身体の運動の形態である指示に応答する。制御は、それ以上の制御が必要でなくなるか、又はある期間の無運動状態が検出された時点で解除される。制御を行うことは、例えば、手を振る、頭を動かすなどの焦点合わせジェスチャーを用いるか、あるいは踏み込んでいる間の制御を可能とするフットペダルなどのハードウェアを使用するか、あるいは音声コマンドのいずれかによって実現することができる。
【0021】
システムによって検出される動作は、固定された機能は有していない。システムは、機能及び使用者がクライアントコンピュータ16を現在操作しているモードに基づき、それぞれのジェスチャー、形、又は運動にそのコンテキストに応じて意味を関連付ける。一実施形態では、クライアントは、ターゲットソフトウェアモジュールとしての3Dマッピング論理回路を有する3Dマッピングシステムであってもよい。この場合、例えば、使用者がレビューモードでクライアントを操作している間は頭の動きによってマップを回転させ、クライアントがFAM(高速解剖学構造マッピング)によって3Dモデルを構築している間は頭の動きによってマップをパンさせることができる。更に、ジェスチャーによって、3Dマップ又はポイントリスト(マップを構成するすべての点を含む)内の電気解剖学的な点を選択することができる。
【0022】
ジェスチャーに関連付けることができる更なる意味としては、ECGチャンネルを選択すること、及びその性質(チャンネルの利得)又はノーテーションを変化させることが挙げられる。
【0023】
タッチフリー制御が作動されている時間の間、使用者に対して視覚的指示を示すことができる。必要に応じて、タッチフリー制御の作動及び停止時に聴覚的指示を与えることもできる。
【0024】
一実施形態では、こうしたハンドフリー操作は、検出された動作とは別に、又はこれと組み合わせて音声入力によって補助することができる。例えば、Microsoft(登録商標)Kinectは周辺機器としてマイクロフォンを有し、認識された音声が来た方向を検出することができる。この及び/又は他の音声認識技術を用いて音声コマンドを捕捉し、使用者からの音声コマンドを選択的にフィルタリングすることができる。音声コマンドはジェスチャーと組み合わせることもできる。例えば、本発明がCARTO(登録商標)とともに使用される場合、使用者は「ポイントリスト」と発声し、次いで手を上下に動かすことによって各ポイントを通ってスクロールし、次いで握りこぶしを作ることでリストからあるポイントを選択することができる。別の例では、使用者は「ポイントビューアー」と発声し、次いで動きを用いてチャンネルを選択し、その性質を変化させることができる。また、「メインマップ」又は「セカンダリーマップ」と発声してから、マップを回転、ズーム、及び/又はパンすることもできる。クライアントコンピュータは、それぞれの動作が最も新しく認識された音声コマンドとの組み合わせで何を意味するかを決定するうえですべてのロジックを実行する。この実施形態の1つの形態では、音声コマンドのみの使用又はジェスチャーのみの使用によって特定のコマンドを実行することが可能であり、例えば、CARTO(登録商標)におけるポイントの取得を、ジェスチャーを行う必要なく「取得」と発声するだけで行うことができる。
【0025】
図2は、1つのコンピュータ26内にCPU及びクライアントコンピュータの両方のモジュールを有する実施形態を示したものである。
図2に示される実施形態のシステムは、
図1の要素と同じ機能を有する奥行きセンサー10、音声認識24、動作検出ソフトウェアモジュール18、及びターゲットソフトウェアモジュール20を有している。しかしながら、この実施形態では、1つのみのコンピュータ26が使用され、ターゲットソフトウェアモジュール20がクライアント通信モジュールを含んでいる。本発明は、
図1又は
図2の構成に限定されるものではない。それぞれが1又は2以上のモジュールを有する複数のCPUを使用することも可能である。
【0026】
図3は、システムと相互作用を行う使用者を示している。
図3では、奥行きセンサーに向かって手を振っており、奥行きセンサーはこの手の振りを検出している。例えば、こうした手の振りのような使用者の動作は、例えば、ターゲットソフトウェアモジュールなどのクライアントソフトウェアの現在作動中のモードに基づいて解釈される。例えば、ソフトウェアがレビューモードにある場合に手の振りによってマップを回転させたり、又はソフトウェアが作動していない場合に手の振りによってこれを作動させることができる。
【0027】
図4は、システムとの別の相互作用を示している。
図4では、使用者は奥行きセンサーに対して握りこぶしを作っており、奥行きセンサーは使用者の手が握りこぶしを作ったことを検出している。上記に述べたように、使用者の動作は、クライアントソフトウェアの現在作動中のモードに基づいて解釈される。
【0028】
図5は、本発明の方法のフローチャートである。工程S1では、通常、使用者は、動作、音声コマンドを実行するか又はフットペダルを踏み込むことにより、タッチフリー制御システムの制御を行う。工程S2では、位置の変化を含む運動が奥行きセンサー10によって検出されてCPU 12に送信される。工程S3では、CPUは短い運動及び/又は位置変化の履歴を追跡及び保存する。工程S4では、CPU 12は、モーションソフトウェアを使用して、短い履歴に基づいて受信された動作からより複雑な運動又はジェスチャーを推測する。工程S5及びS6では、フィルタリングが行われる。工程S5では、その運動が予測された位置の範囲内であるか否かを判定し、かつ/又は顔認識を行うことによって、そのジェスチャーが許可された、又は適正な使用者によって行われているか否かが判定される。ジェスチャーが許可された使用者によるものと判定された場合(S5=YES)には、処理は工程S6に進み、ここでCPUによってジェスチャーが確認される。ジェスチャーが確認された場合(S6=YES)には、ジェスチャーはクライアントコンピュータに送信され、工程S3において更なる動作追跡が再び開始される。工程S7では、ジェスチャーは、クライアントコンピュータ上の通信クライアントモジュールにおいて受信される。ジェスチャーが作動しているターゲットソフトウェアモジュールによって認識された場合(S8=YES)、工程S9においてクライアントコンピュータは装置の機能又は動作、例えば,タスクを、推測されたジェスチャーに基づいたクライアント論理回路又はターゲットソフトウェアモジュールにしたがって実行する。これらのタスクには、ズーミング、軸上での回転などによって3Dマップの異なる像を取得することが含まれるが、これらに限定されるものではない。モーションソフトウェアがジェスチャーをクライアントコンピュータに送信した時点で(S6=YESである場合)、モーションソフトウェアは、次の検出された動作及び/又は身体の位置に対する応答に戻る。
【0029】
一実施形態では、許可された運動を行うことは、運動が別の装置などのハードウェアと併せて行われるか否かを判定することを必要とする。この実施形態では、許可された運動は、ソフトウェアによって推測された複雑な運動と、フットペダルを踏み込むなどの更なる動作とを含まなければならない。このような許可は、S5=YESである場合には、工程S5の後に、更に工程S6の前に行うことができる。
【0030】
検出された運動が許可された使用者によって行われていない(S5=NO)か、検出された運動が有効なものではない(S6=NO)場合には、処理は工程S3で継続する。ジェスチャーがクライアントソフトウェアによって認識されない場合(S8=NO)、タスクは実行されない。
【0031】
本発明のシステムによれば、頭部追跡及び/又は他の動作検出技術を用いて手術室の装置によりタスクを実行することが可能となり、医師又は他のシステムの使用者がカテーテルの操作に両手を使いながら特定の動作を行うことができるために有利である。本システムは、ジェスチャーをフィルタリングし、許可された人員に対してのみ送ることが可能であるために効果的である。これにより、システムは意図された使用者によってのみ制御される。他者による手のジェスチャー及び頭の運動、並びに他の動作は無視することができる。
【0032】
本開示の様々な態様は、コンピュータ又は機械によって使用又は読み取り可能な媒体中に実施又は記憶されたプログラム、ソフトウェア、又はコンピュータ命令によって実施することが可能であり、こうしたプログラム、ソフトウェア、又はコンピュータ命令がコンピュータ、プロセッサー、及び/又は機械上で実行されると、コンピュータ又は機械が本方法の各工程を行う。機械によって実行可能な命令のプログラムを実体的に実施することによって本開示に述べられる様々な機能及び方法を行う、例えば、コンピュータ読み取り可能な媒体などの機械によって読み取り可能なプログラム記憶装置もまた提供される。
【0033】
本開示のシステム及び方法は、汎用コンピュータ又は特殊な目的のコンピュータシステム上で実施又は実行することが可能である。コンピュータシステムは、任意の種類の周知の又は将来的に周知となるであろうシステムであってもよく、プロセッサー、メモリー装置、記憶装置、入力/出力装置、内部バス、及び/又は、他のコンピュータシステムと通信するための通信用インターフェースを通信用ハードウェア及びソフトウェアなどとともに一般的に含みうる。本システムは、口語表現でクラウドとして知られるバーチャルコンピュータシステム上で実施することも可能である。
【0034】
コンピュータ読み取り可能な媒体とはコンピュータ読み取り可能な記憶装置であり、例えば、これは磁気的、光学的、電子的、電磁的、赤外線、又は半導体システム、装置、若しくは機器、又は上記のものの任意の適当な組み合わせであってもよいが、コンピュータ読み取り可能な記憶装置はこれらの例に限定されるものではない。コンピュータ読み取り可能な記憶装置の更なる特定の例としては、ポータブルコンピュータフロッピーディスク、ハードディスク、磁気記憶装置、ポータブルコンパクトディスク読み出し専用メモリー(CD−ROM)、ランダムアクセスメモリー(RAM)、読み出し専用メモリー(ROM)、消去可能プログラム可能読み出し専用メモリー(EPROM又はフラッシュメモリー)、1又は2以上の配線を有する電気的接続、光ファイバー、光学的記憶装置、又は上記のものの任意の適当な組み合わせが挙げられるが、コンピュータ読み取り可能な記憶媒体もまた、これらの例に限定されるものではない。命令実行システム、装置又は機器によって、又はこれらとともに使用されるプログラムを格納又は記憶することが可能なあらゆる実体的な媒体がコンピュータ読み取り可能な記憶装置となりうる。
【0035】
本出願において使用しうるところの「コンピュータシステム」及び「コンピュータネットワーク」なる用語には、据え置き型及び/又は携帯型のコンピュータハードウェア、ソフトウェア、周辺機器、及び記憶装置の様々な組み合わせが含まれうる。コンピュータシステムは、ネットワーク化されるか又は他の態様で接続されることによって協働して動作する個別の構成要素を含むか、又は1又は2以上のスタンドアローンの構成要素を含みうる。本出願のコンピュータシステムのハードウェア及びソフトウェア構成要素は、デスクトップ、ラップトップ、及び/又はサーバなどの据え置き型又は携帯型の装置、並びにサーバのネットワーク(クラウド)を含み、これらに含まれうる。モジュールとは、ソフトウェア、ハードウェア、ファームウェア、電子回路などとして実施することが可能な、特定の「機能」を実行する装置、ソフトウェア、プログラム、又はシステムの構成要素でありうる。
【0036】
上記に述べた実施形態は説明のための例であり、本発明はこれらの特定の実施形態に限定されるものとして解釈されるべきではない。したがって、当業者であれば、付属の特許請求の範囲において定義される本発明の趣旨及び範囲から逸脱することなく様々な変更及び改変を行うことが可能である。
【0037】
〔実施の態様〕
(1) 装置のタッチフリー操作を行うためのシステムであって、
運動を検出するための奥行きセンサーと、
前記奥行きセンサーから前記検出された運動を受信し、前記検出された運動に基づいてジェスチャーを推測し、前記ジェスチャーをフィルタリングして適用可能なジェスチャーを受け取るように作動可能なモーションソフトウェアモジュールと、
前記適用可能なジェスチャーをクライアントコンピュータにて受信して前記適用可能なジェスチャーに基づいたクライアント論理回路にしたがってタスクを実行するように作動可能なクライアントソフトウェアモジュールと、を含むシステム。
(2) 前記クライアントがマッピング装置であり、前記タスクが、マップを回転させること、マップ上にズームインすること、マップを傾けること、及びマップをパンすることの1つである、実施態様1に記載のシステム。
(3) 前記運動が、頭部の動作、手の動作、及び身体の動作の少なくとも1つであり、前記ジェスチャーが短い履歴に基づいて更に推測される、実施態様1に記載のシステム。
(4) 前記検出された運動を前記適用可能なジェスチャーとするためのハードウェアを更に含む、実施態様1に記載のシステム。
(5) 前記適用可能なジェスチャーが、顔認識を用いて許可を有すると判定された使用者によって行われる前記検出された運動、及び前記クライアント論理回路にしたがって認識されるジェスチャーの1又は2以上である、実施態様1に記載のシステム。
(6) 前記ジェスチャーのフィルタリングが、前記ジェスチャーが許可されたものであり、かつ有効なものであるか否かを判定することによって実行される、実施態様1に記載のシステム。
(7) 前記適用可能なジェスチャーを前記クライアントコンピュータにて受信するためのクライアント通信モジュールを更に含む、実施態様1に記載のシステム。
(8) 前記クライアントが前記適用可能なジェスチャーと共に音声入力に基づいて前記タスクを実行することを可能とするための前記音声入力を与える音声認識を更に含む、実施態様1に記載のシステム。
(9) 装置のタッチフリー操作のための方法であって、
奥行きセンサーを使用して運動を検出する工程と、
前記検出された運動に基づいてジェスチャーを推測する工程と、
前記ジェスチャーをフィルタリングして適用可能なジェスチャーを受け取る工程と、
前記適用可能なジェスチャーをクライアントにて受信する工程と、
前記適用可能なジェスチャーに基づいたクライアント論理回路にしたがってタスクを実行する工程と、を含む、方法。
(10) 前記クライアントがマッピング装置であり、前記タスクが、マップを回転させること、マップ上にズームインすること、マップを傾けること、及びマップをパンすることの1つである、実施態様9に記載の方法。
【0038】
(11) 前記運動が、頭部の動作、手の動作、及び身体の動作の少なくとも1つであり、前記ジェスチャーが短い履歴に基づいて更に推測される、実施態様9に記載の方法。
(12) ハードウェアが作動している間に前記適用可能なジェスチャーが行われる、実施態様9に記載の方法。
(13) 前記適用可能なジェスチャーが、顔認識を用いて許可を有すると判定された使用者によって行われる前記検出された運動である、実施態様9に記載の方法。
(14) 前記適用可能なジェスチャーが、前記クライアント論理回路にしたがって認識されるジェスチャーである、実施態様9に記載の方法。
(15) 音声認識を用いた音声入力を提供する工程を更に含み、前記実行する工程が、前記適用可能なジェスチャーと共に前記音声入力に基づいて行われる、実施態様9に記載の方法。
(16) 前記ジェスチャーをフィルタリングする工程が、前記ジェスチャーが許可されたものであり、かつ有効なものであるか否かを判定する工程を含む、実施態様9に記載の方法。
(17) 装置のタッチフリー操作を行うための方法を実行するために機械により実行可能な命令のプログラムを記憶するためのコンピュータ読み取り可能な記憶装置であって、前記方法が、
奥行きセンサーを使用して運動を検出する工程と、
CPUを使用して、前記検出された運動に基づいてジェスチャーを推測する工程と、
前記ジェスチャーをフィルタリングして適用可能なジェスチャーを受け取る工程と、
前記適用可能なジェスチャーをクライアントにて受信する工程と、
前記適用可能なジェスチャーに基づいたクライアント論理回路にしたがってタスクを実行する工程と、を含む、装置。
(18) 前記クライアントがマッピング装置であり、前記タスクが、マップを回転させること、マップ上にズームインすること、マップを傾けること、及びマップをパンすることの1つである、実施態様17に記載のプログラム。
(19) 前記運動が、頭部の動作、手の動作、及び身体の動作の少なくとも1つである、実施態様17に記載のプログラム。
(20) 前記適用可能なジェスチャーが、ハードウェアが作動している間に行われる動作、及び顔認識を用いて許可を有すると判定された使用者による動作の1つである、実施態様17に記載のプログラム。
【0039】
(21) 前記ジェスチャーをフィルタリングする工程が、前記ジェスチャーが許可されたものであり、かつ有効なものであるか否かを判定する工程を含む、実施態様17に記載のプログラム。
(22) 音声認識を用いた音声入力を提供する工程を更に含み、前記実行する工程が、前記適用可能なジェスチャーと共に前記音声入力に基づいて行われる、実施態様17に記載のプログラム。