IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ ティーケーアンドエイチ ホールディング エーエスの特許一覧

<>
  • 特表-ジェスチャ検出システム 図1
  • 特表-ジェスチャ検出システム 図2
  • 特表-ジェスチャ検出システム 図3
  • 特表-ジェスチャ検出システム 図4
  • 特表-ジェスチャ検出システム 図5
  • 特表-ジェスチャ検出システム 図6
  • 特表-ジェスチャ検出システム 図7a
  • 特表-ジェスチャ検出システム 図7b
  • 特表-ジェスチャ検出システム 図8
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公表特許公報(A)
(11)【公表番号】
(43)【公表日】2023-04-05
(54)【発明の名称】ジェスチャ検出システム
(51)【国際特許分類】
   G06F 3/01 20060101AFI20230329BHJP
   G06F 3/0362 20130101ALI20230329BHJP
   G09B 21/00 20060101ALI20230329BHJP
【FI】
G06F3/01 570
G06F3/0362 464
G09B21/00 E
【審査請求】未請求
【予備審査請求】未請求
(21)【出願番号】P 2022574850
(86)(22)【出願日】2021-02-16
(85)【翻訳文提出日】2022-10-12
(86)【国際出願番号】 EP2021053735
(87)【国際公開番号】W WO2021165242
(87)【国際公開日】2021-08-26
(31)【優先権主張番号】20200205
(32)【優先日】2020-02-17
(33)【優先権主張国・地域又は機関】NO
(31)【優先権主張番号】20200912
(32)【優先日】2020-08-18
(33)【優先権主張国・地域又は機関】NO
(81)【指定国・地域】
【公序良俗違反の表示】
(特許庁注:以下のものは登録商標)
1.Linux
2.BLUETOOTH
(71)【出願人】
【識別番号】522327212
【氏名又は名称】ティーケーアンドエイチ ホールディング エーエス
(74)【代理人】
【識別番号】100079108
【弁理士】
【氏名又は名称】稲葉 良幸
(74)【代理人】
【識別番号】100109346
【弁理士】
【氏名又は名称】大貫 敏史
(74)【代理人】
【識別番号】100117189
【弁理士】
【氏名又は名称】江口 昭彦
(74)【代理人】
【識別番号】100134120
【弁理士】
【氏名又は名称】内藤 和彦
(72)【発明者】
【氏名】オスタッド,トム
(72)【発明者】
【氏名】ズワルト,ハンズ
【テーマコード(参考)】
5B087
5E555
【Fターム(参考)】
5B087AA09
5B087AB02
5B087AB13
5B087BC05
5B087BC12
5B087BC13
5B087BC31
5B087DD02
5B087DD03
5E555AA11
5E555AA76
5E555BA38
5E555BB38
5E555BC01
5E555BE08
5E555CA08
5E555CA27
5E555CA31
5E555CA42
5E555CA44
5E555CA47
5E555CB05
5E555CB06
5E555CB07
5E555CB55
5E555CB66
5E555CC01
5E555DA08
5E555DA23
5E555DD06
5E555EA09
5E555FA00
(57)【要約】
本発明は、指がセンサ表面に近いか又はセンサ表面に接触しているか、若しくはセンサ表面から上げられるか、若しくはセンサ表面から離れて移動されるときと、センサ表面にわたる指の運動の方向とを感知するように構成された線形容量性スライダセンサを含むジェスチャ検出システムを開示し、指がセンサ表面から離れて上げられると、感知面にわたる指運動の組み合わせは、ジェスチャ検出システムにより、検出可能ジェスチャとして解釈される。
【特許請求の範囲】
【請求項1】
少なくとも1つの線形容量性スライダセンサを含むジェスチャ検出システムであって、前記少なくとも1つの線形容量性スライダセンサのセンサ表面は、コンピュータ制御デバイスの外面上に一体化可能であり、前記容量性スライダセンサは、前記センサ表面の1つの端から、前記第1の端に対向する第2の端に前記センサ表面上の長手方向に沿って移動する指の運動を検出するように構成され、
- 前記ジェスチャ検出システムは、前記センサ表面にわたる異なる検出された指運動パターンを異なるジェスチャとして解釈するように構成され、
- それぞれの指運動の組み合わせのそれぞれの1つの前記解釈は、少なくとも1つの指運動が、前記第1の端部と前記第2の端部との間の任意の方向において前記センサ表面にわたって検出された後、指が前記センサ表面の前記第1の端又は前記第2の端で上げられていることを前記線形容量性スライダセンサが検出するときに行われる、ジェスチャ検出システム。
【請求項2】
加速度計は、前記ジェスチャ検出システムの一部であり、前記加速度計によって登録された規定数のタッピングは、前記線形容量性スライダセンサ表面上の検出された指運動を認定するために使用される、請求項1に記載のシステム。
【請求項3】
前記加速度計によって登録された規定数のタッピングは、検出されたジェスチャの結果として前記コンピュータシステム内で実行される命令をリセットする、請求項2に記載のシステム。
【請求項4】
前記加速度計によって登録された規定数のタッピングは、検出されたジェスチャの結果として実行される命令のパラメータを初期化する、請求項2に記載のシステム。
【請求項5】
少なくとも2つの独立した線形容量性スライダセンサを含む、請求項1に記載のシステム。
【請求項6】
それぞれの各線形容量性スライダセンサによって互いに独立して検出された指運動を解釈するように構成される、請求項5に記載のシステム。
【請求項7】
前記それぞれの検出された指運動の組み合わせとして、それぞれの各線形容量性スライダセンサによって検出された指運動を解釈するように構成される、請求項5に記載のシステム。
【請求項8】
第1のジェスチャは、前記センサ表面の前記第1の端部から前記第2の端部に向かって移動する指によって定義され、前記指は、前記第2の端部に隣接して位置するときに上げられていることを検出される、請求項1に記載のシステム。
【請求項9】
第2のジェスチャは、前記センサ表面の前記第2の端部から前記第1の端部に向かって移動する指によって定義され、前記指は、前記第1の端部に隣接して位置するときに上げられていることを検出される、請求項1に記載のシステム。
【請求項10】
第3のジェスチャは、前記センサ表面の前記第1の端部から前記第2の端部に向かって移動する指によって定義され、前記指は、前記第2の端部から前記第1の端部に向かって戻り、前記指は、前記指が、前記第1の端部に隣接する前記センサ表面上の場所に戻っていることが検出されるときに上げられていることを検出される、請求項1に記載のシステム。
【請求項11】
第4のジェスチャは、前記センサ表面の前記第2の端部から前記第1の端部に向かって移動する指によって定義され、前記指は、前記第1の端部から前記第2の端部に向かって戻り、前記指は、前記指が、前記第2の端部に隣接する前記センサ表面上の場所に戻っていることが検出されるときに上げられていることを検出される、請求項1に記載のシステム。
【請求項12】
いずれのジェスチャが検出されているかを指示する音声メッセージを有して構成される、請求項1に記載のシステム。
【請求項13】
前記コンピュータ制御デバイスにおいて実施される行為を指示するメニューツリー内のナビゲーション命令に関連付けられたジェスチャを識別するように構成される、請求項1に記載のシステム。
【請求項14】
第1の定義されたジェスチャは、前記メニューツリー内の上方向ナビゲーションのためのものであり、第2の定義されたジェスチャは、前記メニューツリー内の下方向ナビゲーションのためのものである一方、第3の定義されたジェスチャは、前記メニューツリー内のメニュー項目を選択するためのものである、請求項13に記載のシステム。
【請求項15】
前記センサ表面の幅は、指のサイズに適応される、請求項1に記載のシステム。
【請求項16】
前記コンピュータデバイスは、眼鏡フレーム内に一体化され、及び少なくとも1つの線形容量性スライダセンサは、1つの眼鏡アーム内に一体化される、請求項1に記載のシステム。
【請求項17】
前記線形容量性スライダセンサは、前記コンピュータ制御デバイスの外壁の内部に埋め込まれる、請求項16に記載のシステム。
【発明の詳細な説明】
【技術分野】
【0001】
技術分野
本発明は、感知面にわたって移動する指の運動の方向を感知することができる少なくとも感知面を含むジェスチャ検出システムに関する。
【背景技術】
【0002】
背景
本発明によるジェスチャ検出システムは、汎用システムである。それぞれのジェスチャと、特定の命令又はある機能の活性化などとの関連性は、ジェスチャ検出システムが接続されるシステムの機能性に依存する。
【0003】
ジェスチャ検出システムの本説明は、補聴システムの眼鏡フレームに言及し、眼鏡フレームは、埋め込み型マイクロホンと、デジタル信号プロセッサ(DSP)等を制御するシステムオンチップ(SOC)コンピュータシステムとを含む。補聴システムの眼鏡フレームシステムへの言及は、本発明のジェスチャ検出システムが有益に接続され得る複雑なシステムの単に一例である。
【0004】
補聴システムの眼鏡フレームのこの例は、部分的聴力損失を有するが、視覚に関する追加的な問題を必ずしも有しない人により使用され得る。このような場合、眼鏡フレームは、単に、例えば眼鏡フレーム内に埋め込まれるマイクロホンのビーム形成を単純化し得る支持構造である。人間の耳内の挿入可能イヤホンは、眼鏡フレームシステムと無線通信し得る。ビーム形成は、例えば、本発明の接続されたジェスチャ検出システムによって検出される特殊なジェスチャに対応するように構成され得る。
【0005】
人が、視覚に関する追加的な問題を有する場合、眼鏡フレームは、読書問題などを緩和する適応型眼鏡を支持し得る。加えて、眼鏡フレームは、ごみ箱などの様々な物体を検出するように構成可能な埋め込み型ビデオカメラを含み得、本システムは、眼鏡フレームの装着者のそれぞれの耳内に挿入可能なイヤホンに無線で送信される音声メッセージなどの可聴メッセージを眼鏡フレームの装着者に提供し得る。
【0006】
現代のコンピュータシステムは、様々なタスクを有する人を補助する多様な先進ソフトウェアアプリケーションにより構成され得る強力なマシンである。マン-マシン通信は、ほとんどの場合、従来技術において知られているように、例えば接触感知面及び/又はディスプレイ上のグラフィックオブジェクトと相互作用するマウスデバイスに依存するように進化してきた。
【0007】
コンピュータ及び他の電子コンピューティングデバイスの入力デバイスとしての接触感知面の使用が近年著しく増加してきた。最も一般的には、接触感知面を表示面に追加することである。このようにして、例えば表示されるシンボルと接触との組み合わせが実現され得る。例示的な接触感知面は、コンピュータ及びスマートフォンなどの上のタッチパッド及びタッチスクリーンディスプレイを含む。このような面は、ディスプレイ上に提示される電子文書内でカーソルを操作することにより電子文書を精査及び編集し、様々な実装された機能(特定用途プログラムなど)間で選択するために広範に使用されている。一例は、国際公開第2016/148875A2号に開示されている。
【0008】
従来技術において関心のある別の代替領域は、マシンビジョンベースヒューマン-マシン相互作用である。例えば、米国特許第9104242B2号は、映像フレームの順序付けられたタイムスタンプシーケンス中に複数の画像を取得する工程、複数の画像から複数の手のひら状画像を取得する工程、複数の手のひら状画像のそれぞれから、開いた又は閉じた手のひらジェスチャを説明する複数の特徴を抽出する工程、複数の特徴の各特徴の最大差により形成される最大特徴差異ベクトルを計算する工程及び開いた又は閉じた手のひらジェスチャが検出され得ることを最大特徴差異ベクトルに基づいて判断する工程を含む、手のひらジェスチャ認識方法を開示している。
【0009】
従来技術において関心のある別の代替領域は、マン-マシン相互作用において使用される音声認識である。例えば、米国特許第10347246B2号は、音声認識を使用することにより、ユーザ要求行為を実行するための方法及び装置を開示している。この方法は、ユーザ機能実行画面を表示すること、音声入力に従って実行される機能を確認すること、確認された機能に対応する音声命令をユーザ機能実行画面上に表示すること、音声認識実行要求が連続的に受信されている間にユーザにより音声入力を認識すること及び認識された音声入力が、表示された音声命令の少なくとも1つである場合、入力音声命令に関連付けられた機能を実行することを含む。
【0010】
日本特許第6514599B2号は、眼鏡フレームの前側に位置する指向性マイクロホンを支持する眼鏡フレームを開示している。全方向性マイクロホンがそれぞれの左及び右眼鏡アーム上に設けられる。ラウドスピーカもそれぞれの左及び右眼鏡アーム上に設けられる。左眼鏡アーム上の接触感知センサは、センサに接触することによって指向性マイクロホンの活性化を制御するように構成され、音声信号がラウドスピーカに送信される。
【0011】
いかなるマン-マシン通信システムも双方向通信チャネルを提供するべきである。例えば、システム又はマシンは、マン-マシン通信システムを使用することにより、メッセージを指示又は情報のいずれかとしてオペレータに伝えることができるべきである。
【0012】
眼鏡フレームを装着する人にグラフィック情報を提供する例は、例えば、第1及び第2の面を有する眼鏡レンズを開示する米国特許第8177361B2号に示されており、ここでは、眼鏡レンズの少なくとも第1の面は、主要部ゾーン及び少なくとも1つのプリズムゾーンを有する。第1の面の主要部ゾーンは、眼鏡レンズの対向する第2の面と共に、眼鏡レンズの主要部(少なくとも所定の距離における視覚のために設計される)を形成する。第1の面のプリズムゾーンは、眼鏡レンズの対向する第2の面と共に、ディスプレイの光学画像が眼鏡装着者の眼の前の所定の仮想距離において形成されるように設計及び配置されるプリズム部を形成する。
【0013】
マン-マシン相互作用システムのこれらの例は、低下した視力を有する人によっても使用され得る例えば補聴システムの眼鏡フレームに関して、いくつかの明白な欠点を有する。低下した視力を有する人の眼の視野内にグラフ表示の形式の障害物を追加することは、おそらくよい考えではない。視力の損失をある程度緩和する適応された眼鏡を人が有したとしても、この眼鏡は、例えば、車を運転するように適応され得るか、又は読書することに適応される。光学的3次元ジェスチャ検出も同様であり得る。低下した視力を有する人は、見ることが困難であり得、例えば手のある運動又は回転を学習する必要があり、この運動が学習される場合、この人は、ジェスチャ検出システムがジェスチャを認識することに失敗しても、特殊なジェスチャを表す正しい運動が行われることを理解する必要がある。さらに、例えば部分的聴力損失を有する人が公共領域において最適な方法で補聴システムを使用することを停止し得る手運動の光学的検出を使用することは、合理的な操作ではない。例えば、空中で指を立てるようないくつかのジェスチャは、実施することが確かに可能ではない。
【0014】
ジェスチャ検出システムに関する別の一般的な問題は、接続されたマシン又はコンピュータシステムにおいて区別され、及び様々な命令又は行為に関連付けされ得る多くの様々なジェスチャである。
【0015】
したがって、改善されたジェスチャ検出システムの必要性がある。
【発明の概要】
【発明が解決しようとする課題】
【0016】
本発明の目的
特に、本発明の目的は、センサ表面にわたる指の運動の検出を提供する少なくとも線形容量性スライダセンサを含むジェスチャ検出システムを提供することと見なされ得る。
【0017】
本発明のさらなる目的は、従来技術に対する代替物を提供することである。
【課題を解決するための手段】
【0018】
概要
したがって、上述の目的及びいくつかの他の目的は、少なくとも1つの線形容量性スライダセンサを含むジェスチャ検出システムを提供することにより、本発明の第1の態様において取得されるように意図され、少なくとも1つの線形容量性スライダセンサのセンサ表面は、コンピュータ制御デバイスの外面上に一体化可能であり、容量性スライダセンサは、センサ表面の第1の端から、第1の端に対向して配置された第2の端にセンサ表面上の長手方向に沿って移動する指の運動を検出するように構成され、
- ジェスチャ検出システムは、センサ表面にわたる異なる検出された指運動パターンを異なるジェスチャとして解釈するように構成され、
- それぞれの指運動の組み合わせのそれぞれの1つの解釈は、少なくとも1つの指運動が、第1の端部と第2の端部との間の任意の方向においてセンサ表面にわたって検出された後、指がセンサ表面の第1の端又は第2の端で上げられていることを線形容量性スライダセンサが検出するときに行われる。
【0019】

ここで、本発明によるジェスチャ検出システムを、添付図面を参照してより詳細に説明する。添付図面は、本発明の実施形態のいくつかの例を示すが、添付の特許請求の範囲に入る他の可能な実施形態を限定すると解釈されてはならない。さらに、実施形態のそれぞれの例は、それぞれ実施形態の他の例の任意のものと組み合わされ得る。
【図面の簡単な説明】
【0020】
図1】聴覚システムの一例を示す。
図2図1に示す例の正面図を示す。
図3図2に示す例のさらなる詳細を示す。
図4】マイクロホンビーム形成の一例を示す。
図5】ビーム形成の別の例を示す。
図6】ビーム形成の別の例を示す。
図7a】本発明の実施形態の一例を示す。
図7b】本発明の実施形態の一例を示す。
図8】本発明がその一部であり得るハードウェア構成の一例を示す。
【発明を実施するための形態】
【0021】
詳細な説明
本発明は、規定された実施形態に関連して説明されているが、決して本例に限定されると解釈されるべきでない。本発明の範囲は、添付の特許請求の範囲により設定される。特許請求の範囲に関連して、用語「含んでいる」又は「含む」は、他の可能な要素又は工程を排除しない。また、「1つの(a)」又は「1つの(an)」などの参照子の言及は、複数のものを排除すると解釈されるべきでない。添付図面において指示される要素に関する、特許請求の範囲における参照符号の使用も本発明の範囲を限定すると解釈されないものとする。さらに、様々な請求項において言及される個々の特徴は、場合により有利に組み合わされ得、異なる請求項におけるこれらの特徴の言及は、特徴の組み合わせが可能ではなく、有利ではないことを排除しない。
【0022】
本発明は、多くのタイプのシステムに接続され得る汎用ジェスチャ検出システムに向けられる。以下の説明では、眼鏡フレームを含む補聴システムは、本発明のジェスチャ検出システムが有益に接続され得る複雑なシステムの単に一例として使用される。
【0023】
本発明の一態様は、ジェスチャ検出システムのユーザからの視覚的相互作用を必要としないジェスチャ検出システムを提供することである。上記の眼鏡フレームを参照すると、この態様は、ユーザが指によりセンサ表面を接触することによって活性化され得るセンサ表面を眼鏡フレームの眼鏡アーム内に一体化することを可能にする。
【0024】
現代の集積回路技術は、それぞれの回路の小サイズウェハ上に増加された複雑性及び機能性を提供し、いくつかのセンサと、補聴システムの、例えば眼鏡フレーム内の少なくとも1つのSOC(システムオンチップ)及び少なくとも1つのDSP(デジタル信号プロセッサ)を含む埋め込み型コンピュータシステムとの一体化を可能にする。多くのSOCシステムは、LINUXオペレーティングシステムによって支援され、様々なタイプのセンサ及びDSP回路を支援するLINUXデバイスドライバが同様に利用可能である。
【0025】
このようなジェスチャ検出システムの例示的な目的は、眼鏡フレームシステム内又はより一般的にコンピュータ制御デバイス内で動作するアプリケーションプログラムの機能性を制御及び/又は修正することである。例えば、ビーム形成は、埋め込み型SOCシステム内で動作するプログラムの制御下で埋め込み型DSPにおいて行われ得、眼鏡フレームの前部が向く方向(すなわち視覚方向に対応する)又は例えば特定の命令等のジェスチャ検出によって定義される他の方向であるように構成され得る。特殊なジェスチャ入力は、例えば、視覚方向に対するビーム形成ローブの方向を修正するために使用され得るか、又は例えばビーム形成ローブの幅は、例えば、より広く又はより小さくなるように調整され得る。
【0026】
他のタイプのセンサ(例えばジャイロセンサ、測距センサなど)が眼鏡フレーム内に埋め込まれ得、このようなセンサ出力は、例えば、マイクロホンビーム形成が行われるべきであるときに常にSOCシステムが行うように構成され得る判断ループの一部であり得る。ジェスチャ制御入力は、例えば、判断ループ及び/又はどのようにそれぞれのセンサが機能するかを変更し得る。例えば、埋め込み型ジャイロスコープセンサのコンパス方位を零度に設定することは、特殊なジェスチャ入力が眼鏡フレームの装着者により行われた場合に眼鏡フレームの眼鏡前部が向いている方向である相対位置として行われ得る。
【0027】
部分的聴力損失を有する人が追加的な視覚問題を有する場合、眼鏡フレームは、眼鏡フレームの装着者の視覚を強化するように構成され得る埋め込み型ビデオカメラを含み得る。埋め込み型ビデオシステムは、街路上のごみ箱、接近する車、さえずる鳥などの一般的な物体の輪郭を検出するように構成され得、SOCシステムは、それぞれの対象物を指示する可聴音声メッセージを眼鏡フレームの装着者の外耳道内の挿入可能イヤホンを介して眼鏡フレームの装着者に伝えるように構成され得る。様々な物体を認識するこの可能性は、例えば、鳥の鳴き声及び鳥に対する方向から鳥を識別するためのいくつかのビーム形成シナリオでも利用され得る。ジェスチャ制御入力は、例えば、ビーム形成を、視覚方向から離れる鳥の方向に提供するか、又はビデオカメラなどの視界からズームアウト若しくはズームインすることを提供するために使用され得る。
【0028】
しかし、ビーム形成は、部分的聴力損失を有する人がその一部である聴力シナリオのタイプにも依存する。例えば、会話は、例えば、部分的聴力損失を有する人と他の人との間のものであり得、狭いビームローブを必要とし得る。
【0029】
別のタイプの聴力シナリオは、部分的聴力損失を有する人が、例えば、何人かの他の人と共に会議に参加する場合のものであり得、より広いビームローブを必要とし得る。
【0030】
したがって、眼鏡フレームの装着者からのジェスチャ入力により活性化され得る2つ以上の空間的ビーム形成ローブが必要であり得る。さらに、眼鏡フレームシステムは、上に例示された様々なシナリオのいくつかの必要性を反映する様々なビーム形成ローブにより構成され得る。ジェスチャ入力検出を介して、特定のマイクロホンビーム形成ローブを提供する特定のシナリオを変更又は選択することが可能である。
【0031】
別のシナリオは、列車に乗り、自分の前に座っている人物に話しかける場合のものであり得る。本発明によるビーム形成は、正確であり得、これにより前の人との良好な可聴的接触を可能にする。このような鋭角的ビーム形成は、不利な面も有する。例えば、何らかの紙を見つける(切符などを探す)ために屈む必要がある場合、この行為は、いくらかの時間がかかり得る。この期間中、鋭角的ビーム形成は、床に下向きになり、可聴的接触が失われ得る。
【0032】
したがって、マイクロホンビーム形成は、本発明による眼鏡フレームシステムを装着する頭の運動に依存し得る。埋め込み型ジャイロセンサがこのような運動を検出するために使用され得、本システムは、このような移動が検出される場合、前に座っている人及び床に腰を下ろした人の両方をカバーするようにマイクロホンビーム形成ローブを修正するように適応され得る。頭が上方に動くことが検出されると、元のビーム形成ローブが再び活性化され得る。狭いマイクロホンビームローブは、1人に話しかける際に効率的であるが、マイクロホンビーム形成ローブに依存する人の頭の一定の安定性を必要とする。頭運動に起因して人との可聴的接触を失った人からのジェスチャ入力は、当初計算されたマイクロホンビーム形成ローブから離れる運動の程度を検出するジャイロスコープセンサからの測定値を考慮するマイクロホンビーム形成ローブを生成し得る。人が自らの頭を元の位置に戻すと、ジェスチャ入力は、マイクロホンビーム形成ローブをその当初計算された形式に回復し得る。
【0033】
図1は、眼鏡フレーム10を含む補聴システムの典型的構成を示す。眼鏡フレーム10は、眼鏡アームの外カバーが除去されて示されている。眼鏡アーム内部には、DSP回路、Bluetooth通信インターフェース、SOCチップ(システムオンチップ)のようなコントローラ等のプログラム可能エレクトロニクスが配置される。電池及び他の必要な論理/エレクトロニクスも、眼鏡アーム内及びまた場合により眼鏡を保持する眼鏡フレームの前部の内部に埋め込まれる。眼鏡フレームの内部に埋め込まれるDSP回路は、両方の眼鏡アーム(すなわち左及び右眼鏡フレーム)の内部に埋め込まれ得、これにより2つのDSP回路が使用され得る。このような状況では、2つのDSP回路の1つは、通常、マスタデバイスとして構成され、及び他のDSP回路は、スレーブデバイス(すなわちマスタデバイスにより制御される)として構成される。マスタDSPデバイスは、人の耳道内に挿入され得るイヤホン46(又は耳内ヘッドホン)と無線で通信する。ジェスチャ制御入力は、例えば、それぞれのDSP回路の動作を変更し得る。
【0034】
例えば、ジェスチャ検出システムは、眼鏡フレームの2つの眼鏡アームのそれぞれの中に埋め込まれ得る。
【0035】
モバイルフォン47も本発明による補聴システムの一部であり得る。図1において、イコライザとしての役割を果たすモバイルフォン内のアプリケーションプログラムであって、ユーザ規定イコライザ設定を眼鏡フレーム10の内部のシステムに伝達するアプリケーションプログラムが示されており、例えば、SOC回路は、イヤホン46に無線で提出される音声信号に対する要求周波数変更を採用するようにDSP回路に指示するか、又はDSP回路を再プログラムする。しかし、モバイルフォンの使用は、ユーザが著しい視覚問題を有しないことを必要とする。ユーザが自らのモバイルフォンを忘れるか又は失えば別の問題が存在するであろう。
【0036】
本発明によるジェスチャ制御システムは、このような問題を解決し得る。
【0037】
図2を参照すると、眼鏡フレーム10の前面12が示されている。眼鏡前部12の上部上において、眼鏡フレームの前部に対して前方向に向く4つのデジタル全指向性マイクロホン13a、13b、13c、13dが構成される。これらのマイクロホンは、ブロードサイドマイクロホンアレイとして配置され得る。加えて、鼻梁の真上に位置する眼鏡フレームの前部内に埋め込まれたビデオカメラ15がある。眼鏡フレームの前部の各角部において、眼鏡アーム19、19aが眼鏡フレーム10の前部12に接続される眼鏡前部12上の場所に隣接して、一方の角にマイクロ波トランスデューサ11が、及び反対の位置にマイクロ波マイクロホン14がある。マイクロ波トランスデューサ11により発射されたマイクロ波は、例えば、人間の顔により反射され、マイクロ波マイクロホン14により受信され得る。マイクロ波の発射から検出までの経過時間を測定することにより、眼鏡の装着者が見ている例えば人間の顔までの距離が計算され得、例えばビーム形成アルゴリズムにおいて使用され得る。このような距離測定は、検出されたジェスチャにより開始され得る。
【0038】
図3は、眼鏡フレーム10のアーム19の構成の一例を示す。図3の例では、マイクロホンブロードサイドアレイとして配置され得る6つの全指向性マイクロホン13e、13f、13g、13h、13i、13jが配置される。加えて、接近する物体又は人までの距離又は眼鏡フレームの装着者のごく近傍にある物体又は人までの距離を測定するために使用され得るマイクロ波トランスデューサ11a及びマイクロ波マイクロホン14aがある。6つのマイクロホン13e、13f、13g、13h、13i、13jのマイクロホンビーム形成の一部であることに加えて、距離測定は、本発明による眼鏡フレームの内部に埋め込まれるソーシャルディスタンスブザーアプリケーションの一部でもあり得る。
【0039】
図3は、本発明による眼鏡フレームの装着者がジェスチャ検出センサ表面18に触れ、及び指を、ジェスチャ検出センサ表面18を横切らせることのみにより、眼鏡フレームの構成されたシステムと相互作用することを可能にするジェスチャ検出センサ表面18を含む眼鏡アーム表面の領域18も示す。本発明の一態様は、本発明によるジェスチャ検出システムを含む眼鏡フレームの装着者の視覚方向を変更する必要性なしにジェスチャ検出を可能にすることである。
【0040】
ジェスチャ検出センサ表面18は、指が表面に接触しているか又は表面に近いことを感知し、及びセンサ表面にわたる指の運動の方向を検出するように構成される。図7bを参照すると、指がセンサ表面18の第1の端部18aに隣接する位置からセンサ表面18の第2の端部18bに隣接する場所に移動する場合、これは、例えば、センサ表面18にわたる前進運動であると定義され得、第2の端部18bから第1の端部18aへの運動は、センサ表面18にわたる指の後退運動として定義され得る。
【0041】
第1の端部18aからの指の前方への運動(例えば、指の先端の運動)は、指が上げられ、及び指が第2の端部18bの隣にあると終了し得る。この運動は、特定の検出可能ジェスチャとして検出可能である。指が、第1の端部18bに隣接する場所で上げられて後退運動が終了する場合、これは、第2の特定の検出可能ジェスチャである。第2の端部18bにおいて終わる前方への運動が、指が上げられることなく後退運動を続ける場合、指の運動が方向を変更するときが第3の特定の検出可能ジェスチャである。後退運動が、指が上げられることなく前進運動により終了する場合、指の運動の方向が変化するときが第4の特定の検出可能ジェスチャであるなどである。
【0042】
本発明の実施形態の一例では、感知センサ18は、スライダ型の容量性型センサである。この場合、指が例えばセンサ表面に物理的に接触している必要はない。容量の変化は、定義された閾値レベルとセンサ信号レベルとの比較により内部的に認定され得る、このようなセンサの基礎である。これは、センサ表面が例えば眼鏡アーム19、19aの外面の背後にあることと、指の存在を依然として検出することとを可能にする。線形容量性スライダセンサのスライダアーキテクチャは、センサ表面にわたる運動の検出を、センサ表面に接触すること又は指をセンサ表面の真上若しくはコンピュータ制御デバイスの外壁の背後のみで動かすことのいずれかによって可能にする。
【0043】
センサ表面18の幅は、指先の幅に適応され得る。
【0044】
したがって、本発明のジェスチャ検出の一般的な概念は、少なくとも1つのセンサ表面にわたる指の運動方向の検出を提供すること、及び同時に移動された際に指が上げられたかどうかを検出することができることである。
【0045】
上に論述された眼鏡フレームの例では、2つのセンサ表面18(眼鏡フレーム10の眼鏡アーム19内に1つ及び眼鏡フレーム10の他の眼鏡アーム19a内に1つ)が存在する可能性がある。
【0046】
第1の眼鏡アーム19の第1のセンサ表面及び第2の眼鏡アーム19aの第2のセンサ表面は、互いに独立に動作するか、又は互いに依存して解釈されるかのいずれかであるように構成され得る。
【0047】
指の運動の前方方向は、上に詳述されたように定義され得る(すなわち前進運動及び後退運動)。センサ表面18の第1の端部18a及び第2の端部18bの具体的な言及は、前進運動が第2の端部18bから第1の端部18a方向へのものであり、及び後退運動が第1の端部18aから第2の端部18b方向のものである可能性を排除しない。
【0048】
2つのセンサ表面が独立に動作するように構成される場合、各眼鏡アーム上の各センサ表面は、前進運動のみ、前進運動及び後退運動、又は後退運動のみ、又は後退運動及び前進運動を解釈するように構成され得る。大文字の「及び(AND)」は、論理演算の及びを意味し、すなわち、それぞれの運動は、運動の方向のそれぞれの変更中に指を上げることなく行われる。したがって、前進のみと、前進及び後退との間の区別は、指の運動の方向が変化する場合に指が上げらたことが検出されたか否かである。この簡単な方式は、4つの異なるジェスチャを区別する。各センサ表面18は、第1の眼鏡アーム19上に配置され得、他のセンサ表面18は、眼鏡フレーム10の第2の眼鏡アーム19a上に配置され得る。他のアーム上の他のセンサ表面が他のセンサ表面から独立に動作するように構成される場合、ジェスチャ検出システムは、指運動を検出する2つのセンサ表面により認定されなかった8つの異なるジェスチャを区別し得る。
【0049】
どのようにそれぞれのセンサ表面が動作するか(独立に又は組み合わせでのいずれかで)は、ジェスチャシステムに両方のセンサ表面上で検出されたジェスチャの組み合わせを解釈するように指示する特殊なジェスチャを解釈することにより、センサ表面の1つからアクセス可能なメニュー選択により選択され得る。デフォルトは、個人的解釈であり得る。
【0050】
2つのセンサ表面が、組み合わせジェスチャとして各センサ表面上で検出されたそれぞれのジェスチャを解釈するように構成される場合、以下の組み合わせが可能である。
センサ1:センサ2:
前進:運動なし
後退:運動なし
前進及び後退:運動なし
後退及び前進:運動なし
運動なし:前進
運動なし:後退
運動なし:前進及び後退
運動なし:後退及び前進
前進:前進
前進:後退
後退:後退
後退:前進
【0051】
この方式は、最大12個の異なる検出可能ジェスチャを提供する。
【0052】
前進運動、及び後退運動、及び前進指運動又は後退運動、及び前進運動、及び後退指運動からなる運動を必要とする運動パターンを追加することも可能である。
【0053】
これは、以下からなる追加の8個の検出可能運動パターンを追加し得る。
センサ1:センサ2:
前進、及び後退、及び前進:運動なし
後退、及び前進、及び後退:運動なし
運動なし:前進、及び後退、及び前進
運動なし:後退、及び前進、及び後退
前進、及び後退、及び前進
前進、及び後退、及び後退
後退、及び前進、及び前進
後退、及び前進、及び後退
【0054】
本発明の別の態様によれば、加速度計は、本発明によるジェスチャ検出システムの一部であり得る。加速度計は、眼鏡フレーム10のアーム上の指のタッピングを検出するように構成され得る。したがって、上に定義された可能なジェスチャのそれぞれは、例えば、2回のタップ又は3回のタップにより認定され得る。これは、異なる検出可能ジェスチャの数を20から40に2倍にするであろう。このとき、ジェスチャ検出は、ジェスチャ自体がセンサ表面18上に印加される前に眼鏡アーム上の2回又は3回のタップにより開始することになる。
【0055】
例えば、上に論述された眼鏡フレームの例において、様々な音声メッセージを構成することは、本発明の範囲内である。SOCコンピュータシステムは、挿入可能イヤホンを介して眼鏡フレームのユーザに無線音声メッセージを送信するように構成され得る。このようにして、本発明のジェスチャ検出システムは、特殊なジェスチャが、そのジェスチャを開始するユーザに音声メッセージが送信されることをもたらし得る双方向通信システムを提供する。
【0056】
この選択肢は、様々な方法で利用され得る。例えば、図7aに示すように、複雑なシステムのメニューシステムは、主メニュー、ルートメニューA、ルートメニューB、ルートメニューC(ツリー構造のメニュー内のルートメニュー)のリストとして実装され得、それぞれの命令又は行為のリスト及び活性化(例えば、サブメニューla)は、構成されたコンピュータシステムの制御下にある。例えば、上に論述された眼鏡フレームシステムのようなシステムが開始すると、構成されたSOCシステムからの音声メッセージは、例えば、左眼鏡アーム上のセンサ表面上で指を前進させようにユーザに告げ得る。次に、メニューシステムは、動作し始め、ユーザは、図7aにおいて下方向矢印により示唆されるように、繰り返し前進移動によりルートメニュー間で移動し得るか、又は例えば水平方向矢印により図7aに示すように、ルートメニューAからルートメニューCに移動し得る。各ルートメニューの名前は、それぞれの音声メッセージを介してユーザに伝えられ得る。ユーザがルートメニューの1つ(例えば、ルートメニューB)を選択すると、ユーザがルートメニューBにいることをシステムにより告げられた後、ユーザは、例えば、ルートメニューBが選択されたことをシステムに信号伝達するために前進及び後退ジェスチャを使用し得る。このとき、サブメニューが利用可能であり、ユーザは、サブメニューの間を(例えば、サブメニューIBからサブメニュー/Bに)移動するために前進移動をさらに行い得る。ユーザがメニューツリー内で余りに遠く下方に移動する場合、ユーザは、例えば、メニューツリー内で上方に移動するために後退運動を使用し得る。これは、それぞれのルートメニュー間の運動にも適用される。
【0057】
様々なサブメニューは、特定の命令又は行為を開始するために、上に例示されたようなより複雑なジェスチャを必要とし得る。いずれにしても、システムからの音声メッセージは、いずれのジェスチャが使用される必要があるかをユーザに通知し得る。加速度計及びタッピングパターンの使用は、例えば、選択された命令などをリセットし得る。タッピングは、例えば、ビーム形成ローブ内で使用されるパラメータのパラメータ値を追加するためにも使用され得る。このような操作も音声メッセージを介してユーザに伝えられ得る。
【0058】
したがって、事前記録された音声メッセージが、本発明によるジェスチャ検出システムを含むマン-マシン相互作用システムの一部である場合、多くの検出可能な異なるジェスチャは、限定された数の異なるジェスチャであり得る。図7aに示す例では、前方向定義運動及び指を上げることと、後退運動及び指を上げることと、前進運動及び後退運動(それぞれの前進運動と後退運動との間に指を上げることのない)とは、この例では、唯一の必要なジェスチャである。補聴システムの一部である眼鏡フレーム内で利用され得るジェスチャ検出のいくつかの例が以下に続く。
【0059】
ビデオカメラ15は、本発明による眼鏡フレーム10の前側12に埋め込まれ得る。図4は、ビデオカメラ15を中間部(不図示)内に含むマイクロホンアレイ20の側面図を示す。ビデオカメラは、例えば、マイクロホンアレイ20からの距離23におけるカメラ15に向けられた側面24を有する音源である物体を見る。この距離は、物体24の前部を横切る面までであるように示される。距離23の測定は、例えば、マイクロ波トランスデューサ14及びマイクロ波受信マイクロホン11により行われ得る。マイクロ波がマイクロホンにより受信されるまでのマイクロ波の発射間のタイムラプスは、距離を計算するために使用され得る。
【0060】
物体24の高さは、物体24の高さを表す面と共に面内の三角形(3次元の円錐である(すなわち、円錐は、物体24からの音声を聴く際の所望のビーム形成ローブを表す))を構成する側線22、25の傾斜を定義する。図4に示すように、ビーム形成ローブ26は、上に論述したように三角形の内部に配置される。ビーム形成アルゴリズムのパラメータの適切な選択により削除又は低減され得るいくつかのサイドローブも示される。音源までの距離が変化する場合、例えば眼鏡フレームシステムの装着者が音源に向かって移動している場合、ビーム形成ローブは、例えば、音源の高さの遠近による増加を考慮するためにより広くあるべきである。これは、特殊なジェスチャの制御下であり得る。
【0061】
図5は、参加者がテーブルの周囲に座る会議に典型的なシナリオを示す。人Bは、本発明による眼鏡フレーム10を装着している。ビデオカメラ15、ビデオ画像処理は、人C、D、E、Fがカメラの視界内にいることを検出し得る。人Aも会議に参加しているが、ビデオカメラ15の視界の外側にいる。人Bにより支持された眼鏡フレーム10の右眼鏡アーム19上には、上に論述したようなマイクロホンアレイがある。眼鏡フレーム10のアーム上に配置されたそれぞれのマイクロ波デバイス11a、14aにより距離測定を行う可能性もある。したがって、人Aに面する眼鏡アーム19上に位置するマイクロホンアレイに基づくビーム形成が可能である。これは、眼鏡フレームの両側で行われ得る。これにより、眼鏡フレームは、異なる方向に向く3つの異なるビーム形成ローブにより構成され得る。それぞれのローブの数の選択及びローブの他のパラメータ設定は、ジェスチャ制御を介して行われ得る。
【0062】
本発明の実施形態の一例では、ジャイロスコープデバイスは、本発明による眼鏡フレームシステムの一部であり得る。ジャイロスコープが、上に論述したように、頭の方向の変化を検出すると、ローブの幅を変更して、これによりすべての人B、C、D、E、F、Gを含むローブを増加させることが可能である。
【0063】
すべてのこれらの状況では、眼鏡フレームの装着者は、例えば、ビーム形成、ビーム形成ローブの方向等の様々な変更を表す様々なジェスチャを入力する必要であり得る。
【0064】
図6は、それぞれの方向28、31に向いている2つのマイクロホンビーム形成ローブ27、30の例を示す。ローブ28は、視覚方向29に対して角度αを有する方向に向けられる。上に論述されたように、ジャイロスコープセンサにおける「零」角度は、特殊なジェスチャを介して初期化され得る。他のローブ方向31は、視覚方向29に対して角度βを有する。これらの設定は、特殊なジェスチャ入力を介して行われ得る。
【0065】
本発明の一態様によると、ジェスチャ検出システムは、2つの眼鏡アームの少なくとも1つのアームの外面上に配置された少なくとも1つの第1の感知面を含む。2つの眼鏡アームの少なくとも1つのアーム内の埋め込み型加速度計と組み合わせて、複数の異なる単純なジェスチャは、眼鏡フレームの構成されたシステムにより区別及び検出され得、これにより、眼鏡フレーム内に埋め込まれたシステムのセンサ、デバイス及び構成された機能性の様々な行為又は非活性化と、センサの行為又は非活性化及び構成された機能性の修正とに関連付けられる。事前記録された音声メッセージと組み合わせて、様々な検出可能ジェスチャの数が制限され得る。
【0066】
図8は、図1に示すような眼鏡フレームの内部に埋め込まれる機能デジタル回路及び機能ブロックを含む眼鏡フレームシステムの実施形態の一例を示す。
【0067】
例えば、デジタルマイクロホン13は、例えば、8つのデジタルマイクロホンから音声入力を受信し得るタイプのAnalog Devices社ADAU1787の音声信号プロセッサ54に接続され得るタイプTDK ICS-41251であり得る。上に論述されたように、眼鏡フレーム内に2つ(各眼鏡フレーム内に1つ)のDSPデバイスがあり得、実施形態の一例では、1つの眼鏡アーム内に埋め込まれた6つのマイクロホンは、同じアーム内に埋め込まれたDSP54に接続可能にされることになる。加えて、眼鏡フレームの前部内に埋め込まれた4つのマイクロホンの2つは、同じDSP54により制御されることになる。別の眼鏡アームが他の眼鏡フレーム内の6つのマイクロホン+眼鏡フレームの前の4つのマイクロホンの残りの2つを制御することになる。TDK ICS-41251マイクロホンに関する情報は、https://www.invensense.com/products/digital/ics-41351/に見出すことができる。
【0068】
ADAU1787は、リンクhttps://www.analog.com/en/products/adau1787.html#product-overviewに開示されたビーム形成能力を有する。
【0069】
Analog devices社は、グラフィックユーザインターフェースを介してビーム形成を容易にするユーザアプリケーションプログラムも供給している。このようなグラフィックユーザインターフェースも、モバイルフォン47内に設置され得るアプリケーションプログラムとして入手可能である。
【0070】
加えて、ADAU1787は、上に論述されたユーザプロファイル及び/又は様々な補聴器モードにおいて定義された様々なユーザ選択可能選択肢の支援を可能にする完全プログラム可能DSPデバイスである。
【0071】
それぞれのデジタル機能システムブロックを制御するコントローラ32は、コンピュータのすべての機能部品を含む集積回路であるSOC(システムオンチップ)と呼ばれるタイプの回路であり得る。SOC 32の使用は、本発明によるジェスチャ検出システムと通信する眼鏡フレームシステムの動作面を構成するソフトウェアを開発することをはるかに簡単にする。
【0072】
図8は、本システムが加速度計41を含み得ることをさらに示す。加速度計41の機能面は、例えば、眼鏡フレーム上の指の接触を検出することである。このような接触は、マイクロホンによって拾われた雑音を生成し、本システムは、本システム内に鋭角的雑音を生成することになることが知られている。本発明の実施形態の一例によると、加速度計検出は、本システムのマイクロホン又は任意の他の好適な電子部品の短いミュートを生じ得る。実施形態のいくつかの例では、眼鏡フレームは、いくつかのプッシュボタン41と共に構成され得る。このようなプッシュボタン41の活性化は、イヤホン46に到達するボタン行為からの短いミュート停止雑音を生じることになる。
【0073】
図8に示す例示的な実施形態は、容量センサタイプであり得る少なくとも1つのジェスチャ検出センサ18を含む。多くの場合に線形スライダ検出器と称されるセンサが使用され得る。補間による容量性接触スライダ実装を示す図4を参照して、リンクhttps://www.fujitsu.com/downloads/MICRO/fme/articles/fujitsu-whitepaper-capacitive-touch-sensors.pdfを参照されたい。
【0074】
上記の論述を参照すると、加速度計は、指が眼鏡フレームに接触しているときに常に音声ストリームのミュートをトリガすることになる。接触がメニュー選択ジェスチャの一部である場合、ミュートは、指がセンサ表面から上げられると終了する。
【0075】
図8に示すシステムは、ジャイロスコープ40も含み得る。本発明の実施形態のいくつかの例において使用され得る、いくつかの知られたジャイロスコープがある。
【0076】
本発明の実施形態の一例では、SOCシステム32は、ジャイロスコープ40により与えられる視覚方向のコンパス方位を識別するように構成される。次に、SOCシステム32は、眼鏡フレーム10の前方のコンパス方位にビーム形成を行うように音声DSP 45を指示するように構成される。このようにして、ビーム形成は、眼鏡フレーム10の装着者が見ている方向に向けられる。
【0077】
眼鏡フレーム10の無線通信システムは、例えば、Blue tooth標準規格に従い得る。図8を参照すると、Bluetoothアンテナ33は、RFフィルタ部34を介してSOC 32と通信する。
【0078】
他の通信標準規格が使用され得ることは、本発明の範囲内である。
【0079】
デバイスアドレスを含む通信標準規格を使用することも本発明の範囲内であり、すなわち、眼鏡フレーム10からの無線信号は、右耳の内側のイヤホン55の第1の特定のアドレス及び左耳内のイヤホン55の第2の特定のアドレスを含み得る。次に、様々な情報がそれぞれの異なる耳に送信され得る。例えば、眼鏡フレームの1つ上のマイクロ波デバイス14a、11aが右側の接近する物体を検出する場合、SOC 44は、眼鏡フレームの装着者の右耳内に位置するイヤホン55に警告を送信するように構成され得る。
【0080】
可能なアドレス機構は、互いに接近して立つ2人により使用される2つの眼鏡フレーム10間の無線交信も停止し得る。これは、例えば、ジェスチャ検出と、対応する提出された音声メッセージとを混ぜることを停止し得る。
【0081】
本発明の実施形態の一例によると、ジェスチャ検出システムは、少なくとも1つの線形容量性スライダセンサを含み得、少なくとも1つの線形容量性スライダセンサのセンサ表面は、コンピュータ制御デバイスの外面上に一体化可能であり、容量性スライダセンサは、センサ表面の1つの端から、第1の端に対向する第2の端にセンサ表面上の長手方向に沿って移動する指の運動を検出するように構成され、
- ジェスチャ検出システムは、センサ表面にわたる異なる検出された指運動パターンを異なるジェスチャとして解釈するように構成され、
- それぞれの指運動の組み合わせのそれぞれの1つの解釈は、少なくとも1つの指運動が、第1の端部と第2の端部との間の任意の方向においてセンサ表面にわたって検出された後、指がセンサ表面の第1の端又は第2の端で上げられていることを線形容量性スライダセンサが検出するときに行われる。
【0082】
上に開示された実施形態の例によると、この実施形態は、ジェスチャ検出システムの一部であり得る加速度計を含み得る。加速度計によって登録された規定数のタッピングは、線形容量性スライダセンサ表面上の検出された指運動を認定するために使用され得る。
【0083】
上に開示された実施形態の例によると、加速度計によって登録された規定数のタッピングは、検出されたジェスチャの結果としてコンピュータシステム内で実行される命令をリセットし得る。
【0084】
上に開示された実施形態の例によると、加速度計によって登録された規定数のタッピングは、検出されたジェスチャの結果として実行される命令のパラメータを初期化し得る。
【0085】
上に開示された実施形態の例によると、ジェスチャ検出システムは、少なくとも2つの独立した線形容量性スライダセンサを含み得る。
【0086】
上に開示された実施形態の例によると、ジェスチャ検出システムは、それぞれの各線形容量性スライダセンサによって互いに独立して検出された指運動を解釈するように構成され得る。
【0087】
上に開示された実施形態の例によると、ジェスチャ検出システムは、それぞれの検出された指運動の組み合わせとして、それぞれの各線形容量性スライダセンサによって検出された指運動を解釈するように構成され得る。
【0088】
上に開示された実施形態の例によると、第1のジェスチャは、センサ表面の第1の端部から第2の端部に向かって移動する指によって定義され得、指は、第2の端部に隣接して位置するときに上げられていることを検出される。
【0089】
上に開示された実施形態の例によると、第2のジェスチャは、センサ表面の第2の端部から第1の端部に向かって移動する指によって定義され得、指は、第1の端部に隣接して位置するときに上げられていることを検出される。
【0090】
上に開示された実施形態の例によると、第3のジェスチャは、センサ表面の第1の端部から第2の端部に向かって移動する指によって定義され得、指は、第2の端部から第1の端部に向かって戻り、指は、指が、第1の端部に隣接するセンサ表面上の場所に戻っていることが検出されるときに上げられていることを検出される。
【0091】
上に開示された実施形態の例によると、第4のジェスチャは、センサ表面の第2の端部から第1の端部に向かって移動する指によって定義され得、指は、第1の端部から第2の端部に向かって戻り、指は、指が、第2の端部に隣接するセンサ表面上の場所に戻っていることが検出されたときに上げられていることを検出される。
【0092】
上に開示された実施形態の例によると、ジェスチャ検出システムは、いずれのジェスチャが検出されているかを指示する音声メッセージを有して構成され得る。
【0093】
上に開示された実施形態の例によると、ジェスチャ検出システムは、コンピュータ制御デバイスにおいて実施される行為を指示するメニューツリー内のナビゲーション命令に関連付けられたジェスチャを識別するように構成され得る。
【0094】
上に開示された実施形態の例によると、第1の定義されたジェスチャは、メニューツリー内の上方向ナビゲーションのためのものであり得、第2の定義されたジェスチャは、メニューツリー内の下方向ナビゲーションのためのものであり得る一方、第3の定義されたジェスチャは、メニューツリー内のメニュー項目を選択するためのものであり得る。
【0095】
上に開示された実施形態の例によると、センサ表面の幅は、指先のサイズに適応され得る。
【0096】
上に開示された実施形態の例によると、コンピュータデバイスは、眼鏡フレーム内に一体化され得、及び少なくとも1つの線形容量性スライダセンサは、眼鏡アームの1つ内に一体化され得る。
【0097】
上に開示された実施形態の例によると、線形容量性スライダセンサは、コンピュータ制御デバイスの外面壁の内部に埋め込まれ得る。
図1
図2
図3
図4
図5
図6
図7a
図7b
図8
【手続補正書】
【提出日】2022-10-19
【手続補正1】
【補正対象書類名】明細書
【補正対象項目名】全文
【補正方法】変更
【補正の内容】
【発明の詳細な説明】
【技術分野】
【0001】
技術分野
本発明は、感知面にわたって移動する指の運動の方向を感知することができる少なくとも感知面を含むジェスチャ検出システムに関する。
【背景技術】
【0002】
背景
本発明によるジェスチャ検出システムは、汎用システムである。それぞれのジェスチャと、特定の命令又はある機能の活性化などとの関連性は、ジェスチャ検出システムが接続されるシステムの機能性に依存する。
【0003】
ジェスチャ検出システムの本説明は、補聴システムの眼鏡フレームに言及し、眼鏡フレームは、埋め込み型マイクロホンと、デジタル信号プロセッサ(DSP)等を制御するシステムオンチップ(SOC)コンピュータシステムとを含む。補聴システムの眼鏡フレームシステムへの言及は、本発明のジェスチャ検出システムが有益に接続され得る複雑なシステムの単に一例である。
【0004】
補聴システムの眼鏡フレームのこの例は、部分的聴力損失を有するが、視覚に関する追加的な問題を必ずしも有しない人により使用され得る。このような場合、眼鏡フレームは、単に、例えば眼鏡フレーム内に埋め込まれるマイクロホンのビーム形成を単純化し得る支持構造である。人間の耳内の挿入可能イヤホンは、眼鏡フレームシステムと無線通信し得る。ビーム形成は、例えば、本発明の接続されたジェスチャ検出システムによって検出される特殊なジェスチャに対応するように構成され得る。
【0005】
人が、視覚に関する追加的な問題を有する場合、眼鏡フレームは、読書問題などを緩和する適応型眼鏡を支持し得る。加えて、眼鏡フレームは、ごみ箱などの様々な物体を検出するように構成可能な埋め込み型ビデオカメラを含み得、本システムは、眼鏡フレームの装着者のそれぞれの耳内に挿入可能なイヤホンに無線で送信される音声メッセージなどの可聴メッセージを眼鏡フレームの装着者に提供し得る。
【0006】
現代のコンピュータシステムは、様々なタスクを有する人を補助する多様な先進ソフトウェアアプリケーションにより構成され得る強力なマシンである。マン-マシン通信は、ほとんどの場合、従来技術において知られているように、例えば接触感知面及び/又はディスプレイ上のグラフィックオブジェクトと相互作用するマウスデバイスに依存するように進化してきた。
【0007】
コンピュータ及び他の電子コンピューティングデバイスの入力デバイスとしての接触感知面の使用が近年著しく増加してきた。最も一般的には、接触感知面を表示面に追加することである。このようにして、例えば表示されるシンボルと接触との組み合わせが実現され得る。例示的な接触感知面は、コンピュータ及びスマートフォンなどの上のタッチパッド及びタッチスクリーンディスプレイを含む。このような面は、ディスプレイ上に提示される電子文書内でカーソルを操作することにより電子文書を精査及び編集し、様々な実装された機能(特定用途プログラムなど)間で選択するために広範に使用されている。一例は、国際公開第2016/148875A2号に開示されている。
【0008】
従来技術において関心のある別の代替領域は、マシンビジョンベースヒューマン-マシン相互作用である。例えば、米国特許第9104242B2号は、映像フレームの順序付けられたタイムスタンプシーケンス中に複数の画像を取得する工程、複数の画像から複数の手のひら状画像を取得する工程、複数の手のひら状画像のそれぞれから、開いた又は閉じた手のひらジェスチャを説明する複数の特徴を抽出する工程、複数の特徴の各特徴の最大差により形成される最大特徴差異ベクトルを計算する工程及び開いた又は閉じた手のひらジェスチャが検出され得ることを最大特徴差異ベクトルに基づいて判断する工程を含む、手のひらジェスチャ認識方法を開示している。
【0009】
従来技術において関心のある別の代替領域は、マン-マシン相互作用において使用される音声認識である。例えば、米国特許第10347246B2号は、音声認識を使用することにより、ユーザ要求行為を実行するための方法及び装置を開示している。この方法は、ユーザ機能実行画面を表示すること、音声入力に従って実行される機能を確認すること、確認された機能に対応する音声命令をユーザ機能実行画面上に表示すること、音声認識実行要求が連続的に受信されている間にユーザにより音声入力を認識すること及び認識された音声入力が、表示された音声命令の少なくとも1つである場合、入力音声命令に関連付けられた機能を実行することを含む。
【0010】
日本特許第6514599B2号は、眼鏡フレームの前側に位置する指向性マイクロホンを支持する眼鏡フレームを開示している。全方向性マイクロホンがそれぞれの左及び右眼鏡アーム上に設けられる。ラウドスピーカもそれぞれの左及び右眼鏡アーム上に設けられる。左眼鏡アーム上の接触感知センサは、センサに接触することによって指向性マイクロホンの活性化を制御するように構成され、音声信号がラウドスピーカに送信される。
【0011】
いかなるマン-マシン通信システムも双方向通信チャネルを提供するべきである。例えば、システム又はマシンは、マン-マシン通信システムを使用することにより、メッセージを指示又は情報のいずれかとしてオペレータに伝えることができるべきである。
【0012】
眼鏡フレームを装着する人にグラフィック情報を提供する例は、例えば、第1及び第2の面を有する眼鏡レンズを開示する米国特許第8177361B2号に示されており、ここでは、眼鏡レンズの少なくとも第1の面は、主要部ゾーン及び少なくとも1つのプリズムゾーンを有する。第1の面の主要部ゾーンは、眼鏡レンズの対向する第2の面と共に、眼鏡レンズの主要部(少なくとも所定の距離における視覚のために設計される)を形成する。第1の面のプリズムゾーンは、眼鏡レンズの対向する第2の面と共に、ディスプレイの光学画像が眼鏡装着者の眼の前の所定の仮想距離において形成されるように設計及び配置されるプリズム部を形成する。
【0013】
米国特許出願公開第2014181750号は、複数のアイコンが2次元的に配置され、表示された表示領域を有する表示部並びに複数のアイコンと重畳しない領域内に互いに離間されて設けられた少なくとも一対のセンサを有するセンサ部であって、一対のセンサ上で行われた操作により作動された作動点を検出するセンサ部を含む入力デバイスを開示している。センサ部により検出された作動点に基づき、1つの特定のアイコンは、表示領域上に表示された複数のアイコンのうちから選択される。したがって、多くのアイコンが比較的小さい表示領域上に表示される場合でも、特定のアイコンが容易に選択され得る。
【0014】
米国特許出願公開第2015088500号は、装着可能表示デバイスの入力システムを開示している。例えば、1つの開示された実施形態では、装着可能表示デバイスは、表示ブリッジから延びる少なくとも1つの額アームを含む。第1の接触感知ストリップは、アームの上側の第1の軸に沿って延びる。第2の接触感知ストリップは、上側と反対側のアームの底面側の第1の接触感知ストリップに対して平行に延びる。第1の接触感知ストリップの少なくとも一部と、第2の接触感知ストリップの一部とは、第2の軸から見て重畳する。第1の接触感知ストリップ及び第2の接触感知ストリップの両方は、第1の軸に沿って滑る1つ又は複数のユーザの指から線形な接触入力信号を生成するように構成され、線形な接触入力信号は、ユーザインターフェースプログラムに提供される。
【0015】
マン-マシン相互作用システムのこれらの例は、低下した視力を有する人によっても使用され得る例えば補聴システムの眼鏡フレームに関して、いくつかの明白な欠点を有する。低下した視力を有する人の眼の視野内にグラフ表示の形式の障害物を追加することは、おそらくよい考えではない。視力の損失をある程度緩和する適応された眼鏡を人が有したとしても、この眼鏡は、例えば、車を運転するように適応され得るか、又は読書することに適応される。光学的3次元ジェスチャ検出も同様であり得る。低下した視力を有する人は、見ることが困難であり得、例えば手のある運動又は回転を学習する必要があり、この運動が学習される場合、この人は、ジェスチャ検出システムがジェスチャを認識することに失敗しても、特殊なジェスチャを表す正しい運動が行われることを理解する必要がある。さらに、例えば部分的聴力損失を有する人が公共領域において最適な方法で補聴システムを使用することを停止し得る手運動の光学的検出を使用することは、合理的な操作ではない。例えば、空中で指を立てるようないくつかのジェスチャは、実施することが確かに可能ではない。
【0016】
ジェスチャ検出システムに関する別の一般的な問題は、接続されたマシン又はコンピュータシステムにおいて区別され、及び様々な命令又は行為に関連付けされ得る多くの様々なジェスチャである。
【0017】
したがって、改善されたジェスチャ検出システムの必要性がある。
【発明の概要】
【発明が解決しようとする課題】
【0018】
本発明の目的
特に、本発明の目的は、センサ表面にわたる指の運動の検出を提供する少なくとも線形容量性スライダセンサを含むジェスチャ検出システムを提供することと見なされ得る。
【0019】
本発明のさらなる目的は、従来技術に対する代替物を提供することである。
【課題を解決するための手段】
【0020】
概要
したがって、上述の目的及びいくつかの他の目的は、少なくとも1つの線形容量性スライダセンサを含むジェスチャ検出システムを提供することにより、本発明の第1の態様において取得されるように意図され、少なくとも1つの線形容量性スライダセンサのセンサ表面は、コンピュータ制御デバイスの外面上に一体化可能であり、容量性スライダセンサは、センサ表面の第1の端から、第1の端に対向して配置された第2の端にセンサ表面上の長手方向に沿って移動する指の運動を検出するように構成され、
- ジェスチャ検出システムは、センサ表面にわたる異なる検出された指運動パターンを異なるジェスチャとして解釈するように構成され、
- それぞれの指運動の組み合わせのそれぞれの1つの解釈は、少なくとも1つの指運動が、第1の端部と第2の端部との間の任意の方向においてセンサ表面にわたって検出された後、指がセンサ表面の第1の端又は第2の端で上げられていることを線形容量性スライダセンサが検出するときに行われ、
- 加速度計は、ジェスチャ検出システムの一部であり、
- 加速度計によって登録された規定数のタッピングは、線形容量性スライダセンサ表面上の検出された指運動を認定するために使用される。
【0021】

ここで、本発明によるジェスチャ検出システムを、添付図面を参照してより詳細に説明する。添付図面は、本発明の実施形態のいくつかの例を示すが、添付の特許請求の範囲に入る他の可能な実施形態を限定すると解釈されてはならない。さらに、実施形態のそれぞれの例は、それぞれ実施形態の他の例の任意のものと組み合わされ得る。
【図面の簡単な説明】
【0022】
図1】聴覚システムの一例を示す。
図2図1に示す例の正面図を示す。
図3図2に示す例のさらなる詳細を示す。
図4】マイクロホンビーム形成の一例を示す。
図5】ビーム形成の別の例を示す。
図6】ビーム形成の別の例を示す。
図7a】本発明の実施形態の一例を示す。
図7b】本発明の実施形態の一例を示す。
図8】本発明がその一部であり得るハードウェア構成の一例を示す。
【発明を実施するための形態】
【0023】
詳細な説明
本発明は、規定された実施形態に関連して説明されているが、決して本例に限定されると解釈されるべきでない。本発明の範囲は、添付の特許請求の範囲により設定される。特許請求の範囲に関連して、用語「含んでいる」又は「含む」は、他の可能な要素又は工程を排除しない。また、「1つの(a)」又は「1つの(an)」などの参照子の言及は、複数のものを排除すると解釈されるべきでない。添付図面において指示される要素に関する、特許請求の範囲における参照符号の使用も本発明の範囲を限定すると解釈されないものとする。さらに、様々な請求項において言及される個々の特徴は、場合により有利に組み合わされ得、異なる請求項におけるこれらの特徴の言及は、特徴の組み合わせが可能ではなく、有利ではないことを排除しない。
【0024】
本発明は、多くのタイプのシステムに接続され得る汎用ジェスチャ検出システムに向けられる。以下の説明では、眼鏡フレームを含む補聴システムは、本発明のジェスチャ検出システムが有益に接続され得る複雑なシステムの単に一例として使用される。
【0025】
本発明の一態様は、ジェスチャ検出システムのユーザからの視覚的相互作用を必要としないジェスチャ検出システムを提供することである。上記の眼鏡フレームを参照すると、この態様は、ユーザが指によりセンサ表面を接触することによって活性化され得るセンサ表面を眼鏡フレームの眼鏡アーム内に一体化することを可能にする。
【0026】
現代の集積回路技術は、それぞれの回路の小サイズウェハ上に増加された複雑性及び機能性を提供し、いくつかのセンサと、補聴システムの、例えば眼鏡フレーム内の少なくとも1つのSOC(システムオンチップ)及び少なくとも1つのDSP(デジタル信号プロセッサ)を含む埋め込み型コンピュータシステムとの一体化を可能にする。多くのSOCシステムは、LINUXオペレーティングシステムによって支援され、様々なタイプのセンサ及びDSP回路を支援するLINUXデバイスドライバが同様に利用可能である。
【0027】
このようなジェスチャ検出システムの例示的な目的は、眼鏡フレームシステム内又はより一般的にコンピュータ制御デバイス内で動作するアプリケーションプログラムの機能性を制御及び/又は修正することである。例えば、ビーム形成は、埋め込み型SOCシステム内で動作するプログラムの制御下で埋め込み型DSPにおいて行われ得、眼鏡フレームの前部が向く方向(すなわち視覚方向に対応する)又は例えば特定の命令等のジェスチャ検出によって定義される他の方向であるように構成され得る。特殊なジェスチャ入力は、例えば、視覚方向に対するビーム形成ローブの方向を修正するために使用され得るか、又は例えばビーム形成ローブの幅は、例えば、より広く又はより小さくなるように調整され得る。
【0028】
他のタイプのセンサ(例えばジャイロセンサ、測距センサなど)が眼鏡フレーム内に埋め込まれ得、このようなセンサ出力は、例えば、マイクロホンビーム形成が行われるべきであるときに常にSOCシステムが行うように構成され得る判断ループの一部であり得る。ジェスチャ制御入力は、例えば、判断ループ及び/又はどのようにそれぞれのセンサが機能するかを変更し得る。例えば、埋め込み型ジャイロスコープセンサのコンパス方位を零度に設定することは、特殊なジェスチャ入力が眼鏡フレームの装着者により行われた場合に眼鏡フレームの眼鏡前部が向いている方向である相対位置として行われ得る。
【0029】
部分的聴力損失を有する人が追加的な視覚問題を有する場合、眼鏡フレームは、眼鏡フレームの装着者の視覚を強化するように構成され得る埋め込み型ビデオカメラを含み得る。埋め込み型ビデオシステムは、街路上のごみ箱、接近する車、さえずる鳥などの一般的な物体の輪郭を検出するように構成され得、SOCシステムは、それぞれの対象物を指示する可聴音声メッセージを眼鏡フレームの装着者の外耳道内の挿入可能イヤホンを介して眼鏡フレームの装着者に伝えるように構成され得る。様々な物体を認識するこの可能性は、例えば、鳥の鳴き声及び鳥に対する方向から鳥を識別するためのいくつかのビーム形成シナリオでも利用され得る。ジェスチャ制御入力は、例えば、ビーム形成を、視覚方向から離れる鳥の方向に提供するか、又はビデオカメラなどの視界からズームアウト若しくはズームインすることを提供するために使用され得る。
【0030】
しかし、ビーム形成は、部分的聴力損失を有する人がその一部である聴力シナリオのタイプにも依存する。例えば、会話は、例えば、部分的聴力損失を有する人と他の人との間のものであり得、狭いビームローブを必要とし得る。
【0031】
別のタイプの聴力シナリオは、部分的聴力損失を有する人が、例えば、何人かの他の人と共に会議に参加する場合のものであり得、より広いビームローブを必要とし得る。
【0032】
したがって、眼鏡フレームの装着者からのジェスチャ入力により活性化され得る2つ以上の空間的ビーム形成ローブが必要であり得る。さらに、眼鏡フレームシステムは、上に例示された様々なシナリオのいくつかの必要性を反映する様々なビーム形成ローブにより構成され得る。ジェスチャ入力検出を介して、特定のマイクロホンビーム形成ローブを提供する特定のシナリオを変更又は選択することが可能である。
【0033】
別のシナリオは、列車に乗り、自分の前に座っている人物に話しかける場合のものであり得る。本発明によるビーム形成は、正確であり得、これにより前の人との良好な可聴的接触を可能にする。このような鋭角的ビーム形成は、不利な面も有する。例えば、何らかの紙を見つける(切符などを探す)ために屈む必要がある場合、この行為は、いくらかの時間がかかり得る。この期間中、鋭角的ビーム形成は、床に下向きになり、可聴的接触が失われ得る。
【0034】
したがって、マイクロホンビーム形成は、本発明による眼鏡フレームシステムを装着する頭の運動に依存し得る。埋め込み型ジャイロセンサがこのような運動を検出するために使用され得、本システムは、このような移動が検出される場合、前に座っている人及び床に腰を下ろした人の両方をカバーするようにマイクロホンビーム形成ローブを修正するように適応され得る。頭が上方に動くことが検出されると、元のビーム形成ローブが再び活性化され得る。狭いマイクロホンビームローブは、1人に話しかける際に効率的であるが、マイクロホンビーム形成ローブに依存する人の頭の一定の安定性を必要とする。頭運動に起因して人との可聴的接触を失った人からのジェスチャ入力は、当初計算されたマイクロホンビーム形成ローブから離れる運動の程度を検出するジャイロスコープセンサからの測定値を考慮するマイクロホンビーム形成ローブを生成し得る。人が自らの頭を元の位置に戻すと、ジェスチャ入力は、マイクロホンビーム形成ローブをその当初計算された形式に回復し得る。
【0035】
図1は、眼鏡フレーム10を含む補聴システムの典型的構成を示す。眼鏡フレーム10は、眼鏡アームの外カバーが除去されて示されている。眼鏡アーム内部には、DSP回路、Bluetooth通信インターフェース、SOCチップ(システムオンチップ)のようなコントローラ等のプログラム可能エレクトロニクスが配置される。電池及び他の必要な論理/エレクトロニクスも、眼鏡アーム内及びまた場合により眼鏡を保持する眼鏡フレームの前部の内部に埋め込まれる。眼鏡フレームの内部に埋め込まれるDSP回路は、両方の眼鏡アーム(すなわち左及び右眼鏡フレーム)の内部に埋め込まれ得、これにより2つのDSP回路が使用され得る。このような状況では、2つのDSP回路の1つは、通常、マスタデバイスとして構成され、及び他のDSP回路は、スレーブデバイス(すなわちマスタデバイスにより制御される)として構成される。マスタDSPデバイスは、人の耳道内に挿入され得るイヤホン46(又は耳内ヘッドホン)と無線で通信する。ジェスチャ制御入力は、例えば、それぞれのDSP回路の動作を変更し得る。
【0036】
例えば、ジェスチャ検出システムは、眼鏡フレームの2つの眼鏡アームのそれぞれの中に埋め込まれ得る。
【0037】
モバイルフォン47も本発明による補聴システムの一部であり得る。図1において、イコライザとしての役割を果たすモバイルフォン内のアプリケーションプログラムであって、ユーザ規定イコライザ設定を眼鏡フレーム10の内部のシステムに伝達するアプリケーションプログラムが示されており、例えば、SOC回路は、イヤホン46に無線で提出される音声信号に対する要求周波数変更を採用するようにDSP回路に指示するか、又はDSP回路を再プログラムする。しかし、モバイルフォンの使用は、ユーザが著しい視覚問題を有しないことを必要とする。ユーザが自らのモバイルフォンを忘れるか又は失えば別の問題が存在するであろう。
【0038】
本発明によるジェスチャ制御システムは、このような問題を解決し得る。
【0039】
図2を参照すると、眼鏡フレーム10の前面12が示されている。眼鏡前部12の上部上において、眼鏡フレームの前部に対して前方向に向く4つのデジタル全指向性マイクロホン13a、13b、13c、13dが構成される。これらのマイクロホンは、ブロードサイドマイクロホンアレイとして配置され得る。加えて、鼻梁の真上に位置する眼鏡フレームの前部内に埋め込まれたビデオカメラ15がある。眼鏡フレームの前部の各角部において、眼鏡アーム19、19aが眼鏡フレーム10の前部12に接続される眼鏡前部12上の場所に隣接して、一方の角にマイクロ波トランスデューサ11が、及び反対の位置にマイクロ波マイクロホン14がある。マイクロ波トランスデューサ11により発射されたマイクロ波は、例えば、人間の顔により反射され、マイクロ波マイクロホン14により受信され得る。マイクロ波の発射から検出までの経過時間を測定することにより、眼鏡の装着者が見ている例えば人間の顔までの距離が計算され得、例えばビーム形成アルゴリズムにおいて使用され得る。このような距離測定は、検出されたジェスチャにより開始され得る。
【0040】
図3は、眼鏡フレーム10のアーム19の構成の一例を示す。図3の例では、マイクロホンブロードサイドアレイとして配置され得る6つの全指向性マイクロホン13e、13f、13g、13h、13i、13jが配置される。加えて、接近する物体又は人までの距離又は眼鏡フレームの装着者のごく近傍にある物体又は人までの距離を測定するために使用され得るマイクロ波トランスデューサ11a及びマイクロ波マイクロホン14aがある。6つのマイクロホン13e、13f、13g、13h、13i、13jのマイクロホンビーム形成の一部であることに加えて、距離測定は、本発明による眼鏡フレームの内部に埋め込まれるソーシャルディスタンスブザーアプリケーションの一部でもあり得る。
【0041】
図3は、本発明による眼鏡フレームの装着者がジェスチャ検出センサ表面18に触れ、及び指を、ジェスチャ検出センサ表面18を横切らせることのみにより、眼鏡フレームの構成されたシステムと相互作用することを可能にするジェスチャ検出センサ表面18を含む眼鏡アーム表面の領域18も示す。本発明の一態様は、本発明によるジェスチャ検出システムを含む眼鏡フレームの装着者の視覚方向を変更する必要性なしにジェスチャ検出を可能にすることである。
【0042】
ジェスチャ検出センサ表面18は、指が表面に接触しているか又は表面に近いことを感知し、及びセンサ表面にわたる指の運動の方向を検出するように構成される。図7bを参照すると、指がセンサ表面18の第1の端部18aに隣接する位置からセンサ表面18の第2の端部18bに隣接する場所に移動する場合、これは、例えば、センサ表面18にわたる前進運動であると定義され得、第2の端部18bから第1の端部18aへの運動は、センサ表面18にわたる指の後退運動として定義され得る。
【0043】
第1の端部18aからの指の前方への運動(例えば、指の先端の運動)は、指が上げられ、及び指が第2の端部18bの隣にあると終了し得る。この運動は、特定の検出可能ジェスチャとして検出可能である。指が、第1の端部18bに隣接する場所で上げられて後退運動が終了する場合、これは、第2の特定の検出可能ジェスチャである。第2の端部18bにおいて終わる前方への運動が、指が上げられることなく後退運動を続ける場合、指の運動が方向を変更するときが第3の特定の検出可能ジェスチャである。後退運動が、指が上げられることなく前進運動により終了する場合、指の運動の方向が変化するときが第4の特定の検出可能ジェスチャであるなどである。
【0044】
本発明の実施形態の一例では、感知センサ18は、スライダ型の容量性型センサである。この場合、指が例えばセンサ表面に物理的に接触している必要はない。容量の変化は、定義された閾値レベルとセンサ信号レベルとの比較により内部的に認定され得る、このようなセンサの基礎である。これは、センサ表面が例えば眼鏡アーム19、19aの外面の背後にあることと、指の存在を依然として検出することとを可能にする。線形容量性スライダセンサのスライダアーキテクチャは、センサ表面にわたる運動の検出を、センサ表面に接触すること又は指をセンサ表面の真上若しくはコンピュータ制御デバイスの外壁の背後のみで動かすことのいずれかによって可能にする。
【0045】
センサ表面18の幅は、指先の幅に適応され得る。
【0046】
したがって、本発明のジェスチャ検出の一般的な概念は、少なくとも1つのセンサ表面にわたる指の運動方向の検出を提供すること、及び同時に移動された際に指が上げられたかどうかを検出することができることである。
【0047】
上に論述された眼鏡フレームの例では、2つのセンサ表面18(眼鏡フレーム10の眼鏡アーム19内に1つ及び眼鏡フレーム10の他の眼鏡アーム19a内に1つ)が存在する可能性がある。
【0048】
第1の眼鏡アーム19の第1のセンサ表面及び第2の眼鏡アーム19aの第2のセンサ表面は、互いに独立に動作するか、又は互いに依存して解釈されるかのいずれかであるように構成され得る。
【0049】
指の運動の前方方向は、上に詳述されたように定義され得る(すなわち前進運動及び後退運動)。センサ表面18の第1の端部18a及び第2の端部18bの具体的な言及は、前進運動が第2の端部18bから第1の端部18a方向へのものであり、及び後退運動が第1の端部18aから第2の端部18b方向のものである可能性を排除しない。
【0050】
2つのセンサ表面が独立に動作するように構成される場合、各眼鏡アーム上の各センサ表面は、前進運動のみ、前進運動及び後退運動、又は後退運動のみ、又は後退運動及び前進運動を解釈するように構成され得る。大文字の「及び(AND)」は、論理演算の及びを意味し、すなわち、それぞれの運動は、運動の方向のそれぞれの変更中に指を上げることなく行われる。したがって、前進のみと、前進及び後退との間の区別は、指の運動の方向が変化する場合に指が上げらたことが検出されたか否かである。この簡単な方式は、4つの異なるジェスチャを区別する。各センサ表面18は、第1の眼鏡アーム19上に配置され得、他のセンサ表面18は、眼鏡フレーム10の第2の眼鏡アーム19a上に配置され得る。他のアーム上の他のセンサ表面が他のセンサ表面から独立に動作するように構成される場合、ジェスチャ検出システムは、指運動を検出する2つのセンサ表面により認定されなかった8つの異なるジェスチャを区別し得る。
【0051】
どのようにそれぞれのセンサ表面が動作するか(独立に又は組み合わせでのいずれかで)は、ジェスチャシステムに両方のセンサ表面上で検出されたジェスチャの組み合わせを解釈するように指示する特殊なジェスチャを解釈することにより、センサ表面の1つからアクセス可能なメニュー選択により選択され得る。デフォルトは、個人的解釈であり得る。
【0052】
2つのセンサ表面が、組み合わせジェスチャとして各センサ表面上で検出されたそれぞれのジェスチャを解釈するように構成される場合、以下の組み合わせが可能である。
センサ1:センサ2:
前進:運動なし
後退:運動なし
前進及び後退:運動なし
後退及び前進:運動なし
運動なし:前進
運動なし:後退
運動なし:前進及び後退
運動なし:後退及び前進
前進:前進
前進:後退
後退:後退
後退:前進
【0053】
この方式は、最大12個の異なる検出可能ジェスチャを提供する。
【0054】
前進運動、及び後退運動、及び前進指運動又は後退運動、及び前進運動、及び後退指運動からなる運動を必要とする運動パターンを追加することも可能である。
【0055】
これは、以下からなる追加の8個の検出可能運動パターンを追加し得る。
センサ1:センサ2:
前進、及び後退、及び前進:運動なし
後退、及び前進、及び後退:運動なし
運動なし:前進、及び後退、及び前進
運動なし:後退、及び前進、及び後退
前進、及び後退、及び前進
前進、及び後退、及び後退
後退、及び前進、及び前進
後退、及び前進、及び後退
【0056】
本発明の別の態様によれば、加速度計は、本発明によるジェスチャ検出システムの一部であり得る。加速度計は、眼鏡フレーム10のアーム上の指のタッピングを検出するように構成され得る。したがって、上に定義された可能なジェスチャのそれぞれは、例えば、2回のタップ又は3回のタップにより認定され得る。これは、異なる検出可能ジェスチャの数を20から40に2倍にするであろう。このとき、ジェスチャ検出は、ジェスチャ自体がセンサ表面18上に印加される前に眼鏡アーム上の2回又は3回のタップにより開始することになる。
【0057】
例えば、上に論述された眼鏡フレームの例において、様々な音声メッセージを構成することは、本発明の範囲内である。SOCコンピュータシステムは、挿入可能イヤホンを介して眼鏡フレームのユーザに無線音声メッセージを送信するように構成され得る。このようにして、本発明のジェスチャ検出システムは、特殊なジェスチャが、そのジェスチャを開始するユーザに音声メッセージが送信されることをもたらし得る双方向通信システムを提供する。
【0058】
この選択肢は、様々な方法で利用され得る。例えば、図7aに示すように、複雑なシステムのメニューシステムは、主メニュー、ルートメニューA、ルートメニューB、ルートメニューC(ツリー構造のメニュー内のルートメニュー)のリストとして実装され得、それぞれの命令又は行為のリスト及び活性化(例えば、サブメニュー1a)は、構成されたコンピュータシステムの制御下にある。例えば、上に論述された眼鏡フレームシステムのようなシステムが開始すると、構成されたSOCシステムからの音声メッセージは、例えば、左眼鏡アーム上のセンサ表面上で指を前進させようにユーザに告げ得る。次に、メニューシステムは、動作し始め、ユーザは、図7aにおいて下方向矢印により示唆されるように、繰り返し前進移動によりルートメニュー間で移動し得るか、又は例えば水平方向矢印により図7aに示すように、ルートメニューAからルートメニューCに移動し得る。各ルートメニューの名前は、それぞれの音声メッセージを介してユーザに伝えられ得る。ユーザがルートメニューの1つ(例えば、ルートメニューB)を選択すると、ユーザがルートメニューBにいることをシステムにより告げられた後、ユーザは、例えば、ルートメニューBが選択されたことをシステムに信号伝達するために前進及び後退ジェスチャを使用し得る。このとき、サブメニューが利用可能であり、ユーザは、サブメニューの間を(例えば、サブメニュー1BからサブメニューiBに)移動するために前進移動をさらに行い得る。ユーザがメニューツリー内で余りに遠く下方に移動する場合、ユーザは、例えば、メニューツリー内で上方に移動するために後退運動を使用し得る。これは、それぞれのルートメニュー間の運動にも適用される。
【0059】
様々なサブメニューは、特定の命令又は行為を開始するために、上に例示されたようなより複雑なジェスチャを必要とし得る。いずれにしても、システムからの音声メッセージは、いずれのジェスチャが使用される必要があるかをユーザに通知し得る。加速度計及びタッピングパターンの使用は、例えば、選択された命令などをリセットし得る。タッピングは、例えば、ビーム形成ローブ内で使用されるパラメータのパラメータ値を追加するためにも使用され得る。このような操作も音声メッセージを介してユーザに伝えられ得る。
【0060】
したがって、事前記録された音声メッセージが、本発明によるジェスチャ検出システムを含むマン-マシン相互作用システムの一部である場合、多くの検出可能な異なるジェスチャは、限定された数の異なるジェスチャであり得る。図7aに示す例では、前方向定義運動及び指を上げることと、後退運動及び指を上げることと、前進運動及び後退運動(それぞれの前進運動と後退運動との間に指を上げることのない)とは、この例では、唯一の必要なジェスチャである。補聴システムの一部である眼鏡フレーム内で利用され得るジェスチャ検出のいくつかの例が以下に続く。
【0061】
ビデオカメラ15は、本発明による眼鏡フレーム10の前側12に埋め込まれ得る。図4は、ビデオカメラ15を中間部(不図示)内に含むマイクロホンアレイ20の側面図を示す。ビデオカメラは、例えば、マイクロホンアレイ20からの距離23におけるカメラ15に向けられた側面24を有する音源である物体を見る。この距離は、物体24の前部を横切る面までであるように示される。距離23の測定は、例えば、マイクロ波トランスデューサ14及びマイクロ波受信マイクロホン11により行われ得る。マイクロ波がマイクロホンにより受信されるまでのマイクロ波の発射間のタイムラプスは、距離を計算するために使用され得る。
【0062】
物体24の高さは、物体24の高さを表す面と共に面内の三角形(3次元の円錐である(すなわち、円錐は、物体24からの音声を聴く際の所望のビーム形成ローブを表す))を構成する側線22、25の傾斜を定義する。図4に示すように、ビーム形成ローブ26は、上に論述したように三角形の内部に配置される。ビーム形成アルゴリズムのパラメータの適切な選択により削除又は低減され得るいくつかのサイドローブも示される。音源までの距離が変化する場合、例えば眼鏡フレームシステムの装着者が音源に向かって移動している場合、ビーム形成ローブは、例えば、音源の高さの遠近による増加を考慮するためにより広くあるべきである。これは、特殊なジェスチャの制御下であり得る。
【0063】
図5は、参加者がテーブルの周囲に座る会議に典型的なシナリオを示す。人Bは、本発明による眼鏡フレーム10を装着している。ビデオカメラ15、ビデオ画像処理は、人C、D、E、Fがカメラの視界内にいることを検出し得る。人Aも会議に参加しているが、ビデオカメラ15の視界の外側にいる。人Bにより支持された眼鏡フレーム10の右眼鏡アーム19上には、上に論述したようなマイクロホンアレイがある。眼鏡フレーム10のアーム上に配置されたそれぞれのマイクロ波デバイス11a、14aにより距離測定を行う可能性もある。したがって、人Aに面する眼鏡アーム19上に位置するマイクロホンアレイに基づくビーム形成が可能である。これは、眼鏡フレームの両側で行われ得る。これにより、眼鏡フレームは、異なる方向に向く3つの異なるビーム形成ローブにより構成され得る。それぞれのローブの数の選択及びローブの他のパラメータ設定は、ジェスチャ制御を介して行われ得る。
【0064】
本発明の実施形態の一例では、ジャイロスコープデバイスは、本発明による眼鏡フレームシステムの一部であり得る。ジャイロスコープが、上に論述したように、頭の方向の変化を検出すると、ローブの幅を変更して、これによりすべての人B、C、D、E、F、Gを含むローブを増加させることが可能である。
【0065】
すべてのこれらの状況では、眼鏡フレームの装着者は、例えば、ビーム形成、ビーム形成ローブの方向等の様々な変更を表す様々なジェスチャを入力する必要であり得る。
【0066】
図6は、それぞれの方向28、31に向いている2つのマイクロホンビーム形成ローブ27、30の例を示す。ローブ28は、視覚方向29に対して角度αを有する方向に向けられる。上に論述されたように、ジャイロスコープセンサにおける「零」角度は、特殊なジェスチャを介して初期化され得る。他のローブ方向31は、視覚方向29に対して角度βを有する。これらの設定は、特殊なジェスチャ入力を介して行われ得る。
【0067】
本発明の一態様によると、ジェスチャ検出システムは、2つの眼鏡アームの少なくとも1つのアームの外面上に配置された少なくとも1つの第1の感知面を含む。2つの眼鏡アームの少なくとも1つのアーム内の埋め込み型加速度計と組み合わせて、複数の異なる単純なジェスチャは、眼鏡フレームの構成されたシステムにより区別及び検出され得、これにより、眼鏡フレーム内に埋め込まれたシステムのセンサ、デバイス及び構成された機能性の様々な行為又は非活性化と、センサの行為又は非活性化及び構成された機能性の修正とに関連付けられる。事前記録された音声メッセージと組み合わせて、様々な検出可能ジェスチャの数が制限され得る。
【0068】
図8は、図1に示すような眼鏡フレームの内部に埋め込まれる機能デジタル回路及び機能ブロックを含む眼鏡フレームシステムの実施形態の一例を示す。
【0069】
例えば、デジタルマイクロホン13は、例えば、8つのデジタルマイクロホンから音声入力を受信し得るタイプのAnalog Devices社ADAU1787の音声信号プロセッサ54に接続され得るタイプTDK ICS-41251であり得る。上に論述されたように、眼鏡フレーム内に2つ(各眼鏡フレーム内に1つ)のDSPデバイスがあり得、実施形態の一例では、1つの眼鏡アーム内に埋め込まれた6つのマイクロホンは、同じアーム内に埋め込まれたDSP54に接続可能にされることになる。加えて、眼鏡フレームの前部内に埋め込まれた4つのマイクロホンの2つは、同じDSP54により制御されることになる。別の眼鏡アームが他の眼鏡フレーム内の6つのマイクロホン+眼鏡フレームの前の4つのマイクロホンの残りの2つを制御することになる。TDK ICS-41251マイクロホンに関する情報は、https://www.invensense.com/products/digital/ics-41351/に見出すことができる。
【0070】
ADAU1787は、リンクhttps://www.analog.com/en/products/adau1787.html#product-overviewに開示されたビーム形成能力を有する。
【0071】
Analog devices社は、グラフィックユーザインターフェースを介してビーム形成を容易にするユーザアプリケーションプログラムも供給している。このようなグラフィックユーザインターフェースも、モバイルフォン47内に設置され得るアプリケーションプログラムとして入手可能である。
【0072】
加えて、ADAU1787は、上に論述されたユーザプロファイル及び/又は様々な補聴器モードにおいて定義された様々なユーザ選択可能選択肢の支援を可能にする完全プログラム可能DSPデバイスである。
【0073】
それぞれのデジタル機能システムブロックを制御するコントローラ32は、コンピュータのすべての機能部品を含む集積回路であるSOC(システムオンチップ)と呼ばれるタイプの回路であり得る。SOC 32の使用は、本発明によるジェスチャ検出システムと通信する眼鏡フレームシステムの動作面を構成するソフトウェアを開発することをはるかに簡単にする。
【0074】
図8は、本システムが加速度計41を含み得ることをさらに示す。加速度計41の機能面は、例えば、眼鏡フレーム上の指の接触を検出することである。このような接触は、マイクロホンによって拾われた雑音を生成し、本システムは、本システム内に鋭角的雑音を生成することになることが知られている。本発明の実施形態の一例によると、加速度計検出は、本システムのマイクロホン又は任意の他の好適な電子部品の短いミュートを生じ得る。実施形態のいくつかの例では、眼鏡フレームは、いくつかのプッシュボタン41と共に構成され得る。このようなプッシュボタン41の活性化は、イヤホン46に到達するボタン行為からの短いミュート停止雑音を生じることになる。
【0075】
図8に示す例示的な実施形態は、容量センサタイプであり得る少なくとも1つのジェスチャ検出センサ18を含む。多くの場合に線形スライダ検出器と称されるセンサが使用され得る。補間による容量性接触スライダ実装を示す図4を参照して、リンクhttps://www.fujitsu.com/downloads/MICRO/fme/articles/fujitsu-whitepaper-capacitive-touch-sensors.pdfを参照されたい。
【0076】
上記の論述を参照すると、加速度計は、指が眼鏡フレームに接触しているときに常に音声ストリームのミュートをトリガすることになる。接触がメニュー選択ジェスチャの一部である場合、ミュートは、指がセンサ表面から上げられると終了する。
【0077】
図8に示すシステムは、ジャイロスコープ40も含み得る。本発明の実施形態のいくつかの例において使用され得る、いくつかの知られたジャイロスコープがある。
【0078】
本発明の実施形態の一例では、SOCシステム32は、ジャイロスコープ40により与えられる視覚方向のコンパス方位を識別するように構成される。次に、SOCシステム32は、眼鏡フレーム10の前方のコンパス方位にビーム形成を行うように音声DSP 45を指示するように構成される。このようにして、ビーム形成は、眼鏡フレーム10の装着者が見ている方向に向けられる。
【0079】
眼鏡フレーム10の無線通信システムは、例えば、Blue tooth標準規格に従い得る。図8を参照すると、Bluetoothアンテナ33は、RFフィルタ部34を介してSOC 32と通信する。
【0080】
他の通信標準規格が使用され得ることは、本発明の範囲内である。
【0081】
デバイスアドレスを含む通信標準規格を使用することも本発明の範囲内であり、すなわち、眼鏡フレーム10からの無線信号は、右耳の内側のイヤホン55の第1の特定のアドレス及び左耳内のイヤホン55の第2の特定のアドレスを含み得る。次に、様々な情報がそれぞれの異なる耳に送信され得る。例えば、眼鏡フレームの1つ上のマイクロ波デバイス14a、11aが右側の接近する物体を検出する場合、SOC 44は、眼鏡フレームの装着者の右耳内に位置するイヤホン55に警告を送信するように構成され得る。
【0082】
可能なアドレス機構は、互いに接近して立つ2人により使用される2つの眼鏡フレーム10間の無線交信も停止し得る。これは、例えば、ジェスチャ検出と、対応する提出された音声メッセージとを混ぜることを停止し得る。
【0083】
本発明の実施形態の一例によると、ジェスチャ検出システムは、少なくとも1つの線形容量性スライダセンサを含み得、少なくとも1つの線形容量性スライダセンサのセンサ表面は、コンピュータ制御デバイスの外面上に一体化可能であり、容量性スライダセンサは、センサ表面の1つの端から、第1の端に対向する第2の端にセンサ表面上の長手方向に沿って移動する指の運動を検出するように構成され、
- ジェスチャ検出システムは、センサ表面にわたる異なる検出された指運動パターンを異なるジェスチャとして解釈するように構成され、
- それぞれの指運動の組み合わせのそれぞれの1つの解釈は、少なくとも1つの指運動が、第1の端部と第2の端部との間の任意の方向においてセンサ表面にわたって検出された後、指がセンサ表面の第1の端又は第2の端で上げられていることを線形容量性スライダセンサが検出するときに行われる。
【0084】
上に開示された実施形態の例によると、この実施形態は、ジェスチャ検出システムの一部であり得る加速度計を含み得る。加速度計によって登録された規定数のタッピングは、線形容量性スライダセンサ表面上の検出された指運動を認定するために使用され得る。
【0085】
上に開示された実施形態の例によると、加速度計によって登録された規定数のタッピングは、検出されたジェスチャの結果としてコンピュータシステム内で実行される命令をリセットし得る。
【0086】
上に開示された実施形態の例によると、加速度計によって登録された規定数のタッピングは、検出されたジェスチャの結果として実行される命令のパラメータを初期化し得る。
【0087】
上に開示された実施形態の例によると、ジェスチャ検出システムは、少なくとも2つの独立した線形容量性スライダセンサを含み得る。
【0088】
上に開示された実施形態の例によると、ジェスチャ検出システムは、それぞれの各線形容量性スライダセンサによって互いに独立して検出された指運動を解釈するように構成され得る。
【0089】
上に開示された実施形態の例によると、ジェスチャ検出システムは、それぞれの検出された指運動の組み合わせとして、それぞれの各線形容量性スライダセンサによって検出された指運動を解釈するように構成され得る。
【0090】
上に開示された実施形態の例によると、第1のジェスチャは、センサ表面の第1の端部から第2の端部に向かって移動する指によって定義され得、指は、第2の端部に隣接して位置するときに上げられていることを検出される。
【0091】
上に開示された実施形態の例によると、第2のジェスチャは、センサ表面の第2の端部から第1の端部に向かって移動する指によって定義され得、指は、第1の端部に隣接して位置するときに上げられていることを検出される。
【0092】
上に開示された実施形態の例によると、第3のジェスチャは、センサ表面の第1の端部から第2の端部に向かって移動する指によって定義され得、指は、第2の端部から第1の端部に向かって戻り、指は、指が、第1の端部に隣接するセンサ表面上の場所に戻っていることが検出されるときに上げられていることを検出される。
【0093】
上に開示された実施形態の例によると、第4のジェスチャは、センサ表面の第2の端部から第1の端部に向かって移動する指によって定義され得、指は、第1の端部から第2の端部に向かって戻り、指は、指が、第2の端部に隣接するセンサ表面上の場所に戻っていることが検出されたときに上げられていることを検出される。
【0094】
上に開示された実施形態の例によると、ジェスチャ検出システムは、いずれのジェスチャが検出されているかを指示する音声メッセージを有して構成され得る。
【0095】
上に開示された実施形態の例によると、ジェスチャ検出システムは、コンピュータ制御デバイスにおいて実施される行為を指示するメニューツリー内のナビゲーション命令に関連付けられたジェスチャを識別するように構成され得る。
【0096】
上に開示された実施形態の例によると、第1の定義されたジェスチャは、メニューツリー内の上方向ナビゲーションのためのものであり得、第2の定義されたジェスチャは、メニューツリー内の下方向ナビゲーションのためのものであり得る一方、第3の定義されたジェスチャは、メニューツリー内のメニュー項目を選択するためのものであり得る。
【0097】
上に開示された実施形態の例によると、センサ表面の幅は、指先のサイズに適応され得る。
【0098】
上に開示された実施形態の例によると、コンピュータデバイスは、眼鏡フレーム内に一体化され得、及び少なくとも1つの線形容量性スライダセンサは、眼鏡アームの1つ内に一体化され得る。
【0099】
上に開示された実施形態の例によると、線形容量性スライダセンサは、コンピュータ制御デバイスの外面壁の内部に埋め込まれ得る。
【手続補正2】
【補正対象書類名】特許請求の範囲
【補正対象項目名】全文
【補正方法】変更
【補正の内容】
【特許請求の範囲】
【請求項1】
少なくとも1つの線形容量性スライダセンサを含むジェスチャ検出システムであって、前記少なくとも1つの線形容量性スライダセンサのセンサ表面は、コンピュータ制御デバイスの外面上に一体化可能であり、前記容量性スライダセンサは、前記センサ表面の1つの端から、前記第1の端に対向する第2の端に前記センサ表面上の長手方向に沿って移動する指の運動を検出するように構成され、
- 前記ジェスチャ検出システムは、前記センサ表面にわたる異なる検出された指運動パターンを異なるジェスチャとして解釈するように構成され、
- それぞれの指運動の組み合わせのそれぞれの1つの前記解釈は、少なくとも1つの指運動が、前記第1の端部と前記第2の端部との間の任意の方向において前記センサ表面にわたって検出された後、指が前記センサ表面の前記第1の端又は前記第2の端で上げられていることを前記線形容量性スライダセンサが検出するときに行われ、
- 加速度計は、前記ジェスチャ検出システムの一部であり、前記加速度計によって登録された規定数のタッピングは、前記線形容量性スライダセンサ表面上の検出された指運動を認定するために使用される、ジェスチャ検出システム。
【請求項2】
前記加速度計によって登録された規定数のタッピングは、検出されたジェスチャのために前記コンピュータシステム内で実行される命令をリセットする、請求項1に記載のシステム。
【請求項3】
前記加速度計によって登録された規定数のタッピングは、検出されたジェスチャのために実行される命令のパラメータを初期化する、請求項1に記載のシステム。
【請求項4】
少なくとも2つの独立した線形容量性スライダセンサを含む、請求項1に記載のシステム。
【請求項5】
それぞれの各線形容量性スライダセンサによって互いに独立して検出された指運動を解釈するように構成される、請求項4に記載のシステム。
【請求項6】
前記それぞれの検出された指運動の組み合わせとして、それぞれの各線形容量性スライダセンサによって検出された指運動を解釈するように構成される、請求項4に記載のシステム。
【請求項7】
第1のジェスチャは、前記センサ表面の前記第1の端部から前記第2の端部に向かって移動する指によって定義され、前記指は、前記第2の端部に隣接して位置するときに上げられていることを検出される、請求項1に記載のシステム。
【請求項8】
第2のジェスチャは、前記センサ表面の前記第2の端部から前記第1の端部に向かって移動する指によって定義され、前記指は、前記第1の端部に隣接して位置するときに上げられていることを検出される、請求項1に記載のシステム。
【請求項9】
第3のジェスチャは、前記センサ表面の前記第1の端部から前記第2の端部に向かって移動する指によって定義され、前記指は、前記第2の端部から前記第1の端部に向かって戻り、前記指は、前記指が、前記第1の端部に隣接する前記センサ表面上の場所に戻っていることが検出されるときに上げられていることを検出される、請求項1に記載のシステム。
【請求項10】
第4のジェスチャは、前記センサ表面の前記第2の端部から前記第1の端部に向かって移動する指によって定義され、前記指は、前記第1の端部から前記第2の端部に向かって戻り、前記指は、前記指が、前記第2の端部に隣接する前記センサ表面上の場所に戻っていることが検出されるときに上げられていることを検出される、請求項1に記載のシステム。
【請求項11】
いずれのジェスチャが検出されているかを指示する音声メッセージを有して構成される、請求項1に記載のシステム。
【請求項12】
前記コンピュータ制御デバイスにおいて実施される行為を指示するメニューツリー内のナビゲーション命令に関連付けられたジェスチャを識別するように構成される、請求項1に記載のシステム。
【請求項13】
第1の定義されたジェスチャは、前記メニューツリー内の上方向ナビゲーションのためのものであり、第2の定義されたジェスチャは、前記メニューツリー内の下方向ナビゲーションのためのものである一方、第3の定義されたジェスチャは、前記メニューツリー内のメニュー項目を選択するためのものである、請求項12に記載のシステム。
【請求項14】
前記センサ表面の幅は、指のサイズに適応される、請求項1に記載のシステム。
【請求項15】
前記コンピュータデバイスは、眼鏡フレーム内に一体化され、及び少なくとも1つの線形容量性スライダセンサは、1つの眼鏡アーム内に一体化される、請求項1に記載のシステム。
【請求項16】
前記線形容量性スライダセンサは、前記コンピュータ制御デバイスの外壁の内部に埋め込まれる、請求項15に記載のシステム。
【国際調査報告】