(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2025-01-29
(45)【発行日】2025-02-06
(54)【発明の名称】入力装置
(51)【国際特許分類】
G06F 3/01 20060101AFI20250130BHJP
【FI】
G06F3/01 510
(21)【出願番号】P 2021023076
(22)【出願日】2021-02-17
【審査請求日】2024-01-16
【新規性喪失の例外の表示】特許法第30条第2項適用 第24回一般社団法人情報処理学会シンポジウム(インタラクション2020) 2020年3月9日~11日開催 [刊行物等] 第38回日本ロボット学会学術講演会(RSJ2020) オンライン予稿集 2020年10月8日発行 [刊行物等] 第38回日本ロボット学会学術講演会(RSJ2020) 2020年10月9日~11日開催
【国等の委託研究の成果に係る記載事項】(出願人による申告)令和2年度、国立研究開発法人科学技術振興機構、戦略的創造研究推進事業「ソーシャルタッチの計算論的解明とロボットへの応用に向けた研究開発」委託研究、産業技術力強化法第17条の適用を受ける特許出願。
(73)【特許権者】
【識別番号】393031586
【氏名又は名称】株式会社国際電気通信基礎技術研究所
(74)【代理人】
【識別番号】100090181
【氏名又は名称】山田 義人
(72)【発明者】
【氏名】塩見 昌裕
(72)【発明者】
【氏名】住岡 英信
(72)【発明者】
【氏名】港 隆史
(72)【発明者】
【氏名】大西 裕也
【審査官】冨永 昌彦
(56)【参考文献】
【文献】特開2020-176362(JP,A)
【文献】特表2017-524181(JP,A)
【文献】特開2010-134057(JP,A)
【文献】特開平04-225385(JP,A)
【文献】米国特許出願公開第2016/0048235(US,A1)
(58)【調査した分野】(Int.Cl.,DB名)
G06F 3/01
G06F 3/048 - 3/04895
(57)【特許請求の範囲】
【請求項1】
ユーザの少なくとも頬の一部を覆い、変形可能なシート状の被覆部、
前記被覆部の前記ユーザの顔の接触する側に取り付けられ、少なくとも前記ユーザの左頬の動作および右頬の動作を検出可能な検出部、および
前記検出部によって検出された前記ユーザの左頬の動作に基づく操作データまたは/および右頬の動作に基づく操作データを生成する生成部を備える、入力装置。
【請求項2】
前記生成部によって生成された操作データを外部のコンピュータに送信する送信部をさらに備える、請求項1記載の入力装置。
【請求項3】
前記検出部は、2つの静電容量型タッチセンサであり、
前記2つの静電容量型タッチセンサは、前記被覆部の左右にそれぞれ配置され、前記ユーザの左頬または/および右頬の動作を検出する、請求項1または2記載の入力装置。
【請求項4】
前記検出部は、4つ
の静電容量型タッチセンサを含み、
前記4つの静電容量型
タッチセンサは、前記被覆部の上下左右にそれぞれ配置され、前記ユーザの左頬、右頬、人中および顎の少なくとも1つの動作を検出し、
前記生成部は、前記4つの静電容量型
タッチセンサによって検出された、前記ユーザの左頬の動作に基づく操作データ、前記ユーザの右頬の動作に基づく操作データ、前記ユーザの人中の動作に基づく操作データ、および前記ユーザの顎の動作に基づく操作データの少なくとも1つを生成する、請求項1または2記載の入力装置。
【請求項5】
前記静電容量型タッチセンサは、
導電性の糸を編んで形成された第1布と絶縁性の糸を編んで形成された第2布を重ね合わせた導電性布、
前記第1布と同じ大きさを有し、当該第1布に重ねて貼り付けた絶縁シート、および
前記第1布と電気的に接続された静電容量センサICを備える、請求項3または4記載の入力装置。
【請求項6】
前記導電性布は、伸縮性を有する、請求項5記載の入力装置。
【発明の詳細な説明】
【技術分野】
【0001】
この発明は、入力装置に関し、特にたとえば、頬の動作に基づく操作データをコンピュータに入力する、入力装置に関する。
【背景技術】
【0002】
この種の従来の入力装置の一例が特許文献1に開示されている。特許文献1に開示される視線検出装置は、座標系に対する瞳孔の位置を測定するための2つの第1のカメラと、上記の座標系の既知の位置に配置され角膜反射点を形成するための光源を備え、瞳孔の中心と角膜反射点間の距離とこの距離の上記の座標系の座標軸に対する所定の角度のデータを取得する1つの第2のカメラとを用いて各カメラからの情報により視線方向を演算する演算手段を備えている。この視線検出装置では、関係式決定段階で、被検者に既知の点に注目させて測定を行い関係式が決定される。視線決定段階では、被検者を再度測定して、上記の関係式を用いて視線が決定される。また、特許文献1では、この視線検出装置が視線入力手段として使用できることが開示される。
【先行技術文献】
【特許文献】
【0003】
【発明の概要】
【発明が解決しようとする課題】
【0004】
上記の特許文献1に開示される視線検出装置では、視線を決定する場合に、被験者ないしユーザは、入力したい既知の点を注目する必要があり、操作が煩わしく、正確に入力するのが比較的難しいという問題がある。また、入力を確定する場合には、或る程度の長い時間、ユーザは既知の点を注目する必要があり、高速に入力することができない問題もある。
【0005】
それゆえに、この発明の主たる目的は、新規な、入力装置を提供することである。
【0006】
また、この発明の他の目的は、操作が簡単であり、正確かつ高速に入力できる、入力装置を提供することである。
【課題を解決するための手段】
【0007】
第1の発明は、ユーザの少なくとも頬の一部を覆い、変形可能なシート状の被覆部、被覆部のユーザの顔の接触する側に取り付けられ、少なくともユーザの左頬の動作および右頬の動作を検出可能な検出部、および検出部によって検出されたユーザの左頬の動作に基づく操作データまたは/および右頬の動作に基づく操作データを生成する生成部を備える、入力装置である。
【0008】
第2の発明は、第1の発明に従属し、生成部によって生成された操作データを外部のコンピュータに送信する送信部をさらに備える。
【0009】
第3の発明は、第1または第2の発明に従属し、検出部は、2つの静電容量型タッチセンサであり、2つの静電容量型タッチセンサは、被覆部の左右にそれぞれ配置され、ユーザの左頬または/および右頬の動作を検出する。
【0010】
第4の発明は、第1または第2の発明に従属し、検出部は、4つの静電容量型タッチセンサを含み、4つの静電容量型センサは、被覆部の上下左右にそれぞれ配置され、ユーザの左頬、右頬、人中および顎の少なくとも1つの動作を検出し、生成部は、4つの静電容量型センサによって検出された、ユーザの左頬の動作に基づく操作データ、ユーザの右頬の動作に基づく操作データ、ユーザの人中の動作に基づく操作データ、およびユーザの顎の動作に基づく操作データの少なくとも1つを生成する。
【0011】
第5の発明は、第3または第4の発明に従属し、静電容量型タッチセンサは、導電性の糸を編んで形成された第1布と絶縁性の糸を編んで形成された第2布を重ね合わせた導電性布、第1布と同じ大きさを有し、当該第1布に重ねて貼り付けた絶縁シート、および第1布と電気的に接続された静電容量センサICを備える。
【0012】
第6の発明は、第5の発明に従属し、導電性布は、伸縮性を有する。
【発明の効果】
【0013】
この発明によれば、タッチ検出部を設けたマスクを装着したユーザの頬の動作でコンピュータマウスのボタンの操作と同様の操作を行うことができる。このため、操作が簡単であり、正確かつ高速に文字を入力することができる。
【0014】
この発明の上述の目的、その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。
【図面の簡単な説明】
【0015】
【
図1】
図1はこの発明の第1実施例の入力装置の電気的な構成を示すブロック図である。
【
図2】
図2は
図1に示す頬動作検出装置の電気的な構成を示すブロック図である。
【
図3】
図3はマスク型検出部の外観構成の概略を示す図である。
【
図4】
図4は
図3に示すタッチ検出部の構成の概略を説明するための図である。
【
図5】
図5(A)は
図4に示すタッチ検出部を構成する導電性布の導電面側の布の一部拡大図であり、
図5(B)は
図4に示すタッチ検出部を構成する導電性布の非導電面側の布の一部拡大図である。
【
図6】
図6は
図4に示すタッチ検出部を構成する導電性布の一部拡大図である。
【
図7】
図7(A)は
図1に示す頬動作検出装置のタッチ検出部をユーザがタッチしていない状態の一例を示す図であり、
図7(B)は
図1に示す頬動作検出装置のタッチ検出部をユーザがタッチした状態の一例を示す図である。
【
図8】
図8は
図1に示すコンピュータに内蔵されるRAMのメモリマップの一例を示す図である。
【
図9】
図9は
図1に示すコンピュータに内蔵されるCPUの動作検出および操作データの生成処理の一例を示すフロー図である。
【
図10】
図10は
図1に示す入力装置を用いた文字入力のシステムの電気的な構成を示すブロック図である。
【
図11】
図11は
図10に示すユーザ端末に内蔵されるCPUの文字入力処理の一例を示すフロー図である。
【
図12】
図12は第2実施例のシステムの電気的な構成を示すブロック図である。
【
図13】
図13は
図12に示す頬動作検出装置に含まれるマスク型検出部の外観構成の概略を示す図である。
【
図15】
図15は
図14に示すコンピュータに内蔵されるCPUの車椅子制御処理の一例の一部を示すフロー図である。
【
図16】
図16は
図14に示すコンピュータに内蔵されるCPUの車椅子制御処理の他の一部であって、
図15に後続するフロー図である。
【
図17】
図17は
図14に示すコンピュータに内蔵されるCPUの車椅子制御処理のその他の一部であって、
図16に後続するフロー図である。
【
図18】
図18は第3実施例のユーザ端末に内蔵されるCPUのマウス動作処理の一例を示すフロー図である。
【発明を実施するための形態】
【0016】
[第1実施例]
図1を参照して、第1実施例の入力装置10は、頬動作検出装置12を含み、頬動作検出装置12はコンピュータ14に通信可能に接続される。頬動作検出装置12については、後で詳細に説明する。
【0017】
コンピュータ14は、汎用のサーバまたはPCであり、CPU14a、RAM14bおよび通信装置14cなどのコンポーネントを備える。また、コンピュータ14は、HDD、フラッシュメモリ、EEPROMなどの不揮発性メモリまたはSSDのような半導体メモリで構成される他の記憶部を備える。
【0018】
CPU14aは、コンピュータ14の全体的な制御を司るプロセッサである。RAM14bは、コンピュータ14の主記憶装置であり、CPU14aのバッファ領域およびワーク領域として機能する。通信装置14cは、イーサネットまたはWi-Fiのような通信方式に従って有線または無線で、頬動作検出装置12または外部のコンピュータと通信するための通信モジュールである。
【0019】
図2は頬動作検出装置12の電気的な構成を示すブロック図である。頬動作検出装置12は、マスク型検出部120およびコントローラ130を含み、マスク型検出部120のうちの後述するタッチ検出部124とコントローラ130が電気的に接続される。
【0020】
図3はマスク型検出部120の構造の概略を示す図である。マスク型検出部120は、汎用のマスク122を含み、マスク122の左右の端部に、それぞれ、タッチ検出部124が設けられる。
【0021】
なお、
図3では、ユーザの左右の頬の位置と2つのタッチ検出部124の各々の位置関係を分かり易く示すために、マスク122で覆われるユーザの顔の一部についても実線で示してある。また、
図3では、マスク122に配置された2つのタッチ検出部124の位置を分かり易く示すために、ユーザがマスク122の紐を耳に掛けていない状態を示してある。さらに、
図3では、タッチ検出部124は灰色で塗りつぶしてある。これらのことは、第2実施例の
図13においても同様である。
【0022】
一例として、マスク122は、変形可能な素材で形成された、ガーゼタイプ、不織布タイプまたはウレタンタイプの家庭用マスクであり、シート状の被覆部でユーザの顔の一部を覆う。ユーザの顔の一部は、具体的には、口、鼻の全部または一部、顎の全部または一部、および、左右の頬のそれぞれの全部または一部を意味する。
【0023】
なお、この第1実施例では、マスク122は、その被覆部の大きさが縦9cm×横17cmであるものを使用した。
【0024】
ただし、マスク122としては、医療用マスク(すなわち、サージカルマスク)を用いることもできる。また、マスク122は、家庭用マスクおよび医療用マスクに限定される必要はなく、専用のものを作成してもよい。
【0025】
後述するように、第1実施例では、ユーザの頬の動作を検出できれば良いため、マスク122は少なくともユーザの頬の一部を覆っていれば良い。また、ユーザの頬の動きを検出できればよく、ユーザは、入力装置10を用いて入力する内容および入力する位置を視認できれば良いため、マスク122は、目を除く頭部の全体が覆われるものでもよい。
【0026】
2つのタッチ検出部124は、それぞれ、帯状に形成され、一例として、層構造のマスク122(すなわち、被覆部)において、外側と内側(つまり、マスク122を装着するユーザ側)の布の間に、縦長の向きで固定される。ただし、タッチ検出部124は、マスク122の外側または内側の布の表面に固定されてもよい。後述するように、タッチ検出部124は布で構成されるため、マスク122に縫い付けることができる。
【0027】
また、第1実施例では、マスク型検出部120(または、マスク122)を装着したユーザ側から見て、マスク122の布地のうちの左側の端部にタッチ検出部124aが取り付けられ、マスク122の布地のうちの右側の端部にタッチ検出部124bが取り付けられる。
【0028】
以下、この明細書において、タッチ検出部124aとタッチ検出部124bを特に区別する必要が無い場合には、単に、「タッチ検出部124」と呼ぶことにする。
【0029】
この第1実施例では、ユーザは、上記のマスク型検出部120を装着し、左頬または右頬或いはその両方を動かすことで、その動作がタッチ検出部124aまたは/およびタッチ検出部124bで検出される。ユーザは、頬を空気で膨らませたり、舌で頬の内側から外側に向けて押したりすることで、タッチ検出部124側に頬を接触または押し当てる(以下、単に「押下動作」という)ことができる。また、この明細書において、ユーザが押下動作を行ってから押下動作を止める(つまり、頬をマスク122から離す)ことで、クリック動作を行うこともできる。
【0030】
つまり、ユーザは、頬を動かすことで、コンピュータマウスの左ボタンおよび右ボタンのそれぞれを押下する動作と、左ボタンおよび右ボタンのそれぞれを押下した後に開放する動作と同様の操作を行うことができる。
【0031】
図4は
図3に示すタッチ検出部124の構造の概略を示す図である。
図4に示すように、タッチ検出部124は、層構造を有しており、導電性布200および絶縁テープ220を含む。さらに、導電性布200は、導電面側の布200a(「第1布」に相当する)と非導電面側の布200b(「第2布」に相当する)を接結して構成される。絶縁テープ220は、導電面側の布200aに貼り付けられる。図示は省略するが、
図3に示したコントローラ130は、タッチ検出部124aとタッチ検出部124bのそれぞれの導電面側の布200aに電線で接続される。
【0032】
図5(A)は導電面側の布200aの一部拡大図であり、
図5(B)は非導電面側の布200bの一部拡大図である。また、
図6は頬動作検出装置12のタッチ検出部124を構成する導電性布200の一部拡大図である。
図5(A)、
図5(B)および
図6を参照しながら、この第1実施例の導電面側の布200a、非導電面側の布200bおよび導電性布200について具体的に説明する。ただし、
図5(A)、
図5(B)および
図6では、導電面側の布200aと非導電面側の布200bを分かり易く示すために、非導電面側の布200bを白抜きの線で示してある。また、
図6では、絶縁性の糸200cを点線で示してある。
【0033】
導電面側の布200aは、導電性の糸を丸編みすることにより作られる。この第1実施例では、導電性の糸は、ナイロン銀メッキ糸である。非導電面側の布200bは、絶縁性の糸を丸編みすることにより作られる。この第1実施例では、絶縁性の糸は、ポリエステル糸である。このように、導電性布を構成する導電面側の布200aおよび非導電面側の布200bはいずれも丸編みで作られているため、伸縮性が高い。
【0034】
図6に示すように、導電性布200は、接結天竺編みすることにより作られる。つまり、導電性布200は、導電面側の布200aと非導電面側の布200bを編みながら、それらの間をポリエステル糸のような絶縁性の糸200cで編むことにより、導電面側の布200aと非導電面側の布200bが接結される。したがって、導電性布200は、導電面側の布200aと非導電面側の布200bとその間の絶縁性の糸200cの三層構造になっている。ただし、
図4では、導電面側の布200aと非導電面側の布200bを接結するための絶縁性の糸200cの層については省略してある。
【0035】
なお、この第1実施例では、接結天竺編みにより導電性布200を作るようにしてあるが、導電面側の布200aと非導電面側の布200bの2枚の布を別々に作り、それらを面で合わせるように絶縁性の糸200cでくっつけるようにしてもよい。
【0036】
また、この第1実施例では、導電性布200に伸縮性を持たせるために、導電面側の布200aおよび非導電面側の布200bを丸編みで作るようにしたが、これに限定される必要はない。導電面側の布200aおよび非導電面側の布200bは、緯(ヨコ)編みまたは経(タテ)編みで作るようにしてもよい。かかる場合にも、導電性布200に伸縮性を持たせることができる。
【0037】
絶縁テープ220は、絶縁性のシートの片面に粘着剤を塗布したものである。絶縁性のシートは、ナイロンで形成される。絶縁テープ220としては、一例として、KAWAGUCHI社製の「ナイロン用 補修シート シールタイプ」を使用することができる。
【0038】
コントローラ130は、静電容量センサICとも呼ばれ、導電面側の布200aと接地電位の導電性の物体の間に発生する静電容量を検出する。コントローラ130には、電源から直流電圧が供給され、これを用いて静電容量を検出する。簡単に説明すると、コントローラ130は、所定期間(たとえば、5秒)毎に静電容量を検出し、この所定期間のうちの先の期間(たとえば、2.5秒)において、導電面側の布200aに所定値の直流電圧を印加し、その所定期間のうちの残りの期間において、導電面側の布200aが放電するときの電圧値を検出することにより、静電容量を算出する。静電容量を算出する機能を有するコントローラ130としては、一例として、マイクロチップ・テクノロジー・ジャパン株式会社製のマイクロコントローラ(型番:PIC16F1847)を使用することができる。
【0039】
ただし、この第1実施例では、2つのタッチ検出部124の導電面側の布200aは、それぞれ、ポリ塩化ビニルなどの絶縁性の樹脂で被覆された電線を用いて静電容量センサICの異なるポートに接続される。したがって、各タッチ検出部124の導電面側の布200aと接地電位の導電体の間に発生する静電容量が個別に検出される。
【0040】
上記のような構成の頬動作検出装置12は、タッチセンサとして機能することができる。
図7(A)はタッチ検出部124をタッチしていない状態一例を示し、
図7(B)はタッチ検出部124をタッチした状態の一例を示す。ただし、
図7(A)および
図7(B)では、コントローラ130を省略してある。また、
図7(A)および
図7(B)では、説明の都合上、ユーザの指を記載してあるが、実際には、タッチ検出部124は、ユーザの頬でタッチされる。また、
図7(A)および
図7(B)では、説明の都合上、マスク122の内側の層の布は省略してある。
【0041】
図7(B)に示すように、接地電位のユーザがタッチ検出部124の絶縁テープ220をタッチすると、導電面側の布200a(タッチ検出部124)とユーザの指の間に静電容量Cが発生する。
【0042】
したがって、第1実施例では、タッチ検出部124は、絶縁テープ220がマスク122の内側(ユーザ側)を向き、非導電性の布20bが外側を向くように、マスク122に固定される。
【0043】
なお、静電容量Cは数式(数1)で求めることができる。ただし、数式において、εは誘電率であり、第1実施例では、絶縁テープ220の材料によって決定される。また、Dは、タッチ検出部124とユーザの手の距離Dある。Sは、タッチ検出部124の面積であり、第1実施例では、1.5cm×4cmである。
【0044】
[数1]
C=ε×S/D
このように、静電容量Cが発生すると、ユーザなどの導電体がタッチ検出部124のタッチしていることが検出される。
【0045】
したがって、この第1実施例では、マスク型検出部120を装着したユーザの頬の動作をタッチ検出部124の静電容量Cの変化で検出する。ただし、ユーザがマスク型検出部120を装着した状態では、ユーザの頬とタッチ検出部124の距離Dが数mm程度であるため、ユーザが頬を動かさない場合すなわちユーザの頬がタッチ検出部124に接触(タッチ)しない場合にも静電容量Cは多少発生する。したがって、ユーザがマスク122を装着し、このユーザの頬がタッチ検出部124(マスク122の内側の布)に接触していない場合のコントローラ130の出力をゼロまたは略ゼロになるように校正してある。
【0046】
また、上記のとおり、ユーザの頬がタッチ検出部124に接触しない場合にも、静電容量Cが発生するため、コンピュータ14(CPU14a)は、コントローラ130の出力(以下、「センサ値」ということがある)が所定の閾値以上変化した場合に、ユーザの頬がタッチ検出部124に接触したこと、すなわち押下動作を判断するようにしてある。コンピュータ14(CPU14a)は、押下動作を判断すると、押下動作の操作データを生成する。
【0047】
なお、実験では、ユーザの頬がタッチ検出部124に接触した場合に、ユーザの頬がタッチ検出部124に接触する前と比較して、静電容量が300F程度変化するため、所定の閾値は150F~250Fの間で設定される。
【0048】
また、コンピュータ14(CPU14a)は、押下動作を止めたことを検出すると、第1所定時間(第1実施例では、100msec)前に、押下動作が行われていた場合には、クリック動作が行われたことを判断し、クリック動作の操作データを生成する。
【0049】
コンピュータ14(CPU14a)は、操作データを生成すると、生成した操作データを入力装置10が接続された外部のコンピュータに送信(または、入力)する。
【0050】
なお、この第1実施例では、クリック動作の判断には、押下動作を行っている時間の長さは関係無いが、押下動作が比較的長い場合(たとえば、1sec以上の場合)には、クリック動作では無く、長押し動作と判断するようにしてもよい。
【0051】
図8は
図1に示すコンピュータ14のRAM14bのメモリマップ300の一例を示す。
図8に示すように、RAM14bは、プログラム記憶領域302およびデータ記憶領域304を含む。
【0052】
プログラム記憶領域302は、入力装置10のプログラム(すなわち、情報処理プログラム)を記憶し、情報処理プログラムは、通信プログラム302a、センサ値検出プログラム302bおよび操作データ生成プログラム302cなどを含む。
【0053】
通信プログラム302aは、コントローラ130および外部のコンピュータと通信するためのプログラムである。センサ値検出プログラム302bは、コントローラ130から送信されるタッチ検出部124の出力に基づくセンサ値を検出するためのプログラムである。ただし、タッチ検出部124aの出力に基づくセンサ値とタッチ検出部124bの出力に基づくセンサ値とは識別可能にされている。
【0054】
操作データ生成プログラム302cは、センサ値検出プログラム302bに従って検出されたセンサ値に基づいて操作データを生成するためのプログラムである。ただし、操作データ生成プログラム302cは、タッチ検出部124aのセンサ値に基づいて左頬の動作についての操作データを生成し、タッチ検出部124bのセンサ値に基づいて右頬の動作についての操作データを生成する。
【0055】
データ記憶領域304には、センサ値データ304a、操作データ304b、押下動作フラグ304cおよび無動作フラグ304dなどが記憶される。
【0056】
センサ値データ304aは、コントローラ130から送信されたセンサ値についてのデータであり、タッチ検出部124aの出力に基づくセンサ値とタッチ検出部124bの出力に基づくセンサ値とが識別可能に記憶される。また、センサ値データ304aは、時系列に従って記憶され、CPU14aによって操作データの生成処理に使用されると、削除される。
【0057】
操作データ304bは、センサ値データ304aに基づいて生成した操作データであり、タッチ検出部124aおよびタッチ検出部124bの各々について識別可能に記憶される。
【0058】
押下動作フラグ304cは、ユーザの頬の動作が押下動作であるかどうかを判断するためのフラグである。押下動作フラグ304cは、押下動作が検出された場合にオンされ、無動作またはクリック動作が検出された場合にオフされる。
【0059】
無動作フラグ304dは、ユーザの頬の動作が無動作であるかどうかを判断するためのフラグである。無動作フラグ304dは、無動作が検出された場合にオンされ、押下動作が検出された場合にオフされる。
【0060】
ただし、押下動作フラグ304cおよび無動作フラグ304dは、左右の頬のそれぞれ、すなわち、タッチ検出部124aおよびタッチ検出部124bのそれぞれについて識別可能に設けられる。
【0061】
図9はコンピュータ14に内蔵されるCPU14aの動作検出および操作データの生成処理のフロー図である。
図9に示す動作検出および操作データの生成処理は、左側のタッチ検出部124aおよび右側のタッチ検出部124bの出力に基づくセンサ値のそれぞれについて個別に実行される。つまり、左側の頬の動作が検出され、左側の頬の動作に応じた操作データ(以下、「左側の操作データ」と呼ぶことがある)が生成され、右側の頬の動作が検出され、その右側の頬の動作に応じた操作データ(以下、「右側の操作データ」と呼ぶことがある)が生成される。
【0062】
CPU14aは、ユーザの指示または通信可能に接続された外部のコンピュータからの指示があると、
図9に示すように、動作検出および操作データの生成処理を開始し、ステップS1で、タッチ検出部124の出力に基づくセンサ値が所定の閾値(たとえば、150)以上であるかどうかを判断する。
【0063】
ステップS1で“YES”であれば、つまり、センサ値が所定の閾値以上であれば、ステップS3で、押下動作フラグ304cをオンし、ステップS5で、押下動作の操作データを生成し、ステップS7で、無動作フラグ304dをオフしてステップS1に戻る。
【0064】
ただし、ステップS5では、操作データを生成すると、対応する操作データ304bがRAM14bに記憶され、外部のコンピュータに入力(または、送信)される。このことは、後述するステップS17についても同じである。
【0065】
また、押下動作フラグ304cが既にオンである場合には、ステップS3の処理はスキップされる。同様に、無動作フラグ304dが既にオフである場合には、ステップS7の処理はスキップされる。以下、他のフラグがオンまたはオフされる場合についても同様である。
【0066】
また、ステップS1で“NO”であれば、つまり、センサ値が所定の閾値未満であれば、ステップS9で、第1所定時間(たとえば、500msec)前の押下動作フラグ304cはオンであったかどうかどうかを判断する。図示は省略するが、CPU14aは、押下動作フラグ304cがオンからオフに変化されたときに、RAM14bに設けられたタイマのカウントを開始し、そのカウント値が第1所定時間以下であるかどうかを判断する。
【0067】
ステップS9で“NO”であれば、つまり、第1所定時間前の押下動作フラグ304cがオフであれば、ステップS11で、無動作フラグ304dをオンし、ステップS13で、押下動作フラグ304cをオフして、ステップS1に戻る。
【0068】
一方、ステップS9で“YES”であれば、つまり、第1所定時間前の押下動作フラグ304cがオンであれば、ステップS15で、クリック動作の操作データを生成し、そして、ステップS17で、押下動作フラグ304cをオフして、ステップS1に戻る。
【0069】
図1に示した本願発明の入力装置10は、外部のコンピュータの入力装置として用いることができる。一例として、
図10は、入力装置10を、視線入力装置を用いた入力システムに適用したシステム400の電気的な構成を示すブロック図である。
【0070】
図10に示すように、システム400は、入力装置10、ユーザ端末20および視線入力装置22で構成される。ユーザ端末20および視線入力装置22はコンピュータ14に通信可能に接続される。
【0071】
ユーザ端末20は、汎用のデスクトップPCまたはタブレット端末であり、CPU20a、メモリ(RAM、ROM、HDD)、通信装置およびディスプレイなどのコンポーネントを備える。
【0072】
視線入力装置22は、ユーザの顔をカメラで撮影し、撮影画像からユーザの視線方向を算出(または、推定)する。ただし、ユーザの顔、カメラおよびユーザ端末20のディスプレイの位置関係から、視線方向に対するディスプレイの表示面の位置または領域は特定可能にされている。
【0073】
また、視線入力装置22は、周知であり、出願人らによって出願され、既に公開された特開2014-194617または特開2012-216180に開示された視線方向の推定装置を用いることができる。ただし、コンピュータ14は、視線方向の推定装置に含まれるコンピュータ本体として機能することもできる。
【0074】
なお、ユーザ端末20がタブレット端末である場合には、視線入力装置22のカメラとして、タブレット端末が備えるカメラを使用することができる。
【0075】
コンピュータ14は、頬動作検出装置12から入力される検出結果(以下、「センサ値」という)のデータと、視線入力装置22から入力される視線方向のデータを統合し、外部のコンピュータ(ここでは、ユーザ端末20)に入力する。コンピュータ14は、検出結果のデータと視線方向のデータを同期させる。このため、視線入力装置22をコンピュータ14に接続するようにしてある。
【0076】
ユーザ端末20は、入力装置10から入力される操作データまたは/および方向入力のデータを受信して、所定の処理を実行する。ここでは、ユーザ端末20が文字入力を行うための所定のアプリケーションを実行する場合について説明する。ただし、
図11に示す文字入力処理では、クリック動作の操作データのみを使用するため、ユーザ端末20は、押下動作の操作データを受信しても、文字入力処理には使用しない。このため、入力装置10は、押下動作の操作データをユーザ端末20に送信しないようにしてもよい。
【0077】
図11は
図10に示したユーザ端末20のCPU20aの文字入力処理のフロー図である。頬動作および視線による文字入力の機能が実行されると、
図11に示す文字入力処理が実行される。図示は省略するが、ユーザ端末20では、文書作成または電子メールなどの文字入力を行う所定のアプリケーションも同時に実行される。
【0078】
図11に示すように、ユーザ端末20のCPU20aは文字入力処理を開始すると、ステップS31で、ソフトウェアキーボードをユーザ端末20のディスプレイに表示する。続くステップS33では、マウスカーソルを視線の移動に従って移動する。ただし、視線が移動しない場合には、マウスカーソルも移動しない。
【0079】
次のステップS35では、左側のクリック動作が有るかどうかを判断する。ここでは、CPU20aは、コンピュータ14から左頬によるクリック動作の操作データすなわちタッチ検出部124aの出力に基づくクリック動作の操作データが入力されたかどうかを判断する。他のクリック動作が有るかどうかを判断する場合も同様である。
【0080】
ステップS35で“NO”であれば、つまり、左側のクリック動作が無ければ、ステップS45に進む。一方、ステップS35で“YES”であれば、つまり、左側のクリック動作が有れば、ステップS37で、マウスカーソルがソフトウェアキーボードのいずれかのキーを指示しているかどうかを判断する。
【0081】
ステップS37で“NO”であれば、つまり、マウスカーソルがソフトウェアキーボードのいずれのキーも指示していない場合には、ステップS39で、マウスカーソルが上記の所定のアプリケーションの終了ボタンを指示しているかどうかを判断する。
【0082】
ステップS39で“NO”であれば、つまり、マウスカーソルが上記の所定のアプリケーションの終了ボンタンを指示していなければ、ステップS33に戻る。一方、ステップS39で“YES”であれば、つまり、マウスカーソルが上記の所定のアプリケーションの終了ボタンを指示していれば、ステップS41で、所定のアプリケーションの終了を指示して、文字入力処理を終了する。
【0083】
また、ステップS37で“YES”であれば、つまり、マウスカーソルがソフトウェアキーボードのいずれかのキーを指示していれば、ステップS43で、指示しているキーに対応する文字を入力して、ステップS33に戻る。つまり、ステップS43では、CPU20aは、指示しているキーに対応する文字を入力する指示を所定のアプリケーションに与える。したがって、所定のアプリケーションでは、指示された文字が入力すべき位置に入力される。
【0084】
また、ステップS45では、右側のクリック動作が有るかどうかを判断する。ここでは、CPU20aは、コンピュータ14から右頬によるクリック動作の操作データが入力されたかどうかを判断する。
【0085】
ステップS45で“NO”であれば、つまり、右側のクリック動作が無ければ、ステップS33に戻る。一方、ステップS45で“YES”であれば、つまり、右側のクリック動作が有れば、ステップS47で、直前に入力された文字を削除(一文字削除)して、ステップS33に戻る。
【0086】
この第1実施例によれば、タッチ検出部を設けたマスクを装着したユーザの頬の動作でコンピュータマウスのボタンの操作と同様の操作を行うことができる。このため、操作が簡単であり、正確かつ高速に文字を入力することができる。したがって、視線入力だけで文字入力を行うよりも、ユーザは入力対象の文字を注視する時間を短くすることができる。
【0087】
また、第1実施例によれば、タッチ検出部は導電性布と絶縁テープで構成されるため、頬動作検出装置すなわちセンサの製造が簡単である。また、導電性布は接結天竺編みで作られるため、耐久性に優れている。
【0088】
さらに、この第1実施例によれば、マスクおよびタッチ検出部は布製であるため、洗濯することができる。したがって、繰り返し使用しても、清潔さを保つこたができる。
【0089】
なお、この第1実施例では、文字入力を行う場合について説明したが、他のアプリケーションが実行される場合には、クリック動作によって、コマンドを実行したり、コマンドの実行をキャンセルしたりすることができる。
【0090】
また、この第1実施例では、左側の操作データおよび右側の操作データの一方を受信して、文字入力および一文字削除の処理を実行するようにしたが、左側の操作データおよび右側の操作データの両方を同時に受信した場合には、他のコマンド(たとえば、改行)を行うようにしてもよい。この場合、ユーザは、左右の頬を同時に膨らまして、2つのタッチ検出部を同時にタッチする。
【0091】
さらに、この第1実施例では、2つのタッチ検出部を設けるようにしたが、タッチ検出部は1つあれば入力装置として機能し、また、ユーザが意図した操作を実行できる場合には、3つ以上のタッチ検出部が設けられてもよい。
【0092】
さらにまた、この第1実施例では、布製のタッチ検出部を設けるようにしたが、シート状で柔らかい素材の他のセンサを用いることもできる。一例として、タッチエンス株式会社製の薄型の触覚センサ(商品名「ショッカクキューブ(TM)」を使用することができる。
【0093】
[第2実施例]
第2実施例は、本願発明の入力装置10を電動の車椅子30の制御に用いたシステム500である。以下、システム500について説明するが、入力装置10については第1実施例で説明してあるため、重複した説明は省略する。
【0094】
図12は第2実施例のシステム500の電気的な構成を示すブロック図である。
図12に示すように、システム500は、入力装置10および車椅子30お含み、車椅子30はコンピュータ14と電気的に接続される。
【0095】
また、第2実施例の入力装置10では、マスク型検出部120は4つのタッチ検出部124を備える。第1実施例で説明した左側のタッチ検出部124aおよび右側のタッチ検出部124bに加え、上側のタッチ検出部124cおよび下側のタッチ検出部124dが設けられる。
【0096】
図13に示すように、上側のタッチ検出部124cは、マスク122の布地のうちの中央から上寄りに配置され、下側のタッチ検出部124dは、マスク122の布地のうちの中央から下寄りに配置される。
【0097】
タッチ検出部124cおよびタッチ検出部124dの形状および素材は、タッチ検出部124aおよびタッチ検出部124bと同じである。また、タッチ検出部124cおよびタッチ検出部124dは、層構造のマスク122において、外側と内側の布の間に、横長の向きで固定される。
【0098】
ユーザは、上唇と鼻の間を空気で膨らましたり、舌で押し出したりすることで、人中をタッチ検出部124cに接触させることができる。つまり、上側のタッチ検出部124cは、上側の押下動作およびクリック動作を検出する。
【0099】
また、ユーザは、下唇と顎先の間を空気で膨らましたり、舌で押し出したりすることで、顎の一部をタッチ検出部124dに接触させることができる。つまり、下側のタッチ検出部124dは、下側の押下動作およびクリック動作を検出する。
【0100】
厳密には、人中および顎の一部の動作は頬の動作ではないが、この明細書においては、これらの動作も頬の動作に含むことにする。
【0101】
また、以下、この明細書において、タッチ検出部124a-124dの各々を特に区別する必要が無い場合には、単に、「タッチ検出部124」と呼ぶことにする。
【0102】
図14は車椅子30の電気的な構成の一例を示すブロック図である。
図14に示すように、車椅子30は、コンピュータ32を含み、コンピュータ32は、入出力インターフェイス(以下、単に「インターフェイス」という。)34、モータドライバ36a、36b、モータ38a、38bおよびエンコーダ40a、40bが設けられる。
【0103】
なお、コンピュータ32、インターフェイス34およびモータドライバ36a、36bは、ボックスに入れられ、このボックスは、車椅子30の座席シートの下側または後ろ側に設けられる。
【0104】
コンピュータ32は、汎用のPCであり、CPU32a、メモリ(RAM、ROMおよびHDD)、通信装置などのコンポーネントを備える。このコンピュータ32が、入力装置10のコンピュータ14と通信可能に接続される。
【0105】
また、コンピュータ32は、インターフェイス34に接続される。このインターフェイス34は、モータドライバ36aを介して左モータ38aに接続されるとともに、モータドライバ36bを介して右モータ38bが接続される。また、インターフェイス34は、エンコーダ40aおよび40bに接続される。
【0106】
図示は省略するが、左モータ38aの回転軸と車椅子30の左の後輪の回転軸がギアを用いて連結され、右モータ38bの回転軸と車椅子30の右の後輪の回転軸がギアを用いて連結される。
【0107】
コンピュータ32は、入力装置10からの操作データに応じて左モータ38aおよび右モータ38bの各々の駆動を制御し、車椅子30の移動を制御する。一例として、タッチ検出部124cによって上側のクリック動作が検出され、その上側のクリック動作に応じた操作データが入力されると、コンピュータ32は、左モータ38aおよび右モータ38bを第1所定速度で回転させ、車椅子30を前進させる。また、タッチ検出部124dによって下側のクリック動作が検出され、そのクリック動作に応じた操作データが入力されると、コンピュータ32は、左モータ38aおよび右モータ38bを停止させ、車椅子30を停止させる。
【0108】
また、車椅子30が前進している場合に、タッチ検出部124aによって左側のクリック動作が検出され、そのクリック動作に応じた操作データが入力されると、コンピュータ32は、右モータ38bの回転速度を第1所定速度から第2所定速度に上昇させて、車椅子30を左折させる。車椅子30が前進している場合にタッチ検出部124bによって、右側のクリック動作が検出され、そのクリック動作に応じた操作データが入力されると、コンピュータ32は、左モータ38aの回転速度を第1所定速度から第2所定速度に上昇させて、車椅子30を右折させる。
【0109】
さらに、車椅子30が停止している場合に、タッチ検出部124aによって左側のクリック動作が検出され、そのクリック動作に応じた操作データが入力されると、コンピュータ32は、左モータ38aを停止させた状態で右モータ38bを第3所定速度で回転させて、車椅子30を左に旋回させる。ただし、第3所定速度は、第1所定速度以下に設定される。また、車椅子30が停止している場合に、タッチ検出部124bによって右側のクリック動作が検出され、そのクリック動作に応じた操作データが入力されると、コンピュータ32は、右モータ38bを停止させた状態で左モータ38aを第3所定速度で回転させて、車椅子30を右に旋回させる。
【0110】
また、タッチ検出部124dによって下側のクリック動作が検出され、そのクリック動作に応じた操作データが第2所定時間内に所定回数検出されると、コンピュータ32は、車椅子30の制御処理を終了する。
【0111】
具体的には、車椅子30のコンピュータ32に内蔵されるCPU32aが
図15-
図17に示す車椅子制御処理を実行する。
図15-
図17に示すフロー図である。
【0112】
なお、入力装置10の処理は、第1実施例と同じであるため、重複した説明は省略する。ただし、第2実施例では、マスク型検出部120は、4つのタッチ検出部124を備えるため、4つのタッチ検出部124の各々について、
図9に示した動作検出および操作データの生成処理が実行され、上下左右の各々のタッチ検出部124の検出結果に基づく操作データが識別可能にコンピュータ32に入力される。
【0113】
また、
図15-
図17に示す車椅子制御処理においても、クリック動作の操作データのみを使用するため、ユーザ端末20は、押下動作の操作データを受信しても、
車椅子制御処理には使用しない。このため、入力装置10は、押下動作の操作データをユーザ端末20に送信しないようにしてもよい。
【0114】
車椅子30の主電源がオンされると、
図15に示すように、CPU32aは、車椅子制御処理を開始し、ステップS71で、下側のクリック動作が有るかどうかを判断する。ここでは、CPU20aは、コンピュータ14から顎によるクリック動作の操作データすなわちタッチ検出部124dの出力に基づくクリック動作の操作データが入力されたかどうかを判断する。他のクリック動作が有るかどうかを判断する場合も同様である。
【0115】
ステップS71で“NO”であれば、つまり、下側のクリック動作が無ければ、
図16に示すステップS89に進む。一方、ステップS71で“YES”であれば、つまり、下側のクリック動作が有れば、ステップS73で、下側のクリック動作の回数(すなわち、クリック回数)が0であるかどうかを判断する。
【0116】
なお、図示は省略するが、車椅子制御処理が開始されたときに、クリック回数をカウントするカウンタはリセットされる(つまり、カウント値=0)。
【0117】
ステップS73で“YES”であれば、つまり、下側のクリック回数が0であれば、ステップS75で、左モータ38aおよび右モータ38bの回転速度を0(m/sec)に設定し、ステップS77で、クリック回数を1加算し(クリック回数=1)、ステップS79で、タイマをスタートして、ステップS71に戻る。
【0118】
ただし、ステップS75では、CPU32aは、インターフェイス34を介して、モータドライバ36aおよびモータドライバ36bを制御し、左モータ38aおよび右モータ38bの回転速度を設定(制御)する。以下、左モータ38aおよび右モータ38bの回転速度を設定する場合について同様である。
【0119】
一方、ステップS73で“NO”であれば、つまり、下側のクリック回数が0でなければ、ステップS81で、クリック回数が3であるかどうかを判断する。
ステップS81で“NO”であれば、つまり、クリック回数が1または2であれば、ステップS83で、クリック回数を1加算して、ステップS71に戻る。
【0120】
一方、ステップS81で“YES”であれば、つまり、クリック回数が3であれば、ステップS83で、タイマのカウント値が第2所定時間(たとえば、1秒)を経過したかどうかを判断する。
【0121】
ステップS83で“YES”であれば、つまり、タイマのカウント値が第2所定時間を経過していれば、ステップS87で、カウンタをリセットして(つまり、クリック回数=0)、ステップS71に戻る。つまり、第2所定時間内に下側のクリック動作が3回行われない場合には、車椅子制御処理は終了されない。一方、ステップS83で“NO”であれば、つまり、タイマのカウント値が第2所定時間を経過していなければ、車椅子制御処理を終了する。
【0122】
図16に示すステップS89では、上側のクリック動作が有るかどうかを判断する。ステップS89で“YES”であれば、つまり、上側のクリック動作が有れば、ステップS91で、左モータ38aおよび右モータ38bの回転速度を第1所定速度に設定して、ステップS95に進む。したがって、車椅子30は第1所定速度に応じた移動速度で前進する。
【0123】
一方、ステップS89で“NO”であれば、つまり、上側のクリック動作が無ければ、ステップSS93で、左モータ38aおよび右モータ38bの回転速度を0に設定して、ステップS95に進む。したがって、車椅子30は、停止中であれば、停止を継続し、移動中であれば、減速または停止する。
【0124】
ステップS95では、左側のクリック動作が有るかどうかを判断する。ステップS95で“NO”であれば、つまり、左側のクリック動作が無ければ、ステップS97で、右モータ38bの回転速度をゼロに設定して、
図17に示すステップS105に進む。ただし、右モータ38bの回転速度が既にゼロに設定されている場合には、ステップS97の処理はスキップされる。
【0125】
一方、ステップS95で“YES”であれば、つまり、左側のクリック動作が有れば、ステップS99で、車椅子30が前進中かどうかを判断する。ここでは、CPU32aは、左モータ38aおよび右モータ38bを回転させているかどうかを判断する。このことは、後述するステップS109も同じである。
【0126】
ステップS99で“YES”であれば、つまり、車椅子30が前進中であれば、ステップS101で、右モータ38bの回転速度を第2所定速度に設定して、ステップS105に進む。したがって、車椅子30は左折する(つまり、左に曲がる)。一方、ステップS99で“NO”であれば、つまり、車椅子30が停止中であれば、ステップS103で、右モータ38bの回転速度を第3所定速度に設定して、ステップS105に進む。したがって、車椅子30は左に旋回する。
【0127】
図17に示すように、ステップS105では、右側のクリック動作が有るかどうかを判断する。ステップS105で“NO”であれば、つまり、右側のクリック動作が無ければ、ステップS107で、左モータ38aの回転速度をゼロに設定して、
図15に示したステップS71に戻る。ただし、左モータ38aの回転速度が既にゼロに設定されている場合には、ステップS107の処理はスキップされる。
【0128】
一方、ステップS105で“YES”であれば、つまり、右側のクリック動作が有れば、ステップS109で、車椅子30が前進中かどうかを判断する。ステップS109で“YES”であれば、ステップS111で、左モータ38aの回転速度を第2所定速度に設定して、ステップS71に戻る。したがって、車椅子30は左折する(つまり、左に曲がる)。一方、ステップS109で“NO”であれば、つまり、車椅子30が停止中であれば、ステップS113で、左モータ38aの回転速度を第3所定速度に設定して、ステップS71に戻る。したがって、車椅子30は右に旋回する。
【0129】
第2実施例によれば、第1実施例と同じ効果を奏するとともに、車椅子の移動を制御することができる。
【0130】
なお、第2実施例に示した車椅子の制御方法は一例であり、限定されるべきでない。他の例では、下側のクリック動作を第2所定時間内に3回検出することに代えて、左側および右側のクリック動作を同時に検出したり、上側、左側および右側のクリック動作を同時に検出したり、下側、左側および右側のクリック動作を同時に検出したり、上側、下側、左側および右側のクリック動作を同時に検出したりした場合に、車椅子制御処理を終了するようにしてもよい。
【0131】
[第3実施例]
第3実施例は、本願発明の入力装置10を、マウス動作の制御に用いたシステムである。以下、このシステムについて説明するが、入力装置10については、第1実施例および第2実施例で説明してあるため、重複した説明は省略する。
【0132】
図示は省略するが、第3実施例のシステムは、第1実施例のシステム400において、視線入力装置22を削除し、第2実施例の入力装置10を用いたものである。
【0133】
したがって、ユーザ端末20は、入力装置10からの押下動作およびクリック動作に基づいて、マウスカーソルの位置を制御すなわち移動を制御するとともに、左側のクリック動作および右側のクリック動作に基づいてコマンドを実行する。
【0134】
具体的には、第3実施例では、ユーザ端末20のCPU20aは、
図18に示すマウス動作の処理を実行する。第1実施例で説明したソフトウェアキーボードが表示されているものとするが、ソフトウェアキーボードは表示されなくてもよい。また、マウス動作処理は、所定のアプリケーションと並行して実行される。
【0135】
図18に示すように、CPU20aは、マウス動作を開始すると、ステップS121で、上下左右のいずれかの押下動作が第3所定時間(たとえば、1秒)以上継続しているかどうかを判断する。
【0136】
ステップS121で“NO”であれば、上下左右のいずれの押下動作も第3所定時間以上継続していなければ、ステップS125に進む。ただし、ステップS121では、上下左右のいずれの押下動作も行われていない場合も、“NO”と判断される。
【0137】
一方、ステップS121で“YES”であれば、つまり、上下左右のいずれかの押下動作が第3所定時間以上継続していれば、ステップS123で、押下動作が第3所定時間以上継続した方向にマウスカーソルを移動させて、ステップS121に戻る。
【0138】
ステップS125では、マウスカーソルの移動速度を0に設定する。次のステップS127では、左側のクリック動作が有るかどうかを判断する。ステップS127で“NO”であれば、つまり、左側のクリック動作が無ければ、ステップS129で、右側のクイック動作が有るかどうかを判断する。
【0139】
ステップS129で“NO”であれば、つまり、右側のクリック動作も無ければ、ステップS121に戻る。一方、ステップS129で“YES”であれば、つまり、右側のクリック動作が有れば、ステップS131で、右側のクリックコマンドを実行して、ステップS121に戻る。たとえば、ステップS131では、文字入力が実行されている場合には、第1実施例で説明したように、一文字削除したり、マウスカーソルが所定のアプリケーションの実行画面に表示されたボタンを指示している場合には、そのボタンのプロパティをディスプレイに表示したりする。
【0140】
また、ステップS127で“YES”であれば、つまり、左側のクリック動作があれば、ステップS133で、マウスカーソルが所定のアプリケーションの終了ボタン上であるかどうかを判断する。
【0141】
ステップS133で“NO”であれば、つまり、マウスカーソルが所定のアプリケーションの終了ボタン上でなければ、ステップS135で、左側のクリックコマンドを実行して、ステップS121に戻る。たとえば、ステップS135では、ソフトウェアキーによって文字が入力されたり、所定のアプリケーションの実行画面に設けられたボタンに割り当てられた機能が実行されたりする。
【0142】
一方、ステップS133で“YES”であれば、つまり、マウスカーソルが所定のアプリケーションの終了ボタン上であれば、ステップS137で、所定のアプリケーションの終了を指示して、マウス動作の処理を終了する。
【0143】
第3実施例によれば、第1実施例と同様の効果を奏するとともに、マウスカーソルの移動およびクリック動作によるコマンドの実行を行うことができる。
【0144】
なお、上記の各実施例で示した具体的な数値および制御方法は単なる例示であり、限定される必要は無く、実際の製品および製品が適用される環境などに応じて適宜変更可能である。
【符号の説明】
【0145】
10 …入力装置
12 …頬動作検出装置
14、32、 …コンピュータ
20 …ユーザ端末
22 …視線入力装置
30 …車椅子
400、500 …システム