IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 東芝クライアントソリューション株式会社の特許一覧

<>
  • 特許-ウェアラブル機器及びその操作方法 図1
  • 特許-ウェアラブル機器及びその操作方法 図2
  • 特許-ウェアラブル機器及びその操作方法 図3
  • 特許-ウェアラブル機器及びその操作方法 図4
  • 特許-ウェアラブル機器及びその操作方法 図5
  • 特許-ウェアラブル機器及びその操作方法 図6
  • 特許-ウェアラブル機器及びその操作方法 図7
  • 特許-ウェアラブル機器及びその操作方法 図8
  • 特許-ウェアラブル機器及びその操作方法 図9
  • 特許-ウェアラブル機器及びその操作方法 図10
  • 特許-ウェアラブル機器及びその操作方法 図11
  • 特許-ウェアラブル機器及びその操作方法 図12
  • 特許-ウェアラブル機器及びその操作方法 図13
  • 特許-ウェアラブル機器及びその操作方法 図14
  • 特許-ウェアラブル機器及びその操作方法 図15
  • 特許-ウェアラブル機器及びその操作方法 図16
  • 特許-ウェアラブル機器及びその操作方法 図17
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2021-12-17
(45)【発行日】2022-01-14
(54)【発明の名称】ウェアラブル機器及びその操作方法
(51)【国際特許分類】
   G06F 3/0354 20130101AFI20220106BHJP
   G06F 3/041 20060101ALI20220106BHJP
   G06F 3/038 20130101ALI20220106BHJP
   G06F 3/01 20060101ALI20220106BHJP
   G06F 3/0488 20220101ALI20220106BHJP
【FI】
G06F3/0354 453
G06F3/041 595
G06F3/041 400
G06F3/038 350D
G06F3/01 510
G06F3/0488
【請求項の数】 14
(21)【出願番号】P 2018014029
(22)【出願日】2018-01-30
(65)【公開番号】P2019133342
(43)【公開日】2019-08-08
【審査請求日】2020-12-09
(73)【特許権者】
【識別番号】398058588
【氏名又は名称】Dynabook株式会社
(74)【代理人】
【識別番号】110001737
【氏名又は名称】特許業務法人スズエ国際特許事務所
(72)【発明者】
【氏名】畠山 哲夫
【審査官】田川 泰宏
(56)【参考文献】
【文献】特開2017-120488(JP,A)
【文献】特開2015-038645(JP,A)
【文献】特開2007-072633(JP,A)
【文献】特開2001-154766(JP,A)
【文献】特開2017-111537(JP,A)
【文献】特開2017-182228(JP,A)
【文献】特開2015-022745(JP,A)
【文献】特開2014-164761(JP,A)
【文献】米国特許出願公開第2017/0185214(US,A1)
(58)【調査した分野】(Int.Cl.,DB名)
G06F 3/0354
G06F 3/041
G06F 3/038
G06F 3/01
G06F 3/0488
(57)【特許請求の範囲】
【請求項1】
マウスカーソルを含む画面にスクリーンキーボードを選択的に表示させる表示手段と、
少なくとも第1辺と第2辺を有する多角形状のプレートを含み、前記第1辺と前記第2辺の少なくとも一方に関する指のなぞり動作を検出する検出手段と、
前記検出手段が前記指のなぞり動作を検出した場合、前記画面に前記スクリーンキーボードが表示されているか否かを判定し、前記スクリーンキーボードが表示されていると判定した場合、前記検出手段が検出した前記指のなぞり動作に応じた動作を前記画面の上で実行する制御手段と、
を具備するウェアラブル機器。
【請求項2】
前記検出手段は前記第1辺と前記第2辺の少なくとも一方に関する前記指のなぞり方向を検出し、
前記制御手段は、前記スクリーンキーボードが表示されていないと判定した場合、前記検出手段により検出された前記指のなぞり方向へ前記マウスカーソルを移動させる請求項1記載のウェアラブル機器。
【請求項3】
前記プレートは前記第1辺と平行な第3辺と、前記第2辺と平行な第4辺をさらに有し、
前記検出手段は前記第1辺、前記第2辺、前記第3辺及び前記第4辺の少なくとも一方に関する前記指のなぞり方向を検出し、
前記制御手段は、前記スクリーンキーボードが表示されていないと判定した場合、
前記検出手段が前記第1辺に関する前記指のなぞり動作の開始を検出すると、前記検出手段により検出された前記指のなぞり方向への前記マウスカーソルの移動を開始し、
前記検出手段が前記第1辺に関する前記指のなぞり動作の終了を検出すると、前記検出手段により検出された前記指のなぞり方向への前記マウスカーソルの移動を終了させ、
前記検出手段が前記第2辺に関する前記指のなぞり動作の開始を検出すると、前記検出手段により検出された前記指のなぞり方向への前記マウスカーソルの移動を開始し、
前記検出手段が前記第2辺に関する前記指のなぞり動作の終了を検出すると、前記検出手段により検出された前記指のなぞり方向への前記マウスカーソルの移動を終了させる請求項1記載のウェアラブル機器。
【請求項4】
前記制御手段は、前記スクリーンキーボードが表示されていないと判定した場合、
前記検出手段が前記第3辺に関する前記指のなぞり動作の開始を検出しても、前記検出手段により検出された前記指のなぞり方向への前記マウスカーソルの移動を開始せず、
前記検出手段が前記第4辺に関する前記指のなぞり動作の開始を検出しても、前記検出手段により検出された前記指のなぞり方向への前記マウスカーソルの移動を開始しない請求項3記載のウェアラブル機器。
【請求項5】
前記制御手段は、前記スクリーンキーボードが表示されていないと判定した場合、
前記検出手段が前記指の第1のなぞり動作を検出するとマウスの左ボタンクリックに対応する動作を実行し、
前記検出手段が前記指の第2のなぞり動作を検出すると、マウスの左ボタンダブルクリックに対応する動作を実行し、
前記検出手段が前記指の第3のなぞり動作を検出すると、マウスの左ボタンの押下状態保持開始に対応する動作を実行し、
前記検出手段が前記指の第4のなぞり動作を検出すると、マウスの右ボタンクリックに対応する動作を実行し、
前記検出手段が前記指の第5のなぞり動作を検出すると、左ボタンの押下状態保持終了に対応する動作を実行する請求項1記載のウェアラブル機器。
【請求項6】
前記制御手段は、前記検出手段が前記指の第6のなぞり動作を検出する場合、前記スクリーンキーボードを前記画面に表示させる又は前記画面に表示されている前記スクリーンキーボードを前記画面から消す請求項1記載のウェアラブル機器。
【請求項7】
前記制御手段は、前記スクリーンキーボードが表示されていると判定した場合、前記検出手段が前記指の第6のなぞり動作を検出すると、前記スクリーンキーボードのフォーカスされているキーに対応する文字を入力する請求項1記載のウェアラブル機器。
【請求項8】
前記検出手段は前記第1辺と前記第2辺の少なくとも一方に関する前記指のなぞり方向も検出し、
前記制御手段は、前記スクリーンキーボードが表示されていると判定した場合、前記検出手段により検出された前記指のなぞり方向へ前記スクリーンキーボードのフォーカスを移動させる請求項1記載のウェアラブル機器。
【請求項9】
前記プレートは前記第1辺と平行な第3辺と、前記第2辺と平行な第4辺をさらに有し、
前記検出手段は前記第1辺、前記第2辺、前記第3辺及び前記第4辺の少なくとも一方に関する前記指のなぞり方向を検出し、
前記制御手段は、前記スクリーンキーボードが表示されていると判定した場合、
前記検出手段が前記第1辺に関する前記指のなぞり動作の開始を検出すると、前記検出手段により検出された前記指のなぞり方向への前記スクリーンキーボードのフォーカスの移動を開始し、
前記検出手段が前記第1辺に関する前記指のなぞり動作の終了を検出すると、前記検出手段により検出された前記指のなぞり方向への前記スクリーンキーボードのフォーカスの移動を終了させ、
前記検出手段が前記第2辺に関する前記指のなぞり動作の開始を検出すると、前記検出手段により検出された前記指のなぞり方向への前記スクリーンキーボードのフォーカスの移動を開始し、
前記検出手段が前記第2辺に関する前記指のなぞり動作の終了を検出すると、前記検出手段により検出された前記指のなぞり方向への前記スクリーンキーボードのフォーカスの移動を終了させる請求項1記載のウェアラブル機器。
【請求項10】
前記制御手段は、前記スクリーンキーボードが表示されていると判定した場合、
前記検出手段が前記第3辺に関する前記指のなぞり動作の開始を検出しても、前記検出手段により検出された前記指のなぞり方向への前記スクリーンキーボードのフォーカスの移動を開始せず、
前記検出手段が前記第4辺に関する前記指のなぞり動作の開始を検出しても、前記検出手段により検出された前記指のなぞり方向への前記スクリーンキーボードのフォーカスの移動を開始しない請求項9記載のウェアラブル機器。
【請求項11】
前記検出手段は前記第1辺と前記第2辺の少なくとも一方に関する前記指のなぞり方向を検出し、
前記制御手段は、前記スクリーンキーボードが表示されていると判定し、前記スクリーンキーボードの各キーは第1文字と複数の第2文字に対応している場合、前記検出手段が前記指の接触を検出すると前記第1文字を入力し、前記検出手段が前記指のなぞり動作を検出すると前記検出手段が検出した前記指のなぞり方向に応じて前記複数の第2文字のいずれかを入力する請求項1記載のウェアラブル機器。
【請求項12】
前記プレートの形状は正方形、長方形、角部が丸められた正方形又は角部が丸められた長方形を含む請求項1乃至請求項11のいずれか一項記載のウェアラブル機器。
【請求項13】
前記ウェアラブル機器はメガネフレーム形状の筐体を具備し、
前記表示手段はユーザの視線上に位置するように前記筐体に取り付けられ、
前記検出手段は前記プレートがユーザの頭の側部に位置するように前記筐体に取り付けられている請求項1乃至請求項12のいずれか一項記載のウェアラブル機器。
【請求項14】
少なくとも第1辺と第2辺を有する多角形状のプレートを有する入力部を具備するウェアラブル機器の操作方法であって、
マウスカーソルを含む画面を表示することと、
前記画面にスクリーンキーボードを選択的に表示することと、
前記プレートの前記第1辺と前記第2辺の少なくとも一方に関する指のなぞり動作を検出することと、
前記画面に前記スクリーンキーボードが表示されているか否かを判定することと、
前記スクリーンキーボードが表示されていると判定された場合、検出された前記指のなぞり動作に応じた動作を前記画面の上で実行することと、
を具備する操作方法。
【発明の詳細な説明】
【技術分野】
【0001】
本発明の実施形態はウェアラブル機器及びその操作方法に関する。
【背景技術】
【0002】
最近、多くのモノがインターネットでつながるIoT時代となり、オフィス、工場、その他様々な場面において、ネットワークコミュニケーションや情報共有のツールとしてエッジコンピューティングと呼ばれる技術が求められている。このエッジコンピューティングを実現するためにはデータセンター(或いはクラウド)とは別に作業者(ユーザ)がその場で使用可能な、高度の汎用性と処理能力を持つ実用的なモバイルエッジコンピューティングデバイスの開発が必要とされている。これにより、作業現場等での業務効率化や生産性向上、或いは、データの負荷分散やネットワーク環境の改善等を図ることが期待される。
【0003】
モバイルエッジコンピューティングデバイスはウェアラブル機器として実現される、あるいはウェアラブル機器に接続されて実現される。ウェアラブル機器の一例としてユーザの頭に装着されるメガネ、ヘルメット、ゴーグル等にディスプレイとタッチパッドが備えられているメガネ型ウェアラブル端末がある。タッチパッドは指の操作方向を検出し、指の操作方向に応じたコマンドを入力する。このようなウェアラブル機器では、ディスプレイはユーザの視線上に位置し、タッチパッドは頭側部に位置するように構成されている。
【0004】
ウェアラブル機器のタッチパッドは小型化せざるを得ず、狭いタッチエリア内で所定の方向に指を移動することは困難である。さらに、メガネ型ウェアラブル機器を装着しているユーザはタッチパッドを操作する指を見ることができず、手探り状態でタッチパッドを操作しなければならない。手探りで操作するため、所定の方向に指を移動することは非常に困難である。このため、タッチパッドを用いてコマンドを適切に入力できない場合がある。
【先行技術文献】
【特許文献】
【0005】
【文献】特開2015-038645号公報
【文献】特開2007-072633号公報
【発明の概要】
【発明が解決しようとする課題】
【0006】
本発明の目的はコマンドを適切に入力することができるウェアラブル機器及びその操作方法を提供することである。
【課題を解決するための手段】
【0007】
実施形態によれば、ウェアラブル機器は表示手段と、検出手段と、制御手段を具備する。表示手段は、マウスカーソルを含む画面にスクリーンキーボードを選択的に表示させる。検出手段は、少なくとも第1辺と第2辺を有する多角形状のプレートを含み、前記第1辺と前記第2辺の少なくとも一方に関する指のなぞり動作を検出する。制御手段は、検出手段が指のなぞり動作を検出した場合、画面にスクリーンキーボードが表示されているか否かを判定し、前記スクリーンキーボードが表示されていると判定した場合、検出手段が検出した指のなぞり動作に応じた動作を前記画面の上で実行する。
【図面の簡単な説明】
【0008】
図1】実施形態のウェアラブル機器を含む遠隔支援システムの一例を示すブロック図である。
図2図1中のオペレータ端末12の一例を示すブロック図である。
図3図1中のモバイルPC16に接続されるウェアラブルデバイス23の外観の一例を示す。
図4】ウェアラブルデバイス23の本体24の外観の一例を示す。
図5】モバイルPC16とウェアラブルデバイス本体24との接続の一例を示す。
図6】ウェアラブルデバイス本体24の一例を示すブロック図である。
図7】モバイルPC16の外観の一例を示す。
図8】モバイルPC16の一例を示すブロック図である。
図9】タッチパッド110の外観の一例を示す。
図10】タッチパッド110を用いて行われるジェスチャの例を示す。
図11図10に示すジェスチャにより実行される動作の例を示す。
図12】ウェアラブルデバイス本体24のディスプレイ124に表示される画面の一例を示す。
図13】ウェアラブルデバイス本体24のディスプレイ124に表示される画面の他の例を示す。
図14】タッチパッド110による入力操作の一例を示すフローチャートである。
図15図14の定義ジェスチャ検出処理(S602)の一例を示すフローチャートである。
図16図14のジェスチャa1~a4のマウスカーソル移動終了検出処理(S608)の一例を示すフローチャートである。
図17図14のジェスチャd1~d4のキーボードフォーカス移動終了検出処理(S636)の一例を示すフローチャートである。
【発明を実施するための形態】
【0009】
以下、実施の形態について図面を参照して説明する。なお、開示はあくまで一例にすぎず、以下の実施形態に記載した内容により発明が限定されるものではない。当業者が容易に想到し得る変形は、当然に開示の範囲に含まれる。説明をより明確にするため、図面において、各部分のサイズ、形状等を実際の実施態様に対して変更して模式的に表す場合もある。複数の図面において、対応する要素には同じ参照数字を付して、詳細な説明を省略する場合もある。
【0010】
[遠隔支援システム]
図1は、エッジコンピューティングを実現するための遠隔支援システムの一例を示すブロック図である。遠隔支援システムは、ユーザ、例えば作業現場の作業者を後方のオペレータが遠隔地から支援するためのシステムである。現場の作業の例は、複雑なメンテナンス業務、物流倉庫のピッキング作業、作業現場の監視、災害救助・医療サポート等がある。作業現場の作業者側をフロントエンド、後方のオペレータ側をバックエンドとも称する。遠隔支援システムは、作業者が携帯するモバイルパーソナルコンピュータ(PC)(モバイルエッジコンピューティングデバイスと呼ぶこともある)16と作業者から離れた位置にある遠隔支援センター(データセンター)18をネットワーク22を介して相互に接続され、通信可能となっている。モバイルPC16と遠隔支援センター18は有線のLANケーブルによりネットワーク22に接続されてもよいし、無線LAN、ブルートゥース(登録商標)等によりネットワーク22に接続されてもよい。
【0011】
ウェアラブルデバイス23はモバイルPC16と接続される。図1では、ウェアラブルデバイス23はケーブルによりモバイルPC16に接続される例を示すが、ウェアラブルデバイス23は無線LAN、ブルートゥース等によりモバイルPC16と接続されてもよい。ウェアラブルデバイス23はカメラ、ディスプレイを備え、カメラで撮影した画像をモバイルPC16に送信し、モバイルPC16から送信される画像をディスプレイで表示する。
【0012】
図1に示すように複数の作業者がネットワークを介して相互に通信することも可能である。この場合、遠隔支援センターを経由してもよいし、遠隔支援センターのオペレータを介さずに作業者同士のみで通信するようにすることも可能である。
【0013】
遠隔支援センター18はオペレータ端末12とサーバ14を備える。遠隔支援センター18はモバイルPC16(及びウェアラブルデバイス23)とオペレータ端末12間で音声通話を行う又は情報をやり取りする。モバイルPC16に接続されるウェアラブルデバイス23のリアルタイム映像をオペレータ端末12にビデオ配信することや、モバイルPC16とオペレータ端末12間で画像を相互に送受信することができる。また、オペレータ端末12からモバイルPC16にテキストメッセージを送信することもできる。例えば、物流倉庫ピッキング作業では、メガネ型のウェアラブルデバイス23にピッキング品の場所を表示させ、ハンズフリーでのピッキングを実現できる。
【0014】
遠隔支援としては、典型的には、例えば以下の機能を含む。
【0015】
(1)モバイルPC16とオペレータ端末12との双方向の音声通話を行う音声通話機能。
【0016】
(2)音声通話中にウェアラブルデバイス23のリアルタイム映像をオペレータ端末12にビデオ配信するライブ映像配信機能。
【0017】
(3)音声通話中にモバイルPC16とオペレータ端末12間で静止画を送受信する静止画像の送受信機能(モバイルPC16は撮影した静止画やビデオ配信中のキャプチャ画像をオペレータ端末12に送信し、オペレータ端末12は受信した画像に文字や絵などを書き込み、編集した画像をモバイルPC16に送信する機能。モバイルPC16で受信した静止画像は、モバイルPC16内のフォルダーに保存され、閲覧可能である)。
【0018】
(4)音声通話中にオペレータ端末12のデスクトップ画面全体又は任意のアプリケーションのウィンドウをウェアラブルデバイス23に表示する画面共有機能。
【0019】
(5)オペレータ端末12からモバイルPC16に対してテキストメッセージを送信するテキストメッセージの送信機能。
【0020】
サーバ14は遠隔支援のための処理をオペレータ端末12に代わって又は協働して行うものであり、プロセッサ(CPU)28、ROM30、RAM32、ハードディスクドライブ(HDD)又はソリッドステートドライブ(SSD)からなるストレージデバイス34、インターフェース36を備える。なお、サーバ14の機能を全てオペレータ端末12に持たせ、サーバ14を省略してもよい。
【0021】
[オペレータ端末12]
図2はオペレータ端末12の一例を示すブロック図である。オペレータ端末12はデスクトップ型PC又はノートブック型PC等からなる。
【0022】
オペレータは、オペレータ端末12を用いて作業現場の状況をリアルタイム映像で確認しながら、会話や画像によってモバイルPC16の作業者に指示を行う。オペレータは、オペレータ端末12を用いてモバイルPC16から受信した画像ファイルに絵や文字などの書き込みを行い、編集した画像ファイルをモバイルPC16に送信することや、オペレータ端末12に保存することができる。
【0023】
オペレータ端末12は、プロセッサを含むシステムコントローラ42を備え、システムコントローラ42には、主メモリ44、BIOS-ROM50、HDD又はSSDからなるストレージデバイス52、オーディオコーデック54、グラフィクスコントローラ62、タッチパネル70、USB(登録商標)コネクタ72、無線LANデバイス74、ブルートゥースデバイス76、有線LANデバイス78、PCIExpress(登録商標)カードコントローラ80、メモリカードコントローラ82、エンベデッドコントローラ/キーボードコントローラ(EC/KBC)84等が接続される。
【0024】
システムコントローラ42はストレージデバイス52から主メモリ44にロードされる様々なプログラムを実行する。これらプログラムは、オペレーティングシステム(OS)46、遠隔支援のためのバックエンドアプリケーションプログラム48を含む。システムコントローラ42は不揮発性メモリであるBIOS-ROM50に格納された基本入出力システム(BIOS)も実行する。BIOSはハードウェア制御のためのシステムプログラムである。
【0025】
オーディオコーデック54は、再生対象のデジタルのオーディオ信号をアナログのオーディオ信号に変換して、ヘッドフォン58又はスピーカ60に供給する。また、オーディオコーデック54は、マイク56から入力されるアナログのオーディオ信号をデジタル信号に変換する。マイク56とヘッドフォン58は単独で設けてもよいが、インカムとして一体的に設けてもよい。
【0026】
グラフィックスコントローラ62は、オペレータ端末12のディスプレイモニタとして使用される液晶表示器(LCD)64を制御する。LCD64の画面上にタッチパネル70が重ねられ、LCD64の画面にタッチペン等により手書き入力操作が行えるように構成されている。グラフィックスコントローラ62にはHDMI(登録商標)コントローラ66も接続される。HDMIコントローラ66は外部の表示デバイスとの接続のためのHDMIコネクタ68に接続される。
【0027】
無線LANデバイス74は、ネットワーク22との接続のためにIEEE802.11規格の無線LAN通信を実行する。ブルートゥースデバイス76は、外部機器との接続のためにブルートゥース規格の無線通信を実行する。有線LANデバイス78は、ネットワーク22との接続のためにIEEE802.3規格の有線LAN通信を実行する。このように、オペレータ端末12とネットワーク22との接続は無線通信によってもよいし、有線通信によってもよい。
【0028】
PCIExpressカードコントローラ80はオペレータ端末12と外部機器との間でPCIExpress規格の通信を行なう。メモリカードコントローラ82は、記憶媒体、例えばSDカード(登録商標)等のメモリカードにデータを書き込み、メモリカードからデータを読み出す。
【0029】
EC/KBC84は電力管理コントローラであり、キーボード88を制御するキーボードコントローラも内蔵したワンチップマイクロコンピュータとして実現されている。EC/KBC84は、電源スイッチ86の操作に応じてオペレータ端末12をパワーオン又はパワーオフする機能を有する。パワーオン及びパワーオフの制御は、EC/KBC84と電源回路90との協働動作によって実行される。EC/KBC84はオペレータ端末12がパワーオフされている期間中も、バッテリ92又はACアダプタ94からの電力によって動作する。電源回路90は、バッテリ92からの電力又は外部電源として接続されるACアダプタ94からの電力を用いて、各コンポーネントへ供給すべき電力を生成する。
【0030】
[ウェアラブルデバイス23]
図3はモバイルPC16に接続されるウェアラブルデバイス23の外観の一例を示す。ウェアラブルデバイス23はメガネフレーム142とウェアラブルデバイス本体24を備える。メガネフレーム142は一般的なメガネからレンズを取り除いた形状でもよく、作業者の顔に装着される。メガネフレーム142はメガネが取り付けられる構造としてもよい。作業者がメガネを常用する場合、常用しているメガネと同様な度数のレンズがメガネフレーム142に取り付けられてもよい。
【0031】
メガネフレーム142はウェアラブルデバイス本体24が着脱される取付具144を左右のテンプルに備える。図3では作業者から見て右側のテンプルの取付具144はウェアラブルデバイス本体24に隠されているので、図示されない。上述したようにウェアラブルデバイス本体24はディスプレイ124(図4に示す)(請求項では表示手段と称する)を備え、ディスプレイ124は片目で目視されるようになっているので、ウェアラブルデバイス本体24が利き目側に取り付けられるように取付具144は左右のテンプルに備えられている。なお、ウェアラブルデバイス本体24を取付具144によりメガネフレーム142に着脱自在に取り付ける必要はなく、ウェアラブルデバイス本体24がメガネフレーム142に固定された右眼用、左眼用のウェアラブルデバイス23を用意してもよい。さらに、ウェアラブルデバイス本体24をメガネフレーム142ではなく、ヘルメット、ゴーグル等を用いて作業者の頭部に装着してもよい。
【0032】
ウェアラブルデバイス本体24は、その係合片128(図4に示す)が取付具144の上下の枠内に挟まれるように、メガネフレーム142に取り付けられる。ウェアラブルデバイス本体24をメガネフレーム142から取り外す場合は、ウェアラブルデバイス本体24が取付具144から引き抜かれる。
【0033】
ウェアラブルデバイス本体24は取付具144に取り付けられた状態で、係合片128は取付具144内で前後に多少は移動可能である。このため、作業者の焦点がディスプレイ124に合うようにウェアラブルデバイス本体24は前後位置が調整可能である。さらに、取付具144はテンプルに直交する軸144Aを中心に回転可能であり、ウェアラブルデバイス本体24がメガネフレーム142に取り付けられた後、ディスプレイ124が作業者の視線上に位置するように上下位置が調整可能である。さらに、取付具144の回転角度は90度程度であり、取付具144を上方向に大きく回転することにより、ウェアラブルデバイス本体24をメガネフレーム142からはね上げることができる。これにより、ウェアラブルデバイス本体24により視野が邪魔され実物を見ることが困難な場合や、狭い場所でウェアラブルデバイス本体24が周囲の物体に干渉する場合でも、ウェアラブルデバイス23全体を顔から外す/再装着することなく、ウェアラブルデバイス本体24を作業者の視野から一時的に外す/戻すことができる。
【0034】
[ウェアラブルデバイス本体24]
ウェアラブルデバイス本体24はメガネフレーム142のテンプルに沿った側面部と作業者の一方の眼球の視線上に位置する前面部とからなる。側面部に対する前面部の角度は調節可能である。
【0035】
前面部の外側表面にはカメラ116、ライト118、カメラLED120が設けられる。ライト118は暗部の撮影時に発光する補助照明である。カメラLED120は写真や動画の撮影時に点灯し、撮影対象者に撮影していることを認識させるためのものである。
【0036】
右側のテンプルに取り付けられたウェアラブルデバイス本体24の側面部の上側面に第1、第2、第3ボタン102、104、106が設けられる。なお、作業者の利き目が左眼の場合、ウェアラブルデバイス本体24は左側のテンプルに取り付けられる。右側に取り付けられるか左側に取り付けられるかで、ウェアラブルデバイス本体24の上下が反転するので、側面部の上側面と下側面の両面に第1、第2、第3ボタン102、104、106を設けてもよい。
【0037】
側面部の外側表面にはタッチパッド110、第4ボタン108、マイク112、照度センサ114が設けられる。タッチパッド110と第4ボタン108は人差し指で操作可能である。ボタン102、104、106は、ウェアラブルデバイス本体24が右側に取り付けられた際、それぞれ人差し指、中指、薬指で操作可能な位置に配置される。タッチパッド110(請求項では検出手段と称する)は、タッチ面に厚さ数ミリメートル程度の多角形状のプレート100を備える。多角形の例は正方形、長方形、角部が丸みを持った正方形又は角部が丸みを持った長方形を含む。タッチパッド110の詳細は図9を参照して後述する。タッチパッド110は、プレート100の4辺の縁に沿った作業者の指の上下前後方向の移動を検出すると、コマンドを入力する。本明細書では、コマンドとはウェアラブルデバイス本体24に対する特定の処理の実行指令のことである。第1~第4ボタン102、104、106、108、タッチパッド110の操作方法はアプリケーションプログラムによって決められている。
【0038】
例えば、
第3ボタン106が1回押されると、項目の選択/項目の実行がなされ、
第3ボタン106が長押しされると、起動中のアプリケーションの一覧が表示され、
第2ボタン104が1回押されると、ホーム画面に戻り、
第2ボタン104が長押しされると、クイックセッティングのメニューが表示され、
第1ボタン102が1回押されると、操作の取り消し(キーボードのEscキーと同様の動作)が実行される。
【0039】
第1ボタン102は人差し指、第2ボタン104は中指、第3ボタン106は薬指、第4ボタン108は小指で操作できるような位置に配置される。なお、第4ボタン108が側面部の上部ではなく、側面部の外側表面に設けられるのは、スペースの関係上であり、第4ボタン108も第1~第3ボタン102、104、106と同様に側面部の上部に設けられてもよい。照度センサ114はディスプレイの明るさを自動調整するために周囲の照度を検出する。
【0040】
図4はウェアラブルデバイス本体24の裏面の外観の一例を示す。前面部の内側にはLCDからなるディスプレイ124が設けられる。側面部の内側にはマイク126、スピーカ130、係合片128が設けられる。マイク126は側面部の前方に、スピーカ130は側面部の後方に、係合片128は側面部の後方に設けられる。スピーカ130の代わりにヘッドフォンを用いてもよい。その場合、オペレータ端末12と同様にマイクとヘッドフォンをインカムとして一体的に設けてもよい。
【0041】
側面部の後方の端面にはUSBtype-C(登録商標)規格のコネクタ132が設けられる。図5に示すように、ウェアラブルデバイス本体24はUSBtype-C規格のケーブル146を介してモバイルPC16に接続され、画像信号等がウェアラブルデバイス本体24とモバイルPC16の間で伝送される。ウェアラブルデバイス本体24は無線LAN、ブルートゥース等の無線通信によりモバイルPC16に接続されてもよい。
【0042】
実施形態ではウェアラブルデバイス本体24は駆動電源としてのバッテリ又はDC端子を備えず、駆動電源はモバイルPC16からUSBtype-Cケーブル146を介してウェアラブルデバイス本体24に供給される。しかし、ウェアラブルデバイス本体24が駆動電源を備えてもよい。
【0043】
図6はウェアラブルデバイス本体24の一例を示すブロック図である。USBtype-Cコネクタ132がミキサ166に接続される。ディスプレイコントローラ170とUSBハブ164がミキサ166の第1端子、第2端子にそれぞれ接続される。ディスプレイ124がディスプレイコントローラ170に接続される。カメラコントローラ168、オーディオコーデック172、センサコントローラ162(請求項では制御手段と称する)がUSBハブ164に接続される。カメラ116とライト118とカメラLED120がカメラコントローラ168に接続される。マイク112、126からのオーディオ信号がオーディオコーデック172に入力され、オーディオコーデック172からのオーディオ信号がアンプ174を介してスピーカ130に入力される。
【0044】
センサコントローラ162に、モーションセンサ(例えば、加速度/地磁気/重力/ジャイロセンサ等)176、照度センサ114、近接センサ178、タッチパッド110、第1~第4ボタン102、104、106、108、GPSセンサ180が接続される。センサコントローラ162はモーションセンサ176、照度センサ114、近接センサ178、タッチパッド110、第1~第4ボタン102、104、106、108、GPSセンサ180からの検出信号を処理して、モバイルPC16へコマンドを供給する。図4には示していないが、モーションセンサ176、近接センサ178はウェアラブルデバイス本体24の内部に配置される。モーションセンサ176はウェアラブルデバイス本体24の動き、向き、姿勢等を検出する。近接センサ178は作業者の顔、指等の接近によりウェアラブルデバイス23の装着を検出する。
【0045】
[モバイルPC16]
図7はモバイルPC(モバイルエッジコンピューティングデバイス)16の外観の一例を示す。モバイルPC16は片手で持てる小型PCであり、そのサイズは、幅が約10cm以下、高さが約18cm以下、厚さが2cm程度であり、重量は約300g程度と、小型で軽量である。このため、モバイルPC16は作業着のポケット、ベルトに装着されるホルスタあるいはショルダーケースに収納でき、ウェアラブルである。モバイルPC16はCPUや半導体メモリ等の半導体チップやSSD(Solid State Disk)等のストレージデバイスを収納するが、ディスプレイと文字入力のためのハードウェアキーボードは備えない。
【0046】
モバイルPC16の正面にはアップボタン202a、ライトボタン202b、ダウンボタン202c、レフトボタン202d、決定ボタン(センターボタン、エンターボタンとも称する)202eからなる5ボタン202が配置され、その下に指紋センサ204が配置される。キーボードが備わっておらずパスワードを入力することができないので、指紋センサ204はモバイルPC16のログイン時のユーザ認証のために用いられる。5ボタン202はコマンドを入力できる。
【0047】
なお、5ボタン202の各ボタン202a~202dに数字を割り当て、数字からなるパスワードを入力することにより、ログイン時のユーザ認証を行ってもよい。この場合、指紋センサ204は省略可能である。決定ボタン202e以外の4つのボタンに数字を割り当てるので、数字の種類は4つしかない。従って、ランダムに入力した数字がパスワードに一致する可能性がある。しかし、パスワードの桁数を大きくすれば、ランダムに入力した数字がパスワードに一致する確率を小さくすることができる。指紋センサ204を備えるモバイルPC16でも5ボタン202による認証も可能としてもよい。1台のモバイルPC16を複数の作業者で共有することがあるが、指紋認証だけではこのような場合に対応できない。
【0048】
ウェアラブルデバイス本体24のボタン102、104、106、108とタッチパッド110で操作している様子を作業者は見ることができないので、作業者によっては意図した操作をするには慣れが必要な場合もある。また、ボタン102、104、106、108とタッチパッド110は小型であるので、操作しづらい場合もある。実施形態では、モバイルPC16の5ボタン202でも同じ操作ができるので、上記の懸念は解消される。5ボタン202の操作方法はアプリケーションによって決められている。
【0049】
例えば、
決定ボタン202eが1回押されると、項目の選択/項目の実行がなされ(ウェアラブルデバイス本体24では、第3ボタン106の1回押しに対応)、
決定ボタン202eが長押しされると、終了又は操作の取り消しがなされ(ウェアラブルデバイス本体24では、第1ボタン102の1回押しに対応)、
アップボタン202aが1回押されると、カーソルが上に移動され、
アップボタン202aが長押しされると、起動中のアプリケーションの一覧が表示され(ウェアラブルデバイス本体24では、第3ボタン106の長押しに対応)、
ダウンボタン202cが1回押されると、カーソルが下に移動され、
ダウンボタン202cが長押しされると、クイックセッティングメニュー(後述)が表示され(ウェアラブルデバイス本体24では、第2ボタン104の長押しに対応)、
レフトボタン202dが1回押されると、右のアイコンが選択され、
ライトボタン202bが1回押されると、左のアイコンが選択される。
【0050】
モバイルPC16の上部側面には、USB3.0規格のコネクタ206とUSBtype-C規格のコネクタ207とオーディオジャック208が設けられる。
【0051】
モバイルPC16の一方の側面(正面から見て左側の側面)には、メモリカード用のカードスロット218が設けられる。メモリカードは、例えばSDカード、マイクロSDカード(登録商標)等を含む。
【0052】
モバイルPC16の他方の側面(正面から見て右側の側面)には、ケンジントンロック(登録商標)のためのスロット210、電源スイッチ212、リングLED213、バッテリチャージLED214、DC端子216、冷却用の通風口222が設けられる。リングLED213は電源スイッチ212の近傍に配置され、電源オンの期間点灯する。バッテリチャージLED214はバッテリが充電中であるか否か等のモバイルPC16の状態とバッテリの残量を表示する。モバイルPC16はバッテリで駆動可能であるが、DC端子216にACアダプタを接続した状態でも駆動可能である。図示しないが、裏面はワンタッチでバッテリが交換可能に構成されている。
【0053】
図8はモバイルPC16の一例を示すブロック図である。モバイルPC16はウェアラブルデバイス本体24で撮影した映像をオペレータ端末12へビデオ配信することや、オペレータ端末12から受信した画像を閲覧することができる。このため、モバイルPC16はカメラ機能とビューワ機能を備える。カメラ機能はウェアラブルデバイス本体24のカメラ116で写真やビデオを撮影する機能である。撮影した写真やビデオはカメラフォルダに保存され、ビューワ機能で閲覧できる。ビューワ機能はカメラフォルダに保存されているファイルを閲覧する機能である。ファイルの種類は、画像、動画、PDFファイル、カメラ機能で撮影した写真やビデオ、オペレータ端末12から受信した画像、オペレータ端末12へ送信した画像、ユーザフォルダに保存されたファイルがある。
【0054】
モバイルPC16はシステムコントローラ302を備え、システムコントローラ302はプロセッサ(CPU)とコントローラ・ハブからなる。プロセッサには、主メモリ308、リングLED213、バッテリチャージLED214、USBコントローラ322が接続される。コントローラ・ハブには、フラッシュメモリ326、メモリカードコントローラ328、HDD又はSSDからなるストレージデバイス330、USB切替器324、オーディオコーデック334、3G/LTE/GPSデバイス336、指紋センサ204、USB3.0コネクタ206、ブルートゥースデバイス/無線LANデバイス340、EC/KBC344が接続される。
【0055】
システムコントローラ302はストレージデバイス330から主メモリ308にロードされる様々なプログラムを実行する。これらプログラムは、OS316、遠隔支援のためのフロントエンドアプリケーションプログラム314を含む。
【0056】
オーディオコーデック334は、再生対象のデジタルのオーディオ信号をアナログのオーディオ信号に変換して、オーディオジャック208に供給する。また、オーディオコーデック334は、オーディオジャック208から入力されるアナログのオーディオ信号をデジタル信号に変換する。
【0057】
メモリカードコントローラ328はメモリカードスロット218に挿入されるメモリカード、例えばSDカードにアクセスして、SDカードに対するデータの読み書きを制御する。
【0058】
USBコントローラ322はUSBtype-Cコネクタ207に接続されるUSBtype-Cケーブル又はUSB3.0コネクタ206に接続されるUSB3.0ケーブル(図示せず)に対するデータの送受信を制御する。
【0059】
図示しないが、USBtype-Cコネクタ207にはポート拡張アダプタも接続可能であり、HDMI等のインターフェースが使用可能である。
【0060】
ブルートゥース/無線LANデバイス340はネットワーク22との接続のためにブルートゥース規格の無線通信とIEEE802.11規格の無線LAN通信を実行する。なお、ネットワーク22との接続は無線通信によらず、IEEE802.3規格の有線LAN通信によってもよい。
【0061】
指紋センサ204はモバイルPC16の起動時の指紋認証のために使用される。
【0062】
EC/KBC344には、サブプロセッサ346、電源スイッチ212及び5ボタン202が接続される。EC/KBC344は、電源スイッチ212の操作に応じてモバイルPC16をパワーオン又はパワーオフする機能を有する。パワーオン及びパワーオフの制御は、EC/KBC344と電源回路350との協働動作によって実行される。EC/KBC344はモバイルPC16がパワーオフされている期間中も、バッテリ352又はACアダプタ358からの電力によって動作する。電源回路350は、バッテリ352からの電力又は外部電源として接続されるACアダプタ358からの電力を用いて、各コンポーネントへ供給すべき電力を生成する。電源回路350は電圧レギュレータモジュール356を含み、電圧レギュレータモジュール356はシステムコントローラ302内のプロセッサに接続される。
【0063】
なお、モバイルPC16をウェアラブルデバイス本体24と別体として構成したが、モバイルPC16をウェアラブルデバイス本体24内に組み込んで、両者を一体として構成してもよい。
【0064】
[タッチパッド110]
ウェアラブルデバイス23はハードウェアキーボードを備えないので、作業者が文字入力、カーソルの移動、アイコンの選択等を行うためにタッチパッド110を利用する。例えば、ディスプレイ124に種々の操作メニュー、作業者への指示等がアイコンとして表示されている際、作業者がタッチパッド110を操作すると、カーソルが移動され、アイコンが選択される。また、スクリーンキーボードがディスプレイ124に表示されている間、作業者がタッチパッド110を操作すると、文字が入力される。
【0065】
図9(a)、(b)はそれぞれタッチパッド110の斜視図と平面図を示す。ウェアラブルデバイス本体24の側面部の表面に配置されたタッチパッド110の中央部には表面から数mm程度突出された段差を有するプレート100が形成される。プレート100の形状は正方形又は長方形であり、複数、例えば4つの辺s1、s2、s3、s4と、4つの角部c1、c2、c3、c4を有する。本明細書でいう正方形又は長方形とは、角部が鋭利に折れ曲がった形状だけでなく、図9に示すような角部に丸みをもった形状も含む。プレート100の形状は正方形又は長方形に限らず、三角形や五角形以上の多角形でもよい。
【0066】
プレート100の4つの辺s1、s2、s3、s4の縁をなぞる指の動きを検出するために、プレート100の辺に沿って検出器が配置される。プレート100の全周に亘って検出器を配置してもよいが、実施形態では指の移動方向が検出できればよいので、図9(b)に示すように、複数、例えば8つの検出器d1~d8が離散的に配置されている。検出器d1、d2はプレート100の辺s1の略両端に設けられ、検出器d3、d4はプレート100の辺s2の略両端に設けられ、検出器d5、d6はプレート100の辺s3の略両端に設けられ、検出器d7、d8はプレート100の辺s4の略両端に設けられる。
【0067】
検出器d1~d8は、感圧式、静電容量式、光学式、または機械式等の検出素子で構成され、検出器d1~d8に対する指の通過を検知する。感圧式の場合は指によって加えられた圧力により、静電容量式の場合は指がもつ微弱電流により、指が検出器d1~d8に位置したことが判定される。また、光学式の場合は、指によって遮られ又は反射された検出光により、機械式の場合は触れられることで作動する薄型のスイッチにより、指が検出器d1~d8に位置したことが判定される。
【0068】
センサコントローラ162(図6)は、各辺s1、s2、s3、s4に配置されている2つの検出器d1、d2;d3、d4;d5、d6;d7、d8に対する指の通過順序を検出することにより、その辺の縁に沿った指の移動方向、つまり左方、右方、上方又は下方への移動を検出する。センサコントローラ162は指の詳細な位置座標は検出しない。
【0069】
センサコントローラ162はプレート100の1辺の縁に沿った指の動きのみならず、検出器d1~d8の検出結果を統合することにより、プレート100の複数の辺に亘る連続した指の動きも一つの動作として検出する。センサコントローラ162は、指がタッチパッド110(又はプレート100)に触れた時点から指がタッチパッド110(又はプレート100)から離れた時点までの時間の連続した指の動きを一つの入力単位として検出する。つまり、センサコントローラ162は、プレート100に対して指を離さないで描かれた、いわゆる一筆書きの動作を一つの入力単位として検出する。なお、指がプレート100に触れた時点とは、検出器d1~d8のいずれかが指の接触を検出した時点のことであり、指がプレート100から離れた時点とは、検出器d1~d8のいずれも指を検知しなくなってから予め設定された所定時間が経過する時点のことである。つまり、検出器d1~d8のいずれも指を検知しなくなっても直ぐには指がプレート100から離れたと見なさずに、それから予め設定された所定時間が経過した時に指がプレート100から離れたものと見なす。
【0070】
メガネ型ウェアラブル機器を装着している作業者はタッチパッド110を操作する指を見ることができず、手探り状態で小型のタッチパッド110を操作するので、指を所定の方向に移動することが困難な場合がある。すなわち、指の上下左右への移動又は上下左右の移動の組み合わせにより所定のコマンドが入力されるように構成されている場合、指を所定の方向に移動できないと、コマンドを適切に入力できない場合がある。しかし、実施形態ではタッチパッド110の表面にプレート100が形成され、プレート100の辺の縁に沿って指を動かすことができるので、指を所定の方向に移動することができる。このため、所定のコマンドを適切に入力することができる。
【0071】
センサコントローラ162は図10に示すような「なぞり動作」からなるジェスチャを検出する。タッチパッド110の上下左右は、ウェアラブルデバイス本体24が作業者から見て右側のテンプルに取り付けられる場合と、左側のテンプルに取り付けられる場合とで反転する。図10の上下左右はウェアラブルデバイス本体24が図3に示すように作業者から見て右側のテンプルに取り付けられた場合の上下左右を示す。
【0072】
図10(a)は1辺の1回の「なぞり動作」からなるジェスチャa1、a2、a3、a4を示す。検出器d1、d2がこの順に指の接触を検知することにより、センサコントローラ162は辺s1の縁に沿った上方への「なぞり動作」からなるジェスチャa1を検出する。検出器d2、d1がこの順に指の接触を検知することにより、センサコントローラ162は辺s1の縁に沿った下方への「なぞり動作」からなるジェスチャa2を検出する。検出器d4、d3がこの順に指の接触を検知することにより、センサコントローラ162は辺s2の縁に沿った右方(頭部においては後方から前方)への「なぞり動作」からなるジェスチャa3を検出する。検出器d3、d4がこの順に指の接触を検知することにより、センサコントローラ162は辺s2の縁に沿った左方(頭部においては前方から後方)への「なぞり動作」からなるジェスチャa4を検出する。
【0073】
図10(b)は1辺の縁に沿った複数回の「往復なぞり動作」からなるジェスチャb1、b2、b3、b4を示す。検出器d4、d3、d4がこの順に指の接触を検知することにより、センサコントローラ162は辺s2の縁に沿った「往復なぞり動作」(最初は右方、次に左方へのなぞり)からなるジェスチャb1を検出する。検出器d4、d3、d4、d3、d4がこの順に指の接触を検知することにより、センサコントローラ162は辺s2の縁に沿った「往復なぞり動作」(最初は右方、次に左方、次に右方、最後に左方へのなぞり)からなるジェスチャb2を検出する。検出器d4、d3、d4、d3がこの順に指の接触を検知することにより、センサコントローラ162は辺s2の縁に沿った「往復なぞり動作」(最初は右方、次に左方、最後に右方へのなぞり)からなるジェスチャb3を検出する。検出器d3、d4、d3がこの順に指の接触を検知することにより、センサコントローラ162は辺s2の縁に沿った「往復なぞり動作」(最初は左方、次に右方へのなぞり)からなるジェスチャb4を検出する。
【0074】
図10(c)は図10(b)とは異なる1辺の縁に沿った複数回の「往復なぞり動作」からなるジェスチャc1、c2を示す。検出器d8、d7、d8がこの順に指の接触を検知することにより、センサコントローラ162は辺s4の縁に沿った「往復なぞり動作」(最初は左方、次に右方への移動)からなるジェスチャc1を検出する。検出器d7、d8、d7がこの順に指の接触を検知することにより、センサコントローラ162は辺s4の縁に沿った「往復なぞり動作」(最初は右方、次に左方への移動)からなるジェスチャc2を検出する。
【0075】
図10(d)は図10(a)とは異なる1辺の縁に沿った1回の「なぞり動作」からなるジェスチャd1、d2、d3、d4を示す。検出器d6、d5がこの順に指の接触を検知することにより、センサコントローラ162は辺s3の縁に沿った上方への「なぞり動作」からなるジェスチャd1を検出する。検出器d5、d6がこの順に指の接触を検知することにより、センサコントローラ162は辺s3の縁に沿った下方への「なぞり動作」からなるジェスチャd2を検出する。検出器d7、d8がこの順に指の接触を検知することにより、センサコントローラ162は辺s4の縁に沿った右方への「なぞり動作」からなるジェスチャd3を検出する。検出器d8、d7がこの順に指の接触を検知することにより、センサコントローラ162は辺s4の縁に沿った左方への「なぞり動作」からなるジェスチャd4を検出する。
【0076】
図10(e)は隣接する2辺の縁に沿った連続した「なぞり動作」からなるジェスチャe1、e2、e3、e4を示す。検出器d1、d2、d3、d4がこの順に指の接触を検知することにより、センサコントローラ162は辺s1の縁に沿った上方への「なぞり動作」と辺s2の縁に沿った左方への「なぞり動作」とからなるジェスチャe1を検出する。検出器d4、d3、d2、d1がこの順に指の接触を検知することにより、センサコントローラ162は辺s2の縁に沿った右方への「なぞり動作」と辺s1の縁に沿った下方への「なぞり動作」とからなるジェスチャe2を検出する。検出器d3、d4、d5、d6がこの順に指の接触を検知することにより、センサコントローラ162は辺s2の縁に沿った左方への「なぞり動作」と辺s3の縁に沿った下方への「なぞり動作」とからなるジェスチャe3を検出する。検出器d6、d5、d4、d3がこの順に指の接触を検知することにより、センサコントローラ162は辺s3の縁に沿った上方への「なぞり動作」と辺s2の縁に沿った右方への「なぞり動作」とからなるジェスチャe4を検出する。
【0077】
なお、図10(a)に示すジェスチャa1~a4と、図10(d)に示すジェスチャd1~d4は指の「なぞり方向」は同じであるが、プレート100のなぞる辺が異なるので、異なるジェスチャとして認識される。同様に、図10(b)に示すジェスチャb1、b4と、図10(c)に示すジェスチャc2、c1は指の「なぞり方向」は同じであるが、プレート100のなぞる辺が異なるので、異なるジェスチャとして認識される。このように、同じ方向に移動する「なぞり動作」でもなぞる辺が異なると、異なるコマンドを入力することができる。このため、なぞり方向は上下左右の4方向であるが、1回のなぞり動作で8種類のコマンドを入力することができる。さらに、1回のなぞりだけではなく、往復なぞり動作を、さらには複数の往復なぞり動作や、1辺だけではなく、複数の辺のなぞり動作を利用することにより、入力できるコマンドの数を自由に増やすことができる。図示していないが、プレート100の3辺以上のなぞり動作や、1周又は複数周の全周に亘るなぞり動作を利用してもよい。
【0078】
図11は、図10に示すジェスチャと、モバイルPC16に入力されるコマンド、すなわちモバイルPC16の動作との関係の一例を示す。この関係を示すテーブルはウェアラブルデバイス本体24内(例えば、センサコントローラ162)に保存されており、検出されたジェスチャに応じた指示がモバイルPC16に供給される。実施形態によれば、画面の状態は、図12に示すようにスクリーンキーボード506が表示されていない第1状態と、図13に示すようにスクリーンキーボード506が表示されている第2状態を取り得る。画面には文字502も表示されている。図11(a)に示すように、第1状態(図12)ではタッチパッド110の操作はマウスカーソル504の移動又はマウスの右、左ボタンのクリック、ダブルクリック、長押し等がなされた時と同じ動作を指示する。図11(b)に示すように、スクリーンキーボード506が表示されている第2状態(図13)ではタッチパッド110の操作は図12の場合の指示に加えてスクリーンキーボード506を使用する文字入力等を指示する。
【0079】
ジェスチャa1が検出されると、マウスカーソル504の上方への移動が開始又は終了する。ジェスチャa2が検出されると、マウスカーソル504の下方への移動が開始又は終了する。ジェスチャa3が検出されると、マウスカーソル504の左方への移動が開始又は終了する。ジェスチャa4が検出されると、マウスカーソル504の右方への移動が開始又は終了する。
【0080】
図10(a)に示す4つのジェスチャa1~a4の実行によるマウスカーソル504が移動開始後、作業者がタッチパッド100から指を離さずにいると、マウスカーソル504は移動され続ける。マウスカーソル504の移動は作業者がタッチパッド100から指を離すと終了する。
【0081】
このようにマウスカーソル504の移動開始と終了は、図10(a)に示すようにタッチパッド110プレート100の1辺の縁を1回だけなぞることにより指示することができる。プレート100の各辺はなぞる方向が決まっている。例えば、上下方向になぞる場合、a1,a2に示すようにプレート100の右(作業者の顔の前方)辺の縁がなぞられる。例えば、左右方向(作業者の顔の前後方向)になぞる場合、a3,a4に示すようにプレート100の上辺の縁がなぞられる。上下方向になぞる操作を1つの辺、左右方向になぞる操作を1つの辺に決めているのは、残りの辺(左辺、下辺)を他の指示に割り当てるためである。割り当てる他の指示が無ければ、上下方向になぞる操作を右辺と左辺、左右方向になぞる操作を上辺と下辺に決めてもよい。
【0082】
ジェスチャb1が検出されると、マウスの左クリックに対応する動作又はジェスチャb3による押下状態保持の解除が実行される。ジェスチャb2が検出されると、マウスの左ダブルクリックに対応する動作又はジェスチャb3による押下状態保持の解除が実行される。ジェスチャb3が検出されると、マウスの左ボタン押下状態保持開始(ロック)又はジェスチャb3による押下状態保持の解除(ロック解除)が実行される。すなわち、ジェスチャb3はマウスの左ボタン押下状態保持の開始/解除(トグル)を指示する。ジェスチャb4が検出されると、マウスの右クリックに対応する動作が実行される。
【0083】
このようにマウスのボタン操作は、図10(b)に示すようにタッチパッド110のプレート100の1辺の縁を往復してなぞることに対応する。
【0084】
これにより、スクリーンキーボード506が表示されていない状態(図12)では、タッチパッド110のタッチ操作により、マウスカーソル504の移動又はマウスの右、左ボタンのクリック、ダブルクリック、長押し等がなされた時と同じ動作を指示することができる。
【0085】
ジェスチャc1はスクリーンキーボード表示のオン/オフ切替(トグル)を指示する。スクリーンキーボード表示がオンの場合、ジェスチャc1が検出されると、スクリーンキーボード表示がオフされ、スクリーンキーボード表示がオフの場合、ジェスチャc1が検出されると、スクリーンキーボード表示がオンされる。
【0086】
図11(a)に示すマウス操作のためのジェスチャa1~a4、b1~b4はスクリーンキーボード506が表示されている第2状態(図13)でも有効である。スクリーンキーボード506が表示されている第2状態(図13)では、さらに図11(b)に示すスクリーンキーボード506に関する操作のためのジェスチャc1、c2、d1~d4、e1~e4が有効とされる。
【0087】
ジェスチャc2が検出されると、スクリーンキーボード506のフォーカス508のあるキーが入力される。この時のキー入力をタッチ入力と称する。
【0088】
このようにスクリーンキーボード506の表示のオン/オフ切替やキーボードタッチ入力は図10(c)に示すようにタッチパッド110のプレート100の1辺の縁を1往復なぞることにより指示することができる。
【0089】
スクリーンキーボード506のタイプは、大きく分けて、各文字(かな、アルファベット、数字又は記号)に対応するキーを含むQWERTYキータイプと、テンキータイプがある。QWERTYキータイプのスクリーンキーボード506の場合、ジェスチャc2が検出されると、フォーカスのあるキーに対応する文字がキー入力(タッチ入力)される。
【0090】
実施形態では、図13に示すように、テンキータイプのスクリーンキーボード506が表示されているとする。テンキータイプのスクリーンキーボード506では、1つのキーに複数の文字が割り当てられている。ジェスチャc2が検出されると、フォーカスのあるキーに割り当てられている複数の文字の中の所定の文字がキー入力(タッチ入力)される。フォーカスのあるキーに割り当てられている複数の文字の中の所定の文字以外の文字はタッチパッド110のフリック操作により入力される。フリック操作による入力をフリック入力と称する。例えば、i,j,k,5がラベルされているキーにフォーカス508がある場合、アルファベット“j”はタッチ入力により入力され、アルファベット“i”、“k”、数字“5”はフリック入力により入力される。
【0091】
ジェスチャd1が検出されると、スクリーンキーボード506のフォーカス508(以下、キーボードフォーカスとも称する)の上方への移動が開始又は終了する。ジェスチャd2が検出されると、キーボードフォーカス508の下方への移動が開始又は終了する。ジェスチャd3が検出されると、キーボードフォーカス508の左方への移動が開始又は終了する。ジェスチャd4が検出されると、キーボードフォーカス508の右方への移動が開始又は終了する。
【0092】
図10(d)に示す4つのジェスチャd1~d4の実行によるキーボードフォーカス508が移動開始後、作業者がタッチパッド100から指を離さずにいると、キーボードフォーカス508は移動され続ける。キーボードフォーカス508の移動は作業者がタッチパッド100から指を離すと終了する。
【0093】
このようにキーボードフォーカス508の移動開始と終了は、図10(d)に示すようにタッチパッド110プレート100の1辺の縁を1回だけなぞることにより指示することができる。
【0094】
ジェスチャe1が検出されると、キーボードフォーカス508のあるキーに対する上方のフリック入力が行われる。図13の例では、アルファベット“i”が入力される。ジェスチャe2が検出されると、キーボードフォーカス508のあるキーに対する下方のフリック入力が行われる。図13の例では、数字“5”が入力される。ジェスチャe3が検出されると、キーボードフォーカス508のあるキーに対する左方のフリック入力が行われる。図13の例では、アルファベット“k”が入力される。ジェスチャe4が検出されると、キーボードフォーカス508のあるキーに対する右方のフリック入力が行われる。図13の例では、この時は何も入力されない。
【0095】
このようにフリック入力は、図10(e)に示すようにタッチパッド110のプレート100の2辺の縁を連続してなぞることにより指示することができる。
【0096】
マウスカーソル504の移動方向とキーボードフォーカス508の移動方向はタッチパッド110上の指のなぞり方向で指示する。図10(a)、(d)に示すように、マウスカーソル504の移動を指示する際になぞるプレート100の辺とキーボードフォーカス508の移動を指示する際になぞるプレート100の辺は異なるので、同じ方向のなぞり動作でも異なるものの移動を指示することができる。これにより、スクリーンキーボード506が表示されている状態(図13)では、タッチパッド110のタッチ操作により、マウス操作に加えてキーボードフォーカス508の移動、タッチ入力、フリック入力等を指示することもできる。
【0097】
図14は上述した処理を行うウェアラブルデバイス本体24のセンサコントローラ162の動作例を示すフローチャートである。ステップ602で定義ジェスチャ検出処理が実行される。定義ジェスチャ検出処理とは、タッチパッド110のプレート100へ指が触れること、触れた状態で指が移動すること、移動が停止すること及び指がプレート100から離れることを検出し、プレート100へ触れた状態の指の動きが図10に示すジャスチャのいずれかに対応するものであるかを判断し、指示された動作内容を検出する処理である。
【0098】
定義ジェスチャ検出処理の一例を図15に示す。ステップ652でタッチパッド110のプレート100の4辺の縁へ指が触れることが検出される。この後、ステップ654で指がプレート100の4辺の縁に触れたまま移動することが検出される。この後、ステップ656で指の移動の停止が検出される。
【0099】
指の移動の停止が検出されると、ステップ658で、指の移動が図10に示すジェスチャa1~a4、d1~d4のいずれかに対応するか否かが判定される。指の移動がジェスチャa1~a4、d1~d4のいずれかに対応すると判定される場合、ステップ660で、ジェスチャa1~a4、d1~d4のいずれかによるマウスカーソル又はキーボードフォーカスの移動開始の指示が検出される。ステップ658で、指の移動がジェスチャa1~a4、d1~d4のいずれかに対応しないと判定される場合、ステップ662で、指の移動が図10に示すジェスチャb1~b4、c1、c2、e1~e4のいずれかに対応するか否かが判定される。指の移動がジェスチャb1~b4、c1、c2、e1~e4のいずれかに対応すると判定される場合、ステップ664でプレート100の4辺の縁から指が離れることが検出される。この後、ステップ666でジェスチャb1~b4、c1、c2、e1~e4のいずれかによる動作の指示が検出される。
【0100】
図14に戻り、定義ジャスチャ検出処理の検出結果が判定され、判定結果に応じた処理が行われる。ステップ604で定義ジャスチャの検出結果がジェスチャa1~a4によるマウスカーソル移動開始の指示であると判定されると、ステップ606でマウスカーソル504をジェスチャa1~a4に対応する方向に移動開始させる。ステップ608でジェスチャa1~a4によるマウスカーソル移動終了検出処理が行われる。
【0101】
マウスカーソル移動終了検出処理(ステップ608)の一例を図16に示す。図16では、現在、指がプレート100に触れているか又は離れているかがステップ672で検出され、ステップ674で検出結果が判定される。検出結果が「指が離れている」ことを示す場合、ステップ676でジェスチャa1~a4によるマウスカーソル移動終了の指示が検出される。検出結果が「指が触れている」ことを示す場合、ステップ678でジェスチャa1~a4によるマウスカーソル移動継続の指示が検出される。
【0102】
図14に戻り、ステップ610でジェスチャa1~a4によるマウスカーソル移動終了の指示が検出されたか否かが判定される。マウスカーソル移動終了の指示が検出されないと判定されると、フローはステップ606に戻り、マウスカーソルの移動が継続される。ステップ610でマウスカーソル移動終了の指示が検出されたと判定されると、フローはステップ602に戻り、次のジェスチャの検出処理が行われる。
【0103】
ステップ604で定義ジャスチャの検出結果がジェスチャa1~a4による動作の指示ではないと判定されると、ステップ614で定義ジャスチャの検出結果がジェスチャb1~b4による動作の指示であるか否かが判定される。定義ジャスチャの検出結果がジェスチャb1~b4による動作の指示であると判定されると、ステップ616でジェスチャb1~b4に対応するマウスボタン操作が行われる。この後、フローはステップ602に戻り、次のジェスチャの検出処理が行われる。
【0104】
ステップ614で定義ジャスチャの検出結果がジェスチャb1~b4による動作の指示でないと判定されると、ステップ620で定義ジャスチャの検出結果がジェスチャc1による動作の指示であるか否かが判定される。定義ジャスチャの検出結果がジェスチャc1による動作の指示であると判定されると、ステップ622で、スクリーンキーボード表示はオン状態であるか否かが判定される。スクリーンキーボード表示がオン状態であると判定されると、ステップ624でスクリーンキーボード表示をオフし、スクリーンキーボード表示がオフ状態であると判定されると、ステップ626でスクリーンキーボード表示をオンする。この後、フローはステップ602に戻り、次のジェスチャの検出処理が行われる。
【0105】
ステップ620で定義ジャスチャの検出結果がジェスチャc1による動作の指示でないと判定されると、ステップ630でスクリーンキーボード表示はオン状態であるか否かが判定される。スクリーンキーボード表示がオン状態でないと判定されると、フローはステップ602に戻り、次のジェスチャの検出処理が行われる。
【0106】
ステップ630でスクリーンキーボード表示はオン状態であると判定されると、ステップ632で定義ジャスチャの検出結果がジェスチャd1~d4によるキーボードフォーカス移動開始の指示であるか否かが判定される。定義ジャスチャの検出結果がジェスチャd1~d4によるキーボードフォーカス移動開始の指示であると判定されると、ステップ634でキーボードフォーカス508をジェスチャd1~d4に対応する方向に移動開始させる。ステップ636でジェスチャd1~d4によるキーボードフォーカス移動終了検出処理が行われる。
【0107】
キーボードフォーカス移動終了検出処理(ステップ636)の一例を図17に示す。図17では、現在、指がプレート100に触れているか又は離れているかがステップ682で検出され、ステップ684で検出結果が判定される。検出結果が「指が離れている」ことを示す場合、ステップ686でジェスチャd1~d4によるキーボードフォーカス移動終了の指示が検出される。検出結果が「指が触れている」ことを示す場合、ステップ688でジェスチャd1~d4によるキーボードフォーカス移動継続の指示が検出される。
【0108】
図14に戻り、ステップ638でジェスチャd1~d4によるキーボードフォーカス移動終了の指示が検出されたか否かが判定される。キーボードフォーカス移動終了の指示が検出されないと判定されると、フローはステップ634に戻り、キーボードフォーカスの移動が継続される。ステップ638でキーボードフォーカス移動終了の指示が検出されたと判定されると、フローはステップ602に戻り、次のジェスチャの検出処理が行われる。
【0109】
ステップ632で定義ジャスチャの検出結果がジェスチャd1~d4による動作の指示ではないと判定されると、ステップ642で定義ジャスチャの検出結果がジェスチャc2、e1~e4による動作の指示であるか否かが判定される。定義ジャスチャの検出結果がジェスチャc2、e1~e4による動作の指示であると判定されると、ステップ644でジェスチャc2、e1~e4に対応するキー入力操作が行われる。この後、フローはステップ602に戻り、次のジェスチャの検出処理が行われる。
【0110】
以上説明したように、本実施形態によれば、タッチパッド110には段差を有するプレート100が設けられ、プレート100の辺の縁をなぞることにより種々のコマンドを入力するように構成されているので、ユーザはタッチパッド110上で指を所定の方向に移動することができ、コマンドを適切に入力することができる。このため、実施形態によるタッチパッド110を頭部に装着されるウェアラブル機器の頭部側面に設けられる小型のタッチパッドとして応用した場合、手探りでコマンドを正しく入力することができる。また、指の動きは上下左右の4方向なのでジェスチャの種類が限定され、ユーザがジェスチャ入力のために覚えるジェスチャの数が少なく、ユーザはコマンドの指示内容に対応するジェスチャを容易に覚えることができる。
【0111】
なお、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合せにより種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。更に、異なる実施形態に亘る構成要素を適宜組み合せてもよい。
【符号の説明】
【0112】
16…モバイルPC、23…ウェアラブルデバイス、110…タッチパッド、124…ディスプレイ、142…メガネフレーム
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14
図15
図16
図17