(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024014557
(43)【公開日】2024-02-01
(54)【発明の名称】情報処理装置及び情報処理プログラム
(51)【国際特許分類】
G06F 3/04817 20220101AFI20240125BHJP
G06F 3/041 20060101ALI20240125BHJP
G06F 3/0488 20220101ALI20240125BHJP
【FI】
G06F3/04817
G06F3/041 580
G06F3/0488
【審査請求】未請求
【請求項の数】10
【出願形態】OL
(21)【出願番号】P 2022117468
(22)【出願日】2022-07-22
(71)【出願人】
【識別番号】000005496
【氏名又は名称】富士フイルムビジネスイノベーション株式会社
(74)【代理人】
【識別番号】110001210
【氏名又は名称】弁理士法人YKI国際特許事務所
(72)【発明者】
【氏名】石橋 幹大
【テーマコード(参考)】
5E555
【Fターム(参考)】
5E555AA02
5E555AA12
5E555BA08
5E555BA27
5E555BB08
5E555BB27
5E555CA13
5E555CB05
5E555CB12
5E555CB23
5E555CB33
5E555CB34
5E555DB18
5E555DB20
5E555DC29
5E555DD02
5E555FA00
(57)【要約】
【課題】操作面に対する非接触の特定操作が検知されたときに、ユーザの動きに応じたジェスチャ操作を実行するための操作オブジェクトを表示する。
【解決手段】プロセッサ18を備え、プロセッサ18は、ユーザによる操作面に対する非接触の特定操作を検知し、当該特定操作が検知されると操作面に対するユーザの動きに応じたジェスチャ操作を実行させるための操作オブジェクトを表示させる情報処理装置10とする。
【選択図】
図1
【特許請求の範囲】
【請求項1】
プロセッサを備え、
前記プロセッサは、
ユーザによる操作面に対する非接触の特定操作を検知し、
当該特定操作が検知されると前記操作面に対するユーザの動きに応じたジェスチャ操作を実行させるための操作オブジェクトを表示させる、
情報処理装置。
【請求項2】
前記ジェスチャ操作は、前記操作面に接触した状態又は非接触の状態でユーザの動きに応じて行うことが可能な操作である、請求項1に記載の情報処理装置。
【請求項3】
少なくとも1つの前記操作オブジェクトを第1操作オブジェクトとして表示させた後、ユーザによる前記操作面に対する非接触の特定操作を検知し、
当該特定操作が検知されると前記第1操作オブジェクトとは異なる少なくとも1つの前記操作オブジェクトを第2操作オブジェクトとして表示させる、
請求項1に記載の情報処理装置。
【請求項4】
少なくとも1つの前記操作オブジェクトを第1操作オブジェクトとして表示させた後、ユーザによる前記操作面に対する非接触の特定操作を検知し、
当該特定操作が検知されると前記第1操作オブジェクトとは異なる少なくとも1つの前記操作オブジェクトを第2操作オブジェクトとして表示させる、
請求項2に記載の情報処理装置。
【請求項5】
前記第1操作オブジェクトは、前記第2操作オブジェクトよりも使用頻度が高い前記ジェスチャ操作を実行させるための前記操作オブジェクトである、請求項3に記載の情報処理装置。
【請求項6】
前記操作オブジェクトが示す前記ジェスチャ操作の使用頻度に応じて前記操作オブジェクトの各々の表示領域面積を異ならせる、請求項1に記載の情報処理装置。
【請求項7】
前記操作オブジェクトが表示された時点の前記操作面上のカーソルの位置を基準として、当該操作オブジェクトが示す前記ジェスチャ操作を実行する、請求項1に記載の情報処理装置。
【請求項8】
前記操作オブジェクトの前記操作面上の表示位置に応じて前記操作オブジェクトの表示態様を異ならせる、請求項1に記載の情報処理装置。
【請求項9】
所定の条件を満たすことによって、表示された前記操作オブジェクトを非表示にする請求項1に記載の情報処理装置。
【請求項10】
コンピュータに、
ユーザによる操作面に対する非接触の特定操作を検知させ、
当該特定操作が検知されると前記操作面に対するユーザの動きに応じたジェスチャ操作を実行させるための操作オブジェクトを表示させる、
情報処理プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、情報処理装置及び情報処理プログラムに関する。
【背景技術】
【0002】
従来、指やスタイラスなどの操作体を操作面に直接触れさせずに、当該操作体によって当該操作面に対する操作を行う非接触操作が可能な情報処理装置が提案されている。
【0003】
例えば、特許文献1には、ランチャインジケータに関連付けられたジェスチャ操作を起点としてコンテキストベースメニューを表示させ、ユーザは当該コンテキストベースメニューからコマンドを実行できるようにしたデバイスが開示されている。
【0004】
また、特許文献2には、操作画面に対する操作体の位置を検出し、検出結果に基づいて機能オブジェクトと当該機能の実行させるための実行オブジェクトを表示させ、操作体が示すオブジェクトと関連するオブジェクトを順次展開させるように操作画面に表示させる情報処理装置が開示されている。
【先行技術文献】
【特許文献】
【0005】
【特許文献1】特表2014-521172号公報
【特許文献2】特開2012-37978号公報
【発明の概要】
【発明が解決しようとする課題】
【0006】
ところで、非接触式のユーザインタフェースを搭載した装置において、画面に触れずに行うことが困難なジェスチャ操作がある。例えば、接触式のユーザインタフェースでは容易に操作可能なタップ、ダブルタップ、ロングタップ、ピンチイン、ピンチアウト等の操作であっても、非接触式のユーザインタフェースでは難しい操作が存在する。
【課題を解決するための手段】
【0007】
請求項1に係る発明は、プロセッサを備え、前記プロセッサは、ユーザによる操作面に対する非接触の特定操作を検知し、当該特定操作が検知されると前記操作面に対するユーザの動きに応じたジェスチャ操作を実行させるための操作オブジェクトを表示させる、情報処理装置である。
【0008】
請求項2に係る発明は、前記ジェスチャ操作は、前記操作面に接触した状態又は非接触の状態でユーザの動きに応じて行うことが可能な操作である、請求項1に記載の情報処理装置である。
【0009】
請求項3に係る発明は、少なくとも1つの前記操作オブジェクトを第1操作オブジェクトとして表示させた後、ユーザによる前記操作面に対する非接触の特定操作を検知し、当該特定操作が検知されると前記第1操作オブジェクトとは異なる少なくとも1つの前記操作オブジェクトを第2操作オブジェクトとして表示させる、請求項1に記載の情報処理装置である。
【0010】
請求項4に係る発明は、少なくとも1つの前記操作オブジェクトを第1操作オブジェクトとして表示させた後、ユーザによる前記操作面に対する非接触の特定操作を検知し、当該特定操作が検知されると前記第1操作オブジェクトとは異なる少なくとも1つの前記操作オブジェクトを第2操作オブジェクトとして表示させる、請求項2に記載の情報処理装置である。
【0011】
請求項5に係る発明は、前記第1操作オブジェクトは、前記第2操作オブジェクトよりも使用頻度が高い前記ジェスチャ操作を実行させるための前記操作オブジェクトである、請求項3に記載の情報処理装置である。
【0012】
請求項6に係る発明は、前記操作オブジェクトが示す前記ジェスチャ操作の使用頻度に応じて前記操作オブジェクトの各々の表示領域面積を異ならせる、請求項1に記載の情報処理装置である。
【0013】
請求項7に係る発明は、前記操作オブジェクトが表示された時点の前記操作面上のカーソルの位置を基準として、当該操作オブジェクトが示す前記ジェスチャ操作を実行する、請求項1に記載の情報処理装置である
【0014】
請求項8に係る発明は、前記操作オブジェクトの前記操作面上の表示位置に応じて前記操作オブジェクトの表示態様を異ならせる、請求項1に記載の情報処理装置である。
【0015】
請求項9に係る発明は、所定の条件を満たすことによって、表示された前記操作オブジェクトを非表示にする請求項1に記載の情報処理装置である。
【0016】
請求項10に係る発明は、コンピュータに、ユーザによる操作面に対する非接触の特定操作を検知させ、当該特定操作が検知されると前記操作面に対するユーザの動きに応じたジェスチャ操作を実行させるための操作オブジェクトを表示させる、情報処理プログラムである。
【発明の効果】
【0017】
請求項1及び請求項10に係る発明によれば、操作面に対する非接触の特定操作が検知されたときに、ユーザの動きに応じたジェスチャ操作を実行するための操作オブジェクトが表示される。これによって、例えば、非接触操作に向けて操作性を変えたユーザインタフェースを提供する必要なく、ユーザは操作オブジェクトを操作することでジェスチャ操作と同等の処理を実行することができる。
【0018】
請求項2に係る発明によれば、ユーザは操作オブジェクトを操作することで操作面に接触した状態又は非接触の状態で行うジェスチャ操作と同等の処理を実行することができる。
【0019】
請求項3及び4に係る発明によれば、複数段階に分けて操作オブジェクトを表示させることができる。
【0020】
請求項5に係る発明によれば、第1操作オブジェクトをまず表示させ、第1操作オブジェクトより使用頻度が低い第2操作オブジェクトを次に表示させることができる。
【0021】
請求項6に係る発明によれば、ジェスチャ操作の使用頻度に応じて操作オブジェクトの表示面積を異ならせることができる。
【0022】
請求項7に係る発明によれば、操作オブジェクトが表示された時点の前記操作面上のカーソルの位置を基準としてピンチアウト操作やピンチイン操作を実行することができる。
【0023】
請求項8に係る発明によれば、操作面上の表示位置に応じて操作オブジェクトの表示態様を変えることができる。例えば、操作面の端部付近では操作オブジェクトの一部を切り欠いて表示することができる。
【0024】
請求項9に係る発明によれば、所定の条件が満たされると操作オブジェクトを非表示にすることができる。
【図面の簡単な説明】
【0025】
【
図1】本実施形態に係る情報処理装置の構成概略図である。
【
図2】操作面に対向する空間領域及びそれに対する操作の様子を示す図である。
【
図3】操作面に対向する空間領域及びそれに対する操作の様子を示す図である。
【
図5】操作オブジェクトが表示された操作画面の例を示す図である。
【
図6】本実施形態に係る情報処理を示すフローチャートである。
【
図7】操作オブジェクトが表示された操作画面の別例を示す図である。
【
図8】操作オブジェクトが表示された操作画面の別例を示す図である。
【
図9】操作オブジェクトが表示された操作画面の別例を示す図である。
【
図10】操作オブジェクトの表示態様の別例を示す図である。
【
図11】操作オブジェクトの表示態様の別例を示す図である。
【
図12】キャンセルを含む操作オブジェクトが表示された操作画面の例を示す図である。
【
図13】タップ操作の操作オブジェクトを操作したときの操作画面の例を示す図である。
【
図14】第2操作オブジェクトが表示された操作画面の例を示す図である。
【
図15】キャンセルを含む第2操作オブジェクトが表示された操作画面の例を示す図である。
【
図16】ロングタップ操作を行ったときの処理を説明する図である。
【
図17】アニメーション表示を行った例を示す図である。
【
図18】ピンチアウト操作又はピンチイン操作を行ったときの例を示す図である。
【発明を実施するための形態】
【0026】
図1は、本実施形態に係る情報処理装置10の構成概略図である。詳しくは後述するように、情報処理装置10は非接触操作が可能なユーザインタフェース(UI)を備えた装置である。非接触操作とは、操作体を操作面に直接触れさせずに、当該操作体によって操作面に対する操作を行うことである。なお、非接触操作は、ホバー操作とも呼ばれる。接触操作とは、操作体を操作面に直接触れて当該操作体によって操作面に対する操作を行うことである。操作体とは、操作を行うためのものであり、例えばユーザの指やスタイラスなどである。
【0027】
本実施形態では、情報処理装置10は、プリント機能、コピー機能、スキャン機能などを有し、ユーザからの処理命令(ジョブ)に応じてプリント処理、コピー処理、又はスキャン処理などを実行する複合機であるが、情報処理装置10はこれには限られず、非接触操作が可能である限りにおいてどのような装置であってもよい。
【0028】
図1に示す通り、情報処理装置10は、ディスプレイ12、物体センサ14、メモリ16、及びプロセッサ18を含んで構成される。図示しないが、情報処理装置10は、これらの他、LAN(Local Area Network)やWAN(Wide Area Network)などの通信回線を介して他の装置と通信するための通信インターフェース(例えばNIC(Network Interface Card)など)、及び、プリント処理やスキャン処理を実行する処理装置(例えばプリンタやスキャナなど)を備えていてもよい。
【0029】
ディスプレイ12は、操作画面を表示するための表示部を構成する。ディスプレイ12は、例えば、液晶パネルや有機EL(Electro Luminescence)パネルを含んで構成される。ディスプレイ12には、プロセッサ18によって種々の画面が表示される。例えば、ディスプレイ12には、非接触操作又は接触操作の対象となるオブジェクトを含む操作画面が表示される。オブジェクトは、ユーザが操作する操作アイコンや各種ボタン等とすることができる。
【0030】
物体センサ14は、物体の近接又は接触を検知する検知部を構成する。物体センサ14は、ディスプレイ12の表示面に接触又は非接触で近接する物体を検知するセンサである。詳しくは、物体センサ14は、ディスプレイ12に近づいてきた又は接触した物体の有無、及び、その物体の位置を検知する。物体の位置とは、ディスプレイ12に平行な平面方向における位置、及び、ディスプレイ12の垂線方向における位置を含む。物体センサ14は、ディスプレイ12に対する非接触操作及び接触操作を行うための操作体のみならず、ディスプレイ12に近づいてきたあらゆる物体を検知する。
【0031】
本実施形態では、ディスプレイ12の表示面が操作の対象である操作面に相当する。以下の説明では、操作面を単にディスプレイ12と示す。また、ディスプレイ12の操作面に表示されている画面を操作画面とし、操作面と操作画面とを区別して示す。
【0032】
物体の検知方法としては、既知の種々の方法を採用することができる。例えば、物体センサ14は、ディスプレイ12と物体との間の静電容量変化を検知する静電容量センサであってよい。この場合、プロセッサ18は、物体センサ14が検知したディスプレイ12と物体との間の静電容量変化に応じて、物体の有無及び位置を検知することができる。あるいは、物体センサ14は、光を検知する光センサであってもよい。この場合、不図示の光源からディスプレイ12の表示面方向に赤外線やレーザ光を出射させ、物体センサ14は、その反射光、特に物体からの反射光を検知する。プロセッサ18は、物体センサ14が検知した反射光に基づいて、物体の有無及び位置を検知することができる。このような物体センサ14をディスプレイ12と重ね合わせて配置することによって、ディスプレイ12に近接又は接触する物体を検知することができる。
【0033】
物体を検知したこと及び検知した物体の位置を示す検知信号は、物体センサ14からプロセッサ18に送信される。
【0034】
メモリ16は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、eMMC(embedded Multi Media Card)、ROM(Read Only Memory)、あるいはRAM(Random Access Memory)などを含んで構成される。メモリ16には、情報処理装置10の各部を動作させるための情報処理プログラムが記憶される。なお、情報処理プログラムは、USB(Universal Serial Bus)メモリ又はCD-ROMなどのコンピュータ読み取り可能な非一時的な記憶媒体に格納することもできる。情報処理装置10は、そのような記憶媒体から情報処理プログラムを読み取って実行することができる。
【0035】
プロセッサ18は、広義的なプロセッサを指し、汎用的なプロセッサ(例えばCPU(Central Processing Unit)など)、及び、専用の処理装置(例えばGPU(Graphics Processing Unit)、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、あるいは、プログラマブル論理デバイスなど)の少なくとも1つを含んで構成される。プロセッサ18としては、1つの処理装置によるものではなく、物理的に離れた位置に存在する複数の処理装置の協働により構成されるものであってもよい。
図1に示すように、プロセッサ18は、メモリ16に記憶された情報処理プログラムに従って、物体検知部20、入力判定部22、操作判定部24、操作オブジェクト表示処理部26、及び情報処理部28としての機能を発揮する。
【0036】
物体検知部20は、物体センサ14からの検知信号に基づいて、ディスプレイ12に対向する空間領域にある物体を検知する。
図2及び
図3を参照しつつ、物体検知部20の処理を具体的に説明する。
図2及び
図3は、ディスプレイ12に対向する空間領域30、及び、空間領域30に少なくとも一部が位置する操作体32を示す。ディスプレイ12と平行な方向(ディスプレイ12の横方向)をXp軸とし、ディスプレイ12と平行な方向であってXp軸に垂直な方向(ディスプレイ12の縦方向)をYp軸とし、ディスプレイ12の垂線方向をZp軸としている。
【0037】
ディスプレイ12に対向する空間領域30とは、ディスプレイ12をZp軸の正方向に平行移動させたときにディスプレイ12が通過する領域であって、Zp軸方向におけるディスプレイ12からの距離が所定距離以内の領域である。なお、当該所定距離、つまり空間領域30のZp軸方向の長さは、物体センサ14の検知可能範囲に応じて決定される。すなわち、当該所定距離は、物体センサ14による物体の検知可能距離であってもよい。
【0038】
図2に示すように、物体がディスプレイ12に近づいてくると、物体センサ14は操作体32を検知する。具体的には、物体センサ14は、情報処理装置10を操作するための操作体32の各部位、例えば操作体32の人差し指の先端や親指の先端などを検知する。空間領域30にある物体は移動し得るため、物体検知部20は、単位時間間隔で空間領域30内にある物体の各部位の位置を検知する。ここで、単位時間間隔とは、例えば数ミリ秒間隔あるいはそれ以下の時間間隔である。物体検知部20は、物体の各部位の位置を示す検知信号をプロセッサ18に送信する。
【0039】
入力判定部22は、物体検知部20が検知した物体の各部位の位置のうち最近接部位の位置に対応するディスプレイ12上の位置Aをユーザの接触又は非接触の操作による指示入力位置として判定する。入力判定部22は、物体センサ14からの検知信号に基づいて、空間領域30にある各部位のZp軸方向におけるディスプレイ12からの距離Lvを比較する。そして、空間領域30にある各部位のうち、距離Lvが最も小さい部位を最近接部位として判定する。接触操作の場合、最近接部位における距離Lvは0となる。
【0040】
図2の例では、物体センサ14が検知した空間領域30にある物体の部位として、代表的に、操作体32の人差し指の先端である部位32a及び親指の先端である部位32bが示されている。物体検知部20は、部位32aとディスプレイ12との間のZp軸方向の距離Lva、部位32bとディスプレイ12との間のZp軸方向の距離Lvb、その他の空間領域30にある物体の部位とディスプレイ12との間のZp軸方向の距離Lvとを比較し、距離Lvaが最も小さいので、距離Lvaに対応する部位32aを最近接部位として判定する。
【0041】
最近接部位の位置に対応するディスプレイ12上の位置Aとは、最近接部位とXp座標及びYp座標が同じディスプレイ12上の点である。すなわち、最近接部位の位置がXpYpZp空間の座標(Xp,Yp,Zp)=(x,y,z)で表されるならば、指示入力位置は、ディスプレイ12上の座標(Xp,Yp)=(x,y)となる。
【0042】
上記のように、空間領域30にある物体は移動し得るため、入力判定部22は、物体センサ14からの検知信号に基づいて単位時間間隔で最近接部位及びそれに対応するディスプレイ12上の位置Aを判定する。
【0043】
図4に示すように、ディスプレイ12の操作画面40では、最近接部位に対応するディスプレイ12上の位置にカーソルXを表示させる。すなわち、カーソルXは、操作画面40において操作対象となっている場所が最近接部位に対応するディスプレイ12上の位置であることを示す。
図4では、「コピー」の操作アイコン44上にカーソルXが位置している状態を示している。
【0044】
操作判定部24は、入力判定部22による最近接部位及びそれに対応するディスプレイ12上の位置Aの判定結果に応じて情報処理装置10に対する操作の内容を判定する。操作の内容とは、非接触又は接触による操作が行われたか否か、ディスプレイ12の操作面に表示されたどの操作アイコンに対して操作が行われたか、等のあらゆる操作の内容を意味する。
【0045】
例えば、操作判定部24は、接触操作が行われたディスプレイ12の指示入力位置に何らかの処理が関連付けられた操作アイコンが表示されていれば、当該指示入力位置を判定することで、当該操作アイコンに対する接触操作が行われたと判定することができる。また、ジェスチャ操作が可能である場合、操作判定部24は、指示入力位置の時間的な変化に応じてジェスチャ操作が行われたと判定することができる。
【0046】
ジェスチャ操作とは、操作面に接触した状態又は非接触の状態でユーザの動きに応じて行うことが可能な操作である。ジェスチャ操作とは、操作体32の動き、換言すれば、指示入力位置の動き(動作パターン)に応じた操作を意味する。指示入力位置の動作パターンと処理内容とを予め関連付けておくことにより、操作判定部24は、指示入力位置の動作パターンを検知し、検知した動作パターンに応じて指示内容を判定することができる。プロセッサ18は、特定されたジェスチャに関連付けられた処理を実行する。
【0047】
ジェスチャ操作は、例えば、フリック、スワイプ、タップ、ダブルタップ、トリプルタップ、ロングタップ、ピンチイン、ピンチアウト、感圧タップ等が挙げられる。フリックは、操作体32を弾くように素早く動かしながら離す操作である。フリックは、主にフリック方向の情報を用いて処理するために用いられる。フリックは、例えば、操作画面の切り替えやフリック入力式のソフトウェアキーボード等で使用される。スワイプは、操作面に対して操作体32の距離を所定の範囲に維持したまま平面的に動かす操作である。スワイプは、主に操作体32を動かす方向に応じて処理するために用いられる。スワイプは、例えば、操作画面のスクロール処理やオブジェクトの移動操作等で使用される。タップは、操作体32を所定値以上の速さで操作面に近づける操作である。タップは、主に操作面において平面内の位置を特定して処理するために用いられる。タップは、例えば、操作面に表示されたオブジェクトに関連付けられた一般的な機能を発揮させる処理を実行するために使用される。ダブルタップ及びトリプルタップは、所定時間内にタップを2回又は3回行う操作である。ダブルタップ及びトリプルタップも主に操作面において平面内の位置を特定して処理するために用いられる。ダブルタップ及びトリプルタップは、例えば、操作面に表示されたオブジェクトに関連付けられた一般的な機能以外の機能を発揮させる処理を実行するために使用される。ロングタップは、操作体32を所定値以上の速さで操作面に近づけ他後、所定期間に亘って所定の範囲に維持する操作である。ロングタップも、主に操作面において平面内の位置を特定して処理するために用いられる。ロングタップは、例えば、オブジェクト自体を選択する処理やオブジェクトに関連付けられたサブメニューを表示させる処理等に使用される。ピンチインは、操作面上に二本の指等の2つの操作体32を置き、2つの操作体32の間隔を狭める操作である。ピンチインは、主に2つの操作体32の距離の変化に応じて処理するために用いられる。ピンチインは、例えば、操作面に表示されている画像を縮小させる処理等に用いられる。ピンチアウトは、操作面上に二本の指等の2つの操作体32を置き、2つの操作体32の間隔を拡げる操作である。ピンチアウトは、主に2つの操作体32の距離の変化に応じて処理するために用いられる。ピンチアウトは、例えば、操作面に表示されている画像を拡大させる処理等に用いられる。感圧タップは、操作体32を操作面に押し付けた圧力に応じて行われる操作である。感圧タップは、主に操作面において平面内の位置を特定しつつ圧力に応じて異なる処理を行うために用いられる。感圧タップは、例えば、操作面に表示されたオブジェクトに関連付けられたサブメニューを表示させる処理を実行するために使用される。感圧タップによる操作を行うためには、物体センサ14は感圧センサを備えることが必要である。
【0048】
ただし、ジェスチャ操作は、これらに限定されるものではなく、操作面に対するジェスチャによって何らかの処理が行われるものであればよい。
【0049】
操作判定部24は、非接触操作が行われたディスプレイ12の指示入力位置に何らかの処理が関連付けられた操作アイコンが表示されていれば、当該指示入力位置を判定することで、当該操作アイコンに対する非接触操作が行われたと判定することができる。例えば、ディスプレイ12上に表示された操作アイコンの領域内に操作体32の指示入力位置が維持されつつ、ディスプレイ12と操作体32との距離Lvが所定の速さ以上で近づいたときに当該操作アイコンに対する非接触操作が行われたと判定することができる。このように、ユーザは操作体32をディスプレイ12に接触させずに、操作体32を空間領域30で動かすことによって指示入力位置を動かしてジェスチャによる指示入力を行うことができる。
【0050】
他のジェスチャ操作についても、指示入力位置の動作パターンと処理内容とを予め関連付けておくことにより、操作判定部24は、指示入力位置の動作パターンを検知し、検知した動作パターンに応じて指示内容を判定することができる。プロセッサ18は、特定されたジェスチャに関連付けられた処理を実行する。
【0051】
さらに、操作判定部24は、操作面に対する非接触の特定操作も判定する。非接触の特定操作とは、操作面に対する非接触の操作であって、ジェスチャ操作に相当する処理を実行させるための操作オブジェクトを表示させる起点となる操作である。
【0052】
特定操作は、例えば、物体センサ14によって非接触での物体の検知はなされているが、操作面に表示されているオブジェクトに対するジェスチャ操作として有効でない状態を所定の基準時間以上に亘って維持している操作とすることができる。例えば、操作面に表示されているオブジェクトの1つの表示領域上に所定の基準時間以上の時間に亘って操作体32を近接させた状態で維持したときを特定操作とする。このような場合、例えば、ユーザは、使用したい機能を示すオブジェクトは分かっているが、どのように非接触の操作をすればよいのか分からず、操作体32を動かさずに考えている状態であると考えられる。
【0053】
ここで、基準時間は、適宜設定すればよい。基準時間は、一定値に固定してもよいし、操作面毎に異ならせてもよい。例えば、基準時間は、ユーザが非接触の操作を迷っているときにオブジェクトに対するジェスチャ操作として有効でない状態を続ける時間の統計的な平均値や中央値とすればよい。当該基準時間の設定は、すべての操作面に対して同じとしてもよいし、操作面毎にジェスチャ操作として有効でない状態を続ける時間の統計的な平均値や中央値としてもよい。
【0054】
また、基準時間は、操作面に表示されているオブジェクトの数、種類、機能、使用状況等に応じて異ならせてもよい。例えば、表示されているオブジェクトの数が多いほど当該基準時間を長くしてもよい。また、例えば、操作画面40に表示されているオブジェクトの種類が多いほど基準時間を長くしてもよい。また、例えば、操作画面40に表示されているオブジェクトの機能の内容に応じて基準時間の設定を変更してもよい。また、例えば、操作画面40に表示されているオブジェクトの使用頻度が低いほど基準時間を長くしてもよい。
【0055】
また、非接触の特定操作は、操作面に表示されているオブジェクトの1つの表示領域上にある操作体32を所定の条件を満たすパターンで動かす操作としてもよい。例えば、非接触の特定操作は、操作面に表示されているオブジェクトの1つの表示領域上において小さな円を描くように操作体32を動かす操作としてもよい。所定の条件を満たすパターンは、小さな円を描くようなパターンに限定されるものでなく、他のパターンとしてもよいし、複数のパターンを適用してもよい。例えば、非接触の特定操作は、操作体32を物体センサ14に近接させ、1つのオブジェクトの表示領域上で小刻みに動かし続ける操作としてもよい。
【0056】
操作オブジェクト表示処理部26は、非接触のジェスチャ操作に相当する操作をするための操作オブジェクトを表示させる処理を行う。操作オブジェクトは、ディスプレイ12の操作面に対して行えるジェスチャ操作によって指示される処理と同じ処理を指示するためのオブジェクトである。すなわち、ユーザが操作体32によって操作オブジェクトを選択すると、当該選択された操作オブジェクトに関連付けられたジェスチャ操作を行ったときと同じ処理が行われる。操作オブジェクトに関連付けられるジェスチャ操作は、例えば、フリック、スワイプ、タップ、ダブルタップ、トリプルタップ、ロングタップ、ピンチイン、ピンチアウト、感圧タップ等のジェスチャ操作を行ったときと同じ処理が挙げられる。ただし、操作オブジェクトに関連付けられるジェスチャ操作は、これらのジェスチャ操作に限定されるものではなく、他のジェスチャ操作であってもよいし、ユーザが独自に設定したジェスチャ操作であってもよい。
【0057】
操作オブジェクトの表示態様は、特に限定されるものではない。例えば、
図5に示すように、ジェスチャ操作を示す情報を操作オブジェクト46として表示させる。
図5の例では、「タップ」というジェスチャ操作を示す情報が操作オブジェクト46として表示されている。
【0058】
情報処理部28、情報処理装置10における情報処理を行う。情報処理部28は、操作判定部24においてディスプレイ12に表示された操作アイコンやボタン等のオブジェクトに対して操作が行われたと判定された場合、当該オブジェクトに関連付けられた情報処理を実行する。情報処理部28における処理は、特に限定されるものではなく、情報処理装置10において提供されるあらゆる処理を含むものであってよい。情報処理装置10が複合機である場合、情報処理部28は、コピー処理、ファクス処理、スキャン処理、プリント処理等を行うものであってもよい。例えば、
図4においてコピー処理を示す操作アイコン44を選択する操作が行われた場合、情報処理部28はコピー処理を実行する。
【0059】
また、情報処理部28は、操作判定部24において接触又は非接触によるジェスチャ操作が行われたと判定された場合、当該ジェスチャ操作に関連付けられた情報処理を実行する。ジェスチャ操作に関連付けられた情報処理は、例えば、上記のフリック、スワイプ、タップ、ダブルタップ、トリプルタップ、ロングタップ、ピンチイン、ピンチアウト等とすることができる。
【0060】
なお、情報処理部28は、操作判定部24において操作オブジェクトが選択された判定された場合、当該操作オブジェクトに関連付けられたジェスチャ操作を行ったときと同じ処理を行う。
【0061】
[操作オブジェクトによる操作処理]
図6は、情報処理装置10による情報処理を示すフローチャートである。プロセッサ18は、メモリ16に記憶された情報処理プログラムを実行することによって、各ステップにおける処理を実現する。以下、
図6を参照して、操作オブジェクトによる操作処理を含む情報処理について説明する。
【0062】
ステップS10では、操作面に対する操作の検知が行われる。当該ステップにおける処理は、物体検知部20及び入力判定部22によって行われる。物体センサ14からの検知信号に基づいて、操作面上の空間領域にある物体を検知する。また、物体検知部20が検知した物体の各部位の位置及び最近接部位の位置を指示入力位置として判定する。
【0063】
ステップS12では、非接触の特定操作であるか否かの判定が行われる。当該ステップにおける処理は、操作判定部24によって行われる。非接触の特定操作が行われた場合にはステップS16に処理を移行させ、その他の接触又は非接触の操作が行われた場合にはステップS14に処理を移行させる。例えば、物体センサ14によって非接触での物体の検知はなされているが、操作面に表示されているオブジェクトに対するジェスチャ操作として有効でない状態が基準時間以上に亘って維持されている場合に非接触の特定操作であると判定してステップS16に処理を移行させる。
【0064】
ステップS14では、ステップS12で行われた接触又は非接触の操作に応じた通常の情報処理が行われる。当該ステップにおける処理は、情報処理部28によって行われる。例えば、操作アイコンに対して接触操作が行われた場合には当該操作アイコンに関連付けられた情報処理を実行する。また、例えば、接触又は非接触によるジェスチャ操作が行われた場合、当該ジェスチャ操作に関連付けられた処理を実行する。
【0065】
ステップS16では、非接触の特定操作に応じて操作オブジェクトを表示する処理が行われる。当該ステップにおける処理は、操作オブジェクト表示処理部26によって行われる。
【0066】
例えば、
図5に示すように、操作オブジェクト46を表示させる処理を行う。当該例では、カーソルXで示される操作体32等の物体の最近接部位の位置が操作アイコン44上にある状態で非接触の特定操作が行われた場合を示している。この場合、当該操作アイコン44に対して可能な非接触のジェスチャ操作に相当する操作をするための操作オブジェクト46を表示させる。
図5の例では、非接触の特定操作が行われた位置に表示されている「コピー」の操作アイコン44を操作対象アイコンとして、当該操作対象アイコンの周辺を囲むようにジェスチャ操作の1つである「タップ操作」を行うための操作オブジェクト46を表示させている。
【0067】
操作オブジェクトは、1つのジェスチャ操作を対象とするものに限定されず、2以上のジェスチャ操作について操作オブジェクトを表示させてもよい。例えば、
図7に示すように、「タップ操作」を行うための操作オブジェクト46に加えて、「ダブルタップ操作」を行うための操作オブジェクト48を表示させてもよい。
【0068】
また、操作オブジェクトを表示させる際、操作オブジェクトの表示領域の面積は均一でなくてもよい。操作オブジェクトの表示領域の面積は、操作オブジェクトによって実行される操作の使用頻度、使用確率等の重要度に応じて異ならせてもよい。具体的には、操作オブジェクトの表示領域の面積は、操作オブジェクトによって実行される操作の使用頻度が高いほど大きくしてもよい。このとき、各操作の使用頻度の比に応じて操作オブジェクトの表示領域の面積の比を設定してもよい。また、使用確率操作オブジェクトの表示領域の面積は、操作オブジェクトによって実行される操作の使用確率が高いほど大きくしてもよい。このとき、各操作の使用確率の比に応じて操作オブジェクトの表示領域の面積の比を設定してもよい。
【0069】
例えば、「タップ操作」が「ダブルタップ操作」よりも使用頻度が高い場合、
図8に示すように、「タップ操作」を行うための操作オブジェクト46の表示領域の面積を「ダブルタップ操作」を行うための操作オブジェクト48の表示領域の面積を大きくしてもよい。
【0070】
また、操作オブジェクトの形状は、円形や環状に限定されるものではなく、他の形状としてもよい。例えば、
図9に示すように、操作対象アイコンである「コピー」の操作アイコン44の上下にそれぞれ矩形状の「タップ操作」を行うための操作オブジェクト46及び「ダブルタップ操作」を行うための操作オブジェクト48を表示させてもよい。また、例えば、
図10及び
図11に示すように、カーソルXの位置がディスプレイ12の表示画面の端部付近にある場合は、環状の一部を切り欠いた操作オブジェクト46を表示させるようにしてもよい。
【0071】
また、「キャンセル操作」を行うための操作オブジェクトを表示させるようにしてもよい。例えば、
図12に示すように、「タップ操作」を行うための操作オブジェクト46に加えて、「キャンセル操作」を行うための操作オブジェクト48を表示させてもよい。
【0072】
ステップS18では、操作オブジェクトに対する操作の検知が行われる。当該ステップにおける処理は、物体検知部20及び入力判定部22によって行われる。物体センサ14からの検知信号に基づいて、操作面上の空間領域にある物体を検知し、検知した物体の最近接部位の位置を取得する。
【0073】
ステップS20では、操作オブジェクトが操作されたか否かの判定が行われる。当該ステップにおける処理は、操作判定部24によって行われる。ステップS16において表示させた操作オブジェクトに対して操作が行われた場合にはステップS22に処理を移行させ、操作が行われていない場合にはステップS24に処理を移行させる。
【0074】
例えば、
図13のカーソルXで示すように、ステップS18において検知された物体の最近接部位の位置が「コピー」の操作アイコン44の表示領域から「タップ操作」の操作オブジェクト46の表示領域へと移動した場合、「タップ操作」の操作オブジェクト46に対して操作が行われたと判定する。この場合、ステップS22に処理を移行させる。一方、
図5の示すように、「タップ操作」の操作オブジェクト46が表示された後も、検知された物体の最近接部位の位置が「コピー」の操作アイコン44上に留まっている場合、「タップ操作」の操作オブジェクト46に対して操作が行われていないと判定する。この場合、ステップS24に処理を移行させる。
【0075】
ステップS22では、操作オブジェクトに応じた処理が行われる。当該ステップにおける処理は、情報処理部28によって行われる。ステップS18及びステップS20において操作の対象とされた操作オブジェクトに関連付けられた操作に応じた処理が行われる。
【0076】
図13に示したように、「タップ操作」の操作オブジェクト46に対して操作が行われた場合、「コピー」の操作対象アイコンに対してタップ操作が行われたものとして処理が行われる。例えば、情報処理装置10における原稿をコピーする処理を実行する。また、図示しないが、「キャンセル操作」の操作オブジェクトに操作が行われた場合、既に表示されている操作オブジェクトを消去して、操作オブジェクトを表示させる前の操作画面40に戻すようにしてもよい。
【0077】
ステップS24では、非接触の特定操作が行われた否かが判定される。当該ステップにおける処理は、操作判定部24によって行われる。例えば、ステップS16において操作オブジェクトが表示されてからステップS20において操作オブジェクトに対する操作が行われていない状態が継続している時間が基準時間以上であるか否かが判定される。操作オブジェクトに対する操作が行われていない状態が継続している時間が基準時間未満であれば、ステップS18へ処理を戻して操作オブジェクトへの操作の検知から処理を繰り返す。操作オブジェクトに対する操作が行われていない状態が継続している時間が基準時間以上であれば、ステップS26に処理を移行させる。
【0078】
ステップS26では、第2操作オブジェクトを表示する処理が行われる。当該ステップにおける処理は、操作オブジェクト表示処理部26によって行われる。第2操作オブジェクトは、特に限定されるものではないが、ステップS16において表示される操作オブジェクトよりも使用頻度や使用確率等の重要度が低いジェスチャ操作のための操作オブジェクトとしてもよい。
【0079】
例えば、
図14に示すように、第2操作オブジェクト50及び第2操作オブジェクト52を表示させる処理を行う。第2操作オブジェクト50及び第2操作オブジェクト52は、操作アイコン44に対して可能な非接触のジェスチャ操作に相当する操作をするための操作オブジェクトである。
図14の例では、操作対象アイコンである「コピー」の操作アイコン44の周辺を囲むようにジェスチャ操作である「ダブルタップ操作」を行うための第2操作オブジェクト50及び「ロングタップ操作」を行うための第2操作オブジェクト52を表示させている。
【0080】
また、「キャンセル操作」を行うための操作オブジェクトを表示させるようにしてもよい。例えば、
図15に示すように、「ダブルタップ操作」を行うための第2操作オブジェクト50及び「ロングタップ操作」を行うための第2操作オブジェクト52に加えて、「キャンセル操作」を行うための第2操作オブジェクト54を表示させてもよい。
【0081】
ステップS28では、操作オブジェクトに対する操作の検知が行われる。当該ステップにおける処理は、物体検知部20及び入力判定部22によって行われる。物体センサ14からの検知信号に基づいて、操作面上の空間領域にある物体を検知し、検知した物体の最近接部位の位置を取得する。
【0082】
ステップS30では、第2操作オブジェクトが操作されたか否かの判定が行われる。当該ステップにおける処理は、操作判定部24によって行われる。ステップS26において表示させた第2操作オブジェクトに対して操作が行われた場合にはステップS32に処理を移行させ、操作が行われていない場合にはステップS34に処理を移行させる。
【0083】
例えば、図示しないが、ステップS28において「コピー」の操作アイコン44の表示領域から「ダブルタップ操作」の第2操作オブジェクト50の表示領域へと移動した場合、「ダブルタップ操作」の第2操作オブジェクト50に対して操作が行われたと判定する。この場合、ステップS32に処理を移行させる。一方、第2操作オブジェクト50及び第2操作オブジェクト52が表示された後も最近接部位の位置が「コピー」の操作アイコン44上に留まっている場合、第2操作オブジェクト50及び第2操作オブジェクト52に対して操作が行われていないと判定する。この場合、ステップS34に処理を移行させる。
【0084】
ステップS32では、第2操作オブジェクトに応じた処理が行われる。当該ステップにおける処理は、情報処理部28によって行われる。ステップS28及びステップS30において操作の対象とされた第2操作オブジェクトに関連付けられた操作に応じた処理が行われる。
【0085】
例えば、「ダブルタップ操作」の第2操作オブジェクト50に対して操作が行われた場合、「コピー」の操作対象アイコンに対してダブルタップ操作が行われたものとして処理が行われる。例えば、「コピー」の操作対象アイコンに関係する処理を選択するためのサブメニューを表示させる処理を実行してもよい。
【0086】
また、例えば、「ロングタップ操作」の第2操作オブジェクト52に対して操作が行われた場合、
図16に示すように、操作対象アイコンである「コピー」の操作アイコン44の表示位置を変更する処理を実行してもよい。すなわち、「ロングタップ操作」の第2操作オブジェクト52に対して操作が行われる(
図16(a))と、「コピー」の操作アイコン44が選択されてディスプレイ12の表示画面内における表示位置を変更可能な状態とする(
図16(b),
図16(c))。操作面に対して操作体32を動かすことによって、ユーザは選択された「コピー」の操作アイコン44を操作画面内の所望の位置に動かすことができる。「コピー」の操作アイコン44が所望の表示位置に移動された後、非接触の特定操作が行われると「リリース操作」のための操作オブジェクト56を表示させる(
図16(d))。そして、「リリース操作」の操作オブジェクト56に対して操作が行われると(
図16(e))、「コピー」の操作アイコン44の表示位置が固定される(
図16(f))。
【0087】
なお、操作オブジェクトや第2操作オブジェクトは、上記例に限定されるものではなく、非接触のジェスチャ操作に相当する操作をするための操作オブジェクトであればよい。
【0088】
また、図示しないが、「キャンセル操作」の第2操作オブジェクトに操作が行われた場合、既に表示されている第2操作オブジェクトを消去する処理を実行してもよい。なお、第2操作オブジェクトを表示させてから所定の基準時間に亘って第2操作オブジェクトに対して操作が行われなかった場合に第2操作オブジェクトを消去して、第2操作オブジェクトを表示させる前の操作画面40に戻すようにしてもよい。また、物体センサ14による物体の検知ができなくなった場合、ユーザの非接触操作が終了したものとして第2操作オブジェクトを消去して、第2操作オブジェクトを表示させる前の操作画面40に戻すようにしてもよい。
【0089】
ステップS34では、非接触の特定操作が行われた否かが判定される。当該ステップにおける処理は、操作判定部24によって行われる。ステップS26において操作オブジェクトが表示されてからステップS30において操作オブジェクトに対する操作が行われていない状態が継続している時間が基準時間以上であるか否かが判定される。操作オブジェクトに対する操作が行われていない状態が継続している時間が基準時間未満であれば、ステップS28へ処理を戻して操作オブジェクトへの操作の検知から処理を繰り返す。操作オブジェクトに対する操作が行われていない状態が継続している時間が基準時間以上であれば、ステップS36に処理を移行させる。
【0090】
なお、第2操作オブジェクトを表示させる必要がない場合、ステップS26~ステップS34の処理を行わなくてもよい。また、必要に応じて、ステップS26~ステップS34を繰り返して、第2操作オブジェクトに続いて、第3操作オブジェクト、第4操作オブジェクト・・・を表示させて、当該操作オブジェクトに対する処理を行ってもよい。
【0091】
ステップS36では、第2操作オブジェクトを消去する処理が行われる。当該ステップにおける処理は、操作オブジェクト表示処理部26によって行われる。ここでは、第2操作オブジェクトを消去して、第2操作オブジェクトを表示させる前の操作画面40に戻す処理が行われる。
【0092】
なお、操作オブジェクトを表示させる際にアニメーションを伴う表示を行ってもよい。例えば、
図17に示すように、操作オブジェクト46及び第2操作オブジェクト52を表示させるまでにカーソルXの形状を変形させてインジケータ60を表示させてもよい。インジケータ60は、ステップS12における基準時間が満たされるまでの時間の経過を視覚的に表示する(
図17(a),
図17(b))。ステップS12における基準時間が満たされると、インジケータ60が満たされた表示となり、ステップS16において操作オブジェクト46を表示させる(
図17(c))。その後、インジケータ60は、ステップS24における基準時間が満たされるまでの時間の経過を視覚的に表示する(
図17(d))。ステップS24における基準時間が満たされると、インジケータ60が満たされた表示となり、ステップS26において第2操作オブジェクト50及び第2操作オブジェクト52を表示させる(
図17(e))。
【0093】
なお、アニメーションを伴う表示は、上記例に限定されるものではない。例えば、カーソルXを動かして小さく円を描くジェスチャを表示させる等の特定のジェスチャを表示してもよい。また、例えば、カーソルXの形状を手の形状とし、操作中に手を開く等のその形状を変化させるように表示させてもよい。
【0094】
また、操作オブジェクトを用いて、操作画面40において位置の指定を必要とするピンチイン操作やピンチアウト操作等のジェスチャ操作を実現することもできる。例えば、
図18に示すようにピンチアウト操作を実現することができる。まず、拡大対象の画像62が表示された操作画面40において非接触の特定操作が行われると「ピンチ操作」の操作オブジェクト64を表示させる(
図18(a))。「ピンチ操作」の操作オブジェクト46に対して操作が行われると(
図18(b))、ピンチ操作用の操作オブジェクト66を表示させる(
図18(c))。ピンチ操作用の操作オブジェクト66は、ピンチ操作の方法を示すような表示態様とすることが好適である。例えば、操作体32を現在の位置から移動させる方向を示す矢印のような操作オブジェクト66とすることができる。操作オブジェクト64が表示された時点のカーソルXの位置を基準として操作オブジェクト66が示す方向に沿って操作体32が動かされると(
図18(d))、動きに合わせて操作対象の画像62を拡大又は縮小表示させる。例えば、操作オブジェクト64が表示された時点のカーソルXの位置から操作体32の最近接部位の位置が離れると操作対象の画像62を拡大させる。また、例えば、操作オブジェクト64が表示された時点のカーソルXの位置から操作体32の最近接部位の位置が近づくと操作対象の画像62を縮小させる。そして、操作対象の画像62が所望のサイズになった状態で操作体32の位置を固定し、非接触の特定操作が行われるとピンチアウト操作が完了する(
図18(e))。例えば、所定の基準時間が経過するまで操作体32を動かさない状態が維持されるとピンチアウト操作が完了する。
【0095】
なお、ピンチイン操作も同様に処理することができる。例えば、ピンチ操作用の操作オブジェクト66の矢印の方向と逆方向に操作体32を移動させることによってピンチイン操作による画像62の縮小表示が行われるようにしてもよい。
【0096】
ピンチアウト操作及びピンチイン操作の方向は、特に限定されるものではなく、「ピンチ操作」の操作オブジェクト64に対する直前の操作方向に対して平行な方向でもよいし、交差する方向でもよい。また、ピンチアウト操作及びピンチイン操作を行う操作体32の動かし方は、ピンチ操作用の操作オブジェクト66に沿った直線でなくてもよく、「ピンチ操作」の操作オブジェクト64を操作した位置から操作体32を回す操作等であってもよい。例えば、操作画面40上において操作体32を時計回りに回す操作でピンチアウト操作を実行し、反時計回りに回す操作でピンチイン操作を実行するようにしてもよい。
【0097】
また、ピンチ操作用の操作オブジェクト66を表示させなくてもよい。例えば、任意の方法でピンチアウト操作中又はピンチイン操作中であることをユーザに提示し、その状態で操作を行うことによってピンチアウト操作又はピンチイン操作の処理を行ってもよい。
【0098】
また、ピンチアウト操作及びピンチイン操作の方法や表示態様は適宜切り替えてもよい。例えば、操作画面40の中央付近の領域では矢印のピンチ操作用の操作オブジェクト66を表示させてピンチアウト操作及びピンチイン操作を行い、操作画面40の端部付近では操作体32を回す操作でピンチアウト操作及びピンチイン操作を行ってもよい。
【0099】
以上、本発明に係る実施形態を説明したが、本発明は上記実施形態に限られるものではなく、本発明の趣旨を逸脱しない限りにおいて種々の変更が可能である。
【0100】
(((1)))
プロセッサを備え、
前記プロセッサは、
ユーザによる前記操作面に対する非接触の特定操作を検知し、
当該特定操作が検知されると前記操作面に対するユーザの動きに応じたジェスチャ操作を実行させるための操作オブジェクトを表示させる、
情報処理装置。
(((2)))
前記ジェスチャ操作は、前記操作面に接触した状態又は非接触の状態でユーザの動きに応じて行うことが可能な操作である、(((1)))に記載の情報処理装置。
(((3)))
少なくとも1つの前記操作オブジェクトを第1操作オブジェクトとして表示させた後、ユーザによる前記操作面に対する非接触の特定操作を検知し、
当該特定操作が検知されると前記第1操作オブジェクトとは異なる少なくとも1つの前記操作オブジェクトを第2操作オブジェクトとして表示させる、
(((1)))又は(((2)))に記載の情報処理装置。
(((4)))
前記第1操作オブジェクトは、前記第2操作オブジェクトよりも使用頻度が高い前記ジェスチャ操作を実行させるための前記操作オブジェクトである、(((3)))に記載の情報処理装置。
(((5)))
前記操作オブジェクトが示す前記ジェスチャ操作の使用頻度に応じて前記操作オブジェクトの各々の表示領域面積を異ならせる、(((1)))~(((4)))のいずれか1項に記載の情報処理装置。
(((6)))
前記操作オブジェクトが表示された時点の前記操作面上のカーソルの位置を基準として、当該操作オブジェクトが示す前記ジェスチャ操作を実行する、(((1)))~(((5)))のいずれか1項に記載の情報処理装置。
(((7)))
前記操作オブジェクトの前記操作面上の表示位置に応じて前記操作オブジェクトの表示態様を異ならせる、(((1)))~(((6)))のいずれか1項に記載の情報処理装置。
(((8)))
所定の条件を満たすことによって、表示された前記操作オブジェクトを非表示にする(((1)))~(((7)))のいずれか1項に記載の情報処理装置。
(((9)))
コンピュータに、
ユーザによる操作面に対する非接触の特定操作を検知させ、
当該特定操作が検知されると前記操作面に対するユーザの動きに応じたジェスチャ操作を実行させるための操作オブジェクトを表示させる、
情報処理プログラム。
【符号の説明】
【0101】
10 情報処理装置、12 ディスプレイ、14 物体センサ、16 メモリ、18 プロセッサ、20 物体検知部、22 入力判定部、24 操作判定部、26 操作オブジェクト表示処理部、28 情報処理部、30 空間領域、32 操作体、32a,32b 部位、40 操作画面、44 操作アイコン、46 操作オブジェクト、48 操作オブジェクト、50 第2操作オブジェクト、52 第2操作オブジェクト、54 第2操作オブジェクト、56 操作オブジェクト、60 インジケータ、62 画像、64 操作オブジェクト、66 操作オブジェクト。