IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 富士ゼロックス株式会社の特許一覧

<>
  • 特開-情報処理装置及び情報処理プログラム 図1
  • 特開-情報処理装置及び情報処理プログラム 図2
  • 特開-情報処理装置及び情報処理プログラム 図3
  • 特開-情報処理装置及び情報処理プログラム 図4
  • 特開-情報処理装置及び情報処理プログラム 図5
  • 特開-情報処理装置及び情報処理プログラム 図6
  • 特開-情報処理装置及び情報処理プログラム 図7
  • 特開-情報処理装置及び情報処理プログラム 図8
  • 特開-情報処理装置及び情報処理プログラム 図9
  • 特開-情報処理装置及び情報処理プログラム 図10
  • 特開-情報処理装置及び情報処理プログラム 図11
  • 特開-情報処理装置及び情報処理プログラム 図12
  • 特開-情報処理装置及び情報処理プログラム 図13
  • 特開-情報処理装置及び情報処理プログラム 図14
  • 特開-情報処理装置及び情報処理プログラム 図15
  • 特開-情報処理装置及び情報処理プログラム 図16
  • 特開-情報処理装置及び情報処理プログラム 図17
  • 特開-情報処理装置及び情報処理プログラム 図18
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024046814
(43)【公開日】2024-04-05
(54)【発明の名称】情報処理装置及び情報処理プログラム
(51)【国際特許分類】
   G06F 3/0488 20220101AFI20240329BHJP
【FI】
G06F3/0488
【審査請求】未請求
【請求項の数】7
【出願形態】OL
(21)【出願番号】P 2022152114
(22)【出願日】2022-09-26
(71)【出願人】
【識別番号】000005496
【氏名又は名称】富士フイルムビジネスイノベーション株式会社
(74)【代理人】
【識別番号】110001210
【氏名又は名称】弁理士法人YKI国際特許事務所
(72)【発明者】
【氏名】南迫 祐樹
(72)【発明者】
【氏名】草野 伸美
(72)【発明者】
【氏名】坂口 勝俊
【テーマコード(参考)】
5E555
【Fターム(参考)】
5E555AA43
5E555BA27
5E555BB27
5E555BC01
5E555CA12
5E555CB22
5E555CB66
5E555DB03
5E555DD01
5E555FA00
(57)【要約】
【課題】装置の機能や操作についてユーザが把握できていないような状態を非接触UIで検知したときに、これらの情報をガイド情報として提示する。
【解決手段】ユーザによる操作面に対する非接触の特定状態を検知し、当該特定状態が検知されると操作面に対する操作方法の説明又は操作面に表示されているオブジェクトの機能の説明を提示させる情報処理装置10とする。
【選択図】図1
【特許請求の範囲】
【請求項1】
プロセッサを備え、
前記プロセッサは、
ユーザによる操作面に対する非接触の特定状態を検知し、
当該特定状態が検知されると前記操作面に対する操作方法の説明又は前記操作面に表示されているオブジェクトの機能の説明を提示させる、
情報処理装置。
【請求項2】
前記特定状態は、前記操作面に対する近接の検知が一定時間継続しつつ前記操作面に表示されている前記オブジェクトに対する操作が行われていない状態である、請求項1に記載の情報処理装置。
【請求項3】
前記操作面に対して近接の検知が行われた軌跡に応じて前記説明の内容を異ならせる、請求項1に記載の情報処理装置。
【請求項4】
前記操作方法は、前記操作面に対するユーザの動きに応じたジェスチャ操作の方法の説明である、請求項1に記載の情報処理装置。
【請求項5】
前記操作方法は、前記操作面に対して非接触で行われるユーザの動きに応じたジェスチャ操作の方法の説明である、請求項4に記載の情報処理装置。
【請求項6】
前記操作面において近接の検知が行われた領域を避けて前記説明を表示させる、請求項1~5のいずれか1項に記載の情報処理装置。
【請求項7】
コンピュータに、
ユーザによる操作面に対する非接触の特定状態を検知させ、
当該特定状態が検知されると前記操作面に対する操作方法の説明又は前記操作面に表示されているオブジェクトの機能の説明を提示させる、
情報処理プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、情報処理装置及び情報処理プログラムに関する。
【背景技術】
【0002】
従来、指やスタイラスなどの操作体を操作面に直接触れさせずに、当該操作体によって当該操作面に対する操作を行う非接触操作が可能な情報処理装置が提案されている。
【0003】
例えば、特許文献1には、物体の近接及び接触を入力として検知する入力検知部と、検知された入力の座標に基づいて入力されたイベントの種別を判別するイベント種別判別部と、アプリケーションに対する処理モードの情報を取得するモード情報取得部と、イベントの種別と取得された処理モードを含むデータを情報処理装置へ送信する送信部と、を備えた入力処理装置が開示されている。
【0004】
また、特許文献2には、指などのタッチスクリーン上の接触面積を推定する演算を行い、指などがタッチスクリーンに接触したのか近接したのかを判定し、近接時に接触面積に適した画像の拡大処理を行う技術が開示されている。
【0005】
また、特許文献3には、タッチパネルへの物体の近接及び接触状態を検知する近接/接触判定部と、近接及び接触状態を検知した場合にタッチパネルに対する物体の相対的な近接及び接触位置座標を検出する座標検出部と、近接位置座標の時間変化に基づいて物体のタッチパネルへの近接速度を算出する近接速度算出部と、接触位置座標及び近接速度に応じて表示部の画面表示を制御するコンテンツ制御部とを備えたユーザインタフェース装置が開示されている。
【先行技術文献】
【特許文献】
【0006】
【特許文献1】特開2014-241033号公報
【特許文献2】特開2011-134111号公報
【特許文献3】特開2010-205050号公報
【発明の概要】
【発明が解決しようとする課題】
【0007】
ところで、接触式又は非接触式のユーザインタフェースを搭載した装置において、その装置でどのような処理が可能であるのか、どのような操作が可能であるか等を把握できていない場合がある。
【0008】
また、接触式又は非接触式のユーザインタフェースを用いる場合、ジェスチャ操作による入力が一般的に採用されている。ジェスチャ操作の方法をユーザが把握している場合には直感的に簡便に操作することができるというメリットがある。一方、ユーザがどのようなジェスチャ操作が可能であるか把握していない場合には提供されている機能を使いこなせないことがある。
【0009】
このように、装置の機能や操作についてユーザが把握できていないような状態を非接触UIで検知したときに、ユーザにこれらの情報を適切に把握させることができなかった。
【課題を解決するための手段】
【0010】
請求項1に係る発明は、プロセッサを備え、前記プロセッサは、ユーザによる操作面に対する非接触の特定状態を検知し、当該特定状態が検知されると前記操作面に対する操作方法の説明又は前記操作面に表示されているオブジェクトの機能の説明を提示させる、情報処理装置である。
【0011】
請求項2に係る発明は、前記特定状態は、前記操作面に対する近接の検知が一定時間継続しつつ前記操作面に表示されている前記オブジェクトに対する操作が行われていない状態である、請求項1に記載の情報処理装置である。
【0012】
請求項3に係る発明は、前記操作面に対して近接の検知が行われた軌跡に応じて前記説明の内容を異ならせる、請求項1に記載の情報処理装置である。
【0013】
請求項4に係る発明は、前記操作方法は、前記操作面に対するユーザの動きに応じたジェスチャ操作の方法の説明である、請求項1に記載の情報処理装置である。
【0014】
請求項5に係る発明は、前記操作方法は、前記操作面に対して非接触で行われるユーザの動きに応じたジェスチャ操作の方法の説明である、請求項4に記載の情報処理装置である。
【0015】
請求項6に係る発明は、前記操作面において近接の検知が行われた領域を避けて前記説明を表示させる、請求項1~5のいずれか1項に記載の情報処理装置である。
【0016】
請求項7に係る発明は、コンピュータに、ユーザによる操作面に対する非接触の特定状態を検知させ、当該特定状態が検知されると前記操作面に対する操作方法の説明又は前記操作面に表示されているオブジェクトの機能の説明を提示させる、情報処理プログラムである。
【発明の効果】
【0017】
請求項1及び請求項7に係る発明によれば、装置の機能や操作についてユーザが把握できていないような状態を非接触UIで検知したときに、これらの情報をガイド情報として提示することができる。
【0018】
請求項2に係る発明によれば、操作面に対する近接の検知が一定時間継続しつつ操作面に表示されているオブジェクトに対する操作が行われていない状態であるときにガイド情報を提供することができる。
【0019】
請求項3に係る発明によれば、近接の検知が行われた軌跡に応じてガイド情報の表示を異ならせてガイド情報を提供することができる。
【0020】
請求項4に係る発明によれば、操作面に対するユーザの動きに応じたジェスチャ操作の方法を提示することができる。
【0021】
請求項5に係る発明によれば、操作面に対して非接触で行われるユーザの動きに応じたジェスチャ操作の方法を提示することができる。
【0022】
請求項6に係る発明によれば、操作面において近接の検知が行われた領域を避けて説明を表示させることでガイド情報を把握し易くすることができる。
【図面の簡単な説明】
【0023】
図1】本実施形態に係る情報処理装置の構成概略図である。
図2】操作面に対向する空間領域及びそれに対する操作の様子を示す図である。
図3】操作面に対向する空間領域及びそれに対する操作の様子を示す図である。
図4】本実施形態に係る情報処理方法を示すフローチャートである。
図5】操作面に表示されたメニュー画面の例を示す図である。
図6】ガイド情報が表示されたメニュー画面の例を示す図である。
図7】一部が近接検知領域に覆われたメニュー画面の例を示す図である。
図8】近接検知領域を避けてガイド情報が表示されたメニュー画面の例を示す図である。
図9】近接検知領域を避けてガイド情報が表示されたメニュー画面の別例を示す図である。
図10】ヒントボタンが表示されたメニュー画面の例を示す図である。
図11】ヒントボタンに対応するガイド情報が表示されたメニュー画面の例を示す図である。
図12】ジェスチャ操作として有効でない非接触の特定状態の例を説明する図である。
図13】ジェスチャ操作として有効でない非接触の特定状態に応じてガイド情報が表示されたメニュー画面の例を示す図である。
図14】ジェスチャ操作として有効でない非接触の特定状態の別例を説明する図である。
図15】ジェスチャ操作として有効でない非接触の特定状態に応じてガイド情報が表示されたメニュー画面の別例を示す図である。
図16】ジェスチャ操作として有効でない非接触の特定状態の例を説明する図である。
図17】ジェスチャ操作として有効でない非接触の特定状態に応じてガイド情報をアニメーション表示させる例を示す図である。
図18】ジェスチャ操作として有効でない非接触の特定状態に応じてガイド情報をアニメーション表示させる別例を示す図である。
【発明を実施するための形態】
【0024】
図1は、本実施形態に係る情報処理装置10の構成概略図である。詳しくは後述するように、情報処理装置10は非接触操作が可能なユーザインタフェース(UI)を備えた装置である。非接触操作とは、操作体を操作面に直接触れさせずに、当該操作体によって操作面に対する操作を行うことである。なお、非接触操作は、ホバー操作とも呼ばれる。接触操作とは、操作体を操作面に直接触れて当該操作体によって操作面に対する操作を行うことである。操作体とは、操作を行うためのものであり、例えばユーザの指やスタイラスなどである。
【0025】
本実施形態では、情報処理装置10は、プリント機能、コピー機能、スキャン機能などを有し、ユーザからの処理命令(ジョブ)に応じてプリント処理、コピー処理、又はスキャン処理などを実行する複合機であるが、情報処理装置10はこれには限られず、非接触操作が可能である限りにおいてどのような装置であってもよい。
【0026】
図1に示す通り、情報処理装置10は、ディスプレイ12、物体センサ14、メモリ16、及びプロセッサ18を含んで構成される。図示しないが、情報処理装置10は、これらの他、LAN(Local Area Network)やWAN(Wide Area Network)などの通信回線を介して他の装置と通信するための通信インターフェース(例えばNIC(Network Interface Card)など)、及び、プリント処理やスキャン処理を実行する処理装置(例えばプリンタやスキャナなど)を備えていてもよい。
【0027】
ディスプレイ12は、操作画面を表示するための表示部を構成する。ディスプレイ12は、例えば、液晶パネルや有機EL(Electro Luminescence)パネルを含んで構成される。ディスプレイ12には、プロセッサ18によって種々の画面が表示される。例えば、ディスプレイ12には、非接触操作又は接触操作の対象となるオブジェクトを含む操作画面が表示される。オブジェクトは、ユーザが操作する操作アイコンや各種ボタン等とすることができる。
【0028】
物体センサ14は、物体の近接又は接触を検知する検知部を構成する。物体センサ14は、ディスプレイ12の表示面に接触又は非接触で近接する物体を検知するセンサである。詳しくは、物体センサ14は、ディスプレイ12に近づいてきた又は接触した物体の有無、及び、その物体の位置を検知する。物体の位置とは、ディスプレイ12に平行な平面方向における位置、及び、ディスプレイ12の垂線方向における位置を含む。物体センサ14は、ディスプレイ12に対する非接触操作及び接触操作を行うための操作体のみならず、ディスプレイ12に近づいてきたあらゆる物体を検知する。
【0029】
本実施形態では、ディスプレイ12の表示面が操作の対象である操作面に相当する。すなわち、ユーザが操作する操作アイコンや各種ボタン等を含む操作画面が操作面の一部又は全体に表示される。以下の説明では、操作面を単にディスプレイ12と示す。
【0030】
物体の検知方法としては、既知の種々の方法を採用することができる。例えば、物体センサ14は、ディスプレイ12と物体との間の静電容量変化を検知する静電容量センサであってよい。この場合、プロセッサ18は、物体センサ14が検知したディスプレイ12と物体との間の静電容量変化に応じて、物体の有無及び位置を検知することができる。あるいは、物体センサ14は、光を検知する光センサであってもよい。この場合、不図示の光源からディスプレイ12の表示面方向に赤外線やレーザ光を出射させ、物体センサ14は、その反射光、特に物体からの反射光を検知する。プロセッサ18は、物体センサ14が検知した反射光に基づいて、物体の有無及び位置を検知することができる。このような物体センサ14をディスプレイ12と重ね合わせて配置することによって、ディスプレイ12に近接又は接触する物体を検知することができる。
【0031】
物体を検知したこと及び検知した物体の位置を示す検知信号は、物体センサ14からプロセッサ18に送信される。
【0032】
メモリ16は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、eMMC(embedded Multi Media Card)、ROM(Read Only Memory)、あるいはRAM(Random Access Memory)などを含んで構成される。メモリ16には、情報処理装置10の各部を動作させるための情報処理プログラムが記憶される。なお、情報処理プログラムは、USB(Universal Serial Bus)メモリ又はCD-ROMなどのコンピュータ読み取り可能な非一時的な記憶媒体に格納することもできる。情報処理装置10は、そのような記憶媒体から情報処理プログラムを読み取って実行することができる。
【0033】
プロセッサ18は、広義的なプロセッサを指し、汎用的なプロセッサ(例えばCPU(Central Processing Unit)など)、及び、専用の処理装置(例えばGPU(Graphics Processing Unit)、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、あるいは、プログラマブル論理デバイスなど)の少なくとも1つを含んで構成される。プロセッサ18としては、1つの処理装置によるものではなく、物理的に離れた位置に存在する複数の処理装置の協働により構成されるものであってもよい。図1に示すように、プロセッサ18は、メモリ16に記憶された情報処理プログラムに従って、物体検知部20、入力判定部22、操作判定部24、ガイド提示処理部26、及び情報処理部28としての機能を発揮する。
【0034】
物体検知部20は、物体センサ14からの検知信号に基づいて、ディスプレイ12に対向する空間領域にある物体を検知する。図2及び図3を参照しつつ、物体検知部20の処理を具体的に説明する。図2及び図3は、ディスプレイ12に対向する空間領域30、及び、空間領域30に少なくとも一部が位置する操作体32を示す。ディスプレイ12と平行な方向(ディスプレイ12の横方向)をXp軸とし、ディスプレイ12と平行な方向であってXp軸に垂直な方向(ディスプレイ12の縦方向)をYp軸とし、ディスプレイ12の垂線方向をZp軸としている。
【0035】
ディスプレイ12に対向する空間領域30とは、ディスプレイ12をZp軸の正方向に平行移動させたときにディスプレイ12が通過する領域であって、Zp軸方向におけるディスプレイ12からの距離が所定距離以内の領域である。なお、当該所定距離、つまり空間領域30のZp軸方向の長さは、物体センサ14の検知可能範囲に応じて決定される。すなわち、当該所定距離は、物体センサ14による物体の検知可能距離であってもよい。
【0036】
図2に示すように、物体がディスプレイ12に近づいてくると、物体センサ14は操作体32を検知する。具体的には、物体センサ14は、情報処理装置10を操作するための操作体32の各部位、例えば操作体32の人差し指の先端や親指の先端などを検知する。空間領域30にある物体は移動し得るため、物体検知部20は、単位時間間隔で空間領域30内にある物体の各部位の位置を検知する。ここで、単位時間間隔とは、例えば数ミリ秒間隔あるいはそれ以下の時間間隔である。物体検知部20は、物体の各部位の位置を示す検知信号をプロセッサ18に送信する。
【0037】
入力判定部22は、物体検知部20が検知した物体の各部位の位置のうち最近接部位の位置に対応するディスプレイ12上の位置Aをユーザの接触又は非接触の操作による指示入力位置として判定する。入力判定部22は、物体センサ14からの検知信号に基づいて、空間領域30にある各部位のZp軸方向におけるディスプレイ12からの距離Lvを比較する。そして、空間領域30にある各部位のうち、距離Lvが最も小さい部位を最近接部位として判定する。接触操作の場合、最近接部位における距離Lvは0となる。
【0038】
図2の例では、物体センサ14が検知した空間領域30にある物体の部位として、代表的に、操作体32の人差し指の先端である部位32a及び親指の先端である部位32bが示されている。物体検知部20は、部位32aとディスプレイ12との間のZp軸方向の距離Lva、部位32bとディスプレイ12との間のZp軸方向の距離Lvb、その他の空間領域30にある物体の部位とディスプレイ12との間のZp軸方向の距離Lvとを比較し、距離Lvaが最も小さいので、距離Lvaに対応する部位32aを最近接部位として判定する。
【0039】
最近接部位の位置に対応するディスプレイ12上の位置Aとは、最近接部位とXp座標及びYp座標が同じディスプレイ12上の点である。すなわち、最近接部位の位置がXpYpZp空間の座標(Xp,Yp,Zp)=(x,y,z)で表されるならば、指示入力位置は、ディスプレイ12上の座標(Xp,Yp)=(x,y)となる。
【0040】
上記のように、空間領域30にある物体は移動し得るため、入力判定部22は、物体センサ14からの検知信号に基づいて単位時間間隔で最近接部位及びそれに対応するディスプレイ12上の位置Aを判定する。
【0041】
操作判定部24は、入力判定部22による最近接部位及びそれに対応するディスプレイ12上の位置Aの判定結果に応じて情報処理装置10に対する操作の内容を判定する。操作の内容とは、非接触又は接触による操作が行われたか否か、ディスプレイ12に表示されたどの操作アイコンに対して操作が行われたか、等のあらゆる操作の内容を意味する。
【0042】
例えば、操作判定部24は、接触操作が行われたディスプレイ12の指示入力位置に何らかの処理が関連付けられた操作アイコンが表示されていれば、当該指示入力位置を判定することで、当該操作アイコンに対する接触操作が行われたと判定することができる。また、ジェスチャ操作が可能である場合、操作判定部24は、指示入力位置の時間的な変化に応じてジェスチャ操作が行われたと判定することができる。
【0043】
ジェスチャ操作とは、操作面に接触した状態でユーザの動きに応じて行うことが可能な操作である。ジェスチャ操作とは、操作体32の動き、換言すれば、指示入力位置の動き(動作パターン)に応じた操作を意味する。すなわち、指示入力位置の動作パターンと処理内容とを予め関連付けておくことにより、操作判定部24は、指示入力位置の動作パターンを検知し、検知した動作パターンに応じて指示内容を判定することができる。プロセッサ18は、特定されたジェスチャに関連付けられた処理を実行する。
【0044】
例えば、接触操作が行われたディスプレイ12の指示入力位置をスライドさせるように所定の時間内に連続的に移動させる操作が行われた場合、当該スライドの方向に操作画面をスクロールさせる操作が行われたと判定することができる。操作判定部24は、その他、複数の指示入力位置の移動に応じて操作画面を縮小させるピンチイン、複数の指示入力位置の移動に応じて操作画面を拡大させるピンチアウト等の他のジェスチャ操作を判定できるようにしてもよい。
【0045】
また、操作判定部24は、非接触操作が行われたディスプレイ12の指示入力位置に何らかの処理が関連付けられた操作アイコンが表示されていれば、当該指示入力位置を判定することで、当該操作アイコンに対する非接触操作が行われたと判定することができる。例えば、ディスプレイ12上に表示された操作アイコンの領域内に操作体32の指示入力位置が維持されつつ、ディスプレイ12と操作体32との距離Lvが所定の速さ以上で近づいたときに当該操作アイコンに対する非接触操作が行われたと判定することができる。このように、ユーザは操作体32をディスプレイ12に接触させずに、操作体32を空間領域30で動かすことによって指示入力位置を動かしてジェスチャによる指示入力を行うことができる。
【0046】
非接触操作の場合も、指示入力位置の動作パターンと処理内容とを予め関連付けておくことにより、操作判定部24は、指示入力位置の動作パターンを検知し、検知した動作パターンに応じて指示内容を判定することができる。プロセッサ18は、特定されたジェスチャに関連付けられた処理を実行する。
【0047】
さらに、操作判定部24は、操作面に対する非接触の特定状態も判定する。非接触の特定状態とは、操作面に対する非接触の物体の検出がされているが、操作面に表示されているオブジェクトに対する操作として有効でない状態又は動きが検知された状態を意味する。非接触の特定状態は、情報処理装置10に対してユーザが操作体32によって何らかの操作をしようと試みているが、どのように操作をしたらよいのか分からないようなときに発生する状態である。
【0048】
非接触の特定状態は、例えば、物体センサ14によって非接触での物体の検知はなされているが、操作面に表示されているオブジェクトに対する操作として有効でない状態が所定の基準時間以上に亘って維持されている状態とすることができる。例えば、ユーザが情報処理装置10に対して何らかの操作を行おうとして操作体32を物体センサ14に近接させているが、どのように操作してよいのか分からず、操作体32を動かさずに考えている状態である。この場合、操作判定部24は、ユーザが操作体32を物体センサ14に近接させた状態で所定の基準時間に亘って操作として有効でない状態を続けている状態を判定する。
【0049】
ここで、基準時間は、適宜設定すればよい。基準時間は、例えば、一定値に固定してもよいし、操作画面に表示されているオブジェクトの数、種類、機能、使用状況等に応じて変更するようにしてもよい。例えば、操作画面に表示されているオブジェクトの数が多いほど当該操作画面に対して設定する基準時間を長くしてもよい。また、例えば、操作画面に表示されているオブジェクトの種類が多いほど当該操作画面に対して設定する基準時間を長くしてもよい。また、例えば、操作画面に表示されているオブジェクトの機能の内容に応じて基準時間の設定を変更してもよい。また、例えば、操作画面に表示されているオブジェクトの使用頻度が低いほど当該操作画面に対して設定する基準時間を長くしてもよい。また、基準時間は、操作画面毎に異ならせてもよい。例えば、操作画面毎に、ユーザが操作を迷っているときに操作として有効でない状態を続ける時間の統計的な平均値や中央値としてもよい。
【0050】
また、非接触の特定状態は、例えば、物体センサ14によって非接触での物体の検知はなされているが、情報処理装置10に対する操作として有効でないことを示す所定の動きのパターンが検出された状態とすることができる。例えば、操作判定部24は、ユーザが情報処理装置10に対して何らかの操作を行おうとして操作体32を物体センサ14に近接させ、操作体32を操作面全体に亘って動かしたり、1つの操作アイコン上で小刻みに動かし続けていたりするような状態を非接触の特定状態として判定する。有効でないことを示す所定の動きのパターンは、例えば、検出された物体の最近接部位の位置(x,y,z)の三次元的な動きで判定してもよいし、ディスプレイ12上の座標(x,y)の二次元的な動きで判定してもよい。
【0051】
ガイド提示処理部26は、情報処理装置10に関するガイド情報を提示させる処理を行う。ガイド情報は、情報処理装置10に関する情報であれば特に限定されるものではない。ガイド情報は、操作面に対する操作方法の説明又は操作面に表示されているオブジェクトの機能の説明とすることができる。例えば、ディスプレイ12に表示されている操作面に対する操作に関する情報、現在の操作画面から他の操作画面へ遷移するための操作に関する情報、操作面に表示されているオブジェクトの機能に関する情報とすることができる。本実施の形態では、ガイド提示処理部26は、操作判定部24において非接触の特定状態と判定された場合にディスプレイ12の画面にガイド情報を表示させる。また、ガイド提示処理部26は、所定の条件が満たされると、ディスプレイ12に表示させたガイド情報を消去する処理も行う。
【0052】
情報処理部28は、情報処理装置10における通常の情報処理を行う。情報処理部28は、操作判定部24においてディスプレイ12に表示された操作アイコンに対して接触操作が行われたと判定された場合、当該操作アイコンに関連付けられた情報処理を実行する。また、情報処理部28は、操作判定部24において接触又は非接触によるジェスチャ操作が行われたと判定された場合、当該ジェスチャ操作に関連付けられた情報処理を実行する。
【0053】
なお、情報処理部28における処理は、特に限定されるものではなく、情報処理装置10において提供されるあらゆる処理を含むものであってよい。例えば、情報処理装置10が複合機である場合、情報処理部28は、コピー処理、ファックス処理、スキャン処理、プリント処理等を行うものであってもよい。
【0054】
[非接触の特定状態におけるガイド提示処理]
図4は、本実施の形態における非接触の特定状態におけるガイド提示処理を示すフローチャートである。プロセッサ18は、メモリ16に記憶された情報処理プログラムを実行することによって、各ステップにおける処理を実現する。以下、図4を参照して、非接触の特定状態におけるガイド提示処理について説明する。
【0055】
ステップS10では、操作面に対する非接触の操作の検知が行われる。当該ステップにおける処理によって、プロセッサ18は物体検知部20及び入力判定部22として機能する。物体センサ14からの検知信号に基づいて、操作面上の空間領域にある物体を検知する。また、物体検知部20が検知した物体の各部位の位置及び最近接部位の位置Aを指示入力位置として判定する。
【0056】
ステップS12では、非接触の特定状態であるか否かの判定が行われる。当該ステップにおける処理によって、プロセッサ18は操作判定部24として機能する。非接触の特定状態が行われた場合にはステップS16に処理を移行させ、その他の接触又は非接触の操作が行われた場合にはステップS14に処理を移行させる。
【0057】
例えば、物体センサ14によって非接触での物体の検知はなされているが、情報処理装置10に対する操作として有効でない状態が所定の基準時間以上に亘って維持されている状態である場合、非接触の特定状態であると判定してステップS16に処理を移行させる。また、例えば、1つの操作アイコンの表示領域上において非接触な状態でジェスチャ操作として有効でない動きが検知された場合に非接触の特定状態であると判定してステップS16に処理を移行させる。また、例えば、非接触な状態で操作面の全領域に亘って二次元的に満遍なくジェスチャ操作として有効でない動きが検知された場合に非接触の特定状態であると判定してステップS16に処理を移行させる。また、例えば、ディスプレイ12の操作面上の空間領域30において、操作体32の最近接部位の位置(x,y,z)が所定の基準期間に亘って三次元的に所定の範囲内に収まり、ジェスチャ操作として有効でない動きが維持された場合に非接触の特定状態と判定してステップS16に処理を移行させる。
【0058】
ステップS14では、ステップS12で行われた接触又は非接触の操作に応じた通常の情報処理が行われる。当該ステップにおける処理によって、プロセッサ18は情報処理部28として機能する。例えば、操作アイコンに対して接触操作が行われた場合には当該操作アイコンに関連付けられた情報処理を実行する。また、例えば、接触又は非接触によるジェスチャ操作が行われた場合、当該ジェスチャ操作に関連付けられた処理を実行する。
【0059】
ステップS16では、非接触の特定状態に応じたガイド情報を表示する処理が行われる。当該ステップにおける処理によって、プロセッサ18はガイド提示処理部26として機能する。プロセッサ18は、例えば、以下に示すようにガイド情報を表示させる処理を行う。
【0060】
図5は、ディスプレイ12の操作面にシンプルなメニュー画面40を表示した例を示す。メニュー画面40には、リセットボタン42及び複数の操作アイコン44が表示されている。リセットボタン42は、メニュー画面40に対する操作をリセットする処理を指示するためのアイコンである。操作アイコン44は、それぞれ情報処理装置10における情報処理を指示するためのアイコンである。操作アイコン44は、例えば、コピー、ファックス、スキャナー(メール送信)、スキャナー(PC保存)、ボックス操作、及びアドレス帳等の機能に関する処理を行うためのアイコンである。
【0061】
メニュー画面40が表示されている状態において、非接触の物体が検知されているが、操作として有効でない状態が所定の基準時間以上に亘って維持された場合、表示されているメニュー画面40において可能な操作や機能を説明するガイド情報を表示させる。例えば、図6に示すように、ディスプレイ12の操作面においてガイド表示領域46を設けて、当該ガイド表示領域46にガイド情報を表示させる。
【0062】
図5及び図6のメニュー画面40の例では、操作面に隣接させて予めガイド表示領域46を設けて、当該領域にガイド情報を表示させる態様としたが、これに限定されるものではない。物体検知部20及び入力判定部22によって近接が検知されている領域を避けてガイド情報を表示させるようにしてもよい。例えば、図7に示すように、ディスプレイ12の操作面において近接が検知されている近接検知領域48がある場合、図8に示すように、操作アイコン44等を縮小表示させて、近接検知領域48を避けるようにガイド表示領域46を設けてガイド情報を表示させてもよい。また、図9に示すように、リセットボタン42及び操作アイコン44の少なくとも一部をスライドさせて表示し、近接検知領域48を避けるようにガイド表示領域46を設けてガイド情報を表示させてもよい。
【0063】
このように、非接触の特定状態と判定された場合にディスプレイ12に表示されているメニュー画面40に関するガイド情報を表示することができる。これによって、ユーザはメニュー画面40の操作や機能について把握することができる。
【0064】
また、非接触の特定状態と判定された場合、リセットボタン42及び操作アイコン44において可能な操作や機能に関するヒントをガイド情報として表示させてもよい。例えば、図10に示すように、操作や機能に関するヒントを表示させるためのヒントボタン50をリセットボタン42及び操作アイコン44の各々の配置に合わせて表示させるようにしてもよい。ガイド情報の表示を必要とするリセットボタン42及び操作アイコン44に合わせて表示されたヒントボタン50に対して接触のクリック操作やタッチ操作や非接触のジェスチャ操作を行うことによって操作や機能に関するガイド情報を表示させる。例えば、図11に示すように、操作画面において吹き出し領域52を設けて、当該吹き出し領域52に操作や機能に関するガイド情報を表示させればよい。また、図6と同様に、操作面に隣接させて予めガイド表示領域46を設けて、当該領域にガイド情報を表示させるようにしてもよい。また、ガイド情報を表示させるためのミニアイコンを表示させてもよい。
【0065】
このように、非接触の特定状態と判定された場合にリセットボタン42及び操作アイコン44の各々に対する指定に応じて、指摘されたリセットボタン42及び操作アイコン44に関する操作や機能について表示させることができる。これによって、ユーザはメニュー画面40の操作や機能について必要に応じて把握することができる。
【0066】
また、図12に矢印で示すように、1つの操作アイコン44の表示領域上において非接触な状態でジェスチャ操作として有効でない動きを操作体32が示している場合に非接触の特定状態が行われたと判定してステップS16に処理を移行させてもよい。このとき、近接の検知が行われた軌跡に応じてガイド情報としての説明の内容を異ならせてもよい。
【0067】
例えば、所定の基準時間に亘って検知された最近接部位の二次元的な位置Aの軌跡長の基準割合以上が1つの操作アイコン44の表示領域上であった場合に非接触の特定状態が行われたと判定すればよい。例えば、10秒間に亘って検知された最近接部位の二次元的な位置Aの軌跡長の80%以上が1つの操作アイコン44の表示領域上であった場合に非接触の特定状態が行われたと判定すればよい。このように非接触の特定状態が行われたと判定された場合、当該操作アイコン44に関するガイド情報を表示させる。例えば、図13に示すように、当該操作アイコン44に対して吹き出し領域52を表示させて、当該吹き出し領域52に当該操作アイコン44に関するガイド情報を表示させてもよい。
【0068】
ただし、基準割合は、80%に限定されるものではなく、適宜設定すればよい。基準割合は、例えば、メニュー画面40に表示されているオブジェクトの数、種類、機能、使用状況、表示領域のサイズ等に応じて変更するようにしてもよい。例えば、メニュー画面40に表示されているオブジェクトの数が多いほど当該基準割合を低い値にしてもよい。また、例えば、メニュー画面40に表示されているオブジェクトの種類が多いほど基準割合を低い値にしてもよい。また、例えば、メニュー画面40に表示されているオブジェクトの機能の内容に応じて基準割合の設定を変更してもよい。また、例えば、メニュー画面40に表示されているオブジェクトの使用頻度が低いほど基準割合を低い値にしてもよい。また、基準割合は、操作画面毎に異ならせてもよい。
【0069】
また、基準時間は、10秒に限定されるものではなく、適宜設定すればよい。基準時間は、例えば、メニュー画面40に表示されているオブジェクトの数、種類、機能、使用状況、表示領域のサイズ等に応じて変更するようにしてもよい。例えば、メニュー画面40に表示されているオブジェクトの数が多いほど当該基準時間を長くしてもよい。また、例えば、メニュー画面40に表示されているオブジェクトの種類が多いほど基準時間を長くしてもよい。また、例えば、メニュー画面40に表示されているオブジェクトの機能の内容に応じて基準時間の設定を変更してもよい。また、例えば、メニュー画面40に表示されているオブジェクトの使用頻度が低いほど基準時間を長くしてもよい。また、基準時間は、操作画面毎に異ならせてもよい。
【0070】
これによって、ユーザが実行したいが操作に迷っているボタンやアイコン等を特定し、当該ボタンやアイコンに関する操作や機能についてガイド情報を提供することができる。したがって、ユーザは、操作に迷っているボタンやアイコン等に関するガイド情報を的確に把握することができる。
【0071】
また、図14に矢印で示すように、メニュー画面40上において操作体32が非接触な状態で全領域に亘って満遍なくジェスチャ操作として有効でない動きを示している場合に非接触の特定状態が行われたと判定してステップS16に処理を移行させてもよい。例えば、所定の基準時間に亘って検知された最近接部位の二次元的な位置Aの軌跡長について各操作アイコン44の表示領域上にある割合がいずれも基準割合未満であった場合に非接触の特定状態が行われたと判定すればよい。例えば、10秒間に亘って検知された最近接部位の位置Aの軌跡長の10%未満しか各操作アイコン44上にない場合に非接触の特定状態が行われたと判定すればよい。
【0072】
ただし、基準割合は、10%に限定されるものではなく、適宜設定すればよい。基準割合は、例えば、メニュー画面40に表示されているオブジェクトの数、種類、機能、使用状況、表示領域のサイズ等に応じて変更するようにしてもよい。例えば、メニュー画面40に表示されているオブジェクトの数が多いほど当該基準割合を低い値にしてもよい。また、例えば、メニュー画面40に表示されているオブジェクトの種類が多いほど基準割合を低い値にしてもよい。また、例えば、メニュー画面40に表示されているオブジェクトの機能の内容に応じて基準割合の設定を変更してもよい。また、例えば、メニュー画面40に表示されているオブジェクトの使用頻度が低いほど基準割合を低い値にしてもよい。また、基準割合は、操作画面毎に異ならせてもよい。
【0073】
また、基準時間は、10秒に限定されるものではなく、適宜設定すればよい。基準時間は、例えば、メニュー画面40に表示されているオブジェクトの数、種類、機能、使用状況、表示領域のサイズ等に応じて変更するようにしてもよい。例えば、メニュー画面40に表示されているオブジェクトの数が多いほど当該基準時間を長くしてもよい。また、例えば、メニュー画面40に表示されているオブジェクトの種類が多いほど基準時間を長くしてもよい。また、例えば、メニュー画面40に表示されているオブジェクトの機能の内容に応じて基準時間の設定を変更してもよい。また、例えば、メニュー画面40に表示されているオブジェクトの使用頻度が低いほど基準時間を長くしてもよい。また、基準時間は、操作画面毎に異ならせてもよい。
【0074】
このように非接触の特定状態が行われたと判定された場合、メニュー画面40全体に対する操作や機能、他のメニュー画面への移行に対する操作に関するガイド情報を表示させる。例えば、図15に示すように、吹き出し領域54を設けて、メニュー画面40をスクロールさせる操作に関するガイド情報やメニュー画面40から他のメニュー画面に遷移させる操作に関するガイド情報を表示させてもよい。
【0075】
これによって、メニュー画面40全体に対する操作や機能についてガイド情報を提供することができる。したがって、ユーザは、何か操作を行いたいがどのように操作したら良いか分からない、又は、メニュー画面40上に見付からない状態等においてガイド情報を的確に把握することができる。
【0076】
また、非接触のジェスチャ操作が可能な場合、非接触の特定状態と判定された場合にジェスチャ操作の方法を示すガイド情報を表示させてもよい。例えば、図16に示すように、ディスプレイ12の操作面上の空間領域30において、操作体32の最近接部位の三次元的な位置(x,y,z)が所定の基準期間に亘って所定の基準範囲(x±Δx,y±Δy,z±Δz)内に収まり、ジェスチャ操作として有効でない動きが維持された場合に非接触の特定状態と判定する。
【0077】
非接触の特定状態と判定された場合、メニュー画面40においてどのような非接触のジェスチャ操作ができるのかを示すガイド情報を表示させる。例えば、非接触のジェスチャ操作である「空中タップ」をガイド情報として表示させる場合、図17に示すように、操作体32の例である「手」の画像56を時間的に拡大及び縮小を繰り返すアニメーションを表示する。また、図18に示すように、メニュー画面40を三次元表現に切り替えて、操作体32の例である「手」の画像58をディスプレイ12の操作面に近づけるようなアニメーションを表示させてもよい。
【0078】
また、ユーザがジェスチャ操作を登録できる構成である場合、登録されているジェスチャ操作の方法を1つずつ順番に表示させてもよい。例えば、ディスプレイ12に現在表示されているメニュー画面40において可能なジェスチャ操作の方法を1つずつ順番に表示させてもよい。
【0079】
ただし、基準範囲(x±Δx,y±Δy,z±Δz)は、適宜設定すればよい。基準範囲は、例えば、メニュー画面40に表示されているオブジェクトの数、種類、機能、使用状況、表示領域のサイズ等に応じて変更するようにしてもよい。例えば、メニュー画面40に表示されているオブジェクトの数が多いほど当該基準範囲を小さい範囲にしてもよい。また、例えば、メニュー画面40に表示されているオブジェクトの種類が多いほど基準範囲を小さい範囲にしてもよい。また、例えば、メニュー画面40に表示されているオブジェクトの機能の内容に応じて基準範囲の設定を変更してもよい。また、例えば、メニュー画面40に表示されているオブジェクトの使用頻度が低いほど基準範囲を小さい範囲にしてもよい。また、基準範囲は、操作画面毎に異ならせてもよい。
【0080】
また、基準時間は、適宜設定すればよい。基準時間は、例えば、メニュー画面40に表示されているオブジェクトの数、種類、機能、使用状況、表示領域のサイズ等に応じて変更するようにしてもよい。例えば、メニュー画面40に表示されているオブジェクトの数が多いほど当該基準時間を長くしてもよい。また、例えば、メニュー画面40に表示されているオブジェクトの種類が多いほど基準時間を長くしてもよい。また、例えば、メニュー画面40に表示されているオブジェクトの機能の内容に応じて基準時間の設定を変更してもよい。また、例えば、メニュー画面40に表示されているオブジェクトの使用頻度が低いほど基準時間を長くしてもよい。また、基準時間は、操作画面毎に異ならせてもよい。
【0081】
なお、ガイド情報の提示態様は、上記例に限定されるものではなく、ユーザがガイド情報を把握できる態様であればよい。例えば、視覚情報として表示するのではなく、音声等の聴覚情報や振動等の触覚情報によってガイド情報を提示する態様としてもよい。
【0082】
また、所定の条件に応じてガイド情報の提示を止めてもよい。例えば、接触操作が行われた場合、又は、非接触で操作面に対して有効な操作が行われ他場合、ガイド情報の提示を止めてもよい。また、例えば、非接触の特定状態が解消された場合や物体センサ14による物体の検知が無くなった場合にガイド情報の提示を止めてもよい。
【0083】
以上、本発明に係る実施形態を説明したが、本発明は上記実施形態に限られるものではなく、本発明の趣旨を逸脱しない限りにおいて種々の変更が可能である。
【0084】
(付記)
(((1)))
プロセッサを備え、
前記プロセッサは、
ユーザによる操作面に対する非接触の特定状態を検知し、
当該特定状態が検知されると前記操作面に対する操作方法の説明又は前記操作面に表示されているオブジェクトの機能の説明を提示させる、
情報処理装置。
(((2)))
前記特定状態は、前記操作面に対する近接の検知が一定時間継続しつつ前記操作面に表示されている前記オブジェクトに対する操作が行われていない状態である、(((1)))に記載の情報処理装置。
(((3)))
前記操作面に対して近接の検知が行われた軌跡に応じて前記説明の内容を異ならせる、(((1)))又は(((2)))に記載の情報処理装置。
(((4)))
前記操作方法は、前記操作面に対するユーザの動きに応じたジェスチャ操作の方法の説明である、(((1)))~(((3)))のいずれか1項に記載の情報処理装置。
(((5)))
前記操作方法は、前記操作面に対して非接触で行われるユーザの動きに応じたジェスチャ操作の方法の説明である、(((4)))に記載の情報処理装置。
(((6)))
前記操作面において近接の検知が行われた領域を避けて前記説明を表示させる、(((1)))~(((5)))のいずれか1項に記載の情報処理装置。
(((7)))
コンピュータに、
ユーザによる操作面に対する非接触の特定状態を検知させ、
当該特定状態が検知されると前記操作面に対する操作方法の説明又は前記操作面に表示されているオブジェクトの機能の説明を提示させる、
情報処理プログラム。
【0085】
(((1)))及び(((7)))に係る発明によれば、装置の機能や操作についてユーザが把握できていないような状態を非接触UIで検知したときに、これらの情報をガイド情報として提示することができる。
(((2)))に係る発明によれば、操作面に対する近接の検知が一定時間継続しつつ操作面に表示されているオブジェクトに対する操作が行われていない状態であるときにガイド情報を提供することができる。
(((3)))に係る発明によれば、近接の検知が行われた軌跡に応じてガイド情報の表示を異ならせてガイド情報を提供することができる。
(((4)))に係る発明によれば、操作面に対するユーザの動きに応じたジェスチャ操作の方法を提示することができる。
(((5)))に係る発明によれば、操作面に対して非接触で行われるユーザの動きに応じたジェスチャ操作の方法を提示することができる。
(((6)))に係る発明によれば、操作面において近接の検知が行われた領域を避けて説明を表示させることでガイド情報を把握し易くすることができる。
【符号の説明】
【0086】
10 情報処理装置、12 ディスプレイ、14 物体センサ、16 メモリ、18 プロセッサ、20 物体検知部、22 入力判定部、24 操作判定部、26 ガイド提示処理部、28 情報処理部、30 空間領域、32 操作体、32a,32b 部位、40 メニュー画面、42 リセットボタン、44 操作アイコン、46 ガイド表示領域、48 近接検知領域、50 ヒントボタン、52,54 吹き出し領域、56,58 手の画像。
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14
図15
図16
図17
図18