(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2022-10-11
(45)【発行日】2022-10-19
(54)【発明の名称】情報処理装置及びプログラム
(51)【国際特許分類】
G06F 3/01 20060101AFI20221012BHJP
G06F 3/0482 20130101ALI20221012BHJP
G03G 21/00 20060101ALI20221012BHJP
B41J 29/00 20060101ALI20221012BHJP
H04N 1/00 20060101ALI20221012BHJP
【FI】
G06F3/01 570
G06F3/01 560
G06F3/0482
G03G21/00 502
G03G21/00 388
G03G21/00 386
B41J29/00 T
H04N1/00 350
(21)【出願番号】P 2018102769
(22)【出願日】2018-05-29
【審査請求日】2021-03-19
(73)【特許権者】
【識別番号】000005496
【氏名又は名称】富士フイルムビジネスイノベーション株式会社
(74)【代理人】
【識別番号】100104880
【氏名又は名称】古部 次郎
(74)【代理人】
【識別番号】100125346
【氏名又は名称】尾形 文雄
(74)【代理人】
【識別番号】100166981
【氏名又は名称】砂田 岳彦
(72)【発明者】
【氏名】得地 賢吾
【審査官】菅原 浩二
(56)【参考文献】
【文献】特開2014-021760(JP,A)
【文献】特開2015-080265(JP,A)
【文献】米国特許出願公開第2015/0055168(US,A1)
【文献】国際公開第2012/063560(WO,A1)
【文献】特開平11-327753(JP,A)
【文献】米国特許出願公開第2018/0052518(US,A1)
【文献】特開2017-201533(JP,A)
【文献】特開2000-037558(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
G06F 3/01
G06F 3/048
G03G 21/00
B41J 29/00
H04N 1/00
(57)【特許請求の範囲】
【請求項1】
現実の空間に存在する
操作の対象としての物体とは非接触に行われる現実の空間での
第1のユーザの動きを検知する検知手段と、
第2のユーザが操作する他の情報処理装置との通信を通じ、前記物体に対する当該第2のユーザの動きを操作の情報として受け付ける連携手段と、
前記第1のユーザの動きと前記連携手段で受け付けた前記第2のユーザの動きが予め定めた連携の条件を満たす場合、当該条件に対応付けられている特定の機能の実行を
前記物体に指示する制御手段と、
を有し、
前記第1のユーザ
が持つ又は身につけて使用
する情報処理装置。
【請求項2】
前記
第1のユーザの動きと前記第2のユーザの動きは、予め規定された互いに異なる操作である、請求項1に記載の情報処理装置。
【請求項3】
前記第1のユーザと前記第2のユーザの組み合わせに応じて、
前記連携の条件として当該第1のユーザと当該第2のユーザに求められる操作の割り当てが異なる、請求項2に記載の情報処理装置。
【請求項4】
前記特定の機能の実行に関連付けられる前記
第1のユーザと前記第2のユーザの動きは、当該特定の機能毎に設定される、請求項2に記載の情報処理装置。
【請求項5】
前記
第1のユーザと前記第2のユーザの動きは、前記特定の機能に関連付けられた
前記物体の異なる操作子に対応付けられている、請求項1に記載の情報処理装置。
【請求項6】
前記
第1のユーザと前記第2のユーザの動きは、前記物体毎に設定される、請求項1に記載の情報処理装置。
【請求項7】
前記
第1のユーザと前記第2のユーザの動きは、前記特定の機能に関連付けられた
前記物体の同じ操作子に対応付けられている、請求項1に記載の情報処理装置。
【請求項8】
前記
第1のユーザと前記第2のユーザの動きのそれぞれに対応する操作の向きが反対の場合、当該
第1のユーザの動きと前記第2のユーザの動きを合成した結果に応じて前記特定の機能が実行される、請求項1に記載の情報処理装置。
【請求項9】
前記制御手段は、
前記連携の条件を満たす場合、前記検知手段で検知された前記第1のユーザの動きと前記連携手段で受け付けた前記第2のユーザの動きの大きさをユーザ毎に調整した後に合成する、請求項8に記載の情報処理装置。
【請求項10】
前記
第1のユーザと前記第2のユーザの動きのそれぞれに対応する操作の向きが同じ場合、当該
第1のユーザと当該第2のユーザの動きを合成した結果に応じて前記特定の機能が実行される、請求項1に記載の情報処理装置。
【請求項11】
共通の前記物体に対する
前記第2のユーザの操作の存在を報知する、請求項1に記載の情報処理装置。
【請求項12】
前記第2のユーザの動きを表示する画像を、前記物体を撮像した作業用の画像とともに表示する、請求項11に記載の情報処理装置。
【請求項13】
前記第2のユーザが操作に用いている画像を、前記物体を撮像する画面とともに表示する、請求項11に記載の情報処理装置。
【請求項14】
検知された動きに応じた触覚を生成して
前記第1のユーザに付与する、請求項1に記載の情報処理装置。
【請求項15】
触覚は、前記特定の機能に応じて異なる、請求項14に記載の情報処理装置。
【請求項16】
触覚は、前記特定の機能に対する操作として受け付けた場合に付与される、請求項14に記載の情報処理装置。
【請求項17】
触覚は、
前記第2のユーザの動きに応じて生成される、請求項14に記載の情報処理装置。
【請求項18】
触覚は、共通の部位に対する
前記第2のユーザの動きに応じて生成される、請求項17に記載の情報処理装置。
【請求項19】
ユーザと接して使用されるコンピュータ
に、
現実の空間に存在する
操作の対象としての物体とは非接触に行われる現実の空間での
第1のユーザの動きを検知する
機能と、
第2のユーザが操作する他の情報処理装置との通信を通じ、前記物体に対する当該第2のユーザの動きを操作の情報として受け付ける機能と、
前記第1のユーザの動きと前記受け付ける機能で受け付けた前記第2のユーザの動きが予め定めた連携の条件を満たす場合、当該条件に対応付けられている特定の機能の実行を
前記物体に指示する
機能と
、
を実現させるためのプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、情報処理装置及びプログラムに関する。
【背景技術】
【0002】
ユーザが操作する携帯機器に内蔵されたカメラで撮像した画像に含まれる機器を認識し、認識された機器に対応する仮想ユーザインタフェースを拡張現実の空間に表示し、この仮想ユーザインタフェースを通じて機器を操作することが提示されている。
【先行技術文献】
【特許文献】
【0003】
【発明の概要】
【発明が解決しようとする課題】
【0004】
機器の操作には、ユーザの接触による指示が前提とされる。
【0005】
本発明は、ユーザの接触による操作を用いずに現実の空間に存在する物体の操作を可能とする。
【課題を解決するための手段】
【0006】
請求項1に記載の発明は、現実の空間に存在する操作の対象としての物体とは非接触に行われる現実の空間での第1のユーザの動きを検知する検知手段と、第2のユーザが操作する他の情報処理装置との通信を通じ、前記物体に対する当該第2のユーザの動きを操作の情報として受け付ける連携手段と、前記第1のユーザの動きと前記連携手段で受け付けた前記第2のユーザの動きが予め定めた連携の条件を満たす場合、当該条件に対応付けられている特定の機能の実行を前記物体に指示する制御手段と、を有し、前記第1のユーザが持つ又は身につけて使用する情報処理装置である。
請求項2に記載の発明は、前記第1のユーザの動きと前記第2のユーザの動きは、予め規定された互いに異なる操作である、請求項1に記載の情報処理装置である。
請求項3に記載の発明は、前記第1のユーザと前記第2のユーザの組み合わせに応じて、前記連携の条件として当該第1のユーザと当該第2のユーザに求められる操作の割り当てが異なる、請求項2に記載の情報処理装置である。
請求項4に記載の発明は、前記特定の機能の実行に関連付けられる前記第1のユーザと前記第2のユーザの動きは、当該特定の機能毎に設定される、請求項2に記載の情報処理装置である。
請求項5に記載の発明は、前記第1のユーザと前記第2のユーザの動きは、前記特定の機能に関連付けられた前記物体の異なる操作子に対応付けられている、請求項1に記載の情報処理装置である。
請求項6に記載の発明は、前記第1のユーザと前記第2のユーザの動きは、前記物体毎に設定される、請求項1に記載の情報処理装置である。
請求項7に記載の発明は、前記第1のユーザと前記第2のユーザの動きは、前記特定の機能に関連付けられた前記物体の同じ操作子に対応付けられている、請求項1に記載の情報処理装置である。
請求項8に記載の発明は、前記第1のユーザと前記第2のユーザの動きのそれぞれに対応する操作の向きが反対の場合、当該第1のユーザの動きと前記第2のユーザの動きを合成した結果に応じて前記特定の機能が実行される、請求項1に記載の情報処理装置である。
請求項9に記載の発明は、前記制御手段は、前記連携の条件を満たす場合、前記検知手段で検知された前記第1のユーザの動きと前記連携手段で受け付けた前記第2のユーザの動きの大きさをユーザ毎に調整した後に合成する、請求項8に記載の情報処理装置である。
請求項10に記載の発明は、前記第1のユーザと前記第2のユーザの動きのそれぞれに対応する操作の向きが同じ場合、当該第1のユーザと当該第2のユーザの動きを合成した結果に応じて前記特定の機能が実行される、請求項1に記載の情報処理装置である。
請求項11に記載の発明は、共通の前記物体に対する前記第2のユーザの操作の存在を報知する、請求項1に記載の情報処理装置である。
請求項12に記載の発明は、前記第2のユーザの動きを表示する画像を、前記物体を撮像した作業用の画像とともに表示する、請求項11に記載の情報処理装置である。
請求項13に記載の発明は、前記第2のユーザが操作に用いている画像を、前記物体を撮像する画面とともに表示する、請求項11に記載の情報処理装置である。
請求項14に記載の発明は、検知された動きに応じた触覚を生成して前記第1のユーザに付与する、請求項1に記載の情報処理装置である。
請求項15に記載の発明は、触覚は、前記特定の機能に応じて異なる、請求項14に記載の情報処理装置である。
請求項16に記載の発明は、触覚は、前記特定の機能に対する操作として受け付けた場合に付与される、請求項14に記載の情報処理装置である。
請求項17に記載の発明は、触覚は、前記第2のユーザの動きに応じて生成される、請求項14に記載の情報処理装置である。
請求項18に記載の発明は、触覚は、共通の部位に対する前記第2のユーザの動きに応じて生成される、請求項17に記載の情報処理装置である。
請求項19に記載の発明は、ユーザと接して使用されるコンピュータに、現実の空間に存在する操作の対象としての物体とは非接触に行われる現実の空間での第1のユーザの動きを検知する機能と、第2のユーザが操作する他の情報処理装置との通信を通じ、前記物体に対する当該第2のユーザの動きを操作の情報として受け付ける機能と、前記第1のユーザの動きと前記受け付ける機能で受け付けた前記第2のユーザの動きが予め定めた連携の条件を満たす場合、当該条件に対応付けられている特定の機能の実行を前記物体に指示する機能と、を実現させるためのプログラムである。
【発明の効果】
【0007】
請求項1記載の発明によれば、ユーザの接触による操作を用いずに現実の空間に存在する物体の操作を可能にできる。
請求項2記載の発明によれば、複数のユーザによる予め規定された動き以外を無効化できる。
請求項3記載の発明によれば、個々のユーザに割り当てられている動きの組み合わせ以外を無効化できる。
請求項4記載の発明によれば、機能毎に個々のユーザに割り当てられている動きの組み合わせ以外を無効化できる。
請求項5記載の発明によれば、機能毎に対応付けられている複数の操作子の組み合わせ以外の操作を無効化できる。
請求項6記載の発明によれば、物体毎に機能の実行に要求される動きの組み合わせを区別できる。
請求項7記載の発明によれば、物体毎に機能の実行に要求される動きの組み合わせを区別できる。
請求項8記載の発明によれば、複数のユーザによる動きを合成した操作を実現できる。
請求項9記載の発明によれば、各ユーザの動きを補正した操作を実現できる。
請求項10記載の発明によれば、複数のユーザによる動きを合成した操作を実現できる。
請求項11記載の発明によれば、同じ物体を操作の対象としている他のユーザの存在を知ることができる。
請求項12記載の発明によれば、他のユーザとの操作の連携が容易になる。
請求項13記載の発明によれば、他のユーザとの操作の連携が容易になる。
請求項14記載の発明によれば、各ユーザの操作感を高めることができる。
請求項15記載の発明によれば、各ユーザの操作感を高めることができる。
請求項16記載の発明によれば、各ユーザの操作感を高めることができる。
請求項17記載の発明によれば、他のユーザとの操作の連携が容易になる。
請求項18記載の発明によれば、他のユーザとの操作の連携が容易になる。
請求項19記載の発明によれば、ユーザの接触による操作を用いずに現実の空間に存在する物体の操作を可能にできる。
【図面の簡単な説明】
【0008】
【
図1】実施の形態1に係るシステムの一例を説明する図である。
【
図2】画像形成装置のハードウェア構成の一例を説明する図である。
【
図3】スマートフォンのハードウェア構成の一例を説明する図である。
【
図4】プログラムの実行を通じて処理回路部が実現する機能構成の一例を説明する図である。
【
図5】画像形成装置の操作用に設けられるテーブルの一例を示す図である。
【
図6】処理回路部において実行される処理動作の一例のうちの一部分を説明するフローチャートである。
【
図7】処理回路部において実行される処理動作の一例のうちの残りの部分を説明するフローチャートである。
【
図8】撮像者であるユーザBが自身の人差し指を画面上で画像形成装置に重なるように撮像する様子を説明する図である。
【
図9】画像形成装置に非接触のまま人差し指を空中で前方に押すような動作を撮像する様子を説明する図である。
【
図10】操作の受け付けをユーザに報知する他の方法を説明する図である。
【
図11】操作の受け付けをユーザに報知する他の方法を説明する図である。
【
図12】操作の受け付けをユーザに報知する他の方法を説明する図である。
【
図13】人差し指の像を液晶ディスプレイに表示させない手法を説明する図である。
【
図14】人差し指の像を液晶ディスプレイに表示させる場合の他の手法を説明する図である。
【
図15】ユーザBとユーザCの連携による操作の例を説明する図である。
【
図16】ユーザBと連携するユーザCによる操作の様子を説明する図である。
【
図17】ユーザCと連携するユーザBによる操作の様子を説明する図である。
【
図18】ユーザBによる認証が完了した後におけるユーザCが操作するスマートフォンの画面に現れる変化を説明する図である。
【
図19】実施の形態2に係るシステムの一例を説明する図である。
【
図20】扉の操作用のテーブルの一例を示す図である。
【
図21】操作者であるユーザA又はユーザBが自身の右手をノブの像に重なるように撮像する様子を説明する図である。
【
図22】操作者がユーザA単独である場合の操作の一例を説明する図である。
【
図23】操作者がユーザAとユーザCの2名である場合の操作の一例を説明する図である。(A)は身振りによる操作の前を示し、(B)は身振りによる操作の後を示す。
【
図24】操作者がユーザAとユーザBの2名である場合の操作の一例を説明する図である。(A)は身振りによる操作の前を示し、(B)は身振りによる操作の後を示す。
【
図25】操作者がユーザAとユーザBの2名である場合の操作の一例を説明する図である。(A)は身振りによる操作の前を示し、(B)は身振りによる操作の後を示す。
【
図26】実施の形態3に係るシステムの一例を説明する図である。
【
図27】金庫のハードウェア構成の一例を説明する図である。
【
図28】金庫の操作用のテーブルの一例を示す図である。
【
図29】ユーザBが自身の右手を右側のダイヤル錠の像に重ねて撮像する例を説明する図である。
【
図30】ユーザBが自身の右手を右側のダイヤル錠の像に重ねて撮像する他の例を説明する図である。
【
図31】ユーザBが自身の右手を右側のダイヤル錠の像に重ねて撮像する他の例を説明する図である。
【
図32】表示装置の表示面に表示されている画像を撮像の対象とする場合を説明する図である。
【
図33】スマートフォン以外のカメラで撮像されている物体を身振りで操作する例を説明する図である。
【
図34】ウェアラブル型の情報処理装置を用いるシステムの一例を説明する図である。
【
図35】植木の移動を身振りで指示する場合を説明する図である。
【
図36】ロボットのハードウェア構成を説明する図である。
【
図37】複数のユーザが連携して植木の移動をロボットに指示する例を説明する図である。
【発明を実施するための形態】
【0009】
以下、図面を参照して、本発明の実施の形態を説明する。
<実施の形態1>
<システム例>
図1は、実施の形態1に係るシステムの一例を説明する図である。
図1に示すシステムは、記録材(以下、代表して「用紙」と記す場合もある。)に画像を形成する画像形成装置100と、画像形成装置100を撮像する2台のスマートフォン200A、200Bとで構成されている。
画像形成装置100は、操作の対象として現実の空間に存在する物体の一例である。
【0010】
本実施の形態における画像形成装置100は、複製物を生成するコピー機能、原稿の画像を読み取るスキャン機能、他機との間でファックス画像を受け渡しするファックス送受信機能、用紙に画像を記録する印刷機能等を備えている。コピー機能は、スキャン機能と印刷機能とを組み合わせることで実現される。
なお、画像形成装置100は、コピー機能、スキャン機能、ファックス送受信機能の全てを備える必要はなく、いずれか1つの機能に特化した装置、例えば複写機、スキャナ、ファックス送受信機、印刷装置でもよい。
また、画像形成装置100は、これらの機能の一部を選択的に組み合わせた装置構成を有していてもよい。
画像形成装置100は、ユーザからの操作の受け付けやユーザに対する各種情報の提示に用いられるユーザインタフェース部110と、原稿の画像を読み取る画像読取ユニット120と、用紙上に画像を記録する画像形成ユニット130と、用紙を収容する収容部140とで構成されている。
【0011】
スマートフォン200A及び200Bは、携帯型の端末装置であり、後述するように撮像用のカメラ、表示画面、通信機能等を備えている。
スマートフォン200A及び200Bは、情報処理装置の一例である。
本実施の形態の場合、スマートフォン200AをユーザAが操作し、スマートフォン200BをユーザBが操作する。
図1に示すスマートフォン200A及び200Bの表示画面には、画像形成装置100の像100A、100Bが表示されている。
以下では、スマートフォン200A及び200Bを総称してスマートフォン200と言うことがある。
【0012】
<画像形成装置の構成>
図2は、画像形成装置100のハードウェア構成の一例を説明する図である。
図2には、
図1との対応部分に対応する符号を付して示している。
ユーザインタフェース部110は、操作画面等の表示に使用される表示部111と、ユーザの入力操作を受け付ける操作受付部112とを備えている。
表示部111は、例えば液晶ディスプレイパネルや有機EL(Electro Luminescence)ディスプレイパネル等で構成されている。
操作受付部112は、ユーザによる操作入力を受け付けるボタンやタッチパッド等で構成されている。
【0013】
画像読取ユニット120は、原稿から画像を読み取る画像読取部と、画像読取部に原稿を搬送する原稿搬送部とを有している。画像読取ユニット120は、画像形成ユニット130の上部に配置される。
画像形成ユニット130は、制御部として機能するMPU(Micro Processing Unit)131と、ROM(Read Only Memory)132と、RAM(Random Access Memory)133を有している。
MPU131は、ROM132から読み出したファームウェア等のプログラムを実行し、各種の機能を提供する。RAM133は、プログラムの作業領域として使用される。
【0014】
画像形成ユニット130には、その他に、画像データ等の記憶に用いられる記憶部134、画像データに色補正や階調補正等の画像処理を加える画像処理部135、電子写真方式やインクジェット方式で用紙に画像を形成する画像形成部136、外部との通信に用いられる通信部137等を有している。
記憶部134は、ハードディスク装置や半導体メモリ等の不揮発性の記憶媒体を有している。記憶部134には、画像読取ユニット120で読み取った原稿の画像データや通信部137を通じて受信した画像データが記憶される。
【0015】
画像処理部135は、例えば専用のプロセッサや処理ボードによって構成される。
通信部137は、LAN(Local Area Network)インタフェースやファクシミリ通信網サービスのインタフェースを備えている。前述したスマートフォン200(
図1参照)との通信にはLANインタフェースが使用される。
なお、MPU131、ROM132、RAM133、記憶部134、画像処理部135、画像形成部136、通信部137は、バス138を通じて互いに接続されている。また、前述したユーザインタフェース部110と画像読取ユニット120は、インタフェース139を通じてバス138に接続されている。
【0016】
<スマートフォンの構成>
図3は、スマートフォン200のハードウェア構成の一例を説明する図である。
スマートフォン200は、データを処理する処理回路部210と、プログラムやデータを記憶する不揮発性のメモリ221と、オーディオ信号を入出力するオーディオ回路222と、画像を表示する液晶ディスプレイ(LCD)223と、電源制御デバイス224と、画像を撮像するカメラ225と、操作面に対する接触を検知するタッチパッド226と、WiFi(登録商標)規格に準拠する無線信号を送受信するWiFi(Wireless Fidelity)モジュール227と、近距離無線通信規格の1つであるブルートゥース(登録商標)規格に準拠する無線信号を送受信するBluetoothモジュール228と、物体に接触していない体の部位に人工的な触覚を与える空中触覚モジュール229と、を有している。
【0017】
本実施の形態の場合、カメラ225が設けられる面と液晶ディスプレイ223が設けられる面とは、表面と裏面の関係にある。
このため、ユーザは、現実の空間に存在する物体(例えば画像形成装置)と自身の体の一部(例えば指、手、足)をカメラ225で撮像しながら、その画像を液晶ディスプレイ223で確認することが可能である。
なお、カメラ225が複数設けられている場合や液晶ディスプレイ223が複数設けられている場合には、少なくとも1組のカメラ225と液晶ディスプレイ223が表面と裏面の位置に配置されていればよい。
本実施の形態では、液晶ディスプレイ223を用いているが、有機EL(Electro-Luminescence)ディスプレイその他の表示手段を用いてもよい。
本実施の形態における空中触覚モジュール229は、例えば複数の超音波振動子を格子状に並べた超音波振動子アレーで構成される。この種の空中触覚モジュール229は、空中の任意の位置に超音波の焦点を生成することができる。焦点の分布や振動の強さを調整することにより、ユーザによって知覚される触覚は変化する。
例えば操作の対象である機能に応じ、生成する触覚を変化させてもよい。触覚は、例えばユーザの動きが検知された場合、特定の機能に対する操作として受け付けられた場合等に生成される。また、他のユーザの動きや動きの強さを、触覚を通じて伝達してもよい。空中触覚モジュール229は、触覚を付与する付与手段の一例である。
【0018】
処理回路部210には、メモリ221との間でデータの読み書きを制御するメモリ制御部211と、処理を実行する複数のCPUコア(Central Processing Unit Core)212と、電源の供給を管理する電源管理部213と、組み込みシステムの動作を管理するシステム管理部214と、オーディオ信号を処理するオーディオ処理部215と、実時間で画像を処理するGPU(Graphics Processing Unit)216と、液晶ディスプレイ223に画像を表示するディスプレイ制御部217と、外部のモジュールとの接続に使用される外部インタフェース(I/F)218と、ベースバンド信号を処理するベースバンド回路219とが設けられている。
【0019】
図4は、プログラムの実行を通じて処理回路部210が実現する機能構成の一例を説明する図である。
ここでの処理回路部210は、検知手段の一例であるとともに制御手段の一例でもある。
処理回路部210は、画像データを処理してユーザの身振りを検知する身振り検知部251と、操作の対象とする物体を検知する操作対象検知部252と、操作の対象とする物体(本実施の形態では画像形成装置100)から物体が備える機能の情報を取得する対象側機能取得部253と、ユーザの身振りを操作として受け付ける操作受付部254と、受け付けた操作に対応する指示を対象とする物体に送信する指示送信部255と、操作の受け付けをユーザに報知する報知部256と、同一(共通)の物体に対する他のユーザの操作との連携を実現する連携部257として機能する。
【0020】
本実施の形態における身振り検知部251は、例えばカメラ225で撮像された画像からユーザの体の一部(例えば指、手、足)の動きを身振りとして検知する。動きの意味は、操作の対象として検知される物体毎に異なる。また、同じ物体に対する動きでも操作の対象とする機能が異なれば、動きの意味は異なる。
本実施の形態における身振りには、例えば押す、引く、回す、握る、蹴る、踏む、クリック、ダブルクリック、ドラッグ、タップ、フリック、スワイプ等が含まれる。なお、身振りの特定には、深層学習の機能を用いてもよい。
【0021】
身振りの検知には、他の手法の活用も可能である。例えば半導体レーザやLED(Light Emitting Diode)から発射された光が物体で反射して戻ってくるまでの時間を画素毎に計測して物体までの距離を求めるTOF(Time Of Flight)方式、時系列に変化する縦縞パターンを投影した物体を撮像した画素に現れる輝度の変化から物体までの距離を求めるSL(Structured Light)時系列パターン投影方式、超音波やミリ波を用いて物体までの距離を求める方式等をそれぞれ単独で、又は、組み合わせてもよい。組み合わせの対象には、撮像された画像を処理して身振りを認識する技術も含まれる。
【0022】
本実施の形態における操作対象検知部252は、液晶ディスプレイ223(
図3参照)に表示される画像を分析して操作の対象となる物体やその操作子等を検知する。
本実施の形態における操作子には、操作の対象となる物理的な構造物(例えばボタン、スイッチ)、ソフトウェア的に再現される画面上の表示(例えばボタン、スイッチ)等が含まれる。
処理に用いる画像は、スマートフォン200に設けられたカメラ225から取得される実時間の画像データに限らず、メモリ221や外部から取得される画像データでもよい。
画面内に複数の物体が含まれる場合、操作対象検知部252は、例えば液晶ディスプレイ223に表示される像が画面の中央により近い物体を対象として検知してもよいし、ユーザの体の一部の像と重なる位置の物体を操作の対象として検知してもよい。
なお、操作対象検知部252は、無線LAN等によってスマートフォン200と接続中の機器の一覧の中からユーザによって選択された機器を操作の対象として検知してもよい。
【0023】
本実施の形態における対象側機能取得部253は、例えば操作対象検知部252で検知された物体との通信を通じ、操作が可能な操作子の情報を取得する。例えば無線LANを用い、操作子の情報を取得する。
また、対象側機能取得部253は、例えば通信可能な機器のそれぞれから操作が可能な操作子の情報を取得してもよい。
なお、操作の対象が通信機能を有しているとは限らない。例えば操作の対象が植物や自然物の場合である。この場合でも、対象側機能取得部253は、人の動きを代行可能なロボットその他の機器と通信し、実行が可能な操作の情報を取得してもよい。
【0024】
本実施の形態における操作受付部254は、身振り検知部251が検知した身振りを、操作対象検知部252が検知した物体の特定の機能に対する操作として受け付ける。
操作受付部254は、例えば物体別に用意されたテーブル254Aを参照して操作を受け付ける。なお、テーブル254Aは、機能別に用意されていてもよい。
図4の場合、テーブル254Aは、操作受付部254に記憶されている。もっとも、テーブル254Aは、処理回路部210に接続されたメモリ221(
図3参照)に記憶されていてもよい。
【0025】
図5は、画像形成装置100(
図1参照)の操作用に設けられるテーブル254A1の一例を示す図である。
テーブル254A1には、画像形成装置100に対して想定される操作の内容と個々のユーザとの関係が記録されている。
テーブル254A1の内容は、権限を有するユーザや管理者が登録又は修正することができる。
想定される操作の内容は、操作の対象とする画像形成装置100が有する又は実行可能な機能に限らない。操作の内容には、例えば画像形成装置100に外力を加えて移動させる操作、蓋や引き出しなどの可動部を開閉する操作を含んでもよい。
【0026】
本実施の形態の場合、テーブル254A1には、例えばユーザ毎に、特定の操作の実行者として許容されているか否か、他のユーザとの連携が必要か否か、連携が必要である場合に求められる操作の内容等が記録される。
他のユーザとの連携が必要な操作には、例えば同じタイミングで実行されることが必要な操作、又は、時間的に連続して実行されることが必要な操作、又は、1つの操作を複数の要素に分解した操作をいう。時間的に連続して実行される必要がある場合には、連携するユーザの操作が予め定められた時間内に実行されることが必要である。
なお、他のユーザは、1人に限らず複数人でもよい。
また、テーブル254A1では規定されていないが、連携が要求される複数人のユーザ間での実行の順番が規定されていてもよい。実行の順番が規定されている場合には、各ユーザが規定された順番に操作を実行しない限り、操作受付部254(
図4参照)は、操作の実行を指示しない。
【0027】
例えば
図5の場合、ユーザAは単独で、印刷やファックス送信に関する機能を操作できるが、印刷の色味(印刷色味)の変更などに関する機能を操作できない。
例えばユーザBは単独で、印刷、ファックス送信、印刷色味の変更、認証に関する機能を操作できるが、宛先帳の変更と階調補正に関する機能の操作にはユーザDの認証が要求される。
例えばユーザCは、印刷、ファックス送信、印刷色味の変更に関する機能の操作にはユーザBの認証が要求され、宛先帳の変更、階調補正に関する機能の操作にはユーザDの認証が要求される。なお、ユーザCは、認証に関する機能は操作できない。
例えばユーザDは単独で、印刷、宛先帳の変更、階調補正、認証に関する機能を操作できるが、ファックス送信に関する機能の操作にはユーザAによる市外局番の入力が要求され、印刷色味の変更にはユーザBの認証が要求される。
【0028】
図5の例では、4名のユーザを例示しているが、ユーザ数は4名に限らない。また、操作の内容も
図5に示す6種類に限らない。
図5に示すように、ユーザの組み合わせが異なれば、個々のユーザに求められる操作の割り当ても異なっている。
例えばユーザBとユーザCの間における操作の割り当てと、ユーザBとユーザDの間における操作の割り当てとは異なる。
なお、
図5の例では、操作の連携の例として、一方のユーザが他方のユーザの操作を可能にする認証を行う例と、ファックスの送信先を特定する番号の入力を分担する例とを示しているが、例えば各機能に関する項目の設定を分担してもよい。
【0029】
図4の説明に戻る。
本実施の形態における指示送信部255は、受け付けた操作に対応する指示の実行を対象とする物体(例えば画像形成装置)に対して送信する。なお、指示送信部255は、指示に対する応答(例えば指示の受け付け等)を対象とする物体の側から取得する機能も備えている。
本実施の形態における報知部256は、オーディオ回路222や液晶ディスプレイ223を通じて、身振りによる操作を補助する各種の報知を実行する。
本実施の形態における連携部257は、テーブル254Aで連携先として規定されている他のユーザが操作するスマートフォン200との間で操作の情報を受け渡しする。また、連携先として規定されていなくても、通信が可能な他のスマートフォン200との間で、操作の対象とする物体に関する情報を受け渡してもよい。
【0030】
<処理回路部による処理動作>
以下では、
図6及び
図7を使用して、処理回路部210(
図4参照)において実行される処理動作の一例について説明する。
図6は、処理回路部210において実行される処理動作の一例のうちの一部分を説明するフローチャートである。
図6においては、ステップを記号のSで示す。
図7においても同様である。
本実施の形態における処理回路部210は、液晶ディスプレイ223(
図3参照)の画面内に映り込んでいる人体の一部(例えば指)を認識する(ステップ101)。
次に、処理回路部210は、認識された人体の一部の動きを検知する(ステップ102)。
以上の処理は、例えば身振り検知部251(
図4参照)が実行する。前述したように、身振りの検知は、画像の認識処理に限らず、センサによって測定された距離の情報(いわゆる距離画像)を用いてもよい。
【0031】
その後、処理回路部210は、画面内で人体の一部の像と重なる物体の部位を特定する(ステップ103)。この処理は、例えば操作対象検知部252(
図4参照)が実行する。
なお、処理回路部210は、操作の対象である物体の認識も事前に又は並行して行っている。
操作の対象である物体を特定できない場合、処理回路部210は、操作の対象とする物体を特定できないこと、型式等を含む画像を撮像すべきこと等を報知する。この処理は、例えば報知部256(
図4参照)が実行する。
【0032】
続いて、処理回路部210は、検知された人体の動きを、特定された部位に対する操作として検知する(ステップ104)。この処理は、例えば操作受付部254が実行する。
なお、特定された部位に対応付けられている機能が存在しない場合や対応付けられている機能の実行とは関係のない動きの場合、処理回路部210は、検知された動きを操作として検知しない。
【0033】
次に、処理回路部210は、スマートフォン200を操作しているユーザが、検知された操作に関して権限があるか否かを判定する(ステップ105)。
ステップ105で否定結果が得られた場合、処理回路部210は、操作できない旨を報知し(ステップ106)、処理を終了する。報知は、例えば報知部256が実行する。
ステップ105で肯定結果が得られた場合、処理回路部210は、検知されたユーザの操作の実行には他のユーザとの連携が必要とされるか否かを判定する(ステップ107)。この処理は、操作受付部254がテーブル254A(
図4参照)を参照して実行する。
ステップ107で肯定結果が得られた場合、処理回路部210は、連携の条件を満たすか否かを判定する(ステップ108)。この処理は、操作受付部254がテーブル254Aを参照して実行する。条件が満たされるまで(ステップ108で否定結果が得られる間)、処理回路部210は、判定を繰り返す。ただし、予め定めた時間が経過しても条件が満たされない場合には、連携が必要な操作の内容を報知したり、連携が必要とされるユーザの操作するスマートフォン200に対して通知を発したり、操作できない旨を報知してもよい。
【0034】
一方、ステップ107で否定結果が得られた場合、処理回路部210は、検知された特定の部位に対する他のユーザの操作があるか否かを判定する(ステップ109)。この処理は、操作受付部254が実行する。この処理は必ずしも必要ではないが、例えば物体に物理的な力が作用される場合に、個々のユーザの指示に基づく外力を合成するのに用いることが可能である。
ステップ109で肯定結果が得られた場合、処理回路部210は、複数のユーザの操作を合成する(ステップ110)。この処理は、操作受付部254が実行する。操作の合成は、単純な合成でもよいし、重み付け後の合成でもよい。
【0035】
ステップ108で肯定結果が得られた場合、又は、ステップ109で否定結果が得られた場合、又はステップ110の実行後、処理回路部210は、
図7に示す処理を実行する。
図7は、処理回路部210において実行される処理動作の一例のうちの残りの部分を説明するフローチャートである。
ここで、処理回路部210は、対象とする物体を通信により制御可能か否かを判定する(ステップ111)。この処理も、例えば操作受付部254が実行する。
ステップ111で肯定結果が得られた場合、処理回路部210は、操作の実行を指示する信号を、対象とする物体に送信する(ステップ112)。
【0036】
ステップ111で否定結果が得られた場合、処理回路部210は、操作の代行が可能な自走装置があるか否かを判定する(ステップ113)。操作の代行が可能な自走装置の一例はロボットである。
ステップ113で肯定結果が得られた場合、処理回路部210は、操作の実行を指示する信号を自走装置に送信する(ステップ114)。
ステップ113で否定結果が得られた場合、処理回路部210は、操作できない旨を報知する(ステップ115)。
これらの後、処理回路部210は処理を終了する。
【0037】
<操作例>
以下では、前述した機能を用いて実現される操作例について説明する。
<操作例1>
図8は、撮像者であるユーザBが自身の人差し指301を画面上で画像形成装置100に重なるように撮像する様子を説明する図である。
この撮像の際、ユーザBは、左手でスマートフォン200Bを保持している。人差し指301はユーザBの人差し指であり、画像形成装置100には触れていない。具体的には、画像形成装置100とスマートフォン200Bとの間の空中に位置している。
【0038】
図8の場合、スマートフォン200Bの液晶ディスプレイ223には、ユーザインタフェース部110の一部分が拡大された状態で表示されている。
この表示の状態は、画像形成装置100の像が液晶ディスプレイ223に表示されている状態で、液晶ディスプレイ223の画面に触れた2本の指の間を広げるように動かすことで可能である。なお、音声認識技術を使用すれば、液晶ディスプレイ223に触れなくても表示を拡大できる。
【0039】
図8の場合、現実の空間に存在するユーザインタフェース部110の一部分を撮像した像270(ファックス送信用のボタン271と仕様設定/登録用のボタン272)と、人差し指の像301Aとが、液晶ディスプレイ223に表示されている。この画面は、作業用の画像の一例である。
本実施の形態の場合、仕様設定/登録用のボタン272のクリック操作が受け付けられると、印刷色味の変更が可能になる。テーブル254A1(
図5参照)の場合、ユーザBは、印刷色味の変更を単独で操作可能である。
前述したように、現実の空間内における位置関係は、一番奥から順番に、画像形成装置100、ユーザの人差し指301、スマートフォン200Bである。
従って、スマートフォン200Bで撮像された人差し指の像301Aは、ユーザインタフェース部の像270の手前に重なるように表示される。
【0040】
ところで、人差し指301の動きで画像形成装置100を操作するには、操作の対象として画像形成装置100が事前に特定されている必要がある。
画像形成装置100の特定には、例えば画像形成装置100の画像を処理して機種を特定する技術、画像に含まれる型番等の文字情報を検知する技術、液晶ディスプレイ223に表示される候補の中から選択する技術等の使用が可能である。候補は、例えば無線LAN等によってスマートフォン200Bと接続中の機器の一覧として与えられる。
ここでは、操作の対象として画像形成装置100が既に特定されているものとする。
【0041】
図8の場合、操作が可能な2つの操作子(ファックス送信用のボタン271と仕様設定/登録用のボタン272)が液晶ディスプレイ223に表示されているが、3つ以上の操作子が表示されていてもよいし、1つの操作子だけが表示されていてもよい。
図8の場合、2つの操作子が液晶ディスプレイ223に表示されているので、操作の対象とする操作子と人差し指の像301Aとが重なるように人差し指301を空中で移動させる必要がある。
【0042】
この人差し指301の空気中での移動もスマートフォン200Bには、ユーザの動きとして検知される。ただし、水平方向への動きは、撮像されている操作子に対する操作の動きに対応付けられていない。
このため、人差し指の像301Aが仕様設定/登録用のボタン272と重なるまでの動きは、操作子に対する操作としては受け付けられていない。
なお、本実施の形態では、操作の対象がボタン類であるので人差し指の像301Aの動きを検知しているが、検知の対象とする体の一部分は操作の対象に応じて定めてもよい。例えば手、腕、足などの人体の一部を検知の対象としてもよい。検知の対象を特定することで誤操作の回避が可能になる。
【0043】
図9は、画像形成装置100に非接触のまま人差し指301を空中で前方に押すような動作を撮像する様子を説明する図である。
図9には、
図8との対応する部分に対応する符号を付して示している。
ここでの押すような動作とは、人差し指301をスマートフォン200Bから遠ざける方向への動きである。換言すると、画像形成装置100に向かう動きである。
具体的には、実空間において、ユーザインタフェース部110に表示された操作子を押す場合と同じ動きになる。ユーザの視線の方向とカメラ225(
図3参照)の撮像の方向とが一致するためである。
【0044】
図9に示す液晶ディスプレイ223では、人差し指の像301Aが仕様設定/登録用のボタン272と重なっているので、スマートフォン200Bは、仕様設定/登録用のボタン272を押す操作として検知する。
本実施の形態の場合、スマートフォン200Bには、操作子と動きとの関係がメモリ221(
図3参照)に記憶されている。もっとも、メモリ221に記憶される関係は、画像形成装置100に設けられる操作子のうちの一部についてでもよい。
また、画像形成装置100に設けられる操作子のイメージと操作として認識する動きの関係は、画像形成装置100に記憶されており、操作の対象とする操作子を特定する処理も画像形成装置100が実行してもよい。
【0045】
図9では、画像形成装置100と通信が可能であるので、スマートフォン200Bは、仕様設定/登録用のボタン272の操作を指示する信号を画像形成装置100に送信する。
本実施の形態におけるスマートフォン200Bには、操作の受け付けをユーザに報知する機能が用意されている。
このため、
図9では、仕様設定/登録用のボタン272の表示の形態を変化させて、操作の受け付けをユーザに報知している。
表示の形態を変化させる方法には、例えば操作の対象となったボタンが表示されている領域の輝度を上げる、点滅させる、他の色に変化させる等の手法が用いられる。
【0046】
また、
図9では、人差し指301の表面に集中する超音波によって人差し指301に振動が加えられている。超音波は、空中触覚モジュール229(
図3参照)から出力される。この振動は、ユーザBに、ボタンの操作が受け付けられた触覚を与える。触覚が与えられることで、ユーザは、自身の動きが操作として受け付けられたことを知る。結果的に、ユーザによる操作感が向上する。
なお、空中触覚モジュール229は、画像形成装置100に設けられていてもよい。この場合、空中触覚モジュール229は、画像形成装置100に向けられている人差し指301の腹に触覚を与えることができる。
空中触覚モジュール229は、独立した装置として、空間内に配置されていてもよい。
【0047】
<操作例2>
図10は、操作の受け付けをユーザに報知する他の方法を説明する図である。
図10には、
図9との対応部分に対応する符号を付して示している。
図10の場合、仕様設定/登録用のボタン272の表示には変化がないが、不図示のスピーカから「カチッ」という音が出力されている。
この音の発生により、ユーザは、自身の動きが操作として受け付けられたことの確認が可能である。
図10の場合、人差し指301に触覚が与えられているので、操作の受け付けを複合的に確認できる。
なお、音による報知の手法は、「操作を受け付けました」等の言葉として発せられてもよい。
【0048】
<操作例3>
図11は、操作の受け付けをユーザに報知する他の方法を説明する図である。
図11には、
図9との対応部分に対応する符号を付して示している。
図11の場合、仕様設定/登録用のボタン272の表示には変化がないが、操作の受け付けを示す小さい画面280が追加的に表示されている。
図11の場合も、人差し指301に触覚が与えられているので、操作の受け付けを複合的に確認できる。
図11に示す画面280には「操作を受け付けました」との文字列が記述されている。勿論、この文字列は一例である。
【0049】
<操作例4>
図12は、操作の受け付けをユーザに報知する他の方法を説明する図である。
図12には、
図9との対応部分に対応する符号を付して示している。
図12の場合、仕様設定/登録用のボタン272の表示には変化がないが、人差し指の像301Aの表示の態様を、操作として受け付ける前の態様から変化させている。
ここで、表示の形態を変化させる方法には、例えば人差し指の像301Aが表示されている領域の輝度を上げる、点滅させる、他の色に変化させる等の手法が用いられる。
図12の場合も、人差し指301に触覚が与えられているので、操作の受け付けを複合的に確認できる。
【0050】
<操作例5>
図13は、人差し指の像301A(
図9参照)を液晶ディスプレイ223に表示させない手法を説明する図である。
図13には、
図9との対応部分に対応する符号を付して示している。
例えばカメラ225(
図3参照)の撮像の範囲に侵入した人体の一部を常に表示する手法では、人体の一部によって操作子の大部分が隠れてしまう可能性もある。例えば操作子に記載されている文字が手や腕の像に隠れてしまう可能性がある。
【0051】
このような場合、ユーザは操作の対象とする操作子を画面上で確認することができず、又は、一部しか確認できないため、操作に支障が生じることがある。
操作子に記載されている文字を確認できないと、どの操作子を操作しているのかわからないだけでなく、誤操作の原因にもなる。
そこで、
図13では、人差し指301Aが重なっている位置の操作子(ここでは、仕様設定/登録用のボタン272)の表示の形態を変化させ、ユーザの確認を支援している。
この表示により、自身の体の一部によって視認を妨げられずに、特定の操作子を操作することが可能になる。
図13の場合も、人差し指301に触覚が与えられているので、操作の受け付けを複合的に確認できる。
また、操作子の表示の態様を変化させる機能がある場合には、操作の対象と間違えずに済む。さらに、操作の受け付けが報知される場合には、ユーザの操作性を高めることができる。
【0052】
<操作例6>
図14は、人差し指の像301Aを液晶ディスプレイ223に表示させる場合の他の手法を説明する図である。
図14には、
図11との対応部分に対応する符号を付して示している。
操作例5では、人差し指の像301Aを全く表示していないが、画面上での位置を確認したいという要望も考えられる。
操作例6は、このような要望を考慮した表示の手法であり、人差し指の像301Aが位置する領域の輪郭線を示している。輪郭線が示されることでユーザは、人差し指301の位置と操作子との位置の関係を容易に確認することが可能になる。ここでの輪郭線は、ユーザの体の部位を示唆する表記の一例である。
【0053】
なお、
図14では、人差し指の像301Aの輪郭線を破線で示しているが、画像処理によって透過像に変換した画像を実像に代えて表示してもよい。ここでの透過像も、ユーザの体の部位を示唆する表記の一例である。
また、人差し指の部分だけを輪郭線や透過像で選択的に表現し、人差し指以外は実像で表示してもよいし、反対に人差し指の部分だけを選択的に実像で表示してもよい。人体の一部の像で隠れる面積が減るので、操作の対象である物体の像の確認が容易になる。
図14の場合も、人差し指301に触覚が与えられているので、操作の受け付けを複合的に確認できる。
【0054】
<操作例7>
前述の操作例1~6は、操作者であるユーザBが単独で操作可能なボタンを操作する場合を説明したが、以下では、連携が必要とされる操作について説明する。
図15は、ユーザBとユーザCの連携による操作の例を説明する図である。この操作例では、ユーザCによる印刷色味を変更する操作とユーザBによる認証の操作の連携について説明する。
図16は、ユーザBと連携するユーザCによる操作の様子を説明する図である。
ユーザCが操作するスマートフォン200Cの液晶ディスプレイ223には、前述の操作例と同様に、画像形成装置100とスマートフォン200Cとの間の空中で移動される人差し指の像301Aが表示されている。
【0055】
図16では、仕様設定/登録用のボタン272の上に人差し指の像301Aが位置しているが、テーブル254A1(
図5参照)によれば、ユーザCが印刷色味を変更するにはユーザBの認証が必要とされる。
このため、仕様設定/登録用のボタン272の表示には変化がないが、操作の受け付けには権限者による認証が必要とされることを示す小さい画面290が追加的に表示されている。
図16に示す画面290には「権限者による認証が必要です」との文字列が記述されている。勿論、この文字列は一例である。なお、権限者の具体名が示されてもよい。
【0056】
図17は、ユーザCと連携するユーザBによる操作の様子を説明する図である。
ユーザBが操作するスマートフォン200Bの液晶ディスプレイ223には、認証用のボタン311と、ジョブ確認用のボタン312が表示されている。また、スマートフォン200Bの液晶ディスプレイ223には、前述の操作例と同様に、画像形成装置100とスマートフォン
200Bとの間の空中で移動される人差し指の像301Aが表示されている。
図17の場合、人差し指の像301Aは、認証用のボタン311と重なっている。ユーザBは、認証用のボタン311を単独で操作する権限を有しているので、認証用のボタン311に対する操作は有効な操作として受け付けられる。
【0057】
図18は、ユーザBによる認証が完了した後におけるユーザCが操作するスマートフォン200Cの画面に現れる変化を説明する図である。
図18に示す画面からは画面290(
図16参照)が消えており、ユーザCによる操作が有効に受け付けられたことが仕様設定/登録用のボタン272の表示形態の変化と人差し指301に対する触覚の付与によって報知されている。
この後、ユーザCは、新たに表示される操作用の画面を通じて印刷色味を変更する作業を実行する。
【0058】
<実施の形態2>
前述の実施の形態においては、操作の対象が画像形成装置100(
図1参照)であったが、本実施の形態では、蝶番が取り付けられた部分を軸として開閉する扉を操作の対象とする場合について説明する。
図19は、実施の形態2に係るシステムの一例を説明する図である。
図19には、
図1との対応部分に対応する符号を付して示している。
図19に示すシステムは、扉400と、扉400を撮像する2台のスマートフォン200A、200Bとで構成されている。
扉400は、操作の対象として現実の空間に存在する物体の一例である。
本実施の形態における扉400には、不図示の電子錠と、ノブ401と、スマートフォン200(
図19ではスマートフォン200A、200B)と通信して扉400を開閉駆動する駆動機構402とが設けられている。
【0059】
図19では、被写体が扉400であるため、スマートフォン200には、扉の像400Aが表示されている。
本実施の形態の場合、スマートフォン200の操作受付部254(
図4参照)は、扉400の操作用に記憶されているテーブル254A2(
図20参照)を参照して、ユーザの身振りによる操作を受け付ける。
図20は、扉400(
図19参照)の操作用のテーブル254A2の一例を示す図である。
テーブル254A2には、扉400に対して想定される操作の内容と個々のユーザとの関係が記録されている。
テーブル254A2の内容についても、権限を有するユーザや管理者が登録又は修正することができる。
【0060】
本実施の形態の場合、テーブル254A2には、例えばユーザ毎に、特定の操作の実行者として許容されているか否か、他のユーザとの連携が必要か否か、連携が必要である場合に求められる操作の内容等が記録される。
例えば
図20の場合、ユーザAは、扉400を開く操作(開操作)と閉じる操作(閉操作)が可能であるが、施錠と解錠の権限を有していない。
なお、開操作と閉操作におけるユーザAの身振りは等倍の感度で検知される。
等倍の感度とは、重み付けが1.0であることを意味する。
力の強さは不明であるので、感度は、身振りによる操作の方向、操作の速さ、操作で用いられた体の部位(例えば右手)が動いた距離等で与えられる。
ユーザAによる開操作と閉操作は、単独でも、他のユーザとの連携でも可能である。
【0061】
例えばユーザBは、扉400を開く操作(開操作)が可能であり、その感度は1.5倍される。感度が1.5倍とは、1.5倍に重み付けされることを意味する。
また、ユーザBは、扉400を閉じる操作(閉操作)が可能であり、その感度は2倍される。なお、ユーザは、施錠と解錠の権限を有している。
例えばユーザCは、扉400を開く操作(開操作)が可能であり、その感度は2分の1に低減される。
一方、ユーザCは、扉400を閉じる操作(閉操作)が許可されていない。また、ユーザCは、ユーザBと同時であれば施錠と解錠を実行できる。つまり、ユーザCは、単独では施錠と解錠を実行できない。
図20の例では、3名のユーザを例示しているが、ユーザ数は3名に限らない。また、操作の内容も
図20に示す4種類に限らない。
【0062】
<操作例1>
図21は、操作者であるユーザA又はユーザBが自身の右手310をノブの像401Aに重なるように撮像する様子を説明する図である。
図21では、ユーザを区別せず、スマートフォン200として表している。
撮像者がユーザAの場合もユーザBの場合も、
図19に示すように、左手でスマートフォン200を保持して扉400を撮像している。このため、液晶ディスプレイ223には、扉の像400Aとノブの像401Aが表示されている。
【0063】
本実施の形態の場合、右手310は、扉400のノブ401とスマートフォン200との間に位置している。右手310は、ノブ401と非接触である。
このため、液晶ディスプレイ223には、扉の像400Aと重なるように右手の像310Aが表示されている。
図21の場合、右手の像310Aは実像である。
図21の場合、右手310は、扉400とスマートフォン200の間の空中でノブ401を握って回すような動きを伴う。
図21に示す扉400は、押すことで奥方向に開き、手前に引くと閉まる。
【0064】
図21に示す扉400にはノブ401が取り付けられているが、レバー式の取手(レバーハンドル)が取り付けられていてもよい。
図21の場合には、扉の面が弧を描いて開閉する開き戸を想定しているが、扉400は、溝やレールに案内されて直線的に開閉する引き戸、開き戸と引き戸を組み合わせたグライドスライドドア、折れ戸、回転扉などでもよい。
また、扉400は、片開きに限らず両開きでもよい。
【0065】
<操作例2>
図22は、操作者がユーザA単独である場合の操作の一例を説明する図である。(A)は身振りによる操作の前を示し、(B)は身振りによる操作の後を示す。
図22の場合、ユーザAは、扉400を押し開く身振りをスマートフォン200Aで撮像している。
図20の場合、ユーザAによる扉400を開く操作(開操作)は許可されている。このため、スマートフォン200Aから駆動機構402(
図21参照)に対し、ユーザAから見て扉400を奥方向に開く指示が送信される。
図22では、実際に扉400が開いている。
【0066】
<操作例3>
図23は、操作者がユーザAとユーザCの2名である場合の操作の一例を説明する図である。(A)は身振りによる操作の前を示し、(B)は身振りによる操作の後を示す。
図23の場合、ユーザAもユーザCも扉400を開く操作(開操作)を行っている。なお、ユーザAもユーザCも、扉400を開く操作(開操作)は許可されている。ただし、ユーザCの操作は感度が2分の1に修正される。
この場合、操作受付部254(
図4参照)は、ノブ401に対する他のユーザの操作を検知し(
図6のステップ109参照)、2つの操作を合成した指示を駆動機構402(
図21参照)に指示する。
図23の例では、2人の操作の向きが同じであるので、扉400を開く速度を速める方向で作用する。
なお、他方のユーザの操作の速度や作用する力の大きさに応じた触覚を生成して与えてもよい。他方のユーザの操作の状況を体感できることでユーザによる操作感が向上する。
【0067】
<操作例4>
図24は、操作者がユーザAとユーザBの2名である場合の操作の一例を説明する図である。(A)は身振りによる操作の前を示し、(B)は身振りによる操作の後を示す。
図24の場合、ユーザAは扉400を開く操作(開操作)を行っているのに対し、ユーザBは扉400を閉じる操作(閉操作)を行っている。
なお、ユーザAによる扉400を開く操作(開操作)は許可されており、ユーザBによる扉400を閉じる操作(閉操作)も許可されている。ただし、ユーザBの操作は感度が2倍に修正される。
この場合も、操作受付部254(
図4参照)は、ノブ401に対する他のユーザの操作を検知し(
図6のステップ109参照)、2つの操作を合成した指示を駆動機構402(
図21参照)に指示する。
図24の例では、2人の操作の向きは反対であって、重み付け後の操作が釣り合っている。このため、扉400は静止した状態を維持している。
この場合も、他方のユーザの操作の速度や作用する力の大きさに応じた触覚を生成して与えてもよい。他方のユーザの操作の状況を体感できることでユーザによる操作感が向上する。
【0068】
<操作例5>
図25は、操作者がユーザAとユーザBの2名である場合の操作の一例を説明する図である。(A)は身振りによる操作の前を示し、(B)は身振りによる操作の後を示す。
図25の場合も、ユーザAは扉400を開く操作(開操作)を行っているのに対し、ユーザBは扉400を閉じる操作(閉操作)を行っている。
ただし、
図25の場合、重み付け後のユーザAの操作が重み付け後のユーザBの操作よりも大きくなっている。すなわち、開く操作(開操作)の方が優先される。
このため、扉400は開くように駆動される。ただし、扉400が開く速度は、ユーザAが単独で操作する場合よりも遅くなる。
【0069】
<実施の形態3>
本実施の形態では、操作子を2つ有する金庫を操作の対象とする場合について説明する。
図26は、実施の形態3に係るシステムの一例を説明する図である。
図26には、
図1との対応部分に対応する符号を付して示している。
図26に示すシステムは、金庫500と、金庫500を撮像する2台のスマートフォン200A、200Bとで構成されている。
金庫500は、操作の対象として現実の空間に存在する物体の一例である。
図26に示す金庫500の扉501には、登録されている数字を合わせないと解錠しない2つのダイヤル錠502、503が設けられている。
【0070】
図27は、金庫500のハードウェア構成の一例を説明する図である。
金庫500は、MPU511と、ファームウェア等のデータが記憶されるROM512と、プログラムの作業領域として使用されるRAM513と、スマートフォン200(
図26参照)等の外部機器との通信に用いられる通信部514と、電気的な解錠又は施錠が可能な施錠機構515とを有している。なお、
図27の場合、各部はバス516で接続されている。勿論、各部の間で通信が可能であればバス516に限らない。
【0071】
図28は、金庫500(
図26参照)の操作用のテーブル254A3の一例を示す図である。
テーブル254A3の内容は、権限を有するユーザや管理者が登録又は修正することができる。
本実施の形態の場合、テーブル254A3には、例えばユーザ毎に、特定の操作の実行者として許容されているか否か、他のユーザの連携があれば操作の実行者として許容されるか否か等が記録される。
【0072】
例えば
図28の場合、ユーザAには、ユーザBとの連携を前提とする解錠操作1と、ユーザDとの連携を前提とする解錠操作3とが割り当てられている。
ユーザBとの連携で実行される解錠操作1におけるユーザAの役割は、左側のダイヤル錠502を操作することである。このため、解錠操作1において、ユーザAが右側のダイヤル錠503を操作しても、その操作は無効である。
ユーザDとの連携で実行される解錠操作3におけるユーザAの役割は、右側のダイヤル錠503を操作することである。このため、解錠操作3において、ユーザAが左側のダイヤル錠502を操作しても、その操作は無効である。
また、ユーザAが他のユーザ(例えばユーザC)と連携して、左側のダイヤル錠502及び右側のダイヤル錠503のいずれを操作しても、それらの操作は無効である。
【0073】
例えばユーザBには、ユーザCとの連携を前提とする解錠操作2だけが割り当てられている。
ユーザCとの連携で実行される解錠操作2におけるユーザBの役割は、左側のダイヤル錠502を操作することである。このため、解錠操作2において、ユーザBが右側のダイヤル錠503を操作しても、その操作は無効である。
また、ユーザBが他のユーザ(例えばユーザA又はユーザD)と連携して、ダイヤル錠502及び503のいずれを操作しても、それらの操作は無効である。
【0074】
例えばユーザCには、ユーザBとの連携を前提とする解錠操作2だけが割り当てられている。
ユーザBとの連携で実行される解錠操作2におけるユーザCの役割は、右側のダイヤル錠503を操作することである。勿論、ユーザBと連携して操作する場合にユーザCが左側のダイヤル錠502を操作しても無効である。また、ユーザCが他のユーザと連携して左側のダイヤル錠502及び右側のダイヤル錠503のいずれを操作しても、それらの操作は無効である。
【0075】
例えばユーザDには、ユーザAとの連携を前提とする解錠操作3だけが割り当てられている。
ユーザAとの連携で実行される解錠操作3におけるユーザDの役割は、左側のダイヤル錠502を操作することである。勿論、ユーザAと連携して操作する場合にユーザDが右側のダイヤル錠503を操作しても無効である。また、ユーザDが他のユーザと連携して左側のダイヤル錠502及び右側のダイヤル錠503のいずれを操作しても、それらの操作は無効である。
【0076】
なお、
図28においては、単独で左右両方のダイヤル錠502及び503を操作可能なユーザが存在しないが、単独で操作可能なユーザがいてもよい。
また、
図28においては、左側のダイヤル錠502及び右側のダイヤル錠503を操作するタイミングについての条件を記載していないが、同時(予め定めた時間長のズレは許容される)に操作すること、左側のダイヤル錠502及び右側のダイヤル錠503のいずれが先に操作されるべきか等の追加の条件を設けてもよい。操作の順番は、ユーザの組み合わせの違いで異なってもよい。
なお、解錠に使用される操作子は、例えば英数字の順番に入力する方式の操作子とダイヤル錠の組み合わせ、鍵とダイヤル錠の組み合わせ、生体認証デバイス(例えば指紋認証のデバイス、静脈認証のデバイス、虹彩認証のデバイス)、スワイプやパターンによる方式でもよい。
英数字の順番に入力する方式の操作子は、文字を1文字ずつ入力する方式でも、英数字が印字されたボタン類を操作する方式でもよい。
【0077】
<操作例1>
図29は、ユーザBが自身の右手310を右側のダイヤル錠の像503Aに重ねて撮像する例を説明する図である。
ユーザBは、不図示の左手でスマートフォン200Bを保持した状態で右手310を空中に伸ばし、右側のダイヤル錠503に非接触のまま数字を合わせる身振りを行っている。
図29に示すユーザBの操作の様子は、ユーザAと連携する解錠操作1(
図28参照)の場合に相当する。この操作は有効であるので、ユーザBは右手310に触覚を感じている。
図29の場合、液晶ディスプレイ223には、実像である右手の像310Aが、左側のダイヤル錠の像502Aと、右側のダイヤル錠の像503Aと、扉の像501Aとともに表示されている。
ユーザBは、表示されている右側のダイヤル錠の像503Aを見ながら数字を合わせる動作を行う。
図29の場合、表示されるのはユーザBの右手の像310Aだけである。
この際、ユーザAにはユーザBが操作した時点で触覚を与え、ユーザBにはユーザAが操作した時点で触覚を与えてもよい。自身の動きに起因しない振動が付与されることで、他方のユーザによる操作の実行を知ることが可能になる。特に、ユーザのAの操作とユーザBの操作のタイミングを合わせる必要がある場合には、この種の振動を通じてタイミングを合わせ易くなる。
【0078】
<操作例2>
前述の操作例1の場合、他のユーザの操作の様子を画面上で確認することができない。このため、他のユーザの操作のタイミングと自身の操作のタイミングを合わせる必要がある場合や予め定められた実行の順序を満たす必要がある場合等においては、例えば視線を画面から離して他のユーザの操作を確認する必要がある。
【0079】
図30は、ユーザBが自身の右手310を右側のダイヤル錠の像503Aに重ねて撮像する他の例を説明する図である。
図30には、
図29との対応する部分に対応する符号を付して示している。
図30の場合、液晶ディスプレイ223には、連携するユーザAが操作中であることを、ユーザAに対応付けられた仮想の手510の表示と、左側のダイヤル錠の像502Aに対する操作の方向を示す矢印511とで表している。
なお、
図30では、ユーザAが操作中であることを仮想の手510の表示によって示しているが、文字によって示してもよいし、操作の対象である左側のダイヤル錠の像502Aの表示の形態を変化させてもよい。例えば文字で「操作中」と表示してもよいし、左側のダイヤル錠の像502Aの色を変化させてもよいし、左側のダイヤル錠の像502Aを点滅させてもよい。
【0080】
<操作例3>
図31は、ユーザBが自身の右手310を右側のダイヤル錠の像503Aに重ねて撮像する他の例を説明する図である。
図31には、
図29との対応する部分に対応する符号を付して示している。
図31の場合、液晶ディスプレイ223には、ユーザBが操作するスマートフォン200Bによって撮像されている画像の一部に、連携するユーザAが操作するスマートフォン200Aによって撮像されている画像を示す小画面550が表示されている。
本実施の形態の場合、小画面550に表示される画像は、連携するスマートフォン200Aから受信している。
図31では、ユーザAが操作に用いている画面であることを示すタイトルが小画面550に表示されている。小画面550は、他のユーザの動きを表示する画像の一例である。
【0081】
図31の場合、液晶ディスプレイ223には、金庫の像500A、扉の像501A、左側のダイヤル錠の像502A、右側のダイヤル錠の像503A、右手の像310Aが表示されている。
小画面550の内側も同様である。
また、
図31の場合には、左側のダイヤル錠502及び右側のダイヤル錠503に対する操作の向きが矢印で表示されている。
勿論、連携するユーザAが保持するスマートフォン200Aの液晶ディスプレイ223にも、同様の画像が表示される。
このため、ユーザAとユーザBは、互いに他方の操作を画面上で確認しながら自身の操作のタイミングを合わせることができる。
【0082】
<実施の形態4>
前述の実施の形態の場合には、現実の空間に存在する物体をスマートフォン200で直接的に撮像しているが、撮像の対象は、撮像する空間内に実在していなくてもよい。
図32は、表示装置600の表示面601に表示されている画像を撮像の対象とする場合を説明する図である。
表示装置600は、例えばテレビジョン受像機やモニタであり、その表示面601には、画像形成装置100(
図1参照)のユーザインタフェース部の像110Aが表示されている。
ここでのユーザインタフェースの像110Aは、実在する画像形成装置100を撮像した画像データを再生した像である。
【0083】
一方、スマートフォン200の液晶ディスプレイ223には、ユーザインタフェース部110の一部分を撮像した像270(ファックス送信用のボタン271と仕様設定/登録用のボタン272)が表示されている。
図32の場合、仕様設定/登録用のボタン272に重ねるように人差し指の像301Aが表示されている。
本実施の形態は、スマートフォン200による撮像の対象が、操作の対象である画像形成装置100(
図1参照)と異なる以外は、
図8を用いて説明した操作例1と同様である。
【0084】
この場合も、スマートフォン200が通信可能な機器の一覧の中から操作の対象とする画像形成装置100を事前に特定しておけば、操作例1と同様に画像形成装置100の操作が可能である。
なお、表示面601に表示されているユーザインタフェース部の像110Aと操作の対象とする画像形成装置100との関係が不明でも、画像を認識する技術を通じて対応する画像形成装置100を特定できる場合には、特定された画像形成装置100に対して遠隔地から身振りによる操作を実現できる。
【0085】
<実施の形態5>
前述の実施の形態の場合には、スマートフォン200に設けられたカメラ225(
図3参照)を用いて操作の対象である物体(又はその像)とユーザの体の一部とを同時に撮像しているが、他のカメラで撮像されている画像を用いてもよい。
図33は、スマートフォン以外のカメラで撮像されている物体を身振りで操作する例を説明する図である。
図33には、
図9との対応部分に対応する符号を付して示している。
【0086】
図33では、画像形成装置100を撮像するカメラとして、ウェブカメラ700を用いる例を示している。
なお、ウェブカメラ700に代えて、他のユーザが使用するスマートフォンその他の撮像装置を用いてもよい。
本実施の形態の場合、操作の指示に使用される人差し指301は、操作者であるユーザが保持するスマートフォン200のカメラ225(
図3参照)によって撮像され、画像形成装置の像100A(具体的には、ユーザインタフェース部110に表示されている仕様設定/登録用のボタン272)に重ねて表示されている。
この実施の形態の場合、スマートフォン200によって撮像された画像の中からユーザの人差し指の像301Aが抜き出されて表示される、又は、撮像されている画像とは無関係に用意された仮想の指先のアイコンなどが表示される。
本実施の形態の場合、ユーザの身振りに伴う操作を受け付けたスマートフォン200は、不図示のネットワークを通じて画像形成装置100に指示を送信する。
【0087】
<実施の形態6>
前述の実施の形態では、操作者であるユーザの身振りを撮像して画像形成装置100に対する操作を受け付ける情報処理装置の一例としてスマートフォン200(
図1参照)を例示しているが、ウェアラブル型の情報処理装置を使用してもよい。
図34は、ウェアラブル型の情報処理装置を用いるシステムの一例を説明する図である。
図34には、
図1との対応部分に対応する符号を付して示している。
【0088】
図34の場合、ユーザは、メガネ型の端末800を装着している。メガネ型の端末800のハードウェア構成(
図3参照)や機能構成(
図4参照)は、スマートフォン200と同様である。ただし、メガネ型の端末800には、タッチパッド226(
図3参照)は取り付けられていない。
メガネ型の端末800の場合、ユーザは両手を自由に使うことができる。従って、メガネ型の端末800は、両手を使った操作の入力に用いることができる。例えば人型のロボットに対する操作の指示に用いることができる。このため、スマートフォン200を用いる場合よりも、入力可能な操作の範囲を広げることが可能になる。
なお、
図34のユーザには、ユーザインタフェース部の像110Aが見えている。
【0089】
<実施の形態7>
前述の実施の形態では、スマートフォン200に表示されている操作の対象である物体に通信機能が設けられている場合を前提にしているが、ここでは操作の対象に通信の機能が設けられていない場合について説明する。
図35は、植木900の移動を身振りで指示する場合を説明する図である。
スマートフォン200A及び200Bの画面には、植木の像900A及び900Bが表示されている。この場合も、実空間にある右手は、植木900に触れることなく動かされる。
【0090】
植木900には、通信機能も自走装置も取り付けられていない。このため、前述した実施の形態のように、スマートフォン200で右手の動きを撮像しても、その動きによって植木900を移動させることはできない。
本実施の形態では、身振りによる操作の送信先として自走機能を有するヒト型のロボット1000を指定する。
なお、指示の送信先としてのロボット1000は、例えばスマートフォン200との通信が可能な機器の一覧の中から指定すればよい。
【0091】
図35に示すロボット1000は、その外観にヒト型を採用しているが、必要な機能が搭載されていれば外観は任意である。例えば犬やネコなどの動物、花や木などの植物、車(電車を含む)や飛行機等の乗り物を模したものでもよい。
図35に示すロボット1000は、胴部1011、頭部1012、腕1013、1015、手1014、1016、足1017、1018を有している。
胴部1011には、信号処理のための電子部品が格納されている。胴部1011には、表示デバイスや音響機器が搭載されてもよい。
【0092】
頭部1012は、首の部分に設けられたジョイント機構を介して胴部1011に連結されている。本実施の形態の場合、ジョイント機構は、3軸まわりに回転可能である。3軸まわりの回転とは、ヨー(z軸まわりの回転)、ロール(x軸まわりの回転)、ピッチ(y軸まわりの回転)の3つである。ここでのジョイント機構は可動部の一例である。
3軸の全てに対して回転可能である必要はなく、1軸のみ又は2軸について回転可能でもよい。これらの回転は、不図示のモーターによって実現してもよいが、手動で行ってもよい。もっとも、頭部1012が胴部1011に対して固定される場合を妨げない。
頭部1012には目1012A、1012Bが設けられている。目1012A及び1012Bは、装飾的に配置されていてもよいし、撮像装置、投影機、照明等を内蔵してもよい。頭部1012には可動式の耳が配置されていてもよい。
【0093】
本実施の形態における腕1013及び1015は、胴部1011とジョイント機構を介して連結されている。腕1013及び1015の上腕と前腕は、ジョイント機構を介して連結されている。ここでのジョイント機構は、頭部1012と同様に多軸でも単軸でもよい。また、軸周りの回転は不図示のモーターにより実現してもよいし、手動で実現してもよい。もっとも、腕1013及び1015は、胴部1011に固定されていてもよい。ここでのジョイント機構も可動部の一例である。
なお、腕1013及び1015を予め定めた角度に折り曲げれば、物の運搬に用いることができる。
【0094】
手1014及び1016は、手首の部分に設けられたジョイント機構を介して腕1013及び1015に連結されている。手1014及び1016の手の平と指は、いずれもジョイント機構を介して連結されている。ここでのジョイント機構は、頭部1012と同様に多軸でも単軸でもよい。また、軸周りの回転は不図示のモーターにより実現してもよいし、手動で実現してもよい。本実施の形態の場合、手1014及び1016は、指の開閉により物を掴むことができる。ここでのジョイント機構も可動部の一例である。
手1014及び1016は、腕1013及び1015に対して固定でもよい。
【0095】
足1017及び1018は、ジョイント機構を介して胴部1011に連結されてもよいし、車輪やキャタピラー等の自走装置として胴部1011に取り付けられてもよい。
足1017及び1018がジョイント機構を介して胴部1011に連結される場合、ジョイント機構は、頭部1012と同じく多軸でも単軸でもよい。
また、軸周りの回転は不図示のモーターにより実現してもよいし、手動で実現してもよい。なお、足1017及び1018は、胴部1011に対して固定でもよい。ここでのジョイント機構も可動部の一例である。
【0096】
図36は、ロボット1000のハードウェア構成を説明する図である。
ロボット1000は、装置全体の動きを制御する制御部1021と、ロボット周辺の画像を撮像するカメラ1022と、会話用の音声、楽曲、効果音を再生するスピーカ1023と、音の入力又は取得に用いられるマイク1024と、ジョイント機構などの可動機構1025と、外部装置(例えばスマートフォン)との通信に用いられる通信部1026と、画像を表示する表示部1027と、装置全体を移動させる移動機構1028と、各部に電力を供給する電源1029と、各部の状態や周辺情報の収集に使用されるセンサ1030と、位置情報の取得に用いられる位置検知部1031とを有している。これらの各部は、例えばバス1032により互いに接続されている。
【0097】
言うまでもなく、
図36に示すハードウェア構成は一例である。従って、ロボット1000は、前述した全ての機能部を搭載する必要はない。
また、ロボット1000は、不図示の機能部を更に搭載してもよい。例えばロボット1000は、電源ボタン、記憶装置(ハードディスク装置、半導体メモリ等)、熱源(冷却源を含む。)等を搭載してもよい。
【0098】
制御部1021は、いわゆるコンピュータであり、CPU、ROM、RAMを有している。ROMには、CPUにより実行されるプログラムが記憶されている。CPUは、ROMに記憶されているプログラムを読み出し、RAMを作業エリアに使用してプログラムを実行する。プログラムの実行を通じ、CPUはロボット1000を構成する各部の動作を制御する。
ここでのプログラムには、人工知能に対応するアルゴリズムの実現に関連するプログラムが含まれる。制御部1021を構成するCPUやRAMは、人工知能が使用する計算資源を提供する。
【0099】
本実施の形態における制御部1021は、例えばカメラ1022、マイク1024、センサ1030を通じて取得される情報を人工知能で処理し、ロボット1000の周辺環境や状態に応じた動作を自律的に決定する。
例えばスピーカ1023を通じて音声を出力したり、通信部1026を通じてメッセージを送信したり、表示部1027を通じて画像を出力してもよい。
これら情報の入出力や可動機構1025の動きを通じ、制御部1021は、ユーザとの間でコミュニケーションを成立させることができる。コミュニケーションの応用例には、例えば接客や会議の進行なども含まれる。
制御部1021は、不明な事態が発生した場合に、インターネット検索や外部のコンピュータとの通信を通じて追加の情報を収集し、検索事象との類似度によって解決策を発見する機能も搭載する。
【0100】
本実施の形態の場合、制御部1021が取得する情報には、例えば視覚、聴覚、触覚、味覚、嗅覚、平衡感覚、温度が含まれる。
視覚は、カメラ1022で撮像された画像の認識処理を通じて実現される。
聴覚は、マイク1024で取得された音の認識処理を通じて実現される。
触覚には、例えば表在感覚(触覚、痛覚、温度覚)、深部感覚(圧覚、位置覚、振動覚など)、皮質性感覚(二点識別覚、立体識別能力など)が含まれる。
制御部1021は、触覚の違いを分別できる。
触覚、味覚、嗅覚、平衡感覚、温度は、各種のセンサ1030による情報の検知を通じて実現される。なお、温度には、周辺温度、内部温度、ヒトや動物の体温なども含まれる。
更に、制御部1021が取得する情報には、ヒトや動物の脳波も含み得る。この場合、脳波は、ヒト等に装着された脳波検知デバイスから発信される情報を通信部1026で受信すればよい。
【0101】
本実施の形態の場合、カメラ1022は、目1012A及び1012B(
図35参照)の位置に配置される。
表示部1027として投影機が用いられる場合、投影機は、例えば目1012A及び1012B(
図1参照)のいずれか一方又は両方に配置することができる。なお、投影機は胴部1011や頭部1012に配置してもよい。
【0102】
可動機構1025は、物の搬送の他、感情を表現する目的でも使用される。
物の搬送に使用される場合、可動機構1025は、腕1013、1015や手1014、1016(
図35参照)の変形を通じて、例えば物を掴む、抱える、支える等の動作を実現する。
感情の表現に使用される場合、可動機構1025は、例えば頭部1012、腕1013、1015、手1014、1016等(
図35参照)の駆動を通じて、頭を傾げる、見上げる、周囲を見回す(キョロキョロする)、万歳する、指さし等の動作を実行する。
【0103】
本実施の形態における通信部1026は、無線方式によって外部と通信する。
ロボット1000には、通信先として想定する外部装置で用いられる通信方式の数だけ通信部1026が搭載される。通信方式には、例えば赤外線通信、可視光通信、近接無線通信、WiFi(登録商標)、ブルートゥース(登録商標)、RFID(登録商標)、ZigBee(登録商標)、IEEE802.11a(登録商標)、MulteFire、LPWA(Low Power Wide Area)等がある。
無線通信に使用する帯域には、短波長帯(例えば800MHz~920MHz)、長波長帯(例えば2.4GHz、5GHz)等がある。
なお、通信部1026と外部装置との接続には通信ケーブルを使用してもよい。
【0104】
表示部1027は、ユーザとの間で視覚的なコミュニケーションを実現するために使用してもよい。例えば表示部1027には、文字や図形を表示してもよい。
表示部1027が頭部1012に配置される場合、表示部1027に表情を表示してもよい。
【0105】
本実施の形態の場合、移動機構1028には車輪やキャタピラーを用いるが、プロペラや圧縮空気の吹き出し機構を用い、空気の力でロボット1000を移動させてもよい。
本実施の形態における電源1029には二次電池を使用するが、電力を発生できれば一次電池、燃料電池、太陽電池のいずれを用いてもよい。
また、電源1029の代わりに、電源ケーブルを通じて外部から電力の供給を受ける構成を採用してもよい。
【0106】
本実施の形態の場合、ロボット1000には、位置検知部1031が搭載されている。
位置検知部1031には、例えばGPS(Global Positioning System)信号から地点情報を読み取る方式、GPSと同等の信号を用いて屋内の位置を測位するIMES(Indoor Messaging System)方式、WiFiの複数のアクセスポイントから送信された電波の強度や到達時間等から位置を測位するWiFi測位方式、基地局から定期的に発生される信号に対する応答の方角と遅延時間から位置を測位する基地局測位方式、不可聴域の超音波を受信して位置を測位する音波測位方式、ブルートゥースを使ったビーコンからの電波を受信して位置を測位するブルートゥース測位方式、LED(Light Emitting Diode)等の照明光の点滅によって伝達される位置情報を用いて位置を測位する可視光測位方式、加速度センサやジャイロセンサ等を用いて現在位置を測位する自律航法方式等を利用する。
【0107】
図37は、複数のユーザが連携して植木900の移動をロボット1000に指示する例を説明する図である。
図37には、
図35との対応部分に対応する符号を付して示している。
他の実施の形態と同様に、ユーザAとユーザBは、各自が保持するスマートフォン200A及び200Bの前方で右手310を動かし、その動きを撮像する。
右手310の動きを操作として受け付けたスマートフォン200は、その操作の実行を植木900への移動が可能なロボット1000に指示する。ここでの操作は、植木900の横方向への移動である。
なお、この移動の操作は、必ずしもユーザAとユーザBの連携を必要としない。このため、スマートフォン200A及び200Bは、植木900に対する他のユーザの操作が検知された場合(
図6のステップ109参照)、2つの操作を合成した指示をロボット1000に指示する。操作の合成は、前述した実施の形態2の場合のようにユーザごとに異なる重みを付してもよい。
【0108】
移動の指示を受信したロボット1000は、移動の対象である植木900の場所まで移動すると、植木900を掴んで横方向に移動させる。
このとき、スマートフォン200A及び200Bには、植木の像900Aを掴んで移動するロボットの像1000Aと右手の像310Aが表示される。
図37の場合、植木の像900Aとロボットの像1000Aの確認が容易になるように、右手の像310Aを透過像として表示している。
また、
図37の場合、ユーザAが保持するスマートフォン200Aには、操作の同じ物体を操作する他のユーザBの操作の様子を示す小画面1100が表示され、ユーザBが保持するスマートフォン200Bには、操作の同じ物体を操作する他のユーザAの操作の様子を示す小画面1200が表示される。小画面1100及び1200は、他のユーザの動きを表示する画像の一例である。
【0109】
小画面1100及び1200には、各ユーザによる操作の向きと大きさを示す矢印も表示されている。
このため、各ユーザは、他者の操作のタイミングと自身の操作のタイミングを合わせたり、操作の向きを調整したりできる。
図37の場合には、ユーザの目の前に植木900もロボット1000も実在するので右手の像310Aを透過的に表示する必要性は低いが、スマートフォン200A及び200Bに表示されている植木の像900A及び900Bがユーザの目の前にない場合(例えばスマートフォン200にはウェブカメラの画像が表示されている場合)には、右手の像310Aが透過的に表示されることで実空間の様子の確認が容易になる。
【0110】
<他の実施形態>
以上、本発明の実施の形態について説明したが、本発明の技術的範囲は上述の実施の形態に記載の範囲に限定されない。上述の実施の形態に、種々の変更又は改良を加えたものも、本発明の技術的範囲に含まれることは、特許請求の範囲の記載から明らかである。
【0111】
例えば前述の実施の形態では、身振りに基づいて物体の操作を指示する情報処理装置の一例としてスマートフォン200(
図1参照)やメガネ型の端末(
図34参照)を用いたが、撮像用のカメラと、表示部と、通信部を有していれば、例えばタブレット端末でも、いわゆるデジタルカメラでも、ゲーム機などの玩具でも、時計型のウェアラブル端末やカメラ内蔵型のコンタクトレンズでも構わない。カメラ内蔵型のコンタクトレンズは、ウェアラブル端末の一例であり、スマートコンタクトレンズとも呼ばれる。スマートコンタクトレンズは、角膜に接触させて使用するレンズに、例えばカメラ、アンテナ、電子部品(送受信回路、信号処理回路等)を配置した構成を有し、まばたきによる操作が可能である。例えばシャッター、ズーム、絞り、焦点を操作できる。
【0112】
前述の実施の形態では、スマートフォン200で撮像する自身の体の一部の動きを操作として受け付ける処理をスマートフォン200で実行しているが、スマートフォン200は体の一部の動きを撮像する手段として使用し、その動きを操作として受け付ける処理は外部の装置(例えばサーバ)で実行してもよい。
【0113】
前述の実施の形態では、操作の対象となる物体の例として、画像形成装置100(
図1参照)、扉400(
図19参照)、金庫500(
図31参照)を示したが、例えば操縦桿、ジョイスティック、シフトレバー、ウインカーレバー、ブレーキレバー、車両のコントローラ、照明器具、空調機、オーディオ機器、家電製品等でもよい。
【0114】
前述の実施の形態においては、画像形成装置100(
図1参照)が、用紙などの記録材に二次元像を印刷する装置の場合について説明したが、立体像(三次元像)を形成する三次元プリンタでもよい。
【符号の説明】
【0115】
100…画像処理装置、200、200A、200B、200C…スマートフォン、229…空中触覚モジュール、251…身振り検知部、252…操作対象検知部、253…対象側機能取得部、254…操作受付部、254A、254A1、254A2、254A3…テーブル、257…連携部、400…扉、401…ノブ、402…駆動機構、500…金庫、501…扉、502、503…ダイヤル錠、600…表示装置、700…ウェブカメラ、800…ウェブカメラ、900…植木、1000…ロボット