IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ パナソニックオートモーティブシステムズ株式会社の特許一覧

特開2024-131603情報処理装置、情報処理システム、および情報処理方法
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024131603
(43)【公開日】2024-09-30
(54)【発明の名称】情報処理装置、情報処理システム、および情報処理方法
(51)【国際特許分類】
   G06F 3/01 20060101AFI20240920BHJP
   G06F 3/0346 20130101ALI20240920BHJP
   G06T 7/20 20170101ALI20240920BHJP
【FI】
G06F3/01 570
G06F3/0346 422
G06T7/20 300A
【審査請求】未請求
【請求項の数】14
【出願形態】OL
(21)【出願番号】P 2023041971
(22)【出願日】2023-03-16
(71)【出願人】
【識別番号】322003857
【氏名又は名称】パナソニックオートモーティブシステムズ株式会社
(74)【代理人】
【識別番号】110002147
【氏名又は名称】弁理士法人酒井国際特許事務所
(72)【発明者】
【氏名】秦野 峻
【テーマコード(参考)】
5B087
5E555
5L096
【Fターム(参考)】
5B087AA07
5B087AA09
5B087AB02
5B087AD02
5B087DD02
5B087DD03
5B087DD09
5E555AA11
5E555BA01
5E555BB01
5E555BC01
5E555CA42
5E555CB66
5E555CC01
5E555CC05
5E555EA14
5E555EA22
5E555FA00
5L096CA04
5L096HA03
5L096HA05
(57)【要約】
【課題】仮想操作面に対する操作を容易とする。
【解決手段】情報処理装置10は、受付部30Cと、操作制御部30Fと、を備える。受付部30Cは、機器14に対する操作の判定に用いるための仮想操作面の設定を受付ける。操作制御部30Fは、ユーザの身体の部位と仮想操作面との位置関係に基づいて機器14を操作する。
【選択図】図3
【特許請求の範囲】
【請求項1】
機器に対する操作の判定に用いるための仮想操作面の設定を受付ける受付部と、
ユーザの身体の部位と前記仮想操作面との位置関係に基づいて前記機器を操作する操作制御部と、
を備える情報処理装置。
【請求項2】
前記受付部は、
前記機器の操作受付面に応じた形状の前記仮想操作面の設定を受付ける、
請求項1に記載の情報処理装置。
【請求項3】
前記受付部は、
ユーザの腕部における所定部位を支点として前記腕部における前記所定部位より指部側の部位を動かすことで設定された範囲の領域を、前記仮想操作面の設定として受付ける、
請求項1に記載の情報処理装置。
【請求項4】
前記受付部は、
実空間における部材の表面の前記仮想操作面の設定を受付ける、
請求項1に記載の情報処理装置。
【請求項5】
前記受付部は、
平面状または曲面状の前記仮想操作面の設定を受付ける、
請求項1に記載の情報処理装置。
【請求項6】
前記仮想操作面の設定の受付時に支点とされた支点位置情報と、前記仮想操作面を表す仮想操作面情報と、を対応付けて設定する設定部、
を備える請求項1に記載の情報処理装置。
【請求項7】
前記支点は、
ユーザの腕部における肘部および手首部の少なくとも一方である、
請求項6に記載の情報処理装置。
【請求項8】
ユーザの撮影画像を取得する画像取得部と、
前記撮影画像に基づいてユーザの身体の態様を検出する検出部と、
を備え、
前記操作制御部は、
ユーザの予め定められた身体の部位が前記仮想操作面に接触または前記仮想操作面の通過を判定したときに前記機器に対する操作開始を判定し、操作開始の判定後の身体の部位の動作態様に応じた操作を前記機器に対して実行する、
請求項1に記載の情報処理装置。
【請求項9】
前記操作制御部は、
前記仮想操作面を受付けた設定位置よりユーザの肘部側に再設定し、再設定した前記仮想操作面とユーザの身体の部位との位置関係に基づいて、前記機器を操作する、
請求項1に記載の情報処理装置。
【請求項10】
前記操作制御部は、
前記仮想操作面に対応するユーザの支点とする特定部位の移動を検出したときに、前記支点の移動に応じた位置姿勢に前記仮想操作面を再設定する、
請求項1に記載の情報処理装置。
【請求項11】
前記受付部は、
実空間における位置および範囲の少なくとも一方の異なる複数の前記仮想操作面の設定を受付ける、
請求項1に記載の情報処理装置。
【請求項12】
前記操作制御部は、
ユーザの身体の部位と複数の前記仮想操作面の各々との位置関係に基づいて前記機器を操作する、
請求項11に記載の情報処理装置。
【請求項13】
撮影部と、機器と、情報処理装置と、を備える情報処理システムであって、
前記情報処理装置は、
ユーザの撮影画像を前記撮影部から取得する画像取得部と、
前記撮影画像に基づいて前記ユーザの身体の態様を検出する検出部と、
前記機器に対する操作の判定に用いるための仮想操作面の設定を受付ける受付部と、
前記ユーザの身体の部位と前記仮想操作面との位置関係に基づいて前記機器を操作する操作制御部と、
を備える情報処理システム。
【請求項14】
機器に対する操作の判定に用いるための仮想操作面の設定を受付けるステップと、
ユーザの身体の部位と前記仮想操作面との位置関係に基づいて前記機器を操作するステップと、
を含む情報処理方法。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、情報処理装置、情報処理システム、および情報処理方法に関する。
【背景技術】
【0002】
従来、ユーザの手の動きに応じて機器を動作制御するシステムが知られている(例えば、特許文献1参照)。例えば、ディスプレイなどの操作対象の機器について、ユーザがディスプレイに直接触れることなく、ユーザの手の動きに応じてディスプレイの表示内容を変更する技術が知られている。
【先行技術文献】
【特許文献】
【0003】
【特許文献1】特開2018-32055号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
上記のような技術において、機器に対する操作の判定に用いるための仮想操作面を実空間上に設定し、該仮想操作面に対する操作に応じて機器を動作制御することが考えられる。このような仮想操作面は、ユーザにとって操作容易であることが望まれる。
【0005】
本開示が解決しようとする課題は、仮想操作面に対する操作を容易とすることができる、情報処理装置、情報処理システム、および情報処理方法を提供することである。
【課題を解決するための手段】
【0006】
本開示にかかる情報処理装置は、受付部と、操作制御部と、を備える。受付部は、機器に対する操作の判定に用いるための仮想操作面の設定を受付ける。操作制御部は、ユーザの身体の部位と前記仮想操作面との位置関係に基づいて前記機器を操作する。
【発明の効果】
【0007】
本開示にかかる情報処理装置、情報処理システム、および情報処理方法によれば、仮想操作面に対する操作を容易とすることができる。
【図面の簡単な説明】
【0008】
図1A図1Aは、実施形態の情報処理システムの模式図である。
図1B図1Bは、実施形態の情報処理システムの模式図である。
図2図2は、情報処理装置のハードウェア構成図である。
図3図3は、実施形態の情報処理システムの機能ブロック図である。
図4A図4Aは、仮想操作面の設定の受付の説明図である。
図4B図4Bは、仮想操作面の設定の受付の説明図である。
図5A図5Aは、仮想操作面の設定の受付の説明図である。
図5B図5Bは、仮想操作面の設定の受付の説明図である。
図6A図6Aは、複数の仮想操作面の設定の受付の説明図である。
図6B図6Bは、複数の仮想操作面の設定の受付の説明図である。
図6C図6Cは、複数の仮想操作面の設定の受付の説明図である。
図7A図7Aは、肘部を支点として仮想操作面に対して操作を行う説明図である。
図7B図7Bは、肘部を支点として仮想操作面に対して操作を行う説明図である。
図7C図7Cは、肘部を支点として仮想操作面に対して操作を行う説明図である。
図8A図8Aは、肘部および手首部を支点として仮想操作面に対して操作を行う説明図である。
図8B図8Bは、肘部および手首部を支点として仮想操作面に対して操作を行う説明図である。
図9A図9Aは、手首部を支点として仮想操作面に対して操作を行う説明図である。
図9B図9Bは、手首部を支点として仮想操作面に対して操作を行う説明図である。
図9C図9Cは、手首部を支点として仮想操作面に対して操作を行う説明図である。
図9D図9Dは、手首部を支点として仮想操作面に対して操作を行う説明図である。
図9E図9Eは、手首部を支点として仮想操作面に対して操作を行う説明図である。
図10A図10Aは、支点とする肘部の位置が移動した場面の説明図である。
図10B図10Bは、支点とする手首部の位置が移動した場面の説明図である。
図11図11は、仮想操作面情報登録処理の流れの一例を示すフローチャートである。
図12図12は、操作実行処理の流れの一例を示すフローチャートである。
【発明を実施するための形態】
【0009】
以下に添付図面を参照して、本開示に係る情報処理装置、情報処理システム、および情報処理方法の実施形態について説明する。
【0010】
図1Aおよび図1Bは、本実施形態の情報処理システム1の一例の模式図である。図1Aは、情報処理システム1の上面図である。図1Bは、情報処理システム1の側面図である。
【0011】
情報処理システム1は、情報処理装置10と、撮影部12と、機器14と、を備える。
【0012】
情報処理装置10と、撮影部12と、機器14とは、無線または有線により通信可能に接続されている。
【0013】
情報処理装置10は、ユーザ20の身体の態様に応じて機器14を操作制御するためのコンピュータである。
【0014】
ユーザ20の身体の態様は、ユーザ20の身体の部位の態様を表す。詳細には、ユーザ20の身体の態様は、ユーザ20の身体の部位の実空間Sにおける位置、角度、形状、動作態様、等によって表される。
【0015】
撮影部12は、ユーザ20を検出するセンサの一例である。本実施形態では、撮影部12は、撮影によってユーザ20の写り込んだ撮影画像データを得る。以下では、撮影画像データを、単に撮影画像と称して説明する。
【0016】
機器14は、ユーザ20による操作に応じて動作する情報処理装置である。本実施形態では、機器14は操作受付面14Aを備える。操作受付面14Aは、ユーザによる操作の受付面である。操作受付面14Aは、例えば、タッチパネル等のディスプレイである。本実施形態では、操作受付面14Aが、四角形状である形態を一例として説明する。
【0017】
本実施形態では、ユーザ20は、操作受付面14Aを直接操作することなく、後述する仮想操作面ARに対する操作を行う。情報処理システム1では、ユーザ20による仮想操作面ARに対する操作によって、該仮想操作面ARに対して行われた操作に対応する操作が操作受付面14Aになされたものとし、機器14を動作させる。
【0018】
仮想操作面ARとは、機器14に対する操作の判定に用いるための操作面であり、実空間S上に設定された仮想領域である。本実施形態では、仮想操作面ARは、機器14に対する操作開始の判定などに用いられる(詳細後述)。
【0019】
情報処理システム1では、ユーザ20によって実空間S上の所望の領域に所望の仮想操作面ARが設定される。本実施形態では、情報処理システム1は、椅子16等に着座した状態のユーザ20が腕部20Aを楽な状態とした姿勢で仮想操作面ARを設定可能に構成されている。例えば、ユーザ20の腕部20Aは、肘部20A1、手首部20A2、指部20A3等を含んで構成されている。本実施形態の情報処理装置10では、肘部20A1および手首部20A2の少なくとも一方をユーザ20が脇に固定または椅子16の肘置部等に置いた状態で、仮想操作面ARを介して機器14に対する操作を行うことが可能に構成されている(詳細後述)。
【0020】
図2は、情報処理装置10の一例のハードウェア構成図である。
【0021】
情報処理装置10は、CPU(Central Processing Unit)11A、ROM(Read Only Memory)11B、RAM11C、およびI/F11D等がバス11Eにより相互に接続されており、通常のコンピュータを利用したハードウェア構成となっている。
【0022】
CPU11Aは、本実施形態の情報処理装置10を制御する演算装置である。ROM11Bは、CPU11Aによる各種の処理を実現するプログラム等を記憶する。RAM11Cは、CPU11Aによる各種の処理に必要なデータを記憶する。I/F11Dは、データを送受信するためのインターフェースである。
【0023】
本実施形態の情報処理装置10で実行される情報処理を実行するためのプログラムは、ROM11B等に予め組み込んで提供される。なお、本実施形態の情報処理装置10で実行されるプログラムは、情報処理装置10にインストール可能な形式又は実行可能な形式のファイルでCD-ROM、フレキシブルディスク(FD)、CD-R、DVD(Digital Versatile Disc)等のコンピュータで読み取り可能な記録媒体に記録されて提供するように構成してもよい。
【0024】
図3は、本実施形態の情報処理システム1の一例の機能ブロック図である。
【0025】
情報処理システム1は、情報処理装置10と、撮影部12と、機器14と、入力部18と、備える。
【0026】
入力部18は、ユーザによる操作入力を受付けるための機構である。入力部18は、例えば、マウス等のポインティングデバイス、キーボード、スイッチ等である。入力部18と情報処理装置10とは信号授受可能に接続されている。
【0027】
情報処理装置10は、制御部30と、記憶部32と、を備える。制御部30と記憶部32とはデータおよび信号を授受可能に接続されている。
【0028】
記憶部32は、各種のデータを記憶する。記憶部32は、メモリまたはストレージのような、情報(言い換えるとデータ)を記憶するためのハードウェアにより実現される。本実施形態では、記憶部32は、基準座標情報32Aと、仮想操作面管理情報32Bと、を記憶する。
【0029】
基準座標情報32Aは、撮影部12の設置位置の3D(three dimensions)位置座標、撮影部12の取り付け角度の情報、実空間における機器14および機器14の操作受付面14Aの3D位置座標、等を含む。
【0030】
仮想操作面管理情報32Bは、仮想操作面ARを表す仮想操作面情報と、該仮想操作面ARの設定の受付時に支点とされた支点位置情報と、を対応付けたデータベースである。仮想操作面管理情報32Bのデータ形式は、テーブル等であってもよくデータベースに限定されない。仮想操作面情報は、実空間Sにおける仮想操作面ARの3D位置座標によって表される。支点位置情報は、仮想操作面ARの設定の受付時に支点とされた支点位置の、実空間Sにおける3D位置座標によって表される。仮想操作面管理情報32Bは、制御部30によって更新される。
【0031】
制御部30は、各種の情報処理を実行する。例えば、CPU11Aが、ROM11BからプログラムをRAM11C上に読み出して実行することにより、制御部30の後述する各機能部がコンピュータ上で実現される。
【0032】
制御部30は、画像取得部30Aと、検出部30Bと、受付部30Cと、設定部30Dと、2D(two dimensions)座標変換部30Eと、操作制御部30Fと、を有する。操作制御部30Fは、判定部30Gと、機能実行部30Hと、表示出力部30Iと、を有する。
【0033】
画像取得部30A、検出部30B、受付部30C、設定部30D、2D座標変換部30E、操作制御部30F、判定部30G、機能実行部30H、および表示出力部30Iの一部または全ては、例えば、CPU11Aなどの処理装置にプログラムを実行させること、すなわち、ソフトウェアにより実現してもよいし、IC(Integrated Circuit)などのハードウェアにより実現してもよいし、ソフトウェアおよびハードウェアを併用して実現してもよい。また、画像取得部30A、検出部30B、受付部30C、設定部30D、2D座標変換部30E、操作制御部30F、判定部30G、機能実行部30H、および表示出力部30Iの少なくとも1つを、ネットワークなどを介して情報処理装置10と通信可能に接続された外部の情報処理装置に搭載した構成としてもよい。
【0034】
画像取得部30Aは、撮影部12から撮影画像を取得する。本実施形態では、撮影部12は、機器14の周辺に存在するユーザ20を時系列に沿って順次撮影した撮影画像を、情報処理装置10へ順次出力する。このため、画像取得部30Aは、撮影部12で撮影された撮影画像を順次取得する。画像取得部30Aは、取得した撮影画像を、検出部30Bへ順次出力する。すなわち、画像取得部30Aは、撮影部12によって撮影された時系列に連続する複数の撮影画像からなる動画像を取得する。
【0035】
検出部30Bは、撮影画像に基づいてユーザ20の身体の態様を検出する。
【0036】
詳細には、検出部30Bは、撮影画像を公知の画像解析方法により解析することで、撮影画像に写り込んだユーザ20の特定部位であるランドマークを検出する。
【0037】
ランドマークとは、ユーザ20の特定部位である。特定部位とは、ユーザ20の身体Iの部位である。特定部位は、例えば、ユーザ20の腕部20A、肘部20A1、手首部20A2、指部20A3、等である。また、検出部30Bは、撮影画像の解析結果および基準座標情報32Aを用いて、特定した特定部位(例えば、腕部20A、肘部20A1、手首部20A2、指部20A3)の各々の実空間Sにおける3D位置座標を特定する。特定部位の3D位置座標の特定方法には、公知の方法を用いればよい。また、撮影部12としてステレオカメラやデプスマップ(距離画像)を取得可能なカメラを用い、撮影画像における特定した特定部位までの位置および方向と、基準座標情報32Aと、を用いて、特定部位の3D位置座標を特定してもよい。
【0038】
受付部30Cは、仮想操作面ARの設定を受付ける。受付部30Cは、ユーザ20による操作によって表される仮想操作面ARの設定を受付ける。例えば、受付部30Cは、機器14の操作受付面14Aに応じた形状の仮想操作面ARの設定を受付ける。上述したように、本実施形態では、操作受付面14Aが四角形状である形態を一例として説明する。このため、本実施形態では、受付部30Cは、四角形状の仮想操作面ARの設定を受付ける形態を一例として説明する。
【0039】
また、受付部30Cは、ユーザ20の腕部20Aにおける所定部位を支点として、腕部20Aにおける支点とした所定部位より指部20A3側の部位を動かすことで設定された範囲の領域を、仮想操作面ARの設定として受付ける。支点は、ユーザ20による任意の身体の部位であればよい。本実施形態では、支点が、肘部20A1および手首部20A2の少なくとも一方である形態を一例として説明する。
【0040】
すなわち、ユーザ20は、ユーザ20の肘部20A1または手首部20A2等を支点として支点より指部20A3側を動かすことで、実空間S上の所望の位置および領域に所望のサイズの仮想操作面ARの設定を入力する。
【0041】
図4Aは、仮想操作面ARの設定の受付の一例の説明図である。図4Aには、ユーザ20が肘部20A1を支点Fとして仮想操作面ARの設定を入力する場面を示す。
【0042】
例えば、ユーザ20は、ユーザ20の肘部20A1を支点Fとし、機器14の操作受付面14Aに応じた形状の仮想操作面ARを設定する。本実施形態では、操作受付面14Aが四角形状である形態を一例として説明する。このため、例えば、ユーザ20は、椅子16に着座した状態で肘部20A1を支点Fとして手首部20A2および指部20A3等を動かし、四角形を構成する四辺の4つの頂点Pを実空間S上に指定し、決定操作を行う。決定操作は、例えば、入力部18の別途の操作指示により行ってもよい。また、決定操作は、ユーザ20による予め定められたジェスチャにより行ってもよい。
【0043】
受付部30Cは、画像取得部30Aで取得した撮影画像の検出部30Bによる特定部位の検出結果である特定部位の3D位置座標に基づいてユーザ20の身体の態様を解析する。この解析処理により、受付部30Cは、ユーザ20による4つの頂点Pの指定を受付ける。そして、受付部30Cは、受付けた4つの頂点Pの各々の実空間Sにおける3D位置座標と、これらの4つの頂点Pを結ぶラインによって表される四角形状の実空間Sにおける領域を表す情報を、仮想操作面ARを表す仮想操作面情報として演算する。これらの処理により、受付部30Cは、仮想操作面情報によって表される仮想操作面ARの設定を受付ける。
【0044】
また、受付部30Cは、仮想操作面ARの設定の受付時に支点Fとされた支点位置情報を受付ける。支点位置情報は、仮想操作面ARの設定時にユーザ20が支点Fとした身体の部位および実空間Sにおける該部位の3D位置座標を表す情報である。
【0045】
受付部30Cは、上記特定部位の3D位置座標に基づいたユーザ20の態様の解析により、ユーザ20の何れの部位が仮想操作面ARの設定の受付時に支点Fとされたかを判別してもよい。また、受付部30Cは、ユーザによる入力部18の操作指示によって、仮想操作面ARの設定の受付時に支点Fとした部位を表す情報を、支点位置情報として受付けてもよい。
【0046】
図4Bは、仮想操作面ARの設定の受付の一例の説明図である。図4Bには、ユーザ20が手首部20A2を支点Fとして仮想操作面ARの設定を入力する場面を示す。
【0047】
例えば、ユーザ20は、ユーザ20の手首部20A2を支点Fとし、機器14の操作受付面14Aに応じた形状の仮想操作面ARを設定する。例えば、ユーザ20は、椅子16に着座した状態で手首部20A2を支点Fとして指部20A3を動かし、四角形を構成する四辺の4つの頂点Pを実空間S上に指定し、決定操作を行う。
【0048】
受付部30Cは、画像取得部30Aで取得した撮影画像の検出部30Bによる特定部位の検出結果である特定部位の3D位置座標に基づいてユーザ20の身体の態様を解析することで、ユーザ20による4つの頂点Pの指定を受付ける。そして、受付部30Cは、上記と同様に、受付けた4つの頂点Pの各々の実空間Sにおける3D位置座標と、これらの4つの頂点Pを結ぶラインによって表される四角形状の実空間Sにおける領域を表す情報を、仮想操作面ARを表す仮想操作面情報として演算する。これらの処理により、受付部30Cは、仮想操作面情報によって表される仮想操作面ARの設定を受付ける。
【0049】
また、受付部30Cは、仮想操作面ARの設定の受付時に支点Fとされた支点位置情報を上記と同様にして受付ける。
【0050】
受付部30Cは、設定を受付けた仮想操作面ARの仮想操作面情報と、該仮想操作面ARの設定の受付時に支点Fとされた部位および該部位の3D位置座標を表す支点位置情報とを、設定部30Dへ出力する。
【0051】
なお、受付部30Cは、平面状または曲面状の仮想操作面ARの設定を受付けてよい。
【0052】
例えば、受付部30Cは、受付けた4つの頂点Pの各々の実空間Sにおける3D位置座標と、これらの4つの頂点Pを結ぶラインによって表される四角形状で且つ平面状の実空間Sにおける領域を表す情報を、仮想操作面ARを表す仮想操作面情報として受付ければよい。
【0053】
また、受付部30Cは、受付けた4つの頂点Pの各々の実空間Sにおける3D位置座標と、これらの4つの頂点Pを結ぶラインによって表される四角形状で且つ曲面状の実空間Sにおける領域を表す情報を、仮想操作面ARを表す仮想操作面情報として受付けてもよい。曲面状の仮想操作面ARとする場合、例えば、受付部30Cは、仮想操作面ARの設定時の支点Fを中心とし、該支点Fから頂点Pまでの長さを半径とした球面に沿った曲面状の領域を表す情報を、仮想操作面ARを表す仮想操作面情報として受付ければよい。また、受付部30Cは、仮想操作面ARの設定の受付時のユーザ20の目の位置を中心とし、該中心から頂点Pまでの長さを半径とした球面に沿った曲面状の領域を表す情報を、仮想操作面ARを表す仮想操作面情報として受付けてもよい。
【0054】
また、受付部30Cは、実空間Sにおける部材の表面の仮想操作面ARの設定を受付けてもよい。この場合、ユーザ20は、例えば、実空間Sにおける椅子16等の部材の表面に対して仮想操作面ARを設定する。
【0055】
図5Aおよび図5Bは、仮想操作面ARの設定の受付の一例の説明図である。図5Aおよび図5Bには、椅子16に着座した状態のユーザ20が肘置部16Aに載置した腕部20Aの指部20A3を動かし、肘置部16Aの表面に対して仮想操作面ARの設定を入力する場面を示す。図5Bは、図5Aの一部領域Aの拡大模式図である。
【0056】
例えば、椅子16に着座した状態のユーザ20は、肘置部16Aに腕部20Aを置いた状態で、指部20A3等によって肘置部16Aの表面を触る等の操作をすることで、肘置部16Aの表面に仮想操作面ARを設定する。例えば、ユーザ20は、椅子16に着座した状態で指部20A3を動かし、四角形を構成する四辺の4つの頂点Pを肘置部16A上に指定し、決定操作を行う。
【0057】
受付部30Cは、画像取得部30Aで取得した撮影画像の検出部30Bによる特定部位の検出結果である特定部位の3D位置座標に基づいてユーザ20の身体の態様を解析することで、ユーザ20による4つの頂点Pの指定を受付ける。そして、受付部30Cは、上記と同様に、受付けた4つの頂点Pの各々の実空間Sにおける3D位置座標と、これらの4つの頂点Pを結ぶラインによって表される四角形状の実空間Sにおける領域を表す情報を、仮想操作面ARを表す仮想操作面情報として演算する。これらの処理により、受付部30Cは、肘置部16A上に設定された仮想操作面ARの設定を受付ける。
【0058】
この場合、受付部30Cは、タッチパネル等の追加装備を情報処理システム1に別途設置することなく、実空間S上に載置された肘置部16A等の部材の表面を、仮想操作面ARとして設定を受付けることができる。
【0059】
また、受付部30Cは、実空間Sにおける位置および範囲の少なくとも一方の異なる複数の仮想操作面ARの設定を受付けてもよい。
【0060】
図6Aは、複数の仮想操作面ARの設定の受付の一例の説明図である。図6Aには、ユーザ20が腕部20Aを支点Fとして2つの仮想操作面AR(仮想操作面ARa、仮想操作面ARb)の設定を入力する場面を示す。
【0061】
例えば、ユーザ20は、ユーザ20の肘部20A1を支点とし、機器14の操作受付面14Aに応じた形状の仮想操作面ARを上記と同様にして設定し、決定操作を行う。このとき、ユーザ20は、実空間Sにおける位置、領域、および範囲の少なくとも1つの異なる複数の仮想操作面ARを設定してよい。
【0062】
受付部30Cは、画像取得部30Aで取得した撮影画像の検出部30Bによる特定部位の検出結果である特定部位の3D位置座標に基づいてユーザ20の身体の態様を解析することで、複数の仮想操作面ARの各々を表す仮想操作面情報によって表される仮想操作面ARの設定を受付ける。また、受付部30Cは、上記と同様にして複数の仮想操作面ARの各々の設定時の支点Fの支点位置情報を特定する。
【0063】
そして、受付部30Cは、上記と同様にして、設定を受付けた複数の仮想操作面ARの仮想操作面情報と、複数の該仮想操作面ARの各々の設定の受付時に支点Fとされた身体の部位およびDにおける該部位の3D位置座標を表す支点位置情報とを、設定部30Dへ出力すればよい。
【0064】
図6Bは、複数の仮想操作面ARの設定の受付の一例の説明図である。図6Bには、ユーザ20が手首部20A2を支点Fとして2つの仮想操作面AR(仮想操作面ARc、仮想操作面ARd)の設定を入力する場面を示す。
【0065】
例えば、ユーザ20は、ユーザ20の手首部20A2を支点とし、機器14の操作受付面14Aに応じた形状の仮想操作面ARを上記と同様にして設定し、決定操作を行う。このとき、ユーザ20は、実空間Sにおける位置、領域、および範囲の少なくとも1つの異なる複数の仮想操作面ARを設定してよい。
【0066】
受付部30Cは、画像取得部30Aで取得した撮影画像の検出部30Bによる特定部位の検出結果である特定部位の3D位置座標に基づいてユーザ20の身体の態様を解析することで、複数の仮想操作面ARの各々を表す仮想操作面情報によって表される仮想操作面AR(仮想操作面ARc、仮想操作面ARd)の設定を受付ける。
【0067】
そして、受付部30Cは、上記と同様にして、設定を受付けた複数の仮想操作面ARの各々の仮想操作面情報と、複数の該仮想操作面ARの各々の設定の受付時に支点Fとされた身体の部位および実空間Sにおける該部位の3D位置情報を表す支点位置情報と、を設定部30Dへ出力すればよい。
【0068】
図6Cは、複数の仮想操作面ARの設定の受付の一例の説明図である。図6Cには、ユーザ20が左右双方の腕部20Aの各々の肘部20A1を支点Fとして、右手用および左手用の各々用の2つの仮想操作面AR(仮想操作面ARe、仮想操作面ARf)の設定を入力する場面を示す。
【0069】
例えば、ユーザ20は、ユーザ20の左右の腕部20Aの各々の肘部20A1を支点Fとし、機器14の操作受付面14Aに応じた形状の仮想操作面ARを上記と同様にして設定し、決定操作を行う。
【0070】
受付部30Cは、画像取得部30Aで取得した撮影画像の検出部30Bによる特定部位の検出結果である特定部位の3D位置座標に基づいてユーザ20の身体の態様を解析することで、複数の仮想操作面ARの各々を表す仮想操作面情報によって表される仮想操作面AR(仮想操作面ARe、仮想操作面ARf)の設定を受付ける。
【0071】
そして、受付部30Cは、上記と同様にして、設定を受付けた複数の仮想操作面ARの各々の仮想操作面情報と、複数の該仮想操作面ARの各々の設定の受付時に支点Fとされた身体の部位および実空間Sにおける該部位の3D位置情報を表す支点位置情報と、を設定部30Dへ出力すればよい。
【0072】
図3に戻り説明を続ける。
【0073】
設定部30Dは、仮想操作面ARの設定の受付時に支点Fとされた支点位置情報と、仮想操作面ARを表す仮想操作面情報と、を対応付けて仮想操作面管理情報32Bに登録する。
【0074】
2D座標変換部30Eは、検出部30Bによって特定された、撮影画像に写り込んだユーザ20の身体の部位の各々の3D位置座標を、機器14の操作受付面14A上の2D位置座標に変換する。特定部位の3D位置座標を操作受付面14A上の2D位置座標に変換する座標変換処理には、公知の方法を用いればよい。
【0075】
操作制御部30Fは、ユーザ20の身体の部位と、仮想操作面ARとの位置関係に基づいて、機器14を操作する。
【0076】
操作制御部30Fは、ユーザ20の予め定められた身体の部位が仮想操作面ARに接触または仮想操作面ARの通過を判定したときに、機器14に対する操作開始を判定し、操作開始の判定後の身体の部位の動作態様に応じた操作を機器14に対して実行する。
【0077】
ユーザ20の予め定められた身体の部位は、腕部20Aにおける、肘部20A1より指部20A3側の部位、手首部20A2より指部20A3側の部位、指部20A3、等である。仮想操作面ARに対する操作判定に用いるユーザ20の身体の部位は予め定めればよく、これらの部位に限定されない。本実施形態では、仮想操作面ARに対する操作判定に用いるユーザ20の身体の部位が、少なくとも腕部20Aにおける肘部20A1より指部20A3側の部位である形態を想定して説明する。
【0078】
ユーザ20の予め定められた身体の部位が仮想操作面ARを通過するとは、ユーザ20の予め定められた身体の部位が仮想操作面ARより機器14側の領域に位置された状態を意味する。また、詳細を後述するが、ユーザ20の予め定められた身体の部位が仮想操作面ARの通過状態から解除されるとは、ユーザ20の予め定められた身体の部位が仮想操作面ARよりユーザ20の本体側に位置された状態を意味する。
【0079】
詳細には、操作制御部30Fは、判定部30Gと、機能実行部30Hと、表示出力部30Iと、を備える。
【0080】
判定部30Gは、仮想操作面ARと、ユーザ20の身体の態様の検出部30Bによる検出結果と、を用いて、仮想操作面ARに対するユーザ20の身体の部位の位置関係および機器14に対する処理内容を判定する。処理内容は、例えば、タッチダウン、タッチアップ、フリック、ドラッグ等であるがこれらに限定されない。
【0081】
機能実行部30Hは、判定部30Gの判定結果によって表される処理内容を実行する。表示出力部30Iは、処理内容を実行した結果を機器14の操作受付面14Aへ表示させる。
【0082】
操作制御部30Fによる処理について詳細に説明する。
【0083】
図7A図7Cは、椅子16等に着座した状態のユーザ20が肘部20A1を支点Fとして仮想操作面ARに対して操作を行う場合の一例の説明図である。
【0084】
図7Aは、ユーザ20の指部20A3が一定速度以上で振り下ろされて停止または振り上げられた動作による、操作制御部30Fによる操作実行処理の一例の説明図である。
【0085】
図7Aに示すように、例えば、ユーザ20が肘部20A1を支点Fとして肘部20A1より指部20A3側を一定速度以上で動かして振り下ろし、指部20A3が仮想操作面ARを通過した状態で停止した場面を想定する。操作制御部30Fは、検出部30Bによる検出結果を解析することで、仮想操作面管理情報32Bに記憶されている仮想操作面情報によって特定される仮想操作面ARをユーザ20の指部20A3が通過したことを判定すると、機器14に対する操作開始を判定する。
【0086】
また、操作制御部30Fは、該指部20A3の通過した仮想操作面ARを、機器14の操作に用いる仮想操作面ARとして特定する。このため、ユーザ20が実空間Sに対して任意の動作を行うことで、仮想操作面管理情報32Bに登録されている1または複数の仮想操作面情報によって特定される複数の仮想操作面ARの内、ユーザ20の指部20A3の通過を判定された1または複数の仮想操作面ARが、機器14の操作に用いる仮想操作面ARとして特定される。
【0087】
このとき、操作制御部30Fは、検出部30Bによる検出結果を解析することで、ユーザ20が支点Fとしている身体の部位を特定する。ここでは、操作制御部30Fが肘部20A1を支点Fとして特定した場面を想定する。操作制御部30Fは、指部20A3の通過した仮想操作面ARの仮想操作面情報として、複数の仮想操作面情報が仮想操作面管理情報32Bに記憶されている場合、支点Fとして特定した身体の部位を表す支点位置情報に対応付けられている仮想操作面情報によって表される仮想操作面ARを、機器14の操作に用いる仮想操作面ARとして特定する。
【0088】
そして、操作制御部30Fは、ユーザ20の、特定した仮想操作面ARおよび仮想操作面ARより機器14側に位置されている指部20A3の動作態様に応じた操作を機器14に対して実行する。
【0089】
詳細には、操作制御部30Fは、ユーザ20の指部20A3が仮想操作面ARを通過した状態で停止したときに、タッチダウン操作がなされたと判定する。また、操作制御部30Fは、検出部30Bによって検出された、仮想操作面ARを通過した状態で停止した指部20A3の実空間Sにおける3D位置座標を、機器14の操作受付面14Aに対する操作位置Lとして特定する。詳細には、操作制御部30Fは、該指部20A3の実空間Sにおける3D位置座標を2D座標変換部30Eにより変換した2D位置座標を、操作受付面14A上の操作位置Lとして特定する。
【0090】
そして、操作制御部30Fは、操作受付面14Aにおける特定した操作位置Lに対するダッチダウン操作に応じた操作を、機器14に対して実行する。
【0091】
また、例えば、ユーザ20が肘部20A1を支点Fとして肘部20A1より指部20A3側を動かして振り上げ、指部20A3が仮想操作面ARの通過状態から解除された場面を想定する。この場合、操作制御部30Fは、タッチアップ操作がなされたと判定する。そして、操作制御部30Fは、操作受付面14Aにおける上記特定した操作位置Lに対するタッチアップ操作に応じた操作を、機器14に対して実行する。
【0092】
図7Bは、ユーザ20の指部20A3が仮想操作面ARを通過した状態で摘み動作を行った場合の、操作制御部30Fによる操作実行処理の一例の説明図である。
【0093】
図7Bに示すように、例えば、ユーザ20が肘部20A1を支点Fとして肘部20A1より指部20A3側を一定速度以上で動かし、指部20A3が仮想操作面ARを通過した状態で指部20A3により仮想物体を摘まむような摘み動作を行った場面を想定する。
【0094】
操作制御部30Fは、検出部30Bによる検出結果を解析することで、仮想操作面管理情報32Bに記憶されている仮想操作面情報によって特定される仮想操作面ARをユーザ20の指部20A3が通過したことを判定すると、機器14に対する操作開始を判定する。
【0095】
また、上記と同様に、操作制御部30Fは、該指部20A3の通過した仮想操作面ARを、機器14の操作に用いる仮想操作面ARとして特定する。また、上記と同様に、操作制御部30Fは、ユーザ20が支点Fとしている身体の部位を特定する。そして、操作制御部30Fは、ユーザ20の、特定した仮想操作面ARおよび仮想操作面ARより機器14側に位置されている指部20A3の動作態様に応じた操作を機器14に対して実行する。
【0096】
詳細には、操作制御部30Fは、ユーザ20の指部20A3が仮想操作面ARを通過した状態で摘み動作を行った時に、タッチダウン操作がなされたと判定する。操作制御部30Fは、検出部30Bによる検出結果を用いて摘み動作を行ったか否かを判定すればよい。また、操作制御部30Fは、検出部30Bによって検出された、仮想操作面ARを通過した状態で指部20A3による摘み動作の行われた地点の実空間Sにおける3D位置座標を、機器14の操作受付面14Aに対する操作位置Lとして特定する。詳細には、操作制御部30Fは、該摘み動作の行われた地点の実空間Sにおける3D位置座標を2D座標変換部30Eにより変換した2D位置座標を、操作受付面14A上の操作位置Lとして特定する。
【0097】
そして、操作制御部30Fは、操作受付面14Aにおける特定した操作位置Lに対するダッチダウン操作に応じた操作を、機器14に対して実行する。
【0098】
また、例えば、ユーザ20の指部20A3が仮想操作面ARを通過した状態で指を開き、摘み動作が解除された場面を想定する。この場合、操作制御部30Fは、タッチアップ操作がなされたと判定する。そして、操作制御部30Fは、操作受付面14Aにおける上記特定した操作位置Lに対するタッチアップ操作に応じた操作を、機器14に対して実行する。
【0099】
なお、操作制御部30Fは、仮想操作面ARを受付けた設定位置よりユーザ20の肘部20A1側に再設定し、再設定した仮想操作面ARとユーザ20の身体の部位との位置関係に基づいて、機器14を操作してもよい。
【0100】
図7Cは、操作制御部30Fが、機器14の操作に用いる仮想操作面ARとして特定した仮想操作面ARの位置をユーザ20の手首部20A2より肘部20A1側に再設定し、ユーザ20の指部20A3が仮想操作面ARを通過した状態で摘み動作を行った場合の、操作制御部30Fによる操作実行処理の一例の説明図である。
【0101】
図7Cに示すように、例えば、操作制御部30Fは、仮想操作面ARを受付けた設定位置よりユーザ20の肘部20A1側に再設定する。図7Cには、仮想操作面ARが肘部20A1と手首部20A2との間の位置に再設定された状態を一例として示す。
【0102】
そして、例えば、ユーザ20が肘部20A1を支点Fとして肘部20A1より指部20A3側を一定速度以上で動かし、指部20A3が仮想操作面ARを通過した状態で指部20A3により仮想物体を摘まむような摘み動作を行った場面を想定する。
【0103】
操作制御部30Fは、検出部30Bによる検出結果を解析することで、再設定した仮想操作面ARをユーザ20の腕部20Aが通過したことを判定すると、機器14に対する操作開始を判定する。
【0104】
そして、図7Bを用いて説明したパタンと同様に、操作制御部30Fは、ユーザ20の指部20A3が仮想操作面ARを通過した状態で摘み動作を行った時に、タッチダウン操作がなされたと判定する。操作制御部30Fは、検出部30Bによる検出結果を用いて摘み動作を行ったか否かを判定すればよい。また、操作制御部30Fは、検出部30Bによって検出された、仮想操作面ARを通過した状態で指部20A3による摘み動作の行われた時の、腕部20Aと仮想操作面ARとの交点を特定する。そして、操作制御部30Fは、特定した該交点の実空間Sにおける3D位置座標を、機器14の操作受付面14Aに対する操作位置Lとして特定する。詳細には、操作制御部30Fは、該交点の実空間Sにおける3D位置座標を2D座標変換部30Eにより変換した2D位置座標を、操作受付面14A上の操作位置Lとして特定する。
【0105】
そして、操作制御部30Fは、操作受付面14Aにおける特定した操作位置Lに対するダッチダウン操作に応じた操作を、機器14に対して実行する。
【0106】
また、例えば、ユーザ20の指部20A3が仮想操作面ARを通過した状態で指を開き、摘み動作が解除された場面を想定する。この場合、操作制御部30Fは、タッチアップ操作がなされたと判定する。そして、操作制御部30Fは、操作受付面14Aにおける上記特定した操作位置Lに対するタッチアップ操作に応じた操作を、機器14に対して実行する。
【0107】
図8A図8Bは、椅子16等に着座した状態のユーザ20が肘部20A1および手首部20A2を支点Fとして仮想操作面ARに対して操作を行う場合の一例の説明図である。
【0108】
図8Aは、ユーザ20の指部20A3が一定速度以上で振り下ろされて停止または振り上げられた動作による、操作制御部30Fによる操作実行処理の一例の説明図である。
【0109】
図8Aに示すように、例えば、ユーザ20が肘部20A1を支点Fとして肘部20A1より指部20A3側を一定速度以上で動かして振り下ろし、指部20A3が仮想操作面ARに接触した状態で停止した場面を想定する。操作制御部30Fは、検出部30Bによる検出結果を解析することで、仮想操作面管理情報32Bに記憶されている仮想操作面情報によって特定される仮想操作面ARにユーザ20の指部20A3が接触したことを判定すると、機器14に対する操作開始を判定する。
【0110】
また、操作制御部30Fは、該指部20A3の接触した仮想操作面ARを、機器14の操作に用いる仮想操作面ARとして特定する。このため、ユーザ20が実空間Sに対して任意の動作を行うことで、仮想操作面管理情報32Bに登録されている1または複数の仮想操作面情報によって特定される複数の仮想操作面ARの内、ユーザ20の指部20A3の接触を判定された1または複数の仮想操作面ARが、機器14の操作に用いる仮想操作面ARとして特定される。また、上記と同様に、操作制御部30Fは、検出部30Bによる検出結果を解析することで、ユーザ20が支点Fとしている身体の部位を特定する。
【0111】
そして、操作制御部30Fは、特定した機器14の操作に用いる仮想操作面ARとユーザ20の指部20A3の動作態様に応じた操作を機器14に対して実行する。
【0112】
詳細には、操作制御部30Fは、ユーザ20の指部20A3が仮想操作面ARに接触した状態で停止したときに、タッチダウン操作がなされたと判定する。また、操作制御部30Fは、検出部30Bによって検出された、仮想操作面ARに接触した状態で停止した指部20A3の実空間Sにおける3D位置座標を、機器14の操作受付面14Aに対する操作位置Lとして特定する。詳細には、操作制御部30Fは、該指部20A3の実空間Sにおける3D位置座標を2D座標変換部30Eにより変換した2D位置座標を、操作受付面14A上の操作位置Lとして特定する。
【0113】
そして、操作制御部30Fは、操作受付面14Aにおける特定した操作位置Lに対するダッチダウン操作に応じた操作を、機器14に対して実行する。
【0114】
また、例えば、ユーザ20が肘部20A1を支点Fとして手首部20A2および指部20A3を動かし、指部20A3の仮想操作面ARへの接触状態が解除された場面を想定する。この場合、操作制御部30Fは、タッチアップ操作がなされたと判定する。そして、操作制御部30Fは、操作受付面14Aにおける上記特定した操作位置Lに対するタッチアップ操作に応じた操作を、機器14に対して実行する。
【0115】
図8Bは、ユーザ20の手首部20A2および指部20A3が仮想操作面ARを通過した状態で手首部20A2および指部20A3を伸ばすまたは手首部20A2および指部20A3を縮ませる動作を行った場合の、操作制御部30Fによる操作実行処理の一例の説明図である。
【0116】
図8Bに示すように、例えば、ユーザ20が肘部20A1を支点Fとして肘部20A1より指部20A3側を一定速度以上で動かし、指部20A3が仮想操作面ARを通過した状態で、手首部20A2および指部20A3を伸ばす動作を行った場面を想定する。
【0117】
操作制御部30Fは、検出部30Bによる検出結果を解析することで、仮想操作面管理情報32Bに記憶されている仮想操作面情報によって特定される仮想操作面ARをユーザ20の手首部20A2および指部20A3が通過したことを判定すると、機器14に対する操作開始を判定する。
【0118】
また、上記と同様に、操作制御部30Fは、該手首部20A2および指部20A3の通過した仮想操作面ARを、機器14の操作に用いる仮想操作面ARとして特定する。また、上記と同様に、操作制御部30Fは、ユーザ20が支点Fとしている身体の部位を特定する。そして、操作制御部30Fは、ユーザ20の、特定した仮想操作面ARおよび仮想操作面ARより機器14側に位置されている指部20A3の動作態様に応じた操作を機器14に対して実行する。
【0119】
詳細には、操作制御部30Fは、ユーザ20の手首部20A2および指部20A3が仮想操作面ARを通過した状態で、これらの手首部20A2および指部20A3を伸ばす動作が行われた時に、タッチダウン操作がなされたと判定する。操作制御部30Fは、検出部30Bによる検出結果を用いて、手首部20A2および指部20A3の関節角度を監視し、これらの関節角度が手首部20A2および指部20A3が伸びていると判別するための閾値以上である場合、手首部20A2および指部20A3を伸ばす動作が行われたと判定すればよい。また、操作制御部30Fは、検出部30Bによって検出された、仮想操作面ARを通過した状態で伸ばされた状態の指部20A3の実空間Sにおける3D位置座標を、機器14の操作受付面14Aに対する操作位置Lとして特定する。詳細には、操作制御部30Fは、該指部20A3の実空間Sにおける3D位置座標を2D座標変換部30Eにより変換した2D位置座標を、操作受付面14A上の操作位置Lとして特定する。
【0120】
そして、操作制御部30Fは、操作受付面14Aにおける特定した操作位置Lに対するダッチダウン操作に応じた操作を、機器14に対して実行する。
【0121】
また、例えば、ユーザ20の手首部20A2および指部20A3が仮想操作面ARを通過した状態で縮められた場面を想定する。操作制御部30Fは、検出部30Bによる検出結果を用いて、手首部20A2および指部20A3の関節角度を監視し、これらの関節角度が手首部20A2および指部20A3が縮められたと判別するための閾値未満である場合、手首部20A2および指部20A3を縮める動作が行われたと判定すればよい。
【0122】
この場合、操作制御部30Fは、タッチアップ操作がなされたと判定する。そして、操作制御部30Fは、操作受付面14Aにおける上記特定した操作位置Lに対するタッチアップ操作に応じた操作を、機器14に対して実行する。
【0123】
図9A図9Eは、椅子16等に着座した状態のユーザ20が手首部20A2を支点Fとして仮想操作面ARに対して操作を行う場合の一例の説明図である。
【0124】
図9Aは、ユーザ20が手首部20A2を支点Fとして仮想操作面ARに接触または接触を解除する動作による、操作制御部30Fによる操作実行処理の一例の説明図である。
【0125】
図9Aに示すように、例えば、ユーザ20が手首部20A2を支点Fとして手首部20A2より指部20A3側を動かし、仮想操作面ARに接触した場面を想定する。操作制御部30Fは、検出部30Bによる検出結果を解析することで、仮想操作面管理情報32Bに記憶されている仮想操作面情報によって特定される仮想操作面ARにユーザ20の指部20A3が接触したことを判定すると、機器14に対する操作開始を判定する。
【0126】
また、操作制御部30Fは、該指部20A3の接触した仮想操作面ARを、機器14の操作に用いる仮想操作面ARとして特定する。また、上記と同様に、操作制御部30Fは、検出部30Bによる検出結果を解析することで、ユーザ20が支点Fとしている身体の部位を特定する。ここでは、操作制御部30Fが手首部20A2を支点Fとして特定した場面を想定する。
【0127】
そして、操作制御部30Fは、ユーザ20の指部20A3が仮想操作面ARに接触したときに、タッチダウン操作がなされたと判定する。また、操作制御部30Fは、検出部30Bによって検出された、仮想操作面ARに接触した指部20A3の実空間Sにおける3D位置座標を、機器14の操作受付面14Aに対する操作位置Lとして特定する。
【0128】
そして、操作制御部30Fは、操作受付面14Aにおける特定した操作位置Lに対するダッチダウン操作に応じた操作を、機器14に対して実行する。
【0129】
また、例えば、ユーザ20が手首部20A2を支点Fとして手首部20A2より指部20A3側の部分を縮ませ、指部20A3が仮想操作面ARへの接触状態から解除された場面を想定する。この場合、操作制御部30Fは、タッチアップ操作がなされたと判定する。そして、操作制御部30Fは、操作受付面14Aにおける上記特定した操作位置Lに対するタッチアップ操作に応じた操作を、機器14に対して実行する。
【0130】
図9Bは、ユーザ20が手首部20A2を支点Fとして仮想操作面ARを指部20A3が通過した状態または通過した状態を解除する動作による、操作制御部30Fによる操作実行処理の一例の説明図である。
【0131】
図9Bに示すように、例えば、ユーザ20が手首部20A2を支点Fとして手首部20A2より指部20A3側を動かし、指部20A3が仮想操作面ARを通過した場面を想定する。操作制御部30Fは、検出部30Bによる検出結果を解析することで、仮想操作面管理情報32Bに記憶されている仮想操作面情報によって特定される仮想操作面ARをユーザ20の指部20A3が通過したことを判定すると、機器14に対する操作開始を判定する。
【0132】
また、操作制御部30Fは、該指部20A3の通過した仮想操作面ARを、機器14の操作に用いる仮想操作面ARとして特定する。また、上記と同様に、操作制御部30Fは、検出部30Bによる検出結果を解析することで、ユーザ20が支点Fとしている身体の部位を特定する。ここでは、操作制御部30Fが手首部20A2を支点Fとして特定した場面を想定する。
【0133】
そして、操作制御部30Fは、ユーザ20の指部20A3が仮想操作面ARを通過した状態で、手首部20A2および指部20A3を伸ばす動作が行われた時に、タッチダウン操作がなされたと判定する。操作制御部30Fは、検出部30Bによる検出結果を用いて、手首部20A2および指部20A3の関節角度を監視し、これらの関節角度が手首部20A2および指部20A3が伸びていると判別するための閾値以上である場合、手首部20A2および指部20A3を伸ばす動作が行われたと判定すればよい。また、操作制御部30Fは、検出部30Bによって検出された、仮想操作面ARを通過した状態で伸ばされた状態の指部20A3の実空間Sにおける3D位置座標を、機器14の操作受付面14Aに対する操作位置Lとして特定する。詳細には、操作制御部30Fは、該指部20A3の実空間Sにおける3D位置座標を2D座標変換部30Eにより変換した2D位置座標を、操作受付面14A上の操作位置Lとして特定する。
【0134】
そして、操作制御部30Fは、操作受付面14Aにおける特定した操作位置Lに対するダッチダウン操作に応じた操作を、機器14に対して実行する。
【0135】
また、例えば、ユーザ20の指部20A3が仮想操作面ARを通過した状態で縮められた場面を想定する。操作制御部30Fは、検出部30Bによる検出結果を用いて、手首部20A2および指部20A3の関節角度を監視し、これらの関節角度が指部20A3の縮められた動作と判別するための閾値未満である場合、指部20A3を縮める動作が行われたと判定すればよい。
【0136】
この場合、操作制御部30Fは、タッチアップ操作がなされたと判定する。そして、操作制御部30Fは、操作受付面14Aにおける上記特定した操作位置Lに対するタッチアップ操作に応じた操作を、機器14に対して実行する。
【0137】
図9Cは、ユーザ20が手首部20A2を支点Fとして仮想操作面ARを指部20A3が通過した状態または指部20A3を振り上げる動作による、操作制御部30Fによる操作実行処理の一例の説明図である。
【0138】
ユーザ20が手首部20A2を支点Fとし、指部20A3側を一定速度以上で動かして振り下ろし、指部20A3が仮想操作面ARを通過した状態で停止した場面を想定する。操作制御部30Fは、検出部30Bによる検出結果を解析することで、仮想操作面管理情報32Bに記憶されている仮想操作面情報によって特定される仮想操作面ARをユーザ20の指部20A3が通過したことを判定すると、機器14に対する操作開始を判定する。
【0139】
また、操作制御部30Fは、該指部20A3の通過した仮想操作面ARを、機器14の操作に用いる仮想操作面ARとして特定する。また、操作制御部30Fは、上記と同様にして、ユーザ20が支点Fとしている身体の部位を特定する。ここでは、検出部30Bが手首部20A2を支点Fとして特定した場面を想定する。
【0140】
そして、操作制御部30Fは、ユーザ20の指部20A3が仮想操作面ARを通過した状態で停止したときに、タッチダウン操作がなされたと判定する。また、操作制御部30Fは、検出部30Bによって検出された、仮想操作面ARを通過した状態で停止した指部20A3の実空間Sにおける3D位置座標を、機器14の操作受付面14Aに対する操作位置Lとして特定する。詳細には、操作制御部30Fは、該指部20A3の実空間Sにおける3D位置座標を2D座標変換部30Eにより変換した2D位置座標を、操作受付面14A上の操作位置Lとして特定する。
【0141】
そして、操作制御部30Fは、操作受付面14Aにおける特定した操作位置Lに対するダッチダウン操作に応じた操作を、機器14に対して実行する。
【0142】
また、例えば、ユーザ20が手首部20A2を支点Fとして手首部20A2および指部20A3を動かして指部20A3Bを振り上げた場面を想定する。この場合、操作制御部30Fは、タッチアップ操作がなされたと判定する。そして、操作制御部30Fは、操作受付面14Aにおける上記特定した操作位置Lに対するタッチアップ操作に応じた操作を、機器14に対して実行する。
【0143】
図9Dは、ユーザ20の指部20A3が仮想操作面ARを通過した状態で摘み動作を行った場合の、操作制御部30Fによる操作実行処理の一例の説明図である。
【0144】
図9Dに示すように、例えば、ユーザ20が手首部20A2を支点Fとして指部20A3を一定速度以上で動かし、指部20A3が仮想操作面ARを通過した状態で仮想物体を摘まむような摘み動作を行った場面を想定する。
【0145】
操作制御部30Fは、検出部30Bによる検出結果を解析することで、仮想操作面管理情報32Bに記憶されている仮想操作面情報によって特定される仮想操作面ARをユーザ20の指部20A3が通過したことを判定すると、機器14に対する操作開始を判定する。
【0146】
また、上記と同様に、操作制御部30Fは、該指部20A3の通過した仮想操作面ARを、機器14の操作に用いる仮想操作面ARとして特定する。また、上記と同様に、操作制御部30Fは、ユーザ20が支点Fとしている身体の部位を特定する。そして、操作制御部30Fは、特定した機器14の操作に用いる仮想操作面ARとユーザ20の、仮想操作面ARおよび仮想操作面ARより機器14側に位置されている指部20A3の動作態様に応じた操作を機器14に対して実行する。
【0147】
詳細には、操作制御部30Fは、ユーザ20の指部20A3が仮想操作面ARを通過した状態で摘み動作を行った時に、タッチダウン操作がなされたと判定する。操作制御部30Fは、検出部30Bによる検出結果を用いて摘み動作を行ったか否かを判定すればよい。また、操作制御部30Fは、検出部30Bによって検出された、仮想操作面ARを通過した状態で指部20A3による摘み動作の行われた地点の実空間Sにおける3D位置座標を、機器14の操作受付面14Aに対する操作位置Lとして特定する。詳細には、操作制御部30Fは、該指部20A3の実空間Sにおける3D位置座標を2D座標変換部30Eにより変換した2D位置座標を、操作受付面14A上の操作位置Lとして特定する。
【0148】
そして、操作制御部30Fは、操作受付面14Aにおける特定した操作位置Lに対するダッチダウン操作に応じた操作を、機器14に対して実行する。
【0149】
また、例えば、ユーザ20の指部20A3が仮想操作面ARを通過した状態で指を開き、摘み動作が解除された場面を想定する。この場合、操作制御部30Fは、タッチアップ操作がなされたと判定する。そして、操作制御部30Fは、操作受付面14Aにおける上記特定した操作位置Lに対するタッチアップ操作に応じた操作を、機器14に対して実行する。
【0150】
図9Eは、操作制御部30Fが、機器14の操作に用いる仮想操作面ARとして特定した仮想操作面ARの位置をユーザ20の肘部20A1側に再設定し、ユーザ20の指部20A3が仮想操作面ARを通過した状態で摘み動作を行った場合の、操作制御部30Fによる操作実行処理の一例の説明図である。
【0151】
図9Eに示すように、例えば、操作制御部30Fは、仮想操作面ARを受付けた設定位置よりユーザ20の肘部20A1側に再設定する。図9Eには、指部20A3の先端部に相当する位置に配置されていた仮想操作面ARが手首部20A2側の位置に再設定された状態を一例として示す。
【0152】
そして、例えば、ユーザ20が手首部20A2を支点Fとして指部20A3を一定速度以上で動かし、指部20A3が再設定された仮想操作面ARを通過した状態で仮想物体を摘まむような摘み動作を行った場面を想定する。
【0153】
操作制御部30Fは、検出部30Bによる検出結果を解析することで、仮想操作面管理情報32Bに記憶されている仮想操作面情報によって特定される仮想操作面ARをユーザ20の指部20A3が通過したことを判定すると、機器14に対する操作開始を判定する。
【0154】
また、上記と同様に、操作制御部30Fは、該指部20A3の通過した仮想操作面ARを、機器14の操作に用いる仮想操作面ARとして特定する。また、上記と同様に、操作制御部30Fは、ユーザ20が支点Fとしている身体の部位を特定する。そして、操作制御部30Fは、ユーザ20の、特定した仮想操作面ARおよび仮想操作面ARより機器14側に位置されている指部20A3の動作態様に応じた操作を機器14に対して実行する。
【0155】
詳細には、操作制御部30Fは、ユーザ20の指部20A3が仮想操作面ARを通過した状態で摘み動作を行った時に、タッチダウン操作がなされたと判定する。操作制御部30Fは、検出部30Bによる検出結果を用いて摘み動作を行ったか否かを判定すればよい。また、操作制御部30Fは、検出部30Bによって検出された、仮想操作面ARを通過した状態で指部20A3による摘み動作の行われた地点の実空間Sにおける3D位置座標を、機器14の操作受付面14Aに対する操作位置Lとして特定する。詳細には、操作制御部30Fは、該指部20A3の実空間Sにおける3D位置座標を2D座標変換部30Eにより変換した2D位置座標を、操作受付面14A上の操作位置Lとして特定する。
【0156】
そして、操作制御部30Fは、操作受付面14Aにおける特定した操作位置Lに対するダッチダウン操作に応じた操作を、機器14に対して実行する。
【0157】
また、例えば、ユーザ20の指部20A3が仮想操作面ARを通過した状態で指を開き、摘み動作が解除された場面を想定する。この場合、操作制御部30Fは、タッチアップ操作がなされたと判定する。そして、操作制御部30Fは、操作受付面14Aにおける上記特定した操作位置Lに対するタッチアップ操作に応じた操作を、機器14に対して実行する。
【0158】
なお、図7B図7C図9D、および図9E等を用いて説明した摘み動作に基づく判定はあくまでも一例であり、機器14に対する処理内容を表すユーザ20の動作は、摘み動作に限定されない。例えば、操作制御部30Fは、ユーザ20の指部20A3の上下やユーザ20によるその他のハンドジェスチャ等の動作に基づいて、タッチアップ、タッチダウン、などの処理内容を表す操作がなされたと判定してもよい。この場合、例えば、記憶部32は、ユーザ20の動作を表す動作情報と、該動作情報によって表される処理内容と、を対応付けて予め記憶すればよい。処理内容は、上述したように、例えば、タッチダウン、タッチアップ、フリック、ドラッグ等であるがこれらに限定されない。そして、操作制御部30Fは、検出部30Bによる検出結果によって表される動作の動作情報に対応する処理内容を記憶部32から特定することで、該処理内容によって表される操作がなされたと判定すればよい。そして、操作制御部30Fは、判定した操作を機器14に対して実行すればよい。
【0159】
図7A図9Eを用いて説明したように操作制御部30Fは、ユーザ20の予め定められた身体の部位が仮想操作面ARに接触または仮想操作面ARの通過を判定したときに、機器14に対する操作開始を判定し、操作開始の判定後の身体の部位の動作態様に応じた操作を機器14に対して実行する。
【0160】
ここで、仮想操作面ARに対して操作中のユーザ20の腕部20Aが動かされ、支点F位置が移動する場合がある。そこで、操作制御部30Fは、仮想操作面ARに対応するユーザ20の支点Fとする特定部位の移動を検出したときに、支点Fの移動に応じた位置姿勢に仮想操作面ARを再設定することが好ましい。
【0161】
図10Aは、肘部20A1を支点Fとして設定された仮想操作面ARに対するユーザ20の操作時に、ユーザ20の支点Fとする肘部20A1の位置が支点F’の位置に移動した場面の一例の説明図である。
【0162】
この場合、操作制御部30Fは、ユーザ20の特定部位である支点Fの移動に応じて、移動前の支点Fから移動後の支点F’への各支点Fの支点位置情報によって特定される支点Fの位置移動に追従させて、機器14に対する仮想操作面ARとして特定した仮想操作面ARの実空間Sにおける位置姿勢を移動変更することで、仮想操作面ARを再設定する。図10Aには、支点Fから支点F’への支点Fの水平移動に応じて仮想操作面ARを水平移動させた後の仮想操作面AR’を、仮想操作面ARとして用いる場面の一例の説明図である。
【0163】
図10Bは、手首部20A2を支点Fとして設定された仮想操作面ARに対するユーザ20の操作時に、ユーザ20の支点Fとする手首部20A2の位置が移動した場面の一例の説明図である。
【0164】
この場合、操作制御部30Fは、ユーザ20の特定部位である支点Fの移動に応じて、該支点Fの支点位置情報によって特定される支点Fの位置移動に追従させて、機器14に対する仮想操作面ARとして特定した仮想操作面ARの実空間Sにおける位置姿勢を移動変更することで、仮想操作面ARを再設定する。図10Bには、支点Fから支点F’への水平方向に対して交差する方向への移動に応じて仮想操作面ARを移動させた後の仮想操作面AR’を、仮想操作面ARとして用いる場面の一例の説明図である。
【0165】
なお、操作制御部30Fは、支点Fの移動および姿勢の変動に追従させて、仮想操作面ARの実空間Sにおける位置および姿勢(角度)を変更し再設定すればよい。
【0166】
なお、図6A図6Cを用いて説明したように、複数の仮想操作面ARが設定される場合がある。この場合であっても、操作制御部30Fは、仮想操作面管理情報32Bに登録されている複数の仮想操作面情報の内、ユーザ20の腕部20Aが接触または通過したと判定した仮想操作面情報によって表される仮想操作面ARを用いて、上記操作実行処理を実行すればよい。すなわち、操作制御部30Fは、ユーザ20の身体の部位と複数の仮想操作面ARの各々との位置関係に基づいて、機器14を操作すればよい。
【0167】
このため、例えば、ユーザ20が右腕および左腕の双方などを用いて複数の仮想操作面ARに接触または通過した場合、操作制御部30Fは、これらの接触または通過を判定した複数の仮想操作面ARを、機器14に対する操作を受付けるための仮想操作面ARとして特定し、上記と同様にして操作処理を実行すればよい。
【0168】
次に、本実施形態の情報処理装置10が実行する情報処理の流れの一例を説明する。
【0169】
図11は、仮想操作面情報登録処理の流れの一例を示すフローチャートである。
【0170】
例えば、情報処理装置10は、仮想操作面設定開始指示を受付けると、図11に示す仮想操作面情報登録処理を実行する。例えば、情報処理装置10は、ユーザ20のジェスチャの撮影画像の解析、またはユーザ20による入力部18の操作指示によって仮想操作面設定開始指示の受付けを判断すると、図11に示す仮想操作面情報登録処理を実行する。なお、撮影部12は時系列に沿ってユーザ20を順次撮影し、撮影によって得られた撮影画像を順次画像取得部30Aへ出力するものとする。
【0171】
情報処理装置10の検出部30Bは、画像取得部30Aで取得した撮影画像に含まれる、ユーザ20の特定部位であるランドマークの検出を開始する(ステップS100)。検出部30Bは、ユーザ20の腕部20A、肘部20A1、手首部20A2、指部20A3、等のランドマークである特定部位の特定、および特定した特定部位の各々の実空間Sにおける3D位置座標の特定を開始する。
【0172】
受付部30Cは、仮想操作面ARの設定を受付ける(ステップS102)。例えば、ユーザ20は、ユーザ20の肘部20A1を支点Fとし、機器14の操作受付面14Aに応じた形状の仮想操作面ARを設定する。具体的には、上述したように、ユーザ20は、椅子16に着座した状態で肘部20A1または手首部20A2等を支点Fとして手首部20A2および指部20A3等を動かし、4つの頂点Pを実空間S上に指定する。これらの4つの頂点Pの指定を受付けることで、受付部30Cは、仮想操作面ARの設定を受付ける。
【0173】
受付部30Cは、決定指示を受付けたか否かを判断する(ステップS104)。受付部30Cは、ユーザ20による入力部18の操作指示、またはユーザ20による予め定められたジェスチャを判定したときに、決定指示を受付けたと判断する。ステップS104で否定判断すると(ステップS104:No)、上記ステップS102へ戻る。ステップS104で肯定判断すると(ステップS104:Yes)、ステップS106へ進む。
【0174】
ステップS106では、4つの頂点Pが設定済であるか否かを判断する(ステップS106)。ステップS106で否定判断すると(ステップS106:No)、上記ステップS102へ戻る。ステップS106で肯定判断すると(ステップS106:Yes)、ステップS108へ進む。
【0175】
ステップS108では、受付部30Cは、仮想操作面ARの設定の受付時に支点Fとされた支点位置情報を受付ける(ステップS108)。受付部30Cは、ユーザ20の身体の態様の解析により、ユーザ20の何れの部位が仮想操作面ARの設定の受付時に支点Fとされたかを判別してもよい。また、受付部30Cは、ユーザによる入力部18の操作指示によって入力された支点位置情報を受付けてもよい。
【0176】
そして、設定部30Dは、受付部30Cで受付けた仮想操作面ARの仮想操作面情報と、該仮想操作面ARの設定の受付時に支点Fとされた身体の部位および実空間Sにおける該部位の3D位置座標を表す支点位置情報と、を対応付けて仮想操作面管理情報32Bへ登録する(ステップS110)。そして、本ルーチンを終了する。
【0177】
図12は、操作実行処理の流れの一例を示すフローチャートである。
【0178】
例えば、情報処理装置10は、操作実行開始指示を受付けると、図12に示す操作実行処理を実行する。例えば、情報処理装置10は、ユーザ20のジェスチャの撮影画像の解析、またはユーザ20による入力部18の操作指示によって操作実行開始指示の受付けを判断すると、図12に示す操作実行処理を実行する。なお、撮影部12は時系列に沿ってユーザ20を順次撮影し、撮影によって得られた撮影画像を順次画像取得部30Aへ出力するものとする。
【0179】
情報処理装置10の検出部30Bは、画像取得部30Aで取得した撮影画像に含まれる、ユーザ20の特定部位であるランドマークの検出を開始する(ステップS200)。検出部30Bは、ユーザ20の腕部20A、肘部20A1、手首部20A2、指部20A3、等のランドマークである特定部位の特定、および特定した特定部位の各々の実空間Sにおける3D位置座標の特定を開始する。
【0180】
操作制御部30Fは、ユーザ20の手首部20A2、指部20A3、等の予め定められた身体の部位が仮想操作面ARに接触または仮想操作面ARの通過を判定したときに、機器14に対する操作開始を判定する(ステップS202)。
【0181】
また、操作制御部30Fは、ステップS202の操作開始の判定の用いた仮想操作面ARを、機器14の操作に用いる仮想操作面ARとして特定する(ステップS204)。
【0182】
そして、操作制御部30Fは、ユーザ20の、ステップS204で特定した仮想操作面ARおよび仮想操作面ARより機器14側に位置されている腕部20Aの動作態様に応じた操作を特定する(ステップS206)。腕部20Aの動作態様は、上述したように、仮想操作面ARへの接触、接触解除、指部20A3の摘み動作、摘み動作の解除、指部20A3を縮める動作、縮める動作の解除、などである。操作制御部30Fは、例えば、複数種類の動作態様の各々に対応する操作を表す操作情報を予め記憶し、判定した動作態様に対応する操作情報を読み取ることで、該操作情報によって表される操作を特定すればよい。
【0183】
そして、操作制御部30Fは、ステップS206で特定した操作を機器14に対して実行する(ステップS208)。
【0184】
次に、情報処理装置10は、操作を終了するか否かを判断する(ステップS210)。例えば、情報処理装置10は、ユーザ20による入力部18の操作指示またはユーザ20のジェスチャにより操作終了が指示されたか否かを判断する。ステップS210で否定判断すると(ステップS210:No)、上記ステップS206へ戻る。ステップS210で肯定判断すると(ステップS210:Yes)、本ルーチンを終了する。
【0185】
以上説明したように、本実施形態の情報処理装置10は、受付部30Cと、操作制御部30Fと、を備える。受付部30Cは、機器14に対する操作の判定に用いるための仮想操作面ARの設定を受付ける。操作制御部30Fは、ユーザ20の身体の部位と仮想操作面ARとの位置関係に基づいて機器14を操作する。
【0186】
ここで、機器14に対する操作はユーザ20にとって操作容易であることが望まれる。例えば、ユーザ20の目と指先とを通る直線と機器14の操作受付面14Aとの交点を操作受付面14Aの操作位置とすることが考えられる。しかしながら、ユーザ20が脇を締めた状態や肘置部16Aに肘部20A1を置いた状態など、身体の一部を固定した楽な姿勢で操作を行う場合、指先の可動範囲が限定される。このため、従来技術では、ユーザ20の目と指先とを通る直線と機器14の操作受付面14Aとの交点の取りうる範囲が限定され、機器14を容易に操作することは困難となる場合があった。
【0187】
一方、本実施形態の情報処理装置10では、受付部30Cが、機器14に対する操作の判定に用いるための仮想操作面ARのユーザ20による設定を受付ける。このため、ユーザ20は、自身の操作しやすい身体の状態で任意の仮想操作面ARを実空間S上に設定することができる。例えば、椅子16等に着座したユーザ20は、腕部20A等を肘置部16Aに載置した疲労し難い楽な任意の姿勢で操作可能となるように、所望の仮想操作面ARを実空間S上に設定することができる。そして、操作制御部30Fは、ユーザ20の身体の部位と仮想操作面ARとの位置関係に基づいて機器14を操作する。
【0188】
このため、本実施形態の情報処理装置10は、実空間S上の任意の領域に設定されたユーザ20にとって操作容易な限定された操作領域を、機器14に対する操作の判定に用いるための仮想操作面ARとして設定することができる。よって、ユーザ20は、実空間Sにおける限定された操作領域である仮想操作面ARを操作することで、機器14を容易に操作することが可能となる。
【0189】
従って、本実施形態の情報処理装置10は、仮想操作面ARに対する操作を容易とすることができる。
【0190】
また、本実施形態の情報処理装置10の受付部30Cは、ユーザ20の腕部20Aにおける所定部位を支点Fとし該腕部20Aにおける該所定部位より指部20A3側の部位を動かすことで設定された範囲の領域を、仮想操作面ARの設定として受付けることができる。また、受付部30Cは、実空間Sにおける肘置部16Aなどの部材の表面の仮想操作面ARの設定を受付けることができる。
【0191】
このため、本実施形態の情報処理装置10は、ユーザ20によって実空間S上の任意の領域に設定されたユーザ20にとって操作容易な限定された操作領域を、機器14に対する操作の判定に用いるための仮想操作面ARとして設定することができる。
【0192】
よって、本実施形態の情報処理装置10は、上記効果に加えて、ユーザ20の楽な姿勢による仮想操作面ARに対する操作、およびユーザ20の疲労軽減を図るとすることができる。
【0193】
なお、本技術は以下のような構成も取ることができる。
(1)
機器に対する操作の判定に用いるための仮想操作面の設定を受付ける受付部と、
ユーザの身体の部位と前記仮想操作面との位置関係に基づいて前記機器を操作する操作制御部と、
を備える情報処理装置。
(2)
前記受付部は、
前記機器の操作受付面に応じた形状の前記仮想操作面の設定を受付ける、
(1)に記載の情報処理装置。
(3)
前記受付部は、
ユーザの腕部における所定部位を支点として前記腕部における前記所定部位より指部側の部位を動かすことで設定された範囲の領域を、前記仮想操作面の設定として受付ける、
(1)または(2)に記載の情報処理装置。
(4)
前記受付部は、
実空間における部材の表面の前記仮想操作面の設定を受付ける、
(1)~(3)の何れか1つに記載の情報処理装置。
(5)
前記受付部は、
平面状または曲面状の前記仮想操作面の設定を受付ける、
(1)~(4)の何れか1つに記載の情報処理装置。
(6)
前記仮想操作面の設定の受付時に支点とされた支点位置情報と、前記仮想操作面を表す前記仮想操作面情報と、を対応付けて設定する設定部、
を備える(1)~(5)の何れか1つに記載の情報処理装置。
(7)
前記支点は、
ユーザの腕部における肘部および手首部の少なくとも一方である、
(6)に記載の情報処理装置。
(8)
ユーザの撮影画像を取得する画像取得部と、
前記撮影画像に基づいてユーザの身体の態様を検出する検出部と、
を備え、
前記操作制御部は、
ユーザの予め定められた身体の部位が前記仮想操作面に接触または前記仮想操作面の通過を判定したときに前記機器に対する操作開始を判定し、操作開始の判定後の身体の部位の動作態様に応じた操作を前記機器に対して実行する、
(1)~(7)の何れか1つに記載の情報処理装置。
(9)
前記操作制御部は、
前記仮想操作面を受付けた設定位置よりユーザの肘部側に再設定し、再設定した前記仮想操作面とユーザの身体の部位との位置関係に基づいて、前記機器を操作する、
(1)~(8)の何れか1つに記載の情報処理装置。
(10)
前記操作制御部は、
前記仮想操作面に対応するユーザの支点とする特定部位の移動を検出したときに、前記支点の移動に応じた位置姿勢に前記仮想操作面を再設定する、
(1)~(9)の何れか1つに記載の情報処理装置。
(11)
前記受付部は、
実空間における位置および範囲の少なくとも一方の異なる複数の前記仮想操作面の設定を受付ける、
(1)~(10)の何れか1つに記載の情報処理装置。
(12)
前記操作制御部は、
ユーザの身体の部位と複数の前記仮想操作面の各々との位置関係に基づいて前記機器を操作する、
(11)に記載の情報処理装置。
(13)
撮影部と、機器と、情報処理装置と、を備える情報処理システムであって、
前記情報処理装置は、
ユーザの撮影画像を前記撮影部から取得する画像取得部と、
前記撮影画像に基づいて前記ユーザの身体の態様を検出する検出部と、
前記機器に対する操作の判定に用いるための仮想操作面の設定を受付ける受付部と、
前記ユーザの身体の部位と前記仮想操作面との位置関係に基づいて前記機器を操作する操作制御部と、
を備える情報処理システム。
(14)
機器に対する操作の判定に用いるための仮想操作面の設定を受付けるステップと、
ユーザの身体の部位と前記仮想操作面との位置関係に基づいて前記機器を操作するステップと、
を含む情報処理方法。
【0194】
なお、上記には、実施形態を説明したが、上記実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。上記新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。上記実施形態は、発明の範囲または要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
【符号の説明】
【0195】
1 情報処理システム
10 情報処理装置
12 撮影部
30A 画像取得部
30B 検出部
30C 受付部
30D 設定部
30F 操作制御部
図1A
図1B
図2
図3
図4A
図4B
図5A
図5B
図6A
図6B
図6C
図7A
図7B
図7C
図8A
図8B
図9A
図9B
図9C
図9D
図9E
図10A
図10B
図11
図12