(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B1)
(11)【特許番号】
(24)【登録日】2022-11-24
(45)【発行日】2022-12-02
(54)【発明の名称】プログラム、情報処理装置及び方法
(51)【国際特許分類】
G06F 3/01 20060101AFI20221125BHJP
G06F 3/04817 20220101ALI20221125BHJP
G06T 19/00 20110101ALI20221125BHJP
【FI】
G06F3/01 570
G06F3/04817
G06T19/00 A
(21)【出願番号】P 2022039127
(22)【出願日】2022-03-14
【審査請求日】2022-04-04
【早期審査対象出願】
(73)【特許権者】
【識別番号】521239026
【氏名又は名称】mirrorX株式会社
(74)【代理人】
【識別番号】110002815
【氏名又は名称】IPTech弁理士法人
(72)【発明者】
【氏名】川▲崎▼ 剛
(72)【発明者】
【氏名】高木 翔一郎
【審査官】田川 泰宏
(56)【参考文献】
【文献】特表2016-503915(JP,A)
【文献】特開2013-257830(JP,A)
【文献】国際公開第2016/103769(WO,A1)
【文献】特開2011-003136(JP,A)
【文献】国際公開第2021/225044(WO,A1)
【文献】特開2017-211960(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
G06F 3/01
G06F 3/04817
G06T 19/00
(57)【特許請求の範囲】
【請求項1】
プロセッサと、メモリとを備えるコンピュータに実行させ、画面上に表示させる画像を生成するためのプログラムであって、
前記プログラムは、前記プロセッサに、
動いている人物をカメラで撮影した撮影画像を取得するステップと、
取得した前記撮影画像を解析し、解析結果に基づき前記人物の骨格情報を特定するステップと、
特定した前記骨格情報から前記人物の手の骨格情報を抽出するステップと、
前記画面上に、
前記人物の右手に対応し、前記画面上における位置を示す第1のポインタと、前記人物の左手に対応し、前記画面上における位置を示す第2のポインタと、を
それぞれ表示させるステップと、
前記画面上に、所定のアイコンを表示させるステップと、
抽出した前記人物の
右手及び左手の骨格情報に基づき、前記人物の
右手の動作に合わせて前記
第1のポインタを動かすように制御
し、前記人物の左手の動作に合わせて前記第2のポインタを動かすように制御するステップと、
前記
第1のポインタ及び前記第2のポインタの動作を検出し、前記第1のポインタまたは前記第2のポインタのいずれかが前記アイコンに接触すると、前記アイコンに関連付けられた機能を実行させず、前記第1のポインタ及び前記第2のポインタがともに前記アイコンに接触すると、前記アイコンに関連付けられた機能を実行させるステップと、を実行させる、プログラム。
【請求項2】
プロセッサと、メモリとを備えるコンピュータに実行させ、画面上に表示させる画像を生成するためのプログラムであって、
前記プログラムは、前記プロセッサに、
動いている人物をカメラで撮影した撮影画像を取得するステップと、
取得した前記撮影画像を解析し、解析結果に基づき前記人物の骨格情報を特定するステップと、
特定した前記骨格情報から前記人物の手の骨格情報を抽出するステップと、
前記画面上に、
前記人物の右手に対応し、前記画面上における位置を示す第1のポインタと、前記人物の左手に対応し、前記画面上における位置を示す第2のポインタと、を
それぞれ表示させるステップと、
前記画面上に、所定のアイコンを表示させるステップと、
抽出した前記人物の
右手及び左手の骨格情報に基づき、前記人物の
右手の動作に合わせて前記
第1のポインタを動かすように制御
し、前記人物の左手の動作に合わせて前記第2のポインタを動かすように制御するステップと、
前記
第1のポインタ及び前記第2のポインタの動作を検出し、前記第1のポインタ及び前記第2のポインタがともに上下左右方向に移動する動作を検出すると、前記画面上に表示されている前記画像を前記移動する方向へスクロールさせるステップと、を実行させる、プログラム。
【請求項3】
前記第1のポインタまたは前記第2のポインタのいずれかが前記アイコンに接触する動作を検出すると、前記アイコンを選択状態にし、
前記第1のポインタ及び前記第2のポインタがともに前記アイコンに接触する動作を検出すると、前記アイコンに関連付けられた機能を実行させる、
請求項1または請求項2に記載のプログラム。
【請求項4】
制御部と、記憶部とを備え、画面上に表示させる画像を生成する情報処理装置であって、
前記制御部は、
動いている人物をカメラで撮影した撮影画像を取得するステップと、
取得した前記撮影画像を解析し、解析結果に基づき前記人物の骨格情報を特定するステップと、
特定した前記骨格情報から前記人物の手の骨格情報を抽出するステップと、
前記画面上に、
前記人物の右手に対応し、前記画面上における位置を示す第1のポインタと、前記人物の左手に対応し、前記画面上における位置を示す第2のポインタと、を
それぞれ表示させるステップと、
前記画面上に、所定のアイコンを表示させるステップと、
抽出した前記人物の
右手及び左手の骨格情報に基づき、前記人物の
右手の動作に合わせて前記
第1のポインタを動かすように制御
し、前記人物の左手の動作に合わせて前記第2のポインタを動かすように制御するステップと、
前記
第1のポインタ及び前記第2のポインタの動作を検出し、前記第1のポインタまたは前記第2のポインタのいずれかが前記アイコンに接触すると、前記アイコンに関連付けられた機能を実行させず、前記第1のポインタ及び前記第2のポインタがともに前記アイコンに接触すると、前記アイコンに関連付けられた機能を実行させるステップと、を実行する、情報処理装置。
【請求項5】
制御部と、記憶部とを備え、画面上に表示させる画像を生成する情報処理装置であって、
前記制御部は、
動いている人物をカメラで撮影した撮影画像を取得するステップと、
取得した前記撮影画像を解析し、解析結果に基づき前記人物の骨格情報を特定するステップと、
特定した前記骨格情報から前記人物の手の骨格情報を抽出するステップと、
前記画面上に、
前記人物の右手に対応し、前記画面上における位置を示す第1のポインタと、前記人物の左手に対応し、前記画面上における位置を示す第2のポインタと、を
それぞれ表示させるステップと、
前記画面上に、所定のアイコンを表示させるステップと、
抽出した前記人物の
右手及び左手の骨格情報に基づき、前記人物の
右手の動作に合わせて前記
第1のポインタを動かすように制御
し、前記人物の左手の動作に合わせて前記第2のポインタを動かすように制御するステップと、
前記
第1のポインタ及び前記第2のポインタの動作を検出し、前記第1のポインタ及び前記第2のポインタがともに上下左右方向に移動する動作を検出すると、前記画面上に表示されている前記画像を前記移動する方向へスクロールさせるステップと、を実行する、情報処理装置。
【請求項6】
プロセッサと、メモリとを備えるコンピュータに実行され、画面上に表示させる画像を生成するための方法であって、
前記方法は、前記プロセッサが、
動いている人物をカメラで撮影した撮影画像を取得するステップと、
取得した前記撮影画像を解析し、解析結果に基づき前記人物の骨格情報を特定するステップと、
特定した前記骨格情報から前記人物の手の骨格情報を抽出するステップと、
前記画面上に、
前記人物の右手に対応し、前記画面上における位置を示す第1のポインタと、前記人物の左手に対応し、前記画面上における位置を示す第2のポインタと、を
それぞれ表示させるステップと、
前記画面上に、所定のアイコンを表示させるステップと、
抽出した前記人物の
右手及び左手の骨格情報に基づき、前記人物の
右手の動作に合わせて前記
第1のポインタを動かすように制御
し、前記人物の左手の動作に合わせて前記第2のポインタを動かすように制御するステップと、
前記
第1のポインタ及び前記第2のポインタの動作を検出し、前記第1のポインタまたは前記第2のポインタのいずれかが前記アイコンに接触すると、前記アイコンに関連付けられた機能を実行させず、前記第1のポインタ及び前記第2のポインタがともに前記アイコンに接触すると、前記アイコンに関連付けられた機能を実行させるステップと、を実行する、方法。
【請求項7】
プロセッサと、メモリとを備えるコンピュータに実行され、画面上に表示させる画像を生成するための方法であって、
前記方法は、前記プロセッサが、
動いている人物をカメラで撮影した撮影画像を取得するステップと、
取得した前記撮影画像を解析し、解析結果に基づき前記人物の骨格情報を特定するステップと、
特定した前記骨格情報から前記人物の手の骨格情報を抽出するステップと、
前記画面上に、
前記人物の右手に対応し、前記画面上における位置を示す第1のポインタと、前記人物の左手に対応し、前記画面上における位置を示す第2のポインタと、を
それぞれ表示させるステップと、
前記画面上に、所定のアイコンを表示させるステップと、
抽出した前記人物の
右手及び左手の骨格情報に基づき、前記人物の
右手の動作に合わせて前記
第1のポインタを動かすように制御
し、前記人物の左手の動作に合わせて前記第2のポインタを動かすように制御するステップと、
前記
第1のポインタ及び前記第2のポインタの動作を検出し、前記第1のポインタ及び前記第2のポインタがともに上下左右方向に移動する動作を検出すると、前記画面上に表示されている前記画像を前記移動する方向へスクロールさせるステップと、を実行する、方法。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、プログラム、情報処理装置及び方法に関する。
【背景技術】
【0002】
昨今、スマートフォン等の携帯端末が備えるカメラを利用して人物を撮影し、仮想空間において撮影された人物に関連付けられたキャラクタであるアバターを表示し、仮想空間上で各種サービスを提供することが行われている。このようなサービスは、実際の人物の外観を表示させずに各種サービスを提供するため、当該人物の外観を不特定のユーザに晒すことなく各種サービスの提供を受けることが可能であるため、一定のユーザにより利用されている。
【0003】
特許文献1には、ユーザーアカウントに関連したアバター情報および骨格情報に基づいて人物オブジェクトがアバターに代替された合成画像を生成する技術が開示されている。
【先行技術文献】
【特許文献】
【0004】
【発明の概要】
【発明が解決しようとする課題】
【0005】
ところで、仮想空間において、携帯端末で撮影された人物のアバターをリアルタイムで表示し、仮想空間上で各種サービスの提供を受ける場合、他の者により携帯端末を操作して当該各種サービスの提供を開始する、終了する等の操作をするか、当該人物が自身で操作する必要があった。そのため、このようなサービスの提供を受けるために煩わしい操作が必要となっていた。
【0006】
そこで、本開示では、仮想空間上で各種サービスの提供を受けるための操作を容易にする技術について説明する。
【課題を解決するための手段】
【0007】
本開示の一実施形態によると、プロセッサと、メモリとを備えるコンピュータに実行させ、画面上に表示させる画像を生成するためのプログラムが提供される。プログラムは、プロセッサに、動いている人物をカメラで撮影した撮影画像を取得するステップと、取得した撮影画像を解析し、解析結果に基づき人物の骨格情報を特定するステップと、特定した骨格情報から人物の手の骨格情報を抽出するステップと、画面上に、手を模した手画像を表示させるステップと、抽出した人物の手の骨格情報に基づき、人物の手の動作に合わせて手画像を動かすように制御するステップと、手画像の所定の動作を検出して当該所定の動作に関連付けられた機能を実行させるステップと、を実行させる。
【発明の効果】
【0008】
本開示によれば、撮影した人物の手の動作に合わせて手画像を動かすように制御し、手画像の所定の動作を検出して当該所定の動作に関連付けられた機能を実行させる。これにより、仮想空間上で各種サービスの提供を受けるための操作を容易にすることが可能になる。
【図面の簡単な説明】
【0009】
【
図1】本開示に係るアバターサービス提供システムの概略を示す構成図である。
【
図2】実施の形態1のアバターサービス提供システム1の全体の構成を示す構成図である。
【
図3】実施の形態1のアバターサービス提供システム1を構成する端末装置10の機能的な構成を示すブロック図である。
【
図4】実施の形態1のアバターサービス提供システム1を構成するサーバ20の機能的な構成を示すブロック図である。
【
図5】実施の形態1のアバターサービス提供システム1によるユーザ認証処理を行う流れの一例を示すフローチャートである。
【
図6】実施の形態1のアバターサービス提供システム1による手画像移動処理を行う流れの一例を示すフローチャートである。
【
図7】実施の形態1のアバターサービス提供システム1によるアイコン制御処理を行う流れの一例を示すフローチャートである。
【
図8】表示画面30に手画像31L,31Rが表示された画面例を示す図である。
【
図9】表示画面30に表示されたアイコン32が選択された画面例を示す図である。
【
図10】表示画面30に表示されたアイコン32が実行された画面例を示す図である。
【
図11】表示画面30に表示された手画像31L,31Rによる画面スクロールの画面例を示す図である。
【発明を実施するための形態】
【0010】
以下、図面を参照しつつ、本開示の実施の形態について説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称及び機能も同じである。従って、それらについての詳細な説明は繰り返さない。
【0011】
<概要>
以下、本開示に係るアバターサービス提供システムについて説明する。このアバターサービス提供システムは、スマートフォン等の携帯端末が備えるカメラを利用して人物を撮影し、仮想空間において撮影された人物に関連付けられたキャラクタであるアバターを表示し、仮想空間上で各種サービスを提供するするためのシステムである。仮想空間上で提供される各種サービスとは、例えば、アバターをユーザの動きにより操作して行うゲームのようなエンターテインメント、複数のアバターをそれぞれのユーザの動きにより表示させて行うオンラインフィットネスサービス、複数のアバターによるコミュニケーションサービス等が挙げられる。本開示に係るアバターサービス提供システムは、このようなユーザを投影したアバターを介して行う各種サービスを、例えばWebサービスとして提供するシステムであり、クラウドサーバ等によりWebサービスとして、いわゆるSaaS(Software as a Service)によって提供されるシステムである。または、アバターサービス提供システムは、このようなユーザを投影したアバターを介して行う各種サービスを、例えばスマートフォン等の携帯端末によって(Webサーバを介してもよく、介さなくてもよい)提供されるシステムである。
【0012】
図1は、本開示に係るアバターサービス提供システムの概略を示す構成図である。
図1に示すように、アバターサービス提供システムは、スマートフォン等の端末装置10と、表示画面30とを含む。端末装置10は、スマートフォン、タブレット等の携帯端末である。表示画面30は、ディスプレイ、テレビジョン、プロジェクタ等の画像表示装置であり、一定の離れた位置で見ることが可能な大きさに構成されている。端末装置10は、有線または無線の通信手段を介して表示画面30と通信可能に接続される。このときの通信手段の例は、例えば、USB(Universal Serial Bus)、HDMI(登録商標)(High Definition Multimedia Interface)等の規格による通信ケーブル、Miracast(登録商標)、WiDi、AirPlay(登録商標)等の規格による無線通信が挙げられるが、これらに限定されない。端末装置10のディスプレイ132には仮想空間が表示されており、端末装置10で人物Hを撮影すると、端末装置10のディスプレイ132に表示されている仮想空間上に、人物Hに関連付けられたキャラクタであるアバターAが表示される。このとき、例えば、端末装置10を横向きに撮影し、表示画面30のアスペクト比(縦横比)に近似するようにしてもよい。また、表示画面30にも、仮想空間とアバターAが表示される。アバターAは、人物Hの身体の動きに対応して動くように構成されており、アバターAの動きにより各種サービスが提供される。さらに、アバターAの情報はWebサーバ等により共有されてもよく、共有されている複数のアバターAが表示画面30に表示されて各種サービスが提供されてもよい。
【0013】
ここで、端末装置10で人物Hの身体の動きを撮影しようとすると、人物Hから一定の離隔した距離で撮影する必要がある。その状態で、各種サービスの提供を開始するためには端末装置10を操作する必要があり、人物Hが1人で行っている場合、人物Hが端末装置10の位置まで移動して端末装置10を操作し、各種サービスの提供を開始させ、さらに端末装置10から離隔した位置に戻る必要があり、人物Hにとって煩わしい操作が必要となっていた。
【0014】
そのため、本開示に係るアバターサービス提供システムでは、各種サービスの提供開始前の状態で、手を模した手画像を表示させて人物Hの手の動作に合わせて手画像を動かすように制御し、手画像の動作により各種サービスの提供を開始できるようにしている。例えば、表示画面30に各種サービスの提供を開始させるためのアイコンを表示させ、手画像の動作によりアイコンを選択し、実行させることが可能になるように構成している。そのため、人物Hは端末装置10の位置まで戻って操作する必要がなくなり、煩わしい操作を不要にしている。これにより、アバターサービス提供システムによる各種サービスの提供がスムーズに行われることを可能にしている。
【0015】
また、本開示に係るアバターサービス提供システムでは、手画像の動作により各種サービスを提供するためのメニュー画面を操作できるようにしている。具体的には、表示画面30に各種サービスの提供を開始するためのアイコンが複数表示され、1画面では表示しきれないような場合に2画面以上で表示させる場合があり、そのような場合に複数画面間でスクロールさせることを可能にしている。これにより、煩わしい操作を不要にし、アバターサービス提供システムによる各種サービスの提供がスムーズに行われることを可能にしている。
【0016】
<第1の実施の形態>
以下、アバターサービス提供システム1について説明する。以下の説明では、例えば、端末装置10がサーバ20へアクセスすることにより、サーバ20が、端末装置10で画面を生成するための情報を応答する。端末装置10は、サーバ20から受信した情報に基づいて画面を生成し表示する。
【0017】
<1 アバターサービス提供システム1の全体構成>
図2は、アバターサービス提供システム1の全体の構成を示す構成図である。
図2に示すように、アバターサービス提供システム1は、複数の端末装置(
図2では、端末装置10A及び端末装置10Bを示している。以下、総称して「端末装置10」ということもある)と、サーバ20とを含む。端末装置10とサーバ20とは、ネットワーク80を介して相互に通信可能に接続されている。ネットワーク80は、有線または無線ネットワークにより構成される。また、端末装置10は、
図1に示すように表示画面30と通信可能に接続されるが、
図2では図示を省略する。
【0018】
端末装置10は、各ユーザが操作する装置である。端末装置10は、移動体通信システムに対応したスマートフォン、タブレット等の携帯端末等により実現される。この他、端末装置10は、例えば持ち運び可能なノートPC(Personal Computer)、ラップトップPC、デスクトップPC、スマートTVであるとしてもよい。端末装置10を操作するユーザとは、アバターサービス提供システム1において仮想空間上にアバターを表示させて各種サービスの提供を受ける者であり、例えば、アバターサービス提供システム1に会員登録している者である。
【0019】
端末装置10は、ネットワーク80を介してサーバ20と通信可能に接続される。端末装置10は、4G、5G、LTE(Long Term Evolution)等の通信規格に対応した無線基地局81、IEEE(Institute of Electrical and Electronics Engineers)802.11等の無線LAN(Local Area Network)規格に対応した無線LANルータ82等の通信機器と通信することにより、ネットワーク80に接続される。
図2に端末装置10Bとして示すように、端末装置10は、通信IF(Interface)12と、入力装置13と、出力装置14と、メモリ15と、記憶部16と、プロセッサ19とを備える。
【0020】
通信IF12は、端末装置10が外部の装置と通信するため、信号を入出力するためのインタフェースである。入力装置13は、ユーザからの入力操作を受け付けるための入力装置(例えば、タッチパネルや、タッチパッド、キーボード、マウス等のポインティングデバイス等)である。出力装置14は、ユーザに対し情報を提示するための出力装置(ディスプレイ、スピーカ等)である。メモリ15は、プログラム、及び、プログラム等で処理されるデータ等を一時的に記憶するためのものであり、例えばDRAM(Dynamic Random Access Memory)等の揮発性のメモリである。記憶部16は、データを保存するための記憶装置であり、例えばフラッシュメモリ、HDD(Hard Disc Drive)である。プロセッサ19は、プログラムに記述された命令セットを実行するためのハードウェアであり、演算装置、レジスタ、周辺回路等により構成される。
【0021】
サーバ20は、ユーザから各種サービスの提供を受けるための入力を受け付け、仮想空間上にアバターを表示して仮想空間上で各種サービスを提供するサービスをWebサービスとして配信して提供する装置である。なお、アバターサービス提供システム1は、端末装置10のみで各種サービスを提供してもよく、この場合、サーバ20は必須の構成ではない。
【0022】
サーバ20は、ネットワーク80に接続されたコンピュータである。サーバ20は、通信IF22と、入出力IF23と、メモリ25と、ストレージ26と、プロセッサ29とを備える。
【0023】
通信IF22は、サーバ20が外部の装置と通信するため、信号を入出力するためのインタフェースである。入出力IF23は、ユーザからの入力操作を受け付けるための入力装置、及び、ユーザに対し情報を提示するための出力装置とのインタフェースとして機能する。メモリ25は、プログラム、及び、プログラム等で処理されるデータ等を一時的に記憶するためのものであり、例えばDRAM(Dynamic Random Access Memory)等の揮発性のメモリである。ストレージ26は、データを保存するための記憶装置であり、例えばフラッシュメモリ、HDD(Hard Disc Drive)である。プロセッサ29は、プログラムに記述された命令セットを実行するためのハードウェアであり、演算装置、レジスタ、周辺回路等により構成される。
【0024】
<1.1 端末装置10の構成>
図3は、実施の形態1のアバターサービス提供システム1を構成する端末装置10の機能的な構成を示すブロック図である。
図3に示すように、端末装置10は、複数のアンテナ(アンテナ111、アンテナ112)と、各アンテナに対応する無線通信部(第1無線通信部121、第2無線通信部122)と、操作受付部130(タッチ・センシティブ・デバイス131及びディスプレイ132を含む)と、音声処理部140と、マイク141と、スピーカ142と、位置情報センサ150と、カメラ160と、記憶部170と、制御部180とを含む。端末装置10は、
図3では特に図示していない機能及び構成(例えば、電力を保持するためのバッテリー、バッテリーから各回路への電力の供給を制御する電力供給回路等)も有している。
図3に示すように、端末装置10に含まれる各ブロックは、バス等により電気的に接続される。
【0025】
アンテナ111は、端末装置10が発する信号を電波として放射する。また、アンテナ111は、空間から電波を受信して受信信号を第1無線通信部121へ与える。
【0026】
アンテナ112は、端末装置10が発する信号を電波として放射する。また、アンテナ112は、空間から電波を受信して受信信号を第2無線通信部122へ与える。
【0027】
第1無線通信部121は、端末装置10が他の無線機器と通信するため、アンテナ111を介して信号を送受信するための変復調処理等を行う。第2無線通信部122は、端末装置10が他の無線機器と通信するため、アンテナ112を介して信号を送受信するための変復調処理等を行う。第1無線通信部121と第2無線通信部122とは、チューナー、RSSI(Received Signal Strength Indicator)算出回路、CRC(Cyclic Redundancy Check)算出回路、高周波回路等を含む通信モジュールである。第1無線通信部121と第2無線通信部122とは、端末装置10が送受信する無線信号の変復調や周波数変換を行い、受信信号を制御部180へ与える。
【0028】
操作受付部130は、ユーザの入力操作を受け付けるための機構を有する。具体的には、操作受付部130は、タッチスクリーンとして構成され、タッチ・センシティブ・デバイス131と、ディスプレイ132とを含む。なお、操作受付部130は、例えばキーボードやマウス等により構成してもよい。
【0029】
タッチ・センシティブ・デバイス131は、端末装置10のユーザの入力操作を受け付ける。タッチ・センシティブ・デバイス131は、例えば静電容量方式のタッチパネルを用いることによって、タッチパネルに対するユーザの接触位置を検出する。タッチ・センシティブ・デバイス131は、タッチパネルにより検出したユーザの接触位置を示す信号を入力操作として制御部180へ出力する。
【0030】
ディスプレイ132は、制御部180の制御に応じて、画像、動画、テキストなどのデータを表示する。ディスプレイ132は、例えばLCD(Liquid Crystal Display)や有機EL(Electro-Luminescence)ディスプレイによって実現される。
【0031】
音声処理部140は、音声信号の変復調を行う。音声処理部140は、マイク141から与えられる信号を変調して、変調後の信号を制御部180へ与える。また、音声処理部140は、音声信号をスピーカ142へ与える。音声処理部140は、例えば音声処理用のプロセッサによって実現される。マイク141は、音声入力を受け付けて、当該音声入力に対応する音声信号を音声処理部140へ与える。スピーカ142は、音声処理部140から与えられる音声信号を音声に変換して当該音声を端末装置10の外部へ出力する。
【0032】
位置情報センサ150は、端末装置10の位置を検出するセンサであり、例えばGPS(Global Positioning System)モジュールである。GPSモジュールは、衛星測位システムで用いられる受信装置である。衛星測位システムでは、少なくとも3個または4個の衛星からの信号を受信し、受信した信号に基づいて、GPSモジュールが搭載される端末装置10の現在位置を検出する。
【0033】
カメラ160は、受光素子により光を受光して、撮影画像として出力するためのデバイスである。カメラ160は、例えば、カメラ160から撮影対象までの距離を検出できるデバイスである。
【0034】
記憶部170は、例えばフラッシュメモリ等により構成され、端末装置10が使用するデータ及びプログラムを記憶する。ある局面において、記憶部170は、ユーザ情報171を記憶する。
【0035】
ユーザ情報171は、端末装置10を使用してアバターサービス提供システム1の機能である、仮想空間上にアバターを表示させて各種サービスの提供を受けるユーザの情報である。ユーザの情報としては、ユーザを識別する情報(ユーザID)やパスワード、ユーザの氏名や名称、仮称等の情報、アバターの画像情報等が含まれる。
【0036】
制御部180は、記憶部170に記憶されるプログラムを読み込んで、プログラムに含まれる命令を実行することにより、端末装置10の動作を制御する。制御部180は、例えば予め端末装置10にインストールされているアプリケーションである。制御部180は、プログラムに従って動作することにより、入力操作受付部181と、送受信部182と、通知制御部183と、データ処理部184としての機能を発揮する。
【0037】
入力操作受付部181は、タッチ・センシティブ・デバイス131等の入力装置に対するユーザの入力操作を受け付ける処理を行う。入力操作受付部181は、タッチ・センシティブ・デバイス131に対してユーザが自己の指等を接触させた座標の情報に基づき、ユーザの操作がフリック操作であるか、タップ操作であるか、ドラッグ(スワイプ)操作であるか等の操作の種別を判定する。また、入力操作受付部181は、マイク141からのユーザの音声を受け付ける処理を行う。
【0038】
送受信部182は、端末装置10が、サーバ20等の外部の装置と、通信プロトコルに従ってデータを送受信するための処理を行う。
【0039】
通知制御部183は、ユーザに対し情報を提示する処理を行う。通知制御部183は、表示画像をディスプレイ132に表示させる処理、音声をスピーカ142に出力させる処理等を行う。
【0040】
データ処理部184は、端末装置10が入力を受け付けたデータに対し、プログラムに従って演算を行い、演算結果をメモリ等に出力する処理を行う。
【0041】
また、データ処理部184は、端末装置10のプロセッサ19がプログラムに従って処理を行うことにより、各種モジュールとして、動いている人物をカメラで撮影した撮影画像を取得し、取得した撮影画像を解析して解析結果に基づき人物の骨格情報を特定し、特定した骨格情報から人物の手の骨格情報を抽出し、画面上に手を模した手画像を表示させ、抽出した人物の手の骨格情報に基づき人物の手の動作に合わせて手画像を動かすように制御し、手画像の所定の動作を検出して当該所定の動作に関連付けられた機能を実行させる機能を発揮する。さらに、データ処理部184は、所定のアイコンを表示させ、手画像のアイコンに対する所定の動作を検出すると、アイコンを選択状態にし、またはアイコンに関連付けられた機能を発揮するように構成してもよい。
【0042】
<1.2 サーバ20の機能的な構成>
図4は、実施の形態1のアバターサービス提供システム1を構成するサーバ20の機能的な構成を示すブロック図である。
図4に示すように、サーバ20は、通信部201と、記憶部202と、制御部203としての機能を発揮する。
【0043】
通信部201は、サーバ20が外部の装置と通信するための処理を行う。
【0044】
記憶部202は、サーバ20が使用するデータ及びプログラムを記憶する。記憶部202は、ユーザデータベース2021等を記憶する。
【0045】
ユーザデータベース2021は、アバターサービス提供システム1において、仮想空間上にアバターを表示させて各種サービスの提供を受けるユーザに関する情報を保持するためのデータベースである。ユーザに関する情報としては、ユーザを識別する情報(ユーザID)やパスワード、ユーザの氏名や名称、仮称等の情報、アバターの画像情報等が含まれる。
【0046】
制御部203は、サーバ20のプロセッサがプログラムに従って処理を行うことにより、各種モジュールとして受信制御モジュール2031、送信制御モジュール2032、ユーザ認証モジュール2033に示す機能を発揮する。
【0047】
受信制御モジュール2031は、サーバ20が外部の装置から通信プロトコルに従って信号を受信する処理を制御する。
【0048】
送信制御モジュール2032は、サーバ20が外部の装置に対し通信プロトコルに従って信号を送信する処理を制御する。
【0049】
ユーザ認証モジュール2033は、サーバ20にアクセスするユーザが正当なユーザであることを認証する処理を制御する。ユーザ認証モジュール2033によるユーザの認証は、例えば、ユーザIDが登録されていること、当該ユーザIDのパスワードとして登録されているパスワードと同一のパスワードが入力されたこと、等により行われる。
【0050】
<2 動作>
以下、
図5ないし
図7を参照しながら、第1の実施の形態におけるアバターサービス提供システム1によるユーザ認証処理、手画像移動処理、及びアイコン制御処理について説明する。
【0051】
図5は、実施の形態1のアバターサービス提供システム1によるユーザ認証処理を行う流れの一例を示すフローチャートである。なお、アバターサービス提供システム1は、端末装置10のみで各種サービスを提供してもよく、この場合、
図5に示すユーザ認証処理は行わなくてもよい。
【0052】
ステップS111において、端末装置10の入力操作受付部181は、ユーザの操作によりアバターサービス提供システム1の専用アプリケーションを起動する。送受信部182は、ユーザID、パスワード等のユーザの情報を、サーバ20へ送信する。送受信部182は、サーバ20から送信された、仮想空間上にアバターを表示させて各種サービスの提供を受けるための各種情報を受け付ける。通知制御部183は、受け付けた各種情報を、ディスプレイ132に表示させる。
【0053】
ステップS121において、サーバ20のユーザ認証モジュール2033は、端末装置10から送信されたユーザの情報を、通信部201を介して受け付ける。サーバ20のユーザ認証モジュール2033は、受け付けたユーザの情報が正当なユーザからのものであることを認証する。サーバ20は、受け付けたユーザの情報が正当なものであると判定した場合、仮想空間上にアバターを表示させて各種サービスを提供するための各種情報を当該ユーザの端末装置10のディスプレイ132に表示させるため、端末装置10へ通信部201を介して送信する。
【0054】
図6は、実施の形態1のアバターサービス提供システム1による手画像移動処理を行う流れの一例を示すフローチャートである。
【0055】
ステップS211において、端末装置10のデータ処理部184は、ユーザの操作により動いている人物をカメラ160で撮影した撮影画像を取得する。例えば、データ処理部184は、
図1に示すように、端末装置10がカメラ160のレンズ部分が人物Hの方向に向けられた状態で固定され、アバターサービス提供システム1の専用アプリケーションにより人物Hを撮影した撮影画像、例えば動画を取得する。なお、このとき、人物Hを撮影する装置は端末装置10のカメラ160に限られず、外部装置としてのカメラであってもよく、例えば、LIDAR(Light Detection and Ranging)カメラ(センサ)、光学式または機械式(Inertial Measurement Unit)のモーションキャプチャシステム等であってもよい。端末装置10のデータ処理部184は、撮影画像を画像データとして記憶部170に記憶させる。
【0056】
ステップS212において、端末装置10のデータ処理部184は、ステップS211で取得した撮影画像に基づく画像データを解析し、解析結果に基づき、撮影された人物の骨格情報を特定する。例えば、データ処理部184は、画像データの解析により、撮影画像の人物を、既知の画像認識技術を用いて身体の部位を特定し、それぞれの身体の部位を示す点の間を直線で結び、点と線で得られた情報を骨格情報とする。データ処理部184は、撮影画像における点の位置を撮影画像における座標の情報とする。この点は、例えば身体の関節部分に配置され、身体の動きに合わせて直線部分との角度を変更するように構成される。このような構成により、身体の動きを点と直線とで表現することを可能にしている。端末装置10のデータ処理部184は、特定した骨格情報を記憶部170に記憶させる。
【0057】
ステップS213において、端末装置10のデータ処理部184は、ステップS212で特定した骨格情報から、撮影された人物の手の骨格情報を抽出する。例えば、データ処理部184は、画像データの解析により、撮影画像の人物の手の部分を特定し、手の部分に配置された点の情報、例えば点の座標の情報を抽出する。
【0058】
ステップS214において、端末装置10のデータ処理部184は、画面上に手を模した手画像を表示させる。手画像は、例えば人間の手の形状を模した画像であるが、画面上のどこを指し示しているかを認識できるような形状であればよく、矢印のような形状であってもよい。また、手画像の画像データは、記憶部170に記憶されたものである。端末装置10のデータ処理部184は、手画像を、ディスプレイ132に表示させると共に、
図1に示すような表示画面30に表示させる。表示させる手画像は、両手のものでもよく、左右どちらか一方の片手のものでもよい。
【0059】
ステップS215において、端末装置10のデータ処理部184は、抽出した人物の手の骨格情報に基づき、人物の手の動作に合わせて、ステップS214で表示させた手画像を動かすように制御する。
【0060】
以上のように、アバターサービス提供システム1では、画面上に手を模した手画像を表示させ、人物の手の動作に合わせて手画像を動かすように制御する。
【0061】
図7は、実施の形態1のアバターサービス提供システム1によるアイコン制御処理を行う流れの例を示すフローチャートである。
【0062】
ステップS311において、端末装置10のデータ処理部184は、画面上に所定のアイコンを表示させる。このアイコンは、画面上でアバターサービス提供システム1が提供する各種サービスの提供を開始するためのアイコンであり、手画像により選択され、アイコンに関連付けられた機能(各種サービス)を実行させるものである。
【0063】
ステップS312において、端末装置10のデータ処理部184は、画面上における手画像の位置と、アイコンの位置とを検出する。例えば、データ処理部184は、画面上における手画像の位置を、画面上における座標位置の情報として、人物の手の動きに合わせて随時検出する。また、データ処理部184は、画面上におけるアイコンの位置を、画面上における座標位置の情報として検出する。
【0064】
ステップS313において、端末装置10のデータ処理部184は、手画像のアイコンに対する所定の動作、例えば画面上における手画像の位置とアイコンの位置とが一致したことを検出すると、アイコンを選択状態にし、またはアイコンに関連付けられた機能を実行する。例えば、データ処理部184は、画面上における両手の手画像のうち、片手の手画像の位置がアイコンの位置と一致したことを検出すると、アイコンを選択状態(選択だけされた状態であり、機能は実行されない状態)にする。また、データ処理部184は、画面上における両手の手画像の両方の手画像の位置がアイコンの位置と一致したことを検出すると、アイコンを実行状態(アイコンに関連付けられた機能を実行させる状態)にする。
【0065】
以上のように、アバターサービス提供システム1では、各種サービスの提供を開始させるためのアイコンを表示させ、手画像の動作によりアイコンを選択し、実行させることが可能になるように構成する。これにより、ユーザは端末装置10の位置まで戻って操作する必要がなくなり、煩わしい操作を不要にしている。
【0066】
なお、手画像による操作の他の例として、手画像を上下左右方向に移動する動作を検出すると、画面上に表示されている画像をスクロールさせるように構成してもよい。これにより、ユーザは端末装置10の位置まで戻って操作する必要がなくなり、煩わしい操作を不要にしている。
【0067】
<3 画面例>
以下、
図8ないし
図11を参照しながら、アバターサービス提供システム1における手画像による操作の画面例について説明する。
【0068】
図8は、表示画面30に手画像31L,31Rが表示された画面例を示す図である。
図8の画面例は、
図1に示す表示画面30に、人物Hの手の動作に合わせて移動させる手画像が表示された画面例を示す。
図6のステップS214に相当する。
【0069】
図8に示すように、端末装置10のディスプレイ132には、人物Hに関連付けられ、人物Hの手の動作に合わせて移動させる手画像132L,132Rが表示されている。また、表示画面30にも、人物Hの手の動作に合わせて移動させる手画像31L,31Rが表示されている。手画像31L,31Rは、それぞれ人物Hの左手の動作に合わせて移動させるもの、右手の動作に合わせて移動させるものである。なお、このとき、端末装置10のディスプレイ132及び表示画面30の背景には仮想空間が表示されていてもよいが、図示を省略する。
【0070】
人物Hが右手を動かすと、その動きに合わせて手画像31Rが表示画面30上で上下左右に移動する。同様に、人物Hが左手を動かすと、その動きに合わせて手画像31Lが表示画面30上で上下左右に移動する。これにより、人物Hの手の動きに合わせて手画像を動かすことが可能である。
【0071】
図9は、表示画面30に表示されたアイコン32が選択された画面例を示す図である。また、
図10は、表示画面30に表示されたアイコン32が実行された画面例を示す図である。
図9及び
図10の画面例は、
図1に示す表示画面30に、人物Hの手の動作に合わせて移動させる手画像が表示され、各種サービスの提供を開始するためのアイコンが表示された画面例を示す。
図7のステップS311に相当する。
【0072】
図9及び
図10に示すように、表示画面30には、人物Hの手の動作に合わせて移動させる手画像31L,31Rが表示されている。また、表示画面30には、アイコン32が表示されている。
【0073】
人物Hの手の動きに合わせて手画像31L,31Rが動き、その画面上の位置が検出される。そして、
図9に示す状態では、画面上における手画像31L,31Rのうちいずれか1つの位置と、アイコン32の位置とが一致したことを検出する。このとき、アイコン32は、選択状態になる。また、
図10に示す状態では、画面上における手画像31L,31Rの両方の位置と、アイコン32の位置とが一致したことを検出する。このとき、アイコン32は、実行状態になる。これにより、ユーザは端末装置10の位置まで戻ることなく、アイコン32を選択し、アイコン32による機能を実行させることが可能である。
【0074】
なお、アイコン32を選択し、アイコン32による機能を実行させる操作は、
図9及び
図10に示す連とは限られない。例えば、手画像31L,31Rのいずれか一方の位置が一定時間以上アイコン32の位置と一致した場合、アイコン32を選択状態にし、手画像31L,31Rのいずれか一方の位置が一定時間以内に2回アイコン32の位置と一致した場合(いわゆるダブルクリック)、アイコン32による機能を実行させるように構成してもよい。
【0075】
図11は、表示画面30に表示された手画像31L,31Rによる画面スクロールの画面例を示す図である。
図11の画面例は、
図1に示す表示画面30に、人物Hの手の動作に合わせて移動させる手画像が表示された画面例を示す。
図7のステップS311に相当する。
【0076】
図11に示すように、表示画面30には、人物Hの手の動作に合わせて移動させる手画像31L,31Rが表示されている。
【0077】
人物Hの手の動きに合わせて手画像31L,31Rが動き、その画面上の位置が検出される。そして、
図11に示す状態では、手画像31L,31Rが矢印X方向にスライドするように移動したことを検出する。このとき、表示画面30に表示されている画像を矢印X方向にスクロールさせる。これにより、ユーザは端末装置10の位置まで戻ることなく、画面をスクロールさせる操作を実行させることが可能である。
【0078】
<小括>
以上のように、本実施形態によると、手画像を表示させてユーザの手の動作に合わせて手画像を動かすように制御する。手画像の動作により、手画像が各種サービスの提供を開始させるためのアイコンを選択し、実行させることが可能になるように構成している。そのため、ユーザは端末装置の位置まで戻って操作する必要がなくなり、煩わしい操作を不要にしている。これにより、アバターサービス提供システムによる各種サービスの提供がスムーズに行われることを可能にしている。
【0079】
また、手画像の動作により各種サービスの提供を開始させ、画像をスクロールさせることを可能にしているが、スマートフォン等の携帯端末による入力や、音声認識技術による音声入力も受け付ける構成(マルチモーダル)にしてもよい。このような構成にすることにより、誤作動を防止し、状況に応じて操作を簡便にする手段を選択可能とする効果が得られる。
【0080】
なお、本開示に係るアバターサービス提供システムは、手画像の動作により、画像をスクロールさせることが可能になるように構成している。そのため、ユーザは端末装置の位置まで戻って操作する必要がなくなり、煩わしい操作を不要にしている。これにより、アバターサービス提供システムによる各種サービスの提供がスムーズに行われることを可能にしている。
【0081】
以上、開示に係る実施形態について説明したが、これらはその他の様々な形態で実施することが可能であり、種々の省略、置換及び変更を行なって実施することができる。これらの実施形態及び変形例ならびに省略、置換及び変更を行なったものは、特許請求の範囲の技術的範囲とその均等の範囲に含まれる。
【0082】
<付記>
以上の各実施形態で説明した事項を、以下に付記する。
【0083】
(付記1)プロセッサ29と、メモリ25とを備えるコンピュータに実行させ、画面上に表示させる画像を生成するためのプログラムであって、プログラムは、プロセッサ29に、動いている人物をカメラで撮影した撮影画像を取得するステップ(S211)と、取得した撮影画像を解析し、解析結果に基づき人物の骨格情報を特定するステップ(S212)と、特定した骨格情報から人物の手の骨格情報を抽出するステップ(S213)と、画面上に、手を模した手画像を表示させるステップ(S214)と、抽出した人物の手の骨格情報に基づき、人物の手の動作に合わせて手画像を動かすように制御するステップ(S215)と、手画像の所定の動作を検出して当該所定の動作に関連付けられた機能を実行させるステップ(S313)と、を実行させる、プログラム。
【0084】
(付記2)プログラムは、さらに、画面上に、所定のアイコンを表示させるステップ(S311)を実行させ、機能を実行させるステップにおいて、手画像の前記アイコンに対する所定の動作を検出すると、アイコンを選択状態にし、またはアイコンに関連付けられた機能を実行させる、(付記1)に記載のプログラム。
【0085】
(付記3)手画像を表示させるステップにおいて、片手または両手を模した手画像を表示させ、機能を実行させるステップにおいて、片手の手画像の所定の動作と、両手の手画像の所定の動作とで異なる機能を実行させる、(付記2)に記載のプログラム。
【0086】
(付記4)片手の手画像がアイコンに接触する動作を検出すると、アイコンを選択状態にし、両手の手画像がアイコンに接触する動作を検出すると、アイコンに関連付けられた機能を実行させる、(付記3)に記載のプログラム。
【0087】
(付記5)機能を実行させるステップにおいて、手画像が上下左右方向に移動する動作を検出すると、画面上に表示されている画像をスクロールさせる、(付記1)から(付記4)のいずれかに記載のプログラム。
【0088】
(付記6)制御部180と、記憶部170とを備え、画面上に表示させる画像を生成する情報処理装置であって、制御部180は、動いている人物をカメラで撮影した撮影画像を取得するステップ(S211)と、取得した撮影画像を解析し、解析結果に基づき人物の骨格情報を特定するステップ(S212)と、特定した骨格情報から人物の手の骨格情報を抽出するステップ(S213)と、画面上に、手を模した手画像を表示させるステップ(S214)と、抽出した人物の手の骨格情報に基づき、人物の手の動作に合わせて手画像を動かすように制御するステップ(S215)と、手画像の所定の動作を検出して当該所定の動作に関連付けられた機能を実行させるステップ(S313)と、を実行する、情報処理装置。
【0089】
(付記7)プロセッサ29と、メモリ25とを備えるコンピュータにより実行され、画面上に表示させる画像を生成するための方法であって、方法は、プロセッサ29が、動いている人物をカメラで撮影した撮影画像を取得するステップ(S211)と、取得した撮影画像を解析し、解析結果に基づき人物の骨格情報を特定するステップ(S212)と、特定した骨格情報から人物の手の骨格情報を抽出するステップ(S213)と、画面上に、手を模した手画像を表示させるステップ(S214)と、抽出した人物の手の骨格情報に基づき、人物の手の動作に合わせて手画像を動かすように制御するステップ(S215)と、手画像の所定の動作を検出して当該所定の動作に関連付けられた機能を実行させるステップ(S313)と、を実行する、方法。
【符号の説明】
【0090】
1 :アバターサービス提供システム
10 :端末装置
10A :端末装置
10B :端末装置
13 :入力装置
14 :出力装置
15 :メモリ
16 :記憶部
19 :プロセッサ
20 :サーバ
25 :メモリ
26 :ストレージ
29 :プロセッサ
30 :表示画面
31L :手画像
31R :手画像
32 :アイコン
80 :ネットワーク
81 :無線基地局
82 :無線LANルータ
111 :アンテナ
112 :アンテナ
121 :第1無線通信部
122 :第2無線通信部
130 :操作受付部
131 :デバイス
132 :ディスプレイ
140 :音声処理部
141 :マイク
142 :スピーカ
150 :位置情報センサ
160 :カメラ
170 :記憶部
171 :ユーザ情報
180 :制御部
181 :入力操作受付部
182 :送受信部
183 :通知制御部
184 :データ処理部
201 :通信部
202 :記憶部
203 :制御部
2021 :ユーザデータベース
2031 :受信制御モジュール
2032 :送信制御モジュール
2033 :ユーザ認証モジュール
【要約】
【課題】仮想空間上で各種サービスの提供を受けるための操作を容易にする技術を提供する。
【解決手段】アバターサービス提供システム1の端末装置10は、その機能として、動いている人物をカメラで撮影した撮影画像を取得するステップと、取得した撮影画像を解析し、解析結果に基づき人物の骨格情報を特定するステップと、特定した骨格情報から人物の手の骨格情報を抽出するステップと、画面上に、手を模した手画像を表示させるステップと、抽出した人物の手の骨格情報に基づき、人物の手の動作に合わせて手画像を動かすように制御するステップと、手画像の所定の動作を検出して当該所定の動作に関連付けられた機能を実行させるステップと、を実行させる。
【選択図】
図6