IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 東京瓦斯株式会社の特許一覧

<>
  • 特許-情報処理システムおよびプログラム 図1
  • 特許-情報処理システムおよびプログラム 図2
  • 特許-情報処理システムおよびプログラム 図3
  • 特許-情報処理システムおよびプログラム 図4
  • 特許-情報処理システムおよびプログラム 図5
  • 特許-情報処理システムおよびプログラム 図6
  • 特許-情報処理システムおよびプログラム 図7
  • 特許-情報処理システムおよびプログラム 図8
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2022-11-25
(45)【発行日】2022-12-05
(54)【発明の名称】情報処理システムおよびプログラム
(51)【国際特許分類】
   G06F 3/01 20060101AFI20221128BHJP
   A63H 11/00 20060101ALI20221128BHJP
   G06F 3/16 20060101ALI20221128BHJP
【FI】
G06F3/01 510
A63H11/00 Z
G06F3/16 610
G06F3/16 650
【請求項の数】 8
(21)【出願番号】P 2018194644
(22)【出願日】2018-10-15
(65)【公開番号】P2020064376
(43)【公開日】2020-04-23
【審査請求日】2021-06-15
(73)【特許権者】
【識別番号】000220262
【氏名又は名称】東京瓦斯株式会社
(74)【代理人】
【識別番号】100104880
【弁理士】
【氏名又は名称】古部 次郎
(74)【代理人】
【識別番号】100125346
【弁理士】
【氏名又は名称】尾形 文雄
(74)【代理人】
【識別番号】100166981
【弁理士】
【氏名又は名称】砂田 岳彦
(72)【発明者】
【氏名】山口 彩乃
(72)【発明者】
【氏名】宮本 登
(72)【発明者】
【氏名】大橋 朋佳
(72)【発明者】
【氏名】松本 遥香
(72)【発明者】
【氏名】杉浦 宏樹
【審査官】星野 裕
(56)【参考文献】
【文献】特開2015-066625(JP,A)
【文献】特開2007-088803(JP,A)
【文献】特開2004-280673(JP,A)
【文献】特許第6298563(JP,B1)
【文献】特開2009-061547(JP,A)
【文献】特開2010-130448(JP,A)
【文献】特開2015-135674(JP,A)
【文献】特開平11-265398(JP,A)
【文献】米国特許出願公開第2015/0179141(US,A1)
【文献】特開2001-292478(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
G06F 3/01
A63H 11/00
G06F 3/16
(57)【特許請求の範囲】
【請求項1】
ユーザが興味を示したことを示す所作を検出する所作検出手段と、
ユーザの前記所作が検出された際の当該ユーザの周辺の状況についての情報である周辺状況情報を取得する状況情報取得手段と、
前記ユーザの位置情報を取得する位置情報取得手段と、
前記状況情報取得手段により取得された前記周辺状況情報から、前記ユーザの前記所作の要因を検出する要因検出手段と、
を備え
前記状況情報取得手段は、前記周辺状況情報として、前記位置情報により特定される位置の周辺にて実行されるイベントについての情報をインターネットを通じて取得し、
前記要因検出手段は、前記所作が検出された際に前記ユーザの周辺にて実行されている前記イベントを、前記所作の要因として検出する情報処理システム。
【請求項2】
前記所作検出手段は、ユーザが興味を示したことを示す前記所作として、ユーザが特定の方向を予め定められた時間を超えて見る動作を検出する請求項1に記載の情報処理システム。
【請求項3】
前記所作検出手段は、ユーザが興味を示したことを示す前記所作として、予め定められた内容の音声を発する動作を検出する請求項1に記載の情報処理システム。
【請求項4】
前記所作検出手段は、ユーザが興味を示したことを示す前記所作として、ユーザが一方向に向かって移動する動作を検出する請求項1に記載の情報処理システム。
【請求項5】
前記所作検出手段は、ユーザが興味を示したことを示す前記所作として、ユーザの顔の表情の変化を検出する請求項1に記載の情報処理システム。
【請求項6】
前記所作検出手段は、ユーザが興味を示したことを示す前記所作として、ユーザが特定の機器に触れる動作を検出する請求項1に記載の情報処理システム。
【請求項7】
前記所作検出手段は、ユーザが興味を示したことを示す前記所作として、同意又は反同意の何れかを示す動きを検出する請求項1に記載の情報処理システム。
【請求項8】
ユーザが興味を示したことを示す所作を検出する所作検出機能と、
ユーザの前記所作が検出された際の当該ユーザの周辺の状況についての情報である周辺状況情報を取得する状況情報取得機能と、
前記ユーザの位置情報を取得する位置情報取得機能と、
前記状況情報取得機能により取得された前記周辺状況情報から、前記ユーザの前記所作の要因を検出する要因検出機能と、
をコンピュータに実現させるためのプログラムであり、
前記状況情報取得機能は、前記周辺状況情報として、前記位置情報により特定される位置の周辺にて実行されるイベントについての情報をインターネットを通じて取得し、
前記要因検出機能は、前記所作が検出された際に前記ユーザの周辺にて実行されている前記イベントを、前記所作の要因として検出する、
プログラム
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、情報処理システムおよびプログラムに関する。
【背景技術】
【0002】
特許文献1には、筺体と、スピーカとを備えるコミュニケーションロボットが、特定の音素を含む音を発する動作を実行する処理が開示されている。
【先行技術文献】
【特許文献】
【0003】
【文献】WO2016/68262
【発明の概要】
【発明が解決しようとする課題】
【0004】
ユーザが興味を示す対象物の特定にあたっては、対象となる対象物をユーザに提示し、ユーザからの回答を得ることで、ユーザが対象物に対して興味があるか否かの判断を行える。具体的には、たとえば、スマートフォンやタブレット、PC等にて、対象物を提示し、これに対して行われる「いいね」等の操作に基づき、ユーザが対象物に対して興味があるか否かの判断を行える。
ところで、この場合は、ユーザの興味があるか否かの判断の対象となる対象物の範囲が、ユーザに提示される対象物に限られてしまう。
本発明の目的は、ユーザが興味を示す対象物をより広い範囲に亘って特定できるようにすることにある。
【課題を解決するための手段】
【0005】
本発明が適用される情報処理システムは、ユーザが興味を示したことを示す所作を検出する所作検出手段と、ユーザの前記所作が検出された際の当該ユーザの周辺の状況についての情報である周辺状況情報を取得する状況情報取得手段と、を備える情報処理システムである。
ここで、前記状況情報取得手段により取得された前記周辺状況情報から、前記ユーザの前記所作の要因を検出する要因検出手段を更に備えることを特徴とすることができる。
また、前記要因検出手段は、前記所作が検出された際に前記ユーザの周辺にて起きた事象を、前記所作の要因として検出することを特徴とすることができる。
また、前記要因検出手段は、前記所作が検出された際に前記ユーザの視線の先にて起きた事象を、前記所作の要因として検出することを特徴とすることができる。
また、前記要因検出手段は、前記所作が検出された際に前記ユーザの周囲にてなされていた放送を、前記所作の要因として検出することを特徴とすることができる。
また、前記ユーザの位置情報を取得する位置情報取得手段と、前記状況情報取得手段は、前記周辺状況情報として、前記位置情報により特定される位置の周辺にて実行されるイベントについての情報を取得し、前記要因検出手段は、前記所作が検出された際に前記ユーザの周辺にて実行されているイベントを、前記所作の要因として検出することを特徴とすることができる。
【0006】
また、前記要因検出手段は、前記所作が検出された際に前記ユーザの周囲に位置する人物を、前記所作の要因として検出することを特徴とすることができる。
また、前記要因検出手段は、前記所作検出手段が設けられている機器以外にて起きた事象の中から、前記所作の要因を検出することを特徴とすることができる。
また、前記所作検出手段は、ユーザが興味を示したことを示す前記所作として、ユーザが特定の方向を予め定められた時間を超えて見る動作を検出することを特徴とすることができる。
また、前記所作検出手段は、ユーザが興味を示したことを示す前記所作として、予め定められた内容の音声を発する動作を検出することを特徴とすることができる。
また、前記所作検出手段は、ユーザが興味を示したことを示す前記所作として、ユーザが一方向に向かって移動する動作を検出することを特徴とすることができる。
また、前記所作検出手段は、ユーザが興味を示したことを示す前記所作として、ユーザの顔の表情の変化を検出することを特徴とすることができる。
また、前記所作検出手段は、ユーザが興味を示したことを示す前記所作として、ユーザが特定の機器に触れる動作を検出することを特徴とすることができる。
また、前記所作検出手段は、ユーザが興味を示したことを示す前記所作として、同意又は反同意の何れかを示す動きを検出することを特徴とすることができる。
【0007】
また、本発明をプログラムとして捉えた場合、本発明が適用されるプログラムは、ユーザが興味を示したことを示す所作を検出する所作検出機能と、ユーザの前記所作が検出された際の当該ユーザの周辺の状況についての情報である周辺状況情報を取得する状況情報取得機能と、をコンピュータに実現させるためのプログラムである。
【発明の効果】
【0008】
本発明によれば、ユーザが興味を示す対象物をより広い範囲に亘って特定できる。
【図面の簡単な説明】
【0009】
図1】情報処理システムの全体構成を示した図である。
図2】室内機器を説明する図である。
図3】管理サーバのハードウエアの構成を示した図である。
図4】管理サーバのCPU等により実現される機能部を示した図である。
図5】情報処理システムにて実行される処理の流れの一例を示したフローチャートである。
図6】ユーザの動きを上方から見た場合の図である。
図7】ユーザの動きを示した図である。
図8】ユーザの居室の状態を示した図である。
【発明を実施するための形態】
【0010】
以下、添付図面を参照して、本発明の実施の形態について説明する。
図1は、情報処理システム1の全体構成を示した図である。
情報処理システム1には、情報処理装置の一例としての管理サーバ300が設けられている。さらに、情報処理システム1には、各家庭や各施設の各々に設置された室内機器200が設けられている。
【0011】
図2(室内機器200を説明する図)に示すように、本実施形態の室内機器200は、いわゆるロボットを模した機器であり、符号2Aで示すように、人の顔を模した部分を有する。
より具体的には、室内機器200には、液晶ディスプレイなどにより構成された表示装置201が設けられており、本実施形態では、この表示装置201に、人の顔に相当する画像が表示されることで、人の顔を模した部分が表示される。
【0012】
さらに、本実施形態の室内機器200は、表示装置201を下方から支持する胴体部分202、および、この胴体部分202に取り付けられた腕部分203を有する。
さらに、この腕部分203を動かすためのモータ(不図示)が、胴体部分202の内部に設けられている。また、胴体部分202には、互いに異なる色の光を出射する複数の光源204が設けられている。
【0013】
さらに、室内機器200には、上下方向へ移動可能に設けられた頭部208、この頭部208を上方へ付勢するコイルスプリング(不図示)、および、この頭部208が下降したことを検出するセンサ205Sが設けられている。
さらに、室内機器200には、室内機器200が設置された居室内の状況を撮影する撮影手段の一例としてのカメラ205Cが設けられている。また、室内機器200には、この居室内の音を取得する音手段の一例としてのマイク205Mが設けられている。また、室内機器200には、室内機器200の位置情報を取得するGPS(Global Positioning System)(不図示)が設けられている。
室内機器200の各々は、インターネットなどの通信回線400(図1参照)を通じて管理サーバ300に接続される。
【0014】
図3は、管理サーバ300のハードウエアの構成を示した図である。
管理サーバ300は、コンピュータ装置により構成され、管理サーバ300には、CPU(Central Processing Unit)301、RAM(Random Access Memory)302、ROM(Read Only Memory)303が設けられている。また、ハードディスク装置などにより構成される記憶装置304が設けられている。さらに、管理サーバ300には、外部との通信を行うための通信インタフェース(通信I/F)305が設けられている。
【0015】
CPU301によって実行されるプログラムは、磁気記録媒体(磁気テープ、磁気ディスクなど)、光記録媒体(光ディスクなど)、光磁気記録媒体、半導体メモリなどのコンピュータが読取可能な記録媒体に記憶した状態で、管理サーバ300へ提供しうる。
また、CPU301によって実行されるプログラムは、インターネットなどの通信手段を用いて管理サーバ300へダウンロードしてもよい。
【0016】
図4は、管理サーバ300のCPU301等により実現される機能部を示した図である。
図4に示すように、管理サーバ300は、所作検出部321、状況情報取得部322、要因検出部323、位置情報取得部324を備える。
ここで、所作検出部321、状況情報取得部322、要因検出部323、位置情報取得部324は、管理サーバ300のCPU301が、記憶装置304等に格納されているプログラムを実行することで実現される。
【0017】
所作検出手段の一例としての所作検出部321は、ユーザが対象物に対して興味を示したことを示す所作(動作)を検出する。
より具体的には、所作検出部321は、室内機器200に設けられたカメラ205Cにより得られたユーザの映像や、室内機器200に設けられたマイク205Mにより得られた音(ユーザの音声を含む音)を解析して、ユーザが特定の対象物に対して興味を示したことを示す所作(動作)を検出する。
【0018】
付言すると、所作検出部321は、室内機器200に設けられたカメラ205Cにより得られた映像や、室内機器200に設けられたマイク205Mにより得られた音などを解析し、ユーザが、予め定められた特定の動作を行ったかを判断する。
そして、所作検出部321は、ユーザがこの特定の動作を行ったと判断した場合、ユーザが上記の所作を行ったと判断する。付言すると、所作検出部321は、ユーザがこの特定の動作を行ったと判断した場合、この特定の動作を、ユーザが興味を示したことを示す所作として検出する。
【0019】
状況情報取得手段の一例としての状況情報取得部322は、ユーザの上記の所作が検出された際の、このユーザの周辺の状況についての情報である周辺状況情報を取得する。
より具体的には、本実施形態では、状況情報取得部322は、室内機器200に設けられたカメラ205Cにより得られた映像であって、ユーザの上記の所作が検出された際の映像や、室内機器200に設けられたマイク205Mにより得られた音であって、ユーザの上記の所作が検出された際の音を、周辺状況情報として取得する。
【0020】
要因検出手段の一例としての要因検出部323は、状況情報取得部322により取得された周辺状況情報(映像や音)から、ユーザの上記の所作の要因を検出する。付言すると、要因検出部323は、カメラ205Cにより得られた映像や、マイク205Mにより得られた音などを解析して、ユーザの上記の所作の要因を検出する。
位置情報取得手段の一例としての位置情報取得部324は、ユーザの各々の位置情報を取得する。具体的には、位置情報取得部324は、例えば、室内機器200から送信されてくる位置情報(室内機器200に設けられたGPSにより得られた位置情報)を受信して、この室内機器200のカメラ205Cに写るユーザの位置情報を取得する。
【0021】
図5は、本実施形態の情報処理システム1にて実行される処理の流れの一例を示したフローチャートである。
本実施形態では、所作検出部321が、カメラ205Cにより取得された映像やマイク205Mにより得られた音などを解析し、ユーザが予め定められた動作を行ったか否かを判断する(ステップS101)。
付言すると、所作検出部321は、カメラ205Cにより取得される映像やマイク205Mにより取得される音を監視し、ユーザが予め定められた動作を行ったか否かを判断する。
【0022】
そして、所作検出部321は、ユーザが予め定められた動作を行ったと判断した場合、ユーザが対象物に対して興味を示したことを示す所作(以下、単に「所作」と称する。)を行ったと判断する。付言すると、所作検出部321は、所作を検出する(ステップS102)。
言い換えると、本実施形態では、所作検出部321は、ユーザが予め定められた動作を行った場合に、ユーザが対象物に対して興味を示したことを示す所作を検出する。
【0023】
次いで、本実施形態では、状況情報取得部322が、ユーザの上記所作が検出された際の、このユーザの周辺の状況についての情報である周辺状況情報を取得する(ステップS103)。
具体的には、状況情報取得部322は、カメラ205Cにより得られた映像であって、ユーザの上記の所作が検出された際にこのカメラ205Cにより得られた映像を、周辺状況情報として取得する。
また、状況情報取得部322は、マイク205Mにより得られた音であって、ユーザの上記の所作が検出された際にこのマイク205Mにより得られた音を、周辺状況情報として取得する。
【0024】
より具体的には、状況情報取得部322は、例えば、ユーザの上記の所作が検出されたタイミングから過去に予め定められた時間だけ遡ったときを始まりとして、この所作が検出されてから予め定められた時間が経過するまでの間における、映像(カメラ205Cにより得られた映像)や音(マイク205Mにより得られた音)を取得する。
【0025】
その後、本実施形態では、要因検出部323が、状況情報取得部322により取得された周辺状況情報から、ユーザの所作の要因を検出する(ステップS104)。
より具体的には、要因検出部323は、状況情報取得部322により取得された上記の映像や音から、ユーザの所作の要因を検出する。
これにより、本実施形態では、ユーザが興味を持った対象物を特定できるようになる。
【0026】
ここで、ユーザが興味を示す対象物の特定にあたっては、例えば、対象となる対象物の各々をユーザに提示し、ユーザからの回答を得ることで、提示された対象物に対してユーザの興味があるか否かの判断を行える。
具体的には、たとえば、スマートフォンやタブレット、PC等にて、対象物を提示し、これに対して行われる「いいね」等の操作に基づき、ユーザが対象物に対して興味があるか否かの判断を行える。
【0027】
ところで、この場合は、ユーザが興味を抱いているか否かの判断の対象となる対象物の範囲が、ユーザに提示される対象物に限られてしまう。
これに対し、本実施形態では、所作がユーザにより行われた際に(所作が検出された際に)、ユーザの周囲にて起きた事象の全てが、ユーザが興味を示した対象物の候補となる。
この場合、対象物をユーザに提示して、ユーザが興味を抱いている対象物を特定する場合に比べ、ユーザが興味を示す対象物をより広い範囲に亘って特定できるようになる。
【0028】
ここで、本実施形態では、上記のとおり、所作検出部321が、ユーザが対象物に対して興味を示したことを示す所作を検出する。より具体的には、所作検出部321は、予め定められたユーザの動作を検出して、この所作を検出する。
ここで、所作検出部321は、ユーザが興味を示したことを示す上記の所作として、例えば、ユーザが特定の方向を予め定められた時間(例えば、3秒)を超えて見る動作を検出する。
【0029】
より具体的には、所作検出部321は、カメラ205Cにより得られた映像を解析し、この映像に含まれるユーザが、特定の方向を予め定められた時間を超えて見る動作を検出する。
ユーザが対象物に対して興味を抱いている場合、ユーザがこの対象物を凝視することも多く、ユーザが特定の方向を予め定められた時間を超えて見る動作を行った場合、ユーザが特定の対象物に対して興味を抱いていることが想定される。
【0030】
なお、ユーザの他の動作を、上記の所作として検出してもよい。
例えば、所作検出部321は、ユーザが興味を示したことを示す所作として、予め定められた内容の音声を発するユーザの動作を検出してもよい。
具体的には、所作検出部321は、「すごい」、「面白い」、「つまらない」などの音声を発するユーザの動作を、上記の所作として検出してもよい。
【0031】
より具体的には、所作検出部321は、マイク205Mにて得られた音を解析することで、「すごい」、「面白い」、「つまらない」などの音声を発するユーザの動作を検出し、この動作を上記の所作として検出する。
ここで、ユーザがテレビなどを視聴している際に、「すごい」、「面白い」、「つまらない」などの音声をユーザが発することがあり、このような音声が発せられた場合、ユーザが、テレビ等にて放映されている放映内容に、興味を抱いていることが想定できる。
【0032】
また、その他に、所作検出部321は、ユーザが興味を示したことを示す所作として、ユーザが一方向に向かって移動する動作を検出してもよい。
より具体的には、所作検出部321は、カメラ205Cにより得られた映像に含まれるユーザが、一方向に向かって移動している場合に、この移動する動作を検出し、この動作を、所作として検出してもよい。
【0033】
ユーザが何かしらの対象物に興味を抱いた場合、例えば、図6(ユーザの動きを上方から見た場合の図)に示すように、ユーザが、対象物に向かって(一方向に向かって)移動することが想定される。
この場合、ユーザのこの動きを検出すれば、ユーザが、特定の対象物に興味を抱いていることを実質的に検出できるようになる。
【0034】
また、その他に、所作検出部321は、ユーザが興味を示したことを示す所作として、ユーザの顔の表情の変化を検出してもよい。
より具体的には、所作検出部321は、ユーザの顔の表情の変化として、例えば、顔が、無表情の状態から、笑った顔や怒った顔になったことを検出する。
ユーザが何かしらの対象物に興味を抱いた場合、ユーザの顔の表情が変化することが想定される。この場合、ユーザの顔の変化を検出するようにすれば、ユーザが、特定の対象物に興味を抱いたことを実質的に検出できるようになる。
【0035】
また、その他に、所作検出部321は、ユーザが興味を示したことを示す所作として、ユーザが室内機器200に触れる動作を検出してもよい。より具体的には、所作検出部321は、例えば、ユーザが、室内機器200の頭部208(図2参照)を撫でる動作を検出してもよい。
【0036】
例えば、「興味を抱く対象物がある場合には、室内機器200の頭部208を撫でてください」を旨とするメッセージをユーザに予め通知している場合において、ユーザが、室内機器200の頭部208を撫でた場合、このユーザは、特定の対象物に興味を抱いていることになる。
この場合、ユーザが室内機器200の頭部208を撫でた(触った)ことを検出するようにすれば、ユーザが特定の対象物に興味を抱いたことを検出できるようになる。
【0037】
なお、ユーザが室内機器200の頭部208を撫でたか否かは、室内機器200に設けられたセンサ205Sからの出力に基づき判断できる。
本実施形態では、頭部208が下降すると、センサ205Sがこの頭部208を検出するようになっており、センサ205Sが頭部208を検出した場合には、ユーザが頭部208を撫でたことになる。
【0038】
また、所作検出部321は、ユーザが興味を示したことを示す所作として、同意又は反同意の何れかを示すユーザの動きを検出してもよい。
より具体的には、この場合、所作検出部321は、ユーザが興味を示したことを示す所作として、図7(ユーザの動きを示した図)の矢印7Aで示すような、ユーザが頭部208を縦に動かす動作(うなずく動作)、又は、矢印7Bで示すような、ユーザが頭部208を横に動かす動作(否定することを示す動作)の何れかを検出する。
【0039】
ユーザが何かしらの対象物に興味を抱いた場合、ユーザは、うなずいたり、頭を横に振ったりすることがある。
ユーザの、このうなずきや、頭を横に振る動きを検出すれば、ユーザが、特定の対象物に対して興味を抱いていることを実質的に検出できるようになる。
なお、ユーザのうなずきや、頭を横に振る動作は、カメラ205Cにより取得された映像を解析することで検出できる。
【0040】
次に、要因検出部323による、所作の要因の検出処理について説明する。
要因検出部323は、所作検出部321によって所作(予め定められ動作)が検出された場合、この所作の要因の検出処理を行う。
具体的には、要因検出部323は、例えば、所作検出部321により所作が検出された際にこのユーザの周辺にて起きた事象を、所作の要因として検出する。
例えば、要因検出部323は、所作検出部321により所作が検出された際に、テレビに映っている映像が変化した場合には(カメラ205Cにより得られた映像に映っているテレビにおける放送内容が変化した場合には)、この映像の変化や、変化後の映像を、所作の要因として検出する。
【0041】
また、その他に、要因検出部323は、例えば、ユーザの視線の先にて起きた事象を、所作の要因として検出してもよい。
具体的には、要因検出部323は、例えば、所作検出部321により所作が検出された際に、図8(ユーザの居室の状態を示した図)に示すように、ユーザの視線の先にテレビがあった場合、このテレビ自体や、このテレビにて放送されている放送内容を、所作の要因として検出する。
また、要因検出部323は、例えば、所作検出部321により所作が検出された際に、ユーザの視線の先に、人や犬などの動物がいた場合、この人や動物を、所作の要因として検出する。
【0042】
このように、ユーザの視線の先にて起きた事象を、所作の要因として検出する場合は、所作の要因を絞り込める。
上記のように、ユーザの周辺にて起きた事象を、所作の要因として検出する場合、ユーザの周囲にて起きた全ての事象が、ユーザの所作の要因の候補となり、この所作の要因を絞り込みにくくなる。
これに対し、ユーザの視線の先にて起きた事象を、所作の要因として検出する場合、所作の要因の候補が減り、所作の要因を絞り込める。
【0043】
また、その他に、要因検出部323は、例えば、所作が検出された際にユーザの周囲にてなされていた放送を、所作の要因として検出してもよい。
例えば、要因検出部323は、所作が検出された際にテレビがオンされ、番組が放送されている場合(カメラ205Cにより得られた映像に、オンされたテレビが映り番組が放送されている場合)、この放送(番組)を所作の要因として検出してもよい。
【0044】
また、要因検出部323は、テレビに限らず、ラジオがついている場合には、このラジオによる放送(番組)を所作の要因として検出してもよい。
さらに、この場合、要因検出部323は、これらの放送についての情報(番組名や放送内容についての情報)を、インターネットなどを通じて、取得してもよい。
【0045】
また、その他に、要因検出部323は、例えば、所作が検出された際にユーザの周辺にて実行されているイベントを、所作の要因として検出してもよい。
ここで、この検出処理を行う場合は、まず、状況情報取得部322が、周辺状況情報として、ユーザの周辺にて実行されるイベントについての情報を取得する。
【0046】
より具体的には、本実施形態では、上記のとおり、位置情報取得部324により、ユーザの位置情報(室内機器200の位置情報)が取得されるが、状況情報取得部322は、この位置情報により特定される位置の周辺にて実行されるイベントについての情報を、インターネットなどを通じて取得する。
付言すると、状況情報取得部322は、所作を行ったユーザの位置情報により特定される位置の周辺にて実行されるイベントについての情報を、インターネットなどを通じて取得する。
【0047】
そして、要因検出部323は、取得されたこのイベントについての情報により特定されるイベントを、所作の要因として検出する。
この場合、所作が検出された際にユーザの周辺にて実行されている、花火大会などのイベントが、所作の要因として検出されることになる。
ここで、例えば、ユーザの自宅の窓の外で花火大会などがあることも想定され、本実施形態では、この花火大会なども所作の要因として検出できるようになる。付言すると、室内機器200のカメラ205Cに写らない事象についても、所作の要因として検出できるようになる。
【0048】
また、その他に、要因検出部323は、ユーザの所作が検出された際にこのユーザの周囲に位置する人物を、所作の要因として検出してもよい。
より具体的には、要因検出部323は、カメラ205Cにより得られた映像を解析した結果、例えば、ユーザの所作が検出された際に、このユーザと同じ部屋に、ユーザ以外の人物がいる場合、この人物を所作の要因として検出してもよい。
【0049】
さらに、本実施形態では、要因検出部323は、所作検出部321が設けられている機器以外にて起きた事象の中から、所作の要因を検出する構成となっている。
具体的には、本実施形態では、所作検出部321が管理サーバ300に設けられているが、要因検出部323は、この管理サーバ300以外にて起きた事象の中から、所作の要因を検出するようになっている。
【0050】
ここで、比較例として、タブレット端末に設けられたタッチパネルに対するユーザの選択操作を、上記の所作として捉え、この所作があった場合には、この選択操作により選択された対象物(タブレット端末の表示画面に表示されている表示物)を所作の要因として捉える態様も考えられる。
【0051】
この場合、タッチパネル等が所作検出部321となり、要因検出部323は、この所作検出部321が設けられているタブレット端末にて起きた事象の中から、所作の要因を検出することになる。
具体的には、この場合、要因検出部323は、タブレット端末に表示された表示物(ユーザによる選択操作があった表示物)を、所作の要因として検出することになる。
【0052】
ところで、この場合は、検出される、所作の要因が、タブレット端末に表示された表示物のみに限られることになる。付言すると、検出される、所作の要因が、タブレット端末にて起きた事象のみに限られることになる。
これに対し、本実施形態のように、所作検出部321が設けられている機器以外にて起きた事象の中から、所作の要因を検出する構成であると、より広い候補の中から、所作の要因を検出できるようになる。
【符号の説明】
【0053】
1…情報処理システム、200…室内機器、300…管理サーバ、321…所作検出部、322…状況情報取得部、323…要因検出部、324…位置情報取得部
図1
図2
図3
図4
図5
図6
図7
図8