IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

<>
  • -位置推定システム及び位置推定方法 図1
  • -位置推定システム及び位置推定方法 図2
  • -位置推定システム及び位置推定方法 図3
  • -位置推定システム及び位置推定方法 図4
  • -位置推定システム及び位置推定方法 図5
  • -位置推定システム及び位置推定方法 図6
  • -位置推定システム及び位置推定方法 図7
  • -位置推定システム及び位置推定方法 図8
  • -位置推定システム及び位置推定方法 図9
  • -位置推定システム及び位置推定方法 図10
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2025027534
(43)【公開日】2025-02-28
(54)【発明の名称】位置推定システム及び位置推定方法
(51)【国際特許分類】
   G01V 8/20 20060101AFI20250220BHJP
   G08B 25/04 20060101ALI20250220BHJP
【FI】
G01V8/20 Z
G08B25/04 K
【審査請求】未請求
【請求項の数】12
【出願形態】OL
(21)【出願番号】P 2023132333
(22)【出願日】2023-08-15
(71)【出願人】
【識別番号】506301140
【氏名又は名称】公立大学法人会津大学
(74)【代理人】
【識別番号】110003421
【氏名又は名称】弁理士法人フィールズ国際特許事務所
(72)【発明者】
【氏名】趙 強福
(72)【発明者】
【氏名】奥山 祐市
【テーマコード(参考)】
2G105
5C087
【Fターム(参考)】
2G105AA01
2G105BB16
2G105CC04
2G105EE02
2G105HH01
2G105KK06
5C087DD03
5C087DD24
5C087EE08
5C087FF04
(57)【要約】
【課題】対象者の行動を十分に把握することを可能とする位置推定システム及び位置推定方法を提供する。
【解決手段】複数のセンサを有する感知ユニットと、複数のセンサから出力された信号が示す感知情報の組合せに基づいて、所定の検知面上における複数のセンサのそれぞれの感知領域の境界によって分割される複数の領域から、対象が位置する対象領域を検知する検知ユニットと、を有し、検知ユニットは、所定タイミングと所定タイミングよりも前の1以上のタイミングとを含む複数のタイミングごとの対象領域に基づいて、所定タイミングにおける対象の位置を推定し、推定した対象の位置を出力する。
【選択図】図10
【特許請求の範囲】
【請求項1】
複数のセンサを有する感知ユニットと、
前記複数のセンサから出力された信号が示す感知情報の組合せに基づいて、所定の検知面上における前記複数のセンサのそれぞれの感知領域の境界によって分割される複数の領域から、対象が位置する対象領域を検知する検知ユニットと、を有し、
前記検知ユニットは、
所定タイミングと前記所定タイミングよりも前の1以上のタイミングとを含む複数のタイミングごとの前記対象領域に基づいて、前記所定タイミングにおける前記対象の位置を推定し、
推定した前記対象の位置を出力する、
ことを特徴とする位置推定システム。
【請求項2】
前記感知ユニットと前記検知ユニットとのそれぞれは、別体のユニットである、
ことを特徴とする請求項1に記載の位置推定システム。
【請求項3】
前記感知ユニットと前記検知ユニットとは、一体化したユニットである、
ことを特徴とする請求項1に記載の位置推定システム
【請求項4】
前記検知ユニットは、前記複数のタイミングごとの前記対象領域の位置を示す値の平均値を、前記所定タイミングにおける前記対象の位置として推定する、
ことを特徴とする請求項1に記載の位置推定システム。
【請求項5】
前記検知ユニットは、
前記複数のタイミングごとに、各タイミングに対応する重みと各タイミングに対応する前記対象領域の位置を示す値とを乗算することによって第1値を算出し、
前記複数のタイミングごとの前記第1値の平均値を、前記所定タイミングにおける前記対象の位置として推定する、
ことを特徴とする請求項4に記載の位置推定システム。
【請求項6】
前記複数のタイミングに含まれる第1タイミングに対応する前記重みは、前記複数のタイミングに含まれるタイミングであって前記第1タイミングよりも前の第2タイミングに対応する前記重みよりも大きい値である、
ことを特徴とする請求項5に記載の位置推定システム。
【請求項7】
前記検知ユニットは、
前記複数のタイミングごとに、各タイミングにおける前記対象領域に対応する重みと各タイミングに対応する前記対象領域の位置を示す値とを乗算することによって第2値を算出し、
前記複数のタイミングごとの前記第2値の平均値を、前記所定タイミングにおける前記対象の位置として推定する、
ことを特徴とする請求項4に記載の位置推定システム。
【請求項8】
前記複数の領域に含まれる第1領域に対応する前記重みは、前記複数の領域に含まれる領域であって前記第1領域よりも前記対象が位置する確率が低い第2領域に対応する前記重みよりも大きい値である、
ことを特徴とする請求項7に記載の位置推定システム。
【請求項9】
前記検知ユニットは、前記複数のセンサごとに、各センサから複数のタイミングにおいて出力された複数の信号が示す値の平均値を、各センサに対応する前記感知情報として算出する、
ことを特徴とする請求項1に記載の位置推定システム。
【請求項10】
前記検知ユニットは、前記複数のセンサごとに、各センサから複数のタイミングにおいて出力された複数の信号が示す値の最大値を、各センサに対応する前記感知情報として算出する、
ことを特徴とする請求項1に記載の位置推定システム。
【請求項11】
前記感知情報は、前記対象を感知したことを示す第1情報と前記対象を感知しなかったことを示す第2情報とのうちのいずれかを示し、
前記検知ユニットは、
前記感知情報の組合せに含まれる前記第1情報の数が所定数未満である場合、前記複数のセンサのうち、前記第1情報に対応する信号を出力したセンサと隣接する位置に取り付けられたセンサであって前記第2情報に対応する信号を出力した特定センサを特定し、
前記感知情報の組合せのうち、前記特定センサから出力された信号が示す情報を前記第2情報から前記第1情報に変更する、
ことを特徴とする請求項1に記載の位置推定システム。
【請求項12】
複数のセンサを有する感知ユニットと、前記複数のセンサから出力された信号が示す感知情報の組合せに基づいて、所定の検知面上における前記複数のセンサのそれぞれの感知領域の境界によって分割される複数の領域から、対象が位置する対象領域を検知する検知ユニットと、を有する位置推定システムにおける位置推定方法であって、
前記検知ユニットは、
所定タイミングと前記所定タイミングよりも前の1以上のタイミングとを含む複数のタイミングごとの前記対象領域に基づいて、前記所定タイミングにおける前記対象の位置を推定し、
推定した前記対象の位置を出力する、
ことを特徴とする位置推定方法。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、位置推定システム及び位置推定方法に関する。
【背景技術】
【0002】
近年、遠隔地に暮らす家族等(以下、見守り者とも呼ぶ)が高齢者等(以下、対象者とも呼ぶ)の安否を確認するサービス(以下、見守りサービスとも呼ぶ)が提供されている。このような見守りサービスでは、例えば、対象者の住居等に設置された装置が対象者の行動に関する情報をリアルタイムに取得し、取得した情報を見守り者が閲覧可能な装置に送信する。これにより、見守り者は、対象者の安否等を適宜確認することが可能になる(特許文献1乃至6参照)。
【先行技術文献】
【特許文献】
【0003】
【特許文献1】特開2017-190967号公報
【特許文献2】特開2014-169968号公報
【特許文献3】特開2019-045279号公報
【特許文献4】特開2011-215027号公報
【特許文献5】特開2012-233890号公報
【特許文献6】特開平7-311280号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
ここで、上記のような見守りサービスでは、例えば、対象者のプライバシー保護等の観点から、カメラ等に代えて赤外線センサ等の人感センサ(以下、単に人感センサとも呼ぶ)が用いられる場合がある。
【0005】
しかしながら、このような人感センサは、例えば、対象者の居場所を精度良く検知することができない場合がある。そのため、上記のような見守りサービスは、例えば、対象者の行動を精度良く追跡することができず、対象者の行動を十分に把握することができない場合がある。
【0006】
そこで、本発明の目的は、対象者の行動を十分に把握することを可能とする位置推定システム及び位置推定方法を提供することにある。
【課題を解決するための手段】
【0007】
上記目的を達成するための本発明における位置推定システムは、複数のセンサを有する感知ユニットと、前記複数のセンサから出力された信号が示す感知情報の組合せに基づいて、所定の検知面上における前記複数のセンサのそれぞれの感知領域の境界によって分割される複数の領域から、対象が位置する対象領域を検知する検知ユニットと、を有し、前記検知ユニットは、所定タイミングと前記所定タイミングよりも前の1以上のタイミングとを含む複数のタイミングごとの前記対象領域に基づいて、前記所定タイミングにおける前記対象の位置を推定し、推定した前記対象の位置を出力する。
【発明の効果】
【0008】
本発明における位置推定システム及び位置推定方法によれば、対象者の行動を十分に把握することが可能になる。
【図面の簡単な説明】
【0009】
図1図1は、位置推定システム1000の構成例を示す図である。
図2図2は、感知ユニット200の構成例を示す図である。
図3図3は、感知ユニット200の構成例を示す図である。
図4図4は、感知ユニット200の構成例を示す図である。
図5図5は、複数の人感センサ2の感知領域について説明する図である。
図6図6は、複数の人感センサ2の感知領域について説明する図である。
図7図7は、検知ユニット100の機能について説明するブロック図である。
図8図8は、第1の実施の形態における位置検知処理を説明するフローチャート図である。
図9図9は、第1の実施の形態における位置推定処理の変形例について説明する図である。
図10図10は、第1の実施の形態における位置推定処理の変形例について説明する図である。
【発明を実施するための形態】
【0010】
以下、図面を参照して本発明の実施の形態について説明する。しかしながら、かかる実施の形態例が、本発明の技術的範囲を限定するものではない。
【0011】
[位置推定システム1000の構成例]
初めに、位置推定システム1000の構成例について説明を行う。図1は、位置推定システム1000の構成例を示す図である。
【0012】
位置推定システム1000は、図1に示すように、検知ユニット100と、感知ユニット200とを有する。
【0013】
検知ユニット100は、例えば、コンピュータ装置であって、汎用的なPC(Personal Computer)である。そして、検知ユニット100は、例えば、感知ユニット200によって検知された信号に基づいて対象者(以下、単に対象とも呼ぶ)の位置を推定する処理(以下、位置推定処理とも呼ぶ)を行う。
【0014】
検知ユニット100は、汎用的なコンピュータ装置のハードウエア構成を有し、例えば、図1に示すように、プロセッサであるCPU101と、メモリ102と、通信インタフェース103と、記憶媒体104とを有する。各部は、バス105を介して互いに接続される。
【0015】
記憶媒体104は、例えば、位置推定処理を行うためのプログラム110を記憶するプログラム格納領域(図示せず)を有する。
【0016】
また、記憶媒体104は、例えば、位置推定処理を行う際に用いられる情報を記憶する記憶領域(図示せず)を有する。なお、記憶媒体104は、例えば、HDD(Hard Disk Drive)やSSD(Solid State Drive)であってよい。
【0017】
CPU101は、例えば、記憶媒体104からメモリ102にロードされたプログラム110を実行することによって位置推定処理を行う。
【0018】
通信インタフェース103は、例えば、有線通信または無線通信によって感知ユニット200と通信を行う。
【0019】
また、感知ユニット200は、例えば、複数の人感センサが取り付けられる構造物である。以下、感知ユニット200の構成例について説明を行う。
【0020】
[感知ユニット200の構成例]
図2から図4は、感知ユニット200の構成例を示す図である。具体的に、図2は、対象者の住居等における部屋の天井S(以下、単に天井Sとも呼ぶ)に取り付けられた感知ユニット200を水平方向の一方向側(Y1方向側)から見た場合の構成例を示す図である。また、図3及び図4は、天井Sに取り付けられた感知ユニット200を垂直方向の下方向側(Z2方向側)から見た場合の構成例を示す図である。
【0021】
感知ユニット200は、図2及び図3に示すように、例えば、ユニット本体1と、複数の人感センサ2とを有する。以下、各人感センサ2による感知領域が矩形形状であるものとして説明を行う。すなわち、以下、各人感センサ2に取り付けられたレンズ(図示せず)が感知領域を矩形形状にすることが可能なレンズであるものとして説明を行う。
【0022】
ユニット本体1は、例えば、平板状の矩形部材であり、一方の面(Z1方向側の面)が天井Sに取り付けられることによって天井Sに固定される。以下、ユニット本体1が平板状の矩形部材であるものとして説明するが、ユニット本体1は、例えば、円錐台形等の形状を有する部材であってもよい。
【0023】
複数の人感センサ2のそれぞれは、例えば、各センサの感知領域に位置する対象者を検知する焦電型の赤外線センサである。焦電型の赤外線センサは、例えば、焦電効果を利用して物体や人等の温度変化を検知するセンサである。そして、複数の人感センサ2のそれぞれは、例えば、10ミリ秒ごと等の所定タイミング(以下、単に所定タイミングとも呼ぶ)ごとに、各センサが対象者を検知したか否かを示す信号を検知ユニット100に送信する。以下、複数の人感センサ2のそれぞれが焦電型の赤外線センサであるものとして説明を行うが、複数の人感センサ2のそれぞれは、例えば、ドップラーセンサ等の動き検出センサ(モーションセンサ)であってもよいし、熱検出センサであってもよい。
【0024】
具体的に、複数の人感センサ2のそれぞれは、図2に示すように、例えば、ユニット本体1における他方の面(Z2方向側の面)に取り付けられる。すなわち、複数の人感センサ2のそれぞれは、例えば、部屋の床面(図示せず)に向けられるように取り付けられる。
【0025】
さらに具体的に、ユニット本体1には、図3に示すように、例えば、6個の人感センサ2がそれぞれ取り付けられる。以下、ユニット本体1に6個の人感センサ2が取り付けられる場合について説明を行うが、ユニット本体1には、例えば、6個以外の個数の人感センサ2が取り付けられるものであってもよい。また、以下、6個の人感センサ2がXY平面上において正六角形を形成するように取り付けられる場合について説明を行うが、6個の人感センサ2のそれぞれは、図4に示すように、例えば、ユニット本体1における他の場所に取り付けられるものであってもよい。また、以下、複数の人感センサ2のそれぞれがユニット本体1に取り付けられる場合について説明を行うが、複数の人感センサ2のうちの少なくとも一部は、例えば、ユニット本体1と一体化せず、天井Sに直接取り付けられるものであってもよい。
【0026】
なお、以下、図3に示すように、ユニット本体1のX2方向側に取り付けられた人感センサ2を人感センサ21とも呼び、ユニット本体1のY1方向側に取り付けられた人感センサ2のうちのX2方向側の人感センサ2を人感センサ22とも呼び、ユニット本体1のY1方向側に取り付けられた人感センサ2のうちのX1方向側の人感センサ2を人感センサ23とも呼ぶ。また、以下、図3に示すように、ユニット本体1のX1方向側に取り付けられた人感センサ2を人感センサ24とも呼び、ユニット本体1のY2方向側に取り付けられた人感センサ2のうちのX1方向側の人感センサ2を人感センサ25とも呼び、ユニット本体1のY2方向側に取り付けられた人感センサ2のうちのX2方向側の人感センサ2を人感センサ26とも呼ぶ。
【0027】
ここで、複数の人感センサ2のそれぞれは、例えば、全体としての感知領域を広げるために、各人感センサ2の感知領域が互いに異なるようにユニット本体1に取り付けられる。さらに、複数の人感センサ2のそれぞれは、例えば、対象者の位置を検知する必要性から、各人感センサ2の感知領域の一部が互いに重なるようにユニット本体1に取り付けられる。以下、複数の人感センサ2の感知領域の具体例について説明を行う。
【0028】
[複数の人感センサ2の感知領域の具体例]
図5及び図6は、複数の人感センサ2の感知領域について説明する図である。具体的に、図5は、検知面Fを一部に含む領域における各人感センサ2の感知領域を示す図である。また、図6は、検知面Fにおける各人感センサ2の感知領域を示す図である。すなわち、図6は、図5における検知面Fを拡大した図である。
【0029】
検知面Fは、例えば、室内における天井Sと床面との間に位置する面(天井SのZ2方向側の面)であって、天井Sや床面と平行の面である。具体的に、検知面Fは、例えば、対象者が立っている場合における対象者の頭付近の高さにある面(例えば、天井Sからの距離が1.5m程度である面)や、対象者が立っている場合における対象者の腰付近の高さにある面(例えば、天井Sからの距離が2.0m程度である面)であってよい。
【0030】
図5及び図6に示す例において、感知領域R1は、例えば、図3で説明した人感センサ21の感知領域であり、XY平面上における中心が検知面Fの中心を基準とした場合におけるXY平面上における人感センサ21の位置の反対側(X1方向側)に位置する領域である。さらに、感知領域R1は、例えば、外縁のうちの一部(以下、境界L1とも呼ぶ)が検知面F内に位置し、かつ、外縁のうちの境界L1以外の部分が検知面F外に位置する領域である。
【0031】
また、感知領域R2は、例えば、図3で説明した人感センサ22の感知領域であり、XY平面上における中心が検知面Fの中心を基準とした場合におけるXY平面上における人感センサ22の位置の反対側(X1方向からY1方向に向けて60度傾いた方向側)に位置する領域である。さらに、感知領域R2は、例えば、外縁のうちの一部(以下、境界L2とも呼ぶ)が検知面F内に位置し、かつ、外縁のうちの境界L2以外の部分が検知面F外に位置する領域である。
【0032】
また、感知領域R3は、例えば、図3で説明した人感センサ23の感知領域であり、XY平面上における中心が検知面Fの中心を基準とした場合におけるXY平面上における人感センサ23の位置の反対側(X2方向からY1方向に向けて60度傾いた方向側)に位置する領域である。さらに、感知領域R3は、例えば、外縁のうちの一部(以下、境界L3とも呼ぶ)が検知面F内に位置し、かつ、外縁のうちの境界L3以外の部分が検知面F外に位置する領域である。
【0033】
また、感知領域R4は、例えば、図3で説明した人感センサ24の感知領域であり、XY平面上における中心が検知面Fの中心を基準とした場合におけるXY平面上における人感センサ24の位置の反対側(X2方向側)に位置する領域である。さらに、感知領域R4は、例えば、外縁のうちの一部(以下、境界L4とも呼ぶ)が検知面F内に位置し、かつ、外縁のうちの境界L4以外の部分が検知面F外に位置する領域である。
【0034】
また、感知領域R5は、例えば、図3で説明した人感センサ25の感知領域であり、XY平面上における中心が検知面Fの中心を基準とした場合におけるXY平面上における人感センサ25の位置の反対側(X2方向からY2方向に向けて60度傾いた方向側)に位置する領域である。さらに、感知領域R5は、例えば、外縁のうちの一部(以下、境界L5とも呼ぶ)が検知面F内に位置し、かつ、外縁のうちの境界L5以外の部分が検知面F外に位置する領域である。
【0035】
また、感知領域R6は、例えば、図3で説明した人感センサ26の感知領域であり、XY平面上における中心が検知面Fの中心を基準とした場合におけるXY平面上における人感センサ26の位置の反対側(X1方向からY2方向に向けて60度傾いた方向側)に位置する領域である。さらに、感知領域R6は、例えば、外縁のうちの一部(以下、境界L6とも呼ぶ)が検知面F内に位置し、かつ、外縁のうちの境界L6以外の部分が検知面F外に位置する領域である。
【0036】
以下、感知領域R1、感知領域R2、感知領域R3、感知領域R4、感知領域R5及び感知領域R6を総称して単に感知領域Rとも呼ぶ。また、以下、境界L1、境界L2、境界L3、境界L4、境界L5及び境界L6を総称して単に境界Lとも呼ぶ。
【0037】
そして、境界L1、境界L2、境界L3、境界L4、境界L5及び境界L6は、図6に示すように、例えば、検知面Fを19個の領域D(以下、分割領域Dとも呼ぶ)に分割する。
【0038】
以下、図6に示すように、検知面Fの外縁F0(以下、単に外縁F0とも呼ぶ)と境界L1と境界L3とに囲まれた分割領域Dを分割領域D11とも呼び、外縁F0と境界L2と境界L6とに囲まれた分割領域Dを分割領域D12とも呼び、外縁F0と境界L1と境界L5とに囲まれた分割領域Dを分割領域D13とも呼び、外縁F0と境界L4と境界L6とに囲まれた分割領域Dを分割領域D14とも呼び、外縁F0と境界L3と境界L5とに囲まれた分割領域Dを分割領域D15とも呼び、外縁F0と境界L2と境界L4とに囲まれた分割領域Dを分割領域D16とも呼ぶ。
【0039】
また、以下、図6に示すように、外縁F0と境界L1と境界L2と境界L3と境界L6とに囲まれた分割領域Dを分割領域D21とも呼び、外縁F0と境界L1と境界L2と境界L5と境界L6とに囲まれた分割領域Dを分割領域D22とも呼び、外縁F0と境界L1と境界L4と境界L5と境界L6とに囲まれた分割領域Dを分割領域D23とも呼び、外縁F0と境界L3と境界L4と境界L5と境界L6とに囲まれた分割領域Dを分割領域D24とも呼び、外縁F0と境界L2と境界L3と境界L4と境界L5とに囲まれた分割領域Dを分割領域D25とも呼び、外縁F0と境界L1と境界L2と境界L3と境界L4とに囲まれた分割領域Dを分割領域D26とも呼ぶ。
【0040】
また、以下、図6に示すように、境界L1と境界L2と境界L6とに囲まれた分割領域Dを分割領域D31とも呼び、境界L1と境界L5と境界L6とに囲まれた分割領域Dを分割領域D32とも呼び、境界L4と境界L5と境界L6とに囲まれた分割領域Dを分割領域D33とも呼び、境界L3と境界L4と境界L5とに囲まれた分割領域Dを分割領域D34とも呼び、境界L2と境界L3と境界L4とに囲まれた分割領域Dを分割領域D35とも呼び、境界L1と境界L2と境界L3とに囲まれた分割領域Dを分割領域D36とも呼ぶ。
【0041】
さらに、以下、図6に示すように、境界L1と境界L2と境界L3と境界L4と境界L5と境界L6とに囲まれた分割領域Dを分割領域D41とも呼ぶ。
【0042】
すなわち、例えば、分割領域D11は、感知領域R4、感知領域R5及び感知領域R6に含まれる分割領域Dであって、感知領域R1、感知領域R2及び感知領域R3に含まれない分割領域Dである。そのため、例えば、感知領域R4、感知領域R5及び感知領域R6のそれぞれに対応する人感センサ24、人感センサ25及び人感センサ26が対象者を検知したことを示す信号を検知ユニット100に送信し、かつ、感知領域R1、感知領域R2及び感知領域R3のそれぞれに対応する人感センサ21、人感センサ22及び人感センサ23が対象者を検知しなかったことを示す信号を検知ユニット100に送信した場合、検知ユニット100は、対象者が分割領域D11に位置していると判定する。
【0043】
また、例えば、分割領域D21は、感知領域R3、感知領域R4、感知領域R5及び感知領域R6に含まれる分割領域Dであって、感知領域R1及び感知領域R2に含まれない分割領域Dである。そのため、例えば、感知領域R3、感知領域R4、感知領域R5及び感知領域R6のそれぞれに対応する人感センサ23、人感センサ24、人感センサ25及び人感センサ26が対象者を検知したことを示す信号を検知ユニット100に送信し、かつ、感知領域R1及び感知領域R2のそれぞれに対応する人感センサ21及び人感センサ22が対象者を検知しなかったことを示す信号を検知ユニット100に送信した場合、検知ユニット100は、対象者が分割領域D21に位置していると判定する。
【0044】
また、例えば、分割領域D31は、感知領域R2、感知領域R3、感知領域R4、感知領域R5及び感知領域R6に含まれる分割領域Dであって、感知領域R1に含まれない分割領域Dである。そのため、例えば、感知領域R2、感知領域R3、感知領域R4、感知領域R5及び感知領域R6のそれぞれに対応する人感センサ22、人感センサ23、人感センサ24、人感センサ25及び人感センサ26が対象者を検知したことを示す信号を検知ユニット100に送信し、かつ、感知領域R1に対応する人感センサ21が対象者を検知しなかったことを示す信号を検知ユニット100に送信した場合、検知ユニット100は、対象者が分割領域D31に位置していると判定する。
【0045】
また、例えば、分割領域D41は、感知領域R1、感知領域R2、感知領域R3、感知領域R4、感知領域R5及び感知領域R6の全てに含まれる分割領域Dである。そのため、例えば、感知領域R1、感知領域R2、感知領域R3、感知領域R4、感知領域R5及び感知領域R6のそれぞれに対応する人感センサ21、人感センサ22、人感センサ23、人感センサ24、人感センサ25及び人感センサ26が対象者を検知したことを示す信号を検知ユニット100に送信した場合、検知ユニット100は、対象者が分割領域D41に位置していると判定する。
【0046】
このように、位置推定システム1000では、例えば、各人感センサ2のXY平面における取り付け角度(方位角)と各人感センサ2のZ軸方向における取り付け角度(仰角)とを調整することによって、各人感センサ2に対応する境界Lの位置を制御し、検知面Fを複数の分割領域Dに分割する。そして、位置推定システム1000では、例えば、各人感センサ2から信号を受信した場合、各信号が示す内容の組合せを特定し、特定した組合せに対応する分割領域Dを対象者が存在する位置として特定する。
【0047】
これにより、位置推定システム1000は、例えば、対象者が存在する位置を精度良く特定することが可能になる。
【0048】
なお、上記の例では、ユニット本体11が天井Sに取り付けられ、検知面FがXY平面上に広がる平面である場合について説明を行ったが、これに限られない。具体的に、ユニット本体11は、例えば、室内における壁(壁面)に取り付けられるものであってもよい。また、検知面Fは、この場合、例えば、XZ平面に広がる平面であってもよい。
【0049】
これにより、位置推定システム1000では、例えば、対象者の姿勢を推定することが可能になる。具体的に、位置推定システム1000は、この場合、例えば、対象者が座っているか否か(対象者が起立しているか否か)についての判定を行うことが可能になる。
【0050】
[検知ユニット100の機能]
次に、検知ユニット100の機能について説明を行う。具体的に、図7は、検知ユニット100の機能について説明するブロック図である。
【0051】
検知ユニット100は、図7に示すように、例えば、信号受信部111、対象検知部112、位置推定部113及び結果出力部114を含む各機能を実現する。
【0052】
検知ユニット100の信号受信部111は、例えば、感知ユニット200に取り付けられた各人感センサ2から対象者の検知結果を示す信号を受信する。
【0053】
具体的に、信号受信部111は、例えば、所定タイミングごとに、各人感センサ2が対象者を検知したか否かを示す信号を受信する。
【0054】
検知ユニット100の対象検知部112は、例えば、所定タイミングごとに、信号受信部111が受信した信号が示す情報(以下、感知情報とも呼ぶ)の組合せに基づいて、検知面Fにおける対象者の検知を行う。感知情報は、例えば、人感センサ2が対象者を感知したことを示す情報(以下、第1情報とも呼ぶ)、または、人感センサ2が対象者を感知しなかったことを示す情報(以下、第2情報とも呼ぶ)である。すなわち、対象検知部112は、例えば、所定タイミングごとに、信号受信部111が受信した信号が示す情報の組合せに基づいて、検知面Fに含まれる複数の分割領域Dから対象者が位置する分割領域D(以下、対象領域Dとも呼ぶ)の検知を行う。
【0055】
具体的に、図6で説明した例において、例えば、人感センサ24、人感センサ25及び人感センサ26のそれぞれから受信した信号に対応する感知情報が第1情報であり、かつ、人感センサ21、人感センサ22及び人感センサ23のそれぞれから受信した信号に対応する感知情報が第2情報である場合、対象検知部112は、分割領域D11において対象者が存在していると判定する。
【0056】
また、図6で説明した例において、例えば、人感センサ23、人感センサ24、人感センサ25及び人感センサ26のそれぞれから受信した信号に対応する感知情報が第1情報であり、かつ、人感センサ21及び人感センサ22のそれぞれから受信した信号に対応する感知情報が第2情報である場合、対象検知部112は、分割領域D21において対象者が存在していると判定する。
【0057】
検知ユニット100の位置推定部113は、例えば、対象検知部112が所定タイミングごとに検知した各対象領域Dに基づいて、対象者が存在している位置(以下、推定位置とも呼ぶ)を推定する。すなわち、位置推定部113は、例えば、複数の所定タイミング(以下、単に複数のタイミングとも呼ぶ)のそれぞれにおいて検知された各対象領域Dの位置(例えば、中心位置)から、複数のタイミングのうちの直近のタイミング(以下、単に直近タイミングとも呼ぶ)における対象者の推定位置を推定する。
【0058】
具体的に、位置推定部113は、例えば、複数のタイミングのそれぞれにおいて検知された各対象領域Dの中心位置を示す値(例えば、XY平面における座標)の平均値を、直近タイミングにおける対象者の推定位置として推定する。
【0059】
検知ユニット100の結果出力部114は、例えば、所定タイミングごとに、位置推定部113によって推定された対象者の推定位置を見守り者が閲覧可能な出力装置(図示せず)における出力画面(図示せず)に出力する。
【0060】
具体的に、結果出力部114は、例えば、複数のタイミングのそれぞれにおいて推定された推定位置のX座標及びY座標を示す各点を出力画面において連続的に出力する。そして、見守り者は、例えば、出力画面に出力された各点の軌跡から対象者の移動経路を把握することによって対象者の見守りを行う。
【0061】
すなわち、対象者が存在する対象領域Dの中心位置を対象者の推定位置として推定する場合、対象者の推定位置は、例えば、対象者が分割領域Dを跨いで移動したことに応じて変化することになる。そのため、例えば、分割領域Dの大きさが大きい場合や対象者の移動速度が速い場合、所定タイミングにおける対象者の推定位置は、前回の所定タイミングにおける推定位置から離れた場所になる可能性がある。したがって、見守り者は、この場合、例えば、出力画面に出力された各点から対象者の移動経路を把握することが困難になり、対象者の見守りを行うことが困難になる可能性がある。
【0062】
そこで、位置推定部113は、例えば、直近タイミングにおける対象者の位置を推定する場合、直近タイミングにおける対象領域Dの中心位置だけでなく、直近タイミングよりも前の1以上のタイミングにおける各対象領域Dの中心位置についても考慮する。
【0063】
これにより、位置推定部113は、例えば、連続する各タイミングにおいて推定された各推定位置に対応する点の間隔を短くすることが可能になる。そのため、見守り者は、例えば、分割領域Dの大きさが大きい場合や対象者の移動速度が速い場合であっても、結果出力部114によって出力画面に出力された各点の軌跡を容易に特定することが可能になり、対象者の移動経路を容易に把握することが可能になる。
【0064】
[位置推定処理のフローチャート図]
次に、位置推定処理について説明を行う。図8は、第1の実施の形態における位置推定処理を説明するフローチャート図である。
【0065】
信号受信部111は、図8に示すように、例えば、感知ユニット200に取り付けられた各人感センサ2から対象者の感知結果を示す信号を受信するまで待機する(S11のNO)。
【0066】
そして、感知ユニット200に取り付けられた各人感センサ2から対象者の感知結果を示す信号を受信した場合(S11のYES)、対象検知部112は、例えば、S11の処理で受信した信号が示す感知情報の組合せを特定する(S12)。すなわち、検知ユニット100は、例えば、各人感センサ2から信号が送信されるごとに位置推定処理を実行する。
【0067】
具体的に、対象検知部112は、この場合、例えば、複数の人感センサ2ごとに、各人感センサ2から複数のタイミングのそれぞれにおいて出力された複数の信号が示す値の最大値を、各人感センサ2に対応する感知情報として算出するものであってよい。
【0068】
言い換えれば、対象検知部112は、S12の処理において、例えば、S11の処理で各人感センサ2から受信した信号が示す感知情報をそのまま特定するのではなく、過去の複数回のS11の処理(例えば、直近に行われた複数回のS11の処理)で受信した各信号が示す各感知情報を用いることによって、S11の処理で受信した信号が示す感知情報を補正するものであってよい。以下、補正が行われた後の感知情報を補正感知情報とも呼ぶ。そして、対象検知部112は、S12の処理において、例えば、複数の人感センサ2ごとに算出した補正感知情報の組合せを特定するものであってよい。
【0069】
さらに具体的に、対象検知部112は、例えば、以下の式(1)及び(2)を用いることによって、各人感センサ2に対応する補正感知情報を算出するものであってよい。なお、以下の式(1)において、nは、所定タイミングを示し、Kは、予め定められた定数であり、x(n)は、所定タイミングにおいて各人感センサ2から出力された信号が示す感知情報を示し、ハット付きのx(n)は、所定タイミングにおける補正感知情報を示す。また、以下の式(2)において、θは、予め定められた閾値を示す。
【0070】
【数1】
【0071】
【数2】
【0072】
すなわち、各人感センサ2は、例えば、各人感センサ2に対応する感知領域Rに対象者が存在している場合であっても、各人感センサ2に対応する感知領域Rに対象者が存在していないと判定する可能性がある。また、各人感センサ2は、例えば、各人感センサ2に対応する感知領域Rに対象者が存在していない場合であっても、各人感センサ2に対応する感知領域Rに対象者が存在していると判定する可能性がある。そのため、検知ユニット100は、例えば、対象者が存在している分割領域Dの特定を精度良く行うことができない可能性がある。
【0073】
そこで、本実施の形態における検知ユニット100は、S12の処理において、例えば、過去に行われた複数回のS11の処理で受信した信号が示す各感知情報を用いることによって補正感知情報を算出する。そして、検知ユニット100は、例えば、算出した補正感知情報を用いることによってS13以降の処理を行う。
【0074】
これにより、本実施の形態における検知ユニット100は、例えば、各人感センサ2が対象者の感知を精度良く行うことができない場合であっても、対象者が存在している分割領域Dの特定を精度良く行うことが可能になる。
【0075】
なお、対象検知部112は、S12の処理において、例えば、人感センサ2ごとに、各人感センサ2から複数の所定タイミングのそれぞれにおいて出力された複数の信号が示す値の平均値を、各人感センサ2に対応する感知情報として算出するものであってもよい。
【0076】
具体的に、対象検知部112は、例えば、以下の式(3)を用いることによって、各人感センサ2に対応する補正感知情報を算出するものであってよい。なお、以下の式(3)において、mは、0からKまで変化する変数である。
【0077】
【数3】
【0078】
なお、上記の式(1)から式(3)におけるKは、例えば、10であってよい。すなわち、例えば、所定タイミングが20ミリ秒ごとのタイミングである場合、検知ユニット100は、複数の人感センサ2ごとに、各人感センサ2から200ミリ秒の間に出力された信号を用いることによって、各人感センサ2に対応する補正感知情報を算出するものであってよい。
【0079】
図8に戻り、対象検知部112は、例えば、S12の処理で特定した感知情報の組合せに基づいて、検知面Fにおける複数の分割領域Dから対象者が位置する対象領域Dを特定する(S13)。
【0080】
具体的に、例えば、図6で説明した例において、人感センサ24、人感センサ25及び人感センサ26のそれぞれから受信した信号に対応する感知情報が第1情報であり、かつ、人感センサ21、人感センサ22及び人感センサ23のそれぞれから受信した信号に対応する感知情報が第2情報である場合、対象検知部112は、分割領域D11を対象領域Dとして特定する。
【0081】
また、例えば、図6で説明した例において、人感センサ23、人感センサ24、人感センサ25及び人感センサ26のそれぞれから受信した信号に対応する感知情報が第1情報であり、かつ、人感センサ21及び人感センサ22のそれぞれから受信した信号に対応する感知情報が第2情報である場合、対象検知部112は、分割領域D21を対象領域Dとして特定する。
【0082】
その後、位置推定部113は、例えば、S13の処理で特定した対象領域Dの中心位置に基づいて、対象者の推定位置を推定する(S14)。
【0083】
具体的に、位置推定部113は、例えば、複数のタイミングのそれぞれにおいて検知された各対象領域Dの中心位置を示す値(例えば、XY平面における座標)の平均値を、直近タイミングにおける対象者の推定位置として推定する。
【0084】
言い換えれば、位置推定部113は、S14の処理において、例えば、S13の処理で特定した対象領域Dの中心位置を対象者の推定位置としてそのまま用いるのではなく、過去の複数回のS13の処理(例えば、直近に行われた複数回のS13の処理)で特定した各対象領域Dの中心位置を用いることによって対象者の推定位置の算出を行うものであってよい。
【0085】
さらに具体的に、位置推定部113は、例えば、以下の式(4)を用いることによって、対象者の推定位置を算出するものであってよい。以下の式(4)において、nは、所定タイミングを示し、Lは、予め定められた定数であり、mは、0からLまで変化する変数であり、c(n)は、所定タイミングにおいて各人感センサ2から出力された信号を用いて特定した対象領域D(S13の処理で特定した対象領域D)の中心位置を示し、ハット付きのc(n)は、所定タイミングに対応する対象者の推定位置を示す。
【0086】
【数4】
【0087】
これにより、本実施の形態における検知ユニット100は、例えば、連続する各タイミングにおいて推定された各推定位置に対応する点の間隔を短くすることが可能になる。そのため、見守り者は、例えば、結果出力部114によって出力画面に出力された各点の軌跡を容易に特定することが可能になり、対象者の移動経路を容易に把握することが可能になる。
【0088】
なお、式(4)におけるハット付きのc(n-m)には、例えば、以下の式(5)に示すように、重みであるWが乗算されるものであってもよい。
【0089】
【数5】
【0090】
具体的に、上記の式(5)におけるWは、例えば、mの値によって変わる変数であってもよい。さらに具体的に、Wは、例えば、mの値が大きくなるほど小さい値を取る変数であってもよい。
【0091】
すなわち、位置推定処理において、第1タイミングにおいて人感センサ2から出力された信号に基づいて算出された値に乗算する重みは、例えば、第1タイミングよりも前である第2タイミングにおいて人感センサ2から出力された信号に基づいて算出された値に乗算する重みよりも大きいものであってよい。
【0092】
これにより、本実施の形態における検知ユニット100は、例えば、人感センサ2からの出力タイミングが新しい信号ほど、対象者の推定位置の推定に与える影響が大きくなるように調整することが可能になる。そのため、検知ユニット100は、例えば、対象者の推定位置の推定を、対象者の実際の行動をより反映させながら行うことが可能になる。
【0093】
また、上記の式(5)におけるWは、例えば、ハット付きのc(n-m)が示す推定位置を含む分割領域Dによって変わる変数であってもよい。具体的に、対象者の存在確率が所定値以上である分割領域D(以下、第1分割領域Dとも呼ぶ)に対応する重みは、例えば、対象者の存在確率が所定値未満である分割領域D(以下、第2分割領域Dとも呼ぶ)に対応する重みよりも大きいものであってよい。第1分割領域Dは、例えば、ベッドの上を示す分割領域D(言い換えれば、対象者が存在する可能性があると判定可能な分割領域D)であってよい。また、第2分割領域Dは、例えば、机の上や棚の上を示す分割領域D(言い換えれば、対象者が存在する可能性が極めて低いと判定可能な分割領域D)であってよい。
【0094】
すなわち、位置推定処理において、第1分割領域Dに対象者が存在していたタイミングにおいて出力された信号に基づいて算出された値に乗算する重みは、例えば、第2分割領域Dに対象者が存在していたタイミングにおいて出力された信号に基づいて算出された値に乗算する重みよりも大きいものであってよい。
【0095】
これにより、本実施の形態における検知ユニット100は、例えば、人感センサ2による対象者の検知が精度良く行われなかったと判定可能な感知情報が、対象者の推定位置の推定に与える影響を抑えることが可能になる。そのため、位置推定部113は、例えば、人感センサ2による対象者の検知が精度良く行われなかった場合であっても、対象者の推定位置の推定を精度良く行うことが可能になる。
【0096】
なお、上記の式(4)及び式(5)におけるLは、例えば、10であってよい。すなわち、例えば、所定タイミングが20ミリ秒ごとのタイミングである場合、検知ユニット100は、200ミリ秒の間に特定された各対象領域Dの中心位置を用いることによって、対象者の推定位置を推定するものであってよい。
【0097】
図8に戻り、結果出力部114は、例えば、S14の処理で推定した対象者の推定結果を見守り者が閲覧可能な出力装置における出力画面に出力する(S15)。
【0098】
このように、本実施の形態における位置推定システム1000は、例えば、ユニット本体1と、ユニット本体1に取り付けられて対象者を感知する複数の人感センサ2と、を有する感知ユニット200を有する。また、位置推定システム1000は、例えば、複数の人感センサ2から出力された信号が示す感知情報の組合せに基づいて、所定の検知面F上における複数の人感センサ2のそれぞれの感知領域Rの境界によって分割される複数の分割領域Dから、対象者が位置する対象領域Dを検知する検知ユニット100と、を有する。そして、検知ユニット100は、例えば、所定タイミングと所定タイミングよりも前の1以上のタイミングとを含む複数の所定タイミングごとの対象領域Dに基づいて、所定タイミングにおける対象者の推定位置を推定し、推定した対象者の推定位置を出力する。
【0099】
これにより、本実施の形態における検知ユニット100は、例えば、連続する各タイミングにおいて推定された各推定位置に対応する点の間隔を短くすることが可能になる。そのため、見守り者は、例えば、結果出力部114によって出力画面に出力された各点の軌跡を容易に特定することが可能になり、対象者の移動経路を容易に把握することが可能になる。
【0100】
なお、上記の例では、検知ユニット100と感知ユニット200とが別体である場合について説明を行ったが、これに限られない。具体的に、検知ユニット100と感知ユニット200とは、例えば、単一の装置からなるものであってもよい。すなわち、検知ユニット100と感知ユニット200は、例えば、一体化した状態で天井Sに取り付けられるものであってもよい。
【0101】
[第1の実施の形態における位置推定処理の変形例]
図9及び図10は、第1の実施の形態における位置推定処理の変形例(以下、第1変形例とも呼ぶ)について説明する図である。以下、感知情報における第1情報が「1」であり、感知情報における第2情報が「0」であるものとして説明を行う。
【0102】
上記のように、各人感センサ2は、例えば、各人感センサ2に対応する感知領域Rに対象者が存在している場合であっても、当該対象者を検知することができない可能性がある。そして、検知ユニット100は、この場合、例えば、対象者が存在する分割領域Dの特定を精度良く行うことができない可能性がある。
【0103】
そこで、検知ユニット100は、例えば、S12の処理で特定した感知情報の組合せに含まれる第1情報(対象者を感知したことを示す感知情報)の数が所定数未満である場合、人感センサ2のうち、第1情報に対応する信号を出力した人感センサ2と隣接する位置に取り付けられた人感センサ2であって第2情報(対象者を感知しなかったことを示す感知情報)に対応する信号を出力した人感センサ2(以下、特定の人感センサ2とも呼ぶ)を特定するものであってよい。そして、検知ユニット100は、例えば、S12の処理で特定した感知情報の組合せに含まれる第2情報のうち、特定の人感センサ2から出力された信号が示す第2情報を第1情報に変更した上で、S13以降の処理を行うものであってよい。
【0104】
すなわち、検知ユニット100は、例えば、S12の処理で特定した感知情報の組合せに含まれる第1情報の数が所定数未満である場合、対象者の検知に失敗した人感センサ2が存在するものと判定し、対象者の検知に失敗したと判定可能な人感センサ2から出力された信号が示す感知情報を変更するものであってよい。
【0105】
具体的に、図9(A)の感知情報DT11に示すように、人感センサ25に対応する値(5番目の値)が「1」であり、人感センサ21、人感センサ22、人感センサ23、人感センサ24及び人感センサ26のそれぞれに対応する値(1番目、2番目、3番目、4番目及び6番目の値)が「0」である場合、検知ユニット100は、例えば、図9(A)の感知情報DT12に示すように、「1」に対応する人感センサ2(人感センサ25)に隣接する人感センサ24及び人感センサ26のそれぞれに対応する値(4番目及び6番目の値)を「0」から「1」に変更するものであってよい。
【0106】
また、図9(B)の感知情報DT21に示すように、人感センサ23及び人感センサ24のそれぞれに対応する値(3番目及び4番目の値)が「1」であり、人感センサ21、人感センサ22、人感センサ25及び人感センサ26のそれぞれに対応する値(1番目、2番目、5番目及び6番目の値)が「0」である場合、検知ユニット100は、例えば、図9(B)の感知情報DT22に示すように、「1」に対応する人感センサ2(人感センサ23及び人感センサ24)に隣接する人感センサ22及び人感センサ25のそれぞれに対応する値(2番目及び5番目の値)を「0」から「1」に変更するものであってよい。
【0107】
また、図9(C)の感知情報DT31に示すように、人感センサ25及び人感センサ26のそれぞれに対応する値(5番目及び6番目の値)が「1」であり、人感センサ21、人感センサ22、人感センサ23及び人感センサ24のそれぞれに対応する値(1番目、2番目、3番目及び4番目の値)が「0」である場合、検知ユニット100は、例えば、図9(C)の感知情報DT32に示すように、「1」に対応する人感センサ2(人感センサ25及び人感センサ26)に隣接する人感センサ21及び人感センサ24のそれぞれに対応する値(1番目及び4番目の値)を「0」から「1」に変更するものであってよい。以下、第1変形例の具体例について説明を行う。
【0108】
[第1変形例の具体例]
図10は、第1変形例の具体例について説明する図である。
【0109】
例えば、図6で説明した例において、対象者が分割領域D13に位置している場合、人感センサ22、人感センサ23及び人感センサ24のそれぞれは、第1情報に対応する信号を検知ユニット100に対して送信する。
【0110】
しかしながら、この場合において、例えば、人感センサ22及び人感センサ24が対象者を検知することができなかった場合、人感センサ22及び人感センサ24のそれぞれは、第2情報に対応する信号を検知ユニット100に送信する可能性がある。そして、検知ユニット100は、この場合、図10に示すように、例えば、検知面Fの外側の点P1を対象者の推定位置として推定する可能性がある。
【0111】
そこで、検知ユニット100は、例えば、S12の処理が行われた後、S12の処理で特定した感知情報の組合せに含まれる第1情報の数が所定数(例えば、3)以上であるか否かを判定する。そして、S12の処理で特定した感知情報の組合せに含まれる第1情報の数が所定数以上でないと判定した場合、検知ユニット100は、例えば、第1情報に対応する信号を出力した人感センサ23に隣接する人感センサ22及び人感センサ24から第1情報に対応する信号が送信されたものとして、S13以降の処理を行う。すなわち、検知ユニット100は、この場合、例えば、検知面Fの内側の点P2(分割領域D13に含まれる点P2)を対象者の推定位置として推定することが可能になる。
【0112】
これにより、本変形例における検知ユニット100は、例えば、各人感センサ2が対象者を精度良く検知することができない場合であっても、対象者の移動経路の特定を精度良く行うことが可能になる。
【符号の説明】
【0113】
1:ユニット本体
2:人感センサ
100:検知ユニット
101:CPU
102:メモリ
103:通信インタフェース
104:記憶媒体
105:バス
111:信号受信部
112:対象検知部
113:位置推定部
114:結果出力部
200:感知ユニット
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10