IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 日本電気株式会社の特許一覧

<>
  • 特開-検知システム 図1
  • 特開-検知システム 図2
  • 特開-検知システム 図3
  • 特開-検知システム 図4
  • 特開-検知システム 図5A
  • 特開-検知システム 図5B
  • 特開-検知システム 図6
  • 特開-検知システム 図7
  • 特開-検知システム 図8
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024105587
(43)【公開日】2024-08-06
(54)【発明の名称】検知システム
(51)【国際特許分類】
   G08B 25/00 20060101AFI20240730BHJP
   G08B 21/24 20060101ALI20240730BHJP
【FI】
G08B25/00 510M
G08B21/24
【審査請求】有
【請求項の数】8
【出願形態】OL
(21)【出願番号】P 2024079928
(22)【出願日】2024-05-16
(62)【分割の表示】P 2022508667の分割
【原出願日】2020-03-17
(71)【出願人】
【識別番号】000004237
【氏名又は名称】日本電気株式会社
(74)【代理人】
【識別番号】100124811
【弁理士】
【氏名又は名称】馬場 資博
(74)【代理人】
【識別番号】100088959
【弁理士】
【氏名又は名称】境 廣巳
(74)【代理人】
【識別番号】100097157
【弁理士】
【氏名又は名称】桂木 雄二
(74)【代理人】
【識別番号】100187724
【弁理士】
【氏名又は名称】唐鎌 睦
(72)【発明者】
【氏名】加藤 麻理奈
(72)【発明者】
【氏名】寺澤 哲
(72)【発明者】
【氏名】伊藤 陽平
(72)【発明者】
【氏名】油井 夏城
(57)【要約】      (修正有)
【課題】付帯物を付帯する人物が困るであろう状況を精度よく検知できる検知方法、検知システム、プログラムを提供する。
【解決手段】検知システム100は、人物の所定部位と、当該人物に付帯する特定形状の付帯物との位置を表す位置情報を検出する位置検出手段121と、位置情報に基づいて、人物から付帯物が離れたことを検知する離間検知手段122とを備え、人物の所定部位から付帯物が離れたことを検知した場合に、カメラの位置情報を人物が存在する位置情報として情報処理端末に対して送信する。
【選択図】図7
【特許請求の範囲】
【請求項1】
センサを有した物体と、
映像に基づいた検知を行う検知装置と、
情報処理端末と、
を備えた検知システムであって、
映像に基づいて人物の体の部位の位置情報を取得する手段と、
前記センサからの出力を取得する手段と、
前記センサからの出力に基づいて前記物体が前記人物から離れたことを検知したことに応じて、前記情報処理端末に前記人物の位置に関する情報を報知する手段と、
を備える、
検知システム。
【請求項2】
請求項1に記載の検知システムであって、
前記センサからの出力に基づいて、前記物体の位置を取得する手段と、
前記物体の位置と、前記人物の体の部位の位置情報と、に基づいて、距離を算出する手段と、
をさらに備え、
前記距離が予め設定された距離以上離れている場合、前記前記物体が前記人物から離れたことを検知したと判定する、
検知システム。
【請求項3】
請求項1に記載の検知システムであって、
前記人物の体の部位は、膝または足首を含む、
検知システム。
【請求項4】
請求項1に記載の検知システムであって、
前記物体が前記人物から離れたことを検知したことに応じて、前記映像を撮影したカメラの位置を特定する手段を備える、
検知システム。
【請求項5】
請求項4に記載の検知システムであって、
前記人物の位置に関する情報は、前記カメラの位置を含む、
検知システム。
【請求項6】
請求項1に記載の検知システムであって、
前記センサを有した物体は、白杖、眼鏡、帽子、バッグの少なくともいずれかである、
検知システム。
【請求項7】
センサを有した物体と、
映像に基づいた検知を行う検知装置と、
情報処理端末と、
を備えた検知システムにおける検知方法であって、
前記検知装置が、
映像に基づいて人物の体の部位の位置情報を取得し、
前記センサからの出力を取得し、
前記センサからの出力に基づいて前記物体が前記人物から離れたことを検知したことに応じて、前記情報処理端末に前記人物の位置に関する情報を報知する、
検知方法。
【請求項8】
センサを有した物体と、
映像に基づいた検知を行う検知装置と、
情報処理端末と、
を備えた検知システムの前記検知装置に、
映像に基づいて人物の体の部位の位置情報を取得し、
前記センサからの出力を取得し、
前記センサからの出力に基づいて前記物体が前記人物から離れたことを検知したことに応じて、前記情報処理端末に前記人物の位置に関する情報を報知する、
処理を実行させるプログラム。


【発明の詳細な説明】
【技術分野】
【0001】
本発明は、付帯物を付帯する人物の状況を検知する検知方法、検知システム、プログラムに関する。
【背景技術】
【0002】
身体の不自由な人が日常生活を送るうえで、生活に伴う動作を支援するための各種道具を利用することがある。例えば、視覚障害者は、歩行時における補助道具として、白杖を利用する。白杖は、視覚障害者の杖先の安全確認や、歩行に必要な情報の収集、周囲による自分が視覚障害者であることの認知、といった目的で利用されている。
【0003】
一方で、視覚障害者が接触事故や交通事故にあうことが生じうる。特に、視覚障害者の白杖が、他人や自動車や自転車、列車に接触して巻き込まれることもある。このため、視覚障害者による白杖の利用にあたっては、白杖の巻き込み事故等の防止のため、グリップを強く握らないことが多々ある。その結果、視覚障害者の手から白杖が離れてしまう動作が生じうる。
【先行技術文献】
【特許文献】
【0004】
【特許文献1】特開2019-16348号公報
【非特許文献】
【0005】
【非特許文献1】Yadong Pan et & Shoji Nishimur, "Multi-Person Pose Estimation with Mid-Points for Human Detection under Real-World Surveillance", The 5th Asian Conference on Pattern Recognition (ACPR 2019), 26-29 November 2019
【発明の概要】
【発明が解決しようとする課題】
【0006】
しかしながら、視覚障害者の手から白杖が離れてしまうと、その後に白杖を拾うことも困難となってしまう。このため、視覚障害者が白杖を手から離してしまったことや、視覚障害者が白杖を探していることを検知し、周囲に報知して、手助けすることも必要となる。
【0007】
ここで、特許文献1では、白杖に加速度を検出するセンサを搭載し、検出した加速度から白杖の落下を検知することが記載されている。しかしながら、白杖の加速度だけでは、視覚障害者の手から白杖が離れたことをより正確に検知することは困難であり、誤検知となるおそれが生じうる。また、この場合には、人物が白杖などの付帯物を探す動作も検知することができない。このため、人物が白杖を落としてしまったり、人物が白杖を探している状況というように、人物が困るであろう状況を精度よく検知することができない、という問題が生じる。そして、かかる問題は、白杖を付帯する人物に限らず、いかなる付帯物を付帯している状況であっても生じうる。
【0008】
本発明の目的は、上述した課題である、付帯物を付帯する人物が困るであろう状況を精度よく検知することができない、ことを解決することができる検知方法、検知システム、プログラム、を提供することにある。
【課題を解決するための手段】
【0009】
本発明の一形態である検知方法は、
人物の所定部位と、当該人物に付帯する特定形状の付帯物と、の位置を表す位置情報を検出し、
前記位置情報に基づいて、前記人物から前記付帯物が離れたことを検知する、
という構成をとる。
【0010】
また、本発明の一形態である検知システムは、
人物の所定部位と、当該人物に付帯する特定形状の付帯物と、の位置を表す位置情報を検出する位置検出手段と、
前記位置情報に基づいて、前記人物から前記付帯物が離れたことを検知する離間検知手段と、
を備えた、
という構成をとる。
【0011】
また、本発明の一形態であるプログラムは、
情報処理装置に、
人物の所定部位と、当該人物に付帯する特定形状の付帯物と、の位置を表す位置情報を検出する位置検出手段と、
前記位置情報に基づいて、前記人物から前記付帯物が離れたことを検知する離間検知手段と、
を実現させる、
という構成をとる。
【発明の効果】
【0012】
本発明は、以上のように構成されることにより、人物から付帯物が離れたことを精度よく検知することができる。
【図面の簡単な説明】
【0013】
図1】本発明の実施形態1における情報処理システムの全体構成を示す図である。
図2図1に開示した検知装置の構成を示すブロック図である。
図3図1に開示した検知装置による処理の様子を示す図である。
図4図1に開示した検知装置による処理の様子を示す図である。
図5A図1に開示した検知装置の動作を示すフローチャートである。
図5B図1に開示した検知装置の動作の他の例を示すフローチャートである。
図6】本発明の実施形態2における検知システムのハードウェア構成を示すブロック図である。
図7】本発明の実施形態2における検知システムの構成を示すブロック図である。
図8】本発明の実施形態2における検知システムの動作を示すフローチャートである。
【発明を実施するための形態】
【0014】
<実施形態1>
本発明の第1の実施形態を、図1乃至図6を参照して説明する。図1乃至図2は、検知システムの構成を説明するための図であり、図3乃至図6は、検知システムの処理動作を説明するための図である。
【0015】
[構成]
本実施形態における検知システムは、視覚障害者といった人物Pが手から白杖Wを落とすなど離してしまったことを検知するために用いるものである。このため、検知システムは、例えば、駅、空港、商店街、ショッピングモールなど、人が訪れる場所を対象として利用される。但し、検知システムが検知する対象物は、白杖であることに限定されず、人物Pの所定部位に付帯される特定形状の付帯物であれば、いかなる付帯物を対象としてもよい。例えば、人物Pの眼鏡や帽子、バッグ、などを検知するために用いてもよい。
【0016】
図1に示すように、検知システムは、カメラCと、検知装置10と、を備えて構成されている。また、検知装置10は、上述したように検知システムが利用される場所において、かかる場所に訪れた人々を監視する監視者Uが操作する情報処理端末UTに接続される。上記カメラCは、人物Pを撮影する撮影装置であり、利用される場所において検知システム用に新たに設置されたものであってもよく、防犯カメラや監視カメラとして予め設置されていたものであってもよい。そして、カメラCは、例えば、連続してユーザUを撮影し、撮影した撮影画像を検知装置10に送信する。
【0017】
上記検知装置10は、演算装置と記憶装置とを備えた1台又は複数台の情報処理装置にて構成される。そして、検知装置10は、図2に示すように、位置検出部11、離間検知部12、姿勢検出部13、報知部14、を備える。位置検出部11、離間検知部12、姿勢検出部13、報知部14、のそれぞれの機能は、演算装置が記憶装置に格納された各機能を実現するためのプログラムを実行することにより実現することができる。また、検知装置10は、モデル記憶部15を備える。モデル記憶部15は記憶装置により構成される。以下、各構成について詳述する。
【0018】
上記位置検出部11(位置検出手段)は、カメラCにて撮影された撮影画像を取得する。そして、位置検出部11は、撮影画像に映る人物Pを検出し、かかる人物Pの予め設定された部位の位置情報を検出する。具体的に、位置検出部11は、非特許文献1に記載したような人物Pの骨格を検出する姿勢推定技術を用いて、当該人物Pの各部位を特定し、当該各部位の位置情報を検出する。このとき、位置検出部11は、モデル記憶部15に記憶されている人間の骨格を検出するための学習モデルを用いて、人物Pの各部位の位置情報を検出する。一例として、位置検出部11は、図3の左図に示すように、各部位の位置情報として、ユーザUの関節である手首、肘、肩、骨盤、膝、足首の位置情報や、ユーザUのパーツである目、鼻、耳、の位置情報を検出する。そして、本実施形態における位置検出部11は、特に、手首の位置情報を検出する。但し、位置検出部11は、人物Pのいかなる部位の位置情報を検出してもよい。
【0019】
また、位置検出部11は、撮影画像内から人物Pに付帯する特定形状の付帯物として、白杖Wの位置情報を検出する。例えば、位置検出部11は、図3の左図に示すように、撮影画像内から、上述したように人物Pの手首の部位の位置情報を検出すると共に、かかる手首の部位付近に存在する、白色の細長い棒形状の物体を白杖Wとして検出して、白杖Wの位置情報を検出する。このとき、位置検出部11は、白杖Wの長さ方向の両端部位の位置情報を検出する。そして、位置検出部11は、人物Pの手首の部位の位置情報と白杖Wの両端部位のうち手首に近い端部の位置情報とを関連付けと共に、これらの位置情報の検出を、新たな撮影画像に対して一定の時間間隔で常に行う。
【0020】
また、位置検出部11は、必ずしも上述した人物Pの骨格を検出する姿勢推定技術を用いて人物Pの各部位の位置情報を検出することに限定されず、いかなる方法で人物の各部位の位置情報を検出してもよい。また、位置検出部11は、白杖Wの位置情報も、上述した方法で行うことに限定されず、いかなる方法で行ってもよい。例えば、位置検出部11は、撮影画像を用いず、人物Pの手首などの所定部位に装着されたセンサや白杖Wに搭載されたセンサを用いて、各位置情報を検出してもよい。なお、位置検出部11は、白杖Wではなく、他の付帯物の位置情報を検出する場合には、予め設定される付帯物の形状情報に基づいて、撮影画像内の付帯物を抽出し、かかる付帯物の位置情報を検出してもよい。
【0021】
上記離間検知部12(離間検知手段)は、上述したように検出した人物Pの位置情報と、白杖Wの位置情報と、を用いて、人物Pの所定部位と白杖Wの所定部位との距離Dを算出する。そして、離間検出部12は、算出した距離Dに基づいて、人物Pから白杖Wが離れたことを検知する。例えば、離間検知部12は、図3の右図に示すように、人物Pの手首の位置情報と、当該手首の位置に近い白杖Wの端部の位置情報とから、これらの距離Dを算出する。そして、離間検出部12は、算出した距離Dが、予め設定された時間以上、予め設定された距離以上離れている場合に、人物Pから白杖Wが離れたことを検知する。一例として、離間検知部12は、算出した距離Dが1m以上であり、かかる距離Dが5秒以上続いた場合に、人物Pから白杖Wが離れたことを検知する。
【0022】
但し、上述した方法は一例であって、離間検知部12は、他の方法で人物Pから白杖Wが離れたことを検知してもよい。例えば、離間検知部12は、人物Pの重心位置と、白杖Wの重心位置と、の距離を算出し、かかる距離から人物Pから白杖Wが離れたことを検知してもよい。
【0023】
上記姿勢検出部14(離間検出手段)は、上述したように人物Pから白杖Wが離れたことを検知した後における人物Pの姿勢を検知する。例えば、姿勢検出部14は、カメラ1にて撮影された撮影画像を取得し、撮影画像に映る人物Pを検出して、かかる人物Pの予め設定された部位の位置情報を検出する。具体的に、姿勢検出部14は、上述同様に、人物Pの骨格を検出する姿勢推定技術を用いて、当該人物Pの各部位を特定し、当該各部位の位置情報を検出する。例えば、姿勢検出部14は、図4の左図に示すように、人物Pの各部位の位置情報として、ユーザUの関節である手首、肘、肩、骨盤、膝、足首の位置情報や、ユーザUのパーツである目、鼻、耳、の位置情報を検出する。そして、姿勢検出部14は、各部位の位置情報の位置関係から、人物Pの姿勢を検出する。例えば、図4の左図の例では、人物Pの各関節の位置関係から、人物Pが屈んでいる姿勢であることを検出し、人物Pが白杖Wを探そうとしていることを検出する。また、姿勢検出部14は、例えば、人物Pの頭部の位置や目の向きなどの姿勢を検出して、かかる姿勢から人物Pが白杖Wを探そうとしていることを検出する。そして、姿勢検出部14は、人物Pの姿勢の検出を新たな撮影画像に対して一定の時間間隔で常に行う。これにより、姿勢検出部14は、人物Pの動作を検知してもよい。例えば、図4の左図から右図に人物Pの姿勢が変化した場合には、人物Pは落とした白杖Wを探す動作をとっていることを検出することができる。
【0024】
上記報知部15(報知手段)は、上述したように、人物Pから白杖Wが離れたことを検知したときに、監視者Uの情報処理端末UTに対して、白杖Wを落とした人物Pがいる旨の情報を含む報知情報を送信する報知処理を行う。このとき、報知部15は、人物Pから白杖Wが離れたことを検知した撮影画像を撮影したカメラCの識別情報から、かかるカメラCの位置を特定し、当該カメラCの位置情報を人物Pが存在する位置情報として情報処理端末UTに対して送信する。
【0025】
また、報知部15(第二報知手段)は、上述したように、人物Pから白杖Wが離れたことを検知した後に当該人物Pの姿勢を検出し、その姿勢や動作に応じて、監視者Uの情報処理端末UTに対して報知情報を送信する報知処理(第二の報知処理)を行う。例えば、報知部15は、人物Pの姿勢が屈んでいる姿勢であったり、人物Pの動作が白杖Wを探している動作をとっていることを検出した場合に、人物Pが白杖Wを探している旨と、そのことを検出した撮影画像を撮影したカメラCから特定できる位置情報と、を報知情報として、情報処理端末UTに対して送信する。
【0026】
なお、上述した報知部15により監視者Uの情報処理端末UTに報知される報知情報は、上述した内容の情報であることに限定されず、他の情報であってもよい。また、報知部15は、上述した白杖Wを落とした人物Pがいる旨の情報を含む報知情報を、必ずしも情報処理端末UTに報知することに限定されず、その後の人物Pの姿勢に応じた人物Pが白杖Wを探している旨の情報を含む報知情報のみを報知するよう作動してもよい。
【0027】
[動作]
次に、上述した検知装置10の動作を、主に図5Aのフローチャートを参照して説明する。まず、検知装置10は、カメラCにて撮影された撮影画像を常に取得し、かかる撮影画像から人物Pと白杖Wとの位置情報の検出を行う(ステップS1)。例えば、検知装置10は、人物Pの骨格を検出する姿勢推定技術を用いて、当該人物Pの各部位を特定し、当該各部位の位置情報を検出する。また、検知装置10は、白杖Wの形状や色の特徴に基づいて、白杖Wの位置情報を検出する。特に、検知装置10は、例えば、人物Pの手首位置と白杖Wの端部位置との検出を行う。
【0028】
そして、検知装置10は、人物Pと白杖Wとの距離を算出し、かかる距離に応じて人物Pから白杖Wが離れたことを検知する(ステップS2でYes、ステップS3)。例えば、検知装置10は、図3に示すように、人物Pの手首位置と、白杖Wの端部位置と、の距離Dを算出し、予め設定された時間以上、予め設定された距離以上離れている場合に、人物Pから白杖Wが離れたことを検知する。このとき、検知装置10は、監視者Uの情報処理端末UTに対して、白杖Wを落とした人物Pがいる旨の情報を含む報知情報を送信してもよい。
【0029】
その後、検知装置10は、人物Pから白杖Wが離れたことを検知した後に取得した撮影画像を用いて、かかる人物Pの姿勢を検出する(ステップS4)。例えば、検知装置10は、人物Pの骨格を検出する姿勢推定技術を用いて、当該人物Pの各部位を特定し、当該各部位の位置情報を検出し、各部位の位置関係に応じて人物Pの姿勢を検出する。そして、検知装置10は、例えば、図4に示すように、人物Pの各関節の位置関係から、人物Pが屈んでいる姿勢であったり、人物Pが落とした白杖Wを探す動作をとっていることを検出した場合には(ステップS5でYes)、白杖Wを探している人物Pがいることを監視者Uの情報処理端末UTに対して報知する(ステップS6)。
【0030】
以上のように、本実施形態では、人物Pの所定部位と白杖Wとの位置情報を検出し、かかる位置情報に基づいて人物Pから白杖Wが離れたことを検知している。このため、人物Pから白杖Wが離れたことを精度よく検知することができ、人物Pに対して迅速かつ適切な支援行動をとることができる。また、白杖Wを離してしまった人物Pの姿勢を検出することで、当該人物Pが白杖Wを探していることを精度よく検知することができ、さらに人物Pに対して迅速かつ適切な支援行動をとることができる。
【0031】
[変形例]
次に、検知装置10にて、人物Pが白杖Wを探していることを検知する他の例を、図5Bのフローチャートを参照して説明する。まず、検知装置10は、カメラCにて撮影された撮影画像を常に取得し、かかる撮影画像から人物Pと白杖Wとの位置情報の検出を行い、白杖Wを所持している人物Pの検出を行う(ステップS11)。例えば、検知装置10は、人物Pの骨格を検出する姿勢推定技術を用いて、当該人物Pの各部位を特定し、当該各部位の位置情報を検出する。また、検知装置10は、白杖Wの形状や色の特徴に基づいて、白杖Wの位置情報を検出する。特に、検知装置10は、人物Pの手首位置と白杖Wの端部位置との検出を行い、白杖Wを手に持っている人物Pの検出を行う。
【0032】
なお、検知装置10は、上述したように人物Pの各部位の位置情報や白杖Wの位置情報を検出しなくてもよく、別の方法で白杖Wを付帯する人物Pを検出してもよい。例えば、検知装置10は、白杖Wの形状や色の特徴に基づいて白杖Wを検出し、かつ、白杖W付近に位置する人物Pを物体の特徴量や動作などから検出することで、白杖Wを付帯する人物Pを検出してもよい。また、上述とは異なり、この変形例においては、検知装置10は、人物Pが白杖Wを落とすなど人物Pから白杖Wが離れたことは検知しない。
【0033】
続いて、検知装置10は、白杖Wを手に持っている人物Pを検出した後に取得した撮影画像を用いて、かかる人物Pの姿勢を検出する(ステップS12)。例えば、検知装置10は、人物Pの骨格を検出する姿勢推定技術を用いて、当該人物Pの各部位を特定し、当該各部位の位置情報を検出し、各部位の位置関係に応じて人物Pの姿勢を検出する。そして、検知装置10は、例えば、人物Pの各関節の位置関係から、図4の左図に示すように人物Pが屈んでいる姿勢であったり、図4の右図に示すようにさらに人物Pが地面に張って何かを探す姿勢をとっていることを検出した場合には(ステップS13でYes)、白杖Wを探している人物Pがいることを監視者Uの情報処理端末UTに対して報知する(ステップS14)。
【0034】
以上のように、本実施形態では、まず白杖Wを所持している人物Pを検出し、かかる人物Pの姿勢から、人物Pが白杖Wを探していることを検知している。このため、人物Pが白杖Wといった付帯物を探しているというように、人物Pが困っているであろう状況を精度よく検知することができ、人物Pに対して迅速かつ適切な支援行動をとることができる。
【0035】
<実施形態2>
次に、本発明の第2の実施形態を、図6乃至図8を参照して説明する。図6乃至図7は、実施形態2における検知システムの構成を示すブロック図であり、図8は、検知システムの動作を示すフローチャートである。なお、本実施形態では、上述した実施形態で説明した検知システム及び検知方法の構成の概略を示している。
【0036】
まず、図6を参照して、本実施形態における検知システム100のハードウェア構成を説明する。検知システム100は、一般的な情報処理装置にて構成されており、一例として、以下のようなハードウェア構成を装備している。
・CPU(Central Processing Unit)101(演算装置)
・ROM(Read Only Memory)102(記憶装置)
・RAM(Random Access Memory)103(記憶装置)
・RAM103にロードされるプログラム群104
・プログラム群104を格納する記憶装置105
・情報処理装置外部の記憶媒体110の読み書きを行うドライブ装置106
・情報処理装置外部の通信ネットワーク111と接続する通信インタフェース107
・データの入出力を行う入出力インタフェース108
・各構成要素を接続するバス109
【0037】
そして、検知システム100は、プログラム群104をCPU101が取得して当該CPU101が実行することで、図7に示す位置検出手段121と離間検知手段122とを構築して装備することができる。なお、プログラム群104は、例えば、予め記憶装置105やROM102に格納されており、必要に応じてCPU101がRAM103にロードして実行する。また、プログラム群104は、通信ネットワーク111を介してCPU101に供給されてもよいし、予め記憶媒体110に格納されており、ドライブ装置106が該プログラムを読み出してCPU101に供給してもよい。但し、上述した位置検出手段121と離間検知手段122とは、かかる手段を実現させるための専用の電子回路で構築されるものであってもよい。
【0038】
なお、図6は、検知システム100である情報処理装置のハードウェア構成の一例を示しており、情報処理装置のハードウェア構成は上述した場合に限定されない。例えば、情報処理装置は、ドライブ装置106を有さないなど、上述した構成の一部から構成されてもよい。
【0039】
そして、検知システム100は、上述したようにプログラムによって構築された位置検出手段121と離間検知手段122との機能により、図8のフローチャートに示す検知方法を実行する。
【0040】
図8に示すように、検知システム100は、
人物の所定部位と、当該人物に付帯する特定形状の付帯物と、の位置を表す位置情報を検出し(ステップS101)、
前記位置情報に基づいて、前記人物から前記付帯物が離れたことを検知する(ステップS102)、
という処理を実行する。
【0041】
本発明は、以上のように構成されることにより、人物の所定部位と付帯物との位置情報を検出し、かかる位置情報に基づいて人物から付帯物が離れたことを検知している。このため、人物から白杖が離れたことを精度よく検知することができ、つまり、人物が困りうる状況を精度よく検知することができ、人物Pに対して迅速かつ適切な支援行動をとることができる。
【0042】
なお、上述したプログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、CD-ROM(Read Only Memory)、CD-R、CD-R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(Random Access Memory))を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
【0043】
以上、上記実施形態等を参照して本願発明を説明したが、本願発明は、上述した実施形態に限定されるものではない。本願発明の構成や詳細には、本願発明の範囲内で当業者が理解しうる様々な変更をすることができる。また、上述した位置検出手段121と離間検知手段122との機能のうちの少なくとも一以上の機能は、ネットワーク上のいかなる場所に設置され接続された情報処理装置で実行されてもよく、つまり、いわゆるクラウドコンピューティングで実行されてもよい。
【0044】
<付記>
上記実施形態の一部又は全部は、以下の付記のようにも記載されうる。以下、本発明における検知方法、検知システム、プログラムの構成の概略を説明する。但し、本発明は、以下の構成に限定されない。
(付記1)
人物の所定部位と、当該人物に付帯する特定形状の付帯物と、の位置を表す位置情報を検出し、
前記位置情報に基づいて、前記人物から前記付帯物が離れたことを検知する、
検知方法。
(付記2)
付記1に記載の検知方法であって、
人物を撮影した撮影画像から、人物の骨格を検出することにより当該人物の所定部位と前記付帯物との前記位置情報を検出する、
検知方法。
(付記3)
付記1又は2に記載の検知方法であって、
人物から前記付帯物が予め設定された距離以上離れたことを検知する、
検知方法。
(付記4)
付記1乃至3のいずれかに記載の検知方法であって、
人物から前記付帯物が予め設定された時間以上離れたことを検知する、
検知方法。
(付記5)
付記1乃至4のいずれかに記載の検知方法であって、
人物から前記付帯物が離れたことを検知した場合に、予め設定された報知処理を行う、
検知方法。
(付記6)
付記1乃至5のいずれかに記載の検知方法であって、
人物から前記付帯物が離れたことを検知した後の当該人物の姿勢を検出する、
検知方法。
(付記7)
付記6に記載の検知方法であって、
人物から前記付帯物が離れたことを検知した後に当該人物を撮影した撮影画像から、人物の骨格を検出することにより当該人物の姿勢を検出する、
検知方法。
(付記8)
付記6又は7に記載の検知方法であって、
検出した人物の姿勢に基づいて当該人物の動作を検出する、
検知方法。
(付記9)
付記7又は8に記載の検知方法であって、
検出した人物の姿勢に基づいて、予め設定された第二の報知処理を行う、
検知方法。
(付記10)
付記1乃至9のいずれかに記載の検知方法であって、
前記付帯物は、所定の長さを有する棒状体である、
検知方法。
(付記11)
付記10に記載の検知方法であって、
前記付帯物は、白杖である、
検知方法。
(付記12)
人物の所定部位と、当該人物に付帯する特定形状の付帯物と、の位置を表す位置情報を検出する位置検出手段と、
前記位置情報に基づいて、前記人物から前記付帯物が離れたことを検知する離間検知手段と、
を備えた検知システム。
(付記13)
付記12に記載の検知システムであって、
前記位置検出手段は、人物を撮影した撮影画像から、人物の骨格を検出することにより当該人物の所定部位と前記付帯物との前記位置情報を検出する、
検知システム。
(付記14)
付記12又は13に記載の検知システムであって、
前記離間検知手段は、人物から前記付帯物が予め設定された距離以上離れたことを検知する、
検知システム。
(付記15)
付記12乃至14のいずれかに記載の検知システムであって、
前記離間検知手段は、人物から前記付帯物が予め設定された時間以上離れたことを検知する、
検知システム。
(付記16)
付記12乃至15のいずれかに記載の検知システムであって、
人物から前記付帯物が離れたことを検知した場合に、予め設定された報知処理を行う報知手段を備えた、
検知システム。
(付記17)
付記12乃至16のいずれかに記載の検知システムであって、
人物から前記付帯物が離れたことを検知した後の当該人物の姿勢を検出する姿勢検出手段を備えた、
検知システム。
(付記18)
付記17に記載の検知システムであって、
前記姿勢検出手段は、人物から前記付帯物が離れたことを検知した後に当該人物を撮影した撮影画像から、人物の骨格を検出することにより当該人物の姿勢を検出する、
検知システム。
(付記19)
付記17又は18に記載の検知システムであって、
前記姿勢検出手段は、検出した人物の姿勢に基づいて当該人物の動作を検出する、
検知システム。
(付記20)
付記18又は19に記載の検知システムであって、
検出した人物の姿勢に基づいて、予め設定された第二の報知処理を行う第二報知手段を備えた、
検知システム。
(付記21)
情報処理装置に、
人物の所定部位と、当該人物に付帯する特定形状の付帯物と、の位置を表す位置情報を検出する位置検出手段と、
前記位置情報に基づいて、前記人物から前記付帯物が離れたことを検知する離間検知手段と、
を実現させるためのプログラムを記憶したコンピュータにて読み取り可能な記憶媒体。
(付記21.1)
付記21に記載のプログラムを記憶したコンピュータにて読み取り可能な記憶媒体であって、
前記情報処理装置に、さらに、
人物から前記付帯物が離れたことを検知した場合に、予め設定された報知処理を行う報知手段、
を実現させるためのプログラムを記憶したコンピュータにて読み取り可能な記憶媒体。
(付記22)
付記21に記載のプログラムを記憶したコンピュータにて読み取り可能な記憶媒体であって、
前記情報処理装置に、さらに、
人物から前記付帯物が離れたことを検知した後の当該人物の姿勢を検出する姿勢検出手段、
を実現させるためのプログラムを記憶したコンピュータにて読み取り可能な記憶媒体。
(付記22.1)
付記22に記載のプログラムを記憶したコンピュータにて読み取り可能な記憶媒体であって、
前記情報処理装置に、さらに、
検出した人物の姿勢に基づいて、予め設定された第二の報知処理を行う第二報知手段、
を実現させるためのプログラムを記憶したコンピュータにて読み取り可能な記憶媒体。
(付記A1)
付帯物を付帯する人物を検出し、
その後の人物の姿勢を検出し、
検出した人物の姿勢に基づいて、人物が予め設定された特定の姿勢をとることを検知する、
検知方法。
(付記A2)
付記A1に記載の検知方法であって、
人物を撮影した撮影画像から、人物の骨格を検出することにより当該人物の姿勢を検出する、
検知方法。
(付記A3)
付記A1又はA2に記載の検知方法であって、
検出した人物の姿勢に基づいて、前記特定の姿勢として人物が付帯物を探す姿勢をとることを検知する、
検知方法。
(付記A4)
付記A1乃至A3のいずれかに記載の検知方法であって、
人物が前記特定の姿勢をとることを検知したときに、予め設定された報知処理を行う、
検知方法。
【符号の説明】
【0045】
10 検知装置
11 位置検出部
12 離間検知部
13 姿勢検出部
14 報知部
15 モデル記憶部
C カメラ
P 人物
U 監視者
UT 情報処理端末
100 検知システム
101 CPU
102 ROM
103 RAM
104 プログラム群
105 記憶装置
106 ドライブ装置
107 通信インタフェース
108 入出力インタフェース
109 バス
110 記憶媒体
111 通信ネットワーク
121 位置検出手段
122 離間検知手段
図1
図2
図3
図4
図5A
図5B
図6
図7
図8