IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ パナソニックIPマネジメント株式会社の特許一覧

特許7588353人物分析システム、人物分析方法、及び、人物分析プログラム
<>
  • 特許-人物分析システム、人物分析方法、及び、人物分析プログラム 図1
  • 特許-人物分析システム、人物分析方法、及び、人物分析プログラム 図2
  • 特許-人物分析システム、人物分析方法、及び、人物分析プログラム 図3
  • 特許-人物分析システム、人物分析方法、及び、人物分析プログラム 図4
  • 特許-人物分析システム、人物分析方法、及び、人物分析プログラム 図5
  • 特許-人物分析システム、人物分析方法、及び、人物分析プログラム 図6
  • 特許-人物分析システム、人物分析方法、及び、人物分析プログラム 図7
  • 特許-人物分析システム、人物分析方法、及び、人物分析プログラム 図8
  • 特許-人物分析システム、人物分析方法、及び、人物分析プログラム 図9
  • 特許-人物分析システム、人物分析方法、及び、人物分析プログラム 図10
  • 特許-人物分析システム、人物分析方法、及び、人物分析プログラム 図11
  • 特許-人物分析システム、人物分析方法、及び、人物分析プログラム 図12
  • 特許-人物分析システム、人物分析方法、及び、人物分析プログラム 図13
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-11-14
(45)【発行日】2024-11-22
(54)【発明の名称】人物分析システム、人物分析方法、及び、人物分析プログラム
(51)【国際特許分類】
   G01S 13/89 20060101AFI20241115BHJP
   G01S 13/34 20060101ALI20241115BHJP
【FI】
G01S13/89
G01S13/34
【請求項の数】 12
(21)【出願番号】P 2022207036
(22)【出願日】2022-12-23
(65)【公開番号】P2024090863
(43)【公開日】2024-07-04
【審査請求日】2024-09-09
【新規性喪失の例外の表示】特許法第30条第2項適用 令和4年10月17日より、パナソニックコネクト株式会社内カスタマーエクスペリエンスセンターにて、人物分析システムのデモンストレーション・アプリケーションを公開
【早期審査対象出願】
(73)【特許権者】
【識別番号】314012076
【氏名又は名称】パナソニックIPマネジメント株式会社
(74)【代理人】
【識別番号】110002000
【氏名又は名称】弁理士法人栄光事務所
(72)【発明者】
【氏名】大野 耕祐
(72)【発明者】
【氏名】安木 慎
(72)【発明者】
【氏名】野口 浩
【審査官】藤脇 昌也
(56)【参考文献】
【文献】特開2019-207164(JP,A)
【文献】特開2020-156668(JP,A)
【文献】特開2015-213251(JP,A)
【文献】米国特許出願公開第2016/379462(US,A1)
【文献】特開2010-249876(JP,A)
【文献】特開2009-93322(JP,A)
【文献】米国特許出願公開第2017/291615(US,A1)
【文献】国際公開第2019/188568(WO,A1)
【文献】中国特許出願公開第110457094(CN,A)
【文献】国際公開第2010/13572(WO,A1)
(58)【調査した分野】(Int.Cl.,DB名)
G01S 7/00 - 7/42
13/00 - 13/95
G06Q 10/00 - 99/00
G08B 1/00 - 31/00
(57)【特許請求の範囲】
【請求項1】
監視エリアに少なくとも1つ設置され、レーダ方式によって前記監視エリアを観測した結果を含む観測データを出力するレーダ装置と、
前記観測データに基づいて、前記監視エリアに存在する各人物の位置を検出する第1の処理と、検出した前記各人物の行動を推定する第2の処理とを実行し、前記監視エリアに対応するエリアマップを表示すると共に、前記エリアマップに前記各人物の位置と行動の種類とを示すピクトグラムを所定の表示装置に表示する人物分析装置と、を備え、
前記人物分析装置は、前記各人物の行動が予め設定された行動に該当する場合に、前記ピクトグラムを前記表示装置に表示させる、
人物分析システム。
【請求項2】
前記人物分析装置は、
前記観測データに基づいて、3次元の点群データを生成し、
前記第1の処理では、前記点群データの分布に基づいて、前記各人物の位置を検出し、
前記第2の処理では、前記点群データの時間変化に基づいて、前記各人物の行動を推定する、
請求項1に記載の人物分析システム。
【請求項3】
前記第1の処理は、前記点群データを入力した場合に人物が存在する位置が出力されるように予め学習された第1のニューラルネットワークを用いて、前記各人物の位置を検出し、
前記第2の処理は、前記点群データの時間変化を入力した場合に人物の行動が出力されるように予め学習された第2のニューラルネットワークを用いて、前記各人物の行動を推定する、
請求項2に記載の人物分析システム。
【請求項4】
前記点群データは、少なくとも、各点の3次元の座標を示す座標情報と、各点の移動の方向及び速度を示す動き情報とを含み、
前記第2の処理は、少なくとも前記動き情報を前記第2のニューラルネットワークに入力することにより、人物の行動を推定する、
請求項3に記載の人物分析システム。
【請求項5】
前記人物分析装置は、
前記第1の処理では、前記点群データの分布に基づいて、人物の姿勢及び向きをさらに検出し、
推定した前記人物の行動と、検出した前記人物の姿勢及び向きとに基づいて、前記人物の行動の適否を判定し、
前記ピクトグラムと、前記人物の行動の適否の判定結果を示す情報とを一緒に表示する、
請求項2から請求項4のいずれか1項に記載の人物分析システム。
【請求項6】
前記人物分析装置は、
前記点群データ及び前記観測データに基づいて、人物のバイタルを推定し、
推定した前記人物の行動と、検出した前記人物の姿勢と、推定した前記人物のバイタルとに基づいて、前記人物の体調を判定し、
前記ピクトグラムと、前記人物の体調の判定結果を示す情報とを一緒に表示する、
請求項2から請求項4のいずれか1項 に記載の人物分析システム。
【請求項7】
前記第2のニューラルネットワークは、行動の種類毎に当該行動の推定の確からしさを示すスコアを出力するようになっており、
前記人物分析装置は、
前記スコアが所定の閾値以上である行動が複数存在する場合、当該複数の前記ピクトグラムを一緒に表示する、
請求項3に記載の人物分析システム。
【請求項8】
前記人物分析装置は、
前記複数の行動のうち最もスコアの高い行動を示す前記ピクトグラムを、他の行動を示す前記ピクトグラムと異なる色又は明度にて表示する、
請求項7に記載の人物分析システム。
【請求項9】
前記第2のニューラルネットワークは、行動の種類毎に当該行動の推定の確からしさを示すスコアを出力するようになっており、
前記人物分析装置は、
前記スコアが所定の閾値以上である行動が存在しない場合、前記スコアの上位から1又は複数の前記ピクトグラムを、前記スコアが所定の閾値以上である場合に表示される前記ピクトグラムと異なる色又は明度にて表示する、
請求項3に記載の人物分析システム。
【請求項10】
前記人物分析装置は、
検出した各人物の位置に基づいて前記各人物の他の人物との粗密を特定し、前記ピクトグラムと共に、当該人物の粗密を示す情報を一緒に表示する、
請求項2から請求項4のいずれか1項 に記載の人物分析システム。
【請求項11】
情報処理装置において、監視エリアに少なくとも1つ設置されたレーダ装置から、レーダ方式によって前記監視エリアを観測した結果を含む観測データを取得し、
前記観測データに基づいて、前記監視エリアに存在する各人物の位置を検出する第1の処理と、検出した前記各人物の行動を推定する第2の処理とを実行し、
前記監視エリアに対応するエリアマップを所定の表示装置に表示させると共に、前記各人物の行動が予め設定された行動に該当する場合に、前記各人物の位置と行動の種類とを示すピクトグラムを前記エリアマップに表示させる、
人物分析方法。
【請求項12】
請求項11に記載の人物分析方法をコンピュータに実行させる、
人物分析プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、人物分析システム、人物分析方法、及び、人物分析プログラムに関する。
【背景技術】
【0002】
プライバシーを保護しつつ部屋に存在する人物を検出可能なセンサとして、マイクロ波を利用して人物を検知するセンサが知られている。特許文献1には、FMCW(Frequency Modulated Continuous Wave)センサを利用して、生成したビート信号の周波数スペクトルにおける全周波数成分中の少なくとも一部の周波数成分の強度和を算出し、その強度和が所定の値よりも小さい場合に部屋内に物体が存在すると判定し、また、生成したビート信号のスペクトル分布によって、人物の位置を検出し、人物の状態(例えば人物が転倒している状態)を推定することが開示されている。
【先行技術文献】
【特許文献】
【0003】
【文献】特開2016-138796号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
しかしながら、特許文献1には、複数の人物のそれぞれの行動(つまり人物が何を行っているのか)を推定することは開示されていない。
【0005】
本開示の目的は、電波を照射して人物を検出するセンサを用いて、複数の人物のそれぞれについて位置の検出と行動の推定とを行うための技術を提供することにある。
【課題を解決するための手段】
【0006】
本開示の一態様に係る人物分析システムは、監視エリアに少なくとも1つ設置され、レーダ方式によって前記監視エリアを観測した結果を含む観測データを出力するレーダ装置と、前記観測データに基づいて、前記監視エリアに存在する各人物の位置を検出する第1の処理と、検出した前記各人物の行動を推定する第2の処理とを実行し、前記監視エリアに対応するエリアマップを表示すると共に、前記エリアマップに前記各人物の位置と行動の種類とを示すピクトグラムを所定の表示装置に表示する人物分析装置と、を備え、前記人物分析装置は、前記各人物の行動が予め設定された行動に該当する場合に、前記ピクトグラムを前記表示装置に表示させる
【0007】
本開示の一態様に係る人物分析方法は、情報処理装置において、監視エリアに少なくとも1つ設置されたレーダ装置から、レーダ方式によって前記監視エリアを観測した結果を含む観測データを取得し、前記観測データに基づいて、前記監視エリアに存在する各人物の位置を検出する第1の処理と、検出した前記各人物の行動を推定する第2の処理とを実行し、前記監視エリアに対応するエリアマップを所定の表示装置に表示させると共に、前記各人物の行動が予め設定された行動に該当する場合に、前記各人物の位置と行動の種類とを示すピクトグラムを前記エリアマップに表示させる。
【0008】
本開示の一態様に係る人物分析プログラムは、上記の人物分析方法をコンピュータに実行させる。
【0009】
なお、これらの包括的又は具体的な態様は、システム、装置、方法、集積回路、コンピュータプログラム又は記録媒体で実現されてもよく、システム、装置、方法、集積回路、コンピュータプログラム及び記録媒体の任意な組み合わせで実現されてもよい。
【発明の効果】
【0010】
本開示によれば、レーダ方式によって前記監視エリアを観測した結果を用いて、監視エリアに存在する各人物の予め設定された行動について、各人物の位置と行動の種類とを示すピクトグラムの表示により、各人物がどの位置でどのような行動をとっているかを一目で確認できる。
【図面の簡単な説明】
【0011】
図1】本実施の形態に係る人物分析システムの構成例を示す図
図2】本実施の形態に係る表示装置の表示例を示す図
図3】本実施の形態に係る人物分析装置の構成例を示す図
図4】本実施の形態に係る各データに含まれる情報の一例を示す図
図5】本実施の形態に係る人物の行動の適否を分析する例を説明するための図
図6】本実施の形態に係る人物の体調を分析する例を説明するための図
図7】本実施の形態に係る指定された行動を表示する例を説明するための図
図8】本実施の形態に係る行動の推定精度の表示例を説明するための図
図9】本実施の形態に係る行動の適否の表示条件を設定するための画面の例を示す図
図10】本実施の形態に係る体調の表示条件を設定するための画面の例を示す図
図11】本実施の形態に係る用途を選択するための画面の例を示す図
図12】本実施の形態に係る検知感度を設定するための画面の例を示す図
図13】本開示に係る人物分析装置の機能ブロックをコンピュータプログラムにより実現する情報処理装置(コンピュータ)のハードウェア構成例を示す図
【発明を実施するための形態】
【0012】
以下、図面を適宜参照して、本開示の実施の形態について、詳細に説明する。ただし、必要以上に詳細な説明は省略する場合がある。例えば、すでによく知られた事項の詳細説明及び実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。なお、添付図面及び以下の説明は、当業者が本開示を十分に理解するために提供されるのであって、これらにより特許請求の記載の主題を限定することは意図されていない。
【0013】
(本実施の形態)
<人物分析システムの構成>
図1は、本実施の形態に係る人物分析システム10の構成例を示す図である。図2は、本実施の形態に係る表示装置50の表示例を示す図である。
【0014】
図1に示すように、人物分析システム10は、レーダ装置11、サーモセンサ12、環境センサ13、人物分析装置20、入力装置40、及び、表示装置50を含んで構成される。
【0015】
人物分析装置20は、通信ネットワーク14を通じて、レーダ装置11、サーモセンサ12及び環境センサ13の少なくとも1つとデータを送受信できてよい。通信ネットワーク14の例として、有線LAN(Local Area Network)、無線LAN、インターネット、又は、VPN(Virtual Private Network)等が挙げられる。
【0016】
人物分析装置20には、入力装置40及び表示装置50が接続される。入力装置40の例として、キーボード、マウス、タッチパッド、マイク、又は、タブレット端末等が挙げられる。表示装置50の例として、液晶ディスプレイ、有機ELディスプレイ、又は、タブレット端末等が挙げられる。
【0017】
レーダ装置11は、レーダ方式のセンサの一例であり、監視エリア1に少なくとも1つ設置される。レーダ装置11は、電波(レーダ)を照射してその反射波を受信することにより、監視エリア1に存在する人物2又は物体(図示しない)の位置等を観測し、その観測した結果を含む観測データを生成する。例えば、レーダ装置11は、レーダ方式としてミリ波帯(例えば60GHz帯又は79GHz帯)に広帯域(例えば7MHz)の信号をFMCW(Frequency Modulated Continuous Wave)変調した電波(レーダ)を、MIMO(Multi Input Multi Output)アンテナを用いて送信する。そして、レーダ装置11は、その送信した電波が人物又は物体に反射された反射波を、MIMOアンテナを用いて受信する。レーダ装置11は、送信した信号と受信した信号との差分信号に基づいて、観測データの一例であるビート信号を生成する。ビート信号は、IQ(In-phase / Quadrature-phase)データとして構成されてよい。レーダ装置11は、IQデータを人物分析装置20に送信する。なお、レーダ装置11は、LiDAR(Light Detection And Ranging)であってもよい。
【0018】
サーモセンサ12は、監視エリア1に少なくも1つ設置される。サーモセンサ12は、物体から放射される赤外線を測定することにより、監視エリア1に存在する各人物2の体温を測定し、その測定した結果を含むサーモデータを生成する。サーモセンサ12は、生成したサーモデータを人物分析装置20に送信する。
【0019】
環境センサ13は、監視エリア1に少なくとも1つ設置される。環境センサ13は、例えば、監視エリア1の照度、監視エリア1の照度及び照明色、監視エリア1の気温及び湿度、監視エリア1の騒音の大きさ、及び、監視エリア1の匂いの種類うちの少なくとも1つを測定し、その測定した結果を含む環境データを生成する。環境センサ13は、生成した環境データを人物分析装置20に送信する。なお、測定対象毎に環境センサ13が異なってもよいし、複数の測定対象を1つの環境センサ13が測定してもよい。
【0020】
人物分析装置20は、レーダ装置11から受信した観測データに基づいて、監視エリア1に存在する各人物2の位置を検出する第1の処理と、検出した各人物2の行動を推定する第2の処理とを実行し、各人物2の位置と行動とを示す情報を表示装置50に表示する。例えば、図2に示すように、人物分析装置20は、監視エリア1に対応するエリアマップ51を表示すると共に、エリアマップ51における検出した人物2の位置に、推定した人物2の行動を示すピクトグラム60を表示する。これにより、表示装置50を確認しているユーザは、監視エリア1に存在する各人物2がどの位置でどのような行動をとっているかを一目で確認できる。なお、人物分析装置20の詳細と、図2に例示する表示装置50に表示される情報の詳細については後述する。
【0021】
以下では、「監視エリア」が倉庫であり、「人物」が倉庫で働く作業者であり、「行動」が倉庫で作業者が行う代表的な作業である場合の一例を説明する。また、行動の種類として、荷物を運搬する作業(以下「運搬」と称する)と、荷物を収集する作業(以下「収集」と称する)と、荷物を梱包する作業(以下「梱包」と称する)と、荷物を検品する作業(以下「検品」と称する)とを一例に挙げて説明する。
【0022】
この場合、図2に示すように、人物分析装置20は、倉庫のエリアマップ51の人物2が存在する位置に、当該人物2の行動を示すピクトグラム60を表示する。例えば、人物分析装置20は、ある人物2の行動を「運搬」と推定した場合、倉庫のエリアマップ51の当該人物2が存在する位置に、「運搬」を示すピクトグラム60Aを表示する。人物分析装置20は、ある人物2の行動を「収集」と推定した場合、倉庫のエリアマップ51の当該人物2が存在する位置に、「収集」を示すピクトグラム60Bを表示する。人物分析装置20は、ある人物2の行動を「梱包」と特定した場合、倉庫のエリアマップ51の当該人物2が存在する位置に、「梱包」を示すピクトグラム60Cを表示する。人物分析装置20は、ある人物の行動2を「検品」と特定した場合、倉庫のエリアマップ51の当該人物が存在する位置に、「検品」を示すピクトグラム60Dを表示する。
【0023】
これにより、表示装置50を確認しているユーザは、表示装置50に表示されているピクトグラム60を見て、倉庫で働いている各人物2がどの位置でどのような行動をとっているかを容易に確認できる。なお、人物2の行動を示すピクトグラム60は、これに限らず、例えば、人物に対応したアバターを設定して、その人物の動作を示すアニメーションにより表示されるようにしてもよい。
【0024】
なお、監視エリア1は、倉庫に限られず、例えば、工場、店舗、病院、コンビニエンスストア、デパート、オフィス、学校、自宅、又は、部屋等であってよい。また、行動の種類は、監視エリア1において人物が行う代表的なものであればどのようなものであってもよく、監視エリア1が異なる場合は行動の種類も異なってよい。
【0025】
以下、本実施の形態に係る人物分析システム10についてより詳しく説明する。
【0026】
<人物分析装置の構成>
図3は、本実施の形態に係る人物分析装置20の構成例を示す図である。図4は、本実施の形態に係る各データに含まれる情報の一例を示す図である。
【0027】
人物分析装置20は、機能として、IQデータ格納部21、サーモデータ格納部22、環境データ格納部23、点群データ生成部24、点群データ格納部25、物標データ生成部26、物標データ格納部27、行動データ生成部28、行動データ格納部29、バイタルデータ生成部30、バイタルデータ格納部31、及び、データ分析部32を備える。人物分析装置20は、図13に示すように少なくともプロセッサ1001及びメモリ1002を備え、上記した人物分析装置20が備える機能は、プロセッサ1001がメモリ1002から所定のコンピュータプログラムを読み出して実行することにより、実現されてよい。
【0028】
IQデータ格納部21は、レーダ装置11から定期的に送信されるIQデータを格納する。
【0029】
サーモデータ格納部22は、サーモセンサ12から定期的に送信されるサーモデータを格納する。サーモデータは、図4に示すように、測定された時刻と、各人物2を識別するための人物IDと、測定された各人物2の体温とを含んでよい。
【0030】
環境データ格納部23は、環境センサ13から定期的に送信される環境データを格納する。環境データは、図4に示すように、測定された時刻と、測定された位置と、照明の照度及び照明色を示す情報と、気温及び湿度と、騒音の大きさと、及び、匂いの種類とのうちの少なくとも1つを含んでよい。
【0031】
<点群データ生成部>
点群データ生成部24は、IQデータ格納部21内のIQデータを用いて3次元の点群データを生成し、点群データ格納部25に格納する。点群データは、図4に示すように、測定された時刻及びフレーム番号と、当該点群データを測定した位置(つまりレーダ装置11の位置)と、各点の位置座標(x,y,z)と、各点の反射強度と、各点の移動方向及び移動速度とを含んでよい。点群データに含まれる各点は、反射強度が所定の閾値以上である点(つまりノイズでないと推定される点)、又は、移動速度が所定の閾値以上である動作点であってよい。1つの点は、人物2又は物体(図示しない)の表面の反射点の位置座標(x,y,z)を示す。点の移動方向及び移動速度は、変調された電波を照射して反射波を複数の方向から捉えることを一定時間繰り返し、ドップラー速度を測定することにより求めることができる。また、レーダ装置11にLiDARを用いる場合、点の移動速度は、レーザーを変調してドップラー速度を測定することにより求めることができる。なお、各点の位置座標を含む情報は、座標情報と表現されてもよい。各点の移動方向及び移動速度を含む情報は、動き情報と表現されてもよい。
【0032】
<物標データ生成部>
物標データ生成部26は、点群データ格納部25内の点群データを用いて、倉庫内における各人物が存在する位置と、各人物2の姿勢及び向きと、各人物2の粗密とを検出する。物標データ生成部26は、その検出結果に基づいて物標データを生成し、物標データ格納部27に格納する。物標データは、図4に示すように、測定された時刻と、人物2を識別するための人物IDと、当該人物2の倉庫内における位置座標(x,y,z)と、当該人物2の姿勢と、当該人物2の向きと、当該人物2の粗密とを含んでよい。人物2の粗密は、当該人物2と他の人物2との距離を示す指標である。本実施の形態では、姿勢の種類として、「立居」、「座位」、及び、「臥位」を一例に挙げて説明する。また、本実施の形態では、向きの種類として、「前」、「横」、「斜め」を一例に挙げて説明する。また、本実施の形態では、粗密の種類として、「一人」、「複数遠隔」、「複数近接」を一例に挙げて説明する。粗密「一人」は、当該人物2から所定距離の範囲内に他の人物2が存在しないことを示す。粗密「複数遠隔」は、当該人物2から所定距離の範囲内に他の人物2が存在するものの当該他の人物2までの距離が所定の閾値以上であることを示す。粗密「複数近接」は、当該人物2の所定距離の範囲内に他の人物2が存在し、当該他の人物2までの距離が所定の閾値未満であることを示す。
【0033】
例えば、物標データ生成部26は、3D点群用のDNN(Deep Neural Network)に点群データを入力し、その3D点群用のDNNからの出力結果に基づいて各人物2の位置座標と姿勢と向きとを推定する。3D点群用のDNNは、点群データと、その点群データが示す点群の分布の場合に正解となる人物2の位置座標と姿勢と向きとを対応付けた複数の教師データを用いて予め学習させたものであってよい。3D点群用のDNNの例として、PointNet、VoxelNet、又は、PointPillars等が挙げられる。物標データ生成部26の処理は、第1の処理と読み替えられてもよい。3D点群用のDNNは、第1のニューラルネットワークと読み替えられてもよい。物標データ生成部26は、推定した位置座標と姿勢と向きとを物標データに含める。
【0034】
物標データ生成部26は、推定した各位置座標に存在する各人物2に対して人物IDを付与し、その人物IDを物標データに含めてよい。物標データ生成部26は、推定した各人物2の位置座標から各人物2間の距離を算出し、その算出した距離に基づいて、各人物2の粗密を判定してよい。そして、物標データ生成部26は、その粗密の判定結果を物標データに含めてよい。
【0035】
<行動データ生成部>
行動データ生成部28は、物標データ格納部27内の物標データと点群データ格納部25内の点群データとを用いて、人物2の行動を推定する。行動データ生成部28は、その推定結果に基づいて行動データを生成し、行動データ格納部29に格納する。例えば、図4に示すように、行動データは、測定された時刻と、人物2を識別するための人物IDと、当該人物2の推定した行動と、当該推定の確からしさ(例えば推定精度又は尤度)を示すスコアとを含んでよい。本実施の形態では、スコアは、大きいほどその推定した行動が正解である可能性が高く、小さいほどその推定した行動が正解である可能性が低いことを示す。また、本実施の形態では、行動の種類として、上述したように、「運搬」、「収集」、「梱包」、及び、「検品」を一例として挙げる。
【0036】
例えば、行動データ生成部28は、物標データに基づいて人物2の位置及び人物の身体の部位(例えば手、腕、頭、脚等)を特定し、当該人物2の点群データの各部位に相当する部分の疑似画像データを生成する。そして、行動データ生成部28は、疑似画像データを時系列に、再帰型のDNNに入力し、その再帰型のDNNからの出力結果に基づいて人物2の行動の種類を推定する。例えば、再帰型のDNNは、出力結果として行動の種類毎のスコアを出力し、行動データ生成部28は、出力されたスコアが最も高い行動の種類を、その人物2の行動と推定する。
【0037】
再帰型のDNNは、疑似画像データの時間変化と、その疑似画像データの時間変化の場合に正解となる人物の行動とを対応付けた複数の教師データを用いて予め学習させたものであってよい。再帰型のDNNの例として、LSTM(Long Short Term Memory)、又は、GRU(Gated Recurrent Unit)等が挙げられる。行動データ生成部28の処理は、第2の処理と読み替えられてもよい。再帰型のDNNは、第2のニューラルネットワークと読み替えられてもよい。
【0038】
<バイタルデータ生成部>
バイタルデータ生成部30は、物標データ格納部27内の物標データとIQデータ格納部21内のIQデータとを用いて、人物2のバイタルを推定する。バイタルデータ生成部30は、その推定結果に基づいてバイタルデータを生成し、バイタルデータ格納部31に格納する。バイタルデータは、図4に示すように、測定された時刻と、人物2を識別するための人物IDと、推定した呼吸数と、推定した心拍数と、当該推定の確からしさ(例えば推定精度又は尤度)を示すスコアとを含んでよい。
【0039】
例えば、バイタルデータ生成部30は、物標データに基づいて各人物2の位置を特定し、その特定した位置に存在する人物2の胸部を特定する。そして、バイタルデータ生成部30は、IQデータの当該胸部に相当する部分の位相情報の時間変化に基づいて、人物2の体表の僅かな周期運動を算出し、その周期運動に基づいて、呼吸数及び心拍数を推定する。バイタルデータ生成部30は、スペクトラム解析及び/又は深層学習解析を行うことにより、当該呼吸数及び心拍数の推定を行ってよい。
【0040】
例えば、バイタルデータ生成部30は、IQデータに関するSN比(signal-noise ratio)に基づいて、推定した呼吸数及び/又は心拍数のスコアを算出してよい。例えば、バイタルデータ生成部30は、SN比が大きいほどスコアを大きくし、SN比が小さいほどスコアを小さくする。SN比が小さい場合、ノイズ成分が大きく、推定精度が低下し得るためである。バイタルデータ生成部30は、算出したスコアをバイタルデータに含める。
【0041】
なお、バイタルデータ生成部30は、同様の方法により、血圧等を推定してもよい。この場合、図4に示すバイタルデータは、血圧等を含んでよい。
【0042】
<データ分析部>
データ分析部32は、物標データ格納部27内の物標データと、行動データ格納部29内の行動データと、バイタルデータ格納部31内のバイタルデータとの少なくとも1つを用いて、各人物2について様々な分析を行う。さらに、データ分析部32は、当該分析を行う際に、さらにサーモデータ格納部22内のサーモデータ、及び/又は、環境データ格納部23内の環境データを用いてもよい。次に、データ分析部32による分析例について説明する。
【0043】
<行動の適否の分析>
図5は、本実施の形態に係る人物2の行動の適否を分析する例を説明するための図である。
【0044】
データ分析部32は、行動データ格納部29内の行動データから、人物2の行動を特定する。データ分析部32は、物標データ格納部27内の物標データから、人物2の姿勢及び向きを特定する。データ分析部32は、その特定した行動に対する、特定した姿勢及び向きに基づいて、人物2のその行動の適否を判定する。
【0045】
例えば、人物2が行動「梱包」を行う際の理想的な姿勢及び向きは、それぞれ、「立居」及び「前」であるとする。この場合、データ分析部32は、例えば、以下の(A1)から(A3)の処理を行う。
【0046】
(A1)データ分析部32は、人物2の行動を「梱包」と特定し、当該人物の姿勢を「立居」と特定し、当該人物2の向きを「前」と特定した場合、当該行動に対する上述した理想的な姿勢及び向きと一致するので、当該人物2の行動を「適切」と判定する。そして、データ分析部32は、図5(a)に示すように、当該人物2の行動「梱包」を示すピクトグラム60Cと共に、行動が「適切」ことを示す「〇」マーク61Aを表示する。
【0047】
(A2)データ分析部32は、人物2の行動を「梱包」と特定し、当該人物2の姿勢を「立居」と特定し、当該人物2の向きを「斜め」と特定した場合、当該行動に対する上述した理想的な姿勢と一致するものの理想的な向きとは一致しないので、当該人物2の行動を「やや不適切」と判定する。そして、データ分析部32は、図5(b)に示すように、当該人物2の行動「梱包」を示すピクトグラム60Cと共に、行動が「やや不適切」ことを示す「△」マーク61Bを表示する。このとき、データ分析部32は、当該人物2の行動「梱包」を示すピクトグラム60Cの色を、行動が「やや不適切」ことに予め対応付けられた色で表示してよい。
【0048】
(A3)データ分析部32は、人物2の行動を「梱包」と特定し、当該人物2の姿勢を「座位」と特定し、当該人物2の向きを「斜め」と特定した場合、当該行動に対する上述した理想的な姿勢及び理想的な向きのいずれとも一致しないので、当該人物2の行動を「不適切」と判定する。そして、データ分析部32は、図5(c)に示すように、当該人物2の行動「梱包」を示すピクトグラム60Cと共に、行動が「不適切」ことを示す「×」マーク61Cを表示する。このとき、データ分析部32は、この人物2の行動「梱包」を示すピクトグラム60Cの色を、行動が「不適切」ことに予め対応付けられた色で表示してよい。
【0049】
これにより、ユーザは、表示装置50に表示されているピクトグラム60及びマーク61を見て、倉庫で働いている各人物2がどの位置でどのような行動をとっているか、及び、各人物2が適切な行動をとっているかどうかを容易に確認できる。
【0050】
なお、「ピクトグラム」という表現は一例であり、行動の種類を区別できるものであれば、イラスト、写真、シンボル又は記号等、どのようなものであってもよい。また、「マーク」という表現は一例であり、行動の適否を区別できるものであれば、文字、数字、記号、模様又はピクトグラム等、どのようなものであってもよい。
【0051】
<体調の分析>
図6は、本実施の形態に係る人物2の体調を分析する例を説明するための図である。
【0052】
データ分析部32は、行動データ格納部29内の行動データから、人物2の行動を特定する。データ分析部32は、物標データ格納部27内の物標データから、人物2の姿勢を特定する。データ分析部32は、バイタルデータ格納部31内のバイタルデータから、人物2の呼吸数の時間変化と、人物2の心拍数の時間変化とを特定する。データ分析部32は、その特定した行動に対する、特定した姿勢と、特定した呼吸数の時間変化及び心拍数の時間変化とに基づいて、人物のその行動時における体調を判定する。
【0053】
例えば、人物2が行動「検品」を行う際の通常の姿勢は「立居」であり、通常の呼吸数及び心拍数の時間変化は比較的小さい(つまり安定している)とする。ここで、呼吸数の時間変化が比較的小さいとは、呼吸数が所定時間において所定の正常な範囲内(例えば上限閾値と下限閾値の間)に収まっていることであり、呼吸数の時間変化が比較的大きいとは、呼吸数が正常な範囲内に収まっていない(例えば上限閾値よりも大きい又は下限閾値よりも小さい)時があることであってよい。同様に、心拍数の時間変化が比較的小さいとは、心拍数が所定時間において所定の正常な範囲内(例えば上限閾値と下限閾値の間)に収まっていることであり、心拍数の時間変化が比較的大きいとは、心拍数が正常な範囲内に収まっていない(例えば上限閾値よりも大きい又は下限閾値よりも小さい)時があることであってよい。この場合、データ分析部32は、例えば、以下の(B1)から(B3)の処理を行う。
【0054】
(B1)データ分析部32は、人物2の行動を「検品」と特定し、当該人物2の姿勢を「立居」と特定し、当該人物2の呼吸数及び心拍数の時間変化を比較的小さい(つまり安定している)と特定した場合、当該行動に対する上述した通常の姿勢と一致し、当該行動に対する上述した通常の呼吸数及び心拍数に適合するので、当該人物2の体調を「正常」と判定する。そして、データ分析部32は、当該人物2の行動「検品」を示すピクトグラム60Dと共に、体調が「正常」であることを示す「◎」マーク62Aを表示する。
【0055】
(B2)データ分析部32は、人物2の行動を「検品」と特定し、当該人物2の姿勢を「立居」と特定し、当該人物2の呼吸数の時間変化を比較的小さい(つまり安定している)と特定し、当該人物2の心拍数の時間変化を比較的大きい(例えば心拍数が上昇と下降を繰り返しており不安定である)と特定した場合、当該行動に対する上述した通常の姿勢と一致し、当該行動に対する上述した通常の呼吸数と適合するものの、当該行動に対する上述した通常の心拍数に適合しないので、当該人物2の体調を「休憩が必要」と判定する。そして、データ分析部32は、当該人物2の行動「検品」を示すピクトグラム60Dと共に、体調が「休憩が必要」であることを示す「☆」マーク62Bを表示する。このとき、データ分析部32は、人物のピクトグラム60Dの色を、「休憩が必要」であることに予め対応付けられた色で表示してよい。
【0056】
(B3)データ分析部32は、人物2の行動を「検品」と特定し、当該人物2の姿勢を「座位」と特定し、当該人物2の呼吸数の時間変化が比較的大きい(例えば呼吸数が急上昇しており不安定である)と特定し、当該人物2の心拍数の時間変化が比較的大きい(例えば心拍数が急上昇しており不安定である)と特定した場合、当該行動に対する上述した通常の姿勢と一致せず、当該行動に対する上述した通常の呼吸数及び心拍数のいずれにも適合しないので、当該人物2の体調を「救護が必要」と判定する。そして、データ分析部32は、当該人物2の行動「検品」を示すピクトグラム60Dと共に、体調が「救護が必要」であることを示す「!」マーク62Cを表示する。このとき、データ分析部32は、人物2のピクトグラム60Dの色を、「救護が必要」であることに予め対応付けられた色で表示してよい。
【0057】
これにより、ユーザは、表示装置50に表示されているピクトグラム60及びマーク62を見て、倉庫で働いている各人物がどの位置でどのような行動をとっているか、及び、各人物がどのような体調であるかを容易に確認できる。
【0058】
なお、「マーク」という表現は一例であり、体調を区別できるものであれば、文字、数字、記号、模様又はピクトグラム等、どのようなものであってもよい。
【0059】
<設定された行動の表示>
図7は、本実施の形態に係る設定された行動を表示する例を説明するための図である。
【0060】
ユーザは、入力装置40を通じて、行動に関する表示条件をデータ分析部32に予め設定する。データ分析部32は、行動データ格納部29内の行動データから人物2の行動を特定する。データ分析部32は、特定した当該行動が、上記で設定された表示条件に適合する場合、当該行動を示すピクトグラム60を表示し、特定した当該行動が、上記で設定された表示条件に適合しない場合、当該行動を示すピクトグラム60を表示しない。以下、具体例を説明する。
【0061】
例えば、ユーザは、入力装置40を通じて、表示条件として、行動「検品」を表示し、他の行動を表示しないとする設定を行う。そして、データ分析部32は、図7(a)に示すように第1の人物2の行動を「収集」と推定し、図7(b)に示すように第2の人物2の行動を「梱包」と推定し、図7(c)に示すように第3の人物2の行動を「検品」と推定したとする。
【0062】
この場合、図7(c)に示すように、データ分析部32は、行動を「検品」と推定した第3の人物2について行動「検品」を示すピクトグラム60Dをエリアマップ51に表示し、図7(a)及び(b)に示すように、行動を「収集」と推定した第1の人物2と、行動を「梱包」と推定した第2の人物とについては、ピクトグラム60をエリアマップ51に表示しない。
【0063】
これにより、ユーザは、表示装置50に表示されているピクトグラム60を見て、当該ユーザが表示条件として設定した行動を行っている各人物2がどの位置に存在するかを容易に確認できる。例えば、監視エリア1に多数の人物2が存在し、エリアマップ51の表示が煩雑になる場合、この設定により、表示の煩雑さを解消できる。
【0064】
<行動の推定精度の表示>
図8は、本実施の形態に係る行動の推定精度の表示例を説明するための図である。
【0065】
データ分析部32は、行動データ格納部29内の行動データから人物2の行動を特定する。データ分析部32は、特定した行動を示すピクトグラム60を表示装置50に表示する。
【0066】
このとき、データ分析部32は、行動データにスコアが所定の閾値以上である行動が複数存在する場合、当該複数の行動のそれぞれを示すピクトグラム60を一緒に表示してよい。加えて、データ分析部32は、当該複数のピクトグラム60のうち、最もスコアの高い行動を示すピクトグラム60を、他の行動を示すピクトグラム60と異なる色又は明度にて表示してよい。
【0067】
また、データ分析部32は、行動データにスコアが所定の閾値以上である行動が存在しない場合、スコアの上位から1又は複数の行動を示すピクトグラム60を、スコアが所定の閾値以上である場合に表示されるピクトグラム60と異なる色又は明度にて表示してよい。以下、具体例を説明する。
【0068】
例えば、図8(a)に示すように、行動データ格納部29内のある人物の行動データにおいて、行動「運搬」のスコアが0.8であり、行動「収集」のスコアが0.7であり、人物2の粗密が「一人」であったとする。この場合、行動「運搬」のスコアと行動「収集」のスコアはいずれも所定の閾値(例えば0.7)以上であり、どちらが正解であるか判別が難しい。この場合、図8(a)に示すように、データ分析部32は、行動「運搬」を示すピクトグラム60Aと、行動「収集」を示すピクトグラム60Bとの両方をエリアマップ51に表示させてよい。そして、データ分析部32は、スコアが比較的高い方の行動「運搬」を示すピクトグラム60Aの明度を低く(濃く)、スコアが比較的低い方の行動「収集」を示すピクトグラム60Bの明度を高く(薄く)表示してよい。また、データ分析部32は、行動を示すピクトグラム60と共に、人物2の粗密が「一人」であることを示すピクトグラム63Aを一緒に表示させてよい。
【0069】
これにより、ユーザは、表示装置50に表示されているピクトグラム60を見て、各人物2の行動の推定精度を容易に確認できる。
【0070】
例えば、図8(b)に示すように、行動データ格納部29内のある人物2の行動データにおいて、行動「運搬」のスコアが0.8であり、行動「収集」のスコアが0.7であり、人物2の粗密が「複数遠隔」であったとする。この場合、行動「運搬」のスコアと行動「収集」のスコアはいずれも所定の閾値(例えば0.7)以上であり、どちらが正解であるか判別が難しい。この場合、図8(b)に示すように、データ分析部32は、行動「運搬」を示すピクトグラム60Aと、行動「収集」を示すピクトグラム60Bとを一緒にエリアマップ51に表示させてよい。そして、データ分析部32は、スコアが比較的高い方の行動「運搬」を示すピクトグラム60Aの明度を低く(濃く)、スコアが比較的低い方の行動「収集」を示すピクトグラム60Bの明度を高く(薄く)表示してよい。また、データ分析部32は、行動を示すピクトグラム60と共に、人物2の粗密が「複数遠隔」であることを示すピクトグラム63Bを一緒に表示させてよい。
【0071】
これにより、ユーザは、表示装置50に表示されているピクトグラム60を見て、当該人物2の行動の推定精度を容易に確認できる。また、ユーザは、人物2の粗密が「複数遠隔」であることを示すピクトグラム63Bを見て、人物2の粗密が「一人」であることを示すピクトグラム63Aが表示されている場合と比較して、行動の推定精度が低い可能性があると想定できる。
【0072】
例えば、図8(c)に示すように、行動データ格納部29内の行動データにおいて、行動「運搬」のスコアが0.6であり、行動「収集」のスコアが0.5であり、人物2の粗密が「複数近接」であったとする。この場合、行動「運搬」のスコアと行動「収集」のスコアはいずれも所定の閾値(例えば0.7)未満であり、どちらが正解であるか判別が難しく、どちらも正解でない可能性もある。この場合、図8(c)に示すように、データ分析部32は、スコアの上位から2つの、行動「運搬」を示すピクトグラム60Aと、行動「収集」を示すピクトグラム60Bとを一緒にエリアマップ51に表示させてよい。そして、データ分析部32は、どちらのスコアも比較的低いので、行動「運搬」を示すピクトグラム60Aと、行動「収集」を示すピクトグラム60Bとの両方の明度を低く(薄く)表示してよい。また、データ分析部32は、行動を示すピクトグラム60と共に、人物2の粗密が「複数近接」であることを示すピクトグラム63Cを一緒に表示させてよい。
【0073】
これにより、ユーザは、表示装置50に表示されているピクトグラム60を見て、当該人物の行動の推定精度を容易に確認できる。また、ユーザは、人物2の粗密が「複数近接」であることを示すピクトグラム63Cを見て、人物の粗密が「一人」又は「複数遠隔」であることを示すピクトグラム63A、63Bが表示されている場合と比較して、行動の推定精度が低い可能性があると想定できる。
【0074】
<行動の適否の表示設定画面>
図9は、本実施の形態に係る行動の適否の表示条件を設定するための画面の例を示す図である。
【0075】
データ分析部32は、図9に示すように、行動の適否の表示条件を設定するための画面(以下、行動の適否の表示設定画面100と称する)を表示装置50に表示してよい。行動の適否の表示設定画面100は、行動の選択領域101と、姿勢の選択領域102と、向きの選択領域103と、粗密の選択領域104と、時間の選択領域105と、ピクトグラム及びマークのセットの選択領域106と、を含む。
【0076】
例えば、ユーザが、入力装置40を通じて、図9(a)に示すように、行動の選択領域101Aにて「梱包」を選択し、姿勢の選択領域102Aにて「立居」を選択し、向きの選択領域103Aにて「前」を選択し、粗密の選択領域104Aにて「一人」を選択し、時間の選択領域105Aにて「5秒」を選択し、ピクトグラム及びマークのセットの選択領域106Aにて「梱包」を示すピクトグラム60Cと行動が「適切」を示す「〇」マーク61Aとのセットとを選択したとする。この場合、データ分析部32は、図5(a)に示すように、ある人物について、行動を「梱包」と特定し、姿勢を「立位」と特定し、向きを「前」と特定し、人物2の粗密を「一人」と特定した状態が「5秒」以上継続した場合、当該図9(a)の表示条件に従って、行動「梱包」を示すピクトグラム60Cと行動が「適切」を示す「〇」マーク61Aとを一緒に表示する。
【0077】
例えば、ユーザが、入力装置40を通じて、図9(b)に示すように、行動の選択領域101Bにて「梱包」を選択し、姿勢の選択領域102Bにて「立居」を選択し、向きの選択領域103Bにて「斜め」を選択し、粗密の選択領域104Bにて「一人」を選択し、時間の選択領域105Bにて「5秒」を選択し、ピクトグラム及びマークのセットの選択領域106Bにて「梱包」を示すピクトグラム60Cと行動が「やや不適切」を示す「△」マーク61Bとのセットを選択したとする。この場合、データ分析部32は、図5(b)に示すように、ある人物2について、行動を「梱包」と特定し、姿勢を「立位」と特定し、向きを「斜め」と特定し、人物2の粗密を「一人」と特定した状態が「5秒」以上継続した場合、当該図9(b)の表示条件に従って、行動「梱包」を示すピクトグラム60Cと行動が「やや不適切」を示す「△」マーク61Bとを一緒に表示する。
【0078】
このように、ユーザは、行動の適否の表示条件を任意に設定できる。
【0079】
<体調の表示設定画面>
図10は、本実施の形態に係る体調の表示条件を設定するための画面の例を示す図である。
【0080】
データ分析部32は、図10に示すように、体調の表示条件を設定するための画面(以下、体調の表示設定画面120と称する)を表示装置50に表示してよい。
【0081】
体調の表示設定画面120には、バイタルの選択領域121と、バイタルの状態の選択領域122と、姿勢の選択領域123と、時間の選択領域124と、ピクトグラム及びマークのセットの選択領域125とが表示される。図10に示すように、バイタルの選択領域121とバイタルの状態の選択領域122とのセットは、2つ以上設けられてもよい。
【0082】
例えば、ユーザが、入力装置40を通じて、図10(a)に示すように、1つ目のセットのバイタルの選択領域121Aにて「呼吸数」を選択し、1つ目のセットのバイタルの状態の選択領域122Aにて「安定」を選択し、2つ目のセットのバイタルの選択領域121Bにて「心拍数」を選択し、2つ目のセットのバイタルの状態の選択領域122Bにて「安定」を選択し、姿勢の選択領域123Aにて「立居」を選択し、時間の選択領域124Aにて「10秒」を選択し、ピクトグラム及びマークのセットの選択領域125Aにて「検品」を示すピクトグラム60Dと「正常」を示す「◎」マーク62Aとのセットとを選択したとする。この場合、データ分析部32は、図6(a)に示すように、ある人物について、行動を「検品」と特定し、姿勢を「立居」と特定し、呼吸数の時間変化を「安定している」と特定し、心拍数の時間変化を「安定している」と特定した状態が「10秒」以上継続した場合、当該図10(a)の表示条件に従って、行動「検品」を示すピクトグラム60Dと体調が「正常」であることを示す「◎」マーク62Aとを一緒に表示する。
【0083】
例えば、ユーザが、入力装置40を通じて、図10(b)に示すように、1つ目のセットのバイタルの選択領域121Cにて「呼吸数」を選択し、1つ目のセットのバイタルの状態の選択領域122Cにて「安定」を選択し、2つ目のセットのバイタルの選択領域121Dにて「心拍数」を選択し、2つ目のセットのバイタルの状態の選択領域122Dにて「不安定」を選択し、姿勢の選択領域123Bにて「立居」を選択し、時間の選択領域124Bにて「10秒」を選択し、ピクトグラム及びマークのセットの選択領域125Bにて「検品」を示すピクトグラム60Dと「休憩が必要」を示す「☆」マーク62Bとのセットとを選択したとする。この場合、データ分析部32は、図6(b)に示すように、ある人物について、行動を「検品」と特定し、姿勢を「立居」と特定し、呼吸数の時間変化を「安定している」と特定し、心拍数の時間変化を「不安定である」と特定した状態が「10秒」以上継続した場合、当該図10(b)の表示条件に従って、行動「検品」を示すピクトグラム60Dと体調が「休憩が必要」であることを示す「☆」マーク62Bとを一緒に表示する。
【0084】
なお、状態「安定」を選択する代わりに、「安定」に対応するバイタル値の範囲(例えば範囲の上限閾値と下限閾値)が入力されてもよい。また、状態「不安定」を選択する代わりに、不安定と判定する上限閾値と下限閾値が入力されてもよい。この場合、バイタル値が、上限閾値よりも大きい場合、又は、下限閾値よりも小さい場合、不安定と判定されてよい。
【0085】
このように、ユーザは、体調の表示条件を任意に設定できる。
【0086】
<用途の選択画面>
図11は、本実施の形態に係る用途を選択するための画面の例を示す図である。
【0087】
データ分析部32は、図11に示すように、人物分析システム10の用途を選択するための画面(以下、用途選択画面140と称する)を表示装置50に表示してよい。
【0088】
用途選択画面140には、用途の選択リスト141が表示される。各用途には、その用途に適した上述した表示条件が予め対応付けられている。
【0089】
例えば、ユーザが、入力装置40を通じて、図11に示すように、用途の選択リスト141から1つの用途を選択すると、データ分析部32は、その選択された用途に予め対応付けられている表示条件を読み出して設定する。
【0090】
これにより、ユーザは、より簡単に表示条件を設定できる。
【0091】
<検知感度の設定画面>
図12は、本実施の形態に係る検知感度を設定するための画面の例を示す図である。
【0092】
データ分析部32は、行動の検知感度を選択するための画面(以下、検知感度選択画面160と称する)を表示装置50に表示する。
【0093】
検知感度選択画面160には、検知感度の高さの選択リスト161が表示される。例えば、図12に示すように、検知感度を「高い」、「通常」、「低い」の3つから選択可能な選択リスト161が表示される。
【0094】
データ分析部32は、選択された検知感度の高さに応じて、図7に示す表示対象として設定された行動に対する、行動を示すピクトグラム60の表示の感度を決定する。
【0095】
例えば、ユーザが、入力装置40を通じて、検知感度の選択リスト161から検知感度「高い」を選択した場合、当該検知感度「高い」に予め対応付けられている第1の閾値を、表示対象として設定された行動のスコアに対する閾値として設定する。
【0096】
例えば、ユーザが、入力装置40を通じて、検知感度の選択リスト161から検知感度「通常」を選択した場合、当該検知感度「通常」に予め対応付けられている第2の閾値を、表示対象として設定された行動のスコアに対する閾値として設定する。
【0097】
例えば、ユーザが、入力装置40を通じて、検知感度の選択リスト161から検知感度「低い」を選択した場合、当該検知感度「低い」に予め対応付けられている第3の閾値を、表示対象として設定された行動のスコアに対する閾値として設定する。
【0098】
ここで、第1の閾値は第2の閾値よりも小さく、第2の閾値は第3の閾値よりも小さい。
【0099】
これにより、例えば、検知感度「高い」が選択された場合、データ分析部32は、行動のスコアが比較的低い場合(例えば第2の閾値よりも小さいが第1の閾値より大きいスコア)でも、図7に示す設定された行動の表示において、当該行動を示すピクトグラム60を表示すると判定する。つまり、検知感度が高いほど、設定された行動を示すピクトグラム60が表示されやすくなり、検知感度が低いほど、設定された行動を示すピクトグラム60が表示されにくくなる。
【0100】
このように、ユーザは、人物2の行動に関する検知感度を任意に設定できる。すなわち、ユーザは、行動を示すピクトグラム60の表示の感度を任意に設定できる。
【0101】
<人物の心的状態の推定>
データ分析部32は、行動データ格納部29内の行動データと、バイタルデータ格納部31内のバイタルデータとに基づいて、人物2の心的状態を推定してもよい。例えば、データ分析部32は、行動データから姿勢を「立位」と特定し、バイタルデータから心拍数の急上昇を特定した場合、その人物2の心的状態を「高ストレス」と推定してよい。さらに、データ分析部32は、人物2の心的状態を推定する際、サーモデータ及び環境データの少なくとも1つを使用して推定精度を高めてもよい。例えば、データ分析部32は、サーモデータから人物2の体温の急上昇を特定し、環境データから倉庫内の気温が不快に感じる気温(例えば所定の閾値以上の気温)であることを特定した場合、その人物2の心的状態が「高ストレス」であるとした推定精度を、サーモデータ及び環境データを使用しないで心的状態を「高ストレス」とした場合の推定精度よりも、高く算出してよい。
【0102】
このように、レーダ装置11から得られる情報だけでなく、サーモセンサ12又は環境センサ13といったレーダ装置11とは異なる他のセンサから得られる情報も用いて、人物2の心的状態を推定することにより、その推定精度を高めることができる。なお、人物2の心的状態の例として、上記の「ストレス」の高低に加えて、「眠気」の高低、「緊張」の高低、「リラックス」の高低等が挙げられる。
【0103】
(ハードウェア構成)
上述した人物分析装置20の機能ブロックは、コンピュータプログラムにより実現され得る。
【0104】
図13は、本開示に係る人物分析装置20の機能ブロックをコンピュータプログラムにより実現する情報処理装置(コンピュータ)のハードウェア構成例を示す図である。
【0105】
情報処理装置1000は、プロセッサ1001、メモリ1002、ストレージ1003、入力I/F(Interface)1004、出力I/F1005、通信I/F1006、GPU(Graphics Processing Unit)1007、読取I/F1008、及び、バス1009を備える。
【0106】
プロセッサ1001、メモリ1002、ストレージ1003、入力I/F1004、出力I/F1005、通信I/F1006、GPU(Graphics Processing Unit)1007、及び、読取I/F1008は、バス1009に接続され、バス1009を介して双方向にデータを送受信できる。
【0107】
プロセッサ1001は、メモリ1002に記憶されたコンピュータプログラムを実行し、上述した機能ブロックを実現する装置である。プロセッサ1001の例として、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、コントローラ、LSI(Large Scale Integration)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、及び、FPGA(Field-Programmable Gate Array)が挙げられる。
【0108】
メモリ1002は、情報処理装置1000が取り扱うコンピュータプログラム及びデータを記憶する装置である。メモリ1002は、ROM(Read-Only Memory)及びRAM(Random Access Memory)を含んでよい。
【0109】
ストレージ1003は、不揮発性記憶媒体で構成され、情報処理装置1000が取り扱うコンピュータプログラム及びデータを記憶する装置である。ストレージ1003の例として、HDD(Hard Disk Drive)、及び、SSD(Solid State Drive)が挙げられる。
【0110】
入力I/F1004は、ユーザからの入力を受け付ける入力装置40が接続され、入力装置40から受信したデータをプロセッサ1001へ送信する。
【0111】
出力I/F1005は、表示装置50が接続され、プロセッサ1001から受信したデータを表示装置50へ送信する。
【0112】
通信I/F1006は、通信ネットワーク14に接続され、他の装置と通信ネットワーク14を介してデータを送受信する。通信I/F1006は、有線通信及び無線通信の何れに対応してもよい。有線通信の例として、Ethernet(登録商標)が挙げられる。無線通信の例として、Wi-Fi(登録商標)、Bluetooth(登録商標)、LTE(Long Term Evolution)、4G、5Gが挙げられる。
【0113】
GPU1007は、画像描写を高速に処理する装置である。なお、GPU1007は、AI(Artificial Intelligence)の処理(例えばディープラーニングの処理)に利用されてもよい。
【0114】
読取I/F1008は、外部記憶媒体が接続され、外部記憶媒体からデータを読み取る。外部記憶媒体の例として、DVD-ROM(Digital Versatile Disk Read Only Memory)、及び、USB(Universal Serial Bus)メモリが挙げられる。
【0115】
なお、人物分析装置20の機能ブロックは、集積回路であるLSIとして実現されてもよい。これらの機能ブロックは、個別に1チップ化されてもよいし、一部又は全てを含むように1チップ化されてもよい。ここでは、LSIとしたが、集積度の違いにより、IC、システムLSI、スーパーLSI、ウルトラLSIと呼称されることもある。さらには、半導体技術の進歩又は派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて機能ブロックの集積化を行ってもよい。
【0116】
(本開示のまとめ)
以上の実施の形態の記載により、下記の技術が開示される。
【0117】
<技術1>
人物分析システム10は、監視エリア1に少なくとも1つ設置され、レーダ方式によって前記監視エリア1を観測した結果を含む観測データを出力するレーダ装置11と、前記観測データに基づいて、前記監視エリア1に存在する各人物2の位置を検出する第1の処理(例えば物標データ生成部26の処理)と、検出した前記各人物2の行動を推定する第2の処理(例えば行動データ生成部28の処理)とを実行し、前記各人物2の位置と行動とを示す情報を所定の表示装置50に表示する人物分析装置20と、を備える。
これにより、プライバシーを保護しつつ、監視エリア1における各人物2が存在する位置と各人物2の行動とを表示することができる。
【0118】
<技術2>
技術1に記載の人物分析システム10において、前記人物分析装置20は、前記観測データに基づいて、3次元の点群データを生成し、前記第1の処理では、前記点群データの分布に基づいて、前記各人物2の位置を検出し、前記第2の処理では、前記点群データの時間変化に基づいて、前記各人物2の行動を推定する。
これにより、第1の処理により各人物2の位置を検出し、第2の処理により各人物2の行動を推定することができる。
【0119】
<技術3>
技術1又は技術2に記載の人物分析システム10において、前記第1の処理は、前記点群データを入力した場合に人物2が存在する位置が出力されるように予め学習された第1のニューラルネットワークを用いて、前記各人物2の位置を検出し、前記第2の処理は、前記点群データの時間変化を入力した場合に人物2の行動が出力されるように予め学習された第2のニューラルネットワークを用いて、前記各人物2の行動を推定する。
これにより、第1のニューラルネットワークを用いて各人物2の位置を検出し、第2のニューラルネットワークを用いて各人物2の行動を推定することができる。
【0120】
<技術4>
技術1から技術3のいずれか1項に記載の人物分析システム10において、前記点群データは、少なくとも、各点の3次元の座標を示す座標情報と、各点の移動の方向及び速度を示す動き情報とを含み、前記第2の処理は、少なくとも前記動き情報を前記第2のニューラルネットワークに入力することにより、人物2の行動を推定する。
このように、動き情報を用いて人物2の行動を推定することにより、行動の推定精度が向上する。
【0121】
<技術5>
技術2から技術4のいずれか1項に記載の人物分析システム10において、前記人物分析装置20は、前記監視エリア1に対応するエリアマップ51を表示すると共に、前記エリアマップ51における検出した人物2の位置に、推定した当該人物2の行動を示すピクトグラム60を表示する。
これにより、ユーザは、表示された行動を示すピクトグラム60を見て、各人物2がどの位置でどのような行動を行っているのかを容易に確認できる。
【0122】
<技術6>
技術2から技術5のいずれか1項に記載の人物分析システム10において、前記人物分析装置20は、前記第1の処理では、前記点群データの分布に基づいて、人物2の姿勢及び向きをさらに検出し、推定した前記人物2の行動と、検出した前記人物2の姿勢及び向きとに基づいて、前記人物2の行動の適否を判定し、前記人物2の行動を示すピクトグラム60と、前記人物2の行動の適否の判定結果を示す情報とを一緒に表示する。
これにより、ユーザは、表示された行動を示すピクトグラム60と適否の判定結果を示す情報とを見て、各人物2がどの位置でどのような行動を行っているのか、及び、各人物2は適切な行動をとっているかどうかを容易に確認できる。
【0123】
<技術7>
技術2から技術6のいずれか1項に記載の人物分析システム10において、前記人物分析装置20は、前記点群データ及び前記観測データに基づいて、人物2のバイタルを推定し、推定した前記人物2の行動と、検出した前記人物2の姿勢と、推定した前記人物2のバイタルとに基づいて、前記人物の体調を判定し、前記人物2の行動を示すピクトグラム60と、前記人物の体調の判定結果を示す情報とを一緒に表示する。
これにより、ユーザは、表示された行動を示すピクトグラム60と体調の判定結果を示す情報とを見て、各人物2がどの位置でどのような行動を行っているのか、及び、各人物の体調はどうであるかを容易に確認できる。
【0124】
<技術8>
技術2から技術7のいずれか1項に記載の人物分析システム10において、前記人物分析装置20は、推定した前記人物2の行動が、予め設定された行動の表示条件に適合する場合、前記人物2の行動を示すピクトグラム60を表示し、推定した前記人物2の行動が、前記表示条件に適合しない場合、前記人物2の行動を示すピクトグラム60を表示しない。
これにより、ユーザによって予め設定された表示条件に適合しないピクトグラム60は表示されなくなり、表示条件に適合するピクトグラム60が表示されるので、ユーザは、表示条件に適合する行動を行っている人物を素早く認識できる。
【0125】
<技術9>
技術3に記載の人物分析システム10において、前記第2のニューラルネットワークは、行動の種類毎に当該行動の推定の確からしさを示すスコアを出力するようになっており、前記人物分析装置20は、前記スコアが所定の閾値以上である行動が複数存在する場合、当該複数の行動のそれぞれを示すピクトグラム60を一緒に表示する。
これにより、ユーザは、表示された複数のピクトグラム60を見て、人物2が、複数のピクトグラム60が示すいずれかの行動をとっている可能性が高いことを認識できる。
【0126】
<技術10>
技術9に記載の人物分析システム10において、前記人物分析装置20は、前記複数の行動のうち最もスコアの高い行動を示すピクトグラム60を、他の行動を示すピクトグラム60と異なる色又は明度にて表示する。
これにより、ユーザは、表示された複数のピクトグラム60のうち、いずれのピクトグラム60の推定精度が高いかを一目で確認できる。
【0127】
<技術11>
技術3に記載の人物分析システム10において、前記第2のニューラルネットワークは、行動の種類毎に当該行動の推定の確からしさを示すスコアを出力するようになっており、前記人物分析装置20は、前記スコアが所定の閾値以上である行動が存在しない場合、前記スコアの上位から1又は複数の行動を示すピクトグラム60を、前記スコアが所定の閾値以上である場合に表示されるピクトグラム60と異なる色又は明度にて表示する。
これにより、ユーザは、表示された複数のピクトグラム60を見て、当該ピクトグラム60が示す行動の推定精度が低い可能性があることを一目で確認できる。
【0128】
<技術12>
技術1から技術11のいずれか1項に記載の人物分析システム10において、前記人物分析装置20は、検出した各人物2の位置に基づいて前記各人物2の他の人物2との粗密を特定し、前記人物2の行動を示すピクトグラム60と共に、当該人物2の粗密を示す情報を一緒に表示する。
これにより、ユーザは、表示されたピクトグラム60と人物の粗密を示す情報とを見て、ピクトグラムが示す行動の推定精度の高低を把握できる。
【0129】
<技術13>
人物分析方法は、監視エリア1に少なくとも1つ設置されたレーダ装置11から、レーダ方式によって前記監視エリア1を観測した結果を含む観測データを取得し、前記観測データに基づいて、前記監視エリア1に存在する各人物2の位置を検出する第1の処理(例えば物標データ生成部26の処理)と、検出した前記各人物2の行動を推定する第2の処理(例えば行動データ生成部28の処理)とを実行し、前記各人物2の位置と行動とを示す情報を所定の表示装置50に表示する。
これにより、プライバシーを保護しつつ、監視エリア1における各人物2が存在する位置と各人物2の行動とを表示することができる。
【0130】
<技術14>
人物分析プログラムは、技術13に記載の人物分析方法をコンピュータに実行させる。
これにより、プライバシーを保護しつつ、監視エリア1における各人物2が存在する位置と各人物2の行動とを表示することができる。
【0131】
以上、添付図面を参照しながら実施の形態について説明したが、本開示はかかる例に限定されない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例、修正例、置換例、付加例、削除例、均等例に想到し得ることは明らかであり、それらについても本開示の技術的範囲に属すると了解される。また、発明の趣旨を逸脱しない範囲において、上述した実施の形態における各構成要素を任意に組み合わせてもよい。
【産業上の利用可能性】
【0132】
本開示の技術は、プライバシーを保護しつつ人物の位置及び行動等を分析する際に有用である。
【符号の説明】
【0133】
1 監視エリア
2 人物
10 人物分析システム
11 レーダ装置
12 サーモセンサ
13 環境センサ
14 通信ネットワーク
20 人物分析装置
21 IQデータ格納部
22 サーモデータ格納部
23 環境データ格納部
24 点群データ生成部
25 点群データ格納部
26 物標データ生成部
27 物標データ格納部
28 行動データ生成部
29 行動データ格納部
30 バイタルデータ生成部
31 バイタルデータ格納部
32 データ分析部
40 入力装置
50 表示装置
51 エリアマップ
60、60A、60B、60C、60D ピクトグラム
61、61A、61B、61C マーク
62、62A、62B、62C マーク
63A、63B、63C ピクトグラム
100 行動の適否の表示設定画面
101 行動の選択領域
102 姿勢の選択領域
103 向きの選択領域
104 粗密の選択領域
105 時間の選択領域
106 ピクトグラム及びマークのセットの選択領域
120 体調の表示設定画面
121、121A、121B バイタルの選択領域
122、122A、122B バイタルの状態の選択領域
123 姿勢の選択領域
124 時間の選択領域
125 ピクトグラム及びマークのセットの選択領域
140 用途選択画面
141 用途の選択リスト
160 検知感度選択画面
161 検知感度の高さの選択リスト
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13