IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 株式会社日立製作所の特許一覧

特開2023-30965行動分析システム、および、行動分析方法
<>
  • 特開-行動分析システム、および、行動分析方法 図1
  • 特開-行動分析システム、および、行動分析方法 図2
  • 特開-行動分析システム、および、行動分析方法 図3
  • 特開-行動分析システム、および、行動分析方法 図4
  • 特開-行動分析システム、および、行動分析方法 図5
  • 特開-行動分析システム、および、行動分析方法 図6
  • 特開-行動分析システム、および、行動分析方法 図7
  • 特開-行動分析システム、および、行動分析方法 図8
  • 特開-行動分析システム、および、行動分析方法 図9
  • 特開-行動分析システム、および、行動分析方法 図10
  • 特開-行動分析システム、および、行動分析方法 図11
  • 特開-行動分析システム、および、行動分析方法 図12
  • 特開-行動分析システム、および、行動分析方法 図13
  • 特開-行動分析システム、および、行動分析方法 図14
  • 特開-行動分析システム、および、行動分析方法 図15
  • 特開-行動分析システム、および、行動分析方法 図16
  • 特開-行動分析システム、および、行動分析方法 図17
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2023030965
(43)【公開日】2023-03-08
(54)【発明の名称】行動分析システム、および、行動分析方法
(51)【国際特許分類】
   A61B 5/11 20060101AFI20230301BHJP
   G06Q 50/22 20180101ALI20230301BHJP
【FI】
A61B5/11 200
G06Q50/22
【審査請求】未請求
【請求項の数】8
【出願形態】OL
(21)【出願番号】P 2021136395
(22)【出願日】2021-08-24
(71)【出願人】
【識別番号】000005108
【氏名又は名称】株式会社日立製作所
(74)【代理人】
【識別番号】110001807
【氏名又は名称】弁理士法人磯野国際特許商標事務所
(72)【発明者】
【氏名】李 媛
(72)【発明者】
【氏名】松森 正樹
(72)【発明者】
【氏名】リン ギョウ レツ
(72)【発明者】
【氏名】チョウ パン
【テーマコード(参考)】
4C038
5L099
【Fターム(参考)】
4C038VA12
4C038VA16
4C038VB35
4C038VC05
5L099AA11
(57)【要約】
【課題】エッジ装置のデバイス数が増大しても、各エッジ装置とサーバ装置とで連携して各人の行動状態を分析可能とすること。
【解決手段】行動分析システム100のAIエッジ処理器10は、高齢者40を撮像したデータから高齢者40の行動を分析する分析処理のうちの前処理を実行するエッジ側分析部12と、高齢者40の特定に用いる情報を含めたデータを抽出する分析結果抽出部13と、分析結果抽出部13が抽出したデータをクラウドサーバ20に転送する分析結果転送部14とを有する。クラウドサーバ20は、分析結果転送部14から転送されたデータをもとに、分析処理のうちの後処理を実行し、その分析結果を分析結果表示部24に表示するサーバ側分析部23を有する。
【選択図】 図1
【特許請求の範囲】
【請求項1】
人物の行動を分析するエッジ装置と、前記エッジ装置から転送されたデータを処理するサーバ装置とを備える行動分析システムであって、
前記エッジ装置は、
前記人物を撮像したデータから前記人物の行動を分析する分析処理のうちの前処理を実行するエッジ側分析部と、
前記エッジ側分析部の分析結果から分析処理のうちの後処理を実行することで、前記人物の特定に用いる情報を含めたデータを抽出する分析結果抽出部と、
前記分析結果抽出部が抽出したデータを前記サーバ装置に転送する分析結果転送部とを有しており、
前記サーバ装置は、
前記分析結果転送部から転送されたデータが前記人物ごとに格納されるデータベースと、
前記データベースのデータをもとに、分析処理のうちの前記後処理を実行し、その分析結果を分析結果表示部に表示するサーバ側分析部を有することを特徴とする
行動分析システム。
【請求項2】
前記エッジ側分析部は、姿勢分析部と状態分析部とを有しており、
前記サーバ側分析部は、行動分析部を有しており、
前記姿勢分析部は、前記人物を撮像したデータから、各時刻の前記人物の姿勢を示すデータを分析し、
前記状態分析部は、前記姿勢分析部が分析した姿勢の時間変化から、前記人物の状態を示すデータを分析し、
前記行動分析部は、前記状態分析部が分析した前記人物の状態から、前記人物に資するデータを分析することを特徴とする
請求項1に記載の行動分析システム。
【請求項3】
前記エッジ側分析部は、姿勢分析部を有しており、
前記サーバ側分析部は、状態分析部と行動分析部とを有しており、
前記姿勢分析部は、前記人物を撮像したデータから、各時刻の前記人物の姿勢を示すデータを分析し、
前記状態分析部は、前記姿勢分析部が分析した姿勢の時間変化から、前記人物の状態を示すデータを分析し、
前記行動分析部は、前記状態分析部が分析した前記人物の状態から、前記人物に資するデータを分析することを特徴とする
請求項1に記載の行動分析システム。
【請求項4】
前記状態分析部は、前記人物の状態を示すデータとして、前記人物が歩行している旨の歩行状態と、その歩行状態における歩行速度および歩幅を歩行情報として分析し、
前記行動分析部は、前記人物に資するデータとして、前記人物が所定の期間に歩いた距離、平均速度、および、歩行能力のうちの少なくとも1つを分析することを特徴とする
請求項2または請求項3に記載の行動分析システム。
【請求項5】
前記行動分析部は、歩行情報の分析結果の時間変化を示すグラフと、その時間変化に応じたリコメンドメッセージとを前記分析結果表示部に表示することを特徴とする
請求項4に記載の行動分析システム。
【請求項6】
前記状態分析部は、前記人物の状態を示すデータとして、前記人物が転倒している旨の転倒状態と、その転倒状態における転倒時間とを分析し、
前記行動分析部は、前記人物に資するデータとして、前記人物の周囲に存在する別の人物の有無と、転倒時間の長さとに応じた警報情報を分析することを特徴とする
請求項2または請求項3に記載の行動分析システム。
【請求項7】
前記行動分析部は、前記転倒状態の人物およびその周囲に存在する前記別の人物の位置関係を示す見取り図と、その位置関係に応じた警報情報とを前記分析結果表示部に表示することを特徴とする
請求項6に記載の行動分析システム。
【請求項8】
人物の行動を分析するエッジ装置と、前記エッジ装置から転送されたデータを処理するサーバ装置とを備える行動分析システムが実行する行動分析方法であって、
前記エッジ装置は、
前記人物を撮像したデータから前記人物の行動を分析する分析処理のうちの前処理を実行するエッジ側分析部と、
前記エッジ側分析部の分析結果から分析処理のうちの後処理を実行することで、前記人物の特定に用いる情報を含めたデータを抽出する分析結果抽出部と、
前記分析結果抽出部が抽出したデータを前記サーバ装置に転送する分析結果転送部とを有しており、
前記サーバ装置は、
前記分析結果転送部から転送されたデータが前記人物ごとに格納されるデータベースと、
前記データベースのデータをもとに、分析処理のうちの前記後処理を実行し、その分析結果を分析結果表示部に表示するサーバ側分析部を有することを特徴とする
行動分析方法。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、行動分析システム、および、行動分析方法に関わる。
【背景技術】
【0002】
計算機性能の飛躍的な向上に伴い、従来よりも大量のデータを処理可能なサーバ装置を有するビックデータ分析システムが提案されている。分析対象となる大量のデータは、インターネットに接続されたモノであるIoT(Internet of Things)デバイスから遠隔でサーバ装置まで収集されることが多い。このように、多数のエッジ側のデバイス(エッジ装置)でデータを収集し、インターネット(クラウド)経由で1台のサーバ装置に集中して大量のデータを処理させるクラウドサービスが普及している。
【0003】
例えば、特許文献1には、センサによって取得された取得情報を出力する第一出力部と、前記取得情報に含まれる個人情報を個人が特定できない属性情報に変換して、前記属性情報を出力する第二出力部と、を備える情報出力装置が記載されている(請求項1)。
この情報出力装置は、収集した画像データに写る顧客の動線、棚前行動を算出し、その算出結果をテキスト化してサーバ装置に送信することで、サーバ装置にマーケティング情報として分析させる(段落0022)。
【先行技術文献】
【特許文献】
【0004】
【特許文献1】国際公開第2016/114392号
【発明の概要】
【発明が解決しようとする課題】
【0005】
エッジ装置のデバイス数が増大すると、各エッジ装置からのデータを収集して分析するサーバ装置の負荷も増大する。例えば、エッジ装置側で取得した動画データなどの大容量のデータをそのままサーバ装置側に送信してしまうと、サーバ装置までの通信負荷が増大する。また、処理負荷が高いAI(Artificial Intelligence)処理を用いてサーバ装置で分析を行う場合、デバイス数に応じてサーバ装置の処理負荷が増大する。
【0006】
一方、エッジ装置は、エンドユーザに使用しやすいように、ウェアラブルデバイスやスマートフォンなどの小型で低性能な計算機であり、エッジ装置単体でサーバ装置が行う分析処理をすべて代行することは困難である。
【0007】
そこで、本発明は、エッジ装置のデバイス数が増大しても、各エッジ装置とサーバ装置とで連携して各人の行動状態を分析可能とすることを主な課題とする。
【課題を解決するための手段】
【0008】
上記の課題を解決するため、本発明の格子作成装置は以下の特徴を有する。
本発明は、人物の行動を分析するエッジ装置と、前記エッジ装置から転送されたデータを処理するサーバ装置とを備える行動分析システムであって、
前記エッジ装置が、
前記人物を撮像したデータから前記人物の行動を分析する分析処理のうちの前処理を実行するエッジ側分析部と、
前記エッジ側分析部の分析結果から分析処理のうちの後処理を実行することで、前記人物の特定に用いる情報を含めたデータを抽出する分析結果抽出部と、
前記分析結果抽出部が抽出したデータを前記サーバ装置に転送する分析結果転送部とを有しており、
前記サーバ装置が、
前記分析結果転送部から転送されたデータが前記人物ごとに格納されるデータベースと、
前記データベースのデータをもとに、分析処理のうちの前記後処理を実行し、その分析結果を分析結果表示部に表示するサーバ側分析部を有することを特徴とする。
その他の手段は、後記する。
【発明の効果】
【0009】
本発明によれば、エッジ装置のデバイス数が増大しても、各エッジ装置とサーバ装置とで連携して各人の行動状態を分析できる。
【図面の簡単な説明】
【0010】
図1】本実施形態に関する行動分析システムを示す構成図である。
図2】本実施形態に関するエッジ側分析部とサーバ側分析部との機能分担の第1例を示す構成図である。
図3】本実施形態に関するエッジ側分析部とサーバ側分析部との機能分担の第2例を示す構成図である。
図4】本実施形態に関するエッジ側分析部の具体例を示す構成図である。
図5】本実施形態に関する図4のエッジ側分析部の変形例を示す構成図である。
図6】本実施形態に関する歩き状態分析に着目したときの行動分析システムの動作を示すフローチャートである。
図7】本実施形態に関する2D映像から人を検出する処理の説明図である。
図8】本実施形態に関する図7で検出された人に対して、姿勢を抽出する処理の説明図である。
図9】本実施形態に関するAIエッジ処理器が処理するデータを示すテーブルである。
図10】本実施形態に関する歩行分析の結果出力を示す第1の画面図である。
図11】本実施形態に関する歩行分析の結果出力を示す第2の画面図である。
図12】本実施形態に関する歩行分析の結果出力を示す第3の画面図である。
図13】本実施形態に関する転倒状態分析部に着目したときの行動分析システムの動作を示すフローチャートである。
図14】本実施形態に関する転倒分析による警報出力を示す第1の画面図である。
図15】本実施形態に関する転倒分析による警報出力を示す第2の画面図である。
図16】本実施形態に関する転倒分析による警報出力を示す第3の画面図である。
図17】本実施形態に関する行動分析システムの各装置のハードウェア構成図である。
【発明を実施するための形態】
【0011】
以下、本発明の一実施形態について、図面を参照して説明する。
【0012】
図1は、行動分析システム100を示す構成図である。
行動分析システム100は、AIエッジ処理器(エッジ装置)10とクラウドサーバ20とがネットワーク50で接続されて構成される。ネットワーク50は、LAN(Local Area Network)でもよいし、WAN(Wide Area Network)でもよいし、LANとWANとを複合したネットワークでもよい。また、クラウドサーバ20は、サーバ装置の一例であり、サーバ装置としてクラウドサーバ20以外の装置を用いてもよい。
【0013】
なお、AIエッジ処理器10の台数は図1では2台としたが、1台以上であればよい。また、AIエッジ処理器10とクラウドサーバ20との間のネットワーク50内にキャッシュサーバ(図示省略)を設ける構成としてもよい。その場合、キャッシュサーバが、複数台のAIエッジ処理器10からデータを収集し、それらのデータをまとめてクラウドサーバ20に転送することで、通信量を削減できる。
【0014】
AIエッジ処理器10は、高齢者(人物)40の身体状態をセンシングするエッジ側デバイスである。このAIエッジ処理器10は、例えば、AIの開発者キットをベースに開発することで、開発コストを削減できる。開発者キットとして、例えば、NVIDIA社の製品であるJetson Nano(登録商標)やJetson Xavir NX(登録商標)などの小型のシングルボードが市販されている。
【0015】
各AIエッジ処理器10には、USB(Universal Serial Bus)などの有線接続、または、Bluetooth(登録商標)などの無線接続によりカメラ30が接続される。または、AIエッジ処理器10に内蔵するカメラ30を用いてもよい。カメラ30は、周囲の高齢者40を動画データとして撮影する。
なお、本実施形態では、カメラ30の撮影対象を高齢者40としたが、あくまで行動分析システム100を介護事業に適用した一例であり、撮影対象(分析対象)の人物は高齢者40に限定しない。介護事業の一例では、高齢者40の身体状態をカメラ30からリアルタイムでセンシングすることで、高齢者40を遠隔地から見守るクラウドサービスに活用できる。
【0016】
AIエッジ処理器10は、データ取得部11と、エッジ側分析部12と、分析結果抽出部13と、分析結果転送部14とを有する。クラウドサーバ20は、データベース21と、データ抽出部22と、サーバ側分析部23と、分析結果表示部24とを有する。
データ取得部11は、カメラ30から動画データを取得する。
エッジ側分析部12およびサーバ側分析部23は、それぞれ役割分担して、動画データに映る高齢者40の行動を分析する。つまり、エッジ側分析部12は、動画データを入力として、分析の前処理データを作成する。分析結果抽出部13は、エッジ側分析部12から出力された前処理データから、サーバ側分析部23の分析処理に必要なデータを抽出し、その抽出したデータを分析結果転送部14を介してクラウドサーバ20に転送する。
【0017】
クラウドサーバ20は、分析結果転送部14から転送されたデータを、人物ごと(AIエッジ処理器10ごと)にデータベース21に格納する。データ抽出部22は、データベース21に格納された人物ごとのデータから、サーバ側分析部23の分析処理に必要なデータを抽出する。
サーバ側分析部23は、データ抽出部22が抽出したデータを入力として、高齢者40の行動を分析し(後処理し)、その結果を分析結果表示部24に表示する。
【0018】
図2は、エッジ側分析部12とサーバ側分析部23との役割分担の第1例を示す構成図である。
エッジ側分析部12は、姿勢分析部121と、状態分析部122とを有する。サーバ側分析部23は、行動分析部231を有する。
姿勢分析部121は、高齢者40を撮像したデータから、各時刻の高齢者40の姿勢を示すデータを分析する。例えば、歩行中の高齢者40は、立っていて左足を前に出している姿勢→右足を前に出している姿勢→左足を前に出している姿勢…の順に姿勢が時間経過とともに変化する(詳細は図8)。
本実施形態では、姿勢を示すデータ表現として、骨格データを例示する。骨格データは、人体にある17個の関節(鼻、右目、左目、右耳、左耳、右肩、左肩、右手、左手首、右手首、左腰、右腰、左膝、右膝、左足首、右足首)それぞれの位置データとして構成される。
【0019】
状態分析部122は、姿勢分析部121が分析した姿勢の時間変化から、高齢者40の状態を示すデータを分析(状態を分類)する。
例えば、立っていて左足を前に出している姿勢→右足を前に出している姿勢→左足を前に出している姿勢…の順に変化したときには、状態分析部122は、高齢者40の状態を歩行状態と分類する。
または、立っているが前のめりになっている姿勢→右手を床に着けた姿勢→体全体が床に横たわる姿勢…の順に変化したときには、状態分析部122は、高齢者40の状態を転倒状態と分類する。
【0020】
なお、姿勢分析部121および状態分析部122の少なくとも一方は、AIエッジ処理器10(Jetson Nano)上で動作するTensorRTモデルとして実装することで、高速な推論処理が可能となる。TensorRTとは、ディープラーニング推論を高速に実行するなどの用途でNVIDIA社が提供するソフトウェア開発キット(SDK:Software Development Kit)である。
【0021】
TensorRTモデルの作成処理は、例えば以下の手順である。
(手順1)サンプル収集された学習用の動画データに、人を検知して追跡した結果のタグや、追跡した人の行動の分類結果のタグ(注釈)を、人間(教師の役割)が付与する。
(手順2)手順1の動画データをもとに、機械学習(訓練)を行うことで、学習済モデルを作成する。なお、学習済モデルは、モデル評価により更新される。
(手順3)手順2の学習済モデルを、TensorRTモデルとして変換(移植)することで、TensorRTベースの高速化された推論モデルを作成する。
(手順4)手順3のTensorRTモデルを、エッジ側分析部12上に配置する。これにより、推論用の動画データをTensorRTモデルに入力することで、動画内の映る人を検知して追跡したり、追跡した人の姿勢や行動を分類したりする処理を高速化できる。
【0022】
行動分析部231は、状態分析部122が分析した高齢者40の状態から、高齢者40に資するデータを分析する。つまり、行動分析部231は、データベース21内のデータに基づいて、高齢者40の健康情報をモニタしたり、介護に役立つ情報を作成したりする。例えば、行動分析部231は、状態分析部122が歩行状態と分類した高齢者40について、その歩行履歴を分析した結果を高齢者40に通知する(詳細は図10図12)。
または、行動分析部231は、状態分析部122が転倒状態と分類した高齢者40について、近くにいる介護士に対して救助を求める旨を通知する(詳細は図14図16)。
【0023】
図3は、エッジ側分析部12とサーバ側分析部23との役割分担の第2例を示す構成図である。
エッジ側分析部12は、姿勢分析部121を有する。サーバ側分析部23は、状態分析部232と、行動分析部231とを有する。行動分析部231は、状態分析部122と同じ機能である。
つまり、図2の第1例と比較すると、図3の第2例では、エッジ側分析部12の状態分析部122を、サーバ側分析部23の行動分析部231へと移動した。これにより、第2例では、AIエッジ処理器10の処理負担を軽減することで、ウェアラブルデバイスなどの低性能な計算機であっても、AIエッジ処理器10に用いることができる。一方、図2の第1例では、前処理を多めにすることで、クラウドサーバ20の負担を軽減できる。
【0024】
図4は、エッジ側分析部12の具体例を示す構成図である。
1台のAIエッジ処理器10内の状態分析部122には、状態ごとの分析部として、歩き状態分析部122Aと、転倒状態分析部122Bとを有する。AIエッジ処理器10のうち、分析結果転送部14の図示は省略する。
歩き状態分析部122Aは、高齢者40の状態が歩行状態か否かを分析する。転倒状態分析部122Bは、高齢者40の状態が転倒状態か否かを分析する。
【0025】
このように、複数種類の状態分析部を1台のAIエッジ処理器10に収容することで、AIエッジ処理器10の配備や持ち運びを容易にする。また、1台のAIエッジ処理器10内で、歩き状態分析部122Aを動作させる歩き検知モードと、転倒状態分析部122Bを動作させる転倒検知モードとをスイッチ操作などで切り替えさせてもよい。
【0026】
図5は、図4のエッジ側分析部12の変形例を示す構成図である。
図5では、歩き状態分析部122Aを収容するAIエッジ処理器10Aと、転倒状態分析部122Bを収容するAIエッジ処理器10Bとを、別々の装置に分散させる構成とした。
そして、AIエッジ処理器10AおよびAIエッジ処理器10Bは、それぞれ自身が検出した高齢者40の状態を個別にクラウドサーバ20に送信する。クラウドサーバ20は同じ高齢者40についての複数の状態を統合してデータベース21に登録する。
【0027】
このように、状態ごとの分析部を別々のAIエッジ処理器10に収容することで、各AIエッジ処理器10が自身の担当する状態を高精度に検知する。
例えば、AIエッジ処理器10Aは、高齢者施設のホールや、共用スペースなどに設置される。これにより、歩き状態分析部122Aは、カメラの撮影範囲に歩いている高齢者の歩行状態を分析できる。
一方、AIエッジ処理器10Bは、高齢者の居る個室や、共用スペースなどに設置される。これにより、転倒状態分析部122Bは、カメラの撮影範囲に居る高齢者の転倒状態を分析できる。
AIエッジ処理器10A、10Bそれぞれ分析結果は、ネットワーク50を経由してクラウドサーバ20へ転送される。これにより、クラウドサーバ20は、高齢者の状態を分析できる。
【0028】
図6は、歩き状態分析部122Aに着目したときの行動分析システム100の動作を示すフローチャートである。
データ取得部11は、カメラ30が人物(高齢者40)を撮像した2D映像を取得する(S11)。
姿勢分析部121は、S11の2D映像から人物を検出し、その人物を2D映像内で追跡する(S12)。そして、姿勢分析部121は、S12で検出された人物に対して、各時刻の姿勢を抽出する(S13)。
状態分析部122(歩き状態分析部122A)は、S13で抽出された姿勢の2D位置をもとに、ある時刻の人物の2D位置から、次の時刻の人物の2D位置までに移動した3D距離(三次元空間内での距離、詳細は図8)を抽出する(S14)。
【0029】
状態分析部122(歩き状態分析部122A)は、S14の3D距離をもとに、同じ人物の歩き速度、歩幅を算出する(S15)。分析結果抽出部13は、S12で検出された人物を特定するための情報、例えば、顔の特徴を示す顔情報などを人情報として抽出し、S15の歩き速度、歩幅を歩行情報として抽出する(S16)。
分析結果転送部14は、S16で抽出された分析結果(人情報、歩行情報)を、ネットワーク50経由でクラウドサーバ20に転送する(S17)。なお、分析結果には、S13の姿勢を含めてもよい。
【0030】
クラウドサーバ20は、S17の分析結果(人情報、歩行情報)を受信してデータベース21に格納する(S21)。
データ抽出部22は、データベース21から読み込んだ人情報をもとに、その人情報で示される2D映像内に人が写っている領域(人の領域)を抽出し、データベース21から歩行情報を抽出する(S22)。
行動分析部231は、S22で抽出された2D映像内の人の領域に映っている情報をもとに、映っている人が誰なのかを認識し、その認識結果として人物を識別するためのIDを特定する(S23)。
【0031】
行動分析部231は、S23で特定されたIDごとに、歩行情報(歩き速度、歩幅)から、人物が所定の期間に歩いた距離、平均速度、加速度、歩行能力などの歩行分析を行う(S24)。なお、歩行能力は、例えば、運動器不安定症(MADS:Musculoskeletal Ambulation Disability Symptom Complex)の指標であるTUG(Timed Up & Go Test)に従って計算される。
行動分析部231は、S24の分析結果を、分析結果表示部24に出力する(S25)。以下、出力内容の一例を挙げる。
・行動分析部231が歩行情報(歩行履歴)を分析した結果として、歩行特性の履歴、歩行特徴の分布を分析結果表示部24に出力する。
・行動分析部231が分析した歩行能力をもとに、健康リスクの予測データを分析結果表示部24に出力する。
【0032】
図7は、2D映像から人を検出する処理(S12)の説明図である。
カメラ30は、図面の左側から右側に向かって歩いている人物を、各時刻t1,t2,t3の順に撮影したとする。姿勢分析部121は、各時刻t1,t2,t3における人物の位置を検出し(図示では人物を囲む四角形)、その人物を追跡する。
【0033】
図8は、図7で検出された人に対して、姿勢を抽出する処理(S13)の説明図である。
姿勢分析部121は、各時刻t1,t2,t3で検出された人物に対して、各関節を黒い点とし、それらの黒い点どうしを接続する線を骨とする骨格データを、姿勢として抽出する。
また、S14として、状態分析部122(歩き状態分析部122A)は、時刻t1の人物位置から時刻t2の人物位置までの3D距離d12を算出する。同様に、状態分析部122は、時刻t2の人物位置から時刻t3の人物位置までの3D距離d23を算出する。
【0034】
そして、S15として、状態分析部122は、3D距離d12,d23と、時刻t1,t2,t3の経過時間とをもとに、人物の歩き速度を計算する。さらに、状態分析部122は、ある時刻t1における人物の歩幅w1を算出する。
また、S16として、分析結果抽出部13は、検出された検出された人物を特定するための人情報として、人物の顔画像f1や顔情報を抽出する。顔情報とは、顔画像から抽出される認証情報であり、顔認証用の特徴情報や、目の虹彩情報などが例示される。
【0035】
図9は、AIエッジ処理器10が処理するデータを示すテーブルである。
テーブル201は、AIエッジ処理器10の内部で生成されるデータであり(S11-S15)、テーブル202は、テーブル201をもとに、分析結果転送部14がクラウドサーバ20に転送するデータである(S16、S17)。
テーブル201は、図6のS11のカメラ映像と、S12の人の検出結果と、S13の姿勢情報(2D位置)と、S14の3D距離と、S15の歩行情報とを対応付ける。
【0036】
S11のカメラ映像は、JPG(Joint Photographic Experts Group)画像や、PNG(Portable Network Graphics)画像として、データ取得部11により取得される。
S12の人の検出結果は、人物ごとに、その人物が映る領域の枠と、その人物のIDとの組み合わせデータである。なお、S12の時点では、人物のIDは、その人物がだれかを特定するものではなく、ある人物が10秒後にはどこに移動したかという追跡をするために、つまり、他の人物と区別するために用いられる。
【0037】
S13の姿勢情報は、人物の計17個の関節ごとに、画像内での2D位置(縦位置u,横位置v)を示す情報である。
S14の3D距離は、人物の計17個の関節ごとの位置情報を、画像内での2D位置(u,v)から、実空間内での3D位置(x,y,z)に置き換えた情報であり、この3D位置の時間差分が3D距離となる。
S15の歩行情報は、例えば、人物の歩幅や歩き速度である。
【0038】
テーブル202は、図6のS16の人情報と、S16の歩行情報と、姿勢情報(S13の2D位置(u,v)、S14の3D距離(x,y,z))とを対応付ける。
S16の人情報は、例えば、図8の高齢者f1の特定情報として、顔の特徴(輪郭、口の大きさなど)や、服の特徴(色、種類など)を含む。
S16の歩行情報は、例えば、人物の状態=歩行中、歩幅=65[cm]、速度=1.0[m/s]、加速度=+0.1[m/sの2乗]を含む。
【0039】
図10は、歩行分析の結果出力(S25)を示す第1の画面図である。
表示画面211は、横軸を日付とし縦軸を歩行情報の数値とする時系列のグラフと、その横軸の日付に対応して映像データの再生を起動するための「映像」ボタン213Bとを有する。
時系列のグラフでは、人物の歩幅、歩き速度、加速度などのS15の歩行情報が、互いに区別して(グラフ線の色や線の種類を別々にするなど)表示される。ユーザは、このグラフを確認し、気になった日付の「映像」ボタン213Bを押下することにより、その日付に撮影された人物の映像データを確認できる。
【0040】
図11は、歩行分析の結果出力(S25)を示す第2の画面図である。
表示画面212は、行動分析部231が分析した歩行能力を含む人物の各能力(判断力、記憶力、注意力)をレーダーチャートの形式で表示する。各能力は1~5の5段階で評価され、数値が大きいほど能力が高い。なお、歩行能力以外の能力値は、事前に測定された結果がデータベース21に格納されている。
この表示画面212のように、高齢者の生活能力を正しく評価して提示することで、要介護状態となる前のフレイル状態を適切に認識させることができる。
【0041】
図12は、歩行分析の結果出力(S25)を示す第3の画面図である。
表示画面220は、行動分析部231が分析した歩行能力の時系列グラフ221と、その時系列グラフ221における歩行能力の変化から行動分析部231が提案するリコメンドメッセージ222とを有する。
これにより、転倒・骨折の危険性がある要介護状態となる前に適切なリハビリテーションを高齢者に促すことで、尊厳ある高齢者の自立を支援できる。
【0042】
図13は、転倒状態分析部122Bに着目したときの行動分析システム100の動作を示すフローチャートである。図6(歩き状態分析部122Aに着目したフローチャート)と同じ処理については、同じ符号を用いて説明を省略する。
AIエッジ処理器10の処理(S11-S13)は、図6で説明した通りである。姿勢分析部121は、S11で取得した2D映像から人物を検出し、その人物を2D映像内で追跡する(S12)。そして、姿勢分析部121は、S12で検出された人物に対して、各時刻の姿勢を抽出する(S13)。
【0043】
状態分析部122は、S13で抽出した人物の姿勢の時間変化から、その人物の状態を認識(分類)する(S14B)。
転倒状態分析部122Bは、S14Bで認識した人物の状態が転倒状態か否かを判定する(S15B)。転倒状態なら(S15BでYes)S16Bに進み、就寝状態など他の状態なら(S15BでNo)S11に戻る。
【0044】
分析結果抽出部13は、図6のS16と同じ人情報と、転倒状態の人物についての情報(転倒情報)とを、S11の2D映像から抽出する(S16B)。転倒情報とは、例えば、人物の各時刻における転倒有無や、転倒有の場合の転倒時間(転倒してから起き上がらずに経過した時間)である。
分析結果転送部14は、S16Bの人情報および転倒情報(S13の姿勢情報を含めてもよい)とを、ネットワーク50経由でクラウドサーバ20に転送する(S17B)。
【0045】
クラウドサーバ20は、S17Bの分析結果(人情報、転倒情報)を受信してデータベース21に格納する(S21B)。
データ抽出部22は、データベース21から読み込んだ人情報をもとに、その人情報で示される2D映像内に人が写っている領域(人の領域)を抽出し、データベース21から転倒情報を抽出する(S22B)。
行動分析部231は、S22で抽出された2D映像内の人の領域に映っている情報をもとに、映っている人が誰なのかを認識し、その認識結果として人物を識別するためのIDを特定する(図6のS23と同じ)。
【0046】
行動分析部231は、S22Bで抽出した転倒情報を用いて、S23の転倒した人物について救助の緊急性を分析する(S24B)。転倒時間が長いほど、行動分析部231は緊急性を高く計算する。また、転倒した人物の周囲に介助する別の人物が少ないほど(例えば、個室で1人だけ転倒している状況ほど)、行動分析部231は緊急性を高く計算する。
行動分析部231は、S24Bの分析結果を、分析結果表示部24に出力する(S25B)。なお、緊急性が高いほど、警報情報の出力度合いも高くしてもよい。出力度合いが高いとは、画面で強調表示したり、画面表示に加えて警報音(アラーム)を再生したり、クラウドサーバ20だけでなく、AIエッジ処理器10や高齢者の家族の端末も警報の出力先に追加したりする、などである。
【0047】
図14は、転倒分析による警報出力(S25B)を示す第1の画面図である。
画面図220Aは、転倒状態の高齢者40およびその周囲に存在する別の人物の位置関係を示す見取り図欄221Aと、行動分析部231の分析結果である警報情報の出力欄222Aとを含む。
この見取り図欄221Aの状況では、高齢者Aの行動を分析するAIエッジ処理器10が高齢者Aの転倒状態を検知したものの、同じ部屋内の近傍には介護士が位置することも検知する。よって、行動分析部231は、介護士が高齢者Aをただちに介助することが期待されるので、「通知は不要です」との分析結果を警報情報の出力欄222Aに出力する。
【0048】
図15は、転倒分析による警報出力(S25B)を示す第2の画面図である。
画面図220Bは、図14と同様に、見取り図欄221Bと、警報情報の出力欄222Bとを含む。
この見取り図欄221Bの状況では、高齢者Aの転倒状態だけでなく、近傍の高齢者Aの転倒状態もAIエッジ処理器10により検知される。一方、その高齢者A,Bのいる部屋の近傍には介護士が待機していることも、事前にデータベース21に登録されている。
よって、行動分析部231は、介護士を高齢者A,Bの介助に向かわせるために、「高齢者A,Bが転倒しています。近くの介護士に自動通知します」との分析結果を警報情報の出力欄222Bに出力する。また、行動分析部231は、介護士の保持する端末にその自動通知を送信する。
【0049】
図16は、転倒分析による警報出力(S25B)を示す第3の画面図である。
画面図220Cは、図14と同様に、見取り図欄221Cと、警報情報の出力欄222Cとを含む。
この見取り図欄221Cの状況では、高齢者Aが個室で転倒状態であることがAIエッジ処理器10により検知される。一方、その高齢者Aのいる部屋の近傍には介護士が不在であることがデータベース21に登録されている。
よって、行動分析部231は、高齢者Aの家族などに緊急事態を通知するために、「高齢者Aが転倒し、近くに介護士はいません。救急に緊急連絡をお願いします」との分析結果を警報情報の出力欄222Cに出力する。これにより、高齢者Aの家族は、迅速に救急活動を要請できる。
【0050】
以上、図14図16で説明したように、1台のAIエッジ処理器10により検知される「高齢者Aが転倒状態である」という同じ状況であっても、その周囲に存在する別の人との関係により、警報情報の出力有無や、出力内容を変化させることができる。これは、サーバ側分析部23が高齢者Aの転倒状態と、その周囲の人物の状態とを併せて参照して、警報情報を決定するからである。
そのために、AIエッジ処理器10が単体で各高齢者の転倒状態を分析する構成に加え、クラウドサーバ20が複数の人物の状態をデータベース21にて管理する構成も併せて、クラウドサービスとして構築しておくことが有効である。
【0051】
図17は、行動分析システム100の各装置(AIエッジ処理器10、クラウドサーバ20)のハードウェア構成図である。
行動分析システム100の各装置は、CPU901と、RAM902と、ROM903と、HDD904と、通信I/F905と、入出力I/F906と、メディアI/F907とを有するコンピュータ900として構成される。
通信I/F905は、外部の通信装置915と接続される。入出力I/F906は、入出力装置916と接続される。メディアI/F907は、記録媒体917からデータを読み書きする。さらに、CPU901は、RAM902に読み込んだプログラム(アプリケーションや、その略のアプリとも呼ばれる)を実行することにより、各処理部を制御する。そして、このプログラムは、通信回線を介して配布したり、CD-ROM等の記録媒体917に記録して配布したりすることも可能である。
【0052】
以上説明した本実施形態では、大容量のカメラ30の映像データをそのままAIエッジ処理器10からクラウドサーバ20に伝送して、クラウドサーバ20がすべての分析処理を行うクラウドサービスの負荷を削減した。つまり、AIエッジ処理器10のエッジ側分析部12が映像データを前処理してデータ量を削減してから、クラウドサーバ20に伝送してサーバ側分析部23の後処理に引き継がせることとした。
これにより、リアルタイムかつ遠隔で人の身体状態をセンシングするクラウドサービスを、低コストかつ低負荷で実現できる。
【0053】
なお、AIエッジ処理器10と、クラウドサーバ20とで、以下のように負荷分散できる。
・ネットワーク50には、大容量の映像データではなく前処理されてデータ量が削減されたデータが伝送されるので、通信負荷を削減できる。
・AIエッジ処理器10は、すべての分析処理を担うのではなく、一部の前処理だけを担うので、ウェアラブルデバイスやスマートフォンなどの小型で低性能な計算機でも動作できる。
・クラウドサーバ20は、AIエッジ処理器10で前処理されたデータを受信し、後処理だけをすればよいので、処理負荷を削減できる。
【符号の説明】
【0054】
10 AIエッジ処理器(エッジ装置)
11 データ取得部
12 エッジ側分析部
13 分析結果抽出部
14 分析結果転送部
20 クラウドサーバ(サーバ装置)
21 データベース
22 データ抽出部
23 サーバ側分析部
24 分析結果表示部
30 カメラ
40 高齢者(人物)
50 ネットワーク
100 行動分析システム
121 姿勢分析部
122 状態分析部
122A 歩き状態分析部
122B 転倒状態分析部
231 行動分析部
232 状態分析部
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14
図15
図16
図17