(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2022068638
(43)【公開日】2022-05-10
(54)【発明の名称】情報処理装置、情報処理方法および情報処理システム。
(51)【国際特許分類】
G06Q 50/10 20120101AFI20220427BHJP
A01K 29/00 20060101ALI20220427BHJP
【FI】
G06Q50/10
A01K29/00
【審査請求】未請求
【請求項の数】11
【出願形態】OL
(21)【出願番号】P 2020177424
(22)【出願日】2020-10-22
【公序良俗違反の表示】
(特許庁注:以下のものは登録商標)
1.Linux
(71)【出願人】
【識別番号】518247173
【氏名又は名称】株式会社RABO
(74)【代理人】
【識別番号】110002790
【氏名又は名称】One ip特許業務法人
(72)【発明者】
【氏名】伊豫 愉芸子
【テーマコード(参考)】
5L049
【Fターム(参考)】
5L049CC11
(57)【要約】
【課題】ペットの活動状態の予測精度を向上させること。
【解決手段】本開示に係るサーバ1は、カメラ8により撮像されるペットを被写体とする動画のデータ、および該動画の撮像に係る時刻情報を取得する動画データ取得部221と、カメラ8とは異なるデバイスであって、動物に接するペットセンサ5に設けられるセンサから得られる時系列の測定データを取得する測定データ取得部222と、測定データから、動画の撮像に係る時刻情報に基づいて定められる所定の時間帯の対象データを抽出する抽出部23と、抽出された対象データと動画のデータとを関連付けて出力する出力部26と、を備える。
【選択図】
図1
【特許請求の範囲】
【請求項1】
第1のデバイスにより撮像される動物を被写体とする動画のデータ、および該動画の撮像に係る時刻情報を取得する動画データ取得部と、
前記第1のデバイスとは異なる第2のデバイスであって、前記動物に接する該第2のデバイスに設けられるセンサから得られる時系列の測定データを取得する測定データ取得部と、
前記測定データから、前記動画の撮像に係る時刻情報に基づいて定められる所定の時間帯の対象データを抽出する抽出部と、
抽出された前記対象データと前記動画のデータとを関連付けて出力する出力部と、
を備える情報処理装置。
【請求項2】
ユーザ端末に前記第1のデバイスによる撮像を行うための操作画面を表示させる操作画面表示制御部をさらに備え、
前記動画データ取得部は、前記ユーザ端末に対する前記操作画面への入力により開始される前記第1のデバイスの撮像処理により得られる前記動画のデータを取得する、請求項1に記載の情報処理装置。
【請求項3】
前記動画の撮像に係る時刻情報は、前記第1のデバイスによる前記動画の撮像の開始のタイミングに基づいて生成される、請求項1または2に記載の情報処理装置。
【請求項4】
前記対象データに、前記動画の撮像時における前記動物の行動に関する情報をメタ情報として付与するメタ情報付与部をさらに備える、
請求項1~3のいずれか1項に記載の情報処理装置。
【請求項5】
過去に前記動物の行動と判別されたタイミングの情報の一覧をユーザ端末に表示させるデータ一覧表示制御部と、
ユーザ端末に対する入力操作に係る情報に基づき、前記ユーザ端末に表示される前記一覧に含まれるタイミングの情報から、前記動物の行動に対応しないと選択された情報を削除するデータ処理部と、
をさらに備える、請求項4に記載の情報処理装置。
【請求項6】
前記メタ情報は、前記動物による食事、運動、嘔吐、排泄および睡眠に関する情報を含む、請求項4または5に記載の情報処理装置。
【請求項7】
前記メタ情報は、前記動物の固有の情報を含む、請求項4~6のいずれか1項に記載の情報処理装置。
【請求項8】
前記センサは加速度センサを含み、
前記測定データは、前記加速度センサから得られる加速度についての測定データを含む、請求項1~7のいずれか1項に記載の情報処理装置。
【請求項9】
前記動物は、ヒトを除く動物である、請求項1~8のいずれか1項に記載の情報処理装置。
【請求項10】
プロセッサが、
第1のデバイスにより撮像される動物を被写体とする動画のデータ、および該動画の撮像に係る時刻情報を取得することと、
前記第1のデバイスとは異なる第2のデバイスであって、前記動物に接する該第2のデバイスに設けられるセンサから得られる時系列の測定データを取得することと、
前記測定データから、前記動画の撮像に係る時刻情報に基づいて定められる所定の時間帯の対象データを抽出することと、
抽出された前記対象データと前記動画のデータとを関連付けて出力することと、
を含む情報処理方法。
【請求項11】
第1のデバイスにより撮像される動物を被写体とする動画のデータ、および該動画の撮像に係る時刻情報を取得する動画データ取得部と、
前記第1のデバイスとは異なる第2のデバイスであって、前記動物に接する該第2のデバイスに設けられるセンサから得られる時系列の測定データを取得する測定データ取得部と、
前記測定データから、前記動画の撮像に係る時刻情報に基づいて定められる所定の時間帯の対象データを抽出する抽出部と、
抽出された前記対象データと前記動画のデータとを関連付けて出力する出力部と、
を備える情報処理システム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明はペットの健康状態を把握するためのサービスを提供するための情報処理装置、情報処理方法および情報処理システムに関する。
【背景技術】
【0002】
昨今、ペットブームの高まりに伴い、ペットの見守りや健康管理のための技術が開発されている。例えば、特許文献1には、飼い犬に加速度センサを固定し、センサから取得される測定データを基に、犬の活動状態(静止中、歩行中、激しい運動)といった情報を算出し、飼い主に提供する、といった技術が公開されている。
【先行技術文献】
【特許文献】
【0003】
【発明の概要】
【発明が解決しようとする課題】
【0004】
しかしながら、上記技術は、短時間の平均的なトレンド周波数に基づいて、活動量を示すことを実現しているものの、実際の動物の活動状態を示す情報を得ることは難しい。特にネコ等の小型の動物においては、動きが小刻みであり、上下方向に移動も活発であるので、その意味においても、短時間的なトレンドデータのみに基づく情報把握が難しい。また、このようなトレンドデータは個体差による影響が大きくなることもあり、活動状態を示す情報の精度を得ることが困難である。
【0005】
そこで、本発明は、ペット、特にネコについて、その活動状態の予測精度を向上させることが可能な、情報処理装置、情報処理方法および情報処理システムを提供することを目的とする。
【課題を解決するための手段】
【0006】
本発明によれば、第1のデバイスにより撮像される動物を被写体とする動画のデータ、および該動画の撮像に係る時刻情報を取得する動画データ取得部と、前記第1のデバイスとは異なる第2のデバイスであって、前記動物に接する該第2のデバイスに設けられるセンサから得られる時系列の測定データを取得する測定データ取得部と、前記測定データから、前記動画の撮像に係る時刻情報に基づいて定められる所定の時間帯の対象データを抽出する抽出部と、抽出された前記対象データと前記動画のデータとを関連付けて出力する出力部と、を備える情報処理装置が提供される。
【0007】
また、本発明によれば、プロセッサが、第1のデバイスにより撮像される動物を被写体とする動画のデータ、および該動画の撮像に係る時刻情報を取得することと、前記第1のデバイスとは異なる第2のデバイスであって、前記動物に接する該第2のデバイスに設けられるセンサから得られる時系列の測定データを取得することと、前記測定データから、前記動画の撮像に係る時刻情報に基づいて定められる所定の時間帯の対象データを抽出することと、抽出された前記対象データと前記動画のデータとを関連付けて出力することと、を含む情報処理方法が提供される。
【0008】
また、本発明によれば、第1のデバイスにより撮像される動物を被写体とする動画のデータ、および該動画の撮像に係る時刻情報を取得する動画データ取得部と、前記第1のデバイスとは異なる第2のデバイスであって、前記動物に接する該第2のデバイスに設けられるセンサから得られる時系列の測定データを取得する測定データ取得部と、前記測定データから、前記動画の撮像に係る時刻情報に基づいて定められる所定の時間帯の対象データを抽出する抽出部と、抽出された前記対象データと前記動画のデータとを関連付けて出力する出力部と、を備える情報処理システムが提供される。
【発明の効果】
【0009】
本発明によれば、ペットの活動状態の予測精度を向上させることが可能である。
【図面の簡単な説明】
【0010】
【
図1】本発明の実施の形態によるシステムの構成例を示す図である。
【
図2】本発明の実施の形態による宅内における動物のセンシングを説明する概念図である。
【
図3】本発明の実施の形態によるサーバのハードウェア構成例を示す図である。
【
図4】フィードバック処理の一例を説明するための図である。
【
図5】本発明の一実施形態によるシステムにおけるサーバのソフトウェア構成例を示す図である。
【
図6】同実施形態に係る表示制御部の詳細な機能ブロックの一例を示す図である。
【
図7】同実施形態に係る取得部の詳細な機能ブロックの一例を示す図である。
【
図8】同実施形態におけるサーバ1の動作フローを示すフローチャートである。
【
図9】同実施形態における操作画面の第1の例を示す図である。
【
図10】同実施形態における操作画面の第2の例を示す図である。
【
図11】同実施形態における操作画面の第3の例を示す図である。
【
図12】同実施形態における操作画面の第4の例を示す図である。
【
図13】同実施形態における操作画面の第5の例を示す図である。
【発明を実施するための形態】
【0011】
本発明の実施形態の内容を列記して説明する。本発明は、以下のような構成を備える。
(項目1)
第1のデバイスにより撮像される動物を被写体とする動画のデータ、および該動画の撮像に係る時刻情報を取得する動画データ取得部と、
前記第1のデバイスとは異なる第2のデバイスであって、前記動物に接する該第2のデバイスに設けられるセンサから得られる時系列の測定データを取得する測定データ取得部と、
前記測定データから、前記動画の撮像に係る時刻情報に基づいて定められる所定の時間帯の対象データを抽出する抽出部と、
抽出された前記対象データと前記動画のデータとを関連付けて出力する出力部と、
を備える情報処理装置。
(項目2)
ユーザ端末に前記第1のデバイスによる撮像を行うための操作画面を表示させる操作画面表示制御部をさらに備え、
前記動画データ取得部は、前記ユーザ端末に対する前記操作画面への入力により開始される前記第1のデバイスの撮像処理により得られる前記動画のデータを取得する、項目1に記載の情報処理装置。
(項目3)
前記動画の撮像に係る時刻情報は、前記第1のデバイスによる前記動画の撮像の開始のタイミングに基づいて生成される、項目1または2に記載の情報処理装置。
(項目4)
前記対象データに、前記動画の撮像時における前記動物の行動に関する情報をメタ情報として付与するメタ情報付与部をさらに備える、
項目1~3のいずれか1項に記載の情報処理装置。
(項目5)
過去に前記動物の行動と判別されたタイミングの情報の一覧をユーザ端末に表示させるデータ一覧表示制御部と、
ユーザ端末に対する入力操作に係る情報に基づき、前記ユーザ端末に表示される前記一覧に含まれるタイミングの情報から、前記動物の行動に対応しないと選択された情報を削除するデータ処理部と、
をさらに備える、項目4に記載の情報処理装置。
(項目6)
前記メタ情報は、前記動物による食事、運動、嘔吐、排泄および睡眠に関する情報を含む、項目4または5に記載の情報処理装置。
(項目7)
前記メタ情報は、前記動物の固有の情報を含む、項目4~6のいずれか1項に記載の情報処理装置。
(項目8)
前記センサは加速度センサを含み、
前記測定データは、前記加速度センサから得られる加速度についての測定データを含む、項目1~7のいずれか1項に記載の情報処理装置。
(項目9)
前記動物は、ヒトを除く動物である、項目1~8のいずれか1項に記載の情報処理装置。
(項目10)
プロセッサが、
第1のデバイスにより撮像される動物を被写体とする動画のデータ、および該動画の撮像に係る時刻情報を取得することと、
前記第1のデバイスとは異なる第2のデバイスであって、前記動物に接する該第2のデバイスに設けられるセンサから得られる時系列の測定データを取得することと、
前記測定データから、前記動画の撮像に係る時刻情報に基づいて定められる所定の時間帯の対象データを抽出することと、
抽出された前記対象データと前記動画のデータとを関連付けて出力することと、
を含む情報処理方法。
(項目11)
第1のデバイスにより撮像される動物を被写体とする動画のデータ、および該動画の撮像に係る時刻情報を取得する動画データ取得部と、
前記第1のデバイスとは異なる第2のデバイスであって、前記動物に接する該第2のデバイスに設けられるセンサから得られる時系列の測定データを取得する測定データ取得部と、
前記測定データから、前記動画の撮像に係る時刻情報に基づいて定められる所定の時間帯の対象データを抽出する抽出部と、
抽出された前記対象データと前記動画のデータとを関連付けて出力する出力部と、
を備える情報処理システム。
【0012】
<実施の形態の詳細>
以下、本発明の実施の形態について、図面を参照しながら説明する。
【0013】
<概要>
本発明の実施の形態によるシステム(情報処理システム)は、ペットに装着した加速度センサや重量センサ等の各種センサから得られる測定データをもとにペットの健康状態をモニタリングし、異常を検知するものである。
図1に示すように、本発明のシステムは、サーバ1と、サーバ1に、インターネット等のネットワークを介して接続される、ペットセンサ5、通信端末2、ユーザ端末3を含む。
図1には、説明の便宜のために、各々1つのペットセンサ5、通信端末2、及びユーザ端末3が図示されているが、各々複数の端末が、本システムのネットワークに接続可能である。また、後述する動画データや測定データを分析し、各種モデルを学習ための分析サーバ9が、該ネットワークに接続されていてもよい。
【0014】
ペットに装着するペットセンサ5としては、例えば加速度センサ、温度センサ等がありえる。ペットセンサ5は、第2のデバイスの一例である。かかるペットセンサ5は動物(ペット)の一例であるネコ6に接する。なお、第2のデバイスの例としては、体重計など、図示せぬ重量センサ等であってもよい。重量センサは、ペットが該重量センサに乗るようにして接するものであり、ペットの体重を測定するもの、ペットの排泄物(便、尿)を測定するもの、ペットの摂食量(餌、水)を測定するものがあり、ベッドやトイレ、食器自体に備えられてもよいし、それらを載せる台に設置されてよい。
【0015】
サーバ1は、サービスを、アプリケーションを介してユーザ端末3(第1のデバイスの例)に対して提供することができる。ユーザ端末3は、アプリケーションをサーバ1または別のサーバからダウンロードし、このアプリケーションを実行し、ブラウザ等のウェブページの閲覧ソフトウェアを介してサーバ1にアクセスすることで、サーバ1と情報を送受信することでき、また、サービスを受けることが可能となる。
【0016】
通信端末2は、動物、例えばネコ6に装着されたペットセンサ5と近距離無線通信を行うことで、各データを取得することができる。より具体的には、まず、
図2に示すように、ネコなどのペット(動物)6に対し、首輪状(またはペンダント状)のウェアラブルデバイスが取り付けられる。なお、ここでいう動物は、ヒトを除く動物であってもよい。ウェアラブルデバイスには、加速度センサ及び/または温度センサ等のペットセンサ5が内蔵される。ペットセンサ5は、データをBLUETOOTH(登録商標) LAW ENERGY(BLE)等の近距離無線通信を通じて、同じ宅内に設置される受信装置7に送信し、受信装置7は、ルータ等の通信端末2にデータを転送し、通信端末2は、データをネットワークを介してサーバ1に送信する。なお、ペットセンサ5は、データをBLUETOOTH(登録商標) LAW ENERGY(BLE)等の近距離無線通信を通じて、ユーザ端末3に直接送信することとしてもよい。ここで、受信装置7は、一例として、Linuxベースのオペレーションシステムを搭載し、また、気温を測定する温度センサ等各種センサを搭載することができる。しかしながら、組み込みのチップセット等、OSを搭載しないものであってももちろんよい。
【0017】
ペットセンサ5は、例えば加速度センサである。加速度センサは、
図2に示すように、互いに直交する3軸方向(x軸、y軸、z軸方向)の加速度を検出するセンサであり、ネコの首部に装着する首輪に内蔵される。
図2に示すように、ネコの前後方向をX方向、左右方向をY方向、上下方向をZ方向と定義し、ネコの動きに応じて各方向の加速度信号が検出できるよう首輪をネコに取り付ける。センサの種類はこれに限らず、ジャイロセンサやモーションセンサ等、ネコの動きに関する情報を取得できるあらゆるセンシング装置を採用可能である。なお、ペットセンサ5は、上述した首輪状の筐体に収容されるものであってもよいし、予め動物等の皮膚等に付されたり、埋め込まれたりするようなデバイスであってもよい。
【0018】
ユーザ端末3としては、例えばワークステーションやパーソナルコンピュータのような汎用コンピュータとしてもよいし、或いはスマートフォン、タブレット、携帯端末、その他情報端末等であってもよい。かかるユーザ端末3は、カメラ8を備える。カメラ8は第1のデバイスの一例である。カメラ8は、必ずしも撮像装置はユーザ端末3に設けられるものでなくてもよく、カメラ8はユーザ端末3と独立していてもよい。
【0019】
<ハードウェア構成>
本実施の形態によるサーバ1とユーザ端末3とは、以下のようなハードウェア構成を有する。なお、以下の構成は一例であり、これ以外の構成を有していても良い。
【0020】
サーバ1は、データベース(図示せず)と接続されシステムの一部を構成する。サーバ1は、例えばワークステーションやパーソナルコンピュータのような汎用コンピュータとしてもよいし、或いはクラウド・コンピューティングによって論理的に実現されてもよい。
【0021】
図3に示すように、サーバ1は、少なくとも、制御部10、メモリ11、ストレージ12、送受信部13、入出力部14等を備え、これらはバス15を通じて相互に電気的に接続される。
【0022】
制御部10は、サーバ1全体の動作を制御し、各要素間におけるデータの送受信の制御、及びアプリケーションの実行及び認証処理に必要な情報処理等を行う演算装置である。例えば制御部10はCPU(Central Processing Unit)であり、ストレージ12に格納されメモリ11に展開されたプログラム等を実行して各情報処理を実施する。
【0023】
メモリ11は、DRAM(Dynamic Random Access Memory)等の揮発性記憶装置で構成される主記憶と、フラッシュメモリやHDD(Hard Disc Drive)等の不揮発性記憶装置で構成される補助記憶と、を含む。メモリ11は、制御部10のワークエリア等として使用され、また、サーバ1の起動時に実行されるBIOS(Basic Input/Output System)、及び各種設定情報等を格納する。
【0024】
ストレージ12は、アプリケーション・プログラム等の各種プログラムを格納する。各処理に用いられるデータを格納したデータベース(図示せず)がストレージ12に構築されていてもよい。
【0025】
送受信部13は、サーバ1をネットワークに接続する。なお、送受信部13は、Bluetooth(登録商標)及びBLE(Bluetooth Low Energy)の近距離通信インターフェースを備えていてもよい。
【0026】
入出力部14は、キーボード・マウス類等の情報入力機器、及びディスプレイ等の出力機器である。
【0027】
バス15は、上記各要素に共通に接続され、例えば、アドレス信号、データ信号及び各種制御信号を伝達する。
【0028】
<行動種別機能の例>
本発明のシステムにおけるサーバ1の機能について説明する前に、本発明の前提となるペットの行動種別機能の一例について説明する。本システムにおいては、ネコ6に装着されたウェアラブルデバイスに備わるペットセンサ5から得られる測定データに基づいて、ネコ6の行動を予測するものである。具体的には、サーバ1は、測定データを連続的または断続的に取得し、適宜フーリエ変換等の前処理を行い、測定データを特定の行動に対応するパターンと比較分析を行う。そしてサーバ1は、かかる比較分析の結果から、測定データに対して最も類似する行動パターンが測定データにラベルとして付与され、該行動パターンに関する情報をユーザに対しユーザ端末3等を介して通知する。これにより、ユーザは直接的にネコ6を観察しなくても、ウェアラブルデバイスから得られる情報を介して、ネコ6の状態を知ることができる。
【0029】
また、サーバ1においては、各動物の個体差や環境による個別的要因に対応するため、ユーザからのフィードバックを受けることができる。
図4は、フィードバック処理の一例を説明するための図である。具体的には、ユーザは、自己の管理している動物を観察等しながら、現在の行動を(手動により)記録する。サーバ1は、当該記録と加速度センサのデータを関連付けることにより、目視等による教師データを収集することができる。このようにして得られたフィードバックデータは、蓄積され、二値モデル群のモデルの精度を上げるために利用される。
【0030】
かかるフィードバック処理においては、現在の行動を「食事をしている」等のテキスト情報を測定データに付与することは可能である。しかしながら、単にテキスト情報を付与しただけでは、食事におけるどの運動に対応するのか(例えば、摂食、咀嚼または嚥下等)を把握することは困難である。
【0031】
精緻なフィードバックを行うために、例えばネコ6の食事中の動画をサーバ1にアップロードし、分析サーバ9において食事に関するモデルの再学習を行うための情報として活用することはできる。しかしながら、食事中の動画から得られる時系列と、測定データの時系列が一致しなければ、測定データの変化と動画に映る食事の様子とが一致せず、フィードバック情報として用いることが困難となる。
【0032】
そこで本実施形態に係る技術は、動画データに動画の撮像に係る時刻情報を付与しておき、かかる動画の撮像時刻情報に基づいて定められるペットセンサ5における所定の時間帯に得られた測定データを抽出して、かかる測定データと動画データとを紐付けて出力する。これにより、動画に映るネコ6の行動と測定データにより検出される動きとが一致するため、より正確なフィードバックを行うことが可能となる。以下、本発明の一実施形態について説明する。
【0033】
<ソフトウェア構成例>
図5は、本発明の一実施形態によるシステムにおけるサーバ1のソフトウェア構成例を示す図である。サーバ1は、表示制御部21、取得部22、抽出部23、データ処理部24、メタ情報付与部25、出力部26、動物DB(データベース)27および測定DB(データベース)28を備える。なお、表示制御部21、取得部22、抽出部23、データ処理部24、メタ情報付与部25および出力部26は、サーバが備える制御部10がストレージ12に記憶されているプログラムをメモリ11に読み出して実行することにより実現される。また、動物DB27および測定DB28は、メモリ11およびストレージ12の少なくともいずれかにより提供される記憶領域の一部として実現される。
【0034】
表示制御部21は、ユーザ端末3のディスプレイの表示を制御する機能を有する。
図6は、本実施形態に係る表示制御部21の詳細な機能ブロックの一例を示す図である。表示制御部21は、操作画面表示制御部211およびデータ一覧表示制御部212を備える。操作画面表示制御部211は、ユーザ端末3に備えられたカメラにより撮像を行うための操作画面を表示させる機能を有する。例えば、操作画面表示制御部211は、食事の様子を撮像するための操作画面をユーザ端末3に表示させ得る。この場合、ユーザがユーザ端末3に表示されている動画の撮像の開始に係るボタン等をタップすることにより、ユーザ端末3のカメラ8による撮像処理が開始される。なお、操作画面表示制御部211は、撮像処理を停止するための操作画面をしてもよい。かかる撮像処理は、自動に停止するものであってもよい。具体的な表示例については後述する。ネコ6が所定の行動(例えば食事)を行っているタイミングで動画を撮像させるための表示を制御することにより、判別モデルのフィードバックのための動画データとして、質の高いデータを得ることができる。また、フィードバックのためにユーザに行わせる処理の一貫として動画を撮像させる際に、動画を撮像したタイミングをタイムスタンプ(時刻情報)として確実に取得できる。そのため、判別モデルの再学習において、測定データと動画データとの間における時刻のズレが少なくなり、フィードバックがより確実なものとなりうる。
【0035】
データ一覧表示制御部212は、過去にネコ6の行動(例えば、ネコ6食事等の行動)と判別されたタイミングの情報の一覧をユーザ端末3に表示させる機能を有する。かかる機能により、例えば、過去に判別された食事のタイミングのうち、実際の行動とは異なる行動としてラベリングされているデータを削除することができる。具体的な表示例については後述する。
【0036】
取得部22は、他のデバイスから種々のデータを取得する機能を有する。
図7は、本実施形態に係る取得部22の詳細な機能ブロックの一例を示す図である。取得部22は、動画データ取得部221および測定データ取得部222を備える。動画データ取得部221は、ユーザ端末3に備えられるカメラ8により撮像される動物を被写体とする動画のデータ(動画データ)を取得する機能を有する。すなわち、動画データ取得部221は、ユーザ端末3から送信される動画データを取得する。かかる動画データは、上述した操作画面表示制御部211によりユーザ端末3により表示される操作画面を操作することにより動画の撮像処理が行われて得られるものであってもよい。
【0037】
また、動画データ取得部221は、動画の撮像に係る時刻情報を取得する。例えば、動画データ取得部221が取得する動画データには、動画の撮像に係る時刻情報が付与されることで、動画データ取得部221は動画の撮像に係る時刻情報を取得する。動画の撮像に係る時刻情報は、例えば、動画の撮像を開始した時刻の情報であり得る。かかる情報は、例えば、動画の撮像処理が開始したタイミングに基づいて生成されるタイムスタンプに係る情報であってもよい。これにより、動画の開始時刻および終了時刻に関する情報を取得することができる。なお、かかる動画データは、予めカメラ8等により撮像されて得られる動画であってもよいが、この場合、動画データの生成時点(すなわち、動画の撮影の開始時点)における動画の撮像に係る時刻情報が予め動画データと関連付けられていることが好ましい。これらの時刻情報は、後段の処理である測定データの抽出処理において用いられ得る。そのため、上述した操作画面表示制御部211により表示される操作画面を操作した際に付与されるタイムスタンプを時刻情報として用いることで、測定データの抽出処理における精度がより向上する。
【0038】
測定データ取得部222は、ペットセンサ5から得られる時系列の測定データを取得する機能を有する。測定データは、ペットセンサ5が機能を果たす1以上のセンサから得られるデータである。ペットセンサ5が加速度センサである場合は、測定データは加速度データとなる。かかる加速度データは、ネコ6の動き等により生じる加速度データであり得る。測定データは、例えば測定DB28に記憶され得る。測定データは、ペットセンサ5から連続的にまたは断続的に取得される。
【0039】
抽出部23は、測定データから、動画の撮像に係る時刻情報に基づいて定められる、所定の時間帯の対象データを抽出する機能を有する。例えば、18時10分00秒から1分間動画を撮像した場合に、かかる動画に対応する測定データは、18時10分00秒から18時11分00秒の間に測定された測定データであり、抽出部23は、かかる時間帯の測定データを対象データとして抽出する。なお、例えばペットセンサ5とカメラ8(またはサーバ1)と時刻のズレが生じている場合は、抽出部23は、かかる時刻のズレを考慮した時間帯の対象データを抽出してもよい。かかる時刻のズレは、測定データの取得時において予め調整されるものであってもよい。
【0040】
データ処理部24は、データ一覧表示制御部212により表示される一覧に含まれるタイミングの情報から、ユーザ端末3に対する入力操作に係る情報に基づき、ペット6の行動に対応しないと選択された情報(例えば測定DB28に記憶される行動データ等)を削除する機能を有する。かかるデータ処理部24の機能の一例については後述する。
【0041】
メタ情報付与部25は、対象データに、ペット6の撮像時におけるペット6の行動に関する情報をメタ情報として付与する機能を有する。メタ情報は、例えば、ペット6による食事、運動、嘔吐、排泄および睡眠に関する情報を含む。ここでいう運動とは、短時間の行動に係る動き等を意味し得る。また、メタ情報は、ペット6の固有の情報を含みうる。ペット6の固有の情報とは、例えば、ペット6の名前、動物種、特性等の情報を意味する。かかるペット6の固有の情報は、例えば、後述する動物DB27に記憶され得る。メタ情報付与部25は、例えば、ユーザのユーザ端末3に対する入力に基づくメタ情報(食事等ペット6の現在の行動)を付与してもよいし、本システムが所定の行動に関するものであれば、所定の行動に関連するメタ情報を付与してもよい。
【0042】
出力部26は、抽出された対象データと動画データとを関連付けて出力する機能を有する。出力部26は、例えば、抽出された対象データと動画データとの組を、測定DB28に記憶してもよい。また、かかる対象データと動画データとの組は、分析サーバ9等に出力されていてもよい。これにより、例えば、特定のペット6の食事を判別するためのモデルの再学習を行う際に、エンジニアはこれらの組のデータを見て、ペット6の行動における特徴に対応するデータをラベリング(例えば、摂食、咀嚼または嚥下等のラベリング)することができる。なお、かかる対象データと動画データとの組による再学習は、画像解析等の手段の組み合わせ等により、自動的に行われてもよい。また、かかる再学習においては、対象データに付与されるメタ情報が入力値として用いられていてもよい。これにより、ペット6固有の精度高い判別モデルを得ることができる。
【0043】
動物DB27は、ペットセンサ5を装着する動物(ペット)に関する情報を記憶するデータベースである。動物DB27には、各動物について、名前、動物種、年齢、性別、エリア、健康情報または飼い主情報等の情報が記憶されている。これらの情報は、メタ情報として記憶され得る。
【0044】
測定DB28は、ペットセンサ5を装着する動物(ペット)から得られた測定データおよび行動データを記憶するデータベースである。測定DB28は、各動物のペットセンサ5から得られた測定データと、該測定データを元に判別される行動データとを記憶し得る。行動データとは、例えば、食事、運動、嘔吐、排泄および睡眠等の行動を示すデータであり、その行動をしていた時間に関する情報とともに記憶され得る。また、測定DB28は、後述する測定データから抽出された所定の時間帯の対象データと、動画データとを紐付けられて記憶する。
【0045】
<処理フローと画面表示例>
図8は、本実施形態におけるサーバ1の動作フローを示すフローチャートである。ここで示す処理の流れは、あくまでも一例にすぎない。
【0046】
まず、測定データ取得部222は、ペットセンサ5から継続的に測定データを取得する(ステップS301)。かかる測定データは、時系列のデータであり、ペットセンサ5により付与されるタイムスタンプ(時刻情報)とともに取得される。サンプリング周波数は特に限定されず、判別モデルの精度と処理データ量の負荷等に応じて適宜設定され得る。
【0047】
次に、操作画面表示制御部211は、ユーザ端末3に、カメラ8による動画の撮影を行わせるための画面を表示する(ステップS302)。以下、操作画面の一例について説明する。
【0048】
図9は、本実施形態における操作画面の第1の例を示す図である。なお、
図9に示す操作画面は、ユーザのユーザ端末3に対する操作により表示される画面であってもよいし、ペット6の行動に対する測定結果(例えば食事のタイミングや、睡眠時間等)に応じて遷移される画面であってもよい。後者の場合は、例えば、他のペットの行動に対する測定結果や、以前のペット6の行動に対する測定結果と比較して、現在のペット6の行動の頻度の乖離が大きい(例えば食事の頻度が少ない等)と判断される場合に、
図9に示す画面が表示されてもよい。
図9に示す画面は、ペット6の行動に対する測定結果が通常と異なる場合に、自動的に遷移されて表示されてもよいし、
図9に遷移することを許可するボタンをタップすることにより表示されてもよい。
図9に示すように、ユーザ端末3において、操作画面1001が表示されている。操作画面1001は、動画の撮影モードに移るためのボタン1011と、既に抽出された対象データの一覧を表示させるためのボタン1012を含む。ボタン1011をタップすると、動画の撮影を開始するモードに移行する。ボタン1012をタップすると、過去に得られた対象データの一覧を表示する画面に移行する。対象データの一覧の表示画面の例については後述する。ここで、ユーザがボタン1011をタップしたとする。
【0049】
図10は、本実施形態における操作画面の第2の例を示す図である。
図9に示したボタン1011をタップすると、
図10に示す操作画面1002に遷移する。操作画面1002は、ユーザがネコ6の動画を撮るための注意事項等の情報を含む。また、操作画面1002は、撮影モードへと遷移させるボタン1013を含む。ここで、ユーザがボタン1013をタップしたとする。
【0050】
図11は、本実施形態における操作画面の第3の例を示す図である。
図10に示したボタン1013をタップすると、
図11に示す操作画面1003に遷移する。操作画面1003は、実際にカメラ8による撮像を行うための操作画面である。ユーザ端末3のディスプレイにはカメラ8により撮像される映像が映し出される。ここで、ペットセンサ5を装着しているネコ6が食事をしている際の映像をユーザが撮影する。ボタン1014は、撮像処理を開始するボタンである。ボタン1014をタップすると、撮影が開始し、動画データが生成される(ステップS303)。なお、ボタン1014をタップした際に、タイムスタンプ(時刻情報)が生成されてもよい。タイムスタンプは、例えば、動画の撮影を停止して動画データの生成が完了すると、動画データに付与され得る。なお、タイムスタンプの情報は、動画データとは別にサーバ1に送信されてもよい。この場合、抽出部23は、タイムスタンプに含まれる時刻情報を用いて、測定データの抽出処理を行う。動画の撮影の停止は、例えば、ボタン1014を再度タップすることにより実行される。このように、フィードバックのために動物の行動の動画をあえてユーザが撮影するように誘導させるようユーザ端末3の表示を制御することで、ユーザにとって負担なく、ネコ6の行動の判別のためのモデルの精度を向上させることが可能となる。
【0051】
なお、かかる操作画面1003には、ネコ6を適切な位置で撮影するためのガイド1015が表示されていてもよい。これにより、判別モデルの再学習において、ネコ6の食事等の様子を確実に撮影することができるため、より精度の高いフィードバックが可能となる。かかるガイド1015について、例えば、ネコ6が適切な位置にいる場合といない場合で、その表示態様が変わってもよい。これにより、ネコ6の撮影が適切に行われているかどうかを把握することができる。
【0052】
図12は、本実施形態における操作画面の第4の例を示す図である。
図12示すように、動画の撮影が完了すると、操作画面1004が表示される。操作画面1004は、動画データをサーバ1に送信するためのボタン1016を含む。ボタン1016をタップすることにより、動画データがサーバ1に送信される。動画データ取得部221は、動画データを取得する(ステップS304)。その際、例えば、動画データにタイムスタンプ等の時刻情報や、その他ネコ6に関する固有の情報等のメタ情報が付されてもよい。時刻情報は、抽出部23による抽出処理に用いられ得る。また、メタ情報は、ネコ6固有の判別モデルの特定等に用いられ得る。
【0053】
次に、抽出部23は、動画データに付された時刻情報に基づいて、動画の撮像時間に対応する測定データを抽出し、対象データとして取得する(ステップS305)。そして、出力部26は、対象データと動画データとを紐付けて、測定DB28に記憶する(ステップS306)。その際、例えば、メタ情報付与部25は、対象データに、動画データに付されたメタ情報や、動物DB27に記憶されているネコ6に関する情報等をさらに紐付けてもよい。かかる対象データは、判別モデルの再学習のためのフィードバック等に用いられ得るが、その際に、紐付けられた動画データに含まれるネコ6の像の特徴的な動きを見て、その動きに対応する波形等をラベルすることが可能となる。これにより、判別モデルの精度をより高く、効率的に上げることが可能となる。
【0054】
次に、
図9に示した操作画面1001のボタン1012をタップした際の挙動について説明する。
図13は、本実施形態における操作画面の第5の例を示す図である。操作画面1005は、過去に食事だと判別されたタイミングの情報の一覧が示されている。タイミングの情報を含むオブジェクト1017には、「削除」と示されたボタン1018が含まれている。ボタン1018をタップすると、オブジェクト1017に対応するタイミングの情報を削除することができる。サーバ1においては、ボタン1018がタップされると、測定DB28、食事と誤ってラベリングされた行動データが取り除かれる。これにより、誤って判別された測定データや行動データを、判別モデルの学習対象から外すことができる。よって、判別モデルの精度を向上させることができる。
【0055】
本発明によれば、測定データと動画データとを紐付ける際に、動画の撮像時間を示すタイムスタンプ等の時刻情報を用いることにより、異なるデバイス間で時系列のデータを取得した場合であっても、データの突き合わせによるズレが少なくなる。よって、判別モデルの再学習において、判別モデルの精度を向上させることができる。すなわち、ペットの活動状態の予測精度を向上させることが可能となる。また、本発明によれば、フィードバックのために動物の行動の動画をあえてユーザが撮影するように誘導させるようユーザ端末3の表示を制御することで、ユーザにとって負担なく、ペットの行動の判別のためのモデルの精度を向上させることが可能となる。
【0056】
上述した実施の形態は、本発明の理解を容易にするための例示に過ぎず、本発明を限定して解釈するためのものではない。本発明は、その趣旨を逸脱することなく、変更、改良することができると共に、本発明にはその均等物が含まれることは言うまでもない。
【符号の説明】
【0057】
1 サーバ(情報処理装置)
3 ユーザ端末
5 ペットセンサ
8 カメラ
10 制御部
12 ストレージ
21 表示制御部
22 取得部
23 抽出部
24 データ処理部
25 メタ情報付与部
26 出力部
27 動物DB
28 測定DB
211 操作画面表示制御部
212 データ一覧表示制御部
221 動画データ取得部
222 測定データ取得部