(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2023170111
(43)【公開日】2023-12-01
(54)【発明の名称】センシング装置、センシング情報処理装置
(51)【国際特許分類】
G06F 16/907 20190101AFI20231124BHJP
G08C 15/06 20060101ALI20231124BHJP
G06F 16/58 20190101ALI20231124BHJP
G06F 16/587 20190101ALI20231124BHJP
G06F 16/909 20190101ALI20231124BHJP
H04N 7/18 20060101ALI20231124BHJP
【FI】
G06F16/907
G08C15/06 H
G06F16/58
G06F16/587
G06F16/909
H04N7/18 D
【審査請求】未請求
【請求項の数】15
【出願形態】OL
(21)【出願番号】P 2022081596
(22)【出願日】2022-05-18
【公序良俗違反の表示】
(特許庁注:以下のものは登録商標)
1.BLUETOOTH
(71)【出願人】
【識別番号】000005108
【氏名又は名称】株式会社日立製作所
(74)【代理人】
【識別番号】110002572
【氏名又は名称】弁理士法人平木国際特許事務所
(72)【発明者】
【氏名】中道 拓也
【テーマコード(参考)】
2F073
5B175
5C054
【Fターム(参考)】
2F073AA01
2F073AB01
2F073BB01
2F073BB04
2F073BB07
2F073BC01
2F073BC02
2F073CC03
2F073CC09
2F073CC12
2F073CD11
2F073FF01
2F073FG01
2F073FG02
2F073FG11
2F073GG01
2F073GG08
5B175DA02
5B175DA10
5B175FB02
5B175GA04
5C054CA04
5C054CA05
5C054CC02
5C054DA07
5C054DA09
5C054EA01
5C054EA07
5C054FC12
5C054GB02
5C054GB04
5C054GB05
5C054GD03
5C054HA19
(57)【要約】 (修正有)
【課題】2つ以上のセンサそれぞれのセンサデータから同一人物に関するセンサデータを特定し、これにより、同一人物に関するさまざまな種類のセンサデータを収集するこセンシング装置及びセンシング情報処理装置を提供する。
【解決手段】センシング装置は、複数のセンサ部から得たセンサデータそれぞれに対して独立して特徴量を算出し、更に、センサ部の内部時刻とセンシング装置の内部時刻との間の時刻差異を予測し、その予測結果を用いてタイムスタンプを補正し、位置検出部が検出した移動体の特徴量を算出し、特徴量の相関が高いセンサデータを同一人物に関するセンサデータとして特定する。
【選択図】
図3
【特許請求の範囲】
【請求項1】
空間内の移動体または前記移動体の周辺の物理環境のうち少なくもいずれかについての情報を取得してその結果を記述したセンサデータを出力する2つ以上のセンサ部、
前記センサデータが記述している前記移動体の特徴量を算出する特徴量算出部、
2つの前記センサデータそれぞれの前記特徴量を比較する特徴量比較部、
前記2つのセンサデータの前記特徴量間の相関度の絶対値が閾値以上である場合は前記2つのセンサデータが記述している前記移動体が同一の移動体であることを示すグローバルID情報を前記2つのセンサデータに対して付与するグローバルID付与部、
を備えることを特徴とするセンシング装置。
【請求項2】
前記センシング装置はさらに、前記センサデータのタイムスタンプを補正する時刻補正部を備え、
前記時刻補正部は、前記センサ部の内部時刻と前記センシング装置の内部時刻との間の時刻差異を予測し、その予測結果を用いて前記タイムスタンプを補正し、
前記時刻補正部は、前記センサ部と前記時刻補正部との間の通信時間を予測し、その予測結果を用いて前記タイムスタンプを補正し、
前記時刻補正部は、前記センサ部が前記センサデータを処理するために要する処理時間を用いて前記タイムスタンプを補正する
ことを特徴とする請求項1記載のセンシング装置。
【請求項3】
前記センシング装置はさらに、前記センサデータ内における前記移動体の位置を検出する位置検出部を備え、
前記特徴量比較部は、前記位置検出部が検出した前記移動体の前記特徴量を算出する
ことを特徴とする請求項1記載のセンシング装置。
【請求項4】
前記センシング装置はさらに、2つ以上の前記センサデータが同一の前記移動体についての情報を記述しているか否かを推定するローカルID付与部を備え、
前記ローカルID付与部は、前記2つ以上のセンサデータが空間型センサによって取得されたものであり、かつ、同一の前記センサ部によって取得された前記2つ以上の前記センサデータが同一の前記移動体についての情報を記述していると推定する場合は、前記2つ以上のセンサデータに対して、前記移動体が同一の移動体であることを示すローカルID情報を付与し、
前記ローカルID付与部は、前記2つ以上のセンサデータが携帯型センサによって取得されたものであり、かつ、前記2つ以上の前記センサデータが同一の前記移動体についての情報を記述していると推定する場合は、前記2つ以上のセンサデータに対して、前記移動体が同一の移動体であることを示すローカルID情報を付与する
ことを特徴とする請求項1記載のセンシング装置。
【請求項5】
前記センシング装置はさらに、前記センサデータを蓄積する記憶部を備え、
前記ローカルID付与部は、前記記憶部が格納しているセンサデータのうち、第1センサデータが記述している前記移動体の第1位置と、前記第1センサデータとは異なる時点において取得された第2センサデータが記述している前記移動体の第2位置とを比較し、
前記ローカルID付与部は、前記第1位置と前記第2位置との間の距離が閾値以下である場合は、前記第1センサデータと前記第2センサデータが同一の前記移動体についての情報を記述していると推定する
ことを特徴とする請求項4記載のセンシング装置。
【請求項6】
前記センシング装置はさらに、前記センサデータ内における前記移動体の位置を検出する位置検出部を備え、
前記ローカルID付与部は、前記2つ以上のセンサデータが空間型センサによって取得されたものである場合は、前記位置検出部が検出した前記移動体について前記推定を実施し、
前記ローカルID付与部は、前記2つ以上のセンサデータが携帯型センサによって取得されたものである場合は、前記センサデータが記述している前記移動体の情報そのものに対して前記推定を実施する
ことを特徴とする請求項4記載のセンシング装置。
【請求項7】
前記特徴量算出部は、前記移動体の動きの激しさを表す行動強度を前記センサデータから算出し、
前記特徴量算出部は、前記行動強度を前記特徴量として用いる
ことを特徴とする請求項1記載のセンシング装置。
【請求項8】
前記移動体は人間であり、
前記特徴量算出部は、前記移動体の心理状態を表す心理状態値を前記センサデータから算出し、
前記特徴量算出部は、前記心理状態値を前記特徴量として用いる
ことを特徴とする請求項1記載のセンシング装置。
【請求項9】
前記特徴量算出部は、前記空間の環境条件に応じて、前記特徴量を算出する方法を変更し、
前記特徴量算出部は、前記移動体が有する部位ごとに前記特徴量を算出する
ことを特徴とする請求項1記載のセンシング装置。
【請求項10】
前記特徴量算出部は、前記センサ部の種類によって検出時刻が異なる事象について、前記特徴量を算出し、
前記特徴量比較部は、前記センサ部のうち第1センサが第1時刻において検出した第1事象と、前記センサ部のうち第2センサが第2時刻において検出した第2事象とが同一の事象である場合、前記第1事象の前記特徴量と前記第2事象の前記特徴量を比較することにより、前記移動体が同一の移動体であるか否かを判定する
ことを特徴とする請求項1記載のセンシング装置。
【請求項11】
前記特徴量比較部は、異なる前記ローカルID情報が付与されている2つの前記センサデータについて、前記特徴量を比較し、
前記グローバルID付与部は、前記異なるローカルID情報が付与されている前記2つのセンサデータについて、前記相関度の絶対値が閾値以上である場合は、前記ローカルID情報が異なる場合であっても、前記移動体が同一の移動体であることを示す前記グローバルID情報を付与する
ことを特徴とする請求項4記載のセンシング装置。
【請求項12】
前記特徴量比較部は、前記センサ部のうち第1種類の第1センサが検出した情報の第1特徴量を算出し、
前記特徴量比較部は、前記センサ部のうち前記第1種類とは異なる第2種類の第2センサが検出した情報の第2特徴量を算出し、
前記特徴量は、前記第1センサと前記第2センサが同一の前記移動体についての情報を検出した場合は、前記第1特徴量と前記第2特徴量との間の差分が閾値未満となる方法を用いて、前記第1特徴量と前記第2特徴量をそれぞれ算出する
ことを特徴とする請求項1記載のセンシング装置。
【請求項13】
前記移動体は人間であり、
前記センシング装置はさらに、前記移動体が特定の行動を起こすことを促す行動変容コンテンツを生成する行動変容コンテンツ生成部を備え、
前記センシング装置はさらに、前記行動変容コンテンツを前記移動体に対して提示する提示部を備え、
前記特徴量算出部は、前記行動変容コンテンツを提示された前記移動体の前記特徴量を算出する
ことを特徴とする請求項1記載のセンシング装置。
【請求項14】
前記特徴量算出部は、前記移動体の心理状態を表す心理状態値を前記センサデータから算出し、
前記特徴量算出部は、前記心理状態値を前記特徴量として用い、
前記行動変容コンテンツ生成部は、前記行動変容コンテンツを提示される前における前記心理状態値が行動変容閾値未満である場合は、前記行動変容閾値以上となることを促す前記行動変容コンテンツを生成し、
前記行動変容コンテンツ生成部は、前記行動変容コンテンツを提示される前における前記心理状態値が前記行動変容閾値以上である場合は、前記行動変容閾値未満となることを促す前記行動変容コンテンツを生成する
ことを特徴とする請求項13記載のセンシング装置。
【請求項15】
空間内の移動体または前記移動体の周辺の物理環境のうち少なくもいずれかについての情報を取得してその結果を記述したセンサデータを出力する2つ以上のセンサ部から前記センサデータを取得するセンサ入力部、
前記センサデータが記述している前記移動体の特徴量を算出する特徴量算出部、
2つの前記センサデータそれぞれの前記特徴量を比較する特徴量比較部、
前記2つのセンサデータの前記特徴量間の相関度の絶対値が閾値以上である場合は前記2つのセンサデータが記述している前記移動体が同一の移動体であることを示すグローバルID情報を前記2つのセンサデータに対して付与するグローバルID付与部、
を備えることを特徴とするセンシング情報処理装置。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、移動体を検出するセンシング装置に関する。
【背景技術】
【0002】
近年、空間の快適性や利便性を向上する試みが多くなされている。空間の快適性や利便性を向上するためには、人に関する様々なセンサデータが必要となる。様々なセンサを配置し、各センサから同一人物に関するセンサデータを抽出することにより、センサデータを有効に活用することができる。このとき使用されるセンサとしては、検知した人の絶対位置を取得可能なセンサと、検知した人の絶対位置を取得不可能なセンサがある。
【0003】
同一人物に関するセンサデータを抽出するためには、どのデータが同一人物のセンサデータなのか識別する必要がある。例えば、特許文献1に記載の情報処理装置は、複数の絶対位置を取得可能なセンサを備え、各センサが検知した人の絶対位置が近い人同士のセンサデータを同一人物に関するのセンサデータだと特定する。特許文献2に記載の情報処理装置は、人が使用している物体のセンサの周波数スペクトルと人に装着したセンサの周波数スペクトルの類似度から、物体を使用している人を特定する。
【先行技術文献】
【特許文献】
【0004】
【特許文献1】WO2020/179730
【特許文献2】特開2019-061395号公報
【発明の概要】
【発明が解決しようとする課題】
【0005】
特許文献1に記載の技術は、絶対位置を取得可能なセンサのセンサデータから同一人物に関するセンサデータを特定することはできるが、絶対位置を取得不可能なセンサのセンサデータから同一人物に関するセンサデータを特定することはできない。特許文献2に記載の技術は、絶対位置を取得可能なセンサと絶対位置を取得不可能なセンサの両方のセンサデータから同一人物に関するセンサデータを特定することはできるが、すべてのセンサが同一種類のセンサデータを出力する必要がある。例えば、全てのセンサが3軸加速度センサであれば技術を適用できるが、3軸加速度センサと3軸角速度センサとの間では同技術を適用できない。
【0006】
本発明は上記課題に鑑みなされたものであり、2つ以上のセンサそれぞれのセンサデータから同一人物に関するセンサデータを特定することを目的とする。
【課題を解決するための手段】
【0007】
本発明に係るセンシング装置は、各センサから得たセンサデータそれぞれに対して独立して特徴量を算出し、特徴量の相関が高いセンサデータを同一人物に関するセンサデータとして特定する。
【発明の効果】
【0008】
本発明に係るセンシング装置によれば、2つ以上のセンサそれぞれのセンサデータから同一人物に関するセンサデータを特定することができる。これにより、同一人物に関するさまざまな種類のセンサデータを収集することができる。
【図面の簡単な説明】
【0009】
【
図1】実施形態1に係るセンシング装置1のハードウェア構成図である。
【
図2】センサ部12および測定対象となる人の位置関係例を示す。
【
図3】センシング装置1とその周辺の機能構成を示すブロック図である。
【
図4】ローカルID付与部103がセンサデータ内の同じ人物を識別する手順を説明するフローチャートである。
【
図5】実施形態2に係るセンシング装置1とその周辺の機能構成を示すブロック図である。
【発明を実施するための形態】
【0010】
<実施の形態1>
図1は、本発明の実施形態1に係るセンシング装置1のハードウェア構成図である。センシング装置1は、コントローラ11およびセンサ部12を備える。コントローラ11は、CPU(Central Processing Unit)111H、ROM(Read Only Memory)112H、RAM(Random Access Memory)113H、センサ入力部114H、出力部115H、などを備える。
【0011】
センサ部12は、現実空間の物理情報をセンシングし、その結果を記述したセンシングデータをセンサ入力部114Hに出力する。センサ部12は、複数備えることができる。センサ部12を複数備える場合は、それぞれのセンサで独立してセンシングを実施してもよいし、複数のセンサを組み合わせてセンシングを実施してもよい。センサ部12は、複数の測定対象のデータを同時に取得可能な空間型センサと、ある特定の測定対象のデータのみを取得可能な携帯型センサに大別される。
【0012】
センサ部12は、センシングした情報から、測定対象に関する情報を抜き出して出力する。例えば、センサ部12は、天井や壁等に設置され、測定範囲内の人間の情報を出力する。別の例では、センサ部12は、道路上の電柱等に設置され、測定範囲内の車両の情報を出力する。設置場所や測定対象はこれらに限られず、さまざま考えられる。本実施形態では、測定範囲内の人間の情報を出力する例を用いて説明する。
【0013】
センサ部12として、空間型センサの場合、カメラ、ステレオカメラ、TOF(Time of Flight)カメラ、LiDER(Light Detection and Ranging)、レーザパターン深度センサ、マイクアレイなどを用いることができる。携帯型センサの場合、加速度センサ、角速度センサ、心拍計、アイトラッキングセンサなどが使用可能である。センサ部12はセンシングしたアナログデータをデジタルデータ化する。例えば、TOFカメラの場合は、赤外光の発光と赤外線カメラの露光タイミングを変更した複数フレームの画像から、赤外光の到達時間を計算することによって、3次元情報を撮像することができる。
【0014】
CPU111Hは、ROM112HまたはRAM113Hに格納されているプログラムを実行する。具体的には、CPU111Hがプログラムを実行することにより、センシング装置1の各部の機能が実現される。ROM112Hは、CPU111Hが実行するプログラムおよび実行に必要な各種パラメータを格納するための記憶媒体である。RAM113Hは、一時的に使用する各種情報を格納するための記憶媒体である。また、RAM113Hは、CPU111Hが使用するデータの一時保管領域としても機能する。センシング装置1は、CPU111HとROM112HとRAM113Hをそれぞれ複数有する構成でもよい。
【0015】
センサ入力部114Hは、センサ部12からセンシングデータを受け取る。センサ入力部114Hとセンサ部12との間は、有線もしくは無線の少なくともいずれか一方でデータ送受信することができる。通信手段は限定されるものではなく、さまざまな形態が考えられ、複数の手段を組み合わせたものも考えられる。例えば、無線LAN(Local Area Network)、有線LAN、USB(Universal Serial Bus)、I2S(Inter-IC Sound)、I2C(Inter-Integrated Circuit)、SPI(Serial Peripheral Interface)、UART(Universal Asynchronous Receiver Transmitter)などの通信手段や、各種の公衆回線を介した通信手段などでデータを送受信することができる。
【0016】
出力部115Hは、CPU111Hによって処理された結果を外部装置等に出力する。出力部115Hは、例えばディスプレイやスピーカなどである。CPU111Hによって処理された結果はROM112HまたはRAM113Hに保存されている。
【0017】
センシング装置1のハードウェア構成は、
図1に示す構成に限定されない。例えばCPU111H、ROM112H、RAM113Hをセンシング装置1とは別体として設けるようにしてもよい。その場合、センシング装置1は汎用のコンピュータ(例えばサーバコンピュータやパーソナルコンピュータ、スマートフォン等)を用いて実現するようにしてもよい。また、複数のコンピュータをネットワークで接続して、センシング装置1の各部の機能を各コンピュータが分担することもできる。一方で、センシング装置1の機能の1つ以上を、専用のハードウェアを用いて実現することもできる。
【0018】
図2は、センサ部12および測定対象となる人の位置関係例を示す。以下ではセンサ部12として、センサA、センサB、センサCの3つを有する例を説明する。センサAは空間型センサであり、センサBとCは人が装着するセンサ(携帯型センサ)である。測定対象の人は人Aと人Bとする。人AはセンサAを左腕に装着しており、人BはセンサBを左腕に装着している。センサAは天井に取り付けられており、測定範囲A内の人をセンシングする。
【0019】
図3は、センシング装置1とその周辺の機能構成を示すブロック図である。センシング装置1は、通信部107と外部通信部21を介して、外部機器2に対して接続することができる。
【0020】
センシング装置1は、センサ部12、時刻補正部101、人位置検出部102、ローカルID付与部103、特徴量算出部104、特徴量比較部105、グローバルID付与部106、通信部107、データ格納部108を備える。
【0021】
センシング装置1が外部機器2と通信する場合、外部通信部21を設けてもよい。センシング装置1によって取得したセンサデータを使用する場合、外部機器2を使用することができる。通信部107は外部通信部21と無線もしくは有線で通信する。通信手段は例えばWiFiやBluetoothを用いる。外部通信部21は通信部107から受信したデータを外部機器2に対して送信する。
【0022】
センサ部12は、センサデータに対してセンサデータの取得時刻を付加して時刻補正部101へ出力する。センサデータの取得時刻は、物理量を取得した時刻とし、センサ部12の内部時刻とする。センサ部12と時刻補正部101それぞれの内部時刻間において許容できない差異がある場合、センサ部12は、センサ部12と時刻補正部101との間の内部時刻の差異を予測し、予測した時刻差異(予測時刻差異)をセンサデータに対して付加することもできる。センサ部12は、時刻補正部101の内部時刻を通信などを介して取得し、時刻補正部101の内部時刻からセンサ部12の内部時刻を減算することにより時刻差異を予測することができる。また、センサ部12と時刻補正部101がネットワークで接続されている場合などにおいて、センサ部12と時刻補正部101間の通信のために許容できない時間がかかる場合、センサ部12はセンサ部12と時刻補正部101との間の通信にかかる時間を予測し、予測時刻差異から予測通信時間を減算して予測時刻差異とし、センサデータに対して予測通信時間を付加してもよい。例えば、センサ部12から時刻補正部101宛にPingを送信してラウンドトリップタイムを測定することにより、送信にかかる時間を予測することができる。センサ部12から時刻補正部101へのセンサデータの通信がUDP(User Datagram Protocol)通信など双方向通信ではない場合、センサ部12は予測通信時間をラウンドトリップタイムの半分としてもよい。センサ部12は、上記予測を複数回実施して平均値を予測通信時間としてもよい。また、センサ部12は、センサデータの取得時刻後に処理を実施する場合などにおいて、センサデータの取得時刻とセンサデータの送信開始時刻との間に差がある場合、前処理時間をセンサデータに対して付加して送信することができる。
【0023】
センサ部12は、予測時刻差異、予測通信時間、および前処理時間を、センサデータのすべてに付加してもよいし、最初のセンサデータだけや複数データ毎など特定のセンサデータのみに付加してもよい。
【0024】
時刻補正部101は、センサ部12から出力されたセンサデータに補正後取得時刻を付加して人位置検出部102またはローカルID付与部103へ出力する。補正後取得時刻は、時刻補正部101の内部時刻基準のセンサデータ取得時刻である。時刻補正部101は、入力したセンサデータが空間型センサのセンサデータである場合には補正後取得時刻を付加したセンサデータを人位置検出部102に出力し、携帯型センサのセンサデータの場合には補正後取得時刻を付加したセンサデータをローカルID付与部103に出力する。本実施形態においては、前述したとおりセンサ部12としてセンサA、センサB、センサCを有する。時刻補正部101は、空間型センサであるセンサAの場合には補正後取得時刻を付加したセンサデータを人位置検出部102に出力し、携帯型センサであるセンサBおよびセンサCのセンサデータの場合には補正後取得時刻を付加したセンサデータをローカルID付与部103に出力する。
【0025】
センサ部12と時刻補正部101との間の内部時刻の差異を許容できる場合、時刻補正部101は、センサ部12から入力したセンサデータに付加されたセンサデータの取得時刻を、補正後取得時刻として用いる。センサ部12と時刻補正部101との間の内部時刻の差異を許容できない場合、時刻補正部101は、センサデータに付加されたセンサデータの取得時刻に対して予測時刻差異を加算した時刻を補正後取得時刻として用いることができる。センサデータに前処理時間が付加されている場合は、前処理時間をさらに加算した時刻を補正後取得時刻とすることができる。
【0026】
人位置検出部102は、時刻補正部101から入力したセンサデータから人に関する情報を抜き出して人単位に分割し、ローカルID付与部103へ出力する。例えば、カメラの場合には、センサデータであるカメラ画像から人の位置を検出し、検出された人の部分画像をローカルID付与部103に出力する。検出された人の部分とは、例えば検出した人の身体を含むピクセルの集合、検出した人を含む矩形を切り出した画像、などである。
図2の例の場合、センサAは人Aおよび人Bの情報を含んだセンサデータを出力し、人位置検出部102はセンサAのセンサデータから人を2人検出し、ローカルID付与部103に出力する。人の位置検出手法としては、パターンマッチングやニューラルネットワークなどを用いることができる。
【0027】
ローカルID付与部103は、時刻補正部101もしくは人位置検出部102から入力したセンサデータにローカルIDを付与してデータ格納部108に出力する。空間型センサのセンサデータの場合には、ローカルID付与部103は、同一センサで取得されたセンサデータの同じ人に関する情報だと推定されるセンサデータに一意のローカルIDを付与するようにする。携帯型センサのセンサデータの場合には、ローカルID付与部103は、同一センサのセンサデータに一意のローカルIDを付与する。ローカルIDは、同じセンサから取得したセンサデータが同じ人物を含んでいることを示すために付与するものである。これに対して後述するグローバルIDは、異なるセンサから取得したセンサデータが同じ人物を含んでいることを示すために付与するものである。
【0028】
携帯型センサの場合は、後述するようにユーザがセンサを携帯する時点においてそのユーザとセンサが関連付けられているので、同じセンサから取得したセンサデータは必ず同じ人物を表しているとみなすことができる。空間型センサはそのような前提条件がないので、同じ空間型センサが同じ人物を検出したか否かを、何らかの手段によって推定する必要がある。以下ではその手順を説明する。
【0029】
図4は、ローカルID付与部103がセンサデータ内の同じ人物を識別する手順を説明するフローチャートである。空間型センサのセンサデータの場合、ローカルID付与部103は、以前のセンサデータをデータ格納部108から受け取り、以前のセンサデータと最も距離的に近い人を同じ人に関する情報だと推定することができる。ローカルID付与部103は、人位置検出部102が検出したセンサデータ内の人位置を用いて、以下のステップを実施する。
【0030】
ステップS301:ローカルID付与部103は、同じセンサから取得した以前のセンサデータがデータ格納部108に存在するか確認する。存在する場合はステップS302に遷移し、存在しない場合はステップS307に遷移する。
【0031】
ステップS302:ローカルID付与部103は、同じセンサから取得した以前のセンサデータをデータ格納部108から取得する。このとき取得する以前のセンサデータは、現在より前のすべてのセンサデータでもよいし、ある一定期間のセンサデータでもよい。同じセンサで複数人分のセンサデータを取得している場合には、複数人分のセンサデータをデータ格納部108から取得する。
【0032】
ステップS303:ローカルID付与部103は、現在のセンサデータの人位置と以前のセンサデータの人位置を比較する。比較結果は、例えばセンサがカメラの場合には、人位置検出部102によって検出された人の部分画像の重心位置の距離とすることができる。以前のセンサデータが複数人分ある場合には、現在のセンサデータと以前のセンサデータの比較を複数人分実施する。
【0033】
ステップS304:ローカルID付与部103は、S302で取得した以前のセンサデータのうち、比較結果が最も近いセンサデータを取得する。例えば、比較結果が部分画像の重心位置の距離の場合は、距離が最も近いセンサデータを取得する。
【0034】
ステップS305:ローカルID付与部103は、比較結果が最も近いセンサデータの比較結果が閾値D以下であるか否かを確認する。閾値D以下である場合にはステップS306に遷移し、そうでない場合はステップS307に遷移する。
【0035】
ステップS306:ローカルID付与部103は、比較結果が最も近いセンサデータと同じローカルIDを現在のセンサデータに付与して、データ格納部108に格納する。
【0036】
ステップS307:これまでに使用されていないローカルIDを現在のセンサデータに付与して、データ格納部108に格納する。
【0037】
本フローチャートにおいて、ローカルID付与部103は、2つのセンサデータが記述している人位置が互いに近い場合は、その2つのセンサデータが同じ人物を表しているものと判断する。これに代えてまたはこれと併用して、その他の人認識技術を用いることもできる。例えば顔認識技術を用いて、カメラデータ内の人物を個別に識別すれば、同じ人物を表しているセンサデータを特定できる。
【0038】
特徴量算出部104は、データ格納部108に格納されているセンサデータのうち、まだ特徴量を算出していないセンサデータの特徴量を算出し、算出した特徴量をデータ格納部108に格納する。特徴量とは、センサデータの人に関する情報から算出される個人を特定するためのデータである。特徴量は個人を特定するためのデータであるが、この特徴量は別のセンサデータの特徴量と比較しグローバルIDを付与するためのものであるので、短期的に個人を特定できればよく、必ずしも永続的に個人を特定できる必要はない。また、この特徴量は特徴量比較部105が特徴量を比較したときに、同じ人物に関する同一時刻の特徴量が少なくとも2つのセンサ間において近しい値になるような特徴量にする必要がある。
【0039】
例えば、特徴量として行動強度を用いる例を説明する。行動強度は、ある単位時間における動きの強さを示す値である。例えば、センサが加速度や角速度を取得可能なセンサの場合、時刻tにおけるローカルIDがDの行動強度St,Dは式1により求められる。
【0040】
【0041】
式1において、nは行動強度の算出に使用するサンプリング数、xt,D、yt,D、zt,DはそれぞれローカルIDがDである時刻tにおけるX軸、Y軸、Z軸の加速度もしくは角速度の大きさを表す。式1により、時刻t以前のnサンプル分のセンサデータの大きさの平均値を求めることができる。センサのサンプリング間隔が一定ではない場合にはnは可変として、一定時間分のデータとなるようにしてもよい。また、行動強度はすべてのセンサデータから算出してもよいし、複数データ毎など特定のセンサデータのみで算出してもよい。
【0042】
特徴量として行動強度を用いることによって、加速度センサ、角速度センサ、カメラなどの測定対象の運動量の強弱を測ることができる複数種類のセンサ間において、同一人物の同一時間の特徴量の相関が強くなる。
【0043】
別の例として、特徴量として心理状態を用いることもできる。心理状態とは、怒り、悲しみ、焦り、戸惑いなどを含むことができる。また、複数の心理状態を用いて心理状態ベクトルを特徴量とすることもできる。例えば、焦りの場合には、平常状態よりも行動強度が強くなることが予想される。例えば、センサが加速度や角速度を取得可能なセンサの場合、時刻tにおけるローカルIDがDの焦り度It,Dは式2により求められる。
【0044】
【0045】
式2は、時刻tより前の行動強度の平均値を平常状態の行動強度として、平常状態の行動強度から時刻tの行動強度を引いたものである。別の方法として、時刻tより前だけでなく時刻tより後の行動強度の平均値を平常状態の行動強度として焦り度を算出することもできる。また、時刻tより前の行動強度および時刻tより後の行動強度の平均値を平常状態の行動強度とすることもできる。
【0046】
焦り度は、生体センサからも取得することができる。例えば、平常状態の生体信号と時刻tの生体信号との間の差を焦り度とすることができる。
【0047】
特徴量算出部104は、複数の特徴量を特徴量ベクトルとしてデータ格納部108に格納することもできる。例えば、行動強度と焦り度の両方を1つのベクトルにしてデータ格納部108に格納する。
【0048】
特徴量算出部104は、環境条件に応じて特徴量の算出方法を変更してもよい。例えば、歩行者が多い空間においては行動強度に個人間で差が出にくい。この場合は、行動強度に代えて例えば歩様を特徴量とすることにより、個人間で差を出すことができる。
【0049】
特徴量算出部104は、可能である場合は、複数のパーツの特徴量をそれぞれ算出してもよい。例えば、センサがカメラの場合、左腕の特徴量、右腕の特徴量、頭部の特徴などを算出してもよい。
【0050】
特徴量比較部105は、データ格納部108に格納されたセンサデータの特徴量を比較し、比較結果をグローバルID付与部106に出力する。本実施形態では、時系列特徴量の相関係数を比較結果とする例を説明する。特徴量比較部105は、データ格納部108に格納されたセンサデータのうち、グローバルIDが付与されていないセンサデータを取得する。さらに、取得したセンサデータと異なるローカルIDをもつセンサデータを取得する。このとき、同一時刻のセンサデータを取得するようにし、各センサデータは連続した時系列となるように取得する。特徴量比較部105は、取得した2つの時系列センサデータの特徴量の相関係数を算出する。相関係数として、例えば、ピアソンの積率相関係数や、スピアマンの順位相関係数、ケンドールの順位相関係数などを使用することができる。
【0051】
特徴量比較部105は、時刻をずらして特徴量を比較することもできる。例えば、特徴量として焦り度を用いる場合、加速度センサや角速度センサなどの運動量を測ることができるセンサで算出した焦り度に対して、生体センサのセンサデータから算出した焦り度は遅れて反応することが予想される。この場合は、生体センサのセンサデータ全体を時間軸上でシフトさせ、同じ焦り反応が同じ時刻において現れるようにした上で、特徴量を互いに比較する。時刻をずらして比較することによって、遅れて反応する特徴量でも正しく比較することができる。
【0052】
特徴量比較部105は、特徴量算出部104が複数のパーツの特徴量を算出した場合、部位ごとに特徴量を比較してもよい。例えば、センサがカメラとスマートウォッチの場合、カメラのセンサデータから算出した左腕の特徴量とスマートウォッチのセンサデータから算出した特徴量を比較する。
【0053】
グローバルID付与部106は、特徴量比較部105から入力した2つのセンサデータ間の相関度が閾値t+以上もしくは閾値t-以下ならば同一のグローバルIDを付与してデータ格納部108に格納する。すなわち、相関度の絶対値が閾値以上であれば、その2つのセンサデータは、ローカルIDが異なっているとしても、同じ人物を表しているものとみなして、同じグローバルIDを付与する。2つのセンサデータのうち、片方に既にグローバルIDが付与されている場合は、他方に同一のグローバルIDを付与する。両方のセンサデータにグローバルIDが付与されていない場合は、まだ使用されていないグローバルIDを両方に付与する。例えば、最初は2つの携帯型センサからのセンサデータ間において同じグローバルIDを付与し、後の時刻においてその携帯型センサを装着した人物が空間型センサの検出範囲内に入った場合、改めて同じグローバルIDをその空間型センサのセンサデータに対して付与する。
【0054】
グローバルID付与部106は、相関度を比較した結果の有意水準が一定以上である場合には、グローバルIDを付与しなくてもよい。
【0055】
<実施の形態1:まとめ>
本実施形態1に係るセンシング装置1によれば、同一人物に関するデータに対して同一のグローバルIDを付与することができる。同一のグローバルIDを付与する条件として、同じ人ならば多種のセンサであっても同様の値となる(すなわち、同じ人物についての特徴量間の差分が閾値未満となるような算出方法によって算出した)特徴量を用いることによって、多種のセンサから取得したセンサデータであっても同一のグローバルIDを付与することができる。
【0056】
<実施の形態2>
本発明の実施形態2では、実施形態1のセンシング装置1に加えて、センシング対象者へ行動変容を促す機能を付加した例を説明する。実施形態1と同一の構成、機能を有するものには同一の符号を付して、その詳細な説明を省略する。
【0057】
図5は、実施形態2に係るセンシング装置1とその周辺の機能構成を示すブロック図である。実施形態1で説明したセンシング装置1の構成に加えて、新たに行動変容コンテンツ生成部109と表示部110を備る。その他の構成は実施形態1と同様である。
【0058】
グローバルID付与部106は、特徴量比較部105から入力した2つのセンサデータ間の相関度の絶対値が閾値以上である場合には、2つのセンサデータのうちグローバルIDが付与されていないセンサデータのローカルIDを行動変容コンテンツ生成部109に対して出力する。あるいはこれに代えて、2つのセンサデータのうちグローバルIDが付与されていないセンサデータのローカルIDをグローバルID付与部106内で記憶しておくこともできる。一定時間以上、グローバルIDが付与されない場合にのみ、その付与されないセンサデータのローカルIDを行動変容コンテンツ生成部109に対して出力することもできる。
【0059】
行動変容コンテンツ生成部109は、入力されたローカルIDを持つセンサ用の行動変容コンテンツを生成する。行動変容コンテンツ生成部109は、生成した行動変容コンテンツを表示部110に出力する。行動変容コンテンツとは、測定対象に特殊な行動を起こさせるためのコンテンツである。例えば、測定対象が人である場合には、人を焦らせるようなコンテンツや驚かせるコンテンツなどである。
【0060】
行動変容コンテンツ生成部109は、条件によって別の行動変容コンテンツを生成してもよい。例えば、センシング装置1がセンシング中の複数の測定対象の焦り度の平均を算出し、焦り度の平均が閾値未満なら焦らせる行動変容コンテンツを生成し、焦り度の平均が閾値以上なら落ち着かせる行動変容コンテンツを生成することができる。
【0061】
表示部110は、行動変容コンテンツ生成部109から入力した行動変容コンテンツを表示する。表示部110は、具体的には例えば携帯型センサが備えるディスプレイやスピーカなどである。例えば、センサ部12はスマートフォンであり、表示部110はスマートフォンの画面である。
【0062】
<実施の形態2:まとめ>
本実施形態2に係るセンシング装置1によれば、ある特定の測定対象に特殊な行動を起こさせることによって、特殊な特徴量を算出することができる。特殊な特徴量を算出することによって、間違ったグローバルIDを付与する可能性を低減することができる。
【0063】
<本発明の変形例について>
本発明は、前述した実施形態に限定されるものではなく、様々な変形例が含まれる。例えば、前述した実施形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施形態の構成の一部を他の実施形態の構成に置き換えることが可能であり、また、ある実施形態の構成に他の実施形態の構成を加えることも可能である。また、各実施形態の構成の一部について、他の構成の追加・削除・置換をすることが可能である。
【0064】
以上の実施形態において、ローカルIDまたはグローバルIDをセンサデータに対して付与する例を説明したが、少なくともセンサデータとこれらのIDが関連付けられていれば、以上の実施形態と同様の効果を発揮できる。したがってこれらのIDは、センサデータそのものに対して必ずしもデータ上で追加する必要はなく、これらの関連を記述したデータをデータ格納部108へ格納するような態様も可能である。このような態様も含めて『IDを付与する』ことを意味する。
【0065】
以上の実施形態において、携帯型センサの例としては、スマートグラス、スマートウォッチ、スマートフォン、などが人の特徴量を検出可能なセンサを備えたデバイスが考えられる。これらの携帯型デバイスは、あらかじめそのデバイスのユーザと関連付けておくことができる。例えば携帯型デバイスが出力するセンサデータ内にデバイス固有のIDを含めておき、そのIDとユーザIDをあらかじめ関連付けてデータ格納部108内にその関連づけを記憶しておけばよい。
【0066】
以上の実施形態において、特徴量間の相関度は、絶対値が大きいほど相関が高いことを想定したが、相関度の定義によっては必ずしもこれに限るものではない。その場合は以上の説明において、相関度の定義にしたがって、グローバルIDを付与する条件を適宜読み替えればよい。
【0067】
以上の実施形態において、心理状態を特徴量として用いる例として、焦り度を計算することを説明した。センサの種類によっては、その他の心理状態または心理状態を導出することができるパラメータを取得できる場合もあるので、その場合は焦り度以外の心理状態を特徴量として用いてもよい。
【0068】
以上の実施形態において、複数種類のセンサが人を検出する例を説明したが、人以外の移動体についても本発明を適用可能である。すなわち、移動体の特徴量がセンサの種類によらず相関関係を有する場合において、その移動体について本発明を適用することができる。この場合は、人位置検出部102に代えて、その移動体を検出する位置検出部を設ければよい。検出手法は、例えば形態認識技術などのような任意の公知技術を用いることができる。
【符号の説明】
【0069】
1:センシング装置
2:外部機器
11:コントローラ
111H:CPU
112H:ROM
113H:RAM
114H:センサ入力部
115H:出力部
12:センサ部
101:時刻補正部
102:人位置検出部
103:ローカルID付与部
104:特徴量算出部
105:特徴量比較部
106:グローバルID付与部
107:通信部
109:行動変容コンテンツ生成部
110:表示部