IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ フィリップス ライティング ホールディング ビー ヴィの特許一覧

特許7373692感染症状を示す個人を検出及び追跡するためのシステム及び方法
<>
  • 特許-感染症状を示す個人を検出及び追跡するためのシステム及び方法 図1
  • 特許-感染症状を示す個人を検出及び追跡するためのシステム及び方法 図1A
  • 特許-感染症状を示す個人を検出及び追跡するためのシステム及び方法 図2
  • 特許-感染症状を示す個人を検出及び追跡するためのシステム及び方法 図3
  • 特許-感染症状を示す個人を検出及び追跡するためのシステム及び方法 図4
  • 特許-感染症状を示す個人を検出及び追跡するためのシステム及び方法 図4A
  • 特許-感染症状を示す個人を検出及び追跡するためのシステム及び方法 図5
  • 特許-感染症状を示す個人を検出及び追跡するためのシステム及び方法 図6
  • 特許-感染症状を示す個人を検出及び追跡するためのシステム及び方法 図7
  • 特許-感染症状を示す個人を検出及び追跡するためのシステム及び方法 図8
  • 特許-感染症状を示す個人を検出及び追跡するためのシステム及び方法 図9
  • 特許-感染症状を示す個人を検出及び追跡するためのシステム及び方法 図10
  • 特許-感染症状を示す個人を検出及び追跡するためのシステム及び方法 図11
  • 特許-感染症状を示す個人を検出及び追跡するためのシステム及び方法 図12
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2023-10-25
(45)【発行日】2023-11-02
(54)【発明の名称】感染症状を示す個人を検出及び追跡するためのシステム及び方法
(51)【国際特許分類】
   G08B 25/04 20060101AFI20231026BHJP
【FI】
G08B25/04 K
【請求項の数】 15
(21)【出願番号】P 2023513150
(86)(22)【出願日】2021-08-09
(65)【公表番号】
(43)【公表日】2023-10-11
(86)【国際出願番号】 EP2021072158
(87)【国際公開番号】W WO2022043040
(87)【国際公開日】2022-03-03
【審査請求日】2023-04-18
(31)【優先権主張番号】63/070,518
(32)【優先日】2020-08-26
(33)【優先権主張国・地域又は機関】US
(31)【優先権主張番号】20197477.1
(32)【優先日】2020-09-22
(33)【優先権主張国・地域又は機関】EP
【早期審査対象出願】
(73)【特許権者】
【識別番号】516043960
【氏名又は名称】シグニファイ ホールディング ビー ヴィ
【氏名又は名称原語表記】SIGNIFY HOLDING B.V.
【住所又は居所原語表記】High Tech Campus 48,5656 AE Eindhoven,The Netherlands
(74)【代理人】
【識別番号】100163821
【弁理士】
【氏名又は名称】柴田 沙希子
(72)【発明者】
【氏名】ヤダブ ダクシャ
(72)【発明者】
【氏名】カウル ヤスリーン
(72)【発明者】
【氏名】マーディザデハグダム シャヒーン
【審査官】山岸 登
(56)【参考文献】
【文献】特開2020-027610(JP,A)
【文献】国際公開第2019/239812(WO,A1)
【文献】国際公開第2019/038271(WO,A1)
【文献】国際公開第2019/208123(WO,A1)
【文献】国際公開第2020/102223(WO,A2)
(58)【調査した分野】(Int.Cl.,DB名)
G06Q50/22
G08B23/00-31/00
G16H10/00-80/00
(57)【特許請求の範囲】
【請求項1】
空間において感染症状を示す人を検出及びローカライズするためのシステムであって、当該システムは、
前記空間及び前記空間における複数のコネクテッドセンサの位置情報を受けるように構成されるユーザインターフェースであって、前記複数のコネクテッドセンサは、人に関するセンサ信号を捕捉するように構成される、ユーザインターフェースと、
前記複数のコネクテッドセンサ及び前記ユーザインターフェースに関連するプロセッサであって、前記プロセッサは、第1、第2及び第3の畳み込みニューラルネットワーク(CNN)モデルのうちの少なくとも1つのCNNモデル並びに前記複数のコネクテッドセンサからの捕捉されたセンサ信号に少なくとも部分的に基づいて人が感染症状を示しているかどうかを検出するように構成され、前記少なくとも1つのCNNモデルは、前記第1のCNNモデルの出力に関連する信頼値に基づいて選択され、前記プロセッサはさらに、前記空間における感染症状を示す人をロケーティングするように構成される、プロセッサと、
前記プロセッサに接続される及び前記空間内の感染症状を示す人のロケーションを表示するように構成されるグラフィカルユーザインターフェースと、
を含み、
前記プロセッサは、前記複数のコネクテッドセンサの第1のタイプのセンサからの捕捉されたセンサ信号を前記第1のCNNモデルに入力するように構成され、
前記プロセッサは、前記複数のコネクテッドセンサの第1及び第2のタイプのセンサからの捕捉されたセンサ信号を前記第2のCNNモデルに入力するように構成され、
前記プロセッサは、前記複数のコネクテッドセンサの第2のタイプのセンサからの捕捉されたセンサ信号を前記第3のCNNモデルに入力するように構成される、システム。
【請求項2】
当該システムは、
前記プロセッサと通信するイルミネーションデバイスを含み、前記イルミネーションデバイスは、前記空間に配置され、前記空間において感染症状を示すものとして検出された人のロケーションを他者に通知するために少なくとも1つの光効果を提供するように構成される、請求項1に記載のシステム。
【請求項3】
前記光効果は色の変化を含む、請求項2に記載のシステム。
【請求項4】
前記イルミネーションデバイスは照明器具である、請求項2又は3に記載のシステム。
【請求項5】
前記第1のCNNモデルの出力は、第1の予測ラベルと、少なくとも第1の所定の閾値を満たす関連する信頼値とを含み、前記少なくとも1つのCNNモデルは、前記第1のCNNモデルを含み、前記プロセッサは、前記複数のコネクテッドセンサの第1のタイプのセンサからの捕捉されたセンサ信号を前記第1のCNNモデルに入力するように構成される、請求項1乃至4のいずれか一項に記載のシステム。
【請求項6】
前記第1のCNNモデルの出力は、第1の予測ラベルと、少なくとも前記第1の所定の閾値を満たさないが、少なくとも前記第1の所定の閾値より小さい第2の所定の閾値を満たす関連する信頼値とを含み、前記少なくとも1つのCNNモデルは、前記第2のCNNモデルを含み、前記プロセッサは、前記複数のコネクテッドセンサの第1及び第2のタイプのセンサからの捕捉されたセンサ信号を前記第2のCNNモデルに入力するように構成される、請求項5に記載のシステム。
【請求項7】
前記プロセッサは、前記第2のタイプのセンサからの信号の一部が前記第1のタイプのセンサからの信号を補完するように前記第1及び第2のタイプのセンサからの捕捉されたセンサ信号を融合するように構成される、請求項6に記載のシステム。
【請求項8】
前記第1のCNNモデルの出力は、第1の予測ラベルと、少なくとも前記第2の所定の閾値を満たさない関連する信頼値とを含み、前記少なくとも1つのCNNモデルは、前記第3のCNNモデルを含み、前記プロセッサは、前記複数のコネクテッドセンサの第2のタイプのセンサからの捕捉されたセンサ信号を前記第3のCNNモデルに入力するように構成される、請求項6に記載のシステム。
【請求項9】
複数のコネクテッドセンサを有する空間において1つ以上の感染症状を示す1人以上の人を識別するための方法であって、前記複数のコネクテッドセンサは、1人以上の人に関するセンサ信号を捕捉するように構成され、当該方法は、
ユーザに関連するモバイルデバイスのユーザインターフェースによって、空間における1人以上の人が1つ以上の感染症状を示しているかどうかを決定するように構成されるプロセッサを含むシステムから感染症状存在情報を要求するステップと、
前記ユーザインターフェースによって、ユーザからの入力を受けるステップであって、前記入力は第1のユーザ許容レベルを含む、ステップと、
前記システムのプロセッサが、第1、第2及び第3の畳み込みニューラルネットワーク(CNN)モデルのうちの少なくとも1つのCNNモデル並びに前記複数のコネクテッドセンサからの捕捉されたセンサ信号に少なくとも部分的に基づいて1人以上の人が1つ以上の感染症状を示しているかどうかを検出するステップであって、前記少なくとも1つのCNNモデルは、前記第1のCNNモデルの出力に関連する信頼値に基づいて選択され、
信頼レベルが前記第1のユーザ許容レベルに従って選択され、
前記プロセッサは、前記複数のコネクテッドセンサの第1のタイプのセンサからの捕捉されたセンサ信号を前記第1のCNNモデルに入力するように構成され、前記プロセッサは、前記複数のコネクテッドセンサの第1及び第2のタイプのセンサからの捕捉されたセンサ信号を前記第2のCNNモデルに入力するように構成され、前記プロセッサは、前記複数のコネクテッドセンサの第2のタイプのセンサからの捕捉されたセンサ信号を前記第3のCNNモデルに入力するように構成される、ステップと、
前記ユーザインターフェースによって、前記システムから、前記空間内の1人以上の人のうちの少なくとも1人が1つ以上の感染症状を示しているというインディケーションを受けるステップであって、前記インディケーションは、前記第1のユーザ許容レベルに従って選択される信頼レベルに基づく、方法。
【請求項10】
当該方法は、
前記ユーザインターフェースによって、前記空間において1つ以上の感染症状を示すものとして検出された1人以上の人のロケーションを受けるステップと、
前記空間において1つ以上の感染症状を示すものとして検出された1人以上の人のロケーションを他者に通知するために前記システムのプロセッサと通信するイルミネーションデバイスによって少なくとも1つの光効果を提供するステップと、
を含む、請求項9に記載の方法。
【請求項11】
前記第1のCNNモデルの出力は、第1の予測ラベルと、少なくとも第1の所定の閾値を満たす関連する信頼値とを含み、前記少なくとも1つのCNNモデルは、前記第1のCNNモデルを含み、少なくとも1つのプロセッサは、前記複数のコネクテッドセンサの第1のタイプのセンサからの捕捉されたセンサ信号を前記第1のCNNモデルに入力するように構成される、請求項9に記載の方法。
【請求項12】
前記第1のCNNモデルの出力は、第1の予測ラベルと、少なくとも前記第1の所定の閾値を満たさないが、少なくとも前記第1の所定の閾値より小さい第2の所定の閾値を満たす関連する信頼値とを含み、前記少なくとも1つのCNNモデルは、前記第2のCNNモデルを含み、少なくとも1つのプロセッサは、前記複数のコネクテッドセンサの第1及び第2のタイプのセンサからの捕捉されたセンサ信号を前記第2のCNNモデルに入力するように構成される、請求項11に記載の方法。
【請求項13】
前記第1のCNNモデルの出力は、第1の予測ラベルと、少なくとも前記第2の所定の閾値を満たさない関連する信頼値とを含み、前記少なくとも1つのCNNモデルは、前記第3のCNNモデルを含み、少なくとも1つのプロセッサは、前記複数のコネクテッドセンサの第2のタイプのセンサからの捕捉されたセンサ信号を前記第3のCNNモデルに入力するように構成される、請求項12に記載の方法。
【請求項14】
当該方法は、前記ユーザインターフェースによって、前記第1のユーザ許容レベルを、前記第1のユーザ許容レベルとは異なる第2のユーザ許容レベルに変更するステップを含む、請求項9に記載の方法。
【請求項15】
当該方法は、
前記ユーザインターフェースによって、前記空間において1つ以上の感染症状を示すものとして検出された1人以上の人のロケーションを受けるステップと、
前記ユーザインターフェースを介して、前記空間において1つ以上の感染症状を示すものとして検出された1人以上の人のロケーションを避ける前記空間内の少なくとも1つのルートをレンダリングするステップと、
を含む、請求項9に記載の方法。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、一般に、商業的及び/又は公共的環境における効果的なリソース管理のために病気の症状を示す個人を検出及び追跡するためのシステム及び方法に関する。より具体的には、本開示は、インターネットオブシングス(IoT)システムを使用してオーディオ及びビデオセンサを組み込む並びにビデオフレームを使用して個人を追跡することにより、身体に音又は動きを出させ得る病気の症状を示す個人を検出するためのシステム及び方法に関する。
【背景技術】
【0002】
さまざまな呼吸器疾患が、世界のさまざまな地域における人々に一般的になっている。例えば、インフルエンザは、典型的には患者の鼻、喉、肺を侵す伝染性の呼吸器ウイルス疾患である。また、新型コロナウイルス(COVID-19)パンデミックは、咳、息切れ、喉の痛み等の症状を引き起こし、症状は、ウイルスに感染してから2~14日後に示されることがある。これらの疾患は伝染性が高く、人々は感染に気づかないことがあるため、これらの症状を迅速且つ正確に検出するためのシステム及び方法を開発することが極めて重要である。
【0003】
スーパーマーケット及び空港等、人通りの多い環境において、咳及びくしゃみ等の症状を示す人がいることがあり、これは他の人を心配させることになり得る。この点から、潜在的感染エリアを検出及び消毒することは、店舗又は公共の場のポリシーたりうる。さらに、強制予防規制(mandatory prevention regulation)が、政府によって実施されることがある。残念ながら、空港、スーパーマーケット、駅等の公共の場でこのようなルールを実施することは、技術的に困難であり得る。難しい側面の1つは、予防及びソーシャルディスタンスのためにできるだけ早く当局及び公衆に通知することである。
【0004】
したがって、商業的及び/又は公共的環境において病気の症状(例えば、ウイルス及び細菌感染並びに呼吸器疾患)を示す個人を検出及び追跡する並びに当局及び公衆に通知するための改善されたシステム及び方法が当技術分野において緊急に必要とされている。
【発明の概要】
【発明が解決しようとする課題】
【0005】
本開示は、商業的環境における効果的なリソース管理(effective resource management)のために、咳、くしゃみ、及び伝染性感染症の他の症状の出どころ(source)をローカライズ(localize)及び追跡するための発明的なシステム及び方法に関する。一般に、本開示の実施形態は、インターネットオブシングス(IoT)システムにオーディオ及びビデオセンサを組み込む並びにビデオフレームを使用して個人を追跡することにより、呼吸器疾患の症状を示す個人を検出するための改善されたシステム及び方法に関する。出願人は、入力データの補完的なソースなしにオーディオ信号を使用することは、特にオーディオ信号がノイジーである場合にくしゃみ及び咳等の症状を検出するには不十分であり得ることを認識し、理解している。本明細書におけるさまざまな実施形態及び実装形態は、マイクロフォンからのオーディオ信号を使用して症状を特定する、及び、オーディオデータが不十分である場合、症状を特定するためにカメラ及びサーモパイルセンサからの追加の信号を使用する方法に関する。マイクロフォン、カメラ、及びサーモパイルセンサは、屋内施設内の複数のデバイスのコネクテッドネットワーク(connected network of multiple devices)における発光デバイスに組み込まれる、又は発光デバイスに追加される。ディープラーニングモデルが、潜在的な症状を特定するために異なる症状に対して訓練され、後に、特定されるべき症状のラベル付きサンプルの必要性を低減するためにフィーチャアグリゲーション技術(feature aggregation technique)を使用する。コネクテッド照明システム(connected lighting system)は、症状が検出され次第視覚的な通知を提供することができる。自動クリーニング若しくは消毒及び/又は他の適切なアクションのために当局に通知されることができる。
【課題を解決するための手段】
【0006】
一般に、一態様において、空間において感染症状を示す人を検出及びローカライズする(localize)ためのシステムが提供される。システムは、空間及び空間における複数のコネクテッドセンサ(connected sensor)の位置情報(position information)を受けるように構成されるユーザインターフェースを含む。複数のコネクテッドセンサは、人に関するセンサ信号を捕捉するように構成される。システムはさらに、複数のコネクテッドセンサ及びユーザインターフェースに関連するプロセッサを含み、プロセッサは、第1、第2及び第3の畳み込みニューラルネットワーク(convolutional neural network)(CNN)モデルのうちの少なくとも1つのCNNモデル並びに複数のコネクテッドセンサからの捕捉されたセンサ信号に少なくとも部分的に基づいて人が感染症状を示しているかどうかを検出するように構成され、少なくとも1つのCNNモデルは、第1のCNNモデルの出力に関連する信頼値(confidence value)に基づいて選択される。プロセッサはさらに、空間における感染症状を示す人をロケーティングする(locate)ように構成される。システムはさらに、プロセッサに接続される及び空間内の感染症状を示す人のロケーション(location)を表示するように構成されるグラフィカルユーザインターフェースを含む。
【0007】
ある実施形態では、システムはさらに、プロセッサと通信するイルミネーションデバイス(illumination device)を含み、イルミネーションデバイスは、空間に配置され、空間において感染症状を示す人のロケーションを他者に通知するために少なくとも1つの光効果(light effect)を提供するように構成される。
【0008】
ある実施形態では、光効果は、色の変化を含む。
【0009】
ある実施形態では、第1のCNNモデルの出力は、第1の予測ラベルと、少なくとも第1の所定の閾値を満たす関連する信頼値とを含み、少なくとも1つのCNNモデルは、第1のCNNモデルを含み、プロセッサは、複数のコネクテッドセンサの第1のタイプのセンサからの捕捉されたセンサ信号を第1のCNNモデルに入力するように構成される。
【0010】
ある実施形態では、第1のCNNモデルの出力は、第1の予測ラベルと、少なくとも第1の所定の閾値を満たさないが、少なくとも第1の所定の閾値より小さい第2の所定の閾値を満たす関連する信頼値とを含み、少なくとも1つのCNNモデルは、第2のCNNモデルを含み、プロセッサは、複数のコネクテッドセンサの第1及び第2のタイプのセンサからの捕捉されたセンサ信号を第2のCNNモデルに入力するように構成される。ある実施形態では、プロセッサは、第2のタイプのセンサからの信号の一部が第1のタイプのセンサからの信号を補完するように第1及び第2のタイプのセンサからの捕捉されたセンサ信号を融合する(fuse)ように構成される。
【0011】
ある実施形態では、第1のCNNモデルの出力は、第1の予測ラベルと、少なくとも第2の所定の閾値を満たさない関連する信頼値とを含み、少なくとも1つのCNNモデルは、第3のCNNモデルを含み、プロセッサは、複数のコネクテッドセンサの第2のタイプのセンサからの捕捉されたセンサ信号を第3のCNNモデルに入力するように構成される。
【0012】
ある実施形態では、部分的に述べたように、第1のタイプのセンサは、第2のタイプのセンサと異なる。例えば、第1のタイプのセンサはオーディオセンサであってもよく、第2のタイプのセンサはビデオセンサ、又は熱センサであってもよい。
【0013】
ある実施形態では、イルミネーションデバイスは、照明器具であってもよい。ある実施形態では、イルミネーションデバイスは、消毒アクション(disinfection action)が決定されるまで少なくとも1つの光効果を維持するように構成されてもよい。例えば、本発明によるプロセッサ、又はイルミネーションデバイスと通信する異なるプロセッサは、消毒アクションを決定し、前記消毒アクションを示す信号をイルミネーションデバイスに伝えるように構成されてもよく、イルミネーションデバイスは、前記信号を受信し、前記少なくとも1つの光効果を提供するのを停止してもよく、又は前記信号は、前記少なくとも1つの光効果を提供するのを停止するよう前記イルミネーションデバイスを制御するように構成されてもよい。したがって、前記信号は、「少なくとも1つの光効果をオフにする(turn off the at least one light effect)」制御信号であってもよい。これは、消毒アクションが決定される場合、システムは少なくとも1つの光効果をレンダリングしなくなり、空間は可能性のある感染(possible infection)から安全であると見なされることを可能にする。 一般に、別の態様において、空間において1つ以上の感染症状を示す1人以上の人を識別するための方法が提供される。空間は、1人以上の人に関するセンサ信号を捕捉するように構成される複数のコネクテッドセンサを含む。方法は、空間における1人以上の人が1つ以上の感染症状を示しているかどうかを決定するように構成されるプロセッサを有するシステムから感染症状存在情報(infectious symptom presence information)を要求するステップと、ユーザに関連するモバイルデバイスのユーザインターフェースによって、ユーザからの入力を受けるステップであって、入力は第1のユーザ許容レベル(user tolerance level)を含む、ステップと、ユーザに関連するモバイルデバイスのユーザインターフェースによって、空間内の人のうちの少なくとも1人が1つ以上の感染症状を示しているというインディケーション(indication)を受けるステップとを含む。インディケーションは、第1のユーザ許容レベルに従って選択される信頼レベル(confidence level)に基づく。システムは、第1、第2及び第3の畳み込みニューラルネットワーク(CNN)モデルのうちの少なくとも1つのCNNモデル並びに複数のコネクテッドセンサからの捕捉されたセンサ信号に少なくとも部分的に基づいて1人以上の人が1つ以上の感染症状を示しているかどうかを検出するように構成され、少なくとも1つのCNNモデルは、第1のCNNモデルの出力に関連する信頼値に基づいて選択される。
【0014】
ある実施形態では、方法はさらに、ユーザに関連するモバイルデバイスのユーザインターフェースによって、空間において1つ以上の感染症状を示すものとして検出された1人以上の人のロケーションを受けるステップと、空間において1つ以上の感染症状を示す1人以上の人のロケーションを他者に通知するためにシステムのプロセッサと通信するイルミネーションデバイスによって少なくとも1つの光効果を提供するステップとを含む。
【0015】
ある実施形態では、第1のCNNモデルの出力は、第1の予測ラベルと、少なくとも第1の所定の閾値を満たす関連する信頼値とを含み、少なくとも1つのCNNモデルは、第1のCNNモデルを含み、少なくとも1つのプロセッサは、複数のコネクテッドセンサの第1のタイプのセンサからの捕捉されたセンサ信号を第1のCNNモデルに入力するように構成される。
【0016】
ある実施形態では、第1のCNNモデルの出力は、第1の予測ラベルと、少なくとも第1の所定の閾値を満たさないが、少なくとも第1の所定の閾値より小さい第2の所定の閾値を満たす関連する信頼値とを含み、少なくとも1つのCNNモデルは、第2のCNNモデルを含み、少なくとも1つのプロセッサは、複数のコネクテッドセンサの第1及び第2のタイプのセンサからの捕捉されたセンサ信号を第2のCNNモデルに入力するように構成される。
【0017】
ある実施形態では、第1のCNNモデルの出力は、第1の予測ラベルと、少なくとも第2の所定の閾値を満たさない関連する信頼値とを含み、少なくとも1つのCNNモデルは、第3のCNNモデルを含み、少なくとも1つのプロセッサは、複数のコネクテッドセンサの第2のタイプのセンサからの捕捉されたセンサ信号を第3のCNNモデルに入力するように構成される。
【0018】
ある実施形態では、方法はさらに、ユーザインターフェースによって、第1のユーザ許容レベルを、第1のユーザ許容レベルとは異なる第2のユーザ許容レベルに変更するステップを含む。
【0019】
ある実施形態では、方法はさらに、ユーザに関連するモバイルデバイスのユーザインターフェースによって、空間において1つ以上の感染症状を示すものとして検出された1人以上の人のロケーションを受けるステップと、ユーザインターフェースを介して、空間において1つ以上の感染症状を示すものとして検出された1人以上の人のロケーションを避ける空間内の少なくとも1つのルートをレンダリングするステップとを含む。
【0020】
一般に、さらなる態様において、人が感染症状を示しているかどうかを決定する方法が提供される。方法は、新しい症状の陽性クラス(positive class)からのサンプル、新しい症状の陰性クラス(negative class)からのサンプル、及びクエリ信号を受けるステップと、特徴抽出モジュールによって、新しい症状の陽性クラスのサンプル、新しい症状の陰性クラスのサンプル、及びクエリ信号から特徴を抽出するステップと、特徴集約モジュール(feature aggregation module)によって、クエリ信号と新しい症状の陽性クラスのサンプルからの特徴を集約して陽性クラス特徴表現(positive class feature representation)を生成するステップと、特徴集約モジュールによって、クエリ信号と新しい症状の陰性クラスのサンプルからの特徴を集約して陰性クラス特徴表現(negative class feature representation)を生成するステップと、比較モジュールによって、陽性クラス特徴表現及び陰性クラス特徴表現を受けるステップと、比較モジュールによって、クエリ信号が陽性クラス特徴表現又は陰性クラス特徴表現のどちらに類似するかを判断するステップとを含む。
【0021】
様々な実装形態において、本明細書で述べられるプロセッサは、ソフトウェア命令を実行するように構成される1つ以上のプロセッサ又はマイクロコントローラ、回路、1つ以上のコントローラ、フィールドプログラマブルゲートアレイ(FGPA)、又は特定用途向け集積回路(ASIC)等、任意の適切な形態をとってもよい。プロセッサに関連付けられるメモリは、ランダムアクセスメモリ(RAM)、スタティックRAM(SRAM)、若しくはダイナミックRAM(DRAM)等の揮発性メモリ、リードオンリーメモリ(ROM)、フラッシュメモリ、ハードディスクドライブ(HDD)、ソリッドステートドライブ(SSD)等の不揮発性メモリ、又は他の非一時的機械可読記憶媒体を含む、任意の適切な形態又は複数の形態をとってもよい。用語「非一時的(non-transitory)」は、一時的な信号を除くことを意味するが、可能なストレージの形態をさらに限定するものではない。一部の実装形態では、これらの記憶媒体は、1つ以上のプロセッサ及び/又はコントローラ上で実行されると、本明細書で論じられる機能の少なくとも一部を実行する、1つ以上のプログラムでエンコードされてもよい。プロセッサが、本明細書で述べられる機能の1つ以上をハードウェアで実装する実施形態では、他の実施形態でそのような機能に対応するものとして述べられるソフトウェアは省略されてもよいことは明らかであろう。様々な記憶媒体は、プロセッサ内に固定されてもよく、又は、それらの記憶媒体に記憶されている1つ以上のプログラムが、本明細書で論じられる様々な態様を実施するためにプロセッサにロードされることができるように、可搬性であってもよい。タグ及びセンサによって収集されるデータを分析するために必要なアルゴリズム又はソフトウェア等のデータ及びソフトウェア、オペレーティングシステム、ファームウェア、又は他のアプリケーションが、メモリにインストールされてもよい。
【0022】
上述の概念と、以下でより詳細に論じられる追加的概念との全ての組み合わせは(そのような概念が互いに矛盾しないという条件下で)、本明細書で開示される発明の主題の一部であると想到される点を理解されたい。特に、本開示の最後に記載されている特許請求される主題の全ての組み合わせは、本明細書で開示される発明の主題の一部であると想到される。
【図面の簡単な説明】
【0023】
図面中、同様の参照文字は、一般に、異なる図の全体にわたって同じ部分を指す。また、図面は、必ずしも縮尺通りではなく、その代わり一般的に、開示の原理を例示することに重点が置かれている。
図1図1は、本開示の態様による空間における有症者をローカライズ及び追跡するためのシステム及び方法を示す例示的なフローチャートである。
図1A図1Aは、本開示の態様による空間における有症者をローカライズ及び追跡するための照明IoTシステムの例示的な概略図である。
図2図2は、本開示の態様による図1の動的症状検出システムの信頼値に基づくCNNモデルの適応選択を示す例示的なフローチャートである。
図3図3は、本開示の態様による少ないサンプルで人が感染症状を示しているかどうかを決定するために図2のCNNモデルがどのように使用されるかを示す例示的なフローチャートである。
図4図4は、本開示の態様による少ないサンプルを用いてCNNモデルで人が感染症状を示しているかどうかを決定するための例示的なプロセスである。
図4A図4Aは、本開示の態様による少ないサンプルを用いて人が感染症状を示しているかどうかを決定するための例示的なプロセスである。
図5図5は、本開示の態様によるCNN及びRNNで有症者を追跡するためのビデオフレームの使用を示す例示的なフローチャートである。
図6図6は、本開示の態様によるどのエリアが安全であるか及びどのエリアが避けられるべき又は注意して近づかれるべきかを示すために光効果を使用するコネクテッド照明システムの概略図である。
図7図7は、本開示の態様による空間における有症者の可視化に使用されることができるユーザインターフェースデバイスの一例である。
図8図8は、本開示の態様による提案されたシステムのセットアップ及びコンフィギュレーションのための例示的なユーザインターフェースである。
図9図9は、本開示の態様による提案されたシステムのセットアップ及びコンフィギュレーションのための例示的なユーザインターフェースである。
図10図10は、本開示の態様による有症者が検出されたロケーションを表示するように構成される例示的なユーザインターフェースである。
図11図11は、本開示の態様による潜在的感染者が位置するロケーション及び予測に関連する対応する信頼レベルを表示するように構成される例示的なユーザインターフェースである。
図12図12は、本開示の態様による空間における1つ以上の感染症状を示す1人以上の人を検出及びローカライズするための例示的なプロセスである。
【発明を実施するための形態】
【0024】
本開示は、コネクテッド照明システムにオーディオ及びビデオセンサを組み込む及びビデオフレームを使用して有症者を追跡することにより商業環境において有症者を検出及び追跡するためのシステム及び方法の様々な実施形態を述べる。出願人は、信頼値に基づいて選択される適切な畳み込みニューラルネットワーク(CNN)を利用する動的症状検出システム(dynamic symptom detection system)を使用して症状を識別することが有益であることを認識し、理解している。異なるCNNは、異なるデータで、及びこれらが少ない訓練サンプルしか必要としないようなやり方で訓練される。斯くして、CNNは、新しい症状に対して迅速に適応されることができる。出願人はまた、有症者を追跡するためにリカレントニューラルネットワーク(recurrent neural network)と共に訓練されたCNNを利用することが有益であることを認識し、理解している。通知が、本開示の実施形態において適切なアクションを取るためにプロパティマネージャ又はアドミニストレータに送られることができる。適切なアクションには、ターゲット消毒(targeted disinfection)、特定の関心エリアへのアクセス制限等が含まれてもよい。通知は、コネクテッド照明システムによって提供される光効果を使用して有症者の近傍にいる他者に提供されることもできる。
【0025】
本開示は、マルチグリッド及びコネクテッドアーキテクチャ(例えば、コネクテッド照明インフラストラクチャ)に既に配置されているイルミネーションデバイスを利用することにより症状検出及び追跡センサの分散ネットワークを提供するためのシステム及び方法の様々な実施形態を述べる。このような既存のインフラストラクチャは、本明細書で述べられる追加の検出、追跡、及び通知機能のためのバックボーンとして使用されることができる。SignifyのSlimBlend(登録商標)吊り下げ型照明器具は、本明細書で述べられるマイクロフォン、カメラ、及びサーモパイル赤外線センサ等の組み込みIoTセンサを備える適切なイルミネーションデバイスの一例である。ある実施形態では、イルミネーションデバイスは、レシーバ及びセンサ等のためのUSBタイプのコネクタスロットを含む。センサレディインターフェース(sensor ready interface)を含むイルミネーションデバイスは、特に適しており、給電、照明器具の機能へのDALI(Digital Addressable Lighting Interface)接続性、及び標準化されたスロットジオメトリを既に提供する。天井埋め込み型又は表面取り付け型照明器具、吊り下げ型照明器具、壁取り付け型照明器具、及び床自立型照明器具等を含む、コネクテッド又はコネクタブル、及びセンサ対応である任意のイルミネーションデバイスが企図されていることを理解されたい。サーモパイル赤外線センサを含む吊り下げ型照明器具又は床自立型照明器具は、センサが人間のより近くに配置され、人々のより高い温度を検出することができるので有利である。さらに、サーモパイルセンサの分解能は、約3mの天井高さに取り付けられる天井埋め込み型又は表面取り付け型照明器具内に取り付けられるサーモパイルセンサの分解能よりも低くすることができる。
【0026】
本明細書で用いられる「照明器具(luminaire)」という用語は、同じ又は異なるタイプの1つ以上の光源を含む装置を指す。所与の照明器具は、(複数の)光源のための様々な取り付け構成、エンクロージャ/ハウジングの様々な構成及び形状、並びに/又は電気的及び機械的接続の様々な構成の任意のものを有してもよい。さらに、所与の照明器具は、任意選択的に、(複数の)光源の動作に関連する様々な他の構成要素(例えば、制御回路)に関連付けられてもよい(例えば、含んでもよく、結合されてもよく、及び/又は一体にパッケージ化されてもよい)。また、光源は、限定するものではないが、指示、表示、及び/又は照明を含む様々な用途に対し構成されてもよいことを理解されたい。
【0027】
図1を参照すると、空間における有症者をローカライズ及び追跡するためのシステム及び方法を示すフローチャートの概略図が提供される。フローチャートは、空間10において感染症状を示す人Pを検出及びローカライズするためのシステム1を含み、システム1は、センサ信号及びデータ捕捉システム(sensor signal and data capturing system)100と、動的症状検出システム(dynamic symptom detection system)150と、追跡システム(tracking system)170と、通知システム(notification system)190とを含む。センサ信号及びデータ捕捉システム100は、イルミネーションデバイス102と、マイクロフォンセンサ104、画像センサ106(例えば、カメラ)、及びマルチピクセルサーモパイル赤外線センサ108等のオンボードセンサとを含むコネクテッド照明システムを含む。オンボードセンサは、ある実施形態では、ZigBee(登録商標)トランシーバ、Bluetooth(登録商標)ラジオ、光センサ、及びIRレシーバを含むこともできることを理解されたい。動的症状検出システム150は、システム100からの入力ソース(オーディオ、オーディオ+補完的なビデオデータ、又はビデオデータ)を動的に選択し、選択された信号を適切な畳み込みニューラルネットワーク(CNN)モデルに入力するように構成される。ある実施形態では、3つの別個のCNNモデル、すなわち、オーディオ入力のための1つ、オーディオ+補完的なビデオ入力のための1つ、及びビデオ入力のための別の1つがあり、各々が、従来のCNNモデルよりも少ない訓練サンプルしか必要としないように症状検出のために訓練されている。追跡システム170は、ビデオフレームを使用して有症者を検出及びローカライズするように構成される。通知システム190は、建物管理者及び付近の他の占有者に通知するためにコネクテッド照明システムインフラストラクチャを使用するように構成される。これらのシステム及び方法は、以下でより詳細に述べられる。
【0028】
センサ信号及びデータ捕捉システム100は、空間10における症状ローカリゼーション(symptom localization)のための照明IoTシステムとして具現化される。システム100は、コネクテッドセンサ(例えば、アドバンストセンサバンドル(advanced sensor bundle)(ASB)を備える1つ以上のオーバーヘッドコネクテッド照明ネットワークを含む。オーバーヘッドコネクテッド照明ネットワーク(overhead connected lighting network)は、ネットワークに結合される2つ以上のデバイスの間での(例えば、デバイス制御、データ記憶、データ交換等のための)情報の伝送を容易にする(コントローラ又はプロセッサを含む)2つ以上のデバイスの任意の相互接続を指す。2つ以上のデバイスを相互接続するための任意の適切なネットワークは、任意の適切なトポロジ及び任意の適切な通信プロトコルを含むことが企図される。ASBのセンシングケイパビリティは、建物空間10内の有症者を正確に検出及び追跡するために使用される。照明IoTシステム100は、典型的なオフィス環境、ホテル、食料品店、空港、又は任意の適切な代替物に構成されることができることを理解されたい。
【0029】
照明IoTシステム100は、1つ以上の発光ダイオード(LED)を含んでもよいイルミネーションデバイス102を含む。LEDは、1つ以上の光源ドライバによって特定の特性(すなわち、色強度及び色温度)の光を発するように駆動されるように構成される。LEDは、アクティブ(すなわち、オン)、非アクティブ(すなわち、オフ)、又は係数d(0≦d≦1)によって調光されてもよい。値d=0は、LEDがオフされることを意味し、d=1は、LEDがその最大照明にあることを表す。イルミネーションデバイス102は、対称的なグリッドに配置されてもよく、又は、例えば、線形、矩形、三角形、又は円形パターンに配置されてもよい。代替的に、イルミネーションデバイス102は、任意の不規則なジオメトリで配置されてもよい。オーバーヘッドコネクテッド照明ネットワークは、建物屋内空間全体をカバーするために十分に密なセンサネットワークを提供するために、イルミネーションデバイス102、ASBのセンサの中でも特に、マイクロフォンセンサ104、画像センサ106、サーモパイルセンサ108を含むことを理解されたい。一部の実施形態では、イルミネーションデバイス102、マイクロフォンセンサ104、画像センサ106、及びサーモパイルセンサ108はすべて一緒に統合され、有線又はワイヤレス接続を介して単一のデバイス内で通信するように構成されるが、他の実施形態では、マイクロフォンセンサ104、画像センサ106、及びサーモパイルセンサ108のいずれか1つ以上がイルミネーションデバイス102とは別個であり、有線又はワイヤレス接続を介してイルミネーションデバイス102と通信することも可能である。
【0030】
イルミネーションデバイス102は、1つ以上のLEDの点滅(flashing)及び/又は1つ以上のLEDの色の1つ以上の変化を含むことができる1つ以上の可視照明効果105を提供するように配置される。1つ以上のLEDの点滅は、ある期間に規則的な間隔であるレベルで1つ以上のLEDをアクティブにすること及びLEDがアクティブである規則的な間隔間で1つ以上のLEDを非アクティブ又はある量調光することを含むことができる。点滅する場合、LEDは任意の特定のレベル又は複数のレベルでアクティブになることができることを理解されたい。また、LEDは不規則な間隔で及び/又は時間の長さを増加若しくは減少させて点滅することができることも理解されたい。1つ以上のLEDは、色の1つ以上の変化を含む可視照明効果も提供することができ、又は代替的に提供することができる。色変化は、1つ以上の強度レベルで生じることができる。イルミネーションデバイス102は、図1Aに示されるように中央コントローラ112によって制御されることができる。例えば、本明細書で述べられるように、コントローラ112は、システムが人Pが呼吸器疾患の症状を示したと決定した後に人Pが位置すると決定される場所に基づいてイルミネーションデバイス102を一緒に又は個別に制御することができる。例示的な実施形態では、コントローラ112は、イルミネーションデバイス102のLEDを、デフォルト設定から、当該エリアで払われる必要がある注意のレベルを示す1つ以上の色に変更させることができる。例えば、システムが、人Pが50%の信頼レベルで症状を示していると決定する場合、人Pを囲むイルミネーションデバイスは、黄色に変化するように構成されることができる。システムが、人Pが95%の信頼レベルで症状を示していると決定する場合、人Pを囲むイルミネーションデバイスは、赤色に変化するように構成されることができる。上述した黄色及び赤色の代わりに、任意の色が使用され得ることも理解されたい。さらに、LEDのスペクトルパワー分布は、コントローラ112によって調整されることができる。任意の適切な照明特性は、コントローラ112によって制御されることができる。
【0031】
コントローラ112は、ネットワークインターフェース120、メモリ122、及び1つ以上のプロセッサ124を含む。ネットワークインターフェース120は、コネクテッド照明器具が、同じワイヤレスプロトコル標準規格を利用するモバイルデバイス700を含む他のデバイスと及び互いにワイヤレスで通信すること及び/又はネットワークアクティビティを監視することを可能にする、及び、コントローラ112が、コネクテッドセンサ104、106、及び108からデータを受信することを可能にするワイヤレストランシーバ又は任意の他のデバイスとして具現化されることができる。ある実施形態では、ネットワークインターフェース120は、有線通信リンクを使用してもよい。メモリ122及び1つ以上のプロセッサ124は、イルミネーションデバイス102の動作を制御、監視、及び/又は支援する、及び、本明細書で述べられるコントローラ112の他の機能を実行するための当技術分野における任意の適切な形態をとってもよい。プロセッサ124はまた、メモリ122に記憶された命令を実行する、又は、例えば、本明細書で述べられる方法の1つ以上のステップを実行するためにデータを処理することが可能である。プロセッサ124は、例えば、システム100のデータ捕捉モジュール、システム150の動的症状検出モジュール、システム170の追跡モジュール、システム190の通知モジュール、及びシステム200の特徴抽出208、特徴集約210及び比較212モジュール等、1つ以上のモジュールを含んでもよい。
【0032】
図1及び1Aに示されるように、マイクロフォンセンサ104、カメラセンサ106、及びマルチピクセルサーモパイルセンサ108は、病気の兆候を示す人Pからセンサ信号を検出するように構成される。マイクロフォンセンサ104は、人Pからの音からオーディオデータADを捕捉することができる。カメラセンサ106は、人Pのビデオデータを捕捉することができる。サーモパイルセンサ108は、人Pからの温度感受性放射(temperature-sensitive radiation)を捕捉することができる。追加のセンサも使用されることができる。例えば、1つ以上の前方監視型赤外線(forward-looking infrared)(FLIR)サーマルカメラが、人Pの体温を測定するために使用されることができる。イルミネーションデバイス、並びにマイクロフォン、カメラ、及びサーモパイルセンサは、空間内の特定の固定ロケーションに配置されるので、それらの固定ロケーションの位置情報は、ローカルに及び/又はメモリ122に記憶されることができる。
【0033】
図2に使用されるように、動的症状検出システム150は、照明IoTシステム100から捕捉されるデータに依存して、捕捉されたデータが症状を示しているか否かを判断する際にバイナリ分類(binary classification)を実行する。具体的には、動的症状検出システム150は、バイナリ分類のためにオーディオCNNモデル154への入力としてマイクロフォン信号を使用する。オーディオCNNモデル154は、予測ラベル(predicted label)(例えば、症状か否か)を、予測ラベルにおけるモデルの信頼性(confidence)を示す信頼値とともに出力する。この信頼値を使用して、以下の3つのシナリオがある。
【0034】
第1のシナリオは、オーディオCNNモデル154が高信頼値156Aで予測ラベルを出力する場合に生じる。モデルがその予測について高い信頼性を有する場合、システムは、この出力をそのまま使用する(例えば、システムは、オーディオCNNモデル158Aのバイナリ分類の結果を出力する)。ある実施形態では、高信頼値156Aは、所定の閾値に対して測定されることができる。信頼値156Aが所定の閾値以上である場合、信頼値156Aは、高信頼値又は十分に信頼できる値として適格である(qualify)。十分に信頼できる値(sufficiently confident value)は、オーディオ信号が、症状予測を形成するためにそれ自体で十分であることを意味する。
【0035】
第2のシナリオは、オーディオCNNモデル154が中信頼値156Bで予測ラベルを出力する場合に生じる。言い換えれば、第2のシナリオにおいて、オーディオCNNモデル154は、第1のシナリオにおける高信頼値よりも小さい信頼値で予測ラベルを出力する。例えば、信頼値156Bは、第1のシナリオで述べられる所定の閾値より小さく、低信頼レベルを示す別の低い所定の閾値以上であることができる。信頼値156Bが第1のシナリオで使用される所定の閾値未満であり、低信頼レベルを示すために使用される別の所定の閾値を超える場合、信頼値156Bは、中信頼値として適格である。このシナリオにおいて、オーディオ信号ADは、カメラからのデータと融合され、この融合されたデータは、バイナリ分類のためにオーディオ+カメラCNNモデルに送られる。この第2のシナリオでは、システムは、オーディオ+カメラCNNモデル158Bのバイナリ分類の結果を出力する。ある実施形態では、使用されるカメラデータの量は、フルカメラデータではなくオーディオデータを補完するのに必要な量に限定されることを理解されたい。この第2のシナリオは、オーディオ信号がノイジーである可能性があり、モデルの信頼性がカメラからの追加データを活用することによって向上されることができる場合にとりわけ有利であり得る。
【0036】
第3のシナリオは、オーディオCNNモデル154が低信頼値156Cで予測ラベルを出力する場合に生じる。言い換えれば、第3のシナリオにおいて、オーディオCNNモデル154は、第2のシナリオで述べられる低信頼レベルを示す低い所定の閾値よりも小さい信頼値で予測ラベルを出力する。信頼レベル156Cが低い所定の閾値未満である場合、信頼値156Cは、低信頼値として適格であり、オーディオデータは、症状について結論を出すには不十分である。このシナリオでは、オーディオデータの代わりに、カメラからのデータが使用される。カメラデータは、バイナリ分類のためにカメラCNNモデルに送られる。この第3のシナリオでは、システムは、カメラCNNモデル158Cのバイナリ分類の結果を出力する。
【0037】
上記で示されるように、動的症状検出システム150を使用して、潜在的有症者(potentially symptomatic person)の機敏で、適応的で、正確なローカリゼーション(agile, adaptive, and precise localization)が提供される。
【0038】
オーディオCNNモデル、オーディオ+カメラCNNモデル、及びカメラCNNモデルは、Oxford Visual Geometry Group(VGG)、Inception等の典型的なCNNアーキテクチャと比較して改善されたアーキテクチャを有する。典型的なCNNアーキテクチャは、その精度レベルを達成するために大量の訓練データを必要とする。しかしながら、このような大量の訓練データは、症状分類を訓練するのに利用可能ではない可能性があり、訓練するのに多大な時間を要する可能性がある。本開示では、オーディオCNNモデル、オーディオ+カメラCNNモデル、及びカメラCNNモデルは、(少なくとも1つの症状を示す)陽性クラスの少ないサンプルのみを用いて訓練される。
【0039】
以下は、少ないサンプルで人が感染症状を示しているかどうかを決定するために図2のCNNモデルを使用するプロセス200及び400を示す図3及び図4を考慮して理解されるべきである。第1のステップにおいて、陽性クラス(+)202からのサンプル、陰性クラス(-)204からのサンプル、及びクエリ信号(?)206(例えば、潜在的症状(potential symptom)のオーディオ信号)が、特徴抽出モジュール208に送られる。クエリ信号(?)は、オーディオCNNモデルのための潜在的症状のオーディオ信号であるが、オーディオ+カメラCNNモデルのためのクエリ信号(?)は、潜在的症状の融合されたオーディオ及びカメラデータの信号であり、カメラCNNモデルのためのクエリ信号(?)は、潜在的有症者のカメラ信号であることを理解されたい。陽性クラス(+)202からのサンプルは、実際の症状を示す特徴を含み、陰性クラス(-)204からのサンプルは、そのような特徴を有さない。斯くして、オーディオCNNモデルのために、陽性クラス(+)202からのサンプルは、少なくとも1つの実際の症状の特徴を有するオーディオ信号を含むサンプルであり、オーディオ+カメラCNNモデルのために、陽性クラス(+)202からのサンプルは、少なくとも1つの実際の症状の特徴を有する融合されたオーディオ及びカメラデータを含むサンプルであり、カメラCNNモデルのために、陽性クラス(+)202からのサンプルは、少なくとも1つの実際の症状の特徴を有するカメラデータを含むサンプルであることを理解されたい。オーディオCNNモデル、オーディオ+カメラCNNモデル、及びカメラCNNモデルのための陰性クラス(-)204からのサンプルは、陽性クラスのサンプルに見られる実際の症状の特徴を含まない。
【0040】
図4に使用されるように、特徴抽出モジュール208は、ステップ402において、データベース内の複数の既知の症状を用いて訓練されることができる。特徴抽出モジュールが訓練された後、ステップ404において、特徴抽出モジュール208は、上述したように陽性クラス(+)202からのサンプル、陰性クラス(-)204からのサンプル、及びクエリ信号(?)206を受けるように構成される。ステップ406において、特徴抽出モジュール208は、既知の症状に基づいて陽性クラス及び陰性クラスのサンプルから特徴を抽出するように構成される。ステップ408及び410において、特徴集約モジュール210は、2つの特徴表現、すなわち、クエリ信号及び陽性クラスのサンプルから集約された特徴の特徴表現と、クエリ信号及び陰性クラスのサンプルから集約された特徴の特徴表現とを作成する。言い換えれば、陽性クラスのサンプルからの特徴は、第1の特徴表現を生成するためにクエリ信号と集約され、陰性クラスのサンプルからの特徴は、第2の特徴表現を生成するためにクエリ信号と集約される。
【0041】
これら2つの特徴のセットは、様々な畳み込みレイヤを含む比較モジュール212に送られる。ステップ412において、比較モジュール212は、第1及び第2の特徴表現を受けるように構成され、ステップ414において、比較モジュール212は、クエリ信号が第1の特徴表現又は第2の特徴表現のどちらに似ているか又は類似しているかを判断するように構成される。陽性及び陰性特徴をクエリと組み合わせるこのフォーミュレーション(formulation)に起因して、CNNモデルを訓練することは、クエリが陽性クラス(症状)又は陰性クラス(症状のない他者)のどちらに近いかを学習するために著しく少ないサンプルしか必要としない。
【0042】
図4Aに示されるように、人が感染症状を示しているかどうかを決定する例示的なプロセス400Aが提供される。方法は、新しい症状の陽性クラス202からのサンプル、新しい症状の陰性クラス204からのサンプル、及びクエリ信号206を受けること402Aから始まる。ステップ404Aにおいて、方法は、特徴抽出モジュール208によって、陽性クラスのサンプル、陰性クラスのサンプル、及びクエリ信号から特徴を抽出することを含む。ステップ406Aにおいて、方法は、特徴集約モジュール210によって、陽性クラス特徴表現(positive class feature representation)を生成するためにクエリ信号と陽性クラスのサンプルからの特徴を集約することを含む。方法はさらに、ステップ408Aにおいて、特徴集約モジュール210によって、陰性クラス特徴表現(negative class feature representation)を生成するためにクエリ信号と陰性クラスのサンプルからの特徴を集約することを含む。ステップ410Aにおいて、方法は、比較モジュール212によって、陽性クラス特徴表現及び陰性クラス特徴表現を受けることを含む。最後に、ステップ412Aにおいて、方法は、比較モジュール212によって、クエリ信号が陽性クラス特徴表現又は陰性クラス特徴表現のどちらに類似しているかを判断することをを含む。
【0043】
動的症状検出システム150が、空間において症状が予測されることを明らかにした場合、カメラデータが、図5のアーキテクチャ500に示されるように当該症状のソースを監視するために使用されることができる。アーキテクチャ500は、上述した追跡システム170の一部である。ある実施形態では、人追跡(people tracking)のために訓練されるディープラーニングモデルが、ビデオフレーム502に対して特徴抽出を行うために使用される。特徴抽出モデル504は、事前に訓練されたアクティビティ検出モデル(例えば、Kangらによる「Object Detection From Video Tubelets with Convolutional Neural Networks」 In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition(pp.817~825)で述べられるVDETLIB等)で初期化され、限られた訓練サンプルで微調整される(fine-tuned)ことができる。その後、各ビデオフレームから抽出された特徴は、有症者の位置をローカライズする(localize)ためにリカレントニューラルネットワーク(Recurrent Neural Network)506に供給される。リカレントニューラルネットワーク(RNN)では、ノード間の接続が時系列であるため、時間的に動的な挙動を示すことが可能である。RNNモジュール506は互いにリンクされるので、提案されたアーキテクチャ500は、いくつかの連続したフレームのシーケンスにわたって有症者を追跡し、アクションを咳、くしゃみ等として識別することができる。
【0044】
図6に示されるように、照明IoTシステムは、上述したように埋め込みセンサを有することができ、空間内のどのエリアが使用及びナビゲートするのに安全であるか及び空間内のどのエリアが避けられるべき又は注意して近づかれるべきかを空間における他の占有者にシグナリングする(signal)ように構成されることができる。図6のイルミネーションデバイスは、上述した通知システム190の一部である。図6に示されるように、各コネクテッドイルミネーションデバイスは、空間10内の1つ以上の特定のエリアに関連付けられることができる。1つ以上の特定のイルミネーションデバイス602は、空間内の対応するエリアが使用及びナビゲートするのに安全であるかどうかを示すために特定の色又は一連の色を発するようにコントローラ112によって制御されることができる。言い換えれば、追跡システム170で決定される有症者のロケーションに依存して、通知システム190のイルミネーションデバイス602は、空間10内の選択されたエリアを特定の色(例えば、デフォルトの白色、緑色、又は黄色)で照らし、当該エリアが安全である又は症状がない(symptom free)ことを示すことができる。また、通知システム190のイルミネーションデバイス604は、空間10内の選択されたエリアを特定の色(例えば、赤色又はオレンジ色)で照らし、当該エリアが安全でない又は症状がある(not symptom free)ことを示すことができる。イルミネーションデバイス602及び604は、ある実施形態では、空間10内の選択されたエリアを規則的な間隔で照らすように構成されることができる。また、イルミネーションデバイス602及び604は、有症者が動的症状検出システム150で予測され、追跡システム170でローカライズされた場合に空間10内の選択されたエリアを照らすように構成されることができる。他の実施形態では、イルミネーションデバイス602及び604は、(例えば、入ろうとしている又は既に空間内にいるユーザからの)要求に応じて空間内の選択されたエリアを照らすように構成されることができる。例示的な実施形態では、イルミネーションデバイス602及び604によって発せられる色に基づいて、当局及び/又は施設管理者は、例えば、消毒ルーチン又は有症者の退去を実行する等のアクションを取るように促されることができる。光の色の変化は、咳又はくしゃみ等のある望ましくないアクティビティが検出されるエリアを示すので、このような是正措置が、迅速且つ正確に講じられることができる。また、他の占有者は、頭上に赤い光がある空間に入る場合にことさら注意を払うことができる。
【0045】
本明細書述べられるように、照明IoTシステム100のセンサは、任意の適切な有線/ワイヤレスネットワーク通信チャネルを介してプロセッサ124にオーディオデータ、融合オーディオ/カメラデータ、及び/又はカメラデータを送信するように構成される。ある実施形態では、センサデータは、ネットワークを通ることなくコンピュータプロセッサ124に直接送信されることができる。センサデータは、有線/ワイヤレス通信チャネルを介してメモリ122に記憶されることができる。本開示の特定の実施形態は、空間を担当するアドミニストレータのためのアドミニストレータユーザインターフェースとして有用である。本開示の他の特定の実施形態は、空間内の他の占有者のために有用である。
【0046】
アドミニストレータ及び/又は他の占有者のための実施形態において、システム100は、追加的に、通知システム190の一部として任意の適切なデバイス700を含むことができる。適切なデバイス700は、ユーザ入力を受ける、並びに、ソフトウェアアプリケーション又はプラットフォームの形態のコンピュータプログラムプロダクトを実行及び表示することが可能である。デバイス700は、任意の適切なデバイス、例えば、モバイルハンドヘルドデバイス、例えば、モバイルフォン、パーソナルコンピュータ、ラップトップ、タブレット、又は任意の適切な代替物であることができる。ソフトウェアアプリケーションは、本明細書で述べられるようにアドミニストレータにとって有用な情報を受ける及び/又は表示するように構成されるユーザインターフェース(UI:User Interface)を含むことができる。一例では、ソフトウェアアプリケーションは、アドミニストレータが、空間10において動的症状検出システム150で検出され、追跡システム170でローカライズされた有症者のロケーションを可視化することを可能にするオンラインアプリケーションである。デバイス700は、入力702と、プロセッサ706を有するコントローラ704と、オペレーティングシステム、並びにセンサデータ及び/又はCNNモデルからの出力データ、及び/又は追跡システム170からの出力を記憶することができるメモリ708とを含む。プロセッサ706は、入力702を介して本明細書で述べられる追跡システム170からの出力を受けるように構成される。追跡システム170からの出力は、メモリ708に記憶されることができる。ある実施形態では、デバイス700はまた、任意のインターネットオブシングス(Internet of Things)システムを介してセンサ信号/データ捕捉システム100内のセンサデータを送信するために使用されることができる。デバイス700はまた、ACパワーであることができる、又は充電式バッテリからのバッテリパワーであることができるパワーソース710を含むことができる。デバイスはまた、コントローラ122のワイヤレストランシーバと通信する及び/又はコントローラ122のワイヤレストランシーバにデータを送信するように構成及び/又はプログラムされる接続モジュール712を含むことができる。ある実施形態では、接続モジュールは、インターネット又はイントラネットを通じてWi-Fi(登録商標)接続を介してメモリ122、プロセッサ124、又は他のロケーションと通信することができる。代替的に、接続モジュールは、Bluetooth(登録商標)又は他のワイヤレス接続を介してローカルデバイス(例えば、別個のコンピューティングデバイス)、メモリ122、又は他のトランシーバと通信してもよい。例えば、接続モジュールは、記憶のため又は他のユーザとデータを共有するために別個のデータベースにデータを送信することができる。ある実施形態では、アドミニストレータは、有症者のロケーションを確認する(verify)ことができ、コントローラ122に本明細書で述べられるようにイルミネーションデバイス102を制御させる(例えば、特定のエリアにおいて色を変更させる)ためにデバイス700を使用することができる。ある実施形態では、アドミニストレータは、適切なクリーニングプロトコルが完了した後、デフォルト設定(例えば、デフォルト色)を表示するようにコントローラ122にイルミネーションデバイス102を制御させることができる。
【0047】
アドミニストレータのための実施形態において、デバイス700は、プロセッサ706に関連するUIを含む。空間10のフロアプラン情報は、図8に示されるようにUIを介してアドミニストレータによって提供されることができる。フロアプラン情報は、デバイス700にアップロードされる画像として具現化されることができる。代替的な実施形態では、フロアプラン情報は、システムバス又は任意の適切な代替物を介してメモリ708から取得されることができる。UIは、アドミニストレータユーザとの通信を可能にするための1つ以上のデバイス又はソフトウェアを含んでもよい。デバイスは、タッチスクリーン、キーパッド、タッチセンシティブ及び/又は物理ボタン、スイッチ、キーボード、ノブ、レバー、ディスプレイ、スピーカ、マイクロフォン、1つ以上のインジケータライト、可聴アラーム、プリンタ、及び/又は他の適切なインターフェースデバイスを含むことができる。ユーザインターフェースは、情報が伝達及び/又は受けられることを可能にする任意のデバイス又はシステムであることができ、情報の入力及び/又は選択を受けるように構成されるビュー及び/又はフィールドをアドミニストレータユーザに提示するように構成されるグラフィックディスプレイを含んでもよい。例えば、図8及び図9に示されるように、アドミニストレータユーザは、フレームワークの初期コンフィギュレーション及びインストールのためにUIを使用することができる。図示されるように、UIは、空間10のフロアプラン情報、センサロケーション、及びデフォルトパラメータを設定するための機能性を提供することができる。初期コンフィギュレーションは、ある実施形態では、空間10において実行される。UIは、システムの1つ以上のコンポーネント(例えば、プロセッサ706)内に位置してもよく、又は、システム100からリモートに位置し、有線/ワイヤレス通信チャネルを介してシステムと通信してもよい。図9では、アドミニストレータは、UIを介して空間10のフロアプラン内のセンサSの位置情報を入力することができる。代替的な実施形態では、センサSの位置情報は、メモリ708又はメモリ122から取得されることができる。図10に示されるように、通知システム190の通知は、UIを介してアドミニストレータに表示されることができる。ある実施形態において、図10に描かれる各「X」は、動的症状検出システム150で検出され、追跡システム170でローカライズされた有症者を示す。図10に示されるUIを使用して、アドミニストレータは、あらゆる潜在的な感染移動(potential infection transfer)のロケーションを可視化する(visualize)ことができ、これらのエリアで必要な消毒プロトコルを実施することができる。
【0048】
空間10の他の占有者のための実施形態において、デバイス700のUIは、空間の他の占有者が本明細書で述べられるシステムとインタラクトする(interact)ことができるように構成されることができる。図11に示されるように、顧客/ユーザは、上述したようなフロアプラン情報及びセンサ情報を持つ空間10に入る場合、他の占有者(occupant)及び症状検出予測を可視化するためにデバイス700のUIを利用することができる。さらに、顧客/ユーザは、各症状検出予測に関連する信頼値を可視化することもできる。図11に示されるように、別の占有者が、空間10において、上述した動的症状検出システムを用いて該占有者から症状が発せられたことが検出されたという表記(notation)とともに見ることができる(visible)。また、表記には、上述した動的症状検出システムからの症状検出予測に関連する信頼値(例えば、90%)が含まれる。
【0049】
ある実施形態では、図11のUIとインタラクトする占有者は、自身の許容レベルを入力する及び/又は自身の許容レベルを変更することができる。許容レベルは、健康又は免疫の自身の知覚レベルに直接関連することができる。図11に示されるように、ユーザは、0~100の範囲のうち75の許容レベル(tolerance level)を入力している。許容レベルは、図11に示されるように数値であることができ、又はパーセント値若しくはある範囲の値であってもよいことを理解されたい。ある実施形態では、許容レベルはまた、ユーザの許容又は快適レベルを示す順序尺度等の非数値尺度であってもよい。ユーザが0~100の範囲のうち0の許容レベルを入力する場合、ユーザは、潜在的な感染移動のいかなる量に対しても許容がないことを意味する。ユーザが0の許容レベルを入力する場合、UIは、信頼レベルに関係なく、予測された症状のソースであると見なされるすべての占有者を表示することになる。ユーザが0~100の範囲のうち100の許容レベルを入力する場合、ユーザは、潜在的な感染移動のいかなる量も許容することができる(tolerate)ことを意味する。ユーザが100の許容レベルを入力する場合、UIは、信頼レベルに関係なく、予測された症状のソースであると見なされるすべての占有者を表示しないことになる。
【0050】
ある実施形態では、図11のUIは、症状予測に関連する信頼値がユーザの許容レベル以上である場合、予測された症状のソースであると見なされる占有者を表示するように構成される。許容レベルは、1対1の関係で信頼値に関連付けられることができる。斯くして、例示的な実施形態では、50の許容レベルは、50%の信頼レベルに対応し、65の許容レベルは、65%の信頼レベルに対応し、等々である。例示的な実施形態では、1~10の範囲のうちの5の許容レベルは、0~100%の範囲内の50~59%の信頼レベルに対応する。斯くして、単一の許容レベルは、複数の信頼レベルに対応することができる。例示的な実施形態では、許容範囲が提供されることができ(例えば、50~75)、斯かる範囲は、0~100%の範囲内の50~75%の信頼レベル、又は信頼値範囲がより小さい、例えば、0~60である場合、30~45に対応することができる。斯くして、許容値範囲は、信頼値範囲と等しくなることができ、又は許容値範囲は、信頼値範囲より小さく若しくは大きくなることができる。
【0051】
図11では、空間における占有者が、予測された症状に関連する信頼値が90%であり、90%はユーザの許容レベル75を超えているので、該占有者は予測された症状のソースであるという表記でユーザに表示される。2人の占有者がUIを介して空間に表示され、両方の占有者が予測された症状のソースであると見なされる場合、値がユーザの許容レベル以上である限り、両方とも、症状予測に関連する同じ又は異なる信頼値で表示されることができる。例えば、一方の表記は、他方の表記に関連する信頼値よりも高い信頼値を有することができる。2つの信頼値の一方が75%であり、他方が95%である場合、ユーザは、信頼値75%のエリアが、信頼値95%のエリアよりもリスクが低いと決断することができる。また、ユーザは、信頼値95%のエリアを避けることを決断することができる。ある実施形態では、UIはまた、潜在的な感染移動に対して脆弱なエリアを避ける最適なルートをユーザに表示するように構成されることもできる。
【0052】
図12を参照すると、空間において1つ以上の感染症状を示す1人以上の人を識別するための方法1000が提供される。方法は、ステップ1002において、顧客/ユーザが、空間における他の占有者に関するセンサ信号を捕捉するように構成される複数のコネクテッドセンサを有する空間に入る場合に開始される。顧客/ユーザは、本明細書で述べられるシステム1とインタラクトするように構成されるモバイルデバイスをもって空間に入る。
【0053】
方法のステップ1004において、顧客/ユーザは、空間における他の占有者が感染症状を示しているかどうかを決定するように構成されるプロセッサを有するシステム(例えば、システム1)から感染症状存在情報(infectious symptom presence information)を要求する。システムは、上述した少なくとも1つの畳み込みニューラルネットワーク(CNN)モデル及びコネクテッドセンサからの捕捉されたセンサ信号に少なくとも部分的に基づいて空間における他の占有者が症状を示しているかどうかを検出するように構成される。第1、第2、及び第3のCNNモデルのうちの少なくとも1つのCNNモデルは、第1のCNNモデルの出力に関連する信頼値に基づいて選択される。
【0054】
方法のステップ1006において、顧客/ユーザは、自身が携帯しているモバイルデバイスに関連するUIを使用して第1のユーザ許容レベルを入力する。
【0055】
方法のステップ1008において、顧客/ユーザは、ユーザのモバイルデバイスのUIによって、空間における占有者の少なくとも1人が感染症状を示しているというインディケーションを受ける。インディケーションは、第1のユーザ許容レベルに従って選択される少なくとも1つのCNNモデルからの関連する信頼レベルに基づく。
【0056】
方法のステップ1010において、顧客/ユーザは、ユーザのモバイルデバイスのUIによって、空間において1つ以上の感染症状を示すものとして検出された1人以上の人のロケーションを受ける。
【0057】
方法のステップ1012において、少なくとも1つの光効果が、空間において1つ以上の感染症状を示すものとして検出された1人以上の人のロケーションを他者に通知するためにシステム1のプロセッサと通信するイルミネーションデバイスによって提供される。
【0058】
方法のステップ1014において、顧客/ユーザは、ユーザのモバイルデバイスのUIによって、空間において1つ以上の感染症状を示す1人以上の人のロケーションを避ける空間内の少なくとも1つのルートを受ける。
【0059】
有利なことに、本明細書で述べられるシステム及び方法は、マイクロフォン及びカメラ等のコネクテッドセンサ及び動的症状検出システムを利用することにより有症者の改善されたローカライズ及び追跡を提供する。動的症状検出システムは、信頼値によって選択される畳み込みニューラルネットワーク(CNN)モデルを利用する。異なるCNNは、マイクロフォン信号、カメラデータ、又はマイクロフォン及びカメラ信号の融合で訓練される。CNNは、少ない訓練サンプルしか必要としないように訓練されるため、十分に大きな訓練データを有さない新しい症状にも迅速に適応されることができる。症状のインスタンス(instance)が検出され次第、有症者は、リカレントニューラルネットワークと共に人を追跡するために訓練されたCNNモデルを使用して追跡されることができる。通知が、適切なアクションを取るためにプロパティマネージャ又はアドミニストレータに送られることができる。また、通知は、有症者と空間を共有している人々にも送られることができる。
【0060】
また、そうではないことが明確に示されない限り、2つ以上のステップ又は行為を含む、本明細書で特許請求されるいずれの方法においても、その方法のステップ又は行為の順序は、必ずしも、その方法のステップ又は行為が列挙されている順序に限定されるものではないことも理解されるべきである。
【0061】
本明細書で定義及び使用されるような、全ての定義は、辞書定義、参照により組み込まれる文書中での定義、及び/又は定義される用語の通常の意味を支配するように理解されるべきである。
【0062】
不定冠詞「a」及び「an」は、本明細書及び請求項において使用されるとき、そうではないことが明確に示されない限り、「少なくとも1つ」を意味するように理解されるべきである。
【0063】
語句「及び/又は」は、本明細書及び請求項において使用されるとき、そのように結合されている要素の「いずれか又は双方」、すなわち、一部の場合には接続的に存在し、他の場合には離接的に存在する要素を意味するように理解されるべきである。「及び/又は」で列挙されている複数の要素は、同じ方式で、すなわち、そのように結合されている要素のうちの「1つ以上」として解釈されるべきである。「及び/又は」の節によって具体的に特定されている要素以外の他の要素は、具体的に特定されているそれらの要素に関連するか又は関連しないかにかかわらず、オプションとして存在してもよい。
【0064】
本明細書及び請求項において使用されるとき、「又は」は、上記で定義されたような「及び/又は」と同じ意味を有するように理解されるべきである。例えば、リスト内の項目を分離する際、「又は」又は「及び/又は」は、包括的であるとして、すなわち、少なくとも1つを含むが、また、いくつかの要素又は要素のリストのうちの2つ以上を、オプションとして、列挙されていない追加項目も含むとして解釈されるものとする。その反対が明確に示される、「~のうちの1つのみ」若しくは「~のうちの厳密に1つ」、又は請求項で使用される場合の「~から成る」等の用語のみが、いくつかの要素又は要素のリストのうちの厳密に1つを含むことに言及する。一般に、用語「又は」は、本明細書で使用されるとき、「~のいずれか」、「~のうちの1つ」、「~のうちの1つのみ」、又は「~のうちの厳密に1つ」等の、排他性の用語に先行する場合にのみ、排他的選択肢(すなわち、「一方又は他方であるが、双方ではない」)を示すとして解釈されるものとする。
【0065】
本明細書及び請求項において使用されるとき、1つ以上の要素のリストを参照する語句「少なくとも1つ」は、その要素のリスト内の要素の任意の1つ以上から選択された、少なくとも1つを意味するが、必ずしも、その要素のリスト内で具体的に列挙されているそれぞれの要素のうちの、少なくとも1つを含むものではなく、その要素のリスト内の要素の、任意の組み合わせを排除するものではないことが理解されるべきである。この定義はまた、語句「少なくとも1つ」が言及する、その要素のリスト内で具体的に特定されている要素以外の要素が、具体的に特定されているそれらの要素に関連するか又は関連しないかにかかわらず、オプションとして存在してもよいことも可能にする。
【0066】
特許請求の範囲においても上記明細書においても、「備える」、「含む」、「担持する」、「有する」、「含有する」、「関与する」、「保持する」、「~で構成される」等のすべての移行句は、非制限的、すなわち、含むがそれに限定されないことを意味すると理解されるべきである。「~からなる」及び「本質的に~からなる」といった移行句のみが、それぞれ、クローズド(closed)又は半クローズド(semi-closed)移行句である。
【0067】
いくつかの発明実施形態が、本明細書で説明及び図示されてきたが、当業者は、本明細書で説明される機能を実行するための、並びに/あるいは、その結果及び/又は利点のうちの1つ以上を得るための、様々な他の手段及び/又は構造体を、容易に構想することとなり、そのような変形態様及び/又は修正態様は、本明細書で説明される発明実施形態の範囲内にあるものと見なされる。より一般的には、本明細書で説明される全てのパラメータ、寸法、材料、及び構成は、例示であることが意図されており、実際のパラメータ、寸法、材料、及び/又は構成は、本発明の教示が使用される特定の用途に応じて変化することを、当業者は容易に理解するであろう。当業者は、通常の実験のみを使用して、本明細書で説明される特定の発明実施形態に対する、多くの等価物を認識し、又は確認することが可能であろう。それゆえ、上述の実施形態は、例としてのみ提示されており、添付の請求項及びその等価物の範囲内で、具体的に説明及び特許請求されるもの以外の発明実施形態が実践されてもよい点を理解されたい。本開示の発明実施形態は、本明細書で説明される、それぞれの個別の特徴、システム、物品、材料、キット、及び/又は方法を対象とする。更には、2つ以上のそのような特徴、システム、物品、材料、キット、及び/又は方法の任意の組み合わせは、そのような特徴、システム、物品、材料、キット、及び/又は方法が相互に矛盾しない場合であれば、本開示の発明の範囲内に含まれる。
図1
図1A
図2
図3
図4
図4A
図5
図6
図7
図8
図9
図10
図11
図12