IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 清水建設株式会社の特許一覧

<>
  • 特許-人物関係抽出システム 図1
  • 特許-人物関係抽出システム 図2
  • 特許-人物関係抽出システム 図3
  • 特許-人物関係抽出システム 図4
  • 特許-人物関係抽出システム 図5
  • 特許-人物関係抽出システム 図6
  • 特許-人物関係抽出システム 図7
  • 特許-人物関係抽出システム 図8
  • 特許-人物関係抽出システム 図9
  • 特許-人物関係抽出システム 図10
  • 特許-人物関係抽出システム 図11
  • 特許-人物関係抽出システム 図12
  • 特許-人物関係抽出システム 図13
  • 特許-人物関係抽出システム 図14
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2022-07-19
(45)【発行日】2022-07-27
(54)【発明の名称】人物関係抽出システム
(51)【国際特許分類】
   G06Q 10/06 20120101AFI20220720BHJP
【FI】
G06Q10/06
【請求項の数】 4
(21)【出願番号】P 2018083199
(22)【出願日】2018-04-24
(65)【公開番号】P2019191878
(43)【公開日】2019-10-31
【審査請求日】2021-02-09
(73)【特許権者】
【識別番号】000002299
【氏名又は名称】清水建設株式会社
(74)【代理人】
【識別番号】100139114
【弁理士】
【氏名又は名称】田中 貞嗣
(74)【代理人】
【識別番号】100139103
【弁理士】
【氏名又は名称】小山 卓志
(74)【代理人】
【識別番号】100119220
【氏名又は名称】片寄 武彦
(74)【代理人】
【識別番号】100088041
【氏名又は名称】阿部 龍吉
(72)【発明者】
【氏名】鵜山 尚大
(72)【発明者】
【氏名】増田 崇
(72)【発明者】
【氏名】松尾 隆士
(72)【発明者】
【氏名】宮下 裕貴
【審査官】後藤 昂彦
(56)【参考文献】
【文献】特開2010-021700(JP,A)
【文献】特開2009-098967(JP,A)
【文献】特許第6300131(JP,B1)
【文献】特開2014-083658(JP,A)
【文献】特開2010-266722(JP,A)
【文献】特開2010-217939(JP,A)
【文献】国際公開第2014/038014(WO,A1)
(58)【調査した分野】(Int.Cl.,DB名)
G06Q 10/00-99/00
(57)【特許請求の範囲】
【請求項1】
複数の区画に分割された空間のそれぞれで会話が発生したか否かを認識し、会話を行った人を特定することで、人と人との関係性を抽出する人物関係抽出システムにおいて、
それぞれの区画で集音された音に音声が含まれるか否かを判定する音声判定部と、
それぞれの区画周辺で複数の人が存在するとき、複数の人の特定を行う人物特定部と、
前記音声判定部において、ある区画で集音された音に音声が含まれると判定され、かつ、前記人物特定部において、当該区画周辺で複数の人が特定されると判定されると、当該区画で会話が特定された人同士で発生したものと認識して記録を行う記録部と、
前記記録部の記録を積算することで、人と人との関係を抽出して可視化する可視化部と、を有し、
前記音声判定部は、集音された音に基づいて、設定された時間間隔帯におけるA特性等価音圧レベルと、中心周波数500Hzのオクターブバンド等価音圧レベルとを算出し、中心周波数500Hzのオクターブバンド等価音圧レベルからA特性等価音圧レベルを引いた差分が予め設定された閾値以上である場合、集音された音に、音声が含まれていると判定することを特徴とする人物関係抽出システム。
【請求項2】
複数の区画毎の属性を記憶する区画属性テーブルを有し、
前記可視化部は、人と人との関係を抽出して区画の属性毎に可視化することを特徴とする請求項1に記載の人物関係抽出システム。
【請求項3】
前記人物特定部が、カメラで取得された画像を解析することで、ある区画周辺で複数の人を特定することを特徴とする請求項1又は請求項2に記載の人物関係抽出システム。
【請求項4】
前記人物特定部が、RFIDタグを利用することで、ある区画周辺で複数の人を特定することを特徴とする請求項1又は請求項2に記載の人物関係抽出システム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、例えば、オフィス内において会話が発生したか否かを認識し、会話を行った人を特定し記録していくことで、人と人との関係性を抽出する人物関係抽出システムに関する。
【背景技術】
【0002】
建物空間内で発生する会話は人々のコミュニケーション量や知的生産性を測る指標として重要である。ある空間内に人が居るかコミュニケーションが活発に行われているかを判定する手段として、音声を検知することは有効な方法である。このような音声検知方法が確立されていれば、例えば、オフィス内のコミュニケーション活性度の計測を行ったり、或いは、公共施設などの交流ペースの活用度を計測したり、といったことが可能となる。
【0003】
業務に適したオフィス環境が提供されているかを知る尺度として、例えば、特許文献1(特開2016-115003号公報)には、複数の種類の業務が各ユーザによってそれぞれ遂行されるように構成される施設におけるオフィス活動を分析するオフィス活動分析システムにおいて、対話などによる現場の音をセンサーであるマイクによって集音して、マイクで集音した音の音圧レベルがある値を超える場合や音圧レベルが変動する場合に会話が行われていると判断する技術が開示されている。
【文献】特開2016-115003号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
しかしながら、特許文献1記載のような従来技術においては、会話の発生量などは認識できるが、人物間の関係の構造や、人物間のつながりの強さなどの関係性については把握することができない、といった問題があった。
【0005】
例えば、ある組織においてコミュニケーション量や人物間のつながりの強さなどの関係構造を知ることは、集団の知的生産性を向上するための基本的かつ重要な情報であるが、上記従来技術では、これを行うことができなかった。
【課題を解決するための手段】
【0006】
この発明は、上記のような課題を解決するものであって、本発明に係る人物関係抽出システムは、複数の区画に分割された空間のそれぞれで会話が発生したか否かを認識し、会話を行った人を特定することで、人と人との関係性を抽出する人物関係抽出システムにおいて、それぞれの区画で集音された音に音声が含まれるか否かを判定する音声判定部と、それぞれの区画周辺で複数の人が存在するとき、複数の人の特定を行う人物特定部と、前記音声判定部において、ある区画で集音された音に音声が含まれると判定され、かつ、前記人物特定部において、当該区画周辺で複数の人が特定されると判定されると、当該区画で会話が特定された人同士で発生したものと認識して記録を行う記録部と、前記記録部の記録を積算することで、人と人との関係を抽出して可視化する可視化部と、を有し、前記音声判定部は、集音された音に基づいて、設定された時間間隔帯におけるA特性等価音圧レベルと、中心周波数500Hzのオクターブバンド等価音圧レベルとを算出し、中心周波数500Hzのオクターブバンド等価音圧レベルからA特性等価音圧レベルを引いた差分が予め設定された閾値以上である場合、集音された音に、音声が含まれていると判定することを特徴とする。
【0007】
また、本発明に係る人物関係抽出システムは、複数の区画毎の属性を記憶する区画属性テーブルを有し、前記可視化部は、人と人との関係を抽出して区画の属性毎に可視化することを特徴とする。
【0008】
また、本発明に係る人物関係抽出システムは、前記人物特定部が、カメラで取得された画像を解析することで、ある区画周辺で複数の人を特定することを特徴とする。
【0009】
また、本発明に係る人物関係抽出システムは、前記人物特定部が、RFIDタグを利用することで、ある区画周辺で複数の人を特定することを特徴とする。
【発明の効果】
【0010】
本発明に係る人物関係抽出システムは、記録を積算することで、人と人との関係を抽出して可視化する可視化部を有しており、このような本発明に係る人物関係抽出システムによれば、人物間の関係の構造や、人物間のつながりの強さなどの関係性については把握することが可能となり、集団の知的生産性を向上するための基本的かつ重要な情報を知ることができる。
【図面の簡単な説明】
【0011】
図1】本発明の実施形態に係る人物関係抽出システム1のオフィス100への適用例を示す図である。
図2】本発明の実施形態に係る人物関係抽出システム1のブロック図を示す図である。
図3】オフィス100の区画割りの例を示す上面図である。
図4】本発明の実施形態に係る人物関係抽出システム1の設定時間間隔毎の処理アルゴリズムのフローチャートを示す図である。
図5】音声判定サブルーチンのフローチャートを示す図である。
図6】人物特定サブルーチンのフローチャートを示す図である。
図7】着目区画とその周辺の区画とを説明する図である。
図8】本発明の実施形態に係る人物関係抽出システム1による記録例を示す図である。
図9】本発明の実施形態に係る人物関係抽出システム1の可視化処理のフローチャートを示す図である。
図10】本発明の実施形態に係る人物関係抽出システム1による可視化のイメージを示す図である。
図11】本発明の実施形態に係る人物関係抽出システム1によるエリア毎の可視化のイメージを示す図である。
図12】打合スペースにおける会話の有無に応じた音圧レベルの周波数特性を示す図である。
図13】打合スペースにおける会話の有無に応じたLdiffの度数分布を示す図である。
図14】閾値LTの設定値と判定精度の関係を示す図である。
【発明を実施するための形態】
【0012】
以下、本発明の実施の形態を図面を参照しつつ説明する。図1は本発明の実施形態に係る人物関係抽出システム1のオフィス100への適用例を示す図である。また、図2は本発明の実施形態に係る人物関係抽出システム1のブロック図を示す図である。なお、本実施形態では、人物関係抽出システム1をオフィス100に適用する例に基づいて説明を行うが、人物関係抽出システム1の適用先はこれに限定されるものではない。
【0013】
本実施形態に係る人物関係抽出システム1が適用されるオフィス100における床及び天井の間の空間は、点線で示される区画によって仮想的に分割されていることを想定している。図3はオフィス100の区画割りの例を示す上面図である。本実施形態では、4×4の計16の区画によって分割されている例を示すが、本発明において、区画の分割例がこれに限られるものではない。本実施形態においてはそれぞれ区画を、図示するように、第1区画、第2区画、第3区画、・・・・、第15区画、第16区画と称することとする。
【0014】
それぞれの区画の天井においては、当該区画における音を集音するマイクロホン30'、 30' '、 30' ' ' ・・・(図1には不図示)が設けられている。マイクロホン30'、 30' '、 30' ' ' ・・・で集音された音データについては、情報処理装置20に対して有線又は無線によるデータ通信によって送信される。
【0015】
例えば、情報処理装置20としては、CPUなどの演算を実行する演算部、表示や入力を行うインターフェイス部、有線又は無線によるデータ通信を行う通信部、データ記録を行うHDD、SSDなどの記憶部等、を有するパーソナルコンピューターなどの汎用のものを用いることができる。なお、情報処理装置20としては、パーソナルコンピューターに限らず、タブレット型端末などの他のものを用いるようにしてもよい。
【0016】
このような情報処理装置20には、各マイクロホン30'、 30' '、 30' ' ' ・・・で集音された音データが入力され、情報処理装置20ではそれぞれの音データの解析が行われ、当該音データに音声が含まれているか否かが判定される。
【0017】
また、オフィス100の壁面には、オフィス100内の空間を全的的に撮像することが可能なカメラ60、60’が取り付けられている。カメラ60、60’で撮像された画像データは、情報処理装置20に対して有線又は無線によるデータ通信によって送信される。情報処理装置20では、カメラ60から送信された画像データの画像解析が行われ、人が存在するか否かが判定される。
【0018】
情報処理装置20の記憶部においては予め登録されるデータとして、区画属性テーブル22及び人物データベース23を有している。区画属性テーブル22は、区画と、当該区画の属性を対応付けて記憶しているテーブルである。ここで、属性には少なくとも「執務エリア」、「打ち合わせエリア」、「リフレッシュエリア」の属性が含まれている。図3を例に取ると、区画属性テーブル22には、第9区画乃至第16区画は「執務エリア」の属性を有していること、第1区画、第2区画、第5区画、第6区画は「打ち合わせエリア」の属性を有していること、第3区画、第4区画、第7区画、第8区画は「リフレッシュエリア」の属性を有していることが記憶されている。
【0019】
情報処理装置20の記憶部に登録されている人物データベース23には、オフィス100で職務を行う可能性がある人物に関するデータが登録されている。本実施形態では、カメラ60、60’で撮像された画像データを画像解析することによって人物の特定を行うので、人物データベース23には少なくとも、各人物の顔画像データが記録されている。図1のオフィス100に示す例では、人物A乃至Lに顔画像データが人物データベース23に記録されている。なお、人物データベース23には、人物に係るその他のデータ(名前データ、IDデータ等)を記録するようにしておくこともできる。
【0020】
以上のように構成される本発明に係る人物関係抽出システム1がオフィス100内における会話を認識し、人物を特定し、その記録をしていく処理について図4を参照して説明する。図4は本発明の実施形態に係る人物関係抽出システム1の設定時間間隔毎の処理アルゴリズムのフローチャートを示す図である。
【0021】
また、図4に示すフローチャートは、予め設定された時間間隔幅(タイムスロット)1つに対する処理を示すものであり、設定時間より長い時間にわたって会話認識・会話発生記録を行う場合、図4に示すフローチャートが複数回繰り返して実行されることとなる。
【0022】
図4において、ステップS100で、会話認識・人物特定・記録のための処理が開始されると、続くステップS101では、音声判定のサブルーチンが実行される。ここで、図5を参照して音声判定のサブルーチンを説明する。
【0023】
図5に示すフローチャートにおいて、ステップS200で処理が開始されると、続いてステップS201に進み、第N区画として、第1区画がセットされる。ここで、Nは1ずつインクリメントされる変数である。
【0024】
続いて、ステップS202に進み、マイクロホン30によって取得された音データのうち、第N区画における設定時間間隔幅の音データを取得する。
【0025】
ステップS203では、取得された集音データに対して設定された時間間隔幅の中心周波数500Hzのオクターブバンド等価音圧レベル(L500eq)を算出する。
【0026】
ここで、本明細書においては、予め設定された時間間隔幅(タイムスロット)における中心周波数500Hzのオクターブバンド等価音圧レベルをL500eqといい、A特性等価音圧レベルをLAeqという。
【0027】
次のステップS204では、音データに対して、A特性重み付け補正を実行する。このようなA特性重み付け補正については、周知の方法によって実行され得るものである。
【0028】
ステップS205では、ステップS203でA特性重み付け補正された集音データに対して設定時間間隔幅のA特性等価音圧レベル(LAeq)を算出する。
【0029】
続いて、情報処理装置20がA特性等価音圧レベル(LAeq)と中心周波数500Hzのオクターブバンド等価音圧レベル(L500eq)を受信すると、ステップS206では、
diff=L500eq-LAeq (1)
の演算が実行され、ステップS206では、
diff≧ LT (2)
の真否が判定される。
【0030】
ステップS207の判定結果がYESであるときには、ステップS208に進み、当該時間間隔幅における検知結果は「音声検知」とし、ステップS210で第N区画では「音声検知」の結果を履歴として記録する。
【0031】
一方、ステップS207の判定結果がNOであるときには、ステップS209に進み、当該時間間隔幅における検知結果は「音声非検知」とし、ステップS210で第N区画では「音声非検知」の結果を履歴として記録する。
【0032】
ステップS211では、全区画が終了したか否か(本例では、N=16であるか否か)が判定される。ステップS211の判定結果がNOであれば、ステップS212に進み、Nを「1」インクリメントして、次の区画に進み、ステップS202に進む。一方、ステップS211の判定結果がYESであれば、ステップS213に進み、元のメインルーチンにリターンする。
【0033】
元のメインルーチンでは、続いて、ステップS102に進み、人物特定サブルーチンが実行される。ここで、図6を参照して人物特定サブルーチンを説明する。
【0034】
図6に示すフローチャートにおいて、ステップS300において、人物特定サブルーチンが開始されると、ステップS301に進み、予め設定された時間間隔幅(タイムスロット)におけるカメラ60による撮像データを取得し、ステップS302で、取得された撮像データの画像解析を実行する。
【0035】
ステップS303では、第N区画として、第1区画がセットされる。ここで、Nは1ずつインクリメントされる変数である。
【0036】
次のステップS304では、撮像データの画像解析結果に基づいて、着目する第N区画とその回りの区画で複数人の画像を認識したか否かを判定する。ここで、図7には、着目区画とその周辺の区画とが図示されている。図7において、アンダーバーが付された数字が、区画の序数を示している。例えば、図7に示すように、着目する区画が第6区画であるものとすると、その周辺の区画とは、点線が通過する第1区画、第2区画、第3区画、第5区画、第7区画、第9区画、第10区画、第11区画が該当する。
【0037】
ステップS304の判定結果がYESであるときには、ステップS305に進み、当該時間間隔幅における検知結果は「複数人検知」とし、さらに続くステップS306では、カメラ60、60’で撮像された画像データと、人物データベース23とに基づいて人物を特定し、ステップS308で第N区画では「複数人検知」の結果と、特定された人物を履歴として記録する。
【0038】
一方、ステップS304の判定結果がNOであるときには、ステップS307に進み、当該時間間隔幅における検知結果は「複数人非検知」とし、ステップS308で第N区画では「複数人非検知」の結果を履歴として記録する。
【0039】
ステップS309では、全区画が終了したか否か(本例では、N=16であるか否か)が判定される。ステップS309の判定結果がNOであれば、ステップS310に進み、Nを「1」インクリメントして、次の区画に進み、ステップS304に進む。一方、ステップS309の判定結果がYESであれば、ステップS311に進み、元のメインルーチンにリターンする。
【0040】
なお、本実施形態では、人物特定に係る技術には、カメラによって撮像された画像データを画像解析することによって行う構成が採用されているが、人物特定においてはその他の技術を用いることもできる。例えば、人物特定に係る技術には、RFIDタグを利用することで、ある区画周辺で複数の人が存在するか否かを判定するようにしてもよいし、また、人感センサーを利用することで、ある区画周辺で複数の人が存在するか否かを判定するようにしてもよい。さらに、人物特定に係る技術には、赤外線センサー、振動センサー、CO2センサーなどを応用するようにしてもよい。
【0041】
さて、図4のメインルーチンに戻り、続いて、ステップS103では、第N区画として、第1区画がセットされる。ここで、Nは1ずつインクリメントされる変数である。
【0042】
ステップS104においては、音声判定サブルーチンの結果により、第N区画で「音声検知」であったか否かが判定される。判定結果がNOであれば、ステップS107に進み、第N区画=(会話非発生)として記録が残される。判定結果がYESであれば、続いて、ステップS105に進む。
【0043】
ステップS105においては、人物特定サブルーチンの結果により、第N区画で「複数人検知」であったか否かが判定される。判定結果がNOであれば、ステップS107に進み、第N区画=(会話非発生)として記録が残される。判定結果がYESであれば、続いて、ステップS106に進み、第N区画=(会話発生)、会話を行ったとして特定された人物の記録が残される。
【0044】
ステップS108では、全区画が終了したか否か(本例では、N=16であるか否か)が判定される。ステップS108の判定結果がNOであれば、ステップS109に進み、Nを「1」インクリメントして、次の区画に進み、ステップS104に進む。一方、ステップS108の判定結果がYESであれば、ステップS110に進み、処理を終了する。
【0045】
以上のような本発明に係る人物関係抽出システム1で記録される履歴について説明する。図8は本発明の実施形態に係る人物関係抽出システム1による記録例を示す図である。図8(A)は会話の発生・非発生の記録例であり、図8(B)は会話を行ったものとして特定された人物の記録例である。
【0046】
図8(A)に示す例では、設定された時間間隔幅(タイムスロット)が30秒間であり、当該時間間隔幅においてそれぞれの区画で、会話が発生したのか(「会話発生」記録)、或いは、会話が発生しなかったのか(「会話非発生」記録)についての履歴が残される。例えば、10:30:00~10:30:30での時間間隔区幅では、第1区画=(会話発生)、第2区画=(会話発生)、第3区画=(会話非発生)、第4区画=(会話発生)、・・・・第16区画=(会話非発生)のような履歴が取得される。
【0047】
図8(B)に示す例では、設定された時間間隔幅(タイムスロット)が30秒間であり、当該時間間隔幅においてそれぞれの区画で、どの人物間で会話が行われたかについての履歴が残される。例えば、10:30:00~10:30:30での時間間隔区幅では、第1区画=(人物B-人物C)、第2区画=(人物C-人物D)、第3区画=(なし)、第4区画=(人物F-人物G)、・・・・第16区画=(なし)のような履歴が取得される。
【0048】
上記のような本発明に係る人物関係抽出システム1では、図1のコミュニケーションを行っている区画については、(会話発生)の履歴、特定された人物の履歴が取得されるが、一方で、図1の人物Lが電話対応のみを行っているようなケースでは、(会話非発生)のような履歴が取得される。このように本発明に係る人物関係抽出システム1では、空間内における実際の会話を高い確度で認識し、それと共に会話を行った人物について記録を残すことが可能となる。
【0049】
以上のように取得された履歴・記録に基づいて、本発明に係る人物関係抽出システム1で実行される、人と人との関係を抽出して可視化する処理について説明する。
【0050】
図9は本発明の実施形態に係る人物関係抽出システム1の可視化処理のフローチャートを示す図である。
【0051】
ステップS400で、可視化処理が開始されると、続いてステップS401では、情報処理装置20のディスプレイ(不図示)などを通じて、ユーザーに対して可視化を所望する期間の入力を促す。
【0052】
これに対してユーザーは、ステップSuで情報処理装置20に対して期間の入力を行い、情報処理装置20側は、ステップS402で、可視化する期間を取得する。
【0053】
ステップS403では、当該期間の履歴を取得する。取得する履歴は、図8(B)に示すものであり、どの時間間隔幅(タイムスロット)で、どの区画で、どの人物間で会話がなされたかが記述されたものである。
【0054】
ステップS404では、指定された期間について当該履歴を積算する。このような積算により、例えば、人物Aと人物Bとの間で、総計何時間の会話があったかが算出される。
【0055】
ステップS405では、当該積算を可視化する処理を実行する。図10は本発明の実施形態に係る人物関係抽出システム1による可視化のイメージを示す図である。本実施形態では、人物をノードで表し、人物間の関係性をリンクで表すことによって可視化を行っている。リンクの太さは、積算された人物間の会話の総計時間に比例するような可視化を行っている。すなわち、リンクが太いほど、リンクが結ばれたノードで示す人物間の関係性がより深く、強いことを表している。
【0056】
ステップS406では、区画属性テーブル22を取得・参照し、ステップS407では、属性毎に履歴を積算する。「執務エリア」、「打ち合わせエリア」、「リフレッシュエリア」の属性毎における人物間の会話時間の総計時間が積算される。
【0057】
ステップS408では、「執務エリア」、「打ち合わせエリア」、「リフレッシュエリア」毎の可視化する処理を実行する。図11は本発明の実施形態に係る人物関係抽出システム1によるエリア毎の可視化のイメージを示す図である。図11の例でも、人物をノードで表し、人物間の関係性をリンクで表すことによって可視化を行っている。また、リンクの太さが、積算された人物間の会話の総計時間に比例するような可視化を行っている。
【0058】
ステップS409で可視化処理を終了する。
【0059】
以上のように、本発明に係る人物関係抽出システム1は、記録を積算することで、人と人との関係を抽出して可視化する可視化処理(部)を有しており、このような本発明に係る人物関係抽出システム1によれば、人物間の関係の構造や、人物間のつながりの強さなどの関係性については把握することが可能となり、集団の知的生産性を向上するための基本的かつ重要な情報を知ることができる。
【0060】
次に上記のような本発明に係る人物関係抽出システム1における音声検知の判定方法(音声判定のサブルーチン)の技術的根拠を示す。
【0061】
図12に、オフィス内の打合スペースにおいて会話が行われていた場合と会話が行われていない場合の音圧レベルの周波数特性を示す。図12の周波数特性の測定は1分間オクターブバンド等価音圧レベルを連続測定した。全測定サンプルは5622サンプル、その内会話が行われていた場合は1406サンプル、会話が行われていない場合は4216サンプルであった。図12には、打合スペースで会話が行われていた場合と会話が行われていない場合それぞれにおける測定結果の平均値と平均値±標準偏差を示す。なお、各周波数における音圧レベルはA特性により重み付けされた値である。
【0062】
図12からは、等価音圧レベルを測定した1分間に会話が行われている場合、即ち音声が含まれている場合は500Hzオクターブバンド音圧レベルが卓越した周波数特性であることがわかる。一方、会話が行われていない場合、即ち音声が含まれていない場合はこのような特徴は示されていない。以上の測定結果は、音声は500Hzオクターブバンドに主な周波数成分を持つことを示している。
【0063】
逆に言えば、測定した音の周波数特性において500Hzオクターブバンド音圧レベルが卓越している場合、その測定した音には音声が含まれている可能性が高いことを示唆する。
【0064】
ここで、A特性音圧レベルと500Hzオクターブバンド音圧レベルの関係を考える。仮に、測定した音が500Hzオクターブバンドにのみ周波数成分を持つとすると、A特性音圧レベルの定義からその差Ldiffは3.2dBとなる。
【0065】
実際には、音声は500Hzオクターブバンド以外の帯域にも周波数成分を持つため、A特性音圧レベルとLdiffがちょうど3.2dBとなることはないが、Ldiffが3.2dBに近いほど測定した音の500Hzオクターブバンド音圧レベルが卓越していることを意味する。
【0066】
図12に示した測定結果からLdiffを算出し、打合スペースにおいて会話が行われていた場合と会話が行われていない場合それぞれにおけるLdiffの度数分布を図13に示す。
【0067】
図13から、会話が行われている場合は、会話が行われていない場合と比較してLdiffが大きい、即ちLdiffが3.2dBに近いことが示されている。
【0068】
diffから測定した音に音声が含まれていると判定する閾値LTの設定値により、判定精度が変化する。図14に、閾値LTの設定値と判定精度の関係を示す。
【0069】
ここで示した測定例では、閾値LTを-1dBに設定した場合に、会話が行われていること及び会話が行われていないことの判定精度が共に90%程度であった。
【0070】
閾値LTを大きい値に設定すると、測定した音に音声が含まれているにも関わらず音声が含まれていないと誤判定する確率が高くなる。一方で、閾値LTを小さい値に設定すると、測定した音に音声が含まれていないにも関わらず音声が含まれていると誤判定する確率が高くなる。閾値LTは音声以外の周囲の騒音等の影響を加味して設定する必要がある。
【0071】
ここで示した測定例では、1分間の等価音圧レベルを測定しているが、等価音圧レベルの測定時間は1分間に限定されるものではない。等価音圧レベルの測定時間は必要な音声検出頻度により設定するが、一般的には10秒間から10分間程度と設定することが適当である。なお、等価音圧レベルの測定時間を長く設定した場合、測定時間内の短い時間にのみ音声が含まれる場合は音声が含まれないものと判定されることがある。
【0072】
上記のような、技術的な根拠により、本発明に係る人物関係抽出システムは音声検出の判定を行うものであり、原理的にみても、複雑なデータ処理等が不要なことが明白である。
【0073】
このように、本発明に係る人物関係抽出システム1における音声判定は、集音された音に基づいて、設定された時間間隔帯におけるA特性等価音圧レベル(LAeq)と、中心周波数500Hzのオクターブバンド等価音圧レベル(L500eq)とを算出し、中心周波数500Hzのオクターブバンド等価音圧レベル(L500eq)からA特性等価音圧レベル(LAeq)を引いた差分が予め設定された閾値以上である場合、集音された音に音声が含まれていると判定するものであり、このような本発明に係る人物関係抽出システム1の音声判定によれば、音圧レベルの値や変動幅を用いることなく、高い精度で音声の有無を検知することが可能となる。
【0074】
また、本発明に係る人物関係抽出システム1における音声判定は、高度な信号処理技術や人工知能等を用い、音声が含まれているかを判定することではなく、安価で簡便な装置構成で検知を行うものであり、広い空間内や建物内各所の多点で簡便に音声を検知することが可能となる。
【0075】
以上、本発明に係る人物関係抽出システムは、記録を積算することで、人と人との関係を抽出して可視化する可視化部を有しており、このような本発明に係る人物関係抽出システムによれば、人物間の関係の構造や、人物間のつながりの強さなどの関係性については把握することが可能となり、集団の知的生産性を向上するための基本的かつ重要な情報を知ることができる。
【0076】
また、本発明に係る人物関係抽出システムによれば、空間内における人物間の会話発生量に基づき、人物間の関係構造を可視化することができ、これにより人物間のつながりの強さを定量的に評価できる。
【0077】
また、本発明に係る人物関係抽出システムによれば、空間内における人物と会話発生位置、発生量に基づき、人物と会話場所の関係構造を可視化することができる。これにより会話に着目した場合の各人物の行動パターンを定量的に評価したり、執務エリア、打合せエリア、リフレッシュエリアなど、エリア毎の人物関係構造を定量的に評価したりすることができる。
【0078】
また、本発明に係る人物関係抽出システムによれば、空間内における各人物の位置情報の時間履歴と会話発生位置を見ることにより、誰が誰に話しかけに行ったのかなどの有向情報を抽出することもできる。
【0079】
また、本発明に係る人物関係抽出システムによれば、抽出した関係構造は、例えばネットワーク分析に掛けることにより、特定の人物や場所だけではなく、集団の特徴や空間の特徴を明らかにすることができる。
【符号の説明】
【0080】
1・・・人物関係抽出システム
20・・・情報処理装置
22・・・区画属性テーブル
23・・・人物データベース
30・・・マイクロホン
60・・・カメラ
100・・・オフィス
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14