(58)【調査した分野】(Int.Cl.,DB名)
【発明を実施するための形態】
【0015】
以下では、
図1を用いて、本実施形態に係る不快度推定システム30の構成について説明する。
【0016】
不快度推定システム30は、実験設備として設置された部屋10内に存在する人20がどの程度不快であるか(不快度)を推定するものである。不快度推定システム30は、主としてカメラ31、天井照明32、窓照明33、不快度測定ダイヤル34及び制御装置35を具備する。
【0017】
撮像手段としてのカメラ31は、人20の顔を撮像するものである。カメラ31は、着席して所定の作業を行っている人20の正面に配置され、当該人の顔を常時撮像することができる。
【0018】
天井照明32は、部屋10の室内空間の照明器具である。天井照明32は、部屋10の天井であって、人20の上方に配置される。天井照明32による照度は変更可能となるように構成される。
【0019】
窓照明33は、部屋10に設けられた窓を擬似的に再現するための照明器具である。窓照明33は、部屋10の側壁面であって、人20の正面に配置される。窓照明33の輝度は変更可能となるように構成される。窓照明33を発光させることにより、部屋10に設けられた窓から太陽光が差し込む状態を擬似的に再現することができる。
【0020】
不快度測定ダイヤル34は、人20がどの程度不快であるか(不快度)を測定するためのものである。不快度測定ダイヤル34はダイヤル式のスイッチにより構成され、人20の手が届く範囲に配置される。不快度測定ダイヤル34には所定の数値範囲で不快度を表す目盛が付されている。人20は、不快度測定ダイヤル34が指し示す数値(目盛)が、自らが感じた不快の程度に応じた値となるように当該不快度測定ダイヤル34を操作する。
【0021】
制御装置35は、種々の情報に基づいて天井照明32や窓照明33の照度及び輝度を制御したり、所定の演算処理や記憶等を行うものである。制御装置35は、RAMやROM等の記憶部、CPU等の演算処理部等により構成される。
【0022】
制御装置35はカメラ31に接続され、当該カメラ31が撮像した画像データを取得することができる。
制御装置35は天井照明32に接続され、当該天井照明32による照度が任意の照度となるように制御することができる。
制御装置35は窓照明33に接続され、当該窓照明33の輝度が任意の輝度となるように制御することができる。
制御装置35は不快度測定ダイヤル34に接続され、当該不快度測定ダイヤル34が指し示す数値(目盛)を検出することができる。
【0023】
上述の如く構成された不快度推定システム30は、不快表情検出手段、環境情報検出手段及び不快度判断手段を具備する。以下では上記各手段について説明する。
【0024】
前記不快表情検出手段は、部屋10の室内空間に存在する人20が当該室内空間の環境変化の際に発する不快な表情(本実施形態においては、顔しかめ及びまばたき)を検出するものである。
本実施形態に係る不快表情検出手段は、主としてカメラ31及び制御装置35により構成される。
【0025】
さらに、前記不快表情検出手段は、顔しかめ検出手段(顔しかめ検出システム)及びまばたき検出手段を含むものである。
【0026】
前記顔しかめ検出手段(顔しかめ検出システム)は、人20が顔をしかめたか否かを検出するものである。
本実施形態に係る顔しかめ検出手段(顔しかめ検出システム)は、主としてカメラ31(撮像手段)及び制御装置35(後述する顔しかめ判断手段)により構成される。
前記顔しかめ検出手段(顔しかめ検出システム)による人20の顔しかめの検出方法については、後述する。
【0027】
前記まばたき検出手段は、人20がまばたきをしたか否かを検出するものである。
本実施形態に係るまばたき検出手段は、主としてカメラ31及び制御装置35により構成される。
前記まばたき検出手段による人20のまばたきの検出方法については、後述する。
【0028】
前記環境情報検出手段は、部屋10の室内空間の環境変化に関する情報(本実施形態においては、天井照明32から人20に照射される光の照度及び窓照明33の輝度の変化)を検出するものである。
本実施形態に係る環境情報検出手段は、主として天井照明32、窓照明33及び制御装置35により構成される。
【0029】
さらに、前記環境情報検出手段は、照度検出手段及び輝度検出手段を含むものである。
【0030】
前記照度検出手段は、天井照明32から人20に照射される光の照度を検出するものである。
本実施形態に係る照度検出手段は、主として天井照明32及び制御装置35により構成される。
制御装置35は、天井照明32から人20に照射される光の照度が任意の照度となるように自ら制御しているため、別途センサ等を用いるまでもなく当該天井照明32による照度を検出することができる。
【0031】
前記輝度検出手段は、窓照明33の輝度を検出するものである。
本実施形態に係る輝度検出手段は、主として窓照明33及び制御装置35により構成される。
制御装置35は、窓照明33の輝度が任意の輝度となるように自ら制御しているため、別途センサ等を用いるまでもなく当該窓照明33の輝度を検出することができる。
【0032】
前記不快度判断手段は、人20がどの程度不快であるか(不快度)を推定するものである。
本実施形態に係る不快度判断手段は、主として制御装置35により構成される。
前記不快度判断手段による人20の不快度の推定方法については、後述する。
【0033】
以下では、
図2及び
図3を用いて、不快度推定システム30による人20の不快度を推定する方法について説明する。
【0034】
不快度推定システム30が具備する前記不快度判断手段(すなわち、制御装置35)には、
図2に示すように構築されたベイジアンネットワーク(Bayesian Network)が予め記憶され、当該ベイジアンネットワークを利用して人20の不快度が推定される。ベイジアンネットワークとは、複数の変数間の因果関係を非循環有向グラフで表すと共に、個々の変数の関係を条件付き確率で表す確率推論のモデルである。図中の矢印の始点側のノードが原因を、終点側のノードが結果を、それぞれ表している。また、原因が結果に及ぼす影響の度合いは、条件付き確率で定量化される。
【0035】
図2に示すように、本実施形態に係るベイジアンネットワークは、顔しかめ認識頻度ノードN101と、顔しかめ表出頻度ノードN102と、まばたき認識頻度ノードN201と、まばたき表出頻度ノードN202と、照度(天井)変化前ノードN301と、輝度(窓)変化前ノードN401と、照度(天井)変化後ノードN501と、輝度(窓)変化後ノードN601と、不快度ノードN701と、により構築される。
【0036】
本実施形態に係るベイジアンネットワークは、制御装置35によって天井照明32及び窓照明33を制御することで人20に対して複数パターンの照明変化(天井照明32による照度、及び窓照明33の輝度の大きな変化)を与える学習実験の結果に基づいて構築され、当該制御装置35に記憶される。具体的には、当該学習実験に基づいて上記各ノードの確率(事前確率又は条件付き確率)が求められ、制御装置35に記憶される。
【0037】
以下では、本実施形態に係るベイジアンネットワークの各ノードについて説明する。
【0038】
顔しかめ認識頻度ノードN101は、人20の顔しかめの頻度を表すノードである。当該人20の顔しかめ(顔をしかめたか否か)は、前記顔しかめ検出手段(顔しかめ検出システム)により検出される。前記学習実験において、人20が顔をしかめたか否かが前記顔しかめ検出手段により検出されると共に、制御装置35によって当該人20の顔しかめの頻度(顔しかめの周波数)が算出される。当該顔しかめの頻度は複数の数値範囲に分類され、顔しかめの頻度が各数値範囲に含まれる確率(事前確率)が制御装置35に記憶される。
【0039】
顔しかめ表出頻度ノードN102は、実際の人20の顔しかめの頻度を表すノードである。前記学習実験において、実際に人20が顔をしかめたか否かが目視等により確認されると共に、当該実際の人20の顔しかめの頻度(顔しかめの周波数)が算出される。
ここで、前記学習実験においては、例えば
図3に示すように、顔をしかめていない状態の表情(
図3(a))に対して、目Eを細めたり(
図3(b))、眉Bを寄せて目Eを細めたり(
図3(c))、眉Bを寄せて目Eを細め、かつ口Mを横にひいたり(
図3(d))した場合に、人20が顔をしかめたと判断される。
算出された実際の顔しかめの頻度は複数の数値範囲に分類され、顔しかめ認識頻度ノードN101を原因とする当該実際の顔しかめの頻度が各数値範囲に含まれる確率(条件付き確率)が、制御装置35に記憶される。
【0040】
まばたき認識頻度ノードN201は、人20のまばたきの頻度を表すノードである。当該人20のまばたきは、前記まばたき検出手段により検出される。前記学習実験において、人20がまばたきをしたか否かが前記まばたき検出手段により検出されると共に、制御装置35によって当該人20のまばたきの頻度(まばたきの周波数)が算出される。当該まばたきの頻度は複数の数値範囲に分類され、まばたきの頻度が各数値範囲に含まれる確率(事前確率)が制御装置35に記憶される。
【0041】
まばたき表出頻度ノードN202は、実際の人20のまばたきの頻度を表すノードである。前記学習実験において、実際に人20がまばたきをしたか否かが目視等により確認されると共に、当該実際の人20のまばたきの頻度(まばたきの周波数)が算出される。当該実際のまばたきの頻度は複数の数値範囲に分類され、まばたき認識頻度ノードN201を原因とする当該実際のまばたきの頻度が各数値範囲に含まれる確率(条件付き確率)が、制御装置35に記憶される。
【0042】
照度(天井)変化前ノードN301は、天井照明32による照度が大きく変化する前の照度を表すノードである。当該照度は、前記照度検出手段により検出される。前記学習実験において、天井照明32による照度が大きく変化する前の照度は複数の数値範囲に分類され、当該大きく変化する前の照度が各数値範囲に含まれる確率(事前確率)が制御装置35に記憶される。
【0043】
輝度(窓)変化前ノードN401は、窓照明33の輝度が大きく変化する前の輝度を表すノードである。当該輝度は、前記輝度検出手段により検出される。前記学習実験において、窓照明33の輝度が大きく変化する前の輝度は複数の数値範囲に分類され、当該大きく変化する前の輝度が各数値範囲に含まれる確率(事前確率)が制御装置35に記憶される。
【0044】
照度(天井)変化後ノードN501は、天井照明32による照度が大きく変化した後の照度を表すノードである。当該照度は、前記照度検出手段により検出される。前記学習実験において、天井照明32による照度が大きく変化した後の照度は複数の数値範囲に分類され、当該大きく変化した後の照度が各数値範囲に含まれる確率(事前確率)が制御装置35に記憶される。
【0045】
輝度(窓)変化後ノードN601は、窓照明33の輝度が大きく変化した後の輝度を表すノードである。当該輝度は、前記輝度検出手段により検出される。前記学習実験において、窓照明33の輝度が大きく変化した後の輝度は複数の数値範囲に分類され、当該大きく変化した後の輝度が各数値範囲に含まれる確率(事前確率)が制御装置35に記憶される。
【0046】
不快度ノードN701は、人20がどの程度不快であるか(不快度)を表すノードである。前記学習実験において、実際に人20がどの程度不快であるか(不快度)が測定される。具体的には、前記学習実験において、天井照明32による照度及び窓照明33の輝度が大きく変化した際に、人20が操作した不快度測定ダイヤル34の数値(目盛)を制御装置35が検出することにより、当該人20がどの程度不快であるか(不快度)を測定することができる。当該測定された不快度は複数の数値範囲に分類され、顔しかめ表出頻度ノードN102、まばたき表出頻度ノードN202、照度(天井)変化前ノードN301、輝度(窓)変化前ノードN401、照度(天井)変化後ノードN501及び輝度(窓)変化後ノードN601を原因とする当該測定された不快度が各数値範囲に含まれる確率(条件付き確率)が、制御装置35に記憶される。
【0047】
以上の如く、前記学習実験によって事前に構築されたベイジアンネットワークを用いて、部屋10の室内空間の環境が変化した(具体的には、天井照明32による照度及び窓照明33の輝度が大きく変化した)際の人20の不快度を、確率論として推定することができる。
【0048】
具体的には、まず、部屋10の天井照明32による照度及び窓照明33の輝度が変化した際に、前記環境情報検出手段によって当該変化に関する情報を検出する。すなわち、前記環境情報検出手段(前記照度検出手段及び前記輝度検出手段)は、天井照明32による照度が大きく変化する前の照度(照度(天井)変化前ノードN301)、窓照明33の輝度が大きく変化する前の輝度(輝度(窓)変化前ノードN401)、天井照明32による照度が大きく変化した後の照度(照度(天井)変化後ノードN501)及び窓照明33の輝度が大きく変化した後の輝度(輝度(窓)変化後ノードN601)を検出する。
この工程を、以下では環境情報検出工程と記す。
【0049】
また、部屋10の室内空間の環境(天井照明32による照度及び窓照明33の輝度)が変化した際に人20が発する不快な表情を前記不快表情検出手段によって検出する。すなわち、前記不快表情検出手段(前記顔しかめ検出手段及び前記まばたき検出手段)は、部屋10の室内空間の環境が変化した際の人20の顔しかめ及びまばたきを検出する。
この工程を、以下では不快表情検出工程と記す。
【0050】
次に、前記不快度判断手段によって、前記不快表情検出手段によって検出された人20が発する不快な表情の頻度(周波数)を算出する。すなわち、前記不快度判断手段(制御装置35)は、前記顔しかめ検出手段によって検出された人20の顔しかめの頻度(顔しかめ認識頻度ノードN101)、及び前記まばたき検出手段によって検出された人20のまばたきの頻度(まばたき認識頻度ノードN201)を算出する。
【0051】
そして、前記不快度判断手段(制御装置35)は、上記各ノード(顔しかめ認識頻度ノードN101、まばたき認識頻度ノードN201、照度(天井)変化前ノードN301、輝度(窓)変化前ノードN401、照度(天井)変化後ノードN501及び輝度(窓)変化後ノードN601)の条件を用いて、顔しかめ表出頻度ノードN102、まばたき表出頻度ノードN202及び不快度ノードN701の条件付き確率から人20の不快度がとり得る複数の値(数値範囲)及びそれぞれの確率を算出する。前記不快度判断手段(制御装置35)は、人20の不快度がとり得る複数の値それぞれに、当該値となる確率を掛け合わせ、さらにそれらを合算した数値を、人20の不快度として推定する。
この工程を、以下では不快度判断工程と記す。
【0052】
このように、本実施形態に係る不快度推定システム30は、環境変化に関する情報に加えて人20が発する不快な表情の頻度を用いるため、当該人20の不快度を精度良く推定することができる。
【0053】
以下では、
図3から
図8までを用いて、前述の不快表情検出工程で用いた顔しかめ検出手段(顔しかめ検出システム)による人20の顔しかめの検出方法について説明する。
【0054】
前述の如く、前記顔しかめ検出手段(顔しかめ検出システム)は、人20が顔をしかめたか否か(表出があるか否か)を検出するものである。本実施形態に係る顔しかめ検出手段(顔しかめ検出システム)は、主として撮像手段(カメラ31)及び顔しかめ判断手段(制御装置35)により構成される。
【0055】
顔しかめ判断手段(制御装置35)は、人20が顔をしかめた時及び顔をしかめていない時の当該顔の器官の位置情報を学習することで顔をしかめたか否かを識別する識別機能を予め作成し、当該予め作成した識別機能及び前記撮像手段(カメラ31)により撮像された人20の顔の器官の位置情報から、当該カメラ31により撮像された人20が顔をしかめたか否か(表出があるか否か)を判断するものである。
【0056】
まず、
図3から
図7までを用いて、制御装置35が、人20が顔をしかめた時及び顔をしかめていない時の当該顔の器官の位置情報を学習することで顔をしかめたか否かを識別する識別機能を作成する工程について説明する。
この工程(
図4のステップS101からステップS106まで)を、以下では学習工程と記す。
当該学習工程は、人20が顔をしかめたか否か(表出があるか否か)を判断する前に(事前に)行われる。
【0057】
図4のステップS101において、制御装置35は、上記学習のためにカメラ31により撮像された人20の顔(表情)の画像データを複数取得する。
具体的には、制御装置35は、天井照明32による照度及び窓照明33の輝度を複数パターンに変化させる。この際、制御装置35は、人20が不快(まぶしい)と申告したときの表情の画像データ、及び人20が不快(まぶしい)と申告しないとき(通常時)の表情の画像データをそれぞれ複数取得する。
なお、人20の不快(まぶしい)である旨の申告の有無は、不快度測定ダイヤル34やその他のスイッチ等を用いて判断することが可能である。
ステップS101の処理を行った後、制御装置35はステップS102に移行する。
【0058】
ステップS102において、制御装置35が取得した人20の表情の複数の画像データを、2種類に分類する。
具体的には、ステップS101で取得された人20の表情の複数の画像データを、(A)人20が不快であると申告し、かつ目視で顔をしかめていると確認される画像、(B)人20が不快であると申告し、かつ目視で顔をしかめていないと確認される画像、又は人20が不快であると申告していないときの画像、の2種類(上記(A)又は(B))に分類する。
人20が顔をしかめているか否かは実験者の目視により確認され、上記(A)又は(B)への分類に関するデータが当該実験者により制御装置35に入力(記憶)される。
ここで、顔をしかめているか否かの判断は、前述と同様に
図3に示すような表情の変化に基づいてなされる。
なお、当該分類において、人20がまばたきする際の表情の画像データは省かれる。また、上記(A)及び(B)には同じ数の画像データが分類され、かつできるだけ多くの画像データが分類される。
ステップS102の処理を行った後、制御装置35はステップS103に移行する。
【0059】
ステップS103において、制御装置35は、取得した各画像データに現された人20の顔の器官(目、眉、鼻)を、位置情報としての座標に変換する。
具体的には、
図5に示すように、取得した各画像データに現された人20の顔のうち、右目の最も内側に位置する端部の点を点P1と、右目の上まぶた上に位置する点(より詳細には、上まぶたのうち最も上に位置する端部の点)を点P2と、右目の下まぶた上に位置する点(より詳細には、下まぶたのうち最も下に位置する端部の点)を点P3と、右眉の最も内側に位置する端部の点を点P4と、左目の最も内側に位置する端部の点を点P5と、左目の上まぶた上に位置する点(より詳細には、上まぶたのうち最も上に位置する端部の点)を点P6と、左目の下まぶた上に位置する点(より詳細には、下まぶたのうち最も下に位置する端部の点)を点P7と、左眉の最も内側に位置する端部の点を点P8と、鼻の最も下に位置する端部の点を点P9と、それぞれ決定する。
当該座標化(点P1から点P9までの決定)は、制御装置35に予め記憶されたプログラムによって実行される。
ステップS103の処理を行った後、制御装置35はステップS104に移行する。
【0060】
ステップS104において、制御装置35は、取得した各画像データに現された人20の顔の器官の座標を正規化する。
具体的には、まず取得した複数の画像データのうち、最も理想的な正面視の顔の画像データを基準となる画像データとして選択する。次に、
図6に示すように、両目の内側と鼻の下端の座標(点P1、点P5及び点P9)の合計3点を基準となる座標として選択する。そして、当該3点(基準となる座標)と、他の画像データにおける上記3点(点P1、点P5及び点P9)と、を比較し、当該他の画像データの座標を正規化する。すなわち、アフィン変換等を用いて、当該他の画像データにおける人20の顔の向きや角度の違いが座標(点P1から点P9)に与える影響(測定誤差)を打ち消す。
ステップS104の処理を行った後、制御装置35はステップS105に移行する。
【0061】
ステップS105において、制御装置35は、取得した各画像データを5次元の位置情報(距離情報)に変換する。
具体的には、
図7に示すように、制御装置35は、各画像データの正規化された座標を、5つの距離情報、すなわち(1)点P1から点P4までの距離、(2)点P5から点P8までの距離、(3)点P4から点P8までの距離、(4)点P2から点P3までの距離、及び(5)点P6から点P7までの距離、に変換する。
ステップS105の処理を行った後、制御装置35はステップS106に移行する。
【0062】
ステップS106において、制御装置35は、人20が顔をしかめたか否か(表出があるか否か)を識別するための識別機能を作成する。
具体的には、制御装置35は、まずステップS105において変換された5次元の距離情報を、ステップS102における分類(上記(A)又は(B))に従ってそれぞれデータベース化する。次に、当該データベースを訓練データとして、人20が顔をしかめたか否かを識別する識別機能を作成する。当該識別機能としては、サポートベクターマシンの多項式カーネル法等を用いることができる。
【0063】
このようにして、制御装置35は人20が顔をしかめた時及び顔をしかめていない時の当該顔の器官の位置情報を学習し、人20が顔をしかめたか否か(表出があるか否か)を識別するための識別機能を作成する(ステップS101からステップS106まで)。
【0064】
次に、
図4及び
図8を用いて、制御装置35が、予め学習した人20の顔の器官の位置情報と、カメラ31により撮像された人20の顔の器官の位置情報と、を比較し、当該カメラ31により撮像された人20が顔をしかめたか否か(表出があるか否か)を判断する様子について説明する。
【0065】
図8のステップS201において、制御装置35は、カメラ31により撮像された顔をしかめたか否か(表出があるか否か)を判断する対象となる人20の顔(表情)の画像データを取得する。
このステップS201の工程を、以下では撮像工程と記す。
ステップS201の処理(撮像工程)を行った後、制御装置35はステップS202に移行する。
【0066】
ステップS202において、制御装置35は、取得した画像データに現された人20の顔の器官(目、眉、鼻)を座標化する。
当該座標化の方法は、
図4のステップS103と同様であるため、説明を省略する。
ステップS202の処理を行った後、制御装置35はステップS203に移行する。
【0067】
ステップS203において、制御装置35は、取得した画像データに現された人20の顔の器官の座標を正規化する。
当該正規化の方法は、
図4のステップS104と同様であるため、説明を省略する。
ステップS203の処理を行った後、制御装置35はステップS204に移行する。
【0068】
ステップS204において、制御装置35は、取得した画像データを5次元の距離情報に変換する。
当該距離情報への変換の方法は、
図4のステップS105と同様であるため、説明を省略する。
ステップS204の処理を行った後、制御装置35はステップS205に移行する。
【0069】
ステップS205において、制御装置35は、人20が顔をしかめたか否か(表出があるか否か)を判断する。
具体的には、制御装置35は、ステップS204において変換された5次元の距離情報を、
図4のステップS106において作成された識別機能にかけ、人20が顔をしかめたか否か(表出があるか否か)を識別する。
このステップS205の工程を、以下では顔しかめ判断工程と記す。
【0070】
このようにして、制御装置35は、予め作成した識別機能及びカメラ31により撮像された人の顔の器官の位置情報から、当該カメラ31により撮像された人が顔をしかめたか否かを判断する(ステップS201からステップS205まで)。
【0071】
以下では、
図4、
図8及び
図9を用いて、前述の不快表情検出工程で用いたまばたき検出手段による人20のまばたきの検出方法について説明する。
【0072】
前述の如く、前記まばたき検出手段は、人20がまばたきをしたか否かを検出するものである。本実施形態に係るまばたき検出手段は、主としてカメラ31及び制御装置35により構成される。
【0073】
まず、制御装置35は、カメラ31により撮像されたまばたきをしたか否かを判断する対象となる人20の顔(表情)の画像データを取得する。
【0074】
次に、制御装置35は、取得した画像データに現された人20の顔の器官(目、眉、鼻)を、位置情報としての座標に変換する。
当該座標化の方法は、
図8のステップS202と同様であるため、説明を省略する。
【0075】
次に、制御装置35は、取得した画像データに現された人20の顔の器官の座標を正規化する。当該正規化には、
図4のステップS104で選択された基準となる座標を用いることができる。
当該正規化の方法は、
図8のステップS203と同様であるため、説明を省略する。
【0076】
次に、制御装置35は、取得した画像データを2次元の位置情報(距離情報)に変換する。具体的には、
図9に示すように、制御装置35は、画像データの正規化された座標を、2つの距離情報、すなわち(1)点P2から点P3までの距離及び(2)点P6から点P7までの距離に変換する。
【0077】
最後に、制御装置35は、変換した2次元の距離情報がそれぞれゼロ(又は、ゼロに近い値)であるか否かを識別する。当該2次元の距離情報がゼロ(又は、ゼロに近い値)であれば人20がまばたきをしていると判断できる。
【0078】
このようにして、制御装置35は2次元の距離情報から人20がまばたきをしたか否かを検出することができる。
【0079】
以上の如く、本実施形態に係る不快度推定システムは、部屋10の室内空間の環境変化に関する情報を検出する環境情報検出手段と、前記室内空間に存在する人20が前記室内空間の環境変化の際に発する不快な表情(顔しかめ及びまばたき)を検出する不快表情検出手段と、前記室内空間の環境変化の際に人20が発する不快な表情の頻度及びその際当該人20が実際にどの程度不快であるかの情報を予め蓄積することによりベイジアンネットワークを構築した不快度判断手段と、を具備し、前記不快度判断手段は、前記環境情報検出手段により検出された前記室内空間の環境変化に関する情報、及び当該環境変化の際に前記不快表情検出手段により検出された人20が発する不快な表情の頻度を用いて、前記ベイジアンネットワークから人20がどの程度不快であるかを推定するものである。
このように、環境変化に関する情報に加えて人が発する不快な表情の頻度を用いることにより、人の不快度を精度良く推定することができる。
【0080】
また、前記不快表情検出手段は、人20が顔をしかめたか否かを検出する顔しかめ検出手段を含むものである。
このように構成することにより、特に周囲が明るく(まぶしく)なった際に人20が発すると考えられる顔しかめを、不快な表情として検出することができる。
【0081】
また、前記環境情報検出手段は、人20に照射される光の照度を検出する照度検出手段を含むものである。
このように構成することにより、光の照度の変化による人20の不快度を検出することができる。
【0082】
また、前記不快表情検出手段は、前記人がまばたきをしたか否かを検出するまばたき検出手段を含むものである。
このように構成することにより、特に周囲が明るく(まぶしく)なった際、又は暗くなった際に人20が発すると考えられるまばたきを、不快な表情として検出することができる。
【0083】
また、本実施形態に係る不快度推定方法は、室内空間の環境変化に関する情報を検出する環境情報検出工程と、前記室内空間に存在する人が前記室内空間の環境変化の際に発する不快な表情を検出する不快表情検出工程と、前記環境情報検出手段により検出された前記室内空間の環境変化に関する情報、及び当該環境変化の際に前記不快表情検出手段により検出された前記人が発する不快な表情の頻度を用いて、前記室内空間の環境変化の際に前記人が発する不快な表情の頻度及びその際当該人が実際にどの程度不快であるかの情報を予め蓄積することにより構築されたベイジアンネットワークから前記人がどの程度不快であるかを推定する不快度判断工程と、を具備するものである。
このように、環境変化に関する情報に加えて人が発する不快な表情の頻度を用いることにより、人の不快度を精度良く推定することができる。
【0084】
また、以上の如く、本実施形態に係る顔しかめ検出手段(顔しかめ検出システム)は、顔をしかめたか否かを判断する対象となる人20の顔を撮像するカメラ31(撮像手段)と、人20が顔をしかめた時及び顔をしかめていない時の当該顔の器官の位置情報を学習することで顔をしかめたか否かを識別する識別機能を予め作成し、当該予め作成した識別機能及びカメラ31により撮像された人20の顔の器官の位置情報から、当該カメラ31により撮像された人20が顔をしかめたか否かを判断する顔しかめ判断手段(制御装置35)と、を具備し、前記顔しかめ判断手段は、前記顔の器官の位置情報として、右眉の内側端部から右目の内側端部まで(点P1から点P4まで)の距離、左眉の内側端部から左目の内側端部まで(点P5から点P8まで)の距離、眉間(点P4から点P8まで)の距離、右目の上まぶたから下まぶたまで(点P2から点P3まで)の距離及び左目の上まぶたから下まぶたまで(点P6から点P7まで)の距離を用いるものである。
このように構成することにより、5つの距離のみを顔の器官の位置情報として用いるため、人20が顔をしかめているか否かを短時間で検出することができる。
【0085】
また、前記顔しかめ判断手段は、前記顔の器官の位置情報を取得した後、右目の内側端部(点P1)、左目の内側端部(点P5)及び鼻の下端部(点P9)を基準として当該顔の器官の位置情報を正規化するものである。
このように構成することにより、撮像した人20の顔の向きの違いによる当該顔の器官の位置情報の誤差を低減することができる。
【0086】
また、前記顔しかめ判断手段は、カメラ31により撮像された人20が顔をしかめたか否かを判断する際、当該人20と同一人物の顔の器官の位置情報から作成された識別機能を用いるものである。
このように、当該人20自身のデータに基づいて作成された識別機能を用いるため、人20が顔をしかめているか否かをより精度良く検出することができる。
【0087】
また、本実施形態に係る顔しかめ検出方法は、人20が顔をしかめた時及び顔をしかめていない時の当該顔の器官の位置情報を学習することで顔をしかめたか否かを識別する識別機能を予め作成する学習工程と、顔をしかめたか否かを判断する対象となる人20の顔を撮像する撮像工程と、予め作成した識別機能及び前記撮像工程において撮像された人20の顔の器官の位置情報から、当該撮像工程において撮像された人20が顔をしかめたか否かを判断する顔しかめ判断工程と、を具備し、前記顔の器官の位置情報として、右眉の内側端部から右目の内側端部まで(点P1から点P4まで)の距離、左眉の内側端部から左目の内側端部まで(点P5から点P8まで)の距離、眉間(点P4から点P8まで)の距離、右目の上まぶたから下まぶたまで(点P2から点P3まで)の距離及び左目の上まぶたから下まぶたまで(点P6から点P7まで)の距離を用いるものである。
このように構成することにより、5つの距離のみを顔の器官の位置情報として用いるため、人20が顔をしかめているか否かを短時間で検出することができる。
【0088】
なお、本実施形態においては、実験設備として設置された部屋10を例にして説明したが、本発明はこれに限るものではなく、日常生活において使用している部屋を用いて上述の顔しかめの検出や不快度の推定を行うことも可能である。
また、本実施形態においては、撮像手段としてカメラ31を用いたが、本発明はこれに限るものではない。例えば、人20が作業しているパソコンに内臓されたカメラ等を撮像手段として用いることも可能である。
また、本実施形態においては窓照明33を用いたが、本発明はこれに限るものではなく、通常の窓(部屋10の外部の光が入ってくる窓)と当該窓の輝度を検出するセンサを用いて上述の顔しかめの検出や不快度の推定を行うことも可能である。
また、本実施形態において、不快表情検出手段は、人20が発する不快な表情として顔しかめ及びまばたきを検出するものとしたが、本発明はこれに限るものではない。すなわち、その他の不快な表情(例えば、目を長時間閉じる、涙を流す等)を検出する構成とすることも可能である。
また、本実施形態において、環境情報検出手段は、部屋10の室内空間の環境変化に関する情報として、天井照明32人20に照射される光の照度及び窓照明33の輝度を検出するものとしたが、本発明はこれに限るものではない。すなわち、その他の環境変化(例えば、温度の変化、湿度の変化等)を検出する構成とすることも可能である。