(58)【調査した分野】(Int.Cl.,DB名)
【発明を実施するための形態】
【0026】
以下では必要に応じて、図中に示した矢印に従って、上下方向及び左右方向を定義して説明を行う。
【0027】
以下では、
図1を用いて、本実施形態に係る表情検出システム10の構成について説明する。
【0028】
表情検出システム10は、対象者20の顔の画像から当該対象者の表情に関する情報(本実施形態においては、対象者20が特定の表情を表出する頻度)を検出するものである。表情検出システム10は、主としてカメラ11、モニター12及び制御装置13を具備する。
【0029】
カメラ11は、本発明に係る撮像手段の一実施形態である。カメラ11は、対象者20の顔を撮像するものである。カメラ11は、着席している対象者20の正面に配置され、当該対象者20の顔を常時撮像することができる。
【0030】
モニター12は、本発明に係る表示手段の一実施形態である。モニター12は、画像や文章等の種々の情報を表示することが可能なものである。モニター12は、着席している対象者20の正面(カメラ11の下方)に配置され、対象者20は当該モニター12に表示される情報を視認することができる。
【0031】
制御装置13は、種々の情報に基づいて所定の演算処理や記憶等を行うものである。制御装置13は、RAMやROM等の記憶部、CPU等の演算処理部等により構成される。
制御装置13はカメラ11に接続され、当該カメラ11が撮像した画像データを取得することができる。
制御装置13はモニター12に接続され、当該モニター12に任意の情報を表示させることができる。
【0032】
上述の如く構成された表情検出システム10は、対象者20の表情に関する情報を検出することができる。より具体的には、表情検出システム10は、対象者20が特定の表情(本実施形態においては、「瞬き」及び「顔しかめ」)を表出する頻度を検出することができる。以下では
図2から
図7までを用いて、当該表情検出システム10による当該検出の様子(表情検出方法)について説明する。
【0033】
ステップS101において、制御装置13は、カメラ11の前に着席している検出の対象となる対象者20を認識する。
具体的には、制御装置13は、カメラ11によって撮像された対象者20の顔の画像から当該対象者20を認識する。この処理は、市販のプログラム等を用いて行うことができる。
制御装置13は、当該ステップS101の処理を行った後、ステップS102に移行する。
【0034】
ステップS102において、制御装置13は、ステップS101で認識した対象者20が初めて認識した対象者であるか否かを判定する。
制御装置13は、ステップS101で認識した対象者20が初めて認識した対象者である(これまでに認識したことがない対象者である)と判定した場合、ステップS103に移行する。
制御装置13は、ステップS101で認識した対象者20が始めて認識した対象者ではない(これまでに認識したことがある対象者である)と判定した場合、ステップS107に移行する。
【0035】
ステップS103において、制御装置13は、対象者20の個人情報を推定する。この処理は、市販のプログラム等を用いて行うことができる。
ここで「個人情報」とは、対象者20の顔から推定可能な個人に関するあらゆる情報を含むものとする。本実施形態においては、「個人情報」として対象者20の性別及び年齢を用いるものとする。すなわち制御装置13は、対象者20の性別及び年齢を推定する。
制御装置13は、当該ステップS103の処理を行った後、ステップS104に移行する。
【0036】
ステップS104において、制御装置13は、ステップS103において推定された性別及び年齢の人(対象者20)が興味を持ち易い情報をモニター12に表示させる。
具体的には、制御装置13は予め性別及び年齢(年代)ごとにそれぞれ興味を持ち易いと思われる情報をデータベース(以下、これを「情報データベース」と記す)として記憶している。
ここで「情報」とは、モニター12に表示させることが可能な画像(広告画像等の静止画や動画)や文章などあらゆる情報を含むものとする。
制御装置13は、ステップS103において推定された性別及び年齢に基づいて、前記情報データベースから対象者20が興味を持ち易いと思われる情報を抽出し、モニター12に表示させる。
制御装置13は、当該ステップS104の処理を行った後、ステップS105に移行する。
【0037】
ステップS105において、制御装置13は、対象者20の顔の画像をカメラ11によって複数撮像し、当該複数の画像における対象者20の顔の器官の位置情報を取得する。以下、当該ステップS105の処理についてより詳細に説明する。
【0038】
図4に示すステップS201において、制御装置13は、ステップS104において興味のある情報が表示されたモニター12を視認(注視)している対象者20の顔の画像をカメラ11によって撮像して取得する。このように興味のある情報を注視している対象者20の表情は、喜怒哀楽が目立って表出していない平常時の自然な表情であると考えられる。
制御装置13は、当該ステップS201の処理を行った後、ステップS202に移行する。
【0039】
ステップS202において、制御装置13は、ステップS201において取得した画像に現された対象者20の顔の器官(目E、眉B、鼻N)を座標に変換して記憶する。
具体的には、
図5に示すように、取得した各画像データに現された対象者20の顔のうち、右目Eの最も内側に位置する端部の点を点P1と、右目Eの上まぶた上に位置する点(より詳細には、上まぶたのうち最も上に位置する端部の点)を点P2と、右目Eの下まぶた上に位置する点(より詳細には、下まぶたのうち最も下に位置する端部の点)を点P3と、右眉Bの最も内側に位置する端部の点を点P4と、左目Eの最も内側に位置する端部の点を点P5と、左目Eの上まぶた上に位置する点(より詳細には、上まぶたのうち最も上に位置する端部の点)を点P6と、左目Eの下まぶた上に位置する点(より詳細には、下まぶたのうち最も下に位置する端部の点)を点P7と、左眉Bの最も内側に位置する端部の点を点P8と、鼻Nの最も下に位置する端部の点を点P9と、それぞれ決定する。そして制御装置13は、当該決定された座標を一旦記憶する。
当該座標化(点P1から点P9までの決定)は、制御装置13に予め記憶されたプログラムによって実行される。
制御装置13は、当該ステップS202の処理を行った後、ステップS203に移行する。
【0040】
ステップS203において、制御装置13は、ステップS201において取得した画像に現された対象者20の顔がデータとして許容できない(データとして一定の精度が確保できないおそれがある)程に大きく傾いているか否かを判定する。
具体的には、制御装置13は、ステップS202において取得した座標に基づいて、対象者20の顔がカメラ11に対して真正面(
図6(a)参照)の位置から左右(
図6(b)参照)及び上下(
図6(c)参照)にどの程度の角度だけ傾いているかを判定する。
そして制御装置13は、左右に傾いている角度及び上下に傾いている角度のうち少なくとも一方が、予め任意に定められた閾値以上である場合には、対象者20の顔がデータとして許容できない程に大きく傾いていると判定する。
【0041】
制御装置13は、ステップS203において、対象者20の顔がデータとして許容できない程に大きく傾いていると判定した場合、ステップS204に移行する。
制御装置13は、対象者20の顔がデータとして許容できない程に大きく傾いてはいないと判定した場合、ステップS205に移行する。
【0042】
ステップS204において、制御装置13は、対象者20の顔がデータとして許容できない程に大きく傾いている(ステップS203参照)と判定された画像から変換された座標データ(ステップS202)を削除する。
制御装置13は、当該ステップS204の処理を行った後、再度ステップS201に移行する。
【0043】
ステップS203から移行したステップS205において、制御装置13は、取得した画像に現された対象者20の顔の器官の座標を正規化する。
具体的には、ステップS203において対象者20の顔が大きく傾いていないと判定されたデータであっても、多少なりとも顔が傾いている可能性がある。そこで制御装置13は、ホモグラフィ変換やアフィン変換等を用いて対象者20の顔の傾きが座標に与える影響、すなわち測定誤差を打ち消すように、当該座標を正規化する。
制御装置13は、ステップS205の処理を行った後、ステップS206に移行する。
【0044】
ステップS206において、制御装置13は、ステップS201において取得した画像を5次元の位置情報(距離情報)に変換して記憶する。
具体的には、
図7に示すように、制御装置13は、正規化された画像の座標を、5つの距離情報、すなわち(1)点P1から点P4までの距離、(2)点P5から点P8までの距離、(3)点P4から点P8までの距離、(4)点P2から点P3までの距離、及び(5)点P6から点P7までの距離、に変換する。そして制御装置13は、当該変換された5次元の位置情報を記憶する。
ステップS206の処理を行った後、制御装置13はステップS207に移行する。
【0045】
ステップS207において、制御装置13は、ステップS206において記憶した位置情報が所定の個数(例えば、50個)に達したか否かを判定する。
ここで、「所定の個数」は予め任意に設定することができる値であり、後述するステップS106において平均された5次元の位置情報を精度良く算出できる程度の値に設定されることが望ましい。
制御装置13は、記憶した位置情報が所定の個数に達したと判定した場合、ステップS208に移行する。
制御装置13は、記憶した位置情報が所定の個数に達していないと判定した場合、ステップS201に移行する。すなわち、所定の個数の位置情報を記憶するまでステップS201からステップS206までの処理を繰り返す。
【0046】
ステップS208において、制御装置13は、対象者20が興味を持ち易い情報のモニター12への表示を終了する。
制御装置13は、当該ステップS208の処理を行った後、ステップS105の処理を終了して
図2に示すステップS106に移行する。
【0047】
図2に示すステップS106において、制御装置13は、ステップS105において取得した複数の5次元の位置情報をそれぞれ平均して、平均された5次元の位置情報を標準顔データベースとして記憶する。
この標準顔データベースは、対象者20が興味のある情報(モニター12)を視認している最中の顔の表情に基づいて作成されたものであるため、当該対象者20の平常時の顔の器官の位置情報を示している。
制御装置13は、当該ステップS106の処理を行った後、
図3に示すステップS108及びステップS109に移行する。
【0048】
一方、ステップS102から移行したステップS107において、制御装置13は、以前対象者20を認識した際に作成した当該対象者20の標準顔データベースを読み出す。
すなわち制御装置13は、対象者20が以前認識したことのある人であると判定した場合(ステップS102)、以前作成した当該対象者20の標準顔データベースを読み出すことで、標準顔データベースを作成する処理(ステップS103からステップS106まで)を省略することができる。
制御装置13は、当該ステップS107の処理を行った後、
図3に示すステップS108及びステップS109に移行する。
【0049】
図3に示すステップS108において、制御装置13は、カメラ11によって顔を撮像されている対象者20が瞬きをしたことを検出する。
具体的には、制御装置13は、現在撮像している対象者20の顔の画像から、5次元の位置情報のうち、前記(4)点P2から点P3までの距離、及び(5)点P6から点P7までの距離、すなわち左右の目Eの開き具合(開閉度)に関する位置情報を常時検出する。以下では、当該2つの位置情報を単に「実際の目の位置情報」と記す。
そして、当該実際の目の位置情報を標準顔データベースの位置情報と常時比較し、実際の目の位置情報が標準顔データベースの位置情報に対して所定の値だけ小さくなった場合、対象者20が瞬きをしたと判断する。
制御装置13は、当該ステップS108の処理を行った後(具体的には、所定時間の間、ステップS108の処理(瞬きの検出)を継続して行った後)、ステップS110に移行する。
【0050】
図3に示すステップS109において、制御装置13は、カメラ11によって顔を撮像されている対象者20が顔をしかめたこと(顔しかめ)を検出する。
具体的には、制御装置13は、複数の人の、平常時における顔の器官の5次元の位置情報(前述(
図7参照)と同様に5次元に変換されたもの)、実際に顔をしかめたときの顔の器官の5次元の位置情報、及び当該2つの位置情報の差(変位)を、予め特定表情データベースとして取得(記憶)している。
ここで、当該「複数の人」には、対象者20が含まれていなくても良い。
そして制御装置13は、当該特定表情データベースを訓練データとして、人が顔をしかめたか否かを識別する識別機能を作成している。当該識別機能としては、サポートベクターマシンの多項式カーネル法等を用いることができる。
そして制御装置13は、現在撮像している対象者20の顔の画像から5次元の位置情報を常時検出し、当該位置情報及び前記標準顔データベースを前記識別機能にかけ、対象者20が顔をしかめたか否かを判定する。
制御装置13は、当該ステップS109の処理を行った後(具体的には、所定時間の間、ステップS109の処理(顔しかめの検出)を継続して行った後)、ステップS110に移行する。
【0051】
ステップS110において、制御装置13は、対象者20による瞬き及び顔しかめの表出の頻度を検出する。
具体的には、制御装置13は、ステップS108及びステップS109において検出した対象者20による瞬き及び顔しかめの単位時間当たりの回数(周波数)、すなわち頻度を算出して記憶する。
【0052】
ここで、瞬きや顔しかめの表情は、本発明に係る特定の表情の一例であり、対象者20の不快感を示す表情である。例えば、対象者20が瞬きや顔しかめを頻繁にしている場合、照明が強くてまぶしい等の不快感を表しているものと考えられる。
【0053】
以上のようにして表情検出システム10によって検出された対象者20による特定の表情(瞬き及び顔しかめ)の表出の頻度についてのデータは、種々の目的に利用することが可能である。例えば、当該表出の頻度に応じて対象者20が感じているまぶしさや暗さを推定し、それに合わせて照明やブラインド、カーテンの開閉などを制御すること、レストランなどで当該表出の頻度に応じて顧客の満足度を推定し、マーケティングや接客に当該満足度に関するデータを活用すること、困っている人を推定し、御用聞き(声かけ)を円滑に行うこと、等が可能である。
【0054】
当該表情検出システム10は、対象者20個人のデータベースを事前に作成する必要がなく、不特定多数の人(対象者)に適用することができるため、幅広い用途(例えば、不特定多数の人が来店する店舗等)に利用することができる。また、予め特定の対象者20に適用することが分かっている場合であっても、事前に当該対象者20個人のデータベースを作成する作業が不要であるため、当該表情検出システム10を容易に利用することができる。
【0055】
以上の如く、本実施形態に係る表情検出システム10は、
対象者20の顔を撮像することが可能なカメラ11(撮像手段)と、
対象者20から視認可能な位置に配置されるモニター12(表示手段)と、
カメラ11によって撮像された対象者20の顔の画像から当該対象者20の個人情報(性別及び年齢)を推定し(ステップS103)、前記個人情報に基づいて対象者20に応じた情報をモニター12に表示させ(ステップS104)、モニター12に表示されている情報を視認している最中の対象者20の顔の画像をカメラ11によって取得し(ステップS201)、当該画像に基づいて平常時における対象者20の顔の器官の位置情報を決定して(ステップS106)、標準顔データベースとして記憶する制御装置13(制御手段)と、
を具備するものである。
このように構成することにより、平常時における対象者20の顔の器官の位置情報(標準顔データベース)を容易にかつ正確に取得(作成)することができる。
すなわち、対象者20に応じた情報をモニター12に表示させることで、当該対象者20が自然に当該情報(モニター12)を視認している顔の画像を取得することができ、ひいては平常時の表情における対象者20の顔の器官の位置情報を容易にかつ正確に取得することができる。
【0056】
また、制御装置13は、
前記標準顔データベースを用いて、現在カメラ11によって撮像されている対象者20が特定の表情を表出したことを検出する(ステップS108及びステップS109)ものである。
このように構成することにより、検出対称となる対象者20固有のデータベース(特定の表情をした時の顔の器官の位置情報に関するデータベース等)を予め準備する必要がないため、当該データベースを作成するための労力を軽減することができる。
また、現在カメラ11によって撮像されている対象者20が特定の表情を表出したことを検出するために必要な標準顔データベースは容易に作成することができるため、表情検出システム10全体のデータベース作成のための労力を軽減することができる。
【0057】
また、制御装置13は、
予め記憶された複数の人の、平常時における顔の器官の位置情報に対する特定の表情をした時の顔の器官の位置情報の変位に関する特定表情データベースをさらに用いて、現在カメラ11によって撮像されている対象者20が特定の表情を表出したことを検出する(ステップS109)ものである。
このように構成することにより、検出対称となる対象者20固有のデータベースを予め準備する必要がなく、容易に特定の表情を検出することができる。
【0058】
また、前記特定の表情とは、
対象者20の不快感を示す表情である。
このように構成することにより、特定の表情の検出結果を、対象者20の周囲の環境の制御(改善)等に利用することができる。
【0059】
制御装置13は、
前記情報を視認している最中の対象者20の顔の画像を取得する場合、当該対象者20の顔がカメラ11に対して所定値以上傾いていない画像のみを取得する(ステップS204等)ものである。
このように構成することにより、カメラ11に対する対象者20の顔の傾きが大きい画像を排除することで、より精度の高い標準顔データベースの作成が可能となる。
【0060】
制御装置13は、
カメラ11によって取得された複数の画像における対象者20の顔の器官の位置情報を正規化した後に(ステップS205)、当該位置情報を平均するものである。
このように構成することにより、各画像における対象者20の顔の器官の位置情報を正規化することで、より精度の高い標準顔データベースの作成が可能となる。
【0061】
制御装置13は、
対象者20が、それ以前に前記標準顔データベースを記憶されたことのある対象者20と同一人物である場合、新たな当該対象者20の標準顔データベースの記憶を行わない(ステップS107等)ものである。
このように構成することにより、以前に標準顔データベースが記憶されている対象者20については、再度標準顔データベースを記憶させる処理を省略することができ、表情検出システム10全体の処理の効率化を図ることができる。
【0062】
また、本実施形態に係る表情検出方法は、
対象者20の顔の画像から当該対象者20の個人情報を推定し、
前記個人情報に基づいて対象者20に応じた情報を対象者20に視認させ、
前記情報を視認している最中の対象者20の顔の画像を取得し、
当該画像に基づいて平常時における対象者20の顔の器官の位置情報を決定して、標準顔データベースとして取得し、
前記標準顔データベースを用いて、対象者20が特定の表情を表出したことを検出するものである。
このように構成することにより、平常時における対象者20の顔の器官の位置情報(標準顔データベース)を容易にかつ正確に取得(作成)することができる。また、検出対称となる対象者20固有のデータベースを予め準備することなく特定の表情を検出することができ、当該データベースを作成するための労力を軽減することができる。
【0063】
なお、本実施形態では、本発明に係る撮像手段としてカメラ11を用いたが、本発明に係る制御に必要な情報を取得できるものであれば、種々の撮像手段(例えば、表示手段(モニター12)に一体化(内蔵)されたもの等)を用いることが可能である。
【0064】
また、本実施形態では、本発明に係る表示手段としてモニター12を用いたが、本発明に係る情報を表示できるものであれば、種々の表示手段(例えば、パソコンのモニターや、表示手段と入力手段が一体化されたタッチパネル等)を用いることが可能である。
【0065】
また、本実施形態では、本発明に係る制御手段として制御装置13を用いたが、本発明に係る制御を行うことができるものであれば、種々の制御手段(例えば、市販のパソコンや、複数台の制御装置を組み合わせたもの等)を用いることが可能である。
【0066】
また、本実施形態では、対象者20の不快感を示す表情を、特定の表情として例示したが、本発明は不快感を示す表情に限らず、その他の表情(喜怒哀楽を示す表情)にも適用することが可能である。
【0067】
また、本実施形態では、制御装置13は、
図2のステップS101において市販のプログラム等を用いて対象者20を認識するものとしたが、例えば上述の顔の器官の座標(
図4のステップS205)や5次元の位置情報(ステップS206)を用いて対象者20を認識する構成とすることも可能である。
【0068】
また、本実施形態では、制御装置13は、
図4のステップS203においてステップS202で取得した座標に基づいて対象者20の顔の傾きを判定するものとしたが、その他の座標や対象者20の顔の特徴から傾きを判定する構成とすることも可能である。
【0069】
また、本実施形態では、制御装置13は、
図4のステップS201において一旦画像を取得した後で、当該画像の中から顔が大きく傾いている画像を削除する(ステップS203及びステップS204)構成としたが、ステップS201において画像を取得する時点で顔の傾きを算出し、顔が大きく傾いている画像をはじめから取得しない構成とすることも可能である。
【0070】
以下では、
図8から
図10までを用いて、上述の表情検出システム10を、実験設備として設置された部屋30内に存在する対象者20が周囲の環境(本実施形態においては、特に照明環境)に対してどの程度不快であるか(不快度)を推定する不快度推定システム100として応用した例について説明する。
なお、当該不快度推定システム100は表情検出システム10の応用例の一つであり、表情検出システム10はその他の種々のシステムに応用可能である。
【0071】
図8に示す不快度推定システム100は、主としてカメラ11、モニター12、天井照明14、窓照明15、不快度測定ダイヤル16、及び制御装置13を具備する。
なお、不快度推定システム100のうち、カメラ11及びモニター12の構成は上述の表情検出システム10と略同一であるため、説明を省略する。
【0072】
天井照明14は、部屋30の室内空間の照明器具である。天井照明14は、部屋30の天井であって、対象者20の上方に配置される。天井照明14による照度は変更可能となるように構成される。
【0073】
窓照明15は、部屋30に設けられた窓を擬似的に再現するための照明器具である。窓照明15は、部屋30の側壁面であって、対象者20の正面に配置される。窓照明15の輝度は変更可能となるように構成される。窓照明15を発光させることにより、部屋30に設けられた窓から太陽光が差し込む状態を擬似的に再現することができる。
【0074】
不快度測定ダイヤル16は、対象者20がどの程度不快であるか(不快度)を測定するためのものである。不快度測定ダイヤル16はダイヤル式のスイッチにより構成され、対象者20の手が届く範囲に配置される。不快度測定ダイヤル16には所定の数値範囲で不快度を表す目盛が付されている。対象者20は、不快度測定ダイヤル16が指し示す数値(目盛)が、自らが感じた不快の程度に応じた値となるように当該不快度測定ダイヤル16を操作する。
【0075】
制御装置13は天井照明14に接続され、当該天井照明14による照度が任意の照度となるように制御することができる。制御装置13は自ら天井照明14の照度を制御しているため、別途センサ等を用いるまでもなく当該天井照明14による照度を検出することができる。
また、制御装置13は窓照明15に接続され、当該窓照明15の輝度が任意の輝度となるように制御することができる。制御装置13は自ら窓照明15の照度を制御しているため、別途センサ等を用いるまでもなく当該窓照明15の輝度を検出することができる。
また、制御装置13は不快度測定ダイヤル16に接続され、当該不快度測定ダイヤル16が指し示す数値(目盛)を検出することができる。
【0076】
以下では、
図9及び
図10を用いて、不快度推定システム100による対象者20の不快度を推定する方法について説明する。
【0077】
不快度推定システム100が具備する制御装置13には、
図9に示すように構築されたベイジアンネットワーク(Bayesian Network)が予め記憶され、当該ベイジアンネットワークを利用して対象者20の不快度が推定される。ベイジアンネットワークとは、複数の変数間の因果関係を非循環有向グラフで表すと共に、個々の変数の関係を条件付き確率で表す確率推論のモデルである。図中の矢印の始点側のノードが原因を、終点側のノードが結果を、それぞれ表している。また、原因が結果に及ぼす影響の度合いは、条件付き確率で定量化される。
【0078】
図9に示すように、本実施形態に係るベイジアンネットワークは、顔しかめ認識頻度ノードN101と、顔しかめ表出頻度ノードN102と、まばたき認識頻度ノードN201と、まばたき表出頻度ノードN202と、照度(天井)変化前ノードN301と、輝度(窓)変化前ノードN401と、照度(天井)変化後ノードN501と、輝度(窓)変化後ノードN601と、不快度ノードN701と、により構築される。
【0079】
本実施形態に係るベイジアンネットワークは、制御装置13によって天井照明14及び窓照明15を制御することで対象者20に対して複数パターンの照明変化(天井照明14による照度、及び窓照明15の輝度の大きな変化)を与える学習実験の結果に基づいて構築され、当該制御装置13に記憶される。具体的には、当該学習実験に基づいて上記各ノードの確率(事前確率又は条件付き確率)が求められ、制御装置13に記憶される。
【0080】
以下では、本実施形態に係るベイジアンネットワークの各ノードについて説明する。
【0081】
顔しかめ認識頻度ノードN101は、対象者20の顔しかめの頻度を表すノードである。当該対象者20の顔しかめ(顔をしかめたか否か)は、前述の如く制御装置13により検出される(
図2のステップS109参照)。前記学習実験において、対象者20が顔をしかめたか否かが制御装置13により検出される(
図2のステップS109)と共に、当該対象者20の顔しかめの頻度(顔しかめの周波数)が算出される(
図2のステップS110)。当該顔しかめの頻度は複数の数値範囲に分類され、顔しかめの頻度が各数値範囲に含まれる確率(事前確率)が制御装置13に記憶される。
【0082】
顔しかめ表出頻度ノードN102は、実際の対象者20の顔しかめの頻度を表すノードである。前記学習実験において、実際に対象者20が顔をしかめたか否かが目視等により確認されると共に、当該実際の対象者20の顔しかめの頻度(顔しかめの周波数)が算出される。
ここで、前記学習実験においては、例えば
図10に示すように、顔をしかめていない状態の表情(
図10(a))に対して、目Eを細めたり(
図10(b))、眉Bを寄せて目Eを細めたり(
図10(c))、眉Bを寄せて目Eを細め、かつ口Mを横にひいたり(
図10(d))した場合に、対象者20が顔をしかめたと判断される。
算出された実際の顔しかめの頻度は複数の数値範囲に分類され、顔しかめ認識頻度ノードN101を原因とする当該実際の顔しかめの頻度が各数値範囲に含まれる確率(条件付き確率)が、制御装置13に記憶される。
【0083】
まばたき認識頻度ノードN201は、対象者20のまばたきの頻度を表すノードである。当該対象者20のまばたきは、前述の如く制御装置13により検出される(
図2のステップS108参照)。前記学習実験において、対象者20がまばたきをしたか否かが制御装置13により検出される(
図2のステップS108)と共に、当該対象者20のまばたきの頻度(まばたきの周波数)が算出される(
図2のステップS110)。当該まばたきの頻度は複数の数値範囲に分類され、まばたきの頻度が各数値範囲に含まれる確率(事前確率)が制御装置13に記憶される。
【0084】
まばたき表出頻度ノードN202は、実際の対象者20のまばたきの頻度を表すノードである。前記学習実験において、実際に対象者20がまばたきをしたか否かが目視等により確認されると共に、当該実際の対象者20のまばたきの頻度(まばたきの周波数)が算出される。当該実際のまばたきの頻度は複数の数値範囲に分類され、まばたき認識頻度ノードN201を原因とする当該実際のまばたきの頻度が各数値範囲に含まれる確率(条件付き確率)が、制御装置13に記憶される。
【0085】
照度(天井)変化前ノードN301は、天井照明14による照度が大きく変化する前の照度を表すノードである。当該照度は、制御装置13により検出される。前記学習実験において、天井照明14による照度が大きく変化する前の照度は複数の数値範囲に分類され、当該大きく変化する前の照度が各数値範囲に含まれる確率(事前確率)が制御装置13に記憶される。
【0086】
輝度(窓)変化前ノードN401は、窓照明15の輝度が大きく変化する前の輝度を表すノードである。当該輝度は、制御装置13により検出される。前記学習実験において、窓照明15の輝度が大きく変化する前の輝度は複数の数値範囲に分類され、当該大きく変化する前の輝度が各数値範囲に含まれる確率(事前確率)が制御装置13に記憶される。
【0087】
照度(天井)変化後ノードN501は、天井照明14による照度が大きく変化した後の照度を表すノードである。当該照度は、制御装置13により検出される。前記学習実験において、天井照明14による照度が大きく変化した後の照度は複数の数値範囲に分類され、当該大きく変化した後の照度が各数値範囲に含まれる確率(事前確率)が制御装置13に記憶される。
【0088】
輝度(窓)変化後ノードN601は、窓照明15の輝度が大きく変化した後の輝度を表すノードである。当該輝度は、制御装置13により検出される。前記学習実験において、窓照明15の輝度が大きく変化した後の輝度は複数の数値範囲に分類され、当該大きく変化した後の輝度が各数値範囲に含まれる確率(事前確率)が制御装置13に記憶される。
【0089】
不快度ノードN701は、対象者20がどの程度不快であるか(不快度)を表すノードである。前記学習実験において、実際に対象者20がどの程度不快であるか(不快度)が測定される。具体的には、前記学習実験において、天井照明14による照度及び窓照明15の輝度が大きく変化した際に、対象者20が操作した不快度測定ダイヤル16の数値(目盛)を制御装置13が検出することにより、当該対象者20がどの程度不快であるか(不快度)を測定することができる。当該測定された不快度は複数の数値範囲に分類され、顔しかめ表出頻度ノードN102、まばたき表出頻度ノードN202、照度(天井)変化前ノードN301、輝度(窓)変化前ノードN401、照度(天井)変化後ノードN501及び輝度(窓)変化後ノードN601を原因とする当該測定された不快度が各数値範囲に含まれる確率(条件付き確率)が、制御装置13に記憶される。
【0090】
以上の如く、前記学習実験によって事前に構築されたベイジアンネットワークを用いて、部屋30の室内空間の環境が変化した(具体的には、天井照明14による照度及び窓照明15の輝度が大きく変化した)際の対象者20の不快度を、確率論として推定することができる。
【0091】
具体的には、まず、部屋30の天井照明14による照度及び窓照明15の輝度が変化した際に、制御装置13によって当該変化に関する情報を検出する。すなわち、制御装置13は、天井照明14による照度が大きく変化する前の照度(照度(天井)変化前ノードN301)、窓照明15の輝度が大きく変化する前の輝度(輝度(窓)変化前ノードN401)、天井照明14による照度が大きく変化した後の照度(照度(天井)変化後ノードN501)及び窓照明15の輝度が大きく変化した後の輝度(輝度(窓)変化後ノードN601)を検出する。
【0092】
また、部屋30の室内空間の環境(天井照明14による照度及び窓照明15の輝度)が変化した際に対象者20が発する不快な表情を制御装置13によって検出する。すなわち、制御装置13は、部屋30の室内空間の環境が変化した際の対象者20の顔しかめ及びまばたきを検出する(
図2のステップS108及びステップS109参照)。
【0093】
次に、制御装置13によって、検出された対象者20が表出する不快な表情の頻度(周波数)を算出する。すなわち、制御装置13は、検出された対象者20の顔しかめの頻度(顔しかめ認識頻度ノードN101)、及び前記まばたき検出手段によって検出された対象者20のまばたきの頻度(まばたき認識頻度ノードN201)を算出する(
図2のステップS110参照)。
【0094】
そして、制御装置13は、上記各ノード(顔しかめ認識頻度ノードN101、まばたき認識頻度ノードN201、照度(天井)変化前ノードN301、輝度(窓)変化前ノードN401、照度(天井)変化後ノードN501及び輝度(窓)変化後ノードN601)の条件を用いて、顔しかめ表出頻度ノードN102、まばたき表出頻度ノードN202及び不快度ノードN701の条件付き確率から対象者20の不快度がとり得る複数の値(数値範囲)及びそれぞれの確率を算出する。制御装置13は、対象者20の不快度がとり得る複数の値それぞれに、当該値となる確率を掛け合わせ、さらにそれらを合算した数値を、対象者20の不快度として推定する。
【0095】
このように、本実施形態に係る不快度推定システム100は、環境変化に関する情報に加えて対象者20が発する不快な表情の頻度を用いるため、当該対象者20の不快度を精度良く推定することができる。このようにして推定された対象者20の不快度は、種々の目的に利用することが可能である。
【0096】
なお、本実施形態(応用例)においては、実験設備として設置された部屋30を例にして説明したが、本発明はこれに限るものではなく、日常生活において使用している部屋を用いて上述の不快度の推定を行うことも可能である。
【0097】
また、本実施形態においては窓照明15を用いたが、本発明はこれに限るものではなく、通常の窓(部屋30の外部の光が入ってくる窓)と当該窓の輝度を検出するセンサを用いて上述の不快度の推定を行うことも可能である。
【0098】
また、本実施形態においては、照明環境(天井照明14による照度、及び窓照明15の輝度)の変化に対する不快度を推定するものとしたが、その他の環境変化(例えば、温度の変化、湿度の変化等)に対する不快度を推定することも可能である。