(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-09-11
(45)【発行日】2024-09-20
(54)【発明の名称】機械学習装置、及び、環境調整装置
(51)【国際特許分類】
F24F 11/63 20180101AFI20240912BHJP
F24F 11/70 20180101ALI20240912BHJP
G06N 20/00 20190101ALI20240912BHJP
【FI】
F24F11/63
F24F11/70
G06N20/00
(21)【出願番号】P 2020196257
(22)【出願日】2020-11-26
【審査請求日】2020-11-26
【審判番号】
【審判請求日】2022-07-19
(31)【優先権主張番号】P 2019213364
(32)【優先日】2019-11-26
(33)【優先権主張国・地域又は機関】JP
(73)【特許権者】
【識別番号】000002853
【氏名又は名称】ダイキン工業株式会社
(74)【代理人】
【識別番号】110000202
【氏名又は名称】弁理士法人新樹グローバル・アイピー
(72)【発明者】
【氏名】西村 忠史
【合議体】
【審判長】水野 治彦
【審判官】間中 耕治
【審判官】槙原 進
(56)【参考文献】
【文献】特開2019-82312(JP,A)
【文献】特開平9-303842(JP,A)
【文献】特開2009-228918(JP,A)
【文献】特開2015-222324(JP,A)
【文献】特開2017-62060(JP,A)
【文献】国際公開第2007/007632(WO,A1)
(58)【調査した分野】(Int.Cl.,DB名)
F24F 11/00 - 11/89
(57)【特許請求の範囲】
【請求項1】
対象空間の環境を調整する環境調整装置に接続され、対象者(20)の温冷感を学習する機械学習装置であって、
前記対象者の生体情報に関するパラメータを含む第1変数を取得する第1取得部(101)と、
前記対象者の温冷感を含む第2変数を取得する第2取得部(102)と、
前記第1変数と前記第2変数とを関連付けて学習する学習部(103)と、
を備え、
前記第2取得部は、前記対象者の主観的な申告に基づく温冷感、及び、前記環境調整装置の操作時における前記対象者の脳波に相関するパラメータに基づいて、前記第2変数を取得する、
機械学習装置(100)。
【請求項2】
前記第1変数は、前記対象者の脳波、皮膚血流量、皮膚温度、発汗量、及び、心拍のそれぞれに相関するパラメータの少なくとも1つを含む、
請求項1に記載の機械学習装置。
【請求項3】
前記学習部の学習の結果に基づき、前記第1変数から、前記対象者の温冷感の予測値を推論する推論部(105)をさらに備える、
請求項1又は2に記載の機械学習装置。
【請求項4】
前記第2変数及び前記予測値に基づいて報酬を算出する更新部(104)をさらに備え、
前記学習部は、前記報酬を用いて学習する、
請求項3に記載の機械学習装置。
【請求項5】
前記更新部は、前記第2変数に含まれる前記対象者の温冷感と、前記予測値との差が小さいほど、高い前記報酬を算出する、
請求項4に記載の機械学習装置。
【請求項6】
対象空間の環境を調整する環境調整装置であって、請求項1~5のいずれか1項に記載の機械学習装置を備える、環境調整装置。
【請求項7】
前記第2取得部は、温冷感に関する前記対象者の入力値、及び、前記環境調整装置の操作状況に基づいて、前記第2変数を取得する、
請求項6に記載の環境調整装置。
【請求項8】
対象空間の環境を調整する環境調整装置であって、
請求項3~5のいずれか1項に記載の
機械学習装置と、
前記対象空間の環境を調整するための第3変数の候補を出力する出力部(106)と、
前記第3変数を決定する決定部(107)と、
を備え、
前記機械学習装置は、前記出力部が出力した前記候補に基づいて、前記対象者の温冷感の予測値を推論し、
前記決定部は、前記予測値が所定の条件を満たすように、前記第3変数を決定する、
環境調整装置。
【請求項9】
前記決定部は、前記対象者の温冷感の目標値と、前記機械学習装置が推論した前記予測値との差が小さくなるように、前記第3変数を決定し、
前記学習部は、前記決定部が決定した前記第3変数を用いて学習する、
請求項8に記載の環境調整装置。
【請求項10】
前記第3変数は、前記対象空間の温度を含む、
請求項8又は9に記載の環境調整装置。
【請求項11】
対象空間の環境を調整する環境調整装置(10)の制御パラメータを学習する機械学習装置であって、
前記対象空間内の対象者の生体情報に関するパラメータを含む第1変数を取得する第1取得部(201)と、
前記制御パラメータを取得する第2取得部(202)と、
前記第1変数と前記制御パラメータとを関連付けて学習する学習部(203)と、
前記環境調整装置の制御結果を評価する評価データを取得する第3取得部(205)と、
前記評価データを用いて前記学習部の学習状態を更新する更新部(204)と、
を備え、
前記学習部は、前記更新部の出力に従って学習し、
前記評価データは、前記対象者の温冷感を含み、
前記第3取得部は、前記対象者の主観的な申告に基づく温冷感、及び、前記環境調整装置の操作時における前記対象者の脳波に相関するパラメータに基づいて、前記評価データを取得する、
機械学習装置。
【請求項12】
前記更新部は、前記評価データに基づいて報酬を算出し、
前記学習部は、前記報酬を用いて学習する、
請求項11に記載の機械学習装置。
【請求項13】
前記評価データは、前記対象者の温冷感の予測値と、温冷感の中立の値との差であり、
前記更新部は、前記差が小さいほど、高い前記報酬を算出する、
請求項12に記載の機械学習装置。
【請求項14】
前記第1変数を入力変数とし前記制御パラメータを出力変数とする識別関数のパラメータを出力する変更部(207)をさらに備え、
前記学習部は、前記変更部の出力に従って、前記識別関数のパラメータの変更を複数回行い、パラメータが変更された前記識別関数毎に前記第1変数から前記制御パラメータを出力し、
前記更新部は、蓄積部(204a)と判定部(204b)とを備え、
前記判定部は、前記評価データを用いて判定結果を出力し、
前記蓄積部は、前記判定結果に従って、前記第1変数と、前記学習部が前記第1変数から出力した前記制御パラメータとから教師データを蓄積し、
前記学習部は、前記蓄積部に蓄積された前記教師データに基づいて学習する、
請求項11に記載の機械学習装置。
【請求項15】
前記第3取得部は、温冷感に関する前記対象者の入力値、及び、前記環境調整装置の操作状況の少なくとも1つを評価関数に入力し、前記評価関数の出力値を前記評価データとして取得する、
請求項11~14のいずれか1項に記載の機械学習装置。
【請求項16】
前記第1変数は、前記対象者の脳波、皮膚血流量、皮膚温度、及び、発汗量のそれぞれに相関するパラメータの少なくとも1つを含む、
請求項11~15のいずれか1項に記載の機械学習装置。
【請求項17】
請求項11~16のいずれか1項に記載の機械学習装置に接続される、環境調整装置。
【発明の詳細な説明】
【技術分野】
【0001】
機械学習装置、及び、それを備える環境調整装置に関する。
【背景技術】
【0002】
特許文献1(国際公開第2007/007632号)には、対象者の生体情報の時系列データをカオス解析することで対象者の快適感を推定し、推定結果に基づいて環境調整装置を制御する構成が開示されている。
【発明の概要】
【発明が解決しようとする課題】
【0003】
対象者の快適感の推定値の精度が十分ではない課題がある。
【課題を解決するための手段】
【0004】
第1観点の機械学習装置は、対象者の温冷感を学習する。機械学習装置は、第1取得部と、第2取得部と、学習部とを備える。第1取得部は、対象者の生体情報に関するパラメータを含む第1変数を取得する。第2取得部は、対象者の温冷感を含む第2変数を取得する。学習部は、第1変数と第2変数とを関連付けて学習する。
【0005】
第1観点の機械学習装置は、対象者の温冷感の予測値を高い精度で取得することができる。
【0006】
第2観点の機械学習装置は、第1観点の機械学習装置であって、第1変数は、対象者の脳波、皮膚血流量、皮膚温度、発汗量、及び、心拍のそれぞれに相関するパラメータの少なくとも1つを含む。
【0007】
第3観点の機械学習装置は、第1観点又は第2観点の機械学習装置であって、学習部は、第1変数と第2変数とを教師データとして用いて学習する。
【0008】
第4観点の機械学習装置は、第1乃至第3観点のいずれか1つの機械学習装置であって、推論部をさらに備える。推論部は、学習部の学習の結果に基づき、第1変数から、対象者の温冷感の予測値を推論する。
【0009】
第5観点の機械学習装置は、第4観点の機械学習装置であって、更新部をさらに備える。更新部は、第2変数、及び、対象者の温冷感の予測値に基づいて報酬を算出する。学習部は、報酬を用いて学習する。
【0010】
第6観点の機械学習装置は、第5観点の機械学習装置であって、更新部は、第2変数に含まれる対象者の温冷感と、対象者の温冷感の予測値との差が小さいほど、高い報酬を算出する。
【0011】
第7観点の環境調整装置は、対象空間の環境を調整する。環境調整装置は、第1乃至第6観点のいずれか1つの機械学習装置を備える。
【0012】
第8観点の環境調整装置は、第7観点の環境調整装置であって、第2取得部は、温冷感に関する対象者の入力値、及び、環境調整装置の操作状況の少なくとも1つに基づいて、第2変数を取得する。
【0013】
第9観点の環境調整装置は、第7観点又は第8観点の環境調整装置であって、第4乃至第6観点のいずれか1つの機械学習装置と、出力部と、決定部とを備える。出力部は、対象空間の環境を調整するための第3変数の候補を出力する。決定部は、第3変数を決定する。推論部は、出力部が出力した第3変数の候補に基づいて、対象者の温冷感の予測値を推論する。決定部は、対象者の温冷感の予測値が所定の条件を満たすように、第3変数を決定する。
【0014】
第10観点の環境調整装置は、第9観点の環境調整装置であって、決定部は、対象者の温冷感の目標値と、推論部が推論した対象者の温冷感の予測値との誤差が小さくなるように、第3変数を決定する。
【0015】
第11観点の環境調整装置は、第9観点又は第10観点の環境調整装置であって、第3変数は、対象空間の温度を含む。
【0016】
第12観点の機械学習装置は、対象空間の環境を調整する環境調整装置の制御パラメータを学習する。機械学習装置は、第1取得部と、第2取得部と、学習部とを備える。第1取得部は、対象空間内の対象者の生体情報に関するパラメータを含む第1変数を取得する。第2取得部は、制御パラメータを取得する。学習部は、第1変数と制御パラメータとを関連付けて学習する。
【0017】
第12観点の機械学習装置は、対象者の温冷感に適した、環境調整装置の制御パラメータを取得することができる。
【0018】
第13観点の機械学習装置は、第12観点の機械学習装置であって、第3取得部と、更新部とをさらに備える。第3取得部は、環境調整装置の制御結果を評価する評価データを取得する。更新部は、評価データを用いて学習部の学習状態を更新する。学習部は、更新部の出力に従って学習する。評価データは、対象者の温冷感を含む。
【0019】
第14観点の機械学習装置は、第13観点の機械学習装置であって、更新部は、評価データに基づいて報酬を算出する。学習部は、報酬を用いて学習する。
【0020】
第15観点の機械学習装置は、第14観点の機械学習装置であって、評価データは、対象者の温冷感の予測値と、温冷感の中立の値との差である。更新部は、この差が小さいほど、高い報酬を算出する。
【0021】
第16観点の機械学習装置は、第13観点の機械学習装置であって、変更部をさらに備える。変更部は、第1変数を入力変数とし制御パラメータを出力変数とする識別関数のパラメータを出力する。学習部は、変更部の出力に従って、識別関数のパラメータの変更を複数回行い、パラメータが変更された識別関数毎に第1変数から制御パラメータを出力する。更新部は、蓄積部と、判定部とを備える。判定部は、評価データを用いて判定結果を出力する。蓄積部は、判定結果に従って、第1変数と、学習部が第1変数から出力した制御パラメータとから教師データを蓄積する。学習部は、蓄積部に蓄積された教師データに基づいて学習する。
【0022】
第17観点の機械学習装置は、第13乃至第16観点のいずれか1つの機械学習装置であって、第3取得部は、温冷感に関する対象者の入力値、及び、環境調整装置の操作状況の少なくとも1つに基づいて、評価データを取得する。
【0023】
第18観点の機械学習装置は、第12乃至第17観点のいずれか1つの機械学習装置であって、第1変数は、対象者の脳波、皮膚血流量、皮膚温度、及び、発汗量のそれぞれに相関するパラメータの少なくとも1つを含む。
【0024】
第19観点の環境調整装置は、第12乃至第18観点のいずれか1つの機械学習装置を備える。
【図面の簡単な説明】
【0025】
【
図1】第1実施形態に係る学習中の機械学習装置100のブロック図である。
【
図2】第1実施形態に係る学習後の機械学習装置100のブロック図である。
【
図3】第2実施形態に係る学習中の機械学習装置100のブロック図である。
【
図4】第2実施形態に係る学習後の機械学習装置100のブロック図である。
【
図5】第3実施形態に係る学習中の機械学習装置200のブロック図である。
【
図6】第3実施形態に係る学習後の機械学習装置200のブロック図である。
【
図7】変形例Aに係る学習中の機械学習装置200のブロック図である。
【
図8】変形例Aに係る学習後の機械学習装置200のブロック図である。
【
図9】ニューラルネットワークのニューロンのモデルの模式図である。
【
図10】
図9に示されるニューロンを組み合わせて構成した三層のニューラルネットワークの模式図である。
【
図11】サポートベクターマシンを説明するための図である。2クラスの学習データが線形分離可能である特徴空間を表す。
【
図12】2クラスの学習データが線形分離不可能である特徴空間を表す。
【
図13】分割統治法によって構成された決定木の一例である。
【発明を実施するための形態】
【0026】
―第1実施形態―
第1実施形態に係る環境調整装置10について、図面を参照しながら説明する。環境調整装置10は、対象空間の環境を調整する装置である。第1実施形態では、環境調整装置10は、空調制御装置である。
【0027】
環境調整装置10は、対象者20の生体情報を用いて、対象空間内の対象者20の温冷感を予測する。環境調整装置10は、対象者20の温冷感の予測値に基づいて、当該対象者20の快適性を把握して、快適性を訴求する空調制御を実現する。温冷感は、対象空間内における対象者20の快適性を表す指標である。温冷感の指標としては、例えば、PMV(Predicted Mean Vote,予測温冷感申告)が用いられる。
【0028】
環境調整装置10は、機械学習の手法を用いて対象者20の温冷感を学習する機械学習装置100を備える。機械学習装置100は、1つ又は複数のコンピュータから構成される。機械学習装置100が複数のコンピュータから構成される場合、当該複数のコンピュータは、ネットワークを介して互いに接続されてもよい。
【0029】
図1は、第1実施形態の学習中の機械学習装置100のブロック図である。
図2は、第1実施形態の学習後の機械学習装置100のブロック図である。機械学習装置100は、主として、状態変数取得部101と、制御量取得部102と、学習部103と、関数更新部104と、推論部105とを備える。状態変数取得部101~推論部105は、機械学習装置100の記憶装置に記憶されているプログラムを、機械学習装置100のCPUが実行することにより実現される。
【0030】
状態変数取得部101は、対象者20の生体情報に関する少なくとも1つのパラメータを含む状態変数(第1変数)を取得する。
【0031】
制御量取得部102は、対象者20の温冷感を含む制御量(第2変数)を取得する。
【0032】
学習部103は、
図1に示されるように、状態変数取得部101が取得した状態変数と、制御量取得部102が取得した制御量とを関連付けて学習する。第1実施形態では、学習部103は、報酬を用いて学習する強化学習を行う。学習部103は、学習の結果である学習済みモデルを出力する。
【0033】
関数更新部104は、制御量取得部102が取得した制御量と、制御量の予測値とに基づいて報酬を算出する。具体的には、関数更新部104は、制御量に含まれる対象者20の温冷感が、対象者20の温冷感の予測値に近いほど、高い報酬を算出する。言い換えると、対象者20の温冷感の実際値と、対象者20の温冷感の予測値との差が小さいほど、関数更新部104によって算出される報酬が高くなる。
【0034】
推論部105は、
図2に示されるように、学習部103による学習の結果得られた学習済みモデルに基づき、状態変数取得部101が取得した状態変数から、対象者20の温冷感の予測値を推論する。推論部105は、対象者20の温冷感の予測値を出力する。環境調整装置10は、推論部105が出力した予測値に基づいて、空調制御を行う。
【0035】
状態変数取得部101が取得する状態変数は、対象者20の脳波、皮膚血流量、皮膚温度、発汗量、及び、心拍のそれぞれに相関するパラメータの少なくとも1つを含む。脳波に相関するパラメータとは、脳波振幅、脳波波高最大値、及び、最大リアプノフ数の少なくとも1つである。皮膚温度に相関するパラメータとは、対象者20の体の特定の部分の皮膚温度、及び、対象者20の体の特定の二箇所の部分の皮膚温度の差の少なくとも1つである。心拍に相関するパラメータとは、例えば、R-R間隔である。
【0036】
制御量取得部102は、温冷感に関する対象者20の入力値、及び、環境調整装置10の操作状況の少なくとも1つに基づいて、対象者20の温冷感を含む制御量を取得する。温冷感に関する対象者20の入力値とは、対象者20の主観的な申告に基づく温冷感である。例えば、温冷感に関する対象者20の入力値は、対象者20が自身の主観に基づいて入力した温冷感、及び、温冷感に関する質問に対する対象者20の回答から算出された温冷感である。環境調整装置10の操作状況とは、例えば、環境調整装置10の操作時における対象者20の脳波に相関するパラメータである。
【0037】
機械学習装置100は、客観的な指標である対象者20の生体情報を用いて対象者20の温冷感の予測値を取得する。そのため、環境調整装置10は、機械学習装置100を備えることで、対象者20の温冷感の予測値を高い精度で取得することができる。従って、環境調整装置10は、対象者20の温冷感の予測値に基づいて、対象者20の快適性を訴求する空調制御を実現することができる。
【0038】
―第2実施形態―
第2実施形態に係る環境調整装置10について、図面を参照しながら説明する。第1実施形態及び第2実施形態に係る環境調整装置10は、基本的な構成は共通している。以下、第1実施形態と第2実施形態との相違点を中心に説明する。
【0039】
図3は、第2実施形態の学習中の機械学習装置100のブロック図である。
図4は、第2実施形態の学習後の機械学習装置100のブロック図である。第2実施形態の環境調整装置10は、第1実施形態の機械学習装置100と、操作量候補出力部106と、操作量決定部107とを備える。機械学習装置100は、状態変数取得部101~推論部105を備える。
【0040】
操作量候補出力部106は、対象空間の環境を調整するための環境パラメータ(第3変数)の候補を出力する。環境パラメータは、対象空間の温度を含む。操作量候補出力部106は、例えば、環境パラメータの所定のリストから、環境パラメータの候補を出力する。機械学習装置100の推論部105は、
図4に示されるように、操作量候補出力部106が出力した環境パラメータの候補に少なくとも基づいて、対象者20の温冷感の予測値を推論する。
【0041】
操作量決定部107は、対象者20の温冷感の予測値が所定の条件を満たすように、環境パラメータを決定する。具体的には、操作量決定部107は、対象者20の温冷感の目標値と、推論部105が推論した予測値との差が小さくなるように、環境パラメータを決定する。機械学習装置100の学習部103は、
図3に示されるように、操作量決定部107が決定した環境パラメータを用いて学習を行い、学習済みモデルを出力する。
【0042】
第2実施形態では、操作量決定部107は、環境パラメータの候補の中から、対象者20の温冷感の予測値を高い精度で取得できる学習済みモデルの構築に適した環境パラメータを決定することができる。従って、環境調整装置10は、対象者20の温冷感の予測値を高い精度で取得して、対象者20の温冷感の予測値に基づいて、対象者20の快適性を訴求する空調制御を実現することができる。
【0043】
―第3実施形態―
第3実施形態に係る環境調整装置10について、図面を参照しながら説明する。環境調整装置10は、対象空間の環境を調整する装置である。第3実施形態では、環境調整装置10は、空調制御装置である。
【0044】
環境調整装置10は、対象者20の生体情報を用いて、対象空間内の対象者20の温冷感を予測する。環境調整装置10は、対象者20の温冷感の予測値に基づいて、当該対象者20の快適性を把握して、快適性を訴求する空調制御を実現する。
【0045】
環境調整装置10は、環境調整装置10の制御パラメータを学習する機械学習装置200を備える。機械学習装置200は、1つ又は複数のコンピュータから構成される。機械学習装置200が複数のコンピュータから構成される場合、当該複数のコンピュータは、ネットワークを介して互いに接続されてもよい。
【0046】
図5は、第3実施形態の学習中の機械学習装置200のブロック図である。
図6は、第3実施形態の学習後の機械学習装置200のブロック図である。機械学習装置200は、主として、状態変数取得部201と、制御量取得部202と、学習部203と、関数更新部204と、評価データ取得部205と、制御量決定部206とを備える。状態変数取得部201~制御量決定部206は、機械学習装置200の記憶装置に記憶されているプログラムを、機械学習装置200のCPUが実行することにより実現される。
【0047】
状態変数取得部201は、対象空間内の対象者20の生体情報に関する少なくとも1つのパラメータを含む状態変数(第1変数)を取得する。
【0048】
制御量取得部202は、環境調整装置10の制御パラメータを制御量として取得する。
【0049】
評価データ取得部205は、環境調整装置10の制御結果を評価する評価データを取得する。
【0050】
関数更新部204は、評価データ取得部205が取得した評価データを用いて学習部203の学習状態を更新する。
【0051】
学習部203は、
図5に示されるように、状態変数取得部201が取得した状態変数と、制御量取得部202が取得した制御パラメータとを関連付けて学習する。学習部203は、学習の結果である学習済みモデルを出力する。
【0052】
学習部203は、関数更新部204の出力に従って学習する。第3実施形態では、学習部203は、報酬を用いて学習する強化学習を行う。関数更新部204は、評価データ取得部205が取得した評価データに基づいて報酬を算出する。具体的には、関数更新部204は、対象者20の温冷感が中立に近いほど、高い報酬を算出する。
【0053】
制御量決定部206は、
図6に示されるように、学習部203による学習の結果得られた学習済みモデルに基づき、状態変数取得部201が取得した状態変数から、環境調整装置10の制御パラメータを決定する。環境調整装置10は、制御量決定部206が決定した制御パラメータに基づいて、環境調整装置10による空調制御を行う。
【0054】
評価データ取得部205は、所定の判定データを所定の評価関数に入力して、評価関数の出力値を評価データとして取得する。言い換えると、評価関数は、評価データ取得部205から判定データを入力値として受け取り、評価データを出力する。判定データは、温冷感に関する対象者20の入力値、及び、環境調整装置10の操作状況の少なくとも1つである。温冷感に関する対象者20の入力値とは、対象者20の主観的な申告に基づく温冷感である。例えば、温冷感に関する対象者20の入力値は、対象者20が自身の主観に基づいて入力した温冷感、及び、温冷感に関する質問に対する対象者20の回答から算出された温冷感である。環境調整装置10の操作状況とは、例えば、環境調整装置10の操作時における対象者20の脳波に相関するパラメータである。
【0055】
評価データ取得部205が取得する評価データは、対象者20の温冷感を少なくとも含む。評価データは、例えば、対象者20の温冷感の予測値である。対象者20の温冷感の予測値は、温冷感に関する対象者20の入力値、及び、環境調整装置10の操作状況の少なくとも1つから取得される。評価データは、対象者20の温冷感の予測値と、温冷感の中立の値との差であってもよい。この場合、関数更新部204は、評価データ取得部205が取得した評価データである差がゼロに近いほど、高い報酬を算出する。
【0056】
状態変数取得部201が取得する状態変数は、対象者20の脳波、皮膚血流量、皮膚温度、及び、発汗量のそれぞれに相関するパラメータの少なくとも1つを含む。脳波に相関するパラメータとは、脳波振幅、脳波波高最大値、及び、最大リアプノフ数の少なくとも1つである。皮膚温度に相関するパラメータとは、対象者20の体の特定の部分の皮膚温度、及び、対象者20の体の特定の二箇所の部分の皮膚温度の差の少なくとも1つである。
【0057】
機械学習装置200は、客観的な指標である対象者20の生体情報に基づいて対象者20の温冷感を取得し、対象者20の温冷感に基づいて環境調整装置10の制御パラメータを決定する。そのため、環境調整装置10は、機械学習装置200を備えることで、対象者20の生体情報を直接反映させた制御パラメータを取得することができる。従って、環境調整装置10は、対象者20の温冷感に基づいて、対象者20の快適性を訴求する空調制御を実現することができる。
【0058】
―変形例―
以下、実施形態の少なくとも一部の変形例について説明する。
【0059】
(1)変形例A
第3実施形態では、学習部203は、報酬を用いて学習する強化学習を行う。しかし、学習部203は、強化学習の代わりに、教師データに基づいて学習する教師あり学習を行ってもよい。
【0060】
変形例Aに係る環境調整装置10について、図面を参照しながら説明する。第3実施形態及び変形例Aに係る環境調整装置10は、基本的な構成は共通している。以下、第3実施形態と変形例Aとの相違点を中心に説明する。
【0061】
図7は、変形例Aの学習中の機械学習装置200のブロック図である。
図8は、変形例Aの学習後の機械学習装置200のブロック図である。機械学習装置200は、関数変更部207をさらに備える。
【0062】
関数更新部204は、教師データ蓄積部204aと、判定部204bとを備える。判定部204bは、評価データ取得部205が取得した評価データを用いて、評価データの判定結果を出力する。教師データ蓄積部204aは、判定部204bによる判定結果に従って、状態変数取得部201が取得した状態変数と、制御量取得部202が取得した制御パラメータとから教師データを蓄積する。
【0063】
学習部203は、関数変更部207の出力に従って、識別関数のパラメータを微小変化させて、識別関数のパラメータの変更を複数回行い、パラメータが変更された識別関数毎に状態変数から制御パラメータを出力する。識別関数とは、教師データに含まれる状態変数から制御パラメータへの写像である。具体的には、識別関数は、状態変数を入力変数とし、制御パラメータを出力変数とする関数である。関数変更部207は、識別関数のパラメータを出力する。関数更新部204は、学習部203が状態変数から出力した制御パラメータに基づく環境調整装置10の制御の結果得られた評価データが適切であると判定された場合に、当該状態変数と、当該状態変数から学習部203が出力した制御パラメータとを教師データとして蓄積する。
【0064】
学習部203は、教師データ蓄積部204aに蓄積された教師データに基づいて学習する。学習部203による学習の目的は、新規の状態変数から正しい又は適切な評価データを得ることができるように、教師データを学習データとして用いて識別関数のパラメータを調整することである。学習部203は、学習データとして、状態変数取得部201が予め取得した状態変数と、制御量取得部202が取得した制御パラメータとの対を用いる。学習部203によってパラメータが十分に調整された識別関数は、学習済みモデルに相当する。
【0065】
制御量決定部206は、学習部203による学習の結果得られた学習済みモデルに基づいて、新規の状態変数から制御パラメータを決定する。
【0066】
学習部203は、次に説明するように、オンライン学習又はバッチ学習による教師あり学習を行う。
【0067】
オンライン学習による教師あり学習では、学習部203は、環境調整装置10の出荷又は設置前の試験運転時等に取得したデータ(状態変数)を用いて学習済みモデルを予め生成する。制御量決定部206は、環境調整装置10の初回運転開始時には、学習部203が予め生成した学習済みモデルに基づいて、制御パラメータを決定する。その後、学習部203は、環境調整装置10の運転時に新たに取得したデータ(状態変数)を用いて学習済みモデルを更新する。制御量決定部206は、学習部203が更新した学習済みモデルに基づいて、制御パラメータを決定する。このように、オンライン学習では、学習済みモデルが定期的に更新され、制御量決定部206は、最新の学習済みモデルに基づいて、制御パラメータを決定する。
【0068】
バッチ学習による教師あり学習では、学習部203は、環境調整装置10の出荷又は設置前の試験運転時等に取得したデータ(状態変数)を用いて学習済みモデルを予め生成する。制御量決定部206は、環境調整装置10の運転時において、学習部203が予め生成した学習済みモデルに基づいて、制御パラメータを決定する。この学習済みモデルは、学習部203によって予め生成された後は更新されない。言い換えると、制御量決定部206は、同じ学習済みモデルを用いて制御パラメータを決定する。
【0069】
なお、環境調整装置10とインターネット等のコンピュータネットワークを介して接続されたサーバが、学習済みモデルを生成してもよく、また、クラウドコンピューティングのサービスを利用して、学習済みモデルを生成してもよい。
【0070】
(2)変形例B
第1及び第2実施形態では、学習部103は、報酬を用いて学習する強化学習を行う。しかし、学習部103は、変形例Aで説明したように、強化学習の代わりに、教師データに基づいて学習する教師あり学習を行ってもよい。この場合、学習部103は、状態変数取得部101が取得した状態変数と、制御量取得部102が取得した制御量(対象者20の温冷感)とから得られた教師データを用いて学習してもよい。
【0071】
(3)変形例C
変形例A乃至Bにおいて、学習部103,203が教師データを用いる教師あり学習を行う場合、学習部103,203は、教師データの一部を学習データとして用いて識別関数のパラメータを調整し、残りをテストデータとして用いてもよい。テストデータとは、学習に使用されなかったデータであり、主に、学習済みモデルの性能評価に用いられるデータである。テストデータを用いることで、新規の状態変数から得られた評価データの性能を、テストデータに対する誤り確率という形式で予測することができる。予め取得したデータを学習データとテストデータとに分ける手法としては、ホールドアウト法、交差確認法、一つ抜き法(ジャックナイフ法)及びブートストラップ法等が用いられる。
【0072】
(4)変形例D
変形例A乃至Cにおいて、学習部103,203が用いる機械学習の手法である教師あり学習について説明する。教師あり学習は、教師データを用いて、未知の入力データに対応する出力を生成する手法である。教師あり学習では、学習データと識別関数とが用いられる。学習データとは、入力データと、それに対応する教師データとの対の集合である。入力データは、例えば、特徴空間における特徴ベクトルである。教師データは、例えば、入力データの識別、分類及び評価に関するパラメータである。識別関数は、入力データから、それに対応する出力への写像を表す。教師あり学習は、事前に与えられた学習データを用いて、識別関数の出力と教師データとの差が小さくなるように、識別関数のパラメータを調整する手法である。教師あり学習で用いられるモデル又はアルゴリズムとしては、回帰分析、時系列分析、決定木、サポートベクターマシン、ニューラルネットワーク、アンサンブル学習等が挙げられる。
【0073】
回帰分析は、例えば、線形回帰分析、重回帰分析、ロジスティック回帰分析である。回帰分析は、最小二乗法等を用いて、入力データ(説明変数)と教師データ(目的変数)との間にモデルを当てはめる手法である。説明変数の次元は、線形回帰分析では1であり、重回帰分析では2以上である。ロジスティック回帰分析では、ロジスティック関数(シグモイド関数)がモデルとして用いられる。
【0074】
時系列分析は、例えば、ARモデル(自己回帰モデル)、MAモデル(移動平均モデル)、ARMAモデル(自己回帰移動平均モデル)、ARIMAモデル(自己回帰和分移動平均モデル)、SARIMAモデル(季節自己回帰和分移動平均モデル)、VARモデル(ベクトル自己回帰モデル)である。AR、MA、ARMA、VARモデルは、定常過程を表し、ARIMA、SARIMAモデルは、非定常過程を表す。ARモデルは、時間の経過に対して規則的に値が変化するモデルである。MAモデルは、ある期間における変動が一定であるモデルである。例えば、MAモデルでは、ある時点の値は、その時点より前の移動平均によって決まる。ARMAモデルは、ARモデルとMAモデルとを組み合わせたモデルである。ARIMAモデルは、中長期的なトレンド(増加又は減少傾向)を考慮して、前後の値の差分についてARMAモデルを適用するモデルである。SARIMAモデルは、中長期的な季節変動を考慮して、ARIMAモデルを適用するモデルである。VARモデルは、ARモデルを多変量に拡張したモデルである。
【0075】
決定木は、複数の識別器を組み合わせて複雑な識別境界を生成するためのモデルである。決定木の詳細については後述する。
【0076】
サポートベクターマシンは、2クラスの線形識別関数を生成するアルゴリズムである。サポートベクターマシンの詳細については後述する。
【0077】
ニューラルネットワークは、人間の脳神経系のニューロンをシナプスで結合して形成されたネットワークをモデル化したものである。ニューラルネットワークは、狭義には、誤差逆伝播法を用いた多層パーセプトロンを意味する。代表的なニューラルネットワークとしては、畳み込みニューラルネットワーク(CNN)、リカレントニューラルネットワーク(RNN)が挙げられる。CNNは、全結合していない(結合が疎である)順伝播型ニューラルネットワークの一種である。RNNは、有向閉路を持つニューラルネットワークの一種である。CNN及びRNNは、音声・画像・動画認識、及び、自然言語処理に用いられる。
【0078】
アンサンブル学習は、複数のモデルを組み合わせて識別性能を向上させる手法である。アンサンブル学習が用いる手法は、例えば、バギング、ブースティング、ランダムフォレストである。バギングは、学習データのブートストラップサンプルを用いて複数のモデルを学習させ、新規の入力データの評価を、複数のモデルによる多数決によって決する手法である。ブースティングは、バギングの学習結果に応じて学習データに重み付けをして、誤って識別された学習データを、正しく識別された学習データよりも集中的に学習させる手法である。ランダムフォレストは、モデルとして決定木を用いる場合において、相関が低い複数の決定木からなる決定木群(ランダムフォレスト)を生成する手法である。ランダムフォレストの詳細については後述する。
【0079】
学習部103,203が用いる教師あり学習の好ましいモデル又はアルゴリズムとして、次に説明する、ニューラルネットワーク、サポートベクターマシン、決定木、及び、ランダムフォレストが用いられる。
【0080】
(4-1)ニューラルネットワーク
図9は、ニューラルネットワークのニューロンのモデルの模式図である。
図10は、
図9に示されるニューロンを組み合わせて構成した三層のニューラルネットワークの模式図である。
図9に示されるように、ニューロンは、複数の入力x(
図9では入力x1,x2,x3)に対する出力yを出力する。各入力x(
図9では入力x1,x2,x3)には、対応する重みw(
図9では重みw1,w2,w3)が乗算される。ニューロンは、次の式(1)を用いて出力yを出力する。
【0081】
式(1)において、入力x、出力y及び重みwは、すべてベクトルであり、θは、バイアスであり、φは、活性化関数である。活性化関数は、非線形関数であり、例えば、ステップ関数(形式ニューロン)、単純パーセプトロン、シグモイド関数又はReLU(ランプ関数)である。
【0082】
図10に示される三層のニューラルネットワークでは、入力側(
図10の左側)から複数の入力ベクトルx(
図10では入力ベクトルx1,x2,x3)が入力され、出力側(
図10の右側)から複数の出力ベクトルy(
図10では出力ベクトルy1,y2,y3)が出力される。このニューラルネットワークは、3つの層L1,L2,L3から構成される。
【0083】
第1の層L1では、入力ベクトルx1,x2,x3は、3つのニューロンN11,N12,N13のそれぞれに、対応する重みが掛けられて入力される。
図10では、これらの重みは、まとめてW1と表記されている。ニューロンN11,N12,N13は、それぞれ、特徴ベクトルz11,z12,z13を出力する。
【0084】
第2の層L2では、特徴ベクトルz11,z12,z13は、2つのニューロンN21,N22のそれぞれに、対応する重みが掛けられて入力される。
図10では、これらの重みは、まとめてW2と表記されている。ニューロンN21,N22は、それぞれ、特徴ベクトルz21,z22を出力する。
【0085】
第3の層L3では、特徴ベクトルz21,z22は、3つのニューロンN31,N32,N33のそれぞれに、対応する重みが掛けられて入力される。
図10では、これらの重みは、まとめてW3と表記されている。ニューロンN31,N32,N33は、それぞれ、出力ベクトルy1,y2,y3を出力する。
【0086】
ニューラルネットワークの動作には、学習モードと予測モードとがある。学習モードでは、学習データセットを用いて重みW1,W2,W3を学習する。予測モードでは、学習した重みW1,W2,W3のパラメータを用いて識別等の予測を行う。
【0087】
重みW1,W2,W3は、例えば、誤差逆伝播法(バックプロパゲーション)により学習可能である。この場合、誤差に関する情報は、出力側から入力側に向かって、言い換えると、
図10において右側から左側に向かって伝達される。誤差逆伝播法は、各ニューロンにおいて、入力xが入力されたときの出力yと、真の出力y(教師データ)との差を小さくするように、重みW1,W2,W3を調整して学習する手法である。
【0088】
ニューラルネットワークは、3層より多い層を有するように構成することができる。4層以上のニューラルネットワークによる機械学習の手法は、ディープラーニング(深層学習)として知られている。
【0089】
(4-2)サポートベクターマシン
サポートベクターマシン(SVM)とは、最大マージンを実現する2クラス線形識別関数を求めるアルゴリズムである。
図11は、SVMを説明するための図である。2クラス線形識別関数とは、
図11に示される特徴空間において、2つのクラスC1,C2の学習データを線形分離するための超平面である識別超平面P1,P2を表す。
図11において、クラスC1の学習データは円で示され、クラスC2の学習データは正方形で示されている。識別超平面のマージンとは、識別超平面に最も近い学習データと、識別超平面との間の距離である。
図11には、識別超平面P1のマージンd1、及び、識別超平面P2のマージンd2が示されている。SVMでは、マージンが最大となるような識別超平面である最適識別超平面P1が求められる。一方のクラスC1の学習データと最適識別超平面P1との間の距離の最小値d1は、他方のクラスC2の学習データと最適識別超平面P2との間の距離の最小値d1と等しい。
【0090】
図11において、2クラス問題の教師あり学習に用いられる学習データセットD
Lを以下の式(2)で表す。
【0091】
学習データセットDLは、学習データ(特徴ベクトル)xiと、教師データti={-1,+1}との対の集合である。学習データセットDLの要素数は、Nである。教師データtiは、学習データxiがクラスC1,C2のどちらに属するのかを表す。クラスC1はti=-1のクラスであり、クラスC2はti=+1のクラスである。
【0092】
図11において、全ての学習データx
iで成り立つ、正規化された線形識別関数は、以下の2つの式(3-1)及び(3-2)で表される。wは係数ベクトルであり、bはバイアスである。
【0093】
これらの2つの式は、以下の1つの式(4)で表される。
【0094】
識別超平面P1,P2を以下の式(5)で表す場合、そのマージンdは、式(6)で表される。
【0095】
式(6)において、ρ(w)は、クラスC1,C2のそれぞれの学習データx
iを識別超平面P1,P2の法線ベクトルw上に射影した長さの差の最小値を表す。式(6)の「min」及び「max」の項は、それぞれ、
図11において符号「min」及び符号「max」で示された点である。
図11において、最適識別超平面は、マージンdが最大となる識別超平面P1である。
【0096】
図11は、2クラスの学習データが線形分離可能である特徴空間を表す。
図12は、
図11と同様の特徴空間であって、2クラスの学習データが線形分離不可能である特徴空間を表す。2クラスの学習データが線形分離不可能である場合、式(4)にスラック変数ξ
iを導入して拡張した次の式(7)を用いることができる。
【0097】
スラック変数ξ
iは、学習時のみに使用され、0以上の値をとる。
図12には、識別超平面P3と、マージン境界B1,B2と、マージンd3とが示されている。識別超平面P3の式は式(5)と同じである。マージン境界B1,B2は、識別超平面P3からの距離がマージンd3である超平面である。
【0098】
スラック変数ξ
iが0の場合、式(7)は式(4)と等価である。このとき、
図12において白抜きの円又は正方形で示されるように、式(7)を満たす学習データx
iは、マージンd3内で正しく識別される。このとき、学習データx
iと識別超平面P3との間の距離は、マージンd3以上である。
【0099】
スラック変数ξ
iが0より大きく1以下の場合、
図12においてハッチングされた円又は正方形で示されるように、式(7)を満たす学習データx
iは、マージン境界B1,B2を超えているが、識別超平面P3を超えておらず、正しく識別される。このとき、学習データx
iと識別超平面P3との間の距離は、マージンd3未満である。
【0100】
スラック変数ξ
iが1より大きい場合、
図12において黒塗りの円又は正方形で示されるように、式(7)を満たす学習データx
iは、識別超平面P3を超えており、誤認識される。
【0101】
このように、スラック変数ξiを導入した式(7)を用いることで、2クラスの学習データが線形分離不可能である場合においても、学習データxiを識別することができる。
【0102】
上述の説明から、全ての学習データx
iのスラック変数ξ
iの和は、誤認識される学習データx
iの数の上限を表す。ここで、評価関数L
pを次の式(8)で定義する。
【0103】
学習部103,203は、評価関数Lpの出力値を最小化する解(w、ξ)を求める。式(8)において、第2項のパラメータCは、誤認識に対するペナルティの強さを表す。パラメータCが大きいほど、wのノルム(第1項)よりも誤認識数(第2項)を小さくする方を優先する解が求められる。
【0104】
(4-3)決定木
決定木とは、複数の識別器を組み合わせて複雑な識別境界(非線形識別関数等)を得るためのモデルである。識別器とは、例えば、ある特徴軸の値と閾値との大小関係に関する規則である。学習データから決定木を構成する方法としては、例えば、特徴空間を2分割する規則(識別器)を求めることを繰り返す分割統治法がある。
図13は、分割統治法によって構成された決定木の一例である。
図14は、
図13の決定木によって分割される特徴空間を表す。
図14では、学習データは白丸又は黒丸で示され、
図13に示される決定木によって、各学習データは、白丸のクラス又は黒丸のクラスに分類される。
図13には、1から11までの番号が付されたノードと、ノード間を結びYes又はNoのラベルが付されたリンクとが示されている。
図13において、終端ノード(葉ノード)は、四角で示され、非終端ノード(根ノード及び内部ノード)は、丸で示されている。終端ノードは、6から11までの番号が付されたノードであり、非終端ノードは、1から5までの番号が付されたノードである。各終端ノードには、学習データを表す白丸又は黒丸が示されている。各非終端ノードには、識別器が付されている。識別器は、特徴軸x
1、x
2の値と閾値a~eとの大小関係を判断する規則である。リンクに付されたラベルは、識別器の判断結果を示す。
図14において、識別器は点線で示され、識別器によって分割された領域には、対応するノードの番号が付されている。
【0105】
分割統治法によって適切な決定木を構成する過程では、以下の(a)~(c)の3点について検討する必要がある。
(a)識別器を構成するための特徴軸及び閾値の選択。
(b)終端ノードの決定。例えば、1つの終端ノードに含まれる学習データが属するクラスの数。又は、決定木の剪定(根ノードが同じ部分木を得ること)をどこまで行うかの選択。
(c)終端ノードに対する多数決によるクラスの割り当て。
【0106】
決定木の学習方法には、例えば、CART、ID3及びC4.5が用いられる。CARTは、
図13及び
図14に示されるように、終端ノード以外の各ノードにおいて特徴空間を特徴軸ごとに2分割することで、決定木として2分木を生成する手法である。
【0107】
決定木を用いる学習では、学習データの識別性能を向上させるために、非終端ノードにおいて特徴空間を最適な分割候補点で分割することが重要である。特徴空間の分割候補点を評価するパラメータとして、不純度とよばれる評価関数が用いられてもよい。ノードtの不純度を表す関数I(t)としては、例えば、以下の式(9-1)~(9-3)で表されるパラメータが用いられる。Kは、クラスの数である。
【0108】
上式において、確率P(Ci|t)は、ノードtにおけるクラスCiの事後確率であり、言い換えると、ノードtにおいてクラスCiのデータが選ばれる確率である。式(9-3)の第2式において、確率P(Cj|t)は、クラスCiのデータがj(≠i)番目のクラスに間違われる確率であるので、第2式は、ノードtにおける誤り率を表す。式(9-3)の第3式は、全てのクラスに関する確率P(Ci|t)の分散の和を表す。
【0109】
不純度を評価関数としてノードを分割する場合、例えば、当該ノードにおける誤り率、及び、決定木の複雑さで決まる許容範囲まで、決定木を剪定する手法が用いられる。
【0110】
(4-4)ランダムフォレスト
ランダムフォレストは、アンサンブル学習の一種であって、複数の決定木を組み合わせて識別性能を強化する手法である。ランダムフォレストを用いる学習では、相関が低い複数の決定木からなる群(ランダムフォレスト)が生成される。ランダムフォレストの生成及び識別には、以下のアルゴリズムが用いられる。
(A)m=1からMまで以下を繰り返す。
(a)N個のd次元学習データから、m個のブートストラップサンプルZmを生成する。
(b)Zmを学習データとして、以下の手順で各ノードtを分割して、m個の決定木を生成する。
(i)d個の特徴からd´個の特徴をランダムに選択する。(d´<d)
(ii)選択されたd´個の特徴の中から、学習データの最適な分割を与える特徴と分割点(閾値)を求める。
(iii)求めた分割点でノードtを2分割する。
(B)m個の決定木からなるランダムフォレストを出力する。
(C)入力データに対して、ランダムフォレストの各決定木の識別結果を得る。ランダムフォレストの識別結果は、各決定木の識別結果の多数決によって決定される。
【0111】
ランダムフォレストを用いる学習では、決定木の各非終端ノードにおいて識別に用いる特徴をあらかじめ決められた数だけランダムに選択することで、決定木間の相関を低くすることができる。
【0112】
(5)変形例E
第1乃至第3実施形態において、学習部103,203が用いる機械学習の手法である強化学習について説明する。強化学習は、一連の行動の結果としての報酬が最大となるような方策を学習する手法である。強化学習で用いられるモデル又はアルゴリズムは、Q学習(Q-learning)等がある。Q学習は、状態sの下で行動aを選択する価値を表すQ値を学習する手法である。Q学習では、Q値が最も高い行動aが最適な行動として選択される。高いQ値を求めるため、行動aの主体(エージェント)には、状態sの下で選択した行動aに対して報酬が与えられる。Q学習では、エージェントが行動するたびに、以下の式(10)を用いて、Q値が更新される。
【0113】
式(10)において、Q(st,at)は、状態stのエージェントが行動atを選択する価値を表すQ値である。Q(st,at)は、状態sと行動aとをパラメータとする関数(行動価値関数)である。stは、時刻tにおけるエージェントの状態である。atは、時刻tにおけるエージェントの行動である。αは、学習係数である。αは、式(10)によってQ値が最適な値に収束するように設定される。rt+1は、エージェントが状態st+1に遷移したときに得る報酬である。γは、割引率である。γは、0以上1以下の定数である。maxを含む項は、環境st+1の下で、最もQ値が高い行動aを選択した場合のQ値にγを掛けたものである。行動価値関数によって求められるQ値は、エージェントが得る報酬の期待値である。
【0114】
(6)変形例F
第3実施形態では、機械学習装置200は、制御量取得部202を備える。しかし、機械学習装置200は、制御量取得部202を備えていなくてもよい。この場合、機械学習装置200の学習部203は、学習データとして、制御量決定部206が決定した制御パラメータを用いてもよい。
【0115】
(7)変形例G
上述の実施形態及び変形例において、機械学習装置100,200は、教師あり学習又は強化学習の手法を用いる。しかし、機械学習装置100,200は、教師あり学習と強化学習とを組み合わせた手法を用いてもよい。
【0116】
(8)変形例H
上述の実施形態及び変形例において、学習部103,203は、種種の機械学習の手法を用い得る。学習部103,203が用い得る機械学習の手法は、既に説明した教師あり学習及び強化学習の他に、教師なし学習、半教師あり学習、トランスダクティブ学習、マルチタスク学習及び転移学習等がある。学習部103,203は、これらの手法を組み合わせて用いてもよい。
【0117】
教師なし学習は、教師データを用いずに、所定の統計的性質に基づいて入力データをグループ分け(クラスタリング)する手法である。教師なし学習で用いられるモデル又はアルゴリズムとしては、k平均法(k-means法)、ウォード法(Ward法)、主成分分析等がある。k平均法は、各入力データにランダムにクラスタを割り当て、各クラスタの中心を計算し、各入力データを最も近い中心のクラスタに割り当て直す工程を繰り返す手法である。ウォード法は、クラスタの各入力データからクラスタの質量中心までの距離を最小化するように、各入力データをクラスタに割り当て直す工程を繰り返す手法である。主成分分析は、相関のある複数の変数から、相関の最も小さい主成分と呼ばれる変数を生成する多変量解析の手法である。
【0118】
半教師あり学習は、対応する教師データが付かない入力データ(ラベルなしデータ)と、対応する教師データ付きの入力データ(ラベルありデータ)との両方を用いて学習する手法である。
【0119】
トランスダクティブ学習は、半教師あり学習において、学習に用いられるラベルなしデータに対応する出力を生成し、未知の入力データに対応する出力を生成しない手法である。
【0120】
マルチタスク学習は、複数の関連するタスク同士の情報を共有して、これらのタスクを同時に学習させることで、タスクに共通の要因を獲得してタスクの予測精度を上げる手法である。
【0121】
転移学習は、あるドメインで予め学習させたモデルを、別のドメインに適応することで予測精度を上げる手法である。
【0122】
―むすび―
以上、本開示の実施形態を説明したが、特許請求の範囲に記載された本開示の趣旨及び範囲から逸脱することなく、形態や詳細の多様な変更が可能なことが理解されるであろう。
【産業上の利用可能性】
【0123】
機械学習装置は、対象者の温冷感の予測値を高い精度で取得することができる。
【符号の説明】
【0124】
10 環境調整装置
20 対象者
100 機械学習装置
101 状態変数取得部(第1取得部)
102 制御量取得部(第2取得部)
103 学習部
104 関数更新部(更新部)
105 推論部
106 操作量候補出力部(出力部)
107 操作量決定部(決定部)
200 機械学習装置
201 状態変数取得部(第1取得部)
202 制御量取得部(第2取得部)
203 学習部
204 関数更新部(更新部)
204a 教師データ蓄積部(蓄積部)
204b 判定部
205 評価データ取得部(第3取得部)
207 関数変更部(変更部)
【先行技術文献】
【特許文献】
【0125】