IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 学校法人 工学院大学の特許一覧 ▶ 学校法人沖縄科学技術大学院大学学園の特許一覧

特開2022-124284最適化装置、最適化方法、及び最適化プログラム
<>
  • 特開-最適化装置、最適化方法、及び最適化プログラム 図1
  • 特開-最適化装置、最適化方法、及び最適化プログラム 図2
  • 特開-最適化装置、最適化方法、及び最適化プログラム 図3
  • 特開-最適化装置、最適化方法、及び最適化プログラム 図4
  • 特開-最適化装置、最適化方法、及び最適化プログラム 図5
  • 特開-最適化装置、最適化方法、及び最適化プログラム 図6
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2022124284
(43)【公開日】2022-08-25
(54)【発明の名称】最適化装置、最適化方法、及び最適化プログラム
(51)【国際特許分類】
   G06N 20/00 20190101AFI20220818BHJP
   G06N 99/00 20190101ALI20220818BHJP
   G06Q 10/04 20120101ALI20220818BHJP
【FI】
G06N20/00
G06N99/00 180
G06Q10/04
【審査請求】未請求
【請求項の数】4
【出願形態】OL
(21)【出願番号】P 2021021962
(22)【出願日】2021-02-15
(71)【出願人】
【識別番号】501241645
【氏名又は名称】学校法人 工学院大学
(71)【出願人】
【識別番号】512155478
【氏名又は名称】学校法人沖縄科学技術大学院大学学園
(74)【代理人】
【識別番号】110001519
【氏名又は名称】特許業務法人太陽国際特許事務所
(72)【発明者】
【氏名】竹川 高志
(72)【発明者】
【氏名】高橋 春輝
(72)【発明者】
【氏名】酒井 裕
(72)【発明者】
【氏名】深井 朋樹
【テーマコード(参考)】
5L049
【Fターム(参考)】
5L049AA04
(57)【要約】
【課題】演算に係る効率を向上させることを可能とする。
【解決手段】隠れ状態を所定の態様に変更した独自隠れ状態、及び独自隠れ状態における現在の状態の推定を保持し、観測状態の法則は、条件付き確率の条件として時刻tの観測を用い、独自隠れ状態を得るように、状態の推移法則は、条件付き確率の条件として時刻tの独自隠れ状態及び時刻t+1の独自隠れ状態を用い、エージェントの行動を得るように、状態の推移法則、及び観測状態の法則を定義する。各法則を用いて、エージェントの手順に従って分布を更新する。
【選択図】図2
【特許請求の範囲】
【請求項1】
状態の推移法則、観測状態の法則、及び報酬の法則による各法則が定義されている系を用い、エージェントの行動を繰り返して前記各法則を学習し報酬を獲得するモデルにおいて、
隠れ状態を所定の態様に変更した独自隠れ状態、及び前記独自隠れ状態における現在の状態の推定を保持し、
前記観測状態の法則は、条件付き確率の条件として時刻tの観測を用い、前記独自隠れ状態を得るように、
前記状態の推移法則は、条件付き確率の条件として時刻tの前記独自隠れ状態及び時刻t+1の前記独自隠れ状態を用い、前記エージェントの行動を得るように、
前記状態の推移法則、及び前記観測状態の法則を定義する設定部と、
前記各法則をもとにサンプリングした確率を表す各パラメータの分布と、前記現在の状態の推定とを仮定して、ベルマン方程式に基づいて前記エージェントの最適行動を決定し、
前記各法則、所定の事前分布、及び前記最適行動を含む観測情報に対してベイズの定理を適用して得られた事後分布により、前記現在の状態の推定、及び前記各法則を用いた前記分布を更新することを繰り返す更新部と、
を含む最適化装置。
【請求項2】
前記更新部は、エージェントの動作の手順において、各パラメータをサンプリングすることにより、ベルマン方程式に基づき、長期報酬qが最大の行動を選択する請求項1に記載の最適化装置。
【請求項3】
状態の推移法則、観測状態の法則、及び報酬の法則による各法則が定義されている系を用い、エージェントの行動を繰り返して前記各法則を学習し報酬を獲得するモデルにおいて、
隠れ状態を所定の態様に変更した独自隠れ状態、及び前記独自隠れ状態における現在の状態の推定を保持し、
前記観測状態の法則は、条件付き確率の条件として時刻tの観測を用い、前記独自隠れ状態を得るように、
前記状態の推移法則は、条件付き確率の条件として時刻tの前記独自隠れ状態及び時刻t+1の前記独自隠れ状態を用い、前記エージェントの行動を得るように、
前記状態の推移法則、及び前記観測状態の法則を定義し、
前記各法則をもとにサンプリングした確率を表す各パラメータの分布と、前記現在の状態の推定とを仮定して、ベルマン方程式に基づいて前記エージェントの最適行動を決定し、
前記各法則、所定の事前分布、及び前記最適行動を含む観測情報に対してベイズの定理を適用して得られた事後分布により、前記現在の状態の推定、及び前記各法則を用いた前記分布を更新することを繰り返す、
処理をコンピュータに実行させる最適化方法。
【請求項4】
コンピュータを、請求項1又は請求項2に記載の最適化装置の各部として機能させるためのプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、最適化装置、最適化方法、及び最適化プログラムに関する。
【背景技術】
【0002】
問題設定に対する解決手法のアプローチとして、隠れマルコフモデル、ベイズ推定、及び強化学習等の手法が用いられている。
【0003】
例えば、特許文献1には、隠れ状態数および観測確率の種類と共にモデルの候補数が指数的に増加しても高速にモデル選択を実現できる隠れ変数モデル推定装置が開示されている。この隠れ変数モデル推定装置は、周辺化対数尤度関数を完全変数に対する推定量に関してラプラス近似した近似量の下界として定義される基準値を最大化することによって変分確率を計算する変分確率計算部を有する。また、隠れ変数モデル推定装置は、各隠れ状態に対して観測確率の種類とパラメータを推定することで最適な隠れ変数モデルを推定するモデル推定部と、変分確率計算部が変分確率を計算する際に用いた基準値が収束したか否かを判定する収束判定部とを有する。
【0004】
また、特許文献2には、環境と相互作用する強化学習エージェントが遂行する行動を選択するシステムが開示されている。このシステムは、目標回帰型ニューラルネットワーク(NN)の現在の隠れ状態に従って処理して、時間ステップについて、目標空間における初期の目標ベクトルを生成し、目標回帰型NNの内部状態を更新するように構成される、処理する工程を有している。
【0005】
また、強化学習は、状態と行動の組み合わせに対して報酬と次の状態が決定する手法である。
【先行技術文献】
【特許文献】
【0006】
【特許文献1】再表2013/179579号公報
【特許文献2】特表2020-508524号公報
【発明の概要】
【発明が解決しようとする課題】
【0007】
強化学習の枠組みにおいて、標準的にQ学習と呼ばれる手法が用いられている。Q学習は離散の状態に対して定義されるが、現実の課題は膨大な観測状態が存在するため、通常のQ学習では学習が難しい場合が多い。
【0008】
近年、発展系であるQ学習と多層のニューラルネットワークを組み合わせたDeep Q Network (DQN)がさまざまな課題において有効であることが示されている。学習済みのDQNは非常に高い性能を示すが、動作の内部状態がブラックボックスで与えられた環境をどのように解釈しているかが不明である。また、学習後の性能は高いが学習には多くの反復を必要とし,学習中に効果的に報酬を獲得することはあまり考慮されていない。
【0009】
一方、膨大な観測から重要な隠れ状態を推定しつつ状態遷移を効果的に学習するベイズ推定を用いたアルゴリズムも広く知られている。しかし、この手法では報酬の予測と状態遷移を別に扱うため、報酬と無関係な状態を詳細に分析していることとなり、問題設定によってはメモリ、及び計算量などに多大な無駄が生じる。また、多腕バンディット問題と呼ばれる枠組みにおいて、学習と報酬獲得とをバランス良く行う汎用の手法としてトンプソンサンプリングが知られているが、複雑な問題に直接適用することはできない。
【0010】
本発明は、上記事情を鑑みて成されたものであり、演算に係る効率を向上させることを可能とする最適化装置、最適化方法、及び最適化プログラムを提供することを目的とする。
【課題を解決するための手段】
【0011】
上記目的を達成するために、本発明に係る最適化装置は、状態の推移法則、観測状態の法則、及び報酬の法則による各法則が定義されている系を用い、エージェントの行動を繰り返して前記各法則を学習し報酬を獲得するモデルにおいて、隠れ状態を所定の態様に変更した独自隠れ状態、及び前記独自隠れ状態における現在の状態の推定を保持し、前記観測状態の法則は、条件付き確率の条件として時刻tの観測を用い、前記独自隠れ状態を得るように、前記状態の推移法則は、条件付き確率の条件として時刻tの前記独自隠れ状態及び時刻t+1の前記独自隠れ状態を用い、前記エージェントの行動を得るように、前記状態の推移法則、及び前記観測状態の法則を定義する設定部と、前記各法則をもとにサンプリングした確率を表す各パラメータの分布と、前記現在の状態の推定とを仮定して、ベルマン方程式に基づいて前記エージェントの最適行動を決定し、前記各法則、所定の事前分布、及び前記最適行動を含む観測情報に対してベイズの定理を適用して得られた事後分布により、前記現在の状態の推定、及び前記各法則を用いた前記分布を更新することを繰り返す更新部と、を含んで構成されている。
【0012】
本発明に係る最適化方法は、状態の推移法則、観測状態の法則、及び報酬の法則による各法則が定義されている系を用い、エージェントの行動を繰り返して前記各法則を学習し報酬を獲得するモデルにおいて、隠れ状態を所定の態様に変更した独自隠れ状態、及び前記独自隠れ状態における現在の状態の推定を保持し、前記観測状態の法則は、条件付き確率の条件として時刻tの観測を用い、前記独自隠れ状態を得るように、前記状態の推移法則は、条件付き確率の条件として時刻tの前記独自隠れ状態及び時刻t+1の前記独自隠れ状態を用い、前記エージェントの行動を得るように、前記状態の推移法則、及び前記観測状態の法則を定義し、前記各法則をもとにサンプリングした確率を表す各パラメータの分布と、前記現在の状態の推定とを仮定して、ベルマン方程式に基づいて前記エージェントの最適行動を決定し、前記各法則、所定の事前分布、及び前記最適行動を含む観測情報に対してベイズの定理を適用して得られた事後分布により、前記現在の状態の推定、及び前記各法則を用いた前記分布を更新することを繰り返す、処理をコンピュータに実行させる。
【発明の効果】
【0013】
本発明の最適化装置、最適化方法、及び最適化プログラムによれば、演算に係る効率を向上させることを可能とする、という効果が得られる。
【図面の簡単な説明】
【0014】
図1】状態及び法則の推定に関して、従来手法の遷移図と、本実施形態の手法の遷移図との一例を示した図である。
図2】本発明の実施形態に係る最適化装置の各機能構成を示す図である。
図3】最適化装置のハードウェア構成を示すブロック図である。
図4】本発明の実施形態に係る最適化装置の最適化処理ルーチンを示す図である。
図5】本実施形態の手法と他の手法の実験結果の一例を示すグラフである。
図6】実験における収束時の隠れ状態数を表にした図である。
【発明を実施するための形態】
【0015】
以下、図面を参照して本発明の実施形態を詳細に説明する。
【0016】
まず、本発明の実施形態における原理的な説明をする。
【0017】
図1は、状態及び法則の推定に関して、従来手法の遷移図と、本実施形態の手法の遷移図との一例を示した図である。まず基本的な原理として、従来手法の状態及び法則の推定について説明する。従来手法、及び本実施形態の手法は共通して、状態の推移法則、観測状態の法則、及び報酬の法則による各法則が定義されている系(遷移図)を用い、エージェントの行動を繰り返して各法則を学習し報酬を獲得する内部モデルを持つ。図1上は、従来手法の状態及び法則の推定の遷移図である。時刻tに対して観測oが得られ、行動aを選択すると報酬rと次の観測ot+1が得られる環境が与えられたとする。この場合に、割引率γに対する長期報酬Στ=0 γτt+τをできるだけ大きくするような選択を行いたい。また、観測oの背景には隠れ状態が存在し、行動によって隠れ状態が確率的に変化し、報酬も確率的に決定されるものとする。標準的には、隠れ状態をsとし,状態の推移法則p(st+1│s,a)、観測状態の法則p(o│s)及び報酬の法則p(r│s,a)が定義されている系を想定する。以下、推移法則、観測法則、及び報酬法則という。ただし、目的を達成するためのアルゴリズム(エージェント)にとってこれらの法則は未知であり。行動を繰り返して法則を学習しつつ並行して高い報酬を獲得する必要がある。
【0018】
一方、本発明の実施形態に係る原理において、エージェントは、環境に対する内部モデルとして、独自隠れ状態s’と現在の状態の推定q(s’)を保持している。ここで、s’はsの報酬に関連する要素に着目して簡略化したものを想定している。ただし、sは存在そのものと推移則は仮定しているものの実際に推定するわけではない。何らかの複雑な状態と推移則があるとして、それを直接考えることなく、報酬の観点から不要な状態を排除したものがs’である。
【0019】
本実施形態の手法では、推移法則、観測法則、及び報酬法則についても内部モデルを持つが、観測法則と推移法則とに関して実際の法則と異なるp(s’│o)とp(a│s’,st+1’)との形式を用いていることが特徴である。報酬法則p(r│s’,a)に関しては実際の法則と同様である。このような形式により、本実施形態の状態及び法則の推定の遷移図は、図1下のようにできる。エージェントは各法則のパラメータを確率分布として保持し、観測結果に応じて学習する。具体的には、確率を表すパラメータであるM’(s’,st+1’,a)=p(a│s’,st+1’),N’(s’,o)=p(o│s’),L(s’,a,r)=p(r│s’,a)に対して、パラメータの予測であるq(M’),q(N’),q(L)が設定されている。q(M’)とq(N’)は容易に実際の法則と対応するq(M)とq(N)に変換できる。
【0020】
ここで、パラメータについて説明する。例えば、p(r|s,L)では、s1という状態でrの取り得る値がr1,r2,r3だったとすると、L(s1,r1)はr1が得られる確率を表し、L(s1,r1)+L(s1,r2)+L(s1,r3)=1と、Lは行列として表現できる。Mについては、s,s’,aのindexをとるテンソルとなり、aについて和をとると1となる。
【0021】
エージェントは、次の手順で動作する。[1]確率分布q(M),q(N),q(L)に従ってM,N,Lをサンプリングする。[2]サンプリングしたM,N,Lと状態推定q(s’)が正しいと仮定した場合の最適行動aをベルマン方程式に基づいて決定し出力する。最適行動aを出力した結果、新しい情報としてr,ot+1を得る。[3]法則p(a│s’,st+1’),p(o│s’),p(r│s’,a)と、事前分布q(s’),q(M’),q(N),q(L)と、観測された情報o,a,r,ot+1に対してベイズの定理を適用する。得られた事後分布を、新たな知識q(st+1’),q(M’),q(N),q(L)として更新する。[4]その後、[1]に戻り反復する。
【0022】
ベルマン方程式では、行動aを行った場合の長期報酬qの期待値が求まるので、単純にqが最大の行動を取る。ベイズの定理を適用とは、各法則p(a|s,s’,M),p(s|o,L),p(r|s,N)と事前分布p(L,M,N)を用いて、事後分布p(s,s’,L,M,N|o,o’,r,r’)を計算することを指す。以下に事後分布の計算の適用例を示す。
【0023】
p(s,s’,L,M,N|o,o’,r,r’,a)
∝p(r,r’,a,s,s’,L,M,N|o,o’)
=p(r|s,N)p(r’|s’,N)p(a|s,s’,M)p(s|o,L),p(s’|o’,L)p(L,M,N)
【0024】
その他、計算の手法は毎回変分ベイズを用いて事後分布を収束するまで計算するが、従来手法では毎回事後分布を収束するまで計算せず変分ベイズの1stepのみ更新する実装がされている。また、本実施形態の手法の方が計算量は増えるが、オンライン性の大きな向上が見込める。
【0025】
上記手順の特徴について説明する。手順[1]は状態推移についてトンプソンサンプリングを適用することが従来手法では試みられていない。従来手法としては、[1]及び[2]をまとめる形でニューラルネットワークによるqの予測を行うことが主流である。また、手順[2]については、M,N,Lが既知の場合にqを求めることは標準的な手法であり、Qを元にsoftmaxで確率的に行動を決定するのが標準的な手法である。これに対して、本実施形態の手法では[1]でサンプリングしているので、softmaxは使わず単純にqが最大の行動を選択する点に特徴がある。手順[3]については、従来手法では確率モデルp(st+1|s,a),p(o|s)を仮定するのに対し、本実施形態の手法では、p(a|s’,st+1’),p(s’|o)を仮定して定式化している点が大きく異なる。また、従来手法では観測oを単純なカテゴリカル分布と仮定しているのに対し、本実施形態の手法ではカテゴリカル分布の直積に拡張している。
【0026】
なお、上記の例では、計算には変分ベイズを用いることとしているが、手順自体に変分ベイズが必須ではなく、他の計算手法を用いてもよい。
【0027】
<本発明の実施形態に係る最適化装置の構成>
次に、本発明の実施形態に係る最適化装置の構成について説明する。
【0028】
図2は、本発明の実施形態に係る最適化装置100の各機能構成を示す図である。図2に示すように、この最適化装置100は、機能的には、設定部110と、更新部112と、記憶部120とを備えている。
【0029】
設定部110は、状態の推移法則、及び観測状態の法則の定義を設定し、当該設定を記憶部120に保存する。以下、各法則に関して、適宜当該設定を読み出して処理を行う。
【0030】
上記原理において示したように、設定によって、隠れ状態sを所定の態様に変更した独自隠れ状態s’、及び独自隠れ状態における現在の状態の推定q(s’)を保持する。設定によって、観測状態の法則は、条件付き確率の条件として時刻tの観測oを用い、独自隠れ状態s’を得るようにする(p(s’│o))。設定によって、状態の推移法則は、条件付き確率の条件として時刻tの独自隠れ状態s’及び時刻t+1の独自隠れ状態st+1’を用い、エージェントの行動aを得るようにする(p(a│s’,st+1’))。
【0031】
更新部112は、エージェントの最適行動aを決定し、分布を更新することを繰り返す。更新は、予め定めた条件を満たすまで繰り返せばよい。エージェントの最適行動aは、まず、上記エージェントの動作の手順[1]に従って、各法則をもとに確率を表す各パラメータのM,N,Lをサンプリングする。次に手順[2]に従って、サンプリングした各パラメータM,N,Lと、現在の状態の推定q(s’)とを仮定して、ベルマン方程式に基づいてエージェントの最適行動aを決定し出力する。最適行動aを出力した結果、新しい情報としてr,ot+1を得る。手順[3]に従って、各法則p(a│s’,st+1’),p(o│s’),p(r│s’,a)、所定の事前分布q(s’),q(M’),q(N),q(L)、及び最適行動を含む観測情報o,a,r,ot+1に対してベイズの定理を適用して事後分布を得る。そして、更新部112は、得られた事後分布により、現在の状態の推定、及び各法則を用いた分布q(st+1’),q(M’),q(N),q(L)を更新することを繰り返すことにより、最終的に収束された分布を出力する。
【0032】
記憶部120には、設定部110で設定された各法則に係る設定、更新部112の計算過程の計算データ、及び計算結果が保存される。
【0033】
図3は、最適化装置100のハードウェア構成を示すブロック図である。
【0034】
図3に示すように、最適化装置100は、CPU(Central Processing Unit)11、ROM(Read Only Memory)12、RAM(Random Access Memory)13、ストレージ14、入力部15、表示部16及び通信インタフェース(I/F)17を有する。各構成は、バス19を介して相互に通信可能に接続されている。
【0035】
CPU11は、中央演算処理ユニットであり、各種プログラムを実行したり、各部を制御したりする。すなわち、CPU11は、ROM12又はストレージ14からプログラムを読み出し、RAM13を作業領域としてプログラムを実行する。CPU11は、ROM12又はストレージ14に記憶されているプログラムに従って、上記各構成の制御及び各種の演算処理を行う。本実施形態では、ROM12又はストレージ14には、最適化プログラムが格納されている。
【0036】
ROM12は、各種プログラム及び各種データを格納する。RAM13は、作業領域として一時的にプログラム又はデータを記憶する。ストレージ14は、HDD(Hard Disk Drive)又はSSD(Solid State Drive)等の記憶装置により構成され、オペレーティングシステムを含む各種プログラム、及び各種データを格納する。
【0037】
入力部15は、マウス等のポインティングデバイス、及びキーボードを含み、各種の入力を行うために使用される。
【0038】
表示部16は、例えば、液晶ディスプレイであり、各種の情報を表示する。表示部16は、タッチパネル方式を採用して、入力部15として機能してもよい。
【0039】
通信インタフェース17は、端末等の他の機器と通信するためのインタフェースであり、例えば、イーサネット(登録商標)、FDDI、Wi-Fi(登録商標)等の規格が用いられる。
【0040】
<本発明の実施形態に係る最適化装置の作用>
次に、本発明の実施形態に係る最適化装置100の作用について説明する。最適化装置100の各部としてCPU11が、図4に示す最適化処理ルーチンを実行する。
【0041】
ステップS100では、CPU11が、状態の推移法則、及び観測状態の法則の定義を設定し、当該設定を記憶部120に保存する。
【0042】
ステップS102では、CPU11が、エージェントの動作の手順[1]に従って、各パラメータのM,N,Lをサンプリングする。
【0043】
ステップS104では、CPU11が、手順[2]に従って、サンプリングした各パラメータM,N,Lと、現在の状態の推定q(s’)とを仮定して、ベルマン方程式に基づいてエージェントの最適行動aを決定する。
【0044】
ステップS105では、CPU11が、最適行動aを出力した結果、新しい情報としてr,ot+1を得る。
【0045】
ステップS106では、CPU11が、手順[3]に従って、各法則、所定の事前分布、及び最適行動aを含む観測情報に対してベイズの定理を適用して事後分布を得る。
【0046】
ステップS108では、CPU11が、更新の条件を満たすか否かを判定する。条件を満たすと判定した場合にはステップS110へ移行し、条件を満たさないと判定した場合にはステップS102に戻って処理を繰り返す(「手順[4])。
【0047】
ステップS110では、最終的に得られた分布を出力し、処理を終了する。
【0048】
以上、説明した本発明の実施形態によれば、演算に係る効率を向上させることが可能である。また、技術のポイントは大きく、3つのポイントが挙げられる。1点目は確率モデルによる状態推定と意思決定問題とを統合した点、2点目は観測則と推移則とを通常の形式でなく独自の形式の法則とした点、3点目は手順におけるサンプリングの活用である。
【0049】
1点目の確率モデルによる状態推定と意思決定問題とを統合した点について説明する。これまで、カルマンフィルタなど観測からの隠れ状態の推定モデルについては様々な手法が提案されている。また、Q学習を代表として状態推移環境における意思決定問題についても多数の研究がある。しかし、現実として重要な問題であるにもかかわらず、両者を統合した問題については限定した取り組みしか行われていなかった。1点目の観点において本実施形態の技術は、状態推定と意思決定問題とを統合を手法である。
【0050】
2点目の独自の形式の法則とした点について説明する。本実施形態では、観測則と推移則とを、p(s’│ot)とp(a│s’,st+1’)の形式としたことである。この定式化により、確率モデルの上で観測oが推定すべき値でなく、すでに与えられた決定事項として扱うことができる。通常の形で定式化した場合、観測oは報酬と無関係にすべて別のものとして真の推移則全体を推定しようとする。一方。本実施形態の手法では観測oではなく、報酬が予測できれば十分となるため、真の推移則ではなく報酬の予測に必要な隠れ状態s’のみにより推移則が再構成される。このことにより、隠れ状態の数が少なくなり、学習を効率良く行うことが可能である。人間の認知などにおいて、視覚及び聴覚などの膨大な観測に対して、意思決定に真に必要な状態は少数である。本法則を用いることにより、このような高度なメカニズムをシンプルなモデルで効果的に実現可能である。
【0051】
3点目の手順におけるサンプリングの活用について説明する。不確実な内部モデルに対して、現在の推定に基づいてできるだけ報酬を得ようとする活用か、将来の報酬のために情報を得る探索か、のどちらを行うかが重要な問題である。本実施形態では、原理において述べた(2)及び(3)の手順により活用を行うが、元々の推定の不確定性を(1)のサンプリングで考慮しているので、最も効果的な探索を行うことができる。よって、状態推定モデルとサンプリングとによる意思決定を組み合わせたことによる効率化が図られている点が新規である。
【0052】
以上に示したように、本発明の実施形態の技術は、演算に係る効率を向上させることを可能とする。すなわち、状態と行動に依存して隠れ状態が推移し、観測状態が生成される隠れマルコフモデルに、報酬が付加されたモデルに対して、機会損失を少なくしつつ、少ない回数で状態の遷移を正しく推定し、結果の説明性が高いアルゴリズムを提供する。
【0053】
機会損失とは、エージェントの行動に関する損失である。例えば、a1という行動を取れば報酬がr1得られるにも関わらず、a2という行動でr2を得た場合、r1-r2が機会損失となる。初期状態で情報が不完全な場合には機会損失を0にすることはできないため、不完全な情報に従って行動したり、情報が十分あるのにも関わらず探索的な行動を取ったりする場合に、機会損失が大きくなるという性質がある。アルゴリズムを長期間繰り返し実行した場合に平均機会損失が少ないことが重要であり、機会損失を少なくする、ことと、トータルの報酬獲得を大きくする、こととはほぼ同じ意味を表す。
【0054】
[実験結果]
本実施形態の手法の実験結果を説明する。図5は、本実施形態の手法と他の手法の実験結果の一例を示すグラフである。図5は、推定手法ごとの試行回数ごとの累積報酬を示している。本実施形態の提案手法は、Omul→S→Rである。本実施形態の提案手法が最も早く最適な報酬を得られている。また、図6は、実験における収束時の隠れ状態数を表にした図である。本実施形態の手法では、観測状態が32種類に対して報酬と関係のある8種類の隠れ状態を推定することができている。このことが、高速に学習を行える要因である。
【0055】
なお、本実施形態の法則に関して補足する。図1で示されている法則は、エージェントには知らされない「真の法則」であり、この法則においては隠れ状態から観測が生成される。通常、確率モデルにおいては真の法則を求めることが一般的であるが、本実施形態で想定している問題設定では必ずしも複雑な真の法則すべてを推定することが必要ではない。特に状態sから観測oが得られるという部分については,次回どのような観測が得られるかという法則を学習することになるが、実際には状態oは観測できるため予測は不要であり、隠れ状態sと報酬rさえ予測できればよい。よって、oをあえて予測しないですむ定式化を考えた結果が本実施形態の手法である。
【0056】
例えば、真の法則において、4つの状態{s0,s1,s2,s3}と1対1で観測{o0,o1,o2,o3}が対応しているが、報酬の観点からは4つの状態が等価である場合を考えると、報酬を得るという目的のためにはどの観測であっても等価といえる。従来手法では、s0という状態からo0が、s1という状態からo2が生成されるということを区別して学習し、それに伴って状態数も多く必要となっていた。本実施形態の手法では、o0,o1,o2,o3が観測された場合は共通の状態であるということを学習している。真の法則というのも必ずしも1つの見方に固定されるものでなく、状態は同じで観測が確率的に生成されるという解釈もできる。その意味においてこの例ではsとs’とは完全に等価に対応している。
【0057】
一般に、従来手法のエージェントは必ず観測oが説明できるような状態とその推移モデルを構築している。一方、本実施形態の手法では様々な解釈があり得る中で、一見多様で複雑な観測に捉われずに、状態を報酬の観点からシンプルに再構成する。p(s|o),p(o)からベイズの定理によりp(o|s)が求まることからも,sとs’とは等価なモデルといえる。
【0058】
本発明の実施形態の技術は、観測状態と報酬が与えられる広範囲の問題設定に対し適用可能であり、従来の手法に比べて高速に学習可能であるため、多岐にわたる応用が考えられる。特にロボットの分野、及びAIを用いたエージェントシステムの高性能化などに活用が期待される。
【0059】
なお、本発明は、上述した実施形態に限定されるものではなく、この発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。
【符号の説明】
【0060】
100 最適化装置
110 設定部
112 更新部
120 記憶部
図1
図2
図3
図4
図5
図6