【文献】
Gang Luo,Toward a Progress Indicator for Machine Learning Model Building and Data Mining Algorithm Execution: A Position Paper,ACM SIGKDD Explorations Newsletter,2017年11月,URL,https://www.ncbi.nlm.nih.gov/pmc/articles/PMC5699516/
(58)【調査した分野】(Int.Cl.,DB名)
【発明を実施するための形態】
【0024】
以下、本発明の実施形態について図面を用いて詳細に説明する。
(第1実施形態)
【0025】
図1は本発明の第1実施形態の制御装置に含まれるサーボ制御装置の一構成例を示すブロック図である。
図1に示す制御装置10は、サーボ制御装置100、機械学習装置200、出力装置300、及び数値制御装置400を備えている。
図1ではサーボ制御装置100の構成を詳細に示しており、機械学習装置200及び出力装置の詳細な構成は後述する。サーボ制御装置100は数値制御装置400に接続され、出力装置300はサーボ制御装置100、機械学習装置200及び数値制御装置400に接続される。
サーボ制御装置100はサーボモータ500の回転を制御する。機械学習装置200はサーボ制御装置100の制御パラメータを機械学習する。出力装置300は機械学習装置200の機械学習中の情報及び機械学習結果を出力する。また、出力装置300は、機械学習装置100とサーボ制御装置100との間の情報の中継、機械学習装置100とサーボ制御装置100との動作の制御を行う調整装置としても機能する。さらに、出力装置300は、数値制御装置400に、通常の加工プログラムと、学習時の加工プログラム(評価用プログラム)と、学習時の加工プログラムよりも低速の検証時の加工プログラム(検証プログラム)と、学習時よりも高速の検証時の加工プログラム(検証プログラム)とのいずれかの起動指示を出力する。数値制御装置400は、記憶部に、通常の加工プログラムと、学習時の加工プログラムと、学習時の加工プログラムである評価用プログラムよりも低速の検証プログラムと、学習時よりも高速の検証プログラムを記憶している。
【0026】
数値制御装置400は、サーボモータ500を動作させる加工プログラムに基づいて位置指令値を作成する。サーボモータ500は、例えば工作機械に含まれる。工作機械において、被加工物(ワーク)を搭載するテーブルがX軸方向及びY軸方向に移動される場合には、X軸方向及びY軸方向に対してそれぞれ
図1に示すサーボ制御装置100及びサーボモータ500が設けられる。テーブルを3軸以上の方向に移動させる場合には、それぞれの軸方向に対してサーボ制御装置100及びサーボモータ500が設けられる。
数値制御装置400は、加工プログラムにより指定される加工形状となるように、送り速度を設定して位置指令値を作成する。
【0027】
最初に、サーボ制御装置100について説明する。
図1に示すように、サーボ制御装置100は、減算器101、位置制御部102、加算器103、減算器104、速度制御部105、加算器106、積分器107、速度フィードフォワード計算部108、及び位置フィードフォワード計算部109を備えている。加算器106はサーボモータ500に接続されている。
速度フィードフォワード計算部108は、2回微分器1081、及び速度フィードフォワード処理部1082を備えている。位置フィードフォワード計算部109は微分器1091、位置フィードフォワード処理部1092を備えている。
【0028】
数値制御装置400から出力された位置指令値は、減算器101、速度フィードフォワード計算部108、位置フィードフォワード計算部109、及び出力装置300に入力される。
減算器101は、数値制御装置400から入力される位置指令を受け、位置指令と位置フィードバックされた検出位置との差を求め、その差を位置偏差として位置制御部102及び出力装置300に出力する。
【0029】
位置制御部102は、位置偏差にポジションゲインKpを乗じた値を、速度指令値として加算器103に出力する。
位置フィードフォワード計算部109の微分器1091は、位置指令値を微分して定数βを掛け、位置フィードフォワード処理部1092は微分器1091の出力に、数式1(以下に数1として示す)で示す伝達関数G(s)で示された位置フィードフォワード処理を行い、その処理結果を位置フィードフォワード項として、減算器104に出力する。数式1の係数a
i、b
j(X≧i,j≧0、Xは自然数)は位置フィードフォワード処理部1092の伝達関数G(s)の各係数である。
【数1】
【0030】
加算器103は、速度指令値と位置フィードフォワード計算部109の出力値(位置フィードフォワード項)とを加算して、フィードフォワード制御された速度指令値として減算器104に出力する。減算器104は加算器103の出力と速度フィードバックされた速度検出値との差を求め、その差を速度偏差として速度制御部105に出力する。
【0031】
速度制御部105は、速度偏差に積分ゲインK1vを乗じて積分した値と、速度偏差に比例ゲインK2vを乗じた値とを加算して、トルク指令値として加算器106に出力する。
【0032】
速度フィードフォワード計算部108の2回微分器1081は、位置指令値を2回微分して定数αを掛け、速度フィードフォワード処理部1082は2回微分器1081の出力に、数式2(以下に数2として示す)で示された伝達関数F(s)で示される速度フィードフォワード処理を行い、その処理結果を速度フィードフォワード項として、加算器106に出力する。数式2の係数c
i、d
j(X≧i,j≧0、Xは自然数)は速度フィードフォワード処理部1082の伝達関数F(s)の各係数である。
【数2】
【0033】
加算器106は、トルク指令値と速度フィードフォワード計算部108の出力値(速度フィードフォワード項)とを加算して、フィードフォワード制御されたトルク指令値としてサーボモータ500に出力してサーボモータ500を駆動する。
【0034】
サーボモータ500の回転角度位置は、サーボモータ500に関連付けられた、位置検出部となるロータリーエンコーダによって検出され、速度検出値は速度フィードバックとして減算器104に入力される。速度検出値は積分器107で積分されて位置検出値となり、位置検出値は位置フィードバックとして減算器101に入力される。
以上のように、サーボ制御装置100は構成される。
【0035】
次に、サーボ制御装置100により制御されるサーボモータ500を含む制御対象600について説明する。
図2はサーボ制御装置100の制御対象600の一例となる、サーボモータを含む工作機械の一部を示すブロック図である。
サーボ制御装置100は、サーボモータ500で連結機構602を介してテーブル603を移動させることで、テーブル603の上に搭載された被加工物(ワーク)を加工する。連結機構602は、サーボモータ500に連結されたカップリング6021と、カップリング6021に固定されるボールねじ6023とを有し、ボールねじ6023にナット6022が螺合されている。サーボモータ500の回転駆動によって、ボールねじ6023に螺着されたナット6022がボールねじ6023の軸方向に移動する。ナット6022の移動によってテーブル603が移動する。
【0036】
サーボモータ500の回転角度位置は、サーボモータ500に関連付けられた、位置検出部となるロータリーエンコーダ601によって検出される。上述したように、検出された信号は速度フィードバックとして利用される。検出された信号は積分器107で積分することで位置フィードバックとして利用される。なお、ボールねじ6023の端部に取り付けられ、ボールねじ6023の移動距離を検出するリニアスケール604出力を位置フィードバックとして用いてもよい。また、加速度センサを用いて位置フィードバックを生成してもよい。
【0037】
次に、機械学習装置200について説明する。
機械学習装置200は、位置フィードフォワード処理部1092の伝達関数の係数と、速度フィードフォワード処理部1082の伝達関数の係数とを機械学習(以下、学習という)する。
機械学習装置200は、速度フィードフォワード処理部1082の伝達関数の係数の学習と、位置フィードフォワード処理部1092の伝達関数の係数の学習とは別に行い、位置フィードフォワード処理部1092より内側(インナーループ)にある速度フィードフォワード処理部1082の伝達関数の係数の学習を位置フィードフォワード処理部1092の伝達関数の係数の学習よりも先に行う。具体的には、位置フィードフォワード処理部1092の伝達関数の係数を固定し、速度フィードフォワード処理部1082の伝達関数の係数の最適な値を学習する。その後に、機械学習装置200は、速度フィードフォワード処理部1082の伝達関数の係数を学習で得られた最適な値に固定して、位置フィードフォワード処理部1092の伝達関数の係数を学習する。
そうすることで、学習により最適化された速度フィードフォワード項の条件下で、位置フィードフォワード処理部1092の伝達関数の係数の最適化に係る学習を行うことができ、位置偏差の変動を抑制することができる。
このため、位置フィードフォワード処理部1092より内側(インナーループ)にある速度フィードフォワード処理部1082の伝達関数の係数の学習が位置フィードフォワード処理部1092の伝達関数の係数の学習より先にした方が、位置偏差の変動を抑制し、高精度化を実現できる。
以下の説明では、速度フィードフォワード処理部1082の伝達関数の係数に係る機械学習(強化学習)を例として説明する。なお、本実施形態では、機械学習の一例として強化学習について説明するが、機械学習は特に強化学習に限定されない。
機械学習装置200は、予め設定された加工プログラム(「学習時の加工プログラム」となり、評価プログラムともいう)を実行することで、速度フィードフォワード処理部1082の伝達関数の係数を機械学習(以下、学習という)する。
【0038】
ここで、学習時の加工プログラムにより指定される加工形状は、例えば、
図3に示す八角形、及び/又は
図4に示す八角形の角が一つ置きに円弧に置き換えられた形等である。
ここでは、学習時の加工プログラムにより指定される加工形状の位置A1と位置A3、及び/又は位置B1と位置B3により、線形制御において回転速度が変更されたときの振動を評価し、位置偏差に対する影響を調べることで、伝達関数G(s)に係る係数の学習を行うものとする。
なお、加工形状の位置A2と位置A4、及び/又は位置B2と位置B4により、回転方向が反転する場合に生ずる惰走(いわゆる「象限突起」)を評価し、位置偏差に対する影響を調べることで、象限突起を抑制する補正量を算出するための伝達関数の係る係数の学習を行うこともできる。
【0039】
機械学習装置200に含まれる各機能ブロックの説明に先立って、まず強化学習の基本的な仕組みについて説明する。エージェント(本実施形態における機械学習装置200に相当)は、環境の状態を観測し、ある行動を選択し、当該行動に基づいて環境が変化する。環境の変化に伴って、何らかの報酬が与えられ、エージェントはより良い行動の選択(意思決定)を学習する。
教師あり学習が、完全な正解を示すのに対して、強化学習における報酬は、環境の一部の変化に基づく断片的な値であることが多い。このため、エージェントは、将来にわたっての報酬の合計を最大にするように行動を選択するように学習する。
【0040】
このように、強化学習では、行動を学習することにより、環境に行動が与える相互作用を踏まえて適切な行動を学習、すなわち将来的に得られる報酬を最大にするための学習する方法を学ぶ。これは、本実施形態において、例えば、位置偏差を低減するための行動情報を選択するという、未来に影響をおよぼすような行動を獲得できることを表している。
【0041】
ここで、強化学習としては、任意の学習方法を用いることができるが、以下の説明では、或る環境の状態Sの下で、行動Aを選択する価値Q(S,A)を学習する方法であるQ学習(Q-learning)を用いる場合を例にとって説明をする。
Q学習では、或る状態Sのとき、取り得る行動Aのなかから、価値Q(S,A)の最も高い行動Aを最適な行動として選択することを目的とする。
【0042】
しかしながら、Q学習を最初に開始する時点では、状態Sと行動Aとの組合せについて、価値Q(S,A)の正しい値は全く分かっていない。そこで、エージェントは、或る状態Sの下で様々な行動Aを選択し、その時の行動Aに対して、与えられる報酬に基づいて、より良い行動の選択をすることにより、正しい価値Q(S,A)を学習していく。
【0043】
また、将来にわたって得られる報酬の合計を最大化したいので、最終的にQ(S,A)=E[Σ(γ
t)r
t]となるようにすることを目指す。ここでE[]は期待値を表し、tは時刻、γは後述する割引率と呼ばれるパラメータ、r
tは時刻tにおける報酬、Σは時刻tによる合計である。この式における期待値は、最適な行動に従って状態変化した場合の期待値である。しかしQ学習の過程において最適な行動が何であるのかは不明であるので、様々な行動を行うことにより、探索しながら強化学習をする。このような価値Q(S,A)の更新式は、例えば、次の数式3(以下に数3として示す)により表すことができる。
【0045】
上記の数式3において、S
tは、時刻tにおける環境の状態を表し、A
tは、時刻tにおける行動を表す。行動A
tにより、状態はS
t+1に変化する。r
t+1は、その状態の変化により得られる報酬を表している。また、maxの付いた項は、状態S
t+1の下で、その時に分かっている最もQ値の高い行動Aを選択した場合のQ値にγを乗じたものになる。ここで、γは、0<γ≦1のパラメータで、割引率と呼ばれる。また、αは、学習係数で、0<α≦1の範囲とする。
【0046】
上述した数式3は、試行A
tの結果、返ってきた報酬r
t+1を元に、状態S
tにおける行動A
tの価値Q(S
t,A
t)を更新する方法を表している。
この更新式は、状態S
tにおける行動A
tの価値Q(S
t,A
t)よりも、行動A
tによる次の状態S
t+1における最良の行動の価値max
a Q(S
t+1,A)の方が大きければ、Q(S
t,A
t)を大きくし、逆に小さければ、Q(S
t,A
t)を小さくすることを示している。つまり、或る状態における或る行動の価値を、それによる次の状態における最良の行動の価値に近づける。ただし、その差は、割引率γと報酬r
t+1のあり方により変わってくるが、基本的には、ある状態における最良の行動の価値が、それに至る一つ前の状態における行動の価値に伝播していく仕組みになっている。
【0047】
ここで、Q学習では、すべての状態行動ペア(S,A)についてのQ(S,A)のテーブルを作成して、学習を行う方法がある。しかし、すべての状態行動ペアのQ(S,A)の値を求めるには状態数が多すぎて、Q学習が収束するのに多くの時間を要してしまう場合がある。
【0048】
そこで、公知のDQN(Deep Q-Network)と呼ばれる技術を利用するようにしてもよい。具体的には、価値関数Qを適当なニューラルネットワークを用いて構成し、ニューラルネットワークのパラメータを調整することにより、価値関数Qを適当なニューラルネットワークで近似することにより価値Q(S,A)の値を算出するようにしてもよい。DQNを利用することにより、Q学習が収束するのに要する時間を短くすることが可能となる。なお、DQNについては、例えば、以下の非特許文献に詳細な記載がある。
【0049】
<非特許文献>
「Human-level control through deep reinforcement learning」、Volodymyr Mnih1著[online]、[平成29年1月17日検索]、インターネット〈URL:http://files.davidqiu.com/research/nature14236.pdf〉
【0050】
以上説明をしたQ学習を機械学習装置200が行う。具体的には、機械学習装置200は、サーボ制御装置100における、速度フィードフォワード処理部1082の伝達関数の各係数c
i、d
j(X≧i,j≧0)の値、並びに学習時の加工プログラムを実行することで取得されるサーボ制御装置100の位置偏差情報、及び位置指令を含む、指令及びフィードバック等のサーボ状態を状態Sとして、当該状態Sに係る、速度フィードフォワード処理部1082の伝達関数の各係数c
i、d
jの値の調整を行動Aとして選択する価値Qを学習する。
【0051】
機械学習装置200は、速度フィードフォワード処理部1082の伝達関数の各係数c
i、d
jの値に基づいて、学習時の加工プログラムを実行することで前述した加工形状の位置A1と位置A3、及び/又は位置B1と位置B3における、サーボ制御装置100の位置指令及び位置偏差情報を含む、指令及びフィードバック等のサーボ状態を含む状態情報Sを観測して、行動Aを決定する。機械学習装置200は、行動Aをするたびに報酬が返ってくる。機械学習装置200は、例えば、将来にわたっての報酬の合計が最大になるように最適な行動Aを試行錯誤的に探索する。そうすることで、機械学習装置200は、速度フィードフォワード処理部1082の伝達関数の各係数c
i、d
jの値に基づいて、学習時の加工プログラムを実行することで取得されるサーボ制御装置100の位置指令及び位置偏差情報を含む指令、フィードバック等のサーボ状態を含む状態Sに対して、最適な行動A(すなわち、速度フィードフォワード処理部1082の最適な係数c
i、d
j)を選択することが可能となる。機械学習装置200は線形動作時の速度フィードフォワード処理部1082の伝達関数の各係数c
i、d
jの学習を行うことができる。
【0052】
すなわち、機械学習装置200により学習された価値関数Qに基づいて、或る状態Sに係る速度フィードフォワード処理部1082の伝達関数の各係数c
i、d
jに対して適用される行動Aのうち、Qの値が最大となるような行動Aを選択することで、学習時の加工プログラムを実行することで取得される位置偏差が最小になるような行動A(すなわち、速度フィードフォワード処理部1082の係数c
i、d
jを選択することが可能となる。
【0053】
図5は第1実施形態の機械学習装置200を示すブロック図である。
上述した強化学習を行うために、
図5に示すように、機械学習装置200は、状態情報取得部201、学習部202、行動情報出力部203、価値関数記憶部204、及び最適化行動情報出力部205を備える。学習部202は報酬出力部2021、価値関数更新部2022、及び行動情報生成部2023を備える。
【0054】
状態情報取得部201は、サーボ制御装置100における速度フィードフォワード処理部1082の伝達関数の各係数c
i、d
j、及びこれらの係数に基づいて、学習時の加工プログラムを実行することで取得されるサーボ制御装置100の位置指令及び位置偏差情報を含む指令、フィードバック等のサーボ状態を含む状態Sを、サーボ制御装置100から取得する。この状態Sは、Q学習における、環境状態Sに相当する。
状態情報取得部201は、取得した状態Sを学習部202に対して出力する。
【0055】
なお、最初にQ学習を開始する時点での速度フィードフォワード処理部1082の係数c
i、d
jは、予めユーザが生成するようにする。本実施形態では、ユーザが作成した速度フィードフォワード処理部1082の係数c
i、d
jの初期設定値を、強化学習により最適なものに調整する。微分器112の係数βを固定値とし、例えばα=1とする。また、速度フィードフォワード処理部1082の係数c
i、d
jは例えば、初期設定値として、数式2のc
0=1、c
1=0、c
2=0、d
0=1、d
1=0、d
2=0、とする。また、係数c
i、d
jの次元m、nを予め設定する。すなわち、c
iについては0≦i≦m d
jについては0≦j≦nとする。
なお、係数c
i、d
jは予め操作者が工作機械を調整している場合には、調整済の値を初期値として機械学習してもよい。
【0056】
学習部202は、或る環境状態Sの下で、ある行動Aを選択する場合の価値Q(S,A)を学習する部分である。
【0057】
報酬出力部2021は、或る状態Sの下で、行動Aを選択した場合の報酬を算出する部分である。ここで、状態Sにおける状態変数である位置偏差の集合(位置偏差集合)をPD(S)、行動情報Aにより状態Sから変化した状態情報S´に係る状態変数である位置偏差集合をPD(S´)で示す。また、状態Sにおける位置偏差の値を、予め設定された評価関数f(PD(S))に基づいて算出される値とする。行動情報Aは速度フィードフォワード処理部1082の各係数c
i、d
j(i,jは0及び正の整数を示す)の修正である。
ここで、状態Sにおける状態変数である位置偏差の集合とは、前述した加工形状の位置A1と位置A3、及び/又は位置B1と位置B3を含む所定の範囲内で計測される位置偏差の集合を意味する。
評価関数fにより得られる評価関数値は、サーボデータとなる位置偏差を用いて又は位置偏差から計算して得ることができる。
評価関数fとしては、例えば、
位置偏差の絶対値の積算値を算出する関数
∫|e|dt
位置偏差の絶対値に時間の重み付けをして積算値を算出する関数
∫t|e|dt
位置偏差の絶対値の2n(nは自然数)乗の積算値を算出する関数
∫e
2ndt(nは自然数)
位置偏差の絶対値の最大値を算出する関数
Max{|e|}
等を適用することができる。
【0058】
報酬出力部2021は、試行ごとに得られる評価関数値の集合を試行回数ごとに記憶部に記憶し、出力装置300から評価関数値の出力要求があった場合は、出力装置300に試行回数と関連づけて評価関数値の集合を出力する。報酬出力部2021は、速度フィードフォワード、位置フィードフォワード等の調整対象、試行回数、及び最大試行回数も記憶し、評価関数値の集合とともに出力装置300に出力する。
また、報酬出力部2021は、調整前(学習開始時)の制御パラメータにより加工処理した場合の位置偏差の集合と、調整後(学習終了後)の制御パラメータにより加工処理した場合の位置偏差の集合とを記憶部に記憶し、出力装置300からこれらの位置偏差の集合の出力要求があった場合は、これらの位置偏差の集合を出力する。
【0059】
このとき、行動情報Aにより修正された状態情報S´に係る修正後の速度フィードフォワード処理部1082に基づいて動作したサーボ制御装置100の位置偏差の値f(PD(S´))が、行動情報Aにより修正される前の状態情報Sに係る修正前の速度フィードフォワード処理部1082に基づいて動作したサーボ制御装置100の位置偏差の値f(PD(S))よりも大きくなった場合に、報酬出力部2021は、報酬の値を負の値とする。
【0060】
一方で、行動情報Aにより修正された状態情報S´に係る修正後の速度フィードフォワード処理部1082に基づいて動作したサーボ制御装置100の位置偏差の値f(PD(S´))が、行動情報Aにより修正される前の状態情報Sに係る修正前の速度フィードフォワード処理部1082に基づいて動作したサーボ制御装置100の位置偏差の値f(PD(S))よりも小さくなった場合に、報酬出力部2021は、報酬の値を正の値とする。
なお、行動情報Aにより修正された状態情報S´に係る修正後の速度フィードフォワード処理部1082に基づいて動作したサーボ制御装置100の位置偏差の値f(PD(S´))が、行動情報Aにより修正される前の状態情報Sに係る修正前の速度フィードフォワード処理部1082に基づいて動作したサーボ制御装置100の位置偏差の値f(PD(S))と等しい場合は、報酬出力部2021は、報酬の値をゼロとするようにしてもよい。
【0061】
また、行動Aを実行後の状態S´の位置偏差の値f(PD(S´))が、前の状態Sにおける位置偏差の値f(PD(S))より大きくなった場合の負の値としては、比率に応じて負の値を大きくするようにしてもよい。つまり位置偏差の値が大きくなった度合いに応じて負の値が大きくなるようにするとよい。逆に、行動Aを実行後の状態S´の位置偏差の値f(PD(S´))が、前の状態Sにおける位置偏差の値f(PD(S))より小さくなった場合の正の値としては、比率に応じて正の値を大きくするようにしてもよい。つまり位置偏差の値が小さくなった度合いに応じて正の値が大きくなるようにするとよい。
【0062】
価値関数更新部2022は、状態Sと、行動Aと、行動Aを状態Sに適用した場合の状態S´と、上記のようにして算出された報酬の値と、に基づいてQ学習を行うことにより、価値関数記憶部204が記憶する価値関数Qを更新する。
価値関数Qの更新は、オンライン学習で行ってもよく、バッチ学習で行ってもよく、ミニバッチ学習で行ってもよい。
オンライン学習は、或る行動Aを現在の状態Sに適用することにより、状態Sが新たな状態S´に遷移する都度、即座に価値関数Qの更新を行う学習方法である。また、バッチ学習は、或る行動Aを現在の状態Sに適用することにより、状態Sが新たな状態S´に遷移することを繰り返すことにより、学習用のデータを収集し、収集した全ての学習用データを用いて、価値関数Qの更新を行う学習方法である。更に、ミニバッチ学習は、オンライン学習と、バッチ学習の中間的な、ある程度学習用データが溜まるたびに価値関数Qの更新を行う学習方法である。
【0063】
行動情報生成部2023は、現在の状態Sに対して、Q学習の過程における行動Aを選択する。行動情報生成部2023は、Q学習の過程において、サーボ制御装置100の速度フィードフォワード処理部1082の各係数c
i、d
jを修正する動作(Q学習における行動Aに相当)を行わせるために、行動情報Aを生成して、生成した行動情報Aを行動情報出力部203に対して出力する。より具体的には、行動情報生成部2023は、例えば、状態Sに含まれる速度フィードフォワード処理部1082の各係数c
i、d
jに対して行動Aに含まれる、速度フィードフォワード処理部1082の各係数c
i、d
jをインクレメンタル(例えば0.01程度)に加算又は減算させる。
【0064】
そして、行動情報生成部2023は、速度フィードフォワード処理部1082の各係数c
i、d
jの増加又は減少を適用して、状態S´に遷移して、プラスの報酬(正の値の報酬)が返った場合、次の行動A´としては、速度フィードフォワード処理部1082の各係数c
i、d
jに対して、前回のアクションと同様にインクレメンタルに加算又は減算させる等、位置偏差の値がより小さくなるような行動A´を選択する方策を取るようにしてもよい。
【0065】
また、逆に、マイナスの報酬(負の値の報酬)が返った場合、行動情報生成部2023は、次の行動A´としては、例えば、速度フィードフォワード処理部1082の各係数c
i、d
jに対して、前回のアクションとは逆にインクレメンタルに減算又は加算させる等、位置偏差が前回の値よりも小さくなるような行動A´を選択する方策を取るようにしてもよい。
【0066】
また、行動情報生成部2023は、現在の推定される行動Aの価値の中で、最も価値Q(S,A)の高い行動A´を選択するグリーディ法、又はある小さな確率εでランダムに行動A´選択し、それ以外では最も価値Q(S,A)の高い行動A´を選択するεグリーディ法といった公知の方法により、行動A´を選択する方策を取るようにしてもよい。
【0067】
行動情報出力部203は、学習部202から出力される行動情報Aをサーボ制御装置100に対して送信する部分である。サーボ制御装置100は上述したように、この行動情報に基づいて、現在の状態S、すなわち現在設定されている速度フィードフォワード処理部1082の各係数c
i、d
jを微修正することで、次の状態S´(すなわち修正された、速度フィードフォワード処理部1082の各係数c
i、d
j)に遷移する。
【0068】
価値関数記憶部204は、価値関数Qを記憶する記憶装置である。価値関数Qは、例えば状態S、行動A毎にテーブル(以下、行動価値テーブルと呼ぶ)として格納してもよい。価値関数記憶部204に記憶された価値関数Qは、価値関数更新部2022により更新される。また、価値関数記憶部204に記憶された価値関数Qは、他の機械学習装置200との間で共有されるようにしてもよい。価値関数Qを複数の機械学習装置200で共有するようにすれば、各機械学習装置200にて分散して強化学習を行うことが可能となるので、強化学習の効率を向上させることが可能となる。
【0069】
最適化行動情報出力部205は、価値関数更新部2022がQ学習を行うことにより更新した価値関数Qに基づいて、価値Q(S,A)が最大となる動作を速度フィードフォワード処理部1082に行わせるための行動情報A(以下、「最適化行動情報」と呼ぶ)を生成する。
より具体的には、最適化行動情報出力部205は、価値関数記憶部204が記憶している価値関数Qを取得する。この価値関数Qは、上述したように価値関数更新部2022がQ学習を行うことにより更新したものである。そして、最適化行動情報出力部205は、価値関数Qに基づいて、行動情報を生成し、生成した行動情報をサーボ制御装置100(速度フィードフォワード処理部1082)に対して出力する。この最適化行動情報には、行動情報出力部203がQ学習の過程において出力する行動情報と同様に、速度フィードフォワード処理部1082の各係数c
i、d
jを修正する情報が含まれる。
【0070】
サーボ制御装置100では、この行動情報に基づいて速度フィードフォワード処理部1082の各係数c
i、d
jが修正される。
機械学習装置200は、以上の動作で、速度フィードフォワード処理部1082の各係数ci、djの学習及び最適化を行い、位置偏差の値を低減するように動作することができる。
以上のように、本実施形態に係る機械学習装置200を利用することで、サーボ制御装置100の速度フィードフォワード処理部1082の補正パラメータ(係数c
i、d
j)調整を簡易化することができる。補正パラメータ(係数c
i、d
j)調整により速度フィードフォワード処理部1082の速度フィードフォワード項の調整がなされる。
【0071】
以上、サーボ制御装置100、機械学習装置200に含まれる機能ブロックについて説明した。
これらの機能ブロックを実現するために、サーボ制御装置100、及び機械学習装置200のそれぞれは、CPU(Central Processing Unit)等の演算処理装置を備える。また、サーボ制御装置100、及び機械学習装置200のそれぞれは、アプリケーションソフトウェアやOS(Operating System)等の各種の制御用プログラムを格納したHDD(Hard Disk Drive)等の補助記憶装置や、演算処理装置がプログラムを実行する上で一時的に必要とされるデータを格納するためのRAM(Random Access Memory)といった主記憶装置も備える。
【0072】
そして、サーボ制御装置100、及び機械学習装置200のそれぞれにおいて、演算処理装置が補助記憶装置からアプリケーションソフトウェアやOSを読み込み、読み込んだアプリケーションソフトウェアやOSを主記憶装置に展開させながら、これらのアプリケーションソフトウェアやOSに基づいた演算処理を行なう。また、この演算結果に基づいて、各装置が備える各種のハードウェアを制御する。これにより、本実施形態の機能ブロックは実現される。つまり、本実施形態は、ハードウェアとソフトウェアが協働することにより実現することができる。
【0073】
機械学習装置200については機械学習に伴う演算量が多いため、例えば、パーソナルコンピュータにGPU(Graphics Processing Units)を搭載し、GPGPU(General-Purpose computing on Graphics Processing Units)と呼ばれる技術により、GPUを機械学習に伴う演算処理に利用するようにすると高速処理できるようになるのでよい。更には、より高速な処理を行うために、このようなGPUを搭載したコンピュータを複数台用いてコンピュータ・クラスターを構築し、このコンピュータ・クラスターに含まれる複数のコンピュータにて並列処理を行うようにしてもよい。
【0074】
以上、機械学習装置200による、速度フィードフォワード処理部1082の係数の学習について説明したが、位置フィードフォワード処理部1092の伝達関数の係数の機械学習も同様にして行われる。すなわち、第1実施形態における速度フィードフォワード処理部1082を位置フィードフォワード処理部1092に読み換えるとともに、速度フィードフォワード処理部1082の各係数c
i、d
jを位置フィードフォワード処理部1092の伝達関数の各係数a
i、b
jに読み換えることで学習動作を説明できる。
【0075】
本実施形態において、機械学習装置200は、速度フィードフォワード処理部1082の伝達関数の係数の学習を先に行い、速度フィードフォワード処理部1082の伝達関数の係数を最適化した後に、位置フィードフォワード処理部1092の伝達関数の係数の学習を行うようにしたが、本実施形態は、これに限定されない。
例えば、機械学習装置200は、位置フィードフォワード処理部1092の伝達関数の係数、及び速度フィードフォワード処理部1082の伝達関数の係数を同時に学習するようにしてもよい。このように、機械学習装置200が同時に学習した場合、二つの学習が相互に干渉して情報処理量が増大する可能性がある。
【0076】
また、本実施形態では、位置フィードフォワード計算部109と、速度フィードフォワード計算部108と、を備えるものとした。
しかし、位置フィードフォワード計算部109か速度フィードフォワード計算部108かのいずれかを備えるものとしてもよい。その場合、例えば、位置フィードフォワード計算部109のみを設けるときには、2回微分器1081、速度フィードフォワード処理部1082、及び加算器106は不要となる。
【0077】
次に、出力装置300について説明する。
図6は、本発明の第1実施形態の制御装置に含まれる出力装置の一構成例を示すブロック図である。
図6に示すように、出力装置300は、情報取得部301、情報出力部302、作図部303、操作部304、制御部305、記憶部306、情報取得部307、情報出力部308、及び表示部309を有する。情報取得部301は、機械学習装置から評価関数を複数取得する情報取得部となる。制御部305及び表示部309は、評価関数を出力する出力部となる。出力部の表示部309は液晶表示装置、プリンター等を用いることができる。出力は記憶部306に記憶することも含まれ、その場合、出力部は制御部305及び記憶部306となる。
【0078】
出力装置300は、機械学習装置200の機械学習中での学習動作、具体的には強化学習時の評価関数値(例えば上述した状態Sに係る評価関数値f(PD(S)))の推移を図又は文字で示し、また強化学習後の調整結果(例えば、位置偏差の抑制)及び機械学習の検証結果を図又は文字で示す出力機能を備えている。
また、出力装置300は、機械学習装置100とサーボ制御装置100との間の情報(例えば、位置偏差、位置指令、速度フィードフォワード計算部の係数、及び速度フィードフォワード計算部の係数の修正情報)の中継、機械学習装置100の動作の制御(例えば、機械学習装置に対する学習プログラム起動指示を行う調整機能を備えている。
さらに、出力装置300は、数値制御装置400に、通常の加工プログラムと、学習時の加工プログラム(評価用プログラム)と、学習時の加工プログラムよりも低速の検証時の加工プログラム(検証プログラム)と、学習時よりも高速の検証時の加工プログラム(検証プログラム)とのいずれかの起動指示を出力する調整機能も備えている。
【0079】
機械学習装置200の情報の出力機能について、
図6〜
図8を用いて説明する。
図7は機械学習中に、機械学習の進捗状況に合わせて、状態Sに係る評価関数値f(PD(S))を、表示部309に表示する場合の表示画面の一例を示す図、
図8は機械学習後の、調整前と調整後の位置偏差を表示部309に表示する場合の表示画面の一例を示す図である。
【0080】
まず出力装置300が、機械学習中のサーボ制御パラメータに係る評価関数値を出力する場合について説明する。
図7に示すように、表示画面は例えば調整フローの欄、トルクリミットの欄を備えている。また、表示画面は、例えば速度フィードフォワード等の調整対象、データ採取中等のステータス(状態)、予め設定された当該機械学習終了までの試行回数(以下「最大試行回数」ともいう)に対する現在までの試行回数の累計を示す試行回数、機械学習開始から現在までの試行において取得した評価関数値集合の内の最小値、及び中断を選択するボタンを示す欄と、その欄の下に、試行回数で関連付けられる各試行ごとの評価関数値を点で示すとともに、機械学習開始から試行回数で関連付けられる各試行までに取得した評価関数値集合の内の最小値の推移を折れ線で示す図の欄とを備えている。
調整フローの欄は、例えば軸選択、パラメータ確認、プログラム確認・編集、プログラム起動、機械学習中、調整結果からなる。
操作者が、液晶表示装置等の表示部309の
図7に示す表示画面の「調整フロー」の欄の「機械学習中」をマウス、キーボード等の操作部304で選択すると、制御部305は、情報出力部302を介して機械学習装置200に対して、試行回数で関連付けられる状態Sに係る評価関数値f(PD(S)))、当該機械学習の調整対象(学習対象)に関する情報、試行回数、最大試行回数を含む情報等の出力指示を送る。
【0081】
情報取得部301が、機械学習装置200から、試行回数で関連付けられる状態Sに係る評価関数値f(PD(S)))、当該機械学習の調整対象(学習対象)に関する情報、試行回数、最大試行回数を含む情報等を受信すると、制御部305は、記憶部306に受信した情報を記憶するとともに、それまでに記憶した試行回数と関連づけられた状態Sに係る評価関数値f(PD(S)))の集合の最小値と、試行開始から所定の試行回数までの状態Sに係る評価関数値f(PD(S)))の集合(機械学習開始から取得した全ての評価関数値)の最小値の推移とを求め、その最小値の推移と、受信した試行回数と関連づけられた状態Sに係る評価関数値f(PD(S)とを記憶部306に記憶し、作図部303に制御を移す。作図部303は、試行回数と関連づけられた状態Sに係る評価関数値f(PD(S)))の集合の最小値に基づいて散布図を作成し、その散布図に、試行開始から所定の試行回数までの状態Sに係る評価関数値f(PD(S)))の集合の最小値の推移を折れ線を加える処理を行い、その散布図の画像情報を作成し、制御部305に制御を移す。制御部305は、最小値の推移を示す折れ線が加えられた散布図を
図7に示すように表示する。
また制御部305は、例えば速度フィードフォワードが調整対象であることを示す情報に基づいて、
図7に示すように、表示画面の調整対象欄に速度フィードフォワードと表示し、試行回数が最大試行回数に達していない場合は表示画面のステータス欄にデータ採取中と表示する。さらに制御部305は、表示画面の試行回数欄に、最大試行回数に対する試行回数の比、ここでは最大試行回数が100回に対する試行回数85の比85/100を表示し、試行開始から現在の試行回数までの状態Sに係る評価関数値f(PD(S)))の最小値を26.634と表示する。
【0082】
なお、
図7に記載の表示画面は、一例であって、これに限られない。上記に例示した項目以外の情報を表示してもよい。また、上記に例示したいくつかの項目の情報表示を省略してもよい。
また、上記説明においては、制御部305は、機械学習装置200から受信した情報を、記憶部306に記憶するとともにリアルタイムに、試行回数で関連付けられる状態Sに係る評価関数値f(PD(S)))に関する情報を表示部309に表示するものとしたが、これに限られない。
例えば、リアルタイムで表示しない実施例としては以下の例がある。
変形例1:操作者(オペレータ)が表示指示をしたときに、
図7に記載の情報(機械学習装置200でそれまでに行われた学習(試行結果)の情報)を表示する。
変形例2:(学習開始時からの)試行回数の累計が、予め設定した所定の回数に達したときに、
図7に記載の情報(機械学習装置200でそれまでに行われた学習(試行結果)の情報)を表示する。
変形例3:状態Sに係る評価関数値f(PD(S)))が予め設定している閾値以下になったときに、
図7に記載の情報(機械学習装置200でそれまでに行われた学習(試行結果)の情報)を表示する。
変形例4:機械学習の中断時又は終了時に
図7に記載の情報(機械学習装置200でそれまでに行われた学習(試行結果)の情報)を表示する。
以上の変形例1〜4においても、上述したリアルタイムでの表示の動作と同様に、情報取得部301が、機械学習装置200から、試行回数で関連付けられる状態Sに係る評価関数値f(PD(S)))、当該機械学習の調整対象(学習対象)に関する情報、試行回数、最大試行回数を含む情報等を受信すると、制御部305は、記憶部306に受信した情報を記憶する。その後は、変形例1では操作者(オペレータ)が表示指示をしたとき、変形例2では、試行回数の累計が、予め設定した所定の回数に達したとき、変形例3では、状態Sに係る評価関数値f(PD(S)))が予め設定している閾値以下になったとき、変形例4では機械学習の中断時又は終了時に、制御部305は作図部に制御を移す動作を行う。
【0083】
次に、出力装置300が調整前及び調整後のサーボ制御動作を出力する場合について説明する。
操作者が、
図8の表示画面で、表示部309の
図8に示す表示画面の「調整フロー」の欄の「調整結果」をマウス、キーボード等の操作部304で選択すると、制御部305は、情報出力部302を介して機械学習装置200に対して、調整前(学習開始時)の制御パラメータにより加工処理した場合の位置偏差の集合と、調整後(学習終了後)の制御パラメータにより加工処理した場合の位置偏差の集合との情報の出力指示を送る。
また、制御部305は、情報出力部308を介して数値制御装置400に、学習時の加工プログラムである評価用プログラムよりも低速の検証プログラムと、評価用プログラムよりも高速の検証プログラムとを順次起動させる指示と、低速の検証プログラムの動作時の位置偏差の集合と、高速の検証プログラムの動作時の位置偏差の集合との情報の出力指示を送るようにしてもよい。
【0084】
情報取得部301が、機械学習装置200から、調整前(学習開始時)の制御パラメータにより加工処理した場合の位置偏差の集合と、調整後(学習終了後)の制御パラメータにより加工処理した場合の位置偏差の集合との情報を受信すると、制御部305は記憶部306に受信した情報を記憶するとともに、作図部303に制御を移す。作図部303は、調整前と調整後の位置偏差の集合から、調整前の位置偏差の時間変化を示す図と、調整後の位置偏差の時間変化を示す図の画像情報を作成し、制御部305に制御を移す。制御部305は、調整前の位置偏差の時間変化を示す図と、調整後の位置偏差の時間変化を示す図を
図8の表示画面に表示する。
【0085】
次に、出力装置300が検証結果を出力する場合について説明する。
操作者が、
図8の表示画面で、表示部309の
図8に示す表示画面の「調整フロー」の欄の「調整結果」をマウス、キーボード等の操作部304で選択したときに、出力装置300が検証結果を出力するようにしてもよい。出力装置300は、「調整結果」が選択されたときに、数値制御装置400に、学習時の加工プログラムよりも低速の検証時の加工プログラム(検証プログラム)と、学習時よりも高速の検証時の加工プログラム(検証プログラム)とのいずれかの起動指示を出力する。サーボ制御装置100は、数値制御装置400から出力される位置指令に基づいてサーボモータ500のサーボ制御を行う。
情報取得部301が、サーボ制御装置100から、低速の検証プログラムの動作時の位置偏差の集合と、高速の検証プログラムの動作時の位置偏差の集合との情報を受信した場合、制御部305は、記憶部306に受信した情報を記憶するとともに、作図部303に制御を移す。作図部303は、低速の検証プログラムの動作時の位置偏差の集合から、低速の検証プログラムの動作時の位置偏差の時間変化を示す図と、高速の検証プログラムの動作時の位置偏差の集合から、高速の検証プログラムの動作時の位置偏差の時間変化を示す図の画像情報を作成し、制御部305に制御を移す。制御部305は、低速の検証プログラムの動作時の位置偏差の時間変化を示す図と、高速の検証プログラムの動作時の位置偏差の時間変化を示す図を
図8の表示画面にそれぞれ表示するようにしてもよい。
なお、
図8の左下の表に示すようにサーボ制御装置の位置偏差、速度偏差等のパラメータごとの学習前(before)と学習後(after)の変化を表示するようにしてもよい。
【0086】
次に、出力装置300の上記出力機能と調整機能とについて説明する。
図9は、機械学習の開始から機械学習後の調整結果表示までの、出力装置を中心とした制御装置の動作を示すフロー図である。
出力装置300は、ステップS31において、操作者が
図7又は
図8に示す、表示部309表示画面の「調整フロー」の欄の「プログラム起動」をマウス、キーボード等の操作部304で選択すると、制御部305は、学習プログラム起動指示を、情報出力部302を介して機械学習装置200に出力する。そして、サーボ制御装置100に対して、学習プログラム起動指示を機械学習装置200に出力したことを通知する学習プログラム起動指示通知を出力する。また、出力装置300は、ステップS31の後のステップS32において、学習時の加工プログラムの起動指示を、情報出力部308を介して数値制御装置400に出力する。ステップS32はステップ31の前、ステップ31と同時に行われてもよい。数値制御装置400は学習時の加工プログラムの起動指示を受けると、学習時のプログラムを起動させて位置指令値を作成し、サーボ制御装置100に出力する。
機械学習装置200は、ステップS21において、学習プログラム起動指示を受けると、機械学習を開始する。
【0087】
サーボ制御装置100は、ステップS11において、サーボモータ500を制御して、位置偏差、速度フィードフォワード処理部1082の伝達関数の係数(パラメータ情報となる)を含むフィードバック情報を出力装置300に出力する。そして、出力装置300は、フィードバック情報を機械学習装置200へ出力する。機械学習装置200は、ステップS21で行われる機械学習動作中に報酬出力部2021で用いられる試行回数と関連づけられた状態Sに係る評価関数値f(PD(S)、最大試行回数、試行回数及び速度フィードフォワード処理部1082の伝達関数の係数の修正情報(パラメータ修正情報となる)を含む情報を出力装置300に出力する。出力装置300は、サーボ制御装置に速度フィードフォワード処理部1082の伝達関数の係数の修正情報を送る。また出力装置300は、ステップS33で、上述した出力機能により、
図7に示す表示画面の「調整フロー」の欄の「機械学習中」が選択されると、機械学習装置200における機械学習中のサーボ制御パラメータに係る評価関数値等を含む機械学習の進捗状況に係る情報を表示部309に出力する。また、出力装置300は、ステップS33で、
図8に示す表示画面の「調整フロー」の欄の「調整結果」が選択されると、調整前及び調整後のサーボ制御動作(位置偏差の時間変化)を表示部309に出力する。ステップS11、ステップS21、ステップS33は機械学習の中断又は終了まで繰り返し行われる。
ここでは、機械学習中のサーボ制御パラメータに係る評価関数値等を含む機械学習の進捗状況に係る情報をリアルタイムで表示部309に出力する場合について説明しているが、既に、リアルタイムで表示しない場合の例として説明した変形例1〜変形例4のような場合に、機械学習の進捗状況に係る情報をリアルタイムで表示部309に出力するようにしてもよい。
【0088】
操作者が、
図7の図の折れ線を見て、機械学習開始から取得した全ての評価関数の最小値が十分収束したと判断したときに、液晶表示装置等の表示部309の
図7に示す表示画面の「中断」をマウス、キーボード等の操作部304で選択すると、出力装置300は、ステップS34において機械学習装置200及び数値制御装置400に機械学習の中断指示を行う。
【0089】
機械学習装置200は、出力装置300から学習の中断指示を受けると、学習を中断して、指示を受けたときの価値関数Qに基づいて、行動情報を生成し、生成した行動情報であるパラメータ修正情報(速度フィードフォワード処理部1082の伝達関数の係数の修正情報)を最適化行動情報出力部205から出力する。このパラメータ修正情報は、出力装置300を介してサーボ制御装置100に出力される。
なお、操作者が、表示部309の
図7に示す表示画面の「中断」を選択した後に、
図7のステータスに「機械学習中断」が表示された後に、「調整フロー」の欄の「調整結果」を選択した場合、出力装置300は、ステップS35において、数値制御装置400に、学習時の加工プログラムである評価用プログラムよりも低速の検証時の加工プログラム(検証プログラム)と、学習時の加工プログラムである評価用プログラムよりも高速の検証時の加工プログラム(検証プログラム)とを順次起動させる起動指示を送るようにしてもよい。
【0090】
数値制御装置400は、低速と高速の検証プログラムの起動指示を受けると、低速の検証プログラムと高速の検証プログラムとを順次起動させて、サーボ制御装置100に対して位置指令を出力する。サーボ制御装置100はステップS12において、低速の検証プログラムと高速の検証プログラムによりサーボモータ500をサーボ制御し、低速の検証プログラムの動作時の位置偏差の集合と、高速の検証プログラムの動作時の位置偏差の集合との情報を出力装置300に送る。出力装置300は、ステップS36で上述した出力機能により、サーボ制御装置100の情報を表示部309に出力する。
【0091】
(第2実施形態)
第1の実施形態では、出力装置300はサーボ制御装置100と機械学習装置200と数値制御装置400とに接続され、機械学習装置100とサーボ制御装置100との間の情報(例えば、位置偏差、位置指令、速度フィードフォワード計算部の係数速度フィードフォワード計算部の係数)の中継、サーボ制御装置100と数値制御装置400との動作の制御(例えば、機械学習装置に対する学習プログラム起動指示、数値制御装置400に対する検証プログラム起動指示)を行っていた。
本実施形態では、出力装置が機械学習装置と数値制御装置に接続される場合について説明する。
図10は、本発明の第2実施形態の制御装置に含まれる出力装置の一構成例を示すブロック図である。制御装置10Aは、サーボ制御装置100、機械学習装置200、出力装置300A、及び数値制御装置400を備えている。
出力装置300Aは、
図6に示す出力装置300と比べて、情報取得部307及び情報出力部308を備えていない。
【0092】
出力装置300Aはサーボ制御装置100と接続されていないため、機械学習装置200とサーボ制御装置100との間の情報(例えば、位置偏差、位置指令、及び速度フィードフォワード計算部の係数)の中継、サーボ制御装置100との間での情報(例えば、サーボ制御装置100に対する検証のための位置偏差)の受信は行わない。具体的には、
図9に示す、ステップS31の学習プログラム起動指示、ステップS33の機械学習状況出力、ステップS34の機械学習の中断指示を行が、
図9に示すその他の動作(例えば、ステップS35、S36)は行わない。そうすることで、出力装置300Aはサーボ制御装置100と接続されないため、出力装置300Aの動作が少なくなり、装置構成が簡易化できる。
【0093】
(第3実施形態)
第1の実施形態では、出力装置300はサーボ制御装置100と機械学習装置200と数値制御装置400とに接続されていたが、本実施形態では、調整装置がサーボ制御装置100と機械学習装置200と数値制御装置400に接続され、出力装置が調整装置に接続される場合について説明する。
図11は、本発明の第3実施形態の制御装置の一構成例を示すブロック図である。制御装置10Bは、サーボ制御装置100、機械学習装置200、出力装置300A、数値制御装置400及び調整装置700を備えている。
図11に示した出力装置300Aは、
図10に示した出力装置300Aの構成と同一であるが、情報取得部301と情報出力部302が機械学習装置200でなく、調整装置700に接続されている。
調整装置700は、
図6の出力装置300の作図部303、操作部304、及び表示部309が除かれた構成となっている。
【0094】
図11に示した出力装置300Aは、第2の実施形態の
図10に示した出力装置300Aと同様に、
図7に示す、ステップS31の学習プログラム起動指示、ステップS33の機械学習状況出力、ステップS34の機械学習の中断指示の他に、ステップS36の検証結果表示を行うが、これらの動作は、調整装置700を介して行う。調整装置700は、機械学習装置100とサーボ制御装置100との間の情報(例えば、位置偏差、位置指令、及び速度フィードフォワード計算部の係数)の中継行う。また調整装置700は、出力装置300Aが行う、機械学習装置100に対する学習プログラム起動指示、数値制御装置400に対する、学習時の加工プログラム、低速の検証プログラム、又は高速の検証プログラム起動指示等を中継して、機械学習装置100及び数値制御装置400にそれぞれ起動指示を出力する。
そうすることで、第1実施形態と比較して出力装置300の機能が、出力装置300Aと調整装置700とに分離されるので、出力装置300Aの動作が少なくなり、装置構成が簡易化できる。
【0095】
以上本発明に係る各実施形態について説明したが、上記のサーボ制御装置のサーボ制御部及び機械学習装置に含まれる各構成部は、ハードウェア、ソフトウェア又はこれらの組み合わせにより実現することができる。また、上記のサーボ制御装置に含まれる各構成部のそれぞれの協働により行なわれるサーボ制御方法も、ハードウェア、ソフトウェア又はこれらの組み合わせにより実現することができる。ここで、ソフトウェアによって実現されるとは、コンピュータがプログラムを読み込んで実行することにより実現されることを意味する。
【0096】
プログラムは、様々なタイプの非一時的なコンピュータ読み取り可能な記録媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ読み取り可能な記録媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ読み取り可能な記録媒体の例は、磁気記録媒体(例えば、フレキシブルディスク、ハードディスクドライブ)、光磁気記録媒体(例えば、光磁気ディスク)、CD−ROM(Read Only Memory)、CD−R、CD−R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(random access memory))を含む。
【0097】
上述した実施形態は、本発明の好適な実施形態ではあるが、上記実施形態のみに本発明の範囲を限定するものではなく、本発明の要旨を逸脱しない範囲において種々の変更を施した形態での実施が可能である。
【0098】
<出力装置がサーボ制御装置又は機械学習装置に含まれる変形例>
上述した実施形態では、機械学習装置200、サーボ制御装置100、出力装置300又は300A、及び数値制御装置400を制御装置として構成する例と、さらに出力装置300を出力装置300Aと調整装置700とに分離して制御装置に設けて構成した例について説明した。これらの例では、機械学習装置200、サーボ制御装置100、出力装置300又は300A、数値制御装置400、調整装置700とは別体の装置により構成しているが、これらの装置の一つを他の装置と一体に構成してもよい。例えば、出力装置300又は300Aの機能の一部又は全部を機械学習装置200、サーボ制御装置100、又は数値制御装置400により実現するようにしてもよい。
また、出力装置300又は300Aを、機械学習装置200、サーボ制御装置100、、及び数値制御装置400で構成される制御装置の外部に設けてもよい。
【0099】
<システム構成の自由度>
図12は他の構成の制御装置を示すブロック図である。制御装置10Cは、
図12に示すように、n台のサーボ制御装置100−1〜100−n、n台の機械学習装置200−1〜200−n、出力装置300−1〜300−n、数値制御装置400−1〜400−n、及びネットワーク800を備えている。なお、nは任意の自然数である。n台のサーボ制御装置100−1〜100−nのそれぞれは
図1、
図10及び
図11に示したサーボ制御装置100に対応している。n台の機械学習装置200−1〜200−nのそれぞれは
図1、
図10及び
図11に示した機械学習装置200に対応している。数値制御装置400−1〜400−nは数値制御装置400に対応し、サーボ制御装置100−1〜100−nのそれぞれに対して設けられる。出力装置300−1〜300−nは
図6、及び
図10に示した出力装置300又は300Aに対応している。
図11に示した出力装置300A及び調整装置700は出力装置300−1〜300−nに対応している。サーボ制御装置100−1〜100−nは数値制御装置400−1〜400−nに含まれていてもよい。
【0100】
ここで、サーボ制御装置100−1と出力装置300−1とは1対1の組とされて、通信可能に接続されている。サーボ制御装置100−2〜100−nと出力装置300−2〜300−nについてもサーボ制御装置100−1と出力装置300−1と同様に接続される。
図12では、サーボ制御装置100−1〜100−nと出力装置300−1〜300−nとのn個の組は、ネットワーク800を介して接続されているが、サーボ制御装置100−1〜100−nと出力装置300−1〜300−nとのn個の組は、それぞれの組のサーボ制御装置と出力装置とが接続インタフェースを介して直接接続されてもよい。これらサーボ制御装置100−1〜100−nと出力装置300−1〜300−nとのn個の組は、例えば同じ工場に複数組設置されていてもよく、それぞれ異なる工場に設置されていてもよい。
【0101】
なお、ネットワーク800は、例えば、工場内に構築されたLAN(Local Area Network)や、インターネット、公衆電話網、或いは、これらの組み合わせである。ネットワーク800における具体的な通信方式や、有線接続および無線接続のいずれであるか等については、特に限定されない。
【0102】
上述した
図12の制御装置では、出力装置300−1〜300−nとサーボ制御装置100−1−100−nとが1対1の組として通信可能に接続されているが、例えば1台の出力装置300−1が複数のサーボ制御装置100−1〜100−m(m<n又はm=n)とネットワーク800を介して通信可能に接続され、1台の出力装置300−1と接続される1台の機械学習装置が各サーボ制御装置100−1〜100−mの機械学習を実施するようにしてもよい。
その際、機械学習装置200−1の各機能を、適宜複数のサーバに分散する、分散処理システムとしてもよい。また、クラウド上で仮想サーバ機能等を利用して、機械学習装置200−1の各機能を実現してもよい。
また、複数の同じ型名、同一仕様、又は同一シリーズのサーボ制御装置100−1〜100−nとそれぞれ対応する複数の機械学習装置200−1〜200−nがあった場合に、各機械学習装置200−1〜200−nにおける学習結果を共有するように構成するようにしてもよい。そうすることで、より最適なモデルを構築することが可能となる。