IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 富士通テン株式会社の特許一覧

<>
  • 特開-AI学習方法及びAI学習装置 図1
  • 特開-AI学習方法及びAI学習装置 図2
  • 特開-AI学習方法及びAI学習装置 図3
  • 特開-AI学習方法及びAI学習装置 図4
  • 特開-AI学習方法及びAI学習装置 図5
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024151166
(43)【公開日】2024-10-24
(54)【発明の名称】AI学習方法及びAI学習装置
(51)【国際特許分類】
   G06N 3/096 20230101AFI20241017BHJP
   G06N 3/04 20230101ALN20241017BHJP
【FI】
G06N3/096
G06N3/04
【審査請求】未請求
【請求項の数】5
【出願形態】OL
(21)【出願番号】P 2023064321
(22)【出願日】2023-04-11
(71)【出願人】
【識別番号】000237592
【氏名又は名称】株式会社デンソーテン
(74)【代理人】
【識別番号】110001933
【氏名又は名称】弁理士法人 佐野特許事務所
(72)【発明者】
【氏名】山埜 啓輔
(72)【発明者】
【氏名】岡田 康貴
(72)【発明者】
【氏名】関 竜介
(57)【要約】
【課題】AIモデルの学習において、学習時間を改善することが可能な技術を提供する。
【解決手段】AI学習方法は、既存の学習済みAIモデルに学習データを入力し、当該既存の学習済みAIモデルが有する学習済レイヤーから出力される学習済レイヤー特徴量を取得し、学習済レイヤー特徴量を、学習対象AIモデルが有する学習対象レイヤーから出力される学習対象レイヤー特徴量に融合して融合特徴量を生成し、融合特徴量を、学習対象レイヤーの後段の学習対象レイヤーへ入力し、新たな学習済みAIモデルを生成する。
【選択図】図3
【特許請求の範囲】
【請求項1】
レイヤーを有する学習対象AIモデルに学習データを入力して新たな学習済みAIモデルを生成するAI学習方法であって、
既存の学習済みAIモデルに前記学習データを入力し、当該既存の学習済みAIモデルが有する学習済レイヤーから出力される学習済レイヤー特徴量を取得し、
前記学習済レイヤー特徴量を、前記学習対象AIモデルが有する学習対象レイヤーから出力される学習対象レイヤー特徴量に融合して融合特徴量を生成し、
前記融合特徴量を、前記学習対象レイヤーの後段の学習対象レイヤーへ入力し、前記新たな学習済みAIモデルを生成する、
AI学習方法。
【請求項2】
前記融合特徴量の生成において、相互アテンション機構を用いて前記学習済レイヤー特徴量と前記学習対象レイヤー特徴量とを融合する、請求項1に記載のAI学習方法。
【請求項3】
学習進度が進むとともに融合度合を低減させる、請求項2に記載のAI学習方法。
【請求項4】
学習進度が予め定めた進度閾値に到達した場合に、前記融合特徴量の生成を中止する、請求項1に記載のAI学習方法。
【請求項5】
レイヤーを有する学習対象AIモデルに学習データを入力して新たな学習済みAIモデルを生成するAI学習装置であって、
既存の学習済みAIモデルに前記学習データを入力し、当該既存の学習済みAIモデルが有する学習済レイヤーから出力される学習済レイヤー特徴量を取得し、
前記学習済レイヤー特徴量を、前記学習対象AIモデルが有する学習対象レイヤーから出力される学習対象レイヤー特徴量に融合して融合特徴量を生成し、
前記融合特徴量を、前記学習対象レイヤーの後段の学習対象レイヤーへ入力し、前記新たな学習済みAIモデルを生成する、
AI学習装置。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、AI学習方法及びAI学習装置に関する。
【背景技術】
【0002】
従来、ディープラーニングによるAI(人工知能)モデルの学習において、ある程度の識別精度を持つ学習モデルを作成するためには、学習が完了するまでに非常に多くのサンプルデータによる学習が必要となるため、学習処理時間に多くの時間を要する。しかしながら、例えば画像認識に使用されるAIモデルにおいてほぼ同じ構成であっても、一部の構成やハイパラメータ等の条件を変更した場合には、再びサンプルデータによって一から学習させる必要がある。これに対し、既に学習済みのAIモデルを活用したAIモデルの作成方法として、学習対象のAIモデルの学習において、複数の学習済みのAIモデルから得られるニューラルネットワークを構成している階層の重み係数を融合して学習する技術が知られている(例えば特許文献1参照)。
【先行技術文献】
【特許文献】
【0003】
【特許文献1】特開2021-140400号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
従来技術では、各々の環境に適した複数の学習済みのAIモデルから得られるニューラルネットワークを構成している階層の重み係数を融合して、複数の環境に適応する共通学習モデルを構築できる。しかしながら、新たな学習モデルを再学習する必要があるため、学習時間の改善は必ずしも期待できないことに課題があった。
【0005】
本発明は、上記の課題に鑑み、AIモデルの学習において、学習時間を改善することが可能な技術を提供することを目的とする。
【課題を解決するための手段】
【0006】
例示的な本発明は、レイヤーを有する学習対象AIモデルに学習データを入力して新たな学習済みAIモデルを生成するAI学習方法であって、既存の学習済みAIモデルに前記学習データを入力し、当該既存の学習済みAIモデルが有する学習済レイヤーから出力される学習済レイヤー特徴量を取得し、前記学習済レイヤー特徴量を、前記学習対象AIモデルが有する学習対象レイヤーから出力される学習対象レイヤー特徴量に融合して融合特徴量を生成し、前記融合特徴量を、前記学習対象レイヤーの後段の学習対象レイヤーへ入力し、前記新たな学習済みAIモデルを生成する。
【発明の効果】
【0007】
本発明によれば、学習済みAIモデルが有する学習済レイヤーから出力される学習済レイヤー特徴量を、学習対象AIモデルが有する学習対象レイヤーへ入力することにより、学習対象AIモデルの学習対象レイヤーから出力される学習対象レイヤー特徴量として理想とする特徴量が後段の学習対象レイヤー入力される。すなわち、融合処理により学習済みAIモデルの学習済レイヤー特徴量を学習対象AIモデルに融合することで、学習対象AIモデルの後段レイヤーに学習済みAI(学習後に出力される特徴量)に近い特徴量を入力することができる。これにより、学習対象AIモデルの学習時間を改善することができる。また、既存の学習済みAIモデルからの情報を利用することで、学習の初期段階における学習精度が改善される。したがって、学習対象AIモデルの作成の効率化を図ることが可能になる。
【図面の簡単な説明】
【0008】
図1】AI学習装置の一例を示す構成図
図2】AI学習方法の概要を示す説明図
図3】学習済みAIモデルの学習済レイヤー特徴量の融合処理を適用したAI学習方法の一例を示す説明図
図4図3の融合処理の一例を示す説明図
図5図1のAI学習装置のコントローラが実行するAI学習処理を示すフローチャート
【発明を実施するための形態】
【0009】
以下、本発明の例示的な実施形態について、図面を参照しながら詳細に説明する。なお、本発明は以下に示す実施形態の内容に限定されるものではない。
【0010】
図1は、AI学習装置10の一例を示す構成図である。図1では、本実施形態の特徴を説明するために必要な構成要素が示されており、一般的な構成要素の記載は省略されている。
【0011】
AI学習装置10は、図1に示すように、コントローラ11と、操作部12と、表示部13と、通信部14と、記憶部15と、を備える。AI学習装置10は、いわゆるコンピュータ装置によって構成される。AI学習装置10は、AIモデルの学習処理を行う。
【0012】
コントローラ11は、演算処理等を行うプロセッサで構成され、AI学習装置10における各種動作の制御を行う。プロセッサは、例えばCPU(Central Processing Unit)を含んで構成される。コントローラ11は、AIモデルとして構成されるニューラルネットワークにおいて各種処理を行う。
【0013】
操作部12は、キーボード等の、ユーザーによって操作される入力装置で構成される。表示部13は、ディスプレイ等の出力装置で構成される。表示部13は、例えば液晶表示パネルであって、タッチパネル方式等の操作部12を備えることにしても良い。表示部13は、AIモデルの学習に係る各種情報を表示する。通信部14は、通信ネットワークを介して他の装置との間でデータの通信を行うためのインタフェースである。通信部14は、例えばNIC(Network Interface Card)である。
【0014】
記憶部15は、揮発性メモリ及び不揮発性メモリを含んで構成され、AIモデルの学習処理に必要な各種情報が記憶される。揮発性メモリは、例えばRAM(Random Access Memory)で構成される。不揮発性メモリは、例えばROM(Read Only Memory)、フラッシュメモリ、ハードディスクドライブで構成される。不揮発性メモリには、コントローラ11により読み取り可能なプログラム及びデータが格納される。不揮発性メモリに格納されるプログラム及びデータの少なくとも一部は、有線や無線で接続される他のコンピュータ装置(サーバ装置)、または可搬型記録媒体から取得される構成としても良い。
【0015】
図2は、AI学習方法の概要を示す説明図である。図2に示すAI学習方法は、学習済みAIモデルm1を生成するために用いられる。学習済みAIモデルm1は、学習前のAIモデルm0に対して学習を行うことで生成される。AIモデルm0、m1は、例えば、画像分類や物体検出等を行う画像認識用のAIモデルである。ただし、AIモデルm0、m1は、画像認識用のAIモデルに限らず、例えば音声認識用のAIモデル等であっても良い。
【0016】
学習前のAIモデルm0、及び学習済みAIモデルm1は、複数のレイヤーL1、L2、・・・、Lnを含み、ニューラルネットワークを構成している。ニューラルネットワークを構成する各レイヤーL1、L2、・・・、Lnとしては、例えば畳み込み層、プーリング層などといった層が含まれる。なお、以下の説明において、レイヤーL1、L2、・・・、Lnを総称して「レイヤーL」と呼ぶことがある。
【0017】
学習前のAIモデルm0に対する学習には、画像データ等からなる学習データd1と、正解ラベルとを含む教師データの群である学習データセットが用いられる。すなわち、学習前のAIモデルm0には、学習データd1が入力される。各レイヤーL1、L2、・・・、のそれぞれでは、入力されたデータに対して重み等の学習パラメータp01、p02、・・・、p0nが適用されて演算処理が行われて、学習データd1から特徴量が抽出(出力)される。当該特徴量は、次のレイヤーへと伝播(入力)される。
【0018】
AIモデルm0の出力段(最終段)のレイヤーLnの出力データ(AIモデルm0による推定データ)は、学習データセットの正解データと比較される。そして、当該出力データが、正解データに近づくように学習パラメータp01、p02、・・・、p0nが調整される。学習データによる上記学習処理が繰り返され、AIモデルm0の出力データと正解データとの誤差が予め設定された学習済判定所定値に達する、或いは学習回数であるエポック数が予め設定された学習済判定所定数に達することで、学習が終了し、学習済みAIモデルm1を得ることができる。学習済みAIモデルm1は、各レイヤーL1、L2、・・・、Lnのそれぞれに対して学習済みパラメータp11、p12、・・・、p1nを有する。
【0019】
そして、本実施形態のAI学習方法では、学習時間の低減を図って、学習済みのAIモデルから得られる特徴量を融合して学習を行う。当該AI学習方法に関し、さらに続けて詳細に説明する。
【0020】
図1に戻って、コントローラ11は、その機能として、主処理部111と、融合処理部112と、学習部113と、を含む。本実施形態においては、コントローラ11の機能は、記憶部15に記憶される学習処理プログラムに従った演算処理をプロセッサが実行することによって実現される。
【0021】
主処理部111は、ニューラルネットワークを構成する各レイヤーにおける各種の演算処理を行う。主処理部111は、当該演算処理において、レイヤーに入力されたデータに対して重み等の学習パラメータを適用して演算を行う。各レイヤーにおける演算処理には、公知の手法が適用されて良い。
【0022】
融合処理部112は、既存の学習済みAIモデルが有する学習済レイヤーから出力される学習済レイヤー特徴量を取得する。さらに、融合処理部112は、学習対象AIモデルが有する学習対象レイヤーから出力される学習対象レイヤー特徴量に、学習済レイヤー特徴量を融合する融合処理を行い、学習対象AIモデルにおける後段の学習対象レイヤーへの入力データである融合特徴量を生成する。融合処理は、例えば後述する相互アテンション(Cross-Attention)機構を用いる処理の他、特徴量の平均や合計といった処理を適用することができる。
【0023】
学習部113は、主処理部111及び融合処理部112における処理で用いられる重み等の学習パラメータを調整する学習を行う。言い換えれば、学習部113は、AIモデルの出力データと、教師データ群である学習データセットの正解データとの誤差を小さくし、最適解に進む方向へ誘導する。これにより、AIモデルの学習パラメータの適正化を図ることができる。なお、学習データセットを用いた学習の手法には、勾配降下法、誤差逆伝播法などといった公知の手法が適用されて良い。
【0024】
記憶部15には、学習処理プログラム記憶部151と、学習データセット記憶部152と、学習対象AIモデル記憶部153と、学習済みAIモデル記憶部154と、融合データ記憶部155と、が設けられる。
【0025】
学習処理プログラム記憶部151には、コントローラ11により実行される学習処理プログラムが記憶される。当該学習処理プログラムは、AI学習装置10の各種機能を実現する各種プログラムを含む。学習データセット記憶部152には、AIモデルの学習に用いられる教師付き学習データ群である学習データセットが記憶される。教師付き学習データは、入力データ(例えば、画像データ)と正解データ(例えば、物体名)とで構成される。
【0026】
学習対象AIモデル記憶部153には、本実施形態の学習方法により学習する学習対象のAIモデルと、学習対象AIモデル用の学習パラメータとが記憶される。学習済みAIモデル記憶部154には、学習対象AIモデルの学習に利用する学習済みAIモデルと、学習済みAIモデル用の学習パラメータとが記憶される。
【0027】
融合データ記憶部155には、融合処理部112により実行される融合処理に係る各種情報が記憶される。例えば、融合処理において相互アテンション機構を用いる場合、融合データ記憶部155には、当該相互アテンション機構のアルゴリズムに係る情報と、相互アテンション用の融合パラメータとが記憶される。さらに、記憶部15には、各種処理用のデータテーブル(不図示)が設けられる。
【0028】
図3は、学習済みAIモデルm1の学習済レイヤー特徴量の融合処理を適用したAI学習方法の一例を示す説明図である。本実施形態のAI学習方法では、学習対象AIモデルm2と、学習済みAIモデルm1とが用いられる。AIモデルの学習前に学習作業者の操作によって、学習対象AIモデルm2は学習対象AIモデル記憶部153に予め記憶され、学習済みAIモデルm1は学習済みAIモデル記憶部154に予め記憶される。
【0029】
学習対象AIモデルm2及び学習済みAIモデルm1の基本的な構成は同じである。本例では、学習対象AIモデルm2及び学習済みAIモデルm1は、同じ数(n層)のレイヤー構造であって、対応する各レイヤー(L21、L22、・・・、L2n及びL11、L12、・・・、L1n)自体も同じ構成となっている。例えば、学習対象AIモデルm2の学習対象レイヤーL21が畳み込み層であれば、学習済みAIモデルm1の学習済レイヤーL11も畳み込み層である。学習対象AIモデルm2の学習対象レイヤーL21、L22、・・・、L2nのそれぞれには、学習パラメータp21、p22、・・・、p2nが適用される。
【0030】
また、学習済みAIモデルm1は、学習対象AIモデルm2が目的とする学習済みAIモデルと類似の機能を持ったモデルであり、近い機能であるほど大きな効果を期待できる。例えば、学習対象AIモデルm2が「犬」を認識するAIモデルであれば、学習済みAIモデルとしては、「動物」を認識する学習済みAIモデルm1を利用するほうが「車両」を認識する学習済みAIモデルm1を利用するよりも、学習対象AIモデルm2の学習の効率化が期待できる。
【0031】
なお、この学習は、学習済み状態として学習対象AIモデルm2における各学習対象レイヤーの出力と、学習済みAIモデルm1の各学習済レイヤーの出力との相関性を利用したものである。したがって、この相関性があれば効果が期待でき、また相関性が高いほど高い効果が期待できる。このため、学習済みAIモデルm1としては、学習対象AIモデルm2が目的とする学習済みAIモデルと類似の機能を持ち、そのモデル構造(レイヤー接続構造、各レイヤ種別等)が類似したモデルが好ましい。
【0032】
また、AIモデルの性能・機能向上のためにAIモデルの構造面の改良を図ることがよくあるが、このような場合は、学習対象AIモデルm2は、学習済みAIモデルm1を基礎として改良が加えられることが多い。例えば、学習対象AIモデルm2と学習済みAIモデルm1の層接続構成は同じであり、学習対象AIモデルm2の学習対象レイヤーL21内で使用されている畳み込み層は、学習済みAIモデルm1の学習済レイヤーL11内で使用されている畳み込み層を変形した構成である、といった場合である。このような場合、学習対象AIモデルm2と学習済みAIモデルm1との類似度は高いので、学習効率化の大きな効果が期待できる。
【0033】
学習時において、学習対象AIモデルm2の構成は、各学習対象レイヤー(L21~L2n)間に融合部F1~Fn-1(不図示)が挿入された構成となっている。また、各融合部F1~Fn-1は、各々融合処理の動作特性を決めるパラメータpf1~pfn-1(不図示)のデータを保有(記憶)している。なお、融合部F1~Fn-1及び学習パラメータpf1~pfn-1は、学習終了後に学習対象AIモデルm2から削除される。
【0034】
各融合部F1~Fn-1は、各々学習対象AIモデルm2の各学習対象レイヤー(L21~L2n)から出力される学習対象レイヤー特徴量Do2L21~Do2L2n-1を入力する。また、各融合部F1~Fn-1は、各々学習済みAIモデルm1の各学習済レイヤー(L11~L1n)から出力される学習済レイヤー特徴量Do1L11~Do1L1n-1を入力する。そして、各融合部F1~Fn-1は、各々入力した学習対象レイヤー特徴量Do2L21~Do2L2n-1と学習済レイヤー特徴量Do1L11~Do1L1n-1とを融合し、融合特徴量Di2F1~Di2Fn-1を、学習対象AIモデルm2における後段の各学習対象レイヤー(L22~L2n)へ入力する。
【0035】
なお、各融合部F1~Fn-1の行う融合処理は、例えば平均処理(Di2F1=(Do2L21+Do1L11)/2)といった、入力された特徴量に基づく各種処理が適用できる。
【0036】
また、融合パラメータpf1~pfn-1の設定、及びその値の調整により、各融合部F1~Fn-1は、学習済みAIモデルm1からの各学習済レイヤー特徴量Do1L11~Do1L1n-1の融合度合を調整することが可能である。例えば、融合パラメータpf1を融合度合とすることにより、融合部F1から出力される融合特徴量を、Di2F1=Do2L21×(pfn-1)+Do1L11×pf1とすることが可能となる。この場合、融合パラメータpf1~pfn-1の融合度合を、学習進度が進むほど低い値とすることにより、学習済みAIモデルm1からの各学習済レイヤー特徴量Do1L11~Do1L1n-1の影響が小さくなり、学習終了段階における学習済みAIモデルm1からの必要以上の影響を抑制できる。
【0037】
なお、「学習進度」とは、学習対象モデルの学習開始から学習がどの程度進んだかを示す値である。具体的に言えば、学習進度は、学習回数や、学習対象モデルの出力データと正解データとの誤差等で判断することができる。
【0038】
学習部113は、学習対象AIモデルm2の出力(最終段の学習対象レイヤーL2nの出力)と、学習データの正解データとを入力し、それら2つの入力の差に基づいて各学習対象レイヤーL21~L2nの学習パラメータp21~p2nを調整する。なお、この学習パラメータの調整処理には、勾配降下法、誤差逆伝播法といった学習処理方式が適用される。
【0039】
また、学習対象AIモデルm2の各学習対象レイヤーL21~L2n及び学習済みAIモデルm1の各学習済レイヤーL11~L1nにおける処理は、主処理部111が対応することになる。また、各融合部F1~Fn-1における融合処理は、融合処理部112が対応することになる。そして、学習パラメータの調整処理は、学習部113が対応することになる。
【0040】
次に、学習時の動作、及び状態変化等について、順次説明する。なお、これらの動作はAI学習装置10のコントローラ11が実現することになる。
【0041】
コントローラ11は、学習時において同じタイミングで、学習対象AIモデルm2及び学習済みAIモデルm1のそれぞれに、同じ学習データセットから同じ学習データd1を入力する。
【0042】
学習対象AIモデルm2の学習対象レイヤーL21は、学習中の学習パラメータp21に基づき、入力された学習データd1を処理し、学習対象レイヤー特徴量Do2L21を生成して、融合部F1に出力する。他方、学習済みAIモデルm1の学習済レイヤーL11は学習済みの学習パラメータに基づき、入力された学習データd1を処理し、学習済レイヤー特徴量Do1L11を生成して、融合部F1及び学習対象レイヤーL12に出力する。そして、融合部F1は入力した学習対象レイヤー特徴量Do2L21及び学習済レイヤー特徴量Do1L11に対して融合パラメータpf1を用いて融合処理を施し、融合特徴量Di2F1を生成して、レイヤーL22へ入力する。
【0043】
続いて、学習対象AIモデルm2の学習対象レイヤーL22は、学習中の学習パラメータp22に基づき、入力された融合特徴量Di2F1を処理し、学習対象レイヤー特徴量Do2L22を生成して、融合部F2に出力する。他方、学習済みAIモデルm1の学習済レイヤーL12は学習済みの学習パラメータに基づき、入力された学習済レイヤー特徴量Do1L11を処理し、学習済レイヤー特徴量Do1L12を生成して、融合部F2及び学習対象レイヤーL13に出力する。そして、融合部F2は入力した学習対象レイヤー特徴量Do2L22及び学習済レイヤー特徴量Do1L12に対して融合パラメータpf2を用いて融合処理を施し、融合特徴量Di2F2を生成して、レイヤーL23(不図示)へ入力する。
【0044】
以降、学習対象AIモデルm2の学習対象レイヤーL23~L2n-1、学習済みAIモデルm1の学習済レイヤーL13~L1n-1、及び融合部F3(不図示)~Fn-1は、上記と同様の処理を行う。そして、学習対象AIモデルm2の学習対象レイヤーL2nは、学習中の学習パラメータp2nに基づき融合部Fn-1から入力された融合特徴量Di2Fn-1を処理し、学習対象AIモデルm2の出力データである推定値PRを生成して、出力する。そして、AI学習装置10のコントローラ11は、学習データの正解データと学習対象AIモデルm2の出力である推定値PRとを比較し、その差に基づいて各学習対象レイヤーL21~L2nの学習パラメータp21~p2nの修正を行う。そして、学習データセットの各学習データが、順次学習対象AIモデルm2及び学習済みAIモデルm1が入力され、上述の処理による学習が行われる。
【0045】
融合処理部112による融合処理を行うことで、学習済みAIモデルm1の有効な情報が学習対象AIモデルm2に転移する。例えば、各レイヤーの学習パラメータは学習が進んでいない段階では、まだ適正な値から離れたデータである。このため、後段のレイヤーは前段のレイヤーの学習が進まないと(学習パラメータの適正値化が進まないと)、入力データ自体があまり適切でないデータとなってしまう可能性が高い。しかし、本実施形態のように、学習済みAIモデルm1の各学習済みレイヤーの出力、つまり既に適性化されている可能性の高いデータを融合することにより、学習対象AIモデルm2の各学習対象レイヤーへの入力データは、学習初期段階である程度適正な状態にあるデータとなる。
【0046】
これにより、融合処理を行うことなく学習を続ける場合と比較して、学習対象AIモデルm2の正解データに対する誤差の減少率が大きくなる。すなわち、学習対象AIモデルm2の正解データに近づく時間が短くなり、学習終了までの時間を短縮することが可能である。
【0047】
そして、コントローラ11は、学習対象AIモデルm2の学習進度に基づいて融合処理の融合度合を変更する。例えば、コントローラ11は、学習対象AIモデルm2の学習回数や正解データとの誤差に基づいて融合処理の融合度合を低減させる。すなわち、コントローラ11は、学習対象AIモデルm2の各学習対象レイヤー(L21~L2n)が出力する学習対象レイヤー特徴量Do2L21~Do2L2n-1に対する学習済みAIモデルm1の各学習済レイヤー(L11~L1n)が出力する学習済レイヤー特徴量Do1L11~Do1L1n-1の影響が小さくなるようにする。
【0048】
これにより、学習が進んだ段階における融合処理による必要以上の影響を抑制できる。なお、学習が進んだ段階では、学習対象AIモデルm2における各学習対象レイヤーの出力データは適正化が進んだデータとなっている。これにより、後段レイヤーの学習は効率良く進む状況になっており、融合度合の低減による効率低下は少ない。
【0049】
図3の実施形態では、各レイヤーLの間に融合部Fを設けているが、全部ではなく、一部のレイヤー間に設けても良い。例えは、融合部F1を設けて、融合部F2を設けず、学習対象レイヤーL22が出力する学習対象レイヤー特徴量Do2L22が学習対象レイヤーL23に入力されるようにしても良い。
【0050】
また、学習済みAIモデルm1の構成は、学習対象AIモデルm2と同じ構成でなくても良く、例えばレイヤー数が異なったものでも良い。但し、融合する学習済みAIモデルm1の学習済レイヤーと学習対象AIモデルm2の学習対象レイヤーは、各学習モデルの全体構造を考慮して出力データが類似するものとなるように適当に設定する必要がある。また、その際には、学習済みAIモデルm1の学習済レイヤーと学習対象AIモデルm2の学習対象レイヤーの上流/下流関係が変わらないようにする必要がある。例えば、学習対象AIモデルm2の学習対象レイヤーL21が出力する学習対象レイヤー特徴量と、学習済みAIモデルm1の学習済レイヤーL14(不図示)が出力する学習済レイヤー特徴量とを融合し、学習対象AIモデルm2の学習対象レイヤーL23が出力する学習対象レイヤー特徴量と、学習済みAIモデルm1の学習済レイヤーL12が出力する学習済レイヤー特徴量とを融合するようなことは避ける必要がある。
【0051】
上記の構成によれば、学習済みAIモデルm1の各学習済レイヤーが出力する学習済レイヤー特徴量を利用して学習することにより、特に学習の初期段階における学習精度が改善が期待でき、学習対象AIモデルm2の学習効率が向上し、学習時間を改善することができる。また、学習対象AIモデルm2の学習進度に基づき、学習対象AIモデルm2の各学習対象レイヤーが出力する学習対象レイヤー特徴量への、学習済みAIモデルm1の各学習済レイヤーが出力する学習済レイヤー特徴量の融合度合が変更される。すなわち、学習が完了する前に、融合処理を減らすことができる。これにより、学習が進んだ段階における融合処理による必要以上の影響を抑制できる。したがって、学習対象AIモデルm2の効率的な学習を図ることが可能になる。
【0052】
図4は、図3の融合処理の一例を示す説明図である。融合処理部112(コントローラ11)は、融合処理において、例えば図4に示す相互アテンション(Cross-Attention)機構を用いて学習対象レイヤー特徴量Do2L2x(x:レイヤー数を示す変数、x=1~n-1)と学習済レイヤー特徴量Do1L1xとを融合する。
【0053】
図4において、「input」は、学習対象AIモデルm2の、融合処理の前の学習対象レイヤーL2x(x:レイヤー数を示す変数、x=1~n-1)の出力である学習対象レイヤー特徴量Do2L2xである。「memory」は、学習対象AIモデルm2の、融合処理の前の学習対象レイヤーL2xと同列の、学習済みAIモデルm1の学習済レイヤーL1xの出力である学習済レイヤー特徴量Do1L1xである。
【0054】
学習対象レイヤー特徴量Do2L2xであるinputは、denseレイヤーで「query」に変換される。学習済レイヤー特徴量Do1L1xであるmemoryは、denseレイヤーで「key」、「value」に変換される。特徴量に対して、queryは検索対象であり、keyは検索ワードであり、valueは検索元データである。アテンション機構では、特徴量に対して、query(検索対象)によって、memory(key:検索ワード及びvalue:検索元データ)から情報が引き出される。
【0055】
queryとkeyとは、最初のmatmulレイヤーで内積(logit)がとられ、相互の類似度が算出される。queryとkeyとの内積(logit)は、その後の処理のためにSoftmax処理にかけられ、正規化が施される。これにより、query毎のweight(重み)の合計が1.0になるように正規化され、「attention_weight」が算出される。そして、matmulレイヤーで、attention_weightとvalueとの内積が取られ、重みに従ってvalueの情報が引き出される。
【0056】
このようにして、当該融合処理において、「input」に対して「memory」の情報を反映させ、「output」が算出される。「output」は、学習対象AIモデルm2の後段の学習対象レイヤーL2x+1への入力である融合特徴量Di2Fxである。
【0057】
上記のように、当該融合処理において、学習対象レイヤー特徴量Do2L2xであるinputは、学習済レイヤー特徴量Do1L1xであるmemory値を参考に変換され、出力(output)される。詳細に言えば、学習対象レイヤー特徴量Do2L2xであるinputは、学習済レイヤー特徴量Do1L1xであるmemory値に近い領域が抽出され、memory値の影響を強く受けるように変換される。すなわち、学習対象レイヤー特徴量Do2L2xであるinputに、学習済レイヤー特徴量Do1L1xであるmemoryが持つ情報が反映されてゆく。学習対象レイヤー特徴量Do2L2xであるinputは、学習済レイヤー特徴量Do1L1xであるmemory値を参考に変換されるので、memory値に近しい変換が行われる。
【0058】
そして、融合処理において融合度合を変更する場合、「value」を小さくする(弱くする)ことで、学習対象レイヤー特徴量Do2L2xに対する学習済レイヤー特徴量Do1L1xの影響が小さくなるようにする。
【0059】
上記のように、融合処理において、相互アテンション機構を用いることで、特徴量のどの領域に注目すべきかを自動的に特定し、学習することができる。例えば、画像認識において、画像の前景及び背景のうち認識対象である前景に注目し、注目すべき前景に特化した学習が可能である。すなわち、認識に関係が無い背景の影響を抑制し、注目すべき前景に特化することで、特徴量を効率良く抽出することが可能である。
【0060】
図5は、図1のAI学習装置10のコントローラ11が実行するAI学習処理を示すフローチャートである。このフローチャートは、コンピュータ装置にAIモデルの学習処理を実現させるコンピュータプログラムの技術的内容を示す。また、当該コンピュータプログラムは、読み取り可能な各種不揮発性記録媒体に記憶され、提供(販売、流通等)される。当該コンピュータプログラムは、1つのプログラムのみで構成されても良いが、協働する複数のプログラムによって構成されても良い。
【0061】
図5に示す処理は、AI学習装置10の設計者等が記憶部15に記憶された学習対象AIモデルm2の学習処理を実行する際、例えばキーボード等の操作部12により学習処理の開始操作が行われたときに実行される。以下、図3を適宜参照しながら説明する。
【0062】
ステップS101において、コントローラ11は、学習対象AIモデルm2及び学習済みAIモデルm1のそれぞれに、同じ学習データセットから同じ学習データd1を入力し、学習対象AIモデルm2の学習対象レイヤーL21、及び学習済みAIモデルの学習済レイヤーL11の入力データとして、ステップS102に移る。
【0063】
ステップS102において、コントローラ11は、レイヤー数を示す変数xに1を設定し、ステップS103に移る。
【0064】
ステップS103において、コントローラ11は、学習対象AIモデルm2の学習対象レイヤーL2x、及び学習済みAIモデルm1の学習済レイヤーL1xの各入力データに対して、各レイヤーにおける各種演算処理を行って出力データ(学習対象レイヤー特徴量Do2L2x、及び学習済レイヤー特徴量Do1L1x)を算出し、ステップS104に移る。
【0065】
ステップS104において、コントローラ11は、学習対象AIモデルm2の学習対象レイヤーL2xの出力データである学習対象レイヤー特徴量Do2L2xと、学習済みAIモデルm1のレイヤーL1xの出力データである学習済レイヤー特徴量Do1L1xとの融合処理を行い、学習対象AIモデルm2の後段の学習対象レイヤーL2x+1の入力データである融合特徴量Di2Fxを算出し、ステップS105に移る。なお、レイヤー数を示す変数xがnの場合、ステップS104の融合処理は行わなくても良い。
【0066】
ステップS105において、コントローラ11は、レイヤー数を示す変数xに1を加算し、ステップS106に移る。
【0067】
ステップS106において、コントローラ11は、学習対象AIモデルm2に含まれるすべての学習対象レイヤーL2x(L21~L2n)に関して演算処理が終了したか否か(x=nで終了)判断し、終了していればステップS107に移り、終了していなければステップS103に戻る。
【0068】
ステップS107において、コントローラ11(学習部113)は、学習対象AIモデルm2(レイヤーL2n)の出力データである推定値PRと、学習データの正解データとの誤差に基づき、学習パラメータを、例えば勾配降下法、誤差逆伝播法を用いて調整する処理を行い、ステップS108に移る。
【0069】
ステップS108において、コントローラ11は、学習進度が、融合度合の変更すべき状態に達したか否かを判断する。具体的には、予め定めた所定の学習回数に達したか否かを判断し、または、学習対象AIモデルm2の出力データと正解データとの誤差が予め定めた所定の進度閾値に達したか否かを判断し、達していればステップS109に移り、達していなければステップS110に移る。なお、所定の学習回数及び所定の進度閾値は、例えば実験等に基づきAIモデル開発者等が設定した値を用いれば良い。
【0070】
ステップS109において、コントローラ11は、融合処理における融合度合を変更し、ステップS110に移る。なお、学習進度に応じた融合度合の値については、例えば実験等に基づきAIモデル開発者等が設定した値を用いれば良い。
【0071】
ステップS110において、コントローラ11は、学習対象AIモデルm2に対する学習が完了したか否かを判断し、完了していれば当該フローチャートに係る処理を終了し、完了していなければステップS101に戻る。
【0072】
このとき、コントローラ11は、学習対象AIモデルm2の出力データと正解データとの誤差が所定値に達する、或いは学習回数であるエポック数が所定値に達するか否かに基づき、学習対象AIモデルm2に対する学習の完了を判断する。
【0073】
なお、融合処理では、学習対象AIモデルm2の学習回数の増加とともに、段階的に融合度合を低減させることにしても良い。この構成によれば、学習対象AIモデルm2の学習において、徐々に、学習済みAIモデルm1の学習済レイヤー特徴量の影響を小さくする(弱くする)ことができる。これにより、学習効率と、学習進度に伴う融合処理による必要以上の影響とをバランス良く制御することが可能となる。
【0074】
なお、融合処理は、学習対象AIモデルm2の学習完了するよりも前に中止することしても良い。この構成によれば、学習対象AIモデルm2の学習の途中で融合処理が無くなり、融合処理時間に応じた時間短縮が期待できる。
【0075】
<留意事項等>
本明細書中で実施形態として開示された種々の技術的特徴は、その技術的創作の趣旨を逸脱しない範囲で種々の変更を加えることが可能である。すなわち、上記実施形態は、全ての点で例示であって、制限的なものではない。本発明の技術的範囲は、上記実施形態の説明ではなく、特許請求の範囲によって示されるものであり、特許請求の範囲と均等の意味及び範囲内に属する全ての変更が含まれる。また、本明細書中で示した複数の実施形態は、可能な範囲で適宜組み合わせて実施して良い。
【0076】
また、上記実施形態では、プログラムに従ったCPUの演算処理によってソフトウェア的に各種の機能が実現されていると説明したが、これらの機能の少なくとも一部は電気的なハードウェア資源によって実現されて良い。ハードウェア資源としては、例えばASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等であって良い。また逆に、ハードウェア資源によって実現されるとした機能の少なくとも一部は、ソフトウェア的に実現されて良い。
【0077】
また、本実施形態の範囲には、AI学習装置10の少なくとも一部の機能をプロセッサ(コンピュータ)に実現させるコンピュータプログラムが含まれて良い。また、本実施形態の範囲には、そのようなコンピュータプログラムを記録するコンピュータ読取り可能な不揮発性記録媒体が含まれて良い。不揮発性記録媒体は、例えば上述の不揮発性メモリの他、光記録媒体(例えば光ディスク)、光磁気記録媒体(例えば光磁気ディスク)、USBメモリ、或いはSDカード等であって良い。
【符号の説明】
【0078】
10 AI学習装置
11 コントローラ
12 操作部
13 表示部
14 通信部
15 記憶部
111 主処理部
112 融合処理部
113 学習部
F1、F2 融合部
L11、L12、L1n 学習済レイヤー
L21、L22、L2n 学習対象レイヤー
p21、p22、p2n 学習パラメータ
pf1、pf2 融合パラメータ
m1 学習済みAIモデル
m2 学習対象AIモデル
図1
図2
図3
図4
図5