▶ 富士通株式会社の特許一覧
特開2024-103463情報処理装置、情報処理方法及びコンピュータプログラム
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024103463
(43)【公開日】2024-08-01
(54)【発明の名称】情報処理装置、情報処理方法及びコンピュータプログラム
(51)【国際特許分類】
G06N 3/08 20230101AFI20240725BHJP
G06N 3/094 20230101ALI20240725BHJP
【FI】
G06N3/08
G06N3/094
【審査請求】未請求
【請求項の数】10
【出願形態】OL
【外国語出願】
(21)【出願番号】P 2024006142
(22)【出願日】2024-01-18
(31)【優先権主張番号】202310050865.8
(32)【優先日】2023-01-20
(33)【優先権主張国・地域又は機関】CN
(71)【出願人】
【識別番号】000005223
【氏名又は名称】富士通株式会社
(74)【代理人】
【識別番号】100107766
【弁理士】
【氏名又は名称】伊東 忠重
(74)【代理人】
【識別番号】100070150
【弁理士】
【氏名又は名称】伊東 忠彦
(72)【発明者】
【氏名】フォン・チョン
(72)【発明者】
【氏名】ジョオン・チャオリアン
(72)【発明者】
【氏名】ワン・ジエ
(72)【発明者】
【氏名】孫 俊
(57)【要約】 (修正有)
【課題】新しい訓練サンプルセットを使用して、元のモデルをさらに再訓練する場合に良好な予測パフォーマンスを有するモデルを得る。
【解決手段】情報処理装置100は、第二タスクについての第二訓練サンプルセットに基づいて得られたサンプル生成ネットワークを利用して、第一タスクについての第一シミュレットサンプルセットを生成するサンプル生成ユニット及び第一所定条件の下で、第二訓練サンプルセットを利用して、第一タスクについての事前訓練の第一モデルを再訓練し、第二タスクとは異なる第一タスク及び/又は第二タスクに関する予測待ち対象を予測するための再訓練の第一モデルを取得する第1モデル訓練ユニットを含む。前記第一所定条件は、第一シミュレットサンプルセットに対しての事前訓練の第一モデルの予測結果と、第一シミュレットサンプルセットに対しての再訓練の第一モデルの予測結果との間の差が、所定範囲内にあることを含む。
【選択図】
図1
【特許請求の範囲】
【請求項1】
情報を処理する装置であって、
第二タスクについての第二訓練サンプルセットに基づいて得られたサンプル生成ネットワークを利用して、第一タスクについての第一シミュレットサンプルセットを生成するように構成されるサンプル生成ユニット;及び
第一所定条件の下で、前記第二訓練サンプルセットを利用して、前記第一タスクについての事前訓練の第一モデルを再訓練し、予測待ち対象を予測するための再訓練の第一モデルを取得するように構成される第一モデル訓練ユニットを含み、
前記第一所定条件は、前記事前訓練の第一モデルの、前記第一シミュレットサンプルセットに対しての予測結果と、前記再訓練の第一モデルの、前記第一シミュレットサンプルセットに対しての予測結果との間の差が所定範囲内にあることを含み、
前記第一タスクは前記第二タスクとは異なり、
前記予測待ち対象は第一タスク及び/又は第二タスクに関する、装置。
【請求項2】
請求項1に記載の装置であって、
サンプル生成ネットワーク取得ユニットをさらに含み、
前記サンプル生成ネットワーク取得ユニットは、
前記第二訓練サンプルセットに基づいて、初期の敵対的生成ネットワークを訓練することで、訓練済みの敵対的生成ネットワークを取得し;及び
前記訓練済みの敵対的生成ネットワークを、第二所定条件に達するように調整することで、調整済みの敵対的生成ネットワークを前記サンプル生成ネットワークとして得る
ように構成され、
前記第二所定条件は、ランダムベクトルを前記調整済みの敵対的生成ネットワークの入力として利用する場合に、前記事前訓練の第一モデルの、前記調整済みの敵対的生成ネットワークの出力としての第二シミュレットサンプルセットに対しての予測結果が前記第一タスクについての予測結果に関することを含む、装置。
【請求項3】
請求項1に記載の装置であって、
サンプル生成ネットワーク取得ユニットをさらに含み、
前記サンプル生成ネットワーク取得ユニットは、
前記第二訓練サンプルセットに基づいて、1つ又は複数の符号化層を含む初期生成ネットワークを、第三所定条件に達するように訓練することで、1つ又は複数の符号化層を含む訓練済みの生成ネットワークを前記サンプル生成ネットワークとして得る
ように構成され、
前記第三所定条件は、前記第二訓練サンプルセットを前記訓練済みの生成ネットワークの入力として利用する場合に、前記事前訓練の第一モデルの、前記訓練済みの生成ネットワークの出力としての第二シミュレットサンプルセットに対しての予測結果が前記第一タスクについての予測結果に関することを含む、装置。
【請求項4】
請求項3に記載の装置であって、
前記訓練済みの生成ネットワークは1つ又は複数の復号層をさらに含み、
前記1つ又は複数の符号化層にうちの最後の1つの符号化層の出力は前記1つ又は複数の復号層のうちの1番目の復号層の入力として使用され、前記1つ又は複数の復号層のうちの最後の1つの復号層の出力は訓練済みの生成ネットワークの出力として使用される、装置。
【請求項5】
請求項2乃至4のうちの任意の1項に記載の装置であって、
前記第二シミュレットサンプルセットにおける各シミュレットサンプルにノイズを追加し、前記事前訓練の第一モデルの、ノイズが追加された各シミュレットサンプルに対しての予測結果を、前記事前訓練の第一モデルの、前記第二シミュレットサンプルセットに対しての予測結果として取得する、装置。
【請求項6】
請求項2乃至4のうちの任意の1項に記載の装置であって、
前記事前訓練の第一モデルに含まれる特徴抽出層により抽出される、前記第二シミュレットサンプルセットにおける各シミュレットサンプルの特徴にノイズを追加し、ノイズが追加された特徴に基づく予測結果を、前記事前訓練の第一モデルの、前記第二シミュレットサンプルセットに対しての予測結果として取得する、装置。
【請求項7】
請求項2乃至4のうちの任意の1項に記載の装置であって、
前記事前訓練の第一モデルに含まれる損失層の出力ベクトルにより、前記事前訓練の第一モデルの、前記第一シミュレットサンプルセットに対しての予測結果と、前記再訓練の第一モデルの、前記第一シミュレットサンプルセットに対しての予測結果との間の差を表す、装置。
【請求項8】
請求項2乃至4のうちの任意の1項に記載の装置であって、
前記事前訓練の第一モデルはニューラルネットワークモデルである、装置。
【請求項9】
情報を処理する方法であって、
第二タスクについての第二訓練サンプルセットに基づいて得られたサンプル生成ネットワークを利用して、第一タスクについての第一シミュレットサンプルセットを生成し;及び
第一所定条件の下で、前記第二訓練サンプルセットを利用して、前記第一タスクについての事前訓練の第一モデルを再訓練し、予測待ち対象を予測するための再訓練の第一モデルを取得することを含み、
前記第一所定条件は、前記事前訓練の第一モデルの、前記第一シミュレットサンプルセットに対しての予測結果と、前記再訓練の第一モデルの、前記第一シミュレットサンプルセットに対しての予測結果との間の差が所定範囲内にあることを含み、
前記第一タスクは前記第二タスクとは異なり、
前記予測待ち対象は第一タスク及び/又は第二タスクに関する、方法。
【請求項10】
コンピュータに、請求項9に記載の方法を実行させるためのプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、情報処理の技術分野に関し、具体的には、情報処理装置、情報処理方法及びコンピュータプログラムに関する。
【背景技術】
【0002】
情報処理の技術分野では、生涯にわたる(持続的な)学習が重要な応用(アプリケーション)を有する。しかし、新しい訓練サンプルセットを使用して、訓練により得られた元のモデルをさらに訓練する場合に、得られた新しいモデルは元のモデルのパフォーマンスを失う可能性がある。
【発明の概要】
【発明が解決しようとする課題】
【0003】
上述の問題に鑑み、本発明の目的は、従来技術における1つ又は複数の欠点を解決し得る情報処理装置、情報処理方法及びコンピュータプログラムを提供することにある。
【課題を解決するための手段】
【0004】
本発明の1つの側面によれば、情報処理装置が提供され、それは、
第二タスクについての第二訓練サンプルセットに基づいて得られたサンプル生成ネットワークを利用して、第一タスクについての第一シミュレットサンプルセットを生成するように構成されるサンプル生成ユニット;及び
第一所定条件の下で、前記第二訓練サンプルセットを利用して、前記第一タスクについての事前訓練の第一モデルを再訓練し、予測待ち対象を予測するための再訓練の第一モデルを取得するように構成される第一モデル訓練ユニットを含み、
前記第一所定条件は、前記事前訓練の第一モデルの、前記第一シミュレットサンプルセットに対しての予測結果と、前記再訓練の第一モデルの、前記第一シミュレットサンプルセットに対しての予測結果との間の差が所定範囲内にあることを含み、
前記第一タスクは前記第二タスクとは異なり、
前記予測待ち対象は第一タスク及び/又は第二タスクに関する。
【0005】
本発明のもう1つの側面によれば、情報処理方法が提供され、それは、
第二タスクについての第二訓練サンプルセットに基づいて得られたサンプル生成ネットワークを利用して、第一タスクについての第一シミュレットサンプルセットを生成し;及び
第一所定条件の下で、前記第二訓練サンプルセットを利用して、前記第一タスクについての事前訓練の第一モデルを再訓練し、予測待ち対象を予測するための再訓練の第一モデルを取得することを含み、
前記第一所定条件は、前記事前訓練の第一モデルの、前記第一シミュレットサンプルセットに対しての予測結果と、前記再訓練の第一モデルの、前記第一シミュレットサンプルセットに対しての予測結果との間の差が所定範囲内にあることを含み、
前記第一タスクは前記第二タスクとは異なり、
前記予測待ち対象は第一タスク及び/又は第二タスクに関する。
【0006】
本発明の他の側面によれば、コンピュータプログラムがさらに提供され、前記コンピュータプログラムは前記コンピュータに、上述のような情報処理方法を実行させるためのものである。
【図面の簡単な説明】
【0007】
【
図1】本発明の第一実施例による情報処理装置の機能構成例を示すブロック図である。
【
図2】本発明の第二実施例による情報処理装置の機能構成例を示すブロック図である。
【
図3】本発明の第二実施例によるサンプル生成ネットワーク取得ユニットが行う調整プロセスを示す図である。
【
図4】第二訓練サンプルの例及びシミュレットサンプルの例を示す図である。
【
図5】本発明の第三実施例による情報処理装置の機能構成例を示すブロック図である。
【
図6】本発明の第三実施例によるサンプル生成ネットワーク取得ユニットが行う訓練プロセスを示す図である。
【
図7】第二訓練サンプルの例及びシミュレットサンプルの他の例を示す図である。
【
図8】本発明による技術と関連技術との比較を示す図である。
【
図9】本発明の第四実施例による情報処理方法の例示的なフローチャートである。
【
図10】本発明の実施例で採用され得るパーソナルコンピュータの構成例を示すブロック図である。
【発明を実施するための形態】
【0008】
以下、図面と併せて本発明の実施形態を具体的に説明する。なお、以下に説明される実施例は例示に過ぎず、本発明を限定しない。
【実施例0009】
図1は本発明の第一実施例による情報処理装置100の機能構成例を示すブロック図である。
図1に示すように、本発明の第一実施例による情報処理装置100はサンプル生成ユニット102及び第一モデル訓練ユニット104を含み得る。
【0010】
サンプル生成ユニット102は、第二タスクについての第二訓練サンプルセットに基づいて得られたサンプル生成ネットワークを利用して、第一タスクについての第一シミュレットサンプルセットを生成するように構成されても良い。
【0011】
第一モデル訓練ユニット104は、第一所定条件の下で、第二訓練サンプルセットを利用して、第一タスクについての事前訓練の第一モデルを再訓練し、予測待ち対象を予測するための再訓練の第一モデルを取得するように構成されても良い。例えば、第一所定条件は、事前訓練の第一モデルの、第一シミュレットサンプルセットに対する予測結果と、再訓練の第一モデルの、第一シミュレットサンプルセットに対する予測結果との間の差が所定範囲内にあることを含んでも良い。所定範囲は、有限回の実験により取得されても良く、又は、経験に基づいて設定されても良い。
【0012】
例えば、第二訓練サンプルセットは訓練画像集合、訓練語音集合などであっても良い。それ相応に、第二訓練サンプルセットに基づいて生成された第一シミュレットサンプルセットは画像集合、語音集合などであっても良く、また、予測待ち対象は画像、語音などであっても良い。例えば、画像は顔画像、或る種の動物の画像、或る種の植物の画像、或る種の無生物的な物体の画像などを含んでも良い。
【0013】
第一タスクは第二タスクとは異なっても良い。予測待ち対象は第一タスク及び/又は第二タスクに関しても良い。例えば、第一タスクは第一類型集合の対象に対しての予測を含んでも良く、第二タスクは第二類型集合の対象に対しての予測を含んでも良い。それ相応に、予測待ち対象は第一類型集合の対象及び/又は第二類型集合の対象を含んでも良い。例えば、第一類型集合は1つ又は複数の類型を含んでも良く、また、第二類型集合は第一類型集合における各類型とは異なる1つ又は複数の類型を含んでも良い。例えば、数字文字認識の場合に、第一類型集合の対象は数字“0”及び“1”を含み、第二類型集合の対象は数字“2”及び“3”を含んでも良いが、これらに限定されない。
【0014】
ここで、“特定のタスクについてのサンプルセット”は、特定のタスクについて所定モデルを訓練するためのサンプルセットを表しても良い。例えば、特定のタスクが或る類型の対象に対しての画像認識である場合に、特定のタスクについてのサンプルセットは該類型の対象を含む複数の画像の集合であっても良い。また、“シミュレットサンプルセット”は、サンプル採取により直接取得されるサンプルセットではなく、所定アルゴリズムにより取得されるサンプルセットを表しても良い。また、ここで、“予測”は認識、分類などを含んでも良い。
【0015】
関連技術では、新しい訓練サンプルセットを使用して事前訓練のモデルをさらに訓練する場合に、得られた再訓練のモデルは事前訓練のモデルのパフォーマンスを失う可能性がある。また、事前訓練のモデルを得るための元のサンプルセットに含まれるサンプルの数が大きいため、大量の元のサンプルを取得するコストが高く、低コストで大量の元のサンプルを用いて再訓練のモデルの予測パフォーマンスを制約することができない。幾つかの場合に、元のサンプルが不可知であるため、元のサンプルを使用して再訓練のモデルの予測パフォーマンスを制約することができない。
【0016】
上述のように、本発明の第一実施例による情報処理装置100は第二タスクについての第二訓練サンプルセットに基づいて得られたサンプル生成ネットワークを利用して第一タスクについての第一シミュレットサンプルセットを生成するので、事前訓練の第一モデルを再訓練するプロセスで、第一シミュレットサンプルセットを利用して、事前訓練の第一モデルの予測パフォーマンスを制約することができ、これによって、事前訓練の第一モデルの予測パフォーマンスをより良く残すことで、第一タスク及び第二タスクの両方に良好な予測パフォーマンスを有する再訓練の第一モデルを得ることができる。また、第一シミュレットサンプルセットを得るコストが大量の元のサンプルを得るコストよりもかなり低いため、コストを削減することができる。また、第一シミュレットサンプルセットを使用して、再訓練の第一モデルが第一タスクに対しての忘却及び/又は第一タスクに対しての忘却度を有するかを決定することもできる。
【0017】
例えば、元のサンプルセットを得ることができる場合に、少量の元のサンプルを取得し、事前訓練の第一モデルを再訓練するプロセスで、取得した少量の元のサンプル及び第一シミュレットサンプルセットを利用して、事前訓練の第一モデルの予測パフォーマンスを制約しても良い。
【0018】
一例として、事前訓練の第一モデルの、第一シミュレットサンプルセットに対する予測結果(以降、“第一予測結果”と呼んでも良い)と、再訓練の第一モデルの、第一シミュレットサンプルセットに対する予測結果(以降、“第二予測結果”と呼んでも良い)との間の差は直接比較することにより得ることができる。例えば、第一タスクが対象認識である場合に、第一シミュレットサンプルセットにおける次のようなシミュレットサンプルの数M1(M1は0よりも大きい自然数である)と、第一シミュレットサンプルセットの総サンプル数N(Nは1よりも大きい自然数である)との比(M1/N)を、第一予測結果と第二予測結果との間の差として計算することができ、即ち、事前訓練の第一モデル及び再訓練の第一モデルは該シミュレットサンプルを異なる類型の対象として認識する。
【0019】
もう1つの例として、事前訓練の第一モデルに含まれる損失層の出力ベクトルにより、事前訓練の第一モデルの、第一シミュレットサンプルセットに対する予測結果と、再訓練の第一モデルの、第一シミュレットサンプルセットに対する予測結果との間の差を表すことができる。このような方法により、第一予測結果と第二予測結果との間の差をより正確に表すことができるため、事前訓練の第一モデルの第一タスクについての予測パフォーマンスをより良く残すことができる。
【0020】
例えば、第一シミュレットサンプルセットにおける次のようなサンプルの数M2(M2は0よりも大きい自然数である)と、第一シミュレットサンプルセットの総サンプル数Nとの比(M2/N)を、第一予測結果と第二予測結果との間の差として計算することができ、即ち、事前訓練の第一モデルに含まれる損失層により取得される、該シミュレットサンプルについての出力ベクトル(以降、“第一出力ベクトル”と呼んでも良い)と、再訓練の第一モデルに含まれる損失層により取得される、該シミュレットサンプルについての出力ベクトル(以降、“第二出力ベクトル”と呼んでも良い)との間の差は第一所定閾値以上である。例えば、このような場合に、所定範囲は0であっても良いが、これに限定されず、実際のニーズに応じて設定されても良い。例えば、第一出力ベクトルと第二出力ベクトルとの間の差は第一出力ベクトルと第二出力ベクトルとの間のユークリッド距離により表すことができる。第一所定閾値は有限回の実験により取得されても良く、又は、経験に基づいて設定されても良い。
【0021】
例えば、事前訓練の第一モデルに含まれる損失層の出力ベクトルにより、第一予測結果と第二予測結果との間の差を表す場合に、事前訓練の第一モデルに対応する損失関数Lに上述の差に関する損失関数LDを追加して事前訓練の第一モデルを再訓練することで、上述の第一所定条件を満たす再訓練の第一モデルを得ることができる。例えば、上述の差に関する損失関数LDが追加された総損失関数L’は以下の式(1)で表すことができる。
【0022】
L’=L+ω*λ*LD 式(1)
式(1)では、ωは再訓練プロセスで第一モデルに入力するサンプルの類型を指示するために用いられ、第一モデルに入力するサンプルが第二訓練サンプルセットにおける訓練サンプルである場合に、ωは0に等しく、また、第一モデルに入力するサンプルが第一シミュレットサンプルセットにおけるシミュレットサンプルである場合に、ωは1に等しい。λ>0であり、それは重みを表し、λが大きいほど、再訓練の第一モデルの第一タスクについての予測パフォーマンスが事前訓練の第一モデルの第一タスクについての予測パフォーマンスに近くなることが期待される。
【0023】
例えば、上述の差に関する損失関数LDは以下の式(2)で表すことができる。
【0024】
【数1】
式(2)では、A1は再訓練のプロセスでの第一モデルの損失層の出力ベクトルを表し、A2は事前訓練の第一モデルの損失層の出力ベクトルを表す。
【0025】
例えば、事前訓練の第一モデルはニューラルネットワークモデル、例えば、畳み込みニューラルネットワーク(CNN)モデルであっても良いが、これに限定されず、当業者は実際のニーズに応じて適切なモデルを使っても良い。
【実施例0026】
図2は本発明の第二実施例による情報処理装置200の機能構成例を示すブロック図である。
図2に示すように、本発明の第二実施例による情報処理装置200はサンプル生成ユニット202、第一モデル訓練ユニット204及びサンプル生成ネットワーク取得ユニット206を含んでも良い。例えば、サンプル生成ユニット202及び第一モデル訓練ユニット204は上述の第一実施例におけるサンプル生成ユニット102及び第一モデル訓練ユニット104と同様の機能設定を有しても良く、ここではその詳しい説明を省略する。
【0027】
サンプル生成ネットワーク取得ユニット206は、第二タスクについての第二訓練サンプルセットに基づいて初期の敵対的生成ネットワーク(Generative Adversarial Network)を訓練することで訓練済みの敵対的生成ネットワークを得るように構成されても良い。例えば、ランダムベクトルを入力として用いる場合に、対応する判別器は、訓練済みの敵対的生成ネットワークにより出力されるシミュレットサンプルと第二訓練サンプルセットにおける訓練サンプルを区別することができない。
【0028】
訓練済みの敵対的生成ネットワークを得た後に、サンプル生成ネットワーク取得ユニット206は訓練済みの敵対的生成ネットワークを、第二所定条件に達するように調整することで、調整済みの敵対的生成ネットワークをサンプル生成ネットワークとして得ることができる。
【0029】
第二所定条件は、ランダムベクトルを調整済みの敵対的生成ネットワークの入力として利用する場合に、事前訓練の第一モデルの、調整済みの敵対的生成ネットワークの出力としての第二シミュレットサンプルセットに対しての予測結果が第一タスクについての予測結果に関することを含んでも良い。例えば、第一タスクが第一類型集合の対象に対しての予測を含む場合に、事前訓練の第一モデルの、第二シミュレットサンプルセットに対しての予測結果が第一タスクについての予測結果に関することは、事前訓練の第一モデルが第二シミュレットサンプルセットにおける各シミュレットサンプルにおける各対象を第一類型集合の対象として予測することを表しても良い。例えば、第一タスクが数字“0”及び“1”に対しての認識を含む場合に、事前訓練の第一モデルの、第二シミュレットサンプルセットに対しての予測結果が第一タスクについての予測結果に関することは、事前訓練の第一モデルが第二シミュレットサンプルセットにおける各シミュレットサンプルにおける各対象を“0”及び“1”のうちの任意の1つとして予測することを表しても良い。好ましくは、“0”と予測される対象の数は“1”と予測される対象の数に近い。
【0030】
一例として、所望の、事前訓練の第一モデルの、第二シミュレットサンプルセットにおける各シミュレットサンプルに対しての予測結果を設定しても良い。このような場合に、第二所定条件はさらに、第二シミュレットサンプルセットにおける各シミュレットサンプルについて、事前訓練の第一モデルの該シミュレットサンプルに対しての予測結果が所望の予測結果と同じであることを含んでも良い。例えば、第一タスクが数字“0”及び“1”に対しての認識を含む場合に、予め、所望の、第二シミュレットサンプルセットにおける複数のシミュレットサンプルの予測結果を数字“0”に設定し、かつ所望の、他のシミュレットサンプルの予測結果を数字“1”に設定しても良い。
【0031】
他の例として、第二シミュレットサンプルセットにおける各シミュレットサンプルについて所望の損失層の出力ベクトルを設定しても良い。このような場合に、第二所定条件はさらに、第二シミュレットサンプルセットにおける各シミュレットサンプルについて、該シミュレットサンプルが事前訓練の第一モデルの入力として使用される場合に、損失層の出力ベクトルと、所望の損失層の出力ベクトルとの間の差が第二所定閾値以下であることを含んでも良い。第二所定閾値は有限回の実験により取得されても良く、又は、経験に基づいて設定されても良い。
【0032】
図3に示すように、ランダムベクトルを訓練済みの敵対的生成ネットワークに入力してシミュレットサンプルを取得し、取得したシミュレットサンプルを事前訓練の第一モデルに入力して事前訓練の第一モデルの該シミュレットサンプルに対しての予測結果を取得し、そして、予測結果に基づいて訓練済みの敵対的生成ネットワークを調整することができる。
【0033】
サンプル生成ユニット202は、サンプル生成ネットワーク取得ユニット206が得たサンプル生成ネットワークを利用して、第一タスクについての第一シミュレットサンプルセットを生成することができる。第一モデル訓練ユニット204は、事前訓練の第一モデルを再訓練するプロセスで、サンプル生成ユニット202が生成した第一シミュレットサンプルセットを利用して、事前訓練の第一モデルの予測パフォーマンスを制約することで、事前訓練の第一モデルの予測パフォーマンスをより良く残すことができる。また、事前訓練の第一モデルを訓練するための元のサンプルを大量に得る必要がないので、コストを削減することができる。
【0034】
図4は、第一タスクが数字“0”及び“1”に対しての認識を含み、かつ第二タスクが数字“2”及び“3”に対しての認識を含む場合に、第二訓練サンプルの例及びサンプル生成ユニット202が得えシミュレットサンプルの例を示す図である。
図4から分かるように、シミュレットサンプルは数字“0”及び“1”を含む。よって、分かるように、サンプル生成ユニット202が得たシミュレットサンプルは、第一タスクについての訓練サンプルをより良くシミュレットすることができる。
【0035】
一例として、次のような方法により、事前訓練の第一モデルの、第二シミュレットサンプルのうちの各シミュレットサンプルに対しての予測結果を取得し、かつ取得した第二シミュレットサンプルのうちの各シミュレットサンプルの予測結果の集合を、事前訓練の第一モデルの、第二シミュレットサンプルセットに対しての予測結果として用いることができ、即ち、該シミュレットサンプルにノイズ(例えば、ガウスノイズ)を追加し、かつ事前訓練の第一モデルの、ノイズが追加されたシミュレットサンプルに対しての予測結果を、事前訓練の第一モデルの、該シミュレットサンプルに対しての予測結果として得る。このような方法により得られたサンプル生成ネットワークを利用することで、第一タスクについての訓練サンプルをより良くシミュレットしたシミュレットサンプルセットを得ることができるため、第一タスクについての予測パフォーマンスをより良く残すことができる。
【0036】
他の例として、次のような方法により、事前訓練の第一モデルの、第二シミュレットサンプルのうちの各シミュレットサンプルに対しての予測結果を取得し、かつ取得した第二シミュレットサンプルのうちの各シミュレットサンプルの予測結果の集合を、事前訓練の第一モデルの、第二シミュレットサンプルセットに対しての予測結果として用いることができ、即ち、事前訓練の第一モデルに含まれる特徴抽出層により抽出される、該シミュレットサンプルの特徴にノイズ(例えば、ガウスノイズ)を追加し、かつノイズが追加された特徴に基づく予測結果を、事前訓練の第一モデルの、該第二シミュレットサンプルに対しての予測結果として得る。このような方法により取得されたサンプル生成ネットワークを利用することで、第一タスクについての訓練サンプルをより良くシミュレットしたシミュレットサンプルセットを得ることができるため、第一タスクについての予測パフォーマンスをより良く残すことができる。
【実施例0037】
図5は本発明の第三実施例による情報処理装置500の機能構成例を示すブロック図である。
図5に示すように、本発明の第三実施例による情報処理装置500はサンプル生成ユニット502、第一モデル訓練ユニット504及びサンプル生成ネットワーク取得ユニット506を含み得る。例えば、サンプル生成ユニット502及び第一モデル訓練ユニット504は上述の第一実施例におけるサンプル生成ユニット102及び第一モデル訓練ユニット104と同様の機能設定を有しても良く、ここではその詳しい説明を省略する。
【0038】
サンプル生成ネットワーク取得ユニット506は次のように構成されても良く、即ち、第二タスクについての第二訓練サンプルセットに基づいて、1つ又は複数の符号化層を含む初期生成ネットワークを、第三所定条件に達するように訓練することで、1つ又は複数の符号化層を含む訓練済みの生成ネットワークをサンプル生成ネットワークとして取得する。第三所定条件は、第二訓練サンプルセットを訓練済みの生成ネットワークの入力として利用する場合に、事前訓練の第一モデルの、訓練済みの生成ネットワークの出力としての第二シミュレットサンプルセットに対しての予測結果が第一タスクについての予測結果に関することを含んでも良い。
【0039】
サンプル生成ユニット502は、サンプル生成ネットワーク取得ユニット506が取得したサンプル生成ネットワークを用いて、第二訓練サンプルセットに基づいて、第一タスクについての第一シミュレットサンプルセットを生成することができる。第一モデル訓練ユニット504は、事前訓練の第一モデルを再訓練するプロセスで、サンプル生成ユニット502が生成した第一シミュレットサンプルセットを利用して、事前訓練の第一モデルの予測パフォーマンスを制約することにより、事前訓練の第一モデルの予測パフォーマンスをより良く残すことができる。また、事前訓練の第一モデルを訓練するための大量の元のサンプルを得る必要がないので、コストを削減することができる。
【0040】
一例として、所望の、事前訓練の第一モデルの、第二シミュレットサンプルセットにおける各シミュレットサンプルに対しての予測結果を設定することができる。このような場合に、第三所定条件はさらに、第二シミュレットサンプルセットにおける各シミュレットサンプルについて、事前訓練の第一モデルが該シミュレットサンプルに対して予測を行った予測結果が所望の予測結果と同じであることを含んでも良い。
【0041】
他の例として、第二シミュレットサンプルセットにおける各シミュレットサンプルについて、所望の損失層の出力ベクトルを設定することができる。このような場合に、第三所定条件はさらに、第二シミュレットサンプルセットにおける各シミュレットサンプルについて、該シミュレットサンプルが事前訓練の第一モデルの入力として使用される場合に、損失層の出力ベクトルと、所望の損失層の出力ベクトルとの間の差が第三所定閾値以下であることを含んでも良い。第三所定閾値は有限回の実験により取得されても良く、又は、経験に基づいて設定されても良い。
【0042】
図6に示すように、生成ネットワークの訓練プロセスでは、第二訓練サンプルを生成ネットワークに入力してシミュレットサンプルを取得し、取得したシミュレットサンプルを事前訓練の第一モデルに入力して事前訓練の第一モデルの、該シミュレットサンプルに対しての実際の予測結果(例えば、損失層の出力ベクトル)を取得し、そして、実際の予測結果と所望の予測結果(例えば、所望の損失層の出力ベクトル)との間の差に基づいて勾配(誤差)逆伝播を行うことで、生成ネットワークを訓練することができる。
【0043】
図6に示すように、幾つかの例において、初期生成ネットワークはさらに、1つ又は複数の復号層を含んでも良い。最後の1つの符号化層の出力は1番目の復号層の入力として使用することができ、かつ最後の1つの復号層の出力は訓練済みの生成ネットワークの出力として使用することができる。
【0044】
例えば、符号化層は入力に対して次元削減を行うために用いられ、復号層は出力に対して次元増加(dimension increase(次元数を増やす))を行うために用いられ得る。
【0045】
例えば、各符号化層はK1*K1個のニューロンを含む全結合層であっても良く、各復号層はK2*K2個のニューロンを含む全結合層であっても良く、そのうち、K1及びK2はそれぞれ1よりも大きい自然数である。幾つかの例において、K1はK2に等しくても良い。
【0046】
図7は、第一タスクが数字“0”及び“1”に対しての認識を含み、かつ第二タスクが数字“2”及び“3”に対しての認識を含む場合に、第二訓練サンプルの例及びサンプル生成ユニット502が該第二訓練サンプルに基づいて得たシミュレットサンプルの例を示す図である。
図7に示す例では、K1及びK2は何れも28に設定され、かつ符号化層の数と復号層の数の和は3である。
【0047】
図7から分かるように、初期生成ネットワークを訓練するプロセスでは、10000回以上の反復を経たときに、取得されたシミュレットサンプルは第一タスクについての訓練サンプルをより良くシミュレットすることができる。
【0048】
第二実施例におけるサンプル生成ネットワーク取得ユニット206と同様に、サンプル生成ネットワーク取得ユニット506は、初期生成ネットワークを訓練するプロセスで、事前訓練の第一モデルの第二シミュレットサンプルセットに対しての予測結果を得るときに、第二シミュレットサンプルセットにおける各シミュレットサンプル又は各シミュレットサンプルの特徴にノイズを追加することができる。このような方法により、サンプル生成ネットワーク取得ユニット506が得たサンプル生成ネットワークは、第一タスクについての訓練サンプルをより良くシミュレットしたシミュレットサンプルセットを得ることができるため、第一タスクについての予測パフォーマンスをより良く残すことができる。
【0049】
図8は本発明の第三実施例による情報処理装置500と関連技術との比較を示す図である。
図8から分かるように、GEM(例えば、Lopez-Paz D,Ranzato M A.Gradient episodic memory for continual learning[J].Advances in neural information processing systems,2017,30参照)、A-GEM(例えば、Arslan Chaudhry,Marc’Aurelio Ranzato,Marcus Rohrbach,and Mohamed Elhoseiny.Efficient lifelong learning with a-gem.In International Conference on Learning Representations,2019参照)及びEWC(例えば、Kirkpatrick J,Pascanu R,Rabinowitz N,et al.Overcoming catastrophic forgetting in neural networks[J].Proceedings of the national academy of sciences,2017,114(13):3521-3526参照)について、シミュレットサンプルセットの導入が原因で、類別逓増の場合における平均精度はそれぞれ23.11%、25.60%及び25.84%上がっており、タスク逓増の場合における平均精度はそれぞれ1.08%、2.85%及び18.62%が上がっている。
【0050】
なお、以上、本発明の実施例による情報処理装置の適用例を説明しているが、該情報処理装置の適用はこれに限られず、当業者は実際のニーズに応じて該情報処理装置を様々な用途に適用することもでき、ここではその詳しい説明を省略する。
【実施例0051】
上述の情報処理装置の実施例に対応して、本発明はさらに、以下の情報処理方法の実施例を提供する。
【0052】
図9は本発明の第四実施例による情報処理方法900の例示的なフローチャートである。
図9に示すように、本発明の第四実施例による情報処理方法900はステップS902でスタート(開始)し、ステップS908でエンド(終了)しても良く、また、サンプル生成ステップS904及び第一モデル訓練ステップS906を含み得る。
【0053】
サンプル生成ステップS904では、第二タスクについての第二訓練サンプルセットに基づいて得られたサンプル生成ネットワークを利用して、第一タスクについての第一シミュレットサンプルセットを生成することができる。例えば、サンプル生成ステップS904は上述のサンプル生成ユニット102、202及び502により実行されても良いので、具体的な細部については上述の説明を参照することができる。以下、簡単な説明のみを記載する。
【0054】
第一モデル訓練ステップS906では、第一所定条件の下で、第二訓練サンプルセットを利用して、第一タスクについての事前訓練の第一モデルを再訓練し、予測待ち対象を予測するための再訓練の第一モデルを取得することができる。例えば、第一所定条件は、事前訓練の第一モデルの、第一シミュレットサンプルセットに対する予測結果と、再訓練の第一モデルの、第一シミュレットサンプルセットに対する予測結果との間の差が所定範囲内にあることを含んでも良い。このような方法により、事前訓練の第一モデルを再訓練するプロセスで、第一シミュレットサンプルセットを利用して、事前訓練の第一モデルの予測パフォーマンスを制約することで、事前訓練の第一モデルの予測パフォーマンスをより良く残すことができるため、第一タスク及び第二タスクの両方に良好な予測パフォーマンスを有する再訓練の第一モデルを得ることができる。
【0055】
例えば、第一モデル訓練ステップS906は上述の第一モデル訓練ユニット104、204及び504により実行され得るので、具体的な細部については上述の説明を参照することができる。以下、簡単な説明のみを記載する。
【0056】
例えば、事前訓練の第一モデルはニューラルネットワークモデル、例えば、畳み込みニューラルネットワーク(CNN)モデルであっても良いが、これに限定されず、当業者は実際のニーズに応じて適切なモデルを使っても良い。
【0057】
例えば、情報処理方法はさらに、サンプル生成ネットワーク取得ステップ(図示せず)を含んでも良く。一例として、サンプル生成ネットワーク取得ステップでは、第二訓練サンプルセットに基づいて初期の敵対的生成ネットワークを訓練することで訓練済みの敵対的生成ネットワークを取得し、そして、訓練済みの敵対的生成ネットワークを、第二所定条件に達するように調整することで、調整済みの敵対的生成ネットワークをサンプル生成ネットワークとして得ることができる。第二所定条件は、ランダムベクトルを調整済みの敵対的生成ネットワークの入力として利用する場合に、事前訓練の第一モデルの、調整済みの敵対的生成ネットワークの出力としての第二シミュレットサンプルセットに対しての予測結果が第一タスクについての予測結果に関することを含んでも良い。
【0058】
他の例として、サンプル生成ネットワーク取得ステップでは、第二訓練サンプルセットに基づいて、1つ又は複数の符号化層を含む初期生成ネットワークを、第三所定条件に達するように訓練することで、1つ又は複数の符号化層を含む訓練済みの生成ネットワークをサンプル生成ネットワークとして得ることができる。第三所定条件は、第二訓練サンプルセットを訓練済みの生成ネットワークの入力として利用する場合に、事前訓練の第一モデルの、訓練済みの生成ネットワークの出力としての第二シミュレットサンプルセットに対しての予測結果が第一タスクについての予測結果に関することを含んでも良い。
【0059】
例えば、サンプル生成ネットワーク取得ステップは上述のサンプル生成ネットワーク取得ユニット206及び506により実行されても良いので、具体的な細部については上述の説明を参照することができる。以下、簡単な説明のみを記載する。
【0060】
一例として、次のような方法により、事前訓練の第一モデルの、第二シミュレットサンプルセットに対しての予測結果を得ることができ、即ち、第二シミュレットサンプルセットにおける各シミュレットサンプルにノイズを追加し、かつ前記事前訓練の第一モデルの、ノイズが追加された各シミュレットサンプルに対しての予測結果を、事前訓練の第一モデルの、前記第二シミュレットサンプルセットに対しての予測結果として得る。このような方法により取得されるサンプル生成ネットワークを利用することで、第一タスクについての訓練サンプルをより良くシミュレットしたシミュレットサンプルセットを得ることができるため、第一タスクに対しての事前訓練の第一モデルの予測パフォーマンスをより良く残すことができる。
【0061】
他の例として、次のような方法により、事前訓練の第一モデルの、前記第二シミュレットサンプルセットに対しての予測結果を得ることができ、即ち、事前訓練の第一モデルに含まれる特徴抽出層により抽出される、第二シミュレットサンプルセットにおける各シミュレットサンプルの特徴にノイズを追加し、かつノイズが追加された特徴に基づく予測結果を事前訓練の第一モデルの、第二シミュレットサンプルセットに対しての予測結果として取得する。このような方法により取得されるサンプル生成ネットワークを利用することで、第一タスクについての訓練サンプルをより良くシミュレットしたシミュレットサンプルセットを得ることができるため、事前訓練の第一モデルの、第一タスクに対しての予測パフォーマンスをより良く残すことができる。
【0062】
なお、以上、本発明の実施例による情報処理装置及び情報処理方法の機能構成及び操作(ステップ)を説明しているが、これらは例示に過ぎず、当業者は本発明の原理に基づいて上述の実施例を変更することもでき、例えば、各実施例において機能モジュールの追加、削除、組み合わせなどを行うことができ、かつこのような変更はすべて本発明の範囲内に属する。
【0063】
また、ここでの方法の実施例は上述の装置の実施例に対応するので、方法の実施例で詳細に説明されていない内容については装置の実施例の中の対応部分の説明を参照することができ、ここではその詳しい説明を省略する。
【0064】
理解できるように、本発明の実施例による記憶媒体及びプログラムプロダクトにおけるマシン(コンピュータ)実行可能な指令(命令)はさらに、上述の情報処理方法を実行するように構成されても良い。よって、ここで詳細に記載されていない内容については上述の対応部分の説明を参照することができ、ここではその詳しい説明を省略する。
【0065】
それ相応に、上述のマシン実行可能な指令のプログラムプロダクトをキャリー(carry)する記憶媒体も本発明の開示に含まれている。該記憶媒体はフロッピーディスク、光ディスク、磁気ディスク、メモリカードなどを含んでも良いが、これらに限定されない。
【0066】
また、上述の一連の処理及びシステムはソフトウェア及び/又はファームウェアにより実現されても良い。ソフトウェア及び/又はファームウェアにより実現される場合に、記憶媒体又はネットワークから専用ハードウェア有りのコンピュータ、例えば、
図10に示す汎用パーソナルコンピュータ1000に該ソフトウェアを構成するプログラムをインストールし、該コンピュータは各種のプログラムがインストールされているときに、各種の機能などを実行することができる。
【0067】
図10は本発明の実施例による装置及び方法を実現し得る汎用パソコンの例示的な構成図である。
図10に示すコンピュータ1000は、例えば、コンピュータシステムであっても良い。なお、コンピュータ1000は例示に過ぎず、本発明による方法及び装置の適用範囲又は機能について限定しない。また、コンピュータ1000は、上述の方法及び装置における任意のモジュールやアセンブリなど又はその組み合わせにも依存しない。
【0068】
図10では、中央処理装置(CPU)1001は、ROM1002に記憶されているプログラム又は記憶部1008からRAM1003にロッドされているプログラムに基づいて各種の処理を行う。RAM1003では、ニーズに応じて、CPU1001が各種の処理を行うときに必要なデータなどを記憶することもできる。
【0069】
CPU1001、ROM1002及びRAM1003は、バス1004を経由して互いに接続される。入力/出力インターフェース1005もバス1004に接続される。
【0070】
また、入力/出力インターフェース1005には、さらに、次のような部品が接続され、即ち、キーボードなどを含む入力部1006、液晶表示器(LCD)などのような表示器及びスピーカーなどを含む出力部1007、ハードディスクなどを含む記憶部1008、ネットワーク・インターフェース・カード、例えば、LANカード、モデムなどを含む通信部1009である。通信部1009は、例えば、インターネット、LANなどのネットワークを経由して通信処理を行う。
【0071】
ドライブ1010は、ニーズに応じて、入力/出力インターフェース1005に接続されても良い。取り外し可能な媒体1011、例えば、半導体メモリなどは、必要に応じて、ドライブ13100にセットされることにより、その中から読み取られたコンピュータプログラムを記憶部1008にインストールすることができる。
【0072】
また、本発明は、さらに、マシン可読命令コードを含むプログラムプロダクトを提供する。このような命令コードは、マシンにより読み取られて実行されるときに、上述の本発明の実施形態における方法を実行することができる。それ相応に、このようなプログラムプロダクトをキャリー(carry)する、例えば、磁気ディスク(フロッピーディスク(登録商標)を含む)、光ディスク(CD-ROM及びDVDを含む)、光磁気ディスク(MD(登録商標)を含む)、及び半導体記憶器などの各種記憶媒体も、本発明に含まれる。
【0073】
上述の記憶媒体は、例えば、磁気ディスク、光ディスク、光磁気ディスク、半導体記憶器などを含んでも良いが、これらに限定されない。
【0074】
また、上述の方法における各操作(処理)は、各種のマシン可読記憶媒体に記憶されているコンピュータ実行可能なプログラムの方式で実現することもできる。
【0075】
なお、本発明の実施例による上述の方法のステップの各種の具体的な実施例については既に詳細に説明しているので、ここではその詳しい説明を省略する。
【0076】
また、明らかのように、本発明による上述の方法の各操作フローは様々なマシン可読記憶媒体に記憶されているコンピュータ実行可能なプログラムの方式で実現することができる。
【0077】
さらに、本発明の目的は次のような方式で達成されても良く、即ち、上述の実行可能なプログラムコードを記憶している記憶媒体を直接又は間接的にシステム又は装置に提供し、該システム又は装置におけるコンピュータ又は中央処理ユニット(CPU)に上述のプログラムコードを読み取って実行してもらう。このときに、該システム又は装置がプログラムを実行し得る機能を有すれば、本発明の実施方式はプログラムに限定されず、また、該プログラムは任意の形式、例えば、オブジェクト指向プログラム、インタプリタ実行可能なプログラ、オペレーティングシステムに提供するスクリプトプログラムなどであっても良い。
【0078】
上述のこれらのマシン可読記憶媒体は様々な記憶器、記憶ユニット、半導体デバイス及び磁気ユニット、例えば、光ディスク、磁気ディスク、情報の記憶に適した他の媒体などを含んでも良いが、これらに限られない。
【0079】
また、コンピュータはインターネット上の対応するウェッブサイトから、本発明によるコンピュータプログラムコードをダウンロードしてコンピュータにインストールし、その後に、該プログラムを実行することで、本発明の技術案を実現することもできる。
【0080】
また、以上の実施例などに関し、さらに以下のように付記として開示する。
【0081】
(付記1)
情報処理装置であって、
第二タスクについての第二訓練サンプルセットに基づいて得られたサンプル生成ネットワークを利用して、第一タスクについての第一シミュレットサンプルセットを生成するように構成されるサンプル生成ユニット;及び
第一所定条件の下で、前記第二訓練サンプルセットを利用して、前記第一タスクについての事前訓練の第一モデルを再訓練し、予測待ち対象を予測するための再訓練の第一モデルを取得するように構成される第一モデル訓練ユニットを含み、
前記第一所定条件は、前記事前訓練の第一モデルの、前記第一シミュレットサンプルセットに対しての予測結果と、前記再訓練の第一モデルの、前記第一シミュレットサンプルセットに対しての予測結果との間の差が所定範囲内にあることを含み、
前記第一タスクは前記第二タスクとは異なり、
前記予測待ち対象は第一タスク及び/又は第二タスクに関する、装置。
【0082】
(付記2)
付記1に記載の情報処理装置であって、
サンプル生成ネットワーク取得ユニットをさらに含み、
前記サンプル生成ネットワーク取得ユニットは、
前記第二訓練サンプルセットに基づいて初期の敵対的生成ネットワークを訓練し、訓練済みの敵対的生成ネットワークを取得し;及び
前記訓練済みの敵対的生成ネットワークを、第二所定条件に達するように調整し、調整済みの敵対的生成ネットワークを前記サンプル生成ネットワークとして得る
ように構成され、
前記第二所定条件は、ランダムベクトルを前記調整済みの敵対的生成ネットワークの入力として利用する場合に、前記事前訓練の第一モデルの、前記調整済みの敵対的生成ネットワークの出力としての第二シミュレットサンプルセットに対しての予測結果が前記第一タスクについての予測結果に関することを含む、装置。
【0083】
(付記3)
付記1に記載の情報処理装置であって、
サンプル生成ネットワーク取得ユニットをさらに含み、
前記サンプル生成ネットワーク取得ユニットは、前記第二訓練サンプルセットに基づいて、1つ又は複数の符号化層を含む初期生成ネットワークを、第三所定条件に達するように訓練することで、1つ又は複数の符号化層を含む訓練済みの生成ネットワークを前記サンプル生成ネットワークとして得るように構成され、
前記第三所定条件は、前記第二訓練サンプルセットを前記訓練済みの生成ネットワークの入力として利用する場合に、前記事前訓練の第一モデルの、前記訓練済みの生成ネットワークの出力としての第二シミュレットサンプルセットに対しての予測結果が前記第一タスクについての予測結果に関することを含む、装置。
【0084】
(付記4)
付記3に記載の情報処理装置であって、
前記訓練済みの生成ネットワークは1つ又は複数の復号層をさらに含み、前記1つ又は複数の符号化層のうちの最後の1つの符号化層の出力は前記1つ又は複数の復号層のうちの1番目の復号層の入力として使用され、かつ前記1つ又は複数の復号層のうちの最後の1つの復号層の出力は訓練済みの生成ネットワークの出力として使用される、装置。
【0085】
(付記5)
付記2乃至4のうちの任意の1項に記載の情報処理装置であって、
次のような方式で、前記事前訓練の第一モデルの、前記第二シミュレットサンプルセットに対しての予測結果を取得し、即ち、前記第二シミュレットサンプルセットにおける各シミュレットサンプルにノイズを追加し、前記事前訓練の第一モデルの、ノイズが追加された各シミュレットサンプルに対しての予測結果を、前記事前訓練の第一モデルの、前記第二シミュレットサンプルセットに対しての予測結果として得る、装置。
【0086】
(付記6)
付記2乃至4のうちの任意の1項に記載の情報処理装置であって、
次のような方式で、前記事前訓練の第一モデルの、前記第二シミュレットサンプルセットに対しての予測結果を取得し、即ち、前記事前訓練の第一モデルに含まれる特徴抽出層により抽出される、前記第二シミュレットサンプルセットにおける各シミュレットサンプルの特徴にノイズを追加し、ノイズが追加された特徴に基づく予測結果を、前記事前訓練の第一モデルの、前記第二シミュレットサンプルセットに対しての予測結果として得る、装置。
【0087】
(付記7)
付記1乃至4のうちの任意の1項に記載の情報処理装置であって、
前記事前訓練の第一モデルに含まれる損失層の出力ベクトルにより、前記事前訓練の第一モデルの、前記第一シミュレットサンプルセットに対しての予測結果と、前記再訓練の第一モデルの、前記第一シミュレットサンプルセットに対しての予測結果との間の差を表す、装置。
【0088】
(付記8)
付記1乃至4のうちの任意の1項に記載の情報処理装置であって、
前記事前訓練の第一モデルはニューラルネットワークモデルである、装置。
【0089】
(付記9)
情報処理方法であって、
第二タスクについての第二訓練サンプルセットに基づいて得られたサンプル生成ネットワークを利用して、第一タスクについての第一シミュレットサンプルセットを生成し;及び
第一所定条件の下で、前記第二訓練サンプルセットを利用して、前記第一タスクについての事前訓練の第一モデルを再訓練し、予測待ち対象を予測するための再訓練の第一モデルを取得することを含み、
前記第一所定条件は、前記事前訓練の第一モデルの、前記第一シミュレットサンプルセットに対しての予測結果と、前記再訓練の第一モデルの、前記第一シミュレットサンプルセットに対しての予測結果との間の差が所定範囲内にあることを含み、
前記第一タスクは前記第二タスクとは異なり、
前記予測待ち対象は第一タスク及び/又は第二タスクに関する、方法。
【0090】
(付記10)
付記9に記載の情報処理方法であって、さらに、
前記第二訓練サンプルセットに基づいて初期の敵対的生成ネットワークを訓練することで訓練済みの敵対的生成ネットワークを取得し;及び
前記訓練済みの敵対的生成ネットワークを、第二所定条件に達するように調整することで、調整済みの敵対的生成ネットワークを前記サンプル生成ネットワークとして得ることを含み、
前記第二所定条件は、ランダムベクトルを前記調整済みの敵対的生成ネットワークの入力として利用する場合に、前記事前訓練の第一モデルの、前記調整済みの敵対的生成ネットワークの出力としての第二シミュレットサンプルセットに対しての予測結果が前記第一タスクについての予測結果に関することを含む、方法。
【0091】
(付記11)
付記9に記載の情報処理方法であって、さらに、
前記第二訓練サンプルセットに基づいて、1つ又は複数の符号化層を含む初期生成ネットワークを、第三所定条件に達するように訓練することで、1つ又は複数の符号化層を含む訓練済みの生成ネットワークを前記サンプル生成ネットワークとして得ることを含み、
前記第三所定条件は、前記第二訓練サンプルセットを前記訓練済みの生成ネットワークの入力として利用する場合に、前記事前訓練の第一モデルの、前記訓練済みの生成ネットワークの出力としての第二シミュレットサンプルセットに対しての予測結果が前記第一タスクについての予測結果に関することを含む、方法。
【0092】
(付記12)
付記11に記載の情報処理方法であって、
前記訓練済みの生成ネットワークは1つ又は複数の復号層をさらに含み、前記1つ又は複数の符号化層のうちの最後の1つの符号化層の出力は前記1つ又は複数の復号層のうちの1番目の復号層の入力として使用され、前記1つ又は複数の復号層のうちの最後の1つの復号層の出力は訓練済みの生成ネットワークの出力として使用される、方法。
【0093】
(付記13)
付記10乃至12のうちの任意の1項に記載の情報処理方法であって、
次のような方式で、前記事前訓練の第一モデルの、前記第二シミュレットサンプルセットに対しての予測結果を取得し、即ち、前記第二シミュレットサンプルセットにおける各シミュレットサンプルにノイズを追加し、前記事前訓練の第一モデルの、ノイズが追加された各シミュレットサンプルに対しての予測結果を、前記事前訓練の第一モデルの、前記第二シミュレットサンプルセットに対しての予測結果として得る、方法。
【0094】
(付記14)
付記10乃至12のうちの任意の1項に記載の情報処理方法であって、
次のような方式で、前記事前訓練の第一モデルの、前記第二シミュレットサンプルセットに対しての予測結果を取得し、即ち、前記事前訓練の第一モデルに含まれる特徴抽出層により抽出される、前記第二シミュレットサンプルセットにおける各シミュレットサンプルの特徴にノイズを追加し、ノイズが追加された特徴に基づく予測結果を、前記事前訓練の第一モデルの、前記第二シミュレットサンプルセットに対しての予測結果として得る、方法。
【0095】
(付記15)
付記9乃至12のうちの任意の1項に記載の情報処理方法であって、
前記事前訓練の第一モデルに含まれる損失層の出力ベクトルにより、前記事前訓練の第一モデルの、前記第一シミュレットサンプルセットに対しての予測結果と、前記再訓練の第一モデルの、前記第一シミュレットサンプルセットに対しての予測結果との間の差を表す、方法。
【0096】
(付記16)
付記9乃至12のうちの任意の1項に記載の情報処理方法であって、
前記事前訓練の第一モデルはニューラルネットワークモデルである、方法。
【0097】
(付記17)
プログラムが記憶されているコンピュータ可読記憶媒体であって、
前記プログラムはコンピュータにより実行されるときに、前記コンピュータに、付記9乃至16のうちの任意の1項に記載の情報処理方法を実行させる、記憶媒体。
【0098】
以上、本発明の好ましい実施形態を説明したが、本発明はこの実施形態に限定されず、本発明の趣旨を離脱しない限り、本発明に対するあらゆる変更は、本発明の技術的範囲に属する。
【外国語明細書】
10