(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024138520
(43)【公開日】2024-10-08
(54)【発明の名称】トレーニングサンプル取得及び大規模モデル最適化トレーニング方法、及び装置
(51)【国際特許分類】
G06F 16/903 20190101AFI20241001BHJP
G06F 16/90 20190101ALI20241001BHJP
G06N 20/00 20190101ALI20241001BHJP
【FI】
G06F16/903
G06F16/90 100
G06N20/00
【審査請求】有
【請求項の数】23
【出願形態】OL
【公開請求】
(21)【出願番号】P 2024114396
(22)【出願日】2024-07-18
(31)【優先権主張番号】202311765328.8
(32)【優先日】2023-12-20
(33)【優先権主張国・地域又は機関】CN
(71)【出願人】
【識別番号】514322098
【氏名又は名称】ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド
【氏名又は名称原語表記】Beijing Baidu Netcom Science Technology Co., Ltd.
【住所又は居所原語表記】2/F Baidu Campus, No.10, Shangdi 10th Street, Haidian District, Beijing 100085, China
(74)【代理人】
【識別番号】110000877
【氏名又は名称】弁理士法人RYUKA国際特許事務所
(72)【発明者】
【氏名】フェン、ジファン
(72)【発明者】
【氏名】ウ、フア
(72)【発明者】
【氏名】シェ、クィアオクィアオ
(72)【発明者】
【氏名】ウ、ティアン
(57)【要約】 (修正有)
【課題】大規模モデルの推理能力などを向上させるトレーニングサンプル取得及び大規模モデル最適化トレーニング方法並びに装置を提供する。
【解決手段】大規模モデルに対して最適化トレーニングを行うために用いられるトレーニングサンプル取得方法は、最適化トリガ条件に符合されると決定されたことに応答して、大規模モデルの入力とする所定のデータソースから收集されたクエリを候補クエリとするステップ101と、候補クエリから、大規模モデルが正しく処理できないクエリであるターゲットクエリを選別するステップ102と、各ターゲットクエリに基づいて、対応するトレーニングサンプルをそれぞれ構築するステップ103と、を含む。
【選択図】
図1
【特許請求の範囲】
【請求項1】
トレーニングサンプル取得方法であって、
最適化トリガ条件に符合されると決定されたことに応答して、大規模モデルの入力とすることができる予め定められたのデータソースから收集されたクエリを候補クエリとするステップと、
前記候補クエリからターゲットクエリを選別するステップであって、前記ターゲットクエリは、前記大規模モデルが正しく処理できないクエリであるステップと、
各ターゲットクエリに基づいて、対応するトレーニングサンプルをそれぞれ構築するステップであって、前記トレーニングサンプルは、前記大規模モデルに対して最適化トレーニングを行うために用いられるステップと、を含む、
トレーニングサンプル取得方法。
【請求項2】
前記候補クエリからターゲットクエリを選別するステップは、
任意の候補クエリについて、それぞれ以下の処理を行うステップを含み、
前記処理は、前記候補クエリを前記大規模モデルの入力とし、前記大規模モデルによって生成された前記候補クエリに対応する返答を取得し、前記返答が前記候補クエリにマッチングしないエラー返答であると決定されたことに応答して、前記候補クエリを選別されたターゲットクエリとする、
請求項1に記載のトレーニングサンプル取得方法。
【請求項3】
前記返答が前記候補クエリにマッチングしないエラー返答であると決定されたことに応答するステップは、
前記候補クエリと前記返答を予めトレーニングされた評価モデルに入力し、前記評価モデルによって出力された前記返答が前記候補クエリにマッチングするか否かの評価結果を取得するステップを含む、
請求項2に記載のトレーニングサンプル取得方法。
【請求項4】
前記各ターゲットクエリに基づいて、対応するトレーニングサンプルをそれぞれ構築するステップは、
任意のターゲットクエリについて、それぞれ以下の処理を行うステップを含み、
前記処理は、前記ターゲットクエリに対応する問題タイプを決定し、前記問題タイプに対応するサンプルタイプを決定し、前記ターゲットクエリに基づいて、前記サンプルタイプのトレーニングサンプルを構築する、
請求項1から3のいずれか1項に記載のトレーニングサンプル取得方法。
【請求項5】
前記問題タイプは、データ上書き問題、モデル能力問題、及びデータ品質問題を含み、
前記ターゲットクエリに対応する問題タイプを決定するステップは、
トレーニングサンプルセットを検索するステップであって、前記トレーニングサンプルセットは、前記大規模モデルに対して教師あり微調整トレーニングを行う時に使用されるトレーニングサンプルを含むステップと、
前記ターゲットクエリにマッチングするトレーニングサンプルが検出されなかったことに応答して、前記ターゲットクエリに対応する問題タイプが前記データ上書き問題であると決定するステップと、
前記ターゲットクエリにマッチングするトレーニングサンプルが検索されたことに応答して、コンテキスト学習方式によって前記ターゲットクエリに対応する問題タイプが前記モデル能力問題であるか、前記データ品質問題であるかを決定するステップと、を含む、
請求項4に記載のトレーニングサンプル取得方法。
【請求項6】
前記サンプルタイプは、第1類のトレーニングサンプルと第2類のトレーニングサンプルを含み、前記第1類のトレーニングサンプルは、事前トレーニングを行うためのトレーニングサンプルであり、前記第2類のトレーニングサンプルは、教師あり微調整トレーニングを行うためのトレーニングサンプルであり、
前記問題タイプに対応するサンプルタイプを決定するステップは、
前記問題タイプが前記モデル能力問題であると決定されたことに応答して、前記サンプルタイプが前記第1類のトレーニングサンプルであると決定するステップと、
前記問題タイプが前記データ上書き問題又は前記データ品質問題であると決定されたことに応答して、前記サンプルタイプが前記第2類のトレーニングサンプルであると決定するステップと、を含む、
請求項5に記載のトレーニングサンプル取得方法。
【請求項7】
前記候補クエリからターゲットクエリを選別するステップの前に、各候補クエリのクエリタイプをそれぞれ決定するステップと、
前記候補クエリからターゲットクエリを選別するステップの後に、異なるクエリタイプに属するターゲットクエリの数をそれぞれ統計し、統計結果に基づいて異なるクエリタイプに対する前記大規模モデルの処理能力を決定するステップと、をさらに含む、
請求項1から3のいずれか1項に記載のトレーニングサンプル取得方法。
【請求項8】
大規模モデル最適化トレーニング方法であって、
トレーニングサンプルを取得するステップであって、前記トレーニングサンプルは、各ターゲットクエリに基づいてそれぞれ構築された対応するトレーニングサンプルであり、前記各ターゲットクエリは、候補クエリから選別された大規模モデルが正しく処理できないクエリであり、前記候補クエリは、前記大規模モデルの入力とすることができる予め定められたのデータソースから收集されたクエリであるステップと、
前記トレーニングサンプルを使用して前記大規模モデルに対して最適化トレーニングを行うステップと、を含む、
大規模モデル最適化トレーニング方法。
【請求項9】
前記トレーニングサンプルは、第1類のトレーニングサンプルと第2類のトレーニングサンプルを含み、
前記トレーニングサンプルを使用して前記大規模モデルに対して最適化トレーニングを行うステップは、前記第1類のトレーニングサンプルを使用して前記大規模モデルに対して事前トレーニングを行い、第1のモデルを取得し、前記第2類のトレーニングサンプルを使用して前記第1のモデルに対して教師あり微調整トレーニングを行い、第2のモデルを取得し、前記第2のモデルを使用して実際の推理応用を行い、又は、それぞれ前記第1類のトレーニングサンプルを使用して前記大規模モデルに対して事前トレーニングを行い、及び前記第2類のトレーニングサンプルを使用して前記大規模モデルに対して教師あり微調整トレーニングを行い、前記教師あり微調整トレーニングが完了して第3のモデルを取得した後、前記事前トレーニングがまだ完了していないことに応答して、前記第3のモデルを使用して実際の推理応用を行い、前記事前トレーニングが完了したことに応答して、前記第1のモデルを取得し、前記第2類のトレーニングサンプルを使用して前記第1のモデルに対して教師あり微調整トレーニングを行い、第2のモデルを取得し、前記第2のモデルを使用して前記第3のモデルを置き換えて実際の推理応用を行うステップを含む、
請求項8に記載の大規模モデル最適化トレーニング方法。
【請求項10】
前記トレーニングサンプルを使用して前記大規模モデルに対して最適化トレーニングを行うステップの後に、異なるクエリタイプにそれぞれ対応するテストクエリを使用して最適化トレーニング後の大規模モデルをテストし、テスト結果に基づいて前記最適化トレーニング後の異なるクエリタイプに対する大規模モデルの処理能力を決定するステップをさらに含む、
請求項8又は9に記載の大規模モデル最適化トレーニング方法。
【請求項11】
トレーニングサンプル取得装置であって、
クエリマイニングモジュール、問題発見モジュール、及びサンプル構築モジュールを含み、
前記クエリマイニングモジュールは、最適化トリガ条件に符合されると決定されたことに応答して、大規模モデルの入力とすることができる予め定められたのデータソースから收集されたクエリを候補クエリとするために用いられ、
前記問題発見モジュールは、前記候補クエリからターゲットクエリを選別するために用いられ、前記ターゲットクエリは、前記大規模モデルが正しく処理できないクエリであり、
前記サンプル構築モジュールは、各ターゲットクエリに基づいて、対応するトレーニングサンプルをそれぞれ構築するために用いられ、前記トレーニングサンプルは、前記大規模モデルに対して最適化トレーニングを行うために用いられる、
トレーニングサンプル取得装置。
【請求項12】
前記問題発見モジュールは、任意の候補クエリについて、それぞれ以下の処理を行い、前記処理は、前記候補クエリを前記大規模モデルの入力とし、前記大規模モデルによって生成された前記候補クエリに対応する返答を取得し、前記返答が前記候補クエリにマッチングしないエラー返答であると決定されたことに応答して、前記候補クエリを選別されたターゲットクエリとする、
請求項11に記載のトレーニングサンプル取得装置。
【請求項13】
前記問題発見モジュールは、前記候補クエリと前記返答を予めトレーニングされた評価モデルに入力し、前記評価モデルによって出力された前記返答が前記候補クエリにマッチングするか否かの評価結果を取得する、
請求項12に記載のトレーニングサンプル取得装置。
【請求項14】
前記サンプル構築モジュールは、任意のターゲットクエリについて、それぞれ以下の処理を行い、前記処理は、前記ターゲットクエリに対応する問題タイプを決定し、前記問題タイプに対応するサンプルタイプを決定し、前記ターゲットクエリに基づいて、前記サンプルタイプのトレーニングサンプルを構築する、
請求項11から13のいずれか1項に記載のトレーニングサンプル取得装置。
【請求項15】
前記問題タイプは、データ上書き問題、モデル能力問題、及びデータ品質問題を含み、
前記サンプル構築モジュールは、任意のターゲットクエリについて、それぞれトレーニングサンプルセットを検索し、前記トレーニングサンプルセットは、前記大規模モデルに対して教師あり微調整トレーニングを行う時に使用されるトレーニングサンプルを含み、前記ターゲットクエリにマッチングするトレーニングサンプルが検出されなかったことに応答して、前記ターゲットクエリに対応する問題タイプが前記データ上書き問題であると決定し、前記ターゲットクエリにマッチングするトレーニングサンプルが検索されたことに応答して、コンテキスト学習方式によって前記ターゲットクエリに対応する問題タイプが前記モデル能力問題であるか、前記データ品質問題であるかを決定する、
請求項14に記載のトレーニングサンプル取得装置。
【請求項16】
前記サンプルタイプは、第1類のトレーニングサンプルと第2類のトレーニングサンプルを含み、前記第1類のトレーニングサンプルは、事前トレーニングを行うためのトレーニングサンプルであり、前記第2類のトレーニングサンプルは、教師あり微調整トレーニングを行うためのトレーニングサンプルであり、
前記サンプル構築モジュールは、前記問題タイプが前記モデル能力問題であると決定されたことに応答して、前記サンプルタイプが前記第1類のトレーニングサンプルであると決定し、前記問題タイプが前記データ上書き問題又は前記データ品質問題であると決定されたことに応答して、前記サンプルタイプが前記第2類のトレーニングサンプルであると決定する、
請求項15に記載のトレーニングサンプル取得装置。
【請求項17】
前記クエリマイニングモジュールは、さらに、各候補クエリのクエリタイプをそれぞれ決定するために用いられ、
前記問題発見モジュールは、さらに、異なるクエリタイプに属するターゲットクエリの数をそれぞれ統計し、統計結果に基づいて異なるクエリタイプに対する前記大規模モデルの処理能力を決定するために用いられる、
請求項11から13のいずれか1項に記載のトレーニングサンプル取得装置。
【請求項18】
大規模モデル最適化トレーニング装置であって、
サンプル取得モジュールとモデルトレーニングモジュールを含み、
前記サンプル取得モジュールは、トレーニングサンプルを取得するために用いられ、前記トレーニングサンプルは、各ターゲットクエリに基づいてそれぞれ構築された対応するトレーニングサンプルであり、前記各ターゲットクエリは、候補クエリから選別された大規模モデルが正しく処理できないクエリであり、前記候補クエリは、前記大規模モデルの入力とすることができる予め定められたのデータソースから收集されたクエリであり、
前記モデルトレーニングモジュールは、前記トレーニングサンプルを使用して前記大規模モデルに対して最適化トレーニングを行うために用いられる、
大規模モデル最適化トレーニング装置。
【請求項19】
前記トレーニングサンプルは、第1類のトレーニングサンプルと第2類のトレーニングサンプルを含み、
前記モデルトレーニングモジュールは、前記第1類のトレーニングサンプルを使用して前記大規模モデルに対して事前トレーニングを行い、第1のモデルを取得し、前記第2類のトレーニングサンプルを使用して前記第1のモデルに対して教師あり微調整トレーニングを行い、第2のモデルを取得し、前記第2のモデルを使用して実際の推理応用を行い、又は、それぞれ前記第1類のトレーニングサンプルを使用して前記大規模モデルに対して事前トレーニングを行い、及び前記第2類のトレーニングサンプルを使用して前記大規模モデルに対して教師あり微調整トレーニングを行い、前記教師あり微調整トレーニングが完了して第3のモデルを取得した後、前記事前トレーニングがまだ完了していないことに応答して、前記第3のモデルを使用して実際の推理応用を行い、前記事前トレーニングが完了したことに応答して、前記第1のモデルを取得し、前記第2類のトレーニングサンプルを使用して前記第1のモデルに対して教師あり微調整トレーニングを行い、第2のモデルを取得し、前記第2のモデルを使用して前記第3のモデルを置き換えて実際の推理応用を行う、
請求項18に記載の大規模モデル最適化トレーニング装置。
【請求項20】
前記モデルトレーニングモジュールは、さらに、前記トレーニングサンプルを使用して前記大規模モデルに対して最適化トレーニングを行った後、異なるクエリタイプにそれぞれ対応するテストクエリを使用して最適化トレーニング後の大規模モデルをテストし、テスト結果に基づいて前記最適化トレーニング後の異なるクエリタイプに対する大規模モデルの処理能力を決定するために用いられる、
請求項18又は19に記載の大規模モデル最適化トレーニング装置。
【請求項21】
電子機器であって、
少なくとも1つのプロセッサと、
前記少なくとも1つのプロセッサと通信接続されるメモリと、を含み、
前記メモリには前記少なくとも1つのプロセッサによって実行可能な命令が記憶され、前記命令が前記少なくとも1つのプロセッサによって実行されると、前記少なくとも1つのプロセッサが請求項1、2、3、8または9のいずれか1項に記載の方法を実行する、
電子機器。
【請求項22】
コンピュータ命令が記憶されている非一時的なコンピュータ読み取り可能な記憶媒体であって、
前記コンピュータ命令は、コンピュータに請求項1、2、3、8または9のいずれか1項に記載の方法を実行させる、
非一時的なコンピュータ読み取り可能な記憶媒体。
【請求項23】
コンピュータプログラムであって、
前記コンピュータプログラムがプロセッサによって実行される場合、請求項1から3のいずれか1項に記載の方法を実現する、
コンピュータプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は人工知能技術の分野に関し、特に大規模モデル、ディープラーニング、自然言語処理などの分野のトレーニングサンプル取得及び大規模モデル最適化トレーニング方法及び装置に関する。
【背景技術】
【0002】
大規模モデルとは、大量のテキストデータを用いてトレーニングされたディープラーニングモデルであり、自然言語テキストを生成したり、又は自然言語テキストの意味などを理解したりすることができる。大規模モデルの出現は、人間と機械のインタラクション方式を根本的に変え、計算生態システム全体を再構築することができる。
【発明の概要】
【発明が解決しようとする課題】
【0003】
本開示はトレーニングサンプル取得及び大規模モデル最適化トレーニング方法及び装置を提供する。
【課題を解決するための手段】
【0004】
トレーニングサンプル取得方法は、
最適化トリガ条件に符合されると決定されたことに応答して、大規模モデルの入力とすることができる所定のデータソースから收集されたクエリを候補クエリとするステップと、
前記候補クエリからターゲットクエリを選別するステップであって、前記ターゲットクエリは、前記大規模モデルが正しく処理できないクエリであるステップと、
各ターゲットクエリに基づいて、対応するトレーニングサンプルをそれぞれ構築するステップであって、前記トレーニングサンプルは、前記大規模モデルに対して最適化トレーニングを行うために用いられるステップと、含む。
【0005】
大規模モデル最適化トレーニング方法は、
トレーニングサンプルを取得するステップであって、前記トレーニングサンプルは、各ターゲットクエリに基づいてそれぞれ構築された対応するトレーニングサンプルであり、前記ターゲットクエリは、候補クエリから選別された大規模モデルが正しく処理できないクエリであり、前記候補クエリは、前記大規模モデルの入力とすることができる所定のデータソースから收集されたクエリであるステップと、
前記トレーニングサンプルを使用して前記大規模モデルに対して最適化トレーニングを行うステップと、を含む。
【0006】
トレーニングサンプル取得装置は、クエリマイニングモジュール、問題発見モジュール、及びサンプル構築モジュールを含み、
前記クエリマイニングモジュールは、最適化トリガ条件に符合されると決定されたことに応答して、大規模モデルの入力とすることができる所定のデータソースから收集されたクエリを候補クエリとするために用いられ、
前記問題発見モジュールは、前記候補クエリからターゲットクエリを選別するために用いられ、前記ターゲットクエリは、前記大規模モデルが正しく処理できないクエリであり、
前記サンプル構築モジュールは、各ターゲットクエリに基づいて、対応するトレーニングサンプルをそれぞれ構築するために用いられ、前記トレーニングサンプルは、前記大規模モデルに対して最適化トレーニングを行うために用いられる。
【0007】
大規模モデル最適化トレーニング装置は、サンプル取得モジュールとモデルトレーニングモジュールを含み、
前記サンプル取得モジュールは、トレーニングサンプルを取得するために用いられ、前記トレーニングサンプルは、各ターゲットクエリに基づいてそれぞれ構築された対応するトレーニングサンプルであり、前記ターゲットクエリは、候補クエリから選別された大規模モデルが正しく処理できないクエリであり、前記候補クエリは、前記大規模モデルの入力とすることができる所定のデータソースから收集されたクエリであり、
前記モデルトレーニングモジュールは、前記トレーニングサンプルを使用して前記大規模モデルに対して最適化トレーニングを行うために用いられる。
【0008】
電子機器は、
少なくとも1つのプロセッサと、
前記少なくとも1つのプロセッサと通信接続されるメモリと、を含み、
前記メモリには前記少なくとも1つのプロセッサによって実行可能な命令が記憶され、前記命令が前記少なくとも1つのプロセッサによって実行されると、前記少なくとも1つのプロセッサが前記方法を実行する。
【0009】
コンピュータ命令が記憶されている非一時的なコンピュータ読み取り可能な記憶媒体は、前記コンピュータ命令は、コンピュータに前記方法を実行する。
【0010】
コンピュータプログラム製品は、コンピュータプログラム/命令を含み、前記コンピュータプログラム/命令は、プロセッサによって実行された場合、前記方法を実現する。
【0011】
本明細書で説明された内容は、本開示の実施例のキーまたは重要な特徴を特定することを意図しておらず、本開示の範囲を制限するためにも使用されないことを理解されたい。本開示の他の特徴は、以下の明細書を通じて容易に理解できる。
【図面の簡単な説明】
【0012】
図面は、本出願をより良く理解するためのものであり、本出願を限定しない。
【
図1】本開示の前記トレーニングサンプル取得方法の実施例のフローチャートである。
【
図2】本開示の前記大規模モデル最適化トレーニング方法の実施例のフローチャートである。
【
図3】本開示の前記大規模モデル最適化トレーニング方法の全体的な実現プロセスの概略図である。
【
図4】本開示の前記トレーニングサンプル取得装置の実施例400の構成の構造概略図である。
【
図5】本開示の前記大規模モデル最適化トレーニング装置の実施例500の構成の構造概略図である。
【
図6】本開示の実施例を実施できるための電子機器600の概略ブロック図を示す。
【発明を実施するための形態】
【0013】
以下、図面に基づいて、本出願の例示的な実施例を説明する。理解を容易にするために、本出願の実施例の様々な詳細が含まれており、それらは単なる例示と見なされるべきである。従って、当業者は、本出願の範囲及びび精神から逸脱することなく、本明細書に記載の実施例に対して様々な変更及びび修正を行うことができることを認識するはずである。同様に、簡明のために、以下の説明では、よく知られた機能と構造の説明は省略される。
【0014】
また、本明細書の用語「及び/又は」は、関連対象の関連関係のみを説明するものであり、3種類の関係が存在可能であることを表し、例えば、A及び/又はBは、Aのみが存在するか、A及びBが同時に存在するか、Bのみが存在するという3つの場合を表すことができる。符号「/」は、一般的に前後の関連対象が「又は」の関係であることを表すことを理解されたい。
【0015】
図1は本開示の前記トレーニングサンプル取得方法の実施例のフローチャートである。
図1に示すように、以下の具体的な実現方式を含む。
【0016】
ステップ101では、最適化トリガ条件に符合されると決定されたことに応答して、大規模モデルの入力とすることができる所定のデータソースから收集されたクエリ(query)を候補クエリとする。
【0017】
ステップ102では、候補クエリからターゲットクエリを選別し、ターゲットクエリは、大規模モデルが正しく処理できないクエリである。
【0018】
ステップ103では、各ターゲットクエリに基づいて、対応するトレーニングサンプルをそれぞれ構築し、前記トレーニングサンプルは、大規模モデルに対して最適化トレーニングを行うために用いられる。
【0019】
上述方法の実施例に記載の解決策を使用して、候補クエリを收集することができ、その中から大規模モデルが正しく処理できないターゲットクエリをマイニングすることができ、さらに、各ターゲットクエリに基づいて、それぞれ対応するトレーニングサンプルを的確に構築することができ、これにより、構築されたトレーニングサンプルの品質を向上させ、さらに、後続に構築されたトレーニングサンプルを使用して大規模モデルに対して最適化トレーニングを行う時、大規模モデル推理能力の中の弱点に対して的確な最適化を行うことができ、最適化効果などの向上させることができる。
【0020】
最適化トリガ条件が具体的には、どのような条件であることは、実際のニーズに応じて決定することができ、例えば、所定の周期期間を経て、
図1に示す実施例の方法を周期的に実行することを指すことができ、又は、ユーザによって送信されたトリガ命令などを受信することを指すこともできる。
【0021】
ステップ101では、最適化トリガ条件に符合することが決定された場合、大規模モデルの入力とすることができる所定のデータソースから收集されたクエリを候補クエリとすることができる。クエリマイニング(又は推理需要マイニングなどと呼ぶ)によって候補クエリを取得することができる。前記所定のデータソースが、具体的に、どの/どのようなデータソースを含むことは、実際のニーズに応じて決定することができ、例えば、製品ログ、公開評価セット、オープンデータセット、及びインターネットなどを含むことができる。
【0022】
ステップ102では、取得された候補クエリについて、その中からターゲットクエリを選別することができ、ターゲットクエリは、大規模モデルが正しく処理できないクエリであり、前記大規模モデルとは、本開示の前記方式に従って最適化トレーニングを行う必要がある大規模モデルを指す。また、前記大規模モデルとは、事前トレーニング+教師あり微調整(SFT、Supervised Fine-Tuning)トレーニングによって取得されたオリジナルの大規模モデルを指すことができ、オリジナルの大規模モデルに対して1回又は複数回の最適化トレーニングを行った後の大規模モデルを指すこともできる。
【0023】
好ましくは、候補クエリからターゲットクエリを選別する時、任意の候補クエリについて、それぞれ以下の処理を行うことができ、前記処理は、当該候補クエリを大規模モデルの入力とし、大規模モデルによって生成された当該候補クエリに対応する返答を取得し、前記返答が当該候補クエリにマッチングしていないエラー返答であると決定されたことに応答して、当該候補クエリを選別されたターゲットクエリとする。
【0024】
すなわち各候補クエリについて、それぞれ大規模モデルを使用して対応する返答を生成することができ、生成された返答がエラー返答であると決定された場合、当該候補クエリをターゲットクエリとして決定することができる。つまり、大規模モデルの自身の能力を使用して、効果評価を支援し、現在の推理能力の弱点などを発見することができる。
【0025】
好ましくは、任意の候補クエリについて、それぞれ当該候補クエリと対応する返答を予めトレーニングされた評価モデルに入力し、評価モデルによって出力された前記返答が当該候補クエリにマッチングするか否か評価結果を取得することができる。
【0026】
例えば、候補クエリaについて、大規模モデルを使用して候補クエリaに対応する返答aを生成した後、候補クエリaと返答aを評価モデルに入力して、評価モデルによって出力された返答aが候補クエリaにマッチングするか否かの評価結果を取得することができ、評価結果は返答aが候補クエリaにマッチングしない場合、候補クエリaを選別されたターゲットクエリとすることができる。
【0027】
評価モデルは、予め構築された大量のトレーニングサンプルを使用してトレーニングして取得されたものであってもよい。それに応じて、評価モデルによって、出力された評価結果を迅速に取得することができ、また、評価モデルは、大量のトレーニングサンプルを使用してトレーニングして取得されたものであり、これにより、出力された評価結果の正確性などを確保する。
【0028】
実際の応用では、例えば、候補クエリの数が1000件であると仮定すると、ターゲットクエリの数は300件になる可能性があるなど、各ターゲットクエリを使用して誤り問題集を構成することができる。
【0029】
さらに、ステップ103では、誤り問題集内の各ターゲットクエリについて、対応するトレーニングサンプルをそれぞれ構築することができる。
【0030】
その中、好ましくは、任意のターゲットクエリについて、それぞれ以下の処理を行うことができ、前記処理は、当該ターゲットクエリに対応する問題タイプを決定し、前記問題タイプに対応するサンプルタイプを決定し、当該ターゲットクエリに基づいて、前記サンプルタイプのトレーニングサンプルを構築する。
【0031】
上述処理により、異なるターゲットクエリについて、それぞれ対応するトレーニングサンプルを的確に構築することができ、後続のモデルの最適化トレーニング効果などを向上させる。
【0032】
その中、好ましくは、前記問題タイプは、データ上書き問題、モデル能力問題、及びデータ品質問題を含むことができ、それに応じて、任意のターゲットクエリについて、当該ターゲットクエリに対応する問題タイプを決定する方式は、トレーニングサンプルセットを検索し、トレーニングサンプルセットは、大規模モデルに対してSFTトレーニングを行う時に使用されるトレーニングサンプルを含むことと(毎回SFTトレーニングのトレーニングサンプルを含むことができる)、当該ターゲットクエリにマッチングするトレーニングサンプルが検出されなかったことに応答して、当該ターゲットクエリに対応する問題タイプがデータ上書き問題であると決定することができることと、当該ターゲットクエリにマッチングするトレーニングサンプルが検索されたことに応答して、コンテキスト学習(ICL、In-Context Learning)方式によって当該ターゲットクエリに対応する問題タイプがモデル能力問題であるか、データ品質問題であるかを決定することができることと、を含むことができる。
【0033】
任意のターゲットクエリについて、まず、トレーニングサンプルセットを検索して、トレーニングサンプルセットに当該ターゲットクエリにマッチングするトレーニングサンプルが存在するか否かを決定することができ、その中、当該ターゲットクエリにマッチングするトレーニングサンプルは、当該ターゲットクエリと完全に同じであるトレーニングサンプルを指すことができ、当該ターゲットクエリとの類似度が所定の閾値より大きいトレーニングサンプルを指すこともでき、前記所定の閾値の具体的な値は、実際のニーズに応じて決定することができ、トレーニングサンプルセットに当該ターゲットクエリにマッチングするトレーニングサンプルが存在しないことが決定された場合、当該ターゲットクエリに対応する問題タイプがデータ上書き問題であると決定することができ、逆に、ICL方式によって、さらに当該ターゲットクエリに対応する問題タイプがモデル能力問題であるか否かを決定することができ、モデル能力問題ではない場合、当該ターゲットクエリに対応する問題タイプがデータ品質問題であると決定することができる。
【0034】
好ましくは、前記サンプルタイプは、第1類のトレーニングサンプルと第2類のトレーニングサンプルを含み、その中、第1類のトレーニングサンプルは、事前トレーニングを行うためのトレーニングサンプルであり、第2類のトレーニングサンプルはSFTトレーニングを行うためのトレーニングサンプルであり、それに応じて、任意のターゲットクエリについて、当該ターゲットクエリの問題タイプに対応するサンプルタイプを決定する方式は、問題タイプがモデル能力問題であると決定されたことに応答して、サンプルタイプが第1類のトレーニングサンプルであると決定するステップと、問題タイプがデータ上書き問題又はデータ品質問題であると決定されたことに応答して、サンプルタイプが第2類のトレーニングサンプルであると決定するステップと、を含むことができる。
【0035】
つまり、モデル能力問題について、第1類のトレーニングサンプルを構築して、大規模モデルに対して事前トレーニングを行うために使用することができ、データ品質問題又はデータ上書き問題について、第2類のトレーニングサンプルを構築して、大規模モデルに対してSFTトレーニングを行うために使用することができる。
【0036】
上述処理により、データ上書き問題、データ品質問題、及びモデル能力問題などの多次元的な問題を発見することを実現することができ、異なるタイプの問題について、対応するタイプのトレーニングサンプルをそれぞれ的確に構築することができ、さらに、後続のモデルの最適化トレーニング効果などを向上させることができる。
【0037】
各ターゲットクエリに対応するトレーニングサンプルをどのように構築するかは限定しない。例えば、任意のターゲットクエリについて、可能な実現方式とし、以下の方式によって対応するトレーニングサンプルを構築することができ、前記方式は、インターネットから当該ターゲットクエリに対応する返答を搜索し、また、さらに、インターネットから当該ターゲットクエリと類似するクエリを取得し、対応する返答を取得し、さらに、取得された内容に基づいてトレーニングサンプルを構築することができる。
【0038】
ステップ103の構築されたトレーニングサンプルに基づいて、大規模モデルに対して最適化トレーニングを行うことができる。
【0039】
好ましくは、第1類のトレーニングサンプルを使用して大規模モデルに対して事前トレーニングを行い、第1のモデルを取得することができ、次に、第2類のトレーニングサンプルを使用して第1のモデルに対してSFTトレーニングを行い、第2のモデルを取得することができ、第2のモデルを使用して実際の推理応用を行う、又は、それぞれ第1類のトレーニングサンプルを使用して大規模モデルに対して事前トレーニングを行い、及び第2類のトレーニングサンプルを使用して大規模モデルに対してSFTトレーニングを行うことができ、SFTトレーニングが完了して第3のモデルを取得した後、前記事前トレーニングがまだ完了していないことに応答して、第3のモデルを使用して実際の推理応用を行い、前記事前トレーニングが完了したことに応答して、第1のモデルを取得し、第2類のトレーニングサンプルを使用して第1のモデルに対してSFTトレーニングを行い、第2のモデルを取得し、第2のモデルを使用して第3のモデルを置き換えて実際の推理応用を行う。
【0040】
つまり、最適化しようとする大規模モデルについて、まず、第1類のトレーニングサンプルを使用してそれに対して事前トレーニングを行い、事前トレーニングが完了した後、次に、第2類のトレーニングサンプルを使用して大規模モデルに対してSFTトレーニングを行うことができ、さらに、SFTトレーニング後の大規模モデルに対して実際の推理応用を行うことができ、しかし、実際の応用では、事前トレーニングの時間は通常、すべて長くなるが、そうすると、事前トレーニングとSFTトレーニングが完了するまで待ってから大規模モデルに対して実際の推理応用を行うと、大規模モデルが長い間の時間内にすべて使用できなくなり、業務の正常処理などに影響を与え、当該問題を克服するために、それぞれ第1類のトレーニングサンプルを使用して大規模モデルに対して事前トレーニングを行い、及び第2類のトレーニングサンプルを使用して大規模モデルに対してSFTトレーニングを行うことができ、SFTトレーニングの時間が比較的に短いため、まず、SFTトレーニング後の大規模モデルを使用して実際の推理応用を行って、長時間に業務の正常処理に影響を与えることを回避し、次に、事前トレーニングが完了してから、次に、第2類のトレーニングサンプルを使用して事前トレーニング後の大規模モデルに対してSFTトレーニングを行って、今回の最適化トレーニングに必要な大規模モデルを取得し、SFTトレーニング後の大規模モデルを置き換えて実際の推理応用を行うことができる。
【0041】
実際の応用では、第1類のトレーニングサンプル又は第2類のトレーニングサンプルを使用して大規模モデルをトレーニングする場合、さらに、他のトレーニングサンプルを組み合わせることができ、例えば、事前トレーニングを例とし、さらに、過去の事前トレーニング時に使用されるトレーニングサンプルを組み合わせて今回の事前トレーニングを行って、トレーニング効果などを向上させる。
【0042】
また、好ましくは、ステップ102に記載の候補クエリからターゲットクエリを選別する前に、さらに、各候補クエリのクエリタイプをそれぞれ決定することができ、すなわち需要分類を行い、それに応じて、候補クエリからターゲットクエリを選別した後、さらに、異なるクエリタイプに属するターゲットクエリの数をそれぞれ統計することができ、さらに、統計結果に基づいて異なるクエリタイプに対する大規模モデルの処理能力を決定することができる。
【0043】
前記クエリタイプに具体的にどのようなタイプを含むかは、実際のニーズに応じて決定することができる。例えば、常識推理、数学計算、質疑応答、及びコード生成などを含むことができる。
【0044】
各候補クエリのクエリタイプをどのように決定することは限定せず、例えば、予めトレーニングされた分類モデルを使用して決定することができる。それに応じて、異なるクエリタイプに属するターゲットクエリの数を統計することによって、異なるクエリタイプに対する大規模モデルの処理能力を決定することができ、すなわち大規模モデルがどの/どのようなクエリタイプに対して処理能力が低いかを決定し、大規模モデルの推理能力の弱点などを発見することができる。
【0045】
好ましくは、ステップ103に記載のトレーニングサンプルを使用して大規模モデルに対して最適化トレーニングを行った後、さらに、異なるクエリタイプにそれぞれ対応するテストクエリを使用して最適化トレーニング後の大規模モデルをテストすることができ、テスト結果に基づいて最適化トレーニング後の異なるクエリタイプに対する大規模モデルの処理能力を決定することができる。
【0046】
例えば、テストクエリを最適化トレーニング後の大規模モデルの入力とし、大規模モデルによって出力されたに対応する返答を取得することができ、さらに、テストクエリと対応する返答を評価モデルに入力し、評価モデルによって出力されたテストクエリが対応する返答にマッチングするか否かの評価結果を取得することができ、さらに、前記評価結果をテスト結果とすることができ、各テスト結果を組み合わせて最適化トレーニング後の異なるクエリタイプに対する大規模モデルの処理能力を決定することができ、さらに、最適化トレーニング後の大規模モデルがどのような側面で向上したかを決定することができ、最適化トレーニング効果の検証などを実現することができる。
【0047】
図2は本開示の前記大規模モデル最適化トレーニング方法の実施例のフローチャートである。
図2に示すように、以下の具体的な実現方式を含む。
【0048】
ステップ201では、トレーニングサンプルを取得し、前記トレーニングサンプルは、各ターゲットクエリに基づいてそれぞれ構築された対応するトレーニングサンプルであり、前記ターゲットクエリは、候補クエリから選別された大規模モデルが正しく処理できないクエリであり、前記候補クエリは、大規模モデルの入力とすることができる所定のデータソースから收集されたクエリである。
【0049】
ステップ202では、前記トレーニングサンプルを使用して大規模モデルに対して最適化トレーニングを行う。
【0050】
現在の大規模モデルが推理タスクを処理する時に一定の不足が依然に存在するため、大規模モデルの推理能力、特に複雑な推理能力をどのように向上させることは、早急に解決すべき問題である。
【0051】
上述方法の実施例に記載の解決策では、データ駆動に基づく大規模モデル自己進化方式を提供し、クエリマイニング、問題発見、トレーニングサンプル構築、及びモデルトレーニングなどの動作によって、大規模モデルの最適化トレーニングを実現することができ、大規模モデルの推理能力を向上させ、それに応じて、大規模モデルを使用して実際の推理応用を行うことは、推理結果の正確性などを向上させることができる。
【0052】
ステップ201で取得されたトレーニングサンプルは、
図1に示す実施例の方法によって構築されたトレーニングサンプルであってもよい。
【0053】
好ましくは、前記トレーニングサンプルは、第1類のトレーニングサンプルと第2類のトレーニングサンプルを含むことができ、それに応じて、ステップ202では、前記トレーニングサンプルを使用して大規模モデルに対して最適化トレーニングを行う方式は、第1類のトレーニングサンプルを使用して大規模モデルに対して事前トレーニングを行い、第1のモデルを取得し、第2類のトレーニングサンプルを使用して第1のモデルに対してSFTトレーニングを行い、第2のモデルを取得し、第2のモデルを使用して実際の推理応用を行うこと、又は、それぞれ第1類のトレーニングサンプルを使用して大規模モデルに対して事前トレーニングを行い、及び第2類のトレーニングサンプルを使用して大規模モデルに対してSFTトレーニングを行い、SFTトレーニングが完了して第3のモデルを取得した後、前記事前トレーニングがまだ完了していないことに応答して、第3のモデルを使用して実際の推理応用を行い、前記事前トレーニングが完了したことに応答して、第1のモデルを取得し、第2類のトレーニングサンプルを使用して第1のモデルに対してSFTトレーニングを行い、第2のモデルを取得し、第2のモデルを使用して第3のモデルを置き換えて実際の推理応用を行うことを含むことができる。
【0054】
つまり、最適化しようとする大規模モデルについて、まず、第1類のトレーニングサンプルを使用してそれに対して事前トレーニングを行い、事前トレーニングが完了した後、次に、第2類のトレーニングサンプルを使用して大規模モデルに対してSFTトレーニングを行うことができ、さらに、SFTトレーニング後の大規模モデルに対して実際の推理応用を行うことができ、しかし、実際の応用では、事前トレーニングの時間は通常、すべて長くなるが、そうすると、事前トレーニングとSFTトレーニングが完了するまで待ってから大規模モデルに対して実際の推理応用を行うと、大規模モデルが長い間の時間内にすべて使用できなくなり、業務の正常処理などに影響を与え、当該問題を克服するために、それぞれ第1類のトレーニングサンプルを使用して大規模モデルに対して事前トレーニングを行い、及び第2類のトレーニングサンプルを使用して大規模モデルに対してSFTトレーニングを行うことができ、SFTトレーニングの時間が比較的に短いため、まず、SFTトレーニング後の大規模モデルを使用して実際の推理応用を行って、長時間に業務の正常処理に影響を与えることを回避し、次に、事前トレーニングが完了してから、次に、第2類のトレーニングサンプルを使用して事前トレーニング後の大規模モデルに対してSFTトレーニングを行って、今回の最適化トレーニングに必要な大規模モデルを取得し、SFTトレーニング後の大規模モデルを置き換えて実際の推理応用を行うことができる。
【0055】
また、好ましくは、ステップ202に記載のトレーニングサンプルを使用して大規模モデルに対して最適化トレーニングを行った後、さらに、異なるクエリタイプにそれぞれ対応するテストクエリを使用して最適化トレーニング後の大規模モデルをテストすることができ、テスト結果に基づいて最適化トレーニング後の異なるクエリタイプに対する大規模モデルの処理能力を決定することができる。
【0056】
例えば、テストクエリを最適化トレーニング後の大規模モデルの入力とし、大規模モデルによって出力されたに対応する返答を取得することができ、さらに、テストクエリと対応する返答を評価モデルに入力し、評価モデルによって出力されたテストクエリが対応する返答にマッチングするか否かの評価結果を取得することができ、さらに、前記評価結果をテスト結果とすることができ、各テスト結果を組み合わせて最適化トレーニング後の異なるクエリタイプに対する大規模モデルの処理能力を決定することができ、さらに、最適化トレーニング後の大規模モデルがどのような側面で向上したかを決定することができ、最適化トレーニング効果の検証などを実現することができる。
【0057】
上述説明を組み合わせて、
図3は本開示の前記大規模モデル最適化トレーニング方法の全体的な実現プロセスの概略図である。
図3に示すように、その中の需要分類は、すなわち各候補クエリのクエリタイプをそれぞれ決定することを指し、命令検索は、すなわち各ターゲットクエリについて、それぞれトレーニングサンプルセットを検索して、各ターゲットクエリの問題タイプを決定することを指し、また、最適化トレーニング後の大規模モデルは、データソース内の新しい製品ログを生成することに使用することができ、次回の最適化トレーニングのターゲットクエリ選別などに使用することができる。
図3に示す各ステップの具体的な実現は、前述関連説明を参照することができ、ここでは説明を省略する。
【0058】
また、なお、本開示に記載の解決策におけるクエリは、通常、テキスト形式であり、前記クエリは、問題、すなわち大規模モデルに入力するためのテキスト形式の問題であってもよい。本開示に記載の解決策では、所定のデータソースからテキスト形式の大規模モデルの入力とすることができるクエリを、候補クエリとして收集することができ、好ましくは、前記候補クエリは、できるだけ異なるクエリタイプのクエリ、例えば、常識推理、数学計算、質疑応答、及びコード生成などクエリタイプのクエリを含む必要があり、次に、テキスト形式の候補クエリから大規模モデルが正しく処理できないターゲットクエリを選別することができ、さらに、各テキスト形式のターゲットクエリに基づいて、対応するトレーニングサンプルをそれぞれ構築することができ、さらに、構築されたトレーニングサンプルを使用して大規模モデルに対して最適化トレーニングを行うことができ、それに応じて、入力されたテキスト形式のクエリについて、最適化トレーニング後の大規模モデルはより正確な返答を提供することができる。
【0059】
前述の各方法の実施例について、簡単な説明のために、それをすべて一連の作業の組み合わせとして記載するが、本開示は、本開示に従って、いくつかのステップが他の順序を使用することができるか、または同時に行うことができるため、説明する作業順序によって制限されないことを当業者は認識すべきである。次に、本明細書に記載される実施例はいずれも好ましい実施例に属し、関連する作業およびモジュールは必ずしも本開示に必須ではない。また、ある実施例には詳細な部分がなく、他の実施例における関連説明を参照することができる。
【0060】
以上は方法の実施例に関する説明であり、以下は装置の実施例によって、本開示に記載の解決策についてさらに説明する。
【0061】
図4は本開示の前記トレーニングサンプル取得装置の実施例400の構成の構造概略図である。
図4に示すように、クエリマイニングモジュール401、問題発見モジュール402、及びサンプル構築モジュール403を含む。
【0062】
クエリマイニングモジュール401は、最適化トリガ条件に符合されると決定されたことに応答して、大規模モデルの入力とすることができる所定のデータソースから收集されたクエリを候補クエリとするために用いられる。
【0063】
問題発見モジュール402は、候補クエリからターゲットクエリを選別し、ターゲットクエリは、大規模モデルが正しく処理できないクエリであるために用いられる。
【0064】
サンプル構築モジュール403は、各ターゲットクエリに基づいて、対応するトレーニングサンプルをそれぞれ構築するために用いられ、前記トレーニングサンプルは、前記大規模モデルに対して最適化トレーニングを行うために用いられる。
【0065】
上述装置の実施例に記載の解決策を使用して、候補クエリを收集することができ、その中から大規模モデルが正しく処理できないターゲットクエリをマイニングすることができ、さらに、各ターゲットクエリに基づいて、それぞれ対応するトレーニングサンプルを的確に構築することができ、これにより、構築されたトレーニングサンプルの品質を向上させ、さらに、後続に構築されたトレーニングサンプルを使用して大規模モデルに対して最適化トレーニングを行う時、大規模モデル推理能力の中の弱点に対して的確な最適化を行うことができ、最適化効果などの向上させることができる。
【0066】
最適化トリガ条件に符合することが決定された場合、クエリマイニングモジュール401は大規模モデルの入力とすることができる所定のデータソースから收集されたクエリを候補クエリとすることができる。クエリマイニング(又は推理需要マイニングなどと呼ぶ)によって候補クエリを取得することができる。
【0067】
取得された候補クエリについて、問題発見モジュール402はその中からターゲットクエリを選別することができ、ターゲットクエリは、大規模モデルが正しく処理できないクエリである。
【0068】
好ましくは、問題発見モジュール402は、候補クエリからターゲットクエリを選別する時、任意の候補クエリについて、それぞれ以下の処理を行うことができ、前記処理は、当該候補クエリを大規模モデルの入力とし、大規模モデルによって生成された当該候補クエリに対応する返答を取得し、前記返答が当該候補クエリにマッチングしていないエラー返答であると決定されたことに応答して、当該候補クエリを選別されたターゲットクエリとする。
【0069】
好ましくは、任意の候補クエリについて、問題発見モジュール402は、それぞれ当該候補クエリと対応する返答を予めトレーニングされた評価モデルに入力して、評価モデルによって出力された前記返答が当該候補クエリにマッチングするか否か評価結果を取得することができる。
【0070】
さらに、サンプル構築モジュール403は各ターゲットクエリに基づいて、対応するトレーニングサンプルをそれぞれ構築する。
【0071】
好ましくは、任意のターゲットクエリについて、サンプル構築モジュール403は、それぞれ以下の処理を行うことができ、前記処理は、当該ターゲットクエリに対応する問題タイプを決定し、前記問題タイプに対応するサンプルタイプを決定し、当該ターゲットクエリに基づいて、前記サンプルタイプのトレーニングサンプルを構築する。
【0072】
その中、好ましくは、前記問題タイプは、データ上書き問題、モデル能力問題、及びデータ品質問題を含むことができ、それに応じて、任意のターゲットクエリについて、サンプル構築モジュール403は当該ターゲットクエリに対応する問題タイプを決定する方式は、トレーニングサンプルセットを検索し、トレーニングサンプルセットは、大規模モデルに対してSFTトレーニングを行う時に使用されるトレーニングサンプルを含むことと、当該ターゲットクエリにマッチングするトレーニングサンプルが検出されなかったことに応答して、当該ターゲットクエリに対応する問題タイプがデータ上書き問題であると決定することができることと、当該ターゲットクエリにマッチングするトレーニングサンプルが検索されたことに応答して、ICL方式によって当該ターゲットクエリに対応する問題タイプがモデル能力問題であるか、データ品質問題であるかを決定することができることと、を含むことができる。
【0073】
好ましくは、前記サンプルタイプは、第1類のトレーニングサンプルと第2類のトレーニングサンプルを含み、その中、第1類のトレーニングサンプルは、事前トレーニングを行うためのトレーニングサンプルであり、第2類のトレーニングサンプルはSFTトレーニングを行うためのトレーニングサンプルであり、それに応じて、任意のターゲットクエリについて、サンプル構築モジュール403は当該ターゲットクエリの問題タイプに対応するサンプルタイプを決定する方式は、問題タイプがモデル能力問題であると決定されたことに応答して、サンプルタイプが第1類のトレーニングサンプルであると決定することと、問題タイプがデータ上書き問題又はデータ品質問題であると決定されたことに応答して、サンプルタイプが第2類のトレーニングサンプルであると決定することと、を含むことができる。
【0074】
つまり、モデル能力問題について、第1類のトレーニングサンプルを構築することができ、データ品質問題又はデータ上書き問題について、第2類のトレーニングサンプルを構築することができる。
【0075】
また、好ましくは、クエリマイニングモジュール401は、候補クエリからターゲットクエリを選別する前に、さらに、各候補クエリのクエリタイプをそれぞれ決定することができ、それに応じて、問題発見モジュール402は、候補クエリからターゲットクエリを選別した後、さらに、異なるクエリタイプに属するターゲットクエリの数をそれぞれ統計することができ、さらに、統計結果に基づいて異なるクエリタイプに対する大規模モデルの処理能力を決定することができる。
【0076】
図5は本開示の前記大規模モデル最適化トレーニング装置の実施例500の構成の構造概略図である。
図5に示すように、サンプル取得モジュール501とモデルトレーニングモジュール502を含む。
【0077】
サンプル取得モジュール501は、トレーニングサンプルを取得するために用いられ、前記トレーニングサンプルは、各ターゲットクエリに基づいてそれぞれ構築された対応するトレーニングサンプルであり、前記ターゲットクエリは、候補クエリから選別された大規模モデルが正しく処理できないクエリであり、前記候補クエリは、前記大規模モデルの入力とすることができる所定のデータソースから收集されたクエリである。
【0078】
モデルトレーニングモジュール502は、前記トレーニングサンプルを使用して大規模モデルに対して最適化トレーニングを行うために用いられる。
【0079】
上述装置の実施例に記載の解決策では、データ駆動に基づく大規模モデル自己進化方式を提供し、クエリマイニング、問題発見、トレーニングサンプル構築、及びモデルトレーニングなどの動作によって、大規模モデルの最適化トレーニングを実現することができ、大規模モデルの推理能力を向上させ、それに応じて、大規模モデルを使用して実際の推理応用を行うことは、推理結果の正確性などを向上させることができる。
【0080】
好ましくは、前記トレーニングサンプルは、第1類のトレーニングサンプルと第2類のトレーニングサンプルを含み、それに応じて、モデルトレーニングモジュール502は、第1類のトレーニングサンプルを使用して大規模モデルに対して事前トレーニングを行い、第1のモデルを取得することができ、第2類のトレーニングサンプルを使用して第1のモデルに対してSFTトレーニングを行い、第2のモデルを取得し、第2のモデルを使用して実際の推理応用を行い、又は、それぞれ第1類のトレーニングサンプルを使用して大規模モデルに対して事前トレーニングを行い、及び第2類のトレーニングサンプルを使用して大規模モデルに対してSFTトレーニングを行うことができ、SFTトレーニングが完了して第3のモデルを取得した後、事前トレーニングがまだ完了していないことに応答して、第3のモデルを使用して実際の推理応用を行い、事前トレーニングが完了したことに応答して、第1のモデルを取得し、第2類のトレーニングサンプルを使用して第1のモデルに対してSFTトレーニングを行い、第2のモデルを取得し、第2のモデルを使用して第3のモデルを置き換えて実際の推理応用を行う。
【0081】
また、好ましくは、モデルトレーニングモジュール502は、トレーニングサンプルを使用して大規模モデルに対して最適化トレーニングを行った後、さらに、異なるクエリタイプにそれぞれ対応するテストクエリを使用して最適化トレーニング後の大規模モデルをテストすることができ、テスト結果に基づいて最適化トレーニング後の異なるクエリタイプに対する大規模モデルの処理能力を決定することができる。
【0082】
図4及び
図5に示す装置の実施例の具体的なワークフローは、前述方法の実施例の関連説明を参照することができ、ここでは説明を省略する。
【0083】
つまり、本開示に記載の解決策を使用すると、データ駆動とモデル閉ループの反復に基づく大規模モデル推理能力自己進化を実現し、大規模モデルの推理能力を向上させ、さらに、推理結果の正確性などを向上させることができる。
【0084】
本開示に記載された解決策は、人工知能技術の分野に関し、特に、大規模モデル、ディープラーニング及び自然言語処理などの分野に適用することができる。人工知能は、人間のある思考プロセスと知能行為(たとえば、学習、推理、思考、計画など)をコンピュータでシミュレートすることを研究する学科であり、ハードウェアレベルの技術もソフトウェアレベルの技術もあり、人工知能ハードウェア技術は、一般的に、たとえば、センサー、専用の人工知能チップ、クラウドコンピューティング、分散ストレージ、ビッグデータ処理などの技術を含み、人工知能ソフトウェア技術は、主に、コンピュータビジョン技術、音声認識技術、自然言語処理技術および機械学習/ディープラーニング、ビッグデータ処理技術、知識グラフ技術などのいくつかの方向を含む。
【0085】
本開示の前記実施例のデータは、特定のユーザに対するものではなく、特定のユーザの個人情報を反映するものではない。本開示の技術案において、関連するユーザ個人情報の収集、記憶、使用、加工、伝送、提供、公開などの処理は、すべて関連する法律および規定を満たし、公序良俗に違反しない。
【0086】
本開示の実施例によれば、本開示は、さらに、電子機器、読み取り可能な記憶媒体及びコンピュータプログラム製品を提供する。
【0087】
図6は本開示の実施例を実施するための電子機器600の概略ブロック図を示す。電子機器は、ラップトップコンピュータ、デスクトップコンピュータ、ワークステーション、サーバ、ブレードサーバ、大型コンピュータ、及び他の適切なコンピュータなどの様々な形式のデジタルコンピュータを表すことを目的とする。電子機器は、携帯情報端末、携帯電話、スマートフォン、ウェアラブルデバイス、他の同様の計算デバイスなどの様々な形式のモバイルデバイスを表すこともできる。本明細書で示されるコンポーネント、それらの接続と関係、及びそれらの機能は単なる例であり、本明細書の説明及び/又は要求される本開示の実現を制限することを意図したものではない。
【0088】
図6に示すように、機器600は計算ユニット601を含み、計算ユニット601は、読み取り専用メモリ(ROM)602に記憶されているコンピュータプログラムまたは記憶ユニット608からランダムアクセスメモリ(RAM)603にロードされたコンピュータプログラムに基づいて、様々な適切な動作と処理を実行することができる。RAM603には、機器600が動作するに必要な様々なプログラムとデータも記憶することができる。計算ユニット601、ROM602、およびRAM603は、バス604を介してお互いに接続される。入出力(I/O)インターフェース605もバス604に接続される。
【0089】
機器600内の複数のコンポーネントは、I/Oインターフェース605に接続されており、キーボード、マウスなどの入力ユニット606と、様々なタイプのディスプレイ、スピーカなどの出力ユニット607と、ディスク、光ディスクなどの記憶ユニット608と、およびネットワークカード、モデム、無線通信トランシーバなどの通信ユニット609と、を含む。通信ユニット609は、機器600が、インターネットなどのコンピュータネットワーク、および/または様々な電気通信ネットワークを介して他の機器と情報/データを交換することを可能にする。
【0090】
計算ユニット601は、様々な処理と計算能力を備える汎用および/または専用の処理コンポーネントである。計算ユニット601のいくつかの例は、中央処理装置(CPU)、グラフィックス処理ユニット(GPU)、様々な専用の人工知能(AI)計算チップ、様々な機械学習モデルアルゴリズムを実行する計算ユニット、デジタル信号プロセッサ(DSP)、および任意の適切なプロセッサ、コントローラ、マイクロコントローラなどを含むが、これらに限定されない。計算ユニット601は、本開示に記載された方法などの上記の様々な方法と処理を実行する。例えば、いくつかの実施例では、本開示に記載された方法は、記憶ユニット608などの機械読み取り可能な媒体に有形的に含まれるコンピュータソフトウェアプログラムとして実現することができる。 いくつかの実施例では、コンピュータプログラムの一部または全部は、ROM602および/または通信ユニット609を介して機器600にロードおよび/またはインストールされる。コンピュータプログラムがRAM603にロードされて計算ユニット601によって実行される場合、上記の本開示に記載された方法の一つまたは複数のステップを実行することができる。代替的に、他の実施例では、計算ユニット601は、他の任意の適切な方式(例えば、ファームウェアによって)を介して本開示に記載された方法を実行するように構成されることができる。
【0091】
本明細書で説明されるシステムと技術の様々な実施方式は、デジタル電子回路システム、集積回路システム、フィールドプログラマブルゲートアレイ(FPGA)、特定用途向け集積回路(ASIC)、特定用途向け標準製品(ASSP)、システムオンチップシステム(SOC)、ロードプログラマブルロジックデバイス(CPLD)、コンピュータハードウェア、ファームウェア、ソフトウェア、及び/又はそれらの組み合わせで実現することができる。これらの様々な実施方式は、一つ又は複数のコンピュータプログラムで実施されることを含むことができ、当該一つ又は複数のコンピュータプログラムは、少なくとも一つのプログラマブルプロセッサを含むプログラム可能なシステムで実行及び/又は解釈されることができ、当該プログラマブルプロセッサは、特定用途向け又は汎用プログラマブルプロセッサであってもよく、ストレージシステム、少なくとも一つの入力装置、及び少なくとも一つの出力装置からデータ及び命令を受信し、データ及び命令を当該ストレージシステム、当該少なくとも一つの入力装置、及び当該少なくとも一つの出力装置に伝送することができる。
【0092】
本開示の方法を実施するためのプログラムコードは、一つまたは複数のプログラミング言語の任意の組み合わせを使用して作成することができる。これらのプログラムコードは、プログラムコードがプロセッサまたはコントローラによって実行される時にフローチャートおよび/またはブロック図に規定された機能/動作が実施されるように、汎用コンピュータ、専用コンピュータ、または他のプログラム可能なデータ処理装置のプロセッサまたはコントローラに提供することができる。プログラムコードは、完全に機械上で実行されたり、部分的に機械上で実行されたり、独立したソフトウェアパッケージとして部分的に機械上で実行され、部分的にリモート機械上実行されたり、または完全にリモート機械またはサーバ上で実行されたりすることができる。
【0093】
本開示の文脈において、機械読み取り可能な媒体は、命令実行システム、装置、または機器の使用、または命令実行システム、装置または機器と組み合わせて使用するプログラムを含むか、または記憶することができる有形の媒体であってもよい。機械読み取り可能な媒体は、機械読み取り可能な信号媒体または機械読み取り可能な記憶媒体であってもよい。機械読み取り可能な媒体は、電子、磁気、光学、電磁気、赤外線、または半導体システム、装置または機器、または上記の内容の任意の適切な組み合わせを含むが、これらに限定されない。機械読み取り可能な記憶媒体のより具体的な例は、一つまたは複数のワイヤに基づく電気接続、ポータブルコンピュータディスク、ハードディスク、ランダムアクセスメモリ(RAM)、読み取り専用メモリ(ROM)、消去可能プログラマブル読み取り専用メモリ(EPROM またはフラッシュメモリ)、光ファイバ、ポータブルコンパクトディスク読み取り専用メモリ(CD-ROM)、光学記憶装置、磁気記憶装置、または上記の内容の任意の適切な組み合わせを含む。
【0094】
ユーザとのインタラクションを提供するために、コンピュータ上でここで説明されているシステム及び技術を実施することができ、当該コンピュータは、ユーザに情報を表示するためのディスプレイ装置(例えば、CRT(陰極線管)又はLCD(液晶ディスプレイ)モニタ)と、キーボード及びポインティングデバイス(例えば、マウス又はトラックボール)とを有し、ユーザは、当該キーボード及び当該ポインティングデバイスによって入力をコンピュータに提供することができる。他の種類の装置は、ユーザとのインタラクションを提供するために用いられることもでき、例えば、ユーザに提供されるフィードバックは、任意の形式のセンシングフィードバック(例えば、視覚フィードバック、聴覚フィードバック、又は触覚フィードバック)であってもよく、任意の形式(音響入力と、音声入力と、触覚入力とを含む)でユーザからの入力を受信することができる。
【0095】
ここで説明されるシステム及び技術は、バックエンドコンポーネントを含むコンピューティングシステム(例えば、データサーバとする)、又はミドルウェアコンポーネントを含むコンピューティングシステム(例えば、アプリケーションサーバー)、又はフロントエンドコンポーネントを含むコンピューティングシステム(例えば、グラフィカルユーザインタフェース又はウェブブラウザを有するユーザコンピュータ、ユーザは、当該グラフィカルユーザインタフェース又は当該ウェブブラウザによってここで説明されるシステム及び技術の実施方式とインタラクションする)、又はこのようなバックエンドコンポーネントと、ミドルウェアコンポーネントと、フロントエンドコンポーネントの任意の組み合わせを含むコンピューティングシステムで実施することができる。任意の形式又は媒体のデジタルデータ通信(例えば、通信ネットワーク)によってシステムのコンポーネントを相互に接続されることができる。通信ネットワークの例は、ローカルエリアネットワーク(LAN)と、ワイドエリアネットワーク(WAN)と、インターネットと、を含む。
【0096】
コンピュータシステムは、クライアントとサーバとを含むことができる。クライアントとサーバは、一般に、互いに離れており、通常に通信ネットワークを介してインタラクションする。対応するコンピュータ上で実行され、互いにクライアント-サーバ関係を有するコンピュータプログラムによってクライアントとサーバとの関係が生成される。サーバは、クラウドサーバであってもよく、分散システムのサーバであってもよく、またはブロックチェーンを組み合わせるサーバであってもよい。
【0097】
上記に示される様々な形式のフローを使用して、ステップを並べ替え、追加、又は削除することができることを理解されたい。例えば、本開示に記載されている各ステップは、並列に実行されてもよいし、順次的に実行されてもよいし、異なる順序で実行されてもよいが、本開示で開示されている技術案が所望の結果を実現することができれば、本明細書では限定されない。
【0098】
上記の具体的な実施方式は、本開示に対する保護範囲の制限を構成するものではない。当業者は、設計要求と他の要因に基づいて、様々な修正、組み合わせ、サブコンビネーション、及び代替を行うことができる。任意の本開示の精神と原則内で行われる修正、同等の置換、及び改善などは、いずれも本開示の保護範囲内に含まれなければならない。