IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ ベイジン バイドゥ ネットコム サイエンス アンド テクノロジー カンパニー リミテッドの特許一覧

特開2024-157003モデル生成結果の処理方法、装置、電子機器及び記憶媒体
<>
  • 特開-モデル生成結果の処理方法、装置、電子機器及び記憶媒体 図1
  • 特開-モデル生成結果の処理方法、装置、電子機器及び記憶媒体 図2
  • 特開-モデル生成結果の処理方法、装置、電子機器及び記憶媒体 図3
  • 特開-モデル生成結果の処理方法、装置、電子機器及び記憶媒体 図4
  • 特開-モデル生成結果の処理方法、装置、電子機器及び記憶媒体 図5
  • 特開-モデル生成結果の処理方法、装置、電子機器及び記憶媒体 図6A
  • 特開-モデル生成結果の処理方法、装置、電子機器及び記憶媒体 図6B
  • 特開-モデル生成結果の処理方法、装置、電子機器及び記憶媒体 図6C
  • 特開-モデル生成結果の処理方法、装置、電子機器及び記憶媒体 図7
  • 特開-モデル生成結果の処理方法、装置、電子機器及び記憶媒体 図8
  • 特開-モデル生成結果の処理方法、装置、電子機器及び記憶媒体 図9
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024157003
(43)【公開日】2024-11-06
(54)【発明の名称】モデル生成結果の処理方法、装置、電子機器及び記憶媒体
(51)【国際特許分類】
   G06F 40/279 20200101AFI20241029BHJP
   G06F 40/56 20200101ALI20241029BHJP
   G06F 40/44 20200101ALI20241029BHJP
   G06F 40/289 20200101ALI20241029BHJP
【FI】
G06F40/279
G06F40/56
G06F40/44
G06F40/289
【審査請求】有
【請求項の数】17
【出願形態】OL
【公開請求】
(21)【出願番号】P 2024135737
(22)【出願日】2024-08-15
(31)【優先権主張番号】202311765088.1
(32)【優先日】2023-12-20
(33)【優先権主張国・地域又は機関】CN
(71)【出願人】
【識別番号】514322098
【氏名又は名称】ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド
【氏名又は名称原語表記】Beijing Baidu Netcom Science Technology Co., Ltd.
【住所又は居所原語表記】2/F Baidu Campus, No.10, Shangdi 10th Street, Haidian District, Beijing 100085, China
(74)【代理人】
【識別番号】110000877
【氏名又は名称】弁理士法人RYUKA国際特許事務所
(72)【発明者】
【氏名】ティアン、メン
(72)【発明者】
【氏名】ヤン、リン
(72)【発明者】
【氏名】フェン、シンウェイ
(72)【発明者】
【氏名】フェン、ジファン
(72)【発明者】
【氏名】クイ、シャオペン
(72)【発明者】
【氏名】シェ、チアオチアオ
(72)【発明者】
【氏名】ウ、フア
(57)【要約】      (修正有)
【課題】生成式大規模モデルの論理推理が正しいか否かを効率的、かつ正確に決定するモデル生成結果の処理方法、装置、電子機器及び記憶媒体を提供する。
【解決手段】モデル生成結果の処理方法は、生成式大規模モデルのテキスト生成結果を分解して、複数の結果論理ユニットを取得することを含む。各結果論理ユニットは、テキスト生成結果におけるフラグメントを含み、各フラグメントは、テキスト生成結果の論理推理関係における1つの前提又は結論を独立にマーキングでき、テキスト生成結果は、生成式大規模モデルがテキスト入力情報に基づいて生成された応答結果である。方法はまた、複数の結果論理ユニットに基づいて、複数の結果論理ユニット間の論理推理関係を特徴付ける論理推理図を生成することと、論理推理図に基づいて、生成式大規模モデルがテキスト生成結果を生成する論理推理が正しいか否かを決定することと、を含む。
【選択図】図1
【特許請求の範囲】
【請求項1】
テキスト処理分野に適用される、モデル生成結果の処理方法であって、
生成式大規模モデルのテキスト生成結果を分解して、複数の結果論理ユニットを取得するステップであって、各前記結果論理ユニットは、前記テキスト生成結果におけるフラグメントを含み、各前記フラグメントは、前記テキスト生成結果の論理推理関係における1つの前提又は結論を独立にマーキングでき、前記テキスト生成結果は、前記生成式大規模モデルがテキスト入力情報に基づいて生成された応答結果であるステップと、
前記複数の結果論理ユニットに基づいて、前記複数の結果論理ユニット間の論理推理関係を特徴付ける論理推理図を生成するステップと、
前記論理推理図に基づいて、前記生成式大規模モデルの前記テキスト生成結果を生成する論理推理が正しいか否かを決定するステップと、を含む、
モデル生成結果の処理方法。
【請求項2】
生成式大規模モデルのテキスト生成結果を分解して、複数の結果論理ユニットを取得するステップは、
予めトレーニングされた論理分解モデルを使用して、前記生成式大規模モデルのテキスト生成結果を分解して、複数の結果論理ユニットを取得するステップを含む、
請求項1に記載のモデル生成結果の処理方法。
【請求項3】
前記複数の結果論理ユニットに基づいて、前記複数の結果論理ユニット間の論理推理関係を特徴付ける論理推理図を生成するステップは、
前記複数の結果論理ユニットに基づいて、予めトレーニングされた論理推理図生成モデルを使用して、前記複数の結果論理ユニット間の論理推理関係を特徴付ける論理推理図を生成するステップを含む、
請求項1に記載のモデル生成結果の処理方法。
【請求項4】
前記複数の結果論理ユニットに基づいて、前記複数の結果論理ユニット間の論理推理関係を特徴付ける論理推理図を生成するステップの前に、前記方法は、
生成式大規模モデルのテキスト入力情報を分解して、複数の入力論理ユニットを取得するステップをさらに含み、各前記入力論理ユニットは、前記テキスト入力情報中のフラグメントを含み、各前記フラグメントは、論理推理関係における1つの前提又は結論を独立にマーキングすることができる、
請求項1に記載のモデル生成結果の処理方法。
【請求項5】
前記複数の結果論理ユニットに基づいて、前記複数の結果論理ユニット間の論理推理関係を特徴付ける論理推理図を生成するステップは、
前記複数の結果論理ユニットに基づいて、前記複数の入力論理ユニットを参照して、前記複数の結果論理ユニット間の論理推理関係を特徴付ける前記論理推理図を生成するステップを含む、
請求項4に記載のモデル生成結果の処理方法。
【請求項6】
前記複数の結果論理ユニットに基づいて、前記複数の入力論理ユニットを参照して、前記複数の結果論理ユニット間の論理推理関係を特徴付ける前記論理推理図を生成するステップは、
前記複数の入力論理ユニットと前記複数の結果論理ユニットに基づいて、予め設定されたサンプルデータベースの中で、関連性が最も高いサンプルを検索するステップであって、前記サンプルデータベースは複数グループのサンプルを含み、各前記サンプルは、入力サンプル情報に対応する複数の入力サンプル論理ユニット、結果サンプル情報に対応する複数の結果サンプル論理ユニット、及び複数の結果サンプル論理ユニットに対応するサンプル論理推理図を含むステップと、
前記複数の入力論理ユニットと前記複数の結果論理ユニット、前記複数の入力サンプル論理ユニット、前記複数の結果サンプル論理ユニット、及び対応する前記サンプル論理推理図に基づいて、予めトレーニングされた他の生成式大規模モデルを使用して、前記複数の結果論理ユニットに対応する前記論理推理図を生成するステップと、を含む、
請求項5に記載のモデル生成結果の処理方法。
【請求項7】
前記論理推理図に基づいて、前記生成式大規模モデルが前記テキスト生成結果を生成する論理推理が正しいか否かを決定するステップは、
前記論理推理図を複数の2層サブ図に分解するステップであって、各前記2層サブ図は、1つの論理推理段階をマーキングするステップと、
各前記2層サブ図の論理推理が正しいか否かを判定するステップと、
前記複数の2層サブ図の論理推理がすべて正しいことに応答して、前記生成式大規模モデルが前記テキスト生成結果を生成する論理推理が正しいことを決定するステップと、を含む、
請求項1から6のいずれか1項に記載のモデル生成結果の処理方法。
【請求項8】
テキスト処理分野に適用される、モデル生成結果の処理装置であって、
生成式大規模モデルのテキスト生成結果を分解して、複数の結果論理ユニットを取得するための分解モジュールであって、各前記結果論理ユニットは、前記テキスト生成結果におけるフラグメントを含み、各前記フラグメントは、前記テキスト生成結果の論理推理関係における1つの前提又は結論を独立にマーキングでき、前記テキスト生成結果は、前記生成式大規模モデルがテキスト入力情報に基づいて生成された応答結果である分解モジュールと、
前記複数の結果論理ユニットに基づいて、前記複数の結果論理ユニット間の論理推理関係を特徴付ける論理推理図を生成するための生成モジュールと、
前記論理推理図に基づいて、前記生成式大規模モデルが前記テキスト生成結果を生成する論理推理が正しいか否かを決定するための評価モジュールと、を含む、
モデル生成結果の処理装置。
【請求項9】
前記分解モジュールは、
予めトレーニングされた論理分解モデルを使用して、前記生成式大規模モデルのテキスト生成結果を分解して、複数の結果論理ユニットを取得するために用いられる、
請求項8に記載のモデル生成結果の処理装置。
【請求項10】
前記生成モジュールは、
前記複数の結果論理ユニットに基づいて、予めトレーニングされた論理推理図生成モデルを使用して、前記複数の結果論理ユニット間の論理推理関係を特徴付ける論理推理図を生成するために用いられる、
請求項8に記載のモデル生成結果の処理装置。
【請求項11】
前記分解モジュールは、さらに、
生成式大規模モデルのテキスト入力情報を分解して、複数の入力論理ユニットを取得するために用いられ、各前記入力論理ユニットは、前記テキスト入力情報中のフラグメントを含み、各前記フラグメントは、論理推理関係における1つの前提又は結論を独立にマーキングすることができる、
請求項8に記載のモデル生成結果の処理装置。
【請求項12】
前記生成モジュールは、
前記複数の結果論理ユニットに基づいて、前記複数の入力論理ユニットを参照して、前記複数の結果論理ユニット間の論理推理関係を特徴付ける前記論理推理図を生成するために用いられる、
請求項11に記載のモデル生成結果の処理装置。
【請求項13】
前記生成モジュールは、
前記複数の入力論理ユニットと前記複数の結果論理ユニットに基づいて、予め設定されたサンプルデータベースの中で、関連性が最も高いサンプルを検索し、前記サンプルデータベースは複数グループのサンプルを含み、各前記サンプルは、入力サンプル情報に対応する複数の入力サンプル論理ユニット、結果サンプル情報に対応する複数の結果サンプル論理ユニット、及び複数の結果サンプル論理ユニットに対応するサンプル論理推理図を含み、
前記複数の入力論理ユニットと前記複数の結果論理ユニット、前記複数の入力サンプル論理ユニット、前記複数の結果サンプル論理ユニット、及び対応する前記サンプル論理推理図に基づいて、予めトレーニングされた他の生成式大規模モデルを使用して、前記複数の結果論理ユニットに対応する前記論理推理図を生成するために用いられる、
請求項12に記載のモデル生成結果の処理装置。
【請求項14】
前記評価モジュールは、
前記論理推理図を複数の2層サブ図に分解するための分解ユニットであって、各前記2層サブ図は、1つの論理推理段階をマーキングする分解ユニットと、
各前記2層サブ図の論理推理が正しいか否かを判定するための判定ユニットと、
前記複数の2層サブ図の論理推理がすべて正しいことに応答して、前記生成式大規模モデルが前記テキスト生成結果を生成する論理推理が正しいことを決定するための決定ユニットと、を含む、
請求項8から13のいずれか1項に記載のモデル生成結果の処理装置。
【請求項15】
電子機器であって、
少なくとも1つのプロセッサと、
前記少なくとも1つのプロセッサと通信接続されるメモリと、を含み、
前記メモリには前記少なくとも1つのプロセッサによって実行可能な命令が記憶され、前記命令が前記少なくとも1つのプロセッサによって実行されると、前記少なくとも1つのプロセッサが請求項1から6のいずれかの1つに記載の方法を実行する、
電子機器。
【請求項16】
コンピュータ命令が記憶されている非一時的なコンピュータ読み取り可能な記憶媒体であって、
前記コンピュータ命令は、前記コンピュータに請求項1から6のいずれかの1つに記載の方法を実行させる、
非一時的なコンピュータ読み取り可能な記憶媒体。
【請求項17】
コンピュータプログラムであって、
前記コンピュータプログラムがプロセッサによって実行される場合、請求項1から6のいずれかの1つに記載の方法を実現する、
コンピュータプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、コンピュータ技術分野に関し、具体的には、機械学習と自然言語処理などの人工知能技術分野に関し、特に、モデル生成結果の処理方法、装置、電子機器及び記憶媒体に関する。
【背景技術】
【0002】
生成式大規模モデルの広範な応用に伴い、生成式大規模モデルの効果評価も非常に重要な技術となっている。
【0003】
生成式大規模モデルの効果評価とは、生成式大規模モデルのテキスト生成結果が正しいか否かを判定することである。生成式大規模モデルの効果評価は、従来モデルのタスク評価とは異なり、生成式大規模モデルのテキスト生成結果は一意に固定されていないため、効果評価時に文字列がマッチングするか否かを簡単に評価することはできない。
【発明の概要】
【発明が解決しようとする課題】
【0004】
本開示は、モデル生成結果の処理方法、装置、電子機器及び記憶媒体を提供する。
【課題を解決するための手段】
【0005】
本開示の一態様によれば、モデル生成結果の処理方法を提供し、
生成式大規模モデルのテキスト生成結果を分解して、複数の結果論理ユニットを取得するステップであって、各前記結果論理ユニットは、前記テキスト生成結果におけるフラグメントを含み、各前記フラグメントは、前記テキスト生成結果の論理推理関係における1つの前提又は結論を独立にマーキングでき、前記テキスト生成結果は、前記生成式大規模モデルがテキスト入力情報に基づいて生成された応答結果であるステップと、
前記複数の結果論理ユニットに基づいて、前記複数の結果論理ユニット間の論理推理関係を特徴付ける論理推理図を生成するステップと、
前記論理推理図に基づいて、前記生成式大規模モデルが前記テキスト生成結果を生成する論理推理が正しいか否かを評価するステップと、を含む。
【0006】
本開示の別の態様によれば、モデル生成結果の処理装置を提供し、
生成式大規模モデルのテキスト生成結果を分解して、複数の結果論理ユニットを取得するための分解モジュールであって、各前記結果論理ユニットは、前記テキスト生成結果におけるフラグメントを含み、各前記フラグメントは、前記テキスト生成結果の論理推理関係における1つの前提又は結論を独立にマーキングでき、前記テキスト生成結果は、前記生成式大規模モデルがテキスト入力情報に基づいて生成された応答結果である分解モジュールと、
前記複数の結果論理ユニットに基づいて、前記複数の結果論理ユニット間の論理推理関係を特徴付ける論理推理図を生成するための生成モジュールと、
前記論理推理図に基づいて、前記生成式大規模モデルが前記テキスト生成結果を生成する論理推理が正しいか否かを評価するための評価モジュールと、を含む。
【0007】
本開示のもう1つの態様によれば、電子機器を提供し、
少なくとも1つのプロセッサと、
前記少なくとも1つのプロセッサと通信接続されるメモリと、を含み、
前記メモリには前記少なくとも1つのプロセッサによって実行可能な命令が記憶され、前記命令が前記少なくとも1つのプロセッサによって実行されると、前記少なくとも1つのプロセッサが前記態様及び任意の可能な実現方式の方法を実行することができる。
【0008】
本開示のもう1つの態様によれば、コンピュータ命令が記憶されている非一時的なコンピュータ読み取り可能な記憶媒体を提供し、前記コンピュータ命令は、前記コンピュータに前記態様及び任意の可能な実現方式の方法を実行させる。
【0009】
本開示のもう1つの態様によれば、コンピュータプログラム製品を提供し、コンピュータプログラムを含み、前記コンピュータプログラムがプロセッサによって実行される場合、前記態様及び任意の可能な実現方式の方法を実現する。
【0010】
本開示の技術に基づいて、生成式大規模モデルの論理推理が正しいか否かを効率的、かつ正確に決定することができ、さらに、生成式大規模モデルの評価効率を効果的に向上させることができる。
【0011】
本明細書で説明された内容は、本開示の実施例のキーまたは重要な特徴を特定することを意図しておらず、本開示の範囲を制限するためにも使用されないことを理解されたい。本開示の他の特徴は、以下の明細書を通じて容易に理解できる。
【図面の簡単な説明】
【0012】
図面は、本出願をより良く理解するためのものであり、本出願を限定しない。
図1】本開示の第1の実施例による概略図である。
図2】本開示の第2の実施例による概略図である。
図3】本開示により提供される論理推理図である。
図4】本開示の第3の実施例による概略図である。
図5】本実施例により生成される論理推理図の概略図である。
図6A】それぞれ図5に示す論理推理図分割の2層サブ図である。
図6B】それぞれ図5に示す論理推理図分割の2層サブ図である。
図6C】それぞれ図5に示す論理推理図分割の2層サブ図である。
図7】本開示の第4の実施例の概略図である。
図8】本開示の第5の実施例の概略図である。
図9】本開示の実施例の方法を実現するための電子機器のブロック図である。
【発明を実施するための形態】
【0013】
以下、図面に基づいて、本出願の例示の実施例を説明する。理解を容易にするために、本出願の実施例の様々な詳細が含まれており、それらは単なる例示と見なされるべきである。従って、当業者は、本出願の範囲及びび精神から逸脱することなく、本明細書に記載の実施形態に対して様々な変更及び修正を行うことができることを認識するはずである。同様に、簡明のために、以下の説明では、よく知られた機能と構造の説明は省略される。
【0014】
明らかに、説明された実施例は本出願の一部の実施例であるが、すべての実施例ではない。本出願の実施例によれば、当業者は創造的な労働なしに取得されたのすべての他の実施例は、すべて本出願の保護の範囲に属する。
【0015】
なお、本出願の実施例に関する端末デバイスは、携帯電話、携帯情報端末(PerSonal Digital ASSiStant、PDA(登録商標))、ワイヤレスハンドヘルドデバイス、タブレットコンピュータ(Tablet Computer)などのスマートデバイスを含むことができるが、これらに限定しない。表示機器は、パーソナルコンピュータ、テレビなどの表示機能を有する機器を含むことができるが、これらに限定されない。
【0016】
また、本明細書の用語「及び/又は」は、関連対象の関連関係のみを説明するものであり、3種類の関係が存在可能であることを表し、例えば、A及び/又はBは、Aのみが存在するか、A及びBが同時に存在するか、Bのみが存在するという3つの場合を表すことができる。符号「/」は、一般的に前後の関連対象が「又は」の関係であることを表すことを理解されたい。
【0017】
図1は本開示の第1の実施例による概略図である。図1に示すように、本実施例はモデル生成結果の処理方法を提供し、具体的には、以下のステップを含むことができ、
S101、生成式大規模モデルのテキスト生成結果を分解して、複数の結果論理ユニットを取得し、
本実施例の各結果論理ユニットは、テキスト生成結果におけるフラグメントを含み、各フラグメントは、テキスト生成結果の論理推理関係における1つの前提又は結論を独立にマーキングでき、テキスト生成結果は、生成式大規模モデルがテキスト入力情報に基づいて生成された応答結果である。
【0018】
本実施例のモデル生成結果の処理方法の実行主体は、モデル生成結果の処理装置であってもよく、当該装置は1つの独立した電子機器であってもよく、又はソフトウェア基盤を使用して応用であってもよく、生成式大規模モデルの生成効果を評価する。
【0019】
本実施例の生成式大規模モデルは生成式言語モデル(General Language Model;GLM)とも呼ばれ、生成式大規模言語モデルとも呼ばれる。
【0020】
本実施例では、生成式大規模モデルがテキスト処理分野で使用することを例とし、使用時に、当該生成式大規模モデルにテキスト入力情報を入力し、当該生成式大規模モデルは、テキスト入力情報に基づいてテキスト生成結果を生成して出力することができる。実際の応用シナリオでは、生成式大規模モデルがテキスト生成結果を生成する効果を向上させるために、生成式大規模モデルの生成結果に対していくつかの対応する処理を行う必要があり、生成式大規模モデルの論理推理が正しいか否かを効率的、正確に決定することを実現し、生成式大規模モデルに対して正確的、効果な評価を行うこともできる。さらに、評価結果に基づいて、逆に生成式大規模モデルを最適化し、生成式大規模モデルのテキスト生成効果をさらに向上させることができる。
【0021】
生成式大規模モデルのテキスト生成結果が通常長いため、複数の文を含むことができる。各結果論理ユニットにおけるフラグメントは、テキスト生成結果における1つの文、又は連続の2つ以上の文であってもよい。すなわちフラグメント在テキスト生成結果において必ず連続する1つのセグメントであり、断続的な2つ以上のセグメントの結合ではない。
【0022】
具体的には、本実施例では、テキスト生成結果を分解する原則は、分解後の各結果論理ユニットが、テキスト生成結果に対して論理関係推理を行う際に、1つの前提又は結論とすることを確保する。
【0023】
S102、複数の結果論理ユニットに基づいて、複数の結果論理ユニット間の論理推理関係を特徴付ける論理推理図を生成し、
【0024】
本実施例の論理推理図は、すなわち複数の結果論理ユニットを論理推理関係に従って構成した有向無循環図である。
【0025】
S103、論理推理図に基づいて、生成式大規模モデルがテキスト生成結果を生成する論理推理が正しいか否かを決定する。
【0026】
論理推理図の生成は、複数の結果論理ユニット間の論理推理関係に基づいて生成されるため、論理推理図における複数の結果論理ユニット間の論理推理関係を参照して、生成式大規模モデルがテキスト生成結果を生成する論理推理が正しいか否かを評価することができ、さらに、論理推理次元から生成式大規模モデルを評価することを実現することができる。すなわち生成式大規模モデルがテキスト生成結果を生成する論理推理が正しい場合、生成式大規模モデルの論理推理が正しいことを示し、生成式大規模モデルがテキスト生成結果を生成する論理推理が正しくない場合、生成式大規模モデルの論理推理が正しくないことを示す。
【0027】
本実施例のモデル生成結果の処理方法は、テキスト生成結果を分解して複数の結果論理ユニットを取得し、複数の結果論理ユニットの論理推理図を生成し、さらに、当該論理推理図に基づいて、生成式大規模モデルがテキスト生成結果を生成する論理推理が正しいか否かを決定することによって、生成式大規模モデルの論理推理が正しいか否かを正確に決定することをさらに効果的に実現する。したがって、本実施例の技術案を使用すると、論理推理の次元から、効率的、正確的に、生成式大規模モデルのテキスト生成結果を効果的に評価し、生成式大規模モデルを効果的に評価することをさらに効率的、正確的に実現することができる。また、本実施例の技術案は、手動による手動処理を行う必要がなく、全自動実行が可能であり、人件費を大幅に低減、評価速度を向上させ、さらに、生成式大規模モデルの評価効率を効果的に向上させることができる。
【0028】
図2は本開示の第2の実施例による概略図である。本実施例のモデル生成結果の処理方法は、上述の図1に示す実施例の技術案に基づいて、さらに、本開示の技術案をより詳細に説明する。図2に示すように、本実施例のモデル生成結果の処理方法は、具体的には、以下のステップを含むことができ、
S201、予めトレーニングされた論理分解モデルを使用して、生成式大規模モデルのテキスト生成結果を分解して、複数の結果論理ユニットを取得し、
当該ステップは上述図1に示す実施例のステップS101の実現方式である。当該実現方式では、予めトレーニングされた論理分解モデルを使用して、自動的にテキスト生成結果を分解する。具体的に実現する時、当該テキスト生成結果を、論理分解モデルに入力し、当該論理分解モデルは、入力されたテキスト生成結果に基づいて、対応する複数の結果論理ユニットを直接出力する。
【0029】
本実施例の当該論理分解モデルは、トレーニング前に、複数グループのトレーニングデータを収集することができ、各グループのトレーニングデータは、トレーニングコーパス、及び手動で当該トレーニングコーパスを分解して取得された複数のトレーニング論理ユニットを含む。分解の原則は、分解後の各トレーニング論理ユニットがトレーニングコーパスに対して論理関係推理を行う時、1つの前提又は結論であることを確保する。次に、複数グループのトレーニングデータを使用して論理分解モデルをトレーニングして、当該論理分解モデルが分解の能力を学習することができる。
【0030】
本実施例では、論理分解モデルを使用して、テキスト生成結果に対してインテリジェントの分解を行うことによって、分解の複数の結果論理ユニットの精度を効果的に向上させることができ、分解効率を向上させることができる。
【0031】
また、選択的には、図1に示す実施例のステップS101は、予め設定された分解ポリシーに従って、生成式大規模モデルのテキスト生成結果を分解して、複数の結果論理ユニットを取得することもできる。
【0032】
例えば、予め設定された分解ポリシーは、分解後の各結果論理ユニットがテキスト生成結果の論理推理関係において、1つの前提又は結論であることを確保するように設定することができる。
【0033】
具体的に実現する時、まず、文の粒度に従ってテキスト生成結果を分割し、次に、すべてのフラグメント分割方式をトラバーサルし、テキスト生成結果の様々な分割結果を取得することができる。各フラグメント分割方式では、1つの文を個別に1つのフラグメントに分割し、又は隣接する2つ又は2つ以上の連続文を1つのフラグメントに分割することができる。次に、各分割結果における各分割のフラグメントを検出し、それがテキスト生成結果の論理推理関係における1つの前提又は1つの結論とすることができるかどうかを検出することができる。最後に、すべての分割結果から、1つの分解されたすべてのフラグメントがすべて1つの前提又は結論とする分割結果とし、最終的に必要な分解結果として選択し、対応する複数の結果論理ユニットを取得することができる。
【0034】
予め設定された分解ポリシー方式に従って分解すると、効率的、正確に複数の結果論理ユニットを取得することもできる。
【0035】
S202、複数の結果論理ユニットに基づいて、予めトレーニングされた論理推理図生成モデルを使用して、複数の結果論理ユニット間の論理推理関係を特徴付ける論理推理図を生成し、
本実施例では、1つの論理推理図生成モデルを予めトレーニングし、使用時に、当該論理推理図生成モデルに複数の結果論理ユニットを入力することができ、当該論理推理図生成モデルは、入力された情報に基づいて、複数の結果論理ユニットで構成された論理推理図を生成することができる。
【0036】
当該論理推理図生成モデルは、トレーニング時に、さらに、複数グループのトレーニングデータを使用してトレーニングして取得することができ、各トレーニングデータは、複数のトレーニング論理ユニット及び複数のトレーニング論理ユニットに基づいてラベリングされたトレーニング論理推理図を含むことができる。複数グループのトレーニングデータを使用して、当該論理推理図生成モデルをトレーニングすることによって、当該論理推理図生成モデルが複数のトレーニング論理ユニットに基づいて、対応するトレーニング論理推理図を生成する能力を学習することができる。
【0037】
使用時に、複数の結果論理ユニットを、上述方式によってトレーニングされた論理推理図生成モデルに入力し、この時、当該論理推理図生成モデルは、複数の結果論理ユニット間の論理推理関係を特徴付ける論理推理図を生成して出力することができる。
【0038】
上述論理推理図生成モデルに基づいて論理推理図をインテリジェント的に生成する方式は、効率的、正確に複数の結果論理ユニットの論理推理図を生成することができる。
【0039】
S203、論理推理図を複数の2層サブ図に分解し、各2層サブ図は、1つの論理推理段階をマーキングし、
具体的には、2層サブ図を分解する際に、論理推理図における推理関係に従って、最小の論理関係サブ図、すなわち2層サブ図を分割する。例えば、図3は本開示により提供される論理推理図である。本実施例の分解プロセスに従って、図3に示す論理推理図を、2つの2層サブ図に分解することができ、例えば、A、B、及びCで構成された2層サブ図と、C、D、及びEで構成された2層サブ図である。各2層サブ図はすなわち1つの論理推理段階に対応する。当該方式によって、論理推理図におけるすべて2層サブ図を分解することができる。
【0040】
S204、各2層サブ図の論理推理が正しいか否かを判定し、
具体的には、判定時に、予めトレーニングされた推理モデルを使用して、各2層サブ図の論理推理が正しいか否かを推理することができる。例えば、使用時に、各2層サブ図を論理推理図において上から下へ左から右への順に、順次に推理モデルに入力することができる。さらに、入力された各2層サブ図によって特徴付けされた論理推理が正しいか否かを推理モデルによって順次に判定する。本実施例の推理モデルは、大規模言語モデル(Large Language Model ;LLM)を使用する実現することもできる。選択的には、本実施例では、一定のポリシーをセットすることによって、各2層サブ図の推理が正しいか否かを判定することもでき、各2層サブ図の論理推理が正しいか否かを正確に判定することもできる。
【0041】
S205、複数の2層サブ図の論理推理がすべて正しいことに応答して、生成式大規模モデルがテキスト生成結果を生成する論理推理が正しいことを決定する。
【0042】
つまり、複数の2層サブ図のうち、1つの2層サブ図の論理推理が正しくない限り、当該生成式大規模モデルがテキスト生成結果を生成する論理推理が正しくないとみなされ、さらに、生成式大規模モデルの論理推理が正しくないと決定する。
【0043】
本実施例のステップS203-S205は、上述図1に示す実施例のステップS103の具体的な実現方式である。
【0044】
具体的には、当該実現方式では、論理推理図を複数の2層サブ図に分解し、各2層サブ図の単一の論理推理段階が正しいか否かを判定することによって、生成式大規模モデルがテキスト生成結果を生成する論理推理が正しいか否かwp判定し、さらに、生成式大規模モデルによって生成された論理推理が正しいか否かを判断する。
【0045】
本実施例では、当該方式によって、毎回1つの2層サブ図のみを判定し、つまり一回に単一の論理推理段階が正しいか否かのみを判定すると、生成式大規模モデルによって生成されたテキスト生成結果の論理推理が正しいか否かを判定する判定難易度を効果的に低減することができ、生成式大規模モデルの論理推理が正しいか否かを判定する精度を効果的に向上させ、さらに、生成式大規模モデルのテキスト生成結果の評価の精度及び評価効率を効果的に向上させることができ、生成式大規模モデルの評価効果を大幅に向上させることができる。
【0046】
本実施例のモデル生成結果の処理方法は、上述方式を使用して、生成式大規模モデルの論理推理が正しいか否かを正確に判定することによって、生成式大規模モデルの評価を自動的に実現することができ、時間と労力を省き、評価速度を効果的に短縮し、生成式大規模モデルの評価効率を向上させる。また、テキスト生成結果の論理推理図によって分解された各2層サブ図の論理推理を判定することによって、テキスト生成結果の論理推理を判定することを実現し、さらに、生成式大規模モデルのテキスト生成結果の評価を実現し、評価の精度及び評価効率を効果的に向上させることができる。
【0047】
図4は本開示の第3の実施例による概略図である。本実施例のモデル生成結果の処理方法は、上述の図1に示す実施例の技術案に基づいて、さらに、本開示の技術案をより詳細に説明する。図4に示すように、本実施例のモデル生成結果の処理方法は、具体的には、以下のステップを含むことができ、
S401、予めトレーニングされた論理分解モデルを使用して、生成式大規模モデルのテキスト入力情報とテキスト生成結果をそれぞれ分解し、複数の入力論理ユニットと複数の結果論理ユニットを取得し、
各入力論理ユニットは、テキスト入力情報中のフラグメントを含み、各フラグメントは、テキスト入力情報の論理推理関係における1つの前提又は結論を独立にマーキングすることができる。各結果論理ユニットは、テキスト生成結果におけるフラグメントを含み、各フラグメントは、テキスト生成結果の論理推理関係における1つの前提又は結論を独立にマーキングできることに対応する。具体的な実現方式は、上述図2に示す実施例のステップS201の関連記載を参照することができ、ここでは説明を省略する。
【0048】
S402、複数の結果論理ユニットに基づいて、複数の入力論理ユニットを参照して、複数の結果論理ユニット間の論理推理関係を特徴付ける論理推理図を生成し、
つまり、本実施例の複数の結果論理ユニットの論理推理図の生成、複数の結果論理ユニットだけでなく、複数の入力論理ユニットを同時に参照する必要がある。
【0049】
例えば、当該ステップS402を具体的に実現する時、以下の
(1)複数の入力論理ユニットと複数の結果論理ユニットに基づいて、予め設定されたサンプルデータベースの中で、関連性が最も高いサンプルを検索するステップと、
(2)複数の入力論理ユニットと複数の結果論理ユニットに基づいて、及び複数の入力サンプル論理ユニット、複数の結果サンプル論理ユニット和に対応するサンプル論理推理図、予めトレーニングされた他の生成式大規模モデルを使用して、複数の結果論理ユニットに対応する論理推理図を生成するステップと、を含むことができる。
【0050】
本実施例の予め設定されたサンプルデータベースでは、複数グループのサンプルが記憶されることができる。各グループのサンプルでは、入力サンプル情報に対応する複数の入力サンプル論理ユニット、結果サンプル情報に対応する複数の結果サンプル論理ユニット及び複数の結果サンプル論理ユニットに対応するサンプル論理推理図を含むことができる。
【0051】
本実施例では、サンプルデータベース中の情報もすべてテキスト形式であり、すなわち各グループのサンプル中の入力サンプル情報はテキスト入力サンプル情報であり、結果サンプル情報はテキスト結果サンプル情報である。すなわち入力サンプル情報は、生成式大規模モデルのテキスト入力情報であってもよく、結果サンプル情報は、生成式大規模モデルによって生成されたテキスト生成結果であってもよい。複数の入力サンプル論理ユニットと複数の結果サンプル論理ユニットは、それぞれ上述ステップS401の複数の入力論理ユニットと複数の結果論理ユニット分解方式を使用して取得することができる。本実施例のサンプル論理推理図は、複数の結果サンプル論理ユニットに基づいて手動でラベリングすることができる。
【0052】
具体的に検索する時、本実施例では、複数の入力論理ユニットと複数の結果論理ユニットに基づいて、予め設定されたサンプルデータベースの中で、関連性が最も高いサンプルを検索することができる。ここの関連性が最も高いサンプルは、複数の入力論理ユニットと複数の結果論理ユニット全体的なコンテキスト語義上で、関連性が最も高い複数の入力サンプル論理ユニットと複数の結果サンプル論理ユニットに対応するサンプルであるとみなすことができる。
【0053】
次に、複数の入力論理ユニットと複数の結果論理ユニット、及び関連性が最も高いサンプルに含まれる各部分情報を結合し、生成式大規模モデルを一緒に入力して、予めトレーニングされた他の生成式大規模モデルが関連性が最も高いサンプルにおける複数の結果サンプル論理ユニットに基づいてサンプル論理推理図の生成方式を生成し、複数の結果サンプル論理ユニットに対応するサンプル論理推理図を生成することができる。本実施例では、予めトレーニングされた他の生成式大規模モデルは、本実施例で評価する生成式大規模モデルではなく、既にトレーニングされた他の生成式大規模モデルである。
【0054】
選択的には、本実施例では、サンプルデータベースにおける各グループのサンプルでは、結果サンプル情報に対応する複数の結果サンプル論理ユニット、及び複数の結果サンプル論理ユニットに対応するサンプル論理推理図のみを含むことができる。
【0055】
この場合に対応して、具体的に検索する時、複数の結果論理ユニットのみに基づいて、予め設定されたサンプルデータベースの中で、関連性が最も高いサンプルを検索し、具体的な複数の結果サンプル論理ユニットと対応するサンプル論理推理図に基づいて、予めトレーニングされた他の生成式大規模モデルを使用して、複数の結果論理ユニットに対応する論理推理図を生成することもできる。
【0056】
しかし、当該実現方式は、上述サンプルデータベースに入力サンプル情報が同時に含まれる対応する複数の入力サンプル論理ユニット及び対応する技術案と比較して、精度が良くない。
【0057】
本実施例では、関連性が最も高いサンプルを検索し、他の生成式大規模モデルを使用して論理推理図をインテリジェント的に生成する方式によって、複数の結果論理ユニットの論理推理図を正確、効率的に生成することができる。
【0058】
S403、論理推理図を複数の2層サブ図に分解し、各2層サブ図は、1つの論理推理段階をマーキングし、
S404、各2層サブ図の論理推理が正しいか否かを判定し、
S405、複数の2層サブ図の推理がすべて正しいことに応答して、生成式大規模モデルがテキスト生成結果を生成する論理推理が正しいことを決定する。
【0059】
本実施例のステップS403-S405の具体的な実現方式は、上述図2に示す実施例のステップS203-S205の記載を参照することができ、ここでは説明を省略する。
【0060】
本実施例のモデル生成結果の処理方法は、上述方式を使用して、複数の結果論理ユニットの論理推理図をより正確、効率的に生成することができ、さらに、生成式大規模モデルの論理推理が正しいか否かを判定する精度を向上させることができ、さらに、生成式大規模モデルの評価の精度及び評価効率を効果的に向上させることができる。
【0061】
以下は具体的な例を挙げて、本開示の生成式大規模モデルの評価方法を説明する。
【0062】
例えば、当該例において、テキスト入力情報queryは以下であり、警察が泥棒を捕まえ、4人の容疑者の甲、乙、丙、丁を捕まえた。彼らの供述は;甲が言ったことは:私が盗んでいません。乙が言ったことは:甲が盗みました。丙が言ったことは:私ではありません。丁が言ったことは:乙が盗みました。真実を語ったのは彼らのうち1人だけであることが知られている。泥棒は誰ですか?
当該テキスト入力情報を生成式大規模モデルに入力し、当該生成式大規模モデルによって生成されたテキスト生成結果responseは、題幹により、「乙が言ったことは:甲が盗みました。甲が言ったことは:私が盗んでいません」であり、そうすると、甲と乙の中には必ず一人が真実を言っており、そうすると、丙と丁はすべてうそを言っており、すなわち丙が嘘を言っており、丙は泥棒である。
【0063】
例えば、ステップS401に基づいて、テキスト入力情報queryを分解して取得された複数の入力論理ユニットは、1番目の入力論理ユニット(query-unit-1)、警察が泥棒を捕まえ、4人の容疑者の甲、乙、丙、丁を捕まえた。彼らの供述は;、2番目の入力論理ユニット(query-unit-2)、甲が言ったことは:私が盗んでいません、3番目の入力論理ユニット(query-unit-3)、乙が言ったことは:甲が盗みました、4番目の入力論理ユニット(query-unit-4)、丙が言ったことは:私ではありません、5番目の入力論理ユニット(query-unit-5)、丁が言ったことは:乙が盗みました、及び6番目の入力論理ユニット(query-unit-6)、真実を語ったのは彼らのうち1人だけであることが知られている、7番目の入力論理ユニット(query-unit-7)、泥棒は誰ですか?、を含む。
同様に、ステップS401に基づいて、テキスト生成結果responseを分解して取得された複数の結果論理ユニットは、含む:1番目の結果論理ユニット(response-unit-1)、乙が言ったことは:甲が盗みました、2番目の結果論理ユニット(response-unit-2)、甲が言ったことは:私が盗んでいません、3番目の結果論理ユニット(response -unit-3)、そうすると、甲と乙の中には必ず一人が真実を言っており、4番目の入力論理ユニット(response -unit-4)、そうすると、丙と丁はすべてうそを言っており、5番目の入力論理ユニット(response-unit-5)、すなわち丙が嘘を言っており、6番目の入力論理ユニット(response-unit-6)、丙は泥棒である。
【0064】
次に、ステップS302の方式に基づいて、複数の結果論理ユニットの論理推理図を生成することができる。
【0065】
本実施例では、論理推理のプロセスは、1つのチェーン型又はツリー型の構造ではなく、1つの有向無循環図のようなものである。論理推理のプロセスは、問題の推理プロセスを表し、生成された論理推理図の各ノードは1つの最小論理ユニットであり、すなわち1つの結果論理ユニットである。論理推理図における各2級サブ図は1つの最小推理プロセスを表す。
【0066】
本実施例のサンプルデータベースは、具体的には、コンテキスト学習(In-Context-Learning;ICL)データベースであってもよい。
【0067】
具体的には、上述ステップS402の具体的な実現方式に基づいて、ICLデータベースで検索することは、ICL検索と呼ぶことができる。具体的に検索する時、複数の入力論理ユニットと複数の結果論理ユニットを入力し、入力された複数の入力論理ユニットと複数の結果論理ユニットに基づいて、ICLデータベースで関連性が最も高いサンプルを検索する。one-shotの方式でプロンプト語(prompt)に結合され、当該結合されたプロンプト語(prompt)の中の関連性が最も高いサンプルにおける複数の入力サンプル論理ユニット、複数の結果サンプル論理ユニット及びサンプル論理推理図を結合して生成される。
【0068】
次に、複数の入力論理ユニットと複数の結果論理ユニット、及び結合されたプロンプト語(prompt)を、生成式大規模モデルを使用して、複数の結果論理ユニットに対応する論理推理図を生成する。例えば、図5は本実施例により生成される論理推理図の概略図である。
【0069】
最後に、図5で取得された論理推理図に基づいて論理判定を行う。実際の応用では、全体の論理推理図の正しさを一度に判定することは比較的難しいので、上述ステップS403-S405の実現方式を参照することができ、まず、論理推理図を一つ一つの2層サブ図に分解し、各2層サブ図は、1つの論理推理段階表し、毎回1つの2層サブ図のみを判定し、つまり一回に単一の論理推理段階が正しいか否かのみを判定し、この方式は全体的なの判定難易度を低減し、判定効果を大幅に向上させる。
【0070】
具体的な判定プロセスでは、LLM実現に基づいて論理推理モデルを使用して実現することができる。LLMを使用して下から上への順に論理推理図における各2層サブ図の論理推理段階の正しさを判定し、各論理推理段階がすべて正しいである場合、全体の論理推理プロセスはすべて正しく、そうではない場合、論理推理プロセスに論理性問題が存在すると判定する。この方法は、論理推理類問題を提供した論理推理の正しさを判定するだけでなく、またエラーが発生した段階を正確にポジショニングすることができる。
【0071】
例えば、図6A図6B、及び図6Cはそれぞれ図5に示す論理推理図を分割した2層サブ図である。図6A図6B、及び図6Cの3つの2層サブ図の論理推理段階がすべて正しいと判定された場合、生成式大規模モデルによって生成されたテキスト生成結果の論理推理が正しいことを判定することができ、生成式大規模モデルを評価することを実現する。
【0072】
本開示の実施例の上述方法は、生成式大規模モデルに基づいて生成された1つのテキスト生成結果を評価する。実際の応用シナリオでは、1つのセグメント時間内に、生成式大規模モデルは、複数回の生成タスクを実行することができる。具体的には、本開示の実施例の上述方式によって、生成タスクを毎回実行する場合、生成式大規模モデルがテキスト生成結果を生成する論理推理が正しいか否かを評価することができる。さらに、当該段時間の正確率が、例えば、95%、98%、又は他の比例などの、予め設定された比例閾値に達したか否かを統計することができ、達した場合、当該生成式大規模モデルの正確率が高く、効果が良いことを決定し、そうではない場合、当該生成式大規模モデルの正確率と効果がよくないとみなすことができる。
【0073】
論理性は、生成式大規模モデルの論理推理能力の良い悪さ体現する最も重要な次元であり、いくつかの複雑な論理推理タスクを解決するために必要な能力であり、評価段階でモデルテキスト生成結果の中の論理性問題を見つけた場合、そうすると、論理推理問題の効果評価と効果最適化に重要な役割を果たすことができる。他の次元と比べて、論理性はより高い知能の体現であり、論理性評価の難易度が極めて高く、従来の方法は比較的に良い効果を達成することが困難であるため、本開示により提供されるモデル生成結果の処理方法は、論理性の角度から、生成式大規模モデルを評価することは、生成式大規模モデル向けの論理推理の自動評価フレームワークであり、より効果的に生成式大規模モデルの論理論理性を評価することができ、生成式大規模モデルの論理推理の評価精度及び評価効果を効果的に向上させることができる。
【0074】
本開示の実施例の上述モデル生成結果の処理方法は、まず、論理ユニットの分割を行い、次に、論理推理図を生成し、論理推理図における各2層サブ図を取得し、次に、各2層サブ図が粒度であり、すなわち最小論理推理段階を評価することによって、生成式大規模モデルの論理推理が正しいか否かを決定する難易度を大幅に低減させることができ、すなわち生成式大規模モデルの評価難易度を効果的に低減させることができ、さらに、生成式大規模モデルの評価効果を大幅に向上させる。
【0075】
また、本開示の実施例の上述モデル生成結果の処理方法は、自然言語を使用して全体の推理プロセスを表し、汎用性がより高く、より多くのタイプの問題に適用することができる。
【0076】
また、本開示の実施例の上述モデル生成結果の処理方法は、論理推理図を生成することによって、全体的な論理推理の論理推理プロセスを表し、テキスト生成結果の論理推理エラーを効果的に検出するだけではなく、論理推理の欠落、論理推理の逆転の状況を検出することもでき、データ論理修復に使用されることができる。
【0077】
また、本開示の実施例の上述モデル生成結果の処理方法は、生成式大規模モデルの論理推理が正しいか否かを正確に決定することができ、さらに、生成式大規模モデルの評価を自動的に実現することができ、時間と労力を省き、評価速度を効果的に短縮し、評価効率を効果的に向上させることができる。また、論理推理図を生成する方式によって評価し、及び最小論理ユニット、すなわち論理推理図の各2層サブ図の論理推理を評価する方式によって、生成式大規模モデルの論理推理が正しいか否かの精度をさらに効果的に向上させ、さらに、生成式大規模モデル評価の精度を効果的に向上させ、評価効率を向上させることができる。
【0078】
上述本開示の実施例では、テキスト処理分野に応用されることを例とし、実際の応用では、本開示の技術案は、音声処理分野に応用されることもできる。例えば、まず、音声情報を収集し、音声認識によって、対応するテキスト情報を取得することができる。次に、テキスト情報に基づいて、本開示の上述技術案を使用して、モデルの生成結果を処理することを実現し、さらに生成式大規模モデルの論理推理が正しいか否かを正確に決定することを効率的、正確的に実現し、最終的に、生成式大規模モデルを正確、かつ効果的に評価することを実現することができる。
【0079】
図7は本開示の第4の実施例による概略図である。図7に示すように、本実施例はモデル生成結果の処理装置700を提供し、テキスト処理分野に適用され、分解モジュール701、生成モジュール702、及び評価モジュール703を含み、
分解モジュール701は、生成式大規模モデルのテキスト生成結果を分解して、複数の結果論理ユニットを取得するために使用され、各前記結果論理ユニットは、前記テキスト生成結果におけるフラグメントを含み、各前記フラグメントは、前記テキスト生成結果の論理推理関係における1つの前提又は結論を独立にマーキングでき、前記テキスト生成結果は、前記生成式大規模モデルがテキスト入力情報に基づいて生成された応答結果であり、
生成モジュール702は、前記複数の結果論理ユニットに基づいて、前記複数の結果論理ユニット間の論理推理関係を特徴付ける論理推理図を生成するために使用され、
評価モジュール703は、前記論理推理図に基づいて、前記生成式大規模モデルが前記テキスト生成結果を生成する論理推理が正しいか否かを評価するために使用される。
【0080】
本実施例のモデル生成結果の処理装置700は、上述モジュールを使用してモデル生成結果の処理の実現原理及び技術的効果を実現し、上述関連方法の実施例の実現と同じであり、詳細は上述関連方法の実施例の記載を参照することができ、ここでは説明を省略する。
【0081】
図8は本開示の第5の実施例による概略図である。図8に示すように、本実施例はモデル生成結果の処理装置800を提供し、上述図7に示されるものと同じ名前の同機能のモジュール:分解モジュール801、生成モジュール802、及び評価モジュール803を含む。
【0082】
本実施例のモデル生成結果の処理装置800では、分解モジュール801は、
予めトレーニングされた論理分解モデルを使用して、前記生成式大規模モデルのテキスト生成結果を分解して、複数の結果論理ユニットを取得するために使用される。
【0083】
さらに選択的には、本開示の1つの実施例では、生成モジュール802は、
前記複数の結果論理ユニットに基づいて、予めトレーニングされた論理推理図生成モデルを使用して、前記複数の結果論理ユニット間の論理推理関係を特徴付ける論理推理図を生成するために使用される。
【0084】
さらに選択的には、本開示の1つの実施例では、分解モジュール801は、さらに、
生成式大規模モデルのテキスト入力情報を分解して、複数の入力論理ユニットを取得するために使用され、各前記入力論理ユニットは、前記テキスト入力情報中のフラグメントを含み、各前記フラグメントは、論理推理関係における1つの前提又は結論を独立にマーキングすることができる。
【0085】
さらに選択的には、本開示の1つの実施例では、生成モジュール802は、
前記複数の結果論理ユニットに基づいて、前記複数の入力論理ユニットを参照して、前記複数の結果論理ユニット間の論理推理関係を特徴付ける前記論理推理図を生成するために使用される。
【0086】
さらに選択的には、本開示の1つの実施例では、生成モジュール802は、
前記複数の入力論理ユニットと前記複数の結果論理ユニットに基づいて、予め設定されたサンプルデータベースの中で、関連性が最も高いサンプルを検索し、前記サンプルデータベースは複数グループのサンプルを含み、各前記サンプルは、入力サンプル情報に対応する複数の入力サンプル論理ユニット、結果サンプル情報に対応する複数の結果サンプル論理ユニット、及び複数の結果サンプル論理ユニットに対応するサンプル論理推理図を含み、
前記複数の入力論理ユニットと前記複数の結果論理ユニット、前記複数の入力サンプル論理ユニット、前記複数の結果サンプル論理ユニット、及び対応する前記サンプル論理推理図に基づいて、予めトレーニングされた他の生成式大規模モデルを使用して、前記複数の結果論理ユニットに対応する前記論理推理図を生成するために使用される。
【0087】
さらに選択的には、図8に示すように、本開示の1つの実施例では、評価モジュール803は、分解ユニット8031、判定ユニット8032、及び決定ユニット8033を含み、
分解ユニット8031は、前記論理推理図を複数の2層サブ図に分解するために使用され、各前記2層サブ図は、1つの論理推理段階をマーキングし、
判定ユニット8032は、各前記2層サブ図の論理推理が正しいか否かを判定するために使用され、
決定ユニット8033は、前記複数の2層サブ図の論理推理がすべて正しいことに応答して、前記生成式大規模モデルが前記テキスト生成結果を生成する論理推理が正しいことを決定するために使用される。
【0088】
本実施例のモデル生成結果の処理装置800は、上述モジュールを使用してモデル生成結果の処理の実現原理及び技術的効果を実現し、上述関連方法の実施例の実現と同じであり、詳細は上述関連方法の実施例の記載を参照することができ、ここでは説明を省略する。
【0089】
本開示の技術案において、関連するユーザ個人情報の取得、記憶、応用などは、すべて関連する法律法規の規定に符合し、かつ公序良俗に違反しない。
【0090】
本開示の実施例によれば、本開示は電子機器、読み取り可能な記憶媒体及びコンピュータプログラム製品をさらに提供する。
【0091】
図9に示すように、本開示の実施例を実施するための電子機器900のブロック図である。電子機器は、ラップトップコンピュータ、デスクトップコンピュータ、ワークステーション、携帯情報端末、サーバ、ブレードサーバ、大型コンピュータ、及び他の適切なコンピュータなどの様々な形式のデジタルコンピュータを表すことを目的とする。電子機器は、パーソナルデジタル処理、携帯電話、スマートフォン、ウェアラブルデバイス、他の同様の計算デバイスなどの様々な形式のモバイルデバイスを表すこともできる。本明細書で示されるコンポーネント、それらの接続と関係、及びそれらの機能は単なる例であり、本明細書の説明及び/又は要求される本開示の実現を制限することを意図したものではない。
【0092】
図9に示すように、機器900は計算ユニット901を含み、計算ユニット901は、読み取り専用メモリ(ROM)902に記憶されているコンピュータプログラムまたは記憶ユニット908からランダムアクセスメモリ(RAM)903にローディングされたコンピュータプログラムに基づいて、様々な適切な動作と処理を実行することができる。RAM903には、機器900が動作するに必要な様々なプログラムとデータも記憶することができる。計算ユニット901、ROM902、およびRAM903は、バス904を介してお互いに接続される。入出力(I/O)インターフェース905もバス904に接続される。
【0093】
機器900内の複数のコンポーネントは、I/Oインターフェース905に接続されており、キーボード、マウスなどの入力ユニット906と、様々なタイプのディスプレイ、スピーカなどの出力ユニット907と、ディスク、光ディスクなどの記憶ユニット908と、およびネットワークカード、モデム、無線通信トランシーバなどの通信ユニット909と、を含む。通信ユニット909は、機器900が、インターネットなどのコンピュータネットワーク、および/または様々な電気通信ネットワークを介して他の機器と情報/データを交換することを可能にする。
【0094】
計算ユニット901は、様々な処理と計算能力を備える汎用および/または専用の処理コンポーネントである。計算ユニット901のいくつかの例は、中央処理装置(CPU)、グラフィックス処理ユニット(GPU)、様々な専用の人工知能(AI)計算チップ、様々な機械学習モデルアルゴリズムを実行する計算ユニット、デジタル信号プロセッサ(DSP)、および任意の適切なプロセッサ、コントローラ、マイクロコントローラなどを含むが、これらに限定されない。計算ユニット901は、地形地図を構築する方法などの上記の様々な方法と処理を実行する。例えば、いくつかの実施例では、地形地図を構築する方法は、記憶ユニット908などの機械読み取り可能な媒体に有形的に含まれるコンピュータソフトウェアプログラムとして実現することができる。いくつかの実施例では、コンピュータプログラムの一部または全部は、ROM902および/または通信ユニット909を介して機器900にローディングおよび/またはインストールされる。コンピュータプログラムがRAM903にローディングされて計算ユニット901によって実行される場合、上記の方法の一つまたは複数のステップを実行することができる。代替的に、他の実施例では、計算ユニット901は、他の任意の適切な方式(例えば、ファームウェアによって)を介して地形地図を構築する方法を実行するように構成されることができる。
【0095】
本明細書で説明されるシステムと技術の様々な実施方式は、デジタル電子回路システム、集積回路システム、フィールドプログラマブルゲートアレイ(FPGA)、特定用途向け集積回路(ASIC)、特定用途向け標準製品(ASSP)、システムオンチップシステム(SOC)、ローディングプログラマブルロジックデバイス(CPLD)、コンピュータハードウェア、ファームウェア、ソフトウェア、及び/又はそれらの組み合わせで実現することができる。これらの様々な実施方式は、一つ又は複数のコンピュータプログラムで実施されることを含むことができ、当該一つ又は複数のコンピュータプログラムは、少なくとも一つのプログラマブルプロセッサを含むプログラム可能なシステムで実行及び/又は解釈されることができ、当該プログラマブルプロセッサは、特定用途向け又は汎用プログラマブルプロセッサであってもよく、ストレージシステム、少なくとも一つの入力装置、及び少なくとも一つの出力装置からデータ及び命令を受信し、データ及び命令を当該ストレージシステム、当該少なくとも一つの入力装置、及び当該少なくとも一つの出力装置に伝送することができる。
【0096】
本開示の方法を実施するためのプログラムコードは、一つまたは複数のプログラミング言語の任意の組み合わせを使用して作成することができる。これらのプログラムコードは、プログラムコードがプロセッサまたはコントローラによって実行される時にフローチャートおよび/またはブロック図に規定された機能/動作が実施されるように、汎用コンピュータ、専用コンピュータ、または他のプログラム可能なデータ処理装置のプロセッサまたはコントローラに提供することができる。プログラムコードは、完全に機械上で実行されたり、部分的に機械上で実行されたり、独立したソフトウェアパッケージとして部分的に機械上で実行され、部分的にリモート機械上実行されたり、または完全にリモート機械またはサーバ上で実行されたりすることができる。
【0097】
本開示のコンテキストにおいて、機械読み取り可能な媒体は、命令実行システム、装置、または機器の使用、または命令実行システム、装置または機器と組み合わせて使用するプログラムを含むか、または記憶することができる有形の媒体であってもよい。機械読み取り可能な媒体は、機械読み取り可能な信号媒体または機械読み取り可能な記憶媒体であってもよい。機械読み取り可能な媒体は、電子、磁気、光学、電磁気、赤外線、または半導体システム、装置または機器、または上記の内容の任意の適切な組み合わせを含むが、これらに限定されない。機械読み取り可能な記憶媒体のより具体的な例は、一つまたは複数のワイヤに基づく電気接続、ポータブルコンピュータディスク、ハードディスク、ランダムアクセスメモリ(RAM)、読み取り専用メモリ(ROM)、消去可能プログラマブル読み取り専用メモリ(EPROM またはフラッシュメモリ)、光ファイバ、ポータブルコンパクトディスク読み取り専用メモリ(CD-ROM)、光学記憶装置、磁気記憶装置、または上記の内容の任意の適切な組み合わせを含む。
【0098】
ユーザとのインタラクションを提供するために、コンピュータ上でここで説明されているシステム及び技術を実施することができ、当該コンピュータは、ユーザに情報を表示するためのディスプレイ装置(例えば、CRT(陰極線管)又はLCD(液晶ディスプレイ)モニタ)と、キーボード及びポインティングデバイス(例えば、マウス又はトラックボール)とを有し、ユーザは、当該キーボード及び当該ポインティングデバイスによって入力をコンピュータに提供することができる。他の種類の装置は、ユーザとのインタラクションを提供するために用いられることもでき、例えば、ユーザに提供されるフィードバックは、任意の形式のセンシングフィードバック(例えば、視覚フィードバック、聴覚フィードバック、又は触覚フィードバック)であってもよく、任意の形式(音響入力と、音声入力と、触覚入力とを含む)でユーザからの入力を受信することができる。
【0099】
ここで説明されるシステム及び技術は、バックエンドコンポーネントを含むコンピューティングシステム(例えば、データサーバとする)、又はミドルウェアコンポーネントを含むコンピューティングシステム(例えば、アプリケーションサーバー)、又はフロントエンドコンポーネントを含むコンピューティングシステム(例えば、グラフィカルユーザインタフェース又はウェブブラウザを有するユーザコンピュータ、ユーザは、当該グラフィカルユーザインタフェース又は当該ウェブブラウザによってここで説明されるシステム及び技術の実施方式とインタラクションする)、又はこのようなバックエンドコンポーネントと、ミドルウェアコンポーネントと、フロントエンドコンポーネントの任意の組み合わせを含むコンピューティングシステムで実施することができる。任意の形式又は媒体のデジタルデータ通信(例えば、通信ネットワーク)によってシステムのコンポーネントを相互に接続されることができる。通信ネットワークの例は、ローカルエリアネットワーク(LAN)と、ワイドエリアネットワーク(WAN)と、インターネットと、ブロックチェーンネットワークと、を含む。
【0100】
コンピュータシステムは、クライアントとサーバとを含むことができる。クライアントとサーバは、一般に、互いに離れており、通常に通信ネットワークを介してインタラクションする。対応するコンピュータ上で実行され、互いにクライアント-サーバ関係を有するコンピュータプログラムによってクライアントとサーバとの関係が生成される。サーバは、クラウドサーバであってもよく、分散システムのサーバであってもよく、またはブロックチェーンを組み合わせるサーバであってもよい。
【0101】
上記に示される様々な形式のフローを使用して、ステップを並べ替え、追加、又は削除することができることを理解されたい。例えば、本開示に記載されている各ステップは、並列に実行されてもよいし、順次的に実行されてもよいし、異なる順序で実行されてもよいが、本開示で開示されている技術案が所望の結果を実現することができれば、本明細書では限定されない。
【0102】
上記の具体的な実施方式は、本開示に対する保護範囲の制限を構成するものではない。当業者は、設計要求と他の要因に基づいて、様々な修正、組み合わせ、サブコンビネーション、及び代替を行うことができる。任意の本開示の精神と原則内で行われる修正、同等の置換、及び改善などは、いずれも本開示の保護範囲内に含まれなければならない。
図1
図2
図3
図4
図5
図6A
図6B
図6C
図7
図8
図9