(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2022140337
(43)【公開日】2022-09-26
(54)【発明の名称】文章評価システム、文章評価方法及び文章評価プログラム
(51)【国際特許分類】
G06F 40/253 20200101AFI20220915BHJP
【FI】
G06F40/253
【審査請求】未請求
【請求項の数】7
【出願形態】OL
(21)【出願番号】P 2022032736
(22)【出願日】2022-03-03
(31)【優先権主張番号】P 2021039296
(32)【優先日】2021-03-11
(33)【優先権主張国・地域又は機関】JP
(71)【出願人】
【識別番号】592131906
【氏名又は名称】みずほリサーチ&テクノロジーズ株式会社
(74)【代理人】
【識別番号】100105957
【弁理士】
【氏名又は名称】恩田 誠
(74)【代理人】
【識別番号】100068755
【弁理士】
【氏名又は名称】恩田 博宣
(72)【発明者】
【氏名】相澤 祐一
(72)【発明者】
【氏名】鋤田 大日
(72)【発明者】
【氏名】笠間 俊夫
【テーマコード(参考)】
5B091
【Fターム(参考)】
5B091AA15
5B091CA01
5B091CD11
5B091EA01
(57)【要約】
【課題】文章の論理性を評価するための文章評価システム、文章評価方法及び文章評価プログラムを提供する。
【解決手段】支援サーバ20は、先行文と後続文との関係を評価するセンテンス評価モデルと、先行グループと後続グループとの関係を評価するグループ評価モデルとが記録された学習結果記憶部23に接続され、文章の論理性を評価する制御部21を備える。そして、制御部21が、評価対象文章を構成する文に分割し、学習結果記憶部23に記録されたセンテンス評価モデルに入力して、文間評価値を算出し、文間評価値を用いて、文を構成するグループのグループ間評価値を算出し、評価対象文章を構成する先行グループのグループ評価値と、後続グループのグループ評価値とを、学習結果記憶部23に記録されたグループ評価モデルに入力して、グループ間評価値を算出し、出力する。
【選択図】
図1
【特許請求の範囲】
【請求項1】
先行文と後続文との関係を評価するセンテンス評価モデルと、先行グループと後続グループとの関係を評価するグループ評価モデルとが記録された学習結果記憶部に接続され、
文章の論理性を評価する制御部を備えた文章評価システムであって、
前記制御部が、
評価対象文章を構成する文に分割し、
前記学習結果記憶部に記録されたセンテンス評価モデルに、前記分割した文を入力して、文間評価値を算出し、
前記文間評価値を用いて、前記文を構成するグループのグループ評価値を算出し、
前記評価対象文章を構成する先行グループのグループ評価値と、後続グループのグループ評価値とを、前記学習結果記憶部に記録されたグループ評価モデルに入力して、グループ間評価値を算出し、
前記算出したグループ間評価値を出力することを特徴とする文章評価システム。
【請求項2】
前記制御部が、正しい文章からなる正例と、前記正例の文を並び替えた負例とを含む教師情報を用いた機械学習により、前記センテンス評価モデル及び前記グループ評価モデルを生成することを特徴とする請求項1に記載の文章評価システム。
【請求項3】
前記制御部が、正しい文章からなる正例と、前記正例のグループを並び替えた負例とを含む教師情報を用いた機械学習により、前記センテンス評価モデル及び前記グループ評価モデルを生成することを特徴とする請求項1又は2に記載の文章評価システム。
【請求項4】
前記制御部が、正しい文章からなる正例と、前記正例の接続詞を変更した負例とを含む教師情報を用いた機械学習により、前記センテンス評価モデル及び前記グループ評価モデルを生成することを特徴とする請求項1~3の何れか一項に記載の文章評価システム。
【請求項5】
前記接続詞は、階層化された分類で分けられており、
前記階層化された分類を組み合わせて、前記センテンス評価モデル及び前記グループ評価モデルを生成することを特徴とする請求項4に記載の文章評価システム。
【請求項6】
先行文と後続文との関係を評価するセンテンス評価モデルと、先行グループと後続グループとの関係を評価するグループ評価モデルとが記録された学習結果記憶部に接続され、
文章の論理性を評価する制御部を備えた文章評価システムを用いて、文章を評価する方法であって、
前記制御部が、
評価対象文章を構成する文に分割し、
前記学習結果記憶部に記録されたセンテンス評価モデルに、前記分割した文を入力して、文間評価値を算出し、
前記文間評価値を用いて、前記文を構成するグループのグループ評価値を算出し、
前記評価対象文章を構成する先行グループのグループ評価値と、後続グループのグループ評価値とを、前記学習結果記憶部に記録されたグループ評価モデルに入力して、グループ間評価値を算出し、
前記算出したグループ間評価値を出力することを特徴とする文章評価方法。
【請求項7】
先行文と後続文との関係を評価するセンテンス評価モデルと、先行グループと後続グループとの関係を評価するグループ評価モデルとが記録された学習結果記憶部に接続され、
文章の論理性を評価する制御部を備えた文章評価システムを用いて、文章を評価する文章評価プログラムであって、
前記制御部を、
評価対象文章を構成する文に分割し、
前記学習結果記憶部に記録されたセンテンス評価モデルに、前記分割した文を入力して、文間評価値を算出し、
前記文間評価値を用いて、前記文を構成するグループのグループ評価値を算出し、
前記評価対象文章を構成する先行グループのグループ評価値と、後続グループのグループ評価値とを、前記学習結果記憶部に記録されたグループ評価モデルに入力して、グループ間評価値を算出し、
前記算出したグループ間評価値を出力する手段として機能させるための文章評価プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、文章の論理性を評価する文章評価システム、文章評価方法及び文章評価プログラムに関する。
【背景技術】
【0002】
従来、文章の書き方を評価することがある。例えば、採点対象の答案に含まれる要素間の論理関係に対して評価を行なう技術が検討されている(例えば、特許文献1。)。この特許文献に記載された文章評価装置は、第1の文章を構成する第1事象の間に成り立つ第1論理関係を取得する取得手段と、評価対象である第2の文章から、第2の文章を構成する第2事象の間に成り立つ第2論理関係を抽出する論理関係抽出手段と、第1論理関係と第2論理関係との比較により、第2の文章を評価する評価手段とを備える。
【先行技術文献】
【特許文献】
【0003】
【発明の概要】
【発明が解決しようとする課題】
【0004】
しかしながら、特許文献1に記載された技術では、第1の文章として、第2の文章に対する評価の基準となる文章を用いる。この場合、基準となる文章が必要となり、任意の文章の論理性等について、書き方を評価することができない。
【課題を解決するための手段】
【0005】
上記課題を解決する文章評価システムは、先行文と後続文との関係を評価するセンテンス評価モデルと、先行グループと後続グループとの関係を評価するグループ評価モデルとが記録された学習結果記憶部に接続され、文章の論理性を評価する制御部を備える。そして、前記制御部が、評価対象文章を構成する文に分割し、前記学習結果記憶部に記録されたセンテンス評価モデルに入力して、文間評価値を算出し、前記文間評価値を用いて、前記文を構成するグループのグループ間評価値を算出し、前記文章を構成する先行グループのグループ評価値と、後続グループのグループ評価値とをグループ評価モデルに入力して、グループ間評価値を算出し、出力する。
【発明の効果】
【0006】
本発明によれば、文章の論理性を評価することができる。
【図面の簡単な説明】
【0007】
【発明を実施するための形態】
【0008】
図1~
図7に従って、文章評価システム、文章評価方法及び文章評価プログラムを具体化した一実施形態を説明する。本実施形態では、文章の論理性を評価する場合を想定する。ここでは、文章は、複数の段落(グループ)から構成される。各段落は複数の文を含み、文と段落との2段階で論理性の評価を行なう。
図1に示すように、本実施形態の文章評価システムは、ユーザ端末10、支援サーバ20を用いる。
【0009】
(ハードウェア構成例)
図2は、ユーザ端末10、支援サーバ20等として機能する情報処理装置H10のハードウェア構成例である。
【0010】
情報処理装置H10は、通信装置H11、入力装置H12、表示装置H13、記憶装置H14、プロセッサH15を有する。なお、このハードウェア構成は一例であり、他のハードウェアを有していてもよい。
【0011】
通信装置H11は、他の装置との間で通信経路を確立して、データの送受信を実行するインタフェースであり、例えばネットワークインタフェースカードや無線インタフェース等である。
【0012】
入力装置H12は、利用者等からの入力を受け付ける装置であり、例えばマウスやキーボード等である。表示装置H13は、各種情報を表示するディスプレイやタッチパネル等である。
【0013】
記憶装置H14は、ユーザ端末10、支援サーバ20の各種機能を実行するためのデータや各種プログラムを格納する記憶装置である。記憶装置H14の一例としては、ROM、RAM、ハードディスク等がある。
【0014】
プロセッサH15は、記憶装置H14に記憶されるプログラムやデータを用いて、ユーザ端末10、支援サーバ20における各処理(例えば、後述する制御部21における処理)を制御する。プロセッサH15の一例としては、例えばCPUやMPU等がある。このプロセッサH15は、ROM等に記憶されるプログラムをRAMに展開して、各種処理に対応する各種プロセスを実行する。例えば、プロセッサH15は、ユーザ端末10、支援サーバ20のアプリケーションプログラムが起動された場合、後述する各処理を実行するプロセスを動作させる。
【0015】
プロセッサH15は、自身が実行するすべての処理についてソフトウェア処理を行なうものに限られない。例えば、プロセッサH15は、自身が実行する処理の少なくとも一部についてハードウェア処理を行なう専用のハードウェア回路(例えば、特定用途向け集積回路:ASIC)を備えてもよい。すなわち、プロセッサH15は、(1)コンピュータプログラム(ソフトウェア)に従って動作する1つ以上のプロセッサ、(2)各種処理のうち少なくとも一部の処理を実行する1つ以上の専用のハードウェア回路、或いは(3)それらの組み合わせ、を含む回路(circuitry)として構成し得る。プロセッサは、CPU並びに、RAM及びROM等のメモリを含み、メモリは、処理をCPUに実行させるように構成されたプログラムコード又は指令を格納している。メモリすなわちコンピュータ可読媒体は、汎用又は専用のコンピュータでアクセスできるあらゆる利用可能な媒体を含む。
【0016】
(各情報処理装置の機能)
図1を用いて、ユーザ端末10、支援サーバ20の機能を説明する。
ユーザ端末10は、本システムを利用するユーザが用いるコンピュータ端末である。
【0017】
支援サーバ20は、文章の論理性を評価するためのコンピュータシステムである。この支援サーバ20は、制御部21、教師情報記憶部22、学習結果記憶部23を備えている。
【0018】
制御部21は、後述する処理(取得段階、表現分析段階、学習段階、センテンス評価段階、パラグラフ評価段階等を含む処理)を行なう。このための文章評価プログラムを実行することにより、制御部21は、取得部211、表現分析部212、学習部213、センテンス評価部214、パラグラフ評価部215等として機能する。
【0019】
取得部211は、教師情報を作成するための文章や、評価対象の文章を取得する処理を実行する。
表現分析部212は、各文(センテンス)の特徴量として、分散表現(単語埋め込み)処理を実行する。この場合、センテンスベクトルは、各単語のベクトル列を用いてもよいし、各単語のベクトルを総和して1つのベクトルとしてもよい。この分散表現では、文字・単語を多次元のベクトル空間に埋め込み、センテンスを、このベクトル空間の点として把握することができる。この分散表現では、センテンスに含まれる概念を表現する際に、他の概念との共通点や類似性と紐づけながら、ベクトル空間上に表現する。本実施形態では、「Word2Vec」を用いて、単語の共起確率を学習した分散表現モデルを用いて分散表現を生成する。なお、分散表現の生成方法は、「Word2Vec」に限定されるものではなく、「ELMo」(Embeddings from Language Model)、「BERT」(Bidirectional Encoder Representations from Transformers)等を用いることも可能である。
【0020】
学習部213は、センテンス評価モデル、パラグラフ評価モデルを作成する処理を実行する。本実施形態では、「LSTM(Long short-term memory)」又は「Bi-LSTM(Bidirectional Long short-term memory)」(以下、「LSTM」と呼ぶ)を用いる。
【0021】
センテンス評価部214は、センテンス評価モデルを用いて、段落において連続する文間(センテンス間)の論理性を評価する処理を実行する。
パラグラフ評価部215は、パラグラフ評価モデルを用いて、文章において連続する段落間(パラグラフ間)の論理性を評価する処理を実行する。
【0022】
教師情報記憶部22には、学習に用いる教師情報が記録される。この教師情報は、教師情報の作成処理が行なわれた場合に記録される。教師情報には、正負フラグ、教師文章に関するデータが記録される。
【0023】
正負フラグデータ領域には、正例又は負例を識別するためのフラグが記録される。正例は論理性がある文章であり、負例は論理性がない文章である。本実施形態では、正例フラグとして値「1」、負例フラグとして値「0」を用いる。
教師文章データ領域には、複数のパラグラフにより構成された文章に関するデータが記録される。各パラグラフは、複数のセンテンスを含む。
【0024】
学習結果記憶部23には、分散表現を生成する分散表現モデルや、文書の論理性の評価に用いる評価モデルが記録される。本実施形態の評価モデルは、第1セルフアテンション、センテンス用LSTM、第2セルフアテンション、パラグラフ用LSTMの各処理を含んで構成される。センテンス評価モデルは、センテンス間の論理性を評価する。グループ評価モデルとしてのパラグラフ評価モデルは、パラグラフ間の論理性を評価する。第1、第2セルフアテンション処理により、入力系列を同じ長さの系列に変換し、学習処理の中で与えられた系列の中で正負の決定にかかわる情報の重み付けを行なう。この重み付けを観察することで、どのような文章の要素が論理性に関わるかを可視化することができる。
【0025】
(教師情報の生成処理)
図3を用いて、教師情報の生成処理を説明する。
まず、支援サーバ20の制御部21は、正例の取得処理を実行する(ステップS101)。具体的には、制御部21の取得部211は、ユーザ端末10において指定された各種サイトから複数のサンプル文書を取得する。例えば、サンプル文書としては、インターネットで公開されているニュース記事、論文、公的文書等、論理性がある文書を用いることができる。次に、取得部211は、取得したサンプル文書において、所定数の単語・文字、所定数のセンテンス、所定数のパラグラフからなる、所定のまとまりがある文章を正例として抽出する。なお、所定のまとまりがある文章は、ユーザ端末10を用いて、管理者が指定してもよい。
【0026】
次に、支援サーバ20の制御部21は、正例の登録処理を実行する(ステップS102)。具体的には、制御部21の取得部211は、抽出した正例を、正例フラグに関連付けて教師情報記憶部22に記録する。
【0027】
次に、支援サーバ20の制御部21は、パラグラフ内のセンテンスの並び替え処理を実行する(ステップS103)。具体的には、制御部21の取得部211は、正例を構成するパラグラフ内で複数のセンテンスの順番をランダムに並び替えた第1負例を生成する。
【0028】
次に、支援サーバ20の制御部21は、パラグラフの並び替え処理を実行する(ステップS104)。具体的には、制御部21の取得部211は、正例を構成する複数のパラグラフの順番をランダムに並び替えた第2負例を生成する。
【0029】
次に、支援サーバ20の制御部21は、センテンス及びパラグラフの並び替え処理を実行する(ステップS105)。具体的には、制御部21の取得部211は、正例を構成する複数のパラグラフの順番をランダムに並び替えた文章を生成する。更に、取得部211は、この文章のパラグラフ内の複数のセンテンスの順番をランダムに並び替えた第3負例を生成する。
【0030】
次に、支援サーバ20の制御部21は、負例の選択処理を実行する(ステップS106)。具体的には、制御部21の取得部211は、生成した第1負例~第3負例の中で、任意の負例を選択する。
【0031】
次に、支援サーバ20の制御部21は、負例の登録処理を実行する(ステップS107)。具体的には、制御部21の取得部211は、選択した負例を、負例フラグに関連付けて教師情報記憶部22に記録する。
【0032】
(学習処理)
次に、
図4を用いて、学習処理を説明する。
まず、支援サーバ20の制御部21は、分散表現モデルの生成処理を実行する(ステップS201)。具体的には、制御部21の表現分析部212は、教師情報記憶部22に記録された教師情報(教師文章)を構成するすべてのセンテンスを取得し、単語の共起確率を学習した分散表現モデルを生成する。そして、表現分析部212は、生成した分散表現モデルを、学習結果記憶部23に記録する。そして、表現分析部212は、生成した分散表現モデルを用いて、教師情報記憶部22に記録されたすべてのセンテンスの分散表現(センテンスベクトル)を生成する。なお、他の教師情報を用いて生成された既存の分散表現モデルを取得して利用するようにしてもよい。
【0033】
次に、支援サーバ20の制御部21は、評価モデルの生成処理を実行する(ステップS202)。具体的には、制御部21の学習部213は、センテンス間、パラグラフ間の関係を評価するための評価モデルを生成する。
【0034】
この評価モデルにおいては、以下の処理を実行するように構成される。
まず、教師文章を構成する各センテンスにおいて、センテンスベクトルを用いて第1セルフアテンション処理を実行する。次に、第1セルフアテンション処理の出力をセンテンス用LSTM(Long short-term memory)に入力する。
【0035】
このセンテンス用LSTMからは、順次、パラグラフ毎にパラグラフベクトルが出力される。次に、出力されたパラグラフベクトルを用いて第2セルフアテンション処理を実行する。次に、第2セルフアテンション処理の出力を、順次、パラグラフ用LSTMに入力する。
【0036】
そして、学習部213は、文章を入力層、パラグラフ用LSTMから出力される指標を出力層として、正負を判定する評価モデルを生成し、学習結果記憶部23に記録する。
【0037】
(文章の評価処理)
次に、
図5を用いて、文章の評価処理を説明する。この処理は、ユーザ端末10から評価対象文章を取得した場合に行なわれる。
【0038】
ここでは、評価対象文章500を評価する場合を想定する。この評価対象文章500は、m個のパラグラフでn個のセンテンスに分割される場合を想定する。
まず、支援サーバ20の制御部21は、表現分析処理を実行する(ステップS301)。具体的には、制御部21の表現分析部212は、学習結果記憶部23に記録された分散表現モデルを用いて、単語ベクトルを生成する。
【0039】
次に、支援サーバ20の制御部21は、センテンス間の論理性評価処理を実行する(ステップS302)。具体的には、制御部21のセンテンス評価部214は、文章を構成するセンテンス毎に、生成した単語ベクトルを用いてセンテンスベクトルを生成する。ここでは、上述のように、センテンスベクトルは、各単語のベクトル列を用いてもよいし、各単語のベクトルを総和して1つのベクトルとしてもよい。例えば、パラグラフ1においては、センテンス1~センテンスnに対するセンテンスベクトル1~nを生成する。そして、学習結果記憶部23に記録されたセンテンス評価モデルに適用して、センテンス間の論理性を評価する。この場合、センテンス評価部214は、m個のパラグラフベクトルを算出する。詳細は、
図6を用いて説明する。
【0040】
次に、支援サーバ20の制御部21は、パラグラフ間の論理性評価処理を実行する(ステップS303)。具体的には、制御部21のパラグラフ評価部215は、m個のパラグラフベクトルに、学習結果記憶部23に記録されたパラグラフ評価モデルを適用して、パラグラフ間の論理性を評価する。詳細は、
図7を用いて説明する。この場合、パラグラフ評価部215は、正負を判定するための指標値を算出する。本実施形態では、正例フラグとして「1」、負例フラグとして「0」を用いるため、指標値として「0~1」間の値が出力される。この指標値を用いて正負を判定する。ここでは、「1」に近い場合には「正」と判定し、「0」に近い場合には「負」と判定する。そして、パラグラフ評価部215は、ユーザ端末10に、判定結果を出力する。
【0041】
(センテンス間の論理性評価処理)
次に、
図6を用いて、センテンス間の論理性評価処理を説明する。
【0042】
まず、支援サーバ20の制御部21は、センテンスベクトルの生成処理を実行する(ステップS401)。具体的には、制御部21のセンテンス評価部214は、センテンス毎に、単語ベクトルを用いて、センテンスベクトルを生成する。
図5においては、「段落1」について、i個のセンテンスベクトルが生成される。
【0043】
次に、支援サーバ20の制御部21は、パラグラフ毎に以下の処理を繰り返す。
まず、支援サーバ20の制御部21は、連続するセンテンスベクトルの取得処理を実行する(ステップS402)。具体的には、制御部21のセンテンス評価部214は、各パラグラフに含まれる連続する2つのセンテンス(先行文、後続文)のセンテンスベクトルを取得する。
【0044】
次に、支援サーバ20の制御部21は、第1セルフアテンション処理を実行する(ステップS403)。具体的には、制御部21のセンテンス評価部214は、処理対象パラグラフのセンテンスベクトルにおいて、セルフアテンション処理を実行する。
【0045】
次に、支援サーバ20の制御部21は、センテンス間LSTM処理を実行する(ステップS404)。具体的には、制御部21のセンテンス評価部214は、センテンスの順番に、第1セルフアテンション処理の出力を、学習結果記憶部23に記録されたセンテンス評価モデルに入力する。なお、先行のセンテンスベクトルが存在する場合には、このセンテンスベクトルを用いた先行のセンテンス間評価値も、後続のセンテンス評価モデルに入力する。そして、センテンス評価部214は、センテンス評価モデルから出力されるセンテンス間評価値(文間評価値)を取得する。
【0046】
次に、支援サーバ20の制御部21は、終了かどうかについての判定処理を実行する(ステップS405)。具体的には、制御部21のセンテンス評価部214は、処理対象のパラグラフの最後のセンテンスを用いたセンテンス間LSTM処理を実行している場合には、終了と判定する。
【0047】
まだ処理していないセンテンスが残っており、終了でないと判定した場合(ステップS405において「NO」の場合)、支援サーバ20の制御部21は、連続するセンテンスベクトルの取得処理(ステップS402)以降の処理を繰り返す。ここでは、次に連続するセンテンスベクトルを特定する。
【0048】
一方、終了と判定した場合(ステップS405において「YES」の場合)、支援サーバ20の制御部21は、パラグラフベクトルの記録処理を実行する(ステップS406)。具体的には、制御部21のセンテンス評価部214は、段落番号に関連付けて、パラグラフベクトル(グループ評価値)を、メモリに仮記憶する。
そして、支援サーバ20の制御部21は、すべてのパラグラフについての処理を終了するまで繰り返す。
【0049】
(パラグラフ間の論理性評価処理)
次に、
図7を用いて、パラグラフ間の論理性評価処理を説明する。
【0050】
まず、支援サーバ20の制御部21は、連続するパラグラフベクトルの取得処理を実行する(ステップS501)。具体的には、制御部21のパラグラフ評価部215は、各パラグラフに含まれる連続する2つのパラグラフのパラグラフベクトル(先行グループ、後続グループ)を取得する。
【0051】
次に、支援サーバ20の制御部21は、第2セルフアテンション処理を実行する(ステップS502)。具体的には、制御部21のパラグラフ評価部215は、処理対象パラグラフのパラグラフベクトルにおいて、セルフアテンション処理を実行する。
【0052】
次に、支援サーバ20の制御部21は、パラグラフ間LSTM処理を実行する(ステップS503)。具体的には、制御部21のパラグラフ評価部215は、パラグラフの順番に、第2セルフアテンション処理の出力を、学習結果記憶部23に記録されたパラグラフ評価モデルに入力する。なお、先行のパラグラフベクトルが存在する場合には、このパラグラフベクトルを用いた先行のパラグラフ間評価値も、後続のパラグラフ評価モデルに入力する。そして、パラグラフ評価部215は、パラグラフ評価モデルから出力されるパラグラフ間評価値(グループ間評価値)を取得する。
【0053】
次に、支援サーバ20の制御部21は、終了かどうかについての判定処理を実行する(ステップS504)。具体的には、制御部21のパラグラフ評価部215は、処理対象のパラグラフの最後のパラグラフを用いたパラグラフ間LSTM処理を実行している場合には、終了と判定する。
【0054】
まだ処理していないパラグラフが残っており、終了でないと判定した場合(ステップS504において「NO」の場合)、支援サーバ20の制御部21は、連続するパラグラフベクトルの取得処理(ステップS501)以降の処理を繰り返す。ここでは、次に連続するパラグラフベクトルを特定する。
【0055】
一方、終了と判定した場合(ステップS504において「YES」の場合)、支援サーバ20の制御部21は、最後のパラグラフ間評価値の出力処理を実行する(ステップS505)。具体的には、制御部21のパラグラフ評価部215は、最後のパラグラフ間LSTM処理(ステップS503)において取得したパラグラフ間評価値(グループ間評価値)を出力する。
【0056】
本実施形態によれば、以下のような効果を得ることができる。
(1)本実施形態においては、支援サーバ20の制御部21は、教師情報の生成処理を実行する。これにより、正例から負例を生成することができる。ここで、支援サーバ20の制御部21は、負例の選択処理を実行する(ステップS106)。これにより、センテンスやパラグラフの論理性の乱れをランダムに含めた負例を生成することができる。
【0057】
(2)本実施形態においては、支援サーバ20の制御部21は、表現分析処理を実行する(ステップS301)。これにより、文書を構成するセンテンスをベクトル空間において表現することができる。
【0058】
(3)本実施形態においては、支援サーバ20の制御部21は、センテンス間の論理性評価処理を実行する(ステップS302)。これにより、連続するセンテンスの論理性を、先行センテンス及び後続センテンスのベクトルの関係性により評価することができる。
【0059】
(4)本実施形態においては、支援サーバ20の制御部21は、パラグラフ間の論理性評価処理を実行する(ステップS303)。これにより、連続するパラグラフの論理性を、先行パラグラフ及び後続パラグラフのベクトルの関係性により評価することができる。
【0060】
(5)本実施形態においては、支援サーバ20の制御部21は、最後のパラグラフ間評価値の出力処理を実行する(ステップS505)。これにより、評価対象文章の論理性を判断できる。
【0061】
本実施形態は、以下のように変更して実施することができる。本実施形態及び以下の変更例は、技術的に矛盾しない範囲で互いに組み合わせて実施することができる。
・上記実施形態では、支援サーバ20の制御部21は、正例の取得処理(ステップS101)、負例の選択処理(ステップS106)を実行する。そして、教師情報記憶部22には、正負フラグに関連付けて各文章を記録する。これに加えて、センテンス正負フラグ、パラグラフ正負フラグの4種類のラベルを付与して、分類させるようにしてもよい。この場合には、「センテンスの正負」、「パラグラフの正負」、「センテンス及びパラグラフの正負」を判定するように学習する。
【0062】
・上記実施形態では、支援サーバ20の制御部21は、パラグラフ内のセンテンスの並び替え処理(ステップS103)、パラグラフの並び替え処理(ステップS104)を実行する。これに代えて又は加えて、文章に含まれる品詞(例えば接続詞)を変更して負例を生成してもよい。例えば、国語学の分野で提唱されている接続詞分類を用いて異種の接続詞分類に置き換えた文章を負例とする。これにより、この二値分類、或いは接続詞分類の数に応じた多クラス分類問題を解くような「接続詞の用法」に関する学習モデルを構成することができる。
更に、文章に含まれる品詞の中で、一部或いはすべての接続詞だけをマスクしたテキストを用いて、機械学習を行なうようにしてもよい。この場合には、接続詞部分をマスクした文章に対して、マスク部分の接続詞の分類をラベリングしたデータを教師データとして用いた機械学習を行なうことにより、接続詞分類を評価できる評価モデルを生成する。そして、この評価モデルを転移学習させることで、上記の正例、負例を評価する評価モデルを生成してもよい。この場合、一つの文章に含まれる複数の接続詞数の中で、置き換えた接続詞数の割合に応じて、正負フラグの値を加算或いは減算するスムージングを行なうようにしてもよい。
図8に示すテーブル600のように、接続詞は、大分類や細分類等のように、階層化して分けることができる。例えば、大分類には、「整理」、「展開」、「理解」、「論理」等がある。また、4種類の大分類は更に9種類の細分類に展開できる。例えば、大分類「整理」は細分類「並列・列挙」、「対比」に分類することができる。なお、分類は、階層化されていればよく、テーブル600に限定されるものではない。
そこで、分類の階層毎に学習してもよい。
図9を用いて、修飾語の分類についての評価モデルの生成手順を説明する。
まず、支援サーバ20の制御部21は、マスクデータの生成処理を実行する(ステップS601)。具体的には、制御部21の取得部211は、ステップS101と同様に、正例を取得する。この場合、接続詞を含む正例を取得する。次に、取得部211は、正例の接続詞について、大分類、細分類を特定する。そして、取得部211は、接続詞をマスクするとともに、大分類、細分類を付与したマスクデータを生成する。更に、取得部211は、正例のマスクデータに対して、正例フラグを設定して教師情報記憶部22に記録する。一方、取得部211は、正例の大分類、細分類以外の大分類、細分類を付与したマスクデータを生成して、負例フラグを設定して教師情報記憶部22に記録する。
次に、支援サーバ20の制御部21は、論理表現学習処理を実行する(ステップS602)。具体的には、制御部21の表現分析部212は、ステップS201と同様に、マスク前後の文(センテンス又はパラグラフ)の分散表現モデルを生成する。
次に、支援サーバ20の制御部21は、評価モデルの生成処理を実行する(ステップS603)。具体的には、制御部21の学習部213は、文章の接続詞(大分類、細分類)を評価する評価モデル(センテンス評価モデル及び前記グループ評価モデル)を生成する。
図10に示す評価モデル700は、複数の問題を一つのモデルで解くマルチタスク学習を用いて生成する。この評価モデル700は、論理表現層701、大分類予測層702、細分類予測層703を備える。論理表現層701は、マスク前後の文(センテンス又はパラグラフ)の分散表現モデルを生成する。マルチタスク学習を用いて生成される大分類予測層702、細分類予測層703は、それぞれ、マスク前後の分散表現モデルの接続詞(大分類、細分類)を推定する。これにより、階層が異なる分類(タスク)を共有して接続詞の予測精度の向上を図ることができる。
また、他の学習方法で評価モデルを生成してもよい。
図11に示す評価モデル710は、大分類の予測で生成された情報を、細分類の予測に用いるモデルである。この評価モデル710は、論理表現層711、大分類予測層712、細分類予測層713を備える。論理表現層711は、マスク前後の文(センテンス又はパラグラフ)の分散表現モデルを生成する。大分類予測層712は、マスク前後の分散表現モデルの接続詞(大分類)を推定する。細分類予測層713は、マスク前後の分散表現モデルとともに、大分類予測層712で算出された情報を入力して、接続詞(細分類)を推定する。これにより、大分類の情報を、細分類における接続詞の予測に連携させて、予測精度の向上を図ることができる。
【0063】
・上記実施形態では、支援サーバ20の制御部21は、分散表現モデルの生成処理を実行する(ステップS201)。この場合、「Word2Vec」を用いて、分散表現を生成する。センテンスを数値化できれば、分散表現を生成する手法は限定されるものではない。
また、支援サーバ20の制御部21は、LSTMを用いて、センテンス評価モデル、パラグラフ評価モデルを作成する処理を実行する。時系列データを評価できれば、手法は限定されるものではない。
【0064】
・上記実施形態では、支援サーバ20の制御部21は、連続するセンテンスベクトルの取得処理を実行する(ステップS402)。ここで、連続する2文のセンテンスベクトルを結合する処理を実行してもよい。
【0065】
・上記実施形態では、支援サーバ20の制御部21は、連続するパラグラフベクトルの取得処理を実行する(ステップS501)。ここで、連続する2段落のパラグラフベクトルを結合する処理を実行してもよい。
【0066】
・上記実施形態では、文をまとめた段落をグループとして扱う。論理性がある文のまとまりであれば、グループは段落に限定されるものではない。
・上記実施形態では、支援サーバ20の制御部21は、分散表現モデルの生成処理を実行する(ステップS201)。ここで、分散表現モデルの生成は、支援サーバ20が行なう場合に限定されない。例えば、多様な文の単語を用いて、事前に生成された学習済の分散表現モデルを取得して利用してもよい。
【符号の説明】
【0067】
10…ユーザ端末、20…支援サーバ、21…制御部、211…取得部、212…表現分析部、213…学習部、214…センテンス評価部、215…パラグラフ評価部、22…教師情報記憶部、23…学習結果記憶部。