【文献】
ZHANG Xiang et.al.,Character-level Convolutional Networks for Text Classification,arXiv,2015年 9月10日,pp.1-9,arXiv:1509.01626v2[cs.LG]
【文献】
ボッレーガラ ダヌシカ,「Deep Learning(深層学習)」〔第6回〕自然言語処理のための深層学習,人工知能,日本,(一社)人工知能学会,2014年 3月 1日,第29巻第2号,pp.195-201
(58)【調査した分野】(Int.Cl.,DB名)
前記1つ以上のハードウェアプロセッサは、前記語レベルの注意ベースモデルが、語レベルの双方向の長短期メモリネットワークであり、前記文字レベルの注意ベースモデルが、文字レベルの双方向の長短期メモリネットワークとなるよう構成され、前記語レベル及び文字レベルの双方向の長短期メモリネットワークは、前記学習コーパスにおける語及び文字に基づいて生成された、請求項1に記載のシステム。
前記1つ以上のハードウェアプロセッサは、前記学習コーパスに基づいて文レベルの注意ベースモデルを生成するよう構成された、前記1つ以上のハードウェアプロセッサは、前記文レベル、語レベル及び文字レベルの注意ベースモデルに基づいて前記自然言語入力の1つ以上の候補パラフレーズを提供するよう構成された、請求項1に記載のシステム。
前記1つ以上のハードウェアプロセッサは、回帰型ニューラルネットワーク及び/又は畳み込みニューラルネットワークを用いて、前記文レベル、語レベル及び文字レベルの埋め込みを決定するよう構成された、請求項4に記載のシステム。
前記1つ以上のハードウェアプロセッサは、前記1つ以上の候補パラフレーズを提供することが、候補パラフレーズの語選択の意味的類似性及び新規性を目標の文と比較するよう構成された強化学習モデルについての報酬関数を決定すること、及び前記比較に基づいて候補パラフレーズを出力することを有するよう構成された、請求項1に記載のシステム。
前記1つ以上のハードウェアプロセッサは、前記語レベルの注意ベースモデルが、多層残差型の語レベルの双方向の長短期メモリネットワークであり、前記文字レベルの注意ベースモデルが、多層残差型の語レベルの双方向の長短期メモリネットワークであるよう構成され、前記多層残差型の長短期メモリネットワークは、所与の長短期メモリネットワークの積層した層間の残差接続を有する、請求項1に記載のシステム。
前記語レベルの注意ベースモデルが、語レベルの双方向の長短期メモリネットワークであり、前記文字レベルの注意ベースモデルが、文字レベルの双方向の長短期メモリネットワークであり、前記語レベル及び文字レベルの双方向の長短期メモリネットワークは、前記学習コーパスにおける語及び文字に基づいて生成された、請求項8に記載の方法。
前記学習コーパスに基づいて文レベルの注意ベースモデルを生成するステップと、前記文レベル、語レベル及び文字レベルの注意ベースモデルに基づいて前記自然言語入力の1つ以上の候補パラフレーズを提供するステップと、を更に有する、請求項8に記載の方法。
前記文レベル、語レベル及び文字レベルの埋め込みは、回帰型ニューラルネットワーク及び/又は畳み込みニューラルネットワークを用いて決定される、請求項8に記載の方法。
前記1つ以上の候補パラフレーズを提供するステップは、候補パラフレーズの語選択の意味的類似性及び新規性を目標の文と比較するよう構成された強化学習モデルについての報酬関数を決定するステップと、前記比較に基づいて候補パラフレーズを出力するステップと、を有する、請求項8に記載の方法。
前記語レベルの注意ベースモデルは、多層残差型の語レベルの双方向の長短期メモリネットワークであり、前記文字レベルの注意ベースモデルは、多層残差型の語レベルの双方向の長短期メモリネットワークであり、前記多層残差型の長短期メモリネットワークは、所与の長短期メモリネットワークの積層した層間の残差接続を有する、請求項8に記載の方法。
前記語レベルの注意ベースモデルが、語レベルの双方向の長短期メモリネットワークであり、前記文字レベルの注意ベースモデルが、文字レベルの双方向の長短期メモリネットワークであり、前記語レベル及び文字レベルの双方向の長短期メモリネットワークは、前記学習コーパスにおける語及び文字に基づいて生成された、請求項15に記載のシステム。
前記学習コーパスに基づいて文レベルの注意ベースモデルを生成するための手段と、前記文レベル、語レベル及び文字レベルの注意ベースモデルに基づいて前記自然言語入力の1つ以上の候補パラフレーズを提供するための手段と、を更に有する、請求項15に記載のシステム。
前記文レベル、語レベル及び文字レベルの埋め込みは、回帰型ニューラルネットワーク及び/又は畳み込みニューラルネットワークを用いて決定される、請求項18に記載のシステム。
前記1つ以上の候補パラフレーズを提供することは、候補パラフレーズの語選択の意味的類似性及び新規性を目標の文と比較するよう構成された強化学習モデルについての報酬関数を決定すること、及び前記比較に基づいて候補パラフレーズを出力することを有する、請求項15に記載のシステム。
前記語レベルの注意ベースモデルは、多層残差型の語レベルの双方向の長短期メモリネットワークであり、前記文字レベルの注意ベースモデルは、多層残差型の語レベルの双方向の長短期メモリネットワークであり、前記多層残差型の長短期メモリネットワークは、所与の長短期メモリネットワークの積層した層間の残差接続を有する、請求項15に記載のシステム。
【発明を実施するための形態】
【0009】
ここで用いられる「1つの」及び「その」(a、an及びthe)なる単数形は、他に明確な言及がない限り、複数の参照を含む。ここで用いられる、2つ以上の部分又は構成要素が「結合されている(coupled)」なる記述は、これら部分が、関連が生じるように、直接的に、若しくは間接的に即ち1つ以上の中間部分若しくは構成要素を通して、互いに接合されていること、又は合わせて動作することを意味する。ここで用いられる「直接的に結合されている(directly coupled)」なる記述は、2つの要素が互いに直接に接触していることを意味する。ここで用いられる「固定的に結合されている(fixedly coupled)」又は「固定されている(fixed)」なる記述は、2つの構成要素が、互いに対する一定の向きを維持しつつ、一体として動くよう結合されていることを意味する。
【0010】
ここで用いられる「単一の(unitary)」なる語は、構成要素が単一の部品又はユニットとして生成されていることを意味する。即ち、別個に生成されて、次いで互いに1つのユニットとして結合された構成要素は、「単一の(unitary)」構成要素又は部品ではない。ここで利用される、2つ以上の部分又は構成要素が互いに「係合する(engage)との記述は、これら部分が、直接的に、又は1つ以上の中間部分又は構成要素を通して、互いに対して力をかけることを意味する。ここで利用される「数(number)」なる用語は、1又は1よりも大きい整数(即ち複数)を意味する。
【0011】
例えば、限定するものではないが、上端、底部、左、右、上方、下方、前方、後方及びこれらの派生語のような、方向を示す語句は、他に明確に言及がない限り、図面に示された要素の向きに関連するものであり、請求の範囲を限定するものではない。
【0012】
図1は、パラフレーズ生成システム10の模式的な図を示す。パラフレーズ生成は、元のコンテンツにより表現されたものと同じ及び/又は類似する意味を表現するテキスト代替を用いることを有する。パラフレーズ生成は、検索要約、質問回答、情報抽出、情報取得、及び自然言語生成のような、種々の自然言語処理(NLP)アプリケーションにおいて用いられている。システム10は、単一言語ニューラルマシン翻訳問題として、パラフレーズ生成のタスクをキャストすることにより、深層ニューラルネットワークの組み合わせに基づいて、パラフレーズ生成(例えば臨床パラフレーズ生成)のための全体論的手法を利用する。システム10は、全体の意味を損なうことなく可読性を改善するようテキストを変換するよう構成される。例えば臨床パラフレーズ生成は、ユーザがより簡単な代替のパラフレーズを介して複雑な臨床の専門用語を理解することが可能な、患者中心の臨床決定支援(CDS)アプリケーション及び/又はその他のアプリケーションをつくりだす際に価値を持つ。
【0013】
従来のパラフレーズ生成方法は、手作りの規則、自動的に学習された複雑なパラフレーズパターン、シソーラスベースの又は意味解析による自然言語生成手法、及び/又はレバレッジ(leverage)統計機械学習理論を利用する。既存のニューラルマシン翻訳システムは、エンコーダ−デコーダ手法(例えば固定長ベクトルが目標の文を形成するために用いられる元の文から生成される)又は注意ベースのソフト検索手法(例えばモデルが合わせて整合及び翻訳するよう学習が可能であり、最も関連する元の語のコンテキストベクトルを用いることにより比較的長い文における目標の語を改善することを支援する)を用いて、語レベルの計算を介して、二言語機械翻訳を実行する。しかしながら、これら手法は、未知の元の語(例えばニューラルネットワークについての学習データセットに含まれない語)に対する目標の語を正確に予測する能力において、限界がある。
【0014】
システム10は、ニューラルマシン翻訳に対する従来の手法の限界を克服する、臨床及び/又はその他のパラフレーズ生成のために構成された深層ニューラルネットワークである。システム10は、未知の(例えば学習データベースに含まれていない語及び/又はその他の語)元の語をパラフレーズ生成するため、文字レベルモデリング及び/又はその他の動作を実行することにより、先行技術のシステムの限界を克服するよう構成される。幾つかの実施例においては、システム10は、畳み込みニューラルネットワーク(CNN)、回帰型ニューラルネットワーク(RNN)、長短期メモリ(LSTM)ネットワーク、及び強化学習動作を組み合わせて、パラフレーズ生成のための集合アーキテクチャを形成する。幾つかの実施例においては、システム10は、層間に残差接続を持つ多層LSTMネットワークを含む。
【0015】
本発明はしばしば「臨床」パラフレーズ生成を参照する。このことは限定を意図したものではない。システム10は、ここで記載されるように臨床、非臨床及び/又はその他の用途としてパラフレーズを生成し得る。臨床パラフレーズ生成は、種々の広範なタイプ及びスタイルの臨床文書があるため、便利な例として用いられる。斯かる文書はしばしば記載が冗長であり、多忙な介護者及び/又はその他のユーザ12(例えば臨床医、医師、看護師、医療施設スタッフ、家族、友人等)はしばしば、斯かる文書に担持された情報のパラフレーズにより記載された概要(例えばユーザ12に関連する計算装置18のユーザインタフェース16に提示された)を好む。斯かる文書は、パラフレーズ生成システムによって以前に遭遇されたことのない語(例えば以上に説明されたような「未知の」語)を含むことが多い。特定のユーザ12は、医療的な介入、処置計画及び/又はその他の時点において、例えば通知として、レポートに担持された情報の断片にのみ関心を持ち得る。一例として臨床パラフレーズ生成を用いて、システム10は、臨床文書における言語からパラフレーズ生成するよう構成され、ユーザ12が特定の患者に関する最新の情報を迅速に知ることができるようにする。
【0016】
幾つかの実施例においては、システム10は、計算装置18(ユーザインタフェース16を含む)、1つ以上のプロセッサ20、電子記憶装置22、外部リソース24及び/又はその他の構成要素を有する。
【0017】
計算装置18は、ユーザ12とシステム10との間のインタフェースを提供するよう構成される。計算装置18は、ユーザ12及び/又はその他のユーザに情報を提供する及び/又はユーザ12及び/又はその他のユーザから情報を受けるよう構成される。計算装置18は、ユーザインタフェース16及び/又はその他の構成要素を含む。ユーザインタフェース16は、ユーザ12からの情報の入力及び/又は選択を受けるよう構成される。ユーザインタフェース16は、ユーザ12及び/又はその他のユーザに、生成されたパラフレーズを提示するよう構成される。幾つかの実施例においては、ユーザインタフェース16は、例えば計算装置18、プロセッサ20及び/又はその他のシステム10の構成要素に関連する、複数の別個のインタフェースを含む。幾つかの実施例においては、システム10は、複数のユーザ12に関連する複数の計算装置18を有する。
【0018】
幾つかの実施例においては、所与の計算装置18は、ユーザインタフェース16、処理能力、データベース及び/又は電子記憶装置をシステム10に提供するよう構成される。そのため、計算装置18は、プロセッサ20、電子記憶装置22、外部リソース24及び/又はその他のシステム10の構成要素を含んでも良い。幾つかの実施例においては、計算装置18は、ネットワーク(例えばインターネット)に接続される。幾つかの実施例においては、計算装置18は、プロセッサ20、電子記憶装置22、外部リソース24及び/又はその他のシステム10の構成要素を含まず、その代わりにネットワークを介してこれら構成要素と通信する。例えば、プロセッサ20、電子記憶装置22、外部リソース24及び/又はその他のシステム10の構成要素は、「公的なクラウド」又は「私的なクラウド」(以下「クラウド」)に位置していても良い。幾つかの実施例においては、計算装置18は例えば、公的又は私的なクラウドにおいて保存され処理された情報を受信するダム(dumb)装置である。ネットワークへの接続は、無線であっても良いし又は有線であっても良い。例えば、プロセッサ20は、リモートのサーバに配置され、パラフレーズを生成し、計算装置18上において、ユーザインタフェース16を介してユーザ12に対する該パラフレーズの表示を無線で引き起こしても良い。幾つかの実施例においては、計算装置18はラップトップ、デスクトップ型コンピュータ、スマートフォン、タブレット型コンピュータ、及び/又はその他の計算装置である。
【0019】
ユーザインタフェース16に含めるのに適したインタフェース装置の例は、タッチスクリーン、キーパッド、タッチ感応型及び/又は物理的ボタン、スイッチ、キーボード、ノブ、レバー、ディスプレイ、スピーカ、マイクロフォン、インジケータ照明、可聴アラーム、プリンタ、及び/又はその他のインタフェース装置を含む。本発明はまた、計算装置18が着脱可能な記憶インタフェースを含むことも考慮に入れる。本例においては、ユーザ12及び/又はその他のユーザが計算装置18の実装をカスタマイズすることを可能とする着脱可能な記憶装置(例えばスマートカード、フラッシュドライブ、着脱可能なディスク)から、情報が計算装置18にロードされても良い。計算装置18及び/又はユーザインタフェース16との使用に適合した入力装置及び手法の他の例は、限定するものではないが、RS−232ポート、RFリンク、IRリンク、モデム(電話、ケーブル等)及び/又はその他の装置を含む。
【0020】
プロセッサ20は、システム10における情報処理能力(例えば標準的なグラフィックス処理ユニット(GPU)及び/又はその他の構成要素を用いて)を提供するよう構成される。そのため、プロセッサ20は、ディジタルプロセッサ、アナログプロセッサ、情報を処理するよう設計されたディジタル回路、情報を処理するよう設計されたアナログ回路、状態機械、及び/又はその他の電子的に情報を処理するための機構のうちの1つ以上を有しても良い。プロセッサ20は
図1において単一のエンティティとして示されているが、このことは単に説明の目的のためのものである。幾つかの実施例においては、プロセッサ20は、複数の処理ユニットを有しても良い。これら処理ユニットは、同じ装置(例えばサーバ)内に物理的に配置されていても良いし、又はプロセッサ20が、協働して動作する複数の装置(例えば、1つ以上のサーバ、計算装置18、外部リソース24の一部である装置、電子記憶装置22及び/又はその他の装置)の処理機能を表しても良い。
【0021】
幾つかの実施例においては、プロセッサ20、外部リソース24、計算装置18、電子記憶装置22及び/又はその他の構成要素は、1つ以上の電子通信リンクを介して動作可能にリンクされても良い。例えば、斯かる電子通信リンクは、少なくとも一部が、インターネット及び/又はその他のネットワークのようなネットワークを介して確立されても良い。このことは限定することを意図したものではなく、本発明の範囲は、これら構成要素が何らかの他の通信媒体を介して動作可能にリンクされた実施例を含むことは、理解されるであろう。幾つかの実施例においては、プロセッサ20は、クライアント/サーバ型アーキテクチャ、ピアツーピア型アーキテクチャ及び/又はその他のアーキテクチャによって、外部リソース24、計算装置18、電子記憶装置22及び/又はその他の構成要素と通信するよう構成される。
【0022】
図1に示されるように、プロセッサ20は、機械読み取り可能な命令を介して、1つ以上のコンピュータプログラム要素を実行するよう構成される。該1つ以上のコンピュータプログラム要素は、学習コーパス要素30、埋め込み生成要素32、モデル要素34、集合学習要素36、強化学習要素38、出力要素40及び/又はその他の要素を有しても良い。プロセッサ20は、ソフトウェア、ハードウェア、ファームウェア、ソフトウェア、ハードウェア及び/又はファームウェアの何らかの組み合わせ、及び/又はその他のプロセッサ20上での処理機能を構成するための機構によって、要素30、32、34、36、38及び/又は40を実行するよう構成されても良い。
【0023】
要素30、32、34、36、38及び40は、
図1において単一の処理ユニット内にともに配置されたものとして示されているが、プロセッサ20が複数の処理ユニットを有する実施例においては、要素30、32、34、36、38及び40の1つ以上が、他の要素とはリモートに配置されても良いことは、理解されるべきである。以下に記載される種々の要素30、32、34、36、38及び/又は40により提供される機能の説明は、単に説明の目的のためのものであり、限定を意図したものではなく、要素30、32、34、36、38及び/又は40のいずれかが、説明されたもの以外の幾分かの機能を提供しても良い。例えば、要素30、32、34、36、38及び/又は40の1つ以上が省略されても良く、その機能の幾つか又は全てが他の要素30、32、34、36、38及び/又は40により提供されても良い。他の例としては、プロセッサ20は、要素30、32、34、36、38及び/又は40の1つに加えて、以下の機能の幾つか又は全てを実行し得る1つ以上の付加的な要素を実行するよう構成されても良い。
【0024】
学習コーパス要素30は、学習コーパスを取得するよう構成される。学習コーパスは、言語、該言語のパラフレーズ及び/又はその他の情報を有する。該言語は、個々の文、句、語、キャラクタ(例えば文字)及び/又はその他の著者により特定の態様で(例えば医療レポート、医療レコードとして)配置された構成要素により形成される。パラフレーズは、文字、語、及び/又はその他の該言語(例えば医療レポート、医療レコード)に相当し該言語により通信されるものと同じ及び/又は類似する情報を短縮された及び/又は省略された態様で通信する表記である。例えば、該学習コーパスは、臨床言語(例えば文、句、語、文字等)、及び該臨床言語に所定の態様で対応する既知のパラフレーズを含んでも良い。
【0025】
幾つかの実施例においては、学習コーパス要素30は、学習コーパスが、臨床及び/又は非臨床言語、データ及び/又はその他の情報に基づいて決定されるように構成される。非臨床言語、データ及び/又は情報は、非臨床の公的に利用可能なパラフレーズデータベース(例えばparaphrase.org等)及び/又はその他の供給源から取得されても良い。臨床言語、データ及び/又は情報は、オープンソースの臨床オントロジー(例えばSNOMED CTにおける臨床概念についての一意に規定される名称及び対応する同義語の集合)及び/又はその他の供給源から取得されても良い。これらのような情報源は、例えば外部リソース24に含まれていても良い。学習コーパス要素30は、非臨床言語、データ及び/又はその他の情報が組み合わせられて、元の言語及び既知の対応するパラフレーズを持つ学習コーパスが生成されるように構成される(例えば、英語のような個々の言語において、パラフレーズ生成のタスクが単一言語翻訳問題としてキャストされる)。学習コーパス要素30は、学習コーパスを取得することが更に、トークン化及び語彙生成を実行することによりコーパスを事前処理することを有するように構成される。例えば、コーパス中の利用可能な一意な語が、(例えば後の語レベルの情報の決定のために)適切なデータ構造でインデクス化され、(例えば後の文字レベルの情報の決定のために)一意な文字が同様にインデクス化される。
【0026】
埋め込み要素32は、学習コーパスを用いて語レベル、文字レベル及び文レベルの埋め込みを決定し、既存の知識ベースから知られた意味的関係に基づいて語レベル、文字レベル及び文レベルの埋め込みを更新するよう構成される。幾つかの実施例においては、該文レベル、語レベル及び文字レベルの埋め込みは、RNN及び/又はCNNを用いて決定される。
【0027】
図2(CNN)及び
図3(RNN)に示されるように、学習コーパスの教師なし事前学習を実行して埋め込みを学習するため、(それぞれ)多層CNN及び/又はRNNアーキテクチャ200及び300が用いられる。CNNは、フィードフォワード型人工ニューラルネットワークの一種であり、個々のニューロンが重複を伴ってタイル化され、個々のニューロンが入力文の全体ではなく一部に接続され、該入力文により起動され、局所的に接続されたネットワークの生成を実現し、一時的な畳み込みを介した重み共有を可能とする。
図2に示されるように、CNNは、入力層202、畳み込み層204、及び最大プーリング層206を含む。最大プーリング層206は、高次の層への入力として利用されるべき畳み込み層204からの出力ニューロンの選択されたセットの最大値を決定する。斯くして、畳み込み層204及び最大プーリング層206は、パラメータ空間を縮小し、並進不変性の形態を提供することにより、ネットワーク全体の計算の複雑性を低減することを支援する。幾つかの実施例においては、並進不変性は、可変サイズの入力文に向けた大きな最大プーリングの適用のため、NLP問題への制限となり得る(一方でシーケンス/順序は保存される必要があり得る)。
図2において、重みW1とW4とが共有され、W2とW5とが共有され、W3とW6とが共有される。
【0028】
図3に示されるように、RNNは、斯かるシーケンス予測問題を解決し得るものであり、一般にネットワークに亘り共有されたパラメータの3つのセット、即ち入力−隠れ(hidden)重み(W)302、隠れ−隠れ重み(U)304、及び隠れ−出力重み(V)306を持つ。当該重み共有特性は、RNNを、NLP問題における可変サイズの入力に適したものとする(
図3に示されるように、RNNは、入力層308、隠れ層310及び出力層312を含む)。
図3において、X
0,1,…tは、時間0,1,…tにおける入力語/文字を示し、h
0,1,…tは、時間0,1,…tにおける対応する隠れ状態を示し、yは出力を示す。幾つかの実施例においては、埋め込み要素32は、RNNが双方向RNNとなるよう構成される。双方向RNNは、時間tにおける出力が、シーケンスにおける前の要素に依存するのみならず、将来の要素にも依存し得るという仮定に基づく。例えば、シーケンスにおける欠損した語/文字を予測するためには、該シーケンスにおける該欠損した語の左側のコンテキストと、該シーケンスにおける該欠損した語の右側のコンテキストと、の両方を考慮する必要があり得る。斯くして、双方向RNNアーキテクチャは、RNNエンコーダ−エンコーダ手法に従い、ここでは2つのRNNが、前方向及び後方向の両方にシーケンス中の語のコンテキスト属性を捕捉するため、元の文をエンコードするために用いられ、次いで1つのRNNが、目標の文を生成するためのデコーダとして用いられる。幾つかの実施例においては、双方向RNNアーキテクチャは、入力の元の文のシーケンスを複数回供給される。注意ベースモデルにおける「注意(attention)」なる語は、デコード処理の間に特定の元の語に注目する(即ち注意を払う)ことを表す。注意ベースのデコード機構は、最も関連する元の語をモデルが検索することを可能としつつ、次の目標の語を予測し、比較的長い文における長距離の依存性に関連する問題を軽減する。
【0029】
幾つかの実施例においては、学習された埋め込み(CNN及び/又はRNNの出力)は、学習コーパスにおける言語の文、語、文字及び/又はその他の情報に関連するコンテキスト情報を表すベクトルを有する。幾つかの実施例においては、埋め込み要素32は、既存の知識ベース(例えば
図1に示される外部リソース24に含まれるWikipedia、PubMed文献等)から得られた意味的関係を用いて学習された埋め込みを更新するよう構成される。更新された語及び文字レベルの埋め込みは、(例えば以下に説明されるように)それぞれ注意ベースの語レベル及び文字レベルの双方向LSTMネットワークを開始するために用いられる。
【0030】
幾つかの実施例においては、CNN及び/又はRNNアーキテクチャは、「情報ハイウェイ」上の幾つかの層に亘る略利用制限のない情報の流れにより特徴付けられる多層ハイウェイネットワークを有する。数百の層を持つハイウェイネットワークは、確率的勾配降下法を直接に用いて学習させられ、極めて深く効率の良いアーキテクチャを学習する可能性を開く。例えば、ハイウェイネットワークの概念は、修正されたゲーティング関数を用いて離れた層におけるニューロン間の直接の接続を可能とすることにより、
図2及び
図3に示されたアーキテクチャにおいてより多くの層を実現し、モデル性能を改善するよう該モデルが非常に深いニューラルネットワークを学習することを可能とし得る。
【0031】
図1に戻ると、モデル要素34は、語レベルの注意ベースモデル、文字レベルの注意ベースモデル、及び/又はその他のモデルを生成するよう構成される。以上に説明されたように、幾つかの状況においては、語レベルのモデルのみでは、以前から未知の元の(入力)語に基づいて目標の語(例えばパラフレーズ)を正確に予測できない可能性が高い。文字レベルのモデルを用いる場合、臨床言語及び/又は文書を構築するために用いられる利用可能なキャラクタ(例えば字)の数は有限であり(著者に利用可能なとり得る語及び/又は文の数が限られないこととは対照的に)、これにより1つ以上の目標の語の正確な予測を容易化する(例えば、とり得る候補パラフレーズのセットを減少させること、目標の語の正確な予測のために必要とされる計算リソースの量を低減させること、等によって)。
【0032】
幾つかの実施例においては、語レベルの注意ベースモデルは、語レベルの双方向LSTMネットワークであり、文字レベルの注意ベースモデルは、文字レベルの双方向LSTMネットワークである。
図4Aは、LSTMネットワークのブロック
図400、及びLSTMネットワークの機能を説明する対応する式402を示す。LSTMネットワークは、個々の時間ステップにおいて、内部メモリセルc
t∈R
nを追加するRNNである。LSTMネットワークユニットは、個々の時間ステップにおいて3つの入力x
t、h
t−1、c
t−1をとり、時間ステップtにおいて隠れ状態h
t及び内部メモリ状態c
tを生成する。メモリセルは、3つの学習ゲート、即ち入力i、忘却f及び出力oを介して制御される。これらメモリセルは、時間に対する勾配の付加を用い、勾配爆発(gradient explosion)を最小化する。
図4Aに示された式において、Wx及びWhはそれぞれx及びhについての学習されたパラメータであり、σ及びtanhは要素毎のシグモイド及び双曲線正接関数であり、
【数1】
は要素毎の乗算演算子であり、bは付加されるバイアスを示す。
【0033】
以上に説明されたように、幾つかの実施例においては、語レベル及び文字レベルの双方向LSTMネットワークが、更新された語レベル及び/又は文字レベルの埋め込みに基づいて生成される。幾つかの実施例においては、語レベル及び文字レベルの双方向LSTMネットワークは、学習コーパスの語、文字及び/又はその他の特徴に基づいて生成される(語及び/又は文字レベルの埋め込みを必要としない)。斯かる実施例においては、語レベルのシーケンス−シーケンスモデルは、多層残差型の語レベルの双方向LSTMネットワークであり、文字レベルのシーケンス−シーケンスモデルは、多層残差型の文字レベルの双方向LSTMネットワークである。多層残差型のLSTMネットワークは、所与のLSTMネットワークの積層した層間の残差接続及び/又はその他の情報を有する。
【0034】
図4Bは、多層残差型の双方向LSTMネットワークを示す。幾つかの実施例においては、モデル要素34(
図1)は、語レベル及び/又は文字レベルのLSTMネットワークが、垂直な積層を有し、LSTMネットワークの前の層の出力が、後続する層への入力として供給されるよう構成される。幾つかの実施例においては、時間ステップtにおいて最初の層を除く全ての層が、前の層hltの隠れ状態から受け渡され、ここでlは層を意味する。斯くして、層lについて、起動が以下のように記述される:
h
t(l)=f
hl(h
t(l−1),h
t−1(l))
ここで隠れ状態hは再帰的に決定され、t=0及びl=0におけるh
t(l)は以下により与えられる(例えば
図4Aに示される):
【数2】
幾つかの実施例においては、
図4Bに示されるように、学習されている関数(例えば多層LSTMネットワーク406及び408)への残差x404の追加は、データを過剰適合することなく、より深いネットワークの学習を容易化する(
図4Bの記載においては、以上に説明された忘却ゲート記号との混乱を避けるためFの代わりにH'が用いられており、
図4Aと同様に、
図4Bにおける「X」は入力を示す)。LSTMネットワークの積層された各層の後に残差接続を追加する必要はないことは、留意されるべきである。例えば、4層が積層されたLSTMネットワーク(例えば文字レベル及び/又は語レベルのモデルのいずれか及び/又は両方について)においては、残差接続は点毎の追加として層2において追加されても良く、このとき入力がh
tの出力と同じ次元である必要がある。モデル要素34(
図1)は、h
tをクリッピングしx
t−2の次元と同じでないときにx
t−2の次元と整合させるLSTMネットワークの最後の隠れユニット積層を容易化するよう構成される。同様の結果は、xをパディングし、該次元に整合させることにより得られ得る。斯くして、残差接続を持つ層について学習させられた関数H'は、以下により与えられる:
H'
t(l)=f
hl(h
t(l−1),h
t−1(l))+x
t−2
有利にも、残差接続の追加は、学習可能なパラメータを追加しモデルの複雑さを増大させることはない。
【0035】
図1に戻ると、集合要素36は、1つ以上の候補パラフレーズを提供するよう構成される。該1つ以上の候補パラフレーズは、自然言語入力のパラフレーズである。該候補パラフレーズは、語レベル及び文字レベルの両方の注意ベースのモデルに基づいて決定される。このようにして例えば、語レベルの注意ベースのモデルに加えて、文字レベルの注意ベースのモデルが用いられて、語レベルのモデルのみを用いる1つ以上の潜在的な欠点が克服される(例えばこれまで未知であった語の正確なパラフレーズを生成する)。これに加えて、幾つかの状況においては、パラフレーズ生成のために文字レベルのモデルのみを利用することは、定期的に不正確な文字の順序を生成し、従って普通でなく知的でない語を生成し得る。集合要素36は、語レベルのモデル及び文字レベルのモデルの両方の強みを活用する、集合学習アーキテクチャを利用する。
【0036】
集合要素36は、語レベルのLSTMモデル及び文字レベルのLSTMモデルの両方に基づいて、複数の候補パラフレーズを決定するよう構成される。幾つかの実施例においては、語レベル及び文字レベルのモデルは、候補パラフレーズの2つ以上のセットを個別に生成しても良い。例えば、語レベル及び文字レベルの候補パラフレーズ決定は、入力層において語レベル/文字レベルの入力をとることができ、予測/出力層において語レベル/文字レベルの出力を生成することができる(あわせて候補パラフレーズの4つのセットを有する)モデルによって、生成されても良い。同様に、モデル自体を生成するための複数の手法(例えば双方向エンコーダ−エンコーダ、注意ベースのソフトサーチ、多層残差型LSTMネットワーク等)が組み合わせられて、同じ学習コーパスから複数の学習モデルを生成しても良く、このことは候補臨床パラフレーズの複数の異なるセットに寄与し得る。
【0037】
幾つかの実施例においては、該1つ以上の候補パラフレーズは、語レベル及び文字レベルの注意ベースのモデル、並びに更新された文レベルの埋め込みに基づいて決定される。幾つかの実施例においては(例えば語レベルの注意ベースモデルが多層残差型の語レベルの双方向LSTMネットワークであり、文字レベルの注意ベースモデルが文字レベルの双方向LSTMネットワークである場合)、該1つ以上の候補パラフレーズは、語レベル/文字レベルの埋め込みの必要なく、学習コーパスのみに基づいて決定される。
【0038】
強化要素38は、報酬関数強化学習モデルを決定及び/又は利用するよう構成される。該報酬関数強化学習モデルは、候補パラフレーズの語選択の意味的類似性及び新規性を、目標の文及び/又はその他の情報に対して比較するよう構成される。強化要素38は、集合要素36により決定されたとり得るパラフレーズから個々の候補パラフレーズを選択肢、報酬関数を用いて該候補パラフレーズが目標の文に対してどれだけ好適かを決定する。報酬関数は、候補パラフレーズが元の/目標の文のコンテキストにどれだけ近いかを示す。報酬関数は、有意味性、新規性及び文法性に関して2つの文の間の類似度を示すことができるいずれの意味的類似度関数により定義されても良い。個々のとり得るパラフレーズについての報酬は基本的に、文埋め込みにより担持されるコンテキスト情報に対する語の選択の比較に基づくものであっても良い。強化要素38は、システム10により生成されたパラフレーズが、候補パラフレーズのうちの最も高いランク(例えば該比較及び/又は「報酬」に基づく)のものとなるよう構成される。
【0039】
強化要素38は、
図5に示される強化学習アーキテクチャを使用するよう構成される。図式的に示す。5に示されるように、強化学習アーキテクチャ500においては、エージェント502が環境504と相互作用する。個々の動作506に応答して、環境504は、状態508と報酬510との対を生成し、エージェント502は、該状態508と報酬510との対から学習したものに基づいて、後続する動作を生成する。強化要素38は及び集合要素36は、候補パラフレーズの生成が「動作」506(例えばエージェント502に対応する集合要素36により実行される動作)、及び、候補パラフレーズの語選択の意味的類似性及び新規性の、状態508と報酬510との対に対応する目標の文との比較の結果であるよう構成される。
【0040】
図1に戻ると、出力要素40は、自然言語入力のパラフレーズを出力するよう構成される。出力パラフレーズは、集合要素36により提供された候補パラフレーズの1つであっても良い。出力パラフレーズは、強化要素38による比較、集合要素36により決定された1つ以上の候補パラフレーズ、語レベル及び文字レベルのモデル、及び/又はその他の情報に基づいて決定されても良い。出力要素は、ユーザインタフェース16を介した表示のためパラフレーズを計算装置18に出力し、電子記憶部22に出力パラフレーズを保存し、出力パラフレーズを外部リソース24に通信し、及び/又はその他の動作を実行しても良い。
【0041】
図6は、システム10(
図1に示される)により実行される動作の一部を要約している。
図6は、語レベル及び文字レベルの注意ベースモデル並びに更新された文レベルの埋め込みに基づいて、1つ以上の候補パラフレーズが決定される、システム10の実施例により実行される動作を要約している(語レベルの注意ベースモデルが多層残差型の語レベルの双方向LSTMネットワークであり、文字レベルの注意ベースモデルが多層残差型の文字レベルの双方向LSTMネットワークであり、1つ以上の候補パラフレーズが、語及び/又は文字レベルの埋め込みの必要なく、学習コーパスのみに基づいて決定される実施例とは異なる)。例えば、
図6に示されるように、システム10(例えば
図1に示されここで説明された学習コーパス要素30)は、学習コーパスを取得する(600)よう構成される。システム10(例えば埋め込み要素32)は、該学習コーパスを用いて、語レベル、文字レベル及び文レベルの埋め込みを決定する(602、604)よう構成される。幾つかの実施例においては、文レベル、語レベル及び文字レベルの埋め込みは、RNN及び/又はCNNを用いて決定される。システム10は、既存の知識ベース610、612から既知である意味的関係に基づいて、語レベル、文字レベル及び文レベルの埋め込みを更新する(606、608)よう構成される。システム10(例えばモデル要素34)は、語レベル及び文字レベルの注意ベースのモデルを生成する(614)よう構成される。幾つかの実施例においては、語レベルの注意ベースのモデルは、語レベルの双方向LSTMネットワークであり、文字レベルの注意ベースのモデルは、文字レベルの双方向LSTMネットワークである。語レベル及び文字レベルのLSTMネットワークは、更新された語レベル及び文字レベルの埋め込み及び/又はその他の情報に基づいて生成される。システム10(例えば集合要素36)は、候補パラフレーズを提供する(616)よう構成される。
図6に示された本実施例においては、システム10(例えば集合要素36)は、語レベル及び文字レベルの注意ベースのモデル、更新された文レベルの埋め込み、及び/又はその他の情報に基づいて、1つ以上の候補パラフレーズが決定されるよう構成される。システム10(例えば強化要素38及び/又は出力要素40)は、目標の文に対する候補パラフレーズの語選択の意味的な類似性及び新規性を比較する(620)よう構成された報酬関数強化学習モデルを決定し(618)、該比較に基づいて自然言語入力624の候補パラフレーズを出力する(622)よう構成される。
【0042】
図1に戻ると、電子記憶部22は、情報を電子的に保存する電子記憶媒体を有する。電子記憶部22の電子記憶媒体は、システム10と一体的に(即ち略着脱不可能に)備えられたシステム記憶部、及び/又は例えばポート(例えばUSBポート、firewireポート等)又はドライブ(例えばディスクドライブ等)を介してシステム10に着脱可能に接続可能な着脱可能な記憶部の一方又は両方を有しても良い。電子記憶部22は、(全体として又は一部が)システム10内の別個の構成要素であっても良いし、又は、電子記憶部22は、(全体として又は一部が)システム10の1つ以上の他の構成要素(例えば計算装置18、プロセッサ20等)と一体的に備えられても良い。幾つかの実施例においては、電子記憶部22は、プロセッサ20とともにサーバに、外部リソース24の一部であるサーバに、対象12と関連する計算装置18に、及び/又はその他の位置に、配置されていても良い。電子記憶部22は、光学的に読み取り可能な記憶媒体(例えば光ディスク等)、磁気的に読み取り可能な記憶媒体(例えば磁気テープ、磁気ハードディスク、フロッピー(登録商標)ドライブ等)、電荷ベースの記憶媒体(例えばEPROM、RAM等)、固体記憶媒体(例えばフラッシュドライブ等)及び/又はその他の電子的に読み取り可能な記憶媒体のうちの1つ以上を有しても良い。電子記憶部22は、ソフトウェアアルゴリズム、プロセッサ20により決定された情報(例えば候補パラフレーズ)、計算装置18及び/又はユーザインタフェース16及び/又はその他の外部計算システムを介して受信された情報、外部リソース24から受信された情報、及び/又はここで説明されたようにシステム10が機能することを可能とするその他の情報を保存しても良い。
【0043】
外部リソース24は、情報の供給源(例えばデータベース、ウェブサイト、paraphrase.orgやSNOMED CT等のような学習コーパス源、語レベル、文字レベル及び文レベルの埋め込みを更新するため埋め込み要素32により用いられる既存の知識ベース、等)、システム10と共に関与する外部エンティティ(例えばシステム10によりパラフレーズ生成され得る臨床記録を保存する医療ケア提供者の電子データベースシステム)、システム10の外部の1つ以上のサーバ、ネットワーク(例えばインターネット)、電子記憶部、Wi-Fi(登録商標)技術に関連する装備、Bluetooth(登録商標)技術に関連する装備、データ入力装置、センサ、スキャナ、及び/又はその他のデータ源を含む。幾つかの実施例においては、ここで外部リソース24に帰する機能の幾つか又は全てが、システム10に含まれるリソースにより提供されても良い。外部リソース24は、有線及び/又は無線接続を介して、ネットワーク(例えばローカルエリアネットワーク及び/又はインターネット)を介して、セルラー技術を介して、Wi-Fi(登録商標)技術を介して、及び/又はその他のリソースを介して、プロセッサ20、計算装置18、電子記憶部22及び/又はその他のシステム10の構成要素と通信するように構成されても良い。
【0044】
図7は、パラフレーズ生成システムを用いてパラフレーズを生成するための方法700を示す。該システムは、1つ以上のハードウェアプロセッサ及び/又はその他の構成要素を含む計算装置を有する。該1つ以上のハードウェアプロセッサは、機械読み取り可能な命令によりコンピュータプログラム要素を実行するよう構成される。該コンピュータプログラム要素は、学習コーパス要素、埋め込み要素、モデル要素、集合要素、強化要素、出力要素及び/又はその他の要素を含む。以下に示される方法700の動作は、説明のためのものであることが意図されている。幾つかの実施例においては、方法700は、記載されていない1つ以上の更なる動作を伴って実現されても良く、及び/又は、議論された動作の1つ以上を伴わずに実現されても良い。更に、
図7に示され以下に説明される方法700の動作の順序は、限定することを意図したものではない。
【0045】
幾つかの実施例においては、方法700は、1つ以上の処理装置(例えばディジタルプロセッサ、アナログプロセッサ、情報を処理するよう構成されたディジタル回路、情報を処理するよう構成されたアナログ回路、状態機械、及び/又はその他の電子的に情報を処理するための機構)に実装されても良い。該1つ以上の処理装置は、電子記憶媒体に電子的に保存された命令に応じて、方法700の動作の幾つか又は全てを実行する1つ以上の装置を含んでも良い。該1つ以上の処理装置は、方法700の動作の1つ以上の実行のために特に設計された、ハードウェア、ファームウェア及び/又はソフトウェアにより構成された1つ以上の装置を含んでも良い。
【0046】
動作702において、学習コーパスが取得される。該学習コーパスは、言語、該言語のパラフレーズ、及び/又はその他の情報を有する。該言語は、著者により特定の態様(例えば医療レポート、医療記録等として)で構成された個々の文、句、語、キャラクタ(例えば文字)及び/又はその他の要素により形成される。パラフレーズは、言語(例えば医療レポート、医療記録等)に対応し、該言語により伝達される情報と同一の及び/又は類似する情報を短縮及び/又は省略された態様で伝達する、文字、語及び/又はその他の表記である。例えば、学習コーパスは、臨床言語(例えば文、句、語、文字等)及び所定の態様で臨床言語に対応する既知のパラフレーズを含んでも良い。幾つかの実施例においては、動作702は、学習コーパス要素30(
図1に示されここで説明されたもの)と同一又は類似するプロセッサ要素により実行される。
【0047】
動作704において、語レベル及び文字レベルの注意ベースのモデルが生成される。幾つかの実施例においては、語レベルの注意ベースのモデルは、語レベルの双方向LSTMネットワークであり、文字レベルの注意ベースのモデルは、文字レベルの双方向LSTMネットワークである。語レベル及び文字レベルのLSTMネットワークは、語、文字及び/又はその他の学習コーパスの特徴に基づいて生成される。幾つかの実施例においては、語レベルの注意ベースのモデルは、積層残差型の語レベルの双方向LSTMネットワークであり、文字レベルの注意ベースのモデルは、積層残差型の文字レベルの双方向LSTMネットワークである。積層残差型のLSTMネットワークは、所与のLSTMネットワーク及び/又はその他の情報の積層間の残差接続を有する。
【0048】
幾つかの実施例においては、動作704は、学習コーパスを用いて語レベル、文字レベル及び文レベルの埋め込みを決定すること、既存の知識ベースから知られた意味的関係に基づいて語レベル、文字レベル及び文レベルの埋め込みを更新すること、及び更新された語レベル及び文字レベルの埋め込みに基づいて語レベル及び文字レベルの注意ベースのモデルを生成すること、を含む。幾つかの実施例においては、文レベル、語レベル及び文字レベルの埋め込みは、RNN及び/又はCNNを用いて決定される。幾つかの実施例においては、動作704は、埋め込み要素32及び/又はモデル要素34(
図1に示されここで説明されたもの)と同一又は類似するプロセッサ要素により実行される。
【0049】
動作706において、候補パラフレーズが提供される。1つ以上の候補パラフレーズは、自然言語入力のパラフレーズである。候補パラフレーズは、語レベル及び文字レベルの注意ベースのモデルに基づいて決定される。幾つかの実施例においては、該1つ以上の候補パラフレーズは、語レベル及び文字レベルの注意ベースのモデル、並びに更新された文レベルの埋め込みに基づいて決定される。幾つかの実施例においては、該1つ以上の候補パラフレーズを提供することは、目標の文に対して候補パラフレーズの語の選択の意味的類似性及び新規性を比較するよう構成された報酬関数強化学習モデルを決定すること、及び該比較に基づいて候補パラフレーズを出力することを有する。幾つかの実施例においては、動作706は、集合要素36、強化要素38及び/又は出力要素40(
図1に示されここで説明されたもの)と同一又は類似するプロセッサ要素により実行される。
【0050】
以上に示された説明は、最も実用的で好適な実施例であると現在考えられるものに基づいて説明の目的のための詳細を提供するが、斯かる詳細は単に当該目的のためのものであり、本開示は明確に示された実施例に限定されるものではなく、添付される請求項の精神及び範囲内である変更及び同等な構成をカバーすることを意図されていることは、理解されるべきである。例えば、本開示は、可能な限り、いずれかの実施例の1つ以上の特徴が、他のいずれかの実施例の1つ以上の特徴と組み合わせられ得ることも考慮していることは、理解されるべきである。
【0051】
請求項において、括弧に挟まれたいずれの参照記号も、請求の範囲を限定することを意図したものではない。「有する(comprising)」又は「含む(including)」なる語は、請求項に記載されたもの以外の要素又は態様の存在を除外するものではない。幾つかの手段を列記した装置請求項において、これら手段の幾つかは同一のハードウェアのアイテムによって実施化されても良い。要素に先行する「1つの(a又はan)」なる語は、複数の斯かる要素の存在を除外するものではない。幾つかの手段を列記したいずれの装置請求項においても、これら手段の幾つかは同一のハードウェアのアイテムによって実施化されても良い。特定の要素が相互に異なる従属請求項に列挙されているという単なる事実は、これら要素が組み合わせて用いられることができないことを示すものではない。