IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 独立行政法人情報通信研究機構の特許一覧

特許7084617質問応答装置及びコンピュータプログラム
<>
  • 特許-質問応答装置及びコンピュータプログラム 図1
  • 特許-質問応答装置及びコンピュータプログラム 図2
  • 特許-質問応答装置及びコンピュータプログラム 図3
  • 特許-質問応答装置及びコンピュータプログラム 図4
  • 特許-質問応答装置及びコンピュータプログラム 図5
  • 特許-質問応答装置及びコンピュータプログラム 図6
  • 特許-質問応答装置及びコンピュータプログラム 図7
  • 特許-質問応答装置及びコンピュータプログラム 図8
  • 特許-質問応答装置及びコンピュータプログラム 図9
  • 特許-質問応答装置及びコンピュータプログラム 図10
  • 特許-質問応答装置及びコンピュータプログラム 図11
  • 特許-質問応答装置及びコンピュータプログラム 図12
  • 特許-質問応答装置及びコンピュータプログラム 図13
  • 特許-質問応答装置及びコンピュータプログラム 図14
  • 特許-質問応答装置及びコンピュータプログラム 図15
  • 特許-質問応答装置及びコンピュータプログラム 図16
  • 特許-質問応答装置及びコンピュータプログラム 図17
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2022-06-07
(45)【発行日】2022-06-15
(54)【発明の名称】質問応答装置及びコンピュータプログラム
(51)【国際特許分類】
   G06F 16/90 20190101AFI20220608BHJP
   G06F 16/903 20190101ALI20220608BHJP
【FI】
G06F16/90 100
G06F16/903
【請求項の数】 6
(21)【出願番号】P 2018122231
(22)【出願日】2018-06-27
(65)【公開番号】P2020004045
(43)【公開日】2020-01-09
【審査請求日】2021-06-24
(73)【特許権者】
【識別番号】301022471
【氏名又は名称】国立研究開発法人情報通信研究機構
(74)【代理人】
【識別番号】100099933
【弁理士】
【氏名又は名称】清水 敏
(72)【発明者】
【氏名】呉 鍾勲
(72)【発明者】
【氏名】鳥澤 健太郎
(72)【発明者】
【氏名】クルンカライ カナサイ
(72)【発明者】
【氏名】クロエツェー ジュリアン
(72)【発明者】
【氏名】飯田 龍
(72)【発明者】
【氏名】石田 諒
(72)【発明者】
【氏名】淺尾 仁彦
【審査官】甲斐 哲雄
(56)【参考文献】
【文献】国際公開第2018/066489(WO,A1)
【文献】特開2015-011426(JP,A)
【文献】特開2009-157791(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
G06F 16/00-16/958
G06F 40/20-40/58
(57)【特許請求の範囲】
【請求項1】
How型質問を互いに異なる型式の複数の質問へ変換し、前記複数の質問の各々について、所定の背景知識源から回答となる背景知識を抽出する背景知識抽出手段と、
前記背景知識抽出手段にて抽出された回答の集合に含まれる回答のベクトル表現を正規化し正規化ベクトルとして前記複数の質問の各々と対応付けて記憶するよう構成された回答記憶手段と、
前記How型質問をベクトル化した質問ベクトルが与えられたことに応答して前記回答記憶手段をアクセスし、当該質問ベクトルと前記複数の質問との間の関連度と、前記複数の質問の各々に対応する前記正規化ベクトルとを用いて前記質問ベクトルを更新する更新手段と、
前記更新手段にて更新された前記質問ベクトルに基づき、前記How型質問に対する回答候補を判定する回答判定手段とを含む、質問応答装置。
【請求項2】
前記更新手段は、
前記質問ベクトルと、前記複数の質問の各々のベクトル表現との間の関連度を算出する第1の関連度算出手段と、
前記回答記憶手段に記憶された前記正規化ベクトルの加重和からなる第1の加重和ベクトルを、当該正規化ベクトルに対応する質問について前記第1の関連度算出手段が算出した関連度を重みとして算出し、当該第1の加重和ベクトルと前記質問ベクトルとの線形和により、前記質問ベクトルを更新するための第1の質問ベクトル更新手段とを含む、請求項1に記載の質問応答装置。
【請求項3】
前記第1の関連度算出手段は、前記質問ベクトルと、前記複数の質問の各々のベクトル表現との間の内積により前記関連度を算出する内積手段を含む、請求項2に記載の質問応答装置。
【請求項4】
さらに、前記第1の質問ベクトル更新手段が出力する更新後の前記質問ベクトルと、前記複数の質問の各々のベクトル表現との間の関連度を算出する第2の関連度算出手段と、
前記回答記憶手段に記憶された前記正規化ベクトルの加重和からなる第2の加重和ベクトルを、当該正規化ベクトルに対応する質問について前記第2の関連度算出手段が算出した関連度を重みとして計算し、当該第2の加重和ベクトルと前記質問ベクトルとの線形和により、前記更新後の前記質問ベクトルをさらに更新した再更新後の質問ベクトルを出力するための第2の質問ベクトル更新手段とを含む、請求項2又は請求項3に記載の質問応答装置。
【請求項5】
前記更新手段は、訓練によりパラメータが決定されるニューラルネットワークにより形成される、請求項1~請求項3のいずれかに記載の質問応答装置。
【請求項6】
コンピュータを請求項1~請求項5のいずれかに記載の質問応答装置として機能させる、コンピュータプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
この発明は質問応答装置に関し、特に、How型質問に対して高精度な回答を提示する質問応答装置に関する。
【背景技術】
【0002】
コンピュータにより、ユーザから与えられた質問に対して回答を出力する質問応答システムの利用が広がりつつある。質問には、ファクトイド型質問とノン・ファクトイド型質問とがある。ファクトイド型質問とは、地名、人名、日時、数量等、「何」にあたるものが回答となる質問である。端的には回答は単語で与えられる。ノン・ファクトイド型質問とは、それ以外、例えば理由、定義、方法等、「何」とはいえないものが回答となる質問である。ノン・ファクトイド型質問の回答は、比較的長い文又はいくつかの文からなるパッセージとなる。
【0003】
ファクトイド型質問に対する回答を提供する質問応答システムについては、クイズ番組で人間の回答者を破るようなものも現れており、高い精度で高速に回答可能なものが多い。一方、ノン・ファクトイド型質問はさらに「Why型質問」、「How型質問」等に分類される。この中でHow型質問に対する回答をコンピュータにより得ることは、コンピュータサイエンスの分野でも高度な自然言語処理が必要とされる、非常に困難なタスクであると認識されてきた。ここで、How型質問とは、「どうやって家でポテトチップスを作るのか?」のように何らかの目的を達成するための方法を尋ねる質問のことである。
【0004】
How型質問応答システムは、予め準備された大量の文書からHow型質問に対する回答を抽出する技術を用いる。How型質問応答システムは、人工知能、自然言語処理、情報検索、Webマイニング、及びデータマイニング等において非常に大きな役割を担うものと考えられる。
【0005】
How型質問の回答は、複数文からなることが多い。例えば、上記の質問「どうやって家でポテトチップスを作るのか?」に対する回答としては「最初にじゃがいもを洗い、皮をむきます。そしてスライサー等で薄く切ります。それを水に軽く浸けデンプンを軽く落とします。キッチンペーパーで水気を落とした後、油で2度揚げします。」のようなものがあり得る。How型質問に対する回答は一連の行動・事象を表すことが必要となるためである。一方、How型質問の回答を得るための手掛かりは、「最初に」、「~後」等の順序を表す表現以外にはほとんど見つけることができない。したがって、How型質問に対して何らかの手段により高い精度で回答できる質問応答システムが望まれている。
【0006】
一方、最近、ニューラルモデルにより多くの情報を記憶させるため、後掲の非特許文献1において、ニューラルネットワークにメモリを付けたMemory Networkが提案され、「Machine comprehension」と「知識ベースを対象にした質問応答」のタスクに用いられてきた。さらに、多様な形の情報をメモリに保存させるためにこのMemory networkを改良したKey-value memory networkが後掲の非特許文献2において提案された。
【先行技術文献】
【非特許文献】
【0007】
【文献】Sukhbaatar, S., Szlam, A., Weston, J., and Fergus, R. (2015). End-to-end memory networks. In NIPS, 2015.
【文献】Alexander Miller, Adam Fisch, Jesse Dodge, Amir-Hossein Karimi, Antoine Bordes, and Jason Weston. 2016. Key-value memory networks for directly reading documents. In Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing, pages 1400-1409.
【発明の概要】
【発明が解決しようとする課題】
【0008】
How型質問の回答を特定する従来技術はいずれも機械訓練による分類器を採用している。これらのうち、ニューラルネットワークを使わず、SVM等の機械訓練器を使ったものは低性能である。また、ニューラルネットワークを使っているnon-factoid型質問応答技術に関しても、性能にはさらに改善の余地がある。
【0009】
性能を改善するために、非特許文献2に開示されたKey-value memory networkは、情報をkey-value対としてメモリに保存させ、メモリ上の各々の対を処理した結果を合わせて関連情報として回答生成に利用する。これをうまく利用することにより、How型質問に対する回答の精度を高められる可能性がある。しかし、現在のKey-value memory networkでは、valueとしてメモリに記憶された情報にノイズが多く含まれている場合、このメモリから得られる関連情報がノイズによって偏った値になり、回答の精度が低くなるという問題が発生する。上記した非特許文献2では、回答を得るための知識ベースとして予め整備されたものを用いており、ノイズ等については考慮していない。そのため、背景知識にノイズが含まれる場合には回答の精度が著しく低下する。このようなノイズの悪影響はできるだけ排除する必要がある。
【0010】
それゆえに本発明は、Key-value memory networkを使用したHow型質問応答システムにおいて、回答生成におけるノイズの影響を低下させ、高精度に回答を生成できる質問応答装置を提供することを目的とする。
【課題を解決するための手段】
【0011】
本発明の第1の局面に係る質問応答装置は、How型質問を互いに異なる型式の複数の質問へ変換し、複数の質問の各々について、所定の背景知識源から回答となる背景知識を抽出する背景知識抽出手段と、背景知識抽出手段にて抽出された回答の集合に含まれる回答のベクトル表現を正規化し正規化ベクトルとして複数の質問の各々と対応付けて記憶するよう構成された回答記憶手段と、How型質問をベクトル化した質問ベクトルが与えられたことに応答して回答記憶手段をアクセスし、当該質問ベクトルと複数の質問との間の関連度と、複数の質問の各々に対応する正規化ベクトルとを用いて質問ベクトルを更新する更新手段と、更新手段にて更新された質問ベクトルに基づき、How型質問に対する回答候補を判定する回答判定手段とを含む。
【0012】
好ましくは、更新手段は、質問ベクトルと、複数の質問の各々のベクトル表現との間の関連度を算出する第1の関連度算出手段と、回答記憶手段に記憶された正規化ベクトルの加重和からなる第1の加重和ベクトルを、当該正規化ベクトルに対応する質問について第1の関連度算出手段が算出した関連度を重みとして算出し、当該第1の加重和ベクトルと質問ベクトルとの線形和により、質問ベクトルを更新するための第1の質問ベクトル更新手段とを含む。
【0013】
より好ましくは、第1の関連度算出手段は、質問ベクトルと、複数の質問の各々のベクトル表現との間の内積により関連度を算出する内積手段を含む。
【0014】
さらに好ましくは、質問応答装置は、さらに、第1の質問ベクトル更新手段が出力する更新後の質問ベクトルと、複数の質問の各々のベクトル表現との間の関連度を算出する第2の関連度算出手段と、回答記憶手段に記憶された正規化ベクトルの加重和からなる第2の加重和ベクトルを、当該正規化ベクトルに対応する質問について第2の関連度算出手段が算出した関連度を重みとして計算し、当該第2の加重和ベクトルと質問ベクトルとの線形和により、更新後の質問ベクトルをさらに更新した再更新後の質問ベクトルを出力するための第2の質問ベクトル更新手段とを含む。
【0015】
好ましくは、更新手段は、訓練によりパラメータが決定されるニューラルネットワークにより形成される。
【0016】
より好ましくは、質問応答装置は、背景知識抽出手段にて抽出された回答の集合について、当該集合中に出現する単語のtfidfを用い、各単語の重要度を示す指標を算出する単語重要度算出手段と、背景知識の抽出に用いられた複数の質問の各々について、当該質問に含まれる各単語に対して単語重要度算出手段が算出した指標を要素とするアテンション行列を算出するためのアテンション手段と、をさらに含み、回答候補にアテンション行列を乗じてベクトル表現を生成し、回答推定手段に入力する。
【0017】
本発明の第2の局面に係るコンピュータプログラムは、コンピュータを、上記したいずれかの質問応答装置として機能させる。
【0018】
この発明の上記した特徴及びその他の特徴、解釈、及び利点は後記する実施の形態の説明を図面とともに読むことによりさらによく理解できるだろう。
【図面の簡単な説明】
【0019】
図1図1は非特許文献2に記載されたkey-value memory networkの中心部の構成を示す模式図である。
図2図2は本発明の実施の形態に係る質問応答システムが使用する、道具関係に関する背景知識を説明する模式図である。
図3図3は本発明の実施の形態に係る質問応答システムが使用する、因果関係に関する背景知識を説明する模式図である。
図4図4は本発明の実施の形態に係る質問応答システムにおいて、How型質問から「何」型質問と「なぜ」型質問とが生成される過程を示す模式図である。
図5図5は、質問応答システムにおいてkey-value memoryにvalueとしてノイズが記憶され得ることを示す模式図である。
図6図6は、本発明の実施の形態に係る質問応答システムにおける、chunked key-value memory networkの中心部の構成を得るための過程を説明するための模式図である。
図7図7は、本発明の実施の形態に係る質問応答システム380の構成を説明するための、1層(1ホップ)からなるchunked key-value memory networkを採用した質問応答システムの機能的構成を示すブロック図である。
図8図8は、図7に示す背景知識抽出部の機能的構成を示すブロック図である。
図9図9は、図7に示す質問のエンコーダの機能的構成を示すブロック図である。
図10図10は、図7に示す回答候補のエンコーダの機能的構成を示すブロック図である。
図11図11は、図10に示すアテンション算出部の機能的構成を示すブロック図である。
図12図12は、図7に示す背景知識のエンコーダの機能的構成を示すブロック図である。
図13図13は、図7に示すキー・バリューメモリアクセス部の機能的構成を示すブロック図である。
図14図14は、本発明の実施の形態に係る3層(3ホップ)からなるchunked key-value memory networkを採用した質問応答システムの機能的構成を示すブロック図である。
図15図15は、図14に示すシステムについて行った実験結果を他のシステムと比較して表形式で示す図である。
図16図16は、本発明の各実施の形態に係る質問応答システムを実現するコンピュータの外観図である。
図17図17は、図16に示すコンピュータの内部構成を示すハードウェアブロック図である。
【発明を実施するための形態】
【0020】
以下の説明及び図面では、同一の部品には同一の参照番号を付してある。したがって、それらについての詳細な説明は繰返さない。
【0021】
以下に説明する各実施の形態では、大規模なテキストコーパスから獲得した「道具・目的関係」及び「因果関係」を回答特定のための背景知識として用い、How型質問の回答を判定する新たなニューラルモデルを提案する。How型質問に対する回答を得る、というタスクにおいて、背景知識を利用することは今まで検討されたことがない。非特許文献2に記載されたシステムでは、key-value memory networkには知識源から生成したデータが記憶される。このデータのうちキーは主体(主語)+関係、値は客体(目的語)であるが、これらの情報は予め所定のフォーマットにしたがって知識という形で整形しておかなければならない。
【0022】
なお、上記した様に以下の実施の形態では「道具・目的関係」及び「因果関係」を回答特定のための背景知識として用いている。しかし本発明はそのようは実施の形態には限定されない。質問の分野が分かっているような場合には、その分野にあわせた関係を用いるようにしてもよい。
【0023】
本実施の形態ではさらに、こうして得た背景知識をkey-value memory networkを発展させた「chunked key-value memory network」に記憶させ、回答生成に利用する。
【0024】
以下、まず、質問応答システムを、非特許文献2による質問応答システムの基本的考え方を採用して実現する場合について説明する。後述するように本実施の形態では、入力された質問から「何」型質問と「なぜ」型質問とを生成し、既存の質問応答システム(少なくとも「何」型質問と「なぜ」型質問とに応答可能であるもの)に与え、その回答を各質問について複数個得る。
【0025】
例えば、図1を参照して、質問170(「どうやって家でポテトチップスを作る?」)が与えられたものとする。この質問170からは「何で家でポテトチップスを作る?」という「何」型質問qと、「なぜ家でポテトチップスを作る?」という「なぜ」型質問qとが得られる。これらを既存の質問応答システムに与え、質問qに対して回答a~aが得られ、質問qに対して回答a~質問aが得られたものとする。
【0026】
Key-value memory150はkeyメモリ174とvalueメモリ176とを含む。Key-value memory150には、このようにして得られた質問と回答の組が互いに1対1に関連付けられて記憶される。より具体的には、各質問はkeyメモリ174に、対応する各回答はvalueメモリ176に記憶される。なおこれらのメモリは、新たな質問が入力される度にリフレッシュされる。
【0027】
なお、後述するように以下の説明では、全ての質問及び回答はいずれも連続値を要素とするベクトル表現に変換されている。質問170が与えられると、質問170とkeyメモリ174に記憶された各質問との間でマッチング172が行われる。ここでのマッチングはベクトル同士の関連度の指標を計算する処理であり、典型的にはベクトル間の内積が指標として採用される。この内積の値を各回答の重みとして、各回答を表すベクトルの加重和178が計算される。この加重和178が、与えられた質問170に対する背景知識180となる。この背景知識180を用いて質問170を所定の関数を用いて更新する。この更新により、質問170に背景知識の表す情報の少なくとも一部が組込まれる。後述するようにこのマッチング処理、加重和を求める処理、及び更新処理は複数回だけ繰返される。最終的に得られた質問と、回答候補との間で所定の計算がされ、その回答候補が質問170に対する回答として正しいか否かを示すスコア(典型的には確率)が出力される。典型的には、この処理は「正解クラス」と「誤答クラス」の2クラスへの分類問題となり、回答候補が各クラスに属する確率がスコアとして出力される。回答候補をスコアの降順でソートし、先頭の回答候補がHOW型質問に対する最終的な回答として出力される。
【0028】
[背景知識の獲得]
How型質問の回答には、質問された目的を達成するための一連の行動・事象が方法として書かれている。これらの行動・事象は何らかの道具を用いて行われる場合が多い。例えば、図1を参照して、上記例での質問「どうやって家でポテトチップスを作るのか?」の回答202の中には、「じゃがいも」、「スライサー」、「水」、「キッチンペーパー」、「油」がポテトチップスを作るための道具として使われている。このため、「じゃがいも(道具)でポテトチップスを作る(目的)」のような「道具・目的」関係はHow型質問の回答特定のための手がかりとして用いることができる。こうした関係は、もととなるテキストから、パターンによる名詞間の意味的関係の獲得(これには既存技術を利用できる)によって自動的に獲得できる。すなわち、製品Bと道具(材料)Aとの間の関係を「AでBを作る」というようなパターンを検索することによって自動獲得できる。
【0029】
以下の実施の形態では、「道具・目的」関係の知識を獲得するため、与えられたHow型質問を「何で」質問に変換する。そして、変換した「何で」質問を出願人が実用化している既存の「何」型質問応答システムに入力する。このシステムから得られた回答の元文を「道具・目的関係」の知識源として用いる。例えば、How型質問である「どうやって家でポテトチップスを作るのか?」は、「何で」質問である「何で家でポテトチップスを作るのか?」に変換できる。この「何で」質問を「何」型質問応答システムに入力して、回答「じゃがいも」、とその回答の元文(例えば、「パパの実家からいただいた、じゃがいもで、ポテトチップスを作りました」)が得られる。そして、「何で」質問と回答の元文からなる対を「どうやってポテトチップスを作るのか?」に対する「道具・目的」関係を表す知識源として用いる。なお、これら質問の変換方法を複数通り採用しても良いことはいうまでもない。つまり、1つのHOW型質問から2つ以上の「何」型質問又は「なぜ」型質問を生成し既存の質問応答システムからそれらの回答を得るようにしてもよい。
【0030】
また、ある目的で何らかの道具が使われる理由を表す因果関係も手がかり情報として用いられる。例えば、図3を参照して、「切ったじゃがいもは1時間ほど水にさらします(帰結)。その理由は水にさらしてでんぷんを溶け出させることで、カリッとしたポテトチップスが作れるため(原因)ためです。」という文220は、じゃがいもを水にさらす理由を原因となる部分232とその帰結を表す部分230との間の因果関係として説明している。すなわち、この文は質問「どうやってポテトチップスを作るのか?」の回答222の一部234と合致する文脈情報を含む。こういった文脈情報はHow型質問の回答を特定するための知識源として用いられる。
【0031】
以下の実施の形態では、上記の因果関係を獲得するため、How型質問を「なぜ」型質問に変換して出願人が実用化している「なぜ」型質問応答システムに入力する。この「なぜ」型質問に対して得られた回答をHow型質問に適合した因果関係の知識源として用いる。
【0032】
以上をまとめると、図4を参照して、以下の実施の形態では、How型質問250(例えば「どうやって家でポテトチップスを作る?」)を「何」型質問252と「なぜ」型質問254とに変換する。そしてこれらを「何」型質問応答システム256と「なぜ」型質問応答システム258とに入力としてそれぞれ与える。もちろん、既存の応答システムが「何」型質問252と「なぜ」型質問254との双方に回答できるものであれば「何」型質問応答システム256と「なぜ」型質問応答システム258とを同一のシステムとしてもよい。さらに、こうした処理の結果、「何」型質問応答システム256から回答群260が得られ、「なぜ」型質問応答システム258から回答群262が得られる。これらをそれぞれ道具・目的関係の知識源及び因果関係の知識源として用いることができる。
【0033】
上記の方法で得られた道具・目的関係又は因果関係を表すテキストからは、How型質問に対する回答を得る上で有用な情報が得られる。一方で、これらのテキストから得られた情報にはHow型質問と無関係なものが多く含まれる場合もある。これらがノイズである。
【0034】
図5を参照して、例えば「何」型質問280に対して、回答290、292及び294が得られ、同じく「何」型質問282に対して回答290、292及び294に加えて回答296、回答298及び300が得られた場合を考える。これらの回答のうち、回答290及び回答292は、How型質問の背景知識として有用だが、回答294、296、298及び300はHow型質問の背景知識としては意味がない。すなわちノイズである。こうした情報による影響をできるだけ排除しなければHow型質問に対する精度の高い回答を得ることは難しい。非特許文献2ではこうした状況については配慮されていないという問題がある。
【0035】
こういった問題を解決するため、以下の実施の形態では、道具・目的関係及び因果関係の情報をその獲得に用いられた質問毎に正規化し、回答特定にchunked key-value memory networkと呼ぶニューラルモデルを採用する。ここでいう正規化とは、1つの質問に対して複数の回答が得られた場合には、それらを平均したものをその質問に対する回答とすることをいう。
【0036】
すなわち、図6を参照して、本実施の形態では、図1に示すKey-value memory150に代えてchunked key-value memory320を採用する。chunked key-value memory320はKey-value memory150と同様、keyメモリ330とvalueメモリ332とを含む。
【0037】
keyメモリ330には、図1と同様、Keyとして質問(例えば質問q及びq)が記憶される。valueメモリ332には、図1に示したものと同様、質問qに対する回答群350及び質問qに対する回答群352が記憶される。chunked key-value memory320が図1に示すKey-value memory150と異なるのは、同じ質問に対する回答をそれぞれ平均化した平均回答を算出する平均処理部334を含む点である。すなわち、図6に示すように質問qに対しては回答群352に含まれる回答a~回答aを平均した回答ベクトルが算出され、質問qに対しては回答群350に含まれる回答a~回答aを平均した回答ベクトルが算出される。これら回答ベクトルに対し、質問q及びqに対して計算された重みを乗じて加重和336が計算され、その結果、与えられたHOW型質問に対する背景知識338が得られる。なお、こうした演算を行うためには、質問及び回答は全てベクトル表現に変換しておかなければならない。このchunked key-value memory networkは非特許文献2に開示されたkey-value memory networkの改良版と見ることができる。
【0038】
一般に、ある質問に対して多くの回答が得られるような場合、その回答にはノイズが多く含まれると考えられる。一方、質問に対する回答の数が少ない場合には、その回答に含まれるノイズは少ないと考えられる。こうした状況を無視して、的確な回答にもノイズとしての回答にも同じ重みを乗じて加重和を計算した場合には、ノイズの影響が大きくなってしまうという問題がある。それに対し、上記したようにある質問に対する回答を平均化すると、回答数が多かった質問における各回答の重みは、回答数が少なかった質問における各回答の重みと比較するとより小さな重みしか与えられないことになる。したがって、結果としてこれらについてさらに加重和を計算した場合、得られるものに含まれるノイズの影響は相対的に小さくなり、最終的に得られる回答も的確なものとなる可能性が高い。
【0039】
なお、具体的には、chunked key-value memory320に記憶された質問(key)と回答(value)のペアの集合M={(k,v})を以下の式に示されるとおりキーチャンクの集合Cに変換する。すなわち、ある値のキーk´とペアになっている値(回答)を集め集合Vを形成し、各キーk´に対応する回答の平均であるチャンクcを計算する。
【0040】
【数1】
ただしW ∈Rd´×d´及びW ∈Rd´×d´はいずれも訓練により定まる値を要素に持つ行列である(後述するようにこの実施形態はニューラルネットワークにより実現される)。mはホップ数と呼ばれ、キーチャンクからの読出と質問の更新とが行われた繰返し数を示す。c はm回目の更新時の、キーk´に対して計算されたチャンクである。ただしd´は各CNNの出力するベクトルの次元数である。
【0041】
以下に説明する本発明の各実施の形態では、Key-value memory networkと同様、入力された質問とchunked key-value memory networkの各質問との関連度を計算し、それを重みとして各質問に対する回答の平均(チャンク)の加重和を求め、もとの質問との間で所定の演算を行って質問を更新する。この処理を1又は複数回行って最終的に得られた質問と、回答候補との間で所定の演算をし、回答候補がもとの質問に対する回答として正しいか否かを示すラベル又は確率を出力する。この回数がホップ数mである。以下に説明する第1の実施の形態ではm=1であり、第2の実施の形態ではm=3である。
【0042】
後述するように以下に述べる各実施の形態のHow型質問に対する質問応答装置は、背景知識を他の質問応答システムから得てchunked key-value memory networkに記憶する部分を除き、end-to-endのニューラルネットワークで実現できる。このニューラルネットワークでは、1層が1ホップに相当する。
【0043】
[第1の実施の形態]
<構成>
本発明の実施の形態を分かりやすく説明するために、まず中間層が1層のみである質問応答システムについて構成を説明する。図7を参照して、第1の実施の形態に係る質問応答システム380は、質問390を受けて、質問390から「何」型質問と「なぜ」型質問とを生成し、既存のファクトイド・なぜ型質問応答システム394にそれらの質問を与えることにより背景知識を抽出するための背景知識抽出部396を含む。ここでいう背景知識は、背景知識抽出部396に与えられた質問と、その質問に対してファクトイド・なぜ型質問応答システム394から得られた回答とのペアの集合である。
【0044】
質問応答システム380はさらに、背景知識抽出部396により抽出された背景知識を一旦記憶するための背景知識記憶部398と、背景知識記憶部398に記憶された背景知識を構成する各質問及び回答を単語埋込ベクトル列に変換し、さらにこれら各単語埋込ベクトル列をベクトルに変換する処理を行うエンコーダ406とを含む。
【0045】
質問応答システム380はさらに、質問390を単語埋込ベクトル列に変換し、さらにベクトルに変換するためのエンコーダ402と、回答候補392を単語埋込ベクトル列に変換し、さらにベクトルに変換するためのエンコーダ404と、エンコーダ406によりベクトル化された背景知識を記憶するchanked key-value memory networkであるキー・バリューメモリ420を持ち、質問ベクトルとキー・バリューメモリ420に記憶された背景知識を用いて質問ベクトルを更新し出力する第1レイヤ408と、第1レイヤ408の出力する更新後の質問ベクトルと、エンコーダ404の出力する回答候補392のベクトルとの間で所定の演算を行い、回答候補が質問390に対する回答として正しい正解クラスと誤答である誤答クラスとに属する確率をそれぞれ出力するための出力層410とを含む。キー・バリューメモリ420は、後述するように、互いに異なる複数の質問の各々について、背景知識源から抽出された回答の集合に含まれる回答のベクトル表現を正規化し正規化ベクトルとして記憶するよう構成されている。
【0046】
図8は、図7に示す背景知識抽出部396の概略構成を示す。図8を参照して、背景知識抽出部396は、質問390から「何」型質問を生成してファクトイド・なぜ型質問応答システム394に与え、ファクトイド・なぜ型質問応答システム394からのその回答を得て、各回答と「何」型質問とをペアにして背景知識記憶部398に記憶させる「何」型質問生成部480と、質問390から「なぜ」型質問を生成してファクトイド・なぜ型質問応答システム394に与え、ファクトイド・なぜ型質問応答システム394からその回答を得て、各回答と「なぜ」型質問とをペアにして背景知識記憶部398に記憶させるための「なぜ」型質問生成部482とを含む。「何」型質問生成部480及び「なぜ」型質問生成部482では、それぞれ1又は可能であれば複数個の質問をそれぞれ生成し、それらの各々について1又は複数の回答をファクトイド・なぜ型質問応答システム394から得る。
【0047】
図9を参照して、図7に示すエンコーダ402は、質問390を受け、質問390を構成する各単語を単語埋込ベクトルに変換して単語埋込ベクトル列502を出力するためのベクトル変換部500と、単語埋込ベクトル列502を受けて質問ベクトル506(ベクトルq)に変換し出力するためのコンボリューショナル・ニューラルネットワーク(CNN)504とを含む。CNN504の各パラメータは、質問応答システム380の訓練の対象である。ベクトル変換部500としては予め訓練済のものを用いる。なお、この実施の形態及び後述の第2の実施の形態の各々において、CNNの出力するベクトルは全て同一次元である。
【0048】
図10を参照して、図7に示すエンコーダ404は、回答候補392を受け、その各単語を単語埋込ベクトルに変換して単語埋込ベクトル列522を出力するためのベクトル変換部520と、図7に示す背景知識記憶部398に記憶された背景知識に基づき、各単語埋込ベクトルと質問390との関連度を要素とするアテンション行列526を出力するためのアテンション算出部524と、単語埋込ベクトル列522とアテンション行列526に対し後述する演算を行ってアテンション付ベクトル530を出力するための演算部528と、アテンション付ベクトル列530を入力として受け、回答候補ベクトル534(ベクトルp)に変換して出力するためのCNN532とを含む。CNN532のパラメータも質問応答システム380の訓練の対象である。ベクトル変換部520は予め訓練済である。
【0049】
図11を参照して、図10に示すアテンション算出部524は、ベクトル変換部520の出力する単語埋込ベクトル列522が表す各単語wに対して、背景知識記憶部398に記憶された「何」型質問に対する回答群に基づくtfidfを正規化したものを計算するための第1の正規化tfidf算出部550と、「なぜ」型質問に対する回答群に基づくtfidfを正規化したものを計算するための第2の正規化tfidf算出部552とを含む。
【0050】
第1の正規化tfidf算出部550は、ベクトル変換部520の出力する単語埋込ベクトル列522の表す各単語wに対して以下の式(3)によりtfidfを計算するためのtfidf算出部570と、tfidf算出部570により算出されたtfidfを以下の式(4)に示すようにソフトマックス関数により正規化したassoc(w,B)を算出するための正規化部572とを含む。ただし、式(3)及び(4)においてBtは「何」型質問により得られた質問と回答とのペアの集合を指し、tf(w,Bt)は集合Btにおける単語wの単語頻度を表し、df(w)はファクトイド・なぜ型質問応答システム2が保持している回答検索用のコーパスD中における単語wの文書頻度を表し、|D|はコーパスD中の文書数を表す。
【0051】
【数2】
同様に、第2の正規化tfidf算出部552は、ベクトル変換部520の出力する単語埋込ベクトル列522の表す各単語wに対して以下の式(5)によりtfidfを計算するためのtfidf算出部580と、tfidf算出部580により算出されたtfidfを以下の式(6)により正規化するための正規化部582とを含む。式(5)及び式(6)においてBcは「なぜ」型質問により得られた質問と回答とのペアの集合を指す。
【0052】
【数3】
図10に示すアテンション行列526は、式(4)により得られた要素を第1行、式(6)により得られた要素を第2行とする行列である。アテンション行列526をアテンション行列Aとする。図10に示す演算部528は単語ベクトル列Xpに対して以下の演算を行ってアテンション付きのアテンション付ベクトル列~Xp(記号「~」は式中では直後の直上に記載されている。)を計算する。
【0053】
【数4】
ただしdは実施の形態で使用する質問及び回答等の各単語を表現する単語埋込ベクトルの次元数を表し、|p|は回答候補を構成する単語数を示す。Waはd行2列の重み行列であり、そのパラメータは訓練対象である。
【0054】
こうして得られた回答候補ベクトル~Xpが図10に示すアテンション付ベクトル列530である。CNN532はこのアテンション付ベクトル列530を入力として回答候補を表現する回答候補ベクトル534を出力する。CNN532のパラメータは訓練対象である。
【0055】
図12を参照して、図7に示すエンコーダ406は、キー(質問)とその値(回答)とのペアの各々について、質問とその回答とをそれぞれ単語埋込ベクトル列602及び単語埋込ベクトル列612に変換するベクトル変換部600及びベクトル変換部610と、単語埋込ベクトル列602及び単語埋込ベクトル列612をそれぞれベクトル606及びベクトル616に変換し出力するためのCNN604及びCNN614とを含む。CNN604及びCNN614のパラメータは訓練の対象である。ベクトル変換部600及びベクトル変換部610としては予め訓練済のものを用いる。
【0056】
再び図7を参照して、第1レイヤ408は、キー(質問)とそのチャンク化された回答とのペアからなる背景知識を記憶するキー・バリューメモリ420と、エンコーダ402から質問を表すベクトルを受け、キー・バリューメモリ420をアクセスして背景知識を抽出するキー・バリューメモリアクセス部422と、キー・バリューメモリアクセス部422により抽出された背景知識を表すベクトルを用いてエンコーダ402の出力する質問を表すベクトルqを以下の式(7)を用いて更新し、背景知識の表す情報が組込まれたベクトルuとして出力する更新部424とを含む。なお、後述するように第1レイヤ408と同じものを複数個重ねて用いることができ、各レイヤによる処理をホップと呼ぶ。各レイヤの更新部424をまとめてコントローラと呼ぶ。コントローラもニューラルネットワークで実現できる。m番目のホップを第mホップと呼び、第mホップ後のコントローラの状態をuで表す。ただし最初のコントローラの状態はエンコーダ402の出力するベクトルqであり、q=u(m=1)である。また、m番目のレイヤにおけるキー・バリューメモリアクセス部422の出力ベクトルをoで表す。本実施の形態ではm=1である。すなわち、第1レイヤ408による更新後のコントローラの状態はuとなる。
【0057】
【数5】
式(7)においてoとuの線形和に作用する行列W は各ホップ固有のd´×d´の重み行列であり、訓練の対象である。この実施の形態ではホップ数H=1なのでW の1個のみが使用される。
【0058】
第1レイヤ408はさらに、このベクトルuとエンコーダ404の出力する回答候補ベクトルpとを用いて以下の式(8)及び(9)により回答候補が質問に対する正解クラスに属する確率と誤答クラスに属する確率とをそれぞれ出力する、ロジスティック回帰層及びソフトマックス関数による出力層410とを含む。ただし以下の式(8)はホップ数=Hとした一般式であり、本実施の形態ではH=1である。すなわちuH+1=uである。
【0059】
【数6】
式(9)において、^yは予測ラベル分布である。行列Woは2行2×d´+1列の行列であり、バイアスベクトルboとともに訓練によりパラメータが定められる。
【0060】
キー・バリューメモリ420は、キー450及び452を記憶するキーメモリ440と、各キー450及び452に対応する回答460,…,462をキーに対する値として記憶するバリューメモリ442とを含む。
【0061】
図13は、図7に示すキー・バリューメモリアクセス部422の概略構成を示す。図13を参照して、キー・バリューメモリアクセス部422は、エンコーダ402から質問qを表すベクトルを受け、図7に示すキー・バリューメモリ420のキーメモリ440をアクセスし、質問qを表すベクトルと各キーとの関連度の指標である内積を計算し、ソフトマックス関数で正規化して出力するための関連度計算部632と、関連度計算部632の出力する関連度r,…,rを一時記憶するための関連度記憶部636と、バリューメモリ442に記憶された各回答のベクトルに対し、同じ質問に対する回答を式(1)及び(2)にしたがって平均(チャンク化)するチャンク化処理部638(図6に示す平均処理部334に相当)と、関連度記憶部636に記憶された対応の質問から得られた関連度を重みとして、チャンク化処理部638によりチャンク化された平均回答ベクトルに乗じ、その合計を計算することにより回答の加重和oを算出するための加重和算出部640とを含む。
【0062】
なお、上記式(7)に代えて以下の式(10)による更新を行っても良い。
【0063】
【数7】
<動作>
上に構成を説明した質問応答システム380は以下のように動作する。質問応答システム380の動作フェーズとしては、訓練と推論との2つがある。最初に推論について説明し、その後に訓練について説明する。
【0064】
〈推論〉
推論に先立って、必要なパラメータの訓練は全て終わっていることが前提である。図7を参照して、質問390及び回答候補392が質問応答システム380に入力される。推論結果は回答候補392が正解クラス及び誤答クラスにそれぞれ属する確率である。
【0065】
図8を参照して、「何」型質問生成部480が質問390を1又は複数の「何」型質問に変換してファクトイド・なぜ型質問応答システム394に与え、各々の質問に対して1又は複数の回答を得る。「何」型質問生成部480はこれら回答の各々を対応する「何」型質問とペアにして背景知識記憶部398に格納する。同様に「なぜ」型質問生成部482が質問390を1又は複数の「なぜ」型質問に変換し、ファクトイド・なぜ型質問応答システム394に与えて各々に対して1又は複数の回答を得る。「なぜ」型質問生成部482は、これら回答の各々を元の「なぜ」型質問とペアにして背景知識記憶部398に格納する。背景知識記憶部398は質問と回答のペアの各々をエンコーダ406に与える。なお背景知識記憶部398は、背景知識記憶部398に記憶された「何」型質問に対する回答の集合Btからtf(w,Bt)を、「なぜ」型質問に対する回答の集合Bcからtf(w,Bc)を、それぞれ計算し、図7に示すエンコーダ404に出力する。
【0066】
図12を参照して、エンコーダ406は背景知識記憶部398から与えられた質問と回答のペアの各々について、質問をベクトル変換部600により単語埋込ベクトル列602に変換し、CNN604によりさらにベクトル606に変換する。同様にエンコーダ406は、回答をベクトル変換部610により単語埋込ベクトル列612に変換し、CNN614により更にベクトル616に変換する。エンコーダ406は、このように変換された質問ベクトル及び回答ベクトルのペアの各々をキー・バリューメモリ420に格納する。この処理の結果、今回の例では、キー・バリューメモリ420のキーメモリ440には「何」型質問に対応するキーと「なぜ」型質問に対応するキーとが格納され、バリューメモリ442には、これら各質問とペアになっている回答460,…,462が格納される。
【0067】
一方、質問390はエンコーダ402に与えられる。図9を参照して、エンコーダ402のベクトル変換部500は、質問390を単語埋込ベクトル列502に変換してCNN504に与える。CNN504はこの単語埋込ベクトル列502を質問ベクトル506に変換しキー・バリューメモリアクセス部422に与える。
【0068】
図7に示すエンコーダ404は、回答候補392を受けて以下のように動作する。図10を参照して、ベクトル変換部520は回答候補392を単語埋込ベクトル列522に変換する。単語埋込ベクトル列522は演算部528及びアテンション算出部524に与えられる。
【0069】
図11を参照して、アテンション算出部524のtfidf算出部570は、回答候補の各単語wに対し、「何」型質問に対する回答の集合Btから計算したtf(w,Bt)を背景知識記憶部398から受ける。tfidf算出部570はまた、図7に示すファクトイド・なぜ型質問応答システム394から、|D|/df(w)を受ける。tfidf算出部570は、これらから式(3)にしたがってtfidf(w,Bt)を計算し正規化部572に与える。
【0070】
正規化部572は、図7に示す背景知識記憶部398からΣtfidf(wj,Bt)を受け、式(4)にしたがって正規化されたtfidfであるassoc(w,B)を各単語wについて算出し、行列生成部554に与える。
【0071】
第2の正規化tfidf算出部552のtfidf算出部580及び正規化部582も、「なぜ」型質問に対する回答の集合Bcから計算されたtf(w,Bt)を用い、tfidf算出部570と同様にして正規化されたtfidfであるassoc(w,Bc)を算出し行列生成部554に与える。
【0072】
行列生成部554は、これらのassoc(w,Bt)を第1行、assoc(w,Bc)を第2行に配置した行列を生成し、図10に示すアテンション行列526として演算部528に与える。
【0073】
演算部528は、ベクトル変換部520からの単語埋込ベクトル列522に対してアテンション行列526を乗ずることによりアテンション付の単語埋込ベクトル列530を生成しCNN532に与える。
【0074】
CNN532は、この入力に応答して回答候補ベクトル534を出力し出力層410の入力に与える。
【0075】
一方、図13を参照して、エンコーダ402から質問ベクトルqを受けた関連度計算部632は、キーメモリ440に格納されている各キー(背景知識の質問ベクトル)と質問ベクトルqとの内積を取ることにより質問qと背景知識の各質問ベクトルとの関連度の指標を計算し、さらにソフトマックス関数によって各関連度を正規化して関連度記憶部636に格納する。
【0076】
チャンク化処理部638は同じ質問に対する回答のベクトルの平均を式(1)及び(2)により算出し(チャンク化し)、正規化された回答ベクトルを算出する。すなわち、ここでいう正規化とは、各回答のベクトルを平均したものを求めることをいう。このような正規化を行うと以下のような効果がある。すなわち、ある質問に対して抽出された回答の集合に含まれる回答数が多い場合には、その集合にはかなりノイズが含まれると考えられる。一方、そのような回答の数が少ない質問は的確な質問であり、その回答の集合に含まれるノイズは少ないと考えられる。そこで、各質問に対する回答の集合を正規化すると、ノイズに相当する回答の重みがそうでない回答の重みに対して相対的に小さくなる。すなわち、知識源から得た背景知識におけるノイズを削減できる。そのため、最終的な回答が質問に対する的確な回答となる確率が高くなる。
【0077】
加重和算出部640は、関連度記憶部636に記憶された関連度を重みとして、チャンク化処理部638により正規化された回答ベクトルの加重和を計算し、ベクトルoとして図7に示す更新部424に出力する。
【0078】
図7を参照して、更新部424は、式(7)にしたがってエンコーダ402から受けた質問ベクトルq(u)とベクトルo(o)との間で演算を行い、その結果のベクトルuを出力層410の入力に与える。
【0079】
出力層410は、エンコーダ404から与えられたアテンション付の回答候補ベクトルと、更新部424から与えられた更新後の質問ベクトルuとの間で式(8)による演算を行って結果を出力する。この結果が、回答候補392が質問390に対する正しい回答かどうかの判定結果となる。
【0080】
〈訓練〉
質問応答システム380のうち、エンコーダ402、404及び406以後の処理はニューラルネットワークで実現される。まず、質問と、その質問に対する回答候補とのペアを多数収集し、各ペアを訓練サンプルとする。訓練サンプルとしては正例と負例との双方を準備する。正例とは、回答候補が質問に対する正しい回答であるもののことをいい、負例とはそうでないものをいう。正例と負例とは各訓練サンプルに付されたラベルにより区別される。ニューラルネットワークのパラメータは、公知の方法により初期化される。
【0081】
質問390と回答候補392として訓練サンプルの質問と回答候補とがエンコーダ402及び406に与えられる。質問応答システム380はこれらに対して上記した推論処理と同じ処理を実行し、結果を出力層410から出力する。この結果は、0から1の間で回答候補が正解クラスに属する確率と、誤答クラスに属する確率である。ラベル(0又は1)とこの出力との間の誤差を計算し、質問応答システム380のパラメータを誤差逆伝搬法により更新する。
【0082】
こうした処理を全ての訓練サンプルに対して実行し、その結果、質問応答システム380の回答精度がどの程度となったかを別に準備した検証用データセットで検証する。検証結果の精度の変化が所定のしきい値より大きければ、再度全ての訓練サンプルに対して訓練を実行する。精度の変化がしきい値未満となった時点で訓練を終了する。繰返し回数が所定のしきい値となった時点で訓練を終了してもよい。
【0083】
このようにして訓練をした結果、質問応答システム380を構成する各部のパラメータの訓練が行われる。
【0084】
[第2の実施の形態]
第1の実施の形態ではホップ数H=1、すなわちキー・バリューメモリアクセス部422によるメモリアクセスと更新部424による質問の更新とが1回のみ行われるものであった。しかし本発明はそのような実施の形態には限定されない。ホップ数が2以上でもよい。実験によれば、ホップ数H=3の質問応答システムが最もよい性能を示した。第2の実施の形態はホップ数H=3の場合を示す。
【0085】
図14を参照して、この第2の実施の形態に係る質問応答システム660は、図7に示す質問応答システム380の構成に、第1レイヤ408といずれも同様の構成を持つ第2レイヤ670及び第3レイヤ672を含む点である。これらの構造は第1レイヤ408と同様であるためここではその説明は繰返さない。
【0086】
図14に示すように、第1レイヤ408の更新部424の出力uは第2レイヤ670の更新部及びキー・バリューメモリアクセス部に与えられる。同様に、第2レイヤ670の更新部の出力uは第3レイヤ672の更新部及びキー・バリューメモリアクセス部に与えられる。第3レイヤ672の更新部の出力uは第1の実施の形態における第1レイヤ408の更新部424の出力と同様、出力層410に与えられる。これら各更新部によりコントローラ680が形成される。
【0087】
この第2の実施の形態に係る質問応答システム660の動作は、推論時においても訓練時においても、第1レイヤ408だけではなく第2レイヤ670及び第3レイヤ672の処理を行う点を除き、第1の実施の形態と同様である。したがってここではその詳細な説明は繰返さない。
【0088】
なお、キー・バリューメモリ420は第1レイヤ408、第2レイヤ670及び第3レイヤ672で共通に使用される。ただし、式(2)に示す行列W 及びW (m=1,2,3)は、レイヤ毎に異なる行列であり、訓練の対象である。
【0089】
[実験結果]
ホップ数Hの値を様々に代えた質問応答システムにより実験を行ったが、前述したとおり、ホップ数H=3のときに最も良い性能を示した。図15にその結果を示す。
【0090】
図15において、Baseは質問と回答のみを用いてニューラルネットワークで回答判定を行うシステムを表す。Base+BKはBaseに上記各実施の形態と同様の手法で獲得した背景知識を与えたシステムである。ただしメモリネットワークと異なり、質問に対する処理は行わない。Base+KVMsは背景知識の処理に非特許文献2において提案されたKVMsを使ったシステムを表す。Base+cKVMsは上記第2の実施の形態の質問応答システム660に相当するシステムである。またP@1は最上位回答の精度であり、MAPは上位20の回答の精度の平均を表す。
【0091】
図15において、Base+BKはBaseに対してP@1で+6.8ポイント、MAPで+6.1ポイントの改善を示した。したがって上記実施の形態で提案した背景知識がHOW型質問応答において有効であることが分かる。さらに、Base+KVMsと比較してBase+cKVMsではP@1で+5.2ポイント、MAPでは+2.5ポイントの改善を示した。したがって、KVMsに代えてcKVMsを使うことで精度をより向上させることができることが分かった。
【0092】
[コンピュータによる実現」
上記した各実施の形態に係る質問応答システム380及び質問応答システム660の各機能部は、それぞれコンピュータハードウェアと、そのハードウェア上でCPU(中央演算処理装置)及びGPU(Graphics Processing Unit)により実行されるプログラムとにより実現できる。図16及び図17に上記各装置及びシステムを実現するコンピュータハードウェアを示す。GPUは通常は画像処理を行うために使用されるが、このようにGPUを画像処理ではなく通常の演算処理に使用する技術をGPGPU(General-purpose computing on graphics processing units)と呼ぶ。GPUは同種の複数の演算を同時並列的に実行できる。一方、ニューラルネットワークの動作時には、各ノードの重み演算は単純な積和演算であり、しかもそれらは同時に超並列的に実行できる。訓練時にはさらに大量の演算を行う必要が生ずるが、それらも超並列的に実行できる。したがって、質問応答システム380及び質問応答システム660を構成するニューラルネットワークの訓練と推論にはGPGPUを備えたコンピュータが適している。
【0093】
図16を参照して、このコンピュータシステム830は、メモリポート852及びDVD(Digital Versatile Disk)ドライブ850を有するコンピュータ840と、キーボード846と、マウス848と、モニタ842とを含む。
【0094】
図17を参照して、コンピュータ840は、メモリポート852及びDVDドライブ850に加えて、CPU856及びGPU858と、CPU856、GPU858、メモリポート852及びDVDドライブ850に接続されたバス866と、ブートプログラム等を記憶する読出専用メモリであるROM860と、バス866に接続され、プログラム命令、システムプログラム及び作業データ等を記憶するコンピュータ読出可能な記憶媒体であるランダムアクセスメモリ(RAM)862と、ハードディスク854を含む。コンピュータ840はさらに、いずれもバス866に接続され、他端末との通信を可能とするネットワーク868への接続を提供するネットワークインターフェイス(I/F)844と、外部との音声信号の入出力を行うための音声I/F870とを含む。
【0095】
コンピュータシステム830を上記した実施の形態に係る各装置及びシステムの各機能部として機能させるためのプログラムは、DVDドライブ850又はメモリポート852に装着される、いずれもコンピュータ読出可能な記憶媒体であるDVD872又はリムーバブルメモリ864に記憶され、さらにハードディスク854に転送される。又は、プログラムはネットワーク868を通じてコンピュータ840に送信されハードディスク854に記憶されてもよい。プログラムは実行の際にRAM862にロードされる。DVD872から、リムーバブルメモリ864から又はネットワーク868を介して、直接にRAM862にプログラムをロードしてもよい。また、上記処理に必要なデータは、ハードディスク854、RAM862、CPU856又はGPU858内のレジスタ等の所定のアドレスに記憶され、CPU856又はGPU858により処理され、プログラムにより指定されるアドレスに格納される。最終的に訓練が終了したニューラルネットワークのパラメータは、ニューラルネットワークの訓練及び推論アルゴリズムを実現するプログラムとともに例えばハードディスク854に格納されたり、DVDドライブ850及びメモリポート852をそれぞれ介してDVD872又はリムーバブルメモリ864に格納されたりする。又は、ネットワークI/F844を介してネットワーク868に接続された他のコンピュータ又は記憶装置に送信される。
【0096】
このプログラムは、コンピュータ840を、上記実施の形態に係る各装置及びシステムとして機能させるための複数の命令からなる命令列を含む。上記各装置及びシステムにおける数値演算処理は、CPU856及びGPU858を用いて行う。CPU856のみを用いてもよいがGPU858を用いる方が高速である。コンピュータ840にこの動作を行わせるのに必要な基本的機能のいくつかはコンピュータ840上で動作するオペレーティングシステム若しくはサードパーティのプログラム又はコンピュータ840にインストールされる、ダイナミックリンク可能な各種プログラミングツールキット又はプログラムライブラリにより提供される。したがって、このプログラム自体はこの実施の形態のシステム、装置及び方法を実現するのに必要な機能全てを必ずしも含まなくてよい。このプログラムは、命令のうち、所望の結果が得られるように制御されたやり方で適切な機能又はプログラミングツールキット又はプログラムライブラリ内の適切なプログラムを実行時に動的に呼出すことにより、上記したシステム、装置又は方法としての機能を実現する命令のみを含んでいればよい。もちろん、プログラムのみで必要な機能を全て提供してもよい。
【0097】
今回開示された実施の形態は単に例示であって、本発明が上記した実施の形態のみに制限されるわけではない。本発明の範囲は、発明の詳細な説明の記載を参酌した上で、特許請求の範囲の各請求項によって示され、そこに記載された文言と均等の意味及び範囲内での全ての変更を含む。
【符号の説明】
【0098】
150 Key-value memory
170、390 質問
172 マッチング
174、330 keyメモリ
176、332 valueメモリ
178 加重和
250 How型質問
252、280、282 「何」型質問
254 「なぜ」型質問
256 「何」型質問応答システム
258 「なぜ」型質問応答システム
260、262、350、352 回答群
290、292、294、296、298、300 回答
320 chunked key-value memory
334 平均処理部
380、660 質問応答システム
392 回答候補
394 ファクトイド・なぜ型質問応答システム
396 背景知識抽出部
398 背景知識記憶部
402、404、406 エンコーダ
408 第1レイヤ
410 出力層
420 キー・バリューメモリ
422 キー・バリューメモリアクセス部
424 更新部
440 キーメモリ
442 バリューメモリ
450、452 キー
460、462 回答
480 「何」型質問生成部
482 「なぜ」型質問生成部
500、520、600、610 ベクトル変換部
502、522、602、612 単語埋込ベクトル列
504、532、604、614 CNN
506 質問ベクトル
524 アテンション算出部
526 アテンション行列
528 演算部
530 アテンション付ベクトル列
534 回答候補ベクトル
550 第1の正規化tfidf算出部
552 第2の正規化tfidf算出部
570、580 tfidf算出部
572、582 正規化部
632 関連度計算部
636 関連度記憶部
638 チャンク化処理部
640 加重和算出部
670 第2レイヤ
672 第3レイヤ
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14
図15
図16
図17