【課題を解決するための手段】
【0011】
本発明の第1の態様では、コンピュータが実施するニューラルネットワークのトレーニング方法が提供され、該方法は、
意味的文脈での1つ以上のキーワードをそれぞれ含む複数の第1のテキストドキュメントの第1の集合を用いて、自己組織化マップ型の第1のニューラルネットワークを、各ドキュメントを意味的クラスタリングによって自己組織化マップ内の点にマッピングするために、トレーニングするステップと、
第1の集合に存在する各キーワードについて、パターンとして、キーワードを含む第1のドキュメントがマッピングされる、自己組織化マップ内の全ての点を決定し、パターン辞書内の該キーワードに対する該パターンを保存するステップと、
意味的文脈での1つ以上のキーワードをそれぞれ含む複数の第2のテキストドキュメントの第2の集合から、少なくとも1つのキーワード列を形成するステップと、
パターン辞書を用いて少なくとも1つのキーワード列を少なくとも1つのパターン列に変換するステップと、
少なくとも1つのパターン列を用いて第2のニューラルネットワークをトレーニングするステップと、
を含む。
【0012】
本方法を用いてトレーニングされた第2のニューラルネットワークは、種々の用途、たとえば:
i)少なくとも1つのキーワードを含むテキストの処理であって、
パターン辞書により、少なくとも1つのキーワードを少なくとも1つのパターンに変換するステップと、
トレーニングされた第2のニューラルネットワークに少なくとも1つのパターンを入力パターンとして供給するステップと、
トレーニングされた第2のニューラルネットワークから少なくとも1つの出力パターンを得るステップと、
パターン辞書により、少なくとも1つの出力パターンを少なくとも1つのキーワードに変換するステップと、
を含む処理;
ii)階層型の第2のニューラルネットワークが用いられる場合の、テキストの意味的分類であって、少なくとも1つの入力パターンが階層の少なくとも1つの下層に供給され、少なくとも1つの出力パターンが階層の少なくとも1つの上層から得られる、意味的分類:
iii)階層型の第2のニューラルネットワークが用いられる場合の、テキストの意味的予測であって、少なくとも1つの入力パターンが階層の少なくとも1つの上層に供給され、少なくとも1つの出力パターンが階層の少なくとも1つの上層から得られる、意味的予測、
で使用されるように構成され、準備されている。
【0013】
別の態様では、本発明によれば、テキストをニューラルネットワーク読み取り可能な形態に変換するためのコンピュータ読み取り可能な辞書を生成する方法が提供され、該方法は、
意味的文脈での1つ以上のキーワードをそれぞれ含む複数の第1のテキストドキュメントの第1の集合を用いて、自己組織化マップ型の第1のニューラルネットワークを、各テキストドキュメントを意味的クラスタリングによって自己組織化マップ内の点にマッピングするために、トレーニングするステップと、
第1の集合に存在する各キーワードについて、キーワードと関連する点のパターンとしてキーワードを含むテキストドキュメントがマッピングされる、自己組織化マップ内の全ての点を決定するステップと、
全てのキーワードおよび関連するパターンをコンピュータ読み取り可能なパターン辞書として保存するステップと、
を含む。
【0014】
本発明によれば、コンピュータ読み取り可能な媒体上で実現されるこの種のコンピュータ読み取り可能な辞書が提供される。
【0015】
本発明の別の態様は、
ニューラルネットワークが、第1の言語の第1および第2のテキストドキュメントを用いて、本発明の第1の態様にかかる方法によってトレーニングされた分類機械と、
ニューラルネットワークが、第2の言語の第1および第2のテキストドキュメントを用いて、本発明の第1の態様にかかる方法によってトレーニングされた予測機械と、
第1の言語の第1および第2のテキストドキュメントを用いて自身のニューラルネットワークがトレーニングされた分類機械と、第2の言語の第1および第2のテキストドキュメントを用いて自身のニューラルネットワークがトレーニングされた予測機械と、を備えており、分類機械のニューラルネットワークのノードが予測機械のニューラルネットワークのノードに結合されている、変換機械と、
を備えている。
【0016】
全ての態様において、本発明は、3つの異なる技術、すなわち、自己組織化マップ(SOM)、SOMにおけるキーワードの逆インデックス、および、パターンのストリームに変換されたテキストが供給される目標ニューラルネットワーク、を全く新規なやり方で組み合わせる。
【0017】
本発明の基本の1つは、キーワードと2次元の(またはより多次元の)パターンとの間の関連付けを含む、新規な種類の「キーワード−パターン」辞書(「パターン辞書」と省略)の生成である。このパターンは、第1のドキュメントの集合の文脈でのキーワードの意味(semantics)を表す。以下に記載されるように、たとえば百科事典の記事といった第1のドキュメントの集合として意味的文脈の適切な集まりを選択することにより、各パターンはキーワードの意味的文脈、すなわち、キーワードの意味(meaning)を反映する。
【0018】
パターンは、SOMニューラルネットワーク、特に、「コホネンの自己組織化マップ」(「コホネンの特徴マップ」)によって生成される。SOMの詳細については、たとえば、Kohonen, T., "The Self-Organizing Map", Proceedings of the IEEE, 78(9), 1464-1480, 1990;Kohonen, T., Somervuo, P., "Self -Organizing Maps of Symbol Strings",Neurocomputing, 21(1-3), 19-30, 1998;Kaski, S., Honkela, T., Lagus, K., Kohonen, T., "Websom-Self -Organizing Maps of Document Collections", Neurocomputing, 21(1-3), 101-117, 1998;Merkl , D., "Text Classification with Self -Organizing Maps: Some Lessons Learned", Neurocomputing, 21(1-3), 61-77, 1998;Vesanto, J., Alhoniemi, E., "Clustering of the Self-Organizing Map", IEEE Transactions on Neural Networks, 11(3), 586-600, 2000;Poelzlbauer G., Dittenbach M., Rauber A.,"Advanced Visualization of Self-Organizing Maps with Vector Fields", IEEE Transactions on Neural Networks 19, 911-922, 2006が参照され、これらは参照により本明細書中に含まれる。
【0019】
SOMによって生成されたパターンは、その後、テキストドキュメントの第2の(トレーニング)集合からのキーワード列を、パターン認識のために第2の(目標)ニューラルネットワークに供給されるパターン列に変換するために用いられる。パターン認識はニューラルネットワークの強みの1つである。各パターンはキーワードの固有の意味(meaning)を表し、パターン列はキーワードの文脈上の意味(meaning)を表すことから、第2のドキュメントの集合におけるキーワードの意味(semantics)は、第1のドキュメントの集合の文脈でのキーワードの固有の意味(meaning)を参照して(そしてその背景を前にして)、目標ニューラルネットワークによって分析される。結果として、目標ニューラルネットワークはテキストの意味(semantics)を効率的かつ有意に分析することができる。
【0020】
本発明の方法および装置はあらゆる種類の目標ニューラルネットワークのトレーニングに適している。好ましい分野は階層的で(少なくとも部分的に)再帰的なニューラルネットワーク、特に、自己連想記憶理論(MPF)または階層的一時記憶(HTM)型のニューラルネットワークである。MPFおよびHTMの理論および実施の詳細は、たとえば、Hawkins, J., George, D., Niemasik, J., "Sequence Memory for Prediction, Inference and Behaviour", Philosophical Transactions of the Royal Society of London, Series B, Biological Sciences, 364(1521), 1203-9, 2009;Starzyk, J. A., He, H., "Spatio-Temporal Memories for Machine Learning: A Long-Term Memory Organization", IEEE Transactions on Neural Networks, 20(5), 768-80, 2009;Numenta, Inc., "Hierarchical Temporal Memory Including HTM Cortical Learning Algorithms", Whitepaper of Numenta, Inc., Version 0.2.1, September 12, 2011;Rodriguez A., Whitson J., Granger R., "Derivation and Analysis of Basic Computational Operations of Thalamocortical Circuits", Journal of Cognitive Neuroscience, 16:5, 856-877, 2004;Rodriguez, R. J., Cannady, J. A., "Towards a Hierarchical Temporal Memory Based Self-Managed Dynamic Trust Replication Mechanism in Cognitive Mobile Ad-hoc Networks", Proceedings of the 10th WSEAS international conference on artificial intelligence, knowledge engineering and data bases, 2011や、特許(出願)US2007/0276774A1、US2008/0059389A1、US7739208B2、US7937342B2、US2011/0225108Al、US8037010B2およびUS8103603B2が参照され、これらの論文および特許文献の開示は本明細書中に参照により含まれる。
【0021】
MPFおよびHTM型ニューラルネットワークは、入力パターンストリームの階層的な時系列表現を保存し、テキストの時間的(time-spanning)で、階層的な意味(semantics)を把握するのに特に適している。異なる階層の層にあるノード(ニューロン)は、それ自体、キーワードの階層的抽象化(分類)を表す。分類(抽象化)は、入力が階層の下から上に供給される際の、このようなネットワークの本来的作用原則であり、予測(具体化)は入力が階層の上から下に供給される際の本来的作用原則である。
【0022】
本発明の他の態様では、キーワードの全体の分類(抽象化、カテゴリ)を表すノードの概念が、分類装置のノード出力に割り当てられる予測機械として変換機械を構築するために用いられる。
【0023】
本発明の別の態様では、複数の第2のドキュメントを用いて、トレーニングパターンストリームに変換して、第2のドキュメントの特定の集合における第2のニューラルネットワークをトレーニングすることができる。
【0024】
本発明の他の実施形態では、第2のドキュメントは複雑性の低い順にソートされ、第2のニューラルネットワークのトレーニングの際には、パターンの個別の列がそれぞれ形成され、変換される第2のドキュメントのソート順で、パターンの個別の列が第2のニューラルネットワークに供給される。これは第2のニューラルネットワークのより高速なトレーニングにつながる。
【0025】
本発明の他の別の態様では、第2のドキュメントの複雑性は、第2のドキュメント中の異なるキーワードの数、第2のドキュメント中の平均文長、第2のドキュメント中の第1の集合の1つ以上のキーワードの頻度、第1の集合または別のテキストコーパス中の第2のドキュメントの1つ以上のキーワードの頻度の1つ以上に基づいて確認される。
【0026】
本発明は、添付図面を参照してより詳細に説明される。