IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 沖電気工業株式会社の特許一覧

特開2023-17307言語処理装置、及び言語処理プログラム
<>
  • 特開-言語処理装置、及び言語処理プログラム 図1
  • 特開-言語処理装置、及び言語処理プログラム 図2
  • 特開-言語処理装置、及び言語処理プログラム 図3
  • 特開-言語処理装置、及び言語処理プログラム 図4
  • 特開-言語処理装置、及び言語処理プログラム 図5
  • 特開-言語処理装置、及び言語処理プログラム 図6
  • 特開-言語処理装置、及び言語処理プログラム 図7
  • 特開-言語処理装置、及び言語処理プログラム 図8
  • 特開-言語処理装置、及び言語処理プログラム 図9
  • 特開-言語処理装置、及び言語処理プログラム 図10
  • 特開-言語処理装置、及び言語処理プログラム 図11
  • 特開-言語処理装置、及び言語処理プログラム 図12
  • 特開-言語処理装置、及び言語処理プログラム 図13
  • 特開-言語処理装置、及び言語処理プログラム 図14
  • 特開-言語処理装置、及び言語処理プログラム 図15
  • 特開-言語処理装置、及び言語処理プログラム 図16
  • 特開-言語処理装置、及び言語処理プログラム 図17
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2023017307
(43)【公開日】2023-02-07
(54)【発明の名称】言語処理装置、及び言語処理プログラム
(51)【国際特許分類】
   G06F 40/30 20200101AFI20230131BHJP
【FI】
G06F40/30
【審査請求】未請求
【請求項の数】4
【出願形態】OL
(21)【出願番号】P 2021121484
(22)【出願日】2021-07-26
(71)【出願人】
【識別番号】000000295
【氏名又は名称】沖電気工業株式会社
(74)【代理人】
【識別番号】100180275
【弁理士】
【氏名又は名称】吉田 倫太郎
(74)【代理人】
【識別番号】100161861
【弁理士】
【氏名又は名称】若林 裕介
(72)【発明者】
【氏名】奥村 晃弘
【テーマコード(参考)】
5B091
【Fターム(参考)】
5B091AA15
5B091CA02
5B091CA12
5B091CC04
5B091EA01
5B091EA02
(57)【要約】      (修正有)
【課題】解析の連鎖を必要とせずに高精度に発話意図を取得できる言語処理装置及び言語処理プログラムを提供する。
【解決手段】言語処理装置1は、入力テキストをトークンに分割するトークン分割部11と、概念の含有関係を定義する概念定義部14と、トークン分割部11で分割されたトークンについて、概念定義部14で定義した概念の階層数に応じて、自然言語の学習と推論を行うトークン分類部12と、トークン分類部12で学習した学習結果を記憶するモデル15-1~15-Nと、モデル15-1~15-Nを用いたトークン分類部12の推論結果に基づいてスロット充填を行うスロット充填部13と、を有する。
【選択図】図1
【特許請求の範囲】
【請求項1】
入力テキストをトークンに分割するトークン分割手段と、
概念の含有関係を定義する概念定義手段と、
前記トークン分割手段で分割されたトークンについて、前記概念定義手段で定義した概念の階層数に応じて、自然言語の学習と推論を行うトークン分類手段と、
前記トークン分類手段で学習した学習結果を記憶するモデルと、
前記モデルを用いた前記トークン分類手段の推論結果に基づいて、スロット充填を行うスロット充填手段と
を有することを特徴とする言語処理装置。
【請求項2】
前記モデルは、前記階層数と同一又はそれ以上の数のモデルで構成され、
前記トークン分類手段は、階層ごとに前記モデルに基づくトークン分類問題を解き、
前記スロット充填手段は、前記トークン分類問題の結果を統合してスロット充填を行う
ことを特徴とする請求項1に記載の言語処理装置。
【請求項3】
前記スロット充填手段は、トークンごとの分類結果を前記概念定義手段で定義した前記含有関係を維持するように補正することを特徴とする請求項2に記載の言語処理装置。
【請求項4】
コンピュータを、
入力テキストをトークンに分割するトークン分割手段と、
概念の含有関係を定義する概念定義手段と、
前記トークン分割手段で分割されたトークンについて、前記概念定義手段で定義した概念の階層数に応じて、自然言語の学習と推論を行うトークン分類手段と、
前記トークン分類手段で学習した学習結果を記憶するモデルと、
前記モデルを用いた前記トークン分類手段の推論結果に基づいて、スロット充填を行うスロット充填手段と
して機能させることを特徴とする言語処理プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、言語処理装置、及び言語処理プログラムに関する。
【背景技術】
【0002】
近年、言語処理技術の発達によって、機械が人間の発話を理解していると感じることができるシステムが増加している。例えば、特定のタスクを遂行するためのタスク指向型の対話システムでは、あらかじめ想定した範囲内で対話することができる。
【0003】
上記のような対話システムには人間の発話意図を知るための意図解析が必要となる。この意図解析に関しては、例えば、特許文献1に記載の技術が挙げられる。特許文献1に記載の技術は、発話を形態素解析、構文解析、意図解析の順番に連鎖させて処理するものである。
【先行技術文献】
【特許文献】
【0004】
【特許文献1】特許第6328260号
【非特許文献】
【0005】
【非特許文献1】Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova, “BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding” arXiv:1810.04805 (2018)
【発明の概要】
【発明が解決しようとする課題】
【0006】
しかしながら、上述のタスク指向型の対話システムでは、例えば、事前に想定する範囲を広げた状況の場合や、1回の発話で伝えるべき情報量が多い場合には適切に処理をすることができなかった。
【0007】
本来、対話システムは、想定する範囲を広げてより汎用的に使えるようにすることや、1回の発話で複雑な用件を伝えられても処理できることが望まれる。想定範囲を広げていくと発話内容とその表現方法は爆発的に増加するし、複雑な用件の場合には1回の発話に含まれる単語数が増加するので、従来よりもさらに意図解析精度を向上させる必要がある。
【0008】
しかしながら、従来の3つの解析技術を連鎖させる方式では、全体の精度を向上させることが困難であった。例えば、それぞれの精度を95%まで高めたとしても、全体では86%となってしまう。何れの分野であっても90%台後半からさらに精度を上げるのは非常に困難であるため、この問題は重大であり、解決すべき問題であった。
【0009】
本発明は、上述した課題に鑑み、解析の連鎖を必要とせずに高精度に発話意図を取得できる言語処理装置、及び言語処理プログラムを提供するものである。
【課題を解決するための手段】
【0010】
第1の本発明の言語処理装置は、(1)入力テキストをトークンに分割するトークン分割手段と、(2)概念の含有関係を定義する概念定義手段と、(3)前記トークン分割手段で分割されたトークンについて、前記概念定義手段で定義した概念の階層数に応じて、自然言語の学習と推論を行うトークン分類手段と、(4)前記トークン分類手段で学習した学習結果を記憶するモデルと、(5)前記モデルを用いた前記トークン分類手段の推論結果に基づいて、スロット充填を行うスロット充填手段とを有することを特徴とする。
【0011】
第2の本発明の言語処理プログラムは、コンピュータを、(1)入力テキストをトークンに分割するトークン分割手段と、(2)概念の含有関係を定義する概念定義手段と、(3)前記トークン分割手段で分割されたトークンについて、前記概念定義手段で定義した概念の階層数に応じて、自然言語の学習と推論を行うトークン分類手段と、(4)前記トークン分類手段で学習した学習結果を記憶するモデルと、(5)前記モデルを用いた前記トークン分類手段の推論結果に基づいて、スロット充填を行うスロット充填手段として機能させることを特徴とする。
【発明の効果】
【0012】
本発明によれば、解析の連鎖を必要とせずに高精度に発話意図を取得できる。
【図面の簡単な説明】
【0013】
図1】実施形態に係る言語処理装置の構成を示すブロック図である。
図2】実施形態に係る任意の発話に対して充填したスロットの一例を示す説明図である。
図3】実施形態に係る概念定義部で定義したオントロジーの一例を示す説明図(その1)である。
図4】実施形態に係る概念定義部で定義したオントロジーの一例を示す説明図(その2)である。
図5】実施形態に係る入力テキストと概念定義部内の概念との関係を示す説明図である。
図6】実施形態に係る教師データの一例を示す説明図(その1)である。
図7】実施形態に係る教師データの一例を示す説明図(その2)である。
図8】実施形態に係る言語処理装置の学習時の動作について示すフローチャートである。
図9】実施形態に係る言語処理装置の推論時の動作について示すフローチャートである。
図10】実施形態に係る各モデルに基づく推論結果をまとめた一例を示す説明図である(その1)
図11】実施形態に係るスロット表の一例を示す説明図である(その1)
図12】実施形態に係る各モデルに基づく推論結果をまとめた一例を示す説明図である(その2)
図13】実施形態に係るスロット表の一例を示す説明図である(その2)
図14】実施形態に係る各モデルに基づく推論結果をまとめた一例を示す説明図である(その3)
図15】実施形態に係るスロット表の一例を示す説明図である(その3)
図16】実施形態に係るトークン分類部による分類結果の補正方法のイメージを示す説明図である。
図17】実施形態に係る概念定義と学習モデルの関係を示す説明図である。
【発明を実施するための形態】
【0014】
(A)基本概念
まず、本発明の基本概念を図面を参照しながら説明する。
【0015】
本発明では発話意図の取得をスロット充填として捉える。図2は、実施形態に係る任意の発話に対して充填したスロットの一例を示す説明図である。
【0016】
図2(A)では、「山田と申します。女性です。」と発話された例が示されている。この例は、図2(B)に示すように「名前」と「性別」の2つのスロットが存在し、それぞれに「山田」と「女性」が値として入っていることを示している。以降では「名前」や「性別」をスロット名、「山田」や「女性」をスロット値と呼ぶものとする。
【0017】
スロットには値として表現を取るものと、概念を取るものの2種類が存在する。スロット値として表現を取るとは、発話内容の一部を切り出してそこで使用された表現をそのまま使うことを意味する。
【0018】
例えば、図2(B)の名前スロットは発話内容から人名部分を切り出すことで、スロット値を求めることができる。一方、図2(B)のもう1つのスロットである性別スロットは「女性」か「男性」を区別するためのものとすると、このスロットは値として概念を取るスロットでなければならない。なぜなら、「女性」か「男性」を区別しようとする場合、「女性」、「女の子」、「オンナ」など様々に表現された言葉を1つの概念としてまとめる必要があるからである。即ち、性別スロットの値である「女性」は、発話内容の一部を切り出したものではなく、「女性」「女の子」「オンナ」などで表される概念の名前である。
【0019】
上述したとおり、「女性」という概念を表現する言葉は数多くあり、その中には「女性」という言葉自身も含まれている。つまり、図2の例では、一見発話内容の一部を切り出したように見えるが、実際上は概念を取得している。
【0020】
スロット充填にあたって、スロット値として表現を取るものは、固有表現抽出技術などで処理可能であることから、本発明ではスロットの値として概念を取得する場合を対象とし、以下、本発明の具体例である実施形態を示すものとする。
【0021】
(B)主たる実施形態
以下、本発明に係る言語処理装置、及び言語処理プログラムの実施形態を、図面を参照しながら詳述する。
【0022】
(B-1)実施形態の構成
(B-1-1)言語処理装置の詳細な構成
図1は、実施形態に係る言語処理装置の構成を示すブロック図である。
【0023】
図1において、実施形態に係る言語処理装置1は、トークン分割部11、トークン分類部12、スロット充填部13、概念定義部14、第1階層モデル15-1~第N階層モデル15-N、及び教師データ16を有する。
【0024】
実施形態に係る言語処理装置は、図1に示す各構成部を搭載した専用のICチップ等のハードウェアとして構成しても良いし、又は、CPUと、CPUが実行するプログラムを中心としてソフトウェア的に構成して良いが、機能的には、図1で表すことができる。
【0025】
トークン分割部11は、テキストで書かれた文書(例えば、txtファイル、Wordファイル等種々様々なデータ形式)である入力テキスト5をトークンに分割する機能部である。
【0026】
この実施形態では、トークン分割部11は、入力テキスト5を1文字ごとのトークンに分割するが、分割方法はこれに限定されるものでは無く、例えば、単語単位であっても良いし、単語をさらに細かく分割したサブワード単位であっても良い。
【0027】
トークン分類部12は、トークン分類の学習、および、推論を実施する機能部である。言語処理が可能で文脈情報をトークンに内包させる機械学習が好適である。例えば、非特許文献1に記載の技術を用いることができる。
【0028】
スロット充填部13は、トークン分類部12が入力テキスト5から推論した結果を統合し、スロット名とスロット値を出力する機能部である。
【0029】
概念定義部14は、スロットに使用する概念の定義を記憶する機能部である。概念の定義の仕方については後述する。
【0030】
第1階層モデル15-1~第N階層モデル15-Nは、トークン分類部12が学習および推論を実行するときに使用するモデルである。学習時には学習結果をモデルに保存し、推論時にはモデルを読み込んで推論する。階層別にモデルがあり、必要に応じて切り替えて使用される。
【0031】
(B-1-2)概念定義部の詳細
概念定義部14における概念の定義の仕方について説明を行う。
【0032】
概念定義部14では対象とする概念の包含関係(オントロジー)を定義する。概念の包含関係は、一般的な概念を全て網羅する方が好ましいが、これは現実的ではない。そのため、概念定義部14ではタスクに応じて必要な概念を定義する。
【0033】
図3は、実施形態に係る概念定義部で定義したオントロジーの一例を示す説明図(その1)である。
【0034】
紙面の都合上、概念を図3(A)から図3(E)に分割して示しているが、これらは全体で1つのツリー構造を成している。図3では、上位概念下位概念の関係を定義しており、Rootに近いほど上位の概念であることを表している。
【0035】
ところで、概念体系をあらゆる状況で使えるように一般化しようとすると、1つのツリー構造では表現できない場合もある。例えば、「動物」の下位概念を表す場合、少なくとも図4(A)、図4(B)の2種類が考えられ、これらを1つにまとめることはできない。従って、常に使える汎用のツリー構造があるわけではなく、タスクに応じてツリー構造を決めれば良い。ただし、上位概念と下位概念の関係は常に守られている必要がある。つまり、下位の概念はその上位概念に必ず含まれていなければならない。
【0036】
この実施形態の言語処理装置1は、概念定義部14で定義された階層の数だけのモデル(第1階層モデル15-1~第N階層モデル15-N)を準備し、階層ごとにトークン分類部12が学習および推論をできるように構成される。例えば、図17に示すように、概念定義部14で定義された階層の数が「4」だった場合には、第1階層モデル15-1~第4階層モデル15-4の4つのモデルを準備することになる。
【0037】
(B-2)実施形態の動作
次に、以上のような構成を有する実施形態に係る言語処理装置1の動作を説明する。言語処理装置1の動作は、学習時と推論時で動作が異なるので、それぞれについて順に説明する。
【0038】
(B-2-1)学習時の動作
まず、学習時の動作について説明する前に教師データ16の作成方法について具体例を挙げて説明する。以下では、手作業で教師データ16を作成する例を示すものとする。
【0039】
ここで示す例は、一般社員が社内の総務部門に社内ルールに関して質問する内容のテキストから意図を取得するタスクを想定している。
【0040】
取得する概念のツリー構造を概念定義部14に図3に示したように定義したとする。このとき入力テキストが「転勤になったので家族で引っ越すのですが、家族の旅費は支給されますか?」という文章の場合の考え方を図5に示すものとする。
【0041】
図5は、実施形態に係る入力テキストと概念定義部内の概念との関係を示す説明図である。図5では、入力テキストから以下の3点が分かることを前提としている。
【0042】
第1に「転勤…家族で引っ越す」という表現があることから、「赴任手当支給種別」が「家族同伴」であることである。
【0043】
第2に「転勤…引っ越す」という表現があることから、「転宅有無」が「転宅有」であることである。
【0044】
第3に「転勤…旅費は…?」という表現があることから、「知りたいこと」が「赴任旅費について知りたい」であることである。
【0045】
そして、3点それぞれの表現中の重要な単語として、「家族」501、「引っ越す」502、「旅費」503を選択し、注目単語として概念定義部14内の概念(図3)と結びつける。概念定義部14において、ある概念が該当する場合はその上位概念も必ず該当することから、Rootに至るまでのすべての上位概念を列挙し、階層ごとにまとめる。
【0046】
このように入力テキストに対して注目単語と取得すべき概念が決まったら、概念名として注目単語を抽出するためのトークン分類問題として、教師データ16を作成する。ただし、階層ごとに別々のモデル(第1階層モデル15-1~第N階層モデル15-N)として学習させるため、教師データ16も階層ごとに準備する。
【0047】
図5に基づいて作成した教師データ16を図6に示すものとする。なお、図6中の「B」、「I」、「O」は一般の系列ラベリングの手法に従っている。また、図6において第4階層を省略しているが、全てのラベルを「O」に設定する。なお、系列ラベリングの手法は上記に限らず、種々様々な手法を適用することができる。
【0048】
同様に、「日帰り出張のときの日当はいくらですか?」というテキストから作成した別の教師データを図7に示すものとする。
【0049】
このようにして、想定する入力テキストを多数準備し、それらから教師データ16を作成する。以上が教師データ16の作成方法である。
【0050】
続いて、言語処理装置1の学習時の動作について、説明を行う。図8は、実施形態に係る言語処理装置の学習時の動作について示すフローチャートである。
【0051】
<ステップS101>
概念定義部14に定義された階層の数を取得し、Nとする。対象とする階層を示す変数Aの値を1から順番に増やしながらステップS102、及びステップS103の処理を繰り返す。
【0052】
<ステップS102、ステップS103>
トークン分類部12は、階層Aの教師データ16を読み込み、機械学習を実施して学習した結果を第A階層モデル15-Aに保存する。
【0053】
<ステップS104>
言語処理装置1は、以上をNの処理が終わるまでステップS101に戻って繰り返す。
【0054】
(B-2-2)推論時の動作
次に、言語処理装置1の推論時の動作について、説明を行う。図9は実施形態に係る言語処理装置の推論時の動作について示すフローチャートである。
【0055】
<ステップS201>
まず、言語処理装置1のトークン分割部11は、入力テキスト5を1文字ごとのトークンに分割する。
【0056】
<ステップS202>
次に、言語処理装置1は、概念定義部14に定義された階層の数を取得し、Nとする。言語処理装置1は、対象とする階層を示す変数Aの値を1から順番に増やしながらステップS203の処理を繰り返す。
【0057】
<ステップS203>
トークン分類部12は、第A階層モデル15-Aから学習結果を読み込んで推論を実施する。
【0058】
<ステップS204>
言語処理装置1は、以上をNの処理が終わるまでステップS202に戻って繰り返す。
【0059】
<ステップS205>
ここまでで、言語処理装置1がN階層分のモデル(第1階層モデル15-1~第N階層モデル15-N)を使用してそれぞれ予測を実施したので、1つの入力テキスト5に対してN種類の結果が得られた状態である。各推論は個別に実施するため、概念定義部14で定義したツリー構造に当てはめるとRootからの1つのパスを形成しない場合がある。その場合には、トークンの分類結果を補正する。補正方法に関しては後述する。
【0060】
<ステップS206>
次に、トークン分類部12は、抽出した文字列ごとに各階層の結果を統合する。
【0061】
例えば、各モデルの推論結果が図6(教師データ16の例と共用)になった場合の結果は図10である。同様に、各モデルの推論結果が図7(教師データ16の例と共用)になった場合の結果は図12である。
【0062】
<ステップS207>
そして、スロット充填部13は、第1階層をスロット名、第2階層以降をスロット値としてスロットを作成し、スロット充填を実施する。
【0063】
例えば、スロット充填部13が図10から実施した結果(スロット表)を図11に示すものとする。同様に、図12から実施した結果を図13に示すものとする。
【0064】
なお、例えば入力テキスト5が「日帰り出張と宿泊出張の日当を教えてください」だった場合には、図14の様な結果が得られることがある。このように、抽出した文字列で統合した後であっても、1つのスロットに入るべきスロット値が複数になる場合には図15に示すように両方の値をスロット値に入れる。
【0065】
(B-2-3)補正方法(ステップS205の詳細)
図16は、実施形態に係るトークン分類部による分類結果の補正方法のイメージを示す説明図である。
【0066】
一般に機械学習で分類問題を解いた場合、各ラベルの確率が予測されている。
【0067】
図16中の1A~2Dは分類ラベルであり、その下の数値はそれぞれのラベルの確率である。図16の場合は、各層個別に分類結果を決定すると「1A」と「2D」となり、Rootから1つのパスを形成しない。このような場合には、例えば、各層の確率の積を使ってRootから末端までのパス全体の確率を求めて、最も確率が高いパスを選択し補正する。
【0068】
例えば、図16(A)に示すように、パス全体の確率の積が最も高い「1A」と「2B」を選択することになり(09×0.2=0.18)、図15(B)に示すように、第2階層の分類結果を「2D」から「2B」へと補正できる。
【0069】
(B-3)実施形態の効果
本実施形態によれば、以下の効果を奏する。
【0070】
言語処理装置1は、従来技術のように3つの解析技術(形態素解析、構文解析、意図解析)を連鎖させる必要がないため、全体の精度向上が容易である。
【0071】
また、言語処理装置1は、教師データ16を使用して学習させるため、タスクに特有な問題に容易に対応できる。例えば、特定の企業の業務支援をタスクとする場合は、その企業に特有な用語や言い回しに容易に対応できる。
【0072】
言語処理装置1は、概念の包含関係を考慮し階層ごとにモデルを分割しているので、トークン分類部12が事前学習(例えば、非特許文献1に記載の技術)を行っていた場合は、その効果を損なうことなく学習(ファインチューニング)することができる。
【0073】
例えば、「ペットの飼い方を教えて」、「犬の飼い方を教えて」などの入力テキストを扱うときに、「ペット」という言葉を使った場合は犬や猫を含めた全般的な質問として捉え、「犬」という言葉を使った場合は犬に特有な質問として捉える必要があるとする。このときに、1つのモデルだけを使った分類問題で解こうとすると、本来「ペット」と「犬」には包含関係があるのも関わらず、「ペット」と「犬」を全く別物として区別させることになるため、例え「ペット」と「犬」が近い関係にある事を事前学習で得ていたとしても、それを生かすことができなかった。
【0074】
本実施形態の言語処理装置1では階層ごとにモデルを分割しているので(第1階層モデル15-1~第N階層モデル15-N)、このような事態を避けることができる。
【0075】
(C)他の実施形態
上述した実施形態においても種々の変形実施形態を言及したが、本発明は、以下の変形実施形態にも適用できる。
【0076】
(C-1)上述した実施形態では概念定義部14で定義した階層の数と同じ数のモデルを準備すると説明したが、これに限定されるものではない。1つの階層を複数のモデルで担当し、状況によって切り替えるように構成しても良い。
【0077】
(C-2)トークン分類部12は、例えば、非特許文献1に記載されている様な技術を用いて事前学習を実施しておくのが良い。大量の一般的な文章で事前学習を行って、言語モデルを作成しておけば、タスクに特化した部分の教師データ16で効率よく学習(ファインチューニング)できる。
【0078】
(C-3)上述した実施形態では教師データ16の作成方法として正例を中心に説明したが、教師データ16は負例を元にしても良い。例えば、あるトークンが事前学習による言語モデルの効果により意図せず「O」以外に分類される場合は、そのトークンの正解ラベルを「O」とした教師データ16を作成しても良い。
【0079】
(C-4)上述した実施形態では教師データ16は全て手作業で作成すると説明したが、概念定義部14の定義に従えば、ある概念の上位概念は一意に決まるので、下位概念の教師データ16から上位概念の教師データ16を自動的に作成するようにしても良い。
【0080】
(C-5)上述した実施形態ではスロット値としてスロット名からのパスをスラッシュ「/」で区切って表示した(図11等)。これは、概念定義部14での定義に使うノード名に重複があっても特定できるようにするためである。
【0081】
例えば、図3(B)には「赴任旅費について知りたい」と「出張旅費について知りたい」それぞれの下に「交通費について知りたい」と「宿泊費ついて知りたい」が存在しておりノード名前が重複しているため、スロット値として「交通費について知りたい」を入れた場合はどちらなのか特定できなくなる。そのため、概念定義部14での定義に使うノード名を重複しないようにしている場合はスラッシュ「/」で区切る必要はない。
【0082】
(C-6)上述した実施形態では説明を簡易なものにするために概念定義部14での定義に使ったノード名を教師データ16のラベル名とすると説明した。しかし、図3(B)のように「赴任旅費について知りたい」と「出張旅費について知りたい」それぞれの下に「交通費について知りたい」と「宿泊費ついて知りたい」が存在してノード名前が重複している場合は、異なるラベルを指定する必要がある。
【0083】
(C-7)上述した実施形態では入力テキストとしてユーザーの発話のみを示したが、対話の経緯を入力テキストに含めても良い。例えば、システムがユーザーに問いかけた文章と、ユーザーがそれに対して答えた文章をセパレータで区切って入力テキストとしても良い。
【0084】
(C-8)上述した実施形態では、処理言語として日本語を対象とした場合を説明したが、これに限定されるものでは無く、種々様々な言語を適用することができる。ただし、当然のことながら、言語処理装置1で教師データ16を作成し学習(ファインチューニング)する言語と事前学習に用いる言語は同一の必要がある。
【符号の説明】
【0085】
1…言語処理装置、5…入力テキスト、11…トークン分割部、12…トークン分類部、13…スロット充填部、14…概念定義部、15-1~15-N…第1階層モデル~第N階層モデル、16…教師データ。
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14
図15
図16
図17