IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 東日本電信電話株式会社の特許一覧

特許7622182情報処理装置、情報処理方法、及び、情報処理プログラム
<>
  • 特許-情報処理装置、情報処理方法、及び、情報処理プログラム 図1
  • 特許-情報処理装置、情報処理方法、及び、情報処理プログラム 図2
  • 特許-情報処理装置、情報処理方法、及び、情報処理プログラム 図3
  • 特許-情報処理装置、情報処理方法、及び、情報処理プログラム 図4
  • 特許-情報処理装置、情報処理方法、及び、情報処理プログラム 図5
  • 特許-情報処理装置、情報処理方法、及び、情報処理プログラム 図6
  • 特許-情報処理装置、情報処理方法、及び、情報処理プログラム 図7
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B1)
(11)【特許番号】
(24)【登録日】2025-01-17
(45)【発行日】2025-01-27
(54)【発明の名称】情報処理装置、情報処理方法、及び、情報処理プログラム
(51)【国際特許分類】
   G06F 40/289 20200101AFI20250120BHJP
   G06F 40/216 20200101ALI20250120BHJP
【FI】
G06F40/289
G06F40/216
【請求項の数】 5
(21)【出願番号】P 2023183788
(22)【出願日】2023-10-26
【審査請求日】2023-10-26
(73)【特許権者】
【識別番号】399040405
【氏名又は名称】東日本電信電話株式会社
(74)【代理人】
【識別番号】100083806
【弁理士】
【氏名又は名称】三好 秀和
(74)【代理人】
【識別番号】100111235
【弁理士】
【氏名又は名称】原 裕子
(74)【代理人】
【識別番号】100170575
【弁理士】
【氏名又は名称】森 太士
(72)【発明者】
【氏名】本間 文洋
(72)【発明者】
【氏名】西脇 博
【審査官】齊藤 貴孝
(56)【参考文献】
【文献】特開2006-059105(JP,A)
【文献】三林 亮太、外11名,文化財の特徴理解に特化したBERTモデル,第14回データ工学と情報マネジメントに関するフォーラム (第20回日本データベース学会年次大会) [Online] ,日本,p.1-8
(58)【調査した分野】(Int.Cl.,DB名)
G06F 40/00-40/58
(57)【特許請求の範囲】
【請求項1】
第1の文章に含まれるAIモデルが学習していない未知の語彙を別の語彙に置き換え、置き換えた置換文章を前記AIモデルに追加学習させる第1の処理部と、
前記AIモデルへの第2の文章に含まれる前記未知の語彙を前記別の語彙に置き換え、置き換えた置換文章を前記AIモデルに入力し、前記AIモデルからの応答文章に含まれる前記別の語彙を前記未知の語彙に戻す第2の処理部と、
を備える情報処理装置。
【請求項2】
前記第1の処理部は、
前記第1の文章を前記AIモデルに追加学習させ、追加学習させた結果を基に前記未知の語彙を判定する請求項1に記載の情報処理装置。
【請求項3】
前記第1の処理部は、前記未知の語彙と前記別の語彙とを互いに対応付けた対応テーブルを生成し、
前記第2の処理部は、前記対応テーブルを用いて、前記第2の文章に含まれる前記未知の語彙を前記別の語彙に置き換える請求項1に記載の情報処理装置。
【請求項4】
情報処理装置で行う情報処理方法において、
第1の文章に含まれるAIモデルが学習していない未知の語彙を別の語彙に置き換え、置き換えた置換文章を前記AIモデルに追加学習させ、
前記AIモデルへの第2の文章に含まれる前記未知の語彙を前記別の語彙に置き換え、置き換えた置換文章を前記AIモデルに入力し、前記AIモデルからの応答文章に含まれる前記別の語彙を前記未知の語彙に戻す、
情報処理方法。
【請求項5】
請求項1乃至3のいずれかに記載の情報処理装置としてコンピュータを機能させる情報処理プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、情報処理装置、情報処理方法、及び、情報処理プログラムに関する。
【背景技術】
【0002】
近年利用が拡大している自然言語AI(Artificial Intelligence)モデルで、AIモデルが学習していない未知の語彙を扱えるようにする技術が求められている。特許文献1には、変換前後のテキストを比較して未知語を検出する方法が開示されている。
【先行技術文献】
【特許文献】
【0003】
【文献】特開2022-042033号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
上記技術として、AIモデルを使用する前に未知の語彙を事前に学習する方法が考えられる。しかし、事前学習では、中間層及び出力層を含むAIモデル全体で多数のパラメータを調整するため、多くのメモリ量及び計算時間を要する。
【0005】
そこで、ファインチューニングと呼ばれる追加学習を行う方法が考えられる。追加学習では、AIモデルの出力層からの出力結果を対象に追加的に学習するため、事前学習よりも少ないメモリ量及び計算時間で済む。
【0006】
しかし、追加学習では、AIモデルが学習していない語彙は新たに学習されず、未知の語彙として処理されるため、適切な出力結果が得られない場合がある。
【0007】
本開示は、上記に鑑みてなされたものであり、簡易な追加学習であっても、AIモデルにとって未知の語彙を扱うことが可能な技術を提供することを目的とする。
【課題を解決するための手段】
【0008】
本開示の一態様の情報処理装置は、第1の文章に含まれるAIモデルが学習していない未知の語彙を別の語彙に置き換え、置き換えた置換文章を前記AIモデルに追加学習させる第1の処理部と、前記AIモデルへの第2の文章に含まれる前記未知の語彙を前記別の語彙に置き換え、置き換えた置換文章を前記AIモデルに入力し、前記AIモデルからの応答文章に含まれる前記別の語彙を前記未知の語彙に戻す第2の処理部と、を備える。
【0009】
本開示の一態様の情報処理方法は、情報処理装置で行う情報処理方法において、第1の文章に含まれるAIモデルが学習していない未知の語彙を別の語彙に置き換え、置き換えた置換文章を前記AIモデルに追加学習させ、前記AIモデルへの第2の文章に含まれる前記未知の語彙を前記別の語彙に置き換え、置き換えた置換文章を前記AIモデルに入力し、前記AIモデルからの応答文章に含まれる前記別の語彙を前記未知の語彙に戻す。
【0010】
本開示の一態様の情報処理プログラムは、上記情報処理装置としてコンピュータを機能させる。
【発明の効果】
【0011】
本開示によれば、簡易な追加学習であっても、AIモデルにとって未知の語彙を扱うことが可能な技術を提供できる。
【図面の簡単な説明】
【0012】
図1図1は、情報処理装置の機能ブロック構成を示す図である。
図2図2は、AIモデルの学習段階における情報処理装置の処理フローを示す図である。
図3図3は、対応テーブルの例を示す図である。
図4図4は、AIモデルの使用段階における情報処理装置の処理フローを示す図である。
図5図5は、対応テーブルの例を示す図である。
図6図6は、従来技術及び本実施形態の構成例及び処理例を示す図である。
図7図7は、情報処理装置のハードウェア構成を示す図である。
【発明を実施するための形態】
【0013】
以下、本開示を実施する一実施形態について図面を用いて説明する。
【0014】
[情報処理装置の機能]
図1は、本実施形態に係る情報処理装置1の機能ブロック構成を示す図である。
【0015】
情報処理装置1は、AIモデルの学習段階で機能する第1の処理部11と、AIモデルの使用段階で機能する第2の処理部12と、情報処理装置1で扱われる各種情報を記憶する記憶部13と、を備える。
【0016】
第1の処理部11は、追加学習用の文章(第1の文章)AをAIモデルに追加学習させ、追加学習させた結果を基にAIモデルが学習していない未知の語彙を判定する機能を備える。
【0017】
また、第1の処理部11は、追加学習用の文章Aに含まれる未知の語彙を別の語彙に置き換え、置き換えた置換文章A’をAIモデルに追加学習させる機能を備える。例えば、第1の処理部11は、未知の語彙である専門用語を使用環境(AIモデルの環境)で使われない語(例えば、“#”+語)に置き換え、置き換えた置換文章をAIモデルに追加学習させる。
【0018】
また、第1の処理部11は、未知の語彙と別の語彙とを互いに対応付けた対応テーブルを生成し、生成した対応テーブルを記憶部13に記憶させる機能を備える。
【0019】
第2の処理部12は、上記AIモデルへ処理要求用の文章(第2の文章)Binを入力する前に、第1の処理部11により学習段階で行われた語彙の置き換えと同じ語彙の置き換えを実行する。
【0020】
つまり、第2の処理部12は、記憶部13に記憶されている対応テーブルを用いて、処理要求用の文章Binに含まれる未知の語彙を別の語彙に置き換え、置き換えた置換文章Bin’をAIモデルに入力する機能を備える。例えば、第2の処理部12は、未知の語彙である専門用語を使用環境で使われない語に置き換える。
【0021】
また、第2の処理部12は、置換文章Bin’に対するAIモデルからの応答文章Boutを受け取り、受け取った応答文章Boutに含まれる別の語彙を未知の語彙に置き換え、置き換えた置換文章Bout’を出力する機能を備える。例えば、第2の処理部12は、使用環境で使われない語(置き換えていた語彙)を元の専門用語(置き換える前の語彙)に戻して出力する。
【0022】
なお、第1の処理部11及び第2の処理部12は、1つ処理部としてもよい。
【0023】
[情報処理装置の動作]
まず、AIモデルの学習段階における情報処理装置1の動作を説明する。
【0024】
図2は、AIモデルの学習段階における情報処理装置1の処理フローを示す図である。
【0025】
ステップS101;
ユーザAは、追加学習用の文章Aを準備して情報処理装置1に入力する。情報処理装置1の第1の処理部11は、その文章Aを取得する。文章Aは、例えば「CSMの雷害対策として絶縁モジュールを取り付ける。」である。
【0026】
ステップS102;
次に、第1の処理部11は、上記文章AをAIモデルに入力し、その文章AをAIモデルに追加学習させる。これにより、AIモデルは、文章Aの「CSMの雷害対策として絶縁モジュールを取り付ける。」を学習する。
【0027】
ステップS103;
次に、ユーザAは、文章Aに関する処理要求用の文章を情報処理装置1に入力する。情報処理装置1の第1の処理部11は、その文章を取得して上記AIモデル(文章Aを学習済みのAIモデル)に入力する。処理要求用の文章は、例えば「CSMの雷害対策を教えて。」である。
【0028】
ステップS104;
AIモデルに「CSMの雷害対策を教えて。」等を入力すると、元の文章Aを正しく学習できていたAIモデルは、「CSMの雷害対策として絶縁モジュールを取り付ける。」という応答文章(追加学習させた文章Aと同様の文章)を出力する。
【0029】
一方、AIモデルが「CSM」という語彙を正しく学習できていない場合、AIモデルは、“雷害対策”に関係する応答文章を出力するが、正しく学習できていない「CSM」は未知の語彙を示す「<UNK>」と置き換え、「<UNK>の雷害対策として絶縁モジュールを取り付ける。」という応答文章を出力する。
【0030】
そこで、第1の処理部11は、AIモデルからの応答文章に「<UNK>」が含まれるか否かを判定する。「<UNK>」が含まれる場合にはステップS105へ進み、「<UNK>」が含まれない場合にはステップS106へ進む。
【0031】
ステップS105;
AIモデルからの応答文章に「<UNK>」が含まれる場合、第1の処理部11は、元の文章Aから「<UNK>」の位置に対応する語彙Xを取得し、その語彙Xである「CSM」を「#1#2#3」等の別の語彙Yに置き換えた文章Aの置換文章A’を生成する。
【0032】
その後、ステップS102へ戻り、第1の処理部11は、置換文章A’の「#1#2#3の雷害対策として絶縁モジュールを取り付ける。」をAIモデルに入力してAIモデルに追加学習(文章Aに関する再度追加学習)させる(2回目のステップS102)。そして、置換文章A’に関する「#1#2#3の雷害対策を教えて。」等の処理要求用の文章をAIモデル(置換文章A’を学習済みのAIモデル)に入力する(2回目のステップS103)。その後、AIモデルからの応答文章に「<UNK>」が含まれるか否かを再度判定する(2回目のステップS104)。
【0033】
2回目のステップS102でAIモデルが置換文章A’を正しく学習できていた場合、AIモデルは、「<UNK>」を含まない「#1#2#3の雷害対策として絶縁モジュールを取り付ける。」等の応答文章を出力する。
【0034】
ステップS106;
ステップS105を経由後、AIモデルからの応答文章に「<UNK>」が含まれない場合、第1の処理部11は、ステップS105で文章Aから取得していた「CSM」の語彙Xを未知の語彙として特定する。
【0035】
ステップS107;
ステップS106の後、第1の処理部11は、語彙X(未知の語彙)と語彙Y(別の語彙)とを対応付けた対応テーブルを生成し、その対応テーブルを記憶部13に記憶させる。対応テーブルの例を図3に示す。
【0036】
ステップS108;
ステップS107の後、第1の処理部11は、次の文章があるか否かを判定する。次の文章がある場合、第1の処理部11は、次の文章がなくなるまでステップS101~ステップS107を繰り返し行い、対応テーブルを更新する。次の文章がない場合、第1の処理部11は、追加学習を終了する。
【0037】
次に、AIモデルの使用段階における情報処理装置1の動作を説明する。
【0038】
図4は、AIモデルの使用段階における情報処理装置1の処理フローを示す図である。
【0039】
ステップS201;
ユーザBは、AIプロンプト等から処理要求用の文章Binを情報処理装置1に入力する。文章Binは、例えば「CSMの雷害対策の例は?」である。なお、ユーザBは、ステップS101及びステップS103で記述したユーザAと同一でもよいが、一般にはAIモデルを利用する第三者である。
【0040】
ステップS202;
次に、情報処理装置1の第2の処理部12は、記憶部13に記憶されている対応テーブルを用いて文章Binから語彙Xを検索し、検索した語彙Xの「CSM」を語彙Yの「#1#2#3」に置き換える。つまり、AIモデルにとって文章Binに含まれる「CSM」は未知の語彙であるため、その未知の語彙を対応テーブルより対応する別の語彙に置き換える。
【0041】
ステップS203;
次に、第2の処理部12は、「CSM」を「#1#2#3」に置き換えた「#1#2#3の雷害対策の例は?」という文章Binの置換文章Bin’をAIモデルに入力する。置換文章Bin’ではAIモデルにとって未知の語彙である「CSM」が「#1#2#3」に置き換えられ、AIモデルは「#1#2#3」を2回目のステップS102で正しく学習しているので、AIモデルは置換文章Bin’を適切に処理できる。その後、AIモデルは、「#1#2#3の雷害対策として絶縁モジュールを取り付ける。」等の応答文章Boutを出力する。
【0042】
ステップS204;
次に、第2の処理部12は、対応テーブルを参照し、AIモデルからの応答文章Boutに含まれる語彙Yの「#1#2#3」を元の語彙Xの「CSM」に戻す。
【0043】
ステップS205;
最後に、第2の処理部12は、「#1#2#3」を元の「CSM」に戻した「CSMの雷害対策として絶縁モジュールを取り付ける。」等の置換文章Bout’を、文章Binに対する応答結果としてユーザBのユーザ端末の画面に出力する。
【0044】
[変形例1]
AIモデルの未知の語彙を予め把握可能な場合には、未知の語彙と別の語彙とを互いに対応付けた対応テーブルを予め生成しておいてもよい。この場合、未知の語彙を特定するために行う文章Aに関するステップS102~ステップS104は省略できる。
【0045】
つまり、第1の処理部11は、追加学習用の文章AをAIモデルに追加学習させ、追加学習させた結果を基に未知の語彙を判定する、という事前の機能はなくてもよい。第1の処理部11は、文章Aに含まれるAIモデルが学習していない未知の語彙を別の語彙に置き換え、置き換えた置換文章A’をAIモデルに追加学習させる、という機能でよい。
【0046】
この場合、第1の処理部11は、文章Aを取得し(ステップS101)、ステップS102~ステップS104はスキップし、文章Aに含まれる語彙Xを語彙Yに置き換えた置換文章A’を生成し(ステップS105)、その置換文章A’をAIモデルに入力してAIモデルに追加学習させる(ステップS102)。その後、第1の処理部11は、ステップS106~ステップS107はスキップし、ステップS108へ進む。
【0047】
[変形例2]
語彙Xから語彙Yへ置き換える方法は、任意である。その例を図5に示す。
【0048】
語彙Xがアルファベットであれば、そのアルファベットをカナに置き換えたもの(「CSM」→「シーエスエム」)を語彙Yとする。そのアルファベットの一つひとつを「「#」+カナ」にそれぞれ置き換えて「#シー#エス#エム」としてもよいし、そのアルファベットを反転置き換えたものを後ろに追加してカナに置き換えた「シーエスエムムエスエーシ」としてもよい。
【0049】
語彙Xが旧字体の漢字(例えば「齋藤」)であれば、その漢字の新字体(例えば「斉藤」)を語彙Yとしてもよい。その他、使用環境で使われない語(例えば「鮭鱒」)、通常は利用されない語(例えば「氏絵酢笑」)を語彙Yとしてもよい。互いに異なる複数の語彙Yを組み合わせたものを語彙Yとしてもよい。
【0050】
なお、ステップS105で「CSM」を例えば「氏絵酢笑」に置き換えた場合、2回目のステップS104でAIモデルからの応答文章に再び「<UNK>」が含まれる可能性がある。この場合、ステップS105で「氏絵酢笑」以外の語彙Yを選択する。
【0051】
この点、ステップS105を経由する回数を少なくするため、語彙Yは当初よりAIモデルが学習済みの語彙であることが好ましいが、AIモデルの学習済みの語彙を把握することは通常困難なので、AIモデルからの応答文章に「<UNK>」が含まれなくなるまで、異なる語彙Yを繰り返し選択する。
【0052】
また、語彙Yは「AIモデルが学習済みの語彙であることが好ましい」と述べたが、AIモデルが通常扱う語彙に該当する場合、その語彙自体がAIモデルにより処理されてしまい、AIモデルの応答文章から語彙Yを判別できなくなる恐れがある。そのため、語彙Yは、「<UNK>」に置き換えられる可能性が小さく、AIモデルの環境では一般に使用されない語等、図5に示した語彙Yが好ましい。
【0053】
[従来技術と本実施形態との比較]
情報処理装置1のない従来技術と情報処理装置1のある本実施形態とを比較する。
【0054】
図6(a)は、情報処理装置1のない従来技術の構成例及び処理例を示す図である。
【0055】
一般に、自然言語を扱うAI装置2は、処理対象の文章について単語分解等の自然言語処理を行うトークナイザー21と、自然言語処理後のデータを処理して要求に応答するAIモデル22と、を備える。
【0056】
トークナイザー21は、ユーザ端末3から「CSMの雷害対策の例は?」という文章を受信すると、未割当の語彙(未学習の語彙)である「CSM」は数値に変換できないので「<UNK>」に変換し、割当済みの語彙(学習済の語彙)は対応する数値に変換し、AIモデル22に入力する。
【0057】
AIモデル22は、要求に対して処理を行うが、「<UNK>」はそのまま出力し、それ以外は応答内容を数値で出力する。このとき、「<UNK>」等の影響により、要求とは関係ない応答を出力する場合がある。その後、トークナイザー21は、「<UNK>」はそのままユーザ端末3の画面へ出力し、数値は対応する文字に置き換えて出力する。
【0058】
この結果、「CSMの雷害対策の例は?」という質問に対し、例えば「<UNK>発熱が…」という応答がユーザ端末3の画面に表示される。「<UNK>」はユーザにとって不明であり、「発熱が…」は質問に関係のない応答である。
【0059】
一方、本実施形態では、トークナイザー21へ文章を入力する前に、文章に含まれる未割当の語彙を別の語彙で表現し、その別の語彙による文章をAIモデルで追加学習しておく。これにより、文章に含まれる専門用語等がAIモデルで未割当な語彙であっても、AIモデルで適切に応答可能となる。
【0060】
具体的には、図6(b)に示すように、ユーザ端末3とトークナイザー21との間に情報処理装置1を介在させる。
【0061】
情報処理装置1は、ユーザ端末3から「CSMの雷害対策の例は?」という文章を受信すると、AIモデル22にとって未割当の語彙である「CSM」を割当済みの語彙である「シーエスエム」に置き換えてトークナイザー21へ送信する。
【0062】
トークナイザー21とAIモデル22は、既存の動作を実行する。
【0063】
トークナイザー21は、情報処理装置1から「シーエスエムの雷害対策の例は?」を受信すると、未割当の語彙がないので、全ての語彙を対応する数値に変換し、AIモデル22に入力する。
【0064】
AIモデル22は、入力に「<UNK>」が含まれず、また、「CSM」を「シーエスエム」に置き換えた文章を予め追加学習しているので、その入力を処理可能である。AIモデル22は、入力に対して処理した処理後の数値をトークナイザー21へ出力する。
【0065】
その後、トークナイザー21は、AIモデル22からの出力に含まれる数値を対応する文字に置き換え、置き換えた「シーエスエムの雷害対策として絶縁モジュールを取り付ける。」等の応答文章を処理要求元の情報処理装置1へ送信する。
【0066】
情報処理装置1は、トークナイザー21からの応答文章に含まれる「シーエスエム」を元の「CSM」に戻し、「CSMの雷害対策として絶縁モジュールを取り付ける。」をユーザ端末3の画面へ出力する。
【0067】
この結果、「CSMの雷害対策の例は?」という質問に対し、例えば「CSMの雷害対策として絶縁モジュールを取り付ける。」という応答がユーザ端末3の画面に表示される。これを見たユーザは、自己の質問に対するAIモデル22からの回答を正しく理解できる。
【0068】
[実施形態の効果]
本実施形態によれば、情報処理装置1が、追加学習用の文章Aに含まれるAIモデルが学習していない未知の語彙を別の語彙に置き換え、置き換えた置換文章A’をAIモデルに追加学習させる第1の処理部11と、AIモデルへの処理要求用の文章Binに含まれる未知の語彙を別の語彙に置き換え、置き換えた置換文章Bin’をAIモデルに入力し、AIモデルからの応答文章Boutに含まれる別の語彙を未知の語彙に戻す第2の処理部12と、を備えるので、簡便な追加学習によりAIモデルにとって未学習の語彙を処理できるようになり、様々なAIモデルの使用環境への適用が容易となる。
【0069】
また、本実施形態によれば、第1の処理部11は、追加学習用の文章AをAIモデルに追加学習させ、追加学習させた結果を基に未知の語彙を判定するので、AIモデルが学習していない未知の語彙を把握していない場合にも適用可能となり、より様々なAIモデルの使用環境への適用が容易となる。
【0070】
例えば、本実施形態に係る情報処理装置1は、GPT(Generative Pre-trained Transformer)、BERT(Bidirectional Encoder Representations from Transformers)に適用可能である。
【0071】
[その他]
本開示は、上記実施形態に限定されない。本開示は、本開示の要旨の範囲内で数々の変形が可能である。
【0072】
上記説明した本実施形態の情報処理装置1は、例えば、図7に示すように、CPU901と、メモリ902と、ストレージ903と、通信装置904と、入力装置905と、出力装置906と、を備えた汎用的なコンピュータシステムを用いて実現できる。メモリ902及びストレージ903は、記憶装置である。当該コンピュータシステムにおいて、CPU901がメモリ902上にロードされた所定のプログラムを実行することにより、情報処理装置1の各機能が実現される。
【0073】
情報処理装置1は、1つのコンピュータで実装されてもよい。情報処理装置1は、複数のコンピュータで実装されてもよい。情報処理装置1は、コンピュータに実装される仮想マシンであってもよい。情報処理装置1用のプログラムは、HDD、SSD、USBメモリ、CD、DVD等のコンピュータ読取り可能な記録媒体に記憶できる。コンピュータ読取り可能な記録媒体とは、例えば、非一時的な記録媒体である。情報処理装置1用のプログラムは、通信ネットワークを介して配信することもできる。
【符号の説明】
【0074】
1 情報処理装置
11 第1の処理部
12 第2の処理部
13 記憶部
2 AI装置
21 トークナイザー
22 AIモデル
3 ユーザ端末
901 CPU
902 メモリ
903 ストレージ
904 通信装置
905 入力装置
906 出力装置
【要約】
【課題】簡易な追加学習であっても、AIモデルにとって未知の語彙を扱うことが可能な技術を提供する。
【解決手段】情報処理装置1は、第1の文章に含まれるAIモデルが学習していない未知の語彙を別の語彙に置き換え、置き換えた置換文章を前記AIモデルに追加学習させる第1の処理部11と、前記AIモデルへの第2の文章に含まれる前記未知の語彙を前記別の語彙に置き換え、置き換えた置換文章を前記AIモデルに入力し、前記AIモデルからの応答文章に含まれる前記別の語彙を前記未知の語彙に戻す第2の処理部12と、を備える。
【選択図】図1
図1
図2
図3
図4
図5
図6
図7