(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2025021680
(43)【公開日】2025-02-14
(54)【発明の名称】人格形成方法、会話方法、人格形成システム及びプログラム
(51)【国際特許分類】
G06F 16/90 20190101AFI20250206BHJP
【FI】
G06F16/90 100
【審査請求】有
【請求項の数】17
【出願形態】OL
(21)【出願番号】P 2023125575
(22)【出願日】2023-08-01
(71)【出願人】
【識別番号】522455788
【氏名又は名称】株式会社インデペ
(74)【代理人】
【識別番号】100177220
【弁理士】
【氏名又は名称】小木 智彦
(72)【発明者】
【氏名】友廣 一雄
(72)【発明者】
【氏名】村田 恵介
【テーマコード(参考)】
5B175
【Fターム(参考)】
5B175EA01
(57)【要約】
【課題】仮想人物の人格を容易に形成し、仮想人物、特に死者等と会話を行う。
【解決手段】コンピュータが仮想人物の人格を形成する人格形成方法であって、当該仮想人物に対する事前基礎データを取得するステップと、取得した前記事前基礎データに基づいて、大規模言語モデルを活用したチャットボットに、当該仮想人物に対するインタビューを行うことを質問するステップと、前記質問の回答に基づいて、前記仮想人物の人格モデルを形成するステップと、を備える人格形成方法。及びこの人格モデルに基づいて、質問に対する回答を生成するステップと、生成した回答をテキスト又は音声で出力するステップと、を備える会話方法。
【選択図】
図1
【特許請求の範囲】
【請求項1】
コンピュータが仮想人物の人格を形成する人格形成方法であって、
当該仮想人物に対する事前基礎データを取得するステップと、
取得した前記事前基礎データに基づいて、大規模言語モデルを活用したチャットボットに、当該仮想人物に対するインタビューを行うことを質問するステップと、
前記質問の回答に基づいて、前記仮想人物の人格モデルを形成するステップと、
を備える人格形成方法。
【請求項2】
前記仮想人物が、死者である、
請求項1に記載の人格形成方法。
【請求項3】
請求項1に記載の前記人格モデルを形成するステップで形成した前記人格モデルに基づいて、
質問に対する回答を生成するステップと、
生成した回答をテキスト又は音声で出力するステップと、
を備える会話方法。
【請求項4】
仮想人物の人格を形成する人格形成システムであって、
当該仮想人物に対する事前基礎データを取得する取得部と、
取得した前記事前基礎データに基づいて、大規模言語モデルを活用したチャットボットに、当該仮想人物に対するインタビューを行うことを質問する質問部と、
前記質問の回答に基づいて、前記仮想人物の人格モデルを形成する形成部と、
を備える人格形成システム。
【請求項5】
仮想人物の人格を形成するコンピュータに、
当該仮想人物に対する事前基礎データを取得するステップ、
取得した前記事前基礎データに基づいて、大規模言語モデルを活用したチャットボットに、当該仮想人物に対するインタビューを行うことを質問するステップ、
前記質問の回答に基づいて、前記仮想人物の人格モデルを形成するステップ、
を実行させるためのコンピュータ読み取り可能なプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、仮想人物の人格の形成に有効な技術に関する。
【背景技術】
【0002】
従来、コンピュータで仮想人格を形成する方法が知られている。
例えば、特許文献1では、現実の人物の映像、音声を記憶し、所定の映像モデル、性格モデルで仮想人物を出力する技術が開示されている。
【先行技術文献】
【特許文献】
【0003】
【発明の概要】
【発明が解決しようとする課題】
【0004】
しかしながら、人工知能を活用した仮想人物の性格モデルを形成するには、その人物の性格を示すデータを大量に準備する必要があるため、仮想人物の人格を学習データにより形成して、仮想人物にチャットボットのような機能を発揮させることは、事実上困難であった。
【0005】
本発明は、仮想人物の人格を容易に形成し、仮想人物、特に死者等と会話を行うことができる人格形成方法、会話方法、人格形成システム及びプログラムを提供することを目的とする。
【課題を解決するための手段】
【0006】
本発明は、コンピュータが仮想人物の人格を形成する人格形成方法であって、
当該仮想人物に対する事前基礎データを取得するステップと、
取得した前記事前基礎データに基づいて、大規模言語モデルを活用したチャットボットに、当該仮想人物に対するインタビューを行うことを質問するステップと、
前記質問の回答に基づいて、前記仮想人物の人格モデルを形成するステップと、
を備える人格形成方法を提供する。
【0007】
本発明によれば、仮想人物に対する事前基礎データを用い、大規模言語モデルを活用したチャットボットに、仮想人物に対するインタビューを行うことを質問し、この質問の回答に基づいて、仮想人物の人格モデルを形成する。
したがって、仮想人物の人格を形成するための学習データを容易に生成することで、人格モデルを形成することができるため、この人格モデルを利用すれば、仮想人物、特に死者等と会話を行うことができる。
【0008】
本発明は、方法のカテゴリであるが、システム及びプログラムであっても、カテゴリ特有の同様の作用、効果を奏する。
【0009】
また、本発明によれば、形成した人格モデルに基づいて、質問に対する回答を生成し、生成した回答をテキスト又は音声で出力する。したがって、仮想人物、特に死者等と会話を行うことができる。
【発明の効果】
【0010】
本発明によれば、仮想人物の人格を容易に形成し、仮想人物、特に死者等と会話を行うことができる。
【図面の簡単な説明】
【0011】
【
図1】人格形成システム1の概要を説明する図である。
【
図2】(2a)はシステム全体の概要図、(2b)はチューニング装置10を抜き出して示す図である。
【
図3】人格形成システム1が実行する人格モデルの形成工程及びこの人格モデルに基づいた会話工程のフローチャートを示す図である。
【
図4】人格形成システム1が実行する人格モデルの形成工程のフローチャートを示す図である。
【
図5】人格モデルの形成時の画面の例を模式的に示す図である。
【
図6】人格形成システム1が実行する人格モデルに基づいた会話工程のフローチャートを示す図である。
【
図8】人格形成システム1が実行する人格モデルの更新工程のフローチャートを示す図である。
【
図9】アプリケーションの画面の例を模式的に示す図である。
【
図10】アプリケーションの画面の例を模式的に示す図である。
【
図11】アプリケーションの画面の例を模式的に示す図である。
【発明を実施するための形態】
【0012】
以下、添付図面を参照して、本発明を実施するための形態(以下、実施形態)について詳細に説明する。以降の図においては、実施形態の説明の全体を通して同じ要素には同じ番号又は符号を付している。
【0013】
図1は、人格形成システム1の指示構成の概要を説明するブロック図である。
図2aは、人格形成システム1の概要を説明するブロック図、
図2bは、チューニング装置10を説明する図である。
図1、
図2を参照し、人格形成システム1の構成物について説明する。
【0014】
人格形成システム1は、仮想人物の人格を形成するシステムであり、少なくともチューニング装置10を備える。本実施形態において、人格形成システム1は、チューニング装置10に加え、人格モデル人物2が使用する人格モデル人物端末3、現実人物4が使用する現実人物端末5を更に備える。チューニング装置10は、人格モデル人物端末3及び現実人物端末5の其々と、データ通信可能に接続される。ここで、仮想人物とは、仮想上の人物等の人格を有する生物であって、既に亡くなった死者であってもよいし、生存者であってもよい。また、アニメ等の仮想的なキャラクターや空想の性格を有する対象物であってよい。
【0015】
人格モデル人物端末3は、人格モデル人物2が使用する携帯電話、スマートフォン、タブレット端末、パーソナルコンピュータ、ラップトップコンピュータ等の端末装置である。
現実人物端末5は、現実人物4が使用する携帯電話、スマートフォン、タブレット端末、パーソナルコンピュータ、ラップトップコンピュータ等の端末装置である。
【0016】
チューニング装置10は、例えば、プロセッサと、通信部と、信号等を出力する出力部と、仮想人物に対する事前基礎データを取得する取得部と、取得した事前基礎データに基づいて、大規模言語モデルを活用したチャットボットに、仮想人物に対するインタビューを行うことを質問する質問部と、質問の回答に基づいて、仮想人物の人格モデルを形成する形成部と、を備えており、1台のコンピュータで実現されても良いし、クラウドコンピュータのように、複数のコンピュータで実現されても良い。なお、本明細書におけるクラウドコンピュータとは、ある特定の機能を果たす際に、任意のコンピュータをスケーラブルに用いるものや、あるシステムを実現するために複数の機能モジュールを含み、その機能を自由に組み合わせて用いるものの何れであっても良い。
チューニング装置10は、記憶部として、ハードディスクや半導体メモリ、記録媒体、メモリカードなどによるデータのストレージ部などを備える。
チューニング装置10は、プロセッサとして、各種処理を実行する各種デバイスなどを備える。
チューニング装置10は、ネットワーク8を介して、人格モデル人物端末3、現実人物端末5の其々と接続される。
【0017】
[装置構成]
図2に示すように、人格形成システム1は、仮想人物の人格を形成するシステムであり、チューニング装置10が、公衆回線網等のネットワーク8を介して、データ通信可能に接続される。
なお、人格形成システム1の構成物は、あくまでも一例であり、図示していない端末や装置類等については、その数、種類及び機能については、適宜変更可能である。
【0018】
人格モデル人物端末3及び現実人物端末5は、端末制御部として、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)などを備え、通信部として、他の端末や装置などと通信可能にするためのデバイス等を備える。
【0019】
チューニング装置10は、プロセッサとして、CPU、GPU、RAM、ROM等を備え、通信部として、他の端末や装置などと通信可能にするためのデバイス等を備える。
【0020】
人格形成システム1が、仮想人物の人格を形成する際の処理ステップの概要について、
図1、
図3を参照して説明する。
【0021】
チューニング装置10は、仮想人物に対する事前基礎データを取得する(ステップS1)。
事前基礎データは、仮想人物の元となる人物に関するデータである。事前基礎データは、例えば、個人情報(個人を識別可能な情報であり、氏名、生年月日、住所等)、属性情報(個人が有する性質や特徴に関する情報であり、年齢、性別、居住地、家族構成、職業、学歴、収入等)である。チューニング装置10は、人格モデル人物端末3から、この事前基礎データを取得する。
【0022】
なお、事前基礎データは、例えば、オープン情報としてその仮装人物の情報を予めインターネット等で取得できるのであれば、チューニング装置10が、このオープン情報を予めインターネット等から取得しておき、このオープン情報として取得できない部分の情報のみを人格モデル人物端末3から取得してよい。
【0023】
チューニング装置10は、取得した事前基礎データに基づいて、大規模言語モデルを活用したチャットボットに、仮想人物に対するインタビューを行うことを質問する(ステップS2)。
チューニング装置10は、取得した事前基礎データに基づいて、大規模言語モデル(
図1におけるインタビュアーモデル)を活用したチャットボットに、仮想人物に対するインタビューを行うことを質問する。この質問は、大規模言語モデルを用いて、事前基礎データに基づいて生成されるものである。この質問には、テキスト情報だけでなく、音声、画像、動画等を含んでよい。
チューニング装置10は、生成した質問に基づいたテキスト又は音声を、人格モデル人物端末3に出力する。
【0024】
チューニング装置10は、質問の回答に基づいて、仮想人物の人格モデルを形成する(ステップS3)。
チューニング装置10は、出力した質問に対する回答を、人格モデル人物端末3から受け付ける。この回答は、テキスト情報だけでなく、音声、画像、動画等による回答であってよい。
チューニング装置10は、生成した質問及びこの質問に対する回答をデータセットに追加し、ファインチューニングを行い、仮想人物の人格モデルを形成する。
【0025】
ステップS1~S3の処理において、仮想人物の対象となる人物は、既に亡くなっている人物(死者)又は現在生きている人物(生者)である。死者が対象となる場合、死者の近親者等がテキスト又は音声等により、人格モデル人物端末3に入力した事前基礎データ及び質問の回答を用いれば良い。生者が対象となる場合、生者本人又は生者の近親者等がテキスト又は音声等により、人格モデル人物端末3に入力した事前基礎データ及び質問の回答を用いれば良い。
生者の人格モデルを、この生者の死後に、用いることにより、結果として、死者の人格モデルとなる。
【0026】
チューニング装置10は、現実人物4からの質問を受け付ける(ステップS4)。
チューニング装置10は、現実人物4からの質問を、現実人物端末5から受け付ける。
【0027】
チューニング装置10は、形成した人格モデルに基づいて、質問の回答を生成する(ステップS5)。
チューニング装置10は、形成した人格モデルを用い、受け付けた質問に対する回答を生成する。
【0028】
チューニング装置10は、生成した回答をテキスト又は音声で出力する(ステップS6)。
チューニング装置10は、生成した回答に基づいたテキスト又は音声を、現実人物端末5に出力する。
【0029】
チューニング装置10は、受け付けた質問及び生成した回答を会話履歴として時系列に沿って記憶する。チューニング装置10は、会話履歴が所定の条件(会話履歴のトークン数が所定の値を超える、所定の時間経過毎等)を満たす場合、会話履歴を、データセットに追加し、ファインチューニングを行い、人格モデルを更新する。
【0030】
人格形成システム1が、ステップS1~S3において、仮想人物の人格を形成する際の処理ステップの概要について
図4、
図5に基づいて説明する。
【0031】
チューニング装置10は、取得部において、仮想人物に対する事前基礎データを取得する(ステップS10)。
仮想人物は、人格モデル人物2を基にした仮想的な人物である。例えば、仮想人物が死者である場合、人格モデル人物2は、この死者の近親者、この死者と親しかった人物等の死者を詳細に知る人物(趣味、嗜好、思想、信条、言動、思考等を把握している人物等)であれば良い。仮想人物が生者である場合、人格モデル人物2は、この生者本人であっても良いし、この生者の近親者、この生者と親しい人物等の生者を詳細に知る人物(趣味、嗜好、思想、信条、言動、思考等を把握している人物等)であれば良い。本実施形態において、仮想人物は、特に、死者を示すものとして後述する処理において説明する。これは、事前基礎データを取得した際に、人格モデル人物2が生者であったとしても、実際に後述する処理が行われる際には、既に死者となっているためである。
事前基礎データは、仮想人物に関するデータである。事前基礎データは、例えば、個人を識別可能な情報である個人情報(氏名、生年月日、住所等)、個人の属性に関する情報である属性情報(年齢、性別、居住地、家族構成、職歴、学歴、趣味、嗜好、思想、信条、言動、思考等)である。
人格モデル人物端末3は、仮想人物に対する事前基礎データの入力を受け付ける。人格モデル人物2は、仮想キーボード、フォーマットに基づいたテキストファイル等により、仮想人物の事前基礎データを入力する。人格モデル人物端末3は、受け付けた事前基礎データを、チューニング装置10に送信する。
取得部は、この事前基礎データを受信し、仮想人物に対する事前基礎データを取得する。
【0032】
なお、チューニング装置10は、SNS(Social networking service)や所定のWebサイト(マスメディアが提供するサイト、キュレーションサイト等)から、この事前基礎データを取得しても良い。この場合、チューニング装置10は、仮想人物の個人情報や、この仮想人物のSNSでのID等を所定の方法で取得(人格モデル人物端末3等から取得等)し、仮想人物が過去SNSに投稿した内容(仮想人物自身による投稿だけでなく、この投稿に対する返信、引用等の他の人物等からの応答も含む)や、所定のWebサイトにおける仮想人物に関する内容(仮想人物に直接関係する内容(仮想人物に関する記事等)だけでなく、仮想人物の個人情報に関連する内容(居住地周辺の内容(催事、天気、事件等)や、職歴に含まれる所属先の内容(新規事業、経営状況等)等)を取得すれば良い。
【0033】
また、チューニング装置10は、取得した事前基礎データを、人格モデル人物端末3に出力し、その内容の正誤を人格モデル人物2に確認させる構成も可能である。この場合、チューニング装置10は、例えば、取得した事前基礎データに含まれる各情報を、オンライン検索し、検索結果として得られたWebサイト等を、人格モデル人物端末3に出力するといったものが挙げられる。具体的には、チューニング装置10は、事前基礎データにおける、職歴の一つが「X株式会社」である場合、この「X株式会社」をオンライン検索し、検索結果として得られた「X株式会社のWebサイト」を、所定のテキストとともに出力する。この例としては、チューニング装置10は、「所属されているX株式会社というのは、この会社ですか? http://www.xxx.com(URL(Uniform Resource Locator)であっても良いし、Webサイトを埋め込んだものであっても良い)」といったテキスト及びWebサイトを出力する。
チューニング装置10は、出力結果に対する応答(正しいか、間違っているか等)を、人格モデル人物端末3から取得する。チューニング装置10は、出力結果に対する応答が、正しいものである場合、この情報を、事前基礎データとして扱う。一方、チューニング装置10は、出力結果に対する応答が、間違っているものである場合、この情報を、事前基礎データから除外しても良いし、間違っていることともに、正しい情報を人格モデル人物端末3が送信していた場合、確認させた情報を正しい情報に更新し、更新後の情報を、事前基礎データとして扱っても良い。
【0034】
チューニング装置10は、質問部において、取得した事前基礎データに基づいて、大規模言語モデルを活用したチャットボットに、仮想人物に対するインタビューを行うことを質問する(ステップS11)。
質問部は、チャットボットを内包するものであり、チャットボットに対して所定の質問を行う機能を有する。
質問部は、大規模言語モデル(
図1におけるインタビュアーモデル)を活用したチャットボットに、取得した事前基礎データとともに、仮想人物に対するインタビューを行うことを質問する。ここで、質問部は、仮想人物にインタビューを行うこと、取得した事前基礎データ、質問の仕方等をチャットボットに対して入力する。質問部が、チャットボットに入力する内容は、これらの例に限定されるものではない。
なお、本実施形態において、チューニング装置10が、大規模言語モデルを保持しているものとして説明しているが、この大規模言語モデルは、別のサーバ機能等を有するコンピュータが保持するものであっても良い。この場合、チューニング装置10は、取得した事前基礎データを、このコンピュータに出力し、このコンピュータが、質問部に相当する機能を実行し、実行結果を、チューニング装置10に出力すれば良い。
【0035】
チューニング装置10は、チャットボットが生成した質問を出力する(ステップS12)。
チャットボットは、入力された内容に基づいて、質問を生成する。
チューニング装置10は、このチャットボットが生成した質問を、人格モデル人物端末3に出力する。ここで、チューニング装置10は、この質問を、テキスト形式又は音声形式の何れか又は双方の形式により送信する。
人格モデル人物端末3は、この質問を受信し、自身の表示部等(モニタ、タッチパネル等)に、テキスト形式により表示する、又は、音声部(マイク等)に、音声形式により放音する。
【0036】
チューニング装置10は、質問に対する回答を受け付ける(ステップS13)。
人格モデル人物端末3は、人格モデル人物2から、質問に対する回答の入力を受け付ける。人格モデル人物端末3は、この回答を、テキスト形式又は音声形式の何れか又は双方の形式により受け付ける。例えば、所定の入力フォームにテキストや音声の入力を受け付ける。人格モデル人物端末3は、受け付けた回答を、チューニング装置10に送信する。
チューニング装置10は、この回答を受信し、質問に対する回答を受け付ける。
【0037】
図5に基づいて、ステップS11~S13の処理に際しての画面例について説明する。同図は、ステップS11~S13の処理時における画面の例を模式的に示す図である。同図において、入力画面20が示されている。この入力画面20は、人格モデル人物端末3が、質問及び回答をテキスト形式により表示する際の例である。
入力画面20は、人格モデル人物2から回答の入力を受け付ける入力欄21、質問や回答等が表示される第1欄22、第2欄23、第3欄24、第4欄25が存在する。第1欄22、第3欄24の内容は、入力欄21に対して入力された内容に基づくものである。第2欄23、第4欄25の内容は、チャットボットにより生成された質問に基づくものである。なお、第1欄22の内容は、質問部により入力された内容に基づくものであっても良い。
第1欄22において、仮想人物にインタビューを行うこと(次の方にインタビューをしてください。足りない情報は質問することで補ってください。)、事前基礎データ(氏名、生年月日、出身地、学歴、勤務先)、質問の仕方(質問例)が示されている。人格モデル人物端末3は、入力欄21に対して、これらの入力を受け付け、受け付けた内容を、第1欄22に表示するとともに、チューニング装置10に送信する。チューニング装置10は、この内容に基づいて、この事前基礎データに基づいて、大規模言語モデルを活用したチャットボットに、人格モデル人物2に対するインタビューを行うことを質問する。
チューニング装置10は、チャットボットが生成した質問を、人格モデル人物端末3に出力し、人格モデル人物端末3が、第2欄23に、チャットボットが生成した質問を表示する。
人格モデル人物端末3は、入力欄21に対して、第2欄23に示された質問に対する回答の入力を受け付け、受け付けた回答を、第3欄24に表示するとともに、チューニング装置10に送信する。チューニング装置10は、この内容に基づいて、大規模言語モデルを活用したチャットボットに、回答に対する更なる質問や事前基礎データの不足内容を質問する。
チューニング装置10は、チャットボットが生成した質問や事前基礎データの不足内容を、人格モデル人物端末3に出力し、人格モデル人物端末3が、第4欄25に、生成した質問や事前基礎データの不足内容を表示する。
チューニング装置10と、人格モデル人物端末3とは、これらの質問及び回答の遣り取りを人格モデルの生成に必要なデータ量を満たすまで繰り返す。
【0038】
チューニング装置10は、所定の条件を満たしたか否かを判断する(ステップS14)。
所定の条件は、例えば、人格モデルの形成に必要なデータ量であるか否かである。
チューニング装置10は、例えば、予め設定されたデータ量の事前基礎データや、回答を受け付けたか否かを判断する。
チューニング装置10が、所定の条件を満たしていないと判断した場合(ステップS14 NO)、例えば、受け付けた事前基礎データや回答が、十分なデータ量に達していないと判断した場合、チューニング装置10は、質問部において、受け付けた回答に基づいて、大規模言語モデルを活用したチャットボットに、仮想人物に対する更なるインタビューを行うことを質問する(ステップS15)。
質問部は、大規模言語モデルを活用したチャットボットに、受け付けた回答に基づいた更なるインタビューを行うことを質問する。ここで、質問部は、受け付けた回答を、チャットボットに対して入力する。
その後、チューニング装置10は、再度、ステップS12以降の処理を実行する。
すなわち、チューニング装置10は、事前基礎データや回答のデータ量が不十分であった場合、受け付けた回答等に基づいてチャットボットが新たに生成した質問を、人格モデル人物端末3に出力し、人格モデル人物端末3から、この質問に対する回答を受け付ける。チューニング装置10と、人格モデル人物端末3とは、質問と回答との遣り取りを、予め設定されたデータ量を満たすまで、繰り返すことになる。
【0039】
チューニング装置10が、所定の条件を満たしたと判断した場合(ステップS14 YES)、例えば、受け付けた事前基礎データや回答が、十分なデータ量に達したと判断した場合、チューニング装置10は、形成部において、質問の回答に基づいて、仮想人物の人格モデルを形成する(ステップS16)。
形成部は、事前基礎データ、受け付けた回答をデータセットとし、ファインチューニングを行い、人格モデル人物2の人格モデルを形成する。
チューニング装置10は、形成した人格モデルを自身の記憶部に記憶する。
【0040】
以上が、ステップS1~S3において、仮想人物の人格を形成する際の処理ステップの概要である。
【0041】
チューニング装置10は、人格モデルを形成する際、同一の人格モデル人物2において、年代別に、その人格モデルを形成しても良い。例えば、チューニング装置10は、20代、30代、40代、50代、60代といった年代別に、仮想人物の人格モデルを形成しても良い。この場合、人格モデル人物2は、その年代における生者本人であっても良いし、その年代の生者や死者を知る近親者であっても良い。
チューニング装置10は、各年代において、上述した処理を実行し、年代別の人格モデルを形成する。すなわち、チューニング装置10は、所定の期間毎(1年毎、5年毎、10年毎)に、上述した処理を実行する。チューニング装置10は、人格モデル人物2が異なる年代になった際、新たな人格モデルを形成し、年代別の人格モデルを記憶していく。
年代別の人格モデルを用いた会話を行う際、現実人物4が、年代別の仮想人物と会話することが可能となる。この結果、現実人物4は、自身の年代に近い年代の仮想人物との会話により悩みや疑問等をより自然に会話しやすくなることも可能となる。
【0042】
上述したステップS10~S16の処理において、仮想人物の対象となる人物は、既に亡くなっている人物(死者)又は現在生きている人物(生者)である。死者が対象となる場合、事前基礎データや回答等は、この死者の近親者等によるものであれば良い。また、生者が対象となる場合、事前基礎データや回答等は、生者本人又は生者の近親者等によるものであれば良い。
形成した人格モデルが死者の場合、形成した人格モデルを用いた会話を行う際には、この死者と仮想的に会話を行うことになる。形成した人格モデルが生者の場合、形成した人格モデルを用いた会話を行う際には、既にこの生者が何らかの理由により亡くなった状態であれば、実質的に死者の人格モデルと同義となり、死者と仮想的に会話を行うことになる。また、生者が亡くなっていない状態であっても、過去の時点での人格と会話を行うことになる。さらには、生者が亡くなっていない状況の場合、第三者がリアルな生者との会話ではなく、仮想的に会話を行うことになる。
【0043】
人格形成システム1が、ステップS4~S6において、形成した人格モデルを用いた会話をする際の処理ステップの概要について、
図6、
図7に基づいて説明する。
【0044】
チューニング装置10は、現実人物4から、質問を受け付ける(ステップS20)。
現実人物端末5は、現実人物4から、質問の入力を受け付ける。現実人物端末5は、この質問を、テキスト形式又は音声形式の何れか又は双方の形式により受け付ける。例えば、所定の入力フォームにテキストや音声の入力を受け付ける。現実人物端末5は、受け付けた質問を、チューニング装置10に送信する。
チューニング装置10は、この質問を受信し、現実人物4から質問を受け付ける。
【0045】
チューニング装置10は、形成した人格モデルと、受け付けた質問とに基づいて、質問の回答を生成する(ステップS21)。
チューニング装置10は、この人格モデルを用い、受け付けた質問に対する回答を生成する。チューニング装置10は、質問の内容をテキスト認識、音声認識し、質問の内容を解析する。チューニング装置10は、解析結果に含まれる所定のキーワード等を、人格モデルに対して参照し、質問に対する回答を生成する。ここで、チューニング装置10が生成する回答は、現実人物4がネガティブな印象を受けるもの(愚痴、中傷、批判等)以外のもの(ポジティブな印象を受けるもの(感謝、称賛等)等)である。
チューニング装置10は、一の質問に対して、一の回答のみを生成しても良いし、一の質問に対して、異なる回答を生成しても良い。すなわち、チューニング装置10は、ある質問に対して、常に同じ回答を生成しても良いし、質問を受け付ける都度異なる回答を生成しても良い。異なる回答は、例えば、人格モデルにおける仮想人物の性格(考え方、口調等)に則った回答以外に、性格に反する回答や性格と異なる回答等であっても良い。
【0046】
チューニング装置10は、生成した回答を出力する(ステップS22)。
チューニング装置10は、生成した回答を、現実人物端末5に出力する。ここで、チューニング装置10は、この回答を、テキスト形式又は音声形式の何れか又は双方の形式により送信する。
現実人物端末5は、この回答を受信し、自身の表示部等(モニタ、タッチパネル等)に、テキスト形式により表示する、又は、音声部(マイク等)に、音声形式により放音する。
【0047】
チューニング装置10は、上述したステップS20~S22の処理を、現実人物4が質問を終了するまで繰り返すことにより、仮想人物(死者)と、現実人物(生者)4との間で会話を行わせる。
【0048】
図7に基づいて、ステップS20~S22の処理に際しての画面例について説明する。同図は、ステップS20~S22の処理時における画面の例を模式的に示す図である。同図において、会話画面30が示されている。この会話画面30は、現実人物端末5が、質問及び回答をテキスト形式により表示する際の例である。
会話画面30は、現実人物4から質問の入力を受け付ける入力欄31、質問や回答が表示される第1欄32、第2欄33、第3欄34、第4欄35が存在する。第1欄32、第3欄34の内容は、入力欄31に対して入力された内容に基づくものである。第2欄33、第4欄35の内容は、人格モデルと質問とに基づいて生成された回答に基づくものである。
現実人物端末5は、入力欄31に対して、質問の入力を受け付け、受け付けた質問を、第1欄32に表示するとともに、チューニング装置10に送信する。チューニング装置10は、人格モデルと、この内容とに基づいて、回答を生成する。
チューニング装置10は、生成した回答を、現実人物端末5に出力し、現実人物端末5が、第2欄33に、生成した回答を表示する。
現実人物端末5は、入力欄31に対して、第2欄33に示された回答に対する質問の入力を受け付け、受け付けた質問を、第3欄34に表示するとともに、チューニング装置10に送信する。チューニング装置10は、人格モデルと、この内容とに基づいて、回答を生成する。
チューニング装置10は、生成した回答を、現実人物端末5に出力し、現実人物端末5が、第4欄35に、生成した回答を表示する。
チューニング装置10と、現実人物端末5とは、これらの質問及び回答の遣り取りを現実人物4が終了するまで繰り返すことにより、仮想人物(死者)と、現実人物(生者)4との間で会話を行わせる。
【0049】
以上が、ステップS4~S6において、形成した人格モデルを用いた会話をする際の処理ステップの概要である。
【0050】
人格形成システム1が、形成した人格モデルを更新する際の処理ステップの概要について、
図8に基づいて説明する。
【0051】
チューニング装置10は、会話履歴を記憶する(ステップS30)。
会話履歴は、ステップS20~S22の処理における受け付けた質問と、生成した回答との組み合わせの履歴である。ここで、会話履歴は、一の質問と、この一の質問に対して生成した一の回答のセットを示すものであっても良いし、現実人物4が質問を開始し、質問を終了した際の一連の質問と、この一連の質問に対して生成した各回答のセットを示すものであっても良い。
チューニング装置10は、会話履歴を時系列に沿って記憶する。
【0052】
チューニング装置10は、記憶した会話履歴が所定の条件を満たすか否かを判断する(ステップS31)。
所定の条件は、例えば、会話履歴のトークン数が一定値を超過、一定時間が経過する度である。
チューニング装置10が、この会話履歴が所定の条件を満たしていないと判断した場合(ステップS31 NO)、本処理を終了する。
【0053】
チューニング装置10が、この会話履歴が所定の条件を満たしていると判断した場合(ステップS31 YES)、会話内容をデータセットに追加する(ステップS32)。
チューニング装置10は、この会話履歴の内容を示す会話内容(質問及びこの質問に対する回答のセット)を、人格モデル形成時に用いたデータセットに追加する。
【0054】
チューニング装置10は、会話内容を追加したデータセットに基づいて、人格モデルを更新する(ステップS33)。
チューニング装置10は、会話内容を追加したデータセットに基づいて、人格モデルのファインチューニングを行い、人格モデルを更新する。
チューニング装置10は、記憶した人格モデルを、更新後の人格モデルのものに上書きし、更新する。
【0055】
以上が、形成した人格モデルを更新する際の処理ステップの概要である。
【0056】
人格形成システム1は、これらの処理を実行後、再度、ステップS20~S22の処理を実行する際、更新後の人格モデルを用いて、各処理を実行する。
更に、ステップS30~S33の処理は、定期的に行われるものであり、現実人物4が行った質問及びその回答を加味した会話をすることが可能となる。その結果、新たな情報を人格モデルに追加することにより、より会話が自然なものとなるだけでなく、人格モデルにより生成する回答の内容も最新のものにしやすくなる。
例えば、人格形成システム1は、前回行った会話内容を踏まえた回答を生成し、この回答による会話を行うことが可能である。
【0057】
また、チューニング装置10は、会話内容に加えて、事前基礎データと同様に、SNSや所定のWebサイトから、仮想人物が過去SNSに投稿した内容や、所定のWebサイトにおける仮想人物に関する内容を取得し、取得した内容に基づいて、人格モデルのファインチューニングを行い、人格モデルを更新しても良い。
例えば、最新の天気情報を、所定のWebサイトから取得し、この天気情報を人格モデルに追加することにより、世の中の動きについての話であっても、より会話を自然なものとすることも可能である。
また、チューニング装置10は、上述した形成した人格モデルを用いた会話をする際の処理ステップにおいて、現実人物4からの質問を受け付けず、事前基礎データ(誕生日等の記念日等)会話履歴の内容(会話中に含まれる予定等)、SNSや所定のWebサイトから取得した内容(天候、事件、事故等)に基づいて、回答を生成する構成も可能である。
例えば、大きな出来事(記念日、災害、事件等)に関する内容を取得した場合、この出来事に基づいた回答(「昨日大雨だったが、大丈夫か?」等)を生成し、出力するといったものが挙げられる。現実人物端末5は、プッシュ通知等により、出力された回答を現実人物4に通知し、これを受けて、現実人物4が仮想人物との会話を開始する。このように、チューニング装置10は、現実人物4からの入力に依らず、自発的な発話を行う構成も可能となる。これにより、現実人物4の孤独感や喪失感等を軽減することができる。
【0058】
本発明を実際に用いたアプリケーションの画面例について、
図9、
図10、
図11に基づいて、説明する。各図は、現実人物端末5が表示するアプリケーションのUI(User Interface)の例を模式的に示す図である。
図9が、このアプリケーションのホーム画面の例を模式的に示す図である。同図において、ホーム画面40が示されている。
ホーム画面40において、死者に関するデータ(命日、偲ぶ会の参加可否等)を表示する第1欄41が存在する。現実人物端末5は、第1欄41に対する入力等を受け付け、データに対応する画面に遷移する。
図10が、このアプリケーションの会話画面の例を模式的に示す図である同図において、会話画面50が示されている。
会話画面50において、死者との会話に関するデータを表示する第1欄51が存在する。現実人物端末5は、第1欄51に対する入力等を受け付け、
図7で示した画面に遷移し、現実人物4と、死者との会話を実現する。
図11が、このアプリケーションのリクエスト画面の例を模式的に示す図である。同図において、リクエスト画面60が示されている。
リクエスト画面60において、形成された人格モデルの基となった仮想人物に関するデータ(氏名、顔写真等)を表示する第1欄61が存在する。現実人物端末5は、第1欄61に対する入力等を受け付け、この第1欄61に存在する仮想人物を現実人物の親族として設定する等の画面に遷移する。
【0059】
以上が、人格形成システム1の概要である。
本人格形成システム1によれば、仮想人物の人格を容易に形成し、仮想人物、特に死者等と会話を行うことができる。
【0060】
上述した手段、機能は、コンピュータ(CPU、情報処理装置、各種端末を含む)が、所定のプログラムを読み込んで、実行することによって実現される。プログラムは、例えば、コンピュータからネットワーク経由で提供される(SaaS:ソフトウェア・アズ・ア・サービス)形態やクラウドサービスで提供されて良い。また、プログラムは、コンピュータ読取可能な記録媒体に記録された形態で提供されて良い。この場合、コンピュータはその記録媒体からプログラムを読み取って内部記録装置又は外部記録装置に転送し記録して実行する。また、そのプログラムを、記録装置(記録媒体)に予め記録しておき、その記録装置から通信回線を介してコンピュータに提供するようにしても良い。
【0061】
以上、本発明の実施形態について説明したが、本発明は上述した実施形態に限るものではない。また、本発明の実施形態に記載された効果は、本発明から生じる最も好適な効果を列挙したに過ぎず、本発明による効果は、本発明の実施形態に記載されたものに限定されるものではない。
【0062】
本実施形態に開示される第1の態様は、コンピュータが仮想人物の人格を形成する人格形成方法であって、
当該仮想人物に対する事前基礎データを取得するステップと、
取得した前記事前基礎データに基づいて、大規模言語モデルを活用したチャットボットに、当該仮想人物に対するインタビューを行うことを質問するステップと、
前記質問の回答に基づいて、前記仮想人物の人格モデルを形成するステップと、
を備える人格形成方法を提供する。
【0063】
本実施形態に開示される第2の態様は、前記仮想人物が、死者である、
第1の態様に記載の人格形成方法を提供する。
【0064】
本実施形態に開示される第3の態様は、第1の態様に記載の前記人格モデルを形成するステップで形成した前記人格モデルに基づいて、
質問に対する回答を生成するステップと、
生成した回答をテキスト又は音声で出力するステップと、
を備える会話方法を提供する。
【0065】
本実施形態に開示される第4の態様は、仮想人物の人格を形成する人格形成システムであって、
当該仮想人物に対する事前基礎データを取得する取得部と、
取得した前記事前基礎データに基づいて、大規模言語モデルを活用したチャットボットに、当該仮想人物に対するインタビューを行うことを質問する質問部と、
前記質問の回答に基づいて、前記仮想人物の人格モデルを形成する形成部と、
を備える人格形成システムを提供する。
【0066】
本実施形態に開示される第5の態様は、仮想人物の人格を形成するコンピュータに、
当該仮想人物に対する事前基礎データを取得するステップ、
取得した前記事前基礎データに基づいて、大規模言語モデルを活用したチャットボットに、当該仮想人物に対するインタビューを行うことを質問するステップ、
前記質問の回答に基づいて、前記仮想人物の人格モデルを形成するステップ、
を実行させるためのコンピュータ読み取り可能なプログラムを提供する。
【符号の説明】
【0067】
1 人格形成システム
2 人格モデル人物
3 人格モデル人物端末
4 現実人物
5 現実人物端末
8 ネットワーク
10 チューニング装置
20 入力画面
21 入力欄
22 第1欄
23 第2欄
24 第3欄
25 第4欄
30 会話画面
31 入力欄
32 第1欄
33 第2欄
34 第3欄
35 第4欄
40 ホーム画面
41 第1欄
50 会話画面
51 第1欄
60 リクエスト画面
61 第1欄
【手続補正書】
【提出日】2023-12-26
【手続補正1】
【補正対象書類名】特許請求の範囲
【補正対象項目名】全文
【補正方法】変更
【補正の内容】
【特許請求の範囲】
【請求項1】
コンピュータが仮想人物の人格を形成する人格形成方法であって、
前記仮想人物に関する個人情報及び属性情報を、当該仮想人物に対する事前基礎データとして取得するステップと、
取得した前記事前基礎データに基づいて、大規模言語モデルを活用したチャットボットに、当該仮想人物に対するインタビューを行うことを質問するステップと、
前記質問の回答に基づいて、前記仮想人物の人格モデルを形成するステップと、
を備える人格形成方法。
【請求項2】
前記仮想人物が、死者である、
請求項1に記載の人格形成方法。
【請求項3】
前記取得するステップにおいて、前記事前基礎データを、SNSやWebサイトから取得する、
請求項1に記載の人格形成方法。
【請求項4】
取得した前記事前基礎データを、前記仮想人物に確認させるステップ、
を更に備え、
前記質問するステップにおいて、確認の結果、正しい前記事前基礎データに基づいて、前記チャットボットに、当該仮想人物に対するインタビューを行うことを質問する、
請求項1に記載の人格形成方法。
【請求項5】
前記質問するステップにおいて、取得した前記事前基礎データの不足内容を質問する、
請求項1に記載の人格形成方法。
【請求項6】
取得した前記事前基礎データが、所定の条件を満たしたか否かを判断するステップと、
を更に備え、
前記所定の条件を満たしていないと判断した場合、前記質問するステップにおいて、前記回答に応じた更なるインタビューを行うことを質問し、
前記所定の条件を満たしたと判断した場合、前記人格モデルを形成するステップにおいて、前記仮想人物の人格モデルを形成する、
請求項1に記載の人格形成方法。
【請求項7】
前記人格モデルを形成するステップにおいて、前記仮想人物の年代別の前記人格モデルを形成する、
請求項1に記載の人格形成方法。
【請求項8】
前記人格モデルを形成するステップにおいて、会話を行う現実人物と近い年代の前記人格モデルを形成する、
請求項1に記載の人格形成方法。
【請求項9】
請求項1に記載の前記人格モデルを形成するステップで形成した前記人格モデルに基づいて、
質問に対する回答を生成するステップと、
生成した回答をテキスト又は音声で出力するステップと、
を備える会話方法。
【請求項10】
前記生成するステップにおいて、会話を行う現実人物にネガティブな印象を与えない前記回答を生成する、
請求項9に記載の会話方法。
【請求項11】
前記生成するステップにおいて、前記人格モデルにおける仮想人物の性格に則った回答だけでなく、性格に反する又は性格と異なる回答を生成する、
請求項9に記載の会話方法。
【請求項12】
前記事前基礎データ、会話履歴、SNSや所定のWebサイトから、前記仮想人物に関する内容を取得するステップ、
を更に備え、
前記生成するステップにおいて、前記質問を受け付けず、取得した前記仮想人物に関する内容に基づいた前記回答を生成する、
請求項9に記載の会話方法。
【請求項13】
請求項9に記載の会話方法を用いた人格形成方法であって、
会話履歴を記憶するステップと、
記憶した当該会話履歴が、所定の条件を満たすか否かを判断するステップと、
前記所定の条件を満たすと判断した場合、当該会話履歴の内容に基づいて、形成した当該人格モデルを更新するステップと、
を更に備える人格形成方法。
【請求項14】
仮想人物の人格を形成する人格形成システムであって、
前記仮想人物に関する個人情報及び属性情報を、当該仮想人物に対する事前基礎データとして取得する取得部と、
取得した前記事前基礎データに基づいて、大規模言語モデルを活用したチャットボットに、当該仮想人物に対するインタビューを行うことを質問する質問部と、
前記質問の回答に基づいて、前記仮想人物の人格モデルを形成する形成部と、
を備える人格形成システム。
【請求項15】
仮想人物の人格を形成するコンピュータに、
前記仮想人物に関する個人情報及び属性情報を、当該仮想人物に対する事前基礎データとして取得するステップ、
取得した前記事前基礎データに基づいて、大規模言語モデルを活用したチャットボットに、当該仮想人物に対するインタビューを行うことを質問するステップ、
前記質問の回答に基づいて、前記仮想人物の人格モデルを形成するステップ、
を実行させるためのコンピュータ読み取り可能なプログラム。
【手続補正2】
【補正対象書類名】明細書
【補正対象項目名】0006
【補正方法】変更
【補正の内容】
【0006】
本発明は、コンピュータが仮想人物の人格を形成する人格形成方法であって、
前記仮想人物に関する個人情報及び属性情報を、当該仮想人物に対する事前基礎データとして取得するステップと、
取得した前記事前基礎データに基づいて、大規模言語モデルを活用したチャットボットに、当該仮想人物に対するインタビューを行うことを質問するステップと、
前記質問の回答に基づいて、前記仮想人物の人格モデルを形成するステップと、
を備える人格形成方法を提供する。
【手続補正書】
【提出日】2024-05-07
【手続補正1】
【補正対象書類名】特許請求の範囲
【補正対象項目名】全文
【補正方法】変更
【補正の内容】
【特許請求の範囲】
【請求項1】
コンピュータが仮想人物の人格を形成する人格形成方法であって、
前記仮想人物に関する個人情報及び属性情報を、当該仮想人物に対する事前基礎データとして取得するステップと、
取得した前記事前基礎データに基づいて、大規模言語モデルを活用したチャットボットに、当該仮想人物に対するインタビューをチャットボットに入力するステップと、
前記チャットボットがインタビューをした当該仮想人物の質問の回答に基づいて、前記仮想人物の人格モデルを形成するステップと、
を備える人格形成方法。
【請求項2】
前記仮想人物が、死者である、
請求項1に記載の人格形成方法。
【請求項3】
前記取得するステップにおいて、前記事前基礎データを、SNSやWebサイトから取得する、
請求項1に記載の人格形成方法。
【請求項4】
取得した前記事前基礎データを、前記仮想人物に確認させるステップ、
を更に備え、
前記質問するステップにおいて、確認の結果、正しい前記事前基礎データに基づいて、前記チャットボットに、当該仮想人物に対するインタビューを行うことを質問する、
請求項1に記載の人格形成方法。
【請求項5】
前記質問するステップにおいて、取得した前記事前基礎データの不足内容を質問する、
請求項1に記載の人格形成方法。
【請求項6】
取得した前記事前基礎データが、所定の条件を満たしたか否かを判断するステップと、
を更に備え、
前記所定の条件を満たしていないと判断した場合、前記質問するステップにおいて、前記回答に応じた更なるインタビューを行うことを質問し、
前記所定の条件を満たしたと判断した場合、前記人格モデルを形成するステップにおいて、前記仮想人物の人格モデルを形成する、
請求項1に記載の人格形成方法。
【請求項7】
前記人格モデルを形成するステップにおいて、前記所定の条件として、前記事前基礎データ又は回答が、予め設定されたデータ量に達したか否かが条件である、
請求項6に記載の人格形成方法。
【請求項8】
前記人格モデルを形成するステップにおいて、前記仮想人物の年代別の前記人格モデルを形成する、
請求項1に記載の人格形成方法。
【請求項9】
前記人格モデルを形成するステップにおいて、会話を行う現実人物と近い年代の前記人格モデルを形成する、
請求項1に記載の人格形成方法。
【請求項10】
請求項1に記載の前記人格モデルを形成するステップで形成した前記人格モデルに基づいて、
質問に対する回答を生成するステップと、
生成した回答をテキスト又は音声で出力するステップと、
を備える会話方法。
【請求項11】
前記生成するステップにおいて、会話を行う現実人物にネガティブな印象を与えない前記回答を生成する、
請求項10に記載の会話方法。
【請求項12】
前記生成するステップにおいて、前記人格モデルにおける仮想人物の性格に則った回答だけでなく、性格に反する又は性格と異なる回答を生成する、
請求項10に記載の会話方法。
【請求項13】
前記事前基礎データ、会話履歴、SNSや所定のWebサイトから、前記仮想人物に関する内容を取得するステップ、
を更に備え、
前記生成するステップにおいて、前記質問を受け付けず、取得した前記仮想人物に関する内容に基づいた前記回答を生成する、
請求項10に記載の会話方法。
【請求項14】
請求項10に記載の会話方法を用いた人格形成方法であって、
会話履歴を記憶するステップと、
記憶した当該会話履歴が、所定の条件を満たすか否かを判断するステップと、
前記所定の条件を満たすと判断した場合、当該会話履歴の内容に基づいて、形成した当該人格モデルを更新するステップと、
を更に備える人格形成方法。
【請求項15】
前記所定の条件が、前記会話履歴のトーク数が一定値を超過、又は、一定時間が経過したか否かである、
請求項14に記載の人格形成方法。
【請求項16】
仮想人物の人格を形成する人格形成システムであって、
前記仮想人物に関する個人情報及び属性情報を、当該仮想人物に対する事前基礎データとして取得する取得部と、
取得した前記事前基礎データに基づいて、大規模言語モデルを活用したチャットボットに、当該仮想人物に対するインタビューをチャットボットに入力する質問部と、
前記チャットボットがインタビューをした当該仮想人物の質問の回答に基づいて、前記仮想人物の人格モデルを形成する形成部と、
を備える人格形成システム。
【請求項17】
仮想人物の人格を形成するコンピュータに、
前記仮想人物に関する個人情報及び属性情報を、当該仮想人物に対する事前基礎データとして取得するステップ、
取得した前記事前基礎データに基づいて、大規模言語モデルを活用したチャットボットに、当該仮想人物に対するインタビューをチャットボットに入力するステップ、
前記チャットボットがインタビューをした当該仮想人物の質問の回答に基づいて、前記仮想人物の人格モデルを形成するステップ、
を実行させるためのコンピュータ読み取り可能なプログラム。
【手続補正2】
【補正対象書類名】明細書
【補正対象項目名】0006
【補正方法】変更
【補正の内容】
【0006】
本発明は、コンピュータが仮想人物の人格を形成する人格形成方法であって、
前記仮想人物に関する個人情報及び属性情報を、当該仮想人物に対する事前基礎データとして取得するステップと、
取得した前記事前基礎データに基づいて、大規模言語モデルを活用したチャットボットに、当該仮想人物に対するインタビューをチャットボットに入力するステップと、
前記チャットボットがインタビューをした当該仮想人物の質問の回答に基づいて、前記仮想人物の人格モデルを形成するステップと、
を備える人格形成方法を提供する。