(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-01-11
(45)【発行日】2024-01-19
(54)【発明の名称】情報処理装置、情報処理方法およびプログラム
(51)【国際特許分類】
G06N 20/00 20190101AFI20240112BHJP
【FI】
G06N20/00 130
(21)【出願番号】P 2019165579
(22)【出願日】2019-09-11
【審査請求日】2022-09-02
(73)【特許権者】
【識別番号】000001007
【氏名又は名称】キヤノン株式会社
(74)【代理人】
【識別番号】100126240
【氏名又は名称】阿部 琢磨
(74)【代理人】
【識別番号】100223941
【氏名又は名称】高橋 佳子
(74)【代理人】
【識別番号】100159695
【氏名又は名称】中辻 七朗
(74)【代理人】
【識別番号】100172476
【氏名又は名称】冨田 一史
(74)【代理人】
【識別番号】100126974
【氏名又は名称】大朋 靖尚
(72)【発明者】
【氏名】奥冨 一則
(72)【発明者】
【氏名】山崎 健史
【審査官】福西 章人
(56)【参考文献】
【文献】特開2019-091387(JP,A)
【文献】特開2018-181300(JP,A)
【文献】特開2019-040516(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
G06N 3/00-99/00
(57)【特許請求の範囲】
【請求項1】
特定人物の応答の情報を、前記応答の時の前記特定人物の年齢情報とともに取得する取得手段と、
所定の年齢を設定する設定手段と、
前記所定の年齢と前記年齢情報とに基づき、前記応答の情報から前記所定の年齢に対応する応答の情報を抽出する抽出手段と、
前記抽出された応答の情報から、前記特定人物の応答の学習モデルを生成する生成手段と、を有することを特徴とする情報処理装置。
【請求項2】
前記設定手段は、所定の年齢を年齢の範囲で設定することを特徴とする請求項1に記載の情報処理装置。
【請求項3】
前記応答の情報に含まれる応答それぞれは、前記特定人物の年齢情報と関連付けられていることを特徴とする請求項1または請求項2に記載の情報処理装置。
【請求項4】
前記応答の学習モデルは、ユーザからの入力に対して、前記所定の年齢に対応する応答を出力するモデルであることを特徴とする請求項1乃至3のいずれか1項に記載の情報処理装置。
【請求項5】
前記生成手段は、ユーザからの入力の意味を解析する解析モデルを含む応答の学習モデルを生成することを特徴とする請求項1乃至4のいずれか1項に記載の情報処理装置。
【請求項6】
前記生成手段は、前記所定の年齢の前記特定人物の口調を再現する口調モデルを含む応答の学習モデルを生成することを特徴とする請求項1乃至5のいずれか1項に記載の情報処理装置。
【請求項7】
前記生成手段は、前記抽出された応答の情報と、標準的な応答を行う標準応答モデルとに基づき、前記応答の学習モデルを生成することを特徴とする請求項1乃至6のいずれか1項に記載の情報処理装置。
【請求項8】
前記生成手段は、ニューラルネットワークを用いて、前記応答の学習モデルを生成することを特徴とする請求項1乃至7のいずれか1項に記載の情報処理装置。
【請求項9】
前記特定人物の応答の学習モデルと関連付けられたアバターを表示させる表示手段を有することを特徴とする請求項1乃至8のいずれか1項に記載の情報処理装置。
【請求項10】
情報処理装置が実行する情報処理方法であって、
取得手段が、特定人物の応答の情報を、前記応答の時の前記特定人物の年齢情報とともに取得する取得工程と、
設定手段が、所定の年齢を設定する設定工程と、
抽出手段が、前記所定の年齢と前記年齢情報とに基づき、前記応答の情報から前記所定の年齢に対応する応答の情報を抽出する抽出工程と、
生成手段が、前記抽出された応答の情報から、前記特定人物の応答の学習モデルを生成する生成工程と、を有することを特徴とする情報処理
方法。
【請求項11】
コンピュータを、
特定人物の応答の情報を、前記応答の時の前記特定人物の年齢情報とともに取得する取得手段と、
所定の年齢を設定する設定手段と、
前記所定の年齢と前記年齢情報とに基づき、前記応答の情報から前記所定の年齢に対応する応答の情報を抽出する抽出手段と、
前記抽出された応答の情報から、前記特定人物の応答の学習モデルを生成する生成手段と、を有することを特徴とする情報処理装置として機能させるプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、特定人物を模した応答を実現する技術に関する。
【背景技術】
【0002】
近年、パーソナルコンピュータやスマートフォンの処理性能の向上に伴い、ユーザの質問や問いかけに対して、パーソナルコンピュータやスマートフォン上に生成されたチャットボットやアバターが自動応答する技術が発達している。チャットボットに関する技術として、特許文献1には、複数のユーザの端末からの質問文に対して自動応答するチャットボットシステムにおいて、長文の応答メッセージを適切な長さに分割することが開示されている。チャットボットやアバターとのコミュニケーションにおいて、ユーザは、必要な情報が速やかに得られるというだけでなく、コミュニケーション自体を楽しむことも出来るようになってきている。そのため、より人間らしいコミュニケーションを人工知能(Artificial Intelligence(AI))で実現するために、様々なケースの会話などをコンピュータに学習させることも行われている。機械学習されたアバターは、あたかも、本物の特定人物が応答しているかのような自動応答をすることが可能である。
【先行技術文献】
【特許文献】
【0003】
【発明の開示】
【発明が解決しようとする課題】
【0004】
しかしながら、従来技術におけるチャットボットシステムやアバターとのコミュニケーションでは、ユーザに対して十分な満足感を与えることが出来ない場合がある。例えば、俳優などの著名人を模したアバターとコミュニケーションを行う場合、現在の著名人を模したアバターではなく、過去の最も活躍していた時の著名人を再現したアバターとのコミュニケーションが望まれることがある。また、故人をアバターで再現してコミュニケーションを行う場合、亡くなる直前の故人ではなく、所望の年齢の故人とのコミュニケーションが望まれることもある。
【0005】
本発明は、上記課題を鑑みてなされたものであり、所定の年齢の特定人物を模した応答を実現するための学習モデルを生成することを目的とする。
【課題を解決するための手段】
【0006】
本発明は、特定人物の応答の情報を、前記応答の時の前記特定人物の年齢情報とともに取得する取得手段と、所定の年齢を設定する設定手段と、前記所定の年齢と前記年齢情報とに基づき、前記応答の情報から前記所定の年齢に対応する応答の情報を抽出する抽出手段と、前記抽出された応答の情報から、前記特定人物の応答の学習モデルを生成する生成手段と、を有することを特徴とする。
【発明の効果】
【0007】
本発明によれば、所定の年齢の特定人物を模した応答を実現出来る。
【図面の簡単な説明】
【0008】
【
図1】第1の実施形態における装置およびシステム構成図
【
図6】第1の実施形態における応答モデル生成のフローチャート
【
図7】第1の実施形態における応答モデルを使ったコミュニケーションのフローチャート
【
図9】年齢別の応答モデルを用いたアバターの表示例
【
図10】応答モデルを年齢別に選択するモデルの概念図
【発明を実施するための形態】
【0009】
(第1の実施形態)
以下、図面を用いて、第一の実施形態を説明する。
図1は、本実施形態における装置およびシステム構成図である。情報処理装置1100は、例えば、一般的なコンピュータであり、特定人物を模した応答を実現するための応答モデル(学習モデル)を生成する。
【0010】
情報処理装置1100は、CPU1101、DRAM1102、二次記憶装置1103、ネットワークIF1104、I/Oコントローラ1105から構成されている。CPU1101は、中央演算装置であり、コンピュータプログラムの指示命令に従い、各種処理を行う。DRAM1102は、揮発性のメモリであり、コンピュータプログラムや各種データを一時的に記憶する。二次記憶装置1103は、ハードディスクドライブ(HDD)もしくはソリッドステイトディスク(SSD)などの不揮発性記憶装置であり、コンピュータプログラムや各種データを記憶する。ネットワーク1400は、有線ケーブルもしくは無線ネットワークであり、ネットワーク1400を介して、外部装置との各種データの送受信が行われる。コンピュータプログラムや各種データは、二次記憶装置1103もしくはネットワーク1400から取得され、DRAM1102に一時的に記憶される。CPU1101は、DRAM1102に記憶されたコンピュータプログラムや各種データに基づき情報処理を行う。I/Oコントローラ1105は、外部接続された入力装置1106、モニタ1107、スピーカ1108との間の入出力を制御するコントローラである。入力装置1106は、例えば、キーボードやマウス、マイクのデバイスであり、ユーザの入力を受け付ける。ユーザは、入力装置1106を使い、情報処理装置1100上に再現された仮想的な特定人物に対して、テキスト入力や音声入力で、問いかけや質問を行うことが可能である。モニタ1107は、例えば、一般的な液晶ディスプレイであり、情報処理装置1100の処理結果を表示する。モニタ1107上に、情報処理装置1100上に再現された特定人物のコンピュータグラフィックスを表示しても良い。また、モニタ1107上に、特定人物の応答をテキスト表示しても良い。スピーカ1108は、情報処理装置1100上に再現された特定人物の応答を音声出力するようにしても良い。
【0011】
ユーザは、モニタ1107上に表示された特定人物のコンピュータグラフィックスを視認しながら、入力装置1106で質問などの問いかけを行い、スピーカ1108から音声出力される応答を聞くことが出来る。尚、情報処理装置1100上に再現された特定人物とのコミュニケーションは、入力装置1106、モニタ1107、スピーカ1108を用いずに行っても良い。例えば、情報処理装置1100とネットワーク1400を介して接続されているクライアントPCやスマートフォン1300を使って、土曜のコミュニケーションを行うことが可能である。
【0012】
図2は、本実施形態における機能構成図である。
図2に示した各機能は、情報処理装置1100が、DRAM1102に記憶されたコンピュータプログラムや各種データに基づく処理を行うことにより、実現される。記憶手段2001は、DRAM1102や二次記憶装置1103により実現され、Q&Aデータおよび年齢情報を保持する。Q&Aデータは、特定人物に対して行った質問に対する応答を集めたデータである。Q&Aデータは、テキスト形式のデータでも良いし、音声形式のデータでも良い。また、特定人物の自発的な発言として、無言に対する応答を含むデータでも良い。Q&Aデータは、携帯電話やスマートフォンの会話ログから収集しても良いし、パーソナルコンピュータ上に記録されているチャットログから収集しても良い。年齢情報は、Q&Aデータに含まれる各応答を特定人物が何歳の時にしたものかを示す情報である。年齢情報は、Q&Aデータに含まれる各応答に関連付けて記憶されている。
図3は、本実施形態におけるQ&Aデータおよび年齢情報を示す図である。図に示す通り、Q&Aデータ3001には、多くの質問に対する回答が含まれている。また、各Q&Aが、何歳の時になされたものかを示す年齢情報3002が関連付けられている。記憶手段2001には、一人の特定人物のQ&Aデータ3001および年齢情報3002だけでなく、複数の特定人物のQ&Aデータ3001および年齢情報3002を記憶しておいても良い。また、年齢情報3002は、25歳~30歳のように年齢の範囲で設定しておいても良い。
【0013】
取得手段2002は、記憶手段2001に記憶されているQ&Aデータと年齢情報とを取得する手段である。そして、設定手段2003は、ユーザ指示などに基づき所定の年齢を設定する手段である。所定の年齢は、ユーザが所望の年齢を定めればよい。例えば、特定人物が25歳の時の仮想人物を再現してコミュニケーションを行いたい場合は、25歳を設定する。また、25~30歳のように年齢の範囲を設定しても良い。抽出手段2004は、設定手段2003で設定された所定の年齢に基づき、Q&Aデータから対応する応答情報を抽出する手段である。例えば、設定手段2003で25歳が設定されている場合、
図3に示すQ&Aデータ3001には、25歳、50歳、51歳の応答情報が含まれているため、年齢情報3002を参照して、25歳のみの応答情報を抽出する。生成手段2005は、抽出手段2004で抽出された応答情報を用いて、特定人物の応答モデル(学習モデル)を生成する。応答モデルは、最も単純なものでは、抽出手段2004で抽出されたQ&Aデータそのものでも良い。その場合、記憶手段2001に記憶されていたQ&Aデータに含まれる質問のみ応答できるモデルになる。判定手段2006は、生成した応答モデルを使ったコミュニケーションを行うか否か、またコミュニケーションを停止するか否かを判定する判定手段である。判定手段2006は、所定の時間だけユーザからの質問がなかった場合やユーザからコミュニケーション停止の指示を受けた場合、学習によって生成した応答モデルを使ったコミュニケーションを停止させる。入力手段2007は、ユーザからの質問を受け付け、応答モデルに質問のデータを入力する手段である。尚、生成した応答モデルが複数存在する場合、入力手段2007からの入力に基づき、所望の応答モデルを選択する。出力手段2008は、ユーザからの質問に対する応答モデルの応答を出力する手段である。
【0014】
図4は、本実施形態における応答モデルの一例の概念図である。前述した通り、抽出手段2004で抽出されたQ&Aデータそのものを応答モデルにした場合、記憶手段2001に記憶されていたQ&Aデータに含まれる質問のみしか応答することが出来ない。よって、記憶手段2001に記憶されていたQ&Aデータに含まれる質問以外の質問にも応答するため、意味解析モデル4102を導入する。意味解析モデル4102は、あらかじめ、ニューラルネットワークやサポートベクターマシンなどの機械学習を用いて作成しておく。意味解析モデル4102は、テキスト形式もしくは音声形式の質問データを入力とし、質問を同定可能な質問の特徴量4103を出力する。類似の質問に同一ラベルを付与した多くの質問データを教師データとして機械学習を行うことにより、類似の質問に対して同一の特徴量を出力する意味解析モデル4102を作成することが出来る。Q&Aデータが比較的少ない場合は、特徴量4103はスカラー値でも良いが、Q&Aデータが多い場合は、特徴量4103はベクトル値にすると良い。ここで、機械学習の一つであるニューラルネットワークの概念について説明する。
【0015】
なお、ニューラルネットワークの原理自体は公知であるため、簡単に説明する。
図5は、ニューラルネットワークを説明する図である。
図5では中間層を1層としているが、2層以上で中間層を構成することが望ましい。
図5に示すニューラルネットワークでは、入力層はMi個のノード(n11、n12、…、n1Mi)を有し、中間層はMh個のノード(n21、n22、…、n2Mh)を有し、出力層(最終層)はMo個のノード(n31、n32、…、n3Mo)を有している。そして、各層のノードは隣接する層の全てのノードと結合しており、階層間で情報伝達を行う3層の階層型ニューラルネットワークを構成している。
【0016】
入力層に画像を入力する場合、該入力層には、画素とノードとが1対1となるように、画素数分のノードを設ける。また、出力層においても出力する画素数分のノードが設定されている。つまり本実施形態においては、16画素×16画素のブロック画像が入力され、16画素×16画素の画素値を出力するので、入力層および出量層におけるノードは256個である。データは、
図5の左から右へ、即ち、入力層、中間層、出力層の順で受け渡される。入力層の各ノードは中間層のすべてのノードに接続され、ノード間の接続はそれぞれ重みを持っている。一方のノードから結合を通して他方のノードに伝達される際の出力値は、結合の重みによって増強あるいは減衰される。このような接続に定められた重み係数、バイアス値の集合は学習モデルのパラメータである。なお活性化関数については特に限定しないが、ロジスティックシグモイド関数やRectified Linear Unit(ReLU)関数などを用いれば良い。学習方法としては、種々提案されているニューラルネットワークの学習方法を適用すれば良い。例えば、入力層に生徒データを入力してニューラルネットワークを動作させた場合に出力層から得られる出力と、該生徒データに予め対応づけられている教師データと、の差分を計算し、該差分を極小化するように、重み係数及びバイアス値を調整する。
【0017】
図4に示す通り、上記の通りに作成された意味解析モデル4102と、抽出手段2004で抽出された応答情報から作成されたQ&Aモデル4101とを直列接続することにより、応答モデル4100を作成することが出来る。Q&Aモデル4101は、Q&Aデータの集合であるが、意味解析モデル4102と接続するため、入力の質問を意味解析モデル4102の特徴量に変更しておく。応答モデル4100の処理としては、まず、質問が入力されると、意味解析モデル4102は、質問を同定可能な特徴量4103を出力する。Q&Aモデル4101は、意味解析モデル4102が出力した特徴量4103を入力として、特徴量4103に対応する応答を出力する。以上の処理により、あらかじめ記憶されていた質問以外の質問にも応答可能な応答モデル4100を実現することが出来る。尚、上記実施形態では、Q&Aモデル4101とは別に、意味解析モデル4102を機械学習により生成したが、機械学習の段階で、Q&Aモデル4101を含めて応答モデル4100を作成しても良い。
【0018】
図6は、本実施形態における応答モデルの生成を示すフローチャートである。以下、各ステップについて説明する。尚、以下の各ステップは、情報処理装置1100、クライアントPC1200、スマートフォン1300の少なくともいずれか一つが行うものである。
【0019】
S601は、取得手段2002が、記憶手段2001から、特定人物のQ&Aデータおよび、対応する年齢情報を取得するステップである。尚、特定人物は、あらかじめ設定しておいても良いし、ユーザの指示に基づき設定しても良い。
【0020】
S602は、設定手段2003が、ユーザ所望の年齢を設定するステップである。ここで設定する年齢は、特定の年齢ではなく、25~30歳のように年齢の範囲であっても良い。また、西暦や元号で指定し、特定人物の生年月日に基づき、年齢を算出ししても良い。
【0021】
S603は、抽出手段2004が、S602で設定された所定の年齢に基づき、特定人物のQ&Aデータから対応する応答情報を抽出する処理である。例えば、S602で25歳が設定された場合、S601で取得した年齢情報を参照して、特定人物のQ&Aデータから25歳の応答情報のみを抽出する。
【0022】
S604は、S603で抽出された応答情報を用いて、応答モデルを生成するステップである。応答モデルの生成の詳細については、前述したため、ここでは省略する。
【0023】
以上の処理により、ユーザが所望した年齢の特定人物の応答を再現することが可能な応答モデルを生成することが出来る。
【0024】
次に、情報処理装置1100、クライアントPC1200、スマートフォン1300の少なくともいずれか一つを使い、生成された応答モデルを用いたコミュニケーションを行う方法について説明する。
【0025】
図7は、第1の実施形態における応答モデルを使ったコミュニケーションのフローチャートである。以下、各ステップについて説明する。
【0026】
S701は、入力手段2007が、ユーザからの入力指示に基づき、コミュニケーションを望む年齢の特定人物の応答モデルを選択するステップである。尚、ここでは、複数の特定人物もしくは複数年齢の応答モデルがすでに生成されている前提で選択を行っている。しかしながら、所望の応答モデルが一つだけ生成されている場合には、本ステップにおける選択を省略することも可能である。
【0027】
S702は、判定手段2006が、S701で選択された応答モデルとのコミュニケーションを停止するか否かを判定するステップである。判定は、ユーザの入力指示や、あらかじめ設定した所定時間を経過したことなどに基づき行う。コミュニケーションを停止すると判定された場合は、本フローにおける処理を終了させる。コミュニケーションを停止しないと判定された場合、すなわち、コミュニケーションを継続すると判定された場合は、S703に処理を進める。
【0028】
S703は、判定手段2006が、ユーザからの質問があるか否かを判定するステップである。ユーザからの質問は、入力装置1106、クライアントPC1200、スマートフォン1300を用いて、テキスト形式や音声形式のデータで入力される。また、特定人物からの自発的な発言を望む場合は、自発モードをあらかじめ設定しておくことにより、ユーザからの質問がなかったとしても、質問が入力されたものとして処理を進める。質問が入力されたら、質問ありと判定され、S704に処理を進める。質問なしと判定された場合、コミュニケーションを停止するか否かを判定するため、S702に処理を戻す。
【0029】
S704は、出力手段2008が、S703で入力された質問に対する応答を出力するステップである。応答は、S703で入力された質問を応答モデルに入力し、応答モデルから応答を出力する。応答は、スピーカ1108、モニタ1107、ネットワーク1400を介したクライアントPC1200、スマートフォン1300で出力される。出力後、次のユーザからの質問を受けるため、S703に処理を戻す。
【0030】
以上、本実施形態によれば、ユーザ所望の年齢の特定人物の応答モデルを作成し、生成された応答モデルを使ったコミュニケーションが可能となる。
【0031】
(第二の実施形態)
第一の実施形態では、意味解析モデル4102とQ&Aモデル4101と直列接続させて、応答モデル4100を生成した。しかしながら、ユーザの多様な質問に対して、対象の特定人物らしい応答を適切に行うためには、異なる方法で応答モデルを作成したほうが良いこともある。
【0032】
一般的に、特定人物らしいか否かは、応答の内容と、語尾の癖や方言の有無などの口調とで判別されていると考えられる。そこで、本実施形態では、口調モデルを導入した応答モデルを生成する。尚、応答モデルの生成方法以外に関しては、第一の実施形態と同様であるため、以下では、本実施形態における応答モデルの生成方法のみについて説明する。
【0033】
図8は、本実施形態における応答モデル8100の概念図である。
図8において、意味解析モデル8102は第一の実施形態における意味解析モデル4102と同様で、特徴量8103は第一の実施形態における特徴量4103と同様である。本実施形態における応答モデル8100は、意味解析モデル8102、再学習済の標準応答モデル8101、口調モデル8104を直列に接続することにより実現される。
【0034】
再学習済の標準応答モデル8101は、標準応答モデルに対して、Q&Aデータ3001および年齢情報3002を用いた再学習を行い、生成されたものである。標準応答モデルは、一般的な標準応答を行うことが可能なモデルであり、標準的な会話ログなどを教師データとすることにより生成可能である。標準的な会話ログからは、特定人物ならではの応答を学習することは出来ないが、膨大なQ&Aデータを収集することが可能である。よって、多様な質問に対して応答可能な応答モデルを生成することが出来る。本実施形態では、多様な質問に対して応答可能な標準応答モデルに対して、Q&Aデータ3001および年齢情報3002を用いて再学習を行う。すなわち、ユーザが設定した年齢に対応するQ&Aデータ3001を用いて再学習を行い、Q&Aデータ3001に含まれる質問に対してはQ&Aデータ3001に含まれる応答を行う。そして、Q&Aデータ3001に含まれない質問に対しては標準応答を行うように学習するものである。
【0035】
口調モデル8104は、入力されたテキストもしくは音声をそのまま出力するモデルに対して、ユーザが設定した年齢に対応するQ&Aデータ3001を用いて口調を学習させたモデルである。すなわち、入力されたテキストもしくは音声に対して、内容としては同じあるが、語尾の癖や方言などの特定人物の口調らしさが加わった出力を行うように学習させたものである。
【0036】
本実施形態における応答モデル8100では、第一の実施形態と同様に、質問が入力されると、意味解析モデル8102は、質問を同定可能な特徴量8103を出力する。再学習済の標準応答モデル8101は、意味解析モデル8102が出力した特徴量8103を入力として、特徴量8103に対応する応答を出力する。ここでの応答は、Q&Aデータ3001に含まれていた質問に対しては、特定人物らしい応答になるが、Q&Aデータ3001に含まれていなかった質問に対しては、標準応答となる。再学習済の標準応答モデル8101の出力は、口調モデル8104に入力され、特定人物らしい口調の応答で出力される。以上の処理により、仮に、再学習済の標準応答モデル8101からの出力が標準応答だったとしても、口調モデル8104により特定人物らしい口調の応答で出力されるため、ユーザは特定人物らしさを感じることが出来る。再学習済の標準応答モデル8101からの出力がQ&Aデータ3001に含まれていた質問だった場合は、応答の内容と口調ともに特定人物らしくすることが可能になる。
【0037】
尚、本実施形態におけるモデルの学習は、前述したニューラルネットワークやサポートベクターマシンなどの各機械学習の手法を用いて実現することが可能である。以上、本実施形態によれば、ユーザの多様な質問に対して、対象の特定人物らしい応答を適切に行う応答モデルを生成することが可能となる。
【0038】
図9は、年齢別の応答モデルを用いたアバターの表示例を示したものである。
図9に示した年齢別のアバターの画像を、モニタ1107、クライアントPC1200、スマートフォン1300のいずれかに表示させることにより、ユーザは、互いに異なる年齢とアバターを対面しているかのように感じることが出来る。そして、あらかじめ作成された年齢別の応答モデルを各年齢のアバターに設定しておけば、ユーザの質問や問いかけに対して、年齢ごとに特有の応答をすることが出来るため、ユーザが互いに異なる年齢のアバターと会話をしているような感覚を得ることが出来る。
【0039】
図10は、
図9のアバターによる応答を実現するための応答モデルの一例であり、応答モデルを年齢別に選択するモデルの概念図である。図に示す通り、応答モデル10100には、25歳で再学習済の標準応答モデル10101、50歳で再学習済の標準応答モデル10201、70歳で再学習済の標準応答モデル10301、が含まれている。更に、25歳で再学習済の標準応答モデル10101には25歳の口調モデル10104が接続されている。50歳で再学習済の標準応答モデル10201には50歳の口調モデル10204が接続され、70歳で再学習済の標準応答モデル10301には70歳の口調モデル10304が接続されている。モデルの機能は
図8に示した応答8100と類似している。大きく異なる点として、入力(質問)に対して意味解析モデルおよび年齢選択10102では、入力(質問)の意味解析に加えて、年齢選択を行い、選択された年齢に対応するモデルに対して、特徴量10103を出力するようになっている。年齢選択は、あらかじめ設定されたものでも良いし、ユーザの設定指示に応じて選択しても良い。また、特定の年齢だけでなく、年齢の幅で選択しても良い。このような構成にすることにより、
図9に示した年齢別のアバターそれぞれに対応した応答モデルが選択され、適切な出力(応答)がなされる。
【0040】
(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
【符号の説明】
【0041】
2002 取得手段
2003 設定手段
2004 抽出手段
2005 生成手段