(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2023087483
(43)【公開日】2023-06-23
(54)【発明の名称】バーチャルアシスタント装置及びバーチャルアシスタント装置用のプログラム
(51)【国際特許分類】
G16H 20/30 20180101AFI20230616BHJP
【FI】
G16H20/30
【審査請求】未請求
【請求項の数】4
【出願形態】OL
(21)【出願番号】P 2021201889
(22)【出願日】2021-12-13
(71)【出願人】
【識別番号】000004547
【氏名又は名称】日本特殊陶業株式会社
(74)【代理人】
【識別番号】110000497
【氏名又は名称】弁理士法人グランダム特許事務所
(72)【発明者】
【氏名】宮嶋 一元
【テーマコード(参考)】
5L099
【Fターム(参考)】
5L099AA13
(57)【要約】 (修正有)
【課題】バーチャルアシスタント装置を利用する利用者の関心を高めやすいバーチャルアシスタント装置及びバーチャルアシスタント装置用のプログラムを提供する。
【解決手段】バーチャルアシスタント装置10と、管理装置90と、を備えるバーチャルアシスタントシステム1において、バーチャルアシスタント装置は、いずれかの話題に対応する複数の選択肢をインタフェース13に出力させ、且つ、出力される複数の選択肢に関連するキャラクタの会話をインタフェース13に出力させるように第1発話制御を行い、第1発話制御の後にインタフェース13を介していずれかの選択肢を選択する選択入力がなされた場合、第1発話制御の終了後に所定期間をおいてから、選択入力で選択された選択肢に関連する話をキャラクタからの発話としてインタフェースに出力させる第2発話制御を行う制御部11を備える。
【選択図】
図1
【特許請求の範囲】
【請求項1】
利用者からの入力の受入れおよび出力を行うインタフェースと、前記インタフェースを構成する表示部に具現化されたキャラクタを表示させる制御部と、を備えたバーチャルアシスタント装置であって、
前記インタフェースは、接触又は非接触による前記利用者からの入力動作を検出する動作検出部又は前記利用者の音声を示す音声信号を取得する音声入力部の少なくともいずれかを有し、
前記制御部は、複数の選択肢を話題と対応付けた対応情報を記憶する記憶部の情報を利用し、いずれかの話題に対応する前記複数の選択肢を前記インタフェースに出力させ且つ出力される前記複数の選択肢に関連する前記キャラクタの会話を前記インタフェースに出力させる第1発話制御を行い、前記複数の選択肢が出力された後に前記インタフェースを介していずれかの選択肢を選択する選択入力がなされた場合、前記第1発話制御の終了後に所定期間をおいてから、前記選択入力で選択された選択肢に関連する話を前記キャラクタからの発話として前記インタフェースに出力させる第2発話制御を行う
バーチャルアシスタント装置。
【請求項2】
前記第1発話制御は、いずれかの話題の質問と、前記質問に対する答えの候補である前記複数の選択肢と、を含んだ前記キャラクタの会話を前記表示部に表示させる制御である
請求項1に記載のバーチャルアシスタント装置。
【請求項3】
前記第2発話制御は、前記選択入力で選択された選択肢の言葉を含む会話を前記キャラクタの会話として前記インタフェースに出力させる制御である
請求項1又は請求項2に記載のバーチャルアシスタント装置。
【請求項4】
利用者からの入力の受入れおよび出力を行うインタフェースと、上記インタフェースを構成する表示部に具現化されたキャラクタを表示させる制御部と、を備えたバーチャルアシスタント装置に用いられるプログラムであって、
前記インタフェースは、接触又は非接触による前記利用者からの入力動作を検出する動作検出部又は前記利用者の音声を示す音声信号を取得する音声入力部の少なくともいずれかを有し、
複数の選択肢を話題と対応付けた対応情報が記憶される記憶部の情報を利用し、いずれかの話題に対応する前記複数の選択肢を前記インタフェースに出力させ且つ出力される前記複数の選択肢に関連する前記キャラクタの会話を前記インタフェースに出力させる第1発話制御を前記制御部に行わせるステップと、
前記第1発話制御の後に前記インタフェースを介していずれかの選択肢を選択する選択入力がなされた場合、前記第1発話制御の終了後に所定期間をおいてから、前記選択入力で選択された選択肢に関連する会話を前記キャラクタの会話として前記インタフェースに出力させる第2発話制御を前記制御部に行わせるステップと、
を含むバーチャルアシスタント装置用のプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、バーチャルアシスタント装置及びバーチャルアシスタント装置用のプログラムに関する。
【背景技術】
【0002】
特許文献1には、エージェント装置の一例が開示されている。特許文献1のエージェント装置は、表示装置とスピーカとを用いて画像と音声により現出させたエージェントにより状況に応じた違和感の無いユーザ性格判別用の質問をさせる。更に、このエージェント装置は、マイク入力されたユーザの回答結果からユーザの性格を判別し、ユーザの性格に合わせてエージェントの性格を可変させる。
【先行技術文献】
【特許文献】
【0003】
【特許文献1】特開2007-133728号公報
【特許文献2】特開2001-204774号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
特許文献1の装置は、ユーザの回答結果から判別されたユーザの性格に合わせてエージェントの性格を可変させるようにしてエンターテイメント性を高めているが、単に性格を可変させるだけでは、ユーザの意思を反映した会話を行うことが難しく、ユーザの関心を高めるという観点で、改善の余地がある。
【0005】
一方、特許文献2には、介護施設のコミュニケーション支援システムが開示されている。このシステムは、被介護者からの簡単な問い合わせに答えるルールが登録された知識ベースと処理部とを備えており、処理部は、上記ルールに基づいて、被介護者からの簡単な問い合わせに答えるようにエージェントを動作し得る。しかし、このシステムは、被介護者からの問い合わせに適した回答を提供できる可能性はあるものの、問い合わせ毎に話題が完結してしまう可能性が高いため、介護者がエージェントとの間で継続的にコミュニケーションをとっているような印象を受けにくい。この点で、介護者(利用者)の関心が損なわれる懸念がある。
【0006】
本発明は、バーチャルアシスタント装置を利用する利用者の関心を高めやすい技術を提供することを一つの目的とする。
【課題を解決するための手段】
【0007】
本発明の一つであるバーチャルアシスタント装置は、
利用者からの入力の受入れおよび出力を行うインタフェースと、前記インタフェースを構成する表示部に具現化されたキャラクタを表示させる制御部と、を備えたバーチャルアシスタント装置であって、
前記インタフェースは、接触又は非接触による前記利用者からの入力動作を検出する動作検出部又は前記利用者の音声を示す音声信号を取得する音声入力部の少なくともいずれかを有し、
前記制御部は、複数の選択肢を話題と対応付けた対応情報を記憶する記憶部の情報を利用し、いずれかの話題に対応する前記複数の選択肢を前記インタフェースに出力させ且つ出力される前記複数の選択肢に関連する前記キャラクタの会話を前記インタフェースに出力させる第1発話制御を行い、前記複数の選択肢が出力された後に前記インタフェースを介していずれかの選択肢を選択する選択入力がなされた場合、前記第1発話制御の終了後に所定期間をおいてから、前記選択入力で選択された選択肢に関連する話を前記キャラクタからの発話として前記インタフェースに出力させる第2発話制御を行う。
【0008】
上記のバーチャルアシスタント装置は、いずれかの話題に対応する複数の選択肢をインタフェースに出力させ且つ出力される複数の選択肢に関連するキャラクタの会話をインタフェースに出力させることができるため、利用者に会話の楽しみを提供しつつ、会話と関連付けた形で利用者の意思を正確に確認することができる。そして、このような会話から時間をおいた後、選択入力で選択された選択肢に関連する会話をキャラクタの会話として提供することができるため、キャラクタが過去の会話の内容を覚えているような印象を与えやすい形で、ユーザに話を提供することができる。特に、このバーチャルアシスタント装置は、「第2発話制御で提供される話」が「利用者が選択した選択肢」から大きくずれることを確実に抑えることができ、利用者がより一層関心をもちやすくなる。
【0009】
上記のバーチャルアシスタント装置において、上記第1発話制御は、いずれかの話題の質問と、上記質問に対する答えの候補である上記複数の選択肢と、を含んだ上記キャラクタの会話を上記表示部に表示させる制御である。
【0010】
このバーチャルアシスタント装置は、第1発話制御において、質問内容と質問に対する答えの候補とを表示部に表示させることができるため、利用者は、質問と答えの候補を視覚的に確認しながら選択することができる。よって、選択の正確性が高まり、第2発話制御において、「第2発話制御で提供される話」が「利用者が選択した選択肢」から大きくずれることを、より一層確実に抑えることができる。
【0011】
上記のバーチャルアシスタント装置において、上記第2発話制御は、上記選択入力で選択された選択肢の言葉を含む会話を上記キャラクタの会話として上記インタフェースに出力させる制御である。
【0012】
このバーチャルアシスタント装置は、第2発話制御に基づいて提供される会話の中に「第1発話制御に応じて選択された選択肢の言葉」が含まれるため、利用者は、第2発話制御の際にキャラクタから提供される話を聞いた場合又は見た場合に、自身が過去に選択した「選択肢の言葉」が印象に残りやすい。その結果、利用者は、自身の話をキャラクタが興味を持って覚えてくれていたような印象をもちやすく、キャラクタの話に関心や愛着をもちやすい。
【0013】
本発明の一つであるバーチャルアシスタント装置用のプログラムは、
利用者からの入力の受入れおよび出力を行うインタフェースと、上記インタフェースを構成する表示部に具現化されたキャラクタを表示させる制御部と、を備えたバーチャルアシスタント装置に用いられるプログラムであって、
前記インタフェースは、接触又は非接触による前記利用者からの入力動作を検出する動作検出部又は前記利用者の音声を示す音声信号を取得する音声入力部の少なくともいずれかを有し、
複数の選択肢を話題と対応付けた対応情報が記憶される記憶部の情報を利用し、いずれかの話題に対応する前記複数の選択肢を前記インタフェースに出力させ且つ出力される前記複数の選択肢のいずれかの選択を促す前記キャラクタの会話を前記インタフェースに出力させる第1発話制御を前記制御部に行わせるステップと、
前記第1発話制御の後に前記インタフェースを介していずれかの選択肢を選択する選択入力がなされた場合、前記第1発話制御の終了後に所定期間をおいてから、前記選択入力で選択された選択肢に関連する会話を前記キャラクタの会話として前記インタフェースに出力させる第2発話制御を前記制御部に行わせるステップと、
を含む。
【0014】
上記のバーチャルアシスタント装置用のプログラムは、いずれかの話題に対応する複数の選択肢をインタフェースに出力させ且つ出力される複数の選択肢に関連するキャラクタの会話をインタフェースに出力させるように制御することができるため、利用者に会話の楽しみを提供しつつ、会話と関連付けた形で利用者の意思を正確に確認することができる。そして、このような会話から時間をおいた後、選択入力で選択された選択肢に関連する会話をキャラクタの会話として提供することができるため、キャラクタが過去の会話の内容を覚えているような印象を与えやすい形で、ユーザに話を提供することができる。特に、このプログラムは、「第2発話制御で提供される話」が「利用者が選択した選択肢」から大きくずれることを確実に抑えることができ、利用者がより一層関心をもちやすくなる。
【発明の効果】
【0015】
本発明によれば、バーチャルアシスタント装置を利用する利用者の関心を高めやすい。
【図面の簡単な説明】
【0016】
【
図1】
図1は、第1実施形態のバーチャルアシスタント装置を備えたバーチャルアシスタントシステムの電気的構成を簡略的に示すブロック図である。
【
図2】
図2は、第1実施形態のバーチャルアシスタント装置における通常表示の例1を示す説明図である。
【
図3】
図3は、管理装置に記憶された利用者データのデータ構造例を概念的に示す説明図である。
【
図4】
図4は、管理装置に記憶されたコンテンツ関連データのデータ構造例を概念的に示す説明図である。
【
図5】
図5は、第1実施形態のバーチャルアシスタント装置での制御の流れを例示するフローチャートである。
【
図6】
図6は、第1実施形態のバーチャルアシスタント装置における通常表示の例2を示す説明図である。
【
図7】
図7は、第1実施形態のバーチャルアシスタント装置における通常表示の例3を示す説明図である。
【
図8】
図8は、第1実施形態のバーチャルアシスタント装置における通常表示の例4を示す説明図である。
【
図9】
図9は、第1実施形態のバーチャルアシスタント装置における「所定の報知」の一例を説明する説明図である。
【
図10】
図10は、第1実施形態のバーチャルアシスタント装置における通常表示の例5を示す説明図であり、報知情報が表示された例を示す図である。
【
図11】
図11は、第1実施形態のバーチャルアシスタント装置でのコンテンツの提供例1を示す説明図である。
【
図12】
図12は、第1実施形態のバーチャルアシスタント装置でのコンテンツの提供例2を示す説明図であり、
図11の表示に続く表示の例である。
【
図13】
図13は、第1実施形態のバーチャルアシスタント装置でのコンテンツの提供例3を示す説明図であり、
図12の表示に続く表示の例である。
【
図14】
図14は、第1実施形態のバーチャルアシスタント装置でのコンテンツの提供例4を示す説明図であり、
図13の表示に続く表示の例である。
【
図15】
図15は、質問動作及び関連会話動作の具体例1についての1回目の第1発話制御を説明する説明図である。
【
図16】
図16は、質問動作及び関連会話動作の具体例1についての2回目の第1発話制御を説明する説明図である。
【
図17】
図17は、具体例1についての第2発話制御を説明する説明図である。
【
図18】
図18は、具体例1についての第2発話制御を説明する説明図であり、
図17に続く図である。
【
図19】
図19は、質問動作及び関連会話動作の具体例2についての第1発話制御を説明する説明図である。
【
図20】
図20は、具体例2についての第2発話制御を説明する説明図である。
【
図21】
図21は、具体例2についての第2発話制御を説明する説明図であり、
図20に続く図である。
【
図22】
図22は、質問動作及び関連会話動作の具体例3についての第1発話制御を説明する説明図である。
【
図23】
図23は、具体例3についての第2発話制御を説明する説明図である。
【
図24】
図24は、具体例3についての第2発話制御を説明する説明図であり、
図23に続く図である。
【
図25】
図25は、質問動作及び関連会話動作の具体例4についての第1発話制御を説明する説明図である。
【
図26】
図26は、具体例4についての第2発話制御を説明する説明図である。
【
図27】
図27は、質問動作及び関連会話動作の具体例5についての第1発話制御を説明する説明図である。
【
図28】
図28は、具体例5についての第2発話制御を説明する説明図である。
【発明を実施するための形態】
【0017】
<第1実施形態>
1.バーチャルアシスタントシステムの概要
図1に示されるバーチャルアシスタントシステム1は、バーチャルアシスタント装置10と、管理装置90と、を備える。以下の説明では、バーチャルアシスタントシステム1は、単にシステム1とも称される。以下で説明される代表例は、バーチャルアシスタント装置10が、高齢者向けのバーチャルアシスタント装置として機能するものであり、例えば、利用者が、介護施設、自宅、病院などで利用することができるものである。
【0018】
2.バーチャルアシスタント装置のハードウェア構成
図1のように、バーチャルアシスタント装置10は、タブレット端末、スマートフォン、パーソナルコンピュータ、外部装置と通信可能に構成されたテレビジョンなどの汎用の情報端末にアプリケーションプログラムをインストールし、記憶及び利用可能とした情報通信端末であってもよく、後述される各機能を実現できる専用装置であってもよい。バーチャルアシスタント装置10は、通信機能を有する携帯型の情報装置であってもよく、通信機能を有する据置型の情報装置であってもよい。
【0019】
図1のように、バーチャルアシスタント装置10は、制御部11と通信部12とインタフェース13と記憶部14とを備える。以下で説明されるバーチャルアシスタント装置10の代表例は、バーチャルアシスタント装置10が、
図2のようにタブレット端末によって実現される例である。
【0020】
図1に示される制御部11は、例えば公知の情報処理装置として構成される。制御部11は、CPUなどの公知の演算装置及び他の周辺回路などを備え、様々な制御や演算を行い得る。制御部11は、インタフェース13を構成する表示部15に、具現化されたキャラクタを表示させる機能を有する。
【0021】
図1に示される通信部12は、公知の有線通信方式又は公知の無線通信方式によって広域通信網に直接又は他装置を介して間接的にアクセス可能な装置である。通信部12は、基地局との間で無線通信を行い、図示されていない基地局を介して広域通信網(例えば、インターネット)に直接アクセスする構成であってもよい。通信部12は、図示されていないアクセスポイントとの間で無線通信を行い、アクセスポイントを介して広域通信網に間接的にアクセスする構成であってもよい。通信部12は、中継装置(ルータ等)との間で有線通信を行い、中継装置を介して広域通信網にアクセスする構成であってもよい。
【0022】
図1に示されるインタフェース13は、利用者からの入力の受入れおよび出力を行う装置である。インタフェース13は、表示部15と音声出力部16と操作部17と音声入力部18とを備える。
【0023】
表示部15及び音声出力部16は、情報を出力する出力部として機能する。表示部15は、液晶ディスプレイや有機エレクトロルミネッセンスディスプレイなどの公知の画像表示装置として構成される。以下で説明される代表例では、表示部15は、タッチパネル式の表示装置の一部をなす。音声出力部16は、例えば公知のスピーカなどの発音装置によって構成されている。音声出力部16は、制御部11と協働して各種音声を出力する機能を有する。
【0024】
操作部17及び音声入力部18は、情報を入力する入力部として機能する。操作部17は、動作検出部の一例に相当し、接触方式での入力操作が可能とされた入力デバイスである。操作部17は、例えば、タッチパネルなどが好適例である。音声入力部18は、例えば公知のマイクなどの音声入力装置によって構成されている。音声入力部18は、入力される音を電気信号に変換して制御部11に与える機能を有する。音声入力部18は、利用者が音声入力部18に向かって声やその他の音を発した場合(具体的には、音声入力部18が検出可能な音声を利用者が発した場合)に利用者の音声を示す音声信号を取得するように機能する。
【0025】
以下で説明される代表例では、
図2等で示されるように、表示部15と操作部17とがタッチパネル式表示装置20を構成する。タッチパネル式表示装置20は、単にタッチパネル20とも称される。
図2等の例では、操作部17は、表示部15からの光を透過可能に構成され、表示部15からの画像を外部から視認可能な構成で透明性のパネルが表示部15を覆っている。
【0026】
記憶部14は、様々な情報を記憶する機能を有する。記憶部14は、半導体メモリ、HDD、SSD、など、公知の記憶装置が採用される。制御部11は、記憶部14に対して各種情報を書き込む機能や、記憶部14に記憶された各種情報を読み出す機能を有する。記憶部14には、後述されるアプリケーションプログラムなどの様々なプログラムが記憶されている。記憶部14には、管理装置90によって管理されているサイト、情報、プログラム等に対して広域通信網を介してアクセスするための識別情報(例えば、URL(Uniform Resource Locator)など)も記憶されている。
【0027】
3.管理装置
図1に示される管理装置90は、様々な情報処理機能や様々な演算機能を有する。管理装置90は、バーチャルアシスタント装置10の外部に設けられた外部装置である。管理装置90は、様々な情報を登録する機能、様々な情報を配信する機能、などを有する。管理装置90は、通信機能及び情報処理機能を有する装置であればよい。管理装置90は、例えば、CPU,記憶媒体、通信装置などを備えたコンピュータとして構成されている。
図1の例では、管理装置90は、制御装置91と、通信部92、表示部93、入力部94、記憶部95、を備える。
【0028】
制御装置91は、例えば公知の情報処理装置として構成される。制御部11は、CPUなどの公知の演算装置及び他の周辺回路などを備え、様々な制御や演算を行い得る。
【0029】
通信部92は、公知の有線通信方式又は公知の無線通信方式によって広域通信網に直接又は他装置を介して間接的にアクセス可能な装置である。通信部92は、基地局との間で無線通信を行い、図示されていない基地局を介して広域通信網に直接アクセスする構成であってもよい。通信部92は、図示されていないアクセスポイントとの間で無線通信を行い、アクセスポイントを介して広域通信網に間接的にアクセスする構成であってもよい。通信部92は、中継装置(ルータ等)との間で有線通信を行い、中継装置を介して広域通信網にアクセスする構成であってもよい。
【0030】
表示部93は、公知の画像表示装置として構成される。入力部94は、例えば、キーボード、マウス、タッチパネル、音声入力部など、公知の入力デバイスとして構成され、接触による操作や音声などによって情報の入力が可能とされる。記憶部95は、様々な情報を記憶する記憶装置である。記憶部95において、データベースが構成されていてもよい。
【0031】
4.管理装置からのコンテンツの配信
管理装置90には、情報の配信対象である利用者に関する情報が登録されている。
図3は、
図1に示される管理装置90の記憶部95に記憶される利用者データのデータ構造例を示している。
図3のように、管理装置90に記憶される利用者データは、データベースを構成しており、各々の利用者に対応付けてID、登録種類、利用者情報が記憶されている。IDは、各々の利用者を識別可能な情報であり、各々の利用者を特定し得る識別情報である。登録種類は、利用者が希望する情報や利用者に有意義な情報の種類を登録する情報である。利用者情報は、利用者に関する各種情報であり、氏名、生年月日、メールアドレス、趣味、健康に関する情報、居住地、過去のエピソード等の個人情報を含んでいてもよく、コンテンツの配信先を特定する配信先情報を含んでいてもよい。例えば、
図3の利用者データでは、利用者のIDとしてID1が特定されれば、「ID1」で特定される利用者が希望する情報の種類が「登録種類1」の情報によって特定され、その利用者の個人情報等が「利用者情報1」の情報によって特定される。
【0032】
本実施形態に係るシステム1では、「利用者が希望する情報の種類」や「利用者に有意義な情報」として、様々な種類が登録可能とされている。具体的には、「利用者が希望する情報の種類」や「利用者に有意義な情報」として、趣味又は生き甲斐に関する複数の種類が予め選定可能に用意され、それら複数の種類から選ばれるいずれか1以上の種類が登録情報に含まれていてもよい。趣味又は生き甲斐に関する種類としては、例えば、園芸、スポーツ、レクリエーション、体操、音楽、美術、料理、懐かしい景色や玩具、旅行、動物、乗り物、ショッピング情報など、様々な種類を用意しておくことができる。或いは、利用者が希望する情報の種類として、病気に関する複数の種類が予め選定可能に用意され、それら複数の種類から選ばれるいずれか1以上の種類が登録情報に含まれていてもよい。具体的には、老齢症候群の予防やリハビリテーションやリラクゼーションに関する複数の種類が予め選定可能に用意され、それら複数の種類から選ばれるいずれか1以上の種類が登録情報に含まれていてもよい。
【0033】
例えば、
図3の利用者データにおいて、ID1が「00001」の情報であり、登録種類1が「園芸、体操」を特定する情報であり、利用者情報1が、利用者名として「山田太郎」を特定し、配信先アドレスとして「アドレス情報1」を特定する情報であるとする。この場合、制御装置91は、利用者データを参照すれば、「00001」のIDで特定される利用者の氏名が「山田太郎」であり、配信先アドレスが「アドレス情報1」であり、この利用者が希望する種類が「園芸、体操」であることを特定することができる。
【0034】
管理装置90は、コンテンツの登録及び配信を行うことが可能とされている。
図4は、
図4は、
図1に示される管理装置90の記憶部95に記憶されるコンテンツ関連データのデータ構造例を示している。
図4のように、管理装置90に記憶されるコンテンツ関連データは、データベースを構成しており、コンテンツ毎に、コンテンツ識別情報、コンテンツデータ、配信日時、コンテンツの種類が互いに対応付けられて記憶されている。本明細書では、コンテンツデータは、コンテンツ情報の一例に相当し、単にコンテンツとも称される。
【0035】
コンテンツ識別情報は、各々のコンテンツを識別可能且つ特定可能な情報であればよく、識別番号であってもよく、具体的な名称であってもよい。コンテンツデータは、コンテンツの具体的なデータであり、動画データ、静止画データ、音声データなどを含んでいてもよく、その他のデータ(例えば、プログラムデータ等)を含んでいてもよい。配信日時は、対応付けられたコンテンツ(コンテンツデータ)が配信される日時を特定する情報である。種類情報は、対応付けられたコンテンツ(コンテンツデータ)の種類を特定する情報である。種類情報で特定されるコンテンツの種類は、1種類であってもよく、複数種類であってもよい。
【0036】
管理装置90は、各識別情報で特定される各コンテンツ(コンテンツデータ)を、各コンテンツを配信すべき利用者(各コンテンツの種類を登録している利用者)のバーチャルアシスタント装置10に対し、各コンテンツに対応付けられた各配信日時に配信する。なお、
図1では、一の利用者が所持する一のバーチャルアシスタント装置10のみが例示されているが、システム1では、多数の利用者がバーチャルアシスタント装置10を所持することができ、
図1では、他の利用者が所持するバーチャルアシスタント装置10の図示は省略されている。管理装置90は、コンテンツを配信する場合において、そのコンテンツの配信対象の利用者が複数存在する場合、いずれの利用者のバーチャルアシスタント装置10に対してもコンテンツを配信することができる。なお、本実施形態では、管理装置90が各コンテンツを配信すべき利用者(各コンテンツの種類を登録している利用者)を特定し、当該利用者のバーチャルアシスタント装置10に対し、各コンテンツ(コンテンツデータ)を配信することとしたが、コンテンツの配信はこれに限られない。例えば、利用者のバーチャルアシスタント装置10が、自身の記憶部に記憶されている情報に基づき、管理装置90に対してコンテンツの配信を要求することで、当該利用者のバーチャルアシスタント装置10に対し、各コンテンツ(コンテンツデータ)を配信することとしてもよい。
【0037】
例えば、
図4のコンテンツ関連データにおいて、「識別情報1」が「0000A」の情報であり、「データ1」が「園芸に関する所定の動画データ」であり、「日時情報1」が「2021年1月1日10:00」であり、「種類情報1」が「園芸」を特定する情報であるとする。この場合、制御装置91は、
図4のコンテンツ関連データを参照すれば、「0000A」に対応付けられたコンテンツデータ(データ1の「園芸に関する所定の動画データ」)を、「園芸」の種類のデータとして、「2021年1月1日10:00」に配信すべきことを特定することができる。この場合、管理装置90は、識別情報1(0000A)で特定されるコンテンツデータ(データ1の「園芸に関する所定の動画データ」)を、「園芸」の種類のデータを登録する利用者(
図3の利用者データにおいて、登録種類として「園芸」を含む利用者)のバーチャルアシスタント装置10に対し「2021年1月1日10:00」に配信する。
【0038】
5.バーチャルアシスタント装置の受信制御
5-1.基本制御
バーチャルアシスタント装置10には、アプリケーションプログラムが記憶されている。このアプリケーションプログラムは、バーチャルアシスタント装置10にインストールされている。このアプリケーションプログラムは、記憶部14に記憶され、制御部11によって読み出されて実行される。
【0039】
上述されたように、管理装置90は、バーチャルアシスタント装置10に対してコンテンツ(コンテンツデータ)を配信する。管理装置90からバーチャルアシスタント装置10に配信されるコンテンツは、バーチャルアシスタント装置10を所持する利用者が予め登録した種類に属するコンテンツであってもよく、利用者による登録に関係なく管理装置90が選定したコンテンツであってもよい。バーチャルアシスタント装置10は、管理装置90から自身に対して配信されるコンテンツを通信部12によって受信する。制御部11は、外部(管理装置90)から配信されるコンテンツ(コンテンツデータ)を通信部12が受けた場合に、そのコンテンツデータを記憶部14に記憶し、インタフェース13を介して「所定の報知」を行う制御を実行する。なお、「所定の報知」は、コンテンツデータを記憶部14に記憶する前に行ってもよい。
【0040】
具体的には、上記アプリケーションプログラムは、
図5のような流れで制御部11に制御を行わせるプログラムである。制御部11は、所定の開始条件が成立した場合(例えば、操作部17に対して予め定められた開始操作(例えば、当該アプリケーションプログラムを起動させるためのタッチパネル20の操作)がなされた場合)に上記アプリケーションプログラムを実行し、ステップS1において、画像によって具現化されたキャラクタ70を表示部15に表示させる。
【0041】
図2には、ステップS1でなされる表示の具体例が示される。
図2において、キャラクタ70は、一般人を模したバーチャルアシスタント(擬人)である。
図2に表示されるキャラクタ70は、あくまで一例であり、例えば、介護福祉士、看護師、医師などの特定の職業の者を模したバーチャルアシスタントであってもよい。また、人に限らず動物やロボット等を模したバーチャルアシスタントであってもよい。上記アプリケーションプログラムは、
図2に表示されるキャラクタ70が自動的に会話を行うようにチャットボットの機能を実現するプログラムが備えられていてもよい。自動的に行う会話の内容は、利用者が事前に登録した属性(男女、家族構成、住宅環境、誕生日、趣味、コンテンツの難易度など)に合わせて、変更、選択することができる。
図2に示されるキャラクタ70の画像は、静止画や動画などによって実現することができ、後述されるステップS3,S8の処理が実行されていない期間には、時間経過に応じて
図6、
図7,
図8のようにキャラクタ70の表情、姿勢、動作、行為などを様々に変化させてもよい。
【0042】
制御部11は、ステップS1、S3、S4、S8等において、
図2、
図6~
図8のようにキャラクタ70を表示させ、その場合には、表示部15に、季節、暦、日付、時刻等を表示してもよく、朝・昼・夕方・夜の時間帯をイメージするイラストレーション、写真、コンピューターグラフィック、その他の画像等を表示してもよい。例えば、
図6は、予め定められた昼の時間帯の画像を示しており、この画像では、昼の時間帯であることを示すようにキャラクタ70の外側の背景の色を明るい色(具体的には予め定められた明色)で示している。一方、
図8は、予め定められた夜の時間帯の画像を示しており、この画像では、夜の時間帯であることを示すようにキャラクタ70の外側の背景の色を暗い色(予め定められた暗色)で示している。
【0043】
制御部11は、ステップS1の後、ステップS2において、会話開始条件が成立したか否かを判定する。会話開始条件は、バーチャルアシスタント装置10から会話を発する条件として予め定められた条件である。会話開始条件は、音声入力部18に対して所定の音声が入力されたこと(例えば、予め定められたウエイクワードが入力されたこと)であってもよい。以下で説明される代表例では、キャラクタ70の名前がウエイクワードとされており、このウエイクワードが音声入力されることが会話開始条件の一つとされている。なお、この例はあくまで一例であり、予め定められた挨拶(例えば「こんにちは」の言葉)がウエイクワードとされ、このウエイクワードが音声入力されることが会話開始条件の一つとされてもよい。会話開始条件は、これらの例に限定されず、例えば、操作部17に対して所定の操作がなされたこと(例えば、表示部15近傍をタップする操作がなされたこと)であってもよい。或いは、会話開始条件は、予め設定された予約時刻が到来したことであってもよい。
【0044】
制御部11は、ステップS2において会話開始条件が成立した判定した場合、ステップS3に進んで会話又はコンテンツの提供を開始する。ステップS3での会話やコンテンツの提供は、後述されるステップS8と同様に行うことができる。一方、ステップS2において会話開始条件が成立していないと判定した場合、ステップS4に進んで通常表示を継続する。なお、ステップS2でのNo判定及びステップS5でのNo判定が繰り返される間は、
図2、
図6~
図8のようなキャラクタ表示を継続させ、継続中には、キャラクタ70の表情、姿勢、動作、行為などを様々に変化させる。
【0045】
制御部11は、ステップS3又はステップS4の後、ステップS5において、新たな配信があったか否かの判定を行う。制御部11は、ステップS5において、通信部12が管理装置90から配信されたコンテンツ(コンテンツデータ)を受けていない判定した場合、ステップS5においてNoと判定するとともにステップS2に処理を戻し、ステップS2以降の処理を再び行う。制御部11は、ステップS5において新たな配信があったと判定した場合、ステップS5においてYesと判定し、ステップS6以降の処理を行う。
【0046】
5-2.新たな配信があった場合
制御部11は、ステップS5において、通信部12が管理装置90から配信されたコンテンツ(コンテンツデータ)を受けたか否かを判定し、受けたと判定した場合、ステップS6において、インタフェース13に「所定の報知」を行わせる。「所定の報知」は、「バーチャルアシスタント装置10が外部から新たなコンテンツの配信を受けたことを伝える伝達情報」の表示や音声出力などである。上記伝達情報の表示や音声出力は、メッセージの表示や音声出力などであってもよく、新たなコンテンツの配信を受けたことを伝える記号や絵柄などの画像表示であってもよく、新たなコンテンツの配信を受けたことを伝える報知音(アラーム音やブザー音などの発生)の出力であってもよい。報知音としては、例えば日常生活で聴きなれた電話のベル音やチャーム音が好ましい。例えば、
図9には、「所定の報知」の一例が示されている。
図9の例では、「所定の報知」として、配信名で特定される配信が届いた旨のメッセージの画像72を表示部15に表示させているが、このようなメッセージ表示に代えて又はメッセージ表示と併用して音声によるメッセージ報知、絵柄等の画像表示、報知音の出力などを行ってもよい。例えば、キャラクタの会話により報知してもよい。
【0047】
このように、上記のアプリケーションプログラムは、外部(管理装置90)から配信されるコンテンツデータ(コンテンツ情報)を通信部12が受けた場合に、ステップS6において、「インタフェース13を介して所定の報知を行う制御」を制御部11に実行させる。
【0048】
制御部11は、ステップS6において、インタフェース13に「所定の報知」を行わせた後、ステップS7において、提供指示があったか否かを判定する。具体的には、制御部11は、ステップS7において、「インタフェース13を介してコンテンツの提供を指示する入力を受けたか否か」を判定する。
【0049】
「コンテンツの提供を指示する入力」は、例えば、操作部17に対する所定操作であってもよく、所定の音声入力であってもよい。例えば、ステップS6の処理によって
図9のような「所定の報知」がなされる例では、「所定の報知」のメッセージと共に2つの選択ボタン(「見ない」「見る」のボタン画像)が表示される。この場合、それら選択ボタンのうちの「見る」を選択する操作(例えば、「見る」の画像72をクリックする操作)が「コンテンツの提供を指示する入力」の一例に相当する。従って、ステップS6において
図9のような表示が行われた後、「見る」を選択する操作がなされた場合、ステップS7では、コンテンツの提供を指示する入力を受けたと判定し、ステップS8の処理を実行する。
【0050】
制御部11は、ステップS7において「コンテンツの提供を指示する入力」を受けなかった判定した場合、ステップS9において新たに配信されたコンテンツデータを記憶部14に蓄積する。例えば、制御部11は、ステップS6において「所定の報知」を行った後、所定時間を経過するまで「コンテンツの提供を指示する入力」がなされない場合、
図10のように、コンテンツデータ(コンテンツ情報)の配信があったことを示す報知情報の表示を表示部15に行わせる。例えば、管理装置90から新たに2つのコンテンツデータが配信され、ステップS6において
図9のように「所定の報知」が行われた場合に、「所定の報知」の開始から所定時間を経過しても「見る」のボタンが押されなかった場合には、ステップS9に進み、新たに配信されてきたコンテンツデータを蓄積するとともに、
図10のような画像を表示する。
図10の画像では、報知情報として、新たに配信されたコンテンツのうち未提供となっているコンテンツの数を画像74によって表示している。なお、ステップS6において
図9のように「所定の報知」が行われた場合に、「見ない」のボタンが選択された場合(即ち、コンテンツの提供の保留を指示する入力がなされた場合)にも、ステップS9に進んで同様の処理を行う。
【0051】
制御部11は、ステップS7において「コンテンツの提供を指示する入力」を受けたと判定した場合、ステップS8において、会話やコンテンツを提供する表示を表示部15に行わせる。制御部11は、ステップS7でYesと判定してステップS8の処理を行う場合、管理装置90から新たに配信されたコンテンツデータ(コンテンツ情報)に基づくコンテンツの出力(例えば、新たに配信されたコンテンツデータに含まれる動画の再生や静止画の表示、音声の出力等)を表示部15や音声出力部16に行わせる。
【0052】
ステップS7でYesに進んだ場合にステップS8で行う制御は、「通信部12が受けたコンテンツに関する会話」を、インタフェース13を介して出力する制御である。
図11~
図14は、ステップS7でYesに進んだ場合に、制御部11がステップS8で行う制御の一例を示している。
図11~
図14は、管理装置90から「園芸」に関する「いきいき配信」というコンテンツが新たに配信された場合においてステップS8でこのコンテンツを提供する例であり、この例では、配信されたコンテンツデータに「園芸」に関する動画や会話データが含まれている。この場合、制御部11は、ステップS8において動作を再生しつつ会話のために音声を発するように制御を行う。例えば、
図13の例では、ひまわり畑が表示されたタイミングで「夏の花、ひまわりは元気なイメージですね」という会話を発している。この会話を発する際には、キャラクタ70を表示させておくことで、キャラクタ70が話しかけている印象を与えることができる。なお、制御部11は、会話を発する場合、予め登録された利用者のニックネームで発話をしてもよい。
【0053】
制御部11は、ステップS8にてコンテンツの提供を行い、
図13のように利用者に対して会話を発した場合には、その後、動作検出部が検出する動作又は音声入力部に入力される音声の少なくともいずれかに基づいて「利用者からの応答の認識」を試みる。例えば、操作部17に対する所定の応答操作(例えば、キャラクタ70やその他のデザインをタップする操作)や音声入力部18に対する所定の音声入力(例えば、言葉の入力)が「利用者からの応答」と定められている。制御部11は、インタフェース13において「利用者からの応答」があった場合に、この応答に対する更なる会話を、インタフェース13を介して出力するように制御を行う。「応答に対する更なる会話」は、提供されているコンテンツの種類の話題であってもよく、その種類とは異なる話題であってもよい。「応答に対する更なる会話」は、文字表示と音声出力を併用することが望ましいが、いずれか一方であってもよい。なお、制御部11が「応答に対する更なる会話」を発するように制御を行った場合、再び、「利用者からの応答の認識」を試みることが望ましい。そして、「利用者からの応答」があった場合には、この応答に対する更なる会話を、インタフェース13を介して出力することが望ましい。このように、「応答に対する更なる会話」と「利用者からの応答の認識」を繰り返すことで、会話を継続させることができる。
【0054】
このように、制御部11は、インタフェース13を介して「コンテンツに関する会話」を出力した後、インタフェース13を介して「利用者からの応答」を認識した場合に、インタフェース13を介して「応答に対する会話」を出力するように制御を行う。ステップS8は、このような制御を制御部11に行わせるステップである。
【0055】
なお、制御部11は、ステップS8にて会話を行う場合、音声の入出力と併用して、音声入力部18を介して音声入力された発話内容(利用者の発話内容)やバーチャルアシスタント装置10の発話内容(例えば、キャラクタ70の発話内容)を表示部15に文字で表示してもよい。
【0056】
なお、
図11~
図14は、バーチャルアシスタント装置10と対応付けて登録されている種類(利用者が希望する種類)のコンテンツを提供する例が示されるが、ステップS8で提供するコンテンツや会話はこの例に限定されない。
【0057】
5-3.新たな配信が無い期間の通常動作の詳細
次の説明は、新たな配信が無い期間(ステップS5のNoと判定される期間)になされる通常動作の詳細に関する。この期間、制御部11は、主に、待機モードと会話モードとに切り替わる。本実施形態では、新たな配信が無い期間(ステップS5のNoと判定される期間)において、ステップS4の処理を継続するモードが待機モードの一例である。また、上記期間において、ステップS3の処理を継続するモードが会話モードの一例である。
【0058】
会話モードは、ステップS2でYesと判定されてから、会話モードの終了条件が成立するまでのモードである。会話モードの終了条件は、会話モードで実行されたコンテンツが終了したことであってもよく、一定時間以上インタフェースに所定入力(例えば、音声入力やタッチパネルに対する操作等)がなされなかったことであってもよく、利用者からインタフェースに対して終了を指示する入力(終了を指示する音声入力や接触操作等)がなされたことであってもよい。会話モードは、具体的には、制御部11がウエイクワード以外の言葉を検出するモードである。制御部11は、会話モード中にインタフェースに音声が入力された場合、インタフェースに入力された音声を解析し、その音声が意味する言葉を公知の方法で認識する。
【0059】
待機モードは、ステップS2でNoと判定される期間のモードであり、会話モードが解除されているときのモードである。待機モードは、上記インタフェースにウエイクワードが入力されたか否かを制御部11が監視するモードである。制御部11は、待機モード中にインタフェースに音声が入力された場合、その音声がウエイクワードであるか否かを公知の方法で判定する。但し、制御部11は、待機モード中にインタフェースに入力される音声からウエイクワード以外の音声は認識しない。つまり、制御部11は、待機モードのときには、ウエイクワード以外の音声認識する必要が無く、ウエイクワードであるか否かの判定を行うだけで済むため、会話モードのときよりも音声の認識を簡略化することができる。
【0060】
図5のフローチャートで示されるように、制御部11は、ステップS2、S5でNoの判定が繰り返される期間は待機モードに設定され、待機モード中には、ウエイクワードの検出を継続的に試みる。制御部11は、待機モード中にインタフェース13にウエイクワードが音声入力されたことを検出した場合、ステップS2にてYesと判定するとともに会話モードに切り替わり、処理をステップS3に進める。そして、会話モードの終了条件が成立するまで、会話モードを継続する。制御部11は、会話モードの終了条件が成立した場合、待機モードに切り替わり、待機モードを継続する。制御部11は、待機モード中に、キャラクタが待機動作を行う画像を表示部15に表示させることもできる。
【0061】
バーチャルアシスタント装置がステップS3、S8で提供するコンテンツは、単に静止画を表示したり単に動画を流したりするコンテンツであってもよいが、バーチャル体験ができるコンテンツであってもよい。バーチャル体験ができるコンテンツは、
図21のような疑似的にドライブ体験ができるコンテンツや、
図24のような疑似的に仕事体験ができるコンテンツや、
図29~
図31のような疑似的に育成や飼育などの体験ができるコンテンツなどが挙げられる。なお、ステップS3でいずれのコンテンツを実施するかは、ユーザが選択できるようになっていることが望ましい。ユーザによるコンテンツの選択方法は、例えば、複数種類のコンテンツ名をタッチパネル20に表示させたうえで、ユーザが希望するコンテンツを選択するような方法であってもよく、キャラクタ70が会話の中で「旅行の動画を見ましょうか?」といった具合にコンテンツの種類を提案し、それに応じてユーザが希望する指示(タップ操作や指示する用語の音声入力など)を行った場合に、そのコンテンツが選択されるようにしてもよい。これらの方法に限定されず、他の方法でコンテンツが選択されてもよい。
【0062】
5-4.質問動作及び関連会話動作の具体例1
次の説明は、ステップS3、S8でなされる会話の具体例に関する。
制御部11は、
図5の制御においてステップS3の処理で採用する会話として、様々な種類の会話を採用し得る。その一つとして、
図15、
図16のように、利用者に対して質問をするような会話を提供することができる。利用者に質問する会話(質問会話)を提供する場合、コンテンツの提供とは関連無く独立して質問会話を提供してもよく、
図11~
図14のようにコンテンツを提供した後又は提供途中で、コンテンツに関連する内容の質問会話を提供してもよい。
【0063】
制御部11は、質問会話を提供する提供条件が成立した場合、予め定められた方法で選定される質問会話を提供するようにインタフェース13を動作させる。具体的には、制御部11は、
図15、
図16のように、いずれかの話題に対応する複数の選択肢をインタフェース13に出力させ且つ出力される複数の選択肢に関連するキャラクタの会話をインタフェース13に出力させるように第1発話制御を行う。
図15、
図16の例では、いずれかの話題の質問と、質問に対する答えの候補である複数の選択肢と、を含んだキャラクタの会話を表示部15に表示させるように第1発話制御を行っている。なお、
図5の制御を実行するためのプログラムにおいて、ステップS3又はステップS8を実行するためのプログラムの一部が、「第1発話制御を制御部11に行わせるステップ」の一例に相当する。
【0064】
なお、このような第1発話制御を実現するためには、「話題」と「質問」と「複数の選択肢」を対応付けた対応情報が複数種類用意され、このような複数種類の対応情報が記憶部14に記憶されていることが望ましい。例えば、「旅行」の話題が用意されている場合、「旅行」という話題の種類と「旅行」の話題に関する質問(
図15参照)とその質問に対する回答の候補である複数の選択肢(
図15参照)とを互いに対応付けて含んだ第1の対応情報が記憶部14に記憶されていればよい。また、「乗り物」の話題が用意されている場合、「乗り物」という話題の種類と「乗り物」の話題に関する質問(
図19参照)とその質問に対する回答の候補である複数の選択肢(
図19参照)とを互いに対応付けて含んだ第2の対応情報が記憶部14に記憶されていればよい。また、「仕事」の話題が用意されている場合、「仕事」という話題の種類と「仕事」の話題に関する質問(
図22参照)とその質問に対する回答の候補である複数の選択肢(
図22参照)とを互いに対応付けて含んだ第3の対応情報が記憶部14に記憶されていればよい。このようになっていれば、制御部11は、いずれかの話題を選定した場合に、記憶部14に記憶される複数種類の対応情報の中から選定した話題に対応する対応情報(選定した話題に対応する「質問」とその「質問」に対する回答の候補である「複数の選択肢」とを含む対応情報)を読み出すことができ、読み出した対応情報に基づいて、選定された話題に対応付けられた質問及び選択肢を把握することができる。
【0065】
なお、対応情報の「話題」は、独立した話題であってもよく、「いずれかの話題の対応情報において当該話題に対応付けられた選択肢」の話題であってもよい。例えば、「旅行」の話題の対応情報において「旅行」に対応する選択肢として「北海道」「沖縄」「東北」の選択肢が含まれる場合に、「北海道」が別途一つの話題とされ、この話題(北海道の話題)に対応する対応情報として、北海道に関する質問(例えば、
図16のような北海道で買いたいお土産を問う質問)とこの質問に対する回答候補としての複数の選択肢(例えば、
図16のような、じゃがいも、チーズ、トウモロコシなどの選択肢)とを含む対応情報が別途記憶されていてもよい。
【0066】
このように記憶されていれば、例えば、1回目の第1発話制御でいずれかの話題に関する質問を行った際に、その質問に応じていずれかの選択肢が選択された場合(例えば、
図15の質問において北海道が選択された場合)に、その選択された選択肢の話題に対応付けられた対応情報が記憶部14に記憶されている場合(例えば、上記「北海道」に対応付けて
図16のような「北海道のお土産」の話題に対応付けられた対応情報が記憶部14に記憶されている場合)には、制御部11は、その選択肢の話題に対応付けられた対応情報に基づいて質問及び複数の選択肢を提供することができる。つまり、制御部11は、第1発話制御の際に選択された選択肢を話題とする対応情報が存在する場合には、その対応情報に基づき、第1発話制御の際に選択された選択肢に関する質問とその質問に対する回答の候補である複数の選択肢を、
図16のようなキャラクタの会話によって提供するように、2回目の第1発話制御を行うことができる。なお、いずれの場合でも、対応情報は、記憶部14に継続的に記憶されていてもよく、必要に応じて管理装置90からバーチャルアシスタント装置10に配信されて記憶部14に記憶されてもよい。
【0067】
第1発話制御で提供する質問の話題は、予め登録情報において利用者(
図5の制御で提供対象とする利用者)に対応付けられた情報の種類に関する話題であってもよく、ステップS3、S8で提供するコンテンツに関する話題であってもよい。例えば、登録情報において利用者に対して「旅行」が対応付けられて登録されている場合、この「旅行」に関する質問会話として
図15のような情報を提供してもよい。或いは、ステップS3やS8において「旅行」に関するコンテンツ(動画等)を表示する場合、「旅行」のコンテンツの提供が終了した後又は提供途中で、「旅行」に関する質問会話として
図15のような情報を提供してもよい。
図15のような『「旅行」に関する質問会話』を可能にするためには、「旅行」の話題とこの話題に対応する複数の選択肢とを対応付けた対応情報が記憶部14に記憶されていればよい。
【0068】
図15の例では、旅行の話題に関する質問として「行きたい都道府県」を問う質問が採用され、その質問に対する答えの候補として複数種類の具体的な都道府県名を示した複数の選択肢が採用されている。なお、制御部11は、
図15、
図16のように第1発話制御を行う場合、表示部15に表示される会話(質問や選択肢の言葉など)をキャラクタ70が読み上げるように音声出力部16に音声を出力させることが望ましい。
【0069】
制御部11は、第1発話制御において、
図15のように複数の選択肢を出力するようにインタフェース13を制御した場合、複数の選択肢が出力された後にインタフェース13を介していずれかの選択肢を選択する選択入力がなされるか否かを確認する。
図15の例では、「いずれかの選択肢を選択する選択入力」は、タッチパネル20において各選択肢(具体的には、北海道、沖縄、東北、の各々)が表示された各領域のいずれかの表面に接触する操作である。例えば、
図15の状態で、タッチパネル20における『「北海道」の選択肢が表示された領域の表面に接触する操作(利用者による操作)』がなされた場合、制御部11は、「利用者」と「操作によって選択された選択肢」と「質問内容」とを対応付けた情報を記憶部14に記憶する(具体的には、利用者が行きたい都道府県が北海道であることを特定する結果情報を記憶部14に記憶する)。
【0070】
質問会話は、1回で終わらせてもよく、
図15、
図16のように複数の質問会話を行ってもよい。
図15、
図16の例は、
図15のような質問会話(一回目の質問会話)の後に、一回目の質問会話で選択された選択肢に関する更なる質問会話(二回目の質問会話)を提供する例である。
【0071】
図16の例では、一回目の質問会話で選択された選択肢に関する質問として「北海道に行った場合に買いたいお土産」を問う質問が採用され、その質問に対する答えの候補として複数種類の具体的なお土産名を示した複数の選択肢が採用されている。この例でも、制御部11は、
図16のように複数の選択肢を出力するようにインタフェース13を制御した場合、複数の選択肢が出力された後にインタフェース13を介していずれかの選択肢を選択する選択入力がなされるか否かを確認する。
図16の例では、「いずれかの選択肢を選択する選択入力」は、タッチパネル20において各選択肢(具体的には、じゃがいも、チーズ、とうもろこし、の各々)が表示された各領域のいずれかの表面に接触する操作である。例えば、
図16の状態で、タッチパネル20における『「チーズ」の選択肢が表示された領域の表面に接触する操作(利用者による操作)』がなされた場合、制御部11は、「利用者」と「操作によって選択された選択肢」と「質問内容」とを対応付けた情報を記憶部14に記憶する(具体的には、利用者が北海道に言った場合に買いたいお土産がチーズであることを特定する結果情報を記憶部14に記憶する)。
【0072】
制御部11は、ステップS3又はS8において第1発話制御を行った場合、第1発話制御に応じてなされる上述の選択入力を確認し、選択入力が確認された場合には上述の結果情報を記憶部14に記憶した後に、第1発話制御を終了する。制御部11は、ステップS3で第1発話制御を行った場合、第1発話制御の終了後には、ステップS3以降の処理を行う。制御部11は、ステップS8で第1発話制御を行った場合、第1発話制御の終了後には、ステップS8以降の処理を行う。
【0073】
制御部11は、上述の第1発話制御の終了後、所定期間をおいてから、第2発話制御を行う。「所定期間」は、ある程度の期間が経過したことの基準であればよく、例えば、1週間や1か月などの「予め定められた一定期間」であってもよく、「コンテンツが所定回数視聴されるまでの期間」などであってもよく、「コンテンツが所定個数配信されるまでの期間」などであってもよい。
【0074】
具体的には、制御部11は、「第1発話制御が終了してから所定期間が経過する」という第1条件を満たし、且つ、「予め定められた発話開始条件が成立する」という第2条件を満たした場合に、第2発話制御を行う。つまり、第1条件及び第2条件を満たすことが第2発話制御の開始条件である。第2条件である上記発話開始条件は、例えば、「第1発話制御で選択された選択肢に関するコンテンツが管理装置から配信されたこと」であってもよく、「所定の曜日になること」や「所定の日にちになること」であってもよく、「ステップS2の会話開始条件が成立すること」であってもよい。
【0075】
図17、
図18で示される代表例では、「第1発話制御で選択された選択肢に関するコンテンツが管理装置90から配信されたこと」が、上記発話開始条件が成立することである。例えば、上述の第1発話制御が終了してから上記所定期間が経過した後、ステップS4の通常表示を継続しているときに「第1発話制御で選択された選択肢(北海道)に関するコンテンツ」が管理装置90からバーチャルアシスタント装置10に配信された場合(即ち、コンテンツの配信があり且つ第2発話制御の開始条件を満たしている場合)、制御部11は、ステップS5においてYesと判定し、ステップS6において、
図17のようにインタフェース13に「所定の報知」を行わせた後、ステップS7において、提供指示があったか否かを判定する。制御部11は、ステップS7では、
図17のような表示状態において「見る」又は「見ない」のいずれかが選択されたかを判定し、
図17のような表示を開始してから所定時間を経過しても「見る」のボタンが押されなかった場合又は「見ない」のボタンが選択された場合には、ステップS9に進み、新たに配信されてきたコンテンツデータを蓄積する。一方、制御部11は、
図17のような表示状態において「見る」のボタンが選択された場合には、
図18のような画像を表示するように第2発話制御を行う。
図18の例では、制御部11は、
図15、
図16のような第1発話制御において上記選択入力(「北海道」「チーズ」を選択する入力)で選択された選択肢(北海道、チーズ)に関連する話を、キャラクタ70からの発話としてインタフェース13に出力させるように第2発話制御を行っている。この例では、
図5の制御を実行するためのプログラムにおいて、ステップS5、S6、S7、S8を実行するためのプログラムが、「第2発話制御を制御部11に行わせるステップ」の一例に相当する。
【0076】
具体的には、制御部11は、上述の選択入力で選択された選択肢(北海道)の言葉を含む会話をキャラクタ70の会話としてインタフェース13に出力させるように第2発話制御を行っている。更に、制御部11は、上述の選択入力で選択された選択肢(チーズ)の言葉を含む会話をキャラクタ70の会話として当該選択肢(チーズ)の画像とともにインタフェース13に出力させるように第2発話制御を行っている。なお、制御部11は、
図18のように第2発話制御を行う場合、表示部に表示される会話(言葉)をキャラクタ70が読み上げるように音声を出力することが望ましい。
【0077】
5-5.質問動作及び関連会話動作の具体例2
図15、
図16のような第1発話制御に代えて、
図19のような第1発話制御を行うようにしてもよい。
図19の例では、「乗り物」の話題に関する質問として「乗りたい乗り物」を問う質問が採用され、その質問に対する答えの候補として複数種類の具体的な乗り物名を示した複数の選択肢が採用されている。制御部11は、第1発話制御において、
図19のように複数の選択肢を出力するようにインタフェース13を制御した場合、タッチパネル20において各選択肢(具体的には、電車、乗用車、バスの各々)が表示された各領域のいずれかの表面に接触する操作がなされたか否かを確認する。例えば、
図19の状態で、タッチパネル20における『「乗用車」の表示領域の表面に接触する操作』がなされた場合、制御部11は、「利用者」と「操作によって選択された選択肢」と「質問内容」とを対応付けた情報を記憶部14に記憶する(具体的には、利用者が乗りたい乗り物が乗用車であることを特定する結果情報を記憶部14に記憶する)。
【0078】
図19の例でも、第1発話制御の終了後、第2発話制御の開始条件が成立した場合、第2発話制御を開始する。例えば、
図19のような第1発話制御が終了してから上記所定期間が経過した後、通常表示(
図5のステップS4)を継続しているときに「第1発話制御で選択された選択肢(乗り物)に関するコンテンツ」が管理装置90からバーチャルアシスタント装置10に配信された場合、制御部11は、
図5のステップS5においてYesと判定し、ステップS6において、
図20のようにインタフェース13に「所定の報知」を行わせた後、ステップS7において、提供指示があったか否かを判定する。制御部11は、
図20のような表示状態において「見る」のボタンが選択された場合には、
図21のような画像を表示するように表示部15を制御する。
【0079】
この例では、
図20のような会話や表示をインタフェース13に行わせることも第2発話制御の一つである。
図20の例では、制御部11は、
図19のような第1発話制御の際に「乗用車」を選択する選択入力によって選択された選択肢(乗用車)に関連する話(より具体的には、「ドライブの疑似体験のコンテンツが届きました」というお知らせ)を、キャラクタ70からの発話としてインタフェース13に出力させるように第2発話制御を行っている。更に、
図21のような動画を表示させながらキャラクタに乗用車に関する話(例えば、音声による話)を提供させることも第2発話制御の一つである。
図21のような例で提供される話としては、例えば、動画で表示されている乗用車の説明、乗用車に乗っているときの気持ち(乗り心地、爽快さ、楽しさなど)、乗用車が通っている場所の説明など、様々な話を採用することができる。
【0080】
5-6.質問動作及び関連会話動作の具体例3
図15、
図16のような第1発話制御に代えて、
図22のような第1発話制御を行うようにしてもよい。
図22の例では、「仕事」の話題に関する質問として「子供の頃に夢見た仕事」を問う質問が採用され、その質問に対する答えの候補として複数種類の具体的な仕事名を示した複数の選択肢が採用されている。制御部11は、第1発話制御において、
図22のように複数の選択肢を出力するようにインタフェース13を制御した場合、タッチパネル20において各選択肢(具体的には、医師、教員、美容師の各々)が表示された各領域のいずれかの表面に接触する操作がなされたか否かを確認する。例えば、
図22の状態で、「美容師」の表示領域の表面に接触する操作がなされた場合、制御部11は、「利用者」と「操作によって選択された選択肢」と「質問内容」とを対応付けた情報を記憶部14に記憶する(具体的には、利用者が子供の頃に夢見た仕事が美容師であることを特定する結果情報を記憶部14に記憶する)。
【0081】
図22の例でも、第1発話制御の終了後、第2発話制御の開始条件が成立した場合、第2発話制御を開始する。例えば、
図22のような第1発話制御が終了してから上記所定期間が経過した後、通常表示(
図5のステップS4)を継続しているときに「第1発話制御で選択された選択肢(美容師)に関するコンテンツ」が管理装置90からバーチャルアシスタント装置10に配信された場合、制御部11は、ステップS6において
図23のようにインタフェース13に「所定の報知」を行わせた後、ステップS7において、提供指示があったか否かを判定する。制御部11は、
図23のような表示状態において「見る」のボタンが選択された場合には、
図24のような画像を表示するように表示部15を制御する。
【0082】
この例では、
図23のような会話や表示を行わせることも第2発話制御の一つである。
図23の例では、制御部11は、
図22のような第1発話制御において上記選択入力(「美容師」を選択する入力)で選択された選択肢(美容師)に関連する話(より具体的には、「美容師さん疑似体験のコンテンツが届きました」というお知らせ)を、キャラクタ70からの発話としてインタフェース13に出力させるように第2発話制御を行っている。更に、
図24のような動画を表示させながらキャラクタに美容師の仕事や疑似体験に関する話を提供させることも第2発話制御の一つである。
【0083】
5-7.質問動作及び関連会話動作の具体例4
図15、
図16のような第1発話制御に代えて、
図25のような第1発話制御を行うようにしてもよい。
図25の例では、「勉強」の話題に関する質問として「興味があって勉強したいこと」を問う質問が採用され、その質問に対する答えの候補として複数種類の具体的な勉強対象を示した複数の選択肢(具体的には、料理、生け花、手芸)が採用されている。例えば、
図25の状態で、タッチパネル20における「手芸」の表示領域の表面に接触する操作がなされた場合、制御部11は、利用者が勉強したいことが手芸であることを特定する結果情報を記憶部14に記憶する。この例でも、制御部11は、
図25のような第1発話制御の終了後、第2発話制御の開始条件が成立した場合、上記結果情報に基づいて第2発話制御を開始する。例えば、第1発話制御の終了後、上述の所定期間が経過した後にステップS2(
図5)の会話開始条件が成立した場合、制御部11は、ステップS3において
図26のような会話をインタフェース13に出力させる。
図26の会話は、
図25のような第1発話制御において上記選択入力(「手芸」を選択する入力)で選択された選択肢(手芸)に関連する話(より具体的には、「3か月前に手芸を勉強したいと願っていましたね。来週一緒に刺繍を習いに行きましょう。」といった誘いの話)を、キャラクタ70からの発話としてインタフェース13に出力させる例である。この例では、
図5の制御を実行するためのプログラムにおいて、ステップS2、S3を実行するためのプログラムが、「第2発話制御を制御部11に行わせるステップ」の一例に相当する。
【0084】
5-8.質問動作及び関連会話動作の具体例5
図15、
図16のような第1発話制御に代えて、
図27のような第1発話制御を行うようにしてもよい。
図27の例では、「歯磨き調査」の話題に関する質問として「いつもの歯のお手入れ方法」を問う質問が採用され、その質問に対する答えの候補として複数種類の具体的なお手入れ方法を示した複数の選択肢(具体的には、歯ブラシ、歯間ブラシ、糸ようじ)が採用されている。例えば、
図27の状態で、タッチパネル20における「歯間ブラシ」の表示領域の表面に接触する操作がなされた場合、制御部11は、利用者のお手入れ方法が歯間ブラシであることを特定する結果情報を記憶部14に記憶する。この例でも、制御部11は、
図27のような第1発話制御の終了後、第2発話制御の開始条件が成立した場合、上記結果情報に基づいて第2発話制御を開始する。例えば、第1発話制御の終了後、上述の所定期間が経過した後にステップS2(
図5)の会話開始条件が成立した場合、制御部11は、ステップS3において
図28のような会話をインタフェース13に出力させる。
図28の会話は、
図27のような第1発話制御において上記選択入力(「歯間ブラシ」を選択する入力)で選択された選択肢(歯間ブラシ)に関連する話(より具体的には、「いつも歯間ブラシを使っていましたね。歯みがきでは取りきれないプラークも歯間ブラシで取り除けますよね。」といった話)を、キャラクタ70からの発話としてインタフェース13に出力させる例である。
【0085】
5-9.質問動作及び関連会話動作の具体例6
ステップS3で提供するコンテンツとしては、
図29~
図31のような疑似的な育成や飼育を見守るコンテンツであってもよい。この例では、制御部11は、バーチャルアシスタント装置10が継続的に使用される期間において、疑似的な生き物(疑似的な動物、植物、架空生物など)の生育を見守るような見守りコンテンツを実行し得るようになっている。具体的には、
図5の制御を実行するためのるプログラムが、上記見守りコンテンツを実行するためのプログラムも有している。
【0086】
上記見守りコンテンツを実行するためのプログラムでは、疑似的な見守り対象の状況が多くのパターンに細分化されており、状況毎(パターン毎)に画像が用意されている。そして、このプログラムは、疑似的な見守り対象が各状況にあるとき、利用者からの指示に応じて疑似的な見守り対象に対するアクションを選択するように制御部11を動作させ得る。具体的には、上記プログラムは、前回のコンテンツ視聴時の感想や意見を次のバーチャル体験に反映できるようになっており、利用者の感想や意見がアクションの選択に結び付いている。例えば、上記プログラムは、
図29のような画面を表示させるように制御部11を動作させ、
図29のような画面の表示中に利用者によってアクションの選択(感想や意見の連絡)がなされた場合には、見守り対象の現在の状況と選択されたアクションとに基づいて、見守り対象の生育状況を、選択されたアクションに対応する状況に移行させるように制御部11を動作させる。
図29の例では、疑似的な犬が見守り対象である場合において、利用者に対し、利用者の感想や意見(具体的には希望する次のアクション)を質問しており、利用者は、質問に応じていずれかのアクションを選択することができるようになっている。上記プログラムは、
図29のような画面の表示中に利用者がいずれかのアクションを選択すると、疑似的な犬の現在の状況と選択されたアクションとに基づいて、疑似的な犬の生育状況を、選択されたアクションに応じた状況に移行させるように制御部11を動作させる。この例では、制御部11は、例えば
図5のステップS3において
図29のような画像を表示するように動作することができ、
図29のような画像を表示する制御が、第1発話制御の一例に相当する。
図29の例では、第1発話制御は、疑似的な見守り対象(疑似的な犬)の話題に対応する複数の選択肢をインタフェース13に出力させ且つ出力される複数の選択肢に関連するキャラクタの会話をインタフェース13に出力させる制御である。
【0087】
例えば、上記プログラムでは、見守り対象(例えば、疑似的な犬)の状況が多数のパターンに細分化された上で、各パターンにおいて各アクションを選択したときにいずれのパターンに移行するかが定められている。例えば、
図29のような質問をしたときの見守り対象(疑似的な犬)の状況が特定パターンである場合、この特定パターンのときに「芸を教える」を指示した場合にどのパターンに移行するかが予め定められており、同様に、上記特定パターンのときに「おもちゃで遊ぶ」を指示した場合にどのパターンに移行するかが定められ、上記特定パターンのときに「ご飯をあげる」を指示した場合にどのパターンに移行するかが定められている。いずれかの状況(パターン)から他の状況(他のパターン)への移行は、利用者からの指示によってもなされるが、その他の環境の変化によってなされてもよい。例えば、ある状況(あるパターン)のまま第1の時間が経過した場合にどの状況に移行するかが定められていてもよく、ある状況(あるパターン)のまま周囲温度が所定値以下に低下した場合にどの状況に移行するかが定められていてもよい。勿論、環境の変化の例はこれら以外であってもよい。
【0088】
図5の制御を実行するプログラムは、予め定められたタイミングで、上記見守りコンテンツに関する画像の表示を希望するか否かを利用者に問うように動作し得る。「予め定められたタイミング」は、例えば、ステップS2の会話開始条件の一つであり、具体的には、「前回の見守りコンテンツの画像表示の終了から一定時間が経過したこと」であってもよく、予め決められた時間(例えば、決められた時刻など)が到来したことなどであってもよく、インタフェース13に対して見守りコンテンツ画像を表示するための所定操作がなされたことであってもよい。例えば、制御部11は、
図5におけるステップS4の通常表示が繰り返されているとき(ステップS2のNo及びステップS5のNoが繰り返されているとき)に上記「予め定められたタイミング」が到来した場合に、ステップS2でYesに進み、ステップS3で
図30のような画像を表示させ、上記見守りコンテンツに関する画像の表示を希望するか否かを利用者に問うように動作する。制御部11は、ステップS3では、
図30のような画像の表示中に、「見る」が選択された場合(即ち、見守りコンテンツに関する画像の表示を希望する選択がなされた場合)、
図31のように、見守り対象(疑似的な犬)の現在の状況を示す画像を表示する。
図31の例では、キャラクタ70が見守り対象の状況を説明する会話を行っており、このような会話と並行して、見守り対象の動画を表示している。
【0089】
このような例でも、制御部11は、第1発話制御によって複数の選択肢が出力された後にインタフェース13を介していずれかの選択肢を選択する選択入力がなされた場合、第1発話制御の終了後に所定期間をおいてから第2発話制御を行うことができる。この例でも、制御部11は、選択入力(例えば、
図29におけるいずれかの選択肢の選択)で選択された選択肢に関連する話をキャラクタ70からの発話としてインタフェース13に出力させるように第2発話制御を行う。例えば、制御部11は、
図29の画像を表示するような上述の第1発話制御において「おもちゃで遊ぶ」が選択された場合、第1発話制御の終了から所定時間をおいた後日に、例えば、「先日はココちゃんとおもちゃで遊んであげましたね。ココちゃんは楽しそうでしたね。」といったような話をキャラクタ70が発話するようにインタフェース13を動作させるとよい。
【0090】
6.効果の例示
このように、バーチャルアシスタント装置10は、いずれかの話題に対応する複数の選択肢をインタフェース13に出力させ且つ出力される複数の選択肢に関連するキャラクタの会話をインタフェース13に出力させることができるため、利用者に会話の楽しみを提供しつつ、会話と関連付けた形で利用者の意思を正確に確認することができる。そして、このような会話から時間をおいた後、後日、選択入力で選択された選択肢に関連する会話をキャラクタの会話として提供することができるため、キャラクタが過去の会話の内容を覚えているような印象を与えやすい形で、ユーザに話を提供することができる。特に、このバーチャルアシスタント装置10は、「第2発話制御で提供される話」が「利用者が選択した選択肢」から大きくずれることを確実に抑えることができ、利用者がより一層関心をもちやすくなる。
【0091】
例えば、
図18の例では、
図15、
図16のような過去の会話で利用者が意思を持って選択した選択肢(北海道、チーズ)が、過去の会話から所定期間以上を空けた後の会話に取り入れられるため、利用者は、あたかも、過去の会話で自身が発した具体的な言葉をキャラクタが覚えていてくれたような感覚又は印象をもつことができ、キャラクタに対する愛着、距離感、信頼感などが一層増しやすく、会話への関心が高まりやすい。
【0092】
バーチャルアシスタント装置10は、第1発話制御において、質問内容と質問に対する答えの候補とを表示部15に表示させることができるため、利用者は、質問と答えの候補を視覚的に確認しながら選択することができる。よって、選択の正確性が高まり、第2発話制御において、「第2発話制御で提供される話」が「利用者が選択した選択肢」から大きくずれることを、より一層確実に抑えることができる。
【0093】
バーチャルアシスタント装置10は、第2発話制御に基づいて提供される会話の中に「第1発話制御に応じて選択された選択肢の言葉」が含まれるため、利用者は、第2発話制御の際にキャラクタから提供される話を聞いた場合又は見た場合に、自身が過去に選択した「選択肢の言葉」が印象に残りやすい。その結果、利用者は、自身の話をキャラクタが興味を持って覚えてくれていたような印象をもちやすく、キャラクタの話に関心や愛着をもちやすい。
【0094】
<他の実施形態>
本発明は上記記述及び図面によって説明した実施形態に限定されるものではなく、例えば次のような実施形態も本発明の技術的範囲に含まれる。また、上述した実施形態や後述する実施形態の様々な特徴は、矛盾しない組み合わせであればどのように組み合わされてもよい。
【0095】
上述された実施形態では、第1発話制御は、いずれかの話題の質問と、質問に対する答えの候補である複数の選択肢と、を含んだキャラクタの会話を表示部に表示させる制御であったが、いずれかの話題の質問と、質問に対する答えの候補である複数の選択肢と、を含んだキャラクタの会話を音声出力部16によって音声出力する制御であってもよい。この場合、複数の選択肢のいずれかを選択する入力をタッチパネルに対する操作によって行うようにしてもよく、音声入力によって行うようにしてもよい。
【0096】
上述された実施形態では、第1発話制御は、
図15のように、キャラクタの画像と、キャラクタが質問する会話内容を文字によって表した画像と、キャラクタからの質問に対する回答の候補である複数の選択肢を文字によって表した画像とを同時期に表示部15に表示する例が採用されたが、この例に限定されない。例えば、「キャラクタの画像」と「キャラクタが質問する会話内容を文字によって表した画像」とを同時期に表示した後、その表示から「キャラクタからの質問に対する回答の候補である複数の選択肢の画像」に切り替えるように、時間差で順番に表示してもよい。
【0097】
上述された実施形態では、第2発話制御は、選択入力で選択された選択肢の言葉の全部を含む会話をキャラクタの会話としてインタフェース13に出力させる制御であったが、この例に限定されない。第2発話制御は、選択入力で選択された選択肢の言葉の一部の名詞を含む会話をキャラクタの会話としてインタフェース13に出力させる制御であってもよい。或いは、第2発話制御は、選択入力で選択された選択肢を表示する静止画や動画をインタフェース13に出力させる制御であってもよい。
【0098】
上述された実施形態では、動作検出部の一例に相当する操作部17がタッチパネルとして構成されるがこの例に限定されない。操作部17は、その他の公知の入力デバイス(キーボード、マウス、タッチペン等)であってもよい。或いは、動作検出部は、操作部17に代えて又は操作部17に加えて他の入力デバイス(例えば、非接触方式での入力操作が可能とされた入力デバイス)を備えていてもよい。具体的には、動作検出部は、撮像部やモーションセンサなどの非接触センサを有していてもよい。この場合、その非接触センサと制御部11とが協働し、利用者の動きやジェスチャーなどを検知してもよい。
【0099】
上述された実施形態では、表示部15は、静止画や動画を二次元で表示する表示装置として構成されるが、この例に限定されない。表示部15は、三次元表示を行い得る三次元ディスプレイであってもよい。
【0100】
上述されたシステム1では、バーチャルアシスタント装置10の外部に設けられた登録部(記憶部95)に利用者が希望する情報の種類が登録され、そして、制御部11は、登録部に登録される種類のコンテンツに関する会話を、インタフェース13を介して出力する制御を行うようになっていた。しかし、この例に限定されない。例えば、バーチャルアシスタント装置10に登録部が設けられ、利用者が希望する種類の情報が登録されてもよい。例えば、バーチャルアシスタント装置10は、バーチャルアシスタント装置10に登録された種類(利用者が希望する種類)のコンテンツのみを管理装置90から受信してもよい。或いは、バーチャルアシスタント装置10は、管理装置90からコンテンツを受信した場合において、バーチャルアシスタント装置10に登録された種類(利用者が希望する種類)のコンテンツを受信した場合にステップS2において新たな配信があったと判定してもよい。そして、ステップS7では、バーチャルアシスタント装置10に登録された種類(利用者が希望する種類)のコンテンツのみを提供してもよい。
【0101】
上述された実施形態では、バーチャルアシスタント装置10が、主に高齢者向けのバーチャルアシスタント装置として構成された例を示したが、この例に限定されない。例えば、子供などの他のカテゴリの対象者を対象としてもよい。
【0102】
本明細書のいずれの例でも、制御部11がインタフェース13を介して会話を行う場合、コンテンツに関する会話又は応答に対する会話の少なくともいずれかにおいて、キャラクタの表情、キャラクタの動作、テロップ、効果音、アイコンのいずれか1つ又は複数の表示又は音声出力を発生又は変化させてもよい。例えば、制御部11は、キャラクタ70の表情を笑顔にしたり、キャラクタ70に対してジャンプやスキップ等の動作を行わせたりしてもよい。採用されるキャラクタの表情は笑顔に限定されず、沈んだ表情、怒った表情、悲しんだ表情などに変化させてもよく、キャラクタ70に喜んだ動作や泣く動作などを行わせてもよい。
【0103】
上述された実施形態では、バーチャルアシスタント装置10に記憶部14が設けられ、記憶部14に複数種類の対応情報が記憶されるが、この例に限定されない。例えば、第1実施形態の記憶部14に記憶される対応情報と同様の対応情報がバーチャルアシスタント装置10の外部に設けられた装置に記憶されてもよい。例えば、管理装置90の記憶部95が「複数の選択肢を話題と対応付けた対応情報を記憶する記憶部」として機能してもよい。第1実施形態の内容をこの例に変更する場合、制御部11は、上述の第1発話制御においていずれかの話題を選定した場合に、その選定した話題に対応する対応情報(選定した話題に対応する「質問」とその「質問」に対する回答の候補である「複数の選択肢」とを含む対応情報)を管理装置90に対して通信によって要求し、管理装置90は、いずれかの話題に対応する対応情報の要求を受けた場合に、記憶部95に記憶される複数種類の対応情報の中から要求された話題に対応する対応情報を読み出し、読み出した対応情報をバーチャルアシスタント装置10に送信するように動作すればよい。この場合、バーチャルアシスタント装置10は、管理装置90から対応情報を取得した後には、その取得した対応情報に基づいて第1実施形態と同様に動作すればよい。この変更例と第1実施形態とを比較したときの主な相違は、話題に対応する対応情報を利用する場合に、当該対応情報を記憶部14から読み出して利用するか、当該対応情報を管理装置90から取得して利用するかだけであり、対応情報を取得した後の動作は、上記変更例でも、第1実施形態と同様に行うことができる。
【0104】
なお、上記対応情報は、記憶部14と記憶部95の両方に設けられていてもよい。この例では、例えば、いずれかの話題に対応する対応情報が記憶部14に記憶されておらず記憶部95に記憶されている場合に、記憶部95に記憶された対応情報を用いるようにしてもよく、いずれかの話題に対応する対応情報が記憶部14に記憶されている場合に記憶部14に記憶された対応情報を用いるようにしてもよい。
【0105】
第1実施形態のように対応情報が記憶部14に記憶されている場合でも、上述の変更例のように対応情報が記憶部95に記憶されている場合でも、対応情報が記憶部14、95の両方に記憶されている場合でも、第2発話制御を行うための情報は、上記対応情報が記憶される記憶部に記憶されていればよい。第2発話制御を行うための情報は、上記対応情報に含まれる各選択肢に対応する各「話の情報」(例えば、選択肢に対応付けられた会話や画像などの情報)を含んでいればよい。例えば、対応情報とともに「第2発話制御を行うための情報」が記憶部95に記憶されるシステムでは、第1発話制御でいずれかの選択肢が選択された場合に第2発話制御を行うときには、第1発話制御で選択された選択肢に対応する「話の情報」を管理装置90に対して通信によって要求し、管理装置90は、第1発話制御で選択された選択肢に対応する「話の情報」の要求を受けた場合に、記憶部95に記憶される複数種類の話の情報の中から要求された選択肢に対応する「話の情報」を読み出し、読み出した「話の情報」をバーチャルアシスタント装置10に送信するように動作すればよい。そしてバーチャルアシスタント装置10は、取得した「話の情報」に基づいて、第1発話制御で選択された選択肢に対応する会話や画像を提供すればよい。なお、上述の例は、対応情報と第2発話制御を行うための情報が同一の記憶部に記憶された例であるが、この例に限定されるわけではなく、それぞれの情報が別々の記憶部に記憶されていてもよい。
【0106】
なお、今回開示された実施の形態は全ての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、今回開示された実施の形態に限定されるものではなく、特許請求の範囲によって示された範囲内又は特許請求の範囲と均等の範囲内での全ての変更が含まれることが意図される。
【符号の説明】
【0107】
1…バーチャルアシスタントシステム
10…バーチャルアシスタント装置
11…制御部
13…インタフェース
14…記憶部
15…表示部
17…操作部(動作検出部)
18…音声入力部
90…管理装置(外部の装置)