IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ みずほ情報総研株式会社の特許一覧

特開2024-107883鑑賞支援システム、鑑賞支援方法及び鑑賞支援プログラム
<>
  • 特開-鑑賞支援システム、鑑賞支援方法及び鑑賞支援プログラム 図1
  • 特開-鑑賞支援システム、鑑賞支援方法及び鑑賞支援プログラム 図2
  • 特開-鑑賞支援システム、鑑賞支援方法及び鑑賞支援プログラム 図3
  • 特開-鑑賞支援システム、鑑賞支援方法及び鑑賞支援プログラム 図4
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024107883
(43)【公開日】2024-08-09
(54)【発明の名称】鑑賞支援システム、鑑賞支援方法及び鑑賞支援プログラム
(51)【国際特許分類】
   G06Q 50/10 20120101AFI20240802BHJP
【FI】
G06Q50/10
【審査請求】有
【請求項の数】9
【出願形態】OL
(21)【出願番号】P 2023012056
(22)【出願日】2023-01-30
【新規性喪失の例外の表示】新規性喪失の例外適用申請有り
(71)【出願人】
【識別番号】592131906
【氏名又は名称】みずほリサーチ&テクノロジーズ株式会社
(74)【代理人】
【識別番号】100105957
【弁理士】
【氏名又は名称】恩田 誠
(74)【代理人】
【識別番号】100068755
【弁理士】
【氏名又は名称】恩田 博宣
(72)【発明者】
【氏名】相澤 祐一
(72)【発明者】
【氏名】笠間 俊夫
【テーマコード(参考)】
5L049
5L050
【Fターム(参考)】
5L049CC11
5L050CC11
(57)【要約】
【課題】展示物に対するユーザの興趣を高めるための情報を提供するための鑑賞支援システム、鑑賞支援方法及び鑑賞支援プログラムを提供する。
【解決手段】支援サーバ20は、カメラ10、マイク11に接続された制御部21を備える。そして、制御部21は、カメラ10、マイク11から、展示物E1の鑑賞者U1のリアクションを取得し、展示物E1から抽出した特徴情報に基づいて、リアクションに応じてエージェントの応答を決定し、出力する。
【選択図】図1
【特許請求の範囲】
【請求項1】
情報取得装置に接続された制御部を備えた鑑賞支援システムであって、
前記制御部が、
前記情報取得装置から、展示物の鑑賞者のリアクションを取得し、
前記展示物から抽出した特徴情報に基づいて、前記リアクションに応じてエージェントの応答を決定し、出力することを特徴とする鑑賞支援システム。
【請求項2】
前記制御部が、
前記鑑賞者を撮影した撮影画像を取得し、
前記撮影画像に応じて、前記応答を決定することを特徴とする請求項1に記載の鑑賞支援システム。
【請求項3】
前記制御部が、前記撮影画像において、前記鑑賞者のジェスチャを認識し、前記ジェスチャに応じて、前記応答を決定することを特徴とする請求項2に記載の鑑賞支援システム。
【請求項4】
前記制御部が、前記撮影画像において、複数の鑑賞者の中で、話し掛け対象の鑑賞者を指定して、前記応答を出力することを特徴とする請求項2に記載の鑑賞支援システム。
【請求項5】
前記制御部が、前記撮影画像に応じて、前記応答の出力タイミングを決定することを特徴とする請求項2に記載の鑑賞支援システム。
【請求項6】
前記制御部が、
前記鑑賞者の発話を取得し、前記発話の音声認識を行なって分析結果を生成し、
前記分析結果を出力することを特徴とする請求項1に記載の鑑賞支援システム。
【請求項7】
前記制御部が、前記分析結果に応じて、前記エージェントの応答を決定することを特徴とする請求項6に記載の鑑賞支援システム。
【請求項8】
情報取得装置に接続された制御部を備えた鑑賞支援システムを用いて、鑑賞を支援する鑑賞支援方法であって、
前記制御部が、
前記情報取得装置から、展示物の鑑賞者のリアクションを取得し、
前記展示物から抽出した特徴情報に基づいて、前記リアクションに応じてエージェントの応答を決定し、出力することを特徴とする鑑賞支援方法。
【請求項9】
情報取得装置に接続された制御部を備えた鑑賞支援システムを用いて、鑑賞を支援する鑑賞支援プログラムであって、
前記制御部を、
前記情報取得装置から、展示物の鑑賞者のリアクションを取得し、
前記展示物から抽出した特徴情報に基づいて、前記リアクションに応じてエージェントの応答を決定し、出力する手段として機能させることを特徴とする鑑賞支援プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、展示物の鑑賞を支援するための鑑賞支援システム、鑑賞支援方法及び鑑賞支援プログラムに関する。
【背景技術】
【0002】
美術館や博物館では、展示物に関する音声解説を来場者に提供する音声ガイドが導入されていることがある。この場合、来場者は、借り受けたイヤホン機器を携帯する。来場者がイヤホン機器に展示番号を入力すると、音声ガイドが再生される。
【0003】
また、キャラクターを用いた案内装置も検討されている(例えば、特許文献1)。この特許文献に記載された案内装置は、複数のキャラクターの各々が展示物を解説する解説データを格納する記憶部を備える。そして、ユーザから、展示物の説明を行なうキャラクターの選択を受け付ける。次に、選択されたキャラクターに対応する解説データを出力する。更に、案内装置は、ユーザを撮影する撮影装置と、選択したキャラクターに対応するキャラクター画像と、撮影装置がユーザを撮影した撮影画像とを合成し、合成画像を生成する。
【先行技術文献】
【特許文献】
【0004】
【特許文献1】特開2020-71519号公報
【発明の概要】
【発明が解決しようとする課題】
【0005】
特許文献に記載された技術では、ユーザの回答に基づいて、キャラクターが反応する。しかしながら、ユーザの回答だけでは、ユーザの興趣を高めることができない。
【課題を解決するための手段】
【0006】
上記課題を解決する鑑賞支援システムは、情報取得装置に接続された制御部を備える。そして、前記制御部が、前記情報取得装置から、展示物の鑑賞者のリアクションを取得し、前記展示物から抽出した特徴情報に基づいて、前記リアクションに応じてエージェントの応答を決定し、出力する。
【発明の効果】
【0007】
本開示によれば、展示物に対するユーザの興趣を高めるための情報を提供することができる。
【図面の簡単な説明】
【0008】
図1】実施形態の鑑賞支援システムの説明図である。
図2】実施形態のハードウェア構成の説明図である。
図3】実施形態の処理手順の説明図である。
図4】実施形態の処理手順の説明図である。
【発明を実施するための形態】
【0009】
以下、図1図4に従って、鑑賞支援システム、鑑賞支援方法及び鑑賞支援プログラムを具体化した一実施形態を説明する。本実施形態では、展示物として、美術館の会場に展示される絵画について、ユーザに応じた展示物情報を提供するサービスを想定する。
【0010】
図1に示すように、本実施形態の鑑賞支援システムは、ネットワークを介して接続されたカメラ10、マイク11、モニタ15、支援サーバ20を用いる。カメラ10、マイク11は、鑑賞者U1の状況を取得する情報取得装置として機能する。
【0011】
カメラ10は、展示物E1を閲覧する鑑賞者U1を撮影する。
マイク11は、鑑賞者U1の発話を集音する。
モニタ15は、展示物E1に対応させて周辺に配置されている。そして、このモニタ15には、展示物E1に関する情報が出力される。このモニタ15には、エージェントのアバタ画像151や分析結果画面152が出力される。更に、モニタ15はスピーカーを備えており、エージェントのメッセージを音声合成により出力する。
【0012】
(ハードウェア構成例)
図2は、支援サーバ20等として機能する情報処理装置H10のハードウェア構成例である。
【0013】
情報処理装置H10は、通信装置H11、入力装置H12、表示装置H13、記憶装置H14、プロセッサH15を有する。なお、このハードウェア構成は一例であり、他のハードウェアを有していてもよい。
【0014】
通信装置H11は、他の装置との間で通信経路を確立して、データの送受信を実行するインタフェースであり、例えばネットワークインタフェースや無線インタフェース等である。
【0015】
入力装置H12は、ユーザ等からの入力を受け付ける装置であり、例えばマウスやキーボード等である。更に、本実施形態では、入力装置H12には、上述したカメラ10やマイク11も含む。表示装置H13は、各種情報を表示するディスプレイやタッチパネル等であり、本実施形態では、上述したモニタ15も含む。
【0016】
記憶装置H14は、支援サーバ20の各種機能を実行するためのデータや各種プログラムを格納する記憶装置である。記憶装置H14の一例としては、ROM、RAM、ハードディスク等がある。
【0017】
プロセッサH15は、記憶装置H14に記憶されるプログラムやデータを用いて、支援サーバ20における各処理(例えば、後述する制御部21における処理)を制御する。プロセッサH15の一例としては、例えばCPUやMPU等がある。このプロセッサH15は、ROM等に記憶されるプログラムをRAMに展開して、各種処理に対応する各種プロセスを実行する。例えば、プロセッサH15は、支援サーバ20のアプリケーションプログラムが起動された場合、後述する各処理を実行するプロセスを動作させる。
【0018】
プロセッサH15は、自身が実行するすべての処理についてソフトウェア処理を行なうものに限られない。例えば、プロセッサH15は、自身が実行する処理の少なくとも一部についてハードウェア処理を行なう専用のハードウェア回路(例えば、特定用途向け集積回路:ASIC)を備えてもよい。すなわち、プロセッサH15は、以下として構成し得る。
【0019】
(1)コンピュータプログラムに従って動作する1つ以上のプロセッサ
(2)各種処理のうち少なくとも一部の処理を実行する1つ以上の専用のハードウェア回路、或いは
(3)それらの組み合わせ、を含む回路
プロセッサは、CPU並びに、RAM及びROM等のメモリを含み、メモリは、処理をCPUに実行させるように構成されたプログラムコード又は指令を格納している。メモリすなわちコンピュータ可読媒体は、汎用又は専用のコンピュータでアクセスできるあらゆる利用可能な媒体を含む。
【0020】
(支援サーバ20の機能)
図1を用いて、支援サーバ20の機能を説明する。
支援サーバ20は、鑑賞者U1に対して、展示物に関する情報を提供するためのコンピュータシステムである。この支援サーバ20は、制御部21、展示情報記憶部22、分析情報記憶部23を備えている。
【0021】
制御部21は、後述する処理(取得段階、分析段階、出力制御段階等を含む処理)を行なう。このための鑑賞支援プログラムを実行することにより、制御部21は、取得部211、分析部212、出力制御部213等として機能する。
【0022】
図3に示すように、取得部211は、カメラ10から鑑賞者U1の撮影画像を取得する。この撮影画像により、鑑賞者U1の表情や動作(指差し方向等)を特定することができる。
更に、取得部211は、マイク11から鑑賞者U1が発話した音声を取得する。
【0023】
図1の分析部212は、鑑賞者U1の画像に基づいて鑑賞者の人数を算出する。また、分析部212は、各鑑賞者U1の表情を分析する。更に、分析部212は、鑑賞者U1から取得したキーワードを用いて共起分析を行なう。
【0024】
図3に示すように、分析部212は、展示物E1の特徴情報と、鑑賞者U1のリアクションとの関係に応じて、展示物に応じた分析を行なう。鑑賞者U1のリアクションには、鑑賞者の発話とジェスチャ等が含まれる。例えば、分析部212は、鑑賞者U1の指差し位置に応じて、鑑賞者U1が意識する展示物E1の指示領域を特定する。更に、分析部212は、鑑賞者U1の発話の音声認識により、展示物E1に対する感情を分析する。また、音声や表情を用いた感情認識により、感情を分析してもよい。
【0025】
図1の出力制御部213は、鑑賞者U1のリアクションに応じた応答の出力を制御する。この応答は、アバタ画像151の動き、エージェントの音声を用いて出力される。
図3に示すように、出力制御部213は、分析結果をモニタ15のエージェントにより出力する。この場合には、アバタ画像による応答や音声合成を用いる。更に、出力制御部213は、鑑賞者U1の動作や表情に応じて、エージェントの応答の出力タイミングを調整する。例えば、鑑賞者U1が検討中の表情を検知した場合には、検討が終了するまで、エージェント応答を待機する。また、撮影画像により複数の鑑賞者U1を検知した場合には、話し掛け対象の鑑賞者U1を指定して、エージェント応答を出力する。この場合には、複数の鑑賞者U1の中で、鑑賞者U1の立ち位置や服装の模様や色彩等を用いて、話し掛け対象の鑑賞者U1を指定する。
【0026】
展示情報記憶部22には、会場に展示された展示物に関する展示管理情報が記録される。この展示管理情報は、会場に展示物E1が設置された場合に記録される。この展示管理情報には、展示物ID、属性、特徴情報に関するデータが含まれる。
【0027】
展示物IDは、各展示物E1(絵画)を特定するための識別子である。
属性は、この展示物の作品名、作者等に関する情報である。作者に関する情報には、作者の氏名や連絡先を含む。
【0028】
特徴情報には、この展示物の展示位置に対して、展示物E1の特徴を含む。例えば、展示物E1が絵画等の平面物の場合には、特徴情報として、平面物の2次元形状(空間座標)に対して、模様や色彩に関する情報(キーワード)が記録される。展示物E1が彫刻等の立体物の場合には、特徴情報として、立体物の3次元形状(空間座標)に対して、立体物の模様や色彩に関する情報(キーワード)が記録される。この特徴情報を用いることにより、鑑賞者U1が指差した方向に応じて、展示物E1の指示領域を特定することができる。
【0029】
分析情報記憶部23には、鑑賞者によるリアクションに関する分析管理情報が記録される。この分析管理情報は、鑑賞者U1のリアクションを分析した場合に記録される。このユーザ管理情報には、展示物ID、ユーザID、分析結果に関するデータが含まれる。
【0030】
展示物IDは、各展示物E1を特定するための識別子である。
ユーザIDは、この展示物の鑑賞者U1を識別するための識別子である。ユーザIDとしては、例えば、鑑賞者を特定できる情報(例えば、顔画像の特徴量)や、訪問日時等を用いることができる。
【0031】
分析結果は、このユーザのリアクションに応じて分析した結果である。本実施形態では、分析結果として、鑑賞者U1の表情やジェスチャから抽出したキーワードや、鑑賞者U1の発話に含まれる単語(キーワード)を関連付けて記録する。そして、これらのキーワードを用いて、文章中に同時に表れることが多い単語の組み合わせを分析する共起分析を行なう。
【0032】
(鑑賞支援処理)
次に、図4を用いて、鑑賞支援処理を説明する。
まず、支援サーバ20の制御部21は、鑑賞者状況の判定処理を実行する(ステップS11)。具体的には、制御部21の取得部211は、カメラ10で撮影した画像を取得する。この画像には、被写体として、展示物E1を鑑賞する1人又は複数の鑑賞者U1が含まれる。そして、分析部212は、撮影画像に含まれる鑑賞者U1の人数を算出する。更に、分析部212は、各鑑賞者U1の画像認識により、各鑑賞者U1の意識状況を分析する。意識状況としては、想像力を働かせたり、没入したりする等、鑑賞者U1が展示物E1について検討中かどうかを分析する。
【0033】
次に、支援サーバ20の制御部21は、鑑賞者状況に応じて、エージェント動作処理を実行する(ステップS12)。具体的には、制御部21の出力制御部213は、モニタ15にアバタ画像151を出力する。このアバタ画像151は、鑑賞者U1に向かい合う方向に表示する。ここで、鑑賞者U1の人数が少ない場合には、鑑賞者アバタ画像(鑑賞者エージェント)を生成し、モニタ15に出力するようにしてもよい。この鑑賞者アバタ画像は、鑑賞者U1と同じ立場で表示する。そこで、例えば、鑑賞者U1と同様に、展示物E1を臨む方向に表示する。
【0034】
そして、出力制御部213は、各鑑賞者U1の意識状況に応じて、エージェント動作を決定する。ここでは、各鑑賞者U1の意識状況において、エージェントからの話し掛けが可能かどうかを判定する。例えば、鑑賞者U1の表情やジェスチャにおいて、鑑賞者U1が検討中と判定した場合には、話し掛けを保留する。そして、検討の終了や、所定の待機時間を経過した場合、出力制御部213は、モニタ15から、音声合成により、話し掛けとともに、エージェント画像の動作を行なう。初めての話し掛けの場合には、鑑賞者U1への挨拶や展示物E1についての感想を問う発声を音声合成により行なう。
【0035】
次に、支援サーバ20の制御部21は、鑑賞者のリアクションの取得処理を実行する(ステップS13)。具体的には、制御部21の取得部211は、各鑑賞者U1の撮影画像を、カメラ10から取得する。更に、取得部211は、各鑑賞者U1が発声した音声をマイク11から取得する。
【0036】
次に、支援サーバ20の制御部21は、キーワードの抽出処理を実行する(ステップS14)。具体的には、制御部21の分析部212は、撮影画像に含まれる各鑑賞者U1の表情やジェスチャ、発話内容において、鑑賞者U1の感情を分析し、感情を表わすキーワードを特定する。
【0037】
更に、分析部212は、鑑賞者U1のジェスチャにおいて、鑑賞者U1の指差しを特定する。そして、分析部212は、指差し方向に存在する展示物E1の指示領域を表わすキーワードを、展示情報記憶部22の特徴情報を用いて特定する。
更に、分析部212は、鑑賞者U1の発話の音声認識により、キーワードを抽出する。
【0038】
次に、支援サーバ20の制御部21は、共起分析処理を実行する(ステップS15)。具体的には、制御部21の分析部212は、キーワードを取得した鑑賞者U1に対して、ユーザIDを付与する。次に、分析部212は、展示物ID、ユーザIDに関連付けて、抽出した各キーワードを分析情報記憶部23に記録する。そして、分析部212は、この展示物IDに関連付けられたキーワードを用いて共起分析を行なうことにより、共起ネットワークを生成する。この場合、分析部212は、他のユーザIDのキーワードと、今回の鑑賞者U1のキーワードとを識別できるように、共起ネットワークにおける表示形態(例えば、表示色)を変更する。
【0039】
ここで、支援サーバ20の制御部21は、分析結果の出力処理を実行する(ステップS16)。具体的には、制御部21の分析部212は、共起分析結果である共起ネットワークを、モニタ15に出力する。
【0040】
次に、支援サーバ20の制御部21は、応答候補の生成処理を実行する(ステップS17)。具体的には、制御部21の出力制御部213は、共起分析結果に応じて、応答候補を生成する。例えば、共起ネットワークにおいて、他のユーザのキーワードと、鑑賞者U1のキーワードとの一致点や相違点がある場合には、共起ネットワークにおいて一致点や相違点を指摘する応答候補を生成する。また、鑑賞者U1に対して、展示物E1の特徴に関する質問を応答候補として生成してもよい。
そして、支援サーバ20の制御部21は、鑑賞者状況の判定処理(ステップS11)以降の処理を繰り返す。
【0041】
更に、鑑賞者状況に応じて、エージェント動作処理(ステップS12)においては、支援サーバ20の制御部21は、鑑賞者のリアクションに応じた応答候補を出力する。この場合、出力制御部213は、アバタ画像151に連動させて、応答候補の内容を音声合成により再生する。
【0042】
また、支援サーバ20の制御部21は、定期的に、作者へのフィードバック処理を実行する(ステップS18)。具体的には、制御部21の出力制御部213は、展示物E1毎に、分析結果を分析情報記憶部23から取得する。そして、出力制御部213は、展示情報記憶部22から作者の連絡先を取得し、この連絡先に分析情報を送信する。
【0043】
本実施形態によれば、以下のような効果を得ることができる。
(1)本実施形態においては、支援サーバ20の制御部21は、鑑賞者状況の判定処理を実行する(ステップS11)。これにより、鑑賞者状況に応じて、応答を調整することができる。例えば、鑑賞者U1が考え中の場合には待機後等に、タイムリーな応答を行なうことができる。また、鑑賞者U1が1人の場合と複数人の場合とによって、応答を変更することができる。
【0044】
(2)本実施形態においては、支援サーバ20の制御部21は、鑑賞者状況に応じて、エージェント動作処理を実行する(ステップS12)。これにより、鑑賞者U1の状況に応じて、話し掛けを行なうことができる。
【0045】
(3)本実施形態においては、支援サーバ20の制御部21は、鑑賞者のリアクションの取得処理を実行する(ステップS13)。これにより、展示物E1の各鑑賞者U1のリアクションに応じて、展示物E1に対する感想を表したキーワードを取得することができる。
【0046】
(4)本実施形態においては、支援サーバ20の制御部21は、キーワードの抽出処理を実行する(ステップS14)。これにより、各鑑賞者U1の感想をキーワードで表現することができる。
【0047】
(5)本実施形態においては、支援サーバ20の制御部21は、共起分析処理を実行する(ステップS15)。これにより、展示物E1を鑑賞した各鑑賞者U1のキーワードを用いた共起ネットワークにより、展示物E1に対する鑑賞者U1の感想を表現することができる。
【0048】
(6)本実施形態においては、支援サーバ20の制御部21は、分析結果の出力処理を実行する(ステップS16)。これにより、他の鑑賞者のキーワードを含めた共起ネットワークにより、多様な観点での鑑賞を促すことができる。
【0049】
(7)本実施形態においては、支援サーバ20の制御部21は、応答候補の生成処理を実行する(ステップS17)。これにより、鑑賞者U1に対して、多様な鑑賞方法を促すことができる。
【0050】
(8)本実施形態においては、支援サーバ20の制御部21は、定期的に、作者へのフィードバック処理を実行する(ステップS18)。これにより、作者に対して、鑑賞者U1の印象に関する情報をフィードバックすることができる。
【0051】
本実施形態は、以下のように変更して実施することができる。本実施形態及び以下の変更例は、技術的に矛盾しない範囲で互いに組み合わせて実施することができる。
・上記実施形態では、展示情報記憶部22には、会場に展示された展示物に関する展示管理情報が記録される。この展示管理情報には、特徴情報に関するデータが含まれる。特徴情報には、この展示物の展示位置に対して、展示物E1の特徴(模様や色彩)を含む。特徴情報は、展示物E1の特徴を表現できれば、模様や色彩に限定されるものではない。展示物E1の各領域を表す抽象的表現や、各領域から想起されるキーワード等を用いてもよい。
【0052】
・上記実施形態では、モニタ15は、展示物E1に対応させて周辺に配置される。これに代えて、モニタ15として、鑑賞者U1が用いるユーザ端末を利用してもよい。この場合、例えば、展示物等をマーカーとして、拡張現実(Augmented Reality)により、ユーザ端末にエージェントを出力する。
・上記実施形態では、展示物として、美術館等の会場の展示物を用いて説明した。展示物は美術品に限定されるものではない。例えば、展示物として音楽等の音響展示物等を用いることができる。また、展示物として、小説等の文章を用いてもよい。また、仮想空間内に展示物E1を配置してもよい。
【0053】
・上記実施形態では、支援サーバ20の制御部21は、共起分析処理を実行する(ステップS15)。分析方法は、共起分析に限定されるものではない。
・上記実施形態では、支援サーバ20の制御部21は、共起分析処理を実行する(ステップS15)。ここで、鑑賞者U1の属性(性別、年齢層等)に応じて、共起分析を行なって、分析結果を出力してもよい。この場合には、鑑賞者U1と共通する属性を有する他の鑑賞者の分析情報を用いる。また、複数の鑑賞者U1を検知した場合には、鑑賞者U1の属性の統計値(例えば、多数派の属性)を用いてもよい。
【符号の説明】
【0054】
E1…展示物、U1…鑑賞者、10…カメラ、11…マイク、15…モニタ、20…支援サーバ、21…制御部、211…取得部、212…分析部、213…出力制御部、22…展示情報記憶部、23…分析情報記憶部。
図1
図2
図3
図4
【手続補正書】
【提出日】2024-05-20
【手続補正1】
【補正対象書類名】特許請求の範囲
【補正対象項目名】全文
【補正方法】変更
【補正の内容】
【特許請求の範囲】
【請求項1】
複数人に対して情報提供可能な出力装置及び情報取得装置に接続された制御部を備えた鑑賞支援システムであって、
前記制御部が、
前記情報取得装置から、展示物の鑑賞者の人数及びリアクションを取得し、
前記人数に応じてエージェントの形態を特定し、
前記展示物から抽出した特徴情報に基づいて、前記リアクションに応じて前記エージェントの応答を決定し、前記出力装置に前記形態で前記応答を出力することを特徴とする鑑賞支援システム。
【請求項2】
前記制御部が、
前記鑑賞者を撮影した撮影画像を取得し、
前記撮影画像に応じて、前記応答を決定することを特徴とする請求項1に記載の鑑賞支援システム。
【請求項3】
前記制御部が、前記撮影画像において、前記鑑賞者のジェスチャを認識し、前記ジェスチャに応じて、前記応答を決定することを特徴とする請求項2に記載の鑑賞支援システム。
【請求項4】
前記制御部が、前記撮影画像において、複数の鑑賞者の中で、話し掛け対象の鑑賞者を指定して、前記応答を出力することを特徴とする請求項2に記載の鑑賞支援システム。
【請求項5】
前記制御部が、前記撮影画像に応じて、前記応答の出力タイミングを決定することを特徴とする請求項2に記載の鑑賞支援システム。
【請求項6】
前記制御部が、
前記鑑賞者の発話を取得し、前記発話の音声認識を行なって分析結果を生成し、
前記分析結果を出力することを特徴とする請求項1に記載の鑑賞支援システム。
【請求項7】
前記制御部が、前記分析結果に応じて、前記エージェントの応答を決定することを特徴とする請求項6に記載の鑑賞支援システム。
【請求項8】
複数人に対して情報提供可能な出力装置及び情報取得装置に接続された制御部を備えた鑑賞支援システムを用いて、鑑賞を支援する鑑賞支援方法であって、
前記制御部が、
前記情報取得装置から、展示物の鑑賞者の人数及びリアクションを取得し、
前記人数に応じてエージェントの形態を特定し、
前記展示物から抽出した特徴情報に基づいて、前記リアクションに応じて前記エージェントの応答を決定し、前記出力装置に前記形態で前記応答を出力することを特徴とする鑑賞支援方法。
【請求項9】
複数人に対して情報提供可能な出力装置及び情報取得装置に接続された制御部を備えた鑑賞支援システムを用いて、鑑賞を支援する鑑賞支援プログラムであって、
前記制御部を、
前記情報取得装置から、展示物の鑑賞者の人数及びリアクションを取得し、
前記人数に応じてエージェントの形態を特定し、
前記展示物から抽出した特徴情報に基づいて、前記リアクションに応じて前記エージェントの応答を決定し、前記出力装置に前記形態で前記応答を出力する手段として機能させることを特徴とする鑑賞支援プログラム。