IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ AVITA株式会社の特許一覧

<>
  • 特開-情報処理システムおよび情報処理方法 図1
  • 特開-情報処理システムおよび情報処理方法 図2
  • 特開-情報処理システムおよび情報処理方法 図3
  • 特開-情報処理システムおよび情報処理方法 図4
  • 特開-情報処理システムおよび情報処理方法 図5
  • 特開-情報処理システムおよび情報処理方法 図6
  • 特開-情報処理システムおよび情報処理方法 図7
  • 特開-情報処理システムおよび情報処理方法 図8
  • 特開-情報処理システムおよび情報処理方法 図9
  • 特開-情報処理システムおよび情報処理方法 図10
  • 特開-情報処理システムおよび情報処理方法 図11
  • 特開-情報処理システムおよび情報処理方法 図12
  • 特開-情報処理システムおよび情報処理方法 図13
  • 特開-情報処理システムおよび情報処理方法 図14
  • 特開-情報処理システムおよび情報処理方法 図15
  • 特開-情報処理システムおよび情報処理方法 図16
  • 特開-情報処理システムおよび情報処理方法 図17
  • 特開-情報処理システムおよび情報処理方法 図18
  • 特開-情報処理システムおよび情報処理方法 図19
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024088981
(43)【公開日】2024-07-03
(54)【発明の名称】情報処理システムおよび情報処理方法
(51)【国際特許分類】
   G06F 3/0481 20220101AFI20240626BHJP
【FI】
G06F3/0481
【審査請求】未請求
【請求項の数】11
【出願形態】OL
(21)【出願番号】P 2022204072
(22)【出願日】2022-12-21
(71)【出願人】
【識別番号】521413866
【氏名又は名称】AVITA株式会社
(74)【代理人】
【識別番号】100090181
【弁理士】
【氏名又は名称】山田 義人
(74)【代理人】
【識別番号】100168217
【弁理士】
【氏名又は名称】大村 和史
(72)【発明者】
【氏名】西口 昇吾
(72)【発明者】
【氏名】三上 崇志
(72)【発明者】
【氏名】石黒 浩
【テーマコード(参考)】
5E555
【Fターム(参考)】
5E555AA27
5E555BA02
5E555BA04
5E555BB02
5E555BB04
5E555DA03
5E555DA23
5E555DB32
5E555DC11
5E555FA00
(57)【要約】
【課題】 アバターを用いた新しいサービスを提供することができる。
【解決手段】 制御装置(12)は、大画面表示装置18にアバター画像202を表示し、操作者は、アバターを通して、大画面表示装置の前に居る複数のユーザに話し掛け、1または複数のユーザはこれに応答する。所定の条件を満たすと、1のユーザ端末(30)の表示装置(110)にアバターに対応するアバター画像(242)が表示され、操作者は、アバターを通して、ユーザ端末を使用するユーザと対話する。返却条件を満たすと、ユーザ端末の表示装置に表示されたアバター画像は非表示され、操作者は、再び、アバターを通して、大画面表示装置の前に居る複数のユーザに話し掛ける。
【選択図】 図5
【特許請求の範囲】
【請求項1】
複数のユーザが視認可能に配置されたコンピュータグラフィックスのアバターまたはロボットのアバター、
前記複数のユーザの各々が使用する複数のユーザ端末、
前記アバターの操作者が使用する操作者端末、および
前記操作者端末からの指示に従って、少なくとも前記アバターの動作を制御する制御装置を備える、情報処理システムであって、
前記制御装置は、所定の条件を満たす場合に、前記複数のユーザ端末のうちの少なくとも1の前記ユーザ端末を決定し、
前記操作者端末は、決定された少なくとも1の前記ユーザ端末と通信可能に接続し、
決定された少なくとも1の前記ユーザ端末は、前記アバターに対応する端末用アバター画像を当該ユーザ端末の表示装置である端末表示装置に表示して、当該端末用アバター画像を用いた個別のサービスの提供を受ける、情報処理システム。
【請求項2】
前記複数のユーザが視認可能に設けられた共通表示装置を備え、
前記制御装置は、前記コンピュータグラフィックスのアバターについての共通アバター画像を前記共通表示装置に表示し、
前記端末用アバター画像が前記端末装置に表示されると、前記制御装置は、前記共通表示装置の前記共通アバター画像を非表示する、請求項1記載の情報処理システム。
【請求項3】
前記ユーザ端末は、前記個別のサービスの提供が終了されると、前記端末表示装置に表示された前記端末用アバター画像を非表示し、
前記端末表示装置に表示された前記端末用アバター画像が非表示されると、前記制御装置は、前記共通表示装置に前記共通アバター画像を表示する、請求項2記載の情報処理システム。
【請求項4】
前記コンピュータグラフィックスのアバターは、前記操作者端末からの動作データおよび音声データに従って動作および発話する、請求項1から3までのいずれかに記載の情報処理システム。
【請求項5】
前記端末用アバター画像が前記端末表示装置に表示されると、前記制御装置は、前記ロボットのアバターを停止させる、請求項1記載の情報処理システム。
【請求項6】
前記ユーザ端末は、前記個別のサービスの提供が終了されると、前記端末表示装置に表示された前記端末用アバター画像を非表示し、
前記ユーザ端末の表示装置から前記端末用アバター画像が非表示されると、前記制御装置は、前記操作者端末からの指示に従って前記ロボットのアバターを動作させる、請求項5記載の情報処理システム。
【請求項7】
前記所定の条件は、前記ユーザ端末から前記個別のサービスの提供を受けることを前記制御装置に依頼したことである、請求項1記載の情報処理システム。
【請求項8】
前記所定の条件は、前記アバターからの要求に対して、前記ユーザ端末から前記個別のサービスの提供を受けることを前記制御装置に依頼したことである、請求項1記載の情報処理システム。
【請求項9】
2以上の前記ユーザ端末が前記個別のサービスの提供を受けることを前記制御装置に依頼した場合、前記制御装置は、所定のルールに従って前記2以上のユーザ端末のうちから1の前記ユーザ端末を決定する、請求項7または8記載の情報処理システム。
【請求項10】
複数のユーザが視認可能に配置されたコンピュータグラフィックスのアバターまたはロボットのアバター、
前記複数のユーザの各々が使用する複数のユーザ端末、
前記アバターの操作者が使用する操作者端末、および
前記操作者端末からの指示に従って、前記アバターの動作および発話を制御する制御装置を備える、情報処理システムであって、
前記制御装置は、
少なくとも前記操作者端末からの動作データおよび音声データに従って前記アバターの動作および発話を制御する第1アバター制御手段、
所定の条件を満たす場合に、前記複数のユーザ端末のうちから少なくとも1の前記ユーザ端末を決定する決定手段、および
前記決定手段によって決定された少なくとも1の前記ユーザ端末に前記操作者端末の接続情報を送信する接続情報送信手段を備え、
前記ユーザ端末は、
前記接続情報送信手段によって送信された前記操作者端末の接続情報を用いて前記操作者端末との接続状態を確立する確立手段、
前記確立手段によって前記操作者端末との接続状態が確立された場合に、前記アバターに対応する端末用アバター画像を当該ユーザ端末の表示装置に表示させる表示制御手段、および
少なくとも前記操作者端末からの動作データおよび音声データに従って前記アバターの動作および発話を制御する第2アバター制御手段を備え、
前記操作者端末は、
前記操作者の動作および音声に基づいて動作データおよび音声データを生成する生成手段、および
前記生成手段によって生成された動作データおよび音声データを前記制御装置または前記ユーザ端末に送信するデータ送信手段を備える、情報処理システム。
【請求項11】
複数のユーザが視認可能に配置されたコンピュータグラフィックスのアバターまたはロボットのアバター、
前記複数のユーザの各々が使用する複数のユーザ端末、
前記アバターの操作者が使用する操作者端末、および
前記操作者端末からの指示に従って、少なくとも前記アバターの動作を制御する制御装置を備える、情報処理システムの情報処理方法であって、
前記制御装置は、所定の条件を満たす場合に、前記複数のユーザ端末のうちの少なくとも1の前記ユーザ端末を決定し、
前記操作者端末は、決定された少なくとも1の前記ユーザ端末と通信可能に接続し、
決定された少なくとも1の前記ユーザ端末は、前記アバターに対応する端末用アバター画像を当該ユーザ端末の表示装置に表示して、当該端末用アバター画像を用いた個別のサービスの提供を受ける、情報処理方法。
【発明の詳細な説明】
【技術分野】
【0001】
この発明は、情報処理システムおよび情報処理方法に関し、特にたとえば、複数のユーザに視認可能に配置されたアバターに対応するアバター画像を、少なくとも1つのユーザ端末に表示して当該アバターの操作者の指示に従ってアバターを動作させる、情報処理システムおよび情報処理方法に関する。
【背景技術】
【0002】
この種の情報処理システムに近似する先行技術は存在しなかった。アバターを介して操作者とコミュニケーションを行う先行技術の一例が特許文献1に開示される。この特許文献1に開示されるコミュニケーションシステムでは、テレイグジスタンスモードが設定された状態で、オペレータ端末は、オペレータの表情およびジェスチャを座標データに変換し、応答音声データと共に応対端末へ送信する。応対端末は、オペレータ端末から送られた座標データに基づいてアバターを生成することで、オペレータの表情およびジェスチャがアバターの表情および仕草に反映されたキャラクタ応対情報を生成し、ユーザに向けて表示する。
【先行技術文献】
【特許文献】
【0003】
【特許文献1】特開2021-56940号
【発明の概要】
【発明が解決しようとする課題】
【0004】
上記の特許文献1では、応対端末を使用するユーザとオペレータ端末を使用するオペレータが、応対端末にアバターを表示して対話するだけであり、複数のユーザが存在する場合および複数の応対端末が設けられる場合については何ら考慮されていない。
【0005】
それゆえに、この発明の主たる目的は、新規な、情報処理システムおよび情報処理方法を提供することである。
【0006】
また、この発明の他の目的は、アバターを用いた新しいサービスを提供することができる、情報処理システムおよび情報処理方法を提供することである。
【課題を解決するための手段】
【0007】
第1の発明は、複数のユーザが視認可能に配置されたコンピュータグラフィックスのアバターまたはロボットのアバター、複数のユーザの各々が使用する複数のユーザ端末、アバターの操作者が使用する操作者端末、および操作者端末からの指示に従って、少なくともアバターの動作を制御する制御装置を備える、情報処理システムであって、制御装置は、所定の条件を満たす場合に、複数のユーザ端末のうちの少なくとも1のユーザ端末を決定し、操作者端末は、決定された少なくとも1のユーザ端末と通信可能に接続し、決定された少なくとも1のユーザ端末は、アバターに対応する端末用アバター画像を当該ユーザ端末の表示装置である端末表示装置に表示して、当該端末用アバター画像を用いた個別のサービスの提供を受ける、情報処理システムである。
【0008】
第2の発明は、第1の発明に従属し、複数のユーザが視認可能に設けられた共通表示装置を備え、制御装置は、コンピュータグラフィックスのアバターについての共通アバター画像を共通表示装置に表示し、端末用アバター画像が端末装置に表示されると、制御装置は、共通表示装置の共通アバター画像を非表示する。
【0009】
第3の発明は、第2の発明に従属し、ユーザ端末は、個別のサービスの提供が終了されると、端末表示装置に表示された端末用アバター画像を非表示し、端末表示装置に表示された端末用アバター画像が非表示されると、制御装置は、共通表示装置に共通アバター画像を表示する。
【0010】
第4の発明は、第1から第3の発明までのいずれかに従属し、コンピュータグラフィックスのアバターは、操作者端末からの動作データおよび音声データに従って動作および発話する。
【0011】
第5の発明は、第1の発明に従属し、端末用アバター画像が端末表示装置に表示されると、制御装置は、ロボットのアバターを停止させる。
【0012】
第6の発明は、第5の発明に従属し、ユーザ端末は、個別のサービスの提供が終了されると、端末表示装置に表示された端末用アバター画像を非表示し、ユーザ端末の表示装置から端末用アバター画像が非表示されると、制御装置は、操作者端末からの指示に従ってロボットのアバターを動作させる。
【0013】
第7の発明は、第1の発明に従属し、所定の条件は、ユーザ端末から個別のサービスの提供を受けることを制御装置に依頼したことである。
【0014】
第8の発明は、第1の発明に従属し、所定の条件は、アバターからの要求に対して、ユーザ端末から個別のサービスの提供を受けることを制御装置に依頼したことである。
【0015】
第9の発明は、第7または第8の発明に従属し、2以上のユーザ端末が個別のサービスの提供を受けることを制御装置に依頼した場合、制御装置は、所定のルールに従って2以上のユーザ端末のうちから1のユーザ端末を決定する。
【0016】
第10の発明は、複数のユーザが視認可能に配置されたコンピュータグラフィックスのアバターまたはロボットのアバター、複数のユーザの各々が使用する複数のユーザ端末、アバターの操作者が使用する操作者端末、および操作者端末からの指示に従って、アバターの動作および発話を制御する制御装置を備える、情報処理システムであって、制御装置は、少なくとも操作者端末からの動作データおよび音声データに従ってアバターの動作および発話を制御する第1アバター制御手段、所定の条件を満たす場合に、複数のユーザ端末のうちから少なくとも1のユーザ端末を決定する決定手段、および決定手段によって決定された少なくとも1のユーザ端末に操作者端末の接続情報を送信する接続情報送信手段を備え、ユーザ端末は、接続情報送信手段によって送信された操作者端末の接続情報を用いて操作者端末との接続状態を確立する確立手段、確立手段によって操作者端末との接続状態が確立された場合に、アバターに対応する端末用アバター画像を当該ユーザ端末の表示装置に表示させる表示制御手段、および少なくとも操作者端末からの動作データおよび音声データに従ってアバターの動作および発話を制御する第2アバター制御手段を備え、操作者端末は、操作者の動作および音声に基づいて動作データおよび音声データを生成する生成手段、および生成手段によって生成された動作データおよび音声データを制御装置またはユーザ端末に送信するデータ送信手段を備える、情報処理システムである。
【0017】
第11の発明は、複数のユーザが視認可能に配置されたコンピュータグラフィックスのアバターまたはロボットのアバター、複数のユーザの各々が使用する複数のユーザ端末、アバターの操作者が使用する操作者端末、および操作者端末からの指示に従って、少なくともアバターの動作を制御する制御装置を備える、情報処理システムの情報処理方法であって、制御装置は、所定の条件を満たす場合に、複数のユーザ端末のうちの少なくとも1のユーザ端末を決定し、操作者端末は、決定された少なくとも1のユーザ端末と通信可能に接続し、決定された少なくとも1のユーザ端末は、アバターに対応する端末用アバター画像を当該ユーザ端末の表示装置に表示して、当該端末用アバター画像を用いた個別のサービスの提供を受ける、情報処理方法である。
【発明の効果】
【0018】
この発明によれば、アバターを用いた新しいサービスを提供することができる。
【0019】
この発明の上述の目的、その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。
【図面の簡単な説明】
【0020】
図1図1はこの発明の一実施例の情報処理システムを示す図である。
図2図2図1に示す制御装置の電気的な構成の一例を示すブロック図である。
図3図3図1に示す操作者端末の電気的な構成の一例を示すブロック図である。
図4図4図1に示すユーザ端末の電気的な構成の一例を示すブロック図である。
図5図5図1に示す情報処理システムの適用例および大画面表示装置に表示される会場対話画面の一例を示す図である。
図6図6はユーザ端末の表示装置に表示される招待画面の一例を示す図である。
図7図7はユーザ端末の表示装置に表示される個別対話画面の一例を示す図である。
図8図8図2に示す制御装置のRAMのメモリマップの一例を示す図である。
図9図9図3に示す操作者端末のRAMのメモリマップの一例を示す図である。
図10図10図9に示すデータ記憶領域の具体的な内容の一例を示す図である。
図11図11図4に示すユーザ端末のRAMのメモリマップの一例を示す図である。
図12図12図2に示す制御装置のCPUの制御処理の一例の一部を示すフロー図である。
図13図13図2に示す制御装置のCPUの制御処理の一例の他の一部であって、図12に後続するフロー図である。
図14図14図3に示す操作者端末のCPUの制御処理の一例の第1の一部を示すフロー図である。
図15図15図3に示す操作者端末のCPUの制御処理の一例の第2の一部であって、図14に後続するフロー図である。
図16図16図3に示す操作者端末のCPUの制御処理の一例の第3の一部であって、図15に後続するフロー図である。
図17図17図4に示すユーザ端末のCPUの制御処理の一例の第1の一部を示すフロー図である。
図18図18図4に示すユーザ端末のCPUの制御処理の一例の第2の一部であって、図17に後続するフロー図である。
図19図19図4に示すユーザ端末のCPUの制御処理の一例の第3の一部であって、図18に後続するフロー図である。
【発明を実施するための形態】
【0021】
図1を参照して、この実施例の情報処理システム10は制御装置12を含み、制御装置12は、ネットワーク14を介して、操作者端末16および複数のユーザ端末30に通信可能に接続される。また、情報処理システム10は、大画面表示装置18、マイク20、スピーカ22およびカメラ24を含み、制御装置12は、大画面表示装置(「共通表示装置」に対応する)18、マイク20、スピーカ22およびカメラ24のそれぞれに接続される。
【0022】
この実施例では、制御装置12に、大画面表示装置18、マイク20、スピーカ22およびカメラ24が接続されるように示してあるが、大画面表示装置18、マイク20、スピーカ22およびカメラ24は制御装置12に含められてもよい。
【0023】
一例として、Web Real-Time Communication (WebRTC)の技術によって、制御装置12と操作者端末16の間、および、操作者端末16と各ユーザ端末30の間で、Webブラウザを介して映像または/および音声をリアルタイムに送受信することができる。たとえば、制御装置12と操作者端末16は、P2P(Peer to Peer)通信を行い、操作者端末16と各ユーザ端末30は、P2P通信を行う。この場合、制御装置12がWebRTCによる通信相手に関する情報を取得するためのシグナリングサーバとしても機能することができる。
【0024】
なお、WebRTCは、複数のサーバを組み合わせて利用することが可能である。具体的には、WebRTCを利用するための複数のサーバには、シグナリングサーバの他に、スタン(STUN)サーバ及びターン(TURN)サーバ等が含まれる。詳細な説明は省略するが、スタンサーバおよびターンサーバは通信相手が異なるネットワークに存在している場合にいわゆるNAT(Network Address Translation)越えをするためのサーバである。
【0025】
操作者端末16は操作者によって使用され、複数のユーザ端末30は、それぞれ、異なるユーザによって使用される。この実施例では、ユーザは、アバターを用いて提供される所定のサービスを利用する者(すなわち、顧客)である。操作者は、アバターを操作してユーザに所定のサービスを提供するものである。
【0026】
制御装置12は、情報処理装置であり、汎用のPCまたはサーバを用いることができる。制御装置12は、この実施例の所定のサービスを提供するために設けられる。
【0027】
ネットワーク14は、インターネットを含むIP網(または、IPネットワーク)と、このIP網にアクセスするためのアクセス網(または、アクセスネットワーク)とから構成される。アクセス網としては、公衆電話網、携帯電話網、有線LAN、無線LAN、CATV(Cable Television)等を用いることができる。
【0028】
操作者端末16は、制御装置12およびユーザ端末30とは異なる他の情報処理装置であり、一例として、ノート型PCまたはデスクトップ型PCであるが、スマートフォンまたはタブレットPCなどの汎用の端末を用いることもできる。
【0029】
ユーザ端末30は、制御装置12および操作者端末16とは異なるその他の情報処理装置であり、一例として、スマートフォンであるが、タブレットPCまたはノート型PCなどの汎用の携帯型の端末を用いることもできる。
【0030】
図2図1に示した制御装置12の電気的な構成の一例を示すブロック図である。図2に示すように、制御装置12はCPU50を含み、CPU50は、内部バスを介して、RAM52、通信インタフェース(以下、「通信I/F」という)54および入出力インタフェース(以下、「入出力I/F」という)56に接続される。
【0031】
CPU50は、制御装置12の全体的な制御を司る。ただし、CPU50に代えて、CPU機能、GPU(Graphics Processing Unit)機能等の複数の機能を含むSoC(System-on-a-chip)を設けてもよい。
【0032】
RAM52は、主記憶装置であり、CPU50のワーク領域またはバッファ領域として使用される。図示は省略するが、制御装置12には、補助記憶装置として、HDDおよびROMが設けられる。ただし、HDDに代えて、または、HDDに加えて、SSD等の不揮発性メモリが使用されてもよい。
【0033】
通信I/F54は、CPU50の制御の下、ネットワーク14を介して、ユーザ端末30および操作者端末16などの外部のコンピュータとの間で、制御信号およびデータの送受信を行うための有線インタフェースである。ただし、通信I/F54としては、無線LANまたはBluetooth(登録商標)等の無線インタフェースを使用することもできる。
【0034】
入出力I/F56には、入力装置58が接続される。入力装置58は、キーボードおよびコンピュータマウスである。入出力I/F56は、入力装置58から入力された操作データ(または、操作情報)をCPU50に出力する。
【0035】
また、入出力I/F56には、図1に示した、大画面表示装置18、マイク20、スピーカ22およびカメラ24が接続される。大画面表示装置18は、一例として、100インチを超える大型の液晶表示装置である。マイク20は、汎用の収音マイクである。マイク20は複数設けられてもよい。スピーカ22は、汎用のステレオスピーカである。カメラ24は、汎用のCCDカメラである。
【0036】
入出力I/F56は、CPU50から出力される画像データを大画面表示装置18に出力する。この実施例では、操作者の分身であるアバター(または、キャラクタ)に対応するアバター画像を含むアバター画面の画像データが出力される。ただし、外部のコンピュータ(たとえば、制御装置12または操作者端末16)から受信した画像データがCPU50によって出力される場合もある。
【0037】
また、入出力I/F56は、マイク20で検出された1または複数のユーザの音声をデジタルの音声データ(以下、「会場音声データ」という)に変換してCPU50に出力したり、CPU50によって出力される音声データをアナログの音声信号に変換してスピーカ22から出力させたり、カメラ24で撮影(検出)された1または複数のユーザを含む映像の映像データ(以下、「会場映像データ」という)をCPU50に出力したりする。ただし、この実施例では、CPU50から出力される音声データは、操作者端末16から受信した操作者の音声データまたは操作者の音声をアバターの音声に変換した音声データである。以下、これらの音声データを操作者音声データと呼ぶことにする。
【0038】
なお、図2に示す制御装置12の電気的な構成は一例であり、限定される必要はない。
【0039】
図3図1に示した操作者端末16の電気的な構成を示すブロック図である。図3に示すように、操作者端末16はCPU70を含み、CPU70は、内部バスを介して、RAM72、通信I/F74および入出力I/F76に接続される。
【0040】
CPU70は、操作者端末16の全体的な制御を司る。ただし、CPU70に代えて、CPU機能、GPU機能等の複数の機能を含むSoCを設けてもよい。
【0041】
RAM72は、主記憶装置であり、CPU70のワーク領域またはバッファ領域として使用される。図示は省略するが、操作者端末16には、補助記憶装置として、HDDおよびROMが設けられる。ただし、HDDに代えて、または、HDDに加えて、SSD等の不揮発性メモリが使用されてもよい。
【0042】
通信I/F74は、CPU70の制御の下、ネットワーク14を介して、操作者端末16などの外部のコンピュータとの間で、制御信号およびデータの送受信を行うための有線インタフェースである。ただし、通信I/F74としては、無線LANまたはBluetooth(登録商標)等の無線インタフェースを使用することもできる。
【0043】
入出力I/F76には、入力装置78、表示装置80、マイク82、スピーカ84およびカメラ86が接続されている。マイク82およびスピーカ84は、操作者がユーザとの間で音声通話するために使用するマイク付きのヘッドセットを構成してもよい。
【0044】
また、入力装置78は、キーボードおよびコンピュータマウスである。さらに、タッチパネルが設けられる場合もある。タッチパネルは、汎用のタッチパネルであり、静電容量方式、電磁誘導方式、抵抗膜方式、赤外線方式など、任意の方式のものを用いることができる。
【0045】
表示装置80は、一例として、液晶表示装置である。マイク82は、汎用の収音マイクである。スピーカ84は、汎用のステレオスピーカである。カメラ86は、汎用のCCDカメラである。
【0046】
ただし、操作者端末16として、スマートフォンまたはタブレットPCが用いられる場合には、入力装置78は、タッチパネルおよびハードウェアのボタンである。
【0047】
入出力I/F76は、マイク82で検出された操作者の音声をデジタルの音声データに変換してCPU70に出力したり、CPU70によって出力される音声データをアナログの音声信号に変換してスピーカ84から出力させたり、カメラ86で撮影(検出)された操作者の映像の映像データ(以下、「操作者映像データ」という)をCPU70に出力したりする。ただし、この実施例では、CPU70から出力される音声データは、制御装置12から受信した会場音声データまたはユーザ端末30から受信したユーザの音声データ(以下、「ユーザ音声データ」という)である。
【0048】
また、入出力I/F76は、入力装置78から入力された操作データ(または、操作情報)をCPU70に出力し、また、CPU70によって生成された画像データを表示装置80に出力して、画像データに対応する画面を表示装置80に表示させる。ただし、外部のコンピュータ(たとえば、制御装置12またはユーザ端末30)から受信した画像データがCPU70によって出力される場合もある。制御装置12から受信した画像データは、会場映像データである。また、ユーザ端末30から受信した画像データは、ユーザを含む映像のデータ(以下、「ユーザ映像データ」という)である。
【0049】
なお、図3に示す操作者端末16の電気的な構成は一例であり、限定される必要はない。
【0050】
また、操作者端末16がスマートフォンである場合には、携帯電話通信網、または、携帯電話網および公衆電話網を介して、通話するための通話回路を備えるが、この実施例では、そのような通話は行わないため、図示は省略してある。
【0051】
図4図1に示したユーザ端末30の電気的な構成を示すブロック図である。図4に示すように、ユーザ端末30はCPU100を含み、CPU100は、内部バスを介して、RAM102、通信I/F104および入出力I/F106に接続される。
【0052】
CPU100は、ユーザ端末30の全体的な制御を司る。ただし、CPU100に代えて、CPU機能、GPU機能等の複数の機能を含むSoCを設けてもよい。
【0053】
RAM102は、主記憶装置であり、CPU100のワーク領域またはバッファ領域として使用される。図示は省略するが、ユーザ端末30には、補助記憶装置として、HDDおよびROMが設けられる。ただし、HDDに代えて、または、HDDに加えて、SSD等の不揮発性メモリが使用されてもよい。
【0054】
通信I/F104は、CPU100の制御の下、ネットワーク14を介して、ユーザ端末30などの外部のコンピュータとの間で、制御信号およびデータの送受信を行うための無線LANまたはBluetooth(登録商標)等の無線インタフェースである。ただし、場合によっては、通信I/F104として、有線インタフェースを使用することもできる。
【0055】
入出力I/F106には、入力装置108、表示装置110、マイク112、スピーカ114およびカメラ116が接続されている。入力装置108は、タッチパネルおよびハードウェアのボタンである。タッチパネルは、汎用のタッチパネルであり、静電容量方式、電磁誘導方式、抵抗膜方式、赤外線方式など、任意の方式のものを用いることができる。
【0056】
表示装置110は、一例として、液晶表示装置である。マイク112は、汎用の収音マイクである。スピーカ114は、汎用のステレオスピーカである。カメラ116は、汎用のCCDカメラである。
【0057】
ただし、ユーザ端末30として、ノート型PCが用いられる場合には、入力装置108は、キーボードおよびコンピュータマウスである。さらに、タッチパネルが設けられる場合もある。
【0058】
入出力I/F106は、マイク112で検出されたユーザの音声をデジタルの音声データすなわちユーザ音声データに変換してCPU100に出力したり、CPU100によって出力される音声データをアナログの音声信号に変換してスピーカ114から出力させたり、カメラ116で撮影(検出)されたユーザを含む映像の映像データすなわちユーザ映像データをCPU100に出力したりする。ただし、この実施例では、CPU100から出力される音声データは、操作者端末16から受信した操作者音声データである。
【0059】
また、入出力I/F106は、入力装置108から入力された操作データ(または、操作情報)をCPU100に出力するとともに、CPU100によって生成された画像データを表示装置110に出力して、画像データに対応する画面または画像を表示装置110に表示させる。ただし、外部のコンピュータ(たとえば、制御装置12または操作者端末16)から受信した画像データがCPU100によって出力される場合もある。
【0060】
なお、図4に示すユーザ端末30の電気的な構成は一例であり、限定される必要はない。また、各ユーザ端末30は、同じ構成である必要はない。
【0061】
また、ユーザ端末30がスマートフォンである場合には、携帯電話通信網、または、携帯電話網および公衆電話網を介して、通話するための通話回路を備えるが、この実施例では、そのような通話は行わないため、図示は省略してある。
【0062】
以下、この実施例の情報処理システム10の動作について説明するが、各ユーザ端末30の動作は同じであるため、複数台のうちの1台について説明し、他のユーザ端末30についての説明は省略することにする。
【0063】
簡単に説明すると、このような情報処理システム10では、少なくとも、大画面表示装置18、マイク20、スピーカ22およびカメラ24がこの実施例のサービスが提供される場所ないし会場に設置される。この実施例のアバターを用いたサービスは、会場に居る複数のユーザの全体に対して行われるサービス(以下、「全体のサービス」という)と、会場に居る複数のユーザに対して個別に行われるサービス(以下、「個別のサービス」という)を含む。
【0064】
一例として、図5に示すように、大画面表示装置18は、複数のユーザに視認可能に配置され、マイク20は1または複数のユーザの音声を検出可能に大画面表示装置18の前方の数メートル離れた位置に配置され、スピーカ22は複数のユーザに聴取可能に大画面表示装置18の左右にそれぞれ配置され、カメラ24は複数のユーザを撮影可能に大画面表示装置18の上方(または、上端)に配置される。上述したように、マイク20は複数設けられてもよい。また、図5では制御装置12は省略してある。
【0065】
この実施例の全体のサービスでは、コンピュータグラフィックス(以下、「CG」という)のアバター(または、CGのキャラクタ)についてのアバター画像(「共通アバター画像」に相当する)202を含むアバター画面200が大画面表示装置18に表示され、CGのアバターが大画面表示装置18の前に居る複数のユーザに対して、身振り手振りしながら、話し掛けたり、歌を歌ったりする。1または複数のユーザは、アバターからの話し掛けに応じてアバターに答えたり、アバターに話し掛けたり、歌を聞いたりする。
【0066】
この実施例では、大画面表示装置18に表示されるアバターの動作および音声は、操作者端末16の操作者の動作および音声に基づいて制御される。動作は、身振り手振り、顔の向きおよび顔の表情を含む。操作者の動作は、操作者端末16のカメラ86で撮影された操作者の映像から検出される。操作者の音声は、マイク82で検出される。
【0067】
操作者端末16では、操作者の動作に基づいてアバターの動作を制御するための動作データが生成され、操作者の音声に基づいてアバターの発話(音声の出力)を制御するための音声データが生成される。動作データは、アバターの身振り手振り、顔の向きおよび顔の表情を制御するための各部位の位置および向きの情報(データ)である。具体的には、動作データは、顔の各部位すなわち眉毛、眼(上瞼、下瞼)、鼻および口(上唇、下唇)の位置(座標データ)と、顔の向き、手、腕、肩、腰、膝および足首の位置(座標データ)と、手首および足首の向きについての情報である。音声データは、操作者の音声をアバターの音声に変換した音声のデータである。ただし、音声データは、操作者の音声のデータをそのまま用いることもできる。
【0068】
なお、操作者の動作に基づいてアバターの動作を制御するための動作データは、一例として、MediaPipe Holisticのような画像処理ライブラリを用いて生成することができる。他の例では、背景技術の特開2021-56940号に開示された方法を用いることもできる。
【0069】
制御装置12では、動作データに従ってアバター画像202を変化させる。したがって、アバターは動作される。また、制御装置12は、受信した操作者音声データをスピーカ22に出力する。つまり、制御装置12は、操作者端末16からの指示に従って大画面表示装置18に表示されるアバター画像202(アバター)を制御する。ただし、操作者端末16からの指示は、動作データ、または、動作データおよび操作者音声データである。
【0070】
このようなアバターの制御については、後述するように、ユーザ端末30の表示装置110に表示されるアバターを制御する場合についても同様である。
【0071】
一方、複数のユーザを含む映像はカメラ24で撮影され、会場の様子を示す映像の映像データすなわち会場映像データは制御装置12から操作者端末16に送信される。また、1または複数のユーザの音声はマイク20で検出され、会場の音声の音声データすなわち会場音声データは制御装置12から操作者端末16に送信される。会場映像データは、操作者端末16の表示装置80に出力され、会場音声データは、操作者端末16のスピーカ84から出力される。したがって、操作者は会場の様子を見たり聞いたりしながら、アバターを制御することができる。
【0072】
また、所定の条件が満たされると、複数のユーザ端末30(または、ユーザ)から1のユーザ端末30が決定され、決定された1のユーザ端末30(または、ユーザ)が個別のサービスの提供を受ける。
【0073】
この実施例では、全体のサービスを提供している場合に、操作者がユーザ端末30への招待を要求する指示(以下、「要求指示」という)を制御装置12に送信すると、制御装置12の制御に従って、アバターがユーザ端末30への招待を呼び掛ける。つまり、ユーザ端末30への招待が要求される。たとえば、「私を自分の端末に呼んでね」という音声がスピーカ22から出力されるとともに、この音声の出力に合わせて、アバター画像202が招待を要求(または、お願い)することを表現する動作を行うように変化される。このとき、アバター画像202は、スピーカ22から出力される音声にリップシンクされる。以下、音声に合わせてアバターを動作させる場合について同じである。これらのことは、後述するように、ユーザ端末30にアバター画像242が表示される場合も同じである。
【0074】
この実施例では、ユーザ端末30への招待を要求するためのアバターの一連の動作の動作データおよびアバターの音声データは制御装置12に記憶されているものとする。ただし、これらの動作データおよび音声データは、要求指示とともに、操作者端末16から制御装置12に送信されるようにすることもできる。また、一例として、ユーザ端末30への招待を要求するための一連の動作は、アバターが右手を挙げて辺りを見渡すように顔の向きを左右に数回動かして元の姿勢(たとえば、直立の状態)に戻る動作である。
【0075】
ユーザは、自身のユーザ端末30を操作して、この実施例の個別のサービスの提供を受けるためのアプリケーション・プログラム(制御プログラム)を実行する。すると、図6に示すような、アバターを招待するための画面(以下、「招待画面」という)220が表示装置110に表示される。
【0076】
図6に示すように、招待画面220は、ほぼ中央にボタン画像222が設けられ、下端部にボタン画像224が設けられる。ボタン画像222は、アバターを招待することを制御装置12に指示するためのアイコンである。ボタン画像224は、個別のサービスを受けるためのアプリケーション・プログラムを終了するためのアイコンである。
【0077】
アバターからの要求に応じて、ユーザがボタン画像222をオンすると、アバターを自身のユーザ端末30に招待することの通知(以下、「招待通知」という)が制御装置12に送信される。つまり、アバターを招待することが制御装置12に依頼される。招待通知には、ユーザ端末30の接続情報(IPアドレスなど)も含まれる。
【0078】
制御装置12は、アバターがユーザに対して招待を要求してから所定時間(たとえば、30秒)ユーザ端末30からの招待通知が有るのを待機する。複数のユーザ端末30から招待要求の通知が有ると、制御装置12は、個別のサービスを提供する1のユーザ端末30を所定のルールに従って決定する。所定のルールは、所定の番目(たとえば、1番)に招待要求の通知が有ったことである。
【0079】
ただし、所定のルールは、個別のサービスの提供を受けるための料金をユーザが決める場合には最も高額を設定したこと、または、個別のサービスの提供を受けるためにクイズに答える場合にはクイズに最初に正解したことでもよい。
【0080】
所定時間待機してもユーザ端末30からの招待通知が無い場合には、制御装置12は、招待通知が無いことの通知(以下、「招待無し通知」という)を操作者端末16に送信する。操作者端末16は、招待無し通知を受信すると、そのことを操作者に報知する。一例として、「ユーザからの招待がありません」というメッセージがテキストで表示装置80に表示されたり、音声でスピーカ84から出力されたりする。したがって、操作者は、再度、要求指示を出したり、大画面表示装置18の前に居る複数のユーザに話し掛けたり、歌を歌ったりすることができる。
【0081】
制御装置12は、個別のサービスを提供する1のユーザ端末30を決定すると、このユーザ端末30の接続情報を操作者端末16に送信するとともに、このユーザ端末30に操作者端末16の接続情報を送信する。
【0082】
また、このとき、制御装置12は、全体のサービスの提供を停止する。この実施例では、アバター画面200(アバター画像202)が非表示され、操作者音声データの出力も停止される。また、マイク20での音声の検出およびカメラ24での撮影も停止される。
【0083】
ただし、アバター画面200(アバター画像202)を非表示することに代えて、静止画のアバター画像202を表示したり、首を動かしたり(相槌を打ったり)、瞬きしたり、髪の毛を触ったりするような無意識動作するアバター画像202のアニメーションを再生したり、予め定義(用意)されたアバター画像202の待機アニメーションまたは待機モーションが再生されたりする。待機アニメーションまたは待機モーションは、一般的な3次元コンピュータグラフィックスの仮想のゲームなどで用いられる関節角アニメーションを意味する。この場合、アバターは、操作者の操作に基づいて制御されず、制御装置12で制御されるため、アバター画像202を生成するためのデータとして、アバターが静止した状態の画像データ、アバターの無意識動作のアニメーションデータおよびアバターの待機動作についてのアニメーションデータが制御装置12のメモリに記憶される。
【0084】
個別のサービスの提供を受けることが決定された1のユーザ端末30は、操作者端末16と接続状態を確立するとともに、図7に示すように、大画面表示装置18に表示されたアバターと同じアバターに対応するアバター画像(「端末用アバター画像」に相当する)242を含む画面(以下、「個別対話画面」という)240を表示装置110に表示する。この実施例では、個別のサービスでは、アバター画像242すなわちCGのアバターが、このCGのアバターが表示されたユーザ端末30のユーザに対して、身振り手振りしながら、話し掛けたり、歌を歌ったりする。したがって、このユーザ端末30のユーザは、アバターからの話し掛けに応じてアバターに答えたり(つまり、対話したり)、アバターに話し掛けたり、歌を聞いたりする。また、ユーザはユーザ端末30に表示されたアバターに触れることでアバターの反応を楽しんだりする。個別のサービスは、一例であり、アバターと対話するだけでもよいし、アバターの反応を楽しむだけでもよいし、ユーザ端末30のユーザに対してのみ、アバターが話し掛けたり、歌を歌ったりしてもよい。
【0085】
図7に示すように、個別対話画面240は、アバター画像242を含み、その下端部にボタン画像250およびボタン画像252が横に並んで設けられる。ボタン画像250は、アバターを大画面に返却する、すなわち、個別のサービスの提供を受けるのを終了するためのアイコンである。個別のサービスの提供を受けるのを終了すると、個別対話画面240(すなわち、アバター画像242)が消去され、招待画面220が表示装置110に表示される。ボタン画像252は、個別のサービスを受けるためのアプリケーション・プログラムを終了するためのアイコンである。
【0086】
ただし、ユーザがボタン画像250をオンしない場合であっても、第2制限時間(たとえば、5分)が経過すると、アバターは大画面に返却される。つまり、ボタン画像250がオンされたり、第2制限時間が経過したりする返却条件を満たすと、アバターは返却される。
【0087】
また、アバターが返却されると、再び、アバター画像202が大画面表示装置18に表示され、操作者端末16からの指示に従ってアバター画像202が制御される。
【0088】
上述したように、表示装置110に表示されるアバターの動作および音声は、操作者端末16で生成される動作データおよび音声データを用いて制御される。
【0089】
一方、ユーザを含む映像はカメラ116で撮影され、ユーザを示す映像の映像データすなわちユーザ映像データはユーザ端末30から操作者端末16に送信される。また、ユーザの音声はマイク112で検出され、ユーザの音声の音声データすなわちユーザ音声データはユーザ端末30から操作者端末16に送信される。ユーザ映像データは、操作者端末16の表示装置80に出力され、ユーザ音声データは、操作者端末16のスピーカ84から出力される。したがって、操作者はユーザ端末30のユーザの様子を見ながら、当該ユーザと対話したり、アバターの動作を制御したりすることができる。
【0090】
また、ユーザが表示装置110に表示されたアバター画像242に触れると、触れたアバターの部位を含む情報(以下、「タッチ情報」という)が操作者端末16に送信される。操作者端末16は、受信したタッチ情報に応じた反応データをユーザ端末30に送信する。ユーザが触れたアバターの部位毎に、アバターの動作データまたは/および音声データを含む反応データが予め用意されており、タッチ情報が示すアバターの部位に応じた反応データがユーザ端末30に送信される。ユーザ端末30では、受信した反応データに従ってアバターの動作または/および発話を制御する。したがって、ユーザはアバターの反応を楽しむこともできる。
【0091】
ただし、これは一例であり、タッチ情報を操作者に提示して、アバターの反応についても、操作者が制御するようにしてもよい。また、反応データについては、ユーザ端末30に予め記憶しておき、ユーザがアバターに触れたことに応じて、予め記憶しておいた反応データに従ってアバターが制御されてもよい。
【0092】
詳細な説明は省略するが、ユーザ端末30(または、ユーザ)が個別のサービスの提供を受ける場合には、その料金(対価)を支払うようにしてもよい。料金の支払いは、個別のサービスの提供の開始時または終了時のような所定のタイミングで実行される。
【0093】
図8は制御装置12に内蔵されるRAM52のメモリマップ300の一例を示す。図8に示すように、RAM52は、プログラム記憶領域302およびデータ記憶領域304を含む。プログラム記憶領域302には、この実施例の制御装置12で実行される制御プログラムが記憶されている。
【0094】
制御装置12で実行される制御プログラムは、メイン処理プログラム302a、通信プログラム302b、画像生成プログラム302c、画像出力プログラム302d、撮影プログラム302e、アバター制御プログラム302f、音声検出プログラム302g、音声出力プログラム302h、招待要求プログラム302iおよびユーザ決定プログラム302jなどを含む。
【0095】
メイン処理プログラム302aは、この実施例の制御装置12の制御処理のメインルーチンを実行するためのプログラムである。
【0096】
通信プログラム302bは、外部の機器、この実施例では、操作者端末16および1または複数のユーザ端末30と通信(データ等の送信および受信)するためのプログラムである。
【0097】
画像生成プログラム302cは、大画面表示装置18に表示するための画面(200など)の全部または一部に対応する画像データを、画像生成データ304aを用いて生成するためのプログラムである。
【0098】
画像出力プログラム302dは、画像生成プログラム302cに従って生成した画像データを大画面表示装置18に出力するためのプログラムである。したがって、画像データに対応する画面が大画面表示装置18に表示される。
【0099】
撮影プログラム302eは、カメラ24に撮影処理を実行させ、カメラ24から入力される会場映像データ304bをデータ記憶領域304に記憶するためのプログラムである。
【0100】
アバター制御プログラム302fは、動作データ304dを用いて、アバターを動作させるためのプログラムである。
【0101】
音声検出プログラム302gは、マイク20から入力される1または複数のユーザの音声を検出し、検出した音声に対応する会場音声データ304cをデータ記憶領域304に記憶するためのプログラムである。
【0102】
音声出力プログラム302hは、操作者端末16から受信した操作者音声データ304eをスピーカ22に出力するためのプログラムである。したがって、操作者音声データ304eに対応する音声がスピーカ22から出る。
【0103】
招待要求プログラム302iは、操作者端末16から要求指示を受信したことに応じて、1または複数のユーザ(ユーザ端末30)に対して招待を要求するためのプログラムである。
【0104】
ユーザ決定プログラム302jは、所定の条件を満たす場合に、個別のサービスの提供を受ける、1人のユーザすなわち1つのユーザ端末30を決定するためのプログラムである。
【0105】
図示は省略するが、プログラム記憶領域302には、制御装置12のオペレーティングシステム、ミドルウェアの他に、ブラウザ、本願の制御プログラム以外の他のアプリケーション・プログラムも記憶される。
【0106】
また、データ記憶領域304には、画像生成データ304a、会場映像データ304b、会場音声データ304c、動作データ304dおよび操作者音声データ304eなどが記憶される。
【0107】
画像生成データ304aは、大画面表示装置18に表示される画面を生成するためのデータであり、アバター画像202を生成するためのデータを含む。アバター画像202を生成するためのデータは、2次元CG画像データまたは3次元CG画像データにより構成される。これらの画像データは、アバターの各部位の位置が座標データ(向きの情報を含む部位もある)により定義され、座標データを与えることでアバターの動作を制御することが可能となっている。このことは、後述する画像生成データ504bについても同様である。
【0108】
会場映像データ304bは、カメラ24で撮影された会場の映像すなわち大画面表示装置18の前に居る1または複数のユーザを含む映像のデータである。会場映像データ304bは、CPU50によって操作者端末16に送信されると、データ記憶領域304から消去される。
【0109】
会場音声データ304cは、マイク20で検出された会場の音声すなわち大画面表示装置18の前に居る1または複数のユーザの音声を含む音声のデータである。会場音声データ304cは、CPU50によって操作者端末16に送信されると、データ記憶領域304から消去される。
【0110】
動作データ304dは、操作者端末16から受信した動作データである。動作データ304dは、CPU50の処理に使用されると、データ記憶領域304から消去される。操作者音声データ304eは、操作者端末16から受信した操作者音声データである。操作者音声データ304eは、CPU50によってスピーカ22に出力されると、データ記憶領域304から消去される。
【0111】
また、データ記憶領域304には、タイマ304fが設けられる。タイマ304fは、ユーザ端末30からアバターの招待の依頼が有るのを待機する第1制限時間(たとえば、30秒)をカウントするためのカウンタである。
【0112】
図示は省略するが、データ記憶領域304には、制御処理を実行するために必要な他のデータが記憶されたり、制御処理を実行するために必要な他のタイマ(カウンタ)およびフラグが設けられたりする。たとえば、ユーザ端末への招待を要求するためのアバターの動作データおよびアバターの音声データが記憶される。
【0113】
図9は操作者端末16に内蔵されるRAM72のメモリマップ400の一例を示す。図9に示すように、RAM72は、プログラム記憶領域402およびデータ記憶領域404を含む。プログラム記憶領域402には、この実施例の操作者端末16で実行される制御プログラムが記憶されている。
【0114】
操作者端末16で実行される制御プログラムは、メイン処理プログラム402a、操作検出プログラム402b、通信プログラム402c、画像生成プログラム402d、画像出力プログラム402e、撮影プログラム402f、動作データ生成プログラム402g、音声検出プログラム402hおよび音声出力プログラム402iなどを含む。
【0115】
メイン処理プログラム402aは、この実施例の操作者端末16の制御処理のメインルーチンを実行するためのプログラムである。
【0116】
操作検出プログラム402bは、操作者の操作に従って入力装置78から入力される操作データ404aを検出し、データ記憶領域404に記憶するためのプログラムである。
【0117】
通信プログラム402cは、外部の機器、この実施例では、制御装置12およびユーザ端末30と通信するためのプログラムである。
【0118】
画像生成プログラム402dは、表示装置80に表示するための画面に対応する画像データを、画像生成データ404bを用いて生成するためのプログラムである。
【0119】
画像出力プログラム402eは、画像生成プログラム402dに従って生成した画像データを表示装置80に出力するためのプログラムである。したがって、画像データに対応する画面が表示装置80に表示される。
【0120】
撮影プログラム402fは、カメラ86に撮影処理を実行させ、カメラ86から入力される操作者映像データ404cをデータ記憶領域404に記憶するためのプログラムである。
【0121】
動作データ生成プログラム402gは、操作者映像データ404cから操作者の動作を検出し、アバターの動作を制御するための動作データ404eを生成するためのプログラムである。
【0122】
音声検出プログラム402hは、マイク62から入力される操作者の音声を検出し、検出した音声に対応する操作者音声データ404dをデータ記憶領域404に記憶するためのプログラムである。
【0123】
音声出力プログラム402iは、制御装置12から受信した会場音声データ404gまたはユーザ端末30から受信したユーザ音声データ404iをスピーカ84に出力するためのプログラムである。したがって、会場音声データ404gに対応する音声またはユーザ音声データ404iに対応する音声がスピーカ84から出る。
【0124】
図示は省略するが、プログラム記憶領域402には、操作者端末16のオペレーティングシステム、ミドルウェアの他に、ブラウザ、本願の制御プログラム以外の他のアプリケーション・プログラムも記憶される。
【0125】
図10図9に示したデータ記憶領域404の具体的な内容の一例を示す図である。図10に示すように、データ記憶領域404には、操作データ404a、画像生成データ404b、操作者映像データ404c、操作者音声データ404d、動作データ404e、会場映像データ404f、会場音声データ404g、ユーザ映像データ404h、ユーザ音声データ404i、タッチ情報データ404jおよび反応データ404kなどが記憶される。
【0126】
操作データ404aは、操作検出プログラム402bに従って検出された操作データである。この操作データ404aには、制御装置12に送信される要求指示も含まれる。操作データ404aは、CPU70の処理に使用されたり、制御装置12またはユーザ端末30に送信されたりすると、データ記憶領域404から消去される。
【0127】
画像生成データ404bは、操作者端末16の表示装置80に表示される画面を生成するために用いられるデータである。
【0128】
操作者映像データ404cは、カメラ86で撮影された操作者を含む映像のデータである。操作者映像データ404cは、CPU70の処理に使用されると、データ記憶領域404から消去される。
【0129】
操作者音声データ404dは、マイク82で検出された操作者の音声のデータである。操作者音声データ404cは、CPU70によって制御装置12またはユーザ端末30に送信されると、データ記憶領域404から消去される。
【0130】
動作データ404eは、アバターの動作を制御するためのデータ、この実施例では、アバターの身振り手振り、顔の向きおよび顔の表情を制御するための各部位の位置および向きの情報(データ)である。具体的には、動作データ404eは、上述したように、顔の各部位すなわち眉毛、眼(上瞼、下瞼)、鼻および口(上唇、下唇)の位置と、顔の向きと、手、腕、肩、腰、膝および足首の位置と、手首および足首の向きについての情報である。動作データ404eは、CPU70によって制御装置12またはユーザ端末30に送信されると、データ記憶領域404から消去される。
【0131】
会場映像データ404fは、制御装置12から受信した会場映像データである。会場映像データ404fは、CPU70によって表示装置80に出力されると、データ記憶領域404から消去される。会場音声データ404gは、制御装置12から受信した会場音声データである。会場音声データ404gは、CPU70によってスピーカ84に出力されると、データ記憶領域404から消去される。
【0132】
ユーザ映像データ404hは、ユーザ端末30から受信したユーザ映像データである。ユーザ映像データ404hは、CPU70によって表示装置80に出力されると、データ記憶領域404から消去される。ユーザ音声データ404iは、ユーザ端末30から受信したユーザ音声データである。ユーザ音声データ404iは、CPU70によってスピーカ84に出力されると、データ記憶領域404から消去される。
【0133】
タッチ情報データ404jは、ユーザ端末30から受信したタッチ情報についてのデータである。タッチ情報データ404jは、CPU70の処理に使用されると、データ記憶領域404から消去される。反応データ404kは、ユーザ端末30でアバター画像242がタッチされたことに応じてアバターに反応させる動作または/および音声についてデータである。この実施例では、タッチされたアバター(アバター画像242)の部位毎に異なる反応データ404kが記憶されている。
【0134】
図示は省略するが、データ記憶領域404には、制御処理を実行するために必要な他のデータが記憶されたり、制御処理を実行するために必要なタイマ(カウンタ)およびフラグが設けられたりする。
【0135】
図11はユーザ端末30に内蔵されるRAM102のメモリマップ500の一例を示す。図11に示すように、RAM102は、プログラム記憶領域502およびデータ記憶領域504を含む。プログラム記憶領域502には、この実施例のユーザ端末30で実行される制御プログラムすなわち個別のサービスを受けるためのアプリケーション・プログラムが記憶されている。
【0136】
ユーザ端末30で実行される制御プログラムは、メイン処理プログラム502a、操作検出プログラム502b、通信プログラム502c、画像生成プログラム502d、画像出力プログラム502e、撮影プログラム502f、アバター制御プログラム502g、音声検出プログラム502h、音声出力プログラム502i、招待プログラム502jおよび返却プログラム502kなどを含む。
【0137】
メイン処理プログラム502aは、この実施例のユーザ端末30の制御処理のメインルーチンを実行するためのプログラムである。
【0138】
操作検出プログラム502bは、ユーザの操作に従って入力装置108から入力される操作データ504aを検出し、データ記憶領域504に記憶するためのプログラムである。
【0139】
通信プログラム502cは、外部の機器、この実施例では、制御装置12および操作者端末16と通信するためのプログラムである。
【0140】
画像生成プログラム502dは、表示装置110に表示するための画面(220、240など)に対応する画像データを、画像生成データ504bを用いて生成するためのプログラムである。
【0141】
画像出力プログラム502eは、画像生成プログラム502dに従って生成した画像データを表示装置110に出力するためのプログラムである。したがって、画像データに対応する画面が表示装置110に表示される。
【0142】
撮影プログラム502fは、カメラ116に撮影処理を実行させ、カメラ116から入力されるユーザ映像データ504cをデータ記憶領域504に記憶するためのプログラムである。
【0143】
アバター制御プログラム502gは、動作データ504eを用いて、アバターを動作させるためのプログラムである。
【0144】
音声検出プログラム502hは、マイク112から入力されるユーザの音声を検出し、検出した音声に対応するユーザ音声データ504dをデータ記憶領域504に記憶するためのプログラムである。
【0145】
音声出力プログラム502iは、操作者端末16から受信した操作者音声データ504fをスピーカ114に出力するためのプログラムである。したがって、操作者音声データ504fに対応する音声がスピーカ114から出る。
【0146】
招待プログラム502jは、ユーザの操作に従ったアバターを自身のユーザ端末30に招待するためのプログラムである。具体的には、招待プログラム502jは、個別のサービスの提供を受けることを制御装置12に依頼するためのプログラムである。
【0147】
返却プログラム502kは、自身のユーザ端末30に招待したアバターを大画面表示装置18(すなわち、制御装置12)に返却するためのプログラムである。具体的には、返却プログラム502kは、個別のサービスの提供を終了し、アバターを返却することを制御装置12に通知するためのプログラムである。
【0148】
図示は省略するが、プログラム記憶領域502には、ユーザ端末30のオペレーティングシステム、ミドルウェアの他に、ブラウザ、本願の制御プログラム以外の他のアプリケーション・プログラムも記憶される。
【0149】
また、データ記憶領域504には、操作データ504a、画像生成データ504b、ユーザ映像データ504c、ユーザ音声データ504d、動作データ504e、操作者音声データ504fおよび反応データ504gなどが記憶される。
【0150】
操作データ504aは、操作検出プログラム502bに従って検出された操作データである。操作データ504aには、アバターを招待することを指示する招待指示、アバター画像242をタッチしたタッチ情報、アバターを返却することを通知する返却通知も含まれる。操作データ504aは、CPU100の処理に使用されたり、制御装置12または操作者端末16に送信されたりすると、データ記憶領域504から消去される。
【0151】
画像生成データ504bは、ユーザ端末30の表示装置110に表示される画面を生成するためのデータであり、アバター画像242を生成するためのデータを含む。
【0152】
ユーザ映像データ504cは、カメラ116で撮影されたユーザを含む映像のデータである。ユーザ映像データ504cは、CPU100によって操作者端末16に送信されると、データ記憶領域504から消去される。ユーザ音声データ504dは、マイク112で検出されたユーザの音声のデータである。ユーザ音声データ504dは、CPU100によって操作者端末16に送信されると、データ記憶領域504から消去される。
【0153】
動作データ504eは、操作者端末16から受信した動作データである。動作データ504eは、CPU100の処理に使用されると、データ記憶領域504から消去される。操作者音声データ504fは、操作者端末16から受信した操作者音声データである。操作者音声データ504fは、CPU100によってスピーカ114に出力されると、データ記憶領域504から消去される。反応データ504gは、操作者端末16から受信した反応データである。反応データ504gは、CPU100の処理に使用されると、データ記憶領域504から消去される。
【0154】
また、データ記憶領域504には、タイマ504hが設けられる。タイマ504hは、個別のサービスの第2制限時間(たとえば、5分)をカウントするためのカウンタである。
【0155】
図示は省略するが、データ記憶領域504には、制御処理を実行するために必要な他のデータが記憶されたり、制御処理を実行するために必要な他のタイマ(カウンタ)およびフラグが設けられたりする。
【0156】
図12および図13は、制御装置12のCPU50の制御処理を示すフロー図である。図示は省略するが、CPU50は、制御処理と並行して、操作データの検出処理を実行して操作データを記憶する処理を実行したり、カメラ24に撮影処理を実行させて会場映像データを記憶する処理を実行したり、音声の検出処理を実行して会場音声データを記憶する処理を実行したり、操作者端末16およびユーザ端末30から送信されるデータ等を受信および記憶する処理を実行したりする。
【0157】
図12に示すように、制御装置12のCPU50は、制御処理を開始すると、ステップS1で、操作者端末16と接続状態を確立し、ステップS3で、図5に示したようなアバター画面200を大画面表示装置18に表示する。
【0158】
次のステップS5では、制御処理の終了かどうかを判断する。ここでは、CPU50は、制御装置12の管理者によって制御処理を終了する指示が入力されたかどうかを判断する。
【0159】
ステップS5で“YES”であれば、つまり、制御処理の終了であれば、制御処理を終了する。一方、ステップS5で“NO”であれば、つまり、制御処理の終了でなければ、ステップS7で、操作者端末16からデータを受信したかどうかを判断する。ここでは、CPU50は、操作者端末16から動作データ、または、動作データおよび操作者音声データを受信したかどうかを判断する。
【0160】
ステップS7で“NO”であれば、つまり、操作者端末16からデータを受信していなければ、ステップS17に進む。一方、ステップS7で“YES”であれば、つまり、操作者端末16からデータを受信すれば、ステップS9で、操作者音声データ304eが有るかどうかを判断する。
【0161】
ステップS9で“YES”であれば、つまり、操作者音声データ304eが有れば、ステップS11で、操作者音声データ304eをスピーカ22に出力し、ステップS13で、操作者音声データ304eの出力に合わせて、動作データに従う動作を行うアバターの画像データを生成し、大画面表示装置18に出力して、ステップS17に進む。したがって、上述したように、大画面に表示されたアバターは、1または複数のユーザに向けて、話し掛けたり、歌を歌ったりする。
【0162】
一方、ステップS9で“NO”であれば、つまり、操作者音声データ304eが無ければ、ステップS15で、動作データに従う動作を行うアバターの画像データを生成し、大画面表示装置18に出力して、ステップS17に進む。したがって、上述したように、大画面に表示されたアバターは、身振り手振りを行なったり、顔の向きを変化させたりする。
【0163】
ステップS17では、会場映像データ304bおよび会場音声データ304cを操作者端末16に送信し、図13に示すステップS19で、招待の要求が有るかどうかを判断する。ここでは、CPU50は、操作者端末16からの要求指示が有るかどうかを判断する。
【0164】
ステップS19で“NO”であれば、つまり、招待の要求が無ければ、図12に示したステップS5に戻る。一方、ステップS19で“YES”であれば、つまり、招待の要求が有れば、ステップS21で、ユーザ端末30への招待を要求する。ここでは、CPU50は、「私をあなたの端末に呼んでね」というアバターの音声データをスピーカ22から出力するとともに、1または複数のユーザに対して呼び掛ける動作を行うアバターの画像データを生成し、大画面表示装置18に出力する。図示は省略するが、ユーザ端末30への招待を要求したときに、タイマ304fをリセットおよびスタートする。
【0165】
次のステップS23では、ユーザ端末30から招待が有るかどうかを判断する。ステップS23で“NO”であれば、つまり、ユーザ端末30から招待が無ければ、ステップS25で、招待の要求の終了かどうかを判断する。ここでは、CPU50は、タイマ304fのカウント値が第1制限時間(30秒)を経過したかどうかを判断する。
【0166】
ステップS25で“NO”であれば、つまり、招待の要求の終了でなければ、ステップS23に戻る。一方、ステップS25で“YES”であれば、つまり、招待の要求の終了であれば、ステップS27で、招待無し通知を操作者端末16に送信して、ステップS5に戻る。
【0167】
また、ステップS23で“YES”であれば、つまり、招待が有れば、ステップS29で、個別のサービスを提供する1のユーザ端末30を決定する。上述したように、複数のユーザ端末30から招待が有った場合には、所定の番目(たとえば、1番)に招待した1のユーザ端末30が選択される。
【0168】
次のステップS31では、決定した1のユーザ端末30の接続情報を操作者端末16に送信し、ステップS33で、操作者端末16との接続状態を解除し、ステップS35で、アバター画面200を非表示する。
【0169】
続いて、ステップS37で、ユーザ端末30からの返却通知が有るかどうかを判断する。ステップS37で“NO”であれば、つまり、返却通知が無ければ、ステップS37に戻る。一方、ステップS37で“YES”であれば、つまり、返却通知が有れば、ステップS1に戻る。
【0170】
図14図16は、操作者端末16のCPU70の制御処理を示すフロー図である。図示は省略するが、CPU70は、制御処理と並行して、操作データの検出処理を実行して操作データを記憶する処理したり、カメラ86に撮影処理を実行させて操作者映像データを記憶する処理を実行したり、音声の検出処理を実行して操作者音声データを記憶する処理を実行したり、制御装置12およびユーザ端末30から送信されるデータ等を受信および記憶する処理を実行したりする。以下、操作者端末16のCPU70の制御処理について説明するが、重複する内容については簡単に説明することにする。
【0171】
図14に示すように、CPU70は、制御処理を開始すると、ステップS101で、制御装置12との接続状態を確立し、ステップS103で、制御処理の終了かどうかを判断する。ここでは、CPU70は、操作者から制御処理の終了を指示されたかどうかを判断する。
【0172】
ステップS103で“YES”であれば、つまり、制御処理の終了であれば、制御処理を終了する。一方、ステップS103で“NO”であれば、つまり、制御処理の終了でなければ、ステップS105で、操作者映像データ404cから動作データ404eを生成し、ステップS107で、音声の入力が有るかどうかを判断する。
【0173】
ステップS107で“NO”であれば、つまり、音声の入力が無ければ、ステップS109で、ステップS105で生成した動作データ404eを制御装置12に送信して、ステップS113に進む。一方、ステップS107で“YES”であれば、つまり、音声の入力が有れば、ステップS111で、ステップS105で生成した動作データ404eと操作者音声データ404dを制御装置12に送信して、ステップS113に進む。
【0174】
ステップS113では、制御装置12からデータを受信したかどうかを判断する。ここでは、CPU70は、制御装置12から会場映像データ、または、会場映像データおよび会場音声データを受信したかどうかを判断する。ステップS113で“NO”であれば、つまり、制御装置12からデータを受信していなければ、ステップS117に進む。一方、ステップS113で“YES”であれば、つまり、制御装置12からデータを受信すれば、ステップS115で、会場映像データ404fおよび会場音声データ404gを出力して、ステップS117に進む。したがって、会場の映像が表示装置80に表示され、会場の音声がスピーカ84から出力される。なお、会場音声データ404gを受信していない場合には、会場映像データ404fのみが出力される。
【0175】
ステップS117では、招待要求の指示が有るかどうかを判断する。ステップS117で“NO”であれば、つまり、招待要求の指示が無ければ、ステップS103に戻る。一方、ステップS117で“YES”であれば、つまり、招待要求の指示が有れば、図15に示すステップS119で、ユーザ端末30の接続情報を受信したかどうかを判断する。
【0176】
ステップS119で“NO”であれば、つまり、ユーザ端末30の接続情報を受信していなければ、ステップS121で、招待無し通知が有るかどうかを判断する。ステップS121で“NO”であれば、つまり、招待無し通知が無ければ、ステップS119に戻る。
【0177】
一方、ステップS121で“YES”であれば、つまり、招待無し通知が有れば、ステップS123で、ユーザ端末30からの招待が無いことを操作者に報知して、ステップS103に戻る。一例として、ステップS123で、CPU70は、ユーザ端末30からの招待が無いことのテキストを表示装置80に表示する。
【0178】
また、ステップS119で“YES”であれば、つまり、ユーザ端末30の接続情報を受信していれば、ステップS125で、制御装置12との接続状態を解除し、ステップS127で、ユーザ端末30との接続状態を確立する。ただし、ステップS127で接続状態を確立するのは、受信した接続情報を有するユーザ端末30である。
【0179】
次のステップS129では、制御処理を終了するかどうかを判断する。ステップS129で“YES”であれば、制御処理を終了する。一方、ステップS129で“NO”であれば、ステップS131で、操作者映像データ404cから動作データ404eを生成し、ステップS133で、音声の入力が有るかどうかを判断する。
【0180】
ステップS133で“NO”であれば、ステップS135で、ステップS131で生成した動作データ404eをユーザ端末30に送信して、図16に示すステップS139に進む。一方、ステップS133で“YES”であれば、ステップS137で、ステップS131で生成した動作データ404eと操作者音声データ404dをユーザ端末30に送信して、ステップS139に進む。
【0181】
図16に示すように、ステップS139では、ユーザ端末30からデータを受信したかどうかを判断する。ここでは、CPU70は、ユーザ端末30からユーザ映像データ、または、ユーザ映像データおよびユーザ音声データを受信したかどうかを判断する。ステップS139で“NO”であれば、つまり、ユーザ端末30からデータを受信していなければ、ステップS143に進む。一方、ステップS139で“YES”であれば、つまり、ユーザ端末30からデータを受信すれば、ステップS141で、ユーザ映像データ404hおよびユーザ音声データ404iを出力して、ステップS143に進む。したがって、ユーザの映像が表示装置80に表示され、ユーザの音声がスピーカ84から出力される。なお、ユーザ音声データ404iを受信していない場合には、ユーザ映像データ404hのみが出力される。
【0182】
ステップS143では、タッチ情報が有るかどうかを判断する。ステップS143で“NO”であれば、つまり、タッチ情報が無ければ、ステップS147に進む。一方、ステップS143で“YES”であれば、つまり、タッチ情報が有れば、ステップS145で、タッチ情報に応じた反応データ404kをユーザ端末30に送信して、ステップS147に進む。
【0183】
ステップS147では、返却通知が有るかどうかを判断する。ステップS147で“NO”であれば、つまり、返却通知が無ければ、ステップS129に戻る。一方、ステップS147で“YES”であれば、つまり、返却通知が有れば、ステップS149で、ユーザ端末30との接続状態を解除して、ステップS101に戻る。
【0184】
図17図19は、ユーザ端末30のCPU100の制御処理を示すフロー図である。図示は省略するが、CPU100は、制御処理と並行して、操作データの検出処理を実行して操作データを記憶する処理したり、カメラ116に撮影処理を実行させて利用者映像データを記憶する処理を実行したり、音声の検出処理を実行して利用者音声データを記憶する処理を実行したり、操作者端末16およびユーザ端末30から送信されるデータ等を受信および記憶する処理を実行したりする。以下、ユーザ端末30のCPU100の制御処理について説明するが、重複する内容については簡単に説明することにする。
【0185】
ユーザ端末30の制御プログラムすなわち個別のサービスの提供を受けるためのアプリケーション・プログラムを実行すると、図17に示すように、CPU100は、制御処理を開始し、ステップS201で、図6に示したような招待画面220を表示装置110に表示する。
【0186】
次のステップS203では、アバターを招待するかどうかを判断する。ここでは、CPU100は、ボタン画像222がオンされたかどうかを判断する。ステップS203で“NO”であれば、つまり、アバターを招待しない場合には、ステップS203に戻る。一方、ステップS203で“YES”であれば、つまり、アバターを招待する場合には、ステップS205で、アバターを招待することを制御装置12に通知する。
【0187】
続いて、ステップS207では、操作者端末16の接続情報を受信したかどうかを判断する。ステップS207で“NO”であれば、つまり、操作者端末16の接続情報を受信していなければ、ステップS207に戻る。図示は省略するが、所定時間(たとえば、30秒)経過しても、操作者端末16の接続情報を受信しない場合には、アバターを招待できなかったと判断して、ステップS201に戻る。
【0188】
一方、ステップS207で“YES”であれば、つまり、操作者端末16の接続情報を受信すれば、ステップS209で、操作者端末16と接続状態を確立し、ステップS211で、図7に示したような個別対話画面240を表示装置110に表示し、図18に示すステップS213で、制御処理を終了するかどうかを判断する。ここでは、CPU100は、ボタン画像252が操作されたかどうかを判断する。
【0189】
ステップS213で“YES”であれば、つまり、制御処理を終了する場合には、制御処理を終了する。一方、ステップS213で“NO”であれば、つまり、制御処理の終了でなければ、ステップS215で、操作者端末16からデータを受信したかどうかを判断する。ここでは、CPU100は、操作者端末16から動作データ、または、動作データおよび操作者音声データを受信したかどうかを判断する。
【0190】
ステップS215で“NO”であれば、つまり、操作者端末16からデータを受信していなければ、ステップS225に進む。一方、ステップS215で“YES”であれば、つまり、操作者端末16からデータを受信すれば、ステップS217で、操作者音声データ504fが有るかどうかを判断する。
【0191】
ステップS217で“YES”であれば、つまり、操作者音声データ504fが有れば、ステップS219で、操作者音声データ504fをスピーカ114に出力し、ステップS221で、操作者音声データ504fの出力に合わせて、動作データに従う動作を行うアバターの画像データを生成し、表示装置110に出力して、図19に示すステップS225に進む。したがって、上述したように、ユーザ端末30の画面に表示されたアバターは、当該ユーザ端末30のユーザに向けて、話し掛けたり、歌を歌ったりする。
【0192】
一方、ステップS217で“NO”であれば、つまり、操作者音声データ504fが無ければ、ステップS223で、動作データに従う動作を行うアバターの画像データを生成し、表示装置110に出力して、ステップS225に進む。したがって、ユーザ端末30の画面に表示されたアバターは、操作者の動作、たとえば、無意識動作を行う。
【0193】
なお、操作者端末16から反応データ504gを受信した場合にも、ステップS219およびステップS221が実行されたり、ステップS223が実行されたりして、アバターはユーザのタッチに応じて反応する。
【0194】
図19に示すステップS225では、音声の入力が有るかどうかを判断する。ステップS225で“YES”であれば、つまり、音声の入力が有れば、ステップS227で、ユーザ映像データ504cとユーザ音声データ504dを操作者端末16に送信して、ステップS231に進む。一方、ステップS225で“NO”であれば、つまり、音声の入力が無ければ、ステップS229で、ユーザ映像データ504cを操作者端末16に送信して、ステップS231に進む。
【0195】
ステップS231では、アバターに触れたかどうかを判断する。ここでは、CPU100は、ユーザがアバター画像242にタッチしたかどうかを判断する。ステップS231で“NO”であれば、つまり、アバターに触れていなければ、ステップS235に進む。一方、ステップS231で“YES”であれば、つまり、アバターに触れていれば、ステップS233で、タッチした部位に応じたタッチ情報を操作者端末16に送信して、ステップS235に進む。
【0196】
ステップS235では、アバターを返却するかどうかを判断する。ここでは、CPU100は、ユーザがボタン画像250を操作したかどうかを判断する。ステップ235で“NO”であれば、つまり、アバターを返却しない場合には、ステップS213に戻る。
【0197】
一方、ステップS235で“YES”であれば、つまり、アバターをする場合には、ステップS237で、個別対話画面240を非表示し、ステップS239で、返却通知を制御装置12と操作者端末16に送信し、ステップS241で、操作者端末16との接続状態を解除して、ステップS201に戻る。
【0198】
図示は省略するが、招待画面220のボタン画像224がオンされた場合にも、CPU100は制御処理を終了する。
【0199】
この実施例によれば、複数のユーザが視認可能な大画面に表示されたアバターをユーザ端末に招待し、1人のユーザのユーザ端末にアバターを表示して個別のサービスの提供を受けるので、アバターを用いた新しいサービスを提供することができる。
【0200】
また、この実施例によれば、大画面に表示されたアバターと同じアバターを、複数のユーザのうちの1人のユーザのユーザ端末に表示して個別のサービスの提供を受けるので、個別のサービスの提供を受けるユーザはアバターに対して特別な思いを持つことができる。したがって、アバターを用いたサービスの提供を受けるユーザの楽しみを増大させることができる。
【0201】
なお、この実施例では、複数のユーザが視認可能にCGのアバターを配置するようにしたが、他の実施例では、CGのアバターに代えて、ロボットアバターを配置するようにしてもよい。具体的には、制御装置に、大画面表示装置、マイク、スピーカおよびカメラに代えて、ロボットアバターが通信可能に接続される。
【0202】
ロボットアバターとしては、遠隔操作により、身体動作または/および音声による対話が可能なロボットを使用することができる。また、ロボットアバターは、移動可能なロボットまたは据え置き型のロボットである。
【0203】
一例として、特開2007-190659号に開示されたコミュニケーションロボットを用いることができ、また、この特開2007-190659号に開示された方法でコミュニケーションロボットを遠隔操作することができる。この特開2007-190659号には開示されていないが、ロボットからオペレータの音声またはオペレータの音声をロボットの音声に変換して出力することもできる。操作者端末からは、ロボットアバターを動作させるためのコマンドが制御装置に送信される。ただし、操作者映像データから生成した動作データに基づいてロボットアバターを動作させるためのコマンドが生成されてもよい。一例として、コマンドには、ロボットアバターの各関節の角度の情報が含まれる。
【0204】
このコミュニケーションロボットを用いる場合には、ロボットの顔の表情は変化されないため、制御装置に送信する動作データから顔の表情についての情報は削除してもよいし、ロボット側で無視するようにしてもよい。
【0205】
また、他の例として、特開2017-47494号に開示されたアンドロイド(登録商標)ロボットを用いることができ、また、この特開2017-47494号に開示された方法でアンドロイドロボットを遠隔操作することができる。
【0206】
このように、CGのアバターに代えてロボットアバターを用いる場合には、個別のサービスを提供するとき、ユーザ端末の表示装置に、ロボットアバターに対応するアバター画像が表示される。一例として、個別のサービスを提供する場合、ロボットアバターは、停止される。ただし、コミュニケーションロボットは、ユーザから見えない位置に移動されるようにしもよい。
【0207】
また、この実施例では、制御装置、操作者端末およびユーザ端末を、ネットワークを介して通信可能に接続するようにしたが、それらが直接通信可能な範囲に配置される場合には、ネットワークを介さずに直接接続することもできる。
【0208】
また、この実施例では、1のユーザ端末を決定して個別のサービスを提供するようにしたが、アバターを招待したすべてのユーザ端末の表示装置の各々にアバター画像を表示して、各ユーザ端末において、個別のサービスを提供するようにしてもよい。この場合、操作者が各ユーザと対話するのは困難であるため、個別のサービスでは、アバターは、歌を歌ったり、ユーザが触れたことに応じて反応したりする。
【0209】
さらに、この実施例では、アバターからの呼び掛けに応じて、ユーザがアバターの招待を依頼するようにしたが、アバターからの呼び掛けが無くても、ユーザがアバターの招待を依頼できるようにしてもよい。つまり、操作者からの招待要求の指示が無くても、ユーザからの依頼に応じて、個別のサービスの提供を受けることができるようにしてもよい。
【0210】
さらにまた、この実施例では、操作者端末でアバターの動作データを生成し、動作データを制御装置またはユーザ端末に送信して、制御装置またはユーザ端末でアバター画像を生成するようにしたが、操作者端末でアバター画像を生成して、アバター画像を制御装置またはユーザ端末に送信するようにしてもよい。
【0211】
また、この実施例では、操作者を撮影した映像データから生成した動作データを用いてアバターの動作を制御するようにしたが、これに限定される必要はない。アバターに実行させる一連の動作に対応する動作データを予め用意しておき、操作者がボタン操作などで指示した一連の動作に対応する動作データを制御装置またはユーザ端末に送信して、アバターの動作を制御するようにしてもよい。一連の動作の例としては、お辞儀して元の姿勢(たとえば、直立の状態)に戻る動作、辺りを見渡すように顔の向きを左右に数回動かして元の姿勢に戻る動作、歌う間の振り付けの動作、右手または/および左手を胴体の前で振ってから元の姿勢に戻る動作、右手または/および左手を挙げてから元の姿勢に戻る動作などである。
【0212】
また、この実施例では、操作者の音声に基づいて、アバターに発話させるようにしたが、発話する内容の音声データを予め用意しておき、操作者がボタン操作などで指示した発話する内容に対応する音声データを制御装置またはユーザ端末に送信して、アバターの発話を制御するようにしてもよい。
【0213】
ただし、アバターの一連の動作に対応する動作データとともに発話する内容の音声データを1つのボタンに設定しておき、動作データと音声データを一度に制御装置またはユーザ端末に送信するようにしてもよい。
【0214】
さらに、この実施例で示したフロー図の各ステップは同じ結果が得られる場合には、処理する順番を変更することが可能である。
【0215】
また、この実施例で挙げた各種の画面、具体的数値はいずれも単なる例示であり、必要に応じて適宜変更可能である。
【符号の説明】
【0216】
10 …情報処理システム
12 …制御装置
14 …ネットワーク
16 …操作者端末
18、80、110 …表示装置
20、82、112 …マイク
22、84、114 …スピーカ
24、86、116 …カメラ
30 …ユーザ端末
50、70、100 …CPU
52、72、102 …RAM
54、74、104 …通信I/F
56、76、106 …入出力I/F
58、78、108 …入力装置
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14
図15
図16
図17
図18
図19