IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 株式会社国際電気通信基礎技術研究所の特許一覧

特開2024-138681情報処理システム、情報処理方法、情報処理装置および情報処理プログラム
<>
  • 特開-情報処理システム、情報処理方法、情報処理装置および情報処理プログラム 図1
  • 特開-情報処理システム、情報処理方法、情報処理装置および情報処理プログラム 図2
  • 特開-情報処理システム、情報処理方法、情報処理装置および情報処理プログラム 図3
  • 特開-情報処理システム、情報処理方法、情報処理装置および情報処理プログラム 図4
  • 特開-情報処理システム、情報処理方法、情報処理装置および情報処理プログラム 図5
  • 特開-情報処理システム、情報処理方法、情報処理装置および情報処理プログラム 図6
  • 特開-情報処理システム、情報処理方法、情報処理装置および情報処理プログラム 図7
  • 特開-情報処理システム、情報処理方法、情報処理装置および情報処理プログラム 図8
  • 特開-情報処理システム、情報処理方法、情報処理装置および情報処理プログラム 図9
  • 特開-情報処理システム、情報処理方法、情報処理装置および情報処理プログラム 図10
  • 特開-情報処理システム、情報処理方法、情報処理装置および情報処理プログラム 図11
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024138681
(43)【公開日】2024-10-09
(54)【発明の名称】情報処理システム、情報処理方法、情報処理装置および情報処理プログラム
(51)【国際特許分類】
   G06F 3/0481 20220101AFI20241002BHJP
   H04N 7/15 20060101ALI20241002BHJP
【FI】
G06F3/0481
H04N7/15
H04N7/15 170
【審査請求】未請求
【請求項の数】9
【出願形態】OL
(21)【出願番号】P 2023049278
(22)【出願日】2023-03-27
【国等の委託研究の成果に係る記載事項】(出願人による申告)令和2年度、国立研究開発法人科学技術振興機構、ムーンショット型研究開発事業「CA基盤構築及び階層的CA連携と操作者割り当ての研究開発」委託研究、産業技術力強化法第17条の適用を受ける特許出願/令和2年度、国立研究開発法人科学技術振興機構、ムーンショット型研究開発事業「利用者モニタリングと経験管理の研究開発」委託研究、産業技術力強化法第17条の適用を受ける特許出願
(71)【出願人】
【識別番号】393031586
【氏名又は名称】株式会社国際電気通信基礎技術研究所
(74)【代理人】
【識別番号】100090181
【弁理士】
【氏名又は名称】山田 義人
(72)【発明者】
【氏名】内海 章
(72)【発明者】
【氏名】宮下 敬宏
(72)【発明者】
【氏名】西村 祥吾
(72)【発明者】
【氏名】太田 陽
【テーマコード(参考)】
5C164
5E555
【Fターム(参考)】
5C164FA09
5C164PA39
5C164UB41S
5C164UB88S
5C164VA07P
5C164YA12
5C164YA21
5E555AA52
5E555AA61
5E555BA02
5E555BA13
5E555BB02
5E555BB13
5E555BC08
5E555CA42
5E555CB66
5E555DB32
5E555DC09
5E555EA05
5E555EA22
5E555FA00
(57)【要約】      (修正有)
【課題】情報漏洩を抑止する情報処理システム、方法、装置及びプログラムを提供する。
【解決手段】アバタ遠隔対話システムでは、ネットワークを介してディスプレイ30を備えるアバタ用ロボット14とディスプレイ80を備える操作者端末16とが連係する。ディスプレイ30に操作者100のアバタ28を表示し、操作者がアバタを介してユーザ102にサービスを提供する。ディスプレイ80の操作画面及びディスプレイ30のアバタ表示画面の少なくとも一方で撮影行動を検知したとき、撮影行動を実行している者に関連する埋込み画像を、電子透かしとして、撮影行動対象画面に埋め込む。ディスプレイ80に対する撮影行動を検知したときは、操作者IDなどを含む埋込み画像をディスプレイに重畳表示し、ディスプレイ30に対する撮影行動を検知したときは、ユーザ画像102a又は第三者106画像に基づく埋込み画像100bをディスプレイ80に重畳表示する。
【選択図】図5
【特許請求の範囲】
【請求項1】
操作画面を表示する第1ディスプレイを有する操作者端末およびアバタを表示する第2ディスプレイを有するアバタ表示装置がネットワークを介して連係して、前記操作者端末の操作者が、前記アバタを介して対話者と対話する情報処理システムであって、
前記第1ディスプレイの前記操作画面および前記第2ディスプレイのアバタ表示画面の少なくとも一方に対する撮影行動を検知する撮影行動検知手段、および
前記撮影行動検知手段によって撮影行動が検知された前記操作画面および前記アバタ表示画面の少なくとも一方に、前記撮影行動をした者に関連する埋込み画像を重畳する埋込み画像重畳手段を備える、情報処理システム。
【請求項2】
前記撮影行動検知手段は、画像処理技術を用いて撮影手段を構えるジェスチャを検知することによって、撮影行動を検知する、請求項1記載の情報処理システム。
【請求項3】
前記撮影行動検知手段が操作画面に対する前記撮影行動を検知したとき、前記埋込み画像重畳手段は、前記操作画面に、前記操作者に関連する埋込み画像を重畳する、請求項1または2記載の情報処理システム。
【請求項4】
前記撮影行動検知手段が前記アバタ表示画面に対する前記撮影行動を検知したとき、前記埋込み画像重畳手段は、前記アバタ表示画面に、前記対話者または第三者に関連する埋込み画像を重畳する、請求項1または2に記載の情報処理システム。
【請求項5】
操作画面を表示する第1ディスプレイを有する操作者端末およびアバタを表示する第2ディスプレイを有するアバタ表示装置がネットワークを介して連係して、前記操作者端末の操作者が、前記アバタを介して対話者と対話する情報処理システムにおける情報処理方法であって、
前記第1ディスプレイの前記操作画面および前記第2ディスプレイのアバタ表示画面の少なくとも一方に対する撮影行動を検知する撮影行動検知ステップ、および
前記撮影行動検知ステップで撮影行動が検知された前記操作画面および前記アバタ表示画面の少なくとも一方に、前記撮影行動をした者に関連する埋込み画像を重畳する埋込み画像重畳ステップを含む、情報処理方法。
【請求項6】
操作画面を表示する第1ディスプレイを備える操作者端末とアバタ表示装置とがネットワークを介して連係して、前記操作者端末の操作者が、前記アバタを介して対話者と対話する情報処理システムにおける前記操作者端末としての情報処理装置であって、
前記第1ディスプレイの前記操作画面に対する前記操作者による撮影行動を検知する撮影行動検知手段、および
前記撮影行動検知手段によって撮影行動が検知された前記操作画面に、前記操作者に関連する埋込み画像を重畳する埋込み画像重畳手段を備える、情報処理装置。
【請求項7】
操作画面を表示する第1ディスプレイを備える操作者端末とアバタ表示装置とがネットワークを介して連係して、前記操作者端末の操作者が、前記アバタを介して対話者と対話する情報処理システムにおける前記操作者端末の情報処理プログラムであって、
前記操作者端末のCPUを、
前記第1ディスプレイの前記操作画面に対する前記操作者による撮影行動を検知する撮影行動検知手段、および
前記撮影行動検知手段によって撮影行動が検知された前記操作画面に、前記操作者に関連する埋込み画像を重畳する埋込み画像重畳手段として機能させる、情報処理プログラム。
【請求項8】
操作画面を表示する第1ディスプレイを備える操作者端末と前記操作者のアバタを表示するアバタ表示画面を有する第2ディスプレイを備えるアバタ表示装置とがネットワークを介して連係して、前記操作者端末の操作者が、前記アバタを介して対話者と対話する情報処理システムにおける前記アバタ表示装置としての情報処理装置であって、
前記第2ディスプレイの前記アバタ表示画面に対する前記対話者または第三者による撮影行動を検知する撮影行動検知手段、および
前記撮影行動検知手段によって撮影行動が検知された前記アバタ表示面に、前記対話者または第三者に関連する埋込み画像を重畳する埋込み画像重畳手段として機能させる、情報処理装置。
【請求項9】
操作画面を表示する第1ディスプレイを備える操作者端末と前記操作者のアバタを表示するアバタ表示画面を有する第2ディスプレイを備えるアバタ表示装置とがネットワークを介して連係して、前記操作者端末の操作者が、前記アバタを介して対話者と対話する情報処理システムにおける前記アバタ表示装置の情報処理プログラムであって、
前記アバタ表示装置のCPUを、
前記第2ディスプレイの前記アバタ表示画面に対する前記対話者または第三者による撮影行動を検知する撮影行動検知手段、および
前記撮影行動検知手段によって撮影行動が検知された前記アバタ表示画面に、前記前記対話者または第三者に関連する埋込み画像を重畳する埋込み画像重畳手段として機能させる、情報処理プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
この発明は情報処理システム、情報処理方法、情報処理装置および情報処理プログラムに関し、特にたとえば、アバタによってユーザにサービスを提供したり、サービスの提供を受けたりする、情報処理システム、情報処理方法、情報処理装置および情報処理プログラム
に関する。
【背景技術】
【0002】
特許文献1には、ディスプレイに操作者の顔画像を表示して移動するロボットが開示されている。
【先行技術文献】
【特許文献】
【0003】
【特許文献1】特開2020‐004182号
【発明の概要】
【発明が解決しようとする課題】
【0004】
特許文献1の技術をアバタを表示するためのロボットとして機能させる場合、操作者とユーザとの対話情報などの漏洩を抑止する必要がある。
【0005】
それゆえに、この発明の主たる目的は、新規な、情報処理システム、情報処理方法、情報処理装置および情報処理プログラム提供することである。
【0006】
この発明の他の目的は、対話情報などの漏洩を抑止できる、情報処理システム、情報処理方法、情報処理装置および情報処理プログラムを提供することである。
【課題を解決するための手段】
【0007】
この発明は、上記の目的のために、以下の構成を採用した。なお、括弧内の参照符号および補足説明等は、この発明の理解を助けるために記述する実施形態との対応関係を示したものであって、この発明を何ら限定するものではない。
【0008】
第1の実施例は、操作画面を表示する第1ディスプレイを有する操作者端末およびアバタを表示する第2ディスプレイを有するアバタ表示装置がネットワークを介して連係して、操作者端末の操作者が、アバタを介して対話者と対話する情報処理システムであって、第1ディスプレイの操作画面および第2ディスプレイのアバタ表示画面の少なくとも一方に対する撮影行動を検知する撮影行動検知手段、および撮影行動検知手段によって撮影行動が検知された操作画面およびアバタ表示画面の少なくとも一方に、撮影行動をした者に関連する埋込み画像を重畳する埋込み画像重畳手段を備える、情報処理システムである。
【0009】
第1の実施例では、情報処理システム(10:実施例において対応する部分を例示する参照符号。ただし、限定を意味しない。以下同じ。)は、たとえばネットワーク(12)を介して、ロボットのようなアバタ表示装置および操作者端末(16)と連係する。操作者端末(16)は操作画面を表示する第1ディスプレイ(80)を備え、アバタ表示装置(14)が操作者のアバタを表示する第2ディスプレイ(30)を備える。操作者は、第2ディスプレイ(30)に表示した自分のアバタ(28)を介して対話者と遠隔対話しながら、たとえばユーザ(対話者)に対してサービスを提供する。撮影行動検知手段(64、116d、S1;32、124d、S21)は、操作画面およびアバタ表示画面の少なくとも一方を対象とした撮影行動を検知する。埋込み画像重畳手段(64、116g、S7;32、124g、S29、S31)は、操作画面およびアバタ表示画面の少なくとも一方に、撮影行動をした者に関連する埋込み画像を重畳する。
【0010】
第1の実施例によれば、撮影行動が対象とした画面に撮影行動をした者に関連する埋込み画像がたとえば電子透かしのように重畳されるので、撮影行動をしようとする者はその撮影行動を中止する可能性が大きく、撮影行動による情報漏洩が可及的抑止される。
【0011】
第2の実施例は第1の実施例に従属する情報処理システムであって、撮影行動検知手段は、画像処理技術を用いて撮影手段を構えるジェスチャを検知することによって、撮影行動を検知する。
【0012】
第2の実施例によれば、撮影行動を容易に検知することができる。
【0013】
第3の実施例は、第1の実施例または第2の実施例に従属する情報処理システムであって、撮影行動検知手段が操作画面に対する撮影行動を検知したとき、埋込み画像重畳手段は、操作画面に、操作者に関連する埋込み画像を重畳する。
【0014】
第4の実施例は、第1の実施例または第2の実施例に従属する情報処理システムであって、撮影行動検知手段がアバタ表示画面に対する撮影行動を検知したとき、埋込み画像重畳手段は、アバタ表示画面に、対話者または第三者に関連する埋込み画像を重畳する。
【0015】
第5の実施例は、操作画面を表示する第1ディスプレイを有する操作者端末およびアバタを表示する第2ディスプレイを有するアバタ表示装置がネットワークを介して連係して、操作者端末の操作者が、アバタを介して対話者と対話する情報処理システムにおける情報処理方法であって、第1ディスプレイの操作画面および第2ディスプレイのアバタ表示画面の少なくとも一方に対する撮影行動を検知する撮影行動検知ステップ、および撮影行動検知ステップで撮影行動が検知された操作画面およびアバタ表示画面の少なくとも一方に、撮影行動をした者に関連する埋込み画像を重畳する埋込み画像重畳ステップを含む、情報処理方法である。
【0016】
第5の実施例によっても、第1の実施例と同様の効果が期待できる。
【0017】
第6の実施例は、操作画面を表示する第1ディスプレイを備える操作者端末とアバタ表示装置とがネットワークを介して連係して、操作者端末の操作者が、アバタを介して対話者と対話する情報処理システムにおける操作者端末としての情報処理装置であって、第1ディスプレイの操作画面に対する操作者による撮影行動を検知する撮影行動検知手段、および撮影行動検知手段によって撮影行動が検知された操作画面に、操作者に関連する埋込み画像を重畳する埋込み画像重畳手段を備える、情報処理装置である。
【0018】
第7の実施例は、操作画面を表示する第1ディスプレイを備える操作者端末とアバタ表示装置とがネットワークを介して連係して、操作者端末の操作者が、アバタを介して対話者と対話する情報処理システムにおける操作者端末の情報処理プログラムであって、操作者端末のCPUを、第1ディスプレイの操作画面に対する操作者による撮影行動を検知する撮影行動検知手段、および撮影行動検知手段によって撮影行動が検知された操作画面に、操作者に関連する埋込み画像を重畳する埋込み画像重畳手段として機能させる、情報処理プログラムである。
【0019】
第8の実施例は、操作画面を表示する第1ディスプレイを備える操作者端末と操作者のアバタを表示するアバタ表示画面を有する第2ディスプレイを備えるアバタ表示装置とがネットワークを介して連係して、操作者端末の操作者が、アバタを介して対話者と対話する情報処理システムにおけるアバタ表示装置としての情報処理装置であって、第2ディスプレイのアバタ表示画面に対する対話者または第三者による撮影行動を検知する撮影行動検知手段、および撮影行動検知手段によって撮影行動が検知されたアバタ表示面に、対話者または第三者に関連する埋込み画像を重畳する埋込み画像重畳手段として機能させる、情報処理装置である。
【0020】
第9の実施例は、操作画面を表示する第1ディスプレイを備える操作者端末と操作者のアバタを表示するアバタ表示画面を有する第2ディスプレイを備えるアバタ表示装置とがネットワークを介して連係して、操作者端末の操作者が、アバタを介して対話者と対話する情報処理システムにおけるアバタ表示装置の情報処理プログラムであって、アバタ表示装置のCPUを、第2ディスプレイのアバタ表示画面に対する対話者または第三者による撮影行動を検知する撮影行動検知手段、および撮影行動検知手段によって撮影行動が検知されたアバタ表示画面に、対話者または第三者に関連する埋込み画像を重畳する埋込み画像重畳手段として機能させる、情報処理プログラムである。
【発明の効果】
【0021】
この発明によれば、操作者やユーザ、あるいは第三者が操作者端末やロボットの画面を撮影するなどの情報漏洩行為をしたとき、撮影行動をした者に関連する埋込み画像を該当する画面上にたとえば電子透かしのように表示することによって、情報漏洩を抑制することができる。
【0022】
この発明の上述の目的、その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。
【図面の簡単な説明】
【0023】
図1図1はこの発明の一実施例を示す遠隔対話システムの概要を示す図解図である。
図2図2図1に示すロボットの電気的な構成を示すブロック図である。である。
図3図3図1に示す操作者端末の電気的な構成を示すブロック図である。
図4図4図1に示すサーバの電気的な構成を示すブロック図である。
図5図5図1実施例における第1類型を示す図解図である。
図6図6図1実施例における第2類型を示す図解図である。
図7図7図1実施例における第3類型を示す図解図である。
図8図8は操作者端末のメモリのメモリマップの一例を示す図解図である。
図9図9はロボットのメモリのメモリマップの一例を示す図解図である。
図10図10は第1類型に対処する操作者端末の情報処理動作の一例を示すフロー図である。
図11図11は第2類型および第3類型に対処するロボットの情報処理動作の一例を示すフロー図である。
【発明を実施するための形態】
【0024】
図1を参照して、情報処理装置の一例である、この実施例のアバタ遠隔対話システム10は、遠隔操作者がアバタ(遠隔操作型CGエージェント)を利用してサービスを提供するための基盤システム(プラットフォーム)である、アバタ遠隔操作基盤システム(CA:Cybernetic Avatar)を利用する。
【0025】
しかしながら、この発明は、必ずしもそのアバタ遠隔対話システム(CA)上のものである必要はなく、一般的には、ネットワーク12を介してロボット14に操作者端末16の操作者のアバタを表示し、あるいはロボット14自体を操作者のアバタとして機能させて、サーバ18の関与を得て、ユーザが遠隔対話を通してアバタ28によるサービスの提供を受けることができる、システムである。図1の実施例では、サーバ18が上述の基盤システムの機能を果たすように設定されている。
【0026】
この実施例では、一例として、Web Real-Time Communication(WebRTC)の技術によって、ロボット14と操作者端末16がP2P(Peer to Peer)通信を行い、Webブラウザを介して画像および/または音声をリアルタイムに送受信することができる。
【0027】
実施例のサーバ18がこのWebRTCに対処することができ、複数のサーバの組み合わせを利用している。具体的には、WebRTCを利用するための複数のサーバには、シグナリングサーバ、スタン(STUN)サーバ及びターン(TURN)サーバ等が含まれる。詳細な説明は省略するが、シグナリングサーバは、WebRTCによる通信相手に関する情報を取得するためのサーバである。また、スタンサーバおよびターンサーバは通信相手が異なるネットワークに存在している場合にいわゆるNAT(Network Address Translation)越えをするためのサーバである。
【0028】
さらに、この実施例に用いられるアバタ用ロボット(アバタ28を表示するためのロボットを意味し、以下、単に「ロボット」という。)14は、たとえばDouble Robotics, Inc.(ダブルロボティクス社)製の商品名「Double 3」のような、自律移動可能な、いわゆるテレプレゼンス(または、テレイグジステンス)ロボットである。ただし、ロボット14はこのような特定のロボットに限られることなく、特許文献1で開示しているようなロボットも利用可能であることを予め指摘しておく。
【0029】
実施例においては、このロボット14は、ネットワーク12に接続(無線または有線)された操作者端末16と通信可能である。操作者端末16は、ロボット14を遠隔操作する操作者が使用する汎用のコンピュータである。操作者は、操作者端末16を用いてロボット14にタスクを実行させるためのコマンドを送信する。また、操作者は、操作者端末16を用いて音声をロボット14に送信し、ロボット14から音声を出力することにより、ロボット14の近傍に存在する人または人物(ユーザ)と対話することができる。
【0030】
このロボット14は、ベース20を含み、このベース20の正面には移動用センサの1つである超音波センサ22が設けられる。また、このベース20の両端には左右の移動用車輪24Lおよび24Rが回転自在に設けられる。
【0031】
ベース20の上面には、上方に延びるポール26が設けられ、そのポール26の上端には、操作者のアバタ28を表示することができる、タッチディスプレイ30が設けられる。なお、このタッチディスプレイ(以下、単に「ディスプレイ」という。)30には、カメラやマイク、スピーカ等が設けられるが、詳細は図2に示すブロック図を参照して説明する。また、このロボット14は、バッテリ駆動型のロボットであり、バッテリはたとえばポール26の中に収容されている。
【0032】
この実施例では、ロボット14は、ネットワーク12に接続された操作者端末16と通信可能である。操作者端末16は、ロボット14を遠隔操作する操作者が使用する汎用のコンピュータである。操作者は、たとえば、操作者端末16を用いて画像および音声をロボット14に送信し、ロボット14のディスプレイ30に自分のアバタ28(図1)を表示し、ユーザと対話して、サービスを提供する。
【0033】
ここで、「サービス」とは、この実施例のアバタ遠隔対話システム10を利用して提供可能な、たとえば物品販売、家庭教師、観光案内などを含むものであって、データベース19に事前に登録されている。「操作者」とはこのアバタ遠隔対話システム10で、ロボット14のディスプレイ30にアバタ28を表示して、そのアバタ28を通してユーザに上記のサービスを提供する者であって、データベース19に事前登録されている者である。また、「ユーザ」とは、実施例のアバタ遠隔対話システム10において、ディスプレイ30に対面して操作者のアバタ28と対話しながらアバタによるサービスの提供を受ける者であって、データベース19に事前登録されている人または人物のことである。ただし、ディスプレイ30に対面している者が必ずしもここでいう「ユーザ」に該当しないこともあるので、ディスプレイ30のアバタ28と対話している者を「対話者」と呼ぶ場合がある。さらに、「画像」および「映像」の語は、静止画像および動画像の一方または両方を包含する用語として使用されることがあることを予め留意されたい。
【0034】
なお、データベース19に事前に登録されるデータとしては、接続条件(提供するサービス、操作者のID(識別情報)、アバタのID、ユーザのIDなど)、埋込み情報などであり、リアルタイムの日時のデータを併せて記録する。
【0035】
また、ロボット14から送信される画像データ(動画像または静止画像)および音声データを操作者端末16で受信し、操作者端末16で画像および音声を出力することにより、操作者は、ロボット14の周囲を見たり、ロボット14の周囲の状況を把握したり、ロボット14のディスプレイ30に対面しているユーザと対話することができる。
【0036】
なお、操作者端末16でロボット14の移動等を操作することは既に周知であり、また、この発明にとって本質的な事項ではないため、ここではその遠隔操作についての詳細な説明は省略する。
【0037】
アバタ表示画面を表示する機能を有するディスプレイ30には、よく知られているように、画像を表示するディスプレイの表面に(または内蔵されて)タッチパネルが設けられており、タッチすることによって、ディスプレイ30上の位置をポイントすることができる。
【0038】
図2はロボット14のブロック図である。ここでは、実施例の説明に必要な範囲で、図2を参照して、ロボット14を説明する。
【0039】
アバタ表示装置の一例として機能するロボット14はさらに、CPU32およびメモリ34を含む。メモリ34は、詳細は図示しないが、RAM、ROM、HDD(ハードデイスクドラブ)等を含む。CPU32には、バス36が接続されており、このバス36には、メモリ34のRAM、ROM、HDD等が電気的に接続される。CPU32は、コンピュータプログラムを実行することによって、情報漏洩抑止処理や自律移動等の動作を実行する。
【0040】
通信部38は、ネットワーク12を介して、操作者端末16およびサーバ18と通信して、画像データおよび音声データを授受する。
【0041】
ロボット14には全方位カメラ40および対話者カメラ42が設けられ、それらはカメラインタフェース(I/F)を通してバス36に接続される。全方位カメラ40は、図1では図示を省略したがたとえばディスプレイ30の上方に設けられて、ディスプレイ30のアバタ28(図1)と対話するユーザの背景を撮影する。具体的には、ユーザの周囲に存在する第三者の画像を取得することによって、後述する第三者による情報漏洩行為、たとえばディスプレイ30の画面を撮影する行為を検知することができる。
【0042】
対話者カメラ42は、たとえば横方向に間隔を隔てた2つのカメラ(ステレオカメラ)であって、ディスプレイ30に対面して操作者のアバタ28(図1)と対話する対話者(アバタと対話している対話相手のこと。便宜上、「対話者」ということにする。)を撮影する。必要に応じて、パン、チルトおよびズームすることができる。カメラI/F44には、全方位カメラ40や対話者カメラ42において、パン、チルトおよびズームの機能や、ホワイトバランスや露出制御を自動的に実行するプロセサが設けられてもよい。
【0043】
レーザ距離計46は、特定の人を追跡するためなどの目的で設けられるものであり、後述のレーザ距離計56はこのロボット14の自律移動のためのものである。
【0044】
ロボット14はさらに、たとえば6個のマイクを配列して広い範囲の音声を集音できるマイク48を備える。このマイク48は、スピーカ50と同様に、たとえばディスプレイ30に内蔵して設けられる。スピーカ50は、ロボット14の前のユーザと対話する操作者の音声を出力する。マイク48およびスピーカ50は、音声I/F52を介してバス36に接続される。
【0045】
図1に示す超音波センサ22は、移動用センサI/F54を介してバス36に接続される。この移動用センサI/F54にはさらに、レーザ距離計56が接続される。レーザ距離計56は先のレーザ距離計46と兼用されてもよい。つまり、ロボット14の移動中と、ロボット14の移動を停止してアバタ28による対話中とで、1つのレーザ距離計を使い分けるようにしてもよい。
【0046】
慣性計測ユニット58もまた移動用センサI/F54に接続されるが、この慣性計測ユニット58は3次元の慣性運動(直交3軸方向の並進運動および回転運動)を検出する装置であって、加速度センサによって並進運動を検出し、角速度(ジャイロ)センサによって回転運動を検出する。
【0047】
バス36にはさらに、モータドライバ60が接続される。このモータドライバ60は、CPU32の命令に従って、右車輪モータ62Rおよび左車輪モータ62Lを制御する。つまり、CPU32は、移動用センサI/F54およびモータドライバ60から得られる状況を示すデータに基づいて、モータドライバ60によって、右車輪モータ62Rおよび左車輪モータ62Lを制御する。
【0048】
ロボット14はさらに、位置検出装置63を備える。位置検出装置63としては、種々のものが考えられる。たとえば、ロボット14が基本的に室内(館内)での利用を想定されたものであれば、たとえば右車輪モータ62Rおよび左車輪モータ62Lに関連して設けられるエンコーダ(図示せず)からの車輪回転情報を利用して、自身の位置を計算するような位置検出装置が考えられる。
【0049】
さらに、もし室内の床に位置検知用のマットを敷設している場合であれば、ロボット14の位置検出装置63としては、そのような位置検知用マットを検出してその座標位置を特定する位置検出装置が考えられる。
【0050】
また、位置検出装置63は、GPS装置であってよい。
【0051】
いずれのタイプの位置検出装置63であっても、その位置検出装置63が検出したロボット14の位置情報(位置データ)は、必要に応じて、通信部38からサーバ18へ送られる。
【0052】
図3は操作者の操作者端末16のブロック図である。操作者端末16は汎用のコンピュータであるが、ここでは、実施例の説明に必要な範囲で、図3を参照して、操作者端末16の構成を説明する。
【0053】
操作者端末16は、CPU64およびメモリ66を含む。メモリ66は、詳細は図示しないが、RAM、ROM、HDD等を含む。CPU64には、バス68が接続されており、このバス68には、メモリ66のRAM、ROM、HDD等が電気的に接続される。CPU64は、コンピュータプログラムを実行することによって、必要な動作を実行する。
【0054】
操作者端末16は、音声I/F70を介してバス68に接続される、マイク72およびスピーカ74を備える。操作部76は、図示しないが、タッチディスプレイやキーボードを含む。これらのマイク72、スピーカ74および操作部76を用いて、操作者はロボット14のディスプレイ30に自身のアバタ28(図1)を表示させて、ディスプレイ30に対面するユーザとの遠隔対話を実行する。
【0055】
操作者端末16には操作者カメラ77が設けられ、この操作者カメラ77はカメラインタフェース(I/F)79を通してバス68に接続される。操作者カメラ77は、たとえば横方向に間隔を隔てた2つのカメラ(ステレオカメラ)であって、ディスプレイ80に対面している操作者を撮影する。必要に応じて、パン、チルトおよびズームすることができる。カメラI/F79には、操作者カメラ77において、パン、チルトおよびズームの機能や、ホワイトバランスや露出制御を自動的に実行するプロセサが設けられてもよい。
【0056】
通信部78は、ネットワーク12を介して、ロボット14およびサーバ18と通信して、画像データおよび音声データを授受する。
【0057】
ディスプレイ80には、操作画面が表示されるが、その操作画面には、たとえばロボット14の全方位カメラ40や対話者カメラ42が撮影したユーザや第三者等の画像を表示する。なお、操作部76あるいはディスプレイ80がタッチディスプレイである場合はディスプレイ80に、ディスプレイ80の画面をスクリーンショットとして記録するためのキーやアイコンが設けられてもよい。
【0058】
図4はサーバ18のブロック図である。サーバ18は上述のようにWebRTC用のコンピュータであるが、ここでは、実施例の説明に必要な範囲で、図4を参照して、サーバ18の構成を説明する。
【0059】
サーバ18は、CPU82およびメモリ84を含む。メモリ84は、詳細は図示しないが、RAM、ROM、HDD等を含む。CPU82には、バス86が接続されており、このバス86には、メモリ84のRAM、ROM、HDD等が電気的に接続される。CPU82は、コンピュータプログラムを実行することによって、匿名化処理等の必要な動作を実行する。
【0060】
サーバ18は、音声I/F88を介してバス86に接続される、マイク90およびスピーカ92を備える。操作部94は、図示しないが、タッチディスプレイやキーボードを含む。
【0061】
位置検出装置95は、たとえばロボット14が移動する室内に複数設置したカメラを含み、それぞれカメラ(図示せず)の画像を解析して、対象のロボット14の位置を検出する。その他に、位置検出装置95としては、公知のレーザ距離計を用いてロボット14の位置を検出する装置であってもよい。
【0062】
通信部96は、ネットワーク12を介して、ロボット14および操作者端末16と通信して、画像データおよび音声データを授受する。特に、ロボット14から画像データおよび音声データだけでなく、位置検出装置63で検出したロボット14の位置データを受信し、ロボット14の位置によって必要な場合、匿名化処理を施した画像データおよび音声データを操作者端末16へ送信する。
【0063】
ディスプレイ98には、ロボット14の全方位カメラ40や対話者カメラ42が撮影したユーザ等の画像および操作者端末16の操作者カメラ77が撮影した操作者の画像を表示する。
【0064】
なお、図1実施例のアバタ遠隔対話システム10は、移動可能なロボット14にユーザが対面して操作者のアバタ28を表示するディスプレイ30を設けているが、ディスプレイ30は、移動可能なロボットにではなく、通常のコンピュータ、たとえばデスクトップコンピュータ、ラップトップコンピュータ、タブレットコンピュータなどに設けられていてもよい。この場合も、これらのコンピュータはロボット14と同じように、アバタ28を表示するディスプレイ30を有するアバタ表示装置として機能する。
【0065】
図5図7は、図1実施例のアバタ遠隔対話システム10における情報漏洩行為の3類型(第1類型、第2類型および第3類型)を示す図解図である。
【0066】
図5に示す第1類型は、ロボット14と操作者端末16との接続が完了した後に、操作者100およびユーザ102がディスプレイ80および30を通して対話している状況において生じる。
【0067】
ロボット14は、たとえば店舗104に設置されて、操作者100がユーザ102にたとえば商品販売のようなサービスを提供し、その店舗104におけるロボット14の周囲には第三者106が存在する。操作者端末16のディスプレイ80には、操作者100の画像(操作者画像)100aおよびユーザ102の画像(ユーザ画像)102aが表示されていて、ロボット14のディスプレイ30には、操作者のアバタ28が表示されている。
【0068】
この状況は図7に示す第3類型にも共通するが、情報漏洩の第1類型は、操作者100がたとえばスマートフォン108を操作して、操作者端末16のディスプレイ80の画面を撮影しようとしている場合である。
【0069】
これに対して、第3類型の1つの側面は、後述するように、第三者106が、ロボット14のディスプレイ30の画面を撮影しようとする場合である。
【0070】
図5の第1類型では、操作者端末16が、操作者100のディスプレイ80の画面に向けたスマートフォン108による撮影行動を検知して、画面に操作者を特定する埋込み画像(操作者ID100b、日時など)を電子透かし画像ないし埋込み画像として表示する。その結果、操作者100が操作するスマートフォン108には、操作者画像100aおよびユーザ画像102aの他に、ディスプレイ80に対して撮影行動をした者、ここでは操作者100に関連する埋込み画像が写り込んだ画像が残ることになる。
【0071】
ただし、操作者100による撮影行為は、スマートフォン108のような撮影手段をディスプレイ80の画面に向けるジェスチャを検知するだけでなく、図示しないが、たとえば操作部76のスクリーンショット用のキーの操作を検知したり、タッチスクリーンのスクリーンショット用のアイコンの操作を検知したりすることによって、検知することができる。
【0072】
想定できる状況の一例としては、操作者100である田中さんはアバタを利用した遠隔案内サービスを提供している業者に登録して操作者として働いている。操作者端末16のディスプレイ80に表示された操作画面にはロボット14に搭載された対話者カメラ42の画像、すなわちユーザ画像102aが表示されている。
【0073】
ある日、たまたま通りかかった知り合いが対話者カメラ42の画像として操作し画面に表示されたためスマートフォン108で画面を撮影して友人にシェアしたいと考えた。
【0074】
ただ、表示画像には操作者100である田中さん自身の氏名、日時、操作者IDなどが埋込み画像100bとして重畳表示されているため、田中さんは撮影を思い止まる。つまり、図1実施例のアバタ遠隔対話システム10において、操作者100による情報漏洩行為が効果的に抑止される。
【0075】
図6に示す第2類型は、操作者100が教師とし、ユーザ102が生徒となる、アバタ家庭教師サービスにおいて生じると想定している。
【0076】
家庭教師サービスでは、操作者端末16のディスプレイ80には、ユーザ画像102aが表示されていて、ロボット14のディスプレイ30には、操作者のアバタ28が表示されている。
【0077】
情報漏洩の第2類型は、ユーザ102がたとえばスマートフォン108を操作して、ロボット14のディスプレイ30の画面を撮影しようとしている場合である。
【0078】
この状況でユーザ102がスマートフォン108のような撮影手段をディスプレイ30の画面に向けると、その撮影行為(情報漏洩行為)がジェスチャとして検出され、ロボット14のディスプレイ30には、通常のアバタ28だけでなく、図6において点線で示すユーザ画像102aが、埋込み画像(電子透かし)として、表示される。つまり、対象のディスプレイ30に対して撮影行動をした者、ここではユーザに関連した埋込み画像が電子透かしとして重畳される。
【0079】
ただし、第2類型の埋込み画像としては、ユーザ画像102aに加えて、あるいはユーザ画像102aに代えて、ユーザ管理データ記憶領域126c(図9)に記憶されているユーザIDを含む画像を利用してもよい。
【0080】
想定できる状況としては、ユーザ102である、ユウマくんはアバタ28を介した家庭教師サービスを利用して勉強している。
【0081】
ロボット14のディスプレイ30にアバタ28として表示された先生(操作者100)の顔や教材のビデオを友達と共有するためにスマートフォン108で撮影しようとしたが、先生(操作者)から「アバタの画面にはユウマくんの顔や名前が写っているから撮らないほうがいいよ」と言われて、撮影をやめた。つまり、図1実施例のアバタ遠隔対話システム10において、ユーザ102による情報漏洩行為が効果的に抑止される。
【0082】
ただし、ユーザ102による撮影行為は、スマートフォン108をディスプレイ30の画面に向けるジェスチャを検知するだけでなく、図示しないが、たとえばディスプレイ30がタッチディスプレイである場合、そのタッチスクリーンのスクリーンショット用のアイコンの操作を検知したりすることによって、検知することができる。
【0083】
図7に示す第3類型は、先に説明したように、第1類型と同じような状況で起こる。
【0084】
第3類型では、店舗104内で、操作者100とユーザ102がアバタを介して対話している状況において、第三者106がロボット14のディスプレイ30の画面をスマートフォン108で撮影しようとしている。ただし、図7の状況では、ロボット14の近くに、「撮影はご遠慮ください。」という注意看板110が設置されているが、その注意看板110があるにも拘わらず、第三者106がロボット14のディスプレイ30の画面をスマートフォン108で撮影しようとしている。
【0085】
図7の状況でも、図6の状況と同じく、図7(A)で示すようにロボット14のディスプレイ30には通常、アバタ28だけが表示されるが、ロボット14が第三者106の撮影行為(情報漏洩行為)をジェスチャとして検出すると、アバタ28だけでなく、ロボット14の全方位カメラ40または対話者カメラ42で撮影した図7(B)において点線で示す第三者106の画像(第三者画像)106aが、埋込み画像(電子透かし)として、表示される。つまり、対象のディスプレイ30に対して撮影行動をした者、ここでは第三者106に関連する埋込み画像が重畳される。
【0086】
想定できる状況としては、第三者106である佐藤さんはたまたま買い物に訪れたショッピングモールでアバタが接客しているところに遭遇した。面白いと思った佐藤さんは、その様子をスマートフォン108で撮影し、帰宅後にSNSにアップしようとしたがよく見ると、ロボット14のディスプレイ30にはアバタの画像(アバタ画像)100aの他に自分が写り込んでいることに気が付いたため、思い止まった。つまり、図1実施例のアバタ遠隔対話システム10において、第三者106による情報漏洩行為が効果的に抑止される。
【0087】
なお、図7に示す状況において、ユーザ102が撮影行動を行ったときは、図6の第2類型の場合と同じように、ディスプレイ30に、ユーザに関連する埋込み画像が表示される。
【0088】
操作者端末16のメモリ66の詳細が図8に示される。メモリ66は、プログラム記憶領域112およびデータ記憶領域114を有する。
【0089】
プログラム記憶領域112には、アバタ遠隔対話システム10としての基本的なプログラム、たとえば操作者端末16がロボット14やサーバ18と通信するための通信プログラム116a、サーバ18によるロボット14との接続に対応する接続プログラム116bおよびアバタサービスを提供するためのサービス提供プログラム116cが設定される。
【0090】
この実施例では、これらのプログラムの他、プログラム記憶領域112には、撮影行動検知プログラム116d、操作者同定プログラム116e、画像および/または音声(以下、単に「画像/音声」と記載する場合がある。)出力検知プログラム116f、可視埋込みプログラム116g等が予め設定されている。
【0091】
撮影行動検知プログラム116は、先に説明したように、撮影手段、たとえばスマートフォン108を用いて画面を撮影するジェスチャを画像処理技術によって認識することで、検知するプログラムである。画像処理技術を用いるので、撮影行動を容易に検知することができる。
【0092】
撮影行動検知プログラム116は、その他、操作者端末16のスクリーンショット用のキー操作やタッチ操作を撮影行動として検知することもできる。
【0093】
操作者同定プログラム116eは、画像認識技術(たとえば顔認証)によって、ログインした操作者または操作者としてデータベース19に登録済みの人物の画像が、操作者端末16の操作者カメラ77で撮影されてディスプレイ80の操作画面に表示されていることを検知するためのプログラムである。つまり、カメラ77で撮影された人物が操作者であることを画像認識技術によって同定するプログラムである。
【0094】
ただし、この操作者同定プログラム116eは、この画像による同定に加えて、あるいはそれに代えて、マイク72から入力された音声を音声認識技術(たとえば声紋認証)によって、ログインした操作者または操作者としてデータベース19に登録済みの人物を同定するようにしてもよい。
【0095】
画像/音声出力検知プログラム116fは、ログインした操作者または操作者として登録済の人物の画像/音声がディスプレイ80の操作画面に表示され/スピーカ74から出力されていることを検知するプログラムである。
【0096】
可視埋込みプログラム116gは、先に説明したように、操作者端末16のディスプレイ80の操作画面に、図5のような埋込み画像100bを電子透かしとして表示するためのプログラムである。
【0097】
操作者端末16のメモリ66のデータ記憶領域114には、この実施例のアバタ遠隔対話システム10において提供できるサービスを管理するためのサービス管理データを記憶するサービス管理データ記憶領域118aを含む。
【0098】
さらに、操作者管理データ記憶領域118bおよびユーザ管理データ記憶領域118cには、操作者端末16とロボット14との接続が完了したとき、サーバ18から送られてきた、ログインしている操作者のデータ(操作者IDなど)およびユーザのデータ(ユーザIDなど)を、一時的に(たとえば、そのサービスの提供が終了するまで)記憶する。
【0099】
データ記憶領域114はさらに、画像/音声データ記憶領域118dおよび埋込み画像データ記憶領域118eなどを含む。
【0100】
画像/音声データは、操作者カメラ77が撮影した画像のデータ/マイク72で取得した音声のデータであり、上述の操作者同定などのために使用される。
【0101】
埋込み画像100bとしては、第1類型で説明したように、操作者IDや日時データなどを含む、操作者100に関連した埋込み画像(電子透かし用の画像データ)である。
【0102】
ロボット14のメモリ34の詳細が図8に示される。メモリ34は、プログラム記憶領域120およびデータ記憶領域122を有する。
【0103】
プログラム記憶領域120には、アバタ遠隔対話システム10としての基本的なプログラム、たとえばロボット14が操作者端末16やサーバ18と通信するための通信プログラム124a、サーバ18によるロボット14との接続に対応する接続プログラム116bおよびアバタサービスを受けるためのサービス提供プログラム116cが設定される。
【0104】
この実施例では、これらのプログラムの他、プログラム記憶領域120には、撮影行動検知プログラム124d、対話者同定プログラム124e、画像/音声出力検知プログラム124f、可視埋込みプログラム124g等が予め設定されている。
【0105】
撮影行動検知プログラム124は、先に説明したように、撮影手段、たとえばスマートフォン108を用いて画面を撮影するジェスチャを画像処理技術によって認識することで、検知するプログラムである。画像処理技術を用いるので、撮影行動を容易に検知することができる。
【0106】
ただし、その他に、撮影行動検知プログラム124では、ロボット14のスクリーンショット用のキー操作やタッチ操作を検知することによっても、撮影行動を検知することができる。このとき検知する撮影行動は、ユーザ102によるものの他、第三者106によるものも検出する。ただし、第三者106の撮影行動は、撮影手段、たとえばスマートフォン108を用いて画面を撮影する行為だけを検知することになる。第三者106はロボット14やディスプレイ30を直接触ることをしないであろうからである。
【0107】
対話者同定プログラム124eは、画像認識技術(たとえば顔認証)によって、ログインしたユーザまたはユーザとしてデータベース19に登録済みの人物の画像が、ロボット14の対話者カメラ42で撮影されてディスプレイ30のアバタ画面に表示されていることを検知するためのプログラムである。つまり、対話者カメラ42で撮影された人物がユーザであることを画像認識技術によって同定するプログラムである。
【0108】
ただし、この対話者同定プログラム124eは、この画像による同定に加えて、あるいはそれに代えて、マイク48から入力された音声を音声認識技術(たとえば声紋認証)によって、ログインしたユーザまたはユーザとしてデータベース19に登録済みの人物を同定するようにしてもよい。
【0109】
画像/音声出力検知プログラム124fは、ログインしたユーザまたはユーザとして登録済の人物の画像/音声がディスプレイ30のアバタ画面に表示され/スピーカ50から出力されていることを検知するプログラムである。
【0110】
可視埋込みプログラム124gは、先に説明したように、ロボット14のディスプレイ30のアバタ画面に、図6または図7のような埋込み画像102aまたは106aを電子透かしとして表示するためのプログラムである。
【0111】
ロボット14のメモリ34のデータ記憶領域122には、この実施例のアバタ遠隔対話システム10において提供されるサービスを管理するためのサービス管理データを記憶するサービス管理データ126aを含む。
【0112】
さらに、操作者管理データ記憶領域126bおよびユーザ管理データ記憶領域126cには、ロボット14と操作者端末16との接続が完了したとき、サーバ18から送られてきた、ログインしている操作者のデータ(操作者IDなど)およびユーザのデータ(ユーザIDなど)を、一時的に(たとえば、そのサービスの提供が終了するまで)記憶する。
【0113】
データ記憶領域122はさらに、画像/音声データ記憶領域126dおよび埋込み画像データ記憶領域126eなどを含む。
【0114】
画像/音声データは、全方位カメラ40および対話者カメラ42が撮影した画像のデータ/マイク74で取得した音声のデータであり、上述の操作者同定などのために使用される。ユーザ102の画像102aまたは第三者106の画像106aなどは、電子透かしによる埋込み画像として利用される。
【0115】
続いて、図10を参照して、図5に示す第1類型に対処できる、主としてCPU64(図3)による操作者端末16の動作を説明する。なお、図10(および図11)の動作は、操作者端末16とロボット14との接続が完了した後の動作であり、所定周期、たとえばフレーム周期で繰り返し実行されることを予め指摘しておく。
【0116】
図10の最初のステップS1では、CPU64は、撮影行動検知プログラム116dに従って、先に説明したように、ジェスチャおよび/またはキー操作に基づいて、操作者100による撮影行動を検知する。
【0117】
続くステップS3では、操作者同定プログラム116eに従って、操作者端末16の操作者カメラ77で撮影されてディスプレイ80に表示されている人物がログインした操作者または操作者としてデータベース19に登録済みの人物であるかどうか検知する。
【0118】
次のステップS5で何者かによる撮影行動が検知されているかを、ステップS1の結果に従って、判断する。
【0119】
ステップS5で“YES”を判断すると、CPU64は、続くステップS7で可視埋込みプログラム116gに従って、埋込み画像(操作者ID100b+日時データなど)をディスプレイ80の操作画面に重畳する。このとき、操作者はまだ同定されていないが、先の接続ステップ(図示せず)の際に操作者として既にログインしているので、埋込み画像はそのとき入力した操作者IDに基づいて生成されて、埋込み画像データ記憶領域118e(図8)に記憶されている。したがって、ステップS7では、その埋込み画像を使用して、可視埋込み(電子透かし表示)を実行する。
【0120】
ステップS5で“NO”を判断したとき、撮影行動を検知していないので、本来であれば、可視埋込みプログラム116gによる埋込み画像の重畳は行わなくてよいが、撮影行動検知プログラム116dによるステップS1での撮影行動の検知が必ずしも確実ではないことを懸念して、この実施例では、「撮影行動が検知されていない」、「操作者が同定されている」および「操作者の画像/音声が出力されている」という3つの条件が全て揃ったときのみ、操作者に関連する埋込み画像による可視埋込みを解除することにしている。
【0121】
そのため、ステップS3の実行の結果として、ステップS9での操作者が同定されているか?という判断で“NO”となったときも、ステップS7に進む。このときにも、埋込み画像データ記憶領域118e(図8)に記憶されている埋込み画像を使用して、可視埋込み(電子透かし表示)を実行する。
【0122】
さらに、次のステップS11で画像/音声出力検知プログラム116fによって操作者の画像/音声の出力を検知する。
【0123】
その結果、操作者の画像/音声の出力が検知されなかったとき、つまりステップS13で“NO”が判断されたときも、ステップS5に進む。このときにも、埋込み画像データ記憶領域118e(図8)に記憶されている埋込み画像を使用して、可視埋込み(電子透かし表示)を実行する。
【0124】
そして、ステップS13で“NO”を判断したときには、ステップS15で、埋込み画像による可視埋込みは、解除(オフ)される。
【0125】
このようにして、第1類型に対処することができる。
【0126】
次に、図11を参照して、図6に示す第2類型および/または図7に示す第3類型に対処できる、主としてCPU32(図2)によるロボット14の動作を説明する。
【0127】
図11の最初のステップS21では、CPU32は、撮影行動検知プログラム124dに従って、先に説明したように、ジェスチャおよび/またはキー操作に基づいて、ユーザ102または第三者106による撮影行動を検知する。
【0128】
続くステップS23では、対話者同定プログラム124eに従って、ロボット14の対話者カメラ42で撮影されてディスプレイ30に表示されている人物がログインしたユーザまたはユーザとしてデータベース19に登録済みの人物であるかどうか検知する。
【0129】
そして、ステップS25で何者かによる撮影行動が検知されているかを、ステップS1の結果に従って、判断する。
【0130】
ステップS25で“YES”を判断すると、CPU32は、次のステップS25でその撮影行動をしている者がデータベース19(図1)に登録された者かどうか判断する。ここでは、データベース19から取得してユーザ管理データ記憶領域126cに記憶されているユーザ管理データと照合することで、撮影行動をした者が登録した人物かどうか判定できる。
【0131】
ステップS25で“YES”を判断すると、続くステップS27において、撮影行動を検知した者が、データベース19に登録された人物かどうか判断する。このステップS27を設けているのは、アバタ28を通しての操作者とユーザの対話(アバタ対話)が行われている場面で、現在の直接の対話者以外にも登録済人物がいる場合に登録画像や登録IDを利用した重畳が可能であると考えられるためである。
【0132】
ステップS27で“YES”を判断したとき、CPU32は、続くステップS29で、可視埋込みプログラム124gに従って、対話者に関連する埋込み画像(ユーザID100b+日時データなど)をディスプレイ30に表示されている操作者のアバタ28に重畳する。
【0133】
ステップS27で“NO”を判断したとき、つまりディスプレイ30に対する撮影行動をしている者がデータベースに登録された者ではないとき、CPU32は、ステップS31において、そのときディスプレイ30に対する撮影行動をしている者、すなわち、第三者の画像106a(図7)を埋込み画像として可視埋込みを実行する。ただし、この第三者画像はロボット14に設けた、全方位カメラ40および/または対話者カメラ42で撮影したものを画像/音声データ記憶領域126d(図9)に記憶しているので、それを使えばよい。
【0134】
ステップS25で“NO”を判断したとき、撮影行動を検知していないので、本来であれば、可視埋込みプログラム124gによる埋込み画像の重畳は行わなくてよいが、撮影行動検知プログラム124dによるステップS21での撮影行動の検知が必ずしも確実ではないことを懸念して、この実施例では、「撮影行動が検知されていない」、「対話者が同定されている」および「対話者の画像/音声が出力されている」という3つの条件が全て揃ったときのみ、対話者に関連する埋込み画像による可視埋込みを解除することにしている。
【0135】
そのため、ステップS23の実行の結果として、ステップS33での対話者が同定されているかという判断で“NO”となったときも、ステップS29に進む。このときにも、埋込み画像データ記憶領域126e(図9)に記憶されている埋込み画像を使用して、可視埋込み(電子透かし表示)を実行する。
【0136】
さらに、ステップS35で画像/音声出力検知プログラム126fに従って、対話者の画像/音声の出力を検知する。その結果において、ステップS37よって対話者の画像/音声の出力が検知されなかったとき、つまりステップS37で“NO”が判断されたときも、ステップS29に進む。このときにも、埋込み画像データ記憶領域126e(図9)に記憶されている埋込み画像を使用して、可視埋込み(電子透かし表示)を実行する。
【0137】
そして、ステップS37で“NO”を判断したときには、ステップS39で、埋込み画像による可視埋込みは、解除(オフ)される。
【0138】
このようにして、第2類型および第3類型に対処することができる。
【0139】
なお、図10の実施例は操作者がディスプレイ80の操作画面を撮影しようとした第1類型に対処し、図11の実施例はユーザまたは第三者がディスプレイ30のアバタ表示画面を撮影しようとした第2類型および第3類型に対処するものであるが、これら3類型が同じ状況の中で生起されることもある。たとえば、図7に示す状況において、操作者がディスプレイ80の操作画面を撮影し、ユーザまたは第三者がディスプレイ30のアバタ表示画面を撮影する場合などである。つまり、この発明は、操作画面およびアバタ表示画面の少なくとも一方に対する撮影行動を検知したとき、その撮影行動をした者に関連する埋込み画像を電子透かしの手法で、操作画面およびアバタ表示画面の少なくとも一方に重畳するものである。
【0140】
さらに、上述の実施例では、操作者端末16が操作者による情報漏洩に対処し、ロボット(アバタ表示装置)14がユーザまたは第三者の情報漏洩に対処するようにしたが、サーバ18がそれらに対処するようにしてもよい。この場合には、撮影行動が操作者端末16またはロボット(アバタ表示装置)14で検知したとき、そのことをサーバ18に伝え、サーバ18が埋込み画像を該当するディスプレイ80または30に表示するようにすればよい。
【0141】
さらに、上述の実施例で示したフロー図において、同じ結果が得られるのであれば、各ステップの実行する順番は適宜変更することが可能である。
【符号の説明】
【0142】
10 …アバタ遠隔対話システム
12 …ネットワーク
14 …アバタ用ロボット
16 …操作者端末
18 …サーバ
30、80 …ディスプレイ
32、64、82 …CPU
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11