IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 株式会社国際電気通信基礎技術研究所の特許一覧

特開2024-43332アバタ制御装置、アバタ制御プログラムおよびアバタ制御方法
<>
  • 特開-アバタ制御装置、アバタ制御プログラムおよびアバタ制御方法 図1
  • 特開-アバタ制御装置、アバタ制御プログラムおよびアバタ制御方法 図2
  • 特開-アバタ制御装置、アバタ制御プログラムおよびアバタ制御方法 図3
  • 特開-アバタ制御装置、アバタ制御プログラムおよびアバタ制御方法 図4
  • 特開-アバタ制御装置、アバタ制御プログラムおよびアバタ制御方法 図5
  • 特開-アバタ制御装置、アバタ制御プログラムおよびアバタ制御方法 図6
  • 特開-アバタ制御装置、アバタ制御プログラムおよびアバタ制御方法 図7
  • 特開-アバタ制御装置、アバタ制御プログラムおよびアバタ制御方法 図8
  • 特開-アバタ制御装置、アバタ制御プログラムおよびアバタ制御方法 図9
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024043332
(43)【公開日】2024-03-29
(54)【発明の名称】アバタ制御装置、アバタ制御プログラムおよびアバタ制御方法
(51)【国際特許分類】
   B25J 13/00 20060101AFI20240322BHJP
【FI】
B25J13/00 Z
【審査請求】未請求
【請求項の数】6
【出願形態】OL
(21)【出願番号】P 2022148458
(22)【出願日】2022-09-16
【国等の委託研究の成果に係る記載事項】(出願人による申告)令和2年度、国立研究開発法人科学技術振興機構、ムーンショット型研究開発事業「抱擁型生命感CAの研究開発」委託研究、産業技術力強化法第17条の適用を受ける特許出願
(71)【出願人】
【識別番号】393031586
【氏名又は名称】株式会社国際電気通信基礎技術研究所
(74)【代理人】
【識別番号】100090181
【弁理士】
【氏名又は名称】山田 義人
(72)【発明者】
【氏名】塩見 昌裕
(72)【発明者】
【氏名】飯尾 尊優
(72)【発明者】
【氏名】木本 充彦
【テーマコード(参考)】
3C707
【Fターム(参考)】
3C707CS08
3C707HS27
3C707JS03
3C707KS31
3C707KS36
3C707KS39
3C707KT01
3C707KT04
3C707KW01
3C707MS07
3C707MS14
3C707WA03
3C707WA16
3C707WM07
(57)【要約】
【課題】 操作者の咳やくしゃみに応じて、咳エチケットの動作をアバタに実行させることができる、アバタシステムを提供する。
【解決手段】 アバタシステム(10)は、ネットワーク(11)で連係された操作者端末(12)、アバタとしてのロボット(14)およびサーバ(16)を含み、操作者端末(12)に関連して、カメラ(32)、マイク(34)およびモーションキャプチャ(36)が設けられる。これらからの音声データや映像データあるいはモーションデータに基づいて、操作者端末(12)は操作者(13)が咳やくしゃみをしたことを検出したとき、操作者端末(12)は、ロボット(14)(アバタ)を制御して、いわゆる咳エチケットの動作を行わせる。たとえば、顔を人の顔から背けさせる、胴体を人とは違う方向に向けさせる、腕または手によって口に相当する部分を押さえさせる等である。
【選択図】 図8
【特許請求の範囲】
【請求項1】
操作者が操作することによってアバタを遠隔制御するアバタ制御装置であって、
前記操作者の状態を検知する状態検知手段、
前記状態検知手段が検知した前記操作者の状態に基づいて前記操作者の咳および/またはくしゃみを検出する咳くしゃみ検出手段、および
前記咳くしゃみ検出手段が前記操作者の咳および/またはくしゃみを検出したとき、前記アバタに咳エチケット動作をさせるように、前記アバタを制御するアバタ制御手段を備える、アバタ制御装置。
【請求項2】
前記アバタは顔を有し、
前記アバタ制御手段は、前記アバタの前記顔を前記アバタの面前の人の顔から背けさせる顔背け手段を含む、請求項1記載のアバタ制御装置。
【請求項3】
前記アバタは上半身または胴体を有し、
前記アバタ制御手段は、前記アバタの前記胴体を前記アバタの面前の人とは違う方向に向けさせ、または移動させる上半身または胴体制御手段を含む、請求項1記載のアバタ制御装置。
【請求項4】
前記アバタは腕または手および口に相当する部分を有し、
前記アバタ制御手段は、前記アバタの前記腕または手によって前記口に相当する部分を押さえさせる口押え手段を含む、請求項1記載のアバタ制御装置。
【請求項5】
操作者が操作することによってアバタを遠隔制御するアバタ制御装置のアバタ制御プログラムであって、前記アバタ制御プログラムは前記アバタ制御装置のCPUを、
前記操作者の状態を検知する状態検知手段、
前記状態検知手段が検知した前記操作者の状態に基づいて前記操作者の咳および/またはくしゃみを検出する咳くしゃみ検出手段、および
前記咳くしゃみ検出手段が前記操作者の咳および/またはくしゃみを検出したとき、前記アバタに咳エチケット動作をさせるように、前記アバタを制御するアバタ制御手段として機能させる、アバタ制御プログラム。
【請求項6】
操作者が操作することによってアバタを遠隔制御するアバタ制御装置のアバタ制御方法であって、
前記操作者の状態を検知し、
前記操作者の状態に基づいて前記操作者の咳および/またはくしゃみを検出し、そして
前記操作者の咳および/またはくしゃみを検出したとき、前記アバタに咳エチケット動作をさせるように、前記アバタを制御する、アバタ制御方法。
【発明の詳細な説明】
【技術分野】
【0001】
この発明はアバタ制御装置、アバタ制御プログラムおよびアバタ制御方法に関し、特にたとえば、操作者に対面するアバタに「咳エチケット」を行わせる、新規なアバタ制御装置、アバタ制御プログラムおよびアバタ制御方法に関する。
【背景技術】
【0002】
アバタ(バーチャルエージェントやロボット)を遠隔操作して操作者と対話する仮想空間であっても、咳動作が対人距離を増加させ、心理的印象を損ねることが明らかになっていることから、それらの印象を緩和するための仕組みが必要である。
【0003】
特許文献1に開示された背景技術では咳を音声から検出し、その音が発生した場所を画像から推定してさらに精度よく咳動作を推定する。
【0004】
また、特許文献2に開示された背景技術では、自律動作型アンドロイド(アンドロイド:登録商標)のジェスチャを発話単語の音声情報から生成する。
【先行技術文献】
【特許文献】
【0005】
【特許文献1】特開2021-003181号公報
【特許文献1】特開2020-006482号公報
【発明の開示】
【発明が解決しようとする課題】
【0006】
特許文献1に検出した咳動作を遠隔操作のアバタの制御に活用する提案はなく、特許文献2に咳エチケットを考慮した動作をロボットに生成させる提案はない。
【0007】
それゆえに、この発明の主たる目的は、新規な、アバタ制御装置、アバタ制御プログラムおよびアバタ制御方法を提供することである。
【0008】
この発明の他の目的は、操作者の咳やくしゃみに応じて、咳エチケットの動作をアバタに実行させることができる、アバタ制御装置、アバタ制御プログラムおよびアバタ制御方法を提供することである。
【課題を解決するための手段】
【0009】
この発明は、上記の目的達成のために、以下の構成を採用した。なお、括弧内の参照符号および補足説明等は、この発明の理解を助けるために記述する実施形態との対応関係を示したものであって、この発明を何ら限定するものではない。
【0010】
第1の実施例は、操作者が操作することによってアバタを遠隔制御するアバタ制御装置であって、操作者の状態を検知する状態検知手段、状態検知手段が検知した操作者の状態に基づいて操作者の咳および/またはくしゃみを検出する咳くしゃみ検出手段、および咳くしゃみ検出手段が操作者の咳および/またはくしゃみを検出したとき、アバタに咳エチケット動作をさせるように、アバタを制御するアバタ制御手段を備える、アバタ制御装置である。
【0011】
第1の実施例では、アバタ制御装置(10:例において相当する部分を例示する参照符号。ただし、限定を意図しない。以下同様。)は、たとえばマスク(32)、カメラ(34)あるいはモーションキャプチャ(36)のような、操作者(13)の状態を検知する状態検知手段を備える。咳くしゃみ検出手段(18、64d、S7)は、状態検知手段が検知した操作者の状態に基づいて、操作者の咳および/またはくしゃみを検出する。アバタ制御手段(18、64c、S13)は、咳くしゃみ検出手段が操作者の咳および/またはくしゃみを検出したとき、アバタ(14)に咳エチケット動作をさせるように、アバタを制御するアバタ制御手段を備える、咳くしゃみ検出手段が操作者の咳および/またはくしゃみを検出したとき、アバタに咳エチケット動作をさせるように、アバタを制御する。ただし、「咳エチケット」とは、たとえば、咳やくしゃみの飛沫により感染する感染症を他人に感染させないための動作である。
【0012】
第1の実施例によれば、操作者が咳やくしゃみをしたとき、アバタに咳エチケットの動作をさせるので、咳動作に起因する対人距離の増加や心理的印象の悪化を緩和することができるし、ユーザ(人)に与える不快感を軽減させることができる。
【0013】
第2の実施例は、第1の実施例に従属するアバタ制御装置であって、アバタは顔を有し、アバタ制御手段は、アバタの顔をアバタの面前の人の顔から背けさせる顔背け手段を含む。
【0014】
第2の実施例では、アバタ(14)は、頭部(130)すなわち顔を有し、アバタ制御手段(18、64c、S13)は、顔背け手段(18、S23)は、アバタの面前の人の顔から背けさせる。
【0015】
第2の実施例によれば、咳エチケットの動作として、アバタの顔をユーザ(人)の顔から背けさせるので、操作者の咳やくしゃみによるユーザ(人)に与える不快感を軽減させることができる。
【0016】
第3の実施例は、第1の実施例に従属するアバタ制御装置であって、アバタは上半身または胴体を有し、アバタ制御手段は、アバタの上半身または胴体をアバタの面前の人とは違う方向に向けさせ、または移動させる上半身または胴体制御手段を含む。
【0017】
第3の実施例では、アバタ(14)は、上半身または胴体(106)を有し、アバタ制御手段(18、64c、S13)は、胴体制御手段(18、S27)は、アバタの上半身または胴体をアバタの面前の人とは違う方向に向けさせる。
【0018】
第3の実施例によれば、咳エチケットの動作として、アバタの上半身または胴体を面前のユーザ(人)とは違う方向に向けさせ、または移動させるので、操作者の咳やくしゃみによるユーザ(人)に与える不快感を軽減させることができる。
【0019】
第4の実施例は、第1の実施例に従属するアバタ制御装置であって、アバタは腕または手および口に相当する部分を有し、アバタ制御手段は、アバタの腕または手によって口に相当する部分を押さえさせる口押え手段を含む。
【0020】
第4の実施例では、アバタ(14)は腕(118R-122R、118L-122L)または手(124R、124L)および口に相当する部分(132)を有し、アバタ制御手段(18、64c、S13)は、口押え手段(18、S31)は、腕または手によって口に相当する部分(132)を押さえさせる。
【0021】
第4の実施例では、咳エチケットの動作として、アバタの腕または手によって口に相当する部分を押さえさせるので、操作者の咳やくしゃみによるユーザ(人)に与える不快感を軽減させることができる。
【0022】
第5の実施例は、操作者が操作することによってアバタを遠隔制御するアバタ制御装置のアバタ制御プログラムであって、アバタ制御プログラムはアバタ制御装置のCPUを、操作者の状態を検知する状態検知手段、状態検知手段が検知した操作者の状態に基づいて操作者の咳および/またはくしゃみを検出する咳くしゃみ検出手段、および咳くしゃみ検出手段が操作者の咳および/またはくしゃみを検出したとき、アバタに咳エチケット動作をさせるように、アバタを制御するアバタ制御手段として機能させる、アバタ制御プログラムである。
【0023】
第6の実施例は、操作者が操作することによってアバタを遠隔制御するアバタ制御装置のアバタ制御方法であって、操作者の状態を検知し、操作者の状態に基づいて操作者の咳および/またはくしゃみを検出し、そして操作者の咳および/またはくしゃみを検出したとき、アバタに咳エチケット動作をさせるように、アバタを制御する、アバタ制御方法である。
【0024】
第5の実施例および第6の実施例によっても、第1の実施例と同様の効果が期待できる。
【発明の効果】
【0025】
この発明によれば、操作者の咳やくしゃみに応じて、咳エチケットの動作をアバタに実行させることができるので、咳動作に起因する対人距離の増加や心理的印象の悪化を緩和することができる。つまり、遠隔操作されるアバタが、操作者が行う咳やくしゃみに対して適切なマナー動作を自動的に行うことで、ユーザ(人)に与える不快感を軽減させることができる。
【0026】
この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。
【図面の簡単な説明】
【0027】
図1図1はこの発明の一実施例のアバタ装置を示すブロック図である。
図2図2図1実施例の操作者端末の一例をブロック図である。
図3図3図1実施例のアバタ(ロボット)を示す図解図である。
図4図4図3に示すロボットの電気的な構成を示すブロック図である。
図5図5図1実施例のサーバの一例をブロック図である。
図6図6は操作者端末の記憶部のメモリマップの一例を示す図解図である。
図7図7はサーバの記憶部のメモリマップの一例を示す図解図である。
図8図8は操作者端末によるアバタ制御処理を示すフロー図である。
図9図9はアバタに咳エチケットを実行させる咳エチケット動作処理の一例を示すフロー図である。
【発明を実施するための最良の形態】
【0028】
図1を参照して、この発明の一実施例のアバタ装置10では、たとえばインタネットなどのネットワーク11に有線または無線で接続される操作者端末12を含む。操作者端末12は、操作者13が操作して、アバタとして行動するコミュニケーションロボット(以下、単に「ロボット」と言うことがある。)14を制御する。そのため、操作者端末12は、アバタ制御装置として機能する。
【0029】
ロボット14も、アバタデータサーバ(以下、単に「サーバ」ということがある。)16とともに、ネットワーク11に接続される(無線または有線)。
【0030】
操作者端末12は、汎用のコンピュータであり、図2に示すように、CPU18を含む。CPU18は、プロセサなどとも呼ばれ、このCPU18には、バス19を介して、記憶部20、通信部22、入力制御回路24、表示制御回路26等が接続される。
【0031】
CPU18は、操作者端末12の全体的な制御を司る。記憶部20は、CPU18の主記憶部として機能し、ワーク領域およびバッファ領域として用いられるRAMや、CPU18が操作者端末12の各コンポーネントの動作を制御するための制御プログラムおよび各種データなどを記憶する補助記憶装置、たとえばSSDまたはHDDなどのメモリを含む。
【0032】
通信部22は、ネットワーク11に接続するための通信回路であり、CPU18からの指示に従って、ネットワーク11を介して、ロボット14やサーバ16等の外部端末と通信する。
【0033】
入力制御回路24には入力装置28が接続され、表示制御回路26にはディスプレイ30が接続される。
【0034】
入力装置28は、操作者13による入力操作を受け付けるための装置であり、周知のように、たとえばテンキーやマウスさらにはタッチパネル等の入力操作部である。タッチパネルは、ディスプレイ30の表示面上に設けられてもよい。
【0035】
入力制御回路24からは、入力装置28の操作に応じた操作信号ないし操作データを出力し、それがCPU18に取り込まれる。表示制御回路26は、CPU18の指示の下、記憶部20に記憶された映像生成データを用いて表示映像データを生成し、生成した表示映像データをディスプレイ30に出力する。
【0036】
操作者端末12には、マイク32、カメラ34およびモーションキャプチャ36が関連して設けられ、マイク32で収音した音声信号は、CPU18によって取り込まれ、記憶部20に記憶される。同様に、カメラ34で撮影した映像信号は、CPU18によって取り込まれ、記憶部20に記憶される。モーションキャプチャ36で取得した操作者13の動作のデータ(モーションデータ)はCPU18によって取り込まれ、記憶部20に記憶される。これらのマイク32、カメラ34およびモーションキャプチャ36は、操作者13の状態(発声や動作ま所作)を検知する状態検知手段として機能する。
【0037】
さらに、操作者端末12には、スピーカ38が設けられ、CPU18が音声処理回路(図示せず)に音声信号を出力することによって、スピーカ35からその音声信号に基づいて音声を出力することができる。
【0038】
ここで、図3を参照して、実施例で用いられるロボット14を説明するが、アバタとして機能するためには、ロボット14は、後述のすべての構成や機能を持っている必要はないことを予め指摘しておく。
【0039】
ロボット14は台車100を含み、台車100の下面にはロボット14を自律移動させる複数(たとえば3個または4個)の車輪102が設けられる。台車100は、前後左右の任意方向(全方位)に移動可能な所謂全方位移動型の台車である。車輪102は車輪モータ104(図4参照)によってそれぞれ独立に駆動され、台車100すなわちロボット14を前後左右の任意方向に動かすことができる。車輪102としては、メカナムホイールまたはオムニホイール等を用いることができる。したがって、ロボット14は、配置された環境内を自律制御によって移動可能である。
【0040】
台車100の上には、胴体106が直立するように設けられる。また、胴体106の前方中央上部(人の胸に相当する位置)には、たとえば赤外線距離センサや超音波距離センサのような距離センサ108が設けられる。この距離センサ108は、ロボット14の周囲の物体(人間や障害物など)との距離を測定するものであり、ロボット14の前方の主として人間との距離を計測する。
【0041】
また、胴体106には、その側面側上端部のほぼ中央から伸びる支柱110が設けられ、支柱110の上には、全方位カメラ112が設けられる。全方位カメラ112は、ロボット14の周囲を撮影するものであり、後述する眼カメラ114とは区別される。この全方位カメラ112としては、たとえばCCDやCMOSのような固体撮像素子を用いるカメラを採用することができる。なお、これら距離センサ108および全方位カメラ112の設置位置は、当該部位に限定されず適宜変更され得る。
【0042】
胴体106の両側面上端部(人の肩に相当する位置)には、それぞれ、肩関節116Rおよび肩関節116Lによって、上腕118Rおよび上腕118Lが設けられる。図示は省略するが、肩関節116Rおよび肩関節116Lは、それぞれ、直交する3軸の自由度を有する。一例として、肩関節116Rは、直交する3軸のそれぞれの軸廻りにおいて上腕118Rの角度を制御できる。肩関節116Rの或る軸(ヨー軸)は、上腕118Rの長手方向(または軸)に平行な軸であり、他の2軸(ピッチ軸およびロール軸)は、その軸にそれぞれ異なる方向から直交する軸である。同様にして、肩関節116Lは、直交する3軸のそれぞれの軸廻りにおいて上腕118Lの角度を制御できる。肩関節116Lの或る軸(ヨー軸)は、上腕118Lの長手方向(または軸)に平行な軸であり、他の2軸(ピッチ軸およびロール軸)は、その軸にそれぞれ異なる方向から直交する軸である。
【0043】
また、上腕118Rおよび上腕118Lのそれぞれの先端には、肘関節120Rおよび肘関節120Lを介して、前腕122Rおよび前腕122Lが設けられる。図示は省略するが、肘関節120Rおよび肘関節120Lは、それぞれ1軸の自由度を有し、この軸(ピッチ軸)の軸回りにおいて前腕122Rおよび前腕122Lの角度を制御できる。
【0044】
前腕122Rおよび前腕122Lのそれぞれの先端には、人間の手に酷似した形状であり、指や掌の機能を持たせた右手124Rおよび左手124Lがそれぞれ設けられる。ただし、指や掌の機能が不要な場合には、前腕122Rおよび前腕122Lのそれぞれの先端に人の手に相当する球体を設けることも可能である。
【0045】
また、図示は省略するが、胴体106の前面、肩関節116Rと肩関節116Lとを含む肩に相当する部位、上腕118R、上腕118L、前腕122R、前腕122L、右手124Rおよび左手124Lには、それぞれ、接触センサ126(図2で包括的に示す)が設けられる。胴体106の前面の接触センサ126は、胴体106への人間や他の障害物の接触を検知する。したがって、ロボット14は、その自身の移動中に障害物との接触が有ると、それを検知し、直ちに車輪102の駆動を停止してロボット14の移動を急停止させることができる。また、その他の接触センサ126は、当該各部位に触れたかどうかを検知する。なお、接触センサ126の設置位置は、当該部位に限定されず、適宜な位置(人の頭、胸、腹、脇、背中および腰に相当する位置)に設けられてもよい。
【0046】
胴体106の中央上部(人の首に相当する位置)には首関節128が設けられ、さらにその上には頭部130が設けられる。図示は省略するが、首関節128は、3軸の自由度を有し、3軸の各軸廻りに角度制御可能である。或る軸(ヨー軸)はロボット14の真上(鉛直上向き)に向かう軸であり、他の2軸(ピッチ軸、ロール軸)は、それぞれ、それと異なる方向で直交する軸である。
【0047】
頭部130には、人の口に相当する位置に、スピーカ132が設けられる。スピーカ132は、ロボット14が、それの周辺の人間に対して音声ないし音によってコミュニケーションを取るために用いられる。また、人の耳に相当する位置には、マイク134Rおよびマイク134Lが設けられる。以下、右のマイク134Rと左のマイク134Lとをまとめてマイク134ということがある。マイク134は、周囲の音、とりわけコミュニケーションを実行する対象(以下、「コミュニケーション対象」ということある)である人間の声を取り込む。さらに、人の目に相当する位置には、眼球部136Rおよび眼球部136Lが設けられる。眼球部136Rおよび眼球部136Lは、それぞれ眼カメラ114Rおよび眼カメラ114Lを含む。以下、右の眼球部136Rと左の眼球部136Lとをまとめて眼球部136ということがある。また、右の眼カメラ114Rと左の眼カメラ114Lとをまとめて眼カメラ114ということがある。
【0048】
眼カメラ114は、ロボット14に接近した人間の顔または人間の他の部分或いは物体などを撮影して、それに対応する映像信号を取り込む。また、眼カメラ114は、上述した全方位カメラ112と同様のカメラを用いることができる。たとえば、眼カメラ114は、眼球部136内に固定され、眼球部136は、眼球支持部(図示せず)を介して頭部130内の所定位置に取り付けられる。図示は省略するが、眼球支持部は、2軸の自由度を有し、それらの各軸廻りに角度制御可能である。たとえば、この2軸の一方は、頭部130の上に向かう方向の軸(ヨー軸)であり、他方は、一方の軸に直交しかつ頭部130の正面側(顔)が向く方向に直行する方向の軸(ピッチ軸)である。眼球支持部がこの2軸の各軸廻りに回転されることによって、眼球部136ないし眼カメラ114の先端(正面)側が変位され、カメラ軸すなわち視線方向が移動される。なお、上述のスピーカ132、マイク134および眼カメラ114の設置位置は、当該部位に限定されず、適宜な位置に設けられてよい。
【0049】
このように、この実施例のロボット14は、肩関節116の3自由度(左右で6自由度),肘関節120の1自由度(左右で2自由度),首関節128の3自由度および眼球支持部の2自由度(左右で4自由度)の合計15自由度を有する。
【0050】
図4はロボット14の電気的な構成を示すブロック図である。この図4を参照して、ロボット14は、CPU138を含む。CPU138は、マイクロコンピュータ或いはプロセッサとも呼ばれ、バス139を介して、記憶部20、モータ制御ボード142、センサ入力/出力ボード144および音声入力/出力ボード146に接続される。
【0051】
記憶部20は、図示は省略をするが、ROM、HDDおよびRAMを含む。ROMおよびHDDには、ロボット14の行動を制御(タスクを実行)するための制御プログラム(ロボット制御プログラム)が予め記憶される。たとえば、ロボット制御プログラムは、各センサの出力(センサ情報)を検知するための検知プログラムや、他のロボットおよび操作者の端末などの外部コンピュータとの間で必要なデータおよびコマンドを送受信するための通信プログラムなどを含む。また、RAMは、CPU138のワークメモリおよびバッファメモリとして用いられる。
【0052】
さらに、この実施例では、ロボット14は、人間とのコミュニケーションをとるために発話したり、ジェスチャしたりできるように構成されているが、記憶部20に、このような発話およびジェスチャのための辞書(発話/ジェスチャ辞書)のデータが記憶されている。
【0053】
モータ制御ボード142は、たとえばDSPで構成され、各腕や首関節などの各軸モータの駆動を制御する。すなわち、モータ制御ボード142は、CPU138からの制御データを受け、肩関節116Rの直交する3軸のそれぞれの角度を制御する3つのモータと肘関節120Rの角度を制御する1つのモータとの計4つのモータ(図3では、まとめて「右腕モータ148」と示す)の回転角度を制御する。同様にして、モータ制御ボード142は、CPU138からの制御データを受け、肩関節116Lの直交する3軸のそれぞれの角度を制御する3つのモータと肘関節120Lの角度を制御する1つのモータとの計4つのモータ(図3では、まとめて「左腕モータ150」と示す)の回転角度を制御する。
【0054】
さらに、モータ制御ボード142は、CPU138からの制御データを受け、首関節128の直交する3軸のそれぞれの角度を制御する3つのモータ(図3では、まとめて「頭部モータ152」と示す)の回転角度を制御する。そして、モータ制御ボード142は、CPU138からの制御データを受け、車輪102を駆動する2つのモータ(図3では、まとめて「車輪モータ104」と示す)の回転角度を制御する。
【0055】
なお、この実施例では、車輪モータ104を除くモータは、制御を簡素化するためにステッピングモータ(すなわち、パルスモータ)を用いる。ただし、車輪モータ104と同様に直流モータを用いるようにしてもよい。また、ロボット14の身体部位を駆動するアクチュエータは、電流を動力源とするモータに限らず適宜変更された、たとえば、他の実施例では、エアアクチュエータが適用されてもよい。
【0056】
センサ入力/出力ボード144は、モータ制御ボード142と同様に、DSPで構成され、各センサからの信号を取り込んでCPU138に与える。すなわち、距離センサ108からの距離に関するデータ(たとえば反射時間のデータ)がこのセンサ入力/出力ボード144を通じてCPU138に入力される。また、全方位カメラ112からの映像信号が、必要に応じてセンサ入力/出力ボード144で所定の処理を施してからCPU138に入力される。眼カメラ114からの映像信号も、同様にして、CPU138に入力される。また、上述した複数の接触センサ126(図3では、まとめて「接触センサ126」と示す)からの信号がセンサ
入力/出力ボード144を介してCPU138に与えられる。
【0057】
音声入力/出力ボード146もまた、同様に、DSPで構成され、CPU138から与えられる音声合成データに従った音声または声がスピーカ132から出力される。また、マイク134からの音声入力が、音声入力/出力ボード146を介してCPU138に与えられる。
【0058】
また、CPU138は、バス139を介して通信部154に接続される。通信部154は、CPU138から与えられた送信データを外部コンピュータに送信し、また、外部コンピュータからデータを受信し、受信したデータ(受信データ)をCPU138に与える。
【0059】
また、CPU138は、バス139を介して、2次元距離計測装置156および3次元距離計測装置158に接続される。図1では省略したが、2次元距離計測装置156および3次元距離計測装置158は、ロボット14の台車100、センサ取り付けパネル(図示せず)または胴体106の適宜の位置に取り付けられる。
【0060】
2次元距離計測装置156は、水平方向にレーザを照射し、物体(人間も含む)に反射して戻ってくるまでの時間から当該物体までの距離を計測するものである。また、3次元距離計測装置158は、水平方向を基準(0°)として上下40°の検知角度(垂直視野角)を有する3次元全方位レーザ距離計である。
【0061】
サーバ16は、汎用のコンピュータであり、図5に示すように、サーバ16はCPU40を含む。CPU40は、コンピュータないしはプロセッサなどとも呼ばれ、このCPU40には、バス39を介して、記憶部42、通信部44、入力制御回路46、表示制御回路48等が接続される。
【0062】
CPU40は、サーバ16の全体的な制御を司る。記憶部42は、CPU40の主記憶部として機能し、ワーク領域およびバッファ領域として用いられるRAMや、CPU40がサーバ16の各コンポーネントの動作を制御するための制御プログラムおよび各種データなどを記憶する補助記憶装置、たとえばSSDまたはHDDなどのメモリを含む。
【0063】
この記憶部42にはまた、アバタとして動作するロボット14や他のアバタを制御するために必要な情報を格納している。前述したように操作者13がアバタを選択したとき、CPU40は、その選択されたアバタを制御するための情報を操作者端末12へ送ることになる。
【0064】
したがって、操作者は、操作者端末12を用いてロボット14にコマンドを送信することにより、遠隔でロボット14を操作することもできる。
【0065】
通信部44は、ネットワーク11に接続するための通信回路であり、CPU40からの指示に従って、ネットワーク11を介して、操作者端末12や他の外部コンピュータ(外部端末)と通信する。
【0066】
入力制御回路46には入力装置50が接続され、表示制御回路48にはディスプレイ52が接続される入力制御回路46は、入力装置50の操作に応じた操作信号ないし操作データをCPU40に出力する。表示制御回路48は、CPU40の指示の下、記憶部42に記憶された映像生成データを用いて表示映像データを生成し、生成した表示映像データをディスプレイ52に出力する。
【0067】
なお、図1実施例のアバタ装置10では、アバタの遠隔操作中に操作者端末12の操作者13が咳やくしゃみをしたときにユーザに対面しているアバタに咳エチケットの動作を行わせる。ただし、「咳エチケット」とは、咳やくしゃみの飛沫により感染する感染症を他人に感染させないためのマナーであって、咳やくしゃみの際には、周りの人から顔を背ける、手や肘を使って口や鼻を押さえる、などの動作を言う。
【0068】
図1実施例のアバタ装置10のアバタとしては、上で例示したロボット14以外の別のアバタに対応することもある。たとえば、アバタ装置10は複数の種類のアバタに対応可能に設計されていて、そのときの利用環境、空港、駅、地下街、ショッピングモール、イベント会場、遊園地および美術館などの不特定多数の人間が存在する環境または日常空間(まとめて「環境」)に配置される。そして、そのような個々の環境に配置されたアバタに対応できるように、アバタのタイプ(種類)を選択できるようにしている。それぞれのアバタは、必ずしも同じ自由度を持っているわけではなく、自由度の数も違うし、自由度を設定されている部位(箇所)も違う。
【0069】
ここで、表1に従って、アバタの種類とそれらのアバタによって実現できる咳エチケットの動作を説明する。
【0070】
【表1】
【0071】
アバタタイプ1に属するアバタは、人と同じような身体を持つ人型バーチャルエージェントないしロボットである。たとえばRobovie(ロボビー:商品名)やGeminoid(ジェミノイド:商品名)など。
【0072】
アバタタイプ2に属するアバタは、顔と手だけの簡易な人型バーチャルエージェントである。
【0073】
アバタタイプ3に属するアバタは、手や足を持たないバーチャルエージェントである。たとえば、しば犬(商品名)など。
【0074】
アバタタイプ4に属するアバタは、自律移動可能なディスプレイだけを持つロボットである。テレプレゼンス(または、テレイグジステンス)ロボットと呼ばれる。たとえばDouble 3(商品名:Double Robotics, Inc.(ダブルロボティクス社))など。
【0075】
アバタタイプ5に属するアバタは、据え置き型で上半身だけ人と同じような身体を持つロボットである。たとえばSota(ソータ:商品名)やCommU(コミュー:商品名)など。
【0076】
アバタタイプ6に属するアバタは、スマートスピーカ(対話型の音声操作に対応したAIアシスタント機能を持つスピーカ)である。たとえばAlexa(アレクサ:商品名)など。
【0077】
このような各種のアバタ1-6がどのような咳エチケットの動作を実行できるか、ここで簡単に説明する。
【0078】
(A)顔を背ける動作
この動作は、人のいない方向であってかつ若干下を向く動作である。ただし、どの方向にも人がいる場合は正面下を向くだけの動作とする。
【0079】
この動作を実行させることができるアバタは、タイプ1、2、3および5に属するアバタであって、タイプ4および6に属するアバタでは、現状では対応できない。
【0080】
(B)上半身または胴体を向ける動作(移動での制御も含む)
この動作は、人のいない方向に体(上半身)を向ける動作である。ただし、どの方向にも人がいる場合は正面のまま少し後退し、あるいは移動して体の方向を変えてもよい。
【0081】
この動作を実行させることができるアバタは、タイプ1、2、3および5に属するアバタである。タイプ4に属するアバタでは体の方向は変えられないので、台車を使って、人のいない方にディスプレイを向ける。ただし、どの方向にも人がいる場合は正面のまま、少し後退する。タイプ6に属するアバタでは、現状では対応できない。
【0082】
(C)音の出る部分を押える動作
この動作は、手または肘を使って口を隠す動作である。手がある場合、ハンカチなどを持ってもよい。
【0083】
この動作を実行させることができるアバタは、タイプ1、2および4に属するアバタである。タイプ3、5および6に属するアバタでは現状では対応できない。
【0084】
このように、図1実施例のアバタ装置10では、3つの咳エチケットの動作(A)
(B)および(C)が想定されているが、タイプ6に属するアバタとしてスマートスピーカを一例として挙げたが、これでは、咳エチケットの動作をすることができないことが分かった。
【0085】
図6図2に示した操作者端末12の記憶部20(RAM)のメモリマップを示す図解図である。図6に示すように、記憶部20は、プログラム記憶領域60およびデータ記憶領域62を含む。プログラム記憶領域60には、基本的なプログラムたとえばOS(Operating System)が記憶されるほか、アバタ選択プログラム64a、アバタ情報取得プログラム64b、アバタ制御プログラム64c、咳くしゃみ検出プログラム64dおよび通信プログラム64e等が記憶されている。
【0086】
アバタ選択プログラム64aは、前述したアバタタイプ1-5のいずれかを操作者13に選択させるためのプログラムである。たとえば、操作者端末12のディスプレイ30にアバタタイプ1-5に対応するアイコン(図示せず)を含むGUI(グラフィカルユーザインタフェース)を表示し、操作者13がどれかのアイコンを選択することによって、アバタタイプ1-5のずれかを選択させる。
【0087】
アバタ情報取得プログラム64bは、上記GUIでアバタタイプを選択したとき、サーバ16から、選択したアバタの制御のためのアバタ情報を取得する。そのアバタ情報に基づいて、操作者端末12が、アバタ制御プログラム64cに従って、咳エチケット動作を含めてアバタの動作を制御する。
【0088】
咳くしゃみ検出プログラム64dは、操作者13が咳および/またはくしゃみをしたことを検出するためのプログラムである。咳やくしゃみを検出する1つの方法は、マイク32(図2)から収集した操作者13の音声情報を用いる。たとえば、その音声の周波数や音量(音量変化を含む)を検出し、それらを予め学習させておいた咳やくしゃみのパターンに類似しているかどうかで、操作者13が咳および/またはくしゃみをしたことを検出する。
【0089】
音声から咳を検出する方法としては、先に挙げた特許文献1に開示された方法が用いられてもよい。
【0090】
他の方法としては、カメラ34からの操作者13の映像情報を用いる。たとえば、その映像データが示す操作者13の動作が、予め学習させておいた咳やくしゃみをするときの動作パターンに類似しているかどうかで、操作者13が咳および/またはくしゃみをしたことを検出する。
【0091】
操作者13の動作パターンが咳やくしゃみを示すかどうかを判断するためには、モーションキャプチャ36(図2)が示すモーションデータをも利用するようにしてもよい。たとえば、そのモーションデータが示す操作者13の動作が、予め学習させておいた咳やくしゃみをするときの動作パターンに類似しているかどうかで、操作者13が咳および/またはくしゃみをしたことを検出することができる。
【0092】
なお、カメラ34からの映像またはモーションキャプチャ36からのモーションデータを用いる場合には、操作者13の咳および/またはくしゃみの予兆を検出することができるので、咳および/またはくしゃみを予測するようにしてもよい。
【0093】
通信プログラム64eは、ロボット14およびサーバ16、さらには他の外部コンピュータと通信するためのプログラムである。
【0094】
データ記憶領域62は、アバタ情報取得プログラム64bに従ってサーバ16から取得したアバタ情報のデータ(アバタ情報データ)を記憶する領域66aを含む。
【0095】
図示は省略するが、データ記憶領域62には、他のデータが記憶されたり、アバタ制御に必要なフラグおよび/またはタイマ(カウンタ)が設けられたりする。
【0096】
図7図5に示したサーバ16の記憶部42(RAM)のメモリマップを示す図解図である。図7に示すように、記憶部42は、プログラム記憶領域68およびデータ記憶領域70を含む。プログラム記憶領域60は、基本的なプログラムたとえばOSを記憶するほか、通信プログラム72aおよびアバタ情報送信プログラム72b等を記憶している。
【0097】
通信プログラム72aは、操作者端末12およびロボット14、さらには他の外部コンピュータと通信するためのプログラムである。
【0098】
アバタ情報送信プログラム72bは、操作者端末12からのアバタ選択結果を受けて、そのアバタのための制御情報(アバタ情報)を送信するためのプログラムである。
【0099】
データ記憶領域70は、操作者端末12へ送信するためのそれぞれのアバタに固有の制御情報のデータ(アバタ情報データ)を記憶する領域74aを含む。
【0100】
図8は、図2に示した操作者端末12のCPU18のアバタ制御処理を示すフロー図である。この実施例は、操作者端末12によって操作者13が選択したアバタが図3および図4に示すロボット14である場合について以下説明する。
【0101】
最初のステップS1で、操作者端末12のCPU18は、上述したアバタ選択プログラム64aに従ってディスプレイ30にアバタ選択画面(GUI)を表示して、操作者13にアバタを選択させる。この実施例では、選択されるアバタは、ロボット14である。
【0102】
ステップS1での選択に応じて、CPU18は、ステップS3において、通信プログラム64eおよびアバタ情報取得プログラム64bに従って、そのアバタ、実施例ではロボット14の制御データを含むアバタ情報の送信要求を、ネットワーク11を通してサーバ16に送る。その送信要求に応じて、サーバ16は、通信プログラム72aおよびアバタ情報送信プログラム72bに従って、データ記憶領域70の領域74a(図7)に予め設定されているロボット14のアバタ情報データを操作者端末12に送信する。このアバタ情報データは操作者端末12のデータ記憶領域62の領域66aに記憶される。
【0103】
操作者端末12のCPU18は、そのアバタ情報データを用いて、アバタとしてのロボット14の遠隔操作を開始する。
【0104】
その遠隔操作中に、CPU18は、ステップS7において、操作者13が咳および/またはくしゃみをしたかどうか判断する。この判断は、先に説明した咳くしゃみ検出プログラム64dに従って、マイク32からの音声、カメラ34からの映像および/またはモーションキャプチャ36からのモーションデータに基づいて、実行する。
【0105】
なお、咳くしゃみ検出プログラム64dに従って、このステップS7を実行するCPU18は、咳くしゃみ検出手段ということができる。
【0106】
このステップS7データ“NO”を判断したときには、CPU18は、ステップS11の遠隔操作を終了するかどうかの判断で“YES”を判断するまで、そのままロボット14の遠隔操作を継続する。遠隔操作を終了するかどうかの判断は、ロボット14のアバタとしての活動を終了するかどうかに基づいて、判断する。
【0107】
ステップS7で“YES”を判断したとき、つまり、ロボット14の遠隔操作中に咳やくしゃみを検出したとき、ステップS13で、ステップS1で選択したアバタに応じた咳エチケットの動作をアバタに実行させる(図9)。
【0108】
図9のステップS21では、CPU18は、データ記憶領域62(図6)の領域66aに記憶しているアバタ情報データに基づいて、アバタは顔を動かす自由度を持っているかどうか判断する。
【0109】
ステップS21で“YES”が判断されるということは、そのときのアバタがアバタタイプ1、2、3または5に属するアバタであることを意味する。実施例のロボット14は先に説明したように、タイプ1に属するアバタであるので、ステップS23で、先に説明した動作(A)を実行させる。具体的には、CPU18は、データ記憶領域62(図6)の領域66aに記憶しているアバタ情報データに基づいて、アバタ制御プログラム64cに従って、たとえば頭部モータ152(図4)を制御して、頭部130(図3)を、人に対面している状態から、人に対面する方向ではない方向(非対面方向)へ回転させる。そのとき、頭部130が若干下を向くように、頭部モータ152を制御するようにしてもよい。動作である。ただし、ロボット14の周りのどの方向にも人がいる場合は、頭部130が正面下を向くだけの動作とする。
【0110】
アバタ制御プログラム64cに従って、このステップS23を実行するCPU18は、顔背け手段ということができる。
【0111】
ステップS21で“NO”を判断したとき、CPU18は、続くステップS25で、データ記憶領域62(図6)の領域66aに記憶しているアバタ情報データに基づいて、アバタは上半身または胴体を動かす自由度、または移動する自由度があるかどうかを判断する。
【0112】
ステップS25で“YES”が判断されるということは、そのときのアバタは、タイプ1、2、3および5に属するアバタであることを意味する。ただし、タイプ4に属するアバタでも、体の方向は変えられけれども、台車を使って、人のいない方にディスプレイを向けることかできるので、そのときのアバタがタイプ4に属するアバタであても、ここでは“YES”と判断されてもよい。
【0113】
実施例のアバタであるロボット14は、このステップS25でも“YES”と判断される可能性があるが、ロボット14の場合には既に先のステップS21で“YES”が判断され、ステップS23で動作(A)を実行しているので、このステップS25の判断の対象ではない。
【0114】
ステップS21で“NO”となる、ステップS25で“YES”となるアバタの場合ステップS27では、CPU18は、先に説明した動作(B)を実行するように、アバタを制御する。具体的には、アバタの体(上半身)が、人のいない方向に体(上半身)を向くように、アバタを制御する。ただし、アバタの周囲のどの方向にも人がいる場合は、アバタを、正面のまま少し後退させ、あるいは移動させて体の方向を変えさせる。
【0115】
ステップS27での対象外であるが、ロボット14の場合、このステップS27では、CPU18は、胴体106が台車100上で回転することはできないので、データ記憶領域62(図6)の領域66aに記憶しているアバタ情報データに基づいて、車輪モータ104を制御して車輪102を回転させることによって、台車100を回転させて、胴体106の向きを変えさせる。その結果、ロボット14の体を、人のいない方向に向かせることができる。ただし、ロボット14の周囲のどの方向にも人がいる場合は、車輪モータ104を制御して車輪102によって、台車100を後退させればよい。
【0116】
なお、ロボット14の場合ステップS27の対象外としたが、ロボット14の場合であってもステップS27を実行させるようにしてもよい。
【0117】
また、アバタ制御プログラム64cに従って、このステップS27を実行するCPU18は、胴体制御手段ということができる。
【0118】
ステップS23を経た後、あるいはステップS27を経た後、さらにはステップS25で“NO”を判断したとき、CPU18は、データ記憶領域62(図6)の領域66aに記憶しているアバタ情報データに基づいて、次のステップS29で、アバタには発声(音声)を抑制する(停止を含む)自由度が備えられているかどうか判断する。
【0119】
このステップS29で“YES”と判断されるアバタタイプは1、2および4であり、実施例のロボット14も当該機能を備えているので、ステップS29では“YES”が判断され、続くステップS31において、CPU18は、先に説明した動作(C)を実行するように、ロボット14を制御する。
【0120】
具体的には、CPU18は、データ記憶領域62(図6)の領域66aに記憶しているアバタ情報データに基づいて、右手124Rまたは左手124L(図3)がスピーカ132に対応する口の位置にもたらされるように、右腕モータ148または左腕モータ150を制御する。
【0121】
ただし、手124Rまたは124Lを口の位置にもたらす以外に、同じようにデータ記憶領域62(図6)の領域66aに記憶しているアバタ情報データに基づいて右腕モータ148または左腕モータ150を制御して、右手124Rまたは左手124Lの肘(上腕と前腕の間の肘関節120Rまたは120Lの部分)が口の位置にもたらされるようにしてもよい。
【0122】
また、アバタ制御プログラム64cに従って、このステップS31を実行するCPU18は、口押え手段ということができる。
【0123】
上で説明した実施例では、マイク32の音声に基づいて操作者13の咳やくしゃみを検出したとき、その咳やくしゃみに応じて咳エチケット動作をさせることによって、遠隔操作されるアバタが、操作者の咳やくしゃみに対して適切な動作を自動的に行うことで、ユーザ(人)に与える不快感を軽減させることができる
ただし、カメラ34からの映像データやモーションキャプチャ36からのモーションデータに基づいて、操作者13の咳やくしゃみの予兆を検出して咳やくしゃみが予測できる場合には、その予測に応じて、アバタの音声出力部分を制御して、アバタから咳やくしゃみの音声そのものが出力されるのを防止することができる(動作(D))。
【0124】
実施例のロボット14においては、音声入力/出力ボード146のスピーカ132への音声回路を遮断することができる。
【0125】
上述の実施例における動作(A)では、ロボット14(アバタ)の顔を対面する人の顔から背けるようにするが、顔認識機能などを用いて相手の顔と自分の顔の位置関係が既知の場合に、相手の顔が正面にならないようにすることが考えられる。
【0126】
同様に、動作(B)においても、顔認識機能などを用いて相手の顔と自分の顔の位置関係が既知の場合に、相手の顔の正面にならないように、上半身または胴体を回転させることができる。
【符号の説明】
【0127】
10 …アバタシステム
12 …操作者端末(アバタ制御装置)
13 …操作者
14 …ロボット(アバタ)
16 …サーバ
32 …マイク
34 …カメラ
36 …モーションキャプチャ
図1
図2
図3
図4
図5
図6
図7
図8
図9