(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-12-18
(45)【発行日】2024-12-26
(54)【発明の名称】ロボット、制御プログラムおよび制御方法
(51)【国際特許分類】
G06F 3/01 20060101AFI20241219BHJP
G06F 3/16 20060101ALI20241219BHJP
A63H 5/00 20060101ALN20241219BHJP
【FI】
G06F3/01 570
G06F3/16 610
G06F3/16 690
A63H5/00 C
(21)【出願番号】P 2021028904
(22)【出願日】2021-02-25
【審査請求日】2024-01-16
【新規性喪失の例外の表示】特許法第30条第2項適用 第24回一般社団法人情報処理学会シンポジウム(インタラクション2020) 2020年3月9日~11日開催 [刊行物等] 第38回日本ロボット学会学術講演会(RSJ2020) オンライン予稿集 2020年10月8日発行 [刊行物等] 第38回日本ロボット学会学術講演会(RSJ2020) 2020年10月9日~11日開催
【国等の委託研究の成果に係る記載事項】(出願人による申告)令和2年度、国立研究開発法人科学技術振興機構、戦略的創造研究推進事業「ソーシャルタッチの計算論的解明とロボットへの応用に向けた研究開発」委託研究、産業技術力強化法第17条の適用を受ける特許出願。
(73)【特許権者】
【識別番号】393031586
【氏名又は名称】株式会社国際電気通信基礎技術研究所
(74)【代理人】
【識別番号】100090181
【氏名又は名称】山田 義人
(72)【発明者】
【氏名】住岡 英信
(72)【発明者】
【氏名】港 隆史
(72)【発明者】
【氏名】塩見 昌裕
【審査官】九鬼 一慶
(56)【参考文献】
【文献】特表2020-534886(JP,A)
【文献】特開2000-326274(JP,A)
【文献】中国特許出願公開第1734521(CN,A)
(58)【調査した分野】(Int.Cl.,DB名)
G06F 3/01
G06F 3/16
A63H 5/00
(57)【特許請求の範囲】
【請求項1】
ユーザが装着する服型のロボットであって、
少なくとも前記ユーザによる接触を検出可能な検出部、
前記検出部による検出結果に基づいて前記ユーザによる接触の仕方を推定する推定部、および
前記推定部によって推定された前記接触の仕方に応じた音声を出力する出力部を備え、
前記音声の内容は、前記ユーザによる接触が当該ユーザから前記ロボットに向けたものであることを想起させる第1の内容、または、前記ユーザによる接触が前記ロボットから当該ユーザに向けたものであることを想起させる前記第1の内容とは異なる第2の内容である、ロボット。
【請求項2】
前記音声の内容が前記第1の内容である第1のモードと、前記音声の内容が前記第2の内容である第2のモードを切り替える切替部をさらに備える、請求項1記載のロボット。
【請求項3】
前記検出部による検出結果に基づいて前記ユーザが指で接触したか手で接触したかを判断する手段判断部をさらに備え、
前記切替部は、前記手段判断部の判断結果に基づいて、前記第1のモードと前記第2のモードを切り替える、請求項2記載のロボット。
【請求項4】
複数の前記検出部、および
前記検出部の検出結果に基づいて前記ユーザが接触した位置を判断する位置判断部をさらに備え、
前記切替部は、前記位置判断部の判断結果に基づいて、前記第1のモードと前記第2のモードを切り替える、請求項2記載のロボット。
【請求項5】
マイク、
前記マイクを通して入力された前記ユーザの音声を音声認識する認識部、
前記認識部で認識された前記ユーザの音声が所定の単語を示すかどうかを判断する単語判断部をさらに備え、
前記切替部は、前記単語判断部の判断結果に基づいて、前記第1のモードと前記第2のモードを切り替える、請求項2記載のロボット。
【請求項6】
前記検出部は服に固定される、請求項1から5までのいずれかに記載のロボット。
【請求項7】
前記検出部は静電容量型タッチセンサである、請求項1から6までのいずれかに記載のロボット。
【請求項8】
前記静電容量型タッチセンサは、
導電性の糸を編んで形成された第1布と絶縁性の糸を編んで形成された第2布を重ね合わせた導電性布、
前記第1布と同じ大きさを有し、当該第1布に重ねて貼り付けた絶縁シート、および
前記第1布と電気的に接続された静電容量センサICを備える、請求項7記載のロボット。
【請求項9】
前記導電性布は、伸縮性を有する、請求項8記載のロボット。
【請求項10】
ユーザが装着し、少なくとも前記ユーザによる接触を検出する検出部を備える服型のロボットの制御プログラムであって、
前記ロボットのプロセッサに、
前記検出部による検出結果に基づいて前記ユーザによる接触の仕方を推定する推定ステップ、および
前記推定ステップにおいて推定した前記接触の仕方に応じた音声を出力する出力ステップを実行させ、
前記音声の内容は、前記ユーザによる接触が当該ユーザから前記ロボットに向けたものであることを想起させる第1の内容、または、前記ユーザによる接触が前記ロボットから当該ユーザに向けたものであることを想起させる前記第1の内容とは異なる第2の内容である、制御プログラム。
【請求項11】
ユーザが装着し、少なくとも前記ユーザによる接触を検出する検出部を備える服型のロボットの制御方法であって、
前記ロボットのプロセッサは、
(a)前記検出部による検出結果に基づいて前記ユーザによる接触の仕方を推定
し、
(b)前
記(a)において推定した前記接触の仕方に応じた音声を出力
し、
前記音声の内容は、前記ユーザによる接触が当該ユーザから前記ロボットに向けたものであることを想起させる第1の内容、または、前記ユーザによる接触が前記ロボットから当該ユーザに向けたものであることを想起させる前記第1の内容とは異なる第2の内容である、制御方法。
【発明の詳細な説明】
【技術分野】
【0001】
この発明は、ロボット、制御プログラムおよび制御方法に関し、特にたとえば、装着したユーザと体験を共有する、ロボット、制御プログラムおよび制御方法に関する。
【背景技術】
【0002】
この種の従来のロボットの一例が特許文献1に開示されている。特許文献1に開示されるロボットには、体表面に対するユーザの接触を検出するための面状のタッチセンサが設置される。タッチセンサの接触箇所および接触強度に応じて、快・不快を判定し、判定結果に応じて、ロボットの行動特性が変化する。
【0003】
また、この種の従来のロボットの他の例が非特許文献1に開示されている。非特許文献1に開示されるロボットは、スマートフォンに取り付けて使用することを前提としたモバイルロボットであって、基本的な動作として、ユーザと同じ方向を向く動作と、ロボットが興味のある方向を向く動作をアルゴリズムに基づいて切り替えることで、ユーザとロボットの視線方向の調整を行う。
【先行技術文献】
【特許文献】
【0004】
【非特許文献】
【0005】
【文献】真弓 凌輔, 長谷川 勇輝, 岡田 美智男:Pocketable-Bones:お互いの関心を共有しながら一緒に街のなかを歩くモバイルなロボット, HAIシンポジウム2018, P-28.
【発明の概要】
【発明が解決しようとする課題】
【0006】
上記の特許文献1に開示されるロボットでは、ユーザとは別に存在するため、携帯性に乏しく、ユーザが、孤独感または/および緊張感を抱き、ロボットとの触れ合いを求める場合には、ロボットが存在する場所に向かう必要がある。このため、ロボットとの触れ合いの効果を自由に得るのは困難であった。
【0007】
また、近年では、非特許文献1に開示されるような携帯型ロボットも開発されているが、このような携帯型ロボットでは、ユーザとの触れ合いは想定されておらず、ユーザが必要な時に触れ合いを提供できるようなシステムにはなっていない。
【0008】
それゆえに、この発明の主たる目的は、新規な、ロボット、制御プログラムおよび制御方法を提供することである。
【0009】
また、この発明の他の目的は、他者からの触れ合いを提供できる、ロボット、制御プログラムおよび制御方法を提供することである。
【課題を解決するための手段】
【0010】
第1の発明は、ユーザが装着する服型のロボットであって、少なくとも前記ユーザによる接触を検出可能な検出部、検出部による検出結果に基づいて前記ユーザによる接触の仕方を推定する推定部、および推定部によって推定された前記接触の仕方に応じた音声を出力する出力部を備え、音声の内容は、前記ユーザによる接触が当該ユーザから前記ロボットに向けたものであることを想起させる第1の内容、または、前記ユーザによる接触が前記ロボットから当該ユーザに向けたものであることを想起させる前記第1の内容とは異なる第2の内容である、ロボットである。
【0011】
第2の発明は、第1の発明に従属し、音声の内容が前記第1の内容である第1のモードと、前記音声の内容が前記第2の内容である第2のモードを切り替える切替部をさらに備える。
【0012】
第3の発明は、第2の発明に従属し、検出部による検出結果に基づいて前記ユーザが指で接触したか手で接触したかを判断する手段判断部をさらに備え、切替部は、前記手段判断部の判断結果に基づいて、前記第1のモードと前記第2のモードを切り替える。
【0013】
第4の発明は、第2の発明に従属し、複数の前記検出部、および検出部の検出結果に基づいて前記ユーザが接触した位置を判断する位置判断部をさらに備え、切替部は、前記位置判断部の判断結果に基づいて、前記第1のモードと前記第2のモードを切り替える。
【0014】
第5の発明は、第2の発明に従属し、マイク、マイクを通して入力された前記ユーザの音声を音声認識する認識部、認識部で認識された前記ユーザの音声が所定の単語を示すかどうかを判断する単語判断部をさらに備え、切替部は、前記単語判断部の判断結果に基づいて、前記第1のモードと前記第2のモードを切り替える。
【0015】
第6の発明は、第1から第5の発明までのいずれかに従属し、検出部は服に固定される。
【0016】
第7の発明は、第1から第6の発明までのいずれかに従属し、検出部は静電容量型タッチセンサである。
【0017】
第8の発明は、第7の発明に従属し、静電容量型タッチセンサは、導電性の糸を編んで形成された第1布と絶縁性の糸を編んで形成された第2布を重ね合わせた導電性布、第1布と同じ大きさを有し、当該第1布に重ねて貼り付けた絶縁シート、および第1布と電気的に接続された静電容量センサICを備える。
【0018】
第9の発明は、第8の発明に従属し、導電性布は、伸縮性を有する。
【0019】
第10の発明は、ユーザが装着し、少なくともユーザによる接触を検出する検出部を備える服型のロボットの制御プログラムであって、ロボットのプロセッサに、検出部による検出結果に基づいてユーザによる接触の仕方を推定する推定ステップ、および推定ステップにおいて推定した接触の仕方に応じた音声を出力する出力ステップを実行させ、音声の内容は、ユーザによる接触が当該ユーザからロボットに向けたものであることを想起させる第1の内容、または、ユーザによる接触がロボットから当該ユーザに向けたものであることを想起させる第1の内容とは異なる第2の内容である、制御プログラムである。
【0020】
第11の発明は、ユーザが装着し、少なくともユーザによる接触を検出する検出部を備える服型のロボットの制御方法であって、ロボットのプロセッサは、(a)検出部による検出結果に基づいてユーザによる接触の仕方を推定し、(b)(a)において推定した接触の仕方に応じた音声を出力し、音声の内容は、ユーザによる接触が当該ユーザからロボットに向けたものであることを想起させる第1の内容、または、ユーザによる接触がロボットから当該ユーザに向けたものであることを想起させる第1の内容とは異なる第2の内容である、制御方法である。
【発明の効果】
【0021】
この発明によれば、ユーザが装着可能であり、ユーザの接触の仕方に応じて、接触の行為者をユーザまたはロボットと錯覚させる発話を行うため、ユーザに他者からの触れ合いを提供することができる。
【0022】
この発明の上述の目的、その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。
【図面の簡単な説明】
【0023】
【
図1】
図1はこの発明の第1実施例のロボットの電気的な構成を示すブロック図である。
【
図2】
図2は
図1に示す服型触覚センサの電気的な構成を示すブロック図である。
【
図3】
図3(A)は服型触覚センサの前面側の複数の検出部を示す図であり、
図3(B)は服型触覚センサの背面側の複数の検出部の配置を示す図である。
【
図4】
図4は
図3に示す検出部の構成の概略を説明するための図である。
【
図5】
図5(A)は
図4に示す検出部を構成する導電性布の導電面側の布の一部拡大図であり、
図5(B)は
図4に示す検出部を構成する導電性布の非導電面側の布の一部拡大図である。
【
図6】
図6は
図4に示す検出部を構成する導電性布の一部拡大図である。
【
図7】
図7(A)は
図2に示す検出部をユーザがタッチしていない状態の一例を示す図であり、
図7(B)は
図2に示す検出部をユーザがタッチした状態の一例を示す図であり、
図7(C)は
図2に示す検出部をユーザが押圧した状態の一例を示す図である。
【
図8】
図8は
図3(A)および
図3(B)に示す服型触覚センサを構成する複数の検出部を結合するためのワイヤ付き布の一部拡大図である。
【
図9】
図9は
図3)(A)および
図3(B)に示す服型触覚センサを構成する複数の検出部を結合する方法を説明するための図である。
【
図10】
図10は
図1に示すロボットを装着したユーザが右の手のひらで左の前腕を触る様子の一例を示す図である。
【
図11】
図11は特徴量ベクトルに対応する接触情報を示す対応表の一例を示す図である。
【
図12】
図12はラッセルの円環モデルの概略を説明するための図である。
【
図13】
図13は
図1に示すコンピュータに内蔵されるRAMのメモリマップの一例を示す図である。
【
図14】
図14は
図1に示すコンピュータに内蔵されるCPUの推定処理の一例を示すフロー図である。
【
図15】
図15は
図1に示すコンピュータに内蔵されるCPUの対話モード切替処理の一例を示すフロー図である。
【
図16】
図16は
図1に示すコンピュータに内蔵されるCPUのユーザ対話モード処理の一例の一部を示すフロー図である。
【
図17】
図17は
図1に示すコンピュータに内蔵されるCPUのユーザ対話モード処理の一例の他の一部であって、
図16に後続するフロー図である。
【
図18】
図18は
図1に示すコンピュータに内蔵されるCPUのエージェント対話モード処理の一例の一部を示すフロー図である。
【
図19】
図19は
図1に示すコンピュータに内蔵されるCPUのエージェント対話モード処理の一例の他の一部であって、
図18に後続するフロー図である。
【
図20】
図20は
図1に示すコンピュータに内蔵されるCPUの対話モード切替処理の他の例を示すフロー図である。
【発明を実施するための形態】
【0024】
[第1実施例]
図1を参照して、第1実施例のロボット10は、服型触覚センサ12、コンピュータ14およびスピーカ16を含み、服型触覚センサ12はコンピュータ14に通信可能に接続される。また、スピーカ16はコンピュータ14に接続される。服型触覚センサ12については、後で詳細に説明する。
【0025】
コンピュータ14は、汎用のサーバまたはPCであり、CPU14a、RAM14b、通信装置14cおよび入出力のインターフェイスなどのコンポーネントを備える。また、コンピュータ14は、HDD、フラッシュメモリ、EEPROMなどの不揮発性メモリまたはSSDのような半導体メモリで構成される他の記憶部を備える。
【0026】
上記のスピーカ16は、インターフェイスに接続される。ただし、スピーカ16は、Bluetooth(登録商標)のような近距離無線を用いて通信可能に接続されてもよい。
【0027】
CPU14aは、コンピュータ14の全体的な制御を司るプロセッサである。RAM14bは、コンピュータ14の主記憶装置であり、CPU14aのバッファ領域およびワーク領域として機能する。通信装置14cは、イーサネットまたはWi-Fiのような通信方式に従って有線または無線で、服型触覚センサ12または外部のコンピュータと通信するための通信モジュールである。
【0028】
図2は服型触覚センサ12の電気的な構成を示すブロック図である。服型触覚センサ12は、複数(後述するように、この第1実施例では、80個)の検出部120およびコントローラ130を含み、複数の検出部120の各々はコントローラ130と電気的に接続される。
【0029】
図3(A)は服型触覚センサ12を前面側から見た概略図の一例であり、
図3(B)は服型触覚センサ12を背面側から見た概略図の一例である。
図3(A)および
図3(B)では、複数の検出部120を服(ここでは、長袖の上着)122の外側(表側)に記載してあるが、実際には、デザインを損なわないために、服122の内側(裏側)に設けられる。また、検出部120は、服122の内側に収まるように配置される。ただし、複数の検出部120は、服122の外側に設けられてもよい。また、複数の検出部120は、服122の外側と内側の生地の間に設けられてもよい。或いは、複数の検出部120を用いて服122が作られてもよい。
【0030】
図3(A)および
図3(B)に示すように、第1実施例では、服型触覚センサ12は、長袖の上着の各腕の部分に9個(または、チャネル)、その上着の胴体の前面側に33個およびその上着の胴体の背面側に29個の計80個の検出部120を備えている。ただし、第1実施例で使用するマイクロコントローラには、最大で9個の検出部120を接続することができるため、コントローラ130は、9個のマイクロコントローラで構成される。
【0031】
なお、80個以上の検出部120を接続可能なマイクロコントローラを使用すれば、コントローラ130は、1個のマイクロコントローラで構成することができる。
【0032】
また、この第1実施例では、処理負荷を軽減するために、同じ大きさの検出部120を用いるようにしてあるが、検出部120の大きさまたは/および形状は適宜変更することもできる。
【0033】
図3(A)に示すように、左腕の部分および右腕の部分は、それぞれ、9個の検出部120が一列に並べて連結される。胴体の前面側では、胸部と腹部に相当する部分において、27個の検出部120が長方形の面を形成するように連結され、鎖骨と肩に相当する部分の6個の検出部120がその長方形の面の上側に連結される。胴体の背面側では、背中に相当する部分において、27個の検出部120が長方形の面を形成するように連結され、その長方形の面の上側に2個の検出部120が横に並べて連結される。
【0034】
なお、複数の検出部120を結合する方法等については、後で詳細に説明することにする。
【0035】
図4は
図2に示す検出部120の構造の概略を示す図である。
図4に示すように、検出部120は、層構造を有しており、導電性布200および絶縁テープ220を含む。さらに、導電性布200は、導電面側の布200a(「第1布」に相当する)と非導電面側の布200b(「第2布」に相当する)を接結して構成される。絶縁テープ220は、導電面側の布200aに貼り付けられる。図示は省略するが、
図2に示したコントローラ130は、複数の検出部120のそれぞれの導電面側の布200aに電線で接続される。
【0036】
図5(A)は導電面側の布200aの一部拡大図であり、
図5(B)は非導電面側の布200bの一部拡大図である。また、
図6は服型触覚センサ12の検出部120を構成する導電性布200の一部拡大図である。
図5(A)、
図5(B)および
図6を参照しながら、この第1実施例の導電面側の布200a、非導電面側の布200bおよび導電性布200について具体的に説明する。ただし、
図5(A)、
図5(B)および
図6では、導電面側の布200aと非導電面側の布200bを分かり易く示すために、非導電面側の布200bを白抜きの線で示してある。また、
図6では、絶縁性の糸200cを点線で示してある。
【0037】
導電面側の布200aは、導電性の糸を丸編みすることにより作られる。この第1実施例では、導電性の糸は、ナイロン銀メッキ糸である。非導電面側の布200bは、絶縁性の糸を丸編みすることにより作られる。この第1実施例では、絶縁性の糸は、ポリエステル糸である。このように、導電性布を構成する導電面側の布200aおよび非導電面側の布200bはいずれも丸編みで作られているため、伸縮性が高い。
【0038】
図6に示すように、導電性布200は、接結天竺編みすることにより作られる。つまり、導電性布200は、導電面側の布200aと非導電面側の布200bを編みながら、それらの間をポリエステル糸のような絶縁性の糸200cで編むことにより、導電面側の布200aと非導電面側の布200bが接結される。したがって、導電性布200は、導電面側の布200aと非導電面側の布200bとその間の絶縁性の糸200cの三層構造になっている。ただし、
図4では、導電面側の布200aと非導電面側の布200bを接結するための絶縁性の糸200cの層については省略してある。
【0039】
なお、この第1実施例では、接結天竺編みにより導電性布200を作るようにしてあるが、導電面側の布200aと非導電面側の布200bの2枚の布を別々に作り、それらを面で合わせるように絶縁性の糸200cでくっつけるようにしてもよい。
【0040】
また、この第1実施例では、導電性布200に伸縮性を持たせるために、導電面側の布200aおよび非導電面側の布200bを丸編みで作るようにしたが、これに限定される必要はない。導電面側の布200aおよび非導電面側の布200bは、緯(ヨコ)編みまたは経(タテ)編みで作るようにしてもよい。かかる場合にも、導電性布200に伸縮性を持たせることができる。
【0041】
絶縁テープ220は、絶縁性のシートの片面に粘着剤を塗布したものである。絶縁性のシートは、ナイロンで形成される。絶縁テープ220としては、一例として、KAWAGUCHI社製の「ナイロン用 補修シート シールタイプ」を使用することができる。
【0042】
コントローラ130は、静電容量センサICとも呼ばれ、導電面側の布200aと接地電位の導電性の物体の間に発生する静電容量を検出する。コントローラ130には、電源から直流電圧が供給され、これを用いて静電容量を検出する。簡単に説明すると、コントローラ130は、所定期間(たとえば、5秒)毎に静電容量を検出し、この所定期間のうちの先の期間(たとえば、2.5秒)において、導電面側の布200aに所定値の直流電圧を印加し、その所定期間のうちの残りの期間において、導電面側の布200aが放電するときの電圧値を検出することにより、静電容量を算出する。静電容量を算出する機能を有するコントローラ130としては、一例として、マイクロチップ・テクノロジー・ジャパン株式会社製のマイクロコントローラ(型番:PIC16F1847)を使用することができる。
【0043】
ただし、この第1実施例では、2つの検出部120の導電面側の布200aは、それぞれ、ポリ塩化ビニルなどの絶縁性の樹脂で被覆された電線を用いて静電容量センサICの異なるポートに接続される。したがって、各検出部120の導電面側の布200aと接地電位の導電体の間に発生する静電容量が個別に検出される。
【0044】
上記のような構成の服型触覚センサ12は、タッチセンサとして機能することができる。
図7(A)は検出部120をタッチしていない状態の一例を示し、
図7(B)は検出部120をタッチした状態の一例を示し、
図7(C)は検出部120を押圧した状態の一例を示す。ただし、
図7(A)-
図7(C)では、コントローラ130を省略してある。また、
図7(A)-
図7(C)では、説明の都合上、ユーザの指を記載してあるが、ユーザの手(手のひら)でタッチ(または、接触)されることもある。また、
図7(A)-
図7(C)では、説明の都合上、服122に相当する布は省略してある。
【0045】
図7(A)および
図7(B)に示すように、接地電位のユーザが検出部120の絶縁テープ220をタッチすると、つまり、タッチしていない状態からタッチした状態に変化すると、導電面側の布200a(検出部120)とユーザの指の間に静電容量Cが発生する。
【0046】
つまり、この第1実施例では、検出部120は、絶縁テープ220が外側(オモテ側)を向き、非導電性の布20bが内側(ウラ側)を向くように、服122に固定される。
【0047】
なお、静電容量Cは数式(数1)で求めることができる。ただし、数式において、εは誘電率であり、第1実施例では、絶縁テープ220の材料によって決定される。また、Dは、検出部120とユーザの手の距離である。Sは、検出部120の面積であり、第1実施例では、5cm×10cmである。
【0048】
[数1]
C=ε×S/D
このように、静電容量Cが発生すると、ユーザなどの導電体が検出部120のタッチしていることが検出される。
【0049】
ただし、上記のとおり、検出部120は絶縁テープ22を有しているため、ユーザの手または指と導電面側の布20aとの距離Dは0ではない。したがって、
図7(C)に示すように、ユーザが検出部120を押圧すると、絶縁テープ22の厚みが多少変化し、つまり、距離Dがさらに小さくなる。このため、ユーザが検出部120に接触している場合には、さらに静電容量Cが変化することによって、ユーザが検出部120に与える圧力が検出される。つまり、服型触覚センサ12は圧力センサとしても機能する。したがって、後述するように、ユーザがロボット10を装着し、一方の手で他方の手、腕または肩を叩いたり、掴んだりしたときの力の強さ、および、一方または両方の手で胸または腹部を叩いたり、押さえたりしたときの力の強さを知ることができる。
【0050】
したがって、この第1実施例では、ロボット10は、当該ロボット10を装着したユーザが当該ロボットに接触する動作を1または複数の検出部120の静電容量Cの変化で検出する。
【0051】
なお、ロボット10を装着したユーザが当該ロボット10に接触する場合、距離Dが0になる前にも静電容量Cは発生する。したがって、コンピュータ14(CPU14a)は、コントローラ130の出力(以下、「センサ値」ということがある)が第1所定値以上の場合に、ユーザの手または指が検出部120に接触したことを判断するようにしてある。
【0052】
第1所定値は、ユーザが検出部120に接触する前に静電容量Cが発生したときの値と、ユーザが検出部120に接触した場合の静電容量Cの値に基づいて経験的に設定される。
【0053】
また、ロボット10は、静電容量Cの値に基づいて、ユーザが指で検出部120に接触した場合と、手で検出部120に接触した場合を識別可能である。ユーザが指で検出部120に接触した場合の接触した部分の面積(説明の都合上、「面積A」という)と、手で検出部120に接触した場合の接触した部分の面積(説明の都合上、「面積B」という)が異なるからである。面積Bは面積Aよりも大きいため、手で検出部120に接触した場合の方が、指で検出部120に接触した場合よりも、静電容量Cの値が大きくなる。
【0054】
したがって、この第1実施例では、指で検出部120に接触したことと、手で検出部120に接触したことを区別するための静電容量Cの閾値(第2所定値)を設定してある。ただし、第2所定値は、実験等により経験的に得られた値であり、第1所定値よりも大きい。
【0055】
次に、複数の検出部120を連結する方法等について説明する。
図3(A)および
図3(B)では省略したが、隣接する検出部120の間には、伸縮性を有する帯状の布160(「第3布」に相当する)が設けられ、この帯状の布160を介して隣接する検出部120が面状に(または、並べて)繋ぎ合わ(または、結合)され、布状の検出部120群が作られる。ただし、両腕のそれぞれと、胴体の前側と、胴体の後側の布状の検出部120群は個別に上着の服122の内側に貼り付けたり、縫い付けたりすることにより、固定される。また、複数の検出部120は、絶縁テープ22が外側を向き、非導電性の布20bが内側を向くように、服122に固定される。さらに、帯状の布160は絶縁性の布である。
【0056】
図1に示したように、検出部120は、コントローラ130に電線で接続される。したがって、上記の帯状の布160のうち、一部の布160には、電線162が縫い付けられている。
【0057】
図8は電線162が縫い付けられた帯状の布160の一例を示す図である。
図8に示すように、布160には、それぞれ波線状の形状にされた4本の電線162が縫い付けられている。ただし、
図8では、黒の点線は電線162を布160に縫い付けている糸164である。
【0058】
また、
図8に示すように、4本の電線162は2本ずつの2組に分けられ、各組において、2本の電線162が逆位相の波の形状で重ねて配置され、帯状の布160を縦長に見た場合に、2列に並んでいる。4本の電線162は、それぞれ、ポリ塩化ビニルなどの絶縁性の樹脂で被覆されており、電気的に独立している。
【0059】
図9は電線162が縫い付けられた帯状の布160で各検出部120が連結されている状態の一例を示す。
図9では、検出部120と帯状の布160を区別するために、検出部120に斜線を付している。また、各電線162を区別するために線の種類を変えて示している。なお、
図9では、電線162を縫い付けている糸164は省略してある。
【0060】
図9に示すように、帯状の布160に縫い付けられた4本の電線162は、それぞれ、適宜の長さで切断され、その一方端は、一本ずつ異なる検出部120(導電性面の布20a)に接続される。
図9に示す例では、帯状の布160の左側に並ぶ複数(
図9では4つ)の検出部120に、当該帯状の布160に縫い付けられた電線162を個別に接続してある。4本の電線162のうち、左側の列の2本の電線162が上から2つ目と3つ目の検出部120にそれぞれ接続され、右側の列の2本の電線162のうちの一本が上から1つ目の検出部120に接続され、図示は省略するが、右側の列の2本の電線162のうちの他方の一本はさらに上の検出部120に接続される。
【0061】
また、図示は省略するが、各電線162の他方端は、コントローラ130に接続される。ただし、電線162(または、検出部120)毎に接続されるコントローラ130のポートは異なる。したがって、服型触覚センサ12では、各検出部120と接地電位の導電体の間に発生する静電容量が個別に検出される。
【0062】
図9に示す電線162の接続方法は一例であり、限定される必要ない。この第1実施例では、上記のように、縦方向に並ぶように9個の検出部120を連結したため、その列に沿って伸びる帯状の布160に縫い付けられた電線162を接続するようにしただけである。
【0063】
また、
図9には、簡単のため、4個の検出部120に4本の電線162を接続する場合について示してあるが、検出部120の数に応じて、電線162が縫い付けられた帯状の布160は隣接する検出部120の間に複数枚並べられる場合もある。
【0064】
このような構成のロボット10は、ユーザが装着して使用するロボットである。つまり、ロボット10は、ユーザとは異なる身体を持つ他者として存在するのではなく、ユーザに覆い重なる他者として存在する。このようにすることで、周囲の環境または出来事などの外的な対象だけでなく、快・不快または痛みなど、ユーザの身体感覚情報や生体情報に関わる出来事に対しても、違和感無くユーザと共有することができる。
【0065】
なお、ユーザとは異なる身体を持つ他者として存在するロボットの場合には、ユーザの身体上或いは身体内の私的な情報に他者がアクセスすることになり、ユーザが強い違和感を覚える可能性がある。
【0066】
図10は、ユーザがロボット10を使用する場合の一例を示す。
図10では、スピーカ16は、服型触覚センサ12を構成する服122の左肩の部分に取り付けられる。ただし、これは一例であり、服122の右肩の部分または首元の部分に取り付けられてもよい。ただし、同様の位置に配置できるのであれば、服型触覚センサ12の服122に取り付ける必要はない。
【0067】
なお、図示は省略するが、コンピュータ14は、ユーザの近くに配置されてもよいし、小型のものを使用する場合には、服型触覚センサ12を構成する服122の裾またはズボンまたはスカートのウェストの辺りに固定したり、服122の裾辺りにポケットを設けてその中に入れたりしてもよい。
【0068】
この第1実施例のロボット10は、服型ロボットエージェント(以下、単に「エージェント」という)であり、音声によりユーザとインタラクションする。
図10に示す例では、ユーザが自身の右手で自身の左の前腕の部分を触っている。このとき、ロボット10は、ユーザの接触により、服型触覚センサ12(ロボット10)の左側の袖の前腕の部分を触られている。
【0069】
ロボット10は、当該ロボット10を装着したユーザまたは他者によって触れられると、触れられ方(接触の仕方)に応じた音声をスピーカ16から出力する。このため、装着者すなわちユーザは、自身が触れられたのにも関わらず、エージェントがそれに反応するという状態を体験することになり、自身の触体験をエージェントすなわちロボット10と共有することが可能となる。
【0070】
また、この第1実施例では、ロボット10は、2つの動作状態(以下、「対話モード」という)を有している。
【0071】
1つ目の対話モードは、ユーザの接触に応じて、スピーカ16から音声を出力することにより、エージェントがユーザに対して発話(または、発声)し、ユーザがエージェントに接触しているかのような錯覚をユーザに起こさせる対話モード(以下、「ユーザ対話モード」という)である。
【0072】
2つ目の対話モードは、ユーザの接触に応じて、スピーカ16から音声を出力することにより、エージェントがユーザに対して発話し、エージェントがユーザに接触しているかのような錯覚をユーザに起こさせる対話モード(以下、「エージェント対話モード」という)である。
【0073】
つまり、スピーカ16から出力する音声の内容、すなわち、発話の内容によって、ロボット10を装着したユーザによる当該ロボット10および当該ユーザへの接触を、ユーザからエージェントに向けた接触と思わせたり、エージェントからユーザに向けた接触と思わせたりしているのである。つまり、発話の内容によって、接触の行為者をユーザまたはロボットと錯覚させる。いずれの場合にも、上述したように、自身の触体験をエージェントすなわちロボット10と共有することが可能となる。
【0074】
具体的な動作においては、ロボット10は、接触されたかどうかを判断し、接触された場合に、所定の条件に従って、対話モードをユーザ対話モードまたはエージェント対話モードに設定する。この第1実施例では、各対話モードにおいて、接触の仕方に応じて、異なる内容の音声が出力される。
【0075】
第1実施例では、所定の条件は、服型触覚センサ12(ロボット10)に指で接触したか手で接触したかであり、つまり、接触した手段の違いであり、指で接触した場合に、ユーザ対話モードが設定され、手で接触した場合に、エージェント対話モードが設定される。
【0076】
接触の仕方は、
図11に示すような対応表を用いて推定される。
図11に示す対応表では、代表ベクトルに対応して、接触情報(すなわち、接触した部位および接触の仕方)が記載される。
【0077】
代表ベクトルは、対応する接触情報に記載の接触を行った場合に、複数の検出部120の出力(センサ値)を用いて算出される特徴量についてのベクトルであり、接触情報毎に記載(記憶)される。一例として、特徴量は、一定時間(たとえば、1秒)における複数の検出部120の各々のセンサ値の平均、分散およびエントロピーの少なくとも1つである。代表ベクトルは、予め実験等で得られたセンサ値に基づいて算出される。
【0078】
他の例では、特徴量は、複数の検出部120の各々についての前回のセンサ値と今回のセンサ値の差分である。
【0079】
図11に示す例では、第1代表ベクトルに対応する接触情報として「肩を撫でる」が記述される。また、第2代表ベクトルに対応する接触情報として「肩を擦る」が記述される。他の代表ベクトルについても同様である。なお、第n特徴ベクトルに対応する接触情報として「接触無し」も記述される。
【0080】
ロボット10(服型触覚センサ12)で接触が検出されると、複数の検出部120のセンサ値を用いて特徴量のベクトルを算出し、算出した特徴量のベクトルが最も近似する1つの代表ベクトルを、対応表に含まれる複数の代表ベクトルから特定する。そして、ロボット10は、特定された1つの代表ベクトルに対応して記載された接触情報が示す接触の仕方を、現在のユーザの接触の仕方として推定する。
【0081】
発話内容は、接触からユーザが抱く感情を推定し、推定した感情とユーザに想起させる接触の行為者に応じて決定される。ただし、発話内容は、
図12に示すラッセルの円環モデルを用いて、分類した複数種類の感情の各々について決定される。
【0082】
図12に示すラッセルの円環モデルによれば、人間の全ての感情は、快-不快と、興奮(覚醒)-沈静(非覚醒)の2次元で表される平面上において、円環上に並んでいる。ただし、概略を説明するだけであるため、
図12では、一部の感情を記載してある。この第1実施例では、ラッセルの円環モデルを用いて、点線枠で囲むように、複数の感情を、快、不快、覚醒および非覚醒の4つの種類に分類し、各分類に応じた発話を行うようにしてある。たとえば、4つの種類の感情における発話を、それぞれ、快発話、不快発話、覚醒発話、非覚醒発話と呼ぶことにする。
【0083】
図12に示す例では、歓喜、幸福感、喜び、安心を快に分類し、悩み、不愉快、悲しみ、憂鬱を不快に分類し、緊張、警戒、驚き、興奮を覚醒に分類し、不活性、退屈、眠気、リラックスを非覚醒に分類してある。
【0084】
また、発話内容は、上述したように、ユーザに想起させる接触の行為者も考慮して決定される。具体的には、発話内容は、ユーザ対話モードでは、ユーザがエージェントに対して接触を行っていることを想起させるように決定され、エージェント対話モードでは、エージェントがユーザに対して接触を行っていることを想起させるように決定される。
【0085】
したがって、この第1実施例では、触っている部位に関係無く、ユーザ対話モードでは、接触の仕方として「くすぐっている」ことが推定されると、快発話として「くすぐったい」と発話する。つまり、スピーカ16から「くすぐったい」に対応する合成音声が出力される。以下、発話する場合について同様である。
【0086】
ただし、接触の仕方として「くすぐっている」ことが繰り返し推定される場合には、不快になることが想定されるため、所定回数(たとえば、5回)以上繰り返された場合には、不快発話として「やめて」と発話する。また、接触の仕方として「押している」ことが推定された場合にも、不快発話が行われる。
【0087】
さらに、接触の仕方として「突っついている」ことが推定されると、覚醒発話として「びっくりした」と発話する。ただし、接触の仕方として「突っついている」ことが繰り返し推定される場合には、不快になることが想定されるため、所定回数(たとえば、5回)以上繰り返された場合には、不快発話が行われる。
【0088】
さらにまた、接触の仕方として「擦っている」ことが推定されると、非覚醒発話として「落ち着く」と発話する。
【0089】
また、この第1実施例では、触っている部位に関係無く、エージェント対話モードでは、接触の仕方として「揉んでいる」ことが推定されると、快発話として「気持ちいい?」と発話する。また、接触の仕方として「叩いている」ことが推定されると、不快発話として「バカ」と発話する。さらに、接触の仕方として「握っている」ことが推定されると、覚醒発話として「びっくりした」と発話する。さらにまた、接触の仕方として「撫でている」ことが推定されると、非覚醒発話として「落ち着いて」と発話する。
【0090】
図13は
図1に示すコンピュータ14のRAM14bのメモリマップ300の一例を示す。
図13に示すように、RAM14bは、プログラム記憶領域302およびデータ記憶領域304を含む。
【0091】
プログラム記憶領域302は、ロボット10の制御プログラムを記憶し、制御プログラムは、センサ値取得プログラム302a、特徴量算出プログラム302b、推定プログラム302c、対話モード切替プログラム302dおよび発話プログラム302eなどを含む。
【0092】
センサ値取得プログラム302aは、コントローラ130から送信される各検出部120の出力に基づくセンサ値を取得するためのプログラムである。ただし、各検出部120の出力に基づくセンサ値は個別に識別可能にされている。
【0093】
特徴量算出プログラム302bは、センサ値取得プログラム302aに従って取得された1または複数のセンサ値に基づいて徴量ベクトルを算出するためのプログラムである。
【0094】
推定プログラム302cは、特徴量算出プログラム302bに従って算出された特徴量ベクトルに近似する代表ベクトルに対応して対応表に記載された接触情報(すなわち、接触の仕方)を推定するためのプログラムである。
【0095】
対話モード切替プログラム302dは、所定の条件に基づいて対話モードを切り替えるためのプログラムである。第1実施例では、所定の条件は、ユーザが指で服型触覚センサ12に触れているか、および、ユーザが手で服型触覚センサ12に触れているかである。
【0096】
発話プログラム302eは、現在の対話モードにおいて、推定プログラム302cに従って推定された接触の仕方に応じて予め決定されている発話内容に対応する合成音声データをスピーカ16に出力するためのプログラムである。
【0097】
データ記憶領域304には、センサ値データ304a、特徴量データ304b、対応表データ304c、発話データ304dおよび対話モードフラグ304eなどが記憶される。
【0098】
センサ値データ304aは、コントローラ130から送信されたセンサ値についてのデータであり、各検出部120の出力に基づくセンサ値が識別可能に記憶される。また、センサ値データ304aは、時系列に従って記憶され、CPU14aによって特徴量ベクトルの算出処理に使用されると、削除される。
【0099】
特徴量データ304bは、センサ値データ304aに基づいて生成した特徴量ベクトルについてのデータである。対応表データ304cは、
図11に示した対応表についてのデータである。発話データ304dは、各発話内容に対応する合成音声データである。
【0100】
対話モードフラグ304eは、ユーザ対話モードが設定されているか、エージェント対話モードが設定されているかを判断するためのフラグである。対話モードフラグ304eは、対話モードとしてユーザ対話モードが設定されている場合にオンされ、対話モードとしてエージェント対話モードが設定されている場合にオフされる。
【0101】
図14はコンピュータ14に内蔵されるCPU14aの推定処理のフロー図である。
図14に示す推定処理は、第1所定時間(たとえば、500msec)毎に実行される。
【0102】
図14に示すように、CPU14aは、推定処理を開始すると、ステップS1で、ステップS1で、各検出部120の出力に基づくセンサ値を取得する。
【0103】
次のステップS3では、ステップS1で取得した複数のセンサ値に基づいて特徴量ベクトルを算出する。そして、ステップS5で、接触の仕方を推定する。ここでは、CPU14aは、対応表データ304cを参照して、ステップS3で算出した特徴量ベクトルと最も近似する代表ベクトルに対応して記載された接触の仕方を現在のユーザの接触の仕方として推定する。
【0104】
図15はコンピュータ14に内蔵されるCPU14aの対話モード切替処理のフロー図である。
図15に示す対話モード切替処理は、第2所定時間(たとえば、数十秒~数分)毎に実行される。ただし、対話モード切替処理は、接触の仕方が所定回数(たとえば、数回から10回程度)推定される毎に実行されてもよい。また、CPU14aは、推定処理を実行している場合には、この処理と並行して、対話モード切替処理を実行する。
【0105】
図15に示すように、CPU14aは、対話モード切替処理を開始すると、ステップS21で、導電体が服122に触れているかどうかを判断する。ここでは、CPU14aは、いずれか1つの検出部120の出力に基づく検出値が第1所定値以上であるかどうかを判断する。
【0106】
ステップS21で“NO”であれば、つまり、導電体が服122に触れていない場合には、対話モード切替処理を終了する。一方、ステップS21で“YES”であれば、つまり、導電体が服122に触れている場合には、ステップS23で、指で触れているかどうかを判断する。ここでは、CPU14aは、取得した1または複数の検出値のうちの最大値が第1所定値以上であり、かつ、第2所定値未満であるかどうかを判断する。
【0107】
ステップS23で“YES”であれば、つまり、指で触れている場合には、ステップS25で、ユーザ対話モードを設定して、対話モード切替処理を終了する。ただし、既にユーザ対話モードが設定されている場合には、ステップS25の処理はスキップされる。また、対話モード切替処理が最初に実行される場合には、対話モードとして、ユーザ対話モードまたはエージェント対話モードがデフォルトで設定される。2回目以降では、前回設定された対話モードが保持されている。
【0108】
一方、ステップS23で“NO”であれば、つまり、指で触れていない場合には、ステップS27で、手で触れているかどうかを判断する。ここでは、CPU14aは、取得した1または複数の検出値のうちの最大値が第2所定値以上であり、かつ、第3所定値未満であるかどうかを判断する。
【0109】
ステップS27で“YES”であれば、つまり、手で触れている場合には、ステップS29で、エージェント対話モードを設定して、対話モード切替処理を終了する。ただし、既にエージェント対話モードが設定されている場合には、ステップS29の処理はスキップされる。
【0110】
一方、ステップS27で“NO”であれば、つまり、手で触れていない場合には、ユーザ(ロボット10)の近くに他の人間などの手よりも面積の大きい導電体が存在すると判断して、対話モードを設定(更新)しないで、対話モード切替処理を終了する。
【0111】
図16および
図17は、CPU14aのユーザ対話モードに発話処理の一例を示すフロー図である。
図16および
図17に示すユーザ対話モードにおける発話処理は、ユーザ対話モードが設定されている場合に、つまり、対話モードフラグ304eがオンである場合に、推定処理において、接触無し以外の接触の仕方が推定されると実行されるが、ロボット10が発話中である場合には、実行されない。ただし、ロボット10が発話中であっても実行し、発話を終了した後に、今回の発話処理における発話を実行してもよい。
【0112】
図16に示すように、CPU14aは、ユーザ対話モードにおける発話処理を開始すると、ステップS51で、くすぐっているかどうかを判断する。ここでは、CPU14aは、推定された接触の仕方が、触れられている部位に拘わらず、「くすぐっている」であるかどうかを判断する。以下、接触の仕方を判断する場合について同様である。
【0113】
ステップS51で“YES”であれば、つまり、くすぐっている場合には、ステップS53で、くすぐりの繰り返し回数が5未満であるかどうかを判断する。図示は省略するが、くすぐりの繰り返し回数は、ユーザ対話モードが最初に実行されるとき、対話モードがエージェント対話モードからユーザ対話モードに変わったときに、0に設定される。また、他の接触の仕方が判断された場合にも、0に設定される。
【0114】
ステップS53で“NO”であれば、つまり、くすぐりの繰り返し回数が5以上であれば、ステップS61で、くすぐりの繰り返し回数を0に設定して、ステップS63に進む。ただし、ステップS53では、第3所定時間(たとえば、5秒)の間に、繰り返し回数が5以上になった場合に“NO”と判断される。ユーザが継続してくすぐっていることを判断するためである。後述するように、突っついている場合も同様である。
【0115】
一方、ステップS53で“YES”であれば、つまり、繰り返し回数が5未満であれば、ステップS55で、くすぐりの繰り返し回数を1加算し、ステップS57で、「くすぐったい」と発話し、ユーザ対話モードにおける発話処理を終了する。ステップS57では、CPU14aは、発話データ304dに含まれる「くすぐったい」に対応する合成音声データをスピーカ16に出力する。以下、発話する場合について同様である。
【0116】
また、ステップS51で“NO”であれば、つまり、くすぐっていない場合には、ステップS59で、押しているかどうかを判断する。ステップS59で“YES”であれば、つまり、押している場合には、ステップS63で、「やめて」と発話して、ユーザ対話モードにおける発話処理を終了する。
【0117】
一方、ステップS59で“NO”であれば、つまり、押していない場合には、
図17に示すステップS65で、突っついているかどうかを判断する。ステップS65で“YES”であれば、つまり、突っついている場合には、ステップS67で、突っつきの繰り返し回数が5未満であるかどうかを判断する。
【0118】
ステップS67で“NO”であれば、つまり、突っつきの繰り返し回数が5以上であれば、ステップS69で、突っつきの繰り返し回数を0に設定して、
図16に示したステップS63に進む。一方、ステップS67で“YES”であれば、つまり、突っつきの繰り返し回数が5未満であれば、ステップS71で、突っつきの繰り返し回数を1加算し、ステップS73で、「びっくりした」と発話して、
図16に示したように、ユーザ対話モードにおける発話処理を終了する。
【0119】
また、ステップS65で“NO”であれば、つまり、突っついていない場合には、ステップS75で、擦っているかどうかを判断する。ステップS75で“NO”であれば、つまり、擦っていない場合には、ユーザ対話モードにおける発話処理を終了する。一方、ステップS75で“YES”であれば、つまり、擦っている場合には、ステップS77で、「落ち着く」と発話して、ユーザ対話モードにおける発話処理を終了する。
【0120】
なお、ユーザ対話モードでは、4つの接触の仕方の各々に応じた発話を行う例を示したが、さらに他の接触の仕方に応じた発話を行うようにしてもよい。このことは、後述するエージェント対話モードにおける発話処理についても同じである。
【0121】
図18および
図19は、CPU14aのエージェント対話モードにおける発話処理の一例を示すフロー図である。
図18および
図19に示すエージェント対話モードにおける発話処理は、エージェント対話モードが設定されている場合に、つまり、対話モードフラグ304eがオフの場合に、推定処理において、接触無し以外の接触の仕方が推定されると実行されるが、ロボット10が発話中である場合には、実行されない。ただし、ロボット10が発話中であっても実行し、発話を終了した後に、今回の発話処理における発話を実行してもよい。
【0122】
図18に示すように、CPU14aは、エージェント対話モードにおける発話処理を開始すると、ステップS91で、揉んでいるかどうかを判断する。ステップS91で“YES”であれば、つまり、揉んでいる場合には、ステップS93で、「気持ちいい?」と発話して、エージェント対話モードにおける発話処理を終了する。
【0123】
一方、ステップS91で“NO”であれば、つまり、揉んでいない場合には、ステップS95で、叩いているかどうかを判断する。ステップS95で“YES”であれば、つまり、叩いている場合には、ステップS97で、「バカ」と発話して、エージェント対話モードにおける発話処理を終了する。
【0124】
一方、ステップS95で“NO”であれば、つまり、叩いていない場合には、
図19に示すステップS99で、握っているかどうかを判断する。ステップS99で“YES”であれば、つまり、握っている場合には、ステップS101で、「びっくりした」と発話して、エージェント対話モードにおける発話処理を終了する。
【0125】
一方、ステップS99で“NO”であれば、つまり、握っていない場合には、ステップS103で、撫でているかどうかを判断する。ステップS103で“NO”であれば、つまり、撫でていない場合には、エージェント対話モードにおける発話処理を終了する。一方、ステップS103で“YES”であれば、つまり、撫でている場合には、ステップS105で、「落ち着いて」と発話して、エージェント対話モードにおける発話処理を終了する。
【0126】
第1実施例によれば、ユーザからエージェントに向けた言葉またはエージェントからユーザに向けた言葉であって、ロボットを装着したユーザが当該ロボットに接触した場合の接触の仕方に応じた円環モデルに従う言葉を発話する。つまり、接触の行為者をユーザまたはロボットと錯覚させる発話を行うため、ユーザに他者からの触れ合いを提供することができる。
【0127】
また、この第1実施例によれば、タッチ検出部は導電性布と絶縁テープで構成されるため、服型触覚センサの製造が簡単である。また、導電性布は接結天竺編みで作られるため、耐久性に優れている。
【0128】
なお、この第1実施例では、ユーザがロボット(服型触覚センサ)に手で触れているか指で触れているかに応じて対話モードを切り替えるようにしたが、これは一例であり、限定されるべきでない。他の例では、ユーザが触った場所に応じて、対話モードが切り替えられてもよい。たとえば、左腕を触ると、エージェント対話モードが設定され、右腕を触ると、ユーザ対話モードが設定される。
【0129】
また、この第1実施例では、長袖の服を用いた服型触覚センサを構成するようにしたが、長ズボンを用いた服型触覚センサまたは長袖の服と長ズボンの両方を用いた服型触覚センサを構成してもよい。かかる場合には、長ズボンにも、複数の検出部が設けられ、ユーザが足を触る場合の接触の仕方も検出され、この接触の仕方に応じた発話がユーザ対話モードおよびエージェント対話モードの各々で実行される。
【0130】
さらに、この第1実施例では、複数の検出部を服に固定し、複数の検出部のセンサ値に基づいて接触の仕方を推定して、発話するようにしたが、これに限定される必要はない。他の例では、特定の部位(たとえば、左または右の前腕)に相当する位置に1つまたは複数の検出部を設けておき、1つまたは複数の検出部のセンサ値に基づいて接触の仕方を推定して、発話するようにしてもよい。
【0131】
さらに、この第1実施例では、接触の仕方のみに応じて発話するようにしたが、接触情報には接触した場所(または部位)も含まれるため、接触の仕方と接触した場所に応じて、発話するようにしてもよい。また、接触した場所も考慮する場合には、接触した場所に応じて、異なるエージェントが発話するようにしてもよい。たとえば、異なるエージェントは音声の違い(音高の違い、または、口調の違い)で表現される。また、この場合、エージェント別にスピーカを設けて、発話するエージェントに応じて音声を出力するスピーカを使い分けてもよい。
【0132】
さらにまた、この第1実施例では、服の背面側すなわち背中の部分にも検出部を設けるようにしたが、ユーザが触り難い部分であるため、背面側の検出部は無くてもよい。
【0133】
また、この第1実施例では、各対話モードでは、快発話、不快発話、覚醒発話、非覚醒発話の各々について、予め設定された1つの発話内容の音声が出力されるようにしたが、これに限定される必要はない。他の例では、各対話モードにおいて、快発話、不快発話、覚醒発話、非覚醒発話の各々について、予め複数の発話内容を設定しておき、所定のルールで選択された発話内容の音声を出力するようにしてもよい。所定のルールは、予め決定された順番またはランダムである。
【0134】
さらに、この第1実施例では、布製の検出部を設けるようにしたが、シート状で柔らかい素材の他のセンサを用いることもできる。一例として、タッチエンス株式会社製の薄型の触覚センサ(商品名「ショッカクキューブ(TM)」を使用することができる。
【0135】
[第2実施例]
第2実施例は、ユーザ対話モードとエージェント対話モードの切り替えをユーザの音声で切り替えるようにした以外は、第1実施例と同じである。したがって、第2実施例の対話モードの切り替えについてのみ説明し、第1実施例と重複する内容についての説明は省略する。
【0136】
第2実施例のロボット10はマイクをさらに備え、マイクはコンピュータ14に接続される。また、コンピュータ14は、音声認識機能を有し、マイクを通して入力されるユーザの音声を音声認識する。一例として、ヘッドセットマイクを使用することができるが、収音マイクを服122の襟に取り付けてもよい。
【0137】
第2実施例では、服122に導電体が振れていることが判断されると、ロボット10(コンピュータ14)は、音声認識処理を実行するとともに、マイクを通して入力されるユーザの音声を検出し、検出した音声を音声認識する。
【0138】
第2実施例では、予め登録された単語(以下、「ウェイクワード」という)を検出し、検出したウェイクワードに基づいて、ユーザ対話モードとエージェント対話モードを切り替える。たとえば、「遊ぼう」というウェイクワードが検出された場合には、ユーザ対話モードが設定され、「慰めて」というウェイクワードが検出された場合には、エージェント対話モードが設定される。
【0139】
具体的には、CPU14aが
図20に示す対話モード切替処理を実行する。以下、
図20に示す対話モード切替処理のフロー図について説明するが、第1実施例で示した対話モード切替処理と同じ処理を行うステップについては、同じ参照符号を付するとともに、重複した説明は省略する。
【0140】
図20に示すように、CPU14aは、ステップS21において、服に触れていることを判断すると、ステップS121で、音声認識処理を実行し、ステップS123で、ウェイクワードを検出する。なお、音声認識処理が開始されると、マイクを通して入力されるユーザの音声が検出される。
【0141】
次のステップS125では、ユーザが「遊ぼう」と発話したかどうかを判断する。ここでは、CPU14aは、検出したウェイクワードが「遊ぼう」であるかどうかを判断する。後述するステップS127も同様である。
【0142】
ステップS125で“YES”であれば、つまり、ユーザが「遊ぼう」と発話すれば、ステップS27に進む。一方、ステップS125で“NO”であれば、つまり、ユーザが「遊ぼう」と発話していなければ、ステップS127で、ユーザが「慰めて」と発話したかどうかを判断する。
【0143】
ステップS127で“YES”であれば、つまり、ユーザが「慰めて」と発話すれば、ステップS29に進む。一方、ステップS127で“NO”であれば、つまり、ユーザが「慰めて」と発話していなければ、対話モード切替処理を終了する。
【0144】
第2実施例によれば、第1実施例と同じ効果を奏するとともに、ユーザの音声で対話モードを切り替えることができる。
【0145】
なお、上記の各実施例で示した具体的な数値および制御方法は単なる例示であり、限定される必要は無く、実際の製品および製品が適用される環境などに応じて適宜変更可能である。
【符号の説明】
【0146】
10 …ロボット
12 …服型触覚センサ
14 …コンピュータ
16 …スピーカ
120 …検出部
130 …コントローラ
160 …布
162 …電線
200 …導電性布
200a …導電面側の布
200b …非導電面側の布
220 …絶縁テープ