特許第6935902号(P6935902)IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 株式会社国際電気通信基礎技術研究所の特許一覧

<>
  • 特許6935902-コミュニケーションロボット 図000002
  • 特許6935902-コミュニケーションロボット 図000003
  • 特許6935902-コミュニケーションロボット 図000004
  • 特許6935902-コミュニケーションロボット 図000005
  • 特許6935902-コミュニケーションロボット 図000006
  • 特許6935902-コミュニケーションロボット 図000007
  • 特許6935902-コミュニケーションロボット 図000008
  • 特許6935902-コミュニケーションロボット 図000009
  • 特許6935902-コミュニケーションロボット 図000010
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】6935902
(24)【登録日】2021年8月30日
(45)【発行日】2021年9月15日
(54)【発明の名称】コミュニケーションロボット
(51)【国際特許分類】
   B25J 13/00 20060101AFI20210906BHJP
   A63H 11/00 20060101ALI20210906BHJP
【FI】
   B25J13/00 Z
   A63H11/00 Z
【請求項の数】6
【全頁数】20
(21)【出願番号】特願2017-29189(P2017-29189)
(22)【出願日】2017年2月20日
(65)【公開番号】特開2018-134692(P2018-134692A)
(43)【公開日】2018年8月30日
【審査請求日】2020年1月15日
(73)【特許権者】
【識別番号】393031586
【氏名又は名称】株式会社国際電気通信基礎技術研究所
(74)【代理人】
【識別番号】100090181
【弁理士】
【氏名又は名称】山田 義人
(72)【発明者】
【氏名】塩見 昌裕
(72)【発明者】
【氏名】中田 彩
(72)【発明者】
【氏名】神原 誠之
(72)【発明者】
【氏名】萩田 紀博
【審査官】 樋口 幸太郎
(56)【参考文献】
【文献】 特開2005−161450(JP,A)
【文献】 特開2015−013067(JP,A)
【文献】 特開2009−291328(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
B25J 13/00
A63H 11/00
(57)【特許請求の範囲】
【請求項1】
遠隔操作によって会話できる、ぬいぐるみ型のコミュニケーションロボットであって、
底部が床上に据え付けられる胴体、
前記胴体の前記底部から左右前方に設けられる足、
前記胴体の上に配置されて前記胴体と連結される頭部、
前記胴体の肩部から延びる所定以上の長さを有する2本の腕、
前記腕のそれぞれの内面側に分散して設けられるシート状の複数の触覚センサ、
前記腕のそれぞれに設けられるひじ関節部、
前記ひじ関節部を制御して前記腕を開いて、抱擁可能範囲に存在する人に対して抱擁を促す抱擁促し部、
前記足に乗って、前記足と前記頭部の間の前記胴体に人が抱きついたとき、前記ひじ関節部を制御して前記腕を所定角度閉じる腕閉じ部、
前記腕閉じ部によって前記腕を閉じて前記触覚センサの圧力値が所定値以上になるまで、前記ひじ関節部を制御して、前記腕を前記抱きついた人の背中に回して前記人を抱擁させる抱擁制御部、
前記抱きついた人を前記腕で抱擁した状態で、発話部を通して前抱きついた人と対話する対話部、
前記抱きついた人を前記腕で抱擁した状態の前記人に抱擁刺激が必要かどうか判断する判断部、および
前記判断部によって必要と判断したとき、前記ひじ関節部を制御して、前記人の背中に回した前記腕によって前記人に抱擁刺激を提示する抱擁刺激制御部を備える、コミュニケーションロボット。
【請求項2】
発話コンテンツと対応して抱擁刺激の要否を設定する発話コンテンツ設定部をさらに備え、
前記判断部は前記発話コンテンツ設定部の設定に基づいて判断し、
前記抱擁刺激制御部は、前記発話コンテンツ設定部が必要と設定している前記発話部からの発話に応じて、前記抱擁刺激を提示する、請求項記載のコミュニケーションロボット。
【請求項3】
前記判断部は時間経過に基づいて判断し、前記抱擁刺激制御部は、前回の抱擁刺激提示から所定時間したとき、前記抱擁刺激を提示する、請求項1または2記載のコミュニケーションロボット。
【請求項4】
前記肩に設けられる肩関節部、および
前記肩関節部を制御して前記2本の腕を上下に変位させる肩関節制御部をさらに備える、請求項1ないし3のいずれかに記載のコミュニケーションロボット。
【請求項5】
前記胴体と前記頭部を連結する首関節部、および
前記首関節部を制御して前記頭部を前後に変位させる首関節制御部をさらに備える、請求項1ないし4のいずれかに記載のコミュニケーションロボット。
【請求項6】
底部が床上に据え付けられる胴体、前記胴体の前記底部から左右前方に設けられる足、前記胴体の上に胴体と連結される頭部、前記胴体の肩部から延びる所定以上の長さを有する2本の腕、前記腕のそれぞれの内面側に分散して設けられるシート状の複数の触覚センサおよび前記2本の腕のそれぞれに設けられるひじ関節部を備え、遠隔操作によって会話できるコミュニケーションロボットのコンピュータによって実行される制御プログラムであって、前記コンピュータを
前記ひじ関節部を制御して前記腕を開いて、抱擁可能範囲に存在する人に対して抱擁を促す抱擁促し部、
前記足に乗って前記足と前記頭部の間の前記胴体に人が抱きついたとき、前記ひじ関節部を制御して前記腕を所定角度閉じる腕閉じ部、
前記腕閉じ部によって前記腕を閉じて前記触覚センサの圧力値が所定値以上になるまで、前記ひじ関節部を制御して、前記腕を前記抱きついた人の背中に回して前記人を抱擁させる抱擁制御部、および
前記抱きついた人を前記腕で抱擁した状態で、発話部を通して前抱きついた人と対話する対話部、
前記抱きついた人を前記腕で抱擁した状態の前記人に抱擁刺激が必要かどうか判断する判断部、および
前記判断部によって必要と判断したとき、前記ひじ関節部を制御して、前記人の背中に回した前記腕によって前記人に抱擁刺激を提示する抱擁刺激制御部
として機能させる、コミュニケーションロボット。
【発明の詳細な説明】
【技術分野】
【0001】
この発明はコミュニケーションロボットに関し、特にたとえば、人と対話するコミュニケーションロボットに関する。
【背景技術】
【0002】
癒し効果を発揮するように考案されたぬいぐるみロボットが特許文献1に開示されている。このぬいぐるみロボットでは、糸に作用することによってぬいぐるみロボットを動作させるようにし、動作部分の持つ違和感を解消しようとするものである。特許文献1では、ぬいぐるみロボットを置いた状態で糸によって可動部を動作させるようにしている。
【0003】
特許文献1のぬいぐるみロボットでは、人とぬいぐるみの距離が遠く、必ずしも大きな癒し効果が期待できない。
【0004】
そこで、本件出願人は、特許文献2で、人が抱擁可能な抱擁体を提案した。この特許文献2の抱擁体では人が、たとえば抱擁体が人の体に密着するように抱擁体の後ろに腕を回して抱擁体を抱擁すると、抱擁体を抱擁した人の腕の皮膚を刺激し、抱擁体を抱擁していることによる癒し効果に加えて、腕の皮膚(人の腕のCT繊維の受容野)が刺激を受けることによる癒し効果が発揮されるので、人に対してより大きい癒し効果を与えることができる。
【先行技術文献】
【特許文献】
【0005】
【特許文献1】特開2009-291328号公報[A63H11/00,B25J13/0806.A63H3/02]
【特許文献2】特開2015-13067号公報[A63H3/023/0033/00A61F7/03]
【発明の開示】
【発明が解決しようとする課題】
【0006】
特許文献2の抱擁体は、大きな癒し効果が期待できるが、抱擁体を抱擁するという人の一方的な作用によるもので、ロボットの能動的な動作はなかった。
【0007】
それゆえに、この発明の主たる目的は、新規な、コミュニケーションロボットを提供することである。
【0008】
この発明の他の目的は、人に、癒しだけでなく、安心感をも与えることができる、コミュニケーションロボットを提供することである。
【課題を解決するための手段】
【0009】
この発明は、上記の課題を解決するために、以下の構成を採用した。なお、括弧内の参照符号および補足説明等は、本発明の理解を助けるために後述する実施の形態との対応関係を示したものであって、本発明を何ら限定するものではない。
【0010】
第1の発明は、遠隔操作によって会話できる、ぬいぐるみ型のコミュニケーションロボットであって、底部が床上に据え付けられる胴体、胴体の底部から左右前方に設けられる足、胴体の上に配置されて胴体と連結される頭部、胴体の肩部から延びる所定以上の長さを有する2本の腕、腕のそれぞれの内面側に分散して設けられるシート状の複数の触覚センサ、腕のそれぞれに設けられるひじ関節部、ひじ関節部を制御して腕を開いて、抱擁可能範囲に存在する人に対して抱擁を促す抱擁促し部、脚に乗って足と頭部の間の胴体に人が抱きついたとき、ひじ関節部を制御して腕を所定角度閉じる腕閉じ部、腕閉じ部によって腕を閉じて触覚センサの圧力値が所定値以上になるまで、ひじ関節部を制御して、抱きついた人の背中に回して人を抱擁させる抱擁制御部、腕で抱きついた人を腕で抱擁した状態で、発話部を通して前抱きついた人と対話する対話部、抱きついた人を腕で抱擁した状態の人に抱擁刺激が必要かどうか判断する判断部、および判断部によって必要と判断したとき、ひじ関節部を制御して、人の背中に回した腕によって人に抱擁刺激を提示する抱擁刺激制御部を備えるを備える、コミュニケーションロボットである。
【0011】
第1の発明によれば、ロボットの腕で人を抱擁し、しかも抱擁刺激を人に対して提示するので、人に癒しを与え、さらに安心感を与えることができる。
【0014】
の発明は、第1の発明に従属し、発話コンテンツと対応して抱擁刺激の要否を設定する発話コンテンツ設定部をさらに備え、判断部は発話コンテンツ設定部の設定に基づいて判断し、抱擁刺激制御部は、発話コンテンツ設定部が必要と設定している発話部からの発話に応じて抱擁刺激を提示する、コミュニケーションロボットである。
【0015】
の発明によれば、発話コンテンツ設定部おける設定に従って、適切に抱擁刺激を与えることができる。
【0016】
の発明は、第1または第2の発明に従属し、判断部は時間経過に基づいて判断し、抱擁刺激制御部は、前回の抱擁刺激提示から所定時間したとき、抱擁刺激を提示する、コミュニケーションロボットである。
【0017】
の発明によれば、発話コンテンツの如何に拘わらず、所定時間ごとに抱擁刺激を提示するので、人とのインタラクションを継続させることができる。
【0018】
の発明は、第1ないし第のいずれかの発明に従属し、肩に設けられる肩関節部、および肩関節部を制御して2本の腕を上下に変位させる肩関節制御部をさらに備える、コミュニケーションロボットである。
【0019】
の発明によれば、ひじ関節に加えて肩関節を適宜制御することによって、人に対してより複雑または多彩な抱擁刺激を提示することができる。
【0020】
の発明は、第1ないし第のいずれかの発明に従属し、胴体と頭部を連結する首関節部、および首関節部を制御して頭部を前後に変位させる首関節制御部をさらに備える、コミュニケーションロボットである。
【0021】
の発明によれば、ひじ関節(および肩関節)に加えて肩関節を適宜制御することによって、人に対してより複雑または多彩な抱擁刺激を提示することができる。
【0022】
の発明は、底部が床上に据え付けられる胴体、胴体の底部から左右前方に設けられる足、胴体の上に胴体と連結される頭部、胴体の肩部から延びる所定以上の長さを有する2本の腕、腕のそれぞれの内面側に分散して設けられるシート状の複数の触覚センサおよび2本の腕のそれぞれに設けられるひじ関節部を備え、遠隔操作によって会話できるコミュニケーションロボットのコンピュータによって実行される制御プログラムであって、コンピュータをひじ関節部を制御して腕を開いて、抱擁可能範囲に存在する人に対して抱擁を促す抱擁促し部、足に乗って足と頭部の間の胴体に人が抱きついたとき、ひじ関節部を制御して腕を所定角度閉じる腕閉じ部、腕閉じ部によって腕を閉じて触覚センサの圧力値が所定値以上になるまで、ひじ関節部を制御して、抱きついた人の背中に回して人を抱擁させる抱擁制御部、抱きついた人を腕で抱擁した状態で、発話部を通して前抱きついた人と対話する対話部、抱きついた人を腕で抱擁した状態の人に抱擁刺激が必要かどうか判断する判断部、および判断部によって必要と判断したとき、ひじ関節部を制御して、人の背中に回した腕によって人に抱擁刺激を提示する抱擁刺激制御部として機能させる、コミュニケーションロボットの制御プログラムである。
【0023】
の発明によれば、第1の発明と同様に、人に癒しを与え、さらに安心感を与えることができる。
【発明の効果】
【0024】
この発明によれば、コミュニケーションロボットが能動的に人を長い腕で抱擁し、しかも必要なときに、その腕でたとえば人の背中などを刺激するので、人に、癒しだけでなく、安心感をも与えることができる。
【0025】
この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。
【図面の簡単な説明】
【0026】
図1図1はこの発明の一実施例のコミュニケーションロボットシステムを示す図解図である。
図2図2図1実施例に用いられるコミュニケーションロボットの一実施例を示す図解図である。
図3図3図2実施例のコミュニケーションロボットの構造の一例を示す図解図である。
図4図4図2図3に示すコミュニケーションロボットの電気的な構成を示すブロック図である。
図5図5図1実施例におけるコミュニケーションロボットの動作の一例を示すフロー図である。
図6図6図5に示す動作において人がコミュニケーションロボットに近づいた状態を示す図解図である。
図7図7図5に示す動作において人を抱擁した状態を示す図解図である。
図8図8は発話コンテンツと抱擁刺激の対応の一例を示す表である。
図9図9図2実施例のコミュニケーションロボットの構造の他の例を示す図解図である。
【発明を実施するための最良の形態】
【0027】
図1を参照して、この実施例のコミュニケーションロボットシステム(以下、単に「ロボットシステム」ということがある。)10は、コミュニケーションロボット(以下、単に「ロボット」ということがある。)12を含む。ロボット12は、図2に示すような、テディベア(商品名)に似た、大きな熊型のぬいぐるみロボットである。
【0028】
ロボット12は、インターネットや電話通信回線のようなネットワーク14を介して遠隔操作端末16に接続される。遠隔操作端末16は、PC、PDA、スマートフォン、タブレット端末のような汎用のコンピュータであり、この遠隔操作端末16には、スピーカ18、マイク20およびモニタ22が接続される。図示は省略するが、遠隔操作端末16には、タッチパネルやキーボードのような入力装置が含まれる。また、遠隔操作端末16の動作を制御するためのプログラムおよびデータは、遠隔操作端末16に内蔵しているメモリ(図示せず)に記憶されており、同じく内蔵のCPU(図示せず)によって遠隔操作端末16の全体的な動作が制御される。このCPUは、オペレータの操作に従って、ロボット12のCPU36(後述)を通して、ロボット12の動作や発話を制御する。
【0029】
図2図1の実施例に用いるロボット12の一例を示すが、他の外観、構造を持つ任意のロボットが利用可能であることを予め指摘しておく。
【0030】
ロボット12は、図2および図3に示すような「熊型」のぬいぐるみロボットであり、胴体24の底部(尻:四足動物(とくに哺乳類)における胴体の後方)26が、床27上に据え付けられる。胴体24の上端両側から左右それぞれの腕28が前方に突き出せるように設けられる。腕の28のそれぞれの長さはロボット12がユーザ(人)を抱擁したときに、腕28が人の背中まで回る長さに選ばれている。一例として、80cmである。
【0031】
胴体24の上には、首(図示せず)を介して頭部30が形成される。ロボット12の全長すなわち底部26から頭部30の頭頂までの高さは、約2mである。この大きさは、ロボット12が子供だけでなく、大人までも対象にできるようにする意図で決めた大きさであり、人に対して抱擁される安心感を与えられる大きさである。
【0032】
胴体底部26の左右に両足32が設けられるが、これらの足32はロボット12が立ち上がるためのものではなく、ただ前方に投げ出された状態で設けられる。したがって、後述するようにロボット12が人を抱擁するときに、足32は単なるクッションとして機能する。
【0033】
ロボット12は、図3に示すように、胴体24の直立状態を維持するための胴体フレーム24aと、その上下端にそれぞれ水平に取り付けられる底部フレーム26aおよび肩フレーム26bを含む。肩フレーム26bには、それの両端からそれぞれ前方に延びる腕フレーム28aが設けられる。また、肩フレーム26bの水平方向の中心から上方に、胴体フレーム24aと一直線になるような首フレーム30bが設けられ、その上には、頭部30を支持する頭部フレーム30aが設けられる。
【0034】
これらのフレームはたとえばアルミニウムのような金属でも、繊維強化プラスチックやエンジニアリングプラスチックのような樹脂でもよく、基本的に、安全な強度が得られる断面形状や太さで設計される。たとえば、パイプ状のフレームが利用され得る。
【0035】
これらのフレームは、たとえばポリフロピレン綿のような弾性体で包まれ、その上に外被33が被せられる。外被33は布製であり、「熊」らしく見せるために、ファー布地やフェルト生地で作られる。
【0036】
ただし、ロボット12が人を抱擁したとき、人の顔が触れる頭部30の一部には、取り外しおよび洗濯が可能な生地を取り付けた。これによって、衛生上の清潔を維持するようにしている。
【0037】
腕フレーム28aには、それぞれ肘に相当する位置に、ひじ関節34が設けられる。つまり、腕28の前腕に相当するフレームと、上腕に相当するフレームが、ひじ関節34を介して連結されている。ひじ関節34は一例として、前腕を上腕に対して最大90°開くことができる。したがって、ひじ関節34の角度を制御することによって、腕28を曲げることができる。つまり、腕28で人をしっかり抱擁(抱き返し)できるようにされている。腕28の長さが上述のように80cm程度と長いため、腕28を曲げたとき、人の大きさにもよるが、前腕部あるいは少なくとも手首より先の部分(手)が人の背中に回され得る。
【0038】
さらに、この実施例では、ロボット12が腕28で人を抱擁することができるように、ひじ関節34にアクチュエータを組み込んでいる。ただし、そのアクチュエータとしては、人が比較的容易に押し返せるように、比較的非力なデジタルサーボ(トルク:11kg/cm)を採用した。安全性のためである。
【0039】
図2図3では図示していないが、ロボット12の頭部30の顔部分にはスピーカおよびマイクが埋め込まれており、人に対して発話したり、人の発話を聞き取ったりすることができる。発話のための音声合成ソフトウェアとしては、XIMERA(ATR音声言語研究所:商品名)を採用した。
【0040】
ロボット12は、図4に示すように、ロボット12の全体制御を司るCPU36を備える。CPU36は、バス38を通して通信モジュール40に接続され、したがって、CPU36は通信モジュール40を介して、ネットワーク14すなわち遠隔操作端末16と、有線で、または無線で、通信可能に接続される。
【0041】
CPU36はまた、バス38を通してメモリ42にアクセスでき、このメモリ42に設定されているプログラムやデータに従って、バス38を通してアクチュエータ制御回路44に指令値を与え、各アクチュエータA1−Anの動作を制御する。アクチュエータ制御回路44は、CPU36から与えられる指令値に応じた数のパルス電力を生成し、それを該当するステッピングモータに与えることによって、各アクチュエータA1−Anを駆動する。
【0042】
ただし、アクチュエータとしてはこのようなステッピングモータを用いるものの他、サーボモータを用いるアクチュエータ、流体アクチュエータなど任意のアクチュエータが利用可能である。
【0043】
ここで、アクチュエータA1−Anのどれかが図3に示すひじ関節34のアクチュエータ(デジタルサーボ)であり、他のものが後述する他の関節のアクチュエータである。したがって、アクチュエータ制御回路44はひじ関節制御部として機能する。
【0044】
センサI/F(インタフェース)46は、バス38を介して、CPU36に接続され、触覚センサ48および眼カメラ50からのそれぞれの出力を受ける。
【0045】
触覚センサないし皮膚センサ48は、たとえばタッチセンサであり、ロボット12の触覚の一部を構成する。つまり、触覚センサ48は、人間や他の物体等がロボット12に触れたか否かを検出する。たとえば、触覚センサ48がロボット12の胴体24の前面の所定箇所に設けられ、人がロボット12に抱きついたかどうか検知することができる。
【0046】
触覚センサ48はさらに感圧センサとしても機能する。このような触覚センサ48は、一例として、たとえば高分子ピエゾセンサシートで形成され、たとえば腕28の内面側に、複数のセンサシートが適宜分散して設けられる。このような触覚センサ48は、人を抱擁したロボットの腕28に掛かる圧力を検知することができる。
【0047】
触覚センサ48からの出力(検出データ)は、センサI/F46を介してCPU36に与えられる。したがって、CPU36は、人間や他の物体等がロボット12に触れたこと(およびその強弱ないし圧力)を検出することができる。
【0048】
眼カメラ50は、イメージセンサであり、ロボット12の視覚の一部を構成する。つまり、眼カメラ50は、ロボット12の眼から見た映像ないし画像を検出するために用いられる。この実施例では、眼カメラ50の撮影映像(動画ないし静止画)に対応するデータ(画像データ)は、センサI/F46を介してCPU36に与えられる。CPU36は、撮影映像の変化を検出するのみならず、その画像データを、通信モジュール40およびネットワーク14(図1)を介して遠隔操作端末16に送信する。そして、遠隔操作端末16は、受信した画像データをモニタ22に出力する。したがって、眼カメラ50の撮影映像がモニタ22に表示される。
【0049】
また、スピーカ54およびマイク56は、入出力I/F52に接続される。スピーカ54は、ロボット12が発話を行う際に音声を出力する。遠隔操作端末16の操作者ないしオペレータ(以下、「遠隔オペレータ」ということがある。)が直接発話を行う場合、ネットワーク14、通信モジュール40および入出力I/F52を通して当該音声が出力される。具体的には、遠隔オペレータがマイク20を通して発話すると、対応する音声データが遠隔操作端末16からネットワーク14を介してCPU36に与えられる。そして、CPU36は、その音声データを、入出力I/F52を介してスピーカ54から出力する。
【0050】
マイク56は、音センサであり、ロボット12の聴覚の一部を構成する。このマイク56は、指向性を有し、主として、ロボット12と対話(コミュニケーション)する人間(人)の音声を検出するために用いられる。
【0051】
ロボット12のメモリ42は、たとえばRAMやHDDであり、音声認識プログラムおよび上述のXIMERAのような音声合成プログラムが予め設定されている。音声認識プログラムは、マイク56を通して入力される、人間がロボット12に対して発話した内容をCPU36が認識するためのプログラムであり、CPU36は、たとえばDPマッチングや隠れマルコフ法(Hidden Markov Model:HMM)により、人間の発話内容を音声認識する。
【0052】
CPU36は、その音声認識プログラムに従って、遠隔オペレータがマイク20を通して入力した発話を認識する。たとえば、上述のHMM法やディープニューラルネットワーク(Deep.NeuralNetwork:DNN)のような音響モデルを用いて発話音声を検出できる。
【0053】
遠隔オペレータの音声を直接スピーカ54から出力する外に、ロボット12から音声合成によって発話させることができる。CPU36は、遠隔操作端末16から音声合成によってスピーカ54から発話する指示が入力されたとき、この遠隔操作端末16から与えられる音声合成データに従って合成した音声をスピーカ54に出力する。
【0054】
この実施例では基本的に、ロボット12のすべての動作は、オペレータ(図示せず)が操作する遠隔操作端末16から与えられる。そのために、CPU36は、センサI/F46を通して取得するセンサデータや、入出力I/F52を通して取得する音声データや画像データを、通信モジュール40からネットワーク14を経由して、遠隔操作端末16のCPU(図示せず)に与える。遠隔操作端末16は、それらのデータを得て、ロボット12の状態を知ることができる。
【0055】
したがって、図5に示すフロー図に従った動作は、この実施例では、オペレータの入力操作に従って遠隔操作端末16のCPUが実行するものと理解されたい。しかしながら、当然だが、ロボット12のCPU36が自律的にこのような動作を行うように、容易に変更できることはいうまでもない。
【0056】
なお、ロボット12には、ロボット12が人60(図6−7)との抱擁を実現するために、2種類の振る舞いが実装されている。1つは、図5のステップS5、S7でのロボット12が人60に対して抱擁(ハグ:hug)をするように促す振る舞いである。もう1つは、ステップS11、S13でのロボット12を抱擁した人60に対して、抱き返し(reciprocated hugs)を行う振る舞いである。
【0057】
遠隔操作端末16のCPUの指示に従うロボット12のCPU36(これらをまとめて、以下単に「CPU」とする。)は、ロボット12の腕28を初期位置に戻し、その状態で一定時間待機する(ステップS1)。
【0058】
そして、ステップS3で、CPUは、眼カメラ50からの画像データに基づいて、人が、ロボット12が抱擁可能な位置まで近づいてきたかどうか判断する。つまり、人が所定距離以内にロボット12に近づいたかどうか判断する。ここでの一定距離は、適宜設定可能であるが、実施例ではロボット12の正面から75cm(hidden dimension:エドワード・T・ホール氏)とした。図6に、人60がロボット12から所定距離内に近づいてきた状態を示している。
【0059】
ただし、眼カメラ50からの画像データをモニタ22上で確認し、オペレータが判断するようにしてもよい。
【0060】
なお、このステップS3の判断のためには、実施例では眼カメラ50の画像データを解析するようにしたが、たとえばロボット12を置いている床27(図1)や天井のような環境に設置している人位置検知システム、たとえばマットセンサやレーザ距離計などを利用するようにしてもよい。
【0061】
たとえば、ロボット12はステップS1でのように、両腕を若干閉じた状態(初期位置)で静止しているが、ステップS3で人(被験者)と対峙した後、接近した人に抱擁を促すために、ステップS5において、アクチュエータ制御回路44を通してひじ関節34のアクチュエータを制御して、ロボット12の腕28を開く動作を行なわせる。これによって、人がロボット12により接近して抱きしめ易くなる。
【0062】
その後、ステップS7で、たとえば「お話をする前に、Moffuly(このロボットは発明者等によって「Moffuly」と命名している)のことを抱きしめて欲しいな」とスピーカ54(図4)から発話させる。そうすると、人60がさらに接近し、図7に示すように、自分の腕をロボット12の胴体24に回して抱きつく。そのことを、ロボット12の胴体24の前面に配置した触覚センサ48が検知したとき、ステップS7で“YES”が判断される。
【0063】
ステップS7で“NO”が判断されたときには、所定時間、人がロボットに抱きつくまで待機するが、その所定時間経過しても人が抱きつかない場合には、図5の動作を終了すればよい。
【0064】
ステップS7で“YES”を判断したとき、次のステップS11で、アクチュエータ制御回路44を通してひじ関節34のアクチュエータを制御して、両腕28を所定角度閉じる。前述のようにひじ関節34は90°の範囲で開閉可能であり、たとえば一旦45°内側に曲げ、その後15°外側に戻す。それによって、人60に一気に過度の圧力がかかるのを防止している。
【0065】
ステップS11の動作はステップS13で、ロボット12の手または腕部分に取り付けている触覚センサ48が所定値以上の圧力を検知するまで、繰り返し実行される。つまり、ステップS13では、ロボット12が人60をしっかり抱擁できたかどうかを検出している。
【0066】
ステップS13で触覚センサ48の検知圧力値を利用して判断するようにしたが、腕28の形状の変化量(曲げの程度)や、ひじ関節34のアクチュエータに対する指令値と実際の角度(計測値)との差分の大きさを利用して判断するようにしてもよい。
【0067】
ステップS13で“YES”が判断されたときの状態の一例が図7に示される。この状態では、人60の腕がロボット12の胴体24に巻かれるだけでなく、人60の頭(顔)60aがロボット12の頭部(顔)30に当たっており、背中60bにロボット12の腕28が回っている。人60はロボット12の足32の間にあるままだが、人60が足を開いてロボット12の足32の上の乗ると、一層安定して抱擁を継続することができる。このようにして、ロボット12が人60を抱き返す。つまり、相互抱擁が行われる。
【0068】
このように、ステップS11およびS13で、アクチュエータ制御回路44によってひじ関節34を制御して、ロボット12の腕28を人60の背中60bに回させて、腕28によって人60を抱擁させる。つまり、ステップS11およびS13が、ひじ関節34を制御して2本の腕28を人60の背中60bに回して人を抱擁させる抱擁制御部として機能する。
【0069】
ステップS13で“YES”が判断された後、ステップS15で、ロボット12と人60が対話する。実施例では、遠隔操作端末16(図1)のオペレータがロボット12からの発話を担当することになっているので、音声認識はオペレータが代替することとし、オペレータは音声認識結果およびあらかじめ決められたルールに従ってロボット12の発話内容を決定した。このステップS15が人に向かって発話する発話部として機能する。
【0070】
ロボット12は、雑談と返答の2種類の発話を行えるように設計した。まず雑談については、ロボットの自己紹介、自己開示および雑談を促すための発話内容を準備した。具体的には、「こんにちは、僕はMoffulyだよ。よろしくね」、「僕は見た目がクマみたいだけど、好きな食べ物は、はちみつじゃなくて電気なんだよ」、「もしよかったら、お話を聞かせてほしいな」などの発話を準備した。自己紹介や自己開示の発話を用意した理由は、過去の研究において、ロボットの自己紹介や自己開示が人に親しみを与えるために重要であることが報告されたためである。
【0071】
返答については、ロボットは人々の発話に対して簡単な返答のみを行うよう、8種類の返答を準備した。たとえば、「そうなんだ」、「へー」、「そうかそうか、頑張ってるね」などの発話を用意した。すなわち、主に人からの発話を聞く役割として振る舞うように設計しており、返答として不自然にならないようにルールを定めてオペレータが発話を決定するようにした。
【0072】
また、複雑な対話を回避するため、ロボットは被験者からの質問に対しては「うーん、それは僕に難しくてちょっとわからないや、ごめんね」などと発話し、常に聞き手として振る舞うように設計した。
【0073】
ただし、可能であれば、ロボット12が自律的に発話するようにしてもよい。その場合でも、対話コンテンツは予めデータベースに設定しておいたコンテンツを利用したり、ウェブ上のAPI(Application Programming Interface)などを利用したりすればよい。
【0074】
その後、ステップS17で、人60すなわち対話相手が対話を終了させたいと希望しているかどうか判断する。この判断は、たとえば人60からの定型の発話があったか、あるいは人60の特定の所作があったか、などに基づいて行える。
【0075】
このステップS17で“YES”を判断したとき、オペレータはロボット12の動作を終了させる(ステップS19)。
【0076】
ステップS17で“NO”を判断したとき、つまり、人60が対話終了を希望していないと判断したとき、ステップS21で、ロボット12による人60に対する刺激が必要かどうか、判断する。
【0077】
ステップS21での判断は、ロボット12からの発話が人60に対する抱擁刺激を伴うものか、あるいは前回の抱擁刺激から一定時間経過しているかどうか、などに基づいて判断する。ただし、発話コンテンツが抱擁刺激を伴うかどうかは、基本的にはオペレータが決めればよいが、図8のように、発話コンテンツと抱擁刺激の対応を、たとえば遠隔操作端末16および/またはロボット12のメモリ内の予めデータベースなどに設定しておくこともできる。つまり、図8のような設定を有するデータベースは、発話コンテンツと対応して抱擁刺激の要否を設定する発話コンテンツ設定部として機能する。
【0078】
図8の例でいうと、「こんにちは」という発話コンテンツは単なる挨拶なので、抱擁刺激は「なし」と設定している。「それは大変だったね」という発話コンテンツは、人を慰めるコンテンツなので、子供の背中をたたいて慰めると同じように、抱擁刺激は「あり」と設定している。「募金に協力してくれる?」という発話コンテンツは、人にものを頼むコンテンツなので、そのことを明確にするように、抱擁刺激は「あり」と設定している。「どんなこと?」という発話コンテンツは、人に対して自己開示を促すフレーズであり、自己開示し易いように、抱擁刺激は「あり」と設定している。ただし、これらは単なる例示であることはいうまでもない。
【0079】
また、一定時間の目安としてたとえば30秒程度を想定しているが、必要に応じて、変更することができる。前回の抱擁刺激の提示から一定時間の経過に応じて抱擁刺激を提示するようにすれば、発話コンテンツの如何に拘わらず、所定時間ごとに抱擁刺激を提示するので、人とのインタラクションを継続させることができる。
【0080】
さらに、ステップS21ではたとえば対話の切れ目(比較的長い無音時間)を検出し、切れ目を検出したとき、“YES”と判断するようにしてもよい。この場合には、抱擁刺激が人60の発話を促す効果をもたらす。
【0081】
ステップS21で“NO”なら先のステップS15に戻るが、“YES”なら、ステップS23に進む。
【0082】
ステップS23では、ロボット12によって人60に対して抱擁刺激を提示する。ここでできる抱擁刺激は、実施例では、ひじ関節34の自由度しか持っていないので、人60の背中60b(図7)を「とんとん」と叩く動作である。つまり、ロボット12の腕28の前腕を人60の背中60bに対して、接離(接触させたり、離したりする動作)させるような、抱擁刺激を与えられる。
【0083】
つまり、このステップS23は、ひじ関節34を制御して、人60の背中60bに回した腕28を人の背中に接離させて背中を「とんとん」する抱擁刺激を人に提示する抱擁刺激制御部として機能する。
【0084】
しかしながら、ロボット12の自由度(軸)を増やせば、より多彩な抱擁刺激を人60に対して提示することができる。
【0085】
図9の実施例では、肩フレーム26bと腕フレーム28aとの連結部に肩関節62を設けるとともに、首フレーム30bに首関節64を介挿している。これらの肩関節62および首関節64は、ともに図4に示すアクチュエータA1−Anの対応するもので作動するのであり、その意味でアクチュエータ制御回路44は、肩関節制御部や首関節制御部として機能する。
【0086】
肩関節62を設けることによって、腕28の上腕部を、肩関節62を中心に上下に動かすことができるようになる。したがって、肩関節62を設けた場合、前腕を人60の背中60bに接触させたまま上下させる動作、つまり撫でる動作を抱擁刺激として与えることができる。さらに、腕28すなわち手で人60の頭60aを撫でたりする、抱擁刺激を提示することもできる。
【0087】
首関節64は、肩フレーム26bの上の頭部フレーム30aすなわち頭部30を前傾させたり後倒させたりする、いわゆる俯仰動作を可能にする。首関節64を設けることによって、たとえば図7のように抱擁した人60の頭(顔)60aにロボット12の「おでこ」を近づけたり、あるいは人60の頭(顔)60aに頬ずりをしたりする抱擁刺激を提示することもできる。
【0088】
このような実施例のロボットシステム10を利用して、発明者等は2種類の実験をした。1つは、ロボット12による人60の抱擁(抱き返し)によって、募金に協力してくれる率が変わるか?ということである。もう1つは、ロボット12による人60の抱擁(抱き返し)によって、人からの自己開示が促進されるか?ことである。
実験I
I-1 仮説
ロボット12からの抱き返しが人に与える影響を明らかにするため、実験Iでは向社会的行動の1つである募金に着目する。身体的接触は向社会的行動を促進する効果があることは知られているが、ロボット12からの抱き返しがどのような効果をもたらすかは明らかになっていない。
【0089】
人どうしの抱擁において、抱き返しは抱擁を受け入れる意図を暗黙的に伝える行為である。そのため、人60とロボット12の抱擁においても、ロボット12からの抱き返しは受容の意図を伝達し、より人60がロボット12の抱擁を好意的に受け止めることで、向社会的行動を促進することが考えられる。
【0090】
さらに実験Iでは、ロボットからの抱き返しが、人々がロボットとよりインタラクションの継続を所望する度合いに影響を与えると考えた。抱擁などの身体動作は、社会的関係性や愛着を構築するうえで重要であることが明らかになっている。そのため、ロボットが抱き返しを行うことで、人々との社会的関係性がより強く構築され、人々がよりロボットとのインタラクション継続を所望すると考えた。以下に、これらの考察を踏まえた仮説を記述する。
仮説1:ロボットが抱き返しを行った人は、ロボットが抱き返しを行わなかった人よりも多くの募金を行う。
仮説2:ロボットが抱き返しを行った人は、ロボットが抱き返しを行わなかった人よりもロボットとインタラクションを行う。
I-2 被験者
実験Iには、合計34名の被験者(男性18名、女性16名、平均年齢35.17歳、最高齢52歳、最年少20歳、標準偏差10.34)が参加した。全ての被験者に、一定額の謝礼金を支払った。
I-3 実験環境
実験Iでは、被験者がロボット12を抱擁した際にその位置が大きく移動しないように、ロボット12を壁際に固定した。環境内には合計で3つのカメラとマイクを設置し、それらのデータは遠隔操作端末16のオペレータによるロボットの操作および実験結果の分析を行うために利用された。
I-4 実験条件
実験Iでは、被験者間による2条件比較実験を行った。各条件に、男女比を考慮した17人の被験者を割り当てた。両条件においてロボット12を遠隔操作するオペレータが利用するルールは同一とし、抱き返しに関する振る舞い以外の動作や発話については条件間で差が出ないように設定した。
【0091】
人の抱擁のみ:この条件では、ロボットは、たとえば図5のステップS5、S17のような、「抱擁を求める動作」のみを行った。すなわち、ロボットは人に抱擁を依頼するが、ロボットからの抱き返しは行わなかった。
【0092】
抱き返し:この条件では、ロボットは「抱擁を求める動作」を行った後、図5のステップS11、S13のような「抱き返し動作」およびステップS23のような「抱擁刺激」を行った。すなわち、ロボット12は人60に抱き返しを行い、設定されたルールに従って抱擁している相手の背中をとんとんと叩く動作を行った。
I-5 実験手順
実験Iは、2つのセッションから構成される。まず、第1セッションの開始前に被験者に対する実験の説明を行い、実験に対する同意書への署名を行う時間を設けた。その後、第1セッションで行う実験の説明を被験者に行った。ただし、この時点では、ロボットとどのようにインタラクションを行うか、どのようにロボットを抱擁すればよいか、についてのみ説明を行い、募金や第2セッションに関する説明は行わなかった。
【0093】
次に、ロボット12の顔部分が取り外しおよび洗濯可能であることを説明し、衛生面における配慮を行っていることを被験者に伝えた。また、ロボット12の対話機能は現時点ではさほど高性能ではなく、人からの様々な質問を含む複雑な対話には対応できないものの、人の話を聞くことが好きであるため、できるだけ被験者からロボットに雑談をするように依頼した。これらの説明を行った後、実験者は実験室から退室し、被験者が実験室内でロボットのみと対峙する状況を設定した。その後、第1セッション(10分間のインタラクション)を開始した。
【0094】
第1セッションでは、両条件ともにロボットは最初に「抱擁を求める動作」を行い、抱き返し条件ではその後から「抱き返し動作」を開始した。被験者がロボットを抱擁した後、ロボットは自己紹介および自己開示を伴う雑談を行った。その後、ロボットは被験者に対して雑談を行うよう依頼し、被験者の雑談内容に応じて返答する形で対話を繰り返した。
【0095】
第1セッション開始後から10分が経過した段階で、ロボットは「そうそう、実は今、地震で被災した人のための募金に協力しているんだ。もしよかったら、あなたも協力してほしいな。この後アンケートを答えてもらう部屋に募金箱があるから、よかったら協力してね」と発話した後、実験の終了を被験者に伝えた。
【0096】
その後、実験者が実験室に入室し、被験者を募金箱とアンケート回答用の机が設置された別室に誘導した。その部屋で実験者は被験者に謝礼金を支払った後、アンケートに答えるよう依頼して退室した。
【0097】
10分後、実験者は再び入室し、アンケートの記入終了を確認したうえでデブリーフィングを行い、実験の目的が募金額の計測であったことを伝えた。その後、募金した金額を返却することが可能であることと、仮に返却した場合でも実験者が代わりに同じ金額を募金することを伝えた。ただし実験Iにおいては、返却を希望する被験者は存在しなかったため、被験者らが募金した金額をそのまま当初の目的通り募金した。
【0098】
デブリーフィング終了後、実験が終了したことを被験者に伝えるとともに、もし被験者が再度ロボットとのインタラクション継続を所望するのであれば10分間の延長が可能であること、ただし延長しても追加の謝礼金はないことを伝えた。そのうえで被験者が自由意思の元に追加インタラクションを望んだ場合には、第2セッションを開始した。
【0099】
第2セッションでは、第1セッションと同様に、ロボットは被験者に対して雑談を行うように促した。もし被験者が雑談を望まず、抱擁のみを求めた場合には、ロボットは特に発話を行わず、抱擁動作のみを行った。なお、第2セッションでは、被験者の意思でいつでも実験を終了できた。
【0100】
なお、本実験は、該当機関の倫理委員会(第三者を含む)による所要の承認を経たうえで実施された。また、実験の参加に同意した被験者のみが参加したことを付言しておく
I-6 評価手法
客観的指標
ロボットからの抱き返し動作が被験者の向社会的行動に与える影響を検証するため、募金する人数とその金額の計測を行った。さらに、被験者がよりロボットとのインタラクション継続を所望するかを検証するため、第2セッションに参加した人数とインタラクション時間の計測を行った。
主観的指標
実験Iの主な目的は、ロボットからの抱き返し動作が被験者の行動に与える影響を計測することであるが、主観的な印象に与える影響も付加的に計測した。具体的には、ロボットの見た目のかわいらしさと、総合的な印象を7段階で評価してもらうアンケート調査を行った。また、普段募金をするかどうかについても調査を行った。
I-7 結果
仮説の検証
まず、募金を行った人数について条件間でカイ2乗検定(χ2乗検定)を行ったところ、有意な差は得られなかった。次に、募金額に対する対応無しt検定を行った結果、有意な差が得られた。すなわち、仮説1が部分的に支持された。
【0101】
第2セッションに参加した人数について条件間でカイ2乗検定を行ったところ、有意な差が得られた。次に、インタラクションを行った時間に対する対応無しt検定を行った結果、有意な差が得られた。すなわち、仮説2が支持された。
実験の様子
第1セッションにおける観察
両条件においても、ロボットから「抱っこして欲しいな」と発話された後、被験者らは特に躊躇せず、教示されたようにロボットを抱擁した。抱き返し条件においては、ロボットから抱き返しをされた被験者の一部が、初めて抱き返しを受けたタイミングでほほ笑む様子も観察された。
【0102】
被験者らは、ロボットの自己紹介や、自己開示に関する雑談を聞いた後、ロボットの依頼に従って雑談を開始した。雑談の主な内容は、被験者らの家族や週末の過ごし方、学生生活や仕事に関するもの、または最近の旅行に関する思い出であった。例えば被験者らは、子どもたちと花火を見に行った際の様子や、友人らと自転車旅行に行った際の思い出などを、ロボットに説明していた。
【0103】
抱き返し条件においては、被験者がロボットをなでたり、とんとんと叩き返したりする動作が見られた。ロボットが被験者らの背中をとんとんと叩いたタイミングで、そのような動作を行うことが比較的多く観察された。
【0104】
第1セッション終了後の募金行動については、条件間で特に差は見られなかった。募金を行っていた被験者らは、アンケートに回答した後、時間を空けずに募金を行っていた。その後は、募金を行わなかった被験者らと同様に、スマートフォンを操作したり、読書をしたりして実験者が戻ってくるのを待っていた。
【0105】
第2セッションにおける観察
第2セッションに参加した被験者らの振る舞いが、第1セッションとどのように異なっていたかについて記述する。まず、人の抱擁のみ条件において第2セッションに参加した被験者は3名であり、いずれの被験者も第1セッションで行っていた内容の雑談を継続していた。すなわち、ロボットとのインタラクションは第1セッションとさほど変わらないものであった。2人は第2セッションの途中で実験終了を希望し、1人は第2セッションの最後まで、すなわち10分間のインタラクションを行った。
【0106】
抱き返し条件において第2セッションに参加した被験者は12名であり、人の抱擁のみ条件と同様に、多くの人々が第1セッションで行っていた内容の雑談を継続していた。ただし、そのうち2名の被験者はロボットとさほど雑談を行わず、ほとんどしゃべらないまま10分間を過ごしていた。その間は、ロボットと抱擁しあったり、少し離れてロボットをなでたりする動作を行っていた。
【0107】
また、抱き返し条件において、実験者が指示していない抱擁のスタイルを試みる被験者も1人存在した。具体的には、1度ロボットから離れた後、後ろ向きにロボットにもたれかかり、目を瞑った後にロボットに自身を抱きしめるように依頼することで、後ろから抱擁される状態になっていた。この被験者は、第2セッション終了までほぼ雑談を行わず、このままの状態で過ごしていた。
【0108】
実験Iの実験結果から、ロボットからの抱き返しが、人々の向社会的行動やロボットに対するインタラクションに影響をもたらすことが示された。雑談をほぼ行わずにロボットとの抱擁を継続して行う被験者も存在していたが、無言で身体的なインタラクションを行う行為は人間同士でも特に親密な関係においては比較的よく見られる行為であり、ロボットとの身体的接触を通じて興味深いインタラクションが行われたと考える。これらロボットの抱き返しが人の向社会的行動やロボットに対する行動にもたらした効果は、ロボットが物理的な身体を通じて人々とインタラクションを行うことの有用性を示唆するものであると考える。
実験II
自己開示を奨励するロボットからの抱き返しの影響を評価するために、我々は実験IIを行った。この実験IIも、所定の倫理委員会によって承認され、被験者からも書面による同意を得ている。
II-1 仮説と予測
人々は他の人々との物理的な相互作用を通じてより多くを自ら開示し、物理的な相互作用からの肯定的な影響は人間に限定されないことが知られている。人々はロボットとの物理的な相互作用を通じてロボットに対して肯定的な感情を抱くことが知られているので、ロボットからの往復の抱擁(抱き返し)は、人からの抱擁だけの場合よりも、ロボットを抱きしめた人による自己開示をより促進することができると考えた。
II-2 被験者
日本人48名(女性24名、平均年齢37.81歳、男性24名)が参加し、謝礼金も支払った。
II-3 環境
ロボットを壁に固定し、天井に2台のカメラとマイクを、近くに1台のカメラ/マイクを設置し、これらのセンサの情報を使用して、実験を分析し、遠隔操作端末16からオペレータによってロボットを制御した。
II-4 条件
この実験IIでは、次の3つの条件で被験者間の調整を行った。各条件について、16人の被験者(8人の女性および8人の男性)が参加した。すべての条件において、会話と再生の動作は同一であり、オペレータは両方の条件で同じ事前に規定されたルールに基づいてロボットを制御した。
【0109】
抱擁なし:ロボットは被験者と対話を行い、被験者に抱擁を要求しない。また、被験者にロボットとの物理的なやりとりを行わず、ロボットの初期位置を保持するようにした。
【0110】
抱擁要求のみ:ロボットは被験者からの抱擁を要求し、対話するが、ロボットからの抱き返しはしない。
抱き返し:ロボットは被験者からの抱擁を要求し、抱き返しし、対話する。対話中は、予め定義したルールに基づいて抱擁刺激を提示する。
II-5 手順
実験IIは、2つのセッションで構成されていた。第1のセッションの前に、被験者には実験の目的と手順を簡単に説明した。この説明では、2回目のセッションに触れることなく、被験者にロボットと対話することだけを求めた。ロボットとのインタラクションについて説明し、抱擁なしの条件で参加する被験者を除いて、ロボット12を抱きしめる方法を実演した。また、被験者の顔が接触するロボットの顔部分は衛生上清潔に維持されていることも説明した。その他、ロボット12の会話能力についても実験Iと同様の説明を行った。
【0111】
第1セッションでは、ロボットは被験者に自身を紹介し、抱擁なしの条件の被験者を除いて、抱擁要求行動を行った。その後、ロボット12は自己開示の内容を使って彼らと対話した。抱き返した状態では、ロボットは被験者を抱きしめて、予め定義したルールに基づいて被験者の背中をとんとん叩く抱擁刺激を提示する。すべての被験者は、第1セッションで10分間、ロボットと対話する。実験の最後に、実験者は部屋に入り、被験者に謝礼金を支払い、アンケートを完了するように頼んだ。
【0112】
アンケートに記入した後、被験者に、実験が終了したことを説明し、ロボットと再び対話したい場合は、さらに10分を追加することができるが、追加の報酬はないと説明した。言い換えれば、被験者に、謝礼金はないが、自分の時間にロボットと対話したいかどうかを尋ねた。同意した被検者に対して、第2セッションが始めた。
【0113】
第2セッションでは、ロボットは最初に被験者に感謝し、対話を続けた。しかし、ロボットは既に自己紹介と自己開示の両方を行っていたので、被験者に自分の話を詳しく説明するよう求めた。第2セッションでは、被験者はいつでも自由に対話を終えることができた。
II-6 測定
ロボット12が抱き返す抱擁が、被験者による自己開示を促したかどうかを調べるために、自己開示の数と非自己開示の会話の数の両方を測定した。この測定のために、最初に、記録されたデータから被験者のすべての会話を239のスクリプトに転記し、転記された239会話スクリプトを自己開示(たとえば、趣味、個人的な経験、プライベートな出来事など)や非自己開示(今日の天気などの穏やかな話題)のカテゴリに分類する。
【0114】
また、第2セッションに参加した人の数とそれに費やされた追加のインタラクション時間を測定することによって、相互抱擁の行動がロボットとのより多くのインタラクションを促すかどうかを調べた。
II-7 結果
予測の検証1
第2セッションに参加した人の数と追加の対話時間を調べた結果、人数については、カイ2乗検定を行い、3つの条件の間で有意差を示した。残差分析は、抱き返し条件で第2セッションに参加した人の数が抱擁なし条件よりも有意に大きいことを明らかにした。
【0115】
追加の相互作用時間についても各条件間に有意差を示した。ただし、抱擁要求のみと抱擁なしとの間に有意差はなかった。したがって、仮説(予測)が支持された。
予測の検証2
自己開示内容と非開示内容の平均数を調べたところ、これについても、各条件で自己開示の数に有意差を認めることができた。
II-8 観察
第1セッションでは、すべての条件において、典型的なインタラクションパターンは、被験者が自分自身について話したことであった。抱き返し(相互抱擁)と抱擁要求の両方の条件では、殆どの被験者がロボットからの抱擁要求に驚いていた。自己開示については、最近の旅行、夏祭りの経験など、積極的な内容を話した被験者が殆どであった。たとえば、被験者は自分の趣味(走っていること)とフルマラソンを完走した最近の経験について話しました。一方、一部の被験者は、大学院入学試験の失敗、育児不満など、比較的深刻な内容を話した。たとえば、被験者は、子供が家族から独立した後、残りの人生について語った。彼は、「人生は浮き沈みがいっぱいです」とロボット12に対して発話した。
【0116】
第2セッションでは、抱擁なしの条件のグループでは、1人の被験者だけが再びロボットと対話したいと考え、その結果、彼女は10分間、すなわち第2セッションの終了までロボットとインタラクションした。彼女はテディベアが好きだと説明したので、このロボットとのインタラクションは本当に面白かったようだ。
【0117】
抱擁要求のみの条件のグループでは、3人の被験者が再びロボットと対話したがった。彼らの対話トピックは第1セッションと同様のものであり、3人の被験者が、対話をした後、第2セッションを途中で終了し、1人の被験者が第2セッションが終了するまでロボットと対話した。その朝、彼女は彼女の息子と議論していて、とても疲れていたと彼女は説明した。その後、彼女はセッションの終わりまで他の話題について話し続けた。
【0118】
相互抱擁(抱き返し)の条件のグループでは、13人の被験者が再びロボットと対話したいと考えたが、抱擁要求のみの条件の場合と同様に、対話トピックは第1セッションのものと同様のものであった。そして、7人の被験者が、ロボットとの対話の後、第2セッションを途中で終了し、6人の被験者が、第2セッションが終了するまでロボットと対話した。この状態では、対話をしなくても、抱擁したいと思っていた被験者もいた。たとえば、1人の被験者が静かにロボットを9分間抱きしめた。抱き合っている間に、彼女は時々微笑んで、ロボットを撫で、ロボットは彼女の背中に抱擁刺激を与えた。彼女は、第2セッション前のインタビューで「ロボットからの抱擁は良い印象だった。私は会話なしでコミュニケーションできると感じた」と言った。もう1人の被験者はロボットを7分間抱きしめ、面談時にロボットによる抱擁に肯定的な印象を持ったと述べた。
II-9 結論
実験IIの結果は、ロボットからの抱き返しの抱擁が人々の自己開示に影響を与え、ロボットとのより多くのインタラクションを促すことを明らかにした。
【0119】
実験IIでは、ロボットからの抱き返しが被験者の自己開示を引き出す効果に焦点を当てた。以前のロボットではそのような効果を測定することはできなかったが、人からの抱擁に対して人を抱き返すことができる大型の熊型ロボットを開発して、実験IIを上記の3つの条件で実施した。その実験結果は、ロボットからの抱き返しが人からの自己開示の数を著しく増加させることを示した。
【0120】
なお、上で挙げた角度や時間の長さなどの具体的数値はいずれも単なる一例であり、必要に応じて適宜変更可能である。
【符号の説明】
【0121】
10 …コミュニケーションロボットシステム
12 …コミュニケーションロボット
16 …遠隔操作端末
24 …胴体
28 …腕
30 …頭部
34 …ひじ関節
36 …CPU
40 …通信モジュール
44 …アクチュエータ制御回路
54 …スピーカ
56 …マイク
62 …肩関節
64 …首関節
A1−An…アクチュエータ
図1
図2
図3
図4
図5
図6
図7
図8
図9