IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 国立大学法人 筑波大学の特許一覧

特開2024-62266共感支援システム、共感支援装置、及び共感支援プログラム
<>
  • 特開-共感支援システム、共感支援装置、及び共感支援プログラム 図1A
  • 特開-共感支援システム、共感支援装置、及び共感支援プログラム 図1B
  • 特開-共感支援システム、共感支援装置、及び共感支援プログラム 図2
  • 特開-共感支援システム、共感支援装置、及び共感支援プログラム 図3
  • 特開-共感支援システム、共感支援装置、及び共感支援プログラム 図4
  • 特開-共感支援システム、共感支援装置、及び共感支援プログラム 図5
  • 特開-共感支援システム、共感支援装置、及び共感支援プログラム 図6
  • 特開-共感支援システム、共感支援装置、及び共感支援プログラム 図7
  • 特開-共感支援システム、共感支援装置、及び共感支援プログラム 図8
  • 特開-共感支援システム、共感支援装置、及び共感支援プログラム 図9
  • 特開-共感支援システム、共感支援装置、及び共感支援プログラム 図10
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024062266
(43)【公開日】2024-05-09
(54)【発明の名称】共感支援システム、共感支援装置、及び共感支援プログラム
(51)【国際特許分類】
   G06F 3/0484 20220101AFI20240430BHJP
   G06F 3/16 20060101ALI20240430BHJP
   G06F 3/01 20060101ALI20240430BHJP
【FI】
G06F3/0484
G06F3/16 650
G06F3/16 690
G06F3/01 570
【審査請求】未請求
【請求項の数】10
【出願形態】OL
(21)【出願番号】P 2022170143
(22)【出願日】2022-10-24
【国等の委託研究の成果に係る記載事項】(出願人による申告)令和元年度、国立研究開発法人科学技術振興機構、戦略的創造研究推進事業「ソーシャル・シグナルの共有・拡張技術と共感的行動の支援」委託研究、産業技術力強化法第17条の適用を受ける特許出願
(71)【出願人】
【識別番号】504171134
【氏名又は名称】国立大学法人 筑波大学
(74)【代理人】
【識別番号】100107766
【弁理士】
【氏名又は名称】伊東 忠重
(74)【代理人】
【識別番号】100070150
【弁理士】
【氏名又は名称】伊東 忠彦
(72)【発明者】
【氏名】鈴木 健嗣
【テーマコード(参考)】
5E555
【Fターム(参考)】
5E555AA46
5E555AA48
5E555BA01
5E555BA04
5E555BB01
5E555BB04
5E555BC04
5E555CA42
5E555CA47
5E555CB22
5E555CB64
5E555CB65
5E555CB66
5E555CB67
5E555DA13
5E555DA23
5E555DB32
5E555EA03
5E555EA05
5E555EA22
5E555FA00
(57)【要約】      (修正有)
【課題】人の共感的行動を引き出す共感支援システム、共感支援装置及び共感支援プログラを提供する。
【解決手段】共感支援システム1は、ユーザの注意を喚起する第1刺激を生成する刺激生成部216と、第1刺激に対するユーザの第1反応を検知する検知部222と、反応と応答の連鎖を表す共感支援モデル232と、共感支援モデル232に基づいて第1反応に対する第1応答を選択し、出力する応答選択部218と、第1反応が共感的反応か非共感的反応かを判断する共感反応判断部217と、を有する。応答選択部218はさらに、第1反応が共感的反応である場合に、共感性を維持または促進する共感維持促進応答を第1応答として出力し、第1反応が非共感的反応である場合に、共感性を誘発する共感誘発応答を第1応答として出力する。
【選択図】図3
【特許請求の範囲】
【請求項1】
ユーザの注意を喚起する第1刺激を生成する刺激生成部と、
前記第1刺激に対する前記ユーザの第1反応を検知する検知部と、
反応と応答の連鎖を表す共感支援モデルと、
前記共感支援モデルに基づいて、前記第1反応に対する第1応答を選択し、出力する応答選択部と、
を有する共感支援システム。
【請求項2】
前記第1反応が共感的反応か非共感的反応かを判断する共感反応判断部、
を有し、前記応答選択部は、前記第1反応が前記共感的反応である場合に、共感性を維持または促進する共感維持促進応答を前記第1応答として出力し、前記第1反応が前記非共感的反応である場合に、共感性を誘発する共感誘発応答を前記第1応答として出力する、
請求項1に記載の共感支援システム。
【請求項3】
前記第1刺激、前記第1反応、及び前記第1応答を前記共感支援モデルに記録する記録部、を有し、
前記刺激生成部は前記共感支援モデルを参照して前記第1刺激を選択する、
請求項1に記載の共感支援システム。
【請求項4】
前記検知部は、前記第1応答に対する前記ユーザの第2反応を検知し、
前記記録部は、前記第2反応を前記共感支援モデルに記録し、
前記応答選択部は、前記共感支援モデルを参照して、前記第2反応に対する第2応答を選択する、
請求項3に記載の共感支援システム。
【請求項5】
前記共感支援モデルを保存するメモリまたはデータベース、
を有する請求項1から4のいずれか1項に記載の共感支援システム。
【請求項6】
プロセッサと、
メモリと、
を有し、
前記プロセッサは、ユーザの注意を喚起する第1刺激を生成する刺激生成部、前記第1刺激に対する前記ユーザの第1反応を検知する検知部、及び反応と応答の連鎖を表す共感支援モデルに基づいて前記第1反応に対する第1応答を選択し出力する応答選択部、として機能する、
を有する共感支援装置。
【請求項7】
前記プロセッサは、前記第1反応が共感的反応か非共感的反応かを判断する共感反応判断部、として機能し、
前記応答選択部は、前記第1反応が前記共感的反応である場合に、共感性を維持または促進する共感維持促進応答を前記第1応答として出力し、前記第1反応が前記非共感的反応である場合に、共感性を誘発する共感誘発応答を前記第1応答として出力する、
請求項6に記載の共感支援装置。
【請求項8】
前記メモリは、前記共感支援モデルを保存する、
請求項6または7に記載の共感支援装置。
【請求項9】
共感支援装置にインストールされて、プロセッサに
(a)ユーザの注意を喚起する第1刺激を生成する手順と、
(b)前記第1刺激に対するユーザの第1反応を検知する手順と、
(c)反応と応答の連鎖を表す共感支援モデルに基づいて、前記第1反応に対する第1応答を選択し出力する手順と、
を実行させる共感支援プログラム。
【請求項10】
前記プロセッサに、
(d)前記第1反応が共感的反応か非共感的反応かを判断する手順と、
(e)前記第1反応が前記共感的反応である場合に、共感性を維持または促進する共感維持促進応答を前記第1応答として出力し、前記第1反応が前記非共感的反応である場合に、共感性を誘発する共感誘発応答を前記第1応答として出力する手順と、
を実行させる請求項9に記載の共感支援プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、人の共感的行動を誘発・促進する共感支援システム、共感支援装置、及び共感支援プログラムに関する。
【背景技術】
【0002】
従来から、人と対話を行うシステムが開発されている(たとえば、特許文献1-3参照)。ロボットを用いたセラピー(たとえば、非特許文献1参照)や、ロボットで人に癒しを与える試みも行われている。対話システムやロボットは、コミュニケーションを促し、他者や社会とのかかわり合いを支援するのに有益である。
【0003】
現代社会では、発達障害や自閉スペクトラム症が増えているといわれている。発達障害や自閉スペクトラム症などの疾患をもつ人だけではなく、一人暮らしの高齢者、長期にわたる在宅勤務でストレスを抱える人など、共感性(empathy)が低下した人が増えている。共感性は「思いやり」と言い換えてもよく、たとえば、他者を助けようとするときにその行動をとるきっかけとなる感情のことである。共感性が乏しいと、共感的行動をとりにくい。共感的行動とは、他者の行動を認知し、認知した行動に対して感情をともなって反応することである。共感的行動は、子供の感情発達や、人間関係及び社会関係に影響する。共感的行動を引き出すことで、向社会的傾向を高め、ひいては、人間関係や社会関係を改善することができる。
【先行技術文献】
【特許文献】
【0004】
【特許文献1】特許第6993314号
【特許文献2】特開2021-117371号公報
【特許文献3】特許第6970413号
【非特許文献】
【0005】
【非特許文献1】S. Kim et al., "Smiles as a Signal of Prosocial Behaviors Toward the Robot in the Therapeutic Setting for Children With Autism Spectrum Disorder", frontiers in Robotics and AI, May 2021, Volume 8, Article 599755
【発明の概要】
【発明が解決しようとする課題】
【0006】
人の共感性を高め、他者や社会との関連性を改善することが求められている。本発明は一つの側面で、人の共感的行動を引き出す共感支援技術を提供することを目的とする。
【課題を解決するための手段】
【0007】
一実施形態では、共感支援システムは、
ユーザの注意を喚起する第1刺激を生成する刺激生成部と、
前記第1刺激に対する前記ユーザの第1反応を検知する検知部と、
反応と応答の連鎖を表す共感支援モデルと、
前記共感支援モデルに基づいて前記第1反応に対する第1応答を選択し、出力する応答選択部と、
を有する。
【発明の効果】
【0008】
人の共感的行動を引き出し、支援することができる。これにより、コミュニケーションの促進、人間関係や社会関係の改善が期待できる。
【図面の簡単な説明】
【0009】
図1A】実施形態の共感支援装置を具現化した情報処理端末の表示画面である。
図1B】実施形態の共感支援装置を具現化したロボットの外観図である。
図2】実施形態の共感支援装置のハードウエア構成図である。
図3】共感支援システムの模式図である。
図4】エージェントによる共感支援のシーケンス図である。
図5】注意喚起刺激の例を示す図である。
図6】注意喚起刺激に対する初期反応と、初期反応に対する応答例を示す図である。
図7】共感支援モデルの一例を示す図である。
図8】共感支援の遷移モデルを示す図である。
図9】注意喚起刺激に対する反応タイミングを示す図である。
図10】反応タイミングを考慮した共感支援のフローチャートである。
【発明を実施するための形態】
【0010】
以下で、図面を参照して本発明の実施形態を説明する。下記の実施形態は、発明の技術思想を具体化するための例示であり、本発明を下記の構成に限定するものではない。図面中、同一の構成要素には同一符号を付して、重複する記載を省略する場合がある。図面に示される部材の大きさや位置関係は発明の理解を容易にするために誇張されている場合がある。
【0011】
<共感支援インタフェース>
図1Aは、実施形態の共感支援装置10Aを具現化する情報処理端末110の表示画面の図、図1Bは共感支援装置10Bを具現化するロボット100の外観図である。本発明の共感支援は擬人化したエージェントを前提としており、図1Aのような情報処理端末110の表示画面101に表示されるバーチャルエージェント120を用いてもよいし、図1Bのような実際のロボット100をエージェントとして用いてもよい。エージェントはヒト型のロボットに限定されず、動物型であってもよいし、アバターを含むその他のキャラクターであってもよい。共感支援装置10Aまたは10Bのユーザは、子供でも大人でもよく、精神的または身体的な障害を有する人でも、健常人であってもよい。図1Aの共感支援装置10Aは、ユーザとバーチャルエージェント120の間にインタラクティブな関係を形成して、任意の時間、任意の場所で共感支援することができる。図1Bの共感支援装置10Bは、ロボット100との物理的な接触を通じて、よりエモーショナルな共感支援が可能になる。
【0012】
バーチャルエージェント120またはロボット100は、ユーザから共感的行動を引き出し、ユーザとロボットの間に共感的行動の連鎖を構築する共感支援インタフェースとして設計されている。ユーザの反応とエージェントの応答の連鎖を構築することで、ユーザの向社会的な傾向を高める。実施形態ではユーザから共感的行動を引き出すきっかけとなる初期刺激(または注意喚起刺激)をユーザごとに設定し、更新する。また、ユーザの反応に対して、さらなる共感的行動を引き出すための効果的な応答を選択し、更新する。共感的行動の連鎖の詳細は、後述する。以下では、エージェントとしてロボット100を例にとって、共感支援の態様を説明する。
【0013】
ロボット100は、たとえば、頭部11、胴部12、右腕部13a及び左腕部13b(以下で「腕部13」と総称する場合がある)、手部133、右脚部14a及び左脚部14b(以下で「脚部14」と総称する場合がある)、及び足部143を有する。これらのパーツはロボット100の外形を成す外装体16で形成され、各パーツが独立して駆動され得る。
【0014】
頭部11は、右眼111a、左眼111b、右耳113a、左耳113b、及び口112を有する。頭部11に設けられる眼、耳、口などのパーツは必須ではないが、ユーザの共感的行動の誘引に効果的に作用する場合は、適切な個所に設けられて、個別に制御されるのが望ましい。右腕部13aと左腕部13bの各々は、上腕部131と前腕部132を有していてもよい。右脚部14aと左脚部14bの各々は、大腿部141と下腿部142を有していてもよい。腕を差し出す、手を振る、歩行する等、ユーザの注意を喚起し、ユーザの反応に応答する動作が可能であれば、上腕部131と前腕部132、あるいは大腿部141と下腿部142を区別しなくてもよい。ロボット100のこのような動作は、バーチャルエージェント120では表示画像を制御することで実現される。
【0015】
外装体16は、この例ではシリコーン樹脂などの樹脂で形成されている。外装体16の少なくとも一部に、タッチセンサ161が組み込まれている。タッチセンサ161は、人による接触や近接を感知するセンサであり、たとえば薄いフィルム基板上に1以上のセンサ素子が形成されている。タッチセンサ161は、ユーザの共感的行動を引き出し、ロボット100とのインタラクティブな関係を構築する目的で、接触や近接を感知する。したがって、スマートフォンのタッチパネルのように高精細のセンサアレイでなくてもよい。外装体16の所望の箇所に、近接と接触を区別できる程度の精度でタッチセンサ161のセンサ素子が配置されていてもよい。ロボット100の部位に応じて、センサ素子の配置密度を変えてもよい。頭部11、胴部12、上腕部131、手部133の掌のようにユーザが触りやすい、あるいはハグしやすい部位では、脚部14または足部143と比べてセンサ素子の配置密度を増やしてもよい。タッチセンサ161を構成するセンサ素子は、容量、抵抗、圧力、振動等の変化に基づいてユーザの近接と接触を検出可能である。図1Bの例では、タッチセンサ161として静電容量センサアレイを用いる。
【0016】
ロボット100は、外装体16の内部に、情報処理装置20と、バッテリー21と、サーボモータ22を有する。図1Bでは、サーボモータ22は模式的に一つの破線のボックスで描かれているが、サーボモータ22は多数のサーボモータの総称である。サーボモータ22は、頭部11、胴部12、右腕部13a、左腕部13b、手部133、右脚部14a、左脚部14b、及び足部143のそれぞれに設けられる。各サーボモータ22は、外装体16の対応するパーツを所定の軸まわりに回転させるように、情報処理装置20によって個別に制御される。右眼111aと左眼111bのまぶたの開閉や、口112の開閉、右耳113aと左耳113bの回動なども、これらのパーツに対応して設けられたサーボモータ22によって個別に駆動される。
【0017】
ロボット100は、後述するように、外装体16の内側にカメラ、マイク、スピーカ、ライト、アンテナ等の入出力デバイスを有している。情報処理装置20は、カメラ、マイク、タッチセンサ161等の入力デバイスから取得したデータに基づいてユーザの反応を判断し、記録する。情報処理装置20は、あらかじめインストールされた共感支援プログラムと、新たに取得し蓄積された共感支援データとに基づいて、ロボット100の動作全体を制御する。取得した共感支援データを記録し、解析することで、共感的行動の連鎖を導くモデルを構築する。
【0018】
図2は、ロボット100により具現化された共感支援装置10のハードウエア構成図である。共感支援装置10は、情報処理装置20、バッテリー21、サーボモータ22、カメラ23、マイク24、スピーカ25、ライト26、アンテナ27、タッチセンサ161、及びディスプレイ28を有する。バーチャルエージェント120を用いて情報処理端末110で共感支援装置10B実現する場合は、サーボモータ22を除いて、図2とほぼ同様のハードウエア構成が用いられる。
【0019】
バッテリー21は、たとえば胴部12の下端部またはその近傍に、充電または交換可能に配置されている。バッテリー21を胴部12の下端またはその近傍に配置することで、ロボットの重心を低くして、起立、歩行などの動作を安定させる。サーボモータ22は複数のサーボモータの集合体を総称し、上述したように、頭部11、胴部12、右腕部13a、左腕部13b、手部133、右脚部14a、左脚部14b、及び足部143のそれぞれに設けられる。各部位に2以上のサーボモータが設けられてもよい。それぞれのサーボモータ22は、情報処理装置20によって個別に制御される。サーボモータ22が用いられる部位に応じて、モータの出力トルクの大きさが個別に設定されてもよい。たとえば、頭部11、腕部13、脚部14を回転させるサーボモータの出力トルクは、右眼111a、左眼111b、口112の開閉、あるいは、右耳113aと左耳113bの回動のための出力トルクよりも大きく設定されてもよい。
【0020】
カメラ23は、ロボット100の周辺の画像を取得するイメージセンサである。カメラ23はたとえば、イメージセンサ基板の前面に設けられるレンズ群が右眼111aまたは左眼111bに位置するように設けられてもよい。カメラ23として、通常のカメラと広角カメラの2種類を用いてもよい。マイク24はユーザの音声を収音するために、たとえば頭部11の前面に設けられる。スピーカ25は音声を出力するために、たとえば頭部11の前面に設けられる。スピーカ25から出力される音声には、「こんにちは」、「ありがとう」、「休憩にしましょうか」などの言葉の他に、鈴の音、小川のせせらぎ、小鳥のさえずり、低音量でのハミングなどの心地よい音が含まれてもよい。
【0021】
ライト26は、ロボット100の外装体16の任意に場所に取り付けられ、たとえば、頭部11、胴部12の肩や胸の位置、手部133の掌などに設けられ得る。ユーザの注意を喚起、あるいは共感的行動を誘引することができれば、ライト26の光の色、点滅の速度などを可変にしてもよい。
【0022】
ディスプレイ28は、たとえば、胴部12の外装体16の前面に取り付けられ、人物やキャラクターの写真、風景、メッセージ等を表示する。タッチセンサ161は、上述したようにロボット100の外装体16の所望の部位に組み込まれて、ユーザによる近接と接触を感知する。アンテナ27は基地局との間で電波を送受信する送受信アンテナである。
【0023】
これらの入出力デバイスと、バッテリー21、及びサーボモータ22は、情報処理装置20に接続されている。情報処理装置20は、プロセッサ201、主メモリ202、補助メモリ203、入力インタフェース204、出力インタフェース205、及び通信インタフェース206を有し、これらは、システムバス208を介して相互に接続されている。
【0024】
プロセッサ201は、各種の演算処理を含む制御処理を実行する。制御処理の中には、共感支援のための処理が含まれる。主メモリ202は、プロセッサ201の駆動に用いられるプログラムを記憶するリードオンリーメモリ(ROM)と、プロセッサ201のワークエリアとして使用されるランダムアクセスメモリ(RAM)を含む。補助メモリ203は、ハードディスクドライブ(HDD)やソリッドステートドライブ(SSD)などの記憶装置を含む。補助メモリ203は、各種プログラムとそれらの起動に必要なパラメータ情報の他に、共感支援のためにあらかじめ取得された情報や、カメラ23、マイク24、及びタッチセンサ161により取得されたデータを記憶する。
【0025】
入力インタフェース204は、カメラ23、マイク24、及びタッチセンサ161に接続されて、画像データ、音声データ、静電容量データ等を情報処理装置20の内部に取り込む。出力インタフェース205は、スピーカ25、ライト26、及びディスプレイ28に接続され、音声、光、画像を出力する。通信インタフェース206は、通信ネットワークを介して、情報処理装置20と外部装置を接続し、情報処理装置20と外部装置との間の通信を可能にする。情報処理装置20は、通信インタフェース206とアンテナ27を介して、インターネットあるいはクラウドにアクセス可能である。
【0026】
<共感支援システム>
図3は、共感支援システム1の模式図である。共感支援システム1は、注意喚起刺激データ230と共感支援モデル232を保存するデータベース300と、共感支援装置10を含む。図3では、共感支援装置10はネットワーク302を介してデータベース300に接続されているが、注意喚起刺激データ230と共感支援モデル232の保存先は特に限定されない。注意喚起刺激データ230と共感支援モデル232の少なくとも一部は、共感支援装置10の内部に保存されてもよいし、ローカルエリアネットワーク(LAN)を介して共感支援装置10に接続されるサーバ内に保存されてもよい。
【0027】
制御部200は、近接/接触検知部211、音声認識部212、画像認識部213、刺激生成部216、共感反応判断部217、応答選択部218、動作制御部219、音声合成・出力部220、及びデータ取得・記録部221を有する。制御部200のこれらの機能は、共感支援装置10の情報処理装置20によって実現される。制御部200は、ユーザの注意を喚起する刺激を生成・出力し、ユーザから共感的行動を引き出すように、ロボット100の動作を制御する。
【0028】
近接/接触検知部211は、タッチセンサ161の出力値に基づいて、ユーザの近接または接触を検知する。タッチセンサ161の出力値に応じて、接触の種類、たとえば「軽く触れる」、「撫でる」、「ハグする」などを判別してもよい。音声認識部212は、マイク24が収音したデータから、発語、感嘆詞、笑い声などを認識する。
【0029】
画像認識部213は、ユーザ識別部214と動作識別部215を有する。ユーザ識別部214は、カメラ23が取得した画像データ(ピクセルデータ)から特徴部分を抽出し、あらかじめ登録されたユーザの画像情報と照合して、ユーザを識別する。さらに、カメラ23で取得された画像データ中の眼や口元の画像データの変化、瞳孔の大きさ、口角の位置などから、笑顔、驚き等の表情や、視線を判別する。
【0030】
動作識別部215は、カメラ23が取得した画像データの輪郭の変化と顔認識技術とから、タッチセンサ161の検知範囲よりも遠い領域でユーザの動作を識別する。ユーザの動作として、振り返ってロボット100を見る、ロボット100を見て微笑む、ロボット100へ歩み寄る、何もしない(無反応)等の動作が識別される。近接/接触検知部211、音声認識部212、及び画像認識部213は、ユーザの反応を検知する検知部222としての役割を果たす。
【0031】
刺激生成部216は、注意喚起刺激データ230を参照して、ユーザの注意を喚起する刺激を生成する。何がユーザの注意を喚起するかは、ユーザの年齢、性別、傾向等によって異なり、注意期喚起刺激はユーザごとに設定される。初めてロボット100を用いるときの初期刺激として、ユーザの年齢、性別、特性などから予想される一般的なデフォルト刺激を用いてもよい。たとえば、健常な子供に対しては、ロボット100が「やあ!」と声をかけて腕部13を上げる、健常な大人であれば「はじめまして」と声をかけるなどである。
【0032】
発達過程に障害を有する子供の場合は、声をかける替わりに、ロボット100がユーザの方向にゆっくりと近づいてからユーザを見る動作であってもよい。あるいは、ロボット100の外装体16を動かさずに、チャイム音や鳥のさえずり音を適切な音量で出力する、等の初期刺激を用いてもよい。刺激生成部216で生成された刺激は、ユーザごとに共感支援モデル232に記録され、蓄積される。
【0033】
共感反応判断部217は、検知部222で検知されたユーザの反応が、共感的な反応か否かを判断する。共感的な反応と評価され得る振る舞いを、共感反応データとして共感支援モデル232の一部に組み込んでおいてもよい。共感反応データは、主メモリ202、補助メモリ203に保存されていてもよい。検知部222で検知されたユーザの反応と、共感反応データを比較することで、共感的反応か否かを判断してもよい。注意喚起刺激と同様に、ユーザごとの反応を共感支援モデル232に記録し、解析することで、注意喚起に対するユーザの反応の傾向を把握できる。
【0034】
共感反応判断部217は、共感的反応の判断に先立って、検知部222で得られたユーザの反応が、注意喚起刺激に対する有効な反応であるか否かを判断してもよい。たとえば、注意喚起刺激が出力されてから所定時間内に検知されたユーザの動作を有効な反応とみなし、有効な反応である場合に、共感的反応か否かを判断してもよい。
【0035】
応答選択部218は、ユーザの反応に対して、さらなる共感的行動を引き出すためのロボット100の応答を選択する。応答選択部218は、共感支援モデル232を参照し、ユーザごとに蓄積された過去の反応と応答の連鎖から適切な応答を選択する。共感支援モデル232を参照する際に、他のユーザの反応と応答の連鎖を検索することで、着目しているユーザの反応に対する新たな応答を追加してもよい。あるいは、ロボット100で実行可能な応答データをあらかじめ補助メモリ203に保存しておいてもよい。この場合、応答選択部218は、保存された応答データの中からユーザの反応に適した応答を選択してもよい。
【0036】
初期刺激に対するユーザの反応が蓄積され、更新されるのと同様に、ユーザ反応に対するロボット100の応答も、共感支援モデル232に随時記録され、解析される。上述のように、共感支援モデル232の少なくとも一部が、共感支援装置10の内部、たとえば補助メモリ203に保存されてもよい。
【0037】
動作制御部219は、注意を喚起する初期刺激と、ユーザ反応に対する応答を実現するために、ロボット100の動作を制御する。具体的には、各部位に設けられたサーボモータ22と、スピーカ25、ライト26等の出力デバイスとを制御する。たとえば、ロボット100の応答がユーザへの歩み寄りの場合は、右脚部14aと左脚部14bに設けられたサーボモータ22を駆動して、右脚部14aと左脚部14bを所定の軸回りに交互に回動させ、所定距離だけ歩行させる。応答選択部218で選択された応答内容によっては、ロボット100の複数の動作を組み合わせてもよい。たとえば、ロボット100がユーザの近くで立ち止まった後に、右腕部13aと左腕部13bに設けられたサーボモータ22を駆動して手を差し伸べる、あるいは、右眼111aと左眼111bに設けられたサーボモータ22を駆動して、ゆっくりとまばたきさせる、等である。バーチャルエージェント120を用いる場合は、これらの動作制御は表示画像の制御により行われる。
【0038】
音声合成・出力部220は、応答選択部218で新たな応答データが追加され、その応答データに発話内容を示すテキストデータが含まれている場合に、テキストデータを音声に変換する。たとえば、追加された応答に「そうですね」、「大丈夫?」などのテキストが含まれている場合に、音声合成・出力部220はそのテキスト内容を表す音声を生成し、出力する。補助メモリ203に保存されている音声データを用いる場合は、その音声データを再生して出力してもよい。
【0039】
データ取得・記録部221は、刺激生成部216で出力された刺激、共感反応判断部217の判断結果、及び応答選択部218による選択結果を取得し、共感支援モデル232に順次記録する。データ取得・記録部221で取得されたデータを共感支援モデル232に記録するとともに、主メモリ202に保存して制御部200、すなわちプロセッサ201による判断処理に用いてもよい。
【0040】
上述した機能ブロックを有する制御部200により、ユーザとエージェント(ロボット100またはバーチャルエージェント120)の間の共感的反応の連鎖を支援することができる。
【0041】
<共感支援のシーケンス>
図4は、エージェントによる共感支援のシーケンス図である。ロボット100、またはバーチャルエージェント120を用いた共感支援では、相手を理解したことを示す社会信号によって、ユーザの反応とエージェントの応答の連鎖を構築する。相手と視線を合わせる、微笑みかける、声をかける、近寄るなどの動作は、相手に対する理解を示す社会信号である。共感支援装置10は、ユーザとの間に社会信号に基づく共感的な相互関係を確立することで、ユーザの共感的行動、あるいは向社会的行動を引き出す。以下では、エージェントとしてロボット100を例にとって説明する。
【0042】
ロボット100は、ユーザ識別部214によりユーザを識別する(S11)。ロボット100に対する認知と、それに基づく共感的な行動はユーザごとに異なり、共感支援はユーザごとに個別に行われる。ユーザを識別すると、ロボット100は最初の刺激を出力する(S12)。この最初の刺激は、ユーザに対する注意喚起刺激である(S13)。注意喚起刺激はユーザとロボット100との間に共感的行動の連鎖を構築するトリガである。ロボット100とユーザとの最初のセッションでは、保護者、介護者、心理カウンセラー等の操作により、注意喚起刺激が出力されてもよい。
【0043】
どのような刺激に対して注意が引かれるかは、ユーザによって異なるので、ユーザに適した注意喚起刺激が提示されるのが望ましい。実施形態の共感支援装置10は、ユーザとの間で共感的行動の連鎖を構築するために、ユーザごとのデータを用いるが、セッション開始時に使用する一般的なデータを有していてもよい。たとえば、ユーザとロボット100が初めてかかわり合うときに用いる注意喚起刺激として、ユーザの年齢、性別、内向的か外交的かなどの特性、心理的な障害の有無などの情報に基づいて、注意喚起刺激の一般データの中から初期刺激が選択され、提示されてもよい。
【0044】
図5は、注意喚起刺激データ230の一例を示す。上述したように、注意喚起刺激データ230は、共感支援モデル232の一部として記述されていてもよいし、別途のデータとして記述されていてもよい。ロボット100による注意喚起刺激として、「顔を向けて見つめる」、「胴体を追って挨拶」、「手を振る」、「まばたき」、「うなずく」、「声かけ」などがある。声かけの種類として、ユーザの名前を呼ぶ他に、「こんにちは」、「はじめまして」等の言葉が用いられてもよい。
【0045】
図4に戻って、注意喚起刺激に対するユーザの初期反応を得る(S21)。初期反応には、共感的反応と、非共感的反応がある(S22)。共感的反応は、ロボット100を見て微笑む、ロボット100を見て声を上げる、驚く、おびえる等、ロボット100を認知したことによる感情を伴う反応である。非共感的反応は、無表情で顔を上げる、無表情でロボットを見た後に他の方向を向く、無反応など、ロボット100に対する認知を伴わない反応である。
【0046】
ロボット100の共感反応判断部217は、検知部222の出力データからユーザの初期反応を検出し、初期反応が共感的反応か、非共感的反応かを判断する(S14)。応答選択部218は、共感反応判断部217の判断結果に応じて、ユーザの反応に対する応答を選択し、生成する(S15)。ユーザの初期反応が共感的反応である場合、応答選択部218は、ユーザの共感を維持、促進する共感維持・促進応答を出力する(S16)。ロボット100は、動作制御部219により、選択された共感維持・促進応答に田尾ピしり動作を行う。ユーザの初期反応が非共感的反応である場合、応答選択部218は、共感誘発応答を選択し、出力する(S17)。共感誘発応答として、注意喚起刺激が用いられてもよい。ロボット100は、動作制御部219により、選択された共感誘発応答に対応する動作を行う。
【0047】
図6は、注意喚起刺激に対する初期反応と、初期反応に対する第1応答の例を示す。ユーザとして、5歳から12歳までの男女を想定している。ユーザの初期反応は、近接/接触検知部211、音声認識部212、及び画像認識部213を含む検知部222の出力から、発語、表情、視線、動作、接近等を抽出することで、検知され得る。笑顔、驚きなどの表情や、手を伸ばす、近寄る等の動作が検出されたときは、制御部200は共感的反応が得られたと判断して、その共感的反応を維持・促進する第1応答を選択する。
【0048】
たとえば、ユーザの反応として笑顔が特定されたとき、エージェント(この例ではロボット100)の第1応答として、右眼111a、左眼111b、口112の動きを制御して笑顔を作る、「こんにちは」などの声をかける、ユーザに歩み寄るなどの動作がある。ユーザとロボット100との間に反応と応答の連鎖を示す共感支援モデルが構築されている場合は、ユーザの初期反応に応答してロボット100を転倒させてもよい。最終的にユーザから引き出したい共感的反応は、ロボット100を助け起こす行動である。ロボット100を助け起こすという行為は他者への思いやりを表し、共感支援のひとつのゴールである。
【0049】
ユーザの初期反応が驚きである場合、制御部200は過度の刺激を与えないように、ロボット100の第1応答として、笑顔、「こんにちは」などの声かけを選択する。ユーザの初期反応が笑い声、感嘆句などの発語である場合、ロボット100の第1応答は、笑顔を返す、「びっくりした?」などの声かけ、ユーザに歩み寄るなど、より活動的な動作を選択する。ユーザの初期反応がロボット100を見るという行為の場合、ユーザの感情を引き出すために、ロボット100による笑顔、声かけの他に、手を振る、ユーザに歩み寄るなどの動作を選択してもよい。ユーザの初期反応が無反応の場合、名前を呼ぶ、手を振るなどの注意喚起の応答を選択してもよい。
【0050】
図4に戻って、ロボット100による共感維持・促進応答(S16)または共感誘発応答(S17)に対して、ユーザの次の反応を取得する(S23)。ここでの反応にも、共感的反応と非共感的反応があるが、健常者の場合、一般的には2度目以降の反応は共感的反応の割合が高くなる(S24)。ロボット100は、ユーザの反応を検出し、検出した反応に応答する(S18)。このようにして、ユーザのロボット100の間に反応と応答の連鎖が形成される(S25)。ユーザの2度目の反応も非共感的な反応の場合は、ロボット100は再度、注意喚起刺激を出力してもよい。ロボット100は、反応と応答の連鎖が形成され、維持される過程で生じたすべての刺激、反応、応答を記録し、共感支援モデル232を更新する(S19)。
【0051】
注意喚起刺激に対するユーザの初期反応、初期反応に対するロボット100の第1応答、及びこれに引き続く反応と応答の連鎖は、ユーザの年齢、性質、心理的疾患の有無などによって異なる。ユーザごとに反応と応答の連鎖を共感支援モデルとして構築することでユーザの共感性を高め、向社会的行動へと導く。
【0052】
<共感支援モデル>
図7は、共感支援モデル232の一例を示す。複数のユーザの各々とエージェントとの間のセッションで収集したデータを分析し、ユーザをグループ分けしてもよい。たとえば、エージェントが提示する初期刺激(注意喚起刺激)の種類を「動作」、「声かけ」、「待機」などのようにおおまかに分けて、提示する初期刺激の種類ごとにグループ分けしてもよい。グループIのユーザには、エージェントによる声かけや呼びかけよりも、ユーザに視線を合わせる、笑顔を作るなどの動作が有効である。あるいは、所定の待機時間をおいてから注意喚起刺激を提示するほうが有効なユーザもいる。グループIIのユーザには、声かけや呼びかけが有効である。
【0053】
ユーザとエージェントのコミュニケーションのシーケンスとして、初期コンタクト、共感誘発、共感的関係の形成などがある。エージェントによる注意喚起刺激の提示と、ユーザがとる初期反応によって、初期コンタクトが形成される。共感誘発は、エージェントによる共感誘発応答または共感維持・促進応答である。エージェントの応答に対してユーザの共感的反応が得られ、反応と応答が連鎖すると、共感的関係が形成される。
【0054】
共感支援モデル232で、ユーザとのセッションごとに、最終ゴールとする期待行動が設定されてもよい。共感支援装置10の目標は、ユーザから共感的行動を引き出して向社会性を向上することにある。ユーザによって期待される共感的行動は、エージェントに対する思いやりの言葉、援助などである。ロボット100が転倒したときに、ユーザが手を差し伸べる、助け起こす、「大丈夫?」と声をかける等の行為を取ることができれば、共感支援の効果が現れているといえる。
【0055】
セッションごとに、ユーザの反応が肯定的か否定的か、個別性が高いかどうかを評価して、評価結果を記録してもよい。「個別性」は個性、または自分らしさである。個別性が高いユーザ、あるいはポジティブなユーザからは、共感的行動が引き出しやすい。そのようなユーザは、他者や社会と共感的相互関係を形成しやすい。セッションごとに、共感支援モデル232の更新回数が記録されてもよい。一回のセッションで更新回数が高いユーザは、初期刺激を含む外部刺激に対して反応性の高いユーザと評価され得る。共感支援モデル232を更新することで、反応と応答の連鎖がユーザごとに最適化され、ユーザの共感的行動を引き出すのに有効な刺激と応答が選択される。
【0056】
<共感支援の遷移モデル>
図8は、共感支援の遷移モデルを示す。ここでは、エージェントとしてロボット100を用いている。ユーザとロボット100による「相手を見つめる」、「笑顔を向ける」、「呼びかける」等の動作は、社会信号である。社会信号の連鎖による状態の遷移は、共感性の評価に用いられ得る。遷移ノードの数が多い場合は、共感的行動を引き出し易く、維持しやすい。
【0057】
図8の(A)は、初期刺激としてロボット100が笑顔を作り、ユーザが微笑むケースである。ユーザの微笑みに引き続く遷移がなく、遷移ノードの数は2である。ユーザは、ロボット100の笑顔に反応して微笑んだのではなく、思い出し笑い、あるいはロボット100と別の方向を見て微笑んだと考えられる。
【0058】
図8の(B)は、初期刺激としてロボット100が笑顔を作り、ユーザが微笑み、ロボット100がユーザに対して声をかけるケースである。ユーザの微笑みに応答して、ロボット100による共感的行為があり、遷移ノードの数は3である。図8の(C)は、初期刺激としてロボット100が笑顔を作り、ユーザが微笑み、ロボット100がユーザにあゆみ寄ることで、ユーザがロボット100に触るケースである。ユーザの微笑みに応答してロボット100による共感的応答があり、それに対するユーザのさらなる共感的反応がある。遷移ノードの数は4である。
【0059】
図8の(D)は、ロボット100の笑顔に対してユーザがロボットを見るが、そこで連鎖が途切れる。ロボット100はユーザに声をかけ、ユーザは微笑むが、やはりそこで連鎖が途切れる。遷移ノードの数は2である。遷移ノードの数が多いほど反応と応答の連鎖が維持され、共感的相互関係が形成されていると評価される。このような遷移モデルを図7の共感支援モデル232に組み込んでもよい。遷移モデルを組み込むことで、ユーザごとの分析の精度を高め、共感的行動を引き出すのに有効な初期刺激と応答を適切に選択することができる。
【0060】
<ユーザ反応のタイミング>
図9は、注意喚起刺激に対する反応タイミングを示す。横軸はロボット100による注意喚起刺激からの時間(ミリ秒)、縦軸は表情の変化率(%)である。注意喚起刺激は、ロボットがユーザに向かって笑顔を作る動作である。ユーザの表情の変化率は、画像認識部213により得られたユーザの目元、頬、及び口元のピクセルの変化に基づいて計算されている。
【0061】
図8に示した遷移ノードの数によって、38名のユーザを2つのグループに分ける。遷移ノードの数が3以上のグループをグループHとし、遷移ノードの数が2以下のグループをグループLとする。実線はグループHの平均値のプロット、点線はグループLの平均値のプロット、濃い網掛けはグループHの標準偏差、薄い網掛けはグループLの標準偏差である。一点鎖線は、全体平均を示す。
【0062】
全体平均のピーク(三角マーク)を中心とする前後2000ミリ秒(片側で1000ミリ秒)の領域に着目する。この領域で、グループHとグループLの表情の変化率に有意な差が生じる。非正規分布を有する2つの別個のグループHとグループLについて、マン・ホイットニーのU検定のp値を評価すると、p<0.05であり、95%信頼区間で、2つのグループの間に有意な差があると評価できる。
【0063】
グループHのユーザが、注意喚起刺激から3.5秒から5.5秒の間に表情を変化させて微笑むのに対し、グループLのユーザは、注意喚起刺激から3.5秒から5.5秒の間の表情に変化がない。この差は、上述のように有意な差である。
【0064】
図9の結果から、ロボット100による注意喚起刺激から3.5秒から5.5秒の間を含む期間に取得されたユーザの反応を有効な反応として用い、共感的反応か、非共感的反応かを判断する。注意喚起刺激の直後(たとえば1秒後)、または注意喚起刺激から6秒以上経過してからユーザが微笑んだとしても、それはロボット100が出力した注意喚起刺激に対する反応ではなく、別の理由による笑顔である蓋然性が高い。ロボット100の応答に対するユーザ反応についても同様である。ロボット100の応答から3.5秒から5.5秒の間に得られたユーザ反応を有効な反応として扱い、共感的反応か、非共感的反応かを判断する。
【0065】
図10は、ユーザの反応タイミングを考慮した共感支援のフローチャートである。共感支援装置10は、注意喚起刺激を出力し(S31)、ユーザの初期反応を検知する(S32)。初期反応は、近接/接触検知部211、音声認識部212、及び画像認識部213を含む検知部222の出力から検知され得る。
【0066】
共感反応判断部217は、初期反応が所定時間内、具体的には注意喚起刺激の出力から3.5秒から5.5秒の間に発生したか否かを判断する(S33)。初期反応が所定時間内に発生していない場合は(S33でNO)、S31に戻って、再度注意喚起刺激を出力して、ユーザの初期反応を引き出す。所定時間内に初期反応が発生しているときは(S33でYES)、この初期反応が共感的反応であるか否かを判断する(S34)。反応が共感的反応であるか否かは、図7の共感支援モデル232を参照して判断してもよい。あるいは、共感的反応と評価され得るユーザの表情や動作のリストをあらかじめ主メモリ202または補助メモリ203に保存して、リストを参照して判断してもよい。
【0067】
ユーザの初期反応が共感的反応である場合(S34でYES)、応答選択部218はユーザの共感的反応を維持し促進する共感維持・促進応答を選択し、出力する(S35)。このユーザに適した共感維持・促進応答は、図7の共感支援モデル232を参照して選択され得る。ユーザの初期反応が共感的反応でない場合(S34でNO)、応答選択部218はユーザの共感的行動を誘発する共感誘発反応を選択し、出力する(S36)。共感誘発反応として注意喚起刺激が選択されてもよい。
【0068】
共感反応判断部217は、応答に引き続くユーザの反応を検知すると(S37)、その反応が所定時間内に発生したか否かを判断する(S38)。ユーザの反応が所定時間内にないときは(S38でNO)、セッション中であれば(S40でNO)、S36に戻って、共感誘発応答を出力する。セッション終了時であれば(S40でYES)、処理を終了する。
【0069】
ユーザの反応が所定時間内にあるときは(S38でYES)、有効な反応であると判断し、その反応が共感的反応か否かを判断する(S39)。共感的反応であれば(S39でYES)、セッション中は(S41でNO)、S35に戻って、共感維持・促進応答を出力する。これにより、反応と応答の連鎖が形成される。セッション終了時であれば(S41でYES)、処理を終了する。所定時間内に検知された有効な反応が共感的反応ではない場合(S39でNO)、セッションの継続中は(S40でNO)、S36に戻って共感誘発反応を出力し、セッション終了時は(S40でYES)、処理を終了する。
【0070】
この共感支援の手法により、エージェントの動作に起因しないユーザの動作を排除し、共感支援の有効性を高める。エージェントの動作から所定時間内(たとえば3.5秒から5.5秒の間)に検知されるユーザの反応においては、共感的反応と、非共感的反応の間に有意な差異があるため、エージェントが次に実行する応答を適切に選択できる。
【0071】
共感支援装置10に共感支援プログラムをインストールする場合、プロセッサ201は、共感支援プログラムで規定される以下の手順を実行する。
(a)ユーザの注意を喚起する第1刺激を生成し、
(b)第1刺激に対するユーザの第1反応を検知し、
(c)反応と応答の連鎖を表す共感支援モデルに基づいて、第1反応に対する第1応答を選択し、出力する。
【0072】
好ましくは、プロセッサ201は、メモリに保存された、または共感支援モデルに記述された共感反応情報に基づいて、ユーザの初期反応が共感的反応か、非共感的反応かを判断する手順を実行し、判断結果に応じて第1応答を選択する。
【0073】
実施形態の共感支援は、発達障害や自閉スペクトラム症を患う人のコミュニケーション能力の向上だけではなく、健常者のコミュニケーション能力や向社会的スキルの向上にも有用である。本発明の共感支援は、上述した構成例に限定されず、様々な変形が可能である。社会信号としての注意喚起刺激や、反応、応答の種類は、上記で示したものに限定されない。たとえば、精神的な疾患を有するユーザに対しては、ロボット100やバーチャルエージェント120の共感的行動として、同意せずに共感を示す動作を行わせてもよい。同意せずに共感を示す行為の例として、うなずき(肯定)や首を横に振る(否定)動作を行わずにユーザに手を差し出す、黙って微笑む、ユーザに軽く触れるなどがある。
【0074】
ユーザごとに反応と応答の連鎖を記録し、更新することができるかぎり、共感支援モデル232は図7の例に限定されない。ユーザごとに、エージェントの初期刺激または応答から、ユーザ反応の検知までにかかった時間を記録してもよい。同じユーザに対するエージェントの応答の優先順位を記載し、適宜変更してもよい。共感支援モデル232の更新にしたがって、ユーザをあるグループから別のグループに移してもよい。図10のフローで、一定回数以上連続して有効な反応が得られないときは、セッション時間中であっても処理を終了するフローにしてもよい。ロボット100やバーチャルエージェント120の外形は、図1A及び図1Bの外形に限定されず、ぬいぐるみ型、着せ替え人形型などであってもよい。いずれの変形例でも、ユーザの反応とエージェントの応答の連鎖を構築することで、ユーザから共感的行動を引き出すことができる。これによりユーザの向社会的スキルを向上に、人間関係や社会関係を改善することができる。
【符号の説明】
【0075】
1 共感支援システム
10、10A、10B 共感支援装置
16 外装体
20 情報処理装置
21 バッテリー
22 サーボモータ
23 カメラ
24 マイク
25 スピーカ
26 ライト
27 アンテナ
28 ディスプレイ
100 ロボット
101 表示画面
110 情報処理端末
120 バーチャルエージェント
161 タッチセンサ
200 制御部
201 プロセッサ
202 主メモリ
203 補助メモリ
204 入力インタフェース
205 出力インタフェース
206 通信インタフェース
211 近接/接触検知部
212 音声認識部
213 画像認識部
214 ユーザ識別部
215 動作識別部
216 刺激生成部
217 共感反応判断部
218 応答選択部
219 動作制御部
220 音声合成・出力部
221 データ取得・記録部
222 検知部
230 注意喚起刺激データ
232 共感支援モデル
300 データベース
302 ネットワーク
図1A
図1B
図2
図3
図4
図5
図6
図7
図8
図9
図10