IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 本田技研工業株式会社の特許一覧 ▶ 株式会社ホンダファイナンスの特許一覧

特開2022-165335コミュニケーションシステム及びコーチングシステム
<>
  • 特開-コミュニケーションシステム及びコーチングシステム 図1
  • 特開-コミュニケーションシステム及びコーチングシステム 図2
  • 特開-コミュニケーションシステム及びコーチングシステム 図3
  • 特開-コミュニケーションシステム及びコーチングシステム 図4
  • 特開-コミュニケーションシステム及びコーチングシステム 図5
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2022165335
(43)【公開日】2022-10-31
(54)【発明の名称】コミュニケーションシステム及びコーチングシステム
(51)【国際特許分類】
   G06Q 30/06 20120101AFI20221024BHJP
   G06T 19/00 20110101ALI20221024BHJP
   G06F 3/01 20060101ALI20221024BHJP
   G06Q 50/10 20120101ALI20221024BHJP
   G16Y 20/10 20200101ALI20221024BHJP
   G16Y 20/40 20200101ALI20221024BHJP
   G16Y 40/20 20200101ALI20221024BHJP
【FI】
G06Q30/06 312
G06T19/00 300B
G06T19/00 C
G06F3/01 510
G06F3/01 560
G06Q50/10
G16Y20/10
G16Y20/40
G16Y40/20
【審査請求】未請求
【請求項の数】8
【出願形態】OL
(21)【出願番号】P 2021070682
(22)【出願日】2021-04-19
(71)【出願人】
【識別番号】000005326
【氏名又は名称】本田技研工業株式会社
(71)【出願人】
【識別番号】500294785
【氏名又は名称】株式会社ホンダファイナンス
(74)【代理人】
【識別番号】110001379
【氏名又は名称】特許業務法人 大島特許事務所
(72)【発明者】
【氏名】杉山 謙一郎
(72)【発明者】
【氏名】木村 裕太
(72)【発明者】
【氏名】谷口 洋一
(72)【発明者】
【氏名】坂下 奈々美
(72)【発明者】
【氏名】安達 拓真
(72)【発明者】
【氏名】江口 直希
【テーマコード(参考)】
5B050
5E555
5L049
【Fターム(参考)】
5B050AA08
5B050BA06
5B050BA09
5B050BA13
5B050CA07
5B050CA08
5B050DA04
5B050EA03
5B050EA12
5B050EA13
5B050EA19
5B050EA26
5B050FA02
5B050FA10
5E555AA76
5E555BA02
5E555BA76
5E555BB02
5E555BC04
5E555BD07
5E555BE17
5E555CA41
5E555CA44
5E555CB20
5E555CB81
5E555CC03
5E555DA24
5E555DA40
5E555FA00
5L049BB53
5L049CC11
(57)【要約】
【課題】ユーザがアバターを介してコミュニケーションを行うコミュニケーションシステム、及び、当該コミュニケーションシステムを用いたコーチングシステムにおいて、リアリティを高める。
【解決手段】複数のユーザA、B、Cがそれぞれのアバターを操作することにより、両ユーザ間でコミュニケーションを行うコミュニケーションシステム1、101であって、視覚情報及び聴覚情報の少なくとも一方をユーザ間において相互に伝達する視覚/聴覚情報伝達部13A、13Bと、ユーザそれぞれの表面情報を取得可能なユーザ情報取得部65と、表面情報をコミュニケーション相手となるユーザに伝達する触覚情報伝達部13Cとを有する。
【選択図】図1
【特許請求の範囲】
【請求項1】
複数のユーザがそれぞれのアバターを操作することにより、両ユーザ間でコミュニケーションを行うコミュニケーションシステムであって、
視覚情報及び聴覚情報の少なくとも一方を前記ユーザ間において相互に伝達する視覚/聴覚情報伝達部と、
前記ユーザそれぞれの表面情報を取得可能なユーザ情報取得部と、
前記表面情報をコミュニケーション相手となる前記ユーザに伝達する触覚情報伝達部とを有するコミュニケーションシステム。
【請求項2】
前記触覚情報伝達部は、前記アバターが他の前記アバターに接触したときに、接触された前記アバターを操作する前記ユーザの前記表面情報を、接触した前記アバターを操作する前記ユーザに伝達する請求項1に記載のコミュニケーションシステム。
【請求項3】
前記アバターは実空間に配置されたロボットにより構成され、
前記ロボットは、触覚情報を取得するアバター情報取得部を備え、
前記触覚情報伝達部は、
前記ロボットが他の前記ロボット以外の実物体に接触しているときには、前記アバター情報取得部によって取得した前記触覚情報を前記ユーザに伝達し、
前記ロボットが他の前記ロボットに接触しているときには、接触された前記ロボットを操作する前記ユーザの前記表面情報を、接触した前記ロボットを操作する前記ユーザに伝達する請求項2に記載のコミュニケーションシステム。
【請求項4】
前記アバターはコンピュータに構築された仮想空間におけるキャラクターにより構成され、
前記触覚情報伝達部は、
前記キャラクターが、前記仮想空間において、他の前記キャラクターに接触しているときには、接触された前記キャラクターを操作する前記ユーザの前記表面情報を、接触した前記キャラクターを操作する前記ユーザに伝達する請求項2に記載のコミュニケーションシステム。
【請求項5】
前記ユーザ情報取得部は、前記ユーザの温度に係る情報をそれぞれ取得し、
前記触覚情報伝達部は、前記アバターが接触する前記アバターを操作する前記ユーザの被接触部位に係る前記温度を取得して、接触部位に対応する前記ユーザの部位を前記温度となるように調整することにより、前記表面情報を前記ユーザに伝達する請求項3又は請求項4に記載のコミュニケーションシステム。
【請求項6】
前記アバターに対応する像を、前記ユーザからの入力に基づいて設定した背景イメージに重畳して前記ユーザに提示する請求項1~請求項5のいずれか1つの項に記載のコミュニケーションシステム。
【請求項7】
前記アバターを介さずに一人の前記ユーザに、選択的に通信可能なコーチ端末を備える請求項1~請求項6のいずれか1つの項に記載のコミュニケーションシステム。
【請求項8】
コーチング実施者及びコーチング対象者がそれぞれ、請求項1~請求項7のいずれか1つの項に記載のコミュニケーションシステムを用いて、前記アバターを操作してコミュニケーションを行うことにより、コーチングを行うコーチングシステム。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、仮想空間内に設けられたアバターを介してコミュニケーションを行うためのコミュニケーションシステム、及び、当該コミュニケーションシステムを用いたコーチングシステムに関する。
【背景技術】
【0002】
仮想的なデートを体験できるバーチャルデートサービスシステムが開示されている(例えば、特許文献1)。バーチャルデートシステムを利用するユーザはバーチャルデート時に自分をアバターによって表示することができ、ネットワークを介して相手とテキストや音声をやり取りすることで、バーチャルデートを楽しむことができる。
【先行技術文献】
【特許文献】
【0003】
【特許文献1】特開2007-72818号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
特許文献1に記載のバーチャルデートシステムでは、デートを行うユーザはそれぞれ仮想空間内においてアバターによって自らを表示して、それぞれ操作することができるため、音声のみの場合に比べて、よりリアルな感覚でデートを楽しむことができる。
【0005】
しかし、特許文献1に記載されるようなアバターを用いたコミュニケーションでは、ユーザ間でやり取りされる情報は、視覚情報や、聴覚情報に限定される。そのため、例えば、ユーザは仮想空間内で他のユーザに触れたとしても、接触による感覚を取得できず、リアリティに乏しいという問題がある。
【0006】
本発明は、このような背景に鑑み、ユーザがアバターを介してコミュニケーションを行うコミュニケーションシステム、及び、当該コミュニケーションシステムを用いたコーチングシステムにおいて、リアリティを高めることを課題とする。
【課題を解決するための手段】
【0007】
このような課題を解決するために、本発明のある実施形態は、複数のユーザ(A、B、C)がそれぞれのアバターを操作することにより、両ユーザ間でコミュニケーションを行うコミュニケーションシステム(1、101)であって、視覚情報及び聴覚情報の少なくとも一方を前記ユーザ間において相互に伝達する視覚/聴覚情報伝達部(13A、13B)と、前記ユーザそれぞれの表面情報を取得可能なユーザ情報取得部(65)と、前記表面情報をコミュニケーション相手となる前記ユーザに伝達する触覚情報伝達部(13C)とを有する。
【0008】
この構成によれば、ユーザに、コミュニケーション相手となる他のユーザの表面情報(例えば、温かさ等)が伝えられるため、相互に伝達される情報が視覚情報や聴覚情報のみの場合に比べて、リアリティが高められる。
【0009】
好ましくは、上記態様において、前記触覚情報伝達部は、前記アバターが他の前記アバターに接触したときに、接触された前記アバターを操作する前記ユーザの前記表面情報を、接触した前記アバターを操作する前記ユーザに伝達する。
【0010】
この構成によれば、アバターが他のアバターに接触したときに、接触されたアバターを操作するユーザの表面情報が、接触したアバターを操作するユーザに伝達される。そのため、接触されたユーザの視覚情報及び聴覚情報以外の情報を、接触したユーザに伝達することができるため、リアリティを高めることができる。
【0011】
好ましくは、上記態様において、前記アバターは実空間(15)に配置されたロボット(7)により構成され、前記ロボットは、前記ロボットの表面に伝わる触覚情報を取得するアバター情報取得部を備え、前記触覚情報伝達部は、前記ロボットが他の前記ロボット以外の実物体(X)に接触しているときには、前記アバター情報取得部によって取得した前記触覚情報を前記ユーザに伝達し、前記ロボットが他の前記ロボットに接触しているときには、接触された前記ロボットを操作する前記ユーザの前記表面情報を、接触した前記ロボットを操作する前記ユーザに伝達する。
【0012】
この構成によれば、ユーザの操作するロボットが、他のユーザの操作するロボットに接触したときに、そのユーザの表面情報を取得することができ、実空間内に位置する物体に接触したときには、ロボットによって取得した触覚情報を取得することができる。これにより、ユーザは他のユーザとその実空間に居るかのような感覚を得ることができるため、リアリティを高めることができる。
【0013】
好ましくは、上記態様において、前記アバターはコンピュータ(13)に構築された仮想空間(107)におけるキャラクター(107)により構成され、前記触覚情報伝達部(13C)は、前記キャラクターが、前記仮想空間において、他の前記キャラクターに接触しているときには、接触された前記キャラクターを操作する前記ユーザの前記表面情報を、接触した前記キャラクターを操作する前記ユーザに伝達する。
【0014】
この構成によれば、ユーザは、他のユーザの操作するアバターに接触したときに、そのユーザの表面情報を取得することができる。これにより、ユーザは他のユーザとその仮想空間に居るかのような感覚を得ることができるため、リアリティを高めることができる。
【0015】
好ましくは、上記態様において、前記ユーザ情報取得部は、前記ユーザの温度に係る情報をそれぞれ取得し、前記触覚情報伝達部は、前記アバターが接触する前記アバターを操作する前記ユーザの被接触部位に係る前記温度を取得して、接触部位に対応する前記ユーザの部位を前記温度となるように調整することにより、前記表面情報を前記ユーザに伝達する。
【0016】
この構成によれば、ユーザは、他のユーザの操作するアバターに接触したときに、そのユーザの温かさを感じとることができる。
【0017】
好ましくは、上記態様において、前記アバターに対応する像を、前記ユーザからの入力に基づいて設定した背景イメージ(71)に重畳して前記ユーザに提示する。
【0018】
この構成によれば、アバターに対応する像の背面に背景イメージを設定することができるため、コミュニケーションのリアリティを増すことができる。また、背景イメージを変更することで、ユーザに様々な空間にいるかのような感覚を与えることができるため、エンターテインメント性を増すことができる。
【0019】
好ましくは、上記態様において、前記アバターを介さずに一人の前記ユーザに、選択的に通信可能なコーチ端末(9C)を備える。
【0020】
この構成によれば、アバターを介してコミュニケーションを行う他のユーザに知られることなく、ユーザがアドバイスを受けることができる。
【0021】
このような課題を解決するために、本発明のある実施形態は、コーチングシステムであって、コーチング実施者及びコーチング対象者がそれぞれ、上記のコミュニケーションシステムを用いて、前記アバターを操作してコミュニケーションを行うことにより、コーチングを行う。
【0022】
この構成によれば、コーチング対象者から離れた場所にいても、コーチング実施者がコーチング対象者にコーチングを行うことができる。
【発明の効果】
【0023】
このように本発明によれば、ユーザがアバターを介してコミュニケーションを行うコミュニケーションシステム、及び、当該コミュニケーションシステムを用いたコーチングシステムにおいて、リアリティを高めることができる。
【図面の簡単な説明】
【0024】
図1】第1実施形態に係る支援システム、及び、コーチングシステムを含むマッチングシステムの構成図
図2】マッチングシステムの機能ブロック図
図3】マッチング処理のフロー図
図4】触覚伝達処理のフローチャート
図5】第2実施形態に係る支援システム、及び、コーチングシステムを含むマッチングシステムの構成図
【発明を実施するための形態】
【0025】
以下、図面を参照して、本発明に係るコミュニケーションシステム、及び、そのコミュニケーションシステムを用いたコーチングシステムの実施形態について詳細に説明する。
【0026】
<<第1実施形態>>
本発明に係るコミュニケーションシステム1、及び、コーチングシステム3は、恋人探しや結婚相手探しをするためのマッチングシステム5に適用される。マッチングシステム5は、ユーザから入力された情報に基づき、マッチング処理を行って、相手となるユーザを抽出して、相手となるユーザに係る情報をユーザに提供する。
【0027】
コーチングシステム3はマッチングシステム5の一部を構成する。コーチングシステム3は、希望するユーザ(以下、コーチング対象者)に対して、デートの予行演習である仮想デートの場を提供する。その他、コーチングシステム3は、コーチング実施者Cがデートを行う2名のユーザの一方にアドバイスを行うことを可能とする。
【0028】
仮想的なデートはコーチング対象者と、コーチングを行うユーザ(以下、コーチング実施者C)とが、自分の分身となるアバターを操作することによって行われる。コミュニケーションシステム1は、コーチング実施者Cを含むユーザのアバター同士のコミュニケーションを行うためのシステムであり、マッチングシステム5及びコーチングシステム3の一部を構成する。
【0029】
以下、マッチングシステム5は、コーチング実施者Cをマッチング処理の際に除外して、マッチングを行うものとし、コーチング実施者Cをマッチングシステム5のユーザに含めて説明を行う。
【0030】
次に、マッチングシステム5の構成について説明する。図1に示すように、マッチングシステム5は、ユーザのアバターである複数のロボット7と、ユーザがロボット7を操作するための入力を行う端末9と、ロボット7及び端末9にそれぞれネットワーク11を介して接続可能なサーバ13とを備える。
【0031】
ロボット7は複数の壁体によって囲まれた一つの空間15(実空間)に収容されている。壁体にはそれぞれロボット7の位置を取得するためのネットワークカメラ17が設けられている。また、壁体の空間15側の面は、クロマキー合成がし易いように、グリーンやブルーなどの所定の色で着色されているとよい。但し、この態様には限定されず、ロボット7は屋外に移動可能であり、且つ、GPS等の公知のシステムを用いて、自己位置が取得できるように構成されていてもよい。
【0032】
ロボット7は人型のいわゆるヒューマノイドロボットであって、それぞれ胴体となる胴部19と、胴部19に連結された頭部21と、胴部19に連結された左右の腕部23と、胴部19に連結された左右の脚部25とを備える。左右の腕部23先端にはそれぞれ人の手を模倣したハンド27が設けられている。腕部23、脚部25、ハンド27等には概ね人と同様の位置に関節が設けられている。それぞれの関節には、関節の折り曲げや、伸長を行うための駆動機構が設けられている。
【0033】
ロボット7には、図2に示すように、触覚センサ31と、視覚センサ33と、聴覚センサ35と、音発生装置37と、制御装置39とが設けられている。
【0034】
触覚センサ31は物体への接触によってアバターであるロボット7の表面に伝わる情報を取得する。触覚センサ31は、人の触覚の感覚を模したセンサであって、人が感じる皮膚感覚に相当する情報(以下、触覚情報)を取得する。すなわち、触覚センサ31は、いわばアバターが感じる触覚情報を取得するアバター情報取得部として機能する。
【0035】
触覚センサ31が取得する情報には、人が感じる皮膚感覚のうち、圧覚に相当する情報(以下、圧覚情報)と、温度感覚に相当する情報とが含まれる。圧覚とは人が物体と接触した際に感じる反力による皮膚感覚である。温度感覚は人が物体表面に接触したときに感じる温度に係る皮膚感覚である。触覚センサ31は左右のハンド27にそれぞれ設けられている。
【0036】
触覚センサ31は、圧覚情報を取得する圧覚センサ31Aと、温度感覚に係る情報(以下、温度情報)を取得する温度センサ31Bとを含む。
【0037】
圧覚センサ31Aはハンド27の表面の各所に設けられ、それぞれ圧覚情報を取得する複数の圧覚検出デバイスを含む。圧覚検出デバイスはそれぞれ、圧力を検出する圧力センサによって構成されていてもよい。圧覚検出デバイスは、抵抗式、静電容量式、圧電式、ひずみゲージ式、磁気式等のいずれかの方法、又は、それらを組み合わせた方法に基づく公知のデバイスに基づくものであってよく、その他、生体模倣型触覚センサによって構成されていてもよい。
【0038】
温度センサ31Bはハンド27の表面の各所に設けられ、それぞれ温度情報を取得する複数の感熱デバイスを含む。感温デバイスはそれぞれ熱電対や、温度に応じて抵抗値が変化する抵抗体であってもよい。温度センサ31Bはロボット7のハンド27を覆うフレキシブルデバイスによって構成されているとよい。
【0039】
触覚センサ31は振動を検出することによって、人が物体表面を撫でた際などに感じるザラザラ感などの皮膚感覚に相当する情報を取得するデバイスを含んでいてもよい。
【0040】
視覚センサ33はロボット7前方を撮像する装置であり、CCDやCMOS等の撮像素子からなるカメラを含む。カメラは人の視覚に対応する情報(視覚情報)を取得する視覚検出デバイスということができる。本実施形態では、2つのカメラがそれぞれ頭部21の人の左右の目に相当する位置に設けられている。
【0041】
聴覚センサ35は、音を電気信号に変換する装置であって、マイクロホンによって構成されている。聴覚センサ35は人の聴覚に対応する情報(聴覚情報)を取得する聴覚検出デバイスということができる。本実施形態では、聴覚センサ35は、ロボット7の頭部21の人の左右の耳に相当する位置に設けられた2つのマイクロホンによって構成されている。
【0042】
音発生装置37は、電気信号を音に変換する装置であって、スピーカによって構成されている。音発生装置37は、頭部21の人の口に相当する位置に設けられていてもよく、また、頭部21のその他の位置や、胴部19に設けられていてもよい。
【0043】
制御装置39は駆動機構の駆動を制御する装置であり、本実施形態では、ロボット7の胴体に設けられている。制御装置39は、中央演算処理装置(CPU)、RAM及びROM等のメモリ、SSDやHDD等の記憶装置を備えたコンピュータによって構成されている。
【0044】
制御装置39は触覚センサ31、視覚センサ33、及び、聴覚センサ35に接続され、触覚情報、視覚情報、及び、聴覚情報を取得する。制御装置39はまた音発生装置37に接続され、ロボット7から音を発生させる。
【0045】
制御装置39は無線LANを介して、ネットワーク11(インターネット)に接続し、端末9及びサーバ13に相互に通信する。制御装置39は、外部からの信号に基づいて、駆動機構の駆動を制御することにより、ロボット7の姿勢をコントロールする。
【0046】
また、制御装置39は、触覚センサ31、視覚センサ33、及び、聴覚センサ35によって取得された触覚情報、視覚情報、及び、触覚情報を、適宜、端末9、及び、サーバ13に送信する。更に、制御装置39は、外部からの信号に基づき、音発生装置37を制御して、ロボット7から音を発生させる。
【0047】
端末9はそれぞれ、コーチング実施者C、及び、コーチング対象者を含むマッチングシステム5の全ユーザに保持されている。端末9はユーザやコーチの住居に設置されるものであってもよく、また、ユーザに持ち運び可能に保持されるものであってもよい。
【0048】
端末9(端末装置ともいう)は端末本体41と、出入力装置43とを含む。端末本体41は、中央演算処理装置(CPU)、RAM及びROM等のメモリ、SSDやHDD等の記憶装置を備えたコンピュータによって構成されている。
【0049】
出入力装置43は、端末本体41に対して出入力を行うための装置であって、モニタ45、キーボード47、マウス49、カメラ51、ヘッドセット53、及び、コントローラ55を含む。
【0050】
モニタ45はユーザの前方に設けられ、端末本体41からの信号に基づいて画像を表示し、ユーザに視覚情報を伝達する。キーボード47及びマウス49はユーザから端末本体41への入力を受け付ける。カメラ51はユーザの前方に配置され、ユーザを撮像し、ユーザの姿勢及びユーザの表情を含む視覚情報を取得する。
【0051】
ヘッドセット53は、ユーザの頭に装着される装置であり、左右の耳にそれぞれ装着される左右一対のイヤホン57と、マイクロホン59とを含む。イヤホン57はそれぞれ、端末本体41からの信号に基づいて音を発生させて、ユーザに聴覚情報を伝達する。マイクロホン59は、ユーザの発する声を取得し、端末本体41に出力する。すなわち、マイクロホン59は、ユーザの声等の聴覚情報を取得する。
【0052】
コントローラ55はユーザの左右の手にそれぞれ装着されるウエラブルデバイスである。コントローラ55は左右一対のグローブ61と、グローブ61にそれぞれ設けられた触覚付与デバイス63と、ユーザ情報取得センサ65と、姿勢センサ67とを備えている。
【0053】
触覚付与デバイス63はグローブ61の内側に設けられ、圧力、温度等をユーザの手の表面各所に付与し、ユーザに触覚情報を伝達する。
【0054】
触覚付与デバイス63は、グローブ61を装着するユーザの手表面各所に圧力を加える圧力付与デバイス63Aと、グローブ61を装着するユーザの手表面各所に温調する温調デバイス63Bとを含む。
【0055】
圧力付与デバイス63Aは、グローブ61の各所に設けられたアクチュエータを含む。アクチュエータはグローブ61の内面各所に設けられ、内部に流体を含む袋体と、袋体に流体を出し入れする給排装置とを含む。アクチュエータは袋体に流体を出し入れすることによってユーザの手に圧力を加え、圧覚情報をユーザに伝達する。
【0056】
また、アクチュエータは、端末本体41からの信号に基づいて、ユーザの手に振動を加えて、ユーザに圧覚を伝える触感デバイス(触力覚デバイス)であってもよい。触感デバイスは公知のハプティクス技術に基づくものであってよく、その技術に基づいて、端末本体41は触感デバイスから発生させる振動の波形パターンや振動の周波数を制御するとよい。
【0057】
温調デバイス63Bはそれぞれ端末本体41に接続されている。温調デバイス63Bは端末本体41からの信号に基づいて、ユーザの手の表面各所が端末本体41によって設定された温度となるように、グローブ61の内面各所の温度を調節する。これにより、温調デバイス63Bは温度情報をユーザに伝達する。
【0058】
温調デバイス63Bはグローブ61の各所に設けられた温調素子を含む。温調素子は、ヒータや、ペルチェ素子、フレキシブルな有機熱電素子等であってよい。
【0059】
ユーザ情報取得センサ65(ユーザ情報取得部)は、コントローラ55を装着するユーザの表面に係る表面情報(以下、ユーザ表面情報)を取得する。表面情報には、人がその表面に接触したときに感じ取ることのできる情報を意味し、例えば、表面温度や、柔らかさ、表面から受ける反力などが含まれる。
【0060】
本実施形態では、ユーザ情報取得センサ65は体表圧センサ65Aと、体表温センサ65Bとを含む。体表圧センサ65Aと、体表温センサ65Bとはそれぞれグローブ61の内面に設けられている。
【0061】
体表圧センサ65Aはユーザから加わる圧力を検出する。詳細には、体表圧センサ65Aは、触覚付与デバイス63がユーザに圧覚を付与する(ユーザの手に圧力を加える)ことによって、グローブ61に加わる反力である圧力を検出する。体表圧センサ65Aは触覚付与デバイス63が備える袋体それぞれの圧力を検出する圧力検出素子によって構成されていてもよい。
【0062】
体表温センサ65Bはグローブ61の内側に設けられ、ユーザの手各所の表面温度を取得する。体表温センサ65Bはグローブ61の内側各所に設けられた複数の感温デバイスを含む。感温デバイスは熱電対や、温度に応じて抵抗値が変化する抵抗体であってもよい。体表温センサ65Bはそれぞれフレキシブルなシートにプリントされた感温性抵抗体によって構成されていてもよい。
【0063】
姿勢センサ67はグローブ61の各所に設けられた複数のIMU(慣性計測センサユニット)を含む。IMUは3軸の加速度、及び、対応する各軸の角速度を取得する。端末本体41はIMUによって取得された加速度、及び、各速度に基づいて、ユーザの指の関節や、掌、手首の関節の動きをトラッキングし、手の指、及び手首の位置・姿勢を取得する。
【0064】
端末本体41はネットワーク11を介してサーバ13及びロボット7の制御装置39に接続する。端末本体41は、姿勢センサ67によって取得したユーザの指、及び手首の位置・姿勢情報と、カメラ51によって取得したユーザの姿勢情報と、ユーザ情報取得センサ65によって取得したユーザ表面情報と、ヘッドセット53のマイクロホン59によって取得した音声情報とをサーバ13に送信する。
【0065】
サーバ13は、中央演算処理装置(CPU)、RAM及びROM等のメモリ、SSDやHDD等の記憶装置を備えたコンピュータによって構成されている。サーバ13は、マッチングシステム5の運営を行う会社などの事務所内に設置されているとよい。
【0066】
サーバ13は、ネットワーク11を介して、ネットワークカメラ17の撮像画像を取得し空間15内のロボット7の位置及び姿勢を取得する。また、サーバ13は、端末9から取得した情報に基づいて、その端末9を操作するユーザに対応するロボット7の制御装置39に信号を送信し、当該ロボット7の駆動を制御することができる。
【0067】
サーバ13は、ユーザの希望する条件等のユーザ情報を記憶装置に予め記憶し、コーチ以外の希望するユーザに対して恋人探しや結婚相手探しをするためのマッチング処理を行う。以下、マッチング処理の流れについて、図3を参照して説明する。
【0068】
ユーザ(以下、ユーザA。図1参照)が端末9に希望する条件を入力してサーバ13に送信し、申し込みを行うと(ST1)、サーバ13は、予め記憶されたユーザ情報を用いて、マッチングするユーザ(以下、ユーザB)を抽出する。その後、サーバ13は、ユーザAの端末9に通知を行い、その入出力装置にマッチングするユーザBが抽出され、マッチングが完了した旨の通知を表示させる(ST2)。
【0069】
ユーザAがデートプランに係るコーチング(以下、プランコーチング)を希望する旨の入力を行うと、サーバ13はユーザAの端末9の出入力装置43に入力画面を表示させ、デートプランの入力を受け付ける。ユーザAがデートプランの入力を行ってサーバ13に送信すると、サーバ13はデートプランの評価処理を行い、ユーザAの端末9の入出力装置に評価を表示させる(ST3)。その際、サーバ13は入出力装置に評価に加えて、デートプランに対するアドバイスを表示させてもよい。また、サーバ13は再度、ユーザAの端末9の出入力装置43に入力画面を表示させ、デートプランの入力を受け付けてもよい。このとき、デートプランが再度入力されたときには、サーバ13は再度評価処理を行い、ユーザAの端末9の入出力装置に評価を表示させるとよい。
【0070】
ユーザAがデートのコーチング(以下、デートコーチング)の実行を希望する旨の入力を行うと、サーバ13はユーザAの端末9の出入力装置43に、コントローラ55、及び、ヘッドセット53を装着して、自らの分身(アバター)となるロボット7を操作し、仮想的なデート(以下、予行デート。お試しデートともいう)を行うように指示する表示を行わせる。ユーザはその指示に従い、自らの分身となるロボット7を操作し、予行デートを行う(ST4)。予行デートとは、ユーザはアバターとなるロボット7を操作することにより、コーチング実施者Cの操作するアバターとしてのロボット7と行う仮想的なデートである。
【0071】
予行デートを行っている間、端末9が姿勢センサ67による検出結果に基づいて、ユーザの指及び手首の位置・姿勢を取得し、サーバ13に送信する。サーバ13はその位置、及び姿勢をロボット7の制御装置39に送信し、制御装置39はユーザの指及び手首に対応するように、ユーザに対応するロボット7の手を移動させる。
【0072】
更に、端末本体41はカメラ51による検出結果に基づいて、サーバ13にユーザの姿勢に係る情報を送信する。サーバ13は、ユーザの姿勢に係る情報を受信すると、対応する信号を制御装置39に送信し、制御装置39は、ユーザの姿勢と同じ姿勢となるようにロボット7の駆動を制御する。これにより、ロボット7は、ユーザの指、及び手首、姿勢に対応するように駆動する。よって、ロボット7はユーザの分身(アバター)として動作する。
【0073】
予行デートを行っている間、サーバ13は、ユーザの操作する全てのロボット7の視覚センサ33によって取得した視覚情報を加工して表示画像を生成し、そのユーザの端末9に表示画像を提示させる視覚伝達処理を行う。サーバ13が視覚伝達処理を行うと、端末本体41はモニタ45に表示画像を表示させて、ユーザに視覚情報を伝達する。
【0074】
サーバ13は視覚伝達処理において、視覚センサ33によって取得された画像をそれぞれ左右に並べることによって表示画像を生成してもよい。また、サーバ13は、ロボット7の視覚センサ33によって取得した画像を、端末9のカメラ51によって取得した画像を用いて、ロボット7の代わりに、ロボット7を操作するユーザが撮像されたかのように加工し、表示画像を生成してもよい。
【0075】
予行デートを行っている間、サーバ13は全ロボット7に対して視覚伝達処理を行う。これにより、ユーザのモニタ45には、予行デートを行う相手のユーザの操作するロボット7の像や、端末9のカメラ51によって取得した相手ユーザの像が表示される。これにより、ユーザには、相手のユーザに係る視覚情報が伝達されるため、予行デート中、ユーザ間において相互に視覚情報が伝達される。すなわち、視覚伝達処理を実行することによって、サーバ13には機能部として、ユーザ間において相互に視覚情報を伝達させる視覚伝達部13Aが構成される。
【0076】
サーバ13は、視覚センサ33によって取得した画像からロボット7の像のみを抽出し、それ以外の部分に対して、所定の背景イメージ71(図1参照)を挿入してもよい。本実施形態では、サーバ13は、視覚センサ33によって取得した画像の中の壁体の空間15側の面の色の部分を透明にし、そこに別の映像を合成する、いわゆるクロマキー合成を行って、視覚センサ33によって取得した画像に背景イメージ71を挿入する。
【0077】
端末本体41は、ユーザから挿入すべき背景イメージ71の選択をユーザから受け付けるとよい。背景イメージ71を選択することによって、予行デートの現実感を高めることができる。また、背景イメージ71を変更することで、ユーザに違った空間15にいるかのような感覚を与えることができるため、エンターテインメント性を増すことができる。
【0078】
予行デートを行っている間、サーバ13は、各端末9のヘッドセット53に設けられたマイクロホン59が取得した音声をロボット7に出力させるとともに、ロボット7の聴覚センサ35によって取得した音声を、対応するユーザのヘッドセット53のイヤホン57から出力させる聴覚伝達処理を行う。
【0079】
具体的には、聴覚伝達処理において、サーバ13は、ロボット7の聴覚センサ35(左右のマイクロホン)それぞれで取得した音声信号を制御装置39から取得し、対応するユーザの端末9に送信する。端末9は、ヘッドセット53のイヤホン57からそれぞれ対応する音声を出力させ、ユーザに聴覚情報を伝達する。
【0080】
但し、この態様には限定されず、例えば、サーバ13は、聴覚伝達処理において、会話の相手のヘッドセット53のマイクロホン59によって取得した聴覚情報を取得し、ユーザのイヤホン57から直接出力させてもよい。
【0081】
予行デートを行っている間、サーバ13は全ロボット7、全端末9に対して視覚伝達処理を行う。ユーザのヘッドセット53のイヤホン57には、予行デートを行う相手のユーザの音声が出力される。これにより、ユーザには、予行デートを行う相手の聴覚情報が伝達される。すなわち、聴覚伝達処理を実行することによって、サーバ13には、機能部としてユーザ間において相互に聴覚情報が伝達する聴覚伝達部13Bが構成される。
【0082】
サーバ13は、予行デート中、ロボット7に設けられたカメラ51によって取得した画像や、ネットワークカメラ17によって取得された画像から、公知の画像解析手法を用いて、空間15(実空間)内の物体(以下、実物体X)の位置、及び、全てのロボット7の位置を常時取得する。
【0083】
その他、サーバ13は、ロボット7と対応するユーザの組み合わせごとに触覚伝達処理を行う。
【0084】
また、予行デートを行っている間、サーバ13は、カメラ51、マイクロホン59、姿勢センサ67、触覚センサ31等によって取得したデータ(以下、デートデータ)を記録する。
【0085】
予行デートが完了すると、サーバ13はデートデータを分析し、予行デートの評価を行う評価処理を実行し、評価値を取得する。その後、サーバ13はユーザAの出入力装置43、及び、コーチング実施者Cの端末9の出入力装置43にそれぞれ評価値を表示させ、ユーザA及びコーチング実施者Cに通知する。このとき、コーチング実施者Cは、予行デートに対するコメントを作成し、ユーザAに通知する。
【0086】
ユーザAが予行デートの印象や、評価値に基づいて、ユーザBとデートを行ってもよいと判定し、端末9に所定の入力を行うと、サーバ13はマッチングされたユーザBに係る情報を取得し、ユーザAに提示する。その後、ユーザAは、ユーザBと実際にデート(以下、実デート。リアルデートともいう)を行う(ST5)。実デートは、ユーザA及びユーザBが実際に会うものや、それぞれがロボット7を操作することによって行うものであってよい。
【0087】
本実施形態では、ユーザAとユーザBとがロボット7を操作することによって実デートを行うときには、サーバ13は、コーチング実施者CがユーザAにアドバイスを行えるように構成されている。
【0088】
具体的には、コーチング実施者Cが自らの端末9(コーチ端末9C)の端末本体41はマイクロホン59によって取得した音声のみをサーバ13に送信し、サーバ13はユーザAの端末9のイヤホン57から、対応するロボット7の聴覚センサ35によって取得した音声とともに、出力させる。これにより、コーチ端末9Cはアバターを介さずに一人のユーザ(ユーザA)に選択的に通信可能な端末9として機能する。これにより、アバターを介してコミュニケーションを行う他のユーザに知られることなく、ユーザがアドバイスを受けることができる。
【0089】
このとき、サーバ13は、ネットワークカメラ17によって取得した画像をコーチ端末9Cの端末本体41に送り、コーチ端末9Cの端末本体41はモニタ45に表示するとよい。
【0090】
<触覚伝達処理>
次に、触覚伝達処理の詳細について、図4に示すフローチャートを参照して説明する。サーバ13は予行デート中、予行デートを行うユーザと、ロボット7との全組み合わせについて、触覚伝達処理を常時(例えば、1ミリ秒ごとに)繰り返して行う。
【0091】
触覚伝達処理の最初のステップST11において、ハンド27の触覚センサ31によって所定の閾値以上の圧力が検出されているかを判定する、所定の閾値以上の圧力が検出されているときには、ステップST12を、検出されていないときには触覚伝達処理を終える。
【0092】
サーバ13は、ステップST12において、閾値以上の圧力が検出された触覚センサ31が設けられたロボット7(以下、接触ロボット7)の位置や姿勢、接触ロボット7に設けられた視覚センサ33による画像や、ネットワークカメラ17の画像等に基づいて、接触ロボット7のハンド27が触れた物体が実物体Xであるか、又は、他のロボット7のハンド27以外の部分であるかを判定する。サーバ13は、接触ロボット7のハンド27が触れた物体が実物体Xであるか、又は、ロボット7のハンド27以外の部分である場合には、ステップST13を、それ以外の場合、すなわち、接触ロボット7のハンド27に触れた物体がロボット7のハンド27である場合にはステップST14を実行する。
【0093】
ステップST13において、サーバ13は接触ロボット7の触覚センサ31によって取得した触覚情報(温度、圧力)を制御装置39から取得する。その後、サーバ13は、接触ロボット7に対応するユーザ(以下、接触ユーザ)の端末本体41を制御して、触覚付与デバイス63(圧力付与デバイス63A及び温調デバイス63B)を駆動させ、ユーザ(以下、接触ユーザ)に取得した触覚情報(温度、圧力)を伝達する。
【0094】
具体的には、サーバ13は、接触ロボット7の圧覚センサ31Aによって取得した圧力を制御装置39から取得し、ユーザの接触ロボット7のハンド27が接触した部位に対応する部分に加えるべく、圧力付与デバイス63Aを駆動させる。また、サーバ13は、接触ロボット7の温度センサ31Bによって取得した温度を制御装置39から取得し、ユーザの接触ロボット7のハンド27が接触した部位が当該温度となるように、温調デバイス63Bを駆動させる。
【0095】
触覚付与デバイス63の動作が完了すると、サーバ13は触覚伝達処理を終える。
【0096】
ステップST14において、サーバ13は、接触ロボット7の視覚センサ33、及びネットワークカメラ17の撮像画像に基づいて、接触ロボット7のハンド27が接触するロボット7(以下、被接触ロボット7)を同定する。その後、サーバ13は、被接触ロボット7を操作するユーザ(以下、被接触ユーザ)を同定する。
【0097】
次に、サーバ13は、接触ロボット7の視覚センサ33、被接触ロボット7の視覚センサ33、及び、ネットワークカメラ17の撮像画像に基づいて、接触ロボット7のハンド27のうち、被接触ロボット7に接触する部位(以下、接触部位)と、被接触ロボット7のハンド27のうち、接触ロボット7に接触する部位(以下、被接触部位)とを同定する。同定が完了すると、サーバ13はステップST15を実行する。
【0098】
ステップST15において、サーバ13は、被接触ユーザの端末本体41から、被接触ユーザの被接触部位に対応する部分のユーザ表面情報(圧力、温度)を取得する。次に、サーバ13は、接触ユーザの端末本体41を介して、接触ユーザの触覚付与デバイス63を駆動させ、被接触ユーザの被接触部位に対応する部分のユーザ表面情報(圧力、温度)を接触ユーザに伝達する。すなわち、触覚伝達処理を行うことによって、サーバ13には、機能部として、表面情報をコミュニケーション相手となるユーザに伝達する触覚情報伝達部13Cが構成される。
【0099】
具体的には、サーバ13は触覚センサ31から非接触ユーザから被接触部位に対応する部分の圧力及び温度を取得し、接触ユーザの接触部位に対応する部分に当該圧力を加え、且つ、接触ユーザの接触部位に対応する部分が当該温度となるように、触覚付与デバイス63を駆動させる。
【0100】
触覚付与デバイス63の動作が完了すると、サーバ13は触覚伝達処理を終える。
【0101】
<評価処理>
予行デートが完了した後にサーバ13が実行する評価処理について詳細に説明する。
【0102】
サーバ13は、他のユーザのロボット7への操作入力の履歴情報や、ユーザから取得したアンケート結果、人間の行動モデル等を用いた機械学習によって、デートにおいて取るべき模範行動モデルを保持している。
【0103】
サーバ13は、マイクロホン59によって取得したユーザA及びコーチング実施者Cの音声をそれぞれテキストデータに変換する。その後、サーバ13は、テキストデータや、カメラ51によって取得した画像、触覚センサ31等によって取得した情報と、模範行動モデルとに基づいて、ユーザが取るべき模範的な行動を取得する。次に、サーバ13は、取得した模範的な行動と、ユーザの行動の差分を算出し、評価値を取得する。サーバ13は、模範的な行動と、ユーザの行動との差分が小さい(すなわち、乖離が小さい)ときに、評価値を高くなるように算出するとよい。
【0104】
この態様には限定されず、サーバ13は、テキストデータ、及び、カメラ51によって取得した画像に基づいて感情分析を行って、評価値を取得してもよい。具体的には、サーバ13は、会話の内容を示すテキストデータ、音声、カメラ51によって取得された会話者の表情等を、人工知能等の用いた公知の感情分析手法を用いて、「中立」「怒り」「喜び」「悲しみ」などの分類ごとに、各感情の強さを示す感情スコアを取得する。感情スコアの算出は、例えば、特許第6804763号公報、米国特許公開第10289898号明細書等に記載された各種の公知の方法を用いることができる。
【0105】
その後、サーバ13は評価値を、ポジティブな感情(例えば、「喜び」)の感情スコアが高くなるほど高くなるように算出する。例えば、サーバ13は、予行デート中の会話の全テキストデータに対して感情スコアを算出し、ポジティブな感情(例えば、「喜び」等)には正の、ネガティブな感情(例えば、「怒り」「悲しみ」等)には負の重みを付けて、感情スコアの和を取ることによって評価値を算出してもよい。また、サーバ13は、所定時刻ごとのユーザの表情の画像に対して感情スコアを算出し、同様に重みを付けて算出することによって、評価値を算出してもよい。
【0106】
サーバ13は、会話を行うユーザそれぞれの画像に対して、公知の感情分析手法を用いて、各時刻の感情スコアを取得する。その後、サーバ13は、会話を行う2名のユーザにおいて、ポジティブな感情に係る感情スコア(例えば、「喜び」)が同期している度合いを算出し、その度合いに基づいて評価値を算出する。同期している度合いは、会話を行う一方のユーザのポジティブな感情に感情スコアが所定値以上であるときに、他方のユーザのポジティブな感情に感情スコアが所定値以上である割合に基づいて算出されるとよい。
【0107】
その他、サーバ13は、ロボット7の触覚センサ31によって取得された圧力に基づいて、会話の相手となるユーザへの接触のタイミングを取得し、評価値として出力してもよい。サーバ13は、例えば、会話の相手の表情に基づく感情スコアのうち、ポジティブな感情に対応する感情スコアと、接触のタイミングとの同期度合いに基づいて、評価値を算出するとよい。サーバ13は、評価値を、同期度合いが高くなるにつれて、高くなるように算出するとよい。
【0108】
次に、このように構成したコミュニケーションシステム1、及び、コーチングシステム3の効果について説明する。
【0109】
予行デートにおいて、2つのロボット7のハンド27同士が接触したときには(ST12においてYes)、ユーザ情報取得センサ65によって相手方のユーザの被接触部位に対応する部分の温度や圧力(ユーザ表面情報)が取得される。その後、その温度や圧力(ユーザ表面情報)が、触覚付与デバイス63を介してユーザに伝達される(ST15)。これにより、ユーザは、他のユーザの操作するロボット7に接触したときに、その接触相手となるユーザの表面温度や圧力を感じとることができる。よって、接触されたユーザの視覚情報及び聴覚情報以外の「ふれあい」を含めた情報を、接触したユーザに伝達することができるため、コミュニケーションのリアリティを高めることができる。
【0110】
一方、ユーザが操作するロボット7が、ロボット7以外の空間15内に位置する物体に接触したとき(ST12においてNo)には、ロボット7によって取得した触覚情報が触覚付与デバイス63を介してユーザに伝達される(ST13)。これにより、これにより、ユーザは他のユーザとその空間15に居るかのような感覚を得ることができ、コミュニケーションのリアリティを増すことができる。
【0111】
また、マッチングシステム5では、ユーザ同士がアバターを使ってデートを行うことができる。よって、ユーザ同士が離れた場所にいた場合であっても、ユーザがデートを楽しむことができる。また、ユーザ自身の姿を表示することなく、分身となるロボット7を使ってデートを楽しむことができるため、ユーザの個人情報を保護することが容易である。
【0112】
また、本実施形態では、コーチング実施者C及びコーチング対象者(ユーザA)がそれぞれ、コミュニケーションシステム1を用いて、アバターとなるロボット7をそれぞれ操作してコミュニケーションを行うことにより、コーチングを行う。そのため、コーチング実施者Cとコーチング対象者とが離れた場所にいた場合であっても、コーチングを行うことができる。
【0113】
コーチング対象者は、コーチング実施者Cと予行デートを行い、いわば実デートの予行演習を行うことができる。コーチング対象者は、予行デートの評価値や、コーチング実施者Cのコメントによって、一歩踏み出した行動をとったときにどのように捉えられるのかを実感することができる。
【0114】
<<第2実施形態>>
第2実施形態に係るコミュニケーションシステム101、及び、コーチングシステム103もまた、第1実施形態と同様にマッチングシステム5に適用される。但し、第2実施形態が適用されるマッチングシステム5は、ロボット7を含まない点で、第1実施形態と異なる。
【0115】
図5に示すように、マッチングシステム5は、第1実施形態と同様の端末9と、第1実施形態と同様のサーバ13とを含む。端末9は、第1実施形態と同様にユーザに装着されるコントローラ55及びヘッドセット53とを備え、ネットワーク11を介して、サーバ13に接続する。
【0116】
サーバ13は、第1実施形態と同様に、予行デートの実行の申し込みを受け付けると、コーチング実施者Cと、コーチング対象者(例えば、図5のユーザA)とに共通の仮想の3次元空間(以下、仮想空間117)を構築する。更に、サーバ13は、コーチング実施者Cと、コーチング対象者との姿勢に応じて、キャラクター107を対応するように、変形・移動させる。また、サーバ13は、第1実施形態と同様に、コーチング実施者Cとコーチング対象者との間で聴覚情報を相互に伝達する。これにより、サーバ13は、コーチング実施者Cと、コーチング対象者とが分身(アバター)となるキャラクター107を操作してバーチャルデートを行うことのできるコーチングサービスを提供する。
【0117】
サーバ13はまた、実デートの実行の申し込みを受け付けると、共通の仮想空間117において、ユーザと、マッチングされたユーザとがそれぞれ対応するキャラクター107を操作してバーチャルデートを行うことのできるバーチャルデートサービスを提供する。
【0118】
図5に示すように、仮想空間117内には、2体のキャラクター107と、仮想物体Yとが設けられている。キャラクター107はそれぞれ、胴部19、頭部21、2つの腕部23、及び、2つの脚部25を有する人型をなす。
【0119】
仮想物体Yは、例えば、テーブルやクッション等の形状をなしている。サーバ13は、仮想物体Yごとに、対応する形状に係る情報と、変形し易さを示す情報(以下、硬さ情報)と、温度を示す情報(以下、温度情報)とを保持している。本実施形態では、サーバ13は、硬さ情報及び温度情報をそれぞれ数値として記憶装置に記憶している。硬さ情報を示す数値は、変形し難くなるほど高くなるように設定されている。サーバ13は、硬さ情報に対する数値を、テーブルに対応する仮想物体Yに対しては、クッションに対応する仮想物体Yよりも、高くなるように記憶している。
【0120】
第1実施形態と同様に、サーバ13は、ユーザの手・指の位置・姿勢や、ユーザの姿勢を取得し、ユーザに対応する仮想空間117内のキャラクター107の手・指の位置・姿勢や、キャラクター107自体の姿勢を対応するように操作する。このような仮想空間117内におけるキャラクター107の操作は、ゲーム等において用いられる公知の方法に基づくものであってよい。
【0121】
また、サーバ13は、予行デートを行う一方のユーザのヘッドセット53のマイクロホン59から音声を取得すると、他方のユーザの端末9のスピーカから音声を発生させる。これにより、ユーザは聴覚情報を相互に伝達することができる。すなわち、サーバ13は、聴覚情報をユーザ間において相互に伝達する聴覚情報伝達部を構成し、ユーザは音声によってコミュニケーションを行うことができる。
【0122】
サーバ13は、端末9への入力に応じてキャラクター107を移動させるとともに、キャラクター107が、仮想空間117内の他のキャラクター107や仮想物体Yに接触すると、第1実施形態と同様に触覚伝達処理を行う。
【0123】
サーバ13は触覚伝達処理において、まず、キャラクター107と他のキャラクター107と接触しているか、又は、仮想物体Yに接触しているかを判定する。
【0124】
仮想空間117においてキャラクター107(以下、接触側キャラクター107)の手が他のキャラクター107(以下、被接触側キャラクター107)の手に接触したときには、サーバ13は、仮想空間117内の接触側キャラクター107の接触部位及び被接触側キャラクター107の被接触部位を取得する。接触部位・非接触部位の取得は、公知の方法に基づくものであってよく、例えば、特開2013-106701号公報に記載された方法に基づいて算出されてもよい。
【0125】
次に、サーバ13は、第1実施形態と同様に、被接触側キャラクター107を操作するユーザ(以下、被接触ユーザ)の被接触部位に係るユーザ表面情報(圧力、温度)を取得し、接触側キャラクター107を操作するユーザ(以下、接触ユーザ)の接触部位に伝達する。すなわち、触覚伝達処理を実行することによって、サーバ13には、機能部として、ユーザ表面情報をコミュニケーション相手となるユーザに伝達する触覚情報伝達部13Cが構成される。
【0126】
具体的には、サーバ13は、接触ユーザの接触部位に、被接触部位から受けた圧力が加わり、被接触部位から受けた温度が伝わるように、接触ユーザの触覚付与デバイス63を駆動させる。
【0127】
仮想空間117においてキャラクター107の手が仮想物体Yに接触したときには、サーバ13は、キャラクター107の接触部位、接触した仮想物体Yの硬さ情報及び温度情報を取得する。その後、サーバ13は、対応するユーザの接触部位に対応する部分に、硬さ情報に応じた圧力と、温度情報に対応する温度を伝えるべく、接触ユーザの触覚付与デバイス63を駆動させる。
【0128】
次に、このように構成したコミュニケーションシステム101、及び、コーチングシステム103の効果について説明する。
【0129】
仮想空間117において、キャラクター107が他のキャラクター107に接触すると、接触ユーザの接触部位に、被接触ユーザの被接触部位に係るユーザ表面情報(圧力、温度)が伝達される。これにより、ユーザは他のユーザとその仮想空間117に居て、接触したかのような感覚を得ることができるため、リアリティを高めることができる。
【0130】
本実施形態では、キャラクター107が仮想物体Yに接触すると、接触ユーザの接触部位に、仮想物体Yに対応する圧力や温度が伝達される。これにより、ユーザは、仮想空間117に居て、仮想物体Yに接触しているかのような感覚を得ることができるため、リアリティを高めることができる。
【0131】
以上で具体的実施形態の説明を終えるが、本発明は上記実施形態に限定されることなく幅広く変形実施することができる。
【0132】
上記実施形態では、コーチング対象者へのコーチングがコーチング実施者Cによって行われる例を記載したが、これには限定されず、コーチングがサーバ13において実行される所定のプログラムによって行われるものであってもよい。
【0133】
上記実施形態において、触覚付与デバイス63は、圧力、温度をユーザに伝達するように構成されていたが、ユーザに伝達する情報はこれには限定されない。触覚付与デバイス63は、公知の触覚伝達技術によって、他の触覚に係る情報(例えば、ざらざら感や、力覚等)を伝達するものであってもよい。
【0134】
上記実施形態では、ハンド27やユーザの手への触覚に係る情報がユーザに伝達されるように構成されていたが、触覚に係る情報が伝達される部位は手には限定されず、身体各所における触覚に係る情報がユーザ間で相互に伝達されるように構成されていてもよい。
【符号の説明】
【0135】
1 :第1実施形態に係るコミュニケーションシステム
3 :第1実施形態に係るコーチングシステム
5 :マッチングシステム
7 :ロボット
9 :端末
9C :コーチ端末
13 :サーバ(コンピュータ)
13A :視覚伝達部
13B :聴覚伝達部
13C :触覚情報伝達部
15 :空間
31 :触覚センサ(アバター情報取得部)
65 :ユーザ情報取得センサ(ユーザ情報取得部)
71 :背景イメージ
101 :第2実施形態に係るコミュニケーションシステム
103 :第2実施形態に係るコーチングシステム
107 :キャラクター(アバター)
117 :仮想空間
X :実物体
図1
図2
図3
図4
図5