(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公表特許公報(A)
(11)【公表番号】
(43)【公表日】2023-10-24
(54)【発明の名称】人間型特徴を有する仮想的かつ物理的ソーシャルロボット
(51)【国際特許分類】
G06F 3/048 20130101AFI20231017BHJP
【FI】
G06F3/048
【審査請求】未請求
【予備審査請求】未請求
(21)【出願番号】P 2023543245
(86)(22)【出願日】2021-06-30
(85)【翻訳文提出日】2023-05-17
(86)【国際出願番号】 AU2021050698
(87)【国際公開番号】W WO2022067372
(87)【国際公開日】2022-04-07
(32)【優先日】2020-09-29
(33)【優先権主張国・地域又は機関】AU
(31)【優先権主張番号】202110133608.1
(32)【優先日】2021-02-01
(33)【優先権主張国・地域又は機関】CN
(81)【指定国・地域】
【公序良俗違反の表示】
(特許庁注:以下のものは登録商標)
(71)【出願人】
【識別番号】523115726
【氏名又は名称】ヒューマン センタード イノベーションズ ピーティーワイ エルティディー
(74)【代理人】
【識別番号】110002365
【氏名又は名称】弁理士法人サンネクスト国際特許事務所
(72)【発明者】
【氏名】キョースラ, ラジブ
(72)【発明者】
【氏名】グエン, カーン トゥアン
【テーマコード(参考)】
5E555
【Fターム(参考)】
5E555AA27
5E555BA02
5E555BB02
5E555BC04
5E555CA42
5E555CA47
5E555DA13
5E555DA21
5E555DB32
5E555FA00
(57)【要約】
少なくともソーシャルロボット及び1つ以上の仮想ロボットシステムを含むソーシャルシステムと、連携システムとを備える、ユーザによるインタラクション用のヒューマンインタラクションシステムであって、前記ソーシャルロボットは、ロボット処理システムによって制御されるとともに、出力手段及び入力手段を含むインタラクションをユーザに提供するように構成され、前記1つ以上の仮想ロボットシステムは、前記ソーシャルロボットのアバターレプレゼンテーションを制御可能に提示するように構成され、かつさらに入力を受信するように構成され、前記連携システムは、どの時点においても、前記ソーシャルロボット又は前記仮想ロボットシステムのうちの1つのいずれか一方がアクティブであるように、前記ソーシャルロボット及び前記1つ以上の仮想ロボットの運転を連携するように構成され、よって、運転中に、ユーザは、前記アクティブなソーシャルロボット又は仮想ロボットシステムに関連付けられたものとして、前記ソーシャルロボット及び前記アバターに関連付けられたロボットパーソナリティーを認知する、ヒューマンインタラクションシステム。
【選択図】
図7
【特許請求の範囲】
【請求項1】
少なくともソーシャルロボット及び1つ以上の仮想ロボットシステムを含むソーシャルシステムと、連携システムとを備える、ユーザによるインタラクションのためのヒューマンインタラクションシステム(human interaction system)であって、
前記ソーシャルロボットは、ロボット処理システムによって制御されるとともに、出力手段及び入力手段を含むインタラクションをユーザに提供するように構成され、
前記1つ以上の1つ以上の仮想ロボットシステムは、前記ソーシャルロボットのアバターレプレゼンテーションを制御可能に提示するように構成され、かつさらに入力を受信するように構成され、
前記連携システムは、どの時点においても、前記ソーシャルロボット又は前記仮想ロボットシステムのうちの1つのいずれか一方がアクティブであるように、前記ソーシャルロボット及び前記1つ以上の仮想ロボットの運転を連携するように構成され、
よって、運転中に、ユーザは、前記アクティブなソーシャルロボット又は仮想ロボットシステムに関連付けられたものとして、前記ソーシャルロボット及び前記アバターに関連付けられたロボットパーソナリティーを認知する、ヒューマンインタラクションシステム。
【請求項2】
前記ソーシャルロボットは、入力手段として1つ以上のカメラ及び/又はマイクを備え、かつ/又は前記ソーシャルロボットは、出力手段としてスピーカー及び/又は1つ以上のライトを備える、請求項1に記載のシステム。
【請求項3】
前記連携システムは、前記ソーシャルロボット及び前記1つ以上の仮想ロボットシステムとデータ通信する、請求項1又は請求項2に記載のシステム。
【請求項4】
前記ソーシャルロボットは、胴体などの第2部分に対して可動である頭部などの第1部分を備える、請求項1乃至請求項3のいずれか一項に記載のシステム。
【請求項5】
前記連携システムは、
前記ユーザの位置を決定するとともに、前記ユーザの前記位置に対応するソーシャルシステムを決定し、かつ
アクティブとして構成する前記対応するソーシャルシステムにメッセージを伝えるように構成される、請求項1乃至請求項4のいずれか一項に記載のシステム。
【請求項6】
前記連携システムは、それぞれが非アクティブとして構成する前記1つ以上の他のソーシャルシステムにメッセージを伝えるようにさらに構成される、請求項5に記載のシステム。
【請求項7】
前記連携システムは、各ソーシャルシステムからプレゼントコミュニケーションを受信するように構成され、前記現在の通信は、前記ソーシャルシステムに関連付けられた物理的位置での前記ユーザの存在を示す前記ソーシャルシステムの入力手段に応じて生成される、請求項5又は請求項6のいずれかに記載のシステム。
【請求項8】
前記1つ以上の仮想ロボットシステムは、前記アバターをアニメートするように構成され、かつ少なくとも1つのアニメーションは、前記ソーシャルロボットの動きに相当する、請求項1乃至請求項7のいずれか一項に記載のシステム。
【請求項9】
前記1つ以上の仮想ロボットシステムは、前記アバターをアニメートするように構成され、かつ少なくとも1つのアニメーションは、前記ソーシャルロボットの動きに相当しない、請求項1乃至請求項8のいずれか一項に記載のシステム。
【請求項10】
前記ロボット処理システムは、アクティブな仮想ロボットシステムの前記運転を少なくとも部分的に制御するように構成される、請求項1乃至請求項9のいずれか一項に記載のシステム。
【請求項11】
前記アクティブな仮想ロボットシステムは、前記ロボット処理システムから受信したコマンドを解釈し、かつ前記仮想ロボットシステムのディスプレイ上で表示するために前記コマンドを適応させるように構成される、請求項10に記載のシステム。
【請求項12】
少なくとも1つの仮想ロボットシステムは、少なくとも2つの事前に定義されたアバターの外見で構成され、かつ前記事前に定義されたアバターの外見のうちの1つが、アプリケーションに依存して選択される、請求項1乃至請求項11のいずれか一項に記載のシステム。
【請求項13】
前記事前に定義されたアバターの外見のうちの1つがニュートラルな外見である、請求項12に記載のシステム。
【請求項14】
少なくとも1つの仮想ロボットシステムが、前記アバターが提示される少なくとも2つの事前に定義された仮想環境で構成される、請求項1乃至請求項13のいずれか一項に記載のシステム。
【請求項15】
前記ソーシャルロボット及び/又は仮想ロボットシステムとデータ通信する1つ以上のインタラクション装置をさらに備えるシステムであって、前記インタラクション装置は、前記ユーザが入力及び出力を提供することを可能にする、請求項1乃至請求項14のいずれか一項に記載のシステム。
【請求項16】
少なくとも1つの仮想ロボットシステムが、インタラクション装置に対応する仮想オブジェクトを提示するように構成される、請求項15に記載のシステム。
【請求項17】
前記ソーシャルロボット及び/又は少なくとも1つの仮想ロボットシステムは、1つ以上の補助装置とのデータ通信用に構成される、請求項1乃至請求項16のいずれか一項に記載のシステム。
【請求項18】
前記アバターの外見は、言語コミュニケーション及び/又は視覚動作を行うためのユーザコマンドに応答して制御可能である、請求項1乃至請求項17のいずれか一項に記載のシステム。
【請求項19】
0
【請求項20】
少なくともソーシャルロボット及び1つ以上の仮想ロボットシステムを含むソーシャルシステムを備える、ユーザによるインタラクション用のヒューマンインタラクションシステムであって、
前記ソーシャルロボットは、ロボット処理システムによって制御されるとともに、出力手段及び入力手段を含むインタラクションを制御ユーザに提供するように構成され、
前記1つ以上の1つ以上の仮想ロボットシステムは、前記ソーシャルロボットのアバターレプレゼンテーションを制御可能に提示するように構成され、かつさらに入力を受信するように構成され、前記又は各仮想ロボットシステムは、ユーザに関連付けられ、
よって、運転中に、前記又は各ユーザは、前記アクティブなソーシャルロボット又は仮想ロボットシステムに関連付けられたものとして、前記ソーシャルロボット及び前記アバターに関連付けられたロボットパーソナリティーを認知する、ヒューマンインタラクションシステム。
【請求項21】
前記ソーシャルロボットは、入力手段として1つ以上のカメラ及び/又はマイクを備え、かつ/又は前記ソーシャルロボットは、出力手段としてスピーカー及び/又は1つ以上のライトを備える、請求項20に記載のシステム。
【請求項22】
前記ソーシャルロボットは、胴体などの第2部分に対して可動である頭部などの第1部分を備える、請求項20又は請求項21に記載のシステム。
【請求項23】
前記1つ以上の仮想ロボットシステムは、前記アバターをアニメートするように構成され、かつ少なくとも1つのアニメーションは、前記ソーシャルロボットの動きに相当する、請求項20乃至請求項22のいずれか一項に記載のシステム。
【請求項24】
前記1つ以上の仮想ロボットシステムは、前記アバターをアニメートするように構成され、かつ少なくとも1つのアニメーションは、前記ソーシャルロボットの動きに相当しない、請求項20乃至請求項23のいずれか一項に記載のシステム。
【請求項25】
前記ロボット処理システムは、アクティブな仮想ロボットシステムの前記運転を少なくとも部分的に制御するように構成される、請求項20乃至請求項24のいずれか一項に記載のシステム。
【請求項26】
少なくとも1つの仮想ロボットシステムは、少なくとも2つの事前に定義されたアバターの外見で構成され、かつ前記事前に定義されたアバターの外見のうちの1つが、アプリケーションに依存して選択される、請求項20乃至請求項25のいずれか一項に記載のシステム。
【請求項27】
前記事前に定義されたアバターの外見のうちの1つがニュートラルな外見である、請求項26に記載のシステム。
【請求項28】
少なくとも1つの仮想ロボットシステムが、前記アバターが提示される少なくとも2つの事前に定義された仮想環境で構成される、請求項20乃至請求項27のいずれか一項に記載のシステム。
【請求項29】
前記ソーシャルロボット及び/又は仮想ロボットシステムとデータ通信する1つ以上のインタラクション装置をさらに備えるシステムであって、前記インタラクション装置は、前記ユーザが入力及び出力を提供することを可能にする、請求項20乃至請求項28のいずれか一項に記載のシステム。
【請求項30】
少なくとも1つの仮想ロボットシステムが、インタラクション装置に対応する仮想オブジェクトを提示するように構成される、請求項29に記載のシステム。
【請求項31】
前記ソーシャルロボット及び/又は少なくとも1つの仮想ロボットシステムは、1つ以上の補助装置とのデータ通信用に構成される、請求項20乃至請求項30のいずれか一項に記載のシステム。
【請求項32】
前記ソーシャルロボットは、前記制御ユーザからの音声コマンドを受信するように構成され、少なくとも1つの音声コマンドは、特定の仮想ロボットシステムからの情報の要求に対応し、かつ前記ソーシャルロボットは、
前記特定の仮想ロボットシステムに前記コマンドを伝えるようにさらに構成される、請求項31に記載のシステム。
【請求項33】
前記ソーシャルロボットは、前記特定の仮想ロボットシステムから前記コマンドへの応答を受信するようにさらに構成される、請求項32に記載のシステム。
【請求項34】
少なくとも1つの仮想ロボットシステムは、
指示コマンドを受信し、
関連動作を引き受け、かつ
前記ソーシャルロボットへの応答を伝えるようにさらに構成される、請求項32又は請求項33に記載のシステム。
【請求項35】
少なくとも1つの関連動作は、前記関連付けられた仮想ロボットシステムと通信して関連補助装置から結果を得ることを含む、請求項34に記載のシステム。
【請求項36】
前記アバターの外見は、言語コミュニケーション及び/又は視覚動作を行うためのユーザコマンドに応答して制御可能である、請求項20乃至請求項35のいずれか一項に記載のシステム。
【請求項37】
少なくともソーシャルロボット及び1つ以上の仮想ロボットシステムを含むソーシャルシステムで、ユーザによるインタラクションを可能にするヒューマンインタラクション方法であって、
出力手段及び入力手段を含むインタラクションをユーザに提供するように前記ソーシャルロボットを制御することと、
アバターレプレゼンテーションがディスプレイ上に表示される際に、前記アバターレプレゼンテーションがアクティブとなるように、前記ソーシャルロボットのアバターレプレゼンテーションを1つ以上のディスプレイ上に制御可能に提示することと、
どの時点においても、前記ソーシャルロボット又は前記仮想ロボットシステムのうちの1つのいずれか一方がアクティブであるように、前記ソーシャルロボット及び前記1つ以上の仮想ロボットの運転を連携することとを含む方法であり、
よって、運転中に、ユーザは、前記アクティブなソーシャルロボット又は仮想ロボットシステムに関連付けられたものとして、前記ソーシャルロボット及び前記アバターに関連付けられたロボットパーソナリティーを認知する、ヒューマンインタラクション方法。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、概して、ソーシャルロボットの相互関係のある物理的かつ仮想的表現でのユーザによるインタラクションのためのヒューマンインタラクションシステムに関する。
【背景技術】
【0002】
ヒューマンケアのシナリオで使用する外見及び機能における特定の要件を満たすように設計されたソーシャルロボットが知られている。例えば、このようなロボットは、可動部分と、ユーザにとって共感できるインタラクティブな経験を提供する視覚かつ音声出力を生成する能力とを備えてよく、すなわち、このソーシャルロボットは、ユーザとソーシャルロボットとの間のインタラクション及び愛着感を促すことを目的として設計されている。引例[1]~[5]は、この点に関して物理的ソーシャルロボットにおける望ましい特徴を、例えば、引例[3]の「Our social robot characteristics」という見出しの箇所に記載している。これらの引例は、自閉症のケアや、特に認知症の高齢者のケアに関係する高齢者のケアに適した特徴についての論考を含む。このようなソーシャルロボットは、それ自体のパーソナリティーを有すると言えるかもしれず、これは典型的に、名前を含むことまで及び、すなわち、当該ソーシャルロボットはパーソナリティーを具現化する。ソーシャルロボットの設計は、物理的設計特徴及び典型的には可聴かつ/又は視覚的設計特徴の選択を通して上記が意図されている。
【0003】
しかしながら、既存のシステムは物理的ロボットのみに依存している。エンゲージメントを改善し、よってケアにおける効果を改善するために、適切な設計が見出されたが、さらなる開発が必要である。
【0004】
ソーシャルロボットは、介護者の作業負荷の一部を取り除く手助けとなり得る、ケアを必要とする人々のためのある程度のエンゲージメント及びモニタリングを提供し得る。既知のソーシャルロボットは、本出願人のMatldaロボットであり(引例[7])、これはユーザたちに対して人間のようなエンゲージメントとセンサリエンリッチメントを提供する。例えば、Matldaは、ユーザフレンドリーなインタラクション性を提供する一方で、フレンドリーな外見を有するように設計されてきた。
【発明の概要】
【0005】
本発明の一態様に従い、少なくともソーシャルロボット及び1つ以上の仮想ロボットシステムを含むソーシャルシステムと、連携システムとを備える、ユーザによるインタラクション用のヒューマンインタラクションシステムであって、前記ソーシャルロボットは、ロボット処理システムによって制御されるとともに、出力手段及び入力手段を含むインタラクションをユーザに提供するように構成され、前記1つ以上の1つ以上の仮想ロボットシステムは、前記ソーシャルロボットのアバターレプレゼンテーションを制御可能に提示するように構成され、かつさらに入力を受信するように構成され、前記連携システムは、どの時点においても、前記ソーシャルロボット又は前記仮想ロボットシステムのうちの1つのいずれか一方がアクティブであるように、前記ソーシャルロボット及び前記1つ以上の仮想ロボットの運転を連携するように構成され、よって、運転中に、ユーザは、前記アクティブなソーシャルロボット又は仮想ロボットシステムに関連付けられたものとして、前記ソーシャルロボット及び前記アバターに関連付けられたロボットパーソナリティーを認知する、ヒューマンインタラクションシステムが提供される。
【0006】
前記ソーシャルロボットは、入力手段として1つ以上のカメラ及び/又はマイクを備え、かつ/又は前記ソーシャルロボットは、出力手段としてスピーカー及び/又は1つ以上のライトを備えてよい。
【0007】
前記連携システムは、前記ソーシャルロボット及び前記1つ以上の仮想ロボットシステムとデータ通信してよい。
【0008】
前記ソーシャルロボットは、胴体などの第2部分に対して可動である頭部などの第1部分を備えてよい。
【0009】
前記連携システムは、前記ユーザの位置を決定するとともに、前記ユーザの前記位置に対応するソーシャルシステムを決定し、かつアクティブとして構成する前記対応するソーシャルシステムにメッセージを伝えるように構成されてよい。前記連携システムは、それぞれが非アクティブとして構成する前記1つ以上の他のソーシャルシステムにメッセージを伝えるようにさらに構成されてもよい。前記連携システムは、各ソーシャルシステムからプレゼントコミュニケーションを受信するように構成され、前記現在の通信は、前記ソーシャルシステムに関連付けられた物理的位置での前記ユーザの存在を示す前記ソーシャルシステムの入力手段に応じて生成されてもよい。
【0010】
前記1つ以上の仮想ロボットシステムは、前記アバターをアニメートするように構成され、かつ少なくとも1つのアニメーションは、前記ソーシャルロボットの動きに相当してよい。
【0011】
前記1つ以上の仮想ロボットシステムは、前記アバターをアニメートするように構成され、かつ少なくとも1つのアニメーションは、前記ソーシャルロボットの動きに相当しなくてよい。
【0012】
前記ロボット処理システムは、アクティブな仮想ロボットシステムの前記運転を少なくとも部分的に制御するように構成されてよい。前記アクティブな仮想ロボットシステムは、前記ロボット処理システムから受信したコマンドを解釈し、かつ前記仮想ロボットシステムのディスプレイ上で表示するために前記コマンドを適応させるように構成されてよい。
【0013】
少なくとも1つの仮想ロボットシステムは、少なくとも2つの事前に定義されたアバターの外見で構成され、かつ前記事前に定義されたアバターの外見のうちの1つが、アプリケーションに依存して選択されてよい。前記事前に定義されたアバターの外見のうちの1つがニュートラルな外見であってよい。
【0014】
少なくとも1つの仮想ロボットシステムが、前記アバターが提示される少なくとも2つの事前に定義された仮想環境で構成されてよい。
【0015】
前記システムは、前記ソーシャルロボット及び/又は仮想ロボットシステムとデータ通信する1つ以上のインタラクション装置をさらに備えてよく、前記インタラクション装置は、前記ユーザが入力及び出力を提供することを可能にする。少なくとも1つの仮想ロボットシステムが、インタラクション装置に対応する仮想オブジェクトを提示するように構成されてよい。
【0016】
前記ソーシャルロボット及び/又は少なくとも1つの仮想ロボットシステムは、1つ以上の補助装置とのデータ通信用に構成されてよい。
【0017】
前記アバターの外見は、言語コミュニケーション及び/又は視覚動作を行うためのユーザコマンドに応答して制御可能であってよい。
【0018】
本発明の他の態様に従い、少なくともソーシャルロボット及び1つ以上の仮想ロボットシステムを含むソーシャルシステムを備える、ユーザによるインタラクション用のヒューマンインタラクションシステムであって、前記ソーシャルロボットは、ロボット処理システムによって制御されるとともに、出力手段及び入力手段を含むインタラクションを制御ユーザに提供するように構成され、前記1つ以上の1つ以上の仮想ロボットシステムは、前記ソーシャルロボットのアバターレプレゼンテーションを制御可能に提示するように構成され、かつさらに入力を受信するように構成され、前記又は各仮想ロボットシステムは、ユーザに関連付けられ、よって、運転中に、前記又は各ユーザは、前記アクティブなソーシャルロボット又は仮想ロボットシステムに関連付けられたものとして、前記ソーシャルロボット及び前記アバターに関連付けられたロボットパーソナリティーを認知する、ヒューマンインタラクションシステムが提供される。
【0019】
前記ソーシャルロボットは、入力手段として1つ以上のカメラ及び/又はマイクを備え、かつ/又は前記ソーシャルロボットは、出力手段としてスピーカー及び/又は1つ以上のライトを備えてよい。
【0020】
前記ソーシャルロボットは、胴体などの第2部分に対して可動である頭部などの第1部分を備えてよい。
【0021】
前記1つ以上の仮想ロボットシステムは、前記アバターをアニメートするように構成され、かつ少なくとも1つのアニメーションは、前記ソーシャルロボットの動きに相当してよい。
【0022】
前記1つ以上の仮想ロボットシステムは、前記アバターをアニメートするように構成され、かつ少なくとも1つのアニメーションは、前記ソーシャルロボットの動きに相当しなくてよい。
【0023】
前記ロボット処理システムは、アクティブな仮想ロボットシステムの前記運転を少なくとも部分的に制御するように構成されてよい。
【0024】
少なくとも1つの仮想ロボットシステムは、少なくとも2つの事前に定義されたアバターの外見で構成され、かつ前記事前に定義されたアバターの外見のうちの1つが、アプリケーションに依存して選択されてよい。前記事前に定義されたアバターの外見のうちの1つがニュートラルな外見であってよい。
【0025】
少なくとも1つの仮想ロボットシステムが、前記アバターが提示される少なくとも2つの事前に定義された仮想環境で構成されてよい。
【0026】
前記システムは、前記ソーシャルロボット及び/又は仮想ロボットシステムとデータ通信する1つ以上のインタラクション装置をさらに備えてよく、前記インタラクション装置は、前記ユーザが入力及び出力を提供することを可能にする。少なくとも1つの仮想ロボットシステムが、インタラクション装置に対応する仮想オブジェクトを提示するように構成されてよい。
【0027】
前記ソーシャルロボット及び/又は少なくとも1つの仮想ロボットシステムは、1つ以上の補助装置とのデータ通信用に構成されてよい。
【0028】
前記ソーシャルロボットは、前記制御ユーザからの音声コマンドを受信するように構成され、少なくとも1つの音声コマンドは、特定の仮想ロボットシステムからの情報の要求に対応し、かつ前記ソーシャルロボットは、前記特定の仮想ロボットシステムに前記コマンドを伝えるようにさらに構成されてよい。前記ソーシャルロボットは、前記特定の仮想ロボットシステムから前記コマンドへの応答を受信するようにさらに構成されてよい。少なくとも1つの仮想ロボットシステムは、指示コマンドを受信し、関連動作を引き受け、かつ前記ソーシャルロボットへの応答を伝えるようにさらに構成されてよい。少なくとも1つの関連動作は、前記関連付けられた仮想ロボットシステムと通信して関連補助装置から結果を得ることを含んでよい。
【0029】
前記アバターの外見は、言語コミュニケーション及び/又は視覚動作を行うためのユーザコマンドに応答して制御可能であってよい。
【0030】
本発明の他の態様に従い、少なくともソーシャルロボット及び1つ以上の仮想ロボットシステムを含むソーシャルシステムで、ユーザによるインタラクションを可能にするヒューマンインタラクション方法であって、出力手段及び入力手段を含むインタラクションをユーザに提供するように前記ソーシャルロボットを制御することと、アバターレプレゼンテーションがディスプレイ上に表示される際に、前記アバターレプレゼンテーションがアクティブとなるように、前記ソーシャルロボットのアバターレプレゼンテーションを1つ以上のディスプレイ上に制御可能に提示することと、どの時点においても、前記ソーシャルロボット又は前記仮想ロボットシステムのうちの1つのいずれか一方がアクティブであるように、前記ソーシャルロボット及び前記1つ以上の仮想ロボットの運転を連携することとを含む方法であり、よって、運転中に、ユーザは、前記アクティブなソーシャルロボット又は仮想ロボットシステムに関連付けられたものとして、前記ソーシャルロボット及び前記アバターに関連付けられたロボットパーソナリティーを認知する、ヒューマンインタラクション方法が提供される。
【0031】
本開示はまた、仮想ロボットシステムによって作成された仮想アバターと、これらと物理的ロボットとの関係とを含み、よって、共通の関係経験を提供するものとして理解することもできる。例えば、開示された特定の態様により、複数のアバターを一度に提示することを可能にし、その際、これらのアバターは複数の部屋などの異なる場所に配置され、例えば、仮想アバターは病室内に提示されてよく、一方で1つ以上の物理的ロボットは共用エリアに存在し、1つのパーソナリティーが、研修医の部屋と、当該研修医が共用エリアを訪れた時の両方に存在するという経験を提供する。
【0032】
本発明で使用されている「comprise」という語又は「comprises」又は「comprising」などの変異形は、包括的な意味で、すなわち、本発明の多様な実施形態において記載された特徴の存在を特定するためであって、さらなる特徴の存在又は追加を排除するためではなく、用いられる。
【図面の簡単な説明】
【0033】
本発明がより明確に理解されるようにするため、以下の添付図面を参照しながら、例として実施形態について以下に説明する。
【
図1】一実施形態に係るヒューマンインタラクションシステムを示す。
【
図2】一実施形態に係るソーシャルロボットの特徴を示す。
【
図3】一実施形態に係る仮想ロボットシステムの特徴を示す。
【
図4】一実施形態に係る連携システムの特徴を示す。
【
図7】一実施形態に係るソーシャルロボットと、複数の仮想ロボットシステムと、連携システムとの間の関係を示す。
【
図8】ソーシャルロボット及び1つ以上の仮想ロボットシステムを制御する方法を示す。
【
図9】ソーシャルロボット及び1つ以上の仮想ロボットシステムを制御する方法を示す。
【
図12】インタラクション装置をさらに備える一実施形態を示す。
【
図13】インタラクション装置と仮想オブジェクトとの関係を示す。
【
図14】ソーシャルロボットが複数のアクティブな仮想ロボットシステムとインタラクションする一実施形態を示す。
【
図15】ソーシャルロボットと、異なる補助装置とインタラクションする仮想ロボットシステムとを示す。
【発明を実施するための形態】
【0034】
図1を参照すると、一実施形態に従い、ヒューマンインタラクションシステム10は、ソーシャルロボット11と、1つ以上の仮想ロボットシステム12(12a~13dの4個が示されている)と、連携システム13とを備える。連携システム13は、前記ソーシャルロボット11及び前記又は各仮想ロボットシステム12とデータ通信する。データ通信は、有線及び/又は無線通信を含むことができ、例えば、データ通信はネットルータを介して行われ得る。無線規格の例は、WiFi(802.11)(WiFiは登録商標)、Bluetooth(登録商標)、ZigBee等を含む。有線規格の例は、イーサネット(登録商標)及びUSB(登録商標)を含む。
【0035】
図2を参照すると、一実施形態に従って、ソーシャルロボット11は、メモリ122(典型的に揮発性及び不揮発性メモリの両方を含む)とインタフェースされた1つ以上のプロセッサ121(ここでは1つのプロセッサ121が想定されている)と、ネットワークインタフェース123と、制御インタフェース124とを含む、ロボット処理システム20を備える。プロセッサ121は、メモリ122からプログラム指示を読み出し、これにより、例えば、制御インタフェース124に対して発行されたコマンド及びデータを介して、ソーシャルロボット11に本明細書に記載される機能性を実施させるように構成されている。プロセッサ121はまた典型的に、制御インタフェース124からデータを受信するとともに、前記受信したデータに応答し、かつ/又は受信したデータをメモリ122に記憶してよい。
【0036】
図3を参照すると、一実施形態に従って、仮想ロボットシステム12はまた、メモリ222(典型的に揮発性及び不揮発性メモリの両方を含む)とインタフェースされた1つ以上のプロセッサ221(ここでは1つのプロセッサ221が想定されている)と、ネットワークインタフェース223とを含む、仮想ロボット処理システム21を備える。プロセッサ221は、取り付けられているディスプレイ30を制御するように(すなわち、特定の画像等をディスプレイ30上に表示させるために)構成されたディスプレイモジュール225とインタフェースされている。プロセッサ221は、メモリ222からプログラム指示を読み出し、これにより、例えば、ディスプレイモジュール225に対して発行されたコマンド及びデータを介して、仮想ロボットシステム12に本明細書に記載される機能性を実施させるように構成されている。一実施形態において、仮想ロボット処理システム21はまた、インタフェースされたカメラ31及び/又はマイク32を介して、ユーザの入力に対応する信号を受信するように構成された入力モジュール226も備える。
【0037】
図4を参照すると、一実施形態に従って、連携システム13は、メモリ322(典型的に揮発性及び不揮発性メモリの両方を含む)とインタフェースされた1つ以上のプロセッサ321(ここでは1つのプロセッサ321が想定されている)と、ネットワークインタフェース323とを備える。連携システム13は、ソーシャルロボット11と仮想ロボットシステム(単数又は複数)12との間の機能性を連携するように構成される。一実施形態において、連携システム13は、ロボット処理システム20と同じハードウェアの一部として実施され、本実施形態において、連携システム13は、ソーシャルロボット11によって実施されるソフトウェアモジュールと見なすことができる。他の実施形態では、連携システム13は明確に異なるハードウェアで実施され、かつそれぞれのネットワークインタフェース123、323を介してロボット処理システム20とデータ通信する。
【0038】
例えば、ロボット処理システム20は、本出願人の以前のPCT公報WO2008/064431A1に記載されている通り、感情状態の変化を監視する技術を実施するように構成することができる。制御インタフェース124は、ソーシャルロボット11の出力を制御する。これらは特定の実施に応じて変わってよいが、例えば、視覚かつ/又は音声信号の発信を含むことができる。ソーシャルロボット11はまた、1つ以上のカメラ及び/又は1つ以上のマイクからなど、ソーシャルロボット11のセンサから入力データを受信する。ロボット処理システム20の既存の運転の例として、引例[1]、[2]、[3]、[4]、及び[5]も参照する(これらのそれぞれが、参照により本明細書に組み込まれる)。
【0039】
一実施形態に従い、
図15に示されるように、ロボット処理システム20及び/又は仮想ロボット処理システム21は、ローカル補助装置15との通信用に構成することができる。当該通信は有線又は無線でよく、かつ典型的にロボット処理システム20及び/又は仮想ロボット処理システム21とローカル補助装置15との間の標準通信プロトコル(例えば、WiFi、Bluetooth、USB等)を利用することになる。ローカル補助装置15は典型的に、ロボット処理システム20及び/又は仮想ロボット処理システム21のための追加出力及び/又は追加入力を提供するように構成される。
【0040】
ローカル補助装置15の例は、スマートフォン及びタブレット15aなどのポータブルコンピューティングデバイス、アクティビティトラッカー15bなどのウェアラブル技術、及び医療監視装置15cを含む。後者の場合、ロボット処理システム20は、ロボット処理システム20及び/又は仮想ロボット処理システム21と同じ部屋の中の患者に関する医療情報を取得するように構成することができる。概して、当該装置15には、ロボット処理システム20及び/又は仮想ロボット処理システム21との通信を可能にするソフトウェアを備えてよく、あるいは、当該装置15の既存の出力をロボット処理システム20及び/又は仮想ロボット処理システム21に結合することができる。
【0041】
例えば、1つ以上の補助装置15は、心拍数、エモーショナルプロフィール、睡眠の質、血圧、脳活動(EEG)を測定するために設けられてよい。
【0042】
図5を参照すると、一実施形態に従って、連携システム13は、仮想ロボット処理システム21で実施されるべきロボット処理システム20の機能性の特定の態様を可能にするように構成される。ソーシャルロボット11及び前記又は各仮想ロボットシステム12は、連携システム13によって接続されるインタラクションポイント23(図示される通り)と見なされ得る。インタラクションポイント23aはソーシャルロボット11に対応し、インタラクションポイント23b~23dは、1つ以上の仮想ロボットシステム12(12a~13dの4個が図示されている)の個々の事例を表す。インタラクションポイント23は、環境(例えば、家又は老人介護施設)内の物理的位置を表す。各インタラクションポイント23が、明確な物理的位置に配置される(例えば、それぞれが別個の部屋に配置される)ことが好ましいかもしれない。但し、これは実施の詳細かもしれないが、特定の実施では、同じ物理的位置で2つ(又は2つ以上)のインタラクションポイント23を利用することが想定される。
【0043】
図6は、一実施形態に係るソーシャルロボット11の一例を示す。ソーシャルロボット11は頭部40と胴体41とを備え、頭部40は、胴体41に対して、例えば回転により、可動であってよい。ソーシャルロボット11は、少なくとも1つのカメラ42を備え、例えば、頭部40は、2つの目43(片方の目又は両目が埋め込まれたカメラ42を有する)を備えてよく、かつ/又は少なくとも1つのカメラ42が他の場所に配置されてよい。頭部40及び/又は胴体41は、ロボット処理システム20を介して制御可能なライト(例えば、図示されていないが、LEDなど)を備え得る。頭部40及び/又は胴体41は、マイク44及び/又はスピーカー45を備えてよい。概して、ソーシャルロボット11は、引例[1]~[5]に記載され、かつ/又は出願人のMATLDA製品において具現化されている(引例[7])特徴を含み得る。ロボット処理システム20は、物理的ソーシャルロボット11内に配置されたハードウェアにインプラントすることができるが(本明細書において想定されている通りに)、ハードウェアは別に、例えばソーシャルロボット11との有線通信を介して、配置されることが期待される。
【0044】
ソーシャルロボット11は、トロリーもしくは同様の車両によって、又は物理的持ち上げによって移動可能であってよい。しかしながら、両技術は問題を提起している。例えば、トロリーは、垂直方向の移動(例えば、階段の昇り降り)を直ちに容易にはせず、また物理的持ち上げは、ソーシャルロボット11の損傷又は置き間違えをもたらし得ることが分かった。後者の問題は重要となり得る。例えば、ソーシャルロボット11が高い位置(例えば、テーブル)の縁に近過ぎる位置に置かれると、ソーシャルロボット11は落ちてしまうかもしれず、ユーザにとって物理的ダメージ及び精神的苦痛の可能性の両方を与える危険がある。
【0045】
区別が必要とされない限り、便宜上、本明細書におけるソーシャルロボット11への言及は、そのロボット処理システム20への言及を含むものと理解されるべきである。同様に、仮想ロボットシステム12への言及は、その仮想ロボット処理システム21を含むものと理解されるべきである。
【0046】
図7は、連携システム13とインタフェースされたソーシャルロボット11を備える一実施形態を示し、連携システム13自体は1つの仮想ロボットシステム12aとインタフェースされている。この図に示されているように、仮想ロボットシステム12aのディスプレイ30は、ソーシャルロボット11のグラフィック表現(以下、アバター22という)を示し、すなわち、ソーシャルロボット11の物理的外見とアバター22とはある程度の類似性がある。実施形態に応じて、明確になるだろうことだが、アバター22の外見にはバリエーションがあり得る。これは、実施される特定の機能によるかもしれない。しかしながら、アバター22によって具現化されるパーソナリティーがソーシャルロボット11によって具現化されるパーソナリティーと同一であると、ユーザが信じるように促されることが一般的に好ましいかもしれない。このことは、アバター22を設計する際に、設計上の考慮事項として明確になるかもしれない。
【0047】
図8は、特定の仮想ロボットシステム12aが配置された物理的位置にユーザがいるとの判定に応じて、アバター22が表示されるように、仮想ロボットシステム12aが制御される一実施形態を示す。便宜上、家などの建物の部屋である物理的位置について本明細書において言及がなされ、従って、仮想ロボットシステム12aは当該部屋に関連付けられる。
【0048】
ステップS100では、連携システム13は、ユーザが、特定の仮想ロボットシステム12aと関連付けられた部屋にいると判定する。一実施形態において、仮想ロボット処理システム21は、そのセンサから受信した入力に基づきユーザの存在を判定し、かつ当該存在を示すメッセージを連携システム13に伝えるように構成される。他の実施形態では、仮想処理システム21は、前記センサデータを連携システム13に伝えるように構成され、これによりユーザの存在を判定する。一実施形態に従い、仮想ロボットシステム12は、当該技術分野で既知の人間認識アルゴリズムを用いて搭載カメラ31によりユーザの存在を識別する。あるいは又はさらに、ユーザには、仮想ロボットシステム12aとインタフェースされている適切に構成されたスキャナによって読取可能なように構成されたradio frequency identifierが提供されてよい。
【0049】
ステップS101では、連携システム13は、各装置が非アクティブ状態になるところであると各装置に通知するように構成されたソーシャルロボット11及びその他いずれかの仮想ロボットシステム12b~12dに対して、メッセージを伝える。「非アクティブ状態」の意味は、特定の実施形態に応じて、かつ当該装置がソーシャルロボット11又は仮想ロボットシステム12であるかに応じて変わり得る。しかしながら、概して非アクティブ状態において、特定の装置は、ロボットパーソナリティーに対応する機能を引き受けないように構成される。例えば、非アクティブな仮想ロボットシステム12のディスプレイ30 は、アバター22のレプレゼンテーションを表示しないように構成することができる。別の例では、非アクティブな物理的ソーシャルロボット11は、ライトの照明、音響の放出、又は胴体41に対する頭部40などの部品の動きなどの出力機能性を制限する又は完全に停止させるように構成することができる。
【0050】
ステップS102では、連携システム13は、アクティブ状態になるところであるということを示すメッセージを、ユーザの物理的位置と関連付けられた仮想ロボットシステム12aに伝える。「アクティブ状態」の意味は、特定の実施形態に応じて変わり得る。一般的な意味では、アクティブ状態の場合、仮想ロボットシステム12は、アバター22のビジュアルレプレゼンテーションを提示するように構成される。同様に、ソーシャルロボット11はアクティブ状態になることができ、この場合、そのロボットパーソナリティーに関連付けられる機能を引き受けていることになる。
【0051】
図9を参照すると、一実施形態において、ロボット処理システム20は、アクティブな仮想ロボット処理システム21とインタフェースされるように構成されるため、アバター22のビジュアルレプレゼンテーションを提示するために必要な処理の少なくとも一部が、ロボット処理システム20によって提供される。従って、
図9の方法は、ロボット処理システム20がアクティブな仮想ロボット処理システム21とインタフェースすることを可能にするように構成されたロボット処理システム20にメッセージを伝える、連携システム13の追加ステップS103を有する、
図8のステップを含む。例えば、このメッセージは、アクティブな仮想ロボット処理システム21に関連付けられたIDコードを含んでよい。
【0052】
図8及び
図9を参照して説明された実施形態は、ユーザが、異なる物理的位置と物理的位置の間で動くにも拘わらず、ソーシャルロボット11の動きを必要とすることなく、システム10とインタラクションできるようにする必要性に有利に対処し得る。ユーザの観点からすると、ユーザが位置と位置の間を移動する際に、ロボットパーソナリティーが当該物理的位置と物理的位置の間を移動するように見える。ロボットパーソナリティーは、ソーシャルロボット11内でアクティブであるのと(すなわち、ソーシャルロボット11がアクティブ状態であり、かつ1つ以上の仮想ロボットシステム12が非アクティブ状態である)、アバター22として仮想ロボットシステム12内でアクティブであるのと(1つの仮想ロボットシステム12が一度アクティブ状態であり、残り(該当する場合)並びにソーシャルロボット11が非アクティブ状態である)の間で移動するように見えてよく、従って、ユーザの観点からすると、ロボットパーソナリティーは、実際のソーシャルロボット11の動きを必要とすることなく、動くことができる。
【0053】
一実施形態に従い、ロボット処理システム20は、アクティブな仮想ロボット処理システム21の少なくとも部分制御のために構成される。例えば、当該一実施形態では、ロボット処理システム20はサーバとして動作してよく、かつ仮想ロボット処理システム21はクライアントとして動作する。従って、アクティブな仮想ロボット処理システム21は、例えば、そのマイク、カメラ、及び/又はその他の入力手段からロボット処理システム20に、受信された入力を通信するように構成される。当該通信は、連携システム13によって容易にされ得る。
【0054】
ロボット処理システム20は、仮想ロボット処理システム21が引き受けなければソーシャルロボット11が行うであろう該当する機能を仮想ロボット処理システム21に引き受けさせるように構成される。例えば、ロボット処理システム20は、仮想ロボット処理システム21に対して特定のプレゼンテーション機能を実施させるコマンドを、仮想ロボット処理システム21に伝えるように構成することができる。
【0055】
一実施形態に従い、仮想ロボット処理システム21は、関連プレゼンテーション機能を判定し、かつこれに応じて該当するプレゼンテーションを作成するために、受信コマンドを処理する。例えば、このコマンドは、特定の方向(例えば、左又は右)を見ているアバター22に対応してよい。この例では、仮想ロボット処理システム21は、対応する方向を見ているアバター22のバーチャルレプレゼンテーションの外見を作成するために、事前に定義されたプログラミングで構成される。従って、本実施形態に従い、ロボット処理システム20は、仮想ロボット処理システム21の出力を直接制御するようには構成されない。その代わり、どの機能が仮想ロボット処理システム21によって実施されるかに関して制御される。当該機能を実施する実際のタスクは、仮想ロボット処理システム21に任される。本実施例は、仮想ロボット処理システム21とロボット処理システム20との間では比較的低帯域幅の通信が必要とされるという利点を提供し得る。
【0056】
一実施形態に従い、仮想ロボット処理システム21は、受信した機能の実施を完了したと、ロボット処理システム20に伝えるように構成される。従って、ロボット処理システム20は、アバター22の動作に関係する仮想ロボット処理システム21の現在の状態を自身のメモリ122に維持するように構成することができる。例えば、現在の状態は、仮想ロボット処理システム21から受信した通信に基づいて判定することができる。
【0057】
一実施形態に従い、
図10を参照すると、アバター22の複数のバーチャルレプレゼンテーション33をシステム10内で事前定義することができる。ここで説明する実施形態では、事前に定義されたバーチャルレプレゼンテーション33を仮想ロボット処理システム21のメモリ222に記憶することができる。しかしながら、一実施形態では、事前に定義されたバーチャルレプレゼンテーション33を、(例えば)ロボット処理システム20のメモリ122に記憶し、かつ必要に応じて仮想ロボット処理システム(単数又は複数)21に伝えることができる。
【0058】
図10に示される例では、ニュートラルレプレゼンテーション33aがある。特別な状況が該当する場合を除いて、この表現を用いてよく、従って、ニュートラルレプレゼンテーションはデフォルト表現と見なしてよい。追加表現33b~33cが提供され、追加表現33b~33cがニュートラルレプレゼンテーション33aと同じアバターに対応するとユーザが信じるように、これら追加表現33b~33cが、ニュートラルレプレゼンテーション33aとの十分な類似性を有することが好ましいかもしれない。追加表現33b~33cは、システム10によって実施され得る特定の活動に対応する。例えば、基礎となるニュートラルレプレゼンテーション33aは、異なる衣服、異なるサイズ、色などの外見を通して修正することができる。
【0059】
従って、仮想ロボット処理システム21は、最新の機能に基づいて選択されたバーチャルレプレゼンテーション33を表示するように構成可能であり、例えば、どのバーチャルレプレゼンテーション33が表示されるべきかを示すために、ロボット処理システム20から仮想ロボット処理システム21へと指示が伝えられてよい。一実施形態では、仮想ロボット処理システム21が、バーチャルレプレゼンテーション33からバーチャルレプレゼンテーション33へと変更するように指示された場合、変更アニメーションを使用してよい。
【0060】
一実施形態に従い、アバター22は、ソーシャルロボット11に比べてより多い数の動きを表現するように設計されてよい。例えば、ソーシャルロボット11は、その胴体41に対するその頭部40の回転運動に制限されてよい。しかしながら、アバターは、例えば胴体41に対する頭部40の並進運動などの追加の動きのために事前構成されてよい。アバターは、ディスプレイ30に対して、例えば、左から右へ及び/又は上下に動くように構成されてよい。一般的に、多くの異なるアニメーションが可能であると理解されるべきである。アバター22が、前記動作を通してそのビジュアルアイデンティティを維持すること、すなわち、アバター22が常に同じ仮想オブジェクトであるとユーザが認識することが、好ましいかもしれない。アバター22は、ソーシャルロボット11を表しているが、動くための利用可能なより高い自由度を有していると、都合がよい。
【0061】
図11を参照すると、一実施形態に従い、複数の仮想環境34をシステム10内に事前定義することができる。ここで説明する実施形態では、事前に定義された仮想環境34を仮想ロボット処理システム(単数又は複数)21のメモリ222に記憶することができる。しかしながら、一実施形態では、事前に定義された仮想環境34を、(例えば)ロボット処理システム20のメモリ122に記憶し、かつ必要に応じて仮想ロボット処理システム(単数又は複数)21に伝えることができる。
【0062】
図11に示される例では、デフォルト仮想環境34aがある。特別な状況に該当する場合を除いて、このデフォルト仮想環境34aを用いてよい。一実施形態では、デフォルト仮想環境34aは特定の仮想ロボット処理システム21に依存する。例えば、各仮想ロボット処理システム21は、物理的位置に関連付けることができ、そしてデフォルト仮想環境34aは、物理的位置の特徴と一致するように設計される。例えば、ラウンジである物理的位置は、仮想ソファや仮想テレビなどのラウンジの一般的特徴を含むデフォルト仮想環境34aを有してよい。アバター22がユーザと同じ一般環境の中にいるとユーザには見えるかもしれないため、特定の物理的位置に依存するデフォルト仮想環境34aは、アバター22とのより高いエンゲージメントを有利に提供し得るのが、好都合である。もう一つの可能な利点は、ユーザが物理的位置と物理的位置との間で動く場合、特定のインタラクションポイント23が変化するにつれて、アバター22の一般環境も変化するように見えるということである。
【0063】
オフィス環境34bなどの追加仮想環境34を提供してよい。この追加仮想環境34は、システム10によって実施され得る特定の活動に対応する。例えば、これらは、学校、幼稚園、オフィス、家、レセプションなどの概念を表し得る。これらは、ロボット処理システム20がユーザとの特定の活動を引き受けることに決めた場合(従来技術におけるソーシャルロボット11との関係で説明した通りに)に、これがきっかけとなって、アバター22がこれらの場所のうちの1つに移動したと、ユーザが信じることを可能にする。例えば、システム10がユーザに幼稚園の活動を提示する、幼稚園アプリケーションが開始されるものであってよい。この場合、幼稚園仮想環境34を反映するために、アクティブなディスプレイ30上に表示される仮想環境34を変更することができる。
【0064】
従って、仮想ロボット処理システム21は、最新の機能に基づき選択された仮想環境34を表示するように構成可能であり、例えば、どの仮想環境34が表示されるべきかを示すために、ロボット処理システム20から仮想ロボット処理システム21へと指示が伝えられてよい。一実施形態では、仮想ロボット処理システム21が仮想環境34と仮想環境34の間で変化するように指示された場合、変更アニメーションを用いてよい。例えば、幼稚園の仮想環境34は、遊び場、玩具(単数又は複数)、テーブル(単数又は複数)、椅子(単数又は複数)などを含んでよい。そして、アバター22は、この仮想環境34内で、もしかしたらアプリケーションにも従って選択されたバーチャルレプレゼンテーション33で提示されることになる(例えば、アバター22は、例えば園指定のリュックなど幼稚園用の恰好をしてよい)。
【0065】
図10及び
図11によって表される実施形態の例は、以下を含む。
・アバター22に対して、歌を歌い、物語を語り、又はその他の態様でユーザと言語でのコミュニケーションを行う(可聴動作を行う)ように要求する。仮想ロボットシステム12は、歌/物語/言語コミュニケーションに対応する特別に選択された背景を表示することができ、かつアバターの外見を変更してよい。例えば、クリスマスの物語又は歌は、アバター22の祝祭的な外見とクリスマスツリーを含む背景を伴ってよい。
・アバター22に対して、ダンス又はその他の動きを行うように、より一般的には、視覚動作を行うように要求する。仮想ロボットシステム12は、視覚動作(例えばダンス)に対応する特別に選択された背景を表示することができ、かつアバターの外見を変更してよい。例えば、アバター22は、ユーザの好みのチームカラーの服を着て、特定のスポーツに合致した背景にして、スポーツゲームを引き受けてよい。
【0066】
図12を参照すると、一実施形態に従い、システム10は、ロボット処理システム20及び/又は仮想ロボット処理システム21とデータ通信を行う1つ以上のインタラクション装置14を備える。
図13を参照すると、一実施形態に従い、少なくとも1つのインタラクション装置14が仮想オブジェクト34と関連付けられる。仮想ロボット処理システム21又はロボット処理システム20は、インタラクション装置14と特定の仮想オブジェクト34との間のリンクを作成してよい。仮想オブジェクト34は仮想的に当該インタラクション装置14を表すかもしれない。例えば、インタラクション装置14がタブレットである場合、仮想オブジェクト34は、アクティブなディスプレイ30上で表示されたとき、タブレットとして表示されるように構成される。よって、ユーザが物理的インタラクション装置14と画面上の表現との間の関係を容易に理解することが好都合である。このリンクは動的に作成されよく、例えば、インタラクション装置14のシステム10への接続に応えて、又は前記インタラクション装置14を利用し得る特定のアプリケーションの実行に応えて作成されてよい。
【0067】
図13の実施形態に従い、システム10への多数のアクセスポイントの使用が提供され、これは特定の活動を引き受ける場合に有用となり得る。例えば、アバター22は、システム10とインタラクションするためにユーザがインタラクション装置14を利用するように案内してよい。
【0068】
仮想環境33、仮想オブジェクト34、及び/又はアバター22の外見は、アプリケーションのコンテキストに応じて動的に決められてよい。例えば、ユーザが、「マクドナルドは牧場を持っている」という物語を読むようにと依頼した場合、物語の内容を分析してよい。そして、仮想環境34としての仮想の農場場面が、3次元の動物(すなわち、仮想オブジェクト34)、そのアニメーションと共にレンダリングされ、音響効果がストーリーテリングプロセスと共に作成されかつ同期される。
【0069】
一実施形態に従い、
図14を参照すると、ソーシャルロボット11は1つ以上の仮想ロボットシステム12と通信する。本実施形態に従い、複数のソーシャルロボット11及び1つ以上の仮想ロボットシステム12は同時にアクティブ状態となり得る。
図14に示される通り、各仮想ロボットシステム12は、例えば患者又は介護施設の居住者などのユーザと関連付けることができる。典型的に、少なくとも2人のユーザは異なるものであり、各ユーザは異なることが好ましいかもしれない。
【0070】
ソーシャルロボット11は、制御ユーザと関連付けられ、かつ上述のアクティブモードとは異なる制御モードで構成することができるが、制御モードは、アクティブモードのソーシャルロボット11のいくつか又はすべての機能性を含んでよい。ロボット処理システム20は、制御モードにおいて、制御ユーザによって発せられた指示に応えて特定の仮想ロボット処理システム21へのコマンドを指示するように構成される。当該コマンドは、受け取った仮想ロボット処理システム21に行動を起こさせるように構成されており、その結果、応答がロボット処理システム20に伝えられてよい。このようにして、制御ユーザは、制御ユーザから遠隔にあり得る特定の仮想ロボットシステム12にて行動を起こすことが可能となる。
【0071】
ソーシャルロボット11は、1つ以上の音声コマンドで事前構成することができる。ソーシャルロボット11はさらに、関連付けられた音声コマンドを特定するために、感知された有声コマンドを解釈するように構成される。さらに、音声コマンドは、制御ユーザが話した仮想ロボットシステム12の識別子と関連付けることができる。
【0072】
図14は、病院での例をより具体的に示しており、ここでナースステーション90にソーシャルロボット11が設けられ、かつ複数の(図では3つの)病室91のそれぞれには仮想ロボットシステム12a~12cが設けられる。看護師は、ソーシャルロボット91にコマンドを発することによって、言語でソーシャルロボット11とインタラクションする。例えば、「John」が、特定の仮想ロボットシステム12に関連付けられたユーザである場合に、「send me vital signs of John」という有声コマンドを発してよい。そして、ソーシャルロボット11は、バイタルサインに対応する値(単数又は複数)を返すように要求するコマンドを特定の仮想ロボットシステム12に対して発する。この場合、仮想ロボットシステム12は、バイタルサイン情報を測定しかつ提供するように構成された1つ以上の医療装置とインタフェースされる。前記バイタルサイン情報を取得した後、対応する値はソーシャルロボット11に伝えられる。その後、ソーシャルロボット11はこれらの値を、例えばスピーカー出力を用いて報告する。
【0073】
ソーシャルロボット11並びに複数の仮想ロボットシステム12のために提供することの利点は、ソーシャルロボット11が、仮想ロボットシステム12のアバター22の物理的表現を提供するということかもしれない。(この例における)患者は、この場合ではナースステーション90に物理的ソーシャルロボット11があるということを知っているかもしれない。従って、患者は、アバター22をナースステーション90及びナースステーション90を占有している看護師たちに関連付けるかもしれない。従って、認識された関連付けを通して、患者は、アバター22を単なる仮想アニメーションというよりもむしろ「実際の」存在として扱う傾向がより強くなり得ることが有利である。
【0074】
別の実施例では、高齢者ケア居住施設内に1つ以上のソーシャルロボット11及び複数の仮想ロボットシステム12が提供される。ソーシャルロボット(単数又は複数)11を、ラウンジ又は食事エリアなどの共用エリア内に、又は介護者の机に置くことができる。各仮想ロボットシステム12は、異なる居住者の部屋に置くことができる。上記例と同様に、居住者たちは、仮想アバター22を物理的ソーシャルロボット11に関連付けることを学習することができる。仮想ロボットシステム12が、特定の関連付けられた居住者たちのために、例えばモニタリング、治療及び社会的繋がりのサービスなどの、より個人向けの機能を提供している一方で、ソーシャルロボット11は、共用エリアでグループベースの活動(例えばビンゴゲーム)を引き受けるように構成することができる。
【0075】
より一般的には、本明細書で記載されている1つ以上の実施形態の効果は、ユーザが、物理的ソーシャルロボット11と情緒的結び付きを形成するように促され、かつ当該情緒的結び付きを形成する可能性が高いことである。しかしながら、その後この結び付きは仮想アバターに移転され、仮想アバターは、ソーシャルロボット11と同じ「パーソナリティー」を具現化するように構成され、よって、同じ実体に対応するように見える。利点は、本実施形態が、例えば、引例[6]で検討されているように、ユーザたちにとってソーシャルロボット11などの物理的オブジェクトに比べて仮想アバターと結び付きを形成することがより難しい技術において知られている問題に対処するということかもしれない。
【0076】
本明細書の精神及び範囲から逸脱することなく、さらなる修正を行うことができる。
引例リスト
[1]Khosla, Rajiv, Khanh Nguyen, Mei-Tai Chu, and Yu-Ang Tan. “Robot Enabled Service Personalisation Based On Emotion Feedback.” In Proceedings of the 14th International Conference on Advances in Mobile Computing and Multi Media, pp. 115-119. 2016.
[2]Khosla, Rajiv, Khanh Nguyen, and Mei-Tai Chu. “Socially assistive robot enabled personalised care for people with dementia in Australian private homes.” (2016).
[3]Khosla, Rajiv, Mei-Tai Chu, Seyed Mohammad Sadegh Khaksar, Khanh Nguyen, and Toyoaki Nishida. “Engagement and experience of older people with socially assistive robots in home care.” Assistive Technology (2019): 1- 15.
[4]Khosla, Rajiv, Khanh Nguyen, and Mei-Tai Chu. “Service personalisation of assistive robot for autism care.“ In IECON 2015-41st Annual Conference of the IEEE Industrial Electronics Society, pp. 002088-002093. IEEE, 2015.
[5]Khosla, Rajiv, Khanh Nguyen, and Mei-Tai Chu. “Assistive robot enabled service architecture to support home-based dementia care.” In 2014 IEEE 7th International Conference on Service-Oriented Computing and Applications, pp. 73-80. IEEE, 2014.
[6]Pan, Ye, and Anthony Steed. “A comparison of avatar-, video-, and robot- mediated interaction on users’ trust in expertise.” Frontiers in Robotics and AI 3 (2016): 12.
[7]https://www.hc-inv.com/about-matldaにおけるMATLDA(出願人)
【国際調査報告】