IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ GROOVE X株式会社の特許一覧

<>
  • 特開-ロボット 図1
  • 特開-ロボット 図2
  • 特開-ロボット 図3
  • 特開-ロボット 図4
  • 特開-ロボット 図5
  • 特開-ロボット 図6
  • 特開-ロボット 図7
  • 特開-ロボット 図8
  • 特開-ロボット 図9
  • 特開-ロボット 図10
  • 特開-ロボット 図11
  • 特開-ロボット 図12
  • 特開-ロボット 図13
  • 特開-ロボット 図14
  • 特開-ロボット 図15
  • 特開-ロボット 図16
  • 特開-ロボット 図17
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024045247
(43)【公開日】2024-04-02
(54)【発明の名称】ロボット
(51)【国際特許分類】
   A63H 11/00 20060101AFI20240326BHJP
   A63H 3/38 20060101ALI20240326BHJP
【FI】
A63H11/00 Z
A63H3/38 Z
【審査請求】有
【請求項の数】5
【出願形態】OL
(21)【出願番号】P 2024005682
(22)【出願日】2024-01-17
(62)【分割の表示】P 2020529004の分割
【原出願日】2019-07-02
(31)【優先権主張番号】P 2018125815
(32)【優先日】2018-07-02
(33)【優先権主張国・地域又は機関】JP
(71)【出願人】
【識別番号】515337268
【氏名又は名称】GROOVE X株式会社
(72)【発明者】
【氏名】林 要
(72)【発明者】
【氏名】大坪 俊介
(72)【発明者】
【氏名】吉岡 直人
(72)【発明者】
【氏名】深谷 泰士
(72)【発明者】
【氏名】生駒 崇光
(72)【発明者】
【氏名】加藤 大二朗
(72)【発明者】
【氏名】根津 孝太
(57)【要約】      (修正有)
【課題】人間が愛着を抱きやすいロボット、を提供する。
【解決手段】ロボットは、ロボットのモーションを選択する動作制御部と、選択されたモーションを実行する駆動機構と、ロボット本体の変形を検知する操作検知部と、眼画像を生成し、ロボットの顔領域に眼画像を表示させる眼生成部とを備える。
【選択図】図5
【特許請求の範囲】
【請求項1】
ロボット本体の変形を検知する操作検知部と、
眼画像を生成し、ロボットの顔領域に前記眼画像を表示させる眼生成部と、を備え、
前記眼生成部は、前記ロボット本体の変形が検知されたとき、変形態様に応じて前記眼画像を変化させることを特徴とするロボット。
【請求項2】
前記眼生成部は、前記変形態様として、変形方向、変形量および変形速度のうち1以上に基づいて前記眼画像を変化させることを特徴とする請求項1に記載のロボット。
【請求項3】
ロボットのモーションを選択する動作制御部を備え、
前記動作制御部は、前記眼画像の変化が開始された後において、前記ロボット本体の変形態様が所定の条件を満たしたときには、変形態様に応じたモーションを選択することを特徴とする請求項1または2に記載のロボット。
【請求項4】
前記所定の条件が満たされたときに選択されるモーションは、ロボットの頭部を駆動させるモーションであることを特徴とする請求項3に記載のロボット。
【請求項5】
時間経過にともなうロボット本体の変形状態を操作履歴として記録する操作履歴管理部、を備え、
前記眼生成部は、前記操作履歴に応じて前記眼画像を変化させることを特徴とする請求項1~4のいずれかに記載のロボット。
【請求項6】
ロボットのモーションを選択する動作制御部と、
時間経過にともなうロボット本体の変形状態を操作履歴として記録する操作履歴管理部と、を備え、
前記動作制御部は、前記操作履歴に応じてモーションを変化させることを特徴とする請求項1~5のいずれかに記載のロボット。
【請求項7】
前記操作履歴は、変形状態の継続時間を含むことを特徴とする請求項5または6に記載のロボット。
【請求項8】
前記操作検知部は、ロボット本体のうち顔領域に設けられた凸部の変形を検知することを特徴とする請求項1~7のいずれかに記載のロボット。
【請求項9】
前記凸部は、ロボット本体の鼻に相当する部分に設置される突起であり、
前記操作検知部は、前記突起の変形を検知することを特徴とする請求項8に記載のロボット。
【請求項10】
前記ロボットの姿勢を特定する姿勢判断部を備え、
前記姿勢判断部がユーザによるロボットの抱き上げを特定することを条件として、前記眼生成部は前記変形態様に応じて前記眼画像を変化させることを特徴とする請求項1~9のいずれかに記載のロボット。
【請求項11】
ロボットのモーションを選択する動作制御部と、
前記選択されたモーションを実行する駆動機構と、
ロボット本体に設けられるデバイスの動きを検知する操作検知部と、を備え、
前記動作制御部は、前記デバイスの動きが検知されたとき、前記デバイスから所定範囲内を駆動対象とするモーションのうち、前記デバイスの動きに応じたモーションを選択することを特徴とするロボット。
【請求項12】
前記動作制御部は、前記デバイスの動きが検知されたとき前記所定範囲内を駆動対象として前記ロボットの一部を駆動し、前記一部の駆動開始後において前記デバイスの動きが所定の条件を満たしたときには、さらに、前記所定範囲の外も駆動対象とすることを特徴とする請求項11に記載のロボット。
【請求項13】
ロボットの体表面に設置され、ユーザの接触を検出する第1のセンサと、
前記ロボットの顔領域に設けられ、ユーザの接触を前記第1のセンサより高精度に検出する第2のセンサと、
眼画像を生成し、前記顔領域に前記眼画像を表示させる眼生成部と、を備え、
前記眼生成部は、前記第2のセンサにおける検出値の変化量に連動して前記眼画像を変化させることを特徴とするロボット。
【請求項14】
前記第2のセンサは、前記第1のセンサより狭い領域に設けられ、ユーザの接触にともない生じる前記ロボットの体表面の変形量を検出することを特徴とする請求項13に記載のロボット。
【請求項15】
鼻を模した凸部と、
瞳を動かすことで視線を表現する眼生成部と、を備え、
前記眼生成部は、前記凸部の変形状態に連動して、前記瞳を変化させることを特徴とするロボット。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、人間が愛着を抱きやすいロボット、に関する。
【背景技術】
【0002】
人間は、癒やしを求めてペットを飼う。その一方、ペットの世話をする時間を十分に確保できない、ペットを飼える住環境にない、アレルギーがある、死別がつらい、といったさまざまな理由により、ペットをあきらめている人は多い。もし、ペットの役割が務まるロボットがあれば、ペットを飼えない人にもペットが与えてくれるような癒やしを与えられるかもしれない(特許文献1、2参照)。
【先行技術文献】
【特許文献】
【0003】
【特許文献1】特開2000-323219号公報
【特許文献2】国際公開第2017/169826号
【発明の概要】
【発明が解決しようとする課題】
【0004】
近年、ロボット技術は急速に進歩しつつあるが、ペットのような伴侶としての存在感を実現するには至っていない。ロボットに自由意志があるとは思えないからである。人間は、ペットの自由意志があるとしか思えないような行動を観察することにより、ペットに自由意志の存在を感じ、ペットに共感し、ペットに癒される。
【0005】
本発明者らは、触り方に応じてロボットの反応が変われば、人間のロボットに対する愛着をもっと高められるのではないかと考えた。本発明者らは鋭意研究の結果、人間が無意識にいじりたくなる箇所にセンサを設けて人間のいじり方を検出しロボットの挙動に反映させることで、上記課題を解決することに想到した。
【0006】
本発明は上記課題認識に基づいて完成された発明であり、その主たる目的は、人間が愛着を抱きやすいロボット、を提供することにある。
【課題を解決するための手段】
【0007】
本発明のある態様におけるロボットは、ロボットのモーションを選択する動作制御部と、選択されたモーションを実行する駆動機構と、ロボット本体の変形を検知する操作検知部と、眼画像を生成し、ロボットの顔領域に眼画像を表示させる眼生成部とを備える。
眼生成部は、ロボット本体の変形が検知されたとき、変形態様に応じて眼画像を変化させる。
【0008】
本発明の別の態様におけるロボットは、ロボットのモーションを選択する動作制御部と、選択されたモーションを実行する駆動機構と、ロボット本体に設けられるデバイスの動きを検知する操作検知部とを備える。
動作制御部は、デバイスの動きが検知されたとき、デバイスから所定範囲内を駆動対象とするモーションのうち、デバイスの動きに応じたモーションを選択する。
【0009】
本発明の別の態様におけるロボットは、ロボットのモーションを選択する動作制御部と、選択されたモーションを実行する駆動機構と、ロボットの体表面に設置され、ユーザの接触を検出する第1および第2のセンサとを備える。
動作制御部は、第1および第2のセンサの双方または一方においてユーザの接触が検出されたとき、接触態様に応じたモーションを選択する。
第1のセンサの検出精度は、第2のセンサよりも検出精度よりも高精度に設定されており、第1のセンサはロボットの顔領域に設置される。
【発明の効果】
【0010】
本発明によれば、ロボットに対して人間が愛着を抱きやすくなる。
【図面の簡単な説明】
【0011】
図1図1(a)は、ロボットの正面外観図である。図1(b)は、ロボットの側面外観図である。
図2】ロボットの構造を概略的に表す断面図である。
図3】ロボットのハードウェア構成図である。
図4】ロボットシステムの機能ブロック図である。
図5図5(a)は、本実施形態におけるロボットの正面外観図である。図5(b)は、本実施形態におけるロボットの側面外観図である。
図6】本実施形態におけるロボットのハードウェア構成図である。
図7】第1実施形態におけるロボットシステムの機能ブロック図である。
図8】眼画像の外観図である。
図9】眼画像の拡大図である。
図10】眼画像の生成方法を示す模式図である。
図11図11(a)は、アナログスティックを初期位置から上に動かした場合のロボットの眼の外観図である。図11(b)は、アナログスティックを初期位置から右に動かした場合のロボットの眼の外観図である。図11(c)は、アナログスティックを初期位置から下に動かした場合のロボットの眼の外観図である。図11(d)は、アナログスティックを初期位置から左に動かした場合のロボットの眼の外観図である。
図12】第2実施形態におけるロボットシステムの機能ブロック図である。
図13】眼動作とロボットのモーションについて示すフローチャートである。
図14図14(a)は、眼動作テーブルのデータ構造図である。図14(b)は、変形パターン選択テーブルのデータ構造図である。
図15】モーション選択テーブルのデータ構造図である。
図16】定常時のロボットの正面図である。
図17】モーション発動時のロボットの正面図である。
【発明を実施するための形態】
【0012】
以下、本発明の実施形態を、図面を参照して詳細に説明する。なお、以下の説明においては便宜上、図示の状態を基準に各構造の位置関係を表現することがある。また、以下の実施形態およびその変形例について、ほぼ同一の構成要件については同一の符号を付し、その説明を適宜省略する。
【0013】
本実施形態のロボットは、ユーザに鼻を触られるとき眼や体を動かすことで鼻のいじりに反応する。以下、本実施形態におけるロボットの実装について説明する前に、ロボットの基本構成について説明する。
【0014】
[基本構成]
図1(a)は、ロボット100の正面外観図である。図1(b)は、ロボット100の側面外観図である。
本実施形態におけるロボット100は、外部環境および内部状態に基づいて行動を決定する自律行動型のロボットである。外部環境は、カメラやサーモセンサなど各種のセンサにより認識される。内部状態はロボット100の感情を表現するさまざまなパラメータとして定量化される。ロボット100は、オーナー家庭の家屋内を行動範囲とする。以下、ロボット100に関わる人間を「ユーザ」とよぶ。
【0015】
ロボット100のボディ104は、全体的に丸みを帯びた形状を有し、ウレタンやゴム、樹脂、繊維などやわらかく弾力性のある素材により形成された外皮を含む。ロボット100に服を着せてもよい。ロボット100の総重量は5~15キログラム程度、身長は0.5~1.2メートル程度である。適度な重さと丸み、柔らかさ、手触りのよさ、といった諸属性により、ユーザがロボット100を抱きかかえやすく、かつ、抱きかかえたくなるという効果が実現される。
【0016】
ロボット100は、一対の前輪102(左輪102a,右輪102b)と、一つの後輪103を含む。前輪102が駆動輪であり、後輪103が従動輪である。前輪102は、操舵機構を有しないが、回転速度や回転方向を個別に制御可能とされている。後輪103は、キャスターであり、ロボット100を前後左右へ移動させるために回転自在となっている。後輪103はオムニホイールであってもよい。
【0017】
前輪102および後輪103は、駆動機構(回動機構、リンク機構)によりボディ104に完全収納できる。走行時においても各車輪の大部分はボディ104に隠れているが、各車輪がボディ104に完全収納されるとロボット100は移動不可能な状態となる。すなわち、車輪の収納動作にともなってボディ104が降下し、床面Fに着座する。この着座状態においては、ボディ104の底部に形成された平坦状の着座面108(接地底面)が床面Fに当接する。
【0018】
ロボット100は、2つの手106を有する。手106には、モノを把持する機能はない。手106は上げる、振る、振動するなど簡単な動作が可能である。2つの手106も個別制御可能である。
【0019】
目110は、液晶素子または有機EL素子による画像表示が可能である。ロボット100は、音源方向を特定可能なマイクロフォンアレイや超音波センサなどさまざまなセンサを搭載する。また、スピーカーを内蔵し、簡単な音声を発することもできる。
【0020】
ロボット100の頭部にはツノ112が取り付けられる。上述のようにロボット100は軽量であるため、ユーザはツノ112をつかむことでロボット100を持ち上げることも可能である。ツノ112には全天球カメラが取り付けられ、ロボット100の上部全域を一度に撮像可能である。
【0021】
図2は、ロボット100の構造を概略的に表す断面図である。
図2に示すように、ロボット100のボディ104は、ベースフレーム308、本体フレーム310、一対の樹脂製のホイールカバー312および外皮314を含む。ベースフレーム308は、金属からなり、ボディ104の軸芯を構成するとともに内部機構を支持する。ベースフレーム308は、アッパープレート332とロアプレート334とを複数のサイドプレート336により上下に連結して構成される。複数のサイドプレート336間には通気が可能となるよう、十分な間隔が設けられる。ベースフレーム308の内方には、バッテリー118、制御回路342および各種アクチュエータが収容されている。
【0022】
本体フレーム310は、樹脂材からなり、頭部フレーム316および胴部フレーム318を含む。頭部フレーム316は、中空半球状をなし、ロボット100の頭部骨格を形成する。胴部フレーム318は、段付筒形状をなし、ロボット100の胴部骨格を形成する。胴部フレーム318は、ベースフレーム308と一体に固定される。頭部フレーム316は、胴部フレーム318の上端部に相対変位可能に組み付けられる。
【0023】
頭部フレーム316には、ヨー軸320、ピッチ軸322およびロール軸324の3軸と、各軸を回転駆動するためのアクチュエータ326が設けられる。アクチュエータ326は、各軸を個別に駆動するための複数のサーボモータを含む。首振り動作のためにヨー軸320が駆動され、頷き動作のためにピッチ軸322が駆動され、首を傾げる動作のためにロール軸324が駆動される。
【0024】
頭部フレーム316の上部には、ヨー軸320を支持するプレート325が固定されている。プレート325には、上下間の通気を確保するための複数の通気孔327が形成される。
【0025】
頭部フレーム316およびその内部機構を下方から支持するように、金属製のベースプレート328が設けられる。ベースプレート328は、クロスリンク機構329(パンタグラフ機構)を介してプレート325と連結される一方、ジョイント330を介してアッパープレート332(ベースフレーム308)と連結される。
【0026】
胴部フレーム318は、ベースフレーム308と車輪駆動機構370を収容する。車輪駆動機構370は、回動軸378およびアクチュエータ379を含む。胴部フレーム318の下半部は、ホイールカバー312との間に前輪102の収納スペースSを形成するために小幅とされる。
【0027】
外皮314は、ウレタンゴムからなり、本体フレーム310およびホイールカバー312を外側から覆う。手106は、外皮314と一体成形される。外皮314の上端部には、外気を導入するための開口部390が設けられる。
【0028】
図3は、ロボット100のハードウェア構成図である。
ロボット100は、内部センサ128、通信機126、記憶装置124、プロセッサ122、駆動機構120およびバッテリー118を含む。プロセッサ122と記憶装置124は、制御回路342に含まれる。各ユニットは電源線130および信号線132により互いに接続される。バッテリー118は、電源線130を介して各ユニットに電力を供給する。各ユニットは信号線132により制御信号を送受する。バッテリー118は、リチ
ウムイオン二次電池であり、ロボット100の動力源である。
【0029】
内部センサ128は、ロボット100が内蔵する各種センサの集合体である。具体的には、カメラ(全天球カメラ)、マイクロフォンアレイ、測距センサ(赤外線センサ)、サーモセンサ、タッチセンサ、加速度センサ、ニオイセンサなどである。タッチセンサは、外皮314と本体フレーム310の間に設置され、ユーザのタッチを検出する。ニオイセンサは、匂いの元となる分子の吸着によって電気抵抗が変化する原理を応用した既知のセンサである。
【0030】
通信機126は、各種の外部機器を対象として無線通信を行う通信モジュールである。記憶装置124は、不揮発性メモリおよび揮発性メモリにより構成され、コンピュータプログラムや各種設定情報を記憶する。プロセッサ122は、コンピュータプログラムの実行手段である。駆動機構120は、複数のアクチュエータおよび上述した車輪駆動機構370を含む。このほかには、表示器やスピーカーなども搭載される。
【0031】
駆動機構120は、主として、車輪(前輪102)と頭部(頭部フレーム316)を制御する。駆動機構120は、ロボット100の移動方向や移動速度を変化させるほか、車輪(前輪102および後輪103)を昇降させることもできる。車輪が上昇すると、車輪はボディ104に完全に収納され、ロボット100は着座面108にて床面Fに当接し、着座状態となる。また、駆動機構120は、ワイヤ134を介して、手106を制御する。
【0032】
図4は、ロボットシステム300の機能ブロック図である。
ロボットシステム300は、ロボット100、サーバ200および複数の外部センサ114を含む。ロボット100およびサーバ200の各構成要素は、CPU(Central Processing Unit)および各種コプロセッサなどの演算器、メモリやストレージといった記憶装置、それらを連結する有線または無線の通信線を含むハードウェアと、記憶装置に格納され、演算器に処理命令を供給するソフトウェアによって実現される。コンピュータプログラムは、デバイスドライバ、オペレーティングシステム、それらの上位層に位置する各種アプリケーションプログラム、また、これらのプログラムに共通機能を提供するライブラリによって構成されてもよい。以下に説明する各ブロックは、ハードウェア単位の構成ではなく、機能単位のブロックを示している。
ロボット100の機能の一部はサーバ200により実現されてもよいし、サーバ200の機能の一部または全部はロボット100により実現されてもよい。
【0033】
家屋内にはあらかじめ複数の外部センサ114が設置される。サーバ200には、外部センサ114の位置座標が登録される。ロボット100の内部センサ128および複数の外部センサ114から得られる情報に基づいて、サーバ200がロボット100の基本行動を決定する。外部センサ114はロボット100の感覚器を補強するためのものであり、サーバ200はロボット100の頭脳を補強するためのものである。ロボット100の通信機126が外部センサ114と定期的に通信し、サーバ200は外部センサ114によりロボット100の位置を特定する(特許文献2も参照)。
【0034】
(サーバ200)
サーバ200は、通信部204、データ処理部202およびデータ格納部206を含む。
通信部204は、外部センサ114およびロボット100との通信処理を担当する。データ格納部206は各種データを格納する。データ処理部202は、通信部204により取得されたデータおよびデータ格納部206に格納されるデータに基づいて各種処理を実行する。データ処理部202は、通信部204およびデータ格納部206のインタフェー
スとしても機能する。
【0035】
データ格納部206は、モーション格納部232と個人データ格納部218を含む。
ロボット100は、複数の変形パターン(モーション)を有する。手106を震わせる、蛇行しながらオーナーに近づく、首をかしげたままオーナーを見つめる、などさまざまなモーションが定義される。
【0036】
モーション格納部232は、モーションの制御内容を定義する「モーションファイル」を格納する。各モーションは、モーションIDにより識別される。モーションファイルは、ロボット100のモーション格納部160にもダウンロードされる。どのモーションを実行するかは、サーバ200で決定されることもあるし、ロボット100で決定されることもある。
【0037】
ロボット100のモーションの多くは、複数の単位モーションを含む複合モーションとして構成される。たとえば、ロボット100がオーナーに近づくとき、オーナーの方に向き直る単位モーション、手を上げながら近づく単位モーション、体を揺すりながら近づく単位モーション、両手を上げながら着座する単位モーションの組み合わせとして表現されてもよい。このような4つのモーションの組み合わせにより、「オーナーに近づいて、途中で手を上げて、最後は体をゆすった上で着座する」というモーションが実現される。モーションファイルには、ロボット100に設けられたアクチュエータの回転角度や角速度などが時間軸に関連づけて定義される。モーションファイル(アクチュエータ制御情報)にしたがって、時間経過とともに各アクチュエータを制御することで様々なモーションが表現される。
【0038】
先の単位モーションから次の単位モーションに変化するときの移行時間を「インターバル」とよぶ。インターバルは、単位モーション変更に要する時間やモーションの内容に応じて定義されればよい。インターバルの長さは調整可能である。
以下、いつ、どのモーションを選ぶか、モーションを実現する上での各アクチュエータの出力調整など、ロボット100の行動制御に関わる設定のことを「行動特性」と総称する。ロボット100の行動特性は、モーション選択アルゴリズム、モーションの選択確率、モーションファイル等により定義される。
【0039】
モーション格納部232は、モーションファイルのほか、各種のイベントが発生したときに実行すべきモーションを定義するモーション選択テーブルを格納する。モーション選択テーブルにおいては、イベントに対して1以上のモーションとその選択確率が対応づけられる。
【0040】
個人データ格納部218は、ユーザの情報を格納する。具体的には、ユーザに対する親密度とユーザの身体的特徴・行動的特徴を示すマスタ情報を格納する。年齢や性別などの他の属性情報を格納してもよい。
【0041】
ロボット100は、ユーザごとに親密度という内部パラメータを有する。ロボット100が、自分を抱き上げる、声をかけてくれるなど、自分に対して好意を示す行動を認識したとき、そのユーザに対する親密度が高くなる。ロボット100に関わらないユーザや、乱暴を働くユーザ、出会う頻度が低いユーザに対する親密度は低くなる。
【0042】
データ処理部202は、位置管理部208、認識部212、動作制御部222、親密度管理部220および状態管理部244を含む。
位置管理部208は、ロボット100の位置座標を特定する。状態管理部244は、充電率や内部温度、プロセッサ122の処理負荷などの各種物理状態など各種内部パラメー
タを管理する。また、状態管理部244は、ロボット100の感情(寂しさ、好奇心、承認欲求など)を示すさまざまな感情パラメータを管理する。これらの感情パラメータは常に揺らいでいる。感情パラメータに応じてロボット100の移動目標地点が変化する。たとえば、寂しさが高まっているときには、ロボット100はユーザのいるところを移動目標地点として設定する。
【0043】
時間経過によって感情パラメータが変化する。また、後述の応対行為によっても各種感情パラメータは変化する。たとえば、オーナーから「抱っこ」をされると寂しさを示す感情パラメータは低下し、長時間にわたってオーナーを視認しないときには寂しさを示す感情パラメータは少しずつ増加する。
【0044】
認識部212は、外部環境を認識する。外部環境の認識には、温度や湿度に基づく天候や季節の認識、光量や温度に基づく物陰(安全地帯)の認識など多様な認識が含まれる。ロボット100の認識部156は、内部センサ128により各種の環境情報を取得し、これを一次処理した上でサーバ200の認識部212に転送する。
【0045】
具体的には、ロボット100の認識部156は、画像から移動物体、特に、人物や動物に対応する画像領域を抽出し、抽出した画像領域から移動物体の身体的特徴や行動的特徴を示す特徴量の集合として「特徴ベクトル」を抽出する。特徴ベクトル成分(特徴量)は、各種身体的・行動的特徴を定量化した数値である。たとえば、人間の目の横幅は0~1の範囲で数値化され、1つの特徴ベクトル成分を形成する。人物の撮像画像から特徴ベクトルを抽出する手法については、既知の顔認識技術の応用である。ロボット100は、特徴ベクトルをサーバ200に送信する。
【0046】
サーバ200の認識部212は、ロボット100の内蔵カメラによる撮像画像から抽出された特徴ベクトルと、個人データ格納部218にあらかじめ登録されているユーザ(クラスタ)の特徴ベクトルと比較することにより、撮像されたユーザがどの人物に該当するかを判定する(ユーザ識別処理)。また、認識部212は、ユーザの表情を画像認識することにより、ユーザの感情を推定する。認識部212は、人物以外の移動物体、たとえば、ペットである猫や犬についてもユーザ識別処理を行う。
【0047】
認識部212は、ロボット100になされたさまざまな応対行為を認識し、快・不快行為に分類する。認識部212は、また、ロボット100の行動に対するオーナーの応対行為を認識することにより、肯定・否定反応に分類する。
快・不快行為は、ユーザの応対行為が、生物として心地よいものであるか不快なものであるかにより判別される。たとえば、抱っこされることはロボット100にとって快行為であり、蹴られることはロボット100にとって不快行為である。肯定・否定反応は、ユーザの応対行為が、ユーザの快感情を示すものか不快感情を示すものであるかにより判別される。抱っこされることはユーザの快感情を示す肯定反応であり、蹴られることはユーザの不快感情を示す否定反応である。
【0048】
サーバ200の動作制御部222は、ロボット100の動作制御部150と協働して、ロボット100のモーションを決定する。サーバ200の動作制御部222は、ロボット100の移動目標地点とそのための移動ルートを作成する。動作制御部222は、複数の移動ルートを作成し、その上で、いずれかの移動ルートを選択してもよい。
【0049】
動作制御部222は、モーション格納部232の複数のモーションからロボット100のモーションを選択する。各モーションには状況ごとに選択確率が対応づけられている。たとえば、オーナーから快行為がなされたときには、モーションAを20%の確率で実行する、気温が30度以上となったとき、モーションBを5%の確率で実行する、といった
選択方法が定義される。
【0050】
親密度管理部220は、ユーザごとの親密度を管理する。上述したように、親密度は個人データ格納部218において個人データの一部として登録される。快行為を検出したとき、親密度管理部220はそのオーナーに対する親密度をアップさせる。不快行為を検出したときには親密度はダウンする。また、長期間視認していないオーナーの親密度は徐々に低下する。
【0051】
(ロボット100)
ロボット100は、通信部142、データ処理部136、データ格納部148、内部センサ128および駆動機構120を含む。
通信部142は、通信機126(図4参照)に該当し、外部センサ114、サーバ200および他のロボット100との通信処理を担当する。データ格納部148は各種データを格納する。データ格納部148は、記憶装置124(図4参照)に該当する。データ処理部136は、通信部142により取得されたデータおよびデータ格納部148に格納されているデータに基づいて各種処理を実行する。データ処理部136は、プロセッサ122およびプロセッサ122により実行されるコンピュータプログラムに該当する。データ処理部136は、通信部142、内部センサ128、駆動機構120およびデータ格納部148のインタフェースとしても機能する。
【0052】
データ格納部148は、ロボット100の各種モーションを定義するモーション格納部160を含む。
ロボット100のモーション格納部160には、サーバ200のモーション格納部232から各種モーションファイルがダウンロードされる。モーションは、モーションIDによって識別される。前輪102を収容して着座する、手106を持ち上げる、2つの前輪102を逆回転させることで、あるいは、片方の前輪102だけを回転させることでロボット100を回転行動させる、前輪102を収納した状態で前輪102を回転させることで震える、ユーザから離れるときにいったん停止して振り返る、などのさまざまなモーションを表現するために、各種アクチュエータ(駆動機構120)の動作タイミング、動作時間、動作方向などがモーションファイルにおいて時系列定義される。
データ格納部148には、個人データ格納部218からも各種データがダウンロードされてもよい。
【0053】
データ処理部136は、認識部156および動作制御部150を含む。
ロボット100の動作制御部150は、サーバ200の動作制御部222と協働してロボット100のモーションを決める。一部のモーションについてはサーバ200で決定し、他のモーションについてはロボット100で決定してもよい。また、ロボット100がモーションを決定するが、ロボット100の処理負荷が高いときにはサーバ200がモーションを決定するとしてもよい。サーバ200においてベースとなるモーションを決定し、ロボット100において追加のモーションを決定してもよい。モーションの決定処理をサーバ200およびロボット100においてどのように分担するかはロボットシステム300の仕様に応じて設計すればよい。
【0054】
ロボット100の動作制御部150は選択したモーションを駆動機構120に実行指示する。駆動機構120は、モーションファイルにしたがって、各アクチュエータを制御する。
【0055】
動作制御部150は、親密度の高いユーザが近くにいるときには「抱っこ」をせがむ仕草として両方の手106をもちあげるモーションを実行することもできるし、「抱っこ」に飽きたときには左右の前輪102を収容したまま逆回転と停止を交互に繰り返すことで
抱っこをいやがるモーションを表現することもできる。駆動機構120は、動作制御部150の指示にしたがって前輪102や手106、首(頭部フレーム316)を駆動することで、ロボット100にさまざまなモーションを表現させる。
【0056】
ロボット100の認識部156は、内部センサ128から得られた外部情報を解釈する。認識部156は、視覚的な認識(視覚部)、匂いの認識(嗅覚部)、音の認識(聴覚部)、触覚的な認識(触覚部)が可能である。
【0057】
認識部156は、移動物体の撮像画像から特徴ベクトルを抽出する。上述したように、特徴ベクトルは、移動物体の身体的特徴と行動的特徴を示すパラメータ(特徴量)の集合である。移動物体を検出したときには、ニオイセンサや内蔵の集音マイク、温度センサ等からも身体的特徴や行動的特徴が抽出される。これらの特徴も定量化され、特徴ベクトル成分となる。認識部156は、特許文献2等に記載の既知の技術に基づいて、特徴ベクトルからユーザを特定する。
【0058】
検出・分析・判定を含む一連の認識処理のうち、ロボット100の認識部156は認識に必要な情報の取捨選択や抽出を行い、判定等の解釈処理はサーバ200の認識部212により実行される。認識処理は、サーバ200の認識部212だけで行ってもよいし、ロボット100の認識部156だけで行ってもよいし、上述のように双方が役割分担をしながら上記認識処理を実行してもよい。
【0059】
ロボット100に対する強い衝撃が与えられたとき、認識部156はタッチセンサおよび加速度センサによりこれを認識し、サーバ200の認識部212は、近隣にいるユーザによって「乱暴行為」が働かれたと認識する。ユーザがツノ112を掴んでロボット100を持ち上げるときにも、乱暴行為と認識してもよい。ロボット100に正対した状態にあるユーザが特定音量領域および特定周波数帯域にて発声したとき、サーバ200の認識部212は、自らに対する「声掛け行為」がなされたと認識してもよい。また、体温程度の温度を検知したときにはユーザによる「接触行為」がなされたと認識し、接触認識した状態で上方への加速度を検知したときには「抱っこ」がなされたと認識する。ユーザがボディ104を持ち上げるときの物理的接触をセンシングしてもよいし、前輪102にかかる荷重が低下することにより抱っこを認識してもよい。
まとめると、ロボット100は内部センサ128によりユーザの行為を物理的情報として取得し、サーバ200の認識部212は快・不快を判定する。また、サーバ200の認識部212は特徴ベクトルに基づくユーザ識別処理を実行する。
【0060】
サーバ200の認識部212は、ロボット100に対するユーザの各種応対を認識する。各種応対行為のうち一部の典型的な応対行為には、快または不快、肯定または否定が対応づけられる。一般的には快行為となる応対行為のほとんどは肯定反応であり、不快行為となる応対行為のほとんどは否定反応となる。快・不快行為は親密度に関連し、肯定・否定反応はロボット100の行動選択に影響する。
【0061】
認識部156により認識された応対行為に応じて、サーバ200の親密度管理部220はユーザに対する親密度を変化させる。原則的には、快行為を行ったユーザに対する親密度は高まり、不快行為を行ったユーザに対する親密度は低下する。
【0062】
以上の基本構成を前提として、次に、本実施形態におけるロボット100の実装について、特に、本実装の特徴と目的および基本構成との相違点を中心として説明する。なお、説明は第1実施形態と第2実施形態に分けて行う。第1実施形態と第2実施形態をまとめて説明する場合や、特に区別しない場合には「本実施形態」とよぶ。
【0063】
[第1実施形態]
図5(a)は、第1実施形態におけるロボット100の正面外観図である。図5(b)は、第1実施形態におけるロボット100の側面外観図である。
第1実施形態におけるロボット100には、顔領域107が設けられる。顔領域107内には目110のほかに鼻109が備えられる。鼻109は、顔領域107の中心近傍であって、目110よりも低い位置に備えられる。鼻109は、左右の目に挟まれるように設けられ、右目から鼻109までの距離と左目から鼻109までの距離は等しい。また、鼻109は目110や顔領域107よりも小さい。鼻109にはユーザによって変形される物理的なデバイス(以下、「凸部」または「突起」とよぶことがある。)が備えられる。
【0064】
本実施形態においては、鼻109にはアナログスティックが設置される。ユーザは、アナログスティック(鼻109)を上下左右の全方向へ傾斜させることができ、かつ、押し込むこともできる。本実施形態においては、アナログスティックのような物理的デバイスの傾斜および押し込みが「ロボット本体の変形」に該当する。アナログスティックにはタッチを検出するためのセンサ(以下、「鼻センサ」とよぶ)が含まれる。アナログスティックそのものおよびアナログスティックの変形の検知方法については、例えば特開平9-134251号公報等に記載の技術が知られている。
【0065】
図6は、第1実施形態におけるロボット100のハードウェア構成図である。
第1実施形態におけるロボット100は、図3に示した基本構成に加えて、モニター170およびアナログスティック180を含む。モニター170は、ロボット100の目110に設置され、眼画像を表示させる(詳細後述)。
【0066】
図7は、第1実施形態におけるロボットシステム300の機能ブロック図である。
上述のとおり、ロボット100はモニター170およびアナログスティック180を含む。第1実施形態におけるロボット100のデータ処理部136は、更に、操作検知部182、操作履歴管理部184、眼生成部172を含む。操作検知部182は、アナログスティック180の動き、すなわち、傾斜方向、傾斜角(初期位置からの角度)、押し込み量を逐次検知する。第1実施形態における傾斜方向を「変形方向」とよび、傾斜角と押し込み量をまとめて「変形量」とよぶことがある。
【0067】
操作履歴管理部184は、操作検知部182の検知結果を時系列に沿って操作履歴として記憶する。操作履歴はアナログスティック180の変形状態(アナログスティック180が初期位置から動かされている状態)の継続時間(変形継続時間)も含む。操作履歴管理部184はまた、単位時間あたりの変形量として変形速度を算出する。変形方向、変形量、変形速度等、本実施形態における「ロボット本体の変形」の度合いを「変形態様」と総称する。眼生成部172は、目110(モニター170)に表示すべき眼画像を生成する。
【0068】
眼生成部172は、アナログスティック180の変形態様に応じて、モニター170に信号を出力することにより、モニター170に表示させる眼画像を変化させる。動作制御部150は、また、アナログスティック180の変形態様に応じて、モーションを選択する。以下、眼生成部172が眼画像を変化させることを、「ロボット100が眼を動かす」または「ロボット100の眼が変化する」ということがある。また、動作制御部150がモーションを選択し、駆動機構120が選択されたモーションを実行することを、「ロボット100が動く」ということがある。また、「ロボット100が動く」場合において、特定の部位Xを動かすモーションである場合には、「ロボット100がXを動かす」ということがある。例えば、動作制御部150がロボット100の手を動かすモーションを選択し、駆動機構120がそのモーションを実行する場合、「ロボット100が手を動か
す」と表現することがある。ユーザが鼻109(アナログスティック180)をいじるとロボット100は眼を動かし、ユーザが鼻109をいじりつづけるとロボット100は眼だけではなく首や手などの体も動かしはじめる。本実施形態における「モーション」はロボット100が体を物理的に動かすことを意味し、眼画像の変化は「モーション」には含まれないものとする。以下、アナログスティック180を動かす際のモニター170の画像およびモーションの変化について詳細に説明する。
【0069】
図8は、眼画像171の外観図である。
眼生成部172は、瞳画像175と周縁画像176を含む眼画像171を生成する。眼生成部172は、眼画像171を動画表示させる。具体的には、瞳画像175を動かすことでロボット100の視線の変化を表現する。
【0070】
瞳画像175は、瞳孔領域177と角膜領域178を含む。また、瞳画像175には、外光の映り込みを表現するためのキャッチライト179も表示される。眼画像171のキャッチライト179は、外光の反射によって輝いているのではなく、眼生成部172により高輝度領域として表現される画像領域である。
【0071】
眼生成部172は、瞳画像175を上下左右に移動させる。ロボット100の認識部156がユーザを認識したときには、眼生成部172は瞳画像175をユーザの存在する方向に向ける。眼生成部172は、眼画像171のうち瞳画像175を変化させることにより、ロボット100の仮想的な視線(以下、「仮想視線」ということがある。)の変化を表現する。眼画像171の制御の詳細は図10に関連して後述する。
【0072】
眼生成部172は、瞳画像175の形状を変化させてもよい。たとえば、瞳画像175がモニター170の中心にあるときには真円形状とし、周縁部分にあるときには楕円形状に変化させる。瞳画像175の形状をモニター170内の位置に応じて変化させることにより平面のモニター170を実際の眼球のような曲面形状であるかのように見せることができる。
【0073】
眼生成部172は、外部光源の存在方向に対応してキャッチライト179の位置を変化させる。図8は、ロボット100から見て左上方に外部光源が存在する場合のキャッチライト179の表示位置を示している。キャッチライト179の位置を外部光源に連動させることにより、いっそうリアルな眼画像171を表現できる。眼生成部172は、外部光源の方向を撮像画像から画像認識により判定してもよいし、光センサ(図示せず)の検出データから判定してもよい。
【0074】
図9は、眼画像171の拡大図である。
眼画像171においては、瞳画像175と周縁画像176に瞼(まぶた)を示す瞼画像190が重畳される。瞼画像190は、まつ毛192を含む。周縁画像176は、人間の結膜にあたる部分である。
【0075】
眼生成部172は、眼画像171のうち、瞼画像190、瞳孔領域177、角膜領域178およびキャッチライト179を変化させる。光量が大きいほど、眼生成部172は瞳孔領域177の直径を断続的または連続的に拡大させる。眼生成部172は、瞳孔領域177だけではなく、瞳画像175の全体を断続的または連続的に拡縮させてもよい。眼生成部172は、光量が特に大きいとき(例えば、所定の閾値よりも大きいとき)には瞼画像190を下げることで「眩しそうな様子」を表現してもよい。
【0076】
図10は、眼画像171の生成方法を示す模式図である。
眼球モデル250は、ロボット100の眼球を模した三次元コンピュータグラフィック
スである。眼生成部172は、まず、三次元の球体をポリゴンにて形成し、これにテクスチャ(以下、「眼球テクスチャ」とよぶ)を貼ることにより眼球モデル250を形成する。眼球テクスチャは、瞳画像175を含む画像である。眼球テクスチャは、データ格納部148に含まれる眼画像格納部(図示なし)に格納される。
【0077】
眼球モデル250の前方に、第1面252および第2面254が設定される。第1面252および第2面254は、目110のモニター170の表示面に対応する仮想的な平面である。眼生成部172は、眼球モデル250を第1面252に投影させることにより、三次元の眼球モデル250から2次元の眼球投影画像256を生成する。
【0078】
眼生成部172は、第2面254に瞼画像190を表示させる。第1面252の眼球投影画像256と第2面254の瞼画像190を重ね合わせることにより、図8等に示した眼画像171が生成される。眼生成部172は、右目用と左目用に2つの眼球モデル250を生成し、それぞれについて眼画像171を生成する。以下、第1面252および第2面254をまとめていうときには「眼球面258」とよぶ。
【0079】
眼生成部172は、眼球モデル250を回転させることにより、眼球投影画像256を変化させる。3次元の眼球モデル250を生成してこれを回転させながら第1面252に投影する方式であるため、第1面252に眼画像171を直接描画するよりもロボット100の視線の動きを滑らかに表現できる。二次元の眼画像171であっても、三次元の眼球モデル250を元にして生成・制御されるため、本方式は、生物の眼球に特有の複雑な動きを表現しやすい。
【0080】
眼生成部172は、第1面252とは異なる第2面254に瞼画像190を表示させることにより、瞼画像190を眼球投影画像256に重畳させる。人間は、目の前で手を叩かれたとき、反射的に目をつぶる。このような眼の条件反射をロボット100に実装する上では、瞼画像190を高速で変化させる必要がある。本実施形態においては、第1面252の画像処理と第2面254の画像処理が独立している。眼生成部172は、目をつぶる表現をするときには、第2面254だけを対象として画像制御すればよい。瞬きのときにも、眼生成部172は第2面254を対象として画像処理を実行すればよい。眼球モデル250(眼球投影画像256)と瞼画像190を別々に制御できるため、瞼画像190を高速に制御できる。このような構成により、眼生成部172は眼画像171を動的に生成できる。
【0081】
ロボット100は、アナログスティック180の動きと連動して眼を動かす。ロボット100の眼の外観図を図11(a)、図11(b)、図11(c)、図11(d)に示す。
【0082】
図11(a)はアナログスティック180を初期位置188から上に動かした場合のロボット100の眼の外観図である。
図11(b)はアナログスティック180を初期位置188から右に動かした場合のロボット100の眼の外観図である。
図11(c)はアナログスティック180を初期位置188から下に動かした場合のロボット100の眼の外観図である。
図11(d)はアナログスティック180を初期位置188から左に動かした場合のロボット100の眼の外観図である。
【0083】
ユーザがアナログスティック180を動かすとき、操作検知部182はアナログスティック180の変形量および変形方向(傾斜角と傾斜方向)を検知する。眼生成部172は検知結果に基づいて眼球モデル250の回転方向と回転量を計算し、眼球モデル250を
回転させる。具体的には、アナログスティック180の傾斜方向と同方向を回転方向として設定し、傾斜角に比例する回転量にて眼球モデル250を回転させる。眼生成部172は眼球モデル250を第1面252に投影する。このような制御により、ロボット100の眼画像171は、アナログスティック180の傾斜方向に視線を向けるような動きをする。ユーザはアナログスティック180を動かすことで、ロボット100の視線を変化させることができる。
【0084】
図11(a)に示すように、アナログスティック180を上方向に傾けると、ロボット100も視線を上に向ける。図11(b)に示すように、アナログスティック180を右に傾けるとロボット100の視線は右を向く。アナログスティック180を下に傾けるとロボット100の視線は下を向き(図11(c))、左に傾けるとロボット100の視線は左に動く(図11(d))。上下左右以外の他の方向についても同様である。
【0085】
眼球モデル250を使用することにより、眼画像171をアナログスティック180の動きに高速に追随させることができる。ユーザが鼻109(アナログスティック180)をいじると、ロボット100は即座に眼を動かすから、ユーザはロボット100からの速やかな反応を体感できる。
【0086】
ロボット100は、鼻109がいじられるとき、瞳だけではなく、体(頭部、手及び車輪のうち少なくとも1つ)を動かしてもよい。アナログスティック180を素早く動かすとき、ロボット100も頭部や体をすぐに動かすことで反応を示せば、ロボット100において「反射的行動」という生物的な行動特性を表現できる。
【0087】
例えば、ユーザがアナログスティック180を0.1秒以内に右方向に30度以上傾けたとき、ロボット100は頭部を右に向けるとしてもよい。このような制御方法によれば、鼻109(アナログスティック180)をすばやく大きく傾けることで、ロボット100は眼だけでなく頭も動かすという動作表現が可能となる。
【0088】
ロボット100は、鼻109の動きに眼を連動させるだけでなく、鼻109の動き方によっては体も動かすことで、鼻109のいじりに対して多様な反応を示す。ロボット100が体を動かすきっかけとなる鼻109の動きとしては、このほか、ユーザがアナログスティック180を上方向に弾くことや、高速にてアナログスティック180を左右に動かすことであってもよい。アナログスティック180の変形速度が所定の基準値を超えたときを「急激な動き」として定義し、アナログスティック180が急激な動きをしたとき、動作制御部150は複数のモーションのいずれかを選択してもよい。これらのモーションは、頭部を鼻109が動いた方向とは逆方向に回転させる、車輪を駆動して後ろに飛びのく等、生物が行う反射行動を表現するものであればよい。
【0089】
まとめると、鼻109(アナログスティック180)を動かすとき、眼生成部172はアナログスティック180の動きに合わせて眼球モデル250を回転させることで、眼画像171を変化させる。このため、鼻109の動きにより、ロボット100の視線を追随的に動かすことができる。いわば、鼻109が眼の操作デバイスであるかのようなユーザインタフェースが実現される。また、鼻109の動きが所定の条件を満たしたときには、動作制御部150は鼻109の動きに合わせてモーションを選択する。このため、鼻109の動かし方によっては、ロボット100は、眼画像171だけでなく、全身の動きによってユーザからの関わりに応えることができる。
【0090】
動作制御部150は、鼻109の動きに追従するモーションを実行させてもよい。このように、眼生成部172はアナログスティック180の動きに合わせて眼画像171を変化させてもよい。また、動作制御部150はアナログスティック180の動きに合わせて
モーションを変化させてもよい。これにより、アナログスティック180の操作方向と、眼画像171またはモーションの変化とが連動しているかのような印象をユーザに与えられる。
【0091】
図5(a)、(b)に関連して説明したとおり、鼻109は、目110や顔領域107に比べて小さい。鼻109のどの部分においてもユーザの接触を確実に検出する必要がある。そのため、鼻109の全域または大部分にセンサを設ける必要がある。ロボット100に対して同じ大きさのセンサを設ける場合、顔領域107に比べてより小さい鼻109はセンサの数が少なくて済む。したがって、ロボット100を製造するコストを抑えられる。
【0092】
また、鼻109は小さいにも関わらずユーザの目に留まりやすい。顔領域107の中央付近に設けられることや、ロボット100の表面に対して凸形状となっていることがその主な要因である。ユーザの目に留まりやすい鼻109に、アナログスティック180(操作デバイス)を設けることで、ロボット100における操作可能な部分(ユーザの接触を検出する部分)をユーザが認識しやすくなる。
【0093】
ロボット100の内部パラメータ、例えば、感情パラメータに基づいて眼画像171を変化させてもよい。例えば、ロボット100のいらだちの度合いを示す感情パラメータの値が所定値以上のときには、眼生成部172はアナログスティック180の傾斜方向とは逆方向に眼球モデル250を回転させてもよい。
【0094】
アナログスティック180の変形態様(変形方向、変形量、変形速度)を変数とし、眼球モデル250の回転方向および回転量を出力として定義する変換関数を用意してもよい。眼生成部172は、アナログスティック180の変形態様および変換関数に基づいて、眼球モデル250の回転方向および回転量を決定してもよい。
【0095】
眼生成部172は、感情パラメータに基づいて複数種類の変換関数のいずれかを選択してもよい。眼生成部172は、複数種類の変換関数のいずれかをランダムに選択してもよい。このような制御方法によれば、アナログスティック180の変形と眼の動きの連動性は維持しながらも、眼の動きに多様性を持たせることができる。ロボット100は、同じいじられ方に対して多様な眼の動きで応えるので、ユーザはロボット100のいろいろな表情を楽しめる。また、眼の動きに応じて、ロボット100の感情を推定することも可能となる。
【0096】
ロボット100は、アナログスティック180の操作履歴に応じてモーションを変化させる。上述のとおり、操作検知部182はアナログスティック180の動き、すなわち、変形方向と変形量を逐次検知する。操作履歴管理部184は検知結果を、時系列に沿って操作履歴として記憶する。具体的には、操作履歴管理部184は、検知結果と検知時刻とを対応付けて記憶する。動作制御部150は、操作履歴、すなわちアナログスティック180の動き方に応じたモーションを選択する。
【0097】
アナログスティック180のいじられ方(操作のされ方)によって、状態管理部244は感情パラメータを変化させてもよい。例えば、ユーザが、やさしくアナログスティック180をいじれば、眼生成部172はそのいじり方に連動して眼を動かし始める。更に継続して同じようにいじり続けていれば、状態管理部244は安心感を示す感情パラメータを上昇させる。安心感を示す感情パラメータが所定値以上になると、眼生成部172は瞼画像190を下げる(閉眼する)ことでロボット100の眠気を表現する。このとき、動作制御部150は、頭を上下に動かすモーションを選択することで「うとうと」するさまを表現してもよい。やさしいいじり方、いいかえれば、ロボット100を安心させるアナ
ログスティック180のいじり方は、設計者が任意に定義すればよい。たとえば、アナログスティック180を略同一のペースにて左右に往復運動させることでもよいし、アナログスティック180を動かさないまま鼻センサをアナログスティック180が押し込まれない程度の強さで所定回数以上叩き続けることであってもよい。
【0098】
ユーザが、乱雑にアナログスティック180をいじり続ければ、ロボット100はそのいじり方に連動して眼を動かし始める。更に継続して乱雑にいじり続けていれば、苛立ちを示す感情パラメータが高まりロボット100は眼の動きを止める。また、ロボット100は頭部を左右に動かしユーザの指先をアナログスティック180から離そうとして、「いやいや」を表現する。「乱雑ないじり方」も、設計者により任意に定義されればよい。
【0099】
一実施形態において、やさしくいじられている状態とは、単調な動きがなされている状態である。アナログスティック180からの出力値で表現するならば、単調な動きとは出力値に周期性があって、かつ、変形量が小さい状態が所定の期間より長く続く動きといえる。一実施形態において、乱雑にいじられている状態は、単調ではない動きがなされている状態である。アナログスティック180からの出力値で表現するならば、出力値に周期性がなく、かつ、変形量が大きい状態が所定の期間より長く続く動きといえる。このように、アナログスティック180の動きに連動して眼を動かし続けるだけでなく、所定条件を満たしたときにロボット100はアナログスティック180と眼の連動の仕方を変化させる。ロボット100は、「眠い」状態を、眼の動きを単に止めるのではなく、瞼を閉じたり身体を動かすことで表現する。
【0100】
例えば、アナログスティック180を最大傾斜角の30%以下の範囲内にて左右交互に動かす場合(以下、この動かし方を「左右交互傾斜」とよぶ)に、ロボット100は、眼の動きを止め瞼を閉じ頭部を上下に動かして「眠くなってきた」状態を表現するとしてもよい。操作履歴管理部184は、操作履歴を参照し、アナログスティック180の動きが「左右交互傾斜」に該当するかを判定する。左右交互傾斜に該当するとき、眼生成部172は眼球モデル250の動きを止め瞼画像190を表示する。また、動作制御部150は、ロボット100の頭部を上下に動かすモーションを選択する。これにより、ロボット100は目を閉じて頭部を上下に動かし、「眠たい」状態を表現する。
【0101】
生物が眠たくなるのは安心しているときである。ロボット100をいじり、ロボット100が眠たいという行動表現をすれば、ユーザはロボット100をいじることでロボット100が安心していると感じることができる。状態管理部244は、左右交互傾斜が検出されたとき、安心感を示す感情パラメータを増加させる。安心感を示す感情パラメータは所定値を超過したとき、ロボット100は目を閉じて頭部を上下に動かすとしてもよい。
【0102】
ユーザがロボット100を横抱きしたときには、ユーザの視界の大部分をロボット100が占めることになる。このとき、ユーザはロボット100の細かな変化に気づきやすくなる。ユーザは、横抱きしたロボット100の鼻109や目110を注視しやすくなる。この状態を検出したとき、例えば、ロボット100のカメラによる撮像画像によりユーザがロボット100を横抱きしている状態を検出したときにおいて、ユーザが鼻109をいじったときに、アナログスティック180の動きと連動して眼が変化すれば、ユーザはロボット100以外のものに意識をとられることなく、ロボット100に没入できる。
【0103】
生物は、短期間の刺激には鈍感に反応するが、長期間の刺激にさらされると大きく動きだすことがある。ロボット100においても、ユーザからの接触が続くと徐々に動きを大きなものにしていくことで同様の挙動を表現できる。ユーザが鼻109をいじり続けると、最初は眼だけを動かしていたロボット100は頭部も動かしはじめる。動作制御部150は、変形継続時間が長くなるにつれて、鼻109から遠い箇所を駆動させてもよい。た
とえば、鼻109をいじるとロボット100は眼画像171を動かし、鼻109をいじり続けるとロボット100は頭部をゆっくりと動かす。鼻109を更にいじりつづけると、ロボット100は手をうごかし、鼻109を更にいじりつづけるとロボット100はユーザから離れる方向に移動するとしてもよい。変形継続時間は、アナログスティック180の傾斜が継続している時間として定義されてもよいし、鼻センサのタッチの継続時間として定義されてもよい。
【0104】
他例として、ユーザが左右交互傾斜を10秒続けた時点で、ロボット100は頭部を上下に動かし、「眠たくなってきてうとうとし始める」状態を表現する。
【0105】
続けて、ユーザが左右交互傾斜を20秒以上続けたとする。この場合には、ロボット100は、更に、手106をボディ104に寄せ、前輪102および後輪103をボディ104に収納してもよい。このようにユーザが左右交互傾斜を続けると、ロボット100はまず、眼を動かし、続いて、頭を動かすことで「うとうと」し、さらに両手両足を体に寄せて「眠っている」状態になる。
【0106】
ユーザが左右交互傾斜をするとき、アナログスティック180を速く動かすか、ゆっくり動かすかに応じてロボット100はモーションを変化させてもよい。操作履歴管理部184は、アナログスティック180の変形量および変形方向を操作履歴として記録する。操作履歴管理部184は、操作履歴から変形速度(単位時間あたりの変化量)を計算する。
【0107】
変形継続時間が10秒以上となったときであって、その10秒間の変形速度が所定値以下の場合には、動作制御部150は頭部を上下に動かすモーションを選択する。一方、変形速度が所定値を超える場合には、動作制御部150は頭部を左右に動かすモーションを選択する。このような制御により、ロボット100は頭部を横に振って「いやいや」を表現する。
【0108】
第1実施形態のロボット100は、ユーザによる鼻109のいじり方によってモーションを変化させる。ここでいういじり方とは、単にアナログスティック180の変形方向のみを意味するのではない。たとえば、アナログスティック180を小さく動かすか大きく動かすか、すなわち単調か否かや、速く動かすかゆっくり動かすか、すなわち、乱暴にさわるか撫でるようにさわるかといった細かな動かし方をも含む。ユーザのいじり方の細かな違いに応じてロボット100がモーションを変化させれば、ユーザはロボット100に対して飽きずに接することができる。
【0109】
ロボット100のユーザに対する親密度や、その時々における感情パラメータの状態等、ロボット100の内部パラメータに応じて、「眠たい」状態に至るまでの時間が変化するとしてもよい。
【0110】
ロボット100が目を閉じており、移動やモーションを実行しない状態が所定時間以上にわたり継続されているとき(ロボット100が寝ている状態のとき)に、ユーザが鼻109をいじったとする。この状態のときにアナログスティック180の動きを検出すると、ロボット100は目を閉じた眼画像171から開いた眼画像171へ変化させ、移動やモーションを実行するとしてもよい。このように、所定の眼画像171であって、かつ、モーションを実行していないときに、ユーザの接触を検出すると、ロボット100は眼画像171を変化させモーションを実行するとしてもよい。
【0111】
親密度に応じてロボット100のモーションを変化させてもよい。例えば、親密度が所定値以上のユーザが鼻109をいじると、ロボット100は頭部をユーザに近づける。一
方、親密度が所定値未満のユーザが同じように鼻109をいじると、ロボット100は頭部をユーザからそむける。このように、動作制御部150は、アナログスティック180の変形態様およびアナログスティック180を操作するユーザの親密度に応じて、複数のモーションからいずれかのモーションを選択してもよい。具体的には、親密度がT1以上のユーザのよる所定の操作入力がなされたときには動作制御部150はモーションM1~M3のいずれかをランダムに選択し、親密度がT1未満のユーザによる同じ操作入力がなされたときには動作制御部150はモーションM4~M6のいずれかをランダムに選択するとしてもよい。
【0112】
何かに愛着を持たせるためには、人間がそのものに対して関わる時間をできるだけ長くする必要がある。第1実施形態のロボット100はユーザとの親密度によっても挙動が変化する。ユーザが同じようないじり方をしても親密度によってロボット100のモーションが変化するから、ユーザはロボット100に飽きずに接し続けることができる。接し続けることで、ユーザにロボット100に対する愛着を抱かせることができる。また、やさしく接し続けることでロボット100のユーザに対する親密度も高まる。親密度が変化することでロボット100の反応も変化する。鼻109に対する操作、親密度(ロボット100のユーザに対する気持ち)、感情パラメータ(ロボット100の気分)が複雑に影響し合うことでロボット100は状況に応じた多様な行動表現を実現できる。
【0113】
ロボット100は、ユーザが鼻109をいじると、最初は眼を動かし、次いで頭部を動かし、さらにボディ104を動かしはじめる。また、ロボット100において、「鼻109のアナログスティック180を動かすと眼が動く」機能(以下、この機能を「瞳連動機能」とよぶことがある)が有効になるのは、ユーザがロボット100を、顔をユーザ側に向けて横抱きしていることを条件としてもよい。
【0114】
ロボット100が横抱きされていないときに、ユーザがアナログスティック180を動かしても、ロボット100の眼は瞬きをするだけであってもよい。ユーザがロボット100を横抱きしていることは、ロボット100の表面の接触を検知するタッチセンサ(図示せず)とロボット100の傾きを検知する加速度センサ(図示せず)によって検知される。認識部156はタッチセンサおよび加速度センサを介してユーザのロボット100への接触を検知する。姿勢判断部(図示せず)は認識部156が検知した検知結果から、ユーザがロボット100へどのような姿勢で接触しているかについて特定する。ユーザがロボット100を横抱きにしていると特定した場合に、姿勢判断部は操作履歴管理部184へ瞳連動機能を有効にするように指示をする。姿勢判断部からの指示を受けた操作履歴管理部184は、瞳連動機能を有効とし、上述のとおりアナログスティック180の動き方に応じた眼の動きを発動させる。このように、ロボット100の抱っこなどの姿勢に応じて、鼻109の操作に対するロボット100の行動特性を変化させてもよい。
【0115】
ユーザとロボット100が所定の位置関係にあること、ユーザの姿勢が所定の姿勢であることなどをタッチセンサ、加速度センサまたは撮像画像に基づいて検出したことを条件として、姿勢判断部が瞳連動機能を有効にしてもよい。例えば、瞳連動機能が有効となるのは、ユーザがロボット100の顔を自身に向かせて横抱きにしているときである。ユーザがロボット100に意識を集中させていないときにロボット100が反応してもユーザがその反応を見逃す可能性が高い。ロボット100がこの姿勢になったときにアナログスティック180と眼の動きを連動させるとすることで、ユーザの意識をロボット100に集中させてロボット100の細かな変化に気づかせることができる。なお、ユーザがロボット100を横抱きにすることを検出したことに代えて、例えばユーザの膝の上で向かい合わせに座る等ユーザの意識をロボット100に集中させてロボット100の細かな変化に気づかせられる姿勢となっていることを検出したことを、瞳連動機能を有効にするための条件としてもよい。また、タッチセンサや加速度センサに限らず、ロボット100の顔
認証技術を用いてユーザとロボット100とが向かい合っているかを検知することを、瞳連動機能を有効にするための条件としてもよい。ロボット100が車輪をボディ104に完全に収納した状態を「抱っこモード」と定義し、「抱っこモード」の状態で、かつ、顔認証技術等によってユーザとロボット100が向かい合っていると特定したときに、瞳連動機能が有効になるとしてもよい。
【0116】
[第2実施形態]
第2実施形態のロボット100は、鼻109が動かされたときの鼻109の軌跡(経路パターン)に応じて眼の動き(眼動作)を変化させる。なお、第2実施形態のロボット100は第1実施形態のロボット100と同じ概観を有する。
【0117】
図12は、第2実施形態におけるロボットシステム300の機能ブロック図である。
第2実施形態におけるロボット100のデータ格納部148は、更に、眼動作格納部174を含む。眼動作格納部174は、アナログスティック180の動き方(変形パターン)とロボットの目の動き(眼動作)とを対応づけて格納する。第2実施形態におけるロボット100のモーション格納部160には、アナログスティック180の変形状態(アナログスティック180が初期位置から動かされている状態)の継続時間(変形継続時間)に応じたモーションも格納されている。
【0118】
第2実施形態におけるロボット100の操作履歴管理部184は、操作検知部182の検知結果を時系列に沿って操作履歴として記憶する。操作履歴管理部184は、記憶している操作履歴と眼動作格納部174に格納される変形パターン(詳細後述)の実行条件とを照合し、操作履歴がいずれかの実行条件と一致したとき、その変形パターンに対応づけられる眼動作を実行するよう眼生成部172へ指示する。眼生成部172は、操作履歴管理部184からの指示を受け、眼動作を実行する。「眼動作」とは、第1実施形態と同様、眼球モデル250の回転による眼画像171の変化を意味する。
【0119】
第2実施形態におけるロボット100も、鼻109に備えられるアナログスティック180の操作履歴に応じて、眼画像171を変化させる。また、変形継続時間に応じて、モーションを選択し、ロボット100の駆動機構120を制御する。
【0120】
図13は、操作履歴に基づくロボット100の眼動作とモーションについて示すフローチャートである。
上述のとおり、操作履歴管理部184は操作検知部182の検知結果を時系列に沿って操作履歴として記憶していく(S10)。操作履歴管理部184は記憶している操作履歴が眼動作格納部174に格納される変形パターンのいずれかに一致するか否かを判定する(S12)。一致する変形パターンが存在する場合には(S12のY)、操作履歴管理部184は操作履歴に基づき変形状態がどのくらい続いているのか逐次判定する(S14)。一致する変形パターンが存在しない場合には(S12のN)、以降の処理をスキップする。変形継続時間が5秒未満の場合には(S14のN)、操作履歴管理部184は眼生成部172へ変形パターンに対応する眼動作の実行を指示する(S16)。一方、変形継続時間が5秒以上になる場合には(S14のY)、操作履歴管理部184は眼生成部172へ閉眼動作の実行を指示し(S18)、動作制御部150へモーション格納部160よりモーションを照会して駆動機構120に実行させる指示を出す(S20)。
【0121】
具体的には、ロボット100の操作履歴管理部184は、変形パターンにあらかじめ対応づけられる眼動作を選択し、眼生成部172に実行を指示する。たとえば、アナログスティック180を時計回りに1周させるというあらかじめ定められた実行条件によって定義される変形パターンに、眼をぐるぐる回すという眼動作が対応づけられているとする。この場合において、ユーザがアナログスティック180を時計回りに1周させたとき、ロ
ボット100はぐるぐる眼を回す。動作制御部150はまた、変形継続時間にあらかじめ対応づけられる1以上のモーションからいずれかのモーションを選択する。変形継続時間が5秒以上という条件が成立したとき、この変形継続時間にロボット100の頭部を左右に動かすというモーションが対応づけられているとする。この場合、ユーザがアナログスティック180をたとえば6秒動かし続けたとき、ロボット100は頭部を左右に振る。
【0122】
図14(a)は、眼動作テーブル420のデータ構造図である。図14(b)は、アナログスティック180の変形パターン選択テーブル440のデータ構造図である。
眼動作テーブル420は、アナログスティック180の変形パターンと眼動作の対応関係を定義する。変形パターン選択テーブル440は、各変形パターンがどのようなパラメータで定義されるかを示す。眼動作テーブル420および変形パターン選択テーブル440は、眼動作格納部174に格納される。
【0123】
操作履歴はアナログスティック180の変形方向と変形量と対応する時刻が時系列に沿って記録されたものである。操作履歴を参照することで、アナログスティック180が辿った経路(軌跡)を特定できる。たとえば、時計回りに1周するときの軌跡となる経路R1を辿り、かつ、経路R1を辿る動きが1秒以内となるアナログスティック180の動作は、変形パターンA1と定義される。第2実施形態においては、本実施形態の「変形態様」に経路を含む。同様に、初期位置から左右左の順にアナログスティック180を動かし、初期位置へ戻すときの軌跡となる経路R2を辿り、かつ、経路R2を辿る動きが2秒以内となるアナログスティック180の動作は、変形パターンA2と定義される。初期位置から押し込むときの軌跡となる経路R3を辿り、経路R3を辿る動きが0.5秒以内に行われるアナログスティック180の動作は、変形パターンA3と定義される。
【0124】
それぞれの変形パターンは眼動作と対応づけられる。例えば、変形パターンA1の場合には、眼生成部172は眼をぐるぐる回す動作(眼動作M1)を実行する。変形パターンA2の場合には、眼生成部172は瞬きをする動作(眼動作M2)を実行する。変形パターンA3の場合には、眼生成部172は両眼を寄せる動作(眼動作M3)を実行する。
【0125】
ユーザがアナログスティック180を動かすと、内部センサ128を介して操作検知部182がアナログスティック180の動きを検知する。動き方は操作検知部182から操作履歴管理部184へと伝わり、操作履歴管理部184は変形継続時間が5秒未満だった場合にその動き方と眼動作格納部174に格納されている変形パターンの実行条件とを比較する(変形継続時間が5秒以上である場合については後述)。5秒以内の操作であって、アナログスティック180の動き方がいずれかの変形パターンの実行条件と一致した場合には、操作履歴管理部184はその変形パターンに対応づけられる眼動作を特定する。操作履歴管理部184は特定した眼動作の実行を眼生成部172へ指示する。眼生成部172は特定された眼動作を実行する。
【0126】
具体的には、たとえば、経路R1を辿るようにユーザがアナログスティック180を動かし、その動きを0.5秒で完了させたとする。この動き方は変形パターンA1の実行条件と一致するから、操作履歴管理部184は変形パターンA1に対応づけられる眼動作M1を特定し、眼生成部172は眼動作M1、すなわち眼をぐるぐる回す動作を行う。
【0127】
第2実施形態におけるロボット100は、眼動作だけでなく、アナログスティック180の変形継続時間に応じてロボット100の挙動が変化する。
【0128】
図15はモーション選択テーブル460のデータ構造図である。
モーション選択テーブル460は、変形継続時間とモーションの対応関係を定義する。モーション選択テーブル460は、モーション格納部160に格納される。
【0129】
上述のとおり、変形継続時間が5秒以上となった場合には、操作履歴管理部184は眼を閉じる動作(閉眼動作)の実行を指示する。眼生成部172は操作履歴管理部184からの指示に基づき、閉眼動作を実行する。
動作制御部150は、モーション格納部160から変形継続時間が5秒以上の場合に対応するモーションであるモーションC1を特定する。モーションC1は、ロボット100の頭部を左右に動かす動きである。ロボット100は、眼を閉じて頭部を左右に振って「顔をそむける」挙動を示す。
【0130】
変形継続時間が15秒以上となった場合には、動作制御部150はモーションC2を選択する。モーションC2はロボット100の手を上げ下げする動きである。動作制御部150はモーションC1とモーションC2を発動させる。すると、ロボット100はモーションC1とモーションC2の動きをし、眼をつむり、頭を振りながら手をばたばたさせる「いやいや」の動きを表現する。
【0131】
動作制御部150は、変形継続時間が短いうちは鼻109から所定範囲内であるロボット100の頭部までの部位を駆動対象とするモーションを選択する。変形継続時間が長くなると、ロボット100の頭部より外を駆動するモーションも選択対象となる。
【0132】
第2実施形態におけるロボット100は、鼻109に設けられたアナログスティック180の動きに応じて眼を動かす。アナログスティック180が動かされ続けると、ロボット100は頭を動かし始める。頭が動き始めてもなお、アナログスティック180が動かされ続けると、ロボット100は体を動かし始める。このように、ユーザが鼻109をいじりつづけることでロボット100は眼を動かし、次いで頭や体を動かし始めるから、ユーザは、ロボット100が触られることに飽きてくる、くすぐったく感じ始める等生物のようなふるまいをしていると感じ、ロボット100に対して生物と接している感覚を味わえる。
【0133】
第2実施形態においては、アナログスティック180は鼻109に設置される。コミュニケーションに際しては、人間は相手の顔を見ることが多い。ロボットと触れ合う際においても同様であり、ユーザはロボット100の顔領域107を見ながらロボット100に触ると考えられる。このとき、ユーザの目に触れる箇所、たとえば、顔や鼻などにユーザが無意識にいじりたくなるものがあれば、ユーザは思わず触ってしまう可能性が高い。第2実施形態のロボット100においては鼻109がそれにあたる。無意識にいじりたくなる鼻109のアナログスティック180を動かすとロボット100がその動きに応じた挙動を示すから、ユーザはロボット100に対して生きているかのような印象を受けてより愛着を抱くようになる。
【0134】
図16は、定常時のロボット100の正面図である。図16は、ユーザがロボット100に触れていない定常時に、ロボット100が立っているときの様子を示す図である。
図17は、モーションC1発動時のロボット100の正面図である。図17は、ユーザがロボット100のアナログスティック180を続けて触ったため、ロボット100がモーションC1を発動したときの様子を示す図である。
ユーザがアナログスティック180を動かしていない定常時において、ロボット100の目110は開眼し、正面をじっと見つめる。ユーザがアナログスティック180を動かしつづけ、変形継続時間が5秒を超えると、ロボット100は目110をつむり、頭を背ける。
【0135】
以上、実施形態に基づいてロボット100を説明した。
本実施形態のロボット100は、アナログスティック180が鼻109に設けられる。
無意識にいじりやすい鼻109のユーザによる接触に応じてロボット100が反応するため、ユーザはロボット100が自分と意思疎通するかのように感じ、ロボット100への愛着を持ちやすくなる。
【0136】
本実施形態のロボット100は、アナログスティック180の動きに応じて眼を変化させる。また、アナログスティック180がいじられる時間が長いと、ロボット100は頭や体を動かし始める。ユーザがアナログスティック180を少しだけいじると、ロボット100は眼を動かしてユーザに興味を示すそぶりをする。いじり続けると、ロボット100は頭を動かしてユーザの手を避けるそぶりをし、「やめて」という気持ちを表現する。あまりにかまいすぎるとロボット100が手をばたばたさせ始めて「いやいや」を表現し始める。本実施形態のロボット100はアナログスティック180の動きだけでなくその継続時間によっても表情や行動を変化させていく。ユーザはロボット100が「飽きた」「くすぐったい」「うっとうしい」「もっとやって」といった感情(きまぐれさ)を有しているように感じ、また、ロボット100に生物的な挙動を感じることができる。
【0137】
本実施形態のロボット100は、鼻109に設けられたアナログスティック180をユーザがいじると、眼が変化する。また、アナログスティック180をいじる時間が長いと、ロボット100は頭を動かし始め、さらにいじりつづけると体を動かし始める。鼻109をいじるとまずは鼻109の近傍にある顔領域107に位置する部位においてロボット100の挙動が示されるから、ユーザはロボット100の反応を見逃すことがない。いじり続けると顔領域107内だけでなく所定範囲内であるロボット100の頭部内が動きはじめ、更にいじり続けるとロボット100の頭部より外側(所定範囲外)においても挙動が示される。ユーザは、鼻109のいじられ方やいじられる時間によって変化していくロボット100の表情や行動を見て楽しめる。
【0138】
本実施形態のロボット100は、鼻109に設けられたアナログスティック180の動きに応じて眼を変化させる。変形例としては、撮像デバイスによってユーザを撮像し、モーションセンサによって撮像画像からユーザの動きを検出したのちに、そのユーザの動きに応じて眼を変化させるとしてもよい。ただし、モーションセンサ等の画像処理を伴ってユーザの動きを検出する場合に比べ、アナログスティック180の動きを検出する場合には、ロボット100へのユーザの接触からロボット100の挙動までの時間を短くできる。また、ロボット100へのユーザの接触を確実に検出できる。
【0139】
本実施形態においては、ロボット100本体にアナログスティック180(操作デバイス)が直接設けられる。変形例においては、リモートコントローラ等の操作デバイスをロボット100本体とは別に備えてもよい。ただし、ロボット100本体に操作デバイスが直接設けられる場合には、ユーザはロボット100に直接触れることとなる。よって、操作デバイスがロボット100本体とは別に備える場合とくらべ、ユーザが直感的に操作や制御をしやすい。
【0140】
なお、本発明は上記実施形態や変形例に限定されるものではなく、要旨を逸脱しない範囲で構成要素を変形して具体化することができる。上記実施形態や変形例に開示されている複数の構成要素を適宜組み合わせることにより種々の発明を形成してもよい。また、上記実施形態や変形例に示される全構成要素からいくつかの構成要素を削除してもよい。
以下、他の実施形態について説明する。
【0141】
実施形態においては、アナログスティック180の動き(変形)を操作検知部182が検知し、検知結果に応じてロボット100の挙動を決定した。操作検知部182によって検知されるものはこれに限らず、ロボット100本体の変形またはロボット100本体に設けられるデバイスの動きであればよい。検知される変形や動きは、たとえば、ロボット
100の首をゆする動き、手を握る動き、体をゆらす動き、ユーザがつねることによる頬の変形など物理的な動作であればよい。また、これらの動作を検知する手段は、たとえばジョイスティック、トラックボール等による物理的な動作を検知する手段であればよい。可撓性を有する外皮の内側にアナログスティック180等を配置してロボット100の表面にこれらの検知手段が露出しない態様としてもよい。
【0142】
実施形態においては、操作検知部182によって接触が検知される箇所が鼻109であるとした。接触が検知される箇所は鼻109に限られない。例えば、動物でいうところの肉球等丸みを帯びた箇所や、しっぽのように突出している箇所、頬のように変形が想定される箇所等接触を検知できる箇所であればどこでもよい。好ましくは、ユーザが無意識にいじりたく箇所である。
【0143】
実施形態においては、鼻109をいじられると眼が動くとした。ロボット100の動作箇所は眼に限らず、例えば首、しっぽ、手等の可動な箇所であればどこでもよい。また、操作検知部182によって接触を検知される箇所と動作箇所は近くても遠くてもよく、たとえばしっぽをいじると鼻が動くとしてもよい。
【0144】
実施形態においては、ロボット100の頭部を所定範囲とし、鼻109がいじられる時間が5秒以上15秒未満であればロボット100の頭部のみを、15秒以上であればロボット100の頭部だけでなく、所定範囲外の部位である手106も駆動した。ロボット100本体の変形またはロボット100本体に設けられるデバイスの動きに応じて駆動する箇所を定める「所定範囲」は、ロボット100の頭部に限られない。例えば、ロボット100の顔領域107でもよいし、ロボット100の足以外の部分としてもよい。ロボット100の駆動機構によって動かせる箇所のうち適宜範囲を設定すればよい。
【0145】
また、各モーションを発動させる変形継続時間の条件は5秒以上や15秒以上に限らず、例えば1秒以下や1分以上など、様々な時間に設定可能である。
【0146】
実施形態においては、鼻109を継続的にいじられている時間(変形継続時間)に応じてモーションを変化させた。変形継続時間に限らず、例えば経路や変形速度などのロボット100本体の変形態様やロボット100に備えられたデバイスの動きなどをモーションを選択するための条件として採用してよい。
【0147】
変形量の累積値、変形継続時間の累積値、またはロボット100にかかる圧力に応じてロボット100の眼を変化させたり動きを変化させるとしてもよい。たとえば鼻109を弱い力でいじる場合には、眼の動き、頭の動き、体全体の動きへの遷移の仕方が緩やかなため、長時間眼の変化だけとしてもよい。強い力でいじる場合には短時間で体全体の動きへと遷移するとしてもよい。これにより、いじり方に応じたロボット100の挙動がよりバリエーション豊かとなる。
単に撫でる、叩くという触り方とは異なり、本発明のロボット100は「変形」を伴う触り方に応答する。いいかえれば、電気的な接触検出に限らず、物理的な「変形」として接触を検出している。ユーザによっていじる強さや変形量、接触面積等「いじり方」は様々である。ユーザによって異なる「いじり方」に応じてロボット100が表現豊かに反応すれば、ユーザはロボット100に対して愛着を抱くようになる。
【0148】
実施形態においては、アナログスティック180の動きに応じてロボット100の挙動が決定された。ロボット100の挙動を決定する契機はこれによらず、例えばユーザが無意識にいじりたくなると想定される箇所にセンサを設ける等でもよい。また、ロボット100本体に複数のセンサを設けてもよい。複数のセンサを設ける場合には、そのうちの1つをアナログスティック180の動きを検出するセンサとしてもよい。また、全て同程度
の検出精度のセンサとしてもよいし、異なる検出精度のセンサとしてもよい。異なる検出精度のセンサを複数設ける場合には、ユーザのいじりたくなると想定される箇所により高い検出精度のセンサを設けてもよい。この場合の検出精度はユーザがロボット100本体に対する接触地点を変化させるときの変化量に対する検出感度とする。以下、ロボット100本体に設けられたいずれかのセンサによってユーザの接触が検出されることを「ユーザがロボット100に触れる」または「ユーザがロボット100に接触する」ということがある。
【0149】
鼻109以外に設けられるセンサの例として、ロボット100の表面のうち目110を挟む2つの位置に対するユーザの接触を検出するセンサが挙げられる。このセンサによってユーザの接触が検出された場合に、眼生成部172は瞼画像190を下げる(閉眼する)。これにより、目110が覆われたので目をつぶるというロボット100の行動を表現できる。
【0150】
ロボット100本体に複数のセンサを設ける場合には、いずれかのセンサにおいてユーザの接触を検出すると、眼生成部172はロボット100の仮想視線をその接触箇所へ向けたような眼画像171を生成するとしてもよい。以下、所定箇所に仮想視線を向けた眼画像171を眼生成部172が所定時間にわたってモニター170に表示することを、「ロボット100が所定箇所を注視する」ということがある。例えば、ユーザがロボット100の手に触れると、ロボット100は手を注視する。あるいは、ユーザがロボット100のお腹に触れると、ロボット100はお腹を注視する。また、ユーザの接触が所定時間を超える場合には、ロボット100はその接触箇所を含む部分を動かすとしてもよい。例えば、ユーザがロボット100の手に触れている時間が5秒を超える場合には、ロボット100はユーザの手からロボット100の手を離そうとするモーションを行う。また、ユーザがロボット100のお腹に触れている時間が10秒を超える場合には、ロボット100はお腹を左右に振るモーションを行う。このように、ロボット100の複数の箇所に設けられる複数のセンサのいずれかにおいてユーザの接触を検出したとき、眼生成部172は接触箇所を注視している眼画像171を生成する。また、いずれかのセンサにおけるユーザの接触の検出時間が所定時間を超えるとき、動作制御部150は接触箇所を含む部分を動かすモーションを実行する。これにより、ユーザは、触られた部分をじっと見た後身をよじるという生物的な挙動をロボット100が示していると感じることができる。
【0151】
ロボット100本体の全域にわたって高精度なセンサを取り付けると、消費電力が大きくなってしまう。一部のセンサのみ高精度とすることにより、消費電力を抑えられる。また、ユーザのいじりたくなると想定される箇所のセンサのみ高精度にしてユーザの小さな動きをも検出し、その動きに対応するロボット100の挙動を示すとする。こうすることで、「体の他の部分に触れても反応が薄いが、ある点での接触については敏感に感じ取る」という生き物の特性を表現できる。また、ユーザが少し触れただけでもその接触を検出してロボット100が反応を返すから、ユーザは、ロボット100が自分の少しの動きにも反応してくれると感じ、ロボット100とコミュニケーションがとれている感覚を味わえる。なお、検出精度はユーザがロボット100本体に対する接触地点を変化させるときの変化量に対する検出感度に限らず、例えば接触の強さ、接触範囲等を検出する能力であってもよい。また、高精度なセンサとして物理的に動くセンサ、低精度なセンサとして静電容量式のタッチセンサを採用したり、センサの種類は同じであるが検出精度を異ならせたりしてもよい。センサは様々な種類のものを採用でき、上述したセンサ以外にもたとえば、センサがユーザの接触を検知すると力覚フィードバックを行うものであってもよい。
【0152】
実施形態においては、ロボット100の眼動作として、眼をぐるぐる回す動作である眼動作M1、瞬きをする動作である眼動作M2、両眼を寄せる動作である眼動作M3を示した。ロボット100が示す眼動作はこれらに限らない。たとえば、視線をそらす動作、目
を見開く動作、目を細める動作等、ロボット100が実現可能な動作であればよい。
【0153】
実施形態においては、ロボット100のモーションとして、頭部を左右に動かすモーションであるモーションC1と手を上下に動かすモーションであるモーションC2を示した。ロボット100が示すモーションはこれらに限らない。たとえば、頭部を縦に動かして「うなずく」、頭部を傾けて「首をかしげる」、手を体の後ろにひっこめる、体を前に傾けて「おじぎをする」、足を動かして「後ずさる」、動きをとめて「無視する」等、ロボット100が実現可能な動きであればよい。
【0154】
実施形態においては、鼻109が目110や顔領域107より小さいとした。鼻109の大きさはこれに限らず、目110と同程度かより大きいとしてもよい。また、目110や顔領域107等各部の大小関係についても実施形態に拘束されることはなく、適宜設計変更可能である。
【0155】
本発明は、ロボット100の鼻109をユーザがいじると、そのいじり方に応じてロボット100が反応を返す。ユーザが無意識にいじる可能性の高い箇所の変化を検知できるセンサを設ける。その箇所をユーザがいじったときにそのいじり方によってロボット100の目が動き、表情が変化し、体が動き出せば、ユーザはロボット100に対する愛着を抱くようになる。いじり方によってロボット100の反応が変化すると、ユーザがロボット100に触れる時間は長くなる。ユーザのロボット100への接触時間を長くできれば、ロボット100に対するユーザの愛着をいっそう深いものにできる。なお、鼻をいじられると、それに連動して眼を動かす動物は存在しない。人間であってもそうした行為はしない。仮にしたとしても、他人に鼻をいじられて、そのいじる方向に連動して眼を動かすことは難しい。ロボット100だからこそ可能な、ひとつの表現と言える。
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14
図15
図16
図17
【手続補正書】
【提出日】2024-02-16
【手続補正1】
【補正対象書類名】特許請求の範囲
【補正対象項目名】全文
【補正方法】変更
【補正の内容】
【特許請求の範囲】
【請求項1】
ロボットのモーションを選択する動作制御部と、
前記選択されたモーションを実行する駆動機構と、
ロボット本体に設けられるデバイスの動きを検知する操作検知部と、を備え、
前記動作制御部は、前記デバイスの動きが検知されたとき、前記デバイスから所定範囲内
を駆動対象とするモーションのうち、前記デバイスの動きに応じたモーションを選択する
ことを特徴とするロボット。
【請求項2】
前記動作制御部は、前記デバイスの動きが検知されたとき前記所定範囲内を駆動対象と
して前記ロボットの一部を駆動し、前記一部の駆動開始後において前記デバイスの動きが
所定の条件を満たしたときには、さらに、前記所定範囲の外も駆動対象とすることを特徴
とする請求項1に記載のロボット。
【請求項3】
ロボットの体表面に設置され、ユーザの接触を検出する第1のセンサと、
前記ロボットの顔領域に設けられ、ユーザの接触を前記第1のセンサより高精度に検出す
る第2のセンサと、
眼画像を生成し、前記顔領域に前記眼画像を表示させる眼生成部と、を備え、
前記眼生成部は、前記第2のセンサにおける検出値の変化量に対応する態様で前記眼画像
を変化させることを特徴とするロボット。
【請求項4】
前記第2のセンサは、前記第1のセンサより狭い領域に設けられ、
ユーザの接触にともない生じる前記ロボットの体表面の変形量を検出することを特徴とす
る請求項3に記載のロボット。
【請求項5】
鼻を模した凸部と、
瞳を動かすことで視線を表現する眼生成部と、を備え、
前記眼生成部は、前記凸部の変形状態に連動して、前記瞳を変化させることを特徴とする
ロボット。