IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ パナソニック株式会社の特許一覧

特許7109207相互作用装置、相互作用方法、相互作用プログラム及びロボット
<>
  • 特許-相互作用装置、相互作用方法、相互作用プログラム及びロボット 図1
  • 特許-相互作用装置、相互作用方法、相互作用プログラム及びロボット 図2
  • 特許-相互作用装置、相互作用方法、相互作用プログラム及びロボット 図3
  • 特許-相互作用装置、相互作用方法、相互作用プログラム及びロボット 図4
  • 特許-相互作用装置、相互作用方法、相互作用プログラム及びロボット 図5
  • 特許-相互作用装置、相互作用方法、相互作用プログラム及びロボット 図6
  • 特許-相互作用装置、相互作用方法、相互作用プログラム及びロボット 図7
  • 特許-相互作用装置、相互作用方法、相互作用プログラム及びロボット 図8
  • 特許-相互作用装置、相互作用方法、相互作用プログラム及びロボット 図9
  • 特許-相互作用装置、相互作用方法、相互作用プログラム及びロボット 図10
  • 特許-相互作用装置、相互作用方法、相互作用プログラム及びロボット 図11
  • 特許-相互作用装置、相互作用方法、相互作用プログラム及びロボット 図12
  • 特許-相互作用装置、相互作用方法、相互作用プログラム及びロボット 図13
  • 特許-相互作用装置、相互作用方法、相互作用プログラム及びロボット 図14
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2022-07-21
(45)【発行日】2022-07-29
(54)【発明の名称】相互作用装置、相互作用方法、相互作用プログラム及びロボット
(51)【国際特許分類】
   A63H 11/00 20060101AFI20220722BHJP
   G06F 3/16 20060101ALI20220722BHJP
   G06F 3/01 20060101ALI20220722BHJP
【FI】
A63H11/00 Z
G06F3/16 650
G06F3/16 610
G06F3/01 510
G06F3/16 660
【請求項の数】 22
(21)【出願番号】P 2018030751
(22)【出願日】2018-02-23
(65)【公開番号】P2019141496
(43)【公開日】2019-08-29
【審査請求日】2021-02-05
(73)【特許権者】
【識別番号】000005821
【氏名又は名称】パナソニックホールディングス株式会社
(74)【代理人】
【識別番号】100115381
【弁理士】
【氏名又は名称】小谷 昌崇
(74)【代理人】
【識別番号】100067828
【弁理士】
【氏名又は名称】小谷 悦司
(74)【代理人】
【識別番号】100118049
【弁理士】
【氏名又は名称】西谷 浩治
(72)【発明者】
【氏名】笹川 路子
【審査官】安田 明央
(56)【参考文献】
【文献】特開2011-200947(JP,A)
【文献】国際公開第2016/068262(WO,A1)
【文献】特開2016-209991(JP,A)
【文献】特開2000-218578(JP,A)
【文献】特開2002-154082(JP,A)
【文献】特開2008-055578(JP,A)
【文献】特表2008-522654(JP,A)
【文献】特開2016-013151(JP,A)
【文献】特開2013-151045(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
A63H 11/00
G06F 3/16
G06F 3/01
G10L 15/00-17/26
B25J 13/00
(57)【特許請求の範囲】
【請求項1】
ユーザと相互作用する装置であって、
前記装置周辺の映像を取得するカメラと、
前記装置周辺の音を取得するマイクと、
前記装置を駆動させる駆動機構と、
メモリと、
プロセッサと、
スピーカと、
ディスプレイと、を備え、
前記プロセッサは、
前記装置が実行する所定のコンテンツに応じて前記駆動機構が駆動し始めることを検知した場合、前記映像に第1人物が映っているか否か、又は、前記音に前記第1人物の音声が含まれているか否かを判断し、前記第1人物は、前記メモリに記憶された第1データに対象人物として指定され、前記第1データは、少なくとも、複数の人物の属性と、前記複数の人物が所定の対象人物であるか否かとを示し、前記所定の対象人物は、前記装置が接触する際に所定の注意を要する人物であり、
前記映像に前記第1人物が映っていると判断した場合、又は、前記音に前記第1人物の音声が含まれていると判断した場合、前記装置が移動中であるか否かを判断し、
前記装置が移動中であると判断した場合、前記駆動機構を制御して前記装置の移動を停止させ、
前記装置が移動を停止してから、前記第1人物及び前記装置と一緒に遊ぶことを第2人物に対してリクエストする音声を前記スピーカに出力させ、前記第2人物は、前記第1データにおいて前記属性が前記第1人物の保護者として示されており、
前記映像又は前記音から、前記第2人物から一緒に遊ぶことに対する肯定的反応を取得した場合、前記メモリに記憶された第2データに基づいて、前記第1人物及び前記第2人物と一緒に遊ぶための第1コンテンツを選択し、前記第2データは、前記装置が前記ユーザと遊ぶためのコンテンツを示し、前記第1コンテンツは、前記装置の移動を伴うコンテンツと、前記装置の移動を伴わないコンテンツとを含み、
前記第1コンテンツに応じて、
(i)前記スピーカを制御して、前記第1コンテンツに対応した音声を出力させる処理と、
(ii)前記ディスプレイを制御して、前記第1コンテンツに対応した表示を出力させる処理と、前記ディスプレイは、前記装置の表情を両目と口とによって表示し、
(iii)前記駆動機構を制御して、前記第1コンテンツに対応した動作をさせる処理と、の少なくともいずれかを行う、
装置。
【請求項2】
前記プロセッサは、
前記所定のコンテンツに応じて前記駆動機構が駆動し始めることを検知した場合、前記駆動機構を制御して前記装置を自転させ、
前記装置が自転している時に前記カメラに前記映像を取得させる、
請求項1記載の装置。
【請求項3】
前記プロセッサは、
前記映像又は前記音から、前記第2人物から一緒に遊ぶことに対する肯定的反応を取得しなかった場合、前記第1人物又は第3人物の前記装置と遊ぶことをリクエストする音声が前記音に含まれているか否かを判断し、前記第3人物は、前記第1人物及び前記第2人物とは異なり、前記第3人物は、前記第1データにおいて前記対象人物として指定されておらず、
前記第1人物又は前記第3人物の、前記装置と前記装置の移動を伴わない遊びをすることをリクエストする音声が前記音に含まれていると判断した場合、前記第2データに基づいて、前記第1人物及び前記第3人物と一緒に遊ぶための第2コンテンツを選択し、前記第2コンテンツは、前記装置の移動を伴わないコンテンツであり、
前記第2コンテンツに応じて、
(i)前記スピーカを制御して、前記第2コンテンツに対応した音声を出力させる処理と、
(ii)前記ディスプレイを制御して、前記第2コンテンツに対応した表示を出力させる処理と、前記ディスプレイは、前記装置の表情を両目と口とによって表示し、
(iii)前記駆動機構を制御して、前記第2コンテンツに対応した動作をさせる処理と、の少なくともいずれかを行う、
請求項記載の装置。
【請求項4】
前記プロセッサは、
前記映像又は前記音から、前記第2人物から一緒に遊ぶことに対する肯定的反応を取得しなかった場合、前記第1人物又は第3人物の前記装置と遊ぶことをリクエストする音声が前記音に含まれているか否かを判断し、前記第3人物は、前記第1人物及び前記第2人物とは異なり、前記第3人物は、前記第1データにおいて前記対象人物として指定されておらず、
前記第1人物又は前記第3人物の前記装置と遊ぶことをリクエストする音声が前記音に含まれていないと判断した場合、前記装置が以降に寝ることを通知するための音声、又は、いびき音を示す音声を前記スピーカに出力させ、
前記ディスプレイに、両目を閉じた表情を表示させる、
請求項記載の装置。
【請求項5】
前記プロセッサは、
前記選択した第1コンテンツに応じて前記(i)、前記(ii)及び前記(iii)の少なくともいずれかの処理を行ってから、前記映像に基づいて、前記第1人物と前記第2人物との距離を算出し、
前記距離が閾値未満ではない場合、前記第1人物及び前記装置と一緒に遊ぶことができるか否かを前記第2人物に対して確認する音声を前記スピーカに出力させ、
前記映像又は前記音から、前記第2人物から一緒に遊ぶことに対する肯定的反応を取得せず、且つ、前記第1人物又は第3人物の、前記装置と前記装置の移動を伴わない遊びをすることをリクエストする音声が前記音に含まれていると判断した場合、前記第2データに基づいて、前記第1人物及び前記第3人物と一緒に遊ぶための第2コンテンツを選択し、前記第3人物は、前記第1人物及び前記第2人物とは異なり、前記第3人物は、前記第1データにおいて前記対象人物として指定されておらず、前記第2コンテンツは、前記装置の移動を伴わないコンテンツであり、
前記第2コンテンツに応じて、
(i)前記スピーカを制御して、前記第2コンテンツに対応した音声を出力させる処理と、
(ii)前記ディスプレイを制御して、前記第2コンテンツに対応した表示を出力させる処理と、前記ディスプレイは、前記装置の表情を両目と口とによって表示し、
(iii)前記駆動機構を制御して、前記第2コンテンツに対応した動作をさせる処理と、の少なくともいずれかを行う、
請求項記載の装置。
【請求項6】
前記プロセッサは、
前記選択した第1コンテンツに応じて前記(i)、前記(ii)及び前記(iii)の少なくともいずれかの処理を行ってから、前記映像に基づいて、前記第1人物と前記第2人物との距離を算出し、
前記距離が閾値未満ではない場合、前記第1人物及び前記装置と一緒に遊ぶことができるか否かを前記第2人物に対して確認する音声を前記スピーカに出力させ、
前記映像又は前記音から、前記第2人物から一緒に遊ぶことに対する肯定的反応を取得せず、且つ、前記第1人物又は第3人物の前記装置と遊ぶことをリクエストする音声が前記音に含まれていないと判断した場合、前記装置が以降に寝ることを通知するための音声、又は、いびき音を示す音声を前記スピーカに出力させ、前記第3人物は、前記第1人物及び前記第2人物とは異なり、前記第3人物は、前記第1データにおいて前記対象人物として指定されておらず、
前記ディスプレイに、両目を閉じた表情を表示させる、
請求項記載の装置。
【請求項7】
前記所定のコンテンツは、前記第2人物によって実行することを許可されている、
請求項に記載の装置。
【請求項8】
ユーザと相互作用する装置であって、
前記装置周辺の映像を取得するカメラと、
前記装置周辺の音を取得するマイクと、
前記装置を駆動させる駆動機構と、
メモリと、
プロセッサと、
スピーカと、
ディスプレイと、を備え、
前記プロセッサは、
前記装置が実行する所定のコンテンツに応じて前記駆動機構が駆動し始めることを検知した場合、前記映像に第1人物が映っているか否か、又は、前記音に前記第1人物の音声が含まれているか否かを判断し、前記第1人物は、前記メモリに記憶された第1データに対象人物として指定され、前記第1データは、少なくとも、複数の人物の属性と、前記複数の人物が所定の対象人物であるか否かとを示し、前記所定の対象人物は、前記装置が接触する際に所定の注意を要する人物であり、
前記映像に前記第1人物が映っていると判断した場合、又は、前記音に前記第1人物の音声が含まれていると判断した場合、前記装置が移動中であるか否かを判断し、
前記装置が移動中であると判断した場合、前記駆動機構を制御して前記装置の移動を停止させ、
前記装置が移動を停止してから、前記映像に基づいて、前記第1人物までの距離を算出し、
前記距離が閾値未満である場合、前記映像に基づいて、前記第1人物が座っているか否かを判断し、
前記第1人物が座っていないと判断した場合、
(i)前記スピーカに前記第1人物に対して座ることを促す音声を出力させる処理と、
(ii)前記ディスプレイを下方に向けさせる処理と、
(iii)前記ディスプレイに、所定の表示をさせる処理と、前記ディスプレイは、前記装置の表情を目と口とによって表示し、前記所定の表示は悲しみの表情を示す、の少なくともいずれかを行う、
置。
【請求項9】
ユーザと相互作用する装置であって、
前記装置周辺の映像を取得するカメラと、
前記装置周辺の音を取得するマイクと、
前記装置を駆動させる駆動機構と、
メモリと、
プロセッサと、
スピーカと、を備え、
前記プロセッサは、
前記装置が実行する所定のコンテンツに応じて前記駆動機構が駆動し始めることを検知した場合、前記映像に第1人物が映っているか否か、又は、前記音に前記第1人物の音声が含まれているか否かを判断し、前記第1人物は、前記メモリに記憶された第1データに対象人物として指定され、前記第1データは、少なくとも、複数の人物の属性と、前記複数の人物が所定の対象人物であるか否かと、前記複数の人物の生年月日を示し、前記所定の対象人物は、前記装置が接触する際に所定の注意を要する人物であり、
前記映像に前記第1人物が映っていると判断した場合、又は、前記音に前記第1人物の音声が含まれていると判断した場合、前記装置が移動中であるか否かを判断し、
前記装置が移動中であると判断した場合、前記駆動機構を制御して前記装置の移動を停止させ、
前記映像に前記第1人物が映っていると判断した場合、前記第1データ及び前記メモリに記憶された第3データを参照して、前記第1人物が前記対象人物としての月齢に該当するか否かを判断し、前記第3データは、前記対象人物としての月齢範囲を示し、
前記第1人物が前記対象人物としての月齢に該当しないと判断した場合、前記スピーカを制御して、第2人物に対して前記第1人物を前記対象人物から外してもよいかを確認する音声を出力させ、前記第2人物は、前記第1データにおいて属性が前記第1人物の保護者として示されており、
前記映像又は前記音から、前記第2人物から前記第1人物を前記対象人物から外すことに対する肯定的反応を取得した場合、前記第1データにおいて前記第1人物に対する前記対象人物としての指定を解除する、
置。
【請求項10】
ユーザと相互作用する装置であって、
前記装置周辺の映像を取得するカメラと、
前記装置周辺の音を取得するマイクと、
前記装置を駆動させる駆動機構と、
メモリと、
プロセッサと、を備え、
前記プロセッサは、
前記装置が実行する所定のコンテンツに応じて前記駆動機構が駆動し始めることを検知した場合、前記映像に第1人物が映っているか否か、又は、前記音に前記第1人物の音声が含まれているか否かを判断し、前記第1人物は、前記メモリに記憶された第1データに対象人物として指定され、前記第1データは、少なくとも、複数の人物の属性と、前記複数の人物が所定の対象人物であるか否かと、前記複数の人物の生年月日を示し、前記所定の対象人物は、前記装置が接触する際に所定の注意を要する人物であり、
前記映像に前記第1人物が映っていると判断した場合、又は、前記音に前記第1人物の音声が含まれていると判断した場合、前記装置が移動中であるか否かを判断し、
前記装置が移動中であると判断した場合、前記駆動機構を制御して前記装置の移動を停止させ、
前記映像に前記第1人物が映っていると判断した場合、前記第1データ及び前記メモリに記憶された第3データを参照して、前記第1人物が前記対象人物としての月齢に該当するか否かを判断し、前記第3データは、前記対象人物としての月齢範囲を示し、
前記第1人物が前記対象人物としての月齢に該当しないと判断した場合、第2人物の端末に対して、前記第1人物を前記対象人物から外してもよいかを確認する通知を送信し、前記第2人物は、前記第1データにおいて属性が前記第1人物の保護者として示されており、
前記端末から、前記第1人物を前記対象人物から外すことに対する同意を示す通知を受信した場合、前記第1データにおいて前記第1人物に対する前記対象人物としての指定を解除する、
置。
【請求項11】
請求項1~10のいずれか1項に記載の装置はロボットであり、
球体の第1側部と前記第1側部に対向する第2側部とをカットしたメイン筐体と、
前記第1側部に対応する第1球冠部と、
前記第2側部に対応する第2球冠部と、
を備えるロボット。
【請求項12】
ユーザと相互作用する装置における方法であって、
前記装置が備えるプロセッサが、
前記装置が実行する所定のコンテンツに応じて前記装置を駆動させる駆動機構が駆動し始めることを検知した場合、カメラによって取得された前記装置周辺の映像に第1人物が映っているか否か、又は、マイクによって取得された前記装置周辺の音に前記第1人物の音声が含まれているか否かを判断し、前記第1人物は、メモリに記憶された第1データに対象人物として指定され、前記第1データは、少なくとも、複数の人物の属性と、前記複数の人物が所定の対象人物であるか否かとを示し、前記所定の対象人物は、前記装置が接触する際に所定の注意を要する人物であり、
前記映像に前記第1人物が映っていると判断した場合、又は、前記音に前記第1人物の音声が含まれていると判断した場合、前記装置が移動中であるか否かを判断し、
前記装置が移動中であると判断した場合、前記駆動機構を制御して前記装置の移動を停止させ、
前記装置が移動を停止してから、前記第1人物及び前記装置と一緒に遊ぶことを第2人物に対してリクエストする音声をスピーカに出力させ、前記第2人物は、前記第1データにおいて前記属性が前記第1人物の保護者として示されており、
前記映像又は前記音から、前記第2人物から一緒に遊ぶことに対する肯定的反応を取得した場合、前記メモリに記憶された第2データに基づいて、前記第1人物及び前記第2人物と一緒に遊ぶための第1コンテンツを選択し、前記第2データは、前記装置が前記ユーザと遊ぶためのコンテンツを示し、前記第1コンテンツは、前記装置の移動を伴うコンテンツと、前記装置の移動を伴わないコンテンツとを含み、
前記第1コンテンツに応じて、
(i)前記スピーカを制御して、前記第1コンテンツに対応した音声を出力させる処理と、
(ii)ディスプレイを制御して、前記第1コンテンツに対応した表示を出力させる処理と、前記ディスプレイは、前記装置の表情を両目と口とによって表示し、
(iii)前記駆動機構を制御して、前記第1コンテンツに対応した動作をさせる処理と、の少なくともいずれかを行う、
方法。
【請求項13】
ユーザと相互作用するためのプログラムであって、
前記ユーザと相互作用する装置が備えるプロセッサに、
前記装置が実行する所定のコンテンツに応じて前記装置を駆動させる駆動機構が駆動し始めることを検知した場合、カメラによって取得された前記装置周辺の映像に第1人物が映っているか否か、又は、マイクによって取得された前記装置周辺の音に前記第1人物の音声が含まれているか否かを判断し、前記第1人物は、メモリに記憶された第1データに対象人物として指定され、前記第1データは、少なくとも、複数の人物の属性と、前記複数の人物が所定の対象人物であるか否かとを示し、前記所定の対象人物は、前記装置が接触する際に所定の注意を要する人物であり、
前記映像に前記第1人物が映っていると判断した場合、又は、前記音に前記第1人物の音声が含まれていると判断した場合、前記装置が移動中であるか否かを判断し、
前記装置が移動中であると判断した場合、前記駆動機構を制御して前記装置の移動を停止させ、
前記装置が移動を停止してから、前記第1人物及び前記装置と一緒に遊ぶことを第2人物に対してリクエストする音声をスピーカに出力させ、前記第2人物は、前記第1データにおいて前記属性が前記第1人物の保護者として示されており、
前記映像又は前記音から、前記第2人物から一緒に遊ぶことに対する肯定的反応を取得した場合、前記メモリに記憶された第2データに基づいて、前記第1人物及び前記第2人物と一緒に遊ぶための第1コンテンツを選択し、前記第2データは、前記装置が前記ユーザと遊ぶためのコンテンツを示し、前記第1コンテンツは、前記装置の移動を伴うコンテンツと、前記装置の移動を伴わないコンテンツとを含み、
前記第1コンテンツに応じて、
(i)前記スピーカを制御して、前記第1コンテンツに対応した音声を出力させる処理と、
(ii)ディスプレイを制御して、前記第1コンテンツに対応した表示を出力させる処理と、前記ディスプレイは、前記装置の表情を両目と口とによって表示し、
(iii)前記駆動機構を制御して、前記第1コンテンツに対応した動作をさせる処理と、の少なくともいずれかを行う、
処理を実行させるプログラム。
【請求項14】
ユーザと相互作用する装置における方法であって、
前記装置が備えるプロセッサが、
前記装置が実行する所定のコンテンツに応じて前記装置を駆動させる駆動機構が駆動し始めることを検知した場合、カメラによって取得された前記装置周辺の映像に第1人物が映っているか否か、又は、マイクによって取得された前記装置周辺の音に前記第1人物の音声が含まれているか否かを判断し、前記第1人物は、メモリに記憶された第1データに対象人物として指定され、前記第1データは、少なくとも、複数の人物の属性と、前記複数の人物が所定の対象人物であるか否かとを示し、前記所定の対象人物は、前記装置が接触する際に所定の注意を要する人物であり、
前記映像に前記第1人物が映っていると判断した場合、又は、前記音に前記第1人物の音声が含まれていると判断した場合、前記装置が移動中であるか否かを判断し、
前記装置が移動中であると判断した場合、前記駆動機構を制御して前記装置の移動を停止させ、
前記装置が移動を停止してから、前記映像に基づいて、前記第1人物までの距離を算出し、
前記距離が閾値未満である場合、前記映像に基づいて、前記第1人物が座っているか否かを判断し、
前記第1人物が座っていないと判断した場合、
(i)スピーカに前記第1人物に対して座ることを促す音声を出力させる処理と、
(ii)ディスプレイを下方に向けさせる処理と、
(iii)前記ディスプレイに、所定の表示をさせる処理と、前記ディスプレイは、前記装置の表情を目と口とによって表示し、前記所定の表示は悲しみの表情を示す、の少なくともいずれかを行う、
方法。
【請求項15】
ユーザと相互作用するためのプログラムであって、
前記ユーザと相互作用する装置が備えるプロセッサに、
前記装置が実行する所定のコンテンツに応じて前記装置を駆動させる駆動機構が駆動し始めることを検知した場合、カメラによって取得された前記装置周辺の映像に第1人物が映っているか否か、又は、マイクによって取得された前記装置周辺の音に前記第1人物の音声が含まれているか否かを判断し、前記第1人物は、メモリに記憶された第1データに対象人物として指定され、前記第1データは、少なくとも、複数の人物の属性と、前記複数の人物が所定の対象人物であるか否かとを示し、前記所定の対象人物は、前記装置が接触する際に所定の注意を要する人物であり、
前記映像に前記第1人物が映っていると判断した場合、又は、前記音に前記第1人物の音声が含まれていると判断した場合、前記装置が移動中であるか否かを判断し、
前記装置が移動中であると判断した場合、前記駆動機構を制御して前記装置の移動を停止させ、
前記装置が移動を停止してから、前記映像に基づいて、前記第1人物までの距離を算出し、
前記距離が閾値未満である場合、前記映像に基づいて、前記第1人物が座っているか否かを判断し、
前記第1人物が座っていないと判断した場合、
(i)スピーカに前記第1人物に対して座ることを促す音声を出力させる処理と、
(ii)ディスプレイを下方に向けさせる処理と、
(iii)前記ディスプレイに、所定の表示をさせる処理と、前記ディスプレイは、前記装置の表情を目と口とによって表示し、前記所定の表示は悲しみの表情を示す、の少なくともいずれかを行う、
処理を実行させるプログラム。
【請求項16】
ユーザと相互作用する装置における方法であって、
前記装置が備えるプロセッサが、
前記装置が実行する所定のコンテンツに応じて前記装置を駆動させる駆動機構が駆動し始めることを検知した場合、カメラによって取得された前記装置周辺の映像に第1人物が映っているか否か、又は、マイクによって取得された前記装置周辺の音に前記第1人物の音声が含まれているか否かを判断し、前記第1人物は、メモリに記憶された第1データに対象人物として指定され、前記第1データは、少なくとも、複数の人物の属性と、前記複数の人物が所定の対象人物であるか否かと、前記複数の人物の生年月日とを示し、前記所定の対象人物は、前記装置が接触する際に所定の注意を要する人物であり、
前記映像に前記第1人物が映っていると判断した場合、又は、前記音に前記第1人物の音声が含まれていると判断した場合、前記装置が移動中であるか否かを判断し、
前記装置が移動中であると判断した場合、前記駆動機構を制御して前記装置の移動を停止させ、
前記映像に前記第1人物が映っていると判断した場合、前記第1データ及び前記メモリに記憶された第3データを参照して、前記第1人物が前記対象人物としての月齢に該当するか否かを判断し、前記第3データは、前記対象人物としての月齢範囲を示し、
前記第1人物が前記対象人物としての月齢に該当しないと判断した場合、スピーカを制御して、第2人物に対して前記第1人物を前記対象人物から外してもよいかを確認する音声を出力させ、前記第2人物は、前記第1データにおいて属性が前記第1人物の保護者として示されており、
前記映像又は前記音から、前記第2人物から前記第1人物を前記対象人物から外すことに対する肯定的反応を取得した場合、前記第1データにおいて前記第1人物に対する前記対象人物としての指定を解除する、
方法。
【請求項17】
ユーザと相互作用するためのプログラムであって、
前記ユーザと相互作用する装置が備えるプロセッサに、
前記装置が実行する所定のコンテンツに応じて前記装置を駆動させる駆動機構が駆動し始めることを検知した場合、カメラによって取得された前記装置周辺の映像に第1人物が映っているか否か、又は、マイクによって取得された前記装置周辺の音に前記第1人物の音声が含まれているか否かを判断し、前記第1人物は、メモリに記憶された第1データに対象人物として指定され、前記第1データは、少なくとも、複数の人物の属性と、前記複数の人物が所定の対象人物であるか否かと、前記複数の人物の生年月日とを示し、前記所定の対象人物は、前記装置が接触する際に所定の注意を要する人物であり、
前記映像に前記第1人物が映っていると判断した場合、又は、前記音に前記第1人物の音声が含まれていると判断した場合、前記装置が移動中であるか否かを判断し、
前記装置が移動中であると判断した場合、前記駆動機構を制御して前記装置の移動を停止させ、
前記映像に前記第1人物が映っていると判断した場合、前記第1データ及び前記メモリに記憶された第3データを参照して、前記第1人物が前記対象人物としての月齢に該当するか否かを判断し、前記第3データは、前記対象人物としての月齢範囲を示し、
前記第1人物が前記対象人物としての月齢に該当しないと判断した場合、スピーカを制御して、第2人物に対して前記第1人物を前記対象人物から外してもよいかを確認する音声を出力させ、前記第2人物は、前記第1データにおいて属性が前記第1人物の保護者として示されており、
前記映像又は前記音から、前記第2人物から前記第1人物を前記対象人物から外すことに対する肯定的反応を取得した場合、前記第1データにおいて前記第1人物に対する前記対象人物としての指定を解除する、
処理を実行させるプログラム。
【請求項18】
ユーザと相互作用する装置における方法であって、
前記装置が備えるプロセッサが、
前記装置が実行する所定のコンテンツに応じて前記装置を駆動させる駆動機構が駆動し始めることを検知した場合、カメラによって取得された前記装置周辺の映像に第1人物が映っているか否か、又は、マイクによって取得された前記装置周辺の音に前記第1人物の音声が含まれているか否かを判断し、前記第1人物は、メモリに記憶された第1データに対象人物として指定され、前記第1データは、少なくとも、複数の人物の属性と、前記複数の人物が所定の対象人物であるか否かと、前記複数の人物の生年月日とを示し、前記所定の対象人物は、前記装置が接触する際に所定の注意を要する人物であり、
前記映像に前記第1人物が映っていると判断した場合、又は、前記音に前記第1人物の音声が含まれていると判断した場合、前記装置が移動中であるか否かを判断し、
前記装置が移動中であると判断した場合、前記駆動機構を制御して前記装置の移動を停止させ、
前記映像に前記第1人物が映っていると判断した場合、前記第1データ及び前記メモリに記憶された第3データを参照して、前記第1人物が前記対象人物としての月齢に該当するか否かを判断し、前記第3データは、前記対象人物としての月齢範囲を示し、
前記第1人物が前記対象人物としての月齢に該当しないと判断した場合、第2人物の端末に対して、前記第1人物を前記対象人物から外してもよいかを確認する通知を送信し、前記第2人物は、前記第1データにおいて属性が前記第1人物の保護者として示されており、
前記端末から、前記第1人物を前記対象人物から外すことに対する同意を示す通知を受信した場合、前記第1データにおいて前記第1人物に対する前記対象人物としての指定を解除する、
方法。
【請求項19】
ユーザと相互作用するためのプログラムであって、
前記ユーザと相互作用する装置が備えるプロセッサに、
前記装置が実行する所定のコンテンツに応じて前記装置を駆動させる駆動機構が駆動し始めることを検知した場合、カメラによって取得された前記装置周辺の映像に第1人物が映っているか否か、又は、マイクによって取得された前記装置周辺の音に前記第1人物の音声が含まれているか否かを判断し、前記第1人物は、メモリに記憶された第1データに対象人物として指定され、前記第1データは、少なくとも、複数の人物の属性と、前記複数の人物が所定の対象人物であるか否かと、前記複数の人物の生年月日とを示し、前記所定の対象人物は、前記装置が接触する際に所定の注意を要する人物であり、
前記映像に前記第1人物が映っていると判断した場合、又は、前記音に前記第1人物の音声が含まれていると判断した場合、前記装置が移動中であるか否かを判断し、
前記装置が移動中であると判断した場合、前記駆動機構を制御して前記装置の移動を停止させ、
前記映像に前記第1人物が映っていると判断した場合、前記第1データ及び前記メモリに記憶された第3データを参照して、前記第1人物が前記対象人物としての月齢に該当するか否かを判断し、前記第3データは、前記対象人物としての月齢範囲を示し、
前記第1人物が前記対象人物としての月齢に該当しないと判断した場合、第2人物の端末に対して、前記第1人物を前記対象人物から外してもよいかを確認する通知を送信し、前記第2人物は、前記第1データにおいて属性が前記第1人物の保護者として示されており、
前記端末から、前記第1人物を前記対象人物から外すことに対する同意を示す通知を受信した場合、前記第1データにおいて前記第1人物に対する前記対象人物としての指定を解除する、
処理を実行させるプログラム。
【請求項20】
ユーザと相互作用する装置であって、
前記装置周辺の映像を取得するカメラと、
前記装置周辺の音を取得するマイクと、
前記装置を駆動させる駆動機構と、
メモリと、
プロセッサと、を備え、
前記プロセッサは、
前記装置が実行する前記ユーザと前記装置とが遊ぶ又は会話するための所定のコンテンツに応じて前記駆動機構が駆動し始めることを検知した場合、前記映像に第1人物が映っているか否か、又は、前記音に前記第1人物の音声が含まれているか否かを判断し、前記第1人物は、前記メモリに記憶された第1データに対象人物として指定され、前記第1データは、少なくとも、複数の人物の属性と、前記複数の人物が所定の対象人物であるか否かとを示し、前記所定の対象人物は、前記装置が接触する際に所定の注意を要する人物であり、
前記映像に前記第1人物が映っていると判断した場合、又は、前記音に前記第1人物の音声が含まれていると判断した場合、前記装置が移動中であるか否かを判断し、
前記装置が移動中であると判断した場合、前記駆動機構を制御して前記装置の移動を停止させる、
装置。
【請求項21】
ユーザと相互作用する装置における方法であって、
前記装置が備えるプロセッサが、
前記装置が実行する前記ユーザと前記装置とが遊ぶ又は会話するための所定のコンテンツに応じて前記装置を駆動させる駆動機構が駆動し始めることを検知した場合、カメラによって取得された前記装置周辺の映像に第1人物が映っているか否か、又は、マイクによって取得された前記装置周辺の音に前記第1人物の音声が含まれているか否かを判断し、前記第1人物は、メモリに記憶された第1データに対象人物として指定され、前記第1データは、少なくとも、複数の人物の属性と、前記複数の人物が所定の対象人物であるか否かとを示し、前記所定の対象人物は、前記装置が接触する際に所定の注意を要する人物であり、
前記映像に前記第1人物が映っていると判断した場合、又は、前記音に前記第1人物の音声が含まれていると判断した場合、前記装置が移動中であるか否かを判断し、
前記装置が移動中であると判断した場合、前記駆動機構を制御して前記装置の移動を停止させる、
方法。
【請求項22】
ユーザと相互作用するためのプログラムであって、
前記ユーザと相互作用する装置が備えるプロセッサに、
前記装置が実行する前記ユーザと前記装置とが遊ぶ又は会話するための所定のコンテンツに応じて前記装置を駆動させる駆動機構が駆動し始めることを検知した場合、カメラによって取得された前記装置周辺の映像に第1人物が映っているか否か、又は、マイクによって取得された前記装置周辺の音に前記第1人物の音声が含まれているか否かを判断し、前記第1人物は、メモリに記憶された第1データに対象人物として指定され、前記第1データは、少なくとも、複数の人物の属性と、前記複数の人物が所定の対象人物であるか否かとを示し、前記所定の対象人物は、前記装置が接触する際に所定の注意を要する人物であり、
前記映像に前記第1人物が映っていると判断した場合、又は、前記音に前記第1人物の音声が含まれていると判断した場合、前記装置が移動中であるか否かを判断し、
前記装置が移動中であると判断した場合、前記駆動機構を制御して前記装置の移動を停止させる、
処理を実行させるプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、ユーザと相互作用する装置、方法、プログラム及びロボットに関するものである。
【背景技術】
【0002】
従来から種々のロボットの安全を考慮した行動制御方法が提案されている。
【0003】
例えば、安全柵が不要なロボット装置がユーザとの接触事故を起こさないように安全対策を行いながら行動を制御する方法が特許文献1に開示されている。具体的には、特許文献1の制御装置は、ロボット装置に衝突しようとしている対象物を検出し、検出された対象物の運動状態を検出し、検出された対象物がロボット装置との衝突に関する反応行動特性を取得し、検出された対象物の運動状態及び対象物の反応行動特性に基づいて、ロボット装置と対象物との衝突の有無とロボット装置による衝突回避行動を判別し、判別された衝突回避行動に従ってロボット装置の動作を制御する。
【0004】
また、例えば、高齢者又は子供などの行動を予測することが難しいユーザの安全性を確保しながらロボットを制御する方法が特許文献2に開示される。具体的には、特許文献2の制御装置は、所定の制御パラメータに基づいて移動体の行動を制御し、対象物の特徴情報と対象物に関する危険情報とを対応付けて記憶しており、対象物の特徴情報を認識し、認識された対象物と移動体との距離を検出し、検出結果と対象物の特徴情報に対応する危険情報とから、制御パラメータを決定する。危険情報は、対象物の位置を中心として第1の閾値より小さい半径を有する領域を危険領域とし、対象物の位置を中心として第1の閾値以上第2の閾値以下の半径を有する領域を注意領域とする情報である。特許文献2によれば、高齢者又は子供などの行動予測が困難な人物と危険情報とを関連付けて記録しておくことにより、ロボットが行動する際の安全性を確保することが可能となる。
【先行技術文献】
【特許文献】
【0005】
【文献】特開2013-188815号公報
【文献】特開2011-200947号公報
【発明の概要】
【発明が解決しようとする課題】
【0006】
幼児向けのロボットが家庭で利用される場合、幼児の安全性を確保しながら、幼児又は幼児の家族とロボットとの関わりを増加させたいという要望がある。特に、歩行の発達段階にある月齢の幼児は転倒が多く、ロボットが幼児へ近づくことにより幼児を興奮させ、幼児の転倒リスクを高める可能性がある。
【0007】
しかしながら、上記従来の技術では、ロボットが接触する際に所定の注意を要する対象人物の安全性を確保しながら、対象人物とロボットとが相互作用することはなく、更なる改善が必要とされていた。
【0008】
本開示は、上記の問題を解決するためになされたもので、装置が接触する際に所定の注意を要する対象人物である第1人物の安全性を確保しながら、第1人物と装置とが相互作用することができる装置、方法、プログラム及びロボットを提供することを目的とするものである。
【課題を解決するための手段】
【0009】
本開示の一態様に係る装置は、ユーザと相互作用する装置であって、前記装置周辺の映像を取得するカメラと、前記装置周辺の音を取得するマイクと、前記装置を駆動させる駆動機構と、メモリと、プロセッサと、を備え、前記プロセッサは、前記装置が実行する所定のコンテンツに応じて前記駆動機構が駆動し始めることを検知した場合、前記映像に第1人物が映っているか否か、又は、前記音に前記第1人物の音声が含まれているか否かを判断し、前記第1人物は、前記メモリに記憶された第1データに対象人物として指定され、前記第1データは、少なくとも、複数の人物の属性と、前記複数の人物が所定の対象人物であるか否かとを示し、前記所定の対象人物は、前記装置が接触する際に所定の注意を要する人物であり、前記映像に前記第1人物が映っていると判断した場合、又は、前記音に前記第1人物の音声が含まれていると判断した場合、前記装置が移動中であるか否かを判断し、前記装置が移動中であると判断した場合、前記駆動機構を制御して前記装置の移動を停止させる。
【発明の効果】
【0010】
本開示によれば、装置が接触する際に所定の注意を要する対象人物である第1人物の安全性を確保しながら、第1人物と装置とが相互作用することができる。
【図面の簡単な説明】
【0011】
図1】本開示の実施の形態に係る相互作用装置の一例であるロボットの外観斜視図である。
図2】本開示の実施の形態に係る相互作用装置の一例であるロボットの内部斜視図である。
図3】本開示の実施の形態に係るロボットの構成を示すブロック図である。
図4】本開示の実施の形態における人物情報の一例を示す図である。
図5】本開示の実施の形態における対象者条件情報の一例を示す図である。
図6】乳幼児の運動機能通過率の一例を示す図である。
図7】本開示の実施の形態におけるコンテンツ管理情報の一例を示す図である。
図8】本開示の実施の形態に係るロボットにおける行動制御処理の一例を示す第1のフローチャートである。
図9】本開示の実施の形態に係るロボットにおける行動制御処理の一例を示す第2のフローチャートである。
図10図8のステップS9における対象者再確認処理について説明するためのフローチャートである。
図11】検出された人物を対象者から外すか否かを確認するための表示画面の一例を示す図である。
図12図9のステップS12における対象者行動促進処理について説明するためのフローチャートである。
図13図9のステップS18における継続確認処理について説明するためのフローチャートである。
図14図9のステップS21におけるコンテンツ選択処理について説明するためのフローチャートである。
【発明を実施するための形態】
【0012】
(本開示の基礎となった知見)
上記特許文献1では、ロボット装置が衝突しようとしている対象物の運動状態及び反応行動特性に基づいて、ロボット装置と対象物との衝突を回避するようにロボット装置の行動が制御されるが、ロボット装置が接触する際に所定の注意を要する対象人物の安全性を確保しながら、対象人物とロボット装置とが相互作用することはない。また、ロボット装置が共に行動する行動対象に基づき行動が制御されることはない。
【0013】
同様に、上記特許文献2では、対象物と危険領域とを対応付けておき、対象物に対応する危険領域に進入しないようにロボットの行動が制御されるが、ロボットが接触する際に所定の注意を要する対象人物の安全性を確保しながら、対象人物とロボットとが相互作用することはない。また、ロボットが共に行動する行動対象に基づき行動が制御されることはない。
【0014】
そのため、上記特許文献1及び上記特許文献2のいずれにおいても、ロボットが共に行動する行動対象の関係性に基づきロボットの行動を制御することは実現されておらず、例えば、幼児の親の意向を反映した上で、ロボットが幼児と安全に遊べるようにロボットの行動を制御することはできない。
【0015】
以上の課題を解決するために、本開示の一態様に係る装置は、ユーザと相互作用する装置であって、前記装置周辺の映像を取得するカメラと、前記装置周辺の音を取得するマイクと、前記装置を駆動させる駆動機構と、メモリと、プロセッサと、を備え、前記プロセッサは、前記装置が実行する所定のコンテンツに応じて前記駆動機構が駆動し始めることを検知した場合、前記映像に第1人物が映っているか否か、又は、前記音に前記第1人物の音声が含まれているか否かを判断し、前記第1人物は、前記メモリに記憶された第1データに対象人物として指定され、前記第1データは、少なくとも、複数の人物の属性と、前記複数の人物が所定の対象人物であるか否かとを示し、前記所定の対象人物は、前記装置が接触する際に所定の注意を要する人物であり、前記映像に前記第1人物が映っていると判断した場合、又は、前記音に前記第1人物の音声が含まれていると判断した場合、前記装置が移動中であるか否かを判断し、前記装置が移動中であると判断した場合、前記駆動機構を制御して前記装置の移動を停止させる。
【0016】
この構成によれば、装置が実行する所定のコンテンツに応じて駆動機構が駆動し始めることが検知された場合、カメラによって取得された装置周辺の映像に第1人物が映っているか否か、又は、マイクによって取得された装置周辺の音に第1人物の音声が含まれているか否かが判断される。第1人物は、メモリに記憶された第1データに対象人物として指定される。第1データは、少なくとも、複数の人物の属性と、複数の人物が所定の対象人物であるか否かとを示す。所定の対象人物は、装置が接触する際に所定の注意を要する人物である。映像に第1人物が映っていると判断された場合、又は、音に第1人物の音声が含まれていると判断された場合、装置が移動中であるか否かが判断される。装置が移動中であると判断された場合、駆動機構が制御されて装置の移動が停止される。
【0017】
したがって、装置が接触する際に所定の注意を要する対象人物である第1人物が装置周辺におり、装置が移動中である場合に、装置の移動が停止されるので、装置が接触する際に所定の注意を要する対象人物である第1人物の安全性を確保しながら、第1人物と装置とが相互作用することができる。
【0018】
また、上記の装置において、前記プロセッサは、前記所定のコンテンツに応じて前記駆動機構が駆動し始めることを検知した場合、前記駆動機構を制御して前記装置を自転させ、前記装置が自転している時に前記カメラに前記映像を取得させてもよい。
【0019】
この構成によれば、所定のコンテンツに応じて駆動機構が駆動し始めることが検知された場合、駆動機構が制御されて装置が自転し、装置が自転している時にカメラによって映像が取得される。したがって、装置が自転することにより、装置周辺の映像を取得することができる。
【0020】
また、上記の装置において、スピーカと、ディスプレイと、を更に備え、前記プロセッサは、前記装置が移動を停止してから、前記第1人物及び前記装置と一緒に遊ぶことを第2人物に対してリクエストする音声を前記スピーカに出力させ、前記第2人物は、前記第1データにおいて前記属性が前記第1人物の保護者として示されており、前記映像又は前記音から、前記第2人物から一緒に遊ぶことに対する肯定的反応を取得した場合、前記メモリに記憶された第2データに基づいて、前記第1人物及び前記第2人物と一緒に遊ぶための第1コンテンツを選択し、前記第2データは、前記装置が前記ユーザと遊ぶためのコンテンツを示し、前記第1コンテンツは、前記装置の移動を伴うコンテンツと、前記装置の移動を伴わないコンテンツとを含み、前記第1コンテンツに応じて、(i)前記スピーカを制御して、前記第1コンテンツに対応した音声を出力させる処理と、(ii)前記ディスプレイを制御して、前記第1コンテンツに対応した表示を出力させる処理と、前記ディスプレイは、前記装置の表情を両目と口とによって表示し、(iii)前記駆動機構を制御して、前記第1コンテンツに対応した動作をさせる処理と、の少なくともいずれかを行ってもよい。
【0021】
この構成によれば、装置が移動を停止してから、第1人物及び装置と一緒に遊ぶことを第2人物に対してリクエストする音声がスピーカによって出力される。第2人物は、第1データにおいて属性が前記第1人物の保護者として示されている。映像又は音から、第2人物から一緒に遊ぶことに対する肯定的反応が取得された場合、メモリに記憶された第2データに基づいて、第1人物及び第2人物と一緒に遊ぶための第1コンテンツが選択される。第2データは、装置がユーザと遊ぶためのコンテンツを示す。第1コンテンツは、装置の移動を伴うコンテンツと、装置の移動を伴わないコンテンツとを含む。第1コンテンツに応じて、(i)スピーカが制御されて、第1コンテンツに対応した音声を出力させる処理と、(ii)ディスプレイが制御されて、第1コンテンツに対応した表示を出力させる処理と、ディスプレイは、装置の表情を両目と口とによって表示し、(iii)駆動機構が制御されて、第1コンテンツに対応した動作をさせる処理と、の少なくともいずれかが行われる。
【0022】
したがって、装置が移動を停止してから、第1人物及び装置と一緒に遊ぶことが第1人物の保護者である第2人物によって肯定された場合、装置が第1人物及び第2人物と一緒に遊ぶための第1コンテンツが選択され、第1コンテンツに応じた音声処理、表示処理及び動作処理の少なくともいずれかが行われるので、第2人物の意向を反映した上で、第1人物が装置と関わる機会を増加させることができる。
【0023】
また、上記の装置において、前記プロセッサは、前記映像又は前記音から、前記第2人物から一緒に遊ぶことに対する肯定的反応を取得しなかった場合、前記第1人物又は第3人物の前記装置と遊ぶことをリクエストする音声が前記音に含まれているか否かを判断し、前記第3人物は、前記第1人物及び前記第2人物とは異なり、前記第3人物は、前記第1データにおいて前記対象人物として指定されておらず、前記第1人物又は前記第3人物の、前記装置と前記装置の移動を伴わない遊びをすることをリクエストする音声が前記音に含まれていると判断した場合、前記第2データに基づいて、前記第1人物及び前記第3人物と一緒に遊ぶための第2コンテンツを選択し、前記第2コンテンツは、前記装置の移動を伴わないコンテンツであり、前記第2コンテンツに応じて、(i)前記スピーカを制御して、前記第2コンテンツに対応した音声を出力させる処理と、(ii)前記ディスプレイを制御して、前記第2コンテンツに対応した表示を出力させる処理と、前記ディスプレイは、前記装置の表情を両目と口とによって表示し、(iii)前記駆動機構を制御して、前記第2コンテンツに対応した動作をさせる処理と、の少なくともいずれかを行ってもよい。
【0024】
この構成によれば、映像又は音から、第2人物から一緒に遊ぶことに対する肯定的反応が取得されなかった場合、第1人物又は第3人物の装置と遊ぶことをリクエストする音声が音に含まれているか否かが判断される。第3人物は、第1人物及び第2人物とは異なり、第1データにおいて対象人物として指定されていない人物である。第1人物又は第3人物の、装置と装置の移動を伴わない遊びをすることをリクエストする音声が音に含まれていると判断された場合、第2データに基づいて、第1人物及び第3人物と一緒に遊ぶための第2コンテンツが選択される。第2コンテンツは、装置の移動を伴わないコンテンツである。第2コンテンツに応じて、(i)スピーカが制御されて、第2コンテンツに対応した音声を出力させる処理と、(ii)ディスプレイが制御されて、第2コンテンツに対応した表示を出力させる処理と、ディスプレイは、装置の表情を両目と口とによって表示し、(iii)駆動機構が制御されて、第2コンテンツに対応した動作をさせる処理と、の少なくともいずれかが行われる。
【0025】
したがって、第1人物及び装置と一緒に遊ぶことが第1人物の保護者である第2人物によって肯定されなかった場合であっても、第1人物又は第1人物及び第2人物とは異なり対象人物ではない第3人物から、装置と装置の移動を伴わない遊びをすることがリクエストされた場合、装置の移動を伴わない遊びが行われるので、第1人物の安全性を確保しながら、第1人物が装置と関わる機会をさらに増加させることができる。
【0026】
また、上記の装置において、前記プロセッサは、前記映像又は前記音から、前記第2人物から一緒に遊ぶことに対する肯定的反応を取得しなかった場合、前記第1人物又は第3人物の前記装置と遊ぶことをリクエストする音声が前記音に含まれているか否かを判断し、前記第3人物は、前記第1人物及び前記第2人物とは異なり、前記第3人物は、前記第1データにおいて前記対象人物として指定されておらず、前記第1人物又は前記第3人物の前記装置と遊ぶことをリクエストする音声が前記音に含まれていないと判断した場合、前記装置が以降に寝ることを通知するための音声、又は、いびき音を示す音声を前記スピーカに出力させ、前記ディスプレイに、両目を閉じた表情を表示させてもよい。
【0027】
この構成によれば、映像又は音から、第2人物から一緒に遊ぶことに対する肯定的反応が取得されなかった場合、第1人物又は第3人物の装置と遊ぶことをリクエストする音声が音に含まれているか否かが判断される。第3人物は、第1人物及び第2人物とは異なり、第1データにおいて対象人物として指定されていない人物である。第1人物又は第3人物の装置と遊ぶことをリクエストする音声が音に含まれていないと判断された場合、装置が以降に寝ることを通知するための音声、又は、いびき音を示す音声がスピーカによって出力され、ディスプレイによって、両目を閉じた表情が表示される。
【0028】
したがって、第1人物及び装置と一緒に遊ぶことが第1人物の保護者である第2人物によって肯定されず、第1人物又は第1人物及び第2人物とは異なり対象人物ではない第3人物から装置と遊ぶことがリクエストされなかった場合、装置が以降に寝ることを通知するための音声、又は、いびき音を示す音声がスピーカによって出力され、ディスプレイによって、両目を閉じた表情が表示されるので、第1人物の安全を優先し、第1人物から装置への積極的な関わりを避けることができる。
【0029】
また、上記の装置において、前記プロセッサは、前記選択した第1コンテンツに応じて前記(i)、前記(ii)及び前記(iii)の少なくともいずれかの処理を行ってから、前記映像に基づいて、前記第1人物と前記第2人物との距離を算出し、前記距離が閾値未満ではない場合、前記第1人物及び前記装置と一緒に遊ぶことができるか否かを前記第2人物に対して確認する音声を前記スピーカに出力させ、前記映像又は前記音から、前記第2人物から一緒に遊ぶことに対する肯定的反応を取得せず、且つ、前記第1人物又は第3人物の、前記装置と前記装置の移動を伴わない遊びをすることをリクエストする音声が前記音に含まれていると判断した場合、前記第2データに基づいて、前記第1人物及び前記第3人物と一緒に遊ぶための第2コンテンツを選択し、前記第3人物は、前記第1人物及び前記第2人物とは異なり、前記第3人物は、前記第1データにおいて前記対象人物として指定されておらず、前記第2コンテンツは、前記装置の移動を伴わないコンテンツであり、前記第2コンテンツに応じて、(i)前記スピーカを制御して、前記第2コンテンツに対応した音声を出力させる処理と、(ii)前記ディスプレイを制御して、前記第2コンテンツに対応した表示を出力させる処理と、前記ディスプレイは、前記装置の表情を両目と口とによって表示し、(iii)前記駆動機構を制御して、前記第2コンテンツに対応した動作をさせる処理と、の少なくともいずれかを行ってもよい。
【0030】
この構成によれば、選択された第1コンテンツに応じて(i)、(ii)及び(iii)の少なくともいずれかの処理が行われてから、映像に基づいて、第1人物と第2人物との距離が算出される。距離が閾値未満ではない場合、第1人物及び装置と一緒に遊ぶことができるか否かを第2人物に対して確認する音声がスピーカによって出力される。映像又は音から、第2人物から一緒に遊ぶことに対する肯定的反応が取得されず、且つ、第1人物又は第3人物の、装置と装置の移動を伴わない遊びをすることをリクエストする音声が音に含まれていると判断された場合、第2データに基づいて、第1人物及び第3人物と一緒に遊ぶための第2コンテンツが選択される。第3人物は、第1人物及び第2人物とは異なり、第1データにおいて対象人物として指定されていない人物である。第2コンテンツは、装置の移動を伴わないコンテンツである。第2コンテンツに応じて、(i)スピーカが制御されて、第2コンテンツに対応した音声を出力させる処理と、(ii)ディスプレイが制御されて、第2コンテンツに対応した表示を出力させる処理と、ディスプレイは、装置の表情を両目と口とによって表示し、(iii)駆動機構が制御されて、第2コンテンツに対応した動作をさせる処理と、の少なくともいずれかが行われる。
【0031】
したがって、第1人物と第1人物の保護者である第2人物との距離が閾値以上離れた場合、第1人物及び装置と一緒に遊ぶことができるか否かが第2人物に対して確認され、第2人物から一緒に遊ぶことに対する肯定的反応が取得されず、且つ、第1人物又は第1人物及び第2人物とは異なり対象人物ではない第3人物から、装置と装置の移動を伴わない遊びをすることがリクエストされた場合、装置の移動を伴わない遊びが行われるので、第2人物が第1人物から離れたとしても、第1人物の安全性を確保しながら、第1人物が装置と関わる機会をさらに増加させることができる。
【0032】
また、上記の装置において、前記プロセッサは、前記選択した第1コンテンツに応じて前記(i)、前記(ii)及び前記(iii)の少なくともいずれかの処理を行ってから、前記映像に基づいて、前記第1人物と前記第2人物との距離を算出し、前記距離が閾値未満ではない場合、前記第1人物及び前記装置と一緒に遊ぶことができるか否かを前記第2人物に対して確認する音声を前記スピーカに出力させ、前記映像又は前記音から、前記第2人物から一緒に遊ぶことに対する肯定的反応を取得せず、且つ、前記第1人物又は第3人物の前記装置と遊ぶことをリクエストする音声が前記音に含まれていないと判断した場合、前記装置が以降に寝ることを通知するための音声、又は、いびき音を示す音声を前記スピーカに出力させ、前記第3人物は、前記第1人物及び前記第2人物とは異なり、前記第3人物は、前記第1データにおいて前記対象人物として指定されておらず、前記ディスプレイに、両目を閉じた表情を表示させてもよい。
【0033】
この構成によれば、選択された第1コンテンツに応じて(i)、(ii)及び(iii)の少なくともいずれかの処理が行われてから、映像に基づいて、第1人物と第2人物との距離が算出される。距離が閾値未満ではない場合、第1人物及び装置と一緒に遊ぶことができるか否かを第2人物に対して確認する音声がスピーカによって出力される。映像又は音から、第2人物から一緒に遊ぶことに対する肯定的反応が取得されず、且つ、第1人物又は第3人物の装置と遊ぶことをリクエストする音声が音に含まれていないと判断された場合、装置が以降に寝ることを通知するための音声、又は、いびき音を示す音声がスピーカによって出力される。第3人物は、第1人物及び第2人物とは異なり、第1データにおいて対象人物として指定されていない人物である。ディスプレイによって、両目を閉じた表情が表示される。
【0034】
したがって、第1人物と第1人物の保護者である第2人物との距離が閾値以上離れた場合、第1人物及び装置と一緒に遊ぶことができるか否かが第2人物に対して確認され、第2人物から一緒に遊ぶことに対する肯定的反応が取得されず、且つ、第1人物又は第1人物及び第2人物とは異なり対象人物ではない第3人物から、装置と遊ぶことがリクエストされない場合、装置が以降に寝ることを通知するための音声、又は、いびき音を示す音声がスピーカによって出力され、ディスプレイによって、両目を閉じた表情が表示されるので、第2人物が第1人物から離れた場合に、第1人物の安全を優先し、第1人物から装置への積極的な関わりを避けることができる。
【0035】
また、上記の装置において、前記所定のコンテンツは、前記第2人物によって実行することを許可されていてもよい。
【0036】
この構成によれば、第1人物の保護者である第2人物によって許可された所定のコンテンツが実行されるので、第1人物の安全性をより高めることができる。
【0037】
また、上記の装置において、スピーカと、ディスプレイと、を更に備え、前記プロセッサは、前記装置が移動を停止してから、前記映像に基づいて、前記第1人物までの距離を算出し、前記距離が閾値未満である場合、前記映像に基づいて、前記第1人物が座っているか否かを判断し、前記第1人物が座っていないと判断した場合、(i)前記スピーカに前記第1人物に対して座ることを促す音声を出力させる処理と、(ii)前記ディスプレイを下方に向けさせる処理と、(iii)前記ディスプレイに、所定の表示をさせる処理と、前記ディスプレイは、前記装置の表情を目と口とによって表示し、前記所定の表示は悲しみの表情を示す、の少なくともいずれかを行ってもよい。
【0038】
この構成によれば、装置が移動を停止してから、映像に基づいて、第1人物までの距離が算出される。距離が閾値未満である場合、映像に基づいて、第1人物が座っているか否かが判断される。第1人物が座っていないと判断された場合、(i)スピーカに第1人物に対して座ることを促す音声を出力させる処理と、(ii)ディスプレイを下方に向けさせる処理と、(iii)ディスプレイに、所定の表示をさせる処理と、の少なくともいずれかが行われる。ディスプレイは、装置の表情を目と口とによって表示する。所定の表示は悲しみの表情を示す。
【0039】
したがって、第1人物までの距離が閾値未満であり、第1人物が座っていない場合、第1人物に対して座ることを促すので、第1人物の安全性をより高めることができる。
【0040】
また、上記の装置において、スピーカを更に備え、前記第1データは、更に、前記複数の人物の生年月日を示し、前記プロセッサは、前記映像に前記第1人物が映っていると判断した場合、前記第1データ及び前記メモリに記憶された第3データを参照して、前記第1人物が前記対象人物としての月齢に該当するか否かを判断し、前記第3データは、前記対象人物としての月齢範囲を示し、前記第1人物が前記対象人物としての月齢に該当しないと判断した場合、前記スピーカを制御して、第2人物に対して前記第1人物を前記対象人物から外してもよいかを確認する音声を出力させ、前記第2人物は、前記第1データにおいて属性が前記第1人物の保護者として示されており、前記映像又は前記音から、前記第2人物から前記第1人物を前記対象人物から外すことに対する肯定的反応を取得した場合、前記第1データにおいて前記第1人物に対する前記対象人物としての指定を解除してもよい。
【0041】
この構成によれば、第1データは、更に、複数の人物の生年月日を示す。映像に第1人物が映っていると判断された場合、第1データ及びメモリに記憶された第3データが参照されて、第1人物が対象人物としての月齢に該当するか否かが判断される。第3データは、対象人物としての月齢範囲を示す。第1人物が対象人物としての月齢に該当しないと判断された場合、スピーカが制御されて、第2人物に対して第1人物を対象人物から外してもよいかを確認する音声が出力される。第2人物は、第1データにおいて属性が第1人物の保護者として示されている。映像又は音から、第2人物から第1人物を対象人物から外すことに対する肯定的反応が取得された場合、第1データにおいて第1人物に対する対象人物としての指定が解除される。
【0042】
したがって、第1人物が対象人物としての月齢に該当しなくなった場合、第1人物の保護者である第2人物に対して第1人物を対象人物から外してもよいかが確認されるので、実際の第1人物の成長に応じて、第1人物を対象人物から外すか否かを判断することができる。
【0043】
また、上記の装置において、前記第1データは、更に、前記複数の人物の生年月日を示し、前記プロセッサは、前記映像に前記第1人物が映っていると判断した場合、前記第1データ及び前記メモリに記憶された第3データを参照して、前記第1人物が前記対象人物としての月齢に該当するか否かを判断し、前記第3データは、前記対象人物としての月齢範囲を示し、前記第1人物が前記対象人物としての月齢に該当しないと判断した場合、第2人物の端末に対して、前記第1人物を前記対象人物から外してもよいかを確認する通知を送信し、前記第2人物は、前記第1データにおいて属性が前記第1人物の保護者として示されており、前記端末から、前記第1人物を前記対象人物から外すことに対する同意を示す通知を受信した場合、前記第1データにおいて前記第1人物に対する前記対象人物としての指定を解除してもよい。
【0044】
この構成によれば、第1データは、更に、複数の人物の生年月日を示す。映像に第1人物が映っていると判断された場合、第1データ及びメモリに記憶された第3データが参照されて、第1人物が対象人物としての月齢に該当するか否かが判断される。第3データは、対象人物としての月齢範囲を示す。第1人物が対象人物としての月齢に該当しないと判断された場合、第2人物の端末に対して、第1人物を対象人物から外してもよいかを確認する通知が送信される。第2人物は、第1データにおいて属性が第1人物の保護者として示されている。端末から、第1人物を対象人物から外すことに対する同意を示す通知が受信された場合、第1データにおいて第1人物に対する対象人物としての指定が解除される。
【0045】
したがって、第1人物が対象人物としての月齢に該当しなくなった場合、第1人物の保護者である第2人物に対して第1人物を対象人物から外してもよいかが確認されるので、実際の第1人物の成長に応じて、第1人物を対象人物から外すか否かを判断することができる。また、装置は第1人物を対象人物から外すか否かの確認を第2人物のみへ通知することができ、第1人物自身に知られずに設定を変更することができる。
【0046】
本開示の他の態様に係るロボットは、球体の第1側部と前記第1側部に対向する第2側部とをカットしたメイン筐体と、前記第1側部に対応する第1球冠部と、前記第2側部に対応する第2球冠部と、を備え、上記の装置はロボットである。この構成によれば、上記の装置をロボットに適用することができる。
【0047】
本開示の他の態様に係る方法は、ユーザと相互作用する装置における方法であって、前記装置が備えるプロセッサが、前記装置が実行する所定のコンテンツに応じて前記装置を駆動させる駆動機構が駆動し始めることを検知した場合、カメラによって取得された前記装置周辺の映像に第1人物が映っているか否か、又は、マイクによって取得された前記装置周辺の音に前記第1人物の音声が含まれているか否かを判断し、前記第1人物は、メモリに記憶された第1データに対象人物として指定され、前記第1データは、少なくとも、複数の人物の属性と、前記複数の人物が所定の対象人物であるか否かとを示し、前記所定の対象人物は、前記装置が接触する際に所定の注意を要する人物であり、前記映像に前記第1人物が映っていると判断した場合、又は、前記音に前記第1人物の音声が含まれていると判断した場合、前記装置が移動中であるか否かを判断し、前記装置が移動中であると判断した場合、前記駆動機構を制御して前記装置の移動を停止させる。
【0048】
この構成によれば、装置が実行する所定のコンテンツに応じて駆動機構が駆動し始めることが検知された場合、カメラによって取得された装置周辺の映像に第1人物が映っているか否か、又は、マイクによって取得された装置周辺の音に第1人物の音声が含まれているか否かが判断される。第1人物は、メモリに記憶された第1データに対象人物として指定される。第1データは、少なくとも、複数の人物の属性と、複数の人物が所定の対象人物であるか否かとを示す。所定の対象人物は、装置が接触する際に所定の注意を要する人物である。映像に第1人物が映っていると判断された場合、又は、音に第1人物の音声が含まれていると判断された場合、装置が移動中であるか否かが判断される。装置が移動中であると判断された場合、駆動機構が制御されて装置の移動が停止される。
【0049】
したがって、装置が接触する際に所定の注意を要する対象人物である第1人物が装置周辺におり、装置が移動中である場合に、装置の移動が停止されるので、装置が接触する際に所定の注意を要する対象人物である第1人物の安全性を確保しながら、第1人物と装置とが相互作用することができる。
【0050】
本開示の他の態様に係るプログラムは、ユーザと相互作用するためのプログラムであって、前記ユーザと相互作用する装置が備えるプロセッサに、前記装置が実行する所定のコンテンツに応じて前記装置を駆動させる駆動機構が駆動し始めることを検知した場合、カメラによって取得された前記装置周辺の映像に第1人物が映っているか否か、又は、マイクによって取得された前記装置周辺の音に前記第1人物の音声が含まれているか否かを判断し、前記第1人物は、メモリに記憶された第1データに対象人物として指定され、前記第1データは、少なくとも、複数の人物の属性と、前記複数の人物が所定の対象人物であるか否かとを示し、前記所定の対象人物は、前記装置が接触する際に所定の注意を要する人物であり、前記映像に前記第1人物が映っていると判断した場合、又は、前記音に前記第1人物の音声が含まれていると判断した場合、前記装置が移動中であるか否かを判断し、前記装置が移動中であると判断した場合、前記駆動機構を制御して前記装置の移動を停止させる、処理を実行させる。
【0051】
この構成によれば、装置が実行する所定のコンテンツに応じて駆動機構が駆動し始めることが検知された場合、カメラによって取得された装置周辺の映像に第1人物が映っているか否か、又は、マイクによって取得された装置周辺の音に第1人物の音声が含まれているか否かが判断される。第1人物は、メモリに記憶された第1データに対象人物として指定される。第1データは、少なくとも、複数の人物の属性と、複数の人物が所定の対象人物であるか否かとを示す。所定の対象人物は、装置が接触する際に所定の注意を要する人物である。映像に第1人物が映っていると判断された場合、又は、音に第1人物の音声が含まれていると判断された場合、装置が移動中であるか否かが判断される。装置が移動中であると判断された場合、駆動機構が制御されて装置の移動が停止される。
【0052】
したがって、装置が接触する際に所定の注意を要する対象人物である第1人物が装置周辺におり、装置が移動中である場合に、装置の移動が停止されるので、装置が接触する際に所定の注意を要する対象人物である第1人物の安全性を確保しながら、第1人物と装置とが相互作用することができる。
【0053】
(実施の形態)
以下、本開示の実施の形態について、図面を参照しながら説明する。なお、各図面において、同じ構成要素については同じ符号を用いている。以下で説明する実施の形態は、いずれも本開示の一具体例を示すものである。以下の実施の形態で示される数値、形状、構成要素、ステップ、ステップの順序などは、一例であり、本開示を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。全ての実施の形態において、各々の内容を組み合わせることもできる。
【0054】
まず、図1及び図2を参照しつつ、本開示の実施の形態に係るロボットの外観の詳細について説明する。
【0055】
図1は、本開示の実施の形態に係る相互作用装置の一例であるロボットの外観斜視図であり、図2は、本開示の実施の形態に係る相互作用装置の一例であるロボットの内部斜視図である。
【0056】
ロボット1(相互作用装置)は、図1に示すように、球体状のメイン筐体121と、第1球冠部122及び第2球冠部123と、を備える。メイン筐体121、第1球冠部122及び第2球冠部123は全体として球体を構成する。即ち、ロボット1は、球体形状を有する。ロボット1は、所定の空間を二次元的に移動しながらユーザと相互作用する。第1球冠部122及び第2球冠部123はメイン筐体121に設けられたシャフト(図示せず)によって連結されている。一方、シャフトとメイン筐体121とは固定されていない。従って、シャフトを回転させることによって、第1球冠部122及び第2球冠部123が回転し、ロボット1が前進・後進する。
【0057】
また、ロボット1は、図1に示すように、メイン筐体121にスピーカ113を備え、第1球冠部122にカメラ101とマイク103とを備える。スピーカ113は、ロボット1の音声を出力する。カメラ101は、ロボット1の周辺環境の映像を取得する。マイク103は、ロボット1の周辺環境の音声を取得する。なお、本態様では、ロボット1は、メイン筐体121にスピーカ113を備えるが、これに限らず、メイン筐体121、第1球冠部122及び第2球冠部123のいずれかにスピーカ113を備えればよい。本態様では、ロボット1は、第1球冠部122にカメラ101を備えるが、これに限らず、第1球冠部122及び第2球冠部123の少なくともいずれか一方にカメラ101を備えればよいが、カメラ101の配置場所・個数を調整することにより、ロボット1周囲360度の映像を取得することが可能になる。本態様では、ロボット1は、第1球冠部122にマイク103を備えるが、これに限らず、メイン筐体121、第1球冠部122及び第2球冠部123のいずれかにマイク103を備えればよい。
【0058】
図2に示すように、ロボット1は、メイン筐体121の内部に、第1表示部111a、第2表示部111b及び第3表示部111cを備える。第1表示部111a、第2表示部111b及び第3表示部111cは、固定板金125に備え付けられている。固定板金125は、アーム126を介してシャフトに取り付けられている。第1表示部111a、第2表示部111b及び第3表示部111cは、例えば、複数の発光ダイオードにより構成される。第1表示部111a、第2表示部111b及び第3表示部111cは、ロボット1の表情を表示する。具体的には、第1表示部111a、第2表示部111b及び第3表示部111cは、複数の発光ダイオードの点灯を個別に制御することにより、図1に示すようにロボット1の顔の一部、例えば、目や口を表示する。図1及び図2の例では、第1表示部111aが右目の画像を表示し、第2表示部111bが左目の画像を表示し、第3表示部111cが口の画像を表示している。そして、右目、左目及び口の画像は、透明又は半透明の部材からなるメイン筐体121を通過し、外部に放射されている。
【0059】
図2に示すように、ロボット1は、メイン筐体121の内部の下方に重り127を備える。このため、ロボット1の重心は、メイン筐体121の中心から下方に位置する。これにより、ロボット1の動作を安定させることができる。
【0060】
次に、図3を参照しつつ、本開示の実施の形態に係るロボット1の内部回路の詳細について説明する。図3は、本開示の実施の形態に係るロボットの構成を示すブロック図である。
【0061】
図3に示すように、ロボット1は、プロセッサ100、カメラ101、マイク103、センサ105、メモリ110、表示部111、スピーカ113及び駆動機構115を備える。プロセッサ100は、人物認識処理部102、音声認識処理部104、操作認識処理部106、主制御部107、人物管理部108、コンテンツ情報管理部109、表示情報出力制御部112、音声情報出力制御部114及び駆動機構制御部116を備える。メモリ110は、例えば不揮発性の半導体メモリであり、人物情報1101、対象者条件情報1102、コンテンツ管理情報1103を記憶する。
【0062】
カメラ101は、ロボット1の周辺環境の映像を取得する。マイク103は、ロボット1の周辺環境の音声を取得する。センサ105は、例えば、照度センサ、ジャイロセンサ、加速度センサ、地磁気センサ、感圧センサ、近接センサ、指紋認証センサ及び静脈認証センサなどにより構成される。センサ105は、ロボット1に対するユーザの操作情報を取得する。
【0063】
人物認識処理部102は、カメラ101によって取得された映像から、ユーザの有無、位置、大きさ、姿勢、表情の種類、顔の向き及び属性情報を認識し、人物認識結果を管理する。ユーザの姿勢は、例えば、ユーザが座っているか又は立っているかなどを表す。表情の種類は、例えば、笑った顔又は驚いた顔などの肯定的表現の表情であるか、悲しい顔又は嫌がっている顔などの否定的表現の表情であるかなどを表す。属性情報は、例えば、ユーザを識別するための人物ID、年代又は性別などを表す。
【0064】
音声認識処理部104は、マイク103によって取得された音声から、ユーザの音声の有無、音声の種類及び属性情報を認識し、音声認識結果を管理する。音声の種類は、例えば、発話に含まれるコンテンツを識別するためのコンテンツID、「好き」又は「もっと遊ぼう」などの肯定的表現の音声であるか、「嫌い」又は「あっちに行って」などの否定的表現の音声であるかを表す。属性情報は、例えば、ユーザを識別するための人物ID、年代又は性別などを表す。
【0065】
操作認識処理部106は、センサ105によって取得された情報から、ユーザまでの距離、操作の種類及び属性情報を認識し、操作認識結果を管理する。操作の種類は、例えば、「触れる」又は「撫でる」などの肯定的表現の操作であるか、「叩く」又は「弾く」などの否定的表現の操作であるかなどを表す。属性情報は、例えば、ユーザを識別するための人物ID又は年代などを表す。
【0066】
なお、ここでは、操作認識処理部106がユーザまでの距離を認識しているが、人物認識処理部102がユーザまでの距離を認識してもよい。また、人物認識処理部102は、カメラ101によって取得された映像に基づいて、幼児と親との距離を算出してもよい。
【0067】
人物情報1101は、ロボット1を利用する人物に関する情報が登録されたデータベースである。
【0068】
図4は、本開示の実施の形態における人物情報の一例を示す図である。図4に示す人物情報1101は、人物ID(列201)、名前(列202)、属性(列203)、愛称(列204)、生年月日(列205)及び対象者フラグ(列206)を含む。メモリ110は、人物ID、名前、属性、愛称、生年月日及び対象者フラグを対応付けた人物情報1101を記憶する。人物情報1101(第1データ)は、少なくとも、複数の人物の属性と、複数の人物が所定の対象人物であるか否かとを示す。所定の対象人物は、ロボット1が接触する際に所定の注意を要する人物である。また、人物情報1101は、更に、複数の人物の生年月日を示す。
【0069】
人物ID(列201)は、人物を一意に特定するIDである。名前(列202)、愛称(列204)及び生年月日(列205)は、ロボット1を利用する人物の名前、愛称及び生年月日を表している。属性(列203)は、例えば、「親」及び「子」等の情報を含み、ロボット1を利用する人物の関係性を表している。
【0070】
人物情報1101は、図示していないロボット1と連携したスマートフォン上のアプリケーションから設定されてもよいし、ロボット1を初めて起動する際に、ロボット1がユーザへ話しかけて、作成されてもよい。また、人物情報1101は、ネットワークを介して接続される別の装置又はサーバ上等で随時更新されてもよい。対象者フラグ(列206)は、人物が注意を必要とする対象者であるか否かを示す情報である。例えば、注意を必要とする対象者ではない人物に対応する対象者フラグには「0」が設定され、注意を必要とする対象者である人物に対応する対象者フラグには「1」が設定される。
【0071】
なお、本実施の形態において、人物情報1101は、図4に示すこれらの項目に限定されるものではなく、他の項目をさらに含んでもよく、これらの項目の一部のみを含んでもよい。
【0072】
対象者条件情報1102は、注意を必要とする対象者の条件を示したデータベースである。対象者条件情報1102(第3データ)は、対象人物としての月齢範囲を示す。
【0073】
図5は、本開示の実施の形態における対象者条件情報の一例を示す図である。図5に示す対象者条件情報1102は、条件ID(列301)、条件(列302)及び月齢(列303)を含む。メモリ110は、条件ID、条件及び月齢を対応付けた対象者条件情報1102を記憶する。条件ID(列301)は、条件を一意に特定するIDである。条件(列302)は、注意を必要とする対象者の条件を示す。月齢(列303)は、条件(列302)の対象となる月齢を示す。
【0074】
図6は、乳幼児の運動機能通過率の一例を示す図である。図6は、厚生労働省が実施した平成22年の乳幼児身体発育調査(http://www.mhlw.go.jp/toukei/list/dl/73-22-01.pdf)における乳幼児の運動機能通過率を示している。図6では、各運動機能が可能である乳幼児の割合を示している。例えば、月齢が5~6か月である乳児がつかまり立ちできる割合は0.5%であり、月齢が1年2~3か月である乳児がつかまり立ちできる割合は99.5%である。
【0075】
図5に示す対象者条件情報1102は、図6に示すデータに基づき、注意が必要な条件と月齢とを設定することができる。例えば、図5の対象者条件情報1102において、行310の「つかまり立ち」の条件の対象となる月齢は「5か月~1年3か月」であり、行320の「ひとり歩き」の条件の対象となる月齢は「8か月~1年5か月」である。「つかまり立ち」及び「ひとり歩き」の両条件の最も小さい月齢と最も大きい月齢とが考慮され、「5か月~1年5か月」の月齢の人物が、注意を必要とする対象者となる。
【0076】
なお、本実施の形態では、「つかまり立ち」又は「ひとり歩き」に着目したデータベースを一例として示したが、幼児の発達段階は、「首のすわり」、「寝返り」、「ひとりすわり」及び「はいはい」等様々な段階が存在するため、別の発達段階に着目し、注意を必要とする対象者を判断する指標としてもよい。また、月齢は、幼児の歩行が上達するための猶予期間を考慮して、設定されてもよい。また、注意を必要とする対象者として高齢者も考慮する場合は、骨密度が下がる年齢又は高齢者が転倒すると寝たきりになりやすい年齢等、身体の衰えとその現象が発生しやすい年齢等を条件として追加してもよい。また、対象者条件情報1102は、ネットワークを介して接続される別の装置又はサーバ上に記憶されており、所定のタイミングで更新されてもよい。
【0077】
コンテンツ管理情報1103は、ロボット1が提供する遊び又は会話のコンテンツの一覧を示したデータベースである。コンテンツ管理情報1103は、ロボット1がユーザと遊ぶためのコンテンツを示す。
【0078】
図7は、本開示の実施の形態におけるコンテンツ管理情報の一例を示す図である。図7に示すコンテンツ管理情報1103は、コンテンツID(列501)、コンテンツ名(列502)、移動有無フラグ(列503)、実施中フラグ(列504)及び許可フラグ(列505)を含む。メモリ110は、コンテンツID、コンテンツ名、移動有無フラグ、実施中フラグ及び許可フラグを対応付けたコンテンツ管理情報1103を記憶する。
【0079】
コンテンツID(列501)は、ロボット1がユーザと遊ぶ又はロボット1がユーザと会話するためのコンテンツを識別するためのIDを示す。コンテンツ名(列502)は、コンテンツの名前を示す。移動有無フラグ(列503)は、コンテンツが移動を必要としているか否かを示すフラグである。実施中フラグ(列504)は、コンテンツが実施されている間セットされ、コンテンツが現在実施中であることを示すフラグである。また、実施中のコンテンツの移動有無フラグが「有」の場合は、許可フラグ(列505)が設定される。許可フラグは、対象者である幼児の保護者によりコンテンツの実施が許可されているか否かを示すフラグである。一例として、許可フラグは、保護者による許可がある場合に「1」が設定され、注意を必要とする対象者がいない場合に「0」が設定される。
【0080】
なお、本実施の形態において、コンテンツ管理情報1103は、図7で説明した項目に限定されるものではなく、例えばコンテンツの対象年齢、コンテンツの実施回数のような利用頻度が分かる情報、又はコンテンツ実施中のユーザの反応等、コンテンツに関わる別の項目をさらに含んでもよい。なお、コンテンツ管理情報1103は、メモリ110に予め記憶されていてもよいし、ネットワークを介して接続される別の装置又はサーバ上に記憶されており、所定のタイミングで更新されてもよい。
【0081】
人物管理部108は、メモリ110に保存された人物情報1101と対象者条件情報1102とを管理し、主制御部107からの指示に従い、適切な情報を主制御部107へ出力する。例えば、人物管理部108は、人物情報1101を参照し、対象者が存在するか否か、又は指定された属性に一致する人物ID又は愛称等を主制御部107へ出力する。また、人物管理部108は、主制御部107から指定された人物が対象者であるか否かを判断する。人物管理部108は、人物情報1101の対象者フラグ(列206)を参照することで、指定された人物が対象者であるか否かを判断する。
【0082】
また、人物管理部108は、主制御部107に指定された人物が現時点でも対象者であるか否かを再確認し、その確認結果を主制御部107に返す。具体的には、主制御部107から、人物IDとして「4」が指定された場合、人物管理部108は、人物情報1101(図4)の行240の「あい」の生年月日と現在の日付とから、「あい」の月齢を算出する。「あい」の月齢が1年5か月である場合、図5の行310の「つかまり立ち」の条件には一致しないが、行320の「ひとり歩き」の条件には一致する。このため、人物管理部108は、「あい」が現時点でも注意を必要とする対象者であると判断できる。
【0083】
また、人物管理部108は、主制御部107の指示により、人物情報1101を更新する。例えば、指定された人物が現時点で対象者であるか否かを再確認する際に、これまで対象者であった人物の月齢が、対象者の月齢から外れたと判断した場合、人物管理部108は、主制御部107へ対象者ではなくなったと判断した人物の人物IDを通知する。主制御部107は、所定の注意を要する人物である条件に合致する月齢から外れた人物を対象者から外して問題ないかを親に確認する。親から肯定的な反応があった場合、主制御部107は、人物IDを指定し、該当人物を対象者から外す指示を、人物管理部108へ出力する。人物管理部108は、主制御部107から受け取った人物IDに対応する対象者フラグ206を「0」に設定する。幼児の発達は個人差が大きい。そのため、人物管理部108は、幼児の月齢が対象者の月齢から外れた場合であっても、親が同意した場合のみ、当該幼児を対象者から外す。なお、親への確認方法は、図示していないロボット1と連携したスマートフォン上のアプリケーションから確認する方法、ロボット1が親へ尋ねる方法、又は別の方法のいずれであってもよい。
【0084】
また、ここでは、人物管理部108は、主制御部107から現時点での対象者を再確認する指示を受けた際に、対象者が現時点で対象外となっているか否かを再確認しているが、再確認のタイミング又は方法は、これと異なってもよい。例えば、人物管理部108は、人物情報1101の対象者(列206)の生年月日(列205)から月齢があがる日付を事前に取得しておき、毎月、対象者の月齢があがる日に対象者条件情報1102を参照することで、対象者の月齢が対象者条件の月齢から外れていないかを再確認してもよい。また、人物管理部108は、対象者から外れた人物を検出した場合、主制御部107へ通知してもよい。
【0085】
なお、主制御部107は親への確認を行わず、人物管理部108は、対象者の月齢が対象者条件の月齢から外れたことを検出した際に、直ちに対象者フラグを「0」に設定してもよい。
【0086】
コンテンツ情報管理部109は、メモリ110に保存されたコンテンツ管理情報1103を管理する。コンテンツ情報管理部109は、主制御部107からの指示により、親によって許可されたコンテンツが実施中であるか否かを確認した結果、あるいは、コンテンツ管理情報1103から条件に一致するコンテンツを選択した結果を主制御部107へ返す。コンテンツ情報管理部109は、コンテンツを選択する場合、全てのコンテンツの中から、あるいは、ロボット1の移動を伴わないコンテンツの中から、ユーザへ提供するコンテンツを選択する。
【0087】
また、コンテンツ情報管理部109は、主制御部107からの指示により、ロボット1が実施するコンテンツのコンテンツ情報(例えば、コンテンツID又はコンテンツ名)及び許可情報(例えば、親により許可されていることを示す情報「1」又は注意を必要とする対象者がいないことを示す情報「0」)を受け取り、コンテンツ管理情報1103を更新する。なお、主制御部107から受け取る情報は、コンテンツを実施する人物情報(例えば、人物ID)又はコンテンツ実施中のユーザの反応等を含んでもよく、コンテンツ情報管理部109は、誰が、どのコンテンツを何回実施しているという情報、又はコンテンツ実施中のユーザの反応を履歴として管理することも可能である。そして、コンテンツ情報管理部109は、コンテンツを選択する際に、コンテンツの実施回数のような利用頻度が分かる情報、コンテンツ実施中のユーザの反応、又はコンテンツの対象年齢等、コンテンツに関わる図示していない別の情報を考慮し、コンテンツを選択してもよい。
【0088】
表示部111は、例えば、複数の発光ダイオードにより構成され、ロボット1の表情の表示情報を表示する。具体的には、表示部111は、複数の発光ダイオードの点灯を個別に制御することにより、ロボット1の顔の一部、例えば、目及び口を表示する。なお、本実施の形態では、表示部111は、図2に示す第1表示部111a、第2表示部111b及び第3表示部111cを含む。
【0089】
表示情報出力制御部112は、主制御部107から送信される行動制御コマンドに応じたロボット1の表情の表示情報を表示部111に出力する。そして、表示部111は、ロボット1の表情を出力する。
【0090】
音声情報出力制御部114は、主制御部107から出力される行動制御コマンドに応じてロボット1の音声情報をスピーカ113に出力する。そして、スピーカ113は、ロボット1の音声情報を出力する。
【0091】
駆動機構115は、ロボット1を駆動させる。駆動機構115は、例えば、複数のモータ、フレーム、ギア、駆動ベルト及びシャフトなどにより構成され、ロボット1の動きを出力する。具体的には、駆動機構115は、複数のモータを制御することにより、ロボット1を動かす。
【0092】
駆動機構制御部116は、主制御部107から送信される行動制御コマンドに応じて、ロボット1の駆動機構115を動かす情報を駆動機構115に出力する。そして、駆動機構115は、ロボット1の動きを出力する。
【0093】
主制御部107は、所定のコンテンツに応じて駆動機構115が駆動し始めることを検知する。そして、主制御部107は、所定のコンテンツに応じて駆動機構115が駆動し始めることを検知した場合、駆動機構115を制御してロボット1を自転させる。主制御部107は、ロボット1が自転している時にカメラ101に映像を取得させる。
【0094】
主制御部107は、ユーザの人物認識結果を人物認識処理部102から取得する。主制御部107は、ユーザの音声認識結果を音声認識処理部104から取得する。主制御部107は、ユーザの操作認識結果を操作認識処理部106から取得する。
【0095】
主制御部107は、人物管理部108から人物情報1101及び対象者条件情報1102に関する情報を取得する。また、主制御部107は、人物情報1101及び対象者条件情報1102に関する情報を更新する指示を人物管理部108に行う。主制御部107は、ロボット1が実行する所定のコンテンツに応じて駆動機構115が駆動し始めることを検知した場合、映像に第1人物が映っているか否か、又は、音に第1人物の音声が含まれているか否かを判断する。ここで、第1人物は、メモリ110に記憶された人物情報1101(第1データ)に対象人物として指定されている人物であり、例えば、月齢が5か月~1年5か月の幼児である。
【0096】
例えば、主制御部107は、人物認識処理部102から人物認識結果を取得し、認識された人物が対象者であるか否かを人物管理部108に確認する。また、主制御部107は、人物情報1101に対象者が存在するか否かを人物管理部108に確認したり、対象者の対象条件を人物管理部108に再確認したり、人物情報1101の更新を人物管理部108に依頼したりする。
【0097】
主制御部107は、映像に幼児(第1人物)が映っていると判断した場合、人物情報1101(第1データ)及びメモリ110に記憶された対象者条件情報1102(第3データ)を参照して、幼児(第1人物)が対象人物としての月齢に該当するか否かを判断する。主制御部107は、幼児(第1人物)が対象人物としての月齢に該当しないと判断した場合、スピーカ113を制御して、第2人物に対して幼児(第1人物)を対象人物から外してもよいかを確認する音声を出力させる。ここで、第2人物は、人物情報1101(第1データ)において属性が幼児(第1人物)の保護者として示されている人物であり、例えば、幼児(第1人物)の親である。主制御部107は、映像又は音から、親(第2人物)から幼児(第1人物)を対象人物から外すことに対する肯定的反応を取得した場合、人物情報1101(第1データ)において幼児(第1人物)に対する対象人物としての指定を解除する。
【0098】
なお、主制御部107は、幼児(第1人物)が対象人物としての月齢に該当しないと判断した場合、親(第2人物)の端末に対して、幼児(第1人物)を対象人物から外してもよいかを確認する通知を送信してもよい。この場合、主制御部107は、端末から、幼児(第1人物)を対象人物から外すことに対する同意を示す通知を受信した場合、人物情報1101(第1データ)において幼児(第1人物)に対する対象人物としての指定を解除してもよい。
【0099】
主制御部107は、コンテンツ情報管理部109からコンテンツ管理情報1103に関する情報を取得する。また、主制御部107は、コンテンツ管理情報1103に関する情報を更新する指示をコンテンツ情報管理部109に行う。例えば、主制御部107は、コンテンツ情報管理部109へロボット1が親によって許可されたコンテンツを実施中であるか否かを確認し、確認結果をコンテンツ情報管理部109から受け取る。また、主制御部107は、コンテンツ管理情報1103から条件に一致するコンテンツを選択した結果を受け取る。また、主制御部107は、コンテンツの実行を開始した際に、開始したコンテンツの情報及び親の許可に関する情報をコンテンツ情報管理部109へ通知し、コンテンツ管理情報1103の更新を指示する。
【0100】
主制御部107は、ロボット1が移動を停止してから、幼児(第1人物)及びロボット1と一緒に遊ぶことを第2人物に対してリクエストする音声をスピーカ113に出力させる。主制御部107は、映像又は音から、親(第2人物)から一緒に遊ぶことに対する肯定的反応を取得した場合、メモリ110に記憶されたコンテンツ管理情報1103(第2データ)に基づいて、幼児(第1人物)及び親(第2人物)と一緒に遊ぶための第1コンテンツを選択する。ここで、第1コンテンツは、ロボット1の移動を伴うコンテンツと、ロボット1の移動を伴わないコンテンツとを含む。なお、所定のコンテンツは、親(第2人物)によって実行することを許可されている。
【0101】
また、主制御部107は、映像又は音から、親(第2人物)から一緒に遊ぶことに対する肯定的反応を取得しなかった場合、幼児(第1人物)又は第3人物のロボット1と遊ぶことをリクエストする音声が音に含まれているか否かを判断する。ここで、第3人物は、幼児(第1人物)及び親(第2人物)とは異なり、人物情報1101(第1データ)において対象人物として指定されていない人物であり、例えば、幼児(第1人物)の兄又は姉である。主制御部107は、幼児(第1人物)又は兄(第3人物)の、ロボット1とロボット1の移動を伴わない遊びをすることをリクエストする音声が音に含まれていると判断した場合、コンテンツ管理情報1103(第2データ)に基づいて、幼児(第1人物)及び兄(第3人物)と一緒に遊ぶための第2コンテンツを選択する。ここで、第2コンテンツは、ロボット1の移動を伴わないコンテンツである。
【0102】
一方、主制御部107は、幼児(第1人物)又は兄(第3人物)のロボット1と遊ぶことをリクエストする音声が音に含まれていないと判断した場合、ロボット1が以降に寝ることを通知するための音声、又は、いびき音を示す音声をスピーカ113に出力させ、表示部111に、両目を閉じた表情を表示させる。
【0103】
主制御部107は、人物管理部108及びコンテンツ情報管理部109から取得した情報を基に行動制御コマンドを生成し、表示情報出力制御部112、音声情報出力制御部114及び駆動機構制御部116に各種の行動制御コマンドを送信する。なお、行動制御コマンドを生成する行動制御処理の詳細は後述する。
【0104】
主制御部107は、選択した第1コンテンツに応じて、スピーカ113を制御して、第1コンテンツに対応した音声を出力させる第1処理と、表示部111を制御して、第1コンテンツに対応した表示を出力させる第2処理と、駆動機構115を制御して、第1コンテンツに対応した動作をさせる第3処理と、の少なくともいずれかを行う。このとき、表示部111は、ロボット1の表情を両目と口とによって表示する。
【0105】
また、主制御部107は、選択した第2コンテンツに応じて、スピーカ113を制御して、第2コンテンツに対応した音声を出力させる第4処理と、表示部111を制御して、第2コンテンツに対応した表示を出力させる第5処理と、駆動機構115を制御して、第2コンテンツに対応した動作をさせる第6処理と、の少なくともいずれかを行う。このとき、表示部111は、ロボット1の表情を両目と口とによって表示する。
【0106】
さらに、主制御部107は、選択した第1コンテンツに応じて第1処理、第2処理及び第3処理の少なくともいずれかの処理を行ってから、映像に基づいて、幼児(第1人物)と親(第2人物)との距離を算出する。主制御部107は、幼児(第1人物)と親(第2人物)との距離が閾値未満ではない場合、幼児(第1人物)及びロボット1と一緒に遊ぶことができるか否かを親(第2人物)に対して確認する音声をスピーカ113に出力させる。主制御部107は、映像又は音から、親(第2人物)から一緒に遊ぶことに対する肯定的反応を取得せず、且つ、幼児(第1人物)又は兄(第3人物)の、ロボット1とロボット1の移動を伴わない遊びをすることをリクエストする音声が音に含まれていると判断した場合、コンテンツ管理情報1103(第2データ)に基づいて、幼児(第1人物)及び兄(第3人物)と一緒に遊ぶための第2コンテンツを選択する。そして、主制御部107は、選択した第2コンテンツに応じて、第4処理と第5処理と第6処理との少なくともいずれかを行う。
【0107】
一方、主制御部107は、幼児(第1人物)と親(第2人物)との距離が閾値未満ではなく、且つ、映像又は前記音から、親(第2人物)から一緒に遊ぶことに対する肯定的反応を取得せず、且つ、幼児(第1人物)又は兄(第3人物)のロボット1と遊ぶことをリクエストする音声が音に含まれていないと判断した場合、ロボット1が以降に寝ることを通知するための音声、又は、いびき音を示す音声をスピーカ113に出力させ、表示部111に、両目を閉じた表情を表示させる。
【0108】
主制御部107は、例えば、歌をうたったり、人を探したりもしくは人を見つけて近づいたりする等のロボット1に組み込まれた各種行動又は遊びを実施する際、移動を開始するか否かを監視し、移動を開始する前に、行動制御処理を行う。
【0109】
主制御部107は、映像に幼児(第1人物)が映っていると判断した場合、又は、音に幼児(第1人物)の音声が含まれていると判断した場合、ロボット1が移動中であるか否かを判断する。主制御部107は、ロボット1が移動中であると判断した場合、駆動機構115を制御してロボット1の移動を停止させる。
【0110】
また、主制御部107は、ロボット1が移動を停止してから、映像に基づいて、幼児(第1人物)までの距離を算出する。主制御部107は、幼児(第1人物)までの距離が閾値未満である場合、映像に基づいて、幼児(第1人物)が座っているか否かを判断する。主制御部107は、幼児(第1人物)が座っていないと判断した場合、スピーカ113に幼児(第1人物)に対して座ることを促す音声を出力させる第7処理と、表示部111を下方に向けさせる第8処理と、表示部111に、所定の表示をさせる第9処理と、の少なくともいずれかを行う。なお、第9処理において、表示部111は、ロボット1の表情を目と口とによって表示し、所定の表示は悲しみの表情を示す。
【0111】
なお、プロセッサ100及びメモリ110の構成の一部又は全部は、ロボット1とネットワークを介して通信可能に接続されたサーバに設けられていてもよい。
【0112】
次に、図8及び図9を参照しつつ、本開示の実施の形態に係るロボット1における行動制御処理について説明する。
【0113】
図8は、本開示の実施の形態に係るロボットにおける行動制御処理の一例を示す第1のフローチャートであり、図9は、本開示の実施の形態に係るロボットにおける行動制御処理の一例を示す第2のフローチャートである。
【0114】
まず、主制御部107は、ロボット1が親によって許可されたコンテンツを実施中であるか否かを判断する(ステップS1)。主制御部107は、ロボット1が親によって許可されたコンテンツを実施中であるか否かをコンテンツ情報管理部109に確認する。コンテンツ情報管理部109は、コンテンツ管理情報1103を参照し、実施中フラグが設定されているコンテンツに対して、許可フラグが設定されているか否かを判断する。許可フラグが設定されているコンテンツが実施中である場合、コンテンツ情報管理部109は、ロボット1が親によって許可されたコンテンツを実施中であることを主制御部107へ通知する。一方、許可フラグが設定されたコンテンツを実施していない場合、コンテンツ情報管理部109は、ロボット1が親によって許可されたコンテンツを実施中ではないことを主制御部107へ通知する。ここで、ロボット1が親によって許可されたコンテンツを実施中であると判断された場合(ステップS1でYES)、主制御部107は、既に親によって許可されたコンテンツの中で行われる移動を実施するため、ロボット1の移動開始を指示する行動制御コマンドを駆動機構制御部116へ出力する(ステップS2)。
【0115】
一方、ロボット1が親によって許可されたコンテンツを実施中ではないと判断された場合(ステップS1でNO)、主制御部107は、人物情報1101内に対象者が存在するか否かを人物管理部108に確認し、人物情報1101内に対象者が存在するか否かを判断する(ステップS3)。ここで、人物情報1101内に対象者が存在しないと判断された場合(ステップS3でNO)、主制御部107は、注意を必要とする対象者がいないため、ロボットの移動開始を指示する行動制御コマンドを駆動機構制御部116へ出力する(ステップS2)。
【0116】
一方、人物情報1101内に対象者が存在すると判断された場合(ステップS3でYES)、主制御部107は、対象者が周囲にいないかを確認するため、ロボット1の回転を指示する行動制御コマンドを駆動機構制御部116へ出力する(ステップS4)。ロボット1が地面に垂直な方向を回転軸として1回転することにより、ロボット1に設置されたカメラ101によって周囲を確認することができるため、周囲に人がいる場合、人物認識処理部102により検出することができる。
【0117】
次に、主制御部107は、人物が検出されたか否かを人物認識処理部102に確認し、人物が検出されたか否かを判断する(ステップS5)。人物が検出されていないと判断された場合(ステップS5でNO)、主制御部107は、回転が完了したか否かを駆動機構制御部116に確認し、回転が完了したか否かを判断する(ステップS6)。なお、主制御部107は、ロボット1が1回転した場合に、回転が完了したと判断する。回転が完了していないと判断された場合(ステップS6でNO)、ロボット1がさらに回転することにより、人物が検出される可能性があるため、ステップS5に処理が戻る。
【0118】
一方、回転が完了したと判断された場合(ステップS6でYES)、主制御部107は、ロボット1の周囲には人物がいないと判断し、ロボット1の移動開始を指示する行動制御コマンドを駆動機構制御部116へ出力する(ステップS2)。
【0119】
人物が検出されたと判断された場合(ステップS5でYES)、主制御部107は、検出された人物の情報(例えば、人物ID)を人物認識処理部102から取得し、取得した人物の情報(例えば、人物ID)を人物管理部108へ出力し、検出された人物が対象者であるか否かを確認する(ステップS7)。
【0120】
次に、主制御部107は、検出された人物が注意を必要とする対象者であるか否かの応答を人物管理部108から受け取り、検出された人物が対象者であるか否かを判断する(ステップS8)。ここで、検出された人物が対象者ではないと判断された場合(ステップS8でNO)、ステップS6に処理が移行し、主制御部107は、回転が完了したか否かを判断する。
【0121】
一方、検出された人物が対象者であると判断された場合(ステップS8でYES)、主制御部107は、対象者である検出された人物が、対象者の条件を満たしているかを再確認するための対象者再確認処理を行う(ステップS9)。なお、対象者再確認処理が行われるタイミングは、このタイミングに限定されるものではない。例えば、ロボット1が内部的に管理する日付が更新された際に、主制御部107は、人物情報1101内の全ての対象者について、対象者再確認処理を行ってもよい。この場合、対象者が対象者条件情報1102の条件に一致しているか否かを日々確認することができる。
【0122】
ここで、図10を参照し、対象者再確認処理について説明する。
【0123】
図10は、図8のステップS9における対象者再確認処理について説明するためのフローチャートである。
【0124】
まず、主制御部107は、検出された人物が現時点でも対象者の条件を満たしているかを人物管理部108へ確認する(ステップS31)。このとき、主制御部107は、検出された人物の人物IDを人物管理部108へ出力し、対象者条件の確認を依頼する。人物管理部108は、主制御部107から指定された人物IDに基づき、指定された人物の生年月日(行204)を人物情報1101から取得し、生年月日と現在の日付とから指定された人物の現在の月齢を算出する。人物管理部108は、対象者条件情報1102を参照し、主制御部107から指定された人物の月齢が対象者の条件に一致するか否かを判断する。
【0125】
具体的には、主制御部107から「4」という人物IDが指定された場合、人物管理部108は、人物情報1101の行240(図4参照)の「あい」の生年月日と、現在の日付とから「あい」の現在の月齢を算出する。「あい」の現在の月齢が1年5か月である場合、当該月齢は、図5の行310の「つかまり立ち」の条件には一致しないが、行320の「ひとり歩き」の条件には一致する。このため、「あい」は、現時点でも注意を必要とする対象者であると判断できる。
【0126】
人物管理部108は、指定された人物が対象者の条件を満たすか否かの判断結果を主制御部107へ出力する。主制御部107は、指定した人物が対象者の条件を満たすか否かの判断結果を人物管理部108から受け取る。
【0127】
次に、主制御部107は、検出された人物が対象者の条件を満たすか否かを判断する(ステップS32)。ここで、検出された人物が現時点でも対象者の条件を満たすと判断された場合(ステップS32でYES)、主制御部107は、対象者再確認処理を終了する。
【0128】
一方、検出された人物が対象者の条件を満たさないと判断された場合(ステップS32でNO)、主制御部107は、検出された人物を対象者から外すか否かを親に確認する(ステップS33)。この処理は、幼児の発達は個人差が大きいことを考慮し、対象者であった人物が対象者条件情報1102の条件を満たさなくなった場合、ロボット1が自動的に対象者から外すのではなく、親の意向を確認するために行われる。
【0129】
具体的には、主制御部107は、例えば、質問している表情を再現できる座標にある複数の発光ダイオードを点灯する行動制御コマンドを表示情報出力制御部112へ出力する。質問している表情は、例えば、両目を「? ?」の形状で点灯させることにより再現される。主制御部107は、検出された人物を対象者から外すか否かを親へ確認するため、検出された人物の情報(例えば、人物ID)を人物管理部108へ指定し、指定した人物の愛称を人物管理部108から取得する。主制御部107は、人物管理部108から受け取った愛称を用いて、所定の音声をロボット1に発話させる行動制御コマンドを音声情報出力制御部114へ出力する。ここで、所定の音声は、例えば、「あいちゃん(検出された人物の愛称)は安定して歩けるようになりましたか?」及び「今後、あいちゃん(検出された人物の愛称)が一緒にいる環境で、僕が自由に動くことに同意いただけますか?」という音声である。
【0130】
なお、所定の音声に、親に呼びかける音声を含める場合、主制御部107は、人物管理部108へ親に対応する属性を指定し、親の愛称の取得を要求する。人物管理部108は、主制御部107から指定された属性を人物情報1101の(列203)と比較し、一致する人物の愛称(列204)を主制御部107へ出力する。これにより、主制御部107は、所定の音声の前に、親の愛称を呼びかけることができる。
【0131】
さらに、主制御部107は、ロボット1を親の方向へ向けるための指示を表示情報出力制御部112及び駆動機構制御部116へ行うこともできる。
【0132】
具体的には、主制御部107は、人物管理部108へ親の人物IDの取得を要求する。人物管理部108は、主制御部107から指定された属性を人物情報1101の属性(列203)と比較し、属性が一致する人物の人物IDを主制御部107へ出力する。主制御部107は、人物管理部108から受け取った人物IDを人物認識処理部102へ出力し対象者を検出する。人物認識処理部102は、主制御部107から受信した人物IDに対応する人物を認識し、認識した人物がいる方向を特定する。主制御部107は、人物認識処理部102から認識された人物がいる方向を受け取った場合、人物がいる方向へロボット1の表情の位置を寄せる行動制御コマンドを表示情報出力制御部112へ出力したり、人物がいる方向へロボット1の正面を向ける行動制御コマンドを駆動機構制御部116へ出力したりすることができる。
【0133】
なお、現在のロボット1が向いている方向に指定した人物が存在しない場合、主制御部107は、周囲を確認するため、駆動機構制御部116へ回転を行う行動制御コマンドを出力する。そして、主制御部107は、再度、人物認識処理部102へ人物IDを出力し、指定した人物IDに対応する人物を人物認識処理部102に認識させる。主制御部107は、指定した人物IDに対応する人物が認識されたことを示す認識結果を人物認識処理部102から受け取った際に、ロボットの回転を停止する行動制御コマンドを駆動機構制御部116へ出力する。これにより、ロボット1は親の方向を向いた状態で停止できる。そして、主制御部107は、ロボット1を親の方向へ向けた状態で、質問している表情を表示する行動制御コマンドを表示情報出力制御部112へ出力したり、所定の音声を発話する行動制御コマンドを音声情報出力制御部114へ出力したりすることもできる。
【0134】
なお、ロボット1の形状によっては、周囲の映像を取得する際に、その場で回転することが難しく、移動が必要となる場合が想定される。その場合は、主制御部107は、遅い速度で移動する行動制御コマンドを駆動機構制御部116へ出力する。これにより、対象者がいる環境でロボット1が動くことで発生するリスクを低下させることができる。
【0135】
また、主制御部107は、操作認識処理部106へ親の人物IDを出力し、親までの距離を取得する。操作認識処理部106は、主制御部107から指定された親までの距離を出力する。主制御部107は、操作認識処理部106から受け取った親までの距離が所定の距離(例えば、3m)以上離れている場合、例えば、「おーい」等の親へ呼びかける音声を、所定の音声の前に付加してもよい。また、主制御部107は、親までの距離が所定の距離以上離れている場合、通常よりも大きなボリュームで所定の音声を出力する行動制御コマンドを音声情報出力制御部114へ出力してもよい。
【0136】
なお、ロボット1が回転しても、人物認識処理部102が、人物IDで指定した人物を検出できない場合は、主制御部107は、親の属性を有する他の人物の人物IDを人物管理部108から取得し、上記と同様の処理を行い、検出された人物を対象者から外すか否かを他の人物へ確認してもよい。
【0137】
なお、ここで説明したロボット1の表情、音声及び動きは一例であり、これらに限られるものではない。また、主制御部107は、音声をロボット1に発話させる行動制御コマンドのみを音声情報出力制御部114へ出力し、スピーカ113から出力される音声だけでロボット1が接触相手とやりとりしてもよい。また、主制御部107は、音声をテキスト化した文字又は表情を表示する行動制御コマンドのみを表示情報出力制御部112へ出力し、表示部111での入出力操作だけでロボット1が接触相手とやりとりしてもよい。また、主制御部107は、ロボット1を動かす行動制御コマンドのみを駆動機構制御部116へ出力し、駆動機構115での駆動操作だけでロボット1が接触相手とやりとりしてもよい。また、主制御部107は、これらの行動制御コマンドを組み合わせることにより、ロボット1が接触相手とやりとりしてもよい。
【0138】
さらに、主制御部107は、ロボット1が幼児に対して会話又は遊びを提供する際に、幼児の顔の方向にロボット1の表情の位置を寄せて表示する行動制御コマンドを表示情報出力制御部112へ出力し、幼児がロボット1の行動を把握しやすくしてもよい。
【0139】
なお、ロボット1の表示を相手の方向へ寄せる行動制御コマンド、ロボット1が相手の方向を向く行動制御コマンド、相手との距離に応じて相手を呼びかける音声を追加する行動制御コマンド、及び相手との距離に応じて音のボリュームを変化させる行動制御コマンドの出力は、以降の説明においても同様に行うことができる。
【0140】
図10に戻って、次に、主制御部107は、検出された人物を対象者から外すか否かの確認に対して、親から肯定的な反応があったか否かを判断する(ステップS34)。例えば、「同意します」又は「いいですよ」などの肯定的な返答の音声が認識されたり、首を上下に振る動作が認識されたりした場合、肯定的な反応があったと判断される。
【0141】
なお、ステップS33の処理及びステップS34の処理で示した親の意向を確認する方法は、この方法に限定するものではない。例えば、主制御部107は、図示していないロボット1と通信可能に接続されたスマートフォンのアプリケーションから、親の意向を確認してもよい。スマートフォンのアプリケーションにより親の意向を確認する例について図11を用いて説明する。
【0142】
図11は、検出された人物を対象者から外すか否かを確認するための表示画面の一例を示す図である。主制御部107は、図示していない通信部を介して、ロボット1と通信可能に接続されたスマートフォンなどの外部端末へ、検出された人物を対象者から外してもよいかを確認する通知を送信する。図示していない外部端末は、ロボット1からの通知を受信し、検出された人物を対象者から外してもよいかを尋ねる所定の文章804と、親の意向を入力するためのボタン802,803を含む表示画面801を生成し、生成した表示画面801を外部端末の表示部に表示する。親は、表示部に表示されたボタン802,803のいずれかを押下することで、外部端末から通信部を介し、主制御部107へ、親の意向を伝える。例えば、ボタン802は、検出された人物を対象者から外すことに同意するためのボタンであり、ボタン803は、検出された人物を対象者から外すことに同意しないためのボタンである。
【0143】
これにより、ロボット1は検出された人物を対象者から外すか否かの確認を親のみへ通知することができ、対象者自身に知られずに設定を変更することができる。
【0144】
検出された人物を対象者から外すか否かを確認するロボット1の行動に対して、親から肯定的な反応があったと判断された場合(ステップS34でYES)、主制御部107は、人物情報1101の対象者情報を更新する(ステップS35)。すなわち、主制御部107は、人物管理部108へ対象者の人物IDを出力し、当該人物IDに対応する人物を対象者から外すように指示する(ステップS35)。人物管理部108は、主制御部107から受け取った人物IDに対応する対象者情報(列206)の対象者フラグを「0」に設定する。なお、ステップS35の処理が行われた後、図8のステップS6に処理が移行する。
【0145】
一方、検出された人物を対象者から外すか否かを確認する行動に対して、親から肯定的な反応がなかったと判断された場合(ステップS34でNO)、主制御部107は、対象者再確認処理を終了する。なお、例えば、「同意しません」などの否定的な返答を示す音声が認識されたり、親からの返答がなかったり、首を左右に振る動作が認識されたりした場合、肯定的な反応がなかったと判断される。
【0146】
図9へ戻り、主制御部107は、ロボット1が現在移動中であるか否かを駆動機構制御部116へ確認し、ロボット1が移動中であるか否かを判断する(ステップS10)。主制御部107は、ロボット1が移動中であるか否かの応答を駆動機構制御部116から受け取り、ロボット1が移動中であるか否かを判断する。ロボット1が移動中であると判断された場合(ステップS10でYES)、主制御部107は、ロボット1の停止を指示する行動制御コマンドを駆動機構制御部116へ出力する(ステップS11)。一方、ロボット1が移動中ではないと判断された場合、すなわち、ロボット1が停止している場合(ステップS10でNO)、ステップS12へ処理が移行する。
【0147】
次に、主制御部107は、対象者である検出された人物に対し、安全性を高める行動を促すための対象者行動促進処理を行う(ステップS12)。ロボット1が停止しても、既に幼児が近くにいたり、幼児がロボット1に近づいたりすることが考えられる。そのため主制御部107は、危険性のリスクを下げるため、対象者行動促進処理を行い、対象者へ座るように促す。なお、対象者行動促進処理が行われるタイミングは、このタイミングに限定されるものではない。例えば、主制御部107は、ロボット1が対象者と遊ぶタイミングで対象者行動促進処理を実施してもよい。また、安全性を高めるために、主制御部107は、タイマーを設定し、定期的に対象者行動促進処理を実施してもよい。
【0148】
ここで、図12を参照し、対象者行動促進処理について説明する。
【0149】
図12は、図9のステップS12における対象者行動促進処理について説明するためのフローチャートである。
【0150】
まず、主制御部107は、対象者までの距離を取得する(ステップS41)。このとき、主制御部107は、人物認識処理部102へ対象者の人物IDを出力し、対象者を検出する。人物認識処理部102は、主制御部107から受け取った人物IDに対応する対象者を認識する。なお、現在のロボット1が撮影する方向に指定した人物IDに対応する対象者が存在しない場合、主制御部107は、ロボット1の回転を指示する行動制御コマンドを駆動機構制御部116へ出力し、対象者の検出を再度実施する。次に、主制御部107は、操作認識処理部106へ対象者の人物IDを出力し、対象者までの距離を取得する。操作認識処理部106は、対象者までの距離を測定し、測定した距離を主制御部107へ出力する。
【0151】
次に、主制御部107は、操作認識処理部106から受け取った対象者までの距離が閾値未満であるか否かを判断する(ステップS42)。閾値は、例えば、2mである。ここで、対象者までの距離が閾値以上であると判断された場合(ステップS42でNO)、ロボット1と対象者とが十分離れているため、主制御部107は、対象者行動促進処理を終了する。なお、閾値は、予め親により自由に設定してもよいし、ロボット1が自動的に設定してもよい。また、ここでは、閾値を2mと例示して説明したが、これに限られるものではない。
【0152】
対象者までの距離が閾値未満であると判断された場合(ステップS42でYES)、主制御部107は、対象者が座っているか否かを判断する(ステップS43)。このとき、主制御部107は、人物認識処理部102へ対象者の人物IDを出力し、対象者の姿勢を示す情報を人物認識処理部102から取得する。人物認識処理部102は、人物IDに対応する対象者の姿勢を認識し、認識した対象者の姿勢を示す情報を主制御部107へ出力する。例えば、人物認識処理部102は、対象者の体の輪郭から、対象者の姿勢を認識する。主制御部107は、人物認識処理部102から受け取った対象者の姿勢を示す情報に基づいて、対象者が座っているか否かを判断する。
【0153】
ここで、対象者が座っていると判断された場合(ステップS43でYES)、主制御部107は、対象者行動促進処理を終了する。
【0154】
一方、対象者が座っていないと判断された場合(ステップS43でNO)、主制御部107は、人物認識処理部102へ対象者の人物IDを出力し、対象者がロボット1の方向を向いているか否かを確認し、対象者がロボット1の方向を向いているか否かを判断する(ステップS44)。例えば、人物認識処理部102は、対象者の顔の向き又は体の向きから、対象者がロボット1の方向を向いているか否かを認識する。
【0155】
対象者がロボット1の方向を向いていないと判断された場合(ステップS44でNO)、対象者がロボット1以外の他の事象に興味を持っているため、主制御部107は、対象者行動促進処理を終了する。
【0156】
一方、対象者がロボット1の方向を向いていると判断された場合(ステップS44でYES)、主制御部107は、対象者へ座るように促す回数をカウントするための変数Countを初期化する(ステップS45)。
【0157】
次に、主制御部107は、対象者へ座るように促す(ステップS46)。具体的には、主制御部107は、表示情報出力制御部112に対し、例えば、笑顔の表情又は悲しい表情を再現できる座標にある複数の発光ダイオードを点灯する行動制御コマンドを出力する。なお、笑顔の表情は、例えば、両目を「^ ^」の形状で点灯させることにより再現され、悲しい表情は、例えば、両目を「> <」の形状で点灯させることにより再現される。また、主制御部107は、人物管理部108へ対象者の人物IDを指定し、対象者の愛称の取得を要求する。人物管理部108は、主制御部107から指定された人物IDに対応する愛称(列204)を主制御部107へ出力する。主制御部107は、人物管理部108から受け取った愛称を用いて、所定の音声をロボット1に発話させる行動制御コマンドを音声情報出力制御部114へ出力する。なお、所定の音声は、例えば、「あいちゃん(対象者の愛称)、座って」又は「ねぇねぇ、座ってよー」などである。さらに、主制御部107は、対象者へ座るように促す所定の動きをロボット1に行わせる行動制御コマンドを駆動機構制御部116へ出力する。なお、所定の動きは、例えば、ロボット1が下を向くような動きなどである。
【0158】
なお、ここで説明したロボット1の表情、音声及び動きは一例であり、これらに限られるものではない。また、主制御部107は、音声をロボット1に発話させる行動制御コマンドのみを音声情報出力制御部114へ出力し、スピーカ113から出力される音声だけでロボット1が対象者とやりとりしてもよい。また、主制御部107は、音声をテキスト化した文字又は表情を表示する行動制御コマンドのみを表示情報出力制御部112へ出力し、表示部111の入出力操作だけでロボット1が対象者とやりとりしてもよい。また、主制御部107は、所定の動きをロボット1に行わせる行動制御コマンドのみを駆動機構制御部116へ出力し、駆動機構115の駆動操作だけでロボット1が対象者とやりとりしてもよい。また、主制御部107は、これらの行動制御コマンドを組み合わせることにより、ロボット1が対象者とやりとりしてもよい。
【0159】
さらに、ロボット1が幼児に対して会話又は遊びを提供する際に、幼児の顔の方向にロボット1の表情の位置を寄せて表示する行動制御コマンドを表示情報出力制御部112へ出力し、幼児がロボット1の行動を把握しやすくしてもよい。
【0160】
次に、主制御部107は、変数Countをインクリメントする(ステップS47)。
【0161】
次に、主制御部107は、対象者が座っているか否かを判断する(ステップS48)。なお、ステップS48の判断処理は、ステップS43の判断処理と同じである。ここで、対象者が座っていると判断された場合(ステップS48でYES)、主制御部107は、対象者行動促進処理を終了する。
【0162】
一方、対象者が座っていないと判断された場合(ステップS48でNO)、主制御部107は、変数Countが上限値未満であるか否かを判断する(ステップS49)。なお、上限値は、例えば、3であり、予め設定される。
【0163】
変数Countが上限値未満であると判断された場合(ステップS49でYES)、ステップS46に処理が戻り、主制御部107は、対象者へ座るように再び促す。なお、主制御部107は、繰り返し対象者へ座るように促す場合は、語気を強めた所定の音声をロボット1に発話させる行動制御コマンドを音声情報出力制御部114へ出力してもよい。所定の音声は、例えば、「あいちゃん(対象者の愛称)、座って」又は「ねぇねぇ、座ってよー」などである。
【0164】
一方、変数Countが上限値以上であると判断された場合(ステップS49でNO)、主制御部107は、対象者行動促進処理を終了する。
【0165】
図9へ戻り、次に、主制御部107は、親がロボット1及び幼児と一緒に遊べるか否かを親に確認する(ステップS13)。
【0166】
具体的には、主制御部107は、例えば、質問している表情を再現できる座標にある複数の発光ダイオードを点灯する行動制御コマンドを表示情報出力制御部112へ出力する。質問している表情は、例えば、両目を「? ?」の形状で点灯させることにより再現される。また、主制御部107は、人物管理部108へ親の属性を指定し、愛称の取得を要求する。人物管理部108は、主制御部107から指定された属性を人物情報1101の属性(列203)と比較し、属性が一致する人物の愛称(列204)を主制御部107へ出力する。主制御部107は、人物管理部108から受け取った愛称を用いて、所定の音声をロボット1に発話させる行動制御コマンドを音声情報出力制御部114へ出力する。なお、所定の音声は、例えば、「パパ(取得した親の愛称)、一緒に遊んでくれませんか?」、「パパ(取得した親の愛称)、あいちゃん(対象者の愛称)と3人で遊びたいよ」又は「3人で遊ぶとすごく楽しそう!」などである。
【0167】
さらに、主制御部107は、ロボット1を親の方向へ向けるための指示を表示情報出力制御部112及び駆動機構制御部116へ行うこともできる。
【0168】
具体的には、主制御部107は、人物管理部108へ親の人物IDの取得を要求する。人物管理部108は、主制御部107から指定された属性と人物情報1101の属性(列203)と比較をし、属性が一致する人物の人物IDを主制御部107へ出力する。主制御部107は、人物管理部108から受け取った人物IDを人物認識処理部102へ出力し人物を検出する。人物認識処理部102は、主制御部107から受信した人物IDに対応する人物を認識し、認識した人物がいる方向を特定する。主制御部107は、人物認識処理部102から認識された人物がいる方向を受け取った場合、人物がいる方向へロボット1の表情の位置を寄せる行動制御コマンドを表示情報出力制御部112へ出力したり、人物がいる方向へロボット1の正面を向ける行動制御コマンドを駆動機構制御部116へ出力したりすることができる。
【0169】
なお、現在のロボット1が向いている方向に指定した人物が存在しない場合、主制御部107は、周囲を確認するため、駆動機構制御部116へ回転を行う行動制御コマンドを出力する。そして、主制御部107は、再度、人物認識処理部102へ人物IDを出力し、指定した人物IDに対応する人物を人物認識処理部102に認識させる。主制御部107は、指定した人物IDに対応する人物が認識されたことを示す認識結果を人物認識処理部102から受け取った際に、ロボット1の回転を停止する行動制御コマンドを駆動機構制御部116へ出力する。これにより、ロボット1は親の方向を向いた状態で停止できる。そして、主制御部107は、ロボット1を親の方向へ向けた状態で、質問している表情を表示する行動制御コマンドを表示情報出力制御部112へ出力したり、所定の音声を発話する行動制御コマンドを音声情報出力制御部114へ出力したりすることもできる。
【0170】
なお、ロボット1の形状によっては、周囲の映像を取得する際に、その場で回転することが難しく、移動が必要となる場合が想定される。その場合は、主制御部107は、遅い速度で移動する行動制御コマンドを駆動機構制御部116へ出力する。これにより、対象者がいる環境でロボット1が動くことで発生するリスクを低下させることができる。
【0171】
また、主制御部107は、操作認識処理部106へ親の人物IDを出力し、親までの距離を取得する。操作認識処理部106は、主制御部107から指定された親までの距離を出力する。主制御部107は、操作認識処理部106から受け取った親までの距離が所定の距離(例えば、3m)以上離れている場合、例えば、「おーい」等の親へ呼びかける音声を、所定の音声の前に付加してもよい。また、主制御部107は、親までの距離が所定の距離以上離れている場合、通常よりも大きなボリュームで所定の音声を出力する行動制御コマンドを音声情報出力制御部114へ出力してもよい。
【0172】
なお、ロボット1が回転しても、人物認識処理部102が、人物IDで指定した人物を検出できない場合は、主制御部107は、親の属性を有する他の人物の人物IDを人物管理部108から取得し、上記と同様の処理を行い、他の人物がロボット1及び幼児と一緒に遊べるか否かを他の人物に確認してもよい。
【0173】
なお、ここで説明したロボット1の表情、音声及び動きは一例であり、これらに限られるものではない。また、主制御部107は、音声をロボット1に発話させる行動制御コマンドのみを音声情報出力制御部114へ出力し、スピーカ113から出力される音声だけでロボット1が接触相手とやりとりしてもよい。また、主制御部107は、音声をテキスト化した文字又は表情を表示する行動制御コマンドのみを表示情報出力制御部112へ出力し、表示部111での入出力操作だけでロボット1が接触相手とやりとりしてもよい。また、主制御部107は、ロボット1を動かす行動制御コマンドのみを駆動機構制御部116へ出力し、駆動機構115での駆動操作だけでロボット1が接触相手とやりとりしてもよい。また、主制御部107は、これらの行動制御コマンドを組み合わせることにより、ロボット1が接触相手とやりとりしてもよい。
【0174】
さらに、主制御部107は、ロボット1が親に対して意向を確認する際に、親の顔の方向にロボット1の表情の位置を寄せて表示する行動制御コマンドを表示情報出力制御部112へ出力し、親がロボット1の行動を把握しやすくしてもよい。
【0175】
次に、主制御部107は、親がロボット1及び幼児と一緒に遊べるか否かを親に確認するロボット1の行動に対して、親から肯定的な反応があったか否かを判断する(ステップS14)。例えば、「はい、一緒に遊びます」などの肯定的な返答の音声が認識されたり、首を上下に振る動作が認識されたりした場合、肯定的な反応があったと判断される。
【0176】
親がロボット1及び幼児と一緒に遊べるか否かを確認するロボット1の行動に対して、親から肯定的な反応があったと判断された場合(ステップS14でYES)、コンテンツ情報管理部109は、対象者と親とロボット1との三者で遊ぶコンテンツを、全てのコンテンツの中から選択する(ステップS15)。
【0177】
具体的には、主制御部107は、特に選択されるコンテンツを制限しないコンテンツ選択条件を指定し、コンテンツ情報管理部109へコンテンツの選択を要求する。コンテンツ情報管理部109は、コンテンツ管理情報1103を参照し、全てのコンテンツの中から一つのコンテンツを選択し、選択したコンテンツのコンテンツIDを主制御部107へ出力する。主制御部107は、選択されたコンテンツIDをコンテンツ情報管理部109から受け取る。
【0178】
なお、主制御部107は、コンテンツ選択条件をコンテンツ情報管理部109へ指定しているが、指定する情報はこれに限られるものではない。例えば、対象者の情報(例えば、人物ID、年齢又は性別等)又は一緒に遊ぶ親の情報(例えば、人物ID、年齢又は性別等)を主制御部107が指定することで、コンテンツ情報管理部109はより最適なコンテンツを選択することが可能である。
【0179】
また、コンテンツ情報管理部109は、全てのコンテンツの中から一つのコンテンツをランダムに選択してもよい。また、コンテンツ管理情報1103は、各コンテンツが実行された回数を含んでもよく、コンテンツ情報管理部109は、最も実行された回数が多いコンテンツを選択してもよい。
【0180】
主制御部107は、選択したコンテンツを親及び幼児へ提供する(ステップS16)。主制御部107は、選択したコンテンツを実行するための行動制御コマンドを表示情報出力制御部112、音声情報出力制御部114及び駆動機構制御部116へ出力する。具体的には、主制御部107は、ロボット1にインストールされた、コンテンツのプログラムを実行する。これにより、主制御部107は、幼児の反応に応じて、例えば、笑った顔、驚いた顔又は悲しい顔などの所定の表情を再現する座標にある複数の発光ダイオードを点灯する行動制御コマンドを表示情報出力制御部112へ出力する。また、主制御部107は、コンテンツに応じた所定の音声をロボット1に発話させる行動制御コマンドを音声情報出力制御部114へ出力する。選択されたコンテンツがダンスである場合、所定の音声は、例えば、「あいちゃん(対象者の愛称)、僕のダンス見てくれる?」、「一緒にダンスしよう!」又は歌などである。また、主制御部107は、コンテンツに応じた所定の動作を行わせる行動制御コマンドを駆動機構制御部116へ出力する。選択されたコンテンツがダンスである場合、所定の動作は、例えば、前後左右に揺れる動作、前後に頭を振る動作、前に進む動作又は後ろに進む動作などである。また、行動制御コマンドは、動作スピードを含んでもよい。
【0181】
これにより、親が一緒に遊ぶという安全な環境、あるいは、親から許可された条件において、移動も含めたロボット1が実施できる全ての表現を用いて、対象者とロボット1との関わりを深めることができる。
【0182】
なお、ここで説明したロボット1の表情、音声及び動きは一例であり、これらに限られるものではない。また、主制御部107は、音声をロボット1に発話させる行動制御コマンドのみを音声情報出力制御部114へ出力し、スピーカ113から出力される音声だけでロボット1が接触相手とやりとりしてもよい。また、主制御部107は、音声をテキスト化した文字又は表情を表示する行動制御コマンドのみを表示情報出力制御部112へ出力し、表示部111での入出力操作だけでロボット1が接触相手とやりとりしてもよい。また、主制御部107は、ロボット1を動かす行動制御コマンドのみを駆動機構制御部116へ出力し、駆動機構115での駆動操作だけでロボット1が接触相手とやりとりしてもよい。また、主制御部107は、これらの行動制御コマンドを組み合わせることにより、ロボット1が接触相手とやりとりしてもよい。
【0183】
さらに、主制御部107は、ロボット1が幼児に対してコンテンツを提供する際に、幼児の顔の方向にロボット1の表情の位置を寄せて表示する行動制御コマンドを表示情報出力制御部112へ出力するとともに、ロボット1が幼児の方向を向く行動制御コマンドを駆動機構制御部116へ出力し、幼児がロボット1の行動を把握しやすくしてもよい。
【0184】
なお、主制御部107は、ロボット1が開始したコンテンツに対し、対象者又は親が反応しているか否かを判断してもよい。そして、対象者又は親が反応していないと判断した場合は、主制御部107は、再度、コンテンツ情報管理部109へコンテンツの選択を要求し、別のコンテンツを選択してもよい。
【0185】
また、本実施の形態では、一例として、ロボット1からコンテンツを提案する方法を説明したが、ロボット1がユーザへ遊びたいコンテンツを確認する方法であってもよい。具体的には、主制御部107は、例えば、質問している表情を再現できる座標にある複数の発光ダイオードを点灯する行動制御コマンドを表示情報出力制御部112へ出力する。質問している表情は、例えば、両目を「? ?」の形状で点灯させることにより再現される。また、主制御部107は、親又は幼児にコンテンツを選択させるための所定の音声を発話する行動制御コマンドを音声情報出力制御部114へ出力し、親又は幼児に遊びたいコンテンツを尋ねてもよい。所定の音声は、例えば、「あいちゃん(対象者の愛称)は何をして遊びたい?」、「ママ(親の愛称)は、どんな遊びがいいと思いますか?」又は「ダンスと、しりとりどっちがいい?」等である。主制御部107は、親又は幼児に遊びたいコンテンツを尋ねた際の親又は幼児の反応に応じて、親及び幼児に提供するコンテンツを選択し、選択したコンテンツの提供を開始する。なお、親又は幼児の反応としては、例えば、「ダンスがいいな」又は「おすすめは?」などの音声がある。
【0186】
次に、主制御部107は、コンテンツ管理情報1103を更新する(ステップS17)。主制御部107は、開始したコンテンツのコンテンツID及び許可フラグを指定し、コンテンツ情報管理部109へコンテンツ管理情報1103の更新を要求する。許可フラグは、例えば、実施されたコンテンツが親によって許可されたコンテンツである場合、「1」に設定される。コンテンツ情報管理部109は、主制御部107からの要求に従って、コンテンツ管理情報1103を更新する。このとき、コンテンツ情報管理部109は、主制御部107から指定されたコンテンツIDに対応する実施中フラグ及び許可フラグを設定する。
【0187】
次に、主制御部107は、親が継続して幼児及びロボット1と遊ぶことができるか否かを確認するための継続確認処理を行う(ステップS18)。親が一緒に遊ぶことを承諾した場合であっても、親が途中で離席する可能性がある。そこで、主制御部107は、定期的に親が対象者の近くにいるか否かを確認し、遊びを継続できるか否かを判断するため、継続確認処理を実施する。
【0188】
ここで、図13を参照し、継続確認処理について説明する。
【0189】
図13は、図9のステップS18における継続確認処理について説明するためのフローチャートである。
【0190】
まず、主制御部107は、ステップS16で提供を開始したコンテンツが継続中であるか否かを判断する(ステップS61)。コンテンツが継続中であると判断された場合(ステップS61でYES)、主制御部107は、所定時間待機する(ステップS62)。所定時間は、例えば、5分である。所定時間は、予め親により自由に設定されてもよいし、ロボット1が自動的に設定してもよい。また、ここでは、所定時間を5分と例示して説明したが、これに限られるものではない。
【0191】
一方、コンテンツが継続中ではないと判断された場合(ステップS61でNO)、主制御部107は、継続確認処理を終了する。
【0192】
次に、主制御部107は、対象者と親との距離が閾値未満であるか否かを判断する(ステップS63)。具体的には、主制御部107は、操作認識処理部106から、対象者と親との距離を取得し、対象者と親との距離が閾値未満であるか否かを判断する。閾値は、例えば1.5mである。この閾値は、予め親により自由に設定されてもよいし、ロボット1が自動的に設定してもよい。また、ここでは、閾値が1.5mと例示して説明したが、これに限られるものではない。
【0193】
対象者と親との距離が閾値未満であると判断された場合(ステップS63でYES)、主制御部107は、コンテンツを継続して実行する(ステップS64)。
【0194】
一方、対象者と親との距離が閾値未満ではないと判断された場合、すなわち、対象者と親との距離が閾値以上であると判断された場合(ステップS63でNO)、主制御部107は、親がロボット1及び幼児と一緒に遊べるか否かを親に確認する(ステップS65)。
【0195】
具体的には、主制御部107は、例えば、質問している表情を再現できる座標にある複数の発光ダイオードを点灯する行動制御コマンドを表示情報出力制御部112へ出力する。質問している表情は、例えば、両目を「? ?」の形状で点灯させることにより再現される。また、主制御部107は、ステップS14において肯定的な反応を行った人物の人物IDを指定し、当該人物IDに対応する愛称の取得を人物管理部108へ要求する。人物管理部108は、主制御部107から指定された人物IDと人物情報1101の人物ID(列201)とを比較し、人物IDが一致する人物の愛称(列204)を主制御部107へ出力する。主制御部107は、人物管理部108から受け取った愛称を用いて、所定の音声をロボット1に発話させる行動制御コマンドを音声情報出力制御部114へ出力する。所定の音声は、例えば、「パパ(取得した愛称)、あいちゃんと一緒に座ってくれませんか?」又は「パパ(取得した愛称)、一緒に遊べますか?」などである。なお、ここで説明したロボット1の表情及び音声は一例であり、これに限られるものではない。
【0196】
さらに、主制御部107は、ロボット1を親の方向へ向けるための指示を表示情報出力制御部112及び駆動機構制御部116へ行うこともできる。
【0197】
具体的には、主制御部107は、人物管理部108へ親の人物IDの取得を要求する。人物管理部108は、主制御部107から指定された属性と人物情報1101の属性(列203)とを比較し、属性が一致する人物の人物IDを主制御部107へ出力する。主制御部107は、人物管理部108から受け取った人物IDを人物認識処理部102へ出力し人物を検出する。人物認識処理部102は、主制御部107から受信した人物IDに対応する人物を認識し、認識した人物がいる方向を特定する。主制御部107は、人物認識処理部102から認識された人物がいる方向を受け取った場合、人物がいる方向へロボット1の表情の位置を寄せる行動制御コマンドを表示情報出力制御部112へ出力したり、人物がいる方向へロボット1の正面を向ける行動制御コマンドを駆動機構制御部116へ出力したりすることができる。
【0198】
なお、現在のロボット1が向いている方向に指定した人物が存在しない場合、主制御部107は、周囲を確認するため、駆動機構制御部116へ回転を行う行動制御コマンドを出力する。そして、主制御部107は、再度、人物認識処理部102へ人物IDを出力し、指定した人物IDに対応する人物を人物認識処理部102に認識させる。主制御部107は、指定した人物IDに対応する人物が認識されたことを示す認識結果を人物認識処理部102から受け取った際に、ロボット1の回転を停止する行動制御コマンドを駆動機構制御部116へ出力する。これにより、ロボット1は親の方向を向いた状態で停止できる。そして、主制御部107は、ロボット1を親の方向へ向けた状態で、質問している表情を表示する行動制御コマンドを表示情報出力制御部112へ出力したり、所定の音声を発話する行動制御コマンドを音声情報出力制御部114へ出力したりすることもできる。
【0199】
なお、ロボット1の形状によっては、周囲の映像を取得する際に、その場で回転することが難しく、移動が必要となる場合が想定される。その場合は、主制御部107は、遅い速度で移動する行動制御コマンドを駆動機構制御部116へ出力する。これにより、対象者がいる環境でロボット1が動くことで発生するリスクを低下させることができる。
【0200】
また、主制御部107は、操作認識処理部106へ親の人物IDを出力し、親までの距離を取得する。操作認識処理部106は、主制御部107から指定された親までの距離を出力する。主制御部107は、操作認識処理部106から受け取った親までの距離が所定の距離(例えば、3m)以上離れている場合、例えば、「おーい」等の親へ呼びかける音声を、所定の音声の前に付加してもよい。また、主制御部107は、親までの距離が所定の距離以上離れている場合、通常よりも大きなボリュームで所定の音声を出力する行動制御コマンドを音声情報出力制御部114へ出力してもよい。
【0201】
なお、ロボット1が回転しても、人物認識処理部102が、人物IDで指定した人物を検出できない場合は、主制御部107は、親の属性を有する他の人物の人物IDを人物管理部108から取得し、上記と同様の処理を行い、他の人物がロボット1及び幼児と一緒に遊べるか否かを他の人物に確認してもよい。
【0202】
なお、ここで説明したロボット1の表情、音声及び動きは一例であり、これらに限られるものではない。また、主制御部107は、音声をロボット1に発話させる行動制御コマンドのみを音声情報出力制御部114へ出力し、スピーカ113から出力される音声だけでロボット1が接触相手とやりとりしてもよい。また、主制御部107は、音声をテキスト化した文字又は表情を表示する行動制御コマンドのみを表示情報出力制御部112へ出力し、表示部111での入出力操作だけでロボット1が接触相手とやりとりしてもよい。また、主制御部107は、ロボット1を動かす行動制御コマンドのみを駆動機構制御部116へ出力し、駆動機構115での駆動操作だけでロボット1が接触相手とやりとりしてもよい。また、主制御部107は、これらの行動制御コマンドを組み合わせることにより、ロボット1が接触相手とやりとりしてもよい。
【0203】
さらに、主制御部107は、ロボット1が親に対して意向を確認する際に、親の顔の方向にロボット1の表情の位置を寄せて表示する行動制御コマンドを表示情報出力制御部112へ出力し、親がロボット1の行動を把握しやすくしてもよい。
【0204】
次に、主制御部107は、親がロボット1及び幼児と一緒に遊べるか否かの確認に対して、親から肯定的な反応があったか否かを判断する(ステップS66)。例えば、「はい、一緒に遊びます」などの肯定的な返答の音声が認識されたり、首を上下に振る動作が認識されたりした場合、肯定的な反応があったと判断される。
【0205】
親から肯定的な反応があったと判断された場合(ステップS66でYES)、主制御部107は、コンテンツを継続して実行する(ステップS64)。
【0206】
一方、親から肯定的な反応がなかったと判断された場合(ステップS66でNO)、図9のステップS19に処理が移行する。
【0207】
図9に戻り、親がロボット1及び幼児と一緒に遊べるか否かを確認するロボット1の行動に対して、親から肯定的な反応がなかったと判断された場合(ステップS14でNO)、主制御部107は、ロボット1に対して遊びの要求があるか否かを判断する(ステップS19)。例えば、「いいえ、遊べません」などの否定的な返答を示す音声が認識されたり、親からの返答がなかったり、首を左右に振る動作が認識されたりした場合、肯定的な反応がなかったと判断される。
【0208】
具体的には、主制御部107は、音声認識処理部104に対し、遊びに誘う音声が認識されているか否かを確認する。遊びに誘う音声は、例えば、「遊ぼう」又は「しりとりしよう」等である。音声認識処理部104は、例えば、遊びに誘う言葉の有無、認識された遊びに誘う言葉、発話した人物の人物ID又は発話に含まれるコンテンツのコンテンツID等の遊びに誘う音声の認識結果を主制御部107へ出力する。主制御部107は、音声認識処理部104から受け取った認識結果から、遊びの要求があるか否かを判断する。
【0209】
ここで、遊びの要求がないと判断された場合(ステップS19でNO)、主制御部107は、ロボット1が寝た状態を表現する行動制御コマンドを表示情報出力制御部112、音声情報出力制御部114及び駆動機構制御部116へ出力する(ステップS20)。
【0210】
具体的には、主制御部107は、例えば、目を閉じた表情を再現できる座標にある複数の発光ダイオードを点灯する行動制御コマンドを表示情報出力制御部112へ出力する。目を閉じた表情は、例えば、両目を「- -」の形状で点灯させることにより再現される。また、主制御部107は、ロボット1が眠りに入る様子を表す音声又はロボット1が寝ている様子を表す音声をロボット1に発話させる行動制御コマンドを音声情報出力制御部114へ出力する。ロボット1が眠りに入る様子を表す音声は、例えば、「疲れたから、少し寝るね」又は「眠くなってきた」などである。ロボット1が寝ている様子を表す音声は、例えば、「ぐーぐー(いびき音)」などである。さらに、主制御部107は、ロボット1が眠りに入る様子を表す動き又はロボット1が寝ている様子を表す動きをロボット1に行わせる行動制御コマンドを駆動機構制御部116へ出力する。ロボット1が眠りに入る様子を表す動き又はロボット1が寝ている様子を表す動きは、例えば、その場で前後又は左右に傾く動きなどである。
【0211】
このように、親が幼児と一緒に遊べない状況では、幼児に危険を与えないようにするため、ロボット1からの自発的な会話又は遊びを控える。ロボット1が寝た状態を表現することで、幼児からロボット1への積極的な関わりを避けることができる。
【0212】
なお、ここで説明したロボット1の表情、音声及び動きは一例であり、これらに限られるものではない。また、主制御部107は、音声をロボット1に発話させる行動制御コマンドのみを音声情報出力制御部114へ出力し、スピーカ113から出力される音声だけでロボット1が接触相手とやりとりしてもよい。また、主制御部107は、音声をテキスト化した文字又は表情を表示する行動制御コマンドのみを表示情報出力制御部112へ出力し、表示部111での入出力操作だけでロボット1が接触相手とやりとりしてもよい。また、主制御部107は、所定の動きをロボット1に行わせる行動制御コマンドのみを駆動機構制御部116へ出力し、駆動機構115の駆動操作だけでロボット1が接触相手とやりとりしてもよい。また、主制御部107は、これらの行動制御コマンドを組み合わせることにより、ロボット1が接触相手とやりとりしてもよい。
【0213】
一方、遊びの要求があると判断された場合(ステップS19でYES)、主制御部107は、遊びの要求に応じて提供するコンテンツを選択するコンテンツ選択処理を行う(ステップS21)。
【0214】
ここで、図14を参照し、コンテンツ選択処理について説明する。
【0215】
図14は、図9のステップS21におけるコンテンツ選択処理について説明するためのフローチャートである。
【0216】
まず、主制御部107は、遊びの要求を行った人物が対象者であるか否かを判断する(ステップS71)。主制御部107は、音声認識処理部104から受け取った音声の認識結果から、遊びの要求を行った人物の人物IDを取得する。認識結果は、例えば、遊びに誘う言葉の有無、認識された遊びに誘う言葉、発話した人物の人物ID又は発話に含まれるコンテンツのコンテンツID等を含む。主制御部107は、遊びの要求を行った人物の人物IDを指定し、指定した人物IDが対象者であるか否かを人物管理部108へ確認する。人物管理部108は、人物情報1101を参照し、指定された人物IDに対応する人物が対象者であるか否かを判断する。人物管理部108は、指定された人物IDに対応する人物が対象者であるか否かの情報を主制御部107へ出力する。主制御部107は、人物管理部108から受け取った発話者が対象者であるか否かの情報に基づき、遊びの要求を行った人物が対象者であるか否かを判断する。
【0217】
ここで、遊びの要求を行った人物が対象者であると判断された場合(ステップS71でYES)、図9のステップS20へ処理が移行し、主制御部107は、ロボット1が寝た状態を表現する行動制御コマンドを表示情報出力制御部112、音声情報出力制御部114及び駆動機構制御部116へ出力する。
【0218】
このように、親が対象者と一緒に遊べない状況では、対象者が遊びの要求を行ったとしても、安全を優先し、ロボット1が寝た状態を表現することで、対象者からロボット1への積極的な関わりを避けることができる。なお、ここでは、安全のため、対象者から遊びの要求が行われた場合に、ロボット1が寝た状態を表現しているが、本開示は特にこれに限るものではない。例えば、主制御部107は、対象者から遊びの要求が行われた場合に、ロボット1の移動を伴わない限定的なコンテンツのみを選択し、提供してもよい。
【0219】
一方、遊びの要求を行った人物が対象者ではないと判断された場合(ステップS71でNO)、主制御部107は、要求されたコンテンツがロボット1の移動を伴うコンテンツであるか否かを判断する(ステップS72)。対象者ではない人物からの遊びの要求とは、対象者の兄又は姉等の対象者及び親以外の他の家族からの遊びの要求ということである。
【0220】
具体的には、主制御部107は、音声認識処理部104から受け取った音声の認識結果から、発話に含まれるコンテンツのコンテンツIDを取得する。主制御部107は、指定したコンテンツIDに対応するコンテンツがロボット1の移動を伴うコンテンツであるか否かをコンテンツ情報管理部109へ確認する。コンテンツ情報管理部109は、コンテンツ管理情報1103を参照し、指定したコンテンツIDに対応するコンテンツがロボット1の移動を伴うコンテンツであるか否かを示す情報を主制御部107へ出力する。主制御部107は、コンテンツ情報管理部109から取得した、指定したコンテンツIDに対応するコンテンツがロボット1の移動を伴うコンテンツであるか否かを示す情報を受け取る。主制御部107は、指定したコンテンツIDに対応するコンテンツがロボット1の移動を伴うコンテンツであるか否かを示す情報に基づいて、要求されたコンテンツがロボット1の移動を伴うコンテンツであるか否かを判断する。
【0221】
ここで、要求されたコンテンツがロボット1の移動を伴うコンテンツではないと判断された場合、すなわち、要求されたコンテンツがロボット1の移動を伴わないコンテンツであると判断された場合(ステップS72でNO)、主制御部107は、要求されたロボット1の移動を伴わないコンテンツを提供する(ステップS75)。なお、コンテンツの提供については、ステップS16の処理と同様の処理が行われるため、説明を省略する。
【0222】
なお、本実施の形態では、遊びの要求を行った人物が対象者ではなく、要求されたコンテンツがロボット1の移動を伴わないコンテンツである場合、当該コンテンツが提供されるが、本開示は特にこれに限定されず、遊びの要求を行った人物が対象者であっても、要求されたコンテンツがロボット1の移動を伴わないコンテンツである場合、当該コンテンツが提供されてもよい。
【0223】
一方、要求されたコンテンツがロボット1の移動を伴うコンテンツであると判断された場合(ステップS72でYES)、主制御部107は、コンテンツを開始するか否かを親に確認する(ステップS73)。
【0224】
具体的には、主制御部107は、表示情報出力制御部112に対し、例えば、質問している表情を再現できる座標にある複数の発光ダイオードを点灯する行動制御コマンドを出力する。質問している表情は、例えば、両目を「? ?」の形状で点灯させることにより再現される。
【0225】
また、主制御部107は、人物管理部108から受け取った親及び遊びの要求を行った人物の愛称を用いて、所定の音声をロボット1に発話させる行動制御コマンドを音声情報出力制御部114へ出力する。所定の音声は、例えば、「パパ(取得した愛称)、はるくん(遊びの要求を行った人物の愛称)とかくれんぼしてもいい?」などである。
【0226】
さらに、主制御部107は、ロボット1を親の方向へ向けるための指示を表示情報出力制御部112及び駆動機構制御部116へ行うこともできる。また、主制御部107は、操作認識処理部106へ親の人物IDを出力し、親までの距離を取得することで、距離に応じた親に呼びかける音声を追加したり、距離に応じて音のボリュームを設定したりすることもできる。なお、これらの具体的な確認方法は、前述の確認方法と同じであるため、説明を省略する。
【0227】
なお、ここで説明したロボット1の表情、音声及び動きは一例であり、これらに限られるものではない。また、主制御部107は、音声をロボット1に発話させる行動制御コマンドのみを音声情報出力制御部114へ出力し、スピーカ113から出力される音声だけでロボット1が接触相手とやりとりしてもよい。また、主制御部107は、音声をテキスト化した文字又は表情を表示する行動制御コマンドのみを表示情報出力制御部112へ出力し、表示部111での入出力操作だけでロボット1が接触相手とやりとりしてもよい。また、主制御部107は、ロボット1を動かす行動制御コマンドのみを駆動機構制御部116へ出力し、駆動機構115での駆動操作だけでロボット1が接触相手とやりとりしてもよい。また、主制御部107は、これらの行動制御コマンドを組み合わせることにより、ロボット1が接触相手とやりとりしてもよい。
【0228】
さらに、主制御部107は、ロボット1が親に対して意向を確認する際に、親の顔の方向にロボット1の表情の位置を寄せて表示する行動制御コマンドを表示情報出力制御部112へ出力し、親がロボット1の行動を把握しやすくしてもよい。
【0229】
次に、主制御部107は、ロボット1の移動を伴うコンテンツを開始するか否かを親に確認するロボット1の行動に対して、親から肯定的な反応があったか否かを判断する(ステップS74)。例えば、「いいですよ」などの肯定的な返答の音声が認識されたり、首を上下に振る動作が認識されたりした場合、肯定的な反応があったと判断される。
【0230】
ロボット1の移動を伴うコンテンツを開始するか否かを親に確認するロボット1の行動に対して、親から肯定的な反応があったと判断された場合(ステップS74でYES)、主制御部107は、要求されたロボット1の移動を伴うコンテンツを提供する(ステップS75)。なお、コンテンツの提供については、ステップS16の処理と同様の処理が行われるため、説明を省略する。
【0231】
次に、主制御部107は、コンテンツ管理情報1103を更新する(ステップS76)。主制御部107は、開始したコンテンツのコンテンツID及び許可フラグを指定し、コンテンツ情報管理部109へコンテンツ管理情報1103の更新を要求する。許可フラグは、例えば、実施されたコンテンツが親によって許可されたコンテンツである場合、「1」に設定される。コンテンツ情報管理部109は、主制御部107からの要求に従って、コンテンツ管理情報1103を更新する。このとき、コンテンツ情報管理部109は、主制御部107から指定されたコンテンツIDに対応する実施中フラグ及び許可フラグを設定する。
【0232】
一方、ロボット1の移動を伴うコンテンツを開始するか否かを親に確認するロボット1の行動に対して、親から肯定的な反応がなかったと判断された場合(ステップS74でNO)、コンテンツ情報管理部109は、ロボット1の移動を伴わないコンテンツを選択する(ステップS77)。なお、例えば、「いいえ、やめてください」などの否定的な返答を示す音声が認識されたり、親からの返答がなかったり、首を左右に振る動作が認識されたりした場合、肯定的な反応がなかったと判断される。
【0233】
具体的には、主制御部107は、ロボット1の移動を伴わないコンテンツを選択するコンテンツ選択条件を指定し、ロボット1の移動を伴わないコンテンツの選択をコンテンツ情報管理部109へ要求する。コンテンツ情報管理部109は、コンテンツ管理情報1103を参照し、移動有無フラグが「無」に設定されている全てのコンテンツの中から一つのコンテンツを選択し、選択したコンテンツのコンテンツID及びコンテンツ名を主制御部107へ出力する。主制御部107は、選択されたコンテンツIDをコンテンツ情報管理部109から受け取る。
【0234】
なお、コンテンツ情報管理部109は、ロボット1の移動を伴わない全てのコンテンツの中から一つのコンテンツをランダムに選択してもよい。また、コンテンツ管理情報1103は、各コンテンツが実行された回数を含んでもよく、コンテンツ情報管理部109は、最も実行された回数が多いロボット1の移動を伴わないコンテンツを選択してもよい。
【0235】
次に、主制御部107は、コンテンツ情報管理部109によって選択されたコンテンツを実施することを、遊びの要求を行った人物に提案する(ステップS78)。
【0236】
具体的には、主制御部107は、例えば、質問している表情を再現できる座標にある複数の発光ダイオードを点灯する行動制御コマンドを表示情報出力制御部112へ出力する。質問している表情は、例えば、両目を「? ?」の形状で点灯させることにより再現される。また、主制御部107は、コンテンツ情報管理部109によって選択されたコンテンツを一緒に実施することを提案する所定の音声をロボット1に発話させる行動制御コマンドを音声情報出力制御部114へ出力する。所定の音声は、例えば、「歌を一緒にうたわない?」などである。さらに、主制御部107は、ロボット1を遊びの要求を行った人物の方向へ向けるための指示を表示情報出力制御部112及び駆動機構制御部116へ行うこともできる。また、主制御部107は、操作認識処理部106へ遊びの要求を行った人物の人物IDを出力し、遊びの要求を行った人物までの距離を取得してもよい。そして、主制御部107は、距離に応じた遊びの要求を行った人物に呼びかける音声を追加したり、距離に応じて音のボリュームを設定したりすることもできる。なお、これらの具体的な提案方法は、前述の確認方法と同じであるため、説明を省略する。
【0237】
なお、ここで説明したロボット1の表情、音声及び動きは一例であり、これらに限られるものではない。また、主制御部107は、音声をロボット1に発話させる行動制御コマンドのみを音声情報出力制御部114へ出力し、スピーカ113から出力される音声だけでロボット1が接触相手とやりとりしてもよい。また、主制御部107は、音声をテキスト化した文字又は表情を表示する行動制御コマンドのみを表示情報出力制御部112へ出力し、表示部111での入出力操作だけでロボット1が接触相手とやりとりしてもよい。また、主制御部107は、ロボット1を動かす行動制御コマンドのみを駆動機構制御部116へ出力し、駆動機構115での駆動操作だけでロボット1が接触相手とやりとりしてもよい。また、主制御部107は、これらの行動制御コマンドを組み合わせることにより、ロボット1が接触相手とやりとりしてもよい。
【0238】
さらに、主制御部107は、遊びの要求を行った人物に対してロボット1が意向を確認する際に、遊びの要求を行った人物の顔の方向にロボット1の表情の位置を寄せて表示する行動制御コマンドを表示情報出力制御部112へ出力し、遊びの要求を行った人物がロボット1の行動を把握しやすくしてもよい。
【0239】
次に、主制御部107は、ロボット1の移動を伴わないコンテンツを実施するロボット1からの提案に対して、遊びの要求を行った人物から肯定的な反応があったか否かを判断する(ステップS79)。例えば、「いいですよ」などの肯定的な返答の音声が認識されたり、首を上下に振る動作が認識されたりした場合、肯定的な反応があったと判断される。
【0240】
ここで、遊びの要求を行った人物から肯定的な反応があったと判断された場合(ステップS79でYES)、主制御部107は、選択されたロボット1の移動を伴わないコンテンツを提供する(ステップS75)。
【0241】
一方、ロボット1の移動を伴わないコンテンツを実施するロボット1からの提案に対して、遊びの要求を行った人物から肯定的な反応がなかったと判断された場合(ステップS79でNO)、図9のステップS20に処理が移行する。例えば、「いやだ」などの否定的な返答を示す音声が認識されたり、遊びの要求を行った人物からの返答がなかったり、首を左右に振る動作が認識されたりした場合、肯定的な反応がなかったと判断される。ステップS20では、前述したように、主制御部107は、ロボット1が寝た状態を表現する行動制御コマンドを表示情報出力制御部112、音声情報出力制御部114及び駆動機構制御部116へ出力する。
【0242】
これにより、親が対象者と一緒に遊ぶことができず、かつ対象者とは異なる人物と対象者とがロボット1の移動を伴う遊びを実施することが親によって許可されず、かつ遊びの要求を行った人物がロボット1の移動を伴わない遊びを望まない状況において、ロボット1が寝た状態を表現することで、対象者の安全を優先し、対象者からロボット1への積極的な関わりを避けることができる。
【0243】
以上のように、本実施の態様によると、ロボット1が共に行動する行動相手の関係性に基づき、ロボット1の行動を安全に制御し、歩行の発達段階にあるような注意を必要とする対象者が安全に遊べるロボット1の制御方法を提供することができる。
【0244】
また、上記実施の態様によると、注意を必要とする対象者がいる場合は、親の意向を明確に確認しているが、本開示は特にこれに限定されず、親と対象者との距離が所定の距離未満であるか否かを確認し、親と対象者との距離が所定の距離未満である場合に、全てのコンテンツから一つのコンテンツが選択され、親と対象者との距離が所定の距離以上である場合に、ロボット1が寝た状態を表現する行動制御コマンドが出力されてもよい。
【0245】
本開示において、ユニット、装置、部材又は部の全部又は一部、又は図に示されるブロック図の機能ブロックの全部又は一部は、半導体装置、半導体集積回路(IC)、又はLSI(Large Scale Integration)を含む一つ又は複数の電子回路によって実行されてもよい。LSI又はICは、一つのチップに集積されてもよいし、複数のチップを組み合わせて構成されてもよい。例えば、記憶素子以外の機能ブロックは、一つのチップに集積されてもよい。ここでは、LSIやICと呼んでいるが、集積の度合いによって呼び方が変わり、システムLSI、VLSI(Very Large Scale Integration)、若しくはULSI(Ultra Large Scale Integration)と呼ばれるものであってもよい。LSIの製造後にプログラムされる、Field Programmable Gate Array(FPGA)、又はLSI内部の接合関係の再構成又はLSI内部の回路区画のセットアップができるReconfigurable Logic Deviceも同じ目的で使うことができる。
【0246】
さらに、ユニット、装置、部材又は部の全部又は一部の機能又は操作は、ソフトウエア処理によって実行することが可能である。この場合、ソフトウエアは一つ又は複数のROM、光学ディスク、ハードディスクドライブなどの非一時的記録媒体に記録され、ソフトウエアが処理装置(Processor)によって実行されたときに、そのソフトウエアで特定された機能が処理装置(Processor)および周辺装置によって実行される。システム又は装置は、ソフトウエアが記録されている一つ又は複数の非一時的記録媒体、処理装置(Processor)、及び必要とされるハードウエアデバイス、例えばインターフェース、を備えていてもよい。
【産業上の利用可能性】
【0247】
本開示に係る装置、方法、プログラム及びロボットは、装置が接触する際に所定の注意を要する対象人物である第1人物の安全性を確保しながら、第1人物と装置とが相互作用することができ、ユーザと相互作用する装置、方法、プログラム及びロボットとして有用である。
【符号の説明】
【0248】
1 ロボット
100 プロセッサ
101 カメラ
102 人物認識処理部
103 マイク
104 音声認識処理部
105 センサ
106 操作認識処理部
107 主制御部
108 人物管理部
109 コンテンツ情報管理部
110 メモリ
111 表示部
111a 第1表示部
111b 第2表示部
111c 第3表示部
112 表示情報出力制御部
113 スピーカ
114 音声情報出力制御部
115 駆動機構
116 駆動機構制御部
121 メイン筐体
122 第1球冠部
123 第2球冠部
125 固定板金
126 アーム
1101 人物情報
1102 対象者条件情報
1103 コンテンツ管理情報
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14