(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2022097269
(43)【公開日】2022-06-30
(54)【発明の名称】情報処理装置、情報処理方法及び情報処理プログラム
(51)【国際特許分類】
H04M 11/00 20060101AFI20220623BHJP
G10L 15/10 20060101ALI20220623BHJP
G06F 3/16 20060101ALI20220623BHJP
G06F 3/01 20060101ALI20220623BHJP
H04M 3/42 20060101ALI20220623BHJP
【FI】
H04M11/00 302
G10L15/10 500N
G06F3/16 690
G06F3/01 515
H04M3/42 P
【審査請求】未請求
【請求項の数】17
【出願形態】OL
(21)【出願番号】P 2020210750
(22)【出願日】2020-12-18
(71)【出願人】
【識別番号】000115108
【氏名又は名称】ユニ・チャーム株式会社
(74)【代理人】
【識別番号】110002147
【氏名又は名称】特許業務法人酒井国際特許事務所
(72)【発明者】
【氏名】宇都 祥太
(72)【発明者】
【氏名】坂口 智
【テーマコード(参考)】
5E555
5K201
【Fターム(参考)】
5E555AA48
5E555BA01
5E555BA16
5E555BB01
5E555BB16
5E555BC17
5E555BE08
5E555CA41
5E555CA47
5E555CB64
5E555CB69
5E555DA23
5E555DD06
5E555DD07
5E555EA23
5E555FA00
5K201BA02
5K201CC10
5K201DC05
5K201EC06
5K201ED05
5K201ED09
5K201EF03
5K201EF07
(57)【要約】
【課題】対象者に対して適切な音声を提供すること。
【解決手段】本願に係る情報処理装置は、対応者によって対応される対象者の状態を検知する検知手段によって検知された検知情報を取得する取得部と、前記検知情報に応じた前記対象者を所定の状態に誘導するための発話に関する発話情報を提供する提供部とを備えることを特徴とする情報処理装置。
【選択図】
図1
【特許請求の範囲】
【請求項1】
対応者によって対応される対象者の状態を検知する検知手段によって検知された検知情報を取得する取得部と、
前記検知情報に応じた前記対象者を所定の状態に誘導するための発話に関する発話情報を提供する提供部と
を備えることを特徴とする情報処理装置。
【請求項2】
前記検知情報に基づいて、前記対象者の感情に関する情報を推定する推定部をさらに備え、
前記提供部は、
前記推定部によって推定された対象者の感情に応じて、前記対象者を所定の状態に誘導するための発話情報を提供する
ことを特徴とする請求項1に記載の情報処理装置。
【請求項3】
前記提供部は、
前記所定の状態として、落ち着いた状態に誘導するための発話情報を提供する
ことを特徴とする請求項2に記載の情報処理装置。
【請求項4】
前記提供部は、
前記検知情報に応じた前記対象者を前記所定の状態に誘導するための発話情報を提供しつつ、前記対応者に対して、前記対象者に対する提案行動に関する情報を提供する
ことを特徴とする請求項1~3のいずれか1つに記載の情報処理装置。
【請求項5】
前記取得部は、
前記検知手段によって検知された対応者に関する検知情報を取得し、
前記提供部は、
前記検知情報に応じた前記対応者を所定の状態に誘導するための発話情報を提供する
ことを特徴とする請求項1~4のいずれか1つに記載の情報処理装置。
【請求項6】
前記提供部は、
前記対応者に関する検知情報に基づいて推定された前記対応者の感情が怒りの感情を示す場合、前記対象者を所定の状態に誘導するための発話情報を提供する
ことを特徴とする請求項5に記載の情報処理装置。
【請求項7】
前記提供部は、
前記対応者に関する検知情報に基づいて推定された前記対応者の感情が怒りの感情を示す場合、前記対応者を所定の状態に誘導するための発話情報を提供する
ことを特徴とする請求項5又は6に記載の情報処理装置。
【請求項8】
前記提供部は、
前記対応者に関する検知情報に基づいて推定された前記対応者の行動に応じて、前記対象者を所定の状態に誘導するための発話情報を提供する
ことを特徴とする請求項5~7のいずれか1つに記載の情報処理装置。
【請求項9】
前記提供部は、
前記対象者に関する検知情報に基づいて推定された前記対象者の行動に応じて、前記対象者を所定の状態に誘導するための発話情報を提供する
ことを特徴とする請求項1~8のいずれか1つに記載の情報処理装置。
【請求項10】
前記提供部は、
前記発話情報として、前記対象者を褒めるための発話に関する発話情報を提供する
ことを特徴とする請求項9に記載の情報処理装置。
【請求項11】
前記取得部は、
前記検知手段によって検知された対象者に関する検知情報と、前記対応者に関する検知情報とを取得し、
前記提供部は、
前記対象者に関する検知情報と、前記対応者に関する検知情報との組合せに応じた前記対象者又は前記対応者を所定の状態に誘導するための発話情報を提供する
ことを特徴とする請求項1~10のいずれか1つに記載の情報処理装置。
【請求項12】
前記取得部は、
前記検知手段によって検知された対象者の音声に関する音声情報を取得し、
前記提供部は、
前記音声情報に応じた前記対象者を前記所定の状態に誘導するための発話情報を提供する
ことを特徴とする請求項1~11のいずれか1つに記載の情報処理装置。
【請求項13】
前記取得部は、
前記検知手段によって検知された対応者の音声情報を取得し、
前記提供部は、
前記音声情報に応じた前記対応者を前記所定の状態に誘導するための発話情報を提供する
ことを特徴とする請求項1~12のいずれか1つに記載の情報処理装置。
【請求項14】
前記取得部は、
前記検知手段によって検知された対象者の生体情報を取得し、
前記提供部は、
前記生体情報に応じた前記対象者を前記所定の状態に誘導するための発話情報を提供する
ことを特徴とする請求項1~13のいずれか1つに記載の情報処理装置。
【請求項15】
前記取得部は、
前記検知手段によって検知された対応者の生体情報を取得し、
前記提供部は、
前記生体情報に応じた前記対応者を前記所定の状態に誘導するための発話情報を提供する
ことを特徴とする請求項1~14のいずれか1つに記載の情報処理装置。
【請求項16】
コンピュータが実行する情報処理方法であって、
対応者によって対応される対象者の状態を検知する検知手段によって検知された検知情報を取得する取得工程と、
前記検知情報に応じた前記対象者を所定の状態に誘導するための発話に関する発話情報を提供する提供工程と
を含むことを特徴とする情報処理方法。
【請求項17】
対応者によって対応される対象者の状態を検知する検知手段によって検知された検知情報を取得する取得手順と、
前記検知情報に応じた前記対象者を所定の状態に誘導するための発話に関する発話情報を提供する提供手順と
をコンピュータに実行させることを特徴とする情報処理プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、情報処理装置、情報処理方法及び情報処理プログラムに関する。
【背景技術】
【0002】
従来、母親や、父親といった親の音声を変換して胎動のリズムに合わせた音を乳幼児等の子供に聞かせる技術が提案されている。
【先行技術文献】
【特許文献】
【0003】
【特許文献1】特開2000-259199号公報
【特許文献2】特許第4482624号
【発明の概要】
【発明が解決しようとする課題】
【0004】
しかしながら、上記の従来技術では、母親や、父親といった親の音声を変換して胎動のリズムに合わせた音を子供に聞かせるに過ぎないため、子供にとって適切な音声を提供することができない場合がある。
【0005】
本願は、上記に鑑みてなされたものであって、対象者に対して適切な音声を提供することを目的とする。
【課題を解決するための手段】
【0006】
本願に係る情報処理装置は、対応者によって対応される対象者の状態を検知する検知手段によって検知された検知情報を取得する取得部と、前記検知情報に応じた前記対象者を所定の状態に誘導するための発話に関する発話情報を提供する提供部とを備えることを特徴とする情報処理装置。
【発明の効果】
【0007】
実施形態の一態様によれば、対象者に対して適切な音声を提供することができる。
【図面の簡単な説明】
【0008】
【
図1】
図1は、第1の実施形態に係る情報処理装置が実行する提供処理の一例を示す図である。
【
図2】
図2は、第1の実施形態に係る情報処理装置の構成の一例を示す図である。
【
図3】
図3は、第1の実施形態に係る推定情報記憶部の一例を示す図である。
【
図4】
図4は、第1の実施形態に係る発話情報記憶部の一例を示す図である。
【
図5】
図5は、第1の実施形態に係る音声情報記憶部の一例を示す図である。
【
図6】
図6は、第1の実施形態に係る情報処理装置が実行する提供処理の流れの一例を示すシーケンス図である。
【
図7】
図7は、第2の実施形態に係る情報処理装置が実行する提供処理の一例を示す図である。
【
図8】
図8は、第2の実施形態に係る情報処理装置が実行する提供処理の流れの一例を示すシーケンス図である。
【
図9】
図9は、第3の実施形態に係る情報処理装置が実行する提供処理の一例を示す図である。
【
図10】
図10は、第3の実施形態に係る情報処理装置が実行する提供処理の流れの一例を示すシーケンス図である。
【
図11】
図11は、変形例に係る情報処理装置が実行する提供処理の一例を示す図である。
【
図12】
図12は、変形例に係る情報処理装置が実行する提供処理の一例を示す図である。
【
図13】
図13は、変形例に係る情報処理装置が実行する提供処理の一例を示す図である。
【発明を実施するための形態】
【0009】
本明細書及び添付図面の記載により、少なくとも以下の事項が明らかとなる。
【0010】
対応者によって対応される対象者の状態を検知する検知手段によって検知された検知情報を取得する取得部と、前記検知情報に応じた前記対象者を所定の状態に誘導するための発話に関する発話情報を提供する提供部とを備えることを特徴とする情報処理装置。
【0011】
このような情報処理装置によれば、例えば、父親、母親といった親や、保母や、乳母等の対応者によって対応される対象者である新生児や、乳幼児等の子供の状態を検知する検知手段によって検知された検知情報を取得する。ここでいう子供の状態とは、例えば、心理的な状態や、体調に関する状態や、周囲の環境に関する状態等である。例えば、情報処理装置は、検知情報として、子供の泣き声といった音声を取得する。
【0012】
そして、情報処理装置は、例えば、子供の泣き声に応じた子供を泣き止ませるといった状態に誘導するための発話情報を提供する。例えば、情報処理装置は、発話情報をスマートスピーカ等のスピーカに提供する。そして、スピーカは、子供に対して、発話情報を音声として出力する。これにより、情報処理装置は、対象者に対して適切な音声を提供することができる。
【0013】
例えば、子供を泣き止ませる方法として、親によって利用されるスマートフォン等の端末装置に子供の泣き止ませ方に関するコンテンツを提供する方法も有り得る。しかしながら、一般に、育児で忙しい親は、端末装置を閲覧する余裕がない場合が多い。また、育児で忙しい親の場合、端末装置を常時、手に持ちながら行動することが必要となり、子供及び親ともに事故等に遭遇する危険性が高まる恐れがある。そのため、情報処理装置は、音声を用いて、子供を泣き止ませるための発話情報を提供することで、上記課題を解決することができる。
【0014】
また、親にとって子供がどのような原因で泣いているのかわからない場合がある。例えば、親は、育児中に子供が泣いている場合、子供が排便をしたためおむつの中に不快感を感じ泣いているのか、単純に泣いているのか、ぐずり泣きなのか等を瞬時に判断しなくてはならない。例えば、子供が泣いている原因と、子供に対して行なわれた対応とに齟齬が生じる場合、子供が泣き止まないことがある。例えば、子供が空腹であるために泣いている場合、おむつを交換したとしても、泣き止まないことがある。例えば、子供が眠くて泣いている場合、親が子守歌を歌ってあげることで、子供を安心させて眠りへと誘導できるときがある。一方で、子供の眠いといった感情が強い場合、子守歌を歌うといった対応を直接的に行わずに、一旦待機した後、そのまま寝かせた方がよいときもある。このように、子供が泣いている場合に、泣き止ませることを目的とした対応が適切な対応ではない場合が有り得る。
【0015】
また、子供への声がけは親が行うが、現在、核家族化が進んでいることで、祖父や、祖母による声がけといった様々な音声を子供が聞く機会が減少しつつある。また、核家族である場合、声を聞くためには、親がしゃべり続けなければならず、親にとって常に乳幼児に語りかけることは身体的及び精神的な負担になりやすい場合がある。
【0016】
また、子供にとっては、身の周りに生じる様々な事象が新しい事象となるため、恐怖心を感じ、ストレスを覚えて泣いてしまう場合がある。一方、子供の周りに生じる事象は、親にとっては当たり前の事象であるため、子供がなぜ泣いているかを理解することができない場合が有り得る。例えば、新生児を自分の家で育てる親を想定した場合、新生児にとっては家にあるものは全て新しいものであるのに対し、親にとっては自分の家であるため慣れ親しんだものである。このように、親は、家の環境が新生児にどのような刺激を与えているのか気が付きにくい場合が有り得る。
【0017】
このような場合、育児で忙しい親がストレスを感じる恐れがあり、親の身体的及び精神的な負担がより増すことが考えられる。そのため、情報処理装置は、子供の感情や、状況を示す子供の状態を推定することで、子供の状態を所定の状態に誘導するための発話情報を提供する。例えば、情報処理装置は、子供が泣いている状態である場合、子供を泣き止ませるための発話情報を提供する。このように、情報処理装置は、スピーカを介して、子供に発話情報を音声として出力するため、単純に子供を泣き止ませるだけではなく、子供をあやすといった親が行う行動と類似する効果を実現する。
【0018】
一般に、子供が泣き止む音楽や、泣き止む音といった音は、子供の気分が心地よくなって泣き止んでいるわけではなく、子供がびっくりして泣き止ませていることが知られている。また、従来、子供をあやしたり、泣き止ませたりするために、センサによって検知されたセンサ情報に基づいて、おもちゃ等を動作させ、おもちゃに内蔵されたスピーカから音声を出力する技術が知られている。しかしながら、このような対処方法では、適切な育児又は養育を子供に対して提供できていると必ずしも言えない場合がある。例えば、単純に、センサによるセンサ情報に応じて自動的に音声を出力するおもちゃ等を動作させるサービスは、子供に対して、所定の状態に誘導するための音声とは限らず、単一の音声を機械的に出力しているに過ぎない。このため、単一の音声を機械的に出力するような従来技術では、適切な育児又は養育を子供に対して提供できているとは限らない。また、子供から検知された検知情報を単に、親に提供するだけでは、適切な養育を行うことができないばかりか、親のストレスを増長させてしまう場合が有り得る。
【0019】
一般に、子供に対して育児又は養育する親が、直接的に子供に直接的に対応するのが望ましい。例えば、親は、子供が泣いている場合、子供を抱っこしながらあやす。このときに、親は、子供に対して、聴覚的な刺激(例えば、親のあやす音声)のみならず、視覚的な刺激(例えば、親の顔)や、触覚的な刺激(例えば、親の体温又は親の子供を触る感触)を感じさせる。これにより、複数の感覚を統合させるような対応を実現することで、子供の脳や、心の発達を促進することができると考えられている。
【0020】
そこで、情報提供装置は、子供が泣いているといった子供の状態を推定した上で、泣いている子供に対して適切な音声を提供することで、適切な育児及び養育を実現することを可能とする。このように、情報提供装置は、親に対して共同養育者といった役割を演じることで、親の育児及び養育の援助を実現する。
【0021】
これにより、情報提供装置は、親の身体的及び精神的な負担を軽減することができる。例えば、情報提供装置は、養育における育児負荷の軽減や、うまく子供を泣き止ませることができなといったストレスの軽減を実現することができる。このように、情報提供装置は、親による育児及び養育を容易にすることができる。
【0022】
また、情報処理装置は、前記検知情報に基づいて、前記対象者の感情に関する情報を推定し、推定された対象者の感情に応じて、前記対象者を所定の状態に誘導するための発話情報を提供する。
【0023】
このような情報処理装置によれば、検知情報に基づいて、対象者の感情に関する情報を推定し、推定された対象者の感情に応じて、対象者を所定の状態に誘導するための発話情報を提供するための発話情報を提供するため、対象者に対して適切な音声を提供することができる。
【0024】
また、情報処理装置は、前記所定の状態として、落ち着いた状態に誘導するための発話情報を提供する。
【0025】
このような情報処理装置によれば、所定の状態として、落ち着いた状態に誘導するための発話情報を提供するため、対象者に対して適切な音声を提供することができる。
【0026】
また、情報処理装置は、前記検知情報に応じた前記対象者を前記所定の状態に誘導するための発話情報を提供しつつ、前記対応者に対して、前記対象者に対する提案行動に関する情報を提供する。
【0027】
このような情報処理装置によれば、検知情報に応じた対象者を所定の状態に誘導するための発話情報を提供しつつ、対応者に対して、対象者に対する提案行動に関する情報を提供するため、対応者に対して、対象者に関する適切な行動を提案することができる。
【0028】
また、情報処理装置は、前記検知手段によって検知された対応者に関する検知情報を取得し、前記検知情報に応じた前記対応者を所定の状態に誘導するための発話情報を提供する。
【0029】
このような情報処理装置によれば、検知手段によって検知された対応者に関する検知情報を取得し、検知情報に応じた対応者を所定の状態に誘導するための発話情報を提供するため、対応者に対して適切な音声を提供することができる。
【0030】
また、情報処理装置は、前記対応者に関する検知情報に基づいて推定された前記対応者の感情が怒りの感情を示す場合、前記対象者を所定の状態に誘導するための発話情報を提供する。
【0031】
このような情報処理装置によれば、対応者に関する検知情報に基づいて推定された対応者の感情が怒りの感情を示す場合、対象者を所定の状態に誘導するための発話情報を提供するため、対象者に対して適切な音声を提供することができる。
【0032】
また、情報処理装置は、前記対応者に関する検知情報に基づいて推定された前記対応者の感情が怒りの感情を示す場合、前記対応者を所定の状態に誘導するための発話情報を提供する。
【0033】
このような情報処理装置によれば、対応者に関する検知情報に基づいて推定された対応者の感情が怒りの感情を示す場合、対応者を所定の状態に誘導するための発話情報を提供するため、対応者に対して適切な音声を提供することができる。
【0034】
また、情報処理装置は、前記対応者に関する検知情報に基づいて推定された前記対応者の行動に応じて、前記対象者を所定の状態に誘導するための発話情報を提供する。
【0035】
このような情報処理装置によれば、対応者に関する検知情報に基づいて推定された対応者の行動に応じて、対象者を所定の状態に誘導するための発話情報を提供するため、対象者に対して適切な音声を提供することができる。
【0036】
また、情報処理装置は、前記対象者に関する検知情報に基づいて推定された前記対象者の行動に応じて、前記対象者を所定の状態に誘導するための発話情報を提供する。
【0037】
このような情報処理装置によれば、対象者に関する検知情報に基づいて推定された対象者の行動に応じて、対象者を所定の状態に誘導するための発話情報を提供するため、対応者に対して適切な音声を提供することができる。
【0038】
また、情報処理装置は、前記発話情報として、前記対象者を褒めるための発話に関する発話情報を提供する。
【0039】
このような情報処理装置によれば、発話情報として、対象者を褒めるための発話に関する発話情報を提供するため、対象者に対して適切な音声を提供することができる。
【0040】
また、情報処理装置は、前記検知手段によって検知された対象者に関する検知情報と、前記対応者に関する検知情報とを取得し、前記対象者に関する検知情報と、前記対応者に関する検知情報との組合せに応じた前記対象者又は前記対応者を所定の状態に誘導するための発話情報を提供する。
【0041】
このような情報処理装置によれば、検知手段によって検知された対象者に関する検知情報と、対応者に関する検知情報とを取得し、対象者に関する検知情報と、対応者に関する検知情報との組合せに応じた対象者又は対応者を所定の状態に誘導するための発話情報を提供するため、対象者又は対応者に対して適切な音声を提供することができる。
【0042】
また、情報処理装置は、前記検知手段によって検知された対象者の音声に関する音声情報を取得し、前記音声情報に応じた前記対象者を前記所定の状態に誘導するための発話情報を提供する。
【0043】
このような情報処理装置によれば、検知手段によって検知された対象者の音声に関する音声情報を取得し、音声情報に応じた対象者を所定の状態に誘導するための発話情報を提供するため、対象者に対して適切な音声を提供することができる。
【0044】
また、情報処理装置は、前記検知手段によって検知された対応者の音声情報を取得し、前記音声情報に応じた前記対応者を前記所定の状態に誘導するための発話情報を提供する。
【0045】
このような情報処理装置によれば、検知手段によって検知された対応者の音声情報を取得し、音声情報に応じた対応者を所定の状態に誘導するための発話情報を提供するため、対応者に対して適切な音声を提供することができる。
【0046】
また、情報処理装置は、前記検知手段によって検知された対象者の生体情報を取得し、前記生体情報に応じた前記対象者を前記所定の状態に誘導するための発話情報を提供する。
【0047】
このような情報処理装置によれば、検知手段によって検知された対象者の生体情報を取得し、生体情報に応じた対象者を所定の状態に誘導するための発話情報を提供するため、対象者に対して適切な音声を提供することができる。
【0048】
また、情報処理装置は、前記検知手段によって検知された対応者の生体情報を取得し、前記生体情報に応じた前記対応者を前記所定の状態に誘導するための発話情報を提供する。
【0049】
このような情報処理装置によれば、検知手段によって検知された対応者の生体情報を取得し、生体情報に応じた対応者を所定の状態に誘導するための発話情報を提供するため、対応者に対して適切な音声を提供することができる。
【0050】
以下に、情報処理装置、情報処理方法及び情報処理プログラムを実施するための形態(以下、「実施形態」と記載する)の一例について図面を参照しつつ詳細に説明する。なお、この実施形態により情報処理装置、情報処理方法及び情報処理プログラムが限定されるものではない。また、以下の実施形態において同一の部位には同一の符号を付し、重複する説明は省略する。
【0051】
[1.第1の実施形態]
〔1-1.情報処理装置が示す提供処理の一例〕
図1を用いて、実施形態に係る情報処理装置100が実行する提供処理の一例について説明する。
図1は、実施形態に係る情報処理装置100が実行する提供処理の一例を示す図である。
【0052】
図1に示すように、第1の実施形態に係る情報処理システム1は、スピーカ10と、情報処理装置100とを含む。スピーカ10及び情報処理装置100は、図示しない所定のネットワークを介して有線又は無線により通信可能に接続される。なお、
図1に示す情報処理システム1には、複数台のスピーカ10や、複数台の情報処理装置100が含まれてもよい。
【0053】
第1の実施形態に係るスピーカ10は、音及び音声を集音したり、音、音声又は音楽を出力したりする情報処理装置であり、例えば、スマートスピーカ又はIoT(Internet of Things)機器等である。具体的には、スピーカ10は、周囲の音を取得するマイク等の入力装置と、任意の音を出力可能なスピーカ等の出力装置とを有する入出力装置である。
【0054】
例えば、スピーカ10は、対象者又は対応者が発した音声を検知可能なマイク等の音センサにより実現される。また、スピーカ10は、情報処理装置100によって提供された発話情報を音声として対象者に対して出力する。なお、スピーカ10は、音声認識機能や、音声再生機能や、音声合成機能や、音声応答機能等を有する情報処理装置であってもよい。
【0055】
第1の実施形態に係る情報処理装置100は、インターネット等の所定のネットワークを介して、各種の装置と通信可能な情報処理装置であり、例えば、サーバ装置又はクラウドシステム等により実現される。例えば、情報処理装置100は、インターネットを介して、他の各種装置と通信可能に接続される。
【0056】
以下、
図1を用いて、情報処理装置100による提供処理の一例を流れに沿って説明する。なお、以下の説明では、対象者が子供BA1であり、対象者を対応する対応者が、かかる子供BA1の母親PA1である例を挙げて説明する。
【0057】
図1の例では、情報処理装置100は、子供BA1が泣いた場合に、泣いているという子供BA1の行為、および、子供BA1がなぜ泣いているのかという原因等といった子供BA1の状態を推定する。そして、情報処理装置100は、推定結果に応じて、子供BA1を泣き止む状態に誘導するための発話情報を提供する。また、
図1の例では、子供BA1は、おむつに排泄しており、感触が気持ち悪くて泣いているものとする。
【0058】
まず、
図1に示すように、情報処理装置100は、音声情報を取得する(ステップS1)。例えば、スピーカ10は、子供BA1の泣き声に関する情報を取得する。そして、情報処理装置100は、スピーカ10から子供BA1の泣き声に関する情報を取得する。
【0059】
続いて、情報処理装置100は、取得した音声に基づいて、子供BA1の状態を推定する(ステップS2)。例えば、情報処理装置100は、取得した音声が泣き声か否かを判定する。また、情報処理装置100は、音声が泣き声であった場合、子供BA1の泣き声を音声解析する。そして、情報処理装置100は、泣き声が示す特徴的な波形に基づいて、子供BA1の感情を推定する。ここで、情報処理装置100は、子供BA1の感情が不快であり、イライラしている又は悲しい気持ちであると推定するものとする。
【0060】
なお、上記推定処理は、音声情報を用いた各種公知の感情推定技術が採用可能である。例えば、音声情報が示す泣き声の周波数特性と、泣いている際の子供の感情との関係性を学習したニューラルネットワーク等の学習モデルにより実現される。かかる学習モデルは、音声情報を入力した際に、子供が感じていると推定される感情を示す情報を出力する。また、上記推定処理は、泣き声が示す周波数特性と、子供の感情とが対応付けられたテーブル等を用いることで実現されてもよい。
【0061】
そして、情報処理装置100は、発話情報をスピーカ10に提供する(ステップS3)。例えば、情報処理装置100は、推定された子供BA1の感情が不快であり、イライラしている又は悲しい気持ちである場合、子供BA1をあやすような発話内容「すぐにお母さんが取り替えるからねぇ」を含む発話情報を選択する。そして、情報処理装置100は、選択した発話情報をスピーカ10に提供する。また、情報処理装置100は、発話情報に、子供BA1に出力する音声情報を含めてもよい。例えば、情報処理装置100は、子供BA1に出力する音声情報として、人工的な音声に関する情報を発話情報に含めて、かかる発話情報をスピーカ10に提供してもよい。
【0062】
続いて、スピーカ10は、発話情報を音声として子供BA1に出力する(ステップS4)。例えば、スピーカ10は、「すぐにお母さんが取り替えるからねぇ」といった音声を子供BA1に対して出力する。
【0063】
また、スピーカ10は、予め情報処理装置100から母親PA1に対する発話情報が提供された場合には、子供BA1に対して上記音声を出力した後に、「おむつを取り替えたがっていますよ!」といった音声を母親PA1に対して出力する。この場合、スピーカ10は、指向性を有した音声を子供BA1又は母親PA1に出力することで、音声を出し分けることができる。
【0064】
他の例として、情報処理装置100は、おむつを準備することや、ミルク等の食事を準備すること等といった母親PA1が準備に時間がかかる対応である場合、音声を複数回、子供BA1に対して出力することで子供BA1をあやす時間を変更してもよい。例えば、母親PA1がおむつを準備するものとする。この場合、情報処理装置100は、スピーカ10に予め複数の発話情報を提供する。そして、スピーカ10は、「すぐにお母さんが取り替えるからねぇ」といった音声を子供BA1に対して出力する。また、スピーカ10は、所定の期間(例えば、数分)経過後、「今、お母さんがおむつを探しにいっているよ」といった音声を子供BA1に対して出力する。また、スピーカ10は、所定の期間(例えば、数分)経過後、「よしよし、元気だねー!」といったあやす内容を音声として子供BA1に対して出力する。
【0065】
また、母親PA1がミルクを準備するものとする。この場合、情報処理装置100は、スピーカ10に予め複数の発話情報を提供する。そして、スピーカ10は、「おなかすいたね~!」といった音声を子供BA1に対して出力する。また、スピーカ10は、所定の期間(例えば、数分)経過後、「おいしいごはんが今できるよ~」といった音声を子供BA1に対して出力する。また、スピーカ10は、所定の期間(例えば、数分)経過後、「よしよし、もうすこしだよ!」といったあやす内容を音声として子供BA1に対して出力する。
【0066】
このように、情報処理装置100は、親が準備に時間がかかる対応である場合、スピーカ10に予め複数の発話情報を提供することで、子供に対してあやす時間を適宜長くするような音声を提供してもよい。
【0067】
従来技術では、母親や、父親といった親の音声を変換して胎動のリズムに合わせた音を子供に聞かせるに過ぎないため、子供の状態に合わせた適切な音声を提供することができない場合があった。そこで、実施形態に係る情報処理装置100は、対応者によって対応される対象者の状態を検知する検知手段によって検知された検知情報を取得し、検知情報に応じた対象者を所定の状態に誘導するための発話に関する発話情報を提供する。これにより、情報処理装置100は、従来の課題を解決する。このように、情報処理装置100は、対象者に対して適切な音声を提供することができる。
【0068】
このように、情報処理装置100は、育児に忙しい母親の手を煩わせることなく、音声により子供に対してあやすことが可能となる。また、情報処理装置100は、育児中に端末装置等を確認できない母親に対して、音声により育児のアドバイスを提供することが可能となる。これにより、情報処理装置100は、親の育児及び養育におけるストレスを低減することができる。
【0069】
また、情報処理装置100は、「おむつを取り替えて」といった推定された子供の感情の原因を示す情報を提供するので、親に対して、子供がなぜ泣いているかといった原因の解釈を容易にさせることができる。このように、情報処理装置100は、発話により原因を伝えることができない子供の気持ちの解釈を親に容易にさせることができるため、親のストレスを軽減することができる。
【0070】
また、現在では、核家族化が進んでいる家庭が多い。以前、拡大家族の場合では、父親が勤務等でいない場合には、母親が忙しいときに、母親の代わりに祖母が子供の面倒をみることがあった。また、母親では子供をあやせない場合には、母親の代わりに祖母があやすことで、子供が泣き止む場合があった。また、母親と、祖母とが交互に子供をあやすことで、子供が泣き止むことがあった。このように、以前では、母親に対して共同で育児及び養育する人がいたため、母親は、母親自身の感情のコントロールがしやすかった。
【0071】
一方、現在では、父親が勤務等でいない場合には、母親が子供の面倒をみる場合が多い。このように、母親のみが育児及び養育を行わざるを得ない場合がある。そのため、母親の負担が以前よりも増すと考えられる。また、母親のみで子供の面倒をみるときには、子供は、母親が話し続けないと、何の音や、音声も聞かなくなってしまい、子供の脳や心の発達に良い影響を与えない可能性が有り得る。しかしながら、子供の発達を考慮して、母親が話し続けると、母親の負担がさらに増すこととなる。そこで、情報処理装置100は、母親の代わりに、スピーカ10を介して音声を子供に届けることで、共同養育者とした機能を提供することができる。また、情報処理装置100は、育児中に不安定な気持ちになっている母親に対して、自身とは異なる他の音声を聞かせることで、母親が冷静になる時間又は機会を提供することができる。
【0072】
〔1-2.情報処理装置の構成〕
次に、
図2を用いて、第1の実施形態に係る情報処理装置100の構成について説明する。
図2は、第1の実施形態に係る情報処理装置100の構成例を示す図である。
図2に示すように、情報処理装置100は、通信部110と、記憶部120と、制御部130とを有する。
【0073】
(通信部110について)
第1の実施形態に係る通信部110は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部110は、ネットワークNと有線又は無線で接続され、各種装置間で情報の送受信を行う。
【0074】
(記憶部120について)
第1の実施形態に係る記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。記憶部120は、推定情報記憶部121と、発話情報記憶部122と、音声情報記憶部123とを有する。
【0075】
(推定情報記憶部121について)
第1の実施形態に係る推定情報記憶部121は、推定された各種情報を記憶する。ここで、
図3に、第1の実施形態に係る推定情報記憶部121の一例を示す。
図3に示した例では、推定情報記憶部121は、「推定情報ID」、「推定対象ID」、「推定情報」といった項目を有する。また、「推定情報」は、「音声情報」、「状態」といった項目をさらに有する。
【0076】
「推定情報ID」は、推定情報を識別する識別子である。「推定対象ID」は、「推定情報ID」に対応付けられた推定された対象者を識別する識別子である。「音声情報」は、「推定情報ID」及び「推定対象ID」に対応付けられたスピーカ10から取得された音声情報である。
【0077】
「状態」は、「推定情報ID」及び「推定対象ID」に対応付けられた推定対象の状態である。ここでいう状態とは、例えば、推定対象の感情等といった心理的な状態や、体調に関する状態や、推定対象のおかれている周囲の環境に関する状態等である。
【0078】
例えば、
図3では、推定情報IDによって識別された「E1」は、推定対象IDが「EO1」であり、音声情報が「VI1」であり、状態が「ST1」である。なお、
図3に示した例では、音声情報等を、「VI1」等の抽象的な符号で表現したが、音声情報等は、音声情報等を含むファイルのファイル形式等であってもよい。
【0079】
また、他の項目として、音声情報を取得した日時や、状態を推定した日時等に関する情報を有してもよい。例えば、推定情報記憶部121は、音声情報と、音声情報を取得した日時とを対応付けて記憶してもよい。また、推定情報記憶部121は、状態と、状態を推定した日時とを対応付けて記憶してもよい。
【0080】
なお、「音声情報」の項目は、後述するセンサによって検知された「センサ情報」に置き換えられてもよい。この場合、推定情報記憶部121には、「音声情報」の代わりに、「センサ情報」が記憶される。また、推定情報記憶部121には、「音声情報」と、「センサ情報」とが取得された場合、「音声情報」と、「センサ情報」とが「推定情報ID」及び「推定対象ID」に対応付けられて記憶されてもよい。
【0081】
(発話情報記憶部122について)
第1の実施形態に係る発話情報記憶部122は、各種発話情報を記憶する。ここで、
図4に、実施形態に係る発話情報記憶部122の一例を示す。
図4に示した例では、発話情報記憶部122は、「発話情報ID」、「発話情報」といった項目を有する。
【0082】
「発話情報ID」は、発話情報を識別する識別子である。「発話情報」は、「発話情報ID」に対応付けられた発話内容に関する情報である。ここでいう発話内容とは、例えば、「よしよし」、「良い子、良い子」といった子供に対して発話される発話内容や、「あわてなくても大丈夫だよ」、「赤ちゃんの声を聴くと、おむつが濡れているみたいだからおむつを準備しておいて」といった親に対して発話される発話内容や、「いつもこういうことをやっているけど、今日はこういうことをやらないの?」、「忘れていない?」といったそれ以外の発話内容等である。
【0083】
例えば、
図4では、発話情報IDによって識別された「T1」は、発話情報が「UT1」である。なお、
図4に示した例では、発話情報を、「UT1」等の抽象的な符号で表現したが、発話情報は、発話内容を含むファイルのファイル形式等であってもよい。
【0084】
(音声情報記憶部123について)
第1の実施形態に係る音声情報記憶部123は、各種音声情報を記憶する。ここで、
図5に、実施形態に係る音声情報記憶部123の一例を示す。
図5に示した例では、音声情報記憶部123は、「音声情報ID」、「音声情報」といった項目を有する。
【0085】
「音声情報ID」は、音声情報を識別する識別子である。「音声情報」は、「音声情報ID」に対応付けられた音声情報である。例えば、音声情報とは、母親の声や、父親の声や、母親の声に基づいて生成された人工的な音声や、父親の声に基づいて生成された人工的な音声や、人工的に作成された人工的な音声等である。ここで、人工的な音声は、男性や、女性や、キャラクタ等の音声である。
【0086】
例えば、
図5では、音声情報IDによって識別された「V1」は、音声情報が「VO1」である。なお、
図5に示した例では、音声情報を、「VO1」等の抽象的な符号で表現したが、音声情報は、音声情報を含むファイルのファイル形式等であってもよい。
【0087】
(制御部130について)
第1の実施形態に係る制御部130は、コントローラ(Controller)であり、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、情報処理装置100内部の記憶装置に記憶されている各種プログラム(情報処理プログラムの一例に相当)がRAMを作業領域として実行されることにより実現される。また、制御部130は、コントローラであり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。
【0088】
図2に示すように、制御部130は、取得部131と、推定部132と、提供部133とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部130の内部構成は、
図2に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。また、制御部130が有する各処理部の接続関係は、
図2に示した接続関係に限られず、他の接続関係であってもよい。
【0089】
(取得部131について)
第1の実施形態に係る取得部131は、各種情報を取得する。具体的には、取得部131は、対応者によって対応される対象者の状態を検知する検知手段によって検知された検知情報を取得する。ここで、検知情報とは、例えば、スピーカ10によって集音された音声情報や、センサによって検知されたセンサ情報である。
【0090】
例えば、子供が泣いているものとする。この場合、取得部131は、スピーカ10から子供の泣き声に関する情報を取得する。そして、取得部131は、取得した子供の泣き声に関する情報を音声情報として推定情報記憶部121に記憶する。
【0091】
(推定部132について)
第1の実施形態に係る推定部132は、取得部131によって取得された検知情報に基づいて、対象者又は対応者の感情に関する情報を推定する。例えば、推定部132は、推定情報記憶部121に記憶された音声情報が示す音声が泣き声か否かを判定する。また、推定部132は、音声が泣き声であった場合、子供の泣き声を音声解析する。そして、推定部132は、泣き声が示す特徴的な波形に基づいて、子供の感情を推定する。より具体的な例を挙げて説明すると、推定部132は、子供の泣き声が示す特徴的な波形に基づいて、子供の感情が不快であり、イライラしている又は悲しい気持ちであると推定する。そして、推定部132は、推定した子供の感情が不快であり、イライラしている又は悲しい気持ちであるといった情報を状態に関する情報として推定情報記憶部121に記憶する。
【0092】
なお、上記推定処理は、音声情報を用いた各種公知の感情推定技術が採用可能である。例えば、音声情報が示す泣き声の周波数特性と、泣いている際の子供の感情との関係性を学習したニューラルネットワーク等の学習モデルにより実現される。かかる学習モデルは、音声情報を入力した際に、子供が感じていると推定される感情を示す情報を出力する。
【0093】
例えば、推定部132は、バックプロパゲーション(誤差逆伝播法)等の手法により学習モデルを生成する。例えば、推定部132は、学習処理により、ノード間で値が伝達する際に考慮される重みの値を調整する。このように、推定部132は、学習モデルにおける出力と、入力に対応する正解との誤差が少なくなるようにパラメータを補正するバックプロパゲーション等の処理により学習モデルを生成する。例えば、推定部132は、所定の損失関数を最小化するようにバックプロパゲーション等の処理を行うことにより学習モデルを生成する。
【0094】
また、上記推定処理は、泣き声が示す周波数特性と、子供の感情とが対応付けられたテーブル等を用いることで実現されてもよい。例えば、推定部132は、かかるテーブルを参照することで、取得部131によって取得された泣き声が示す周波数特性に対応する子供の感情に関する情報を推定してもよい。
【0095】
(提供部133について)
第1の実施形態に係る提供部133は、各種情報を提供する。具体的には、提供部133は、検知情報に応じた対象者を所定の状態に誘導するための発話に関する発話情報を提供する。例えば、提供部133は、推定された子供の感情が不快であり、イライラしている又は悲しい気持ちである場合、子供をあやすような発話内容「すぐにお母さんが取り替えるからねぇ」を含む発話情報を発話情報記憶部122から選択する。そして、提供部133は、選択した発話情報をスピーカ10に提供する。
【0096】
また、提供部133は、母親に対する発話内容として、「おむつを取り替えたがっていますよ!」を含む発話情報を発話情報記憶部122から選択する。そして、提供部133は、選択した発話情報をスピーカ10に提供する。
【0097】
他の例では、提供部133は、推定された子供の状態が眠い場合、母親に対する発話内容として、「眠いようです。泣くことは悪くありません。そのままにして様子をみましょう」を含む発話情報を発話情報記憶部122から選択する。そして、提供部133は、選択した発話情報をスピーカ10に提供する。
【0098】
また、提供部133は、発話情報に、子供に出力する音声情報を含めてもよい。例えば、提供部133は、子供に出力する音声情報として、人工的な音声に関する情報を音声情報記憶部123から選択する。そして、提供部133は、選択した音声情報を発話情報に含めて、かかる発話情報をスピーカ10に提供してもよい。
【0099】
〔1-3.処理手順〕
次に、
図6を用いて、第1の実施形態に係る情報処理装置100が実行する提供処理の手順について説明する。
図6は、第1の実施形態に係る情報処理装置100が実行する提供処理の流れの一例を示すシーケンス図である。
【0100】
図6に示すように、スピーカ10は、子供の泣き声を取得する(ステップS101)。そして、情報処理装置100の取得部131は、子供の泣き声に関する音声情報をスピーカ10から取得する(ステップS102)。
【0101】
また、情報処理装置100の推定部132は、泣き声に関する音声情報に基づいて、子供の状態を推定する(ステップS103)。そして、情報処理装置100の提供部133は、子供の状態に応じた発話情報をスピーカ10に提供する(ステップS104)。そして、スピーカ10は、発話情報を音声として出力する(ステップS105)。
【0102】
[2.第2の実施形態]
〔2-1.情報処理装置が示す提供処理の一例〕
次に、第2の実施形態について説明する。上述してきた第1の実施形態では、情報処理装置100は、スピーカ10から取得された音声情報に基づいて、子供の状態を推定し、推定した子供の状態に応じた発話情報をスピーカ10に提供する提供処理の一例を説明した。第2の実施形態では、情報処理装置100は、センサによって検知された子供の生体情報に基づいて、子供の状態を推定し、推定した子供の状態に応じた発話情報をスピーカ10に提供する提供処理の例を示す。
【0103】
まず、
図7を用いて、第2の実施形態に係る情報処理装置100が実行する提供処理の一例について説明する。
図7は、第2の実施形態に係る情報処理装置100が実行する提供処理の一例を示す図である。
【0104】
図7に示すように、第2の実施形態に係る情報処理システム2は、スピーカ10と、センサ20と、情報処理装置100とを含む。スピーカ10、センサ20及び情報処理装置100は、図示しない所定のネットワークを介して有線又は無線により通信可能に接続される。なお、
図7に示す情報処理システム2には、複数台のスピーカ10や、複数台のセンサ20や、複数台の情報処理装置100が含まれてもよい。
【0105】
第2の実施形態に係るスピーカ10は、第1の実施形態に係るスピーカ10と同一の処理を実行するため、説明を省略する。
【0106】
第2の実施形態に係るセンサ20は、対象者又は対応者の各種情報を検知する検知装置である。例えば、センサ20は、IoT機器等により実現される。例えば、センサ20は、対象者又は対応者の近傍に設置され、対象者又は対応者の各種情報を検知可能な各種センサにより実現される。例えば、センサ20は、各種センサを用いて、対象者又は対応者の生体情報を検知する。
【0107】
例えば、センサ20は、対象者又は対応者の心拍数を推定してもよい。また、センサ20は、温度センサ等を用いて、対象者又は対応者の周囲の温度を測定してもよい。また、センサ20は、温度センサ等を用いて、対象者又は対応者の体温を測定してもよい。また、センサ20は、赤外線カメラ等を用いて、対象者又は対応者の体温を測定してもよい。また、センサ20は、湿度センサ等を用いて、対象者又は対応者の体表面や周囲の湿度を測定してもよい。そして、センサ20は、湿度の測定結果に応じて、対象者又は対応者の発汗状態を測定してもよい。
【0108】
第2の実施形態に係る情報処理装置100は、第1の実施形態に係る情報処理装置100と同一の処理を実行するため、説明を省略する。
【0109】
以下、
図7を用いて、情報処理装置100による提供処理の一例を流れに沿って説明する。なお、以下の説明では、対象者が子供BA1であり、対象者を対応する対応者が、かかる子供BA1の母親PA1である例を挙げて説明する。
【0110】
図7の例では、情報処理装置100は、子供BA1が泣いた場合に、泣いているという子供BA1の行為、および、子供BA1がなぜ泣いているのかという原因等といった子供BA1の状態を推定する。そして、情報処理装置100は、推定結果に応じて、子供BA1を泣き止む状態に誘導するための発話情報を提供する。また、
図7の例では、子供BA1は、おむつに排泄しており、感触が気持ち悪くて泣いているものとする。
【0111】
まず、
図7に示すように、情報処理装置100は、センサ20によって検知された子供BA1の生体情報を取得する(ステップS21)。ここでいう生体情報は、例えば、心拍数や、体温や、発汗量等に関する情報である。
【0112】
例えば、センサ20は、子供BA1の心拍数の上昇や、体温の上昇や、発汗量の増加といった生体情報を取得する。そして、情報処理装置100は、かかる生体情報をセンサ20から取得する。
【0113】
続いて、情報処理装置100は、取得した生体情報に基づいて、子供BA1の状態を推定する(ステップS22)。例えば、情報処理装置100は、取得した生体情報のうち、子供BA1の心拍数の上昇や、体温の上昇や、発汗量の増加といったいずれかの情報が所定の条件を満たす否かを判定する。例えば、情報処理装置100は、心拍数の上昇が所定の閾値以上の変動である場合、子供BA1の感情が不快であり、イライラしている又は悲しい気持ちであると推定する。
【0114】
なお、上記推定処理は、生体情報を用いた各種公知の感情推定技術が採用可能である。例えば、生体情報と、泣いている際の子供の感情との関係性を学習したニューラルネットワーク等の学習モデルにより実現される。かかる学習モデルは、生体情報を入力した際に、子供が感じていると推定される感情を示す情報を出力する。また、上記推定処理は、生体情報と、子供の感情とが対応付けられたテーブル等を用いることで実現されてもよい。
【0115】
そして、情報処理装置100は、発話情報をスピーカ10に提供する(ステップS23)。例えば、情報処理装置100は、推定された子供BA1の感情が不快であり、イライラしている又は悲しい気持ちである場合、子供BA1をあやすような発話内容「すぐにお母さんが取り替えるからねぇ」を含む発話情報を選択する。そして、情報処理装置100は、選択した発話情報をスピーカ10に提供する。また、情報処理装置100は、発話情報に、子供BA1に出力する音声情報を含めてもよい。
【0116】
続いて、スピーカ10は、発話情報を音声として子供BA1に出力する(ステップS24)。例えば、スピーカ10は、「すぐにお母さんが取り替えるからねぇ」といった音声を子供BA1に対して出力する。このように、情報処理装置100は、育児に忙しい母親の手を煩わせることなく、音声により子供に対してあやすことが可能となる。
【0117】
〔2-2.処理手順〕
次に、
図8を用いて、第2の実施形態に係る情報処理装置100が実行する提供処理の手順について説明する。
図8は、第2の実施形態に係る情報処理装置100が実行する提供処理の流れの一例を示すシーケンス図である。
【0118】
図8に示すように、センサ20は、子供の生体情報を取得する(ステップS201)。そして、情報処理装置100の取得部131は、子供の生体情報をセンサ20から取得する(ステップS202)。
【0119】
また、情報処理装置100の推定部132は、生体情報に基づいて、子供の状態を推定する(ステップS203)。そして、情報処理装置100の提供部133は、子供の状態に応じた発話情報をスピーカ10に提供する(ステップS204)。そして、スピーカ10は、発話情報を音声として出力する(ステップS205)。
【0120】
[3.第3の実施形態]
〔3-1.情報処理装置が示す提供処理の一例〕
次に、第2の実施形態について説明する。上述してきた第1の実施形態では、情報処理装置100は、スピーカ10から取得された音声情報に基づいて、子供の状態を推定し、推定した子供の状態に応じた発話情報をスピーカ10に提供する提供処理の一例を説明した。第3の実施形態では、情報処理装置100は、センサによって検知された子供の生体情報に基づいて、子供の状態を推定し、推定した子供の状態に応じた発話情報をスピーカ10に提供する。そして、情報処理装置100は、推定した子供の状態に応じた対応を提案行動として端末装置に提供する提供処理の例を示す。
【0121】
まず、
図9を用いて、第3の実施形態に係る情報処理装置100が実行する提供処理の一例について説明する。
図9は、第3の実施形態に係る情報処理装置100が実行する提供処理の一例を示す図である。
【0122】
図9に示すように、第3の実施形態に係る情報処理システム3は、スピーカ10と、センサ20と、端末装置30と、情報処理装置100とを含む。スピーカ10、センサ20、端末装置30及び情報処理装置100は、図示しない所定のネットワークを介して有線又は無線により通信可能に接続される。なお、
図9に示す情報処理システム3には、複数台のスピーカ10や、複数台のセンサ20や、複数台の端末装置30や、複数台の情報処理装置100が含まれてもよい。
【0123】
第3の実施形態に係るスピーカ10は、第1の実施形態に係るスピーカ10と同一の処理を実行するため、説明を省略する。
【0124】
第3の実施形態に係るセンサ20は、第2の実施形態に係るセンサ20と同一の処理を実行するため、説明を省略する。
【0125】
第3の実施形態に係る端末装置30は、ブラウザに表示されるウェブコンテンツやアプリケーション用のコンテンツ等のコンテンツにアクセスする利用者によって利用される情報処理装置である。例えば、端末装置30は、デスクトップ型PC(Personal Computer)や、ノート型PCや、タブレット端末や、携帯電話機や、PDA(Personal Digital Assistant)や、スマートウォッチ等のウェアラブルデバイス等である。
【0126】
第3の実施形態に係る情報処理装置100は、第1の実施形態に係る情報処理装置100と同一の処理を実行するため、説明を省略する。
【0127】
以下、
図9を用いて、情報処理装置100による提供処理の一例を流れに沿って説明する。なお、以下の説明では、対象者が子供BA1であり、対象者を対応する対応者が、かかる子供BA1の母親PA1である例を挙げて説明する。
【0128】
図9の例では、情報処理装置100は、子供BA1が泣いた場合に、泣いているという子供BA1の行為、および、子供BA1がなぜ泣いているのかという原因等といった子供BA1の状態を推定する。そして、情報処理装置100は、推定結果に応じて、子供BA1を泣き止む状態に誘導するための発話情報を提供する。また、
図9の例では、子供BA1は、おむつに排泄しており、感触が気持ち悪くて泣いているものとする。
【0129】
まず、
図9に示すように、情報処理装置100は、センサ20によって検知された子供BA1の生体情報を取得する(ステップS31)。ステップS31は、ステップS21と同一の処理のため、説明を省略する。
【0130】
続いて、情報処理装置100は、取得した生体情報に基づいて、子供BA1の状態を推定する(ステップS32)。例えば、情報処理装置100は、取得した生体情報のうち、子供BA1の心拍数の上昇や、体温の上昇や、発汗量の増加といったいずれかの情報が所定の条件を満たす否かを判定する。例えば、情報処理装置100は、心拍数の上昇が所定の閾値以上の変動である場合、子供BA1の感情がさみしい気持ちであると推定する。
【0131】
そして、情報処理装置100は、発話情報をスピーカ10に提供する(ステップS33)。例えば、情報処理装置100は、推定された子供BA1の感情がさみしい気持ちである場合、子供BA1を安心させる発話内容「すぐにお母さんが来るからねぇ」を含む発話情報を選択する。そして、情報処理装置100は、選択した発話情報をスピーカ10に提供する。また、情報処理装置100は、発話情報に、子供BA1に出力する音声情報を含めてもよい。
【0132】
続いて、スピーカ10は、発話情報を音声として子供BA1に出力する(ステップS34)。例えば、スピーカ10は、「すぐにお母さんが来るからねぇ」といった音声を子供BA1に対して出力する。このように、情報処理装置100は、母親がすぐに対応できない場合に、スピーカ10を介して出力された人工音声で子供BA1をあやすことで、母親PA1の手の空く時間を作る機会を提供することができる。
【0133】
そして、情報処理装置100は、提案行動に関する情報を提供する(ステップS35)。例えば、情報処理装置100は、子供のさみしいという感情を和らげるための提案行動を母親PA1によって利用される端末装置30に提供する。より具体的な例を挙げて説明すると、情報処理装置100は、「今、ABCDちゃんはさみしい気持ちです。抱っこしてあげましょう」という母親PA1に対して子供BA1を直接的に世話させるための情報を提供する。また、情報処理装置100は、「今、ABCDちゃんはさみしい気持ちです。歌いかけてあげましょう」という母親PA1に対して子供BA1を直接的に世話させるための情報を提供する。このように、情報処理装置100は、子供の状態に応じた適切な提案行動を母親に対して提供することができる。
【0134】
〔3-2.処理手順〕
次に、
図10を用いて、第3の実施形態に係る情報処理装置100が実行する提供処理の手順について説明する。
図10は、第3の実施形態に係る情報処理装置100が実行する提供処理の流れの一例を示すシーケンス図である。
【0135】
図10に示すように、センサ20は、子供の生体情報を取得する(ステップS301)。そして、情報処理装置100の取得部131は、子供の生体情報をセンサ20から取得する(ステップS302)。
【0136】
また、情報処理装置100の推定部132は、生体情報に基づいて、子供の状態を推定する(ステップS303)。そして、情報処理装置100の提供部133は、子供の状態に応じた発話情報をスピーカ10に提供する(ステップS304)。そして、スピーカ10は、発話情報を音声として出力する(ステップS305)。また、情報処理装置100の提供部133は、提案行動に関する情報を端末装置30に提供する(ステップS306)。
【0137】
[4.変形例]
上述した情報処理装置100は、上記実施形態以外にも種々の異なる形態にて実施されてよい。そこで、以下では、情報処理装置100の他の実施形態について説明する。
【0138】
〔4-1.センサ〕
上記実施形態では、センサ20が子供又は母親の生体情報を検知するセンサである例を挙げて説明したが、これに限定されなくともよい。例えば、センサ20は、生体情報を検知するセンサのみならず、各種センサであってもよい。
【0139】
例えば、センサ20は、匂いセンサを用いて、子供又は母親の周囲の匂いを測定してもよい。例えば、センサ20は、子供が着用するおむつに取付けられた匂いセンサが検知した匂いに基づいて、子供が排尿又は排便を行ったことを検知してもよい。
【0140】
また、センサ20は、おむつに装着され、電気容量の変動に基づいて、排尿又は排便を検知する排泄センサのセンサ情報に基づいて、子供が排尿又は排便を行ったか否かを検知してもよい。
【0141】
また、センサ20は、カメラ等の撮像手段を用いて、子供又は母親の動きを撮影し、撮影した静止画像や動画像等をセンサ情報として検知する。また、センサ20は、子供が利用するおもちゃや、楽器等といった所定の物体に付与された接触センサを用いて、子供が所定の物体に接触したことを検知してもよい。なお、センサ20は、例えば、時計等といった時刻を検知するセンサであってもよい。
【0142】
また、センサ20は、各種センサにより検知された情報のみならず、これらのセンサ情報から推定される内容を状態情報として検知してもよい。例えば、センサ20は、カメラにより撮影された画像から、子供が所定の物体に接触したか否か推定し、子供が所定の物体に接触したと推定される場合は、子供が所定の物体に接触した旨の状態情報を生成してもよい。
【0143】
また、センサ20は、複数のセンサにより検知されたセンサ情報の組合せに基づいて、子供の状態を検知してもよい。例えば、センサ20は、温度センサにより対象者の体温が上昇し、かつ、匂いセンサが便の匂いを検知した場合は、子供が排泄したことを示す状態情報を生成してもよい。
【0144】
なお、
図7、9、12及び13に示す例では、センサ20の一例として、子供を撮影するカメラを備えたセンサを記載したが、これに限定されなくともよい。センサ20は、検知を目的とした装置として独立していなくてもよく、他の製品に含まれるように構成されてもよい。例えば、センサ20は、スマートテレビ等の各種家電製品であってもよい。
【0145】
また、センサ20は、ぬいぐるみや、ぬいぐるみ型のロボット等であってもよい。また、センサ20は、子供又は母親に対して接触する接触型のセンサであってもよく、子供又は母親に接触しない非接触型のセンサであってもよい。また、センサ20は、端末装置30が有するハードウェアにより実現されるように構成されてもよい。例えば、センサ20は、端末装置30にインストールされたアプリケーションにより実現されるように構成されてもよい。
【0146】
〔4-2.音声〕
上記実施形態では、音声が人工的な音声である例を挙げて説明したが、これに限定されない。例えば、音声は、子供にとって心地がいい音声であれば如何なる音声でもよい。また、子供の親の音声よりも心地よい音声であってもよい。
【0147】
例えば、音声は、子供にとって心地よいと感じる周波数を有する音声であってもよい。また、音声は、親そのものの音声であってもよく、親の音声に基づいて生成された人工的な音声であってもよい。また、音声は、予め親が発話した音声の録音であってもよい。また、音声は、親とは異なる第三者の音声であってもよい。
【0148】
例えば、スピーカ10は、父親と、子供との音声を取得したものとする。この場合、情報処理装置100は、音声情報として、母親の音声に基づいて生成した人工的な音声を用いてもよい。
【0149】
また、上記実施例では、情報処理装置100の提供部133が音声情報記憶部123から音声を選択する例を挙げたが、これに限定されなくともよい。例えば、提供部133は、逐次適切な音声を生成してもよい。例えば、音声情報記憶部123に音声の生成に必要な各種情報が記憶されているものとする。この場合、提供部133は、音声情報記憶部123に記憶される各種情報に基づいて、音声を生成してもよい。そして、提供部133は、かかる生成した音声に関する音声情報を発話情報に含めてもよい。
【0150】
また、上記実施形態では、スピーカ10が発話情報を音声として出力する例を挙げて説明したが、これに限定されない。例えば、スピーカ10は、子供又は親がリラックスするような音楽を出力してもよい。
【0151】
〔4-3.音声の言語〕
上記実施形態では、音声が人工的な音声である例を挙げて説明したが、これに限定されない。例えば、音声の言語は、如何なる言語であってもよい。また、音声の言語は、予め親に設定されてもよい。
【0152】
例えば、母親が日本人であり、父親がアメリカ人であるものとする。この場合、音声の言語は、日本語及び英語に設定されてもよい。この場合、スピーカ10は、日本語を8割で出力し、英語を2割で出力してもよい。また、母親が日本人であり、父親が中国人であるものとする。この場合、音声の言語は、日本語及び中国語に設定されてもよい。この場合、スピーカ10は、日本語を5割で出力し、中国語を5割で出力してもよい。なお、音声の言語の出力割合は、親によって適宜設定可能であってもよい。
【0153】
また、上記例以外にも、母親及び父親が日本人であっても、音声の言語を子供に習得させたい言語を含めるように設定されてもよい。例えば、子供に習得させたい言語が英語であるものとする。この場合、スピーカ10は、日本語を8割で出力し、英語を2割で出力してもよい。このように、スピーカ10は、子供の言語習得の支援を行うことができる。一般に、家庭環境が子供の言語習得に影響を及ぼすことが知られている。このため、スピーカ10は、親が子供に習得してほしい言語を出力する音声に含めることで、子供に対して言語習得に関する育児又は養育を行うことを可能とする。
【0154】
〔4-4.スピーカ〕
上記実施形態では、スピーカ10が発話情報を音声として出力する例を挙げて説明したが、これに限定されない。例えば、スピーカ10は、音声情報記憶部123を有し、スピーカ10側で発話情報に適した音声を音声情報記憶部123から選択してもよい。そして、スピーカ10は、選択した音声を用いて、発話情報を出力してもよい。
【0155】
〔4-5.提供タイミング〕
上記実施形態では、情報処理装置100の提供部133が取得部131によって音声情報又は生体情報が取得されたタイミングで提供処理を実行する例を挙げて説明したが、これに限定されない。例えば、提供部133は、子供の泣き声の大きさや、声の強さの変動や、子供の生体情報に基づく体調の変動や、子供又は親の状態の変動に基づいて、発話情報を提供してもよい。また、提供部133は、予め親に設定された時間に基づいてタイマー機能を有し、設定された時間に提供処理を実行してもよい。
【0156】
また、提供部133は、提供する発話情報が示す発話内容について、予め親に提供許可を要求してもよい。例えば、子供をあやす内容の発話内容を含む発話情報の提供する頻度を親に選択させてもよい。例えば、頻度が、高、中、低といった3段階に分かれているものとする。また、親が予め「高」頻度を選択していたものとする。この場合、提供部133は、子供に対して、あやす内容を含む発話情報を、「高」頻度に対応する所定回数以上提供してもよい。
【0157】
〔4-6.推定情報〕
上記実施形態では、情報処理装置100の推定部132が取得部131によって取得された音声情報に基づいて、子供の感情に関する情報を推定する例を挙げて説明したが、これに限定されなくともよい。例えば、子供が何かしらの意図を持たずにただ泣いているものとする(例えば、黄昏泣き等)。この場合、推定部132は、子供が泣いている原因がないことを推定してもよい。そして、提供部133は、推定結果に基づいて、母親のストレスを軽減させるための発話情報を提供してもよい。
【0158】
例えば、提供部133は、「よくわからないけど泣いている模様」というように、特に原因もなく泣いている子供の感情を示す情報とともに、「泣き止まなくても大丈夫。泣くことは悪くありません。そのまま待ってみて」というように、直接的な対応を行わないことを提案するアドバイスを発話情報としてスピーカ10に提供する。そして、スピーカ10は、かかる発話情報を母親に向けて音声として出力してもよい。
【0159】
〔4-7.発話情報〕
上記実施形態では、発話情報が子供の状態を所定の状態へ誘導するための発話情報である例を挙げて説明したが、これに限定されない。例えば、発話情報は、「今、X時YY分です」といった現在の時間の説明を示す発話内容を含む発話情報であってもよい。また、発話情報は、「いつもX時にZZZといったことをやっているけど、今日はZZZをやらないの?」や、「KKKすることを忘れていない?」等の備忘録的な発話内容を含む発話情報であってもよい。このように、発話情報は、子供の状態が変動していなくとも出力可能な内容を発話情報としてもよい。
【0160】
〔4-8.音声の認証〕
上記実施形態では、情報処理装置100の取得部131が音声情報を取得する例を挙げて説明したが、これに限定されなくともよい。例えば、予め子供の音声に関する情報や、子供の音声の特徴量等が情報処理装置100の記憶部120に登録されているものとする。この場合、取得部131は、取得した音声情報が示す音声が子供の音声か否かを判定してもよい。例えば、取得部131は、音声認識技術を用いて、子供によって発せられた音声を示す音声情報と、予め記憶部120に記憶される音声情報とを照合し、発話を行った人が、子供であるか否かを判定する。例えば、取得部131は、子供によって発せられた音声を示す音声情報と、記憶部120に記憶される音声情報とが一致した場合、子供が音声を発していると判定する。
【0161】
例えば、取得部131は、取得した音声情報が示す音声が子供の音声であると判定した場合、取得した音声情報を推定情報記憶部121に記憶してもよい。一方、取得部131は、取得した音声情報が示す音声が子供の音声でないと判定した場合、取得した音声情報を推定情報記憶部121に記憶しなくともよい。また、取得部131は、上記判定処理を母親の音声に対して実行してもよい。
【0162】
〔4-9.親の状態の推定(1)〕
上記実施形態では、情報処理装置100の提供部133が音声情報に応じた子供を所定の状態に誘導するための発話情報を提供する例を挙げて説明したが、これに限定されなくともよい。例えば、提供部133は、音声情報に応じた母親を所定の状態に誘導するための発話情報を提供してもよい。
【0163】
ここで、
図11を用いて、変形例に係る情報処理装置100が実行する提供処理の一例について説明する。
図11は、変形例に係る情報処理装置100が実行する提供処理の一例を示す図である。
【0164】
図11に示すように、変形例に係る情報処理システム4は、スピーカ10と、情報処理装置100とを含む。スピーカ10及び情報処理装置100は、図示しない所定のネットワークを介して有線又は無線により通信可能に接続される。なお、
図11に示す情報処理システム4には、複数台のスピーカ10や、複数台の情報処理装置100が含まれてもよい。
【0165】
変形例に係るスピーカ10は、第1の実施形態に係るスピーカ10と同一の処理を実行するため、説明を省略する。
【0166】
変形例に係る情報処理装置100は、第1の実施形態に係る情報処理装置100と同一の処理を実行するため、説明を省略する。
【0167】
以下、
図11を用いて、情報処理装置100による提供処理の一例を流れに沿って説明する。なお、以下の説明では、対象者が子供BA1であり、対象者を対応する対応者が、かかる子供BA1の母親PA1である例を挙げて説明する。
【0168】
図11の例では、情報処理装置100は、母親PA1の状態を推定する。そして、情報処理装置100は、推定結果に応じて、母親が冷静になる状態又は安心する状態に誘導するための発話情報を提供する。また、
図11の例では、子供BA1は、泣いているものとする。また、母親PA1は、イライラしているものとする。
【0169】
まず、
図11に示すように、情報処理装置100は、音声情報を取得する(ステップS41)。例えば、スピーカ10は、子供BA1の泣き声に関する情報を取得する。そして、情報処理装置100は、スピーカ10から子供BA1の泣き声に関する情報を取得する。
【0170】
続いて、情報処理装置100は、取得した音声に基づいて、親の状態を推定する(ステップS42)。例えば、情報処理装置100は、取得した音声が泣き声か否かを判定する。また、情報処理装置100は、泣き声が所定の期間以上続いているか否かを判定する。ここで、情報処理装置100は、音声が泣き声と判定し、泣き声が所定の期間以上続いているものと判定したものとする。この場合、情報処理装置100は、親の状態として、母親PA1の感情がイライラしていると推定する。
【0171】
他の例として、情報処理装置100は、取得した音声が泣き声か否かを判定するとともに、取得した音声にイライラしているような声や、怒鳴り声や、大きい声等が含まれているか否かを判定する。ここで、情報処理装置100は、音声が泣き声と判定し、音声にイライラしているような声が含まれていると判定したものとする。この場合、情報処理装置100は、親の状態として、母親PA1の感情がイライラしていると推定する。
【0172】
そして、情報処理装置100は、発話情報をスピーカ10に提供する(ステップS43)。例えば、情報処理装置100は、推定された母親PA1の感情がイライラしている気持である場合、母親PA1を安心させるための発話内容「あわてなくても大丈夫だよ!」を含む発話情報を選択する。そして、情報処理装置100は、選択した発話情報をスピーカ10に提供する。また、情報処理装置100は、発話情報に、母親PA1に出力する音声情報を含めてもよい。例えば、情報処理装置100は、母親PA1に出力する音声情報として、人工的な音声に関する情報を発話情報に含めて、かかる発話情報をスピーカ10に提供してもよい。
【0173】
続いて、スピーカ10は、発話情報を音声として母親PA1に出力する(ステップS44)。例えば、スピーカ10は、「あわてなくても大丈夫だよ!」といった音声を母親PA1に対して出力する。
【0174】
また、上記ステップS42において、情報処理装置100は、取得した音声に基づいて、子供の状態を推定してもよい。例えば、情報処理装置100は、取得した音声が泣き声か否かを判定する。また、情報処理装置100は、音声が泣き声であった場合、子供の泣き声を音声解析する。そして、情報処理装置100は、泣き声が示す特徴的な波形に基づいて、子供の感情を推定してもよい。ここで、情報処理装置100は、子供の感情が不快であり、イライラしている又は悲しい気持ちであると推定するものとする。なお、上記推定処理は、音声情報を用いた各種公知の感情推定技術が採用可能である。
【0175】
そして、情報処理装置100は、発話情報をスピーカ10に提供してもよい。例えば、情報処理装置100は、推定された母親PA1の感情がイライラしている気持である場合、且つ、推定された子供の感情が不快であり、イライラしている又は悲しい気持ちである場合、子供を泣き止ませるような発話内容「乳幼児の声を聴くと、おむつが濡れているみたいだからおむつを準備しておいで」を含む発話情報を選択する。そして、情報処理装置100は、選択した発話情報をスピーカ10に提供してもよい。
【0176】
そして、スピーカ10は、発話情報を音声として母親PA1に出力してもよい。例えば、スピーカ10は、「乳幼児の声を聴くと、おむつが濡れているみたいだからおむつを準備しておいで」といった音声を母親PA1に対して出力してもよい。これにより、情報処理装置100は、母親に対して、子供を泣き止ませるような行動を提案することができる。
【0177】
このように、情報処理装置100は、母親自身に対して安心させるような音声を提供する。これにより、情報処理装置100は、母親に対して、語りかけるような音声であり、第三者からの音声であるため、母親が冷静になる機会を提供することができる。また、情報処理装置100は、母親が子供の対応に苦慮している場合、解決方法を提案することができる。これにより、情報処理装置100は、母親の育児又は養育を適切に支援し、共同養育者としての機能を提供することができる。
【0178】
〔4-10.親の状態の推定(2)〕
上記実施形態では、情報処理装置100の提供部133が音声情報に応じた子供を所定の状態に誘導するための発話情報を提供する例を挙げて説明したが、これに限定されなくともよい。例えば、提供部133は、音声情報に応じた母親を所定の状態に誘導するための発話情報を提供してもよい。
【0179】
ここで、
図12を用いて、変形例に係る情報処理装置100が実行する提供処理の一例について説明する。
図12は、変形例に係る情報処理装置100が実行する提供処理の一例を示す図である。
【0180】
図12に示すように、変形例に係る情報処理システム5は、スピーカ10と、センサ20と、情報処理装置100とを含む。スピーカ10、センサ20及び情報処理装置100は、図示しない所定のネットワークを介して有線又は無線により通信可能に接続される。なお、
図12に示す情報処理システム5には、複数台のスピーカ10や、複数台のセンサ20や、複数台の情報処理装置100が含まれてもよい。
【0181】
変形例に係るスピーカ10は、第1の実施形態に係るスピーカ10と同一の処理を実行するため、説明を省略する。
【0182】
変形例に係るセンサ20は、第2の実施形態に係るセンサ20と同一の処理を実行するため、説明を省略する。
【0183】
変形例に係る情報処理装置100は、第1の実施形態に係る情報処理装置100と同一の処理を実行するため、説明を省略する。
【0184】
以下、
図12を用いて、情報処理装置100による提供処理の一例を流れに沿って説明する。なお、以下の説明では、対象者が子供BA1であり、対象者を対応する対応者が、かかる子供BA1の母親PA1である例を挙げて説明する。
【0185】
図12の例では、情報処理装置100は、母親PA1の状態を推定する。そして、情報処理装置100は、推定結果に応じて、母親が冷静になる状態又は安心する状態に誘導するための発話情報を提供する。また、
図12の例では、子供BA1は、泣いているものとする。また、母親PA1は、イライラしているものとする。
【0186】
まず、
図12に示すように、情報処理装置100は、センサ20によって検知された親の生体情報を取得する(ステップS51)。例えば、センサ20は、母親PA1の心拍数の上昇や、体温の上昇や、発汗量の増加といった生体情報を取得する。そして、情報処理装置100は、かかる生体情報をセンサ20から取得する。
【0187】
続いて、情報処理装置100は、取得した生体情報に基づいて、親の状態を推定する(ステップS52)。例えば、情報処理装置100は、取得した生体情報のうち、母親PA1の心拍数の上昇や、体温の上昇や、発汗量の増加といったいずれかの情報が所定の条件を満たす否かを判定する。例えば、情報処理装置100は、心拍数の上昇が所定の閾値以上の変動である場合、母親の感情がイライラしていると推定する。なお、上記推定処理は、生体情報を用いた各種公知の感情推定技術が採用可能である。
【0188】
そして、情報処理装置100は、発話情報をスピーカ10に提供する(ステップS53)。例えば、情報処理装置100は、推定された母親の感情がイライラしている気持ちである場合、母親を安心させるための発話内容「あわてなくても大丈夫だよ!」を含む発話情報を選択する。そして、情報処理装置100は、選択した発話情報をスピーカ10に提供する。また、情報処理装置100は、発話情報に、母親PA1に出力する音声情報を含めてもよい。
【0189】
続いて、スピーカ10は、発話情報を音声として母親PA1に出力する(ステップS54)。例えば、スピーカ10は、「あわてなくても大丈夫だよ!」といった音声を母親PA1に対して出力する。このように、情報処理装置100は、母親の状態に適した音声を提供することができる。
【0190】
〔4-11.親の状態の推定(3)〕
上記実施形態では、情報処理装置100の提供部133が音声情報に応じた子供を所定の状態に誘導するための発話情報を提供する例を挙げて説明したが、これに限定されなくともよい。例えば、提供部133は、音声情報に応じた母親を所定の状態に誘導するための発話情報を提供してもよい。
【0191】
ここで、
図13を用いて、変形例に係る情報処理装置100が実行する提供処理の一例について説明する。
図13は、変形例に係る情報処理装置100が実行する提供処理の一例を示す図である。
【0192】
図13に示すように、変形例に係る情報処理システム6は、スピーカ10と、センサ21と、センサ22と、情報処理装置100とを含む。スピーカ10、センサ21、センサ22及び情報処理装置100は、図示しない所定のネットワークを介して有線又は無線により通信可能に接続される。なお、
図13に示す情報処理システム6には、複数台のスピーカ10や、複数台のセンサ21や、複数台のセンサ22や、複数台の情報処理装置100が含まれてもよい。
【0193】
変形例に係るスピーカ10は、第1の実施形態に係るスピーカ10と同一の処理を実行するため、説明を省略する。
【0194】
変形例に係るセンサ21及び22は、第2の実施形態に係るセンサ20と同一の処理を実行するため、説明を省略する。
【0195】
変形例に係る情報処理装置100は、第1の実施形態に係る情報処理装置100と同一の処理を実行するため、説明を省略する。
【0196】
以下、
図13を用いて、情報処理装置100による提供処理の一例を流れに沿って説明する。なお、以下の説明では、対象者が子供BA1であり、対象者を対応する対応者が、かかる子供BA1の母親PA1である例を挙げて説明する。また、
図13の例では、子供BA1の周囲にセンサ21が設置され、母親PA1の周囲にセンサ22が設置されているものとする。
【0197】
図13の例では、情報処理装置100は、母親PA1の状態を推定する。そして、情報処理装置100は、推定結果に応じて、母親が冷静になる状態又は安心する状態に誘導するための発話情報を提供する。また、
図13の例では、子供BA1は、泣いているものとする。また、母親PA1は、イライラしているものとする。
【0198】
まず、
図13に示すように、情報処理装置100は、センサ21によって検知された子供の生体情報を取得する(ステップS61)。また、情報処理装置100は、センサ22によって検知された親の生体情報を取得する(ステップS62)。
【0199】
例えば、センサ21は、子供BA1の心拍数の上昇や、体温の上昇や、発汗量の増加といった生体情報を取得する。そして、情報処理装置100は、かかる生体情報をセンサ21から取得する。
【0200】
また、センサ22は、母親PA1の心拍数の上昇や、体温の上昇や、発汗量の増加といった生体情報を取得する。そして、情報処理装置100は、かかる生体情報をセンサ22から取得する。
【0201】
続いて、情報処理装置100は、取得した子供の生体情報と、親の生体情報との組合せに基づいて、親の状態を推定する(ステップS63)。例えば、情報処理装置100は、取得した生体情報のうち、子供BA1の心拍数の上昇や、体温の上昇や、発汗量の増加といったいずれかの情報が所定の条件を満たす否かを判定する。また、情報処理装置100は、取得した生体情報のうち、母親PA1の心拍数の上昇や、体温の上昇や、発汗量の増加といったいずれかの情報が所定の条件を満たす否かを判定する。例えば、情報処理装置100は、子供BA1の心拍数の上昇が所定の閾値以上の変動である場合、且つ、母親PA1の心拍数の上昇が所定の閾値以上の変動である場合、母親の感情がイライラしていると推定する。なお、上記推定処理は、生体情報を用いた各種公知の感情推定技術が採用可能である。
【0202】
そして、情報処理装置100は、発話情報をスピーカ10に提供する(ステップS64)。例えば、情報処理装置100は、推定された母親の感情がイライラしている気持ちである場合、母親を安心させるための発話内容「あわてなくても大丈夫だよ!」を含む発話情報を選択する。そして、情報処理装置100は、選択した発話情報をスピーカ10に提供する。また、情報処理装置100は、発話情報に、母親PA1に出力する音声情報を含めてもよい。
【0203】
続いて、スピーカ10は、発話情報を音声として母親PA1に出力する(ステップS65)。例えば、スピーカ10は、「あわてなくても大丈夫だよ!」といった音声を母親PA1に対して出力する。このように、情報処理装置100は、母親の状態に適した音声を提供することができる。
【0204】
なお、情報処理装置100は、対応者の状態に応じて対象者を所定の状態に誘導するための発話情報として、子供に対する発話情報を提供するようにしてもよい。例えば、情報処理装置100は、推定された母親の感情がイライラしている気持ちである場合、子供に対する発話内容「お母さんが少し休憩しているから少し待っていてね」を含む発話情報を選択する。そして、情報処理装置100は、選択した発話情報をスピーカ10に提供する。また、情報処理装置100は、発話情報に、母親PA1に出力する音声情報を含めてもよい。
【0205】
続いて、スピーカ10は、発話情報を音声として子供に出力する。例えば、スピーカ10は、「お母さんが少し休憩しているから少し待っていてね」といった音声を子供に対して出力する。
【0206】
このように、情報処理装置100は、対応者の状態によって対象者に対して声掛けを行うことができる。これにより、対応者がイライラ等により他者からのアドバイスに対応しづらい状態であっても、対応者は、自身の状態を把握し、整えるきっかけを得ることができるようになり、対象者に対して適切な養護をすることができるようになる。
【0207】
〔4-12.行動を推定〕
上記実施形態では、情報処理装置100の推定部132が取得部131によって取得された生体情報に基づいて、子供の感情に関する情報を推定する例を挙げて説明したが、これに限定されなくともよい。例えば、推定部132は、子供につけられたセンサ20によって検知されたセンサ情報に基づいて、子供の行動に関する情報を推定してもよい。
【0208】
例えば、センサ20がカメラによる撮影機能を有するものとする。この場合、推定部132は、カメラが検知した静止画像や動画像に基づいて、子供が大きく動いているか、寝返りを打っているか、ハイハイしているかといった行動が行われているかを推定してもよい。ここで、子供が上手にハイハイできているものとする。
【0209】
そして、提供部133は、子供が上手にハイハイできていることを褒めるための発話内容「上手にできているね!すごいよ」を含む発話情報をスピーカ10に提供してもよい。そして、スピーカ10は、「上手にできているね!すごいよ」といった音声を子供に対して出力してもよい。
【0210】
このように、実施形態に係る情報処理装置100の推定部132は、子供の行動に関する情報を推定する。そして、提供部133は、子供の行動に応じた発話情報を提供する。これにより、提供部133は、子供の行動に対して褒める内容の発話情報を提供するため、子供の発育を促すことができる。
【0211】
なお、他の例として、センサ20が各種の距離センサを有するものとする。この場合、推定部132は、距離センサによって検知されたセンサ情報に基づいて、子供がぬいぐるみに接触しているか等を推定してもよい。また、おもちゃが接触センサを有するものとする。この場合、推定部132は、取得部131によっておもちゃから取得された接触センサによって検知されたセンサ情報に基づいて、子供がどのおもちゃで遊んでいるか等を推定してもよい。
【0212】
また、上記推定処理は、センサ情報を用いた各種公知の行動推定技術が採用可能である。例えば、上記推定処理は、子供のセンサ情報と、子供の行動に関する情報との関係性を学習したニューラルネットワーク等の学習モデルにより実現される。かかる学習モデルは、センサ情報を入力した際に、子供の行動に関する情報を出力する。
【0213】
また、学習モデルは、子供の反応や、親の反応をフィードバックし、再学習を行ってもよい。ここでいう再学習とは、例えば、子供のセンサ情報と、子供の行動に関する情報と、子供の反応との関係性をさらに学習した学習モデルにより実現される。また、再学習は、子供のセンサ情報と、子供の行動に関する情報と、親の反応との関係性をさらに学習した学習モデルにより実現される。また、再学習は、子供のセンサ情報と、子供の行動に関する情報と、子供の反応と、親の反応との関係性をさらに学習した学習モデルにより実現される。ここで、子供又は親の反応は、効果があった又は効果がなかったといった二値化した値であってもよいし、効果の度合いを示す0~1の値をとり得るスコアであってもよい。これにより、上記推定処理は、子供の行動に関する情報を推定する精度を向上させることができる。
【0214】
また、推定部132は、母親につけられたセンサ20によって検知されたセンサ情報に基づいて、母親の行動に関する情報を推定してもよい。例えば、センサ20がカメラによる撮影機能を有するものとする。この場合、推定部132は、カメラが検知した静止画像や動画像に基づいて、母親の家事や、仕事等による忙しさの度合いを推定してもよい。ここで、母親が忙しいものとする。なお、上記推定処理は、センサ情報を用いた各種公知の行動推定技術が採用可能である。
【0215】
そして、提供部133は、母親が忙しいため、子供をあやすための発話内容「よしよし」や、「いないいないばー」等を含む発話情報をスピーカ10に提供してもよい。そして、スピーカ10は、「よしよし」や、「いないいないばー」といった音声を子供に対して出力してもよい。
【0216】
このように、実施形態に係る情報処理装置100の推定部132は、母親の行動に関する情報を推定する。そして、提供部133は、母親の行動に応じた発話情報を子供に対して提供する。これにより、提供部133は、母親の育児又は養育の負担を軽減することができる。
【0217】
〔4-13.学習モデル〕
上記実施形態では、情報処理装置100の提供部133が音声情報に応じた子供を所定の状態に誘導するための発話情報を提供する例を挙げて説明したが、機械学習等の従来技術を用いて、発話内容の種別や、音声出力のタイミングを学習した学習モデルを生成してもよい。
【0218】
例えば、提供部133は、スピーカ10から発話情報が音声として出力され、子供が泣き止むまでの期間と、泣き止んだ発話情報が示す発話内容との関係性を学習し、発話情報が示す発話内容が入力された際に、泣き止みやすい度合いを示すスコアを出力するように学習モデルを生成してもよい。ここで、子供が泣き止むまでの期間は、スピーカ10で泣き声を録音することで推定する。
【0219】
例えば、学習モデルは、子供が泣き止むまでの期間が短い発話内容のスコアが高くなるように学習する。また、学習モデルは、子供が泣き止まなかった発話内容を負例として学習してもよい。
【0220】
これにより、提供部133は、学習モデルに基づいて、子供に最適化された発話内容の種別に属する発話内容を含む発話情報を提供することができる。なお、学習モデルは、子供の反応や、親の反応をフィードバックし、再学習を行ってもよい。
【0221】
〔4-14.その他〕
上記した各処理のうち、自動的に行われるものとして説明した処理の全部または一部は、手動的に行われてもよい。また、手動的に行われるものとして説明した処理の全部または一部は、公知の方法で自動的に行われてもよい。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られるものではない。
【0222】
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されなくともよい。すなわち、各装置の分散・統合の具体的形態は図示のものに限られない。また、各構成要素は、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成してもよい。
【0223】
例えば、情報処理装置100によって実行される提供処理は、端末装置30によって実行されてもよい。この場合、端末装置30は、情報処理装置100の機能構成を有する。
【0224】
また、スピーカ10の代わりに、端末装置30が音声の出力機能を担ってもよい。例えば、スピーカ10の代わりに、対応者によって利用される端末装置30とは異なる他の端末装置が音声の出力機能を担ってもよい。
【0225】
また、情報処理装置100と、スピーカ10とが一体となったスピーカが内蔵された情報処理装置が上記提供処理を実行してもよい。
【0226】
また、上記してきた各処理は、矛盾しない範囲で適宜組み合わせて実行されてもよい。
【0227】
また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、提供部は、提供手段や提供回路に読み替えることができる。
【0228】
[5.ハードウェア構成]
また、上述した実施形態に係る端末装置30や、情報処理装置100は、例えば、
図14に示すような構成のコンピュータ1000によって実現される。
図14は、ハードウェア構成の一例を示す図である。コンピュータ1000は、出力装置1010、入力装置1020と接続され、演算装置1030、キャッシュ1040、メモリ1050、出力IF(Interface)1060、入力IF1070、ネットワークIF1080がバス1090により接続される。
【0229】
演算装置1030は、キャッシュ1040やメモリ1050に格納されたプログラムや入力装置1020から読み出したプログラム等に基づいて動作し、各種の処理を実行する。キャッシュ1040は、RAM等、演算装置1030が各種の演算に用いるデータを一次的に記憶するキャッシュである。また、メモリ1050は、演算装置1030が各種の演算に用いるデータや、各種のデータベースが登録される記憶装置であり、ROM(Read Only Memory)、HDD(Hard Disk Drive)、フラッシュメモリ等により実現されるメモリである。
【0230】
出力IF1060は、モニタやプリンタといった各種の情報を出力する出力装置1010に対し、出力対象となる情報を送信するためのインタフェースであり、例えば、USB(Universal Serial Bus)やDVI(Digital Visual Interface)、HDMI(登録商標)(High Definition Multimedia Interface)といった規格のコネクタにより実現されてよい。一方、入力IF1070は、マウス、キーボード、およびスキャナ等といった各種の入力装置1020から情報を受信するためのインタフェースであり、例えば、USB等により実現される。
【0231】
例えば、入力装置1020は、CD(Compact Disc)、DVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等から情報を読み出す装置により実現されてもよい。また、入力装置1020は、USBメモリ等の外付け記憶媒体により実現されてもよい。
【0232】
ネットワークIF1080は、ネットワークNを介して他の機器からデータを受信して演算装置1030へ送り、また、ネットワークNを介して演算装置1030が生成したデータを他の機器へ送信する機能を有する。
【0233】
ここで、演算装置1030は、出力IF1060や入力IF1070を介して、出力装置1010や入力装置1020の制御を行うこととなる。例えば、演算装置1030は、入力装置1020やメモリ1050からプログラムをキャッシュ1040上にロードし、ロードしたプログラムを実行する。例えば、コンピュータ1000が情報処理装置100として機能する場合、コンピュータ1000の演算装置1030は、キャッシュ1040上にロードされたプログラムを実行することにより、制御部130の機能を実現することとなる。
【0234】
以上、本願の実施形態を図面に基づいて詳細に説明した。しかしながら、これらは例示であり、本願の実施形態は、発明の開示の欄に記載の態様を始めとして、所謂当業者の知識に基づいて種々の変形、改良を施した他の形態で実施することが可能である。
【符号の説明】
【0235】
N ネットワーク
1、2、3、4、5、6 情報処理システム
10 スピーカ
20、21、22 センサ
30 端末装置
100 情報処理装置
110 通信部
120 記憶部
121 推定情報記憶部
122 発話情報記憶部
123 音声情報記憶部
130 制御部
131 取得部
132 推定部
133 提供部