(58)【調査した分野】(Int.Cl.,DB名)
前記出力装置は、胴部、前記胴部と首部アクチュエータを介して接続する頭部、前記胴部と肩部アクチュエータを介して接続し且つ肘部アクチュエータを有する腕部とを少なくとも備え、
前記胴部は、前記首部アクチュエータ、前記肩部アクチュエータ及び前記肘部アクチュエータを駆動制御する制御部を有し、
前記出力処理部は、前記選択部によって選択された前記ユーザのストレスを解消するための一連のヒーリング動作を前記出力装置に行わせるための、前記首部アクチュエータ、肩部アクチュエータ及び肘部アクチュエータの駆動命令を出力データとして前記出力装置の前記制御部に出力する、請求項1又は2に記載の制御装置。
前記出力処理部は、前記選択部によって選択された前記ユーザのストレス度を解消するための一連のヒーリング動作を行うキャラクタ画像を前記表示部に表示させる、請求項4に記載の制御装置。
【発明を実施するための形態】
【0017】
以下、図面を参照しつつ、本発明の様々な実施形態について説明する。ただし、本発明の技術的範囲はそれらの実施形態に限定されず、特許請求の範囲に記載された発明とその均等物に及ぶ点に留意されたい。
【0018】
(ロボットシステムの概要)
本実施形態のロボットシステムは、制御装置及びロボットを有する。制御装置は、タブレット端末又はタブレットPC(Personal Computer)等を想定するが、後述する各処理が実行可能であれば、どのような情報処理装置であってもよい。ロボットは、予め定められた動作を行うことが可能な頭部及び腕部等を備えるとともに、2D(2 dimensions)カメラ等の撮影装置、マイクロフォン等の音声入力装置及びスピーカ等の音声出力装置等を備える。
【0019】
制御装置は、有線又は無線の通信ネットワークを介してロボットと接続することにより、撮影装置及び音声入力装置からの情報を取得し、取得した情報に基づく出力データをロボットに出力する。ロボットは、制御装置からの出力データに従った動作、又は、画像出力若しくは音声出力等を行う。なお、出力データは、例えば、ロボットに一連の動作を行わせるための駆動命令、又は、ユーザに所定の動作を促すための画像データ若しくは音声データ等である。
【0020】
図1は、本実施形態のロボットシステムの概略を説明するための模式図である。以下、制御装置によって実行される情報出力処理について、
図1を参照して説明する。
【0021】
まず、制御装置は、ユーザに対して、ユーザの顔がロボットの撮影装置の視野範囲内に位置するように促すための音声データを、ロボットの音声出力装置を介して出力する。次に、制御装置は、ユーザの顔が撮影装置の視野範囲内に位置したことを判定すると、撮影装置によって撮影されたユーザの顔画像データを取得する。次に、制御装置は、ユーザの音声の入力を促すための音声データを、ロボットの音声出力装置に出力させる。ロボットの音声入力装置にユーザの音声が入力された場合、制御装置は当該入力音声データを取得する。
【0022】
次に、制御装置は、取得したユーザの顔画像データ及び入力音声データに基づいてユーザのストレス度を判定する。ストレス度は、人間のストレスの度合いを示す情報であり、制御装置によって予め記憶されている。以下、ストレス度の判定処理の一例の概略について説明する。
【0023】
まず、制御装置は、公知の表情認識処理を実行し、取得したユーザの顔画像データに対応する顔の表情属性(「笑顔」、「穏やか」、「喜び」、「驚き」、「怒り」及び「悲しみ」等)を特定する。また、制御装置は、公知の声認識処理を実行し、取得したユーザの入力音声データに対応する声の感情属性(「穏やか」、「怒り」、「喜び」及び「悲しみ」等)を特定する。
【0024】
次に、制御装置は、特定したユーザの表情属性及び感情属性に対応するストレス度を判定する(
図1の(1))。例えば、制御装置は、表情属性である「笑顔」、「穏やか」、「喜び」、「驚き」、「怒り」及び「悲しみ」等のそれぞれと、感情属性である「穏やか」、「怒り」、「喜び」及び「悲しみ」等のそれぞれとに、ストレス度(「強いストレス」、「ややストレス」等)を対応付けて記憶する。制御装置は、特定したユーザの表情属性及び感情属性に対応付けられたストレス度を判定する。以上により、ストレス度の判定処理は終了する。なお、公知の声認識処理が実行されることで特定される感情の高まりを示すテンション属性(「低い」、「高い」等)が、ストレス度に対応付けられてもよい。この場合、制御装置は、特定したユーザの表情属性及び感情属性とともに、特定したテンション属性に基づいてストレス度を判定する。
【0025】
次に、制御装置は、判定したユーザのストレス度及び判定を実施した実施日を、ユーザ履歴テーブルに記憶する(
図1の(2))。以下、制御装置が今回判定したストレス度を、現在のストレス度と称する場合がある。なお、ユーザ履歴テーブルは、ユーザ履歴データの一例である。
【0026】
次に、制御装置は、現在のストレス度より前に、当該ユーザの過去のストレス度がユーザ履歴テーブルに記憶されているか否かを判定する。制御装置は、現在の実施日より前に、当該ユーザの過去のストレス度がユーザ履歴テーブルに記憶されていないと判定した場合、ユーザの現在のストレス度に対応付けられた出力データを選択する。また、制御装置は、今回の実施日より前に、当該ユーザの過去のストレス度がユーザ履歴テーブルに記憶されていると判定した場合、ユーザの現在のストレス度及びユーザの過去のストレス度の両方に対応付けられた出力データを選択する(
図1の(3))。
【0027】
そして、制御装置は、選択された出力データをロボットに出力し(
図1の(4))、ロボットは、出力データに従った一連の動作を行う(
図1の(5))。なお、ロボットは出力装置の一例である。
【0028】
上述のとおり、ロボットシステムの制御装置は、ユーザに対して、当該ユーザにおける現在のストレス度及び過去のストレス度の両方に対応付けられた出力データを出力することができる。したがって、ロボットシステムの制御装置によって、ユーザのストレスの状況に応じて適切な情報を出力することが可能となる。
【0029】
なお、上述した
図1の説明は、本発明の内容への理解を深めるための説明にすぎない。本発明は、具体的には、次に説明する各実施形態において実施され、且つ、本発明の原則を実質的に超えずに、さまざまな変形例によって実施されてもよい。このような変形例はすべて、本発明及び本明細書の開示範囲に含まれる。
【0030】
(ロボットシステム1の概略構成)
図2は、ロボットシステム1の概略構成の一例を示す図である。ロボットシステム1は、制御装置2と、ロボット3とを有する。制御装置2とロボット3とは、有線又は無線による通信ネットワークを介して相互に接続される。
【0031】
(制御装置2)
図3は、制御装置2の概略構成の一例を示す図である。
【0032】
制御装置2は、ユーザのストレス度に対応付けられた出力データを選択し、選択された出力データをロボット3に出力する機能を有する。そのために、制御装置2は、通信部21と、記憶部22と、操作部23と、表示部24と、処理部25とを備える。
【0033】
なお、本実施形態では、制御装置2として、タブレット端末、タブレットPC等を想定するが、本発明はこれに限定されるものではない。制御装置2は、本発明が適用可能であればよく、例えば、パーソナルコンピュータ(PC)、サーバ、多機能携帯電話(所謂「スマートフォン」)、携帯電話(所謂「フィーチャーフォン」)や携帯情報端末(Personal Digital Assistant, PDA)、携帯ゲーム機、携帯音楽プレーヤ、ノートPC等でもよい。
【0034】
通信部21は、USB(Universal Serial Bus)等と接続するためのインターフェース、有線又は無線のLAN(Local Area Network)の通信インターフェース等を含む、通信インターフェース等である。通信部21は、ロボット3から受信したデータを処理部25に供給する。また、通信部21は、処理部25から供給されたデータをロボット3に送信する。
【0035】
記憶部22は、例えば、半導体メモリ装置を備える。記憶部22は、処理部25での処理に用いられるオペレーティングシステムプログラム、ドライバプログラム、アプリケーションプログラム、データ等を記憶する。例えば、記憶部22は、ドライバプログラムとして、操作部23を制御する入力デバイスドライバプログラムや、表示部24を制御する出力デバイスドライバプログラム等を記憶する。また、記憶部22は、アプリケーションプログラムとして、少なくとも情報出力処理プログラム等を記憶する。さらに、記憶部22は、データとして後述する表情パラメータテーブルT1、感情パラメータテーブルT2、テンションパラメータテーブルT3、ストレステーブルT4、対応出力テーブルT5、ユーザ履歴テーブルT6等を記憶する。また、記憶部22は、所定の処理に係る一時的なデータを一時的に記憶してもよい。
【0036】
操作部23は、制御装置2の操作が可能であればどのようなデバイスでもよく、例えば、タッチパネル又はキーボード等である。ユーザは、操作部23を用いて、後述する表示部24に表示されたボタン等の指定指示、又は、文字、数字若しくは記号等の入力を行うことができる。操作部23は、ユーザにより操作されると、その操作に対応する信号を発生する。そして、発生した信号は、ユーザの指示として、処理部25に供給される。
【0037】
表示部24は、動画像、静止画像等の表示が可能であればどのようなデバイスでもよく、例えば、有機EL(Electro−Luminescence)ディスプレイ、液晶ディスプレイ、又は、タッチパネル式の表示装置等である。表示部24は、処理部25から供給される動画像データに応じた動画像、静止画像データに応じた静止画像等を表示する。
【0038】
処理部25は、一又は複数個のプロセッサ及びその周辺回路を備える。処理部25は、制御装置2の全体的な動作を統括的に制御するものであり、例えば、CPU(Central Processing Unit)である。処理部25は、制御装置2の各種処理が記憶部22に記憶されているプログラムや操作部23の操作等に基づいて適切な手順で実行されるように、表示部24等の動作を制御する。処理部25は、記憶部22に記憶されているプログラム(オペレーティングシステムプログラムやドライバプログラム、アプリケーションプログラム等)に基づいて処理を実行する。また、処理部25は、複数のプログラム(アプリケーションプログラム等)を並列に実行することができる。
【0039】
処理部25は、情報取得部251と、判定部252と、選択部253と、出力処理部254とを有する。処理部25が有するこれらの各部は、処理部25が備えるプロセッサで実行されるプログラムにより実現される機能モジュールである。あるいは、処理部25が有するこれらの各部は、ファームウェアとして制御装置2に実装されてもよい。
【0040】
(ロボット3)
図4は、ロボット3の概略構成の一例を示す図である。
【0041】
ロボット3は、制御装置2から出力された出力データに従った動作又は音声出力等を行う機能を有する。そのために、ロボット3は、撮影装置31と、音声入力装置32と、音声出力装置33と、第2通信部34と、制御部35と、アクチュエータ36とを備える。
【0042】
また、ロボット3は、胴部P1と、頭部P2と、腕部P3と、脚部P4とで構成される。胴部P1は、第2通信部34と、制御部35とを備え、頭部P2は、音声入力装置32と、音声出力装置33とを備える。
【0043】
撮影装置31は、結像光学系、撮像素子及び画像処理部等を有する。結像光学系は、例えば光学レンズであり、被写体からの光束を撮像素子の撮像面上に結像させる。撮像素子は、CCD(Charge Coupled Device)又はCMOS(Complementary Metal Oxide Semiconductor)等であり、撮像面上に結像した被写体像の画像を出力する。画像処理部は、連続して撮像素子によって生成された画像から、所定期間毎に所定のファイル形式の動画像データを作成して出力する。または、画像処理部は、撮像素子によって生成された画像から所定のファイル形式の静止画像データを作成して出力する。
【0044】
音声入力装置32は、例えば、マイクロフォン等であり、入力された音声を電気信号に変換し、変換された電気信号を音声データに変換して制御部35に送出する。
【0045】
音声出力装置33は、例えば、スピーカ等であり、制御部35から取得した音声データの電気信号を音声に変換して出力する。なお、音声出力装置33は、音声出力部の一例である。
【0046】
第2通信部34は、USB等と接続するためのインターフェース、有線又は無線のLANの通信インターフェース等を含む、通信インターフェース等である。第2通信部34は、制御装置2から受信したデータを制御部35に供給する。また、第2通信部34は、制御部35から供給されたデータを制御装置2に送信する。
【0047】
制御部35は、一又は複数個のプロセッサ及びその周辺回路を備える。制御部35は、ロボット3の全体的な動作を統括的に制御するものであり、例えば、CPUである。制御部35は、制御装置2からの出力データに従って、音声出力装置33及びアクチュエータ36の動作を制御する。なお、制御部35は、出力データに限らず、制御装置2からの所定の制御情報に応じて、撮影装置31、音声入力装置32、音声出力装置33、第2通信部34、制御部35、アクチュエータ36等を制御する。
【0048】
アクチュエータ36は、ロボット3の各関節部の動きを行うための駆動装置であり、例えば、首部アクチュエータ36a、肩部アクチュエータ36b、肘部アクチュエータ36c、手首部アクチュエータ36d、腰部アクチュエータ36e、脚部アクチュエータ36f、車輪部アクチュエータ36g等を有する。なお、制御部35によって、少なくとも首部アクチュエータ、肩部アクチュエータ及び肘部アクチュエータが、制御情報に従って駆動制御される。
【0049】
首部アクチュエータ36aは、胴部P1と頭部P2とを接続する駆動装置であり、首関節の動きを行う。また、肩部アクチュエータ36bは、胴部P1と腕部P3とを接続する駆動装置であり、肩関節の動きを行う。肘部アクチュエータ36cは、腕部P3に備えられる駆動装置であり、腕部P3の上腕部分と前腕部分とを接続し、肘関節の動きを行う。手首部アクチュエータ36dは、腕部P3に備えられる駆動装置であり、腕部P3の前腕部分と手部分とを接続し、手首関節の動きを行う。腰部アクチュエータ36eは、胴部P1と脚部P4とを接続する駆動装置であり腰関節の動きを行う。脚部アクチュエータ36fは、脚部P4に備えられる駆動装置であり、脚部P4を回転させる動きを行う。車輪部アクチュエータ36gは、脚部P4と車輪部(図示せず)とを接続する駆動装置であり、鉛直方向を軸として車輪部を回転させる動きを行う。
【0050】
以下、
図5〜7を参照して、制御装置2の表示部24に表示される各画面の一例について説明する。
【0051】
(ユーザ選択画面500)
図5(a)は、制御装置2の表示部24に表示されるユーザ選択画面500の一例を示す図である。ユーザ選択画面500には、ユーザ選択ボタン501、新規登録ボタン502及び戻るボタン503等が表示される。ユーザ選択画面500は、図示しないメニュー画面が表示部24に表示されている場合において、ユーザによる操作部23の操作に応じてメニュー画面に表示された所定のアプリケーション実行ボタンが選択されることによって表示される。
【0052】
ユーザ選択ボタン501は、制御装置2に登録されているユーザを選択するための選択ボタンである。ユーザによる操作部23の操作に応じてユーザ選択ボタン501が選択されると、選択されたユーザ選択ボタン501に対応するユーザに対する判定画面600が表示される。
【0053】
新規登録ボタン502は、制御装置2に登録されていないユーザを新たに登録する画面を表示するための選択ボタンである。ユーザによる操作部23の操作に応じて新規登録ボタン502が選択されると、ユーザの名前、年齢、性別等の各種情報を登録するための登録画面が表示される。登録画面によってユーザの各種情報が登録されると、登録されたユーザに対する判定画面600が表示される。戻るボタン503は、ユーザ選択画面500の表示を終了させ、メニュー画面を表示させるための選択画面である。
【0054】
(判定画面600)
図5(b)は、制御装置2の表示部24に表示される判定画面600の一例を示す図である。判定画面600には、撮影画像表示枠601、表情パラメータグラフ602、感情パラメータグラフ603及びテンションパラメータグラフ604等が表示される。
【0055】
撮影画像表示枠601には、ロボット3の撮影装置31から取得した動画像データが表示される。なお、撮影画像表示枠601にユーザの顔が表示されない等の要因によって、制御装置2が表情認識処理を実行できない場合、ロボット3の音声出力装置33は、ユーザの顔が撮影装置31の視野範囲内に位置するように促すための音声を出力してもよい。また、制御装置2が表情認識処理を実行できた場合、撮影画像表示枠601には、表情認識処理の対象となったユーザの顔の静止画像が表示されてもよい。
【0056】
表情パラメータグラフ602には、制御装置2が実行した表情認識処理によって算出された表情属性毎の表情パラメータが表示される。表情パラメータは、対応する表情属性の度合いを示す指標(例えば、0から100までの整数値等)である。撮影画像表示枠601にユーザの顔が表示されて、表情認識処理が実行された場合、表情認識処理によって算出された表情属性毎の表情パラメータを示す表情パラメータグラフ602を含む判定画面600が表示部24に表示される。
【0057】
図5(b)に示される判定画面600の例では、「笑顔」の表情パラメータとして92ポイントが表示され、「穏やか」の表情パラメータとして27ポイントが表示され、「喜び」の表情パラメータとして73ポイントが表示され、「驚き」の表情パラメータとして8ポイントが表示され、「怒り」の表情パラメータとして53ポイントが表示され、「悲しみ」の表情パラメータとして49イントが表示されている。
【0058】
感情パラメータグラフ603には、制御装置2が実行した声認識処理によって算出された感情属性毎の感情パラメータが表示される。感情パラメータは、対応する感情属性の度合いを示す指標(例えば、0から100までの整数値等)である。ロボット3の音声入力装置32によってユーザの入力音声が検知された場合、当該入力音声に係る入力音声データに基づいて声認識処理が実行され、声認識処理によって算出された感情属性毎の感情パラメータが表示される。なお、
図5(b)に示される判定画面600の例では、ユーザからの入力音声が検知されていないため、感情パラメータグラフ603には、各感情パラメータは表示されていない。この場合、ロボット3の音声出力装置33は、ユーザからの入力音声が検知されるまで、所定時間間隔毎に、ユーザの音声入力を促すための音声(例えば、「こんにちは」等の挨拶の音声)を出力してもよい。
【0059】
テンションパラメータグラフ604には、制御装置2が実行した声認識処理によって算出されたテンション属性のテンションパラメータが表示される。テンションパラメータは、テンション(感情の高まり)の度合いを示す指標(例えば、0から100までの整数値等)である。ロボット3の音声入力装置32によってユーザの入力音声が検知された場合、当該入力音声に係る入力音声データに基づいて声認識処理が実行され、声認識処理によって算出されたテンション属性のテンションパラメータが表示される。なお、
図5(b)に示される判定画面600の例では、ユーザからの入力音声が検知されていないため、テンションパラメータグラフ604には、テンション属性のテンションパラメータは表示されていない。この場合、ロボット3の音声出力装置33は、ユーザからの入力音声が検知されるまで、所定時間間隔毎に、ユーザの音声入力を促すための音声(例えば、「こんにちは」等の挨拶の音声)を出力してもよい。
【0060】
図6(a)は、制御装置2の表示部24に表示される判定画面600の一例を示す図である。
図6(a)に示される判定画面600の例では、ロボット3の音声入力装置32によってユーザの入力音声が検知され、当該入力音声に係る入力音声データに基づく声認識処理によって算出された感情属性毎の感情パラメータを示す感情パラメータグラフ603、及び、テンション属性のテンションパラメータを示すテンションパラメータグラフ604が表示部24に表示される。
【0061】
図6(a)に示される判定画面600の例では、「穏やか」の感情パラメータとして15ポイントが表示され、「怒り」の感情パラメータとして82ポイントが表示され、「喜び」の感情パラメータとして100ポイントが表示され、「悲しみ」の感情パラメータとして38ポイントが表示されている。また、当該判定画面600の例では、テンションパラメータとして75ポイントが表示されている。
【0062】
(判定結果画面700)
図6(b)は、制御装置2の表示部24に表示される判定結果画面700の一例を示す図である。判定結果画面700には、ストレス度アイコン701、表情属性アイコン702、感情属性アイコン703、テンションパラメータグラフ604、文字出力情報704等が表示される。
【0063】
ストレス度アイコン701は、後述するストレス度の判定処理によって抽出されたユーザのストレス度に対応するアイコン画像である。
【0064】
表情属性アイコン702は、制御装置2が実行した表情認識処理によって算出された表情属性毎の表情パラメータのうち、最も数値の高い表情パラメータの表情属性に対応するアイコン画像である。また、感情属性アイコン703は、制御装置2が実行した声認識処理によって算出された感情属性毎の感情パラメータのうち、最も数値の高い感情パラメータの感情属性に対応するアイコン画像である。なお、テンションパラメータグラフ604は、
図6(a)に示されるテンションパラメータグラフ604と同一である。
【0065】
文字出力情報704は、ストレス度の判定処理によって抽出されたユーザのストレス度に対応する文字情報であり、制御装置2によって出力された出力文字データに基づいて表示される。なお、表示される文字情報は、例えば、ユーザのストレス度に応じたアドバイに関する文字情報であってもよく、ロボット3の音声出力装置33が、文字出力情報704を示す音声を出力してもよい。なお、出力文字データは、出力データの一例である。
【0066】
(動作提示画面800)
図7(a)は、制御装置2の表示部24に表示される動作提示画面800の一例を示す図である。動作提示画面800には、ユーザのストレスを解消するための一連のヒーリング動作等を行うキャラクタ画像を含む動作例画像801が動作例画像データに基づいて表示される。動作提示画面800は、ストレス度の判定処理によって抽出されたユーザのストレス度が、予め定められたストレス度であった場合に、表示部24に表示される。なお、動作例画像データは、出力データの一例である。
【0067】
(履歴画面900)
図7(b)は、制御装置2の表示部24に表示される履歴画面900の一例を示す図である。履歴画面900には、ユーザ履歴901が、後述するユーザ履歴テーブルT6に基づいて表示される。
図7(b)に示される例では、ユーザによる操作部23の操作に応じて、ストレス度の判定処理の実施日毎にストレス度の判定処理によって抽出されたユーザのストレス度に対応するアイコン画像が表示される。
【0068】
(各種テーブル)
以下、記憶部22に記憶される各種テーブルについて説明する。
図8(a)は、表情パラメータテーブルT1のデータ構造の一例を示す図であり、(b)は、感情パラメータテーブルT2のデータ構造の一例を示す図であり、(c)は、テンションパラメータテーブルT3のデータ構造の一例を示す図である。また、
図9は、ストレステーブルT4のデータ構造の一例を示す図である。また、
図10は、対応出力テーブルT5のデータ構造の一例を示す図である。また、
図11は、ユーザ履歴テーブルT6のデータ構造の一例を示す図である。なお、記憶部22に記憶される各種テーブルの全て又は一部は、制御装置2とは異なる一又は複数の装置によって記憶されてもよい。
【0069】
図8(a)に示される表情パラメータテーブルT1には、制御装置2が実行した表情認識処理によって算出された表情属性毎の表情パラメータが記憶される。なお、表情パラメータテーブルT1は、ユーザ毎に作成される。
【0070】
図8(b)に示される感情パラメータテーブルT2には、制御装置2が実行した声認識処理によって算出された感情属性毎の感情パラメータが記憶される。なお、感情パラメータテーブルT2は、ユーザ毎に作成される。
【0071】
図8(c)に示されるテンションパラメータテーブルT3には、制御装置2が実行した声認識処理によって算出されたテンションパラメータが記憶される。なお、テンションパラメータは、ユーザ毎に作成される。
【0072】
図9に示されるストレステーブルT4には、複数の感情属性と複数の表情属性とテンション属性とのそれぞれに対応するストレス度が記憶されている。例えば、テンションパラメータが、0から100までの整数値で示される場合において、テンションパラメータが0から20までの値であれば、テンション属性として「低すぎる」が設定される。また、テンションパラメータが21から45までの値であれば、テンション属性として「低い」が設定され、テンションパラメータが46から75までの値であれば、テンション属性として「丁度いい」が設定される。また、テンションパラメータが76から90までの値であれば、テンション属性として「高い」が設定され、テンションパラメータが91から100までの値であれば、テンション属性として「高すぎる」が設定される。
【0073】
また、
図9に示されるストレステーブルT4では、ストレス度として、例えば、「強いストレス(一致)」、「強いストレス(不一致)」、「ややストレス(一致)」、「ややストレス(不一致)」、「丁度いい」、「元気すぎる」等が設定される。感情属性と表情属性とが同じ種類である場合(例えば、感情属性「怒り」及び表情属性「怒り」)と、感情属性と表情属性とが異なる種類である場合(例えば、感情属性「怒り」及び表情属性「喜び」)とで、同程度のストレスが生じる場合がある。そこで、強いストレスが生じており且つ感情属性と表情属性とが同じ種類である場合は、ストレス度として「強いストレス(一致)」が設定され、強いストレスが生じており且つ感情属性と表情属性とが異なる種類である場合は、ストレス度として「強いストレス(不一致)」が設定される。また、ストレスがやや生じており且つ感情属性と表情属性とが同じ種類である場合は、ストレス度として「ややストレス(一致)」が設定され、ストレスがやや生じており且つ感情属性と表情属性とが異なる種類である場合は、ストレス度として「ややストレス(不一致)」が設定される。
【0074】
例えば、
図9に示されるストレステーブルT4では、例えば、ストレス度「強いストレス(一致)」には、感情属性「怒り」と、表情属性「怒り」と、テンション属性「低すぎる」、「低い」、「丁度いい」、「高い」及び「高すぎる」とが対応付けられている。また、ストレス度「強いストレス(一致)」には、例えば、感情属性「穏やか」と、表情属性「穏やか」と、テンション属性「高い」及び「高すぎる」とが対応付けられている。また、ストレス度「強いストレス(不一致)」には、例えば、感情属性「穏やか」と、表情属性「怒り」と、テンション属性「高い」及び「高すぎる」とが対応付けられている。
【0075】
また、ストレス度「ややストレス(一致)」には、例えば、感情属性「怒り」と、表情属性「驚き」と、テンション属性「低すぎる」、「低い」、「丁度いい」及び「高い」とが対応付けられている。また、ストレス度「ややストレス(不一致)」には、例えば、感情属性「怒り」と、表情属性「喜び」と、テンション属性「低すぎる」及び「低い」とが対応付けられている。
【0076】
また、ストレス度「丁度いい」には、例えば、感情属性「穏やか」と、表情属性「笑顔」と、テンション属性「低すぎる」、「低い」、「丁度いい」及び「高い」とが対応付けられている。また、ストレス度「高すぎる」には、例えば、感情属性「穏やか」と、表情属性「笑顔」と、テンション属性「高すぎる」とが対応付けられている。
【0077】
図10に示される対応出力テーブルT5には、複数の現在のストレス度のそれぞれと、複数の前回のストレス度のそれぞれとに対応付けられた出力データが記憶されている。出力データは、ロボット3に一連のヒーリング動作を行わせるための駆動命令及び/又はロボット3の音声出力装置33に出力させるヒーリング動作に係る音声の音声データ等である。なお、出力データの出力先はロボット3に限らない。例えば、出力データは、制御装置2の表示部24に所定の画像を表示させるための出力データでもよく、例えば、ユーザのストレスを解消するための一連のヒーリング動作等を行うキャラクタ画像を含む動作例画像801を表示するための動作例画像データ、ユーザにストレス度に応じたアドバイスを示す文字情報を表示するためのアドバイス文字データ等である。また、ユーザにストレス度に応じたアドバイスを示す音声を出力するためのアドバイス音声データが、出力データとしてロボット3の音声出力装置33に出力されてもよい。なお、対応出力テーブルT5は、対応出力データの一例である。また、対応出力テーブルT5として、複数の現在のストレス度のみに対応付けられた出力データが記憶されたテーブルがさらに設けられてもよい。
【0078】
図11に示されるユーザ履歴テーブルT6には、ユーザ毎に、各ユーザのユーザID、ユーザ名、ストレス度の判定処理の実施日及び判定結果(ストレス度)等が記憶されている。
【0079】
(情報出力処理の動作フロー)
図12は、制御装置2によって実行される情報出力処理の動作フローの一例を示す図である。
【0080】
まず、制御装置2の情報取得部251は、ユーザ選択画面500においてユーザによる操作部23の操作に応じてユーザが選択又は新規登録された場合、当該選択又は新規登録されたユーザを判定対象ユーザとして特定する(ステップS101)。例えば、メニュー画面が表示部24に表示されている場合において、ユーザによる操作部23の操作に応じてメニュー画面に表示された所定のアプリケーション実行ボタンが選択されると、情報取得部251は、ユーザ選択画面500を表示する。つぎに、ユーザによる操作部23の操作に応じてユーザ選択画面500に表示されたユーザ選択ボタン501のいずれかが選択されると、ユーザ選択ボタン501に対応するユーザのユーザIDを、判定対象ユーザIDとしてユーザ履歴テーブルT6から特定する。
【0081】
また、ユーザによる操作部23の操作に応じてユーザ選択画面500に表示された新規登録ボタン502が選択された場合、新たなユーザを登録するための登録画面が表示される。表示された登録画面から、ユーザによる操作部23の操作に応じて少なくともユーザ名が入力されると、入力されたユーザ名に対して新たなユーザIDが付与され、ユーザ履歴テーブルT6に、新たなユーザIDとユーザ名とが記憶される。そして、情報取得部251は、ユーザ履歴テーブルT6から、記憶された新たなユーザIDを判定対象ユーザIDとして特定する。
【0082】
次に、情報取得部251は、ロボット3の撮影装置31によって撮影された判定対象ユーザの顔画像データを取得する(ステップS102)。例えば、情報取得部251は、撮影装置31によって出力された判定対象ユーザの顔画像を含む動画像データを、所定期間毎に取得し、取得した動画像データを判定対象ユーザの顔画像データとして判定部252に順次送出する。
【0083】
次に、情報取得部251は、ロボット3の音声入力装置32に入力された判定対象ユーザの音声を変換した入力音声データを取得する(ステップS103)。例えば、情報取得部251は、ロボット3の音声入力装置32によってユーザの音声が検知された場合において、音声入力装置32から、検知された音声を変換した入力音声データを取得する。そして、情報取得部251は、取得した入力音声データを判定部252に送出する。
【0084】
次に、判定部252は、ストレス度の判定処理を実行する(ステップS104)。なお、ストレス度の判定処理の詳細については後述する。
【0085】
次に、判定部252は、ストレス度の判定処理によって判定された判定対象ユーザのストレス度を、判定処理の実行日とともに、判定対象ユーザIDに対応付けてユーザ履歴テーブルT6に記憶する(ステップS105)。なお、判定部252は、判定された判定対象ユーザの表情パラメータ、判定対象ユーザの感情パラメータ、判定対象ユーザのテンションパラメータを含む判定画面600を表示する。
【0086】
次に、選択部253は、判定対象ユーザIDに対する現在のストレス度よりも前に、判定対象ユーザIDに対する過去のストレス度がユーザ履歴テーブルT6に記憶されているか否かを判定する(ステップS106)。
【0087】
選択部253は、判定対象ユーザIDに対する過去のストレス度がユーザ履歴テーブルT6に記憶されていないと判定した場合(ステップS106−No)、対応出力テーブルT5を参照し、判定対象ユーザIDに対する現在のストレス度に対応付けられた出力データを選択し(ステップS107)、ステップS109に処理を進める。なお、ステップS107で参照される対応出力テーブルT5は、複数の現在のストレス度のみに対応付けられた出力データが記憶されたテーブルであってもよい。
【0088】
また、選択部253は、判定対象ユーザIDに対する過去のストレス度がユーザ履歴テーブルT6に記憶されていると判定した場合(ステップS106−Yes)、対応出力テーブルT5を参照し、判定対象ユーザIDに対する現在のストレス度及び過去のストレス度の両方に対応付けられた出力データを選択する(ステップS108)。
【0089】
そして、出力処理部254は、選択された出力データをロボット3に出力し(ステップS109)、一連のステップを終了する。なお、出力処理部254は、ストレス度の判定処理によって判定された判定表情属性、判定感情属性及びストレス度のそれぞれを示すアイコン画像を含む判定結果画面700を表示する。
【0090】
(ストレス度の判定処理の動作フロー)
図13は、制御装置2によって実行されるストレス度の判定処理の動作フローの一例を示す図である。
【0091】
まず、制御装置2の判定部252は、表情パラメータを判定する(ステップS201)。例えば、判定部252は、情報取得部251から順次送出された判定対象ユーザの顔画像データを取得する毎に、表情認識処理を実行する。表情認識処理では、判定部252は、顔画像データにおいて顔検出を行い、顔領域の画像を切り出す。なお、判定部252は、顔検出ができなかった場合、ロボット3の音声出力装置33に、ユーザの顔が撮影装置31の視野範囲内に位置するように促すための音声を出力させてもよい。次に、判定部252は、切り出した画像に対して、両目の端点及び口の端等点の座標を特定する特徴点検出を行い、特徴点に基づいて、「笑顔」、「穏やか」、「喜び」、「驚き」、「怒り」及び「悲しみ」等の表情属性の度合いを示す表情パラメータを判定する。そして、判定部252は、判定した判定対象ユーザの表情パラメータを、判定対象ユーザの表情パラメータテーブルT1に記憶する。なお、各表情パラメータは、0から100までの整数値で示される。
【0092】
次に、判定部252は、感情パラメータを判定する(ステップS202)。例えば、判定部252は、情報取得部251から送出された判定対象ユーザの入力音声データを取得すると、声認識処理を実行する。なお、判定部252は、表情認識処理の実行後に、判定対象ユーザの入力音声データが取得されない場合、所定時間間隔毎に、ユーザの音声入力を促すための音声(例えば、「こんにちは」等の挨拶の音声)をロボット3の音声出力装置33に出力させてもよい。声認識処理では、判定部252は、例えば、特許5755791号公報に記載されているように、入力音声データにおいて判定対象ユーザが発声した声の基本周波数を検知し、基本周波数と予め学習された統計モデルに基づいて、「穏やか」、「怒り」、「喜び」及び「悲しみ」等の感情属性の度合いを示す感情パラメータを判定する。そして、判定部252は、判定した判定対象ユーザの感情パラメータを、判定対象ユーザの感情パラメータテーブルT2に記憶する。なお、各感情パラメータは、0から100までの整数値で示される。
【0093】
次に、判定部252は、テンションパラメータを判定する(ステップS203)。例えば、判定部252は、取得した判定対象ユーザの入力音声データに基づいて、声の韻律的特徴(大きさ、高)及び声質(スペクトルの特徴)、並びにそれら変動量等の各パラメータを算出する声認識処理を実行する。判定部252は、声の韻律的特徴とその変動量、及び、声質及びその変動量について、予め特定した声のテンションに関する特徴量と、算出された判定対象ユーザの各パラメータとに基づいて、判定対象ユーザのテンションパラメータを判定する。そして、判定部252は、判定した判定対象ユーザのテンションパラメータを、判定対象ユーザのテンションパラメータテーブルT3に記憶する。なお、テンションパラメータは、0から100までの整数値で示される。
【0094】
そして、判定部252は、ストレス度を抽出する(ステップS204)。まず、判定部252は、判定された表情パラメータのうち、最も数値の高い表情パラメータの表情属性を、判定表情属性として特定する。次に、判定部252は、判定された感情パラメータのうち、最も数値の高い感情パラメータの感情属性を、判定感情属性として特定する。次に、判定部252は、判定されたテンションパラメータに基づいて判定テンション属性を特定する。例えば、判定部252は、テンションパラメータが0から20までの値であれば、判定テンション属性として「低すぎる」を特定する。また、判定部252は、テンションパラメータが21から45までの値であれば、判定テンション属性として「低い」を特定する。また、判定部252は、テンションパラメータが46から75までの値であれば、判定テンション属性として「丁度いい」を特定する。また、判定部252は、テンションパラメータが76から90までの値であれば、判定テンション属性として「高い」を特定する。また、判定部252は、テンションパラメータが、91から100までの値であれば、判定テンション属性として「高すぎる」を特定する。そして、判定部252は、判定した判定表情属性、判定感情属性及び判定テンション属性のそれぞれに対応付けられたストレス度を、ストレステーブルT4から抽出する。
【0095】
上述のとおり、ロボットシステム1は、ユーザに対して、当該ユーザにおける現在のストレス度及び過去のストレス度の両方に対応付けられた出力データを出力することができる。したがって、ロボットシステムの制御装置によって、ユーザのストレスの状況に応じて適切な情報を出力することが可能となる。
【0096】
(変形例1)
なお、本発明は、本実施形態に限定されるものではない。例えば、ステップS107の出力データの選択処理は、判定対象ユーザIDに対する過去のストレス度がユーザ履歴テーブルT6に記憶されていると判定された場合であっても、当該過去のストレス度の判定処理の実施日が現在の日付から所定期間(例えば、1週間)内でない場合は、実行されてもよい。この場合、ステップS108の出力データの選択処理は、判定対象ユーザIDに対する過去のストレス度が、現在の日付から所定期間(例えば、1週間)内でユーザ履歴テーブルT6に記憶されていると判定された場合に限り実行される。
【0097】
また、判定部252は、判定した判定表情属性、判定感情属性及び判定テンション属性のうちの少なくともいずれか1つに対応付けられたストレス度を、ストレステーブルT4から抽出してもよい。この場合、判定表情属性、判定感情属性及び判定テンション属性のうちの少なくともいずれか1つに対応付けられたストレス度を記憶したテーブルが、ストレステーブルT4としてさらに記憶される。
【0098】
当業者は、本発明の精神及び範囲から外れることなく、様々な変更、置換、及び修正をこれに加えることが可能であることを理解されたい。