IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ AI Infinity 株式会社の特許一覧

特許7185968振動情報出力システム、及び振動情報出力プログラム
<>
  • 特許-振動情報出力システム、及び振動情報出力プログラム 図1
  • 特許-振動情報出力システム、及び振動情報出力プログラム 図2
  • 特許-振動情報出力システム、及び振動情報出力プログラム 図3
  • 特許-振動情報出力システム、及び振動情報出力プログラム 図4
  • 特許-振動情報出力システム、及び振動情報出力プログラム 図5
  • 特許-振動情報出力システム、及び振動情報出力プログラム 図6
  • 特許-振動情報出力システム、及び振動情報出力プログラム 図7
  • 特許-振動情報出力システム、及び振動情報出力プログラム 図8
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B1)
(11)【特許番号】
(24)【登録日】2022-11-30
(45)【発行日】2022-12-08
(54)【発明の名称】振動情報出力システム、及び振動情報出力プログラム
(51)【国際特許分類】
   G06F 3/01 20060101AFI20221201BHJP
【FI】
G06F3/01 560
【請求項の数】 7
(21)【出願番号】P 2022074851
(22)【出願日】2022-04-28
【審査請求日】2022-04-28
【早期審査対象出願】
(73)【特許権者】
【識別番号】522173273
【氏名又は名称】AI Infinity 株式会社
(74)【代理人】
【識別番号】100120868
【弁理士】
【氏名又は名称】安彦 元
(72)【発明者】
【氏名】春芽 健生
【審査官】▲高▼瀬 健太郎
(56)【参考文献】
【文献】特開2020-113025(JP,A)
【文献】特表2017-535388(JP,A)
【文献】特開2021-007005(JP,A)
【文献】特開平08-214391(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
G06F 3/01
(57)【特許請求の範囲】
【請求項1】
ユーザとコミュニケーションをとるための振動情報出力システムであって、
前記ユーザの感情を示す感情情報を取得する取得手段と、
予め取得された参照用感情情報を含む入力データと、前記参照用感情情報に紐づいた物理的刺激を与える振動の特徴を示す参照用振動情報を含む出力データと、を一組とするデータセットを学習データとして用いて、機械学習により生成された振動モデルが記憶されたデータベースと、
前記データベースを参照し、前記感情情報に基づいて、前記ユーザに対して物理的刺激を与える振動を出力するための振動情報を生成し、出力する出力手段と、
前記ユーザの筋肉に対して、前記振動情報に基づき、前記ユーザの感情から推定される所望の動作を補助するパルス電圧を出力する振動出力部と、を備えること
を特徴とする振動情報出力システム。
【請求項2】
前記入力データは、疑似的に生成された前記参照用感情情報を含むこと
を特徴とする請求項1記載の振動情報出力システム。
【請求項3】
前記感情情報を推定するための情報を含む感情要素を取得する感情要素取得手段と、
予め取得された参照用感情要素を含む入力データと、前記参照用感情情報を含む出力データと、を一組とするデータセットを学習データとして用いて、機械学習により生成された感情モデルが記憶された感情データベースと、
前記感情データベースを参照し、前記感情要素に基づいて、前記感情情報を出力する感情情報出力手段と、をさらに備え、
前記取得手段は、前記感情情報出力手段より出力された前記感情情報を取得すること
を特徴とする請求項1又は2記載の振動情報出力システム。
【請求項4】
前記感情要素は、前記ユーザの音声と、骨導音と、を含むこと
を特徴とする請求項3記載の振動情報出力システム。
【請求項5】
前記出力手段は、
前記感情情報の特徴に基づき、前記データベースに含まれる複数の前記振動モデルの何れか一つを選択し、
選択された一つの前記振動モデルを参照し、前記感情情報に基づく前記振動情報を出力すること
を含むこと
を特徴とする請求項1又は2記載の振動情報出力システム。
【請求項6】
前記出力手段により前記振動情報を出力したあと、前記振動情報に基づく物理的刺激が前記ユーザに与えられたときに取得された前記ユーザの感情を示す校正用感情情報を含む入力データと、前記参照用振動情報を含む出力データと、を一組とするデータセットを学習データとして用いて、前記振動モデルを更新する更新手段をさらに備えること
を特徴とする請求項1又は2記載の振動情報出力システム。
【請求項7】
ユーザとコミュニケーションをとるための処理を実行する振動情報出力プログラムであって、
ユーザの感情を示す感情情報を取得する取得ステップと、
予め取得された参照用感情情報を含む入力データと、前記参照用感情情報に紐づいた物理的刺激を与える振動の特徴を示す参照用振動情報を含む出力データと、を一組とするデータセットを学習データとして用いて、機械学習により生成された振動モデルを参照し、前記取得ステップにより取得された感情情報に基づいて、前記ユーザに対して物理的刺激を与える振動を出力するための振動情報を生成し、前記ユーザの筋肉に対して、前記振動情報に基づき、前記ユーザの感情から推定される所望の動作を補助するパルス電圧を出力する出力ステップと、をコンピュータに実行させること
を特徴とする振動情報出力プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
この発明は、振動情報出力システム、及び振動情報出力プログラムに関する。
【背景技術】
【0002】
従来、ユーザとシステムとの間におけるコミュニケーションを目的としたシステムとして、例えば特許文献1のように、ユーザが発出する情報に基づきロボットが発出する情報を決定する技術が提案されている。特許文献1には、ユーザが発出した言語情報と、ユーザの感情と、ユーザの性格と、ロボットの感情とに基づき、ユーザに対しロボットが発出する情報を決定する技術が開示されている。
【0003】
また、例えば特許文献2のように、ユーザの感情に応じて、ユーザに対して適切な刺激を提供する技術が提案されている。特許文献2には、ユーザがストレス状態又は目標感情状態(例えば鎮静状態)から逸脱した状態と判定されたとき、ユーザのストレス状態や感情状態を調節するために有用な特定な刺激を発して生理的反応を促進する技術が開示されている。
【先行技術文献】
【特許文献】
【0004】
【文献】特許第6990472号公報
【文献】特開2019-518572号公報
【発明の概要】
【発明が解決しようとする課題】
【0005】
ここで、特許文献1では、ユーザが発出した情報に基づきロボットが発出する情報として、音声、ジェスチャー、文字列等が挙げられている。しかしながら、特許文献1に開示された技術では、ユーザ毎の性格や意識の違いにより、ロボットが発出する情報の捉え方が異なる恐れがある。このため、ユーザの感情に応じて、適切なコミュニケーションを図ることができない懸念が挙げられる。
【0006】
また、特許文献2では、取得した感情情報が否定的なトーン(恐怖、悲しみ、不快)を有するとみなされるとき、ソフトウェアが、ユーザに選択された刺激波形を刺激ジェネレータに提供することで、治療刺激を出力する方法が開示されている。この方法によれば、ユーザの感情に対する刺激の選択がユーザの主観に依拠しており、また、ユーザが選択し得る刺激の種類が、ソフトウェアにおいて予め設定された情報に基づく種類を前提としている。このため、特許文献2の開示技術では、ユーザの感情に応じた適切な刺激がユーザに提供されない可能性がある。このため、ユーザの感情に応じて、適切なコミュニケーションが提供されていない懸念が挙げられる。
【0007】
そこで本発明は、上述した問題点に鑑みて案出されたものであり、その目的とするところは、ユーザの感情情報に応じたコミュニケーションを提供することができる振動情報出力システム、及び振動情報出力プログラムを提供することにある。
【課題を解決するための手段】
【0008】
第1発明における振動情報出力システムによれば、ユーザとコミュニケーションをとるための振動情報出力システムであって、前記ユーザの感情を示す感情情報を取得する取得手段と、予め取得された参照用感情情報を含む入力データと、前記参照用感情情報に紐づいた物理的刺激を与える振動の特徴を示す参照用振動情報を含む出力データと、を一組とするデータセットを学習データとして用いて、機械学習により生成された振動モデルが記憶されたデータベースと、前記データベースを参照し、前記感情情報に基づいて、前記ユーザに対して物理的刺激を与える振動を出力するための振動情報を生成し、出力する出力手段と、前記ユーザの筋肉に対して、前記振動情報に基づき、前記ユーザの感情から推定される所望の動作を補助するパルス電圧を出力する振動出力部と、を備えることを特徴とする。
【0009】
第2発明における振動情報出力システムによれば、第1発明において、前記入力データは、疑似的に生成された前記参照用感情情報を含むことを特徴とする。
【0010】
第3発明における振動情報出力システムによれば、第1発明又は第2発明において、前記感情情報を推定するための情報を含む感情要素を取得する感情要素取得手段と、予め取得された参照用感情要素を含む入力データと、前記参照用感情情報を含む出力データと、を一組とするデータセットを学習データとして用いて、機械学習により生成された感情モデルが記憶された感情データベースと、前記感情データベースを参照し、前記感情要素に基づいて、前記感情情報を出力する感情情報出力手段と、をさらに備え、前記取得手段は、前記感情情報出力手段より出力された前記感情情報を取得することを特徴とする。
【0011】
第4発明における振動情報出力システムによれば、第3発明において、前記感情要素は、前記ユーザの音声と、骨導音と、を含むことを特徴とする。
【0012】
第5発明における振動情報出力システムによれば、第1発明又は第2発明において、前記出力手段は、前記感情情報の特徴に基づき、前記データベースに含まれる複数の前記振動モデルの何れか一つを選択し、選択された一つの前記振動モデルを参照し、前記感情情報に基づく前記振動情報を出力することを含むことを特徴とする。
【0013】
第6発明における振動情報出力システムによれば、第1発明又は第2発明において、前記出力手段により前記振動情報を出力したあと、前記振動情報に基づく物理的刺激が前記ユーザに与えられたときに取得された前記ユーザの感情を示す校正用感情情報を含む入力データと、前記参照用振動情報を含む出力データと、を一組とするデータセットを学習データとして用いて、前記振動モデルを更新する更新手段をさらに備えることを特徴とする。
【0016】
発明における振動情報出力プログラムによれば、ユーザとコミュニケーションをとるための処理を実行する振動情報出力プログラムであって、ユーザの感情を示す感情情報を取得する取得ステップと、予め取得された参照用感情情報を含む入力データと、前記参照用感情情報に紐づいた物理的刺激を与える振動の特徴を示す参照用振動情報を含む出力データと、を一組とするデータセットを学習データとして用いて、機械学習により生成された振動モデルを参照し、前記取得ステップにより取得された感情情報に基づいて、前記ユーザに対して物理的刺激を与える振動を出力するための振動情報を生成し、前記ユーザの筋肉に対して、前記振動情報に基づき、前記ユーザの感情から推定される所望の動作を補助するパルス電圧を出力する出力ステップと、をコンピュータに実行させることを特徴とする。
【発明の効果】
【0017】
第1発明~第発明によれば、感情情報を取得する取得手段と、振動モデルが記憶されたデータベースを参照し、感情情報に基づいて、振動情報を出力する出力手段と、を備える。このため、ユーザの感情情報に応じて、ユーザに対して物理的刺激を与える振動を出力するための振動情報を出力することができる。これにより、ユーザの感情情報に応じたコミュニケーションを提供することができる。
【0018】
また、第1発明~第発明によれば、データベースには、予め取得された入力データと、出力データとを一組とするデータセットを学習データとして用いて、機械学習により生成された振動モデルが記憶される。また、出力手段は、データベースを参照し、感情情報に基づく振動情報を出力する。このため、過去に実績のある感情情報と振動情報との繋がりを踏まえ、定量的な振動情報を出力することができる。これにより、ユーザ等の主観に伴う評価のばらつきを抑制することが可能となる。
また、第1発明~第6発明によれば、ユーザの筋肉に対して、前記振動情報に基づき、前記ユーザの感情から推定される所望の動作を補助するパルス電圧を出力する振動出力部を備える。このため、ユーザに対して、例えば「予期」など、特定の感情に対応する所望の動作を補助することができる。これにより、ユーザとの双方向のコミュニケーションを提供することができる。
【0019】
特に第2発明によれば、入力データは、疑似的に生成された参照用感情情報を含む。このため、実測情報のみを用いる場合と比べて、より多様な学習データを用いて機械学習することができる。これにより、ユーザの感情情報に応じて、より多様なコミュニケーションを提供することができる。
【0020】
特に第3発明によれば、感情要素を取得する感情要素取得手段と、感情モデルが記憶された感情データベースを参照し、感情要素に基づいて、感情情報を出力する感情情報出力手段と、を備える。このため、ユーザの感情要素に基づく感情情報に応じて、ユーザに対して物理的刺激を与える振動を出力するための振動情報を出力することができる。これにより、ユーザの感情情報に応じて、より適切なコミュニケーションを提供することができる。
【0021】
特に第4発明によれば、感情要素は、ユーザの音声と、骨導音と、を含む。すなわち、ユーザの発話のみで、複数の感情要素を取得する。このため、振動情報を出力するためにユーザが複雑な操作を行う必要がない。これにより、システムの操作性向上を図ることができる。
【0022】
特に第5発明によれば、出力手段は、感情情報の特徴に基づき、データベースに記憶された複数の振動モデルの何れか一つを選択し、選択された一つの振動モデルを参照し、感情情報に基づく振動情報を出力することを含む。このため、ユーザの特徴を考慮して選択された振動モデルを参照して、振動情報を出力することができる。これにより、ユーザの感情情報に応じて、より適切なコミュニケーションを提供することができる。
【0023】
特に第6発明によれば、出力手段により振動情報を出力したあと、振動情報に基づく物理的刺激がユーザに与えられたときに取得されたユーザの感情を示す校正用感情情報を含む入力データと、参照用振動情報を含む出力データとを一組とするデータセットを学習データとして用いて、振動モデルを更新する更新手段をさらに備えることを含む。すなわち、物理的刺激が与えられたユーザの感情情報が、振動モデルに反映される。このため、ユーザの感情情報に応じて、より正確な振動情報を出力することができる。これにより、ユーザの感情情報に応じて、より適切なコミュニケーションを提供することができる。
【0026】
発明によれば、ユーザの感情情報を取得する取得ステップと、機械学習により生成された振動モデルを参照し、ユーザの感情情報に基づいて、ユーザに対して物理的刺激を与える振動を出力するための振動情報を出力する出力ステップと、を備える。このため、ユーザの感情情報に応じて、ユーザに対して物理的刺激を与える振動を出力するための振動情報を出力することができる。これにより、ユーザの感情情報に応じたコミュニケーションを提供することを、コンピュータに実行させることができる。
【図面の簡単な説明】
【0027】
図1図1は、第1実施形態における振動情報出力システムの構成の一例を示す模式図である。
図2図2(a)は、第1実施形態における振動情報出力システムの動作の一例を示す模式断面図であり、図2(b)は、第1実施形態における振動モデルの学習方法の一例を示す模式図である。
図3図3(a)は、第1実施形態における振動情報出力装置の構成の一例を示す模式図であり、図3(b)は、第1実施形態における振動情報出力装置の機能の一例を示す模式図である。
図4図4は、第1実施形態における振動情報出力システムの動作の一例を示すフローチャートである。
図5図5(a)は、第2実施形態における振動情報出力システムの動作の一例を示す模式断面図であり、図5(b)は、第2実施形態における感情モデルの学習方法の一例を示す模式図である。
図6図6は、第2実施形態における振動情報出力システムの動作の一例を示すフローチャートである。
図7図7は、第3実施形態における振動モデルの更新方法の一例を示す模式図である。
図8図8は、第3実施形態における振動情報出力システムの動作の一例を示すフローチャートである。
【発明を実施するための形態】
【0028】
以下、本発明の実施形態としての振動情報出力システム、及び振動情報出力プログラムの一例について、図面を参照しながら説明する。
【0029】
(第1実施形態:振動情報出力システム100)
図1を参照して、本実施形態における振動情報出力システム100の一例を説明する。図1は、本実施形態における振動情報出力システム100の構成の一例を示す模式図である。
【0030】
<振動情報出力システム100>
振動情報出力システム100は、ユーザ2とコミュニケーションをとることを目的としたシステムである。ここで、コミュニケーションとは、ユーザ2と振動情報出力システム100との間で、交流を図ることを示す。特に、振動情報出力システム100では、コミュニケーションの一環として、例えばユーザ2の感情に応じて、ユーザ2に対して適切な物理的刺激を与えることができる。ここで、物理的刺激とは、例えばユーザ2に対する経皮的刺激、細胞や筋肉に直接作用する等の方法によって触覚で取得する刺激を指しており、ユーザ2が視覚、聴覚、嗅覚、味覚で取得する情報としての刺激とは区別される。物理的刺激の例としては、音波刺激、超音波刺激、電気刺激(パルス電圧)が挙げられる。
【0031】
振動情報出力システム100は、例えば図1に示すように、振動情報出力装置1を備えるほか、サーバ3を備えてもよい。振動情報出力装置1、及びサーバ3は、任意のデータを互いに送受信することができ、例えば通信網4を介して通信接続されてもよい。
【0032】
サーバ3は、例えば通信網4を介して送られてきた情報が蓄積される。サーバ3は、例えば振動情報出力装置1からの要求に基づき、通信網4を介して蓄積された情報を振動情報出力装置1へと送信する。サーバ3は、例えば振動モデル8が記憶されたデータベース6を記憶する。
【0033】
通信網4は、例えば振動情報出力装置1及びサーバ3が通信回路を介して接続されるインターネット網等である。通信網4は、いわゆる光ファイバ通信網で構成されてもよい。また、通信網4は、有線通信網のほか、無線通信網等の公知の通信技術で実現してもよい。
【0034】
<振動情報出力装置1>
振動情報出力装置1は、例えばユーザ2の感情を示す感情情報5を取得する。振動情報出力装置1は、例えば図2(a)~図2(b)に示すように、振動モデル8が記憶されたデータベース6を参照し、取得した感情情報5に基づいて、ユーザ2に対して物理的刺激を与える振動を出力するための振動情報7を出力する。
【0035】
振動情報出力装置1は、振動情報7に基づいて振動を出力する振動出力部を備えてもよい。振動出力部は、例えば振動情報7に基づく振動を出力して、ユーザ2に対して物理的刺激を与える。振動出力部の例としては、例えば、公知の超音波刺激装置や電気刺激装置が用いられる。
【0036】
振動出力部は、例えば振動情報7に基づく振動を出力し、ユーザ2の細胞に対して物理的刺激を与える。すなわち、ユーザ2の細胞は、例えばユーザ2が装着した振動出力部(例えば公知の刺激装置)を介して物理的刺激を受ける。このため、ユーザ2の感情情報5に応じて、細胞に対して物理的刺激を与えることができる。これにより、ユーザ2と振動情報出力システム100との双方向のコミュニケーションを提供することができる。
【0037】
振動出力部は、例えば振動情報7に基づく振動を出力し、ユーザ2の筋肉に対して物理的刺激を与える。すなわち、ユーザ2の筋肉は、例えばユーザ2が装着した振動出力部(例えば公知の刺激装置)を介して物理的刺激を受ける。このため、ユーザ2の感情情報5に応じて、筋肉に対して物理的刺激を与えることができる。筋肉に対して物理的刺激を与えることで、例えばユーザ2の感情に対し、同調又は反駁等の主張を表現することができる。上記のほか、筋肉に対して物理的刺激を与えることで、例えばユーザ2の感情から推定される所望の動作を補助することができる。これにより、ユーザ2と振動情報出力システム100との双方向のコミュニケーションを提供することができる。
【0038】
<感情情報5>
感情情報5は、例えばユーザ2の感情を示す。感情情報5は、例えばユーザ2の基本感情(喜び、信頼、恐れ、驚き、悲しみ、嫌悪、怒り、予期)、ストレス、覚醒度を示す情報を含む。感情情報5は、振動情報出力装置1が複数の感情情報5をユーザ2に提示し、ユーザ2に選択された一つの感情情報5を用いてもよい。
【0039】
<データベース6>
データベース6は、主に、機械学習により生成された振動モデル8を記憶するために用いられる。データベース6には、1つ以上の振動モデル8が記憶されるほか、例えば振動モデル8の生成に用いられた複数の学習データ80が記憶されてもよい。データベース6は、予め取得された入力データ81と、出力データ82とを一組とするデータセットを学習データ80として、複数の学習データ80を用いた機械学習により生成された振動モデル8が記憶されてもよい。
【0040】
データベース6は、例えばサーバ3に記憶される。この場合、振動情報出力装置1は、通信網4を介して、サーバ3に記憶されたデータベース6を参照してもよい。また、データベース6は、例えば振動情報出力装置1の構成に含まれる保存部104に、サーバ3に記憶されたデータベース6を複製して記憶されてもよく、同期して記憶されてもよい。この場合、振動情報出力装置1は、保存部104に記憶されたデータベース6を参照してもよい。
【0041】
<振動情報7>
振動情報7は、ユーザ2に対して物理的刺激を与える振動を出力するための情報である。振動情報7は、例えば振動出力部を制御するための情報を含み、後述する参照用振動情報820と同様の情報を含む。振動情報7の例としては、例えば周波数、波長、振幅、振動出力継続時間、振動出力パターン、パルス高、パルス幅が挙げられる。
【0042】
<振動モデル8>
振動モデル8は、例えば図2(b)に示すように、学習データ80を用いた機械学習により生成される。振動モデル8は、例えば入力データ81と、出力データ82と、を一組とするデータセットを学習データ80として、複数の学習データ80を用いて生成される。振動モデル8は、例えばデータベース6に記憶される。振動モデル8は、例えば入力データ81を説明変数とし、出力データ82を目的変数として、回帰分析等により解析し、その解析結果に基づいて生成される回帰モデルを示す。
【0043】
振動モデル8は、例えば入力データ81と出力データ82との間における振動連関度を有する振動連関性を含む。振動連関性は、例えば複数の学習データ80を用いた機械学習により生成されてもよい。振動連関度は、入力データ81と出力データ82との繋がりの度合いを示しており、例えば振動連関度が高いほど各データの繋がりが強いと判断することができる。振動連関度は、例えば百分率等の3値以上(3段階以上)で示されるほか、2値以上(2段階以上)で示されてもよい。
【0044】
例えば振動連関性は、多対多の情報(複数の入力データ81、対、複数の出力データ82)の間における繋がりの度合いにより構築される。振動連関性は、機械学習の過程で適宜更新され、例えば複数の入力データ81、及び複数の出力データ82に基づいて最適化された関数(分類器)を示す。なお、振動連関性は、例えば各データの間における繋がりの度合いを示す複数の振動連関度を有してもよい。振動連関度は、例えばデータベースがニューラルネットワークで構築される場合、重み変数に対応させることができる。
【0045】
このため、振動情報出力システム100では、例えば分類器の判定した結果を全て踏まえた振動連関性を用いて、入力データ81に適した出力データ82を選択する。これにより、入力データ81が、出力データ82と同一又は類似である場合のほか、非類似である場合においても、入力データ81に適した出力データ82を定量的に選択することができる。
【0046】
振動連関性は、例えば複数の入力データ81と、複数の出力データ82との間における繋がりの度合いを示してもよい。この場合、振動連関性を用いることで、複数の入力データ81(例えば入力データA、入力データB)のそれぞれに対し、複数の出力データ82(例えば出力データA、出力データB)の関係の度合いを紐づけて記憶させることができる。このため、例えば振動連関性を介して、1つの出力データ82に対して、複数の入力データ81を紐づけることができる。これにより、入力データ81に対して多角的な出力データ82の選択を実現することができる。
【0047】
振動連関性は、例えば各入力データ81と、各出力データ82とをそれぞれ紐づける複数の振動連関度を有する。振動連関度は、例えば百分率、10段階、又は5段階等の3段階以上で示され、例えば線の特徴(例えば太さ等)で示される。例えば、入力データ81に含まれる「入力データA」は、出力データ82に含まれる「出力データA」との間の振動連関度AA「73%」を示し、出力データ82に含まれる「出力データB」との間の振動連関度AB「12%」を示す。すなわち、「振動連関度」は、各データ間における繋がりの度合いを示しており、例えば振動連関度が高いほど、各データの繋がりが強いことを示す。
【0048】
また振動連関性は、入力データ81と出力データ82との間に少なくとも1以上の隠れ層が設けられもよい。入力データ81又は隠れ層データの何れか一方又は両方において上述した振動連関度が設定され、これが各データの重み付けとなり、これに基づいて出力の選択が行われる。そして、この振動連関度がある閾値を超えた場合に、その出力を選択するようにしてもよい。
【0049】
振動モデル8は、例えば複数の学習データ80を用いた機械学習により生成された、学習済みモデルを含んでもよい。学習済みモデルは、例えばCNN(Convolutional Neural Network)等のニューラルネットワークモデルを示すほか、SVM(Support vector machine)等を示す。また、機械学習として、例えば深層学習を用いることができる。機械学習として、例えば敵対的生成ネットワーク(GAN:Generative adversarial network)を用いることで、入力データ81を疑似的に生成してもよい。
【0050】
<学習データ80>
学習データ80は、振動モデル8を生成するための機械学習に用いられる。学習データ80は、入力データ81と出力データ82とを一組とするデータセットである。
【0051】
<入力データ81>
入力データ81は、振動モデル8を生成するための機械学習に用いる学習データ80の一部として用いられる。入力データ81は、例えば予め取得された参照用感情情報810を含む。参照用感情情報810は、振動モデル8を生成するための機械学習に用いられる感情情報を示し、例えばユーザ2以外の感情情報を含む。
【0052】
入力データ81は、例えば疑似的に生成された参照用感情情報810を含んでもよい。この場合、実測情報のみを用いる場合と比べて、より多様な学習データ80を用いることができる。これにより、ユーザ2の感情情報5に応じて、より多様なコミュニケーションを提供することができる。
【0053】
<出力データ82>
出力データ82は、振動モデル8を生成するための機械学習に用いる学習データ80の一部として用いられる。出力データ82は、例えば予め取得された参照用振動情報820を含む。参照用振動情報820は、振動モデル8を生成するための機械学習に用いられる振動情報を示す。
【0054】
学習データ80に含まれる一組の入力データ81と出力データ82との組み合わせは、例えば入力データ81に含まれる参照用感情情報810と、出力データ82に含まれる参照用振動情報820とが紐づけられた組み合わせを含む。参照用感情情報810と参照用振動情報820とが紐づけられる組み合わせとしては、例えば「悲しみ」を示す参照用感情情報810と、参照用感情情報810で示された「悲しみ」に対して、「怒り」を誘発させるための物理的刺激を出力するための参照用振動情報820と、が紐づけられる。上記のほか、例えば「喜び」を示す参照用感情情報810と、「喜び」を誘発させるための物理的刺激を出力するための参照用振動情報820と、が紐づけられてもよい。これらのような学習データ80を用いて生成された振動モデル8を用いることで、ユーザ2と振動情報出力システム100との双方向のコミュニケーションを図ることが可能となる。このほか、例えば振動連関性を含む振動モデル8を用いることにより、ユーザ2と振動情報出力システム100との双方向のコミュニケーションを図ることが可能となる。
【0055】
出力データ82は、例えば参照用振動情報820として、ユーザ2の細胞に対して物理的刺激を与えるための振動を出力するための情報を含む。
【0056】
例えば、物理的刺激として、音波刺激が用いられる。音波刺激を与えられた細胞が生体反応を示すことについて、文献で説明されている。「可聴音刺激による機械感受性遺伝子の細胞型特異的抑制 久米田康治、高橋大児、竹安佐和記、吉村茂 PLOS ONE(2018年)」によれば、細胞に様々な音波を当て遺伝子解析を行ったところ、細胞によっては特定の遺伝子群のはたらきが抑制され、また、その応答レベルには音の大きさや波形などの特徴が大きく影響することが明らかにされている。これを踏まえ、参照用振動情報820は、例えば特定の細胞の状態を、「特定の感情」を示す際の細胞の状態へ変化させるために、細胞を応答させる音波刺激を出力するための周波数、波長、振幅のうち少なくとも何れかを含んでもよい。この場合、参照用振動情報820は、変化後の細胞の状態、又は変化が表れる細胞の種類に対応する「特定の感情」を示す感情情報を含む参照用感情情報810と紐づけられてもよい。例えば「悲しみ」を示す参照用感情情報810に対し、「怒り」を誘発させるための細胞(例えば肝細胞等)に影響を与える音波刺激を出力するための参照用振動情報820が紐づけられる。このような学習データ80を用いて生成された振動モデル8を用いることで、ユーザ2と振動情報出力システム100との双方向のコミュニケーションを図ることが可能となる。
【0057】
例えば、物理的刺激として、電気刺激が用いられる。電気刺激を与えられた細胞が生体反応を示すことについて、文献で説明されている。「物理的刺激と生体反応物理的刺激に対する細胞応答性 弓削 類 理学療法学第31巻第4号(2004年)」によれば、筋芽細胞に電気刺激を行うことで、発達した筋管細胞が形成されたことが確認されている。これを踏まえ、参照用振動情報820は、例えばユーザ2の「特定の感情」から推定される所望の刺激方法によって筋線維の形成促進を促すために、細胞を応答させる電気刺激を出力するための周波数、波長、振幅、振動出力継続時間、振動出力パターン、パルス高、パルス幅のうち少なくとも何れかを含んでもよい。この場合、参照用振動情報820は、刺激方法を所望した際の「特定の感情」を示す感情情報を含む参照用感情情報810と紐づけられてもよい。例えば「嫌悪」を示す参照用感情情報810に対し、「信頼」を誘発させるために振幅及び振動出力パターンが調整された電気刺激を出力するための参照用振動情報820が紐づけられる。このような学習データ80を用いて生成された振動モデル8を用いることで、ユーザ2と振動情報出力システム100との双方向のコミュニケーションを図ることが可能となる。
【0058】
出力データ82は、例えば参照用振動情報820として、ユーザ2の筋肉に対して物理的刺激を与えるための振動を出力するための情報を含む。
【0059】
例えば、物理的刺激として、電気刺激が用いられる。電気刺激が筋肉に与えられることで身体を制御する技術について、文献で説明されている。「PossessedHand:電気刺激を用いた人体手形状の直接制御システム 玉城絵美、味八木崇、暦本純一 INTERACTION2010論文(2010年)」によれば、前腕周辺の手指を駆動する筋肉に電気刺激を与えることで、合計16関節の動作が確認された。これを踏まえ、参照用振動情報820は、例えばユーザ2の「特定の感情」から推定される所望の動作を補助するために、筋肉の屈曲動作及び伸展動作をさせる電気刺激を出力するための周波数、波長、振幅、振動出力継続時間、振動出力パターン、パルス高、パルス幅のうち少なくとも何れかを含んでもよい。この場合、参照用振動情報820は、特定の動作を所望した際の「特定の感情」を示す感情情報を含む参照用感情情報810と紐づけられてもよい。例えば「予期」を示す参照用感情情報810に対し、手を屈曲運動させて目の前の物を掴む動作を補助する電気刺激を出力するための参照用振動情報820が紐づけられる。このような学習データ80を用いて生成された振動モデル8を用いることで、ユーザ2と振動情報出力システム100との双方向のコミュニケーションを図ることが可能となる。
【0060】
次に、図3を参照して、本実施形態における振動情報出力装置1の構成及び機能の一例を説明する。図3(a)は、本実施形態における振動情報出力装置1の構成の一例を示す模式図であり、図3(b)は、本実施形態における振動情報出力装置1の機能の一例を示す模式図である。
【0061】
振動情報出力装置1として、例えばラップトップ(ノート)PC又はデスクトップPC等の電子機器が用いられる。振動情報出力装置1は、例えば図3(a)に示すように、筐体10と、CPU101と、ROM(Read Only Memory)102と、RAM(Random Access Memory)103と、保存部104と、I/F105~107とを備える。各構成101~107は、内部バス110により接続される。
【0062】
CPU101は、振動情報出力装置1全体を制御する。ROM102は、CPU101の動作コードを格納する。RAM103は、CPU101の動作時に使用される作業領域である。保存部104は、データベースや学習対象データ等の各種情報が記憶される。保存部104として、例えばHDD(Hard Disk Drive)のほか、SSD(Solid State Drive)等のデータ保存装置が用いられる。なお、例えば振動情報出力装置1は、図示しないGPU(Graphics Processing Unit)を有してもよい。
【0063】
I/F105は、通信網4を介して、必要に応じてサーバ3との各種情報の送受信を行うためのインターフェースである。I/F106は、入力部108との情報の送受信を行うためのインターフェースである。入力部108として、例えばキーボードが用いられ、ユーザ2又は振動情報出力装置1のオペレータ等は、入力部108を介して、各種情報、又は振動情報出力装置1の制御コマンド等を入力する。I/F107は、表示部109との各種情報の送受信を行うためのインターフェースである。表示部109は、保存部104に保存された各種情報、又は評価結果等を表示する。表示部109として、ディスプレイが用いられ、例えばタッチパネル式の場合、入力部108と一体に設けられる。
【0064】
図3(b)は、振動情報出力装置1の機能の一例を示す模式図である。振動情報出力装置1は、取得部11と、出力部12と、記憶部13と、学習部14と、を備える。なお、図3(b)に示した各機能は、CPU101が、RAM103を作業領域として、保存部104等に記憶されたプログラムを実行することにより実現される。
【0065】
以下、振動情報出力装置1の各機能についての詳細を説明する。
【0066】
<取得部11>
取得部11は、例えばユーザ2の感情情報5を取得する。取得部11は、例えば振動情報出力装置1が表示部109を介して複数の感情情報5をユーザ2に提示し、ユーザ2に選択された1つの感情情報5を取得してもよい。
【0067】
<出力部12>
出力部12は、例えば取得部11が感情情報5を取得した際、振動モデル8が記憶されたデータベース6を参照し、取得部11が取得した感情情報5に基づく振動情報7を生成する。また、出力部12は、例えば出力部12が生成した振動情報7を出力する。出力部12は、例えば表示部109に振動情報7が表示されるように出力してもよい。出力部12は、例えば保存部104等に予め記憶された表示用のフォーマットを用いて、振動情報7の特徴をユーザ2が理解できる形式に変換した振動情報7を出力してもよい。
【0068】
<記憶部13>
記憶部13は、保存部104に保存されたデータベース6等の各種データを、必要に応じて取出す。記憶部13は、各構成11、12、14により取得又は出力された各種データを、必要に応じて保存部104に保存する。
【0069】
<学習部14>
学習部14は、例えば複数の学習データ80を用いて、振動モデル8を生成する。学習部14は、例えば新たな学習データ80を取得し、既存の振動モデル8を更新してもよい。学習部14は、例えば新たな学習データ80を疑似的に生成し、既存の振動モデル8を更新してもよい。
【0070】
(第1実施形態:振動情報出力システム100の動作の一例)
次に図4を参照して、本実施形態における振動情報出力システム100の動作の一例を説明する。図4は、本実施形態における振動情報出力システム100の動作の一例を示すフローチャートである。
【0071】
振動情報出力システム100は、例えば振動情報出力装置1内にインストールされた振動情報出力プログラムを介して実行する。
【0072】
振動情報出力システム100の動作は、取得手段S110と、出力手段S120と、を備える。
【0073】
<取得手段S110>
取得手段S110は、例えばユーザ2の感情情報5を取得する。取得手段S110は、例えば取得部11に、ユーザ2の感情を示す感情情報5を取得させてもよい。取得手段S110は、例えば取得部11に、ユーザ2に提示するように表示部109が表示した複数の感情情報5のうち、ユーザ2に選択された一つの感情情報5を取得させてもよい。
【0074】
<出力手段S120>
出力手段S120は、例えば振動モデル8が記憶されたデータベース6を参照し、感情情報5に基づく振動情報7を生成する。また、出力手段S120は、例えば出力手段S120が生成した振動情報7を出力する。出力手段S120は、例えば出力部12に、振動モデル8が記憶されたデータベース6を参照させ、感情情報5に基づく振動情報7を生成させ、出力させてもよい。出力手段S120は、例えば出力部12に、表示部109に振動情報7が表示されるように出力させてもよい。
【0075】
出力手段S120は、データベース6を参照し、感情情報5に基づく振動情報7を出力する。この場合、過去に実績のある感情情報5と振動情報7との繋がりを踏まえ、定量的な振動情報7を出力することができる。これにより、ユーザ2等の主観に伴う評価のばらつきを抑制することが可能となる。
【0076】
出力手段S120は、例えば感情情報5の特徴に基づき、データベース6に含まれ、それぞれ異なる学習データ80を用いて生成された複数の振動モデル8の何れか一つを選択し、選択された一つの振動モデル8を参照し、感情情報5に基づく振動情報7を出力することを含む。この場合、ユーザ2の特徴を考慮して選択された振動モデル8を参照して、振動情報7を出力することができる。これにより、ユーザ2の感情情報5に応じて、より適切なコミュニケーションを提供することができる。感情情報5の特徴に基づく振動モデル8の選択方法としては、例えばユーザ2から取得した感情情報5に含まれる基本感情、ストレス、覚醒度の何れかについて、学習データ80が最も多い振動モデル8を選択する方法が挙げられる。
【0077】
上述した各手段を実施し、本実施形態における振動情報出力システム100の動作は終了する。なお、振動情報出力システム100では、例えば上述した各手段を繰り返し実施してもよい。
【0078】
本実施形態によれば、感情情報5を取得する取得手段S110と、振動モデル8が記憶されたデータベース6を参照し、感情情報5に基づいて、振動情報7を出力する出力手段S120と、を備える。このため、ユーザ2の感情情報5に応じて、ユーザ2に対して物理的刺激を与える振動を出力するための振動情報7を出力することができる。これにより、ユーザ2の感情情報5に応じたコミュニケーションを提供することができる。
【0079】
また、本実施形態によれば、データベース6には、予め取得された入力データ81と、出力データ82とを一組とするデータセットを学習データ80として用いて、機械学習により生成された振動モデル8が記憶される。また、出力手段S120は、データベース6を参照し、感情情報5に基づく振動情報7を出力する。このため、過去に実績のある感情情報5と振動情報7との繋がりを踏まえ、定量的な振動情報7を出力することができる。これにより、ユーザ2等の主観に伴う評価のばらつきを抑制することが可能となる。
【0080】
また、本実施形態によれば、入力データ81は、疑似的に生成された参照用感情情報810を含む。このため、実測情報のみを用いる場合と比べて、より多様な学習データ80を用いて機械学習することができる。これにより、ユーザ2の感情情報5に応じて、より多様なコミュニケーションを提供することができる。
【0081】
また、本実施形態によれば、出力手段S120は、感情情報5の特徴に基づき、データベース6に記憶された複数の振動モデル8の何れか一つを選択し、選択された一つの振動モデル8を参照し、感情情報5に基づく振動情報7を出力することを含む。このため、ユーザ2の特徴を考慮して選択された振動モデル8を参照して、振動情報7を出力することができる。これにより、ユーザ2の感情情報5に応じて、より適切なコミュニケーションを提供することができる。
【0082】
また、本実施形態によれば、ユーザ2の細胞に対して、振動情報7に基づく振動を出力する振動出力部をさらに備える。このため、ユーザ2の感情情報5に応じて、細胞への物理的刺激を提供することができる。これにより、ユーザ2との双方向のコミュニケーションを提供することができる。
【0083】
また、本実施形態によれば、ユーザ2の筋肉に対して、振動情報7に基づく振動を出力する振動出力部をさらに備える。このため、ユーザ2の感情情報5に応じて、筋肉への物理的刺激を提供することができる。これにより、ユーザ2との双方向のコミュニケーションを提供することができる。
【0084】
また、本実施形態によれば、ユーザ2の感情情報5を取得する取得ステップと、機械学習により生成された振動モデル8を参照し、ユーザ2の感情情報5に基づいて、ユーザ2に対して物理的刺激を与える振動を出力するための振動情報7を出力する出力ステップと、を備える。このため、ユーザ2の感情情報5に応じて、ユーザ2に対して物理的刺激を与える振動を出力するための振動情報7を出力することができる。これにより、ユーザ2の感情情報5に応じたコミュニケーションを提供することを、コンピュータに実行させることができる。
【0085】
(第2実施形態:振動情報出力システム100)
次に図5を参照して、本実施形態における振動情報出力システム100の一例を説明する。図5は、本実施形態における振動情報出力システム100の構成の一例を示す模式図である。本実施形態は、振動情報出力システム100が、感情要素取得手段S210と、感情データベース61と、感情情報出力手段S220と、をさらに備え、取得手段S110が、感情情報出力手段S220より出力された感情情報5を取得する点で、第1実施形態とは異なる。なお、上述の内容と同様の構成については、説明を省略する。
【0086】
<振動情報出力システム100>
振動情報出力システム100は、感情データベース61をさらに備える。
【0087】
<振動情報出力装置1>
振動情報出力装置1は、例えばユーザ2の感情情報5を推定するための情報を含む感情要素51を取得する。振動情報出力装置1は、例えば図5(a)~図5(b)に示すように、まず、感情モデル9が記憶された感情データベース61を参照し、取得した感情要素51に基づいて感情情報5を出力する。次に、振動情報出力装置1は、振動モデル8が記憶されたデータベース6を参照し、出力した感情情報5に基づいて、ユーザ2に対して物理的刺激を与える振動を出力するための振動情報7を出力する。
【0088】
<感情要素51>
感情要素51は、例えばユーザ2の感情情報5を推定するための情報を含む。感情要素51は、例えばユーザ2が発した音声511(肉声、録音音声を含む)、骨導音512、及びユーザ2の表情を示す画像等が挙げられる。
【0089】
感情要素51は、例えば音声と骨導音との組み合わせを含む場合、音声と骨導音とを同時に取得してもよい。感情要素51は、例えば音声と画像との組み合わせを含む場合、音声の取得時点と画像の取得時点との差が10秒程度生じてもよい。感情要素51は、例えば骨導音と画像との組み合わせを含む場合、骨導音の取得時点と画像の取得時点との差が10秒程度生じてもよい。
【0090】
感情要素51は、例えばユーザ2の音声511と、骨導音512と、を含む。すなわち、ユーザ2の発話のみで、複数の感情要素51を取得する。このため、振動情報7を出力するためにユーザ2が複雑な操作を行う必要がない。これにより、システムの操作性向上を図ることができる。
【0091】
<感情データベース61>
感情データベース61は、主に、機械学習により生成された感情モデル9を記憶するために用いられる。感情データベース61には、1つ以上の感情モデル9が記憶されるほか、例えば感情モデル9の生成に用いられた複数の感情学習データ90が記憶されてもよい。この場合、振動情報出力装置1は、保存部104に記憶された感情データベース61を参照してもよい。
【0092】
感情データベース61は、例えばサーバ3に記憶される。この場合、振動情報出力装置1は、通信網4を介して、サーバ3に記憶された感情データベース61を参照してもよい。また、感情データベース61は、例えば振動情報出力装置1の構成に含まれる保存部104に、サーバ3に記憶された感情データベース61を複製して記憶されてもよく、同期して記憶されてもよい。
【0093】
<感情モデル9>
感情モデル9は、例えば図5(b)に示すように、感情学習データ90を用いた機械学習により生成される。感情モデル9は、例えば感情学習入力データ91と、感情学習出力データ92と、を一組とするデータセットを感情学習データ90として、複数の感情学習データ90を用いて生成される。感情モデル9は、例えば感情データベース61に記憶される。感情モデル9は、例えば感情学習入力データ91を説明変数とし、感情学習出力データ92を目的変数として、回帰分析等により解析し、その解析結果に基づいて生成される回帰モデルを示す。
【0094】
感情モデル9は、例えば感情学習入力データ91と感情学習出力データ92との間における感情連関度を有する感情連関性を含む。感情連関性は、例えば複数の感情学習データ90を用いた機械学習により生成されてもよい。感情連関度は、感情学習入力データ91と感情学習出力データ92との繋がりの度合いを示しており、例えば感情連関度が高いほど各データの繋がりが強いと判断することができる。感情連関度は、例えば百分率等の3値以上(3段階以上)で示されるほか、2値以上(2段階以上)で示されてもよい。
【0095】
例えば感情連関性は、多対多の情報(複数の感情学習入力データ91、対、複数の感情学習出力データ92)の間における繋がりの度合いにより構築される。感情連関性は、機械学習の過程で適宜更新され、例えば複数の感情学習入力データ91、及び複数の感情学習出力データ92に基づいて最適化された関数(分類器)を示す。なお、感情連関性は、例えば各データの間における繋がりの度合いを示す複数の感情連関度を有してもよい。感情連関度は、例えばデータベースがニューラルネットワークで構築される場合、重み変数に対応させることができる。
【0096】
このため、振動情報出力システム100では、例えば分類器の判定した結果を全て踏まえた感情連関性を用いて、感情学習入力データ91に適した感情学習出力データ92を選択する。これにより、感情学習入力データ91が、感情学習出力データ92と同一又は類似である場合のほか、非類似である場合においても、感情学習入力データ91に適した感情学習出力データ92を定量的に選択することができる。
【0097】
感情連関性は、例えば複数の感情学習入力データ91と、複数の感情学習出力データ92との間における繋がりの度合いを示してもよい。この場合、感情連関性を用いることで、複数の感情学習入力データ91(例えば感情学習入力データA、感情学習入力データB)のそれぞれに対し、複数の感情学習出力データ92(例えば感情学習出力データA、感情学習出力データB)の関係の度合いを紐づけて記憶させることができる。このため、例えば感情連関性を介して、1つの感情学習出力データ92に対して、複数の感情学習入力データ91を紐づけることができる。これにより、感情学習入力データ91に対して多角的な感情学習出力データ92の選択を実現することができる。
【0098】
感情連関性は、例えば各感情学習入力データ91と、各感情学習出力データ92とをそれぞれ紐づける複数の感情連関度を有する。感情連関度は、例えば百分率、10段階、又は5段階等の3段階以上で示され、例えば線の特徴(例えば太さ等)で示される。例えば、感情学習入力データ91に含まれる「入力データA」は、感情学習出力データ92に含まれる「出力データA」との間の感情連関度AA「73%」を示し、感情学習出力データ92に含まれる「出力データB」との間の感情連関度AB「12%」を示す。すなわち、「感情連関度」は、各データ間における繋がりの度合いを示しており、例えば感情連関度が高いほど、各データの繋がりが強いことを示す。
【0099】
また、感情連関性は、感情学習入力データ91と感情学習出力データ92との間に少なくとも1以上の隠れ層が設けられてもよい。感情学習入力データ91又は隠れ層データの何れか一方又は両方において上述した感情連関度が設定され、これが各データの重み付けとなり、これに基づいて出力の選択が行われる。そして、この感情連関度がある閾値を超えた場合に、その出力を選択するようにしてもよい。
【0100】
感情モデル9は、例えば複数の感情学習データ90を用いた機械学習により生成された、学習済みモデルを含んでもよい。また、機械学習として、例えば深層学習を用いることができる。機械学習として、例えば敵対的生成ネットワーク(GAN:Generative adversarial network)を用いることで、感情学習入力データ91を疑似的に生成してもよい。
【0101】
<感情学習データ90>
感情学習データ90は、感情モデル9を生成するための機械学習に用いられる。感情学習データ90は、感情学習入力データ91と感情学習出力データ92とを一組とするデータセットである。
【0102】
<感情学習入力データ91>
感情学習入力データ91は、感情モデル9生成するための機械学習に用いる感情学習データ90として用いられる。感情学習入力データ91は、例えば予め取得された感情学習参照用感情要素910を含む。感情学習参照用感情要素910は、感情モデル9を生成するための機械学習に用いられる感情要素を示し、例えばユーザ2以外の感情要素を含む。
【0103】
感情学習入力データ91は、例えば疑似的に生成された感情学習参照用感情要素910を含んでもよい。この場合、実測情報のみを用いる場合と比べて、より多様な感情学習データ90を用いることができる。これにより、ユーザ2の感情要素51に応じて、より多様なコミュニケーションを提供することができる。
【0104】
<感情学習出力データ92>
感情学習出力データ92は、感情モデル9を生成するための機械学習に用いる感情学習データ90として用いられる。感情学習出力データ92は、例えば予め取得された感情学習参照用感情情報920を含む。感情学習参照用感情情報920は、感情モデル9を生成するための機械学習に用いられる感情情報を示す。
【0105】
感情学習データ90に含まれる一組の感情学習入力データ91と感情学習出力データ92との組み合わせは、例えば感情学習入力データ91に含まれる感情学習参照用感情要素910と、感情学習出力データ92に含まれる感情学習参照用感情情報920とが紐づけられた組み合わせを含む。感情学習参照用感情要素910と感情学習参照用感情情報920とが紐づけられる組み合わせとしては、例えばユーザ2が発した「悲しみ」を示す音声(肉声、録音音声を含む)、「悲しみ」を示す骨導音、及びユーザ2の「悲しみ」を示す表情を示す画像の少なくとも何れかを含む感情学習参照用感情要素910と、「悲しみ」を示す感情学習参照用感情情報920と、が紐づけられる。このような感情学習データ90を用いて生成された感情モデル9を用いることで、ユーザ2と振動情報出力システム100との双方向のコミュニケーションをより適切に図ることが可能となる。このほか、例えば感情連関性を含む感情モデル9を用いることにより、ユーザ2と振動情報出力システム100との双方向のコミュニケーションをより適切に図ることが可能となる。
【0106】
感情学習参照用感情要素910は、例えば音声と骨導音との組み合わせを含む場合、音声と骨導音とを同時に取得してもよい。感情学習参照用感情要素910は、例えば音声と画像との組み合わせを含む場合、音声の取得時点と画像の取得時点との差が10秒程度生じてもよい。感情学習参照用感情要素910は、例えば骨導音と画像との組み合わせを含む場合、骨導音の取得時点と画像の取得時点との差が10秒程度生じてもよい。
【0107】
以下、振動情報出力装置1の各機能についての詳細を説明する。
【0108】
<取得部11>
取得部11は、例えばユーザ2の感情要素51を取得する感情要素取得部を含む。取得部11は、例えば感情要素取得部が取得した感情要素51に基づいて出力された感情情報5を取得する。
【0109】
<感情要素取得部>
感情要素取得部は、例えば振動情報出力装置1が入力部108を介してユーザ2からユーザ2の感情要素51を含む情報の入力を受け付け、入力された感情要素51の中から、1つ以上の感情要素51を選択して取得する。感情要素取得部は、例えば公知のコンデンサマイクが用いられ、ユーザ2が発した音声511を取得してもよい。感情要素取得部は、例えば公知の骨伝導マイクが用いられ、ユーザ2が発した骨導音512を取得してもよい。感情要素取得部は、例えば公知のカメラが用いられ、ユーザ2の表情を示す画像を取得してもよい。感情要素取得部は、例えばユーザ2が振動情報出力システム100からのコミュニケーションの提供を要求したとき(振動情報出力システム100のウェイクワードを発話するなど)、又はユーザ2が振動情報出力システム100からコミュニケーションを提供されているときに、感情要素51を取得してもよい。感情要素取得部は、例えばユーザ2が発話し、その発話前後にユーザ2以外の発話がないときに、感情要素51を取得してもよい。
【0110】
<出力部12>
出力部12は、例えばユーザ2の感情情報5を生成し、出力する感情情報出力部を含む。
【0111】
<感情情報出力部>
感情情報出力部は、例えば感情要素取得部が感情要素51を取得した際、感情モデル9が記憶された感情データベース61を参照し、感情要素取得部が取得した感情要素51に基づく感情情報5を生成する。また、感情情報出力部は、例えば感情情報出力部が生成した振動情報7を出力する。感情情報出力部は、例えば表示部109に感情情報5が表示されるように出力してもよい。感情情報出力部は、例えば保存部104等に予め記憶された表示用のフォーマットを用いて、感情情報5の特徴をユーザ2が理解できる形式に変換した感情情報5を生成してもよい。
【0112】
<記憶部13>
記憶部13は、保存部104に保存された感情データベース61等の各種データを、必要に応じて取出す。記憶部13は、感情要素取得部、感情情報出力部、感情学習部により取得又は生成された各種データを、必要に応じて保存部104に保存する。
【0113】
<学習部14>
学習部14は、例えば感情モデル9を生成する感情学習部を含む。
【0114】
<感情学習部>
感情学習部は、複数の感情学習データ90を用いて、感情モデル9を生成する。感情学習部は、例えば新たな感情学習データ90を取得し、既存の感情モデル9を更新してもよい。感情学習部は、例えば新たな感情学習データ90を疑似的に生成し、既存の感情モデル9を更新してもよい。
【0115】
(第2実施形態:振動情報出力システム100の動作の一例)
次に図6を参照して、本実施形態における振動情報出力システム100の動作の一例を説明する。図6は、本実施形態における振動情報出力システム100の動作の一例を示すフローチャートである。
【0116】
振動情報出力システム100の動作は、感情要素取得手段S210と、感情情報出力手段S220と、をさらに備える。
【0117】
<感情要素取得手段S210>
感情要素取得手段S210は、例えばユーザ2の感情要素51を取得する。感情要素取得手段S210は、例えば感情要素取得部に、ユーザ2の感情要素51を取得させてもよい。感情要素取得手段S210は、例えば感情要素取得部に、振動情報出力装置1が入力部108を介してユーザ2からユーザ2の感情要素51を含む情報の入力を受け付け、入力された感情要素51の中から、1つ以上の感情要素51を選択して取得させてもよい。
【0118】
感情要素取得手段S210は、例えばユーザ2の感情要素51として、ユーザ2が発した音声511(肉声、録音音声を含む)、骨導音512、及びユーザ2の表情を示す画像を取得してもよい。感情要素取得手段S210は、例えば2つ以上の感情要素51を同時に取得してもよい。感情要素取得手段S210は、例えば音声と骨導音との組み合わせを含む感情要素51を取得する場合、音声と骨導音とを同時に取得してもよい。感情要素取得手段S210は、例えば音声と画像との組み合わせを含む感情要素51を取得する場合、音声の取得時点と画像の取得時点との差が10秒程度生じてもよい。感情要素取得手段S210は、例えば骨導音と画像との組み合わせを含む感情要素51を取得する場合、骨導音の取得時点と画像の取得時点との差が10秒程度生じてもよい。
【0119】
感情要素取得手段S210は、例えば公知のコンデンサマイクを用いて、ユーザ2が発した音声511を取得してもよい。感情要素取得手段S210は、例えば公知の骨伝導マイクを用いて、ユーザ2が発した骨導音512を取得してもよい。感情要素取得手段S210は、例えば公知のカメラを用いて、ユーザ2の表情を示す画像を取得してもよい。感情要素取得手段S210は、例えばユーザ2が振動情報出力システム100からのコミュニケーションの提供を要求したとき(振動情報出力システム100のウェイクワードを発話するなど)、又はユーザ2が振動情報出力システム100からコミュニケーションを提供されているときに、感情要素51を取得してもよい。感情要素取得手段S210は、例えばユーザ2が発話し、その発話前後にユーザ2以外の発話がないときに、感情要素51を取得してもよい。
【0120】
<感情情報出力手段S220>
感情情報出力手段S220は、例えば感情モデル9が記憶された感情データベース61を参照し、感情要素51に基づく感情情報5を生成する。また、感情情報出力手段S220は、例えば感情情報出力手段S220が生成した振動情報7を出力する。感情情報出力手段S220は、例えば感情情報出力部に、感情モデル9が記憶された感情データベース61を参照させて、感情要素51に基づく感情情報5を生成させ、出力させてもよい。感情情報出力手段S220は、例えば感情情報出力部に、表示部109に感情情報5が表示されるように出力させてもよい。
【0121】
<取得手段S110>
取得手段S110は、例えば感情情報出力手段S220より出力された感情情報5を取得する。取得手段S110は、例えば取得部11に、感情情報出力手段S220より出力された感情情報5を取得させてもよい。
【0122】
その後、例えば上述した出力手段S120を実施し、本実施形態における振動情報出力システム100の動作は終了する。なお、振動情報出力システム100では、例えば上述した各手段を繰り返し実施してもよい。
【0123】
本実施形態によれば、感情要素51を取得する感情要素取得手段S210と、感情モデル9が記憶された感情データベース61を参照し、感情要素51に基づいて、感情情報5を出力する感情情報出力手段S220と、を備える。このため、ユーザ2の感情要素51に基づく感情情報5に応じて、ユーザ2に対して物理的刺激を与える振動を出力するための振動情報7を出力することができる。これにより、ユーザ2の感情情報5に応じて、より適切なコミュニケーションを提供することができる。
【0124】
また、本実施形態によれば、感情要素51は、ユーザ2の音声511と、骨導音512と、を含む。すなわち、ユーザ2の発話のみで、複数の感情要素51を取得する。このため、振動情報7を出力するためにユーザ2が複雑な操作を行う必要がない。これにより、システムの操作性向上を図ることができる。
【0125】
(第3実施形態:振動情報出力システム100)
次に図7を参照して、本実施形態における振動情報出力システム100の一例を説明する。図7は、本実施形態における振動情報出力システム100の構成の一例を示す模式図である。本実施形態は、振動情報出力システム100が、更新手段S310をさらに備える点で、第1実施形態とは異なる。なお、上述の内容と同様の構成については、説明を省略する。
【0126】
<データベース6>
データベース6は、振動モデル8が機械学習により更新された、振動モデル8’を記憶するために用いられる。データベース6には、1つ以上の振動モデル8’が記憶されるほか、例えば振動モデル8を振動モデル8’に更新するために用いられた複数の学習データ80が記憶されてもよい。
【0127】
<振動モデル8’>
振動モデル8’は、例えば図7に示すように、学習データ80を用いた機械学習により、振動モデル8から更新される。振動モデル8’は、例えば入力データ81と、出力データ82と、を一組とするデータセットを学習データ80として、複数の学習データ80を用いて、振動モデル8から更新される。振動モデル8’は、例えばデータベース6に記憶される。振動モデル8’は、例えば入力データ81を説明変数とし、出力データ82を目的変数として、回帰分析等により解析し、その解析結果に基づいて振動モデル8から更新される回帰モデルを示す。
【0128】
振動モデル8’は、例えば複数の学習データ80を用いた機械学習により生成された、学習済みモデルを含んでもよい。機械学習として、例えば敵対的生成ネットワーク(GAN:Generative adversarial network)を用いることで、入力データ81を疑似的に生成してもよい。
【0129】
<学習データ80>
学習データ80は、振動モデル8を振動モデル8’に更新するための機械学習に用いられる。学習データ80は、入力データ81と出力データ82とを一組とするデータセットである。
【0130】
<入力データ81>
入力データ81は、振動モデル8を振動モデル8’に更新するための機械学習に用いる学習データ80として用いられる。入力データ81は、例えば振動情報7に基づく物理的刺激がユーザ2に与えられたときに取得されたユーザ2の感情を示す校正用感情情報811を含む。校正用感情情報811は、振動モデル8を振動モデル8’に更新するための機械学習に用いられる感情情報を示す。
【0131】
校正用感情情報811は、例えば感情情報5と同様に、ユーザ2の基本感情(喜び、信頼、恐れ、驚き、悲しみ、嫌悪、怒り、予期)、ストレス、覚醒度を示す情報を含む。校正用感情情報811は、物理的刺激がユーザ2に与えられたときに、振動情報出力装置1が複数の感情情報をユーザ2に提示し、ユーザ2に選択された一つの感情情報を用いてもよい。校正用感情情報811は、物理的刺激がユーザ2に与えられたときに感情要素取得部を介して取得した、ユーザ2の感情要素(ユーザ2が発した音声、骨導音、及びユーザ2の表情を示す画像等)から推定される感情情報を用いてもよい。
【0132】
<出力データ82>
出力データ82は、振動モデル8を振動モデル8’に更新するための機械学習に用いる学習データ80として用いられる。出力データ82は、例えば予め取得された参照用振動情報820を含む。参照用振動情報820は、振動モデル8を振動モデル8’に更新するための機械学習に用いられる振動情報を示す。
【0133】
学習データ80に含まれる一組の入力データ81と出力データ82との組み合わせは、例えば入力データ81に含まれる校正用感情情報811と、出力データ82に含まれる参照用振動情報820とが紐づけられた組み合わせを含む。校正用感情情報811と参照用振動情報820とが紐づけられる組み合わせとしては、例えば「悲しみ」を示す校正用感情情報811と、校正用感情情報811で示された「悲しみ」に対して、「怒り」を誘発させるための物理的刺激を出力するための参照用振動情報820と、が紐づけられる。このような学習データ80を用いて振動モデル8を振動モデル8’に更新することで、ユーザ2と振動情報出力システム100との双方向のコミュニケーションをより適切に図ることが可能となる。
【0134】
以下、振動情報出力装置1の各機能についての詳細を説明する。
【0135】
<学習部14>
学習部14は、例えば複数の学習データ80を用いて、振動モデル8を振動モデル8’に更新する。
【0136】
(第3実施形態:振動情報出力システム100の動作の一例)
次に図8を参照して、本実施形態における振動情報出力システム100の動作の一例を説明する。図8は、本実施形態における振動情報出力システム100の動作の一例を示すフローチャートである。
【0137】
振動情報出力システム100の動作は、更新手段S310をさらに備える。
【0138】
<更新手段S310>
更新手段S310は、例えば振動モデル8を更新する。更新手段S310は、例えば出力手段S120により振動情報7を出力したあと、振動情報7に基づく物理的刺激がユーザ2に与えられたときに取得されたユーザ2の感情を示す校正用感情情報811を含む入力データ81と、参照用振動情報820を含む出力データ82と、を一組とするデータセットを学習データ80として用いて、振動モデル8を更新する。すなわち、物理的刺激が与えられたユーザ2の感情情報5が、振動モデル8に(振動モデル8’として)反映される。この場合、ユーザ2の感情情報5に応じて、より正確な振動情報7を出力することができる。これにより、ユーザ2の感情情報5に応じて、より適切なコミュニケーションを提供することができる。
【0139】
更新手段S310は、例えば学習部14に、校正用感情情報811を含む入力データ81と、振動情報7を含む出力データ82と、を一組とするデータセットを学習データ80として用いて、振動モデル8を振動モデル8’に更新させてもよい。
【0140】
本実施形態によれば、出力手段S120により振動情報7を出力したあと、振動情報7に基づく物理的刺激がユーザ2に与えられたときに取得されたユーザ2の感情を示す校正用感情情報811を含む入力データ81と、参照用振動情報820を含む出力データ82とを一組とするデータセットを学習データ80として用いて、振動モデル8を更新する更新手段S310をさらに備えることを含む。すなわち、物理的刺激が与えられたユーザ2の感情情報5が、振動モデル8に(振動モデル8’として)反映される。このため、ユーザ2の感情情報5に応じて、より正確な振動情報7を出力することができる。これにより、ユーザ2の感情情報5に応じて、より適切なコミュニケーションを提供することができる。
【0141】
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
【0142】
また、上述した「部(section、module、unit)」は、「手段」などに読み替えることができる。例えば、取得部は、取得手段に読み替えることができる。また、上述した「手段」は、「ステップ」などに読み替えることができる。例えば、取得手段は、取得ステップに読み替えることができる。
【符号の説明】
【0143】
100 振動情報出力システム
1 振動情報出力装置
10 筐体
101 CPU
102 ROM
103 RAM
104 保存部
105 I/F
106 I/F
107 I/F
108 入力部
109 表示部
110 内部バス
11 取得部
12 出力部
13 記憶部
14 学習部
2 ユーザ
3 サーバ
4 通信網
5 感情情報
51 感情要素
511 音声
512 骨導音
6 データベース
61 感情データベース
7 振動情報
8、8’ 振動モデル
80 学習データ
81 入力データ
810 参照用感情情報
811 校正用感情情報
82 出力データ
820 参照用振動情報
9 感情モデル
90 感情学習データ
91 感情学習入力データ
910 感情学習参照用感情要素
92 感情学習出力データ
920 感情学習参照用感情情報
S110 取得手段
S120 出力手段
S210 感情要素取得手段
S220 感情情報出力手段
S310 更新手段
【要約】
【課題】ユーザの感情に応じて、適切なコミュニケーションを提供する振動情報出力システム、及び振動情報出力プログラムを提供する。
【解決手段】ユーザとコミュニケーションをとるための振動情報出力システムであって、ユーザの感情を示す感情情報5を取得する取得手段と、予め取得された参照用感情情報810を含む入力データ81と、参照用感情情報810に紐づいた物理的刺激を与える振動の特徴を示す参照用振動情報820を含む出力データ82と、を一組とするデータセットを学習データ80として用いて、機械学習により生成された振動モデル8が記憶されたデータベース6と、データベース6を参照し、感情情報5に基づいて、ユーザに対して物理的刺激を与える振動を出力するための振動情報7を生成し、出力する出力手段と、を備えることを特徴とする。
【選択図】図2
図1
図2
図3
図4
図5
図6
図7
図8