IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 株式会社 資生堂の特許一覧

<>
  • 特許-情報処理装置及びプログラム 図1
  • 特許-情報処理装置及びプログラム 図2
  • 特許-情報処理装置及びプログラム 図3
  • 特許-情報処理装置及びプログラム 図4
  • 特許-情報処理装置及びプログラム 図5
  • 特許-情報処理装置及びプログラム 図6
  • 特許-情報処理装置及びプログラム 図7
  • 特許-情報処理装置及びプログラム 図8
  • 特許-情報処理装置及びプログラム 図9
  • 特許-情報処理装置及びプログラム 図10
  • 特許-情報処理装置及びプログラム 図11
  • 特許-情報処理装置及びプログラム 図12
  • 特許-情報処理装置及びプログラム 図13
  • 特許-情報処理装置及びプログラム 図14
  • 特許-情報処理装置及びプログラム 図15
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-01-19
(45)【発行日】2024-01-29
(54)【発明の名称】情報処理装置及びプログラム
(51)【国際特許分類】
   A61B 5/00 20060101AFI20240122BHJP
【FI】
A61B5/00 101R
A61B5/00 M
【請求項の数】 9
(21)【出願番号】P 2020571072
(86)(22)【出願日】2020-01-20
(86)【国際出願番号】 JP2020001695
(87)【国際公開番号】W WO2020162151
(87)【国際公開日】2020-08-13
【審査請求日】2022-11-18
(31)【優先権主張番号】P 2019019560
(32)【優先日】2019-02-06
(33)【優先権主張国・地域又は機関】JP
(73)【特許権者】
【識別番号】000001959
【氏名又は名称】株式会社 資生堂
(74)【代理人】
【識別番号】230116816
【弁護士】
【氏名又は名称】成川 弘樹
(74)【代理人】
【識別番号】100146123
【弁理士】
【氏名又は名称】木本 大介
(72)【発明者】
【氏名】岡崎 龍太
(72)【発明者】
【氏名】北村 尚美
(72)【発明者】
【氏名】齋藤 直輝
【審査官】中山 千尋
(56)【参考文献】
【文献】特表2007-526473(JP,A)
【文献】特開平5-146412(JP,A)
【文献】特開2001-212087(JP,A)
【文献】特開2012-211886(JP,A)
【文献】韓国公開特許第10-2017-87806(KR,A)
(58)【調査した分野】(Int.Cl.,DB名)
A61B 5/00
(57)【特許請求の範囲】
【請求項1】
過去又は未来の時点における生体組織の感触のシミュレーションを実行する情報処理装置であって、
人物の生体組織の振動によって発生する振動音を再現するための音声フィルタと、前記振動音が発生したときの前記人物の生後経過時間に関する情報と、シミュレーション対象者の生後経過時間に関する情報と、を関連付けて記憶する手段と、
音声入力装置から、シミュレーション対象者の生体組織が振動したときの振動音に関する対象音声信号を取得する手段を備え、
過去又は未来の時点と、前記シミュレーション対象者の生後経過時間と、を含むシミュレーション条件を特定する手段を備え、
複数の音声フィルタから、前記シミュレーション条件に対応する参照音声フィルタを選択する手段を備え、
前記参照音声フィルタを前記対象音声信号に適用することにより、前記シミュレーション条件が示す過去又は未来の時点における前記シミュレーション対象者の生体組織の振動によって発生する振動音に関する予測音声信号を生成する手段を備え、
音声出力装置を介して、前記予測音声信号を提示する手段を備える、
情報処理装置。
【請求項2】
前記記憶する手段は、前記音声フィルタと、前記人物の属性に関する参照属性情報と、を関連付けて記憶し、
前記シミュレーション条件は、前記シミュレーション対象者の属性に関する対象属性情報を含む、
前記選択する手段は、前記対象属性情報に対応する参照属性情報に関連付けられた音声フィルタを、前記参照音声フィルタとして選択する、
請求項1に記載の情報処理装置。
【請求項3】
前記対象属性情報及び前記参照属性情報は、性別、職業、人種、及び、所在地の少なくとも1つを示す、
請求項2に記載の情報処理装置。
【請求項4】
前記記憶する手段は、前記音声フィルタと、振動音の発生源である生体組織の部位に関する参照部位情報と、を関連付けて記憶し、
前記シミュレーション条件は、前記シミュレーション対象者の生体組織の部位に関する対象部位情報を含み、
前記選択する手段は、前記対象部位情報と同一の参照部位情報に関連付けられた音声フィルタを、前記参照音声フィルタとして選択する、
請求項1~3の何れかに記載の情報処理装置。
【請求項5】
前記参照部位情報及び前記対象部位情報は、顔、腕、足、胴体、毛髪、眉、及び、爪の少なくとも1つを示す、
請求項4に記載の情報処理装置。
【請求項6】
前記記憶する手段は、前記音声フィルタと、振動音が発生したときに使用されたプロダクトに関する参照プロダクト情報と、を関連付けて記憶し、
前記シミュレーション条件は、前記シミュレーション対象者の所望のプロダクトに関する対象プロダクト情報を含み、
前記選択する手段は、前記対象プロダクト情報に対応する参照プロダクト情報に関連付けられた音声フィルタを、前記参照音声フィルタとして選択する、
請求項1~5の何れかに記載の情報処理装置。
【請求項7】
前記参照プロダクト情報及び前記対象プロダクト情報は、塗布物、飲食物、及び、美容装置の少なくとも1つを示す情報である、
請求項6に記載の情報処理装置。
【請求項8】
前記シミュレーション対象者の血縁者の予測音声信号を参照して、前記生成された予測音声信号を補正する手段を備え、
前記予測音声信号を提示する手段は、前記補正された予測音声信号を提示する、
請求項1~7の何れかに記載の情報処理装置。
【請求項9】
コンピュータを、請求項1~8の何れかに記載の各手段として機能させるためのプログラム。


【発明の詳細な説明】
【技術分野】
【0001】
本発明は、情報処理装置及びプログラムに関する。
【背景技術】
【0002】
一般に、皮膚を健康な状態に保つことは生活において必要なこととされており、また肌の感触は肌の状態と密接に関連している。そのため、肌ケア用品の使用効果を消費者に訴求する上で、肌の感触の評価は有用である。
【0003】
例えば、特開2018-109599号公報には、指を対象物の表面で移動させたときの感触を、肌に化粧料を塗布する場合などの感触も含めて客観的に評価する技術が開示されている。
【発明の概要】
【発明が解決しようとする課題】
【0004】
一般に、人間の肌の感触は、年齢と共に変化する。例えば、ある人物について、0歳のときの肌の感触と、30歳のときの肌の感触と、60歳のときの肌の感触は、それぞれ異なる。そのため、肌ケア用品の消費者にとって、時系列に沿った肌の感触の変化を知ることは、適切な肌ケア用品を選定する上で有用である。
【0005】
しかし、特開2018-109599号公報の技術では、ユーザが装着したセンサの検出結果に基づいて肌の感触を評価するので、評価の時点における肌の感触を提示することはできるが、評価の時点とは異なる時点(例えば、30歳のユーザが0歳の時点及び60歳の時点)の肌の感触を提示することはできない。
【0006】
このように、従来、過去又は未来の肌の感触を提示することはできない。
【0007】
本発明の目的は、過去又は未来の肌の感触を提示することである。
【課題を解決するための手段】
【0008】
本発明の一態様は、
過去又は未来の時点における生体組織の感触のシミュレーションを実行する情報処理装置であって、
人物の生体組織の振動によって発生する振動音を再現するための音声フィルタと、前記振動音が発生したときの前記人物の生後経過時間に関する情報と、シミュレーション対象者の生後経過時間に関する情報と、を関連付けて記憶する手段と、
音声入力装置から、シミュレーション対象者の生体組織が振動したときの振動音に関する対象音声信号を取得する手段を備え、
過去又は未来の時点と、前記シミュレーション対象者の生後経過時間と、を含むシミュレーション条件を特定する手段を備え、
複数の音声フィルタから、前記シミュレーション条件に対応する参照音声フィルタを選択する手段を備え、
前記参照音声フィルタを前記対象音声信号に適用することにより、前記シミュレーション条件が示す過去又は未来の時点における前記シミュレーション対象者の生体組織の振動によって発生する振動音に関する予測音声信号を生成する手段を備え、
音声出力装置を介して、前記予測音声信号を提示する手段を備える、
情報処理装置である。
【発明の効果】
【0009】
本発明によれば、基準時点に対して過去又は未来の肌の感触を提示することができる。
【図面の簡単な説明】
【0010】
図1】本実施形態の情報処理システムの構成を示す概略図である。
図2図1の情報処理システムの構成を示すブロック図である。
図3】本実施形態の概要の説明図である。
図4】本実施形態のユーザ情報データベースのデータ構造を示す図である。
図5】本実施形態の音声フィルタ情報データベースのデータ構造を示す図である。
図6】本実施形態のログ情報データベースのデータ構造を示す図である。
図7】本実施形態の情報処理のシーケンス図である。
図8図7の情報処理において表示される画面例を示す図である。
図9】変形例1の概要の説明図である。
図10】変形例1の音声フィルタ情報データベースのデータ構造を示す図である。
図11】変形例2の概要の説明図である。
図12】変形例2の音声フィルタ情報データベースのデータ構造を示す図である。
図13】変形例3の概要の説明図である。
図14】変形例3の音声フィルタ情報データベースのデータ構造を示す図である。
図15】変形例4の概要の説明図である。
【発明を実施するための形態】
【0011】
以下、本発明の一実施形態について、図面に基づいて詳細に説明する。なお、実施形態を説明するための図面において、同一の構成要素には原則として同一の符号を付し、その繰り返しの説明は省略する。
【0012】
(1)情報処理システムの構成
情報処理システムの構成について説明する。図1は、本実施形態の情報処理システムの構成を示す概略図である。図2は、図1の情報処理システムの構成を示すブロック図である。
【0013】
図1に示すように、情報処理システム1は、クライアント装置10と、音声入力装置20と、音声出力装置21と、サーバ30とを備える。
クライアント装置10及びサーバ30は、ネットワーク(例えば、インターネット又はイントラネット)NWを介して接続される。
【0014】
クライアント装置10は、サーバ30にリクエストを送信する情報処理装置の一例である。クライアント装置10は、例えば、スマートフォン、タブレット端末、又は、パーソナルコンピュータである。
【0015】
音声入力装置20は、音声入力信号を生成し、且つ、クライアント装置10に音声入力信号を送信するように構成される。音声入力装置20は、例えば、マイクロフォンである。
【0016】
音声出力装置21は、クライアント装置10によって生成された音声出力信号に基づく音声を出力するように構成される。音声出力装置21は、例えば、イヤホン又はスピーカである。
【0017】
サーバ30は、クライアント装置10から送信されたリクエストに応じたレスポンスをクライアント装置10に提供する情報処理装置の一例である。サーバ30は、例えば、ウェブサーバである。
【0018】
(1-1)クライアント装置の構成
クライアント装置10の構成について説明する。
【0019】
図2に示すように、クライアント装置10は、記憶装置11と、プロセッサ12と、入出力インタフェース13と、通信インタフェース14とを備える。
【0020】
記憶装置11は、プログラム及びデータを記憶するように構成される。記憶装置11は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、及び、ストレージ(例えば、フラッシュメモリ又はハードディスク)の組合せである。
【0021】
プログラムは、例えば、以下のプログラムを含む。
・OS(Operating System)のプログラム
・情報処理を実行するアプリケーション(例えば、ウェブブラウザ)のプログラム
【0022】
データは、例えば、以下のデータを含む。
・情報処理において参照されるデータベース
・情報処理を実行することによって得られるデータ(つまり、情報処理の実行結果)
【0023】
プロセッサ12は、記憶装置11に記憶されたプログラムを起動することによって、クライアント装置10の機能を実現するように構成される。プロセッサ12は、コンピュータの一例である。
【0024】
入出力インタフェース13は、クライアント装置10に接続される入力デバイスからユーザの指示を取得し、かつ、クライアント装置10に接続される出力デバイスに情報を出力するように構成される。
入力デバイスは、例えば、キーボード、ポインティングデバイス、タッチパネル、又は、それらの組合せである。また、入力デバイスは、音声入力装置20を含む。
出力デバイスは、例えば、ディスプレイである。また、出力デバイスは、音声出力装置21を含む。
【0025】
通信インタフェース14は、クライアント装置10とサーバ30との間の通信を制御するように構成される。
【0026】
(1-2)サーバの構成
サーバ30の構成について説明する。
【0027】
図2に示すように、サーバ30は、記憶装置31と、プロセッサ32と、入出力インタフェース33と、通信インタフェース34とを備える。
【0028】
記憶装置31は、プログラム及びデータを記憶するように構成される。記憶装置31は、例えば、ROM、RAM、及び、ストレージ(例えば、フラッシュメモリ又はハードディスク)の組合せである。
【0029】
プログラムは、例えば、以下のプログラムを含む。
・OSのプログラム
・情報処理を実行するアプリケーションのプログラム
【0030】
データは、例えば、以下のデータを含む。
・情報処理において参照されるデータベース
・情報処理の実行結果
【0031】
プロセッサ32は、記憶装置31に記憶されたプログラムを起動することによって、サーバ30の機能を実現するように構成される。プロセッサ32は、コンピュータの一例である。
【0032】
入出力インタフェース33は、サーバ30に接続される入力デバイスからユーザの指示を取得し、かつ、サーバ30に接続される出力デバイスに情報を出力するように構成される。
入力デバイスは、例えば、キーボード、ポインティングデバイス、タッチパネル、又は、それらの組合せである。
出力デバイスは、例えば、ディスプレイである。
【0033】
通信インタフェース34は、サーバ30とクライアント装置10との間の通信を制御するように構成される。
【0034】
(2)実施形態の概要
本実施形態の概要について説明する。図3は、本実施形態の概要の説明図である。
【0035】
図3のサーバ30は、過去又は未来の時点における生体組織の感触のシミュレーションを実行する情報処理装置の一例である。
サーバ30には、人物の生体組織の振動によって発生する振動音を再現するための音声フィルタと、振動音が発生したときの人物の生後経過時間に関する情報と、シミュレーション対象者STの生後経過時間に関する情報と、が関連付けて記憶されている。
【0036】
サーバ30は、クライアント装置10を介して、音声入力装置20から、シミュレーション対象者STの生体組織が振動したときの振動音に関する対象音声信号を取得する。
サーバ30は、過去又は未来の時点と、シミュレーション対象者STの生後経過時間と、を含むシミュレーション条件を特定する。
サーバ30は、複数の音声フィルタから、シミュレーション条件に対応する参照音声フィルタを選択する。
サーバ30は、参照音声フィルタを対象音声信号に適用することにより、シミュレーション条件が示す過去又は未来の時点におけるシミュレーション対象者STの生体組織の振動によって発生する振動音に関する予測音声信号を生成する。
サーバ30は、クライアント装置10を介して音声出力装置21に予測音声信号を出力することにより、予測音声信号を提示する。
【0037】
本実施形態によれば、シミュレーション対象者STの生後経過時間と、過去又は未来の時点と、の組合せに応じた音声フィルタを用いて予測音声信号を生成する。一般に、振動と音は同一の振動源から生じる。振動源の振動は、人間の触覚受容器が感知した場合には触感として知覚され、聴覚受容器が感知した場合には音として知覚される。そのため、触感と音は近い性質を持っており、人間の触感の認知には聴覚も寄与することが知られている。これにより、シミュレーション対象者STの過去又は未来の時点における生体組織の感触は、音声を媒体としても提示することができる。
【0038】
(3)データベース
本実施形態のデータベースについて説明する。以下のデータベースは、記憶装置31に記憶される。
【0039】
(3-1)ユーザ情報データベース
本実施形態のユーザ情報データベースについて説明する。図4は、本実施形態のユーザ情報データベースのデータ構造を示す図である。
【0040】
図4のユーザ情報データベースには、ユーザに関するユーザ情報が格納されている。
ユーザ情報データベースは、「ユーザID」フィールドと、「ユーザ名」フィールドと、「ユーザ属性」フィールドと、「プロダクト」フィールドと、「血縁者」フィールドと、を含む。各フィールドは、互いに関連付けられている。
【0041】
「ユーザID」フィールドには、ユーザを識別するユーザ識別情報が格納される。
【0042】
「ユーザ名」フィールドには、ユーザ名に関する情報(例えば、テキスト)が格納される。
【0043】
「生後経過時間」フィールドには、ユーザの生後経過時間に関する情報が格納される。生後経過時間は、例えば、ユーザの年齢、月齢、及び、日齢の少なくとも1つである。
【0044】
「ユーザ属性」フィールドには、ユーザの属性に関するユーザ属性情報が格納される。ユーザの属性は、例えば、以下の少なくとも1つを含む。
・性別
・職業
・人種
・所在地
【0045】
「プロダクト」フィールドには、ユーザの所望のプロダクト(例えば、ユーザが実際に使用するプロダクト及びユーザが使用を希望するプロダクトの少なくとも1つ)に関するプロダクト情報が格納される。プロダクトは、例えば、以下の少なくとも1つを含む。
・塗布物(一例として、化粧料、及び、ケア用品)
・飲食物
・美容装置
【0046】
「血縁者」フィールドには、ユーザの血縁者のユーザ識別情報(以下、「血縁者識別情報」という)が格納される。
【0047】
(3-2)音声フィルタ情報データベース
本実施形態の音声フィルタ情報データベースについて説明する。図5は、本実施形態の音声フィルタ情報データベースのデータ構造を示す図である。
【0048】
図5の音声フィルタ情報データベースには、音声フィルタに関する音声フィルタ情報が格納されている。
音声フィルタ情報データベースは、「フィルタID」フィールドと、「シミュレーション条件」フィールドと、「音声フィルタ」フィールドと、を含む。各フィールドは、互いに関連付けられている。
【0049】
「フィルタID」フィールドには、音声フィルタを識別するフィルタ識別情報が格納される。
【0050】
「シミュレーション条件」フィールドには、音声フィルタを参照するためのシミュレーション条件に関する情報が格納される。「シミュレーション条件」フィールドは、複数のサブフィールド(「ソース生後経過時間」フィールド及び「予測生後経過時間」フィールド)を含む。
【0051】
「ソース生後経過時間」フィールドには、振動音が発生したときの人物の生後経過時間に関する情報が格納される。
【0052】
「予測生後経過時間」フィールドには、シミュレーションの対象となる生後経過時間に関する情報が格納される。
【0053】
「音声フィルタ」フィールドには、音声フィルタが格納される。音声フィルタは、音声信号を変換するためのパラメータを含む。つまり、音声フィルタは、ソース生後経過時間及び予測生後経過時間の組合せに関連付けられる。
【0054】
例えば、フィルタID「F001」は、生後経過時間「1年」のときの音声を、生後経過時間「2年」のときの予測音声(つまり、1年後の予測音声)に変換するための音声フィルタである。
フィルタID「F102」は、生後経過時間「2年」のときの音声を、生後経過時間「3年」のときの予測音声(つまり、1年後の予測音声)に変換するための音声フィルタである。
フィルタID「F102」は、生後経過時間「10年」のときの音声を、生後経過時間「9年」のときの予測音声(つまり、1年前の予測音声)に変換するための音声フィルタである。
換言すると、音声フィルタ情報データベースには、音声を、未来又は過去の予測音声に変換するための音声フィルタが格納されている。
【0055】
(3-3)ログ情報データベース
本実施形態のログ情報データベースについて説明する。図6は、本実施形態のログ情報データベースのデータ構造を示す図である。
【0056】
図6のログ情報データベースには、シミュレーション結果のログ情報が格納される。ログ情報データベースは、ユーザIDに関連付けられる。
ログ情報データベースは、「ログID」フィールドと、「日時」フィールドと、「予測生後経過時間」フィールドと、「音声フィルタ」フィールドと、「予測音声信号」フィールドと、を含む。各フィールドは、互いに関連付けられている。
【0057】
「ログID」フィールドには、ログ情報を識別するログ識別情報が格納される。
【0058】
「日時」フィールドには、シミュレーションの実行日時に関する情報が格納される。
【0059】
「予測生後経過時間」フィールドには、シミュレーションの対象となる生後経過時間に関する情報が格納される。
【0060】
「音声フィルタ」フィールドには、シミュレーションで選択された音声フィルタが格納される。
【0061】
「予測音声信号」フィールドには、シミュレーションで生成された予測音声信号が格納される。
【0062】
(4)情報処理
本実施形態の情報処理について説明する。図7は、本実施形態の情報処理のシーケンス図である。図8は、図7の情報処理において表示される画面例を示す図である。
【0063】
図7に示すように、クライアント装置10は、対象音声信号の取得(S110)を実行する。
具体的には、プロセッサ12は、画面P10(図8)をディスプレイに表示する。
【0064】
画面P10は、操作オブジェクトB100を含む。
操作オブジェクトB100は、音声入力装置20による録音を開始させるためのユーザ指示を受け付けるオブジェクトである。
【0065】
ユーザが操作オブジェクトB100を操作すると、音声入力装置20は、一定時間の間、シミュレーション対象者の生体組織の振動によって発生する振動音の音声信号(以下「対象音声信号」という)を入力する。
プロセッサ12は、音声入力装置20から対象音声信号を取得する。
【0066】
ステップS110の後、クライアント装置10は、シミュレーション条件の受付(S111)を実行する。
具体的には、プロセッサ12は、画面P11(図8)をディスプレイに表示する。
【0067】
画面P11は、操作オブジェクトB110と、フィールドオブジェクトF110a~F110bを含む。
フィールドオブジェクトF110aは、シミュレーション対象者を識別する対象ユーザ識別情報のユーザ指示を受け付けるオブジェクトである。
フィールドオブジェクトF110bは、シミュレーション条件のユーザ指示を受け付けるオブジェクトである。シミュレーション条件は、予測生後経過時間を含む。
操作オブジェクトB110は、シミュレーションリクエスト(S112)を開始させるためのユーザ指示を受け付けるオブジェクトである。
【0068】
ステップS112の後、クライアント装置10は、シミュレーションリクエスト(S112)を実行する。
具体的には、ユーザがフィールドオブジェクトF110a~F110bにユーザ指示を入力し、且つ、操作オブジェクトB110を操作すると、プロセッサ12は、シミュレーションリクエストデータをサーバ30に送信する。
シミュレーションリクエストデータは、以下の情報を含む。
・ステップS110で入力された対象音声信号
・フィールドオブジェクトF110aに入力された対象ユーザ識別情報
・フィールドオブジェクトF110bに入力されたシミュレーション条件(つまり、予測生後経過時間)
【0069】
ステップS111の後、サーバ30は、音声フィルタの選択(S130)を実行する。
具体的には、プロセッサ32は、ユーザ情報データベース(図4)を参照して、シミュレーションリクエストデータに含まれる対象ユーザ識別情報に関連付けられた対象ユーザレコードを特定する。
プロセッサ32は、対象ユーザレコードの「生後経過時間」フィールドの情報(つまり、ソース生後経過時間)を特定する。
プロセッサ32は、音声フィルタ情報データベース(図5)を参照して、特定したソース生後経過時間、及び、シミュレーションリクエストデータに含まれる生後経過時間(つまり、予測生後経過時間)の組合せに関連付けられた音声フィルタ(「参照音声フィルタ」の一例)を選択する。
【0070】
ステップS130の後、サーバ30は、予測音声信号の生成(S131)を実行する。
具体的には、プロセッサ32は、シミュレーションリクエストデータに含まれる対象音声信号に、ステップS130で選択された音声フィルタを適用することにより、予測音声信号を生成する。
予測音声信号は、図7の情報処理の実行時のシミュレーション対象者の生後経過時間から、フィールドオブジェクトF110bに入力された生後経過時間の組合せに対応する過去又は未来の時点において予測されるシミュレーション対象者の生体組織の感触を表す振動音である。
【0071】
ステップS131の後、サーバ30は、データベースの更新(S132)を実行する。
具体的には、プロセッサ32は、シミュレーションリクエストデータに含まれる対象ユーザ識別情報に関連付けられたログ情報データベース(図6)に新規レコードを追加する。新規レコードの各フィールドには、以下の情報が格納される。
・「ログID」フィールドには、新規のログ識別情報が格納される。
・「日時」フィールドには、ステップS131の実行日時に関する情報が格納される。
・「予測生後経過時間」フィールドには、シミュレーションリクエストデータに含まれる予測生後経過時間が格納される。
・「音声フィルタ」フィールドには、ステップS130で選択された音声フィルタが格納される。
・「予測音声信号」フィールドには、ステップS131で生成された予測音声信号が格納される。
【0072】
ステップS132の後、サーバ30は、シミュレーションレスポンス(S133)を実行する。
具体的には、プロセッサ32は、クライアント装置10にシミュレーションレスポンスデータを送信する。シミュレーションレスポンスデータは、ステップS131で生成された予測音声信号を含む。
【0073】
ステップS112の後、クライアント装置10は、予測音声の提示(S114)を実行する。
具体的には、プロセッサ12は、シミュレーションレスポンスデータに含まれる予測音声信号を音声出力装置21に出力する。
音声出力装置21は、プロセッサ12から出力された予測音声信号を出力する。
【0074】
本実施形態によれば、シミュレーション対象者の生後経過時間と、過去又は未来の時点と、の組合せに応じた音声フィルタを用いて予測音声信号を生成する。これにより、シミュレーション対象者の過去又は未来の時点における生体組織の感触を、音声を媒体として提示することができる。
【0075】
(5)変形例
本実施形態の変形例について説明する。
【0076】
(5-1)変形例1
変形例1について説明する。シミュレーション対象者の属性を考慮して、音声フィルタを選択する例である。
【0077】
(5-1-1)変形例1の概要
変形例1の概要について説明する。図9は、変形例1の概要の説明図である。
【0078】
図9に示すように、変形例1のサーバ30には、音声フィルタと、振動音が発生したときの人物の生後経過時間に関する情報と、シミュレーション対象者STの生後経過時間に関する情報と、シミュレーション対象者STの属性に関する情報と、が関連付けて記憶されている。
シミュレーション条件は、シミュレーション対象者STの属性に関する対象属性情報を含む。対象属性情報は、例えば、性別、職業、人種、及び、所在地の少なくとも1つを示す。
【0079】
サーバ30は、対象属性情報に対応する参照属性情報に関連付けられた音声フィルタを、参照音声フィルタとして選択する。
【0080】
(5-1-2)音声フィルタ情報データベース
変形例1の音声フィルタ情報データベースについて説明する。図10は、変形例1の音声フィルタ情報データベースのデータ構造を示す図である。
【0081】
図10の音声フィルタ情報データベースには、人物の属性に対応する音声フィルタに関する音声フィルタ情報が格納されている。
音声フィルタ情報データベースは、参照属性情報に関連付けられる。
【0082】
(5-1-3)変形例1の情報処理
変形例1の情報処理について説明する。
【0083】
変形例1のプロセッサ32は、ステップS130において、ユーザ情報データベース(図4)を参照して、シミュレーションリクエストデータに含まれる対象ユーザ識別情報に関連付けられた対象ユーザレコードを特定する。
プロセッサ32は、対象ユーザレコードの「生後経過時間」フィールドの情報(つまり、ソース生後経過時間)を特定する。
プロセッサ32は、対象ユーザレコードの「ユーザ属性」フィールドの情報(つまり、シミュレーション対象者の属性)を特定する。
プロセッサ32は、特定したシミュレーション対象者の属性情報に関連付けられた音声フィルタ情報データベース(図10)を参照して、特定したソース生後経過時間、及び、シミュレーションリクエストデータに含まれる生後経過時間(つまり、予測生後経過時間)の組合せに関連付けられた音声フィルタ(「参照音声フィルタ」の一例)を選択する。
【0084】
変形例1によれば、サーバ30は、シミュレーション対象者の属性を考慮して参照音声フィルタを選択する。したがって、シミュレーション対象者により適合した音声フィルタが選択される。これにより、予測音声信号によって再現される感触の精度を向上させることができる。
【0085】
(5-2)変形例2
変形例2について説明する。変形例2は、感触を再現すべき生体組織の部位を考慮して、音声フィルタを選択する例である。
【0086】
(5-2-1)変形例2の概要
変形例2の概要について説明する。図11は、変形例2の概要の説明図である。
【0087】
図11に示すように、変形例2のサーバ30には、音声フィルタと、振動音が発生したときの人物の生後経過時間に関する情報と、シミュレーション対象者STの生後経過時間に関する情報と、振動音の発生源である生体組織の部位に関する参照部位情報と、が関連付けて記憶されている。
シミュレーション条件は、シミュレーション対象者STの生体組織の部位に関する対象部位情報を含む。対象部位情報は、例えば、顔、腕、足、胴体、毛髪、眉、及び、爪の少なくとも1つを示す。
【0088】
サーバ30は、対象部位情報に対応する参照部位情報に関連付けられた音声フィルタを、参照音声フィルタとして選択する。
【0089】
(5-2-2)音声フィルタ情報データベース
変形例2の音声フィルタ情報データベースについて説明する。図12は、変形例2の音声フィルタ情報データベースのデータ構造を示す図である。
【0090】
図12の音声フィルタ情報データベースには、生体組織の部位に対応する音声フィルタに関する音声フィルタ情報が格納されている。
音声フィルタ情報データベースは、部位情報に関連付けられる。
【0091】
(5-2-3)変形例2の情報処理
変形例2の情報処理について説明する。
【0092】
変形例2のシミュレーション条件は、予測生後経過時間と、シミュレーション対象者の生体組織の部位に関する情報と、を含む。
【0093】
変形例2のプロセッサ32は、ステップS130において、ユーザ情報データベース(図4)を参照して、シミュレーションリクエストデータに含まれる対象ユーザ識別情報に関連付けられた対象ユーザレコードを特定する。
プロセッサ32は、対象ユーザレコードの「生後経過時間」フィールドの情報(つまり、ソース生後経過時間)を特定する。
サーバ30は、音声フィルタ情報データベース(図12)を参照して、特定したソース生後経過時間、シミュレーションリクエストデータに含まれる生後経過時間(つまり、予測生後経過時間)、及び、シミュレーションリクエストデータに含まれる生体組織の部位に関する情報の組合せに関連付けられた音声フィルタ(「参照音声フィルタ」の一例)を選択する。
【0094】
変形例2によれば、サーバ30は、生体組織の部位を考慮して参照音声フィルタを選択する。したがって、部位毎に適合した音声フィルタが選択される。これにより、予測音声信号によって再現される感触の精度を向上させることができる。
【0095】
(5-3)変形例3
変形例3について説明する。変形例3は、シミュレーション対象者が使用するプロダクトを考慮して、音声フィルタを選択する例である。
【0096】
(5-3-1)変形例3の概要
変形例3の概要について説明する。図13は、変形例3の概要の説明図である。
【0097】
図13に示すように、変形例3のサーバ30には、音声フィルタと、振動音が発生したときの人物の生後経過時間に関する情報と、シミュレーション対象者STの生後経過時間に関する情報と、振動音が発生したときに使用されたプロダクトに関する参照プロダクト情報と、が関連付けて記憶されている。
シミュレーション条件は、シミュレーション対象者が使用するプロダクトに関する対象プロダクト情報を含む。対象プロダクト情報は、例えば、塗布物、飲食物、及び、美容装置の少なくとも1つを示す。
【0098】
サーバ30は、対象プロダクト情報に対応する参照部位情報に関連付けられた音声フィルタを、参照音声フィルタとして選択する。
【0099】
(5-3-2)音声フィルタ情報データベース
変形例2の音声フィルタ情報データベースについて説明する。図14は、変形例3の音声フィルタ情報データベースのデータ構造を示す図である。
【0100】
図14の音声フィルタ情報データベースには、特定のプロダクトに対応する音声フィルタに関する音声フィルタ情報が格納されている。
音声フィルタ情報データベースは、プロダクト情報に関連付けられる。
【0101】
(5-3-3)変形例3の情報処理
変形例2の情報処理について説明する。
【0102】
変形例3のプロセッサ32は、ステップS130において、ユーザ情報データベース(図4)を参照して、シミュレーションリクエストデータに含まれる対象ユーザ識別情報に関連付けられた対象ユーザレコードを特定する。
プロセッサ32は、対象ユーザレコードの「生後経過時間」フィールドの情報(つまり、ソース生後経過時間)を特定する。
プロセッサ32は、対象ユーザレコードの「プロダクト」フィールドの情報(つまり、対象プロダクト情報)を特定する。
プロセッサ32は、特定したプロダクト情報に関連付けられた音声フィルタ情報データベース(図12)を参照して、特定したソース生後経過時間、及び、シミュレーションリクエストデータに含まれる生後経過時間(つまり、予測生後経過時間)の組合せに関連付けられた音声フィルタ(「参照音声フィルタ」の一例)を選択する。
【0103】
変形例3によれば、サーバ30は、シミュレーション対象者STの所望のプロダクトを考慮して参照音声フィルタを選択する。したがって、シミュレーション対象者STの所望のプロダクトに適合した音声フィルタが選択される。これにより、予測音声信号によって再現される感触の精度を向上させることができる。
【0104】
(5-4)変形例4
変形例4について説明する。変形例4は、バイノーラル音を用いて過去又は未来の生体組織の感触を提示する例である。図15は、変形例4の概要の説明図である。
【0105】
図15に示すように、変形例4の音声入力装置20は、バイノーラル音を入力するように構成される。
変形例4の音声出力装置21は、バイノーラル音を出力するように構成される。
つまり、音声入力信号及び音声出力信号は、バイノーラル音である。
【0106】
変形例4の音声入力装置20は、ステップS110において、バイノーラル音を入力する。
【0107】
変形例4のプロセッサ32は、ステップS131において、バイノーラル音を再生するための予測音声信号を生成する。
【0108】
変形例4の音声出力装置21は、ステップS114において、予測音声信号に対応するバイノーラル音を出力する。
【0109】
変形例4によれば、バイノーラル音を用いて、過去又は未来の感触を提示する。これにより、予測音声信号によって再現される感触の再現性を向上させることができる。
【0110】
(5-5)変形例5
変形例5について説明する。変形例5は、血縁者の情報を参照して、音声フィルタを選択する例である。
【0111】
変形例5のプロセッサ32は、予測音声信号の生成(S131)において、予測音声信号を生成した後、ユーザ情報データベース(図4)を参照して、シミュレーションリクエストデータに含まれるユーザ識別情報に関連付けられた血縁者識別情報を特定する。
プロセッサ32は、血縁者識別情報に関連付けられたログ情報データベース(図6)を参照して、シミュレーションリクエストデータに含まれる予測生後経過時間に関連付けられた予測音声信号を特定する。
プロセッサ32は、特定した予測音声信号(つまり、シミュレーション対象者の血縁者の予測生後経過時間における予測音声信号)を参照して、生成した予測音声信号(つまり、シミュレーション対象者の予測音声信号)を補正する。
【0112】
変形例5によれば、血縁者の予測音声信号を用いて、シミュレーション対象者の予測音声信号を補正する。一般に、血縁関係にある人同士は、肌の振動特性が類似する傾向にある。したがって、予測音声信号の精度を向上させることができる。
【0113】
(6)本実施形態の小括
本実施形態について小括する。
【0114】
本実施形態の第1態様は、
過去又は未来の時点における生体組織の感触のシミュレーションを実行する情報処理装置(例えば、サーバ30)であって、
人物の生体組織の振動によって発生する振動音を再現するための音声フィルタと、振動音が発生したときの人物の生後経過時間に関する情報と、シミュレーション対象者の生後経過時間に関する情報と、を関連付けて記憶する手段(例えば、音声フィルタ情報データベース(図5)を記憶する記憶装置31)と、
音声入力装置20から、シミュレーション対象者STの生体組織が振動したときの振動音に関する対象音声信号を取得する手段(例えば、ステップS130を実行するプロセッサ32)を備え、
過去又は未来の時点と、シミュレーション対象者の生後経過時間と、を含むシミュレーション条件を特定する手段(例えば、ステップS130を実行するプロセッサ32)を備え、
複数の音声フィルタから、シミュレーション条件に対応する参照音声フィルタを選択する手段(例えば、ステップS130を実行するプロセッサ32)を備え、
参照音声フィルタを対象音声信号に適用することにより、シミュレーション条件が示す過去又は未来の時点におけるシミュレーション対象者の生体組織の振動によって発生する振動音に関する予測音声信号を生成する手段(例えば、ステップS131を実行するプロセッサ32)を備え、
音声出力装置を介して、予測音声信号を提示する手段(例えば、ステップS133を実行するプロセッサ32)を備える、
情報処理装置(例えば、サーバ30)である。
【0115】
第1態様によれば、サーバ30は、シミュレーション対象者STの生体組織が振動したときの振動音に関する対象音声信号を入力すると、当該対象音声信号に応じて、シミュレーション条件が示す過去又は未来の時点におけるシミュレーション対象者STの生体組織の振動によって発生する振動音に関する予測音声信号を出力する。これにより、シミュレーション対象者STに対して、過去又は未来の肌の感触を提示することができる。
【0116】
本実施形態の第2態様は、
記憶する手段は、音声フィルタと、人物の属性に関する参照属性情報と、を関連付けて記憶し、
シミュレーション条件は、シミュレーション対象者の属性に関する対象属性情報を含む、
選択する手段は、対象属性情報に対応する参照属性情報に関連付けられた音声フィルタを、参照音声フィルタとして選択する、
情報処理装置(例えば、サーバ30)である。
【0117】
第2態様によれば、サーバ30は、対象属性情報に対応する参照属性情報に関連付けられた音声フィルタを、参照音声フィルタとして選択する。これにより、シミュレーション対象者STの属性に応じた肌の感触を提示することができる。
【0118】
本実施形態の第3態様は、
対象属性情報及び参照属性情報は、性別、職業、人種、及び、所在地の少なくとも1つを示す、
情報処理装置(例えば、サーバ30)である。
【0119】
第3態様によれば、シミュレーション対象者STの性別、職業、人種、及び、所在地の少なくとも1つに応じた肌の感触を提示することができる。
【0120】
本実施形態の第4態様は、
記憶する手段は、音声フィルタと、振動音の発生源である生体組織の部位に関する参照部位情報と、を関連付けて記憶し、
シミュレーション条件は、シミュレーション対象者の生体組織の部位に関する対象部位情報を含み、
選択する手段は、対象部位情報と同一の参照部位情報に関連付けられた音声フィルタを、参照音声フィルタとして選択する、
情報処理装置(例えば、サーバ30)である。
【0121】
第4態様によれば、サーバ30は、シミュレーション対象者の生体組織の対象部位に対応する音声フィルタを選択する。これにより、対象部位に応じた肌の感触を提示することができる。
【0122】
本実施形態の第5態様は、
参照部位情報及び対象部位情報は、顔、腕、足、胴体、毛髪、眉、及び、爪の少なくとも1つを示す、
情報処理装置(例えば、サーバ30)である。
【0123】
第5態様によれば、顔、腕、足、胴体、毛髪、眉、及び、爪の少なくとも1つに応じた肌の感触を提示することができる。
【0124】
本実施形態の第6態様は、
記憶する手段は、音声フィルタと、振動音が発生したときに使用されたプロダクトに関する参照プロダクト情報と、を関連付けて記憶し、
シミュレーション条件は、シミュレーション対象者の所望のプロダクトに関する対象プロダクト情報を含み、
選択する手段は、対象プロダクト情報に対応する参照プロダクト情報に関連付けられた音声フィルタを、参照音声フィルタとして選択する、
情報処理装置(例えば、サーバ30)である。
【0125】
第6態様によれば、サーバ30は、シミュレーション対象者STの所望のプロダクトに応じた音声フィルタを選択する。これにより、シミュレーション対象者STの所望のプロダクトに応じた肌の感触を提示することができる。
【0126】
本実施形態の第7態様は、
参照プロダクト情報及び対象プロダクト情報は、塗布物、飲食物、及び、美容装置の少なくとも1つを示す情報である、
情報処理装置(例えば、サーバ30)である。
【0127】
第7態様によれば、シミュレーション対象者STの所望の塗布物、飲食物、及び、美容装置に応じた肌の感触を提示することができる。
【0128】
本実施形態の第8態様は、
シミュレーション対象者の血縁者の予測音声信号を参照して、生成された予測音声信号を補正する手段を備え、
予測音声信号を提示する手段は、補正された予測音声信号を提示する、
情報処理装置である。
【0129】
第8態様によれば、シミュレーション対象者STの血縁者の予測音声信号を参照して、シミュレーション対象者STの予測音声信号を補正する。これにより、予測音声信号の精度を向上させることができる。
【0130】
本実施形態の第9態様は、
コンピュータ(例えば、プロセッサ32)を、上記の何れかに記載の各手段として機能させるためのプログラムである。
【0131】
(7)その他の変形例
【0132】
記憶装置11は、ネットワークNWを介して、クライアント装置10と接続されてもよい。記憶装置31は、ネットワークNWを介して、サーバ30と接続されてもよい。
【0133】
上記の情報処理の各ステップは、クライアント装置10及びサーバ30の何れでも実行可能である。
【0134】
以上、本発明の実施形態について詳細に説明したが、本発明の範囲は上記の実施形態に限定されない。また、上記の実施形態は、本発明の主旨を逸脱しない範囲において、種々の改良や変更が可能である。また、上記の実施形態及び変形例は、組合せ可能である。
【符号の説明】
【0135】
1 :情報処理システム
10 :クライアント装置
11 :記憶装置
12 :プロセッサ
13 :入出力インタフェース
14 :通信インタフェース
20 :音声入力装置
21 :音声出力装置
30 :サーバ
31 :記憶装置
32 :プロセッサ
33 :入出力インタフェース
34 :通信インタフェース


図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14
図15