IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 株式会社JVCケンウッドの特許一覧

特許7600614コンテンツ出力装置、コンテンツ出力方法、およびプログラム
<>
  • 特許-コンテンツ出力装置、コンテンツ出力方法、およびプログラム 図1
  • 特許-コンテンツ出力装置、コンテンツ出力方法、およびプログラム 図2
  • 特許-コンテンツ出力装置、コンテンツ出力方法、およびプログラム 図3
  • 特許-コンテンツ出力装置、コンテンツ出力方法、およびプログラム 図4
  • 特許-コンテンツ出力装置、コンテンツ出力方法、およびプログラム 図5
  • 特許-コンテンツ出力装置、コンテンツ出力方法、およびプログラム 図6
  • 特許-コンテンツ出力装置、コンテンツ出力方法、およびプログラム 図7
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-12-09
(45)【発行日】2024-12-17
(54)【発明の名称】コンテンツ出力装置、コンテンツ出力方法、およびプログラム
(51)【国際特許分類】
   A61B 5/16 20060101AFI20241210BHJP
   G10L 21/003 20130101ALI20241210BHJP
   H04N 5/77 20060101ALI20241210BHJP
   H04N 5/92 20060101ALI20241210BHJP
   H04N 23/60 20230101ALI20241210BHJP
   G10L 15/10 20060101ALN20241210BHJP
   G10L 25/66 20130101ALN20241210BHJP
【FI】
A61B5/16 110
G10L21/003
H04N5/77
H04N5/92 010
H04N23/60
G10L15/10 500Z
G10L25/66
【請求項の数】 5
(21)【出願番号】P 2020176937
(22)【出願日】2020-10-21
(65)【公開番号】P2022068020
(43)【公開日】2022-05-09
【審査請求日】2023-06-30
(73)【特許権者】
【識別番号】308036402
【氏名又は名称】株式会社JVCケンウッド
(74)【代理人】
【識別番号】110002147
【氏名又は名称】弁理士法人酒井国際特許事務所
(72)【発明者】
【氏名】中村 功大
(72)【発明者】
【氏名】木下 義仁
(72)【発明者】
【氏名】糟谷 純一
(72)【発明者】
【氏名】桜木 友喜
【審査官】鈴木 順三
(56)【参考文献】
【文献】特開2005-318973(JP,A)
【文献】特開2018-156670(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
A61B 5/06 - 5/22
H04N 5/76 - 5/956
H04N 23/00 - 23/959
G10L 19/00 - 99/00
G10L 15/00 - 17/26
(57)【特許請求の範囲】
【請求項1】
コンテンツを取得するコンテンツ取得部と、
前記コンテンツに対する使用者の心理状態を検出する状態検出部と、
前記コンテンツに対する前記使用者の緊張状態のときの心理状態を示す心理情報を記憶する記憶部と、
前記コンテンツに対して解析処理を行い、解析処理により検出した人物の音声および前記人物の映像の少なくとも一つに基づく情報と、前記心理情報とに基づいて、前記コンテンツに含まれる前記使用者が心理的負担を感じる負担原因を特定する特定部と、
前記負担原因の出力方法を変更する変換部と、
を含む、コンテンツ出力装置。
【請求項2】
前記負担原因は、前記使用者が心理的負担を感じる特定人物であり、
前記変換部は、前記特定人物の音声を変換または消音する、
請求項1に記載のコンテンツ出力装置。
【請求項3】
前記負担原因は、前記使用者が心理的負担を感じる特定人物であり、
前記変換部は、前記特定人物の映像の領域を所定の処理を用いて変換する、
請求項1に記載のコンテンツ出力装置。
【請求項4】
コンテンツを取得するステップと、
前記コンテンツに対する使用者の心理状態を検出するステップと、
前記コンテンツに対する前記使用者の緊張状態のときの心理状態を示す心理情報を記憶するステップと、
前記コンテンツに対して解析処理を行い、解析処理により検出した人物の音声および前記人物の映像の少なくとも一つに基づく情報と、前記心理情報とに基づいて、前記コンテンツに含まれる前記使用者が心理的負担を感じる負担原因を特定するステップと、
前記負担原因の出力方法を変更するステップと、
を含む、コンテンツ出力方法。
【請求項5】
コンテンツを取得するステップと、
前記コンテンツに対する使用者の心理状態を検出するステップと、
前記コンテンツに対する前記使用者の緊張状態のときの心理状態を示す心理情報を記憶するステップと、
前記コンテンツに対して解析処理を行い、解析処理により検出した人物の音声および前記人物の映像の少なくとも一つに基づく情報と、前記心理情報とに基づいて、前記コンテンツに含まれる前記使用者が心理的負担を感じる負担原因を特定するステップと、
前記負担原因の出力方法を変更するステップと、
をコンピュータに実行させる、プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、コンテンツ出力装置、コンテンツ出力方法、およびプログラムに関する。
【背景技術】
【0002】
自身で撮影した動画、会議の動画、映画、スポーツ番組等、種々のコンテンツを出力するコンテンツ出力装置がある。コンテンツを出力する装置には、ユーザの心身状態を検出し、心身状態の検出結果に基づいて、情報の提示を停止したり、情報内容を変更したりする情報処理装置がある(例えば、特許文献1参照)。
【先行技術文献】
【特許文献】
【0003】
【文献】特開2005-237561号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
しかしながら、特許文献1に記載されたような情報処理装置は、ユーザ(使用者)の心理的負担に合わせて、情報の提示を停止したり、情報内容を変更したりすることで、使用者の心理的負担を軽減することができるが、必要な情報を得ることができない場合がある。
【0005】
本発明は、上記に鑑みてなされたものであって、使用者の心理的負担を軽減しつつ、必要な情報を提示できることを目的とする。
【課題を解決するための手段】
【0006】
本発明に係るコンテンツ出力装置は、コンテンツを取得するコンテンツ取得部と、前記コンテンツに対する使用者の心理状態を検出する状態検出部と、前記コンテンツに対する前記使用者の緊張状態のときの心理状態を示す心理情報を記憶する記憶部と、前記コンテンツの情報と、前記心理情報とに基づいて、前記コンテンツに含まれる前記使用者が心理的負担を感じる負担原因を特定する特定部と、前記負担原因の出力方法を変更する変換部と、を含む。
【0007】
本発明に係るコンテンツ出力方法は、コンテンツを取得するステップと、前記コンテンツに対する使用者の心理状態を検出するステップと、前記コンテンツに対する前記使用者の緊張状態のときの心理状態を示す心理情報を記憶するステップと、前記コンテンツの情報と、前記心理情報とに基づいて、前記コンテンツに含まれる前記使用者が心理的負担を感じる負担原因を特定するステップと、前記負担原因の出力方法を変更するステップと、を含む。
【0008】
本発明に係るプログラムは、コンテンツを取得するステップと、前記コンテンツに対する使用者の心理状態を検出するステップと、前記コンテンツに対する前記使用者の緊張状態のときの心理状態を示す心理情報を記憶するステップと、前記コンテンツの情報と、前記心理情報とに基づいて、前記コンテンツに含まれる前記使用者が心理的負担を感じる負担原因を特定するステップと、前記負担原因の出力方法を変更するステップと、をコンピュータに実行させる。
【発明の効果】
【0009】
本発明によれば、使用者の心理的負担を軽減しつつ、必要な情報を提示できるという効果を奏する。
【図面の簡単な説明】
【0010】
図1図1は、第1実施形態に係るコンテンツ出力システムの構成例を示すブロック図である。
図2図2は、第1実施形態に係る負担フラグを設定する処理の流れの一例を示すフローチャートである。
図3図3は、コンテンツに対して負担フラグを設定する方法を説明するための図である。
図4図4は、第1実施形態に係るコンテンツを変換して出力する処理の流れの一例を示すフローチャートである。
図5図5は、コンテンツを変換する方法を説明するための図である。
図6図6は、第2実施形態に係るコンテンツ出力システムの構成例を示すブロック図である。
図7図7は、第2実施形態に係るコンテンツ変換処理の流れの一例を示すフローチャートである。
【発明を実施するための形態】
【0011】
以下に、本発明の実施形態を図面に基づいて詳細に説明する。なお、以下に説明する実施形態により本発明が限定されるものではない。
【0012】
[第1実施形態]
図1を用いて、第1実施形態に係るコンテンツ出力システムについて説明する。図1は、実施形態に係るコンテンツ出力システムの構成例を示すブロック図である。
【0013】
図1に示すように、コンテンツ出力システム1は、表示部10と、音声出力部12と、生体センサ14と、マイク16と、カメラ18と、コンテンツ出力装置20と、を備える。コンテンツ出力システム1は、映像と音楽とを含むコンテンツに対してユーザが心理的な負担を感じていると判定した場合に、ユーザの心理的な負担を軽減するようにコンテンツに対して変換処理を施して出力する。
【0014】
表示部10は、各種の映像を表示する。表示部10は、例えば、映画およびテレビ番組などを表示する。表示部10は、例えば、液晶ディスプレイまたは有機EL(Electro-Luminescence)ディスプレイなどを含むディスプレイで実現することができる。
【0015】
音声出力部12は、各種の音声を出力する。音声出力部12は、例えば、表示部10に表示された映像に関する音声を出力する。音声出力部12は、例えば、スピーカで実現することができる。音声出力部12は、例えば、ユーザの頭部に装着されるヘッドホンであってもよい。
【0016】
生体センサ14は、ユーザの各種の生体情報を検出する。生体センサ14は、生体情報を検出する各種のセンサで構成され得る。生体情報は、例えば、心拍数、血流、血圧、体温、脳波に関する情報を含み得るが、これらに限定されない。生体センサ14は、例えば、ユーザに装着されるウェアラブルデバイスで実現することができる。ウェアラブルデバイスとしては、例えば、スマートウォッチが挙げられるが、これに限定されない。
【0017】
マイク16は、周囲の音声を検出する。マイク16は、例えば、表示部10に表示された映像を視聴しているユーザが発した音声を検出する。マイク16は、例えば、周知のマイクロフォンで実現することができる。
【0018】
カメラ18は、ユーザを撮像する撮像装置である。カメラ18は、例えば、表示部10に表示された映像を視聴しているユーザを撮像する。カメラ18は、例えば、表示部10に表示された映像を視聴しているユーザの瞳孔を撮像する。カメラ18は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal-Oxide Semiconductor)センサを含むカメラで実現することができる。
【0019】
なお、表示部10と、音声出力部12と、生体センサ14と、マイク16と、カメラ18とは、例えば、ユーザの頭部に装着されるHMD(Head Mounted Display)として、一体に構成されていてもよい。
【0020】
コンテンツ出力装置20は、入力部22と、記憶部24と、通信部26と、制御部28と、を備える。
【0021】
入力部22は、コンテンツ出力装置20に対する、各種の操作を入力するため入力装置である。入力部22は、ユーザから各種の操作を受け付ける。入力部22は、例えば、ボタン、スイッチ、およびタッチパネルなどで実現される。
【0022】
記憶部24は、各種の情報を記憶するメモリである。記憶部24は、例えば、制御部28の演算内容、およびプログラムなどの情報を記憶する。記憶部24は、例えば、表示部10および音声出力部12から出力するためのコンテンツに関するコンテンツ情報を記憶する。コンテンツは、例えば、各種の映画、テレビ番組、音楽などに関する情報が含まれ得る。コンテンツには、ユーザが撮影した動画およびユーザが録音した音楽が含まれてもよい。コンテンツには、ユーザ自身の映像およびユーザ自身の音声が含まれてもよい。記憶部24は、例えば、コンテンツ出力システム1を使用し得るユーザの生体情報を記憶する。生体情報には、ユーザが緊張状態にあるときの、心拍数、血流、血圧、体温、脳波、瞳孔の状態、挙動、および音声に関する心理情報を含み得る。緊張状態は、ユーザに所定以上の心理的な負担を感じていることを意味する。記憶部24は、例えば、RAM(Random Access Memory)と、ROM(Read Only Memory)のような主記憶装置、HDD(Hard Disk Drive)などの外部記憶装置とのうち、少なくとも1つ含む。
【0023】
通信部26は、コンテンツ出力装置20と、外部装置との間で、コンテンツ情報の送受信を行う通信装置である。外部装置は例えば、映画、テレビ番組、音楽などのコンテンツ配信を行うサーバ装置である。なお、通信部26が取得したコンテンツ情報は、記憶部24に保存される。
【0024】
制御部28は、コンテンツ出力装置20の各部の動作を制御する。制御部28は、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、記憶部24などに記憶されたプログラムがRAM等を作業領域として実行されることにより実現される。制御部28は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現されてもよい。制御部28は、ハードウェアと、ソフトウェアとの組み合わせで実現されてもよい。
【0025】
制御部28は、コンテンツ取得部30と、出力制御部32と、状態検出部34と、特定部36と、設定部38と、変換部40と、を備える。
【0026】
コンテンツ取得部30は、各種のコンテンツを取得する。コンテンツ取得部30は、例えば、記憶部24に記憶されたコンテンツを取得する。コンテンツは、映像および音声の少なくとも一方を含み得る。
【0027】
出力制御部32は、コンテンツ取得部30が取得したコンテンツを出力する。出力制御部32は、例えば、コンテンツ取得部30が取得した映像に関するコンテンツを表示部10に表示させる。出力制御部32は、例えば、コンテンツ取得部30が取得した音声に関するコンテンツを音声出力部12に出力させる。
【0028】
状態検出部34は、出力制御部32が出力したコンテンツに対する、ユーザの心理状態を検出する。状態検出部34は、例えば、ユーザの生体センサ14、マイク16、およびカメラ18の少なくとも1つの検出結果と、記憶部24に記憶された生体情報とに基づいて、ユーザが緊張状態であるか否かといった心理状態を判定する。状態検出部34は、生体情報検出部50と、瞳孔検出部52と、挙動検出部54と、を備える。
【0029】
生体情報検出部50は、出力制御部32が出力したコンテンツに対するユーザの生体情報を生体センサ14から取得する。生体情報検出部50は、ユーザの心拍数、血流、血圧、体温、脳波などの生体情報に基づいて、ユーザの心理状態を検出する。生体情報検出部50は、例えば、生体センサ14が取得したユーザの心拍数情報と、記憶部24に記憶されたユーザの安定時の心拍数情報とを比較して、所定の範囲から外れる場合に、ユーザが緊張状態であると判定する。
【0030】
瞳孔検出部52は、出力制御部32が出力したコンテンツに対するユーザの顔の様子を示す顔画像をカメラ18から取得する。瞳孔検出部52は、ユーザの顔画像に基づいて、ユーザの瞳孔の状態を検出する。瞳孔検出部52は、ユーザの瞳孔の状態に基づいて、ユーザの心理状態を検出する。瞳孔検出部52は、例えば、検出されたユーザの瞳孔の状態と、記憶部24に記憶されたユーザの安定時の瞳孔情報とを比較して、所定の範囲から外れる場合に、ユーザが緊張状態であると判定する。
【0031】
挙動検出部54は、出力制御部32が出力したコンテンツに対するユーザの挙動を示す画像をカメラ18から取得する。挙動検出部54は、出力制御部32が出力したコンテンツに対してユーザが発した音声をマイク16から取得する。挙動検出部54は、ユーザの挙動に基づいて、ユーザの心理状態を検出する。挙動検出部54は、ユーザの音声に基づいて、ユーザの心理状態を検出する。挙動検出部54は、出力制御部32が出力したコンテンツに対するユーザの挙動およびユーザが発した音声の少なくとも一方を取得すればよい。挙動検出部54は、カメラ18から取得したユーザの挙動およびマイク16から取得したユーザの音声と、記憶部24に記憶されたユーザの安定時の挙動および音声に関する情報との少なくとも一方を比較して、双方若しくはどちらか一方が所定の範囲から外れる場合に、ユーザが緊張状態であると判定する。
【0032】
状態検出部34は、例えば、ユーザの心理状態の検出結果に重み付けを行い、心理状態が緊張状態であるか否かを判定してよい。具体的には、状態検出部34は、生体情報検出部50と、瞳孔検出部52と、挙動検出部54とのそれぞれの判定結果に、異なる重み付けを行って、ユーザの心理状態が緊張状態であるか否かを判定してもよい。重み付けの大きさおよび方法などは、ユーザに応じて変更してもよい。例えば、状態検出部34は、緊張状態の時に脈拍が速くなる傾向のあるユーザに対しては、脈拍の測定値により大きな重み付けを行って、ユーザの心理状態が緊張状態であるか否かを判定してもよい。
【0033】
特定部36は、状態検出部34によりユーザが緊張状態であると判定された場合に、ユーザが緊張状態となった負担原因を特定する。特定部36は、例えば、状態検出部34によりユーザが緊張状態であると判定された場合に、出力制御部32が出力したコンテンツに基づいて、ユーザが緊張状態となった原因を特定する。特定部36は、例えば、出力制御部32が出力したコンテンツに人物が含まれている場合、コンテンツに含まれる人物のうち、ユーザが心理的負担を感じる特定人物を特定する。
【0034】
設定部38は、コンテンツ取得部30が取得したコンテンツに対してフラグを設定する。設定部38は、例えば、特定部36が特定したコンテンツに含まれる、ユーザが緊張状態となった負担原因を含む部分に対して、ユーザの心理的な負担が大きいことを示す負担フラグを設定する。
【0035】
変換部40は、コンテンツを変換する。変換部40は、コンテンツの情報と、特定部36により特定された特定人物の出力方法を変更する。変換部40は、例えば、設定部38が設定した負担フラグに基づいて、コンテンツを変換する。変換部40は、例えば、負担フラグが設定された部分に含まれるユーザが心理的な負担を感じる要因の音声をキャンセルしたり、ユーザが心理的な負担を感じる音声を別の音声に変換したりする。
【0036】
[負担フラグの設定処理]
図2を用いて、第1実施形態に係る負担フラグを設定する処理の流れについて説明する。図2は、第1実施形態に係る負担フラグを設定する処理の流れの一例を示すフローチャートである。
【0037】
コンテンツ取得部30は、コンテンツを取得する(ステップS10)。具体的には、コンテンツ取得部30は、例えば、記憶部24に記憶された映像および音声の少なくとも一方を含むコンテンツを出力する。そして、ステップS12に進む。
【0038】
出力制御部32は、コンテンツを出力する(ステップS12)。具体的には、出力制御部32は、コンテンツ取得部30が取得したコンテンツに応じて、表示部10および音声出力部12の少なくとも一方からコンテンツを出力する。そして、ステップS14に進む。
【0039】
状態検出部34は、コンテンツに対するユーザの状態を取得する(ステップS14)。例えば、状態検出部34の生体情報検出部50は、コンテンツに対するユーザの生体情報を生体センサ14から取得する。例えば、状態検出部34の瞳孔検出部52は、コンテンツに対するユーザの瞳孔情報をカメラ18から取得する。例えば、状態検出部34の挙動検出部54は、コンテンツに対してユーザが発した音声をマイク16から取得する。例えば、状態検出部34の挙動検出部54は、コンテンツに対するユーザの挙動に関する挙動情報をカメラ18から取得する。例えば、状態検出部34は、生体情報と、瞳孔情報と、挙動情報との全てを取得してもよいし、少なくとも1つを取得するようにしてもよい。そして、ステップS16に進む。
【0040】
状態検出部34は、ユーザに所定以上の心理的な負担があるか否かを判定する(ステップS16)。具体的には、状態検出部34は、ステップS14で取得したユーザの生体情報に基づいて、コンテンツに対してユーザが所定以上の心理的な負担を感じているか否かを判定する。例えば、状態検出部34は、ステップS14で取得したユーザの生体情報、瞳孔情報、挙動情報との少なくとも1つと、記憶部24に記憶されたユーザが緊張状態のときに示す生体情報、瞳孔情報、挙動情報とに基づいて、ユーザが所定以上の心理的な負担を感じているか否かを判定する。ユーザは所定以上の心理的な負担を感じていると判定された場合(ステップS16;Yes)、ステップS18に進む。ユーザは所定以上の心理的な負担を感じていないと判定された場合(ステップS16;No)、ステップS22に進む。
【0041】
ステップS16でYesと判定された場合、特定部36は、ユーザが心理的な負担を感じている負担原因を特定する(ステップS18)。具体的には、特定部36は、コンテンツに対して解析処理を行い、コンテンツに含まれる各種の対象物を抽出し、抽出した対象物に基づいて、負担原因を特定する。例えば、特定部36は、コンテンツに対して解析処理を行い、緊張している声や、怒鳴っている声が含まれていることを検出することで、ユーザが心理的な負担を感じている原因となり得る特定人物を特定する。例えば、特定部36は、コンテンツに対して解析処理を行い、強張った表情、または怒鳴っている表情の人物が発言していることを検出することで、ユーザが心理的な負担を感じている原因となり得る特定人物を特定する。例えば、特定部36は、コンテンツに対して解析処理を行い、コンテンツが映像である場合、映像に含まれる人物の視線の方向、および口の動きなどから発言者を特定し、かつ発言内容を検出することで、ユーザが心理的な負担を感じている原因となり得る特定人物を特定する。特定部36は、例えば、不快な音声などを負担原因として特定してもよい。そして、ステップS20に進む。
【0042】
設定部38は、コンテンツに対して負担フラグを設定する(ステップS20)。具体的には、設定部38は、特定部36により特定されたユーザが心理的な負担を感じている部分に対して、負担フラグを設定する。例えば、設定部38は、特定部36により特定された特定人物のユーザが心理的な負担を感じ得る発言に対して負担フラグを設定する。そして、ステップS22に進む。
【0043】
ここで、図3を用いて、コンテンツに対して負担フラグを設定する方法を説明する。図3は、コンテンツに対して負担フラグを設定する方法を説明するための図である。図3は、コンテンツとして、表示部10に表示された映像IMを示している。図3に示すように、映像IMには、人物U1と、人物U2と、が含まれている。この場合、特定部36は、人物U1と、人物U2とのそれぞれの視線の方向および口の動きなどに基づいて、発言している人物を特定する。図3に示す例では、人物U2の発言V1を「ABCDE」といったように概念的に示しているが、実際には、具体的な、発言内容を特定する。特定部36は、発言V1を、映像IMを視聴しているユーザが心理的な負担を感じている原因であることを特定する。この場合、設定部38は、発言V1に対して、負担フラグを設定する。すなわち、特定部36は、人物U2をユーザが心理的な負担を感じている原因となっている特定人物であることを特定する。設定部38は、ユーザが心理的な負担を感じている特定人物である人物U2の発言V1に負担フラグを設定する。
【0044】
図2に戻る。制御部28は、処理を終了するか否かを判定する(ステップS22)。例えば、制御部28は、コンテンツの出力が完了した場合に処理を終了すると判定する。例えば、制御部28は、コンテンツの出力を終了する旨の操作を受け付けた場合、またはコンテンツ出力装置20の電源をオフする操作を受け付けた場合などに処理を終了すると判定する。処理を終了すると判定された場合(ステップS22;Yes)、図2の処理を終了する。処理を終了しないと判定された場合(ステップS22;No)、ステップS12に進み、上記の処理を繰り返す。
【0045】
[コンテンツの変換処理]
図4を用いて、第1実施形態に係るコンテンツを変換して出力する処理の流れについて説明する。図4は、第1実施形態に係るコンテンツを変換して出力する処理の流れの一例を示すフローチャートである。
【0046】
ステップS30およびステップS32の処理は、それぞれ、図2に示すステップS10およびステップS12の処理と同一なので、説明を省略する。
【0047】
ステップS32の後、変換部40は、出力制御部32が出力するコンテンツに負担フラグが設定されているか否かを判定する(ステップS34)。具体的には、変換部40は、コンテンツを解析して、設定部38が設定した負担フラグが設定されているか否かを判定する。負担フラグが設定されていると判定された場合(ステップS34;Yes)、ステップS36に進む。負担フラグが設定されていないと判定された場合(ステップS34;No)、ステップS40に進む。
【0048】
ステップS34でYesと判定された場合、変換部40は、コンテンツを変換する(ステップS36)。変換部40は、出力制御部32が出力するコンテンツのうち、設定部38が負担フラグを設定した部分について、変換処理を実行する。具体的には、変換部40は、設定部38が負担フラグを設定した部分について、ユーザがそのコンテンツに対して、心理的な負担を感じないようにコンテンツの変換処理を実行する。
【0049】
図5を用いて、コンテンツを変換する方法について説明する。図5は、コンテンツを変換する方法を説明するための図である。図5には、図3に示した、人物U1と、人物U2とを含む映像IMが示されている。図5に示す例では、変換部40は、図3に示す、映像IMにおける人物U2の発言V1に負担フラグが設定されていることを検出する。変換部40は、例えば、人物U2の発言V1に対して変換処理を実行して、発言V1Aに変換する。例えば、変換部40は、「ABCDE」といった発言V1Aに対して変換処理を施し「・・・・・」といった発言V1Aに変換する。具体的には、変換部40は、人物U2の発言に対して消音処理を実行する。すなわち、変換部40は、ユーザが心理的な負担を感じていた人物U2の発言V1を消音する。変換部40は、例えば、ユーザが心理的な負担を感じている人物U2の声とは逆位相の音声を音声出力部12から出力することで、人物Uの発言V1を消音する。変換部40は、音声出力部12から出力される音声の周波数を変更することで、人物U2の発言V1を別人の声に変換してもよい。例えば、変換部40は、人物U2の声を好きな有名人などの声に変換してもよい。また、変換部40は、人物U2の発言V1を、ユーザが心理的な負担を感じないその他の音声に変換してもよい。
【0050】
図4に戻る。出力制御部32は、変換部40が変換したコンテンツを出力する(ステップS38)。すなわち、出力制御部32は、ユーザが心理的な負担を感じないように変換されたコンテンツを出力する。
【0051】
ステップS40の処理は、図2に示すステップS22と同一の処理なので、説明を省略する。
【0052】
上述のとおり、第1実施形態は、ユーザが過去に心理的な負担を感じたコンテンツに対して、再度そのコンテンツをユーザが視聴した場合に心理的な負担を感じないように、コンテンツの変換処理を実行する。これにより、第1実施形態は、ユーザの心理的負担を軽減しつつ、必要な情報を提示することができる。
【0053】
[第2実施形態]
次に、第2実施形態について説明する。図6は、第2実施形態に係るコンテンツ出力システムの構成例を示すブロック図である。図6に示すように、コンテンツ出力システム1Aは、コンテンツ出力装置20Aの制御部28Aが、判定部42を備える点で図1に示すコンテンツ出力システム1と異なる。
【0054】
第2実施形態は、コンテンツとしてリアルタイムで放映されているテレビ番組などを取得して、テレビ番組を視聴しているユーザが心理的な負担を感じるか否かを判定する。第2実施形態は、ユーザが心理的な負担を感じると判定した場合には、リアルタイムで放映されているコンテンツに対して、変換処理を行った後、出力する。
【0055】
記憶部24Aは、ユーザが緊張状態のときの生体情報と、ユーザが緊張状態を示したコンテンツにおけるシーン、音楽、発言などとを関連付けて記憶している。言い換えれば、記憶部24Aは、ユーザが所定以上の心理的な負担を感じると想定されるコンテンツのシーン、音楽、発言などに関する情報を負担情報として記憶している。
【0056】
判定部42は、ユーザの心理状態を判定する。判定部42は、例えば、コンテンツ取得部30が取得したコンテンツに対して、ユーザが所定以上の心理的な負担を感じるか否かを判定する。
【0057】
[コンテンツ変換処理]
図7を用いて、第2実施形態に係るコンテンツ変換処理について説明する。図7は、第2実施形態に係るコンテンツ変換処理の流れの一例を示すフローチャートである。
【0058】
コンテンツ取得部30は、リアルタイムのコンテンツを取得する(ステップS50)。具体的には、コンテンツ取得部30は、例えば、通信部26を介して、リアルタイムで放映されているテレビ番組などの映像を取得する。そして、ステップS52に進む。
【0059】
判定部42は、コンテンツ取得部30が取得したコンテンツに対して、ユーザは所定以上の負担を感じるか否かを判定する(ステップS52)。具体的には、判定部42は、記憶部24Aが記憶する負担情報に基づいて、コンテンツ取得部30が取得したコンテンツにユーザが心理的に負担を感じると想定されるシーン、音楽、発言などが含まれているか否かを判定する。ユーザは所定以上の心理的な負担を感じると判定された場合(ステップS52;Yes)、ステップS54に進む。ユーザは所定以上の心理的な負担を感じていないと判定された場合(ステップS52;No)、ステップS58に進む。
【0060】
ステップS52でYesと判定された場合、変換部40は、コンテンツを変換する(ステップS54)。変換部40は、コンテンツ取得部30が取得したコンテンツのうち、ユーザが所定以上の心理的な負担を感じると想定される部分について、心理的な負担を感じないように変換処理を実行する。そして、ステップS56に進む。
【0061】
出力制御部32は、変換部40が変換したコンテンツを出力する(ステップS56)。すなわち、出力制御部32は、ユーザが心理的な負担を感じないように変換されたリアルタイムのコンテンツを出力する。そして、ステップS60に進む。
【0062】
ステップS52でNoと判定された場合、出力制御部32は、コンテンツを通常出力する(ステップS58)。具体的には、出力制御部32は、コンテンツ取得部30が取得したコンテンツに応じて、表示部10および音声出力部12の少なくとも一方からコンテンツを出力する。そして、ステップS60に進む。
【0063】
ステップS60の処理は、図2に示すステップS22の処理と同一なので、説明を省略する。
【0064】
上述のとおり、第2実施形態は、ユーザが過去に心理的な負担を感じると想定されるリアルタイムで取得したコンテンツに対して、ユーザが心理的な負担を感じないように、変換処理を実行する。これにより、第2実施形態は、リアルタイムで放映されているテレビ番組などに対するユーザの心理的負担を軽減することができる。
【0065】
また、上述の各実施形態では、ユーザが心理的な負担を感じる音声に対して変換処理を行う場合について説明したが、本発明はこれに限られない。例えば、本発明は、ユーザが映像に対して心理的な負担を感じていると判定された場合には、映像に対して変換処理を行い、ユーザの心理的な負担を軽減するようにしてもよい。この場合、例えば、ユーザが心理的な負担を感じている映像に対して、モザイク処理、ぼかし処理、およびユーザが心理的な負担を感じている映像の領域の色を変更する処理などを行ってよい。
【0066】
以上、本発明の実施形態を説明したが、これら実施形態の内容により本発明が限定されるものではない。また、前述した構成要素には、当業者が容易に想定できるもの、実質的に同一のもの、いわゆる均等の範囲のものが含まれる。さらに、前述した構成要素は適宜組み合わせることが可能である。さらに、前述した実施形態の要旨を逸脱しない範囲で構成要素の種々の省略、置換又は変更を行うことができる。
【符号の説明】
【0067】
1,1A コンテンツ出力システム
10 表示部
12 音声出力部
14 生体センサ
16 マイク
18 カメラ
20,20A コンテンツ出力装置
22 入力部
24,24A 記憶部
26 通信部
28,28A 制御部
30 コンテンツ取得部
32 出力制御部
34 状態検出部
36 特定部
38 設定部
40 変換部
42 判定部
50 生体情報検出部
52 瞳孔検出部
54 挙動検出部
図1
図2
図3
図4
図5
図6
図7