(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2022020625
(43)【公開日】2022-02-01
(54)【発明の名称】音声処理システム、音声処理装置、音声処理方法、及び音声処理プログラム
(51)【国際特許分類】
H04R 3/00 20060101AFI20220125BHJP
G10K 15/02 20060101ALI20220125BHJP
【FI】
H04R3/00 320
G10K15/02
【審査請求】未請求
【請求項の数】21
【出願形態】OL
(21)【出願番号】P 2021155819
(22)【出願日】2021-09-24
(62)【分割の表示】P 2021549976の分割
【原出願日】2020-07-20
(71)【出願人】
【識別番号】506042645
【氏名又は名称】株式会社ウフル
(72)【発明者】
【氏名】古城 篤
(72)【発明者】
【氏名】栗原 洋介
【テーマコード(参考)】
5D208
5D220
【Fターム(参考)】
5D208BA10
5D208BB01
5D208BB05
5D208BB09
5D208BD02
5D208BD03
5D220BC01
5D220BC08
(57)【要約】 (修正有)
【課題】新たな体験を提供できる音声処理システム、音声処理装置、音声処理方法及び音声処理プログラムを提供する。
【解決手段】音声処理システム1は、イベントに参加するユーザUが発する音を検出するマイクと、イベント会場AEにおけるイベントの演者Pの位置を表す演者位置P1と、イベント会場AEにおけるユーザUの位置を表す観客位置Qとの関係に基づいて、マイクが検出した音を調整する音調整部と、ユーザである第1のユーザUaに対応するマイクに検出されて音調整部に調整された音と、第1のユーザUaと異なるユーザである第2のユーザUbに対応するマイクに検出されて音調整部に調整された音とを合成する合成部と、合成部が合成した音を表すデータを出力する出力部と、を備える。
【選択図】
図1
【特許請求の範囲】
【請求項1】
イベントに参加するユーザが発する音を検出するマイクと、
前記イベントが開催される所定領域における前記イベントの演者の位置を表す演者位置と、前記所定領域における前記ユーザの位置を表す観客位置との関係に基づいて、前記マイクが検出した音を調整する音調整部と、
前記ユーザである第1のユーザに対応する前記マイクに検出されて前記音調整部に調整された音と、前記第1のユーザと異なる前記ユーザである第2のユーザに対応する前記マイクに検出されて前記音調整部に調整された音とを合成する合成部と、
前記合成部が合成した音を表すデータを出力する出力部と、を備える音声処理システム。
【請求項2】
前記ユーザからの前記イベントへの参加申請に基づいて、前記観客位置を決定する位置決定部を備える
請求項1に記載の音声処理システム。
【請求項3】
前記ユーザから提供される前記参加申請を取得する申請取得部を備え、
前記位置決定部は、前記申請取得部が取得した前記参加申請に基づいて、前記観客位置を決定する、
請求項2に記載の音声処理システム。
【請求項4】
前記第1のユーザからの前記観客位置の変更申請に基づいて、前記第1のユーザに対応する前記観客位置を変更する位置決定部を備え、
前記音調整部は、前記位置決定部が変更した前記観客位置を用いて、前記第1のユーザに対応する前記マイクが検出した音を調整する、
請求項1から請求項3のいずれか一項に記載の音声処理システム。
【請求項5】
前記第1のユーザが過去の前記イベントに参加した履歴に基づいて、前記過去のイベントよりも後の前記イベントに前記第1のユーザが参加する際の前記観客位置を決定する位置決定部を備える
請求項1から請求項4のいずれか一項に記載の音声処理システム。
【請求項6】
前記音調整部と、前記音調整部が調整した音のデータを送信する第1の通信部とを備える第1音声処理装置と、
前記第1の通信部が送信した前記データを受信する第2の通信部と、前記第2の通信部が受信した前記データが表す音を合成する前記合成部とを備える第2音声処理装置と、を備える
請求項1から請求項5のいずれか一項に記載の音声処理システム。
【請求項7】
前記第2音声処理装置は、前記観客位置を決定する位置決定部を備え、
前記第2の通信部は、前記演者位置と前記位置決定部が決定した前記観客位置との関係を示す位置情報を送信し、
前記第1の通信部は、前記第2の通信部が送信した前記位置情報を受信し、
前記第1音声処理装置の前記音調整部は、前記第1の通信部が受信した前記位置情報に基づいて、前記第1音声処理装置に対応する前記マイクが検出した音を調整する、
請求項6に記載の音声処理システム。
【請求項8】
複数のグループに分けられた複数の前記第1音声処理装置を備え、
前記合成部は、
前記複数のグループの各グループに対応して設けられ、前記各グループにおいて、前記第1音声処理装置の前記音調整部が調整した音を合成する第1の合成部と、
前記複数のグループにおいて、前記第1の合成部が合成した音を合成する第2の合成部と、を備える、
請求項6または請求項7に記載の音声処理システム。
【請求項9】
前記所定領域は、各々が前記各グループに対応する複数の部分領域に区分され、
前記各グループは、前記各グループに対応する前記部分領域に含まれる前記観客位置に対応する前記第1音声処理装置の集合を含む、
請求項8に記載の音声処理システム。
【請求項10】
前記演者と前記ユーザとの一方又は双方に対するアクションを指定する情報を前記ユーザから受け付けるアクション受付部と、
前記アクション受付部が受け付けた情報に予め関連付けられた処理を実行する処理部と、を備える
請求項1から請求項9のいずれか一項に記載の音声処理システム。
【請求項11】
前記演者が発する音と、前記音調整部によって調整された音とが合成された音のデータを出力する第3出力部を備える
請求項1から請求項10のいずれか一項に記載の音声処理システム。
【請求項12】
前記第1のユーザは、前記所定領域の外で前記イベントを視聴し、
前記第1のユーザに対応する前記マイクは、前記第1のユーザが発する音を検出する位置に配置される、
請求項1から請求項11のいずれか一項に記載の音声処理システム。
【請求項13】
前記演者は、前記所定領域の外でパフォーマンスを行い、
前記合成部が合成した音のデータは、前記演者へ音が届く位置に配置される音声出力装置へ提供される、
請求項1から請求項12のいずれか一項に記載の音声処理システム。
【請求項14】
前記音調整部は、前記マイクが検出した第1の音を、前記第1の音が前記観客位置で発せられた場合に前記演者位置に届く第2の音に近づけるように調整する、
請求項1から請求項13のいずれか一項に記載の音声処理システム。
【請求項15】
前記音調整部は、前記観客位置と前記演者位置との距離を用いて、前記マイクが検出した音の大きさを調整する、
請求項1から請求項14のいずれか一項に記載の音声処理システム。
【請求項16】
前記第1のユーザに対応する前記観客位置と、前記第2のユーザに対応する前記観客位置との関係に基づいて、前記第2のユーザに対応する前記マイクが検出した音を調整する第2音調整部と、
前記第2音調整部によって調整された音を含む音のデータを、前記第1のユーザに音を伝える音声出力装置へ出力する第2出力部と、を備える
請求項1から請求項15のいずれか一項に記載の音声処理システム。
【請求項17】
イベントが開催される所定領域における前記イベントの演者の位置を表す演者位置と、前記イベントに参加するユーザの前記所定領域における位置を表す観客位置との関係を示す位置情報を受信する受信部と、
前記ユーザから発せられてマイクに検出された音を、前記位置情報に基づいて調整する音調整部と、
前記音調整部が調整した音を表すデータを送信する送信部と、を備える音声処理装置。
【請求項18】
イベントが開催される所定領域における前記イベントの演者の位置を表す演者位置と、前記イベントに参加するユーザの前記所定領域における位置を表す観客位置との関係を示す位置情報を送信する送信部と、
前記ユーザから発せられて前記位置情報に基づいて調整された音のデータを、前記位置情報の送信先から受信する受信部と、
前記ユーザである第1のユーザに対応する前記送信先から受信したデータが表す音と、前記第1のユーザと異なる前記ユーザである第2のユーザに対応する前記送信先から受信したデータが表す音と、を合成する合成部と、を備える音声処理装置。
【請求項19】
イベントに参加するユーザが発する音をマイクによって検出することと、
前記イベントが開催される所定領域における前記イベントの演者の位置を表す演者位置と、前記前記所定領域における前記ユーザの位置を表す観客位置との関係に基づいて、前記マイクが検出した音を音調整部によって調整することと、
前記ユーザである第1のユーザに対応する前記マイクに検出されて前記音調整部に調整された音と、前記第1のユーザと異なる前記ユーザである第2のユーザに対応する前記マイクに検出されて前記音調整部に調整された音とを合成部によって合成することと、
前記合成部が合成した音を表すデータを出力することと、を含む音声処理方法。
【請求項20】
コンピュータに、
イベントが開催される所定領域における前記イベントの演者の位置を表す演者位置と、前記イベントに参加するユーザの前記所定領域における位置を表す観客位置との関係を示す位置情報を受信することと、
前記ユーザから発せられてマイクに検出された音を、前記位置情報に基づいて調整することと、
前記調整した音を表すデータを送信することと、を実行させる音声処理プログラム。
【請求項21】
コンピュータに、
イベントが開催される所定領域における前記イベントの演者の位置を表す演者位置と、前記イベントに参加するユーザの前記所定領域における位置を表す観客位置との関係を示す位置情報を送信することと、
前記ユーザから発せられて前記位置情報に基づいて調整された音のデータを、前記位置情報の送信先から受信することと、
前記ユーザである第1のユーザに対応する前記送信先から受信したデータが表す音と、前記第1のユーザと異なる前記ユーザである第2のユーザに対応する前記送信先から受信したデータが表す音とを合成することと、実行させる音声処理プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、音声処理システム、音声処理装置、音声処理方法、及び音声処理プログラムに関する。
【背景技術】
【0002】
下記特許文献1には、アーティストがファンの前に姿を見せることなく、あたかもアーティストがその場で歌ったり、あるいは演奏したりしているかのような印象をファンに与えることができる技術が提案されている。音楽や芸能、スポーツ等の各種イベントのコンテンツを配信する分野において、新たな体験を提供できる技術が望まれている。
【先行技術文献】
【特許文献】
【0003】
【発明の概要】
【0004】
本発明の第1の態様に従えば、イベントに参加するユーザが発する音を検出するマイクと、イベントが開催される所定領域におけるイベントの演者の位置を表す演者位置と、所定領域におけるユーザの位置を表す観客位置との関係に基づいて、マイクが検出した音を調整する音調整部と、ユーザである第1のユーザに対応するマイクに検出されて音調整部に調整された音と、第1のユーザと異なるユーザである第2のユーザに対応するマイクに検出されて音調整部に調整された音とを合成する合成部と、合成部が合成した音を表すデータを出力する出力部と、を備える音声処理システムが提供される。
【0005】
本発明の第2の態様に従えば、イベントが開催される所定領域におけるイベントの演者の位置を表す演者位置と、イベントに参加するユーザの所定領域における位置を表す観客位置との関係を示す位置情報を受信する受信部と、ユーザから発せられてマイクに検出された音を、位置情報に基づいて調整する音調整部と、音調整部が調整した音を表すデータを送信する送信部と、を備える音声処理装置が提供される。
【0006】
本発明の第3の態様に従えば、イベントが開催される所定領域におけるイベントの演者の位置を表す演者位置と、イベントに参加するユーザの所定領域における位置を表す観客位置との関係を示す位置情報を送信する送信部と、ユーザから発せられて位置情報に基づいて調整された音のデータを、位置情報の送信先から受信する受信部と、ユーザである第1のユーザに対応する送信先から受信したデータが表す音と、第1のユーザと異なるユーザである第2のユーザに対応する送信先から受信したデータが表す音と、を合成する合成部と、を備える音声処理装置が提供される。
【0007】
本発明の第4の態様に従えば、イベントに参加するユーザが発する音をマイクによって検出することと、イベントが開催される所定領域におけるイベントの演者の位置を表す演者位置と、所定領域におけるユーザの位置を表す観客位置との関係に基づいて、マイクが検出した音を音調整部によって調整することと、ユーザである第1のユーザに対応するマイクに検出されて音調整部に調整された音と、第1のユーザと異なるユーザである第2のユーザに対応するマイクに検出されて音調整部に調整された音とを合成部によって合成することと、合成部が合成した音を表すデータを出力することと、を含む音声処理方法が提供される。
【0008】
本発明の第5の態様に従えば、コンピュータに、イベントが開催される所定領域におけるイベントの演者の位置を表す演者位置と、イベントに参加するユーザの所定領域における位置を表す観客位置との関係を示す位置情報を受信することと、ユーザから発せられてマイクに検出された音を、位置情報に基づいて調整することと、調整した音を表すデータを送信することと、を実行させる音声処理プログラムが提供される。
【0009】
本発明の第6態様に従えば、コンピュータに、イベントが開催される所定領域におけるイベントの演者の位置を表す演者位置と、イベントに参加するユーザの所定領域における位置を表す観客位置との関係を示す位置情報を送信することと、ユーザから発せられて位置情報に基づいて調整された音のデータを、位置情報の送信先から受信することと、ユーザである第1のユーザに対応する送信先から受信したデータが表す音と、第1のユーザと異なるユーザである第2のユーザに対応する送信先から受信したデータが表す音とを合成することと、実行させる音声処プログラムが提供される。
【図面の簡単な説明】
【0010】
【
図1】第1実施形態に係る音声処理システムを示す図である。
【
図2】第1実施形態に係る端末を設定する処理を示す図である。
【
図3】第1実施形態に係る音声処理システムを示す図である。
【
図4】第1実施形態に係る音声の調整方法の例を示す図である。
【
図5】第1実施形態に係る音声処理方法を示す図である。
【
図6】第2実施形態に係る音声処理システムを示す図である。
【
図7】第2実施形態に係る音声処理方法作を示す図である。
【
図8】第3実施形態に係る音声処理システムを示す図である。
【
図9】第3実施形態に係るグループの例を示す図である。
【
図10】第4実施形態に係る音声処理システムを示す図である。
【発明を実施するための形態】
【0011】
[第1実施形態]
第1実施形態について説明する。
図1は、第1実施形態に係る音声処理システムを示す図である。音声処理システム1は、例えば、各種イベントにおけるコンテンツを配信するサービス(適宜、コンテンツ配信サービスという)に利用される情報処理システムである。音声処理システム1は、演者Pのパフォーマンスが表現されたコンテンツを、観客であるユーザUへ配信する。音声処理システム1は、コンテンツを視聴するユーザUの反応を、演者Pに伝える。演者Pは、複数のユーザUの反応を意識して、後のパフォーマンスを行うことができる。複数のユーザUは、例えば、自身の反応によって変化するパフォーマンスを視聴することができる。複数のユーザUは、例えば、リモート環境でイベントに参加する場合であっても、臨場感を味わうことができる。このように、音声処理システム1は、各種イベントのコンテンツを配信する分野において、ユーザUへ新たな体験を提供できる。以下の説明において適宜、任意のユーザを符号Uで表し、ユーザUを区別する場合、ユーザUa、ユーザUbのように符号Uにアルファベットa、b、・・・を追加した符号で表す。
【0012】
音声処理システム1が利用される各種イベントは、例えば、音楽、演劇、娯楽、スポーツ、eスポーツ、競技、講演、講義、演説、対談、討論、及び実演販売の少なくとも1つに関するイベントを含む。音声処理システム1は、その他のイベントに利用されてもよい。イベントは、例えば、演者Pのスキルを観客に披露する場である。演者Pは、アーティスト、演奏者、歌手、俳優、芸人、話者、又は選手と呼ばれてもよい。観客は、聴衆、又は視聴者と呼ばれてもよい。イベントは、観客の少なくとも一部が有償で参加する形態でもよいし、観客の少なくとも一部が無償で参加する形態でもよい。イベントは、実空間で開催される形態でもよいし、仮想空間(適宜、サイバー空間と称す)で開催される形態でもよく、実空間および仮想空間で並行して開催される形態でもよい。
【0013】
図1の符号AEは、イベントが開催される所定領域(適宜、イベント会場AEと称す)である。イベント会場AEは、実空間の領域でもよいし、仮想空間の領域でもよい。イベント会場AEは、実空間に存在する施設をサイバー空間に再現または拡張したものでもよい。例えば、イベントの参加者は、演者Pがパフォーマンスを行う会場で参加する観客と、この会場をサイバー空間に再現した会場で参加する観客とを含んでもよい。
図1の符号P1は、イベント会場AEにおける演者の位置を表す演者位置である。演者位置P1は、例えば、イベント会場AEのステージAE1に対して予め設定される位置である。例えば、演者位置P1は、ステージAE1の中心でもよい。
【0014】
図1の符号APは、演者Pがパフォーマンスを行う領域(適宜、実演領域という)である。実演領域APは、例えば、イベント会場AEの外である。実演領域APは、実空間上の任意の領域である。実演領域APは、例えばスタジオである。実演領域APは、演者Pの住居内の領域でもよいし、商業施設内の領域でもよく、その他の領域でもよい。実演領域APは、屋内の領域でもよいし、屋外の領域(例、公園、建物の屋上)でもよい。
【0015】
演者Pは、1人でもよいし、複数人でもよい。複数の演者Pが存在する場合、第1の演者Pに対応する実演領域APは、第2の演者Pに対応する実演領域APと異なってもよい。1つの実演領域APに複数の演者Pが存在する場合、演者位置P1は、演者Pごとに定められてもよいし、複数の演者Pを代表する位置に定められてもよい。複数の演者Pの代表位置は、例えば、複数の演者Pのそれぞれの位置を座標で表し、複数の演者Pの座標の平均(例、複数の演者の位置の重心)でもよい。
【0016】
なお、実演領域APは、イベント会場AE内の領域でもよい。例えば、実演領域APは、実空間の会場におけるステージでもよい。演者位置P1は、固定でもよいし、可変でもよい。例えば、音声処理システム1は、実演領域APにおける演者Pの位置と移動との一方または双方を検出するセンサを備え、センサの検出結果に基づいて演者位置P1を決定してもよい。例えば、音声処理システム1は、演者Pが実演領域APの中央から外側へ向かって移動した場合、演者位置P1をステージAE1の中央から外側へ向かうように変更してもよい。
【0017】
図1の符号Qは、イベント会場AEにおける観客の位置を表す観客位置である。以下の説明において適宜、任意のユーザUの観客位置を符号Qで表し、観客位置を区別する場合に観客位置Qa、観客位置Qbのように、符号Qにアルファベットa、b、・・・を追加した符号で表す。観客位置Qaは、観客であるユーザUaの位置を表す。観客位置Qbは、ユーザUaと異なる観客であるユーザUbの位置を表す。観客位置Qbは、観客位置Qaに比べて、演者位置P1から離れた位置である。演者位置P1と観客位置Qaとの距離Laは、演者位置P1と観客位置Qbとの距離Lbよりも短い。
【0018】
図1の符号AUは、観客であるユーザUがイベントのコンテンツを視聴する領域(適宜、視聴領域AUという)である。視聴領域AUは、実空間の任意の領域である。視聴領域AUは、例えば、イベント会場AEの外である。視聴領域AUは、例えば、ユーザUの住居内の領域である。視聴領域AUは、ユーザUの住居内の領域と異なる領域でもよい。視聴領域AUは、カラオケボックス、映画館、劇場、飲食店(例、スポーツバー)などの施設の領域でもよい。視聴領域AUは、鉄道や航空機、船舶、車両などの移動体の領域でもよい。視聴領域AUは、イベント会場AE内の領域でもよい。例えば、イベント会場AEがドライブインシアターであって、視聴領域AUは、イベント会場AEに駐車した車両内の領域でもよい。視聴領域AUは、屋内でもよいし、屋外でもよい。
【0019】
以下の説明において適宜、任意の視聴領域を符号AUで表し、視聴領域AUを区別する場合、視聴領域AUa、視聴領域AUbのように、符号AUにアルファベットa、b、・・・を追加した符号で表す。例えば、視聴領域AUaは、ユーザUaがコンテンツを視聴する領域であり、視聴領域AUbは、ユーザUbがコンテンツを視聴する領域である。1つの視聴領域AUに存在する視聴者の数は、ユーザUのみの1人でもよいし、ユーザUを含む複数人でもよい。
【0020】
音声処理システム1は、処理装置2と、端末3と、カメラ4と、マイク5と、スピーカ6とを備える。カメラ4、マイク5、及びスピーカ6は、実演領域APに配置される。カメラ4、マイク5、及びスピーカ6は、処理装置2と接続される。例えば、カメラ4、マイク5、及びスピーカ6は、通信部を備える情報処理装置(例、コンピュータ)と有線または無線で接続さる。この情報処理装置は、例えばインターネット回線を介して、処理装置2と通信可能に接続される。端末3は、視聴領域AUに配置される。端末3は、例えばインターネット回線を介して、処理装置2と通信可能に接続される。
【0021】
カメラ4は、実演領域APでパフォーマンスを行う演者Pを撮影する。マイク5は、実演領域APでパフォーマンスを行う演者Pが発する音声を検出する。演者Pが発する音声は、例えば、演者Pが身体から発する音(例、声、手拍子)と、演者Pが道具(例、楽器)によって発する音との一方または双方を含む。カメラ4により撮影された映像のデータ、及びマイク5により検出された音声のデータは、処理装置2に提供される。スピーカ6は、演者Pに対して音声を出力する。スピーカ6は、処理装置2から提供される音声のデータに基づいて、音声を出力する。処理装置2は、実演領域APに設置された装置(例、カメラ4、マイク5)から提供されるデータ(例、映像のデータ、音声のデータ)を用いて、コンテンツを生成する。処理装置2は、生成したコンテンツのデータを、例えばインターネット回線を介して提供する。
【0022】
なお、音声処理システム1は、カメラ4と、マイク5と、スピーカ6との少なくとも1つを備えなくてもよい。例えば、カメラ4と、マイク5と、スピーカ6との少なくとも1つは、音声処理システム1の外部の装置でもよい。音声処理システム1は、上記外部の装置を利用する形態でもよい。実施形態に係るカメラは、撮像装置と呼ばれてもよい。実施形態に係るマイクは、音声検出装置と呼ばれてもよい。実施形態に係るスピーカは、音声出力装置と呼ばれてもよい。
【0023】
端末3は、例えば、視聴領域AUごとに配置される。以下の説明において適宜、視聴領域AUに配置される端末3を区別する場合、端末3a、端末3bのようにアルファベットを追加した符号で表す。例えば、端末3aは、視聴領域AUaに配置される端末であり、端末3bは、視聴領域AUbに配置される端末である。端末3bは、例えば、端末3aと同様の処理を実行する。以下の説明において適宜、端末3bにおいて端末3aと同様の構成については端末3aと同じ符号を付け、端末3bについて端末3aと重複する説明を省略あるいは簡略化する。
【0024】
端末3は、処理装置2が提供するコンテンツのデータを、例えばインターネット回線を介して取得する。端末3は、取得したデータを用いて、ユーザにコンテンツを提供する。また、端末3は、ユーザが発する音を検出する。ユーザが発する音は、例えば、ユーザが身体から発する音(例、声、手拍子)と、ユーザが道具(例、鳴り物)によって発する音との一方または双方を含む。以下の説明において適宜、ユーザが発する音を観客音という。端末3は、演者位置P1と自装置に関連付けられた観客位置Qとの関係に基づいて、観客音を調整する。例えば、端末3は、演者位置P1と観客位置Qとの距離が長いほど観客音の音量が小さくなるように、観客音を調整する。端末3は、調整した観客音のデータを、例えばインターネット回線を介して提供する。
【0025】
処理装置2は、複数の端末3から供給される観客音を合成し、合成した観客音のデータを提供する。実演領域APにおいて、スピーカ6は、処理装置2から供給される観客音のデータに基づいて、観客音を演者Pへ出力する。スピーカ6から出力される観客音Rは、例えば、ユーザUaからの観客音に由来する成分Raと、ユーザUbからの観客音に由来する成分Rbとを含む。ユーザUaに対応する観客位置Qaは、ユーザUbに対応する観客位置Qbに比べて演者位置P1に近く、ユーザUaの観客音に由来する成分Raは、ユーザUbの観客音に由来する成分Rbに比べて音量が大きい。
【0026】
スピーカ6から出力される観客音は、観客位置Qに基づいて調整された成分を含むので、例えば演者へライブ感を伝えることに寄与する。演者Pは、例えば、ライブ感がある観客音を聞くことで、複数のユーザUの反応に応えるようにパフォーマンスを行うことができる。その結果、複数のユーザUは、例えばライブ感のあるパフォーマンスのコンテンツを楽しむことができる。
【0027】
本実施形態において、ユーザUは、イベントの開催前にイベント参加の申し込み(適宜、参加申請という)を行う。ここでは、参加申請の申請先は、イベント開催者であるとする。イベント開催者は、ユーザUの参加を受け入れる場合、ユーザU向けに端末3を設定する。例えば、イベント開催者は、
図1で説明したサービスの提供に用いる各種情報(例、データ、プログラム)を端末3に記憶させる。イベント開催者は、設定された端末3をユーザUに提供する。ユーザUは、イベント開催者から提供された端末3を利用して、イベントに参加してンテンツを視聴しつつ、反応を演者Pに伝えることができる。このように、本実施形態に係る端末3は、イベントへ参加する権利を示すチケットを兼ねる。
【0028】
図2は、第1実施形態に係る端末を設定する処理を示す図である。ユーザUaは、イベントの開催に先立ち、イベントへの参加を申請する。ユーザUaは、例えば、コンビニエンスストア等の店舗に設置される端末(適宜、予約端末7という)を操作し、参加申請に関する情報(適宜、エントリー情報という)を入力する。エントリー情報は、例えば、ユーザUaを特定する情報と、ユーザUaが参加を希望するイベントを特定する情報と、ユーザUaが希望するイベント会場AEの席の情報とを含む。
【0029】
ユーザを特定する情報は、例えば、ユーザの氏名や識別情報などである。以下の説明において適宜、ユーザを特定する情報を、ユーザIDという。イベントを特定する情報は、例えば、各イベントに割り付けられた識別情報(例、番号)やイベントの名称などである。以下の説明において適宜、イベントを特定する情報をイベントIDという。席の情報は、例えば、席のランク(S席、A席)を指定する情報と、席の条件(例、二階席、アリーナ、通路側)を指定する情報と、席の番号を指定する情報との少なくとも1つを含む。
【0030】
予約端末7に入力されたエントリー情報は、申請先の端末(適宜、受付端末8という)へ提供される。例えば、予約端末7は、インターネット回線に接続され、エントリー情報を送信する。受付端末8は、予約端末7が送信したエントリー情報を受信する。
【0031】
受付端末8は、例えば、ユーザ情報を管理するサーバである。受付端末8は、記憶部11と、通信部12とを備える。通信部12は、予約端末7と通信可能に接続され、予約端末7が送信したエントリー情報を受信する。受付端末8は、ユーザから提供される参加申請を取得する申請取得部を含む。受付端末8は、受信したエントリー情報に基づいて、ユーザUaのイベント会場AEにおける席を決定する。受付端末8は、例えば、抽選によって席を決定する。受付端末8は、抽選と異なる方法で席を決定してもよいし、抽選とその他の方法とを組み合わせた方法で席を決定してもよい。例えば、受付端末8は、エントリー情報を受信した順に、エントリー情報に対応するユーザUに席を割り当ててもよいし、エントリー情報に示される席の情報に基づいて席を決定してもよい。
【0032】
受付端末8の記憶部11は、ユーザ情報D1を記憶する。ユーザ情報D1は、例えば、ユーザIDと、ユーザUaの席として決定された席を特定する識別情報と含む。以下の説明において適宜、席を特定する識別情報を席IDという。ユーザ情報D1は、例えば、複数のユーザUのそれぞれについて、ユーザIDと席IDとを関連付けたテーブルデータを含む。ユーザ情報D1は、ユーザIDおよび席IDと異なる情報を含んでもよい。例えば、ユーザ情報D1は、ユーザUaが過去に参加したイベントの履歴を含んでもよい。ユーザ情報D1は、各ユーザUの年齢、性別、及びその他の属性情報の少なくとも1つを含んでもよい。記憶部11が記憶するユーザ情報D1の少なくとも一部は、処理装置2へ提供される。
【0033】
受付端末8は、第1のユーザが過去のイベントに参加した履歴に基づいて、過去のイベントよりも後のイベントに第1のユーザが参加する際の座席を決定してもよい。例えば、記憶部11に記憶されるユーザ情報D1は、各ユーザが過去のイベントに参加した履歴(適宜、参加履歴という)を含む。受付端末8は、例えば、ユーザ情報D1に含まれる参加履歴を用いて、第1のユーザの今回の参加申請に対する席を決定する。例えば、実施形態に係るコンテンツ配信サービスのおいて、ユーザには、イベントに参加した回数に応じた属性(例、ランク)が付与される。例えば、ユーザのランク(例、シルバー、ゴールド、プラチナ)は、イベントの参加回数が増えるにつれて高くなる。受付端末8は、ユーザのランクが高いほど、今回のイベントにおける第1のユーザの席として、優遇された席を決定してもよい。優遇された席は、例えば、
図1に示したイベント会場AEにおいて相対的にステージAE1に近い席である。ユーザのランクは、参加回数以外のパラメータにより決定されてもよく、例えば、イベントの参加に費やした金額に応じて決定されてもよい。ユーザのランクは、1つのパラメータによって決定されてもよいし、複数のパラメータによって決定されてもよく、抽選等によってランダムに決定されてもよい。
【0034】
処理装置2は、ユーザUaの参加申請に基づいて、ユーザUaの観客位置Qを決定する。処理装置2は、処理部21と、記憶部22と、通信部23とを備える。通信部23は、受付端末8と通信可能に接続される。通信部23は、受付端末8が送信したユーザ情報を受信する。記憶部22は、イベント会場AEの演者位置P1(
図1参照)の情報D2を記憶する。記憶部22が記憶する演者位置P1の情報D2は、例えばサイバー空間における座標である。
【0035】
処理部21は、位置決定部24を含む。位置決定部24は、ユーザからのイベントへの参加申請に基づいて、イベントが開催される所定領域(例、
図1のイベント会場AE)におけるユーザの位置を表す観客位置Qを決定する。位置決定部24は、例えば、申請取得部である受付端末8が取得した参加申請に基づいて、観客位置Qを決定する。例えば、位置決定部24は、参加申請に基づいて決定される座席IDに対応するサイバー空間上の座標を導出し、導出した座標を観客位置Qとして決定する。位置決定部24は、座席IDに対応する、演者位置P1と同じ座標系における座標を導出する。例えば、記憶部22は、座席IDと観客位置Qとを関連付けたマップデータを記憶する。位置決定部24は、通信部23が受信したユーザ情報に含まれる座席IDを取得し、この座席IDを上記マップデータと照合して観客位置Qを決定する。位置決定部24は、例えば複数のユーザUのそれぞれの観客位置Qを決定することによって、複数の観客位置Qの相対的な位置を決定する。
【0036】
位置決定部24は、第1のユーザ(例、ユーザUa)が過去のイベントに参加した履歴に基づいて、過去のイベントよりも後のイベントに第1のユーザが参加する際の観客位置Qを決定してもよい。例えば、位置決定部24は、受付端末8がユーザUaの参加履歴に基づいて決定した今回のイベントにおけるユーザUaの席に基づいて、この席に対応する観客位置Qを決定してもよい。
【0037】
処理部21は、演者位置P1と、位置決定部24が決定した観客位置Qとの関係を示す位置情報を生成する。位置情報は、例えば、演者位置P1と観客位置Qとの距離(例、
図1の距離La)を含む。位置情報は、演者位置P1から観客位置Qまでの距離と異なる情報を含んでもよい。例えば、位置情報は、演者位置P1と、観客位置Qとを一組にした情報を含んでもよい。位置情報は、演者位置P1と観客位置Qとを結ぶ方向の情報(例、ベクトル)を含んでもよい。位置情報は、演者位置P1と観客位置Qとの間の空間の情報(例、観客位置Qから演者位置P1へ向かう音の減衰のレベルを示す情報、障害物の有無)を含んでもよい。位置情報は、演者位置P1と観客位置Qとの距離、演者位置P1と観客位置Qとを一組にした情報、演者位置P1と観客位置Qとを結ぶ方向の情報、及び演者位置P1と観客位置Qとの間の空間の情報の少なくとも1つを含まなくてもよく、これら情報のいずれとも異なる情報を含んでもよい。
【0038】
処理装置2が生成した位置情報は、端末3aに供給される。端末3は、記憶部31と、通信部32とを備える。通信部32は、例えば、処理装置2の通信部23と通信可能に接続される。通信部32は、処理装置2の通信部23が送信した位置情報を受信する。端末3は、通信部23が受信した位置情報を、記憶部31に記憶させる。端末3aは、
図1に示した演者位置P1と、ユーザUaの参加申請に基づいて決定される観客位置Qaとの関係を示す位置情報D3aを記憶する。端末3aは、例えば郵送などによってユーザUaに提供され、ユーザUaがイベントに参加する際に利用される。
【0039】
端末3bは、端末3aと同様の構成である。端末3bは、
図1に示した演者位置P1と、ユーザUbの参加申請に基づいて決定される観客位置Qbとの関係を示す位置情報D3bを記憶する。端末3bは、例えば宅配便などによってユーザUbに届けられ、ユーザUbがイベントに参加する際に利用される。以下の説明において適宜、任意のユーザUに対応する観客位置Qと演者位置P1との関係を示す位置情報を符号D3で表す。
【0040】
なお、予約端末7は、音声処理システム1の一部でもよいし、音声処理システム1の外部の装置でもよい。予約端末7は、ユーザUaが保有するスマートフォンやパーソナルコンピュータ等の端末でもよい。ユーザUbからのエントリー情報を受け付ける予約端末7は、ユーザUaからのエントリー情報を受け付ける予約端末7と同じ装置でもよいし、異なる装置でもよい。エントリー情報の少なくとも一部を予約端末7へ入力する処理は、ユーザUaと異なる者が実行してもよい。例えば、ユーザUaは、参加申請を店舗または電話で受付担当者へ伝え、受付担当者が予約端末7にエントリー情報を入力してもよい。参加申請の申請先は、イベント開催者でなくてもよい。例えば、参加申請の申請先は、イベント開催者から委託された受託者でもよいし、イベントに関するコンテンツの配信者でもよく、イベントの管理者でもよい。
【0041】
なお、ユーザUaの席を決定する処理は、申請先の担当者によって手動で実行されてもよい。例えば、ユーザUaは、参加申請が記入された申込用紙を申請先へ郵送し、申請先の担当者は、申込用紙に記載された情報に基づいてユーザUaの席を決定してもよい。申請先の担当者は、ユーザUaの席として決定された席IDをユーザIDとを関連付けて、受付端末8に入力してもよい。受付端末8または上記担当者は、イベントに参加する権利(適宜、参加権という)をユーザUaへ付与するか否かを決定し、その後に、ユーザUaの席を決定してもよい。例えば、定員を超える人数のユーザUから参加申請があった場合、又は参加申請があると予測される場合、受付端末8は、抽選によって参加権を付与するか否かを決定してもよい。
【0042】
なお、受付端末8は、音声処理システム1の一部でもよいし、音声処理システム1の外部の装置でもよい。例えば、処理装置2は、受付端末8を備えてもよい。受付端末8は、予約端末7を兼ねてもよい。処理装置2の機能は、複数の装置に分かれて実現されてもよく、これら複数の装置は、包括して処理システムと称されてもよい。
【0043】
なお、端末3に位置情報を記憶させる方法は、有線又は無線による通信を用いない方法でもよい。例えば、位置情報は、USBメモリ等の記録媒体を介して端末3に記憶されてもよい。端末3は、ユーザUに届けられる前に、位置情報を予め記憶しなくてもよい。例えば、処理装置2は、端末3に関連付けられる宛先を記憶し、ユーザUが端末3を受け取った後に、この宛先へ位置情報を送信してもよい。処理装置2は、上記宛先へ位置情報を送信することで、端末3に記憶される位置情報を更新させてもよい。
【0044】
図3は、第1実施形態に係る音声処理システムを示す図である。こでは、ユーザからの音を演者へ伝える際の音声処理システム1の各部の動作を説明する。処理装置2は、例えば、サーバコンピュータ等の情報処理装置を含む。処理装置2は、音声処理システム1の各部を管理する。処理装置2は、処理部21と、通信部23と、入力部25と、出力部26とを備える。処理装置2には、カメラ4と、マイク5と、スピーカ6とが接続されている。
【0045】
入力部25は、処理装置2の外部から信号が入力されるインターフェスを含む。入力部25には、カメラ4およびマイク5が接続される。処理装置2には、カメラ4によって撮影された映像のデータ、及びマイク5によって収集された音声のデータが入力される。出力部26は、処理装置2の外部へ信号を出力するインターフェースを含む。出力部26には、スピーカ6が接続される。カメラ4、マイク5、及びスピーカ6の少なくとも1つは、音声処理システム1の一部でもよいし、処理装置2の一部でもよい。カメラ4、マイク5、及びスピーカ6の少なくとも1つは、音声処理システム1の外部の装置でもよく、例えば
図1に示した実演領域APの設備でもよい。
【0046】
処理部21は、合成部27と、コンテンツ生成部28とを備える。コンテンツ生成部28は、入力部25に入力されるデータを用いて、コンテンツを生成する。コンテンツ生成部28は、例えば、演者Pのパフォーマンスが映像および音声で表現されたコンテンツを生成する。例えば、コンテンツ生成部28は、カメラ4から入力部25に入力される映像のデータと、マイク5から入力部25に入力される音声のデータを用いて、ユーザUに配信されるコンテンツを生成する。コンテンツ生成部28は、例えば、映像と音声との同期をとり、コンテンツとしてストリーミング動画を生成する。コンテンツ生成部28は、映像処理、各種音響処理、フィルタリング、及び圧縮処理の少なくとも1つを実行してコンテンツを生成してもよい。通信部23は、コンテンツ生成部28が生成したコンテンツのデータを送信する。
【0047】
端末3aは、記憶部31と、通信部32と、処理部33とを備える。通信部32は、処理装置2の通信部23と通信可能に接続される。通信部32は、通信部23が送信したコンテンツのデータを受信する。端末3aには、マイク41と、スピーカ42と、表示装置43とが接続される。マイク41およびスピーカ42は、ヘッドセットでもよい。表示装置43は、テレビジョンセット、PCモニター、プロジェクター等の画像を表示する装置である。
【0048】
端末3aの処理部33は、通信部32が受信したコンテンツのデータに基づいて、コンテンツの音声をスピーカ42に出力させる。端末3aの処理部33は、通信部32が受信したコンテンツのデータに基づいて、コンテンツの映像を表示装置43に表示させる。ユーザUaは、スピーカ42から出力される音声、及び表示装置43に表示される映像によって、演者Pのパフォーマンスを表現したコンテンツを視聴できる。マイク41は、イベントの演者Pを視聴するユーザが発する音を検出する。例えば、マイク41は、コンテンツを視聴するユーザUaの歓声や拍手を検出する。マイク41が検出した観客音のデータは、端末3aに出力される。端末3aの処理部33は、音調整部34を含む。音調整部34は、マイク41が検出した音を、演者位置P1と観客位置Qaとの関係に基づいて調整する。
【0049】
図4は、第1実施形態に係る音声の調整方法の例を示す図である。
図4の符号D5は、音調整部34に入力される音声のデータであり、符号D6は音調整部34から出力される音声のデータである。データD5およびデータD6のそれぞれにおいて、横軸は周波数であり、縦軸は振幅である。周波数は音の高さに対応し、振幅は音量に対応する。符号D7は、データD5をデータD6へ変換することに利用される関数(例、フィルタ)である。関数D7は、距離とゲインとの関係を示す関数である。ゲインは、距離に対する音の減衰率に相当する。本例において、音調整部34は、
図1に示した観客位置Qaと演者位置P1との距離Laを用いて、マイク41が検出した音の大きさを調整する。ここでは、ゲインは、可聴音の周波数帯(例、20Hz以上20kHz以下)において一定であるとする。
【0050】
ゲインは、距離に対して一意に定まる値である。例えば、
図1に示した距離Laに対して、ゲインはG1と定まる。音調整部34は、ユーザUaの観客音を表すデータD5の振幅にゲインG1を作用させることで、データD6を生成する。音調整部34は、例えば、マイク41が検出した第1の音を、第1の音が観客位置Qで発せられた場合に演者位置P1に届く第2の音に近づけるように調整する。マイク41とユーザUaとの距離は、例えば、
図1に示した視聴領域AUaの種類(例、自宅、映画館)、コンテンツの視聴に利用される装置の種類(例、スマートフォン、パソコン、テレビジョンセット)、装置の配置などによって概ね定まる。
【0051】
ここで、
図1に示した演者位置P1と観客位置Qaとの距離Laは、例えば20メールであるとする。端末3aがユーザUaの自宅の居間に配置され、テレビジョンセットに接続されるものとし、マイク41とユーザUaとの距離が2メートルであるとする。この場合、演者位置P1と観客位置Qaとの距離La(例20メートル)は、マイク41とユーザUaとの距離(例、2メートル)よりも長い。音調整部34は、例えばユーザUaから2メートル離れたマイク41によって検出された観客音が、観客位置Qaで発せられた場合に観客位置Qaから20メートル離れた演者位置P1で聞こえる音へ近づくように、音量を調整する。例えば、データD6は、観客音が観客位置Qaで発せられた場合に演者位置P1で聞こえる観客音のデータに相当する。
図4の例では、距離Laに対応するゲインG1が1未満であり、データD6は、データD5に比べて振幅が減少する。データD6が表す音声は、データD5が表す音声に比べて音量が小さく、観客音が観客位置Qaで発せられた場合に演者位置P1で聞こえる観客音を表すデータに相当する。
【0052】
なお、音調整部34は、周波数に対する振幅を表す波形を調整してもよい。例えば、音調整部34は、周波数帯によって異なるゲインを用いて、観客音を調整してもよい。例えば、音調整部34は、観客音のうち相対的に高音域の成分を、相対的に低音域の成分よりも減衰させてもよい。音調整部34は、観客音を減衰させなくてもよく、観客音を増幅してもよい。音調整部34は、マイク41によって検出された観客音を、この観客音が観客位置Qで発せられた場合に演者位置P1に届く観客音に比べて音量が大きくなるように、調整してもよい。音調整部34は、マイク41によって検出された観客音が所定値を超える音量である場合に所定値を超える音量をカットし、音量がカットされた観客音を、観客位置Qと演者位置P1との関係に基づいて調整してもよい。音調整部34は、調整された観客音の音量が所定値を超えないように、観客音を調整してもよい。
【0053】
音調整部34は、マイク41の位置とユーザUの位置との関係を表す情報と、観客位置Qと演者位置P1との関係を表す情報とを用いて、観客音を調整してもよい。マイク41の位置とユーザUの位置との関係を表す情報は、例えば、マイク41とユーザUaとの距離である。音調整部34は、マイク41とユーザUaとの距離として、センサーにより検出される値を用いてもよい。音調整部34は、マイク41とユーザUaとの距離として、予め定められた値を用いてもよい。マイク41とユーザUaとの距離は、例えば、音声処理システム1により提供されるサービスの利用規約に定められる範囲内の値(例、推奨値)でもよい。
【0054】
図3の説明に戻り、本実施形態に係る音調整部34は、記憶部31に記憶された位置情報D3aを用いて、観客音を調整する。位置情報D3aは、例えば、
図1に示した観客位置Qaと演者位置P1との距離Laを含む。音調整部34は、例えば、
図4に示した関数D7を用いて、距離Laに対するゲインG1を取得する。例えば関数D7は記憶部31に記憶され、音調整部34は、記憶部31から関数D7および位置情報D3a(例、距離La)を読出し、ゲインG1を導出する。音調整部34は、マイク41が検出した観客音を示すデータD5(
図4参照)に対して、導出したゲインG1を作用させることで、データD6(
図4参照)を生成する。以下の説明において適宜、音調整部34によって調整された観客音を調整後の観客音という。データD6は、調整後の観客音を表すデータである。
【0055】
なお、位置情報D3aは、例えばサイバー空間上の座標で表された観客位置Qaと演者位置P1とを一組にした情報を含んでもよい。この場合、音調整部34は、観客位置Qaと演者位置P1とを用いて、観客位置Qaと演者位置P1との距離Laを算出してもよい。関数D7は、端末3の外部に記憶されてもよく、音調整部34は、関数D7を表す情報を、端末3の外部から通信部32を介して取得してもよい。関数D7は、数式で表されてもよいし、テーブルデータで表されてもよい。位置情報D3aは、観客位置Qaから演者位置P1へ伝わる音の変化を表す情報(例、ゲインG1)を含んでもよい。この場合、音調整部34は、
図4に示した関数D7を用いないで観客音を調整してもよい。
【0056】
端末3は、調整後の観客音のデータを端末3の外部へ提供する。例えば、端末3の処理部33は、通信部32を制御し、調整後の観客音のデータを送信させる。処理装置2は、端末3が提供した調整後の観客音のデータを取得する。例えば、処理装置2の通信部23は、端末3の通信部32が送信した調整後の観客音のデータを受信する。処理装置2は、ユーザUaに対応する端末3aから、ユーザUaの調整後の観客音のデータを取得する。処理装置2は、ユーザUbに対応する端末3bから、ユーザUbの調整後の観客音のデータを取得する。
【0057】
合成部27は、ユーザUaに対応するマイク41に検出されて端末3aの音調整部34に調整された観客音と、ユーザUbに対応するマイク41に検出されて端末3bの音調整部34に調整された観客音とを合成する。合成部27は、端末3aから取得した観客音のデータと、端末3bから取得した観客音のデータとを重畳し、合成された観客音を表すデータを生成する。以下の説明において適宜、合成部27が合成した調整後の観客音を、合成後の観客音という。
【0058】
出力部26は、合成部27が合成した観客音を表すデータを出力する。例えば、出力部26は観客音のデジタルデータを出力し、このデジタルデータはアンプによってアナログデータ(例、音声信号)へDA変換されて、スピーカ6に入力される。スピーカ6は、アナログデータを振動へ変換して、合成後の観客音を出力する。上記アンプは、処理装置2が備えてもよいし、スピーカ6が備えてもよく、処理装置2とスピーカ6との間に接続される装置が備えてもよい。処理装置2が外部へ提供する合成後の観客音のデータは、デジタルデータでもよいし、アナログデータ(例、音声信号)でもよい。処理装置2は、通信部23から通信によって観客音のデータを出力してもよい。この場合、通信部23は、合成部27が合成した音を表すデータを出力する出力部であってもよい。
【0059】
演者Pは、例えば、スピーカ6から出力された観客音を聞きながらパフォーマンスをすることができる。マイク5は、例えば、スピーカ6による観客音の出力と同期して、音を検出する。マイク5は、スピーカ6から出力される観客音と、演者Pが発する音とを合わせて検出する。カメラ4は、例えば、スピーカ6から観客音が出力されるタイミングに対して所定のタイミングで音を検出する。カメラ4は、マイク5による音の検出と同期して、演者Pを撮影する。スピーカ6から音が出力されるタイミングと、マイク41が音を検出するタイミングと、カメラ4が演者Pを撮影するタイミングとのうち、少なくとも2つのタイミングは、処理装置2またはその他の装置によって制御されてもよい。
【0060】
処理装置2は、マイク5によって検出された音声、及びカメラ4によって撮影された映像を取得する。コンテンツ生成部28は、マイク5によって検出された音声、及びカメラ4によって撮影された映像を用いてコンテンツのデータを生成する。処理装置2は、コンテンツ生成部28が生成したコンテンツを配信する。例えば、通信部23は、コンテンツ生成部28が生成したコンテンツのデータを送信する。コンテンツ生成部28が生成したコンテンツに含まれる音は、スピーカ6から出力された合成後の観客音と、演者Pが発した音とを含む。ユーザUは、例えば、合成された観客音と演者Pが発する音とを含む音を聞きながら、演者Pの映像を視聴することができる。このように、通信部23は、演者Pが発する音と、音調整部34によって調整された音とが合成された音のデータを出力する出力部でもよい。
【0061】
なお、マイク5は、スピーカ6から出力される観客音を検出しなくてもよい。例えば、スピーカ6は、イヤホンやヘッドフォンでもよい。マイク5およびスピーカ6は、ヘッドセットでもよい。この場合、処理装置2のコンテンツ生成部28は、マイク5が検出した音声(例、演者Pが発する音)と、合成部27が合成した観客音とを合成して、コンテンツを生成してもよい。処理装置2が配信するコンテンツは、合成後の観客音を含まなくてもよい。この場合においても、演者Pは、例えば合成後の観客音に応じたパフォーマンスをすることができ、ユーザは、例えば観客に反応する演者Pのパフォーマンスを視聴することで、臨場感を味わうことができる。
【0062】
なお、コンテンツ生成部28は、
図3において合成部27と同じ装置に設けられるが、合成部27と別の装置に設けられてもよい。例えば、合成部27は、複数の端末3から提供される観客音のデータを処理する第1のストリーミングサーバに設けられてもよい。コンテンツ生成部28は、実演領域APに配置される装置(例、カメラ4、マイク5)から提供されるデータを処理する第2のストリーミングサーバに設けられてもよい。
【0063】
なお、端末3は、イベントの終了後にユーザからイベント開催者へ返還されてもよいし、返還されなくてもよい。端末3は、今回のイベント以降のイベントにおいて再利用されてもよい。例えば、ユーザUaは、第1イベントの後の第2イベントへの参加申請を行う。処理装置2は、第2イベントへの参加申請に基づいて第2イベントにおける観客位置Qaを決定する。処理装置2は、第2イベントにおける観客位置Qaに対応する位置情報D3aを端末3aへ提供する。端末3aの音調整部34は、第2イベントに対応する位置情報D3aを用いて、マイク41が検出した観客音を調整してもよい。
【0064】
なお、
図1から
図3等では、ユーザUとして、ユーザUaおよびユーザUbの2人を代表的に示されている。ユーザUの数は、
図1から
図3等では2人であるが、任意の数である。例えば、ユーザUの数は、100人でもよいし、1万人でもよく、1万人でもよい。
【0065】
次に、上述の音声処理システム1の構成に基づき、実施形態に係る音声処理方法について説明する。
図5は、第1実施形態に係る音声処理方法を示す図である。音声処理システム1の構成については適宜、
図1から
図3を参照する。
図5に示す各処理は、例えばイベントの開催中に音声処理システム1の各部によって実行される。
図2を参照して説明したように、イベントの開催前に、位置決定部24はユーザUの参加申請に基づいて観客位置Qを決定し、観客位置Qに対応する位置情報を記憶した端末3がユーザに届けられる。
【0066】
図5において、第1ユーザは
図1から
図3のユーザUaに相当し、第1ユーザ端末は、ユーザUaに対応する端末3aに相当する。第2ユーザは
図1から
図3のユーザUbに相当し、第2ユーザ端末は、ユーザUbに対応する端末3bに相当する。
【0067】
処理装置は、ステップS1においてコンテンツを送信する。例えば、
図3の処理装置2の通信部23は、コンテンツのデータを送信する。第1ユーザ端末は、処理装置が送信したコンテンツのデータを受信する。第1ユーザ端末は、受信したコンテンツのデータに基づいて、コンテンツを再生する。第1ユーザ端末は、ステップS2において、第1ユーザからの観客音を検出する。第1ユーザ端末は、ステップS3において、観客音を位置情報を用いて調整する。例えば、
図3の端末3aの音調整部34は、記憶部31に記憶された位置情報D3aを用いて、ステップS2において検出された観客音を調整する。第1ユーザ端末は、ステップS4において調整後の観客音のデータを送信する。例えば、
図3の端末3aの通信部32は、調整後の観客音のデータを送信する。処理装置は、第1ユーザ端末がステップS4において送信した調整後の観客音のデータを受信する。
【0068】
ステップS5からステップS7の処理は、ステップS2からステップS4の処理と同様である。第2ユーザ端末は、ステップS1において処理装置が送信したコンテンツのデータを受信する。第2ユーザ端末は、ステップS5において、第2ユーザからの観客音を検出する。第2ユーザ端末は、ステップS6において、観客音を、位置情報を用いて調整する。第2ユーザ端末は、ステップS7において調整後の観客音のデータを送信する。処理装置は、第2ユーザ端末がステップS7において送信した調整後の観客音のデータを受信する。
【0069】
処理装置は、ステップS8において、調整後の観客音を合成する。例えば、
図3の処理装置2の合成部27は、端末3aから送信された観客音のデータと、端末3bから送信された観客音のデータとを合成する。処理装置は、ステップS9において、合成後の観客音を演者へ出力する。例えば、処理装置2は、合成後の観客音のデータをスピーカ6へ出力し、演者Pに対して、観客音をスピーカ6によって出力する。処理装置は、ステップS10において、合成後の観客音を含むコンテンツを送信する。例えば、
図3のマイク5は、演者Pが発する音と、スピーカ6から出力される音とを含む音を検出する。そして、処理装置2のコンテンツ生成部28は、マイク5が検出した音を用いてコンテンツを生成する。処理装置2の通信部23は、コンテンツ生成部28が生成したコンテンツのデータを送信する。
【0070】
第1ユーザ端末および第2ユーザ端末は、それぞれ、処理装置が送信したコンテンツのデータを受信する。第1ユーザ端末および第2ユーザ端末は、受信したコンテンツのデータに基づいて、コンテンツを再生する。ステップS2からステップS10の処理は、例えばイベントの開催中に繰り返し実行される。ステップS2からステップS10の一連の処理が繰り返される周期は、任意に設定される。
【0071】
上述の実施形態に係る音声処理システム1おいて、位置決定部24は、ユーザUからのイベントへの参加申請に基づいて、イベントが開催される所定領域(例、イベント会場AE)におけるユーザUの位置を表す観客位置Qを決定する。マイク41は、イベントの演者P(例、コンテンツ)を視聴するユーザUが発する音を検出する。音調整部34は、マイク41が検出した音を、所定領域におけるイベントの演者の位置を表す演者位置P1と観客位置Qとの関係に基づいて調整する。合成部27は、ユーザUである第1ユーザ(例、ユーザUa)に対応するマイク41に検出されて音調整部34に調整された音と、第1ユーザと異なるユーザUである第2ユーザ(例、ユーザUb)に対応するマイク41に検出されて音調整部34に調整された音とを合成する。出力部26は、合成部27が合成した音を表すデータを出力する。
【0072】
この音声処理システム1は、演者PにユーザUの反応を伝えることができる。演者Pは、例えば、ユーザUの反応を意識したパフォーマンスを行うことができる。ユーザUは、例えば自身の反応によって影響を受けたパフォーマンスを視聴することができる。このように、実施形態に係る音声処理システム1は、新たな体験を提供できる。
【0073】
本実施形態において、申請取得部(例、受付端末8)は、ユーザUから提供される参加申請を取得する。位置決定部24は、申請取得部が取得した参加申請に基づいて、観客位置Qを決定する。この場合、例えば、参加申請の取得から観客位置Qの決定までの処理を自動で行うことができる。なお、音声処理システム1は、申請取得部(例、受付端末8)を備えなくてもよい。例えば、処理装置2には、イベントへ参加するユーザの情報が入力され、位置決定部24は、この情報を用いて観客位置を決定してもよい。
【0074】
イベントに参加するユーザの少なくとも一部(例、第1ユーザ)は、例えば、所定領域(例、イベント会場AE)の外で演者Pを視聴する。第1ユーザ(例、ユーザUa)に対応するマイク41は、第1ユーザが発する音を検出する位置(例、視聴領域AUa)に配置される。この形態によれば、イベントに参加可能なユーザの数は、実空間のみでイベントが開催される形態と比較して、イベント会場の広さの制約を受けにくくなる。例えば、この形態によれば、実空間の会場でイベントに参加する他、実空間の会場の外からイベントに参加することが可能になり、実空間の会場の収容人数を超える人数の観客がイベントに参加できる。この形態によれば、例えば、より多くの観客がイベントを楽しむことができる。この形態によれば、例えば実空間の会場から遠方に住むユーザに会場の外で参加する機会を創出し、ユーザの利便性を図ることができる。
【0075】
演者Pは、例えば、所定領域(例、イベント会場AE)の外でパフォーマンスを行う。合成部27が合成した音のデータは、演者Pへ音が届く位置(例、実演領域AP)に配置される音声出力装置(例、スピーカ6)へ提供される。この形態によれば、演者Pが実空間のイベント会場でパフォーマンスを行う形態と比べて、演者Pが実在する位置がイベント会場の位置の制約を受けにくくなる。例えば、複数の演者Pが存在し、一部の演者Pが他の演者Pと離れている場合でもイベントを行うことができる。
【0076】
本実施形態において、端末3は、音調整部34と、音調整部34が調整した音のデータを送信する送信部(例、通信部32)とを備える第1音声処理装置に相当する。処理装置2は、第1音声処理装置の送信部が送信したデータを受信する受信部(例、通信部23)と、受信部が受信したデータが表す音を合成する合成部27とを備える第2音声処理装置に相当する。この形態によれば、例えば、複数のユーザの観客を調整する処理が複数の第1音声処理装置に分散され、第2音声処理装置の負荷を軽減できる。第2音声処理装置の送信部は、演者位置と、位置決定部が決定した観客位置との関係を示す位置情報を送信してもよい。第1音声処理装置の受信部は、第2音声処理装置の送信部が送信した位置情報を受信してもよい。第1音声処理装置の音調整部は、第1音声処理装置の受信部が受信した位置情報に基づいて、第1音声処理装置のマイクが検出した音を調整してもよい。
【0077】
本実施形態において、音声処理システム1は、仮想的な情報と実体的な情報とを種々組み合わせてコンテンツを生成してもよい。例えば、イベント会場AEは、実際の施設や場所(コンサートホール、球場、イベント用ステージ等)を含んでもよい。イベント会場AEは、仮想的な施設や環境(仮想空間に構築されたステージや、海、山あるいは空等)を含んでもよい。音声処理システム1は、ユーザから発せられた観客音の他に、イベント用に生成された人工的な観客音と効果音を用いて、コンテンツを生成してもよい。
【0078】
本実施形態において、端末3と処理装置2との一方または双方は、コンピュータを含む。実施形態に係るコンピュータは、例えば、スマートフォン、タブレット、若しくはノートパソコンなどの携帯型の装置、又はサーバー装置、デスクトップ型パソコン、若しくはタワー型パソコン等の据置型の装置の少なくとも1つを含む。コンピュータは、例えば、処理部と、記憶部と、通信部と、入出力インターフェースとを備える。
【0079】
処理部は、例えば、汎用のプロセッサー(例、CPU)を含む。記憶部は、例えば、不揮発性の記憶装置と、揮発性の記憶装置との一方または双方を含む。不揮発性の記憶装置は、例えばハードディスク、ソリッドステートドライブ等である。揮発性の記憶装置は、例えば、ランダムアクセスメモリ、キャッシュメモリ、ワークメモリなどのである。通信部は、所定の通信規格に準拠して、有線または無線の通信を行う。通信部は、通信規格が異なる2種以上の通信を組み合わせて通信を行ってもよい。所定の通信規格は、LANを含んでもよいし、Bluetooth(登録商標)などの近距離無線通信規格を含んでもよく、赤外線通信の規格又はその他の規格を含んでもよい。
【0080】
なお、端末3は、処理装置、情報処理装置、電子機器、又はその他の名称で呼ばれてもよい。端末3の少なくとも一部の処理は、デジタルシグナルプロセッサにより実行されてもよいし、特定用途向け集積回路によって実行されてもよい。処理装置2は、端末、情報処理装置、電子機器、又はその他の名称で呼ばれてもよい。処理装置2の少なくとも一部の処理は、デジタルシグナルプロセッサにより実行されてもよいし、特定用途向け集積回路によって実行されてもよい。
【0081】
端末3がコンピュータである場合、その処理部は、記憶部に記憶されているプログラムを読み出し、このプログラムに従って各種の処理を実行する。このプログラムは、例えば、コンピュータに、ユーザからのイベントへの参加申請に基づいて決定される、イベントが開催される所定領域におけるユーザの位置を表す観客位置と、所定領域におけるイベントの演者の位置を表す演者位置との関係を示す位置情報を受信することと、イベントの演者を視聴するユーザから発せられてマイクにより検出された音を、位置情報に基づいて調整することと、イベントに参加する複数のユーザについて音調整部が調整した音を合成部を備える処理装置に、音調整部が調整した音を表すデータを送信することと、を実行させる音声処理プログラムを含む。このプログラムは、コンピュータ読み取り可能な記憶媒体に記録されて提供されてもよい。
【0082】
処理装置2がコンピュータである場合、その処理部は、記憶部に記憶されているプログラムを読み出し、このプログラムに従って各種の処理を実行する。このプログラムは、例えば、コンピュータに、ユーザからのイベントへの参加申請に基づいて、イベントが開催される所定領域におけるユーザの位置を表す観客位置を決定することと、所定領域におけるイベントの演者の位置を表す演者位置と観客位置との関係を示す位置情報を、イベントの演者を視聴するユーザから発せられてマイクにより検出された音を位置情報に基づいて調整する音調整部を備える処理装置に送信することと、音調整部が調整した音を表し処理装置が送信するデータを受信することと、受信部が受信したデータに基づいて、ユーザである第1のユーザに対応するマイクに検出されて音調整部に調整された音と、第1のユーザと異なるユーザである第2のユーザに対応するマイクに検出されて音調整部に調整された音とを合成し、合成した音を表すデータを出力することと、を実行させる音声処プログラムを含む。
【0083】
実施形態に係るプログラムは、実施形態に係る機能を、コンピュータシステムに記録されているプログラムとの組み合わせで実現できるプログラム(例、差分ファイル、差分プログラム)でもよい。実施形態に係るプログラムは、コンピュータ読み取り可能な記憶媒体に記録されて提供されてもよい。
【0084】
[第2実施形態]
第2実施形態について説明する。本実施形態において、上述の実施形態と同様の構成については、同じ符号を付してその説明を省略あるいは簡略化する。
図6は、第2実施形態に係る音声処理システムを示す図である。本実施形態において、端末3は、この端末3を使用するユーザUと関連付けられた端末である。例えば、端末3aは、ユーザUaが所有する端末である。端末3aは、例えば、スマートフォン、タブレット、パーソナルコンピュータ、又はその他の情報処理装置である。端末3aは、例えば、端末3aを特定する情報と、ユーザUaを特定する情報とを記憶部31に記憶する。以下の説明において適宜、端末3を特定する情報を端末IDという。ユーザを特定する情報は、例えば、コンテンツ配信サービスにおけるアカウントの情報を含む。アカウントの情報は、例えば、ユーザIDおよびパスワードを含む。
【0085】
端末3aは、マイク41、スピーカ42、表示部45、及び入力部46を備える。表示部45は、
図3に示した表示装置43に相当する。入力部46は、各種情報の入力を受け付ける。入力部46は、例えば、キーボード、マウス、及びタッチパッドの少なくとも一つを含む。入力部46および表示部45は、タッチパネルでもよい。ユーザUaは、入力部46を操作することによって、各種情報を端末3aへ入力する。
【0086】
本実施形態において、端末3aは、
図2で説明した予約端末7を兼ねる。ユーザUaは、端末3aの入力部46を操作することによってエントリー情報を入力し、参加申請を行うことができる。エントリー情報は、例えば、ユーザID、及びイベントを特定する情報を含む。端末3aの通信部32は、エントリー情報を送信する。本実施形態において、処理装置2は、
図2で説明した受付端末8を兼ねる。処理装置2は、端末3aの通信部32が送信したエントリー情報を取得する。例えば、処理装置2の通信部32は、端末3aが送信したエントリー情報を受信する。
【0087】
処理装置2の記憶部22は、
図2で説明したユーザ情報D1を記憶する。処理装置2の処理部21は、受付部29を含む。受付部29は、
図2で説明した受付端末8による処理を実行する。受付部29は、イベントにおけるユーザの席を決定する。例えば、受付部29は、端末3aが送信したエントリー情報に含まれるイベントIDを取得する。受付部29は、イベントIDとイベントの情報とを関連付けて記憶するデータベースを参照し、イベントIDに対応するイベントの席の情報を取得する。受付部29は、端末3aが送信したエントリー情報に含まれるユーザIDを取得する。受付部29は、記憶部22に記憶されたユーザ情報D1から、ユーザIDに対応するユーザUaの情報(例、ユーザのランク)を取得する。受付部29は、イベントの席の情報(例、席のランク、空席の情報)と、ユーザUaの情報とを用いて、イベントにおけるユーザUaの席(例、席の番号)を決定する。
【0088】
処理装置2の位置決定部24は、受付部29が決定したユーザUaの席の情報を用いて、ユーザUaの観客位置Qaを決定する。処理部21は、演者位置P1と、位置決定部24が決定した観客位置Qaとの関係を示す位置情報を生成する。通信部23は、処理部21が生成した位置情報を送信する。ユーザUaに対応する端末3aの通信部32は、処理装置2の通信部23が送信した位置情報を受信する。端末3aの処理部33は、通信部32が受信した位置情報を記憶部31に記憶させる。
【0089】
端末3aの通信部32は、第1実施形態で説明したように、処理装置2が送信するコンテンツのデータを受信する。端末3aは、通信部32が受信したコンテンツのデータに基づいて、このコンテンツを再生する。例えば、処理部33は、コンテンツのデータが表す映像を表示部45に表示させる。処理部33は、コンテンツのデータが表す音声を、スピーカ42に出力させる。マイク41は、ユーザUaが発する観客音を検出する。音調整部34は、記憶部31に記憶されている位置情報D3aを用いて、マイク41が検出した観客音を調整する。通信部32は、調整後の観客音のデータを送信する。処理装置2の通信部23は、端末3aの通信部23が送信した調整後の観客音のデータを受信する。合成部27は、ユーザUaに対応する調整後の観客音と、ユーザUbに対応する調整後の観客音とを合成する。出力部26は、合成後の観客音のデータを出力し、スピーカ42に合成後の観客音を出力させる。
【0090】
本実施形態において、ユーザUは、観客位置Qを変更可能である。例えば、ユーザUaは、観客位置Qaの変更を、イベントの開催中に申請できる。ユーザUaは、例えば、端末3aを操作することによって、観客位置Qaの変更を要求する情報(適宜、変更申請という)を端末3aによって送信できる。端末3aの入力部46は、変更申請、又は変更申請のもとになる情報(適宜、変更申請等という)の入力を受け付ける。変更申請等は、ユーザUが希望する変更先の席の情報(適宜、変更先席情報という)を含む。
【0091】
端末3aの通信部32は、入力部46に入力された変更申請等に基づいて、変更申請を送信する。変更申請は、例えば、ユーザUaを特定する情報(例、ユーザID)とユーザUaと関連付けられた端末3aを特定する情報(例、端末ID)との一方または双方と、変更先席情報とを含む。記憶部31は、ユーザIDと端末IDとの一方または双方を予め記憶してもよい。ユーザUaは、席の変更を申請する際に、変更先席情報を入力し、ユーザIDと端末IDとの一方または双方を端末3aに入力しなくてもよい。この場合、端末3aの処理部33は、記憶部31に記憶されたユーザIDと端末IDとの一方または双方と、入力部46に入力された変更先席情報とを用いて変更申請を生成してもよい。通信部32は、処理部33が生成した変更申請を送信してもよい。
【0092】
処理装置2の通信部23は、端末3aの通信部32が送信した変更申請を受信する。位置決定部24は、ユーザUaからの観客位置Qの変更申請に基づいて、ユーザUaに対応する観客位置Qaを変更する。例えば、位置決定部24は、通信部23が受信した変更申請に基づいて、ユーザUaの観客位置Qaの変更先を決定する。例えば、位置決定部24は、変更申請に含まれる変更先席情報に示される席を利用可能か否かを判定する。例えば、位置決定部24は、変更先席情報に示される席がユーザUに割り当てられていない場合、この席を利用可能と判定する。位置決定部24は、例えば、変更先席情報に示される席に対応するイベント会場AEのサイバー空間上の座標を導出し、導出した座標を変更先の観客位置Q(適宜、変更後の観客位置という)として決定する。通信部23は、更新後の観客位置Qに対応する位置情報を送信する。例えば、処理部21は、端末3aが送信した変更申請に含まれるユーザIDと端末IDとの一方または双方に基づいて、位置情報の送信先として端末3aを特定する。通信部23は、処理部21が特定した送信先へ位置情報を送信する。
【0093】
端末3aの通信部32は、処理装置2が送信した更新後の位置情報を受信する。端末3aの処理部33は、記憶部31に記憶されている位置情報D3aを、通信部32が受信した更新後の位置情報へ更新する。音調整部34は、位置決定部24が変更した観客位置Qaを用いて、ユーザUaに対応するマイク41が検出した音を調整する。例えば、記憶部31に記憶されている位置情報D3aが更新された後、音調整部34は、マイク41が検出した観客音を、更新後の位置情報D3aを用いて調整する。
【0094】
なお、観客位置を変更する処理は、トークンを消費して実行されてもよい。トークンは、例えば、各国の通貨と互換性がある電子マネーを含んでもよいし、暗号資産を含んでもよい。トークンは、例えば、コンテンツ配信サービスにおいてユーザが使用できるポイントでもよく、コンテンツ配信サービスと提携するサービスにおいてユーザが使用できるポイントでもよい。ユーザUが所有するトークンの情報は、ユーザ情報D1に含まれてもよい。消費するトークンの値は、例えば、予め定められた固定値でもよいし、ユーザが指定する値でもよく、変更先の席によって定まる値でもよい。処理装置2は、例えばユーザが指定するトークンの値を用いたオークションによって、変更先の席を決定してもよい。観客位置を変更する処理においてトークンが消費される場合、トークンが消費されるタイミングは任意である。例えば、トークンは、処理装置2が変更申請を受け付けた際に消費されてもよいし、変更申請によって観客位置が変更される際に消費されてもよい。
【0095】
位置決定部24は、例えばユーザから指定された席が使用中であるか否かによってこの席を利用可能であるか否かを判定するが、その他の基準あるいは条件で席を利用可能であるか否かを判定してもよい。例えば、位置決定部24は、ユーザが保有するトークンの値が、観客位置を変更する処理で消費されるトークンの値以上である場合に、席を利用可能と判定してもよい。サイバー空間上の席は、1人のユーザのみに割り当てられてもよいし、複数のユーザに割り当てられてもよい。例えば、複数のユーザの観客位置が同一でもよく、任意のユーザの観客位置は、他のユーザの観客位置と同じでもよい。
【0096】
なお、音声処理システム1は、演者PとユーザUとの一方又は双方に対するアクションを指定する情報をユーザUから受け付けるアクション受付部と、アクション受付部が受け付けた情報に予め関連付けられた処理を実行する処理部と、を備えてもよい。上記アクションは、観客音と異なる形態のコンテンツ上の動作(例、映像、音声)を含む。上記アクションは、例えば、コンテンツにおける映像と音声との一方または双方に関する作用を含む。上記アクションは、例えば、ユーザの入力をコンテンツ上の映像と音声との一方または双方で表現する作用を含む。以下の説明において適宜、アクションを指定する情報をアクション要求と称し、アクション受付部が受け付けた情報に予め関連付けられた処理を、アクション追加処理という。
【0097】
上記アクション受付部は、例えば端末3aの入力部46を含む。上記処理部は、例えば処理装置2のコンテンツ生成部28を含む。ユーザUaは、例えば、アクション要求として、イベントに関するコメントをテキスト形式で入力部46に入力する。端末3aの通信部32は、入力部46に入力されたテキスト情報を送信する。処理装置2の通信部23は、端末3aの通信部32が送信したテキスト情報を受信する。コンテンツ生成部28は、例えば、通信部23が受信したテキスト情報に含まれるテキストを映像として含むコンテンツを生成する。例えば、ユーザが入力したテキストは、コンテンツの映像上で移動しながら表示されてもよいし、その他の形態で表示されてもよい。
【0098】
上記アクション受付部は、端末3aのマイク41を含んでもよい。例えば、ユーザは、テキストを入力する代わりに音声を入力してもよく、マイク41は、アクション要求として、ユーザが発する音声を受け付けてもよい。この場合、端末3aの処理部33は、マイク41に入力された音声を音声認識によってテキスト情報へ変換してもよい。端末3aの通信部32は、処理部33が音声認識によって生成したテキスト情報を送信してもよい。
【0099】
アクション要求情報は、テキストまたは音声と異なる形式で入力されてもよい。例えば、端末3aは、所定のアクション追加処理に関連付けられたアイコンを表示部45に表示させ、このアイコンに対するユーザの操作が検出された場合に、アイコンに関連付けられたアクション追加処理の実行を要求してもよい。例えば、端末3aは、拍手の音の追加を表すアイコンを表示部45に表示する。端末3aは、このアイコンに対するユーザからの操作を検出した場合、拍手の音をコンテンツに追加する要求を通信部32によって送信する。処理装置2は通信部32が送信した要求を受信し、コンテンツ生成部28は、例えば、予めサンプリングされた拍手の音を追加したコンテンツを生成する。
【0100】
上記アクション追加処理は、音調整部34によって調整された観客音に追加の調整を施す処理を含んでもよい。例えば、アクション追加処理は、調整後の観客音の音量を変更する処理を含んでもよいし、エコーを利かせる等のエフェクトを加える処理を含んでもよい。上記アクション追加処理は、映像を追加する処理でもよく、映像効果を追加する処理でもよい。例えば、上記アクション追加処理は、コンテンツの映像に花火の映像を追加する処理を含んでもよい。上記アクション追加処理は、演者に対してチップ、投げ銭に相当する価値を譲渡する処理を含んでもよい。例えば、処理装置2の処理部21は、ユーザUaから指定された値のトークンを、ユーザUaのアカウントから演者Pのアカウントへ移す処理を実行してもよいし、トークンを管理する装置にトークンを譲渡する処理を実行させてもよい。コンテンツ生成部28は、トークンを譲渡する処理が実行される際に、トークンの譲渡を表す映像をコンテンツに追加してもよい。例えば、コンテンツ生成部28は、CGで表現された投げ銭をコンテンツの映像に追加してもよい。上記アイコンは、1種類のアイコンでもよいし、アクション追加処理が異なる複数種類のアイコンでもよい。
【0101】
なお、アクション要求に関連付けられた処理は、トークンを消費して実行されてもよい。消費するトークンの値は、例えば、予め定められた固定値でもよいし、ユーザが指定する値でもよい。消費するトークンの値は、アクション追加処理の種類によって定まる値でもよい。例えば、消費するトークンの値は、コンテンツの映像にテキストを追加する処理と、コンテンツの音声に効果音を追加する処理とで異なってもよい。
【0102】
消費するトークンの値は、アクション追加処理によるエフェクトのレベルによって定まる値でもよい。例えば、アクション追加処理は、拍手の効果音を追加する処理を含むとする。コンテンツ生成部28は、消費するトークンが第1の値である場合、拍手の効果音を第1の音量でコンテンツに追加し、消費するトークンが第1の値よりも大きい第2の値である場合、拍手の効果音を第1の音量よりも大きい第2の音量でコンテンツに追加してもよい。アクション追加処理は、映像にテキストを追加する処理を含むとする。コンテンツ生成部28は、消費するトークンが第1の値である場合、テキストを第1のフォントサイズでコンテンツに追加し、消費するトークンが第1の値よりも大きい第2の値である場合、テキストを第1のフォントサイズよりも大きい第2のフォントサイズでコンテンツに追加してもよい。
【0103】
なお、端末3aの音調整部34または端末3bの音調整部34は、ユーザUaに対応する観客位置Qaと、ユーザUbに対応する観客位置Qbとの関係に基づいて、ユーザUbに対応するマイクが検出した音を調整してもよい。例えば、ユーザUbの観客位置Qbは、ユーザUbの観客音が観客位置Qbで発せられた場合に、この観客音がユーザUaの観客位置Qaに届く範囲であるとする。端末3aは、観客位置Qaの周囲の観客位置Qで発せられた観客音を強調する処理(適宜、周囲強調処理という)を実行可能である。端末3は、例えば、周囲強調処理を実行しない第1の動作モードと、周囲強調処理を実行する第2の動作モードとを切替可能である。例えば、端末3は、ユーザUからモード切替の入力を受け付け、この入力があったと判定した場合に第1の動作モードと第2の動作モードとを切り替える。
【0104】
第1の動作モードにおいて、ユーザUbの調整後の観客音は、処理装置2の合成部27によって合成される。合成された観客音は、演者Pに対してスピーカ6から出力される。スピーカ6から出力された観客音は、演者Pが発する音とともにマイク5によって検出される。コンテンツ生成部28は、マイク5によって検出された音を用いてコンテンツを生成し、ユーザUbの観客音は、コンテンツの音声に含まれる。
【0105】
第2の動作モードにおいて、処理装置2の通信部23は、ユーザUaの観客位置QaとユーザUbの観客位置Qbとの関係を示す位置情報(適宜、第2位置情報、観客間位置情報という)を送信する。観客間位置情報は、例えば、端末3bの音調整部34によって調整された観客音を、ユーザUbに対応するマイク41によって検出された観客音が観客位置Qbで発せられた場合にユーザUaの観客位置Qaに届く音へ変換するゲインを含む。処理装置2の通信部23は、ユーザUbに対応する調整後の観客音のデータを送信する。端末3aの通信部32は、処理装置2の通信部23が送信した調整後の観客音のデータを受信する。端末3aの処理部33は、観客間位置情報を用いて、ユーザUbに対応する調整後の観客音を、観客音が観客位置Qbで発せられた場合にユーザUaの観客位置Qaに届く音へ変換する。処理部33は、変換したユーザUbの観客音を、コンテンツの音声と合成して、スピーカ42から出力させる。このような形態の音声処理システム1は、例えばサイバー空間において第1のユーザの周囲に居る第2のユーザの観客音が第1のユーザにリアルに伝わり、イベントの臨場感が高められる。
【0106】
端末3aは、第1の動作モードから第2の動作モードへ切り替える際に、動作を切り替えることを処理装置2に通知する。処理装置2の処理部21は、上記通知を受けた場合、端末3aに対応するユーザUaの観客位置Qaを特定する。処理部21は、観客位置Qaの周囲の所定の範囲に含まれる少なくとも1つの観客位置Qを抽出する。処理部Aは、抽出した観客位置Qの各々について観客間位置情報を生成する。処理装置2は、生成した観客間位置情報を端末3aに提供する。処理装置2は、観客間位置情報に対応する調整後の観客音のデータを、観客間位置情報と関連付けて端末3aに提供する。例えば、処理装置2の処理部21は、観客間位置情報ごとに識別情報を割り付け、調整音のデータを識別情報と一組にして送信する。
【0107】
次に、上述の音声処理システム1の構成に基づき、実施形態に係る音声処理方法について説明する。
図7は、第2実施形態に係る音声処理方法を示す図である。音声処理システム1の構成については適宜、
図6を参照する。
図5と同様の処理については、適宜、
図5と同じ符号を付してその説明を省略あるいは簡略化する。
【0108】
第1ユーザ端末は、
図6に示したユーザUaから参加申請に関する情報の入力を受け付ける。第1ユーザ端末は、ステップS21において、エントリー情報を送信する。例えば、
図6の端末3aの処理部33は、入力部46に入力された情報に基づいて、エントリー情報を通信部32に送信させる。処理装置は、ステップS21において送信されたエントリー情報を受信する。処理装置は、ステップS22において、第1ユーザの観客位置を決定する。例えば、
図6の処理装置2の位置決定部24は、通信部23が受信したユーザUaに対応するエントリー情報に基づいて、ユーザUaの観客位置Qaを決定する。処理装置は、ステップS23において位置情報を送信する。例えば、
図6の処理装置2の処理部21は、位置決定部24が決定した観客位置Qaを用いて、観客位置Qaと演者位置P1との関係を示す位置情報を生成する。通信部23は、処理部21が生成した位置情報を送信する。
【0109】
ステップS24からステップS26の処理は、ステップS21からステップS23の処理と同様であり、その説明を簡略化する。第2ユーザ端末は、
図6に示したユーザUbから参加申請に関する情報の入力を受け付ける。第2ユーザ端末は、ステップS24において、エントリー情報を送信する。例処理装置は、ステップS24において送信されたエントリー情報を受信する。処理装置は、ステップS25において、第2ユーザ(例、
図6のユーザUb)の観客位置を決定する。処理装置は、ステップS26において位置情報を送信する。
【0110】
以上のステップS21からステップS26の処理は、例えば、イベントの開始前に実行される。なお、ステップS21からステップS26の処理の少なくとも一部は、イベントの開始後に実行されてもよい。例えば、ユーザは、コンテンツの配信が開始された後で、イベントの参加申請を行って、イベントに参加してもよい。ステップS26の後のステップS1からステップS11の処理は、
図3と同様である。ステップS1からステップS11の処理は繰り返し実行され、観客位置を変更する処理およびアクション追加処理は、それぞれ、ステップS1からステップS11の処理が繰り返し実行される期間に、実行される。観客位置を変更する処理は、ステップS1の処理が実行される前に、実行されてもよい。例えば、ユーザUは、参加申請を行った後、コンテンツの配信が開始される前に、端末3を操作して観客位置の変更処理を実行させてもよい。
【0111】
[第3実施形態]
第3実施形態について説明する。
図8は、第3実施形態に係る音声処理システムを示す図である。本実施形態において、上述の実施形態と同様の構成については、同じ符号を付してその説明を省略あるいは簡略化する。本実施形態に係る音声処理システム1は、複数のグループに分けられた複数の第1音声処理装置を備え、合成部は、複数のグループの各グループに対応して設けられ、各グループにおいて、第1音声処理装置の音調整部が調整した音を合成する第1の合成部と、複数のグループにおいて、第1の合成部が合成した音を合成する第2の合成部と、を備える。
【0112】
本実施形態において、複数の端末3は、複数のグループに分かれている。以下の説明において適宜、任意のグループを符号Gで表し、グループGを区別する場合、グループGa、グループGbのように符号Gにアルファベットa、b、・・・を追加した符号で表す。
【0113】
本実施形態において、音声処理システム1は、複数の処理装置51と、処理装置52とを備える。処理装置51は、グループGごとに設けられる。以下の説明において適宜、任意の処理装置51を符号51で表し、処理装置51を区別する場合、処理装置51a、処理装置51bのように符号51にアルファベットa、b、・・・を追加した符号で表す。
【0114】
処理装置51は、
図3などで説明した合成部27を備える。処理装置51は、対応するグループに含まれる2以上の端末3から調整後の観客音のデータを取得する。例えば、処理装置51aは、グループGaに含まれる端末3の各々が送信する調整後の観客音のデータを受信する。処理装置51aの合成部27は、受信した観客音のデータを用いて、グループGaに含まれる端末3の各々から取得した調整後の観客音を合成する。以下の説明において適宜、処理装置51が合成した調整後の観客音を、1次合成後の観客音という。
【0115】
処理装置52は、2以上の処理装置51に対応して設けられる。
図8において、処理装置52は、処理装置51aと、処理装置51bとに対応する。処理装置52は、対応する2以上の処理装置51の各々から、各処理装置51から1次合成後の観客音のデータを取得する。処理装置52は、合成部53と、コンテンツ生成部28とを備える。合成部53は、2以上の処理装置51の各々から取得された1次合成後の観客音のデータを用いて、これら観客音のデータが表す観客音を合成する。合成部53の処理は、例えば合成部27の処理と同様の処理でよい。処理装置52は、合成部53が合成した観客音のデータを出力する。処理装置52は、合成部53が合成した観客音を、スピーカ6に出力させる。
【0116】
コンテンツ生成部28は、
図3等で説明したように、カメラ4によって撮影された映像と、マイク5によって検出された音声とを用いてコンテンツを生成する。処理装置52は、生成したコンテンツのデータを提供する。処理装置51は、処理装置52が提供するコンテンツのデータを取得する。処理装置51は、対応するグループGに含まれる端末3にコンテンツのデータを提供する。例えば、処理装置51aは、対応するグループGaに含まれる2以上の端末3の各々に、コンテンツのデータを提供する。グループGaに含まれる2以上の端末3は、それぞれ、処理装置51aから提供されるコンテンツのデータを用いて、コンテンツを再生する。
【0117】
以上のように、本実施形態に係る音声処理システム1は、複数の端末3が複数のグループに分かれており、各グループに含まれる2以上の端末3から提供される調整後の観客音を合成する処理装置51を備える。音声処理システム1は、調整後の観客音を合成する処理を複数の装置で分散して実行するので、各装置の処理の負荷を軽減することができ、例えば処理の遅延が発生することを減らすことができる。
【0118】
なお、音声処理システム1は、2以上の処理装置51から提供される1次合成後の観客音を合成する処理装置(適宜、上位処理装置という)を複数備え、処理装置52は、複数の上位処理装置から各上位処理装置が合成した観客音(適宜、2次合成後の観客音という)を取得し、これら2次合成後の観客を合成してそのデータを出力してもよい。例えば、各端末3と処理装置52との間で中間データを生成する装置のレイヤーは、
図8において処理装置51の1層であるが、処理装置51と上位処理装置との2層でもよい。このように、中間データを生成する装置のレイヤーの数は任意であり、
図3のように0層でもよいし、
図8のように1層でもよく、複数層でもよい。コンテンツ生成部28は、処理装置52と異なる装置に設けられてもよく、例えば、端末3と処理装置52との間で中間データを生成する装置(例、処理装置51)に設けられてもよい。
【0119】
図9は、第3実施形態に係るグループの例を示す図である。
図9の符号EX1からEX3は、それぞれ、グループの例を表す。第1の例EX1において、複数のグループGは、それぞれ、イベント会場AEにおける演者位置P1までの距離が所定の範囲である観客位置Qに対応する端末の集合である。例えば、グループGaは、演者位置P1までの距離がL1未満である観客位置に対応する端末の集合である。グループGbは、演者位置P1までの距離がL1以上L2未満である観客位置に対応する端末の集合である。
【0120】
第2の例EX2において、複数のグループGは、それぞれ、イベント会場AEにおける演者位置P1からの向きが所定の範囲である観客位置Qに対応する端末の集合である。例えば、例えば、グループGaは、演者位置P1を基準とする方位角が範囲θ1にある観客位置Qに対応する端末のグループである。グループGbは、演者位置P1を基準とする方位角が範囲θ2にある観客位置Qに対応する端末のグループである。
【0121】
なお、グループ分けのルールは、第1の例又は第2の例に限定されず、任意に定められる事項である。例えば、第3の例EX3は、第1の例のグループ分けのルールと第2の例のグループ分けのルールとを組み合わせたグループ分けの例である。第3の例において、複数のグループGは、演者位置P1からの距離と、演者位置P1を基準とする方位角とに基づいて、決定される。
【0122】
なお、複数のグループGは、観客位置Qが決定された順番に基づいて、決定されてもよい。例えば、複数の端末3は、観客位置Qが決定された順番に基づいて、グループ分けされてもよい。例えば、グループGaに含まれる端末3は、観客位置Qが決定された順番が1番から100番までの観客位置Qに対応する端末でもよい。グループGbに含まれる端末3は、観客位置Qが決定された順番が101番から200番までの観客位置Qに対応する端末でもよい。
【0123】
なお、複数のグループGは、イベント会場AEにおける席の優先度(例、席のランク)に基づいて、決定されてもよい。例えば、グループGaに含まれる端末3は、イベント会場AEにおいて第1ランクの席(例、S席)に相当する観客位置Qに対応する端末でもよい。グループGbに含まれる端末3は、イベント会場AEにおいて第1ランクよりも優先度が低い第2ランクの席(例、A席)に相当する観客位置Qに対応する端末でもよい。第1ランクの席は、第2ランクの席に比べてユーザが支払う参加費用が高い席でもよいし、予め選択されたユーザ(例、招待客)に割り当てられる席でもよい。複数のグループGは、各グループGに含まれる端末3を、複数の端末3から無作為に選択することで決定されてもよい。上述したグループ分けのルールは、2種類以上のルール(例、条件)を組み合わせたルールでもよい。
【0124】
なお、複数のグループGにおいて、各グループに含まれる端末3の数は、同一でもよいし、異なってもよい。各グループGに含まれる端末3の数は、例えば、各グループGに対応する処理装置51が処理を担当する端末3の数でもよい。ここで、グループGaに含まれる端末3は、上記第1ランクの席に相当する観客位置Qに対応する端末であるとする。また、グループGbに含まれる端末3は、上記第2ランクの席に相当する観客位置Qに対応する端末であるとする。グループGaに含まれる端末3の数は、グループGbに含まれる端末3の数よりも少なくてもよい。この場合、グループGaに対応する処理装置51aは、グループGbに対応する処理装置51bに比べて処理の負荷が軽減され、例えば処理の遅延が発生する可能性が低下する。
【0125】
なお、複数の処理装置51において、各処理装置51の性能は、同一でもよいし異なってもよい。ここで、グループGaに含まれる端末3は、上記第1ランクの席に相当する観客位置Qに対応する端末であるとする。また、グループGbに含まれる端末3は、上記第2ランクの席に相当する観客位置Qに対応する端末であるとする。グループGaに対応する処理装置51aは、グループGbに対応する処理装置51bに比べてハードウェアの性能(例、CPUの処理速度、記憶部の読み書き速度、通信速度)が高くてもよい。この場合、グループGaに対応する処理装置51aは、グループGbに対応する処理装置51bに比べて、例えば処理の遅延が発生する可能性が低下する。
【0126】
複数の端末3を複数のグループに分ける処理(適宜、グループ分け処理という)は、例えば、
図3の受付端末8によって実行される。グループ分け処理は、受付端末8と異なる装置によって実行されてもよい。例えば、グループ分け処理は、処理装置2によって実行されてもよいし、その他の装置によって実行されてもよい。グループ分け処理は、音声処理システム1の外部の装置によって実行されてもよい。
【0127】
[第4実施形態]
第4実施形態について説明する。
図10は、第4実施形態に係る音声処理システムを示す図である。本実施形態において、上述の実施形態と同様の構成については、同じ符号を付してその説明を省略あるいは簡略化する。本実施形態において、所定領域(例、イベント会場AE)は、各々が各グループに対応する複数の部分領域に区分され、各グループは、各グループに対応する部分領域に含まれる観客位置に対応する第1音声処理装置の集合を含む。複数の部分領域は、それぞれ、複数のグループのいずれかと対応する。例えば、複数の端末3(
図8参照)は、複数のグループGに分かれている。複数のグループGは、
図9の第2の例EX2で説明したように、観客位置Qに対する演者位置の向きに基づいて決定されている。
【0128】
図10の音声処理システム1は、複数の処理装置2を備える。以下の説明において適宜、任意の処理装置を符号2で表し、処理装置2を区別する場合、処理装置2a、処理装置2bのように符号2にアルファベットa、b、・・・を追加した符号で表す。複数の処理装置2は、それぞれ、1つのグループGと対応する。例えば、処理装置2aはグループGaと対応し、処理装置2bはグループGbと対応する。
【0129】
各処理装置2は、対応するグループGに含まれる端末3にコンテンツのデータを提供する。例えば、処理装置2aは、グループGaに含まれる各端末3にコンテンツのデータを提供する。各処理装置2は、対応するグループGに含まれる端末3から調整後の観客音のデータを取得する。例えば、処理装置2aは、グループGaに含まれる各端末3が送信した調整後の観客音のデータを受信する。各処理装置2は、対応するグループGに含まれる端末3から取得した調整後の観客音を合成し、合成後の観客音のデータを出力する。例えば、処理装置2aは、グループGaに含まれる各端末3から取得した調整後の観客音を合成し、合成後の観客音のデータを出力する。
【0130】
本実施形態において、音声処理システム1は、複数の音声出力装置(例、スピーカ6)を備える。以下の説明において適宜、任意のスピーカを符号6で表し、スピーカ6を区別する場合、スピーカ6a、スピーカ6bのように符号6にアルファベットa、b、・・・を追加した符号で表す。複数のスピーカ6は、実演領域APに配置される。複数のスピーカ6は、それぞれ、処理装置2と対応関係がある。ここでは、スピーカ6は、処理装置2と1対1の関係で設けられるものとする。例えば、スピーカ6aは処理装置2aに対応し、スピーカ6bは処理装置2bと対応する。
【0131】
複数のスピーカ6は、それぞれ、対応する処理装置2が担当するグループGと対応する。例えば、スピーカ6aはグループGaに対応し、スピーカ6bはグループGbと対応する。ここで、各グループGに含まれる端末3に対応する観客位置Qが分布する領域をグループの領域という。
【0132】
実演領域APにおける演者Pと複数のスピーカ6との配置は、イベント会場AEにおける演者位置P1と複数のグループ領域との配置と対応するように、設定される。ここで、実演領域APにおいて、演者Pを中心とし、演者Pの鉛直方向の周りの回転方向を考える。この回転方向は、イベント会場AEにおいて、演者位置P1を中心とし、演者位置P1の鉛直方向の周りの回転方向と対応する。実演領域APにおいて、複数のスピーカ6は、回転方向の時計回りに、スピーカ6a、スピーカ6b、スピーカ6c、スピーカ6d、スピーカ6eの順に配列されている。イベント会場AEにおいて、複数のグループGの領域は、回転方向の時計回りに、グループGaの領域、グループGbの領域、グループGcの領域、グループGdの領域、グループGeの領域の順に配列されている。このように、複数のスピーカ6は、演者Pに対する方位角の関係が、演者位置P1に対する複数のグループGの領域の相互の関係を保持するように、配置される。
【0133】
本実施形態において、音声処理システム1は、複数のカメラ4を備える。以下の説明において適宜、任意のカメラを符号4で表し、カメラ4を区別する場合、カメラ4a、カメラ4bのように符号4にアルファベットa、b、・・・を追加した符号で表す。複数のカメラ4は、実演領域APに配置される。複数のカメラ4は、それぞれ、処理装置2と対応関係がある。ここでは、カメラ4は、処理装置2と1対1の関係で設けられるものとする。例えば、カメラ4aは処理装置2aに対応し、カメラ4bは処理装置2bと対応する。複数のカメラ4は、それぞれ、対応する処理装置2が担当するグループGと対応する。例えば、カメラ4aはグループGaに対応し、カメラ4bはグループGbと対応する。
【0134】
実演領域APにおける演者Pと複数のカメラ4との配置は、イベント会場AEにおける演者位置P1と複数のグループGの領域との配置と対応するように、設定される。ここで、実演領域APにおいて、演者Pを中心とし、演者Pの鉛直方向の周りの回転方向を考える。この回転方向は、イベント会場AEにおいて、演者位置P1を中心とし、演者位置P1の鉛直方向の周りの回転方向と対応する。実演領域APにおいて、複数のカメラ4は、回転方向の時計回りに、カメラ4a、カメラ4b、カメラ4c、カメラ4d、カメラ4eの順に配列されている。イベント会場AEにおいて、複数のグループGの領域は、回転方向の時計回りに、グループGaの領域、グループGbの領域、グループGcの領域、グループGdの領域、グループGeの領域の順に配列されている。このように、複数のカメラ4は、演者Pに対する方位角の関係が、演者位置P1に対する複数のグループG領域の互いの位置関係を保持するように、配置される。各カメラ4は、演者位置P1に演者Pが居るとした場合に、対応するグループGの領域から演者位置P1を見た状態に相当する映像を撮影するように、演者Pに対する向きが設定されている。
【0135】
処理装置2は、マイク5が検出した音と、処理装置2と対応するカメラ4が撮影した映像とを用いて、コンテンツを生成する。例えば、処理装置2aは、マイク5が検出した音と、カメラ4aが撮影した映像とを用いてコンテンツを生成する。処理装置2aは、生成したコンテンツを、対応するグループGaに含まれる端末3に提供する。
【0136】
本実施形態において、演者Pは、演者位置P1に対するグループGの方位角と同様の方向から、このグループGに対応する合成後の観客音を聞くことができる。例えば、イベント会場AEにおいて、グループGaは、演者位置P1の正面に対して左側の領域である。演者Pは、コンテンツの中でグループGaの領域を向いて、ユーザに拍手等の反応を要求したとする。グループGaに含まれる端末3によってコンテンツを視聴するユーザUは、自分の方を向いて反応を呼びかける演者Pを見ることができる。このユーザUが拍手や歓声などの反応を行うと、反応に相当する観客音は、端末3によって調整されて処理装置2aによって合成され、スピーカ6aから出力される。演者Pは、例えば、ユーザUへ反応を呼びかけた方向から、反応に相当する観客音を聞くことができる。ユーザUは、例えば、実空間におけるイベントの会場と異なる場所でイベントに参加する場合でも、臨場感を味わうことができ、実施形態に係る音声処理システム1は、新たな体験を提供できる。
【0137】
なお、
図10において、スピーカ6は、処理装置2と1対1の対応で設けられるが、1つの処理装置2に対応するスピーカ6の数は1でもよいし、複数でもよい。音声処理システム1は、少なくとも1つのスピーカ6を備えなくてもよい。例えば、複数のスピーカ6は、音声処理システム1と異なるシステム(例、音響システム)が備える装置であって、音声処理システムは、複数のグループGの領域の配列と対応するように配列された複数のスピーカ6に対して、合成後の観客音のデータを出力するシステムでもよい。
【0138】
なお、
図10において、カメラ4は、処理装置2と1対1の対応で設けられるが、1つの処理装置2に対応するカメラ4の数は1でもよいし、複数でもよい。音声処理システム1は、少なくとも1つのカメラ4を備えなくてもよい。例えば、複数のカメラ4は、音声処理システム1と異なるシステム(例、撮影システム)が備える装置であって、音声処理システムは、複数のグループGの領域の配列と対応するように配列された複数のカメラ4から、演者Pの映像を取得するシステムでもよい。カメラ4の数は1つでもよく、例えば、音声処理システム1は、複数のグループGで共通のコンテンツを配信するシステムでもよい。
【0139】
実施形態に係る音声処理システム1は、予め作成された演者Pのコンピュータグラフィックス(適宜、CGという)を利用して、コンテンツを生成してもよい。例えば、演者Pがポリゴン等の3次元CGで表されており、音声処理システム1は、モーションキャプチャ等で検出される演者Pの動作を用いて、3次元CGを動かすことでコンテンツを生成してもよい。音声処理システム1は、カメラ4によって取得される映像と、CGとを組み合わせてコンテンツを生成してもよい。
【0140】
なお、実施形態に係る音声処理システム1は、ユーザからのイベントへの参加申請に基づいて、イベントが開催される所定領域におけるユーザの位置を表す観客位置を決定する位置決定部を備えなくてもよい。例えば、観客位置は、参加申請と無関係に決定されてもよいし、イベントの開催者によって決定されてもよい。このような形態であっても、音声処理システム1は、ユーザUの反応を演者Pに伝えることができ、例えば演者PのパフォーマンスにユーザUの反応が影響を及ぼすことによって、ユーザUに新たな体験を提供できる。
【0141】
なお、本発明の技術範囲は、上述の実施形態などで説明した態様に限定されるものではない。上述の実施形態などで説明した要件の1つ以上は、省略されることがある。また、上述の実施形態などで説明した要件は、適宜組み合わせることができる。法令で許容される限りにおいて、上述の実施形態などで引用した全ての文献の開示を援用して本明細書の記載の一部とする。
【符号の説明】
【0142】
1 音声処理システム、2 処理装置、3 端末、4 カメラ、5 マイク、6 スピーカ、7 予約端末、8 受付端末、G グループ、P 演者、Q 観客位置、R 観客音、U ユーザ、24 位置決定部、27 合成部、28 コンテンツ生成部、34 音調整部