IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ アナログ・ディヴァイシス・インターナショナル・アンリミテッド・カンパニーの特許一覧

特表2024-532883オーディオキャリブレーションプロファイルを計算する方法
<>
  • 特表-オーディオキャリブレーションプロファイルを計算する方法 図1
  • 特表-オーディオキャリブレーションプロファイルを計算する方法 図2
  • 特表-オーディオキャリブレーションプロファイルを計算する方法 図3
  • 特表-オーディオキャリブレーションプロファイルを計算する方法 図4
  • 特表-オーディオキャリブレーションプロファイルを計算する方法 図5
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公表特許公報(A)
(11)【公表番号】
(43)【公表日】2024-09-10
(54)【発明の名称】オーディオキャリブレーションプロファイルを計算する方法
(51)【国際特許分類】
   G10K 15/00 20060101AFI20240903BHJP
   H04S 7/00 20060101ALI20240903BHJP
【FI】
G10K15/00 L
H04S7/00 310
【審査請求】有
【予備審査請求】未請求
(21)【出願番号】P 2024512157
(86)(22)【出願日】2022-08-19
(85)【翻訳文提出日】2024-02-22
(86)【国際出願番号】 EP2022073246
(87)【国際公開番号】W WO2023025695
(87)【国際公開日】2023-03-02
(31)【優先権主張番号】202141038169
(32)【優先日】2021-08-23
(33)【優先権主張国・地域又は機関】IN
(81)【指定国・地域】
【公序良俗違反の表示】
(特許庁注:以下のものは登録商標)
1.BLUETOOTH
(71)【出願人】
【識別番号】519383544
【氏名又は名称】アナログ・ディヴァイシス・インターナショナル・アンリミテッド・カンパニー
(74)【代理人】
【識別番号】100108453
【弁理士】
【氏名又は名称】村山 靖彦
(74)【代理人】
【識別番号】100110364
【弁理士】
【氏名又は名称】実広 信哉
(74)【代理人】
【識別番号】100133400
【弁理士】
【氏名又は名称】阿部 達彦
(72)【発明者】
【氏名】サントシュ・バラドワジ・シン
(72)【発明者】
【氏名】エオイン・イングリッシュ
(72)【発明者】
【氏名】マイケル・トーマス・コリガン
(72)【発明者】
【氏名】アラヴィンド・ケー・ナヴァダ
(72)【発明者】
【氏名】コーシャル・サングハイ
(72)【発明者】
【氏名】ティー・ブイ・ビー・スブラマニヤム
【テーマコード(参考)】
5D162
【Fターム(参考)】
5D162AA06
5D162DA02
5D162EG03
(57)【要約】
本開示は、部屋などの三次元空間のオーディオキャリブレーションプロファイルを計算する方法に関する。本開示は、サウンド記録デバイスからのフィードバックと併せて、三次元(3D)画像化技術を使用して三次元空間のモデルを作り出すことによってこれを達成する。収集される情報は、部屋等化を行うために、デジタル信号処理(DSP)デバイスが使用することができる。この情報はまた、ビーム特性を調整して、三次元空間の中のユーザの場所において理想的な空間的体験又はサラウンドサウンド体験を再現するために、ビームフォーミング音源によって使用され得る。
【特許請求の範囲】
【請求項1】
三次元空間のオーディオキャリブレーションプロファイルを計算する方法であって、前記方法は、
第1の電子装置によって、1つ以上のテストサウンドを出力することと、
第2の電子装置によって、三次元空間の中の1つ以上の場所の各々において前記1つ以上のテストサウンドを記録することであって、前記第2の電子装置は、モバイル電子装置である、記録することと、
前記第1の電子装置又は前記第2の電子装置によって、前記1つ以上の場所の各々に対応する空間座標を判定することと、
前記場所について判定された前記空間座標と、前記場所において記録された前記1つ以上のテストサウンドとに基づいて、前記場所の各々についてローカルオーディオプロファイルを生成することと、
前記第1の電子装置又は前記第2の電子装置によって、前記三次元空間をマッピングすることと、
前記マッピングに基づいて、前記三次元空間のモデルを生成することと、
前記三次元空間の前記モデルと前記ローカルオーディオプロファイルとに基づいて、前記三次元空間のオーディオキャリブレーションプロファイルを計算することと、を含む、方法。
【請求項2】
前記三次元空間をマッピングすることは、前記三次元空間の1つ以上の境界を識別することを含む、請求項1に記載の方法。
【請求項3】
前記三次元空間の前記モデルを生成することは、前記1つ以上の境界のモデルを生成することを含む、請求項1又は2に記載の方法。
【請求項4】
前記三次元空間の前記モデルを生成することは、前記1つ以上の境界の前記モデルにサウンド反射プロパティを割り当てることを含む、請求項3に記載の方法。
【請求項5】
前記境界のうちの少なくとも1つは、開口部を含み、前記少なくとも1つの境界の前記モデルは、前記開口部のモデルを含む、請求項3又は4に記載の方法。
【請求項6】
前記三次元空間をマッピングすることは、前記三次元空間の中に位置する1つ以上のオブジェクトを識別することを含む、請求項1~5のいずれか一項に記載の方法。
【請求項7】
前記三次元空間の前記モデルを生成することは、前記1つ以上のオブジェクトのモデルを生成することを含み、任意選択的に、前記三次元空間の前記モデルを生成することは、前記1つ以上のオブジェクトの前記モデルにサウンド反射プロパティを割り当てることを含む、請求項6に記載の方法。
【請求項8】
前記第2の電子装置のモデルを生成することを含み、前記三次元空間の前記オーディオキャリブレーションプロファイルを計算することは、前記第2の電子装置の前記モデルに基づいて前記第2の電子装置の存在を補償することを含む、請求項1~7のいずれか一項に記載の方法。
【請求項9】
ユーザのモデルを生成することを含み、前記三次元空間の前記オーディオキャリブレーションプロファイルを計算することは、前記ユーザの前記モデルに基づいて前記ユーザの存在を補償することを含む、請求項1~8のいずれか一項に記載の方法。
【請求項10】
前記三次元空間の前記オーディオキャリブレーションプロファイルを計算することは、周波数等化情報を計算することを含む、請求項1~9のいずれか一項に記載の方法。
【請求項11】
計算された前記オーディオキャリブレーションプロファイルを前記第1の電子装置に出力し、かつ前記第1の電子装置によって、前記オーディオキャリブレーションプロファイルに従ってサウンドを出力することを更に含む、請求項1~10のいずれか一項に記載の方法。
【請求項12】
三次元空間のオーディオキャリブレーションプロファイルを計算するためのシステムであって、前記システムは、
1つ以上のテストサウンドを出力するように構成されたサウンド出力デバイスを備える第1の電子装置と、
三次元空間の中の1つ以上の場所において前記1つ以上のテストサウンドを記録するように構成されたサウンド記録デバイスを備える第2の電子装置であって、前記第2の電子装置は、モバイル電子装置である、第2の電子装置と、を備え、
前記第1の電子装置及び前記第2の電子装置のうちの少なくとも一方は、前記1つ以上の場所の各々に対応する空間座標を記録するように構成された三次元画像化デバイスを備え、
前記第1の電子装置及び前記第2の電子装置のうちの少なくとも一方は、前記場所について記録された前記空間座標と、前記場所において記録された前記1つ以上のテストサウンドとに基づいて、前記場所の各々についてのローカルオーディオプロファイルを生成するように構成されており、
前記三次元画像化デバイスは、前記三次元空間をマッピングし、前記マッピングに基づいて前記三次元空間のモデルを生成するように更に構成されており、
前記システムは、前記三次元空間の前記モデルと前記ローカルオーディオプロファイルとに基づいて、前記三次元空間のオーディオキャリブレーションプロファイルを計算するように構成された1つ以上のプロセッサを更に備える、システム。
【請求項13】
前記第1の電子装置は、サウンドバーデバイスである、請求項12に記載のシステム。
【請求項14】
前記第2の電子装置は、モバイルフォン又はマイクロフォンである、請求項12又は13に記載のシステム。
【請求項15】
前記三次元画像化デバイスは、飛行時間カメラを含む、請求項12~14のいずれか一項に記載のシステム。
【請求項16】
前記1つ以上のプロセッサのうちの少なくとも1つは、クラウドベースのプロセッサであること、
前記第1の電子装置は、前記1つ以上のプロセッサのうちの少なくとも1つを備えること、
前記第2の電子装置は、前記1つ以上のプロセッサのうちの少なくとも1つを備えることのうちの少なくとも1つが適用される、請求項12~15のいずれか一項に記載のシステム。
【請求項17】
前記三次元画像化デバイスは、前記三次元空間の1つ以上の境界及び/又は前記三次元空間の中に位置する1つ以上のオブジェクトを識別するように構成されている、請求項12~16のいずれか一項に記載のシステム。
【請求項18】
前記1つ以上のプロセッサは、計算された前記オーディオキャリブレーションプロファイルを前記第1の電子装置に出力するように構成されており、
前記第1の電子装置は、前記オーディオキャリブレーションプロファイルに従ってサウンドを出力するように構成されている、請求項12~17のいずれか一項に記載のシステム。
【請求項19】
三次元空間のオーディオキャリブレーションプロファイルを計算するための処理システムであって、前記処理システムは、1つ以上のプロセッサを備え、前記1つ以上のプロセッサは、
三次元空間のモデルを受信し、
1つ以上のローカルオーディオプロファイルであって、前記三次元空間の中のそれぞれの場所に対応し、かつ前記場所について記録された空間座標と、前記場所において記録された1つ以上のテストサウンドとに基づく、1つ以上のローカルオーディオプロファイルを受信し、かつ
前記三次元空間の前記モデルと前記ローカルオーディオプロファイルとに基づいて、前記三次元空間のオーディオキャリブレーションプロファイルを計算するように構成されている、処理システム。
【請求項20】
前記1つ以上のプロセッサは、
前記オーディオキャリブレーションプロファイルに従って1つ以上のオーディオ信号を処理するように更に構成されている、請求項19に記載の処理システム。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、三次元空間のオーディオキャリブレーションプロファイルを計算する方法に関する。本開示はまた、三次元空間のオーディオキャリブレーションプロファイルを計算するためのシステム、及び三次元空間のオーディオキャリブレーションプロファイルを計算するための処理システムに関する。
【背景技術】
【0002】
サラウンドサウンドは、ユーザを取り巻く複数のスピーカからのオーディオを提供するサウンド再生技術である。一般的なサラウンドサウンド規格には、5.1及び7.1規格が含まれる。没入型サラウンドサウンド技術は、頭上から来るオーディオチャネルを用いて5.1及び7.1の装備を拡張する特殊なサラウンドサウンド技法である。この効果を達成するには、スピーカを部屋の周囲並びに天井の複数の場所に配置する必要がある。家庭環境では、これは望ましくなく、したがって、壁及び天井からサウンドを跳ね返すことによって没入型サラウンドサウンド効果を作り出して、サウンドがそれらの周囲全体から来ているという印象をユーザに与えるという、デジタル信号処理(DSP)方法を使用することができる。
【発明の概要】
【0003】
本開示は、部屋などの三次元空間のオーディオキャリブレーションプロファイルを計算する方法に関する。本開示は、サウンド記録デバイスからのフィードバックと併せて、三次元(3D)画像化技術を使用して三次元空間のモデルを作り出すことによってこれを達成する。収集される情報は、部屋等化を行うために、DSPデバイスが使用することができる。この情報はまた、ビーム特性を調整して、三次元空間の中のユーザの場所において理想的な空間的体験又はサラウンドサウンド体験を再現するために、ビームフォーミング音源が使用することができる。
【0004】
本開示の実施形態によれば、三次元空間のオーディオキャリブレーションプロファイルを計算する方法が提供される。本方法は、第1の電子装置によって、1つ以上のテストサウンドを出力することと、第2の電子装置によって、三次元空間の中の1つ以上の場所の各々において1つ以上のテストサウンドを記録することであって、第2の電子装置は、モバイル電子装置である、記録することと、第1の電子装置又は第2の電子装置によって、1つ以上の場所の各々に対応する空間座標を判定することと、上記の場所について判定された空間座標と、上記の場所において記録された1つ以上のテストサウンドとに基づいて、場所の各々についてのローカルオーディオプロファイルを生成することと、第1の電子装置又は第2の電子装置によって、三次元空間をマッピングすることと、マッピングに基づいて、三次元空間のモデルを生成することと、三次元空間のモデルとローカルオーディオプロファイルとに基づいて、三次元空間のオーディオキャリブレーションプロファイルを計算することと、を含む。
【0005】
三次元空間をマッピングすることは、三次元空間の1つ以上の境界を識別することを含み得る。
【0006】
三次元空間のモデルを生成することは、1つ以上の境界のモデルを生成することを含み得る。
【0007】
三次元空間のモデルを生成することは、1つ以上の境界のモデルにサウンド反射プロパティを割り当てることを含み得る。
【0008】
境界のうちの少なくとも1つは、開口部を含み得、少なくとも1つの境界のモデルは、開口部のモデルを含み得る。
【0009】
三次元空間をマッピングすることは、三次元空間の中に位置する1つ以上のオブジェクトを識別することを含み得る。
【0010】
三次元空間のモデルを生成することは、1つ以上のオブジェクトのモデルを生成することを含み得る。
【0011】
三次元空間のモデルを生成することは、1つ以上のオブジェクトのモデルにサウンド反射プロパティを割り当てることを含み得る。
【0012】
本方法は、第2の電子装置のモデルを生成することを含み得る。三次元空間のオーディオキャリブレーションプロファイルを計算することは、第2の電子装置のモデルに基づいて第2の電子装置の存在を補償することを含み得る。
【0013】
本方法は、ユーザのモデルを生成することを含み得る。三次元空間のオーディオキャリブレーションプロファイルを計算することは、ユーザのモデルに基づいてユーザの存在を補償することを含み得る。
【0014】
三次元空間のオーディオキャリブレーションプロファイルを計算することは、周波数等化情報を計算することを含み得る。
【0015】
本方法は、計算されたオーディオキャリブレーションプロファイルを第1の電子装置に出力し、かつ第1の電子装置によって、オーディオキャリブレーションプロファイルに従ってサウンドを出力することを含み得る。
【0016】
本開示の実施形態によれば、三次元空間のオーディオキャリブレーションプロファイルを計算するためのシステムが提供される。本システムは、1つ以上のテストサウンドを出力するように構成されたサウンド出力デバイスを備える第1の電子装置と、三次元空間の中の1つ以上の場所において1つ以上のテストサウンドを記録するように構成されたサウンド記録デバイスを備える第2の電子装置であって、第2の電子装置は、モバイル電子装置である、第2の電子装置と、を備える。第1の電子装置及び第2の電子装置のうちの少なくとも一方は、1つ以上の場所の各々に対応する空間座標を記録するように構成された三次元画像化デバイスを備える。第1の電子装置及び第2の電子装置のうちの少なくとも一方は、上記の場所について記録された空間座標と、上記の場所において記録された1つ以上のテストサウンドとに基づいて、上記の場所の各々についてのローカルオーディオプロファイルを生成するように構成されている。三次元画像化デバイスは、三次元空間をマッピングし、マッピングに基づいて三次元空間のモデルを生成するように更に構成されている。本システムは、三次元空間のモデルとローカルオーディオプロファイルとに基づいて、三次元空間のオーディオキャリブレーションプロファイルを計算するように構成された1つ以上のプロセッサを更に備える。
【0017】
第1の電子装置は、サウンドバーデバイスであり得る。
【0018】
第2の電子装置は、モバイルフォン又はマイクロフォンであり得る。
【0019】
三次元画像化デバイスは、飛行時間カメラを含み得る。
【0020】
1つ以上のプロセッサのうちの少なくとも1つは、クラウドベースのプロセッサであり得る。
【0021】
第1の電子装置は、1つ以上のプロセッサのうちの少なくとも1つを備え得る。
【0022】
第2の電子装置は、1つ以上のプロセッサのうちの少なくとも1つを備え得る。
【0023】
1つ以上のプロセッサは、1つ以上のデジタル信号プロセッサを含み得る。
【0024】
三次元画像化デバイスは、三次元空間の1つ以上の境界及び/又は三次元空間の中に位置する1つ以上のオブジェクトを識別するように構成され得る。
【0025】
1つ以上のプロセッサは、計算されたオーディオキャリブレーションプロファイルを第1の電子装置に出力するように構成され得、第1の電子装置は、オーディオキャリブレーションプロファイルに従ってサウンドを出力するように構成され得る。
【0026】
本開示の実施形態によれば、三次元空間のオーディオキャリブレーションプロファイルを計算するための処理システムが提供される。処理システムは、1つ以上のプロセッサを備え、1つ以上のプロセッサは、三次元空間のモデルを受信し、1つ以上のローカルオーディオプロファイルであって、三次元空間の中のそれぞれの場所に対応し、かつ上記の場所において記録された空間座標と、上記の場所において記録された1つ以上のテストサウンドとに基づく、1つ以上のローカルオーディオプロファイルを受信し、かつ三次元空間のモデルとローカルオーディオプロファイルとに基づいて、三次元空間のオーディオキャリブレーションプロファイルを計算するように構成されている。
【0027】
1つ以上のプロセッサは、オーディオキャリブレーションプロファイルに従って1つ以上のオーディオ信号を処理するように更に構成され得る。
【0028】
1つ以上のプロセッサは、1つ以上のデジタル信号プロセッサを含み得る。
【0029】
本開示の実施形態によれば、三次元空間のオーディオキャリブレーションプロファイルを計算するためのシステムが提供される。本システムは、1つ以上のテストサウンドを出力するための手段と、三次元空間の中の1つ以上の場所の各々において1つ以上のテストサウンドを記録するための手段と、1つ以上の場所の各々に対応する空間座標を判定するための手段と、上記の場所について判定された空間座標と、上記の場所において記録された1つ以上のテストサウンドとに基づいて、上記の場所の各々についてのローカルオーディオプロファイルを生成するための手段と、三次元空間をマッピングするための手段と、マッピングに基づいて、三次元空間のモデルを生成するための手段と、三次元空間のモデルとローカルオーディオプロファイルとに基づいて、三次元空間のオーディオキャリブレーションプロファイルを計算するための手段と、を備える。
【0030】
本開示の更なる特徴、実施例、及び利点は、以下の記載から、及び添付の請求項から明らかになるであろう。
【図面の簡単な説明】
【0031】
本開示並びにその特徴及び利点のより完全な理解を提供するために、添付の図面と併せて以下の記載を参照し、同様の参照番号は同様の部分を表す。
図1図1は、本開示の実施形態によるシステムのブロック図である。
図2図2は、本開示の実施形態によるシステムのブロック図である。
図3図3は、本開示の実施形態によるシステムのブロック図である。
図4図4は、図1に示されるシステムの概略図である。
図5図5は、本開示の実施形態による方法のフロー図である。
【発明を実施するための形態】
【0032】
本開示は、サウンドバーデバイスなどの第1の電子装置、及びモバイルフォンなどの第2の電子装置を含むシステムに関する。
【0033】
第1の電子装置は、1つのスピーカ又は複数のスピーカ(例えば、5つ又は7つのスピーカ)を含み得る。第1の電子装置が複数のスピーカを含む実施例では、各スピーカは、第1の電子装置の異なるチャネルに対応し得る。例えば、第1の電子装置は、5つのチャネル又は7つのチャネルを有し得る。第1の電子装置は、スピーカを収容するエンクロージャを含み得る。
【0034】
第1の電子装置のサウンド出力デバイスは、第2の電子装置によって記録される一連のテストサウンドを、部屋などの三次元空間の中の複数の場所において出力することができる。これらの記録は、上記の場所の各々における三次元空間のサウンド再生特性に関する情報を提供する。
【0035】
第1の電子装置及び第2の電子装置のうちの一方又は両方は、三次元空間をマッピングし、かつマッピングに基づいて三次元空間のモデルを生成することができる3D画像化デバイスを含む。また、3D画像化デバイスは、テストサウンドが記録されているときに、上記の場所の各々に対応する空間座標を記録する。本明細書では、3D画像化デバイスを含む電子装置は「A」とラベル付けされ、3D画像化デバイスを有していない電子装置は「B」とラベル付けされている。
【0036】
本システムはまた、クラウド処理システムなどの処理システムを含む。テストサウンド及びそれらに関連付けられた空間座標の記録は、三次元空間のモデルと一緒に処理システムに送信される。本処理システムは、マルチフィジックスシミュレーションなどのシミュレーションを介して三次元空間のオーディオキャリブレーションプロファイルを生成するために、この情報の全てを使用することができる。例えば、オーディオキャリブレーションプロファイルは、三次元空間の中の様々な場所についての周波数等化情報を含み得る。代替的に又は追加的に、オーディオキャリブレーションプロファイルは、異なるスピーカ、例えば、第1の電子装置のスピーカの一時的なプレイバック遅延を含み得る。
【0037】
本処理システムは、オーディオキャリブレーションプロファイルを三次元空間の中に位置するサウンド出力デバイス(例えば、第1の電子装置)に送信する。サウンド出力デバイスは、三次元空間の中の任意の所与の場所に対して出力するサウンドを最適化するために、オーディオキャリブレーションプロファイルを使用することができる。例えば、サウンド出力デバイスは、三次元空間の中の所与の場所の周波数応答を平坦化するために、オーディオキャリブレーションプロファイルを使用し得る。
【0038】
図1は、本開示の実施形態によるシステムを示すブロック図である。
【0039】
本システムは、第1の電子装置100A、第2の電子装置200B、及び処理システム300を含む。
【0040】
第1の電子装置100Aは、部屋などの三次元空間の中の特定の場所に設置されるように設計された電子装置である。この実施例では、第1の電子装置100Aは、サウンドバーデバイスである。サウンドバーデバイス100Aは、エンクロージャ(図示せず)内に収容された複数のスピーカ(この場合では、5つのスピーカ)を含む。
【0041】
第2の電子装置200Bは、モバイル(すなわち、可搬型)電子装置である。この実施例では、第2の電子装置は、モバイルフォンである。他の実施例では、第2の電子デバイスは、マイクロフォンであり得る。
【0042】
第1の電子装置100Aは、サウンド出力デバイス110を含み、このサウンド出力デバイス110は、サウンド、例えば、テストサウンド又は一連のテストサウンドを出力するように構成されている。サウンド出力デバイス110は、スピーカを含む。通常の使用では、サウンド出力デバイス110は、テレビ(図示せず)などの別のデバイスから受信されるオーディオ信号に基づいてサウンドを出力し得る。
【0043】
本実施例では、第1の電子装置100Aは、3D画像化デバイス130を含み、この3D画像化デバイス130は、第1の電子装置100を取り囲む三次元空間をマッピングし、マッピングに基づいて三次元空間のモデルを生成するように構成されている。三次元空間をマッピングすることは、部屋の天井など、三次元空間の1つ以上の境界を識別することを含み得る。そのような場合、3D画像化デバイス130は、天井の最大高さを判定し得る。3D画像化デバイス130は、三次元空間を画像化し、かつ3Dモデルを構築することができる任意の技術、例えば、飛行時間(ToF)、レーダ及び/又はステレオビジョンを利用し得る。例えば、3D画像化デバイス130は、飛行時間カメラを含み得、この飛行時間カメラは、間接飛行時間又は直接飛行時間カメラであり得る。
【0044】
3D画像化デバイス130は、三次元空間の中の異なる場所において第2の電子装置200Bを検出し、各場所に対応する空間座標を記録するように構成されている。3D画像化デバイス130はまた、各一組の空間座標に対応するタイムスタンプを記録するように構成されている。
【0045】
本実施例では、3D画像化デバイス130は、オブジェクト認識プロセスを使用して、第2の電子装置200Bを検出する、すなわち、3D画像化デバイス130は、モバイルフォンを識別するように訓練される。第2の電子装置200Bがマイクロフォンである実施例では、3D画像化デバイス130は、マイクロフォンを識別するように訓練される。他の実施例では、第2の電子装置200Bは、識別子(例えば、タグ)を含み得るが、3D画像化デバイス130は、第2の電子装置を検出するために、第2の電子装置200Bの識別子を識別するように訓練される。更に他の実施例では、第2の電子装置200Bは、光源(例えば、発光ダイオード(LED))を含み得るが、この光源は、特定の周波数で光のフラッシュを発するように構成されている。そのような実施例では、3D画像化デバイス130は、三次元空間の中の特定の場所において第2の電子装置200Bを検出するために、光のフラッシュを識別するように構成されている。
【0046】
いくつかの実施例では、3D画像化デバイス130は、第2の電子装置200Bをマッピングし、第2の電子装置200Bのモデルを生成するように構成されている。いくつかの実施例では、3D画像化デバイスは、ユーザをマッピングし、ユーザのモデルを生成するように構成されている。
【0047】
いくつかの実施例では、三次元空間のモデルは、それらの場所及びそれらのサウンド反射プロパティなど、三次元空間の境界についての情報を含む。3D画像化デバイス130はまた、三次元空間の境界の中の任意の開口部を識別し得るが、これらの開口部の場所は、モデルの中に記録することができる。3D画像化デバイス130はまた、三次元空間の中のオブジェクトを識別し、オブジェクトの材料を検出し得る。オブジェクトのモデルは、それらのサウンド反射プロパティに関する情報を含み得る。この追加情報のいずれか又は全ては、三次元空間のモデルに組み込まれ得るが、これにより、モデルが三次元空間のオーディオ特性をより正確に表すことが可能になる。
【0048】
第1の電子装置100Aはまた、第1の電子装置100Aの全体的な動作を制御するように構成されたプロセッサ140、並びに通信機150及びメモリ160を含む。通信機150は、第1の電子装置100Aに近接して他のデバイスと(例えば、Bluetooth又はWiFiを介して)通信するように構成されている。通信機150はまた、処理システム300と(例えば、インターネット接続を介して)通信するように構成されている。
【0049】
プロセッサ140は、記録されたテストサウンド及び一組の記録されたテストサウンドごとのタイムスタンプなどの情報を、通信機150を介して第2の電子装置200Bから受信することができる。空間座標及び記録されたテストサウンドのタイムスタンプを使用して、プロセッサ140は、各一組の記録されたテストサウンドを一組の空間座標に関連付けることができる。所与の場所において記録されたテストサウンドと、上記の場所について判定された空間座標は、上記の場所のローカルオーディオプロファイルと称される。プロセッサ140は、複数のローカルオーディオプロファイルを生成し、これらをメモリ160に記憶することができる。
【0050】
プロセッサ140は、通信機150を介して、上記の場所のローカルオーディオプロファイルを処理システム300に送信することができる。プロセッサ140はまた、通信機150を介して、三次元空間のモデルを処理システム300に送信することができる。
【0051】
第2の電子装置200Bは、サウンド記録デバイス220を含み、このサウンド記録デバイス220は、第1の電子装置100Aによって出力されたテストサウンドなどのサウンドを記録するように構成されている。本実施例では、第2の電子装置200Bはまた、サウンドを出力するように構成されたサウンド出力デバイス210を含む。
【0052】
本実施例では、第2の電子装置200Bは、第2の電子装置200Bの全体的な動作を制御するように構成されたプロセッサ240、並びに、通信機250及びメモリ260を含む。プロセッサ240は、テストサウンドの各記録に関連付けられたタイムスタンプを記録するように構成されている。
【0053】
通信機250は、第1の電子デバイス100Aなど、第2の電子装置200Bに(例えば、Bluetooth又はWiFiを介して)近接している他のデバイスと通信するように構成されている。通信機250はまた、処理システム300と(例えば、インターネット接続を介して)通信するように構成され得る。第2の電子装置200Bはまた、ディスプレイ270を含み、このディスプレイ270は、タッチスクリーンであり得る。
【0054】
第2の電子装置200Bがマイクロフォンである実施例では、第2の電子装置200Bは、サウンド記録デバイス220を含むが、ディスプレイなどの他の特徴は省略され得る。マイクロフォンは、有線接続又はワイヤレス接続を介して第1の電子装置100Aに接続され得、マイクロフォンによって記録されるテストサウンドを第1の電子装置100Aに送信することができる。第2の電子装置200Bがマイクロフォンである実施例では、第1の電子装置100Aのプロセッサ140は、一組の記録されたテストサウンドごとのタイムスタンプを記録するように構成され得る。
【0055】
処理システム300は、1つ以上のプロセッサ340、メモリ350、及び通信機360を含む。プロセッサ340は、通信機360を介して第1の電子装置100A及び/又は第2の電子装置200Bから情報を受信するように構成されている。プロセッサ340は、1つ以上のデジタル信号プロセッサ(DSP)を含み得る。いくつかの実施例では、処理システム300は、第1の電子装置100A及び第2の電子装置200Bから遠隔にあるクラウド処理システム(例えば、クラウドサーバ)である。
【0056】
本実施例では、プロセッサ340は、三次元空間のモデルを第1の電子装置100Aから受信するように構成されている。プロセッサ340はまた、三次元空間の中の場所のローカルオーディオプロファイルを第1の電子装置100Aから受信するように構成されている。いくつかの実施例では、プロセッサ340は、第2の電子装置200Bのモデル及び/又はユーザのモデルを受信するように構成されている。
【0057】
プロセッサ340は、受信した情報に基づいてマルチフィジックスシミュレーションを行い、三次元空間のオーディオキャリブレーションプロファイルを計算する。オーディオキャリブレーションプロファイルは、三次元空間の幾何学形状及び音響応答を考慮して、プレイバック中にオーディオ信号に対してなされる必要がある変更を判定し得る。
【0058】
プロセッサ340が第2の電子装置200Bのモデル及び/又はユーザのモデルを受信する実施例では、プロセッサ340は、オーディオキャリブレーションプロファイルを計算するときに、三次元空間における第2の電子装置200B及び/又はユーザの存在を補償することができる。換言すれば、第2の電子装置200B及び/又はユーザが三次元空間のオーディオ特性に及ぼす影響は、破棄することができる。
【0059】
次いで、プロセッサ340は、通信機360を介して、オーディオキャリブレーションプロファイルを第1の電子装置100Aに送信し、第1の電子装置100Aは、オーディオキャリブレーションプロファイルに基づいてサウンド出力デバイス110を介してサウンドを出力することができる。例えば、第1の電子装置100Aは、第1の電子装置100Aのチャネルごとに、ビーム角、経路長、利得、及び焦点距離などのパラメータを調整し得る。
【0060】
更に、第1の電子装置100Aの通常の動作中に、三次元空間のモデルは、三次元空間におけるユーザ(又は複数のユーザ)の位置を考慮するために、3D画像化デバイス130からの情報に基づいて更新され得る。次いで、更新されたモデルは、ユーザ(又は複数のユーザ)の場所に適合するオーディオキャリブレーションプロファイルを計算するために使用される。これは、最適化された体験をユーザ(又は複数のユーザ)に提供し得る。第1の電子装置100Aはまた、スピーカのビーム特性を調整するためにユーザ(又は複数のユーザ)の場所を使用し得、上記の場所において理想的な空間的又はサラウンドサウンド体験を作り出す。
【0061】
3D画像化デバイス130は、第1の電子装置100Aがユーザに対して最適なキャリブレーションプロファイルを使用していることを確実にするために、三次元空間の中のユーザ(又は複数のユーザ)の場所を定期的に判定し得る。ユーザの場所(又は複数の場所)が、テストサウンドを記録するために第2の電子装置200Bが配置された位置と所定の閾値を超えて異なる場合、第1の電子装置デバイス100Aは、キャリブレーションプロセスを繰り返す必要があることを示す出力(例えば、サウンド)を提供し得る。
【0062】
3D画像化デバイス130はまた、三次元空間の中の検出されたオブジェクトの場所を三次元空間の以前に生成されたモデルと比較することによって、三次元空間の中のオブジェクトが再配置されたかどうか、又は新しいオブジェクトが追加されたかどうかを判定することができる。3D画像化デバイス130が、オブジェクトの構成が所定の閾値を超えて変化したと判定する場合、第1の電子装置デバイス100Aは、キャリブレーションプロセスを繰り返す必要があることを示す出力(例えば、サウンド)を提供し得る。
【0063】
図2は、本開示の実施形態によるシステムを示すブロック図である。
【0064】
システムは、第1の電子装置100B、第2の電子装置200A、及び処理システム300を含む。この実施例では、第1の電子装置100Bは、サウンドバーデバイスであり、第2の電子装置200Aは、モバイルフォンである。「サウンドバーデバイス」とは、同じ物理的なスピーカエンクロージャ内に取り付けられた複数の独立して駆動可能又はアドレス指定可能なスピーカ又はサウンダを有するデバイスを意味し、それにより、複数のスピーカ又はサウンダは、本質的に共通のエンクロージャ内に配置され、次いで共通のエンクロージャは、部屋の中のある点に配置される。そのようなデバイスは、当技術分野において周知であり、実施例としては、Sonos Inc.(Santa Barbara,CA)から入手可能なSonos(登録商標)Ray(登録商標)及びBeam(登録商標)サウンドバーが挙げられる。そのようなデバイスは、それ自体を独立して使用することができるか、又は例えばフルルームサラウンドサウンドシステムを提供するために、同じ部屋の中のサウンドバーから物理的に分離されたそれら自身のエンクロージャに設けられた他の物理的に分離されたスピーカと一緒に使用することができる。本開示の実施例では、サウンドバーデバイスは、典型的には、それ自体で使用され、他の物理的に分離されたスピーカを伴っていない。処理システム300は、図1に関連して上述した処理システム300と同じであるため、処理システムの詳細な記載は省略する。
【0065】
図1に示される第1の電子装置100Aとは対照的に、第1の電子装置100Bは、3D画像化デバイスを含んでいない。代わりに、第2の電子装置200Aは、3D画像化デバイス230を含み、この3D画像化デバイス230は、図1に関して上述した3D画像化デバイス130と実質的に同じである。3D画像化デバイス230は、三次元空間を画像化し、かつ3Dモデルを構築することができる任意の技術、例えば、飛行時間(ToF)、レーダ及び/又はステレオビジョンを利用し得る。例えば、3D画像化デバイス130は、飛行時間カメラを含み得、この飛行時間カメラは、間接飛行時間又は直接飛行時間カメラであり得る。
【0066】
3D画像化デバイス230は、第2の電子装置200Aを取り囲む三次元空間をマッピングし、マッピングに基づいて三次元空間のモデルを生成するように構成されている。3D画像化デバイス230はまた、三次元空間の中のオブジェクトの空間座標を判定するように構成されている。例えば、3D画像化デバイス230は、三次元空間内の第1の電子装置100Aの場所を判定することができる。3D画像化デバイス230は、テストサウンドが記録される三次元空間の中の各場所において第2の電子装置200Aの空間座標を記録するように構成されている。プロセッサ240は、場所ごとにローカルオーディオプロファイルを生成することができ、ローカルオーディオプロファイルをメモリ260に記憶することができる。プロセッサ240は、通信機250を介して、ローカルオーディオプロファイルを処理システム300に送信することができる。プロセッサ240はまた、通信機250を介して、三次元空間のモデルを処理システム300に送信することができる。
【0067】
図3は、本開示の実施形態によるシステムを示すブロック図である。
【0068】
本システムは、第1の電子装置100A、第2の電子装置200A、及び処理システム300を含む。第1の電子装置100Aは、サウンドバーデバイスであり、第2の電子装置200Aは、モバイルフォンである。処理システム300は、図1に関連して上述した処理システム300と同じであるため、処理システムの詳細な記載は省略する。
【0069】
図3に示されるシステムでは、第1の電子装置100A及び第2の電子装置200Aは各々、それぞれの3D画像化デバイス130、230を含む。この実施例では、三次元空間のマッピング及び三次元空間のモデルの生成は、第1の電子装置100A及び第2の電子装置200Aのいずれかによって行うことができる。同様に、この実施例では、第2の電子装置200Aの各場所に対応する空間座標の記録は、第1の電子装置100A及び第2の電子装置200Aのいずれかによって行うことができる。
【0070】
上記のシステムは、第1の電子装置及び第2の電子装置に加えて、処理システムを含む。他の実施例では、本システムは、第1の電子装置及び第2の電子装置を含み、別個の処理システムは伴わない。そのような実施例では、処理システムによって行われる処理は、第1の電子装置又は第2の電子装置によって行われ得る。処理が第1の電子装置又は第2の電子装置によって行われる実施例では、処理は、オーディオキャリブレーションプロファイルに従って1つ以上のオーディオ信号を処理することを含み得る。これらの処理されたオーディオ信号は、第1の電子装置又は第2の電子装置のサウンド出力デバイスによって出力され得る。
【0071】
図4は、図1に示されるシステムの概略図である。本システムは、サウンドバーデバイス100A、モバイルフォン200B、及びクラウド処理システム300を含む。
【0072】
この実施例では、サウンドバーデバイス100Aは、部屋Rの中の特定の場所に設置されている。モバイルフォン200Bもまた、部屋Rの中に位置し、ユーザが部屋Rの中の異なる場所に移動させることができる。クラウド処理システム300は、部屋Rから遠隔にある場所にあり、インターネット接続400を介してサウンドバーデバイス100A及び/又はモバイルフォン200Bに接続されている。
【0073】
部屋Rは、6つのリスニングゾーン1~6に分割されている。リスニングゾーン1~3は、部屋R内の椅子Cの位置に対応し、リスニングゾーン4~6は、ソファS上の異なる位置に対応している。図4は、リスニングゾーン1に位置するモバイルフォン200Bを示している。リスニングゾーンのこの配置は単なる例示であり、一般に、リスニングゾーンの数及びリスニングゾーンのそれぞれの位置は、部屋の大きさ及び部屋内の潜在的なユーザ数に応じて判定され得る。
【0074】
キャリブレーションプロセスの間、モバイルフォン200Bは、リスニングゾーン1~6の各々に配置される。モバイルフォン200Bが所与のリスニングゾーンに位置するとき、サウンドバーデバイス100Aのサウンド出力デバイス110は、モバイルフォン200Bによって記録される一連のテストサウンドを再生する。リスニングゾーンごとに、サウンドバーデバイス100Aの3D画像化デバイス130は、部屋R内のモバイルフォン200BのX、Y、Z座標を取り込む。サウンドバーデバイス100Aは、モバイルフォン200Bからリスニングゾーンごとの記録されたテストサウンドを受信し、記録されたテストサウンドとリスニングゾーンごとのモバイルフォン200Bの場所とを、リスニングゾーンのローカルオーディオプロファイルとして記憶する。
【0075】
サウンドバーデバイス100Aの3D画像化デバイス130は、その視野(FoV)内で部屋をマッピングし、マッピングプロセスから得られたデータに基づいて、部屋Rのモデルを作り出す。このマッピングプロセスは、モバイルフォン200Bによるテストサウンドの記録の前又は後のいずれかで行われ得る。部屋Rのモデルは、部屋Rの床、天井、及び壁の場所など、部屋Rの境界についての情報を含む。3D画像化デバイス130はまた、窓又は換気口シャフトなどの境界の任意の開口部を識別し得るが、これらは、モデルに含まれ得る。
【0076】
3D画像化デバイス130はまた、椅子C及びソファSなどの部屋Rの中のオブジェクトを識別し得る。3D画像化デバイス130はまた、部屋Rの中のオブジェクトの材料を検出することが可能であり得る。この追加情報は、部屋Rのモデルに組み込まれ得る。これにより、モデルが部屋Rのオーディオ特性をより正確に表すことが可能になる。
【0077】
テストサウンドの記録及びモデルの生成が完了すると、サウンドバーデバイス100Aは、インターネット接続400を介して、部屋のモデル及びリスニングゾーンのローカルオーディオプロファイルをクラウド処理システム300に送信する。クラウド処理システム300は、部屋Rのモデル及びローカルオーディオプロファイルを使用して部屋Rのマルチフィジックスシミュレーションを行い、部屋Rのオーディオキャリブレーションプロファイルを生成する。次いで、部屋Rのオーディオキャリブレーションプロファイルは、インターネット接続400を介してサウンドバーデバイス100Aに送信される。
【0078】
サウンドバーデバイス100Aの動作中、部屋Rのモデルは、部屋Rの中のユーザ(又は複数のユーザ)の位置、特に、ユーザがどのリスニングゾーンに位置するかを考慮するために、3D画像化デバイス130からの情報に基づいて更新することができる。サウンドバーデバイス100Aは、クラウド処理システム300から受信した部屋Rのオーディオキャリブレーションプロファイルに基づいて、リスニングゾーン内のユーザの適切なオーディオ等化プロファイルを使用することができる。
【0079】
3D画像化デバイス130は、部屋Rの中の家具(例えば、椅子C及びソファS)が再配置されたかどうか、又は新しい家具が部屋Rに追加されたかどうかを判定することができる。3D画像化デバイスが、家具が以前に検出された位置から特定の閾値外に移動したと判定する場合、サウンドバーデバイス100Aは、キャリブレーションプロセスを繰り返す必要があることを示す出力(例えば、サウンド)を提供し得る。
【0080】
図5は、本開示の実施形態による方法を示すフロー図である。
【0081】
本方法は、第1の電子装置によって、1つ以上のテストサウンドを出力すること(S510)、及び第2の電子装置によって、三次元空間の中の1つ以上の場所の各々において1つ以上のテストサウンドを記録すること(S520)、を含む。第2の電子装置は、モバイル装置である。
【0082】
本方法は、第1の電子装置又は第2の電子装置によって、1つ以上の場所の各々に対応する空間座標を判定すること(S530)を更に含む。
【0083】
本方法は、上記の場所について判定された空間座標と、上記の場所において記録された1つ以上のテストサウンドとに基づいて、上記の場所の各々のローカルオーディオプロファイルを生成すること(S540)を更に含む。このステップは、第1の電子装置又は第2の電子装置によって行われ得る。代替的に、このステップは、処理システムによって行われ得る。
【0084】
本方法は、第1の電子装置又は第2の電子装置によって、三次元空間をマッピングすること(S550)と、マッピングに基づいて三次元空間のモデルを生成すること(S560)と、を更に含む。モデルを生成することは、第1の電子装置又は第2の電子装置によって行われ得る。代替的に、このステップは、処理システムによって行われ得る。
【0085】
本方法は、三次元空間のモデルとローカルオーディオプロファイルとに基づいて、三次元空間のオーディオキャリブレーションプロファイルを計算すること(S570)を更に含む。このステップは、処理システムによって行われ得る。代替的に、このステップは、第1の電子装置又は第2の電子装置によって行われ得る。
【0086】
本方法のステップの順序は、図5に示される特定の順序に限定されないことを理解されたい。例えば、ステップ550及び560は、ステップ510~540の前に行われ得る。
【0087】
追加、削除、又は置換によるかどうかにかかわらず、追加の実施例を提供するための上述の実施例に対する様々な更なる修正が当業者には明らかであり、それらのいずれか及び全ては、添付の特許請求の範囲によって包含されることが意図される。
図1
図2
図3
図4
図5
【国際調査報告】