(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公表特許公報(A)
(11)【公表番号】
(43)【公表日】2025-01-22
(54)【発明の名称】高忠実度倍率を可能にするインタラクティブビデオ再生技法
(51)【国際特許分類】
G09G 5/373 20060101AFI20250115BHJP
H04N 21/4402 20110101ALI20250115BHJP
H04N 21/4728 20110101ALI20250115BHJP
G09G 5/37 20060101ALI20250115BHJP
G09G 5/00 20060101ALI20250115BHJP
G09G 5/377 20060101ALI20250115BHJP
【FI】
G09G5/373 100
H04N21/4402
H04N21/4728
G09G5/37 320
G09G5/00 550C
G09G5/00 555A
G09G5/00 530M
G09G5/377
【審査請求】有
【予備審査請求】未請求
(21)【出願番号】P 2024536485
(86)(22)【出願日】2022-12-25
(85)【翻訳文提出日】2024-06-18
(86)【国際出願番号】 US2022082385
(87)【国際公開番号】W WO2023133060
(87)【国際公開日】2023-07-13
(32)【優先日】2022-01-07
(33)【優先権主張国・地域又は機関】US
(81)【指定国・地域】
(71)【出願人】
【識別番号】310021766
【氏名又は名称】株式会社ソニー・インタラクティブエンタテインメント
(74)【代理人】
【識別番号】100105924
【氏名又は名称】森下 賢樹
(72)【発明者】
【氏名】クリシュナン、ラティシュ
【テーマコード(参考)】
5C164
5C182
【Fターム(参考)】
5C164GA07
5C164MA02S
5C164PA33
5C164UA31S
5C164UB02P
5C164UD44P
5C182AA22
5C182AA31
5C182AB01
5C182AB02
5C182AB08
5C182AB14
5C182AB34
5C182AB35
5C182AC43
5C182BA01
5C182BA06
5C182BA27
5C182BA29
5C182BA30
5C182BA39
5C182BA46
5C182BA47
5C182BC01
5C182BC22
5C182BC25
5C182BC26
5C182BC29
5C182CB13
5C182CB14
5C182CB45
5C182CB52
5C182CC21
5C182DA41
5C182DA44
(57)【要約】
第1のビデオ(400)を提示しているときに、ズームコマンド(206)に応答して、第2のビデオ(408)が第1のビデオと組み合わされて提示される。第1及び第2のビデオは、互いに実質的に同じカメラ場所から、実質的に同じ時間に、実質的に同じ解像度で生成される。しかしながら、第2のビデオは、第1のビデオを生成する際に使用される物理又は仮想レンズの視野(FOV)よりも小さいFOVを有する物理又は仮想レンズによって生成される。整合メトリックを使用して第2のビデオを内側ビデオの上に正しく配置し、それをシームレスに見せるためのモジュール(508、510)が記載されている。
【選択図】なし
【特許請求の範囲】
【請求項1】
デバイスであって、
一時的な信号ではなく、少なくとも1つのプロセッサによって実行可能な命令を含む少なくとも1つのストレージデバイスを備え、前記命令は、前記プロセッサに、
第1のサイズを有する第1のオブジェクトを有する第1のビデオを提示させ、
ズームコマンドに応答して、前記第1のサイズよりも大きい第2のサイズを有する前記第1のオブジェクトを有する第2のビデオを提示させ、
前記第2のビデオのフレームを、単一の次元における前記第2のビデオ内の提示された画素の数に対する前記第1のビデオ内の提示された画素の数の比率を少なくとも部分的に使用して、前記第1のビデオのフレームと整合させる、デバイス。
【請求項2】
前記命令は、
前記第1のビデオのフレームの関心領域(ROI)に対する前記第2のビデオの水平オフセットを識別し、
前記第1のビデオの前記フレームの前記ROIに対する前記第2のビデオの垂直オフセットを識別し、
前記オフセットを使用して、前記第2のビデオのフレームを前記第1のビデオのフレームに整合させるように実行可能である、請求項1に記載のデバイス。
【請求項3】
前記それぞれの第1及び第2のビデオを生成するように構成されたそれぞれの第1及び第2の視野(FOV)を有する第1及び第2の物理カメラ又は仮想カメラを備え、前記第1のFOVは、前記第2のFOVよりも大きく、前記第1及び第2のカメラは、前記第1のオブジェクトの画像を互いに同時にキャプチャする、請求項2に記載のデバイス。
【請求項4】
前記命令は、前記第1及び第2のビデオのブレンドを促進するために、前記カメラのための自動露出を無効にするように実行可能である、請求項3に記載のデバイス。
【請求項5】
前記命令は、
前記第1及び第2のビデオを時間的に同期し、
前記第1及び第2のビデオを、それぞれの第1及び第2のビットストリームとして符号化するように実行可能である、請求項3に記載のデバイス。
【請求項6】
前記命令は、それぞれの第1及び第2のデコーダを使用して、両方のビットストリームを同時に復号するように実行可能である、請求項3に記載のデバイス。
【請求項7】
前記命令は、前記第1及び第2のビットストリームを単一のビットストリームに圧縮し、前記単一のビットストリームを復号するために単一のデコーダを使用するように実行可能である、請求項3に記載のデバイス。
【請求項8】
ビデオプレーヤーであって、
少なくとも1つのプロセッサを備え、前記少なくとも1つのプロセッサは、
第1の視野(FOV)を有する第1のビデオ、及び前記第1のFOVよりも小さい第2のFOVを有する第2のビデオの画素を出力することと、
前記画素を出力するために少なくとも1つの復号モジュール(DM)及び少なくとも1つのレンダリングモジュール(RM)を実行することであって、前記DMは、少なくとも1つのデコーダを備え、前記RMは、少なくとも1つのシェーダを備える、実行することと、
少なくとも部分的に前記DM及び/又はRMを使用して、ズームコマンドに応答して前記第1及び第2のビデオの少なくとも一部を少なくとも1つのディスプレイに提供することと、を行うように構成された、ビデオプレーヤー。
【請求項9】
前記プロセッサは、
前記第1のビデオにおける関心領域(ROI)に対する整合メトリックを使用して、前記第2のビデオを前記第1のビデオと整合させるように構成されている、請求項8に記載のビデオプレーヤー。
【請求項10】
前記ビデオを整合させることは、固定された整合メトリックを使用する、請求項9に記載のビデオプレーヤー。
【請求項11】
前記ビデオを整合させることは、時間とともに変化する整合メトリックを使用する、請求項9に記載のビデオプレーヤー。
【請求項12】
前記整合メトリックは、前記DMによって復号されたビットストリーム内のメタデータにおいて受信される、請求項11に記載のビデオプレーヤー。
【請求項13】
前記プロセッサは、動き推定及び画像マッチングを使用して前記整合メトリックを計算するように構成されている、請求項11に記載のビデオプレーヤー。
【請求項14】
前記ズームコマンドは、倍率レベル(ML)を確立し、前記プロセッサは、前記第1及び第2のビデオのどの部分が前記ディスプレイ上で可視にされるかを判定するために前記MLを使用するように構成されている、請求項8に記載のビデオプレーヤー。
【請求項15】
前記プロセッサは、画質劣化をもたらす倍率レベルを回避するために、MLについて上限及び下限を配置するように構成されている、請求項14に記載のビデオプレーヤー。
【請求項16】
前記プロセッサは、MLを増加させる前記ズームコマンドに応答して、第1のビデオの可視画素の数を減少させ、前記第2のビデオの可視画素の数を増加させるように構成されている、請求項14に記載のビデオプレーヤー。
【請求項17】
前記プロセッサは、2つの別個のビデオではなく単一のビデオを見ることの知覚を作成するために、前記ズームコマンドに関連付けられた倍率レベル(ML)、前記整合メトリック、及び同期のための前記ビデオに関連付けられた入力ビットストリームのフレーム番号を使用するために、前記RMの前記少なくとも1つのシェーダを実行するように構成されている、請求項9に記載のビデオプレーヤー。
【請求項18】
前記プロセッサは、前記ビデオ間の境界をマスクするために、前記少なくとも1つのシェーダを使用して前記ビデオをフェザリングするように構成されている、請求項17に記載のビデオプレーヤー。
【請求項19】
前記プロセッサは、前記ズームコマンドによって確立された倍率レベル(ML)が、前記第2のビデオの一部が復号されず、前記DMの少なくとも1つのデコーダが非アクティブ状態にあるような第1のMLであるとき、前記第2のビデオの少なくとも一部のレンダリングをスキップするように構成されている、請求項8に記載のビデオプレーヤー。
【請求項20】
前記プロセッサは、前記MLの変化に応答して、復号される現在のフレームがキーフレームであるときにのみ、前記少なくとも1つのデコーダを非アクティブ状態からアクティブ状態に変化させるように構成されている、請求項19に記載のビデオプレーヤー。
【請求項21】
方法であって、
それぞれの第1、第2、及び第3のビデオを表す少なくとも第1、第2、及び第3のビットストリームを受信することと、
少なくとも第1の要求倍率レベル(ML)に応答して、前記第1のビデオをレンダリングするために第1のデコーダで前記第1のビットストリームを復号し、前記第2のビデオをレンダリングするために第2のデコーダで前記第2のビットストリームを復号することと、
前記第1及び第2のビデオをディスプレイ上に提示することと、
前記第1の要求MLよりも大きい第2の要求MLに応答して、前記第3のビデオをレンダリングするために前記第1のデコーダで前記第3のビットストリームを復号し、前記第2のビデオをレンダリングするために前記第2のデコーダで前記第2のビットストリームを復号することと、
前記第2及び第3のビデオをディスプレイ上に提示することと、を含む、方法。
【請求項22】
前記第1又は第2の要求MLに従って各ビットストリームの復号された画素を表示するために、前記デコーダのうちの少なくとも1つから渡されたビットストリーム識別子(ID)を使用することと、
少なくとも1つのビットストリームIDの変化に応答して、異なるテクスチャ及びサンプリング座標を使用するようにレンダリングを更新することと、を含む、請求項21に記載の方法。
【請求項23】
複数のビットストリームを処理するために前記第1のデコーダの同じインスタンスを使用することであって、前記ビットストリームのキーフレームが、ユーザーが前記MLをどのくらい速く増加又は減少させることができるかに従って整合され、均等に離間される、使用することと、
各ビットストリームについてのキーフレーム位置及びオフセットを事前計算することと、を含む、請求項21に記載の方法。
【請求項24】
要求MLに基づいて処理されるべき次のビットストリームを予測するために少なくとも1つのデコーダを使用することと、
前記MLの変化速度を促進するために、復号された画素を、前記復号された画素が前記ディスプレイ上で可視にされる前に、レンダリングするように前記次のビットストリームを復号することと、を含む、請求項23に記載の方法。
【請求項25】
前記プロセッサは、MLを減少させる前記ズームコマンドに応答して、第1のビデオの可視画素の数を増加させ、前記第2のビデオの可視画素の数を減少させるように構成されている、請求項14に記載のビデオプレーヤー。
【発明の詳細な説明】
【技術分野】
【0001】
本出願は、概して、解像度を失うことなくビデオをズームするためのモジュールに関する。
【背景技術】
【0002】
本明細書で認識されるように、ビデオをズームするとき、高レベルのズームでは、画像がピクセル化する。これは、非常に高い解像度を有するビデオを提供することによって緩和されることができるが、そのようなビデオは、過度のストレージ及び帯域幅を消費する。現在、上記のコンピュータ関連の技術的問題に対する適切な解決策はない。
【発明の概要】
【0003】
したがって、一態様では、デバイスは、一時的な信号ではない一方、少なくとも1つのプロセッサによって実行可能な命令を含む少なくとも1つのストレージデバイスを含み、実行可能な命令は、プロセッサに第1のサイズを有する第1のオブジェクトを有する第1のビデオを提示させる。命令は、ズームコマンドに応答して、第1のサイズよりも大きい第2のサイズを有する第1のオブジェクトを有する第2のビデオを提示し、第2のビデオのフレームを、単一の次元における第2のビデオ内の画素の数に対する第1のビデオ内の画素の数の比率を少なくとも部分的に使用して、第1のビデオのフレームと整合させるように実行可能である。
【0004】
この第1の態様の例示的な実装形態では、命令は、第1のビデオのフレームの関心領域(ROI)に対する第2のビデオの水平オフセットを識別し、第1のビデオのフレームのROIに対する第2のビデオの垂直オフセットを識別し、それらのオフセットを使用して、第2のビデオのフレームを第1のビデオのフレームに整合させるように実行可能であり得る。そのような実装形態では、デバイスは、それぞれの第1及び第2のビデオを生成するように構成されたそれぞれの第1及び第2の視野(FOV)を有する第1及び第2の物理カメラ又は仮想カメラを含み得、第1のFOVは、第2のFOVよりも大きく、第1及び第2のカメラは、第1のオブジェクトの画像を互いに同時にキャプチャする。
【0005】
所望であれば、命令は、第1及び第2のビデオのブレンドを促進するために、カメラのための自動露出を無効にするように更に実行可能であり得る。
【0006】
上記の実施例では、命令は、第1及び第2のビデオを時間的に同期し、第1及び第2のビデオを、それぞれの第1及び第2のビットストリームとして符号化するように実行可能であることができる。命令は、それぞれの第1及び第2のデコーダを使用して、両方のビットストリームを同時に復号するように実行可能であり得る。他の実施形態では、命令は、第1及び第2のビットストリームを単一のビットストリームに圧縮し、その単一のビットストリームを復号するために単一のデコーダを使用するように実行可能であり得る。
【0007】
別の態様では、ビデオプレーヤーが、第1の視野(FOV)を有する第1のビデオ、及び第1のFOVよりも小さい第2のFOVを有する第2のビデオの画素を出力するように構成された少なくとも1つのプロセッサを含む。プロセッサは、画素を出力するために少なくとも1つの復号モジュール(DM)及び少なくとも1つのレンダリングモジュール(RM)を実行するように構成されている。DMは、少なくとも1つのデコーダを含み、RMは、少なくとも1つのシェーダを含む。プロセッサは、DM及び/又はRMを少なくとも部分的に使用して、ズームコマンドに応答して第1及び第2のビデオの少なくとも一部を少なくとも1つのディスプレイに提供するように構成されている。
【0008】
この第2の態様のいくつかの実装形態では、プロセッサは、第1のビデオにおける関心領域(ROI)に対する整合メトリックを使用して、第2のビデオを第1のビデオと整合させるように構成され得る。ビデオを整合させることは、固定された整合メトリックを使用することができる、又は整合メトリックは、時間とともに変化することができ、その場合、それらは、DMによって復号されたビットストリーム内のメタデータにおいて受信されるか、又は動き推定及び画像マッチングを使用して計算され得る。
【0009】
第2の態様の実装形態では、ズームコマンドは、倍率レベル(ML)を確立し、プロセッサは、第1及び第2のビデオのどの部分がディスプレイ上で可視にされるかを判定するためにMLを使用するように構成され得る。そのような場合では、プロセッサは、画質劣化をもたらす倍率レベルを回避するために、MLについて上限及び下限を設定するように構成することができる。プロセッサはまた、MLを増加させるズームコマンドに応答して、第1のビデオの可視画素の数を減少させ、第2のビデオの可視画素の数を増加させるように構成することができる。
【0010】
第2の態様の実装形態では、プロセッサは、2つの別個のビデオではなく単一のビデオを見ることの知覚を作成するために、ズームコマンドに関連付けられた倍率レベル(ML)、整合メトリック、及び同期のためのビデオに関連付けられた入力ビットストリームのフレーム番号を使用するために、RMの少なくとも1つのシェーダを実行するように構成され得る。プロセッサは、ビデオ間の境界をマスクするために、少なくとも1つのシェーダを使用してビデオをフェザリングするように構成することができる。
【0011】
第2の態様のいくつかの実施形態では、プロセッサは、ズームコマンドによって確立された倍率レベル(ML)が、第2のビデオの一部が復号されず、DMの少なくとも1つのデコーダが非アクティブ状態にあるような第1のMLであるときに、第2のビデオの少なくとも一部のレンダリングをスキップするように構成することができる。例示的なプロセッサは、MLの変化に応答して、復号される現在のフレームがキーフレームであるときにのみ、少なくとも1つのデコーダを非アクティブ状態からアクティブ状態に変化させるように更に構成され得る。
【0012】
別の態様では、方法は、それぞれの第1、第2、及び第3のビデオを表す少なくとも第1、第2、及び第3のビットストリームを受信することを含む。方法は、少なくとも第1の要求倍率レベル(ML)に応答して、第1のビデオをレンダリングするために第1のデコーダで第1のビットストリームを復号し、第2のビデオをレンダリングするために第2のデコーダで第2のビットストリームを復号することと、第1及び第2のビデオをディスプレイ上に提示することとを含む。方法はまた、第1の要求MLよりも大きい第2の要求MLに応答して、第3のビデオをレンダリングするために第1のデコーダで第3のビットストリームを復号し、第2のビデオをレンダリングするために第2のデコーダで第2のビットストリームを復号することと、第2及び第3のビデオをディスプレイ上に提示することとを含む。
【0013】
この態様のいくつかの実施形態では、方法は、第1又は第2の要求MLに従って各ビットストリームの復号された画素を表示するために、デコーダのうちの少なくとも1つから渡されたビットストリーム識別子(ID)を使用することを含む。少なくとも1つのビットストリームIDの変化に応答して、レンダリングは、異なるテクスチャ及びサンプリング座標を使用するように更新され得る。
【0014】
この第3の態様の実施例では、方法は、複数のビットストリームを処理するために第1のデコーダの同じインスタンスを使用することであって、ビットストリームのキーフレームは、ユーザーがMLをどのくらい速く増加又は減少させることができるかに従って整合され、均等に離間される、使用することと、各ビットストリームについてのキーフレーム位置及びオフセットを事前計算することとを含むことができる。更に、例示的な方法は、要求MLに基づいて処理されるべき次のビットストリームを予測するために少なくとも1つのデコーダを使用することと、MLの変化速度を促進するために、復号された画素を、復号された画素がディスプレイ上で可視にされる前に、レンダリングするように次のビットストリームを復号することと、を含み得る。
【0015】
本出願の詳細は、その構造及び動作の両方に関して、添付図面を参照することにより最良に理解することができ、図中の同様の参照番号は同様の部品を示す。
【図面の簡単な説明】
【0016】
【
図1】本原理に従った例示的なシステムのブロック図である。
【
図2】本原理に沿ったロジックの実施例をフローチャート形式で例証する。
【
図3】Z軸に沿って前方に移動することによってユーザーがズームすることを例証する。
【
図5A】例示的なレンダリングモジュール及び復号モジュールのブロック図である。
【
図7】マルチFOV及びマルチ位置コンテンツキャプチャを例証する。
【発明を実施するための形態】
【0017】
本開示は、概して、例えば、5G又はATSC 3.0上で動作する無線ネットワークを含むコンピュータゲームネットワークであるが、それらに限定されないコンシューマエレクトロニクス(CE)デバイスネットワークの態様を含むコンピュータエコシステムに関する。本明細書におけるシステムは、クライアントコンポーネントとサーバコンポーネントとの間でデータが交換され得るように、ネットワーク経由で接続され得るサーバコンポーネント及びクライアントコンポーネントを含み得る。クライアントコンポーネントは、ソニーPlayStation(商標登録)又はMicrosoft、若しくは任天堂若しくは他のメーカー製のゲームコンソールなどのゲームコンソール、仮想現実(VR)ヘッドセット、拡張現実(AR)ヘッドセット、ポータブルテレビ(例えば、スマートテレビ、インターネット対応テレビ)、ラップトップ及びタブレットコンピュータなどのポータブルコンピュータ、スマートフォンを含む他のモバイルデバイスを含む1つ以上のコンピューティングデバイス、並びに後述する追加の実施例を含み得る。これらのクライアントデバイスは、様々な動作環境で動作し得る。例えば、クライアントコンピュータの中には、実施例として、Linux(登録商標)オペレーティングシステム、Microsoftのオペレーティングシステム、又はUnix(登録商標)オペレーティングシステム、又はApple社製若しくはGoogle製のオペレーティングシステムを採用し得る。これらの動作環境は、Microsoft若しくはGoogle、若しくはMozillaによって作製されたブラウザー、又は後述するインターネットサーバがホストするウェブサイトにアクセスできる他のブラウザープログラムなど、1つ以上のブラウジングプログラムを実行するために使用され得る。また、本原理による動作環境は、1つ以上のコンピュータゲームプログラムを実行するために使用され得る。
【0018】
インターネットなどのネットワーク経由でデータを受信及び送信するようにサーバを構成する命令を実行する1つ以上のプロセッサを含み得るサーバ及び/又はゲートウェイが使用され得る。あるいは、クライアント及びサーバは、ローカルイントラネット又は仮想プライベートネットワーク経由で接続されることができる。サーバ又はコントローラは、ソニーPlayStation(商標登録)などのゲームコンソール、パーソナルコンピュータなどによってインスタンス化され得る。
【0019】
情報が、クライアントとサーバとの間でネットワークを経由して交換され得る。この目的及びセキュリティのために、サーバ及び/又はクライアントは、ファイアウォール、ロードバランサ、一時ストレージ、及びプロキシ、並びに信頼性及びセキュリティのための他のネットワークインフラを含むことができる。1つ以上のサーバは、オンラインソーシャルウェブサイト又はゲーマーネットワークのような安全なコミュニティをネットワークメンバーに提供する方法を実装する装置を形成し得る。
【0020】
プロセッサは、アドレス線、データ線、及び制御線、及びレジスタ、及びシフトレジスタなどの様々な配線によってロジックを実行できるシングルチップ又はマルチチップのプロセッサであり得る。
【0021】
1つの実施形態に含まれるコンポーネントは、他の実施形態でも適切な組み合わせで使用できる。例えば、本明細書に記載される及び/又は図面に示される様々なコンポーネントはいずれも、他の実施形態と組み合わされ、交換され、又は他の実施形態から除外され得る。
【0022】
「A、B、及びCのうちの少なくとも1つを有するシステム」(同様に「A、B、又はCのうちの少なくとも1つを有するシステム」、及び「A、B、Cのうちの少なくとも1つを有するシステム」)は、Aのみ、Bのみ、Cのみ、A及びBを一緒に、A及びCを一緒に、B及びCを一緒に、並びに/又はA、B、及びCを一緒に有するシステムを含む。
【0023】
ここで具体的に
図1を参照すると、例示的なシステム10が示されており、システム10は、本原理に従って上述され、以下で更に記載される例示的なデバイスのうちの1つ以上を含み得る。システム10に含まれる例示的なデバイスの第1は、例えば、TVチューナー(等価的に、TVを制御するセットトップボックス)を備えたインターネット対応TVであるが、それに限定されない、オーディオビデオデバイス(AVD)12などのコンシューマエレクトロニクス(CE)デバイスである。AVD12はまた、代替的に、コンピュータ化されたインターネット対応(「スマート」)電話、タブレットコンピュータ、ノートブックコンピュータ、スマートメガネ又はVRヘッドセットなどのヘッドマウントデバイス(HMD)及び/又はヘッドセット、別のウェアラブルコンピュータ化されたデバイス、コンピュータ化されたインターネット対応音楽プレーヤー、コンピュータ化されたインターネット対応ヘッドフォン、植込み型スキンデバイスなどのコンピュータ化されたインターネット対応植込み型デバイスであり得る。AVD12は、それが何であるかにかかわらず、本原理を実現する(例えば、本原理を実現するために他のCEデバイスと通信し、本明細書に記載のロジックを実行し、本明細書に記載の任意の他の機能及び/又は動作を実行する)ように構成されていることを理解されたい。
【0024】
したがって、このような原理を実現するために、AVD12は
図1に示されたコンポーネントの一部又は全部によって確立することができる。例えば、AVD12は、高精細若しくは超高精細「4K」又はそれ以上のフラットスクリーンによって実装され得る1つ以上のタッチ対応ディスプレイ14を含むことができる。タッチ対応ディスプレイ14は、例えば、本原理と一致するタッチ感知用の電極のグリッドを有する容量性又は抵抗性タッチ感知層を含み得る。
【0025】
AVD12はまた、本原理に従ってオーディオを出力するための1つ以上のスピーカ16と、AVD12を制御するためにAVD12に可聴式コマンドを入力するためのオーディオ受信機/マイクロフォンなどの少なくとも1つの追加入力デバイス18とを含み得る。例となるAVD12はまた、1つ以上のプロセッサ24の制御下で、インターネット、WAN、LANなどの少なくとも1つのネットワーク22を経由して通信するための1つ以上のネットワークインターフェース20を含み得る。したがって、インターフェース20は、限定はしないが、メッシュネットワークトランシーバなどであるがそれに限定されない、無線コンピュータネットワークインターフェースの一例であるWi-Fiトランシーバであり得る。プロセッサ24は、ディスプレイ14を制御してその上に画像を提示すること、及びそこから入力を受信することなど、本明細書に記載されるAVD12の他の要素を含め、本原理を実現するためにAVD12を制御することを理解されたい。更に、ネットワークインターフェース20は、有線若しくは無線のモデム若しくはルータ、又は無線電話トランシーバ、又は前述のWi-Fiトランシーバなどの他の適切なインターフェースであり得ることに留意されたい。
【0026】
上記に加えて、AVD12は、別のCEデバイスに物理的に接続するための高精細マルチメディアインターフェース(HDMI(登録商標))ポート若しくはユニバーサルシリアルバス(USB)ポート、及び/又はヘッドフォンを通してAVD12からユーザーにオーディオを提示するためにヘッドフォンをAVD12に接続するためのヘッドフォンポートのような1つ以上の入力及び/又は出力ポート26を含み得る。例えば、入力ポート26は、有線又は無線を介して、ケーブル又はオーディオビデオコンテンツの衛星供給源26aに接続され得る。したがって、供給源26aは、別個又は統合されたセットトップボックス、あるいは衛星受信機であり得る。あるいは、供給源26aは、コンテンツを含むゲームコンソール又はディスクプレーヤーであり得る。ゲームコンソールとして実装されるときの供給源26aは、CEデバイス48に関連して以下に記載されるコンポーネントの一部又は全部を含み得る。
【0027】
AVD12は、一時的な信号ではないディスクベースストレージ又はソリッドステートストレージなどの1つ以上のコンピュータメモリ/コンピュータ可読記憶媒28を更に含み得、場合によっては、スタンドアロンデバイスとして、又はAVプログラムを再生するためのAVDのシャーシの内部若しくは外部のいずれかでパーソナルビデオレコーディングデバイス(PVR)若しくはビデオディスクプレーヤーとして、又はリムーバブルメモリメディア若しくは後述のサーバとして、AVDのシャーシ内部で具現化される。また、いくつかの実施形態では、AVD12は、衛星又は携帯電話基地局から地理的位置情報を受信し、その情報をプロセッサ24に提供し、並びに/又はプロセッサ24と連動してAVD12が配設される高度を判定するように構成されている、携帯電話受信機、GPS受信機及び/若しくは高度計30などであるが、それらに限定されない、位置若しくは場所受信機を含むことができる。コンポーネント30はまた、三次元におけるAVD12の場所及び向きを判定するために、典型的には加速度計、ジャイロスコープ、及び磁気計の組み合わせを含む慣性測定ユニット(IMU)によって、又はイベントベースのセンサによって実装され得る。
【0028】
AVD12の記載を続けると、いくつかの実施形態では、AVD12は、本原理に従って、熱撮像カメラ、ウェブカムなどのデジタルカメラ、イベントベースのセンサ、及び/又はAVD12に統合され、写真/画像及び/又はビデオを収集するようにプロセッサ24によって制御可能なカメラであり得る、1つ以上のカメラ32を含み得る。また、AVD12には、Bluetooth(登録商標)及び/又はNFC技術をそれぞれ使用して他のデバイスと通信するためのBluetooth(登録商標)トランシーバ34及び他の近距離無線通信(NFC)要素36が含まれ得る。例示的なNFC要素は、無線周波数識別(RFID)要素であることができる。
【0029】
更に引き続き、AVD12は、プロセッサ24に入力を提供する1つ以上の補助センサ38(例えば、感圧センサ、加速度計、ジャイロスコープ、サイクロメータ、又は磁気センサなどのモーションセンサ、赤外線(IR)センサ、光学センサ、速度及び/又はケイデンスセンサ、イベントベースのセンサ、(例えば、ジェスチャコマンドを感知するための)ジェスチャセンサ)を含み得る。例えば、補助センサ38のうちの1つ以上は、タッチ対応ディスプレイ14の層自体を形成する1つ以上の圧力センサを含み得、限定されないが、圧電圧力センサ、容量性圧力センサ、ピエゾ抵抗ひずみゲージ、光学圧力センサ、電磁圧力センサなどであり得る。
【0030】
AVD12はまた、プロセッサ24に入力を提供するOTAテレビ放送を受信するための地上波(over-the-air)テレビ放送ポート40を含み得る。上記に加えて、AVD12はまた、IRデータアソシエーション(IRDA)デバイスなどの赤外線(IR)送信機及び/又はIR受信機及び/又はIRトランシーバ42を含み得ることに留意されたい。バッテリ(図示せず)が、AVD12に電力を供給するために提供され得、また、運動エネルギーを、バッテリを充電するための電力、及び/又はAVD12に電力供給するための電力に変え得る運動エネルギー収穫器であり得る。グラフィックスプロセシングユニット(GPU)44及びフィールドプログラマブルゲートアレイ46を含み得る。1つ以上の触覚/振動生成器47が、デバイスを保持する、又はそれと接触している人によって感知されることができる触覚信号を生成するために提供され得る。触覚生成器47は、様々な周波数及び/又は振幅の振動、並びに様々な方向への力のシミュレーションを作成するために、モータの制御下で(そして次に、プロセッサ24のようなプロセッサによって制御され得る)シャフトが回転できるように、モータの回転可能なシャフトを介してオフセンター及び/又はオフバランスの重りに接続された電気モータを使用して、AVD12の全て又は一部を振動させ得る。
【0031】
引き続き
図1を参照すると、AVD12に加えて、システム10は、1つ以上の他のCEデバイスタイプを含み得る。一実施例では、第1のCEデバイス48は、AVD12に直接送信されるコマンドを介して、及び/又は後述のサーバを通して、コンピュータゲームのオーディオ及びビデオをAVD12に送信するために使用されることができるコンピュータゲームコンソールであり得、一方、第2のCEデバイス50は、第1のCEデバイス48と同様のコンポーネントを含み得る。示される実施例では、第2のCEデバイス50は、プレーヤーによって操作されるコンピュータゲームコントローラ、又はプレーヤーによって装着されるヘッドマウントディスプレイ(HMD)として構成され得る。HMDは、AR/MRコンテンツ又はVRコンテンツをそれぞれ提示するためのヘッドアップ式透明ディスプレイ又は非透明ディスプレイを含み得る。
【0032】
示される実施例では、CEデバイスは2つしか示されていないが、これより少ない数又はより多い数のデバイスが使用され得ることを理解されたい。本明細書におけるデバイスは、AVD12について示したコンポーネントの一部又は全部を実装し得る。以下の図に示されるコンポーネントのうちのいずれも、AVD12の場合に示されるコンポーネントの一部又は全部を組み込み得る。
【0033】
ここで、前述の少なくとも1つのサーバ52を参照すると、それは、少なくとも1つのサーバプロセッサ54と、ディスクベースストレージ又はソリッドステートストレージなどの少なくとも1つの有形コンピュータ可読記憶媒体56と、サーバプロセッサ54の制御下で、ネットワーク22を経由して
図1の他のデバイスとの通信を可能にし、実際に本原理に従ってサーバとクライアントデバイスとの間の通信を促進し得る少なくとも1つのネットワークインターフェース58とを含む。ネットワークインターフェース58は、例えば、有線若しくは無線のモデム若しくはルータ、Wi-Fiトランシーバ、又は、例えば、無線電話トランシーバなどの他の適切なインターフェースであり得ることに留意されたい。
【0034】
したがって、いくつかの実施形態では、サーバ52は、インターネットサーバ又はサーバ「ファーム」全体であり得、例えば、ネットワークゲームアプリケーションのための例示的な実施形態では、システム10のデバイスがサーバ52を介して「クラウド」環境にアクセスし得るような「クラウド」機能を含み、かつ実行し得る。あるいは、サーバ52は、
図1に示される他のデバイスと同じ部屋若しくはその近くにある1つ以上のゲームコンソール又は他のコンピュータによって実装され得る。
【0035】
以下の図に示されるコンポーネントは、
図1に示される一部又は全部のコンポーネントを含み得る。本明細書で記載されるユーザーインターフェース(UI)は、統合され、及び/又は拡張され得、UI要素は、UI間で混合され、及び合致され得る。
【0036】
図2は、実施例では、「N」個のビデオが、それぞれの仮想カメラ又は物理カメラ、及び関連する物理レンズ又は仮想レンズによってブロック200において生成されることを例証する。Nは、2以上の整数であり得る。一実施例では、Nは、5に等しい。
【0037】
一実施例では、N個のビデオの各々は、限定されないが、4Kなどの同じ解像度を有する。しかしながら、他の実施例では、N個のビデオは、全てが同じ解像度を有するわけではない場合がある。
【0038】
いずれの場合も、一実施形態では、ビデオは、同じ又は実質的に同じ時間に、同じ又は実質的に同じ場所から撮影され得る。「実質的に同じ場所」とは、例えば、同じ所に2つのカメラを物理的に配置するという制約内であることを意味し、カメラは、カメラハウジングの幅によって分離されているにもかかわらず、接近して並置され得る。「実質的に同じ時間」とは、同じ実時間若しくは仮想時間に、又は互いに数秒以内であることを意味する。
【0039】
しかしながら、第1のビデオは、第1の視野(FOV)を有する物理又は仮想レンズを使用して生成され、第2のビデオは、第1のFOVよりも小さい第2のFOVを有する物理又は仮想レンズを生成されるなどであり、各連続するビデオは、チェーン内の先行するビデオよりも連続的により小さいFOVで生成される。しかしながら、各FOVは、同じ場所又は点又は中心を中心とし得る。連続的により小さいFOVに加えて、又はその代わりに、物理カメラ又は仮想カメラは、連続的により短い焦点距離を有し得ることに留意されたい。
【0040】
ブロック202に移動すると、ビデオは、例えば、各ビデオのキーフレームを互いに整合させ、特定の実施例では、ビデオをH264として符号化することによって、互いに同期される。整合は、以下で更に記載される。
【0041】
ユーザーがビデオを再生することを望むとき、それは、ブロック204において、第1のビデオ、すなわち、最も広いFOVを有するビデオを使用して提示される。ブロック206において、ユーザーが入力デバイスを使用して、又はビデオを提示するHMDを装着しているときにZ軸に沿って頭を動かすことによってズームインすると、次に小さいFOVを有するビデオが第1のビデオと組み合わされ、最終的には第1のビデオに置き換わる。継続的なズームは、ズームが忠実度を損なうことなくエミュレートされるように、連続的により小さなFOVが提示される連続するビデオもたらす。したがって、再生中、望遠カメラからのコンテンツは、事前計算された整合メトリックに従って広角カメラからのコンテンツに挿入され、単一のビデオを見ることの知覚を作成する。正確な整合のために、外側ビデオ内に表示される内側ビデオが存在すること、は見る者には明らかではない。
【0042】
図3は、Z軸304に沿って移動することによってズームするHMD302を着用するユーザー300を例証する。
【0043】
図4は、引き続き更に例証する。
図4は、異なるFOVを使用することに加えて、シーンが異なる場所でキャプチャされる実装形態を例証するが、以下で説明される
図6は、同じ場所から2つより多いビデオがキャプチャされる場合を例証することに留意されたい。より詳細には、
図4に示される実施例では、複数の(例えば、3つの)レンズが、同じ実カメラ位置又は仮想カメラ位置から3つのビデオをキャプチャするために異なるFOVで使用され、それぞれ異なるFOVを有する同じ3つのレンズは、第2の位置から3つのビデオをキャプチャするために使用される。したがって、記録後、6つのビデオが同時にキャプチャされる。
【0044】
第1のビデオ400が、その最大広角モード402で示される。ユーザーがズームインするにつれて、ビデオは、その標準角モード404で示され、最終的には、継続的なズームの下で、その望遠モード406で示され、各モードがディスプレイを満たす。示される3つのモード間の遷移は、ユーザーがズームするにつれて連続的かつ漸進的であり、単純化のために3つの一般的なモードのみが示されていることを理解されたい。
【0045】
第1のビデオの望遠モード406におけるズームが閾値限界に達したとき、更なるズームは、第1のビデオを、最大広角モード410における第2のビデオ408と組み合わせることをもたらす。第2のビデオ408は、ズームが第1のビデオの望遠モード406から第2のビデオ408の広角モード410に進むにつれて、最終的に又は直ちに第1のビデオを完全に置き換え得ることを理解されたい。
【0046】
ユーザーがズームインを続けるにつれて、第2のビデオ408は、その標準角モード412で示され、最終的には、継続的なズームの下で、その望遠モード414で示され、各モードがディスプレイを満たす。
【0047】
第2のビデオの望遠モード414からの継続的なズームは、第2のビデオを、最大広角モード418を有する第3のビデオ416と組み合わせることをもたらす。第3のビデオ414は、ズームが第2のビデオの望遠モード414から第3のビデオ416の広角モード418に進むにつれて、最終的に又は直ちに第2のビデオを完全に置き換え得ることを理解されたい。
【0048】
ユーザーがズームインを続けるにつれて、第3のビデオ416は、その標準角モード420で示され、最終的には、継続的なズームの下で、その望遠モード422で示され、各モードがディスプレイを満たす。シーンが単一の位置からのみキャプチャされる場合、ステップ408~422は、利用可能でないことに留意されたい。
【0049】
図4は、各々が連続的により小さいFOVを有する物理レンズ又は仮想レンズによって生成される3つのビデオの使用を例証するが、
図4の原理と一致して、2つのビデオのみが使用される必要がある、又は3つを超えるビデオが使用され得ることを理解されたい。
【0050】
各々が徐々に小さいFOVを有する複数のビデオが、ユーザー焦点の複数の可能性の高い領域に対して生成され得ることに留意されたい。中央焦点が、ベースラインで使用され得、次いで、その点からの距離及び方向の観点からのオフセットが、ユーザーがオフセットによって中央焦点から分離された点に焦点を当てているときを示すために、メタデータとして使用され、及び送信されることができる。各オフセットについて、一連の入れ子にされたビデオが、事前計算され得、又はユーザーが特定の点に焦点を当てるにつれて、特定の焦点に対してその場で計算され得る。ユーザーが、徐々に小さいFOVを有するネストされたビデオが存在しない点に焦点を当てることが起こる場合、従来の倍率技法が使用され得る。
【0051】
各シーンに対する以前のユーザー焦点のヒートマップが、シーン内のどの点がそれらのために生成された一連のネストされたビデオを有するべきかを判定するために使用され得る。ユーザーが焦点を当てた領域のビデオのみが復号され得る。
【0052】
ここで、キャプチャの前又はキャプチャ中に判定され得る整合メトリックの説明のために、
図5を参照する。
【0053】
挿入比(R)が、単一の次元における内側ビデオ(より狭いFOV)内の画素の数に対する外側ビデオ(より広いFOV)内の画素の数の比率であると判定されることができる。
図5では、W0は、外側ビデオの画素単位の幅であり、W1は、内側ビデオの画素単位の幅であり、整合後、R=W0/W1である。挿入比は、2つのカメラの焦点距離、及びカメラセンサの解像度に依存する。なお、内側ビデオは、外側ビデオと同じ解像度を有し得るが、内側ビデオは、整合後により小さいサイズで表示されることができることに留意されたい。
【0054】
水平オフセット(Oh)が
図5に示されており、外側ビデオのフレームの中心から測定された、内側ビデオ又はROIの水平オフセットである。同様に、垂直オフセット(Ov)は、外側ビデオのフレームの中心から測定された、内側ビデオ又はROIの垂直オフセットである。
【0055】
図5は、より広いFOV及びより狭いFOVビデオのフレームが、上記のオフセットを使用して、整合メトリックとともに表示中に整合されることを例証する。具体的には、カメラ位置が判定され、異なるFOVを有する2つのカメラが同じシーンを同時にキャプチャする。最も単純な場合では、Oh=Ov=0であり、ROIは、ビデオフレームの中心である。2つの挿入比は、広角レンズについては60のFOV、望遠レンズについては約32.2のFOVを使用することによって、達成することができる。望遠レンズからキャプチャされたビデオは、広角レンズからキャプチャされたビデオと同じ解像度を有し得ることに留意されたい。挿入比は、キャプチャ中の単一の次元における第2のビデオ内の画素の数に対する第1のビデオ内の画素の数の比ではない。挿入比は、これらのビデオが整合後に表示される方法に基づいて判定される。この実施例では、両方のビデオは、3840×2160としてキャプチャされ得る。しかし、整合後、内側ビデオは、最初に1920×1080として表示される。したがって、挿入比は、3840/1920=2となる。カメラについての自動露出などの自動機能を無効にすることにより、表示中の2つのフレームのブレンドが、より容易になる。
【0056】
図5Aを参照する。500、502とラベル付けされた上記2つのカメラからの生のビデオは、2つの別個のビットストリームとして同期され、及び符号化される。この場合、2つのデコーダが、両方のビットストリームを同時にデコードするために使用される。1つのデコーダを使用する他の実施形態では、各カメラからのビデオデータは、単一のビットストリームとして圧縮され得るが、例えば、HEVCタイルとして独立して復号可能であり得る。いずれの場合も、ディスプレイ506のための出力画素を生成するビデオプレーヤー504は、復号モジュール(DM)508及びレンダリングモジュール(RM)510を含む。次に、DMは、圧縮されたビットストリームを復号することが可能である1つ以上のデコーダ512を含む。RMは、ビデオテクスチャをサンプリングし、それをディスプレイにレンダリングすることができるGPUシェーダを含む。
【0057】
整合メトリックは、固定され得るか、又は時間とともに変化することができる。固定ケースの場合、整合メトリックは、DM及び/又はRMに一度だけ送信されることができる。動的整合メトリックの場合、DM及び/又はRMは、メトリックの各変化で更新され得る。これを達成するための1つの方法は、整合メトリックを圧縮されたビットストリーム内のメタデータとして渡すことである。他の実施形態では、整合メトリックは、動き推定及び画像マッチングアルゴリズムを使用して自動的に計算されることができる。
【0058】
復号されたビデオデータをディスプレイにレンダリングするビデオプレーヤーは、マウス又はビデオゲームコントローラなどのデバイスを使用して、ユーザーから倍率制御を受け入れる。ユーザーによって選択された倍率レベル(ML)は、ディスプレイ上で可視である外側ビデオ及び内側ビデオの部分を判定するために使用される。システムは、画質劣化をもたらす倍率レベルを回避するために、MLについて上限及び下限を配置することができる。ユーザーがズームインしているとき、MLの値は、増加し、ユーザーがズームアウトしているとき、MLは、減少する。MLが増加するとき、外側ビデオの可視画素の数は、減少し、内側ビデオの可視画素の数は、増加する。RMのGPUシェーダは、2つの別個のビデオではなく単一のビデオを見ることの知覚を作成するために、MLの値、整合メトリック、及び同期のための各ビットストリームのフレーム番号を使用する。他の実施形態では、追加の「フェザリング」ステップが、内側ビデオと外側ビデオの接合部で境界をマスクするためにシェーダによって実行され得る。
【0059】
MLが小さく、内側ビデオの可視画素の数が少ないとき、内側ビデオのレンダリングは、表示されたビデオの画質の顕著な差異なしにスキップされ得る。内側ビデオの復号されたビデオデータが表示されていない場合、表示されないビデオデータの復号は、排除され得、それによってシステムの性能及び効率を改善し得る。これが達成されることができる方法のうちの1つは、どのビデオビットストリームが復号される必要があるかを判定するためにMLを利用し、アクティブに復号されているビットストリームからのフレームのみをレンダリングすることによるものである。デコーダがアクティブ状態にあるとき、ビットストリームのアクセスユニット(access unit、AU)は、正常に復号され、復号されたビデオデータは、ディスプレイにレンダリングするためにRMに送信される。デコーダが非アクティブ状態にあるとき、AUの復号は、部分的に又は完全にスキップされ得、非アクティブデコーダに対応するビットストリームについてのビデオデータは、ディスプレイにレンダリングされない。
【0060】
MLが変化すると、アクティブ状態のデコーダは、非アクティブになり得、逆もまた同様である。デコーダをアクティブ状態から非アクティブ状態に切り替えることは、直ちに行われることができるが、非アクティブ状態からアクティブ状態に切り替えることは、直ちには行われ得ない場合がある。この理由は、現在のAUが前のAUに依存し得ることであり、デコーダが非アクティブ状態にあるときに前のAUの復号がスキップされた場合、現在のAUは、復号されたときにエラーを有し得ることである。この問題を回避するために、非アクティブ状態からアクティブ状態への切り替えは、現在のAUがキーフレーム(IDRフレーム)であるときにのみ実行され得る。これをサポートするために、MLが閾値を超えるとき、非活性状態のデコーダが最初に、デコーダがIDRを待っているシーキング状態に切り替わるシーキング状態が使用され得る。現在のAUがIDRであるとき、デコーダは、シーク状態からアクティブ状態に切り替わる。DMは、アクティブデコーダのビットストリームIDをRMに渡し、シーク状態又は非アクティブ状態におけるデコーダについての無効IDをRMに渡す。RMは、有効な画素のみをディスプレイにレンダリングするために、これらのIDを使用する。
【0061】
高倍率レベル、又はズームアウト視野からズームイン視野へのよりスムーズな遷移を必要とするアプリケーションの場合、2つ以上のカメラ視野が必要とされ得る。そのような使用の場合のために、様々な程度の焦点距離又はFOVを有する2つよりも多いカメラが使用され得る。前のとおり、同じシーンが、これらのカメラを使用して、単一の位置から同時にキャプチャされる。
【0062】
5台のカメラを使用してキャプチャされることができる視野の実施例が
図6に示される(5つの視野は、「広角1」、「広角2」、「望遠1」、「望遠2」、及び「標準」とラベル付けされている)。
【0063】
図6の各カメラからのビデオデータは、個々のビットストリーム又は独立して復号可能なサブストリームとして同期され、及び圧縮され得る。これらのストリームは全て、所望のMLに従って同時に復号され、選択的にレンダリングされ得るが、より効率的な手法は、最終的に表示されることになるストリームのみを復号することである。DMにおいて必要とされるデコーダの数は、任意の瞬間に同時にレンダリングされるビデオストリームの最大数に等しくなり得る。1つの外側ビデオ及び1つの内側ビデオの
図5に示されるセットアップについて、必要とされるデコーダの数は、2つより多いビデオストリームが使用された場合であっても、2つに制限されることができる。これは、以下に記載される「ストリームスイッチング」の戦略を使用して達成される。
【0064】
各デコーダによって処理されるストリームは、MLの値によって判定される。アプリケーションが開始されるとき、第1のデコーダ(D1)は、最も広角のビットストリーム(B1)を処理することができ、第2のデコーダ(D2)は、より低いFOVを有する第2のビットストリーム(B2)を処理することができる。ユーザーがMLを増加させると、B1の画素がもはやディスプレイにレンダリングされなくなる点が存在する。次いで、D1は、シーク状態に遷移し、視野リスト内の次のビットストリーム(B3)を復号する準備をする。RMは、各ビットストリームの復号された画素を適切な倍率の度合いで表示するために、デコーダから渡されたビットストリームID及び整合メトリックを使用する。RMがビットストリームIDの変化を検出するとき、正しいテクスチャ及びサンプリング座標を使用するようにレンダリングプロセスを更新する。
【0065】
他の実施形態では、以下のステップは、スムーズなストリーム切り替えを促進するために、符号化プロセス中に行われることができる。
【0066】
第一に、ビットストリームは、デコーダの同じインスタンスが余分なメモリを必要とせずに複数のビットストリームからAUを処理することができるように、同様の符号化構成を使用する。異なるビットストリームのIDRは、ユーザーがどのくらい速くMLを増加又は減少させることができるかに従って、整合され、及び均等に離間されることができる。次に、各ビットストリームについてのIDR位置及びAUオフセットは、DMでこれを行うことを回避するために事前計算され得る。
【0067】
更なる実施形態では、DMは、MLに基づいて処理される次のビットストリームを予測し、復号された画素がディスプレイ上で可視にされる前にこれらのストリームを復号するために、1つ以上の余分なデコーダを含み得る。この戦略は、MLの変化速度を増加させるのを助けることができる。これを達成するための代替的な手法は、IDRのみを使用してビットストリームを符号化することである。
【0068】
ここで
図7を参照すると、高倍率レベルを必要とするアプリケーションのための代替技法は、マルチFOVコンテンツキャプチャの代わりにマルチ位置コンテンツキャプチャである。異なるFOVを有するカメラを使用して1つの位置からシーンをキャプチャする代わりに、シーンは、同じFOVを使用することによるが、シーンキャプチャの方向において異なる位置700、702においてキャプチャされることができる。他の実施形態では、
図7に示されるように、マルチFOV及びマルチ位置コンテンツキャプチャの両方を一緒に用いることができる。他の実施形態では、RMは、マルチ位置コンテンツ又はマルチ視野コンテンツ間の歪み補正のためのステージを含み得る。他の実施形態では、オーディオはまた、異なる位置からキャプチャされ、オーディオストリームはまた、より没入型の体験のためにMLに従って切り替えられる。
【0069】
本明細書では、特定の実施形態を示し、詳細に説明するが、本発明によって包含される主題は、特許請求の範囲によってのみ限定されることを理解されたい。
【国際調査報告】