(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公表特許公報(A)
(11)【公表番号】
(43)【公表日】2024-08-29
(54)【発明の名称】中心窩レンダリング画像の知覚的品質を改善する方法
(51)【国際特許分類】
H04N 13/122 20180101AFI20240822BHJP
H04N 13/344 20180101ALI20240822BHJP
H04N 13/383 20180101ALI20240822BHJP
G06T 19/00 20110101ALI20240822BHJP
G09G 5/37 20060101ALI20240822BHJP
G09G 5/391 20060101ALI20240822BHJP
G09G 5/00 20060101ALI20240822BHJP
【FI】
H04N13/122
H04N13/344
H04N13/383
G06T19/00 A
G09G5/37 320
G09G5/391
G09G5/00 530T
【審査請求】未請求
【予備審査請求】未請求
(21)【出願番号】P 2024508432
(86)(22)【出願日】2022-08-12
(85)【翻訳文提出日】2024-03-07
(86)【国際出願番号】 US2022040267
(87)【国際公開番号】W WO2023018997
(87)【国際公開日】2023-02-16
(32)【優先日】2021-08-13
(33)【優先権主張国・地域又は機関】US
(81)【指定国・地域】
(71)【出願人】
【識別番号】514108838
【氏名又は名称】マジック リープ, インコーポレイテッド
【氏名又は名称原語表記】Magic Leap,Inc.
【住所又は居所原語表記】7500 W SUNRISE BLVD,PLANTATION,FL 33322 USA
(74)【代理人】
【識別番号】100104824
【氏名又は名称】穐場 仁
(74)【代理人】
【識別番号】100121463
【氏名又は名称】矢口 哲也
(74)【代理人】
【識別番号】100137969
【氏名又は名称】岡部 憲昭
(72)【発明者】
【氏名】ウー, ビン
(72)【発明者】
【氏名】ブラスカンプ, ビョルン ニコラース セルヴァティウス
(72)【発明者】
【氏名】コーエン, ハワード ラッセル
(72)【発明者】
【氏名】ロドリゲス, ホセ フェリックス
【テーマコード(参考)】
5B050
5C182
【Fターム(参考)】
5B050AA10
5B050BA09
5B050EA09
5B050EA27
5C182AA03
5C182AA04
5C182AC02
5C182AC03
5C182BA55
5C182BA56
5C182BC29
5C182BC41
5C182CA01
5C182CA02
5C182CA15
5C182CB42
5C182CB45
5C182CC21
5C182CC24
5C182DA04
5C182DA14
5C182DA44
(57)【要約】
時間多重化を使用して中心窩レンダリングを生成する方法は、FOVを第1の中心窩ゾーンと第1の周辺ゾーンとに分割することによってFOVの第1の空間プロファイルを生成することを含む。第1の中心窩ゾーンは、第1の画素解像度でレンダリングされ、第1の周辺ゾーンは、第1の画素解像度よりも低い第2の画素解像度でレンダリングされる。本方法は、第2の中心窩ゾーンと第2の周辺ゾーンとにFOVを分割することによってFOVの第2の空間プロファイルを生成することをさらに含み、第2の中心窩ゾーンは、第1の中心窩ゾーンから空間的にオフセットされている。第2の中心窩ゾーンおよび第2の周辺ゾーンは、それぞれ、第1の画素解像度および第2の画素解像度でレンダリングされる。本方法は、一連のフレームにおいて時間的に第1の空間プロファイルおよび第2の空間プロファイルを多重化することをさらに含む。
【特許請求の範囲】
【請求項1】
中心窩レンダリングを生成する方法であって、前記方法は、
視野(FOV)を第1の中心窩ゾーンと第1の周辺ゾーンとに分割することによって前記FOVの第1の空間プロファイルを生成することであって、前記第1の中心窩ゾーンは、第1の画素解像度でレンダリングされ、前記第1の周辺ゾーンは、前記第1の画素解像度よりも低い第2の画素解像度でレンダリングされる、ことと、
前記FOVを第2の中心窩ゾーンと第2の周辺ゾーンとに分割することによって前記FOVの第2の空間プロファイルを生成することであって、前記第2の中心窩ゾーンは、前記第1の中心窩ゾーンから空間的にオフセットされており、前記第2の中心窩ゾーンは、前記第1の画素解像度でレンダリングされ、前記第2の周辺ゾーンは、前記第2の画素解像度でレンダリングされる、ことと、
視聴者が、前記第1の画素解像度でレンダリングされたときに、前記第2の中心窩ゾーンと重ならない前記第1の中心窩ゾーンの領域および/または前記第1の中心窩ゾーンと重ならない前記第2の中心窩ゾーンの領域にレンダリングされた画像を知覚するように、前記第1の空間プロファイルおよび前記第2の空間プロファイルを一連のフレームで時間的に多重化することと
を含む、方法。
【請求項2】
前記第1の中心窩ゾーンおよび前記第2の中心窩ゾーンは、互いに部分的に重なり合う、請求項1に記載の方法。
【請求項3】
前記一連のフレームは、約120Hzのフレーム周波数を有する、請求項1に記載の方法。
【請求項4】
前記第1の画素解像度と前記第2の画素解像度との間の比は、2つの直交方向の各々において2:1である、請求項1に記載の方法。
【請求項5】
前記第2の中心窩ゾーンは、第1の方向、前記第1の方向に直交する第2の方向、または前記第1の方向および前記第2の方向の両方において前記第1の中心窩ゾーンから空間的にオフセットされている、請求項1に記載の方法。
【請求項6】
前記第2の中心窩ゾーンと前記第1の中心窩ゾーンとの間の空間オフセットは、一連のフレームにおいて動的に変更される、請求項5に記載の方法。
【請求項7】
前記第2の中心窩ゾーンと前記第1の中心窩ゾーンとの間の前記空間オフセットの前記動的変更は、パターンにしたがう、請求項6に記載の方法。
【請求項8】
前記第1の空間プロファイルおよび前記第2の空間プロファイルの各々は、3原色の各々について3つのサブ空間プロファイルを含み、前記3つのサブ空間プロファイルのうちの少なくとも1つは、前記FOVの全体について前記第2の画素解像度でレンダリングされる、請求項1に記載の方法。
【請求項9】
前記第1の中心窩ゾーンまたは前記第2の中心窩ゾーンは、前記FOV内の所定の位置に設定される、請求項1に記載の方法。
【請求項10】
前記第1の中心窩ゾーンまたは前記第2の中心窩ゾーンの前記所定の位置は、視聴者の眼の位置および眼球運動の測定値に基づいて決定される、請求項9に記載の方法。
【請求項11】
中心窩レンダリングを生成する方法であって、
視野(FOV)を第1の中心窩ゾーンと第1の周辺ゾーンとに分割することによって前記FOVの第1の空間プロファイルを生成することであって、前記第1の中心窩ゾーンは、第1の画素解像度でレンダリングされ、前記第1の周辺ゾーンは、前記第1の画素解像度よりも低い第2の画素解像度でレンダリングされる、ことと、
前記FOVを第2の中心窩ゾーンと第2の周辺ゾーンとに分割することによって前記FOVの第2の空間プロファイルを生成することであって、前記第2の中心窩ゾーンは、前記第1の中心窩ゾーンから空間的にオフセットされており、前記第2の中心窩ゾーンは、前記第1の画素解像度でレンダリングされ、前記第2の周辺ゾーンは、前記第2の画素解像度でレンダリングされる、ことと、
前記第1の画素解像度でレンダリングされたときに、視聴者が、前記第2の中心窩ゾーンと重ならない前記第1の中心窩ゾーンの領域および/または前記第1の中心窩ゾーンと重ならない前記第2の中心窩ゾーンの領域にレンダリングされた画像を知覚するように、前記視聴者の左眼および右眼それぞれについての前記第1の空間プロファイルおよび前記第2の空間プロファイルを多重化することと
を含む、方法。
【請求項12】
前記第1の中心窩ゾーンおよび前記第2の中心窩ゾーンは、互いに部分的に重なり合う、請求項11に記載の方法。
【請求項13】
一連のフレームは、約120Hzのフレーム周波数を有する、請求項11に記載の方法。
【請求項14】
前記第1の画素解像度と前記第2の画素解像度との間の比は、2つの直交方向の各々において2:1である、請求項11に記載の方法。
【請求項15】
前記第2の中心窩ゾーンは、第1の方向、前記第1の方向に直交する第2の方向、または前記第1の方向および前記第2の方向の両方において前記第1の中心窩ゾーンから空間的にオフセットされている、請求項11に記載の方法。
【請求項16】
前記第1の空間プロファイルおよび前記第2の空間プロファイルの各々は、3原色の各々について3つのサブ空間プロファイルを含み、前記3つのサブ空間プロファイルのうちの少なくとも1つは、前記FOVの全体について前記第2の画素解像度でレンダリングされる、請求項11に記載の方法。
【請求項17】
前記第1の中心窩ゾーンまたは前記第2の中心窩ゾーンは、前記FOV内の所定の位置に設定される、請求項11に記載の方法。
【請求項18】
前記第2の中心窩ゾーンは、第1の方向、前記第1の方向に直交する第2の方向、または前記第1の方向および前記第2の方向の両方において前記第1の中心窩ゾーンから空間的にオフセットされている、請求項11に記載の方法。
【請求項19】
前記第2の中心窩ゾーンと前記第1の中心窩ゾーンとの間の前記空間オフセットは、一連のフレームにおいて動的に変更される、請求項18に記載の方法。
【請求項20】
前記第2の中心窩ゾーンと前記第1の中心窩ゾーンとの間の前記空間オフセットの前記動的変更は、パターンにしたがう、請求項19に記載の方法。
【請求項21】
中心窩レンダリングを生成する方法であって、前記方法は、
視野(FOV)を第1の中心窩ゾーンと第1の周辺ゾーンとに分割することによって前記FOVの第1の空間プロファイルを生成することであって、前記第1の中心窩ゾーンは、第1の画素解像度でレンダリングされ、前記第1の周辺ゾーンは、前記第1の画素解像度よりも低い第2の画素解像度でレンダリングされる、ことと、
前記FOVを第2の中心窩ゾーンと第2の周辺ゾーンとに分割することによって前記FOVの第2の空間プロファイルを生成することであって、前記第2の中心窩ゾーンは、前記第1の中心窩ゾーンから空間的にオフセットされており、前記第2の中心窩ゾーンは、前記第1の画素解像度でレンダリングされ、前記第2の周辺ゾーンは、前記第2の画素解像度でレンダリングされる、ことと、
前記FOVを第3の中心窩ゾーンおよび第3の周辺ゾーンに分割することによって前記FOVの第3の空間プロファイルを生成することであって、前記第3の中心窩ゾーンは、前記第1の中心窩ゾーンから空間的にオフセットされており、前記第3の中心窩ゾーンは、前記第1の画素解像度でレンダリングされ、前記第3の周辺ゾーンは、前記第2の画素解像度でレンダリングされる、ことと、
前記FOVを第4の中心窩ゾーンおよび第4の周辺ゾーンに分割することによって前記FOVの第4の空間プロファイルを生成することであって、前記第4の中心窩ゾーンは、前記第3の中心窩ゾーンから空間的にオフセットされており、前記第4の中心窩ゾーンは、前記第1の画素解像度でレンダリングされ、前記第4の周辺ゾーンは、前記第2の画素解像度でレンダリングされる、ことと、
奇数フレームにおいて、視聴者の左眼および右眼用の前記第1の空間プロファイルおよび前記第2の空間プロファイルをそれぞれ多重化することと、
偶数フレームにおいて、視聴者の左眼および右眼用の前記第3の空間プロファイルおよび前記第4の空間プロファイルをそれぞれ多重化することと
を含む、方法。
【請求項22】
前記第3の中心窩ゾーンは、前記第1の中心窩ゾーンから第1の方向に空間的にオフセットされ、前記第4の中心窩ゾーンは、前記第2の中心窩ゾーンから前記第1の方向に対向する第2の方向に空間的にオフセットされている、請求項21に記載の方法。
【請求項23】
前記第1の中心窩ゾーンと前記第3の中心窩ゾーンとの間の前記空間オフセットは、一連のフレームにおいて動的に変更される、請求項22に記載の方法。
【請求項24】
前記第2の中心窩ゾーンと前記第4の中心窩ゾーンとの間の前記空間オフセットは、一連のフレームにおいて動的に変更される、請求項22に記載の方法。
【請求項25】
前記第1の空間プロファイル、前記第2の空間プロファイル、前記第3の空間プロファイル、および前記第4の空間プロファイルの各々は、3原色の各々について3つのサブ空間プロファイルを含み、前記3つのサブ空間プロファイルのうちの少なくとも1つは、前記FOVの全体について前記第2の画素解像度でレンダリングされる、請求項21に記載の方法。
【請求項26】
前記第1の中心窩ゾーンと前記第3の中心窩ゾーンとの間の前記空間オフセットの前記動的変更は、パターンにしたがう、請求項23に記載の方法。
【請求項27】
前記第2の中心窩ゾーンと前記第4の中心窩ゾーンとの間の前記空間オフセットの前記動的変更は、パターンにしたがう、請求項24に記載の方法。
【請求項28】
方法であって、
中心窩ゾーンおよび周辺ゾーンを含む中心窩画像をレンダリングすることであって、前記中心窩ゾーンは、画像データの第1のセットを有し、第1の画素解像度でレンダリングされ、前記周辺ゾーンは、画像データの第2のセットを有し、前記第1の画素解像度よりも低い第2の画素解像度でレンダリングされる、ことと、
前記画像データの第1のセットを第1の画像ブロックにパッキングすることと、
前記画像データの第2のセットを第2の画像ブロックにパッキングすることと、
前記中心窩画像に関連付けられたレンダリング情報を含む制御パケットを生成することと、
前記制御パケットを前記第1の画像ブロックおよび前記第2の画像ブロックと連結してフレームを形成することと、
前記フレームを表示ユニットに送信することと、
前記フレームから前記制御パケットを解析することと、
前記レンダリング情報を取得するために前記制御パケットを復号することと、
前記復号されたレンダリング情報にしたがってレンダリングされた表示画像を投影することと
を含む、方法。
【請求項29】
前記フレームを前記表示ユニットに送信する前に、前記フレームを時間歪曲させることをさらに含む、請求項28に記載の方法。
【請求項30】
前記画像に関連付けられた前記レンダリング情報は、FRモードが有効であるかどうか、ダウンサンプリングの前記比、前記中心窩ゾーンの前記開始行または、前記開始列の前記インデックスを含む、請求項28に記載の方法。
【請求項31】
前記フレームは、チャネルリンクを介して前記表示ユニットに送信される、請求項28に記載の方法。
【請求項32】
前記中心窩画像は、グラフィックス処理ユニット(GPU)においてレンダリングされる、請求項28に記載の方法。
【請求項33】
前記制御パケットは、グラフィックス処理ユニット(GPU)において生成される、請求項28に記載の方法。
【請求項34】
前記画像データの第1のセットおよび前記画像データの第2のセットの各々は、フレーム同期を改善するタイムスタンプを含む、請求項28に記載の方法。
【請求項35】
前記画像データの第1のセットの各々および前記画像データの第2のセットの各々は、3原色の各々についてデータの3つのサブセットを含み、前記データの3つのサブセットのうちの少なくとも1つは、前記FOVの全体について前記第2の画素解像度でレンダリングされることになる、請求項28に記載の方法。
【請求項36】
方法であって、前記方法は、
中心窩ゾーンおよび周辺ゾーンを含む中心窩画像をレンダリングすることであって、前記中心窩ゾーンは、画像データの第1のセットを有し、第1の画素解像度でレンダリングされ、前記周辺ゾーンは、画像データの第2のセットを有し、前記第1の画素解像度よりも低い第2の画素解像度でレンダリングされる、ことと、
前記中心窩画像に関連付けられたレンダリング情報を含む制御パケットを生成することと、
時間歪曲画像を形成するために、視聴者の位置において移動するために中心窩画像を時間歪曲させることと、
前記時間歪曲画像および前記制御パケットをビデオプロセッサに送信することと、
前記時間歪曲画像を中心窩領域パックドデータブロックおよび低解像度領域パックドデータブロックに再マッピングすることと、
前記制御パケットを前記中心窩領域パックドデータブロックおよび前記低解像度領域パックドデータブロックと連結してフレームを形成することと、
前記フレームを表示ユニットに送信することと、
前記フレームから前記制御パケットを解析することと、
前記レンダリング情報を取得するために前記制御パケットを復号することと、
前記復号されたレンダリング情報にしたがってレンダリングされた表示画像を投影することと
を含む、方法。
【請求項37】
前記時間歪曲画像内のコンテンツ境界を更新するために前記時間歪曲画像に遅延時間歪曲を実行することをさらに含み、前記遅延時間歪曲は、視聴者の最新の視聴者の姿勢データに基づく、請求項36に記載の方法。
【請求項38】
前記視聴者の前記最新の視聴者の姿勢データは、少なくとも1つのモーションセンサを含むウェアラブルデバイスによって収集される、請求項37に記載の方法。
【請求項39】
前記時間歪曲画像および前記制御パケットは、ヘッドセットリンクを介して前記ビデオプロセッサに送信される、請求項36に記載の方法。
【請求項40】
前記表示ユニットは、空間光変調器(SLM)である、請求項36に記載の方法。
【請求項41】
前記制御パケットは、グラフィックス処理ユニット(GPU)において生成される、請求項36に記載の方法。
【請求項42】
前記フレームから前記制御パケットを解析し、前記制御パケットを復号することは、前記表示ユニットによって実行される、請求項36に記載の方法。
【請求項43】
方法であって、前記方法は、
第1の中心窩ゾーンおよび第1の周辺ゾーンを含む左眼用の第1の中心窩画像をレンダリングすることであって、前記第1の中心窩ゾーンは、画像データの第1のセットを有し、第1の画素解像度でレンダリングされ、前記第1の周辺ゾーンは、画像データの第2のセットを有し、前記第1の画素解像度よりも低い第2の画素解像度でレンダリングされる、ことと、
第2の中心窩ゾーンおよび第2の周辺ゾーンを含む右眼用の第2の中心窩画像をレンダリングすることであって、前記第2の中心窩ゾーンは、画像データの第3のセットを有し、第3の画素解像度でレンダリングされ、前記第2の周辺ゾーンは、画像データの第4のセットを有し、前記第3の画素解像度よりも低い第4の画素解像度でレンダリングされる、ことと、
前記第1の中心窩画像および前記第2の中心窩画像に関連付けられたレンダリング情報を含む制御パケットを生成することと、
第1の時間歪曲画像および第2の時間歪曲画像を形成するために、前記第1の中心窩画像および前記第2の中心窩画像を視聴者の位置において移動させるために時間歪曲させることと、
前記第1の時間歪曲画像および前記第2の時間歪曲画像を圧縮して第1の圧縮画像および第2の圧縮画像を形成することと、
前記第1の圧縮画像、前記第2の圧縮画像、および前記制御パケットをビデオプロセッサに送信することと、
前記第1の圧縮画像を第1の復元された中心窩画像に解凍することと、
前記第2の圧縮画像を第2の復元された中心窩画像に解凍することと、
第2の最新の視聴者の姿勢データに基づいて、前記第1の復元された中心窩画像および前記第2の復元された中心窩画像に対して第2の時間歪曲を実行することと、
前記第1の復元された中心窩画像を3つの別個の色チャネルの第1のセットに再マッピングして、第1のチャネル画像を形成することと、
第1のフレームを形成するために前記第1のチャネル画像を前記制御パケットによってパッキングすることと、
前記第1のフレームを前記左眼用の第1のディスプレイに送信することであって、前記左眼用の前記第1のディスプレイは、前記第1のフレームから前記制御パケットを解析し、前記制御パケットを復号して、前記第1のフレームの前記3つの別個の色チャネルの各々の前記レンダリング情報を取得し、前記第1のフレームの前記レンダリング情報を前記第1のディスプレイのメモリに保存する、ことと、
前記第2の復元された中心窩画像を3つの別個の色チャネルの第2のセットに再マッピングして、第2のチャネル画像を形成することと、
第2のフレームを形成するために前記第2のチャネル画像を前記制御パケットによってパッキングすることと、
前記第2のフレームを前記右眼用の第2のディスプレイに送信することであって、前記右眼用の第2のディスプレイは、前記第1のフレームから前記制御パケットを解析し、前記制御パケットを復号して、前記第2のフレームについての前記3つの別個の色チャネルの各々の前記レンダリング情報を取得し、前記第2のフレームの前記レンダリング情報を前記第2のディスプレイのメモリに保存する、ことと
を含む、方法。
【請求項44】
前記ビデオプロセッサは、ウェアラブルデバイスのコンポーネントである、請求項43に記載の方法。
【請求項45】
前記第1の圧縮画像および前記第2の圧縮画像は、ヘッドセットリンクを介して前記ビデオプロセッサに送信される、請求項43に記載の方法。
【請求項46】
前記第1のディスプレイおよび前記第2のディスプレイは、液晶オンシリコン(LCOS)ディスプレイである、請求項43に記載の方法。
【請求項47】
前記3つの別個の色チャネルの各々は、独立した中心窩ゾーンまたはダウンサンプリング比を有する、請求項43に記載の方法。
【請求項48】
前記3つの別個の色チャネルの各々は、前記視聴者に順次表示される、請求項43に記載の方法。
【請求項49】
前記3つの別個の色チャネルの各々における前記第1の中心窩ゾーンおよび前記第2の中心窩ゾーンの位置は、一連のフレームにおいて互いに位置合わせされない、請求項43に記載の方法。
【請求項50】
方法であって、前記方法は、
中心窩ゾーンおよび周辺ゾーンを含む中心窩画像をレンダリングすることであって、前記中心窩ゾーンは、画像データの第1のセットを有し、第1の画素解像度でレンダリングされ、前記周辺ゾーンは、画像データの第2のセットを有し、前記第1の画素解像度よりも低い第2の画素解像度でレンダリングされる、ことと、
前記中心窩画像に関連付けられたレンダリング情報を含む制御パケットを生成することと、
時間歪曲画像を形成するために、視聴者の位置において移動するために前記中心窩画像を時間歪曲させることと、
前記時間歪曲画像および前記制御パケットをビデオプロセッサに送信することと、
最新の視聴者の姿勢データに基づいて更新画像を形成するために、前記時間歪曲画像の遅延時間歪曲を実行することと、
フレームを形成するために前記更新画像および前記制御パケットをパッキングすることと、
前記フレームを表示ユニットに送信することであって、前記表示ユニットは、前記フレームから前記制御パケットを解析し、前記制御パケットを復号して前記レンダリング情報を取得し、前記フレームの前記レンダリング情報を前記表示ユニットのメモリに保存する、ことと、
前記レンダリング情報にしたがってレンダリングされた表示画像を投影することと
を含む、方法。
【請求項51】
前記制御パケットは、制御パケットデコーダによって復号される、請求項50に記載の方法。
【請求項52】
前記時間歪曲画像は、ヘッドセットリンクを介して前記ビデオプロセッサに送信される、請求項50に記載の方法。
【請求項53】
同じ制御パケットは、一連のフレームに使用される、請求項50に記載の方法。
【請求項54】
前記中心窩ゾーンの位置は、一連のフレームにおいて動的に変更される、請求項50に記載の方法。
【請求項55】
前記画像データの第1のセットおよび前記画像データの第2のセットは、ラスタライズ形式である、請求項50に記載の方法。
【発明の詳細な説明】
【背景技術】
【0001】
関連出願の相互参照
本出願は、2021年8月13日に出願された「METHODS TO IMPROVE THE PERCEPTUAL QUALITY OF FOVEATED RENDERED IMAGES」という名称の米国仮特許出願第63/232,787号の優先権の利益を主張し、その全内容は、あらゆる目的のために参照により本明細書に組み込まれる。
【0002】
発明の背景
人間の眼では、中心窩は、視線の中心における鋭い中心視を担う。周辺視野は、視線の中心から離れて生じる視覚である。視力は、中心窩視野と比較して周辺視野では低い。中心窩レンダリング(FR)は、画像解像度、または詳細量が、固定点に対応する画像の領域においてより高く、固定点から離れてより低くなるレンダリング技術である。FRは、レンダリング能力および帯域幅の大幅な低減を達成することができ、これは、仮想現実(VR)および拡張現実(AR)などの限られたリソースを有する用途において有利とすることができる。
【0003】
いくつかのFR技術は、VR/ARヘッドセットと統合された視線追跡装置を使用してリアルタイムで視聴者の視線を追跡することを含む。FRによる満足のいく視聴者体験のために、視線追跡は、達成が困難な可能性がある十分に高い精度、高速、および低レイテンシを有する必要がある。いくつかのFR技術は、視線追跡を使用せず、代わりに固定焦点を使用する。そのようなFR技術は、固定FRと呼ばれる。例えば、視聴者がディスプレイの中心を見ると仮定すると、ディスプレイの視野(FOV)は、最大解像度を有する中央ゾーンと、解像度が低減されたいくつかの周辺ゾーンとに分割されることができる。視聴者はディスプレイの中心を常に見ているとは限らないため、視聴者体験が損なわれることがある。コンテンツベースのFRなどの他の技術も視線追跡を必要としないが、重い計算リソースを必要とすることがある。
【0004】
したがって、当該技術分野では、改良されたFR技術が必要とされている。
【発明の概要】
【課題を解決するための手段】
【0005】
発明の概要
いくつかの実施形態によれば、時間多重化を使用して中心窩レンダリングを生成する方法は、FOVを第1の中心窩ゾーンと第1の周辺ゾーンとに分割することによってFOVの第1の空間プロファイルを生成することを含む。第1の中心窩ゾーンは、第1の画素解像度でレンダリングされ、第1の周辺ゾーンは、第1の画素解像度よりも低い第2の画素解像度でレンダリングされる。本方法は、FOVを第2の中心窩ゾーンおよび第2の周辺ゾーンに分割することによってFOVの第2の空間プロファイルを生成することをさらに含む。第2の中心窩ゾーンは、第1の中心窩ゾーンから空間的にオフセットされている。第2の中心窩ゾーンは、第1の画素解像度でレンダリングされ、第2の周辺ゾーンは、第2の画素解像度でレンダリングされる。本方法は、視聴者が、第1の画素解像度でレンダリングされたときに、第2の中心窩ゾーンと重ならない第1の中心窩ゾーンの領域および/または第1の中心窩ゾーンと重ならない第2の中心窩ゾーンの領域にレンダリングされた画像を知覚するように、第1の空間プロファイルおよび第2の空間プロファイルを一連のフレームで時間的に多重化することをさらに含む。
【0006】
いくつかの実施形態によれば、両眼多重化を使用して中心窩レンダリングを生成する方法は、FOVを第1の中心窩ゾーンと第1の周辺ゾーンとに分割することによってFOVの第1の空間プロファイルを生成することを含む。第1の中心窩ゾーンは、第1の画素解像度でレンダリングされ、第1の周辺ゾーンは、第1の画素解像度よりも低い第2の画素解像度でレンダリングされる。本方法は、FOVを第2の中心窩ゾーンおよび第2の周辺ゾーンに分割することによってFOVの第2の空間プロファイルを生成することをさらに含む。第2の中心窩ゾーンは、第1の中心窩ゾーンから空間的にオフセットされている。第2の中心窩ゾーンは、第1の画素解像度でレンダリングされ、第2の周辺ゾーンは、第2の画素解像度でレンダリングされる。本方法は、第1の画素解像度でレンダリングされたときに、視聴者が、第2の中心窩ゾーンと重ならない第1の中心窩ゾーンの領域および/または第1の中心窩ゾーンと重ならない第2の中心窩ゾーンの領域にレンダリングされた画像を知覚するように、視聴者の左眼および右眼それぞれについての第1の空間プロファイルおよび第2の空間プロファイルを多重化することをさらに含む。
【0007】
いくつかの実施形態によれば、時間多重化および両眼多重化の組み合わせを使用して中心窩レンダリングを生成する方法は、FOVを第1の中心窩ゾーンおよび第1の周辺ゾーンに分割することによってFOVの第1の空間プロファイルを生成することを含む。第1の中心窩ゾーンは、第1の画素解像度でレンダリングされ、第1の周辺ゾーンは、第1の画素解像度よりも低い第2の画素解像度でレンダリングされる。本方法は、FOVを第2の中心窩ゾーンおよび第2の周辺ゾーンに分割することによってFOVの第2の空間プロファイルを生成することをさらに含む。第2の中心窩ゾーンは、第1の中心窩ゾーンから空間的にオフセットされている。第2の中心窩ゾーンは、第1の画素解像度でレンダリングされ、第2の周辺ゾーンは、第2の画素解像度でレンダリングされる。本方法は、FOVを第3の中心窩ゾーンおよび第3の周辺ゾーンに分割することによってFOVの第3の空間プロファイルを生成することをさらに含む。第3の中心窩ゾーンは、第1の中心窩ゾーンから空間的にオフセットされている。第3の中心窩ゾーンは、第1の画素解像度でレンダリングされ、第3の周辺ゾーンは、第2の画素解像度でレンダリングされる。本方法は、FOVを第4の中心窩ゾーンおよび第4の周辺ゾーンに分割することによってFOVの第4の空間プロファイルを生成することをさらに含む。第4の中心窩ゾーンは、第3の中心窩ゾーンから空間的にオフセットされている。第4の中心窩ゾーンは、第1の画素解像度でレンダリングされ、第4の周辺ゾーンは、第2の画素解像度でレンダリングされる。本方法は、奇数フレームにおいて、視聴者の左眼用の第1の空間プロファイルおよび右眼用の第2の空間プロファイルをそれぞれ多重化することと、偶数フレームにおいて、視聴者の左眼用の第3の空間プロファイルおよび右眼用の第4の空間プロファイルをそれぞれ多重化することと、をさらに含む。
【0008】
いくつかの実施形態によれば、動的に多重化された中心窩レンダリングのビデオパイプライン実装を実現する方法は、中心窩ゾーンおよび周辺ゾーンを含む中心窩画像をレンダリングすることを含み、中心窩ゾーンが、画像データの第1のセットを有し、第1の画素解像度でレンダリングされ、周辺ゾーンが、画像データの第2のセットを有し、第1の画素解像度よりも低い第2の画素解像度でレンダリングされる。本方法は、画像データの第1のセットを第1の画像ブロックにパッキングすることと、画像データの第2のセットを第2の画像ブロックにパッキングすることと、をさらに含む。本方法はまた、中心窩画像に関連付けられたレンダリング情報を含む制御パケットを生成することと、制御パケットを第1の画像ブロックおよび第2の画像ブロックと連結してフレームを形成することと、フレームを表示ユニットに送信することと、を含む。制御パケットは、送信されたフレームから解析され、レンダリング情報を取得するために復号される。最後に、復号されたレンダリング情報にしたがって表示画像がレンダリングされる。
【0009】
いくつかの実施形態によれば、時間歪曲を含む動的多重化中心窩レンダリングのビデオパイプライン実装を実現する方法は、中心窩ゾーンおよび周辺ゾーンを含む中心窩画像をレンダリングすることであって、中心窩ゾーンが、画像データの第1のセットを有し、第1の画素解像度でレンダリングされ、周辺ゾーンが、画像データの第2のセットを有し、第1の画素解像度よりも低い第2の画素解像度でレンダリングされる、ことと、中心窩画像に関連付けられたレンダリング情報を含む制御パケットを生成することとを含む。本方法は、時間歪曲画像を形成するために視聴者の位置において移動するために中心窩画像を時間歪曲させることと、時間歪曲画像および制御パケットをビデオプロセッサに送信することと、をさらに含む。本方法は、時間歪曲画像を中心窩領域パックドデータブロックおよび低解像度領域パックドデータブロックに再マッピングすることと、制御パケットを中心窩領域パックドデータブロックおよび低解像度領域パックドデータブロックと連結してフレームを形成することと、フレームを表示ユニットに送信することと、をさらに含む。次に、フレームから制御パケットが解析され、復号されてレンダリング情報が取得される。本方法はまた、復号されたレンダリング情報にしたがってレンダリングされた表示画像を投影することを含む。
【0010】
いくつかの実施形態によれば、時間歪曲を含む両眼多重化中心窩レンダリングのビデオパイプライン実装を実現する方法は、第1の中心窩ゾーンおよび第1の周辺ゾーンを含む左眼用の第1の中心窩画像をレンダリングすることであって、第1の中心窩ゾーンが、画像データの第1のセットを有し、第1の画素解像度でレンダリングされ、周辺ゾーンが、画像データの第2のセットを有し、第1の画素解像度よりも低い第2の画素解像度でレンダリングされる、ことと、第2の中心窩ゾーンおよび第2の周辺ゾーンを含む右眼用の第2の中心窩画像をレンダリングすることであって、第2の中心窩ゾーンが、画像データの第3のセットを有し、第3の画素解像度でレンダリングされ、周辺ゾーンが、画像データの第4のセットを有し、第3の画素解像度よりも低い第4の画素解像度でレンダリングされる、こととを含む。本方法は、第1の中心窩画像および第2の中心窩画像に関連付けられたレンダリング情報を含む制御パケットを生成することと、第1の時間歪曲画像および第2の時間歪曲画像を形成するために、第1の中心窩画像および第2の中心窩画像を視聴者の位置に移動するように時間歪曲させることと、第1の時間歪曲画像および第2の時間歪曲画像を圧縮して第1の圧縮画像および第2の圧縮画像を形成することと、第1の圧縮画像、第2の圧縮画像、および制御パケットをビデオプロセッサに送信することと、をさらに含む。次に、本方法は、第1の圧縮画像を第1の復元された中心窩画像に解凍することと、第2の圧縮画像を第2の復元された中心窩画像に解凍することと、最新の視聴者の姿勢データに基づいて第1の復元された中心窩画像および第2の復元された中心窩画像に対して第2の時間歪曲を実行することと、第1の復元された中心窩画像を3つの別個の色チャネルの第1のセットに再マッピングして、第1のチャネル画像を形成することと、第1のフレームを形成するために第1のチャネル画像を制御パケットでパッキングすることと、第1のフレームを左眼用の第1のディスプレイに送信することであって、左眼用の第1のディスプレイが、第1のフレームから制御パケットを解析し、第1のフレームについての3つの別個の色チャネルの各々のレンダリング情報を取得するために制御パケットを復号し、第1のディスプレイのメモリに第1のフレームのレンダリング情報を保存する、こととをさらに含む。右眼用ディスプレイの場合、本方法は、第2の復元された中心窩画像を3つの別個の色チャネルの第2のセットに再マッピングして第2のチャネル画像を形成することと、第2のチャネル画像を制御パケットにパッキングして第2のフレームを形成することと、第2のフレームを右眼用の第2のディスプレイに送信することであって、右眼用の第2のディスプレイが、第1のフレームから制御パケットを解析し、制御パケットを復号して第2のフレームについての3つの別個の色チャネルの各々のレンダリング情報を取得し、第2のフレームのレンダリング情報を第2のディスプレイのメモリに保存する、こととを含む。
【0011】
いくつかの実施形態によれば、遅延時間歪曲およびラスタスキャン出力を用いて動的に多重化された中心窩レンダリングのビデオパイプライン実装を実現する方法は、中心窩ゾーンおよび周辺ゾーンを含む中心窩画像をレンダリングすることであって、中心窩ゾーンが、画像データの第1のセットを有し、第1の画素解像度でレンダリングされ、周辺ゾーンが、画像データの第2のセットを有し、第1の画素解像度よりも低い第2の画素解像度でレンダリングされる、ことと、中心窩画像に関連付けられたレンダリング情報を含む制御パケットを生成することとを含む。本方法は、時間歪曲画像を形成するために視聴者の位置において移動するために中心窩画像を時間歪曲させることと、時間歪曲画像および制御パケットをビデオプロセッサに送信することと、最新の視聴者の姿勢データに基づいて更新画像を形成するために時間歪曲画像の遅延時間歪曲を実行することと、をさらに含む。本方法はまた、更新画像および制御パケットをパッキングしてフレームを形成することと、フレームを表示ユニットに送信することであって、表示ユニットが、フレームから制御パケットを解析し、制御パケットを復号してレンダリング情報を取得し、フレームのレンダリング情報を表示ユニットのメモリに保存する、ことと、レンダリング情報にしたがってレンダリングされた表示画像を投影することとを含む。
【図面の簡単な説明】
【0012】
【
図1】
図1は、中心窩レンダリング(FR)の実装形態を示す例示的な画像である。
【0013】
【
図2】
図2A~
図2Eは、FRにおけるサブサンプリングによって引き起こされる可能性があるいくつかの例示的なアーチファクトを示している。
【0014】
【
図3-1】
図3A~
図3Cは、いくつかの実施形態にかかる、時間多重化を使用した視野および中心窩レンダリングを示す空間プロファイルである。
【0015】
【
図3-2】
図3D~
図3Fは、本発明の実施形態にかかるネイティブ解像度、サブサンプリング、および画像ブレンドを示す画像である。
【0016】
【
図3-3】
図3G~
図3Hは、本発明の実施形態にかかるサブサンプリングおよび時間多重化を示すテキストボックスである。
【0017】
【
図4】
図4は、いくつかの実施形態にかかる、時間多重化を使用して中心窩レンダリングを生成する方法を示す簡略化されたフローチャートを示している。
【0018】
【
図5】
図5A~
図5Dは、いくつかの実施形態にかかる、両眼多重化を使用する中心窩レンダリングのための左視野および右視野を示す空間プロファイルである。
【0019】
【
図6】
図6A~
図6Cは、いくつかの実施形態にかかる、時間多重化と組み合わせて両眼多重化を使用する中心窩レンダリングのための左視野および右視野を示す空間プロファイルである。
【0020】
【
図7】
図7は、いくつかの実施形態にかかる、両眼多重化を使用して中心窩レンダリングを生成する方法を示す簡略化されたフローチャートを示している。
【0021】
【
図8】
図8は、いくつかの実施形態にかかる、時間多重化と両眼多重化との組み合わせを使用して中心窩レンダリングを生成する方法を示す簡略化されたフローチャートを示している。
【0022】
【
図9】
図9は、いくつかの実施形態にかかる、ビデオパイプラインにおいて使用するためのFR情報を提供するビデオフレームに埋め込まれる例示的な制御パケットを示している。
【0023】
【
図10】
図10は、いくつかの実施形態にかかる、動的多重化FRのための例示的なビデオパイプラインのブロック図を示している。
【0024】
【
図11】
図11は、いくつかの実施形態にかかる、時間歪曲を含む動的多重化FRのための例示的なビデオパイプラインのブロック図を示している。
【0025】
【
図12】
図12は、いくつかの実施形態にかかる、シーケンシャルカラー表示のために構成された時間歪曲を含む、動的多重化中心窩レンダリングのための例示的なビデオパイプラインのブロック図を示している。
【0026】
【
図13】
図13は、いくつかの実施形態にかかる、遅延時間歪曲およびラスタスキャン出力を有する動的多重化中心窩レンダリングのための例示的なビデオパイプラインのブロック図を示している。
【発明を実施するための形態】
【0027】
特定の実施形態の詳細な説明
中心窩レンダリング(FR)では、視野(FOV)の空間プロファイルが使用されて、レンダリング品質を人間の眼の視力に一致させることができる。空間プロファイルは、中心窩ゾーンおよび1つ以上の周辺領域を含む。中心窩ゾーンは、(例えば、ネイティブ画素解像度における)最大忠実度でレンダリングされ、周辺領域は、より低い解像度でレンダリングされる。空間プロファイルは、FOV内で固定されることができ、または視線追跡データまたはコンテンツ推定に基づいてシフトされることができる。視線追跡またはコンテンツ推定における不正確さおよび待ち時間のために、知覚的アーチファクトがFRにおいてしばしば見られる。
【0028】
いくつかの実施形態によれば、空間プロファイルの時間多重化および/または両眼多重化を使用するFRの方法が提供される。そのような方法は、FRの知覚される視覚的品質を改善し、FRの視覚的アーチファクトを低減することができる。本方法は、視線追跡なしで使用されることができ、または視線追跡と組み合わせて使用されることができる。そのような方法は、各フレームのFRの情報を提供するフレーム固有の制御パケットを使用して、グラフィックスプロセッサから表示ユニットまでのビデオパイプラインにおいて実装されることができる。したがって、計算電力および伝送帯域幅を節約しながら、FRの良好な視覚的品質が達成されることができる。これらの方法については、以下により詳細に説明する。
【0029】
図1は、FRの実装形態を示す例示的な画像である。視野(FOV)110は、中心領域の中心窩ゾーン120と、中心窩ゾーン120の周りの周辺ゾーン130との2つのゾーンに分割される。中心窩ゾーン120は、ネイティブ解像度(より細かい画素グリッドで示されている)でレンダリングされるのに対して、周辺ゾーン130は、低減された解像度(より粗い画素グリッドで示されている)でレンダリングされる。FOV110内の中心窩ゾーン120の位置は、視線追跡装置を使用して固視を測定することによって、またはコンテンツに基づいて視聴者がどこを見ているかを推測することによって決定されることができる。あるいは、中心窩ゾーン120の位置は、視聴者がFOV110の中心を見ていると仮定して、例えばFOV110の中心に固定されることができる。
【0030】
周辺ゾーン130のレンダリング画素サイズは、例えば画素ビニングまたはサブサンプリングを介して、中心窩ゾーン120の画素サイズの整数倍に等しいことが多い。例えば、m×n個のネイティブ画素群は、1つのスーパー画素に置き換えられることができる。
図1に示す例では、周辺ゾーン130において、2×2のネイティブ画素群が1つの大きな画素にマージされている。したがって、周辺ゾーン130では、中心窩ゾーン120の解像度と比較して、水平次元および垂直次元の両方において解像度が半分になる。この例は、以下の説明において使用される。
【0031】
FRの根底にある仮定は、視聴者が自身の周辺視野で低解像度領域を見ることであり、この場合、視力は十分に低く、解像度低下の影響は知覚できない。実際には、この仮定は、視線追跡エラーのために、または固定FR内の眼球運動のために無効になることができる。したがって、視聴者は、FRにおけるサブサンプリングに起因するいくつかのアーチファクトを確認し得る。
【0032】
図2A~
図2Eは、サブサンプリングによって引き起こされる可能性があるいくつかの例示的なアーチファクトを示している。2×2のサブサンプリングを想定すると、
図2Aに示す1画素幅のライン210は、
図2Bに示す2画素幅のライン220となる。すなわち、最大空間周波数が半分になる。隣接する画素が合成されるため、それらの輝度が平均化される。したがって、
図2Aおよび
図2Bに示すように、コントラストが低下する。サブサンプリングによっても色が変化する場合がある。例えば、
図2Cおよび
図2Dに示すように、赤色エリアと緑色エリアとの境界の赤色ライン230および緑色ライン240が広い黄色ライン250に結合されてもよい。サブサンプリングはまた、左側はネイティブ画素内のテキストを示し、右側はサブサンプリングされた画素内のテキストを示す
図2Eに示すように、細かいテキストの読みやすさを低減することがある。
【0033】
上記のアーチファクトは、視聴者の頭の動きまたはコンテンツ自体の動きの結果としてコンテンツが移動するときにより顕著になることができる。例えば、輝度および/またはコントラストの差によって示されるように、中心窩ゾーンと周辺ゾーンとの間に境界が確認され得る。コンテンツが高いコントラスト、例えば、VRヘッドセットによって見られる黒背景上の白いテキスト、またはARヘッドセットによって暗い背景に対して見られる白いテキストを有する場合、上記のアーチファクトはより顕著になり得る。
【0034】
いくつかの実施形態によれば、上述したアーチファクトの顕著性を低減することによって、FRによってレンダリングされた画像の知覚的品質を改善する方法が提供される。レンダリングに固定された空間プロファイル(すなわち、中心窩ネイティブ解像度対周辺部低解像度)を使用する代わりに、様々な空間プロファイルの時間的多重化および/または両眼多重化がレンダリングに使用される。これらの方法は、本明細書では時間的「ディザリング」とも呼ばれる。これらの解決策は、計算上軽量でありながら、正確且つ高速な視線追跡を必要としないという利点を有することができる。
【0035】
図3A~
図3Cは、いくつかの実施形態にかかる、時間多重化を使用した視野および中心窩レンダリングを示す空間プロファイルである。
図3Aは、FOV310が第1の中心窩ゾーン320(暗画素によって表される)および第1の周辺ゾーン330(白画素によって表される)に分割されている第1の空間プロファイルを示している。
図3Bは、FOV310が第2の中心窩ゾーン340および第2の周辺ゾーン350に分割されている第2の空間プロファイルを示している。図示のように、第2の中心窩ゾーン340は、第1の中心窩ゾーン320に対して水平方向に(例えば、X方向に4ネイティブ画素分)シフトされている。
【0036】
いくつかの実施形態によれば、第1の空間プロファイルおよび第2の空間プロファイルは、一連のフレームにおいて時間的に多重化される。例えば、第1の空間プロファイルは奇数フレームをレンダリングするために使用されることができ、第2の空間プロファイルは偶数フレームをレンダリングするために使用されることができる。このようにして、中心窩ゾーンは、一連のフレームにおいてフレームごとに動的に移動される。したがって、第1の中心窩ゾーン320および第2の中心窩ゾーン340が重複するFOV310の領域(例えば、
図3Cに示す暗い中央の列)について、ネイティブ解像度でレンダリングされた画像が常に提示される。第2の中心窩ゾーン340と重ならない第1の中心窩ゾーン320の領域、または第1の中心窩ゾーン320と重ならない第2の中心窩ゾーン340の領域(例えば、
図3Cに示す灰色の列)について、ネイティブ解像度画像およびサブサンプル画像がフレームごとに交互に提示される。
【0037】
ディスプレイが十分に高いリフレッシュレート(例えば、120Hz)を有すると仮定すると、ネイティブ解像度画像およびサブサンプル画像は、視聴者によって知覚されるように1つにブレンドされ得る。ネイティブ解像度画像とサブサンプル画像とのブレンドは、視聴者の視覚的知覚における高い空間周波数および輝度コントラストを復元するのに役立つことができる。
図3D~
図3Fは例を示している。
【0038】
図3D~
図3Fは、本発明の実施形態にかかるネイティブ解像度、サブサンプリング、および画像ブレンドを示す画像である。
図3Dは、一画素幅のライン360を含むネイティブ解像度画像を示している。
図3Eは、一画素幅のライン360が2画素幅のライン370となるサブサンプル画像を示している。
図3Fは、視聴者によって知覚され得るように、
図3Dおよび
図3Eに示される2つの画像をブレンドした結果を示している。
図3Fに示すように、ネイティブ解像度画像の高い空間解像度およびコントラストは幾分復元される。
【0039】
図3G~
図3Hは、本発明の実施形態にかかるサブサンプリングおよび時間多重化を示すテキストボックスである。
図3Gは、サブサンプル画像内のいくつかのテキストを示している。
図3Hは、ネイティブ解像度画像とサブサンプル画像とを多重化したテキストを示している。図示のように、
図3Hのテキストの読みやすさは、
図3Gと比較して改善されている。したがって、
図3A~
図3Cに示す例では、
図3Aに示す第1の空間プロファイルと
図3Bに示す第2の空間プロファイルとを時間的に多重化することによって、有効な中心窩ゾーン(例えば、
図3Cの暗領域と灰色領域との組み合わせ)は、各個々の空間プロファイルの中心窩ゾーン320または340と比較して拡大されることができる。
【0040】
様々な実施形態によれば、中心窩ゾーンの位置は、水平方向(例えば、X方向)、または垂直方向(例えば、Y方向)、または両方向(例えば、XおよびY方向の組み合わせ)に連続するフレーム間で空間的にシフトされることができる。さらに、空間シフトの方向および量は、動的に変化されることができる。フレームレートは、ディスプレイの能力(例えば、空間光変調器またはSLM)によって制限され得る。例えば、フレームレートは、120Hz以上とすることができる。いくつかの実施形態では、中心窩ゾーンは、FOV310の可能な限り多くをカバーするために、固定された順序またはランダムな順序で所定の位置のセットに空間的にシフトされることができる。したがって、視聴者の視線が変化しても、視聴者は、FOV全体で高品質の画像を知覚し得る。
【0041】
図4は、いくつかの実施形態にかかる、時間多重化を使用して中心窩レンダリングを生成する方法400を示す簡略化されたフローチャートを示している。
【0042】
方法400は、402において、FOVを第1の中心窩ゾーンと第1の周辺ゾーンとに分割することによってFOVの第1の空間プロファイルを生成することを含む。第1の中心窩ゾーンは、第1の画素解像度でレンダリングされ、第1の周辺ゾーンは、第1の画素解像度よりも低い第2の画素解像度でレンダリングされる。
【0043】
方法400は、404において、FOVを第2の中心窩ゾーンおよび第2の周辺ゾーンに分割することによってFOVの第2の空間プロファイルを生成することをさらに含む。第2の中心窩ゾーンは、第1の中心窩ゾーンから空間的にオフセットされている。第2の中心窩ゾーンは、第1の画素解像度でレンダリングされ、第2の周辺ゾーンは、第2の画素解像度でレンダリングされる。
【0044】
方法400は、406において、視聴者が、第1の画素解像度でレンダリングされたときに、第2の中心窩ゾーンと重ならない第1の中心窩ゾーンの領域および/または第1の中心窩ゾーンと重ならない第2の中心窩ゾーンの領域でレンダリングされた画像を知覚するように、第1の空間プロファイルと第2の空間プロファイルとを一連のフレームにおいて時間的に多重化することをさらに含む。
【0045】
図4に示す特定のステップは、いくつかの実施形態にかかる中心窩レンダリングを生成する特定の方法を提供することを理解されたい。代替の実施形態によれば、他の一連のステップが実行されてもよい。例えば、本発明の代替の実施形態は、上記で概説したステップを異なる順序で実行してもよい。さらに、
図4に示す個々のステップは、個々のステップにとって適切であるように様々な順序で実行され得る複数のサブステップを含み得る。さらに、特定の用途に応じて、追加のステップが追加されてもよく、いくつかのステップが削除されてもよい。当業者は、多くの変形、変更、および代替を認識するであろう。
【0046】
いくつかの実施形態によれば、追加的または代替的に、知覚アーチファクトを低減するために両眼多重化が適用されることができる。
図5A~
図5Dは、いくつかの実施形態にかかる、両眼多重化を使用する中心窩レンダリングのための左視野および右視野を示す空間プロファイルを示している。
図5Aを参照すると、第1の空間プロファイルにおいて、左眼510の視野(FOV)は、第1の中心窩ゾーン520(灰色画素によって表される)と第1の周辺ゾーン530(白色画素によって表される)とに分割される。第2の空間プロファイルでは、右眼540のFOVは、第2の中心窩ゾーン550と第2の周辺ゾーン560とに分割される。左眼510用のFOVと右眼540用のFOVとは同一であるとする。図示のように、第1の中心窩ゾーン520は、FOVの中心に固定される代わりに、右にシフトされ、第2の中心窩ゾーン550は左にシフトされる。
【0047】
図5Bを参照すると、視聴者の固視が、第1の中心窩ゾーン520と第2の中心窩ゾーン550とが重なり合うFOVの中心に到達した場合、視聴者は、自身の中心視野内の両眼に自然解像度画像を確認し得る。
図5Aを参照すると、視聴者の固視がFOVの右側に到達した場合、視聴者は、自分の中心視において左眼にネイティブ解像度画像を、右眼にサブサンプル画像を確認し得る。
図5Cを参照すると、視聴者の固視がFOVの左側に位置する場合、視聴者は、自身の中心視において、右眼にネイティブ解像度画像を、左眼にサブサンプル画像を確認し得る。
【0048】
図5Dは、有効空間プロファイルを示している。暗画素で表された領域を見ると、視聴者は、両眼においてネイティブ解像度画像を確認し得る。灰色の画素で表された領域を見ると、視聴者は、片方の眼のみにおいてネイティブ解像度の画像を確認し得る。
図5Dに示されるように、ネイティブ解像度画像が少なくとも一方の眼によって見られる組み合わされた領域(灰色および暗画素によって表される)は、各個々の空間プロファイルにおいて中心窩ゾーン520または550よりも大きい。したがって、サブサンプリングによるアーチファクトが抑制されることができる。様々な実施形態によれば、中心窩ゾーン520および550の位置は、水平方向(例えば、X方向)、または垂直方向(例えば、Y方向)、または両方向(例えば、XおよびY方向の組み合わせ)にシフトされることができる。
【0049】
いくつかの実施形態によれば、両眼多重化は、時間多重化と組み合わせられることができる。
図6A~
図6Cは、いくつかの実施形態にかかる、時間多重化と組み合わせて両眼多重化を使用する中心窩レンダリングのための左視野および右視野を示す空間プロファイルである。
図6Aを参照すると、第1のフレームでは、左FOVの第1の空間プロファイルは、右にシフトされた中心窩ゾーン610を有することができ、右FOVの第2の空間プロファイルは、左にシフトされた中心窩ゾーン620を有することができる。
図6Bを参照すると、第2のフレームでは、左FOVの第3の空間プロファイルは、左にシフトされた中心窩ゾーン630を有することができ、右FOVの第4の空間プロファイルは、右にシフトされた中心窩ゾーン640を有することができる。いくつかの実施形態では、一連のフレームにおいて、
図6Aに示すような第1のフレームは、奇数フレームごととすることができ、
図6Bに示すような第2のフレームは、偶数フレームごととすることができる。
【0050】
図6Cを参照すると、第3のフレームでは、左FOVの第5の空間プロファイルは、上方にシフトした中心窩ゾーン650を有することができ、右FOVの第6の空間プロファイルは、下方にシフトされた中心窩ゾーン660を有することができる。いくつかの実施形態では、空間シフトの方向および量は、動的に変化されることができる。例えば、左FOVおよび右FOVの両方の中心窩ゾーンは、できるだけ多くのFOVをカバーするために、固定された順序またはランダムな順序で所定の位置のセットに空間的にシフトされることができる。したがって、視聴者は、帯域幅を大幅に節約しながら、FOV全体で高品質の画像を知覚し得る。中心窩ゾーンの動きは、最小および最大の可能な瞳孔間距離(IPD)を使用して計算されることができ、標的視聴者にとって良好な視覚結果が達成されることができることを確実にする。
【0051】
いくつかの実施形態によれば、空間プロファイルの時間多重化および両眼多重化の方法は、例えば、固定FR、視線追跡を伴うFR、またはコンテンツベースのFRを含む様々なタイプのFR実装に適用されることができる。視線追跡を用いてFRに適用されると、本明細書に記載の方法は、中心窩領域を効果的に拡張し、したがって不正確な視線追跡によって生成されるアーチファクトを低減することができる。コンテンツベースのFRに適用される場合、本明細書に記載の方法は、予測誤差に起因するアーチファクトを低減することができる。固定FRに適用される場合、本明細書に記載の方法は、中心窩領域の最高解像度から、周辺部付近の多重解像度、および周辺部のサブサンプル解像度への視覚的品質の滑らかな移行を助けることができる。
【0052】
図7は、いくつかの実施形態にかかる、両眼多重化を使用して中心窩レンダリングを生成する方法700を示す簡略化されたフローチャートを示している。
【0053】
方法700は、702において、FOVを第1の中心窩ゾーンと第1の周辺ゾーンとに分割することによってFOVの第1の空間プロファイルを生成することを含む。第1の中心窩ゾーンは、第1の画素解像度でレンダリングされ、第1の周辺ゾーンは、第1の画素解像度よりも低い第2の画素解像度でレンダリングされる。
【0054】
方法700は、704において、FOVを第2の中心窩ゾーンおよび第2の周辺ゾーンに分割することによってFOVの第2の空間プロファイルを生成することをさらに含む。第2の中心窩ゾーンは、第1の中心窩ゾーンから空間的にオフセットされている。第2の中心窩ゾーンは、第1の画素解像度でレンダリングされ、第2の周辺ゾーンは、第2の画素解像度でレンダリングされる。
【0055】
方法700は、706において、第1の画素解像度でレンダリングされたときに、第2の中心窩ゾーンと重ならない第1の中心窩ゾーンの領域および/または第1の中心窩ゾーンと重ならない第2の中心窩ゾーンの領域にレンダリングされた画像を視聴者が知覚するように、視聴者の左眼および右眼のそれぞれについて第1の空間プロファイルおよび第2の空間プロファイルを多重化することをさらに含む。
【0056】
図7に示す特定のステップは、いくつかの実施形態にかかる中心窩レンダリングを生成する特定の方法を提供することを理解されたい。代替の実施形態によれば、他の一連のステップが実行されてもよい。例えば、本発明の代替の実施形態は、上記で概説したステップを異なる順序で実行してもよい。さらに、
図7に示す個々のステップは、個々のステップに適切であるように様々な順序で実行され得る複数のサブステップを含み得る。さらに、特定の用途に応じて、追加のステップが追加されてもよく、いくつかのステップが削除されてもよい。当業者は、多くの変形、変更、および代替を認識するであろう。
【0057】
図8は、いくつかの実施形態にかかる、時間多重化と両眼多重化との組み合わせを使用して中心窩レンダリングを生成する方法800を示す簡略化されたフローチャートを示している。
【0058】
方法800は、802において、FOVを第1の中心窩ゾーンと第1の周辺ゾーンとに分割することによってFOVの第1の空間プロファイルを生成することを含む。第1の中心窩ゾーンは、第1の画素解像度でレンダリングされ、第1の周辺ゾーンは、第1の画素解像度よりも低い第2の画素解像度でレンダリングされる。
【0059】
方法800は、804において、FOVを第2の中心窩ゾーンおよび第2の周辺ゾーンに分割することによってFOVの第2の空間プロファイルを生成することをさらに含む。第2の中心窩ゾーンは、第1の中心窩ゾーンから空間的にオフセットされている。第2の中心窩ゾーンは、第1の画素解像度でレンダリングされ、第2の周辺ゾーンは、第2の画素解像度でレンダリングされる。
【0060】
方法800は、806において、FOVを第3の中心窩ゾーンおよび第3の周辺ゾーンに分割することによってFOVの第3の空間プロファイルを生成することをさらに含む。第3の中心窩ゾーンは、第1の中心窩ゾーンから空間的にオフセットされている。第3の中心窩ゾーンは、第1の画素解像度でレンダリングされ、第3の周辺ゾーンは、第2の画素解像度でレンダリングされる。
【0061】
方法800は、808において、FOVを第4の中心窩ゾーンおよび第4の周辺ゾーンに分割することによってFOVの第4の空間プロファイルを生成することをさらに含む。第4の中心窩ゾーンは、第3の中心窩ゾーンから空間的にオフセットされている。第4の中心窩ゾーンは、第1の画素解像度でレンダリングされ、第4の周辺ゾーンは、第2の画素解像度でレンダリングされる。
【0062】
方法800は、810において、奇数フレームにおいて、視聴者の左眼および右眼用の第1の空間プロファイルおよび第2の空間プロファイルをそれぞれ多重化することをさらに含む。
【0063】
方法800は、812において、偶数フレームにおいて、視聴者の左眼および右眼用の第3の空間プロファイルおよび第4の空間プロファイルをそれぞれ多重化することをさらに含む。
【0064】
図8に示す特定のステップは、いくつかの実施形態にかかる中心窩レンダリングを生成する特定の方法を提供することを理解されたい。代替の実施形態によれば、他の一連のステップが実行されてもよい。例えば、本発明の代替の実施形態は、上記で概説したステップを異なる順序で実行してもよい。さらに、
図8に示す個々のステップは、個々のステップに適切であるように様々な順序で実行され得る複数のサブステップを含み得る。さらに、特定の用途に応じて、追加のステップが追加されてもよく、いくつかのステップが削除されてもよい。当業者は、多くの変形、変更、および代替を認識するであろう。
【0065】
本明細書に記載のFRレンダリングの方法は、様々な方法でハードウェアおよび/またはソフトウェアパイプラインに実装されることができる。例えば、それらは、ファームウェアまたはミドルウェアを介してAR/VRシステムの設計に実装されることができる。そのような実装は、用途に対して透過的とすることができる。あるいは、それらは、オペレーティングシステム(OS)のソフトウェアまたは個々のアプリケーションを介して既存のAR/VRシステムに実装されることができる。
【0066】
いくつかの実施形態によれば、レンダリングから表示までのパイプライン全体を通してリソース節約が実現されることができる。グラフィックスドライバ(例えば、グラフィックス処理ユニットまたはGPU)は、フレームごとに低解像度画像と高解像度画像の両方を最初に生成し、それらをパッキングしてビデオペイロードを最小化することができる。低解像度画像および高解像度画像の位置は、フレームごとに変化すると仮定されることができる。中心窩ゾーンの画素インデックス化を含むFRのフレーム固有の情報を提供する制御パケットがビデオフレーム内に埋め込まれることができる。制御パケットによって提供される情報は、表示ユニット(例えば、SLM ASIC)が各フレームの画像データをアンパッキングするのを支援することができる。
【0067】
図9は、いくつかの実施形態にかかる例示的な制御パケットを示している。制御パケットは、GPUによって生成されたビデオフレームに埋め込まれることができる。制御パケットは、FRモードが有効であるかどうか、ダウンサンプリングの比(例えば、4:1、9:1、16:1など)、中心窩領域の開始行および開始列のインデックスなどの情報を含むことができる。制御パケットは、(例えば、SLM ASICによる)表示ユニットがビデオフレーム内の画像データをアンパッキングするためのマップとして機能することができる。ダウンサンプリングの比は、フレームごとに動的に変更されることができる。例えば、比は、ほとんどのフレームについて16:1とすることができ、テキストコンテンツを有するそれらのフレームについて4:1に変更されることができる。
【0068】
いくつかの実施形態では、各ビデオフレームは、3原色(例えば、赤色、緑色、および青色)の色チャネルを含むことができる。各色チャネルは、独立してFRモードを有効または無効にされることができる。例えば、人間の眼は緑色の最も強い知覚を有するため、フレーム全体にフル解像度の緑色コンテンツを有し、赤色コンテンツおよび青色コンテンツにのみFRを適用することが有利であり得る。各色チャネルの中心窩ゾーンは、ダウンサンプリング、サイズ、および開始行および開始列のインデックスを有する位置のそれ自体の比を有することができる。例えば、緑色含有量は、赤色および青色よりも低いダウンサンプリングの比を有することができる。また、3つの色チャネルの中心窩ゾーンは、互いに位置合わせされる必要はない。
【0069】
制御パケットに含まれ得る情報は、上述した特定の情報に限定されないことを理解されたい。画像のレンダリング、処理、表示などに影響を及ぼし得る任意の情報または要因が、制御パケットに含まれ得る。
【0070】
図10は、いくつかの実施形態にかかる、動的多重化中心窩レンダリングの例示的なビデオパイプライン実装形態のブロック図を示している。画像1020(例えば、ビデオフレーム)は、GPU1010においてレンダリングされることができる。画像1020は、高解像度でレンダリングされた中心窩ゾーン1022と、低解像度でレンダリングされた周辺ゾーン1024とを含む。画像データ(中心窩ゾーン1022の高解像度画像データおよび周辺ゾーン1024の低解像度画像データを含む)は、ビデオフレーム1030にパックされる。例えば、高解像度画像データが第1の画像ブロック1034にパックされることができ、低解像度画像データが第2の画像ブロック1036にパックされることができる。
【0071】
次いで、制御パケット1032は、第1の画像ブロック1034および第2の画像ブロック1036と連結される。制御パケット1032は、(例えば、
図9に示すように)FRレンダリングに関する情報を含むことができる。ビデオフレーム1030は、チャネルリンク1040を介して表示ユニット1050(例えば、SLM ASIC)に送信されることができる。制御パケット1032によるビデオフレームのパッキングは、必要とされるペイロードおよびデータレートを大幅に低減することができ、それによってチャネルリンク1040上の帯域幅および電力を最小化する。
【0072】
表示ユニット1050は、フレーム解析器1060(例えば、デコーダ)を使用して、第1の画像ブロック1034および第2の画像ブロック1036からの制御パケット1032を解析することができる。例えば、制御パケット1032は、ビデオフレーム1030の最初の行(例えば、行0)にあることができる。制御パケットデコーダ1070は、制御パケット1032を復号することができる。次いで、制御パケット1032によって提供される情報が使用されて、第1の画像ブロック1034および第2の画像ブロック1036内の画像データをビデオメモリ1080内の中心窩ゾーンおよび周辺ゾーンにそれぞれマッピングすることができる。低解像度領域の場合、大きな画素がディスプレイのいくつかのネイティブ画素(例えば、サブサンプリング比が4:1である場合、4つのネイティブ画素に)にマッピングされることができる。表示ユニット1050は、この復号処理をフレームごとに行う。そして、表示ユニット1050は、ビデオメモリ1080に保存された画像を(例えば、SLMを介して光子を出力する)視聴者に投影する。いくつかの実施形態では、同期およびレイテンシの管理、ならびに部分画面リフレッシュタスク、ブランクモードなどを助けるために、タイムスタンプがビデオフレーム1030に含められることもできる。
【0073】
いくつかの実施形態によれば、GPUは、中心窩画像をレンダリングし、関連する制御パケットを生成する。コンピュータビジョンプロセッサからの最新の姿勢予測に基づいて画像データに対して時間歪曲機能が実行されて、最新の姿勢予測に基づいて視聴者の視点を反映するために表示ユニットに画像を提供することができる。いくつかの実施形態によれば、時間歪曲は、画像データおよび制御パケットを表示ユニットに送信する前に実行されてもよい。
図11に示すように、時間歪曲は、画像データおよび制御パケットがビデオプロセッサ1150に送信される前の時間歪曲ブロック1140において、ならびにビデオプロセッサ1150の時間歪曲再マッピングブロック1152において実行され得る。したがって、いくつかの実施形態では、時間歪曲は、表示ユニットに結合されたコンピュータビジョンプロセッサによって実行され得る。次いで、中心窩画像は、ウェアラブルビデオプロセッサに送信され、制御パケットは、二次データチャネルを介して送信される。次いで、ビデオプロセッサは、(例えば、ウェアラブルデバイスのセンサスイートからの最新の姿勢データを使用して)遅延時間歪曲を実行し、中心窩領域および低解像度領域を用いて中心窩画像を再フォーマットする。この方法は、表示前に画像をアンパッキングすることができるグローバルリフレッシュSLMにうまく機能することができる。カラーシーケンシャルディスプレイの場合、赤色、緑色、および青色のパック画像が生成され、別個に送信されることができる。
【0074】
図11は、いくつかの実施形態にかかる、時間歪曲を含む動的多重化中心窩レンダリングのための例示的なビデオパイプラインのブロック図を示している。GPU1110は、(例えば、
図9に示すように)中心窩画像1120および関連する制御パケット1130を生成する。時間歪曲ブロック1140は、中心窩画像1120に対して時間歪曲機能を実行して、視聴者の位置における動きを考慮する。次いで、画像データおよび制御パケット1130は、ヘッドセットリンクを介してウェアラブルデバイスのビデオプロセッサ1150に送信される。
【0075】
ビデオプロセッサ1150では、時間歪曲および再マッピングブロック1152は、(例えば、ウェアラブルデバイスのセンサスイートからの)最新の姿勢データを使用して遅延時間歪曲を実行することができる。例えば、大きな頭の動きがある場合、最新の姿勢データが使用されて境界を更新することができる。時間歪曲および再マッピングブロック1152はまた、中心窩画像1120を中心窩領域データブロック1154および低解像度領域データブロック1156に再マッピングすることもできる。制御パケット1130は、中心窩領域データブロック1154および低解像度領域データブロック1156と連結されてビデオフレームを形成し、表示ユニット1160(例えば、SLM ASIC)に送信されることができる。表示ユニット1160は、上述した
図10に示した表示ユニット1050と同様に、制御パケットを使用して、ビデオフレームをアンパッキングすることができる。
【0076】
図12は、いくつかの実施形態にかかる、シーケンシャルカラー表示のために構成された時間歪曲を含む、動的多重化中心窩レンダリングのための例示的なビデオパイプラインのブロック図を示している。GPU1210は、左眼用の第1の中心窩画像1212および右眼用の第2の中心窩画像1214をレンダリングする。第1の中心窩画像1212および第2の中心窩画像1214の両方に対する(例えば、
図9に示すような)FRの情報を提供する関連する制御パケット1216が生成される。時間歪曲ブロック1218は、第1の中心窩画像1212および第2の中心窩画像1214に対して時間歪曲機能を実行する。圧縮ブロック1219は、画像データの圧縮を行う。そして、圧縮された画像データおよび制御パケット1216は、ヘッドセットリンクを介してウェアラブルデバイスのビデオプロセッサ1220に送信される。
【0077】
ビデオプロセッサ1220では、解凍ブロック1222が画像データを解凍し、第1の中心窩画像1212および第2の中心窩画像1214を復元する。第1の時間歪曲および再マッピングブロック1224は、最新の姿勢データに基づいて第1の中心窩画像1212に対して時間歪曲を実行する。第1の時間歪曲および再マッピングブロック1224はまた、第1の中心窩画像1212を3つの別個の色チャネル(例えば、赤色1232a/1232b、緑色1234a/1234b、および青色1236a/1236b)にマッピングする。3つの色チャネル(すなわち、1232a、1234a、および1236a)は、制御パケットとともに、左眼用の第1のディスプレイ1230(例えば、LCOSディスプレイ)に送信される第1のビデオフレーム1228としてパックされる。第2の時間歪曲および再マッピングブロック1226は、最新の姿勢データに基づいて第2の中心窩画像1214に対して時間歪曲を実行する。第2の時間歪曲および再マッピングブロック1226はまた、第2の中心窩画像1214を3つの別個の色チャネル(すなわち、1232b、1234b、および1236b)にマッピングする。3つの色チャネルは、制御パケットとともに、右眼用の第2のディスプレイ1240(例えば、LCOSディスプレイ)に送信される第2のビデオフレーム1229としてパックされる。
【0078】
第1のディスプレイ1230は、上述した
図10に示す表示ユニット1050と同様の方法で、制御パケットを使用して第1のビデオフレーム1228をアンパッキングすることができる。この場合、3つの色チャネル1232a、1234a、および1236aの各々の画像データは、ビデオメモリに保存され、視聴者の左眼に投影される。上述したように、3つの色チャネル1232a、1234a、および1236aの各々は、その独立した中心窩ゾーン、ダウンサンプリング比どを有することができる。3つの色チャネル1232a、1234a、および1236aの中心窩ゾーンは、互いに位置合わせされる必要はない。いくつかの実施形態では、3つの色チャネル1232a、1234a、および1236aは、視聴者に順次表示されることができる。第2のディスプレイ1240は、同様にして第2のビデオフレーム1229をアンパッキングすることができる。
【0079】
ローリングシャッタタイプのディスプレイの場合、画像データは、それをラスタライズ形式に保つように異なってパックされてもよい。
図13は、いくつかの実施形態にかかる、遅延時間歪曲およびラスタスキャン出力を有する動的多重化中心窩レンダリングのための例示的なビデオパイプラインのブロック図を示している。中心窩画像1312がGPU1310においてレンダリングされる。時間歪曲ブロック1314は、中心窩画像1312に対して時間歪曲機能を実行する。中心窩画像1312について、(例えば、
図9に示すように)FRレンダリングに関する情報を含む制御パケット1316が作成されることができる。画像データおよび制御パケット1316は、ヘッドセットリンクを介してウェアラブルデバイスのビデオプロセッサ1320に送信される。
【0080】
ビデオプロセッサ1320において、時間歪曲および再マッピングブロック1324は、(例えば、ウェアラブルデバイスのセンサスイートからの)最新の姿勢データを使用して中心窩画像に対して遅延時間歪曲を実行することができる。時間歪曲画像および制御パケット1316は、ビデオフレーム1322としてまとめられ、次いで表示ユニット1330に送られる。
【0081】
表示ユニット1330において、フレーム解析器1334は、画像データ1312から制御パケット1316を解析することができる。制御パケットデコーダ1336は、画像データ1312に付随する制御パケット1316を復号することができる。次いで、制御パケット1316によって提供された情報が使用されて、画像データ1312をビデオメモリ1332にマッピングすることができる。例えば、低解像度領域内の大きな画素は、ディスプレイのいくつかのネイティブ画素(例えば、サブサンプリング比が4:1である場合、4つのネイティブ画素に)にマッピングされることができる。そして、表示ユニット1050は、ビデオメモリ1332に保存された画像を(例えば、SLMを介して光子を出力する)視聴者に投影することができる。中心窩レンダリングは、フレームごとに動的に変更されることができるため、表示ユニット1330は、正しいマッピングを保証するために、フレームごとに制御パケット1316に提供されるFR情報を使用する。
【0082】
ローリングシャッタタイプのディスプレイの場合、画像データ1312は、パイプライン全体にわたってラスタライズ形式で維持され、その結果、画像データは、スキャンされるときにスキャンされて出力されることができる。フレーム全体が受信されるのを待つ必要はない。したがって、ビデオメモリ1332は、新しく到着した画像データを送り出すための比較的小さなラインバッファとすることができる。フレーム全体を保持するための大きなバッファは必要ない。また、レイテンシは、比較的低く保たれることができる。
【0083】
また、本明細書に記載の実施例および実施形態は例示のみを目的としており、それに照らして様々な変更または変形が当業者に示唆され、本出願の精神および範囲ならびに添付の特許請求の範囲内に含まれるべきであることも理解される。
【国際調査報告】