IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ インターデジタル シーイー パテント ホールディングスの特許一覧

特許7297410表示デバイスの特性を決定する方法及びデバイス
<>
  • 特許-表示デバイスの特性を決定する方法及びデバイス 図1A
  • 特許-表示デバイスの特性を決定する方法及びデバイス 図1B
  • 特許-表示デバイスの特性を決定する方法及びデバイス 図2
  • 特許-表示デバイスの特性を決定する方法及びデバイス 図3
  • 特許-表示デバイスの特性を決定する方法及びデバイス 図4
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2023-06-16
(45)【発行日】2023-06-26
(54)【発明の名称】表示デバイスの特性を決定する方法及びデバイス
(51)【国際特許分類】
   G09G 5/00 20060101AFI20230619BHJP
   G06T 1/00 20060101ALI20230619BHJP
   G09G 5/02 20060101ALI20230619BHJP
   G09G 5/37 20060101ALI20230619BHJP
   H04N 7/18 20060101ALI20230619BHJP
【FI】
G09G5/00 550C
G06T1/00 510
G09G5/00 X
G09G5/00 550H
G09G5/00 555D
G09G5/02 B
G09G5/37 110
G09G5/37 300
G09G5/37 320
H04N7/18 U
【請求項の数】 11
【外国語出願】
(21)【出願番号】P 2018095915
(22)【出願日】2018-05-18
(65)【公開番号】P2018197857
(43)【公開日】2018-12-13
【審査請求日】2021-04-23
(31)【優先権主張番号】17305600.3
(32)【優先日】2017-05-23
(33)【優先権主張国・地域又は機関】EP
(73)【特許権者】
【識別番号】518341334
【氏名又は名称】インターディジタル・シーイー・パテント・ホールディングス・ソシエテ・パ・アクシオンス・シンプリフィエ
(74)【代理人】
【識別番号】100079108
【弁理士】
【氏名又は名称】稲葉 良幸
(74)【代理人】
【識別番号】100109346
【弁理士】
【氏名又は名称】大貫 敏史
(74)【代理人】
【識別番号】100117189
【弁理士】
【氏名又は名称】江口 昭彦
(74)【代理人】
【識別番号】100134120
【弁理士】
【氏名又は名称】内藤 和彦
(74)【代理人】
【識別番号】100108213
【弁理士】
【氏名又は名称】阿部 豊隆
(72)【発明者】
【氏名】シュタウダー,ユルゲン
(72)【発明者】
【氏名】ロバート,フィリップ
(72)【発明者】
【氏名】デュシェーヌ,シルヴァン
【審査官】橋本 直明
(56)【参考文献】
【文献】特開2015-194567(JP,A)
【文献】特開2013-106347(JP,A)
【文献】米国特許出願公開第2012/0014593(US,A1)
(58)【調査した分野】(Int.Cl.,DB名)
G09G 5/00
G06T 1/00
G09G 5/02
G09G 5/37
H04N 7/18
(57)【特許請求の範囲】
【請求項1】
第1の表示デバイスにより実行される方法であって、
実際のシーンの画像である第1画像を、前記第1の表示デバイスに組み込まれているカメラにより、捕捉することであって、前記第1画像は、第2画像を表示する第2の表示デバイスを含み、前記第2の表示デバイスは、前記第1の表示デバイスとは別である、ことと、
前記第2の表示デバイス及び別のネットワークデバイスの何れかからネットワークを通じて前記第2画像を受信することと、
前記第1画像と前記第2画像との比較に応じて、前記第2の表示デバイスの特性を決定することであって、前記第2の表示デバイスの特性は、前記第2の表示デバイスの3色の色再現関数又は実際のシーンにおける前記第2の表示デバイスにおける正反射であり、前記正反射は、前記カメラの視点から可視である前記実際のシーンの入射光の反射である、ことと、
前記決定された特性に基づいて、前記第1の表示デバイスの3色の色再現関数が前記第2の表示デバイスの3色の色再現関数に等しくなるように、又は前記正反射が前記第1画像から取り除かれるように、前記第1画像を変更することと、
前記第1の表示デバイスに、前記変更された第1画像を表示することと、
を含む、方法。
【請求項2】
前記カメラによって捕捉され且つ前記第2の表示デバイス上に表示される前記第2画像を、前記第2画像が含まれている前記第1画像の領域に整合させることにより、前記カメラによって捕捉され且つ前記第2の表示デバイス上に表示される前記第2画像を、前記第1画像の領域に含まれている前記第2画像に幾何学的に変換するための対応関係を得ることを更に含む、請求項1に記載の方法。
【請求項3】
前記整合に先立って、前記第1画像の領域に含まれている前記第2画像を検出することにより、前記第2画像が含まれている前記第1画像の領域を得ることを更に含む、請求項2に記載の方法。
【請求項4】
前記第1画像と前記第2画像との比較は、前記対応関係に基づいて、前記ネットワークを通じて受信した前記第2画像を、前記第2画像が含まれている前記第1画像の領域と比較することを含む、請求項2又は3に記載の方法。
【請求項5】
前記第1画像の表示の前に、前記第1画像のエリアに仮想オブジェクトを挿入することであって、前記エリアは、前記第2の表示デバイスに対応し、前記仮想オブジェクトの表示形態は、前記決定された特性に基づく、ことを更に含む、請求項1乃至4のうち何れか1項に記載の方法。
【請求項6】
前記3色の色再現関数は、前記第1の表示デバイスの色特性及び前記第1画像と前記第2画像との前記比較から決定される、請求項1乃至4のうち何れか1項に記載の方法。
【請求項7】
前記第1の表示デバイスは、前記決定された3色の色再現関数に従って較正される、請求項6に記載の方法。
【請求項8】
第1の表示デバイスであって、
実際のシーンの画像である第1画像を捕捉するように構成されたカメラであって、前記第1画像は、第2画像を表示する第2の表示デバイスを含み、前記第2の表示デバイスは、前記第1の表示デバイスとは別である、カメラと、
前記第2の表示デバイス及び別のネットワークデバイスの何れかからネットワークを通じて前記第2画像を受信するように構成されたネットワークインタフェースと、
(i)前記第1画像と前記第2画像との比較に応じて、前記第2の表示デバイスの特性を決定することであって、前記第2の表示デバイスの特性は、前記第2の表示デバイスの3色の色再現関数又は実際のシーンにおける前記第2の表示デバイスにおける正反射であり、前記正反射は、前記カメラの視点から可視である前記実際のシーンの入射光の反射である、ことと、(ii)前記決定された特性に基づいて、前記第1の表示デバイスの3色の色再現関数が前記第2の表示デバイスの3色の色再現関数に等しくなるように、又は前記正反射が前記第1画像から取り除かれるように、前記第1画像を変更することと、(iii)前記第1の表示デバイスに、前記変更された第1画像を表示することを行うように構成された処理手段と、
を備える第1の表示デバイス。
【請求項9】
前記処理手段は、前記カメラによって捕捉され且つ前記第2の表示デバイス上に表示される前記第2画像を、前記第2画像が含まれている前記第1画像の領域に整合させることにより、前記カメラによって捕捉され且つ前記第2の表示デバイス上に表示される前記第2画像を、前記第1画像の領域に含まれている前記第2画像に幾何学的に変換するための対応関係を得るように更に構成されている、請求項8に記載の第1の表示デバイス。
【請求項10】
前記処理手段は、前記第1画像の表示の前に、前記第1画像のエリアに仮想オブジェクトを挿入するように更に構成されており、前記エリアは、前記第2の表示デバイスに対応し、前記仮想オブジェクトの表示形態は、前記決定された特性に基づく、請求項8又は9に記載の第1の表示デバイス。
【請求項11】
コンピュータプログラムであって、
実際のシーンの画像である第1画像を、第1の表示デバイスに組み込まれているカメラにより、捕捉することであって、前記第1画像は、第2画像を表示する第2の表示デバイスを含み、前記第2の表示デバイスは、前記第1の表示デバイスとは別である、ことと、
前記第2の表示デバイス及び別のネットワークデバイスの何れかからネットワークを通じて前記第2画像を受信することと、
前記第1画像と前記第2画像との比較に応じて、前記第2の表示デバイスの特性を決定することであって、前記第2の表示デバイスの特性は、前記第2の表示デバイスの3色の色再現関数又は実際のシーンにおける前記第2の表示デバイスにおける正反射であり、前記正反射は、前記カメラの視点から可視である前記実際のシーンの入射光の反射である、ことと、
前記決定された特性に基づいて、前記第1の表示デバイスの3色の色再現関数が前記第2の表示デバイスの3色の色再現関数に等しくなるように、又は前記正反射が前記第1画像から取り除かれるように、前記第1画像を変更することと、
前記第1の表示デバイスに、前記変更された第1画像を表示することと、
を行うための第1の表示デバイスのプロセッサにより実行可能なプログラムコード命令を備える、コンピュータプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、例えば、モバイルデバイス(例えば、タブレット、スマートフォン又はヘッドマウント型ディスプレイ(HMD;Head-Mounted Display)等)で消費される拡張現実の文脈において、画像処理の分野に関する。
【背景技術】
【0002】
拡張現実アプリケーションは、それらが様々な種類のコンテンツを消費しながらユーザ経験を改善することができるということで、普及しつつある。拡張現実の1つの局面は、ビデオにおける仮想オブジェクトと実際のシーンとの合成であり、これは、仮想オブジェクトが本物に見える必要があるということで、いくつかの課題を示す。例えば、ユーザがデバイス(例えば、タブレット)を用いて、他のビデオ(例えば、放送中のビデオ)を表示している表示デバイスを含むシーンからビデオを捕捉している場合に、捕捉されたビデオにおいて仮想オブジェクトを合成することは、表示されている放送中のビデオに関連して、一連の解決のつかない課題を示す。実際に、そのような実際のシーンを、表示デバイスの如何なる特性も考慮せずに、実際のシーンにおいて表示されているビデオに関連した仮想オブジェクトと合成することは、挿入された仮想オブジェクトが拡張ビデオにおいて本物に見えないということで、現実性を欠く。いくつかの方法は、捕捉されたビデオに含まれている、ビデオを表示する表示デバイスの特性を決定して、関連する仮想オブジェクトとの実際のシーンの合成においてそれらが考慮されるようにするために必要とされる。
【発明の概要】
【0003】
第2画像を表示する表示デバイスを含むシーンの第1画像を捕捉デバイスが捕捉している状況で、顕著なアイディアは、表示デバイスに関連した特性を決定するよう第1画像と第2画像とを比較して処理するために、捕捉された第1画像及び表示デバイスによって表示されている第2画像の両方を処理デバイスへ送ることである。オリジナルの第2画像とともに第1画像(表示されている第2画像を含む。)を処理することができることは、最初の第2画像とは異ならせるように第1画像内の表示されている第2画像を変更した表示デバイスに関連した様々な特性を決定することを有利に可能にする。表示デバイスに関連した特性は、例えば、シーンにおいて表示デバイスで起きて、シーンの捕捉を乱す正反射である。第2の非限定的な例では、表示デバイスの特性は、第1画像内の表示されている第2画像を、シーンにおける表示されている第2画像と異ならせる色再現関数である。
【0004】
そのために、表示デバイスの特性を決定する方法が開示される。当該方法は、
第2画像を表示する前記表示デバイスを含むシーンの第1画像を受け取ることと、
前記第2画像を受け取ることと、
前記第1画像と前記第2画像との比較に応じて前記表示デバイスの前記特性を決定することと
を有する。
【0005】
特に有利な変形例に従って、当該方法は、前記第2画像を前記第1画像の領域と整合させることによって幾何学変換を得ることを更に有する。
【0006】
他の特に有利な変形例に従って、当該方法は、前記整合させることより前に、前記第1画像において前記表示デバイスを検出することによって前記第1画像の前記領域を得ることを更に有する。
【0007】
他の特に有利な変形例に従って、前記第1画像と前記第2画像との前記比較は、前記幾何学変換に基づき前記第1画像の前記領域を前記第2画像と比較することを有する。
【0008】
他の特に有利な変形例に従って、前記表示デバイスの前記特性は、前記表示デバイスにおける正反射である。該正反射は、例えば、前記第2画像における対応する要素の色と比較して大きい色値又は異なる色調(hue)若しくは異なる彩度(saturation)を有する色の前記第1画像の要素によって、表される。
【0009】
他の特に有利な変形例に従って、当該方法は、決定された前記正反射を前記第1画像から取り除くことを更に有する。
【0010】
他の特に有利な変形例に従って、前記表示デバイスの前記特性は、前記表示デバイス(12)の色再現関数である。該色再現関数は、例えば、前記シーンを捕捉するデバイスの色特性及び前記第1画像と前記第2画像との前記比較から、決定される。
【0011】
他の特に有利な変形例に従って、前記シーンを捕捉する前記デバイスは更に、前記第1画像を表示しており、該第1画像を表示する前記デバイスは、前記決定された色再現関数に従って較正される。
【0012】
他の特に有利な変形例に従って、前記シーンを捕捉する前記デバイスは更に、前記第2画像を受け取っている。
【0013】
第2の態様で、表示デバイスの特性を決定する捕捉デバイスも開示される。当該捕捉デバイスは、
第2画像を表示する前記表示デバイスを含むシーンの第1画像を捕捉するカメラと、
前記第2画像を受け取るネットワークインターフェイスと、
前記第1画像と前記第2画像との比較に応じて前記表示デバイスの前記特性を決定するよう構成される処理手段と
を有する。
【0014】
特に有利な変形例に従って、前記処理手段は、前記第2画像を前記第1画像の領域と整合させることによって幾何学変換を得るよう更に構成される。
【0015】
他の特に有利な変形例に従って、前記表示デバイスの前記特性は、前記表示デバイスにおける正反射及び前記表示デバイスの色再現関数のうちの1つである。
【0016】
第3の態様で、表示デバイスの特性を決定する捕捉デバイスも開示される。当該捕捉デバイスは、
第2画像を表示する前記表示デバイスを含むシーンの第1画像を捕捉するカメラと、
前記第2画像を受け取るネットワークインターフェイスと、
前記第1画像と前記第2画像との比較に応じて前記表示デバイスの前記特性を決定するよう構成されるプロセッサと
を有する。
【0017】
特に有利な変形例に従って、前記プロセッサは、前記第2画像を前記第1画像の領域と整合させることによって幾何学変換を得るよう更に構成される。
【0018】
他の特に有利な変形例に従って、前記表示デバイスの前記特性は、前記表示デバイスにおける正反射及び前記表示デバイスの色再現関数のうちの1つである。
【0019】
第4の態様で、表示デバイスの特性を決定する処理デバイスも開示される。当該処理デバイスは、
第2画像を表示する前記表示デバイスを含むシーンの第1画像を受け取り、
前記第2画像を受け取る
よう構成される少なくとも1つのネットワークインターフェイスを有し、
当該処理デバイスは、前記第1画像と前記第2画像との比較に応じて前記表示デバイスの前記特性を決定するよう構成される処理手段を更に有する。
【0020】
特に有利な変形例に従って、前記処理手段は、前記第2画像を前記第1画像の領域と整合させることによって幾何学変換を得るよう更に構成される。
【0021】
第5の態様で、表示デバイスの特性を決定する処理デバイスも開示される。当該処理デバイスは、
第2画像を表示する前記表示デバイスを含むシーンの第1画像を受け取り、
前記第2画像を受け取る
よう構成される少なくとも1つのネットワークインターフェイスを有し、
当該処理デバイスは、前記第1画像と前記第2画像との比較に応じて前記表示デバイスの前記特性を決定するよう構成されるプロセッサを更に有する。
【0022】
特に有利な変形例に従って、前記プロセッサは、前記第2画像を前記第1画像の領域と整合させることによって幾何学変換を得るよう更に構成される。
【0023】
第6の態様で、表示デバイスの特性を決定するコンピュータプログラム製品も開示される。当該コンピュータプログラム製品は、その変形例のいずれかにおいて実装される方法を実施するようプロセッサによって実行されるプログラムコード命令を有する。
【0024】
第7の態様で、表示デバイスの特性を決定するコンピュータ実行可能なプログラム命令を記憶しているコンピュータ可読記憶媒体も開示される。当該コンピュータ可読記憶媒体は、その変形例のいずれかにおいて実装される方法を実施するよう少なくとも1つのプロセッサによって実行されるプログラムコードの命令を有する。
【0025】
明示的に記載されないが、目下の実施形態は、如何なる組み合わせ又は部分組み合わせにおいても用いられてよい。例えば、目下の原理は、記載されている変形例に制限されず、変形例及び実施例の如何なる配置も使用され得る。更に、目下の原理は、記載されている表示特性の例に制限されず、表示デバイスに関連した如何なるタイプの特性も、開示されている原理に適合する。目下の原理は更に、記載されている画像マッチング、デバイス検出、画像比較技術に制限されない。
【0026】
その上、方法について記載されている如何なる特徴、変形例又は実施形態も、開示されている方法を処理する手段を有するデバイスに、開示されている方法を処理するよう構成されるプロセッサを有するデバイスに、プログラムコード命令を有するコンピュータプログラム製品に、及びプログラム命令を記憶しているコンピュータ可読記憶媒体に適合する。
【図面の簡単な説明】
【0027】
図1A】本原理に従って、第2画像を表示する表示デバイスを含む、デバイスによって捕捉された実際のシーンの第1画像の特定の非限定的な1つの例を表す。
図1B】本原理に従って、第2画像を表示する表示デバイスを含む、デバイスによって捕捉された実際のシーンの第1画像の特定の非限定的な他の例を表す。
図2】本原理の具体的且つ非限定的な実施形態に従って、表示デバイスに関連した特性を決定する方法を表す。
図3】具体的且つ非限定的な実施形態に従って、表示デバイスに関連した特性を決定する処理デバイスを表す。
図4】具体的且つ非限定的な実施形態に従って、図3の処理デバイスの例となるアーキテクチャを表す。
【発明を実施するための形態】
【0028】
本原理は、第2画像を表示する表示デバイスを含むシーンの第1画像の処理及び/又は捕捉に関連したアプリケーションに適用可能である。様々な効果は、第2画像が第1画像に含まれると、第2画像を変更しうる。例えば、1つよりも多い照射源が存在して複雑な光の相互作用を生じさせることは、屋内環境のような、人工照明を伴ったシーンでは、珍しくない。通常、物体表面による光の相互作用には、拡散反射、正反射、シェーディング及び投影(cast shadow)が挙げられる。特に、表示デバイス(例えば、テレビ受像機又はタブレット等)のスクリーンの光沢面では、画像が表示デバイスによって表示されているときに表示デバイスを見ること及び/又は捕捉することを妨げる正反射が起きうる。例えば、正反射は、人間の視覚系にその感度を下げさせ、スクリーン表面上の画像における詳細は、ユーザにとって見えにくい。表示デバイスに関連した正反射を決定することは、表示デバイスを含むシーンの画像の捕捉に関連したアプリケーションによって正反射が更に活用され得るということで、それらのアプリケーションにとって有用である。
【0029】
他の例では、表示デバイスは、そのデバイスに特有の色再現関数に従って色を表示する。シーン(第2画像を表示する表示デバイスを含む。)の第1画像が、例えば、第1画像を捕捉するデバイスによって、更に表示される場合に(例えば、タブレットの場合に)、捕捉デバイスは、表示デバイスの色再現関数とは場合により異なるそれ自身のデバイス特有の色再現関数に従って、色を表示する。シーンにおいて表示デバイスによって表示されている第2画像及び捕捉デバイスによって表示されているような捕捉された第1画像の両方を見ているユーザは、第2画像の両方の表示の間の色表示の差にたいがい気付く。その理由は、異なるディスプレイ製造業者が異なる表示技術を使用し且つ異なる信号処理を適用するからである。表示デバイスに関連した色再現関数を決定することは、表示デバイスを含むシーンの画像の捕捉に関連したアプリケーションによって表示デバイスの色再現関数の知識が更に活用され得るということで、それらのアプリケーションにとって有用である。
【0030】
正反射及び色再現関数は、表示デバイスの例となる非限定的な特性であり、表示デバイスの又はそれに関連した如何なる他の特性も、目下の原理に適用可能である。
【0031】
図1A及び図1Bは、本原理の特定の非限定的な例に従って、デバイス11によって捕捉された実際のシーン1の第1画像110であって、シーン1が第2画像120を表示する表示デバイス12を含むものの2つの例を表す。いずれの実例でも、デバイス11は、第1画像110を表示するタブレットである。
【0032】
第1画像110は、例えば、デバイス11のリアカメラ10により、実際のシーン1を取得することで得られる。第1画像110に含まれる実際のシーン1のビューは、例えば、破線により表されているカメラ10の視野(又は焦点)に依存する。第1の例(図1Aで表されている。)では、視野は、他の要素が第1画像110において存在しないように、実際のシーンを、表示デバイス12によって表示されている第2画像120に制限する。図1Bで表されている第2の例では、第1画像110は、標準視野画像(例えば、65°、70°又は90°)又は広視野画像(最大360°、例えば、110°、135°、180°、240°又は360°)である。図1Bの実際のシーン1は単一の表示デバイス12(例えば、テレビ受像機)を含む。デバイス11によって捕捉されるシーン1の部分である表示デバイス12は、第1画像110の領域121に含まれている。他の例(図示せず。)では、表示デバイス12は、部分的に閉塞され、表示デバイス12の目に見える部分が、第1画像110の領域121に含まれる。他の例(図示せず。)では、実際のシーンは、1つよりも多い表示デバイス並びに/又は、プロジェクタ及び/又はスマートフォン及び/又はタブレットに関連した表示スクリーンを含む。任意に(シーン及び視野に応じて)、実際のシーン(例えば、リビングルーム、ベッドルーム、ダイニングルーム、・・・)の性質に依存した1つ以上の他の要素(図1Bに図示せず。)も実際のシーン1において存在する。変形例に従って、シーン1の第1画像110は、デバイス11に組み込まれていないカメラ(例えば、ウェブカメラ又は監視カメラ)により取得される。この場合に、第1画像110は、通信リンクを介してデバイス11へ送信される(図1A及び図1Bに図示せず。)。
【0033】
第1画像110は、静止画像、一連の第1画像を含む第1ビデオシーケンスの画像、又は3D画像、例えば、光照射野であってよい。代替的に、又は追加的に、第2画像120も、静止画像、又は一連の第2画像を含む第2ビデオシーケンスの画像であってよい。例えば、第2ビデオは、ブロードキャスト又はブロードバンドネットワークから表示デバイス12によって受信されたブロードキャストビデオであってよい。第2ビデオはまた、表示デバイス12に接続されるか又は組み込まれているプレイヤーからその場で再生されてよい。第2画像はまた、複数組の画像の中の画像、例えば、ステレオ画像対の左画像であってよい。明りょうさ及び簡単のために、目下の原理は、第1画像及び第2画像に対して作用することによって記載されるが、第1画像の第1ビデオシーケンス及び第2画像の第2ビデオシーケンスを考えると、目下の原理は、第1ビデオシーケンスの中の第1画像に及び第2ビデオシーケンスの中の第2画像に適用可能である。3Dイメージング、第1画像の第1の組及び第2画像の第2の組を考えると、目下の原理は、第1の組の中の第1画像に及び第2の組の中の第2画像に適用可能である。
【0034】
図1Bの実例では、仮想オブジェクト111(例えば、図1B中の蝶)が、タブレット11上での表示より前に、第1画像110において挿入される。仮想オブジェクト111は、第2ビデオシーケンスに関連した特別な効果をもたらすために、第1ビデオシーケンスの中の他の画像(図示せず。)に更に挿入される。例えば、制限なしに、仮想の蝶111は、それが表示デバイス12から飛び出しているという錯覚を生み出すために、第1ビデオシーケンスの中の第1画像において挿入される。正反射がデバイス11の視点から表示デバイス12において存在する場合に、正反射は、仮想効果の現実性を高めるために、仮想の蝶の挿入において有利に考慮される。正反射を考慮することは、例えば、第1画像110から正反射を取り除くことを含む。他の例では、正反射を考慮することは、表示デバイス12における正反射に対応する適切な光効果を仮想の蝶に適用することを含む。
【0035】
図2は、本原理の具体的且つ非限定的な実施形態に従って、表示デバイスに関連した特性を決定する方法を表す。上述されたように、制限なしに、表示デバイスに関連した特性は、正反射又は表示デバイスの色再現関数である。
【0036】
ステップS21で、実際のシーンの第1画像110が処理デバイスによって受け取られる。シーンは、第2画像120を表示する表示デバイス12を含む。シーンの第1画像は、デバイス11によって捕捉される。
【0037】
ステップS22で、表示デバイス12に表示されている第2画像120が、ネットワークインターフェイスから処理デバイスによって更に受けられる。第1の例では、第2画像120は、表示デバイス12から処理デバイスによって受け取られる。他の例では、第2画像120は、ネットワークデバイスから、例えば、第2画像を表示デバイス12及び処理デバイスの両方へ送信することで、処理デバイスによって受け取られる。
【0038】
有利な変形例では、処理デバイスは、シーンの第1画像110を捕捉するデバイス11である。他の変形例では、処理デバイスは、例えば、ネットワークインターフェイスを介して、他の捕捉デバイスから第1画像を受け取っている。その変形例において、処理デバイスは、1つ又は複数のネットワークインターフェイスから第1画像110及び第2画像120の両方を受け取る。
【0039】
ステップS27で、表示デバイス12に関連した特性が、第1画像と第2画像との比較に応じて決定される。比較は、例えば、第1画像と第2画像との間のピクセル毎の比較を含む。他の例では、比較は、各画像における小さいパッチに関して計算された局部的特徴がレジストレーション誤差をより許容し得るということで、それらの特徴どうしの比較に対応する。第1の変形例では、第1画像と第2画像との比較は、第1画像及び第2画像を長方形ブロックに細分し、第1画像及び第2画像の対応するブロックの画像色値の平均値及び標準偏差値を決定し、それらを比較することを含む。第2の変形例では、第1画像と第2画像との比較は、第1画像及び第2画像においてテクスチャが低い画像領域を特定し、類似した主要色によって第1画像及び第2画像の各々の領域を関連付けることを含む。第2の変形例に従って、比較は、第1画像及び第2画像の関連付けられた領域のピクセル値を比較することを含む。更なる他の変形例では、第1画像のピクセルは、第2画像のピクセルと比較される前に、光度測定的に補償される。光度測定的補償の例は、第1画像のピクセルの色値の平均が第2画像の色値の平均と同じであるように、第2画像のピクセルとの比較の前に、第1画像のピクセルの色値にオフセットを適用することである。
【0040】
表示デバイス12の特性が表示デバイスにおける正反射である場合に、正反射は、第1画像を捕捉するデバイスから可視的であって、正反射は、第2画像における対応する要素の色値よりも色値が大きい第1画像の要素によって表され得る。この正反射は、第2画像における対応する要素の色とは色の色調及び彩度が異なっている第1画像の要素によっても表され得る。
【0041】
表示デバイスに関連した正反射を決定することは、第1画像のそれらの要素(すなわち、例えば、色値が、第2画像における対応する要素の色値よりも大きいもの。)を選択することを含む。表示デバイスにおける正反射を決定することは、よく知られているインペインティング処理を用いて正反射が除去され得るということで、有利である。他の可能性は、正反射が特定されている第1画像の要素に第2画像の要素をオーバーレイすることである。表示デバイスにおける正反射を決定することは、それが表示デバイス及び/又は第2画像に関連した拡張現実アプリケーションによって考慮され得るということで、更に有利である。例えば、表示デバイスのスクリーンの向き及び決定された正反射から、照明の方向が決定され得る。この方向及び仮想オブジェクトの表面特性から、正反射は、仮想オブジェクトの表面上で有利に生成され得る。
【0042】
表示デバイス12の特性が表示デバイスの色再現関数である場合に、表示デバイスの色再現関数は、第1画像と第2画像との比較から決定される。3色の色再現の場合に、色は、色座標とも呼ばれる3つの色値によって表現される。例えば、表示デバイス12で表示される第2画像の各ピクセルは、その場合に、3つの色座標(R,G,B)に関連する。もっと正確に言えば、表示デバイス12の色再現関数は、例えば、デバイスに依存しない色座標(X,Y,Z)によって特定される色へのデバイスに依存した色座標(R,G,B)(第2画像120を表示する表示デバイス12に関する。)によって符号化される色の再現を示す関数(X,Y,Z)=f12(R,G,B)として定義される。捕捉デバイスの色特性(捕捉デバイスの製造業者提供のパラメータである。)は、デバイスに依存しない色座標(X,Y,Z)及び捕捉デバイスに関連したデバイスに依存した色座標(R,G,B)によるその記述において特定される色の捕捉を示す関数(R,G,B)=g(X,Y,Z)として更に定義される。第1画像110はデバイス11(捕捉デバイスと呼ばれる。)によって捕捉された画像に対応するとして、第1画像110の色は、捕捉デバイスに依存した色座標(R,G,B)で(例えば、処理デバイスのメモリにおいて)記憶される。(処理デバイスによって受け取られる)第2画像120は表示デバイス12によって表示される画像に対応するとして、第2画像の色は、表示デバイスに依存した色座標(R,G,B)で(例えば、処理デバイスのメモリにおいて)記憶される。
【0043】
表示デバイスの色再現関数f12()を決定することは、夫々の捕捉された色について、そのデバイスに依存しない色座標(X,Y,Z)=g-1(R,G,B)(g-1は捕捉デバイスの色特性gの逆関数である。)を計算することを含む。表示デバイス12の色再現関数f12()は、以下の式に従って、捕捉デバイスの色特性gと、捕捉デバイスに依存した座標における第1画像(R,G,B)及び表示デバイスに依存した座標における第2画像(R,G,B)の対応する色の比較とから、このようにして求められる:

(X,Y,Z)=f12(R,G,B)、これはg-1(R,G,B)=f12(R,G,B)と等価である。

色再現関数f12()は、種々の方法で上記の式から求められ得る。第1の例では、1つの式は、一対の対応する色(R,G,B)及び(R,G,B)から導出され、f12()は、線形関数(X,Y,Z)=f12(R,G,B)=(aR,bG,cB)によって形成される。この例において、色再現関数f12()のパラメータは、その1つの式がa=X/R及びb=Y/G及びc=X/Bをもたらすことによって、求められる。更なる式が利用可能である場合に、f12()は、例えば、行列、多項式、指数関数、又はスプライン曲線として、更なるパラメータを用いて形成され得る。
【0044】
デバイス11が第1画像110を表示している場合に、表示デバイス12の色再現関数を決定することは、第1画像110を表示するデバイス11を較正して、デバイス11の色再現の能力次第で、それがシーンの表示デバイス12と同じ色再現を有するようにすることを可能にするということで、有利である。デバイス11の色再現は、製造業者提供のパラメータとして知られている。この有利な変形例において、(第1画像を表示する)デバイス11の色再現は、デバイスに依存しない色座標(X,Y,Z)によって特定される色へのデバイスに依存した色座標(R’,G’,B’)によって符号化される色の再現を示す関数(X,Y,Z)=f11(R’,G’,B’)として定義される。
【0045】
この有利な変形例において、色再現関数f11()を有している(第1画像を表示する)デバイス11は、(第1画像を表示する)デバイスの色再現の限界次第で、それがf12()に等しい色再現関数f11’()に従って機能するように、較正される。従って、最新技術においてよく知られている較正関数が、式:

(R’,G’,B’)=f11 -1(f12(R,G,B))

に従って、較正されたデバイスに依存した色座標(R’,G’,B’)をもたらすように、デバイスに依存した色座標(R,G,B)に適用される。それらの較正された色座標は、色を再現するためにデバイス11によって使用される。すなわち、第1画像の色変換された画像が、色再現関数f11’()に従って得られ、デバイス11は、色変換された画像を表示する。そのような較正関数は、デバイスの色再現の限界次第で使用可能である点に留意されたい。例えば、色(X,Y,Z)=f12(R,G,B)がデバイスによって再現され得ない場合に、f11’()は、色クリッピング又は色域マッピングのような既知の方法によって置き換えられる必要がある。
【0046】
また、表示デバイス12に関連した1つよりも多い特性が存在してよい。例えば、表示デバイス12の2つの特性が表示デバイスの色再現関数及び表示デバイスにおける正反射である場合に、色再現関数は、上述されたように、第2画像を較正するために使用され得る。次いで、較正された第2画像のピクセルは、第2画像のピクセルを第1画像のピクセルと比較して正反射を特定するようにするために、上述されたように、第1画像のピクセルと比較される。また、較正された第2画像の要素は、第2画像の要素を第1画像にオーバーレイして正反射を取り除くようにするために、上述されたように、第1画像にオーバーレイされてよい。
【0047】
任意のステップS24で、第2画像120は、第1画像110の領域と整合される。例えば、図1Bで表されているような、表示されている第2画像121が第1画像110のほんの一部分である状況において、第1画像110に対する第2画像120の整合は、第1画像内の表示されている第2画像に対応する第1画像110の領域121を決定することを可能にする。第2画像を第1画像と整合させることは、第1画像における第1の特徴及び第2画像における第2の特徴を得ることを含む。例えば、位置、サイズ、向き及び色によって特徴付けられる第1及び第2の特徴は、例えば、“Distinctive image features from scale-invariant key points”と題されて、2004年にInt’l Journal of Computer Visionにおいて公開された文献中でLoweによって提案されているSIFT(Scale Invariant Feature Transfer)法のような、当業者に知られている方法によって、取得される。特徴マッチングは、例えば、第2の特徴と第1の特徴の組の中の夫々の第1の特徴との間のユークリッド距離を計算し、第2の特徴まで最短距離を有している第1の特徴を、第1の特徴に対する適合する第2の特徴として選択することによって、取得される。第2画像を第1画像の領域と整合させるための如何なる技術も、議論されている原理に適応する。特徴マッチングから、特徴対応の最初の組が得られ、各特徴対応は、第2画像の第2の特徴に対応する第1画像の第1の特徴を含む。任意に、特徴対応の最初の組は、IEEE Trans. on Pattern Analysis and Machine Intelligenceにおいて2004年に公開された“A performance evaluation of local descriptors”と題されたMikolajczyk等の論文にあるような、Nearest Neighbor Distance Ratio(NNDR)のような既知の方法によって強化される。特徴対応は、1981年にCommunications of the ACMにおいて公開された“Random sample consensus: A paradigm for model fitting with applications to image analysis and automated cartography”と題された文献中でFischler等によって記載されているRANSAC法を用いて外れ値を検出することによって、任意に更に強化されてよい。不正確な対応及び外れ値を捨てることによって、特徴対応の最終的な組が得られる。
【0048】
表示されている第2画像に対応する第1画像の領域は、上記の任意の変形例のいずれかにおいて、第2画像の第2の特徴に対応する第1画像の第1の特徴を含む第1画像の部分である。
【0049】
任意のステップS25で、幾何学変換が、特徴マッチングに基づき取得される。実際に、各対応は、第2画像における位置x,yに対応する第1画像における位置x,yをもたらす。対応する位置から、幾何学ひずみとも呼ばれる幾何学変換は、例えば、第1デバイスの表示が平らであると仮定するホモグラフィHに従って、計算される。ホモグラフィは、例えば、2012年にProceedings of the Pattern Recognition International Conference(IPCR)において公開された“Homography estimation from correspondences of local elliptical features”でOndrej Chun等によって開示されている方法に従って、計算される。ホモグラフィは、いずれかの位置x,yを対応する位置x,yへ、又はその逆に変換する。ホモグラフィック変換以外の如何なる幾何学変換も、開示されている原理に適応する。
【0050】
表示されている第2画像121が第1画像110のほんの一部分であって、第1画像が表示されている第2画像121以外のオブジェクトを含む状況において、表示デバイスの特性は、第2画像と第1画像の領域との比較から有利に決定される。このとき、比較は、第2画像を第1画像の領域と整合させ、該整合させることから幾何学変換を取得し、該幾何学変換に基づき第1画像の領域を第2画像と比較して処理することを含む。例えば、前のステップで決定された領域は、幾何学変換、例えば、上述されたホモグラフィに基づきゆがめられ、第1画像のゆがめられた領域は、上述されたいずれかの変形例に従って、第2画像と比較して処理される。幾何学変換は、第1画像の領域が第2画像に幾何学的に対応するように、その領域を幾何学的に補償するために使用される。もっと正確に言えば、ゆがめられた領域は、次の方法で計算される:第1画像のゆがめられた領域の各位置x2i,y2iは、第1画像における位置x1i,y1iに対応する。このとき、0≦i<Nであり、Nは、第1画像のゆがめられた領域のピクセルの数である。0≦i<Nの全てについて、x1i,y1iが整数である場合には、位置x1i,y1iでの第1画像の色は、位置x2i,y2iにある第1画像のゆがめられた領域へ移される。x1i,y1iがいずれも整数でない場合には、最近傍位置が決定され、色は、第1画像におけるそれらの最近傍位置での色から補間され、補間された色は、位置x2i,y2iにある第1画像のゆがめられた領域へ移される。変形例において、第2画像は、それが第1画像の領域に幾何学的に対応するように、第2画像を幾何学的に補償するよう幾何学変換に基づきゆがめられる。この場合に、第1画像の領域は、上述されたいずれかの変形例に従って、ゆがめられた第2画像と比較して処理される。
【0051】
更なる他の変形例では、ゆがめられた画像は生成されない。代わりに、第2画像のピクセルに対応する点x1i,y1iは、幾何学変換により特定され、それらの色値は、共一次内挿法(bilinear interpolation)により計算される。第1画像の補間された色値は、次いで、例えば、pel-by-pel比較又は局部特徴比較を用いて、第2画像の対応する色値と更に比較される。
【0052】
表示デバイス12の特性が表示デバイスにおける正反射である場合に、正反射は、第2画像と第1画像のゆがめられた領域との比較から決定される。変形例において、正反射は、上述されたように、第1画像の領域とゆがめられた第2画像との比較から決定される。
【0053】
表示デバイス12の特性が表示デバイスの色再現である場合に、且つ、デバイス11が第1画像を表示している場合に、色再現関数は、上述された式に従って、捕捉デバイスに依存した座標における第1画像(R,G,B)のゆがめられた領域及び表示デバイスに依存した座標における第2画像(R,G,B)の対応する色の比較から決定される。
【0054】
デバイス11が表示デバイス12の再現関数に従って較正される場合に、第1画像の色変換された画像又は較正された画像は、色再現関数f11’()に基づき較正関数f11 -1(f12())に従って取得され、デバイス11は、色変換された画像を表示する。第1の変形例では、較正関数f11 -1(f12())は、色変換された画像を取得するために第1画像110全体に適用される。第2の変形例では、較正関数f11 -1(f12())は、色変換された画像を取得するために、領域の外側の色を変換することなしに、第1画像の領域にのみ適用される。
【0055】
有利な任意の実施形態では、第1画像内の表示されている第2画像に対応する第1画像の領域は、第1画像における表示デバイスの検出によって、整合ステップより前に取得される。その任意の実施形態において、表示デバイスは、第1画像内の表示されている第2画像に対応する領域をもたらすように、第1画像において検出される。第1の変形例では、表示デバイスは、第1画像が捕捉されるときに、白色の第2画像又は白色の第2画像のシーケンスを表示する。表示されている第2画像に対応する領域の輪郭は、白色の第2画像の輪郭を第1画像内で識別することによって、決定される。その場合に、4本の線が取得される。これらは、第1画像の領域の境界線に対応する。第2の変形例では、表示デバイスは、表示されている第2画像とは無関係に、表示デバイスを検出するよう学習された既知のオブジェクト認識法を用いて、検出される。第3の変形例では、表示デバイスが、動画コンテンツを含む第2ビデオシーケンスを表示しており、第1ビデオがほとんど静止したデバイスから取得される場合に、動画コンテンツを示す表示デバイスは、第1ビデオシーケンスの中の第1画像間の支配的な差を識別することによって、検出される。支配的な差に対応する第1画像内のエリアは、表示デバイスによって表示されている第2画像を示す第1画像の領域に対応する。画像において表示デバイスを検出する如何なる他の技術も、開示されている原理に適応する。
【0056】
第1ビデオシーケンス及び第2ビデオシーケンスがデバイスによって受け取られる場合に、第2ビデオシーケンスは表示デバイスによって表示されており、両ビデオシーケンス間の時間同期は、任意のステップS24、S25及びステップS27より前に、第1ビデオシーケンスの中の第1画像を第2ビデオシーケンスの中の第2画像と同期させるよう実行される。第2ビデオシーケンスが同じ単一の静止画像の繰り返しである場合に、時間同期は不要である。第2ビデオシーケンスが一連の動画像である場合に、時間同期は、例えば、デバイスと表示デバイスとの間で同期シグナリングデータを交換することによって、実行される。変形例において、両ビデオシーケンス間の予備的な時間同期は、任意の整合ステップS24の前に実行される。他の変形例では、予備的な時間同期は、任意の整合ステップS24の前に実行されない。その場合に、任意の整合ステップS24は、同期を達成するよう拡張される。例えば、第2画像と第1画像の領域との間の特徴マッチングは、一連の第2画像の中の夫々の第2画像について行われる。時間同期は、特徴の最良のマッチングを可能にする第2画像を選択することによって達成される。特徴マッチングの品質は、例えば、ピクセル間の二次差分の最小和のような、既知のマッチング基準を用いて、評価される。
【0057】
更なる他の実施形態では、表示デバイス12に関連した特性は、例えば、ユーザが“一時停止”を、次いで“再生”を押すことによって引き起こされる、ビデオ表示の遅延である。この実施形態に従って、第1デバイスは、ネットワークから、第2画像の連続として第2ビデオを受け取っている。第1画像(の領域)内で特定の第2画像を整合させることによって、表示デバイス12のビデオ表示の遅延は決定される。この特性の決定のために、幾何学変換を取得することは必要とされない。
【0058】
図3は、第2画像を表示する表示デバイスに関連した特性を決定する処理デバイス3を表す。本原理の具体的且つ非限定的な実施形態に従って、処理デバイス3は、シーンの第1画像を受け取るよう構成される少なくとも1つのネットワークインターフェイス31を有する。第1画像は捕捉デバイスによって捕捉され、シーンは、第2画像を表示する表示デバイスを含む。例えば、処理デバイス3は、捕捉デバイスから第1ネットワークを介して第1画像を受け取る。ネットワークインターフェイス31は、第2ネットワークから第2画像を受け取るよう更に構成される。本原理の異なる実施形態に従って、第1ネットワーク及び第2ネットワークは、同じネットワーク又は異なるネットワークである。本原理の異なる実施形態に従って、少なくとも1つのネットワークインターフェイス31は:
・2G/3G/4Gセルラーネットワーク、WiMaxインターフェイスのような、WAN(Wide Area Network)インターフェイス;
・Bluetooth(登録商標)、WiFi、又はあらゆる種類の無線ネットワーキングインターフェイスのような、WLAN(Wireless Local Area Network);
・Ethernet(登録商標)、USB、FireWire(登録商標)、又は処理デバイス3と少なくとも1つのデバイスとの間のデータ通信を更に可能にするあらゆる種類の有線テクノロジのような、有線インターフェイス;
・2G/3G/4Gセルラーネットワーク、WiMaxインターフェイスのような、WAN(Wide Area Network)インターフェイス
を含む組に属する。異なる実施形態に従って、第1画像及び第2画像は、同じネットワークインターフェイス(例えば、Wi-Fi)を介して又は異なるネットワークインターフェイス(例えば、第1画像用のUSB及び第2画像用のWi-Fi、等)を介して受け取られる。より一般的に、処理デバイス3が第1画像及び第2画像を受け取ることを可能にする如何なるネットワークインターフェイスも、開示されている原理に適応する。
【0059】
本原理の具体的且つ非限定的な実施形態に従って、処理デバイス3は、シーンの第1画像を捕捉するよう構成される任意のカメラ30を有する。シーンは、第2画像を表示する表示デバイスを含む。本原理の具体的且つ非限定的な実施形態に従って、カメラ30は、光に焦点を合わせて、それを半導体画像捕捉デバイス(例えば、感光セルと呼ばれる数千個又は数百万個の極小の光検知ダイオードのマトリクスにより光を測定するCCD(Charge Coupled Device)キャプター又はCMOS(Complementary Metal Oxide Semiconductor)キャプター、等)に向ける。本原理の具体的且つ非限定的な実施形態に従って、カメラ30は処理デバイス3の外にある。具体的且つ非限定的な実施形態に従って、カメラは、複数の画像を撮影する用意がある。例えば、ステレオカメラは、左右のビューを捕捉し、あるいは、ライトフィールドカメラは、副窓(sub-aperture)画像を捕捉し、それらを複数のビューへと処理する。
【0060】
ネットワークインターフェイス31及び任意のカメラ30は、表示デバイスに関連した特性を第1画像及び第2画像の処理に応じて決定するよう構成される処理モジュール34へリンクされている。特定の実施形態に従って、処理モジュール34は更に、任意に、表示デバイスの決定された特性を考慮しながら第1画像を処理し、処理された第1画像を表示手段へ任意の出力部38を介して送信するよう構成される。特定の実施形態に従って、表示手段はデバイスの外にあり、任意の出力部38は、処理された第1画像を外の表示手段へ送る。開示されている原理の異なる実施形態に従って、表示手段は、内部又は外部のいずれであっても:
・パーソナルコンピュータのスクリーン;
・TVのスクリーン;
・タブレットのスクリーン;
・スマートフォンのスクリーン;
・装着型ディスプレイ;
・ヘッドマウント型表示デバイス;
・スマートグラス
を含む組に属する。より一般的に、処理された第1画像を表示することを可能にする如何なる表示手段も、開示されている原理に適応する。
【0061】
特定の実施形態に従って、処理モジュール34は、様々な処理のために、例えば、遠隔記憶のために、更なるビデオ編集のために、又は配信ネットワークによる更なるネットワーク送信のために、処理された第1画像を外のデバイスへネットワークインターフェイス31を介して送る。
【0062】
図4は、具体的且つ非限定的な実施形態に従って、処理デバイス3の例となるアーキテクチャを表す。処理デバイス3は、表示デバイスに関連した特性を決定するよう構成される。処理デバイス3は、内部メモリ420(例えば、RAM、ROM、EPROM)とともに、1つ以上のプロセッサ410(例えば、CPU,GPU及び/又はDSP(Digital Signal Processorの英語の頭字語)である。)を有する。処理デバイス3は、出力情報を表示するために送信するよう且つ/あるいはユーザがコマンド及び/又はデータを入力することを可能にするよう(例えば、キーボード、マウス、タッチパッド、ウェブカム、ディスプレイ)、且つ/あるいはデータをネットワークインターフェイスを介して送信/受信するよう構成される1つ又は複数の入出力インターフェイス430と、処理デバイス3の外にあってよい電源440とを有する。
【0063】
例となる非限定的な実施形態に従って、処理デバイス3は、メモリ420に記憶されているコンピュータプログラムを更に有する。コンピュータプログラムは、処理デバイス3によって、特に、プロセッサ410によって、実行される場合に、処理デバイス3に、図2を参照して記載された処理方法を実行させる命令を有する。変形例に従って、コンピュータプログラムは、処理デバイス3の外で、非一時的なデジタルデータ担体において、例えば、SDカード、HDD、CD-ROM、DVD、リードオンリー及び/若しくはDVDドライブ並びに/又はDVDリード/ライトドライブ(当該技術で全て知られている。)のような外部記憶媒体において、記憶されている。処理デバイス3は、よって、コンピュータプログラムを読み出すためのインターフェイスを有する。更に、処理デバイス3は、1つ以上のユニバーサルシリアルバス(USB)タイプの記憶デバイス(例えば、“メモリスティック”)に、対応するUSBポートを通じてアクセスし得る(図示せず。)。
【0064】
例となる非限定的な実施形態に従って、処理デバイス3は:
・スマートフォン;
・タブレット;
・電子ブックリーダー;
・デジタルカメラ;
・タブレットコンピュータ;
・ラップトップコンピュータ;
・シースルー方式の表示デバイス;
・ヘッドマウント型表示デバイス;
・デスクトップコンピュータ;
・サーバー;
・ゲートウェイ;
・セットトップボックス
を含む組に属する。
なお、上述の実施形態の一部又は全部は、以下の付記のように記載され得るが、以下には限定されない。
(付記1)
表示デバイスの特性を決定する方法であって、
当該方法は、処理デバイスにおいて、
第2画像を表示する前記表示デバイスを含むシーンの第1画像を受け取ることと、
前記第2画像をネットワークから受け取ることと、
前記第1画像と前記第2画像との比較に応じて前記表示デバイスの前記特性を決定することと
を有する、方法。
(付記2)
前記第2画像を前記第1画像の領域と整合させることによって幾何学変換を得ること
を更に有する付記1に記載の方法。
(付記3)
前記整合させることより前に、前記第1画像において前記表示デバイスを検出することによって前記第1画像の前記領域を得ること
を更に有する付記2に記載の方法。
(付記4)
前記第1画像と前記第2画像との前記比較は、前記幾何学変換に基づき前記第1画像の前記領域を前記第2画像と比較することを有する、
付記2又は3に記載の方法。
(付記5)
前記処理デバイスは、前記シーンを捕捉している、
付記1乃至4のうちいずれかに記載の方法。
(付記6)
前記表示デバイスの前記特性は、前記表示デバイスにおける正反射である、
付記1乃至5のうちいずれかに記載の方法。
(付記7)
決定された前記正反射を前記第1画像から取り除くこと
を更に有する付記6に記載の方法。
(付記8)
前記表示デバイスの前記特性は、前記表示デバイスの3色の色再現関数であり、該3色の色再現関数は、前記処理デバイスの色特性及び前記第1画像と前記第2画像との前記比較から決定される、
付記5に記載の方法。
(付記9)
前記処理デバイスは、前記第1画像を表示しており、前記処理デバイスは、前記決定された3色の色再現関数に従って較正される、
付記8に記載の方法。
(付記10)
表示デバイスの特性を決定する処理デバイスであって、
当該処理デバイスは、
第2画像を表示する前記表示デバイスを含むシーンの第1画像を受け取り、
前記第2画像を受け取る
よう構成される少なくとも1つのネットワークインターフェイスを有し、
当該処理デバイスは、前記第1画像と前記第2画像との比較に応じて前記表示デバイスの前記特性を決定するよう構成される処理手段を更に有する、
処理デバイス。
(付記11)
前記処理手段は、前記第2画像を前記第1画像の領域と整合させることによって幾何学変換を得るよう更に構成される、
付記10に記載の処理デバイス。
(付記12)
前記表示デバイスの前記特性は、前記表示デバイスにおける正反射及び前記表示デバイスの3色の色再現関数のうちの1つである、
付記10又は11のいずれかに記載の処理デバイス。
(付記13)
前記処理手段は、決定された前記正反射を前記第1画像から取り除くよう更に構成される、
付記12に記載の処理デバイス。
(付記14)
前記シーンの前記第1画像を捕捉するよう構成されるカメラ
を更に有する付記10乃至13のうちいずれかに記載の処理デバイス。
(付記15)
表示デバイスの特性を決定するコンピュータプログラム製品であって、
当該コンピュータプログラム製品は、
デバイスによって捕捉されたシーンの第1画像を受け取り、前記シーンは、第2画像を表示する前記表示デバイスを含み、
前記第2画像を受け取り、
前記第1画像と前記第2画像との比較に応じて前記表示デバイスの前記特性を決定する
ようプロセッサによって実行されるプログラムコード命令を有する、
コンピュータプログラム製品。
【符号の説明】
【0065】
1 シーン
3 処理デバイス
10 カメラ
11 (第1画像を表示する)デバイス
12 (第2画像を表示する)表示デバイス
30 カメラ
31 ネットワークインターフェイス
34 処理モジュール
38 出力部
110 第1画像
111 仮想オブジェクト
120 第2画像
121 領域
410 プロセッサ
420 メモリ
430 入出力インターフェイス
440 電源
図1A
図1B
図2
図3
図4