IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ ソニー株式会社の特許一覧

特許7528952画像処理装置及び画像処理方法、並びに画像表示システム
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-07-29
(45)【発行日】2024-08-06
(54)【発明の名称】画像処理装置及び画像処理方法、並びに画像表示システム
(51)【国際特許分類】
   H04N 13/361 20180101AFI20240730BHJP
   H04N 5/74 20060101ALI20240730BHJP
   H04N 13/368 20180101ALI20240730BHJP
   G09G 5/00 20060101ALI20240730BHJP
   G03B 21/14 20060101ALI20240730BHJP
【FI】
H04N13/361
H04N5/74 Z
H04N13/368
G09G5/00 510B
G09G5/00 550C
G09G5/00 510V
G03B21/14 Z
【請求項の数】 13
(21)【出願番号】P 2021561202
(86)(22)【出願日】2020-10-06
(86)【国際出願番号】 JP2020037926
(87)【国際公開番号】W WO2021106379
(87)【国際公開日】2021-06-03
【審査請求日】2023-08-17
(31)【優先権主張番号】P 2019216706
(32)【優先日】2019-11-29
(33)【優先権主張国・地域又は機関】JP
(73)【特許権者】
【識別番号】000002185
【氏名又は名称】ソニーグループ株式会社
(74)【代理人】
【識別番号】100093241
【弁理士】
【氏名又は名称】宮田 正昭
(74)【代理人】
【識別番号】100101801
【弁理士】
【氏名又は名称】山田 英治
(74)【代理人】
【識別番号】100095496
【弁理士】
【氏名又は名称】佐々木 榮二
(74)【代理人】
【識別番号】100086531
【弁理士】
【氏名又は名称】澤田 俊夫
(74)【代理人】
【識別番号】110000763
【氏名又は名称】弁理士法人大同特許事務所
(72)【発明者】
【氏名】カダム アクシャト
【審査官】西田 光宏
(56)【参考文献】
【文献】特開2019-047159(JP,A)
【文献】特開2011-197537(JP,A)
【文献】特開2012-027641(JP,A)
【文献】特開2008-244753(JP,A)
【文献】特開2012-129701(JP,A)
【文献】国際公開第2019/220729(WO,A1)
【文献】特表2010-512058(JP,A)
【文献】特開2004-113586(JP,A)
【文献】米国特許出願公開第2018/0300098(US,A1)
【文献】米国特許出願公開第2017/0358140(US,A1)
(58)【調査した分野】(Int.Cl.,DB名)
G02B 27/00-30/60
G03B 21/00ー21/64
G06Q 20/18
G09G 3/00-3/38
G09G 5/00-5/42
H04M 1/00-1/82
H04N 5/222-5/257
H04N 5/74
H04N 9/31
H04N 13/00ー13/398
(57)【特許請求の範囲】
【請求項1】
複数のユーザに表示するコンテンツに関する処理を実行する画像処理装置であって、
各ユーザの情報を取得するユーザ情報取得部と、
前記各ユーザの情報に基づいて2以上のユーザ間で視野がオーバーラップするオーバーラップ領域を特定し、前記オーバーラップ領域に含まれるオブジェクトを第1のオブジェクトグループと第2のオブジェクトグループに分類する分類部と、
前記第1のオブジェクトグループからなる全ユーザに共通する共通画像を生成するとともに、前記第2のオブジェクトグループからなるユーザ毎に異なる個別画像を生成する生成部と、
を具備し、
前記共通画像を第1の表示装置に出力するとともに、ユーザ毎の個別画像を第2の表示装置に出力する、
画像処理装置。
【請求項2】
前記分類部は、前記オーバーラップ領域に含まれるオブジェクトを、背景に存在する前記第1のオブジェクトグループと、少なくとも一部のユーザにとって前景となる前記第2のオブジェクトグループに分類し、
前記生成部は、前記第1のオブジェクトグループを含む背景画像を共通画像として生成するとともに、前記第2のオブジェクトグループを含むユーザ毎の前景画像を個別画像として生成する、
請求項1に記載の画像処理装置。
【請求項3】
前記生成部は、前記第2のオブジェクトグループに含まれる各オブジェクトがユーザ毎の運動視差による効果を有する個別の前景画像を生成する、
請求項2に記載の画像処理装置。
【請求項4】
前記生成部は、前記第2のオブジェクトグループ中のユーザ毎に割り当てられたオブジェクトを含む個別画像を生成する、
請求項2に記載の画像処理装置。
【請求項5】
前記ユーザ情報取得部は、各ユーザの視野を特定するための情報を取得する、
請求項1に記載の画像処理装置。
【請求項6】
前記ユーザ情報取得部は、各ユーザの位置及び視線に関する情報を取得し、
前記分類部は、各ユーザと各オブジェクトとの距離に基づいて前記分類を実施する、
請求項1に記載の画像処理装置。
【請求項7】
各個別画像を表示する出力プロトコルを決定する決定部をさらに備える、
請求項1に記載の画像処理装置。
【請求項8】
前記共通画像を出力する第1の表示装置又はユーザ毎の個別画像を出力する第2の表示装置のうち少なくとも一方を備える、
請求項1に記載の画像処理装置。
【請求項9】
前記第1の表示装置又は前記第2の表示装置のうち少なくとも一方はプロジェクタである、
請求項7に記載の画像処理装置。
【請求項10】
前記決定部は、各個別画像を時分割で出力するタイミングに関する出力プロトコルを決定する、
請求項1に記載の画像処理装置。
【請求項11】
前記出力プロトコルを各ユーザが使用する機器に通知するための通信部をさらに備える、
請求項1に記載の画像処理装置。
【請求項12】
複数のユーザに表示するコンテンツに関する処理を実行する画像処理方法であって、
各ユーザの情報を取得するユーザ情報取得ステップと、
前記各ユーザの情報に基づいて2以上のユーザ間で視野がオーバーラップするオーバーラップ領域を特定し、前記オーバーラップ領域に含まれるオブジェクトを第1のオブジェクトグループと第2のオブジェクトグループに分類する分類ステップと、
前記第1のオブジェクトグループからなる全ユーザに共通する共通画像を生成するとともに、前記第2のオブジェクトグループからなるユーザ毎に異なる個別画像を生成する生成ステップと、
前記共通画像を第1の表示装置に出力するとともに、ユーザ毎の個別画像を第2の表示装置に出力するステップと、
を有する画像処理方法。
【請求項13】
各ユーザの情報に基づいて、2以上のユーザ間で視野がオーバーラップするオーバーラップ領域を特定し、前記オーバーラップ領域に含まれるオブジェクトを第1のオブジェクトグループと第2のオブジェクトグループに分類して、前記第1のオブジェクトグループからなる全ユーザに共通の共通画像を生成するとともに、前記第2のオブジェクトグループからなるユーザ毎に異なる個別画像を生成するとともに、各個別画像を表示する出力プロトコルを各ユーザが使用するシャッター眼鏡に通知する画像処理装置と、
前記共通画像を出力する第1の表示装置と、
ユーザ毎の個別画像を出力する第2の表示装置と、
各ユーザが使用するシャッター眼鏡と、
を具備する画像処理表示システム。
【発明の詳細な説明】
【技術分野】
【0001】
本明細書で開示(以下、「本開示」とする)する技術は、投影画像を処理する画像処理装置及び画像処理方法、並びに画像表示システムに関する。
【背景技術】
【0002】
スクリーンに画像を投影するプロジェクション技術は古くから知られており、教育現場や会議、プレゼンテーションなどで広く利用されている。比較的大きなスクリーンで画像を拡大して表示できるので、複数人に対して同じ画像を同時に提示できるなどの利点がある。最近では、建造物などの任意形状を有するスクリーンの表面に画像を投影して表示するプロジェクションマッピング技術が頻繁に利用されるようになってきている。プロジェクションマッピング技術は、例えば、投影面の3次元形状を測定して、その測定結果に応じて投影画像を補正することによって歪みのない画像を投影することによって実現する(例えば、特許文献1を参照のこと)。
【先行技術文献】
【特許文献】
【0003】
【文献】特開2001-320652号公報
【文献】特開2019-184734号公報
【文献】特開2011-71757号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
本開示に係る技術の目的は、任意形状のスクリーンに投影する画像を処理する画像処理装置及び画像処理方法、並びに画像表示システムを提供することにある。
【課題を解決するための手段】
【0005】
本開示に係る技術の第1の側面は、複数のユーザに表示するコンテンツに関する処理を実行する画像処理装置であって、
各ユーザの情報を取得するユーザ情報取得部と、
前記各ユーザの情報に基づいて2以上のユーザ間で視野がオーバーラップするオーバーラップ領域を特定し、前記オーバーラップ領域に含まれるオブジェクトを第1のオブジェクトグループと第2のオブジェクトグループに分類する分類部と、
前記第1のオブジェクトグループからなる全ユーザに共通する共通画像を生成するとともに、前記第2のオブジェクトグループからなるユーザ毎に異なる個別画像を生成する生成部と、
各個別画像を表示する出力プロトコルを決定する決定部と、
を具備する画像処理装置である。
【0006】
前記分類部は、前記オーバーラップ領域に含まれるオブジェクトを、背景に存在する前記第1のオブジェクトグループと、少なくとも一部のユーザにとって前景となる前記第2のオブジェクトグループに分類し、前記生成部は、前記第1のオブジェクトグループを含む背景画像を共通画像として生成するとともに、前記第2のオブジェクトグループを含むユーザ毎の前景画像を個別画像として生成する。前記生成部は、例えば、前記第2のオブジェクトグループに含まれる各オブジェクトがユーザ毎の運動視差による効果を有する個別の前景画像を生成する。あるいは、前記生成部は、ユーザ毎に割り当てられたオブジェクトを含む個別画像を生成する。
【0007】
また、前記決定部は、各個別画像を時分割で出力するタイミングに関する出力プロトコルを決定する。第1の側面に係る画像処理装置は、前記出力プロトコルを各ユーザが使用するシャッター眼鏡などの機器に通知するための通信部をさらに備えていてもよい。
【0008】
また、本開示に係る技術の第2の側面は、複数のユーザに表示するコンテンツに関する処理を実行する画像処理方法であって、
各ユーザの情報を取得するユーザ情報取得ステップと、
前記各ユーザの情報に基づいて2以上のユーザ間で視野がオーバーラップするオーバーラップ領域を特定し、前記オーバーラップ領域に含まれるオブジェクトを第1のオブジェクトグループと第2のオブジェクトグループに分類する分類ステップと、
前記第1のオブジェクトグループからなる全ユーザに共通する共通画像を生成するとともに、前記第2のオブジェクトグループからなるユーザ毎に異なる個別画像を生成する生成ステップと、
各個別画像を表示する出力プロトコルを決定する決定ステップと、
を有する画像処理方法である。
【0009】
また、本開示に係る技術の第3の側面は、
各ユーザの情報に基づいて、2以上のユーザ間で視野がオーバーラップするオーバーラップ領域を特定し、前記オーバーラップ領域に含まれるオブジェクトを第1のオブジェクトグループと第2のオブジェクトグループに分類して、前記第1のオブジェクトグループからなる全ユーザに共通の共通画像を生成するとともに、前記第2のオブジェクトグループからなるユーザ毎に異なる個別画像を生成するとともに、各個別画像を表示する出力プロトコルを各ユーザが使用するシャッター眼鏡に通知する画像処理装置と、
前記共通画像を出力する第1の表示装置と、
ユーザ毎の個別画像を出力する第2の表示装置と、
各ユーザが使用するシャッター眼鏡と、
を具備する画像表示システムである。
【発明の効果】
【0010】
本開示に係る技術によれば、複数人に同時に提示する投影画像を処理する画像処理装置及び画像処理方法、並びに画像表示システムを提供することができる。
【0011】
なお、本明細書に記載された効果は、あくまでも例示であり、本開示に係る技術によりもたらされる効果はこれに限定されるものではない。また、本開示に係る技術が、上記の効果以外に、さらに付加的な効果を奏する場合もある。
【0012】
本開示に係る技術のさらに他の目的、特徴や利点は、後述する実施形態や添付する図面に基づくより詳細な説明によって明らかになるであろう。
【図面の簡単な説明】
【0013】
図1図1は、プロジェクションマッピングの動作例(上方から斜視した様子)を示した図である。
図2図2は、プロジェクションマッピングの動作例(上方から見下ろした様子)を示した図である。
図3図3は、複数のユーザが同時にプロジェクションマッピングを体験する動作例を示した図である。
図4図4は、ユーザAとユーザBの各々に対するVR画像を部屋301の壁面にマッピングする仕組みを示した図である。
図5図5は、現実環境を共有するユーザAとユーザBの視野範囲501と502の間にオーバーラップ領域503が存在する様子を示した図である。
図6図6は、現実環境を共有するユーザの視野間のオーバーラップ領域を検出する仕組みを示した図である。
図7図7は、3人のユーザが同じ現実環境を共有する様子を示した図である。
図8図8は、3人のユーザが同じ現実環境を共有する場合のプロジェクションマッピングの動作例を示した図である。
図9図9は、3人のユーザが同じ現実環境を共有する場合のプロジェクションマッピングの動作例を示した図である。
図10図10は、3人のユーザが同じ現実環境を共有する様子を示した図である。
図11図11は、3人のユーザが同じ現実環境を共有する場合のプロジェクションマッピングの動作例を示した図である。
図12図12は、3人のユーザが同じ現実環境を共有する場合のプロジェクションマッピングの動作例を示した図である。
図13図13は、3人のユーザが同じ現実環境を共有する場合のプロジェクションマッピングの動作例を示した図である。
図14図14は、想定する仮想環境を例示した図である。
図15図15は、図14に示した仮想環境をユーザAの視点位置から観察される画像を示した図である。
図16図16は、図14に示した仮想環境をユーザBの視点位置から観察される画像を示した図である。
図17図17は、ユーザAとユーザBが共有する現実環境下でプロジェクタスタッキングを実施する例を示した図である。
図18図18は、図14に示した仮想環境から分離した背景画像を示した図である。
図19図19は、図14に示した仮想環境から分離した前景のオブジェクトにユーザA向けの運動視差による効果を与えた前景画像を示した図である。
図20図20は、図14に示した仮想環境から分離した前景のオブジェクトにユーザB向けの運動視差による効果を与えた前景画像を示した図である。
図21図21は、背景画像を投影した様子を示した図である。
図22図22は、背景画像にユーザA向けの前景画像を重畳して投影した様子を示した図である。
図23図23は、背景画像にユーザB向けの前景画像を投影した様子を示した図である。
図24図24は、第1のプロジェクタ2100の動作例を示した図である。
図25図25は、第2のプロジェクタ2200の動作例を示した図である。
図26図26は、自動車が遠方から手前に向かって走行している画像を示した図である。
図27図27は、自動車が遠方から手前に向かって走行している画像を示した図である。
図28図28は、自動車が前景の領域に到達したときのユーザA向けの画像を示した図である。
図29図29は、自動車が前景の領域に到達したときのユーザA向けの画像を示した図である。
図30図30は、前景画像を投影する第2のプロジェクタ2802の動作例を示した図である。
図31図31は、共通の背景画像上にユーザ毎の個別の前景画像を時分割で重畳するプロジェクタスタッキングの表示例を示した図である。
図32図32は、共通の背景画像上にユーザA用の前景画像を重畳したプロジェクタスタッキングの表示例を示した図である。
図33図33は、共通の背景画像上にユーザB用の前景画像を重畳したプロジェクタスタッキングの表示例を示した図である。
図34図34は、共通の背景画像上にユーザC用の前景画像を重畳したプロジェクタスタッキングの表示例を示した図である。
図35図35は、前景画像を投影する第2のプロジェクタ3112の動作例を示した図である。
図36図36は、画像処理装置3600の機能的構成例を示した図である。
図37図37は、画像処理装置3600が実行する処理手順を示したフローチャートである。
【発明を実施するための形態】
【0014】
以下、図面を参照しながら本開示に係る技術の実施形態について詳細に説明する。
【実施例1】
【0015】
図1及び図2には、プロジェクションマッピングの動作例を模式的に示している。図示の例では、プロジェクションマッピング技術により提供される仮想現実(VR)空間を体験するユーザ100が、矩形状の部屋101内に立っている。部屋101の四方の壁面が現実環境である。また、部屋101の外側には、ユーザ100に提示するVR画像が描画される、矩形状の仮想スクリーン102が配置される。但し、図1では現実環境及び仮想環境を上方から斜視した様子を示し、図2では現実環境及び仮想環境を上方から見下ろした様子を示している。
【0016】
プロジェクションマッピングにより部屋101の壁面を使って仮想スクリーン102上のVR画像をユーザに提示する場合、図示しないカメラや距離センサーなどにより、部屋101の壁面の3次元形状を測定して、その測定結果に応じて投影画像を補正することによって歪みのないVR画像を部屋101の壁面に投影する。従来、プロジェクションマッピング技術により投影される画像は、基本的に特定の視点(例えば、作成時の視点)のみから表示される画像である。このため、図1及び図2に示したような動作環境下で、ユーザ100が部屋101内を移動しても、壁面に投影された画像は動かないので、ユーザ100は仮想世界に完璧に没入することはできない。そこで、ユーザ100の位置、姿勢、視線を追跡して、その追跡情報をフィードバックしてVR画像を追従させる仕組みが必要である。
【0017】
また、図3には、複数のユーザが同時にプロジェクションマッピングを体験する動作例を模式的に示している。但し、同図では現実環境及び仮想環境を上方から見下ろした様子を示している。また、簡素化のため、図3ではユーザAとユーザBの2人としている。
【0018】
ここでは、各ユーザの動きに追従したVR画像を提示することを想定している。このため、ユーザAとユーザBの位置、姿勢、視線をそれぞれ追跡する。そして、仮想スクリーン302上のVR画像として、ユーザAの位置、姿勢、視線から眺めるVR画像(View for User A)と、ユーザBの位置、姿勢、視線から眺めるVR画像(View for User B)の2種類を生成する。部屋301の壁面のうち、ユーザAの視野(FoV限界)の領域には、仮想スクリーン302上のユーザA用のVR画像をプロジェクションマッピングにより投影する。また、部屋301の壁面のうち、ユーザBの視野(FoV限界)の領域には、仮想スクリーン302上のユーザB用のVR画像をプロジェクションマッピングにより投影する。
【0019】
図4には、ユーザAとユーザBの各々に対するVR画像を部屋301の壁面にマッピングする仕組みを図解している。図示しないカメラや距離センサー、あるいはその他のセンサーからのセンサー情報などに基づいて、部屋301内でのユーザAとユーザBの位置、姿勢、視線をそれぞれ追跡する。
【0020】
そして、仮想スクリーン302上のVR画像として、ユーザAの位置、姿勢、視線から眺めるVR画像(View for User A)401と、ユーザBの位置、姿勢、視線から眺めるVR画像(View for User B)402の2種類を生成する。VR画像401とVR画像402はいずれも同じ仮想世界座標系にマッピングされる画像であるが、現実には例えばユーザ毎に個別のプレーンメモリなどに書き込まれる。
【0021】
次いで、一方のVR画像401からユーザAの視野領域の画像411を切り出すとともに、部屋301の壁面のうちユーザAの視野領域311における3次元形状を測定して、その測定結果に応じて元のVR画像411を補正することによって、部屋301の壁面のユーザAの視野領域311に、歪みのないVR画像を投影する。同様に、他方のVR画像402からユーザBの視野領域の画像412を切り出すとともに、部屋301の壁面のうちユーザBの視野領域312における3次元形状を測定して、その測定結果に応じて元のVR画像412を補正することによって、部屋301の壁面のユーザBの視野領域312に、歪みのないVR画像を投影する。
【0022】
部屋301の壁面には、ユーザAの視野領域311にマッピングされたユーザA向けのVR画像401と、ユーザBの視野領域312にマッピングされたユーザB向けのVR画像402を含む1枚の画像を生成して、プロジェクションマッピング技術を利用して投影される。なお、部屋301の壁面の広い範囲にわたって画像を投影するために、2台以上のプロジェクタが使用される。また、ユーザA用のVR画像401とユーザB用のVR画像402は、ともに同じコンテンツから生成してもよいし、それぞれ異なるコンテンツから生成してもよい。
【0023】
また、図3及び図4では1つの現実環境を2人のユーザが共有する場合のVR画像の表示例を示したが、1つの現実環境を3人以上のユーザが共有する場合も同様の処理が実施されるものと理解されたい。
【0024】
図3及び図4では、簡素化のため、1つの現実環境を共有する複数のユーザ間で視野がオーバーラップしない例について説明した。しかしながら、1つの現実環境を共有する複数のユーザ間で視野がオーバーラップすることも想定される。あるユーザの視野に他のユーザに向けたVR画像が映り込むと、ユーザのVR体験が乱れてしまうという問題がある。
【0025】
図5には、部屋の壁面500からなる現実環境を共有するユーザAとユーザBの視野範囲501と502の間にオーバーラップ領域503が存在する様子を示している。ユーザAの部屋500の壁面に対する位置、姿勢、視線から、ユーザA向けのVR画像が生成され、プロジェクションマッピング技術を利用して、壁面500の視野範囲501に投影される。また、ユーザBの部屋500の壁面に対する位置、姿勢、視線から、ユーザB向けのVR画像が生成され、プロジェクションマッピング技術を利用して、壁面500の視野範囲502に投影される。そして、ユーザAの視野501のうちオーバーラップ領域503には、ユーザBに向けたVR画像が映り込むので、ユーザAのVR体験が乱れてしまう。同様に、ユーザBの視野502のうちオーバーラップ領域503には、ユーザAに向けたVR画像が映り込むので、ユーザBのVR体験も乱れてしまう。
【0026】
そこで、本開示に係る技術では、複数のユーザの視野の間にオーバーラップ領域があるかどうかを精密に検出して、オーバーラップ領域が検出された場合には、オーバーラップ領域に各ユーザに向けられた個別のVR画像を時分割で割り振って、それぞれのユーザに適した画像を作るようにする。各ユーザは、オーバーラップ領域における自分向けのVR画像への切り換えに同期して開閉動作するシャッター眼鏡(例えば、特許文献3を参照のこと)を着用して現実環境を観察するようにする。これによって、各ユーザは、自分向けのVR画像だけを視聴することが可能となり、他のユーザに向けられたVR画像によってVR体験が乱されることはなくなる。一方、ユーザの視野間にオーバーラップ領域が検出されない場合には、各ユーザ向けのVR画像をすべて含む1枚の画像を生成して、プロジェクションマッピング技術を利用して現実環境上で投影する。
【0027】
複数のユーザが共有する現実環境で、各ユーザが完璧なVR体験を行えるようにするには、ユーザの視野間のオーバーラップ領域を精密に検出する必要がある。ユーザの視野間のオーバーラップ領域を検出する方法について、図6を参照しながら説明する。但し、図6では、説明の簡素化のため、現実環境は平らな1枚の壁面600とし、これをユーザAとユーザBの2人が共有するものとする。
【0028】
まず、フレーム毎に、ユーザAとユーザBの位置、姿勢、視線の情報を取得して、各々の視界範囲(動的視野)を推定する。
【0029】
次いで、ユーザA向けのVR画像の601を、人間の視野限界と、ユーザAから投影面となる壁面600までの距離に応じて設定する。同様に、ユーザB向けのVR画像の投影範囲602を、人間の視野限界と、ユーザBから投影面となる壁面600までの距離に応じて設定する。
【0030】
このようして、ユーザAとユーザBの各々の動的視野に対する壁面600上での投影範囲601、602が得られると、ユーザAとユーザB間で視野がオーバーラップするかどうかを精密に検出することができる。図6に示す例では、ユーザAの投影範囲601とユーザBの投影範囲602はオーバーラップしていないものとする。
【0031】
図7には、同じ現実環境をユーザA、ユーザB、ユーザCの3人が共有する様子を示している。同図では、現実環境は、VR画像を投影する部屋の壁面700からなる。そして、ユーザA、ユーザB、ユーザCの各々に向けられたVR画像を、プロジェクションマッピング技術によって各自に設定された投影範囲701、702、703に投影する。ここで、ユーザA向けのVR画像の投影範囲701と、隣接するユーザB向けのVR画像の投影範囲702の間にはオーバーラップ領域711が検出され、且つ、ユーザB向けのVR画像の投影範囲702と、隣接するユーザC向けのVR画像の投影範囲703の間にはオーバーラップ領域712が検出されたとする。
【0032】
上述したように、本開示に係る技術では、複数のユーザの視野の間にオーバーラップ領域が検出された場合には、オーバーラップ領域に各ユーザに向けられた個別のVR画像を時分割で割り振って、それぞれのユーザに適した画像を作るようにする。
【0033】
図8及び図9には、図7に示した現実環境下で、ユーザA、ユーザB、ユーザCの各々に向けられた個別のVR画像を時分割で投影する動作例を示している。ここで、フレーム周期をT[ミリ秒]とする。フレーム周期Tは、フレームレートの逆数である。フレーム周期Tを2つに分割して、フレーム周期毎に、0~T/2の区間と、T/2~Tの区間とで壁面700に投影する画像を順次切り替える。
【0034】
まず、フレーム周期Tの前半の0~T/2の区間では、図8に示すように、ユーザBの位置、姿勢、視線に基づいて設定されたユーザBの投影範囲702に、ユーザB向けのVR画像802を投影する。ユーザBは、0~T/2の区間に同期して開くシャッター眼鏡を着用して視線方向の壁面700を観察することで、ユーザB向けのVR画像だけを視聴することが可能となり、他のユーザ向けに表示されたVR画像によってVR体験が乱されることはなくなる。
【0035】
続いて、フレーム周期Tの後半のT/2~Tの区間では、図9に示すように、ユーザAに設定された投影範囲701にユーザA向けのVR画像901を投影するとともに、ユーザCに設定された投影範囲703にユーザC向けのVR画像903を投影する。ユーザAとユーザCは、T/2~Tの区間に同期して開くシャッター眼鏡を着用して視線方向の壁面700を観察することで、ユーザA向けのVR画像並びにユーザC向けのVR画像だけをそれぞれ視聴することが可能となり、他のユーザに向けられたVR画像によってVR体験が乱されることはなくなる。
【0036】
図10には、同じ現実環境をユーザA、ユーザB、ユーザCの3人が共有する他の例を示している。図7図9に示した例では、ユーザA向けのVR画像の投影範囲701と、ユーザC向けのVR画像の投影範囲703の間にはオーバーラップ領域が存在しなかった。これに対し、図10に示す例では、ユーザAの投影範囲1001とユーザBの投影範囲1002間、並びにユーザBの投影範囲1002とユーザCの投影範囲1003の間にオーバーラップ領域1011及び1012が検出されるとともに、ユーザAの投影範囲1001とユーザCの投影範囲1003の間にもオーバーラップ領域1013が検出される。
【0037】
図11乃至図13には、図10に示した現実環境下で、ユーザA、ユーザB、ユーザCの各々に向けられた個別のVR画像を時分割で投影する動作例を示している。この場合、フレーム周期Tを3つに分割して、フレーム周期毎に、0~T/3の区間と、T/3~2T/3の区間と、2T/3~Tの区間とで壁面1000に投影する画像を順次切り替える。
【0038】
まず、フレーム周期Tの最初の0~T/3の区間では、図11に示すように、ユーザBの位置、姿勢、視線に基づいて設定されたユーザBの投影範囲1002に、ユーザB向けのVR画像1102を投影する。ユーザBは、0~T/3の区間に同期して開くシャッター眼鏡を着用して視線方向の壁面1000を観察することで、ユーザB向けのVR画像だけを視聴することが可能となり、ユーザA及びユーザCに向けられたVR画像によってユーザBのVR体験が乱されることはなくなる。
【0039】
続くT/3~2T/3の区間では、図12に示すように、ユーザAの位置、姿勢、視線に基づいて設定されたユーザAの投影範囲1001に、ユーザA向けのVR画像1201を投影する。ユーザAは、T/3~2T/3の区間に同期して開くシャッター眼鏡を着用して視線方向の壁面1000を観察することで、ユーザA向けのVR画像だけを視聴することが可能となり、ユーザB及びユーザCに向けられたVR画像によってユーザAのVR体験が乱されることはなくなる。
【0040】
続く2T/3~Tの区間では、図13に示すように、ユーザCの位置、姿勢、視線に基づいて設定されたユーザCの投影範囲1003に、ユーザC向けのVR画像1303を投影する。ユーザCは、2T/3~Tの区間に同期して開くシャッター眼鏡を着用して視線方向の壁面1000を観察することで、ユーザC向けのVR画像だけを視聴することが可能となり、ユーザA及びユーザBに向けられたVR画像によってユーザCのVR体験が乱されることはなくなる。
【0041】
なお、同じ現実環境を共有するユーザのうち、視野がオーバーラップするユーザ数が増大すると、フレーム区間の分割数が増加し、フレーム区間内で各ユーザがVR画像を観察できる時間が短くなり輝度が低下するという点に留意されたい。
【実施例2】
【0042】
複数のプロジェクタを用いて同じ投影面を重畳して投影するプロジェクタスタッキングが知られている(例えば、特許文献2を参照のこと)。例えば同じ画像を重ねて投影することで、投影画像の輝度を向上させることができる。
【0043】
本開示に係る技術では、投影する画像の元のコンテンツを前景と背景に分離して、前景と背景をそれぞれ個別のプロジェクタを用いて投影することによって、運動視差による効果を保ち、ユーザがより完璧なVR体験を行えるようにする。
【0044】
運動視差は、観察者と観察対象との相対移動によって生じる視差であり、近くの観察対象ほど速く動き、遠くの観察対象ほど遅く動く。そこで、仮想環境を背景と前景に分離し、フレーム毎にユーザの位置、姿勢、視線の情報を取得して、最適な前景画像及び背景画像を生成して、2台のプロジェクタを用いて現実環境でプロジェクタスタッキングを実施することで、運動視差による効果を保ち、ユーザがより完璧なVR体験を行うことができる。
【0045】
プロジェクタスタッキングは、複数のユーザが共有する現実環境下で実施することを想定している。各ユーザの投影面に対する位置、姿勢、視線が相違するため、ユーザ毎に運動視差が異なる。プロジェクタスタッキングする際に、あるユーザに適合するように運動視差による効果を与えた画像を投影すると、他のユーザにとっては不自然な運動視差となりVR体験が乱れてしまうという問題がある。
【0046】
視点から遠い対象物は運動視差による変化は小さいが、視点から近い対象物ほど運動視差による変化は大きくなる。例えば、図14に示すように、ユーザAとユーザBの視野範囲がオーバーラップする領域内で、遠方に1本の木1401と前方に郵便ポスト1402が存在するという仮想環境1400を想定する。このような場合、ユーザAとユーザBの間で、遠方の木1401の運動視差は小さいが、手前の郵便ポスト1402の運動視差は大きい。したがって、ユーザAは図15に示すように手前の郵便ポスト1402の左側の奥に木1401が見えるVR画像を観察する一方、ユーザBは図16に示すように手前の郵便ポスト1402の右側の奥に木1401が見えるVR画像を観察するようにすることが適当であると考えられる。ところが、ユーザAに対する運動視差による効果のみが保たれた図15に示す画像をプロジェクションマッピングにより現実環境に常時投影すると、これを観察するユーザBにとっては不自然な運動視差となりVR体験が乱れてしまう。
【0047】
そこで、本開示に係る技術では、複数のユーザ間で視野がオーバーラップするオーバーラップ領域に含まれる被写体(オブジェクト)を前景と背景に分離して、背景画像はユーザ間で運動視差の差が小さいことから共通の画像として扱うとともに、各ユーザの位置、姿勢、視線に応じた運動視差を再現したユーザ毎に最適な個別の前景画像を生成する。そして、ユーザ間で共通となる背景画像を、背景画像投影用の第1のプロジェクタを使って常時投影表示するとともに、ユーザ毎に異なる前景画像を、前景画像投影用の第2のプロジェクタを使って時分割で投影表示する。各ユーザは、自分向けの前景画像への切り換えに同期して開閉動作するシャッター眼鏡を着用して現実環境を観察するようにする。これによって、各ユーザは、ユーザ間で共通の背景画像に、最適な前景画像が重畳されたVR画像を視聴することができる。最適な前景画像とは、ユーザ毎の運動視差による効果を保つ前景画像であり、ユーザはより完璧なVR体験を行うことができ
【0048】
なお、第1のプロジェクタ及び第2のプロジェクタはいずれも、プロジェクションマッピング技術を利用して現実環境上で投影する。また、第1のプロジェクタ及び第2のプロジェクタは、それぞれ複数台のプロジェクタ装置で構成されていてもよい。
【0049】
図17には、ユーザAとユーザBが共有する現実環境下でプロジェクタスタッキングを実施する例を示している。同図では、現実環境は、VR画像を投影する部屋の壁面1700からなり、図14に示した仮想環境をプロジェクタスタッキングにより投影するものとする。
【0050】
まず、ユーザAとユーザBの位置、姿勢、視線の情報を取得して、ユーザAの視野範囲1701とユーザBの視野範囲1702がオーバーラップするオーバーラップ領域1703を特定すると、そのオーバーラップ領域に含まれるオブジェクトを前景と背景に分類する。例えば、フレーム毎にユーザA及びユーザBの位置、姿勢、視線に基づいて、オーバーラップ領域1703中の各オブジェクトの運動視差を計算して、運動視差による変化が小さいオブジェクトを背景に分類し、運動視差による変化が所定値を超えるオブジェクトを前景に分類するようにしてもよい。ここで、一方のユーザにとって運動視差による変化は小さいが、他方のユーザにとっては運動視差による変化が大きくなるオブジェクトは前景に分類するようにしてもよい。図17に示す例では、遠方の木1711が背景に分類され、前方の郵便ポスト1712が前景に分類されるものとする。
【0051】
次いで、図18に示すように、背景に分類されたオブジェクト1711からなる背景画像1800を生成する。背景画像1800は、運動視差による変化が小さく、ユーザAとユーザBで共通する画像とする。また、ユーザA向けの前景画像1702と、ユーザB向けの前景画像1703をそれぞれ生成する。具体的には、図19に示すように、フレーム毎にユーザAの位置、姿勢、視線の情報を取得して、前景に分類されたオブジェクト1712がユーザAにとって適切な運動視差による効果を保つようなユーザA向けの前景画像1900を生成する。同様に、図20に示すように、フレーム毎にユーザBの位置、姿勢、視線の情報を取得して、前景に分類されたオブジェクト1712がユーザBにとって適切な運動視差による効果を保つようなユーザB向けの前景画像2000を生成する。
【0052】
そして、ユーザAとユーザBで共通となる背景のオブジェクト1800を、背景画像投影用の第1のプロジェクタ2100を使って、図21に示すように、部屋の壁面1700に常時投影表示する。さらに、ユーザA向けの前景画像1900を、前景画像投影用の第2のプロジェクタ2200を使って背景画像1800上に重畳すると、図22に示すような、プロジェクタスタッキングした投影画像2201が実現する。この投影画像2201は、ユーザAにとって適切な運動視差による効果を保つ画像である。
【0053】
また、ユーザB向けの前景画像2000を、前景画像投影用の第2のプロジェクタ2200を使って背景画像1800上に重畳すると、図23に示すような、プロジェクタスタッキングした投影画像2300が実現する。この投影画像2301は、ユーザBにとって適切な運動視差による効果を保つ画像である。
【0054】
したがって、ユーザAとユーザBで共通となる背景画像1800を、背景画像投影用の第1のプロジェクタ2100を使って、部屋の壁面1700に常時投影表示する。また、ユーザAとユーザBで異なる前景画像1900又は2000を、前景画像投影用の第2のプロジェクタ2200を使って、部屋の壁面1700に時分割で投影して、交互に背景画像1800に重畳して表示する。
【0055】
なお、図21図23には、簡素化のため、第1のプロジェクタ2100及び第2のプロジェクタ2200をそれぞれ1台ずつしか描いていないが、広角にわたって画像表示を行う場合には、第1のプロジェクタ2100及び第2のプロジェクタ2200はそれぞれ複数台のプロジェクタで構成されていてもよい。
【0056】
図24には、第1のプロジェクタ2100の動作例を示している。また、図25には、第2のプロジェクタ2200の動作例を示している。図24に示すように、第1のプロジェクタ2100は、フレーム毎に生成される背景画像1800を、部屋の壁面1700に常時投影表示する。一方、第2のプロジェクタ1712は、図25に示すように、フレーム周期Tを2つに分割して、フレーム周期毎に、0~T/2の区間と、T/2~Tの区間とで壁面1700に投影する画像を順次切り替える。フレーム周期Tの前半の0~T/2の区間では、ユーザAの位置、姿勢、視線に対応する運動視差による効果を保つ前景画像1900を投影する。また、フレーム周期Tの後半のT/2~Tの区間では、ユーザBの位置、姿勢、視線に対応する運動視差による効果を保つ前景画像2000を投影する。
【0057】
ユーザAとユーザBは、それぞれ自分向けの前景画像1900又は2000への切り換えに同期して開閉動作するシャッター眼鏡を着用して現実環境を観察するようにする。これによって、ユーザAとユーザBは、ユーザ間で共通の背景画像に、各々に最適な前景画像が重畳されたVR画像を視聴することができる。最適な前景画像とは、ユーザ毎の運動視差による効果を保つ前景画像であり、ユーザAとユーザBはより完璧なVR体験をそれぞれ行うことができる。
【0058】
なお、図17図25では、元のコンテンツをユーザ間で共通する背景と、ユーザ毎の前景の2種類に分離して、2台のプロジェクタを使って背景画像と前景画像を重畳して表示する例について示した。変形例として、元のコンテンツを背景と中景と前景の3種類に分割する方法も考えられる。この場合、前景だけでなく中景もユーザ毎に運動視差による効果が異なり、且つ前景と中景とでは運動視差による効果が異なることから、前景画像と同様に中景画像についても、各ユーザ向けの中景画像を生成する。また、現実環境に、背景画像投影用の第1のプロジェクタと前景画像投影用の第2のプロジェクタに加えて、中景画像用投影用の第3のプロジェクタを設置する。そして、第3のプロジェクタは、ユーザ毎の運動視差による効果を保つ各中景画像を、前景画像の切り換えと同期して、時分割で投影表示する。したがって、各ユーザは、それぞれ自分向けの前景画像及び中景画像の切り換えに同期して開閉動作するシャッター眼鏡を着用して現実環境を観察することにより、自分の現在の位置、姿勢、視線に対応した運動視差による効果を保つVR画像を観察して、より完璧なVR体験を行うことができる。
【0059】
また、投影する画像が動画像であり、画像中のオブジェクトが動くことも想定される。例えば、被写体が自動車などの移動体の場合、観察するユーザとの相対位置が時々刻々と変化するため、時間の経過とともに背景から前景へ、あるいは逆に前景から背景へ切り替わることも想定される。背景にある自動車が走行していても運動視差による変化は小さいが、前景で走行している自動車の運動視差による変化は大きい。
【0060】
図26には、ユーザAとユーザBの視野範囲がオーバーラップする領域内で、遠方から手前に向かって走行している自動車2601の画像を例示している。この時点では自動車2601は背景に属し、ユーザAとユーザBの間で自動車2601の運動視差は小さい。そこで、背景画像投影用の第1のプロジェクタを使って、図26に示す画像を常時投影表示すればよい。
【0061】
図27には、自動車2601が手前に向かって走行し続け、前景の領域に到達した画像を例示している。この時点では、ユーザAとユーザBの間で自動車2601の運動視差は大きくなっている。そこで、フレーム毎にユーザAの位置、姿勢、視線に基づいて、自動車2601の運動視差を計算して、ユーザA向けの自動車2601を含む前景画像を生成する。そして、背景画像投影用の第1のプロジェクタ2801を使って投影した背景画像の上に、前景画像投影用の第2のプロジェクタ2802を使って自動車2601を含む前景画像を重畳して投影して、図28に示すようなユーザAにとって適切な運動視差による効果を保つ投影画像を表示することができる。
【0062】
同様に、フレーム毎にユーザBの位置、姿勢、視線に基づいて、自動車2601の運動視差を計算して、ユーザB向けの自動車2601を含む前景画像を生成する。そして、背景画像投影用の第1のプロジェクタ2801を使って投影した背景画像の上に、前景画像投影用の第2のプロジェクタ2802を使って自動車2601を含む前景画像を重畳して投影して、図29に示すようなユーザBにとって適切な運動視差による効果を保つ投影画像を表示することができる。
【0063】
したがって、ユーザAとユーザBで共通となる背景画像を第1のプロジェクタ2801を使って常時投影表示する。第2のプロジェクタ2802を使って、ユーザAとユーザBで異なる前景画像を時分割で投影して、交互に背景画像に重畳して表示する。図30には、前景画像を投影する第2のプロジェクタ2802の動作例を示している。第1のプロジェクタ2801の動作については図示を省略するが、背景画像を常時投影表示するものとする。図30では、便宜上、自動車2601が前景に到達したタイミングを時刻0とする。そして、第2のプロジェクタ2802は、フレーム周期毎に、0~T/2の区間と、T/2~Tの区間とで現実環境下で背景画像に重畳して投影する画像を順次切り替える。フレーム周期Tの前半の0~T/2の区間では、ユーザAの位置、姿勢、視線に対応する運動視差による効果を保つ自動車2601の画像(図28を参照のこと)を投影する。また、フレーム周期Tの後半のT/2~Tの区間では、ユーザBの位置、姿勢、視線に対応する運動視差による効果を保つ自動車2601の画像(図29を参照のこと)を投影する。
【0064】
ユーザAとユーザBは、それぞれ自分向けの前景画像への切り換えに同期して開閉動作するシャッター眼鏡を着用して現実環境を観察するようにする。これによって、ユーザAとユーザBは、ユーザ間で共通の背景画像に、各々に最適な自動車2601の前景画像が重畳されたVR画像を視聴することができる。最適な前景画像とは、ユーザ毎の運動視差による効果を保つ前景画像であり、ユーザAとユーザBはより完璧なVR体験をそれぞれ行うことができる。
【0065】
なお、図28及び図29には、簡素化のため、第1のプロジェクタ2801及び第2のプロジェクタ2802をそれぞれ1台ずつしか描いていないが、広角にわたって画像表示を行う場合には、第1のプロジェクタ2801及び第2のプロジェクタ2802はそれぞれ複数台のプロジェクタで構成されていてもよい。
【0066】
ここまでは、ユーザ毎に運動視差による効果を与えた前景画像を表示するためにプロジェクタスタッキングを行う例について説明してきた。変形例として、運動視差による効果はなくても、ユーザ毎に用意された個別の前景画像を、ユーザ間で共通の背景画像に重畳するために、プロジェクタスタッキングを利用することもできる。
【0067】
図31には、ユーザA、ユーザB、ユーザCの3人に共通の背景画像3100に、ユーザ毎に用意された個別の前景画像3101、3102、3103を時分割で重畳するプロジェクタスタッキングの表示例を示している。図示の例では、背景画像3100は、壇上に登壇した講演者がプレゼンテーションを行う画像であり、前景画像3101、3102、3103はいずれもユーザ毎に用意された講演者の顔画像からなる。図32には、背景画像3100中の講演者の顔にユーザA用の顔画像3101が重畳された様子を示している。また、図33には、背景画像3100中の講演者の顔にユーザB用の顔画像3102が重畳された様子を示し、図34には、背景画像3100中の講演者の顔にユーザC用の顔画像3103が重畳された様子を示している。ユーザA、ユーザB、ユーザCの各々に用意すべき顔画像は、例えばユーザ毎の好みや相性など所定のロジックに基づいて決定されるが、その詳細については説明を省略する。
【0068】
第1のプロジェクタ3111を使って、背景画像3100を常時投影表示する。また、第2のプロジェクタ3112を使って、ユーザ毎に用意された個別の前景画像3101、3102、3103を、背景画像3100の上に時分割で重畳して投影する。図35には、第2のプロジェクタ3112の動作例を示している。第2のプロジェクタ3112は、フレーム周期Tを3つに分割して、フレーム周期毎に、0~T/3の区間と、T/3~2T/3の区間と、2T/3~Tの区間とで投影する画像を順次切り替える。フレーム周期Tの最初の0~T/3の区間では、第2のプロジェクタ3112は、ユーザA用の前景画像3101を、背景画像3100の上に重畳して投影する。続くT/3~2T/3の区間では、第2のプロジェクタ3112は、ユーザB用の前景画像3102を、背景画像3100の上に重畳して投影する。続く2T/3~Tの区間では、第2のプロジェクタ3112は、ユーザC用の前景画像3103を、背景画像3100の上に重畳して投影する。
【0069】
ユーザA~Cは、それぞれ自分向けの前景画像3101~3103への切り換えに同期して開閉動作するシャッター眼鏡を着用して現実環境を観察するようにする。これによって、ユーザA~Cは、ユーザ間で共通の背景画像に、各々に最適な前景画像が重畳されたVR画像を視聴することができる。
【0070】
なお、図31図34には、簡素化のため、第1のプロジェクタ3111及び第2のプロジェクタ3112をそれぞれ1台ずつしか描いていないが、広角にわたって画像表示を行う場合には、第1のプロジェクタ3111及び第2のプロジェクタ3112はそれぞれ複数台のプロジェクタで構成されていてもよい。
【0071】
図36には、プロジェクタスタッキングを実現するための処理を行う画像処理装置3600の機能的構成例を示している。図示の画像処理装置3600は、コンテンツ受信部3601と、ユーザ情報取得部3602と、視野推定部3603と、オーバーラップ領域判定部3604と、送信部3605と、コンテンツ処理部3610を備えている。コンテンツ処理部3610は、オブジェクト分類部3611と、共通画像生成部3612と、個別画像生成部3613と、出力プロトコル決定部3614を含んでいる。画像処理装置3600は、例えばパーソナルコンピュータ(PC)などの情報処理装置を用いて構成することができる。
【0072】
コンテンツ受信部3601は、クラウド上のストリーム配信サーバや記録メディアなどのコンテンツソースから、コンテンツのストリームデータを受信する。コンテンツ受信部3601は、例えばWi-Fi(登録商標)やEthernet(登録商標)、HDMI(登録商標)(High-Definition Multimedia Interface)などの通信インターフェースを備えている。
【0073】
ユーザ情報取得部3602は、画像処理装置3600を通じてプロジェクションマッピング又はプロジェクタスタッキングされる投影画像を観察する各ユーザの情報を取得する処理を行う。ユーザ情報取得部3602は、例えば、各ユーザの視野を特定するための位置、姿勢、視野などの情報を取得する。また、ユーザ情報取得部3602は、ユーザ毎に個別の前景画像を割り当てるために、各ユーザのプロファイル情報や機微情報を取得するようにしてもよい。また、ユーザ情報取得部3602は、上記のようにユーザ情報を取得するために、1以上のセンサデバイスを装備していてもよい。
【0074】
視野推定部3603は、ユーザ情報取得部3602が取得したユーザ情報(例えば、ユーザ毎の位置、姿勢、視野などの情報)に基づいて、各ユーザの視野領域を推定する。
【0075】
オーバーラップ領域判定部3604は、視野推定部3603が推定した各ユーザの視野領域に基づいて、ユーザ間で視野がオーバーラップするオーバーラップ領域があるかどうかを判定し、さらにオーバーラップ領域の範囲を特定する。
【0076】
オブジェクト分類部3611は、オーバーラップ領域判定部3604がユーザ間で視野がオーバーラップすると判定した場合に、コンテンツ受信部3601が受信した元のコンテンツに含まれるオブジェクト(被写体)のうち、そのオーバーラップ領域に含まれるオブジェクトを第1のオブジェクトグループと第2のオブジェクトグループに分類する。第1のオブジェクトグループは、ユーザの位置から遠く離れた背景にあり、ユーザ間で運動視差が小さいオブジェクトからなるグループである。一方、第2のオブジェクトグループは、ユーザの位置から近い前景にある、ユーザ間で運動視差が大きいオブジェクトからなるグループである。オブジェクトの背景又は前景の判断は、フレーム毎の行うものとする。
【0077】
共通画像生成部3612は、ユーザ間で視野がオーバーラップするオーバーラップ領域において、元のコンテンツから、背景に存在する第1のオブジェクトグループのオブジェクトからなり、ユーザ間で共通となる背景画像を生成する。共通画像生成部3612が生成した背景画像は、送信部3605を介して第1のプロジェクタ3620に出力される。
【0078】
個別画像生成部3613は、ユーザ間で視野がオーバーラップするオーバーラップ領域において、元のコンテンツから、前景に存在する第2のオブジェクトグループのオブジェクトからなり、ユーザ毎に異なる前景画像を生成する。また、個別画像生成部3613は、ユーザ間で視野がオーバーラップしない場合には、元のコンテンツから、各ユーザの視野に相当する個別画像を生成する。個別画像生成部3613が生成したユーザ毎の個別画像は、送信部3605を介して第2のプロジェクタ3630に出力される。
【0079】
第1のプロジェクタ3620は、共通画像生成部3612が生成したユーザ間で共通の背景画像を、部屋の壁面などの現実環境に投影する。また、第2のプロジェクタ3630は、個別画像生成部3613が生成したユーザ毎の個別画像を、部屋の壁面などの現実環境に投影する。第2のプロジェクタ3630は、ユーザ毎の個別画像がオーバーラップする場合には、出力プロトコル決定部3614が決定する出力プロトコルに従って、各個別画像を時分割で切り換えて出力する。
【0080】
なお、第1のプロジェクタ3620及び第2のプロジェクタ3630はともに、部屋の壁面などの現実環境における投影面の3次元形状を測定して、その測定結果に応じて投影画像を補正することによって歪みのない画像を投影するプロジェクションマッピングを実施するものとする。
【0081】
出力プロトコル決定部3614は、個別画像生成部3613がユーザ毎に生成した個別画像を第2のプロジェクタ3630で出力するプロトコルを決定する。出力プロトコル決定部3614は、共通画像生成部3612が生成したユーザ間で共通の共通画像の上に、個別画像生成部3613が生成したユーザ毎の個別画像をプロジェクタスタッキングするための出力プロトコルを決定する。また、出力プロトコル決定部3614は、オーバーラップする複数の個別画像を第2のプロジェクタ3630から投影する際に、各個別画像を時分割で切り換えて出力するプロトコルを決定する。出力プロトコル決定部3614は、決定した出力プロトコルを、送信部3605を介して、第2のプロジェクタ3630並びに各ユーザのシャッター眼鏡(図示しない)に出力する。
【0082】
なお、送信部3605は、例えばWi-Fi(登録商標)やEthernet(登録商標)、HDMI(登録商標)などの通信インターフェースを備えている。
【0083】
図37には、図36に示す画像処理装置3600がプロジェクションマッピング又はプロジェクタスタッキングを行う処理手順をフローチャートの形式で示している。この処理手順は、例えば画像処理装置3600がコンテンツ受信部3601でロジェクションマッピング又はプロジェクタスタッキングを行うコンテンツを受信したことにより起動する。
【0084】
ユーザ情報取得部3602は、画像処理装置3600を通じてプロジェクションマッピング又はプロジェクタスタッキングされる投影画像を観察する各ユーザの情報を取得する処理を行う(ステップS3701)。ここでは、ユーザ情報取得部3602は、各ユーザの視野を特定するための位置、姿勢、視野などの情報を取得するものとする。
【0085】
次いで、視野推定部3603は、ユーザ情報取得部3602が取得したユーザ毎の位置、姿勢、視野などの情報に基づいて、各ユーザの視野領域を推定する(ステップS3702)。
【0086】
オーバーラップ領域判定部3604は、視野推定部3603が推定した各ユーザの視野領域に基づいて、ユーザ間で視野がオーバーラップするオーバーラップ領域があるかどうかを判定する(ステップS3703)。そして、オーバーラップ領域判定部3604は、オーバーラップ領域があると判定したときには、さらにオーバーラップ領域の範囲を特定する。
【0087】
オーバーラップ領域判定部3604がユーザ間で視野がオーバーラップすると判定した場合には(ステップS3703のYes)、オブジェクト分類部3611は、コンテンツ受信部3601が受信した元のコンテンツに含まれるオブジェクト(被写体)のうち、そのオーバーラップ領域に含まれるオブジェクトを第1のオブジェクトグループと第2のオブジェクトグループに分類する(ステップS3705)。オーバーラップ領域の判定とオブジェクトの分類は、フレーム毎に行うものとする。
【0088】
そして、共通画像生成部3612は、ユーザ間で視野がオーバーラップするオーバーラップ領域において、元のコンテンツから、背景に存在する第1のオブジェクトグループのオブジェクトからなり、ユーザ間で共通となる背景画像を生成する。また、個別画像生成部3613は、ユーザ間で視野がオーバーラップするオーバーラップ領域において、元のコンテンツから、前景に存在する第2のオブジェクトグループのオブジェクトからなり、ユーザ毎に異なる前景画像を生成する(ステップS3705)。
【0089】
一方、オーバーラップ領域判定部3604がユーザ間で視野がオーバーラップしないと判定した場合には(ステップS3703のNo)、個別画像生成部3613は、元のコンテンツから、各ユーザの視野に相当する個別画像を生成する(ステップS3708)。このとき、オブジェクト分類部3611によるオブジェクトの分類処理は実施されない。また、オーバーラップ領域は存在しないので、共通画像生成部3612はオーバーラップ領域における共通画像の生成処理を実施しない。
【0090】
次いで、出力プロトコル決定部3614は、個別画像生成部3613がユーザ毎に生成した個別画像を第2のプロジェクタ3630で出力するプロトコルを決定する(ステップS3706)。
【0091】
そして、共通画像生成部3612が生成した背景画像は、送信部3605を介して第1のプロジェクタ3620に出力される。また、個別画像生成部3613が生成したユーザ毎の個別画像は、送信部3605を介して第2のプロジェクタ3630に出力される。また、出力プロトコル決定部3614は、決定した出力プロトコルを、送信部3605を介して、第2のプロジェクタ3630並びに各ユーザのシャッター眼鏡(図示しない)に出力する(ステップS3707)。
【0092】
第1のプロジェクタ3620は、共通画像生成部3612が生成したユーザ間で共通の背景画像を、部屋の壁面などの現実環境に投影する。また、第2のプロジェクタ3630は、個別画像生成部3613が生成したユーザ毎の個別画像を、部屋の壁面などの現実環境に投影する。第2のプロジェクタ3630は、ユーザ毎の個別画像がオーバーラップする場合には、出力プロトコル決定部3614が決定する出力プロトコルに従って、各個別画像を時分割で切り換えて出力する。
【0093】
このように画像処理装置3600で処理された画像を第1のプロジェクタ3620及び第2のプロジェクタ3630を使ってプロジェクションマッピング及びプロジェクタスタッキングを行うことにより、ユーザ間で視野がオーバーラップする場合であっても、各ユーザは他のユーザのVR画像によって乱されることなく、完璧なVR体験を行うことができる。その際、ユーザはヘッドマウントディスプレイのような重量物を装着する必要はなく、軽量なシャッター眼鏡を掛けるだけでよい。
【産業上の利用可能性】
【0094】
以上、特定の実施形態を参照しながら、本開示に係る技術について詳細に説明してきた。しかしながら、本開示に係る技術の要旨を逸脱しない範囲で当業者が該実施形態の修正や代用を成し得ることは自明である。
【0095】
本開示に係る技術は、さまざまな現実環境において複数ユーザにVRコンテンツを提示する際に適用することができる。
【0096】
要するに、例示という形態により本開示に係る技術について説明してきたのであり、本明細書の記載内容を限定的に解釈するべきではない。本開示に係る技術の要旨を判断するためには、特許請求の範囲を参酌すべきである。
【0097】
なお、本開示に係る技術は、以下のような構成をとることも可能である。
【0098】
(1)複数のユーザに表示するコンテンツに関する処理を実行する画像処理装置であって、
各ユーザの情報を取得するユーザ情報取得部と、
前記各ユーザの情報に基づいて2以上のユーザ間で視野がオーバーラップするオーバーラップ領域を特定し、前記オーバーラップ領域に含まれるオブジェクトを第1のオブジェクトグループと第2のオブジェクトグループに分類する分類部と、
前記第1のオブジェクトグループからなる全ユーザに共通する共通画像を生成するとともに、前記第2のオブジェクトグループからなるユーザ毎に異なる個別画像を生成する生成部と、
各個別画像を表示する出力プロトコルを決定する決定部と、
を具備する画像処理装置。
【0099】
(2)前記分類部は、前記オーバーラップ領域に含まれるオブジェクトを、背景に存在する前記第1のオブジェクトグループと、少なくとも一部のユーザにとって前景となる前記第2のオブジェクトグループに分類し、
前記生成部は、前記第1のオブジェクトグループを含む背景画像を共通画像として生成するとともに、前記第2のオブジェクトグループを含むユーザ毎の前景画像を個別画像として生成する、
上記(1)に記載の画像処理装置。
【0100】
(3)前記生成部は、前記第2のオブジェクトグループに含まれる各オブジェクトがユーザ毎の運動視差による効果を有する個別の前景画像を生成する、
上記(2)に記載の画像処理装置。
【0101】
(4)前記生成部は、ユーザ毎に割り当てられたオブジェクトを含む個別画像を生成する、
上記(2)に記載の画像処理装置。
【0102】
(5)前記ユーザ情報取得部は、各ユーザの視野を特定するための情報を取得する、
上記(1)乃至(4)のいずれかに記載の画像処理装置。
【0103】
(6)前記ユーザ情報取得部は、各ユーザの位置及び視線に関する情報を取得し、
前記分類部は、各ユーザと各オブジェクトとの距離に基づいて前記分類を実施する、
上記(1)乃至(5)のいずれかに記載の画像処理装置。
【0104】
(7)前記共通画像を第1の表示装置に出力するとともに、ユーザ毎の個別画像を第2の表示装置に出力する、
上記(1)乃至(6)のいずれかに記載の画像処理装置。
【0105】
(8)前記共通画像を出力する第1の表示装置又はユーザ毎の個別画像を出力する第2の表示装置のうち少なくとも一方を備える、
上記(1)乃至(7)のいずれかに記載の画像処理装置。
【0106】
(9)前記第1の表示装置又は前記第2の表示装置のうち少なくとも一方はプロジェクタである、
上記(7)又は(8)のいずれかに記載の画像処理装置。
【0107】
(10)前記決定部は、各個別画像を時分割で出力するタイミングに関する出力プロトコルを決定する、
上記(1)乃至(9)のいずれかに記載の画像処理装置。
【0108】
(11)前記出力プロトコルを各ユーザが使用する機器に通知するための通信部をさらに備える、
上記(1)乃至(10)のいずれかに記載の画像処理装置。
【0109】
(12)複数のユーザに表示するコンテンツに関する処理を実行する画像処理方法であって、
各ユーザの情報を取得するユーザ情報取得ステップと、
前記各ユーザの情報に基づいて2以上のユーザ間で視野がオーバーラップするオーバーラップ領域を特定し、前記オーバーラップ領域に含まれるオブジェクトを第1のオブジェクトグループと第2のオブジェクトグループに分類する分類ステップと、
前記第1のオブジェクトグループからなる全ユーザに共通する共通画像を生成するとともに、前記第2のオブジェクトグループからなるユーザ毎に異なる個別画像を生成する生成ステップと、
各個別画像を表示する出力プロトコルを決定する決定ステップと、
を有する画像処理方法。
【0110】
(13)各ユーザの情報に基づいて、2以上のユーザ間で視野がオーバーラップするオーバーラップ領域を特定し、前記オーバーラップ領域に含まれるオブジェクトを第1のオブジェクトグループと第2のオブジェクトグループに分類して、前記第1のオブジェクトグループからなる全ユーザに共通の共通画像を生成するとともに、前記第2のオブジェクトグループからなるユーザ毎に異なる個別画像を生成するとともに、各個別画像を表示する出力プロトコルを各ユーザが使用するシャッター眼鏡に通知する画像処理装置と、
前記共通画像を出力する第1の表示装置と、
ユーザ毎の個別画像を出力する第2の表示装置と、
各ユーザが使用するシャッター眼鏡と、
を具備する画像表示システム。
【符号の説明】
【0111】
3600…画像処理装置、3601…コンテンツ受信部
3602…ユーザ情報取得部、3603…視野推定部
3604…オーバーラップ領域判定部、3605…送信部
3610…コンテンツ処理部、3611…オブジェクト分類部
3612…共通画像生成部、3613…個別画像生成部
3614…出力プロトコル決定部、3620…第1のプロジェクタ
3630…第2のプロジェクタ
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14
図15
図16
図17
図18
図19
図20
図21
図22
図23
図24
図25
図26
図27
図28
図29
図30
図31
図32
図33
図34
図35
図36
図37