(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2023-09-22
(45)【発行日】2023-10-02
(54)【発明の名称】表示制御装置、表示制御方法および表示制御プログラム
(51)【国際特許分類】
G06T 19/00 20110101AFI20230925BHJP
G06F 3/0484 20220101ALI20230925BHJP
【FI】
G06T19/00 600
G06F3/0484
(21)【出願番号】P 2021101919
(22)【出願日】2021-06-18
【審査請求日】2021-12-17
【審判番号】
【審判請求日】2022-12-20
【早期審査対象出願】
(73)【特許権者】
【識別番号】319013263
【氏名又は名称】ヤフー株式会社
(74)【代理人】
【識別番号】110002147
【氏名又は名称】弁理士法人酒井国際特許事務所
(72)【発明者】
【氏名】西 紗記子
(72)【発明者】
【氏名】友成 愛
(72)【発明者】
【氏名】吉村 佳純
(72)【発明者】
【氏名】西 磨翁
(72)【発明者】
【氏名】田村 柾優紀
【合議体】
【審判長】畑中 高行
【審判官】樫本 剛
【審判官】木方 庸輔
(56)【参考文献】
【文献】国際公開第2020/066682(WO,A1)
【文献】特開2021-56679(JP,A)
【文献】国際公開第2017/104198(WO,A1)
【文献】国際公開第2020/115784(WO,A1)
【文献】特開2021-82344(JP,A)
【文献】国際公開第2021/117366(WO,A1)
【文献】Sony-Global, 3D実写AR “LiveAction AR”, youtube[video][online], 2012年8月21日, https://www.youtube.com/watch?v=2rbTLrrgEaU, 特に0:43~1:37
【文献】ROCKETNEWS24, ソニーの実写によるAR(拡張現実)技術に海外ネットユーザが苦笑い「ポルノの未来は明るいな」,[online], 2012年8月27日, https://rocketnews24.com/2012/08/27/243293/
(58)【調査した分野】(Int.Cl.,DB名)
G06T 19/00
G06F 3/0484
(57)【特許請求の範囲】
【請求項1】
周囲を撮像した撮像画像に映る被写体の3次元形状を特定する特定部と、
前記特定部によって特定される前記被写体の前記3次元形状と、実在するオブジェクトを多視点から撮影した多視点画像として表示される仮想オブジェクトを配置する配置位置とに応じて、前記撮像画像に重畳表示する前記仮想オブジェクトの表示態様を切り替えて表示する表示制御部と
を備え、
前記表示制御部は、
前記撮像画像の撮像位置の変化に応じた視点位置からみた前記仮想オブジェクトを表示するとともに、前記仮想オブジェクトが前記被写体よりも奥側に位置し、当該仮想オブジェクトが当該被写体と重なって表示される重なり領域が存在する場合には、
当該仮想オブジェクトが当該被写体と重ならないように前記仮想オブジェクトの配置位置をずらし
て表示する
ことを特徴とする表示制御装置。
【請求項2】
前記特定部は、
前記被写体の前記3次元形状の特定に測距センサを用いること
を特徴とする請求項1に記載の表示制御装置。
【請求項3】
前記表示制御部は、
前記被写体の端と、前記仮想オブジェクトの端とを合わせるように前記表示態様を切り替えること
を特徴とする請求項1または2に記載の表示制御装置。
【請求項4】
コンピュータが実行する表示制御方法であって、
周囲を撮像した撮像画像に映る被写体の3次元形状を特定する特定工程と、
前記特定工程によって特定される前記被写体の前記3次元形状と、実在するオブジェクトを多視点から撮影した多視点画像として表示される仮想オブジェクトを配置する配置位置とに応じて、前記撮像画像に重畳表示する前記仮想オブジェクトの表示態様を切り替えて表示する表示制御工程と
を含み、
前記表示制御工程は、
前記撮像画像の撮像位置の変化に応じた視点位置からみた前記仮想オブジェクトを表示するとともに、前記仮想オブジェクトが前記被写体よりも奥側に位置し、当該仮想オブジェクトが当該被写体と重なって表示される重なり領域が存在する場合には、
当該仮想オブジェクトが当該被写体と重ならないように前記仮想オブジェクトの配置位置をずらし
て表示する
ことを特徴とする表示制御方法。
【請求項5】
周囲を撮像した撮像画像に映る被写体の3次元形状を特定する特定手順と、
前記特定手順によって特定される前記被写体の前記3次元形状と、実在するオブジェクトを多視点から撮影した多視点画像として表示される仮想オブジェクトを配置する配置位置とに応じて、前記撮像画像に重畳表示する前記仮想オブジェクトの表示態様を切り替えて表示する表示制御手順と
をコンピュータに実行させ、
前記表示制御手順は、
前記撮像画像の撮像位置の変化に応じた視点位置からみた前記仮想オブジェクトを表示するとともに、前記仮想オブジェクトが前記被写体よりも奥側に位置し、当該仮想オブジェクトが当該被写体と重なって表示される重なり領域が存在する場合には、
当該仮想オブジェクトが当該被写体と重ならないように前記仮想オブジェクトの配置位置をずらし
て表示する
ことを特徴とする表示制御プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は表示制御装置、表示制御方法および表示制御プログラムに関する。
【背景技術】
【0002】
近年、インターネットを介して提供されるコンテンツとして、拡張現実(AR;Augmented Reality)が普及しつつある。このようなARにおいては、たとえば、仮想的な視点から見た多視点画像を撮像画像に対して重畳表示する(例えば、特許文献1参照)。
【先行技術文献】
【特許文献】
【0003】
【発明の概要】
【発明が解決しようとする課題】
【0004】
しかしながら、従来技術では、たとえば、ARコンテンツ内において、たとえば、本来、手前に表示すべき対象物の手前に多視点画像のコンテンツが表示されるおそれがあり、多視点画像を適切にARコンテンツに表示するうえで改善の余地があった。
【0005】
本発明は、上記に鑑みてなされたものであって、多視点画像を適切にARコンテンツに表示することができる表示制御装置、表示制御方法および表示制御プログラムを提供することを目的とする。
【課題を解決するための手段】
【0006】
上述した課題を解決し、目的を達成するために、本発明に係る表示制御装置は、特定部と、表示制御部とを備える。前記特定部は、周囲を撮像した撮像画像に映る被写体の3次元形状を特定する。前記表示制御部は、前記特定部によって特定される前記被写体の前記3次元形状と、多視点画像の仮想オブジェクトを配置する配置位置とに応じて、前記撮像画像に重畳表示する前記仮想オブジェクトの表示態様を切り替えて表示する。
【発明の効果】
【0007】
本発明によれば、多視点画像を適切にARコンテンツに表示することができる。
【図面の簡単な説明】
【0008】
【
図1】
図1は、実施形態に係る表示制御処理の一例を示す図である。
【
図2】
図2は、実施形態に係る情報処理装置の構成例を示すブロック図である。
【
図3】
図3は、実施形態に係る多視点映像データベースに記憶する情報の一例を示す図である。
【
図4】
図4は、実施形態に係る表示制御装置の構成例を示すブロック図である。
【
図5】
図5は、実施形態に係る重なり領域の一例を示す模式図である。
【
図6】
図6は、実施形態に係る仮想オブジェクトの表示態様の一例を示す図である。
【
図7】
図7は、実施形態に係る情報処理装置が実行する処理手順の一例を示すフローチャートである。
【
図8】
図8は、実施形態に係る表示制御装置が実行する処理手順の一例を示すフローチャートである。
【
図9】
図9は、実施形態に係る表示制御装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。
【発明を実施するための形態】
【0009】
以下に、本願に係る表示制御装置、表示制御方法および表示制御プログラムを実施するための形態(以下、「実施形態」と記載する。)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る表示制御装置、表示制御方法および表示制御プログラムが限定されるものではない。
【0010】
[実施形態]
〔1.表示制御処理〕
まず、
図1を用いて、実施形態に係る表示制御処理の一例について説明する。
図1は、実施形態に係る表示制御処理の一例を示す図である。
【0011】
図1に示すように、実施形態に係る表示システムSは、たとえば、情報処理装置10と、表示制御装置50とを有する。情報処理装置10は、各表示制御装置50に対して、各種、AR(Augmented Reality)コンテンツを配信する情報処理装置である。情報処理装置10は、サーバ装置やクラウドシステムにより実現される。
【0012】
図1に示すように、情報処理装置10は、多視点映像データベースを有しており、多視点映像データベースに登録された多視点映像を提供する。ここで、多視点映像とは、3次元モデルを複数の所定の視点からレンダリングした映像、あるいは、実在する被写体の周りに複数台の撮影機材を設置し撮影された映像である。また、多視点映像を構成する一つ一つの画像が多視点画像となる。
【0013】
表示制御装置50は、たとえば、スマートフォンやHMD(Head Mount Display)などといった各種端末装置であり、情報処理装置10から配信される多視点映像のARコンテンツ100をユーザへ視聴可能に提供する。
【0014】
たとえば、表示制御装置50は、周囲を撮像した撮像画像Gに対して、情報処理装置10から配信される多視点映像の仮想オブジェクトOvを重畳表示したARコンテンツ100を提供する。すなわち、表示制御装置50は、いわゆるビデオシースルータイプのARコンテンツ100を提供する。なお、表示システムSで提供するARコンテンツ100は、ビデオシースルータイプに限られず、光学シースルータイプであってもよい。
【0015】
ところで、たとえば、多視点映像のARコンテンツを提供するにあたり、実際には対象物の手前に配置すべき多視点画像の仮想オブジェクトが対象物の奥側に配置される場合や、ARコンテンツ内で仮想オブジェクトが対象物に衝突したり、対象物を突き抜けて表示されたりする場合がある。
【0016】
そこで、実施形態に係る表示制御処理では、多視点画像の仮想オブジェクトCvを表示する配置位置と、対象物との位置関係に基づいて、仮想オブジェクトCvの表示態様を切り替えることとした。
【0017】
具体的には、
図1に示すように、表示制御装置50は、情報処理装置10から多視点映像の取得を開始する(ステップS01)。つづいて、表示制御装置50は、多視点映像の仮想オブジェクトOvを重畳する撮像画像Gに映る被写体の3次元形状を特定する特定処理を行う(ステップS02)。
【0018】
表示制御装置50は、たとえば、Lidarを用いて、撮像画像Gの撮像範囲をスキャンすることで、撮像画像Gに映る被写体の3次元形状を特定する。なお、この際、たとえば、被写体の3次元形状に加え、被写体までの距離が特定される。
【0019】
つづいて、表示制御装置50は、特定した被写体の3次元形状と、多視点映像の仮想オブジェクトOvを配置する配置位置に基づき、仮想オブジェクトOvの表示態様を切り替えつつ、ARコンテンツ100を表示する表示制御処理を実行する(ステップS03)。
【0020】
図1の例では、ユーザUから見て、仮想オブジェクトOvの配置位置Apの手前に被写体Gtが存在する場合を示す。そのため、たとえば、この場合においては、撮像画像Gにそのまま仮想オブジェクトOvを重畳表示すると、仮想オブジェクトOvがユーザUから見て手前に存在する被写体Gt上に表示されてしまう。
【0021】
これに対して、たとえば、表示制御装置50は、被写体Gtのマスク画像を生成し、マスク画像とともに仮想オブジェクトOvを撮像画像Gに重畳表示することで、被写体Gtを見えなくしたARコンテンツ100を表示する。
【0022】
たとえば、この場合、生成したマスク画像を仮想オブジェクトOvの背面に重畳したうえで、仮想オブジェクトOvを撮像画像Gに重畳表示する。これにより、表示制御装置50では、多視点画像を適切にARコンテンツ100に表示することができる。
【0023】
なお、たとえば、表示制御装置50は、ARコンテンツ100の表示を切り替える場合に、たとえば、被写体Gtに重ならないように、仮想オブジェクトOvの表示サイズを小さくすることにしてもよいし、あるいは、配置位置Apをずらすことにしてもよい。
【0024】
〔2-1.情報処理装置の構成例〕
次に、
図2を用いて、情報処理装置10の構成例について説明する。
図2は、情報処理装置10の構成例を示すブロック図である。
図2に示すように、情報処理装置10は、通信部20と、記憶部30と、制御部40とを備える。
【0025】
通信部20は、たとえば、NIC(Network Interface Card)等によって実現される。そして、通信部20は、4G(Generation)、5G、LTE(Long Term Evolution)、Wifi(登録商標)若しくは無線LAN(Local Area Network)等といった各種の無線通信網若しくは各種の有線通信網といったネットワークを介して、外部装置との間で情報の送受信を行う。
【0026】
記憶部30は、たとえば、RAM、フラッシュメモリ等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。また、記憶部30は、多視点映像データベース31を有する。
【0027】
多視点映像データベース31は、多視点映像を記憶するデータベースである。
図3は、多視点映像データベース31に格納された情報の一例を示す図である。
図3に示すように、多視点映像データベース31は、「映像ID」、「画像群」、「サイズ情報」、「音声」、「音源座標」などといった項目の情報を互いに対応付けて記憶する。
【0028】
「映像ID」は、各多視点映像を識別するための識別子であり、「画像群」は、多視点映像として提供するための画像群であり、複数視点から同時に撮影された静止画像あるいは動画像をまとめたデータである。
【0029】
「サイズ情報」は、多視点映像として撮影されたオブジェクトの実際のサイズに関する情報である。「音声」は、多視点映像とともに流す音声データを示し、「音源座標」は、多視点映像における音声データの音源の座標に関する情報である。
【0030】
ARコンテンツ100として、アーティストの歌唱映像を提供する場合において、音声はアーティストが歌っている音源であり、音源座標は、アーティストの頭部(たとえば、口元)となる。
【0031】
図2の説明に戻り、制御部40について説明する。制御部40は、たとえば、コントローラ(controller)であり、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、MPU(Micro Processing Unit)等によって、情報処理装置10内部の記憶装置に記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。
【0032】
図2に示すように、制御部40は、選択部41と、配信部42とを備える。選択部41は、各表示制御装置50から受け取った多視点映像の配信要求に基づき、対応する多視点映像を多視点映像データベース31から選択する。
【0033】
たとえば、配信要求には、上記の映像IDに関する情報が含まれており、選択部41は、配信要求に含まれる映像IDに合致する多視点映像を多視点映像データベース31から選択する。
【0034】
また、たとえば、多視点映像の配信中において、選択部41は、ARコンテンツ100に対するユーザの注視点情報を各表示制御装置50から受け取り、注視点情報に基づき、多視点映像に対する視点切替処理を行う。
【0035】
たとえば、注視点情報は、実空間における撮像画像Gの撮像範囲や撮像向きに関する情報であり、ARコンテンツ100に表示される実空間に関する情報である。すなわち、ARコンテンツ100におけるユーザの注視点に関する情報である。たとえば、ユーザが表示制御装置50(たとえば、後述する外向きカメラ61)の位置を変化させた場合に注視点が変化し、変化した向きや変化量などに関する情報が注視点情報となる。
【0036】
選択部41は、注視点情報に基づき、多視点映像に対する視点位置を選択することで、視点切替処理を行う。これにより、選択した視点位置から見た仮想オブジェクトOvの多視点画像が選択される。その後、選択部41は、注視点情報の変化に追従させて視点位置を随時切り替える処理を行う。
【0037】
配信部42は、選択部41によって選択された多視点映像や多視点画像を各表示制御装置50に対して配信する。なお、配信部42が配信する多視点映像は、時間的に連続する多視点画像であり、配信部42は、注視点情報に基づいて設定された視点位置から見た多視点画像を連続的に配信する。また、配信部42は、多視点映像とともに音声等に関する情報をあわせて表示制御装置50へ配信する。
【0038】
〔2-2.表示制御装置の構成例〕
次に、
図4を用いて、実施形態に係る表示制御装置50の構成例について説明する。
図4は、表示制御装置50の構成例を示すブロック図である。
図4に示すように、表示制御装置50は、通信部60、外向きカメラ61、内向きカメラ62、センサ群63、表示部64、音声出力部65、記憶部70および制御部80を備える。なお、外向きカメラ61、内向きカメラ62、センサ群63、表示部64および音声出力部65については、表示制御装置50とは別の装置であってもよい。
【0039】
通信部60は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部60は、4G(Generation)、5G、LTE(Long Term Evolution)、Wifi(登録商標)若しくは無線LAN(Local Area Network)等といった各種の無線通信網若しくは各種の有線通信網といったネットワークを介して、外部装置との間で情報の送受信を行う。
【0040】
外向きカメラ61は、表示制御装置50の外側(たとえば、表示部64の表示面とは逆側)を撮像するカメラであり、実空間を撮像する。たとえば、外向きカメラ61によって撮像された撮像画像は、ARコンテンツ100における仮想オブジェクトOvの背景画像として用いられる。内向きカメラ62は、表示制御装置50の内側(たとえば、表示部64の表示面側)を撮像するカメラであり、ARコンテンツ100を視聴するユーザを撮像する。
【0041】
センサ群63は、たとえば、表示制御装置50の姿勢や、撮像画像Gの被写体の3次元形状等を検出するための各種センサによって構成される。たとえば、センサ群63には、ジャイロセンサ、Lidarなどが含まれる。
【0042】
表示部64は、たとえば、タッチパネルディスプレイであり、ARコンテンツ100等の各種映像を表示するとともに、各種ユーザ操作を受け付ける。音声出力部65は、たとえば、サラウンドスピーカあるいはステレオスピーカであり、ARコンテンツ100とともに流れる各種音声を出力する。
【0043】
記憶部70は、たとえば、RAM、フラッシュメモリ等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。また、記憶部70は、マップ情報記憶部71を有する。
【0044】
マップ情報記憶部71は、実空間のマップ情報を記憶する。たとえば、マップ情報とは、表示制御装置50の周辺環境を示す環境地図であり、後述する自己位置推定部81による処理結果に基づいて作成される。
【0045】
続いて、制御部80について説明する。制御部80は、たとえば、コントローラ(controller)であり、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、MPU(Micro Processing Unit)等によって、情報処理装置10内部の記憶装置に記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。
【0046】
図4に示すように、制御部80は、自己位置推定部81と、表示面設定部82と、特定部83と、表示制御部84と、音声制御部85とを有する。自己位置推定部81は、外向きカメラ61やセンサ群63から入力される各種情報に基づき、Slam(Simultaneous Localization and Mapping)等の技術を用いて実空間の環境地図を作成するとともに、環境地図内における表示制御装置50の座標(たとえば、ワールド座標)や姿勢を推定する。
【0047】
また、自己位置推定部81は、作成した環境地図に関する情報をマップ情報としてマップ情報記憶部71に格納するとともに、推定した位置や姿勢に関する情報、すなわち、上記の注視点情報を表示面設定部82へ渡す。また、ARコンテンツ100の提供中においては、注視点情報は、情報処理装置10へも送信される。
【0048】
表示面設定部82は、自己位置推定部81によって作成された環境地図に基づき、実空間において仮想オブジェクトOvを表示する仮想的な表示面(以下、単に表示面)を設定する。なお、表示面は、
図1に示した配置位置Apの一例に対応する。
【0049】
たとえば、表示面設定部82は、ユーザ操作等によって指定された実空間における任意の面を表示面として設定する。
【0050】
表示面設定部82は、表示面を設定すると、表示面に関する各種座標情報をマップ情報記憶部71に書き込む。なお、たとえば、表示面は、実空間の床であるが、仮想オブジェクトOvの種類に応じて、ユーザの体の一部(たとえば手のひらなど)とすることにしてもよい。また、表示空間自体を実際の床から浮遊させることにしてもよい。また、表示面設定部82は、表示する仮想オブジェクトOv毎に、それぞれ独立に表示面を設定することにしてもよい。
【0051】
特定部83は、撮像画像Gに映る被写体Gtの3次元形状を特定する。たとえば、特定部83は、センサ群63のLidarを用いて撮像画像Gの撮像範囲を3次元的にスキャンすることで、被写体Gtの3次元形状を特定する。
【0052】
また、特定部83は、特定した3次元形状に基づき、撮像画像Gに映る被写体Gtの輪郭形状を特定する。たとえば、撮像画像Gは、2次元(平面)であるため、特定する輪郭形状も2次元の平面情報となる。
【0053】
たとえば、特定部83は、外向きカメラ61による撮像画像Gの撮像毎に被写体Gtの3次元形状および輪郭形状の特定を行い、3次元形状および輪郭形状に関する情報を表示制御部84へ渡す。
【0054】
表示制御部84は、撮像画像Gに多視点画像の仮想オブジェクトOvを重畳表示したARコンテンツ100を生成し、表示部64に表示する。たとえば、表示制御部84は、表示面設定部82によって設定された配置位置Apに仮想オブジェクトOvが表示されるように、ARコンテンツ100を生成する。
【0055】
また、表示制御部84は、特定部83によって特定される被写体Gtの3次元形状と、多視点画像の仮想オブジェクトOvを配置する配置位置とに応じて、撮像画像Gに重畳表示する仮想オブジェクトOvの表示態様を切り替えて表示する。
【0056】
たとえば、表示制御部84は、表示面設定部82から配置位置Apに関する情報を受け取り、特定部83から撮像画像Gに映る被写体Gtの3次元形状および輪郭形状に関する情報を受け取る。
【0057】
つづいて、表示制御部84は、仮想オブジェクトが被写体Gtと重なって表示される重なり領域の有無を判定する。
図5は、実施形態に係る重なり領域の一例を示す模式図である。
【0058】
図5では、仮想オブジェクトOvを配置する配置位置Apよりも手前側に被写体Gtが存在する場合を示す。この場合、たとえば、配置位置Apに仮想オブジェクトOvを配置したとすると、仮想オブジェクトOvの一部が被写体Gtに隠れてしまう。
【0059】
すなわち、この場合においては、仮想オブジェクトOvの一部と被写体Gtの一部とが重なって表示される重なり領域Fが存在する。重なり領域Fが存在すると、仮想オブジェクトOvが被写体Gt上に表示されたり、仮想オブジェクトOvが被写体Gtに衝突しているように表示されたりする。
【0060】
そのため、たとえば、表示制御部84は、重なり領域Fについてマスキングする。ここでのマスキング処理は、たとえば、重なり領域Fの平面形状を有するマスク画像を生成し、仮想オブジェクトOvの背面に重畳することを指す。なお、表示制御部84は、被写体Gtの輪郭形状に基づいて、被写体Gt全体を覆うマスク画像を生成することにしてもよい。
【0061】
また、ここでは、仮想オブジェクトOvの手前に存在する被写体Gtとの重なり領域Fが存在する場合について説明したが、これに限定されず、たとえば、壁、天井、地面などといった配置位置Apと同距離に存在する重なり領域についてもマスキングを行うことにしてもよい。すなわち、仮想オブジェクトOvが壁を突き抜けて表示されるような状況において、壁を覆うようにマスキングを行うことにしてもよい。
【0062】
また、表示制御部84は、被写体Gtの端と仮想オブジェクトOvとの端が一致するように、仮想オブジェクトOvの表示態様を切り替えて表示することにしてもよい。
図6は、実施形態に係る仮想オブジェクトOvの表示態様の一例を示す図である。
【0063】
図6に示す例では、たとえば、劇場型のコンテンツに関する仮想オブジェクトOvを示している。また、
図6では、演者Ov1、劇場カーテンOv2、OV3をまとめて1つの仮想オブジェクトOvであるものとする。
【0064】
この場合、たとえば、表示制御部84は、壁である被写体Gtの端と、仮想オブジェクトOvの端が一致するように、仮想オブジェクトOvの表示態様を切り替える。これにより、たとえば、壁と壁との間が、あたかも劇場であるかのようなARコンテンツ100を提供することができる。
【0065】
また、この場合においては、たとえば、壁を舞台袖に見立てることができるので、演者Ov1が壁から出てくるかのようなARコンテンツ100を提供することができる。これにより、斬新、かつ、新規なコンテンツを提供することが可能となる。
【0066】
図4の説明に戻り、音声制御部85について説明する。音声制御部86は、撮像画像Gの撮像位置と、多視点画像において設定された音声発生源との位置関係に基づき、音声出力を制御する。たとえば、仮想オブジェクトOvが人物であり、その頭部に音声発生源が設定される。
【0067】
ここで、たとえば、外向きカメラ61の撮像位置が変化すると、ARコンテンツ100における仮想オブジェクトOvの位置が変化し、これに伴い音声発生源の位置が変化することになる。
【0068】
そのため、音声制御部86は、これらの位置関係に基づき、音声出力部65の出力を制御することで、ARコンテンツ100における音声発生源の位置を一致させる処理を行う。具体的には、たとえば、撮像画像Gにおいて仮想オブジェクトOvが右側に表示される場合、ユーザの右側から音声が聞こえるように音声出力部65を制御し、撮像画像Gにおいて仮想オブジェクトOvが手前側に表示される場合には、手前側から音声が聞こえるように音声出力部65を制御する。
【0069】
このように、音声制御部86は、音声発生源の位置変化にあわせて音声制御をコントロールすることで、リアリティーの高いARコンテンツ100を提供することができる。なお、音声発生源は一つに限らず、複数であってもよい。この場合、音声制御部86は、音声発生源毎に位置関係に基づき、音声制御を行う。
【0070】
また、たとえば、音声制御部86は、音声発生源が複数である場合には、音声発生源毎に音量等の各種調整や、音声発生源の統合などを行うことにしてもよい。また、音声制御部86は、たとえば、音声発生源の位置を変更する操作を受け付けることにしてもよい。この場合、たとえば、当初設定された音声発生源とは別の任意の座標に音声発生源を設定することにしてもよい。
【0071】
また、音声制御部86は、たとえば、ユーザ操作に基づき、音声の削除、追加等を行うことにしてもよい。すなわち、複数の多視点映像から任意の音声を組み合わせて出力することにしてもよい。この場合、たとえば、異なる歌手が歌っている音声を他の歌手の仮想オブジェクトOvか歌っているかのようなARコンテンツ100などを提供することができる。
【0072】
〔3.処理手順〕
次に、
図7および
図8を用いて、実施形態に係る情報処理装置10および表示制御装置50が実行する処理手順について説明する。まず、
図7を用いて、情報処理装置10が実行する処理手順について説明する。
図7は、情報処理装置10が実行する処理手順を示すフローチャートである。なお、以下に示す処理手順は、情報処理装置10の制御部40によって配信要求の取得毎に繰り返し実行される。
【0073】
図7に示すように、まず、情報処理装置10は、配信要求を受け付ける(ステップS101)。つづいて、情報処理装置10は、受け付けた配信要求に基づき、多視点映像を配信し(ステップS102)、処理を終了する。
【0074】
なお、多視点映像の配信時において、情報処理装置10は、注視点情報に基づき、視点位置を変更した仮想オブジェクトOvの多視点画像を随時選択し、選択した多視点画像を配信する。
【0075】
次に、
図8を用いて、表示制御装置50が実行する処理手順について説明する。
図8は、表示制御装置50が実行する処理手順の一例を示すフローチャートである。なお、以下に示す処理手順は、ARコンテンツ100の提供毎に表示制御装置50の制御部80によって実行される。
【0076】
図8に示すように、まず、表示制御装置50は、たとえば、周囲を撮像した撮像画像Gを取得すると(ステップS201)、撮像画像Gに映る被写体Gtの3次元形状特定処理を実行する(ステップS202)。
【0077】
つづいて、表示制御装置50は、仮想オブジェクトOvの配置位置Apと3次元形状特定処理の処理結果とに基づき、仮想オブジェクトOvと被写体Gtとが重なって表示される重なり領域があるか否かを判定する(ステップS203)。
【0078】
表示制御装置50は、重なり領域が存在している場合(ステップS203;Yes)、仮想オブジェクトOvの表示切替処理に進む(ステップS204)。また、表示制御装置50は、重なり領域が存在していなかった場合(ステップS203;No)、ステップS204の処理を省略し、ステップS205へ進む。
【0079】
その後、表示制御装置50は、ステップS204までの処理結果に基づいてARコンテンツ100の表示制御処理を実行し(ステップS205)、処理を終了する。
【0080】
〔4.変形例〕
上述した表示システムSは、上記実施形態以外にも種々の異なる形態にて実施されてもよい。そこで、以下では、表示システムSの他の実施形態について説明する。
【0081】
たとえば、表示制御装置50は、カメラ(外向きカメラ61および内向きカメラ62)と分離した構成であってもよい。また、表示制御装置50が提供するコンテンツは、ARコンテンツ100に限られず、たとえば、撮像画像Gに基づき、実空間をアニメーション等に変換したVR(Virtual Reality)コンテンツを提供することにしてもよい。
【0082】
〔5.効果〕
上述してきたように、実施形態に係る表示制御装置50は、周囲を撮像した撮像画像Gに映る被写体Gtの3次元形状を特定する特定部83と、特定部83によって特定される被写体Gtの3次元形状と、多視点画像の仮想オブジェクトOvを配置する配置位置Apとに応じて、撮像画像Gに重畳表示する仮想オブジェクトOvの表示態様を切り替えて表示する表示制御部84とを備える。したがって、実施形態に係る表示制御装置50によれば、多視点画像を適切にARコンテンツ100に表示することができる。
【0083】
また、実施形態に係る表示制御装置50において、特定部83は、被写体Gtの3次元形状の特定に測距センサ(たとえば、Lidar)を用いる。したがって、実施形態に係る表示制御装置50によれば、3次元形状を精度よく特定することができるので、たとえば、ARコンテンツ100内において、被写体Gtと仮想オブジェクトOvとの衝突を精度良く回避することができる。
【0084】
また、実施形態に係る表示制御装置50において、表示制御部84は、仮想オブジェクトOvが被写体Gtと重なって表示される重なり領域の仮想オブジェクトをマスキングする。したがって、実施形態に係る表示制御装置50によれば、たとえば、ARコンテンツ100内において、被写体Gtと仮想オブジェクトOvとの衝突を回避することができるので、多視点画像を適切にARコンテンツ100に表示することができる。
【0085】
また、実施形態に係る表示制御装置50において、表示制御部84は、仮想オブジェクトOvの配置位置より手前側に被写体Gtが存在する場合に、重なり領域の仮想オブジェクトOvをマスキングする。したがって、実施形態に係る表示制御装置50によれば、たとえば、ARコンテンツ100内において、手前側に位置する被写体Gtに仮想オブジェクトOvが表示される誤表示を回避することができるので、多視点画像を適切にARコンテンツ100に表示することができる。
【0086】
また、実施形態に係る表示制御装置50において、表示制御部84は、被写体Gtの端と、仮想オブジェクトOvの端とを合わせるように表示態様を切り替える。したがって、実施形態に係る表示制御装置50によれば、たとえば、被写体Gtである壁を舞台袖として用いるような新たなコンテンツを提供することができる。
【0087】
また、実施形態に係る表示制御方法は、コンピュータが実行する表示制御方法であって、周囲を撮像した撮像画像に映る被写体の3次元形状を特定する特定工程と、特定工程によって特定される被写体の前記3次元形状と、多視点画像の仮想オブジェクトを配置する配置位置とに応じて、撮像画像に重畳表示する仮想オブジェクトの表示態様を切り替えて表示する表示制御工程とを含む。したがって、実施形態に係る表示制御方法によれば、多視点画像を適切にARコンテンツ100に表示することができる。
【0088】
また、実施形態に係る表示制御プログラムは、周囲を撮像した撮像画像に映る被写体の3次元形状を特定する特定手順と、特定手順によって特定される被写体の3次元形状と、多視点画像の仮想オブジェクトを配置する配置位置とに応じて、撮像画像に重畳表示する仮想オブジェクトの表示態様を切り替えて表示する表示制御手順とをコンピュータに実行させる。したがって、実施形態に係る表示制御プログラムによれば、多視点画像を適切にARコンテンツ100に表示することができる。
【0089】
〔6.ハードウェア構成〕
また、上述してきた実施形態に係る表示制御装置50は、例えば
図9に示すような構成のコンピュータ1000によって実現される。
図9は、実施形態に係る表示制御装置50の機能を実現するコンピュータの一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM1300、HDD1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、及びメディアインターフェイス(I/F)1700を有する。
【0090】
CPU1100は、ROM1300またはHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。
【0091】
HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を格納する。通信インターフェイス1500は、ネットワーク(通信ネットワーク)Nを介して他の機器からデータを受信してCPU1100へ送り、CPU1100が生成したデータをネットワークNを介して他の機器へ送信する。
【0092】
CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタ等の出力装置、及び、キーボードやマウス等の入力装置(
図9では、出力装置および入力装置を総称して「入出力装置」と記載する)を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得する。また、CPU1100は、生成したデータを入出力インターフェイス1600を介して出力装置へ出力する。
【0093】
メディアインターフェイス1700は、記録媒体1800に格納されたプログラムまたはデータを読み取り、RAM1200を介してCPU1100に提供する。CPU1100は、かかるプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1200上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。
【0094】
例えば、コンピュータ1000が実施形態に係る表示制御装置50として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、制御部120の機能を実現する。コンピュータ1000のCPU1100は、これらのプログラムを記録媒体1800から読み取って実行するが、他の例として、他の装置からネットワークNを介してこれらのプログラムを取得してもよい。
【0095】
以上、本願の実施形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。
【0096】
〔7.その他〕
また、上記実施形態及び変形例において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
【0097】
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。
【0098】
また、上述してきた実施形態及び変形例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。
【0099】
また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、自己位置推定部81は、自己位置推定部手段や自己位置推定部回路に読み替えることができる。
【符号の説明】
【0100】
10 情報処理装置
20 通信部
30 記憶部
31 多視点映像データベース
40 制御部
41 選択部
42 配信部
50 表示制御装置
70 記憶部
71 マップ情報記憶部
80 制御部
81 自己位置推定部
82 表示面設定部
83 特定部
84 表示制御部
85 音声制御部
100 ARコンテンツ
G 撮像画像
Ov 仮想オブジェクト
Ap 配置位置
Gt 被写体