IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ KYOTO’S 3D STUDIO株式会社の特許一覧

特許7467810複合現実感提供システムおよび複合現実感提供方法
<>
  • 特許-複合現実感提供システムおよび複合現実感提供方法 図1
  • 特許-複合現実感提供システムおよび複合現実感提供方法 図2
  • 特許-複合現実感提供システムおよび複合現実感提供方法 図3
  • 特許-複合現実感提供システムおよび複合現実感提供方法 図4
  • 特許-複合現実感提供システムおよび複合現実感提供方法 図5
  • 特許-複合現実感提供システムおよび複合現実感提供方法 図6
  • 特許-複合現実感提供システムおよび複合現実感提供方法 図7
  • 特許-複合現実感提供システムおよび複合現実感提供方法 図8
  • 特許-複合現実感提供システムおよび複合現実感提供方法 図9
  • 特許-複合現実感提供システムおよび複合現実感提供方法 図10
  • 特許-複合現実感提供システムおよび複合現実感提供方法 図11
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-04-08
(45)【発行日】2024-04-16
(54)【発明の名称】複合現実感提供システムおよび複合現実感提供方法
(51)【国際特許分類】
   G06T 19/00 20110101AFI20240409BHJP
   G06F 3/04815 20220101ALI20240409BHJP
【FI】
G06T19/00 600
G06F3/04815
【請求項の数】 6
(21)【出願番号】P 2021101213
(22)【出願日】2021-05-07
(65)【公開番号】P2022173028
(43)【公開日】2022-11-17
【審査請求日】2022-10-06
(73)【特許権者】
【識別番号】519358416
【氏名又は名称】KYOTO’S 3D STUDIO株式会社
(72)【発明者】
【氏名】西村 和也
(72)【発明者】
【氏名】石田 航平
【審査官】村松 貴士
(56)【参考文献】
【文献】米国特許出願公開第2020/0380769(US,A1)
【文献】国際公開第2020/026419(WO,A1)
【文献】特開2018-109835(JP,A)
【文献】特開2019-153274(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
G06T 19/00
G06F 3/01
G06F 3/048 - 3/04895
(57)【特許請求の範囲】
【請求項1】
複数の映像を組み合わせることにより実現させる複合現実空間をユーザに提供する複合現実感提供システムであって、
実空間映像を撮像する撮像部と、
前記撮像部の光軸方向を算出する視線方向算出部と、
前記ユーザの位置を計測する位置計測部と、
前記ユーザが枠状物体の一方向側に位置する第1領域に位置する場合、前記ユーザの位置、前記枠状物体の位置および前記撮像部の光軸方向に基づいて、前記ユーザの位置とは異なる位置において撮影して得られる撮影映像とコンピュータグラフィックス映像との少なくとも一方からなる第1仮想空間映像から、前記ユーザの視点から前記枠状物体の他方向側の第2領域を見たときの前記第2領域の周縁部分を含む仮想平面に対して前記ユーザの視点側とは反対側の前記第2領域の内側に対応する第2仮想空間映像を抽出し、前記ユーザが前記第2領域に位置する場合、前記第1仮想空間映像から、前記ユーザの視点の位置に応じた第3仮想空間映像を抽出する映像抽出部と、
前記現実空間映像に予め設定された場所に設置された枠状物体の現実空間映像が含まれる場合、前記位置計測部により計測される前記ユーザの位置が前記第1領域に含まれるとき、前記現実空間映像における前記枠状物体の現実空間映像の内側に前記第2仮想空間映像の少なくとも一部を合成する第1合成処理を実行し、前記位置計測部により計測される前記ユーザの位置が前記第2領域に含まれるとき、前記現実空間映像における前記枠状物体の現実空間映像の外側に前記第3仮想空間映像の少なくとも一部を合成する第2合成処理を実行して合成映像を生成する合成処理部と、
前記合成映像を表示する表示部と、を備える、
複合現実感提供システム。
【請求項2】
前記合成処理部は、前記ユーザが前記第1領域に位置する場合、前記ユーザの視点から前記第2領域を臨んだときに前記第2仮想空間映像のうちの少なくとも前記枠状物体の現実空間映像の外側に位置する部分を現実空間映像に置き換える映像フィルタを用いて合成映像を生成する、
請求項1に記載の複合現実感提供システム。
【請求項3】
前記枠状物体の少なくとも一部に予め設けられたマークの現実空間映像に基づいて、前記ユーザの位置に対する前記枠状物体の相対的な位置を特定する位置特定部を更に備える、
請求項1または2に記載の複合現実感提供システム。
【請求項4】
前記マークは、予め設定された厚さの板材から形成され、
前記位置特定部は、前記マークの現実空間映像から前記マークの厚さを特定し、特定した厚さに基づいて、前記枠状物体の相対的な位置を特定する、
請求項3に記載の複合現実感提供システム。
【請求項5】
前記第2領域は、球状であり、
前記第1仮想空間映像は、360度カメラで撮影した画像または動画像である、
請求項1から4のいずれか1項に記載の複合現実感提供システム。
【請求項6】
複数の映像を組み合わせることにより実現させる複合現実空間をユーザに提供する複合現実感提供方法であって、
実空間映像を撮像部により撮像するステップと、
前記撮像部の光軸方向を算出するステップと、
前記ユーザの位置を計測するステップと、
前記ユーザが枠状物体の一方向側に位置する第1領域に位置する場合、前記ユーザの位置、前記枠状物体の位置および前記撮像部の光軸方向に基づいて、前記ユーザの位置とは異なる位置において撮影して得られる撮影映像とコンピュータグラフィックス映像との少なくとも一方からなる第1仮想空間映像から、前記ユーザの視点から前記枠状物体の他方向側の第2領域を見たときの前記第2領域の周縁部分を含む仮想平面に対して前記ユーザの視点側とは反対側の前記第2領域の内側に対応する第2仮想空間映像を抽出し、前記ユーザが前記第2領域に位置する場合、前記第1仮想空間映像から、前記ユーザの視点の位置に応じた第3仮想空間映像を抽出するステップと、
前記現実空間映像に予め設定された場所に設置された枠状物体の現実空間映像が含まれる場合、計測される前記ユーザの位置が前記第1領域に含まれるとき、前記現実空間映像における前記枠状物体の現実空間映像の内側に前記第2仮想空間映像の少なくとも一部を合成する第1合成処理を実行し、計測される前記ユーザの位置が前記第2領域に含まれるとき、前記現実空間映像における前記枠状物体の現実空間映像の外側に前記第3仮想空間映像の少なくとも一部を合成する第2合成処理を実行して合成映像を生成するステップと、
前記合成映像を表示部に表示させるステップと、を含む、
複合現実感提供方法。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、複合現実感提供システムおよび複合現実感提供方法に関する。
【背景技術】
【0002】
画像提供サーバと複数のクライアント端末とが通信可能に構成され現実空間画像に仮想物体を合成して複数のクライアント端末それぞれに表示する複合現実感表示システムが提案されている(例えば特許文献1参照)。ここで、画像提供サーバは、仮想物体を描画し、描画した仮想物体と、全方位画像取得カメラにて撮影された全方位画像を合成する合成手段と、合成画像情報を複数のクライアント端末に向けて配信する。一方、クライアント端末は、当該クライアント端末の画面を観察するユーザの視線を定義する位置姿勢情報に基づいて、画像提供サーバから受信した合成画像情報が示す合成画像から部分領域画像を抽出して表示する。
【先行技術文献】
【特許文献】
【0003】
【文献】特開2021-048597号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
ところで、特許文献1に記載された複合現実感表示システムにおいて、ユーザの位置によってユーザが体験する複合現実感を切り替えることによりユーザにより多くの種類の複合現実感を利用したサービスを提供できるようにすることが要請されつつある。
【0005】
本発明は、上記事由に鑑みてなされたものであり、ユーザにより多くの種類の複合現実感を提供することができる複合現実感提供システムおよび複合現実感提供方法を提供することを目的とする。
【課題を解決するための手段】
【0006】
上記目的を達成するために、本発明に係る複合現実感提供システムは、
複数の映像を組み合わせることにより実現させる複合現実空間をユーザに提供する複合現実感提供システムであって、
空間映像を撮像する撮像部と、
前記撮像部の光軸方向を算出する視線方向算出部と、
前記ユーザの位置を計測する位置計測部と、
前記ユーザが枠状物体の一方向側に位置する第1領域に位置する場合、前記ユーザの位置、前記枠状物体の位置および前記撮像部の光軸方向に基づいて、前記ユーザの位置とは異なる位置において撮影して得られる撮影映像とコンピュータグラフィックス映像との少なくとも一方からなる第1仮想空間映像から、前記ユーザの視点から前記枠状物体の他方向側の第2領域を見たときの前記第2領域の周縁部分を含む仮想平面に対して前記ユーザの視点側とは反対側の前記第2領域の内側に対応する第2仮想空間映像を抽出し、前記ユーザが前記第2領域に位置する場合、前記第1仮想空間映像から、前記ユーザの視点の位置に応じた第3仮想空間映像を抽出する映像抽出部と、
前記現実空間映像に予め設定された場所に設置された枠状物体の現実空間映像が含まれる場合、前記位置計測部により計測される前記ユーザの位置が前記第1領域に含まれるとき、前記現実空間映像における前記枠状物体の現実空間映像の内側に前記第2仮想空間映像の少なくとも一部を合成する第1合成処理を実行し、前記位置計測部により計測される前記ユーザの位置が前記第2領域に含まれるとき、前記現実空間映像における前記枠状物体の現実空間映像の外側に前記第3仮想空間映像の少なくとも一部を合成する第2合成処理を実行して合成映像を生成する合成処理部と、
前記合成映像を表示する表示部と、を備える。
【発明の効果】
【0007】
本発明によれば、映像抽出部が、ユーザが第1領域に位置する場合、第1仮想空間映像から、ユーザの視点から第2領域を見たときの第2領域の周縁部分を含む仮想平面に対してユーザの視点側とは反対側の第2領域の内側に対応するユーザの視点の位置に応じた第2仮想空間映像を抽出する。また、映像抽出部は、ユーザが第2領域に位置する場合、第1仮想空間映像から、ユーザの視点の位置に応じた第3仮想空間映像を抽出する。そして、合成処理部が、現実空間映像に枠状物体の現実空間映像が含まれる場合、ユーザの位置が第1領域に含まれるとき、現実空間映像における枠状物体の現実空間映像の内側に第2仮想空間映像の少なくとも一部を合成する第1合成処理を実行する。また、合成処理部は、ユーザの位置が第2領域に含まれるとき、現実空間映像における枠状物体の現実空間映像の外側に第3仮想空間映像の少なくとも一部を合成する第2合成処理を実行して合成映像を生成する。これにより、ユーザの位置が第1領域と第2領域とのいずれに含まれるかによってユーザが体験する複合現実感を切り替えることができるので、ユーザにより多くの種類の複合現実感を利用したサービスを提供できる。
【図面の簡単な説明】
【0008】
図1】本発明の実施の形態に係る複合現実感提供システムの概略構成を示す図である。
図2】実施の形態に係る複合現実感提供システムのハードウェア構成を示すブロック図である。
図3】実施の形態に係る複合現実感提供システムの機能構成を示すブロック図である。
図4】実施の形態に係る複合現実感提供システムの使用例を示す図である。
図5】(A)は実施の形態に係る複合現実感提供システムの使用例を示す図であり、(B)は端末装置の表示部に表示される映像の一例を示す模式図である。
図6】(A)は実施の形態に係る複合現実感提供システムの使用例を示す図であり、(B)は端末装置の表示部に表示される映像の一例を示す模式図である。
図7】(A)は抽出したオブジェクトの一例を示す図であり、(B)は実施の形態に係る位置特定部が端末装置とゲートとの間の距離を算出する処理を説明するための図であり、(C)は実施の形態に係る位置特定部が端末装置からゲートを臨む方向を算出する処理を説明するための図である。
図8】(A)は合成処理におけるユーザの視点と第2領域と映像フィルタとの位置関係を示す図であり、(B)はユーザの視点から第2領域方向を見たときの第2領域の周縁部分と映像フィルタとの位置関係を示す図である。
図9】実施の形態に係る複合現実感提供システムの動作を示すシーケンス図である。
図10】実施の形態に係る複合現実感提供システムの動作を示すシーケンス図である。
図11】実施の形態に係るクラウドサーバが実行する複合現実感提供の流れの一例を示すフローチャートである。
【発明を実施するための形態】
【0009】
以下、本開示の実施の形態に係る複合現実感提供システムについて図面を参照しながら説明する。本実施の形態に係る複合現実感提供システムは、複数の映像を組み合わせることにより実現させる複合現実空間をユーザに提供する。この複合現実感提供システムは、ユーザの視線方向の現実空間を撮像する撮像部と、ユーザの視線方向を算出する視線方向算出部と、ユーザの位置を計測する位置計測部と、映像抽出部と、合成処理部と、合成処理部により生成された合成映像を表示する表示部と、を備える。ここで、映像抽出部は、ユーザが予め設定された場所に設置された枠状物体の一方向側に位置する第1領域に位置する場合、ユーザの位置、枠状物体の位置およびユーザの視線方向に基づいて、ユーザの位置とは異なる位置において撮影して得られる撮影映像とコンピュータグラフィックス映像との少なくとも一方からなる第1仮想空間映像から、ユーザの視点から枠状物体の他方向側の第2領域を見たときの第2領域の周縁部分を含む仮想平面に対してユーザの視点側とは反対側の第2領域の内側に対応するユーザの視点の位置に応じた第2仮想空間映像を抽出し、ユーザが前記第2領域に位置する場合、第1仮想空間映像から、ユーザの視点の位置に応じた第3仮想空間映像を抽出する。合成処理部は、現実空間映像に枠状物体の現実空間映像が含まれる場合、位置計測部により計測されるユーザの位置が第1領域に含まれるとき、現実空間映像における枠状物体の現実空間映像の内側に第2仮想空間映像の少なくとも一部を合成する第1合成処理を実行し、位置計測部により計測されるユーザの位置が第2領域に含まれるとき、現実空間映像における枠状物体の現実空間映像の外側に第3仮想空間映像の少なくとも一部を合成する第2合成処理を実行して合成映像を生成する。
【0010】
本実施の形態に係る複合現実感提供システムは、図1に示すように、クラウドサーバ1と、クラウドサーバ1とインターネットのようなネットワークNW1を介して通信可能な端末装置5と、を備える。この複合現実感提供システムは、イベント開催地、観光地等の様々な場所で屋外屋内を問わず端末装置5を所持するユーザに対して複合現実感を提供することできる。
【0011】
端末装置5は、例えば携帯電話、PDA、スマートフォン等のモバイル端末装置である。なお、端末装置5は、HMD(Head Mounted Display)、デジタルサイネージ端末等であってもよい。端末装置5は、図2に示すように、CPU(Central Processing Unit)501と、主記憶部502と、補助記憶部503と、表示部504と、入力部551と、撮像部552と、広域通信部506と、計時部507と、加速度検出部581と、地磁気検出部582と、GNSS(Global Navigation Satellite System)受信部583と、これらを互いに接続するバス509と、を備える。主記憶部502は、RAM(Random Access Memory)のような揮発性メモリを有し、CPU501の作業領域として使用される。また、主記憶部502は、表示部504に表示させる画像情報を一時的に記憶する画像専用メモリ(図示せず)を有する。補助記憶部503は、半導体フラッシュメモリのような不揮発性メモリであり、CPU501が各種処理を実行するためのプログラムを記憶する。表示部504は、液晶ディスプレイ、有機EL(Electro-Luminescence)ディスプレイ等の表示装置である。入力部551は、例えば表示部504に重ねて配置される透明なタッチパッドである。
【0012】
撮像部552は、例えばCCDイメージセンサ、CMOSイメージセンサ等を有するカメラを有し、カメラで撮像して得られる映像を示す映像情報を主記憶部502の画像専用メモリへ転送する。ここで、ユーザが撮像部552のカメラの光軸方向と自身の視線方向とが一致するように端末装置5を所持して撮像を行う場合、撮像部552は、ユーザの視線方向の現実空間を撮像することになる。また、撮像部552は、CPU501から撮像開始指示情報が転送されたことを契機として現実空間の連続撮像を開始する。また、撮像部552は、CPU501から撮像終了指示情報が転送されたことを契機として現実空間の連続撮像を終了する。
【0013】
広域通信部506は、ネットワークNW1に接続され、CPU501から転送される情報を、ネットワークNW1を介してクラウドサーバ1へ送信したり、クラウドサーバ1からネットワークNW1を介して受信した情報をCPU501へ転送したりする。計時部507は、例えばリアルタイムクロックを有し、後述の予め設定された映像送信時期が到来すると、映像送信時期が到来したことをCPU501に通知する。
【0014】
加速度検出部581は、例えば静電容量式の3軸加速度センサを有し、予め設定された3軸方向それぞれに加わる加速度を検出し、検出した加速度の大きさおよび方向を示す加速度検出情報をCPU501へ転送する。地磁気検出部582は、ホールセンサ、MR(Magneto Resistance)センサ、MI(Magneto Impedance)センサ等を有し、地球上に発生する磁場の大きさおよび方向を示す磁場検出情報をCPU501へ転送する。ここで、磁場検出情報は、前述の3軸方向における磁場の大きさおよび方向を示すベクトル情報である。GNSS受信部583は、測位用の人工衛星から放射されるGNSS信号を受信し、GNSS信号に基づいて人工衛星の位置情報、時刻情報等を含むGNSS情報を生成してCPU501へ転送する。
【0015】
CPU501は、補助記憶部503が記憶するプログラムを主記憶部502に読み出して実行することにより、図3に示すように、受付部511、位置通知部512、位置計測部513、映像送信部514、合成映像取得部515および表示制御部516として機能する。また、図2に示す主記憶部502の画像専用メモリには、図3に示すように、撮像映像記憶部521と、合成映像記憶部522と、が設けられている。撮像映像記憶部521は、撮像部552により撮像して得られる映像を示す映像情報を一時的に記憶する。撮像映像記憶部521は、複数フレーム分の映像情報をFIFO方式で記憶するものであってもよい。また、撮像部552から転送される映像情報は、逐次撮像映像記憶部521に記憶されていく。
【0016】
合成映像記憶部522は、クラウドサーバ1から送信される合成映像を示す合成映像情報を一時的に記憶する。ここで、合成映像記憶部522は、複数フレーム分の映像情報をFIFO方式で記憶するものであってもよい。
【0017】
図3に戻って、受付部511は、ユーザが入力部551に対して行った操作内容を受け付ける。受付部511は、例えばユーザが合成映像の表示部504への表示を開始させるための表示開始操作を行うと、その表示開始操作を受け付けて、表示開始操作情報を、位置通知部512、姿勢通知部517および映像送信部514に通知する。一方、受付部511は、例えばユーザが合成映像の表示部504への表示を終了させるための表示終了操作を行うと、その表示終了操作を受け付けて、表示終了操作情報を、位置通知部512、姿勢通知部517および映像送信部514に通知する。
【0018】
位置計測部513は、GNSS受信部583から転送されるGNSS情報、加速度検出部581から転送される加速度検出情報および地磁気検出部582から転送される磁場検出情報を取得する。そして、位置計測部513は、取得したGNSS情報、加速度検出情報および磁場検出情報に基づいて、端末装置5の位置を計測し、計測して得られたユーザの位置を示す位置座標情報を位置通知部512に通知する。
【0019】
位置通知部512は、位置計測部513から位置座標情報が通知されると、通知された位置座標情報を、ネットワークNW1を介してクラウドサーバ1へ定期的に送信する。ここで、位置通知部512は、受付部511から表示開始操作情報が通知されたことを契機として、位置座標情報のクラウドサーバ1への送信を開始する。また、位置通知部512は、その後、予め設定された映像送信時期が到来する毎に位置座標情報をクラウドサーバ1へ送信する。映像送信時期は、例えばユーザが表示開始操作を行った後、数msec間隔で到来するように設定することができる。一方、位置通知部512は、受付部511から表示終了操作情報が通知されたことを契機として、位置座標情報のクラウドサーバ1への送信を停止する。
【0020】
姿勢通知部517は、加速度検出部581から転送される加速度検出情報および地磁気検出部582から転送される磁場検出情報を取得する。そして、姿勢通知部517は、取得した加速度検出情報および磁場検出情報に基づいて、端末装置5の姿勢を特定し、特定した姿勢を示す姿勢情報をクラウドサーバ1へ送信する。
【0021】
映像送信部514は、撮像映像記憶部521が記憶する映像情報を1フレーム分ずつクラウドサーバ1へ送信する。ここで、映像送信部514は、受付部511から表示開始操作情報が通知されたことを契機として、撮像映像記憶部521が記憶する映像情報のクラウドサーバ1への送信を開始する。一方、映像送信部514は、受付部511から表示終了操作情報が通知されたことを契機として、映像情報のクラウドサーバ1への送信を停止する。
【0022】
合成映像取得部515は、クラウドサーバ1から合成映像情報を取得すると、取得した合成映像情報を合成映像記憶部522に記憶させる。表示制御部516は、合成映像記憶部522が記憶する合成映像情報を1フレーム分ずつ表示部504に表示させる。
【0023】
本実施の形態に係る複合現実感提供システムでは、ユーザが、例えば図4に示すように、イベント開催地、観光地等に設置されたゲートGATEを含む景色を端末装置5の撮像部552により撮像すると、表示部504に現実空間の映像に仮想空間の映像が合成された合成映像が表示されるというものである。ここで、ゲートGATEは、例えば「どこでもドア」という板材から形成された厚さのある予め設定された文字列を示すマークM1が配設された枠状物体である。例えば図5(A)に示すように、ユーザがゲートGATEの一方向側に位置する第1領域A1に位置するとき、端末装置5は、図5(B)に示すように、ゲートGATEの現実空間映像OB1の内側が後述する第2仮想空間映像VP2であり、ゲートGATEの現実空間映像OB1の外側が現実空間映像RPである合成映像G1を表示部504に表示させる。一方、例えば図6(A)に示すように、ユーザがゲートGATEの他方向側に位置する第2領域A2に位置するとき、端末装置5は、図6(B)に示すように、ゲートGATEの現実空間映像OB1の内側が現実空間映像RPであり、ゲートGATEの現実空間映像OB1の外側が後述する第3仮想空間映像VP3である合成映像G2を表示部504に表示させる。ここで、第2領域A2は、例えば一部がゲートGATEに接するように配置された球状の領域に設定される。なお、第2領域A2の形状は、球状に限定されるものではなく、例えば楕円体状のような他の立体的形状に設定されてもよい。
【0024】
図2に戻って、クラウドサーバ1は、CPU101と、主記憶部102と、補助記憶部103と、広域通信部106と、各部を接続するバス109と、を備える。CPU101は、例えばマルチコアプロセッサである。主記憶部102は、揮発性メモリであり、CPU101の作業領域として使用される。補助記憶部103は、不揮発性メモリを有し、ROM、ストレージとして機能し、クラウドサーバ1の各種機能を実現するためのプログラムを記憶する。広域通信部106は、ネットワークNW1を介して端末装置5と通信する。
【0025】
CPU101は、補助記憶部103が記憶するプログラムを主記憶部102に読み出して実行することにより、図3に示すように、映像取得部111、オブジェクト抽出部112、位置取得部113、姿勢取得部114、視線方向算出部115、映像抽出部116、映像処理部117、合成処理部118、合成映像送信部119および位置特定部120として機能する。また、図2に示す補助記憶部103は、図3に示すように、現実空間映像記憶部131と、仮想空間映像記憶部132と、合成映像記憶部133と、を有する。現実空間映像記憶部131は、端末装置5から取得した現実空間映像を示す映像情報を記憶する。
【0026】
仮想空間映像記憶部132は、ユーザの位置とは異なる位置において撮影して得られる撮影映像からなる第1仮想空間映像を示す仮想空間映像情報を記憶する。第1仮想空間映像は、例えば360度カメラで撮影した画像または動画像である。合成映像記憶部133は、合成処理部118により生成された合成映像情報を記憶する。
【0027】
映像取得部111は、端末装置5から送信される映像情報を取得すると、取得した映像情報を現実空間映像記憶部131に記憶させる。オブジェクト抽出部112は、現実空間映像記憶部131が記憶する映像情報が示す現実空間映像の中から前述のゲートGATEに対応するオブジェクト、即ち、ゲートGATEの現実空間映像が含まれる場合、そのゲートGATEの現実空間映像を抽出する。オブジェクト抽出部112は、抽出したゲートGATEの現実空間映像を示すゲート映像情報を位置特定部120に通知する。
【0028】
位置特定部120は、オブジェクト抽出部112から通知されるゲート映像情報が示すゲートGATEの現実空間映像に含まれるマークM1の現実空間映像に基づいて、ゲートGATEの位置を特定する。具体的には、位置特定部120は、例えば図7(A)に示すように、マークM1の現実空間映像に表われているマークM1を構成する文字「ド」の側壁部分の垂直方向の幅W1と、水平方向の幅W2と、に基づいて、端末装置5とゲートGATEとの間の距離を算出する。ここで、位置特定部120は、例えば図7(A)に示すように、マークM1の正面部分の幅W10と幅W1との比率並びに幅W10の実際の長さから、幅W1の実際の幅W1rを推定する。次に、位置特定部120は、マークM1の厚さ方向が水平方向と平行であると看做して、マークM1の実際の厚さ幅W0に対する幅W1の実際の長さW1rの比率の逆余弦(arccos(W1r/W0))を計算することにより、端末装置5の撮像部552の視点位置PSからマークM1の奥側の位置PM1を臨む視線方向と水平方向、即ち、図7(B)のY軸方向とのなす仰角T1を算出する。また、位置特定部120は、端末装置5の撮像部552の視点位置PSの地面からの高さを一般的な人の目線の高さの平均値に設定した上で、ゲートGATEに設けられたマークM1の地面からの高さから設定した目線の高さの平均値を差し引いて得られる長さH1を算出する。そして、位置特定部120は、算出した長さH1と、算出した仰角T1の正接の逆数(1/tan(T1))と、の積を、マークM1の厚さ方向における端末装置5とゲートGATEとの間の距離L1として算出する。
【0029】
また、位置特定部120は、図7(A)に示すように、マークM1の正面部分の幅W10と幅W2との比率並びに幅W10の実際の長さから、幅W2の実際の幅W2rを推定する。次に、位置特定部120は、マークM1の実際の厚さ幅W0に対する幅W2の実際の長さW2rの比率の逆余弦(arccos(W1r/W0))を計算することにより、図7(C)に示すように、端末装置5の撮像部552の視点位置PSからマークM1の奥側の位置PM1を臨む視線方向とマークM1の厚さ方向、即ち、図7(C)におけるY軸方向とのなす角度T2を算出する。そして、位置特定部120は、3箇所以上の複数箇所における距離L1と角度T2とを算出し、端末装置5から送信される複数箇所それぞれにおける位置座標情報と算出した複数箇所それぞれにおける距離L1および角度T2とを用いて、マークM1の位置座標を算出する。その後、位置特定部120は、予め設定されたマークM1の位置に対するゲートGATEの内側部分の周縁部分の相対的な位置を示す情報に基づいて、算出したマークM1の位置座標からゲートGATEの内側部分の周縁部分の位置座標を算出する。位置特定部120は、算出したゲートGATEの内側部分の周縁部分の位置座標を示す位置座標情報を映像抽出部116および合成処理部118に通知する。
【0030】
位置取得部113は、端末装置5から送信される位置座標情報を取得し、取得した位置座標情報を映像抽出部116に通知する。姿勢取得部114は、端末装置5から送信される姿勢情報を取得し、取得した姿勢情報を視線方向算出部115に通知する。視線方向算出部115は、姿勢取得部114から通知される姿勢情報に基づいて、予め設定された基準方向に対する撮像部552の光軸方向、即ち、視線方向を算出する。そして、視線方向算出部115は、算出した視線方向を示す視線方向情報を映像抽出部116に通知する。
【0031】
映像抽出部116は、仮想空間映像記憶部132が記憶する第1仮想空間映像から、第1領域A1にいるユーザの視点から第2領域A2を見たときの第2領域A2の内側に対応する第2仮想空間映像、または、第2領域A2内にいるユーザの視点から見える第3仮想空間映像を抽出する。具体的には、映像抽出部116は、位置取得部113から通知される端末装置5の位置座標情報と、位置特定部120から通知されるゲートGATEの位置座標情報と、に基づいて、端末装置5がゲートGATEの予め設定された一方向側の第1領域A1(図5(A)参照)またはゲートGATEの他方向側の第2領域(図6(A)参照)のいずれに位置するかを特定する。そして、映像抽出部116は、位置取得部113から通知される位置座標情報が示す位置が第1領域A1内に位置すると判定すると、前述の第2仮想空間映像を抽出する。即ち、映像抽出部116は、例えば図8(A)に示すように、ユーザの視点PSから第2領域A2を見たときの第2領域A2の周縁部分EA2を含む仮想平面VPLに対してユーザの視点PS側とは反対側の第2領域A2の内側に対応するユーザの視点PSの位置に応じた第2仮想空間映像を抽出する。図3に戻って、一方、映像抽出部116は、位置取得部113から通知される位置座標情報が示す位置が第2領域A2内に位置すると判定すると、第1仮想空間映像から、ユーザの視点の位置から第2領域A2の内側を見たときの第3仮想空間映像を抽出する。ここで、映像抽出部116は、位置取得部113から通知される位置座標情報と、視線方向算出部115から通知される視線方向情報と、に基づいて、第1仮想空間映像の抽出部分を特定し、特定した部分を採用する第2仮想空間映像または第3仮想空間映像として抽出する。そして、映像抽出部116は、抽出した第2仮想空間映像または第3仮想空間映像を示す仮想空間映像情報を合成処理部118に通知する。
【0032】
合成処理部118は、現実空間映像記憶部131から映像情報を取得し、取得した映像情報が示す現実空間映像にゲートGATEの現実空間映像が含まれる場合、位置取得部113から通知される端末装置5の位置座標情報と、位置特定部120から通知されるゲートGATEの位置座標情報と、から、ユーザが前述の第1領域A1、第2領域A2のいずれに位置するかを判定する。そして、合成処理部118は、ユーザの位置が前述の第1領域A1に含まれる場合、現実空間映像におけるゲートGATEの現実空間映像の内側に前述の第2仮想空間映像の一部を合成する第1合成処理を実行する。ここで、合成処理部118は、図8(A)に示すように、ユーザの視点PSから第2領域A2を臨んだときに第2仮想空間映像のうちの少なくともゲートGATEの現実空間映像の外側に位置する部分を現実空間映像に置き換える映像フィルタFIを用いて合成映像を生成する。これにより、図8(B)に示すように、ユーザの視点PSからゲートGATE方向を見たとき、第2領域A2の周縁部分EA2の内側に対応する第2仮想空間映像の一部が映像フィルタFIにより現実空間映像に置き換えられた状態となる。そして、端末装置5の表示部504に表示される画角領域PAの合成映像は、第2領域A2の周縁部分EA2の内側に対応する第2仮想空間映像のうち映像フィルタFIで覆われていない部分のみを含むものとなる。
【0033】
一方、合成処理部118は、ユーザの位置が前述の第2領域A2に含まれる場合、現実空間映像におけるゲートGATEの現実空間映像の外側に第3仮想空間映像の一部を合成する第2合成処理を実行する。この場合、合成処理部118は、第3仮想空間映像からゲートGATEの現実空間映像の内側部分に現実空間映像が合成された合成映像を生成する。また、合成処理部118は、生成した合成映像を示す合成映像情報を合成映像記憶部133に記憶させる。合成映像送信部119は、合成映像記憶部133が記憶する合成映像情報を端末装置5へ送信する。
【0034】
次に、本実施の形態に係る複合現実感提供システムの動作について、図9および図10を参照しながら説明する。ここで、ユーザが既に入力部551に対して合成映像の表示部504への表示を開始させるための表示開始操作を行っているものとする。まず、図9に示すように、予め設定された映像送信時期が到来すると、端末装置5は、撮像部552による撮像を実行する(ステップS1)。次に、端末装置5は、GNSS信号、加速度検出部581により検出される加速度および地磁気検出部582により検出される磁場の大きさおよび方向に基づいて、端末装置5の位置、姿勢を計測する(ステップS2)。続いて、撮像部552により撮像して得られる現実空間映像を示す映像情報と、端末装置5の位置を示す位置座標情報と、端末装置5の姿勢を示す姿勢情報と、が、端末装置5からクラウドサーバ1へ送信される(ステップS3)。
【0035】
一方、クラウドサーバ1は、端末装置5から送信される映像情報、位置座標情報および姿勢情報を取得すると、現実空間映像の中に前述のゲートGATEの現実空間映像が含まれる場合、そのゲートGATEの現実空間映像を抽出する(ステップS4)。その後、クラウドサーバ1は、抽出したゲートGATEの現実空間映像に含まれるマークM1の現実空間映像と、端末装置5から取得した位置座標情報と、に基づいて、ゲートGATEの位置を特定する(ステップS5)。
【0036】
次に、クラウドサーバ1は、取得した姿勢情報に基づいて、前述の視線方向を算出する(ステップS6)。続いて、クラウドサーバ1は、端末装置5が前述の第1領域A1に位置すると判定したとする(ステップS7)。この場合、クラウドサーバ1は、仮想空間映像記憶部132が記憶する第1仮想空間映像から、前述の第2仮想空間映像を抽出する(ステップS8)。その後、クラウドサーバ1は、現実空間映像におけるゲートGATEの現実空間映像の内側に、第2仮想空間映像のうちのゲートGATEの現実空間映像の外側に位置する部分を現実空間映像に置き換える映像フィルタFIを用いて、抽出した第2仮想空間映像の一部を合成する第1合成処理を実行する(ステップS9)。続いて、クラウドサーバ1が前述の第1合成処理を実行することにより生成された合成映像情報が、クラウドサーバ1から端末装置5へ送信される(ステップS10)。一方、端末装置5は、合成映像情報を取得すると、取得した合成映像情報が示す合成映像を表示部504に表示させる(ステップS11)。
【0037】
また、予め設定された映像送信時期が到来し、ステップS1乃至S5までの一連の処理が実行された後において、クラウドサーバ1が、端末装置5が前述の第2領域A2に位置すると判定したとする(ステップS12)。この場合、クラウドサーバ1は、仮想空間映像記憶部132が記憶する第1仮想空間映像から、前述の第3仮想空間映像を抽出する(ステップS13)。その後、図10に示すように、クラウドサーバ1は、現実空間映像におけるゲートGATEの現実空間映像の外側に第3仮想空間映像の一部を合成する第2合成処理を実行する第2合成処理を実行する(ステップS14)。続いて、クラウドサーバ1が前述の第2合成処理を実行することにより生成された合成映像情報が、クラウドサーバ1から端末装置5へ送信される(ステップS15)。一方、端末装置5は、合成映像情報を取得すると、取得した合成映像情報が示す合成映像を表示部504に表示させる(ステップS16)。
【0038】
次に、本実施の形態に係るクラウドサーバ1が実行する複合現実感提供処理について、図11を参照しながら説明する。なお、この複合現実感提供処理は、クラウドサーバ1において複合現実感提供処理を実行するためのプログラムが起動されたことを契機として開始される。まず、映像取得部111、位置取得部113および姿勢取得部114は、それぞれ、端末装置5から送信される映像情報、位置座標情報および姿勢情報を取得したか否かを判定する(ステップS101)。ここで、映像取得部111、位置取得部113および姿勢取得部114が、映像情報、位置座標情報および姿勢情報を取得しない限り(ステップS101:No)、ステップS101の処理が繰り返し実行される。
【0039】
一方、映像取得部111、位置取得部113および姿勢取得部114が、映像情報、位置座標情報および姿勢情報を取得したと判定したとする(ステップS101:Yes)。この場合、オブジェクト抽出部112は、映像情報が示す現実空間映像の中に前述のゲートGATEの現実空間映像が含まれるか否かを判定する(ステップS102)。ここで、オブジェクト抽出部112が、映像情報が示す現実空間映像の中に前述のゲートGATEの現実空間映像が含まれないと判定すると(ステップS102:No)、後述のステップ105の処理が実行される。一方、オブジェクト抽出部112は、現実空間映像の中にゲートGATEの現実空間映像が含まれると判定すると(ステップS102:Yes)、現実空間映像の中からゲートGATEの現実空間映像を抽出する(ステップS103)。次に、位置特定部120は、前述のように抽出したゲートGATEの現実空間映像に含まれるマークM1の現実空間映像と、端末装置5から取得した位置座標情報と、に基づいて、ゲートGATEの位置を特定する(ステップS104)。
【0040】
続いて、視線方向算出部115は、取得した姿勢情報に基づいて、前述の視線方向を算出する(ステップS105)。その後、映像抽出部116および映像処理部117は、それぞれ、位置取得部113から通知される端末装置5の位置座標情報と、位置特定部120から通知されるゲートGATEの位置座標情報と、から、端末装置5、即ち、ユーザが前述の第1領域A1内に位置するか否かを判定する(ステップS106)。ここで、映像抽出部116および映像処理部117が、ユーザが前述の第1領域A1内に位置すると判定したとする(ステップS106:Yes)。この場合、映像抽出部116は、仮想空間映像記憶部132が記憶する第1仮想空間映像から、前述の第2仮想空間映像を抽出する(ステップS107)。次に、合成処理部118は、現実空間映像におけるゲートGATEの現実空間映像の内側に、抽出した第2仮想空間映像の一部を合成する第1合成処理を実行する(ステップS108)。ここで、合成処理部118は、ユーザの視点から第2領域A2を臨んだときに第2仮想空間映像のうちの少なくともゲートGATEの現実空間映像の外側に位置する部分を現実空間映像に置き換える映像フィルタFIを用いて合成映像を生成する。その後、後述のステップS113の処理が実行される。
【0041】
また、ステップS106において、映像抽出部116および映像処理部117が、ユーザが前述の第2領域A2内に位置すると判定したとする(ステップS106:No)。この場合、映像抽出部116は、仮想空間映像記憶部132が記憶する第1仮想空間映像から、前述の第3仮想空間映像を抽出する(ステップS109)。次に、合成処理部118は、現実空間映像におけるゲートGATEの現実空間映像の外側に、抽出した第3仮想空間映像の一部を合成する第2合成処理を実行する第2合成処理を実行する(ステップS110)。ここで、合成処理部118は、第3仮想空間映像からゲートGATEの現実空間映像の内側部分に現実空間映像が合成された合成映像を生成する。そして、合成処理部118は、生成した合成映像を示す合成映像情報を合成映像記憶部133に記憶させる。その後、合成映像送信部119は、合成映像記憶部133が記憶する合成映像情報を端末装置5へ送信する(ステップS111)。次に、再びステップS101の処理が実行される。
【0042】
以上説明したように、本実施の形態に係る複合現実感提供システムによれば、映像抽出部116が、ユーザが第1領域A1に位置する場合、第1仮想空間映像から、ユーザの視点PSから第2領域A2を見たときの第2領域A2の周縁部分EA2を含む仮想平面VPLに対してユーザの視点PS側とは反対側の第2領域A2の内側に対応する第2仮想空間映像を抽出する。また、映像抽出部116は、ユーザが第2領域A2に位置する場合、第1仮想空間映像から、前述の第3仮想空間映像を抽出する。そして、合成処理部118が、現実空間映像にゲートGATEの現実空間映像が含まれる場合、ユーザの位置が第1領域A1に含まれるとき、現実空間映像におけるゲートGATEの現実空間映像の内側に第2仮想空間映像の一部を合成する第1合成処理を実行する。また、合成処理部118は、ユーザの位置が第2領域A2に含まれるとき、現実空間映像におけるゲートGATEの現実空間映像の外側に第3仮想空間映像の一部を合成する第2合成処理を実行して合成映像を生成する。これにより、ユーザの位置が第1領域A1と第2領域A2とのいずれに含まれるかによってユーザが体験する複合現実感を切り替えることができるので、ユーザにより多くの種類の複合現実感を利用したサービスを提供できる。
【0043】
以上、本発明の実施の形態について説明したが、本発明は前述の実施の形態によって限定されるものではない。例えば、第1仮想空間映像が、コンピュータグラフィックス映像、或いは、ユーザの位置とは異なる位置において撮影して得られる撮影映像とコンピュータグラフィックス映像とを組み合わせた映像であってもよい。
【0044】
実施の形態では、位置計測部513が、GNSS受信部583から転送されるGNSS情報を用いて端末装置5の位置を計測する例について説明したが、これに限定されるものではない。例えば位置計測部513が、加速検出部581から転送される加速度検出情報および地磁気検出部582から転送される磁場検出情報のみに基づいて、端末装置5の位置を計測するものであってもよい。この場合、位置計測部513は、例えばゲートGATEの撮像を開始した時点における位置を基準位置として、加速度検出情報および磁場検出情報のみに基づいて、基準位置からの移動経路を算出することにより端末装置5の位置を計測するようにすればよい。
【0045】
或いは、位置計測部513が、GNSS受信部583から転送されるGNSS情報および地磁気検出部582から転送される磁場検出情報のみに基づいて、端末装置5の位置を計測するものであってもよい。
【0046】
また、本開示に係るクラウドサーバ1および端末装置5の各種機能は、専用のシステムによらず、通常のコンピュータシステムを用いて実現可能である。例えば、ネットワークに接続されているコンピュータに、上記動作を実行するためのプログラムを、コンピュータシステムが読み取り可能な非一時的な記録媒体(CD-ROM(Compact Disc Read Only Memory)等)に格納して配布し、当該プログラムをコンピュータシステムにインストールすることにより、上述の処理を実行するクラウドサーバ1および端末装置5を構成してもよい。
【0047】
また、コンピュータにプログラムを提供する方法は任意である。例えば、プログラムは、通信回線の掲示版(BBS(Bulletin Board System))にアップロードされ、通信回線を介してコンピュータに配信されてもよい。そして、コンピュータは、このプログラムを起動して、OS(Operating System)の制御の下、他のアプリケーションと同様に実行する。これにより、コンピュータは、上述の処理を実行するクラウドサーバ1および端末装置5として機能する。
【0048】
以上、本発明の実施の形態および変形例について説明したが、本開示はこれらに限定されるものではない。本開示は、実施の形態および変形例が適宜組み合わされたもの、それに適宜変更が加えられたものを含む。
【産業上の利用可能性】
【0049】
本発明は、イベント開催地等において複合現実感を端末装置のユーザに提供するシステムとして好適である。
【符号の説明】
【0050】
1:クラウドサーバ、5:端末装置、101,501:CPU、102,502:主記憶部、103,503:補助記憶部、106,506:広域通信部、109,509:バス、111:映像取得部、112:オブジェクト抽出部、113:位置取得部、114:姿勢取得部、115:視線方向算出部、116:映像抽出部、118:合成処理部、119:合成映像送信部、131:現実空間映像記憶部、132:仮想空間映像記憶部、133:合成映像記憶部、504:表示部、505:入力部、506:広域通信部、511:受付部、512:位置通知部、513:位置計測部、514:映像送信部、515:合成映像取得部、516:表示制御部、517:姿勢通知部、521:撮像映像記憶部、522:合成映像記憶部、551:入力部、552:撮像部、581:加速度検出部、582:地磁気検出部、583:GNSS受信部、A1:第1領域、A2:第2領域、EA2:周縁部分、FI:映像フィルタ、GA1,GA2:合成映像、GATE:ゲート、M1:マーク、NW1 ネットワーク、OB1:現実空間映像、VP2:第2仮想空間映像、VP3:第3仮想空間映像、VPL:仮想平面
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11