(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2023157165
(43)【公開日】2023-10-26
(54)【発明の名称】多拠点空間共有システム
(51)【国際特許分類】
H04N 7/14 20060101AFI20231019BHJP
G06F 3/01 20060101ALI20231019BHJP
G06T 19/00 20110101ALI20231019BHJP
H04N 7/15 20060101ALI20231019BHJP
H04N 21/431 20110101ALI20231019BHJP
H04N 7/18 20060101ALI20231019BHJP
【FI】
H04N7/14
G06F3/01 510
G06T19/00 A
H04N7/15 170
H04N21/431
H04N7/18 U
【審査請求】有
【請求項の数】8
【出願形態】OL
(21)【出願番号】P 2022066899
(22)【出願日】2022-04-14
(11)【特許番号】
(45)【特許公報発行日】2022-10-19
(71)【出願人】
【識別番号】516049674
【氏名又は名称】株式会社ACW-DEEP
(71)【出願人】
【識別番号】306013120
【氏名又は名称】昭和電線ケーブルシステム株式会社
(74)【代理人】
【識別番号】100082418
【弁理士】
【氏名又は名称】山口 朔生
(74)【代理人】
【識別番号】100167601
【弁理士】
【氏名又は名称】大島 信之
(74)【代理人】
【識別番号】100201329
【弁理士】
【氏名又は名称】山口 真二郎
(74)【代理人】
【識別番号】100220917
【弁理士】
【氏名又は名称】松本 忠大
(72)【発明者】
【氏名】山口 聡
(72)【発明者】
【氏名】新舘 均
(72)【発明者】
【氏名】箕輪 昌啓
(72)【発明者】
【氏名】沈 恒偉
(72)【発明者】
【氏名】瀬間 信幸
【テーマコード(参考)】
5B050
5C054
5C164
5E555
【Fターム(参考)】
5B050AA08
5B050BA06
5B050BA09
5B050BA11
5B050BA12
5B050CA07
5B050CA08
5B050DA04
5B050EA03
5B050EA07
5B050EA19
5B050EA26
5B050FA02
5B050FA05
5C054AA02
5C054CA04
5C054CC02
5C054FA04
5C054FE17
5C164FA07
5C164FA09
5C164UB88P
5C164VA04S
5C164VA07P
5C164VA36P
5E555AA27
5E555AA64
5E555AA76
5E555BA02
5E555BA03
5E555BA05
5E555BA06
5E555BA18
5E555BA38
5E555BB02
5E555BB03
5E555BB05
5E555BB06
5E555BB18
5E555BB38
5E555BC04
5E555BE17
5E555CA42
5E555CB66
5E555CB74
5E555CC22
5E555DA03
5E555DA08
5E555DB57
5E555DC13
5E555DC52
5E555EA11
5E555EA22
5E555FA00
(57)【要約】
【課題】多拠点で撮影された複数の拠点映像を組み合わせた1つの合成映像を生成して、各拠点間の人や物を1つの合成映像の中で共有すること。
【解決手段】多拠点で撮影された複数の拠点映像を用いた合成映像をユーザに表示する、多拠点空間共有システムであって、各拠点に1つ以上配置し、それぞれ拠点映像を取得する撮影部10と、前記複数の拠点映像のうち1つ以上の拠点映像に対し、任意部分の除去処理を行う加工部20と、前記除去処理後の拠点映像を含む前記複数の拠点映像を合成素材の一部または全部として合成映像を生成する合成部30と、合成映像を表示する表示部40と、を少なくとも具備する。
【選択図】
図1
【特許請求の範囲】
【請求項1】
多拠点で撮影された複数の拠点映像を用いた合成映像をユーザに表示する、多拠点空間共有システムであって、
各拠点に1つ以上配置し、それぞれ拠点映像を取得する、撮影部と、
前記複数の拠点映像のうち1つ以上の拠点映像に対し、任意部分の除去処理を行う、加工部と、
前記除去処理後の拠点映像を含む、前記複数の拠点映像を、合成素材の一部または全部として、合成映像を生成する、合成部と、
前記合成映像を表示する、表示部と、を少なくとも具備することを特徴とする、
多拠点空間共有システム。
【請求項2】
前記除去処理対象の拠点映像のうち少なくとも1つに、深度情報が紐付けられており、
前記加工部は、
前記深度情報が紐付けられた前記除去処理対象の拠点映像に対し、
前記深度情報に基づく除去処理である、デプス系除去処理、および、
色空間情報の値に基づく除去処理である、クロマ系除去処理、
を行うことを特徴とする、
請求項1に記載の多拠点空間共有システム。
【請求項3】
前記合成部による合成素材の一部として使用可能な素材映像を保存する、保存部をさらに具備することを特徴とする、
請求項1に記載の多拠点空間共有システム。
【請求項4】
前記素材映像に、VR空間を提供する仮想映像が含まれることを特徴とする、
請求項3に記載の多拠点空間共有システム。
【請求項5】
前記ユーザの位置情報を計測する、計測部をさらに具備し、
前記合成部は、前記位置情報に基づいて、前記合成映像を生成することを特徴とする、
請求項1に記載の多拠点空間共有システム。
【請求項6】
複数の拠点に、前記表示部および前記複数の撮影部を設けてなり、
前記表示部が、各拠点のユーザが装着する、HMD(ヘッドマウントディスプレイ)であり、
前記複数の撮影部が、
前記HMDに取り付けて当該HMDの前方を撮影し、かつ、深度情報を取得可能な、第1のカメラと、
前記HMDの装着者を撮影する、第2のカメラと、を少なくとも含み、
前記一方の拠点のHMDに表示される合成映像を構成する、前記合成素材として、
前記一方の拠点で撮影される、前記第1のカメラによる拠点映像に対し、任意部分の除去処理を行った拠点映像と、
その他の拠点で撮影される、前記第2のカメラによる拠点映像に対し、任意部分の除去処理を行った拠点映像と、が含まれることを特徴とする、
請求項1に記載の多拠点空間共有システム。
【請求項7】
複数の拠点に1つ以上の前記撮影部を設け、かつ、少なくとも何れか1つの拠点に前記表示部を設けてなり、
前記表示部が、ディスプレイ、モニターまたはプロジェクターであり、
前記表示部を設けた拠点における前記撮影部のうち何れか1つが、前記表示部の表示画面の前方を撮影する、第3のカメラであり、
前記表示部に表示される合成映像を構成する、前記合成素材として、
前記第3のカメラによる拠点映像に対し、任意部分の除去処理を行った拠点映像と、
その他の拠点に設けた前記撮影部における拠点映像または当該拠点映像に対し、任意部分の除去処理を行った拠点映像と、が含まれる
ことを特徴とする、
請求項1に記載の多拠点空間共有システム。
【請求項8】
合成映像生成システムであって、
異なるカメラで撮影された複数の映像データのうち、1つ以上の映像データに対し、任意部分の除去処理を行う、加工部と、
前記除去処理後の映像データを含む、前記複数の映像データを、合成素材の一部または全部として、1つの合成映像データを生成する、合成部と、を少なくとも有し、
前記除去処理対象の映像データのうち少なくとも1つに、深度情報が紐付けられており、
前記加工部は、
前記深度情報が紐付けられた前記除去処理対象の映像データに対し、
前記深度情報に基づく除去処理である、デプス系除去処理、および、
色空間情報の値に基づく除去処理である、クロマ系除去処理、
を行うことを特徴とする、合成映像生成システム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、多拠点で撮影された複数の拠点映像を用いた合成映像をユーザに表示させるための多拠点空間共有システムおよび合成映像生成システムに関する。
【背景技術】
【0002】
出願人は、仮想空間上にユーザ周辺の現実映像を合成してなる拡張仮想空間をユーザに体験させるためのシステムとして、以下の特許文献1,2に示す発明を着想している。
【先行技術文献】
【特許文献】
【0003】
【特許文献1】特許第6717486号公報
【特許文献2】特許第6991494号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
本発明は、上記発明の発展系として、種々の用途に適用可能な多拠点空間共有システムおよび合成映像生成システムを提供することを目的の1つとする。
【課題を解決するための手段】
【0005】
上記課題を解決すべく、本発明では、多拠点で撮影された複数の拠点映像を用いた合成映像をユーザに表示する、多拠点空間共有システムであって、各拠点に1つ以上配置し、それぞれ拠点映像を取得する、撮影部と、前記複数の拠点映像のうち1つ以上の拠点映像に対し、任意部分の除去処理を行う、加工部と、前記除去処理後の拠点映像を含む、前記複数の拠点映像を、合成素材の一部または全部として、合成映像を生成する、合成部と、前記合成映像を表示する、表示部と、を少なくとも具備するよう構成した。
当該構成により、多拠点で撮影された複数の拠点映像を組み合わせた1つの合成映像を生成して、各拠点間の人や物を1つの合成映像の中で共有可能とした。
【発明の効果】
【0006】
本発明によれば、以下に記載する効果のうち、少なくとも何れか1つの効果を奏する。
(1)多拠点で撮影された複数の拠点映像を組み合わせてなる1つの合成映像を生成することで、各拠点の人や物を1つの合成映像の中で共有することができる。
(2)近年メタバースとも呼ばれる仮想空間上に、異なる拠点で撮影された実際のユーザの撮影映像を組み込むことができるため、CGからなるアバターを介したコミュニケーションが必要なく、ユーザ間でのよりリアルなコミュニケーションが可能となる。
(3)ユーザのリアルタイム映像を合成映像に組み込むことができるため、各ユーザが離れた場所にあっても各ユーザ間でコラボレーションしながら作業を行う必要性の高い用途(医療行為、工事作業、教育、その他の製作作業など)等への適用に好適である。
【図面の簡単な説明】
【0007】
【
図1】本発明に係る多拠点空間共有システムの機能ブロック図。
【
図2】本発明に係る多拠点空間共有システムの構成例1を示す機能ブロック図。
【
図3】本発明に係る多拠点空間共有システムの構成例2を示す機能ブロック図。
【
図4】本発明に係る多拠点空間共有システムの構成例3を示す機能ブロック図。
【
図7】デプス系除去処理とクロマ系除去処理の組合せのイメージ図。
【
図8】実施例1に係る多拠点空間共有システムの構成図。
【
図9】実施例1に係る多拠点空間共有システムでの合成映像のイメージ図。
【
図10】実施例2に係る多拠点空間共有システムの構成図。
【
図11】実施例2に係る多拠点空間共有システムでの合成映像のイメージ図。
【発明を実施するための形態】
【0008】
以下、図面を参照しながら、本発明の詳細について説明する。
【0009】
<1>全体構成(
図1)
本発明に係る多拠点空間共有システムは、各拠点で撮影された複数の拠点映像を含んで合成してなる合成映像を、少なくとも一人以上のユーザに表示するためのシステムである。
図1に示す多拠点空間共有システムは、撮影部10、加工部20、合成部30および表示部40を少なくとも具備しており、その他、計測部50および保存部60を具備している。
各部は、ハードウェアおよびソフトウェアを任意に組み合わせて実現することができるほか、各部を個別の装置とする構成や、複数の各部を一つの装置に組み込んで一体化した構成等を採用することができる。
また、本発明において、拠点の数、各部の数、各部の配置場所、各拠点における構成の異同は特段限定しない。
【0010】
次に、
図2~
図4に、本発明に係る多拠点空間共有システムの構成例を示す。
なお、本発明において、各構成例から任意の箇所を取りだして、更に組み合わせた態様を採用することができることは言うまでも無い。
また、各拠点で表示される合成映像は、同一の映像であっても良いし、異なる映像であっても良く、用途に応じて適宜選択することができる。
【0011】
<1.1>構成例1(
図2)
本例は、拠点毎に、各部を全て具備する装置を配置する構成である。
各拠点に設置した装置では、他拠点からの拠点映像を受信して、自拠点の拠点映像とともに、合成素材の一部または全部として合成映像を生成し、自拠点の表示部40に表示することで、ユーザに合成映像を体験させる。
【0012】
<1.2>構成例2(
図3)
本例は、前記構成例1において、加工部20や合成部30を、各拠点とは異なる場所(データセンター等)に設置したサーバで担う構成である。
サーバは、各拠点からの拠点映像を受信して、適宜除去処理を行いつつ各拠点向けの合成映像を生成し、この合成映像を、各拠点の表示部40に送信して、ユーザに合成映像を体験させる。
【0013】
<1.3>構成例3(
図4)
本例は、各拠点での目的に応じて、拠点毎に各部の組合せが異なる構成である。
図4では、一方の拠点(拠点1)では、当該拠点にいる人や物を拠点映像として撮影する撮影部10のみを配置し、他方の拠点(拠点2)では、一方の拠点(拠点1)からの拠点映像を受信して、合成素材の一部または全部として合成映像を生成して拠点2の表示部40に表示し、ユーザに合成映像を体験させる。
【0014】
以下、各部の詳細ならびに演算手順の詳細について説明する。
【0015】
<2>撮影部(
図1)
撮影部10は、合成映像の素材の一部または全部となる、拠点映像を取得するための機能を有する。
撮影部10は、各拠点のうち合成対象の映像を取得する複数の拠点において、各拠点に1つ以上配置するものとする。
【0016】
<2.1>拠点映像の種類
撮影部10は、ノートPC、タブレット、スマートフォンに内蔵されているカメラや、PCとの接続インターフェースを備えたWEBカメラやデジタルカメラ、拠点に常設されている固定式カメラ、ユーザが装着するヘッドマウントディスプレイ(以下、「HMD」ともいう。)の内蔵カメラ、またはHMDに外付けするカメラなどを用いることができる。
また、撮影部10には、デプスカメラや3Dカメラとも呼ばれる、撮影映像に深度情報を紐付けることが可能なカメラを用いることもできる。
また、本発明において、撮影部10の画角等は特段限定しない。
【0017】
<3>計測部(
図1)
計測部50は、ユーザの位置情報を取得する機能を具備する装置である。
この「位置情報」とは、ユーザの姿勢や位置を認識可能な情報を少なくとも含むものであり、この位置情報に基づいて、合成映像の表示を変更することができる。
計測部50は、角度センサ、加速度センサ、ジャイロスコープなどのセンサ群、モーションキャプチャー装置、GPS装置、トラッカー等を用いることができる。
また、計測部50は、拠点に設置するタイプ、ユーザが装着するHMDに内蔵されているタイプ、ユーザの身体に別途装着するタイプ、ユーザが使用するコントローラに内蔵されているタイプなど、あらゆるタイプが含まれる。
【0018】
<4>加工部(
図1)
加工部20は、各撮影部10によって得られる拠点映像のうち、1つ以上の拠点映像に対し、任意部分の除去処理を行って、除去処理後の拠点映像を取得する機能を有する。
この「任意部分の除去処理」とは、拠点映像を構成するフレーム画像に対して、任意の部分を除去して、その余の箇所を抽出する処理である。
本発明において、「任意部分の除去処理」の手法は特段限定しないが、代表的な除去処理として、クロマ系除去処理とデプス系除去処理がある。
以下、各除去処理の詳細について説明する。
【0019】
<4.1>デプス系除去処理(
図5)
デプス系除去処理は、除去処理対象である拠点映像について、当該拠点映像に紐付けられている深度情報の値に基づいた除去を行う処理である。
拠点映像に紐付けられている深度情報は、撮影部10としてデプスカメラを用いた場合において拠点映像に予め埋め込まれているデータや、拠点映像を画像解析して別途生成するデータ、または別途設けた3Dスキャナ等から得られるデータなどを用いることができる。
【0020】
デプス系除去処理の一例としては、拠点映像に対し、該拠点映像の深度情報に基づいて、所定の距離以上の深度情報を有する部分を除去する処理がある。
例えば、撮影部10から、50cm以上の深度情報を有する箇所を除去対象とした場合、除去処理後の拠点映像は、撮影部10から、50cm未満の深度情報を有する箇所の映像のみが抽出されたものとなる。
【0021】
例えば、ユーザが装着したHMDの前方を撮影するデプスカメラを撮影部10として想定した場合、
図5に示すように、拠点映像A1に対しデプス系除去処理を行った除去処理後の拠点映像A2は、当該ユーザの手元Bのみが抽出された映像となる。
【0022】
なお、デプス系除去処理による抽出箇所は、ユーザの身体に限らないため、ユーザが持つコントローラや、ユーザの周辺に存在する物体(椅子、机、梯子、食品等)も含めて抽出することができる。
【0023】
<4.2>クロマ系除去処理(
図6)
クロマ系除去処理は、除去処理対象である拠点映像について、当該拠点映像の色空間情報の値に基づいた除去を行う処理である。
【0024】
クロマ系除去処理は、RGB,RGBA,CMY,HSV,HLSなどの周知の色空間情報に基づき、各色空間で定義される要素および数値範囲の中で所定の範囲を設定することによって、特定の均質色に対応する部分を除去して行う。
例えば、HSV色空間情報を用いてクロマ系除去処理を行う場合、HSV色空間情報は、色相(hue:0°~360°)、彩度(saturation:0%~100%)、明度(value:0%~100%)のパラメータを含んだ情報であり、各パラメータの数値範囲を設定することで、特定の均質色に対応する部分を除去することになる。
【0025】
クロマ系除去処理を実施する際には、予め、拠点に設けた撮影部10の画角に含まれる箇所に、均一色を呈する背景材Cを設置しておくことが望ましい。
【0026】
<4.3>各除去処理の組合せ(
図7)
本発明では、上記した「任意部分の除去処理」の実施内容、実施順、実施回数は特段限定せず、本発明に係るシステムの用途に応じて適宜決定することができる。
なお、
図7に示すように、除去処理対象である1つの拠点映像に対し、デプス系除去処理を行ってから、更にクロマ系除去処理を行うことで、デプス系除去処理では明瞭に除去しきれなかった、ユーザの手指間の隙間や、ユーザの足元周辺の床部分等を、より明瞭に除去することもできる。
【0027】
<5>保存部(
図1)
保存部60は、拠点映像以外の合成素材(以下「素材映像」ともいう)を保存しておく機能を有する。
保存部60で保存される素材映像には、拠点映像とは別に、現実の場所を予め撮影しておいた映像、予め製作されたCG映像、VR空間を提供する仮想映像(VR映像)またはこれらの組合せ映像を用いることができる。
【0028】
<5.1>素材映像の選択
また、各ユーザに体験させる合成映像の生成では、合成映像毎に同一の素材映像を提供しても良いし、異なる素材映像を提供してもよく、本発明に係る多拠点空間共有システムの用途に応じて適宜決定すればよい。
また、本発明は、素材映像に対して、前記した「任意部分の除去処理」を行うことを除外するものでもない。
【0029】
<6>合成部(
図1)
合成部30は、複数の拠点映像を、合成素材の一部または全部として、合成映像を生成する機能を有する。
この「複数の拠点映像」には、撮影部10による拠点映像と、加工部20によって除去処理が施された後の拠点映像の何れもが含まれる。
したがって、全ての拠点映像に対し、除去処理後の拠点映像を合成素材としても良いし、一部の拠点映像は、除去処理後の拠点映像を合成素材とし、その余の拠点映像は、加工部20を経由せずにそのまま合成素材とすることもできる。
また、合成素材には、前記した保存部60に保存されている素材映像を含めることもできる。
合成部30での合成は、単純に各合成素材を重ね合わせても良いし、計測部50から得られる位置情報や、拠点映像等に紐付けられている深度情報等を用いて、素材映像でのVR空間上での位置を計算して合成素材を重ね合わせても良い。
【0030】
<7>表示部(
図1)
表示部40は、合成部30で生成した合成映像を、ユーザに表示する機能を有する。
表示部40は、一般的なディスプレイ、モニター、プロジェクター等に限らず、VR、AR、XR等の空間体験で使用可能な、ヘッドマウントディスプレイやゴーグル、ハウジングに収容してゴーグル化可能なスマートフォンなどの携帯端末などを用いることができる。
【実施例0031】
<1>全体構成(
図8)
図8は、前記した構成例1に係る多拠点空間共有システムを、医療教育の現場で活用した場合の構成イメージ図である。
各拠点には、デプスカメラである第1のカメラX1を備えたヘッドマウントディスプレイY1と、このヘッドマウントディスプレイY1を装着するユーザU1(U2)を撮影する第2のカメラX2と、情報処理装置Zを備えている。
各ヘッドマウントディスプレイY1には、図示しないトラッカーが内蔵されており、ヘッドマウントディスプレイY1の位置から、装着したユーザU1(U2)の位置情報を適宜取得している。
本実施例では、各拠点の第1のカメラX1および第2のカメラX2が、撮影部10として機能し、情報処理装置Zが、少なくとも加工部20、合成部30および保存部60として機能し、ヘッドマウントディスプレイY1が、表示部40および計測部50として機能する構成を呈している。
【0032】
なお、本発明は、上記した
図8に示す構成に替えて、前記した構成例2のように、別途設けたデータセンターに設置されたサーバに、加工部20、合成部30および保存部60の機能を割り当てても良い。
【0033】
次に、拠点1側の合成映像の生成および表示の流れについて説明する。
なお、本発明において、下記の各処理は、動作に矛盾のない範囲で順番を入れ換えたり、並行実施したりすることができる。
(1)第1のカメラX1で撮影された拠点映像は、拠点1の情報処理装置Zに送られ、当該情報処理装置Z内で、任意部分の除去処理(本例では、デプス系除去処理およびクロマ系除去処理)が施され、ユーザU1の周辺のみが抽出された、除去処理後の拠点映像を生成し、合成素材とする。
(2)次に、拠点1の情報処理装置Zでは、拠点2の第2のカメラX2で撮影された拠点映像を、拠点2の情報処理装置Zを介して受信する。本実施例では、第2のカメラX2に係る撮影映像には深度情報が紐付けられていないことから、第2のカメラX2で撮影された拠点映像にはクロマ系除去処理のみを施して、ユーザU2を抽出した除去処理後の拠点映像を生成し、合成素材とする。
(3)さらに、拠点1の情報処理装置Zには、手術台に乗せられた患者を表示する仮想空間の映像が、合成素材として保存されている。
(4)拠点1の情報処理装置Zでは、前記(1)(2)(3)の合成素材を適宜組み合わせて、合成映像を生成する。このとき、前記(2)の除去処理後の拠点映像には深度情報が紐付けられていないため、(3)の仮想空間の映像上に予め仮想表示枠を設けておき、この仮想表示枠に前記(2)の除去処理後の拠点映像を合成するものとする。
(5)拠点1の情報処理装置Zで生成された合成映像は、ユーザU1の位置情報に基づいて表示態様を変更するように、ユーザU1が装着するヘッドマウントディスプレイY1で表示される。
【0034】
<2>合成映像例(
図9)
本実施例に係る多拠点空間共有システムにおいて、各ユーザのヘッドマウントディスプレイY1に表示される合成映像のイメージ図を
図9に示す。
【0035】
<2.1>拠点1側の合成映像
図9(a)は、拠点1のユーザU1が視認する合成映像のイメージ図である。
この合成映像では、前記(3)に係る、手術台と、手術台に乗せられた患者を表示する仮想空間の映像からなる素材映像Dと、仮想空間上の手術台を挟んで手前側に、前記(1)に係る、除去処理後の拠点映像に含まれるユーザU1の周辺映像が合成され、さらに、前記手術台を挟んで奥側に、仮想的に配置した仮想表示枠D1に、前記(2)に係る除去処理後の拠点映像に含まれる、ユーザU2の映像が合成されている。
また、ユーザU1が手術台に近づくように移動すると、ユーザU1のヘッドマウントディスプレイY1から得られる位置情報に基づいて合成映像も手術台に接近した位置にユーザU1が移動するように表示が変更される。
【0036】
<2.2>拠点2側の合成映像
図9(b)は、拠点2のユーザU2が視認する合成映像のイメージ図である。
この合成映像では、素材映像Dの手術台を挟んで奥側に、拠点1の第2のカメラX2からなる、除去処理後の拠点映像が、仮想表示枠D1上に合成されている。
また、素材映像Dの手術台を挟んで手前側には、ユーザU2の周辺映像が合成されることになるが、ユーザU2は両手を上げており、第1のカメラX1の画角内に両手が映らない状態であるため、合成映像上にはユーザU2の手元は表示されていない。
【0037】
<3>補足説明
上記説明では、素材映像である仮想空間上に手術台と患者を用意しているが、例えば、何れかの拠点に、実物の手術台と患者の模型を用意した態様とすることができる。
例えば、拠点1側に実物模型を用意した場合には、以下の方法等を採用することができる。
(方法1)拠点1側の第1のカメラX1で、実物の手術台と患者の模型を撮影し、デプス系除去処理で抽出対象とする距離を長めにして、第1のカメラX1に基づく除去処理後の拠点映像内に実物の手術台と患者の模型を含める方法。
(方法2)拠点1側の第2のカメラX2でもって実物の手術台と患者の模型を撮影した映像を、拠点2側に送信するだけでなく、拠点1側の合成映像の素材映像として利用する方法。
【0038】
<4>まとめ
以上説明した構成によれば、遠隔地にいるユーザ間で、1つの空間を共有しつつ、合成映像の中で自分の手元や周辺領域、および相手の姿を現実映像で認識することができることになる。したがって、本実施例で説明した医療教育のように、各人の行動を互いに確認しあう必要性の高い用途に好適である。