(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024158889
(43)【公開日】2024-11-08
(54)【発明の名称】空間連結システム及び空間連結方法
(51)【国際特許分類】
G06T 19/00 20110101AFI20241031BHJP
G06F 3/01 20060101ALI20241031BHJP
【FI】
G06T19/00 600
G06F3/01 510
【審査請求】有
【請求項の数】12
【出願形態】OL
(21)【出願番号】P 2023074506
(22)【出願日】2023-04-28
(71)【出願人】
【識別番号】000003207
【氏名又は名称】トヨタ自動車株式会社
(74)【代理人】
【識別番号】110003199
【氏名又は名称】弁理士法人高田・高橋国際特許事務所
(72)【発明者】
【氏名】小堀 訓成
【テーマコード(参考)】
5B050
5E555
【Fターム(参考)】
5B050AA08
5B050BA06
5B050BA09
5B050BA11
5B050BA12
5B050BA13
5B050CA01
5B050DA01
5B050EA19
5B050EA26
5B050FA02
5E555AA27
5E555AA61
5E555AA64
5E555BA02
5E555BA29
5E555BB02
5E555BB29
5E555BC04
5E555BD07
5E555BE17
5E555CA42
5E555CB82
5E555CC05
5E555DA03
5E555DB32
5E555DB51
5E555DC19
5E555EA22
5E555FA00
(57)【要約】
【課題】実空間内の実人物の移動に連動するように実空間と仮想空間とを結びつけること。
【解決手段】空間連結システムは、実空間と仮想空間とを結びつける。実空間内の実位置と仮想空間内の仮想位置は互いに対応付けられる。第1実位置は、実空間内の実人物の実位置、あるいは、実人物に追従して移動するスクリーンの実位置である。第1仮想位置は、第1実位置に対応付けられ、第1実位置に連動して変化する仮想位置である。空間連結システムは、仮想空間内の第1仮想位置に、仮想空間内の仮想人物によってアクセス可能なアクセスポイントを配置する。更に、空間連結システムは、実空間内のスクリーンに、仮想人物の情報あるいはアクセスポイントの周辺の仮想空間の画像を表示あるいは投影する。
【選択図】
図4
【特許請求の範囲】
【請求項1】
実空間と仮想空間とを結びつける空間連結システムであって、
前記実空間内の実位置と前記仮想空間内の仮想位置は互いに対応付けられ、
前記空間連結システムは、1又は複数のプロセッサを備え、
前記1又は複数のプロセッサは、
前記実空間内の実人物の前記実位置、あるいは、前記実人物に追従して移動するスクリーンの前記実位置である第1実位置を取得し、
前記第1実位置に対応付けられ前記第1実位置に連動して変化する前記仮想位置である第1仮想位置を取得し、
前記仮想空間内の前記第1仮想位置に、前記仮想空間内の仮想人物によってアクセス可能なアクセスポイントを配置し、
前記実空間内の前記スクリーンに、前記仮想人物の情報あるいは前記アクセスポイントの周辺の前記仮想空間の画像を表示あるいは投影する
ように構成された
空間連結システム。
【請求項2】
請求項1に記載の空間連結システムであって、
前記アクセスポイントは、前記実人物の情報、あるいは、前記第1実位置の周辺の前記実空間の画像を示す
空間連結システム。
【請求項3】
請求項2に記載の空間連結システムであって、
前記仮想人物による前記アクセスポイントへのアクセスに応答して、前記1又は複数のプロセッサは、前記実人物と前記仮想人物とがコミュケーションを行うことができるように、前記仮想人物の前記情報を前記スクリーンに表示あるいは投影する
空間連結システム。
【請求項4】
請求項2に記載の空間連結システムであって、
前記1又は複数のプロセッサは、前記アクセスポイントの周辺の前記仮想空間の前記画像を前記スクリーンに表示あるいは投影し、
前記実人物が前記スクリーン上の前記画像に映っている前記仮想人物を指定した場合、前記1又は複数のプロセッサは、前記実人物と前記仮想人物とがコミュケーションを行うことができるように、指定された前記仮想人物の前記情報を前記スクリーンに表示あるいは投影する
空間連結システム。
【請求項5】
請求項2に記載の空間連結システムであって、
前記第1実位置は、前記実空間における前記実人物の前記実位置であり、
前記第1仮想位置は、前記実空間における前記実人物の前記実位置に対応付けられた前記仮想位置であり、
前記アクセスポイントは、前記実人物のアバターであり、
前記1又は複数のプロセッサは、前記仮想空間内の前記第1仮想位置に前記実人物の前記アバターを配置する
空間連結システム。
【請求項6】
請求項5に記載の空間連結システムであって、
前記1又は複数のプロセッサは、更に、
前記実空間における前記実人物の姿勢の情報を取得し、
前記実人物の前記アバターに前記姿勢を適用する
空間連結システム。
【請求項7】
請求項2に記載の空間連結システムであって、
前記アクセスポイントは、仮想スクリーンであり、
前記1又は複数のプロセッサは、
前記第1実位置の周辺の前記実空間の前記画像を前記仮想空間内の前記仮想スクリーンに表示あるいは投影し、
前記仮想スクリーンの周辺の前記仮想空間の前記画像を前記実空間内の前記スクリーンに表示あるいは投影する
空間連結システム。
【請求項8】
請求項1乃至7のいずれか一項に記載の空間連結システムであって、
前記1又は複数のプロセッサは、更に、前記実空間内の前記実人物に追従して移動する追従物体を制御し、
前記スクリーンは、前記追従物体に追従するように設けられる
空間連結システム。
【請求項9】
請求項8に記載の空間連結システムであって、
前記追従物体はプロジェクタを備え、
前記1又は複数のプロセッサは、前記プロジェクタを制御することによって、前記仮想人物の前記情報あるいは前記アクセスポイントの周辺の前記仮想空間の前記画像を前記スクリーンに投影する
空間連結システム。
【請求項10】
請求項8に記載の空間連結システムであって、
前記追従物体はドローンである
空間連結システム。
【請求項11】
請求項10に記載の空間連結システムであって、
前記スクリーンは、前記ドローンから噴射されるミストによって形成されるミストスクリーンであり、
前記ミストスクリーンは、前記実人物の周囲を覆うように形成される
空間連結システム。
【請求項12】
コンピュータにより実行され、実空間と仮想空間とを結びつける空間連結方法であって、
前記実空間内の実位置と前記仮想空間内の仮想位置は互いに対応付けられ、
前記空間連結方法は、
前記実空間内の実人物の前記実位置、あるいは、前記実人物に追従して移動するスクリーンの前記実位置である第1実位置を取得することと、
前記第1実位置に対応付けられ前記第1実位置に連動して変化する前記仮想位置である第1仮想位置を取得することと、
前記仮想空間内の前記第1仮想位置に、前記仮想空間内の仮想人物によってアクセス可能なアクセスポイントを配置することと、
前記実空間内の前記スクリーンに、前記仮想人物の情報あるいは前記アクセスポイントの周辺の前記仮想空間の画像を表示あるいは投影することと
を含む
空間連結方法。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、実空間と仮想空間とを結びつける技術に関する。
【背景技術】
【0002】
特許文献1は、ネットワークに接続された複数の端末が仮想空間を共有するコミュニケーションシステムを開示している。実空間において、所定エリア毎にエリア端末が設置される。エリア端末には、仮想エリア内の仮想キャラクタの映像が表示される。一方、仮想エリアには仮想ディスプレイが設置される。仮想ディスプレイには、実空間ユーザの映像が表示される。
【先行技術文献】
【特許文献】
【0003】
【発明の概要】
【発明が解決しようとする課題】
【0004】
実空間と仮想空間とを結びつけることはコミュニケーションやビジネス等の促進において重要である。ここで、実空間内の実人物が、所定位置に設置されたデバイスを用いるのではなく、自由に移動しながら自身の移動と連動するように仮想空間を体験したいと望む可能性がある。
【0005】
本開示の1つの目的は、実空間内の実人物の移動に連動するように実空間と仮想空間とを結びつけることができる技術を提供することにある。
【課題を解決するための手段】
【0006】
第1の観点は、実空間と仮想空間とを結びつける空間連結システムに関連する。
実空間内の実位置と仮想空間内の仮想位置は互いに対応付けられる。
空間連結システムは、1又は複数のプロセッサを備える。
1又は複数のプロセッサは、実空間内の実人物の実位置、あるいは、実人物に追従して移動するスクリーンの実位置である第1実位置を取得する。
1又は複数のプロセッサは、第1実位置に対応付けられ第1実位置に連動して変化する仮想位置である第1仮想位置を取得する。
1又は複数のプロセッサは、仮想空間内の第1仮想位置に、仮想空間内の仮想人物によってアクセス可能なアクセスポイントを配置する。
1又は複数のプロセッサは、実空間内のスクリーンに、仮想人物の情報あるいはアクセスポイントの周辺の仮想空間の画像を表示あるいは投影する。
【0007】
第2の観点は、コンピュータにより実行され、実空間と仮想空間とを結びつける空間連結方法に関連する。
実空間内の実位置と仮想空間内の仮想位置は互いに対応付けられる。
空間連結方法は、
実空間内の実人物の実位置、あるいは、実人物に追従して移動するスクリーンの実位置である第1実位置を取得することと、
第1実位置に対応付けられ第1実位置に連動して変化する仮想位置である第1仮想位置を取得することと、
仮想空間内の第1仮想位置に、仮想空間内の仮想人物によってアクセス可能なアクセスポイントを配置することと、
実空間内のスクリーンに、仮想人物の情報あるいはアクセスポイントの周辺の仮想空間の画像を表示あるいは投影することと
を含む。
【発明の効果】
【0008】
本開示によれば、実空間の実位置と仮想空間内の仮想位置が互いに対応付けられる。また、実空間には実人物に追従して移動するスクリーンが設けられる。一方、実人物あるいはスクリーンの実位置に対応付けられた第1仮想位置には、仮想人物によってアクセス可能なアクセスポイントが配置される。実空間内のスクリーンには、仮想人物の情報、あるいは、アクセスポイントの周辺の仮想空間20の画像が表示あるいは投影される。実空間内で実人物が移動すると、それに連動して仮想空間内でアクセスポイントも移動する。そして、仮想空間内でアクセスポイントが移動すると、それに連動して、実空間内のスクリーンに表示あるいは投影される情報も変化する。このように、実空間内の実人物の移動に連動するように実空間と仮想空間とが結びつけられる。これにより、実人物は、自分自身があたかも仮想空間内を実際に移動しているような感覚を得ることができる。すなわち、実人物は、所定位置に設置されたデバイスを用いることなく、自由に移動しながら自身の移動と連動するように仮想空間を体験することが可能となる。
【図面の簡単な説明】
【0009】
【
図1】実空間と仮想空間の一例を説明するための概念図である。
【
図2】実空間と仮想空間の連結の一例を説明するための概念図である。
【
図3】実空間と仮想空間の連結の一例を説明するための概念図である。
【
図4】空間連結システムの構成例を示す概略図である。
【
図5】実空間における実人物の周囲の構成の第1の例を示す概略図である。
【
図6】実空間における実人物の周囲の構成の第2の例を示す概略図である。
【
図7】実空間における実人物の周囲の構成の第3の例を示す概略図である。
【
図8】空間連結システムに含まれる情報処理システムの構成例を示すブロック図である。
【
図9】仮想空間に配置されるアクセスポイントの第1の例を説明するための概念図である。
【
図10】仮想空間に配置されるアクセスポイントの第2の例を説明するための概念図である。
【
図11】情報処理システムによる処理例を示すフローチャートである。
【発明を実施するための形態】
【0010】
添付図面を参照して、本開示の実施の形態を説明する。
【0011】
1.実空間と仮想空間の連結の例
図1は、実空間10と仮想空間20の一例を説明するための概念図である。実空間10内に、あるエリアAR0が存在する。例えば、エリアAR0は、一つの街、一つの建物、等である。そのエリアAR0が、DigitalTwin技術等によって仮想空間20内に再現される。その一方で、実空間10においてエリアAR0から離れた位置にエリアAR1が存在している。エリアAR1は屋外であってもよいし屋内であってもよい。エリアAR1内の実人物11は、仮想空間20を体験することによって、離れたエリアAR0を間接的に体験することができる。
【0012】
ここで、実人物11(ユーザ)は、自分自身があたかも仮想空間20内を実際に移動しているような感覚を得たいと望む可能性がある。言い換えれば、実人物11が、所定位置に設置されたデバイスを用いるのではなく、自由に移動しながら自身の移動と連動するように仮想空間20を体験したいと望む可能性がある。このようなニーズに応えるために、本実施の形態は、実空間10内の実人物11の移動に連動するように実空間10と仮想空間20とを結びつけることができる技術を提供する。
【0013】
図2は、実空間10と仮想空間20の連結の一例を説明するための概念図である。
【0014】
実空間10において、ドローン12Aが実人物11の近くを飛んでおり、また、実人物11に追従して移動する。ドローン12Aは、水タンクを搭載しており、ミストを噴射することによってミストスクリーン13Aを形成する。ミストスクリーンは、周知技術であり、例えば“https://www.seiko-giken.jp/solution/screen”に開示されている。ドローン12Aは、回転を利用することによって円錐状のミストスクリーン13Aを安定的に形成することができる。特に、ドローン12Aは、実人物11の周囲を覆うように円錐状のミストスクリーン13Aを形成する。このようなミストスクリーン13Aによって、実人物11専用の空間が形成される。実人物11が移動すると、ドローン12Aが実人物11に追従して移動するため、ミストスクリーン13Aも実人物11に追従して移動する。
【0015】
以下の説明において、「実位置」は実空間10内の位置を意味し、「仮想位置」は仮想空間20内の位置を意味する。実空間10内の実位置と仮想空間20内の仮想位置とは予め互いに対応付けられる。「第1実位置」は、実人物11の実位置である。「第1仮想位置」は、第1実位置に対応付けられた仮想位置である。よって、第1実位置が変化すると、第1実位置に連動して第1仮想位置も変化する。
【0016】
仮想空間20内の第1仮想位置には、実人物11のアバター23Aが配置される。実人物11の表情や姿勢がアバター23Aに反映されてもよい。第1実位置と第1仮想位置が対応付けられているため、実空間10内で実人物11が移動すると、それに連動して仮想空間20内で実人物11のアバター23Aも移動する。
【0017】
ドローン12Aにはプロジェクタ15Aが搭載されている。プロジェクタ15Aは、ミストスクリーン13Aの内側からミストスクリーン13Aに向けて画像(映像)を投影することができる。ミストスクリーン13Aに投影される画像は、仮想空間20内のアバター23Aの周囲の画像である。好適には、ミストスクリーン13Aに投影される画像は、アバター23Aの目線から見た仮想空間20の画像である。
【0018】
実空間10内で実人物11が移動すると、それに連動して仮想空間20内で実人物11のアバター23Aも移動する。仮想空間20内でアバター23Aが移動すると、それに連動して、実人物11の周囲のミストスクリーン13Aに投影される仮想空間20の画像も変化する。これにより、実人物11は、自分自身があたかも仮想空間20内を実際に移動しているような感覚を得ることができる。すなわち、実人物11は、所定位置に設置されたデバイスを用いることなく、自由に移動しながら自身の移動と連動するように仮想空間20を体験することが可能となる。
【0019】
図3は、実空間10内の実人物11と仮想空間20内の仮想人物21との間のコミュニケーションを説明するための概念図である。仮想空間20内には、実人物11のアバター23Aの他にも多くの仮想人物21(アバター)が存在している。仮想空間20内の実人物11のアバター23Aは、コミュニケーションの“起点”となり得る。
【0020】
例えば、仮想人物21側がコミュケーションのきっかけを与える。具体的には、仮想空間20において、仮想人物21が実人物11のアバター23Aにアクセスする。そのアクセスに応答して、アバター23Aにアクセスした仮想人物21の情報が、実空間10内の実人物11の周囲のミストスクリーン13Aに投影される。典型的には、仮想人物21の画像がミストスクリーン13Aに投影される。そして、実人物11と仮想人物21はコミュニケーションを開始する。コミュニケーションは音声により行われてもよいし、テキストにより行われてもよい。
【0021】
他の例として、実人物11側がコミュニケーションのきっかけを与えてもよい。具体的には、ミストスクリーン13Aに投影される画像には、仮想空間20内のアバター23Aの周辺の1以上の仮想人物21が映っている。実人物11は、ミストスクリーン13A上の画像に映っている仮想人物21のうちいずれか一人をコミュニケーション相手として指定する。コミュニケーション相手を指定する際、実人物11は、ミストスクリーン13A上の仮想人物21をタッチしてもよいし、指差してもよい。指定された仮想人物21には、指定された旨が通知される。そして、実人物11と仮想人物21はコミュニケーションを開始する。コミュニケーションは音声により行われてもよいし、テキストにより行われてもよい。
【0022】
以上に説明されたように、本実施の形態によれば、実空間10内の実人物11の移動に連動するように実空間10と仮想空間20とが結びつけられる。これにより、実人物11は、所定位置に設置されたデバイスを用いることなく、自由に移動しながら自身の移動と連動するように仮想空間20を体験することが可能となる。
【0023】
図2及び
図3で示された例では、仮想空間20内のアバター23Aによって実人物11が再現され、一方、実空間10内のミストスクリーン13Aにおいて仮想空間20あるいは仮想人物21が再現される。その意味で、実空間10と仮想空間20が部分的に重畳していると言うこともできる。実空間10と仮想空間20とが重畳している部分は、実人物11と仮想人物21との間のコミュニケーションの窓口となる。言い換えれば、実人物11と仮想人物21は、実空間10と仮想空間20とが重畳している部分を介して互いにコミュニケーションを行うことが可能となる。
【0024】
尚、
図2及び
図3で示された例は、実空間10と仮想空間20の連結の一例に過ぎない。実空間10と仮想空間20の連結の様々な例は後述される。また、仮想空間20は、必ずしも現実世界のエリアAR0を表していなくてもよい。仮想空間20は、架空の世界を表していてもよい。
【0025】
以下、実空間10と仮想空間20とを結びつける「空間連結システム1」について詳しく説明する。
【0026】
2.空間連結システム
図4は、本実施の形態に係る空間連結システム1の構成例を示す概略図である。空間連結システム1は、実空間10と仮想空間20とを結びつける。実空間10と仮想空間20とを結びつけることはコミュニケーション、ビジネス、等の促進に寄与する。
【0027】
2-1.実人物の周囲の構成
空間連結システム1は、実空間10内の追従物体12、スクリーン13、カメラ14、プロジェクタ15、スピーカ16、及びマイク17を含んでいる。追従物体12は、実人物11に追従するように構成される。スクリーン13は、追従物体12に追従するように設けられる。結果として、スクリーン13は、実人物11に追従して移動する。カメラ14は、実人物11やその周囲の画像を撮影する。プロジェクタ15は、スクリーン13に各種画像を投影することができるように設置される。スピーカ16は、実人物11に向けて各種音声を出力する。マイク17は、実人物11の音声を検出する。
【0028】
以下、実人物11の周囲の構成の様々な具体例を説明する。
【0029】
2-1-1.第1の例
図5は、実人物11の周囲の構成の第1の例を示す概略図である。追従物体12は、ドローン12Aである。スクリーン13は、ミストスクリーン13Aである。カメラ14は、ドローン12Aに搭載されドローン12Aの周囲の状況を撮影するカメラ14Aを含んでいる。また、カメラ14は、インフラカメラ14Dを含んでいてもよい。プロジェクタ15は、ドローン12Aに搭載されたプロジェクタ15Aである。スピーカ16は、ドローン12Aに搭載された指向性スピーカ16Aを含んでいる。マイク17は、ドローン12Aに搭載された指向性マイク17Aを含んでいる。また、実人物11がスピーカ16及びマイク17を含むヘッドセット18を装着していてもよい。
【0030】
ドローン12Aは、自己位置推定機能を備えている。ドローン12Aは、GNSS(Global Navigation Satellite System)を利用することによって自己位置を推定してもよい。ドローン12Aは、自律飛行可能に構成されていてもよい。
【0031】
ドローン12Aは、実人物11に追従して移動する。例えば、ドローン12Aは、カメラ14Aによって撮影されるカメラ画像を取得する。追従対象の実人物11の画像であるターゲット画像は予め登録される。ドローン12Aは、ターゲット画像に基づいて、カメラ画像の中に映っている実人物11を認識する。人物認識には機械学習モデルが利用される。ドローン12Aは、カメラ画像の中で認識した実人物11を追跡することによって、実人物11に追従することができる。
【0032】
他の例として、ドローン12Aは、実人物11の絶対位置の情報を取得してもよい。実人物11の絶対位置の情報は、ドローン12Aの外部の外部装置から提供されてもよい。ドローン12Aは、自己位置推定機能により得られた自己位置と実人物11の絶対位置に基づいて、実人物11に追従することができる。
【0033】
ミストスクリーン13Aは、ドローン12Aから噴射されるミストによって形成される(
図2,
図3参照)。よって、ミストスクリーン13Aは、ドローン12Aに追従して移動する。ドローン12Aは、回転を利用することによって円錐状のミストスクリーン13Aを安定的に形成することができる。特に、ドローン12Aは、実人物11の周囲を覆うように円錐状のミストスクリーン13Aを形成する。このようなミストスクリーン13Aによって、実人物11専用の空間が形成される。
【0034】
プロジェクタ15Aは、ミストスクリーン13Aの内側からミストスクリーン13Aに向けて画像(映像)を投影する。
【0035】
指向性スピーカ16Aは、例えば、超音波を利用した極小領域オーディオスポット技術(http://www.activeforall.jp/project/project02/)により実現される。
【0036】
2-1-2.第2の例
図6は、実人物11の周囲の構成の第2の例を示す概略図である。スクリーン13とプロジェクタ15以外は、上述の第1の例の場合と同様である。上述の第1の例と重複する説明は適宜省略される。
【0037】
第2の例において、スクリーン13は、ドローン12Aにぶら下がっているスクリーン13Bである。ドローン12Aにぶら下がっているため、スクリーン13Bはドローン12Aに追従して移動する。
【0038】
例えば、スクリーン13Bは、ドローン12Aにぶら下がる布製のスクリーンである。この場合、ドローン12Aに搭載されたプロジェクタ15Bが、スクリーン13Bに画像(映像)を投影する。
【0039】
他の例として、スクリーン13Bは、表示装置の画面であってもよい。表示装置としては、液晶ディスプレイ、有機ELディスプレイ、等が例示される。表示装置は、タッチパネルであってもよい。表示装置は、スクリーン13B(画面)に画像(映像)を表示する。この場合、プロジェクタ15Bは不要である。
【0040】
2-1-3.第3の例
図7は、実人物11の周囲の構成の第3の例を示す概略図である。追従物体12は、ロボット12Cである。スクリーン13は、ロボット12Cに設置されているスクリーン13Cである。カメラ14は、ロボット12Cに搭載されロボット12Cの周囲の状況を撮影するカメラ14Cを含んでいる。また、カメラ14は、インフラカメラ14Dを含んでいてもよい。プロジェクタ15は、ロボット12Cに搭載されたプロジェクタ15Cである。スピーカ16は、ロボット12Cに搭載された指向性スピーカ16Cを含んでいる。マイク17は、ロボット12Cに搭載された指向性マイク17Cを含んでいる。また、実人物11がスピーカ16及びマイク17を含むヘッドセット18を装着していてもよい。
【0041】
ロボット12Cは、自己位置推定機能を備えている。ロボット12Cは、GNSSを利用することによって自己位置を推定してもよい。ロボット12Cは、自律走行可能に構成されていてもよい。
【0042】
ロボット12Cは、実人物11に追従して移動する。例えば、ロボット12Cは、カメラ14Cによって撮影されるカメラ画像を取得する。追従対象の実人物11の画像であるターゲット画像は予め登録される。ロボット12Cは、ターゲット画像に基づいて、カメラ画像の中に映っている実人物11を認識する。人物認識には機械学習モデルが利用される。ロボット12Cは、カメラ画像の中で認識した実人物11を追跡することによって、実人物11に追従することができる。
【0043】
他の例として、ロボット12Cは、実人物11の絶対位置の情報を取得してもよい。実人物11の絶対位置の情報は、ロボット12Cの外部の外部装置から提供されてもよい。ロボット12Cは、自己位置推定機能により得られた自己位置と実人物11の絶対位置に基づいて、実人物11に追従することができる。
【0044】
スクリーン13Cは、ロボット12Cに設置されているため、ロボット12Cに追従して移動する。例えば、スクリーン13Cは、表示装置の画面である。表示装置としては、液晶ディスプレイ、有機ELディスプレイ、等が例示される。表示装置は、タッチパネルであってもよい。表示装置は、スクリーン13C(画面)に画像(映像)を表示する。
【0045】
他の例として、スクリーン13Cは、ロボット12Cの上部に立てられたスクリーンである。この場合、ロボット12Cに搭載されたプロジェクタ15Cが、スクリーン13Cに画像(映像)を投影する。
【0046】
2-1-4.第4の例
第4の例において、追従物体12は、実人物11によって携帯される端末(例:スマートフォン)である。実人物11によって携帯される端末は、自動的に実人物11に追従して移動する。スクリーン13は、端末の表示装置の画面である。カメラ14、スピーカ16、及びマイク17は、端末に搭載されている。また、端末は、GNSS等を利用して自己位置情報を取得する。
【0047】
2-2.情報処理システム
図4に示されるように、空間連結システム1は、更に、各種情報処理を実行する情報処理システム100を含んでいる。
【0048】
2-2-1.概要
情報処理システム100は、実空間10内の追従物体12、スクリーン13、カメラ14、プロジェクタ15、スピーカ16、及びマイク17と直接的あるいは間接的に通信を行う。更に、情報処理システム100は、実空間10内の追従物体12、スクリーン13、カメラ14、プロジェクタ15、スピーカ16、及びマイク17を直接的あるいは間接的に制御する。
【0049】
例えば、情報処理システム100は、追従物体12を制御する。情報処理システム100は、追従物体12に搭載された制御装置を含んでいてもよい。つまり、情報処理システム100の少なくとも一部は追従物体12に含まれていてもよい。スクリーン13が追従物体12に設置されている場合、情報処理システム100は、追従物体12を制御することによって間接的にスクリーン13を制御してもよい。カメラ14が追従物体12に搭載されている場合、情報処理システム100は、追従物体12を制御することによって間接的にカメラ14を制御し、また、カメラ14によって取得されたカメラ画像を追従物体12を介して取得してもよい。プロジェクタ15が追従物体12に搭載されている場合、情報処理システム100は、追従物体12を制御することによって間接的にプロジェクタ15を制御してもよい。スピーカ16が追従物体12に搭載されている場合、情報処理システム100は、追従物体12を制御することによって間接的にスピーカ16を制御してもよい。マイク17が追従物体12に搭載されている場合、情報処理システム100は、追従物体12を制御することによって間接的にマイク17を制御し、また、マイク17によって検出された音声情報を追従物体12を介して取得してもよい。
【0050】
また、情報処理システム100は、仮想空間シミュレーションシステム200を含んでいる。仮想空間シミュレーションシステム200は、仮想空間20のシミュレーションを行う。
【0051】
仮想空間20は、例えば、実空間10内のエリアAR0を再現するように構成される(
図1参照)。例えば、エリアAR0は、一つの街、一つの建物、等である。エリアAR0には、エリアAR0の状況を検出するためのセンサ群300が配置されている。エリアAR0の状況は、エリアAR0内に存在する人々や移動体の状況を含む。仮想空間シミュレーションシステム200は、センサ群300と通信を行い、センサ群300によって検出されるエリアAR0の状況に関する情報を取得する。そして、仮想空間シミュレーションシステム200は、DigitalTwin技術によって、仮想空間20内にエリアAR0を再現する。
【0052】
尚、仮想空間20は、必ずしも現実世界のエリアAR0を表していなくてもよい。仮想空間20は、架空の世界を表していてもよい。
【0053】
ユーザデバイス400は、実人物11とは異なる他のユーザが仮想空間20に参加するために使用するデバイスである。ユーザデバイス400としては、PCやスマートフォン等のユーザ端末が例示される。ユーザデバイス400は、ウェラブルデバイスであってもよい。ユーザデバイス400は、入力装置及び出力装置を備えている。入力装置としては、キーボード、タッチパネル、マウス、マイク、等が例示される。出力装置としては、表示装置、スピーカ、等が例示される。ユーザは、ユーザデバイス400の入力装置を操作することによって、自身の分身である仮想人物21を仮想空間20内に設定する。仮想人物21は、ユーザのアバターであってもよい。また、ユーザは、ユーザデバイス400の入力装置を操作することによって、仮想空間20内において仮想人物21を動作させる。マイクは、ユーザの音声を検出する。表示装置は、ユーザに対して各種情報を提示する。スピーカは、ユーザに向けて各種音声を出力する。
【0054】
仮想空間シミュレーションシステム200は、ユーザデバイス400と通信を行う。そして、仮想空間シミュレーションシステム200は、ユーザがユーザデバイス400の入力装置に入力した情報を仮想空間20に反映させる。また、仮想空間シミュレーションシステム200は、ユーザデバイス400の出力装置から仮想空間20に関する各種情報を出力する。
【0055】
2-2-2.構成例
図8は、情報処理システム100の構成例を示すブロック図である。情報処理システム100は、1又は複数のプロセッサ101(以下、単にプロセッサ101と呼ぶ)、1又は複数の記憶装置102(以下、単に記憶装置102と呼ぶ)、及びインタフェース103を含んでいる。プロセッサ101は、各種処理を実行する。例えば、プロセッサ101は、CPU(Central Processing Unit)を含んでいる。記憶装置102は、各種情報を格納する。記憶装置102としては、揮発性メモリ、不揮発性メモリ、HDD(Hard Disk Drive)、SSD(Solid State Drive)、等が例示される。インタフェース103は、各種構成(追従物体12、スクリーン13、カメラ14、プロジェクタ15、スピーカ16、マイク17、センサ群300、ユーザデバイス400、等)と通信を行うためのインタフェースである。プロセッサ101は、インタフェース103を介して各種構成と通信を行うことができる。
【0056】
制御プログラム104は、プロセッサ101によって実行されるコンピュータプログラムである。制御プログラム104を実行するプロセッサ101と記憶装置102の協働により、情報処理システム100の機能が実現される。制御プログラム104は、記憶装置102に格納される。あるいは、制御プログラム104は、コンピュータ読み取り可能な記録媒体に記録されてもよい。制御プログラム104は、ネットワーク経由で提供されてもよい。
【0057】
記憶装置102には、実空間10に関する実空間情報110、仮想空間20に関する仮想空間情報120、及び位置対応情報130が格納される。位置対応情報130は、実空間10内の実位置と仮想空間20内の仮想位置との間の予め決められた対応関係を示す。
【0058】
実空間情報110は、実人物情報111、追従物体情報112、スクリーン情報113、画像114、及びプロジェクタ情報115を含んでいる。画像114は、カメラ14によって撮影される。カメラ14は、追従物体12に搭載されたカメラ14(14A、14C:
図5~
図7参照)と、インフラカメラ14Dを含んでいる。
【0059】
実人物情報111は、実人物11に関する情報である。例えば、実人物情報111は、実人物11の登録情報を含んでいる。例えば、登録情報は、実人物11のID情報、実人物11の画像であるターゲット画像、実人物11のアバター23Aの情報、等を含んでいる。実人物11は、端末(図示されない)を操作して登録情報を予め情報処理システム100に登録してもよい。
【0060】
また、実人物情報111は、実人物11の位置(絶対位置)、進行方向、姿勢等を示す状態情報を含んでいる。例えば、追従物体12に搭載されたカメラ14によって、実人物11を含む範囲の画像114が撮影される。また、追従物体12は、自己位置推定機能によって自己位置を推定する。プロセッサ101は、カメラ14によって撮影された画像114と追従物体12の位置情報を取得する。プロセッサ101は、予め登録されたターゲット画像に基づいて、画像114の中に映っている実人物11を認識する。人物認識には機械学習モデルが利用される。プロセッサ101は、追従物体12の位置(絶対位置)と実人物11の認識結果を組み合わせることによって、実人物11の位置(絶対位置)を算出する。また、プロセッサ101は、実人物11の位置の履歴から実人物11の進行方向を算出する。更に、プロセッサ101は、画像114の中の実人物11の認識結果に基づいて実人物11の姿勢を認識する。
【0061】
他の例として、インフラカメラ14Dによって実人物11を含む範囲の画像114が撮影される。また、インフラカメラ14Dは、自身の設置位置と設置向きを示す設置情報を提供する。プロセッサ101は、インフラカメラ14Dによって撮影された画像114とインフラカメラ14Dの設置情報を取得する。プロセッサ101は、予め登録されたターゲット画像に基づいて、画像114の中に映っている実人物11を認識する。人物認識には機械学習モデルが利用される。プロセッサ101は、インフラカメラ14Dの設置情報と実人物11の認識結果を組み合わせることによって、実人物11の位置(絶対位置)を算出する。また、プロセッサ101は、実人物11の位置の履歴から実人物11の進行方向を算出する。更に、プロセッサ101は、画像114の中の実人物11の認識結果に基づいて実人物11の姿勢を認識する。
【0062】
更に他の例として、追従物体12は実人物11に追従して移動するため、追従物体12の位置及び移動方向が近似的に実人物11の位置及び進行方向として利用されてもよい。特に、追従物体12が実人物11によって携帯される端末である場合、その端末の位置及び移動方向が実人物11の位置及び進行方向として利用される。
【0063】
追従物体情報112は、追従物体12に関する情報である。追従物体情報112は、追従物体12のID情報を含んでいる。また、追従物体情報112は、追従物体12に割り当てられた実人物11、すなわち、追従物体12が追従すべき実人物11のID情報を含んでいる。言い換えれば、追従物体情報112は、実人物11と追従物体12との割り当て関係の情報を含んでいる。実人物11と追従物体12との割り当て関係は、プロセッサ101によって予め決定される。更に、追従物体情報112は、追従物体12の位置情報を含む。上述の通り、追従物体12の位置情報は、追従物体12の自己位置推定機能によって得られる。プロセッサ101は、追従物体12からその位置情報を取得する。
【0064】
追従物体情報112は、更に、追従物体12を制御するための制御情報を含んでいてもよい。プロセッサ101は、実人物情報111から実人物11の位置(絶対位置)及び進行方向を取得する。プロセッサ101は、追従物体12の位置と実人物11の位置及び進行方向に基づいて、追従物体12が実人物11に追従するために必要な制御量を算出する。そして、プロセッサ101は、算出した制御量を含む制御情報を追従物体12に提供し、それにより追従物体12を制御する。
【0065】
スクリーン情報113は、スクリーン13に関する情報である。スクリーン情報113は、スクリーン13の位置、サイズ、形状、等を示す。スクリーン13の位置は、スクリーン13の絶対位置であってもよいし、追従物体12に対するスクリーン13の相対位置であってもよい。スクリーン13がミストスクリーン13A(
図5参照)である場合、ミストの噴射方向及び噴射圧に基づいてミストスクリーン13Aの相対位置、大きさ、及び形状を推定することができる。スクリーン13がスクリーン13B(
図6参照)あるいはスクリーン13C(
図7参照)である場合、スクリーン13の相対位置、大きさ、及び形状は、予め決まっている。追従物体12の絶対位置とスクリーン13の相対位置を組み合わせることによってスクリーン13の絶対位置が得られる。尚、スクリーン13が実人物11によって携帯される端末の画面である場合、端末位置がスクリーン13の位置として用いられる。
【0066】
プロジェクタ情報115は、プロジェクタ15に関する情報である。プロジェクタ情報115は、追従物体12におけるプロジェクタ15の設置位置及び設置向きを示す。
【0067】
仮想空間情報120は、仮想空間20に関する情報であり、特に仮想空間シミュレーションシステム200によって利用される。仮想空間情報120は、仮想人物情報121、仮想空間構成情報122、及びアクセスポイント情報123を含んでいる。
【0068】
仮想人物情報121は、仮想人物21に関する情報である。例えば、仮想人物情報121は、仮想人物21を介して仮想空間20に参加するユーザの登録情報を含んでいる。例えば、登録情報は、ユーザのID情報、ユーザの画像、仮想人物21(アバター)の画像、等を含んでいる。ユーザは、ユーザデバイス400を操作して登録情報を予め情報処理システム100に登録してもよい。
【0069】
また、仮想人物情報121は、仮想空間20における仮想人物21の位置情報を含む。ユーザは、ユーザデバイス400の入力装置を操作することによって、仮想空間20内において仮想人物21を動作させる。プロセッサ101は、ユーザによる入力装置の操作内容に基づいて、仮想空間20における仮想人物21の位置を算出する。
【0070】
仮想空間構成情報122は、仮想空間20の構成を示す。例えば、仮想空間構成情報122は、仮想空間20内の構造物(例:道路、道路構造物、建物、等)の3次元配置を示す。また、仮想空間構成情報122は、仮想空間20内の移動体(例:車両、ロボット、等)の位置を示す。
【0071】
アクセスポイント情報123は、仮想空間20に配置される「アクセスポイント23」に関する情報である。以下、アクセスポイント23について詳しく説明する。
【0072】
2-3.アクセスポイント
プロセッサ101は、仮想人物21によってアクセス可能なアクセスポイント23を仮想空間20内に配置する。
【0073】
より詳細には、プロセッサ101は、仮想空間20内の第1仮想位置にアクセスポイント23を配置する。第1仮想位置は、実空間10における第1実位置に対応付けられている仮想位置である。第1実位置は、実人物11の実位置、あるいは、実人物11に追従して移動するスクリーン13の実位置である。実人物11の実位置は、実人物情報111から得られる。スクリーン13の実位置は、スクリーン情報113から得られる。実空間10内の実位置と仮想空間20内の仮想位置との間の対応関係は、位置対応情報130によって与えられる。よって、プロセッサ101は、位置対応情報130に基づいて、第1実位置を第1仮想位置に変換することができる。そして、プロセッサ101は、第1仮想位置にアクセスポイント23を配置する。
【0074】
実人物11が移動して第1実位置が変化すると、それに連動して第1仮想位置も変化する。すなわち、実空間10において実人物11が移動すると、それに連動して仮想空間20においてアクセスポイント23も移動する。
【0075】
アクセスポイント23は、実人物11の情報、あるいは、第1実位置の周辺の実空間10の画像を示す。以下、アクセスポイント23のいくつかの例を説明する。
【0076】
2-3-1.アクセスポイントの第1の例
図9は、アクセスポイント23の第1の例を説明するための概念図である。第1の例では、アクセスポイント23は、実人物11のアバター23Aである。実人物11のアバター23Aが、上述の実人物11の情報に相当する。第1実位置は、実空間10における実人物11の実位置である。第1仮想位置は、実人物11の実位置に対応付けられた仮想位置である。
【0077】
プロセッサ101は、実人物情報111から、実人物11のアバター23Aの情報を取得する。プロセッサ101は、仮想空間20内の第1仮想位置に実人物11のアバター23Aを配置する。実空間10内で実人物11が移動すると、それに連動して仮想空間20内で実人物11のアバター23Aも移動する。また、プロセッサ101は、実人物11の姿勢をアバター23Aに適用してもよい。実人物11の姿勢は、実人物情報111から得られる。
【0078】
プロセッサ101は、実空間10内のスクリーン13に各種情報を表示あるいは投影する。例えば、プロセッサ101は、プロジェクタ15を制御することによってスクリーン13に各種情報を投影する。スクリーン13が表示装置の画面である場合、プロセッサ101は、表示装置を制御することによって各種情報をスクリーン13(画面)に表示する。
【0079】
例えば、プロセッサ101は、アバター23Aの周辺の仮想空間20の画像をスクリーン13に表示あるいは投影する。好適には、プロセッサ101は、アバター23Aの目線から見た仮想空間20の画像をスクリーン13に表示あるいは投影する。プロセッサ101は、アバター23Aの位置(第1仮想位置)と仮想空間構成情報122に基づいて、アバター23Aの目線から見た仮想空間20の画像を描画する。
【0080】
仮想空間20内には、実人物11のアバター23Aの他にも多くの仮想人物21(アバター)が存在している。仮想空間20内の実人物11のアバター23Aは、コミュニケーションの“起点”となり得る。
【0081】
例えば、ユーザによって操作される仮想人物21がコミュケーションのきっかけを与える。具体的には、ユーザは、ユーザデバイス400の入力装置を操作することによって、仮想人物21をアバター23Aにアクセスさせる。例えば、ユーザがアバター23Aをクリックすると、仮想人物21がアバター23Aにアクセスする。
【0082】
仮想人物21によるアバター23Aへのアクセスに応答して、プロセッサ101は、仮想人物21の情報を実空間10内のスクリーン13に表示あるいは投影する。例えば、プロセッサ101は、仮想人物21の画像、あるいは、仮想人物21を操作するユーザの画像をスクリーン13に表示あるいは投影する。そのような仮想人物21の情報は、仮想人物情報121から得られる。
【0083】
そして、実人物11と仮想人物21はコミュニケーションを開始する。コミュニケーションは音声により行われてもよいし、テキストにより行われてもよい。例えば、プロセッサ101は、実人物11の音声をマイク17から取得し、ユーザデバイス400のスピーカから実人物11の音声を出力する。また、プロセッサ101は、ユーザの音声をユーザデバイス400のマイクから取得し、ユーザの音声をスピーカ16から出力する。
【0084】
このように、仮想空間20内に実人物11のアバター23Aが配置されることにより、コミュニケーションが促進される。
【0085】
他の例として、実人物11側がコミュニケーションのきっかけを与えてもよい。上述の通り、アバター23Aの周辺の仮想空間20の画像がスクリーン13に表示あるいは投影されている。その画像には、アバター23Aの周辺の1以上の仮想人物21が映っている。実人物11は、スクリーン13上の画像に映っている仮想人物21のうちいずれか一人をコミュニケーション相手として指定する。コミュニケーション相手を指定する際、実人物11は、スクリーン13上の仮想人物21をタッチしてもよいし、指差してもよい。このような実人物11による指定動作は、カメラ14によって撮影される画像114に基づいて検出される。あるいは、スクリーン13がタッチパネルである場合、実人物11による指定動作はタッチパネルによって検出される。プロセッサ101は、実人物11によって指定された仮想人物21の情報を実空間10内のスクリーン13に表示あるいは投影する。例えば、プロセッサ101は、指定された仮想人物21の画像、あるいは、指定された仮想人物21を操作するユーザの画像をスクリーン13に表示あるいは投影する。そのような仮想人物21の情報は、仮想人物情報121から得られる。そして、実人物11と仮想人物21はコミュニケーションを開始する。
【0086】
2-3-2.アクセスポイントの第2の例
図10は、アクセスポイント23の第2の例を説明するための概念図である。上述の第1の例と重複する説明は、適宜省略される。
【0087】
第2の例では、アクセスポイント23は、仮想スクリーン23Bである。第1実位置は、実人物11の実位置であってもよいし、スクリーン13の実位置であってもよい。仮想スクリーン23Bのサイズや形状は、実空間10内のスクリーン13のサイズや形状と同じに設定されてもよい。スクリーン13のサイズや形状はスクリーン情報113から得られる。プロセッサ101は、仮想空間20内の第1仮想位置に仮想スクリーン23Bを配置する。実空間10内で実人物11が移動すると、それに連動して仮想空間20内で仮想スクリーン23Bも移動する。
【0088】
プロセッサ101は、第1実位置の周辺の実空間10の画像を、仮想空間20内の仮想スクリーン23Bに表示あるいは投影する。第1実位置の周辺の実空間10の画像は、カメラ14によって撮影される画像114から得られる。
【0089】
一方、プロセッサ101は、仮想スクリーン23Bの周辺の仮想空間20の画像を、実空間10内のスクリーン13に表示あるいは投影する。プロセッサ101は、仮想スクリーン23Bの位置(第1仮想位置)と仮想空間構成情報122に基づいて、仮想スクリーン23Bの周辺の仮想空間20の画像を描画する。
【0090】
これにより、実空間10内のスクリーン13と仮想空間20内の仮想スクリーン23Bが重なり合って“透明な窓”のようになる。実空間10内の実人物11は、スクリーン13を通して仮想空間20の様子を見ることができる。仮想空間20内の仮想人物21は、仮想スクリーン23Bを通して実空間10の様子を見ることが出来る。このような形態もコミュニケーションの促進に寄与する。
【0091】
実人物11と仮想人物21との間のコミュニケーション方法は、上記セクション2-3-1で説明された第1の例の場合と同様である。
【0092】
2-4.処理フロー
図11は、情報処理システム100(プロセッサ101)による処理例を示すフローチャートである。
【0093】
ステップS110において、情報処理システム100は、実空間10内の実人物11に関する実人物情報111を取得する。
【0094】
ステップS120において、情報処理システム100は、実空間10における第1実位置を取得する。第1実位置は、実人物11の実位置、あるいは、実人物11に追従して移動するスクリーン13の実位置である。実人物11の実位置は、実人物情報111から得られる。スクリーン13の実位置は、スクリーン情報113から得られる。
【0095】
ステップS130において、情報処理システム100は、第1実位置に対応付けられた第1仮想位置を取得する。実空間10内の実位置と仮想空間20内の仮想位置との間の対応関係は、位置対応情報130によって与えられる。よって、情報処理システム100は、位置対応情報130に基づいて、第1実位置を第1仮想位置に変換する。第1実位置が変化すると、第1実位置に連動して第1仮想位置も変化する。
【0096】
ステップS140において、情報処理システム100は、仮想空間20内の仮想人物21によってアクセス可能なアクセスポイント23を第1仮想位置に配置する。アクセスポイント23は、実人物11の情報、あるいは、第1実位置の周辺の実空間10の画像を示す。
【0097】
例えば、アクセスポイント23は、実人物11のアバター23Aである(
図9参照)。実人物11のアバター23Aは、実人物情報111から得られる。アバター23Aには、実人物11の姿勢が適用されてもよい。実人物11の姿勢は、実人物情報111から得られる。
【0098】
他の例として、アクセスポイント23は、仮想スクリーン23Bであってもよい(
図10参照)。情報処理システム100は、第1実位置の周辺の実空間10の画像を仮想スクリーン23Bに表示あるいは投影する。第1実位置の周辺の実空間10の画像は、カメラ14によって撮影される画像114から得られる。
【0099】
ステップS150において、情報処理システム100は、実空間10内のスクリーン13に各種情報を表示あるいは投影する。例えば、情報処理システム100は、プロジェクタ15を制御することによってスクリーン13に各種情報を投影する。スクリーン13が表示装置の画面である場合、情報処理システム100は、表示装置を制御することによって各種情報をスクリーン13(画面)に表示する。
【0100】
スクリーン13に表示あるいは投影される情報は、例えば、コミュニケーション相手の仮想人物21の情報である。仮想人物21の情報としては、仮想人物21の画像(アバター)、ユーザの画像、等が例示される。そのような仮想人物21の情報は、仮想人物情報121から得られる。
【0101】
他の例として、スクリーン13に表示あるいは投影される情報は、アクセスポイント23の周辺の仮想空間20の画像であってもよい。アクセスポイント23の周辺の仮想空間20の画像は、第1仮想位置(アクセスポイント23の位置)から見た仮想空間20の画像である。プロセッサ101は、第1仮想位置と仮想空間構成情報122に基づいて、第1仮想位置から見た仮想空間20の画像を描画する。
【0102】
プロセッサ101は、実人物11とスクリーン13との間の距離を考慮して、実人物11から見たときの距離感が適切になるように、スクリーン13に表示あるいは投影する画像のサイズを決定してもよい。実人物11の位置は、実人物情報111から得られる。スクリーン13の位置は、スクリーン情報113から得られる。プロセッサ101は、実人物11の位置とスクリーン13の位置に基づいて、実人物11とスクリーン13との間の距離を算出し、適切な画像サイズを決定することができる。
【0103】
3.効果
本実施の形態によれば、実空間10内の実位置と仮想空間20内の仮想位置が互いに対応付けられる。また、実空間10には実人物11に追従して移動するスクリーン13が設けられる。一方、実人物11あるいはスクリーン13の実位置に対応付けられた第1仮想位置には、仮想人物21によってアクセス可能なアクセスポイント23が配置される。実空間10内のスクリーン13には、仮想人物21の情報、あるいは、アクセスポイント23の周辺の仮想空間20の画像が表示あるいは投影される。実空間10内で実人物11が移動すると、それに連動して仮想空間20内でアクセスポイント23も移動する。そして、仮想空間20内でアクセスポイント23が移動すると、それに連動して、実空間10内のスクリーン13に表示あるいは投影される情報も変化する。
【0104】
このように、実空間10内の実人物11の移動に連動するように実空間10と仮想空間20とが結びつけられる。これにより、実人物11は、自分自身があたかも仮想空間20内を実際に移動しているような感覚を得ることができる。すなわち、実人物11は、所定位置に設置されたデバイスを用いることなく、自由に移動しながら自身の移動と連動するように仮想空間20を体験することが可能となる。
【0105】
本実施の形態によれば、仮想空間20内のアクセスポイント23において実空間10あるいは実人物11が再現され、一方、実空間10内のスクリーン13において仮想空間20あるいは仮想人物21が再現される。その意味で、実空間10と仮想空間20が部分的に重畳していると言うこともできる。
【0106】
実空間10と仮想空間20とが重畳している部分は、実人物11と仮想人物21との間のコミュニケーションの窓口となる。言い換えれば、実人物11と仮想人物21は、実空間10と仮想空間20とが重畳している部分を介して互いにコミュニケーションを行うことが可能となる。
【符号の説明】
【0107】
1…空間連結システム, 10…実空間, 11…実人物, 12…追従物体, 13…スクリーン, 14…カメラ, 20…仮想空間, 21…仮想人物, 23…アクセスポイント, 23A…アバター, 23B…仮想スクリーン, 100…情報処理システム, 200…仮想空間シミュレーションシステム