IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 沖電気工業株式会社の特許一覧

<>
  • 特開-処理装置、プログラム及び処理方法 図1
  • 特開-処理装置、プログラム及び処理方法 図2
  • 特開-処理装置、プログラム及び処理方法 図3
  • 特開-処理装置、プログラム及び処理方法 図4
  • 特開-処理装置、プログラム及び処理方法 図5
  • 特開-処理装置、プログラム及び処理方法 図6
  • 特開-処理装置、プログラム及び処理方法 図7
  • 特開-処理装置、プログラム及び処理方法 図8
  • 特開-処理装置、プログラム及び処理方法 図9
  • 特開-処理装置、プログラム及び処理方法 図10
  • 特開-処理装置、プログラム及び処理方法 図11
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024142254
(43)【公開日】2024-10-10
(54)【発明の名称】処理装置、プログラム及び処理方法
(51)【国際特許分類】
   G06T 13/40 20110101AFI20241003BHJP
   G06F 3/01 20060101ALI20241003BHJP
   H04L 67/131 20220101ALI20241003BHJP
   H04N 7/14 20060101ALI20241003BHJP
【FI】
G06T13/40
G06F3/01 510
H04L67/131
H04N7/14 170
【審査請求】未請求
【請求項の数】7
【出願形態】OL
(21)【出願番号】P 2023054370
(22)【出願日】2023-03-29
(71)【出願人】
【識別番号】000000295
【氏名又は名称】沖電気工業株式会社
(74)【代理人】
【識別番号】100129067
【弁理士】
【氏名又は名称】町田 能章
(74)【代理人】
【識別番号】100183162
【弁理士】
【氏名又は名称】大塚 義文
(74)【代理人】
【識別番号】110001807
【氏名又は名称】弁理士法人磯野国際特許商標事務所
(72)【発明者】
【氏名】北口 太郎
【テーマコード(参考)】
5B050
5C164
5E555
【Fターム(参考)】
5B050BA09
5B050BA12
5B050CA07
5B050DA04
5B050EA07
5B050EA19
5B050FA05
5B050FA10
5C164FA10
5C164MA03S
5C164VA13P
5E555AA27
5E555AA61
5E555BA02
5E555BA76
5E555BB02
5E555BC08
5E555BD09
5E555BE17
5E555CA42
5E555CB65
5E555CB66
5E555CC05
5E555DB03
5E555DB32
5E555DC19
5E555DC21
5E555DD09
5E555EA08
5E555EA22
5E555FA00
(57)【要約】
【課題】同じ空間にいる感覚が得られるものであるとともに、仮想空間を手軽に利用できる、処理装置、プログラム及び処理方法を提供する。
【解決手段】第1の仮想空間を生成する第1処理部としての仮想オフィス空間処理部23と、撮像部であるカメラ11によってユーザを撮影した映像に基づいて、当該ユーザのアバターを生成する第2処理部としてのアバター処理部22と、前記アバターを前記第1の仮想空間に重畳した第2の仮想空間を生成する第3処理部としての重畳処理部24と、を備え、前記第2処理部は、前記映像から前記ユーザの動きに関する動き情報を生成し、当該動き情報を反映した前記アバターを生成する。
【選択図】図1
【特許請求の範囲】
【請求項1】
第1の仮想空間を生成する第1処理部と、
撮像部によってユーザを撮影した映像に基づいて、当該ユーザのアバターを生成する第2処理部と、
前記第1の仮想空間に前記アバターを配置した第2の仮想空間を生成する第3処理部と、を備え、
前記第2処理部は、前記映像から前記ユーザの動きに関する動き情報を生成し、当該動き情報を反映した前記アバターを生成する、
ことを特徴とする処理装置。
【請求項2】
前記第3処理部は、前記アバターの視点で前記第2の仮想空間を見た場合のアバター視点画像を生成し、前記ユーザが使用する端末に当該アバター視点画像を表示させる、
ことを特徴とする請求項1に記載の処理装置。
【請求項3】
前記第3処理部は、入力部を介して視線及び視野の少なくとも何れか一方に関する操作情報を取得し、当該操作情報に基づいて前記アバター視点画像を生成する、
ことを特徴とする請求項2に記載の処理装置。
【請求項4】
前記第3処理部は、第1ユーザと第2ユーザとがコミュニケーション中である場合、前記第1ユーザのアバターと前記第2ユーザのアバターとの関連付けを行い、当該関連付けを反映した前記第2の仮想空間を生成する、
ことを特徴とする請求項1に記載の処理装置。
【請求項5】
前記第3処理部は、前記ユーザの座席位置を示す座席位置情報に基づいて前記第2の仮想空間に前記アバターを配置するものであり、
前記第1ユーザと前記第2ユーザとのコミュニケーションの開始を検知した場合に、前記第1ユーザのアバターの座席位置と、前記第2ユーザの隣の座席に配置される第3ユーザのアバターの座席位置とを変更する、
ことを特徴とする請求項4に記載の処理装置。
【請求項6】
コンピュータを、
第1の仮想空間を生成する第1処理部、
撮像部によってユーザを撮影した映像に基づいて、当該ユーザのアバターを生成する第2処理部、
前記第1の仮想空間に前記アバターを配置した第2の仮想空間を生成する第3処理部、として機能させ、
前記第2処理部は、前記映像から前記ユーザの動きに関する動き情報を生成し、当該動き情報を反映した前記アバターを生成するものである、
ことを特徴とするプログラム。
【請求項7】
処理装置の処理方法であって、
前記処理装置は、
第1の仮想空間を生成する第1処理ステップと、
撮像部によってユーザを撮影した映像に基づいて、当該ユーザのアバターを生成する第2処理ステップと、
前記第1の仮想空間に前記アバターを配置した第2の仮想空間を生成する第3処理ステップと、を有し、
前記第2処理ステップでは、前記映像から前記ユーザの動きに関する動き情報を生成し、当該動き情報を反映した前記アバターを生成する、
ことを特徴とする処理方法。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、処理装置、プログラム及び処理方法に関する。
【背景技術】
【0002】
従来のWeb会議のコミュニケーションの装置(システム)では、画面上における所定の区切られた領域に各ユーザの表示領域が割り当てられており、当該各ユーザの表示領域に、各ユーザの映像が表示されるものであった(例えば、特許文献1参照)。
また、従来のVR(Virtual Reality)ゴーグルを利用したコミュニケーションの装置(システム)では、VRゴーグルの装着やコントローラを用いる必要があった(例えば、非特許文献1参照)。
【先行技術文献】
【特許文献】
【0003】
【特許文献1】特開2022-122179号公報
【非特許文献】
【0004】
【非特許文献1】“3Dアバターで会議に参加 ドコモが「XRテレプレゼンスミーティング」の実証実験”、[online]、アイティメディア株式会社、[令和5年3月1日検索]、インターネット<https://www.itmedia.co.jp/mobile/articles/2101/14/news128.html>
【発明の概要】
【発明が解決しようとする課題】
【0005】
しかし、特許文献1に記載される従来のWeb会議のコミュニケーションの装置(システム)では、装置(システム)を利用するユーザにとって、同じ空間にいる感覚が得られない問題がある。
また、従来のVRゴーグルを利用したコミュニケーションの装置(システム)では、装置(システム)を利用するユーザにとって、同じ空間にいる感覚が得られるが、常にVRゴーグルの装着やコントローラを用いる必要がある。そのため、装置(システム)を利用するユーザにとって手間であり、また、専用機器の操作の習得が必要であるので、仮想オフィスの空間を手軽に利用できるものではなかった。
【0006】
本発明は、前記課題に鑑みてなされたものであり、同じ空間にいる感覚が得られるものであるとともに、仮想空間を手軽に利用できる、処理装置、プログラム及び処理方法を提供するものである。
【課題を解決するための手段】
【0007】
前記課題を解決するため、本発明に係る処理装置は、第1の仮想空間を生成する第1処理部と、撮像部によってユーザを撮影した映像に基づいて、当該ユーザのアバターを生成する第2処理部と、前記第1の仮想空間に前記アバターを配置した第2の仮想空間を生成する第3処理部と、を備え、前記第2処理部は、前記映像から前記ユーザの動きに関する動き情報を生成し、当該動き情報を反映した前記アバターを生成する、ことを特徴とする。
【0008】
また、本発明に係るプログラムは、コンピュータを、第1の仮想空間を生成する第1処理部、撮像部によってユーザを撮影した映像に基づいて、当該ユーザのアバターを生成する第2処理部、前記第1の仮想空間に前記アバターを配置した第2の仮想空間を生成する第3処理部、として機能させ、前記第2処理部は、前記映像から前記ユーザの動きに関する動き情報を生成し、当該動き情報を反映した前記アバターを生成するものである、ことを特徴とする。
【0009】
また、本発明に係る方法は、処理装置の処理方法であって、前記処理装置は、第1の仮想空間を生成する第1処理ステップと、撮像部によってユーザを撮影した映像に基づいて、当該ユーザのアバターを生成する第2処理ステップと、前記第1の仮想空間に前記アバターを配置した第2の仮想空間を生成する第3処理ステップと、を有し、前記第2処理ステップでは、前記映像から前記ユーザの動きに関する動き情報を生成し、当該動き情報を反映した前記アバターを生成する、ことを特徴とする。
【発明の効果】
【0010】
本発明によれば、同じ空間にいる感覚が得られるものであるとともに、仮想空間を手軽に利用することができる。
【図面の簡単な説明】
【0011】
図1】本発明の第1実施形態に係る処理システムの概略構成図である。
図2】本発明の第1実施形態に係る処理システムによって実現される仮想空間の例示であり、(a)は仮想空間を俯瞰で見た場合の図であり、(b)及び(c)はアバターにおける視野の例示である。
図3】端末が有するカメラで参加者を撮影する様子を示した図である。
図4】仮想物体(アバター)を生成する処理のイメージ図である。
図5】端末を使用するユーザの動き情報の生成に係るシーケンス図の例示である。
図6】本発明の第2実施形態に係る処理システムの概略構成図である。
図7】座席位置情報記憶部のデータ構成例である。
図8】プレゼンス情報記憶部のデータ構成例である。
図9】本発明の第2実施形態に係る処理システムの動作例を示すシーケンス図である。
図10】プレゼンス情報記憶部のデータ構成例である。
図11】本発明の第2実施形態に係る処理システムによって実現される仮想空間の例示であり、(a)は仮想空間を俯瞰で見た場合の図であり、(b)及び(c)はアバターにおける視野の例示である。
【発明を実施するための形態】
【0012】
以下、本発明を実施するための形態を、適宜図面を参照しながら詳細に説明する。各図は、本発明を十分に理解できる程度に、概略的に示してあるに過ぎない。よって、本発明は、図示例のみに限定されるものではない。また、本実施形態では、本発明と直接的に関連しない構成や周知な構成については、説明を省略する場合がある。なお、各図において、共通する構成要素や同様な構成要素については、同一の符号を付し、それらの重複する説明を省略する。
【0013】
≪第1実施形態に係る処理システムの構成≫
図1を参照して、第1実施形態に係る処理システムの構成について説明する。図1は、処理システム1の概略構成図である。処理システム1は、仮想空間上のオフィス空間として利用できるものである。処理システム1は、インターネットを通じてビデオ通話(映像・音声のやり取り)、音声通話(音声のやり取り)、チャット通信などを行うことができるシステムである。処理システム1を用いることで、仮想空間上のオフィス空間において、例えば遠隔地にいる相手とリアルタイムで会議を行うことができる。
なお、以下の処理システム1に関わる説明は、仮想空間(仮想空間上のオフィス空間)に関わる映像の処理を中心に記載される。また、処理システム1における音声の処理は、従来の音声処理に関わる処理部にて構成されるので、以下の処理システム1に関わる説明は、省略される。
【0014】
図1に示すように、処理システム1は、処理サーバ2と、複数の端末3と、を備える。図1では、処理システム1が有する端末3の数が6つであるが、端末3の数は特に限定されず、その他の数であってもよい。各々の端末3は、同様の機能構成であってよい。図1に示すように、処理サーバ2は、端末3とネットワーク(図示せず)を介して通信可能である。
なお、図1に示した処理システム1の構成はあくまで一例である。例えば、処理サーバ2は、「処理装置」の一例であり、「処理装置」の一例は、処理サーバ2に限るものではない。
【0015】
処理システム1では、仮想空間上のオフィス空間(「仮想オフィス空間」と称する)をコンピュータ内に作成し、人間(「ユーザ」と呼ぶ場合がある)の分身であるバーチャルキャラクタ(「アバター」と称する)が仮想オフィス空間内に描画(配置)される。処理システム1では、仮想空間上のオフィス空間において、遠隔地にいる相手とリアルタイムで会議を行うことができるので、会議に参加する人間(ユーザ)は、アバターを操作して会議に参加し、仮想オフィス空間内に同じく描画(配置)される他の参加者(他のユーザ)とコミュニケーションを取りながら会議を行うことが可能である。
【0016】
図2に、処理システム1によって実現される仮想空間の一例を示す。図2(a)は、コミュニケーションの場となる仮想空間を俯瞰で見た(上方から下方に見た)場合の図であり、図2(a)内に括弧書きで示した数字は座席位置を示している。図2(a)に示すように、自身のアバターが座席ID「1」の場所に座っており、自身のアバターの左隣(座席ID「2」)にユーザAのアバターが座っており、さらにその左隣(座席ID「3」)にユーザBのアバターが座っている。また、机を挟んで自身のアバターの向かい側(座席ID「6」)にユーザEのアバターが座っており、その右隣(座席ID「5」)にユーザDのアバターが座っており、さらにその右隣(座席ID「4」)にユーザCのアバターが座っている。図2(b)は自身のアバターが左方向(ユーザCのアバターが居る方向)を向いた場合の視野であり、(c)は自身のアバターが前方向(ユーザEのアバターが居る方向)を向いた場合の視野である。詳細は後述するが、アバターが向く方向は、例えばマウス操作によって変更することが可能である。以下では各装置の機能について説明する。
【0017】
図1に示す端末3は、ユーザによって使用される。端末3は、カメラ11と、表示部12と、入力部13と、を含んで構成される。端末3は、カメラ11、表示部12及び入力部13の他に、処理サーバ2とデータなどをやり取りする通信部(図示せず)、カメラ11、表示部12、入力部13及び通信部を制御する制御部(図示せず)などを有する。
【0018】
カメラ11は、端末3を使用するユーザを撮影する。図3に、カメラ11でユーザを撮影する様子を示す。カメラ11は、例えば、ユーザの上半身を撮影できる位置や方向に設定されており、ユーザの顔の表情や口の動き、両手の動きを撮影することができる。カメラ11によって撮影されたユーザの映像情報は、処理サーバ2に送信される。ユーザの映像情報は、アバターの作成に使用される。なお、カメラ11は、「撮像部」の一例であり、「撮像部」の一例は、カメラ11に限るものではない。
【0019】
図1に示す表示部12は、処理サーバ2から受信した画像を表示する。処理サーバ2から受信した画像には、仮想オフィス空間や当該仮想オフィス空間内にいるアバターが含まれている。
入力部13は、ユーザによって操作され、アバターの視線及び視野の少なくとも何れか一方に関する操作情報が入力される。入力部13によって入力された操作情報は、処理サーバ2に送信される。
【0020】
図1に示す処理サーバ2は、映像処理部21を含んで構成される。映像処理部21は、仮想空間上のオフィス空間を実現する機能である。それなので、映像処理部21は、アバターによるユーザ同士のコミュニケーションを実現する。処理サーバ2は、映像処理部21の他に、端末3とデータなどをやり取りする通信部(図示せず)、映像処理部21と通信部を制御する制御部(図示せず)などを有する。
【0021】
映像処理部21は、アバター処理部22と、仮想オフィス空間処理部23と、重畳処理部24と、を有する。映像処理部21は、例えば、CPUがROM又はストレージに記憶された処理プログラムを読み出し、RAMに展開して実行することにより実現される。
【0022】
なお、仮想オフィス空間処理部23は、「第1処理部」の一例であり、「第1処理部」の一例は、仮想オフィス空間処理部23に限るものではない。
また、アバター処理部22は、「第2処理部」の一例であり、「第2処理部」の一例は、アバター処理部22に限るものではない。
また、重畳処理部24は、「第3処理部」の一例であり、「第3処理部」の一例は、重畳処理部24に限るものではない。
【0023】
<アバター処理部について>
図1に示すアバター処理部22は、端末3から撮像画像(映像)を逐次取得する。アバター処理部22は、撮像画像毎に、撮像画像に映り込んだ物体(ここでは、端末3を使用するユーザ)に関する情報を画像認識により得る。
また、アバター処理部22は、物体(ここでは、端末3を使用するユーザ)の動きを判別し、この動きに関する動き情報を生成する。動き情報は、端末3を使用するユーザの体の少なくとも一部分(例えば顔、目、口、腕、手、胸部など)の動きを示す情報を含んでよい。
【0024】
また、アバター処理部22は、物体(ここでは、端末3を使用するユーザ)に関する情報、及び、当該物体の動き情報に基づいて、物体(ここでは、端末3を使用するユーザ)の動きを反映した仮想物体(アバター)を生成する。図4に、仮想物体(アバター)の生成する処理のイメージを示す。仮想物体(アバター)は、2Dモデル、3Dモデルの何れでもあってよい。
【0025】
<仮想オフィス空間処理部について>
図1に示す仮想オフィス空間処理部23は、仮想空間領域の一例として、仮想オフィス空間を生成する。仮想オフィス空間は、2Dモデル又は3Dモデルとして生成される。仮想オフィス空間は、予め撮像された画像に基づいて生成されてもよい。
【0026】
<重畳処理部について>
重畳処理部24は、アバター処理部22で生成されたアバターを仮想オフィス空間処理部23で生成された仮想オフィス空間に重畳した仮想空間(2Dモデル又は3Dモデル)を生成する。仮想空間には、ユーザが操作するアバターが含まれている。
また、重畳処理部24は、アバターの視点で仮想空間を見た場合のアバター視点画像を生成し、ユーザが使用する端末3に当該アバター視点画像を表示させる。アバター視点画像の一例は、図2(b)及び図2(c)に示す通りである。
【0027】
≪第1実施形態に係る処理システムの動作≫
図5を参照して(適宜、図1ないし図4を参照)、アバター処理部22の動作を説明する。図5は、端末3を使用するユーザの動き情報の生成に係るシーケンス図の例示である。
【0028】
図5に示すように、端末3のカメラ11は、カメラ11の撮像範囲に所在する端末3を使用するユーザを逐次撮像する(ステップS11)。
端末3は、撮像された端末3を使用するユーザの画像を、処理サーバ2へ逐次送信する(ステップS12)。
ステップS11,S12の処理は、端末3毎に行われる。
【0029】
処理サーバ2では、通信部が、各端末3から当該端末3を使用するユーザの画像を逐次受信する(ステップS21)。
アバター処理部22は、各端末3を使用する各ユーザの画像を基に、各ユーザの動きを解析し、動き情報を生成する(ステップS22)。アバター処理部22は、物体(ここでは、端末3を使用するユーザ)の動き情報に基づいて、物体の動きを反映した仮想物体であるアバター(2Dモデル又は3Dモデル)を生成する。
【0030】
次に、重畳処理部24は、アバター処理部22で生成されたアバターを仮想オフィス空間処理部23で生成された仮想オフィス空間に重畳した仮想空間(2Dモデル又は3Dモデル)を生成し、アバターの視点で仮想空間を見た場合のアバター視点画像(図2(b)など)を端末3に逐次送信する(ステップS23)。
ここで、仮想オフィス空間(2Dモデル又は3Dモデル)は、仮想オフィス空間処理部23によって予め生成される。仮想オフィス空間は、例えば、予め撮像された画像に基づいて、2Dモデル又は3Dモデルとして生成される。
【0031】
なお、アバター(3Dモデル)は、例えば、1枚の写真(画像データ)から生成されてもよい。例えば、身長や体重などの情報を入力し、入力したこれらの情報と写真(画像データ)に基づいてアバターを生成する。写真(画像データ)から3Dモデルを生成する技術は、例えば「特表2005-523488号公報」などに記載されている。
【0032】
端末3は、アバター視点画像を逐次受信し、受信したアバター画像を有する仮想空間画像を表示部12に表示する(ステップS13)。
ここで、端末3のユーザは、端末3に接続される入力部13(例えば、マウスなど)を操作して、アバター視点画像の視線及び視野の少なくとも何れか一方に関する操作情報を入力することで、アバター視点画像における視線や視野を変更することができる。例えば、所定の位置(ここでは、アバターの目の位置)からカメラで撮影したと仮定したときにおける、チルト角度の量、パーン角度の量、ズームの量に基づいて、視線や視野を変更することができる。チルト角度の量、パーン角度の量、ズームの量は、端末3に接続される入力部13(例えば、マウスなど)で操作された操作量や選択ボタン等に基づくものであってよい。また、アバター視点画像の一点にフォーカスすることによって、視線や視野を変更してもよい。重畳処理部24は、入力部13を介して入力された操作情報を取得し、当該操作情報に基づいてアバター視点画像を生成する。
これにより、例えば、図2(b)のように自身のアバターが左方向(ユーザCのアバターが居る方向)を向いた場合の視野から、図2(c)のように自身のアバターが前方向(ユーザEのアバターが居る方向)を向いた場合の視野に変更できる。
【0033】
以上のように、第1実施形態に係る処理システム1は、ユーザが特殊な機器(例えば、VRゴーグルやコントローラ)を用いることなく、端末3の前に居るだけで端末3を操作するユーザの分身であるアバターが仮想オフィス空間内に描画される。そのため、第1実施形態に係る処理システム1では、処理システム1を利用するユーザにおいて、同じ空間にいる感覚が得られるものであるとともに、仮想空間のツールを手軽に利用することができる。
そして、ユーザは、アバターによって会議に参加し、仮想オフィス空間内に同じく描画される他のユーザとコミュニケーションを取りながら会議を行うことが可能である。他のユーザとのコミュニケーションでは、身振りや手振り(体を使ったジェスチャー)を用いることも可能である。そのため、同じ空間にいる感覚が得られるものであるとともに、仮想空間でのコミュニケーションを手軽に利用することができる。
【0034】
≪第2実施形態に係る処理システムの構成≫
図6を参照して、第2実施形態に係る処理システム101の構成について説明する。図6は、処理システム101の概略構成図である。処理システム101は、仮想空間上のオフィス空間として利用できるものである。処理システム101は、インターネットを通じてビデオ通話(映像・音声のやり取り)、音声通話(音声のやり取り)、チャット通信などを行うことができるシステムである。処理システム101では、仮想空間上のオフィス空間(仮想オフィス空間)をコンピュータ内に作成し、人間(ユーザ)の分身であるバーチャルキャラクタ(アバター)が仮想オフィス空間内に描画される。
なお、以下の処理システム101に関わる説明は、第1実施形態と同様に、仮想空間(仮想空間上のオフィス空間)に関わる映像の処理を中心に記載される。また、処理システム101における音声の処理は、第1実施形態と同様に、従来の音声処理に関わる処理部にて構成されるので、以下の処理システム101に関わる説明は、省略される。
【0035】
図6に示すように、処理システム101は、処理サーバ2と、複数の端末3と、座席管理装置4と、呼制御装置5と、を備える。第1実施形態と同様に端末3の数は特に限定されない(なお、図6では、6つの端末3が記載される)。第2実施形態に係る処理システム101は、第1実施形態に係る処理システム1(図1参照)と比較して、座席管理装置4及び呼制御装置5が追加され、また、処理サーバ2が備える機能が異なる。図6に示すように、処理サーバ2は、端末3、座席管理装置4及び呼制御装置5とネットワーク(図示せず)を介して通信可能である。
【0036】
図6に示す端末3は、ユーザによって使用される。端末3は、カメラ11と、表示部12と、入力部13と、を含んで構成される。端末3は、カメラ11、表示部12及び入力部13の他に、処理サーバ2とデータなどをやり取りする通信部(図示せず)、カメラ11、表示部12、入力部13及び通信部を制御する制御部(図示せず)などを有する。各々の端末3は、同様の機能構成であってよい。なお、端末3としては、例えばPC、タブレット、スマートフォン等が使用できる。
【0037】
座席管理装置4は、各ユーザの所持する端末3の座席位置を管理する。座席管理装置4は、例えば、予め各ユーザの所持する端末3(又は管理者の所持する端末)から、要求されたオフィスの居室などにおける座席位置情報を受信し、当該座席位置情報を管理する。処理サーバ2は、座席管理装置4から、各ユーザの所持する端末3(図6では、6つの端末3)の座席位置情報を予め取得する。座席位置情報の取得方法は特に限定されない。
【0038】
呼制御装置5は、端末3,・・・端末3(図6では、6つの端末3)に対して呼制御を行い、端末3間の通信(一例は通話)の制御を行う。呼制御装置5としては、例えばSIP(Session Initiation Protocol)サーバが使用できる。処理サーバ2は、呼制御装置5から、各端末3の各ユーザにおける通信の状態を示す通話状態情報を予め取得する。通話状態情報は、例えば、「通話可」や「通話中」などのステータスであってよい。また、処理サーバ2は、呼制御装置5において各端末3の各ユーザにおける通話状態情報の変更(例えば、通話可→通話中、通話中→通話可)があると、呼制御装置5から変更された通話状態情報を受信する。
【0039】
図6に示すように、処理サーバ2は、記憶部31と、映像処理部21と、プレゼンス情報管理部25と、プレゼンス情報監視部26と、を備える。つまり、第1実施形態での構成(図1参照)と比較した場合、処理サーバ2は、映像処理部21に加えて、記憶部31と、プレゼンス情報管理部25と、プレゼンス情報監視部26とを有する構成である。
【0040】
映像処理部21は、第1実施形態と同様であり、仮想空間上のオフィス空間を実現する機能である。それなので、映像処理部21は、仮想空間上のオフィス空間におけるアバターを用いて、ユーザ同士がコミュニケーションを取っている状況を実現する。映像処理部21は、アバター処理部22と、仮想オフィス空間処理部23と、重畳処理部24と、を有する。
記憶部31は、プレゼンス情報記憶部32と、座席位置情報記憶部33と、を有する構成である。
【0041】
図6に示す座席位置情報記憶部33は、座席管理装置4から通知された座席位置情報を記憶する。座席位置情報記憶部33のデータ構成例を図7に示す。図7に示すように、座席位置情報記憶部33は、ユーザIDごとに(ユーザIDに対応付けて)座席位置情報を記憶する。図7に示す例においては、ユーザIDが“自分のID”と、座席位置情報が“座席ID「1」”とが対応づけられている。また、ユーザIDが“ユーザAのID”と、座席位置情報が“座席ID「2」”とが対応づけられている。他のユーザについても同様である。
【0042】
図6に示すように、プレゼンス情報管理部25は、座席位置情報記憶部33に記憶された座席位置情報を、ユーザID毎にプレゼンス情報記憶部32に格納する。また、プレゼンス情報管理部25は、呼制御装置5から通知された通話状態情報を、ユーザID毎にプレゼンス情報記憶部32に格納する。
【0043】
この結果、プレゼンス情報記憶部32は、図8に示すように、ユーザIDと、座席位置情報と、通話状態情報と、通話状態情報が「通話中」の場合における通話に関連する通話関連情報と、を対応づけて記憶する。通話関連情報は、例えば、通話の発信元情報と、発信先情報と、通話中の座席位置情報とを有する。ユーザIDと、座席位置情報と、通話状態情報とが少なくとも紐づけられた情報を「プレゼンス情報」と称する。本実施形態でのプレゼンス情報は、ユーザIDと、座席位置情報と、通話状態情報と、通話関連情報とを組み合わせた情報を想定する。
【0044】
図8に示す例においては、ユーザIDが“自分のID”と、座席位置情報が“座席ID「1」”と、通話状態情報が“通話可”と、発信元情報“-”と、発信先情報“-”と、通話中の座席位置情報“-”とが対応づけられている。“自分のID”のユーザは、通話状態情報が“通話可”であり通話を行っていないので、通話関連情報には情報が格納されていない状態(初期値でもよい)である。
また、ユーザIDが“ユーザAのID”と、座席位置情報が“座席ID「2」”と、通話状態情報が“通話可”と、発信元情報“-”と、発信先情報“-”と、通話中の座席位置情報“-”とが対応づけられている。他のユーザについても同様である。
【0045】
図6に示すプレゼンス情報監視部26は、プレゼンス情報記憶部32に記憶されたプレゼンス情報が変更されたか否かを判断する。プレゼンス情報監視部26は、例えば、プレゼンス情報記憶部32に記憶されたプレゼンス情報を常時監視する。
また、プレゼンス情報監視部26は、プレゼンス情報記憶部32に記憶されたプレゼンス情報が変更されると、変更されたユーザのプレゼンス情報を映像処理部21に送信する。プレゼンス情報監視部26は、変更されたユーザのプレゼンス情報に加えて、変更された以外のユーザのプレゼンス情報を映像処理部21に送信してもよい。
【0046】
映像処理部21は、プレゼンス情報監視部26からプレゼンス情報を受信する。プレゼンス情報を受信すると、映像処理部21(特に、重畳処理部24)は、受信したプレゼンス情報に基づいて、仮想空間(2Dモデル又は3Dモデル)を生成する。仮想空間には、ユーザが操作するアバターが含まれている。
【0047】
≪第2実施形態に係る処理システムの動作≫
図9を参照して(適宜、図6ないし図8を参照)、第2実施形態に係る処理システム101全体の動作概要について説明する。図9は、処理システム101の動作例を示すシーケンス図である。
【0048】
図9に示すように、処理サーバ2は、座席管理装置4から座席位置情報を取得し、呼制御装置5から通話状態情報を取得する(ステップS31)。なお、ステップS31の処理は、予め実行される。
次に、処理サーバ2は、ステップS31で通知された座席位置情報及び通話状態情報を、ユーザID毎にプレゼンス情報として、プレゼンス情報記憶部32に格納する(ステップS32)。ここで、プレゼンス情報記憶部32に格納されるプレゼンス情報は、図8に示す通りである(ここでは、6人のユーザが座席に着席したとする)。
【0049】
次に、処理サーバ2(映像処理部21)は、プレゼンス情報やユーザを撮影した映像(物体に関する情報や当該物体の動き情報)に基づいて、仮想オフィス空間にアバターを重畳した仮想空間(2Dモデル又は3Dモデル)を生成する(ステップS33)。
続いて、処理サーバ2は、端末3に対し、ステップS33で作成された仮想空間をアバターの視点で見たアバター視点画像を送信する(ステップS34)。
端末3は、処理サーバ2からアバター視点画像を受信して、受信したアバター視点画像を表示する(ステップS35)。
【0050】
呼制御装置5において各端末3の各ユーザにおける通話状態情報において変更(通話可→通話中、通話中→通話可など)があると、呼制御装置5は、処理サーバ2に、変更された通話状態情報を通知する(ステップS41)。ここでは、通話状態情報は、発信元情報と発信先情報とが含まれているものとする。
【0051】
処理サーバ2(プレゼンス情報管理部25)は、ステップS41で通知された通話状態情報をプレゼンス情報記憶部32に格納することで、プレゼンス情報を更新する(ステップS42)。
また、処理サーバ2(プレゼンス情報管理部25)は、ユーザIDと通話状態情報と発信元情報と発信先情報とを用いて、“通話中の座席位置情報”を生成し、生成した“通話中の座席位置情報”をプレゼンス情報記憶部32に格納することで、プレゼンス情報を更新する(ステップS42)。
【0052】
処理サーバ2(映像処理部21)は、更新されたプレゼンス情報に基づいて、仮想オフィス空間にアバターを重畳した仮想空間を変更する(ステップS43)。具体的には、通話を開始したユーザのアバターの位置を変更する。当該処理の詳細は後述する。
続いて、処理サーバ2は、端末3に対し、ステップS43で変更された仮想空間をアバターの視点で見たアバター視点画像を送信する(ステップS44)。
端末3は、処理サーバ2からアバター視点画像を受信して、受信したアバター視点画像を表示する(ステップS45)。
【0053】
<ステップS33の処理の一例>
図9に示すステップS33において、処理サーバ2(映像処理部21)は、プレゼンス情報に基づいて、例えば次のようにして、仮想オフィス空間にアバターを重畳した仮想空間を生成する。ここで、プレゼンス情報記憶部32に格納されるプレゼンス情報(図8参照)は、図2に示す例に対応した内容である(ここでは、6人のユーザが座席に着席したとする)。
【0054】
処理サーバ2(映像処理部21)は、プレゼンス情報(ユーザIDと座席位置情報とが紐づけられた情報)を用いて、仮想オフィス空間における座席位置と、当該座席位置に配置されるユーザのアバターを決定する。
ここでは、図2(a)に示すように、仮想オフィス空間における座席位置は、縦長の長方形の机に対して、左側に3人、右側に3人が着席する構成であるとき、左側の下側から、自分(座席ID「1」)、ユーザA(座席ID「2」)、ユーザB(座席ID「3」)とし、右側の上側から、ユーザC(座席ID「4」)、ユーザD(座席ID「5」)、ユーザE(座席ID「6」)とする。
この場合、自分のユーザのアバター視点画像は、例えば図2(b)のようになる。
【0055】
<ステップS42の処理の一例>
図9に示すステップS42において、処理サーバ2(プレゼンス情報管理部25)は、ステップS41で通知された通話状態情報をプレゼンス情報記憶部32に格納することで、プレゼンス情報を変更する。
また、処理サーバ2(プレゼンス情報管理部25)は、“通話状態情報”と“発信元情報”と“発信先情報”とを用いて、“通話中の座席位置情報”を生成し、生成した“通話中の座席位置情報”をプレゼンス情報記憶部32に格納することで、プレゼンス情報を変更する。
【0056】
ここでは、変更されたプレゼンス情報は、ユーザEのIDに紐づけられた“通話状態情報”と“発信元情報”と“発信先情報”、及び、ユーザCのIDに紐づけられた“通話状態情報”と“発信元情報”と“発信先情報”であり、各情報の変更は、次の通りであるものとする。
“通話状態情報”は、“通話可”から“通話中”に変更。
“発信元情報”は、“-”から“ユーザEのID”に変更。
“発信先情報”は、“-”から“ユーザCのID”に変更。
【0057】
また、処理サーバ2(プレゼンス情報管理部25)は、変更されたプレゼンス情報である、ユーザIDがユーザE,ユーザCに紐づけられた、“通話状態情報(=通話中)”と“発信元情報(=ユーザEのID)”と“発信先情報(=ユーザCのID)”とに基づいて、“通話中の座席位置情報”を生成し、生成した“通話中の座席位置情報”をプレゼンス情報記憶部32に格納することで、プレゼンス情報を変更する。
【0058】
当初(通話開始前)の“座席位置情報”から“通話中の座席位置情報”への変更は、次の通りであるものとする。ここでは、“発信元情報”ではなく“発信先情報”に対応するユーザの座席を変更することにし、“発信先情報”に対応するユーザの“座席位置情報”と、関連するユーザ(例えば“発信元情報”の隣に座るユーザ)の“座席位置情報”とを変更する。変更後の“座席位置情報”は、“通話中の座席位置情報”として格納される。“座席位置情報”の変更は、次の通りである。
ユーザCのIDに紐づけられた“座席位置情報”は、“座席ID「4」”から“座席ID「5」”に変更。
ユーザDのIDに紐づけられた“座席位置情報”は、“座席ID「5」”から“座席ID「4」”に変更。
上記のように変更されたプレゼンス情報は、図10のようになる。
【0059】
<ステップS43の処理の一例>
図9に示すステップS43において、処理サーバ2(映像処理部21)は、変更されたプレゼンス情報に基づいて、次のようにして仮想空間を生成する。ここで、プレゼンス情報記憶部32に格納されるプレゼンス情報は、図10に示す例の通りである(ここでは、ユーザEとユーザCとが通話中になったとする)。
【0060】
処理サーバ2(映像処理部21)は、プレゼンス情報(図10のプレゼンス情報記憶部32におけるユーザIDと通話中の座席位置情報とが紐づけられた情報)を用いて、仮想空間画像における座席位置と、当該座席位置に配置されるユーザのアバターを決定する。
図11(a)に示すように、変更後の座席位置は、左側の下側から、自分(座席ID「1」)、ユーザA(座席ID「2」)、ユーザB(座席ID「3」)となり、右側の上側から、ユーザCから変更されたユーザD(座席ID「4」)、ユーザDから変更されたユーザC(座席ID「5」)、ユーザE(座席ID「6」)となる。
この結果、自分のユーザのアバター視点画像は、図11(b)や図11(c)のようになる。
【0061】
以上説明した第2実施形態に係る処理システム101によっても、第1実施形態と同等の効果を奏することができる。つまり、処理システム101によれば、同じ空間にいる感覚が得られるものであるとともに、仮想空間でのコミュニケーションを手軽に利用することができる。
また、第2実施形態では、通話者のアバターを隣同士に配置するので、コミュニケーションを行っている者を視覚によって直感的に把握することが可能である。
【0062】
以上、本発明の実施形態について説明したが、本発明はこれに限定されるものではなく、特許請求の範囲の趣旨を変えない範囲で実施することができる。
例えば、各実施形態では、仮想空間として仮想のオフィス空間を例示して説明したが、仮想空間はオフィス空間に限定されない。例えば、仮想空間は、学校の教室、展示や販売会場などであってもよい。
【0063】
また、各実施形態では、各端末3の各ユーザにおける通話の状態(通話状態情報)として、“通話可”“通話中”の二つを例示して説明したが、通話の状態はこれらに限るものではない。例えば、2者のユーザ間における通話に関わる状態に“繋がった”“終了して切った”などを含めてもよい。
【0064】
また、第2実施形態では、コミュニケーションの一例として通話を想定し、通話を行っているユーザのアバターを仮想空間上で隣同士に配置していた。しかしながら、コミュニケーションは通話に限られず、例えば、チャットなどであってもよい。その場合、例えばチャットを行っているユーザのアバターを仮想空間上で隣同士に配置する。
【0065】
また、第2実施形態では、コミュニケーションを行っている人を関連付ける方法として、コミュニケーションを行っているユーザのアバターを仮想空間上で隣同士に配置していた。しかしながら、コミュニケーションを行っている人の関連付けはこれに限定されず、例えば、隣同士に配置すると共に/またはそれに代えて、コミュニケーションを行う者同士が向き合うように、アバターの向きを変更してもよい。また、正対するまではいかずとも向き合う方向に所定角度(例えば、15~30°)だけ互いのアバターを傾けて配置してもよい。また、それ以外にも、例えば、該当するアバターを同じ色で発光させたり、同じ動作を行わせたり、吹き出しを付与するなどしてもよい。
【符号の説明】
【0066】
1,101 処理システム
2 処理サーバ
3 端末
4 座席管理装置
5 呼制御装置
11 カメラ
12 表示部
13 入力部
21 映像処理部
22 アバター処理部
23 仮想オフィス空間処理部
24 重畳処理部
25 プレゼンス情報管理部
26 プレゼンス情報監視部
31 記憶部
32 プレゼンス情報記憶部
33 座席位置情報記憶部
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11