IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 17LIVE株式会社の特許一覧

特表2023-543369映像処理のためのシステム、方法、及びコンピュータ可読媒体
<>
  • 特表-映像処理のためのシステム、方法、及びコンピュータ可読媒体 図1
  • 特表-映像処理のためのシステム、方法、及びコンピュータ可読媒体 図2
  • 特表-映像処理のためのシステム、方法、及びコンピュータ可読媒体 図3
  • 特表-映像処理のためのシステム、方法、及びコンピュータ可読媒体 図4
  • 特表-映像処理のためのシステム、方法、及びコンピュータ可読媒体 図5
  • 特表-映像処理のためのシステム、方法、及びコンピュータ可読媒体 図6
  • 特表-映像処理のためのシステム、方法、及びコンピュータ可読媒体 図7
  • 特表-映像処理のためのシステム、方法、及びコンピュータ可読媒体 図8
  • 特表-映像処理のためのシステム、方法、及びコンピュータ可読媒体 図9
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公表特許公報(A)
(11)【公表番号】
(43)【公表日】2023-10-16
(54)【発明の名称】映像処理のためのシステム、方法、及びコンピュータ可読媒体
(51)【国際特許分類】
   H04N 7/15 20060101AFI20231006BHJP
   H04N 21/431 20110101ALI20231006BHJP
【FI】
H04N7/15
H04N21/431
【審査請求】有
【予備審査請求】未請求
(21)【出願番号】P 2022522347
(86)(22)【出願日】2021-09-30
(85)【翻訳文提出日】2022-04-13
(86)【国際出願番号】 US2021052779
(87)【国際公開番号】W WO2023055365
(87)【国際公開日】2023-04-06
(81)【指定国・地域】
(71)【出願人】
【識別番号】517287224
【氏名又は名称】17LIVE株式会社
(74)【代理人】
【識別番号】100126572
【弁理士】
【氏名又は名称】村越 智史
(72)【発明者】
【氏名】ウー,シャオ ユアン
(72)【発明者】
【氏名】チウ,ポ-シェン
(72)【発明者】
【氏名】チャン,ユーチュアン
(72)【発明者】
【氏名】チェン,ミン-チュ
【テーマコード(参考)】
5C164
【Fターム(参考)】
5C164FA10
5C164UB41S
5C164UB81P
5C164VA07P
5C164YA12
5C164YA21
(57)【要約】
【課題】映像処理のためのシステム、方法、及びコンピュータ可読媒体の提供。
【解決手段】本発明は映像処理のためのシステム、方法、及びコンピュータ可読媒体に関し、当該方法が、第1ユーザのライブ映像をユーザ端末の第1領域に表示する工程と、第2ユーザの映像を当該ユーザ端末の第2領域に表示する工程を含み、当該第1ユーザの当該ライブ映像の一部が、当該ユーザ端末の当該第2領域まで延伸され、本発明は電話会議またはグループ通話中の交流を改善することができる。
【選択図】図2
【特許請求の範囲】
【請求項1】
映像処理方法であって、
ユーザ端末上の第1領域内に第1ユーザのライブ映像を表示する工程と、
当該ユーザ端末上の第2領域内に第2ユーザの映像を表示する工程と、
を含み、そのうち、前記第1ユーザの前記ライブ映像の一部が、前記ユーザ端末上の前記第2領域まで延伸される、ことを特徴とする、映像処理方法。
【請求項2】
さらに、前記第1領域内にインタラクティブ領域を定義する工程と、
前記インタラクティブ領域内の前記第1ユーザの部分を検出する工程と、
前記第2領域内に前記第1ユーザの前記部分を表示する工程と、
を含むことを特徴とする、請求項1に記載の映像処理方法。
【請求項3】
前記インタラクティブ領域内の前記第1ユーザの前記部分を検出する工程が、マッティングプロセスを含むことを特徴とする、請求項2に記載の映像処理方法。
【請求項4】
前記インタラクティブ領域内の前記第1ユーザの前記部分を検出する工程がオブジェクト認識処理を含む、ことを特徴とする、請求項2に記載の映像処理方法。
【請求項5】
さらに、前記オブジェクト認識処理が、前記第1ユーザの前記部分に所定のパターンを認識した場合、前記ユーザ端末上に特殊効果を表示する工程を含む、ことを特徴とする、請求項4に記載の映像処理方法。
【請求項6】
前記オブジェクト認識処理が、ジェスチャ認識処理または皮膚認識処理を含む、ことを特徴とする、請求項4に記載の映像処理方法。
【請求項7】
前記インタラクティブ領域内の前記第1ユーザの前記部分を検出する工程が、画像比較処理または移動体検出処理を含む、ことを特徴とする、請求項2に記載の映像処理方法。
【請求項8】
前記第1ユーザと前記第2ユーザが、前記ユーザ端末上で横方向に並んでおり、前記第1ユーザの前記ライブ映像の前記部分が、前記第1領域内において前記第2ユーザに向かって延伸される、ことを特徴とする、請求項1に記載の映像処理方法。
【請求項9】
前記第1ユーザと前記第2ユーザが、前記ユーザ端末上で垂直方向に並んでおり、前記第1ユーザの前記ライブ映像の前記部分が、前記第1領域内において前記第2ユーザに向かって延伸される、ことを特徴とする、請求項1に記載の映像処理方法。
【請求項10】
前記第1ユーザと前記第2ユーザが、前記ユーザ端末上で対角方向に並んでおり、前記第1ユーザの前記ライブ映像の前記部分が、前記第1領域内において前記第2ユーザに向かって延伸される、ことを特徴とする、請求項1に記載の映像処理方法。
【請求項11】
さらに、前記インタラクティブ領域内の前記第1ユーザの前記部分の位置を検出する工程と、
前記インタラクティブ領域内の前記第1ユーザの前記部分の前記位置に基づき、前記第2領域の位置を判断する工程と、
を含むことを特徴とする、請求項2に記載の映像処理方法。
【請求項12】
さらに、前記ユーザ端末上の前記第1領域内の境界線を超えている前記第1ユーザの部分を検出することにより、前記第1ユーザの前記ライブ映像の前記部分を決定する工程を含む、ことを特徴とする、請求項1に記載の映像処理方法。
【請求項13】
前記境界線の位置が、前記第1ユーザにより決定される、ことを特徴とする、請求項12に記載の映像処理方法。
【請求項14】
前記境界線が、前記第1領域に対する前記第2領域の方向に対応し、かつ前記第1領域と前記第2領域の間にある、ことを特徴とする、請求項12に記載の映像処理方法。
【請求項15】
前記第2ユーザの前記映像がライブ映像であることを特徴とする、請求項1に記載の映像処理方法。
【請求項16】
前記第2領域へ延伸された前記第1ユーザの前記ライブ映像の前記部分が、グラフィカルオブジェクトとして表現されることを特徴とする、請求項1に記載の映像処理方法。
【請求項17】
さらに。前記第1ユーザの前記ライブ映像の前記部分が延伸されて前記第2ユーザの前記第2領域に触れる場合、前記第2領域に特殊効果を表示する工程を含むことを特徴とする、請求項1に記載の映像処理方法。
【請求項18】
映像処理システムであって、1以上のプロセッサを備え、前記1以上のプロセッサが機械可読命令を実行して、
ユーザ端末上の第1領域内に第1ユーザのライブ映像を表示する工程と、
当該ユーザ端末上の第2領域内に第2ユーザの映像を表示する工程と、
を実行し、そのうち、前記第1ユーザの前記ライブ映像の一部が、前記ユーザ端末上の前記第2領域まで延伸される、ことを特徴とする、映像処理システム。
【請求項19】
前記1以上のプロセッサが、前記機械可読命令を実行して、さらに、
前記第1領域内にインタラクティブ領域を定義する工程と、
前記インタラクティブ領域内の前記第1ユーザの部分を検出する工程と、
前記第2領域内に前記第1ユーザの前記部分を表示する工程と、
を実行することを特徴とする、請求項18に記載の映像処理システム。
【請求項20】
映像処理のためのプログラムを含む非一時的なコンピュータ可読媒体であって、そのうち、前記プログラムが、1以上のコンピュータに、
ユーザ端末上の第1領域内に第1ユーザのライブ映像を表示する工程と、
当該ユーザ端末上の第2領域内に第2ユーザの映像を表示する工程と、
を実行させ、そのうち、前記第1ユーザの前記ライブ映像の一部が、前記ユーザ端末上の前記第2領域まで延伸される、ことを特徴とする、非一時的なコンピュータ可読媒体。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、ライブビデオストリーミングまたはビデオ電話会議における画像処理または映像処理に関する。
【背景技術】
【0002】
ユーザ同士のオンライン通信に参加することを可能にするさまざまな技術が知られている。そのアプリケーションには、ライブストリーミング、ライブ電話会議などが含まれる。これらアプリケーションの普及に伴い、コミュニケーション中の交流体験の向上に対するユーザからの要望が高まっている。
【発明の概要】
【課題を解決するための手段】
【0003】
本発明の一実施態様に係る方法は、映像処理方法である。当該方法が、第1ユーザのライブ映像をユーザ端末の第1領域に表示する工程と、第2ユーザの映像を当該ユーザ端末の第2領域に表示する工程を含み、当該第1ユーザの当該ライブ映像の一部が、当該ユーザ端末の当該第2領域まで延伸される。
【0004】
本発明の一実施態様に係るシステムは、映像処理のためのシステムであり、1以上のプロセッサを含み、当該1以上のプロセッサが機械可読命令を実行して、第1ユーザのライブ映像をユーザ端末上の第1領域に表示する工程と、第2ユーザの映像を当該ユーザ端末の第2領域に表示する工程と、を実行する。当該第1ユーザの当該ライブ映像の一部が、当該ユーザ端末の当該第2領域まで延伸される。
【0005】
本発明の一実施態様に係るコンピュータ可読媒体は、非一時的なコンピュータ可読媒体であり、映像処理のためのプログラムを含み、当該プログラムが1以上のコンピュータに、第1ユーザのライブ映像をユーザ端末上の第1領域に表示する工程と、第2ユーザの映像を当該ユーザ端末の第2領域に表示する工程と、を実行させる。当該第1ユーザの当該ライブ映像の一部が、当該ユーザ端末の当該第2領域まで延伸される。
【図面の簡単な説明】
【0006】
図1】グループ通話の一例を示す概略図である。
図2】本発明の一部の実施態様に基づくグループ通話の一例を示す概略図である。
図3】本発明の一部の実施態様に基づくグループ通話の一例を示す概略図である。
図4】本発明の一部の実施態様に基づくグループ通話の一例を示す概略図である。
図5】本発明の一部の実施態様に基づくグループ通話の一例を示す概略図である。
図6】本発明の一部の実施態様に基づくグループ通話の一例を示す概略図である。
図7】本発明の一部の実施態様に基づく通信システムの構成を示す概略図である。
図8】本発明の一部の実施態様に基づく通信システムの例示的な機能構成図である。
図9】本発明の一部の実施態様に基づく通信システムの動作を示す例示的なシーケンス図である。
【発明を実施するための形態】
【0007】
ライブストリーミングサービス、アプリケーション(APP)またはプラットフォームの一部では、複数のユーザ(配信者、視聴者、放送者、アンカーなど)がグループ通話モードや電話会議モードで参加することが可能であり、そのうち、複数のユーザの映像がユーザ端末の画面上に同時に表示され、そのグループ通話またはグループ通話への参加を表示する。当該ユーザ端末は、スマートフォンやタブレット、パソコン、ノートパソコンとすることができ、それを使用して当該ユーザの1人が当該グループ通話に参加する。
【0008】
図1にグループ通話の一例を示す概略図を示す。S1は当該グループ通話を表示するユーザ端末の画面である。RAは、当該画面S1内の1領域であり、ユーザAのライブ映像を表示する。RBは、当該画面S1内の1領域であり、ユーザBのライブ映像を表示する。当該ユーザAのライブ映像は、ユーザAの近傍に配置されたカメラなどの映像撮影装置によって撮影され、提供されてもよい。当該ユーザBのライブ映像は、ユーザBの近傍に配置されたカメラなどの映像撮影装置によって撮影され、提供されてもよい。
【0009】
従来、当該ユーザAの映像は領域RA内にのみ表示でき、領域RB内に表示することはできない。同様に、当該ユーザBの映像は領域RB内にのみ表示でき、領域RA内に表示することはできない。そのため、コミュニケーション中に不便を感じたり、アプリケーションに支障をきたしたりする場合がある。例えば、ユーザBが当該グループ通話でユーザAに新たに開発した製品を提示する例示的なシナリオにおいて、ユーザAは詳細な議論のために製品の一部または部分を正確に指し示すことができない。そのため、グループ通話や電話会議では、より多くの交流を行うことが望まれる。
【0010】
図2は本発明の一部の実施態様に基づくグループ通話の一例を示す概略図である。図2に示すように、ユーザAの部分A1が、ユーザBが表示されている領域RBまで延伸されている、または再現/複製されている。本実施態様において、当該部分A1は、領域RAにおけるユーザAの手であり、当該部分A11は、領域RBに表示される当該部分A1の延伸、再現、または複製されたバージョンである。当該部分A11は、領域RB内のオブジェクトB1を指し示す、またはその方向に向けられている。一部の実施態様において、領域RB内に表示されているユーザBの映像はライブ映像である。一部の実施態様において、領域RB内に表示されているユーザBの映像は再生映像である。
【0011】
一部の実施態様において、当該部分A11は当該部分A1の動きまたは軌跡を追従する。一部の実施態様において、当該部分A11は当該部分A1と同時に移動する。当該ユーザAは、当該部分A1となっている手を動かすだけで、当該ユーザAが議論したい領域RB内の位置を指し示すように、当該部分A11を制御したり、動かしたりすることができる。一部の実施態様において、当該部分A11は、グラフィカルオブジェクトまたはアニメーションオブジェクトとして表現または表示されてもよい。
【0012】
図2に示すように、領域RA内には境界A3がある。当該境界A3は、領域RA内で領域A31と領域A32を定義する。本実施態様において、当該領域A31は当該領域A32を囲んでいる。当該領域A31は、インタラクティブ領域と呼ぶ、または定義することができる。領域RB内に延伸される、または再現される当該部分A1は、当該インタラクティブ領域A31内にある。当該部分A1は、領域RA内のユーザBに向けて延伸される。一部の実施態様において、当該インタラクティブ領域A31内の部分のみを領域RB内に延伸または表示することができる。一部の実施態様において、ユーザAがユーザAの1部分を領域RBに延伸することによりユーザBと交流したい場合、ユーザAは当該部分を当該インタラクティブ領域A31へ移動するだけで、当該部分が領域RB内に表示される。本実施態様において、当該領域RAと当該領域RBは相互に分離されている。一部の実施態様において、当該領域RAと当該領域RBは、当該画面S1上で少なくとも一部が重なり合ってもよい。
【0013】
図2に示すように、領域RB内には境界B3がある。当該境界B3は、領域RB内で領域B31と領域B32を定義する。本実施態様において、当該領域B31は当該領域B32を囲んでいる。当該領域B31は、インタラクティブ領域と呼ぶ、または定義することができる。一部の実施態様において、当該インタラクティブ領域B31内の部分を領域RA内に延伸または表示することができる。一部の実施態様において、ユーザBがユーザBの1部分を領域RAに延伸することによりユーザAと交流したい場合、ユーザBは当該部分を当該インタラクティブ領域B31へ移動するだけで、当該部分が領域RA内に表示される。一部の実施態様において、当該境界A3及び/または当該境界B3は、当該領域RA及び/または当該領域RB上に表示されなくてもよい。
【0014】
図2において、ユーザAとユーザB、または領域RAと領域RBは、当該ユーザ端末の当該画面S1上で横方向に並んでおり、当該ユーザAのライブ映像の当該部分A1が当該領域RAにおいてユーザBに向かって延伸されている。
【0015】
図3に本発明の一部の実施態様に基づくグループ通話の別の一例を示す概略図を示す。当該グループ通話には、少なくとも4人のユーザ、すなわちユーザA、ユーザB、ユーザC、ユーザDが参加している。図3において、ユーザAとユーザBは当該ユーザ端末の当該画面S1上で縦方向に並んでいる。図3に示すように、ユーザAの部分A2が、ユーザBが表示されている領域RBまで延伸されている、または再現/複製されている。本実施態様において、当該部分A2はユーザAの手と、その手に保持されたオブジェクトを含み、当該部分A21は領域RB内に表示される当該部分A2の延伸、再現、または複製されたバージョンである。当該部分A21は、領域RB内のユーザBに近づく、またはその方向に向けられている。当該部分A21がユーザBに接触すると、領域RBに特殊効果SP1が表示される。当該特殊効果SP1は、グラフィックオブジェクトまたはアニメーションオブジェクトを含んでもよい。一部の実施態様において、当該特殊効果SP1は効果音を含んでもよい。
【0016】
一部の実施態様において、当該部分A21は当該部分A2の動きまたは軌跡を追従する。一部の実施態様において、当該部分A21は当該部分A2と同時に移動する。当該ユーザAは、当該ユーザAの手(オブジェクトを持っていてもよい)を動かすだけで、当該ユーザAが交流したい領域RB内の1つの位置を指し示す、または触れるように、当該部分A21を制御したり、動かしたりすることができる。一部の実施態様において、当該部分A21は、グラフィカルオブジェクトまたはアニメーションオブジェクトとして表現または表示されてもよい。
【0017】
図3に示すように、領域RA内には境界A3がある。当該境界A3は、領域RA内で領域A31と領域A32を定義する。本実施態様において、当該領域A31は当該領域A32を囲んでいる。当該領域A31は、インタラクティブ領域と呼ぶ、または定義することができる。領域RB内に延伸される、または再現される当該部分A2は、当該インタラクティブ領域A31内にある。当該部分A2は、領域RA内のユーザBに向けて延伸される。一部の実施態様において、当該インタラクティブ領域A31内の部分のみを領域RB内に延伸または表示することができる。一部の実施態様において、ユーザAがユーザAの1部分を領域RBに延伸することによりユーザBと交流したい場合、ユーザAは当該部分を当該インタラクティブ領域A31へ移動するだけで、当該部分が領域RB内に表示される。
【0018】
図4に本発明の一部の実施態様に基づくグループ通話の別の一例を示す概略図を示す。当該グループ通話には、少なくとも4人のユーザ、すなわちユーザA、ユーザB、ユーザC、ユーザDが参加している。図4において、ユーザAとユーザDは当該ユーザ端末の当該画面S1上で対角方向に並んでいる。図4に示すように、ユーザAの部分A1が、ユーザDが表示されている領域RDまで延伸されている、または再現/複製されている。本実施態様において、当該部分A1はユーザAの手であり、当該部分A11は、領域RDに表示される当該部分A1の延伸、再現、または複製されたバージョンである。当該部分A11は、領域RD内のユーザDを指し示す、またはその方向に向けられている。
【0019】
一部の実施態様において、当該部分A11は当該部分A1の動きまたは軌跡を追従する。一部の実施態様において、当該部分A11は当該部分A1と同時に移動する。当該ユーザAは、当該部分A1となっている手を動かすだけで、当該ユーザAが交流したい領域RD内の位置を指し示すように、当該部分A11を制御したり、動かしたりすることができる。一部の実施態様において、当該部分A11は、グラフィカルオブジェクトまたはアニメーションオブジェクトとして表現または表示されてもよい。
【0020】
図4に示すように、領域RA内には境界A3がある。当該境界A3は、領域RA内で領域A31と領域A32を定義する。当該領域A31は当該領域A32を囲んでいる。当該領域A31は、インタラクティブ領域と呼ぶ、または定義することができる。本実施態様において、当該インタラクティブ領域A31はサブ領域A311を含む。領域RD内に延伸される、または再現される当該部分A1は、当該サブ領域A311内にある。当該サブ領域A311は、ユーザAとユーザDの間にある。当該サブ領域A311は、領域RAのうち、ユーザAから見て領域RDの方を向いた位置にある。
【0021】
図2図3図4の例に示すように、領域RAにおいてユーザAの部分が延伸される方向によって、ユーザAの延伸、複製、再現されたバージョンの当該部分が表示される領域が決定されてもよい。したがって、ユーザAは、ユーザAの当該部分を対応する方向へ移動または伸長させるだけで、どの領域(および対応するユーザ)と交流するかを決定することができる。例えば、ユーザAは横方向に部分を伸長させ、表示領域が当該画面S1上でユーザAに対して横方向に並んだ、または配置されているユーザと交流することができる。別の例で、ユーザAは縦方向に部分を伸長させ、表示領域が当該画面S1上でユーザAに対して縦方向に並んだ、または配置されているユーザと交流することができる。さらに別の例で、ユーザAは対角方向に部分を伸長させ、表示領域が当該画面S1上でユーザAに対して対角方向に並んだ、または配置されているユーザと交流することができる。
【0022】
一部の実施態様において、ユーザは別のユーザとより便利に交流できるように、当該インタラクティブ領域の形状を調整することができる。図5に本発明の一部の実施態様に基づくグループ通話の別の一例を示す概略図を示す。当該グループ通話には、少なくとも4人のユーザ、すなわちユーザA、ユーザB、ユーザC、ユーザDが参加している。図5に示すように、当該境界A3は、前の例示的実施態様で説明したように、ユーザAが他のユーザと交流するために利用する領域である当該インタラクティブ領域A31を定義する。当該インタラクティブ領域A31はサブ領域A311を含む。当該境界A3は、少なくとも境界線BR1と境界線BR2を含む。一部の実施態様において、ユーザAが別のユーザとより便利に交流したい場合、ユーザAは当該境界線BR1の位置及び/または当該境界線BR2の位置を調整し、当該インタラクティブ領域A31の形状と当該当該サブ領域A311の形状を調整することができる。当該境界線BR1は、当該領域RAに対するユーザCまたは当該領域RCの方向に対応し、かつ当該領域RAと当該領域RCの間にある。当該境界線BR2は、当該領域RAに対するユーザBまたは当該領域RBの方向に対応し、かつ当該領域RAと当該領域RBの間にある。
【0023】
例えば、ユーザAは、ユーザAとユーザCの間にある当該インタラクティブ領域A31のサブ領域A312がより幅広になり、ユーザAにより近くなるように、当該境界線BR1をユーザAに近づけてドラッグまたは移動することができる。これにより、ユーザAはユーザAの部分を使用してユーザCとより交流しやすくなる。ユーザAは、ユーザAの当該部分を比較的短い距離だけ伸長し、当該境界線BR1を越えて当該インタラクティブ領域A31の当該サブ領域A312に到達すればよく、そうするとユーザCが表示される領域RCにおいて当該部分が延伸、複製または再現される。
【0024】
別の一例で、ユーザAは、ユーザAとユーザBの間にある当該インタラクティブ領域A31のサブ領域A313がより幅広になり、ユーザAにより近くなるように、当該境界線BR2をユーザAに近づけてドラッグまたは移動することができる。これにより、ユーザAはユーザAの部分を使用してユーザBとより交流しやすくなる。ユーザAは、ユーザAの当該部分を比較的短い距離だけ伸長し、当該境界線BR2を越えて当該インタラクティブ領域A31の当該サブ領域A312に到達すればよく、そうするとユーザBが表示される領域RBにおいて当該部分が延伸、複製または再現される。
【0025】
さらに別の一例で、ユーザAは、ユーザAとユーザDの間にある当該インタラクティブ領域A31のサブ領域A311がより幅広になり、ユーザAにより近くなるように、当該境界線BR1及び/または境界線BR2をユーザAに近づけてドラッグまたは移動することができる。これにより、ユーザAはユーザAの部分を使用してユーザDとより交流しやすくなる。ユーザAは、ユーザAの当該部分を比較的短い距離だけ対角方向に伸長し、当該インタラクティブ領域A31の当該サブ領域A311に到達すればよく、そうするとユーザDが表示される領域RDにおいて当該部分が延伸、複製または再現される。
【0026】
図6に本発明の一部の実施態様に基づくグループ通話の別の一例を示す概略図を示す。一部の実施態様において、当該インタラクティブ領域の外側のみが抽出され、当該画面S1上に表示される。より具体的に、ユーザAに対しては、当該境界A3で囲まれた領域のみが当該画面S1に表示される。ユーザB、ユーザC、ユーザDに対しては、当該境界B3、C3、D3で囲まれた領域のみが当該画面S1に表示される。それにより、交流の臨場感を向上させることができる。例えば、ユーザAが部分を別のユーザの表示領域に伸長したとき、当該部分はユーザAの表示領域に表示されない。
【0027】
図7に本発明の一部の実施態様に基づく通信システム1の構成を示す概略図を示す。通信システム1は、コンテンツを介したインタラクションを伴うライブストリーミングサービスを提供することができる。ここで言う「コンテンツ」とは、コンピュータ装置で再生可能なデジタルコンテンツを指す。当該通信システム1は、ユーザがオンラインで他のユーザとのリアルタイムの交流に参加することを可能にする。通信システム1は、複数のユーザ端末10と、バックエンドサーバ30と、ストリーミングサーバ40とを含む。ユーザ端末10、バックエンドサーバ30、及びストリーミングサーバ40は、ネットワーク90(例えばインターネットとしてもよい)を介して接続される。バックエンドサーバ30は、ユーザ端末および/またはストリーミングサーバ40との間のインタラクションを同期させるサーバとすることができる。一部の実施態様において、バックエンドサーバ30は、アプリケーション(APP)プロバイダのオリジンサーバとしてもよい。ストリーミングサーバ40は、ストリーミングデータまたはビデオデータを取り扱う、または提供するためのサーバである。一部の実施態様において、バックエンドサーバ30とストリーミングサーバ40は、独立したサーバとしてもよい。一部の実施態様において、バックエンドサーバ30とストリーミングサーバ40は、1つのサーバに統合してもよい。一部の実施態様において、ユーザ端末10は、ライブストリーミングのためのクライアント装置である。一部の実施態様において、ユーザ端末10は、視聴者、ストリーマー、アンカー、ポッドキャスター、オーディエンス、リスナーなどと呼ばれることがある。ユーザ端末10、バックエンドサーバ30、及びストリーミングサーバ40はそれぞれ情報処理装置の一例である。一部の実施態様において、ストリーミングは、ライブストリーミングまたはビデオ再生とすることができる。一部の実施態様において、ストリーミングは、オーディオストリーミングおよび/またはビデオストリーミングとすることができる。一部の実施態様において、ストリーミングは、オンラインショッピング、トークショー、タレントショー、娯楽イベント、スポーツイベント、音楽ビデオ、映画、コメディ、コンサート、グループ通話、電話会議などのコンテンツを含むことができる。
【0028】
図8に本発明の一部の実施態様に基づく通信システムの例示的な機能構成図を示す。図8において、ネットワーク90は省略されている。
【0029】
当該バックエンドサーバ30は、メッセージユニット32を含む。当該メッセージユニット32は、ユーザ端末からデータまたは情報を受け取り、それらデータを処理及び/または保存し、当該データをユーザ端末に送信するように構成される。一部の実施態様において、当該メッセージユニット32は当該バックエンドサーバ30とは別個のユニットとしてもよい。
【0030】
当該ストリーミングサーバ40は、データ受信装置400と、データ送信装置402を含む。当該データ受信装置400は、さまざまなユーザ端末からストリーミングデータやビデオデータなどのデータまたは情報を受信するように構成される。当該データ送信装置402は、さまざまなユーザ端末にストリーミングデータやビデオデータなどのデータまたは情報を送信するように構成される。
【0031】
当該ユーザ端末10Aは、ユーザAにより操作されるユーザ端末であってもよい。当該ユーザ端末10Aは、カメラ700と、レンダラー702と、ディスプレイ704と、エンコーダー706と、デコーダー708と、結果送信装置710と、マッティングユニット712と、オブジェクト認識ユニット714を含む。
【0032】
当該カメラ700は、任意の種類の映像撮影装置である、またはこれを含むことができる。当該カメラ700は、例えばユーザAの、ビデオデータを撮影するように構成される。
【0033】
当該レンダラー702は、当該カメラ700からのビデオデータ(ユーザAのビデオデータ)を受信、当該デコーダー708からのビデオデータ(ユーザBからのビデオデータを含んでもよい)を受信して、当該ディスプレイ704に表示するレンダリングされた映像(ユーザAとユーザBが表示されているグループ通話を表示する映像など)を生成するように構成される。
【0034】
当該ディスプレイ704は、当該レンダラー702からのレンダリングされた映像を表示するように構成される。一部の実施態様において、当該ディスプレイ704はユーザ端末10A上の画面であってもよい。
【0035】
当該エンコーダー706は当該カメラ700からのビデオデータをエンコードし、エンコードした当該ビデオデータを当該ストリーミングサーバ40の当該データ受信装置400に送信するように構成される。エンコードしたデータはストリーミングデータとして送信されてもよい。
【0036】
当該デコーダー708は、当該ストリーミングサーバ40の当該データ送信装置402からビデオデータまたはストリーミングデータ(ユーザBからのビデオデータを含んでもよい)を受信し、それらをデコードしてデコードしたビデオデータとし、当該デコードしたビデオデータを当該レンダラー702に送信してレンダリングさせるように構成される。
【0037】
当該マッティングユニット712は、当該カメラ700からの当該ビデオデータ(ユーザAのビデオデータ)にマッティング処理(画像マッティングまたは映像マッティング)を実行するように構成される。当該マッティング処理は、輪郭認識処理、画像比較処理、移動体検出処理、及び/または切り出し処理が含まれてもよい。当該マッティング処理は、定色マッティング(constant-color matting)、差分マッティング(difference matting)、自然画像マッティング(natural image matting)を含む手法で実行されてもよい。また、当該マッティング処理に関わるアルゴリズムは、ベイジアンマッティング(Bayesian matting)、ポアソンマッティング(Poisson matting)、またはロバストマッティング(Robust matting)を含んでもよい。一部の実施態様において、画像比較プロセスは、初期またはデフォルトの背景画像と現在のまたはライブ画像とを定期的に比較し、インタラクティブ領域におけるユーザAの部分を検出する。
【0038】
例えば、当該マッティングユニット712は、カメラ700からユーザAのビデオデータを受け取る。当該ビデオデータは、図2図3図4図5で例に挙げて上述したようにインタラクティブ領域を含むことができる。一部の実施態様において、当該マッティングユニット712は、ビデオデータ中のユーザAの輪郭を検出または抽出するためのマッティング処理を実行する。一部の実施態様において、当該マッティングユニット712は、当該インタラクティブ領域内のユーザAの部分(ユーザAの手や、オブジェクトを持っているユーザAの手など)を検出または抽出するマッティング処理を実行する。一部の実施態様において、当該マッティングユニット712は、ユーザAのビデオデータから当該インタラクティブ領域外側の領域または部分を削除する切り出し処理を実行する。一部の実施態様において、当該マッティングユニット712は、ユーザAの当該部分が検出された当該インタラクティブ領域内の位置を検出、認識、または判断する。一部の実施態様において、切り出し処理の前に輪郭認識処理または画像比較処理を実行し、当該インタラクティブ領域におけるユーザAの当該部分の検出精度を向上させてもよい。
【0039】
一部の実施態様において、当該インタラクティブ領域、及び対応する境界または境界線は、当該ユーザ端末10Aのプロセッサ(図示しない)または当該グループ通話を有効にしているアプリケーションにより定義されてもよい。一部の実施態様において、当該インタラクティブ領域と、対応する境界または境界線は、ユーザAにより当該ユーザ端末10AのUI(ユーザインターフェイス)ユニット(図示しない)で決定されてもよい。一部の実施態様において、当該マッティングユニット712は、領域RA内の境界線を越えたユーザAの部分を検出することにより、当該インタラクティブ領域内のユーザAの当該部分(またはユーザAのライブ映像の当該部分)を検出または判断する。当該領域RA内の当該境界線は、例えば、図5における当該境界線BR1または当該境界線BR2であってもよい。
【0040】
当該オブジェクト認識ユニット714は、当該マッティングユニット712からの出力データに対してオブジェクト認識処理を実行するように構成される。当該出力データは、ユーザAの検出された部分または抽出された部分(ユーザAの手や、オブジェクトを持っているユーザAの手など)を含むことができる。当該オブジェクト認識ユニット714は、当該ユーザAの検出された部分が任意の所定のパターン、オブジェクト及び/またはジェスチャを含むか否かを判定するオブジェクト認識処理を実行する。一部の実施態様において、当該オブジェクト認識処理は、テンプレートマッチング、パターンマッチング、輪郭マッチング、ジェスチャ認識、皮膚認識、外形マッチング、色または形状マッチング、および特徴に基づくマッチングなどの技術を含むことができる。一部の実施態様において、当該オブジェクト認識ユニット714は、当該ユーザAの検出された部分(またはその一部)と所定のパターンのセットとのマッチング相関を計算し、当該ユーザAの検出された部分内で任意のパターンが一致する、または認識されるか否かを判断する。一部の実施態様において、当該オブジェクト認識ユニット714は、ユーザAの当該部分が検出された当該インタラクティブ領域内の位置を検出、認識、または判断する。一部の実施態様において、当該オブジェクト認識処理は、切り出し処理が行われていない当該マッティングユニット712からの画像または映像に対して行われてもよく、それにより、当該オブジェクト認識処理の精度を向上させることができる。一部の実施態様において、当該オブジェクト認識ユニット714は当該インタラクティブ領域内でユーザAの当該部分の画像または映像を認識及び抽出し、当該結果送信装置710に抽出された当該画像または映像を送信する。
【0041】
当該結果送信装置710は、当該オブジェクト認識ユニット714の出力結果(当該マッティングユニット712の出力を含んでもよい)を当該バックエンドサーバ30の当該メッセージユニット32に送信するように構成される。一部の実施態様において、当該結果送信装置710は、当該メッセージユニット32を介して送信する代わりに、当該結果受信装置810に当該出力を直接送信してもよい。
【0042】
当該ユーザ端末10Bは、ユーザBにより操作されるユーザ端末であってもよい。当該ユーザ端末10Bは、カメラ800と、レンダラー802と、ディスプレイ804と、エンコーダー806と、デコーダー808と、結果受信装置810と、画像処理装置812を含む。
【0043】
当該カメラ800は、任意の種類の映像撮影装置である、またはこれを含むことができる。当該カメラ800は、例えばユーザBの、ビデオデータを撮影するように構成される。当該カメラ800は、撮影したビデオデータを当該エンコーダー806、当該レンダラー802、及び/または当該画像処理装置812に送信する。
【0044】
当該レンダラー802は、当該カメラ800からのビデオデータ(例:ユーザBのビデオデータ)を受信、当該デコーダー808からのビデオデータ(ユーザAなど、別のユーザからのビデオデータを含んでもよい)を受信、当該画像処理装置812の出力データを受信して、当該ディスプレイ804に表示するレンダリングされた映像(ユーザAとユーザBが表示されているグループ通話を表示する映像など)を生成するように構成される。
【0045】
当該ディスプレイ804は、当該レンダラー802からのレンダリングされた映像を表示するように構成される。一部の実施態様において、当該ディスプレイ804は当該ユーザ端末10B上の画面であってもよい。
【0046】
当該エンコーダー806は、当該カメラ800からの当該ビデオデータ、及び/または当該画像処理装置812からのビデオデータを含む、データをエンコードするように構成される。当該エンコーダー806は、エンコードした当該ビデオデータを当該ストリーミングサーバ40の当該データ受信装置400に送信する。エンコードしたデータはストリーミングデータとして送信されてもよい。
【0047】
当該デコーダー808は、当該ストリーミングサーバ40の当該データ送信装置402からビデオデータまたはストリーミングデータ(ユーザAからのビデオデータを含んでもよい)を受信し、それらをデコードしてデコードしたビデオデータとし、当該デコードしたビデオデータを当該レンダラー802に送信してレンダリングさせるように構成される。
【0048】
当該結果受信装置810は、当該バックエンドサーバ30の当該メッセージユニット32から出力データを受信し、当該データを当該画像処理装置812に送信するように構成される。当該メッセージユニット32からの当該出力データは、当該マッティングユニット712と当該オブジェクト認識ユニット714からのデータまたは情報を含む。一部の実施態様において、当該メッセージユニット32からの当該出力データは、当該オブジェクト認識ユニット714により実行された当該オブジェクト認識処理の結果を含む。例えば、当該メッセージユニット32からの当該出力データは、一致した、または認識されたパターン、オブジェクトまたはジェスチャについての情報を含んでもよい。一部の実施態様において、当該メッセージユニット32からの当該出力データは、(当該ユーザ端末10A上の)当該インタラクティブ領域内における位置に関する情報を含み、そのうち、ユーザAの当該部分が、例えば、当該ユーザ端末10Aの当該マッティングユニット712、または当該オブジェクト認識ユニット714により、検出される。一部の実施態様において、当該メッセージユニット32からの当該出力データは、当該インタラクティブ領域内で検出/認識されたユーザAの部分の映像または画像を含む。
【0049】
当該画像処理装置812は、当該カメラ800からのビデオデータ、及び/または当該結果受信装置810からのデータまたは情報を受信するように構成される。一部の実施態様において、当該画像処理装置812は、当該結果受信装置810から受信したデータまたは情報に基づいて、当該カメラ800から受信した当該ビデオデータに対して画像処理または映像処理を実行する。例えば、当該オブジェクト認識ユニット714により実行された当該オブジェクト認識処理が(当該ユーザ端末10Aの画面上の当該インタラクティブ領域にある)ユーザAの当該部分に所定のパターンを正常に認識したことを当該結果受信装置810から受信した当該データが示す場合、当該画像処理装置812は、当該カメラ800から受信した当該ビデオデータ上に、当該所定のパターンに対応する特殊効果を含める、レンダリングする、重ねることができる。重ねられた当該映像がその後当該レンダラー802に送信され、その後当該ユーザ端末804上に表示されてもよい。一部の実施態様において、当該特殊効果データは、当該ユーザ端末10B(図示しない)上のストレージに保存されてもよい。
【0050】
一部の実施態様において、当該メッセージユニット32は、当該マッティングユニット712からのデータ及び/または当該オブジェクト認識ユニット714からのデータに基づいて、当該メッセージユニット32の出力データの宛先を決定する。一部の実施態様において、当該メッセージユニット32は、当該インタラクティブ領域内で検出されたユーザA当該部分の位置に基づいて、ユーザAの当該部分を延伸、複製または再現する領域を決定する。
【0051】
例えば、図5に示すように、当該マッティングユニット712(または当該オブジェクト認識ユニット714)によりユーザAの当該部分が検出された当該インタラクティブ領域A31の位置が、当該サブ領域A312内にある場合、当該メッセージユニット32は、当該メッセージユニット32の当該出力データを送信する宛先にユーザCの当該ユーザ端末を決定することができる。その後ユーザAの当該部分が領域RC内に延伸または複製/再現/表示され、これはユーザCの当該ユーザ端末の画像処理装置により実行されてもよい。
【0052】
別の一例において、当該マッティングユニット712によりユーザAの当該部分検出された当該インタラクティブ領域A31の位置が、当該サブ領域A311内にある場合、当該メッセージユニット32は、当該メッセージユニット32の当該出力データを送信する宛先にユーザDの当該ユーザ端末を決定することができる。その後ユーザAの当該部分が領域RD内に延伸または複製/再現/表示され、これはユーザDの当該ユーザ端末における画像処理装置及び/またはレンダラーとの連携により実行されてもよい。
【0053】
さらに別の一例において、当該マッティングユニット712によりユーザAの当該部分が検出された当該インタラクティブ領域A31の位置が、当該サブ領域A313内にある場合、当該メッセージユニット32は、当該メッセージユニット32の当該出力データを送信する宛先にユーザBの当該ユーザ端末を決定することができる。その後ユーザAの当該部分が領域RB内に延伸または複製/再現/表示され、これはユーザBの当該ユーザ端末における画像処理装置及び/またはレンダラーとの連携により実行されてもよい。
【0054】
一部の実施態様において、当該メッセージユニット32の当該出力データは、領域RAの当該インタラクティブ領域で検出されたユーザAの当該部分の画像または映像を含んでもよい。当該画像処理装置812は、その後、当該カメラ800から受信したユーザBの当該映像上にユーザAの当該部分を重ねる、複製する、または再現することができる。この方法において、当該インタラクティブ領域内のユーザAの当該部分は、グラフィカルオブジェクトまたはアニメーションオブジェクトとして表現として表現されることなく、当該領域Bへ延伸されてもよい。
【0055】
一部の実施態様において、当該画像処理装置812は、当該デコーダー808を通じてユーザAの画像またはビデオデータを受信した後、当該メッセージユニット32からの情報(当該インタラクティブ領域内で検出されたユーザAの当該部分に関する範囲、外形、または輪郭情報を含んでもよい)を利用して、当該カメラ800から受信したユーザBの映像上に、当該インタラクティブ領域内のユーザAの当該部分を重ねる、複製する、または再現することができる。この方法において、当該インタラクティブ領域内のユーザAの当該部分は、グラフィカルオブジェクトまたはアニメーションオブジェクトとして表現として表現されることなく、当該領域Bへ延伸されてもよい。
【0056】
一部の実施態様において、当該マッティングユニット712及び/または当該オブジェクト認識ユニット714は、当該ユーザ端末10A内に実装されなくてもよい。例えば、当該マッティングユニット712と当該オブジェクト認識ユニット714は、当該バックエンドサーバ30または当該ストリーミングサーバ40内に実装されてもよい。
【0057】
図9に本発明の一部の実施態様に基づく通信システムの動作を示す例示的なシーケンス図を示す。一部の実施態様において、図9に、ユーザ(例えば、ユーザA)の部分が、どのように別のユーザ(例えば、ユーザB)が表示されている領域に延伸されるかを示す。
【0058】
工程S200において、当該ユーザ端末10Aの当該カメラ700は、ユーザAの当該ビデオデータを当該ユーザ端末10Aの当該マッティングユニット712に送信する。
【0059】
工程S202において、当該マッティングユニット712は、当該ユーザ端末10Aの画面上の当該インタラクティブ領域内でユーザAの部分を検出する。この検出は、マッティングプロセス及び/またはクロッピングプロセスを含んでもよい。一部の実施態様において、当該マッティングユニット712は、ユーザAの当該部分が検出された当該インタラクティブ領域内の位置を判断する。
【0060】
工程S204において、当該ユーザ端末10Aの当該オブジェクト認識ユニット714は、当該マッティングユニット712から出力データを受信し、当該マッティングユニット712の当該出力に対してオブジェクト認識処理を実行して、当該インタラクティブ領域内で検出されたユーザAの当該部分に任意の所定のパターン、ジェスチャまたはオブジェクトが認識されるか否かを判断する。一部の実施態様において、当該オブジェクト認識処理は、マッチング処理、ジェスチャ認識処理及び/または皮膚認識処理を含んでもよい。
【0061】
工程S206において、当該オブジェクト認識ユニット714が所定のパターン、ジェスチャまたはオブジェクトを認識すると、当該オブジェクト認識ユニット714は当該所定のパターン、ジェスチャまたはオブジェクトについて位置や大きさなどの関連情報を収集し、データの送信先となる宛先を決定する。
【0062】
工程S208において、当該オブジェクト認識ユニット714の当該出力は、当該ユーザ端末10Aの当該結果送信装置710を介して当該バックエンドサーバ30の当該メッセージユニット32に送信される。
【0063】
工程S210において、当該メッセージユニット32は、当該ユーザ端末10Aからのデータに含まれる、当該インタラクティブ領域内のユーザAの当該部分の位置に関する情報に基づいて、当該ユーザ端末10Aからのデータを送信する宛先を決定する。当該情報は、例えば工程S206で決定されてもよい。
【0064】
工程S211において、当該メッセージユニット32は、当該ユーザ端末10Aからの当該データを当該ユーザ端末10Bの当該結果受信装置810に送信する(当該メッセージユニット32が宛先をユーザBまたは領域RBと決定した例示的なシナリオの場合)。
【0065】
工程S212において、当該結果受信装置810は受信した当該データを当該ユーザ端末10Bの当該画像処理装置812に送信する。
【0066】
工程S214において、当該画像処理装置812は、ユーザAの検出された当該部分(または領域RAの当該インタラクティブ領域内にある、ユーザAの検出された当該部分の一部)を、ユーザBの当該ビデオデータ上に重畳する、または重ね合わせる。一部の実施態様において、ユーザAの検出された当該部分の当該画像またはビデオデータが、当該ストリーミングサーバ40を介して当該ユーザ端末10Bに送信される。一部の実施態様において、ユーザAの検出された当該部分の当該画像またはビデオデータが、当該メッセージユニット32を介して当該ユーザ端末10Bに送信される。ユーザBの当該画像またはビデオデータは、当該ユーザ端末10Bの当該カメラ800から当該画像処理装置812に送信される。
【0067】
工程S216において、当該画像処理装置812は処理された当該画像またはビデオデータをレンダリングのため当該ユーザ端末10Bの当該レンダラー802に送信する。例えば、処理された当該画像またはビデオデータは、当該ユーザ端末10Bの当該デコーダー808からのビデオデータ及び/または当該カメラ800からのビデオデータと共にレンダリングされてもよい。
【0068】
工程S218において、レンダリングされた当該ビデオデータが、当該ユーザ端末10Bの画面上に表示するため、当該ユーザ端末10Bの当該ディスプレイ804に送信される。
【0069】
工程S220において、当該画像処理装置812は、処理された当該画像またはビデオデータをエンコーディングプロセスのため当該ユーザ端末10Bの当該エンコーダー806に送信する。
【0070】
工程S222において、エンコーディングされた当該ビデオデータが、当該ストリーミングサーバ40に送信される。
【0071】
工程S224において、当該ストリーミングサーバ40はエンコードされた当該ビデオデータを(当該ユーザ端末10Bから)デコーディングプロセスのため当該ユーザ端末10Aの当該デコーダー708に送信する。
【0072】
工程S226において、デコーディングされた当該ビデオデータが、レンダリングプロセスのため当該ユーザ端末10Aの当該レンダラー702に送信される。
【0073】
工程S228において、レンダリングされた当該ビデオデータが、当該ユーザ端末10Aの画面上に表示するため当該ディスプレイ804に送信される。
【0074】
上述の例示的な工程またはステップは、連続的にまたは周期的に実行されてもよい。例えば、当該マッティングユニット712は、当該インタラクティブ領域内のユーザAの部分を連続的にまたは周期的に検出する。当該オブジェクト認識ユニット714は、当該インタラクティブ領域内のユーザAの当該部分に対して連続的にまたは周期的に認識処理を実行する。当該メッセージユニット32は、当該ユーザ端末10Aから受信した当該データを送信する宛先を連続的にまたは周期的に判断する。当該ユーザ端末10Bの当該画像処理装置812は、当該メッセージユニット32から受信した情報に基づいて連続的にまたは周期的に重畳または重ね合わせのプロセスを実行し、領域RB内の延伸または再現/複製されたユーザAの当該部分が、当該領域RA内のユーザAの当該部分と同期して移動するように確約する。一部の実施態様において、当該ユーザ端末10BはCPUやGPU等の処理ユニットを備え、当該領域RB内のユーザAの延伸または再現された当該部分が、ユーザBの画像または映像に触れるか否かを判断する。この判断の結果は、当該画像処理装置812が当該領域RB内に特殊効果を含めるか否かを決定するために使用することができる。
【0075】
本発明は電話会議やグループ通話をより便利に、楽しく、またはインタラクティブにするものである。本発明は、ユーザが別のユーザの表示領域内にあるオブジェクトについて話したいとき、誤解を防止することができる。本発明は、グループ通話チャットルーム(ライブストリーミングの形式であってもよい)へのユーザの参加意欲を高めることができる。本発明は、より多くのストリーマーや視聴者を引き付け、ライブストリーミングによるグループ通話に参加してもらうことができる。
【0076】
本発明で説明した処理及び手順は、明示的に説明したものに加えて、ソフトウェア、ハードウェア、またはそれらの任意の組み合わせにより実現することができる。例えば、本明細書で説明した処理および手順は、その処理および手順に対応するロジックを集積回路、揮発性メモリ、不揮発性メモリ、非一過性のコンピュータ可読媒体、磁気ディスクなどの媒体に実装することにより実現することができる。さらに、本明細書に記載された処理および手順は、その処理および手順に対応するコンピュータプログラムとして実現することができ、各種のコンピュータにより実行することができる。
【0077】
上記実施態様で説明したシステムまたは方法は、固体記憶装置、光ディスク記憶装置、磁気ディスク記憶装置などの非一時的なコンピュータ可読媒体に格納されたプログラムに統合されてもよい。あるいは、プログラムは、インターネットを介してサーバからダウンロードされ、プロセッサにより実行されるものとしてもよい。
【0078】
以上、本発明の技術的内容及び特徴を説明したが、本発明の属する技術分野において通常の知識を有する者であれば、本発明の教示及び開示から逸脱することなく、なお多くの変形及び修正を行うことができる。したがって、本発明の範囲は、既に開示された実施態様に限定されず、本発明から逸脱しない別の変形や修正を含み、特許請求の範囲に含まれる範囲である。
【符号の説明】
【0079】
S1 画面
RA 領域
RB 領域
RC 領域
RD 領域
A1 部分
A11 部分
A2 部分
A21 部分
A3 境界
A31 インタラクティブ領域
A311 サブ領域
A312 サブ領域
A313 サブ領域
A32 領域
B1 オブジェクト
B3 境界
B31 インタラクティブ領域
B32 領域
BR1 境界線
BR2 境界線
SP1 特殊効果
1 システム
10 ユーザ端末
30 バックエンドサーバ
32 メッセージユニット
40 ストリーミングサーバ
400 データ受信装置
402 データ送信装置
90 ネットワーク
700 カメラ
702 レンダラー
704 ディスプレイ
706 エンコーダー
708 デコーダー
710 結果送信装置
712 マッティングユニット
714 オブジェクト認識ユニット
800 カメラ
802 レンダラー
804 ディスプレイ
806 エンコーダー
808 デコーダー
810 結果受信装置
812 画像処理装置
図1
図2
図3
図4
図5
図6
図7
図8
図9
【国際調査報告】