IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 17LIVE株式会社の特許一覧

特許7449519映像処理のためのシステム、方法、及びコンピュータ可読媒体
<>
  • 特許-映像処理のためのシステム、方法、及びコンピュータ可読媒体 図1
  • 特許-映像処理のためのシステム、方法、及びコンピュータ可読媒体 図2A
  • 特許-映像処理のためのシステム、方法、及びコンピュータ可読媒体 図2B
  • 特許-映像処理のためのシステム、方法、及びコンピュータ可読媒体 図2C
  • 特許-映像処理のためのシステム、方法、及びコンピュータ可読媒体 図2D
  • 特許-映像処理のためのシステム、方法、及びコンピュータ可読媒体 図3
  • 特許-映像処理のためのシステム、方法、及びコンピュータ可読媒体 図4
  • 特許-映像処理のためのシステム、方法、及びコンピュータ可読媒体 図5
  • 特許-映像処理のためのシステム、方法、及びコンピュータ可読媒体 図6
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-03-06
(45)【発行日】2024-03-14
(54)【発明の名称】映像処理のためのシステム、方法、及びコンピュータ可読媒体
(51)【国際特許分類】
   H04N 21/431 20110101AFI20240307BHJP
   H04N 21/6332 20110101ALI20240307BHJP
【FI】
H04N21/431
H04N21/6332
【請求項の数】 14
(21)【出願番号】P 2022528663
(86)(22)【出願日】2021-12-30
(65)【公表番号】
(43)【公表日】2024-01-11
(86)【国際出願番号】 US2021073183
(87)【国際公開番号】W WO2023129182
(87)【国際公開日】2023-07-06
【審査請求日】2022-05-17
【早期審査対象出願】
(73)【特許権者】
【識別番号】517287224
【氏名又は名称】17LIVE株式会社
(74)【代理人】
【識別番号】100126572
【弁理士】
【氏名又は名称】村越 智史
(72)【発明者】
【氏名】ウー,シャオ ユアン
(72)【発明者】
【氏名】チェン,ミン-チュ
【審査官】大西 宏
(56)【参考文献】
【文献】特開2003-296239(JP,A)
【文献】特開2020-021225(JP,A)
【文献】特開2020-024417(JP,A)
【文献】特開2021-136683(JP,A)
【文献】米国特許出願公開第2021/0365707(US,A1)
(58)【調査した分野】(Int.Cl.,DB名)
H04N 21/00 -21/858
(57)【特許請求の範囲】
【請求項1】
ライブ映像処理方法であって、
ユーザが作成したライブ映像がブロードキャストされている間に、前記ユーザからメッセージを受信する工程と、
前記メッセージに基づき、前記ライブ映像のうち所定のオブジェクトの近傍の領域を拡大する工程と、
を含み、
前記ライブ映像は、前記ユーザの画像を含む、ことを特徴とする、ライブ映像処理方法。
【請求項2】
さらに、前記メッセージに基づき、前記ライブ映像中の前記所定のオブジェクトを認識する工程を含むことを特徴とする、請求項1に記載のライブ映像処理方法。
【請求項3】
さらに、前記メッセージに基づき、前記ライブ映像中の前記所定のオブジェクトの認識をトリガーするトリガーメッセージを前記ユーザから受信する工程を含むことを特徴とする、請求項2に記載のライブ映像処理方法。
【請求項4】
前記メッセージが、音声メッセージ、ジェスチャーメッセージ、または顔の表情メッセージを含むことを特徴とする、請求項1に記載のライブ映像処理方法。
【請求項5】
さらに、前記ユーザから前記メッセージを認識する工程を含むことを特徴とする、請求項1に記載のライブ映像処理方法。
【請求項6】
前記ユーザから前記メッセージを認識する工程がさらに、音声認識プロセス、ジェスチャー認識プロセス、または顔の表情認識プロセスを含むことを特徴とする、請求項5に記載のライブ映像処理方法。
【請求項7】
前記所定のオブジェクトが、前記ユーザの身体部分または前記ユーザのウェアラブルオブジェクトを含むことを特徴とする、請求項1に記載のライブ映像処理方法。
【請求項8】
前記所定のオブジェクトが、前記ユーザの動きに同期して移動することを特徴とする、請求項1に記載のライブ映像処理方法。
【請求項9】
前記メッセージが、前記所定のオブジェクトに対応することを特徴とする、請求項1に記載のライブ映像処理方法。
【請求項10】
前記ライブ映像のうち拡大される前記領域が、前記ライブ映像のうち映像撮影装置により前記領域と同時に撮影され拡大されない別の領域と比較して、より高い解像度で前記映像撮影装置により撮影される、ことを特徴とする、請求項1に記載のライブ映像処理方法。
【請求項11】
前記ライブ映像のうち拡大される前記領域が、前記所定のオブジェクトの動きに同期して移動することを特徴とする、請求項1に記載のライブ映像処理方法。
【請求項12】
前記ライブ映像が、前記ユーザの近傍にある映像撮影装置によって生成され、前記ライブ映像の拡大される領域が前記所定のオブジェクトの動きに同期して移動するとき、前記映像撮影装置の方向が固定される、ことを特徴とする、請求項11に記載のライブ映像処理方法。
【請求項13】
ライブ映像処理システムであって、1以上のプロセッサを備え、前記1以上のプロセッサが機械可読命令を実行して、
ユーザが作成したライブ映像がブロードキャストされている間に、前記ユーザからメッセージを受信する工程と、
前記メッセージに基づき、前記ライブ映像のうち所定のオブジェクトの近傍の領域を拡大する工程と、
を実行させ、
前記ライブ映像は、前記ユーザの画像を含む、ことを特徴とする、ライブ映像処理システム。
【請求項14】
ライブ映像処理のためのプログラムを含む非一時的なコンピュータ可読媒体であって、そのうち、前記プログラムが、1以上のコンピュータに、
ユーザが作成したライブ映像がブロードキャストされている間に、前記ユーザからメッセージを受信する工程と、
前記メッセージに基づき、前記ライブ映像のうち所定のオブジェクトの近傍の領域を拡大する工程と、
を実行させ、
前記ライブ映像は、前記ユーザの画像を含む、ことを特徴とする、コンピュータ可読媒体。
【発明の詳細な説明】
【技術分野】
【0001】
本明細書における開示は、ビデオストリーミングにおける映像処理に関する。
【背景技術】
【0002】
ユーザ同士のオンライン通信に参加することを可能にするさまざまな技術が知られている。そのアプリケーションには、ライブストリーミング、ライブ電話会議などが含まれる。これらアプリケーションの普及に伴い、コミュニケーション中の効率向上と、相互のメッセージに対するより良い理解に対するユーザからの要望が高まっている。
【発明の概要】
【課題を解決するための手段】
【0003】
本発明の一実施態様に係る方法は、ライブ映像処理方法であり、当該方法は、ユーザからのメッセージを受信する工程と、ライブ映像のうち所定のオブジェクトの近傍の領域を拡大する工程とを含む。
【0004】
本発明の一実施態様に係るシステムは、ライブ映像処理のためのシステムであり、1以上のプロセッサを含み、当該1以上のプロセッサが機械可読命令を実行して、ユーザからメッセージを受信する工程と、ライブ映像のうち所定のオブジェクトの近傍の領域を拡大する工程と、を実行する。
【0005】
本発明の一実施態様に係るコンピュータ可読媒体は、非一時的なコンピュータ可読媒体であり、ライブ映像処理のためのプログラムを含み、当該プログラムが1以上のコンピュータに、ユーザからメッセージを受信する工程と、ライブ映像のうち所定のオブジェクトの近傍の領域を拡大する工程と、を実行させる。
【図面の簡単な説明】
【0006】
図1】ライブストリーミングの一例を示す概略図である。
図2A】本発明の一部の実施態様に基づく例示的なストリーミングを示す概略図である。
図2B】本発明の一部の実施態様に基づく例示的なストリーミングを示す概略図である。
図2C】本発明の一部の実施態様に基づく例示的なストリーミングを示す概略図である。
図2D】本発明の一部の実施態様に基づく例示的なストリーミングを示す概略図である。
図3】本発明の一部の実施態様に基づく例示的なストリーミングを示す概略図である。
図4】本発明の一部の実施態様に基づく通信システムの構成を示す概略図である。
図5】本発明の一部の実施態様に基づくユーザ端末のブロック図である。
図6】本発明の一部の実施態様に基づく例示的なルックアップテーブルである。
【発明を実施するための形態】
【0007】
従来、オンラインコミュニケーションは、対面でのコミュニケーションと比較して、コミュニケーション効率が低下したり、誤解が生じたりするデメリットがあった。例えば、ライブ映像やライブストリーミングのコミュニケーションでは、ライブ映像が表示されているディスプレイ上にコメントや特殊効果などの気を逸らすものがある場合、正しい領域に焦点を合わせ続けることが困難である。また別の例として、ライブ映像やライブストリーミングのコミュニケーションでは、ディスプレイのサイズまたは映像の解像度が限られるため、ビデオコンテンツの詳細を見ることが困難である。
【0008】
図1にライブストリーミングの一例を示す概略図を示す。S1はライブストリーミングを表示するユーザ端末の画面である。RAは、当該画面S1内の表示領域であり、ユーザAのライブ映像を表示する。当該ユーザAのライブ映像は、ユーザAの近傍に配置されたカメラなどの映像撮影装置によって撮影され、提供されてもよい。この例で、ユーザAは、料理のしかたを教えるライブ映像を配信しているストリーマーまたはブロードキャスターであってもよい。
【0009】
ユーザAは、このライブ映像の視聴者が、映像の正しい領域に焦点を合わせ、その領域の詳細を見ることができるようにすることで、料理の手順や調理素材などの正しい知識を得られるようにしたいと考えている。従来、ユーザAは注目すべき対象(鍋やまな板など)をカメラに近づけ、ユーザがよく見えるようにしなければならない場合がある。あるいは、ユーザAが強調したい細部をユーザに見せるために、カメラの方向や位置、焦点を調整しなければならない場合もある。上記のような動作は、ユーザAにとって不便であり、調理が中断される。
【0010】
したがって、進行中のプロセスを停止させることなく、ユーザがライブ映像中の関心領域を示し、その領域の詳細を提示することができる方法があることが望まれる。また、視聴者がライブ映像の正しい領域に焦点を合わせ、その領域の詳細を見られるような方法が望まれる。本発明は、ライブ映像の提示及び焦点化を容易にすることができる。
【0011】
図2A図2B図2C図2Dに本発明の一部の実施態様に基づく例示的なストリーミングの概略図を示す。
【0012】
図2Aに示すように、ユーザAは、メッセージまたは信号M1を送信する。本実施態様において、当該メッセージM1は、「ズームイン」を示す音声メッセージである。別の実施態様において、当該メッセージM1は、ユーザAによって表現されるジェスチャーメッセージであってもよい。例えば、ユーザAは、身体部分(手など)を用いてジェスチャーメッセージを形成してもよい。一部の実施態様において、当該メッセージM1は、ユーザAによって表現される顔の表情メッセージであってもよい。当該メッセージM1は、ユーザAの映像(音声データを含む)の一部である。
【0013】
当該メッセージM1は、スマートフォン、タブレット、ノートパソコン、またはビデオキャプチャ機能を有する任意のデバイスなど、ユーザAの映像をキャプチャするために使用されるユーザ端末によって受信されてもよい。一部の実施態様において、当該メッセージM1は、ユーザAの映像を制作または配信するために使用されるユーザ端末によって認識される。一部の実施態様において、当該メッセージM1は、ストリーミングサービスを提供するシステムによって認識される。一部の実施態様において、当該メッセージM1は、ストリーミングサービスをサポートするサーバによって認識される。一部の実施態様において、当該メッセージM1は、ストリーミングサービスをサポートするアプリケーションによって認識される。一部の実施態様において、当該メッセージM1は、音声認識プロセス、ジェスチャー認識プロセスおよび(または)顔の表情認識プロセスによって認識される。一部の実施態様において、当該メッセージM1は、電気信号であってもよく、無線接続により送信及び受信され得る。
【0014】
図2Bに示すように、オブジェクトO1が認識され、領域R1が決定される。当該オブジェクトO1は、当該メッセージM1に従って認識される。 一部の実施態様において、当該オブジェクトO1の認識は、当該メッセージM1の受信の後に行われる。一部の実施態様において、当該メッセージM1の受信は、当該オブジェクトO1の認識をトリガーする。一部の実施態様において、当該メッセージM1の認識は、当該オブジェクトO1の認識の前に行われる。
【0015】
この実施態様において、当該オブジェクトO1は、ユーザAの身体部分(手)であると設定、教示または判定される。他の実施態様において、当該オブジェクトO1は、まな板や鍋など身体以外のオブジェクトであると判定されてもよい。一部の実施態様において、当該オブジェクトO1は、時計、ブレスレット、またはステッカーなど、ユーザAに装着されているウェアラブルオブジェクトであると判定されてもよい。当該ブジェクトO1は、ユーザAの映像内の任意のオブジェクトであると予め決定または設定されていてもよい。
【0016】
当該領域R1は、当該オブジェクトO1の近傍の領域であると決定される。例えば、当該領域R1は、すべてのオブジェクトO1を取り囲む領域とすることで、ユーザAは、当該オブジェクトO1(この場合、当該オブジェクトO1は自分の手)の位置を制御することで、当該領域R1の大きさを都合よく制御することができるようになる。なお、当該領域R1の端と当該オブジェクトO1との間の距離は、実情に応じて決定することができる。
【0017】
一部の実施態様において、異なるメッセージM1が、異なる所定のオブジェクトO1に対応してもよい。例えば、ユーザAは、対応するメッセージを送信するだけで、認識すべきオブジェクトと、決定されるべき領域を選択することができる。例えば、ユーザAが「鍋」と発話すれば、鍋(メッセージ「鍋」に対応する所定のオブジェクト)が認識され、当該領域R1が鍋近傍の領域であると決定される。
【0018】
一部の実施態様において、オブジェクトO1は、ユーザAのライブ映像を撮影するために使用されるユーザ端末によって認識される。一部の実施態様において、オブジェクトO1は、ユーザAの映像を制作または配信するために使用されるユーザ端末によって認識される。一部の実施態様において、オブジェクトO1は、ストリーミングサービスを提供するシステムによって認識される。一部の実施態様において、オブジェクトO1は、ストリーミングサービスをサポートするサーバによって認識される。一部の実施態様において、オブジェクトO1は、ストリーミングサービスをサポートするアプリケーションによって認識される。
【0019】
一部の実施態様において、当該領域R1は、ユーザAのライブ映像を撮影するために使用されるユーザ端末によって決定される。一部の実施態様において、当該領域R1は、ユーザAの映像を制作または配信するために使用されるユーザ端末によって決定される。一部の実施態様において、当該領域R1は、ストリーミングサービスを提供するシステムによって決定される。一部の実施態様において、当該領域R1は、ストリーミングサービスをサポートするサーバによって決定される。一部の実施態様において、当該領域R1は、ストリーミングサービスをサポートするアプリケーションによって決定される。
【0020】
図2Cに示すように、当該領域R1は、当該領域R1内の映像コンテンツの詳細が明瞭に見えるように拡大される。拡大された当該領域R1は、ユーザAの映像のうち当該領域R1の外にある部分を覆う、またはそれに重なってもよい。拡大された当該領域R1は、画面S1の任意の領域上に表示されてもよい。
【0021】
一部の実施態様において、当該拡大処理は、ユーザAのライブ映像を撮影するために使用されるユーザ端末によって実行される。一部の実施態様において、当該拡大処理は、ユーザAの映像を制作または配信するために使用されるユーザ端末によって実行される。一部の実施態様において、当該拡大処理は、ストリーミングサービスを提供するシステムによって実行される。一部の実施態様において、当該拡大処理は、ストリーミングサービスをサポートするサーバによって実行される。一部の実施態様において、当該拡大処理は、ストリーミングサービスをサポートするアプリケーションによって実行される。一部の実施態様において、当該拡大処理は、視聴者のユーザ端末など、ユーザAの映像を表示するユーザ端末によって実行される。
【0022】
ユーザAの映像を撮像するユーザ端末によって当該拡大処理が行われる実施態様において、当該ユーザ端末は、当該領域R1(当該領域R1は、オブジェクトO1の移動に応じて移動してもよい)を、当該領域R1以外の別の領域と比較して、より高い解像度で撮像するように構成することができる。したがって、ライブ映像のうち拡大される領域は、ライブ映像のうち拡大されない別の領域と比較して、より高い解像度を有する。したがって、強調される領域はより多くの情報を有し、視聴者が細部を確認することができる。
【0023】
図2Dに示すように、一部の実施態様において、拡大された当該領域R1以外の表示領域RA内の他の領域は、拡大された当該領域R1が目立つように処理されてもよい。例えば、他の領域を暗くしたり、ぼかしたりして、視聴者が当該領域R1により集中しやすくすることができる。
【0024】
図3に本発明の一部の実施態様に基づく例示的なストリーミングを示す概略図を示す。
【0025】
図3に示すように、当該オブジェクトO1は、ユーザAのウェアラブル端末またはウェアラブルオブジェクトと判定される。当該オブジェクトO1は、ユーザAの動きに同期して移動し、ライブ映像の拡大される領域は、当該オブジェクトO1の動きに同期して移動する。したがって、ユーザAは、当該オブジェクトO1の位置を制御するだけで、どの領域を拡大または強調するかを決定することができ、便利である。一部の実施態様において、ライブ映像の領域の拡大、及び(または)拡大された当該領域の移動は、ユーザ端末、サーバ、またはアプリケーションによって実行される映像処理で行われる。したがって、所定のオブジェクトの移動に同期してライブ映像の拡大される領域が移動するとき、ライブ映像の撮影に用いる映像撮影装置の向きを固定することができる。
【0026】
一部の実施態様において、ユーザは、メッセージ認識プロセスを起動するための第1のメッセージを送信し、次に、認識するオブジェクトを示す第2のメッセージを送信することができる。そして、そのオブジェクトによって、拡大する領域が決定される。当該第1のメッセージ及び(または)当該第2のメッセージは、音声メッセージ、ジェスチャーメッセージ、あるいは顔の表情メッセージとすることができる、またはそれを含むことができる。一部の実施態様において、当該第1のメッセージはトリガーメッセージと呼んでもよい。
【0027】
例えば、ユーザAは、「フォーカス」または「ズームイン」と発話することで、次に送信するものが当該オブジェクトO1を認識するためのものであることを示すことができる。次に、ユーザAは、映像上の鍋を当該オブジェクトO1として認識するように、「鍋」と発話することができる。続いて、鍋の近傍が拡大される。
【0028】
一部の実施態様において、上の構成により、メッセージ認識に使用されるリソースを節約することができる。例えば、常に継続されているメッセージ認識処理(映像情報をメッセージテーブルと比較することを含んでもよい)は、当該第1のメッセージにのみ焦点を当てることができ、この第1のメッセージは単一の音声メッセージであってもよい。当該第2のメッセージは、より多くの変化形を有し、それぞれが映像内の異なるオブジェクトに対応していてもよい。当該第2メッセージのメッセージ認識処理は、当該第1のメッセージが受信されたとき、または検出されたときにのみ起動することができる。
【0029】
図4に本発明の一部の実施態様に基づく通信システムの構成を示す概略図を示す。通信システム1は、コンテンツを介したインタラクションを伴うライブストリーミングサービスを提供することができる。ここで言う「コンテンツ」とは、コンピュータ装置で再生可能なデジタルコンテンツを指す。当該通信システム1は、ユーザがオンラインで他のユーザとのリアルタイムの交流に参加することを可能にする。通信システム1は、複数のユーザ端末10と、バックエンドサーバ30と、ストリーミングサーバ40とを含む。ユーザ端末10、バックエンドサーバ30、及びストリーミングサーバ40は、ネットワーク90(例えばインターネットとしてもよい)を介して接続される。バックエンドサーバ30は、ユーザ端末及び(または)ストリーミングサーバ40との間のインタラクションを同期させるサーバとすることができる。一部の実施態様において、バックエンドサーバ30は、アプリケーション(APP)プロバイダのオリジンサーバとしてもよい。ストリーミングサーバ40は、ストリーミングデータまたはビデオデータを取り扱う、または提供するためのサーバである。一部の実施態様において、バックエンドサーバ30とストリーミングサーバ40は、独立したサーバとしてもよい。一部の実施態様において、バックエンドサーバ30とストリーミングサーバ40は、1つのサーバに統合してもよい。一部の実施態様において、ユーザ端末10は、ライブストリーミングのためのクライアント装置である。一部の実施態様において、ユーザ端末10は、視聴者、ストリーマー、アンカー、ポッドキャスター、オーディエンス、リスナーなどと呼ばれることがある。各当該ユーザ端末10、当該バックエンドサーバ30、及び当該ストリーミングサーバ40はそれぞれ情報処理装置の一例である。一部の実施態様において、ストリーミングは、ライブストリーミングまたはビデオ再生とすることができる。一部の実施態様において、ストリーミングは、オーディオストリーミング及び(または)ビデオストリーミングとすることができる。一部の実施態様において、ストリーミングは、オンラインショッピング、トークショー、タレントショー、娯楽イベント、スポーツイベント、音楽ビデオ、映画、コメディ、コンサート、グループ通話、電話会議などのコンテンツを含むことができる。
【0030】
図5に本発明の一部の実施態様に基づくユーザ端末のブロック図を示す。
【0031】
当該ユーザ端末10Sは、ストリーマーまたはブロードキャスターのユーザ端末である。当該ユーザ端末10Sは、ライブ映像撮影ユニット12と、メッセージ受信ユニット13と、オブジェクト特定ユニット14と、領域判定ユニット15と、拡大ユニット16と、送信ユニット17と、を含む。
【0032】
当該ライブ映像撮影ユニット12は、カメラ122とマイク124を含み、ストリーマーのライブ映像データ(音声データを含む)を撮影するように構成される。
【0033】
当該メッセージ受信ユニット13は、ライブ映像中の音声ストリーム(一部の実施態様では画像ストリーム)を監視し、当該音声ストリーム中の所定の単語(例えば、「フォーカス」または「ズームイン」)を認識するように構成される。
【0034】
当該オブジェクト特定ユニット14は、ライブ映像中の1つ以上の所定のオブジェクトを特定し、特定された1つ以上の当該オブジェクトを画像またはライブ映像中で認識するように構成される。オブジェクトの識別は、後述するルックアップテーブルと当該メッセージ受信ユニット13により認識された所定の単語とによって行われてもよい。また、別の実施態様において、オブジェクトの識別は、当該メッセージ受信ユニット13によって行われてもよい。
【0035】
当該領域判定ユニット15は、ライブ映像中の拡大される領域を決定するように構成される。拡大される当該領域は、特定されたオブジェクトまたは認識されたオブジェクトの近傍の領域である。
【0036】
当該拡大ユニット16は、ライブ映像の領域の拡大に関連する映像処理を実行するように構成される。拡大される当該領域がより高い解像度で撮影される実施態様においては、カメラ122が拡大処理に関与していてもよい。
【0037】
当該送信ユニット17は、拡大処理が実行された場合、拡大されたライブ映像(または、領域が拡大されたライブ映像)をサーバ(ストリーミングサーバ等)に送信するように構成される。拡大処理が行われない場合、当該送信ユニット17は、当該ライブ映像撮影ユニット12が撮像したライブ映像を送信する。
【0038】
図6に、図5の当該オブジェクト特定ユニット14によって利用され得る、本発明の一部の実施態様に従った例示的なルックアップテーブルを示す。
【0039】
列「所定の単語」は、ライブ映像の音声ストリームにおいて識別されるべき単語を示す。列「オブジェクト」は、認識対象となる各所定の単語に対応するオブジェクトを示す。例えば、この例では、識別された「ズームイン」は、ライブ映像におけるストリーマーの手元の認識につながり、識別された「鍋」は、ライブ映像における鍋の認識につながり、識別された「板ください」は、ライブ映像におけるまな板の認識につながる。
【0040】
一部の実施態様において、当該所定の単語またはオブジェクトは、ユーザによって事前に設定される。一部の実施態様において、当該所定の単語またはオブジェクトは、AIまたは機械学習を通じて自動作成されてもよい。
【0041】
本発明で説明した処理及び手順は、明示的に説明したものに加えて、ソフトウェア、ハードウェア、またはそれらの任意の組み合わせにより実現することができる。例えば、本明細書で説明した処理および手順は、その処理および手順に対応するロジックを集積回路、揮発性メモリ、不揮発性メモリ、非一時的なコンピュータ可読媒体、磁気ディスクなどの媒体に実装することにより実現することができる。さらに、本明細書に記載された処理および手順は、その処理および手順に対応するコンピュータプログラムとして実現することができ、各種のコンピュータにより実行することができる。
【0042】
上記実施態様で説明したシステムまたは方法は、固体記憶装置、光ディスク記憶装置、磁気ディスク記憶装置などの非一時的なコンピュータ可読媒体に格納されたプログラムに統合されてもよい。あるいは、プログラムは、インターネットを介してサーバからダウンロードされ、プロセッサにより実行されるものとしてもよい。
【0043】
以上、本発明の技術的内容及び特徴を説明したが、本発明の属する技術分野において通常の知識を有する者であれば、本発明の教示及び開示から逸脱することなく、なお多くの変形及び修正を行うことができる。したがって、本発明の範囲は、既に開示された実施態様に限定されず、本発明から逸脱しない別の変形や修正を含み、特許請求の範囲に含まれる範囲である。
【符号の説明】
【0044】
S1 画面
RA 領域
O1 オブジェクト
R1 領域
1 システム
10 ユーザ端末
10S ユーザ端末
12 ライブ映像撮影ユニット
122 カメラ
124 マイク
13 メッセージ受信ユニット
14 オブジェクト特定ユニット
15 領域判定ユニット
16 拡大ユニット
17 送信ユニット
30 バックエンドサーバ
40 ストリーミングサーバ
90 ネットワーク
図1
図2A
図2B
図2C
図2D
図3
図4
図5
図6