(58)【調査した分野】(Int.Cl.,DB名)
ライブ配信されている動画像、およびデバイスの表示部に表示されている前記動画像上へのステッカの配置に関する操作位置および配置される前記ステッカに関する情報を含む操作情報を取得する通信部と、
前記動画像上における前記操作位置に対応する領域を解析し、解析結果、および前記操作情報に基づいて前記動画像に対して前記ステッカの配置処理を行う制御部と、
を備える情報処理装置。
前記制御部は、前記動画像上における少なくとも一のステッカに対する操作に関する操作情報に基づいて、前記ステッカの少なくともいずれかの態様を変化させる、請求項1〜13のいずれか1項に記載の情報処理装置。
前記制御部は、前記動画像上に配置されている少なくとも一のステッカに対応する領域に含まれる他の前記ステッカの少なくともいずれかの態様を変化させる、請求項14に記載の情報処理装置。
前記操作態様は、少なくとも一の操作体によるタップ操作、ピンチ操作、スワイプ操作、スライド操作、または前記デバイスの表示部に対して加えられる圧力の大きさの少なくともいずれかを含む、請求項16に記載の情報処理装置。
【発明を実施するための形態】
【0012】
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
【0013】
なお、説明は以下の順序で行うものとする。
1.情報処理システムの概要
2.各装置の構成
3.情報処理システムの動作
4.情報処理システムによる画像処理例
5.情報処理システムによる操作情報の応用例
6.ハードウェア構成例
7.まとめ
【0014】
<<1.情報処理システムの概要>>
<1.1.情報処理システムの構成>
図1は、本開示の一実施形態に係る情報処理システム1の構成の概要を示す図である。
図1に示すように、情報処理システム1は、サーバ10、ユーザ端末20およびユーザ端末30(30a、30b、・・・)からなる。サーバ10、ユーザ端末20およびユーザ端末30は、有線または無線の各種ネットワークNWにより接続される。
【0015】
サーバ10は、情報処理装置の一例である。サーバ10は、ネットワーク上の一または複数の情報処理装置によって構成される。サーバ10を構成する情報処理装置は、処理回路と、通信装置を含み得る。例えば、サーバ10は、通信装置を用いてユーザ端末20から受信した動画像(例えば、ライブ映像)について、ユーザ端末20またはユーザ端末30から取得した操作情報に基づいて処理回路を用いて処理を行い、処理された動画像を通信装置によって各ユーザ端末に送信してもよい。
【0016】
ユーザ端末20(30)は、情報処理装置の一例である。
図1では、ユーザ端末20(30)の例として、スマートフォンが示されているが、ユーザ端末20(30)は、他にもタブレット、パーソナルコンピュータ、レコーダ、ゲーム機、ウェアラブル装置などの装置を含み得る。ユーザ端末20(30)は、処理回路と、通信装置と、出入力装置とを含み得る。例えば、ユーザ端末20(30)は、通信装置を用いてサーバ10から動画像を受信し、出入力装置を用いて動画像を出力する。また、ユーザ端末20(30)は、出入力装置に表示されている動画像に対する操作を取得し、通信装置を用いて操作に関する情報をサーバ10に送信してもよい。なお、ユーザ端末20(30)は、実空間を撮像し、動画像を生成するための撮像機能を有してもよい。ユーザ端末20(30)の撮像機能により生成された動画像はサーバ10に送信され、サーバ10により各ユーザ端末に配信され得る。
【0017】
図1に示した例において、ユーザ端末20は、配信ユーザSSの操作によりライブ映像を撮像し、撮像されたライブ映像はサーバ10により所定の処理が行われたあと、ユーザ端末30に配信される。視聴ユーザAA1およびAA2は、ユーザ端末30を介して配信されたライブ映像を視聴することができる。
【0018】
さらに、ライブ映像を取得したユーザ端末30は、ライブ映像が表示されているタッチパネルに対するユーザによる所定の操作により、ライブ映像に対して所定の処理を行うよう指示することができる。当該指示はサーバ10に送信される。サーバ10は、ライブ映像に対して、取得した指示に対応する所定の処理を行い、処理後のライブ映像を各ユーザ端末に配信する。これにより、各ユーザ端末には、任意の視聴ユーザによる操作に基づくライブ映像が表示される。
【0019】
より具体的に説明すると、
図1に示したように、ユーザ端末20、ユーザ端末30a、およびユーザ端末30bの表示部には、表示画面1000が表示されている。表示画面1000は、ライブ映像表示画面1010およびステッカ選択画面1012を含む。ライブ映像表示画面1010には配信者SSのオブジェクトObjを含むライブ映像が表示されている。例えば、ユーザAA2が操作体Hを用いてステッカ選択画面1012からハートのステッカStkを選択し、当該ステッカStkをライブ映像表示画面1010上の任意の位置に配置するよう操作する。当該操作を取得したユーザ端末30bは、操作に対応する処理に係る指示をサーバ10に送信する。サーバ10は当該指示を取得し、当該指示に対応する処理を行い、処理後のライブ映像を各ユーザ端末に配信される。そうすると、例えばユーザ端末20の表示部には、ステッカStkが配置された状態のライブ映像が表示される。また、
図1には図示されていないが、視聴ユーザAA1のユーザ端末30aの表示部にも同様に、ステッカStkが配置された状態のライブ映像が表示される。
【0020】
なお、上述したようなライブ映像表示画面1010に対するユーザ端末30に関する操作は、配信元であるユーザ端末20に関しても行うことができる。
【0021】
このように、視聴ユーザ(または配信ユーザ)は、配信中のライブ映像に対してステッカを配置する等の操作を行うことにより、ライブ映像を視聴しながらリアルタイムに複数のユーザと簡単にコミュニケーションを取ることができる。したがって、ライブ映像を介したユーザ間のコミュニケーションがより円滑になる。
【0022】
<1.2.端末UI例>
ユーザ端末30(20)の表示操作部に表示されるUI(User Interface)の構成および操作処理について、
図2〜
図4を参照しながら詳細に説明する。
【0023】
図2は、ユーザ端末30(20)の表示操作部210に表示されるUIの構成の一例を示す図である。
図2を参照すると、ユーザ端末30(20)の表示操作部210には、表示画面1000が表示されている。表示画面1000は、ヘッダ1001、ライブ映像表示画面1010、モード選択画面1011およびステッカ選択画面1012が表示されている。
【0024】
ヘッダ1001は、ID1002およびライブ映像に係る情報1003を含む。ID1002には視聴ユーザのIDが表示されてもよいし、ライブ映像の配信元を示す配信ユーザのIDが表示されていてもよい。ライブ映像に係る情報1003は、例えば、配信ユーザまたは視聴ユーザの情報処理システム1の利用頻度を示す指標(例えば、「ユーザレベル」)であってもよいし、ライブ映像に関する指標(例えば、「盛り上げポイント」)であってもよい。ライブ映像に関する指標は、例えばライブ映像の配信中に視聴ユーザ等によりライブ映像に対して行われた処理(例えばステッカの配置)の実行数等に応じて算出される値(盛り上げポイントに相当)であってもよい。ライブ映像に関する指標、または各ユーザに関する指標を各ユーザに表示させることにより、各ユーザによる情報処理システム1の利用を促進させることができる。例えば、上記の指標を上げることにより、多数のユーザにより構成されるランキングの上位に位置するなど、ユーザ自身の注目度を高めることができるので、さらにユーザの情報処理システム1の利用を促進させることができる。そのため、上記の指標をヘッダ1001のライブ映像に係る情報1003に表示させることが望ましい。また、ユーザが特定のステッカを使用した場合に上記の指標を増加させやすくすることにより、ユーザの情報処理システム1の利用をより促進させることができる。
【0025】
ライブ映像表示画面1010は、サーバ10から配信されるライブ映像M1を表示させるための画面である。
図2に示した例では、ライブ映像M1には配信ユーザに対応する配信ユーザオブジェクトObj1が含まれている。本実施形態に係る情報処理システム1では、配信ユーザのユーザ端末20が撮像するライブ映像は、サーバ10を介して各視聴ユーザのユーザ端末30に配信される。
【0026】
モード選択画面1011は、ライブ映像に対する操作モードをユーザに選択させるための画面である。モード選択画面1011は、例えば、ステッカ選択モードの他に、コメント記入モード、ユーザランキング表示モード、通知確認モード、共有モード等を選択させるためのオブジェクトを含む。
図2に示した例では、ステッカ選択モードがハイライトされている。これは、ステッカ選択モードが選択されていることを示している。
【0027】
ステッカ選択画面1012は、ステッカ選択モードが選択されている場合に任意のステッカをユーザに選択させるための画面である。ステッカ選択画面1012は少なくとも一のステッカを含む。少なくとも一のステッカが選択された状態でユーザがライブ映像表示画面1010を操作すると、ライブ映像M1に対して当該ステッカに関する処理を実施するための指示がサーバ10に送信される。この操作処理については後述する。
【0028】
なお、モード選択画面1011に対するユーザの操作によりステッカ選択モードとは異なるモードが選択されている場合、ステッカ選択画面1012には、選択された各モードに対応する操作用画面が表示される。例えば、コメント記入モードが選択されている場合、ステッカ選択画面1012にはコメントを記入するための画面(例えば、テキストフィールドまたは疑似キーボードなど)が表示される。また、ユーザランキング表示モードが選択されている場合、ステッカ選択画面1012にはユーザのランキングに関する情報が表示される。
【0029】
続いて、ユーザ端末30(20)の表示操作部210に表示されるUIを用いた操作処理の一例について説明する。
図3は、ユーザ端末30(20)の表示操作部210に表示されるUIを用いてステッカを選択する操作について説明するための図である。
図3を参照すると、ユーザ端末30を操作するユーザは、操作体H(例えばユーザの指)によりステッカ選択画面1012に含まれるハートのステッカを示すボタンBtn1を選択したとする。このとき、ボタンBtn1を定義する領域は、ボタンBtn1が選択されたことを表示するため、ハイライト処理されてもよい。
【0030】
図4は、ユーザ端末30(20)の表示操作部210に表示されるUIを用いてステッカをライブ映像に配置する操作について説明するための図である。
図4を参照すると、ボタンBtn1が選択されたあと、ユーザは操作体Hによりライブ映像表示画面1010上の任意の位置(配置位置)を選択する。このとき、ユーザ端末30は、操作体Hによる操作情報(例えば、ステッカStk1の種類または配置位置等)をサーバ10に送信する。操作情報を取得したサーバ10は、ライブ映像に対して操作情報に基づく画像処理を行う。そしてサーバ10は、画像処理後のライブ映像をユーザ端末30を含む複数のユーザ端末に配信する。これにより、ライブ映像表示画面1010には、画像処理後のライブ映像M1(例えばステッカStk1が重畳されたライブ映像)が表示される。
【0031】
以上、ユーザ端末30(20)の表示操作部に表示されるUIの構成および操作処理の例について説明した。このように、配信ユーザおよび視聴ユーザは、配信中のライブ映像に対してステッカ等を用いて簡単にコミュニケーションを行うことができる。これにより、ライブ映像のリアルタイム性を損なうことなく、ユーザ間におけるコミュニケーションをより円滑にすることができる。以下、上述したような情報処理システム1を構成する各装置について詳細に説明する。
【0032】
<<2.各装置の構成>>
<2.1.サーバ>
図5は、本開示の一実施形態に係るサーバ10の機能構成例を示すブロック図である。
図5を参照すると、サーバ10は、画像取得部101、操作情報取得部102、画像解析部103および画像処理部104を備える。これらの各機能部の動作は、サーバ10が備えるCPU(Central Processing Unit)等の処理回路によって制御される。
【0033】
(画像取得部)
画像取得部101は、ライブ映像の配信元であるユーザ端末20により生成された動画像データを不図示の通信部を介して取得する。例えば、画像取得部101は、ユーザ端末20により生成された動画像データを時系列に取得する。当該動画像データには、例えば、ライブ映像である動画像のほかに、音響情報および動画像の撮像時刻等の情報が含まれる。
【0034】
画像取得部101は、取得した動画像データを、画像解析部103に逐次的に出力する。なお、画像解析部103に逐次的に出力される動画像データのフレームレートは、ユーザ端末20の撮像部220による撮像フレームレート、または後述する画像解析部103による解析処理もしくは画像処理部104による画像処理のスループットの少なくともいずれかに応じて決定されてもよい。例えば、当該フレームレートは、上記の解析処理または画像処理のうち、スループットが長い方の処理時間に応じて決定されてもよい。これにより、画像処理された動画像の配信側および視聴側のユーザ端末間において生じ得るレイテンシを下げることができる。
【0035】
なお、画像解析部103による動画像の解析処理を実施しない場合においては、画像取得部101は、画像処理部104に動画像データを出力してもよい。
【0036】
(操作情報取得部)
操作情報取得部102は、ユーザ端末20またはユーザ端末30の少なくともいずれかから送信された操作情報を不図示の通信部を介して取得する。例えば、操作情報取得部102は、ユーザ端末の少なくともいずれかから送信された操作情報を時系列に取得する。当該操作情報には、例えば、ユーザ端末20の表示操作部210において表示されている動画像上へのステッカの配置に関する操作位置、当該ステッカに関する情報、並びに動画像が表示されている表示画面上に対して行われた操作の種類および操作態様等が含まれる。
【0037】
ここで、操作位置とは、動画像上において操作体等により指定された動画像上における位置を意味する。より具体的には、操作位置は、表示操作部210に対して操作体が接触した場合における操作体の接触した位置に対応する動画像上の位置であってもよい。この操作位置は、動画像の画素位置により特定され得る。詳細には、操作情報取得部102は、ユーザ端末20の表示操作部210上の位置(x,y)に対応する動画像上の位置(u,v)を、操作位置として取得する。この動画像上の位置(u,v)は、動画像の画素位置に対応する。
【0038】
ステッカに関する情報とは、例えば、ステッカの種類、ステッカの態様および動画像上に配置されたステッカの有するエフェクト等の動画像に対する画像処理に関する情報も含む。また、エフェクトとは、例えば、ステッカ自身の種類または態様を変化させるエフェクト、動画像上に配置された他のステッカの種類または態様を変化させるエフェクト等を含む。ステッカの態様を変化させるエフェクトとは、ステッカの大きさ、色彩、位置、傾き、動きまたは表示時間等を変化させるエフェクトであってもよい。また、エフェクトには、動画像に対する加工処理または編集処理を行うエフェクト、またはサウンドエフェクト等の音声を出力するエフェクトも含まれる。
【0039】
操作の種類とは、例えば、上述したような動画像の表示画面に重畳されるステッカの使用の有無を含む。また、操作態様は、例えば、動画像の表示画面に対する操作体による操作方法を含む。より具体的には、操作態様は、操作体によるタップ操作、ピンチ操作、スワイプ操作、またはスライド操作等、表示操作部としての機能を有するタッチパネル等に対する公知のジェスチャ処理を含む。さらに表示操作部が操作体により加えられる圧力を検出することが可能である場合、操作態様には、表示操作部に対して加えられる圧力の大きさに関する情報も含まれる。これらの操作位置、ステッカに関する情報、操作の種類および操作態様は、操作情報として、ユーザ端末20(30)からサーバ10に送信され、操作情報取得部102により取得される。
【0040】
操作情報取得部102は、取得した操作情報を画像解析部103に出力する。なお、画像解析部103による動画像の解析処理を実施しない場合においては、操作情報取得部102は、画像処理部104に操作情報を出力してもよい。
【0041】
(画像解析部)
画像解析部103は、画像取得部101が取得した動画像データおよび操作情報取得部102が取得した操作情報に基づいて、画像解析を行う。より具体的には、画像解析部103は、動画像上における操作位置に対応する領域を解析する。
【0042】
例えば、画像解析部103は、一の操作情報に含まれるステッカの配置に関する操作位置に対応する動画像上の領域について解析を行う。具体的には、画像解析部103は、操作位置に対応する動画像上の領域から、特定のオブジェクトを認識する。このオブジェクトは、例えば動画像に含まれる人物または物体等のオブジェクトであってもよい。動画像には、一般的には背景とオブジェクトが含まれる。後段の画像処理部104において動画像について画像処理を行う場合、動画像の背景にまで画像処理の効果が生じた場合、視聴ユーザに対して動画像について違和感を生じさせ得る。そのため、画像処理の対象となるオブジェクトを画像解析部103が解析することにより、当該オブジェクトのみに画像処理の効果が生じるため、視聴ユーザに違和感を生じさせなくすることができる。また、画像解析部103によりオブジェクトを解析することにより、オブジェクトに応じた画像処理を後段の画像処理部104により行うことも可能となる。
【0043】
なお、画像解析部103により解析されるオブジェクトは人物等の生体、または物体等であってもよい。画像解析部103は、特徴量計算等の公知の画像認識技術または画像解析技術等を用いて、特定のオブジェクトを認識してもよい。また、画像解析部103は、動画像に含まれるオブジェクトが時系列に変化する場合、当該オブジェクトの動きを解析してもよい。
【0044】
なお、画像解析部103により解析される対象は、画像処理部104による処理前の動画像の全部および一部、並びに画像処理部104による処理後の動画像の全部および一部である。処理後の動画像とは、画像処理部104によって処理された後の動画像を意味する。つまり動画像に重畳されたステッカ等も画像解析部103による解析の対象となる。解析される対象が処理前の動画像であるか処理後の動画像であるかは、画像処理部104による処理の種類または対象に応じて決定され得る。
【0045】
画像解析部103は、解析結果を画像処理部104に出力する。
【0046】
(画像処理部)
画像処理部104は、画像解析部103から取得した解析結果、および操作情報取得部102が取得した操作情報に基づいて、動画像に対して画像処理を行う。ここでいう画像処理とは、例えば、ステッカの配置処理である。さらに、画像処理部104による画像処理には、動画像に対する加工処理もしくは編集処理が含まれてもよい。
【0047】
例えば、ステッカの配置処理では、画像処理部104は、操作体による動画像上へのタップ操作に基づいて、ステッカを動画像上の操作位置に重畳する処理を行う。ステッカが動画像に重畳される場合、重畳されるステッカは、動画像と同一レイヤーにおいて結合されてもよいし、動画像とは異なるレイヤー上に重畳されてもよい。なお、画像処理部104は、操作情報に基づいて、先に動画像に重畳されたステッカに対してさらに処理を行ってもよい。例えば、画像処理部104は、先に動画像に重畳されたステッカに他のステッカを重ねることにより、さらに他の効果を生じさせるような画像処理を行ってもよい。また、画像処理部104は、操作体の操作態様に応じてステッカの種類または態様を変化させてもよい。例えば操作体によりスライド操作が行われた場合、画像処理部104は、当該スライド操作に基づいてステッカを動画像上において逐次的に位置を変化させる処理を行ってもよい。また、操作体によりピンチ操作が行われた場合、画像処理部104は、当該ピンチ操作に基づいてステッカを拡大または縮小する処理を行ってもよい。さらに、操作体により表示操作部に対して圧力が加えられた場合、画像処理部104は、加えられた圧力の値に応じてステッカの種類または態様を変化させる処理を行ってもよい。これらの処理は、ステッカを動画像上に新たに重畳させる場合に行われてもよいし、既に動画像上に配置されたステッカに対して行われてもよい。例えば、既に動画像上に配置されたステッカについて、画像処理部104は、操作体による操作態様に応じてステッカの種類または態様を変更する処理を行ってもよい。なお、ステッカの態様とは、ステッカの大きさ、色彩またはステッカの配置により生じるエフェクトの強度または種類を意味する。
【0048】
これらの画像処理は、例えば操作情報取得部102が操作情報を取得してから所定の時間の間、継続的に実行される。所定の時間は操作情報の種類等に応じて決定される。例えば、ステッカを配置する処理については、ステッカを配置する指示を含む操作情報を取得してからn秒間の間、動画像に対してステッカを重畳させる処理を画像処理部104は行う。なお、画像処理の実行時間に応じて、画像処理部104は画像処理の方法を変化させてもよい。例えば、画像処理部104がステッカを配置する処理を行った場合、動画像上に重畳されたステッカについて、画像処理部104は、画像処理が終了する時刻の直前において、徐々に動画像上からフェードアウトするような処理を行ってもよい。これにより、画像処理された動画像について視聴ユーザに対して違和感を生じさせないようにすることができる。
【0049】
上述した種々の画像処理の具体例については後述する。
【0050】
画像処理部104は、例えば、画像解析部103により認識されたオブジェクトに対して画像処理を行う。これにより、上述したように動画像を視聴するユーザに対して当該動画像について違和感を生じさせることなく、画像処理による効果をユーザに対し提示することができる。
【0051】
また、画像処理部104は、解析されたオブジェクトの特徴に応じた画像処理を行ってもよい。オブジェクトの特徴とは、一のオブジェクトに含まれる特徴を意味する。例えばオブジェクトが人物である場合、オブジェクトの特徴は、人物の身体の一部であってもよい。身体の一部とは、例えば、人物の顔だけではなく、頭部、顔、眼、鼻、口、体幹、または肢体(腕、足)等である。
【0052】
具体例を説明すると、画像処理部104は、動画像にステッカを重畳させる画像処理を行う場合、解析されたオブジェクトの特徴に応じて、操作情報に含まれるステッカの態様を変化させてもよい。より具体的には、操作位置に対応する領域がオブジェクトの有する特徴に応じた領域に含まれている場合、ステッカの態様を変化させてもよい。ステッカの態様の変化とは、例えば、操作情報に含まれているステッカの種類の変化であってもよいし、操作情報に含まれているステッカの有する効果の変化であってもよい。これにより、ユーザは動画像に含まれるオブジェクトの様々な位置に配置したステッカの変化を楽しむことができる。
【0053】
また、画像処理部104は、画像解析部103によりオブジェクトの動きが解析されている場合、当該オブジェクトの動きに基づいて画像処理を行ってもよい。例えば、画像処理部104は、オブジェクトの動きに基づいて、先に実行された画像処理を無効化する処理を行ってもよい。これにより、配信ユーザにとって不利益となるような視聴ユーザの行為を無効化することができる。また、画像処理部104は、オブジェクトの動きに基づいて、先に実行された画像処理の適用位置を変更してもよい。例えば、画像処理部104は、ステッカの配置位置をオブジェクトの動きに基づいて変更してもよい。これにより、例えば動画像に含まれるオブジェクトが配信ユーザの身体である場合、配信ユーザの動きによってステッカがあたかも移動したかのような効果が動画像上で生じる。これにより、配信ユーザと視聴ユーザのコミュニケーションをより多様化することができる。なお、上述した画像処理の無効化および適用位置の変更は、オブジェクトの動きだけではなく、配信ユーザによる動画像に対する操作に関する操作情報に基づいて行われてもよい。これにより、配信ユーザは容易に画像処理の無効化または適用位置の変更を実行することができる。
【0054】
また、画像処理部104は、ユーザ端末20(30)の表示操作部210に表示される動画像に対する画像処理だけではなく、操作情報等に基づいた他の処理を行ってもよい。例えば、画像処理部104は、操作情報の取得量に基づいた処理を行ってもよい。より具体的には、画像処理部104は、操作情報の取得量の時系列分布に基づいた処理を行ってもよい。他の処理には、例えば、操作情報等に基づいた動画像に対する統計処理または抽出処理が含まれる。
【0055】
画像処理部104は、所定時間に検出された操作情報の取得量の時系列分布に基づいた処理を行ってもよい。ここで、所定時間とは、例えばライブ映像の開始時刻および終了時刻の間の時間であってもよい。この場合、画像処理部104は、例えば配信されている動画像について単位時間ごとに分割し、分割された各区間において操作情報取得部102が取得した操作情報の取得量に基づいて処理を行ってもよい。
【0056】
例えば、画像処理部104は、取得量の多かった区間(例えば取得量が閾値以上であった区間)を抽出区間として設定してもよい。そして、画像処理部104は、複数の抽出区間を結合してもよい。これにより、既に配信された動画像に関するハイライト映像を容易に作成することができる。
【0057】
なお、上述したような画像処理部104による抽出処理およびハイライト映像生成処理は、配信元であるユーザ端末20による動画像の配信中に逐次的に実行されてもよいし、ユーザ端末20による動画の配信が終了した後にポスト処理として実行されてもよい。
【0058】
また、所定時間は、ライブ映像の配信中において特定される任意の区間であってもよい。この場合、画像処理部104は、当該区間において取得された操作情報に基づいた処理を行ってもよい。
【0059】
例えば、画像処理部104は、操作位置の分布に基づいた処理を行ってもよい。より具体的には、画像処理部104は、ある時間区間において取得された操作位置の分布に基づいて、動画像についての統計処理を行ってもよい。例えば、画像処理部104は、操作位置の分布から、動画像に含まれる複数のオブジェクトのうちどのオブジェクトに対して最も操作が実行されたかなどの情報を統計処理によって取得してもよい。統計処理とは、例えば投票等の集計処理等であってもよい。これにより、配信ユーザは視聴ユーザとのコミュニケーションについて、より定量的なデータを得ることが可能となる。
【0060】
他にも画像処理部104は、動画像に付随する音響情報、または操作情報に付随する属性情報等に基づいた処理を行ってもよい。これらの処理の具体例については後述する。
【0061】
画像処理部104により画像処理された動画像を含む動画像データは、不図示の通信部を介して各ユーザ端末に配信される。
【0062】
以上、サーバ10の機能構成例について説明した。
【0063】
<2.2.ユーザ端末>
図6は、本開示の一実施形態に係るユーザ端末20(30)の機能構成例を示すブロック図である。なお、ユーザ端末20およびユーザ端末30は同様の機能構成を有するため、ここではユーザ端末20の機能構成について説明する。
図6を参照すると、ユーザ端末20は、制御部200および表示操作部210を備える。なお、ユーザ端末20により動画像の撮像処理を行う場合、ユーザ端末20はさらに撮像部220を備えてもよい。
【0064】
(制御部)
制御部200は、ユーザ端末20に含まれる各機能部の動作全般を制御する。制御部200は、例えば、CPU等の処理回路によって実現される。また、制御部200は、画像取得部201、表示制御部202、操作情報生成部203および操作情報送信部204としての機能を有する。
【0065】
(画像取得部)
画像取得部201は、サーバ10から動画像を含む動画像データを不図示の通信部を介して取得する。サーバ10から取得する動画像は、動画像の配信元であるユーザ端末からサーバ10へ一度送信された動画像である。例えば、画像取得部201は、サーバ10から動画像データを時系列に取得する。画像取得部201は、取得した動画像データを表示制御部202に出力する。
【0066】
(表示制御部)
表示制御部202は、画像取得部201から取得した動画像データに含まれる動画像を表示操作部210に表示させるための制御を行う。例えば、表示制御部202は、動画像を表示操作部210内の所定の画面に表示させる。
【0067】
なお、ユーザ端末20により動画像が配信されている場合、表示制御部202は、撮像部220により生成された動画像を表示操作部210に表示させてもよい。しかしこの場合、サーバ10から取得した動画像と撮像部220により生成された動画像との間にはレイテンシが生じ得るため、配信ユーザが視聴する動画像と視聴ユーザが視聴する動画像との間にズレが生じ得る。そのため、表示操作部210に表示される動画像は、サーバ10から取得した動画像であることが望ましい。
【0068】
(操作情報生成部)
操作情報生成部203は、表示操作部210に表示された動画像に対する操作に基づいて操作情報を生成する。例えば、操作情報生成部203は、表示操作部210に表示された動画像に対するステッカの配置に関する操作に基づいて操作情報を生成する。より具体的には、操作情報生成部203は、動画像上へのステッカの配置に関する操作位置、当該ステッカに関する情報、表示操作部210に対する操作の種類、および操作態様を表示操作部210から取得して、これらを操作情報として生成する。なお、ここで操作情報に含まれる操作位置は、動画像上における操作位置を意味する。詳細には、操作体が表示操作部210に対して表示操作部210上の位置(x,y)に接触したとすると、操作情報生成部203は、表示操作部210上の位置(x,y)に対応する動画像上の位置(u,v)を操作位置として取得する。操作情報生成部203は、生成した操作情報を操作情報送信部204に出力する。
【0069】
(操作情報送信部)
操作情報送信部204は、操作情報生成部203が生成した操作情報を不図示の通信部を介してサーバ10に送信する。
【0070】
なお、画像取得部201および表示制御部202による処理は逐次的に実行されるが、操作情報生成部203および操作情報送信部204による処理は、動画像が表示されている表示操作部210への操作体による操作があった際に実行される。
【0071】
(表示操作部)
表示操作部210は、表示部および操作部としての機能を有する。表示操作部210は、表示制御部202により動画像を表示する。また、表示操作部210は、操作体による操作を取得する。表示操作部210が取得した当該操作に関する情報は、操作情報生成部203に出力される。
【0072】
表示操作部210は、例えば、タッチパネル等、表示部材と入力部材を兼ねる部材により実現されてもよい。また本実施形態において表示操作部210は表示部および操作部としての機能を一体として有するが、本技術はかかる例に限定されない。例えば、表示操作部210は、表示部としての機能と操作部としての機能とを分離して有してもよい。この場合、表示部は、例えば、LCD(Liquid Crystal Display;液晶ディスプレイ)またはOELD(Organic Electro-Luminescence Display;有機電界発光ディスプレイ)等のディスプレイ装置により実現されてもよい。表示部を実現するディスプレイ装置は、操作体によるタップ操作、ピンチ操作、スワイプ操作、またはスライド操作等、表示操作部としての機能を有するタッチパネル等に対する公知のジェスチャ処理を認識可能なタッチセンサを有してもよい。これにより、操作体による表示部に対する接触により行われる操作を検出することができる。また、表示部を実現するディスプレイ装置は、感圧センサをさらに有してもよい。これにより、操作体により表示部に対して加えられる圧力を検出することができる。したがって、操作部は、例えば、キーボード、タッチパネル、マウスまたはホイール等の各種入力部材により実現されてもよい。なお、表示部と操作部が分離してユーザ端末20に設けられている場合、表示部に表示されている動画像に対する操作位置または操作態様等は、操作部により特定される。
【0073】
(撮像部)
撮像部220は、実空間を撮像し、撮像画像(動画像)を生成する。生成された動画像は、不図示の通信部を介してサーバ10に送信される。また、生成された動画像は、表示制御部202に出力されてもよい。本実施形態に係る撮像部220は、例えば、CCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子、および撮像素子への被写体像の結像を制御するためのレンズなどの各種の部材により実現される。なお、本実施形態に係るユーザ端末20は撮像部220の機能をユーザ端末20の外部に設けてもよい。この場合、ユーザ端末20は、デジタルカメラ等の撮像装置により生成された動画像を取得し、当該動画像をサーバ10へ送信してもよい。
【0074】
以上、ユーザ端末20(30)の機能構成例について説明した。
【0075】
<<3.情報処理システムの動作>>
次に、情報処理システムの各装置における動作例について説明する。ここでは、ユーザ端末による操作処理およびサーバによる画像処理の各動作例について説明する。
【0076】
<3.1.ユーザ端末による操作処理の動作>
図7は、本開示の一実施形態に係るユーザ端末20(30)による操作処理の動作例を示すフローチャートである。ここでは、ユーザ端末20が、ユーザ端末20に対して操作体による操作に関する操作情報を生成し、当該操作情報に基づく画像処理が行われた動画像を取得するまでの処理の流れについて説明する。
【0077】
図7を参照すると、まず表示操作部210は、表示操作部210に表示されている動画像上に対して行われた操作を検出する(S101)。続いて、操作情報生成部203は、表示操作部210により検出された操作を表示操作部210から取得し、ステッカの配置に関する操作に基づいて操作情報を生成する(S103)。次に、操作情報送信部204が、操作情報をサーバ10へ送信する(S105)。当該操作情報を取得したサーバ10は、当該操作情報に基づく画像処理を、配信されている動画像に対して行う。
【0078】
次に、画像取得部201は、ユーザ端末20が送信した操作情報を少なくとも含む操作情報に基づく画像処理が行われた動画像をサーバ10から取得する(S107)。これにより、ユーザ端末20により実施された操作処理が配信中の動画像に対して適用される。
【0079】
<3.2.サーバによる画像処理の動作>
図8は、本開示の一実施形態に係るサーバ10による画像処理の動作例を示すフローチャートである。ここでは、サーバ10が、動画像の配信元であるユーザ端末20から当該動画像を取得し、操作情報に基づいて画像解析および画像処理を行い、画像処理後の動画像を配信するまでの処理の流れについて説明する。
【0080】
図8を参照すると、まず画像取得部101は、動画像の配信元であるユーザ端末20から動画像を取得する(S201)。また、操作情報取得部102は、配信元であるユーザ端末20を含む複数のユーザ端末から操作情報を取得する(S203)。
【0081】
次に、画像解析部103は、操作情報に含まれる操作位置に対応する領域について画像解析を行う(S205)。次いで、画像処理部104は、操作情報および画像解析部103による解析結果に基づいて、動画像に対してステッカの配置処理を実行する(S207)。そして、画像処理部104によりステッカの配置処理が施された動画像が、各ユーザ端末に配信される(S209)。
【0082】
以上、本実施形態に係る情報処理システムによる動作例について説明した。
【0083】
<<4.情報処理システムによる画像処理例>>
続いて、本実施形態に係る情報処理システム1による画像処理例について説明する。本実施形態に係るサーバ10は、ユーザ端末20から取得した動画像について、各ユーザ端末から取得した操作情報に基づいて画像処理を行う。その際、サーバ10は、操作情報に含まれる操作位置に対応する領域について画像解析を行ってから画像処理を行ってもよい。これにより、動画像に含まれるオブジェクト等の情報を用いた処理を行うことができる。したがって、配信ユーザと視聴ユーザとのコミュニケーションをより多様なものとすることができる。なお、本実施形態に係るサーバ10は画像解析を行わずに画像処理を行うことも可能である。以下、画像処理例について説明する。
【0084】
<4.1.変形処理>
まず、情報処理システム1による動画像の変形処理について説明する。この変形処理は、操作情報に基づいて動画像に含まれるオブジェクトに対して変形加工するものである。
【0085】
図9は、本実施形態に係る情報処理システム1による動画像の変形処理の第1の例を示す図である。
図9を参照すると、ユーザ端末30の表示操作部210において、ライブ映像表示画面1010にはライブ映像M2が表示されている。このライブ映像M2には動体オブジェクトObj21および背景オブジェクトObj22が含まれている。
図9に示した例では、動体オブジェクトObj21は人物オブジェクトであり、背景オブジェクトObj22は月オブジェクトである。
【0086】
図9に示した例において、視聴ユーザがライブ映像M2に対して爆弾を示すステッカStk2を操作体Hを用いて配置したとする。この爆弾を示すステッカStk2は、配置位置に対応する領域について動画像を変形加工する特徴を有する。操作情報生成部203は、ステッカStk2の配置位置、種類および態様を含む操作情報を生成し、操作情報送信部204は、当該操作情報をサーバ10に送信する。
【0087】
操作情報取得部102が上記操作情報を取得すると、画像解析部103は、画像取得部101が取得したライブ映像M2内の当該配置位置に対応する領域1021について画像解析を実行し、領域中に含まれるオブジェクトを認識する。この領域1021は、操作情報ごとに設定される所定の領域であってもよい。例えば、
図9に示した例では、領域1021は、ステッカStk2によるライブ映像M2に対する変形処理が及ぶ範囲である。この場合、領域1021には、動体オブジェクトObj21および背景オブジェクトObj22が含まれる。なお、画像解析部103では、オプティカルフロー推定等を含む公知の画像解析技術が用いられる。
【0088】
動体オブジェクトObj21は人物オブジェクトであり、動きの大きいオブジェクトである。一方で、背景オブジェクトObj22は月オブジェクトであり、動きの小さい、または動きのないオブジェクトである。ここで動画像に含まれるオブジェクトの種類に関係なく変形処理を動画像について行う場合、変形処理の対象となる領域全体が変形してしまう。この場合、例えば動画像に含まれる背景にまで変形処理が及んでしまうので、変形処理がされた動画像を視聴するユーザに違和感を生じさせてしまう。
【0089】
そこで、画像解析部103は、動きの大きいオブジェクトを画像処理の対象として特定する。例えば、
図9に示した例では、画像解析部103は、動体オブジェクトObj21を画像処理の対象のオブジェクトとして特定する。画像処理部104は、画像解析部103による解析結果に基づき、動体オブジェクトObj21のみを画像処理を行う。例えば、
図9に示した例では、画像処理部104は、動体オブジェクトObj21のみについて変形処理を行う。これにより、
図9に示したように、人物の顔のみが変形し、背景の月は変形しないようなライブ映像を得ることができる。したがって、動画像が変形等する場合においても、動画像に対して、配信ユーザおよび視聴ユーザに違和感を生じさせなくすることができる。
【0090】
なお、
図9に示した例においては、爆弾を示すステッカStk2をライブ映像M2上に配置することにより変形処理が行われたが、本技術はかかる例に限定されない。例えば、他のステッカを動画像上の任意の位置に配置することにより、当該ステッカに対応づけられた画像処理が、動画像上の上記位置に対応する領域について実行される。
【0091】
また、
図9に示した例においては、動きの大きい動体オブジェクトObj21について変形処理が行われたが、本技術はかかる例に限定されない。例えば、背景オブジェクト(例えば月を示す背景オブジェクトObj22)等に対する変形処理等が行われてもよい。より具体的には、画像解析部103は、動画像の背景に対して色彩を変化させる処理(例えば、明るい空を暗くするような処理)を行ってもよい。これにより、動画像を介したコミュニケーションをより楽しむことができる。
【0092】
また、
図9ではステッカを用いて動画像を変形する処理について説明したが、本技術はかかる例に限定されない。例えば、ステッカを用いずに、操作体Hによる表示操作部210に対する操作態様に基づく処理も可能である。
【0093】
図10は、本実施形態に係る情報処理システム1による動画像の変形処理の第2の例を示す図である。
図10を参照すると、
図9と同様に、ユーザ端末30の表示操作部210において、ライブ映像表示画面1010にはライブ映像M2が表示されている。このとき、視聴ユーザが操作体Hによりピンチアウト操作を実行したとする。ピンチアウト操作に関する操作情報がユーザ端末30からサーバ10に送信されると、画像解析部103は、操作位置に対応する領域について画像解析を行い、画像処理の対象となるオブジェクトを認識する。そして、画像処理部104は画像解析により認識されたオブジェクトに対して、ピンチアウト操作に対応する処理を行う。
図10に示した例では、操作体Hによるピンチアウト操作に対応する方向に応じてオブジェクトObj2が変形加工される。このように、ステッカを用いずに、直接ライブ映像M2に対して特定の操作を実行することにより、動画像を画像処理することも可能である。したがって、視聴ユーザは配信される動画像を介したコミュニケーションをより容易に楽しむことができる。
【0094】
<4.2.オブジェクトの特徴に応じた画像処理>
次に、情報処理システム1による動画像に含まれるオブジェクトの特徴に応じた画像処理について説明する。このオブジェクトの特徴に応じた画像処理は、操作位置に対応するオブジェクトの特徴に応じて、動画像に対する画像処理を異ならせるものである。
【0095】
図11は、本実施形態に係る情報処理システム1による動画像に含まれるオブジェクトの特徴に応じた画像処理の例を示す図である。
図11を参照すると、ユーザ端末30の表示操作部210において、ライブ映像表示画面1010にはライブ映像M3が表示されている。このライブ映像M3には人物オブジェクトObj3が含まれている。さらに、
図11に示した例では、人物オブジェクトObj3には、人物の頭部に相当する領域1031および人物の顔に相当する領域1032が含まれている。
【0096】
図11に示した例において、視聴ユーザがライブ映像M3に対して好意を示すステッカStk3を、操作体Hを用いてライブ映像M3上に複数配置したとする。このステッカStk3は、配置位置がオブジェクトの特定の領域に含まれている場合に、その態様が変化する特徴を有する。ステッカStk3は、それぞれ領域1031、領域1032およびこれらの領域の外部に配置されたとする。操作情報生成部203は、ステッカStk3の各配置位置、種類、および態様を含む操作情報を生成し、操作情報送信部204は、当該操作情報をサーバ10に送信する。
【0097】
操作情報取得部102が上記操作情報を取得すると、画像解析部103は、画像取得部101が取得したライブ映像M3における当該配置位置に対応する領域(位置)について画像解析を実行し、領域中に含まれるオブジェクトを認識する。さらに、画像解析部103は当該配置位置に対応する領域(位置)が、オブジェクトの有する特徴に応じた領域に含まれているか否かを判定してもよい。例えば、
図11に示した例では、画像解析部103は、人物オブジェクトObj3を認識したあと、人物の頭部に相当する領域1031および人物の顔に相当する領域1032を検出し、配置位置に対応する領域(位置)がこれらの領域に含まれているか否かを判定する。
【0098】
画像処理部104は、上述した判定結果を含む解析結果、および操作情報に基づいて、ステッカの態様を変化させてステッカを配置する等の画像処理を行う。例えば、
図11に示した例では、画像処理部104は、配置位置が領域1031に含まれている場合、好意を示すステッカStk3を猫の手を示すステッカStk31に変化させてライブ映像M3に重畳させてもよい。また、画像処理部104は、配置位置が領域1032に含まれている場合、「CUTE!」という文字を示すステッカStk32に変化させてライブ映像M3に重畳させてもよい。これにより、動画像に含まれているオブジェクトの特徴に応じて、単一のステッカから様々な表示を楽しむことができる。
【0099】
<4.3.ジェスチャ処理>
次に、情報処理システム1による動画像に含まれるオブジェクトによるジェスチャ処理について説明する。このジェスチャ処理は、オブジェクトの動きに応じて、動画像に対して行われた画像処理を変更または解除するものである。
【0100】
図12は、本実施形態に係る情報処理システム1による動画像に含まれるオブジェクトによるジェスチャ処理の例を示す図である。
図12を参照すると、ユーザ端末30の表示操作部210において、ライブ映像表示画面1010にはライブ映像M4が表示されている。このライブ映像M4には人物オブジェクトObj4が含まれている。さらに、
図12に示した例では、複数のステッカStk4が人物オブジェクトObj4を覆い隠すようにライブ映像M4に重畳されている。
【0101】
図12に示した例において、人物オブジェクトObj4がライブ映像M4上において腕を用いて複数のステッカStk4を振り払うようなジェスチャを行ったとする。このとき、画像解析部103は、人物オブジェクトObj4の腕の動きを認識してもよい。例えば、画像解析部103は、予め人物オブジェクトObj4をライブ映像M4上で認識しておき、人物オブジェクトObj4が矢印1041に沿って腕を動かしたことを検出する。
【0102】
画像解析部103が腕の動きを検出すると、画像解析部103は、当該腕の動きに対応する処理の対象となるステッカを解析する。
図12に示した例では、複数のステッカStk4が人物オブジェクトObj4を覆い隠すようにライブ映像M4に重畳されている。画像解析部103は、人物オブジェクトObj4の上に当該腕の動きに対応する処理の対象となるステッカとして、人物オブジェクトObj4に対応する領域に存在する複数のステッカStk4を認識する。そして、画像解析部103は、認識したステッカStk4が当該腕の動きに対応する処理の対象であることについての情報を、画像処理部104に出力する。
【0103】
次に、画像処理部104は、腕の動きに応じた画像処理をライブ映像M4に対して行う。
図12に示した例では、画像処理部104は、画像解析部103により処理対象として認識された複数のステッカStk4を、人物オブジェクトObj4に重ならない位置まで移動させるような処理を行う。これにより、ライブ映像M4に人物オブジェクトObj4として撮像されている人物は、ステッカ等による配信ユーザへの迷惑行為を、ユーザ端末20を直接的に操作しなくても、自らの動きにより解消することができる。
【0104】
なお、
図12に示した例においては、画像処理部104は、人物オブジェクトObj4の動きに基づいてステッカStk4を移動させる処理を行ったが、本技術はかかる例に限定されない。例えば、画像処理部104は、このような動きに基づいてステッカStk4を消滅させてもよいし、他の態様にステッカStk4を変化させてもよい。また、人物オブジェクトObj4によるジェスチャも、腕を振り払うジェスチャに限定されない。画像解析部103がオブジェクトの動きを解析することが可能であれば、どのようなジェスチャも画像解析の対象となり得る。
【0105】
また、
図12に示した例においては、人物オブジェクトObj4を覆い隠すように重畳されたステッカStk4を移動させる処理について示されたが、本技術はかかる例に限定されない。例えば、画像処理部104は、人物オブジェクトObj4に与えられた変形処理等についても、人物オブジェクトObj4のジェスチャにより、当該変形処理を無効化することができる。これにより、配信ユーザの意図しない画像処理を取り消すことができる。
【0106】
また、
図12ではジェスチャによりステッカを移動させる処理について説明したが、本技術はかかる例に限定されない。例えば、ユーザ端末20に対する操作に基づいて上記のような処理が行われてもよい。
【0107】
図13は、本実施形態に係る情報処理システム1によるステッカの移動処理の例を示す図である。
図13を参照すると、
図12と同様に、ユーザ端末30の表示操作部210において、ライブ映像表示画面1010にはライブ映像M4が表示されている。ライブ映像M2には人物オブジェクトObj4が含まれており、複数のステッカStk4が人物オブジェクトObj4を覆い隠すようにライブ映像M4に重畳されている。このとき、配信ユーザ(または視聴ユーザ)が操作体Hによりピンチアウト操作を実行したとする。ピンチアウト操作に関する操作情報がユーザ端末30からサーバ10に送信されると、画像解析部103は、操作位置に対応する領域について画像解析を行い、人物オブジェクトObj4に重畳されているステッカを特定する。そして、画像処理部104は画像解析により特定されたステッカに対して、ピンチアウト操作に対応する処理を行う。
図13に示した例では、操作体Hによるピンチアウト操作に対応する方向に応じて、人物オブジェクトObj4に重畳している複数のステッカStk4が移動する。このように、直接ライブ映像M4に対して特定の操作を実行することにより、ステッカを移動させる処理を行うことも可能である。これにより、配信ユーザは、配信ユーザへの迷惑行為を容易に解除することができる。
【0108】
<4.4.ステッカに対する操作に基づく処理>
次に、情報処理システム1によるステッカに対する操作に基づく処理について説明する。このステッカに対する操作に基づく処理は、動画像に重畳されたステッカに対して行われた操作体による操作に基づいて、ステッカの態様等を変化させるものである。以下では、ステッカのスライド操作に基づく処理、およびステッカに対するタップ操作に基づく処理の2つの例について説明する。
【0109】
図14は、本実施形態に係る情報処理システム1によるステッカのスライド操作に基づく処理の第1の例を示す図である。
図14を参照すると、ユーザ端末30の表示操作部210において、ライブ映像表示画面1010にはライブ映像M5が表示されている。このライブ映像M5には人物オブジェクトObj5が含まれている。
【0110】
図14に示した例において、ライブ映像表示画面1010に対して、ユーザが操作体Hを用いてステッカStk5を配置するとともに、スライド操作を行ったものとする。操作情報生成部203は、ステッカStk5の配置位置およびスライド操作に関する情報を生成し、操作情報送信部204は、当該操作情報をサーバ10に送信する。
【0111】
操作情報取得部102が上記操作情報を取得すると、画像処理部104は、ステッカStk5の配置位置およびスライド操作等に基づく画像処理を行う。例えば、画像処理部104は、ステッカStk5の配置位置を初期位置として、操作体Hのスライド操作に対応する方向へ所定の速度で移動させてもよい。これにより、ステッカStk5は、ライブ映像M5上をスライドするような挙動を示す。なお、上記の所定の速度は、例えば上記のスライド操作における操作体Hのスライドの速さに応じて決定されてもよい。
【0112】
また、
図14に示すように、画像処理部104は、ステッカをスライドさせる処理を行う場合に、動画像に含まれているオブジェクト上をステッカが通過する際に、所定の処理を動画像全体またはオブジェクトに対して行ってもよい。例えば、
図14に示した例では、画像解析部103が人物オブジェクトObj5を認識し、画像処理部104が人物オブジェクトObj5に対応する領域上のみエフェクトEfcを示すような処理を行ってもよい。これにより、視聴ユーザはライブ映像をただ視聴するだけではなく、ゲームのように楽しむことができる。
【0113】
さらに、画像処理部104は、ステッカをスライドさせる処理を行う場合に、動画像に既に重畳されている他のステッカに上記のステッカが動画像上で接触した際に、所定の処理を動画像または各ステッカに対して行ってもよい。
図15は、本実施形態に係る情報処理システム1によるステッカのスライド処理の第2の例を示す図である。
図15を参照すると、ユーザ端末30の表示操作部210において、ライブ映像表示画面1010にはライブ映像M5が表示されている。このライブ映像M5には人物オブジェクトObj5、および第2のステッカStk52が含まれている。
【0114】
図15に示した例において、ライブ映像表示画面1010に対して、ユーザが操作体Hを用いて第1のステッカStk51を配置するとともに、第2のステッカStk52が配置されている位置に向かって第1のステッカStk51がスライドするようにスライド操作を行ったものとする。この場合、スライド処理がされた第1のステッカStk51がライブ映像M5上において第2のステッカStk52と接触したと判定されたときに、画像処理部104は所定の処理を行ってもよい。例えば、画像処理部104は、衝突された第2のステッカStk52をライブ映像M5の外部に弾き飛ばされるような演出を表示する処理を行ってもよい。
図15に示した例では、第2のステッカStk52は第1のステッカStk51から衝突されると、ライブ映像表示画面1010の外部に弾き飛ばされる。このように、複数のステッカがスライド処理により衝突した際に画像処理部104が所定の処理を行うことにより、視聴ユーザはライブ映像をただ視聴するだけではなく、ゲームのように楽しむことができる。
【0115】
なお、複数のステッカがスライド処理により衝突した際に行う処理については、特に限定されない。例えば、特定のステッカが他のステッカに衝突した際に、さらに異なるステッカに変化するような処理を画像処理部104が行ってもよい。このように、ステッカの種類に応じて衝突した際に行う処理を変化させることにより、視聴ユーザによるライブ映像の視聴をより多様性の富むものとすることができる。さらに、ライブ映像上におけるステッカのスライドによる当該ステッカの位置の変化に係る態様は特に限定されない。例えば、スライド処理による操作体Hのスライドの態様に応じて、ステッカの位置の変化量の大きさや方向が適宜決定されてもよい。
【0116】
次に、情報処理システム1によるステッカに対するタップ操作に基づく処理について説明する。このステッカに対するタップ操作に基づく処理は、動画像に重畳されたステッカに対してタップ操作を行うことにより、当該ステッカの態様等を変化させるものである。
【0117】
図16は、本実施形態に係る情報処理システム1によるステッカに対するタップ操作に基づく処理の例を示す図である。
図16を参照すると、ユーザ端末30の表示操作部210において、ライブ映像表示画面1010にはライブ映像M5が表示されている。このライブ映像M5には人物オブジェクトObj5、および第3のステッカStk53が含まれている。
【0118】
図16に示した例において、ライブ映像表示画面1010に先に配置されている第3のステッカStk53に対して、ユーザが操作体Hを用いて所定のタップ操作を行ったものとする。この所定のタップ操作とは、例えば、操作体Hが所定時間内に所定回数以上行うことによるタップ操作、または操作体Hが表示操作部210に対して所定圧力以上を圧力を加えることによる押圧操作等であってもよい。この場合、操作情報取得部102は、所定のタップ操作に関する操作情報を取得し、画像処理部104は、当該操作情報に応じて第3のステッカStk53の種類または態様を変化させる処理を行ってもよい。
図16に示した例では、第3のステッカStk53は、操作体Hによる所定のタップ操作に応じて第4のステッカStk54に変化する。
図16に示した例では、第4のステッカStk54は、操作体Hによる所定のタップ操作により第3のステッカStk53が拡大されて得られるステップである。このように、ステッカがタップ操作に応じてその種類または態様が変化することにより、複数のユーザが一のステッカを介してコミュニケーションを図ることが可能となる。
【0119】
なお、上述した例においては、画像処理部104が所定のタップ操作に関する操作情報に基づいてステッカの種類または態様を変化させるとしたが、本技術はかかる例に限定されない。例えば、画像処理部104は、タップ操作だけではなく、ステッカに対する所定のスライド操作または所定のピンチ操作に応じて、ステッカの種類または態様を変化させてもよい。例えば、画像処理部104は、動画像上に配置されたステッカをタップした後に所定の方向へスライドさせる操作に応じて、ステッカの種類または態様を変化させてもよい。このほか、画像処理部104は、表示操作部210が取得可能である操作体Hによるステッカに対する様々な操作に応じて、当該ステッカの種類または態様を変化させてもよい。これにより、動画像上に配置されたステッカを介して、ゲーム要素を含んだコミュニケーションを形成することが可能となる。
【0120】
<4.5.ステッカまとめ処理>
次に、情報処理システム1による動画像に含まれるステッカをまとめる処理について説明する。このステッカまとめ処理は、動画像に密集して重畳されたステッカをまとめるものである。
【0121】
図17は、本実施形態に係る情報処理システム1による動画像に含まれるステッカをまとめる処理の例を示す図である。
図17を参照すると、ユーザ端末30の表示操作部210において、ライブ映像表示画面1010にはライブ映像M6が表示されている。このライブ映像M6には人物オブジェクトObj6が含まれている。さらに、
図17に示した例では、複数のステッカStk60が人物オブジェクトObj6の上に密集してライブ映像M6に重畳されている。
【0122】
図17に示した例において、画像処理部104は、ステッカStk60の密集度が所定の閾値を超えた場合に、これらのステッカStk60をまとめる処理を行ってもよい。例えば、
図17の右上に示したように、画像処理部104は、複数のステッカStk60を一つのステッカStk60にまとめる処理を行ってもよい。この際、画像処理部104は、まとめられたステッカStk60の個数を、「×10」のようにステッカStk60の近傍に表示してもよい。また、画像処理部104は、まとめ処理を行った後のステッカStk60の代わりに、ステッカStk60とは態様の異なるステッカStk61を表示する処理を行ってもよい。これにより、ライブ映像M6に含まれる人物オブジェクトObj6の視認性を確保し、かつ視聴ユーザに対してステッカがまとめられたことを示唆することができる。したがって、配信ユーザおよび視聴ユーザ間の動画像を介したコミュニケーションの利便性を確保することができる。
【0123】
<4.6.音響情報に応じた画像処理>
次に、情報処理システム1による音響情報に応じた画像処理について説明する。この音声に応じた画像処理は、動画像に付随する音響情報に応じて画像処理を実行、変更または解除するものである。
図18は、本実施形態に係る情報処理システム1による音響情報に応じた画像処理の例を示す図である。
図18を参照すると、ユーザ端末30の表示操作部210において、ライブ映像表示画面1010にはライブ映像M7が表示されている。このライブ映像M7には音楽を演奏する複数の人物オブジェクト、およびステッカStk70が含まれている。また、ライブ映像M7には音響情報が付随されており、音響情報には音響波形Snd1が含まれる。音響波形Snd1の振幅は、音量の大きさを示す。
【0124】
画像処理部104は、音響情報に応じた画像処理を行ってもよい。
図18に示した例において、画像処理部104は、音響波形の大きさに応じて、ステッカStk70の大きさを変化させる処理を行ってもよい。
図18の右側に示したように、音響波形Snd2の振幅は音響波形Snd1の振幅よりも大きいため、画像処理部104は、ステッカStk71の大きさをステッカStk70よりも大きくする処理を行う。これにより、ステッカStk70の大きさが、ライブ映像M7の音声の大きさに応じて変化する。このように、音声に応じて画像処理を行うことにより、視聴ユーザに与えるライブ映像の臨場感をより大きくさせることができる。
【0125】
なお、画像処理部104は、音量のみならず、音質または音場等の変化に応じて画像処理を行ってもよい。これにより、音響情報とマッチした画像処理を行うことができる。
【0126】
<<5.情報処理システムによる操作情報の応用例>>
以上、本実施形態に係る情報処理システム1による画像処理例について説明した。本実施形態に係る情報処理システム1は、動画像に対して画像解析結果に基づいて画像処理を行うだけではなく、操作情報等に基づいた他の処理を行ってもよい。以下、本実施形態に係る情報処理システム1による操作情報の応用例について説明する。
【0127】
<5.1.ハイライト動画生成>
まず、情報処理システム1によるハイライト動画生成処理について説明する。このハイライト動画生成処理は、配信された動画像から盛り上がった部分のみを抽出して結合することによりハイライト動画を生成するものである。
【0128】
図19は、本実施形態に係る情報処理システム1によるハイライト動画生成処理の例を説明するための図である。
図19には、単位時間あたりの操作情報の取得量を示すグラフ500が示されている。当該単位時間は、ライブ映像の配信開始時から配信終了時までの時間を複数の区間に分割した際の当該区間の大きさである。当該単位時間の大きさは特に限定されない。本応用例では、例えば単位時間の大きさは5秒程度であってもよい。
【0129】
グラフ500を参照すると、ライブ映像の配信開始時から配信終了時までの各区間における操作情報の取得量が示されている。操作情報の取得量は、当該区間において操作情報取得部102が取得した操作情報の取得量である。
【0130】
例えば、グラフ500内に示されている区間帯501〜503では、他の区間と比較して取得量が大きくなっている。つまり、この区間帯においてライブ映像に対するユーザによる操作が多かったことが考えられる。したがって、この区間帯は、ライブ映像を視聴するユーザにとって盛り上がっていた時間帯であると考えることができる。そこで、画像処理部104は、このような時間帯におけるライブ映像を抽出して結合してもよい。これにより、ライブ映像のうち盛り上がった部分のみを抽出したハイライト動画を容易に作成することができる。
【0131】
以下、ハイライト動画の生成に関する処理について説明する。ここでは、ライブ映像の配信が終了した後に画像処理部104によりハイライト動画を生成する例について説明する。なお、ハイライト動画の生成処理は、ライブ映像の配信中に逐次的に実施されてもよい。まず、画像処理部104は、単位時間ごとの操作情報の取得量を取得する。次に、画像処理部104は、各区間における取得量が所定の閾値(
図19に示したグラフ500においては、閾値線510に相当)を超えているか否かを判定し、ライブ映像の抽出対象となる区間帯を設定する。そして、画像処理部104は、抽出対象となる区間帯におけるライブ映像をそれぞれ抽出し、それらを時間的に連続するよう結合することによりハイライト動画を生成する。
【0132】
なお、複数の抽出されたライブ映像を結合する際においては、画像処理部104は、連続する2つの区間のライブ映像について、先の区間におけるライブ映像の末端時刻および後の区間におけるライブ映像の始端時刻およびの前後について画像処理を適宜行ってもよい。具体的には、画像処理部104は、先の区間におけるライブ映像の末端時刻に対応する動画像がフェードアウトするような処理を行い、かつ、後の区間におけるライブ映像の始端時刻に対応する動画像がフェードインするような処理を行ってもよい。これによってライブ映像の結合によるハイライト動画の不連続性が解消されるので、視聴ユーザに対して違和感を生じさせないようにすることができる。
【0133】
<5.2.画像解析後の投票処理>
次に、情報処理システム1による画像解析後の投票処理について説明する。この画像解析後の投票処理は、投票対象となるオブジェクトを画像解析により認識し、認識したオブジェクトについて操作情報を用いて投票処理を行うものである。
【0134】
図20は、本実施形態に係る情報処理システム1による画像解析後の投票処理の例を説明するための図である。
図20を参照すると、ユーザ端末30の表示操作部210において、ライブ映像表示画面1010にはライブ映像M8が表示されている。このライブ映像M8には第1の人物オブジェクトObj80および第2の人物オブジェクトObj81が含まれている。これらの人物オブジェクトは、情報処理システム1による投票処理の投票対象となるオブジェクトである。
【0135】
ここで、ライブ映像M8には、視聴ユーザに対して人物オブジェクトObj80または第2の人物オブジェクトObj81のいずれかに対してタップするような指示が提示されたとする。視聴ユーザがユーザ端末30に対して人物オブジェクトObj80に対応する領域1080または第2の人物オブジェクトObj81に対応する領域1081のいずれかをタップすると、操作情報生成部203は、動画像上のタップ位置を含む操作情報を生成し、操作情報送信部204は、当該操作情報をサーバ10に送信する。
【0136】
画像解析部103は、ライブ映像M8に含まれる第1の人物オブジェクトObj80および第2の人物オブジェクトObj81を認識し、画像処理部104は、操作情報に含まれるタップ位置が人物オブジェクトObj80に対応する領域1080または第2の人物オブジェクトObj81に対応する領域1081のいずれかに対応する領域に含まれるか否かを判定する。そして、画像処理部104は、対応するオブジェクト(またはいずれにも該当しないこと)を特定し、当該オブジェクトについてタップ回数をカウントする。上記のような処理は所定時間繰り返し実施される。なお、当該所定時間は、ユーザ端末20を用いてライブ映像を配信する配信ユーザにより決定されてもよいし、予め規定された時間等であってもよい。
【0137】
所定時間の経過後に、画像処理部104は各オブジェクトに対応する総タップ数を集計し、集計結果に応じた処理を行う。例えば、
図20に示したように、画像処理部104は、集計結果をヒートマップ1082およびヒートマップ1083のように表示してもよい。各ヒートマップは、第1の人物オブジェクトObj80および第2の人物オブジェクトObj81に重畳するように画像処理される。なお、各ヒートマップの色に対応する度数を示すゲージ1084がライブ映像M8に表示されてもよい。このようにヒートマップを用いて集計結果を表示することにより、ユーザは集計結果を直感的に理解することができる。なお、画像処理部104は、ヒートマップに限らず、集計結果について多様な態様によりユーザに対して提示してもよい。例えば、画像処理部104は、集計結果の数値をライブ映像M8に表示させてもよいし、集計結果が多かった(または少なかった)方のオブジェクトに対して所定のエフェクトを表示する処理を行ってもよい。
【0138】
<5.3.操作位置に基づく画像解析後の投票処理>
次に、情報処理システム1による操作位置に基づく画像解析後の投票処理について説明する。この操作位置に基づく画像解析後の投票処理は、上述した画像解析後の投票処理とは異なり、投票対象となるオブジェクトを操作情報に基づいて認識し、認識したオブジェクトについて操作情報を用いて投票処理を行うものである。
【0139】
図21は、本実施形態に係る情報処理システム1による操作位置に基づく画像解析後の投票処理の例を説明するための図である。
図21を参照すると、ユーザ端末30の表示操作部210において、ライブ映像表示画面1010にはライブ映像M9が表示されている。このライブ映像M8には人物オブジェクトObj90が含まれている。
【0140】
ここで、ライブ映像M9には、視聴ユーザに対して人物オブジェクトObj90の眼または口のいずれかに対してタップするような指示が提示されたとする。視聴ユーザがユーザ端末30に対して人物オブジェクトObj90の眼または口のいずれかの近傍をタップすると、操作情報生成部203は、動画像上のタップ位置を含む操作情報を生成し、操作情報送信部204は、当該操作情報をサーバ10に送信する。
【0141】
画像解析部103は、まず、操作情報に含まれる操作位置の分布を解析し、分布に基づいて投票処理の対象となる領域を特定する。
図21に示した例では、画像解析部103は、複数のユーザ端末30から取得した位置情報から人物オブジェクトObj9の眼に相当する位置群1090Aおよび人物オブジェクトObj9の口に相当する位置群1090Bを抽出する。そして、画像解析部103は、これらの位置群の近傍を解析することにより人物オブジェクトObj9の眼オブジェクトObj91および口オブジェクトObj92を認識し、これらのオブジェクトに対応する領域1091および1092を特定する。これにより、画像解析部103による画像解析を、動画像全体ではなく、操作情報により特定される範囲についてのみ行うことができる。したがって、画像解析における計算量が減少するため、画像解析による処理の遅れが生じにくくなり、ユーザの利便性を確保することができる。
【0142】
なお、オブジェクトに対応する領域の特定後の処理(タップ位置の判定処理および集計処理)は、上述した画像処理部104による投票処理と同様であるため、説明を省略する。
【0143】
<5.4.動画属性推定>
次に、情報処理システム1による動画属性推定処理について説明する。この動画属性推定処理は、動画像に対する操作情報に基づいて、当該動画像の属性(カテゴリ等)を推定するものである。
【0144】
図22は、本実施形態に係る情報処理システム1による動画属性推定処理を説明するための図である。
図22を参照すると、ステッカおよびステッカのライブ映像に対するタップ回数(操作情報の取得量)を含むテーブル1100が示されている。このテーブル1100は、一のライブ映像の所定時間内におけるステッカのタップ数を示すものである。所定時間とは、ライブ映像の配信開始時から配信終了時までの間における任意の時間である。例えば、所定時間は、ライブ映像が配信中であれば配信開始時から現在までの時間であってもよいし、特定の映像が配信されている状態である時間であってもよい。特定の映像であるか否かについては、画像解析部103による画像解析に基づいて判定されてもよいし、ライブ映像を配信する配信ユーザが判定してもよい。
【0145】
画像処理部104は、所定時間内における操作情報に基づいて、動画像の属性を推定してもよい。
図22に示した例においては、ステッカ「猫」のタップ回数が450回、ステッカ「ハート」のタップ回数が210回、およびステッカ「Like」のタップ回数が124回であることが示されている。一方で、ステッカ「食べ物」のタップ回数が23回であることが示されている。画像処理部104は、上述した結果から、ライブ映像が「猫」「ハート」「Like」に関連する属性を有するライブ映像であると推定してもよい。例えば、画像処理部104は、ライブ映像の属性が「動物−猫」であると推定してもよい。なお、この動画推定処理は、例えば機械学習等に関する公知の技術を用いて行われてもよい。
【0146】
このように、画像処理部104が操作情報に基づいて動画像の属性を推定することにより、動画像の属性を自動的に設定することができる。したがって、動画像のカテゴリ分けを容易にかつ精度高く行うことができる。
【0147】
<<6.ハードウェア構成例>>
以上、本実施形態に係る情報処理システム1による操作情報の応用例について説明した。次に、
図23を参照して、本開示の実施形態に係る情報処理装置のハードウェア構成について説明する。
図23は、本開示の実施形態に係る情報処理装置のハードウェア構成例を示すブロック図である。図示された情報処理装置900は、例えば、上記の実施形態におけるサーバ10およびユーザ端末20(30)を実現しうる。
【0148】
情報処理装置900は、CPU901、ROM(Read Only Memory)903、およびRAM(Random Access Memory)905を含む。また、情報処理装置900は、ホストバス907、ブリッジ909、外部バス911、インターフェース913、入力装置915、出力装置917、ストレージ装置919、ドライブ921、接続ポート925、通信装置929を含んでもよい。さらに、情報処理装置900は、必要に応じて、撮像装置(不図示)を含んでもよい。また、情報処理装置900は、CPU901に代えて、またはこれとともに、DSP(Digital Signal Processor)またはASIC(Application Specific Integrated Circuit)と呼ばれるような処理回路を有してもよい。
【0149】
CPU901は、演算処理装置および制御装置として機能し、ROM903、RAM905、ストレージ装置919、またはリムーバブル記録媒体923に記録された各種プログラムに従って、情報処理装置900内の動作全般またはその一部を制御する。例えば、CPU901は、上記の実施形態におけるサーバ10およびユーザ端末20(30)に含まれる各機能部の動作全般を制御する。ROM903は、CPU901が使用するプログラムや演算パラメータなどを記憶する。RAM905は、CPU901の実行において使用するプログラムや、その実行において適宜変化するパラメータなどを一次記憶する。CPU901、ROM903、およびRAM905は、CPUバスなどの内部バスにより構成されるホストバス907により相互に接続されている。さらに、ホストバス907は、ブリッジ909を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス911に接続されている。
【0150】
入力装置915は、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチおよびレバーなど、ユーザによって操作される装置である。入力装置915は、例えば、赤外線やその他の電波を利用したリモートコントロール装置であってもよいし、情報処理装置900の操作に対応した携帯電話などの外部接続機器927であってもよい。入力装置915は、ユーザが入力した情報に基づいて入力信号を生成してCPU901に出力する入力制御回路を含む。ユーザは、この入力装置915を操作することによって、情報処理装置900に対して各種のデータを入力したり処理動作を指示したりする。
【0151】
出力装置917は、取得した情報をユーザに対して視覚的または聴覚的に通知することが可能な装置で構成される。出力装置917は、例えば、LCD、PDP、OELDなどの表示装置、スピーカおよびヘッドホンなどの音響出力装置、ならびにプリンタ装置などでありうる。出力装置917は、情報処理装置900の処理により得られた結果を、テキストまたは画像などの映像として出力したり、音響などの音として出力したりする。
【0152】
ストレージ装置919は、情報処理装置900の記憶部の一例として構成されたデータ格納用の装置である。ストレージ装置919は、例えば、HDD(Hard Disk Drive)などの磁気記憶部デバイス、半導体記憶デバイス、光記憶デバイス、または光磁気記憶デバイスなどにより構成される。このストレージ装置919は、CPU901が実行するプログラムや各種データ、および外部から取得した各種のデータなどを格納する。
【0153】
ドライブ921は、磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリなどのリムーバブル記録媒体923のためのリーダライタであり、情報処理装置900に内蔵、あるいは外付けされる。ドライブ921は、装着されているリムーバブル記録媒体923に記録されている情報を読み出して、RAM905に出力する。また、ドライブ921は、装着されているリムーバブル記録媒体923に記録を書き込む。
【0154】
接続ポート925は、機器を情報処理装置900に直接接続するためのポートである。接続ポート925は、例えば、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)ポートなどでありうる。また、接続ポート925は、RS−232Cポート、光オーディオ端子、HDMI(登録商標)(High-Definition Multimedia Interface)ポートなどであってもよい。接続ポート925に外部接続機器927を接続することで、情報処理装置900と外部接続機器927との間で各種のデータが交換されうる。
【0155】
通信装置929は、例えば、通信ネットワークNWに接続するための通信デバイスなどで構成された通信インターフェースである。通信装置929は、例えば、有線または無線LAN(Local Area Network)、Bluetooth(登録商標)、またはWUSB(Wireless USB)用の通信カードなどでありうる。また、通信装置929は、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ、または、各種通信用のモデムなどであってもよい。通信装置929は、例えば、インターネットや他の通信機器との間で、TCP/IPなどの所定のプロトコルを用いて信号などを送受信する。また、通信装置929に接続される通信ネットワークNWは、有線または無線によって接続されたネットワークであり、例えば、インターネット、家庭内LAN、赤外線通信、ラジオ波通信または衛星通信などである。なお、通信装置929は、通信部としての機能を実現する。
【0156】
撮像装置(不図示)は、例えばCCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子、および撮像素子への被写体像の結像を制御するためのレンズなどの各種の部材を用いて実空間を撮像し、撮像画像を生成する装置である。当該撮像装置は、静止画を撮像するものであってもよいし、または動画を撮像するものであってもよい。
【0157】
以上、情報処理装置900のハードウェア構成の一例を示した。
【0158】
<<7.まとめ>>
本実施形態に係る情報処理システム1によれば、サーバ10は、ユーザ端末30から取得したステッカの配置に関する操作位置および配置されるステッカに関する情報を含む操作情報に基づいて、配信元であるユーザ端末20から取得した動画像を画像解析する。そして、サーバ10は、解析結果および操作情報に基づいて当該動画像を画像処理する。そしてサーバ10は、画像処理された動画像をユーザ端末20およびユーザ端末30に配信する。
【0159】
かかる構成により、ユーザ端末30を用いて動画像を視聴する視聴ユーザは、動画像に対してステッカを配置する操作等の所定の操作を行うことにより、動画像を視聴しながらリアルタイムに複数のユーザと簡単にコミュニケーションを取ることができる。したがって、動画像を介したユーザ間のコミュニケーションがより円滑になる。
【0160】
また、本実施形態に係る情報処理システム1によれば、サーバ10は、ユーザ端末30から取得した操作情報を用いて、画像処理以外の処理を行う。例えば、サーバ10は、操作情報に基づく統計処理または抽出処理等を行う。かかる構成により、単に動画像を処理するだけではなく、動画像を介してより定量性の高いコミュニケーションを行うことが可能となる。また、配信されていた動画像に関するハイライト動画を容易に作成することができる。
【0161】
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
【0162】
例えば、上記実施形態では、画像解析部103による画像解析および画像処理部104による画像処理はサーバ10で行うとしたが、本技術はかかる例に限定されない。例えば、上記の画像解析および画像処理は、ユーザ端末20(30)で行われてもよい。より具体的には、画像処理については、ユーザ端末20(30)がサーバ10から取得した動画像およびサーバ10を経由して他のユーザ端末から取得した操作情報に基づいて、ユーザ端末20(30)が画像解析および画像処理を行ってもよい。この場合、サーバ10は、動画像の配信元であるユーザ端末20から取得した動画像、およびユーザ端末20(30)から取得した操作情報を、ユーザ端末20(30)に送信する。かかる構成により、画像解析および画像処理に係る負担をユーザ端末20(30)に分散させることができるので、サーバ10における処理負担が減少する。したがって、各種処理による遅延を生じにくくすることができる。
【0163】
なお、上記の実施形態に係るサーバ10に備わる各機能部は、サーバ10およびユーザ端末20(30)の仕様またはシステム構成に応じて、サーバ10およびユーザ端末20(30)に分離して設けられてもよい。
【0164】
さらに、上記実施形態に係る情報処理システム1はサーバ10および複数のユーザ端末20(30)を有するが、本技術はかかる例に限定されない。例えば、情報処理システムは、ネットワークを介して接続される複数のユーザ端末20(30)により構成されてもよい。この場合、配信された動画像の画像解析および画像処理は、当該動画像および操作情報を取得した各ユーザ端末20(30)において実施されてもよい。
【0165】
また、本明細書のサーバおよびユーザ端末の処理における各ステップは、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はない。例えば、サーバおよびユーザ端末の処理における各ステップは、フローチャートとして記載した順序と異なる順序で処理されても、並列的に処理されてもよい。
【0166】
また、サーバおよびユーザ端末に内蔵されるCPU、ROMおよびRAMなどのハードウェアに、上述したサーバおよびユーザ端末の各構成と同等の機能を発揮させるためのコンピュータプログラムも作成可能である。また、該コンピュータプログラムを記憶させた記憶媒体も提供される。
【0167】
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
【0168】
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
ライブ配信されている動画像、およびデバイスの表示部に表示されている前記動画像上へのステッカの配置に関する操作位置および配置される前記ステッカに関する情報を含む操作情報を取得する通信部と、
前記動画像上における前記操作位置に対応する領域を解析し、解析結果、および前記操作情報に基づいて前記動画像に対して前記ステッカの配置処理を行う制御部と、
を備える情報処理装置。
(2)
前記制御部は、前記操作位置に対応する領域に含まれるオブジェクトを認識し、前記オブジェクトに対して画像処理を行う、前記(1)に記載の情報処理装置。
(3)
前記制御部は、前記オブジェクトの特徴に基づいて、前記動画像上に配置される前記ステッカの態様を変化させる、前記(2)に記載の情報処理装置。
(4)
前記制御部は、前記動画像内の前記オブジェクトの動きを認識し、認識された前記オブジェクトの動きに基づいて前記動画像に対してさらなる画像処理を行う、前記(2)または(3)に記載の情報処理装置。
(5)
前記制御部は、前記さらなる画像処理として、前記動画像に適用された画像処理を無効とする、前記(4)に記載の情報処理装置。
(6)
前記制御部は、前記さらなる画像処理として、前記動画像に配置されたステッカの位置を変更する、前記(4)または(5)に記載の情報処理装置。
(7)
前記制御部は、前記操作情報の取得量に基づく処理を行う、前記(1)〜(6)のいずれか1項に記載の情報処理装置。
(8)
前記制御部は、前記操作情報の取得量の時系列分布に基づく処理を行う、前記(7)に記載の情報処理装置。
(9)
前記制御部は、前記動画像から少なくとも一のオブジェクトを認識し、前記少なくとも一のオブジェクトに対する前記操作情報の取得量に基づく処理を行う、前記(7)または(8)に記載の情報処理装置。
(10)
前記制御部は、前記操作位置の分布に基づいて少なくとも一のオブジェクトを認識する、前記(7)〜(9)のいずれか1項に記載の情報処理装置。
(11)
前記制御部は、前記取得量の時系列分布に基づいて前記動画像の抽出区間を設定する、前記(7)〜(10)のいずれか1項に記載の情報処理装置。
(12)
前記制御部は、前記動画像に対応する音響情報に基づく処理を行う、前記(1)〜(11)のいずれか1項に記載の情報処理装置。
(13)
前記制御部は、前記操作情報に基づいて前記動画像の属性を推定する、前記(1)〜(12)のいずれか1項に記載の情報処理装置。
(14)
前記制御部は、前記動画像上における少なくとも一のステッカに対する操作に関する操作情報に基づいて、前記ステッカの少なくともいずれかの態様を変化させる、前記(1)〜(13)のいずれか1項に記載の情報処理装置。
(15)
前記制御部は、前記動画像上に配置されている少なくとも一のステッカに対応する領域に含まれる他の前記ステッカの少なくともいずれかの態様を変化させる、前記(14)に記載の情報処理装置。
(16)
前記操作情報は、前記デバイスの表示部に対する操作態様に関する情報を含む、前記(1)〜(15)のいずれか1項に記載の情報処理装置。
(17)
前記操作態様は、少なくとも一の操作体によるタップ操作、ピンチ操作、スワイプ操作、スライド操作、または前記デバイスの表示部に対して加えられる圧力の大きさの少なくともいずれかを含む、前記(16)に記載の情報処理装置。
(18)
前記制御部は、前記動画像に対する加工処理を行う、前記(1)〜(17)のいずれか1項に記載の情報処理装置。
(19)
プロセッサが、
ライブ配信されている動画像を取得することと、
デバイスの表示部に表示されている前記動画像上へのステッカの配置に関する操作位置および配置される前記ステッカに関する情報を含む操作情報を取得することと、
前記動画像上における前記操作位置に対応する領域を解析することと、
前記解析結果、および前記操作情報に基づいて前記動画像に対して前記ステッカの配置処理を行うことと、
を含む情報処理方法。
(20)
コンピュータに、
受信されたライブ配信されている動画像を前記コンピュータの表示部に表示させるための表示情報を生成することと、
前記コンピュータの通信部を制御することによりサーバに送信される、前記動画像上へのステッカの配置に関する操作位置および配置される前記ステッカに関する情報を含む操作情報を生成することと、
前記通信部を制御することにより前記サーバから受信される、前記サーバが前記コンピュータを含むデバイスから取得した操作位置に対応する前記動画像上の領域を解析することにより得られる解析結果と前記操作情報とに基づいて前記サーバにより前記ステッカの配置処理が施された動画像を、前記表示部に表示させるための表示情報を生成することと、
を実行させるプログラム。