IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 日本電信電話株式会社の特許一覧

特許7605301情報処理装置、身振転写方法およびプログラム
<>
  • 特許-情報処理装置、身振転写方法およびプログラム 図1
  • 特許-情報処理装置、身振転写方法およびプログラム 図2
  • 特許-情報処理装置、身振転写方法およびプログラム 図3
  • 特許-情報処理装置、身振転写方法およびプログラム 図4
  • 特許-情報処理装置、身振転写方法およびプログラム 図5
  • 特許-情報処理装置、身振転写方法およびプログラム 図6
  • 特許-情報処理装置、身振転写方法およびプログラム 図7
  • 特許-情報処理装置、身振転写方法およびプログラム 図8
  • 特許-情報処理装置、身振転写方法およびプログラム 図9
  • 特許-情報処理装置、身振転写方法およびプログラム 図10
  • 特許-情報処理装置、身振転写方法およびプログラム 図11
  • 特許-情報処理装置、身振転写方法およびプログラム 図12
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-12-16
(45)【発行日】2024-12-24
(54)【発明の名称】情報処理装置、身振転写方法およびプログラム
(51)【国際特許分類】
   G06T 7/20 20170101AFI20241217BHJP
【FI】
G06T7/20 300
【請求項の数】 8
(21)【出願番号】P 2023522082
(86)(22)【出願日】2021-05-19
(86)【国際出願番号】 JP2021019003
(87)【国際公開番号】W WO2022244146
(87)【国際公開日】2022-11-24
【審査請求日】2023-08-23
(73)【特許権者】
【識別番号】000004226
【氏名又は名称】日本電信電話株式会社
(74)【代理人】
【識別番号】110004381
【氏名又は名称】弁理士法人ITOH
(74)【代理人】
【識別番号】100107766
【弁理士】
【氏名又は名称】伊東 忠重
(74)【代理人】
【識別番号】100070150
【弁理士】
【氏名又は名称】伊東 忠彦
(74)【代理人】
【識別番号】100124844
【弁理士】
【氏名又は名称】石原 隆治
(72)【発明者】
【氏名】蔵内 雄貴
(72)【発明者】
【氏名】瀬古 俊一
【審査官】佐藤 実
(56)【参考文献】
【文献】特開2005-151231(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
G06T 7/00 - 7/90
(57)【特許請求の範囲】
【請求項1】
身振りを含む映像を示す身振映像データから、特定の身振りの特徴データを抽出する特徴抽出部と、
転写要求を受けて、前記転写要求に対応する前記特徴データを出力する制御部と、
前記転写要求に対応する前記特徴データを入力映像データに転写して出力映像データを生成し、生成された出力映像データを出力する特徴転写部と、を備え
前記身振映像データは、大きな動作を表す第一の動作に関する映像を示すデータであって、
前記身振映像データを加工して、前記第一の動作よりも小さな動作を表す第二の動作を加える映像加工部をさらに備え、
前記特徴抽出部は、
前記加工後の身振映像データから、前記特徴データを抽出する、
情報処理装置。
【請求項2】
身振りを含む映像を示す身振映像データから、特定の身振りの特徴データを抽出する特徴抽出部と、
転写要求を受けて、前記転写要求に対応する前記特徴データを出力する制御部と、
前記転写要求に対応する前記特徴データを入力映像データに転写して出力映像データを生成し、生成された出力映像データを出力する特徴転写部と、を備え、
前記身振映像データは、大きな動作を表す第一の動作に関する映像を示すデータであって、
前記入力映像データを加工して、前記第一の動作よりも小さな動作を表す第二の動作を加える映像加工部をさらに備え、
前記特徴転写部は、
前記転写要求に対応する前記特徴データを前記加工後の入力映像データに転写して出力映像データを生成し、生成された出力映像データを出力する、
情報処理装置。
【請求項3】
身振りを含む映像を示す身振映像データから、特定の身振りの特徴データを抽出する特徴抽出部と、
転写要求を受けて、前記転写要求に対応する前記特徴データを出力する制御部と、
前記転写要求に対応する前記特徴データを入力映像データに転写して出力映像データを生成し、生成された出力映像データを出力する特徴転写部と、を備え、
前記身振映像データは、大きな動作を表す第一の動作に関する映像を示すデータであって、
前記出力映像データを加工して、前記第一の動作よりも小さな動作を表す第二の動作を加える映像加工部をさらに備える、
情報処理装置。
【請求項4】
前記身振映像データを入力として、顔のパーツの位置、サイズおよび向きを認識して出力する第一パーツ認識部と、
前記入力映像データを入力として、顔のパーツの位置、サイズおよび向きを認識して出力する第二パーツ認識部と、
前記身振映像データの顔のパーツの位置、サイズおよび向きと、前記入力映像データの顔のパーツの位置、サイズおよび向きとに基づいて、前記身振映像データに基づく特徴データの位置、サイズまたは向きを調整する映像調整部と、をさらに備え、
前記特徴転写部は、調整された前記特徴データを前記入力映像データに転写して出力映像データを生成し、生成された出力映像データを出力する、
請求項1から3のいずれか一項に記載の情報処理装置。
【請求項5】
コンピュータが実行する身振転写方法であって、
身振りを含む映像を示す身振映像データから、特定の身振りの特徴データを抽出する特徴抽出ステップと、
転写要求を受けて、前記転写要求に対応する前記特徴データを出力する制御ステップと、
前記転写要求に対応する前記特徴データを入力映像データに転写して出力映像データを生成し、生成された出力映像データを出力する特徴転写ステップと、を備え
前記身振映像データは、大きな動作を表す第一の動作に関する映像を示すデータであって、
前記身振映像データを加工して、前記第一の動作よりも小さな動作を表す第二の動作を加える映像加工ステップをさらに備え、
前記特徴抽出ステップは、
前記加工後の身振映像データから、前記特徴データを抽出する、
身振転写方法。
【請求項6】
コンピュータが実行する身振転写方法であって、
身振りを含む映像を示す身振映像データから、特定の身振りの特徴データを抽出する特徴抽出ステップと、
転写要求を受けて、前記転写要求に対応する前記特徴データを出力する制御ステップと、
前記転写要求に対応する前記特徴データを入力映像データに転写して出力映像データを生成し、生成された出力映像データを出力する特徴転写ステップと、を備え、
前記身振映像データは、大きな動作を表す第一の動作に関する映像を示すデータであって、
前記入力映像データを加工して、前記第一の動作よりも小さな動作を表す第二の動作を加える映像加工ステップをさらに備え、
前記特徴転写ステップは、
前記転写要求に対応する前記特徴データを前記加工後の入力映像データに転写して出力映像データを生成し、生成された出力映像データを出力する、
身振転写方法。
【請求項7】
コンピュータが実行する身振転写方法であって、
身振りを含む映像を示す身振映像データから、特定の身振りの特徴データを抽出する特徴抽出ステップと、
転写要求を受けて、前記転写要求に対応する前記特徴データを出力する制御ステップと、
前記転写要求に対応する前記特徴データを入力映像データに転写して出力映像データを生成し、生成された出力映像データを出力する特徴転写ステップと、を備え、
前記身振映像データは、大きな動作を表す第一の動作に関する映像を示すデータであって、
前記出力映像データを加工して、前記第一の動作よりも小さな動作を表す第二の動作を加える映像加工ステップをさらに備える、
身振転写方法。
【請求項8】
コンピュータを請求項1からのいずれか1項に記載の情報処理装置における各部として機能させるためのプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、情報処理装置、身振転写方法およびプログラムに関する。
【背景技術】
【0002】
人物の映像データを、頷き、笑顔などのような特定の身振りをさせた映像データに変換する技術が知られている。例えば、非特許文献1には、人物の映像データから特定の身振りを示すデータを抽出し、他の人物の映像データに対してリアルタイムに転写する技術が開示されている。
【先行技術文献】
【非特許文献】
【0003】
【文献】Tomas Jakab, et.al. "Unsupervised Learning of Object Landmarks through Conditional Image Generation", NIPS, 2018
【発明の概要】
【発明が解決しようとする課題】
【0004】
ビデオ会議等において、参加者の映像に表情、まばたき、頷き、姿勢、相槌、視線等の身振りを追加することによって、円滑な人間関係の構築や会議の進行を可能とすることが考えられる。しかし、従来の技術では、抽出元の人物の身振りを示す映像データを時系列順に対象の映像データに転写するだけであるため、身振りの内容の指定、映像データに転写するタイミング等を自由に指定することができないという問題がある。
【0005】
開示の技術は、映像データに身振りを反映させる際の自由度を向上させることを目的とする。
【課題を解決するための手段】
【0006】
開示の技術は、身振りを含む映像を示す身振映像データから、特定の身振りの特徴データを抽出する特徴抽出部と、転写要求を受けて、前記転写要求に対応する前記特徴データを出力する制御部と、前記転写要求に対応する前記特徴データを入力映像データに転写して出力映像データを生成し、生成された出力映像データを出力する特徴転写部と、を備える情報処理装置である。
【発明の効果】
【0007】
映像データに身振りを反映させる際の自由度を向上させることができる。
【図面の簡単な説明】
【0008】
図1】実施例1に係る情報処理装置の機能構成の一例を示す図である。
図2】実施例1に係る特徴転写処理の流れの一例を示すフローチャートである。
図3】実施例2に係る情報処理装置の機能構成の一例を示す図である。
図4】映像の調整方法について説明するための図である。
図5】実施例2に係る特徴転写処理の流れの一例を示すフローチャートである。
図6】実施例3に係る情報処理装置の機能構成の一例を示す図である。
図7】実施例3に係る特徴転写処理の流れの一例を示すフローチャートである。
図8】実施例4に係る情報処理装置の機能構成の一例を示す図である。
図9】実施例4に係る特徴転写処理の流れの一例を示すフローチャートである。
図10】実施例5に係る情報処理装置の機能構成の一例を示す図である。
図11】実施例5に係る特徴転写処理の流れの一例を示すフローチャートである。
図12】コンピュータのハードウェア構成例を示す図である。
【発明を実施するための形態】
【0009】
以下、図面を参照して本発明の実施の形態(本実施の形態)を説明する。以下で説明する実施の形態は一例に過ぎず、本発明が適用される実施の形態は、以下の実施の形態に限られるわけではない。
【0010】
以下、本実施の形態の実施例として、実施例1から実施例5について説明する。
【0011】
(実施例1)
図1は、実施例1に係る情報処理装置の機能構成の一例を示す図である。本実施例に係る情報処理装置10は、身振映像格納部11と、特徴抽出部12と、制御部13と、入力映像格納部14と、特徴転写部15と、出力映像格納部16と、を備える。
【0012】
身振映像格納部11は、身振映像を示すデータを格納する。身振映像は、人物の身振りの動作をあらかじめ録画した映像である。身振りとは、例えば、表情、まばたき、頷き、姿勢、相槌、視線等のように、感情や意思などを伝達する動作である。
【0013】
特徴抽出部12は、特定の身振りの内容に沿って、身振映像を示すデータから特徴データを抽出する。抽出されるデータは、例えば笑顔の特徴データ、まばたきの特徴データ等のように、身振りの内容ごとに抽出される。
【0014】
制御部13は、転写要求を受けて、転写要求に対応する特徴データを出力する。転写要求は、ユーザの操作等によって、特定の身振りを指定した転写の要求である。
【0015】
入力映像格納部14は、入力映像を示すデータを格納する。入力映像は、Webカメラ等の撮影装置によってユーザを撮影した映像である。
【0016】
特徴転写部15は、制御部13によって出力された特徴データを、入力映像に転写する。例えば、特徴転写部15は、無表情なユーザを撮影した入力映像に、笑顔の特徴データを転写することによって、笑顔のユーザを表す映像データに変換して出力する。
【0017】
出力映像格納部16は、特徴転写部15によって出力された映像データを格納する。
【0018】
次に、本実施例に係る情報処理装置10の動作について説明する。情報処理装置10は、ユーザの操作等に応じて、特徴転写処理を実行する。
【0019】
図2は、実施例1に係る特徴転写処理の流れの一例を示すフローチャートである。特徴転写処理を開始すると、特徴抽出部12は、身振映像から特徴データを抽出する(ステップS11)。続いて、制御部13は、ユーザの操作等によって転写要求を受けると、転写要求に対応する特徴データを出力する(ステップS12)。
【0020】
次に、特徴転写部15は、入力映像に特徴データを転写して出力映像を生成し、生成された出力映像を出力する(ステップS13)。
【0021】
本実施例に係る情報処理装置10によれば、身振映像から抽出された特徴データを入力映像に転写して出力映像を生成する。身振映像として、表情、まばたき、頷き、姿勢、相槌、視線等のような身振りの内容ごとに録画された映像を用いることによって、指定の身振りを入力映像に反映させることができる。
【0022】
(実施例2)
以下に図面を参照して、実施例2について説明する。実施例2は、身振映像と入力映像のそれぞれの顔のパーツを認識し、位置合わせを行う点が、実施例1と相違する。よって、以下の実施例2の説明では、実施例1との相違点を中心に説明し、実施例1と同様の機能構成を有するものには、実施例1の説明で用いた符号と同様の符号を付与し、その説明を省略する。
【0023】
図3は、実施例2に係る情報処理装置の機能構成の一例を示す図である。本実施例に係る情報処理装置10は、実施例1に係る情報処理装置10に、第一パーツ認識部21と、第二パーツ認識部22と、映像調整部23と、を追加した構成である。
【0024】
第一パーツ認識部21は、身振映像を入力として、顔のパーツの位置、サイズおよび向きを認識して出力する。第二パーツ認識部22は、入力映像を入力として、顔のパーツの位置、サイズおよび向きを認識して出力する。映像調整部23は、身振映像の顔のパーツの位置、サイズおよび向きと、入力映像の顔のパーツの位置、サイズおよび向きとに基づいて、身振映像に基づく特徴データの位置、サイズまたは向きを調整する。
【0025】
図4は、映像の調整方法について説明するための図である。映像調整部23は、特徴データ901を入力映像データ902に合わせるように、位置(x,y)の調整、向き(θ)の調整またはサイズ(r)の調整を行う。
【0026】
図5は、実施例2に係る特徴転写処理の流れの一例を示すフローチャートである。特徴転写処理を開始すると、特徴抽出部12は、身振映像から特徴データを抽出する(ステップS21)。続いて、制御部13は、ユーザの操作等によって転写要求を受けると、転写要求に対応する特徴データを出力する(ステップS22)。
【0027】
次に、第一パーツ認識部21は、身振映像のパーツを認識する(ステップS23)。続いて、第二パーツ認識部22は、入力映像のパーツを認識する(ステップS24)。続いて、映像調整部は、特徴データを調整する(ステップS25)。
【0028】
次に、特徴転写部15は、調整された特徴データを入力映像に転写して出力映像を生成し、生成された出力映像を出力する(ステップS26)。
【0029】
本実施例に係る情報処理装置10によれば、身振映像の顔のパーツと入力映像の顔のパーツを認識して、特徴データの位置、向きまたはサイズを調整する。これによって、身振映像と入力映像における顔の位置、サイズ、向きなどが異なる場合の出力映像の歪みの発生を回避することができる。
【0030】
(実施例3)
以下に図面を参照して、実施例3について説明する。実施例3は、頷き、姿勢などの大きな動作に関する映像だけを身振映像として用意し、表情、まばたき、目線などの小さな動作については身振映像を加工することによって表現する点が、実施例1と相違する。よって、以下の実施例3の説明では、実施例1との相違点を中心に説明し、実施例1と同様の機能構成を有するものには、実施例1の説明で用いた符号と同様の符号を付与し、その説明を省略する。
【0031】
図6は、実施例3に係る情報処理装置の機能構成の一例を示す図である。本実施例に係る情報処理装置10は、実施例1に係る情報処理装置10に、映像加工部31と、加工済身振映像格納部32と、を追加した構成である。
【0032】
映像加工部31は、MLS(Moving Least Square Approximation)等の手法を用いて、大きな動作(第一の動作)を含む身振映像を加工し、表情、まばたき、目線などの小さな動作(第二の動作)を加えた加工済身振映像データを生成する(参考文献[1])。
【0033】
加工済身振映像格納部32は、加工済身振映像データを格納する。特徴抽出部12は、身振映像格納部11に格納された身振映像データと、加工済身振映像格納部32に格納された加工済身振映像データとから、特徴データを抽出する。
【0034】
図7は、実施例3に係る特徴転写処理の流れの一例を示すフローチャートである。特徴転写処理を開始すると、映像加工部31は、身振映像を加工する(ステップS31)。続いて、特徴抽出部12は、身振映像または加工済身振映像から特徴データを抽出する(ステップS32)。続いて、制御部13は、ユーザの操作等によって転写要求を受けると、転写要求に対応する特徴データを出力する(ステップS33)。
【0035】
次に、特徴転写部15は、入力映像に調整された特徴データを転写して出力映像を生成し、生成された出力映像を出力する(ステップS34)。
【0036】
本実施例に係る情報処理装置10によれば、大きな動作(第一の動作)を含む身振映像を加工し、表情、まばたき、目線などの小さな動作(第二の動作)を加えた加工済身振映像データを生成する。これによって、身振映像として用意する映像の数を減らすことができる。
【0037】
例えば、実施例1では、笑顔で頷くなどの複数の身振りの要素を組み合わせたい場合に、要素の全パターン分の映像が必要となる。それに対して、本実施例では、頷くという大きな動作(第一の動作)の身振映像を加工して、笑顔という小さな動作(第二の動作)の要素を追加することによって、笑顔で頷くという複数の要素を組み合わせた加工済身振映像を生成することができるため、必要な身振映像のパターン数を大幅に削減することができる。
【0038】
(実施例4)
以下に図面を参照して、実施例4について説明する。実施例4は、頷き、姿勢などの大きな動作に関する映像だけを身振映像として用意し、表情、まばたき、目線などの小さな動作については入力映像を加工することによって表現する点が、実施例3と相違する。よって、以下の実施例4の説明では、実施例3との相違点を中心に説明し、実施例3と同様の機能構成を有するものには、実施例3の説明で用いた符号と同様の符号を付与し、その説明を省略する。
【0039】
図8は、実施例4に係る情報処理装置の機能構成の一例を示す図である。本実施例に係る映像加工部31は、を加工する。映像加工部31は、MLS(Moving Least Square Approximation)等の手法を用いて、入力映像格納部14に格納された入力映像データを加工し、表情、まばたき、目線などの小さな動作(第二の動作)を加えた加工済入力映像データを生成する。
【0040】
また、本実施例に係る特徴転写部15は、加工済入力映像データに特徴データを転写して出力映像データを生成し、生成された出力映像データを出力する。
【0041】
図9は、実施例4に係る特徴転写処理の流れの一例を示すフローチャートである。特徴転写処理を開始すると、特徴抽出部12は、身振映像から特徴データを抽出する(ステップS41)。続いて、制御部13は、ユーザの操作等によって転写要求を受けると、転写要求に対応する特徴データを出力する(ステップS42)。
【0042】
映像加工部31は、入力映像を加工する(ステップS43)。特徴転写部15は、加工済入力映像に特徴データを転写して出力映像データを生成し、生成された出力映像データを出力する(ステップS44)。
【0043】
本実施例に係る情報処理装置10によれば、入力映像を加工し、表情、まばたき、目線などの小さな動作を追加した加工済入力映像データを生成する。これによって、身振映像として用意する映像の数を減らすことができる。
【0044】
例えば、実施例1では、笑顔で頷くなどの複数の身振りの要素を組み合わせたい場合に、要素の全パターン分の映像が必要となる。それに対して、本実施例では、頷くという大きな動作(第一の動作)の身振映像から抽出された特徴データを、笑顔という小さな動作(第二の動作)の要素を追加した加工済入力映像データに転写することによって、笑顔で頷くという複数の要素を組み合わせた出力映像データを生成することができるため、必要な身振映像のパターン数を大幅に削減することができる。
【0045】
(実施例5)
以下に図面を参照して、実施例5について説明する。実施例5は、頷き、姿勢などの大きな動作に関する映像だけを身振映像として用意し、表情、まばたき、目線などの小さな動作については出力映像を加工することによって表現する点が、実施例3および実施例4と相違する。よって、以下の実施例5の説明では、実施例3および実施例4との相違点を中心に説明し、実施例3および実施例4と同様の機能構成を有するものには、実施例3および実施例4の説明で用いた符号と同様の符号を付与し、その説明を省略する。
【0046】
図10は、実施例5に係る情報処理装置の機能構成の一例を示す図である。本実施例に係る映像加工部31は、特徴転写部15によって特徴データが転写された出力映像データを加工する。
【0047】
図11は、実施例5に係る特徴転写処理の流れの一例を示すフローチャートである。特徴転写処理を開始すると、特徴抽出部12は、身振映像から特徴データを抽出する(ステップS51)。続いて、制御部13は、ユーザの操作等によって転写要求を受けると、転写要求に対応する特徴データを出力する(ステップS52)。
【0048】
特徴転写部15は、加工済入力映像データに特徴データを転写して出力映像データを生成し、生成された出力映像データを出力する(ステップS53)。映像加工部43は、出力映像データを加工して、加工済出力映像データを生成する(ステップS54)。そして、映像加工部43は、加工済出力映像データを出力する(ステップS55)。
【0049】
本実施例に係る情報処理装置10によれば、出力映像データを加工し、表情、まばたき、目線などの小さな動作を追加した加工済出力映像データを生成する。これによって、身振映像として用意する映像の数を減らすことができる。
【0050】
例えば、実施例1では、笑顔で頷くなどの複数の身振りの要素を組み合わせたい場合に、要素の全パターン分の映像が必要となる。それに対して、本実施例では、頷くという大きな動作(第一の動作)の身振映像から抽出された特徴データを入力映像データに転写し、生成された出力映像データに、笑顔という小さな動作(第二の動作)の要素を追加することによって、笑顔で頷くという複数の要素を組み合わせた加工済出力映像データを生成することができるため、必要な身振映像のパターン数を大幅に削減することができる。
【0051】
(本実施の形態に係るハードウェア構成例)
情報処理装置10は、例えば、コンピュータに、本実施の形態で説明する処理内容を記述したプログラムを実行させることにより実現可能である。なお、この「コンピュータ」は、物理マシンであってもよいし、クラウド上の仮想マシンであってもよい。仮想マシンを使用する場合、ここで説明する「ハードウェア」は仮想的なハードウェアである。
【0052】
上記プログラムは、コンピュータが読み取り可能な記録媒体(可搬メモリ等)に記録して、保存したり、配布したりすることが可能である。また、上記プログラムをインターネットや電子メール等、ネットワークを通して提供することも可能である。
【0053】
図12は、上記コンピュータのハードウェア構成例を示す図である。図12のコンピュータは、それぞれバスBで相互に接続されているドライブ装置1000、補助記憶装置1002、メモリ装置1003、CPU1004、インタフェース装置1005、表示装置1006、入力装置1007、出力装置1008等を有する。
【0054】
当該コンピュータでの処理を実現するプログラムは、例えば、CD-ROM又はメモリカード等の記録媒体1001によって提供される。プログラムを記憶した記録媒体1001がドライブ装置1000にセットされると、プログラムが記録媒体1001からドライブ装置1000を介して補助記憶装置1002にインストールされる。但し、プログラムのインストールは必ずしも記録媒体1001より行う必要はなく、ネットワークを介して他のコンピュータよりダウンロードするようにしてもよい。補助記憶装置1002は、インストールされたプログラムを格納すると共に、必要なファイルやデータ等を格納する。
【0055】
メモリ装置1003は、プログラムの起動指示があった場合に、補助記憶装置1002からプログラムを読み出して格納する。CPU1004は、メモリ装置1003に格納されたプログラムに従って、当該装置に係る機能を実現する。インタフェース装置1005は、ネットワークに接続するためのインタフェースとして用いられる。表示装置1006はプログラムによるGUI(Graphical User Interface)等を表示する。入力装置1007はキーボード及びマウス、ボタン、又はタッチパネル等で構成され、様々な操作指示を入力させるために用いられる。出力装置1008は演算結果を出力する。なお、上記コンピュータは、CPU1004の代わりにGPU(Graphics Processing Unit)またはTPU(Tensor processing unit)を備えていても良く、CPU1004に加えて、GPUまたはTPUを備えていても良い。その場合、特殊な演算が必要な処理をGPUまたはTPUが実行し、その他の処理をCPU1004が実行する、というように処理を分担して実行しても良い。
【0056】
参考文献[1]:Naoto Nakazato, et.al. "Smart Face: Enhancing Creativity During Video Conferences using Real-time Facial Deformation", CSCW, 2014
【0057】
(実施の形態のまとめ)
本明細書には、少なくとも下記の各項に記載した情報処理装置、身振転写方法およびプログラムが記載されている。
(第1項)
身振りを含む映像を示す身振映像データから、特定の身振りの特徴データを抽出する特徴抽出部と、
転写要求を受けて、前記転写要求に対応する前記特徴データを出力する制御部と、
前記転写要求に対応する前記特徴データを入力映像データに転写して出力映像データを生成し、生成された出力映像データを出力する特徴転写部と、を備える、
情報処理装置。
(第2項)
前記身振映像データを入力として、顔のパーツの位置、サイズおよび向きを認識して出力する第一パーツ認識部と、
前記入力映像データを入力として、顔のパーツの位置、サイズおよび向きを認識して出力する第二パーツ認識部と、
前記身振映像データの顔のパーツの位置、サイズおよび向きと、前記入力映像データの顔のパーツの位置、サイズおよび向きとに基づいて、前記身振映像データに基づく特徴データの位置、サイズまたは向きを調整する映像調整部と、をさらに備え、
前記特徴転写部は、調整された前記特徴データを前記入力映像データに転写して出力映像データを生成し、生成された出力映像データを出力する、
第1項に記載の情報処理装置。
(第3項)
前記身振映像データは、第一の動作に関する映像を示すデータであって、
前記身振映像データを加工して第二の動作を加える映像加工部をさらに備える、
第1項または第2項に記載の情報処理装置。
(第4項)
前記身振映像データは、第一の動作に関する映像を示すデータであって、
前記入力映像データを加工して第二の動作を加える映像加工部をさらに備える、
第1項または第2項に記載の情報処理装置。
(第5項)
前記身振映像データは、第一の動作に関する映像を示すデータであって、
前記出力映像データを加工して第二の動作を加える映像加工部をさらに備える、
第1項または第2項に記載の情報処理装置。
(第6項)
コンピュータが実行する身振転写方法であって、
身振りを含む映像を示す身振映像データから、特定の身振りの特徴データを抽出するステップと、
転写要求を受けて、前記転写要求に対応する前記特徴データを出力するステップと、
前記転写要求に対応する前記特徴データを入力映像データに転写して出力映像データを生成し、生成された出力映像データを出力するステップと、を備える、
身振転写方法。
(第7項)
コンピュータを第1項から第5項のいずれか1項に記載の情報処理装置における各部として機能させるためのプログラム。
【0058】
以上、本実施の形態について説明したが、本発明はかかる特定の実施形態に限定されるものではなく、請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。
【符号の説明】
【0059】
10 情報処理装置
11 身振映像格納部
12 特徴抽出部
13 制御部
14 入力映像格納部
15 特徴転写部
16 出力映像格納部
21 第一パーツ認識部
22 第二パーツ認識部
23 映像調整部
31 映像加工部
32 加工済身振映像格納部
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12