IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 有限会社エムツーの特許一覧

<>
  • 特許-画像制御装置、及びそのプログラム 図1
  • 特許-画像制御装置、及びそのプログラム 図2
  • 特許-画像制御装置、及びそのプログラム 図3
  • 特許-画像制御装置、及びそのプログラム 図4
  • 特許-画像制御装置、及びそのプログラム 図5
  • 特許-画像制御装置、及びそのプログラム 図6
  • 特許-画像制御装置、及びそのプログラム 図7
  • 特許-画像制御装置、及びそのプログラム 図8
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2023-01-20
(45)【発行日】2023-01-30
(54)【発明の名称】画像制御装置、及びそのプログラム
(51)【国際特許分類】
   G06T 19/00 20110101AFI20230123BHJP
   H04N 23/611 20230101ALI20230123BHJP
   H04N 23/60 20230101ALI20230123BHJP
   H04N 23/63 20230101ALI20230123BHJP
   G06T 13/40 20110101ALI20230123BHJP
【FI】
G06T19/00 A
H04N5/232 190
H04N5/232 290
H04N5/232 939
G06T13/40
【請求項の数】 9
(21)【出願番号】P 2018104659
(22)【出願日】2018-05-31
(65)【公開番号】P2019211828
(43)【公開日】2019-12-12
【審査請求日】2021-05-12
【前置審査】
(73)【特許権者】
【識別番号】510177913
【氏名又は名称】有限会社エムツー
(74)【代理人】
【識別番号】100154405
【弁理士】
【氏名又は名称】前島 大吾
(74)【代理人】
【識別番号】100079005
【弁理士】
【氏名又は名称】宇高 克己
(72)【発明者】
【氏名】安川 貴志
(72)【発明者】
【氏名】椎名 誠
【審査官】板垣 有紀
(56)【参考文献】
【文献】特開2004-355567(JP,A)
【文献】特開2005-109555(JP,A)
【文献】特開2017-138912(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
G06T 11/00 - 19/20
H04N 5/232
A63F 13/00 - 13/98
(57)【特許請求の範囲】
【請求項1】
撮像画像から検出した人物の骨格に基づいて、人物の体勢として推定することが予め決められている複数種類の体勢のモデルデータの中から前記人物の体勢に近似するモデルデータを選択する選択手段と、
前記選択したモデルデータに対応付けられて記憶されているポーズのキャラクタ画像を取得する取得手段と、
前記取得したキャラクタ画像のサイズを前記検出した骨格の前記撮像画像上での垂直方向の割合に応じて変換し、前記変換したキャラクタ画像を前記撮像画像における骨格が位置する領域以外の領域に重畳した重畳画像を表示させる表示制御手段と、
前記人物の所定の動作を認識すると、前記重畳画像をキャプチャする画像キャプチャ手段
とを有する画像制御装置。
【請求項2】
前記選択手段は前記撮像画像から前記人物の関節の位置を含む特徴点に基づいて前記骨格を検出する
請求項1の画像制御装置。
【請求項3】
前記取得手段はキャラクタの画像を選択した体勢に対応するポーズに変更する
請求項1又は請求項2の画像制御装置。
【請求項4】
前記表示制御手段は、前記検出した骨格の前記撮像画像上での水平方向の位置に応じて、前記取得したキャラクタ画像を重畳する位置を決定する
請求項1又は請求項2の画像制御装置。
【請求項5】
前記表示制御手段は、前記モデルデータに対応付けられて記憶されている配置情報に基づいて、前記取得したキャラクタ画像を重畳する位置を決定する
請求項1又は請求項2の画像制御装置。
【請求項6】
前記表示制御手段は、前記検出した骨格の前記撮像画像上での垂直方向の位置に応じて、前記取得したキャラクタ画像を重畳する垂直方向の位置を決定する
請求項1から請求項5のいずれかの画像制御装置。
【請求項7】
前記所定の動作は前記選択手段が検出した骨格の時系列の動きによって認識される
請求項1から請求項6のいずれかの画像制御装置。
【請求項8】
前記所定の動作は深度センサ又は光学センサによって認識される
請求項1から請求項6のいずれかの画像制御装置。
【請求項9】
画像制御装置のプログラムであって、前記プログラムは前記画像制御装置を、
撮像画像から検出した人物の骨格に基づいて、推定する人物の体勢として予め決められている複数種類のモデルデータの中から前記人物の体勢に近似するモデルデータを選択する選択手段と、
前記選択したモデルデータに対応付けられて記憶されているポーズのキャラクタ画像を取得する取得手段と、
前記取得したキャラクタ画像のサイズを前記検出した骨格の前記撮像画像上での垂直方向の割合に応じて変換し、前記変換したキャラクタ画像を前記撮像画像における骨格が位置する領域以外の領域に重畳した重畳画像を表示させる表示制御手段と、
前記人物の所定の動作を認識すると、前記重畳画像をキャプチャする画像キャプチャ手段
として機能させるプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本願発明は、画像制御装置、及びそのプログラムに関する。
【背景技術】
【0002】
近年、携帯端末の発展により、携帯端末に搭載されているカメラで撮影された画像にキャラクタやスタンプ等の画像コンテンツを合成して表示する技術が数多く出回っている。これらの多くは、携帯端末のカメラで撮影した画像に画像コンテンツを配置することができる携帯端末向けのアプリケーションとして普及されている。このようなアプリケーションでは、カメラで撮影した画像上に、ユーザが大きさと位置とを調整した画像コンテンツを重ねて表示画面に表示することが行われている。
【0003】
別の技術として、特許文献1がある。特許文献1では、表示画面に表示されているユーザ同士の顔の距離が所定の距離より近い場合に、画像コンテンツを表示画面上に出現させて表示し、ユーザと共に撮影する技術が記載されている。
【先行技術文献】
【特許文献】
【0004】
【文献】特開2018-23056号公報
【発明の概要】
【発明が解決しようとする課題】
【0005】
例えばユーザがキャラクタの画像コンテンツとツーショット写真になるように撮影した場合、上述の携帯端末向けのアプリケーションでは、撮影したユーザの画像に合うようにユーザが大きさと位置とを調整する必要がある。
【0006】
また、特許文献1の技術を用いる場合、ユーザの大きさ及び立ち位置がキャラクタに合うように、ユーザ自身が立ち位置を調整する必要がある。
【0007】
そこで本願発明が解決しようとする課題は、上記問題点を解決することであり、ユーザが画像コンテンツを調整せずに、ユーザが画像コンテンツと共に写っている画像を生成する技術を提供することである。
【課題を解決するための手段】
【0008】
上記課題を解決するための本願発明の画像制御装置は、撮像画像から検出した人物の骨格に基づいて前記人物の体勢を推定する推定手段と、前記推定した体勢に応じたポーズのキャラクタ画像を取得する取得手段と、前記取得したキャラクタ画像のサイズを前記検出した骨格の前記撮像画像上での垂直方向の割合に応じて変換し、前記変換したキャラクタ画像を前記撮像画像に重畳した重畳画像を表示させる表示制御手段とを有する。
【発明の効果】
【0009】
本願によると、ユーザが画像コンテンツを調整せずに、ユーザが画像コンテンツと共に写っている画像を生成することができる。
【図面の簡単な説明】
【0010】
図1】画像制御装置の概略図である。
図2】画像制御装置のブロック図の一例である。
図3】キャラクタデータベースの一例である。
図4】体勢モデルデータベースの一例である。
図5】キャラクタ画像データベースの一例である。
図6】キーポイントを説明するための図である。
図7】キーポイントの階層構造の一例を示した図である。
図8】本発明の動作を説明するための図である。
【発明を実施するための形態】
【0011】
本発明の特徴を説明するために、以下において、図面を参照して具体的に述べる。
【0012】
本発明の画像制御装置10は、ユーザがキャラクタと一緒に写っている写真を提供するための装置である。画像制御装置1は、予め複数のポーズのキャラクタの画像を用意し、その中からユーザの体勢に合ったポーズのキャラクタの画像をユーザに合わせて調整して、キャラクタがユーザと一緒に写っている写真を生成する。尚、本発明で説明するユーザの体勢は、ユーザの体位、ポーズ、姿勢を含む上位概念である。
【0013】
図1は、本発明の画像制御装置1が使用される例を示すイメージ図である。図1に示した例では、カメラを搭載したデジタルサイネージのように、人とほぼ同等の大きさの表示画面を有する装置を用いて説明するが、スマートフォンを本発明の画像制御装置のように用いても良いものとする。
【0014】
画像制御装置10は、図2の画像制御装置10のブロック図に示す通り、記憶部11と、撮像部12と、推定部13と、取得部14と、表示制御部15と、深度センサ16と、画像キャプチャ部17と、表示部20を有する。表示部20は、例えばタッチパネルを搭載した表示画面21を有する。
【0015】
記憶部11は、キャラクタデータベース111と体勢モデルデータ112とキャラクタ画像データベース113と、画面データベース114を有する。
【0016】
キャラクタデータベース111は、図3に示す通り、キャラクタを一意に識別するキャラクタIDとキャラクタ名とが互いに対応付けられて記憶されている。
【0017】
体勢モデルデータベース112は、人物の各種体勢のモデルデータが記憶されており、撮影部11が撮像した画像中の人物(ユーザ)の体勢を推定するのに用いられる。図4に示す通り、体勢モデルデータベース112は、体勢IDとモデルデータとが対応付けられて記憶されている。体勢モデルデータベース112の体勢IDはモデルデータを一意に識別する識別番号である。モデルデータには、ユーザの体勢を推定するための条件がリストで記されている。
【0018】
キャラクタ画像データベース113には、図5に示す通り、異なるポーズのキャラクタ画像が体勢IDに対応付けられて、キャラクタ毎に記憶されている。
【0019】
表示画面データベース114は、ユーザが撮影する際に必要となるメニュー画面の画面データが記憶されている。
【0020】
撮像部12は、ユーザを撮影する為の特別な装置を設けても良いが、CCDやCMOS等を備えた一般的なデジタルカメラであっても良い。撮像部11が撮像した画像のファイル形式は本発明では問わず、JPEG(Joint Photographic Experts Group)等で良い。撮像部12は、表示装置20の表示画面の外周に沿った位置に配置されるのが好ましい。
【0021】
推定部13は、撮像部12が撮像した画像から、人物の体勢を推定する。推定部13が推定する体勢は予め決められており、推定部13は推定する体勢毎に定義付けられている推定条件に基づいて体勢を推定する。画像から人物の体勢を推定する方法は本発明では特に指定しないが、一例を以下に説明する。
【0022】
推定部13は、撮像部12が撮像した画像中から人物の体勢を推定するにあたって、まず人物の骨格を認識する。推定部13は、骨格を認識する際に、特徴点となりうるキーポイントを人物の画像から検出する。キーポイントは、例えば身体の部位の中心部、身体の部位同士の接続点、及び関節の少なくとも1つを含む。図6では、身体の部位の中心部、身体の部位同士の接続点、及び関節を含む以下の(1)から(19)をキーポイントとして検出する場合の例を示している。
(1)JOINT HEAD(頭中心部)
(2)JOINT NECK(頸部中心部)
(3)JOINT LEFT AND RIGHT COLLAR(胸鎖関節部)
(4)JOINT TRSO(体幹中心部)
(5)JOINT WAIST(腰中心部)
(6)JOINT RIGHT SHOLDER(右肩関節部)
(7)JOINT LEFT SHOLDER(左肩関節部)
(8)JOINT RIGHT ELBOW(右肘関節部)
(9)JOINT LEFT ELBOW(左肘関節部)
(10)JOINT RIGHT WRIST(右手首関節部)
(11)JOINT LEFT WRIST(左手首関節部)
(12)JOINT RIGHT HAND(右手関節部)
(13)JOINT LEFT HAND(左手関節部)
(14)JOINT RIGHT HIP(右股関節部)
(15)JOINT LEFT HIP(左股関節部)
(16)JOINT RIGHT KNEE(右膝関節部)
(17)JOINT LEFT KNEE(左膝関節部)
(18)JOINT RIGHT ANKLE(右足関節部)
(19)JOINT LEFT ANKLE(左脚関節部)
各キーポイントは、他のキーポイントとの間で親子関係が予め組まれて階層構造を成している。キーポイントの階層構造の一例を図7に示す。JOINT HEAD(1)は階層構造の頂点である。JOINT HEAD(1)を最上位にして、JOINT NECK(2)、JOINT LEFT AND RIGHT COLLAR(3)と、親子関係が順に下層へと繋がっていく。JOINT LEFT AND RIGHT COLLAR(3)では、子にあたるキーポイントが、JOINT TRSO(4)、JOINT RIGHT SHOLDER(6)、JOINT LEFT SHOLDER(7)の3つになる。
【0023】
JOINT TRSO(4)はJOINT WAIST(5)と親子関係であり、JOINT WAIST(5)はJOINT RIGHT HIP(14)とJOINT LEFT HIP(15)と親子関係が組まれている。JOINT RIGHT HIP(14)は、自身を上位として、JOINT RIGHT KNEE(16)、JOINT RIGHT ANKLE(18)の順に親子関係が下層へと繋がっていく。JOINT LEFT HIPは、JOINT RIGHT HIP(14)同様に自身を上位として、JOINT LEFT KNEE(17)、JOINT LEFT ANKLE(19)の順に親子関係が下層へと繋がっていく。
【0024】
JOINT RIGHT SHOLDER(6)は、自身を上位として、JOINT RIGHT ELBOW(8)、JOINT RIGHT WRIST(10)、JOINT RIGHT HAND(12)の順に親子関係が下層へと繋がっていく。
【0025】
JOINT LEFT SHOLDER(7)は、JOINT RIGHT SHOLDER(6)同様に、JOINT LEFT ELBOW(9)、JOINT LEFT WRIST(11)、JOINT LEFT HAND(13)の順に親子関係が下層へと繋がっていく。
【0026】
図7は、上述のような親子関係にあるキーポイント同士を直線で結んで木構造として示した図である。図6においても、親子関係が組まれているキーポイント間を直線で結んで示している。尚、図6及び図7にて示したキーポイント及び木構造は一例であり、キーポイント及び木構造は如何なる場所及び構造であっても本発明を適用することは可能である。
【0027】
推定部13は、親子関係にあるキーポイント間の直線を骨格と認識し、所定の骨格間の角度が体勢モデルデータベース112のモデルデータに記されている条件に当てはまるかを判定する。推定部13は、所定の骨格間の角度が条件リストに一致する割合を算出し、一番高い割合に対応付けられている体勢がユーザの体勢であると推定する。即ち、認識した骨格と、モデルデータとの近似度を算出し、一番近いモデルデータの体勢をユーザの体勢であると推定する。
【0028】
尚、推定部13が画像中から人物の関節を検出する方法は特定しないが、例えば機械学習装置を用いて行ってもよい。機械学習装置は、画像中の人物の関節を指定して取得した人物と関節の関係を教師データとして用いて関節を検出しても、ディープラーニングにより人物と関節の関係を取得して、これを教師データとして用いて関節を検出しても良い。
【0029】
取得部14は、キャラクタ画像データベース113から、推定部13によって推定された体勢に対応付けられているポーズのキャラクタ画像を取得する。
【0030】
表示制御部15は、表示画像データベース114からメニュー画面を読み出して表示画面21に表示させる。表示制御部15は、キャラクタ選択のメニュー画面を表示する際、キャラクタデータベース111のキャラクタIDを読み込む。読込んだキャラクタIDに対応付けられているキャラクタ名をキャラクタデータベース111から読み出す。更に、表示制御部15は、読込んだキャラクタIDの画像をキャラクタ画像データベース113から読み出して、先に読み出したキャラクタ名と共に並べて表示画面21に表示させる。キャラクタ画像データベース113から読み出す画像は、予め決められていてもランダムでも良い。
【0031】
表示制御部15は、撮像部12が撮像した画像に、取得部14が選択したキャラクタ画像を重畳(合成)して、表示画面21に表示させる。キャラクタ画像を重畳する際、表示制御部15は、推定部13が認識した骨格の撮像画像上での垂直方向の割合に応じて、選択したキャラクタ画像の大きさを変換する。表示制御部15は、推定部13が認識した骨格の画像上での水平方向及び垂直方向(奥行)の位置の少なくとも一方に応じた位置に、大きさを変換させたキャラクタ画像を撮像画像に配置する。表示制御部15が行う、キャラクタ画像の位置決定の例を説明する。
【0032】
例えば、画像を右領域と左領域等の複数領域に分け、表示制御部15は推定した骨格が位置する領域以外の領域にキャラクタ画像を配置する。また、体勢モデルデータベース112の体勢IDに、画面上のどの位置に配置するかの配置情報を予め対応付けて記憶させおき、表示制御部15はこの配置情報に基づいて、キャラクタ画像を配置する。
【0033】
他の例としては、各ポーズのキャラクタ画像にも骨格を定義付けておき、キャラクタ画像データベース113の体勢IDに、認識したユーザの骨格に対するキャラクタ画像の骨格の相対位置を配置情報として対応付けて記憶させておき、表示制御部15はこの配置情報とキャラクタの骨格とユーザの骨格とに基づいて、キャラクタ画像を配置する。
【0034】
本発明の表示制御部15は、上記のいずれの方法を用いてキャラクタ画像を撮像画像に配置する。尚、表示制御部15は、認識した骨格に応じて、キャラクタ画像を配置する角度を変更させて配置しても良い。
【0035】
深度センサ16は、撮像部12からの撮像画像を用いて、ユーザが所定の動作を行うのを検出する。例えば、深度センサ16が定期的に対象物までの距離を測定して深度画像を生成し、その中から人物にあたるユーザの形状を検出し、その形状の時系列の変化によってユーザが所定の動作を行ったかを監視する。
【0036】
画像キャプチャ部17は、深度センサがユーザの所定の動作を検出すると、表示制御部15が撮像画像にキャラクタ画像を重畳した合成画像をキャプチャする。画像キャプチャ部17は、キャプチャした画像を撮影画像として記憶部11に記憶させる。尚、深度センサがユーザの所定の動作を検出すると、セルフタイマーが起動して、カウントダウン後に画像キャプチャ部17が画像をキャプチャする構成であってもよい。
【0037】
続いて、本実施の形態の動作について説明する。図8は、本発明の動作を説明するためのフロー図である。
【0038】
表示制御部15は、キャラクタデータベース111とキャラクタ画像データベース113とから読み出したキャラクタ名と該キャラクタの画像と、表示画面データベース114から読み出したメニュー画面とからユーザにキャラクタを選択させるためのメニュー画面を生成して、表示画面21に表示させる(ステップ1501)。
【0039】
ユーザが表示画面21に表示されているメニュー画面を用いて、キャラクタを選択すると、入力部が該キャラクタのキャラクタIDを取得部14に通知する(ステップ1502)。
【0040】
キャラクタが選択されると、カメラが起動し、撮像部12が撮像した撮像画像が表示画面21に表示される(ステップ1503)。
【0041】
推定部13は、撮像画像からユーザの骨格を認識する(ステップ1504)。
【0042】
推定部13は、認識した骨格の所定の骨格間の角度が、体勢モデルデータベース112のモデルデータに記されている条件に一致する割合を算出する(ステップ1505)。
【0043】
推定部13は、一番高い割合のモデルデータに対応付けられている体勢IDを読み出す(ステップ1506)。
【0044】
取得部14は、ステップ1502で選択されたキャラクタのキャラクタIDと、推定部13が読み出した体勢IDとに基づいて、キャラクタ画像データベース113からキャラクタ画像を取得する(ステップ1507)。
【0045】
表示制御部15は、ステップ1504で認識した骨格の撮像画像上での垂直方向の割合に応じて、ステップ1507で選択されたキャラクタ画像の大きさを変更する(ステップ1508)。
【0046】
表示制御部15は、ステップ1504で認識した骨格の画像上での水平方向及び奥行の位置の少なくとも一方に応じた位置に、ステップ1508で大きさが変換されたキャラクタ画像を撮像画像に配置して表示画面21に表示させる(ステップ1509)。
【0047】
深度センサ16は、監視を開始し、ユーザが所定の動作を行うのを検出する(ステップ1510)。
【0048】
画像キャプチャ部17は、深度センサ16がユーザの所定の動作を検出すると、表示画面21に表示されている画像をキャプチャする(ステップ1511)。
【0049】
画像キャプチャ部17は、キャプチャした画像を記憶部11に記憶させる(ステップ1522)。
【0050】
上述した本発明を用いると、ユーザの体勢に応じてキャラクタ画像を配置するため、ユーザが画像コンテンツを調整せずに、ユーザがキャラクタ画像と共に写っている画像を撮ることができる。
【0051】
また、本発明を用いると、ユーザの画面大きさに応じてキャラクタ画像の大きさを変更するため、ユーザが立ち位置を調整することなく、ユーザがキャラクタ画像と共に写っている画像を撮ることができる。
【0052】
また、本発明を用いると、ユーザの所定の動作を検出すると画面をキャプチャする構成であるため、ユーザが表示画面のタッチパネルまで移動することなく、キャラクタ画像と共に写っている画像を撮ることができる。
【0053】
尚、上記説明において、体勢を推定するにあたって、所定の骨格間の角度がモデルデータに記されている角度の条件リストに当てはまる割合に基づいて推定する場合を用いて説明したが、これ以外の方法であっても良い。例えば、認識した骨格の相対的な位置関係が、モデルデータに記されている位置関係に相似している割合に基づいて推定しても良い。
【0054】
また、上記説明において、取得部は、推定した体勢に対応付けられているポーズのキャラクタ画像をキャラクタ画像データベース113から取得する場合を用いて説明したが、他の方法であっても良い。例えば、取得部は、推定した体勢に対応するポーズにキャラクタの画像を変更するようにしても良い。
【0055】
また、上記説明において、深度センサ16を用いてユーザが所定の動作を行うのを検出している例を用いて説明したが、他の方法であっても良い。例えば、深度センサの代わりに光学センサを用いてユーザが所定の動作を行うのを検出しても良い。他にも、推定部13が認識した骨格の時系列の変化によってユーザが所定の動作を行ったかを検出しても良い。
【0056】
尚、上述した本発明の装置は、ハードウェアで構成することも可能であるが、コンピュータプログラムにより実現することも可能である。この場合、画像制御装置10は、プロセッサ、メモリ(ROMやRAM)、記憶装置(ハードディスク、半導体ディスクなど)、入力装置(キーボード、マウス、タッチパネル)、表示装置、通信部などのハードウェア資源を有する汎用のコンピュータによっても実現可能である。一部の機能のみをコンピュータプログラムにより実現することも可能である。
【0057】
以上、好ましい実施の形態及び実施例が説明された。しかしながら、本発明は、必ずしも上記実施の形態及び実施例に限定されるものではなく、その技術的思想の範囲内において様々に変形され実施できる。
【0058】
以上、実施の形態及び実施例をあげて本発明を説明したが、本発明は必ずしも上記実施の形態及び実施例に限定されるものではなく、その技術的思想の範囲内において様々に変形し実施することが出来る。
【符号の説明】
【0059】
10 画像制御装置10
11 記憶部
12 撮像部
13 推定部
14 取得部
15 表示制御部
16 深度センサ
17 画像キャプチャ部
20 表示部
21 表示画面
図1
図2
図3
図4
図5
図6
図7
図8