IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ FCNT合同会社の特許一覧

特許7537907携帯端末、情報処理方法及び情報処理プログラム
<>
  • 特許-携帯端末、情報処理方法及び情報処理プログラム 図1
  • 特許-携帯端末、情報処理方法及び情報処理プログラム 図2
  • 特許-携帯端末、情報処理方法及び情報処理プログラム 図3
  • 特許-携帯端末、情報処理方法及び情報処理プログラム 図4
  • 特許-携帯端末、情報処理方法及び情報処理プログラム 図5
  • 特許-携帯端末、情報処理方法及び情報処理プログラム 図6
  • 特許-携帯端末、情報処理方法及び情報処理プログラム 図7
  • 特許-携帯端末、情報処理方法及び情報処理プログラム 図8
  • 特許-携帯端末、情報処理方法及び情報処理プログラム 図9
  • 特許-携帯端末、情報処理方法及び情報処理プログラム 図10
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-08-13
(45)【発行日】2024-08-21
(54)【発明の名称】携帯端末、情報処理方法及び情報処理プログラム
(51)【国際特許分類】
   H04N 23/63 20230101AFI20240814BHJP
   G03B 7/091 20210101ALI20240814BHJP
   G03B 15/00 20210101ALI20240814BHJP
   H04N 23/45 20230101ALI20240814BHJP
   H04N 23/60 20230101ALI20240814BHJP
【FI】
H04N23/63
G03B7/091
G03B15/00 Q
H04N23/45
H04N23/60 500
【請求項の数】 7
(21)【出願番号】P 2020078418
(22)【出願日】2020-04-27
(65)【公開番号】P2021175105
(43)【公開日】2021-11-01
【審査請求日】2023-02-24
(73)【特許権者】
【識別番号】524066085
【氏名又は名称】FCNT合同会社
(74)【代理人】
【識別番号】110002860
【氏名又は名称】弁理士法人秀和特許事務所
(72)【発明者】
【氏名】石川 正久
(72)【発明者】
【氏名】吉村 潤
【審査官】佐藤 直樹
(56)【参考文献】
【文献】特開2014-131281(JP,A)
【文献】特開2015-106849(JP,A)
【文献】特開2018-085562(JP,A)
【文献】特開2016-009890(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
H04N 23/63
G03B 7/091
G03B 15/00
H04N 23/45
H04N 23/60
(57)【特許請求の範囲】
【請求項1】
板状の筐体と、
前記筐体の第1面に設けられる表示部及び第1カメラと、
前記筐体の前記第1面の背面に設けられる第2カメラと、
前記第1カメラ及び前記第2カメラを制御するプロセッサと、を備え、
前記プロセッサは、
前記第1カメラが撮影した動画像中における人物に追尾し、追尾した前記人物を含む領域を前記第1カメラが撮影した動画像から切り出した切り出し動画像を生成し、
前記第2カメラが撮影した動画像中における被写体のうち、最も大きい主被写体を認識し、
前記第2カメラが撮影した動画像の前記主被写体と重畳しない領域に前記切り出し動画像を挿入した合成動画像を前記表示部に表示させ、
前記切り出し動画像は、
前記主被写体と重畳しない領域の大きさが閾値以上である場合には前記第1カメラが撮影した動画像から切り出す範囲を前記人物の顔を含む上半身の範囲とした画像であり、
前記主被写体と重畳しない領域の大きさが閾値未満である場合には、前記第1カメラが撮影した動画像から切り出す範囲を前記人物の顔の範囲とした画像である、
携帯端末。
【請求項2】
板状の筐体と、
前記筐体の第1面に設けられる表示部及び第1カメラと、
前記筐体の前記第1面の背面に設けられる第2カメラと、
前記第1カメラ及び前記第2カメラを制御するプロセッサと、を備え、
前記プロセッサは、
前記第1カメラが撮影した動画像中における人物に追尾し、追尾した前記人物を含む領域を前記第1カメラが撮影した動画像から切り出した切り出し動画像を生成し、
前記第2カメラが撮影した動画像中における被写体のうち、前記動画像の最も中央に位置する主被写体を認識し、
前記第2カメラが撮影した動画像の前記主被写体と重畳しない領域に前記切り出し動画像を挿入した合成動画像を前記表示部に表示させ、
前記切り出し動画像は、
前記主被写体と重畳しない領域の大きさが閾値以上である場合には前記第1カメラが撮影した動画像から切り出す範囲を前記人物の顔を含む上半身の範囲とした画像であり、
前記主被写体と重畳しない領域の大きさが閾値未満である場合には、前記第1カメラが撮影した動画像から切り出す範囲を前記人物の顔の範囲とした画像である、
携帯端末。
【請求項3】
前記プロセッサは、
前記第2カメラが撮影した動画像中の前記切り出し動画像を挿入する領域の大きさに応じて、前記第1カメラが撮影した動画像から切り出す範囲を変動させる、
請求項1または2に記載の携帯端末。
【請求項4】
板状の筐体と、前記筐体の第1面に設けられる表示部及び第1カメラと、前記筐体の前記第1面の背面に設けられる第2カメラと、を備える情報処理装置が、
前記第1カメラが撮影した動画像中における人物に追尾し、追尾した前記人物を含む領域を前記第1カメラが撮影した動画像から切り出した切り出し動画像を生成し、
前記第2カメラが撮影した動画像中における被写体のうち、最も大きい主被写体を認識し、
前記第2カメラが撮影した動画像の前記主被写体と重畳しない領域に前記切り出し動画像を挿入した合成動画像を前記表示部に表示
前記切り出し動画像は、
前記主被写体と重畳しない領域の大きさが閾値以上である場合には前記第1カメラが撮影した動画像から切り出す範囲を前記人物の顔を含む上半身の範囲とした画像であり、
前記主被写体と重畳しない領域の大きさが閾値未満である場合には、前記第1カメラが撮影した動画像から切り出す範囲を前記人物の顔の範囲とした画像である、
情報処理方法。
【請求項5】
板状の筐体と、前記筐体の第1面に設けられる表示部及び第1カメラと、前記筐体の前記第1面の背面に設けられる第2カメラと、を備える情報処理装置が、
前記第1カメラが撮影した動画像中における人物に追尾し、追尾した前記人物を含む領域を前記第1カメラが撮影した動画像から切り出した切り出し動画像を生成し、
前記第2カメラが撮影した動画像中における被写体のうち、前記動画像の最も中央に位置する主被写体を認識し、
前記第2カメラが撮影した動画像の前記主被写体と重畳しない領域に前記切り出し動画像を挿入した合成動画像を前記表示部に表示
前記切り出し動画像は、
前記主被写体と重畳しない領域の大きさが閾値以上である場合には前記第1カメラが撮影した動画像から切り出す範囲を前記人物の顔を含む上半身の範囲とした画像であり、
前記主被写体と重畳しない領域の大きさが閾値未満である場合には、前記第1カメラが撮影した動画像から切り出す範囲を前記人物の顔の範囲とした画像である、
情報処理方法。
【請求項6】
板状の筐体と、前記筐体の第1面に設けられる表示部及び第1カメラと、前記筐体の前記第1面の背面に設けられる第2カメラと、を備える情報処理装置に、
前記第1カメラが撮影した動画像中における人物に追尾させ、追尾させた前記人物を含む領域を前記第1カメラが撮影した動画像から切り出した切り出し動画像を生成させ、
前記第2カメラが撮影した動画像中における被写体のうち、最も大きい主被写体を認識し、
前記第2カメラが撮影した動画像の前記主被写体と重畳しない領域に前記切り出し動画像を挿入した合成動画像を前記表示部に表示させ、
前記切り出し動画像は、
前記主被写体と重畳しない領域の大きさが閾値以上である場合には前記第1カメラが撮影した動画像から切り出す範囲を前記人物の顔を含む上半身の範囲とした画像であり、
前記主被写体と重畳しない領域の大きさが閾値未満である場合には、前記第1カメラが撮影した動画像から切り出す範囲を前記人物の顔の範囲とした画像である、
情報処理プログラム。
【請求項7】
板状の筐体と、前記筐体の第1面に設けられる表示部及び第1カメラと、前記筐体の前記第1面の背面に設けられる第2カメラと、を備える情報処理装置に、
前記第1カメラが撮影した動画像中における人物に追尾させ、追尾させた前記人物を含む領域を前記第1カメラが撮影した動画像から切り出した切り出し動画像を生成させ、
前記第2カメラが撮影した動画像中における被写体のうち、前記動画像の最も中央に位置する主被写体を認識し、
前記第2カメラが撮影した動画像の前記主被写体と重畳しない領域に前記切り出し動画像を挿入した合成動画像を前記表示部に表示させ、
前記切り出し動画像は、
前記主被写体と重畳しない領域の大きさが閾値以上である場合には前記第1カメラが撮影した動画像から切り出す範囲を前記人物の顔を含む上半身の範囲とした画像であり、
前記主被写体と重畳しない領域の大きさが閾値未満である場合には、前記第1カメラが撮影した動画像から切り出す範囲を前記人物の顔の範囲とした画像である、
情報処理プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、携帯端末、情報処理方法及び情報処理プログラムに関する。
【背景技術】
【0002】
近年、携帯端末等で撮影した動画を動画公開サイトに公開することが行われている。このような動画公開サイトでは、撮影者を撮影した撮影者動画を被写体動画に挿入した合成動画が人気を得ている。このような合成動画に関連する技術として、例えば、特許文献1-3を挙げることができる。
【0003】
特許文献1には、第1カメラ部で撮影した撮影者側の画像データにおいて認識した撮影者の顔領域を、第2カメラ部で撮影した被撮影者側の撮像データに合成する携帯電話機が記載されている。特許文献2には、被撮影者の撮像に撮影者の撮像を合成した合成画像において、撮影者の撮像が被撮影者の顔と重なる場合に、撮影者の撮像の合成位置を移動する撮像装置が記載されている。特許文献3には、撮影者を撮影した画像のトリミング範囲を、撮影者の顔領域のみとしたり撮影者の上半身も含めるようにしたりと変更することで、合成画像における撮影者の様子を見やすくする撮像装置が記載されている。
【先行技術文献】
【特許文献】
【0004】
【文献】特開2005-094741号公報
【文献】特開2015-103918号公報
【文献】特開2014-212395号公報
【発明の概要】
【発明が解決しようとする課題】
【0005】
インカメラで撮影者を撮影した動画像から所定領域を切り出した切り出し動画像をアウトカメラで撮影した動画像に合成した合成動画像を生成する場合について検討する。このような場合、アウトカメラでの撮影対象の動きに追従してアウトカメラの撮影方向を変えると、アウトカメラと同一の筐体に設けられたインカメラの撮影方向も変わることになる。その結果、インカメラが撮影する動画像中における撮影者の位置が所定領域からずれてしまうことがある。所定領域から撮影者がずれてしまうと、アウトカメラに合成される動画像には撮影者の顔の一部しか表示されないようなことが生じ得る。
【0006】
開示の技術の1つの側面は、インカメラで撮影した撮影者の動画像をアウトカメラで撮影する動画像に合成した合成動画像において、撮影者の顔の一部しか表示されない事象を抑制できる携帯端末、情報処理方法及び情報処理プログラムを提供することを課題とする。
【課題を解決するための手段】
【0007】
開示の技術の1つの側面は、次のような携帯端末によって例示される。本携帯端末は、板状の筐体と、前記筐体の第1面に設けられる表示部及び第1カメラと、前記筐体の前記第1面の背面に設けられる第2カメラと、前記第1カメラ及び前記第2カメラを制御するプロセッサと、を備え、前記プロセッサは、前記第1カメラが撮影した動画像中における人物に追尾し、追尾した前記人物を含む領域を前記第1カメラが撮影した動画像から切り出した切り出し動画像を生成し、前記切り出し動画像を前記第2カメラが撮影した動画像に挿入した合成動画像を前記表示部に表示させる。
【発明の効果】
【0008】
開示の技術は、インカメラで撮影した撮影者の動画像をアウトカメラで撮影する動画像に合成した合成動画像において、撮影者の顔の一部しか表示されない事象抑制することができる。
【図面の簡単な説明】
【0009】
図1図1は、実施形態に係るスマートフォンの外観の一例を示す図である。
図2図2は、実施形態に係るスマートフォンのハードウェア構成の一例を示す図である。
図3図3は、実施形態に係るスマートフォンの処理ブロックの一例を示す図である。
図4図4は、実施形態における切り出し動画像の生成を模式的に示す図である。
図5図5は、実施形態において、インカメラ動画像中でユーザの位置が移動した場合における切り出し動画像の生成を模式的に示す図である。
図6図6は、実施形態における合成動画像の生成を模式的に示す図である。
図7図7は、実施形態に係るスマートフォンの処理フローの一例を示す図である。
図8図8は、比較例において、インカメラ動画像中に設定した所定領域外にユーザが移動した場合を例示する図である。
図9図9は、比較例における合成動画像の生成を模式的に示す図である。
図10図10は、第1変形例において、アウトカメラ動画像中の主要な被写体の認識を例示する図である。
【発明を実施するための形態】
【0010】
<実施形態>
以下に示す実施形態の構成は例示であり、開示の技術は実施形態の構成に限定されない。実施形態に係る携帯端末は、例えば、以下の構成を備える。
本実施形態に係る携帯端末は、
板状の筐体と、
前記筐体の第1面に設けられる表示部及び第1カメラと、
前記筐体の前記第1面の背面に設けられる第2カメラと、
前記第1カメラ及び前記第2カメラを制御するプロセッサと、を備え、
前記プロセッサは、
前記第1カメラが撮影した動画像中における人物に追尾し、追尾した前記人物を含む領域を前記第1カメラが撮影した動画像から切り出した切り出し動画像を生成し、
前記切り出し動画像を前記第2カメラが撮影した動画像に挿入した合成動画像を前記表示部に表示させる。
【0011】
本実施形態に係る携帯端末は、例えば、可搬型の情報処理装置である。携帯端末としては、例えば、スマートフォン、タブレット型パーソナルコンピュータ、フィーチャーフォン等を挙げることができる。
【0012】
第1カメラ及び第2カメラは、少なくとも動画像の撮影が可能なカメラである。第1カメラ及び第2カメラは、静止画像の撮影も可能であってもよい。第1カメラ及び第2カメラは、例えば、Charge Coupled Device(CCD)イメージセンサやComplementary metal-oxide-semiconductor(CMOS)イメージセンサを有するデジタルカメラである。
【0013】
プロセッサは、例えば、Central Processing Unit(CPU)である。表示部としては、プロセッサで処理されるデータを表示するディスプレイを挙げ
ることができる。ディスプレイとしては、例えば、Liquid Crystal Display(LCD)、Plasma Display Panel(PDP)、Electroluminescence(EL)パネル、有機ELパネルを挙げることができる。
【0014】
本携帯端末では、第1カメラで撮影した動画像から切り出した切り出し動画像を生成する際に、第1カメラが撮影した動画像中の人物の追尾を行う。そして、追尾した人物を含む領域を第1カメラが撮影した動画像から切り出しすことで、切り出し動画像を生成する。このような特徴を備えることで、本携帯端末は、第1カメラが撮影する動画像中で人物が移動しても、移動した人物を第1カメラが撮影した動画像から切り出すことができる。そのため、本携帯端末は、第1カメラで撮影した撮影者の動画像をアウトカメラで撮影する動画像に合成した合成動画像において、第1カメラが撮影した人物の顔の一部しか表示されない事象を抑制することができる。
【0015】
本携帯端末は、さらに、次の特徴を備えてもよい。前記プロセッサは、前記第2カメラが撮影した動画像中における主被写体を認識し、前記主被写体と重畳しない領域に、前記切り出し動画像を挿入する。主被写体は、例えば、第2カメラでの撮影対象となる被写体である。携帯端末は、例えば、第2カメラが撮影する動画像に物体認識を実行し、最も大きい物体を主被写体と判定してもよい。また、携帯端末は、第2カメラが撮影する動画像において中央付近に配置される物体を主被写体と判定してもよい。このような特徴を備えることで、本携帯端末は、切り出し動画像と主被写体とが重畳することを抑制することができる。換言すれば、本携帯端末は、主被写体の少なくとも一部が切り出し動画像によって隠されてしまうことを抑制することができる。
【0016】
本携帯端末は、さらに、次の特徴を備えてもよい。前記プロセッサは、前記第2カメラが撮影した動画像中の前記切り出し動画像を挿入する領域の大きさに応じて、前記第1カメラが撮影した動画像から切り出す範囲を変動させる。本携帯端末は、このような特徴を備えることで、切り出し動画像を挿入する領域の大きさが小さい場合には第1カメラで撮影した人物の顔を含む切り出し動画像を生成し、また、切り出し動画像を挿入する領域の大きさが大きい場合には第1カメラで撮影した人物の顔以外の部分も含む切り出し動画像を生成することができる。
【0017】
以上説明した実施形態に係る技術は、情報処理方法及び情報処理プログラムの側面から把握することも可能である。
【0018】
以下、図面を参照して上記携帯端末をスマートフォンに適用した実施形態についてさらに説明する。図1は、実施形態に係るスマートフォンの外観の一例を示す図である。図1は、スマートフォン100の一方から見た外観(前面側の外観とする)と、他方から見た外観(背面側の外観とする)の外観を例示する。図1では、矢印によって、スマートフォン100の前面側と背面側が入れ替えて配置され、例示される。スマートフォン100は、板状の筐体110を有する。したがって、図1には描かれていないが、筐体110の前面と背面との間の距離(厚み)は、前面または背面の外形寸法と比較して短い。図1で紙面に向かって上側が筐体110の上側であり、紙面に向かって下側が筐体110の下側であると仮定する。以下、本明細書において、筐体110の上下方向をY方向、Y方向と直交する筐体110の幅方向をX方向とも称する。
【0019】
スマートフォン100は、可搬型の情報処理装置である。筐体110の前面にはスピーカー111、マイクロフォン112、ディスプレイ113及びインカメラ114が設けられる。筐体110の背面にはアウトカメラ121が設けられる。インカメラ114は、例えば、スマートフォン100を操作するユーザの動画像を撮影する。アウトカメラ121
は、例えば、ユーザがアウトカメラ121を向けた被写体の動画像を撮影する。インカメラ114は、「第1カメラ」の一例である。アウトカメラ121は、「第2カメラ」の一例である。
【0020】
図2は、実施形態に係るスマートフォンのハードウェア構成の一例を示す図である。スマートフォン100は、CPU101、主記憶部102、補助記憶部103、通信部104、スピーカー111、マイクロフォン112、ディスプレイ113、インカメラ114及びアウトカメラ121を備える。CPU101、主記憶部102、補助記憶部103、通信部104、スピーカー111、マイクロフォン112、ディスプレイ113、インカメラ114及びアウトカメラ121は、接続バスによって相互に接続される。
【0021】
CPU101は、マイクロプロセッサユニット(MPU)、プロセッサとも呼ばれる。CPU101は、単一のプロセッサに限定される訳ではなく、マルチプロセッサ構成であってもよい。また、単一のソケットで接続される単一のCPU101がマルチコア構成を有していてもよい。CPU101が実行する処理のうち少なくとも一部は、CPU101以外のプロセッサ、例えば、Digital Signal Processor(DSP)、Graphics Processing Unit(GPU)、数値演算プロセッサ、ベクトルプロセッサ、画像処理プロセッサ等の専用プロセッサで行われてもよい。また、CPU101が実行する処理のうち少なくとも一部は、集積回路(IC)、その他のデジタル回路によって実行されてもよい。また、CPU101の少なくとも一部にアナログ回路が含まれてもよい。集積回路は、Large Scale Integrated circuit(LSI)、Application Specific Integrated Circuit(ASIC)、プログラマブルロジックデバイス(PLD)を含む。PLDは、例えば、Field-Programmable Gate Array(FPGA)を含む。CPU101は、プロセッサと集積回路との組み合わせであってもよい。組み合わせは、例えば、マイクロコントローラユニット(MCU)、System-on-a-chip(SoC)、システムLSI、チップセットなどと呼ばれる。スマートフォン100では、CPU101が補助記憶部103に記憶されたプログラムを主記憶部102の作業領域に展開し、プログラムの実行を通じて周辺装置の制御を行う。これにより、スマートフォン100は、所定の目的に合致した処理を実行することができる。主記憶部102および補助記憶部103は、スマートフォン100が読み取り可能な記録媒体である。
【0022】
主記憶部102は、CPU101から直接アクセスされる記憶部として例示される。主記憶部102は、Random Access Memory(RAM)およびRead
Only Memory(ROM)を含む。
【0023】
補助記憶部103は、各種のプログラムおよび各種のデータを読み書き自在に記録媒体に格納する。補助記憶部103は外部記憶装置とも呼ばれる。補助記憶部103には、オペレーティングシステム(Operating System、OS)、各種プログラム、各種テーブル等が格納される。OSは、通信部104を介して接続される外部装置等とのデータの受け渡しを行う通信インターフェースプログラムを含む。外部装置等には、例えば、コンピュータネットワーク等で接続された、他の情報処理装置および外部記憶装置が含まれる。なお、補助記憶部103は、例えば、ネットワーク上のコンピュータ群であるクラウドシステムの一部であってもよい。
【0024】
補助記憶部103は、例えば、Erasable Programmable ROM(EPROM)、ソリッドステートドライブ(Solid State Drive、SSD)、ハードディスクドライブ(Hard Disk Drive、HDD)等である。
【0025】
通信部104は、例えば、情報処理装置を通信可能に接続するコンピュータネットワークとのインターフェースである。通信部104は、コンピュータネットワークを介して外部の装置と通信を行う。
【0026】
スピーカー111は、音を出力する音源である。スピーカー111は、スマートフォン100を用いた通話において、通話相手の音声等の音を出力する。マイクロフォン112は、通話や動画の音声取得に用いられるマイクロフォンである。
【0027】
ディスプレイ113は、CPU101で処理されるデータや主記憶部102に記憶されるデータを表示する。ディスプレイ113は、例えば、Liquid Crystal Display(LCD)、Plasma Display Panel(PDP)、Electroluminescence(EL)パネル、有機ELパネルである。ディスプレイ113には、例えば、ユーザの指等によるタッチ操作を検知するタッチパネルが重畳して設けられてもよい。スマートフォン100は、ディスプレイ113にタッチパネルが重畳して設けられることで、直感的な操作環境をユーザに提供することができる。
【0028】
インカメラ114及びアウトカメラ121は、CCDイメージセンサやCMOSイメージセンサを有するデジタルカメラである。インカメラ114及びアウトカメラ121は、静止画像及び動画像を撮影可能である。
【0029】
<スマートフォン100の処理ブロック>
図3は、実施形態に係るスマートフォンの処理ブロックの一例を示す図である。スマートフォン100は、追尾部11、切り出し部12及び合成部13を備える。スマートフォン100は、主記憶部102に実行可能に展開されたコンピュータプログラムをCPU101が実行することで、上記スマートフォン100の、追尾部11、切り出し部12及び合成部13等の各部としての処理を実行する。
【0030】
追尾部11は、インカメラ114が撮影する動画像中の人物を追尾する。本実施形態では、インカメラ114が撮影する動画像にはアウトカメラ121での撮影を実行するユーザが映ることになる。そのため、追尾部11は、インカメラ114が撮影する動画像中の当該ユーザを追尾する。追尾部11による追尾は、例えば、インカメラ114が撮影した動画像に対する人物認識によって行われる。追尾部11は、例えば、Open Source Computer Vision Library(OpenCV、参考URL https://opencv.org/)やTensorFlow(参考URL https://www.tensorflow.org/)を用いて人物認識を行うことができる。
【0031】
切り出し部12は、インカメラ114が撮影した動画像から追尾部11によって追尾された人物を含む領域を切り出した切り出し動画像を生成する。図4は、実施形態における切り出し動画像の生成を模式的に示す図である。図4では、インカメラ114が撮影したインカメラ動画像M1が例示される。切り出し部12は、インカメラ動画像M1において追尾部11が追尾しているユーザP1の周囲を囲む矩形枠R1を設定する。切り出し部12は、インカメラ動画像M1から矩形枠R1で囲んだ領域を切り出した切り出し動画像M2を生成する。なお、図4では、ユーザP1の周囲を囲む枠として矩形枠R1が例示されているが、ユーザP1の周囲を囲む枠は矩形以外の形状(例えば、円や楕円、多角形等)であってもよい。
【0032】
アウトカメラ121で撮影する被写体が移動すると、ユーザは当該被写体の移動に追従するように、アウトカメラ121の撮影方向を変更する。アウトカメラ121とインカメ
ラ114とは、同一の筐体110に設けられていることから、アウトカメラ121の撮影方向が変更されると、インカメラ114の撮影方向も変更されることになる。インカメラ114の撮影方向が変更されると、インカメラ114によって撮影されるインカメラ動画像M1中のユーザP1の位置も移動することになる。
【0033】
図5は、実施形態において、インカメラ動画像中でユーザの位置が移動した場合における切り出し動画像の生成を模式的に示す図である。図5は、インカメラ114によって撮影されたインカメラ動画像M1中における、移動前のユーザP1の位置を点線で例示し、移動後のユーザP1の位置を実線で例示する。実施形態に係るスマートフォン100では、インカメラ動画像M1中のユーザP1を追尾部11が追尾する。そして、切り出し部12は、追尾部11が追尾したユーザP1を矩形枠R1で囲んだ領域を切り出して切り出し動画像M2を生成する。そのため、切り出し部12は、インカメラ動画像M1中におけるユーザP1の位置が移動しても、移動後のユーザP1を含めるように切り出し動画像M2を生成することができる。
【0034】
図3に戻り、合成部13は、アウトカメラ121が撮影したアウトカメラ動画像と切り出し部12が切り出した切り出し動画像M2とを合成した合成動画像を生成する。合成動画像は、例えば、アウトカメラ動画像の挿入領域に切り出し動画像M2が挿入されることで生成される。合成部13は、挿入領域の大きさに合わせて、切り出し動画像M2の合成動画像中における大きさを拡大または縮小してもよい。挿入領域の位置及び範囲を示す情報は、例えば、予め補助記憶部103に記憶される。
【0035】
図6は、実施形態における合成動画像の生成を模式的に示す図である。図6において、アウトカメラ動画像M3は、アウトカメラ121によって撮影された動画像の一例である。アウトカメラ動画像M3において、矩形枠R2は、挿入領域を模式的に示す。また、切り出し動画像M2は、インカメラ114によって撮影された動画像から切り出し部12が切り出した動画像の一例である。合成部13は、アウトカメラ動画像M3の矩形枠R2の領域に切り出し動画像M2を挿入した合成動画像M4を生成する。合成部13は、生成した合成動画像M4を、例えば、ディスプレイ113に出力してもよい。また、合成部13は、合成動画像M4を、例えば、補助記憶部103に記憶させてもよい。
【0036】
<スマートフォン100の処理フロー>
図7は、実施形態に係るスマートフォンの処理フローの一例を示す図である。図7に例示される処理フローが実行される前に、アウトカメラ121及びインカメラ114は起動されているものとする。以下、図7を参照して、スマートフォン100の処理フローについて説明する。
【0037】
T1では、追尾部11は、インカメラ114によって撮影されたインカメラ動画像M1を取得する。T2では、追尾部11は、T1で取得したインカメラ動画像M1に対して人物認識を行い、認識した人物の追尾を行う。ここでは、追尾部11は、インカメラ114によって撮影されたスマートフォン100のユーザを認識し、認識したユーザの追尾を行う。
【0038】
T3では、切り出し部12は、T2で追尾部によって追尾された人物の領域を特定し、特定した領域を矩形枠R1で囲む(図4参照)。T4では、切り出し部12は、T3で矩形枠R1で囲んだ領域を切り出した切り出し動画像M2を生成する(図4参照)。
【0039】
T5では、合成部13は、アウトカメラ121によって撮影されたアウトカメラ動画像M3を取得する。T6では、合成部13は、アウトカメラ動画像M3の挿入領域R2と切り出し動画像M2の大きさとが異なる場合には、挿入領域R2の大きさに合わせるように
、切り出し動画像M2の大きさを拡大または縮小する。ここでは、仮に、切り出し動画像M2を縮小したものとする。T7では、合成部13は、T6で縮小した切り出し動画像M2をアウトカメラ動画像M3の挿入領域R2に挿入して、合成動画像M4を生成する(図6参照)。合成部13は、例えば、合成動画像M4をディスプレイ113に出力させる。また、合成部13は、例えば、合成動画像M4を補助記憶部103に記憶させる。
【0040】
<比較例>
ここで、比較例について説明する。比較例に係るスマートフォンは、実施形態に係るスマートフォン100と同一のハードウェア構成を備える。比較例に係るスマートフォンでは、実施形態に係るスマートフォン100とは異なり、インカメラ動画像に対する人物認識や追尾は行われない。比較例に係るスマートフォンは、インカメラ動画像中に設定した所定領域を切り出して切り出し動画像を生成する。このような比較例においても、所定領域内にユーザが収まっていれば、インカメラ動画像からユーザを含む切り出し動画像を生成することができる。しかしながら、上述のように、アウトカメラ121の撮影方向が変更されると、インカメラ114の撮影方向も変更されることになる。インカメラ114の撮影方向が変更されると、インカメラ動画像中に設定された所定領域からユーザが外れてしまう虞がある。
【0041】
図8は、比較例において、インカメラ動画像中に設定した所定領域外にユーザが移動した場合を例示する図である。図8では、インカメラ動画像M1a中における、移動前のユーザP1の位置を点線で例示し、移動後のユーザP1の位置を実線で例示する。比較例に係るスマートフォンでは、インカメラ動画像M1aにおいてユーザP1が移動しても、所定領域H1の位置はユーザP1の移動に追従しない。そのため、比較例に係るスマートフォンでは、図8に例示するように、切り出し動画像M2aにはユーザP1の顔の一部しか含まれなくなる可能性がある。
【0042】
図9は、比較例における合成動画像の生成を模式的に示す図である。比較例に係るスマートフォンは、アウトカメラ動画像M3の矩形枠R2の領域に切り出し動画像M2aを挿入した合成動画像M4aを生成する。上記の通り、切り出し動画像M2aにはユーザの顔の一部しか含まれていないため、合成動画像M4aにおいてもユーザの顔の一部しか表示されていない。
【0043】
<実施形態の作用効果>
実施形態に係るスマートフォン100では、インカメラ動画像M1中のユーザP1を追尾部11が追尾し、切り出し部12が追尾部11による追尾に追従してユーザP1の周囲に矩形枠R1を設定する。そのため、インカメラ動画像M1中においてユーザP1の位置が移動しても、ユーザP1の顔を含む切り出し動画像M2を生成することができる。
【0044】
また、スマートフォン100は、インカメラ動画像M1からユーザP1を切り出した切り出し動画像M2をアウトカメラ動画像M3に挿入することにより、インカメラ動画像M1全体をアウトカメラ動画像M3に挿入する場合よりも、合成動画像においてユーザP1を大きく表示することができる。そのため、スマートフォン100は、ユーザP1の表情が分かりやすい合成動画像を生成することができる。
【0045】
<第1変形例>
実施形態に係るスマートフォン100は、例えば、アウトカメラ動画像M3における主要な被写体を認識し、認識した主要な被写体と重畳しない位置に、切り出し動画像M2を挿入してもよい。図10は、第1変形例において、アウトカメラ動画像中の主要な被写体の認識を例示する図である。スマートフォン100は、アウトカメラ動画像M3aに対して物体認識を行う。スマートフォン100は、例えば、物体認識によって認識したアウト
カメラ動画像M3a中の物体のうち、最も大きい物体S1を主要な被写体と判定してもよい。また、スマートフォン100は、アウトカメラ動画像M3aにおいて中央付近に配置される物体S2を主要な被写体と判定してもよい。スマートフォン100が主要な被写体として判定する基準は、適宜設定されればよい。ここでは、物体S2が主要な被写体と認識されたものとする。
【0046】
スマートフォン100は、主要な被写体と認識した物体S2の周囲を囲む矩形枠R3を設定する。スマートフォン100は、矩形枠R3で囲まれた領域以外の領域に、切り出し動画像を挿入する挿入領域を設定すればよい。すなわち、スマートフォン100は、矩形枠R3と重畳しないように、切り出し動画像の挿入領域を設定すればよい。なお、アウトカメラ動画像M3a中の主要な被写体は複数であってもよい。スマートフォン100は、例えば、図10に例示される物体S1、S2、S3及びS4を主要な被写体と認識してもよい。主要な被写体は、「主被写体」の一例である。
【0047】
なお、インカメラ動画像M1から切り出し動画像M2として切り出す範囲は、アウトカメラ動画像M3に切り出し動画像M2を挿入する挿入領域の大小に応じて、変更してもよい。切り出し部12は、例えば、挿入領域が大きい場合には、インカメラ動画像M1からユーザP1の顔を含む上半身を切り出した切り出し動画像M2を生成してもよい。また、切り出し部12は、例えば、挿入領域が小さい場合には、インカメラ動画像M1からユーザP1の顔を切り出した切り出し動画像M2を生成してもよい。ここで、挿入領域の大小は、例えば、切り出し動画像M2中におけるユーザP1の表情が動画像の閲覧者に把握しやすいように設定した閾値を基に判定されればよい。
【0048】
以上で開示した実施形態や変形例はそれぞれ組み合わせることができる。
【0049】
<<コンピュータが読み取り可能な記録媒体>>
コンピュータその他の機械、装置(以下、コンピュータ等)に上記いずれかの機能を実現させる情報処理プログラムをコンピュータ等が読み取り可能な記録媒体に記録することができる。そして、コンピュータ等に、この記録媒体のプログラムを読み込ませて実行させることにより、その機能を提供させることができる。
【0050】
ここで、コンピュータ等が読み取り可能な記録媒体とは、データやプログラム等の情報を電気的、磁気的、光学的、機械的、または化学的作用によって蓄積し、コンピュータ等から読み取ることができる記録媒体をいう。このような記録媒体のうちコンピュータ等から取り外し可能なものとしては、例えばフレキシブルディスク、光磁気ディスク、Compact Disc Read Only Memory(CD-ROM)、Compact Disc-Recordable(CD-R)、Compact Disc-ReWriterable(CD-RW)、Digital Versatile Disc(DVD)、ブルーレイディスク(BD)、Digital Audio Tape(DAT)、8mmテープ、フラッシュメモリなどのメモリカード等がある。また、コンピュータ等に固定された記録媒体としてハードディスクやROM等がある。
【符号の説明】
【0051】
100:スマートフォン
101:CPU
102:主記憶部
103:補助記憶部
104:通信部
110:筐体
111:スピーカー
112:マイクロフォン
113:ディスプレイ
114:インカメラ
121:アウトカメラ
11:追尾部
12:切り出し部
13:合成部
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10