特許第6911435号(P6911435)IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 富士ゼロックス株式会社の特許一覧

特許6911435情報処理装置、表示システム、及びプログラム
<>
  • 特許6911435-情報処理装置、表示システム、及びプログラム 図000002
  • 特許6911435-情報処理装置、表示システム、及びプログラム 図000003
  • 特許6911435-情報処理装置、表示システム、及びプログラム 図000004
  • 特許6911435-情報処理装置、表示システム、及びプログラム 図000005
  • 特許6911435-情報処理装置、表示システム、及びプログラム 図000006
  • 特許6911435-情報処理装置、表示システム、及びプログラム 図000007
  • 特許6911435-情報処理装置、表示システム、及びプログラム 図000008
  • 特許6911435-情報処理装置、表示システム、及びプログラム 図000009
  • 特許6911435-情報処理装置、表示システム、及びプログラム 図000010
  • 特許6911435-情報処理装置、表示システム、及びプログラム 図000011
  • 特許6911435-情報処理装置、表示システム、及びプログラム 図000012
  • 特許6911435-情報処理装置、表示システム、及びプログラム 図000013
  • 特許6911435-情報処理装置、表示システム、及びプログラム 図000014
  • 特許6911435-情報処理装置、表示システム、及びプログラム 図000015
  • 特許6911435-情報処理装置、表示システム、及びプログラム 図000016
  • 特許6911435-情報処理装置、表示システム、及びプログラム 図000017
  • 特許6911435-情報処理装置、表示システム、及びプログラム 図000018
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】6911435
(24)【登録日】2021年7月12日
(45)【発行日】2021年7月28日
(54)【発明の名称】情報処理装置、表示システム、及びプログラム
(51)【国際特許分類】
   H04N 21/431 20110101AFI20210715BHJP
   G09G 5/00 20060101ALI20210715BHJP
   G09G 5/36 20060101ALI20210715BHJP
   H04N 7/18 20060101ALI20210715BHJP
   H04N 21/4223 20110101ALI20210715BHJP
【FI】
   H04N21/431
   G09G5/00 550C
   G09G5/00 510H
   G09G5/00 530M
   G09G5/36 510M
   G09G5/00 510B
   H04N7/18 U
   H04N21/4223
【請求項の数】12
【全頁数】20
(21)【出願番号】特願2017-58241(P2017-58241)
(22)【出願日】2017年3月23日
(65)【公開番号】特開2018-160862(P2018-160862A)
(43)【公開日】2018年10月11日
【審査請求日】2020年2月28日
(73)【特許権者】
【識別番号】000005496
【氏名又は名称】富士フイルムビジネスイノベーション株式会社
(74)【代理人】
【識別番号】110001519
【氏名又は名称】特許業務法人太陽国際特許事務所
(72)【発明者】
【氏名】林 千登
【審査官】 松元 伸次
(56)【参考文献】
【文献】 特開2013−080135(JP,A)
【文献】 特開2009−139857(JP,A)
【文献】 特開2004−227158(JP,A)
【文献】 特開2013−140196(JP,A)
【文献】 特開2014−165613(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
G09G5/00−5/36
5/377−5/42
H04N7/10
7/14−7/56
21/00−21/858
(57)【特許請求の範囲】
【請求項1】
表示装置の表示画面の前に存在する複数の対象を撮影した動画が前記表示画面に表示されている場合に、前記動画のフレーム画像に基づいて前記複数の対象の中から相互に関連する複数の関連対象を選定する選定部と、
前記複数の関連対象の少なくとも一部の関連対象の画像と、前記関連対象の一部を変化させる提示用画像であって、前記関連対象の特定の部分の位置及び向きを推定することにより得られる前記特定の部分の位置及び向きに合わせて配置される前記提示用画像が合成されて得られた合成画像を、前記フレーム画像に埋め込む埋込部と、
を備えた情報処理装置。
【請求項2】
前記複数の関連対象は、予め定められた時間以上一緒に移動する複数の人、予め定められた時間以上一緒に留まる複数の人、予め定められた時間以上一緒に移動する人及び動物、又は、予め定められた時間以上一緒に留まる人及び動物である請求項1に記載の情報処理装置。
【請求項3】
前記少なくとも一部の関連対象は、予め定められた属性を有する関連対象である請求項1又は2に記載の情報処理装置。
【請求項4】
前記属性は、動物を示す属性である請求項3に記載の情報処理装置。
【請求項5】
前記フレーム画像から、前記少なくとも一部の関連対象に対応する対象領域を特定し、前記合成画像と前記対象領域とが重ならない部分領域を特定する特定部と、
前記特定部により特定された前記部分領域が前記合成画像の一部である場合、前記部分領域と前記対象領域の周囲の画像との前後関係を判定する第1判定部と、
を更に備え、
前記埋込部は、前記第1判定部により前記部分領域が前記周囲の画像よりも前と判定された場合、前記部分領域を、前記周囲の画像よりも前に埋め込む請求項1〜4のいずれか1項に記載の情報処理装置。
【請求項6】
前記フレーム画像から、前記少なくとも一部の関連対象に対応する対象領域を特定し、前記合成画像と前記対象領域とが重ならない部分領域を特定する特定部と、
前記特定部により特定された前記部分領域が前記合成画像の一部である場合、前記部分領域と前記対象領域の周囲の画像との前後関係を判定する第1判定部と、
を更に備え、
前記埋込部は、前記第1判定部により前記部分領域が前記周囲の画像よりも後と判定された場合、前記部分領域を、前記周囲の画像よりも後に埋め込む請求項1〜4のいずれか1項に記載の情報処理装置。
【請求項7】
前記埋込部は、前記特定部により特定された前記部分領域が前記対象領域の一部である場合、前記部分領域に対応する前記フレーム画像の部分に、補完画像を埋め込む請求項5又は6に記載の情報処理装置。
【請求項8】
前記補完画像と、予め定められた基準画像とを比較することにより、前記補完画像の適否を判定する第2判定部を更に備え、
前記埋込部は、前記第2判定部により前記補完画像が適切でないと判定された場合、前記補完画像の前記フレーム画像への埋め込みを中止する請求項7に記載の情報処理装置。
【請求項9】
前記合成画像が複数である場合に、前記フレーム画像における前記複数の合成画像の深度の順番を判定する第3判定部を更に備え、
前記埋込部は、前記第3判定部により判定された深度の順番に従って、前記複数の合成画像を前記フレーム画像に埋め込む請求項8に記載の情報処理装置。
【請求項10】
前記合成画像が埋め込まれた前記フレーム画像の前記表示画面への表示を報知する報知部を更に備えた請求項1〜9のいずれか1項に記載の情報処理装置。
【請求項11】
表示画面を有する表示装置と、
前記表示画面の前に存在する複数の対象を撮影する撮影装置と、
前記撮影装置により撮影された動画を取得し、取得した動画を前記表示画面に表示させる請求項1〜10のいずれか1項に記載の情報処理装置と、
を備えた表示システム。
【請求項12】
コンピュータを、請求項1〜10のいずれか1項に記載の情報処理装置が備える各部として機能させるためのプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、情報処理装置、表示システム、及びプログラムに関する。
【背景技術】
【0002】
特許文献1には、通行人の注目度を向上させる映像情報提示装置が記載されている。この映像情報提示装置では、通行人の移動経路上に撮影装置とディスプレイ装置とを設け、通行人の画像をリアルタイム映像として撮影する。動体認識部によりリアルタイム映像内の通行人部分を動体領域として認識し、動体画像切出部により通行人部分である動体画像を切り出す。CG映像作成部は、材料データ格納部内に用意された背景画像に動体画像を合成した初期画像を含むCG映像(合成画像)を作成する。映像切替部は、動体認識がなされた時点で、ディスプレイ装置に供給する映像を、リアルタイム映像からCG映像へ切り替える。通行人が、ディスプレイ画面上の自分自身が写ったリアルタイム映像に注目すると、やがてCG映像へと連続的な移行が行われる。
【0003】
また、特許文献2にも、通行人の注目度を向上させる映像情報提示装置が記載されている。この映像情報提示装置では、通行人の移動経路上に撮影装置とディスプレイ装置とを設け、通行人の画像をリアルタイム映像として表示する。提示対象映像提供手段により、広告映像などの提示対象映像(合成画像)を作成し、映像切替手段によって、リアルタイム映像と提示対象映像を時間的に切り替えて表示させる。通行人検出手段により通行人の存在を検出し、映像切替手段による切替タイミングを制御する。提示対象映像提供手段は、種々の材料データを用いてリアルタイムで提示対象映像を作成することができ、また、撮影装置によって撮影された背景画像や通行人画像を材料として利用して提示対象映像を作成することもできる。通行人が、自分自身が写ったリアルタイム映像に注目すると、やがて提示対象映像が効果的に提示される。
【先行技術文献】
【特許文献】
【0004】
【特許文献1】特開2011−175418号公報
【特許文献2】特開2011−175070号公報
【発明の概要】
【発明が解決しようとする課題】
【0005】
ところで、相互に関連のない通行人等を対象として、アピールしたい提示用画像を合成して得られる合成画像を表示させる場合、当該対象が合成画像に関心を持たない限り、合成画像によるアピール効果が期待できない。
【0006】
本発明は、相互に関連のない通行人等を対象として、アピールしたい提示用画像を合成して得られる合成画像を表示させる場合と比べ、アピール効果の高い合成画像を表示させることができる情報処理装置、表示システム、及びプログラムを提供することを目的とする。
【課題を解決するための手段】
【0007】
上記目的を達成するために、請求項1に記載の情報処理装置は、表示装置の表示画面の前に存在する複数の対象を撮影した動画が前記表示画面に表示されている場合に、前記動画のフレーム画像に基づいて前記複数の対象の中から相互に関連する複数の関連対象を選定する選定部と、前記複数の関連対象の少なくとも一部の関連対象の画像と、前記関連対象の一部を変化させる提示用画像であって、前記関連対象の特定の部分の位置及び向きを推定することにより得られる前記特定の部分の位置及び向きに合わせて配置される前記提示用画像が合成されて得られた合成画像を、前記フレーム画像に埋め込む埋込部と、を備えたものである。
【0008】
また、請求項2に記載の情報処理装置は、請求項1に記載の発明において、前記複数の関連対象が、予め定められた時間以上一緒に移動する複数の人、予め定められた時間以上一緒に留まる複数の人、予め定められた時間以上一緒に移動する人及び動物、又は、予め定められた時間以上一緒に留まる人及び動物とされたものである。
【0009】
また、請求項3に記載の情報処理装置は、請求項1又は2に記載の発明において、前記少なくとも一部の関連対象が、予め定められた属性を有する関連対象とされたものである。
【0010】
また、請求項4に記載の情報処理装置は、請求項3に記載の発明において、前記属性が、動物を示す属性とされたものである。
【0011】
また、請求項5に記載の情報処理装置は、請求項1〜4のいずれか1項に記載の発明において、前記フレーム画像から、前記少なくとも一部の関連対象に対応する対象領域を特定し、前記合成画像と前記対象領域とが重ならない部分領域を特定する特定部と、前記特定部により特定された前記部分領域が前記合成画像の一部である場合、前記部分領域と前記対象領域の周囲の画像との前後関係を判定する第1判定部と、を更に備え、前記埋込部が、前記第1判定部により前記部分領域が前記周囲の画像よりも前と判定された場合、前記部分領域を、前記周囲の画像よりも前に埋め込むものである。
【0012】
また、請求項6に記載の情報処理装置は、請求項1〜4のいずれか1項に記載の発明において、前記フレーム画像から、前記少なくとも一部の関連対象に対応する対象領域を特定し、前記合成画像と前記対象領域とが重ならない部分領域を特定する特定部と、前記特定部により特定された前記部分領域が前記合成画像の一部である場合、前記部分領域と前記対象領域の周囲の画像との前後関係を判定する第1判定部と、を更に備え、前記埋込部が、前記第1判定部により前記部分領域が前記周囲の画像よりも後と判定された場合、前記部分領域を、前記周囲の画像よりも後に埋め込むものである。
【0013】
また、請求項7に記載の情報処理装置は、請求項5又は6に記載の発明において、前記埋込部が、前記特定部により特定された前記部分領域が前記対象領域の一部である場合、前記部分領域に対応する前記フレーム画像の部分に、補完画像を埋め込むものである。
【0014】
また、請求項8に記載の情報処理装置は、請求項7に記載の発明において、前記補完画像と、予め定められた基準画像とを比較することにより、前記補完画像の適否を判定する第2判定部を更に備え、前記埋込部が、前記第2判定部により前記補完画像が適切でないと判定された場合、前記補完画像の前記フレーム画像への埋め込みを中止するものである。
【0015】
また、請求項9に記載の情報処理装置は、請求項8に記載の発明において、前記合成画像が複数である場合に、前記フレーム画像における前記複数の合成画像の深度の順番を判定する第3判定部を更に備え、前記埋込部が、前記第3判定部により判定された深度の順番に従って、前記複数の合成画像を前記フレーム画像に埋め込むものである。
【0016】
また、請求項10に記載の情報処理装置は、請求項1〜9のいずれか1項に記載の発明において、前記合成画像が埋め込まれた前記フレーム画像の前記表示画面への表示を報知する報知部を更に備えたものである。
【0017】
一方、上記目的を達成するために、請求項11に記載の表示システムは、表示画面を有する表示装置と、前記表示画面の前に存在する複数の対象を撮影する撮影装置と、前記撮影装置により撮影された動画を取得し、取得した動画を前記表示画面に表示させる請求項1〜10のいずれか1項に記載の情報処理装置と、を備えたものである。
【0018】
更に、上記目的を達成するために、請求項12に記載のプログラムは、コンピュータを、請求項1〜10のいずれか1項に記載の情報処理装置が備える各部として機能させるためのものである。
【発明の効果】
【0019】
請求項1、請求項11、及び請求項12に係る発明によれば、相互に関連のない人等を対象として、アピールしたい提示用画像を合成して得られる合成画像を表示させる場合と比べ、アピール効果の高い合成画像を表示させることができる。
【0020】
請求項2に係る発明によれば、親子や、友人、同僚、顔見知り等の関係にある可能性が高い複数の人をアピール対象とすることができる結果、よりアピール効果を高めることができる。
【0021】
請求項3に係る発明によれば、提示用画像を合成する関連対象として、所望の関連対象をフレーム画像に埋め込むことができる。
【0022】
請求項4に係る発明によれば、提示用画像を合成する関連対象として、アピールすべき人の関心が高いと考えられる動物が適用されるため、よりアピール効果を高めることができる。
【0023】
請求項5及び請求項6に係る発明によれば、違和感のない自然な合成画像を提供することができる。
【0024】
請求項7に係る発明によれば、フレーム画像の対応部分に補完画像を適用しない場合と比べ、より違和感のない自然な合成画像を提供することができる。
【0025】
請求項8に係る発明によれば、不自然な補完画像が埋め込まれないようにすることができる。
【0026】
請求項9に係る発明によれば、フレーム画像に複数の合成画像を埋め込む場合でも、違和感のない自然な合成画像を提供することができる。
【0027】
請求項10に係る発明によれば、合成画像が埋め込まれたフレーム画像の表示画面への表示を報知しない場合と比べ、より高いアピール効果を得ることができる。
【図面の簡単な説明】
【0028】
図1】第1の実施形態に係る表示システムの構成の一例を示すブロック図である。
図2】第1の実施形態に係る表示システムを構成する各装置の設置状態の一例を示す斜視図である。
図3】第1の実施形態に係る情報処理装置の機能的な構成の一例を示すブロック図である。
図4】第1の実施形態に係るプログラムの処理の流れの一例を示すフローチャートである。
図5】第1の実施形態に係るプログラムにおける深度判定処理の流れの一例を示すフローチャートである。
図6】実施形態に係るフレーム画像の一例を示す図である。
図7】実施形態に係るフレーム画像から提示用画像を合成する通行人を選定した状態の一例を示す図である。
図8】実施形態に係る通行人の画像と提示用画像とに基づいて得られる合成画像の一例を示す図である。
図9】実施形態に係るフレーム画像から通行人に対応する対象領域を特定した状態の一例を示す図である。
図10】実施形態に係る合成画像及び対象領域の一例を示す図である。
図11】実施形態に係る合成画像及び対象領域を重ねた状態の一例を示す図である。
図12】実施形態に係る合成画像が埋め込まれたフレーム画像の一例を示す図である。
図13】実施形態に係る通行人と他の提示用画像とを合成して得られる合成画像の一例を示す図である。
図14】実施形態に係る通行人が連れているペットの画像と提示用画像とを合成して得られる合成画像の一例を示す図である。
図15】第2の実施形態に係る情報処理装置の機能的な構成の一例を示すブロック図である。
図16】第3の実施形態に係る情報処理装置の機能的な構成の一例を示すブロック図である。
図17】第3の実施形態に係る表示システムを構成する各装置の設置状態の一例を示す斜視図である。
【発明を実施するための形態】
【0029】
以下、図面を参照して、本発明を実施するための形態の一例について詳細に説明する。
【0030】
[第1の実施形態]
図1は、第1の実施形態に係る表示システム90の構成の一例を示すブロック図である。
図1に示すように、本第1の実施形態に係る情報処理装置10Aは、ネットワークNを介して表示装置20及び撮影装置30の各々と接続されている。
【0031】
情報処理装置10Aは、制御部12と、記憶部14と、操作部16と、通信部18と、を備える。情報処理装置10Aとしては、例えば、サーバ装置や、パーソナルコンピュータ(PC)等の汎用的なコンピュータが適用される。
【0032】
制御部12は、CPU(Central Processing Unit)12A、ROM(Read Only Memory)12B、RAM(Random Access Memory)12C、及び入出力インターフェース(I/O)12Dを備えており、これら各部がバスを介して各々接続されている。
【0033】
I/O12Dには、記憶部14と、操作部16と、通信部18と、を含む各機能部が接続されている。これらの各機能部は、I/O12Dを介して、CPU12Aと相互に通信可能とされる。
【0034】
制御部12は、情報処理装置10Aの全体の動作を制御するメイン制御部の一部として構成されてもよい。制御部12の各ブロックの一部又は全部には、例えば、LSI(Large Scale Integration)等の集積回路又はIC(Integrated Circuit)チップセットが用いられる。上記各ブロックに個別の回路を用いてもよいし、一部又は全部を集積した回路を用いてもよい。上記各ブロック同士が一体として設けられてもよいし、一部のブロックが別に設けられてもよい。また、上記各ブロックのそれぞれにおいて、その一部が別に設けられてもよい。制御部12の集積化には、LSIに限らず、専用回路又は汎用プロセッサを用いてもよい。
【0035】
記憶部14としては、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)、フラッシュメモリ等が用いられる。記憶部14には、本実施形態に係る合成画像を表示する処理を実行するためのプログラム14Aが記憶される。なお、このプログラム14Aは、ROM12Bに記憶されていてもよい。
【0036】
プログラム14Aは、例えば、情報処理装置10Aに予めインストールされていてもよい。プログラム14Aは、不揮発性の記憶媒体に記憶して、又はネットワークを介して配布して、情報処理装置10Aに適宜インストールすることで実現してもよい。なお、不揮発性の記憶媒体の例としては、CD-ROM、光磁気ディスク、HDD、DVD-ROM、フラッシュメモリ、メモリカード等が想定される。
【0037】
操作部16には、テンキーやアルファベットキー等の各種の操作キーが設けられている。操作部16は、情報処理装置10Aの操作者から各種の指示を受け付ける。
【0038】
通信部18は、LAN(Local Area Network)、WAN(Wide Area Network)等のネットワークNに接続されており、表示装置20及び撮影装置30の各々とネットワークNを介して通信する。この例の場合、通信部18とネットワークNとは有線で接続されるが、無線で接続してもよい。
【0039】
表示装置20には、例えば、液晶ディスプレイ(LCD:Liquid Crystal Display)や有機EL(Electro Luminescence)ディスプレイ等が用いられる。
【0040】
撮影装置30には、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の固体撮像素子を備えたビデオカメラ等が用いられる。
【0041】
なお、本実施形態では、情報処理装置10A、表示装置20、及び撮影装置30の各々が別体で設けられた場合について示しているが、表示装置20及び撮影装置30が一体的に設けられてもよい。また、情報処理装置10Aは、表示装置20と一体的に設けられてもよい。
【0042】
図2は、第1の実施形態に係る表示システム90を構成する各装置の設置状態の一例を示す斜視図である。
図2に示すように、表示装置20は、大画面のディスプレイ装置であり、店舗40の近傍(ここでは、店舗40の上部)に設置される。撮影装置30は、表示装置20の近傍(ここでは、表示装置20の上部)に設置される。この例では、複数の撮影装置30が所定の間隔をあけて設置される。複数の撮影装置30を用いて、被写体までの距離を表す深度情報を取得する。この深度情報の具体例については後述する。なお、撮影装置30は、必ずしも複数である必要はなく、1台であっても被写体までの距離が判るものであれば適用可能である。また、情報処理装置10Aの設置場所は特に限定されるものではなく、店舗40から離れた場所であってもよい。
【0043】
本実施形態に係る撮影装置30は、表示装置20の表示画面22の前に存在する複数の対象の動画M1を撮影する。ここでいう表示画面22の前とは、表示画面22の正面のみならず表示画面22の斜め前も含む。表示装置20の表示画面22には、情報処理装置10Aを介して、撮影装置30で撮影した動画M1がリアルタイムで表示される。なお、ここでいう複数の対象とは、例えば、図2に示す複数の通行人A1〜A3として表される。この場合、表示画面22には、複数の通行人A1〜A3を含む動画M1がリアルタイムで表示される。また、本実施形態では、図2に示すように、複数の通行人A1〜A3を含む動画M1が、通行人A3の前に通行人A2が位置され、通行人A2の前に通行人A1が位置される状態で表示される場合について説明する。
【0044】
図3は、第1の実施形態に係る情報処理装置10Aの機能的な構成の一例を示すブロック図である。
【0045】
図3に示すように、本第1の実施形態に係る情報処理装置10AのCPU12Aは、入力部50、画像切出部51、選定部52、画像合成部53、対象領域特定部54、部分領域特定部55、深度判定部56、埋込部57、及び出力部58として機能する。CPU12Aは、記憶部14に記憶されているプログラム14AをRAM12Cに書き込んで、実行することにより、上記各部として機能する。
【0046】
ところで、本実施形態では、通りがかりの通行人に対して表示装置20により合成画像を表示して、店舗40に関する何らかの広告を行う場合について想定する。この場合、相互に関連のない通行人(例えば、単独で歩いている通行人等)に対して合成画像を表示するよりも、相互に関連する複数の通行人に対して合成画像を表示するほうが、アピール効果が高いと考えられる。なお、ここでいう相互に関連する複数の通行人とは、例えば、予め定められた時間以上一緒に移動している複数の通行人や、予め定められた時間以上一緒に留まっている複数の通行人等である。この場合、複数の通行人は、親子や、友人、同僚、顔見知り等である可能性が高いため、複数の通行人の少なくとも1人が合成画像に関心を持てば、複数の通行人の全員に合成画像が周知され、アピール効果が高まる効果が期待できる。
【0047】
つまり、相互に関連のない通行人を対象とした場合、この通行人が関心を持たない限り、合成画像によるアピール効果は期待できない。これに対して、相互に関連する複数の通行人を対象とした場合、当該複数の通行人の誰かが関心を持てば、複数の通行人の全員が合成画像を見る可能性が高まり、合成画像によるアピール効果が期待できる。
【0048】
そこで、本第1の実施形態に係る情報処理装置10Aでは、選定部52が、表示画面22の前に存在する複数の対象を撮影した動画がリアルタイムで表示画面22に表示されている場合に、相互に関連する複数の関連対象を選定する。ここでいう複数の関連対象とは、動画のフレーム画像に基づいて複数の対象の中から選定される対象である。そして、埋込部57が、複数の関連対象の少なくとも一部の関連対象の画像と提示用画像とに基づいて得られた合成画像をフレーム画像に埋め込む。なお、以下では、提示用画像を合成する関連対象として、通行人を例示して説明するが、これに限定されるものではない。提示用画像を合成する関連対象としては、通行人が連れている通行人以外の動物(以下、本実施形態ではペットという。)でもよい。
【0049】
本第1の実施形態によれば、相互に関連する複数の通行人のうち少なくとも1人の通行人について合成画像を表示させるため、相互に関連のない1人の通行人について合成画像を表示させる場合と比べ、高いアピール効果が得られる。
【0050】
以下、図4及び図5を参照して、第1の実施形態に係る情報処理装置10Aの作用を説明する。なお、図4は、第1の実施形態に係るプログラム14Aの処理の流れの一例を示すフローチャートである。図5は、第1の実施形態に係るプログラム14Aにおける深度判定処理の流れの一例を示すフローチャートである。
【0051】
まず、情報処理装置10Aは、操作者による操作等によりプログラム14Aの実行が指示されると、入力部50を介して、撮影装置30により撮影された複数の通行人を含む動画情報の入力を受け付ける。なお、撮影装置30が複数の通行人を撮影していることを検知した場合に、プログラム14Aの実行を指示してもよい。
【0052】
なお、図2の例では、複数の通行人A1〜A3を含む動画M1の入力を受け付ける。そして、表示画面22には、入力部50を介して動画M1がリアルタイムで表示される。
【0053】
図4のステップ100では、画像切出部51が、入力部50により入力を受け付けた動画情報から、処理の対象とするフレーム画像を切り出す。
【0054】
図6は、本実施形態に係るフレーム画像F1の一例を示す図である。
【0055】
図6に示すように、動画M1から切り出されたフレーム画像F1には、複数の通行人A1〜A3を示す画像が含まれる。なお、どのフレーム画像を処理対象として切り出すかは特に限定しないが、フレーム画像における複数の通行人A1〜A3を表す画像の割合が所定の割合より大きいフレーム画像を切り出すことが望ましい。
【0056】
ステップ102では、選定部52が、フレーム画像から相互に関連する複数の通行人が選定できたか否かを判定する。相互に関連する複数の通行人を選定できたと判定した場合(肯定判定の場合)、ステップ104に移行する。一方、相互に関連する複数の通行人が選定できないと判定した場合(否定判定の場合)、ステップ100に戻り処理を繰り返す。
【0057】
図6の例では、相互に関連する複数の通行人として、予め定められた時間以上一緒に移動する複数の通行人A1〜A3が選定される。すなわち、選定部52は、画像切出部51により切り出されたフレーム画像F1から相互に関連する複数の通行人A1〜A3を選定する。具体的には、機械学習による物体検出技術を用いて、相互に関連する複数の通行人A1〜A3を選定する。例えば、物体検出に関するFaster-RCNN(Region-based Convolutional Neural Network)やSSD(Single Shot MultiBox Detector)、FPGA(Field-Programmable Gate Array)等に組み込まれたCNN(Convolutional Neural Network)等の技術が適用される。これらの技術により、相互に関連する複数の通行人A1〜A3が選定される。なお、相互に関連する複数の通行人の他の例として、予め定められた時間以上一緒に留まる複数の通行人や、予め定められた時間以上話しながら一緒に移動する複数の通行人、予め定められた時間以上話しながら一緒に留まる複数の通行人等を選定してもよい。
【0058】
ステップ104では、選定部52が、相互に関連する複数の通行人から、提示用画像を合成する少なくとも一部の関連対象として、予め定められた属性を有する関連対象を選定する。予め定められた属性を有する関連対象の一例として、以下のような1人の通行人を選定する。
【0059】
図7は、本実施形態に係るフレーム画像F1から提示用画像を合成する通行人A2を選定した状態の一例を示す図である。
【0060】
図7に示す通行人A2の属性は、例えば、「髪の長い女性」という属性である。なお、この属性としては、通行人が連れるペットを示す属性としてもよい。この属性に基づく選定処理についても機械学習による物体検出技術を用いることで実現できる。この機械学習による物体検出技術を用いることで、「スカートをはいた女性」や、「眼鏡をかけた女性」、「若い女性」、「熟年の男性」等、様々な属性によって、通行人を選定可能とされる。なお、属性として、例えば、「若い女性」を採用すれば、複数の通行人A1〜A3の全員を、提示用画像を合成する関連対象として選定することが可能となる。また、属性として、「4つ足の動物」、「犬」等を採用すれば、通行人が連れる犬等のペットを、提示用画像を合成する関連対象として選定することが可能となる。
【0061】
ステップ106では、画像合成部53が、選定部52により合成対象として選定された通行人の画像と、提示用画像とに基づいて合成画像を生成する。この場合、通行人の画像の少なくとも一部に、提示用画像が合成されて合成画像が生成される。
【0062】
図8は、本実施形態に係る通行人A2の画像と提示用画像b11〜b14とに基づいて得られる合成画像B1の一例を示す図である。
【0063】
図8に示すように、合成画像B1は、通行人A2の画像の一部と提示用画像b11〜b14とが合成されて生成される。合成画像B1は、例えば、機械学習等を用いて通行人A2における体の特定の部分の位置や向きを推定し、推定した位置や向きに合わせて提示用画像b11〜b14を合成することで生成される。また、通行人A2の3次元モデルを推定し、推定した3次元モデルに合わせて提示用画像b11〜b14を適切に配置した上で、コンピュータグラフィック等を利用して合成画像を生成してもよい。さらに、簡易的に影等を付けて立体的な合成画像としてもよい。なお、提示用画像b11、b12は、洋服の肩のデザインを変化させた状態を示す画像であり、提示用画像b13、b14は、髪型をショートカットにした状態を示す画像である。
【0064】
ステップ108では、対象領域特定部54が、フレーム画像から、提示用画像を合成する通行人に対応する対象領域を特定する。
【0065】
図9は、本実施形態に係るフレーム画像F1から通行人A2に対応する対象領域R1を特定した状態の一例を示す図である。
【0066】
図9に示す対象領域R1は、フレーム画像F1における通行人A2の画像に対応する領域であり、例えば、機械学習による画像認識技術を用いて特定される。具体的には、Graph Cutsや画像認識に関するDeepMask等の技術が適用される。
【0067】
ステップ110では、部分領域特定部55が、画像合成部53で生成された合成画像と、対象領域特定部54で特定された対象領域とが重ならない部分領域を特定する。対象領域特定部54及び部分領域特定部55は、特定部の一例である。なお、この例では、説明の便宜上、対象領域特定部54及び部分領域特定部55を別々に示しているが、1つの特定部としてもよい。
【0068】
図10は、本実施形態に係る合成画像B1及び対象領域R1の一例を示す図である。
図11は、本実施形態に係る合成画像B1及び対象領域R1を重ねた状態の一例を示す図である。
【0069】
部分領域特定部55は、例えば、図10に示す対象領域R1と合成画像B1とを重ねた場合に、対象領域R1と合成画像B1とが重ならない領域を、部分領域として特定する。
【0070】
図11の左図に示すように、対象領域R1を合成画像B1の上に重ねた場合、部分領域r11、r12が特定される。これら部分領域r11、r12は、対象領域R1には存在せず、合成画像B1に存在する領域である。つまり、部分領域r11、r12は、図8に示す提示用画像b11、b12に対応する領域であり、合成画像B1の一部とされる。
【0071】
一方、図11の右図に示すように、合成画像B1を対象領域R1の上に重ねた場合、部分領域r13、r14が特定される。これら部分領域r13、r14は、対象領域R1に存在し、合成画像B1には存在しない領域である。つまり、部分領域r13、r14は、図8に示す提示用画像b13、b14を合成することにより通行人A2の画像領域から除去された領域であり、対象領域R1の一部とされる。
【0072】
ステップ112では、深度判定部56が、図5に示すサブルーチンに従って、部分領域特定部55により特定された部分領域について深度判定処理を行う。
【0073】
図5のステップ200では、深度判定部56が、部分領域特定部55により特定された部分領域が合成画像の一部であるか否かを判定する。部分領域が合成画像の一部ではないと判定した場合(否定判定の場合)、ステップ202に移行する。一方、部分領域が合成画像の一部であると判定した場合(肯定判定の場合)、ステップ204に移行する。
【0074】
ステップ202では、深度判定部56が、部分領域を対象領域の一部と判定し、ステップ210に移行する。
【0075】
ステップ204では、深度判定部56が、部分領域の深度<対象領域の周囲の画像の深度、の関係を満たすか否かを判定する。当該関係を満たすと判定した場合(肯定判定の場合)、ステップ206に移行する。一方、当該関係を満たさないと判定した場合(否定判定の場合)、ステップ208に移行する。
【0076】
ステップ206では、深度判定部56が、部分領域が対象領域の周囲の画像の前と判定する。
【0077】
ステップ208では、深度判定部56が、部分領域が対象領域の周囲の画像の後ろと判定する。
【0078】
すなわち、深度判定部56は、部分領域特定部55により特定された部分領域が合成画像の一部である場合、部分領域と対象領域の周囲の画像との前後関係を判定する。具体的には、一例として、図2に示す複数の撮影装置30を用いて被写体までの距離を表す深度情報を取得し、取得した深度情報をフレーム画像の各画素に対応付けておく方法が挙げられる。なお、複数の撮影装置30の代わりに、赤外線センサや超音波センサ等を用いて被写体までの距離を表す深度情報を取得してもよい。また、この場合も機械学習を用いて前後関係を判定してもよい。深度判定部56は、第1判定部の一例である。
【0079】
ステップ210では、深度判定部56が、全ての部分領域について深度を判定したか否かを判定する。全ての部分領域について深度を判定した場合(肯定判定の場合)、サブルーチンの処理を終了し、図4のステップ114に移行する。一方、全ての部分領域について深度を判定していない場合(否定判定の場合)、ステップ200に戻り一連の処理を繰り返す。
【0080】
図4のステップ114では、埋込部57が、深度判定部56による判定結果に従って、画像合成部53により生成された合成画像をフレーム画像に埋め込む。具体的には、埋込部57は、深度判定部56により部分領域が対象領域の周囲の画像よりも前と判定された場合、部分領域を、周囲の画像よりも前に埋め込む。また、埋込部57は、深度判定部56により部分領域が対象領域の周囲の画像よりも後と判定された場合、部分領域を、周囲の画像よりも後ろに埋め込む。
【0081】
図11の例では、部分領域r11が通行人A3の画像の前に埋め込まれ、部分領域r12の一部が通行人A1の画像の後ろに埋め込まれる。
【0082】
一方、埋込部57は、深度判定部56により部分領域が対象領域の一部であると判定された場合、部分領域に対応するフレーム画像の部分に補完画像を埋め込む。つまり、合成前の元画像に存在し合成画像には存在しない領域に補完画像を埋め込み、違和感を軽減させる。なお、補完画像としては、例えば、補完画像を埋め込むフレーム画像の前又は後ろのフレーム画像から対応部分の画素値を取得してもよいし、補完画像を埋め込むフレーム画像の前及び後の各々のフレーム画像から対応部分の画素値の平均を取得してもよい。この場合、例えば、補完画像を埋め込むフレーム画像の前及び後のフレーム画像を一時的にバッファ(図示せず)に格納しておくことで、対応部分の画素値が取得される。
【0083】
図11の例では、部分領域r13、r14に対応する部分に補完画像が埋め込まれる。
【0084】
そして、出力部58が、埋込部57により合成画像が埋め込まれたフレーム画像を表示装置20に出力し、表示装置20の表示画面22に表示させる。なお、一定時間、合成画像が埋め込まれたフレーム画像を連続的に動画で表示させ、一定時間が経過した後に別の関連する複数の通行人に対象を切り替えて、合成画像表示処理を継続させる。
【0085】
図12は、本実施形態に係る合成画像B1が埋め込まれたフレーム画像F1の一例を示す図である。
【0086】
図12に示すように、フレーム画像F1は、通行人A2についての合成画像B1が埋め込まれ、合成画像B1が埋め込まれたフレーム画像F1は表示画面22に表示される。
【0087】
本第1の実施形態によれば、相互に関連する複数の通行人のうち少なくとも1人の通行人について合成画像を表示させるため、相互に関連のない1人の通行人について合成画像を表示させる場合と比べ、高いアピール効果が得られる。
【0088】
すなわち、上記第1の実施形態では、1人の通行人A2の髪型及び洋服のデザインを変化させた合成画像を表示させたが、通行人A2は、他の通行人A1、A3と相互に関連し、友人等の関係である可能性が高いとされる。通行人A1〜A3の関係により、仮に通行人A2が合成画像に関心を持たなかったとしても、他の通行人A1、A3が通行人A2の合成画像を見て、「ショートカットが似合っている。」等の感想を伝える可能性が高いと考えられる。他の通行人A1、A3の感想により通行人A2が合成画像の髪型や洋服のデザインを気に入る可能性が高まり、結果として高いアピール効果が得られる。
【0089】
図13は、本実施形態に係る通行人A2の画像に他の提示用画像b15を合成して得られる合成画像B2の一例を示す図である。
【0090】
図13に示すように、合成画像B2は、通行人A2の画像と他の提示用画像b15とが合成されて生成される。本例の提示用画像b15は、ネックレスを表す画像である。提示用画像b15は、広告の対象に応じて予め準備し、記憶部14等に記憶しておけばよい。提示用画像b15には、例えば、ネックレス以外のアクセサリーや、洋服、帽子、ハンドバック、カバン、靴等、様々な商品の画像が適用される。
【0091】
以上では、提示用画像を合成する関連対象を通行人として説明したが、提示用画像を合成する関連対象を、通行人が連れるペットとしてもよい。
【0092】
図14は、本実施形態に係る通行人A4が連れているペットの画像と提示用画像b16、b17とを合成して得られる合成画像B3の一例を示す図である。
【0093】
図14に示すように、選定部52は、相互に関連する複数の関連対象として、予め定められた時間以上一緒に移動する通行人A4及びペットを選定し、更に、提示用画像b16、b17を合成する関連対象として、ペットを選定する。なお、予め定められた時間以上一緒に留まる通行人A4及びペットを選定してもよい。本例の提示用画像b16は、ペット用の帽子を表す画像であり、提示用画像b17は、ペット用のマフラーを表す画像である。合成画像B3は、通行人A4が連れるペットの画像と提示用画像b16、b17とが合成されて生成される。
【0094】
この場合、大部分の飼い主は、ペットに強い関心を持っていることが多いと考えられる。従って、通行人A4に対してかわいい合成画像B3を提示することで、合成画像B3の商品を気に入る可能性が高く、高いアピール効果が得られる。
【0095】
[第2の実施形態]
図15は、第2の実施形態に係る情報処理装置10Bの機能的な構成の一例を示すブロック図である。
【0096】
図15に示すように、本第2の実施形態に係る情報処理装置10BのCPU12Aは、上記第1の実施形態で説明した各部に加え、更に、適否判定部59、及び深度順判定部60として機能する。CPU12Aは、記憶部14に記憶されているプログラム14AをRAM12Cに書き込んで、実行することにより、上記各部として機能する。
【0097】
上記第1の実施形態では、合成前の元画像に存在し合成画像には存在しない領域に対して補完画像を埋め込む処理を行っていたが、例えば、補完画像として、人の体、特に、顔や手足等を埋め込む場合、不自然な画像が埋め込まれる場合がある。
【0098】
これに対して、本第2の実施形態に係る情報処理装置10Bでは、適否判定部59が、補完画像と基準画像とを比較することにより、補完画像の適否を判定する。適否判定部59は、第2判定部の一例である。
【0099】
具体的には、複数種類の基準画像が予め記憶部14に記憶されている。すなわち、補完画像として許容される適切な画像と、補完画像として許容できない不適切な画像とを、機械学習により学習し、これらの学習データを複数種類の基準画像として記憶部14に記憶しておく。人の顔の場合、例えば、目が2つの画像は適切な画像として学習され、目が3つ以上の画像は不適切な画像として学習される。適否判定部59は、補完画像と基準画像とを比較し、補完画像が許容される適切な画像であるか、あるいは、許容できない不適切な画像であるかを判定する。適切な画像と判定された場合、補完画像が埋め込まれた状態のフレーム画像が表示される。一方、不適切な画像と判定された場合、補完画像のフレーム画像への埋め込みを中止する。なお、不適切な画像と判定された場合、合成画像の表示自体を中止してもよい。
【0100】
一方、上記では、1フレーム画像中の合成画像が1つの場合について説明したが、本実施形態は、1フレーム画像中の合成画像が複数の場合についても同様に適用可能である。
【0101】
この場合、深度順判定部60が、フレーム画像における複数の合成画像の深度の順を判定する。例えば、図2に示す複数の撮影装置30を用いて被写体までの距離を表す深度情報を取得し、取得した深度情報をフレーム画像の各画素に対応付けておき、この深度情報に基づいて、複数の合成画像の深度の順番を判定する。深度順判定部60は、第3判定部の一例である。
【0102】
埋込部57は、深度順判定部60により判定された深度の順番に従って、複数の合成画像をフレーム画像に埋め込む。具体的には、深度が深い、つまり、撮影装置30との距離が遠い合成画像から順番にフレーム画像に埋め込む。
【0103】
[第3の実施形態]
図16は、第3の実施形態に係る情報処理装置10Cの機能的な構成の一例を示すブロック図である。
【0104】
図16に示すように、本第3の実施形態に係る情報処理装置10CのCPU12Aは、上記第2の実施形態で説明した各部に加え、更に、報知部61として機能する。CPU12Aは、記憶部14に記憶されているプログラム14AをRAM12Cに書き込んで、実行することにより、上記各部として機能する。
【0105】
上記第1、第2の実施形態では、相互に関連する複数の通行人の誰かが表示画面22を見ることを前提にしているが、通行人によっては全く表示画面22を見ない可能性がある。
【0106】
そこで、本第3の実施形態に係る情報処理装置10Cでは、報知部61が、合成画像が埋め込まれたフレーム画像の表示画面22への表示を報知する。この報知により、相互に関連する複数の通行人の誰かが表示画面22を見る可能性が高まる。なお、報知のタイミングとしては、フレーム画像が表示画面22に表示された直後でもよいし、フレーム画像が表示画面22に表示される直前でもよい。更には、フレーム画像が表示画面22に表示されるタイミングと同時でもよい。
【0107】
図17は、第3の実施形態に係る表示システム90を構成する各装置の設置状態の一例を示す斜視図である。
図17に示すように、報知部61は、相互に関連する複数の通行人A1〜A3の少なくとも1人が表示画面22を向くようにコーションを出す。このコーションの一例として、表示画面22に特定人物61Aの画像を表示させ、通行人A1〜A3に、特定人物61Aから見られている気配を感じさせる。特定人物61Aとしては、例えば、イケメン俳優や、女優、アイドル等のように、通行人A1〜A3に不快感を与えない、誰でも知っている人物のほうが望ましい。また、この特定人物61Aの画像は、通行人A1〜A3を含む実際の動画として撮影されたものではないため、常に表示させていると、通行人A1〜A3に少し不気味な感じを与える可能性がある。従って、一定時間表示させた後に消去することが望ましい。
【0108】
また、別のコーションとして、通行人A1〜A3が気付くように、レーザーポインタ61Bを用いて、低エネルギーのレーザー光を照射するようにしてもよい。例えば、JIS C 6802で規定されるレーザークラスが「クラス1」又は「クラス1M」程度の目に害のない安全なレーザー光を用いる。但し、通行人A1〜A3に直接照射するのは、不快感を与える可能性があるため、通行人A1〜A3が視認できる、店舗40の前の特定の場所等に照射することが望ましい。
【0109】
また、表示画面22に視線を向けた複数の通行人のグループを、画像合成処理の対象としてもよい。この場合、公知の視線検出技術を利用して、複数の通行人の少なくとも1人の視線を検出する。表示画面22に視線を向けている通行人が1人でもいるグループは、グループの全員が表示画面22を見る可能性が高く、より高いアピール効果が得られる。
【0110】
以上、実施形態として情報処理装置及び表示システムを例示して説明した。実施形態は、情報処理装置が備える各部の機能をコンピュータに実行させるためのプログラムの形態としてもよい。実施形態は、このプログラムを記憶したコンピュータが読み取り可能な記憶媒体の形態としてもよい。
【0111】
その他、上記実施形態で説明した情報処理装置の構成は、一例であり、主旨を逸脱しない範囲内において状況に応じて変更してもよい。
【0112】
また、上記実施形態で説明したプログラムの処理の流れも、一例であり、主旨を逸脱しない範囲内において不要なステップを削除したり、新たなステップを追加したり、処理順序を入れ替えたりしてもよい。
【0113】
また、上記実施形態では、プログラムを実行することにより、実施形態に係る処理がコンピュータを利用してソフトウェア構成により実現される場合について説明したが、これに限らない。実施形態は、例えば、ハードウェア構成や、ハードウェア構成とソフトウェア構成との組み合わせによって実現してもよい。
【符号の説明】
【0114】
10A〜10C 情報処理装置
12 制御部
12A CPU
12B ROM
12C RAM
12D I/O
14 記憶部
14A プログラム
16 操作部
18 通信部
20 表示装置
22 表示画面
30 撮影装置
40 店舗
50 入力部
51 画像切出部
52 選定部
53 画像合成部
54 対象領域特定部
55 部分領域特定部
56 深度判定部
57 埋込部
58 出力部
59 適否判定部
60 深度順判定部
61 報知部
61A 特定人物
61B レーザーポインタ
90 表示システム
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14
図15
図16
図17