IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 富士フイルム株式会社の特許一覧

特開2024-142123画像処理システム、画像処理方法、及びプログラム
<>
  • 特開-画像処理システム、画像処理方法、及びプログラム 図1
  • 特開-画像処理システム、画像処理方法、及びプログラム 図2
  • 特開-画像処理システム、画像処理方法、及びプログラム 図3
  • 特開-画像処理システム、画像処理方法、及びプログラム 図4
  • 特開-画像処理システム、画像処理方法、及びプログラム 図5
  • 特開-画像処理システム、画像処理方法、及びプログラム 図6
  • 特開-画像処理システム、画像処理方法、及びプログラム 図7
  • 特開-画像処理システム、画像処理方法、及びプログラム 図8
  • 特開-画像処理システム、画像処理方法、及びプログラム 図9
  • 特開-画像処理システム、画像処理方法、及びプログラム 図10
  • 特開-画像処理システム、画像処理方法、及びプログラム 図11
  • 特開-画像処理システム、画像処理方法、及びプログラム 図12
  • 特開-画像処理システム、画像処理方法、及びプログラム 図13
  • 特開-画像処理システム、画像処理方法、及びプログラム 図14
  • 特開-画像処理システム、画像処理方法、及びプログラム 図15
  • 特開-画像処理システム、画像処理方法、及びプログラム 図16
  • 特開-画像処理システム、画像処理方法、及びプログラム 図17
  • 特開-画像処理システム、画像処理方法、及びプログラム 図18
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024142123
(43)【公開日】2024-10-10
(54)【発明の名称】画像処理システム、画像処理方法、及びプログラム
(51)【国際特許分類】
   H04N 5/91 20060101AFI20241003BHJP
   H04N 5/77 20060101ALI20241003BHJP
   H04N 5/92 20060101ALI20241003BHJP
   H04N 23/60 20230101ALI20241003BHJP
   H04N 23/61 20230101ALI20241003BHJP
   H04N 23/63 20230101ALI20241003BHJP
【FI】
H04N5/91
H04N5/77
H04N5/92 010
H04N23/60
H04N23/61
H04N23/63 300
【審査請求】未請求
【請求項の数】14
【出願形態】OL
(21)【出願番号】P 2023054143
(22)【出願日】2023-03-29
(71)【出願人】
【識別番号】306037311
【氏名又は名称】富士フイルム株式会社
(74)【代理人】
【識別番号】100083116
【弁理士】
【氏名又は名称】松浦 憲三
(74)【代理人】
【識別番号】100170069
【弁理士】
【氏名又は名称】大原 一樹
(74)【代理人】
【識別番号】100128635
【弁理士】
【氏名又は名称】松村 潔
(74)【代理人】
【識別番号】100140992
【弁理士】
【氏名又は名称】松浦 憲政
(74)【代理人】
【識別番号】100153822
【弁理士】
【氏名又は名称】増田 重之
(72)【発明者】
【氏名】石田 一樹
(72)【発明者】
【氏名】田中 康一
(72)【発明者】
【氏名】藤本 真一
(72)【発明者】
【氏名】小林 俊輝
【テーマコード(参考)】
5C122
【Fターム(参考)】
5C122DA03
5C122DA04
5C122FA18
5C122FH10
5C122FH11
5C122FK28
5C122GA21
5C122GA34
5C122HB01
(57)【要約】      (修正有)
【課題】動画に対して有効なチャプタ(目印)を付与する画像処理システム、画像処理方法及びプログラムを提供する。
【解決手段】アクションカメラ100及びスマートフォン200とネットワークNWで接続されている画像処理システム10であって、アクションカメラで撮影された、第1の時刻情報を有するメイン動画を取得し、スマートフォンで撮影された、第2の時刻情報を有するサブ静止画又はサブ動画を取得し、取得したサブ静止画又はサブ動画と、第2の時刻情報に対応するメイン動画との比較結果に基づいて、メイン動画にチャプタを付与する。
【選択図】図7
【特許請求の範囲】
【請求項1】
プロセッサを備える画像処理システムであって、
前記プロセッサは、
第1の撮影装置で撮影された、第1の時刻情報を有する第1の動画を取得し、
第2の撮影装置で撮影された、第2の時刻情報を有する第2の静止画又は第2の動画を取得し、
取得された前記第2の静止画又は前記第2の動画と、前記第2の時刻情報に対応する前記第1の動画との比較結果に基づいて、前記第1の動画にチャプタを付与する、
画像処理システム。
【請求項2】
前記プロセッサは、
取得された前記第2の静止画又は前記第2の動画のシーンを解析し、第2の解析結果を生成し、
前記第2の時刻情報に対応する前記第1の時刻情報を有する前記第1の動画のシーンの解析を行って第1の解析結果を生成し、
前記第1の解析結果及び前記第2の解析結果の前記比較結果に基づいて、前記第1の動画に前記チャプタを付与する、
請求項1に記載の画像処理システム。
【請求項3】
前記プロセッサは、
取得された前記第2の静止画又は前記第2の動画に含まれる少なくとも1以上の画像と、前記第2の時刻情報に対応する前記第1の時刻情報を有する前記第1の動画に含まれる少なくとも1以上の画像との前記比較結果により、
前記第1の動画に前記チャプタを付与する、
請求項2に記載の画像処理システム。
【請求項4】
前記プロセッサは、
取得された前記第2の静止画又は前記第2の動画を、第2の被写体を抽出することにより解析し、
前記第1の動画を、第1の被写体を抽出することにより解析する請求項1に記載の画像処理システム。
【請求項5】
前記プロセッサは、前記第2の被写体と前記第1の被写体との属性に基づいて、前記第1の動画に前記チャプタを付与する請求項4に記載の画像処理システム。
【請求項6】
前記プロセッサは、前記第2の被写体と前記第1の被写体との位置及び姿勢の情報の少なくとも1つに基づいて、前記第1の動画に前記チャプタを付与する、請求項4に記載の画像処理システム。
【請求項7】
前記プロセッサは、
前記第1の動画のシーンにおいて、前記第2の被写体と前記第1の被写体との関連性に基づいて、前記第1の被写体が写っているシーンを有する前記第1の動画に前記チャプタを付与する請求項4に記載の画像処理システム。
【請求項8】
前記関連性を示す情報を記録する記録装置を備え、
前記プロセッサは、
前記第2の被写体の前記関連性を示す情報に基づいて、前記第1の被写体の前記関連性を判定する請求項7に記載の画像処理システム。
【請求項9】
前記関連性を示す関連情報は、前記第1の撮影装置に備えられる請求項8に記載の画像処理システム。
【請求項10】
前記プロセッサは、
前記第2の静止画又は前記第2の動画に含まれる、前記第2の被写体の行動に関する情報と、前記第1の動画に含まれる、前記第1の被写体の行動に関する情報と、に基づいて、
前記第1の被写体の行動に関する情報に対応した時刻に、前記チャプタを付与する請求項4に記載の画像処理システム。
【請求項11】
前記プロセッサは、
前記チャプタが付与された時刻に関する情報を表示し、
前記表示は、前記第1の被写体の属性に応じて表示形態が異なる請求項4に記載の画像処理システム。
【請求項12】
前記表示は、前記第1の被写体に応じて表示する色が異なる請求項11に記載の画像処理システム。
【請求項13】
プロセッサを備える画像処理システムの画像処理方法であって、
前記プロセッサにより行われる、
第1の撮影装置で撮影された、第1の時刻情報を有する第1の動画を取得するステップと、
第2の撮影装置で撮影された、第2の時刻情報を有する第2の静止画又は第2の動画を取得するステップと、
取得された前記第2の静止画又は前記第2の動画と、前記第2の時刻情報に対応する前記第1の動画との比較結果に基づいて、前記第1の動画にチャプタを付与するステップと、
を含む画像処理方法。
【請求項14】
プロセッサを備える画像処理システムに画像処理方法を実行させるプログラムであって、
前記プロセッサに、
第1の撮影装置で撮影された、第1の時刻情報を有する第1の動画を取得するステップと、
第2の撮影装置で撮影された、第2の時刻情報を有する第2の静止画又は第2の動画を取得するステップと、
取得された前記第2の静止画又は前記第2の動画と、前記第2の時刻情報に対応する前記第1の動画との比較結果に基づいて、前記第1の動画にチャプタを付与するステップと、
を実行させるプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、撮影した動画に対してチャプタ(目印)を付与する画像処理システム、画像処理方法、及びプログラムに関する。
【背景技術】
【0002】
近年、カメラの小型化により、アクションカメラ又はウェラブルカメラ(以下、アクションカメラ等と記載する)の開発が進んでいる。アクションカメラ等を使用することにより、撮影者は、撮影のための操作を行わずに、別の活動(例えば、スキーやスキューバダイビングのスポーツ)を行いながら撮影を行うことができる。また、アクションカメラ等は、被写体が撮影されているという意識が少ない状態で、動画を撮影することが可能であり、被写体の自然な表情の撮影を行うことができる。例えば、アクションカメラ等により撮影を長時間継続して行う(撮りっぱなしにする)ことにより、被写体の自然な表情を撮影することができる。
【0003】
特許文献1では、長時間撮影された動画(映像データ)から多くの人が意図する重要シーンを切り出す技術に関して開示されている。
【先行技術文献】
【特許文献】
【0004】
【特許文献1】特開2010-199816号公報
【発明の概要】
【0005】
本開示の技術にかかる一つの実施形態は、動画に対して有効なチャプタを付与する画像処理システム、画像処理方法、及びプログラムを提供することである。
【課題を解決するための手段】
【0006】
本発明の第1の態様である画像処理システムは、プロセッサを備える画像処理システムであって、プロセッサは、第1の撮影装置で撮影された、第1の時刻情報を有する第1の動画を取得し、第2の撮影装置で撮影された、第2の時刻情報を有する第2の静止画又は第2の動画を取得し、取得された第2の静止画又は第2の動画と、第2の時刻情報に対応する第1の動画との比較結果に基づいて、第1の動画にチャプタを付与する。
【0007】
第2の態様である画像処理システムは、好ましくは第1の態様において、プロセッサは、取得された第2の静止画又は第2の動画のシーンを解析し、第2の解析結果を生成し、第2の時刻情報に対応する第1の時刻情報を有する第1の動画のシーンの解析を行って第1の解析結果を生成し、第1の解析結果及び第2の解析結果の比較結果に基づいて、第1の動画にチャプタを付与する。
【0008】
第3の態様である画像処理システムは、好ましくは第2の態様において、プロセッサは、取得された第2の静止画又は第2の動画に含まれる少なくとも1以上の画像と、第2の時刻情報に対応する第1の時刻情報を有する第1の動画に含まれる少なくとも1以上の画像との比較結果により、第1の動画にチャプタを付与する。
【0009】
第4の態様である画像処理システムは、好ましくは第1の態様において、プロセッサは、取得された第2の静止画又は第2の動画を、第2の被写体を抽出することにより解析し、第1の動画を、第1の被写体を抽出することにより解析する。
【0010】
第5の態様である画像処理システムは、好ましくは第4の態様において、プロセッサは、第2の被写体と第1の被写体との属性に基づいて、第1の動画にチャプタを付与する。
【0011】
第6の態様である画像処理システムは、好ましくは第4の態様において、プロセッサは、第2の被写体と第1の被写体との位置及び姿勢の情報の少なくとも1つに基づいて、第1の動画にチャプタを付与する。
【0012】
第7の態様である画像処理システムは、好ましくは第4の態様において、プロセッサは、第1の動画のシーンにおいて、第2の被写体と第1の被写体との関連性に基づいて、第1の被写体が写っているシーンを有する第1の動画にチャプタを付与する。
【0013】
第8の態様である画像処理システムは、好ましくは第7の態様において、関連性を示す情報を記録する記録装置を備え、プロセッサは、第2の被写体の関連性を示す情報に基づいて、第1の被写体の関連性を判定する。
【0014】
第9の態様である画像処理システムは、好ましくは第8の態様において、関連性を示す関連情報は、第1の撮影装置に備えられる。
【0015】
第10の態様である画像処理システムは、好ましくは第4の態様において、プロセッサは、第2の静止画又は第2の動画に含まれる、第2の被写体の行動に関する情報と、第1の動画に含まれる、第1の被写体の行動に関する情報と、に基づいて、第1の被写体の行動に関する情報に対応した時刻に、チャプタを付与する。
【0016】
第11の態様である画像処理システムは、好ましくは第4の態様において、プロセッサは、チャプタが付与された時刻に関する情報を表示し、表示は、第1の被写体の属性に応じて表示形態が異なる。
【0017】
第12の態様である画像処理システムは、好ましくは第11の態様において、表示は、第1の被写体に応じて表示する色が異なる。
【0018】
第13の態様である画像処理方法は、プロセッサを備える画像処理システムの画像処理方法であって、プロセッサにより行われる、第1の撮影装置で撮影された、第1の時刻情報を有する第1の動画を取得するステップと、第2の撮影装置で撮影された、第2の時刻情報を有する第2の静止画又は第2の動画を取得するステップと、取得された第2の静止画又は第2の動画と、第2の時刻情報に対応する第1の動画との比較結果に基づいて、第1の動画にチャプタを付与するステップと、を含む。
【0019】
第14の態様であるプログラムは、プロセッサを備える画像処理システムに画像処理方法を実行させるプログラムであって、プロセッサに、第1の撮影装置で撮影された、第1の時刻情報を有する第1の動画を取得するステップと、第2の撮影装置で撮影された、第2の時刻情報を有する第2の静止画又は第2の動画を取得するステップと、取得された第2の静止画又は第2の動画と、第2の時刻情報に対応する第1の動画との比較結果に基づいて、第1の動画にチャプタを付与するステップと、を実行させる。
【図面の簡単な説明】
【0020】
図1図1は、画像処理システム、アクションカメラ、スマートフォンを示す図である。
図2図2は、アクションカメラのハードウェア構成例を示す図である。
図3図3は、スマートフォンのハードウェア構成例を示す図である。
図4図4は、画像処理システムのハードウェア構成の実施形態を示すブロック図である。
図5図5は、第3のプロセッサに実現される機能を示す機能ブロック図である。
図6図6は、チャプタ付きメイン動画の例を説明する図である。
図7図7は、画像処理システムにおけるチャプタ付きメイン動画の生成に関して説明する図である。
図8図8は、比較部の比較態様を説明する図である。
図9図9は、第1の実施形態におけるチャプタ付与を説明する図である。
図10図10は、第2の実施形態におけるチャプタ付与を説明する図である。
図11図11は、データベースに記憶されている被写体の関連性の記憶構成例を示す図である。
図12図12は、第3の実施形態におけるチャプタ付与を説明する図である。
図13図13は、チャプタ表示の一例を示す図である。
図14図14は、チャプタ表示の他の例を説明する図である。
図15図15は、チャプタ表示の他の例を説明する図である。
図16図16は、データベースに記憶されているチャプタ表示を行うためのデータを示す概念図である。
図17図17は、画像処理方法を示すフロー図である。
図18図18は、画像処理システムが搭載されたアクションカメラを示す概念図である。
【発明を実施するための形態】
【0021】
以下、添付図面にしたがって本発明にかかる画像処理システム、画像処理方法、及びプログラムの好ましい実施形態について説明する。
【0022】
図1は、本発明の画像処理システムと、アクションカメラと、スマートフォンとを示す図である。
【0023】
画像処理システム10は、例えばコンピュータで構成される。また、画像処理システム10は、アクションカメラ100及びスマートフォン200とネットワークNWで接続されている。アクションカメラ100は本発明の第1の撮影装置を構成し、スマートフォン200は本発明の第2の撮影装置を構成している。ネットワークNWは、任意の周波数帯域が使用される無線通信を使用してもよいし、任意の有線形式の通信を使用してもよい。ネットワークNWは無線形式の通信と有線形式の通信とを組み合わせてもよく、ネットワークNWは、任意の通信規格を使用し得る。
【0024】
画像処理システム10は、アクションカメラ100で撮影された動画(第1の動画)を取得する。また、画像処理システム10は、スマートフォン200で撮影された動画(第2の動画)及び/又は静止画(第2の静止画)を取得する。なお、以下の説明では、アクションカメラ100で撮影された動画をメイン動画として記載し、スマートフォン200で撮影された動画をサブ動画、スマートフォン200で撮影された静止画をサブ静止画として記載する。画像処理システム10は、メイン動画とサブ静止画(又はサブ動画)とを取得し、メイン動画とサブ静止画(又はサブ動画)とを比較することにより、メイン動画にチャプタを付与する。
【0025】
アクションカメラ100は、カメラ118(図2)の一部を構成するレンズ118A、情報インジケータ118B、操作部120の一部を構成する操作ボタン120Aを備える。例えば、アクションカメラ100は、操作ボタン120Aを1回押すと動画の撮影が開始され、動画の撮影が行われる。なお、撮影者は、アクションカメラ100をヘルメットやリュックサックに取り付けて、ウェラブルカメラとして使用して、他の活動(例えばスキーやスキューバダイビングのスポーツ)を行うことができる。また、アクションカメラ
100は、オートフォカス、自動露出(EV)、及びオートホワイトバランスにより撮影が行われる。アクションカメラ100で撮影を行う場合には、撮影者は、被写体を狙いアクションカメラ100を構えて撮影を行わず、例えば、ヘルメットやリュックサックに取り付けたまま、動画の撮影を行う。したがって、アクションカメラ100で撮影されたメイン動画には、意図する被写体の自然な様子が写っているシーンが存在する。一方で、アクションカメラ100は、被写体を狙って撮影を行っていないので、メイン動画には、意図する被写体が写っていないシーンや、意図する被写体が写っていても顔を背けていて上手く写っていないシーンが存在する場合がある。また、アクションカメラ100での撮影は、動画の撮影を開始した後に、一定時間(長時間)継続して撮影することがある。したがって、アクションカメラ100で撮影されたメイン動画は、長時間となる場合があり、メイン動画を後から鑑賞する場合には、見るべきタイミングを探すのに時間を要してしまう。
【0026】
スマートフォン200は、アクションカメラ100と同様にカメラ機能を有し、サブ動画及びサブ静止画を撮影することが可能である。例えば、撮影者は、スマートフォン200により撮影を行う場合には、スマートフォン200のカメラ218のレンズ(不図示)を狙った被写体に向けて、スマートフォン200の表示部204に写った被写体(ライブビュー画像)を確認しながら動画又は静止画を撮影する。したがって、スマートフォン200で撮影された動画又は静止画には、狙った被写体が写っている。一方で、スマートフォン200での撮影は、被写体に対して構えて撮影を行うために、被写体の自然な表情を撮影することは難しい。
【0027】
ここで、上述した特許文献(特開2010-199816号公報)に記載された技術では、第2の撮像装置(本説明のスマートフォン200に相当)の撮影時刻が集中している部分を、第1の撮像装置(本説明のアクションカメラ100に相当)で撮影されている動画(本説明のメイン動画に相当)の重要時刻(時間帯)としてチャプタを付与している。
【0028】
しかしながら、上述したようにアクションカメラ100とスマートフォン200とで撮影を行って、単にスマートフォン200でサブ静止画を撮影した時刻に応じて、アクションカメラ100で撮影したメイン動画にチャプタを付与してしまうと、有効なチャプタを付与することが出来ない場合がある。
【0029】
例えば、スマートフォン200でサブ静止画を撮影した時刻において、アクションカメラ100が被写体である子供の方を向いていなく、メイン動画子供が上手く写っていない場合がある。このような場合に、スマートフォン200でサブ静止画を撮影した時刻に応じて、メイン動画にチャプタを付与しても、有効なチャプタの付与を行うことができない。
【0030】
以上より、画像処理システム10では、スマートフォン200で撮影されたサブ動画又はサブ静止画の解析結果と、メイン動画の解析結果とを比較して、比較結果に応じてメイン動画にチャプタを付与する。これにより、メイン動画に有効なチャプタを付与することができ、見るべきタイミングを分かりやすくユーザに提供することができる。
【0031】
<アクションカメラ及びスマートフォン>
次に、アクションカメラ100及びスマートフォン200に関して説明する。
【0032】
図2は、アクションカメラ100のハードウェア構成例を示す図である。
【0033】
アクションカメラ100は、第1のプロセッサ112、メモリ116、通信インターフェース114、カメラ118、操作部120を少なくとも備える。
【0034】
第1のプロセッサ112は、CPU(Central Processing Unit)で構成される。また、第1のプロセッサ112は、GPU(Graphics Processing Unit)を含んで構成されてもよい。第1のプロセッサ112は、バス113を介してメモリ116、通信インターフェース114、カメラ118、及び操作部120に接続される。第1のプロセッサ112は、メモリ116に記憶されている専用のプログラムを実行することにより、様々な機能を実現することができる。
【0035】
メモリ116は、主記憶装置であるメモリ及び補助記憶装置であるストレージを含む。メモリ116は、例えば、半導体メモリ、ハードディスク(HDD:Hard Disk Drive)装置、若しくはソリッドステートドライブ(SSD:Solid State Drive)装置又はこれらの複数の組み合わせであってよい。メモリ116には、画像処理プログラムを含む各種のプログラム及びデータ等が記憶される。
【0036】
通信インターフェース114は、画像処理システム10との無線又は有線通信を行う通信部である。
【0037】
カメラ118は、動画又は静止画を撮影することが可能であり、カメラ118によりメイン動画が撮影される。カメラ118は、オートフォカス、自動露出(EV)、及びオートホワイトバランスにより撮影が行われる。また、カメラ118は、動画を例えば25fps(frames per second)又は30fpsにより撮影することができる。また、カメラ118は、数十分間から数時間の動画の撮影を行うことができる。
【0038】
操作部120の一部は、操作ボタン120Aで構成される。操作ボタン120Aを押下することにより動画の記録の開始が行われ、もう一度操作ボタン120Aを押下すると終了が行われる。また、操作ボタン120Aは、静止画を撮影する場合にはシャッターボタンとして機能する。なお、第1のプロセッサ112は、時計機能を有しており、カメラ118で撮影された動画又は静止画の撮影時刻(第1の時刻情報)を、その動画又は静止画に付帯情報として付与する。
【0039】
図3は、スマートフォン200のハードウェア構成例を示す図である。なお、図3に示す構成は本発明の説明に必要な部分示し、通話機能等の図示及び説明は省略する。
【0040】
スマートフォン200は、第2のプロセッサ212、メモリ216、通信インターフェース214、表示部204、カメラ218、及び操作部220を備える。なお、第2のプロセッサ212、メモリ216、通信インターフェース214、及びカメラ218は前述したアクションカメラ100と同様であるので、説明は省略する。
【0041】
スマートフォン200は、表示部204を有する。また、カメラ218で動画又は静止画を撮影する場合には、表示部204にはライブビュー画像が表示される。したがって、撮影者はそのライブビュー画像を確認しながら動画又は静止画を撮影することができる。
【0042】
操作部220は、表示部204に備えられるタッチスクリーンやボタン206で構成される。操作部220を操作することによって、動画の記録の開始及び終了を制御することができる。また、操作部220は、静止画を撮影する場合のシャッターボタンとして機能する。なお、第2のプロセッサ212は、時計機能を有しており、カメラ218で撮影された動画又は静止画の撮影時刻(第2の時刻情報)を、その動画又は静止画に付帯情報として付与する。
【0043】
なお、第1のプロセッサ112及び第2のプロセッサ212により付与される撮影時刻
は、2023年3月19日16時32分43秒のような絶対的な時刻であってもよいし、また、例えば、アクションカメラ100での撮影を開始した時点を、アクションカメラ100とスマートフォン200とで共有し、その時点からの経過時間を、メイン動画の撮影時刻(第1の時刻情報)、サブ動画又はサブ静止画の撮影時刻(第2の時刻情報)としてもよい。
【0044】
<画像処理システム>
次に、画像処理システム10に関して説明する。
【0045】
図4は、画像処理システム10のハードウェア構成の実施形態を示すブロック図である。
【0046】
図4に示す画像処理システム10は、第3のプロセッサ12、メモリ14、データベース(記録装置)16、表示部18、入出力インターフェース20、及び操作部22を備える。
【0047】
第3のプロセッサ12は、CPU(Central Processing Unit)等から構成され、画像処理システム10の各部を統括制御するとともに、後で説明する第1の取得部12A、第2の取得部12B、第1の解析部12C、第2の解析部12D、比較部12E、及びチャプタ付与部12Fの機能を専用のプログラムを実行することにより実現する(図5参照)。この第3のプロセッサ12の各種の処理の詳細については後述する。
【0048】
メモリ14は、フラッシュメモリ、ROM(Read-only Memory)、及びRAM(Random Access Memory)、ハードディスク装置等を含む。フラッシュメモリ、ROM又はハードディスク装置は、オペレーションシステムを含む各種のプログラム等を記憶する不揮発性メモリである。RAMは、第3のプロセッサ12による処理の作業領域として機能するとともに、フラッシュメモリ等に格納されたプログラム等を一時的に記憶する。なお、第3のプロセッサ12が、メモリ14の一部(RAM)を内蔵していてもよい。
【0049】
また、メモリ14は、アクションカメラ100から取得するメイン動画を記録し、スマートフォン200から取得するサブ動画又はサブ静止画を記録する。
【0050】
データベース16は、画像処理に必要な様々なデータを記録する記録装置である。例えば、被写体と被写体との関連性を示す関連情報(図10参照)を記録する。なお、関係性データに関しては後で説明を行う。
【0051】
表示部18は、例えばメイン動画や、メイン動画50に付与されたチャプタに関するチャプタ表示を表示する。
【0052】
入出力インターフェース20は、外部機器と接続可能な接続部、及びネットワークNWと接続可能な通信部等を含む。外部機器と接続可能な接続部としては、USB(Universal Serial Bus)、HDMI(High-Definition Multimedia Interface)(HDMIは登録商標)等を適用することができる。第3のプロセッサ12は、入出力インターフェース20を介して、アクションカメラ100からメイン動画50を取得したり、スマートフォン200からサブ動画又はサブ静止画を取得したりする。また、入出力インターフェース20は、外部からの要求に応じて必要な情報を出力することが可能である。
【0053】
操作部220は、マウス等のポインティングデバイス、キーボード等を含み(図1を参照)、ユーザ操作による各種の情報、指示の入力を受け付ける。
【0054】
<画像処理システムの動作>
次に、画像処理システム10におけるメイン動画へのチャプタの付与に関して説明する。
【0055】
図5は、第3のプロセッサ12に実現される機能を示す機能ブロック図である。なお、第3のプロセッサ12は、メモリ14に記憶されている専用のプログラムを実行することに機能を実現する。
【0056】
第3のプロセッサ12は、第1の取得部12A、第2の取得部12B、第1の解析部12C、第2の解析部12D、比較部12E、チャプタ付与部12Fの機能を実現する。
【0057】
第1の取得部12Aは、アクションカメラ100で撮影されたメイン動画を取得する。例えば、画像処理システム10の入出力インターフェース20を介して取得したメイン動画50を、第1の取得部12Aは取得する。なお、メイン動画には、メイン動画が撮影された時刻に関する第1の時刻情報が付されており、第1の取得部12Aはこの第1の時刻情報も合わせて取得する。
【0058】
第2の取得部12Bは、スマートフォン200で撮影されたサブ動画又はサブ静止画を取得する。例えば、画像処理システム10の入出力インターフェース20を介して取得したサブ動画又はサブ静止画を、第2の取得部12Bは取得する。なお、サブ動画及びサブ静止画には、サブ動画又はサブ静止画が撮影された時刻に関する第2の時刻情報が付されており、第2の取得部12Bはこの第2の時刻情報も合わせて取得する。
【0059】
第1の解析部12Cは、メイン動画の解析を行い、第1の解析結果を生成する。また、第2の解析部12Dは、取得したサブ動画又は取得したサブ静止画の解析を行い、第2の解析結果を生成する。第1の解析部12C及び第2の解析部12Dは、様々な手法により解析を行うことができる。例えば、第1の解析部12C及び第2の解析部12Dは、被写体を検出することにより解析を行う。
【0060】
比較部12Eは、第1の解析結果と第2の解析結果とを比較する。例えば、比較部12Eは、第1の解析結果と第2の解析結果とは同一又は同等である場合には、同一又は同等であるという比較結果を生成する。また、比較部12Eは、第1の解析結果と第2の解析結果とは異なる場合には、異なるという比較結果を生成する。また例えば、比較部12Eは、サブ動画又はサブ静止画に写っている被写体が、メイン動画に写っているかを、テンプレートマッチングや、類似度評価に基づいて比較を行ってもよい。
【0061】
チャプタ付与部12Fは、比較結果に基づいてチャプタをメイン動画に付与する。具体的には、チャプタ付与部12Fは、同一又は同等であるという比較結果の場合には、メイン動画50にチャプタを付与する。また、異なるという比較結果の場合には、メイン動画50にチャプタを付与しない。ここで、チャプタとは、動画を構成するフレーム画像の1枚以上に対して付すマーク又は目印を意味する。チャプタは、フレーム画像1枚(一瞬)に対して付与されてもよいし、連続する複数枚(時間帯)に付与されてもよい。なお、動画データの特定時刻を、リストや表に(別ファイルで)入力及び/又は保存することも、「チャプタ入力」とみなす。
【0062】
図6は、チャプタ付与部12Fでチャプタが付与されたチャプタ付きメイン動画の例を説明する図である。
【0063】
図示するチャプタ付きメイン動画のファイル名は「202302021211.mp4」であり、mp4のファイル形式で保存されている。
【0064】
チャプタ付与部12Fは、メイン動画の時刻「00:04:14」に「Chapter1」を付与している。また、チャプタ付与部12Fは、メイン動画の時刻「00:11:10」に「Chapter2」を付与している。また、チャプタ付与部12Fは、メイン動画の時刻「00:15:11」に「Chapter3」を付与している。また、チャプタ付与部12Fは、メイン動画の時刻「00:17:40~00:21:55」「Chapter4-5」を付与している。このように、メイン動画にチャプタを付与することにより、チャプタ付きメイン動画を生成することができる。チャプタ付きメイン動画は、チャプタの情報と共に保存可能である。例えば、動画ファイル、202302091211.mp4の付帯情報として、202302091211.datが存在して保存してもよい。また、チャプタの情報を202302091211.mp4のタグ領域に保存してもよい(ファイル一体型)。
【0065】
図7は、画像処理システム10におけるチャプタ付きメイン動画の生成に関して説明する図である。
【0066】
アクションカメラ100はメイン動画50を撮影し、ネットワークNWを介して画像処理システム10に送信する。画像処理システム10の第1の取得部12Aは、メイン動画50を取得する。
【0067】
また、スマートフォン200は、サブ静止画52又はサブ動画54を撮影し、ネットワークNWを介して画像処理システム10に送信する。画像処理システム10の第2の取得部12Bは、サブ静止画52又はサブ動画54を取得する。
【0068】
その後、画像処理システム10の第1の解析部12Cは、メイン動画50を解析する。また、画像処理システム10の第2の解析部12Dは、取得されたサブ静止画52又は取得されたサブ動画54を解析する。そして、画像処理システム10の比較部12Eは、第1の解析部12Cの第1の解析結果と第2の解析部12Dの第2の解析結果とを比較する。
【0069】
比較部12Eは、サブ静止画52、又はサブ動画54に含まれる少なくとも1以上の画像(フレーム)と、第2の時刻情報に対応する第1の時刻情報を有するメイン動画50に含まれる少なくとも1以上のフレームとの比較結果を生成する。具体的には、比較部12Eは、サブ静止画52(又はサブ動画54)が撮影された時刻に撮影されたメイン動画50に含まれる少なくとも1以上のフレームとの比較結果を生成する。
【0070】
図8は、比較部12Eの比較態様を説明する図である。
【0071】
図8(A)では、比較部12Eは、時刻T1で撮影されたサブ静止画52と、時刻T1で撮影されたメイン動画50の1フレームとでの解析結果を比較している。具体的には、比較部12Eは、時刻T1で撮影されたサブ静止画52に写っている被写体(解析結果)と、メイン動画50の1フレームに写っている被写体(解析結果)とを比較し比較結果を生成する。なお、アクションカメラ100は、メイン動画50を例えば25fpsで撮影している場合には、時刻T1(例えば、XX時XX分XX秒)で撮影された25枚のフレームから代表する1フレーム(所定の期間に撮影されたフレームの中央のフレーム、又は最初のフレーム等)によって比較が行われる。
【0072】
図8(B)では、比較部12Eは、時刻T1で撮影されたサブ静止画52と、時刻T1で撮影されたメイン動画50の複数のフレーム(図では3フレーム)とでの解析結果を比較している。具体的には、比較部12Eは、時刻T1で撮影されたサブ静止画52に写っ
ている被写体(解析結果)と、メイン動画50の1フレームに写っている被写体(解析結果)とを比較し比較結果を生成する。なお、アクションカメラ100は、メイン動画50が例えば25fpsで撮影している場合には、時刻T1(例えば、XX時XX分XX秒)における全てのフレーム又は代表する複数のフレーム(所定の期間に撮影されたフレームにおいて、選択された代表するフレーム)によって比較が行われる。
【0073】
図8(C)では、比較部12Eは、時刻T1で撮影されたサブ動画54の複数のフレーム(図では3フレーム)と、時刻T1で撮影されたメイン動画50の1フレームとでの解析結果を比較している。具体的には、比較部12Eは、時刻T1で撮影されたサブ動画54に写っている被写体(解析結果)と、メイン動画50の1フレームに写っている被写体(解析結果)とを比較し比較結果を生成する。なお、スマートフォン200は、サブ静止画52を例えば25fpsで撮影している場合には、時刻T1(例えば、XX時XX分XX秒)における代表する複数のフレーム(所定の期間に撮影されたフレームにおいて、選択された代表するフレーム)によって比較が行われる。
【0074】
図8(D)では、比較部12Eは、時刻T1で撮影されたサブ動画54の複数のフレームと、時刻T1で撮影されたメイン動画50の複数のフレームとでの解析結果を比較している。具体的には、比較部12Eは、時刻T1(例えば、XX時XX分XX秒)で撮影されたサブ動画54に写っている被写体(解析結果)と、時刻T1(例えば、XX時XX分XX秒)で撮影されたメイン動画50に写っている被写体(解析結果)と、を比較し比較結果を生成する。なお、アクションカメラ100及びスマートフォン200は、時刻T1(例えば、XX時XX分XX秒)における代表する複数のフレームによって比較が行われる。
【0075】
このように、比較部12Eは、同じ時刻、又は同じ時刻付近に撮影されたメイン動画50とサブ静止画52(サブ動画54)を比較することにより、比較結果を生成する。
【0076】
図7に戻って、チャプタ付与部12Fは、比較結果に基づいて、メイン動画50にチャプタを付与しチャプタ付きメイン動画60を生成する。以下に、チャプタ付与部12Fにおけるメイン動画50へのチャプタ付与の具体例を実施形態に沿って説明する。
【0077】
<第1の実施形態>
第1の実施形態では、チャプタ付与部12Fは、比較部12Eが第1の解析結果及び第2の解析結果において同一の被写体が写っていると比較結果を生成した場合には、チャプタをメイン動画50に付与する。なお、ここで同一の被写体とは、第1の解析部12C及び第2の解析部12Dで、個人を特定する解析が行われた場合には、第1の解析結果と第2の解析結果とにおいて同一の個人が写っている場合である。また、同一の被写体とは、第1の解析部12C及び第2の解析部12Dで、被写体の属性(例えば「男」「女」「子供」等)を特定する解析が行われた場合には、同一の属性の被写体が写っている場合である。また、同一の被写体とは、第1の解析部12C及び第2の解析部12Dで、被写体の顔を抽出し特徴量ベクトル化して解析した場合には、第1の解析結果と第2の解析結果とにおいて特徴量ベクトルの差分が所定の範囲内である場合である。なお、第1の解析部12C及び第2の解析部12Dで、被写体の顔を抽出し特徴量ベクトルを算出する場合には、第1の解析部12C及び第2の解析部12Dは、特徴量ベクトルを予め定められた特徴(例えば、顔における目、鼻、口の面積比率)によって算出してもよいし、予め生成しておいた学習済みモデルで算出してもよい。
【0078】
図9は、第1の実施形態におけるチャプタ付与を説明する図である。
【0079】
第1の取得部12Aは、時刻T1での撮影を含むメイン動画50を取得する。
【0080】
第2の取得部12Bは、撮影時刻T=T1で撮影したサブ静止画52を取得し、第2の解析部12Dは、サブ静止画52を解析し第2の解析結果を生成する。具体的には、第2の解析部12Dは、サブ静止画52の被写体(第2の被写体)抽出を行い、被写体である母P1及び子供P2を抽出して、第2の解析結果を生成する。また、第1の解析部12Cは、メイン動画50における時刻T1でのシーンを解析し被写体(第1の被写体)抽出を行って第1の解析結果を生成する。そして、比較部12Eは、第1の解析結果と第2の解析結果とを比較して、同一の被写体(ここでは母P1及び子供P2)が写っている場合には、メイン動画50の時刻T1にチャプタC1を付与し、チャプタ付きメイン動画60を生成する。なお、チャプタ付与部12Fは、被写体との位置及び姿勢の情報の少なくとも1つに基づいて、チャプタを付与してもよい。例えば、チャプタ付与部12Fは、メイン動画50において母P1及び子供P2が正対して写っている場合には、チャプタC1を付与する。また例えば、チャプタ付与部12Fは、メイン動画50において母P1及び子供P2が近づいている場合には、チャプタC1を付与する。
【0081】
なお、上述の例では、母P1及び子供P2において第1の解析結果と第2の解析結果とを比較して同一性がある場合に、チャプタが付与される例について説明したが、本発明はこれに限定されるものではない。例えば、母P1又は子供P2において、第1の解析結果と第2の解析結果とを比較して同一性を判断してもよい。また、比較部12Eの同一性の判断は、母P1ではなく、「女性」や「人」などの「属性」により、同一性を判断してもよい。
【0082】
以上のように、チャプタ付与部12Fは、サブ静止画52における被写体とメイン動画50における被写体との同一性、又は同一の被写体の位置及び姿勢の少なくとも一つに基づいて、チャプタC1を付与する。これにより、ユーザは、メイン動画50を後から鑑賞したり、所望のシーンを切り出し編集したりする場合に、有効なチャプタに基づいて見るべきタイミングを知ることができ、効率的な作業をすることができる。
【0083】
<第2の実施形態>
第2の実施形態では、チャプタ付与部12Fは、第1の解析結果及び第2の解析結果において、関連性を有する場合には、チャプタをメイン動画50に付与する。画像処理システム10には、例えばデータベース16に予め被写体の関連情報が記憶されており、その関連情報に基づいて関連性がある被写体がメイン動画50に検出された場合には、チャプタ付与部12Fはチャプタを付与する。
【0084】
図10は、第2の実施形態におけるチャプタ付与を説明する図である。
【0085】
第1の取得部12Aは、時刻T1での撮影を含むメイン動画50を取得する。
【0086】
第2の取得部12Bは、撮影時刻T=T1で撮影したサブ静止画52を取得する。そして、第2の解析部12Dは、サブ静止画52の被写体(第2の被写体)抽出を行い、息子P3を抽出する。ここで、画像処理システム10のデータベース16には、被写体の関連情報が記憶されている。したがって、第2の解析部12Dは、データベース16の関連情報に基づいて、解析結果を生成する。
【0087】
図11は、データベース16に記憶されている被写体の関連情報の記憶構成例を示す図である。
【0088】
関連情報には、親子Aの場合には息子P3と父親P4との顔画像が共に記憶されている。第2の解析部12Dは、サブ静止画52において息子P3を検出した場合に、関連情報
に基づいて、父親P4の顔画像も解析結果に含める。
【0089】
図10に戻って、第1の解析部12Cは、メイン動画50における時刻T1でのシーンを解析し被写体(第1の被写体)抽出を行って第1の解析結果を生成する。比較部12Eは、関連情報に基づいて、第1の解析部12Cの解析結果と第2の解析部12Dの解析結果を比較する。具体的には、比較部12Eは、第1の解析部12Cの解析結果において息子P又は息子P3に関連性のある父親P4が写っているかの判定を行う。そして、チャプタ付与部12Fは、メイン動画50に息子P3又は父親P4が写っている場合には、時刻T1にチャプタC2を付与する。
【0090】
以上のように、チャプタ付与部12Fは、サブ静止画52における被写体と関連性を有する被写体をメイン動画50で検出した場合にも、チャプタを付与する。これにより、ユーザは、メイン動画50を後から鑑賞したり、所望のシーンを切り出し編集したりする場合に、有効なチャプタに基づいて見るべきタイミングを知ることができ、効率的な作業をすることができる。また、本実施形態においては、サブ静止画52(又はサブ動画54)が有する被写体のみならず、関連情報に記憶された被写体を抽出した場合にも有効なチャプタが付与されるので、ユーザはより多くのシーンの見るべきタイミングを知ることができる。
【0091】
<第3の実施形態>
第3の実施形態では、チャプタ付与部12Fは、第1の解析結果及び第2の解析結果において同一の行動を検出した場合には、行動の開始時刻と行動の終了時刻にチャプタを付与する。
【0092】
図12は、第3の実施形態におけるチャプタ付与を説明する図である。
【0093】
第1の取得部12Aは、時刻T1での撮影を含むメイン動画50を取得する。
【0094】
第2の取得部12Bは、撮影時刻T=T1で撮影したサブ静止画52を取得する。そして、第2の解析部12Dは、サブ静止画52において、被写体(第2の被写体)が野球のバットを構えている行動を認識する(行動に関する情報の取得)。また、第1の解析部12Cは、メイン動画50において、被写体(第1の被写体)がバットを振る行動を認識する(行動に関する情報の取得)。そして、比較部12Eは、同一被写体の同一行動であるという比較結果を生成し、チャプタ付与部12Fは、被写体がバットを構えた瞬間(開始時刻)にチャプタC3を付与し、バットを振り抜いた時刻(終了時刻)にチャプタC4を付与する。
【0095】
以上のように、第2の解析部12Dは、サブ静止画52における被写体の行動を認識し、第1の解析部12Cはメイン動画50における被写体の行動を認識し、チャプタ付与部12Fは行動開始と行動終了にチャプタを付与する。これにより、ユーザは、メイン動画50を後から鑑賞したり、所望のシーンを切り出し編集したりする場合に、有効なチャプタに基づいて見るべきタイミングを知ることができ、効率的な作業をすることができる。また、本実施形態においては、メイン動画50における行動に対して有効なチャプタが付与されるので、ユーザはより多くのシーンの見るべきタイミングを知ることができる。
【0096】
<表示形態>
次に、メイン動画50においてチャプタを付与した場合に、チャプタが付与された時刻に関する情報の表示(チャプタ表示)について説明する。画像処理システム10は、表示部18を有し、この表示部18にチャプタ表示を行うことで、ユーザに対してチャプタの位置又は時刻を報知することができる。
【0097】
図13は、表示部18でのチャプタ表示の一例を示す図である。
【0098】
第1の取得部12Aは、時刻Ta及びTbを含むメイン動画50を取得する。第1の解析部12Cは、メイン動画50において、時刻Taにおいて父親P4を検出し、時刻Tbにおいて、息子P3を検出する。
【0099】
第2の取得部12Bは、時刻Ta及びTbを含むサブ動画54を取得する。第2の解析部12Dは、サブ動画54において、時刻Taにおいて父親P4を検出する。また、第2の解析部12Dは、サブ動画54において、時刻Tbにおいて父親P4を検出する。なお、息子P3と父親P4とは、前述した第2の実施形態で説明したように、関連性を有する被写体である。
【0100】
チャプタ付与部12Fは、この場合には、時刻TaにチャプタC5を付与し、時刻TbにチャプタC6を付与する。
【0101】
また、表示部18は、時刻Taでは、メイン動画50及びサブ動画54において、父親P4を検出されているので、赤色の矢印でチャプタC5のチャプタ表示を行う。一方、時刻Tbでは、メイン動画50では息子Tb、サブ動画54では父親P4が検出されているので、青色の矢印でチャプタC6のチャプタ表示を行う。
【0102】
このように、メイン動画50とサブ静止画52との写っている被写体に応じて、チャプタ表示の表示態様(例えば色)を変えることにより、ユーザは効率的にメイン動画50の鑑賞を行うことができる。
【0103】
図14は、チャプタ表示の他の例を説明する図である。
【0104】
図14に示す例では、ある区間を示すチャプタをタイムバー表示70で示している。例えば、母及び子供が被写体として写っている時刻にチャプタを付与する場合には、赤のタイムバーでチャプタ表示72を行い、子供のみ被写体として写っている時刻にチャプタを付与する場合には、黄色のタイムバーでチャプタ表示74を行い、母、子供、及び父親が被写体として写っている時刻にチャプタを付与する場合には、青色のタイムバーでチャプタ表示76を行う。
【0105】
このように、メイン動画50で写っている被写体に応じて、タイムバーの色を変えて、チャプタ表示を行うことにより、ユーザは、メイン動画50における被写体を把握することができ、効率的に鑑賞を行うことができる。
【0106】
図15は、チャプタ表示の他の例を説明する図である。
【0107】
図15に示す例では、文字表示によりチャプタ表示78を表示部18に行っている。チャプタ表示78では、文字によりチャプタが付与された時刻と、その時刻に写っている被写体とが文字により示されている。また、このチャプタ表示78は、写っている被写体に応じて色を変えてもよい。例えば、「子供」のチャプタ表示は橙色、「父親」のチャプタ表示は青色、「母親」のチャプタ表示は赤色で表示される。
【0108】
このように、メイン動画50で写っている被写体を、文字及び色で表示することにより、ユーザは、メイン動画50における被写体を把握することができ、効率的に鑑賞を行うことができる。
【0109】
以上で説明したように、チャプタ表示を行うためのデータは、例えば画像処理システム10は、データベース16に記憶されている。
【0110】
図16は、データベース16に記憶されているチャプタ表示を行うためのデータの具体例を示す概念図である。
【0111】
データベース16には、メイン動画50の1:52:10~1:55:10(動画)の間にチャプタ種類Aのチャプタ表示を赤色で行うことが記憶されている。また、データベース16には、メイン動画50の2:11:10~2:12:05(動画)の間にチャプタ種類Bのチャプタ表示を青色で行うことが記憶されている。また、データベース16には、メイン動画50の2:52:50(静止画)にチャプタ種類Aのチャプタ表示を赤色で行うことが記憶されている。
【0112】
<画像処理方法>
次に、画像処理システム10を使用した画像処理方法に関して説明する。なお、画像処理システム10は、第3のプロセッサ12が専用のプログラムを実行することにより、画像処理方法を行う。
【0113】
図17は、画像処理方法を示すフロー図である。
【0114】
先ず、第1の取得部12Aは、メイン動画50を取得する(ステップS01)。例えば、第1の取得部12Aは、アクションカメラ100からメイン動画50を取得する。次に、第2の取得部12Bは、サブ静止画(又はサブ動画)52を取得する(ステップS02)。例えば、第2の取得部12Bは、スマートフォン200からサブ静止画(又はサブ動画)52を取得する。
【0115】
そして、第1の解析部12Cは、メイン動画50を解析し第1の解析結果を生成する(ステップS03)。また、第2の解析部12Dは、サブ静止画(又はサブ動画)52を解析し第2の解析結果を生成する(ステップS04)。その後、比較部12Eは、第1の解析結果と第2の解析結果とを比較し比較結果を生成する(ステップS05)。そして、チャプタ付与部12Fは、その比較結果に応じてチャプタを付与する(ステップS06)。
【0116】
<画像処理システムの他の態様>
次に、画像処理システム10の他の態様に関して説明する。以上で説明した例では、画像処理システム10は、アクションカメラ100やスマートフォン200とは別体のコンピュータで構成されている例について説明した。しかしながら、本発明の画像処理システムはこの態様に限定されない。例えば、アクションカメラ100に画像処理システム10が搭載されていてもよい。すなわち、アクションカメラ101(図18)は、図4及び図5で説明した画像処理システム10のハードウェア構成や第3のプロセッサ12が実現する機能を有している。
【0117】
図18は、画像処理システムが搭載されたアクションカメラを示す概念図である。
【0118】
アクションカメラ101は、画像処理システム10を搭載し、スマートフォン200との情報を相互に送受信可能である。アクションカメラ101は、メイン動画50を撮影し、スマートフォン200は、サブ静止画(又はサブ動画)52を撮影する。スマートフォン200は、撮影したサブ静止画(又はサブ動画)52をアクションカメラ101に送信する。これにより、アクションカメラ101は、メイン動画50とサブ静止画(又はサブ動画)52とを取得し、メイン動画50に対してチャプタを付与する画像処理を行う。
【0119】
このように、アクションカメラ101に画像処理システム10が搭載されている場合には、スマートフォン200からサブ静止画(又はサブ動画)52を取得して、メイン動画50にチャプタを付与することができる。
【0120】
また、画像処理システム10の別の態様として、スマートフォン200に画像処理システム10が搭載されていてもよい。この場合には、スマートフォン200が、サブ静止画52を取得したら、サブ静止画(又はサブ動画)52が取得されたことをアクションカメラ100に伝える。そして、アクションカメラ100が、サブ静止画(又はサブ動画)52の撮影時刻付近のメイン動画50を切り出してスマートフォン200に転送する。これにより、スマートフォン200は、サブ静止画(又はサブ動画)52と撮影時刻付近のメイン動画50を有することになり、チャプタ付与を行うことができる。なお、この場合は、スマートフォン200でチャプタ付与が決定されたら、再度アクションカメラ100にチャプタ付与に関する情報が送信される。
【0121】
また、画像処理システム10は、クラウドで構成されていてもよい。クラウドで構成された画像処理システム10に、アクションカメラ100で撮影したメイン動画50及びスマートフォン200で撮影されたサブ静止画(又はサブ動画)52を撮影後直ぐに転送する。そして、クラウドで構成された画像処理システム10は、チャプタの付与を決定し、チャプタ付与に関する情報が送信される。
【0122】
<その他>
上記実施形態において、各種の処理を実行する処理部(processing unit)のハードウェア的な構造は、次に示すような各種のプロセッサ(processor)である。各種のプロセッサには、ソフトウェア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPU(Central Processing Unit)、FPGA(Field Programmable Gate Array)などの製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、ASIC(Application Specific Integrated Circuit)などの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路などが含まれる。
【0123】
1つの処理部は、これら各種のプロセッサのうちの1つで構成されていてもよいし、同種又は異種の2つ以上のプロセッサ(例えば、複数のFPGA、あるいはCPUとFPGAの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアントやサーバなどのコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組合せで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)などに代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサを1つ以上用いて構成される。
【0124】
さらに、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子などの回路素子を組み合わせた電気回路(circuitry)である。
【0125】
上述の各構成及び機能は、任意のハードウェア、ソフトウェア、或いは両者の組み合わせによって適宜実現可能である。例えば、上述の処理ステップ(処理手順)をコンピュータに実行させるプログラム、そのようなプログラムを記録したコンピュータ読み取り可能な記録媒体(非一時的記録媒体)、或いはそのようなプログラムをインストール可能なコンピュータに対しても本発明を適用することが可能である。
【0126】
<付記>
なお、上述した開示内容には、以下に示す発明も含んでいる。
(態様1)
プロセッサを備える画像処理システムであって、
前記プロセッサは、
第1の撮影装置で撮影された、第1の時刻情報を有する第1の動画を取得し、
第2の撮影装置で撮影された、第2の時刻情報を有する第2の静止画又は第2の動画を取得し、
取得された前記第2の静止画又は前記第2の動画と、前記第2の時刻情報に対応する前記第1の動画との比較結果に基づいて、前記第1の動画にチャプタを付与する、
画像処理システム。
(態様2)
前記プロセッサは、
取得された前記第2の静止画又は前記第2の動画のシーンを解析し、第2の解析結果を生成し、
前記第2の時刻情報に対応する前記第1の時刻情報を有する前記第1の動画のシーンの解析を行って第1の解析結果を生成し、
前記第1の解析結果及び前記第2の解析結果の前記比較結果に基づいて、前記第1の動画に前記チャプタを付与する、
態様1に記載の画像処理システム。
(態様3)
前記プロセッサは、
取得された前記第2の静止画又は前記第2の動画に含まれる少なくとも1以上の画像と、前記第2の時刻情報に対応する前記第1の時刻情報を有する前記第1の動画に含まれる少なくとも1以上の画像との前記比較結果により、
前記第1の動画に前記チャプタを付与する、
態様2に記載の画像処理システム。
(態様4)
前記プロセッサは、
取得された前記第2の静止画又は前記第2の動画を、第2の被写体を抽出することにより解析し、
前記第1の動画を、第1の被写体を抽出することにより解析する態様1から3のいずれか1に記載の画像処理システム。
(態様5)
前記プロセッサは、前記第2の被写体と前記第1の被写体との属性に基づいて、前記第1の動画に前記チャプタを付与する態様4に記載の画像処理システム。
(態様6)
前記プロセッサは、前記第2の被写体と前記第1の被写体との位置及び姿勢の情報の少なくとも1つに基づいて、前記第1の動画に前記チャプタを付与する、態様4又は5に記載の画像処理システム。
(態様7)
前記プロセッサは、
前記第1の動画のシーンにおいて、前記第2の被写体と前記第1の被写体との関連性に基づいて、前記第1の被写体が写っているシーンを有する前記第1の動画に前記チャプタを付与する態様4から6のいずれか1に記載の画像処理システム。
(態様8)
前記関連性を示す情報を記録する記録装置を備え、
前記プロセッサは、
前記第2の被写体の前記関連性を示す情報に基づいて、前記第1の被写体の前記関連性を判定する態様7に記載の画像処理システム。
(態様9)
前記関連性を示す関連情報は、前記第1の撮影装置に備えられる態様8に記載の画像処理システム。
(態様10)
前記プロセッサは、
前記第2の静止画又は前記第2の動画に含まれる、前記第2の被写体の行動に関する情報と、前記第1の動画に含まれる、前記第1の被写体の行動に関する情報と、に基づいて、
前記第1の被写体の行動に関する情報に対応した時刻に、前記チャプタを付与する態様4から8のいずれか1に記載の画像処理システム。
(態様11)
前記プロセッサは、
前記チャプタが付与された時刻に関する情報を表示し、
前記表示は、前記第1の被写体の属性に応じて表示形態が異なる態様4から8、及び10のいずれか1に記載の画像処理システム。
(態様12)
前記表示は、前記第1の被写体に応じて表示する色が異なる態様11に記載の画像処理システム。
(態様13)
プロセッサを備える画像処理システムの画像処理方法であって、
前記プロセッサにより行われる、
第1の撮影装置で撮影された、第1の時刻情報を有する第1の動画を取得するステップと、
第2の撮影装置で撮影された、第2の時刻情報を有する第2の静止画又は第2の動画を取得するステップと、
取得された前記第2の静止画又は前記第2の動画と、前記第2の時刻情報に対応する前記第1の動画との比較結果に基づいて、前記第1の動画にチャプタを付与するステップと、
を含む画像処理方法。
(態様14)
プロセッサを備える画像処理システムに画像処理方法を実行させるプログラムであって、
前記プロセッサに、
第1の撮影装置で撮影された、第1の時刻情報を有する第1の動画を取得するステップと、
第2の撮影装置で撮影された、第2の時刻情報を有する第2の静止画又は第2の動画を取得するステップと、
取得された前記第2の静止画又は前記第2の動画と、前記第2の時刻情報に対応する前記第1の動画との比較結果に基づいて、前記第1の動画にチャプタを付与するステップと、
を実行させるプログラム。
【0127】
以上で本発明の例に関して説明してきたが、本発明は上述した実施形態に限定されず、本発明の趣旨を逸脱しない範囲で種々の変形が可能であることは言うまでもない。
【符号の説明】
【0128】
10 :画像処理システム
12 :第3のプロセッサ
12A :第1の取得部
12B :第2の取得部
12C :第1の解析部
12D :第2の解析部
12E :比較部
12F :チャプタ付与部
14 :メモリ
16 :データベース
18 :表示部
20 :入出力インターフェース
22 :操作部
100 :アクションカメラ
200 :スマートフォン
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14
図15
図16
図17
図18