(58)【調査した分野】(Int.Cl.,DB名)
前記制御部は、前記センサデータ、前記時系列データ、および前記画像解析結果データのうち少なくともいずれかを選択するためのユーザインタフェースを生成する、請求項1に記載の情報処理システム。
前記制御部は、前記選択された複数のデータのいずれにも所定の条件を満たすことを示すフラグがセットされている時刻に、マーキングを行う、請求項3に記載の情報処理システム。
前記制御部は、前記マーキングした時刻を示すための、前記グラフの時間軸方向の軸の長さに対応するマーク結果バーを生成する、請求項3または4に記載の情報処理システム。
【発明を実施するための形態】
【0013】
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書および図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
【0014】
また、説明は以下の順序で行うものとする。
1.本開示の一実施形態による動画像検索システムの概要
2.各実施形態
2−1.第1の実施形態
(2−1−1.構成)
(2−1−2.動作処理)
(2−1−3.応用例)
2−2.第2の実施形態
2−3.第3の実施形態
3.まとめ
【0015】
<<1.本開示の一実施形態による動画像検索システムの概要>>
図1は、本開示の一実施形態による動画像検索システムの概要について説明する図である。
図1に示すように、本実施形態による動画像検索システムは、ユーザが情報処理装置10を用いて、例えば監視カメラ(
図2に示すカメラ11a参照)により撮像された映像を確認する際における映像検索の支援を可能とする。
【0016】
近年、防犯上の観点から、一般家庭においても監視カメラが普及し、自宅の玄関やベランダ等に設置されている。しかしながら監視カメラの映像は十数時間から数百時間に及ぶ場合があり、このような長い映像を最初から最後まで確認して異常を発見することは非常に困難である。
【0017】
そこで、本実施形態では、例えばユーザが監視カメラの映像のような長時間の動画像から空き巣が家に侵入したシーン等の特定の再生ポイント(すなわち撮影時刻)を探す際に、撮像画像に関連するデータのグラフ(撮影時刻に対応する所定時間間隔毎のデータ変化を示す図表)を併せて表示し、ユーザの映像検索の負担を軽減させる。
【0018】
より具体的には、例えば
図1に示すように、情報処理装置10は、動画像データ211と共に、撮影時におけるドアセンサデータ、撮影時刻に対応する犯罪発生頻度データ、および動画像データ211の画像解析結果に基づく特定の不審な動作の回数を示す各グラフ212を表示する。動画像データ211は、例えばドア付近に設置された監視カメラの映像である。監視カメラ(カメラ11a)は、ドア付近やドアの前の通路等を撮影し、通路やドアを出入りする人物を長時間撮影することが可能である。また、ドアセンサデータは、ドアの開閉を検知するセンサにより検出されたデータである。また、撮影時刻に対応する犯罪発生頻度データとは、例えば撮影時刻(曜日、時刻、季節等のパターンであってもよい)に対応する、撮影場所付近(例えば地域単位)の空き巣発生頻度データである。かかる空き巣発生頻度データは、クラウド上の専用サーバから取得され得る。また、画像解析結果に基づく特定の不審な動作とは、例えば辺りを見回す動作である。
【0019】
上記グラフの時間軸はいずれも動画像の撮影時刻(撮影開始から撮影終了)に対応し、ユーザはグラフ212を見るだけで直感的にどの時刻辺りで異常が発生しているかを容易に把握し、動画像の再生ポイントを指定することができる。
【0020】
また、情報処理装置10は、
図1に示すように、上記各グラフの時間軸方向の軸の長さに対応する、所望の時刻の画像を指定するためのシークバー215および各データに基づくマーキング結果を示すマーク結果バー214を併せて表示し得る。マーク結果バー21
4では、各データがいずれも所定の条件を満たす時刻にマーキングが行われている。例えば、ドアが開閉し、犯罪発生頻度が所定の閾値を上回り、かつ撮像画像に写る被写体の辺りを見回す動作の回数が所定の閾値を上回る時刻にマーキングが行われる。このような時刻の映像には、不審な人物が映っている可能性が高いため、ユーザはシークバー215を操作して当該時刻の映像を再生し、異常が発生しているか否かを容易に確認することができる。
【0021】
以上説明した本開示の一実施形態による動画像検索システムの具体的な構成例および動作処理について、複数の実施形態を用いて以下具体的に説明する。
【0022】
<<2.各実施形態>>
<2−1.第1の実施形態>
まず、
図2〜
図7を参照して本開示の第1の実施形態による動画像検索システムについて説明する。本実施形態による動画像検索システムは、情報処理装置10aにより実行される。
【0023】
図2は、第1の実施形態による動画像検索システムの概要を説明する図である。
図2に示すように、本実施形態による情報処理装置10aは、ドア付近を撮像するカメラ11aから撮像された動画像データを取得し、ドアの開閉を検知するセンサ12aから検知されたドア開閉センサデータを取得し、クラウド15aから犯罪統計DB(データベース)に格納された空き巣発生頻度データを取得する。
【0024】
情報処理装置10aは、録画処理として、カメラ11aにより撮像された動画像データと、撮影時刻に対応する空き巣発生頻度データ、撮影時に取得したドア開閉センサデータ、および動画像データの画像解析結果とを記憶する。また、情報処理装置10aは、再生処理として、動画像データと共に、空き巣発生頻度データ、ドア開閉センサデータ、および画像解析結果に基づく各グラフを表示することで、ユーザの映像検索を支援することが可能となる。すなわち、例えば空き巣発生頻度が高く、かつドア開閉が検知され、さらに画像解析結果により被写体の不審な動きが検出されている時刻の映像には、侵入者が侵入している瞬間等が映っている可能性が高いため、ユーザは長時間の全ての映像を確認することなく、所望のシーンを検索することができる。特に画像解析以外のセンサデータや時系列データが動画像データの時間軸に対応するグラフで表示されることで、ユーザは所望のシーンの時間軸上のポイント(すなわち時刻)を直感的に把握することができる。
【0025】
(2−1−1.構成)
続いて、上述した第1の実施形態による情報処理装置10aの構成について、
図3を参照して説明する。
図3は、第1の実施形態による情報処理装置10aの構成例を示すブロック図である。
【0026】
図3に示すように、本実施形態による情報処理装置10aは、制御部101と、画像信号処理部102と、入力デバイス103と、入力信号処理部104と、カレンダー・タイマー部105と、記憶部106と、外部記憶部107と、表示処理部108と、表示デバイス109と、I/F(interface)110と、NW(network)I/F111とを含む。ここで、本実施形態による情報処理装置10aは、
図2に示すようなPC(パーソナルコンピュータ)により実現されてもよいし、スマートフォン、携帯電話端末、タブレット端末、ウェアラブル装置、ゲーム機、音楽プレーヤー等により実現されてもよい。
【0027】
制御部101は、演算処理装置および制御装置として機能し、各種プログラムに従って情報処理装置10a内の動作全般を制御する。制御部101は、例えばCPU(Central Processing Unit)、マイクロプロセッサ等の電子回路によって実現される。
【0028】
また、本実施形態による制御部101は、記憶制御部1011、マーキング部1012、インタフェース生成部1013としても機能する。記憶制御部1011は、カメラ11aにより撮像された動画像データと、撮影時刻に対応する空き巣発生頻度データ、撮影時に取得したドア開閉センサデータ、および動画像データの画像解析結果とを記憶部106または外部記憶部107に記憶するよう制御する。なおここでは、センサ12aから取得するセンサデータとしてドア開閉センサのセンサデータ、また、クラウド15aから取得する撮影時刻に対応する時系列データとして犯罪統計データ(例えば空き巣発生頻度データ)、画像解析結果データとして辺りを見回す動作回数データを一例として用いる。
【0029】
また、マーキング部1012は、撮影場所の撮影時刻に対応する所定の事象の時系列データ(例えば自宅周辺地域における平日の空き巣発生頻度データ等)、撮影時に取得したセンサデータ(例えばドア開閉センサデータ)、および動画像データの画像解析結果データの少なくともいずれかを含む複数のデータに基づいて、所定時刻にマーキングを行う。マーキングは、対象となる複数のデータのいずれにも所定の条件を満たすことを示すフラグがセットされている時刻に行われ得る。フラグ処理については、
図4のフローチャートを参照して後述する。また、マーキング部1012は、ユーザにより選択された複数のデータに基づいてマーキングを行ってもよい。
【0030】
また、インタフェース生成部1013は、表示デバイス109に表示する各種インタフェース(すなわち表示画面)を生成する画面生成部として機能する。具体的には、例えばインタフェース生成部1013は、センサデータ、時系列データ、および画像解析結果データのうち少なくともいずれかをマーキング処理に用いるデータとして選択するためのユーザインタフェースも生成する。また、インタフェース生成部1013は、動画像データと、センサデータ、時系列データ、および画像解析結果データのうち少なくともいずれかを含む複数のデータのグラフとを含むインタフェースを生成する。当該インタフェースに表示されるグラフは、マーキング処理に用いるデータとして選択されたグラフのみであってもよいし、選択有無に関わらず全てのデータのグラフであってもよい。また、インタフェース生成部1013は、上記グラフの時間軸方向の軸の長さに対応する、所望の時刻の画像を指定するためのシークバーおよび、マーキングした時刻を示すためマーク結果バーをさらに含むインタフェースを生成し得る。
【0031】
記憶部106は、制御部101の処理に用いられるプログラムや演算パラメータ等を記憶するROM(Read Only Memory)、および適宜変化するパラメータ等を一時記憶するRAM(Random Access Memory)により実現される。
【0032】
外部記憶部107は、例えばカメラ11aにより撮像された画像と、センサデータ、時系列データ、および画像解析結果等を格納するHDD(Hard Disc Drive)、またはSSD(Solid State Drive)等の記憶媒体である。
【0033】
画像信号処理部102は、カメラ11により撮像された撮像画像の各種処理を行い、撮像画像を整える。例えば画像信号処理部102は、撮像画像の変換、調整、ノイズ除去、エッジ検出(画像の強調)等を行う。カメラ11aからの撮像画像データ(画像信号)は、有線/無線によりI/F110を介して入力される。また、画像信号処理部102は、整えた撮像画像に対して画像解析を行い、被写体の所定の動作を検出し、所定時間間隔毎の所定動作の回数等を画像解析結果データとして制御部101に出力する。
【0034】
入力デバイス103は、キーボード、マウス、タッチパネル、スイッチ、またはボタン等により実現され、ユーザによる操作入力を検出し、検出した入力信号を入力信号処理部104に出力する。また、入力デバイス103は、マイクロホンにより実現されてもよい。
【0035】
入力信号処理部104は、入力デバイス103から入力された入力信号や、I/F110を介して入力されたセンサ12aのセンサデータ、NW
I/F111を介して入力されたクラウド15aの時系列データに対する各種入力信号処理を行い、整えた入力情報を制御部101に出力する。例えば入力信号処理部104は、入力信号の変換(例えば復号、復元)、ノイズ除去、波形処理等を行う。
【0036】
カレンダー・タイマー部105は、時間の計測を行い、計時情報を制御部101に出力する。
【0037】
表示処理部108は、制御部101から出力された情報を表示デバイス109に出力するための各種処理を行う。例えば表示処理部108は、出力情報の変換、輝度調整等を行い得る。
【0038】
表示デバイス109は、出力装置の一例であって、液晶ディスプレイ(LCD:Liquid Crystal Display)装置、有機EL(OLED:Organic Light Emitting Diode)ディスプレイ装置などの表示装置により実現される。本実施形態による表示デバイス109は、制御部101の制御にしたがって、インタフェース生成部1013により生成され、表示処理部108で調整されたインタフェースを画面に表示する。
【0039】
I/F110は、カメラ11aおよびセンサ12aからのデータを、有線/無線により取得するデータ取得部として機能する。また、I/F110は、撮像画像が記録された記録媒体からデータを読み取ることでデータを取得してもよい。また、NW
I/F111は、ネットワーク(不図示)を介してクラウド15aからのデータを有線/無線により取得する受信部として機能する。また、NW I/F111は、カメラ11aおよびセンサ12aからのデータをネットワークを介して、若しくは近距離通信により受信してもよい。
【0040】
以上、本実施形態による情報処理装置10aの構成について具体的に説明した。なお情報処理装置10aの構成は
図3に示す例に限定されない。例えばマーキング部1012を有してなくともよく、その場合は再生時にマーク結果バーが表示されないが、センサデータや時系列データのグラフを提示することで映像検索を支援し得る。また、入力デバイス103、および表示デバイス109が別体であって、情報処理装置10aと有線/無線により接続される構成であってもよい。また、画像信号処理部102による画像解析機能を制御部101に持たせてもよいし、制御部101によるインタフェース生成機能を表示処理部108に持たせてもよい。
【0041】
(2−1−2.動作処理)
続いて、上記構成を有する情報処理装置10aの動作処理について
図4〜
図7を参照して具体的に説明する。
【0042】
図4は、本実施形態による録画処理を示すフローチャートである。
図4に示すように、情報処理装置10aは、カメラ11aから継続的に撮像画像データを取得する(ステップS103)。
【0043】
次に、情報処理装置10aは、クラウド15aから撮影時刻に対応する犯罪統計データ(例えば空き巣発生頻度データ)を取得する(ステップS106)。撮影時刻に対応する犯罪統計データとは、例えば撮影場所周辺地域における撮影当日の曜日、季節、撮影時刻に応じた統計データである。情報処理装置10aは、例えば7月の平日における所定時間間隔毎の犯罪統計データを予め取得して外部記憶部107に記憶し、必要なデータを適宜取り出すようにしてもよい。
【0044】
次いで、情報処理装置10aの制御部101は、時間軸上の対象ポイントにおける犯罪統計データで示される値を、予め設定した所定の閾値C thと比較する(ステップS109)。ここで、時間軸上の対象ポイントとは、録画対象となる動画像の撮影時刻であって、例えば撮像画像データをリアルタイムに記憶(すなわち録画)する場合は、現在時刻となる。制御部101は、時間軸上の所定ポイント毎(すなわち所定時間間隔毎)にステップS109〜S139の処理を繰り返し、撮像画像データに関連する犯罪統計データやセンサデータ等のフラグ処理を行う。
【0045】
次に、犯罪統計データで示される値が閾値C thを上回る場合(ステップS109/Yes)、制御部101は、対象ポイントにおいて犯罪統計データが条件を満たすことを示すフラグCをTrueにセットする(ステップS112)。
【0046】
一方、犯罪統計データで示される値が閾値C thを上回らない場合(ステップS109/No)、制御部101は、対象ポイントにおいて犯罪統計データが条件を満たすことを示すフラグCをFalseにセットする(ステップS115)。
【0047】
次いで、制御部101は、画像信号処理部102による撮像画像データの画像解析結果に基づき、被写体が辺りを見回す動作の頻度Gを算出し(ステップS118)、時間軸上の同対象ポイントにおける辺りを見回す動作の頻度Gを、予め設定した所定の閾値G thと比較する(ステップS
121)。
【0048】
次に、辺りを見回す動作の頻度Gが閾値G thを上回る場合(ステップS118/Yes)、制御部101は、同対象ポイントにおいて被写体が辺りを見回す動作(画像解析結果データの一例)が条件を満たすことを示すフラグGをTrueにセットする(ステップS124)。
【0049】
一方、
辺りを見回す動作の頻度Gが閾値G thを上回らない場合(ステップS
121/No)、制御部101は、同対象ポイントにおいて被写体が辺りを見回す動作が条件を満たすことを示すフラグGをFalseにセットする(ステップS127)。
【0050】
次いで、制御部101は、ドア開閉を検知するセンサ12aから開閉検知データを取得した場合(ステップS130/Yes)、同対象ポイントにおいてドア開閉センサデータが条件を満たすことを示すフラグSをTrueにセットする(ステップS133)。
【0051】
一方、制御部101は、ドア開閉を検知するセンサ12aから開閉検知データを取得しなかった場合(ステップS130/No)、同対象ポイントにおいてドア開閉センサデータが条件を満たすことを示すフラグSをFalseにセットする(ステップS136)。
【0052】
そして、制御部101は、記憶制御部1011により、カメラ11aから取得した撮像画像データと、クラウド15aから取得した時系列データの一例である犯罪統計データと、画像解析結果データと、ドア開閉センサデータとを外部記憶部107に記憶するよう制御する(ステップS139)。また、犯罪統計データ、画像解析結果データ、およびセンサデータに基づくフラグ処理の結果は、各データに紐付けられていてもよいし、フラグデータとして別途記憶されていてもよい。
【0053】
以上説明したステップS106〜S139は、録画終了まで繰り返される(ステップS142)。本実施形態では、カメラ11aにより取得された撮影画像を記録する際に、記録対象の撮影画像の撮影時刻ポイントにおける関連データ(センサデータ、画像解析結果データ、および時系列データ)のフラグ処理(対象ポイントにおいて当該データが所定の条件を満たすか否か)を行っている。フラグ処理に用いるデータの種類は上記例に限定されず、さらに様々なセンサデータや時系列データを用いてもよい。また、多数のデータからユーザが予め選択したデータを記憶するようにしてもよい。
【0054】
以上、第1の実施形態による録画処理について具体的に説明した。続いて、
図5を参照して、録画した動画像データの再生時の処理について説明する。
【0055】
図5は、本実施形態による再生処理を示すフローチャートである。
図5に示すように、まず、情報処理装置10aの制御部101は、入力デバイス103からのユーザ操作に基づく再生指示に応じて、記憶された撮像画像データ(具体的には、例えば録画済みの監視カメラ映像)を取得する(ステップS153)。
【0056】
次に、制御部101は、マーキング処理に用いるデータをユーザに選択させるためのデータ選択画面を表示デバイス109に表示させるよう制御する(ステップS156)。より具体的には、制御部101は、インタフェース生成部1013により生成された選択画面を表示処理部108に出力し、表示デバイス109に表示させる。かかる選択画面では、例えばセンサデータ、画像解析データ、および時系列データのうち少なくともいずれかを含む複数のデータを選択し得る。
【0057】
次いで、制御部101は、マーキング部1012により、選択されたデータに基づくマーキング処理を行う(ステップS159)。マーキング処理については、
図6を参照して後述する。
【0058】
次に、制御部101は、撮像画像データ、選択されたデータのグラフ、およびマーク結果を含む画面をインタフェース生成部1013により生成し、表示デバイス109に表示させる(ステップS162)。ここで、表示画面の一例を
図6に示す。
【0059】
図6は、本実施形態による表示画面例を示す図である。図示された例では、画面210に、動画像データ211と、ドアセンサデータ、犯罪発生頻度データ、および辺りを見回す動作回数を示す各グラフ212と、マーキング結果を示すマーク結果バー214と、画像再生位置を指定するシークバー215とが表示されている。シークバー215およびマーク結果バー214は、各グラフ212の時間軸方向の軸の長さに対応するよう表示されている。また、画面210には、各データのグラフ212に対応する位置にデータ選択用のチェックボックス213(選択画面の一例)が表示されている。このように、制御部101は、全データのグラフ212と、チェックボックス213で選択されたデータを採用してマークした結果を示すマーク結果バー214とを表示することも可能である。
【0060】
これによりユーザは、長時間に及ぶ監視カメラの映像を全て確認することなく、グラフ212や選択したデータを用いたマーク結果バー214を参照して、異常が発生した時刻(例えば侵入者が入る瞬間)を把握することができる。
【0061】
そして、制御部101は、ユーザによるシークバー215の操作に応じて、指示された再生ポイントの撮像画像データを再生する(ステップS165)。すなわち、ユーザは、グラフ212や選択したデータを用いたマーク結果バー214を参照して、異常が発生した可能性の高い時刻を把握し、シークバー215を操作してその時刻前後を再生することができる。このように、本実施形態では、ユーザによる映像検索を支援することが可能となる。
【0062】
次いで、上記S159に示すマーキング処理について
図7を参照して具体的に説明する。
図7は、本実施形態によるマーキング処理を示すフローチャートである。
図7に示すように、まず、情報処理装置10aのマーキング部1012は、ユーザによりドアセンサデータが選択されているか否かを判断し(ステップS173)、選択されている場合はS_Enable = Trueにセットし(ステップS175)、選択されていない場合はS_Enable = Falseにセットする(ステップS178)。
【0063】
次に、マーキング部1012は、ユーザにより犯罪統計データが選択されているか否かを判断し(ステップS181)、選択されている場合はC_Enable = Trueにセットし(ステップS184)、選択されていない場合はC_Enable = Falseにセットする(ステップS187)。
【0064】
次いで、マーキング部1012は、ユーザにより辺りを見回す動作が選択されているか否かを判断し(ステップS190)、選択されている場合はG_Enable = Trueにセットし(ステップS193)、選択されていない場合はG_Enable = Falseにセットする(ステップS196)。
【0065】
そして、マーキング部1012は、論理積{(S && S_Enable)&&(C && C_Enable)&&(G
&& G_Enable)}を求め、選択されたデータのフラグ全てがTrue にセットされている時刻をマーキングする(ステップS199)。
【0066】
(2−1−3.応用例)
以上説明した第1の実施形態は、監視カメラの映像から空き巣侵入等の異常があった部分を検索する際の支援を想定しているため、ドア開閉センサデータ、犯罪統計データ、および被写体の辺りを見回す動作解析結果データを用いているが、本実施形態はこれに限定されない。例えば本実施形態による動画像検索システムは、他の状況においても、所定の動画像の検索支援を行うことが可能である。以下、
図8を参照して説明する。
【0067】
図8は、第1の実施形態による応用例について説明する図である。
図8に示すように、例えば講演や講義等が行われている際に聴衆を据え置きカメラ等のカメラ11bで撮像した動画像データから所望の再生ポイントを検索する際にも、本実施形態による動画像検索システムを用いることが可能である。
【0068】
この場合、動画像検索システムを実行する情報処理装置10bは、カメラ11bから聴衆を撮像した映像(動画像データ)を取得し、また、聴衆に装着されているIoT(Internet of Things)センサからセンサデータを受信する。センサデータは、クラウド15bを介して情報処理装置10bに取得されてもよい。かかるセンサデータは、例えば脈拍、体温、発汗量等の生体センサデータであってもよい。
【0069】
また、情報処理装置10bは、カメラ11bから取得した動画像データの画像解析を行い、撮像画像から抽出した顔画像に基づいて聴衆の笑顔度や顔の下向き度を算出する。聴衆の顔が略下方向を向いている場合、居眠りをしたりスマートフォンを操作していて講義や講演に全く興味が無いことが明確に分かるため、講師の評価として有用に用い得る。
【0070】
そして、情報処理装置10bは、
図8に示すように、動画像データと、画像解析結果データ(ここでは一例として笑顔度、顔の下向き度)およびセンサデータの各グラフと、各グラフの時間軸方向の軸の長さに対応する、再生操作を行うためのシークバーとを含む画面220を生成し、表示する。これによりユーザは、笑顔度、顔の下向き度、聴衆の脈拍等のセンサデータを参照することで、長時間の動画像データから所望のシーンを容易に検索することが可能となる。
【0071】
<2−2.第2の実施形態>
続いて、第2の実施形態について
図9〜
図12を参照して具体的に説明する。本実施形態では、オリンピックやサッカー、野球、テニス等のスポーツ中継のコンテンツを視聴する際に、長時間に及ぶ試合全てを見る時間は無いが、ニュース番組のダイジェストでは物足りないといった場合におけるコンテンツの再生シーンの検索支援を行う。
【0072】
図9は、第2の実施形態による動画像検索システムの概要を説明する図である。
図9に示すように、本実施形態による情報処理装置10cは、表示装置13からコンテンツデータ(映像および音声を含む)を取得し、センサ12cからコンテンツに関連するセンサデータを取得し、クラウド15cからコンテンツに関連する時系列データを取得する。
【0073】
ここで、センサ12cは、例えば表示装置13でコンテンツを視聴する人が座るソファーに設けられる振動センサが想定される。また、センサ12cは、ユーザの家のソファーに設けられるセンサに限られず、例えば友人の家で同コンテンツが視聴される場合に友人が座るソファーに設けられたセンサであってもよい。情報処理装置10cは、ネットワークを介して友人の家のソファーに設けられたセンサからのセンサデータを取得し得る。一般的に、見所となるハイライトシーンでは、見ている人は何らかの身体的な反応をし、飛び跳ねたり、力を入れてガッツポーズを取ったりするため、ソファーに設けられた振動センサにより、視聴中に盛り上がった際の振動を検知することが可能となる。
【0074】
クラウド15cから取得する時系列データとは、例えば同コンテンツ放送時にインターネット上の掲示板にリアルタイムで書き込まれた同コンテンツについてのコメントの数やSNS(Social Networking Service)に投稿された同コンテンツについてのコメント数の時系列データである。または、時系列データは、視聴率調査会社の提供する視聴率データや、動画サイトにおいて同コンテンツの各再生シーンに対応して書き込まれた動画コメントの数の時系列データであってもよい。若しくは、コンテンツがスポーツ中継の場合における各選手やチームのスタッツ等の時系列データであってもよい。
【0075】
また、コンテンツの画像/音声解析結果データは、例えば画像/音声解析により得られる、盛り上がり度、歓声の大きさ、テロップの文字解析(「ゴール!」等)のデータ等である。
【0076】
情報処理装置10bは、記憶処理として、スポーツ中継等のコンテンツと、コンテンツ放送時に対応するクラウド15cからの時系列データ(SNSのコメント数データ等)、コンテンツ放送時にセンサ12cにより検知されたセンサデータ(例えばソファーの振動データ等)、およびコンテンツの画像/音声解析結果(例えば歓声の大きさ等)とを記憶する。また、情報処理装置10cは、再生処理として、コンテンツと共に、時系列データ、センサデータ、および画像解析結果データに基づく各グラフを表示することで、ユーザの映像検索を支援することが可能となる。すなわち、例えば歓声が大きく、かつソファーの振動が検知され、さらにSNSでのコメント数も多い時刻の映像には、多くの視聴者が注目したプレーや出来事が映っている可能性が高いため、ユーザは長時間の全ての映像を確認することなく、所望のシーンを検索することができる。特に画像解析以外のセンサデータや時系列データが動画像データの時間軸に対応するグラフで表示されることで、ユーザは所望のシーンの時間軸上のポイント(すなわち時刻)を直感的に把握することができる。
【0077】
続いて、上述した第2の実施形態による情報処理装置10cの構成について、
図10を参照して説明する。
図10は、本実施形態による情報処理装置10cの構成例を示すブロック図である。
図10に示すように、本実施形態による情報処理装置10cは、制御部101と、画像信号処理部102と、入力デバイス103と、入力信号処理部104と、カレンダー・タイマー部105と、記憶部106と、外部記憶部107と、表示処理部108と、表示デバイス109と、I/F(interface)110と、NW(network)I/F111と、コンテンツ取得部112と、音声信号処理部113とを含む。
【0078】
コンテンツ取得部112は、表示装置13で表示される放送番組やインターネット番組等のコンテンツ(映像音声データおよびメタデータを含む)を取得する。放送番組等のコンテンツは、表示装置13(テレビ受像機)から取得してもよいし、情報処理装置10cのコンテンツ取得部112がテレビ受像機として機能することで取得してもよい。コンテンツ取得部112により取得されたコンテンツは、音声信号処理部113において音声解析が行われ、画像信号処理部102で画像解析が行われる。音声信号処理部113では、例えばコンテンツに含まれる音声データの解析により歓声の大きさを抽出する。また、画像信号処理部102では、例えばコンテンツに含まれる動画像データ(すなわち映像データ)の解析により、盛り上がりが推定される被写体(ここでは選手)の動く量や、特定の動作(サッカーの際はシュート、コーナーキック等、テニスの場合はボレー、スマッシュ等)を抽出したり、テロップの文字解析を行う。
【0079】
このように、第2の実施形態では、コンテンツ取得部112によりコンテンツを取得し、また、音声信号処理部113によりコンテンツの音声解析を行う点が第1の実施形態と異なる。
【0080】
また、情報処理装置10cの制御部101は、インタフェース生成部1013により生成した選択画面を表示デバイス109に表示させる。かかる選択画面では、例えばセンサデータ、画像解析データ、および時系列データのうち少なくともいずれかを含む複数のデータを選択し得る。ここで、選択画面の一例を
図11に示す。
【0081】
図11は、第2の実施形態によるデータ選択画面の一例を示す図である。図示された例では、画面230に、画像解析結果データの選択画面231と、センサデータの選択画面232と、クラウドデータの選択画面233とが表示されている。いずれもプルダウン式の選択メニューであって、例えば画像解析結果データの選択画面231では、盛り上がり度、歓声の大きさ、およびテロップ解析のいずれかの画像解析結果データを選択できる。また、センサデータの選択画面232では、家(ユーザの自宅)のソファーに設けられた振動センサ、友人Aのソファーに設けられた振動センサ、および友人Bに装着された運動センサのいずれかのセンサデータを選択できる。また、クラウドデータの選択画面233では、SNSコメント数、視聴率データ、および動画サイトコメント数のいずれかのクラウドデータを選択できる。
【0082】
そして、制御部101は、選択された各データのグラフと、コンテンツ再生画面(動画像データ)とを含む画面をインタフェース生成部1013により生成し、表示デバイス109に表示させる。また、制御部101は、選択された各データのグラフに基づいてマーキング部1012により行ったマーク結果を示すマーク結果バーをさらに含む画面をインタフェース生成部1013により生成し、表示デバイス109に表示させてもよい。ここで、表示画面の一例を
図12に示す。
【0083】
図12は、本実施形態による表示画面例を示す図である。図示された例では、画面240に、動画像データ241と、選択された画像解析データ、センサデータ、およびクラウドデータを示す各グラフ242と、マーキング結果を示すマーク結果バー244と、画像再生位置を指定するシークバー245とが表示されている。シークバー245およびマーク結果バー244は、各グラフ242の時間軸方向の軸の長さに対応するよう表示されている。また、画面240には、グラフ表示、およびマーキング処理に採用するデータの選択を行い得る選択画面243が表示されている。
【0084】
これによりユーザは、長時間に及ぶスポーツ中継の録画画像を全て確認することなく、選択したデータのグラフ242や、マーク結果バー244を参照して、見所のシーンが位置する時間軸上のポイント(すなわち時刻)を把握することができる。
【0085】
そして、制御部101は、ユーザによるシークバー245の操作に応じて、指示されたポイントの録画画像データを再生する。このように、本実施形態では、ユーザによる映像検索を支援することが可能となる。
【0086】
以上、第2の実施形態について説明した。なおここではコンテンツ(映像音声データ)の一例としてスポーツ中継の場合について説明したが、本実施形態の映像検索の支援対象となるコンテンツの内容は当然これに限定されず、例えばオリンピックの開会式・閉会式等、他の放送番組であってもよい。
【0087】
<2−3.第3の実施形態>
次に、第3の実施形態について
図13〜
図16を参照して具体的に説明する。本実施形態では、対象を長時間撮像して検証する際における映像検索の支援を行う。通常、対象を検証実験する際、対象を長時間撮像した映像を振り返って対象の状態変化を確認することが有効な方法になるが、長時間の映像を全て最初から見ることは大変な労力となる。このような場合にも、本実施形態による動画像検索システムにより、撮像画像の解析結果の他、撮像画像に関連するセンサデータや撮像時刻に対応する時系列データのグラフを表示することで、映像検索を支援することが可能となる。
【0088】
図13は、第3の実施形態による動画像検索システムの概要を説明する図である。図示された例では、例えば、「猫が顔を洗うと雨が降る」という言い伝えを検証する場合を想定する。この場合、情報処理装置10dは、カメラ11dから猫を撮像した動画像データを取得する。また、情報処理装置10dは、各種センサデータとして、猫に装着されたセンサ12dから猫の動きを示すセンサデータを取得し、猫の近くに置かれた気圧センサ16から気圧データを取得し、実験場所の屋外に置かれた降雨センサ17から降雨データを取得する。また、情報処理装置10dは、クラウド15dから実験に関連する時系列データとして例えば気象予報データ(具体的には降水確率)を取得する。
【0089】
情報処理装置10dは、上記取得した各種データに基づいて、撮像した動画像データ(すなわち検証用映像記録)を再生する際に、撮影時刻に対応するセンサデータや降水確率のグラフを表示し、ユーザによる検証映像の検索を支援する。これにより、ユーザは検証用映像記録を全て見ることなく、撮影時刻に対応するセンサデータ等のグラフを映像のセンサインデックスとして用いて、グラフにより示される値が条件を満たす時刻の映像を中心に検証を行うことで、検証に関する時間を短縮することが可能となる。
【0090】
なおこのような第3の実施形態による情報処理装置10dの構成は、
図3を参照して説明した第1の実施形態による情報処理装置10cの構成と同様であるため、ここでの具体的な説明は省略する。
【0091】
続いて、本実施形態による動画像検索システムの動作処理について
図14〜
図15を参照して説明する。
【0092】
図14は、本実施形態による録画処理を示すフローチャートである。
図14に示すように、まず、情報処理装置10dは、カメラ11dから撮像画像データを取得する(ステップS203)。
【0093】
次に、情報処理装置10dは、猫の動きを検知するセンサ12d(運動センサ)から運動データを取得する(ステップS206)。
【0094】
次いで、情報処理装置10dは、気圧センサ16から気圧データを取得する(ステップS209)。
【0095】
次に、情報処理装置10dは、降雨センサ17から降雨データを取得する(ステップS212)。
【0096】
次いで、情報処理装置10dは、クラウド15dから降水確率データを取得する(ステップS215)。
【0097】
そして、情報処理装置10dは、撮像画像データに、運動データ、気圧データ、降雨データ、および降水確率データを紐付けて記憶する(ステップS218)。
【0098】
以上説明したステップS203〜S221は、録画終了まで繰り返される(ステップS221)。なお上記ステップS203〜S215の処理は図示した順序に限定されず、並行して行われてもよい。また、情報処理装置10dは、録画の開始や停止を操作するための操作画面を表示デバイス109に表示してもよい。また、かかる操作画面には、録画中の撮像画像と共に、取得した運動データ、気圧データ、降雨データ、および降水確率データのグラフを表示するようにしてもよい。
【0099】
以上、第3の実施形態による録画処理について具体的に説明した。続いて、
図15を参照して、録画した動画像データの再生時の処理について説明する。
【0100】
図15は、本実施形態による再生処理を示すフローチャートである。
図15に示すように、まず、情報処理装置10dは、入力デバイス103からのユーザ操作に基づく再生指示に応じて、記憶された撮像画像データ(具体的には、例えば録画済みの検証用映像)を取得する(ステップS233)。
【0101】
次に、情報処理装置10dは、撮像画像データと、運動データ、気圧データ、降雨データ、および降水確率データの各グラフを含む画面を生成し、表示デバイス109に表示する(ステップS236)。
【0102】
そして、情報処理装置10dは、ユーザによるシークバー操作に応じて、指示された再生ポイントの撮像画像データを再生する(ステップS239)。
【0103】
ここで、表示画面の一例を
図16に示す。
図16は、本実施形態による表示画面例を示す図である。図示された例では、画面250に、動画像データ251と、運動センサ、気圧センサ、降雨センサの各種センサデータおよび降水確率のデータを示す各グラフ252と、画像再生位置を指定するシークバー255とが表示されている。シークバー255は、各グラフ252の時間軸方向の軸の長さに対応するよう表示されている。
【0104】
これによりユーザは、長時間に及ぶ検証用映像を全て確認することなく、グラフ252を参照して、所定の再生ポイントで検証を行うことができる。具体的には、例えば「猫が顔を洗うと雨が降る」という言い伝えを検証する際、運動センサにより猫の動きが検知された時刻を再生するようシークバー255を操作して、猫が顔を拭いているシーンであるか否かを確認する。そして、猫が顔を拭いているシーンである場合、その時刻前後の気圧センサデータ、降雨センサデータ、および降水確率データを参照して言い伝えの検証を行う。また、ユーザは、気圧が低くなった時刻、降水確率が上がった時刻、または降雨センサにより降水が検知された時刻の前後における運動センサにより猫の動きが検知されたシーンを再生させることで、猫がどのような動きをしているかを確認する。このように、ユーザは長時間に及ぶ検証用映像を全て確認することなく、確実に検証を行うことができる。
【0105】
なお上述した実施形態では、マーキング処理を行っていないため、
図16に示す画面250にはマーキング結果を示すマーク結果バーが表示されていない。第3の実施形態においても複数のデータに基づくマーキング処理を行った場合は、画面250にマーク結果バーが表示され得る。
【0106】
また、上述した実施形態では、動物の検証用映像を一例として用いたが、本実施形態は当然にこれに限定されず、例えば人間同士のコミュニケーションの様子や、人間の物や動物に対する行動、人間の消費行動、経済行動等、ヒト、モノ、コトの解析を長時間の映像記録に基づいて行う際に適用され得る。
【0107】
<<3.まとめ>>
上述したように、本開示の実施形態による動画像検索システムでは、動画像に関連する画像解析以外のデータのグラフを用いて動画像の検索を支援することが可能となる。
【0108】
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本技術はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
【0109】
例えば、上述した情報処理装置10に内蔵されるCPU、ROM、およびRAM等のハードウェアに、情報処理装置10の機能を発揮させるためのコンピュータプログラムも作成可能である。また、当該コンピュータプログラムを記憶させたコンピュータ読み取り可能な記憶媒体も提供される。
【0110】
また、上述した各実施形態では、動画像検索システムが情報処理装置10で実行される場合について説明したが、本開示はこれに限定されず、情報処理装置10の機能のうち少なくとも一部がサーバ上で実行されてもよい。例えば、記憶制御部1011、マーキング部1012、およびインタフェース生成部1013が、情報処理装置10とネットワークを介して接続するサーバ上にあってもよい。
【0111】
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
【0112】
なお、本技術は以下のような構成も取ることができる。
(1)
動画像データを取得する動画像データ取得部と、
前記動画像データに関連するセンサデータ、および前記動画像データの撮影時刻に対応する時系列データを受信する通信部と、
前記動画像データの画像解析を行い、画像解析結果データを生成する画像信号処理部と、
前記動画像データと、前記センサデータ、前記時系列データ、および前記画像解析結果データのうち少なくとも2つのデータのグラフとを含むインタフェースを生成する制御部と、
を備える、情報処理システム。
(2)
前記制御部は、前記センサデータ、前記時系列データ、および前記画像解析結果データのうち少なくともいずれかを選択するためのユーザインタフェースを生成する、前記(1)に記載の情報処理システム。
(3)
前記制御部は、前記ユーザインタフェースにより選択された複数のデータに基づいて、所定時刻にマーキングを行う、前記(2)に記載の情報処理システム。
(4)
前記制御部は、前記選択された複数のデータのいずれにも所定の条件を満たすことを示すフラグがセットされている時刻に、マーキングを行う、前記(3)に記載の情報処理システム。
(5)
前記制御部は、前記マーキングした時刻を示すための、前記グラフの時間軸方向の軸の長さに対応するマーク結果バーを生成する、前記(3)または(4)に記載の情報処理システム。
(6)
前記制御部は、所望の時刻の画像を指定するための、前記グラフの時間軸方向の軸の長さに対応するシークバーを生成する、前記(1)〜(5)のいずれか1項に記載の情報処理システム。
(7)
前記制御部は、前記動画像データと、前記センサデータ、前記時系列データ、および前記画像解析結果データのグラフとを含むインタフェースを生成する、前記(1)〜(6)のいずれか1項に記載の情報処理システム。
(8)
前記センサデータは、前記動画像データの被写体に取り付けられたセンサにより検出される、前記(1)〜(7)のいずれか1項に記載の情報処理システム。
(9)
前記画像信号処理部は、前記動画像データの画像解析により被写体の特定の動きを検出し、
前記制御部は、前記特定の動きの頻度が所定の閾値を上回る時刻にマーキングを行う、前記(5)に記載の情報処理システム。
(10)
前記時系列データは、前記動画像データの撮影時刻に対応する所定の事象に関するデータであり、
前記制御部は、前記事象の値が所定の条件を満たす時刻にマーキングを行う、前記(1)〜(9)のいずれか1項に記載の情報処理システム。
(11)
前記センサデータは、動きセンサによって検出された、前記動画像データを視聴した被写体の動きを示す動きデータであり、
前記制御部は、前記動きデータの値が所定の条件を満たす時刻にマーキングを行う、前記(1)〜(7)のいずれか1項に記載の情報処理システム。
(12)
前記情報処理システムは、前記動画像データを音声解析し、音声解析結果データを生成する音声信号処理部をさらに備え、
前記制御部は、前記動画像データと、前記センサデータ、前記時系列データ、前記画像解析結果データ、および音声解析結果データのうち少なくとも一つのデータのグラフとを含むインタフェースを生成する、前記(1)〜(11)のいずれか1項に記載の情報処理システム。
(13)
プロセッサが、
動画像データを取得することと、
前記動画像データに関連するセンサデータ、および前記動画像データの撮影時刻に対応する時系列データを受信することと、
前記動画像データの画像解析を行い、画像解析結果データを生成することと、
前記動画像データと、前記センサデータ、前記時系列データ、および前記画像解析結果データのうち少なくとも2つのデータのグラフとを含むインタフェースを生成すること、
を含む、情報処理方法。
(14)
コンピュータを、
動画像データを取得する動画像データ取得部と、
前記動画像データに関連するセンサデータ、および前記動画像データの撮影時刻に対応する時系列データを受信する通信部と、
前記動画像データの画像解析を行い、画像解析結果データを生成する画像信号処理部と、
前記動画像データと、前記センサデータ、前記時系列データ、および前記画像解析結果データのうち少なくとも2つのデータのグラフとを含むインタフェースを生成する制御部と、
として機能させるためのプログラムが記録された、コンピュータ読み取り可能な記録媒体。