(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-04-04
(45)【発行日】2024-04-12
(54)【発明の名称】画像情報処理装置及び画像情報処理システム
(51)【国際特許分類】
H04N 7/18 20060101AFI20240405BHJP
H04N 5/92 20060101ALI20240405BHJP
H04N 5/76 20060101ALI20240405BHJP
H04N 5/77 20060101ALI20240405BHJP
G08B 25/00 20060101ALI20240405BHJP
G08B 21/24 20060101ALI20240405BHJP
【FI】
H04N7/18 D
H04N7/18 U
H04N7/18 K
H04N5/92 010
H04N5/76
H04N5/77
G08B25/00 510M
G08B21/24
(21)【出願番号】P 2020011235
(22)【出願日】2020-01-27
【審査請求日】2022-12-07
(73)【特許権者】
【識別番号】594164542
【氏名又は名称】キヤノンメディカルシステムズ株式会社
(74)【代理人】
【識別番号】110001380
【氏名又は名称】弁理士法人東京国際特許事務所
(72)【発明者】
【氏名】柴田 真理子
(72)【発明者】
【氏名】藤本 克彦
(72)【発明者】
【氏名】池田 智
(72)【発明者】
【氏名】菅原 通孝
(72)【発明者】
【氏名】橋本 敬介
【審査官】佐野 潤一
(56)【参考文献】
【文献】特開2015-130631(JP,A)
【文献】特開2002-329201(JP,A)
【文献】特開2004-171241(JP,A)
【文献】特開2017-210310(JP,A)
【文献】特開2005-286493(JP,A)
【文献】特開2020-004252(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
H04N 7/18
H04N 5/76- 5/92
G06T 1/00- 7/00
G06Q 20/00-50/00
G08B 13/00-31/00
(57)【特許請求の範囲】
【請求項1】
所定の場所の画像データを取得する取得部と、
前記画像データに基づいて、動作物に付帯している付帯物を検出する検出部と、
前記検出部による検出結果に基づいて、前記付帯物の位置と、その位置に対応する時刻とに関する付帯物情報を
検索用データベースに登録する登録制御部と、
を有
し、
前記登録制御部は、前記動作物に付帯している前記付帯物の、前記動作物からの離脱動作をトリガとして、前記付帯物情報を前記検索用データベースに登録する、
画像情報処理装置。
【請求項2】
前記付帯物情報は、前記画像データである、
請求項1に記載の画像情報処理装置。
【請求項3】
前記取得部により取得される前記画像データは、動画像データであり、
前記登録制御部により前記
検索用データベースに登録される前記画像データは、前記動画像データの一部であるフレーム画像データである、
請求項2に記載の画像情報処理装置。
【請求項4】
前記取得部により取得される前記画像データは、動画像データであり、
前記登録制御部により前記
検索用データベースに登録される前記付帯物情報は、前記付帯物の位置と、その位置に対応する時刻とを表現した音声を含む音声データである、
請求項1に記載の画像情報処理装置。
【請求項5】
前記登録制御部により前記
検索用データベースに登録される前記画像データは、さらに前記動画像データを含む、
請求項3又は4に記載の画像情報処理装置。
【請求項6】
前記動作物を示す動作物像と動作の種類とが対応付けられたデータが予め登録された動作物データベースと、
前記付帯物を示す付帯物像と付帯物の種類とが対応付けられたデータが予め登録された付帯物データベースと、
をさらに有し、
前記検出部は、
前記動作物データベースを利用して、前記画像データに含まれる動作物像に対応する動作の種類を検出し、
前記付帯物データベースを利用して、前記画像データに含まれる付帯物像に対応する付帯物の種類を検出
し、
検出した前記動作の種類及び前記付帯物の種類に基づいて、前記動作物に付帯している前記付帯物の、前記動作物からの離脱動作を検出する、
請求項1乃至5のいずれか一項に記載の画像情報処理装置。
【請求項7】
前記登録制御部は、所定の付帯物に関する付帯物情報の表示を要求する、装置外の出力装置からの要求に従って、前記付帯物情報が登録された前記
検索用データベースから、前記所定の付帯物に関する付帯物情報を読み出し、
読み出された前記所定の付帯物に関する付帯物情報を前記出力装置に送信する送信部、
をさらに有する請求項1乃至
6のいずれか一項に記載の画像情報処理装置。
【請求項8】
前記画像情報処理装置の前記検出部は、前記動作物に付帯している前記付帯物の、前記動作物からの離脱動作の後に、装置外の出力装置の、前記付帯物からの距離を検出し、前記距離が閾値より大きいと判断する場合に、警告情報を生成し、
前記警告情報を、前記出力装置に送信する送信部、
をさらに有する請求項1乃至
7のいずれか一項に記載の画像情報処理装置。
【請求項9】
請求項
7に記載の前記画像情報処理装置と、
所定の場所を撮像することにより画像データを生成する撮像装置と、
所定の付帯物に関する付帯物情報の表示を要求する出力装置と、
を有する画像情報処理システムであって、
前記画像情報処理装置の前記取得部は、前記撮像装置によって生成された前記画像データを前記撮像装置から取得し、
前記出力装置は、前記画像情報処理装置の前記送信部によって送信された前記付帯物情報を表示する、
画像情報処理システム。
【請求項10】
請求項
8に記載の前記画像情報処理装置と、
所定の場所を撮像することにより画像データを生成する撮像装置と、
所定の付帯物に関する付帯物情報の表示を要求する出力装置と、
を有する画像情報処理システムであって、
前記画像情報処理装置の前記取得部は、前記撮像装置によって生成された前記画像データを前記撮像装置から取得し、
前記出力装置は、前記画像情報処理装置の前記送信部によって送信された前記警告情報を出力する、
画像情報処理システム。
【発明の詳細な説明】
【技術分野】
【0001】
本明細書及び図面に開示の実施形態は、画像情報処理装置及び画像情報処理システムに関する。
【背景技術】
【0002】
生活をしていく中で、建物内でメガネや車の鍵等の物品がどこにあるのか分からなくなる場合があり、所望の物品を探すのに手間取ってしまうことがある。このような問題を解決する技術として、物品に非接触ICタグを取り付けるとともに、建物内に複数の読取装置を設置しておくことにより、所望の物品が建物内のどこにあるかを通知するシステムがある。
【0003】
また、室内の撮像で生成された画像データに基づいて特定の物品を認識し、特定の物品に応じた条件に従って、物品に対応付けられた画像データを表示させるシステムがある。
【先行技術文献】
【特許文献】
【0004】
【発明の概要】
【発明が解決しようとする課題】
【0005】
本明細書及び図面に開示の実施形態が解決しようとする課題の一つは、紛失した任意の付帯物を、持ち主であるユーザが容易に捜索することができる手段を提供することである。
【0006】
ただし、本明細書及び図面に開示の実施形態により解決しようとする課題は上記課題に限られない。後述する実施形態に示す各構成による各効果に対応する課題を他の課題として位置づけることもできる。
【課題を解決するための手段】
【0007】
実施形態に係る画像情報処理装置は、取得部と、検出部と、登録制御部とを備える。取得部は、所定の場所の画像データを取得する。検出部は、画像データに基づいて、動作物に付帯している付帯物を検出する。登録制御部は、検出部による検出結果に基づいて、付帯物の位置と、その位置に対応する時刻とに関する付帯物情報をデータベースに登録する。
【図面の簡単な説明】
【0008】
【
図1】
図1は、実施形態に係る画像情報処理システムの構成例を示す概略図。
【
図2】
図2は、実施形態に係る画像情報処理システムの構成例を示す詳細図。
【
図3】
図3は、実施形態に係る画像情報処理システムにおいて、動作物データベースが予め登録するデータの一例を示す図。
【
図4】
図4は、実施形態に係る画像情報処理システムにおいて、付帯物データベースが予め登録するデータの一例を示す図。
【
図5】
図5は、実施形態に係る画像情報処理システムの機能を示すブロック図。
【
図6】
図6は、第1の実施形態に係る画像情報処理システムの動作をフローチャートとして示す図。
【
図7】
図7は、第1の実施形態に係る画像情報処理システムの動作をフローチャートとして示す図。
【
図8】
図8は、第1の実施形態に係る画像情報処理システムにおいて、検索用データベースの登録内容の一例を示す図。
【
図9】
図9は、第2の実施形態に係る画像情報処理システムの動作をフローチャートとして示す図。
【
図10】
図10は、第2の実施形態に係る画像情報処理システムの動作をフローチャートとして示す図。
【
図11】
図11は、第2の実施形態に係る画像情報処理システムにおいて、検索用データベースの登録内容の一例を示す図。
【
図12】
図12は、第3の実施形態に係る画像情報処理システムの動作をフローチャートとして示す図。
【
図13】
図13は、第4の実施形態に係る画像情報処理システムの動作をフローチャートとして示す図。
【
図14】
図14は、第4の実施形態に係る画像情報処理システムの動作をフローチャートとして示す図。
【
図15】
図15は、第4の実施形態に係る画像情報処理システムにおいて、携帯リストの一例を示す図。
【
図16】
図16は、第4の実施形態に係る画像情報処理システムにおいて、出力装置の出力を説明するための概念図。
【発明を実施するための形態】
【0009】
以下、図面を参照しながら、画像情報処理装置及び画像情報処理システムの実施形態について詳細に説明する。
【0010】
1.第1の実施形態
図1は、第1の実施形態に係る画像情報処理システムの構成例を示す概略図である。
【0011】
図1は、実施形態に係る画像情報処理システム1を示す。画像情報処理システム1は、撮像装置10と、第1の実施形態に係る画像情報処理装置20と、出力装置30とを備える。撮像装置10と、画像情報処理装置20と、出力装置30とは、有線又は無線LAN(Local Area Network)等のネットワークNを介して相互に通信可能なように接続される。なお、画像情報処理システム1において、撮像装置10は、ユーザごとに、1又は複数が対応付けられるものである。例えば、ユーザAの自宅のリビングと、書斎と、寝室と、ダイニングとに撮像装置10がそれぞれ設置される場合が想定される。ユーザBについても同様である。
【0012】
例えば、ユーザ、特に、短期記憶が失われやすい疾患のある患者は、眼鏡等を任意の場所に置いたことを忘れて紛失してしまう場合がある。また、人間は誰でも無意識のうちに眼鏡等を任意の場所に置いてしまい、その場所を思い出せずに困ることがある。画像情報処理システム1は、そのような問題を解決するものである。
【0013】
撮像装置10は、イメージセンサと、増幅器と、A/D(Analog to Digital)変換器等(図示省略)等を備える。イメージセンサは、対物光学系(図示省略)を介して、所定の場所、例えば、ユーザの自宅のリビング及び書斎等の部屋内を日常的に撮像する。増幅器は、イメージセンサからの出力ビデオ信号を増幅させる。A/D変換器は、増幅器から出力されたアナログビデオ信号をデジタルビデオ信号に変換する。
【0014】
撮像装置10は、ユーザの部屋内の状況を監視するために、当該部屋内に設置されるものである。撮像装置10は、汎用のビデオカメラであればよい。
【0015】
撮像装置10は、画像情報処理装置20による制御の下、ユーザの部屋内を連続的に撮像することで動画像データを生成する。なお、撮像装置10は、固定カメラである場合について説明するが、その場合に限定されるものではない。例えば、撮像装置10は、PTZ(パン・チルト・ズーム)カメラであってもよい。撮像装置10によって生成された動画像データは、画像情報処理装置20に提供される。
【0016】
画像情報処理装置20は、撮像装置10が設置される各ユーザの所有物(自宅、社宅、事務所等を含む)に設置されていてもよいし、撮像装置10が設置される複数ユーザの自宅に接続されるクラウドサーバとして設置されていてもよい。
【0017】
画像情報処理装置20は、PC(Personal Computer)の一般的な構成を備える。画像情報処理装置20は、デスクトップPC又はノートPCであってもよいし、スマートフォン及びタブレット端末等のモバイルPCであってもよい。画像情報処理装置20は、各フレーム画像データを入力して解析することで、画像データに含まれる動作物の動作の種類(動作名)や、動作物に付帯させることが可能な付帯物の種類(付帯物名)を検出する。
【0018】
出力装置30は、PCの一般的な構成を備える。出力装置30は、デスクトップPC又はノートPCであってもよいし、スマートフォン、タブレット端末等のモバイルPCであってもよい。又は、出力装置30は、PCの構成を備えなくてもよい。出力装置30は、遠隔制御によってワイヤレスで音声データを出力可能なワイヤレスブザーや、ワイヤレスチャイム等であってもよい。以下、第1~第3の実施形態では出力装置30が、タブレット端末である場合について説明し、第4の実施形態では、出力装置30が、ワイヤレスブザーである場合について説明する。
【0019】
図2は、画像情報処理システム1の構成例を示す詳細図である。
【0020】
図2に示すように、画像情報処理システム1の画像情報処理装置20は、コンピュータとしての構成を備え、処理回路21と、記憶回路22と、動作物データベース(DB:Data Base)23と、付帯物DB24と、検索用DB25と、入力インターフェース26と、ディスプレイ27と、ネットワークインターフェース28とを備える。処理回路21は、共通信号伝送路としてのバスを介して、画像情報処理装置20を構成する各ハードウェア構成要素22~28に相互接続される。処理回路21は、専用のハードウェアで構成されてもよいし、内蔵のプロセッサによるソフトウェア処理で各種機能を実現するように構成してもよい。
【0021】
処理回路21は、所定のプログラムを実行する専用又は汎用のCPU(Central Processing Unit)又はMPU(Micro Processor Unit)等のプロセッサの他、特定用途向け集積回路(ASIC)、及び、プログラマブル論理デバイス等の処理回路を意味する。プログラマブル論理デバイスとしては、例えば、単純プログラマブル論理デバイス(SPLD:Simple Programmable Logic Device)、複合プログラマブル論理デバイス(CPLD:Complex Programmable Logic Device)、及び、フィールドプログラマブルゲートアレイ(FPGA)等の回路が挙げられる。
【0022】
また、処理回路21は、単一のプロセッサによって構成されてもよいし、複数の独立したプロセッサの組み合わせによって構成されてもよい。後者の場合、複数のプロセッサにそれぞれ対応する複数の記憶回路22が設けられると共に、各プロセッサにより実行されるプログラムが当該プロセッサに対応する記憶回路に記憶される構成でもよい。別の例としては、1個の記憶回路22が複数のプロセッサの各機能に対応するプログラムを一括的に記憶する構成でもよい。なお、処理回路21は、処理部の一例である。
【0023】
記憶回路22は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、ハードディスク、光ディスク等によって構成される。記憶回路22は、USB(Universal Serial Bus)メモリ及びDVD(Digital Video Disk)等の可搬型メディアを脱着自在な回路として構成されてもよい。記憶回路22は、処理回路21において実行される各種プログラム(アプリケーションプログラムの他、OS(Operating System)等も含まれる)、プログラムの実行に必要な文字情報、及び画像データを記憶する。また、記憶回路22には、OSを制御するための各種コマンドや、タッチパネル13からの入力を支援するGUI(Graphical User Interface)のプログラムを記憶する。なお、記憶回路22は、記憶部の一例である。
【0024】
動作物DB23は、ハードディスク等によって構成される記憶部である。動作物DB23は、動作物を示す像(以下、「動作物像」という)と、動作の種類(動作名)とが対応付けられたデータが予め登録されたデータベースである。
【0025】
図3は、動作物DB23が予め登録するデータの一例を示す図である。
【0026】
図3に示すように、動作物DB23は、動作物(例えば、人間、犬、猫)を示す動作物像に、動作の種類(動作名)が予め対応付けられて成る。動作物DB23が利用される際、例えば、画像情報処理装置20は、フレーム画像データから、人間の像を検出する。そして、画像情報処理装置20は、動作物DB23を参照し、検出された人間の像に、動作の種類としての「上に載せる」を関連付ける。なお、動作「上に載せる動作」は、大きくは、「離脱動作」に分類される。
【0027】
図2の説明に戻って、付帯物DB24は、ハードディスク等によって構成される記憶部である。付帯物DB24は、付帯物を示す像(以下、「付帯物像」という)と、付帯物の種類(付帯物名)とが対応付けられたデータが予め登録されたデータベースである。また、付帯物DB24は、付帯物像と、付帯物名と、個人の識別情報(例えば、ユーザ名やID等)とが対応付けられたデータが予め登録されたデータベースであってもよい。以下、特に言及しない限り、前者の場合について説明する。
【0028】
図4は、付帯物DB24が予め登録するデータの一例を示す図である。
【0029】
図4に示すように、付帯物DB24は、付帯物(例えば、眼鏡、有価証券等)を示す付帯物像に、付帯物の種類(付帯物名)が予め対応付けられて成る。付帯物DB24が利用される際、例えば、画像情報処理装置20は、フレーム画像データから、付帯物としての眼鏡の形状を検出する。そして、画像情報処理装置20は、付帯物DB24を参照し、検出された眼鏡の像に、付帯物の種類としての「眼鏡」を関連付ける。なお、付帯物である「スマートフォン」は、表示機能や送受信機能を備えているので、出力装置30にもなり得る。
【0030】
図2の説明に戻って、検索用DB25は、ハードディスク等によって構成される記憶部である。検索用DB25は、動作物、例えば、人間であるユーザに、付帯物の種類と、所定のフレーム画像データとを対応付けて登録可能である。検索用DB25の登録内容については、
図8と
図11とを用いて後述する。
【0031】
なお、DB23~25の少なくとも1つは、画像情報処理システム1の内部、かつ、画像情報処理装置20の外部や、画像情報処理システム1の外部に画像サーバ装置として設けられてもよい。その場合、画像サーバ装置は、画像情報処理装置20からの要求を受け、要求に従ったデータを探し出して画像情報処理装置20に転送することができる。
【0032】
入力インターフェース26は、操作者によって操作が可能な入力デバイスと、入力デバイスからの信号を入力する入力回路とを含む。入力デバイスは、トラックボール、スイッチ、マウス、キーボード、操作面に触れることで入力操作を行うタッチパッド、表示画面とタッチパッドとが一化されたタッチスクリーン、光学センサを用いた非接触入力デバイス、音声入力デバイス等によって実現される。操作者により入力デバイスが操作されると、入力回路はその操作に応じた信号を生成して処理回路21に出力する。なお、入力インターフェース26は、入力部の一例である。
【0033】
ディスプレイ27は、例えば液晶ディスプレイやOLED(Organic Light Emitting Diode)ディスプレイ等の一般的な表示出力装置により構成される。ディスプレイ27は、処理回路21の制御に従って各種情報を表示する。なお、ディスプレイ27は、表示部の一例である。
【0034】
ネットワークインターフェース28は、パラレル接続仕様やシリアル接続仕様に合わせたコネクタによって構成される。ネットワークインターフェース28は、各規格に応じた通信制御を行うことで、画像情報処理装置20をネットワークN網に接続させる。なお、ネットワークインターフェース28は、通信部の一例である。
【0035】
画像情報処理システム1のタブレット端末30は、コンピュータとしての構成を備え、処理回路31と、記憶回路32と、入力インターフェース33と、ディスプレイ34と、スピーカ35と、ネットワークインターフェース36とを備える。処理回路31は、共通信号伝送路としてのバスを介して、タブレット端末30を構成する各ハードウェア構成要素32~36に相互接続される。処理回路31は、専用のハードウェアで構成されてもよいし、内蔵のプロセッサによるソフトウェア処理で各種機能を実現するように構成してもよい。
【0036】
なお、タブレット端末30の処理回路31と、記憶回路32と、入力インターフェース33と、ディスプレイ34と、ネットワークインターフェース36との構成は、画像情報処理装置20の処理回路21と、記憶回路22と、入力インターフェース26と、ディスプレイ27と、ネットワークインターフェース28との構成とそれぞれ同一なものであるので、説明を省略する。
【0037】
スピーカ35は、電気信号を物理振動に変えて、音声等の音を生成して出力するデバイスである。
【0038】
続いて、画像情報処理装置20の機能について説明する。
【0039】
図5は、画像情報処理装置20の機能を示すブロック図である。
【0040】
画像情報処理装置20の処理回路21は、記憶回路22に記憶された、又は、処理回路21内に直接組み込まれたコンピュータプログラムを読み出して実行することで、取得機能211と、検出機能212と、登録制御機能213と、送信機能214として機能する。なお、機能211~214の機能の全部又は一部は、画像情報処理装置20にASIC等の回路の機能として備えられるものであってもよい。
【0041】
取得機能211は、所定の場所に設置された撮像装置10から、所定の場所の画像データを取得する機能を含む。なお、取得機能211は、取得部の一例である。
【0042】
検出機能212は、取得機能211によって取得された画像データに基づいて、動作物に付帯している付帯物を検出する機能を含む。なお、検出機能212は、検出部の一例である。
【0043】
登録制御機能213は、検出機能212による検出結果に基づいて、付帯物の位置と、その位置に対応する時刻とに関する付帯物情報を検索用DB25に登録する機能を含む。付帯物情報は、例えば、画像データである。その場合、取得機能211は、画像データとして動画像データを取得し、登録制御機能213は、付帯物情報として、動画像データの一部としてのフレーム画像データを検索用DB25に登録する。一方で、取得機能211は、画像データとして動画像データを取得し、登録制御機能213は、付帯物情報として、付帯物の位置と、その位置に対応する時刻とを表現した音声を含む音声データを検索用DB25に登録する。
【0044】
なお、取得機能211は、フレーム画像データと音声データとの一方を付帯物情報として検索用DB25に登録してもよいし、両方を付帯物情報として検索用DB25に登録してもよい。また、取得機能211は、フレーム画像データ及び/又は音声データに加え、動画像データを付帯物情報として検索用DB25に登録してもよい。なお、登録制御機能213は、登録制御部の一例である。
【0045】
また、登録制御機能213は、所定の付帯物に関する付帯物情報の表示を要求する、画像情報処理装置20外のタブレット端末30からの要求に従って、付帯物情報が登録された検索用DB25から、所定の付帯物に関する付帯物情報を読み出す機能を有する。
【0046】
その場合、送信機能214は、登録制御機能213によって読み出された所定の付帯物に関する付帯物情報を画像情報処理装置20外のタブレット端末30に送信する機能を含む。タブレット端末30は、送信機能214によって送信された付帯物情報をディスプレイ34に表示させる。
【0047】
さらに、検出機能212は、動作物に付帯している付帯物の、動作物からの離脱動作の後に、動作物の、付帯物からの距離を検出し、距離が閾値より大きいと判断する場合に、警告情報を生成する機能を含む。
【0048】
その場合、送信機能214は、検出機能212によって生成された警告情報を、画像情報処理装置20外のタブレット端末30に送信する機能を含む。タブレット端末30は、送信機能214によって送信された警告情報をスピーカ35から出力する。なお、送信機能214は、送信部の一例である。
【0049】
続いて、
図6~
図8を用いて、第1の実施形態に係る画像情報処理システム1の動作について説明する。
【0050】
図6と
図7とは、第1の実施形態に係る画像情報処理システム1の動作をフローチャートとして示す図である。
図6と
図7とにおいて、「ST」に数字を付した符号はフローチャートの各ステップを示す。
【0051】
まず、
図6について説明する。
図6は、検索用DB25に、後に付帯物の検索を行うために画像情報処理システム1が日頃行う撮像工程や付帯物情報の登録工程に関する。
【0052】
所定の部屋内に設置された撮像装置10は、所定の画角範囲内における部屋内の撮像を開始する(ステップST1)。ステップST1により開始された撮像により、フレーム画像データが画像情報処理装置20に逐次送信される。
【0053】
画像情報処理装置20の取得機能211は、撮像装置10(又は撮像装置10から送信されたフレーム画像データが記憶された記憶回路22)から、所定の場所のフレーム画像データを取得する(ステップST2)。検出機能212は、ステップST2によって取得されたフレーム画像データから、付帯物が動作物に付帯されている状態を検出する(ステップST3)。例えば、ステップST3において、検出機能212は、ステップST2によって取得されたフレーム画像データから、付帯物としての「眼鏡」が、動作物としての「人間」に付帯されている状態を検出する。以下、付帯物が「眼鏡」であり、動作物が「人間」である場合について説明する。
【0054】
ここで、付帯物が動作物に付帯されている状態か否かは、フレーム画像データに含まれる動作物像と、付帯物像とに基づいて行うことができる。検出機能212は、動作物DB23を利用して、フレーム画像データに含まれる動作物像に対応する動作の種類「上に載せる」を検出するとともに、付帯物DB24を利用して、フレーム画像データに含まれる付帯物像に対応する付帯物の種類「眼鏡」を検出する。
【0055】
続いて、取得機能211は、次のフレームについて、撮像装置10からフレーム画像データを取得する(ステップST4)。検出機能212は、ステップST4によって取得されたフレーム画像データから、ステップST3の状態からの変化、つまり、人間による眼鏡の離脱動作を検出したか否かを判断する(ステップST5)。
【0056】
ここで、人間による眼鏡の離脱動作の検出は、フレーム画像データに含まれる動作物像に基づいて行うことができる。検出機能212は、動作物DB23を利用して、フレーム画像データに含まれる動作物像に対応する動作の種類「上に載せる」を検出する。
【0057】
例えば、動作物の動作の種類の検出には、例えば、機械学習が用いられる。検出機能212は、動作物像を含む大量のフレーム画像データ(又は、動画像データ)を機械学習に通すことでモデルを作成し、ステップST4によって取得されたフレーム画像データ(又は、そのフレームまでの複数のフレーム画像データからなる動画像データ)をモデルに入力することで、機械学習による比較を行って結果としての動作物の動作の種類を出力する。なお、動作物の動作の種類の検出は、撮像装置10によって生成される画像データに基づくものに限定されるものではない。例えば、撮像装置10とは異なるkinectセンサ等の装置により検出されてもよい。
【0058】
図6の説明に戻って、ステップST5の判断にてNO、つまり、人間による眼鏡の離脱動作を検出していないと判断される場合、取得機能211は、さらに次のフレームについて、撮像装置10から、フレーム画像データを取得する(ステップST4)。
【0059】
一方、ステップST5の判断にてYES、つまり、人間による眼鏡の離脱動作を検出したと判断される場合、検出機能212は、人間から離脱された付帯物の種類(眼鏡、有価証券等)を検出する(ステップST6)。
【0060】
ここで、離脱された付帯物の種類の検出は、フレーム画像データに含まれる付帯物像に基づいて行うことができる。検出機能212は、付帯物DB24を利用して、フレーム画像データに含まれる付帯物像に対応する付帯物の種類「眼鏡」を検出する。付帯物DB24は、付帯物像と、付帯物名とが対応付けられたデータを予め登録しているからである。
【0061】
例えば、付帯物の種類の検出には、例えば、機械学習が用いられる。検出機能212は、付帯物像を含む大量のフレーム画像データを機械学習に通すことでモデルを作成し、ステップST4によって取得されたフレーム画像データをモデルに入力することで、機械学習による比較を行って結果としての付帯物の種類を出力する。また、付帯物DB24は、付帯物像と、付帯物名との他に、個人の識別情報が対応付けられたデータを予め登録していてもよい。その場合、検出機能212は、動作物像から動作の種類の他に個人(例えば、ユーザA)を特定し、付帯物DB24を利用して、ユーザAについて予め登録された、付帯物像に対応する付帯物名の種類「眼鏡」を検出する。
【0062】
登録制御機能213は、ステップST6によって検出された付帯物の種類を検索用DB25に登録する(ステップST7)。
【0063】
登録制御機能213は、動画像データの一部として、当該フレーム画像データを付帯物情報として検索用DB25に登録する(ステップST8)。つまり、登録制御機能213は、動作物に付帯している付帯物の、動作物からの離脱動作をトリガとして、付帯物情報を検索用DB25に登録する。
【0064】
また、登録制御機能213は、ステップST5のYESにより眼鏡の離脱があり、眼鏡の部屋への置き忘れの可能性が高いものとして、ステップST8によって登録されるフレーム画像データにタグ付け等を行ってもよい。ここで、人間であるユーザAについて、ユーザAの自宅のリビングと書斎とに撮像装置10がそれぞれ設置されていたとする。ユーザAが自宅のリビングで眼鏡の離脱動作が検出された場合、登録制御機能213は、リビングの撮像装置10で撮像され、生成されたフレーム画像データのみを検索用DB25に登録する(ステップST8)。
【0065】
図8は、検索用DB25の登録内容の一例を示す図である。
【0066】
図8の最上段は、付帯物の種類「眼鏡」を、動作の種類「(机の)上に載せる」というユーザAの離脱動作をトリガとして検索用DB25に登録されるフレーム画像データを示す。ユーザAの自宅に配置された撮像装置10から送信されたフレーム画像データは、ユーザAに帰属するものとして予め決めておけばよい。なお、ユーザAの自宅にユーザA以外のユーザが存在する場合も有り得る。そのため、ユーザAの自宅に配置された撮像装置10から送信されたフレーム画像データであっても、当該フレーム画像データから顔認証の技術を採用して、動作物がユーザBであると認定してもよい。
【0067】
上から2段目は、付帯物の種類「有価証券(書類)」を、動作の種類「(引き出しに)入れる」というユーザAの離脱動作をトリガとして検索用DB25に登録されるフレーム画像データを示す。上から3段目は、付帯物の種類「有価証券(書類)」を、動作の種類「(書籍に)挟む」というユーザBの離脱動作をトリガとして検索用DB25に登録されるフレーム画像データを示す。最下段は、付帯物の種類「書籍」を、動作の種類「(本棚に)置く」というユーザBの離脱動作をトリガとして検索用DB25に登録されるフレーム画像データを示す。
【0068】
このように、検索用DB25には、動作物の動作の種類と付帯物の種類とに対応付けられたフレーム画像データが離脱動作の検出の度に登録される。なお、フレーム画像データには、その生成時刻が付帯される。
【0069】
図6の説明に戻って、画像情報処理システム1は、動画像データを付帯物情報として検索用DB25に登録し、ステップST1によって開始された撮像を終了する(ステップST9)。なお、動画像データの検索用DB25への登録は必須ではない。
【0070】
続いて、
図7について説明する。
図7は、検索用DB25から、後に付帯物の検索を行うタイミングで、画像情報処理システム1が行う検索動作に関する。
【0071】
ユーザAは、画像情報処理システム1のタブレット端末30の入力インターフェース33を通して、所定の付帯物である、ユーザAが紛失した眼鏡に関する付帯物情報の表示を要求する(ステップST11)。画像情報処理装置20の登録制御機能213は、タブレット端末30からの要求を受け付ける(ステップST12)。登録制御機能213は、ユーザAの眼鏡に関する付帯物情報が登録された検索用DB25から、ユーザAの眼鏡に関する付帯物情報をフレーム画像データとして読み出す(ステップST13)。なお、フレーム画像データは、
図6のステップST8によって登録された、眼鏡の離脱動作時のフレームに係るものである。
【0072】
送信機能214は、ステップST13によって読み出された、ユーザAの眼鏡に関する付帯物情報をタブレット端末30に送信する(ステップST14)。タブレット端末30は、ステップST14によって送信された、ユーザAの眼鏡に関する付帯物情報をディスプレイ34に表示する(ステップST15)。つまり、タブレット端末30は、ユーザAのリビングと書斎とにそれぞれ設置された2個の撮像装置10のうち、眼鏡の離脱動作が検出された方の撮像装置10で撮像され、生成された離脱時のフレーム画像データを表示することができる。
【0073】
これにより、タブレット端末30を操作するユーザAは、自身の眼鏡について、眼鏡の離脱検出時のフレーム画像データと、その取得時刻との表示により、眼鏡の位置と、その位置に対応する時刻とを認識することができる。
【0074】
具体的には、別の部屋で眼鏡の存在がないことに気づいたユーザAが、タブレット端末30を用いて「眼鏡」と入力すると、画像情報処理装置20は、リビングの机上に載置されたユーザAの眼鏡を含む、登録されたフレーム画像データをタブレット端末30のディスプレイ34に表示して眼鏡が存在する場所を提示する。なお、タブレット端末30を用いた「眼鏡」の入力は、入力インターフェース33を介して行われるものであってもよいし、マイク(図示省略)を介した音声入力であってもよい。また、ユーザAの眼鏡を含む、登録されたフレーム画像データを、「リビング」という単語の音声とセットで検索用DB25に登録しておくことで、タブレット端末30のスピーカ35から「リビング」という音声データを出力するようにしてもよい。
【0075】
また、ユーザごとの付帯物を、秘密性の高いものから順にレベル分けし、有価証券をレベル1とし、眼鏡をレベル2としてもよい。その場合、眼鏡については、ユーザAが所有するタブレット端末30であっても、ユーザA以外のユーザ、例えば、家族や介護士等の音声入力を受け付ける一方、有価証券については、ユーザA以外のユーザの音声入力は受け付けないようにしてもよい。
【0076】
さらに、検出機能212は、付帯物の動作自体を検出してもよい。地震や風や動物等の影響により、付帯物が、その置き場所からすべり落ちたり、持ち去られたりする場合があるからである。その場合、撮像装置10は、一定時間は撮像を行う。その撮像の間に、フレーム画像データ又は音声から付帯物の動作が検出されると、登録制御機能213は、その検出をトリガとして、当該フレーム画像データ(時刻含む)を検索用DB25に登録する。なお、登録制御機能213は、一定の時間が経過すると、フレーム画像データだけを検索用DB25に残して、動画像データを消去してもよい。
【0077】
加えて、検出機能212は、付帯物の種類を検出するものとして説明したが、その検出は必須のものではない。ユーザAの動作が検出されることをトリガとしてフレーム画像データを多数登録し、ユーザAに対応する全ての付帯物に係る多数のフレーム画像データをタブレット端末30のディスプレイに34に表示させる。この構成により、ユーザAは、ディスプレイに34に表示された多数のフレーム画像データを閲覧することで、その中から所望のフレーム画像データを検索することができる。
【0078】
ここで、有価証券のように重要性が高い付帯物である場合、家族や介護士等の第三者がタブレット端末30を使って付帯物を検索する場合もある。そのような付帯物の検索については、特に、タブレット端末30は、タブレット端末30にログインするためのパスワードや、指紋、声紋、顔等の認証を行う構成とすることが好適である。
【0079】
以上のように、第1の実施形態に係る画像情報処理システム1によれば、ユーザAの眼鏡の位置と、その位置に対応する時刻とを示す付帯物情報(例えば、時刻付きのフレーム画像データ)を提示することにより、ユーザAの眼鏡の捜索を容易にすることができる。
【0080】
2.第2の実施形態
第2の実施形態に係る画像情報処理システムでは、上述の第1の実施形態に係る画像情報処理システムの動作に加え、撮像開始と撮像終了とのタイミングを制御する動作が追加されたものである。また、第2の実施形態に係る画像情報処理システムでは、上述の第1の実施形態に係る画像情報処理システムの動作に加え、検索用DB25に登録されるフレーム画像データの種類を増やすものである。
【0081】
第2の実施形態に係る画像情報処理システムと画像情報処理装置の構成は、
図1及び
図2(
図3及び
図4についても同様)に示すものと同等であるので説明を省略する。第2の実施形態に係る画像情報処理システムと画像情報処理装置の機能は、
図5に示すものと同等であるので説明を省略する。
【0082】
図9と
図10とは、第2の実施形態に係る画像情報処理システム1の動作をフローチャートとして示す図である。
図9と
図10とにおいて、「ST」に数字を付した符号はフローチャートの各ステップを示す。なお、
図9と
図10とにおいて、
図6に示すフローチャートと同一ステップには同一符号を付して説明を省略する。
【0083】
まず、
図9について説明する。画像情報処理システム1は、人感センサ(図示省略)等のセンサにより、撮像装置10が設置された部屋内へのユーザAの入室動作を検出したか否かを判断する(ステップST21)。ステップST21の判断にてNO、つまり、部屋内へのユーザAの入室動作を検出していないと判断された場合、画像情報処理システム1は、部屋内へのユーザAの入室動作を検出したと判断されるまで判断を繰り返す。一方で、ステップST21の判断にてYES、つまり、部屋内へのユーザAの入室動作を検出したと判断された場合、撮像装置10は、その部屋に設置された撮像装置10による撮像を開始する(ステップST21)。
【0084】
ステップST2に続いて、検出機能212は、ステップST2によって取得されたフレーム画像データから、ユーザAの眼鏡がユーザAに付帯されているか否かを判断する(ステップST22)。
【0085】
ここで、ユーザAの眼鏡がユーザAに付帯されているか否かの判断は、フレーム画像データに含まれる動作物像と付帯物像とに基づいて行うことができる。検出機能212は、フレーム画像データにおいて、ユーザA(人間)の像と眼鏡の像とが一定範囲内に存在すれば、眼鏡がユーザAに付帯されていると判断すればよい。
【0086】
ステップST22に判断にてNO、つまり、ユーザAの眼鏡がユーザAに付帯されていないと判断された場合、取得機能211は、次のフレームについて、フレーム画像データを取得する(ステップST2)。一方、ステップST22に判断にてYES、つまり、ユーザAの眼鏡がユーザAに付帯されていると判断された場合、登録制御機能213は、眼鏡が付帯されたユーザAに係るフレーム画像データを検索用DB25に登録する(ステップST23)。
【0087】
ここで、ユーザAについて、ユーザAの自宅のリビングと書斎とに撮像装置10がそれぞれ設置されていたとする。ユーザAが自宅のリビングで眼鏡を付帯したユーザAが検出された場合、登録制御機能213は、リビングの撮像装置10による撮像で生成されたフレーム画像データを検索用DB25に登録すると共に、別のタイミングで書斎の撮像装置10による撮像で生成されたフレーム画像データを検索用DB25に登録する(ステップST23)。
【0088】
図11は、検索用DB25の登録内容の一例を示す図である。
図11に示す登録内容は、
図8に示す登録内容に追加されるものである。
【0089】
図11の上段は、付帯物の種類「眼鏡」を付帯するユーザAの検出で検索用DB25に登録されるフレーム画像データを示す。
【0090】
図10の説明に進む。ステップST8に続いて、撮像装置10から、さらに次のフレーム画像データを取得する(ステップST24)。画像情報処理システム1は、人感センサ(図示省略)等により部屋内からのユーザAの退室動作を検出したか否かを判断する(ステップST25)。ステップST25の判断にてNO、つまり、部屋内からのユーザAの退室動作を検出していないと判断された場合、取得機能211は、さらに次のフレームについて、フレーム画像データを取得する(ステップST24)。
【0091】
一方で、ステップST25の判断にてYES、つまり、部屋内からのユーザAの退室動作を検出したと判断された場合、登録制御機能213は、当該フレームにおける、ユーザAが居ない動作物に係るフレーム画像データを検索用DB25に登録する(ステップST26)。つまり、登録制御機能213は、動作物の所定の動作をトリガとして、付帯物情報を検索用DB25に登録する。
【0092】
また、登録制御機能213は、ステップST5のYES、かつ、ステップST25のYESにより眼鏡の離脱があり、眼鏡の部屋への置き忘れがあったものとして、ステップST26によって登録されるフレーム画像データにタグ付け等を行ってもよい。第1の実施形態では、ステップST5のみの判断で置き忘れの可能性を評価したが、ここでは、ステップST5の判断とステップST25の判断とにより、置き忘れがあったことを評価することができる。
【0093】
図11の最下段は、ユーザAの退室動作をトリガとして検索用DB25に登録されるフレーム画像データを示す。ユーザAの自宅に配置された撮像装置10から送信されたフレーム画像データは、ユーザAに帰属するものとして予め決めておけばよい。なお、ユーザAの自宅にユーザA以外のユーザが存在する場合も有り得る。そのため、ユーザAの自宅に配置された撮像装置10から送信されたフレーム画像データであっても、当該フレーム画像データから顔認証の技術を採用して、動作物がユーザBであると認定してもよい。
【0094】
図10の説明に戻って、画像情報処理システム1は、動画像データを付帯物情報として検索用DB25に登録し、ステップST1によって開始された撮像を終了する(ステップST9)。これにより、ユーザA等の動作物がリビング等の部屋内から退室した場合に撮像を終了することによって、動画像データのデータ量が膨大になることを避けることができる。なお、ユーザA等の動作物が撮像装置10の視界から消えたことをフレーム画像データから判断し、撮像を終了するようにしてもよい。
【0095】
続けて、画像情報処理システム1は、検索用DB25から眼鏡の検索を行うタイミングで、
図7で説明したように検索動作を行う。これにより、画像情報処理システム1は、眼鏡の離脱動作時のフレーム画像データ(ステップST8)のみならず、眼鏡が付帯されたユーザAに係るフレーム画像データ(ステップST23)や、ユーザAの居ない眼鏡だけのフレーム画像データ(ステップST26)をタブレット端末30のディスプレイ34に選択的に表示することができる。なお、ユーザAの眼鏡に対して複数のフレーム画像データは、それぞれ撮像時刻を付帯しているので、時刻でソートしながら有用なものを探し出すこともできる。
【0096】
以上のように、第2の実施形態に係る画像情報処理システム1によれば、第1の実施形態と同様の効果が得られる。加えて、第2の実施形態に係る画像情報処理システム1によれば、ユーザの、眼鏡を離脱した後の退室時のフレーム画像データをユーザに提示することにより、ユーザAの眼鏡の捜索をさらに容易にすることができる。また、第2の実施形態に係る画像情報処理システム1によれば、撮像開始と撮像終了のタイミング制御を自動化することができるので、記録媒体等のハードウェア資源のコストの増大を抑えることもできる。
【0097】
3.第3の実施形態
第3の実施形態に係る画像情報処理システムでは、上述の第1の実施形態に係る画像情報処理システムの動作に加え、特定の動作物に関する特定の音声データを検出した場合に、フレーム画像データを検索用DB25に登録するものである。
【0098】
第3の実施形態に係る画像情報処理システムと画像情報処理装置の構成は、
図1及び
図2(
図3及び
図4についても同様)に示すものと同等であるので説明を省略する。第3の実施形態に係る画像情報処理システムと画像情報処理装置の機能は、
図5に示すものと同等であるので説明を省略する。
【0099】
図12は、第3の実施形態に係る画像情報処理システム1の動作をフローチャートとして示す図である。
図12において、「ST」に数字を付した符号はフローチャートの各ステップを示す。なお、
図12において、
図6に示すフローチャートと同一ステップには同一符号を付して説明を省略する。
【0100】
ユーザBのタブレット端末30は、ユーザB(又はその他のユーザ)の特定の「大切」等、予め登録されたものと同一と推定される音声データに反応して、そのタイミングでユーザBが携帯している付帯物を秘密性の高い重要な付帯物であると認定し、付帯物情報を検索用DB25に登録するものである。外出先から帰宅したユーザBが、重要な付帯物である有価証券を紛失しないように、自宅の書斎の本に挟んで保管しようと考える場合を想定する。
【0101】
検出機能212は、マイク(図示省略)により部屋内のユーザBが発した特定の音声データを検出したか否かを判断する(ステップST31)。ステップST31の判断にてNO、つまり、ユーザBの特定の音声データを検出していないと判断された場合、検出機能212は、ユーザBの特定の音声データを検出するまで判断を繰り返す。一方で、ステップST31の判断にてYES、つまり、ユーザBの特定の音声データを検出したと判断された場合、登録制御機能213は、特定の音声データの検出時刻を検索用DB25に登録する(ステップST32)。また、ステップST5の後、
図6のステップST6に進む。
【0102】
つまり、ステップST31のYESによって特定の音声データの検出時刻が検索用DB25に登録されると、後に、有価証券がユーザBから離脱した際のフレーム画像データ(
図8の上から3段目)が検索用DB25に登録されることになる(1回目の離脱動作)。また、有価証券が書籍に挟まれた後で、その書籍がユーザBからさらに離脱した場合は、有価証券が挟まれた書籍がユーザBから離脱した際のフレーム画像データ(
図8の最下段)もまた検索用DB25に登録されることになる(2回目の離脱動作)。
【0103】
続けて、画像情報処理システム1は、検索用DB25から有価証券の検索を行うタイミングで、
図7で説明したように検索動作を行う。
【0104】
なお、付帯物の種類が「書類」という大分類しかない場合には、検索用DB25には、「書類」に含まれる「有価証券」に関するフレーム画像データと、「書類」に含まれる「保険証」に関するフレーム画像データと、「書類」に含まれる「マイナンバーカード」に関するフレーム画像データとが混在することになる。タブレット端末30は、これらの全てのフレーム画像データをディスプレイ34に表示させることで、その中から、ユーザが所望の付帯物に関するフレーム画像データを選択できるようにしてもよい。
【0105】
また、付帯物の種類が「有価証券」と「保険証」と「マイナンバーカード」との場合には、ユーザがタブレット端末30を使って「有価証券」の表示を要求すると、画像情報処理装置20から、当該ユーザの「有価証券」に関するフレーム画像データが送信される。しかし、その場合に限定されるものではない。例えば、ユーザがタブレット端末30を使って「有価証券」の表示を要求すると、画像情報処理装置20から、大分類である「書類」に関する全てのフレーム画像データ(「有価証券」と「保険証」と「マイナンバーカード」)や、又は、中分類である「紙類」に関する全てのフレーム画像データ(「有価証券」と「保険証」)が送信されるようにしてもよい。前者の場合、タブレット端末30は、大分類「書類」に関する全てのフレーム画像データをディスプレイ34に表示させることで、その中から、ユーザが所望の「有価証券」と思われるフレーム画像データを選択できるようにする。後者の場合、タブレット端末30は、中分類「紙類」に関する全てのフレーム画像データをディスプレイ34に表示させることで、その中から、ユーザが所望の「有価証券」と思われるフレーム画像データを選択できるようにする。
【0106】
以上のように、第3の実施形態に係る画像情報処理システム1によれば、第1の実施形態及び第2の実施形態と同様の効果が得られる。加えて、第3の実施形態に係る画像情報処理システム1によれば、ユーザの、有価証券の離脱動作に係るフレーム画像データをユーザに提示することにより、ユーザBの有価証券の捜索をさらに容易にすることができる。また、第3の実施形態に係る画像情報処理システム1によれば、特定の音声データのみに反応した特定の付帯物である有価証券に関するフレーム画像データのみが検索用DB25に登録されるので、記録媒体等のハードウェア資源のコストの増大を抑えることもできる。
【0107】
4.第4の実施形態
第2の実施形態に係る画像情報処理システムでは、上述の第1の実施形態に係る画像情報処理システムの動作に加え、忘れ物があることを検出し、ユーザが携帯する出力装置30に報知するものである。
【0108】
第4の実施形態に係る画像情報処理システムと画像情報処理装置の構成は、
図1及び
図2(
図3及び
図4についても同様)に示すものと同等であるので説明を省略する。第4の実施形態に係る画像情報処理システムと画像情報処理装置の機能は、
図5に示すものと同等であるので説明を省略する。なお、第4の実施形態では、出力装置30は、特に言及しない限り、ワイヤレスブザーである。
【0109】
図13と
図14とは、第4の実施形態に係る画像情報処理システム1の動作をフローチャートとして示す図である。
図13と
図14とにおいて、「ST」に数字を付した符号はフローチャートの各ステップを示す。なお、
図13と
図14とにおいて、
図6に示すフローチャートと同一ステップには同一符号を付して説明を省略する。
【0110】
まず、
図13について説明する。ステップST2に続いて、検出機能212は、ステップST2によって取得されたフレーム画像データから、ユーザAの、付帯物(例えば、スマートフォン)の取り出し動作を検出したか否かを判断する(ステップST41)。ステップST41の判断にてNO、つまり、ユーザAのスマートフォンの取り出し動作を検出していないと判断される場合、取得機能211は、撮像装置10から、さらに次のフレームについて、フレーム画像データを取得する(ステップST2)。
【0111】
一方、ステップST41の判断にてYES、つまり、ユーザAのスマートフォンの取り出し動作を検出したと判断される場合、当該フレームの、ユーザAのスマートフォンの取り出し動作に係るフレーム画像データを検索用DB25に登録する(ステップST42)。
図14に進んで、検出機能212は、取り出された付帯物は、携帯リストに挙げられているものであるか否かを判断する(ステップST43)。
【0112】
【0113】
図15に示すように、携帯リストは、ユーザごとに、携帯すべき付帯物が予め対応付けられて成る。例えば、ユーザAには、携帯すべき付帯物として、「財布」、「保険証」、「スマートフォン」が対応付けられる。また、ユーザBには、携帯すべき付帯物として、「財布」、「保険証」、「眼鏡」、「つえ」が対応付けられる。
【0114】
図14の説明に戻って、ステップST43の判断にてYES、つまり、取り出された付帯物が携帯リストに挙げられているものであると判断される場合、登録制御機能213は、当該フレームにおける、ユーザAが居ない動作物に係るフレーム画像データを検索用DB25に登録する(ステップST44)。検出機能212は、ユーザAが携帯して移動するワイヤレスブザー30の、ユーザAの付帯物であるスマートフォンからの距離を検出し、その距離が閾値より大きいか否かを判断する(ステップST45)。
【0115】
ステップST45の判断にてNO、つまり、ワイヤレスブザー30の、ユーザAのスマートフォンからの距離が閾値以下であると判断される場合、検出機能212は、その判断を繰り返す。一方で、ステップST45の判断にてYES、つまり、ワイヤレスブザー30の、ユーザAのスマートフォン(部屋や自宅の位置情報)からの距離が閾値より大きいと判断される場合、検出機能212は、警告情報を生成する(ステップST46)。なお、ユーザAが携帯して移動するワイヤレスブザー30の位置情報は、GPS(Global Positioning System)等によって得られればよい。
【0116】
送信機能214は、ステップST46によって生成された警告情報をワイヤレスブザー30に送信する(ステップST47)。これにより、ワイヤレスブザー30は、スピーカ35から警告情報を音声データとして出力することができる。又は、出力装置30が、タブレット端末である場合は、タブレット端末30は、音声データのみならず、ディスプレイ34に警告情報を文字データ又は図形データとして表示することができる。
【0117】
図16は、ワイヤレスブザー30の出力を説明するための概念図である。
【0118】
図16は、ステップST41のYESによりスマートフォンの取り出し動作が検出され、かつ、ワイヤレスブザー30を携帯したユーザAの、スマートフォンからの距離が閾値より大きい場合の概念を示す。撮像装置10が設置されたリビングでバッグからスマートフォンを取り出した後で外出する場合が想定される。
【0119】
このような状況の場合に、ユーザAが携帯するワイヤレスブザー30から、警告情報を出力することで、ユーザAに、忘れ物があることを報知することができる。
図14の説明に戻って、画像情報処理システム1は、ステップST1によって開始された撮像を終了し、動画像データを付帯物情報として検索用DB25に登録する(ステップST9)。ステップST43でNOと判断される場合も、ステップST9に進む。
【0120】
続けて、画像情報処理システム1は、検索用DB25から眼鏡の検索を行うタイミングで、
図7で説明したように検索動作を行う。ユーザAへの警告警報の提示のみならず、ユーザAが後から画像データの確認(どの部屋に置き忘れているのかの確認等)をしたい場合があるからである。これにより、画像情報処理システム1は、出力装置30がタブレット端末である場合に、スマートフォンの離脱動作時のフレーム画像データ(ステップST8)をタブレット端末30のディスプレイ34に表示することができる。
【0121】
以上のように、第4の実施形態に係る画像情報処理システム1によれば、第1の実施形態と同様の効果が得られる。加えて、第4の実施形態に係る画像情報処理システム1によれば、ユーザの、スマートフォンの離脱さえも失念していた場合でも、スマートフォンの忘れ物をユーザAに報知することができる。
【0122】
なお、取得機能211は、取得部の一例である。検出機能212は、検出部の一例である。登録制御機能213は、登録制御部の一例である。送信機能214は、送信部の一例である。
【0123】
以上説明した少なくとも1つの実施形態によれば、紛失した任意の付帯物を、持ち主であるユーザが容易に捜索することができる手段を提供することができる。特に、突発的に生じる任意の付帯物の紛失の場合に有効である。
【0124】
なお、いくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更、実施形態同士の組み合わせを行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
【符号の説明】
【0125】
1 画像情報処理システム
10 撮像装置
20 画像情報処理装置
30 出力装置(例えば、タブレット端末、ワイヤレスブザー)
21 処理回路
23 動作物DB
24 付帯物DB
25 検索用DB
211 取得機能
212 検出機能
213 登録制御機能
214 送信機能