IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 富士通株式会社の特許一覧

特許7436801情報出力プログラム、情報出力装置及び情報出力方法
<>
  • 特許-情報出力プログラム、情報出力装置及び情報出力方法 図1
  • 特許-情報出力プログラム、情報出力装置及び情報出力方法 図2
  • 特許-情報出力プログラム、情報出力装置及び情報出力方法 図3
  • 特許-情報出力プログラム、情報出力装置及び情報出力方法 図4
  • 特許-情報出力プログラム、情報出力装置及び情報出力方法 図5
  • 特許-情報出力プログラム、情報出力装置及び情報出力方法 図6
  • 特許-情報出力プログラム、情報出力装置及び情報出力方法 図7
  • 特許-情報出力プログラム、情報出力装置及び情報出力方法 図8
  • 特許-情報出力プログラム、情報出力装置及び情報出力方法 図9
  • 特許-情報出力プログラム、情報出力装置及び情報出力方法 図10
  • 特許-情報出力プログラム、情報出力装置及び情報出力方法 図11
  • 特許-情報出力プログラム、情報出力装置及び情報出力方法 図12
  • 特許-情報出力プログラム、情報出力装置及び情報出力方法 図13
  • 特許-情報出力プログラム、情報出力装置及び情報出力方法 図14
  • 特許-情報出力プログラム、情報出力装置及び情報出力方法 図15
  • 特許-情報出力プログラム、情報出力装置及び情報出力方法 図16
  • 特許-情報出力プログラム、情報出力装置及び情報出力方法 図17
  • 特許-情報出力プログラム、情報出力装置及び情報出力方法 図18
  • 特許-情報出力プログラム、情報出力装置及び情報出力方法 図19
  • 特許-情報出力プログラム、情報出力装置及び情報出力方法 図20
  • 特許-情報出力プログラム、情報出力装置及び情報出力方法 図21
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-02-14
(45)【発行日】2024-02-22
(54)【発明の名称】情報出力プログラム、情報出力装置及び情報出力方法
(51)【国際特許分類】
   G06T 7/00 20170101AFI20240215BHJP
   G08B 25/00 20060101ALI20240215BHJP
【FI】
G06T7/00 350C
G08B25/00 510M
【請求項の数】 10
(21)【出願番号】P 2020000996
(22)【出願日】2020-01-07
(65)【公開番号】P2021111027
(43)【公開日】2021-08-02
【審査請求日】2022-09-08
(73)【特許権者】
【識別番号】000005223
【氏名又は名称】富士通株式会社
(74)【代理人】
【識別番号】100094525
【弁理士】
【氏名又は名称】土井 健二
(74)【代理人】
【識別番号】100094514
【弁理士】
【氏名又は名称】林 恒徳
(72)【発明者】
【氏名】八木橋 美穂
(72)【発明者】
【氏名】森本 広志
(72)【発明者】
【氏名】平嶋 亮啓
【審査官】新井 則和
(56)【参考文献】
【文献】特開2019-021313(JP,A)
【文献】特開2016-076073(JP,A)
【文献】特開2018-152106(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
G06T 7/00
G08B 25/00
(57)【特許請求の範囲】
【請求項1】
動画像を取得し、
画像に含まれる対象物の種類候補と前記対象物の種類が前記種類候補である確度とを学習した第1学習モデルを用いることによって、前記動画像を構成する複数の画像に含まれる対象物のそれぞれの種類についての類別結果と、前記類別結果の確度を示す第1確度とを取得し、
画像における対象物の位置情報を学習した第2学習モデルを用いることによって、前記複数の画像のそれぞれに対象物が存在する確度を示す第2確度を取得し、
前記複数の画像に含まれる対象物ごとに、各対象物に対応する前記第1確度が第2条件を満たすか否かを判定し、かつ、各対象物に対応する前記第2確度が第3条件を満たすか否かを判定し、
前記複数の画像に含まれる対象物のうち、前記第1確度が前記第2条件を満たさず、かつ、前記第2確度が前記第3条件を満たす対象物が未学習であることを示す情報を出力する、
処理をコンピュータに実行させることを特徴とする情報出力プログラム。
【請求項2】
請求項1において、
記複数の画像に含まれる対象物ごとに、各対象物に対応する前記類別結果と前記第1確度とに基づいて、各対象物が所定の条件を満たすか否かの判定を行い、
前記複数の画像に含まれる対象物のうち、前記所定の条件を満たすと判定した対象物が監視対象であることを示す情報を出力する、
処理をコンピュータに実行させることを特徴とする情報出力プログラム。
【請求項3】
請求項において、さらに、
前記類別結果と前記第1確度とを取得する処理の前に、対象物を含む学習用画像と前記学習用画像に含まれる前記対象物の種類候補を示す情報とをそれぞれ含む複数の第1学習データの学習を行うことにより、前記第1学習モデルを生成する、
処理をコンピュータに実行させることを特徴とする情報出力プログラム。
【請求項4】
請求項において、
前記判定を行う処理では、前記複数の画像に含まれる対象物ごとに、各対象物に対応する前記類別結果が第1条件を満たすか否か、及び、各対象物に対応する前記第1確度が第2条件を満たすか否かを判定し、
前記出力する処理では、前記複数の画像に含まれる対象物のうち、前記類別結果が前記第1条件を満たすと判定した対象物と前記第1確度が前記第2条件を満たすと判定した対象物とについてのアラートを出力する、
ことを特徴とする情報出力プログラム。
【請求項5】
請求項において、
前記判定を行う処理では、各対象物が所定の属性を有する対象物であることを前記類別結果が示している場合、各対象物に対応する前記類別結果が前記第1条件を満たしていると判定する、
ことを特徴とする情報出力プログラム。
【請求項6】
請求項において、
前記判定を行う処理では、各対象物に対応する前記第1確度が第1閾値よりも大きい場合、各対象物に対応する前記第1確度が前記第2条件を満たしていると判定する、
ことを特徴とする情報出力プログラム。
【請求項7】
請求項において、さらに、
前記第2確度を取得する処理の前に、対象物を含む学習用画像と前記学習用画像における前記対象物の位置情報とをそれぞれ含む複数の第2学習データの学習を行うことにより、前記第2学習モデルを生成する、
処理をコンピュータに実行させることを特徴とする情報出力プログラム。
【請求項8】
請求項において、
前記判定を行う処理では、各対象物に対応する前記第2確度が第2閾値よりも大きい場合、各対象物に対応する前記第2確度が前記第3条件を満たしていると判定する、
ことを特徴とする情報出力プログラム。
【請求項9】
動画像を取得する情報取得部と、
画像に含まれる対象物の種類候補と前記対象物の種類が前記種類候補である確度とを学習した第1学習モデルを用いることによって、前記動画像を構成する複数の画像に含まれる対象物のそれぞれの種類についての類別結果と、前記類別結果の確度を示す第1確度とを取得し、さらに、画像における対象物の位置情報を学習した第2学習モデルを用いることによって、前記複数の画像のそれぞれに対象物が存在する確度を示す第2確度を取得する結果取得部と、
前記複数の画像に含まれる対象物ごとに、各対象物に対応する前記第1確度が第2条件を満たすか否かを判定し、かつ、各対象物に対応する前記第2確度が第3条件を満たすか否かを判定する第2条件判定部と、
前記複数の画像に含まれる対象物のうち、前記第1確度が前記第2条件を満たさず、かつ、前記第2確度が前記第3条件を満たす対象物が未学習であることを示す情報を出力する結果取得部を有する、
ことを特徴とする情報出力装置。
【請求項10】
動画像を取得し、
画像に含まれる対象物の種類候補と前記対象物の種類が前記種類候補である確度とを学習した第1学習モデルを用いることによって、前記動画像を構成する複数の画像に含まれる対象物のそれぞれの種類についての類別結果と、前記類別結果の確度を示す第1確度とを取得し、
画像における対象物の位置情報を学習した第2学習モデルを用いることによって、前記複数の画像のそれぞれに対象物が存在する確度を示す第2確度を取得し、
前記複数の画像に含まれる対象物ごとに、各対象物に対応する前記第1確度が第2条件を満たすか否かを判定し、かつ、各対象物に対応する前記第2確度が第3条件を満たすか否かを判定し、
前記複数の画像に含まれる対象物のうち、前記第1確度が前記第2条件を満たさず、かつ、前記第2確度が前記第3条件を満たす対象物が未学習であることを示す情報を出力する、
処理をコンピュータに実行させることを特徴とする情報出力方法。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、情報出力プログラム、情報出力装置及び情報出力方法に関する。
【背景技術】
【0002】
例えば、海上哨戒や沿岸監視等の分野では、監視領域において撮影された動画像の内容を作業者が確認することにより、動画像に映る対象物(例えば、不審船等)の検出や種類の特定等を行う。具体的に、作業者は、例えば、撮影された動画像において複数の対象物を検出した場合、それぞれの対象物についての種類の特定等を目視によって行う(例えば、特許文献1参照)。
【先行技術文献】
【特許文献】
【0003】
【文献】国際公開第2018/173800号
【発明の概要】
【発明が解決しようとする課題】
【0004】
しかしながら、検出された対象物の全てを監視対象として出力してしまうと、動画像に映る対象物の監視を効率的に行うことができないといった問題がある。
【0005】
そこで、一つの側面では、本発明は、動画像に映る対象物の監視を効率的に行うことを可能とする情報出力プログラム、情報出力装置及び情報出力方法を提供することを目的とする。
【課題を解決するための手段】
【0006】
実施の形態の一態様では、動画像を取得し、画像に含まれる対象物の種類候補と前記対象物の種類が前記種類候補である確度とを学習した第1学習モデルを用いることによって、前記動画像を構成する複数の画像に含まれる対象物のそれぞれの種類についての類別結果と、前記類別結果の確度を示す第1確度とを取得し、前記複数の画像に含まれる対象物ごとに、各対象物に対応する前記類別結果と前記第1確度とに基づいて、各対象物が所定の条件を満たすか否かの判定を行い、前記複数の画像に含まれる対象物のうち、前記所定の条件を満たすと判定した対象物が監視対象であることを示す情報を出力する。
【発明の効果】
【0007】
一つの側面によれば、動画に映る対象物の監視を効率的に行うことを可能とする。
【図面の簡単な説明】
【0008】
図1図1は、情報処理システム10の構成について説明する図である。
図2図2は、情報処理装置1のハードウエア構成を説明する図である。
図3図3は、情報処理装置1の機能のブロック図である。
図4図4は、第1の実施の形態における情報出力処理の概略を説明するフローチャート図である。
図5図5は、第1の実施の形態における情報出力処理の詳細を説明するフローチャート図である。
図6図6は、第1の実施の形態における情報出力処理の詳細を説明するフローチャート図である。
図7図7は、第1の実施の形態における情報出力処理の詳細を説明するフローチャート図である。
図8図8は、第1の実施の形態における情報出力処理の詳細を説明するフローチャート図である。
図9図9は、第1の実施の形態における情報出力処理の詳細を説明するフローチャート図である。
図10図10は、第1の実施の形態における情報出力処理の詳細を説明するフローチャート図である。
図11図11は、第1の実施の形態における情報出力処理の詳細を説明するフローチャート図である。
図12図12は、第1学習データ131の具体例について説明する図である。
図13図13は、S22の処理の具体例について説明を行う。
図14図14は、第2学習データ132の具体例について説明する図である。
図15図15は、S42の処理の具体例について説明する図である。
図16図16は、S53の処理の具体例について説明する図である。
図17図17は、検出結果情報135の具体例について説明する図である。
図18図18は、S61の処理の具体例について説明する図である。
図19図19は、類別結果情報134の具体例について説明する図である。
図20図20は、S64の処理の具体例について説明する図である。
図21図21は、S72の処理の具体例について説明する図である。
【発明を実施するための形態】
【0009】
[情報処理システムの構成]
初めに、情報処理システム10の構成について説明を行う。図1は、情報処理システム10の構成について説明する図である。
【0010】
図1に示す情報処理システム10は、情報処理装置1と、操作端末3とを有する。操作端末3は、例えば、作業者が必要な情報の入力等を行うPC(Personal Computer)であって、インターネット等のネットワークNWを介して情報処理装置1とアクセスが可能である。
【0011】
情報処理装置1は、例えば、監視領域において撮影された動画像(以下、動画データとも呼ぶ)を構成する各画像(以下、画像データとも呼ぶ)に含まれる対象物の種類の候補(以下、種類候補とも呼ぶ)と、その種類候補が対象物の種類として正解である確度(例えば、確率)とを学習した学習モデル(以下、第1学習モデルとも呼ぶ)を用いることにより、各画像データに含まれる対象物のうち、作業者が目視で確認を行う必要がある対象物の特定を行う。
【0012】
具体的に、情報処理装置1は、例えば、第1学習モデルを用いることによって、複数の画像データに含まれる対象物のそれぞれの種類についての類別結果と、その類別結果の確度とを取得する。そして、情報処理装置1は、複数の画像データに含まれる対象物ごとに、各対象物に対応する類別結果と確度とに基づいて、各対象物が所定の条件を満たすか否かの判定を行う。その後、情報処理装置1は、複数の画像データに含まれる対象物のうち、所定の条件を満たすと判定した対象物が監視対象であることを示す情報を出力する。
【0013】
すなわち、従来では、例えば、対象物の検出等を行う必要がある動画像が頻繁に発生する場合、対象物の検出等に伴う作業者の負担が増大する可能性があった。また、例えば、確認を行う必要がある対象物の数が今後さらに増大する場合、必要な数の作業者の確保が将来的に困難になる可能性がある。
【0014】
そこで、本実施の形態における情報処理装置1は、例えば、第1学習モデルによって出力された類別結果に対応する種類が監視対象の種類に含まれていない対象物であって、第1学習モデルによって出力された類別結果の確度が所定の閾値よりも高い対象物が存在する場合、存在した対象物についての監視を行う必要がないと判断する。また、例えば、第1学習モデルによって出力された類別結果に対応する種類が監視対象の種類に含まれている対象物や、第1学習モデルによって出力された類別結果の確度が所定の閾値よりも低い対象物が存在する場合、情報処理装置1は、存在した対象物についての監視を行う必要があると判断する。
【0015】
そして、情報処理装置1は、例えば、監視を行う必要があると判断した対象物についての情報のみを操作端末3に出力する。その後、作業者は、例えば、操作端末3に情報が出力された対象物についての種類の特定等を目視によって行う。
【0016】
これにより、情報処理装置1は、対象物の監視に伴う作業者の負担を抑制することが可能になる。
【0017】
[情報処理システムのハードウエア構成]
次に、情報処理システム10のハードウエア構成について説明する。図2は、情報処理装置1のハードウエア構成を説明する図である。
【0018】
情報処理装置1は、図2に示すように、プロセッサであるCPU101と、メモリ102と、通信装置103と、記憶媒体104とを有する。各部は、バス105を介して互いに接続される。
【0019】
記憶媒体104は、例えば、作業者が監視を行う必要がある対象物を示す情報を出力する処理(以下、情報出力処理とも呼ぶ)を行うためのプログラム110を記憶するプログラム格納領域(図示しない)を有する。また、記憶媒体104は、例えば、情報出力処理を行う際に用いられる情報を記憶する記憶部130(以下、情報格納領域130とも呼ぶ)を有する。なお、記憶媒体104は、例えば、HDD(Hard Disk Drive)やSSD(Solid State Drive)であってよい。
【0020】
CPU101は、記憶媒体104からメモリ102にロードされたプログラム110を実行して情報出力処理を行う。
【0021】
また、通信装置103は、例えば、ネットワークNWを介して操作端末3との通信を行う。
【0022】
[情報処理システムの機能]
次に、情報処理システム10の機能について説明を行う。図3は、情報処理装置1の機能のブロック図である。
【0023】
情報処理装置1は、図3に示すように、例えば、CPU101やメモリ102等のハードウエアとプログラム110とが有機的に協働することにより、情報受信部111(以下、情報取得部111とも呼ぶ)と、情報管理部112と、第1モデル生成部113と、第2モデル生成部114と、結果取得部115と、第1条件判定部116と、第2条件判定部117と、結果出力部118と、を含む各種機能を実現する。
【0024】
また、情報処理装置1は、例えば、図3に示すように、第1学習データ131と、第2学習データ132と、動画データ133と、類別結果情報134と、検出結果情報135とを情報格納領域130に記憶する。
【0025】
情報受信部111は、例えば、作業者が操作端末3を介して入力した各種情報を受信する。具体的に、情報受信部111は、例えば、第1学習モデルの生成に用いられる第1学習データ131を受信する。第1学習データ131は、例えば、対象物を含む学習用画像と、その学習用画像に含まれる対象物の種類を示す情報とをそれぞれ含む学習データである。
【0026】
また、情報受信部111は、例えば、第2学習モデルの生成に用いられる第2学習データ132を受信する。第2学習データ132は、例えば、対象物を含む学習用画像と、その学習用画像に含まれる対象物の位置情報とをそれぞれ含む学習データである。
【0027】
さらに、情報受信部111は、例えば、海上における対象物の撮影を行うカメラ等の撮影装置(図示しない)によって取得された動画データ133を受信する。そして、情報管理部112は、例えば、情報受信部111が受信した第1学習データ131、第2学習データ132及び動画データ133を情報格納領域130に記憶する。
【0028】
なお、情報受信部111は、例えば、操作端末3に対して自発的にアクセスを行うことによって、操作端末3の情報格納領域(図示しない)に記憶された各種情報を取得するものであってもよい。また、情報受信部111は、例えば、撮像装置に対して自発的にアクセスを行うことにより、撮像装置の情報格納領域(図示しない)に記憶された動画データ133を取得するものであってもよい。
【0029】
第1モデル生成部113は、情報格納領域130に記憶された第1学習データ131の学習を行うことによって、第1学習モデルを生成する。
【0030】
第2モデル生成部114は、情報格納領域130に記憶された第2学習データ132の学習を行うことによって、第2学習モデルを生成する。
【0031】
結果取得部115は、情報格納領域130に記憶された動画データ133を取得する。そして、結果取得部115は、第2モデル生成部114が生成した第2学習モデルを用いることによって、動画データ133を構成する複数の画像データのそれぞれに対象物が存在する確度を示す確度(以下、第2確度とも呼ぶ)を取得する。具体的に、結果取得部115は、第2学習モデルに対する複数の画像データの入力に伴って出力される第2確度を取得する。その後、情報管理部112は、例えば、結果取得部115が取得した第2確度を示す検出結果情報135を生成して情報格納領域130に記憶する。
【0032】
また、結果取得部115は、動画データ133を構成する複数の画像データに含まれる対象物のそれぞれについての複数の部分画像データを取得する。具体的に、結果取得部115は、例えば、情報格納領域130に記憶された検出結果情報135を参照することにより、動画データ133を構成する複数の画像データから複数の部分画像データを取得(抽出)する。そして、結果取得部115は、第1モデル生成部113が生成した第1学習モデルを用いることによって、複数の部分画像データに含まれる対象物のそれぞれの種類についての類別結果と、その類別結果の確度(以下、第1確度とも呼ぶ)とを取得する。具体的に、結果取得部115は、第1学習モデルに対する複数の画像データの入力に伴って出力される類別結果と第1確度とを取得する。その後、情報管理部112は、例えば、結果取得部115が取得した類別結果と第1確度とを示す類別結果情報134を生成して情報格納領域130に記憶する。
【0033】
第1条件判定部116は、例えば、情報格納領域130に記憶された類別結果情報134を参照し、複数の部分画像データごとに、各対象物に対応する類別結果が第1条件を満たすか否か、及び、各対象物に対応する第1確度が第2条件を満たすか否かを判定する。具体的に、第1条件判定部116は、例えば、各対象物が所定の属性(例えば、軍艦)を有する対象物であることを類別結果が示している場合、各対象物に対応する類別結果が第1条件を満たしていると判定する。また、第1条件判定部116は、例えば、各対象物に対応する第1確度が閾値(以下、第1閾値とも呼ぶ)よりも大きい場合、各対象物に対応する第1確度が第2条件を満たしていると判定する。
【0034】
第2条件判定部117は、例えば、情報格納領域130に記憶された類別結果情報134及び検出結果情報135を参照し、複数の部分画像データごとに、各対象物に対応する第1確度が第2条件を満たすか否かを判定し、かつ、各対象物に対応する第2確度が第3条件を満たすか否かを判定する。具体的に、第2条件判定部117は、例えば、各対象物に対応する第2確度が閾値(以下、第2閾値とも呼ぶ)よりも大きい場合、各対象物に対応する第2確度が第3条件を満たしていると判定する。
【0035】
結果出力部118は、複数の部分画像データに含まれる各対象物のうち、類別結果が第1条件を満たすと判定した対象物と、第1確度が第2条件を満たすと判定した対象物とを示す情報(例えば、アラート)を出力する。
【0036】
また、結果出力部118は、複数の部分画像データに含まれる各対象物のうち、第1確度が第2条件を満たし、かつ、第2確度が第3条件を満たす対象物が未学習であることを示す情報を出力する。
【0037】
[第1の実施の形態の概略]
次に、第1の実施の形態の概略について説明する。図4は、第1の実施の形態における情報出力処理の概略を説明するフローチャート図である。
【0038】
情報処理装置1は、図4に示すように、情報出力タイミングになるまで待機する(S1のNO)。情報出力タイミングは、例えば、作業者が海上における対象物の監視を開始する旨の情報を入力したタイミングであってよい。
【0039】
そして、情報出力タイミングになった場合(S1のYES)、情報処理装置1は、動画データ133を取得する(S2)。具体的に、情報処理装置1は、例えば、情報格納領域130に記憶された動画データ133を取得する。また、情報処理装置1は、例えば、外部の記憶装置(図示しない)に記憶された動画データ133を取得する。
【0040】
続いて、情報処理装置1は、画像データに含まれる対象物の種類候補と、その種類候補が対象物の種類として正解である確度とを学習した第1学習モデルを用いることによって、S2の処理で取得した動画データを構成する複数の画像データに含まれる対象物のそれぞれの種類についての類別結果と、その類別結果の確度を示す第1確度とを取得する(S3)。
【0041】
次に、情報処理装置1は、S2の処理で取得した動画データを構成する複数の画像データに含まれる対象物ごとに、S3の処理で取得した類別結果と第1確度とに基づいて、各対象物が所定の条件を満たすか否かの判定を行う(S4)。
【0042】
その後、情報処理装置1は、S2の処理で取得した動画データを構成する複数の画像データに含まれる対象物のうち、S4の処理において所定の条件を満たすと判定した対象物が監視対象であることを示す情報を出力する(S5)。
【0043】
これにより、情報処理装置1は、第1学習モデルを用いることで、作業者が目視による確認を行う必要がある対象物を特定することが可能になる。そのため、情報処理装置1は、対象物の監視に伴う作業者の負担を抑制することが可能になる。
【0044】
[第1の実施の形態の詳細]
次に、第1の実施の形態の詳細について説明する。図5から図11は、第1の実施の形態における情報出力処理の詳細を説明するフローチャート図である。また、図12から図21は、第1の実施の形態における情報出力処理の詳細を説明する図である。
【0045】
[第1学習データ記憶処理]
初めに、情報出力処理のうち、第1学習データ131の記憶を行う処理(以下、第1学習データ記憶処理とも呼ぶ)について説明を行う。図5は、第1学習データ記憶処理を説明するフローチャート図である。
【0046】
情報処理装置1の情報受信部111は、図5に示すように、例えば、操作端末3から送信された複数の第1学習データ131を受信するまで待機する(S11のNO)。すなわち、情報受信部111は、例えば、作業者によって生成された第1学習データ131が操作端末3を介して送信されるまで待機する。
【0047】
そして、複数の第1学習データ131を受信した場合(S11のYES)、情報処理装置1の情報管理部112は、S11の処理で受信した複数の第1学習データ131を情報格納領域130に記憶する(S12)。以下、第1学習データ131の具体例について説明を行う。
【0048】
[第1学習データの具体例]
図12は、第1学習データ131の具体例について説明する図である。
【0049】
図12に示す第1学習データ131は、第1学習データ131のそれぞれの識別情報を示す「項番」と、各学習用画像データのそのものを示す「画像データ」と、各学習用画像データに含まれる対象物の種類(正解の種類)を示す「種類」とを含む。なお、以下、「種類」には、「AAA」、「BBB」及び「CCC」のうちのいずれかが設定されるものとして説明を行う。
【0050】
具体的に、図12における「項番」が「1」である第1学習データ131は、名称が「IMAGEa1」である学習用画像データを含み、かつ、「種類」が「AAA」である学習データである。
【0051】
また、図12における「項番」が「2」である第1学習データ131は、名称が「IMAGEa2」である学習用画像データを含み、かつ、「種類」が「BBB」である学習データである。図12に含まれる他の第1学習データ131については説明を省略する。
【0052】
[第1モデル生成処理]
次に、情報出力処理のうち、第1モデルの生成を行う処理(以下、第1モデル生成処理とも呼ぶ)について説明を行う。図6は、第1モデル生成処理を説明するフローチャート図である。
【0053】
情報処理装置1の第1モデル生成部113は、図6に示すように、例えば、第1モデル生成タイミングになるまで待機する(S21のNO)。第1モデル生成タイミングは、例えば、作業者が第1モデルの生成を行う旨の情報を情報処理装置1に入力したタイミングであってよい。
【0054】
そして、第1モデル生成タイミングになった場合(S21のYES)、第1モデル生成部113は、情報格納領域130に記憶された複数の第1学習データ131の学習を行うことにより、第1学習モデルを生成する(S22)。以下、S22の処理の具体例について説明を行う。
【0055】
[S22の処理の具体例]
図13は、S22の処理の具体例について説明を行う。
【0056】
第1モデル生成部113は、図13に示すように、例えば、対象物の種類候補のそれぞれに対応する複数の出力ニューロン(以下、第1出力ニューロンとも呼ぶ)NE11と、第1確度に対応する1の出力ニューロン(以下、第2出力ニューロンとも呼ぶ)NE12とを有する第1モデルMD01を生成する。図13に示す例において、第1出力ニューロンNE11には、種類候補である「AAA」、「BBB」及び「CCC」のそれぞれに対応する第1出力ニューロンNE11a、NE11b及びNE11cが含まれている。
【0057】
そして、例えば、図12で説明した第1学習データ131における「項番」が「1」である情報には、「画像データ」として「IMAGEa1」が設定され、「種類」として「AAA」が設定されている。そのため、第1モデル生成部113は、例えば、名称が「IMAGEa1」である画像データの特徴量が入力ニューロンNE13から入力された場合、第1出力ニューロンNE11のそれぞれから出力される値と、「AAA」に対応する正解値(「1」、「0」及び「0」)との差が小さくなるように、第1学習モデルにおける各重みに対応する値の更新を行う。具体的に、第1モデル生成部113は、この場合、第1出力ニューロンNE11aから出力される値と「1」との差、第1出力ニューロンNE11bから出力される値と「0」との差、及び、第1出力ニューロンNE11cから出力される値と「0」との差のそれぞれが小さくなるように、第1学習モデルにおける各重みに対応する値の更新を行う。
【0058】
また、例えば、図12で説明した第1学習データ131における「項番」が「2」である情報には、「画像データ」として「IMAGEa2」が設定され、「種類」として「BBB」が設定されている。そのため、第1モデル生成部113は、例えば、名称が「IMAGEa2」である画像データまたはその特徴量が入力ニューロンNE13から入力された場合、第1出力ニューロンNE11のそれぞれから出力される値と、「BBB」に対応する正解値(「0」、「1」及び「0」)との差が小さくなるように、第1学習モデルにおける各重みに対応する値の更新を行う。具体的に、第1モデル生成部113は、この場合、第1出力ニューロンNE11aから出力される値と「0」との差、第1出力ニューロンNE11bから出力される値と「1」との差、及び、第1出力ニューロンNE11cから出力される値と「0」との差のそれぞれが小さくなるように、第1学習モデルにおける各重みに対応する値の更新を行う。
【0059】
なお、第1モデル生成部113は、第1出力ニューロンNE11からの出力値と正解値との比較を行う前に、第1出力ニューロンNE11からの出力値を第2出力ニューロンNE12からの出力値によって補正を行うものであってもよい。
【0060】
具体的に、第1モデル生成部113は、この場合、第2出力ニューロンNE12からの出力値が「0」に近いほど、第1出力ニューロンNE11からの出力値が正解値に近づくように補正を行う。一方、第1モデル生成部113は、第2出力ニューロンNE12からの出力値が「1」に近いほど、第1出力ニューロンNE11からの出力値の補正幅を小さくする。また、第1モデル生成部113は、この場合、第1出力ニューロンNE11からの出力値の補正幅が大きいほど大きい値のペナルティ値を設定する。そして、第1モデル生成部113は、第1出力ニューロンNE11からの出力値(補正後の値)と正解値との差及びペナルティ値の両方が小さくなるように、第1学習モデルにおける各重みに対応する値の更新を行う。
【0061】
[第2学習データ記憶処理]
次に、情報出力処理のうち、第2学習データ132の記憶を行う処理(以下、第2学習データ記憶処理とも呼ぶ)について説明を行う。図7は、第2学習データ記憶処理を説明するフローチャート図である。
【0062】
情報受信部111は、図7に示すように、例えば、操作端末3から送信された複数の第2学習データ132を受信するまで待機する(S31のNO)。すなわち、情報受信部111は、例えば、作業者によって生成された第2学習データ132が操作端末3を介して送信されるまで待機する。
【0063】
そして、複数の第1学習データ131を受信した場合(S31のYES)、情報管理部112は、S31の処理で受信した複数の第2学習データ132を情報格納領域130に記憶する(S32)。以下、第2学習データ132の具体例について説明を行う。
【0064】
[第2学習データの具体例]
図14は、第2学習データ132の具体例について説明する図である。
【0065】
図14に示す第2学習データ132は、第2学習データ132のそれぞれの識別情報を示す「項番」と、各学習用画像データのそのものを示す「画像データ」と、各学習用画像データに含まれる対象物(対象物を含む枠)の左上の位置を示す「位置」と、各学習用画像データに含まれる対象物(対象物を含む枠)の幅を示す「幅」と、各学習用画像データに含まれる対象物(対象物を含む枠)の高さを示す「高さ」とを項目として有する。
【0066】
具体的に、図14における「項番」が「1」である第2学習データ132は、名称が「IMAGEb1」である学習用画像データを含み、さらに、「位置」が「10,32」であって「幅」が「10」であって「高さ」が「8」である対象物についての情報と、「位置」が「24,30」であって「幅」が「4」であって「高さ」が「2」である対象物についての情報と、「位置」が「28,20」であって「幅」が「8」であって「高さ」が「6」である対象物についての情報とを含む学習データである。すなわち、図14における「項番」が「1」である第2学習データ132は、名称が「IMAGEb1」である学習用画像データに含まれる3つの対象物についての情報を含んでいる。
【0067】
また、図14における「項番」が「2」である第2学習データ132は、名称が「IMAGEb2」である学習用画像データを含み、さらに、「位置」が「34,36」であって「幅」が「4」であって「高さ」が「2」である対象物についての情報と、「位置」が「10,12」であって「幅」が「12」であって「高さ」が「6」である対象物についての情報とを含む学習データである。すなわち、図14における「項番」が「2」である第2学習データ132は、名称が「IMAGEb2」である学習用画像データに含まれる2つの対象物についての情報を含んでいる。図14に含まれる他の第2学習データ132についての説明は省略する。
【0068】
[第2モデル生成処理]
次に、情報出力処理のうち、第2モデルの生成を行う処理(以下、第2モデル生成処理とも呼ぶ)について説明を行う。図8は、第2モデル生成処理を説明するフローチャート図である。
【0069】
情報処理装置1の第1モデル生成部113は、図8に示すように、例えば、第2モデル生成タイミングになるまで待機する(S41のNO)。第2モデル生成タイミングは、例えば、作業者が第2モデルの生成を行う旨の情報を情報処理装置1に入力したタイミングであってよい。また、第2モデル生成タイミングは、例えば、第1モデルが生成された直後のタイミングであってよい。
【0070】
そして、第2モデル生成タイミングになった場合(S41のYES)、第2モデル生成部114は、情報格納領域130に記憶された複数の第2学習データ132の学習を行うことにより、第2学習モデルを生成する(S42)。以下、S42の処理の具体例について説明を行う。
【0071】
[S42の処理の具体例]
図15は、S42の処理の具体例について説明する図である。
【0072】
第2モデル生成部114は、図15に示すように、例えば、学習用画像データを分割した複数の分割画像データのそれぞれに対応する複数の出力ニューロンNE21を有する第2モデルMD02を生成する。図15に示す例において、出力ニューロンNE21には、学習用画像データを分割した16個の分割画像データのそれぞれに対応する出力ニューロンNE21a、NE21b、NE21c、NE21d、NE21e、NE21f、NE21g、NE21h、NE21i、NE21j、NE21k、NE21l、NE21m、NE21n、NE21о及びNE21pのそれぞれが含まれている。
【0073】
そして、例えば、図14で説明した第2学習データ132における「項番」が「3」である情報には、「画像データ」として「IMAGEb3」が設定され、「位置」、「幅」及び「高さ」として1つの対象物についての情報が設定されている。そのため、第2モデル生成部114は、例えば、名称が「IMAGEb3」である画像データの分割画像データのうち、出力ニューロンNE21dに対応する分割画像データに対象物が含まれている場合において、名称が「IMAGEb3」である画像データの特徴量が入力ニューロンNE23から入力された場合、出力ニューロンNE21dからの出力値と「1」との差、及び、出力ニューロンNE21d以外の出力ニューロンNE21のそれぞれからの出力値と「0」との差がそれぞれ小さくなるように、第2学習モデルにおける各重みに対応する値の更新を行う。
【0074】
また、例えば、図14で説明した第2学習データ132における「項番」が「2」である情報には、「画像データ」として「IMAGEb2」が設定され、「位置」、「幅」及び「高さ」として2つの対象物についての情報が設定されている。そのため、第2モデル生成部114は、例えば、名称が「IMAGEb2」である画像データの分割画像データのうち、出力ニューロンNE21f及びNE21mに対応する分割画像データのそれぞれに対象物が含まれている場合において、名称が「IMAGEb2」である画像データの特徴量が入力ニューロンNE23から入力された場合、出力ニューロンNE21f及びNE21mのそれぞれからの出力値と「1」との差、及び、これら以外の出力ニューロンNE21のそれぞれからの出力値と「0」との差がそれぞれ小さくなるように、第2学習モデルにおける各重みに対応する値の更新を行う。
【0075】
[情報出力処理のメイン処理]
次に、情報出力処理のメイン処理について説明を行う。図9から図11は、情報出力処理のメイン処理を説明するフローチャート図である。
【0076】
情報処理装置1の結果取得部115は、図9に示すように、例えば、情報出力タイミングになるまで待機する(S51のNO)。情報出力タイミングは、例えば、作業者が海上における対象物の監視を開始する旨の情報を入力したタイミングであってよい。
【0077】
そして、情報出力タイミングになった場合(S51のYES)、結果取得部115は、動画データ133を取得する(S52)。
【0078】
続いて、結果取得部115は、S42の処理で生成した第2学習モデルを用いることによって、S52の処理で取得した動画データ133に含まれる複数の画像データごとに、各画像データに対象物が存在する確度を示す第2確度を取得する(S53)。以下、S53の処理の具体例について説明を行う。
【0079】
[S53の処理の具体例]
図16は、S53の処理の具体例について説明する図である。
【0080】
結果取得部115は、図16に示すように、例えば、動画データ133に含まれる画像データIMAGEc1を第2学習モデルMD02に入力する。そして、結果取得部115は、例えば、画像データIMAGEc1の入力に伴って第2学習モデルMD02の出力ニューロンNE21のそれぞれから出力された値を取得する。
【0081】
その後、結果取得部115は、例えば、第2学習モデルMD02から取得された値のそれぞれから、画像データIMAGEc1に含まれる対象物の位置の特定を行う。具体的に、結果取得部115は、図16に示すように、例えば、画像データIMAGEc1に含まれる対象物を含む部分画像データとして、部分画像データIMAGEd1、部分画像データIMAGEd2及び部分画像データIMAGEd3のそれぞれの位置の特定を行う。
【0082】
また、結果取得部115は、例えば、特定した対象物ごとに、第2学習モデルMD02の出力ニューロンNE2のそれぞれから出力された値のうち、各対象物の位置に対応する値の最大値を第2確度として取得する。
【0083】
なお、画像データIMAGEc1に含まれる対象物の位置及び第2確度は、第2モデルMD02から出力されるものであってもよい。そして、結果取得部115は、この場合、第2モデルMD02から出力された各情報を取得するものであってもよい。
【0084】
図9に戻り、情報管理部112は、例えば、S52の処理で取得した動画データ133に含まれる画像データごとに、S53の処理で取得した第2確度を含む検出結果情報135を生成する(S54)。そして、情報管理部112は、生成した検出結果情報135を情報格納領域130に記憶する。以下、検出結果情報135の具体例について説明を行う。
【0085】
[検出結果情報の具体例]
図17は、検出結果情報135の具体例について説明する図である。
【0086】
図17に示す検出結果情報135は、検出結果情報135に含まれる各情報を示す「項番」と、各対象物を含む部分画像データの識別情報を示す「部分画像データ」と、各対象物に対応する第2確度を示す「第2確度」とを項目として有する。
【0087】
具体的に、図17に示す検出結果情報135において、「項番」が「1」である情報には、「部分画像データ」として「IMAGEd1」が設定され、「第2確度」として「0.9」が設定されている。
【0088】
また、図17に示す検出結果情報135において、「項番」が「2」である情報には、「部分画像データ」として「IMAGEd2」が設定され、「第2確度」として「0.7」が設定されている。図17に含まれる他の情報についての説明は省略する。
【0089】
なお、検出結果情報135は、S53の処理で特定した部分画像データの位置を示す情報を含むものであってもよい。
【0090】
図9に戻り、情報管理部112は、S52の処理で取得した動画データ133に含まれる画像データから、各画像データに含まれる対象物を含む部分画像データを取得する(S55)。
【0091】
具体的に、情報管理部112は、例えば、S53の処理で特定した部分画像データの位置を参照することによって、S52の処理で取得した動画データ133に含まれる各画像データから部分画像データの取得を行う。
【0092】
なお、S53の処理で特定した部分画像データの位置を示す情報が検出結果情報135に含まれる場合、情報管理部112は、情報格納領域130に記憶された検出結果情報135を参照することによって、部分画像データの取得を行うものであってもよい。
【0093】
そして、結果取得部115は、図10に示すように、S22の処理で生成した第1学習モデルを用いることによって、S55の処理で取得した部分画像データごとに、各部分画像データに含まれる対象物の種類の類別結果と、その類別結果の確度を示す第1確度とを取得する(S61)。以下、S61の処理の具体例について説明を行う。
【0094】
[S61の処理の具体例]
図18は、S61の処理の具体例について説明する図である。
【0095】
結果取得部115は、図18に示すように、例えば、S55の処理で取得した部分画像データIMAGEd1を第1学習モデルMD01に入力する。そして、結果取得部115は、例えば、部分画像データIMAGEd1の入力に伴って第1学習モデルMD01の出力ニューロンNE11及び出力ニューロンNE12のそれぞれから出力された値と取得する。
【0096】
具体的に、結果取得部115は、図18に示すように、例えば、部分画像データIMAGEd1に含まれる対象物の種類が「AAA」である確度が「0.6」であり、「BBB」である確度が「0.3」であり、「CCC」である確度が「0.1」であることを示す情報を類別結果として取得する。
【0097】
また、結果取得部115は、図18に示すように、例えば、部分画像データIMAGEd1に含まれる対象物の種類についての類別結果の第1確度として「0.9」を取得する。
【0098】
図10に戻り、情報管理部112は、例えば、S55の処理で取得した部分画像データごとに、S61の処理で取得した類別結果と第1確度を含む類別結果情報134を生成する(S62)。そして、情報管理部112は、生成した類別結果情報134を情報格納領域130に記憶する。以下、類別結果情報134の具体例について説明を行う。
【0099】
[類別結果情報の具体例]
図19は、類別結果情報134の具体例について説明する図である。
【0100】
図19に示す類別結果情報134は、類別結果情報134に含まれる各情報を示す「項番」と、各対象物を含む部分画像データの識別情報を示す「部分画像データ」と、各対象物の種類の類別結果を示す「類別結果」と、各対象物の種類についての類別結果の第1確度を示す「第1確度」とを項目として有する。
【0101】
具体的に、図19に示す類別結果情報134において、「項番」が「1」である情報には、「部分画像データ」として「IMAGEd1」が設定されている。また、図19に示す類別結果情報134において、「項番」が「1」である情報には、「類別結果」として、部分画像データIMAGEd1に含まれる対象物の種類が「AAA」、「BBB」及び「CCC」のそれぞれである確度が「0.6」、「0.3」及び「0.1」である情報が設定されている。さらに、図19に示す類別結果情報134において、「項番」が「1」である情報には、「第1確度」として「0.8」が設定されている。
【0102】
また、図19に示す類別結果情報134において、「項番」が「2」である情報には、「部分画像データ」として「IMAGEd2」が設定されている。また、図19に示す類別結果情報134において、「項番」が「2」である情報には、「類別結果」として、部分画像データIMAGEd2に含まれる対象物の種類が「AAA」、「BBB」及び「CCC」のそれぞれである確度が「0.2」、「0.7」及び「0.1」である情報が設定されている。さらに、図19に示す類別結果情報134において、「項番」が「2」である情報には、「第1確度」として「0.9」が設定されている。図19に含まれる他の情報についての説明は省略する。
【0103】
図10に戻り、情報処理装置1の第2条件判定部117は、S55の処理で取得した部分画像データごとに、各部分画像データに対応する類別結果が第1条件を満たすか否か、及び、各部分画像データに対応する第1確度が第2条件を満たすか否かを判定する(S63)。
【0104】
具体的に、第1条件判定部116は、例えば、各対象物が所定の属性(例えば、軍艦)を有する対象物であることを類別結果が示している場合、各対象物に対応する類別結果が第1条件を満たしていると判定する。また、第1条件判定部116は、例えば、各対象物に対応する第1確度が第1閾値よりも大きい場合、各対象物に対応する第1確度が第2条件を満たしていると判定する。
【0105】
そして、情報処理装置1の結果出力部118は、S55の処理で取得した部分画像データのうち、S61の処理で取得した類別結果が第1条件を満たすと判定した部分画像データのそれぞれに含まれる対象物と、S61の処理で取得した第1確度が第2条件を満たすと判定した部分画像データのそれぞれに含まれる対象物とについてのアラートを操作端末3に出力する(S64)。以下、S64の処理の具体例について説明を行う。
【0106】
[S64の処理の具体例]
図20は、S64の処理の具体例について説明する図である。
【0107】
図20に示す情報のうちの「項番」が「1」である情報は、第1確度が第1閾値より高く、かつ、対象物が監視を要するものである場合、アラートの出力が行われることを示している。また、図20に示す情報のうちの「項番」が「3」である情報は、第1確度が第1閾値より低く、かつ、対象物が監視を要するものである場合、アラートの出力が行われることを示している。さらに、図20に示す情報のうちの「項番」が「4」である情報は、第1確度が第1閾値より低く、かつ、対象物が監視を要するものでない場合、アラートの出力が行われることを示している。
【0108】
一方、図20に示す情報のうちの「項番」が「2」である情報は、第1確度が第1閾値より高く、かつ、対象物が監視を要するものでない場合、アラートの出力が行われないことを示している。
【0109】
すなわち、第1確度が高く、かつ、監視を要しない種類の対象物は、作業者が検知を行う必要がない対象物(作業者が対処を行う必要がない対象物)である可能性が極めて高いと判断できる。そのため、結果出力部118は、第1確度が高く、かつ、監視を要しない種類の対象物を検出した場合、作業者に対する通知(アラートの出力)を行わない。
【0110】
これにより、情報処理装置1は、例えば、海上における対象物の監視に伴う作業の作業負担を軽減させることが可能になる。
【0111】
また、情報処理装置1の第1条件判定部116は、図11に示すように、S55の処理で取得した部分画像データごとに、各部分画像データに対応する第1確度が第2条件を満たすか否か、及び、各部分画像データに対応する第2確度が第3条件を満たすか否かを判定する(S71)。
【0112】
具体的に、第2条件判定部117は、例えば、各対象物に対応する第2確度が第2閾値よりも大きい場合、各対象物に対応する第2確度が第3条件を満たしていると判定する。
【0113】
そして、結果出力部118は、S55の処理で取得した部分画像データのうち、S61の処理で取得した第1確度が第2条件を満たさず、かつ、S53の処理で取得した第2確度が第3条件を満たす部分画像データに含まれる対象物が未学習であることを示す情報を出力する(S72)。以下、S72の処理の具体例について説明を行う。
【0114】
[S72の処理の具体例]
図21は、S72の処理の具体例について説明する図である。図21に示すグラフでは、横軸が第1確度に対応し、縦軸が第2確度に対応する。
【0115】
図21に示すグラフは、例えば、第1確度が第1閾値を上回る対象物が第1学習モデル及び第2学習モデルにおいて既に学習済の対象物であると判定されることを示している。
【0116】
また、図21に示すグラフは、例えば、第1確度が第1閾値を下回る対象物が第1学習モデル及び第2学習モデルにおいて未学習である可能性がある対象物であると判定されることを示している。
【0117】
さらに、図21に示すグラフは、第1確度が第1閾値を下回り、かつ、第2閾値が第2閾値を下回る対象物が、学習済の対象物であるが動画データ133に含まれるノイズ等の影響によって種類の判断が困難な対象物であると判定されることを示している。また、図21に示すグラフは、第1確度が第1閾値を下回り、かつ、第2閾値が第2閾値を上回る対象物が、未学習の対象物であると判定されることを示している。
【0118】
すなわち、第1確度が低く、かつ、第2確度が高い対象物は、第1学習モデル及び第2学習モデルにおいてまで学習されていない対象物である可能性が極めて高いと判断できる。そのため、結果出力部118は、第1確度が低く、かつ、第2確度が高い対象物が存在する場合、その対象物を未学習の対象物として特定する。
【0119】
これにより、情報処理装置1は、第1確度が低い対象物のそれぞれを、学習済の対象物と未学習の対象物とのいずれかに分類することが可能になる。そして、作業者は、例えば、未学習の対象物として特定した対象物のみを第1学習モデル及び第2学習モデルに学習させることで、各学習モデルの精度を高めることが可能になる。
【0120】
このように、本実施の形態における情報処理装置1は、第1学習モデルを用いることによって、動画データ133を構成する複数の画像データに含まれる対象物のそれぞれの種類についての類別結果と、その類別結果の第1確度とを取得する。そして、情報処理装置1は、複数の画像データに含まれる対象物ごとに、各対象物に対応する類別結果と第1確度とに基づいて、各対象物が所定の条件を満たすか否かの判定を行う。その後、情報処理装置1は、複数の画像データに含まれる対象物のうち、所定の条件を満たすと判定した対象物が監視対象であることを示す情報を出力する。
【0121】
すなわち、例えば、第1学習モデルによって出力された類別結果に対応する種類が監視対象の種類(例えば、予め定められた監視対象の種類)に含まれていない対象物であって、第1学習モデルによって出力された類別結果の確度が所定の閾値(例えば、予め定められた閾値)よりも高い対象物が存在する場合、情報処理装置1は、存在した対象物についての監視を行う必要がないと判断する。一方、例えば、第1学習モデルによって出力された類別結果に対応する種類が監視対象の種類に含まれている対象物や、第1学習モデルによって出力された類別結果の確度が所定の閾値よりも低い対象物が存在する場合、情報処理装置1は、存在した対象物についての監視を行う必要があると判断する。
【0122】
これにより、情報処理装置1は、第1学習モデルを用いることで、作業者が目視による監視を行う必要がある対象物を特定することが可能になる。そのため、情報処理装置1は、対象物の監視に伴う作業者の負担を抑制することが可能になる。
【0123】
以上の実施の形態をまとめると、以下の付記のとおりである。
【0124】
(付記1)
動画像を取得し、
画像に含まれる対象物の種類候補と前記対象物の種類が前記種類候補である確度とを学習した第1学習モデルを用いることによって、前記動画像を構成する複数の画像に含まれる対象物のそれぞれの種類についての類別結果と、前記類別結果の確度を示す第1確度とを取得し、
前記複数の画像に含まれる対象物ごとに、各対象物に対応する前記類別結果と前記第1確度とに基づいて、各対象物が所定の条件を満たすか否かの判定を行い、
前記複数の画像に含まれる対象物のうち、前記所定の条件を満たすと判定した対象物が監視対象であることを示す情報を出力する、
処理をコンピュータに実行させることを特徴とする情報出力プログラム。
【0125】
(付記2)
付記1において、さらに、
前記類別結果と前記第1確度とを取得する処理の前に、対象物を含む学習用画像と前記学習用画像に含まれる前記対象物の種類候補を示す情報とをそれぞれ含む複数の第1学習データの学習を行うことにより、前記第1学習モデルを生成する、
処理をコンピュータに実行させることを特徴とする情報出力プログラム。
【0126】
(付記3)
付記1において、
前記判定を行う処理では、前記複数の画像に含まれる対象物ごとに、各対象物に対応する前記類別結果が第1条件を満たすか否か、及び、各対象物に対応する前記第1確度が第2条件を満たすか否かを判定し、
前記出力する処理では、前記複数の画像に含まれる対象物のうち、前記類別結果が前記第1条件を満たすと判定した対象物と前記第1確度が前記第2条件を満たすと判定した対象物とについてのアラートを出力する、
ことを特徴とする情報出力プログラム。
【0127】
(付記4)
付記3において、
前記判定を行う処理では、各対象物が所定の属性を有する対象物であることを前記類別結果が示している場合、各対象物に対応する前記類別結果が前記第1条件を満たしていると判定する、
ことを特徴とする情報出力プログラム。
【0128】
(付記5)
付記3において、
前記判定を行う処理では、各対象物に対応する前記第1確度が第1閾値よりも大きい場合、各対象物に対応する前記第1確度が前記第2条件を満たしていると判定する、
ことを特徴とする情報出力プログラム。
【0129】
(付記6)
付記3において、さらに、
画像における対象物の位置情報を学習した第2学習モデルを用いることによって、前記複数の画像のそれぞれに対象物が存在する確度を示す第2確度を取得する、
処理をコンピュータに実行させ、
前記判定を行う処理では、前記複数の画像に含まれる対象物ごとに、各対象物に対応する前記第1確度が前記第2条件を満たすか否かを判定し、かつ、各対象物に対応する前記第2確度が第3条件を満たすか否かを判定し、
前記出力する処理では、前記複数の画像に含まれる対象物のうち、前記第1確度が前記第2条件を満たさず、かつ、前記第2確度が前記第3条件を満たす対象物が未学習であることを示す情報を出力する、
ことを特徴とする情報出力プログラム。
【0130】
(付記7)
付記6において、さらに、
前記第2確度を取得する処理の前に、対象物を含む学習用画像と前記学習用画像における前記対象物の位置情報とをそれぞれ含む複数の第2学習データの学習を行うことにより、前記第2学習モデルを生成する、
処理をコンピュータに実行させることを特徴とする情報出力プログラム。
【0131】
(付記8)
付記6において、
前記判定を行う処理では、各対象物に対応する前記第2確度が第2閾値よりも大きい場合、各対象物に対応する前記第2確度が前記第3条件を満たしていると判定する、
ことを特徴とする情報出力プログラム。
【0132】
(付記9)
動画像を取得し、
画像に含まれる対象物の種類候補と前記対象物の種類が前記種類候補である確度とを学習した第1学習モデルを用いることによって、前記動画像を構成する複数の画像に含まれる対象物のそれぞれの種類についての類別結果と、前記類別結果の確度を示す第1確度とを取得し、
画像における対象物の位置情報を学習した第2学習モデルを用いることによって、前記複数の画像のそれぞれに対象物が存在する確度を示す第2確度を取得し、
前記複数の画像に含まれる対象物ごとに、各対象物に対応する前記第1確度が条件を満たすか否かを判定し、かつ、各対象物に対応する前記第2確度が他の条件を満たすか否かを判定し、
前記複数の画像に含まれる対象物のうち、前記第1確度が前記条件を満たさず、かつ、前記第2確度が前記他の条件を満たす対象物が未学習であることを示す情報を出力する、
処理をコンピュータに実行させることを特徴とする情報出力プログラム。
【0133】
(付記10)
動画像を取得する情報取得部と、
画像に含まれる対象物の種類候補と前記対象物の種類が前記種類候補である確度とを学習した第1学習モデルを用いることによって、前記動画像を構成する複数の画像に含まれる対象物のそれぞれの種類についての類別結果と、前記類別結果の確度を示す第1確度とを取得する結果取得部と、
前記複数の画像に含まれる対象物ごとに、各対象物に対応する前記類別結果と前記第1確度とに基づいて、各対象物が所定の条件を満たすか否かの判定を行う第1条件判定部と、
前記複数の画像に含まれる対象物のうち、前記所定の条件を満たすと判定した対象物が監視対象であることを示す情報を出力する結果出力部と、を有する、
ことを特徴とする情報出力装置。
【0134】
(付記11)
付記10において、
前記第1条件判定部は、前記複数の画像に含まれる対象物ごとに、各対象物に対応する前記類別結果が第1条件を満たすか否か、及び、各対象物に対応する前記第1確度が第2条件を満たすか否かを判定し、
前記結果出力部は、前記複数の画像に含まれる対象物のうち、前記類別結果が前記第1条件を満たすと判定した対象物と前記第1確度が前記第2条件を満たすと判定した対象物とについてのアラートを出力する、
ことを特徴とする情報出力装置。
【0135】
(付記12)
付記11において、
前記結果取得部は、画像における対象物の位置情報を学習した第2学習モデルを用いることによって、前記複数の画像のそれぞれに対象物が存在する確度を示す第2確度を取得し、さらに、
前記複数の画像に含まれる対象物ごとに、各対象物に対応する前記第1確度が前記第2条件を満たすか否かを判定し、かつ、各対象物に対応する前記第2確度が第3条件を満たすか否かを判定する第2条件判定部を有し、
前記結果出力部は、前記複数の画像に含まれる対象物のうち、前記第1確度が前記第2条件を満たさず、かつ、前記第2確度が前記第3条件を満たす対象物が未学習であることを示す情報を出力する、
ことを特徴とする情報出力装置。
【0136】
(付記13)
動画像を取得する情報取得部と、
画像に含まれる対象物の種類候補と前記対象物の種類が前記種類候補である確度とを学習した第1学習モデルを用いることによって、前記動画像を構成する複数の画像に含まれる対象物のそれぞれの種類についての類別結果と、前記類別結果の確度を示す第1確度とを取得し、さらに、画像における対象物の位置情報を学習した第2学習モデルを用いることによって、前記複数の画像のそれぞれに対象物が存在する確度を示す第2確度を取得する結果取得部と、
前記複数の画像に含まれる対象物ごとに、各対象物に対応する前記第1確度が条件を満たすか否かを判定し、かつ、各対象物に対応する前記第2確度が他の条件を満たすか否かを判定する第2条件判定部と、
前記複数の画像に含まれる対象物のうち、前記第1確度が前記条件を満たさず、かつ、前記第2確度が前記他の条件を満たす対象物が未学習であることを示す情報を出力する結果取得部を有する、
ことを特徴とする情報出力装置。
【0137】
(付記14)
動画像を取得し、
画像に含まれる対象物の種類候補と前記対象物の種類が前記種類候補である確度とを学習した第1学習モデルを用いることによって、前記動画像を構成する複数の画像に含まれる対象物のそれぞれの種類についての類別結果と、前記類別結果の確度を示す第1確度とを取得し、
前記複数の画像に含まれる対象物ごとに、各対象物に対応する前記類別結果と前記第1確度とに基づいて、各対象物が所定の条件を満たすか否かの判定を行い、
前記複数の画像に含まれる対象物のうち、前記所定の条件を満たすと判定した対象物が監視対象であることを示す情報を出力する、
処理をコンピュータに実行させることを特徴とする情報出力方法。
【0138】
(付記15)
付記14において、
前記判定を行う処理では、前記複数の画像に含まれる対象物ごとに、各対象物に対応する前記類別結果が第1条件を満たすか否か、及び、各対象物に対応する前記第1確度が第2条件を満たすか否かを判定し、
前記出力する処理では、前記複数の画像に含まれる対象物のうち、前記類別結果が前記第1条件を満たすと判定した対象物と前記第1確度が前記第2条件を満たすと判定した対象物とについてのアラートを出力する、
ことを特徴とする情報出力方法。
【0139】
(付記16)
付記15において、さらに、
画像における対象物の位置情報を学習した第2学習モデルを用いることによって、前記複数の画像のそれぞれに対象物が存在する確度を示す第2確度を取得する、
処理をコンピュータに実行させ、
前記判定を行う処理では、前記複数の画像に含まれる対象物ごとに、各対象物に対応する前記第1確度が前記第2条件を満たすか否かを判定し、かつ、各対象物に対応する前記第2確度が第3条件を満たすか否かを判定し、
前記出力する処理では、前記複数の画像に含まれる対象物のうち、前記第1確度が前記第2条件を満たさず、かつ、前記第2確度が前記第3条件を満たす対象物が未学習であることを示す情報を出力する、
ことを特徴とする情報出力方法。
【0140】
(付記17)
動画像を取得し、
画像に含まれる対象物の種類候補と前記対象物の種類が前記種類候補である確度とを学習した第1学習モデルを用いることによって、前記動画像を構成する複数の画像に含まれる対象物のそれぞれの種類についての類別結果と、前記類別結果の確度を示す第1確度とを取得し、
画像における対象物の位置情報を学習した第2学習モデルを用いることによって、前記複数の画像のそれぞれに対象物が存在する確度を示す第2確度を取得し、
前記複数の画像に含まれる対象物ごとに、各対象物に対応する前記第1確度が条件を満たすか否かを判定し、かつ、各対象物に対応する前記第2確度が他の条件を満たすか否かを判定し、
前記複数の画像に含まれる対象物のうち、前記第1確度が前記条件を満たさず、かつ、前記第2確度が前記他の条件を満たす対象物が未学習であることを示す情報を出力する、
処理をコンピュータに実行させることを特徴とする情報出力方法。
【符号の説明】
【0141】
1:情報処理装置 3:操作端末
10:情報処理システム NW:ネットワーク
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14
図15
図16
図17
図18
図19
図20
図21