(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2023-12-12
(45)【発行日】2023-12-20
(54)【発明の名称】類別プログラム、類別装置及び類別方法
(51)【国際特許分類】
G01S 13/90 20060101AFI20231213BHJP
G06T 7/00 20170101ALI20231213BHJP
G06V 10/762 20220101ALI20231213BHJP
G06V 20/54 20220101ALI20231213BHJP
【FI】
G01S13/90 191
G01S13/90 164
G06T7/00 350B
G06T7/00 640
G06V10/762
G06V20/54
(21)【出願番号】P 2019216809
(22)【出願日】2019-11-29
【審査請求日】2022-08-09
(73)【特許権者】
【識別番号】000005223
【氏名又は名称】富士通株式会社
(74)【代理人】
【識別番号】100094525
【氏名又は名称】土井 健二
(74)【代理人】
【識別番号】100094514
【氏名又は名称】林 恒徳
(72)【発明者】
【氏名】多々納 壮
(72)【発明者】
【氏名】森本 広志
(72)【発明者】
【氏名】山田 睦男
【審査官】山下 雅人
(56)【参考文献】
【文献】特開2018-055195(JP,A)
【文献】特開2019-139386(JP,A)
【文献】特開2018-156316(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
G01S 7/00-17/95
G06T 7/00- 7/90
G06V10/00-20/90
G06N20/00
(57)【特許請求の範囲】
【請求項1】
動画像を取得し、
学習用画像に含まれる対象物の種類を学習した第1学習モデルを用いることによって、前記動画像を構成する複数の画像のそれぞれに含まれる対象物の種類についての類別結果を取得し、
前記学習用画像に含まれる対象物の種類についての学習用類別結果が正解を示しているか否かを学習した第2学習モデルを用いることによって、前記複数の画像のそれぞれについての前記類別結果の正解精度を取得し、
前記複数の画像ごとに、各画像に含まれる対象物の画像上における第1サイズから、各画像に含まれる対象物についての現実のサイズの推定値である第2サイズを算出し、
前記複数の画像ごとに、各画像に対応する前記正解精度
及び前記第2サイズに基づいて補正した前記類別結果を出力する、
処理をコンピュータに実行させることを特徴とする類別プログラム。
【請求項2】
請求項1において、さらに、
前記類別結果を取得する処理の前に、
前記学習用画像と前記学習用画像に含まれる
対象物の種類を示す情報とをそれぞれ含む複数の第1学習データの学習を行うことにより、前記第1学習モデルを生成する、
処理をコンピュータに実行させることを特徴とする類別プログラム。
【請求項3】
請求項2において、さらに、
前記正解精度を取得する処理の前に、前記第1学習モデルを用いることによって、
前記複数の第1学習データに含まれる前記学習用画像ごとに、各学習用画像に含まれる対象物の種類が複数の種類候補のそれぞれである確率を各学習用画像に対応する前記学習用類別結果
として取得し、
前記学習用画像と前記学習用画像に対応する前記学習用類別結果が正解を示しているか否かを示す正誤情報とをそれぞれ含む複数の第2学習データの学習を行うことにより、前記第2学習モデルを生成する、
処理をコンピュータに実行させることを特徴とする類別プログラム。
【請求項4】
請求項3において、さらに、
前記
複数の第1学習データ
ごとに、各学習データに含まれる前記学習用画像
についての前記学習用類別結果を出力し、
出力した前記学習用類別結果のそれぞれに対応する前記正誤情報の入力を受け付ける、
処理をコンピュータに実行させ、
前記第2学習モデルを生成する処理では、入力を受け付けた前記正誤情報をそれぞれ含む前記複数の第2学習データの学習を行う、
ことを特徴とする類別プログラム。
【請求項5】
請求項1において、
前記出力する処理では、前記複数の画像ごとに、各画像に対応する前記正解精度と前記類別結果との乗算結果を出力する、
ことを特徴とする類別プログラム。
【請求項6】
請求項1において、
前記出力する処理では、
前記複数の画像ごとに、各画像に対応する前記正解精度が所定の閾値以上であるか否か
を判定し、
前記複数の画像のうち、前記正解精度が前記所定の閾値を上回る画像について、各画像に対応する前記類別結果を出力し、前記複数の画像のうち、前記正解精度が前記所定の閾値を上回らない画像について、各画像に対応する前記類別結果よりも小さい値を出力する、
ことを特徴とする類別プログラム。
【請求項7】
請求項
1において、
前記出力する処理では、
前記複数の画像ごとに、各画像に対応する前記正解精度と前記類別結果との乗算結果を算出し、
各対象物の現実のサイズである第3サイズを記憶した記憶部を参照し、前記複数の画像ごとに、各画像に含まれる対象物に対応する前記第2サイズと前記第3サイズとの差異が所定の閾値を上回るか否かを判定し、前記差異が前記所定の閾値を上回ると判定した場合、各画像に対応する前記乗算結果を出力し、前記差異が前記所定の閾値を下回ると判定した場合、各画像に対応する前記乗算結果よりも小さい値を出力する、
ことを特徴とする類別プログラム。
【請求項8】
動画像を取得する情報取得部と、
学習用画像に含まれる対象物の種類を学習した第1学習モデルを用いることによって、前記動画像を構成する複数の画像のそれぞれに含まれる対象物の種類についての類別結果を取得する結果取得部と、
前記学習用画像に含まれる対象物の種類についての学習用類別結果が正解を示しているか否かを学習した第2学習モデルを用いることによって、前記複数の画像のそれぞれについての前記類別結果の正解精度を取得する精度取得部と、
前記複数の画像ごとに、各画像に含まれる対象物の画像上における第1サイズから、各画像に含まれる対象物についての現実のサイズの推定値である第2サイズを算出する結果補正部と、
前記複数の画像ごとに、各画像に対応する前記正解精度
及び前記第2サイズに基づいて補正した前記類別結果を出力する結果出力部と、を有する、
ことを特徴とする類別装置。
【請求項9】
動画像を取得し、
学習用画像に含まれる対象物の種類を学習した第1学習モデルを用いることによって、前記動画像を構成する複数の画像のそれぞれに含まれる対象物の種類についての類別結果を取得し、
前記学習用画像に含まれる対象物の種類についての学習用類別結果が正解を示しているか否かを学習した第2学習モデルを用いることによって、前記複数の画像のそれぞれについての前記類別結果の正解精度を取得し、
前記複数の画像ごとに、各画像に含まれる対象物の画像上における第1サイズから、各画像に含まれる対象物についての現実のサイズの推定値である第2サイズを算出し、
前記複数の画像ごとに、各画像に対応する前記正解精度
及び前記第2サイズに基づいて補正した前記類別結果を出力する、
処理をコンピュータに実行させることを特徴とする類別方法。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、類別プログラム、類別装置及び類別方法に関する。
【背景技術】
【0002】
近年、海上哨戒や沿岸監視等の分野では、ISAR(Inverse Synthetic Aperture Radar)を用いることによる監視が行われている。具体的に、各監視を行う作業者(以下、単に作業者とも呼ぶ)は、例えば、ISARによって取得された動画の内容を目視で確認することによって、動画に映る対象物についての種類の特定等を行う(例えば、特許文献1参照)。
【先行技術文献】
【特許文献】
【0003】
【発明の概要】
【発明が解決しようとする課題】
【0004】
ここで、上記のような種類の特定を行う場合、作業者は、例えば、ISARによって取得された動画を構成する複数の画像の中から、対象物の特徴を多く含む画像の抽出を行う。そして、作業者は、抽出した画像を分析することによって対象物についての種類の特定を行う。
【0005】
そのため、例えば、対象物の特徴を多く含む画像の抽出数が少ない場合、作業者は、対象物についての種類の特定を適切に行うことができない。
【0006】
また、ISARによって取得された動画に含まれる各画像は、動画の取得時における飛行機の飛行状況や電波状態等によってノイズや欠陥を多く含んでいる可能性がある。そのため、作業者は、上記のような画像を学習データとする機械学習処理を行う場合、認識率の高い学習モデルを生成することが困難であり、この場合においても、対象物についての種類の特定を適切に行うことができない。
【0007】
そこで、一つの側面では、本発明は、対象物についての種類の特定を適切に行うことを可能とする類別プログラム、類別装置及び類別方法を提供することを目的とする。
【課題を解決するための手段】
【0008】
実施の形態の一態様では、動画像を取得し、画像に含まれる対象物の種類を学習した第1学習モデルを用いることによって、前記動画像を構成する複数の画像のそれぞれに含まれる対象物の種類についての類別結果を取得し、前記第1学習モデルにおける前記類別結果の精度を学習した第2学習モデルを用いることによって、前記複数の画像のそれぞれについての前記類別結果の正解精度を取得し、前記複数の画像ごとに、各画像に対応する前記正解精度に基づいて補正した前記類別結果を出力する、処理をコンピュータに実行させる。
【発明の効果】
【0009】
一つの側面によれば、対象物についての種類の特定を適切に行う。
【図面の簡単な説明】
【0010】
【
図1】
図1は、情報処理システム10の構成について説明する図である。
【
図2】
図2は、情報処理装置1のハードウエア構成を説明する図である。
【
図3】
図3は、情報処理装置1の機能のブロック図である。
【
図4】
図4は、第1の実施の形態における類別処理の概略を説明するフローチャート図である。
【
図5】
図5は、第1の実施の形態における類別処理の詳細を説明するフローチャート図である。
【
図6】
図6は、第1の実施の形態における類別処理の詳細を説明するフローチャート図である。
【
図7】
図7は、第1の実施の形態における類別処理の詳細を説明するフローチャート図である。
【
図8】
図8は、第1の実施の形態における類別処理の詳細を説明するフローチャート図である。
【
図9】
図9は、第1の実施の形態における類別処理の詳細を説明するフローチャート図である。
【
図10】
図10は、第1の実施の形態における類別処理の詳細を説明するフローチャート図である。
【
図11】
図11は、第1の実施の形態における類別処理の詳細を説明するフローチャート図である。
【
図12】
図12は、第1の実施の形態における類別処理の詳細を説明するフローチャート図である。
【
図13】
図13は、第1の実施の形態における類別処理の詳細を説明するフローチャート図である。
【
図14】
図14は、第1の実施の形態における類別処理の詳細を説明するフローチャート図である。
【
図15】
図15は、第1学習データ131の具体例について説明する図である。
【
図16】
図16は、第2学習データ132の具体例について説明を行う図である。
【
図17】
図17は、第2学習データ132の具体例について説明を行う図である。
【
図18】
図18は、第2学習データ132の具体例について説明を行う図である。
【
図19】
図19は、第2学習データ132の他の具体例について説明を行う図である。
【
図20】
図20は、第2学習データ132の他の具体例について説明を行う図である。
【
図21】
図21は、第2学習データ132の他の具体例について説明を行う図である。
【
図22】
図22は、類別結果情報134の具体例について説明する図である。
【
図23】
図23は、正解精度情報135の具体例について説明する図である。
【
図24】
図24は、正解精度情報135の具体例について説明する図である。
【
図25】
図25は、類別結果情報134の具体例について説明する図である。
【
図26】
図26は、類別結果情報134の具体例について説明する図である。
【
図27】
図27は、類別結果情報134の具体例について説明する図である。
【
図28】
図28は、サイズ情報136の具体例について説明する図である。
【
図29】
図29は、類別結果情報134の具体例について説明する図である。
【
図30】
図30は、類別結果情報134の具体例について説明する図である。
【
図31】
図31は、類別結果情報134の具体例について説明する図である。
【発明を実施するための形態】
【0011】
[情報処理システムの構成]
初めに、情報処理システム10の構成について説明を行う。
図1は、情報処理システム10の構成について説明する図である。
【0012】
図1に示す情報処理システム10は、情報処理装置1と、操作端末3とを有する。操作端末3は、例えば、作業者が必要な情報の入力等を行うPC(Personal Computer)であって、インターネット等のネットワークNWを介して情報処理装置1とアクセスが可能である。
【0013】
情報処理装置1は、各画像データに含まれる対象物の種類を学習した学習モデル(以下、第1学習モデルとも呼ぶ)と、第1学習モデルにおける類別結果の精度を学習した学習モデル(以下、第2学習モデルとも呼ぶ)とを用いることにより、ISARによって取得された動画データを構成する複数の画像データのそれぞれに含まれる対象物の種類についての類別結果を出力する。
【0014】
具体的に、情報処理装置1は、第1学習モデルを用いることによって、ISARによって取得された動画データを構成する複数の画像データのそれぞれに含まれる対象物の種類についての類別結果を取得する。そして、情報処理装置1は、第2学習モデルを用いることによって、複数の画像データのそれぞれについての類別結果の正解精度を取得する。その後、情報処理装置1は、複数の画像データごとに、正解精度に基づいて補正を行った類別結果を出力する。
【0015】
すなわち、情報処理装置1は、第2学習モデルの学習時において、対象物を含む学習用の画像データ(以下、単に学習用画像データとも呼ぶ)の入力に伴って第1学習モデルから出力された類別結果を、第2学習モデルの学習データの一部として用いる。そして、情報処理装置1は、新たな画像データ(ISARによって取得された動画データを構成する画像データ)に含まれる対象物の種類についての推論時において、新たな画像データの入力に伴って第1学習モデルから出力された類別結果に対し、新たな画像データの入力に伴って第2学習モデルから出力された類別結果の正解精度に基づいた補正を行う。
【0016】
これにより、情報処理装置1は、対象物の種類についての誤認識の発生を抑制することが可能な学習モデルを生成することが可能になる。そのため、情報処理装置1は、対象物についての種類の特定を適切に行うことが可能になる。
【0017】
また、情報処理装置1は、学習モデルを用いることによって対象物についての種類の特定を行うことで、作業者の作業負担を抑制することが可能になる。
【0018】
[情報処理システムのハードウエア構成]
次に、情報処理システム10のハードウエア構成について説明する。
図2は、情報処理装置1のハードウエア構成を説明する図である。
【0019】
情報処理装置1は、
図2に示すように、プロセッサであるCPU101と、メモリ102と、通信装置103と、記憶媒体104とを有する。各部は、バス105を介して互いに接続される。
【0020】
記憶媒体104は、例えば、各画像データに含まれる対象物についての種類の類別を行う処理(以下、類別処理とも呼ぶ)を行うためのプログラム110を記憶するプログラム格納領域(図示しない)を有する。また、記憶媒体104は、例えば、類別処理を行う際に用いられる情報を記憶する記憶部130(以下、情報格納領域130とも呼ぶ)を有する。なお、記憶媒体104は、例えば、HDD(Hard Disk Drive)やSSD(Solid State Drive)であってよい。
【0021】
CPU101は、記憶媒体104からメモリ102にロードされたプログラム110を実行して類別処理を行う。
【0022】
また、通信装置103は、例えば、ネットワークNWを介して操作端末3との通信を行う。
【0023】
[情報処理システムの機能]
次に、情報処理システム10の機能について説明を行う。
図3は、情報処理装置1の機能のブロック図である。
【0024】
情報処理装置1は、
図3に示すように、例えば、CPU101やメモリ102等のハードウエアとプログラム110とが有機的に協働することにより、情報受信部111(以下、情報取得部111とも呼ぶ)と、情報管理部112と、第1モデル生成部113と、結果取得部114と、結果出力部115と、第2モデル生成部116と、精度取得部117と、結果補正部118とを含む各種機能を実現する。
【0025】
また、情報処理装置1は、例えば、
図3に示すように、第1学習データ131と、第2学習データ132と、動画データ133と、類別結果情報134と、正解精度情報135と、サイズ情報136とを情報格納領域130に記憶する。
【0026】
情報受信部111は、例えば、作業者が操作端末3を介して入力した各種情報を受信する。具体的に、情報受信部111は、例えば、第1学習モデルの生成に用いられる第1学習データ131を受信する。第1学習データ131は、学習用画像とその学習用画像に含まれる対象物の種類を示す情報とを含む学習データである。また、情報受信部111は、例えば、ISARによって取得された動画データ133を受信する。そして、情報管理部112は、例えば、情報受信部111が受信した第1学習データ131や動画データ133を情報格納領域130に記憶する。
【0027】
なお、情報受信部111は、例えば、操作端末3に対して自発的にアクセスを行うことにより、操作端末3の情報格納領域(図示しない)に記憶された各種情報を取得するものであってもよい。また、情報受信部111は、例えば、ISARに対して自発的にアクセスを行うことにより、ISARの情報格納領域(図示しない)に記憶された動画データ133を取得するものであってもよい。
【0028】
第1モデル生成部113は、情報格納領域130に記憶された第1学習データ131の学習を行うことによって、第1学習モデルを生成する。
【0029】
結果取得部114は、第1モデル生成部113が生成した第1学習モデルを用いることによって、第1学習データ131に含まれる学習用画像についての類別結果(以下、学習用類別結果とも呼ぶ)を取得する。具体的に、結果取得部114は、第1学習モデルに対する学習用画像の入力に伴って出力された学習用類別結果を取得する。
【0030】
結果出力部115は、例えば、結果取得部114が取得した学習用類別結果を操作端末3に出力する。
【0031】
そして、情報受信部111は、例えば、第2学習モデルの生成に用いられる第2学習データ132を受信する。具体的に、情報受信部111は、例えば、作業者が操作端末3を介して入力した第2学習データ132を受信する。第2学習データ132は、学習用画像とその学習用画像に対応する学習用類別結果が正解を示しているか否かを示す情報とを含む学習データである。すなわち、第2学習データ132は、例えば、結果出力部115が出力した学習用類別結果を用いることによって生成された学習データである。その後、情報管理部112は、例えば、情報受信部111が受信した第2学習データ132を情報格納領域130に記憶する。
【0032】
第2モデル生成部116は、情報格納領域130に記憶された第2学習データ132の学習を行うことによって、第2学習モデルを生成する。
【0033】
そして、結果取得部114は、情報格納領域130に記憶された動画データ133を取得する。さらに、結果取得部114は、第1モデル生成部113が生成した第1学習モデルを用いることによって、動画データ133を構成する複数の画像データのそれぞれに含まれる対象物の種類についての類別結果を取得する。具体的に、結果取得部114は、第1学習モデルに対する複数の画像データの入力に伴って出力される類別結果を取得する。その後、情報管理部112は、結果取得部114が取得した類別結果を示す類別結果情報134を生成して情報格納領域130に記憶する。
【0034】
精度取得部117は、第2モデル生成部116が生成した第2学習モデルを用いることによって、動画データ133を構成する複数の画像データのそれぞれに含まれる対象物の種類についての類別結果の正解精度を取得する。具体的に、精度取得部117は、第2学習モデルに対する複数の画像データの入力に伴って出力される類別結果の正解精度を取得する。その後、情報管理部112は、精度取得部117が取得した正解精度を示す正解精度情報135を生成して情報格納領域130に記憶する。
【0035】
結果補正部118は、動画データ133を構成する複数の画像データごとに、精度取得部117が取得した正解精度に基づいて結果取得部114が取得した類別結果を補正する。
【0036】
そして、結果出力部115は、例えば、結果補正部118が補正した類別結果を操作端末3に出力する。サイズ情報136の説明については後述する。
【0037】
[第1の実施の形態の概略]
次に、第1の実施の形態の概略について説明する。
図4は、第1の実施の形態における類別処理の概略を説明するフローチャート図である。
【0038】
情報処理装置1は、
図4に示すように、類別タイミングになるまで待機する(S1のNO)。類別タイミングは、例えば、作業者が操作端末を介して類別処理を行う旨の情報を入力したタイミングであってよい。
【0039】
そして、類別タイミングになった場合(S1のYES)、情報処理装置1は、動画データ133を取得する(S2)。具体的に、情報処理装置1は、例えば、情報格納領域130に記憶された動画データ133を取得する。また、情報処理装置1は、例えば、外部の記憶装置(図示しない)に記憶された動画データ133を取得する。
【0040】
続いて、情報処理装置1は、画像データに含まれる対象物の種類を学習した第1学習モデルを用いることによって、S2の処理で取得した動画データを構成する複数の画像データのそれぞれに含まれる対象物の種類についての類別結果を取得する(S3)。
【0041】
さらに、情報処理装置1は、第1学習モデルにおける類別結果の精度を学習した第2学習モデルを用いることによって、S3の処理で取得した複数の画像のそれぞれについての類別結果の正解精度を取得する(S4)。
【0042】
その後、情報処理装置1は、複数の画像ごとに、S4の処理で取得した正解精度に基づいて補正した類別結果を出力する(S5)。具体的に、情報処理装置1は、例えば、正解精度に基づいて補正した類別結果を操作端末3に出力する。
【0043】
これにより、情報処理装置1は、例えば、動画データの取得時における飛行機の飛行状況や電波状態等が良好でない場合であっても、対象物の種類についての誤認識の発生を抑制することが可能になる。そのため、情報処理装置1は、対象物についての種類の特定を適切に行うことが可能になる。
【0044】
また、情報処理装置1は、学習モデルを用いることによって対象物についての種類の特定を行うことで、作業者の作業負担を抑制することが可能になる。
【0045】
[第1の実施の形態の詳細]
次に、第1の実施の形態の詳細について説明する。
図5から
図14は、第1の実施の形態における類別処理の詳細を説明するフローチャート図である。また、
図15から
図31は、第1の実施の形態における類別処理の詳細を説明する図である。
【0046】
[第1学習データ記憶処理]
初めに、類別処理のうち、第1学習データ131の記憶を行う処理(以下、第1学習データ記憶処理とも呼ぶ)について説明を行う。
図5は、第1学習データ記憶処理を説明するフローチャート図である。
【0047】
情報処理装置1の情報受信部111は、
図5に示すように、例えば、操作端末3から送信された複数の第1学習データ131を受信するまで待機する(S11のNO)。すなわち、情報受信部111は、例えば、作業者によって生成された第1学習データ131が操作端末3を介して送信されるまで待機する。
【0048】
そして、複数の第1学習データ131を受信した場合(S11のYES)、情報処理装置1の情報管理部112は、S11の処理で受信した複数の第1学習データ131を情報格納領域130に記憶する(S12)。以下、第1学習データ131の具体例について説明を行う。
【0049】
[第1学習データの具体例]
図15は、第1学習データ131の具体例について説明する図である。
【0050】
図15に示す第1学習データ131は、第1学習データ131のそれぞれの識別情報を示す「項番」と、各学習用画像データのそのものを示す「画像データ」と、各学習用画像データに含まれる対象物の種類を示す「対象物」とを含む。なお、以下、「対象物」には、「AAA」、「BBB」、「CCC」、「DDD」及び「EEE」のうちのいずれかが設定されるものとして説明を行う。
【0051】
具体的に、
図15における「項番」が「1」である第1学習データ131は、名称が「IMAGEa1」である学習用画像データを含み、かつ、「対象物」が「AAA」である学習データである。
【0052】
また、
図15における「項番」が「2」である第1学習データ131は、名称が「IMAGEa2」である学習用画像データを含み、かつ、「対象物」が「AAA」である学習データである。
図15に含まれる他の第1学習データ131については説明を省略する。
【0053】
[第1モデル生成処理]
次に、類別処理のうち、第1モデルの生成を行う処理(以下、第1モデル生成処理とも呼ぶ)について説明を行う。
図6は、第1モデル生成処理を説明するフローチャート図である。
【0054】
情報処理装置1の第1モデル生成部113は、
図6に示すように、例えば、第1モデル生成タイミングになるまで待機する(S21のNO)。第1モデル生成タイミングは、例えば、作業者が第1モデルの生成を行う旨の情報を情報処理装置1に入力したタイミングであってよい。
【0055】
そして、第1モデル生成タイミングになった場合(S21のYES)、第1モデル生成部113は、情報格納領域130に記憶された複数の第1学習データ131の学習を行うことにより、第1学習モデルを生成する(S22)。
【0056】
[第2学習データ記憶処理]
次に、類別処理のうち、第2学習データ132の記憶を行う処理(以下、第2学習データ記憶処理とも呼ぶ)について説明を行う。
図7は、第2学習データ記憶処理を説明するフローチャート図である。
【0057】
情報処理装置1の結果取得部114は、S22の処理で生成した第1学習モデルを用いることによって、情報格納領域130に記憶された複数の第1学習データ131ごとに、学習用画像に含まれる対象物の種類についての学習用類別結果を取得する(S32)。具体的に、結果取得部114は、複数の第1学習データ131の入力に伴って第1学習モデルから出力された複数の学習用類別結果を取得する。
【0058】
そして、情報処理装置1の結果出力部115は、S32の処理で取得した第1学習データ131ごとの学習用類別結果を操作端末3に出力する(S33)。
【0059】
その後、情報受信部111は、例えば、操作端末3から送信された複数の第2学習データ132を受信するまで待機する(S34のNO)。すなわち、情報受信部111は、作業者によって生成された第2学習データ132が操作端末3を介して送信されるまで待機する。
【0060】
そして、複数の第2学習データ132を受信した場合(S34のYES)、情報管理部112は、S34の処理で受信した複数の第2学習データ132を情報格納領域130に記憶する(S35)。以下、第2学習データ132の具体例について説明を行う。
【0061】
[第2学習データの具体例(1)]
図16から
図18は、第2学習データ132の具体例について説明を行う図である。以下、名称が「IMAGEa1」である学習用画像データを学習用画像データIMAGEa1とも呼び、名称が「IMAGEa2」である学習用画像データを学習用画像データIMAGEa2とも呼ぶ。
【0062】
初めに、第2学習データ132が生成される際の具体例について説明を行う。
図16及び
図17は、第2学習データ132が生成される際の具体例について説明する図である。
【0063】
例えば、
図16に示す例において、第1学習モデルMD01は、種類が「AAA」である対象物を含む学習用画像データIMAGEa1の入力に応じて、学習用画像データIMAGEa1に含まれる対象物の種類が「AAA」である確率が「0.4」であり、「BBB」である確率が「0.1」であり、「CCC」である確率が「0.2」であり、「DDD」である確率が「0.2」であり、「EEE」である確率が「0.1」であることを示す学習用類別結果DTa011を出力している(S32)。
【0064】
すなわち、
図16に示す例は、第1学習モデルが学習用画像データIMAGEa1に含まれる対象物の種類として最も確率が高いと判定した種類(AAA)と、学習用画像データIMAGEa1に含まれる対象物の実際の種類(AAA)とが一致した場合を示している。
【0065】
そのため、作業者は、例えば、学習用画像データIMAGEa1に対応する学習用類別結果DTa011が正解を示しているか否かを示す情報DTa012(以下、正誤情報DTa012とも呼び)として、正解を示す「1」を特定する。そして、作業者は、例えば、この場合、学習用画像データIMAGEa1と、「1」を示す正誤情報DTa012とを含む第2学習データ132を生成する。
【0066】
なお、作業者は、例えば、第1学習モデルが学習用画像データIMAGEa1に含まれる対象物の種類として最も確率が高いと判定した種類の確率が所定の割合(例えば、0.9)を超えた場合に限り、正解を示す正誤情報DTa012の特定を行うものであってよい。
【0067】
また、例えば、
図17に示す例において、第1学習モデルMD01は、種類が「AAA」である対象物を含む学習用画像データIMAGEa2の入力に応じて、学習用画像データIMAGEa2に含まれる対象物の種類が「AAA」である確率が「0.2」であり、「BBB」である確率が「0.5」であり、「CCC」である確率が「0.1」であり、「DDD」である確率が「0.1」であり、「EEE」である確率が「0.1」であることを示す学習用類別結果DTa021を出力している(S32)。
【0068】
すなわち、
図17に示す例は、第1学習モデルが学習用画像データIMAGEa2に含まれる対象物の種類として最も確率が高いと判定した種類(BBB)と、学習用画像データIMAGEa2に含まれる対象物の実際の種類(AAA)とが一致しない場合を示している。
【0069】
そのため、作業者は、例えば、学習用画像データIMAGEa2に対応する正誤情報DTa022として、不正解を示す「0」を特定する。そして、作業者は、例えば、この場合、学習用画像データIMAGEa2と、「0」を示す正誤情報とを含む第2学習データ132を生成する。
【0070】
次に、第2学習データ132の具体例について説明を行う。
図18は、第2学習データ132の具体例について説明する図である。
【0071】
図18に示す第2学習データ132は、第2学習データ132のそれぞれの識別情報を示す「項番」と、各学習用画像データのそのものを示す「画像データ」と、各学習用画像データに対応する正誤情報を示す「正誤情報」とを含む。なお、以下、第2学習データ132に含まれる各学習用画像データが第1学習データ131に含まれる各学習用画像データと同一のものである場合について説明を行うが、第2学習データ132に含まれる各学習用画像データは、第1学習データ131に含まれる各学習用画像データと異なるものであってもよい。
【0072】
具体的に、
図18における「項番」が「1」である第2学習データ132は、名称が「IMAGEa1」である学習用画像データを含み、かつ、「正誤情報」が「1」である学習データである。
【0073】
また、
図18における「項番」が「2」である第2学習データ132は、名称が「IMAGEa2」である学習用画像データを含み、かつ、「正誤情報」が「0」である学習データである。
図18に含まれる他の第2学習データ132については説明を省略する。
【0074】
なお、作業者は、S33の処理が行われた場合、各学習用類別結果から正誤情報を特定する処理を操作端末3に実行させるものであってもよい。また、作業者は、各学習用画像データと各学習用画像データに対応する正誤情報とを対応付けて第2学習データ132を生成する処理を操作端末3に実行させるものであってもよい。
【0075】
これにより、作業者は、第2学習データ132の生成を自動的に行うことが可能になり、第2学習データ132の生成に伴う作業負担を軽減させることが可能になる。
【0076】
[第2学習データの具体例(2)]
次に、第2学習データ132の他の具体例について説明を行う。
図19から
図21は、第2学習データ132の他の具体例について説明を行う図である。
【0077】
初めに、第2学習データ132が生成される際の他の具体例について説明を行う。
図19及び
図20は、第2学習データ132が生成される際の他の具体例について説明する図である。
【0078】
作業者は、例えば、第1学習モデルMD01から学習用類別結果DTa011が出力された場合、
図19に示すように、正誤情報を対象物の種類ごとに特定するものであってもよい。
【0079】
具体的に、
図16に示す例において、対象物の種類である「AAA」は、学習用類別結果DTa011における確率が最も高い種類であり、かつ、学習用画像データIMAGEa1に含まれる対象物の実際の種類(AAA)と一致する種類である。そのため、作業者は、この場合、
図19に示すように、例えば、学習用類別結果DTa011における確率が最も高い種類であり、かつ、学習用画像データIMAGEa1に含まれる対象物の実際の種類と一致する種類である「AAA」に設定される情報が「1」であり、「BBB」、「CCC」、「DDD」、「EEE」及び「Impossible」に設定される情報が「0」である正誤情報DTa013を特定するものであってもよい。
【0080】
また、
図17に示す例において、対象物の種類である「BBB」は、学習用類別結果DTa011における確率が最も高い種類であるが、学習用画像データIMAGEa2に含まれる対象物の実際の種類(AAA)と一致しない種類である。そのため、作業者は、この場合、
図20に示すように、例えば、学習用類別結果DTa011における確率が最も高い種類であり、かつ、学習用画像データIMAGEa1に含まれる対象物の実際の種類と一致する種類が存在しない場合に対応する「Impossible」に設定される情報が「1」であり、「AAA」、「BBB」、「CCC」、「DDD」及び「EEE」に設定される情報が「0」である正誤情報DTa023を特定する。
【0081】
次に、第2学習データ132の他の具体例について説明を行う。
図21は、第2学習データ132の他の具体例について説明する図である。
【0082】
図21に示す第2学習データ132は、第2学習データ132のそれぞれの識別情報を示す「項番」と、各学習用画像データのそのものを示す「画像データ」と、各学習用画像データに対応する正誤情報を示す「正誤情報」とを含む。
【0083】
具体的に、
図21における「項番」が「1」である第2学習データ132は、名称が「IMAGEa1」である学習用画像データを含み、かつ、「正誤情報」が「1,0,0,0,0,0」である学習データである。すなわち、この場合、「正誤情報」は、「AAA」に対応する情報が「1」であり、「AAA」以外に対応する情報が「0」であることを示している。
【0084】
また、
図21における「項番」が「2」である第2学習データ132は、名称が「IMAGEa2」である学習用画像データを含み、かつ、「正誤情報」が「0,0,0,0,0,1」である学習データである。すなわち、この場合、「正誤情報」は、「Impossible」に対応する情報が「1」であり、「Impossible」以外に対応する情報が「0」であることを示している。
図21に含まれる他の第2学習データ132については説明を省略する。
【0085】
[第2モデル生成処理]
次に、類別処理のうち、第2モデルの生成を行う処理(以下、第2モデル生成処理とも呼ぶ)について説明を行う。
図8は、第2モデル生成処理を説明するフローチャート図である。
【0086】
情報処理装置1の第2モデル生成部116は、
図8に示すように、例えば、第2モデル生成タイミングになるまで待機する(S41のNO)。第2モデル生成タイミングは、例えば、作業者が第2モデルの生成を行う旨の情報を情報処理装置1に入力したタイミングであってよい。
【0087】
そして、第2モデル生成タイミングになった場合(S41のYES)、第2モデル生成部116は、情報格納領域130に記憶された複数の第2学習データ132の学習を行うことにより、第2学習モデルを生成する(S42)。
【0088】
[類別処理のメイン処理]
次に、類別処理のメイン処理について説明を行う。
図9から
図14は、類別処理のメイン処理を説明するフローチャート図である。
【0089】
情報処理装置1の第2モデル生成部116は、
図9に示すように、例えば、類別タイミングになるまで待機する(S51のNO)。
【0090】
そして、類別タイミングになった場合(S51のYES)、結果取得部114は、情報格納領域130に記憶された動画データ133を取得する(S52)。
【0091】
続いて、結果取得部114は、S22の処理で生成した第1学習モデルを用いることによって、S52の処理で取得した動画データ133に含まれる画像データごとに、各画像データに含まれる対象物の種類が複数の種類候補に含まれる各候補である確率をそれぞれ取得する(S53)。
【0092】
具体的に、結果取得部114は、
図16及び
図17で説明した場合と同様に、S52の処理で取得した動画データ133に含まれる各画像データを第1学習モデルに入力することに伴って出力された種類候補ごとの確率を取得する。
【0093】
そして、情報管理部112は、S52の処理で取得した動画データ133に含まれる画像データごとに、S53の処理で取得した種類候補ごとの確率を含む情報を類別結果情報134として生成する(S54)。以下、類別結果情報134の具体例について説明を行う。
【0094】
[類別結果情報の具体例]
図22、
図25、
図26、
図27及び
図29は、類別結果情報134の具体例について説明する図である。以下、対象物の種類候補が「AAA」、「BBB」、「CCC」、「DDD」及び「EEE」であるものとする。また、以下、名称が「IMAGEb1」である画像データを画像データIMAGEb1とも呼び、名称が「IMAGEb2」である画像データを画像データIMAGEb2とも呼ぶ。
【0095】
図22等に示す類別結果情報134は、各類別結果情報134のそれぞれの識別情報を示す「項番」と、動画データ133に含まれる各画像データの名称が設定される「画像データ名」と、S53の処理で取得した確率が設定される「確率」とを項目として有する。
【0096】
具体的に、例えば、画像データIMAGEb1の入力に伴って第1学習モデルから出力された確率がそれぞれ「0.5」、「0.1」、「0.1」、「0.1」及び「0.2」である場合、情報管理部112は、
図22に示す類別結果情報134における1行目の情報(「項番」が「1」である情報)に示すように、「AAA」、「BBB」、「CCC」、「DDD」及び「EEE」のそれぞれに対応する確率として「0.5」、「0.1」、「0.1」、「0.1」及び「0.2」のそれぞれを設定する。
【0097】
また、例えば、画像データIMAGEb2の入力に伴って第1学習モデルから出力された確率がそれぞれ「0.6」、「0.1」、「0.1」、「0.1」及び「0.1」である場合、情報管理部112は、
図22に示す類別結果情報134における2行目の情報(「項番」が「2」である情報)に示すように、「AAA」、「BBB」、「CCC」、「DDD」及び「EEE」のそれぞれに対応する確率として「0.6」、「0.1」、「0.1」、「0.1」及び「0.1」のそれぞれを設定する。
図22に含まれる他の情報についての説明は省略する。
【0098】
図10に戻り、情報処理装置1の精度取得部117は、S42の処理で生成した第2学習モデルを用いることによって、S52の処理で取得した動画データ133に含まれる画像データごとに、S53の処理で取得した種類候補ごとの確率の正解精度を取得する(S61)。
【0099】
具体的に、精度取得部117は、S52の処理で取得した動画データ133に含まれる各画像データを第2学習モデルに入力することに伴って出力された確率を正解精度として取得する。
【0100】
そして、情報管理部112は、S52の処理で取得した動画データ133に含まれる画像データごとに、S53の処理で取得した種類候補ごとの確率の正解精度を含む情報を正解精度情報135として生成する(S62)。以下、正解精度情報135の具体例について説明を行う。
【0101】
[正解精度情報の具体例]
図23及び
図24は、正解精度情報135の具体例について説明する図である。
【0102】
図23等に示す正解精度情報135は、各正解精度情報135のそれぞれの識別情報を示す「項番」と、動画データ133に含まれる各画像データの名称が設定される「画像データ名」と、S61の処理で取得した正解精度に対応する確率が設定される「正解精度」とを項目として有する。
【0103】
具体的に、例えば、画像データIMAGEb1の入力に伴って第2学習モデルから出力された確率が「0.8」である場合、情報管理部112は、
図23に示す正解精度情報135における1行目の情報(「項番」が「1」である情報)に示すように、「正解精度」として「0.8」を設定する。
【0104】
また、例えば、画像データIMAGEb2の入力に伴って第2学習モデルから出力された確率が「0.7」である場合、情報管理部112は、
図23に示す正解精度情報135における2行目の情報(「項番」が「2」である情報)に示すように、「正解精度」として「0.7」を設定する。
図23に含まれる他の情報についての説明は省略する。
【0105】
なお、
図21で説明した第2学習データを用いることによって第2学習モデルの生成が行われた場合、第2学習モデルは、例えば、画像データIMAGEb1の入力に伴う正解精度の出力を種類候補ごとに行う。
【0106】
そのため、例えば、画像データIMAGEb1の入力に伴って第2学習モデルから出力された正解精度が「0.81」、「0.01」、「0.01」、「0.02」、「0.01」及び「0.01」である場合、情報管理部112は、
図24に示す正解精度情報135における1行目の情報(「項番」が「1」である情報)に示すように、「正解精度」として「0.81」、「0.01」、「0.01」、「0.02」、「0.01」及び「0.01」を設定する。
【0107】
また、例えば、画像データIMAGEb2の入力に伴って第2学習モデルから出力された正解精度が「0.69」、「0.02」、「0.03」、「0.01」、「0.01」及び「0.01」である場合、情報管理部112は、
図24に示す正解精度情報135における2行目の情報(「項番」が「2」である情報)に示すように、「正解精度」として「0.69」、「0.02」、「0.03」、「0.01」、「0.01」及び「0.01」を設定する。
図24に含まれる他の情報についての説明は省略する。
【0108】
図10に戻り、情報処理装置1の結果補正部118は、S52の処理で取得した動画データ133に含まれる画像データごとに、S62の処理で生成した正解精度情報135に基づいて、S54の処理で生成した類別結果情報134を補正する(S63)。
【0109】
その後、結果出力部115は、例えば、S52の処理で取得した動画データ133に含まれる画像データごとに、S63の処理で補正した類別結果情報134を操作端末3に出力する(S64)。以下、S63及びS64の処理の第1の詳細について説明を行う。
【0110】
[S63及びS64の処理の詳細(1)]
図11は、S63及びS64の処理の第1の詳細について説明する図である。
【0111】
結果補正部118は、
図11に示すように、S52の処理で取得した動画データ133に含まれる画像データごとに、S54の処理で生成した類別結果情報134が示す値と、S62の処理で生成した正解精度情報135が示す値とを乗算する(S71)。
【0112】
具体的に、
図22に示す類別結果情報134における1行目の情報(「画像データ名」が「IMAGEb1」である情報)には、「AAA」、「BBB」、「CCC」、「DDD」及び「EEE」のそれぞれに対応する確率として「0.5」、「0.1」、「0.1」、「0.1」及び「0.2」のそれぞれが設定されている。また、
図23に示す正解精度情報135における1行目の情報(「画像データ名」が「IMAGEb1」である情報)には、「正解精度」として「0.8」が設定されている。
【0113】
そのため、結果補正部118は、例えば、「0.5」、「0.1」、「0.1」、「0.1」及び「0.2」のそれぞれと「0.8」とを乗算することによって、「0.4」、「0.08」、「0.08」、「0.08」及び「0.16」を算出する。
【0114】
そして、情報管理部112は、S52の処理で取得した動画データ133に含まれる画像データに対応する類別結果情報134が示す値を、S71の処理で算出した値に補正(更新)する(S72)。
【0115】
具体的に、情報管理部112は、例えば、
図25に示す類別結果情報134における1行目の情報(「項番」が「1」である情報)に示すように、「AAA」、「BBB」、「CCC」、「DDD」及び「EEE」のそれぞれに対応する確率として「0.4」、「0.08」、「0.08」、「0.08」及び「0.16」のそれぞれを設定する。
【0116】
その後、結果出力部115は、例えば、S52の処理で取得した動画データ133に含まれる画像データごとに、S72の処理で補正した類別結果情報134が示す値を操作端末3に出力する(S73)。
【0117】
具体的に、結果出力部115は、例えば、
図25に示す類別結果情報134が示す値を操作端末5に出力する。
【0118】
これにより、作業者は、例えば、操作端末3に出力された類別結果情報134を参照することで、動画データ133(動画データ133を構成する各画像データ)に含まれる対象物の種類についての特定を行うことが可能になる。
【0119】
なお、
図24に示す正解精度情報135における1行目の情報(「画像データ名」が「IMAGEb1」である情報)には、「正解精度」として「0.81」、「0.01」、「0.01」、「0.02」、「0.01」及び「0.01」が設定されている。
【0120】
そのため、結果補正部118は、
図24で説明した正解精度情報135が用いられる場合、例えば、「0.5」、「0.1」、「0.1」、「0.1」及び「0.2」のそれぞれと、「Impossible」以外に対応する「正解精度」である「0.81」、「0.01」、「0.01」、「0.02」及び「0.01」のそれぞれとを乗算することによって、「0.42」、「0.0001」、「0.0001」、「0.0002」及び「0.0002」を算出する(S71)。
【0121】
そして、情報管理部112は、この場合、例えば、
図26に示す類別結果情報134における1行目の情報(「項番」が「1」である情報)に示すように、「AAA」、「BBB」、「CCC」、「DDD」及び「EEE」のそれぞれに対応する確率として「0.42」、「0.0001」、「0.0001」、「0.0002」及び「0.0002」のそれぞれを設定する。
【0122】
[S63及びS64の処理の詳細(2)]
次に、S63及びS64の処理の第2の詳細について説明を行う。
図12は、S63及びS64の処理の第2の詳細について説明する図である。
【0123】
結果補正部118は、
図12に示すように、S52の処理で取得した動画データ133に含まれる画像データごとに、S62の処理で生成した正解精度情報135が示す値が所定の閾値以上であるか否かを判定する(S81)。
【0124】
そして、情報管理部112は、例えば、S52の処理で取得した動画データ133に含まれる画像データのうち、S61の処理で生成した正解精度情報135が示す値が所定の閾値以上でない画像データに対応する類別結果情報134が示す値を、S54の処理で生成した類別結果情報134が示す値のそれぞれが示す値よりも小さい値(例えば、0)に補正する(S82)。
【0125】
具体的に、
図23に示す正解精度情報135には、例えば、「画像データ名」が「IMAGEb1」、「IMAGEb2」、「IMAGEb3」、「IMAGEb4」、「IMAGEb5」及び「IMAGEb6」のそれぞれに対応する「正解精度」として「0.8」、「0.7」、「0.1」、「0.2」、「0.9」及び「0.4」のそれぞれが設定されている。
【0126】
そのため、例えば、所定の閾値が「0.3」である場合、情報管理部112は、
図27に示す類別結果情報134における3行目の情報(「項番」が「3」である情報)に示すように、「AAA」、「BBB」、「CCC」、「DDD」及び「EEE」の全てに対応する確率として「0」を設定する。
【0127】
同様に、情報管理部112は、この場合、例えば、
図27に示す類別結果情報134における4行目の情報(「項番」が「4」である情報)に示すように、「AAA」、「BBB」、「CCC」、「DDD」及び「EEE」の全てに対応する確率として「0」を設定する。
【0128】
その後、結果出力部115は、例えば、S52の処理で取得した動画データ133に含まれる画像データごとに、S54の処理で生成した類別結果情報134が示す値またはS82の処理で補正した類別結果情報134が示す値を操作端末3に出力する(S83)。
【0129】
具体的に、結果出力部115は、例えば、
図27に示す類別結果情報134が示す値を操作端末5に出力する。
【0130】
[S63及びS64の処理の詳細(3)]
次に、S63及びS64の処理の第3の詳細について説明を行う。
図13及び
図14は、S63及びS64の処理の第3の詳細について説明する図である。
【0131】
結果補正部118は、
図13に示すように、S52の処理で取得した動画データ133に含まれる画像データごとに、各画像データに含まれる対象物の画像データ上におけるサイズ(以下、第1サイズとも呼ぶ)から、各画像データに含まれる対象物の現実のサイズの推定値(以下、第2サイズとも呼ぶ)を算出する(S91)。
【0132】
具体的に、例えば、動画データ133の取得時におけるISARの各種設定パラメータ(例えば、動画データ133の取得時における対象物の拡大率)と第1サイズとを用いることにより、各対象物の第2サイズの算出を行う。
【0133】
また、結果補正部118は、S52の処理で取得した動画データ133に含まれる画像データごとに、S54の処理で生成した類別結果情報134が示す値と、S62の処理で生成した正解精度情報135が示す値とを乗算する(S92)。
【0134】
具体的に、
図22に示す類別結果情報134における1行目の情報(「画像データ名」が「IMAGEb1」である情報)には、「AAA」、「BBB」、「CCC」、「DDD」及び「EEE」のそれぞれに対応する確率として「0.5」、「0.1」、「0.1」、「0.1」及び「0.2」のそれぞれが設定されている。また、
図23に示す正解精度情報135における1行目の情報(「画像データ名」が「IMAGEb1」である情報)には、「正解精度」として「0.8」が設定されている。
【0135】
そのため、結果補正部118は、例えば、「0.5」、「0.1」、「0.1」、「0.1」及び「0.2」のそれぞれと「0.8」とを乗算することによって、「0.4」、「0.08」、「0.08」、「0.08」及び「0.16」を算出する。
【0136】
そして、結果補正部118は、各対象物の種類候補についての現実のサイズ(以下、第3サイズとも呼ぶ)を示すサイズ情報136を参照し、S52の処理で取得した動画データ133に含まれる画像データごとであって各種類候補ごとに、各画像データに含まれる対象物に対応する第2サイズと各種類候補に対応する第3サイズとの差異(差異の絶対値)を算出する(S93)。以下、サイズ情報136の具体例について説明を行う。
【0137】
[サイズ情報の具体例]
図28は、サイズ情報136の具体例について説明する図である。
【0138】
図28に示すサイズ情報136は、サイズ情報136に含まれる各情報の識別情報が設定される「項番」と、各対象物の種類が設定される「対象物」と、各対象物の現実のサイズ(第3サイズ)が設定される「サイズ」とを項目として有する。
【0139】
具体的に、
図28に示すサイズ情報136において、「項番」が「1」である情報には、「対象物」として「AAA」が設定され、「サイズ」として「220(m)」が設定されている。
【0140】
また、
図28に示すサイズ情報136において、「項番」が「2」である情報には、「対象物」として「BBB」が設定され、「サイズ」として「310(m)」が設定されている。
【0141】
同様に、
図28に示すサイズ情報136において、「対象物」に「CCC」、「DDD」及び「EEE」が設定された情報(「項番」に「3」、「4」及び「5」が設定された情報)の「サイズ」には、「120(m)」、「330(m)」及び「140(m)」がそれぞれ設定されている。
【0142】
そして、例えば、画像データIMAGEb1に含まれる対象物の第2サイズが「300(m)」である場合、結果補正部118は、S93の処理において、「80(m)」、「10(m)」、「180(m)」、「30(m)」及び「160(m)」をそれぞれ算出する。
【0143】
図13に戻り、結果補正部118は、S52の処理で取得した動画データ133に含まれる画像データごとであって各種類候補ごとに、S93の処理で算出した差異が所定の閾値を上回るか否かを判定する(S94)。
【0144】
そして、情報管理部112は、
図14に示すように、S52の処理で取得した動画データ133に含まれる画像データごとに、各画像データに対応する類別結果情報134のうち、S94の処理で差異が所定の閾値を上回ると判定した種類候補に対応する類別結果情報134が示す値を、S54の処理で生成した類別結果情報134が示す値のそれぞれが示す値よりも小さい値(例えば、0)に補正する(S101)。
【0145】
また、情報管理部112は、S52の処理で取得した動画データ133に含まれる画像データごとに、各画像データに対応する類別結果情報134のうち、S94の処理で差異が所定の閾値を上回らないと判定した種類候補に対応する類別結果情報134が示す値を、S92の処理で算出した値に補正する(S102)。
【0146】
具体的に、画像データIMAGEb1についてS93の処理で算出した差異のそれぞれが「20(m)」、「110(m)」、「80(m)」、「130(m)」及び「60(m)」であって、所定の閾値が「100(m)」である場合、結果補正部118は、S94の処理において、「110(m)」及び「130(m)」(「BBB」及び「DDD」に対応する差異)が所定の閾値を上回っていると判定し、「20(m)」、「80(m)」及び「60(m)」(「AAA」、「CCC」及び「EEE」に対応する差異)が所定の閾値を上回っていないと判定する。
【0147】
そのため、情報管理部112は、S101の処理において、例えば、
図29に示すように、画像データIMAGEb1に対応する類別結果情報134のうち、「BBB」及び「DDD」に対応する類別結果情報134を「0」に補正(更新)する。また、情報管理部112は、S102の処理において、例えば、
図29に示すように、画像データIMAGEb1に対応する類別結果情報134のうち、「AAA」、「CCC」及び「EEE」に対応する類別結果情報134を、S92の処理で算出した値である「0.4」、「0.08」及び「0.16」に更新する。
【0148】
これにより、情報処理装置1は、画像データに含まれる対象物のサイズに基づいて対象物の種類として明らかに該当しないと判断できる種類候補についての情報を類別結果情報134に反映させることが可能になる。そのため、情報処理装置1は、例えば、作業者が閲覧する類別結果情報134に含まれる内容の精度より向上させることが可能になる。
【0149】
そして、結果出力部115は、例えば、S52の処理で取得した動画データ133に含まれる画像データごとに、S101の処理で補正した類別結果情報134が示す値またはS102の処理で補正した類別結果情報134が示す値を操作端末3に出力する(S103)。
【0150】
具体的に、結果出力部115は、例えば、
図29に示す類別結果情報134が示す値を操作端末5に出力する。
【0151】
なお、結果出力部115は、例えば、S64の処理において、S63の処理で補正した類別結果情報134に含まれる確率のそれぞれを、種類候補ごとに累積してから出力するものであってもよい。以下、累積後の類別結果情報134の具体例について説明を行う。
【0152】
[累積後の類別結果情報の具体例(1)]
図30は、累積後の類別結果情報134の具体例について説明する図である。
【0153】
図30に示す類別結果情報134は、各類別結果情報134のそれぞれの識別情報を示す「項番」と、S53の処理で取得した確率の種類候補ごとの累積値が設定される「累積値」とを項目として有する。
【0154】
具体的に、例えば、
図25で説明した類別結果情報134に含まれる確率のうち、「AAA」に対応する「確率」である「0.4」、「0.42」、「0.02」、「0.02」、「0.27」及び「0.04」等の合計値が「32.4」である場合、結果出力部115は、
図30に示すように、「AAA」に対応する「累積値」として「32.4」を設定する。
【0155】
また、例えば、
図25で説明した類別結果情報134に含まれる確率のうち、「BBB」に対応する「確率」である「0.08」、「0.07」、「0.04」、「0.06」、「0.27」及び「0.08」等の合計値が「1.2」である場合、結果出力部115は、
図30に示すように、「BBB」に対応する「累積値」として「1.2」を設定する。
図30に含まれる他の情報についての説明は省略する。
【0156】
そして、結果出力部115は、この場合、例えば、
図30に示す類別結果情報134が示す値を操作端末5に出力する。
【0157】
これにより、情報処理装置1は、作業者が閲覧する類別結果情報134のロバスト性を向上させることが可能になる。
【0158】
[累積後の類別結果情報の具体例(2)]
次に、累積後の類別結果情報134の他の具体例について説明する。
図31は、累積後の類別結果情報134の他の具体例について説明する図である。
【0159】
図31に示す類別結果情報134は、
図30で説明した累積結果情報132における「累積値」に代えて、S53の処理で取得した確率の総和に対するS53の処理で取得した確率の種類候補ごとの累積値の割合が設定される「累積確率」を項目として有する。
【0160】
具体的に、
図30で説明した類別結果情報134において、「項番」が「1」である情報には、「AAA」に対応する「累積値」として「32.4」が設定され、「BBB」に対応する「累積値」として「1.2」が設定され、「CCC」に対応する「累積値」として「0.8」が設定され、「DDD」に対応する「累積値」として「0.4」が設定され、「EEE」に対応する「累積値」として「1.2」が設定されている。
【0161】
そのため、結果出力部115は、例えば、S53の処理で取得した確率の総和として、「32.4」、「1.2」、「0.8」、「0.4」及び「1.2」の合計値である「36.0」を算出する。
【0162】
そして、結果出力部115は、
図31に示すように、例えば、「AAA」に対応する「累積確率」として、「32.4」を「36.0」で除算することによって算出された「0.9」を設定する。また、結果出力部115は、
図31に示すように、例えば、「BBB」に対応する「累積確率」として、「1.2」を「36.0」で除算することによって算出された値の小数点第3位を四捨五入した値である「0.03」を設定する。
図31に含まれる他の情報についての説明は省略する。
【0163】
このように、情報処理装置1は、第1学習モデルを用いることによって、動画データ133を構成する複数の画像データのそれぞれに含まれる対象物の種類についての類別結果を取得する。そして、情報処理装置1は、第2学習モデルを用いることによって、複数の画像データのそれぞれについての類別結果の正解精度を取得する。その後、情報処理装置1は、複数の画像データごとに、正解精度に基づいて補正を行った類別結果を出力する。
【0164】
すなわち、情報処理装置1は、第2学習モデルの学習時において、学習用画像データの入力に伴って第1学習モデルから出力された類別結果を、第2学習モデルの学習データの一部として用いる。そして、情報処理装置1は、新たな画像データ(ISARによって取得された動画データを構成する画像データ)に含まれる対象物の種類についての推論時において、新たな画像データの入力に伴って第1学習モデルから出力された類別結果に対し、新たな画像データの入力に伴って第2学習モデルから出力された類別結果の正解精度に基づいた補正を行う。
【0165】
これにより、情報処理装置1は、動画データの取得時における飛行機の飛行状況や電波状態等が良好でない場合であっても、対象物の種類についての誤認識の発生を抑制することが可能になる。そのため、情報処理装置1は、対象物についての種類の特定を適切に行うことが可能になる。
【0166】
また、情報処理装置1は、学習モデルを用いることによって対象物についての種類の特定を行うことで、作業者の作業負担を抑制することが可能になる。
【0167】
以上の実施の形態をまとめると、以下の付記のとおりである。
【0168】
(付記1)
動画像を取得し、
画像に含まれる対象物の種類を学習した第1学習モデルを用いることによって、前記動画像を構成する複数の画像のそれぞれに含まれる対象物の種類についての類別結果を取得し、
前記第1学習モデルにおける前記類別結果の精度を学習した第2学習モデルを用いることによって、前記複数の画像のそれぞれについての前記類別結果の正解精度を取得し、
前記複数の画像ごとに、各画像に対応する前記正解精度に基づいて補正した前記類別結果を出力する、
処理をコンピュータに実行させることを特徴とする類別プログラム。
【0169】
(付記2)
付記1において、さらに、
前記類別結果を取得する処理の前に、対象物を含む学習用画像と前記学習用画像に含まれる前記対象物の種類を示す情報とをそれぞれ含む複数の第1学習データの学習を行うことにより、前記第1学習モデルを生成する、
処理をコンピュータに実行させることを特徴とする類別プログラム。
【0170】
(付記3)
付記2において、さらに、
前記正解精度を取得する処理の前に、前記第1学習モデルを用いることによって、前記学習用画像についての類別結果である学習用類別結果を前記複数の第1学習データに含まれる前記学習用画像ごとに取得し、
前記学習用画像と前記学習用画像に対応する前記学習用類別結果が正解を示しているか否かを示す正誤情報とをそれぞれ含む複数の第2学習データの学習を行うことにより、前記第2学習モデルを生成する、
処理をコンピュータに実行させることを特徴とする類別プログラム。
【0171】
(付記4)
付記3において、さらに、
前記第1学習データに含まれる前記学習用画像ごとの前記学習用類別結果を出力し、
出力した前記学習用類別結果のそれぞれに対応する前記正誤情報の入力を受け付ける、
処理をコンピュータに実行させ、
前記第2学習モデルを生成する処理では、入力を受け付けた前記正誤情報をそれぞれ含む前記複数の第2学習データの学習を行う、
ことを特徴とする類別プログラム。
【0172】
(付記5)
付記3において、
前記学習用類別結果を取得する処理では、前記第1学習モデルを用いることによって、前記複数の第1学習データに含まれる前記学習用画像ごとに、各学習用画像に含まれる対象物の種類が複数の種類候補のそれぞれである確率を各学習用画像の類別結果として取得する、
ことを特徴とする類別プログラム。
【0173】
(付記6)
付記1において、
前記出力する処理では、前記複数の画像ごとに、各画像に対応する前記正解精度と前記類別結果との乗算結果を出力する、
ことを特徴とする類別プログラム。
【0174】
(付記7)
付記1において、
前記出力する処理では、
前記複数の画像ごとに、各画像に対応する前記正解精度が所定の閾値以上であるか否かを判定し、
前記複数の画像のうち、前記正解精度が前記所定の閾値を上回る画像について、各画像に対応する前記類別結果を出力し、前記複数の画像のうち、前記正解精度が前記所定の閾値を上回らない画像について、各画像に対応する前記類別結果よりも小さい値を出力する、
ことを特徴とする類別プログラム。
【0175】
(付記8)
付記1において、さらに、
前記複数の画像ごとに、各画像に含まれる対象物の画像上における第1サイズから、各画像に含まれる対象物についての現実のサイズの推定値である第2サイズを算出する、
処理をコンピュータに実行させ、
前記出力する処理では、前記複数の画像ごとに、各画像に対応する前記正解精度及び前記第2サイズに基づいて補正した前記類別結果を出力する、
ことを特徴とする類別プログラム。
【0176】
(付記9)
付記8において、
前記出力する処理では、
前記複数の画像ごとに、各画像に対応する前記正解精度と前記類別結果との乗算結果を算出し、
各対象物の現実のサイズである第3サイズを記憶した記憶部を参照し、前記複数の画像ごとに、各画像に含まれる対象物に対応する前記第2サイズと前記第3サイズとの差異が所定の閾値を上回るか否かを判定し、前記差異が前記所定の閾値を上回ると判定した場合、各画像に対応する前記乗算結果を出力し、前記差異が前記所定の閾値を下回ると判定した場合、各画像に対応する前記乗算結果よりも小さい値を出力する、
ことを特徴とする類別プログラム。
【0177】
(付記10)
動画像を取得する情報取得部と、
画像に含まれる対象物の種類を学習した第1学習モデルを用いることによって、前記動画像を構成する複数の画像のそれぞれに含まれる対象物の種類についての類別結果を取得する結果取得部と、
前記第1学習モデルにおける前記類別結果の精度を学習した第2学習モデルを用いることによって、前記複数の画像のそれぞれについての前記類別結果の正解精度を取得する精度取得部と、
前記複数の画像ごとに、各画像に対応する前記正解精度に基づいて補正した前記類別結果を出力する結果出力部と、を有する、
ことを特徴とする類別装置。
【0178】
(付記11)
付記10において、さらに、
対象物を含む学習用画像と前記学習用画像に含まれる前記対象物の種類を示す情報とをそれぞれ含む複数の第1学習データの学習を行うことにより、前記第1学習モデルを生成する第1モデル生成部を有する、
ことを特徴とする類別装置。
【0179】
(付記12)
付記11において、さらに、
前記第1学習モデルを用いることによって、前記学習用画像についての類別結果である学習用類別結果を前記複数の第1学習データに含まれる前記学習用画像ごとに取得し、前記学習用画像と前記学習用画像に対応する前記学習用類別結果が正解を示しているか否かを示す正誤情報とをそれぞれ含む複数の第2学習データの学習を行うことにより、前記第2学習モデルを生成する第2学習モデル生成部を有する、
ことを特徴とする類別装置。
【0180】
(付記13)
付記12において、
結果取得部は、
前記第1学習モデルを用いることによって、前記複数の第1学習データに含まれる前記学習用画像ごとに、各学習用画像に含まれる対象物の種類が複数の種類候補に含まれる各種類候補である確率をそれぞれ取得し、
前記複数の第1学習データに含まれる前記学習用画像ごとに、各学習用画像に対応する前記確率が最も大きい種類候補を各学習用画像の類別結果として特定する、
ことを特徴とする類別装置。
【0181】
(付記14)
動画像を取得し、
画像に含まれる対象物の種類を学習した第1学習モデルを用いることによって、前記動画像を構成する複数の画像のそれぞれに含まれる対象物の種類についての類別結果を取得し、
前記第1学習モデルにおける前記類別結果の精度を学習した第2学習モデルを用いることによって、前記複数の画像のそれぞれについての前記類別結果の正解精度を取得し、
前記複数の画像ごとに、各画像に対応する前記正解精度に基づいて補正した前記類別結果を出力する、
処理をコンピュータに実行させることを特徴とする類別方法。
【0182】
(付記15)
付記14において、さらに、
前記類別結果を取得する処理の前に、対象物を含む学習用画像と前記学習用画像に含まれる前記対象物の種類を示す情報とをそれぞれ含む複数の第1学習データの学習を行うことにより、前記第1学習モデルを生成する、
処理をコンピュータに実行させることを特徴とする類別方法。
【0183】
(付記16)
付記15において、さらに、
前記正解精度を取得する処理の前に、前記第1学習モデルを用いることによって、前記学習用画像についての類別結果である学習用類別結果を前記複数の第1学習データに含まれる前記学習用画像ごとに取得し、
前記学習用画像と前記学習用画像に対応する前記学習用類別結果が正解を示しているか否かを示す正誤情報とをそれぞれ含む複数の第2学習データの学習を行うことにより、前記第2学習モデルを生成する、
処理をコンピュータに実行させることを特徴とする類別方法。
【0184】
(付記17)
付記16において、
前記学習用類別結果を取得する処理では、
前記第1学習モデルを用いることによって、前記複数の第1学習データに含まれる前記学習用画像ごとに、各学習用画像に含まれる対象物の種類が複数の種類候補に含まれる各種類候補である確率をそれぞれ取得し、
前記複数の第1学習データに含まれる前記学習用画像ごとに、各学習用画像に対応する前記確率が最も大きい種類候補を各学習用画像の類別結果として特定する、
ことを特徴とする類別方法。
【符号の説明】
【0185】
1:情報処理装置 3:操作端末
10:情報処理システム NW:ネットワーク