(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-03-19
(45)【発行日】2024-03-28
(54)【発明の名称】追加撮影要否通知装置、追加撮影要否通知方法及びプログラム
(51)【国際特許分類】
G06T 7/00 20170101AFI20240321BHJP
G06N 20/10 20190101ALI20240321BHJP
【FI】
G06T7/00 350B
G06N20/10
(21)【出願番号】P 2022533012
(86)(22)【出願日】2020-07-03
(86)【国際出願番号】 JP2020026263
(87)【国際公開番号】W WO2022003974
(87)【国際公開日】2022-01-06
【審査請求日】2022-12-12
(73)【特許権者】
【識別番号】310021766
【氏名又は名称】株式会社ソニー・インタラクティブエンタテインメント
(74)【代理人】
【識別番号】110000154
【氏名又は名称】弁理士法人はるか国際特許事務所
(72)【発明者】
【氏名】佐藤 祥悟
(72)【発明者】
【氏名】勢川 博之
【審査官】秦野 孝一郎
(56)【参考文献】
【文献】特開2019-079167(JP,A)
【文献】特開2005-208850(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
G06T 7/00-7/90
G06N 20/10
(57)【特許請求の範囲】
【請求項1】
撮影部が所与のサンプルを撮影したサンプル画像を繰り返し取得するサンプル画像取得部と、
前記サンプル画像に基づいて、当該サンプル画像に対応する特徴量データを生成する特徴量データ生成部と、
互いに異なる前記サンプル画像に基づいてそれぞれ生成される複数の前記特徴量データのそれぞれを、訓練データ、又は、評価データのいずれかに分類する分類部と、
複数の前記訓練データを用いて、識別器の学習を実行する学習部と、
前記複数の前記訓練データを用いた前記学習が実行済である前記識別器と、複数の前記評価データと、を用いて、前記サンプルの追加撮影の要否を判定する撮影要否判定部と、
前記要否の判定結果を通知する通知部と、
を含むことを特徴とする追加撮影要否通知装置。
【請求項2】
前記撮影要否判定部は、予め定められた前記サンプルに対する複数の撮影姿勢範囲のそれぞれについて、当該撮影姿勢範囲において撮影された前記サンプル画像に対応する前記評価データを用いて、当該撮影姿勢範囲における前記サンプルの追加撮影の要否を判定し、
前記通知部は、前記複数の前記撮影姿勢範囲における前記要否の判定結果を通知する、
ことを特徴とする請求項1に記載の追加撮影要否通知装置。
【請求項3】
前記特徴量データ生成部は、前記サンプルの追加撮影が必要であると判定される前記撮影姿勢範囲において追加で撮影される前記サンプル画像に基づいて、当該サンプル画像に対応する特徴量データである追加の訓練データを生成し、
前記学習部は、前記追加の訓練データを用いた学習を実行することで、前記識別器を更新する、
ことを特徴とする請求項2に記載の追加撮影要否通知装置。
【請求項4】
前記サンプルの追加撮影が不要であると判定されるまで、前記特徴量データ生成部による前記追加の訓練データの生成、前記学習部による前記識別器の更新、及び、前記撮影要否判定部による前記サンプルの追加撮影の要否の判定、を繰り返す、
ことを特徴とする請求項3に記載の追加撮影要否通知装置。
【請求項5】
前記複数の前記撮影姿勢範囲のそれぞれにおける前記要否の判定結果が表現された仮想オブジェクトが配置された仮想空間を生成する仮想空間生成部と、
前記サンプル画像と、当該サンプル画像の撮影位置に対応する前記仮想空間内の位置から当該サンプル画像の撮影方向に対応する前記仮想空間における方向を見た様子を表す画像と、が重畳されたAR画像を生成するAR画像生成部と、をさらに含み、
前記通知部は、前記AR画像を画面に表示させる、
ことを特徴とする請求項2から4のいずれか一項に記載の追加撮影要否通知装置。
【請求項6】
撮影部が所与のサンプルを撮影したサンプル画像を繰り返し取得するステップと、
前記サンプル画像に基づいて、当該サンプル画像に対応する特徴量データを生成するステップと、
互いに異なる前記サンプル画像に基づいてそれぞれ生成される複数の前記特徴量データのそれぞれを、訓練データ、又は、評価データのいずれかに分類するステップと、
複数の前記訓練データを用いて、識別器の学習を実行するステップと、
前記複数の前記訓練データを用いた前記学習が実行済である前記識別器と、複数の前記評価データと、を用いて、前記サンプルの追加撮影の要否を判定するステップと、
前記要否の判定結果を通知するステップと、
を含むことを特徴とする追加撮影要否通知方法。
【請求項7】
撮影部が所与のサンプルを撮影したサンプル画像を繰り返し取得する手順、
前記サンプル画像に基づいて、当該サンプル画像に対応する特徴量データを生成する手順、
互いに異なる前記サンプル画像に基づいてそれぞれ生成される複数の前記特徴量データのそれぞれを、訓練データ、又は、評価データのいずれかに分類する手順、
複数の前記訓練データを用いて、識別器の学習を実行する手順、
前記複数の前記訓練データを用いた前記学習が実行済である前記識別器と、複数の前記評価データと、を用いて、前記サンプルの追加撮影の要否を判定する手順、
前記要否の判定結果を通知する手順、
をコンピュータに実行させることを特徴とするプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、追加撮影要否通知装置、追加撮影要否通知方法及びプログラムに関する。
【背景技術】
【0002】
識別精度の高い識別器を生成するには、正例や負例として用いられる充分な数の訓練データを収集して、これらの訓練データを識別器に学習させる必要がある。そこで識別器の学習に用いられる訓練データを収集するために、所与のサンプルを様々な姿勢から撮影した複数のサンプル画像のそれぞれに基づいて、訓練データを生成することが行われている。
【発明の概要】
【発明が解決しようとする課題】
【0003】
しかし従来技術では、訓練データを生成するためのサンプルの撮影を行う際に、識別器の識別精度を確保するのに充分な撮影が行われたかどうかについてユーザに通知されなかった。そのため従来技術では、ユーザは撮影を終了してよいのか判断することができず、その結果、訓練データの収集効率が悪くなっていた。
【0004】
本発明は上記実情に鑑みてなされたものであって、その目的の一つは、訓練データの収集効率を高めることができる追加撮影要否通知装置、追加撮影要否通知方法及びプログラムを提供することにある。
【課題を解決するための手段】
【0005】
上記課題を解決するために、本発明に係る追加撮影要否通知装置は、撮影部が所与のサンプルを撮影したサンプル画像を繰り返し取得するサンプル画像取得部と、前記サンプル画像に基づいて、当該サンプル画像に対応する特徴量データを生成する特徴量データ生成部と、複数の前記特徴量データのそれぞれを、訓練データ、又は、評価データのいずれかに分類する分類部と、複数の前記訓練データを用いて、識別器の学習を実行する学習部と、前記複数の前記訓練データを用いた前記学習が実行済である前記識別器と、複数の前記評価データと、を用いて、前記サンプルの追加撮影の要否を判定する撮影要否判定部と、前記要否の判定結果を通知する通知部と、を含む。
【0006】
本発明の一態様では、前記撮影要否判定部は、予め定められた前記サンプルに対する複数の撮影姿勢範囲のそれぞれについて、当該撮影姿勢範囲において撮影された前記サンプル画像に対応する前記評価データを用いて、当該撮影姿勢範囲における前記サンプルの追加撮影の要否を判定し、前記通知部は、前記複数の前記撮影姿勢範囲における前記要否の判定結果を通知する。
【0007】
この態様では、前記特徴量データ生成部は、前記サンプルの追加撮影が必要であると判定される前記撮影姿勢範囲において追加で撮影される前記サンプル画像に基づいて、当該サンプル画像に対応する特徴量データである追加の訓練データを生成し、前記学習部は、前記追加の訓練データを用いた学習を実行することで、前記識別器を更新してもよい。
【0008】
さらに、前記追加撮影要否通知装置は、前記サンプルの追加撮影が不要であると判定されるまで、前記特徴量データ生成部による前記追加の訓練データの生成、前記学習部による前記識別器の更新、及び、前記撮影要否判定部による前記サンプルの追加撮影の要否の判定、を繰り返してもよい。
【0009】
また、前記複数の前記撮影姿勢範囲のそれぞれにおける前記要否の判定結果が表現された仮想オブジェクトが配置された仮想空間を生成する仮想空間生成部と、前記サンプル画像と、当該サンプル画像の撮影位置に対応する前記仮想空間内の位置から当該サンプル画像の撮影方向に対応する前記仮想空間における方向を見た様子を表す画像と、が重畳されたAR画像を生成するAR画像生成部と、をさらに含み、前記通知部は、前記AR画像を画面に表示させてもよい。
【0010】
また、本発明に係る追加撮影要否通知方法は、撮影部が所与のサンプルを撮影したサンプル画像を繰り返し取得するステップと、前記サンプル画像に基づいて、当該サンプル画像に対応する特徴量データを生成するステップと、複数の前記特徴量データのそれぞれを、訓練データ、又は、評価データのいずれかに分類するステップと、複数の前記訓練データを用いて、識別器の学習を実行するステップと、前記複数の前記訓練データを用いた前記学習が実行済である前記識別器と、複数の前記評価データと、を用いて、前記サンプルの追加撮影の要否を判定するステップと、前記要否の判定結果を通知するステップと、を含む。
【0011】
また、本発明に係るプログラムは、撮影部が所与のサンプルを撮影したサンプル画像を繰り返し取得する手順、前記サンプル画像に基づいて、当該サンプル画像に対応する特徴量データを生成する手順、複数の前記特徴量データのそれぞれを、訓練データ、又は、評価データのいずれかに分類する手順、複数の前記訓練データを用いて、識別器の学習を実行する手順、前記複数の前記訓練データを用いた前記学習が実行済である前記識別器と、複数の前記評価データと、を用いて、前記サンプルの追加撮影の要否を判定する手順、前記要否の判定結果を通知する手順、をコンピュータに実行させる。
【図面の簡単な説明】
【0012】
【
図1】本発明の一実施形態に係る情報処理装置の構成の一例を示す図である。
【
図2】本発明の一実施形態における識別器の学習の一例を示す図である。
【
図3】本発明の一実施形態における学習済の識別器を用いた識別の一例を示す図である。
【
図4A】本発明の一実施形態に係る情報処理装置で実装される機能の一例を示す機能ブロック図である。
【
図4B】本発明の一実施形態に係る情報処理装置で実装される機能の一例を示す機能ブロック図である。
【
図4C】本発明の一実施形態に係る情報処理装置で実装される機能の一例を示す機能ブロック図である。
【
図12A】本発明の一実施形態に係る情報処理装置において行われる処理の流れの一例を示すフロー図である。
【
図12B】本発明の一実施形態に係る情報処理装置において行われる処理の流れの一例を示すフロー図である。
【
図12C】本発明の一実施形態に係る情報処理装置において行われる処理の流れの一例を示すフロー図である。
【
図12D】本発明の一実施形態に係る情報処理装置において行われる処理の流れの一例を示すフロー図である。
【
図12E】本発明の一実施形態に係る情報処理装置において行われる処理の流れの一例を示すフロー図である。
【
図12F】本発明の一実施形態に係る情報処理装置において行われる処理の流れの一例を示すフロー図である。
【発明を実施するための形態】
【0013】
以下、本発明の一実施形態について図面に基づき詳細に説明する。
【0014】
図1は、本発明の一実施形態に係る情報処理装置10の構成の一例を示す図である。本実施形態に係る情報処理装置10は、例えば、ゲームコンソールやパーソナルコンピュータなどのコンピュータである。
図1に示すように、本実施形態に係る情報処理装置10は、例えば、プロセッサ12、記憶部14、操作部16、表示部18、撮影部20を含んでいる。
【0015】
プロセッサ12は、例えば情報処理装置10にインストールされるプログラムに従って動作するCPU等のプログラム制御デバイスである。
【0016】
記憶部14は、ROMやRAM等の記憶素子やソリッドステートドライブなどである。記憶部14には、プロセッサ12によって実行されるプログラムなどが記憶される。
【0017】
操作部16は、キーボード、マウス、ゲームコンソールのコントローラ等のユーザインタフェースであって、ユーザの操作入力を受け付けて、その内容を示す信号をプロセッサ12に出力する。
【0018】
表示部18は、液晶ディスプレイ等の表示デバイスであって、プロセッサ12の指示に従って各種の画像を表示する。
【0019】
撮影部20は、デジタルカメラ等の撮影デバイスである。本実施形態に係る撮影部20は、動画像の撮影が可能なビデオカメラであることとする。
【0020】
なお、情報処理装置10は、マイクやスピーカなどといった音声入出力デバイスを含んでいてもよい。また、情報処理装置10は、ネットワークボードなどの通信インタフェース、DVD-ROMやBlu-ray(登録商標)ディスクなどの光ディスクを読み取る光ディスクドライブ、USB(Universal Serial Bus)ポートなどを含んでいてもよい。
【0021】
本実施形態では、
図2に示すように、複数の正例訓練データを正例とし複数の負例訓練データを負例として学習させた、SVM(Support Vector Machine)などの識別器30(学習済の識別器30)が生成される。複数の正例訓練データのそれぞれは、例えば、識別器30における正クラスに属するオブジェクトが写るサンプル画像(以下、正例サンプル画像と呼ぶ。)に基づいて生成される。また、複数の負例訓練データのそれぞれは、例えば、識別器30における負クラスに属するオブジェクトが写るサンプル画像(以下、負例サンプル画像と呼ぶ。)に基づいて生成される。
【0022】
そして、
図3に示すように、学習済の識別器30は、入力画像に対応する特徴量を示す入力特徴量データの入力に応じて、当該入力画像に写るオブジェクトが識別器30における正クラスに属するものである確率を示す識別スコアを出力する。
【0023】
本実施形態に係る情報処理装置10には、例えば、予め学習済であるRPN(Regional Proposal Network)が記憶されている。そして本実施形態では、当該RPNを用いて、サンプル画像から、何らかの物体が写っていると推定される領域が抽出される。この処理によって、計算の無駄を低減でき、環境に対してもある程度のロバストネスが確保できる。
【0024】
そして、抽出された領域の画像に対して、例えば、背景の除去処理(マスク処理)などといった正規化処理が実行される。この処理によって、背景や照明条件によるドメインギャップを縮小させることができ、その結果、限られた環境下で収集されたデータだけからでも識別器30の学習を完了させることが可能になる。
【0025】
また、本実施形態に係る情報処理装置10には、予めメトリック学習が実行済であるCNN(Convolutional Neural Network)が記憶されている。このCNNは、画像の入力に応じて、当該画像に対応する特徴量を示す特徴量データを出力する。このCNNは、事前のメトリック学習によって、正クラスに属するオブジェクトが写る画像については互いに近い特徴量を示す特徴量データを出力するようチューニングされている。本実施形態に係る特徴量データが示す特徴量は、例えば、ノルムが1となるよう正規化されたベクトル量である。
【0026】
本実施形態では、このCNNを用いて、正規化処理が実行された画像に対応する特徴量を示す特徴量データの生成が行われる。予めメトリック学習が実行済であるCNNを用いることで、1つのクラスに属するサンプルの特徴量が、条件に依らずコンパクトな領域に集約されることとなる。その結果、本実施形態に係る情報処理装置10は、識別器30における妥当な識別境界を少数のサンプルからでも決定できるようになっている。
【0027】
本実施形態では、正例サンプル画像からRPNによって抽出された領域の画像に対して正規化処理を実行した画像を、メトリック学習が実行済であるCNNに入力することで、当該正例サンプル画像に対応する特徴量を示す特徴量データが生成される。このようにして正例サンプル画像から生成される特徴量データが、
図2に示す正例訓練データに相当する。
【0028】
また、本実施形態では、負例サンプル画像からRPNによって抽出された領域の画像に対して正規化処理を実行した画像を、メトリック学習が実行済であるCNNに入力することで、当該負例サンプル画像に対応する特徴量を示す特徴量データが生成される。このようにして負例サンプル画像から生成される特徴量データが、
図2に示す負例訓練データに相当する。
【0029】
本実施形態では、写っているオブジェクトの推定対象となる入力画像についても、同様にして、上述した領域の抽出、正規化処理、及び、メトリック学習が実行済であるCNNを用いた特徴量データの生成によって、入力画像に対応する入力特徴量データが生成される。そして、このようにして生成された入力特徴量データを学習済の識別器30に入力することで、学習済の識別器30は、当該入力画像に写るオブジェクトが正クラスに属するものである確率を示す識別スコアを出力する。
【0030】
識別精度の高い識別器30を生成するには、正例や負例として用いられる充分な数の訓練データを収集して、これらの訓練データを識別器30に学習させる必要がある。そこで識別器30の学習に用いられる訓練データを収集するために、所与のサンプルを様々な姿勢から撮影することで、複数のサンプル画像を生成し、これらのサンプル画像のそれぞれに基づいて、訓練データを生成することが行われている。
【0031】
本実施形態では、以下のようにして、識別器30の識別精度を確保するのに充分なサンプルの撮影が行われたかどうかについてユーザに通知されるようにすることで、訓練データの収集効率を高めることができるようにした。
【0032】
以下、本実施形態に係る情報処理装置10で実装されている機能、及び、本実施形態に係る情報処理装置10で実行される処理について、説明する。
【0033】
図4A、
図4B、及び、
図4Cは、本実施形態に係る情報処理装置10で実装される機能の一例を示す機能ブロック図である。なお、本実施形態に係る情報処理装置10で、
図4A、
図4B、及び、
図4Cに示す機能のすべてが実装される必要はなく、また、
図4A、
図4B、及び、
図4Cに示す機能以外の機能が実装されていても構わない。
【0034】
図4Aに示すように、本実施形態に係る情報処理装置10には、機能的には例えば、識別器30、データ記憶部32、正例訓練データ生成部34、負例訓練データ生成部36、学習部38、入力画像取得部40、入力特徴量データ生成部42、推定部44、が含まれる。
【0035】
そして、データ記憶部32には、正例訓練データ記憶部50、負例訓練データ記憶部52、正例評価データ記憶部54、負例評価データ記憶部56が、含まれる。
【0036】
図4Bには、
図4Aに示す正例訓練データ生成部34で実装されている機能の詳細が示されている。
図4Bに示すように、正例訓練データ生成部34には、機能的には例えば、評価識別器60、サンプル画像取得部62、特徴量抽出部64、評価学習部66、撮影要否判定部68、仮想空間管理部70、通知部72、が含まれる。
【0037】
図4Cには、データ記憶部32に含まれる各要素と、
図4Bに示されている特徴量抽出部64、評価学習部66、及び、撮影要否判定部68との関係が示されている。
【0038】
正例訓練データ記憶部50、負例訓練データ記憶部52、正例評価データ記憶部54、負例評価データ記憶部56は、記憶部14を主として実装される。識別器30、評価識別器60、仮想空間管理部70は、プロセッサ12、及び、記憶部14を主として実装される。入力画像取得部40、サンプル画像取得部62は、プロセッサ12、及び、撮影部20を主として実装される。負例訓練データ生成部36、学習部38、入力特徴量データ生成部42、推定部44、特徴量抽出部64、評価学習部66、撮影要否判定部68は、プロセッサ12を主として実装される。通知部72は、プロセッサ12、及び、表示部18を主として実装される。
【0039】
識別器30は、本実施形態では、例えば、
図2及び
図3を参照して説明したような、入力画像に写るオブジェクトが正クラスに属するものであるか否かを識別するSVM(Support Vector Machine)などの機械学習モデルである。
【0040】
正例訓練データ生成部34は、本実施形態では例えば、識別器30に正例として学習させる上述の正例訓練データを生成する。
【0041】
正例訓練データ生成部34は、例えば、撮影部20によって撮影される複数の正例サンプル画像のそれぞれについて、当該正例サンプル画像に対応する特徴量を示す特徴量データである正例特徴量データを生成する。これらの正例サンプル画像のそれぞれには、識別器30における正クラスに属するオブジェクトが写っている。ここで、上述した領域の抽出、正規化処理、及び、メトリック学習が実行済であるCNNを用いた特徴量データの生成が実行されることで、正例サンプル画像に対応する正例特徴量データが生成されてもよい。
【0042】
そして、正例訓練データ生成部34は、これらの正例特徴量データのうちの一部を正例訓練データとして正例訓練データ記憶部50に記憶させる。また、正例訓練データ生成部34は、これらの正例特徴量データのうちの残りを正例評価データとして正例評価データ記憶部54に記憶させる。ここで例えば、これらの正例特徴量データのうちの半分が正例訓練データとして正例訓練データ記憶部50に記憶され、残りが正例評価データとして正例評価データ記憶部54に記憶されるようにしてもよい。
【0043】
負例訓練データ生成部36は、本実施形態では例えば、識別器30に負例として学習させる上述の負例訓練データを生成する。
【0044】
本実施形態では例えば、撮影部20によって撮影された画像やWebから収集された画像である、負例サンプル画像が予め情報処理装置10に蓄積されている。これらの負例サンプル画像のそれぞれには、識別器30における負クラスに属するオブジェクトが写っている。そして、負例訓練データ生成部36は、これらの負例サンプル画像のそれぞれについて、当該負例サンプル画像に対応する特徴量を示す特徴量データである負例特徴量データを生成する。ここで、上述した領域の抽出、正規化処理、及び、メトリック学習が実行済であるCNNを用いた特徴量データの生成が実行されることで、負例サンプル画像に対応する負例特徴量データが生成されてもよい。
【0045】
そして、負例訓練データ生成部36は、これらの負例特徴量データのうちの一部を負例訓練データとして負例訓練データ記憶部52に記憶させる。また、負例訓練データ生成部36は、これらの負例特徴量データのうちの残りを負例評価データとして負例評価データ記憶部56に記憶させる。ここで例えば、これらの負例特徴量データのうちの半分が負例訓練データとして負例訓練データ記憶部52に記憶され、残りが負例評価データとして負例評価データ記憶部56に記憶されるようにしてもよい。
【0046】
学習部38は、本実施形態では例えば、正例訓練データ記憶部50に記憶されている正例訓練データを正例とし、負例訓練データ記憶部52に記憶されている負例訓練データを負例として学習させた識別器30(学習済の識別器30)を生成する。
【0047】
入力画像取得部40は、本実施形態では例えば、撮影部20によって撮影された、写っているオブジェクトの推定対象となる入力画像を取得する。
【0048】
入力特徴量データ生成部42は、本実施形態では例えば、上述のようにして、入力画像に対応する特徴量を示す入力特徴量データを生成する。
【0049】
推定部44は、本実施形態では例えば、入力特徴量データを識別器30に入力することで、入力画像に写るオブジェクトが識別器30における正クラスに属するものであるか否かを推定する。ここで推定部44は、例えば、入力特徴量データの入力に応じて識別器30から出力される識別スコアの値を特定してもよい。
【0050】
本実施形態では例えば、入力画像の撮影及び取得、入力特徴量データの生成、及び、入力画像に写るオブジェクトが正クラスに属するものであるか否かの推定が、所定のフレームレートで繰り返し実行される。このようにして、本実施形態では、フレームごとに、当該フレームで撮影された入力画像に写るオブジェクトが正クラスに属するものであるか否かが推定される。そのため、本実施形態によれば、高速な物体検出が実現可能となっている。また、本実施形態によれば、ユーザが用意した少量のデータによる識別器30の学習が可能となっており、従来技術のように識別器30の学習のために大量のラベル付きデータを用意する必要はない。
【0051】
以下、正例訓練データ生成部34の機能についてさらに説明する。上述のように、正例訓練データ生成部34には、機能的には例えば、評価識別器60、サンプル画像取得部62、特徴量抽出部64、評価学習部66、撮影要否判定部68、仮想空間管理部70、通知部72、が含まれる。
【0052】
評価識別器60は、本実施形態では例えば、識別器30の識別精度を確保するのに充分な撮影が行われたかどうか否かの判別に用いられるSVMなどの機械学習モデルである。
【0053】
サンプル画像取得部62は、本実施形態では例えば、
図5に例示されているサンプル画像を繰り返し取得する。
図5に示すように、サンプル画像は、ARマーカ80が印刷された紙の上に配置されたサンプル82を撮影部20が撮影した画像である。本実施形態では、ユーザは撮影部20を動かしながら様々な角度からサンプル82を撮影した動画像を撮影する。サンプル画像取得部62は、このようにして撮影された動画像に含まれるフレーム画像を取得する。このような動画像の撮影の際には、ARマーカ80に対するサンプル82の位置及び向きは固定されていることとする。サンプル82が、識別器30における正クラスに属するオブジェクトに相当する場合、このようにして取得されるサンプル画像は、上述の正例サンプル画像であることとなる。
【0054】
特徴量抽出部64は、本実施形態では例えば、サンプル画像に基づいて、当該サンプル画像に対応する特徴量を示す特徴量データを生成する。ここでサンプル画像に対して、上述した領域の抽出、正規化処理、及び、メトリック学習が実行済であるCNNを用いた特徴量データの生成が実行されることで、サンプル画像に対応する特徴量データが生成されてもよい。
【0055】
また、特徴量抽出部64は、本実施形態では例えば、生成される複数の特徴量データのそれぞれを、訓練データ、又は、評価データのいずれかに分類する。
【0056】
上述のように、正例サンプル画像の取得が行われる場合には、特徴量抽出部64は、例えば、当該正例サンプル画像に対応する特徴量を示す正例特徴量データを生成する。そして、特徴量抽出部64は、生成される複数の正例特徴量データのそれぞれを、正例訓練データ、又は、正例評価データのいずれかに分類する。
【0057】
また、本実施形態では、特徴量抽出部64は、サンプル画像に対応する特徴量を示す正例評価データに、当該サンプル画像を撮影した際の撮影部20の位置及び撮影方向に応じたカメラデータを関連付ける。なお本実施形態において、正例訓練データについてはカメラデータに関連付けられてもよいし関連付けられなくてもよい。
【0058】
そして、特徴量抽出部64は、正例訓練データを正例訓練データ記憶部50に記憶させ、正例評価データを正例評価データ記憶部54に記憶させる。
【0059】
評価学習部66は、本実施形態では例えば、複数の訓練データを用いて、評価識別器60の学習を実行する。ここでは例えば、評価学習部66は、正例訓練データ記憶部50に記憶されている複数の正例訓練データを正例とし負例訓練データ記憶部52に記憶されている複数の負例訓練データを負例として学習させた評価識別器60(学習済の評価識別器60)を生成する。
【0060】
撮影要否判定部68は、本実施形態では例えば、評価学習部66による学習が実行済である評価識別器60と、複数の評価データと、を用いて、サンプル82の追加撮影の要否を判定する。ここで撮影要否判定部68が、評価学習部66による学習が実行済である評価識別器60と、複数の評価データと、を用いて、評価識別器60の識別精度を判定してもよい。そして、撮影要否判定部68は、判定される識別精度に基づいて、サンプル82の追加撮影の要否を判定してもよい。
【0061】
撮影要否判定部68は、例えば、学習済の評価識別器60と、正例評価データ記憶部54に記憶されている複数の正例評価データと、負例評価データ記憶部56に記憶されている複数の負例評価データと、を用いて、サンプル82の追加撮影の要否を判定する。
【0062】
仮想空間管理部70は、本実施形態では例えば、予め定められたサンプル82に対する複数の撮影姿勢範囲のそれぞれにおける追加撮影の要否の判定結果が表現された仮想オブジェクト84が配置された、
図6に例示する仮想空間86を生成する。
図6に示すように、本実施形態に係る仮想オブジェクト84は半球面形状であり、仮想オブジェクト84には、それぞれ仮想オブジェクト84を分割した領域に相当する複数の撮影姿勢範囲オブジェクト88が含まれている。撮影姿勢範囲オブジェクト88は、サンプル82に対する撮影姿勢範囲に対応付けられる。
【0063】
また、本実施形態では、仮想空間管理部70は、サンプル画像の撮影位置に対応する仮想空間86内の位置P1、及び、サンプル画像の撮影方向に対応する仮想空間86における方向D1を特定する。
【0064】
本実施形態では、仮想空間86内の位置とARマーカ80の位置を基準にした実空間内における位置とは予め1対1で対応付けられており、仮想空間86における方向とARマーカ80の方向を基準にした実空間内における方向とは予め1対1で対応付けられている。そして、本実施形態では、サンプル画像に写るARマーカ80の形状及び大きさに基づいて、当該サンプル画像の撮影位置に対応する仮想空間86内の位置P1と当該サンプル画像の撮影方向に対応する仮想空間86における方向D1を特定できるようになっている。
【0065】
なお、特徴量抽出部64によって正例評価データに関連付けられる上述のカメラデータは、例えば、仮想空間86内の位置P1及び仮想空間86における方向D1を示すものであってもよい。また、カメラデータは、例えば、位置P1を通る方向D1に沿った線と交差する撮影姿勢範囲オブジェクト88である着目範囲オブジェクト88aの識別子(例えば、後述の領域ID)であってもよい。
図6では、着目範囲オブジェクト88aは、ドットで表現されている。
【0066】
そして、仮想空間管理部70は、例えば、サンプル画像と、当該サンプル画像の撮影位置に対応する仮想空間86内の位置から当該サンプル画像の撮影方向に対応する仮想空間86における方向を見た様子を表す画像と、が重畳されたAR画像を生成する。
【0067】
例えば、
図5に示すサンプル画像の撮影位置、及び、撮影方向が、それぞれ、
図6に示す位置P1、及び、方向D1に対応付けられることとする。この場合、仮想空間86内の位置P1から方向D1を見た様子を表す画像と、
図5に示すサンプル画像と、が重畳された、
図7に例示するAR画像が生成される。
【0068】
通知部72は、本実施形態では例えば、例えば表示や音声出力などによって、サンプル82の追加撮影の要否の判定結果を通知する。また、通知部72は、本実施形態では例えば、仮想空間管理部70によって生成されるAR画像を表示部18に表示させる。
【0069】
本実施形態では例えば、仮想空間管理部70は、初期状態において、すべての撮影姿勢範囲オブジェクト88の色が不透明の所定色(例えば水色)である仮想オブジェクト84が配置された仮想空間86を生成する。なお、撮影姿勢範囲オブジェクト88は不透明でなく半透明であってもよい。
図7には、初期状態において表示されるAR画像の一例が示されている。
【0070】
そして、仮想空間管理部70は、所定数以上の正例サンプル画像の取得が行われた撮影姿勢範囲に対応する、不透明あるいは半透明の所定色である撮影姿勢範囲オブジェクト88を、透明に更新する。
図8には、領域R1を占める10個の撮影姿勢範囲オブジェクト88が不透明から透明に更新された際に表示されるAR画像の一例が示されている。
【0071】
そして、すべての撮影姿勢範囲について所定数以上の正例サンプル画像の取得が行われたら、すべての撮影姿勢範囲オブジェクト88が透明に設定される。
図9には、すべての撮影姿勢範囲オブジェクト88が透明に設定された際に表示されるAR画像の一例が示されている。すべての撮影姿勢範囲オブジェクト88が透明に設定されると、撮影要否判定部68が、複数の撮影姿勢範囲のそれぞれについて、当該撮影姿勢範囲におけるサンプル82の追加撮影の要否を判定する。
【0072】
ここで、すべての撮影姿勢範囲についてサンプル82の追加撮影が不要であると判定されたとする。この場合は、通知部72は、例えば表示や音声出力などによって、識別器30の識別精度を確保するのに充分なサンプル82の撮影が行われたことをユーザに通知する。
【0073】
一方、サンプル82の追加撮影が必要であると判定された1又は複数の撮影姿勢範囲が存在したとする。この場合は、仮想空間管理部70は、当該1又は複数の撮影姿勢範囲のそれぞれに対応する撮影姿勢範囲オブジェクト88の色を不透明あるいは半透明の所定色(例えば赤色)に更新する。そして、仮想空間管理部70は、更新後の撮影姿勢範囲オブジェクト88が配置された仮想空間86を見た様子を表す画像と、撮影部20が撮影するサンプル画像と、が重畳されたAR画像を生成する。そして、通知部72が、当該AR画像を表示させる。
図10には、領域R2を占める4個の撮影姿勢範囲オブジェクト88が赤色に更新された際に表示されるAR画像の一例が示されている。
図10では、赤色に更新された4個の撮影姿勢範囲オブジェクト88が、ドットで表現されている。
【0074】
例えばこのようにして、本実施形態に係る通知部72は、追加撮影が必要な撮影姿勢範囲をユーザに通知する。
【0075】
そして、本実施形態では、特徴量抽出部64は、サンプル82の追加撮影が必要であると判定される撮影姿勢範囲において追加で撮影されるサンプル画像に基づいて、当該サンプル画像に対応する正例特徴量データである追加の正例訓練データを生成する。
【0076】
そして、評価学習部66は、追加の正例訓練データを用いた学習を実行することで、評価識別器60を更新する。
【0077】
本実施形態に係る情報処理装置10は、サンプル82の追加撮影が不要であると判定されるまで、特徴量抽出部64による追加の正例訓練データの生成、評価学習部66による評価識別器60の更新、及び、撮影要否判定部68によるサンプル82の追加撮影の要否の判定、を繰り返す。
【0078】
図11は、本実施形態に係る仮想空間管理部70に保持される領域管理データの一例を示す図である。領域管理データは、撮影姿勢範囲オブジェクト88に対応付けられるデータである。
図11に示すように、領域管理データには、例えば、領域ID、サンプル数データ、追加撮影要否データが含まれる。
【0079】
領域管理データに含まれる領域IDは、例えば、当該領域管理データに対応付けられる撮影姿勢範囲オブジェクト88の識別子である。領域管理データに含まれるサンプル数データは、例えば、当該領域管理データに対応付けられる撮影姿勢範囲において取得された正例サンプル画像の数を示すデータである。領域管理データに含まれる追加撮影要否データは、例えば、当該領域管理データに対応付けられる撮影姿勢範囲におけるサンプル82の追加撮影が必要であると判定されたか否かを示すデータである。本実施形態では例えば、追加撮影要否データの初期値は0である。そして本実施形態では例えば、サンプル82の追加撮影が必要であると判定された撮影姿勢範囲に対応付けられる領域管理データの追加撮影要否データの値には1が設定される。
【0080】
本実施形態において、仮想空間管理部70が、領域管理データに基づいて、複数の撮影姿勢範囲オブジェクト88のそれぞれの色を決定してもよい。
【0081】
ここで、本実施形態に係る情報処理装置10において実行される、サンプル82の撮影が開始されてから充分なサンプル82の撮影が行われたことがユーザに通知されるまでの処理の流れの一例を、
図12A~
図12Fに例示するフロー図を参照しながら説明する。なお、以下に示す処理例では、ユーザは撮影部20を動かしながら様々な角度からサンプル82を撮影した動画像を撮影することとする。そして、撮影部20は、サンプル82を撮影したフレーム画像を所定のフレームレートで生成することとする。また、予め、負例訓練データ記憶部52に複数の負例訓練データが記憶されており、負例評価データ記憶部56に複数の負例評価データが記憶されていることとする。
【0082】
まず、サンプル画像取得部62が、撮影部20によってサンプル82が撮影された画像である、仮想空間86の初期設定に用いられる基準画像を取得する(S101)。
【0083】
すると、仮想空間管理部70が、すべての撮影姿勢範囲オブジェクト88の色が不透明あるいは半透明の所定色(例えば水色)に設定された仮想オブジェクト84が配置された仮想空間86を生成する(S102)。本処理例における撮影姿勢範囲オブジェクト88は、仮想オブジェクト84の半球面を所定の規則に従ってN個に分割した領域のそれぞれに対応付けられるオブジェクトであることとする。
【0084】
そして、仮想空間管理部70が、S101に示す処理で取得された基準画像に基づいて、サンプル82の撮影位置に対応する位置P1及びサンプル82の撮影方向に対応する方向D1を特定し、位置P1及び方向D1を仮想空間86に設定する(S103)。ここでは例えば、基準画像に写るARマーカ80の形状及び大きさに基づいて、位置P1及び方向D1が特定される。
【0085】
そして、仮想空間管理部70は、それぞれが撮影姿勢範囲オブジェクト88に対応付けられるN個の領域管理データを生成して保持する(S104)。N個の領域管理データのそれぞれの領域IDには、1~Nの値が設定される。また、N個の領域管理データのすべてについて、サンプル数データの値、及び、追加撮影要否データの値には0が設定される。
【0086】
そして、仮想空間管理部70は、S101に示す処理で取得された基準画像と、S103に示す処理で設定された位置P1から方向D1を見た仮想空間86の様子を表す画像と、が重畳されたAR画像を生成する(S105)。
【0087】
そして、通知部72が、S105に示す処理で生成されたAR画像を表示部18に表示させる(S106)。ここでは例えば、
図7に示すAR画像が表示される。
【0088】
そして、サンプル画像取得部62が、撮影部20によって新たにサンプル82が撮影された画像である正例サンプル画像を取得する(S107)。
【0089】
そして、特徴量抽出部64が、S107に示す処理で取得された正例サンプル画像に基づいて、当該正例サンプル画像に対応する特徴量を示す正例特徴量データを生成する(S108)。
【0090】
そして、仮想空間管理部70が、S107に示す処理で取得された正例サンプル画像に基づいて、サンプル82の撮影位置に対応する位置P1及びサンプル82の撮影方向に対応する方向D1を特定し、位置P1及び方向D1を仮想空間86に設定する(S109)。ここでは例えば、正例サンプル画像に写るARマーカ80の形状及び大きさに基づいて、位置P1及び方向D1が特定される。
【0091】
そして、仮想空間管理部70が、S109に示す処理で設定された位置P1を通るS109に示す処理で設定された方向D1に沿った線と交差する撮影姿勢範囲オブジェクト88である着目範囲オブジェクト88aを特定する(S110)。
【0092】
そして、仮想空間管理部70が、S110に示す処理で特定された着目範囲オブジェクト88aに対応する領域管理データのサンプル数データの値を1増加させる(S111)。
【0093】
そして、特徴量抽出部64が、S107に示す処理で取得された正例サンプル画像の撮影位置及び撮影方向に対応付けられるカメラデータを生成する(S112)。ここで例えば、S110に示す処理で特定された着目範囲オブジェクト88aに対応する領域IDを示すカメラデータや、S109に示す処理で設定された位置P1及び方向D1を示すカメラデータが生成されてもよい。
【0094】
そして、特徴量抽出部64が、S112に示す処理で生成されたカメラデータをS108に示す処理で生成された正例特徴量データに関連付ける(S113)。
【0095】
そして、特徴量抽出部64が、S107に示す処理で取得された正例サンプル画像のフレーム番号が偶数であるか否かを確認する(S114)。
【0096】
偶数である場合は(S114:Y)、特徴量抽出部64が、S113に示す処理でカメラデータが関連付けられた正例特徴量データを、正例訓練データとして正例訓練データ記憶部50に記憶させる(S115)。
【0097】
奇数である場合は(S114:N)、特徴量抽出部64が、S113に示す処理でカメラデータが関連付けられた正例特徴量データを、正例評価データとして正例評価データ記憶部54に記憶させる(S116)。
【0098】
S115又はS116に示す処理が終了すると、仮想空間管理部70が、サンプル数データの値が所定値k以上である領域管理データを特定する(S117)。
【0099】
そして、仮想空間管理部70が、S117に示す処理で特定された領域管理データに対応する撮影姿勢範囲オブジェクト88が透明になるよう仮想オブジェクト84を更新する(S118)。
【0100】
そして、仮想空間管理部70が、S107に示す処理で取得された正例サンプル画像と、S109に示す処理で設定された位置P1から方向D1を見た仮想空間86の様子を表す画像と、が重畳されたAR画像を生成する(S119)。
【0101】
そして、通知部72が、S119に示す処理で生成されたAR画像を表示部18に表示させる(S120)。
【0102】
そして、仮想空間管理部70が、N個の領域管理データのすべてについて、サンプル数データの値がk以上となったか否かを確認する(S121)。
【0103】
N個の領域管理データのすべてについて、サンプル数データの値がk以上となっていない場合は(S121:N)、S107に示す処理に戻る。
【0104】
N個の領域管理データのすべてについて、サンプル数データの値がk以上となった場合は(S121:Y)、N個の領域管理データのすべてについて、サンプル数データの値を0にリセットする(S122)。
【0105】
そして、評価学習部66が、正例訓練データ記憶部50に記憶されている複数の正例訓練データを正例とし、負例訓練データ記憶部52に記憶されている複数の負例訓練データを負例として学習させた評価識別器60を生成する(S123)。
【0106】
そして、撮影要否判定部68が、S123に示す処理によって学習済である評価識別器60を用いて、複数の撮影姿勢範囲のそれぞれについて、当該撮影姿勢範囲におけるサンプル82の追加撮影の要否を判定する(S124)。
【0107】
ここでは例えば、複数の撮影姿勢範囲のそれぞれについて、正例評価データ記憶部54に記憶されている正例評価データのうちから当該撮影姿勢範囲に対応するカメラデータに関連付けられた複数の正例評価データが特定される。
【0108】
そして、特定された複数の正例評価データのうち、当該正例評価データを学習済の評価識別器60に入力した際の出力である識別スコアの値が所定値以上であるものの数TPと所定値未満であるものの数FPが特定される。
【0109】
また、負例評価データ記憶部56に記憶されている負例評価データのうち、当該負例評価データを学習済の評価識別器60に入力した際の出力である識別スコアの値が所定値未満であるものの数TNと所定値以上であるものの数FNが特定される。
【0110】
そして、TP/(TP+FP)の値が適合率として算出され、TP/(TP+FN)の値が再現率として算出される。そして、(2×適合率×再現率)/(適合率+再現率)の値がF値として算出される。
【0111】
このようにして複数の撮影姿勢範囲のそれぞれについてF値が算出される。そして、算出されるF値が所定値以上である撮影姿勢範囲については追加撮影が不要であると判定され、そうでない撮影姿勢範囲については追加撮影が必要であると判定される。なお、本実施形態では、評価識別器60の識別精度の高さを表す性能指標の一例としてF値が用いられているが、F値以外のものが評価識別器60の識別精度の高さを表す性能指標として用いられてもよい。
【0112】
そして、撮影要否判定部68が、領域管理データの追加撮影要否データの値を更新する(S125)。S125に示す処理では、例えば、追加撮影が必要であると判定された撮影姿勢範囲に対応する領域管理データの追加撮影要否データの値に1が設定される。また、追加撮影が不要であると判定された撮影姿勢範囲に対応する領域管理データの追加撮影要否データの値に0が設定される。
【0113】
そして、仮想空間管理部70は、所定の終了条件を満足するか否かを判定する(S126)。ここでは例えば、すべての撮影姿勢範囲について以下の(1)又は(2)のいずれか条件を満足する場合は、所定の終了条件を満足すると判定される。条件(1)としては、学習済の評価識別器60の識別精度が充分である(例えば、対応する領域管理データの追加撮影要否データの値が0である)などが挙げられる。条件(2)としては、学習済の評価識別器60の性能の向上率が低い(例えば、今回算出されたF値から前回算出されたF値を引いた値が所定値未満である)などが挙げられる。
【0114】
所定の終了条件を満足すると判定された場合は(S126:Y)、例えば表示や音声出力などによって、サンプル82の撮影が終了したことをユーザに通知して(S127)、本処理例に示す処理は終了される。
【0115】
所定の終了条件を満足しないと判定された場合は(S126:N)、仮想空間管理部70が、追加撮影要否データの値が1である領域管理データに対応する撮影姿勢範囲オブジェクト88が赤色になるよう仮想オブジェクト84を更新する(S128)。
【0116】
そして、仮想空間管理部70が、最新の正例サンプル画像と、最新の位置P1から最新の方向D1を見た仮想空間86の様子を表す画像と、が重畳されたAR画像を生成する(S129)。
【0117】
そして、通知部72が、S129に示す処理で生成されたAR画像を表示部18に表示させる(S130)。
【0118】
そして、サンプル画像取得部62が、撮影部20によって新たにサンプル82が撮影された画像である正例サンプル画像を取得する(S131)。
【0119】
そして、特徴量抽出部64が、S131に示す処理で取得された正例サンプル画像に基づいて、当該正例サンプル画像に対応する特徴量を示す正例特徴量データを生成する(S132)。
【0120】
そして、仮想空間管理部70が、S131に示す処理で取得された正例サンプル画像に基づいて、サンプル82の撮影位置に対応する位置P1及びサンプル82の撮影方向に対応する方向D1を特定し、位置P1及び方向D1を仮想空間86に設定する(S133)。
【0121】
そして、仮想空間管理部70が、S133に示す処理で設定された位置P1を通るS133に示す処理で設定された方向D1に沿った線と交差する撮影姿勢範囲オブジェクト88である着目範囲オブジェクト88aを特定する(S134)。
【0122】
そして、仮想空間管理部70が、S134に示す処理で特定された着目範囲オブジェクト88aに対応する領域管理データの追加撮影要否データの値が1であるか否かを確認する(S135)。
【0123】
1である場合は(S135:Y)、仮想空間管理部70が、S134に示す処理で特定された着目範囲オブジェクト88aに対応する領域管理データのサンプル数データの値を1増加させる(S136)。
【0124】
そして、特徴量抽出部64が、S131に示す処理で取得された正例サンプル画像の撮影位置及び撮影方向に対応付けられるカメラデータを生成する(S137)。
【0125】
そして、特徴量抽出部64が、S137に示す処理で生成されたカメラデータをS132に示す処理で生成された正例特徴量データに関連付ける(S138)。
【0126】
そして、特徴量抽出部64が、S138に示す処理でカメラデータが関連付けられた正例特徴量データを、正例訓練データとして正例訓練データ記憶部50に記憶させる(S139)。
【0127】
そして、仮想空間管理部70が、S134に示す処理で特定された着目範囲オブジェクト88aに対応する領域管理データのサンプル数データの値が所定値Lに達したか否かを確認する(S140)。
【0128】
サンプル数データの値がLに達したとする(S140:Y)。この場合は、評価学習部66が、正例訓練データ記憶部50に記憶されている複数の正例訓練データを正例とし、負例訓練データ記憶部52に記憶されている複数の負例訓練データを負例として学習させた評価識別器60を生成する(S141)。そして、S124に示す処理に戻る。ここで、評価学習部66が、正例訓練データ記憶部50に追加で記憶された正例訓練データを評価識別器60に追加学習させることで、学習済の評価識別器60を更新してもよい。
【0129】
サンプル数データの値がLに達していないとする(S140:N)。この場合は、仮想空間管理部70が、最新の正例サンプル画像と、最新の位置P1から最新の方向D1を見た仮想空間86の様子を表す画像と、が重畳されたAR画像を生成する(S142)。S135に示す処理で、追加撮影要否データの値が0であることが確認された場合についても(S135:N)、仮想空間管理部70が、同様のAR画像を生成する(S142)。
【0130】
そして、通知部72が、S142に示す処理で生成されたAR画像を表示部18に表示させて(S143)、S131に示す処理に戻る。
【0131】
図12A~
図12Fに示す処理によって最終的に正例訓練データ記憶部50に記憶された正例訓練データと負例訓練データ記憶部52に記憶された負例訓練データを、学習部38は、識別器30に学習させることとなる。
【0132】
本実施形態では、訓練データを学習した評価識別器60を評価データで評価した結果に基づいて判定されるサンプル82の追加撮影の要否がユーザに通知される。そのため、本実施形態によれば、ユーザは識別器30の学習に充分な数のサンプル82が収集されたことを的確に把握することでき、その結果、訓練データの収集効率を高めることができる。
【0133】
また、本実施形態では、AR画像によって追加の撮影が必要なサンプル82の撮影方向が視覚的にユーザに伝達される。そのため、本実施形態によれば、ユーザはどの撮影方向からのサンプル82の撮影を行う必要があるのかを的確に把握することができ、その結果、訓練データの収集効率を高めることができる。
【0134】
なお、本発明は上述の実施形態に限定されるものではない。
【0135】
例えば、識別器30や評価識別器60は、任意のカーネルのSVMであってもよい。また、識別器30や評価識別器60は、K近傍法、ロジスティック回帰、アダブースト等のブースティング手法などの手法を用いた識別器であってもよい。また、識別器30や評価識別器60が、ニューラルネットワーク、ナイーブベイズ分類器、ランダムフォレスト、決定木などによって実装されてもよい。また、識別器30や評価識別器60の分類クラスは2クラスである必要はなく、3クラス以上の分類が可能であるもの(すなわち、互いに異なる正クラスが複数存在するもの)であってもよい。
【0136】
また、識別器30や評価識別器60が、入力画像に写るオブジェクトが正クラスに属するものであることを示すか否かを示す二値の識別スコアを出力するものであってもよい。
【0137】
また、ARマーカ80を用いることなく、撮影部20が備えるジャイロセンサや慣性センサなどのセンサによる計測結果に基づいて、撮影位置及び撮影方向が特定されるようにしてもよい。また、このようにして特定される撮影位置及び撮影方向に基づいて、位置P1及び方向D1が特定されるようにしてもよい。
【0138】
また、入力画像から複数の領域が抽出されて、それぞれの領域について、推定部44にって、当該領域の画像に写るオブジェクトが正クラスに属するものであるか否かが推定されてもよい。
【0139】
また、上述した手法は、負例のサンプルを撮影した負例サンプル画像に基づいて、負例訓練データを生成して、生成された複数の負例訓練データを負例訓練データ記憶部52に蓄積させる場面にも適用可能である。
【0140】
また、上記の具体的な文字列や数値及び図面中の具体的な文字列や数値は例示であり、これらの文字列や数値には限定されない。