IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 株式会社日立製作所の特許一覧

<>
  • 特開-計算機及び情報処理方法 図1
  • 特開-計算機及び情報処理方法 図2
  • 特開-計算機及び情報処理方法 図3
  • 特開-計算機及び情報処理方法 図4
  • 特開-計算機及び情報処理方法 図5
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2023039615
(43)【公開日】2023-03-22
(54)【発明の名称】計算機及び情報処理方法
(51)【国際特許分類】
   G06N 20/00 20190101AFI20230314BHJP
【FI】
G06N20/00
【審査請求】未請求
【請求項の数】10
【出願形態】OL
(21)【出願番号】P 2021146825
(22)【出願日】2021-09-09
(71)【出願人】
【識別番号】000005108
【氏名又は名称】株式会社日立製作所
(74)【代理人】
【識別番号】110001678
【氏名又は名称】藤央弁理士法人
(72)【発明者】
【氏名】黄 希
(72)【発明者】
【氏名】喜多村 章悟
(57)【要約】
【課題】複数のモデルを用いて目標タスクの出力値を算出する。
【解決手段】計算機は、複数のタスクのモデルの情報を格納し、複数のタスクのモデルには、目標タスクと関連性を有する個別タスクのモデルが二つ以上含まれ、計算機は、目標タスクで扱うデータを、複数の個別タスクの各々のモデルに入力して得られる出力値を統合する統合規則を生成し、統合規則、及び複数の個別タスクのモデルから出力される出力値を用いて、目標タスクの出力値を算出する。
【選択図】 図1
【特許請求の範囲】
【請求項1】
プロセッサ及び前記プロセッサに接続されるメモリを備える計算機であって、
前記記憶装置は、複数のタスクのモデルの情報を格納し、
前記複数のタスクの前記モデルには、目標タスクと関連性を有する個別タスクの前記モデルが二つ以上含まれ、
前記プロセッサは、
前記目標タスクで扱うデータを前記複数の個別タスクの各々の前記モデルに入力して得られる出力値を統合する統合規則を設定し、
前記統合規則、及び前記複数の個別タスクの前記モデルから出力される出力値を用いて、前記目標タスクの出力値を算出することを特徴とする計算機。
【請求項2】
請求項1に記載の計算機であって、
前記プロセッサは、機械学習によって生成される、前記複数の個別タスクの前記モデルから出力される出力値から特徴量を生成する統合モデルを、前記統合規則として設定し、
前記特徴量に基づいて前記目標タスクの出力値を算出することを特徴とする計算機。
【請求項3】
請求項2に記載の計算機であって、
前記プロセッサは、エンコーダとして機能する前記複数の個別タスクの前記モデルと、隠れ層として機能する前記複数の個別タスクの前記モデルの出力値から特徴量を生成する前記統合モデルとから構成されるオートエンコーダを用いて、前記統合モデルを学習することを特徴とする計算機。
【請求項4】
請求項2に記載の計算機であって、
前記プロセッサは、前記複数の個別タスクの前記モデルと、前記目標タスクとは関連性を有さず、前記個別タスクとのみ関連性を有する外部タスクの前記モデルと、前記複数の個別タスクの前記モデル及び前記外部タスクの前記モデルの出力値から特徴量を生成する前記統合モデルと、を用いたドメイン適応の手法に基づいて、前記統合モデルを学習することを特徴とする計算機。
【請求項5】
請求項1に記載の計算機であって、
前記プロセッサは、
前記複数の個別タスクの前記モデルから出力される出力値の統合条件の情報を前記統合規則として設定し、
前記複数の個別タスクの前記モデルの出力値及び前記統合条件の情報に基づいて、前記目標タスクの出力値を算出することを特徴とする計算機。
【請求項6】
プロセッサ及び前記プロセッサに接続されるメモリを有する計算機が実行する情報処理方法であって、
前記記憶装置は、複数のタスクのモデルの情報を格納し、
前記複数のタスクの前記モデルには、目標タスクと関連性を有する個別タスクの前記モデルが二つ以上含まれ、
前記情報処理方法は、
前記プロセッサが、前記目標タスクで扱うデータを、前記複数の個別タスクの各々の前記モデルに入力して得られる出力値を統合する統合規則を設定する第1のステップと、
前記プロセッサが、前記統合規則、及び前記複数の個別タスクの前記モデルから出力される出力値を用いて、前記目標タスクの出力値を算出する第2のステップと、を含むことを特徴とする情報処理方法。
【請求項7】
請求項6に記載の情報処理方法であって、
前記第1のステップは、前記プロセッサが、機械学習によって生成される、前記複数の個別タスクの前記モデルから出力される出力値から特徴量を生成する統合モデルを、前記統合規則として設定するステップを含み、
前記第2のステップは、前記プロセッサが、前記特徴量に基づいて前記目標タスクの出力値を算出するステップを含むことを特徴とする情報処理方法。
【請求項8】
請求項7に記載の情報処理方法であって、
前記第1のステップは、前記プロセッサが、エンコーダとして機能する前記複数の個別タスクの前記モデルと、隠れ層として機能する前記複数の個別タスクの前記モデルの出力値から特徴量を生成する前記統合モデルとから構成されるオートエンコーダを用いて、前記統合モデルを学習するステップを含むことを特徴とする情報処理方法。
【請求項9】
請求項7に記載の情報処理方法であって、
前記第1のステップは、前記プロセッサが、前記複数の個別タスクの前記モデルと、前記目標タスクとは関連性を有さず、前記個別タスクとのみ関連性を有する外部タスクの前記モデルと、前記複数の個別タスクの前記モデル及び前記外部タスクの前記モデルの出力値から特徴量を生成する前記統合モデルと、を用いたドメイン適応の手法に基づいて、前記統合モデルを学習することを特徴とする情報処理方法。
【請求項10】
請求項6に記載の情報処理方法であって、
前記第1のステップは、前記プロセッサが、前記複数の個別タスクの前記モデルから出力される出力値の統合条件の情報を前記統合規則として設定するステップを含み、
前記第2のステップは、前記プロセッサが、前記複数の個別タスクの前記モデルの出力値及び前記統合条件の情報に基づいて、前記目標タスクの出力値を算出するステップを含むことを特徴とする情報処理方法。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、複数のタスクのモデルを用いて目標タスクの出力値を取得する装置及び方法に関する。
【背景技術】
【0002】
本技術分野の背景技術として、特許文献1がある。特許文献1には、「複数のニューラルネットワークモデルを統合するモデル統合装置10であって、同一の入力を受け付けた、1つの学習済みの共通モデル、前記共通モデルに基づいて学習を進めた個別モデル、および前記共通モデルに基づいて学習を進めた新たな共通モデルからの出力を、それぞれ第1の出力、第2の出力、第3の出力として取得する出力部12と、前記取得された各出力のうち、少なくとも前記第1の出力の精度と前記第2の出力の精度とに基づいた第2の出力を優先する基準に従って、いずれか1つを選択して出力するセレクタ14と、を備える。」と記載されている。
【先行技術文献】
【特許文献】
【0003】
【特許文献1】特開2018-147261号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
モデルの開発において、新たなタスク(例えば、任意の環境下におけるオブジェクトの検知を実現するタスク)を解決するモデルを生成する場合、一般的に、大量のデータを収集し、学習を行う。しかし、大量にデータを収集することが困難な場合がある。したがって、大量のデータを用いずに、既存のデータ及びモデルを利用し、新しいタスクを解決するモデルを生成したいという要求がある。
【0005】
特許文献1では、モデルの更新を目的としているため、統合するモデルは、共通モデル及びその派生モデルに限定されている。そのため、特許文献1に記載の技術では、新たなタスクの出力を得ることが困難である。
【0006】
本発明は、複数のモデルを用いて目標タスクの出力値を算出する装置及び方法を実現することを目的とする。
【課題を解決するための手段】
【0007】
本願において開示される発明の代表的な一例を示せば以下の通りである。すなわち、プロセッサ及び前記プロセッサに接続されるメモリを備える計算機であって、前記記憶装置は、複数のタスクのモデルの情報を格納し、前記複数のタスクの前記モデルには、目標タスクと関連性を有する個別タスクの前記モデルが二つ以上含まれ、前記プロセッサは、前記目標タスクで扱うデータを前記複数の個別タスクの各々の前記モデルに入力して得られる出力値を統合する統合規則を設定し、前記統合規則、及び前記複数の個別タスクの前記モデルから出力される出力値を用いて、前記目標タスクの出力値を算出する。
【発明の効果】
【0008】
本発明によれば、複数の個別タスクのモデルと統合規則とを用いて、目標タスクの出力値を算出できる。上記した以外の課題、構成及び効果は、以下の実施例の説明により明らかにされる。
【図面の簡単な説明】
【0009】
図1】本発明の計算機の機能構成を示す図である。
図2】本発明の計算機のハードウェア構成を示す図である。
図3】本発明の計算機が実行する処理の流れを説明するフローチャートである。
図4】実施例1の計算機に入力されるデータの一例を示す図である。
図5】実施例1の計算機に入力されるデータの一例を示す図である。
【発明を実施するための形態】
【0010】
以下、本発明の実施例を、図面を用いて説明する。ただし、本発明は以下に示す実施例の記載内容に限定して解釈されるものではない。本発明の思想ないし趣旨から逸脱しない範囲で、その具体的構成を変更し得ることは当業者であれば容易に理解される。
【0011】
以下に説明する発明の構成において、同一又は類似する構成又は機能には同一の符号を付し、重複する説明は省略する。
【0012】
本明細書等における「第1」、「第2」、「第3」等の表記は、構成要素を識別するために付するものであり、必ずしも、数又は順序を限定するものではない。
【0013】
図面等において示す各構成の位置、大きさ、形状、及び範囲等は、発明の理解を容易にするため、実際の位置、大きさ、形状、及び範囲等を表していない場合がある。したがって、本発明では、図面等に開示された位置、大きさ、形状、及び範囲等に限定されない。
【0014】
本明細書では、画像に含まれるオブジェクトの認識又は検知を行うタスクを一例として説明する。以下に本明細書で用いる用語の定義を説明する。特記される場合を除き、以下の定義により解釈されるものとする。
【0015】
「目標タスク」は、モデルが存在しない、新しくタスクである。例えば、新しいオブジェクトの認識又は検知等があげられる。「個別タスク」は、目標タスクと関連性を有するタスクである。関連性を有するとは、タスクの目的、対象、及び環境等に関連性があることを表す。「外部タスク」は、目標タスクとは関連性を有しないが、個別タスクと関連性を有するタスクである。
【0016】
「要素モデル」は、個別タスクのモデルである。「外部モデル」は、外部タスクのモデルである。なお、要素モデル及び外部モデルを区別しない場合、モデルと記載する。
【0017】
まず、本発明の概要について説明する。図1は、本発明の計算機100の機能構成を示す図である。図2は、本発明の計算機100のハードウェア構成を示す図である。
【0018】
計算機100は、プロセッサ201、主記憶装置202、副記憶装置203、及びネットワークインタフェース204を有する。各ハードウェア構成は内部バスを介して互いに接続される。なお、計算機100は、副記憶装置203を有していなくてもよい。また、計算機100は、入力装置及び出力装置を有してもよい。
【0019】
プロセッサ201は、主記憶装置202に格納されるプログラムを実行する。プロセッサ201がプログラムにしたがって処理を実行することによって、特定の機能を実現する機能部(モジュール)として動作する。以下の説明では、機能部を主語に処理を説明する場合、プロセッサ201が当該機能部を実現するプログラムを実行していることを示す。
【0020】
主記憶装置202は、プロセッサ201が実行するプログラム及び当該プログラムが使用する情報を格納する。また、主記憶装置202は、プログラムが一時的に使用するワークエリアを含む。副記憶装置203は、HDD(Hard Disk Drive)及びSSD(Solid State Drive)等、データを永続的に格納する。ネットワークインタフェース204は、ネットワークを介して外部装置と通信するためのインタフェースである。
【0021】
計算機100は、モデル情報管理部101、統合部102、及び統合規則設定部103を含む。
【0022】
モデル情報管理部101は、モデル110を定義する情報と、モデル110を生成するために用いた学習データを格納するデータセット111とを管理する。モデル110は、例えば、CNN(Convolutional Neural Network)等である。図1では、モデル情報管理部101は、N個のモデル110の情報と、各モデル110のデータセット111とを管理する。モデル110の情報及びデータセット111は、主記憶装置202及び副記憶装置203のいずれかに格納される。なお、モデル110は二つ以上存在するものとする。
【0023】
統合規則設定部103は、目標タスクの出力値を算出するために、複数の要素モデル110の出力値を統合するための統合規則を設定する。
【0024】
統合部102は、統合規則に基づいて、複数の要素モデル110の出力値を統合することによって、目標タスクの出力値を算出する。
【0025】
本発明の計算機100は、目標タスクと関連性を有する複数の個別タスクのモデルから得られる出力値を統合し、目標タスクの出力値を算出する。ここで、具体的な処理の流れについて説明する。図3は、本発明の計算機100が実行する処理の流れを説明するフローチャートである。
【0026】
計算機100は、目標タスクに関するデータの入力を受け付ける(ステップS101)。
【0027】
計算機100は、目標タスクに対する個別タスクを選択する(ステップS102)。このとき、必要に応じて、外部タスクを選択できる。なお、個別タスク及び外部タスクの選択は、ユーザの入力に基づいて行われるものとする。ただし、タスクの内容を解析し、タスク間の関係性を判別するアルゴリズムを用いて自動的に選択してもよい。
【0028】
計算機100は、統合規則を設定する(ステップS103)。統合規則の設定方法の詳細は実施例を用いて説明する。
【0029】
計算機100は、個別タスクのモデル110(要素モデル110)にデータを入力して出力を取得する(ステップS104)。
【0030】
計算機100は、統合規則に基づいて、各要素モデル110の出力値を統合することによって、目標タスクの出力値を算出する(ステップS105)。
【0031】
以上のように、本発明は、目標タスクと関係性を有する個別タスクのモデル110を用いて、目標タスクの出力値を取得することができる。目標タスクの学習データが少なく、モデルの学習が困難な場合でも目標タスクの出力値を取得することができる。
【0032】
以下、各実施例を用いて、統合規則の設定方法、統合規則の具体的な内容、及び目標タスクの出力値の算出方法について説明する。
【実施例0033】
実施例1では、要素モデル110の出力値の統合条件の情報を統合規則として設定する。
【0034】
ここでは、ターゲットオブジェクトを認識する目標タスクを例に実施例1を説明する。この場合、ターゲットオブジェクトに関連するオブジェクト(関連オブジェクト)を認識するタスクが個別タスクとして選択される。要素モデル110は、関連オブジェクトの有無及び位置を含む出力値を出力する。実施例1の統合規則は、各個別タスクの関連オブジェクトの位置関係又は重なり関係に基づく各要素モデル110の出力値の統合条件の情報として設定される。なお、統合条件の情報はユーザによって入力されるものとする。
【0035】
統合部102は、各要素モデル110から取得した出力値に含まれる関連オブジェクトの位置関係又は重なり関係に基づいて、各要素モデル110から取得した出力値を統合する。なお、実施例1の計算機100は、要素モデル110の演算及び統合部102による出力値の統合を実行すればよく、新たなモデルの学習は必要ない。
【0036】
(具体例1)
目標タスクは、車椅子に座った人を検知するタスクとする。ここでは、座位姿勢の人を検知する個別タスク(第1個別タスク)と、車椅子を検知する個別タスク(第2個別タスク)とが存在するものとする。車椅子の位置が座位姿勢の人の下側にある場合、車椅子に座った人を示す出力値を出力する統合規則が設定されているものとする。
【0037】
図4に示すような画像400が各要素モデル110に入力された場合、第1個別タスクの要素モデル110からは、座位姿勢の人を囲むbounding box401の頂点の座標が出力され、第2個別タスクの要素モデル110からは、車椅子を囲むbounding box402の頂点の座標が出力される。統合部102は、各bounding box401、402の頂点座標から各bounding box401、402の中心点を算出し、bounding box402の中心点がbounding box401の中心点の下側である場合、統合部102は、車椅子に座った人を示す出力値を出力する。
【0038】
このように、計算機100は、関連オブジェクトの位置関係に基づく要素モデル110の出力値の統合条件に基づいて、要素モデル110の出力値を統合し、目標タスクの出力値を得ることができる。
【0039】
(具体例2)
目標タスクは、ひび割れした部品を検知するタスクとする。ここでは、部品を検知する個別タスク(第1個別タスク)と、ひび割れを検知する個別タスク(第2個別タスク)とが存在するものとする。部品の領域内に、ひび割れが重なっている場合、ひび割れした部品を示す出力値を出力する統合規則が設定されているものとする。
【0040】
図5に示すような画像500が各要素モデル110に入力された場合、第1個別タスクの要素モデル110からは、部品を囲むbounding box501の頂点の座標及び面積が出力され、第2個別タスクの要素モデル110からは、ひびを囲むbounding box502の頂点の座標及び面積が出力される。
【0041】
統合部102は、bounding box501の頂点の座標及び面積、並びに、bounding box502の頂点の座標及び面積に基づいて、部品及びひびの重なり関係を把握する。例えば、互いのbounding box502がbounding box501に包含される関係である場合、統合部102はひび割れした部品であることを示す出力値を出力する。
【0042】
このように、計算機100は、関連オブジェクトの重なり関係に基づく要素モデル110の出力値の統合条件に基づいて、要素モデル110の出力値を統合し、目標タスクの出力値を得ることができる。
【0043】
なお、位置関係及び重なり関係の両方を用いた統合条件の情報を設定してもよい。
【実施例0044】
実施例2では、目標タスクの学習データ及び要素モデル110の出力値を用いた機械学習を行うことによって、目標タスクのモデルに入力する特徴量を生成する統合モデルを生成し、統合モデルを統合規則として計算機100に設定する。
【0045】
予め、少量の学習データと、目標タスクのモデルとを用意する。なお、目標タスクのモデルは、少量の学習データから生成されているものとする。計算機100は、エンコーダとして機能する要素モデル110、隠れ層、デコーダと機能する統合規則設定部103からオートエンコーダを構成する。隠れ層は、各要素モデル110の出力値から特徴量を生成する。統合規則設定部103は隠れ層から出力された特徴量を用いて学習データを生成する。なお、要素モデル110の出力値は、要素モデルの最終的な出力値でもよいし、任意のオブジェクトの特徴量でもよい。
【0046】
計算機100は、オートエンコーダを用いて、元の学習データを再現されるような特徴量を出力する隠れ層(統合モデル)を学習する。計算機100は統合モデルを統合規則として設定する。このように、実施例2では、各要素モデル110の出力値から目標タスクのモデルに入力する特徴量の表現を学習し、これを統合規則として設定する。
【0047】
統合部102は、統合規則を用いて算出される特徴量を目標タスクのモデルに入力し、目標タスクの出力値を算出する。
【0048】
なお、目標タスクの学習データだけではなく、要素モデル110の生成に使用したデータセット111を用いてもよい。
【0049】
(具体例)
目標タスクは、特定の背景に映り込むターゲットオブジェクトを検知するタスクとする。ここでは、目標タスクの背景等は異なる背景に映り込むターゲットオブジェクトを検知する個別タスク(第1個別タスク)と、特定の背景を検知する個別タスク(第2個別タスク)とが存在するものとする。
【0050】
より説明をわかりやすくするために、道路上の鹿を検知する目標タスク、森等の自然の背景に映り込むの鹿を検知する第1個別タスクと、道路を検知する第2個別タスクとを例に説明する。
【0051】
計算機100は、オートエンコーダを用いて、要素モデル110の出力値から目標タスクのモデルに入力する特徴量の表現を学習する。例えば、第1個別タスクの要素モデル110から出力される鹿の特徴を表す出力値と、第2個別タスクの要素モデル110から出力される道路の特徴を表す出力値とから、道路上に鹿が存在する画像(学習データ)を生成できる表現(統合モデル)を学習する。統合モデルは、鹿及び道路を統合した特徴量を出力する。統合部102は、統合モデルから出力される出力値(特徴量)を用いて道路上の鹿を検知する。
【実施例0052】
実施例3では、要素モデル110及び外部モデル110の出力値を用いた機械学習を行うことによって、目標タスクのモデルに入力する特徴量を生成する統合モデルを生成し、統合モデルを統合規則として計算機100に設定する。
【0053】
予め、少量の学習データを用いて生成された目標タスクのモデルを用意する。計算機100は、要素モデル110及び外部モデル110、隠れ層、Discriminatorと機能する統合規則設定部103、並びに統合部102からドメイン適応(Domain Adaptation)を実現する構成を設定する。隠れ層は、要素モデル110及び外部モデル110から得られる出力値から特徴量を生成する。統合規則設定部103は、特徴量からドメインの識別を行う。統合部102は、目標タスクのモデル及び特徴量を用いて分類を行う。
【0054】
計算機100は、ドメイン適応の手法にしたがって、どのドメインからの入力であるかが見分けがつかないように、隠れ層(統合モデル)、Discriminator、及び目標タスクのモデルを学習する。計算機100は統合モデルを統合規則として設定する。実施例3では、要素モデル110及び外部モデル110の出力値から目標タスクのモデルに入力する特徴量の表現を学習し、これを統合規則として設定する。
【0055】
統合部102は、統合規則を用いて算出される特徴量を目標タスクのモデルに入力し、目標タスクの出力値を算出する。
【0056】
なお、目標タスクの学習データだけではなく、要素モデル110及び外部モデル110の生成に使用したデータセット111を用いてもよい。
【0057】
(具体例)
目標タスクは、特定の環境下においてターゲットオブジェクトを検知するタスクとする。ここでは、目標タスクの環境とは異なる環境下においてターゲットオブジェクトを検知する個別タスク(第1個別タスク)と、特定の環境下においてターゲットオブジェクトとは異なるオブジェクトを検知する個別タスク(第2個別タスク)と、目標タスクの環境とは異なる環境下において、ターゲットオブジェクトとは異なるオブジェクトを検知する外部タスクとが存在するものとする。なお、外部タスクの環境は第1個別タスクの環境と同一であり、かつ、外部タスクのオブジェクトは第2個別タスクのオブジェクトと同一である。
【0058】
より説明をわかりやすくするために、夜間に鹿を検知する目標タスク、昼間に鹿を検知する第1個別タスク、夜間に人を検知する第2個別タスク、及び昼間に人を検知する外部タスクを例に説明する。
【0059】
目標タスク及び第2個別タスクは夜間のドメインであり、第1個別タスク及び外部タスクは昼間のドメインである。
【0060】
計算機100は、ドメイン適応の手法にしたがって、第1個別タスクの要素モデル110、第2個別タスクの要素モデル110、及び外部タスクの外部モデル110の各々にドメインラベルが付された学習データを入力する。計算機100は、各モデル110の出力値から生成される特徴量を用いたDiscriminatorの識別結果とドメインラベルとの誤差が大きくなるように、目標タスクのモデルに入力する特徴量の表現を学習する。隠れ層は、ドメイン適応の結果が反映された特徴量を出力する。統合部102は、夜間及び昼間のいずれでも同様の認識が可能な特徴量を用いて夜間の鹿を検知する。
【0061】
なお、上述した実施例では、目標タスクを解決するための装置及び方法について説明したが、他の用途に適用してもよい。例えば、モデルの更新と精度向上のため装置として利用してもよい。
【0062】
なお、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。また、例えば、上記した実施例は本発明を分かりやすく説明するために構成を詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、各実施例の構成の一部について、他の構成に追加、削除、置換することが可能である。
【0063】
また、上記の各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、本発明は、実施例の機能を実現するソフトウェアのプログラムコードによっても実現できる。この場合、プログラムコードを記録した記憶媒体をコンピュータに提供し、そのコンピュータが備えるプロセッサが記憶媒体に格納されたプログラムコードを読み出す。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施例の機能を実現することになり、そのプログラムコード自体、及びそれを記憶した記憶媒体は本発明を構成することになる。このようなプログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク、CD-ROM、DVD-ROM、ハードディスク、SSD(Solid State Drive)、光ディスク、光磁気ディスク、CD-R、磁気テープ、不揮発性のメモリカード、ROMなどが用いられる。
【0064】
また、本実施例に記載の機能を実現するプログラムコードは、例えば、アセンブラ、C/C++、perl、Shell、PHP、Python、Java(登録商標)等の広範囲のプログラム又はスクリプト言語で実装できる。
【0065】
さらに、実施例の機能を実現するソフトウェアのプログラムコードを、ネットワークを介して配信することによって、それをコンピュータのハードディスクやメモリ等の記憶手段又はCD-RW、CD-R等の記憶媒体に格納し、コンピュータが備えるプロセッサが当該記憶手段や当該記憶媒体に格納されたプログラムコードを読み出して実行するようにしてもよい。
【0066】
上述の実施例において、制御線や情報線は、説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。全ての構成が相互に接続されていてもよい。
【符号の説明】
【0067】
100 計算機
101 モデル情報管理部
102 統合部
103 統合規則設定部
110 モデル
111 データセット
201 プロセッサ
202 主記憶装置
203 副記憶装置
204 ネットワークインタフェース
400、500 画像
401、402、501、502 bounding box
図1
図2
図3
図4
図5