IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 富士通株式会社の特許一覧

特許7259322情報処理装置、学習モデル生成プログラム及び学習モデル生成方法
<>
  • 特許-情報処理装置、学習モデル生成プログラム及び学習モデル生成方法 図1
  • 特許-情報処理装置、学習モデル生成プログラム及び学習モデル生成方法 図2
  • 特許-情報処理装置、学習モデル生成プログラム及び学習モデル生成方法 図3
  • 特許-情報処理装置、学習モデル生成プログラム及び学習モデル生成方法 図4
  • 特許-情報処理装置、学習モデル生成プログラム及び学習モデル生成方法 図5
  • 特許-情報処理装置、学習モデル生成プログラム及び学習モデル生成方法 図6
  • 特許-情報処理装置、学習モデル生成プログラム及び学習モデル生成方法 図7
  • 特許-情報処理装置、学習モデル生成プログラム及び学習モデル生成方法 図8
  • 特許-情報処理装置、学習モデル生成プログラム及び学習モデル生成方法 図9
  • 特許-情報処理装置、学習モデル生成プログラム及び学習モデル生成方法 図10
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2023-04-10
(45)【発行日】2023-04-18
(54)【発明の名称】情報処理装置、学習モデル生成プログラム及び学習モデル生成方法
(51)【国際特許分類】
   G06N 20/00 20190101AFI20230411BHJP
【FI】
G06N20/00 130
【請求項の数】 6
(21)【出願番号】P 2018243074
(22)【出願日】2018-12-26
(65)【公開番号】P2020106945
(43)【公開日】2020-07-09
【審査請求日】2021-09-09
(73)【特許権者】
【識別番号】000005223
【氏名又は名称】富士通株式会社
(74)【代理人】
【識別番号】110003649
【氏名又は名称】弁理士法人真田特許事務所
(74)【代理人】
【識別番号】100092978
【弁理士】
【氏名又は名称】真田 有
(72)【発明者】
【氏名】境 克司
(72)【発明者】
【氏名】村瀬 有一
(72)【発明者】
【氏名】藤本 純也
(72)【発明者】
【氏名】小田嶋 成幸
【審査官】金田 孝之
(56)【参考文献】
【文献】特開2019-159819(JP,A)
【文献】特開2010-191556(JP,A)
【文献】米国特許出願公開第2016/0125307(US,A1)
【文献】米国特許出願公開第2016/0171377(US,A1)
(58)【調査した分野】(Int.Cl.,DB名)
G06N 3/00-99/00
(57)【特許請求の範囲】
【請求項1】
センサデータを取得する取得部と、
前記取得部によって取得された前記センサデータに対して、観察対象物の動作が遷移前後のどちらに近いかを示す重み付け情報を、前記遷移前後の状態について段階的な入力を受け付けることにより、記録する重み付け部と、
を備える、情報処理装置。
【請求項2】
前記重み付け部は、表示装置に表示されるスライドバーによって、前記段階的な入力を受け付ける、
請求項1に記載の情報処理装置。
【請求項3】
前記重み付け部は、前記重み付け情報の入力に対して、確からしさでフィルタリングする、
請求項1又は2に記載の情報処理装置。
【請求項4】
前記重み付け部は、前記重み付け情報の入力に対して、確からしさで学習の変更を行なう、
請求項1又は2に記載の情報処理装置。
【請求項5】
コンピュータに、
センサデータを取得し、
取得された前記センサデータに対して、観察対象物の動作が遷移前後のどちらに近いかを示す重み付け情報を、前記遷移前後の状態について段階的な入力を受け付けることにより、記録する、
処理を実行させる、学習モデル生成プログラム。
【請求項6】
センサデータを取得し、
取得された前記センサデータに対して、観察対象物の動作が遷移前後のどちらに近いかを示す重み付け情報を、前記遷移前後の状態について段階的な入力を受け付けることにより、記録する、
学習モデル生成方法。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、情報処理装置、学習モデル生成プログラム及び学習モデル生成方法に関する。
【背景技術】
【0002】
近年、Artificial Intelligence(AI)の利用が活発になっている。また、様々な業務に適切に対応するアルゴリズムが開発されている。
【0003】
業務における人の動きは複雑で、作業や行動の状態の分類(別言すれば、「ラベル付け」)は観察者からは判別しにくい。そこで、人の動きを考慮したラベル付けや質の良い教師データが作成される。
【先行技術文献】
【特許文献】
【0004】
【文献】特開2018-72029号公報
【文献】特開2012-3494号公報
【文献】特開2016-149136号公報
【非特許文献】
【0005】
【文献】T. Mori et al, "Online Recognition and Segmentation for Time-Series Motion with HMM and Conceptual Relation of Actions", In IROS2005.,2005年8月
【発明の概要】
【発明が解決しようとする課題】
【0006】
しかしながら、観察者(別言すれば、「タグ付けする人」)による行動や動作のタグ付けが、該当行動であるか、該当行動でないかの二値である場合には、取得データの特徴量とタグ付け結果との間に差異が生じても、差異が教師データに反映されないおそれがある。
【0007】
1つの側面では、少ない教師データによって行動分析のための学習を可能にすることを目的とする。
【課題を解決するための手段】
【0008】
情報処理装置は、センサデータを取得する取得部と、前記取得部によって取得された前記センサデータに対して、観察対象物の動作が遷移前後のどちらに近いかを示す重み付け情報を、前記遷移前後の状態について段階的な入力を受け付けることにより、記録する重み付け部と、を備える。
【発明の効果】
【0009】
1つの側面では、少ない教師データによって行動分析のための学習ができる。
【図面の簡単な説明】
【0010】
図1】関連例における教師データの取得処理を説明する図である。
図2】実施形態の一例における計算機のハードウェア構成例を模式的に示すブロック図である。
図3図2に示した計算機の機能構成例を模式的に示すブロック図である。
図4図2に示した計算機における重み付け処理の詳細を説明する図である。
図5図2に示した計算機における重み付け処理の第1の例を説明する図である。
図6図2に示した計算機における重み付け処理の第2の例を説明する図である。
図7図2に示した計算機における重み付け情報へのアノテーションの確からしさの反映処理を説明する図である。
図8図2に示した計算機における重み付け情報に対するアノテーションの確からしさのフィルタリング処理を説明する図である。
図9図2に示した計算機における重み付け情報に対するアノテーションの確からしさに応じた学習の変更処理を説明する図である。
図10図2に示した計算機における重み付け処理を説明するフローチャートである。
【発明を実施するための形態】
【0011】
以下、図面を参照して一実施の形態を説明する。ただし、以下に示す実施形態はあくまでも例示に過ぎず、実施形態で明示しない種々の変形例や技術の適用を排除する意図はない。すなわち、本実施形態を、その趣旨を逸脱しない範囲で種々変形して実施することができる。
【0012】
また、各図は、図中に示す構成要素のみを備えるという趣旨ではなく、他の機能等を含むことができる。
【0013】
以下、図中において、同一の各符号は同様の部分を示しているので、その説明は省略する。
【0014】
〔A〕関連例
図1は、関連例における教師データの取得処理を説明する図である。
【0015】
図1に示す例において、例えば、動作A及び動作Bに対して観察者によるタグ付けを行なう際に、センサ状態は動作Aから動作Bへの特徴を表わしている(符号A1参照)。
【0016】
しかしながら、確実に動作Bが確認できてからタグ付けが行なわれる場合には(符号A2参照)、特徴量の発現が埋もれてしまい、教師データとしての精度が不十分になる。
【0017】
そして、図1に示すように、データセット#1とデータセット#2とが存在する場合には、観察者がタグ付けする際に、観察者の主観によって、データセット毎に、実際の特徴量の変動タイミングとタグ付けタイミングとの間でずれが生じるおそれがある。
【0018】
〔B〕実施形態の一例
〔B-1〕システム構成例
図2は、実施形態の一例における計算機1のハードウェア構成例を模式的に示すブロック図である。
【0019】
計算機1は、Central Processing Unit(CPU)11,メモリ12,表示制御部13,記憶装置14,入力Interface(I/F)15,読み書き処理部16及び通信I/F17を備える。
【0020】
メモリ12は、記憶部の一例であり、例示的に、Read Only Memory(ROM)及びRandom Access Memory(RAM)を含む記憶装置である。メモリ12のROMには、Basic Input/Output System(BIOS)等のプログラムが書き込まれてよい。メモリ12のソフトウェアプログラムは、CPU11に適宜に読み込まれて実行されてよい。また、メモリ12のRAMは、一次記録メモリあるいはワーキングメモリとして利用されてよい。
【0021】
表示制御部13は、表示装置130と接続され、表示装置130を制御する。表示装置130は、液晶ディスプレイやOrganic Light-Emitting Diode(OLED)ディスプレイ,Cathode Ray Tube(CRT),電子ペーパーディスプレイ等であり、オペレータ等に対する各種情報を表示する。表示装置130は、入力装置と組み合わされたものでもよく、例えば、タッチパネルでもよい。
【0022】
記憶装置14は、例示的に、データを読み書き可能に記憶する装置であり、例えば、Hard Disk Drive(HDD)やSolid State Drive(SSD),Storage Class Memory(SCM)が用いられてよい。
【0023】
入力I/F15は、マウス151やキーボード152,センサ群153等の入力装置と接続され、マウス151やキーボード152,センサ群153等の入力装置を制御する。マウス151やキーボード152は、入力装置の一例であり、これらの入力装置を介して、オペレータが各種の入力操作を行なう。センサ群153は、観察対象物である人や動物,ロボット等の動作に関する情報を取得する。
【0024】
読み書き処理部16は、記録媒体160が装着可能に構成される。読み書き処理部16は、記録媒体160が装着された状態において、記録媒体160に記録されている情報を読み取り可能に構成される。本例では、記録媒体160は、可搬性を有する。例えば、記録媒体160は、フレキシブルディスク、光ディスク、磁気ディスク、光磁気ディスク、又は、半導体メモリ等である。
【0025】
通信I/F17は、外部装置との通信を可能にするためのインタフェースである。
【0026】
CPU11は、種々の制御や演算を行なう処理装置であり、メモリ12に格納されたOperating System(OS)やプログラムを実行することにより、種々の機能を実現する。
【0027】
計算機1全体の動作を制御するための装置は、CPU11に限定されず、例えば、MPUやDSP,ASIC,PLD,FPGAのいずれか1つであってもよい。また、WMS1全体の動作を制御するための装置は、CPU,MPU,DSP,ASIC,PLD及びFPGAのうちの2種類以上の組み合わせであってもよい。なお、MPUはMicro Processing Unitの略称であり、DSPはDigital Signal Processorの略称であり、ASICはApplication Specific Integrated Circuitの略称である。また、PLDはProgrammable Logic Deviceの略称であり、FPGAはField Programmable Gate Arrayの略称である。
【0028】
図3は、図2に示した計算機1の機能構成例を模式的に示すブロック図である。
【0029】
計算機1は、図3に示すように、特徴量計算部111,タグ情報重み付け部112,特徴量出力部113及び学習モデル生成部114として機能する。
【0030】
なお、これらの特徴量計算部111,タグ情報重み付け部112,特徴量出力部113及び学習モデル生成部114として機能を実現するためのプログラムは、例えば前述した記録媒体160に記録された形態で提供される。そして、コンピュータは読み書き処理部16を介してその記録媒体160からプログラムを読み取って内部記憶装置または外部記憶装置に転送し格納して用いる。また、そのプログラムを、例えば磁気ディスク,光ディスク,光磁気ディスク等の記憶装置(記録媒体)に記録しておき、その記憶装置から通信経路を介してコンピュータに提供してもよい。
【0031】
特徴量計算部111,タグ情報重み付け部112,特徴量出力部113及び学習モデル生成部114としての機能を実現する際には、内部記憶装置に格納されたプログラムがコンピュータのマイクロプロセッサによって実行される。このとき、記録媒体160に記録されたプログラムをコンピュータが読み取って実行してもよい。なお、本実施形態において、内部記憶装置はメモリ12であり、マイクロプロセッサはCPU11である。
【0032】
図3に示すように、センサ群153は、センサ入力部1530として機能する。センサ入力部1530は、観察対象物である人や動物,ロボット等の動作に関する情報を取得して、教師データとしてInterface(I/F)を介して計算機1に入力する。
【0033】
図3に示すように、マウス151やキーボード152等の入力装置は、タグ情報入力部1520として機能する。タグ情報入力部1520は、観察対象物の観察者からのタグ情報(「重み付け情報」と称してもよい。)入力を受け付け、受け付けたタグ情報をI/Fを介して計算機1に入力する。
【0034】
特徴量計算部111は、センサ入力部1530から入力された教師データから特徴量を計算する。すなわち、特徴量計算部111は、教師データを取得する取得部として機能する。
【0035】
タグ情報重み付け部112は、タグ情報入力部1520から入力されたタグ情報に基づき、特徴量計算部111によって計算された特徴量に対して重み付けする。すなわち、タグ情報重み付け部112は、取得された教師データに対して、観察対象物の動作が遷移前後のどちらに近いかを示す重み付け情報を記録する重み付け部として機能する。
【0036】
特徴量出力部113は、タグ情報重み付け部112によって重み付けされた特徴量を出力する。
【0037】
学習モデル生成部114は、特徴量出力部113によって出力された特徴量に基づき、学習モデルを生成する。
【0038】
図4は、図2に示した計算機1における重み付け処理の詳細を説明する図である。
【0039】
図4に示すように、センサ群153からの加速度や気圧についての生データに基づいて特徴量が時系列に教師データとして取得される(符号B1参照)。
【0040】
取得された教師データは、フィルタ特徴量計算により、特徴量#1及び#2とし計算される(符号B2参照)。フィルタ特徴量計算は、例えば、一定区間の平均値や最大値の計算によって行なわれる。計算される特徴量は、フィルタ設計に応じて3つ以上であってもよい。
【0041】
観察者は、被験者(別言すれば、「観察対象物」)の行動を観察して、動作のタグ付けを行なう(符号B3参照)。図示する例では、動作Aの場合にはJ1のタグ付けがされ、動作Bの場合にはJ2のタグ付けがされる。J1からJ2へ遷移する際には、観察者は、スライドバー131を用いて、動作がJ1よりかJ2よりかをアナログ的にタグ付けしてよい。
【0042】
すなわち、図3に示したタグ情報重み付け部112は、表示装置130に表示されるスライドバー131によって、遷移前後の状態について段階的な入力を受け付けることにより、重み付け情報を取得する重み付け部として機能する。
【0043】
図4の符号B3に示す例において、観察者は、J1からJ2へ迷いながらスライドバー131を左右に動かし、最終的にはJ2に移行したことを入力している。
【0044】
符号B2において計算された特徴量#1及び#2と、符号B3において取得されたタグ情報とに基づき、遷移特徴量#1及び#2が生成される(符号B4参照)。それぞれの特徴量に対し、このように遷移状態をアナログ的に重み付けすることで、J1からJ2への特徴量がタグとして記録され、特徴量を厳密に教師データに反映できる。
【0045】
図5は、図2に示した計算機1における重み付け処理の第1の例を説明する図である。図6は、図2に示した計算機1における重み付け処理の第2の例を説明する図である。
【0046】
図5及び図6に示すように、観察者によるアナログ的なタグ付け領域(図5及び図6の符号C1参照)においてスライドバー131を用いたタグ付けが行なわれることにより、他の動きに紛れている特徴量についても、教師データとして反映できる。
【0047】
学習の際のコスト関数は、特徴量が
であり、正解ラベルが
であるとき、下記の数式1で表わされる。
【0048】
【数1】
ただし、
は、本実施形態の一例において計算できるサンプルの重み付けである。
は、学習対象の特徴量重みである。
は、ロス関数であり、例えはhinge-loss関数
である。ここで、
である。
【0049】
ここで、全てのデータで
であり、各々の時刻サンプルに対して全て等化となり、サンプルへのアノテーションの確からしさがモデル化できない。
【0050】
図7は、図2に示した計算機1における重み付け情報へのアノテーションの確からしさの反映処理を説明する図である。
【0051】
サンプルへのアノテーションの確からしさをモデル化するために、図7に示すように、
をスライドバー131の入力値として使用する。
【0052】
これにより、サンプルへのアノテーションの確からしさをタグ付けに反映できる。
【0053】
図8は、図2に示した計算機1における重み付け情報に対するアノテーションの確からしさのフィルタリング処理を説明する図である。
【0054】
図8に示す例では、サンプルの重み付け
において、前後のサンプルの変動が大きい区間を無視する。すなわち、
は、以下の数式2によって表わされる。
【数2】
【0055】
すなわち、図3に示したタグ情報重み付け部112は、重み付け情報の入力に対して、確からしさでフィルタリングする重み付け部の一例として機能する。
【0056】
これにより、観察者の判断に迷う不確実な特徴量を除外して扱うことができ、確実な情報に限って学習可能になる。
【0057】
図9は、図2に示した計算機1における重み付け情報に対するアノテーションの確からしさに応じた学習の変更処理を説明する図である。
【0058】
図9に示す例においては、学習初期では判断しやすい特徴量を学習させ、学習後期では難しい特徴量を学習させることで、より複雑な特徴量を含めて学習を加速できる。
【0059】
すなわち、図9に示すように初期には
を小さい
に設定(別言すれば、「特徴量を判断しやすく設定」)して、後半には大きい
に設定(別言すれば、「特徴量を判断しにくく設定」)して学習を繰り返す。
【0060】
1回目の学習は、以下の数式3によって表わされる。
【数3】
【0061】
2回目の学習は、以下の数式4によって表わされる。
【数4】
【0062】
すなわち、図3に示したタグ情報重み付け部112は、重み付け情報の入力に対して、確からしさで学習の変更を行なう重み付け部の一例として機能する。
【0063】
〔B-2〕動作例
図2に示した計算機1における重み付け処理を、図10に示すフローチャート(ステップS1~S10)に従って説明する。
【0064】
特徴量計算部111は、センサ入力部1530からの観察対象物によるタグ情報J1で示される動作Aに関する情報の入力を受け付け、特徴量を計算する(ステップS1)。
【0065】
タグ情報重み付け部112は、特徴量計算部111によって算出された特徴量に対して、タグ情報J1としてのタグ付けを示す重み“J1:1.0, J2:0.0”を付加する(ステップS2)。
【0066】
タグ情報重み付け部112は、特徴量計算部111によって計算された特徴量と、タグ情報入力部1520からの入力とに基づき、タグ情報J1で示される動作Aが終了したかを判定する(ステップS3)。
【0067】
タグ情報J1で示される動作Aが終了していない場合には(ステップS3のNoルート参照)、処理はステップS2へ戻る。
【0068】
一方、タグ情報J1で示される動作Aが終了している場合には(ステップS3のYesルート参照)、処理はステップS4へ移行する。そして、タグ情報重み付け部112は、タグ情報入力部1520から、スライドバー131がJ1側からJ2側へスライドされたことを示す情報の入力を受け付ける(ステップS4)。
【0069】
タグ情報重み付け部112は、特徴量計算部111によって計算された特徴量と、タグ情報入力部1520からの入力とに基づき、タグ情報J2で示される動作Bが開始されたかを判定する(ステップS5)。
【0070】
タグ情報J2で示される動作Bが開始されていない場合には(ステップS5のNoルート参照)、処理はステップS6へ進む。タグ情報重み付け部112は、タグ情報入力部1520から、スライドバー131のスライドが停止されたことを示す情報、又は、スライドバー131がJ2側からJ1側へスライドされたことを示す情報の入力を受け付ける(ステップS6)。そして、処理はステップS5へ戻る。
【0071】
一方、タグ情報J2で示される動作Bが開始されている場合には(ステップS5のYesルート参照)、処理はステップS7へ移行する。そして、タグ情報重み付け部112は、タグ情報入力部1520から、スライドバー131がJ1側からJ2側へスライドされたことを示す情報の入力を受け付ける(ステップS7)。
【0072】
タグ情報重み付け部112は、特徴量計算部111によって計算された特徴量と、タグ情報入力部1520からの入力とに基づき、タグ情報J2で示される動作Bの開始が確定したかを判定する(ステップS8)。
【0073】
タグ情報J2で示される動作Bの開始が確定していない場合には(ステップS8のNoルート参照)、処理はステップS7へ戻る。
【0074】
一方、タグ情報J2で示される動作Bの開始が確定した場合には(ステップS8のYesルート参照)、タグ情報重み付け部112は、タグ情報入力部1520から、スライドバー131がJ2側で確定したことを示す情報の入力を受け付ける(ステップS9)。
【0075】
タグ情報重み付け部112は、特徴量計算部111によって算出された特徴量に対して、タグ情報J2としてのタグ付けを示す重み“J1:0.0, J2:1.0”を付加する(ステップS10)。そして、重み付け処理は終了する。
【0076】
〔B-3〕効果
上述した実施形態の一例における計算機1によれば、例えば、以下の作用効果を奏することができる。
【0077】
特徴量計算部111は、教師データを取得する。タグ情報重み付け部112は、取得された教師データに対して、動作A又は動作B等の二値でのタグ付けでなく、観察対象物の動作が遷移前後のどちらに近いかを示す重み付け情報を記録する。
【0078】
これにより、少ない教師データによって行動分析のための学習ができる。
【0079】
タグ情報重み付け部112は、表示装置130に表示されるスライドバー131によって、遷移前後の状態について段階的な入力を受け付けることにより、重み付け情報を取得する。
【0080】
これにより、動作の遷移に対してアナログ的にきめ細やかなタグ付けができる。
【0081】
タグ情報重み付け部112は、重み付け情報の入力に対して、確からしさでフィルタリングする。
【0082】
これにより、観察者の判断に迷う不確実な特徴量を除外して扱うことができ、確実な情報に限って学習可能になる。
【0083】
タグ情報重み付け部112は、重み付け情報の入力に対して、確からしさで学習の変更を行なう。
【0084】
これにより、学習初期では判断しやすい特徴量を学習させ、学習後期では難しい特徴量を学習させるカリキュラム学習を実施することで、より複雑な特徴量を含めて学習を加速できる。
【0085】
〔C〕その他
開示の技術は上述した実施形態に限定されるものではなく、本実施形態の趣旨を逸脱しない範囲で種々変形して実施することができる。本実施形態の各構成及び各処理は、必要に応じて取捨選択することができ、あるいは適宜組み合わせてもよい。
【0086】
上述した実施形態の一例においては、観察者がスライドバー131によってアナログ的な重み付けを入力することとしたが、これに限定されるものではない。観察者によりアナログ的な重み付けの入力は、例えば、表示装置130に表示される入力ボックスに対して数値が入力されることにより行なわれてもよい。また、観察者によりアナログ的な重み付けの入力は、入力I/F15に接続されたダイヤルやつまみ等の多段階式のハードウェアスイッチにより行なわれてもよい。
【0087】
〔D〕付記
以上の実施形態に関し、さらに以下の付記を開示する。
【0088】
(付記1)
教師データを取得する取得部と、
前記取得部によって取得された前記教師データに対して、観察対象物の動作が遷移前後のどちらに近いかを示す重み付け情報を記録する重み付け部と、
を備える、情報処理装置。
【0089】
(付記2)
前記重み付け部は、表示装置に表示されるスライドバーによって、前記遷移前後の状態について段階的な入力を受け付けることにより、前記重み付け情報を取得する、
付記1に記載の情報処理装置。
【0090】
(付記3)
前記重み付け部は、前記重み付け情報の入力に対して、確からしさでフィルタリングする、
付記1又は2に記載の情報処理装置。
【0091】
(付記4)
前記重み付け部は、前記重み付け情報の入力に対して、確からしさで学習の変更を行なう、
付記1又は2に記載の情報処理装置。
【0092】
(付記5)
コンピュータに、
教師データを取得し、
取得された前記教師データに対して、観察対象物の動作が遷移前後のどちらに近いかを示す重み付け情報を記録する、
処理を実行させる、学習モデル生成プログラム。
【0093】
(付記6)
表示装置に表示されるスライドバーによって、前記遷移前後の状態について段階的な入力を受け付けることにより、前記重み付け情報を取得する、
処理を前記コンピュータに実行させる、付記5に記載の学習モデル生成プログラム。
【0094】
(付記7)
前記重み付け情報の入力に対して、確からしさでフィルタリングする、
処理を前記コンピュータに実行させる、付記5又は6に記載の学習モデル生成プログラム。
【0095】
(付記8)
前記重み付け情報の入力に対して、確からしさで学習の変更を行なう、
処理を前記コンピュータに実行させる、付記5又は6に記載の学習モデル生成プログラム。
【0096】
(付記9)
教師データを取得し、
取得された前記教師データに対して、観察対象物の動作が遷移前後のどちらに近いかを示す重み付け情報を記録する、
学習モデル生成方法。
【0097】
(付記10)
表示装置に表示されるスライドバーによって、前記遷移前後の状態について段階的な入力を受け付けることにより、前記重み付け情報を取得する、
付記9に記載の学習モデル生成方法。
【0098】
(付記11)
前記重み付け情報の入力に対して、確からしさでフィルタリングする、
付記9又は10に記載の学習モデル生成方法。
【0099】
(付記12)
前記重み付け情報の入力に対して、確からしさで学習の変更を行なう、
処理を前記コンピュータに実行させる、付記9又は10に記載の学習モデル生成方法。
【符号の説明】
【0100】
1 :計算機
11 :CPU
111 :特徴量計算部
112 :タグ情報重み付け部
113 :特徴量出力部
114 :学習モデル生成部
12 :メモリ
13 :表示制御部
130 :表示装置
131 :スライドバー
14 :記憶装置
15 :入力I/F
151 :マウス
152 :キーボード
153 :センサ群
1520 :タグ情報入力部
1530 :センサ入力部
16 :読み書き処理部
160 :記録媒体
17 :通信I/F
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10