(58)【調査した分野】(Int.Cl.,DB名)
【発明を実施するための形態】
【0014】
以下、本発明の実施形態を添付図面に基づいて説明する。
【0015】
(第1実施形態)
図1は、第1実施形態に係る図面機械学習システム10(以下、単に「学習システム10」という)の概略構成図である。
【0016】
第1実施形態に係る学習システム10は、
図1に示されるように、図面機械学習支援システム20(以下、単に「支援システム20」という)と、深層学習部(機械学習部)30と、を備える。
【0017】
支援システム20は、効果的で効率的な機械学習のために、適切な教師データを生成する。支援システム20において、機械学習時の認識対象となる図面片22及びその正解データの組が、教師データとして生成される。
【0018】
深層学習部30は、支援システム20で生成した図面片22及び正解データに基づいて、データ構造化の判断過程を学習する。より具体的には、深層学習部30は、保持しているニューラルネットワーク31にデータ構造化のパターン及び判断条件を学習させて、学習済みニューラルネットワーク36を出力する。
これら支援システム20及び深層学習部30については、後に詳述する。
【0019】
次に、
図2の配線図の一例を用いて、第1実施形態に係る学習システム10による学習の学習材料になる画像11について説明する。
ここにいう画像11とは、図面に描かれた配線や回路構造要素、表、又は文字等の構造要素12(
図3)が全てドット(ピクセル)の集合体で表現されたラスタ表現形式の画像のことである。そこで、以下、この画像11のことを適宜ラスタ画像11という。
【0020】
ラスタ画像11は、例えば紙図面をスキャナで読み取った画像であり、TIF(Tagged Image File Format)、PDF(Portable Document Format)、PNG(Portable Network Graphics)、JPEG(Joint Photographic Experts Group)、又はBMPなどが該当する。
これらいずれも、図面に描写される記号、配線又は部品等の図形の関係性情報又は属性情報(まとめて「構造情報14」という)が含まれていないので、上述した未構造化図面である。
なお、未構造化図面には、最終的に生成される図面データ(構造化図面13(
図3))と比較して、付与された構造情報14が不十分な図面データも含まれる。
【0021】
プラントに関連するラスタ画像11としては、プラントの建屋、配置図、P&ID(配管計装図)、ECWD(展開接続図)、IBD(インターロックブロック線図)、単線結線図、又はソフトロジック図などがある。
【0022】
また、
図3は、構造化図面(構造化図面データ)13の一例を示す図である。
構造化図面13は、構造要素12及びこの構造要素12に付与された構造情報14を含むベクタ形式の画面データである。
構造要素12とは、配線、回路、表又は文字等の有形形状が特定の関数で規定された線で表現される、いわゆるベクタ表現で記述されたデータであって、構造情報14を有する要素を指す。
【0023】
例えば
図3の構造化図面13には、構造要素12として、スイッチ17、配線18、及び接続点15が含まれる。そして、例えば<線1>の構造要素12に対して、形状を表すベクトル情報、線番、線種、渡り情報、接続関係、関連機器、及び画層情報等の構造情報14が付与されている。
【0024】
また、<機器1>の構造要素12には、形状を表すベクトル情報、機器分類、機器名、端子、接続点15の番号、接続関係、関連機器、及び画層情報等の構造情報14が付与されている。接続関係とは、例えば、機器17が配線18を介して接続点15に接続されているといった他の構造要素12との関係を表す情報である。
【0025】
第1実施形態に係る学習システム10は、
図2に示されるようなラスタ画像11中の有形形状を構造要素12に置き換えて、付随する構造情報14を付与する能力を習得した、学習済みニューラルネットワーク36を生成するものである。
【0026】
図1に戻って、支援システム20及び深層学習部30について、より具体的に説明する。
支援システム20は、正解データ生成部21と、図面片生成部23と、を備える。
【0027】
正解データ生成部21は、構造化図面13中の構造要素12及びこの構造要素12に付随する構造情報14を抽出して機械学習の正解データを生成する。通常は、構造化図面13に含まれる全ての構造要素12及び構造情報14がそのまま正解データとして出力層34に入力される。ラスタ画像を構造化する場合、通常は、当初作成された構造化図面13をできるだけ完全に復元すべきであるからである。
ただし、構造化の際に復元が不要であることが予めわかっている構造要素12又は構造情報14は、条件の設定により抽出対象から適宜除外してもよい。
【0028】
図面片生成部23は、構造化図面13の一部を抽出して機械学習の認識対象として用いられる複数の図面片22を生成する。第1実施形態では、図面片生成部23は、正解データ生成部21が抽出した構造要素12及び構造情報14から、構造要素12の配置座標及び形状についての情報を抽出して、この情報を利用する。
【0029】
図面片生成部23は、この配置座標及び形状についての情報に基づいて、構造化図面13を分割して図面片22にする。構造化図面13を細分化したものを教師データにすることで、正解データが紐付けられる有形形状の選択肢が限定されることになるので効率的に学習することができる。
【0030】
また、関連性のない有形形状と正解データとが誤って紐付けられることを防止することができるので、正確な紐付けがなされ、学習効果が高くなる。さらに、学習が効果的で効率的になることで、教師データ数が少ない場合であっても、高い精度での構造化を実現することが可能になる。
【0031】
以下、構造要素12の配置座標及び形状についての情報に基づいた分割態様について、より詳細に説明する。
図4は、構造化図面13A(13)を模式的に表現したものであって、分割態様の一例を示す模式図である。
図4中のα〜ωは、いずれも面積又は長さを有する構造要素12を表す。
【0032】
例えば、構造化図面13Aは、
図4の構造要素α,β,γ等のように、抽出された構造要素12が各図面片22に1つ、その全体が含まれるように分割線42が入れられて分割される。
【0033】
ところで、構造要素12が多くなると、例えば構造要素δのように、他の複数の構造要素ε,κに重なる構造要素12が生じやすくなる。
第1実施形態では、重複部分する構造要素δ,ε,κに優先順位をつけて、優先順位の低い例えば構造要素δを分断する。
つまり、構造要素εを学習するための図面片22と、構造要素κを学習するための図面片22と、を優先的に生成する。
【0034】
ただし、分断により一部が欠損した構造要素δの図面片22も教師データとして利用しうる。よって、分割時の条件に構造要素12の分断が発生する場合にその分断数が少なくする分割条件を規定するが望ましい。
【0035】
ところで、図面片22を生成する基礎となる構造化図面13Aは電子データである。よって、位置座標の重複する構造要素12の一方を一旦削表示上から除して重複のない状態にして分割してもよい。
【0036】
さらに、同様に構造化図面13Aは電子データであってくり返しの使用ができるので、構造要素δ,ε,κのそれぞれについて、その全体を抽出して図面片22にしてもよい。つまり、構造要素δを分断して構造要素κ,εを抽出した後に、反対に構造要素κ,εを分断して構造要素δの全体が抽出されるように分割しなおしてもよい。
【0037】
1つの図面片22にできるだけ少ない個数の構造要素12の全体が含まれるよう分割することで、図面片22中の構造要素12と正解データとの対応関係がより高い精度で学習されることになる。つまり、このような図面片22は、図面片22に描かれた図形の全体形状と対応する正解データとが一対一に結び付けられるので、より質の高い教師データになる。
【0038】
深層学習部30は、例えば、ニューラルネットワーク31と、学習制御部32と、で構成される。
ニューラルネットワーク31とは、人工ニューロンがシナプス(ノード)の結合により形成したネットワークを数学的に表現したモデルのことである。ニューラルネットワーク31は、シミュレーションによって脳機能の特性を表現する。
【0039】
ここで、
図5は、ニューラルネットワーク31及び教師データを示す模式図である。
ニューラルネットワーク31においては、
図5に示されるように、入力を受け付けて出力を算出するユニット(ノード)の層が、複数積層されて互いに結合している。ユニットの出力は、総入力に対して、重みやバイアスを有する活性化関数の関数値として表現される。
【0040】
これらのユニットの層のうち端部の層であって認識対象を受け付ける層を入力層33、他方の最終的な出力をする層を出力層34、これら入力層33及び出力層34に挟まれた層を中間層35という。
【0041】
学習制御部32は、設定されたニューラルネットワーク31の中間層35の数、ユニット数、学習率、学習回数、及び活性化関数に基づいて、ニューラルネットワーク31の学習を制御する。作業員は、これらの設定内容を変更することで、学習態様を調節することができる。
【0042】
支援システム20で生成された図面片22は、ラスタ形式の画像として扱われて、入力層33に入力される。なお、図面片22は、ラスタ形式の画像に実際に変換されて用いられてもよい。また、構造化図面13Aに対応するラスタ形式の画像が既に用意されている場合には、この画像を分割して図面片22を作成してもよい。
【0043】
一方、正解データは、
図5に示されるように、出力層34に入力される。ニューラルネットワーク31は、図面片22と正解データとの相関関係を分析して学習することで、図面片22と同様の特徴を有する画像に適当な正解データを付与することを習得する。そして、学習済みニューラルネットワーク36が学習システム10の生成物になる。
【0044】
次に、第1実施形態に係る図面機械学習方法を
図6のフローチャートを用いて説明する(
図1〜
図4を適宜参照)。
【0045】
まず、正解データ生成部21が構造化図面13Aを読み込んで、正解データを生成する(S11)。正解データ生成部21は、構造化図面13Aから構造要素12及び構造情報14を抽出して、適宜、設定に基づいてこれらの情報のうち不要なものを除去して正解データにする。
次に、学習制御部32が、生成された正解データを取得して出力層34に入力する(S12)。
【0046】
一方、図面片生成部23は、抽出された構造要素12及び構造情報14のうちから、構造要素12の位置座標及び形状を取得する(S13)。
そして、図面片生成部23は、取得した位置座標及び形状に基づいて、構造化図面13Aを分割して図面片22を生成する(S14)。第1実施形態では、前述のように、構造要素12の位置座標等の情報に基づいて、1つの図面片22にできるだけ1つの構造要素12の全体が含まれるように分割する。
【0047】
学習制御部32は、図面片生成部23が生成した図面片22を教師データとして入力層33に入力する(S15)。
そして、ニューラルネットワーク31は、学習制御部32の制御のもとで、図面片22と正解データとの相関関係を分析して構造化を学習する(S16,END)。
【0048】
なお、これら支援システム20及び深層学習部30の各動作は、プログラムに沿ってコンピュータで実行してもよい。
例えば、支援システム20及び深層学習部30は、CPU、GPU(graphics processing units)等のプロセッサ、ROM(Read Only Memory)、RAM(Random Access Memory)、或いはHDD(Hard Disk Drive)等の記憶装置、を具備するコンピュータとして構成することができる。
【0049】
この場合、
図1に示す各部のうち、正解データ生成部21、図面片生成部23、及び学習制御部32の機能は、記憶装置に記憶された所定のプログラムをプロセッサが実行することによって実現することができる。
また、このようなソフトウェア処理に換えて、ASIC(Application Specific Integration Circuit)やFPGA(Field-Programmable Gate Array)等のハードウェアで実現することもできる。
【0050】
さらに、支援システム20及び深層学習部30は、ソフトウェア処理とハードウェアによる処理を組み合わせて実現することもできる。また、
図1に示す構成のうち、ニューラルネットワーク31は、条件データ又は判断プログラムとしてROM又はRAM等の記憶装置に記憶される。
【0051】
以上のように、第1実施形態に係る支援システム20によれば、特定の正解データに対応する学習基礎の範囲を限定することで、深層学習部30における構造化の学習の精度を向上させることができる。
つまり、第1実施形態に係る支援システム20によれば、未構造化図面を自動で構造化する際の構造化の精度を向上させることができる。
【0052】
また、学習の精度が向上することで、より少ない構造化図面13で、構造化の精度を維持可能なニューラルネットワーク31を生成することができる。
【0053】
(第2実施形態)
図7は、第2実施形態における構造化図面13B(13)の分割態様を説明する模式図である。
【0054】
第2実施形態に係る支援システム20では、
図7に示されるように、重なり合う2以上の構造要素δ,κがある場合に、図面片22は、特定の構造要素δ及び他の構造要素κの両方を含むように抽出される。
【0055】
図面片22中で重なり合っている構造要素12は、構造化の対象になるラスタ画像11中でも同様に重なり合っている可能性が高い。また、重なり合っている構造要素12どうしは、構造情報14においても何かしらの関連付けがなされている可能性が高い。さらに、形状は同一であるが構造情報14に差異があるような複数の構造要素12がある場合、周辺の構造要素12との位置関係によって初めてこれらの区別がなされる場合もある。
【0056】
よって、各構造要素12を単独で抽出した図面片22よりも、これら重なり合う構造要素12の両方の全体を含むような図面片22の方が、教師データとして適切である場合もある。そこで、第2実施形態では、図面片生成部23は、これら重なり合っている構造要素12の両方を含むように構造化図面13Bを分割する。
【0057】
このとき、構造化の学習対象として着目されている構造要素12(例えば構造要素δ)については、その全体が図面片22に含まれていることが好ましい。一方、学習対象として着目されていない構造要素12(例えば構造要素κ)については、必ずしも、その全体が図面片22に含まれている必要はない。着目されていない構造要素κは、着目されている構造要素12の特定の助けとしての役割りを果たせば十分だからである。
【0058】
ところで、構造要素12どうしは重なりあっていないが、構造情報14に関連付けがなされている場合もある。この場合も、関連付けられている2以上の構造要素12を含むように分割するのが望ましい。
一方、構造要素12の重なり合い又は構造情報14どうしの関連付けが多い場合、例えば関連度合いの小さい構造要素12は切り離すなどの所定の除外条件を設けることが望ましい。
【0059】
なお、重なり合う又は互いに関連付けがある2以上の構造要素12をいずれも含むように分割すること以外は、第2実施形態は第1実施形態と構成的にも動作的にも同様となるので、重複する説明を省略する。
【0060】
このように、第2実施形態に係る支援システム20によれば、関連性の強い周辺の構造要素12を含めた図面片22を作成することができるので、未構造化図面を自動で構造化する際の構造化の精度を向上させることができる。
【0061】
また、第1実施形態で作成される図面片22及び第2実施形態で作成される図面片22を適宜組み合わせて教師データを作成することで、より効果的な学習ができるので、より構造化の精度を向上させることができる。
【0062】
(第3実施形態)
図8は、第3実施形態に係る構造化システム50の概略構成図である。
また、
図9は、第3実施形態における構造化図面13C(13)の分割態様を説明する模式図である。
また、
図10は、第3実施形態の変形例における構造化図面13D(13)の分割態様を説明する模式図である。
第3実施形態に係る支援システム20は、
図8に示されるように、図面片生成部23Aに、分割数決定部24を備える。
【0063】
第3実施形態においては、図面片生成部23Aは、第1実施形態等と同様に、正解データ生成部21Aが抽出した構造要素12及び構造情報14から、構造要素12の配置座標及び形状についての情報を抽出する。
そして、第3実施形態では、図面片生成部23Aが、構造化図面13Cを定形の縦メッシュ46a及び横メッシュ46bを設定して、このメッシュ46(46a,46b)に沿って構造化図面13Cを分割する。
【0064】
分割数決定部24は、構造化図面13Cにおける構造要素12の配置関係に基づいて、縦メッシュ46a及び横メッシュ46bそれぞれの間隔及び本数を決定する。分割数決定部24は、本数の決定した縦メッシュ46aごと又は横メッシュ46bごとにまとめて上下又は左右に移動させて、メッシュ46の最適位置を決定する。分割数決定部24は、
図9に示されるように、各メッシュ46間の間隔を等間隔にしてもよいし、
図10に示されるように、構造要素12の配置状態等を加味して夫々異なる間隔にしてもよい。
【0065】
ところで、第3実施形態のようなメッシュ46による分割では、生成した図面片22には、例えば
図9及び
図10の図面片Ωのように、構造要素12が含まれないものも含まれる。そこで、図面片生成部23Aは、特に既に教師データが十分にある場合などには、構造要素12を含まない図面片Ωを教師データから除外するのが望ましい。
【0066】
ただし、正解データとなる構造要素12を含まない図面片22であっても、この図面片22中に、描画領域とその周辺領域とを仕切る枠線などの有形形状を含む場合もある。このような正解データと紐付けがなされていない有形形状が含まれる図面片22も、正解データとの紐付けのない有形形状を特定するのに役立つ。よって、正解データと紐付けがなされていない有形形状のみが含まれる図面片22も、除外対象にせずに、教師データに含ませるのが好ましい。
【0067】
なお、構造要素12の配置状態に基づいてメッシュ46により分割すること及び教師データとして価値の低い図面片22を教師データから除去すること以外は、第3実施形態は第1実施形態と構成的にも動作的にも同様となるので、重複する説明を省略する。
【0068】
このように、第3実施形態に係る支援システム20によれば、第1実施形態の効果に加え、構造化図面13の単純な決定過程で分割態様を決定することができる。
【0069】
(第4実施形態)
図11は、第4実施形態に係る学習システム10の概略構成図である。
また、
図12は、第4実施形態における構造化図面13Eの分割態様を説明する模式図である。
【0070】
第4実施形態に係る支援システム20は、
図11に示されるように、図面片生成部23Bが先行して構造化図面13Eを分割して、分割してできた図面片22から正解データ生成部21Bが正解データを生成する。
【0071】
例えば、構造要素12の配置状態から導き出される分割規則に従って分割して図面片22を生成した場合、この分割規則によって、却って特定の特徴量の学習が阻止されることもある。そこで、第4実施形態では、構造要素12の配置状態を認識せずに図面片生成部23Bが構造化図面13Eを分割して図面片22を生成する。
【0072】
ただし、このような分割態様では、例えば構造要素12のような長い辺を有する構造要素12が細分化されてしまい、教師データとしての価値が低い図面片22が大量に発生するおそれがある。そこで、図面片生成部23Bは、正解データ生成部21Bが抽出した構造要素12を参照して、構造要素12が分割して含まれる隣り合う図面片22を適宜再結合させるのが望ましい。
例えば、
図12に示されるように、長い辺を有する構造要素α,κを部分的に含む図面片22が再結合されて、それぞれ再結合された全体が一つの教師データになる。
【0073】
なお、構造要素12の配置状態によらずに分割をすること及び図面片22の再結合をすること以外は、第4実施形態は第1実施形態と構成的にも動作的にも同様となるので、重複する説明を省略する。
【0074】
このように、第4実施形態に係る支援システム20によれば、第1実施形態の効果に加え、図面片22中への構造要素12の抽出態様の偏向が軽減されるので、構造要素12の配置状態に基づいて分割した場合に欠落しうる特徴量をも学習することができる。また、図面片22を適宜再結合させることで、教師データとしての価値が低い傾向にある図面片22の価値を高めることができる。
【0075】
(第5実施形態)
図13は、第5実施形態に係る図面構造化システム50(以下、単に「構造化システム50」という)の概略構成図である。
【0076】
第5実施形態に係る構造化システム50は、
図13に示されるように、構造化部55と、結合部52と、を主に備える。
このような構成によって、構造化システム50は、学習済みニューラルネットワーク36を用いてラスタ画像11のデータ構造化をする。
【0077】
構造化部55は、第1実施形態から第4実施形態で説明した学習システム10によってデータ構造化を学習した学習済みニューラルネットワーク36を保持する。そして、この学習済みニューラルネットワーク36を用いて、構造化部55は、ラスタ画像11中の有形形状をデータ構造化する。
【0078】
データ構造化の際、その前段階として、ラスタ画像11を分割して画像片(ラスタ画像片)53を生成するのが望ましい。例えば、構造化システム50に画像片生成部54を設けて、この画像片生成部54で教師データの図面片22と同程度の大きさのラスタ画像片53を生成する。ラスタ画像11を分割して構造化部55が認識する範囲を図面片22と同程度にすることで、構造化部55は、学習した相関関係をそのまま用いてデータ構造化をすることができる。
【0079】
なお、ラスタ画像片53を生成せずに、データ構造化を行うこともできる。例えば、構造化部55がラスタ画像11上に着目範囲を設定して、この着目範囲を滑らかに走査させる。そして、着目範囲中に構造要素12等の構造要素12に対応する有形形状が含まれた場合に、構造化部55はこの着目範囲内のデータ構造化をする。
このように、図面片22ごと又は着目範囲ごとに、有形形状に対応する構造要素12及び構造情報14が付与される。このような図面片22ごと又は着目範囲ごとに付与された構造要素12及び構造情報14を、構造化データ片56という。
【0080】
また、構造化システム50は、基準データ保持部57を備えた誤変換修正部58によってデータ構造化時の誤変換を修正することが望ましい。基準データ保持部57は、構造要素12の夫々についての正誤を判定可能な基準データを保持する。基準データは、教師データとは別個に、誤変換のパターンとこの誤変換に対する正解の組をデータ化したものである。誤変換修正部58は、構造化データ片56に含まれる構造要素12の誤変換を、この基準データに基づいて修正する。
【0081】
結合部52は、全ての隣り合う構造化データ片56を結合して結合図面データ60を生成する。この結合部52の後段には、結合図面データ60中の結合の不整合を修正する不整合箇所修正部59が設けられるのが望ましい。不整合箇所修正部59は、結合図面データ60を走査して、予め保持された正解条件に基づいて結合の不整合を修正する。
【0082】
例えば、1本の配線を共有する連続する2つの画像片53において、一方の画像片53では配線を構造要素12として認識できなかったとする。このとき、これらの画像片53に対応する2つの構造化データ片56を結合すると、結合図面データ60では不連続に配線が出現することになる。
【0083】
不整合箇所修正部59は、このような不連続に出現した構造要素12が不整合であるか否かを判断するための判断条件又は不整合パターンを予め保持する。そして、不整合箇所修正部59は、構造要素12の不連続な出現等の不整合性を検出して、不整合性を解消するように修正する。例えば、不整合箇所修正部59は、1本の配線の欠損部分を前後の構造化データ片56で補間する。
【0084】
また、不整合箇所修正部59は、例えば、結合した2つの構造化データ片56間で同一であるべき構造要素12が異なるものである場合に、一方を他方に置き換える。このようにして不整合箇所が修正された結合図面データ60が、ラスタ画像11のデータ構造化で復元される最終生成物になる。
【0085】
ところで、構造化システム50の利用回数が増加すると、基準データに従って修正した誤変換パターンの数も増加する。誤変換修正部58は、これらの誤変換パターン及び修正パターンのデータを蓄積して、これらのデータを教師データとして誤変換修正のための機械学習機能を有してもよい。教師データを機械学習で解析することで、予め保持した基準データに含まれない誤変換パターンも拡張して検出して修正することができる。
【0086】
また、同様にデータ構造化の回数が増加すると、不整合性の判断条件に従って修正した不整合パターン及びその修正パターンの数も増加する。不整合箇所修正部59も同様に、これらの不整合パターン及び修正パターンのデータを蓄積して、これらのデータを教師データとして不整合性修正のための機械学習機能を有してもよい。
【0087】
なお、第1実施形態から第4実施形態のいずれかで学習した学習済みニューラルネットワーク36でラスタ画像11を構造化すること以外は、第5実施形態は第1実施形態と構成的にも動作的にも同様となるので、重複する説明を省略する。
【0088】
このように、第5実施形態に係る構造化システム50によれば、ラスタ画像11を高い精度で自動で構造化することができる。
【0089】
(第6実施形態)
図14は、第6実施形態に係る構造化システム50の概略構成図である。
【0090】
第6実施形態に係る構造化システム50は、
図14に示されるように、ラスタ画像11中に付与されたマーカー66を照合させながら構造化データ片56を結合する。具体的には、構造化システム50は、例えば、第5実施形態の構成に加えて、マーカー付加部61と、マーカー継承部62と、マーカー照合部63と、を備える。
【0091】
マーカー付加部61は、隣り合う画像片53の境界部分に自己特定情報(ID)を含むマーカー66を付加する。マーカー66のIDとは、例えば、マーカー66の付加位置又はラベル名である。
【0092】
ここで、
図15は、マーカー66が付与されたラスタ画像11の一例を示す図である。
また、
図16は、第6実施形態におけるマーカー66の引き継ぎ態様を説明する図である。
【0093】
マーカー66は、
図15に示されるように、分割線42によって分割する場合の分割線42上であって、例えば構造要素12に変換されうる有形形状との交点に付加される。
分割線42上に付加されたマーカー66は、
図16に示されるように、ラスタ画像11の分割によって分かれた2以上の画像片53の境界部分に、2以上に分かれて付加されることになる。
【0094】
マーカー継承部62は、構造化部55に設けられて、マーカー66の形式を結合部52が読み込み可能な形式に変換して、各画像片53に対応する構造化データ片56に引き継がせる。
【0095】
マーカー照合部63は、結合部52に設けられて、構造化データ片56に引き継がれたマーカー66を照合する。結合部52は、この照合に基づいて、マーカー66が復元されるように構造化データ片56どうしを結合させる。
つまり、2以上の構造化データ片56に分断して含まれている構造要素12を、同様に分断されて含まれるマーカー66が一つになるように、結合して一つの構造要素12にする。
【0096】
なお、付加したマーカー66に基づいて構造化データ片56を結合させること以外は、第6実施形態は第1実施形態と構成的にも動作的にも同様となるので、重複する説明を省略する。
【0097】
このように、第6実施形態に係る構造化システム50によれば、第5実施形態の効果に加え、構造化データ片56の誤結合の発生を低減することができる。
【0098】
(第7実施形態)
図17は、第7実施形態に係る学習機能付き構造化システム100(以下、単に「学習機能付きシステム100」という)の概略構成図である。
【0099】
第7実施形態に係る学習機能付きシステム100は、
図17に示されるように、第1実施形態等で説明した学習システム10と、第5実施形態で説明した構造化システム50と、を備える。
さらに、学習機能付きシステム100は、フィードバック部67を備える。
【0100】
フィードバック部67は、誤変換又は不整合が発生した画像片53又はラスタ画像11、及び基準データ又は正解条件を教師データとして深層学習部30にフィードバックする。この基準データ及び正解条件には、予め規定させたものに加えて、第5実施形態で説明した誤変換修正部58又は不整合箇所修正部59内で機械学習したものも含まれてもよい。
【0101】
誤変換又は結合の不整合が発生した画像片53又はラスタ画像11は、認識対象として深層学習部30のニューラルネットワーク31の入力層33に入力される。
一方、基準データ又は正解条件のうち修正後のデータは、正解データとして出力層34に入力される。
【0102】
そして、学習制御部32の制御のもと、ニューラルネットワーク31による再学習がなされる。構造化部55に既に保持されており誤変換又は結合の不整合を発生させた学習済みニューラルネットワーク36は、再学習がなされたものに置き換えられる。
なお、フィードバックによる再学習は、誤変換又は不整合の発生の都度行われてもよいし、一定量が蓄積された際又は一定時間経過後にまとめて行ってもよい。
【0103】
なお、誤変換修正部58又は不整合箇所修正部59の結果を教師データとしてニューラルネットワーク31に再学習させること以外は、第7実施形態は第5実施形態と構成的にも動作的にも同様となるので、重複する説明を省略する。
【0104】
このように、第7実施形態に係る学習機能付きシステム100によれば、構造化する過程で発生した誤変換又は不整合の修正内容を構造化に反映させることができる。
【0105】
以上述べた少なくとも一つの実施形態の支援システム20によれば、未構造化図面を自動で構造化する際の構造化の精度を向上させることが可能になる。
【0106】
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。
これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更、組み合わせを行うことができる。
これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。