(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024117890
(43)【公開日】2024-08-30
(54)【発明の名称】画像解析装置、画像解析方法及びプログラム
(51)【国際特許分類】
G06T 7/00 20170101AFI20240823BHJP
G06Q 50/08 20120101ALI20240823BHJP
【FI】
G06T7/00 Z
G06Q50/08
【審査請求】未請求
【請求項の数】6
【出願形態】OL
(21)【出願番号】P 2023023961
(22)【出願日】2023-02-20
(71)【出願人】
【識別番号】504209655
【氏名又は名称】国立大学法人佐賀大学
(74)【代理人】
【識別番号】100095407
【弁理士】
【氏名又は名称】木村 満
(74)【代理人】
【識別番号】100133592
【弁理士】
【氏名又は名称】山口 浩一
(74)【代理人】
【識別番号】100147924
【弁理士】
【氏名又は名称】美恵 英樹
(74)【代理人】
【識別番号】100148633
【弁理士】
【氏名又は名称】桜田 圭
(74)【代理人】
【識別番号】100162259
【弁理士】
【氏名又は名称】末富 孝典
(74)【代理人】
【識別番号】100146916
【弁理士】
【氏名又は名称】廣石 雅紀
(74)【代理人】
【識別番号】100199772
【弁理士】
【氏名又は名称】山▲崎▼ 公輔
(72)【発明者】
【氏名】三島 伸雄
【テーマコード(参考)】
5L049
5L050
5L096
【Fターム(参考)】
5L049CC07
5L050CC07
5L096FA02
5L096FA09
5L096FA32
5L096MA07
(57)【要約】
【課題】建築物画像を好適に解析可能な画像解析装置等を提供する。
【解決手段】クラスタリング部102は、入力された画像データに含まれる建築物画像の特徴点を分析することで、該建築物を複数種類のグループのいずれかにクラスタリングする。クラスタリング部102は、クラスタリングの際の分析結果をアテンションマップ導出部103に入力する。アテンションマップ導出部103は、クラスタリング部102から入力された分析結果に基づいて、クラスタリング部102がクラスタリングした際の、建築物の画像における各部分の注目度合いを示したアテンションマップを導出する。出力部104は、入力されたクラスタリング結果及びアテンションマップを外部出力する。
【選択図】
図1
【特許請求の範囲】
【請求項1】
建築物の画像を含む画像データを取得する画像取得部と、
前記画像取得部が取得した画像データに含まれる建築物の特徴点を分析することで、該建築物を複数種類のグループのいずれかにクラスタリングするクラスタリング部と、
前記クラスタリング部がクラスタリングした際の、前記画像データに含まれる建築物の各部分の注目度合いを示したアテンションマップを導出するアテンションマップ導出部と、
前記クラスタリング部によるクラスタリング結果と、前記アテンションマップ導出部により導出された前記アテンションマップと、を出力する出力部と、
を備える画像解析装置。
【請求項2】
前記アテンションマップ導出部は、
前記画像データにおける注目度合いを色分けして示す特徴マップを生成し、
前記特徴マップにおける各色にスコアを付け、
前記画像データにおける建築物の部分を分割し、
前記特徴マップと、分割した結果と、を結合して分割した各部分の平均スコアを算出し、
前記各部分の平均スコアを示す前記アテンションマップを導出する、
請求項1に記載の画像解析装置。
【請求項3】
前記アテンションマップの評価データを取得する評価データ取得部と、
前記評価データに基づいて、前記クラスタリング部のパラメータを調整する調整部と、
を備える請求項1または2に記載の画像解析装置。
【請求項4】
画像取得部は、前記画像から建築物の画像を抽出する抽出部を備える
請求項1または2に記載の画像解析装置。
【請求項5】
建築物の画像を含む画像データを取得し、
取得した画像データに含まれる建築物の特徴点を分析することで、該建築物を複数種類のグループのいずれかにクラスタリングし、
クラスタリングした際の、前記画像データに含まれる建築物の各部分の注目度合いを示したアテンションマップを導出し、
クラスタリング結果と、前記アテンションマップと、を出力する、
画像解析方法。
【請求項6】
コンピュータを、
建築物の画像を含む画像データを取得する画像取得部、
前記画像取得部が取得した画像データに含まれる建築物の特徴点を分析することで、該建築物を複数種類のグループのいずれかにクラスタリングするクラスタリング部、
前記クラスタリング部がクラスタリングした際の、前記画像データに含まれる建築物の各部分の注目度合いを示したアテンションマップを導出するアテンションマップ導出部、
前記クラスタリング部によるクラスタリング結果と、前記アテンションマップ導出部により導出された前記アテンションマップと、を出力する出力部、
として機能させるプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、画像解析装置、画像解析方法及びプログラムに関する。
【背景技術】
【0002】
推定対象の地域に存在する各建物をその建物に住む住人と共にモデル化して、町並み移り変わりを推定する推定方法が提案されている(例えば特許文献1)。特許文献1に記載の技術では、建物と住人のモデル化過程において、建物の外観を複数種類のいずれかに分類する。
【先行技術文献】
【特許文献】
【0003】
【発明の概要】
【発明が解決しようとする課題】
【0004】
例えば、歴史的町並みの景観評価等において、建築物の外観を解析し、客観的に分類、評価する技術が望まれる。
【0005】
本発明は、上記実情に鑑みて成されたものであり、建築物画像を好適に解析可能な画像解析装置等を提供することを目的とする。
【課題を解決するための手段】
【0006】
上記目的を達成するため、本発明の画像解析装置は、
建築物の画像を含む画像データを取得する画像取得部と、
前記画像取得部が取得した画像データに含まれる建築物の特徴点を分析することで、該建築物を複数種類のグループのいずれかにクラスタリングするクラスタリング部と、
前記クラスタリング部がクラスタリングした際の、前記画像データに含まれる建築物の各部分の注目度合いを示したアテンションマップ(例えば、ヒートマップを含む)を導出するアテンションマップ導出部と、
前記クラスタリング部によるクラスタリング結果と、前記アテンションマップ導出部により導出された前記アテンションマップと、を出力する出力部と、
を備える。
【0007】
前記アテンションマップ導出部は、
前記画像データにおける注目度合いを色分けして示す特徴マップを生成し、
前記特徴マップにおける各色にスコアを付け、
前記画像データにおける建築物の部分を分割し、
前記特徴マップと、分割した結果と、を結合して分割した各部分の平均スコアを算出し、
前記各部分の平均スコアを示す前記アテンションマップを導出するようにしてもよい。
【0008】
前記アテンションマップの評価データを取得する評価データ取得部と、
前記評価データに基づいて、前記クラスタリング部のパラメータを調整する調整部と、
を備えるようにしてもよい。
【0009】
画像取得部は、前記画像から建築物の画像を抽出する抽出部を備えるようにしてもよい。
【0010】
上記目的を達成するため、本発明の画像解析方法は、
建築物の画像を含む画像データを取得し、
取得した画像データに含まれる建築物の特徴点を分析することで、該建築物を複数種類のグループのいずれかにクラスタリングし、
クラスタリングした際の、前記画像データに含まれる建築物の各部分の注目度合いを示したアテンションマップを導出し、
クラスタリング結果と、前記アテンションマップと、を出力する。
【0011】
上記目的を達成するため、本発明のプログラムは、
コンピュータを、
建築物の画像を含む画像データを取得する画像取得部、
前記画像取得部が取得した画像データに含まれる建築物の特徴点を分析することで、該建築物を複数種類のグループのいずれかにクラスタリングするクラスタリング部、
前記クラスタリング部がクラスタリングした際の、前記画像データに含まれる建築物の各部分の注目度合いを示したアテンションマップを導出するアテンションマップ導出部、
前記クラスタリング部によるクラスタリング結果と、前記アテンションマップ導出部により導出された前記アテンションマップと、を出力する出力部、
として機能させる。
【発明の効果】
【0012】
本発明によれば、建築物画像を好適に解析できる。
【図面の簡単な説明】
【0013】
【
図1】本実施の形態に係る画像解析装置の機能ブロック図である。
【
図2】本実施の形態に係る画像解析装置のハードウェア構成例を示す図である。
【
図3】画像解析処理の一例を示すフローチャートである。
【
図4】アテンションマップ導出の処理例を示す図である。
【
図5】(A1)、(A2)、(B1)、(B2)は建築物の画像データ例である。
【
図6】(A)~(D)は、アテンションマップの導出方法を説明するための図である。
【
図7】クラスタリング結果の出力例を示す図である。
【
図8】クラスタ別の各部分の注視度合いの出力例を示す図である。
【
図9】クラスタリング部調整処理の一例を示すフローチャートである。
【
図10】強化学習によるクラスタリング部のチューニングのイメージを示す図である。
【発明を実施するための形態】
【0014】
以下、本発明の実施の形態の画像解析装置10について、図面を参照しながら説明する。なお、図中同一または対応する部分には同一符号を付す。
【0015】
本発明の実施の形態の画像解析装置10は、伝統的建築物、歴史的建築物等の建築物の画像データを取り込み、該画像データに含まれる建築物画像を解析する装置である。具体的には、画像解析装置10は、取り込んだ画像データに含まれる建築物画像の特徴点を教師なし学習により分析することで、該建築物を複数種類のグループのいずれかにクラスタリングする。そして、クラスタリングした際の、建築物の画像における各部分の注目度合いを示したアテンションマップを導出する。この実施の形態では、画像における各部分の注目度合いを可視化した図をアテンションマップと呼ぶ。なお、アテンションマップは、他の名称であってもよく、例えばヒートマップ等でもよい。
【0016】
図1は、画像解析装置10の機能構成を示す機能ブロック図である。画像解析装置10は、画像取得部101と、クラスタリング部102と、アテンションマップ導出部103と、出力部104と、評価データ取得部105と、調整部106と、から構成される。
【0017】
画像取得部101は、建築物の立面画像を含む画像データを外部から取得する。言い換えると、画像取得部101により、画像解析装置10に画像データを入力する。画像取得部101は、取得した画像データをクラスタリング部102に入力する。
【0018】
クラスタリング部102は、教師なし学習の所定のアルゴリズムにより、入力された画像データに含まれる建築物画像の特徴点を分析することで、該建築物を複数種類のグループ(クラスタ)のいずれかにクラスタリングする。クラスタリング部102は、クラスタリングの際の分析結果をアテンションマップ導出部103に入力する。また、クラスタリング部102は、クラスタリング結果を出力部104に入力する。
【0019】
アテンションマップ導出部103は、クラスタリング部102から入力された分析結果に基づいて、クラスタリング部102がクラスタリングした際の、建築物の画像における各部分の注目度合いを示したアテンションマップを導出する。アテンションマップ導出部103は、導出したアテンションマップを出力部104に入力する。
【0020】
出力部104は、入力されたクラスタリング結果及びアテンションマップを外部出力する。
【0021】
評価データ取得部105は、外部からアテンションマップの評価データを取得し、取得した評価データを調整部106に入力する。
【0022】
調整部106は、入力された評価データに基づいて、クラスタリング部102のパラメータを調整する。
【0023】
なお、画像解析装置10は、これら以外の構成を備えていてもよい。
【0024】
画像解析装置10は、メインフレームやワークステーション、あるいはパーソナルコンピュータ(PC)などの1又は複数の物理的な情報処理装置等から構成されていてもよいし、ハイパーバイザー(hypervisor)上で動作する仮想的な情報処理装置を用いて構成されていてもよいし、クラウドサーバを用いて構成されていてもよい。また、画像解析装置10は、専用の装置であってもよい。
【0025】
図2は、画像解析装置10のハードウェア構成例を示す図である。画像解析装置10は、CPU(Central Processing Unit)、GPU(Graphical Processing Unit)等のプロセッサ11、RAM(Random Access Memory)、ROM(Read Only Memory)、不揮発性メモリ、HDD(Hard Disk Drive)及び/又はSSD(Solid State Drive)、メモリカード等の記憶装置12、有線又は無線通信を行う通信インタフェース13、入力操作を受け付ける入力デバイス14、及び情報の出力を行う出力デバイス15を有する。入力デバイス14は、例えば、キーボード、タッチパネル、マウス及び/又はマイク等である。出力デバイス15は、例えば、ディスプレイ及び/又はスピーカ等である。
【0026】
プロセッサ11が記憶装置12に記憶されるプログラムを読み込むことで、
図1に示す各種機能部として動作する。
【0027】
続いて、画像解析装置10の動作について説明する。
図3は、画像解析装置10が実行する画像解析処理の一例を示すフローチャートである。画像解析装置10のプロセッサ11が、記憶装置12に記憶される動作プログラムを読み込むことで画像解析処理を実行する。
【0028】
画像解析処理において、先ず、画像解析装置10の画像データ取得部101が、建築物立面の画像データを取得する(ステップS11)。ここでは、複数の画像データを複数のグループのいずれかにクラスタリングするため、複数の画像データを取得する。建築物立面の画像データは、例えば
図5(A1)、(B1)に示すように、伝統的建築物を撮影した画像データから、トリミング等の画像処理により建築物部分を抽出し、障害物等のバイアス部分を除去、補完した、
図5(A2)、(B2)に示すような画像データであればよい。
【0029】
この実施の形態の画像解析装置10は、
図5に示すような、屋根、外壁、窓、扉等が特徴的な伝統的建築物を年代別、地域別にグループ分けすることを目標としている。なお、伝統的建築物以外の建築物をグループ分けするようにしてもよい。
【0030】
画像解析装置10のクラスタリング部102が、画像データ取得部101により取得した複数の建築物立面の画像データを、所定のアルゴリズムによりクラスタリングを行う(ステップS12)。
【0031】
ステップS12では、例えば、教師なし学習のイメージクラシフィケーション(画像分類)とセグメンテーション(分割)の手法であるICC(Invariant Information Clustering)を用いて建築物立面の画像データをクラスタリングする。クラスタの数は、入力する建築物立面の画像データに応じて予め定められていればよい。例えば、屋根、外壁、窓、扉の組合せに応じた数が設定される。
【0032】
ICCでは、入力された建築物立面の画像データxに基づいて、xのペアとなるx’を生成する。具体的には、xを幾何学的に変形させたり、コントラストを変えることでx’を生成する。そして、ニューラルネットワークにx及びx’を入力し、出力(予測クラスタ)の相互情報量が最大になるようにネットワークを学習する。
【0033】
なお、クラスタリングのアルゴリズムとして、他のアルゴリズムを採用してもよい。例えば、クラスタ数を自動設定するアルゴリズムを採用してもよい。
【0034】
続いて、画像解析装置10のアテンションマップ導出部103が、入力された各画像データのアテンションマップを導出する(ステップS13)。
【0035】
図4は、ステップS13における処理例を示す図である。ステップS13では、アテンションマップ導出部103は、先ず、入力された各画像データについて、例えば、Grand-CAM(Gradient-weighted Class Activation Mapping)アルゴリズムを利用して、ステップS12におけるクラスタリングの際の画像データの注視度合い(注目度合い)で色分けして可視化した特徴マップを生成する(ステップS131)。
【0036】
例えば、
図6(A)に示す建築物立面の画像データに基づいて生成された特徴マップの一例を
図6(B)に示す。
図6(B)では、注視度合いが高い部分の色が濃く表示されている。
図6(B)では、窓や扉の部分の注視度合いが高いことが分かる。なお、特徴マップは、色の違い、濃度等により注視度合いを表示するものであればよい。
【0037】
続いて、アテンションマップ導出部103は、特徴マップにおける各地点(色)についてスコアを付ける(ステップS132)。即ち、建築物の画像データにおける地点毎の注視度合いをスコア化する。スコアの付け方は各地点(色)の注視度合いをスコア化できればよい。例えば、注視度合いが最も高く、最も色の濃い地点(画素)を100点、注視度合いが最も低く最も色の薄い地点を0点として、他の地点を100点満点で相対評価する。
図6(B)における数値は、各地点のスコアを示している。画像データを所定の画素数毎のエリアに分けて、エリアの平均点を算出してエリア毎にスコアを付けるようにしてもよい。
【0038】
次に、アテンションマップ導出部103は、セマンティックセグメンテーションにより、建築物立面の画像データ中の建築物の各部分(屋根、窓、扉、壁等)を分割する(ステップS133)。ステップS133では、建築物の画像データにセマンティックセグメンテーションを実施し、建築物の部分(パーツ)を抽出し、各部分にラベルを付ける。
図6(C)は、セマンティックセグメンテーションの実施結果である。ここでは、
図6(C)に示すように、建築物の部分として、屋根、窓、扉、壁が抽出されたものとして説明する。
【0039】
そして、アテンションマップ導出部103は、スコア付けされた特徴マップ(
図6(B))と、セマンティックセグメンテーションの結果(
図6(C))と、を結合(重ね合わせ)して建築物の各部分の平均スコアを算出する(ステップS134)。このようにして、
図6(D)に示すような、セマンティックセグメンテーションの結果に、スコアを重畳したアテンションマップが導出される(ステップS135)。
図6(D)では、各部分の注視度合いが%で示されている。
【0040】
図3に戻り、画像解析装置10の出力部104は、ステップS12におけるクラスタリング部102によるクラスタリング結果、及び、ステップS13においてアテンションマップ導出部103によって導出されたアテンションマップを出力する(ステップS14)。出力部104は、例えば、出力デバイス15としてのディスプレイ等にクラスタリング結果及びアテンションマップを表示する。また、出力部104は、ユーザの操作に応じてプリンタにクラスタリング結果及びアテンションマップを出力するようにしてもよい。その後、画像解析処理を終了する。
【0041】
図7は、クラスタリング結果の出力例を示す。
図7では、建築物a~建築物hの画像データについて画像解析処理を実行した結果として、クラスタ1~4の4つのクラスタにクラスタリングされた結果を示している。なお、サンプルとなる画像データ数やクラスタ数は一例である。また、クラスタリング結果は、
図7に示すように、同一形状の建築物が同一クラスタに分類される場合ばかりではなく、他のクラスタに分類される場合ももちろんある。
【0042】
アテンションマップは、
図6(D)に示すように建築物画像を各部分に分割し、各部分についてのスコアが示された画像であり、画像解析装置10に入力された各画像データについてのアテンションマップが出力される。これにより、各画像データに含まれる建築物について、画像解析装置10が注目した部分を把握でき、クラスタリングの方法を評価できる。
【0043】
また、クラスタ別のアテンションマップにおける注視度をまとめて出力するようにしてもよい。例えば、
図8に示すように、クラスタ別に各部分の注視度合い(スコア)の平均値や中央値をまとめて出力するようにしてもよい。このようにすることで、各クラスタに含まれる建築物について、画像解析装置10が注目した部分を把握でき、建築物の形状や様式、年代等に応じたクラスタリングの方法を評価できる。
【0044】
本実施形態の画像解析装置10では、アテンションマップについての評価データを入力し、入力された評価データに基づいて、クラスタリングのパラメータを調整できるようになっている。
【0045】
例えば、画像解析装置10により出力されたクラスタリング結果やアテンションマップを、専門家による建築物の年代、地域の分類データ、専門家が建築物を編年した編年データ、分類や編年する際の注視点、建築年代が特定される建築物の特徴点等と比較することで、アテンションマップを評価し、各アテンションマップに得点を付ける。その得点を付けたデータが評価データとなる。
【0046】
例えば、クラスタリング結果が想定通りのクラスタに分類されている建築物のアテンションマップに高得点を付け、想定外のクラスタに分類されている建築物のアテンションマップには低得点を付ける。また、想定通りのクラスタに分類されている建築物のアテンションマップを抽出し、そのアテンションマップにおける注視度合い(スコア)が、専門家の注視点や建築物の特徴点と一致している場合、高得点を付ける。このように採点されたアテンションマップの評価データを画像解析装置10に入力する。
【0047】
図9は、アテンションマップの評価データに基づいて、クラスタリング部102のパラメータを調整するクラスタリング調整処理の一例を示すフローチャートである。クラスタリング調整処理では、画像解析装置10の評価データ取得部105が、外部から入力された各アテンションマップについての評価データを取得する(ステップS21)。
【0048】
続いて、画像解析装置10の調整部106は、評価データ取得部105が取得した評価データに基づいて、クラスタリング部102のパラメータをチューニングする(ステップS22)。その後、画像解析処理を終了する。
【0049】
図10は、ステップS22における調整部106によるチューニングのイメージを示す図である。
図10に示すように、例えば、強化学習によりクラスタリング部102のパラメータをチューニングする。強化学習のagentは画像解析装置10であり、強化学習のfunctionはクラスタリング部102であり、actionは建築物のクラスタリングであり、environmentは建築物(伝統的建築物)の立面であり、observationは特徴点であり、rewardは評価データとなる。強化学習アルゴリズムは、例えば、Q学習、動的計画法、モンテカルロ法等を採用すればよい。このように、評価データを報酬(reward)として、クラスタリング部102のパラメータをチューニングすればよい。これにより、累積的にクラスタリング部102によるクラスタリング性能を高めることができる。
【0050】
以上のように、本実施形態の画像解析装置10によれば、入力された画像データに含まれる建築物をクラスタリングし、クラスタリング結果を出力できる。また、各画像データに注視点を視覚化したアテンションマップを導出して出力するので、クラスタリングの際の注視点を確認できるようになり、クラスタリング結果や注視点の評価を行うことができる。また、アテンションマップの評価データを画像解析装置10に入力することで、該評価データを報酬とした強化学習により、画像解析装置10によるクラスタリング性能を向上させることができる。
【0051】
また、伝統的建築物の画像データを画像解析装置10に入力することで、伝統的建築物を客観的に分類することができる。そして、例えば、この地域の建築物は同一のクラスタに分類され、別の地域の建築物は異なるクラスタに分類されるので、建築様式、年代が異なるといった、歴史的町並み等の客観的な景観評価が期待できる。
【0052】
(変形例)
なお、この発明は、上記実施の形態に限定されず、様々な変形及び応用が可能である。例えば、上記実施の形態の一部の省略、置き換え、任意の構成の追加等が可能である。
【0053】
画像解析装置10は、建築物を含む画像データから建築物の画像データを抽出するようにしてもよい。即ち、
図5に示した建築物の画像データを抽出する画像処理を画像解析装置10が実行するようにしてもよい。この場合、画像解析装置10は、建築物と建築物以外のもの(背景、障害物等)とが含まれる画像データ(例えば
図5(A1)、(B1))を取得する。そして、画像解析装置10の抽出部が、セマンティックセグメンテーションを行い、該画像データから背景を削除する(例えば
図5(A2)、(B2))。そして、パターンマッチング等で、電柱や木等の建築物の前面にある障害物を検出し、該障害物を削除する。その後、削除した障害物の部分を画像データに存在する建築物の一部等を用いて補完する(例えば
図5(B2))。建築物の前面に障害物がない場合は、障害物の削除及び建築物画像の補完は省略すればよい。このようにして得られた建築物の画像データについて、
図3に示す画像解析処理を実行するようにしてもよい。これにより、建築物と建築物以外のもの(背景、障害物等)とが含まれる画像データから、バイアス部分を除去し、好適に建築物の画像データを抽出できる。
【0054】
また、クラスタリング、画像の抽出、建築物の部分への分割、特徴マップの生成といった画像の処理のアルゴリズムは、上記実施の形態に示したものに限定されず、既知の任意のアルゴリズムを採用してもよい。
【0055】
なお、建築物の画像データは、写真に限定されず、建築前の建築物の図面や完成イメージであってもよい。このような、建築前の建築物について画像解析処理を行い、クラスタリングを行うことができる。そして、例えば、そのクラスタリング結果を、特定の地域に既に存在する建築物のクラスタリング結果と比較することで、該特定の地域の街並みに対して、建築前の建築物が調和するか、違和感がないか等を客観的に評価できる。ひいては、歴史的街並みの街並みづくりや、景観維持を期待できる。
【0056】
また、コンピュータにプログラムを供給するための手法は、任意である。例えば、通信回線、通信ネットワーク、通信システム等を介して供給しても良い。
【0057】
また、上述の機能の一部をOS(Operation System)が提供する場合には、OSが提供する機能以外の部分をプログラムで提供すれば良い。
【0058】
以上説明した実施の形態は、本発明の理解を容易にするためのものであり、本発明を限定して解釈するためのものではない。実施形態で説明したフローチャート、シーケンス、実施形態が備える各要素並びにその配置、材料、条件、形状及びサイズ等は、例示したものに限定されるわけではなく適宜変更することができる。また、異なる実施形態で示した構成同士を部分的に置換し又は組み合わせることが可能である。
【符号の説明】
【0059】
10…画像解析装置、11…プロセッサ、12…記憶装置、13…通信インタフェース、14…入力デバイス、15…出力デバイス、101…画像取得部、102…クラスタリング部、103…アテンションマップ導出部、104…出力部、105…評価データ取得部、106…調整部