(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2025-01-16
(45)【発行日】2025-01-24
(54)【発明の名称】空間評価支援装置、空間評価支援システム、及び空間評価支援プログラム
(51)【国際特許分類】
G06Q 50/08 20120101AFI20250117BHJP
G06Q 50/10 20120101ALI20250117BHJP
【FI】
G06Q50/08
G06Q50/10
(21)【出願番号】P 2020162608
(22)【出願日】2020-09-28
【審査請求日】2023-06-28
【前置審査】
(73)【特許権者】
【識別番号】000003621
【氏名又は名称】株式会社竹中工務店
(74)【代理人】
【識別番号】110001519
【氏名又は名称】弁理士法人太陽国際特許事務所
(72)【発明者】
【氏名】安藤 邦明
(72)【発明者】
【氏名】藤原 邦彦
(72)【発明者】
【氏名】岡田 拓郎
(72)【発明者】
【氏名】▲高▼井 勇志
(72)【発明者】
【氏名】鈴木 理恵
(72)【発明者】
【氏名】佐野 祐士
【審査官】佐藤 光起
(56)【参考文献】
【文献】特開2009-032215(JP,A)
【文献】特開2020-095045(JP,A)
【文献】特開2018-112579(JP,A)
【文献】國井 洋一,"VQMに対する深層学習および距離画像の応用による定量的景観評価手法の提案",ランドスケープ研究,日本造園学会,2019年03月29日,82巻, 5号,p.563-566,インターネット:<URL:https://www.jstage.jst.go.jp/article/jila/82/5/82_563/_article/-char/ja>
【文献】衣川 雛, 瀧澤 重志,"全方位画像からの推定深度情報を用いた深層学習による空間の評価予測",日本都市計画学会関西支部研究発表会講演概要集,2019年07月22日,17巻,p.9-12,インターネット:<URL:https://www.jstage.jst.go.jp/article/cpijkansai/17/0/17_9/_article/-char/ja>
【文献】平尾 大,"写真を用いた住みやすさに関する分析",日本感性工学大会予稿集,2011年09月,インターネット:<URL:https://s796ed19301c1aa86.jimcontent.com/download/version/1522489780/module/4627534015/name/写真を用いた住みやすさに関する分析.pdf>,発行日は、"東京大学大学院 都市情報・安全システム研究室 publication 主な一般論文・学会予稿集", インターネット:<URL:http://www.u-hiroi.net/publication-e.html>から認定を行った。
(58)【調査した分野】(Int.Cl.,DB名)
G06Q 10/00-99/00
(57)【特許請求の範囲】
【請求項1】
評価対象とする空間を撮影した撮影画像を取得する取得部と、
前記取得部によって取得された撮影画像から、前記空間における構成要素を抽出する抽出部と、
前記抽出部によって抽出された構成要素に対して、当該構成要素の種類毎に予め定めた重み付けを行い、前記空間に対する安全及び安心の少なくとも一方に関する評価値を導出する導出部と、
を備え、
前記構成要素は、前記安全及び前記安心の各々毎に区分された構成要素で
あり、
前記導出部は、前記安全に関する評価値を、対応する前記構成要素の前記評価対象とする空間における実際の量を、当該構成要素の最大値で除算する演算式を用いて導出し、前記安心に関する評価値を、対応する前記構成要素の前記評価対象とする空間における実際の量を、当該構成要素の最大値で除算して得られた値を1から減算する演算式を用いて導出する、
空間評価支援装置。
【請求項2】
前記導出部によって導出された評価値を地図画像に合成して提示する提示部、
を更に備えた請求項1に記載の空間評価支援装置。
【請求項3】
前記地図画像は、ソーシャルヒートマップ画像である、
請求項2に記載の空間評価支援装置。
【請求項4】
前記抽出部は、前記取得部によって取得された撮影画像を用いて学習されたセグメンテーションモデルを用いて前記構成要素を抽出する、
請求項1~請求項3の何れか1項に記載の空間評価支援装置。
【請求項5】
前記構成要素は、歩道、車道、歩道橋、チラシ、落書き、及び路上駐車車両の少なくとも1つを含む、
請求項1~請求項4の何れか1項に記載の空間評価支援装置。
【請求項6】
前記重み付けは、前記構成要素の少なくとも1種類に対して行う、
請求項5に記載の空間評価支援装置。
【請求項7】
前記撮影画像は、全方位画像である、
請求項1~請求項6の何れか1項に記載の空間評価支援装置。
【請求項8】
請求項1~請求項7の何れか1項に記載の空間評価支援装置と、
前記空間評価支援装置の前記導出部によって導出された評価値を当該空間評価支援装置から受信する受信部と、前記受信部によって受信された評価値を示す情報を表示部に表示させる制御を行う表示制御部と、を備えた端末と、
を含む空間評価支援システム。
【請求項9】
評価対象とする空間を撮影した撮影画像を取得し、
取得した撮影画像から、前記空間における構成要素を抽出し、
抽出した構成要素に対して、当該構成要素の種類毎に予め定めた重み付けを行い、前記空間に対する安全及び安心の少なくとも一方に関する評価値を導出する、
処理であり、
前記構成要素は、前記安全及び前記安心の各々毎に区分された構成要素で
あり、
前記安全に関する評価値を、対応する前記構成要素の前記評価対象とする空間における実際の量を、当該構成要素の最大値で除算する演算式を用いて導出し、前記安心に関する評価値を、対応する前記構成要素の前記評価対象とする空間における実際の量を、当該構成要素の最大値で除算して得られた値を1から減算する演算式を用いて導出する、
処理をコンピュータに実行させるための空間評価支援プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、空間評価支援装置、空間評価支援システム、及び空間評価支援プログラムに関する。
【背景技術】
【0002】
従来、利用者に対し、都市、街並み、観光地等のインフラ・ストラクチャに対して利用したいとの魅力を感じさせることに寄与することのできる技術として、以下の技術があった。
【0003】
特許文献1には、街領域を縦断及び/又は横断する大通り領域が設けられるとともに、前記大通り領域の地上及び/又は地下に、少なくとも電力とガスを供給するためのエネルギープラント施設とライフライン基幹設備とが設けられた街構造が開示されている。この街構造では、前記大通り領域と前記大通り領域以外の市街地領域との間でインフラ網が構築されている。
【0004】
また、特許文献2には、車道の少なくとも片側に幅員4m以上の歩道が並設された街路の、当該車道と歩道とを区分する歩車境界に沿って歩行者用滞留スペースが設けられた街路構造が開示されている。この街路構造では、前記歩行者用滞留スペースは、当該街路の延設方向を長辺とする平面視略矩形の領域に設けられて、前記街路の延設方向に交差する幅が2m以上かつ前記歩道の幅員の半分以下に設定される。また、この街路構造では、前記領域上には、前記歩道の舗装面とは材質を異にする歩行床が設けられるとともに、ベンチ、椅子、段差等の腰掛け部が備えられる。そして、この街路構造では、前記領域の車道側の長辺の全部と、該長辺に接続する一方または両方の短辺のうち車道側1.5m以上の部分が、前記歩行床の表面から1m以上の高さまで立ち上がる車両防護体によって途切れなく包囲される。
【0005】
更に、特許文献3には、敷地における建物や庭等を構築した主要部分と角部分とを通路によって分断し、その角部分を開放スペースとしたことを特徴とする住宅の外構構造が開示されている。
【先行技術文献】
【特許文献】
【0006】
【文献】特開2019-75042号公報
【文献】特開2018-53661号公報
【文献】特開2002-106187号公報
【発明の概要】
【発明が解決しようとする課題】
【0007】
しかしながら、特許文献1~特許文献3に開示されている技術は、これから魅力のあるインフラ・ストラクチャを構築するために寄与するためのものであった。このため、これらの技術では、既に存在する都市、街並み、観光地等のインフラ・ストラクチャに対して、当該インフラ・ストラクチャに訪れたいとの魅力を感じさせるために寄与することができるものではなかった。
【0008】
本発明は、以上の事情に鑑みて成されたものであり、利用者に対して既存のインフラ・ストラクチャの魅力を定量的に判断させることのできる空間評価支援装置、空間評価支援システム、及び空間評価支援プログラムを提供することを目的とする。
【課題を解決するための手段】
【0009】
請求項1に記載の本発明に係る空間評価支援装置は、評価対象とする空間を撮影した撮影画像を取得する取得部と、前記取得部によって取得された撮影画像から、前記空間における構成要素を抽出する抽出部と、前記抽出部によって抽出された構成要素に対して、当該構成要素の種類毎に予め定めた重み付けを行い、前記空間に対する安全及び安心の少なくとも一方に関する評価値を導出する導出部と、を備え、前記構成要素は、前記安全及び前記安心の各々毎に区分された構成要素であり、前記導出部は、前記安全に関する評価値を、対応する前記構成要素の前記評価対象とする空間における実際の量を、当該構成要素の最大値で除算する演算式を用いて導出し、前記安心に関する評価値を、対応する前記構成要素の前記評価対象とする空間における実際の量を、当該構成要素の最大値で除算して得られた値を1から減算する演算式を用いて導出するものである。
【0010】
請求項1に記載の本発明に係る空間評価支援装置によれば、評価対象とする空間を撮影した撮影画像を取得し、取得した撮影画像から、上記空間における構成要素を抽出し、抽出した構成要素に対して、当該構成要素の種類毎に予め定めた重み付けを行い、上記空間に対する安全及び安心の少なくとも一方に関する評価値を導出し、上記構成要素を、上記安全及び上記安心の各々毎に区分された構成要素とし、上記安全に関する評価値を、対応する構成要素の評価対象とする空間における実際の量を、当該構成要素の最大値で除算する演算式を用いて導出し、上記安心に関する評価値を、対応する構成要素の評価対象とする空間における実際の量を、当該構成要素の最大値で除算して得られた値を1から減算する演算式を用いて導出することで、利用者に対して既存のインフラ・ストラクチャの魅力を定量的に判断させることができる。
【0011】
請求項2に記載の本発明に係る空間評価支援装置は、請求項1に記載の空間評価支援装置であって、前記導出部によって導出された評価値を地図画像に合成して提示する提示部、を更に備える。
【0012】
請求項2に記載の本発明に係る空間評価支援装置によれば、導出した評価値を地図画像に合成して提示することで、より効果的に、利用者に対して既存のインフラ・ストラクチャの魅力を定量的に判断させることができる。
【0013】
請求項3に記載の本発明に係る空間評価支援装置は、請求項2に記載の空間評価支援装置であって、前記地図画像が、ソーシャルヒートマップ画像であるものである。
【0014】
請求項3に記載の本発明に係る空間評価支援装置によれば、上記地図画像を、ソーシャルヒートマップ画像とすることで、より効果的に、利用者に対して既存のインフラ・ストラクチャの魅力を定量的に判断させることができる。
【0015】
請求項4に記載の本発明に係る空間評価支援装置は、請求項1~請求項3の何れか1項に記載の空間評価支援装置であって、前記抽出部が、前記取得部によって取得された撮影画像を用いて学習されたセグメンテーションモデルを用いて前記構成要素を抽出するものである。
【0016】
請求項4に記載の本発明に係る空間評価支援装置によれば、取得した撮影画像を用いて学習されたセグメンテーションモデルを用いて上記構成要素を抽出することで、より高精度に、上記構成要素を抽出することができる。
【0017】
請求項5に記載の本発明に係る空間評価支援装置は、請求項1~請求項4の何れか1項に記載の空間評価支援装置であって、前記構成要素が、歩道、車道、歩道橋、チラシ、落書き、及び路上駐車車両の少なくとも1つを含むものである。
【0018】
請求項5に記載の本発明に係る空間評価支援装置によれば、含めた構成要素に応じた評価値を導出することができる。
【0019】
請求項6に記載の本発明に係る空間評価支援装置は、請求項5に記載の空間評価支援装置であって、前記重み付けを、前記構成要素の少なくとも1種類に対して行うものである。
【0020】
請求項6に記載の本発明に係る空間評価支援装置によれば、重み付けを、構成要素の少なくとも1種類に対して行うことで、重み付けを行った構成要素については、当該重み付けに応じた度合いで評価値に反映させることができる。
【0021】
請求項7に記載の本発明に係る空間評価支援装置は、請求項1~請求項6の何れか1項に記載の空間評価支援装置であって、前記撮影画像が、全方位画像であるものである。
【0022】
請求項7に記載の本発明に係る空間評価支援装置によれば、撮影画像を、全方位画像とすることで、前方のみならず、周囲の状況を加味した、より効果的な評価値を導出することができる。
【0023】
請求項8に記載の本発明に係る空間評価支援システムは、請求項1~請求項7の何れか1項に記載の空間評価支援装置と、前記空間評価支援装置の前記導出部によって導出された評価値を当該空間評価支援装置から受信する受信部と、前記受信部によって受信された評価値を示す情報を表示部に表示させる制御を行う表示制御部と、を備えた端末と、を含む。
【0024】
請求項8に記載の本発明に係る空間評価支援システムによれば、本発明の空間評価支援装置によって導出された評価値を示す情報を表示させることで、利用者に対して既存のインフラ・ストラクチャの魅力を定量的に判断させることができる。
【0025】
請求項9に記載の本発明に係る空間評価支援プログラムは、評価対象とする空間を撮影した撮影画像を取得し、取得した撮影画像から、前記空間における構成要素を抽出し、抽
出した構成要素に対して、当該構成要素の種類毎に予め定めた重み付けを行い、前記空間に対する安全及び安心の少なくとも一方に関する評価値を導出する、処理であり、前記構成要素は、前記安全及び前記安心の各々毎に区分された構成要素であり、前記安全に関する評価値を、対応する前記構成要素の前記評価対象とする空間における実際の量を、当該構成要素の最大値で除算する演算式を用いて導出し、前記安心に関する評価値を、対応する前記構成要素の前記評価対象とする空間における実際の量を、当該構成要素の最大値で除算して得られた値を1から減算する演算式を用いて導出する処理をコンピュータに実行させる。
【0026】
請求項9に記載の本発明に係る空間評価支援プログラムによれば、評価対象とする空間を撮影した撮影画像を取得し、取得した撮影画像から、上記空間における構成要素を抽出し、抽出した構成要素に対して、当該構成要素の種類毎に予め定めた重み付けを行い、上記空間に対する安全及び安心の少なくとも一方に関する評価値を導出し、上記構成要素を、上記安全及び上記安心の各々毎に区分された構成要素とし、上記安全に関する評価値を、対応する構成要素の評価対象とする空間における実際の量を、当該構成要素の最大値で除算する演算式を用いて導出し、上記安心に関する評価値を、対応する構成要素の評価対象とする空間における実際の量を、当該構成要素の最大値で除算して得られた値を1から減算する演算式を用いて導出することで、利用者に対して既存のインフラ・ストラクチャの魅力を定量的に判断させることができる。
【発明の効果】
【0027】
以上説明したように、本発明によれば、利用者に対して既存のインフラ・ストラクチャの魅力を定量的に判断させることができる。
【図面の簡単な説明】
【0028】
【
図1】実施形態に係る空間評価支援システムのハードウェア構成の一例を示すブロック図である。
【
図2】実施形態に係るセグメンテーションモデルの説明に供する図であり、左図は撮影によって得られた画像の一例を示す図であり、右図は左図に示す画像の分類結果の一例を示す図である。
【
図3】実施形態に係る空間評価支援システムの機能的な構成の一例を示すブロック図である。
【
図4】実施形態に係る画像情報データベースの構成の一例を示す模式図である。
【
図5】実施形態に係る重み付け情報データベースの構成の一例を示す模式図である。
【
図6】実施形態に係る評価値情報データベースの構成の一例を示す模式図である。
【
図7】実施形態に係る空間評価支援処理の一例を示すフローチャートである。
【
図8】実施形態に係る評価値提示処理の一例を示すフローチャートである。
【
図9】実施形態に係る評価値表示処理の一例を示すフローチャートである。
【
図10】実施形態に係る初期画面の構成の一例を示す正面図である。
【
図11】実施形態に係る評価結果画面の構成の一例を示す正面図である。
【発明を実施するための形態】
【0029】
以下、図面を参照して、本発明を実施するための形態例を詳細に説明する。なお、本実施形態では、本発明を、サーバコンピュータ等により構成された空間評価支援装置と、各々対象者が個別に用いる端末である複数の対象者端末と、を含む空間評価支援システムに適用した場合について説明する。
【0030】
まず、
図1~
図3を参照して、本実施形態に係る空間評価支援システム90の構成を説明する。
図1は、本実施形態に係る空間評価支援システム90のハードウェア構成の一例を示すブロック図である。また、
図2は、本実施形態に係るセグメンテーションモデルの説明に供する図であり、左図は撮影によって得られた画像の一例を示す図であり、右図は左図に示す画像の分類結果の一例を示す図である。更に、
図3は、本実施形態に係る空間評価支援システム90の機能的な構成の一例を示すブロック図である。
【0031】
図1に示すように、本実施形態に係る空間評価支援システム90は、ネットワーク80に各々アクセス可能とされた、空間評価支援装置10と、複数の対象者端末30と、を含む。なお、空間評価支援装置10の例としては、パーソナルコンピュータ及びサーバコンピュータ等の情報処理装置が挙げられる。また、対象者端末30の例としては、スマートフォン、タブレット端末、PDA(Personal Digital Assistant、携帯情報端末)等の携帯型の端末が挙げられる。
【0032】
本実施形態に係る対象者端末30は、空間評価支援システム90の利用対象となる複数の対象者が各々所持する端末である。対象者端末30は、CPU(Central Processing Unit)31、一時記憶領域としてのメモリ32、不揮発性の記憶部33、タッチパネル等の入力部34、液晶ディスプレイ等の表示部35及び媒体読み書き装置(R/W)36を備えている。また、対象者端末30は、カメラ38、マイク39、GPS(Global Positioning Systems)40、及び無線通信部42を備えている。CPU31、メモリ32、記憶部33、入力部34、表示部35、媒体読み書き装置36、カメラ38、マイク39、GPS40、及び無線通信部42はバスB1を介して互いに接続されている。媒体読み書き装置36は、記録媒体37に書き込まれている情報の読み出し及び記録媒体37への情報の書き込みを行う。
【0033】
記憶部33は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、フラッシュメモリ等によって実現される。記憶媒体としての記憶部33には、評価値表示プログラム33Aが記憶されている。評価値表示プログラム33Aは、評価値表示プログラム33Aが書き込まれた記録媒体37が媒体読み書き装置36にセットされ、媒体読み書き装置36が記録媒体37からの評価値表示プログラム33Aの読み出しを行うことで、記憶部33へ記憶される。CPU31は、評価値表示プログラム33Aを記憶部33から読み出してメモリ32に展開し、評価値表示プログラム33Aが有するプロセスを順次実行する。
【0034】
一方、空間評価支援装置10は、空間評価支援システム90で取り扱う各種情報を統括的に保管して管理する装置である。空間評価支援装置10は、CPU11、一時記憶領域としてのメモリ12、不揮発性の記憶部13、キーボードとマウス等の入力部14、液晶ディスプレイ等の表示部15、媒体読み書き装置16及び通信インタフェース(I/F)部18を備えている。CPU11、メモリ12、記憶部13、入力部14、表示部15、媒体読み書き装置16及び通信I/F部18はバスB2を介して互いに接続されている。媒体読み書き装置16は、記録媒体17に書き込まれている情報の読み出し及び記録媒体17への情報の書き込みを行う。
【0035】
記憶部13はHDD、SSD、フラッシュメモリ等によって実現される。記憶媒体としての記憶部13には、空間評価支援プログラム13A及び評価値提示プログラム13Bが記憶されている。空間評価支援プログラム13Aは、空間評価支援プログラム13Aが書き込まれた記録媒体17が媒体読み書き装置16にセットされ、媒体読み書き装置16が記録媒体17からの空間評価支援プログラム13Aの読み出しを行うことで、記憶部13へ記憶される。また、評価値提示プログラム13Bは、評価値提示プログラム13Bが書き込まれた記録媒体17が媒体読み書き装置16にセットされ、媒体読み書き装置16が記録媒体17からの評価値提示プログラム13Bの読み出しを行うことで、記憶部13へ記憶される。CPU11は、空間評価支援プログラム13A及び評価値提示プログラム13Bを記憶部13から読み出してメモリ12に展開し、空間評価支援プログラム13A及び評価値提示プログラム13Bが各々有するプロセスを順次実行する。
【0036】
また、記憶部13には、セグメンテーションモデル13Cが記憶されている。本実施形態に係るセグメンテーションモデル13Cは、空間評価支援システム90による評価対象とされる空間を撮影した撮影画像を示す画像情報を入力情報とし、当該撮影画像から予め定められた種類の構成要素の領域を種類別に分類したセグメンテーション画像を出力情報としたセグメンテーションのモデルである。なお、本実施形態では、上記構成要素の種類として、歩道、車道、歩道橋、壁及び電柱等に貼り付けられているチラシ(主として広告の媒体として用いられているもの)、塀及び建物のシャッタ-等に書かれている落書き、及び路上駐車している車を適用している。但し、これらに限るものではなく、これらの構成要素に加えて、移動している自転車、空間の明るさ、ごみ、道路の見通し等の何れか1つ、又は複数の組み合わせを上記構成要素の種類として適用する形態としてもよい。
【0037】
本実施形態に係る空間評価支援システム90では、セグメンテーションモデル13Cとして、深層学習技術を用いたセマンティック・セグメンテーション(Semantic Segmentation)の手法を用いたモデルが適用されている。
図2には、画像セグメンテーション技術による各要素別の分類前後の画像の例が示されている。なお、
図2の左図が分類前の画像(
図2では「原画像」と表記。)の例であり、
図2の右図が当該画像に対する分類後の画像(
図2では「セグメンテーション画像」と表記。)の例である。また、
図2に示す例では、構成要素として、植生、歩道、車道、建物及び空を適用しており、各構成要素を異なる濃度で表している。
【0038】
また、本実施形態では、グーグル社による、グーグル・ストリート・ビュー(Google Street View)用に収集された全方位画像を用いた教師データを作成し、セグメンテーションモデル13Cを学習させている。但し、この形態に限らず、全方位画像として、対象者端末30により、カメラ38を用いた撮影によって得られた画像を適用する形態としてもよい。また、上記撮影画像は全方位画像に限るものではなく、通常の前方のみを撮影して得られた撮影画像を適用する形態としてもよい。
【0039】
なお、深層学習技術を用いたセマンティック・セグメンテーションの技術は、「ICUC10_Fang-Ying GONG_GSV-ViewFactorMaps_6-10 August 2018,「Google Street Viewを用いた、気候研究における超過密都市環境の街路要素の定量化」」、「Badrinarayanan, V., Kendall, A., & Cipolla, R. (2017). Segnet: A deep convolutional encoder-decoder architecture for image segmentation. IEEE transactions on pattern analysis and machine intelligence, 39(12), 2481-2495.」、「Chen, L. C., Papandreou, G., Kokkinos, I., Murphy, K., & Yuille, A. L. (2017). Deeplab: Semantic image segmentation with deep convolutional nets, atrous convolution, and fully connected crfs. IEEE transactions on pattern analysis and machine intelligence, 40(4), 834-848.」等にも記載されており、広く知られている技術であることから、これ以上のここでの説明は省略する。
【0040】
このように、本実施形態に係る空間評価支援システム90では、セグメンテーションモデル13Cとして、深層学習技術を用いたセマンティック・セグメンテーションの手法を用いたモデルを適用しているが、この形態に限らない。例えば、インスタンス・セグメンテーション(Instance-aware Segmentation)等の他の画像セグメンテーション技術を適用したモデルをセグメンテーションモデル13Cとして適用する形態としてもよい。
【0041】
また、記憶部13には、画像情報データベース13D、重み付け情報データベース13E、及び評価値情報データベース13Fが記憶される。画像情報データベース13D、重み付け情報データベース13E、及び評価値情報データベース13Fについては、詳細を後述する。
【0042】
次に、
図3を参照して、本実施形態に係る空間評価支援装置10及び対象者端末30の機能的な構成について説明する。
【0043】
図3に示すように、空間評価支援装置10は、取得部11A、抽出部11B、導出部11C、及び提示部11Dを含む。空間評価支援装置10のCPU11が空間評価支援プログラム13A及び評価値提示プログラム13Bを実行することで、取得部11A、抽出部11B、導出部11C、及び提示部11Dとして機能する。
【0044】
本実施形態に係る取得部11Aは、評価対象とする空間(以下、「評価対象空間」という。)を撮影した撮影画像を取得する。本実施形態では、上記撮影画像として、セグメンテーションモデル13Cを学習させる際に用いる撮影画像と同様に、グーグル社による、グーグル・ストリート・ビュー用に収集された全方位画像を適用している。但し、この形態に限らず、全方位画像として、対象者端末30のカメラ38を用いた撮影によって得られた画像を適用する形態としてもよく、全方位画像に代えて、通常の前方のみを撮影して得られた撮影画像を適用する形態としてもよいことは、セグメンテーションモデル13Cの学習で適用する撮影画像と同様である。
【0045】
また、本実施形態に係る抽出部11Bは、取得部11Aによって取得された撮影画像から、評価対象空間における構成要素を抽出する。ここで、本実施形態に係る抽出部11Bは、評価対象空間における構成要素の抽出を、取得部11Aによって取得された撮影画像を用いて学習されたセグメンテーションモデル13Cを用いて行う。これにより、取得部11Aによって取得された撮影画像以外の撮影画像を用いて学習されたセグメンテーションモデルを用いる場合に比較して、より高精度に、上記構成要素を抽出することができる。但し、この形態に限るものではなく、取得部11Aによって取得された撮影画像以外の撮影画像を用いて学習されたセグメンテーションモデルを用いて、評価対象空間の撮影画像から上記構成要素を抽出する形態としてもよい。また、セグメンテーションモデルを用いることなく、従来既知の画像認識技術を用いて、各構成要素を評価対象空間の撮影画像から抽出する形態としてもよい。
【0046】
そして、本実施形態に係る導出部11Cは、抽出部11Bによって抽出された構成要素に対して、当該構成要素の種類毎に予め定めた重み付けを行い、評価対象空間に対する安全及び安心の双方に関する評価値を導出する。このように、本実施形態に係る導出部11Cは、安全及び安心の双方に関する評価値を導出するものとされているが、これに限るものではなく、導出部11Cにより、安全及び安心の何れか一方のみの評価値を導出する形態としてもよい。
【0047】
また、本実施形態に係る提示部11Dは、導出部11Cによって導出された評価値を地図画像に合成して提示する。本実施形態に係る提示部11Dは、上記評価値の提示を、要求された対象者端末30に当該評価値を示す情報を送信して、当該対象者端末30の表示部35により表示させることで行っているが、これに限るものではない。例えば、空間評価支援装置10の表示部15により表示させることにより、上記評価値の提示を行う形態としてもよい。また、提示部11Dによる評価値の提示は表示部による表示による提示に限らず、音声による提示や、画像形成装置(所謂プリンタ)による印刷による提示を適用する形態としてもよい。
【0048】
また、本実施形態では、上記地図画像として、ソーシャルヒートマップ画像を適用している。ソーシャルヒートマップ画像は、対応する領域の通常表示される地図画像に重ねて濃度や色が異なる領域を表示することで、対象者のカテゴリーに適合した情報が多い場所を強調した地図を示す画像である。即ち、本実施形態では、各対象者に対して予め複数の設問に回答してもらい、回答結果を分析して分類することにより各対象者のカテゴリーを事前に決定する。そして、本実施形態に係るソーシャルヒートマップ画像は、利用する対象者のカテゴリーに適合した情報(本実施形態では、SNS(Social Networking Service)において投稿された情報。)が多い場所ほど濃度が高くなるように地図画像に重ねて表示する。但し、この濃度を変える形態に限らず、高い濃度から低い濃度の順に、赤色→黄色→緑色といったように色を変える形態としてもよい。
【0049】
本実施形態では、空間評価支援装置10がネットワーク80等を介して、空間評価支援システム90が取り扱い対象としている領域(以下、「対象領域」という。)の各々のソーシャルヒートマップ画像の最新版を提供するサーバに接続されている。そして、空間評価支援装置10は、このサーバからソーシャルヒートマップ画像の最新版を取得して、後述する画像情報データベース13D(
図4も参照。)に記憶されているソーシャルヒートマップ画像を逐次更新するものとしている。但し、この形態に限らず、空間評価支援装置10自身により、各対象者に対応するソーシャルヒートマップ画像を逐次更新する形態としてもよい。
【0050】
一方、本実施形態に係る対象者端末30は、受信部31A及び表示制御部31Bを含む。対象者端末30のCPU31が評価値表示プログラム33Aを実行することで、受信部31A及び表示制御部31Bとして機能する。
【0051】
本実施形態に係る受信部31Aは、空間評価支援装置10の導出部11Cによって導出された上記評価値を示す情報を空間評価支援装置10から受信する。また、表示制御部31Bは、受信部31Aによって受信された評価値を示す情報を表示部35に表示する制御を行う。
【0052】
次に、
図4を参照して、本実施形態に係る画像情報データベース13Dについて説明する。
図4は、本実施形態に係る画像情報データベース13Dの構成の一例を示す模式図である。
【0053】
本実施形態に係る画像情報データベース13Dは、セグメンテーションモデル13Cの学習や、評価対象空間の撮影画像として用いられる全方位画像等が登録されたデータベースである。
図4に示すように、本実施形態に係る画像情報データベース13Dは、対象領域名、ソーシャルヒートマップ画像、全方位画像、対象地区位置、及び対象地区ID(Identification)の各情報が記憶される。
【0054】
上記対象領域名は、上記対象領域の各々の名称を示す情報であり、上記ソーシャルヒートマップ画像は、対応する対象領域名が示す対象領域における対象者別の上述したソーシャルヒートマップ画像を示す情報である。また、上記全方位画像は、対応する対象領域の内部において撮影された、上述した全方位画像を示す情報であり、上記対象地区位置は、対応する全方位画像が撮影された地区(以下、「対象地区」という。)が存在する位置を示す情報である。
【0055】
本実施形態では、上記対象領域を、平面視で予め定められたサイズの矩形で囲まれる領域毎に区分しており、上記対象地区として、当該区分された領域の各々を適用している。また、本実施形態では、上記対象地区位置として、対応する対象地区を示す上記矩形の一対の対角の2次元座標系における座標位置として規定している。但し、この形態に限らず、例えば、上記矩形に代えて、円形、楕円形等の他の形状を適用する形態としてもよいし、上記2次元座標系における座標位置に代えて、緯度及び経度を適用する形態としてもよい。
【0056】
更に、上記対象地区IDは、対応する対象地区を個別に識別するために、対象地区毎に異なるものとして予め付与された情報である。
【0057】
次に、
図5を参照して、本実施形態に係る重み付け情報データベース13Eについて説明する。
図5は、本実施形態に係る重み付け情報データベース13Eの構成の一例を示す模式図である。
【0058】
本実施形態に係る重み付け情報データベース13Eは、上述した評価値を導出する際に用いられる、各構成要素に対する重み付けを規定するための情報が登録されたものである。
図5に示すように、本実施形態に係る重み付け情報データベース13Eは、種別、構成要素、最大値、及び重み値の各情報が記憶される。
【0059】
上記種別は、安全及び安心の各種別を示す情報であり、上記構成要素は、評価対象空間における上述した構成要素を示す情報である。また、上記最大値は、対応する構成要素で想定される最大値を示す情報であり、上記重み値は、対応する構成要素の重要度を示す情報である。
【0060】
本実施形態に係る空間評価支援システム90では、次の(1)式~(2)式によって各構成要素の評価値(以下、「要素別評価値」という。)を個別に導出する。なお、(1)式において、Fmは安全に関するm番目の種類の構成要素の要素別評価値を表し、fvmは当該構成要素の評価対象空間における実際の量を表し、fmaxmは当該構成要素の最大値を表す。また、(2)式において、Rnは安心に関するn番目の種類の構成要素の要素別評価値を表し、rvnは当該構成要素の評価対象空間における実際の量を表し、rmaxnは当該構成要素の最大値を表す。
【0061】
Fm=fvm/fmaxm (1)
【0062】
Rn=1-rvn/rmaxn (2)
【0063】
そして、本実施形態に係る空間評価支援システム90では、後述するように、安全に関する評価値(以下、「安全度」という。)、及び安心に関する評価値(以下、「安心度」という。)を、各々、要素別評価値の加重平均値を算出することで導出している。このため、本実施形態に係る重み付け情報データベース13Eには、安全及び安心の種別毎で、かつ、各構成要素の種類毎に、最大値及び重み値が登録されている。なお、
図5に示す例では、重み値の最大値を「10」とした場合について示されているが、これに限るものでないことは言うまでもない。
【0064】
次に、
図6を参照して、本実施形態に係る評価値情報データベース13Fについて説明する。
図6は、本実施形態に係る評価値情報データベース13Fの構成の一例を示す模式図である。
【0065】
本実施形態に係る評価値情報データベース13Fは、空間評価支援プログラム13Aの実行によって得られた評価値が登録されるものである。
図6に示すように、本実施形態に係る評価値情報データベース13Fは、対象領域名、対象地区ID、及び評価値の各情報が記憶される。
【0066】
上記対象領域名及び上記対象地区IDは、各々、画像情報データベース13Dの対象領域名及び対象地区IDと同一の情報である。また、上記評価値は、対応する対象地区の評価値を示す情報であり、
図6に示すように、本実施形態では、安全度、安心度、及び総合度の3種類の評価値を適用している。
【0067】
本実施形態に係る空間評価支援システム90では、上記安全度、安心度、及び総合度を次の(4)式~(6)式によって算出することにより導出する。(1)式において、FDは安全度を表し、F1~Fmは安全に関する各構成要素の要素別評価値を表し、FW1~FWmは対応する構成要素の重み値を表す。また、(2)式において、RDは安心度を表し、R1~Rnは安心に関する各構成要素の要素別評価値を表し、RW1~RWnは対応する構成要素の重み値を表す。更に、(3)式におけるTDは総合度を表す。
【0068】
FD=(F1×FW1+F2×FW2+・・・+Fm×FWm)
/(FW1+FW2+・・・+FWm) (4)
【0069】
RD=(R1×RW1+R2×RW2+・・・+Rn×RWn)
/(RW1+RW2+・・・+RWn) (5)
【0070】
TD=(FD+RD)/2 (6)
【0071】
(4)式及び(5)式に示すように、本実施形態に係る空間評価支援システム90では、安全度FD及び安心度RDとして、各構成要素に対応する要素別評価値を用いた加重平均値を適用している。但し、この形態に限らず、安全度FD及び安心度RDとして、例えば、各構成要素に対応する要素別評価値の相加平均値を適用する形態としてもよい。また、(5)式に示すように、本実施形態に係る空間評価支援システム90では、総合度TDとして、安全度FD及び安心度RDの相加平均値を適用している。但し、この形態に限らず、総合度TDとして、例えば、安全度FD及び安心度RDの加重平均値を適用する形態としてもよい。
【0072】
次に、
図7~
図11を参照して、本実施形態に係る空間評価支援システム90の作用を説明する。
図7は、本実施形態に係る空間評価支援処理の一例を示すフローチャートである。また、
図8は、本実施形態に係る評価値提示処理の一例を示すフローチャートである。また、
図9は、本実施形態に係る評価値表示処理の一例を示すフローチャートである。また、
図10は、本実施形態に係る初期画面の構成の一例を示す正面図である。更に、
図11は、本実施形態に係る評価結果画面の構成の一例を示す正面図である。
【0073】
まず、
図7を参照して、空間評価支援処理を実行する場合の本実施形態に係る空間評価支援装置10の作用を説明する。空間評価支援装置10のユーザ(例えば、空間評価支援システム90の管理者)により、入力部14を介して空間評価支援処理の実行を開始する指示入力が行われた場合に、空間評価支援装置10のCPU11が空間評価支援プログラム13Aを実行することで、
図7に示す空間評価支援処理が実行される。なお、ここでは、錯綜を回避するために、画像情報データベース13D及び重み付け情報データベース13Eが既に構築されている場合について説明する。また、ここでは、錯綜を回避するために、セグメンテーションモデル13Cが画像情報データベース13Dに登録されている一部の全方位画像を用いて学習済みである場合について説明する。更に、ここでは、錯綜を回避するために、画像情報データベース13Dにおける、評価対象とする全方位画像(以下、「評価対象画像」という。)が予め指定されている場合について説明する。
【0074】
図7のステップ100で、CPU11は、評価対象画像のうちの何れか1つの画像(以下、「処理対象画像」という。)を画像情報データベース13Dから、対応する対象地区IDと共に読み出す。ステップ102で、CPU11は、学習済みのセグメンテーションモデル13Cを記憶部13から読み出す。
【0075】
ステップ104で、CPU11は、処理対象画像をセグメンテーションモデル13Cに入力する。この処理対象画像の入力に応じて、セグメンテーションモデル13Cから対応するセグメンテーション画像が出力されるので、ステップ106で、CPU11は、セグメンテーションモデル13Cから出力されたセグメンテーション画像を取得する。
【0076】
ステップ108で、CPU11は、取得したセグメンテーション画像から上述した各構成要素を抽出し、抽出した構成要素を用いて、上述した(1)式~(5)式により、安全度FD、安心度RD、及び総合度TDを導出する。
【0077】
ステップ110で、CPU11は、導出した安全度FD、安心度RD、及び総合度TDを、ステップ100の処理で読み出した対象地区IDと共に評価値情報データベース13Fに記憶する。
【0078】
次のステップ112で、CPU11は、全ての評価対象画像について、以上の処理が終了したか否か判定し、否定判定となった場合はステップ100に戻る一方、肯定判定となった場合は本空間評価支援処理を終了する。なお、ステップ100~ステップ112の処理を繰り返し実行する際には、ステップ100において、それまで処理対象としなかった評価対象画像を処理対象画像とする。
【0079】
以上の空間評価支援処理により、一例として
図6に示す評価値情報データベース13Fが構築されることになる。
【0080】
次に、
図8を参照して、評価値提示処理を実行する場合の本実施形態に係る空間評価支援装置10の作用を説明する。
【0081】
本実施形態に係る空間評価支援システム90では、何れかの対象者が、何れかの対象領域における各地の上述した評価値を参照したい場合、自身が所持する対象者端末30を用いて、後述する評価値表示処理が実行される。この評価値表示処理では、対象者が評価値を参照したい対象領域を示す情報(以下、「指定対象領域情報」という。)を含む参照要求情報を空間評価支援装置10に送信する。この参照要求情報が受信された場合に、空間評価支援装置10のCPU11が評価値提示プログラム13Bを実行することで、
図8に示す評価値提示処理が実行される。なお、ここでは、錯綜を回避するために、評価値情報データベース13Fが既に構築されている場合について説明する。
【0082】
図8のステップ150で、CPU11は、受信した参照要求情報から指定対象領域情報を抽出する。ステップ152で、CPU11は、指定対象領域情報が示す対象領域(以下、「処理対象領域」という。)に含まれる全ての対象地区の対象地区ID及び評価値(安全度FD、安心度RD、及び総合度TD)を評価値情報データベース13Fから読み出す。
【0083】
ステップ154で、CPU11は、読み出した対象地区IDに対応する対象地区位置、及び処理対象領域に対応し、かつ、アクセス元の対象者に対応するソーシャルヒートマップ画像を画像情報データベース13Dから読み出す。
【0084】
ステップ156で、CPU11は、読み出したソーシャルヒートマップ画像、各対象地区の評価値、及び対象地区位置の各情報を用いて、予め定められた構成とされた評価結果画面を示す情報(以下、「評価結果画面情報」という。)を作成する。ステップ158で、CPU11は、作成した評価結果画面情報をアクセス元の対象者端末30に送信し、その後に本評価値提示処理を終了する。
【0085】
次に、
図9を参照して、上述した評価値表示処理を実行する場合の本実施形態に係る対象者端末30の作用を説明する。何れかの対象者端末30のCPU31が評価値表示プログラム33Aを実行することにより、
図9に示す評価値表示処理が実行される。
図9に示す評価値表示処理は、例えば、何れかの対象者(以下、「実施対象者」という。)から自身の対象者端末30の入力部34を介して、評価値表示処理の実行指示が入力された場合に実行される。
【0086】
図9のステップ200で、CPU31は、予め定められた構成とされた初期画面を表示するように表示部35を制御し、ステップ202で、CPU31は、所定情報が入力されるまで待機する。
【0087】
一例として
図10に示すように、本実施形態に係る初期画面は、対象領域名の入力を促すメッセージが表示されると共に、評価値を参照したい対象領域の対象領域名を入力する入力領域35Aが表示される。
図10に示す初期画面が表示部35により表示されると、実施対象者は、入力部34を用いて、評価値を参照したい対象領域の名称を入力領域35Aに入力した後に、終了ボタン35Bを指定する。これに応じてステップ202が肯定判定となってステップ204に移行する。なお、本実施形態では、初期画面での対象領域名の入力を、当該対象領域名を直接入力する形態としているが、これに限るものではなく、評価値を参照可能な全ての対象領域名をプルダウン形式に表示する一方、表示された対象領域名から所望の対象領域名を指定する形態としてもよい。
【0088】
ステップ204で、CPU31は、上述した参照要求情報を空間評価支援装置10に送信する。これに応じて空間評価支援装置10は、上述したように評価値提示処理を実行し、評価結果画面情報をアクセス元の対象者端末30に送信する。
【0089】
そこで、ステップ206で、CPU31は、空間評価支援装置10から評価結果画面情報が受信されるまで待機する。ステップ208で、CPU31は、受信した評価結果画面情報が示す評価結果画面を表示するように表示部35を制御し、ステップ210で、CPU31は、所定情報が入力されるまで待機した後、本評価値表示処理を終了する。
【0090】
一例として
図11に示すように、本実施形態に係る評価結果画面は、処理対象領域のソーシャルヒートマップ画像に対して、処理対象領域に含まれる対象地区の安全度FD、安心度RD、及び総合度TDの3種類の評価値が対応する位置に表示される。なお、当該対応する位置は、上述した対象地区位置によって示される位置である。
【0091】
従って、実施対象者は、評価結果画面を参照することで、処理対象地域内における各地の評価値を、ソーシャルヒートマップ画像と共に把握することができる。
【0092】
以上説明したように、本実施形態によれば、評価対象とする空間を撮影した撮影画像を取得する取得部11Aと、取得部11Aによって取得された撮影画像から、上記空間における構成要素を抽出する抽出部11Bと、抽出部11Bによって抽出された構成要素に対して、当該構成要素の種類毎に予め定めた重み付けを行い、上記空間に対する安全及び安心の少なくとも一方に関する評価値を導出する導出部11Cと、を備えている。従って、利用者に対して既存のインフラ・ストラクチャの魅力を定量的に判断させることができる。
【0093】
また、本実施形態によれば、導出した評価値を地図画像に合成して提示している。従って、より効果的に、利用者に対して既存のインフラ・ストラクチャの魅力を定量的に判断させることができる。
【0094】
また、本実施形態によれば、上記地図画像を、ソーシャルヒートマップ画像としている。従って、より効果的に、利用者に対して既存のインフラ・ストラクチャの魅力を定量的に判断させることができる。
【0095】
また、本実施形態によれば、取得部11Aによって取得した撮影画像を用いて学習されたセグメンテーションモデルを用いて上記構成要素を抽出している。従って、より高精度に、上記構成要素を抽出することができる。
【0096】
また、本実施形態によれば、上記構成要素に、歩道、車道、歩道橋、チラシ、落書き、及び路上駐車車両等を含めている。従って、含めた構成要素に応じた評価値を導出することができる。
【0097】
また、本実施形態によれば、上記重み付けを、構成要素の少なくとも1種類に対して行っている。従って、重み付けを行った構成要素については、当該重み付けに応じた度合いで評価値に反映させることができる。
【0098】
更に、本実施形態によれば、撮影画像を、全方位画像としている。従って、前方のみならず、周囲の状況を加味した、より効果的な評価値を導出することができる。
【0099】
なお、上記実施形態では、評価結果画面に対して、ソーシャルヒートマップ画像に処理対象領域における対象地区の各評価値のみを重ね合わせて表示する場合について説明したが、これに限定されない。例えば、各評価値に加えて、当該評価値の導出対象とされた全方位画像を、当該評価値の近傍に表示する形態としてもよい。
【0100】
また、上記実施形態では、処理対象領域を対象者自身が指定する場合について説明したが、これに限定されない。例えば、対象者が所持する対象者端末30に内蔵されたGPS40を用いて、当該対象者端末30が存在する位置を含む領域を処理対象領域として自動的に適用する形態としてもよい。また、対象者の嗜好の傾向を示す情報を空間評価支援装置10で予め取得しておき、対象者に対して、当該対象者の嗜好に応じた対象領域の情報を随時提供する形態としてもよい。
【0101】
また、上記実施形態では、評価値として、安全度FD、安心度RD、及び総合度TDの3種類の評価値を適用した場合について説明したが、これに限定されない。例えば、これらのうちの1種類、または2種類の組み合わせのみを評価値として適用する形態としてもよい。
【0102】
また、上記実施形態では、空間評価支援装置10において空間評価支援処理を実行する場合について説明したが、これに限定されない。例えば、各対象者端末30によって空間評価支援処理を実行する形態としてもよい。この形態の場合、本発明の空間評価支援装置10が対象者端末30に含まれることになる。
【0103】
また、上記実施形態では、ソーシャルヒートマップ画像として、対象者のカテゴリーに適合した情報が多い場所を強調した地図を示す画像を適用した場合について説明したが、これに限定されない。例えば、安全度FD、安心度RD、及び総合度TDの少なくとも1つが高い地区ほど赤味が濃い画像をソーシャルヒートマップ画像として適用する形態としてもよい。
【0104】
また、上記実施形態では、処理対象領域の入力を、入力部34を用いて初期画面上で行う場合について説明したが、これに限定されない。例えば、処理対象領域を、マイク39を用いて音声情報として入力する形態としてもよい。
【0105】
また、上記実施形態では、対象者が評価結果画面を参照した後については特に言及しなかったが、当該評価結果画面に表示されている評価値が自身の主観とは異なるものであった場合、対象者端末30を用いて、対象者自身の主観による評価を評価値情報データベース13Fに反映させる形態としてもよい。
【0106】
また、上記実施形態では、セグメンテーションモデルを用いて撮影画像における構成要素を抽出する場合について説明したが、これに限定されない。例えば、セグメンテーションモデルを除く、他の物体検出モデルを適用して撮影画像における構成要素を抽出する形態としてもよい。なお、この際のモデルの構築方法としては、以下の形態を例示することができる。
【0107】
まず、被験者による実験やワークショップ等から、人の主観で安全や安心を損なうゴミ箱等といった物体のカテゴリーを決定する。次いで、決定した物体のカテゴリーの事例をアンケート等によって多数収集する。そして、収集したデータを教師データとして物体検出モデルを学習させる。
【0108】
また、物体検出モデルではなく、従来既知の他の人工知能を用いることで、撮影画像における構成要素を抽出するのではなく、撮影画像から直接、安全度及び安心度を導出する形態としてもよい。この場合の当該人工知能の学習方法としては、以下の形態を例示することができる。
【0109】
まず、被験者による実験やワークショップ等から、複数の既存の撮影画像を用いて、人の主観で安全度及び安心度の評価を、点数や、良い、普通、悪いといった複数の段階で行ってもらう。そして、この評価結果と、対応する撮影画像とを教師データとして、上記人工知能を学習させる。
【0110】
また、上記実施形態では、重み付け情報データベース13Eにおける重み値の決定方法については特に言及しなかったが、例えば、当該重み値を、複数の人によるアンケートの集計結果から決定する形態としてもよい。
【0111】
その他、(1)式~(5)式の各演算式は一例であり、本発明の主旨を逸脱しない範囲内において、適宜変更して適用することができることは言うまでもない。
【0112】
また、上記実施形態において、例えば、取得部11A、抽出部11B、導出部11C、及び提示部11Dの各処理を実行する処理部(processing unit)のハードウェア的な構造としては、次に示す各種のプロセッサ(processor)を用いることができる。上記各種のプロセッサには、前述したように、ソフトウェア(プログラム)を実行して処理部として機能する汎用的なプロセッサであるCPUに加えて、FPGA(Field-Programmable Gate Array)等の製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、ASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が含まれる。
【0113】
処理部は、これらの各種のプロセッサのうちの1つで構成されてもよいし、同種又は異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせや、CPUとFPGAとの組み合わせ)で構成されてもよい。また、処理部を1つのプロセッサで構成してもよい。
【0114】
処理部を1つのプロセッサで構成する例としては、第1に、クライアント及びサーバ等のコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組み合わせで1つのプロセッサを構成し、このプロセッサが処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)等に代表されるように、処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、処理部は、ハードウェア的な構造として、上記各種のプロセッサの1つ以上を用いて構成される。
【0115】
更に、これらの各種のプロセッサのハードウェア的な構造としては、より具体的には、半導体素子などの回路素子を組み合わせた電気回路(circuitry)を用いることができる。
【符号の説明】
【0116】
10 空間評価支援装置
11 CPU
11A 取得部
11B 抽出部
11C 導出部
11D 提示部
12 メモリ
13 記憶部
13A 空間評価支援プログラム
13B 評価値提示プログラム
13C セグメンテーションモデル
13D 画像情報データベース
13E 重み付け情報データベース
13F 評価値情報データベース
14 入力部
15 表示部
16 媒体読み書き装置
17 記録媒体
18 通信I/F部
30 対象者端末
31 CPU
31A 受信部
31B 表示制御部
32 メモリ
33 記憶部
33A 評価値表示プログラム
34 入力部
35 表示部
36 媒体読み書き装置
37 記録媒体
38 カメラ
39 マイク
40 GPS
42 無線通信部
80 ネットワーク
90 空間評価支援システム