(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-12-20
(45)【発行日】2025-01-06
(54)【発明の名称】情報処理装置、情報処理方法及びプログラム
(51)【国際特許分類】
G06T 7/00 20170101AFI20241223BHJP
G06T 7/90 20170101ALI20241223BHJP
G06V 10/82 20220101ALI20241223BHJP
G06V 10/54 20220101ALI20241223BHJP
G06V 10/56 20220101ALI20241223BHJP
【FI】
G06T7/00 130
G06T7/90 A
G06T7/00 350C
G06V10/82
G06V10/54
G06V10/56
(21)【出願番号】P 2023570908
(86)(22)【出願日】2022-12-21
(86)【国際出願番号】 JP2022047150
(87)【国際公開番号】W WO2023127649
(87)【国際公開日】2023-07-06
【審査請求日】2024-05-17
(31)【優先権主張番号】P 2021213694
(32)【優先日】2021-12-28
(33)【優先権主張国・地域又は機関】JP
【早期審査対象出願】
(73)【特許権者】
【識別番号】513217311
【氏名又は名称】株式会社ジオクリエイツ
(73)【特許権者】
【識別番号】314008873
【氏名又は名称】株式会社エスウッド
(74)【代理人】
【識別番号】110004222
【氏名又は名称】弁理士法人創光国際特許事務所
(72)【発明者】
【氏名】本田 司
(72)【発明者】
【氏名】長田 剛和
【審査官】山田 辰美
(56)【参考文献】
【文献】国際公開第2007/029455(WO,A1)
【文献】特開2016-071609(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
G06T 7/00ー7/90
G06V 10/82
G06V 10/54
G06V 10/56
(57)【特許請求の範囲】
【請求項1】
解析対象空間の状態を表す解析対象画像データを取得する画像取得部と、
前記解析対象画像データを解析することにより、前記解析対象画像データが示す解析対象画像内の複数の領域それぞれに関連付けて色相とテクスチャとを特定する画像解析部と、
基準空間画像における位置と、当該位置における色相とテクスチャとの組み合わせと、当該基準空間画像に対応する基準空間の視認者の感情と、が関連付けられた第1解析用データを記憶する記憶部と、
前記第1解析用データにおいて、前記画像解析部が特定した前記複数の領域それぞれの位置と、前記複数の領域に対応する色相とテクスチャとの組み合わせとの相関度が閾値以上の前記基準空間画像における位置と、当該位置における色相とテクスチャとの組み合わせを特定することにより、前記解析対象空間の視認者の視認時感情を特定する感情特定部と、
前記解析対象画像に関連付けて前記視認時感情を示す情報を出力する出力部と、
を有する情報処理装置。
【請求項2】
前記第1解析用データにおいては、前記基準空間の視認者が視認している位置と当該視認者の感情とが関連付けられており、
前記感情特定部は、前記第1解析用データを参照することにより、前記解析対象空間の視認者の視認位置に関連付けて前記視認時感情を特定し、
前記出力部は、前記解析対象画像における位置に関連付けて前記視認時感情を示す情報を出力する、
請求項1に記載の情報処理装置。
【請求項3】
前記記憶部は、基準空間画像における位置と、当該位置における色相と、当該基準空間画像の視認者の感情と、が関連付けられた第2解析用データをさらに記憶し、
前記感情特定部は、前記解析対象画像における第1領域に対しては、前記第1解析用データを参照することにより、前記第1領域の位置と前記第1領域に対応する色相とテクスチャとの組み合わせとの関係に基づいて、前記解析対象画像の視認者の第1感情を特定し、前記第1領域と異なる第2領域に対しては、前記第2解析用データを参照することにより、前記第2領域の位置と前記第2領域に対応する色相との関係に基づいて、前記解析対象画像の視認者の第2感情を特定し、前記第1感情と前記第2感情とを平均化することにより前記視認時感情を特定する、
請求項1又は2に記載の情報処理装置。
【請求項4】
前記解析対象画像データは、画素に関連付けられた深度情報を含み、
前記感情特定部は、前記深度情報が示す深度が閾値未満の領域を前記第1領域とし、前記深度情報が示す深度が前記閾値以上の領域を前記第2領域とする、
請求項3に記載の情報処理装置。
【請求項5】
前記感情特定部は、前記第1感情に前記第2感情よりも大きな重みづけをして平均化することにより前記視認時感情を特定する、
請求項4に記載の情報処理装置。
【請求項6】
前記感情特定部は、前記解析対象画像における緑色の領域の割合と、前記解析対象画像における茶色の領域の割合とにさらに基づいて、前記視認時感情を特定する、
請求項1又は2に記載の情報処理装置。
【請求項7】
前記画像取得部は、複数の前記解析対象空間それぞれに対応する前記解析対象画像データを取得し、
前記感情特定部は、複数の前記解析対象画像データそれぞれに対応する解析対象空間の前記視認時感情を特定し、
前記出力部は、複数の前記解析対象画像に対応する複数の前記解析対象空間を含む空間に対応するフロアマップにおける複数の前記解析対象画像それぞれに対応する領域に、複数の前記解析対象画像それぞれに対応する前記視認時感情を示す情報を出力する、
請求項1又は2に記載の情報処理装置。
【請求項8】
前記出力部は、前記フロアマップにおける、前記視認時感情が所定の感情を示す前記解析対象画像に対応する領域に、前記視認時感情を示す情報を出力する、
請求項7に記載の情報処理装置。
【請求項9】
前記画像取得部は、それぞれ異なる位置から前記解析対象空間を視認した状態を示す複数の前記解析対象画像データを取得し、
前記感情特定部は、前記複数の解析対象画像データそれぞれに対応する解析対象空間の視認時感情を特定し、特定した複数の前記視認時感情を平均化することにより、前記解析対象空間に対応する前記視認時感情を特定する、
請求項1又は2に記載の情報処理装置。
【請求項10】
前記記憶部は、基準空間画像における位置と、当該位置における色相とテクスチャとの組み合わせと、が入力されると当該基準空間画像の視認者の感情を出力する機械学習モデルを前記第1解析用データとして記憶する、
請求項1又は2に記載の情報処理装置。
【請求項11】
コンピュータが実行する、
解析対象空間の状態を表す解析対象画像データを取得するステップと、
前記解析対象画像データを解析することにより、前記解析対象画像データが示す解析対象画像内の複数の領域それぞれに関連付けて色相とテクスチャとを特定するステップと、
基準空間画像における位置と、当該位置における色相とテクスチャとの組み合わせと、当該基準空間画像に対応する基準空間の視認者の感情と、が関連付けられた第1解析用データにおいて、特定した前記複数の領域それぞれの位置と、前記複数の領域に対応する色相とテクスチャとの組み合わせとの相関度が閾値以上の前記基準空間画像における位置と、当該位置における色相とテクスチャとの組み合わせを特定することにより、前記解析対象空間の視認者の視認時感情を特定するステップと、
前記解析対象画像に関連付けて前記視認時感情を示す情報を出力するステップと、
を有する情報処理方法。
【請求項12】
コンピュータに、
解析対象空間の状態を表す解析対象画像データを取得する画像取得部、
前記解析対象画像データを解析することにより、前記解析対象画像データが示す解析対象画像内の複数の領域それぞれに関連付けて色相とテクスチャとを特定する画像解析部、
基準空間画像における位置と、当該位置における色相とテクスチャとの組み合わせと、当該基準空間画像に対応する基準空間の視認者の感情と、が関連付けられた第1解析用データにおいて、前記画像解析部が特定した前記複数の領域それぞれの位置と、前記複数の領域に対応する色相とテクスチャとの組み合わせとの相関度が閾値以上の前記基準空間画像における位置と、当該位置における色相とテクスチャとの組み合わせを特定することにより、前記解析対象空間の視認者の視認時感情を特定する感情特定部、及び
前記解析対象画像に関連付けて前記視認時感情を示す情報を出力する出力部、
としての機能を実現させるためのプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、空間の様子を示す画像に関する情報を出力する情報処理装置、情報処理方法及びプログラムに関する。
【背景技術】
【0002】
人の眼に映る視野内に占める樹木など植物の面積割合である緑視率を算出する技術が知られている。特許文献1には、所定空間を示す画像データに対する緑視量の割合を緑視率として算出する技術が開示されている。
【先行技術文献】
【特許文献】
【0003】
【発明の概要】
【発明が解決しようとする課題】
【0004】
しかしながら、画像データの緑視率が算出されたとしても、当該画像データが示す空間を視認した視認者が当該空間に対してどのような印象を持つかを把握できるようにすることはできなかった。
【0005】
そこで、本発明はこれらの点に鑑みてなされたものであり、画像データが示す空間を視認した視認者が抱く感情を把握できるようにことを目的とする。
【課題を解決するための手段】
【0006】
本発明の第1の態様においては、解析対象空間の状態を表す解析対象画像データを取得する画像取得部と、前記解析対象画像データを解析することにより、前記解析対象画像データが示す解析対象画像内の複数の領域それぞれに関連付けて色相とテクスチャとを特定する画像解析部と、基準空間画像における位置と、当該位置における色相とテクスチャとの組み合わせと、当該基準空間画像に対応する基準空間の視認者の感情と、が関連付けられた第1解析用データを記憶する記憶部と、前記第1解析用データにおいて、前記画像解析部が特定した前記複数の領域それぞれの位置と、前記複数の領域に対応する色相とテクスチャとの組み合わせとの相関度が閾値以上の前記基準空間画像における位置と、当該位置における色相とテクスチャとの組み合わせを特定することにより、前記解析対象空間の視認者の視認時感情を特定する感情特定部と、前記解析対象画像に関連付けて前記視認時感情を示す情報を出力する出力部と、を有する情報処理装置を提供する。
【0007】
前記第1解析用データにおいては、前記基準空間の視認者が視認している位置と当該視認者の感情とが関連付けられており、前記感情特定部は、前記第1解析用データを参照することにより、前記解析対象空間の視認者の視認位置に関連付けて前記視認時感情を特定し、前記出力部は、前記解析対象画像における位置に関連付けて前記視認時感情を示す情報を出力してもよい。
【0008】
前記記憶部は、基準空間画像における位置と、当該位置における色相と、当該基準空間画像の視認者の感情と、が関連付けられた第2解析用データをさらに記憶し、前記感情特定部は、前記解析対象画像における第1領域に対しては、前記第1解析用データを参照することにより、前記第1領域の位置と前記第1領域に対応する色相とテクスチャとの組み合わせとの関係に基づいて、前記解析対象画像の視認者の第1感情を特定し、前記第1領域と異なる第2領域に対しては、前記第2解析用データを参照することにより、前記第2領域の位置と前記第2領域に対応する色相との関係に基づいて、前記解析対象画像の視認者の第2感情を特定し、前記第1感情と前記第2感情とを平均化することにより前記視認時感情を特定してもよい。
【0009】
前記解析対象画像データは、画素に関連付けられた深度情報を含み、前記感情特定部は、前記深度情報が示す深度が閾値未満の領域を前記第1領域とし、前記深度情報が示す深度が前記閾値以上の領域を前記第2領域としてもよい。
【0010】
前記感情特定部は、前記第1感情に前記第2感情よりも大きな重みづけをして平均化することにより前記視認時感情を特定してもよい。
【0011】
前記感情特定部は、前記解析対象画像における緑色の領域の割合と、前記解析対象画像における茶色の領域の割合とにさらに基づいて、前記視認時感情を特定してもよい。
【0012】
前記画像取得部は、複数の前記解析対象空間それぞれに対応する前記解析対象画像データを取得し、前記感情特定部は、複数の前記解析対象画像データそれぞれに対応する解析対象空間の前記視認時感情を特定し、前記出力部は、複数の前記解析対象画像に対応する複数の前記解析対象空間を含む空間に対応するフロアマップにおける複数の前記解析対象画像それぞれに対応する領域に、複数の前記解析対象画像それぞれに対応する前記視認時感情を示す情報を出力してもよい。
【0013】
前記出力部は、前記フロアマップにおける、前記視認時感情が所定の感情を示す前記解析対象画像に対応する領域に、前記視認時感情を示す情報を出力してもよい。
【0014】
前記画像取得部は、それぞれ異なる位置から前記解析対象空間を視認した状態を示す複数の前記解析対象画像データを取得し、前記感情特定部は、前記複数の解析対象画像データそれぞれに対応する解析対象空間の視認時感情を特定し、特定した複数の前記視認時感情を平均化することにより、前記解析対象空間に対応する前記視認時感情を特定してもよい。
【0015】
前記記憶部は、基準空間画像における位置と、当該位置における色相とテクスチャとの組み合わせと、が入力されると当該基準空間画像の視認者の感情を出力する機械学習モデルを前記第1解析用データとして記憶してもよい。
【0016】
本発明の第2の態様においては、コンピュータが実行する、解析対象空間の状態を表す解析対象画像データを取得するステップと、前記解析対象画像データを解析することにより、前記解析対象画像データが示す解析対象画像内の複数の領域それぞれに関連付けて色相とテクスチャとを特定するステップと、基準空間画像における位置と、当該位置における色相とテクスチャとの組み合わせと、当該基準空間画像に対応する基準空間の視認者の感情と、が関連付けられた第1解析用データにおいて、特定した前記複数の領域それぞれの位置と、前記複数の領域に対応する色相とテクスチャとの組み合わせとの相関度が閾値以上の前記基準空間画像における位置と、当該位置における色相とテクスチャとの組み合わせを特定することにより、前記解析対象空間の視認者の視認時感情を特定するステップと、前記解析対象画像に関連付けて前記視認時感情を示す情報を出力するステップと、を有する情報処理方法を提供する。
【0017】
本発明の第3の態様においては、コンピュータに、解析対象空間の状態を表す解析対象画像データを取得する画像取得部、前記解析対象画像データを解析することにより、前記解析対象画像データが示す解析対象画像内の複数の領域それぞれに関連付けて色相とテクスチャとを特定する画像解析部、基準空間画像における位置と、当該位置における色相とテクスチャとの組み合わせと、当該基準空間画像に対応する基準空間の視認者の感情と、が関連付けられた第1解析用データにおいて、前記画像解析部が特定した前記複数の領域それぞれの位置と、前記複数の領域に対応する色相とテクスチャとの組み合わせとの相関度が閾値以上の前記基準空間画像における位置と、当該位置における色相とテクスチャとの組み合わせを特定することにより、前記解析対象空間の視認者の視認時感情を特定する感情特定部、及び前記解析対象画像に関連付けて前記視認時感情を示す情報を出力する出力部、としての機能を実現させるためのプログラムを提供する。
【発明の効果】
【0018】
本発明によれば、画像データが示す空間を視認した視認者が抱く感情を把握できるようになるという効果を奏する。
【図面の簡単な説明】
【0019】
【
図1】情報処理システムの概要を説明するための図である。
【
図7】複数の領域の色相とテクスチャとを特定する処理を説明するための図である。
【
図8】解析対象画像における第1領域と第2領域を説明するための図である。
【
図9】快適度のヒートマップを解析対象画像に重畳させた模式図である。
【
図11】視認時感情を重畳させたフロアマップの一例である。
【
図12】情報処理システムが実行するシーケンスの一例である。
【発明を実施するための形態】
【0020】
[情報処理システムSの概要]
図1は、情報処理システムSの概要を説明するための図である。情報処理システムSは、所定の空間を視認した視認者が抱くと推定される感情を示す情報をユーザに提供するシステムである。ユーザは、例えば、住宅、オフィス、店舗、公園、庭園及びテーマパーク等を設計する設計者や建築家である。視認者は、例えばユーザが設計した住居や施設を利用すると想定される人である。以下、所定の空間を解析対象空間という。
【0021】
解析対象空間を視認した視認者が抱く感情(以下「視認時感情」という。)は、解析対象空間に植物や木材が含まれている場合と、金属やコンクリートが含まれている場合とで異なる。つまり、視認時感情は、解析対象空間に含まれる物体の色相及び物体の表面の質感(すなわちテクスチャ)に応じて変化する。そこで、情報処理システムSは、視認者が視認した解析対象画像で表される解析対象空間における色相及びテクスチャの組み合わせ、又は解析対象空間を視認した位置等に基づいて視認時感情を推定する。
【0022】
情報処理システムSは、画像提供装置1と、管理者端末2と、閲覧端末3と、情報処理装置4と、を備える。画像提供装置1、管理者端末2、閲覧端末3及び情報処理装置4は、インターネット等のネットワークNを介して各種のデータを送受信する。
【0023】
解析対象空間の状態を表す解析対象画像は、例えば、住宅やオフィス等の不動産の購入若しくは賃貸に際して不動産を内覧するための画像、商品を販売する店舗若しくはショールーム等のように商品を購入するための空間を示す画像、又は観光地、テーマパーク若しくは博物館等のように体験サービスを受ける空間を示す画像である。解析対象画像は、屋内の空間の画像でもよく、屋外の空間の画像であってもよい。なお、解析対象画像は例えば屋外や建物内の空間が実際に撮影されることにより作成された仮想現実画像(VR画像)であってもよく、コンピュータグラフィックス技術を用いて作成された画像であってもよい。
【0024】
画像提供装置1は、情報処理システムSを利用する視認者に視認させる一以上の解析対象画像データを記憶しているサーバである。画像提供装置1は、例えば、設計事務所、住宅展示場、不動産会社、又は商品を販売する店舗を運営する事業者により管理されている。
【0025】
画像提供装置1は、一以上の解析対象画像を視認者が閲覧可能な態様で閲覧端末3に提供する。画像提供装置1は、複数の解析対象画像のサムネイル画像を閲覧端末3に表示させた後に、視認者により選択された解析対象画像を特定してもよい。画像提供装置1は、視認者が閲覧端末3において指定した位置を示す情報を閲覧端末3から取得してもよい。
【0026】
管理者端末2は、画像提供装置1又は複数の解析対象画像を管理する管理者が使用するコンピュータである。管理者端末2は、管理者により格納された複数の解析対象画像を、ネットワークNを介して画像提供装置1にアップロードする。閲覧端末3が管理者端末2として機能し、管理者端末2を使用するユーザが解析対象画像を画像提供装置1にアップロードしてもよい。
【0027】
閲覧端末3は、視認者が一以上の解析対象画像を閲覧したり、解析対象空間の視認時感情を表示したりするために用いられる端末であり、例えばコンピュータ、スマートフォン又はタブレットである。閲覧端末3は、視認者が所有する端末であってもよく、設計事務所、不動産会社、住宅展示場又は店舗に設置された端末であってもよい。閲覧端末3は、解析対象画像を示す解析対象画像データを画像提供装置1から受信し、受信した解析対象画像データに基づく解析対象画像をディスプレイに表示する。視認者に解析対象画像を見てもらうユーザが、視認者とともに閲覧端末3を使用してもよい。
【0028】
視認者又はユーザが閲覧端末3で所定の操作をすると、閲覧端末3は、視認者が選択可能な状態で一以上の解析対象画像を表示する。例えば、閲覧端末3は、複数の解析対象画像のうちの1枚の解析対象画像を視認者が選択すると、選択された解析対象画像6を表示する。閲覧端末3は、解析対象画像を1枚ずつ表示し、表示する解析対象画像を切り替えるためのアイコンを視認者が選択したことに応じて、表示する解析対象画像を切り替えてもよい。解析対象画像が、例えば全方位カメラで撮影された画像である場合、閲覧端末3は、視認者の操作に基づいて、表示する解析対象画像の視認方向を変化させてもよい。
【0029】
閲覧端末3は、例えば、視認者が複数の解析対象画像から選択した一以上の解析対象画像を識別するための解析対象画像識別情報(以下、「解析対象画像ID」という。)を情報処理装置4に送信する(
図1(1)参照)。なお、閲覧端末3は、視認者の操作に基づいて撮像した撮像画像を解析対象画像として情報処理装置4に送信してもよい。また、閲覧端末3は、コンピュータグラフィックス技術を用いて作成された、住宅やオフィス、店舗等の屋内や公園、庭園、及びテーマパーク等の施設のCG画像を解析対象画像として送信してもよい。
【0030】
情報処理装置4は、閲覧端末3から受信した解析対象画像IDで識別される解析対象画像6が示す解析対象空間を視認者が視認したときの視認時感情を特定するコンピュータである。情報処理装置4は、解析対象画像6が示す解析対象空間における色相及びテクスチャの組み合わせに基づいて視認時感情を推定する(
図1(2)参照)。
【0031】
そして、情報処理装置4は、特定した視認時感情を示す情報として、例えば視認時感情の強弱を表すヒートマップ7を閲覧端末3に送信する(
図1(3)を参照)。閲覧端末3は、解析対象画像6にヒートマップ7を重畳させてディスプレイに表示する。このようにすることで、ユーザ又は視認者は、解析対象空間を視認者が視認したときの視認時感情を把握できる。以下の説明においては、情報処理装置4が、視認時感情を閲覧端末3に送信する場合の動作を主に例示する。
【0032】
[情報処理装置4の構成]
図2は、情報処理装置4の構成を示す図である。情報処理装置4は、通信部41と、記憶部42と、制御部43と、を有する。制御部43は、画像取得部431と、画像解析部432と、感情特定部433と、出力部434と、を有する。
【0033】
通信部41は、ネットワークNを介して画像提供装置1、管理者端末2又は閲覧端末3との間でデータを送受信するための通信インターフェースを有する。通信部41は、画像提供装置1から受信した解析対象画像データ、及び閲覧端末3から受信した解析対象画像ID、視認状態情報又は生体情報を画像取得部431に入力する。また、通信部41は、出力部434から入力された視認時感情を示す情報を閲覧端末3に向けて送信する。
【0034】
記憶部42は、ROM(Read Only Memory)、RAM(Random Access Memory)及びハードディスク等の記憶媒体を含む。記憶部42は、画像提供装置1から受信した解析対象画像データを、解析対象画像データを識別するための解析対象画像IDに関連付けて記憶する。また、記憶部42は、制御部43が実行するプログラムを記憶する。
【0035】
記憶部42は、解析対象空間の視認者の視認時感情の特定に用いられる第1解析用データを記憶する。第1解析用データにおいては、基準空間画像における位置と、当該位置における色相とテクスチャとの組み合わせと、当該基準空間画像に対応する基準空間の視認者の感情(視認時感情)と、が関連付けられている。
【0036】
図3は、基準空間画像5の例である。
図3の基準空間画像5は、複数の領域に分割されている。本実施形態の基準空間画像5は、3行3列の9つの領域に分割されている。各領域の位置は、例えば行(X)の位置と列(Y)の位置を示す2次元座標で表される。具体的には、各領域の位置は、左上から右下に向かって、(1,1)、(1,2)、(1,3)、(2,1)、(2,2)、(2,3)、(3,1)、(3,2)、(3,3)と設定されている。なお、基準空間画像5を分割する場合、上記の方法に限らず、任意の数及び配置の領域に分割できる。また、領域の大きさも任意である。
【0037】
図4は、第1解析用データの一例である。第1解析用データにおいては、基準空間の各領域と、当該領域の色相及びテクスチャと、当該領域の視認時感情とが関連付けられている。第1解析用データにおいては、基準空間の視認者が視認している位置と当該位置を視認したときの視認時感情とが関連付けられていてもよい。
【0038】
色相は、色の様相の相違を示す指標である。色相は、例えばRed(R)、Green(G)、Blue(B)の三原色を用いるRGB色空間で表される。色相は、HSV色空間又はHLS色空間を用いて表されてもよい。
【0039】
テクスチャは、物の表面の質感、手触りなどを示す指標である。物の表面の質感を示す指標は例えば「植物的」「木目調」「金属的」であるが、これに限定するものではない。表面の質感を示す指標は、物の表面の凹凸を表す指標である平滑度又は表面粗さであってもよく、表面に表れている模様やパターンを示すものであってもよい。
【0040】
視認時感情は、基準空間画像5が表す基準空間を視認した視認者が抱いた感情の指標である。基準空間を視認した視認者が抱いた感情は、予め実験により測定されている。視認者の感情は、例えば基準空間の所定位置を視認した視認者の脳波及び心拍のうちの少なくとも一方を含む生理状態に基づいて測定される。視認者の感情は、例えばラッセル円環モデルを用いた快適度及び覚醒度で表される。一例を挙げると、視認者の感情は、基準空間を視認した視認者の脳波におけるα波の量が多いほど、基準空間を視認した視認者がリラックスして快適である(すなわち視認者の快適度が高い)と推定される。また、視認者の感情は、基準空間を視認した視認者の脳波におけるβ波の量が多いほど、基準空間を視認した視認者が集中している(すなわち視認者の覚醒度が高い)と推定される。
【0041】
具体例を挙げると、第1解析用データには、基準空間画像の位置[2,1]における色相は[緑(59,175,177)]であり、テクスチャは[植物的]であることが示されている。そして、第1解析用データには、基準空間画像の位置[2,1]を視認した視認者が抱いた感情として、快適度が[7]、覚醒度が[4]であることが示されている。言い換えると、[緑(59,175,117)]で[植物的]な位置[2,1]の空間を視認した視認者の感情が、快適度が[7]であり、覚醒度が[4]である(リラックス状態である)ことが示されている。
【0042】
記憶部42は、複数の基準空間画像毎に視認者感情を関連付けて記憶してもよい。この場合、記憶部42は、各基準空間画像の複数の位置それぞれに、視認者感情を関連付けて記憶する。
【0043】
記憶部42は、機械学習モデルを第1解析用データとして記憶してもよい。例えば、第1解析用データである第1学習モデルは、複数の基準空間画像を用いて既知の機械学習処理を実行することによって生成されたモデルである。具体的には、第1学習モデルは、基準空間画像における位置と、当該位置における色相とテクスチャとの組み合わせと、が入力されると当該基準空間画像の視認時感情を出力するモデルである。すなわち、第1学習モデルにおいて、基準空間画像における位置と、当該位置における色相とテクスチャとの組み合わせとが説明変数であり、視認時感情が目的変数である。情報処理装置4は、第1学習モデルを用いて、位置と、当該位置における色相とテクスチャとの組み合わせとから視認時感情を予測する。学習モデルは、例えば、ニューラルネットワークである。機械学習処理は、例えば、誤差逆伝播法である。
【0044】
なお、物体の色と表面の質感がわかる状態で視認したときに視認者が抱く感情と、質感がなく色のみを視認したときに視認者が抱く感情とは異なる。そのため、記憶部42は、基準空間画像における位置と、当該位置における色相と、当該基準空間画像の視認者の感情と、が関連付けられた第2解析用データを記憶する。
【0045】
図5は、第2解析用データの一例である。第2解析用データには、第1解析用データと異なり、基準空間画像における位置及び視認時感情にテクスチャが関連付けられていない。具体例を挙げると、第2解析用データの位置(2,1)における視認時感情は、第1解析用データの視認時感情(快適度[7]、覚醒度[4](
図4を参照))と異なり、快適度[7]、覚醒度[7]である。
【0046】
なお、第2解析用データは、第1解析用データと同様に、学習モデルであってもよい。この場合、第2解析用データの第2学習モデルは、基準空間画像における位置と、当該位置における色相と、が入力されると当該基準空間画像の視認時感情を出力するモデルである。すなわち、第2学習モデルにおいて、基準空間画像における位置と、当該位置における色相とが説明変数であり、視認時感情が目的変数である。
【0047】
制御部43は、例えばCPU(Central Processing Unit)である。制御部43は、記憶部42に記憶されたプログラムを実行することにより、画像取得部431、画像解析部432、感情特定部433及び出力部434として機能する。
【0048】
画像取得部431は、通信部41が受信した各種の情報を取得する。画像取得部431は、ユーザ又は視認者が選択した一以上の解析対象空間の状態を表す解析対象画像データを取得する。具体的には、画像取得部431は、閲覧端末3が送信した解析対象画像IDに対応する解析対象画像データを取得する。
図6は、解析対象画像6の一例である。
【0049】
画像取得部431は、取得した解析対象画像IDで識別される解析対象画像データを画像解析部432に入力する。具体的には、画像取得部431は、取得した解析対象画像IDで識別される解析対象画像データを画像提供装置1から取得し、取得した解析対象画像データを画像解析部432に入力する。画像取得部431は、閲覧端末3が複数の解析対象画像IDを送信した場合、各解析対象画像IDに対応する解析対象画像データを画像提供装置1から取得し、取得した複数の解析対象画像データを画像解析部432に入力する。
【0050】
画像解析部432は、解析対象画像データを解析することにより、解析対象画像6が表す解析対象空間における色相とテクスチャを特定する。例えば、画像解析部432は、解析対象画像データが示す解析対象画像6内の複数の領域それぞれに関連付けて色相とテクスチャとを特定する。
【0051】
図7は、複数の領域の色相とテクスチャとを特定する処理を説明するための図である。
図7に示すように、解析対象画像6は、3行3列の9つの領域に分割されている。9つの領域には、左上から右下に向かって位置を特定するための識別情報が設定されている。位置を特定するための識別情報は、例えば左上から右下に向かって、(1,1)、(1,2)、(1,3)、(2,1)、(2,2)、(2,3)、(3,1)、(3,2)、(3,3)と設定されている。
【0052】
画像解析部432は、各領域の色相を特定する。例えば、画像解析部432は、各領域に含まれている複数の画素それぞれの色相を特定し、複数の画素の色相の平均値又は中央値を領域の色相として特定する。一例を挙げると、画像解析部432は、位置(1,1)の領域に含まれている複数の画素の色相の平均値を領域の色相として特定する。
【0053】
画像解析部432は、各領域のテクスチャを特定する。画像解析部432は、例えば複数のマスクパターンを用いて各領域の特徴を抽出することにより、各領域のテクスチャを特定する。なお、画像解析部432がテクスチャを特定する処理は、上記の処理に限定するものではない。
【0054】
感情特定部433は、解析対象空間を視認する視認者の視認時感情を特定する。具体的には、まず、感情特定部433は、第1解析用データにおいて、解析対象空間画像の各領域の位置と、当該位置の色相とテクスチャとの組み合わせと、基準空間画像5の各領域の位置と当該位置の色相とテクスチャとの組み合わせとの相関度を特定する。そして、感情特定部433は、相関度が閾値以上の基準空間画像における位置と、当該位置における色相とテクスチャとの組み合わせに対応する視認時感情を、解析対象空間の視認者の視認時感情として特定する。相関度の閾値は、実験などによって予め定められている。
【0055】
具体例を挙げると、感情特定部433は、基準空間画像5の位置(1,3)における色相[茶]とテクスチャ[木目調]との組み合わせとの相関度が閾値以上である解析対象画像6の領域を特定する。感情特定部433は、解析対象画像6の位置(2,3)の色相が[茶]であり、テクスチャが[木目調]であれば、基準空間画像5の位置(1,3)の領域と、解析対象画像6の位置(2,3)の領域との相関度が閾値以上であると判定する。そして、感情特定部433は、解析対象画像6の位置(2,3)の領域の視認時感情を、基準空間画像5の位置(1,3)に対応する視認時感情(快適度[8]、覚醒度[8])であると特定する(
図4を参照)。
【0056】
感情特定部433は、第1解析用データが学習モデルである場合、解析対象空間画像を学習モデルに入力することにより、解析対象空間画像に対応する解析対象空間の視認時感情を特定する。具体的には、感情特定部433は、解析対象空間画像の各領域の位置と、当該位置における色相とテクスチャとの組み合わせを学習モデルに入力することにより、解析対象空間画像に対応する解析対象空間の視認時感情を特定する。このように、感情特定部433は、色相とテクスチャとの組み合わせを入力することにより視認時感情を特定する学習モデルを用いることで、視認時感情を、より精度よく特定できる。
【0057】
感情特定部433は、解析対象空間に対する視認者の視認位置ごとに感情を特定してもよい。例えば、感情特定部433は、第1解析用データを参照することにより、解析対象空間の視認者の視認位置に関連付けて視認時感情を特定する。具体的には、感情特定部433は、解析対象空間の各位置を視認者が視認したと仮定して、各視認位置の視認時感情を特定する。具体例を挙げると、感情特定部433は、解析対象画像の位置(1,1)に関連付けて、解析対象画像6の位置(1,1)を視認者が視認したと仮定したときの視認時感情を特定する。このようにすることで、感情特定部433は、ユーザが設計した住居や施設を利用する予定の視認者が、解析対象空間の所定位置を視認したときに抱くと想定される感情を特定できる。
【0058】
また、感情特定部433は、解析対象空間に対応する解析空間画像における視認者の視認位置を特定し、特定した視認位置に関連付けて視認時感情を特定してもよい。例えば、感情特定部433は、視認者の眼を撮影するカメラと、解析対象画像を表示するディスプレイとを有するゴーグルを視認者が装着している状態で、ディスプレイに表示されている解析対象画像と視認者の瞳の位置とに基づいて視認位置を特定する。そして、感情特定部433は、特定した視認位置の視認時感情を特定する。このようにすることで、感情特定部433は、視認者が視認位置の画像を視認したときに抱くと想定される感情を特定できる。
【0059】
感情特定部433は、解析対象空間の奥行に応じた視認時感情を特定する。例えば、感情特定部433は、解析対象空間の手前の領域において色相及びテクスチャの組み合わせに基づく視認時感情を特定し、奥の領域において色相のみに基づいて視認時感情を特定する。この場合、解析対象画像データは、画素に関連付けられた深度情報を含む。言い換えると、解析対象画像データに含まれる各画素には、深度情報が関連付けられている。深度は、例えば解析対象空間の奥行方向の位置を示す数値であり、数値が大きいほど当該画素が解析空間の奥の領域に存在することを示す。
【0060】
感情特定部433は、深度情報が示す深度が、手前と奥とを区別するための深度閾値未満の領域を解析対象空間の手前の領域である第1領域とする。感情特定部433は、深度情報が示す深度が深度閾値以上の領域を、第1領域と異なる第2領域とする。深度閾値は、例えば解析対象画像データに含まれる各画素の深度情報が示す深度の最大値及び最小値の中間値であるが、これに限定するものではない。
【0061】
図8は、解析対象画像6における第1領域Aと第2領域Bを説明するための図である。
図8に示す第1領域Aは、深度閾値未満である画素のみが含まれる領域である。第2領域Bは、深度閾値以上である画素のみが含まれる領域である。すなわち、解析対象画像6の第1領域Aは、第2領域Bよりも手前に位置している。
【0062】
感情特定部433は、第1領域Aに対しては、第1解析用データを参照することにより、第1領域Aの位置と第1領域Aに対応する色相とテクスチャとの組み合わせとの関係に基づいて、解析対象画像の視認者の第1感情を特定する。例えば、感情特定部433は、第1領域Aの位置と、第1領域Aの色相及びテクスチャの組み合わせとを第1学習モデルに入力することにより、解析対象画像の視認者の第1感情を特定する。
【0063】
感情特定部433は、第2領域Bに対しては、第2解析用データを参照することにより、第2領域Bの位置と第2領域Bに対応する色相との関係に基づいて、解析対象画像6の視認者の第2感情を特定する。
【0064】
そして、感情特定部433は、第1感情と第2感情とに基づいて視認時感情を特定する。例えば、感情特定部433は、第1感情と第2感情とを平均化することにより視認時感情を特定する。また、感情特定部433は、第1感情と第2感情との中央値を視認時感情として特定してもよい。このようにすることで、感情特定部433は、物体の色と表面の質感がわかる手前の領域を視認したときに視認者が抱く感情と、質感がわかりづらく色のみを視認できる奥の領域を視認したときに視認者が抱く感情とが反映された視認時感情を特定できる。
【0065】
解析対象空間における奥の領域よりも手前の領域の方が視認時感情に対する影響が大きいので、感情特定部433は、第1感情に第2感情よりも大きな重みづけをして平均化することにより視認時感情を特定してもよい。このようにすることで、感情特定部433は、視認者が解析対象空間の手前を視認したときの感情を、解析対象空間の奥を視認したときの感情よりも大きく重みづけできる。その結果、感情特定部433は、距離の影響を含めた視認時感情を特定できる。
【0066】
感情特定部433は、解析対象画像6における緑色の領域の割合(以下「緑視率」という)と、解析対象画像6における茶色の領域の割合(以下「木視率」という)とにさらに基づいて、視認時感情を特定してもよい。例えば、感情特定部433は、緑視率が0%から所定値までの間において緑視率が大きくなるほど高い快適度を特定し、所定値以降において緑視率が大きくなるほど低い快適度を特定する。言い換えると、緑視率に対する快適度は、上に凸のグラフを描く。なお、感情特定部433は、緑視率と同様に、木視率に対する快適度及び覚醒度の少なくともいずれかを特定する。木視率の所定値は、異なるものとするが、緑視率の所定値と同じであってもよい。これにより、感情特定部433は、解析対象空間全体に対する植物の比率、及び木材の比率に応じた視認時感情を特定できる。
【0067】
感情特定部433は、一の解析対象空間に対応する複数の解析対象画像それぞれの視認時感情を特定することにより、一の解析対象空間の視認時感情を特定する。一の解析対象空間は、例えば屋内のリビング、キッチン、ダイニング及び寝室等である。この場合、画像取得部431は、それぞれ異なる位置から一の解析対象空間を視認した状態を示す複数の解析対象画像データを取得する。言い換えると、画像取得部431は、一の解析対象空間を撮像した位置及び向きのうちの少なくとも一方が異なる複数の撮像画像を解析対象画像データとして取得する。
【0068】
次に、画像解析部432は、各解析対象画像データに対応する解析対象画像の各領域の色相とテクスチャを特定する。続いて、感情特定部433は、複数の解析対象画像データそれぞれに対応する解析対象空間の視認時感情を特定する。具体的には、感情特定部433は、各解析対象画像データの各領域の色相とテクスチャを第1学習モデルに入力することにより、各解析対象画像データに対応する複数の視認時感情を特定する。そして、感情特定部433は、特定した複数の視認時感情に基づいて一の解析対象空間に対応する視認時感情を特定する。例えば、感情特定部433は、複数の視認時感情を平均化した値、又は複数の視認時感情の中央値を一の解析対象空間に対応する視認時感情として特定する。
【0069】
また、感情特定部433は、各視認時感情に当該視認時感情に対応する解析対象画像データの重要度に応じた重みづけをした後の複数の視認時感情を平均化することにより一の解析対象空間に対応する視認時感情を特定してもよい。具体的には、感情特定部433は、視認者が視認する頻度が高い位置から一の解析対象空間を視認した状態を示す解析対象画像データに、視認者が視認する頻度が低い位置から一の解析対象空間を視認した状態を示す解析対象画像データよりも大きな重み付けをして平均化する。このようにすることで、感情特定部433は、視認者が一の解析対象空間で過ごす場合に抱く感情を適切に特定できる。
【0070】
出力部434は、解析対象画像6に関連付けて視認時感情を示す情報を出力する。例えば、出力部434は、解析対象画像6に視認時感情を重畳させて表示させるための情報を出力する。具体的には、出力部434は、視認時感情の快適度のヒートマップを解析対象画像に重畳させて表示させるための情報を閲覧端末3に出力する。
【0071】
図9は、快適度のヒートマップ7を解析対象画像6に重畳させた模式図である。
図9の白く表示された領域は、快適度が他の領域よりも高い領域である。
図9の黒く表示された領域は、快適度が他の領域よりも低い領域である。このようにすることで、ユーザは、解析対象空間のどこを視認者が見たときに快適度が高くなるかを把握しやすくなる。
【0072】
出力部434は、視認時感情を示す情報として、視認時感情を示す複数の項目を正多角形上に表現したレーダーチャートを出力してもよい。視認時感情を示す複数の項目は、例えば、感情の種類である。感情の種類は、例えばリラックス、集中、満足、疲れ、及び生産性である。出力部434は、解析対象画像6とともに視認時感情を示すレーダーチャートを表示させるための情報を送信する。このようにすることで、ユーザは、解析対象画像6に対応する解析対象空間を視認した視認者がどのような感情を抱くかを把握しやすくなる。
【0073】
(視認時感情をフロアマップに重畳させて表示する処理)
複数の解析対象空間を含む一の空間において、複数の解析対象空間それぞれに対応する視認時感情をユーザが知りたい場合がある。一の空間は、例えばデパート、ショッピングモールなどの商業施設、病院や役所などの公共施設である。複数の解析対象空間は、例えばデパートであれば、デパートに入店している複数の店舗、及び休憩スペースである。情報処理装置4は、一の空間に含まれる複数の解析対象空間の視認時感情を特定し、特定した視認時感情を一の空間の地図(以下「フロアマップ」という。)に関連付けて管理者端末2に表示させる。以下、視認時感情をフロアマップに重ねて表示する処理を具体的に説明する。
【0074】
画像取得部431は、一の空間に含まれる複数の解析対象空間それぞれに対応する解析対象画像データを取得する。例えば、画像取得部431は、複数の解析対象空間それぞれを撮像した複数の撮像画像を解析対象画像データとして取得する。また、画像取得部431は、複数の解析対象空間を示す一の解析対象画像データを取得してもよい。例えば、画像取得部431は、一の空間を所定の位置から全方位撮像した複数の撮像画像をコンピュータ上で合成処理されることにより作成された360度画像を取得する。また、画像取得部431は、360度が像を所定角度毎に分割した複数の画像を複数の解析対象画像データとして取得してもよい。
図10は、解析対象画像8の一例である。
図10の解析対象画像8は、一の空間に含まれる複数の解析対象空間それぞれに対応している。
【0075】
感情特定部433は、複数の解析対象画像データそれぞれに対応する解析対象空間の視認時感情を特定する。具体的には、感情特定部433は、複数の解析対象画像データを第1学習モデルに入力することにより、各解析対象画像データの視認時感情を特定する。
【0076】
出力部434は、複数の解析対象画像に対応する複数の解析対象空間を含む一の空間に対応するフロアマップに視認時感情を重畳させて表示するための情報を閲覧端末3に出力する。具体的には、出力部434は、フロアマップにおける複数の解析対象画像それぞれに対応する領域に、複数の解析対象画像それぞれに対応する視認時感情を示す情報を出力する。
図11は、視認時感情を重畳させたフロアマップの一例である。
図11の網掛けした領域は、当該領域を視認者が視認したときの快適度を示す。網掛けが濃くなるほど快適度は高い。例えば、領域71及び領域72の快適度は、領域70、領域73、領域74及び領域75よりも高い。領域70の快適度は、領域73、領域74及び領域75よりも高い。
【0077】
このようにすることで、視認時感情が重畳されたフロアマップを見たユーザは、フロア内のどこを見たときに視認者が快適になるかを把握しやすくなる。また、ユーザは、フロア内のどこを見たときに視認者が快適でなくなるかを把握できるので、フロアの環境改善に活用できる。
【0078】
[情報処理システムSが実行するシーケンス]
図12は、情報処理システムSが実行するシーケンスの一例である。
図12のシーケンスは、例えば閲覧端末3から視認時感情を特定する処理を開始する指示が送信されたら実行される。
【0079】
まず、画像提供装置1は、視認時感情を特定する処理を開始する指示を送信した閲覧端末3に、複数の画像データを送信する(ステップS1)。例えば、画像提供装置1は、商品を販売する店舗内を撮像した位置及び向きがそれぞれ異なる複数の画像データを閲覧端末3に送信する。
【0080】
閲覧端末3は、画像提供装置1から送信された複数の画像データに対応する複数の画像をディスプレイに表示する。視認者は、閲覧端末3に表示された複数の画像のうち、視認時感情を特定する画像を選択する。閲覧端末3は、複数の画像のうち、視認時感情を特定する画像の選択を受け付ける(ステップS2)。閲覧端末3は、解析対象画像を識別するための解析対象画像IDを情報処理装置4に送信する(ステップS3)。
【0081】
情報処理装置4は、閲覧端末3から送信された解析対象画像IDで識別される解析対象画像データに対応する解析対象画像の色相とテクスチャを特定する(ステップS4)。具体的には、情報処理装置4は、解析対象画像の複数の領域の位置と、各領域における色相とテクスチャとの組み合わせとを特定する。
【0082】
続いて、情報処理装置4は、色相とテクスチャを特定した解析対象画像の視認時感情を特定する(ステップS5)。具体的には、情報処理装置4は、各領域の位置と、各領域の色相とテクスチャとの組み合わせとを第1学習モデルに入力することにより、各領域の視認時感情を特定する。
【0083】
情報処理装置4は、解析対象画像6に関連付けて視認時感情を閲覧端末3に出力する(ステップS6)。例えば、出力部434は、解析対象画像に視認時感情を重畳させて表示させるための情報を出力する。具体的には、出力部434は、視認時感情の快適度のヒートマップを解析対象画像に重畳させて表示させるための情報を閲覧端末3に出力する。
【0084】
閲覧端末3は、情報処理装置4が特定した視認時感情をディスプレイに表示する(ステップS7)。具体的には、閲覧端末3は、視認時感情の快適度のヒートマップを解析対象画像に重畳させてディスプレイに表示させる(
図9を参照)。
【0085】
なお、情報処理装置4は、視認時感情を閲覧端末3に送信するだけでなく、視認時感情を管理者端末2のディスプレイに表示したり、紙などの印刷媒体に印刷したり、閲覧端末3と異なる外部装置(例えば管理者端末2)に送信したりしてもよい。
【0086】
[情報処理装置4の効果]
以上説明したとおり、情報処理装置4は、基準空間画像における位置と、当該位置における色相とテクスチャとの組み合わせと、当該基準空間画像に対応する基準空間の視認者の感情と、が関連付けられた第1解析用データを記憶している。まず、情報処理装置4は、解析対象空間の状態を表す解析対象画像データを解析することにより、解析対象画像データが示す解析対象画像内の各領域の色相とテクスチャを特定する。次に、情報処理装置4は、第1解析用データにおいて、複数の領域の位置と各領域に対応する色相とテクスチャとの組み合わせに対応する基準空間画像における位置と、当該位置における色相とテクスチャとの組み合わせを特定して解析対象空間の視認者の視認時感情を特定する。そして、情報処理装置4は、解析対象画像に関連付けて視認時感情を示す情報を出力する。
【0087】
このように、情報処理装置4は、基準空間画像の色相及びテクスチャの組み合わせと相関度が閾値以上である解析対象画像の色相及びテクスチャの空間を視認したときに抱くと推定される視認者の視認時感情を特定できる。その結果、情報処理装置4は、解析対象画像データが示す解析対象空間を視認した視認者の視認時感情を示す情報を、設計者や建築家であるユーザに提供できる。そして、視認時感情の提供を受けたユーザは、例えばユーザ自身が設計した解析対象空間を視認者が視認したときに抱くと想定される感情を把握できる。さらに、ユーザは、視認時感情を参考にレイアウトを変更した解析対象空間の視認時感情を確認することで、ユーザが快適になったり集中できたりする空間を設計できるようになる。
【0088】
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されず、その要旨の範囲内で種々の変形及び変更が可能である。例えば、装置の全部又は一部は、任意の単位で機能的又は物理的に分散・統合して構成することができる。また、複数の実施の形態の任意の組み合わせによって生じる新たな実施の形態も、本発明の実施の形態に含まれる。組み合わせによって生じる新たな実施の形態の効果は、もとの実施の形態の効果を併せ持つ。
【符号の説明】
【0089】
S 情報処理システム
1 画像提供装置
2 管理者端末
3 閲覧端末
4 情報処理装置
41 通信部
42 記憶部
43 制御部
431 画像取得部
432 画像解析部
433 感情特定部
434 出力部