(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024148337
(43)【公開日】2024-10-18
(54)【発明の名称】情報処理装置
(51)【国際特許分類】
G06T 7/00 20170101AFI20241010BHJP
【FI】
G06T7/00 300F
G06T7/00 660B
【審査請求】未請求
【請求項の数】4
【出願形態】OL
(21)【出願番号】P 2023061394
(22)【出願日】2023-04-05
(71)【出願人】
【識別番号】392026693
【氏名又は名称】株式会社NTTドコモ
(74)【代理人】
【識別番号】100088155
【弁理士】
【氏名又は名称】長谷川 芳樹
(74)【代理人】
【識別番号】100113435
【弁理士】
【氏名又は名称】黒木 義樹
(74)【代理人】
【識別番号】100121980
【弁理士】
【氏名又は名称】沖山 隆
(74)【代理人】
【識別番号】100128107
【弁理士】
【氏名又は名称】深石 賢治
(74)【代理人】
【識別番号】100183081
【弁理士】
【氏名又は名称】岡▲崎▼ 大志
(72)【発明者】
【氏名】佐藤 里奈
(72)【発明者】
【氏名】小林 洸陽
【テーマコード(参考)】
5L096
【Fターム(参考)】
5L096AA02
5L096AA06
5L096BA02
5L096CA05
5L096DA02
5L096FA09
5L096FA67
5L096FA69
5L096GA51
5L096JA11
(57)【要約】
【課題】特定物体の行動に関するデータを好適に取得可能な情報処理装置を提供する。
【解決手段】一実施形態の情報処理装置10は、互いに異なる撮影範囲を有する複数のカメラCの各々によって撮影された画像と、画像が撮影された時刻を示す時刻情報と、画像を撮影したカメラCを特定するためのカメラ情報と、を互いに関連付けた関連付け情報を取得する取得部11と、取得部11によって取得された関連付け情報に含まれる画像を解析することにより、同一と推定される特定物体を共通の被写体として含む複数の画像を抽出する解析部12と、解析部12により抽出された複数の画像の各々に関連付けられた時刻情報及びカメラ情報に基づいて、特定物体の位置の時間変化を示す移動履歴情報を生成する生成部13と、を備える。
【選択図】
図1
【特許請求の範囲】
【請求項1】
互いに異なる撮影範囲を有する複数のカメラの各々によって撮影された画像と、前記画像が撮影された時刻を示す時刻情報と、前記画像を撮影したカメラを特定するためのカメラ情報と、を互いに関連付けた関連付け情報を取得する取得部と、
前記取得部によって取得された前記関連付け情報に含まれる前記画像を解析することにより、同一と推定される特定物体を共通の被写体として含む複数の画像を特定する解析部と、
前記解析部により特定された前記複数の画像の各々に関連付けられた前記時刻情報及び前記カメラ情報に基づいて、前記特定物体の位置の時間変化を示す移動履歴情報を生成する生成部と、
を備える情報処理装置。
【請求項2】
前記解析部は、
解析対象の前記画像に含まれる物体の複数の特徴点を検出する特徴点検出部と、
検出された各前記特徴点に対応する画素の画素値に基づいて、前記特徴点毎の色情報を取得する色情報取得部と、
検出された各前記特徴点の位置に基づいて、前記物体の姿勢を判定する姿勢判定部と、
前記物体と前記物体の姿勢と前記特徴点毎の色情報とを互いに関連付けた物体情報を前記画像毎に取得する物体情報取得部と、
第1の関連付け情報に含まれる第1画像から取得された第1の物体情報と第2の関連付け情報に含まれる第2画像から取得された第2の物体情報との比較結果に基づいて、前記第1の物体情報に関連付けられた物体と前記第2の物体情報に関連付けられた物体とが同一であるか否かを判定する判定部と、を備える、
請求項1に記載の情報処理装置。
【請求項3】
前記特徴点検出部、前記色情報取得部、前記姿勢判定部、及び物体情報取得部は、同一の物体が被写体として含まれていることが判明している複数の画像の各々に対する処理を実行することにより、前記同一の物体について、複数の異なる姿勢の各々に対応する前記特徴点毎の色情報を含む前記物体情報を取得し、
前記判定部は、前記複数の異なる姿勢の各々に対応する前記特徴点毎の色情報を用いることにより、前記第1の物体情報に関連付けられた物体と前記第2の物体情報に関連付けられた物体とが同一であるか否かを判定する、
請求項2に記載の情報処理装置。
【請求項4】
前記物体は、人物であり、
前記解析部は、人物の顔情報を用いることなく、同一と推定される人物を被写体として含む前記複数の画像を特定する、
請求項1に記載の情報処理装置。
【発明の詳細な説明】
【技術分野】
【0001】
本発明の一側面は、情報処理装置に関する。
【背景技術】
【0002】
特許文献1には、複数の部位(関節)を有する物体(人体)を撮像した画像から、当該複数の部位に対応する特徴点群を検出し、画像から各特徴点に対応する特徴量を抽出し、抽出された特徴量を予め登録された物体の特徴量と比較することによって、物体を識別する方法が開示されている。
【先行技術文献】
【特許文献】
【0003】
【発明の概要】
【発明が解決しようとする課題】
【0004】
例えば商業施設等において、特定物体(例えば、顧客等の人)の行動に関するデータ(例えば、商業施設内に入ったユーザの移動履歴を示すデータ等)を取得したいというニーズが存在する。しかし、上記特許文献1に開示されたような手法を用いて、ある特定の場所(例えば、施設のエントランス等)に設置された1台のカメラによって撮影された画像に含まれる物体を識別するだけでは、上述したような特定物体の行動に関する詳細なデータを取得することは困難である。
【0005】
そこで、本発明の一側面は、特定物体の行動に関するデータを好適に取得可能な情報処理装置を提供することを目的とする。
【課題を解決するための手段】
【0006】
本発明の一側面に係る情報処理装置は、互いに異なる撮影範囲を有する複数のカメラの各々によって撮影された画像と、画像が撮影された時刻を示す時刻情報と、画像を撮影したカメラを特定するためのカメラ情報と、を互いに関連付けた関連付け情報を取得する取得部と、取得部によって取得された関連付け情報に含まれる画像を解析することにより、同一と推定される特定物体を共通の被写体として含む複数の画像を特定する解析部と、解析部により特定された複数の画像の各々に関連付けられた時刻情報及びカメラ情報に基づいて、特定物体の位置の時間変化を示す移動履歴情報を生成する生成部と、を備える。
【0007】
本開示の一側面に係る情報処理装置においては、複数のカメラの各々によって撮影された各画像を解析することにより、共通の被写体(特定物体)を含む複数の画像が抽出される。そして、これらの複数の画像の各々に関連付けられた時刻情報及びカメラ情報に基づくことにより、当該特定物体がどの時刻にどの場所(すなわち、カメラ情報により特定されるカメラの撮影範囲に対応する場所)にいたかを示す移動履歴情報(すなわち、特定物体の位置の時間変化)が生成される。したがって、上記構成によれば、特定物体の行動に関するデータ(すなわち、移動履歴情報)を好適に取得することができる。
【発明の効果】
【0008】
本発明の一側面によれば、特定物体の行動に関するデータを好適に取得可能な情報処理装置を提供することができる。
【図面の簡単な説明】
【0009】
【
図1】一実施形態に係る情報処理装置の機能構成の一例を示す図である。
【
図4】複数の特徴点を含む骨格情報の一例を示す図である。
【
図5】一の特徴点に対応する色情報(色ヒストグラム)の一例を視覚的に表した図である。
【
図8】複数の姿勢を用いて同一性判定を行う場合の効果を説明するための図である。
【
図9】情報処理装置の動作の一例を示すフローチャートである。
【
図10】
図9のステップS2の処理の一例を示すフローチャートである。
【
図11】情報処理装置のハードウェア構成の一例を示す図である。
【発明を実施するための形態】
【0010】
以下、添付図面を参照して、本発明の一実施形態について詳細に説明する。なお、図面の説明において同一又は相当要素には同一符号を付し、重複する説明を省略する。
【0011】
図1は、一実施形態に係る情報処理装置10の機能構成の一例を示す図である。一例として、情報処理装置10は、ある施設(例えば、デパート等の比較的広い敷地を有する商業施設等)内における特定物体(例えば、顧客等の人)の行動(例えば、移動履歴(動線)等)に関するデータを取得するための情報処理を実行する。また、情報処理装置10(後述する解析部12)は、複数の特徴点を有する特定物体を被写体として含む画像に対する画像処理を実行することにより、当該画像に含まれる物体を識別する機能も備えている。一例として、複数の特徴点を有する特定物体は、人物である。ただし、情報処理装置10による識別対象となる特定物体は、人物に限られず、例えば、犬、猫等の人以外の生物であってもよいし、ロボット等の非生物であってもよい。
【0012】
図1に示されるように、情報処理装置10は、取得部11と、解析部12と、生成部13と、関連付け情報記憶部14と、人物情報記憶部15と、移動履歴記憶部16と、を有する。
【0013】
取得部11は、互いに異なる撮影範囲を有する複数のカメラCの各々によって撮影された画像と、当該画像が撮影された時刻を示す時刻情報と、当該画像を撮影したカメラCを特定するためのカメラ情報と、を互いに関連付けた関連付け情報を取得する。複数のカメラCは、例えば、ある施設内において互いに異なる場所に配置された固定カメラである。複数のカメラCは、例えば、デパート等の商業施設内において、エントランス、各フロアのエレベーター乗り場、各フロアの通路、各店舗等の様々な場所に設置され得る。カメラ情報は、画像がどのカメラC(すなわち、どの場所に設置されたカメラC)によって撮影されたかを特定するための情報としての役割を有する。つまり、関連付け情報に含まれるカメラ情報に基づいて、当該関連付け情報に含まれる画像が撮影された場所(すなわち、カメラ情報により特定されるカメラCの撮影範囲)を特定することが可能となる。
【0014】
例えば、複数のカメラCの各々は、情報処理装置10と有線又は無線の通信ネットワークを介して通信可能に構成されている。この場合、取得部11は、複数のカメラCの各々から撮影された画像を受信することにより、画像を取得できる。上記画像は、静止画像であってもよいし、映像(動画像)であってもよい。後者の場合、取得部11は、動画像を構成する各フレームに対応する画像を順次取得する。本実施形態では一例として、取得部11は、各カメラCから定期的に(例えば、予め定められた数秒間隔で)静止画である画像を取得するように構成されている。
【0015】
一例として、各カメラCから取得部11に送信されるデータには、画像内容を示す画像情報(各画素の画素値等)と共に、画像が撮影された時刻(時刻情報)と、当該カメラCを特定するためのカメラ情報と、が含まれる。取得部11は、カメラCから取得したこれらの情報(画像情報、時刻情報、及びカメラ情報)にユニークな画像ID(画像を識別するための情報)を関連付ける。その結果、画像ID、時刻情報、カメラ情報、及び画像情報を互いに関連付けた関連付け情報が得られる。このように取得部11により得られた関連付け情報は、関連付け情報記憶部14に記憶(蓄積)される。
【0016】
図2は、関連付け情報の一例を示す図である。この例では、カメラ情報「C001」により特定されるカメラCによって「2023年3月1日15時0分」に撮影された画像に画像ID「IM001」が関連付けられることにより、1つの(1レコード分の)関連付け情報が生成されている。同様に、カメラ情報「C002」により特定されるカメラCによって「2023年3月1日15時10分」に撮影された画像に画像ID「IM102」が関連付けられることにより、1つの(1レコード分の)関連付け情報が生成されている。このように、本実施形態では一例として、あるカメラCによって撮影された画像が情報処理装置10に送信される毎に、取得部11によって1つの関連付け情報が生成されると共に、関連付け情報記憶部14に記憶される。
【0017】
解析部12は、取得部11によって取得された関連付け情報に含まれる画像を解析することにより、同一と推定される人物(特定物体)を共通の被写体として含む複数の画像を特定する。
【0018】
図3は、解析部12の機能構成の一例を示す図である。
図3に示されるように、一例として、解析部12は、特徴点検出部121と、色情報取得部122と、姿勢判定部123と、人物情報取得部124(物体情報取得部)と、判定部125と、を有する。特徴点検出部121、色情報取得部122、姿勢判定部123、及び人物情報取得部124の処理は、解析対象となる各画像(すなわち、各関連付け情報に含まれる画像)に対して実行される。
【0019】
特徴点検出部121は、解析対象の画像(すなわち、各関連付け情報に含まれる各画像)に含まれる人物の複数の特徴点を検出する。特徴点は、物体(本実施形態では人物)の一部を構成する特徴的な部位である。例えば、特徴点は、人の骨格推定で検出される部分であり、例えば、肩、肘、手首、足首等の関節等である。
図4に示されるように、本実施形態では、一例として、11個の特徴点FP1~FP11が用いられる。特徴点FP1は、胴体の中心部に対応する特徴点である。特徴点FP2は、右肩に対応する特徴点である。特徴点FP3は、右手首に対応する特徴点である。特徴点FP4は、左肩に対応する特徴点である。特徴点FP5は、左手首に対応する特徴点である。特徴点FP6は、右脚の付け根部分に対応する特徴点である。特徴点FP7は、右膝に対応する特徴点である。特徴点FP8は、右足首に対応する特徴点である。特徴点FP9は、左脚の付け根部分に対応する特徴点である。特徴点FP10は、左膝に対応する特徴点である。特徴点FP11は、左足首に対応する特徴点である。
【0020】
例えば、特徴点検出部121は、解析対象の画像に対して、公知の骨格位置推定処理を実行する。骨格位置推定処理は、例えば、機械学習モデルを用いることにより実行され得る。このような機械学習モデル(学習済みモデル)は、例えば、学習用の画像(人を含む画像)と当該画像に対応した骨格位置(各特徴点の位置)(正解ラベル)とを組にした教師データを用いて、深層学習等の機械学習を行うことにより得られる。このような機械学習モデルの例としては、MMPose、OpenPose等を用いたモデルが挙げられる。
【0021】
一例として、
図4の(A)に示されるように、正面を向いた男性の人物P1が画像中に被写体として含まれている場合、上記骨格位置推定処理により、当該人物P1の複数の特徴点FP1~FP11の各々の位置情報を含む骨格情報SI1が得られる。同様に、
図4の(B)に示されるように、正面を向いた女性の人物P2が画像中に被写体として含まれている場合、上記骨格位置推定処理により、当該人物P2の複数の特徴点FP1~FP11の各々の位置情報を含む骨格情報SI2が得られる。
【0022】
色情報取得部122は、特徴点検出部121により検出された各特徴点FP1~FP11に対応する画素の画素値に基づいて、特徴点毎の色情報を取得する。一例として、色情報は、特徴点が検出された位置(中心座標)を含み且つ複数の画素を含む領域(例えば、
図4に示されるように、上記中心座標を中心とし所定の半径を有する円形領域)の色ヒストグラムである。
【0023】
図5は、一の特徴点に対応する色情報(色ヒストグラム)の一例を視覚的に表した図である。色ヒストグラムは、画像中において、各画素値(0~255)と各画素値の画素が出現する度数(頻度)との対応関係を示す情報である。ここで、ある画素値の度数とは、例えば、上述した特徴点に対応する領域に含まれる複数の画素のうち上記画素値を有する画素の数である。
図5に示されるように、一例として、色ヒストグラムは、カラー画像を構成するR(赤)、G(緑)、B(青)のチャンネル毎の上記対応関係を示す情報である。この場合、一の特徴点に対応する色ヒストグラムは、「3(チャンネル数)×256(画素値数)」次元のベクトルとして表現され得る。このような色ヒストグラムによれば、一の特徴点に対応する領域の色合いを把握することができる。言い換えれば、上記色ヒストグラムは、一の特徴点に対応する領域の色合いを示す情報であるといえる。
【0024】
図4の(A)に示される人物P1は、一例として、白色のシャツ、灰色のアウター、茶色のズボン、及び黒の靴を装着している。この場合、色情報取得部122による上記処理によって、人物P1に対応する骨格情報SI1の各特徴点FP1~FP11について、以下のような色情報(色ヒストグラム)が取得される。すなわち、シャツと重なる特徴点FP1については、シャツの色(白色)に対応する色ヒストグラムが得られる。アウターと重なる特徴点FP2~FP5については、アウターの色(灰色)に対応する色ヒストグラムが得られる。ズボンと重なる特徴点FP6,FP7,FP9,FP10については、ズボンの色(茶色)に対応する色ヒストグラムが得られる。足首(靴)と重なる特徴点FP8,FP11については、靴の色(黒)に対応する色ヒストグラムが得られる。
【0025】
図4の(B)に示される人物P2は、一例として、桃色のシャツ、白色のアウター、茶色のズボンを装着している。また、人物P2の足首は露出している。この場合、色情報取得部122による上記処理によって、人物P2に対応する骨格情報SI2の各特徴点FP1~FP11について、以下のような色情報(色ヒストグラム)が取得される。すなわち、シャツと重なる特徴点FP1については、シャツの色(桃色)に対応する色ヒストグラムが得られる。アウターと重なる特徴点FP2~FP5については、アウターの色(白色)に対応する色ヒストグラムが得られる。ズボンと重なる特徴点FP6,FP7,FP9,FP10については、ズボンの色(茶色)に対応する色ヒストグラムが得られる。露出している人物P2の足首と重なる特徴点FP8,FP11については、足首の色(肌色)に対応する色ヒストグラムが得られる。
【0026】
なお、例えば、一のカメラCによって撮影された所定期間(例えば数秒間)の動画を構成する複数のフレーム(画像)の各々が取得部11によって取得される場合等には、上記所定期間において被写体(人物)の位置及び姿勢がほとんど変化しない場合であっても、光の当たり具合等によって、上記所定期間に含まれる各フレーム間で各特徴点に対応する色情報(色ヒストグラム)が変化する場合がある。したがって、上記の場合には、色情報取得部122は、上記所定期間に含まれる各画像(各フレーム)における一の特徴点に対応する色ヒストグラムの平均値を、上記所定期間に含まれる各画像の当該一の特徴点に対応する色情報(色ヒストグラム)として取得してもよい。つまり、色情報取得部122は、特定の1フレームのみから得られる色ヒストグラムを色情報として取得してもよいし、複数のフレームの結果を統合・平均化することにより得られる色ヒストグラムを色情報として取得してもよい。
【0027】
以上のように色情報取得部122によって取得される特徴点FP1~FP11毎の色情報(本実施形態では、複数の特徴点FP1~FP11の色ヒストグラム)は、N次元ベクトルとして表現され得る。ここで、「N=11(特徴点FP1~FP11の個数)×3(チャンネル数)×256(画素値数)」である。以下の説明では、上述したN次元ベクトルとして表現される特徴点FP1~FP11毎の色ヒストグラムのことを「特徴ベクトル」という。
【0028】
姿勢判定部123は、特徴点検出部121により検出された各特徴点FP1~FP11の位置(例えば、各特徴点FP1~FP11間の位置関係)に基づいて、複数の特徴点FP1~FP11に対応する人物の姿勢を判定する。一例として、姿勢判定部123は、「正面姿勢」、「左向き姿勢」、「背面姿勢」、及び「右向き姿勢」の4パターンの姿勢のうちから一の姿勢を、複数の特徴点FP1~FP11に対応する人物の姿勢として判定する。
【0029】
「正面姿勢」は、人物がカメラの正面に向いている姿勢である。すなわち、正面姿勢は、
図4の例に示されるように、人物の正面が画像に写る状態である。「左向き姿勢」は、人物の右半身がカメラの正面に向いている姿勢である。すなわち、左向き姿勢は、人物が正面姿勢から左に90度向きを変えた状態である。「背面姿勢」は、人物が人物に対してカメラが位置する側とは反対側を向いている姿勢である。すなわち、背面姿勢は、人物の背面が画像に写る状態である。「右向き姿勢」は、人物の左半身がカメラの正面に向いている姿勢である。すなわち、右向き姿勢は、人物が正面姿勢から右に90度向きを変えた状態である。なお、姿勢判定部123により判定される姿勢のパターンは、より細分化されてもよい。すなわち、姿勢判定部123により判定される姿勢のパターン数は、5以上であってもよい。或いは、より処理を簡素化すべく、姿勢のパターン数は、3以下に設定されてもよい。
【0030】
図6を参照して、本実施形態における姿勢判定部123による姿勢判定処理の一例について説明する。また、ここでは、人物が歩行移動する空間の上方に画像を取得するためのカメラが設置されており、当該カメラの撮像方向が水平面に対して下方に傾斜する方向に設定されているものとする。なお、
図6を用いて以下に説明する処理は一例であり、姿勢判定部123は、用いられる姿勢のパターン、カメラの位置等に応じて、以下に説明する処理以外の姿勢判定処理を実行してもよい。
【0031】
図6の(A)に示されるように、右肩に対応する特徴点FP2が左肩に対応する特徴点FP4の左側に位置する場合(言い換えれば、特徴点FP2から特徴点FP4に向かうベクトルが右向きである場合)、姿勢判定部123は、これらの特徴点FP2,FP4を有する人物の姿勢が「正面姿勢」であると判定してもよい。上記の判定処理は、例えば、以下のように実行され得る。例えば、画像中において右方向を向くベクトルを基準ベクトルとする。このとき、姿勢判定部123は、特徴点FP2から特徴点FP4へと向かうベクトルが当該基準ベクトルに対してなす角度(基準ベクトルに対して反時計回りを正方向とする角度)が0度の近傍である場合(例えば、所定の閾値tについて、「-t<θ<t」が成立する場合)に、人物の姿勢が「正面姿勢」であると判定してもよい。
【0032】
図6の(B)に示されるように、右肩に対応する特徴点FP2が左肩に対応する特徴点FP4の下方に位置する場合(言い換えれば、特徴点FP2から特徴点FP4に向かうベクトルが上向きである場合)、姿勢判定部123は、これらの特徴点FP2,FP4を有する人物の姿勢が「左向き姿勢」であると判定してもよい。上記の判定処理は、例えば、以下のように実行され得る。例えば、姿勢判定部123は、特徴点FP2から特徴点FP4へと向かうベクトルが上記基準ベクトルに対してなす角度(基準ベクトルに対して反時計回りを正方向とする角度)が90度の近傍である場合(例えば、所定の閾値tについて、「90°-t<θ<90°+t」が成立する場合)に、人物の姿勢が「左向き姿勢」であると判定してもよい。
【0033】
図6の(C)に示されるように、右肩に対応する特徴点FP2が左肩に対応する特徴点FP4の右側に位置する場合(言い換えれば、特徴点FP2から特徴点FP4に向かうベクトルが左向きである場合)、姿勢判定部123は、これらの特徴点FP2,FP4を有する人物の姿勢が「背面姿勢」であると判定してもよい。上記の判定処理は、例えば、以下のように実行され得る。例えば、姿勢判定部123は、特徴点FP2から特徴点FP4へと向かうベクトルが上記基準ベクトルに対してなす角度(基準ベクトルに対して反時計回りを正方向とする角度)が180度の近傍である場合(例えば、所定の閾値tについて、「180°-t<θ<180°+t」が成立する場合)に、人物の姿勢が「背面姿勢」であると判定してもよい。
【0034】
図6の(D)に示されるように、右肩に対応する特徴点FP2が左肩に対応する特徴点FP4の上方に位置する場合(言い換えれば、特徴点FP2から特徴点FP4に向かうベクトルが下向きである場合)、姿勢判定部123は、これらの特徴点FP2,FP4を有する人物の姿勢が「右向き姿勢」であると判定してもよい。上記の判定処理は、例えば、以下のように実行され得る。例えば、姿勢判定部123は、特徴点FP2から特徴点FP4へと向かうベクトルが上記基準ベクトルに対してなす角度(基準ベクトルに対して反時計回りを正方向とする角度)が270度の近傍である場合(例えば、所定の閾値tについて、「270°-t<θ<270°+t」が成立する場合)に、人物の姿勢が「右向き姿勢」であると判定してもよい。
【0035】
人物情報取得部124は、人物と当該人物の姿勢と特徴点毎の色情報とを互いに関連付けた人物情報を画像毎に取得(生成)する。
図7に示されるように、本実施形態では、人物情報は、画像IDと、当該画像IDに対応する画像に被写体として含まれる人物(本実施形態では、特徴点検出部121により検出された1人の人物に対応する骨格情報)を識別する人物IDと、姿勢(本実施形態では、姿勢判定部123により判定された姿勢のパターン)と、色情報取得部122により取得された特徴ベクトルと、を互いに関連付けた情報である。
【0036】
なお、人物情報取得部124によって人物情報が取得される時点においては、当該人物情報に対応する人物が既に取得済みの人物情報に対応する人物と同一であるか否かは不明である。このため、人物情報取得部124は、新たに取得される人物情報に対して、これまで割り当てていないユニークな人物IDを付与する。人物情報取得部124により取得された人物情報は、人物情報記憶部15に記憶される。なお、同一の画像中に複数の人物が含まれる場合には、人物情報取得部124は、上記複数の人物の各々に対応する複数の人物情報を、同一の画像IDに関連付けて生成してもよい。
【0037】
判定部125は、複数の関連付け情報間(すなわち、各関連付け情報に対応する画像間)で、被写体が同一であるか否かを判定する。すなわち、判定部125は、関連付け情報記憶部14に記憶された複数の関連付け情報に含まれる一の関連付け情報である第1の関連付け情報に含まれる第1画像(例えば、
図2の画像ID「IM001」に対応する画像)から取得された第1の人物情報(例えば、
図7の第1行目の人物ID「P001」に対応する人物情報)と、上記複数の関連付け情報に含まれる他の関連付け情報である第2の関連付け情報に含まれる第2画像(例えば、
図2の画像ID「IM102」に対応する画像)から取得された第2の人物情報(例えば、
図7の第2行目の人物ID「P002」に対応する人物情報)と、を比較する。そして、判定部125は、当該比較の結果に基づいて、第1の人物情報に関連付けられた人物(すなわち、人物ID「P001」に対応する人物)と第2の人物情報に関連付けられた人物(すなわち、人物ID「P002」に対応する人物)とが同一であるか否かを判定する。判定部125は、例えば、複数の関連付け情報のうちから任意の2つの関連付け情報(第1の関連付け情報及び第2の関連付け情報)を抽出することにより得られる全ての組み合わせの各々について、上記の判定処理を実行してもよい。
【0038】
判定部125は、例えば、第1の人物情報に含まれる姿勢の情報と第2の人物情報に含まれる姿勢の情報とが一致し、且つ、第1の人物情報に含まれる特徴ベクトルと第2の人物情報に含まれる特徴ベクトルとの類似度が予め定められた基準値(閾値)以上である場合に、第1の人物情報に対応する人物(ここでは、人物ID「P001」に対応する人物)と第2の人物情報に対応する人物(ここでは、人物ID「P002」に対応する人物)とが同一であると判定する。一例として、比較対象となる2つの特徴ベクトル間のコサイン距離が、上記類似度として用いられてもよい。この場合、判定部125は、当該コサイン距離が所定の閾値以下である場合に、第1の人物情報に対応する人物と第2の人物情報に対応する人物とが同一であると判定できる。
【0039】
判定部125は、上記のように、人物ID「P001」と人物ID「P002」とが同一の人物であると判定された場合には、一方の人物IDを他方の人物IDに変更することにより、同一人物についての複数の人物IDを1つの人物IDにマージしてもよい。或いは、一旦割り当てられた人物ID(すなわち、各人物情報に含まれる人物ID)自体は変更せずに、人物ID「P001」と人物ID「P002」とが同一人物を指すことを示す情報を、後述する生成部13に通知してもよい。すなわち、判定部125の処理によって一の人物IDに対応する人物と他の人物IDに対応する人物が同一であると判定された場合に、生成部13が当該判定の結果を把握可能となればよく、そのためのデータ処理方法は特に限定されない。
【0040】
以上説明した解析部12の処理により、複数の関連付け情報の各々に含まれる画像から個々に抽出された複数の人物情報について、同一と推定される人物の人物IDがマージされる結果、同一の人物を共通の被写体として含む複数の画像が特定される。すなわち、上述した例においては、人物ID「P001」に対応する人物と人物ID「P002」に対応する人物とが同一であると判定される結果、人物ID「P001」に対応する被写体を含む画像(すなわち、画像ID「IM001」に対応する画像)と人物ID「P002」に対応する被写体を含む画像(すなわち、画像ID「IM102」に対応する画像)とが、ある人物(すなわち、人物ID「P001」に対応する人物)を共通の被写体として含んでいることが特定される。
【0041】
なお、特徴点検出部121、色情報取得部122、姿勢判定部123、及び人物情報取得部124は、同一の人物が被写体として含まれていることが判明している複数の画像の各々に対する処理(上述した特徴点検出部121、色情報取得部122、姿勢判定部123、及び人物情報取得部124の各処理)を実行することにより、当該同一の人物(すなわち、同一の人物IDに対応する人物)について、複数の異なる姿勢の各々に対応する特徴ベクトル(特徴点毎の色情報)を含む人体情報を取得してもよい。すなわち、上記のように複数の画像に含まれている被写体が同一の人物であることが把握される場合には、人物情報取得部124は、これらの複数の画像の各々から抽出される人物(骨格情報)に対して同一の人物IDを付加してもよい。また、判定部125は、上記複数の異なる姿勢の各々に対応する特徴ベクトルを用いることにより、第1の人物情報に関連付けられた人物と第2の人物情報に関連付けられた人物とが同一であるか否かを判定してもよい。
【0042】
例えば、一のカメラCによって撮影された一定期間(例えば数秒間)の動画を構成する複数のフレーム(画像)の各々が取得部11によって取得される場合等には、公知の物体認識及び物体追跡の手法を用いることにより、当該動画の各フレームに含まれる同一の被写体(人物)を特定及び追跡することができる。この場合、当該動画中の被写体の姿勢は、途中で変化し得る。すなわち、フレーム毎に被写体の姿勢が異なる可能性がある。例えば、第1のフレームにおいて被写体(一例として人物ID「P001」に対応する人物)の姿勢が「正面姿勢」と判定され、第2のフレームにおいて当該被写体の姿勢が「左向き姿勢」と判定される場合がある。このような場合には、人物情報取得部124は、同一の人物ID「P001」に対して、複数の姿勢(この例では、「正面姿勢」及び「左向き姿勢」)と各姿勢に対応する特徴ベクトルとを関連付けた人物情報を取得してもよい。例えば、人物情報取得部124は、人物ID「P001」及び姿勢「正面姿勢」が関連付けられた人物情報を取得すると共に、人物ID「P001」及び姿勢「左向き姿勢」に関連付けられた人物情報を取得してもよい。上記構成によれば、同一人物について、複数の姿勢の各々に対応する色情報(特徴ベクトル)を登録することができる。そして、このように登録された複数の姿勢に対応する特徴ベクトルを用いて判定部125による同一性判定を行うことにより、同一性判定の精度を向上させることができる。
【0043】
例えば、
図8に示される人物P3及び人物P3とは異なる人物P4について、正面姿勢及び背面姿勢の各々に対応する人物情報(特徴ベクトル)が取得された場合について考える。ここで、人物P3の正面姿勢の見た目(各特徴点FP1~FP11の色合い)は、人物P4の正面姿勢の見た目と非常に類似している。すなわち、人物P3の正面姿勢に対応する特徴ベクトルは、人物P4の正面姿勢に対応する特徴ベクトルと非常に類似している。このため、正面姿勢の人物情報のみを用いて人物P3と人物P4とのマッチング(比較処理)を実行した場合、人物P3と人物P4とは同一であると誤判定されるおそれがある。一方、人物P4のアウターの背面には白色の猫の顔のデザインがあるのに対して、人物P3のアウターの背面にはこのようなデザインがなく紫色の生地のみが露出している。このため、背面姿勢の人物情報も用いて人物P3と人物P4とのマッチング(比較処理)を実行した場合、人物P3と人物P4とは同一ではないという正しい判定結果を得ることが可能となる。以上のように、複数の異なる姿勢の各々に対応する特徴ベクトルを用いることにより、マッチングの精度(同一性判定の精度)を高めることができる。
【0044】
生成部13は、上述したように解析部12により同一の人物を被写体として含むと特定された複数の画像(上記例では、画像ID「IM001」及び「IM102」に対応する画像)の各々に関連付けられた時刻情報及びカメラ情報に基づいて、上記人物(すなわち、人物ID「P001」に対応する人物)の位置の時間変化(すなわち、本実施形態では、施設内をどのように移動したかを示す動線)を示す移動履歴情報を生成する。ここでは一例として、カメラ情報「C001」に対応するカメラが、ある施設(例えばデパート等の商業施設)のエントランスに設置されており、カメラ情報「C002」に対応するカメラが、当該施設内の3F婦人服売り場に設置されているとする。この場合、上記の例においては、人物ID「P001」に対応する人物が、2023年3月1日15時0分にデパートに来店し、その10分後に当該デパートの3F婦人服売り場に向かったことを示す移動履歴情報を生成することができる。
【0045】
なお、移動履歴情報のデータ形式は、特定の形式に限られない。例えば、上記例においては、「2023年3月1日15時0分にエントランスに滞在。2023年3月1日15時10分に3F婦人服売り場に滞在。」といったように、時系列に沿って場所(カメラ情報に対応する場所)を並べて表記した情報が、移動履歴情報として用いられ得る。また、移動履歴情報は、上記のように人間が理解し易い文字列情報でなくてもよい。例えば、移動履歴情報は、「202303011500_entrance,202303011510_3Ffujin」等のように、コンピュータ処理がし易い形式で表現されてもよい。
【0046】
生成部13により生成された移動履歴情報は、移動履歴記憶部16に記憶(蓄積)される。このように移動履歴記憶部16に記憶された移動履歴情報は、例えば、施設内における顧客の移動の傾向等を把握したり、当該施設のマーケティング活動等に役立てたりするための情報として用いられる。また、移動履歴記憶部16に記憶される複数の移動履歴情報の各々を分析することにより、ある時点においてどの場所にどの程度の数の顧客が集まっていたかを把握することも可能となる。すなわち、1人の人物毎に1つの移動履歴情報が対応付けられることになるため、各人毎の移動傾向を把握出来ると共に、ある時刻におけるある場所の大凡の滞在人数(ユニークユーザ数)を把握することも可能となる。
【0047】
次に、
図9を参照して、情報処理装置10の動作の一例について説明する。
【0048】
ステップS1において、取得部11は、複数のカメラCの各々から継続的(例えば定期的)に撮影された画像(及び撮影時刻、カメラCを特定するためのカメラ情報)を取得することにより、複数の関連付け情報を取得する。取得部11により取得された関連付け情報は、関連付け情報記憶部14に記憶される。
【0049】
ステップS2において、解析部12は、取得部11によって取得された関連付け情報に含まれる画像を解析することにより、同一と推定される人物を共通の被写体として含む複数の画像を特定する。上述した例においては、解析部12は、人物ID「P001」に対応する人物と人物ID「P002」に対応する人物とが同一であると判定することにより、これらの人物が被写体として含まれる複数の画像(画像ID「IM001」及び「IM102」に対応する画像)を特定する。
【0050】
図10を参照して、ステップS2の処理の一例について詳細に説明する。
【0051】
ステップS21において、特徴点検出部121は、解析対象の画像(各関連付け情報に含まれる各画像)に含まれる複数の特徴点FP1~FP11(
図4参照)を検出する。
【0052】
ステップS22において、色情報取得部122は、ステップS21において特徴点検出部121により検出された各特徴点FP1~FP11に対応する画素の画素値に基づいて、特徴点毎の色情報を取得する。本実施形態では一例として、特徴点毎の色情報は、特徴点FP1~FP11毎の色ヒストグラム(特徴ベクトル)を示す情報である。
【0053】
ステップS23において、姿勢判定部123は、ステップS21において検出された各特徴点FP1~FP11の位置に基づいて、複数の特徴点FP1~FP11に対応する人物Pの姿勢を判定する。本実施形態では一例として、姿勢判定部123は、
図6に示されるように、特徴点FP2と特徴点FP4との位置関係に基づいて、上記姿勢を判定する。
【0054】
ステップS24において、人物情報取得部124は、ステップS22及びS23の処理結果(色情報及び姿勢)を画像ID及び人物IDと関連付けた人物情報(
図7参照)を取得(生成)し、人物情報記憶部15に記憶させる。
【0055】
ステップS25において、判定部125は、第1の関連付け情報に含まれる第1画像(例えば、
図2の画像ID「IM001」に対応する画像)から取得された第1の人物情報(例えば、
図7の第1行目の人物ID「P001」に対応する人物情報)と第2の関連付け情報に含まれる第2画像(例えば、
図2の画像ID「IM102」に対応する画像)から取得された第2の人物情報(例えば、
図7の第2行目の人物ID「P002」に対応する人物情報)とを比較する。
【0056】
ステップS26において、判定部125は、第1の人物情報に対応する人物(ここでは、人物ID「P001」に対応する人物)と第2の人物情報に対応する人物(ここでは、人物ID「P002」に対応する人物)とが同一であるか否かを判定する。例えば、第1の人物情報に含まれる姿勢の情報と第2の人物情報に含まれる姿勢の情報とが一致し、且つ、第1の人物情報に含まれる特徴ベクトルと第2の人物情報に含まれる特徴ベクトルとの類似度が予め定められた基準値(閾値)以上である場合に、第1の人物情報に対応する人物と第2の人物情報に対応する人物とが同一であると判定される(ステップS26:YES)。一方、第1の人物情報に含まれる姿勢の情報と第2の人物情報に含まれる姿勢の情報とが一致しないか、或いは、第1の人物情報に含まれる特徴ベクトルと第2の人物情報に含まれる特徴ベクトルとの類似度が基準値未満である場合には、第1の人物情報に対応する人物と第2の人物情報に対応する人物とが同一でないと判定される(ステップS26:NO)。
【0057】
第1の人物情報に対応する人物と第2の人物情報に対応する人物とが同一であると判定された場合(ステップS26:YES)、判定部125は、第1の人物情報に対応する人物IDと第2の人物情報に対応する人物IDとを共通の人物IDにマージする(ステップS27)。その結果、後述する生成部13において、第1の人物情報に対応する人物と第2の人物情報に対応する人物とが同一であることを把握できるようになる。
【0058】
図9に戻り、ステップS3において、生成部13は、ステップS2において解析部12により特定された複数の画像(上記例では、画像ID「IM001」及び「IM102」に対応する画像)の各々に関連付けられた時刻情報及びカメラ情報に基づいて、これらの複数の画像に共通の被写体として含まれる特定人物(すなわち、人物ID「P001」に対応する人物)の位置の時間変化(すなわち、施設内をどのように移動したかを示す動線)を示す移動履歴情報を生成し、移動履歴記憶部16に記憶させる。
【0059】
以上説明した情報処理装置10においては、複数のカメラCの各々によって撮影された各画像を解析することにより、共通の被写体(特定人物)を含む複数の画像が抽出される。そして、これらの複数の画像の各々に関連付けられた時刻情報及びカメラ情報に基づくことにより、当該特定人物がどの時刻にどの場所(すなわち、カメラ情報により特定されるカメラCの撮影範囲に対応する場所)にいたかを示す移動履歴情報(すなわち、特定人物の位置の時間変化)が生成される。したがって、上記構成によれば、特定物体(本実施形態では、ある施設に訪問する顧客)の行動に関するデータ(すなわち、移動履歴情報)を好適に取得することができる。
【0060】
また、情報処理装置10は、
図3に例示される機能構成を有する解析部12を有する。上記構成によれば、各特徴点FP1~FP11の色情報を比較対象として用いることにより、比較的簡易な処理によって人物の同一性判定を行うことができる。さらに、複数の特徴点FP1~FP11に対応する人物の姿勢、すなわち、上述した各特徴点FP1~FP11の色情報が当該人物をどの方向から見た場合の色であるかを考慮することにより、色情報に基づく同一性判定の精度を向上させることができる。したがって、情報処理装置10によれば、比較的簡易な処理によって精度良く人物の同一性判定を行うことができる。
【0061】
また、本実施形態では、解析部12は、人物の顔情報を用いることなく、同一と推定される人物を被写体として含む複数の画像を特定する。すなわち、情報処理装置10は、人物の同一性を判断するために、顔情報を用いた顔認証等の処理を実行しない。このように、情報処理装置10においては、人物を識別するために人の顔等のプライバシー情報を用いる必要がないため、画像中に被写体として写り込んだ人物のプライバシーを保護することが容易となる。例えば、プライバシーの保護のために、画像中に写り込んだ人の顔部分を自動的に検知し、他の画像に差し替える画像処理等が実行される場合であっても、上記実施形態で説明したように顔以外の特徴点FP1~FP11を用いることにより、人物の同一性判定を適切に行うことができる。
【0062】
なお、上記実施形態では、解析部12は、同一性判定の手法として、特徴点毎の色情報及び姿勢の組み合わせを用いるように構成されたが、解析部12は、上記手法以外の他の同一性判定の手法を用いることによって、同一と推定される人物を共通の被写体として含む複数の画像を特定してもよい。他の同一性判定の手法の例としては、例えば、公知の深度推定技術等を用いた被写体のサイズ(身長等)推定、公知の被写体の3次元位置推定等の手法が挙げられる。このような手法を用いることによっても、人物の顔情報を用いることなく、同一性判定を行うことができる。また、解析部12は、上述したような複数の同一性判定の手法を用いてもよい。例えば、解析部12は、複数の同一性判定の手法の各々において同じ結果が出た場合に、当該結果を採用してもよい。上記構成によれば、同一性判定の精度を向上させることができる。
【0063】
本開示の情報処理装置10は、以下の構成を有する。
【0064】
[1]互いに異なる撮影範囲を有する複数のカメラの各々によって撮影された画像と、前記画像が撮影された時刻を示す時刻情報と、前記画像を撮影したカメラを特定するためのカメラ情報と、を互いに関連付けた関連付け情報を取得する取得部と、
前記取得部によって取得された前記関連付け情報に含まれる前記画像を解析することにより、同一と推定される特定物体を共通の被写体として含む複数の画像を特定する解析部と、
前記解析部により特定された前記複数の画像の各々に関連付けられた前記時刻情報及び前記カメラ情報に基づいて、前記特定物体の位置の時間変化を示す移動履歴情報を生成する生成部と、
を備える情報処理装置。
【0065】
[2]前記解析部は、
解析対象の前記画像に含まれる物体の複数の特徴点を検出する特徴点検出部と、
検出された各前記特徴点に対応する画素の画素値に基づいて、前記特徴点毎の色情報を取得する色情報取得部と、
検出された各前記特徴点の位置に基づいて、前記物体の姿勢を判定する姿勢判定部と、
前記物体と前記物体の姿勢と前記特徴点毎の色情報とを互いに関連付けた物体情報を前記画像毎に取得する物体情報取得部と、
第1の関連付け情報に含まれる第1画像から取得された第1の物体情報と第2の関連付け情報に含まれる第2画像から取得された第2の物体情報との比較結果に基づいて、前記第1の物体情報に関連付けられた物体と前記第2の物体情報に関連付けられた物体とが同一であるか否かを判定する判定部と、を備える、
[1]の情報処理装置。
【0066】
[3]前記特徴点検出部、前記色情報取得部、前記姿勢判定部、及び物体情報取得部は、同一の物体が被写体として含まれていることが判明している複数の画像の各々に対する処理を実行することにより、前記同一の物体について、複数の異なる姿勢の各々に対応する前記特徴点毎の色情報を含む前記物体情報を取得し、
前記判定部は、前記複数の異なる姿勢の各々に対応する前記特徴点毎の色情報を用いることにより、前記第1の物体情報に関連付けられた物体と前記第2の物体情報に関連付けられた物体とが同一であるか否かを判定する、
[2]の情報処理装置。
【0067】
[4]前記物体は、人物であり、
前記解析部は、人物の顔情報を用いることなく、同一と推定される人物を被写体として含む前記複数の画像を特定する、
[1]~[3]のいずれかの情報処理装置
【0068】
また、上記実施形態の説明に用いたブロック図は、機能単位のブロックを示している。これらの機能ブロック(構成部)は、ハードウェア及びソフトウェアの少なくとも一方の任意の組み合わせによって実現される。また、各機能ブロックの実現方法は特に限定されない。すなわち、各機能ブロックは、物理的又は論理的に結合した1つの装置を用いて実現されてもよいし、物理的又は論理的に分離した2つ以上の装置を直接的又は間接的に(例えば、有線、無線などを用いて)接続し、これら複数の装置を用いて実現されてもよい。機能ブロックは、上記1つの装置又は上記複数の装置にソフトウェアを組み合わせて実現されてもよい。
【0069】
機能には、判断、決定、判定、計算、算出、処理、導出、調査、探索、確認、受信、送信、出力、アクセス、解決、選択、選定、確立、比較、想定、期待、見做し、報知(broadcasting)、通知(notifying)、通信(communicating)、転送(forwarding)、構成(configuring)、再構成(reconfiguring)、割り当て(allocating、mapping)、割り振り(assigning)などがあるが、これらに限られない。
【0070】
例えば、本開示の一実施の形態における情報処理装置10は、本開示の物体識別方法を行うコンピュータとして機能してもよい。
図11は、本開示の一実施の形態に係る情報処理装置10のハードウェア構成の一例を示す図である。情報処理装置10は、物理的には、プロセッサ1001、メモリ1002、ストレージ1003、通信装置1004、入力装置1005、出力装置1006、バス1007などを含むコンピュータ装置として構成されてもよい。なお、ユーザ端末20も情報処理装置10と同様のハードウェア構成を備えてもよい。
【0071】
なお、以下の説明では、「装置」という文言は、回路、デバイス、ユニットなどに読み替えることができる。情報処理装置10のハードウェア構成は、
図11に示した各装置を1つ又は複数含むように構成されてもよいし、一部の装置を含まずに構成されてもよい。
【0072】
情報処理装置10における各機能は、プロセッサ1001、メモリ1002などのハードウェア上に所定のソフトウェア(プログラム)を読み込ませることによって、プロセッサ1001が演算を行い、通信装置1004による通信を制御したり、メモリ1002及びストレージ1003におけるデータの読み出し及び書き込みの少なくとも一方を制御したりすることによって実現される。
【0073】
プロセッサ1001は、例えば、オペレーティングシステムを動作させてコンピュータ全体を制御する。プロセッサ1001は、周辺装置とのインターフェース、制御装置、演算装置、レジスタなどを含む中央処理装置(CPU:Central Processing Unit)によって構成されてもよい。
【0074】
また、プロセッサ1001は、プログラム(プログラムコード)、ソフトウェアモジュール、データなどを、ストレージ1003及び通信装置1004の少なくとも一方からメモリ1002に読み出し、これらに従って各種の処理を実行する。プログラムとしては、上述の実施の形態において説明した動作の少なくとも一部をコンピュータに実行させるプログラムが用いられる。例えば、情報処理装置10の各機能部(例えば、解析部12等)は、メモリ1002に格納され、プロセッサ1001において動作する制御プログラムによって実現されてもよく、他の機能ブロックについても同様に実現されてもよい。上述の各種処理は、1つのプロセッサ1001によって実行される旨を説明してきたが、2以上のプロセッサ1001により同時又は逐次に実行されてもよい。プロセッサ1001は、1以上のチップによって実装されてもよい。なお、プログラムは、電気通信回線を介してネットワークから送信されてもよい。
【0075】
メモリ1002は、コンピュータ読み取り可能な記録媒体であり、例えば、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)、EEPROM(Electrically Erasable Programmable ROM)、RAM(Random Access Memory)などの少なくとも1つによって構成されてもよい。メモリ1002は、レジスタ、キャッシュ、メインメモリ(主記憶装置)などと呼ばれてもよい。メモリ1002は、本開示の一実施の形態に係る情報処理方法を実施するために実行可能なプログラム(プログラムコード)、ソフトウェアモジュールなどを保存することができる。
【0076】
ストレージ1003は、コンピュータ読み取り可能な記録媒体であり、例えば、CD-ROM(Compact Disc ROM)などの光ディスク、ハードディスクドライブ、フレキシブルディスク、光磁気ディスク(例えば、コンパクトディスク、デジタル多用途ディスク、Blu-ray(登録商標)ディスク)、スマートカード、フラッシュメモリ(例えば、カード、スティック、キードライブ)、フロッピー(登録商標)ディスク、磁気ストリップなどの少なくとも1つによって構成されてもよい。ストレージ1003は、補助記憶装置と呼ばれてもよい。上述の記憶媒体は、例えば、メモリ1002及びストレージ1003の少なくとも一方を含むデータベース、サーバその他の適切な媒体であってもよい。
【0077】
通信装置1004は、有線ネットワーク及び無線ネットワークの少なくとも一方を介してコンピュータ間の通信を行うためのハードウェア(送受信デバイス)であり、例えばネットワークデバイス、ネットワークコントローラ、ネットワークカード、通信モジュールなどともいう。
【0078】
入力装置1005は、外部からの入力を受け付ける入力デバイス(例えば、キーボード、マウス、マイクロフォン、スイッチ、ボタン、センサなど)である。出力装置1006は、外部への出力を実施する出力デバイス(例えば、ディスプレイ、スピーカー、LEDランプなど)である。なお、入力装置1005及び出力装置1006は、一体となった構成(例えば、タッチパネル)であってもよい。
【0079】
また、プロセッサ1001、メモリ1002などの各装置は、情報を通信するためのバス1007によって接続される。バス1007は、単一のバスを用いて構成されてもよいし、装置間ごとに異なるバスを用いて構成されてもよい。
【0080】
また、情報処理装置10は、マイクロプロセッサ、デジタル信号プロセッサ(DSP:Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array)などのハードウェアを含んで構成されてもよく、当該ハードウェアにより、各機能ブロックの一部又は全てが実現されてもよい。例えば、プロセッサ1001は、これらのハードウェアの少なくとも1つを用いて実装されてもよい。
【0081】
以上、本実施形態について詳細に説明したが、当業者にとっては、本実施形態が本明細書中に説明した実施形態に限定されるものではないということは明らかである。本実施形態は、特許請求の範囲の記載により定まる本発明の趣旨及び範囲を逸脱することなく修正及び変更態様として実施することができる。したがって、本明細書の記載は、例示説明を目的とするものであり、本実施形態に対して何ら制限的な意味を有するものではない。
【0082】
本開示において説明した各態様/実施形態の処理手順、シーケンス、フローチャートなどは、矛盾の無い限り、順序を入れ替えてもよい。例えば、本開示において説明した方法については、例示的な順序を用いて様々なステップの要素を提示しており、提示した特定の順序に限定されない。
【0083】
入出力された情報等は特定の場所(例えば、メモリ)に保存されてもよいし、管理テーブルを用いて管理してもよい。入出力される情報等は、上書き、更新、又は追記され得る。出力された情報等は削除されてもよい。入力された情報等は他の装置へ送信されてもよい。
【0084】
判定は、1ビットで表される値(0か1か)によって行われてもよいし、真偽値(Boolean:true又はfalse)によって行われてもよいし、数値の比較(例えば、所定の値との比較)によって行われてもよい。
【0085】
本開示において説明した各態様/実施形態は単独で用いてもよいし、組み合わせて用いてもよいし、実行に伴って切り替えて用いてもよい。また、所定の情報の通知(例えば、「Xであること」の通知)は、明示的に行うものに限られず、暗黙的(例えば、当該所定の情報の通知を行わない)ことによって行われてもよい。
【0086】
ソフトウェアは、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、ハードウェア記述言語と呼ばれるか、他の名称で呼ばれるかを問わず、命令、命令セット、コード、コードセグメント、プログラムコード、プログラム、サブプログラム、ソフトウェアモジュール、アプリケーション、ソフトウェアアプリケーション、ソフトウェアパッケージ、ルーチン、サブルーチン、オブジェクト、実行可能ファイル、実行スレッド、手順、機能などを意味するよう広く解釈されるべきである。
【0087】
また、ソフトウェア、命令、情報などは、伝送媒体を介して送受信されてもよい。例えば、ソフトウェアが、有線技術(同軸ケーブル、光ファイバケーブル、ツイストペア、デジタル加入者回線(DSL:Digital Subscriber Line)など)及び無線技術(赤外線、マイクロ波など)の少なくとも一方を使用してウェブサイト、サーバ、又は他のリモートソースから送信される場合、これらの有線技術及び無線技術の少なくとも一方は、伝送媒体の定義内に含まれる。
【0088】
本開示において説明した情報、信号などは、様々な異なる技術のいずれかを使用して表されてもよい。例えば、上記の説明全体に渡って言及され得るデータ、命令、コマンド、情報、信号、ビット、シンボル、チップなどは、電圧、電流、電磁波、磁界若しくは磁性粒子、光場若しくは光子、又はこれらの任意の組み合わせによって表されてもよい。
【0089】
また、本開示において説明した情報、パラメータなどは、絶対値を用いて表されてもよいし、所定の値からの相対値を用いて表されてもよいし、対応する別の情報を用いて表されてもよい。
【0090】
上述したパラメータに使用する名称はいかなる点においても限定的な名称ではない。さらに、これらのパラメータを使用する数式等は、本開示で明示的に開示したものと異なる場合もある。様々な情報要素は、あらゆる好適な名称によって識別できるので、これらの様々な情報要素に割り当てている様々な名称は、いかなる点においても限定的な名称ではない。
【0091】
本開示において使用する「に基づいて」という記載は、別段に明記されていない限り、「のみに基づいて」を意味しない。言い換えれば、「に基づいて」という記載は、「のみに基づいて」と「に少なくとも基づいて」の両方を意味する。
【0092】
本開示において使用する「第1の」、「第2の」などの呼称を使用した要素へのいかなる参照も、それらの要素の量又は順序を全般的に限定しない。これらの呼称は、2つ以上の要素間を区別する便利な方法として本開示において使用され得る。したがって、第1及び第2の要素への参照は、2つの要素のみが採用され得ること、又は何らかの形で第1の要素が第2の要素に先行しなければならないことを意味しない。
【0093】
本開示において、「含む(include)」、「含んでいる(including)」及びそれらの変形が使用されている場合、これらの用語は、用語「備える(comprising)」と同様に、包括的であることが意図される。さらに、本開示において使用されている用語「又は(or)」は、排他的論理和ではないことが意図される。
【0094】
本開示において、例えば、英語でのa, an及びtheのように、翻訳により冠詞が追加された場合、本開示は、これらの冠詞の後に続く名詞が複数形であることを含んでもよい。
【0095】
本開示において、「AとBが異なる」という用語は、「AとBが互いに異なる」ことを意味してもよい。なお、当該用語は、「AとBがそれぞれCと異なる」ことを意味してもよい。「離れる」、「結合される」などの用語も、「異なる」と同様に解釈されてもよい。
【符号の説明】
【0096】
10…情報処理装置、11…取得部、12…解析部、13…生成部、121…特徴点検出部、122…色情報取得部、123…姿勢判定部、124…人物情報取得部(物体情報取得部)、125…判定部、C…カメラ、FP1~FP11…特徴点。