IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 株式会社NTTドコモの特許一覧 ▶ 株式会社セックの特許一覧

(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2025021977
(43)【公開日】2025-02-14
(54)【発明の名称】画像解析装置
(51)【国際特許分類】
   G06T 7/00 20170101AFI20250206BHJP
   G06V 20/52 20220101ALI20250206BHJP
   H04N 7/18 20060101ALI20250206BHJP
【FI】
G06T7/00 660B
G06V20/52
H04N7/18 K
【審査請求】未請求
【請求項の数】6
【出願形態】OL
(21)【出願番号】P 2023126120
(22)【出願日】2023-08-02
(71)【出願人】
【識別番号】392026693
【氏名又は名称】株式会社NTTドコモ
(71)【出願人】
【識別番号】501493358
【氏名又は名称】株式会社セック
(74)【代理人】
【識別番号】110003177
【氏名又は名称】弁理士法人旺知国際特許事務所
(72)【発明者】
【氏名】原 未來
(72)【発明者】
【氏名】佐藤 里奈
(72)【発明者】
【氏名】小林 洸陽
(72)【発明者】
【氏名】村中 勇輝
(72)【発明者】
【氏名】高木 純平
(72)【発明者】
【氏名】杉江 卓哉
【テーマコード(参考)】
5C054
5L096
【Fターム(参考)】
5C054CA04
5C054CC02
5C054HA18
5L096BA02
5L096EA16
5L096FA10
5L096FA66
5L096FA67
5L096FA79
(57)【要約】
【課題】2次元画像に写る解析対象の状態を精度良く解析する。
【解決手段】取得部141は、現実空間SRと解析対象Hとが撮像装置Cによって撮像された2次元画像PCを取得する。対象モデル生成部142は、解析対象Hを模した3次元対象モデルMを生成する。深度推定部143は、撮像装置Cに対する解析対象Hの深度を推定する。配置部144は、深度推定部143によって推定された深度および2次元画像PC上の解析対象Hの位置に基づいて、現実空間SRを模した3次元空間モデルSV上に3次元対象モデルMを配置する。補正部145は、撮像装置Cの光軸と、解析対象Hとの位置関係に基づいて、3次元空間モデルSV上の3次元対象モデルMの向きを補正する。
【選択図】図1
【特許請求の範囲】
【請求項1】
現実空間と前記現実空間に位置する解析対象とが撮像装置によって撮像された2次元画像を取得する取得部と、
前記2次元画像に基づいて、前記解析対象を模した3次元対象モデルを生成する対象モデル生成部と、
前記2次元画像に基づいて、前記撮像装置に対する前記解析対象の深度を推定する深度推定部と、
前記深度推定部によって推定された前記深度および前記2次元画像上の前記解析対象の位置に基づいて、前記現実空間を模した3次元空間モデル上に前記3次元対象モデルを配置する配置部と、
前記撮像装置の光軸と、前記解析対象との位置関係に基づいて、前記3次元空間モデル上の前記3次元対象モデルの向きを補正する補正部と、
を備える画像解析装置。
【請求項2】
前記補正部は、前記光軸に対する前記解析対象の位置に基づいて、前記3次元対象モデルを回転させることにより前記3次元対象モデルの向きを補正する、
請求項1記載の画像解析装置。
【請求項3】
前記補正部は、前記2次元画像に写る領域を、前記光軸と前記光軸に直交する直交軸とによって、前記光軸に対して第1方向に位置する第1領域と、前記光軸に対して第2方向に位置する第2領域と、に分割し、前記解析対象が前記第1領域に位置する場合、前記光軸と前記直交軸とによって形成される第1平面上における前記3次元対象モデルの向きを前記第1方向に回転させ、前記解析対象が前記第2領域に位置する場合、前記第1平面上における前記3次元対象モデルの向きを前記第2方向に回転させる、
請求項2記載の画像解析装置。
【請求項4】
前記補正部は、前記光軸と前記直交軸との交点を基準点とし、前記解析対象の前記第1平面上の位置と前記基準点とを結ぶ線分が前記光軸に対して成す角度を検出し、前記3次元対象モデルの向きを前記角度回転させる、
請求項3記載の画像解析装置。
【請求項5】
前記直交軸は第1直交軸であり、
前記補正部は、前記2次元画像に写る領域を、前記光軸と前記第1直交軸とに直交する第2直交軸とによって、前記光軸に対して第3方向に位置する第3領域と、前記光軸に対して第4方向に位置する第4領域と、に分割し、前記解析対象が前記第3領域に位置する場合、前記光軸と前記第2直交軸とによって形成される第2平面上における前記3次元対象モデルの向きを前記第3方向に回転させ、前記解析対象が前記第4領域に位置する場合、前記第2平面上における前記3次元対象モデルの向きを前記第4方向に回転させる、
請求項3記載の画像解析装置。
【請求項6】
前記3次元空間モデル内の物体を示す物体モデルと補正後の前記3次元対象モデルとの相対位置に基づいて、前記現実空間における前記解析対象の動作を推定する動作推定部を更に備える、
請求項1記載の画像解析装置。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、画像解析装置に関する。
【背景技術】
【0002】
従来、監視カメラ等で撮像された2次元画像を解析し、解析対象の行動を推定する技術が知られている。例えば、下記特許文献1に記載の特定動作検出装置は、患者のベッドからの離床を判断する際に、ベッド上で起き上がってベッドに腰掛ける動作の有無を含んで判断する。特定動作検出装置は、カメラ、ベッド検出部、人物姿勢検出部、相対位置算出部、相対位置情報保持部および行動推定部を備える。カメラは、監視エリア全体を撮像する。ベッド検出部は、カメラの撮像映像からベッドを抽出し、その抽出情報からベッドのエリアを算出する。人物姿勢検出部は、カメラの撮像画像からベッド上の患者の特定部位の座標情報を入手し、その情報から患者の姿勢を検出する。相対位置算出部は、ベッド検出部及び人物姿勢検出部が検出した情報を基に、ベッドと患者との相対位置を算出する。相対位置情報保持部は、相対位置算出部が算出した時系列の相対位置情報を保持する。行動推定部は、相対位置情報保持部が保持する複数の時系列情報を基に、ベッド上の患者の行動を推定する。
【先行技術文献】
【特許文献】
【0003】
【特許文献1】特開2022-108129号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
撮像装置で撮像された2次元画像は、3次元空間中の点を2次元平面に投影したものである。一般的なレンズを用いた場合、この投影は、透視投影によって記述される。透視投影では、解析対象が同じ状態(例えば同じ向きを向いている場合)であっても撮像装置に対する位置関係に基づいて2次元画像における写り方が変化する。このため、解析対象の状態が正確に解析されない場合があった。
【0005】
本発明の目的は、2次元画像に写る解析対象の状態を精度良く解析することにある。
【課題を解決するための手段】
【0006】
本発明の一態様にかかる画像解析装置は、現実空間と前記現実空間に位置する解析対象とが撮像装置によって撮像された2次元画像を取得する取得部と、前記2次元画像に基づいて、前記解析対象を模した3次元対象モデルを生成する対象モデル生成部と、前記2次元画像に基づいて、前記撮像装置に対する前記解析対象の深度を推定する深度推定部と、前記深度推定部によって推定された前記深度および前記2次元画像上の前記解析対象の位置に基づいて、前記現実空間を模した3次元空間モデル上に前記3次元対象モデルを配置する配置部と、前記撮像装置の光軸と、前記解析対象との位置関係に基づいて、前記3次元空間モデル上の前記3次元対象モデルの向きを補正する補正部と、を備える。
【発明の効果】
【0007】
本発明の一態様によれば、2次元画像に写る解析対象の状態を精度良く解析できる。
【図面の簡単な説明】
【0008】
図1】第1実施形態にかかる画像解析装置10の構成を示すブロック図である。
図2】2次元画像PCの一例を示す模式図である。
図3】3次元空間モデルSVの一例を示す模式図である。
図4A】動作推定部146による動作の推定結果を模式的に示す図である。
図4B】動作推定部146による動作の推定結果を模式的に示す図である。
図5】現実空間SRにおける解析対象Hの位置を模式的に示す図である。
図6A】撮像装置Cと、解析対象Hとの位置関係を模式的に示す図である。
図6B】撮像装置Cと、解析対象Hとの位置関係を模式的に示す図である。
図7】2次元画像PC2を示す図である。
図8A】人H5の視線の向きを模式的に示す図である。
図8B】人H5の視線の向きを模式的に示す図である。
図9A】2次元画像PC3を示す図である。
図9B】2次元画像PC3を示す図である。
図10A】ヨーの補正角度の算出方法を模式的に示す図である。
図10B】ピッチの補正角度の算出方法を模式的に示す図である。
図11】画像解析装置10の動作を示すフローチャートである。
【発明を実施するための形態】
【0009】
A.第1実施形態
図1は、第1実施形態にかかる画像解析装置10の構成を示すブロック図である。画像解析装置10は、現実空間SRで撮像された2次元画像PCに基づいて、当該2次元画像PCに写る解析対象H(例えば人H1~H6)の状態を推定する。解析対象Hの状態とは、例えば解析対象Hの姿勢、または、解析対象Hの動作である。
【0010】
画像解析装置10は、具体的には、例えばパーソナルコンピュータ、タブレットまたはスマートフォン等の情報処理端末である。画像解析装置10は、例えば入力装置100と、表示装置110と、通信装置120と、記憶装置130と、処理装置140と、バス150と、を含む。入力装置100、表示装置110、通信装置120および記憶装置130の各々と、処理装置140とは、データの授受を仲介するバス150によって相互に接続される。バス150は、単一のバスを用いて構成されてもよいし、要素間毎に異なるバスを用いて構成されてもよい。
【0011】
入力装置100は、外部からの入力を受け付ける入力デバイス(例えば、キーボード、マウス、スイッチ、ボタンまたはセンサなど)である。表示装置110は、外部に対して情報を表示する表示デバイス(例えば、液晶表示パネルまたは有機EL表示パネル等の各種の表示パネル)である。入力装置100および表示装置110は、例えばタッチパネルのように一体であってもよい。
【0012】
通信装置120は、図示しないネットワークに接続可能な通信インターフェースを備え、ネットワークを介して他の装置と通信する。他の装置とは、例えば2次元画像PC(図2等参照)を撮像する撮像装置C(図5等参照)である。撮像装置Cは、例えばカメラである。通信装置120の通信インターフェースは、無線通信インターフェースであってもよいし、有線通信インターフェースであってもよい。
【0013】
記憶装置130は、処理装置140が読み取り可能な記録媒体である。記憶装置130は、例えば、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)、EEPROM(Electrically Erasable Programmable ROM)、RAM(Random Access Memory)等の少なくとも1つによって構成されてもよい。記憶装置130には、プログラムPGが記憶されている。プログラムPGは、画像解析装置10を動作させるためのプログラムである。
【0014】
処理装置140は、1または複数のCPU(Central Processing Unit)を含む。処理装置140は、入力装置100に対する入力操作によってプログラムPGの実行を指示されたことを契機として、記憶装置130からプログラムPGを読み取る。処理装置140は、読み取ったプログラムPGを実行する。処理装置140は、プログラムPGを実行することによって、取得部141、対象モデル生成部142、深度推定部143、配置部144、補正部145および動作推定部146として機能する。取得部141、対象モデル生成部142、深度推定部143、配置部144、補正部145および動作推定部146の少なくとも一部の機能は、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)およびFPGA(Field Programmable Gate Array)等の回路によって構成されてもよい。
【0015】
取得部141は、現実空間SRと現実空間SRに位置する解析対象Hとが撮像装置Cによって撮像された2次元画像PC(PC1,PC2等)を取得する。現実空間SRは、例えば店舗、駅、オフィスまたは病院等の室内空間であってもよいし、道路、テーマパークまたはイベント会場等の屋外空間であってもよい。解析対象Hは、人、動物、車両またはロボット等、動作を行う主体である。解析対象Hは、例えば投げられたボール等の物体Bであってもよい。本実施形態では、現実空間SRは室内空間であり、解析対象Hは人H1~H6である(図2等参照)。
【0016】
取得部141は、例えば通信装置120を用いて撮像装置Cから2次元画像PCを取得する。また、撮像装置Cが画像解析装置10と有線で接続可能な範囲に位置している場合には、画像解析装置10に設けられた接続インターフェース(図示なし)を介して撮像装置Cから2次元画像PCを取得してもよい。接続インターフェースは、画像解析装置10が他の装置と接続するためのインターフェースである。接続インターフェースは、例えばUSB(Universal Serial Bus)ケーブル等が接続されるコネクタであってもよいし、Bluetooth(登録商標)またはWi-Fi(登録商標)等の近距離無線通信を利用する通信モジュールであってもよい。
【0017】
取得部141は、現実空間SRの異なる場所に設けられた複数の撮像装置Cから、それぞれ異なる2次元画像PCを取得してもよい。また、取得部141は、撮像装置Cから直接2次元画像PCを取得するに限らず、撮像装置Cから2次元画像PCを取得した他の情報処理装置から2次元画像PCを取得してもよい。
【0018】
本実施形態では、2次元画像PCは、動画を構成する静止画であるものとする。撮像装置Cは、所定のフレームレート毎に静止画(2次元画像PC)を生成することによって、動画を撮像する。撮像装置Cは、静止画(2次元画像PC)を生成する都度、画像解析装置10に送信する。撮像装置Cで動画を撮像することによって、解析対象Hの状態が連続的に把握され、動作の推定精度が向上する。
【0019】
図2は、2次元画像PCの一例を示す模式図である。図2に示す2次元画像PC1には、現実空間SRとして、室内空間が写っている。現実空間SRには、物体B(B1~B6)が存在する。物体Bは、例えば壁B1、床B2、長椅子B3、机B4、丸椅子B5、およびモニタB6等を含む。また、2次元画像PCには、解析対象Hである人H1,H2が写っている。
【0020】
2次元画像PC1について、横方向にXp軸、縦方向にYp軸を取る。2次元画像PC1の各点(例えば各画素)は、Xp軸およびYp軸を用いた2次元の座標情報(Xp,Yp)によって特定できる。
【0021】
なお、2次元画像PC1に写る物体B(本実施形態において、物体Bは車両等の無生物の他、人または動物等の生物を含むものとする)のうち、いずれを解析対象Hとするかは、2次元画像PC1が取得される前から予め指定されていてもよいし、2次元画像PC1の取得後に指定されてもよい。解析対象Hが予め指定されている場合、例えばニューラルネットワークを用いた機械学習モデルを用いて、2次元画像PC1に写る解析対象Hを検出する。例えば店舗における人の動きをモニタしたい場合、2次元画像PC1から人(より詳細には人が写る領域)を検出する第1学習モデルを用いて、店舗内にいる人が検出される。また、解析対象Hが予め指定されていない場合、例えば表示装置110に表示された2次元画像PC1を作業者が目視し、解析対象Hとする物体Bが写る部分を、入力装置100を用いて指定する。例えば多くの人が写る2次元画像PC1から特定の人のみを解析対象Hとする場合、作業者が解析対象Hとする人が写る部分を指定すると、エッジ検出によって当該人が写る領域が検出される。
【0022】
対象モデル生成部142は、2次元画像PCに基づいて、解析対象Hを模した3次元対象モデルMを生成する。対象モデル生成部142は、例えばニューラルネットワークを用いた機械学習モデル(第2学習モデル)を用いて、3次元対象モデルMを生成する。3次元対象モデルMは、例えば解析対象Hのパーツの位置および向きの情報を含む。解析対象Hのパーツとは、例えば解析対象Hが人H1,H2である場合には、人H1,H2の顔、または手など、解析対象Hを構成する一部のパーツであってもよい。3次元対象モデルMは、例えば解析対象Hの形体を模していてもよい。解析対象Hの形体とは、例えば解析対象Hが人H1,H2である場合には、人H1,H2の姿勢である。
【0023】
本実施形態では、3次元対象モデルMは、人のH1,H2の骨格を示す骨格モデルである。対象モデル生成部142は、例えば2次元画像PC1のうち、人H1が写る領域の部分画像から人H1の関節および顔パーツ等の特徴点を検出し、特徴点同士をつなぐことによって骨格モデルを生成する。人H2についても同様に、人H2が写る領域の部分画像から骨格モデルを生成する。3次元対象モデルMを骨格モデルとすることで、個々の人H1,H2が特定されるのを回避し、プライバシーを保護することができる。また、3次元対象モデルMを骨格モデルとすることで、例えば人H1,H2の衣服等、人H1,H2の動作とは直接関連しない情報が除去されるため、処理装置140の処理負荷が軽減される。なお、3次元対象モデルMは骨格モデルに限らず、例えば人H1,H2を模したアバター等であってもよい。
【0024】
深度推定部143は、2次元画像PCに基づいて、2次元画像PCを撮像する撮像装置Cに対する解析対象Hの深度を推定する。撮像装置Cに対する解析対象Hの深度とは、例えば撮像装置Cの代表点(例えば図5に示す撮像装置Cのレンズの中心点O)と、解析対象Hの表面の各点(または代表点)との間の距離である。深度推定部143は、例えばニューラルネットワークを用いた機械学習モデル(第3学習モデル)を用いて、2次元画像PCの各画素の深度を推定する。2次元画像PCのうち解析対象Hが写る領域の画素の深度が、解析対象Hの深度である。また、2次元画像PCの各画素の座標と、それぞれの画素の深度とが対応付けられることによって、解析対象Hを含む現実空間SRの点群データが生成される。
【0025】
配置部144は、深度推定部143によって推定された深度および2次元画像PC上の解析対象Hの位置に基づいて、現実空間SRを模した3次元空間モデルSVに3次元対象モデルMを配置する。第1実施形態では、配置部144は、深度推定部143によって推定された深度、2次元画像PC上の解析対象Hの位置および現実空間SRにおける撮像装置Cの位置に基づいて、現実空間SRにおける解析対象Hの位置を示す3次元座標(以下、「現実座標」という)を推定する。そして、配置部144は、3次元空間モデルSV上の現実座標に対応する位置に、3次元対象モデルMを配置する。
【0026】
図5は、現実空間SRにおける解析対象H(一例として人H1)の位置を模式的に示す図である。現実空間SRの任意の点は、それぞれ直交するXr軸,Yr軸およびZr軸を用いた3次元の座標情報(Xr,Yr,Zr)によって特定できる。図5では撮像装置Cのレンズの中心点Oを原点とし、撮像装置Cの光軸方向をZr軸、Zr軸に垂直な面における上方向をYr軸、右方向をXr軸に設定している。
【0027】
一般に、解析対象Hは3次元的な広がりを有するため、解析対象Hが現実空間SRに占める領域は複数の座標情報で示される。解析対象Hの位置とは、解析対象Hが現実空間SRに占める領域を示す複数の座標情報であってもよいし、現実空間SRにおける解析対象Hの代表点の位置を示す座標情報であってもよい。以下では、人H1の頭部の中心点Dを、人H1の代表点とする。すなわち、解析対象Hである人H1の位置(現実座標)は、中心点Dを示す3次元座標により示されるものとする。中心点Dを示す3次元座標を、(Xrh,Yrh,Zrh)とする。なお、人H1の代表点は、人H1の頭部の中心点Dに限らず、2次元画像PCから検出できる人体の特徴点(例えば腰または足など)であれば他の部位でもよい。
【0028】
現実空間SRにおける撮像装置Cの取り付け位置は既知である。例えば図5において、撮像装置Cは、人H1がいる部屋の天井の特定の箇所に取り付けられている。また、撮像装置Cの撮像方向および撮像倍率が変更可能(すなわち、パン・チルト・ズームが可能)である場合、取得部141が2次元画像PCを取得する際に、撮像装置Cの撮像方向および撮像倍率も取得する。また、撮像装置Cのカメラパラメータも既知であるものとする。よって、配置部144は、2次元画像PCに写る現実空間SRの範囲PAを特定可能である。
【0029】
よって、2次元画像PC上の解析対象Hの位置を現実空間SRの位置に投射するとともに、深度推定部143によって推定された深度に基づいて、撮像装置Cに対する奥行き方向の位置を特定することによって、現実空間SRにおける解析対象Hの位置を示す3次元座標が推定され得る。図5の例では、人H1の位置(中心点D)を示す3次元座標(Xrh,Yrh,Zrh)が推定される。
【0030】
配置部144は、3次元空間モデルSV上の、3次元座標(Xrh,Yrh,Zrh)に対応する位置に、3次元対象モデルMを配置する。3次元空間モデルSVは、2次元画像PCが撮像される現実空間SR(本実施形態では室内空間)を再現するように生成される。3次元空間モデルSVは、例えば現実空間SRを3次元スキャンすることによって自動的に生成されてもよい。または、作業者が現実空間SRの寸法等を参考にしながら手動で3次元空間モデルSVを生成してもよい。
【0031】
3次元空間モデルSVをどの程度の精度で作成するかは、例えばどのような精度で動作の内容を推定するかによって異なる。例えば、動作推定部146において推定する動作が人H1,H2の視認方向である場合、単にどの方向に人H1,H2が向いているかのみを推定すれば足りる場合は、現実空間SRの大まかな構造を規定する物体B(室内空間であれば、床、壁、天井および棚等、室内の間取りを構成する物体B)のみが3次元空間モデルSVに含まれればよい。一方で、人H1,H2が何を見ているかを具体的に特定したい場合は、現実空間SRの大まかな構造を規定する物体Bに加えて、現実空間SRに配置された物体B(室内空間であれば、壁に貼られたポスターまたはテーブルに置かれたカップ等)を3次元空間モデルSVに含めるのが好ましい。
【0032】
図3は、3次元空間モデルSVの一例を示す模式図である。図3に示される3次元空間モデルSVは、図2に示す2次元画像PCに示される現実空間SRを再現している。3次元空間モデルSVに含まれる物体モデルBm(Bm1~Bm6)は、図2の物体B(B1~B6)に対応する。また、3次元空間モデルSVには、人H1,H2を模した3次元対象モデル(骨格モデル)M1,M2が配置されている。図3では、解析対象Hである人H1,H2の身体(頭より下の部分)は直線で表現し、頭部は円(球)によって表現した骨格モデルを図示している。図3では視認性の観点から配置を省略しているが、骨格モデルの頭部に、目等の顔パーツが配置されていてもよい。
【0033】
3次元空間モデルSVの任意の点は、それぞれ直行するXv軸、Yv軸およびZv軸を用いた3次元の座標情報(Xv,Yv,Zv)によって特定できる。3次元空間モデルSVの座標情報(Xv,Yv,Zv)と、現実空間SRの座標情報(Xr,Yr,Zr)との対応関係は既知であり、相互に変換可能である。3次元空間モデルSVにおける物体モデルBm(Bm1~Bm6)の位置は、現実空間SRにおける物体B(B1~B6)の位置に対応する。3次元空間モデルSVにおける3次元対象モデルM1の位置(より詳細には3次元対象モデルM1の頭部の中心点Dm)を示す3次元座標を(Xvh,Yvh,Zvh)とする。配置部144は、現実空間SRにおける人H1の3次元座標である(Xrh,Yrh,Zrh)に対して座標変換処理を行うことによって、3次元座標(Xvh,Yvh,Zvh)を算出し、3次元対象モデルM1を配置する。
【0034】
補正部145は、撮像装置Cの光軸Kと、解析対象Hとの位置関係に基づいて、3次元対象モデルMの姿勢を補正する。本実施形態では、補正部145は、光軸Kに対する解析対象Hの位置に基づいて、3次元対象モデルMを回転させることにより3次元対象モデルMの向きを補正する。
【0035】
以下、図6A図10Bを用いて、補正部145による補正の原理を説明する。図6Aおよび図6Bは撮像装置Cと、解析対象Hとの位置関係を模式的に示す図である。図6Aは、撮像装置Cと解析対象Hとが配置された部屋Fを上方から見た図であり、図6Bは、部屋Fを側方から見た図である。部屋Fは、壁Fw1~Fw4、天井Fcおよび床Ffを有する。撮像装置Cは、壁Fw3の近傍に、壁Fw4に光軸Kを向けて設置されている。説明の便宜上、Zr軸(光軸K)は天井Fcおよび床Ffと平行であり、Yr軸は壁Fw3の上下方向と平行であり、Xr軸は壁Fw3の左右方向と平行であるものとする。図6Aにおいて一点破線で示されるのは、撮像装置Cの撮像範囲である。
【0036】
部屋Fの上方から見て、撮像装置Cの光軸Kの延長上に位置P1、光軸Kに対して右側の領域に位置P2、光軸Kに対して左側の領域に位置P3を設定する。位置P1~P3は、直線上に配置されている。位置P1~P3に解析対象Hである人H3~H5をそれぞれ配置して撮像することにより、図7に示す2次元画像PC2を得る。人H3~H5は、図7等に示すように、壁Fw1の左右方向に沿って両腕を広げた姿勢で、壁Fw1に顔および視線を向けている。なお、図6Aおよび図6Bでは、人H3~H5を模式的に示している。
【0037】
図7は、2次元画像PC2を示す図である。2次元画像PC2には、壁Fw1,Fw2,Fw4、床Ffおよび人H3~H5が写っている。ここで、人H3~H5は、同じ姿勢をとっている(壁Fw1の左右方向に沿って両腕を広げた姿勢で、壁Fw1に顔および視線を向けている)が、2次元画像PC2における写り方が異なる。具体的には、光軸Kの延長線上の位置P1に位置する人H3は、現実空間SRと同様に、壁Fw1に向かう方向(Xr軸に沿った方向)を向いているように写る。これに対して、光軸Kより右側の領域の位置P2に位置する人H4は、壁Fw1に対して(または人H3と比較して)左回りに回転しているように写る。また、光軸Kより左側の領域の位置P3に位置する人H5は、壁Fw1に対して(または人H3と比較して)右回りに回転しているように写る。
【0038】
このような写り方の違いは、透視投影の性質に起因する。2次元画像PC2は、3次元空間中の点を透視投影によって2次元平面に投影したものである。透視投影では、物体Bの奥行き方向の広がりが消失点で消失するように描画される。よって、同一の姿勢を取る人H3~H5であっても、撮像装置Cに対する位置に応じて異なる形状で描画される。なお、平行投影の場合には、同一の姿勢を取る人H3~H5は、同じ形状で描画される。
【0039】
ここで、上述した配置部144は、2次元画像PC2に写る通りに3次元対象モデルMを3次元空間モデルSVに配置する。このため、現実空間SRにおける人H3~H5の向きと、3次元空間モデルSVに配置された3次元対象モデルMの向きとに誤差が生じる場合がある。
【0040】
図8Aおよび図8Bは、人H5の視線の向きを模式的に示す図である。図8Aに示すように、現実空間SRにおける人H5の視線の向きが壁Fw1に対して垂直である場合、視線の向きは矢印Aw1で示される。一方、図7に示す2次元画像PC2に基づいて人H5の視線の向きを推定すると、図8Bの矢印Ar2に示すように、矢印Ar2に対して時計回りに角度Φずれた方向となる。このような推定結果は、人H5の視線の向きを正しく反映できていない。
【0041】
このため、補正部145は、撮像装置Cの光軸Kと、解析対象Hとの位置関係に基づいて、3次元対象モデルMの姿勢を補正する。上述のように本実施形態では、補正部145は、光軸Kに対する解析対象Hの位置に基づいて、3次元対象モデルMを回転させることにより3次元対象モデルMの向きを補正する。
【0042】
図9Aおよび図9Bは、2次元画像PC3を示す図である。図9Aおよび図9Bでは、解析対象Hである人H6を模式的に示している。図9Aは、部屋Fの壁Fw3の天井Fc付近に設置された撮像装置Cで撮像された2次元画像PC3を示す。2次元画像PC3には、人H6が写る。図9Bは、図9Aのうち、人H6の顔が写る部分の拡大図である。配置部144は、2次元画像PC3に写る人H6の顔に基づいて、人H6の視線が矢印Ar3を向いていると推定する。
【0043】
矢印Ar3は、Yr軸周りの回転成分であるヨー(Yaw)、Zr軸周りの回転成分であるロール(Roll)、Xr軸周りの回転成分であるピッチ(Pitch)に分解できる。矢印Ar3のヨーをa°、ロールをb°、ピッチをc°とする。補正部145は、矢印Arのヨーおよびピッチを補正する。
【0044】
図10Aは、ヨーの補正角度の算出方法を模式的に示す図である。Xr軸―Zr軸平面上の人H5の位置を座標(x1,z1)とする。撮像装置Cの光軸K(Zr軸)と、中心点Oおよび人H5の位置を結ぶ線分Lc1とのなす角度y°は、下記式(1)によって算出できる。角度y°は、撮像装置Cの光軸Kに対して右側の領域Frではプラスに、左側の領域Flではマイナスになる。
【0045】
【数1】
【0046】
補正部145は、下記式(2)によって補正後のヨーa’°を算出する。
【0047】
a’°=a°+y° ・・・(2)
【0048】
補正部145は、3次元対象モデルMの視線の向きのヨーが、補正後のa’°となるように、3次元空間モデル上の3次元対象モデルMをy°回転させる。角度y°がプラスの場合、3次元対象モデルMは、時計回り(右回り)に回転される。角度y°がマイナスの場合、3次元対象モデルMは、反時計回り(左回り)に回転される。図10Aの例では、角度y°はプラスとなる。よって、補正部145は、ヨーが矢印Ar3yと一致するように、3次元対象モデルMを時計回りにy°補正する。
【0049】
図10Bは、ピッチの補正角度の算出方法を模式的に示す図である。Zr軸―Yr軸平面上の人H5の位置を座標(z1,y1)とする。撮像装置Cの光軸K(Zr軸)と、中心点Oおよび人H5の位置を結ぶ線分Lc2とのなす角度p°は、下記式(3)によって算出できる。角度p°は、撮像装置Cの光軸Kに対して上側の領域Fuではプラスに、下側の領域Fdではマイナスになる。
【0050】
【数2】
【0051】
補正部145は、下記式(4)によって補正後のピッチc’°を算出する。
【0052】
c’°=c°+p° ・・・(4)
【0053】
補正部145は、3次元対象モデルMの視線の向きのピッチが、補正後のc’°となるように、3次元空間モデル上の3次元対象モデルMをp°回転させる。角度p°がプラスの場合、3次元対象モデルMは、上回りに回転される。角度p°がマイナスの場合、3次元対象モデルMは、下回りに回転される。図10Bの例では、角度p°はプラスとなる。よって、補正部145は、ピッチが矢印Ar3pと一致するように、3次元対象モデルMを上周りに回転させる。
【0054】
なお、ヨーの補正およびピッチの補正は、両方行われてもよいし、いずれか一方のみが行われてもよい。
【0055】
以上をまとめると、補正部145は、2次元画像PC3に写る領域を、光軸Kと光軸Kに直交する直交軸とによって、光軸Kに対して第1方向に位置する第1領域と、光軸Kに対して第2方向に位置する第2領域と、に分割する。補正部145は、解析対象Hが第1領域に位置する場合、光軸Kと直交軸とによって形成される第1平面上における3次元対象モデルMの向きを第1方向に回転させる。また、補正部145は、解析対象Hが第2領域に位置する場合、第1平面上における3次元対象モデルMの向きを第2方向に回転させる。
【0056】
光軸KはZr軸に対応し、直交軸はXr軸またはYr軸に対応する。直交軸がXr軸の場合、第1平面はXr-Zr平面であり、第1方向は例えば右方向、第2方向は例えば左方向である。第1方向が左方向、第2方向が右方向であってもよい。第1方向が右方向、第2方向が左方向の場合、第1領域は図10Aにおける領域Fr、第2領域は図10Aにおける領域Flである。解析対象Hである人H6が領域Frにいる場合、補正部145は、右方向に3次元対象モデルMを回転させる。また、人H6が領域Flにいる場合、補正部145は、左方向に3次元対象モデルMを回転させる。
【0057】
また、補正部145は、光軸Kと直交軸との交点を基準点とし、解析対象Hの第1平面上の位置と基準点とを結ぶ線分が光軸Kに対して成す角度を検出し、3次元対象モデルMの向きを当該角度回転させる。
【0058】
基準点は、レンズの中心点Oに対応する。直交軸がXr軸の場合、解析対象Hの第1平面上の位置は図10Aに示す座標(x1,z1)であり、中心点Oと座標(x1,z1)とを結ぶ線分は線分Lc1である。線分Lc1が光軸Kに対して成す角度はy°である。補正部145は、3次元対象モデルMの向きをy°回転させる。
【0059】
上述した直交軸を第1直交軸とする。補正部145は、更に、2次元画像PC3に写る領域を、光軸Kと第1直交軸とに直交する第2直交軸とによって、光軸Kに対して第3方向に位置する第3領域と、光軸Kに対して第4方向に位置する第4領域と、に分割する。補正部145は、解析対象が第3領域に位置する場合、光軸Kと第2直交軸とによって形成される第2平面上における3次元対象モデルMの向きを第3方向に回転させる。また、補正部145は、解析対象Hが第4領域に位置する場合、第2平面上における3次元対象モデルMの向きを前記第4方向に回転させる。
【0060】
Xr軸を第1直交軸とすると、第2直交軸はYr軸である。第2直交軸がYr軸の場合、第2平面はZr-Yr平面であり、第3方向は例えば上方向、第4方向は例えば下方向である。第3方向が下方向、第4方向が上方向であってもよい。第3方向が上方向、第4方向が下方向の場合、第3領域は図10Bにおける領域Fu、第4領域は図10Bにおける領域Fdである。解析対象Hである人H6が領域Fuにいる場合、補正部145は、上方向に3次元対象モデルMを回転させる。また、人H6が領域Fdにいる場合、補正部145は、下方向に3次元対象モデルMを回転させる。なお、第1直交軸をYr軸、第2直交軸をXr軸としてもよい。
【0061】
また、補正角度は、解析対象Hの第1平面上または第2面上の位置と基準点とを結ぶ線分が光軸Kに対して成す角度(角度y°または角度p°)に限らない。例えば、補正角度は、角度y°または角度p°に対して所定のマージンを持たせた角度であってもよい。
【0062】
図1の説明に戻り、動作推定部146は、3次元空間モデルSV内の物体モデルBmと補正後の3次元対象モデルMとの相対位置に基づいて、現実空間SRにおける解析対象Hの動作を推定する。現実空間SRで解析対象Hが動作を行う場合、少なくとも動作の開始時および動作の終了時において、現実空間SRに存在する物体Bとの間の相対位置が変化する。例えば解析対象Hの動作が、物体Bに作用を及ぼす動作(例えば物体Bの移動等)の場合、解析対象Hの少なくとも一部(または打撃具等の他の物体)を物体Bに接触させて力を加える。すなわち、解析対象Hの少なくとも一部が物体Bに接触する位置となる。また、例えば解析対象Hの動作が、物体Bに作用を及ぼさない動作(例えば周囲の物体Bの視認等)の場合、解析対象Hの身体の少なくとも一部(物体Bの視認の場合は頭部)と周囲の物体Bとの相対位置が変化する。よって、3次元空間モデルSV内の物体モデルBmと3次元対象モデルMとの相対位置に基づいて、現実空間SRにおける解析対象Hの動作を推定することができる。
【0063】
動作推定部146は、例えば3次元空間モデルSV内の物体モデルBmと3次元対象モデルMとが接触する箇所に基づいて、動作を推定する。例えば3次元対象モデルM1の手が丸椅子B5を示す物体モデルBm5に触れている場合、動作推定部146は、人H1が丸椅子B5を移動させていると推定する。また、例えば3次元対象モデルM1の下肢部が物体モデルBm5に触れている場合、動作推定部146は、人H1が丸椅子B5に座っていると推定する。
【0064】
他にも、例えば店舗を模した3次元空間モデルSVにおいて、来店者を模した3次元対象モデルMの手が商品を示す物体モデルBmに触れた場合、動作推定部146は、現実空間SRの店舗において来店者が商品を手に取ったと推定する。3次元空間モデルSVが現実空間SRの店舗の棚割りを再現している場合、動作推定部146は、来店者が手に取った具体的な商品を特定できる。3次元空間モデルSVが現実空間SRの店舗の棚割りを再現していない場合でも、来店者が商品を手に取ったことを特定できる。
【0065】
また、動作推定部146は、例えば3次元対象モデルMの特定の部位が向く方向に位置する3次元空間モデルSV内の物体モデルBmに基づいて、動作を推定する。例えば、特定の部位を3次元対象モデルMの目もしくは顔とすることで、特定の部位が向く方向を、3次元対象モデルMの視線の向きとみなすことができる。よって、この向きに位置する物体モデルBmは、解析対象Hが見ている物体Bに対応すると推定される。
【0066】
上述のように、3次元空間モデルSVにおける3次元対象モデルMの向きは、補正部145によって補正される。よって、3次元対象モデルMは、解析対象Hの身体の向き、手の位置、または、視線の向き等を、3次元空間モデルSV上で高精度に再現する。補正部145による補正を行うことによって、動作推定部146による動作推定の精度を向上させることができる。
【0067】
図4Aおよび図4Bは、動作推定部146による動作の推定結果を模式的に示す図である。図4Aは、3次元空間モデルSVの側面図であり、図4Bは、3次元空間モデルSVの上面図である。図4Aおよび図4Bには、3次元対象モデルM1,M2の視線の向きL1,L2が示されている。視線の向きL1,L2は、3次元対象モデルM1,M2の顔の向きを視線の向きと見做したものである。
【0068】
人H1に対応する3次元対象モデルM1の視線の向きL1には、壁B1に対応する物体モデルBm1が位置する。よって、動作推定部146は、人H1は壁B1を見ていると推定する。また、人H2に対応する3次元対象モデルM2の視線の向きL2には、モニタB6に対応する物体モデルBm6が位置する。よって、動作推定部146は、人H2はモニタB6を見ていると推定する。3次元空間モデルSVに3次元対象モデルM1,M2を配置することによって、動作の向きが3次元的に推定可能となり、2次元画像PCのみを用いて解析対象Hの動作を推定するのと比較して、動作の推定精度が向上する。
【0069】
図11は、画像解析装置10の動作を示すフローチャートである。画像解析装置10の処理装置140は、取得部141として機能し、現実空間SRと解析対象Hとが撮像された2次元画像PCを撮像装置Cから取得する(ステップS10)。処理装置140は、対象モデル生成部142として機能し、2次元画像PCに基づいて、解析対象Hを模した3次元対象モデルMを生成する(ステップS11)。
【0070】
処理装置140は、深度推定部143として機能し、2次元画像PCに基づいて、2次元画像PCを撮像する撮像装置Cに対する解析対象Hの深度を推定する(ステップS12)。処理装置140は、配置部144として機能し、深度推定部143によって推定された深度、2次元画像PC上の解析対象Hの位置、および現実空間SRにおける撮像装置Cの位置に基づいて、現実空間SRにおける解析対象Hの位置を示す3次元座標を推定する(ステップS13)。なお、ステップS11の処理と、ステップS12~S13の処理とは、順序を入れ替えてもよいし、同時に行ってもよい。
【0071】
処理装置140は、配置部144として機能し、現実空間SRを模した3次元空間モデルSV上の、ステップS13で推定した3次元座標に対応する位置に、3次元対象モデルMを配置する(ステップS14)。処理装置140は、補正部145として機能し、3次元空間モデルSVに配置された3次元対象モデルMの向きを、撮像装置Cの光軸Kと、解析対象Hとの位置関係に基づいて補正する(ステップS15)。
【0072】
処理装置140は、動作推定部146として機能し、3次元空間モデルSV内の物体モデルBmと3次元対象モデルMとの相対位置に基づいて、現実空間SRにおける解析対象Hの動作を推定する(ステップS16)。その後、処理装置140は、処理をステップS10に戻し、以降の処理を繰り返す。
【0073】
以上説明したように、実施形態にかかる画像解析装置10は、画像解析装置10は、2次元画像PCに基づいて解析対象Hの3次元対象モデルMを生成し、現実空間SRを模した3次元空間モデルSVに3次元対象モデルMを配置する。画像解析装置10は、3次元空間モデルSVに配置された3次元対象モデルMの向きを、撮像装置Cの光軸Kと解析対象Hとの位置関係に基づいて補正する。よって、3次元空間モデルSVに配置された3次元対象モデルMによって現実空間SRにおける解析対象Hの状態を高精度に再現することができる。
【0074】
また、画像解析装置10は、2次元画像PCに写る領域を、光軸Kと光軸Kに直交するXr軸とによって、光軸Kに対して右方向に位置する領域Frと、光軸Kに対して左方向に位置する領域Flとに分割する。画像解析装置10は、解析対象Hが領域Frに位置する場合、Xr-Zr平面上における3次元対象モデルMの向きを右方向に回転させ、解析対象Hが領域Flに位置する場合、Xr-Zr平面上における3次元対象モデルMの向きを左方向に回転させる。よって、透視投影で表現される2次元画像PCにおける像のずれが補正されて、3次元対象モデルMは、解析対象Hの状態をより正確に再現することができる。
【0075】
また、画像解析装置10は、光軸KとXr軸との交点を基準点(中心点O)とし、解析対象HのXr-Zr平面上の位置と基準点とを結ぶ線分Lc1が光軸Kに対して成す角度y°を検出し、3次元対象モデルの向きを角度y°回転させる。よって、補正すべき角度が、簡易かつ正確に算出できる。
【0076】
また、画像解析装置10は、2次元画像PCに写る領域を、Xr軸に直交するYr軸と光軸Kによって、光軸Kに対して上方向に位置する領域Fuと、光軸Kに対して下方向に位置する領域Fdとに分割する。画像解析装置10は、解析対象Hが領域Fuに位置する場合、Zr-Yr平面上における3次元対象モデルMの向きを上方向に回転させ、解析対象Hが領域Fdに位置する場合、Zr-Yr平面上における3次元対象モデルMの向きを下方向に回転させる。よって、透視投影で表現される2次元画像PCにおける像のずれが補正されて、3次元対象モデルMは、解析対象Hの状態をより正確に再現することができる。また、第1直交軸であるXr軸に加えて、第2直交軸であるYr軸についても、補正することによって、3次元対象モデルMの向きの精度がより向上する。
【0077】
また、画像解析装置10は、3次元空間モデルSV内の物体モデルBmと3次元対象モデルMとの相対位置に基づいて、現実空間SRにおける解析対象Hの動作を推定する。言い換えると、2次元画像PCに写る解析対象Hが3次元空間モデルSVに投射される。よって、2次元画像PCのみを用いるのと比較して、解析対象Hの動作の推定精度が向上する。
【0078】
また、画像解析装置10は、補正部145によって3次元空間モデルSVにおける3次元対象モデルMの向きを補正する。よって、3次元対象モデルMは、解析対象Hの身体の向き、手の位置、または、視線の向き等を、3次元空間モデルSV上で高精度に再現することができ、動作推定部146による動作推定の精度を向上させることができる。
【0079】
B:その他
(1)上述した実施形態では、記憶装置130としてROM及びRAM等が例示されたが、記憶装置130は、フレキシブルディスク、光磁気ディスク(例えば、コンパクトディスク、デジタル多用途ディスク、Blu-ray(登録商標)ディスク)、スマートカード、フラッシュメモリデバイス(例えば、カード、スティック、キードライブ)、CD-ROM(Compact Disc-ROM)、レジスタ、リムーバブルディスク、ハードディスク、フロッピー(登録商標)ディスク、磁気ストリップ、データベース、サーバその他の適切な記憶媒体であってもよい。
【0080】
(2)上述した実施形態において、説明した情報、信号等は、様々な異なる技術のいずれかを使用して表されてもよい。例えば、上記の説明全体に渡って言及され得るデータ、命令、コマンド、情報、信号、ビット、シンボル、チップ等は、電圧、電流、電磁波、磁界若しくは磁性粒子、光場若しくは光子、又はこれらの任意の組み合わせによって表されてもよい。
【0081】
(3)上述した実施形態において、入出力された情報等は特定の場所(例えば、メモリ)に保存されてもよいし、管理テーブルを用いて管理してもよい。入出力される情報等は、上書き、更新、又は追記され得る。出力された情報等は削除されてもよい。入力された情報等は他の装置へ送信されてもよい。
【0082】
(4)上述した実施形態において、判定は、1ビットで表される値(0か1か)によって行われてもよいし、真偽値(Boolean:true又はfalse)によって行われてもよいし、数値の比較(例えば、所定の値との比較)によって行われてもよい。
【0083】
(5)上述した実施形態において例示した処理手順、シーケンス、フローチャート等は、矛盾の無い限り、順序が入れ替えられてもよい。例えば、本開示において説明した方法については、例示的な順序を用いて様々なステップの要素が提示されており、提示された特定の順序に限定されない。
【0084】
(6)図1に例示された各機能は、ハードウェア及びソフトウェアの少なくとも一方の任意の組み合わせによって実現される。また、各機能ブロックの実現方法は特に限定されない。すなわち、各機能ブロックは、物理的又は論理的に結合した1つの装置を用いて実現されてもよいし、物理的又は論理的に分離した2つ以上の装置を直接的又は間接的に(例えば、有線、無線等を用いて)接続し、これら複数の装置を用いて実現されてもよい。機能ブロックは、上記1つの装置又は上記複数の装置にソフトウェアを組み合わせて実現されてもよい。
【0085】
(7)上述した実施形態で例示したプログラムは、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、ハードウェア記述言語と呼ばれるか、他の名称で呼ばれるかを問わず、命令、命令セット、コード、コードセグメント、プログラムコード、プログラム、サブプログラム、ソフトウェアモジュール、アプリケーション、ソフトウェアアプリケーション、ソフトウェアパッケージ、ルーチン、サブルーチン、オブジェクト、実行可能ファイル、実行スレッド、手順、機能等を意味するよう広く解釈されるべきである。
【0086】
また、ソフトウェア、命令、情報等は、伝送媒体を介して送受信されてもよい。例えば、ソフトウェアが、有線技術(同軸ケーブル、光ファイバケーブル、ツイストペア、デジタル加入者回線(DSL:Digital Subscriber Line)等)及び無線技術(赤外線、マイクロ波等)の少なくとも一方を使用してウェブサイト、サーバ、又は他のリモートソースから送信される場合、これらの有線技術及び無線技術の少なくとも一方は、伝送媒体の定義内に含まれる。
【0087】
(8)前述の各形態において、「システム」及び「ネットワーク」という用語は、互換的に使用される。
【0088】
(9)本開示において説明した情報、パラメータ等は、絶対値を用いて表されてもよいし、所定の値からの相対値を用いて表されてもよいし、対応する別の情報を用いて表されてもよい。
【0089】
(10)上述した実施形態において、携帯機器には、移動局(MS:Mobile Station)である場合が含まれる。移動局は、当業者によって、加入者局、モバイルユニット、加入者ユニット、ワイヤレスユニット、リモートユニット、モバイルデバイス、ワイヤレスデバイス、ワイヤレス通信デバイス、リモートデバイス、モバイル加入者局、アクセス端末、モバイル端末、ワイヤレス端末、リモート端末、ハンドセット、ユーザエージェント、モバイルクライアント、クライアント、又はいくつかの他の適切な用語で呼ばれる場合もある。また、本開示においては、「移動局」、「ユーザ端末(user terminal)」、「ユーザ装置(UE:User Equipment)」、「端末」等の用語は、互換的に使用され得る。
【0090】
(11)上述した実施形態において、「接続された(connected)」、「結合された(coupled)」という用語、又はこれらのあらゆる変形は、2又はそれ以上の要素間の直接的又は間接的なあらゆる接続又は結合を意味し、互いに「接続」又は「結合」された2つの要素間に1又はそれ以上の中間要素が存在することを含むことができる。要素間の結合又は接続は、物理的なものであっても、論理的なものであっても、或いはこれらの組み合わせであってもよい。例えば、「接続」は、「アクセス」で読み替えられてもよい。本開示で使用する場合、2つの要素は、1又はそれ以上の電線、ケーブル及びプリント電気接続の少なくとも一つを用いて、並びにいくつかの非限定的かつ非包括的な例として、無線周波数領域、マイクロ波領域及び光(可視及び不可視の両方)領域の波長を有する電磁エネルギー等を用いて、互いに「接続」又は「結合」されると考えることができる。
【0091】
(12)上述した実施形態において、「に基づいて」という記載は、別段に明記されていない限り、「のみに基づいて」を意味しない。言い換えれば、「に基づいて」という記載は、「のみに基づいて」と「に少なくとも基づいて」の両方を意味する。
【0092】
(13)本開示で使用する「判断(determining)」、「決定(determining)」という用語は、多種多様な動作を包含する場合がある。「判断」、「決定」は、例えば、判定(judging)、計算(calculating)、算出(computing)、処理(processing)、導出(deriving)、調査(investigating)、探索(looking up、search、inquiry)(例えば、テーブル、データベース又は別のデータ構造での探索)、確認(ascertaining)した事を「判断」「決定」したとみなす事等を含み得る。また、「判断」、「決定」は、受信(receiving)(例えば、情報を受信すること)、送信(transmitting)(例えば、情報を送信すること)、入力(input)、出力(output)、アクセス(accessing)(例えば、メモリ中のデータにアクセスすること)した事を「判断」「決定」したとみなす事等を含み得る。また、「判断」、「決定」は、解決(resolving)、選択(selecting)、選定(choosing)、確立(establishing)、比較(comparing)等した事を「判断」「決定」したとみなす事を含み得る。つまり、「判断」「決定」は、何らかの動作を「判断」「決定」したとみなす事を含み得る。また、「判断(決定)」は、「想定する(assuming)」、「期待する(expecting)」、「みなす(considering)」等で読み替えられてもよい。
【0093】
(14)上述した実施形態において、「含む(include)」、「含んでいる(including)」及びそれらの変形が使用されている場合、これらの用語は、用語「備える(comprising)」と同様に、包括的であることが意図される。更に、本開示において使用されている用語「又は(or)」は、排他的論理和ではないことが意図される。
【0094】
(15)本開示において、例えば、英語でのa, an及びtheのように、翻訳により冠詞が追加された場合、本開示は、これらの冠詞の後に続く名詞が複数形であることを含んでもよい。
【0095】
(16)本開示において、「AとBが異なる」という用語は、「AとBが互いに異なる」ことを意味してもよい。なお、当該用語は、「AとBが夫々Cと異なる」ことを意味してもよい。「離れる」、「結合される」等の用語も、「異なる」と同様に解釈されてもよい。
【0096】
(17)本開示において説明した各態様/実施形態は単独で用いてもよいし、組み合わせて用いてもよいし、実行に伴って切り替えて用いてもよい。また、所定の情報の通知(例えば、「Xであること」の通知)は、明示的に行うものに限られず、暗黙的(例えば、当該所定の情報の通知を行わない)ことによって行われてもよい。
【符号の説明】
【0097】
10…画像解析装置、100…入力装置、110…表示装置、120…通信装置、130…記憶装置、140…処理装置、141…取得部、142…対象モデル生成部、143…深度推定部、144…配置部、145…補正部、146…動作推定部、B…物体、Bm…物体モデル、C…撮像装置、H…解析対象、H1~H6…人、K…光軸、M(M1,M2)…3次元対象モデル、PG…プログラム、SR…現実空間、SV…3次元空間モデル。
図1
図2
図3
図4A
図4B
図5
図6A
図6B
図7
図8A
図8B
図9A
図9B
図10A
図10B
図11