特許第5872923号(P5872923)IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 株式会社マイクロネットの特許一覧

<>
  • 特許5872923-AR画像処理装置及び方法 図000021
  • 特許5872923-AR画像処理装置及び方法 図000022
  • 特許5872923-AR画像処理装置及び方法 図000023
  • 特許5872923-AR画像処理装置及び方法 図000024
  • 特許5872923-AR画像処理装置及び方法 図000025
  • 特許5872923-AR画像処理装置及び方法 図000026
  • 特許5872923-AR画像処理装置及び方法 図000027
  • 特許5872923-AR画像処理装置及び方法 図000028
  • 特許5872923-AR画像処理装置及び方法 図000029
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】5872923
(24)【登録日】2016年1月22日
(45)【発行日】2016年3月1日
(54)【発明の名称】AR画像処理装置及び方法
(51)【国際特許分類】
   G06F 3/038 20130101AFI20160216BHJP
   G06T 19/00 20110101ALI20160216BHJP
   G06F 3/0484 20130101ALI20160216BHJP
   G06F 3/0346 20130101ALI20160216BHJP
【FI】
   G06F3/038 310Y
   G06T19/00 F
   G06F3/0484 150
   G06F3/0346 426
【請求項の数】2
【全頁数】15
(21)【出願番号】特願2012-36628(P2012-36628)
(22)【出願日】2012年2月22日
(65)【公開番号】特開2013-171523(P2013-171523A)
(43)【公開日】2013年9月2日
【審査請求日】2014年12月10日
(73)【特許権者】
【識別番号】399107845
【氏名又は名称】株式会社マイクロネット
(74)【代理人】
【識別番号】100083806
【弁理士】
【氏名又は名称】三好 秀和
(74)【代理人】
【識別番号】100101247
【弁理士】
【氏名又は名称】高橋 俊一
(72)【発明者】
【氏名】伊藤 和彦
【審査官】 田川 泰宏
(56)【参考文献】
【文献】 特開2005−038153(JP,A)
【文献】 特開2001−126051(JP,A)
【文献】 神原 誠之,マーカと自然特徴点を併用した広範囲見回し可能なステレオビデオシースルー拡張現実感 Registration for Stereo Vision-based Augmented Reality Based on Extendible Tracking of Markers and Natural Features,日本バーチャルリアリティ学会論文誌,日本,日本バーチャルリアリティ学会,2002年 9月30日,第7巻,第3号,p.367-373
(58)【調査した分野】(Int.Cl.,DB名)
G06F 3/01−0489
G06T 19/00
(57)【特許請求の範囲】
【請求項1】
ARマーカに対応するCGオブジェクトの画像データを予め記憶部に記憶し、
カメラによって前記ARマーカを含むその周囲の第1のビューボリューム空間内の情景を第1の撮影画像として撮影し、
ARマーカ認識型の第1AR解析器によって、前記第1の撮影画像を取得し、AR認識処理によって前記第1の撮影画像からARマーカ像を見つけ出し、当該第1の撮影画像に対応する前記第1のビューボリューム空間内での前記ARマーカの位置、姿勢、スケールを割り出し、
自然特徴点追跡型の第2のAR解析器において、前記第1AR解析器から前記第1のビューボリューム空間内での前記ARマーカの位置、姿勢、スケールのデータを取得し、
前記第2のAR解析器において、前記カメラの現在の位置、中心軸方向、視野角に対応する第2のビューボリューム空間内での前記ARマーカの位置、姿勢、スケールを決定し、
前記第2のAR解析器において、前記カメラが前記現在の位置、中心軸方向、視野角で撮影する第2の撮影画像に対して自然特徴点追跡処理を施し、当該第2の撮影画像に対応する前記ARマーカ像のスケール、位置、姿勢を計算し、
CGレンダリング部によって、前記記憶部に記憶されている前記CGオブジェクトの画像データを読み出し、前記計算された前記ARマーカ像のスケール、位置、姿勢を用いて、CGオブジェクトを前記第2の撮影画像のカメラ位置、中心線方向、視野角での見え方にて再現し、前記第2の撮影画像内の対応する位置に合成し、
表示器によって、前記合成した画像を表示することを特徴とするAR画像処理方法。
【請求項2】
カメラと、
ARマーカに対応するCGオブジェクトの画像データを記憶する記憶部と、
前記カメラによって撮影したARマーカを含むその周囲の第1のビューボリューム空間内の情景の第1の撮影画像に対して、ARマーカ認識処理によって前記ARマーカ像を見つけ出し、当該第1の撮影画像に対応する前記第1のビューボリューム空間内での前記ARマーカの位置、姿勢、スケールを割り出すARマーカ認識型の第1AR解析器と、
前記第1AR解析器から前記第1のビューボリューム空間内での前記ARマーカの位置、姿勢、スケールのデータを取得し、前記カメラの現在の位置、中心軸方向に対応する第2のビューボリューム空間内での前記ARマーカの位置、姿勢、スケールを決定し、前記カメラが前記現在の位置、中心軸方向で撮影する第2の撮影画像に対して自然特徴点追跡処理を施し、当該第2の撮影画像内で前記ARマーカに対応する前記CGオブジェクトのスケール、位置、姿勢を計算する自然特徴点追跡型の第2のAR解析器と、
前記記憶部に記憶されている前記CGオブジェクトの画像データを読み出し、前記計算された前記ARマーカのスケール、位置、姿勢を用いて、CGオブジェクトを前記第2の撮影画像のカメラ位置、中心線方向、カメラアングルでの見え方にて再現し、前記第2の撮影画像内の対応する位置に合成するCGレンダリング部と、
前記CGレンダリング部が合成した画像を表示する表示器とを備えたことを特徴とするAR画像処理装置。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、ARマーカと自然特徴点追跡方法を組み合わせたAR画像処理装置及び方法に関する。
【背景技術】
【0002】
拡張現実感(AR)技術により、撮影装置であるウェブカメラやデジタルビデオ等のカメラで撮影したARマーカ像のような対象物体像の上にCGオブジェクトをリアルタイム合成するAR画像処理装置はすでに多方面で利用されている。
【0003】
マーカ型AR技術は、デジタル画像において一定形状の集団を形成する特徴点群を事前に登録し、撮影装置から得られるデジタル画像中から、ホモグラフィー等を用いて登録された特徴点群を検出し、位置、姿勢等を推定し、その位置、姿勢等に対応するようにARマーカ像の位置にCGオブジェクトを合成表示するものである。
【0004】
このAR技術において、事前に登録する一定形状の特徴点群をARマーカ(あるいは単純に「マーカ」)と呼ぶ。マーカを登録する際に、マーカの実世界上での大きさや姿勢を表す付加情報を与えることにより、撮影装置から得られるデジタル画像内での大きさや距離をある程度正確に推定することが可能である。一方、デジタル画像中に認識できる特徴点群が存在しない場合、当然ながらマーカの位置や姿勢を推定することは不可能である。
【0005】
自然特徴点追跡型のAR技術は、PTAM(「Parallel Tracking and Mapping for Small AR Workspaces」、オクスフォード大学)に代表されるようなデジタル画像中の特徴点群の事前登録を必要とせず、撮影装置の位置を連続的に動かした場合にも、特徴点を追跡し得る限り、どのような方向・位置へも撮影装置を移動することが可能な優れた方法である。
【0006】
しかし、最初に基準位置を特定する必要があるため、撮影装置の特殊な動かし方を行ってカメラの移動に伴う複数画像の特徴点移動量から基準位置を決定したり、別途、位置、姿勢情報を与えたりする必要がある。この際、撮影装置を正しく動かさなければ正確に基準平面を決めることはできない。また、自然特徴点追跡型AR技術は、一般的にその特性から事前の特徴点登録を行わないため、撮影されたデジタル画像の特徴点間の距離や大きさの情報を正確に知ることはできない。このことから、CGオブジェクトの大きさや向き、位置を基準平面に対して手動で合わせる方法を用いるのが一般的である。
【先行技術文献】
【特許文献】
【0007】
【特許文献1】特開2011−141828号公報
【特許文献2】特開2012−003598号公報
【発明の概要】
【発明が解決しようとする課題】
【0008】
本発明は、これら従来のマーカ型AR技術と自然特徴点追跡型AR技術との両者の長所を取り入れ、カメラを介して撮影された自然風景等のデジタル画像にCGオブジェクトを適切に合成表示するAR画像処理方法及び装置を提供することを目的とする。
【0009】
より具体的には、本発明は、カメラを介して撮影された自然風景等のデジタル画像の上に、手動による位置合わせ操作を必要とせずに、正確な位置と大きさ・姿勢にCGオブジェクトをリアルタイムに合成表示し、カメラをさまざまな位置、方向へ移動させてもリアルな表現が可能なAR画像処理方法及び装置を提供することを目的とする。
【課題を解決するための手段】
【0010】
本発明は、ARマーカに対応するCGオブジェクトの画像データを予め記憶部に記憶し、カメラによって前記ARマーカを含むその周囲の第1のビューボリューム空間内の情景を第1の撮影画像として撮影し、ARマーカ認識型の第1AR解析器によって、前記第1の撮影画像を取得し、AR認識処理によって前記第1の撮影画像からARマーカ像を見つけ出し、当該第1の撮影画像に対応する前記第1のビューボリューム空間内での前記ARマーカの位置、姿勢、スケールを割り出し、自然特徴点追跡型の第2のAR解析器において、前記第1AR解析器から前記第1のビューボリューム空間内での前記ARマーカの位置、姿勢、スケールのデータを取得し、前記第2のAR解析器において、前記カメラの現在の位置、中心軸方向、視野角に対応する第2のビューボリューム空間内での前記ARマーカの位置、姿勢、スケールを決定し、前記第2のAR解析器において、前記カメラが前記現在の位置、中心軸方向、視野角で撮影する第2の撮影画像に対して自然特徴点追跡処理を施し、当該第2の撮影画像に対応する前記ARマーカ像のスケール、位置、姿勢を計算し、CGレンダリング部によって、前記記憶部に記憶されている前記CGオブジェクトの画像データを読み出し、前記計算された前記ARマーカ像のスケール、位置、姿勢を用いて、CGオブジェクトを前記第2の撮影画像のカメラ位置、中心線方向、視野角での見え方にて再現し、前記第2の撮影画像内の対応する位置に合成し、表示器によって、前記合成した画像を表示するAR画像処理方法を特徴とする。
【0011】
また、本発明は、カメラと、ARマーカに対応するCGオブジェクトの画像データを記憶する記憶部と、前記カメラによって撮影したARマーカを含むその周囲の第1のビューボリューム空間内の情景の第1の撮影画像に対して、ARマーカ認識処理によって前記ARマーカ像を見つけ出し、当該第1の撮影画像に対応する前記第1のビューボリューム空間内での前記ARマーカの位置、姿勢、スケールを割り出すARマーカ認識型の第1AR解析器と、前記第1AR解析器から前記第1のビューボリューム空間内での前記ARマーカの位置、姿勢、スケールのデータを取得し、前記カメラの現在の位置、中心軸方向に対応する第2のビューボリューム空間内での前記ARマーカの位置、姿勢、スケールを決定し、前記カメラが前記現在の位置、中心軸方向で撮影する第2の撮影画像に対して自然特徴点追跡処理を施し、当該第2の撮影画像内で前記ARマーカに対応する前記CGオブジェクトのスケール、位置、姿勢を計算する自然特徴点追跡型の第2のAR解析器と、前記記憶部に記憶されている前記CGオブジェクトの画像データを読み出し、前記計算された前記ARマーカのスケール、位置、姿勢を用いて、CGオブジェクトを前記第2の撮影画像のカメラ位置、中心線方向、カメラアングルでの見え方にて再現し、前記第2の撮影画像内の対応する位置に合成するCGレンダリング部と、前記CGレンダリング部が合成した画像を表示する表示器とを備えたAR画像処理装置を特徴とする。
【発明の効果】
【0012】
本発明のAR画像処理技術によれば、カメラを介して撮影された自然風景等のデジタル画像の上に、手動による位置合わせ操作を必要とせずに、正確な位置と大きさ・姿勢にCGオブジェクトをリアルタイムに合成表示し、カメラをさまざまな位置、方向へ移動させてもリアルな表現が可能である。
【図面の簡単な説明】
【0013】
図1】本発明における第1AR解析器のビューボリューム空間と第2AR解析器のビューボリューム空間とを示す説明図。
図2】本発明における第1AR解析器のビューボリューム空間と当該ビューボリューム空間において検出されたマーカ像の位置を原点とする座標との関係を示す説明図。
図3】本発明において使用するARマーカとそれに対応するCGオブジェクト像との説明図。
図4】本発明における第1AR解析器のビューボリューム空間において検出されたマーカ像とそれに対応するCGオブジェクトとを示す説明図。
図5】一般的なピンホールカメラモデルにおけるビューボリュームの定義の説明図。
図6】本発明の1つの実施の形態のAR画像処理装置のブロック図。
図7】本発明の1つの実施の形態のAR画像処理方法のフローチャート。
図8A】上記実施の形態によるAR合成画像であって、カメラがARマーカの全体を撮影できるアングルで撮影した画像に対するAR合成画像。
図8B】上記実施の形態によるAR合成画像であって、カメラがARマーカを撮影できない上向きのアングルで撮影した画像に対するAR合成画像。
【発明を実施するための形態】
【0014】
以下、本発明の実施の形態を図に基づいて詳説する。
【0015】
まず、本発明の原理について説明する。一般的に、ウェブカメラ、デジタルビデオカメラ等のカメラにて撮影したデジタル画像をAR解析器にて解析し、デジタル画像から特定の対象物体の像の位置情報を基にして、デジタル画像中にCGオブジェクトを合成表示するためには、空間上のCGオブジェクトをデジタル画像へ射影変換する必要がある。そしてそれを行うAR解析器では、4×4のプロジェクション行列Pと4×4のモデルビュー行列Mを作成する必要がある。カメラ101にて撮影したデジタル画像中の対象物体像の位置検出を行う第1AR解析器Aの射影変換を、
【数1】
【0016】
とし、自然特徴点の追跡からデジタル画像中の対象物体像の位置検出を行う第2AR解析器Bの射影変換を、
【数2】
【0017】
とする。ここで、Sa及びSbは定数値であり、射影するデジタル画像への適切なスケーリングパラメータである。プロジェクション行列PaとPbは撮影するカメラのカメラパラメータとして事前にカメラキャリブレーションを行い決定される射影行列であり、これらの行列Pa,PbはそれぞれのAR解析器A,Bの特性に応じて異なった値をとることができる。これが、本発明の特徴の1つである。
【0018】
この異なる2つの射影変換行列Pa,Pbは、図1に示すように射影変換の幾何学的な模式図であるAR解析器A,Bそれぞれのビューボリューム11A,11Bを考えた場合、同じ撮影装置(カメラ)を使用した場合には正規化されたスクリーン面SCR−Aすなわち投影面は共通のものと考えることができる。
【0019】
本発明で最初に行うのは第2AR解析器Bの初期化処理である。これはすなわち、自然特徴点追跡を行う第2AR解析器Bにおいて、カメラで撮影されたデジタル画像がスクリーン面SCR−Aに投影されているものとし、既知であるプロジェクション行列Pbから、初期モデルビュー行列Mbを決定することである。この操作は、たとえば撮影するカメラの撮影位置を変化させ、特徴点の移動量からエピポーラ幾何学によりカメラの位置を推定するという、一般的によく知られた方法を用いる。
【0020】
この初期モデルビュー行列Mbは第2AR解析器Bの座標系におけるカメラの位置や姿勢を決定していることに他ならず、この初期位置から、撮影された特徴点の移動量に応じてカメラの撮影位置、すなわちモデルビュー行列Mbを推定していくのが、自然特徴点追跡型AR解析器である。
【0021】
このモデルビュー行列Mbにはスケーリング要素が含まれているが、デジタル画像中に観察される自然特徴点の情報からはその特徴点間の距離や大きさを得ることはできないので、従来、任意の値としてデジタル画像上にCG画像を合成した状態で手動で補正を行わなければならない手間が必要であった。
【0022】
ところが、本発明では、この問題を解決するために次の手順として、上述した第2AR解析器Bの初期化手順において、あらかじめスケール、姿勢、位置がわかっているARマーカを使用し、第1AR解析器Aにより、カメラで撮影されたデジタル画像の正規化されたスクリーン面SCR−Aを構成するビューボリューム、すなわち射影変換Paによるモデルビュー行列Maを決定する。
【0023】
このモデルビュー行列Maは、図2のように第1AR解析器Aの射影変換を通じて撮影されたデジタル画像中の検出マーカ像MRKの位置に対応する空間上のマーカ位置座標と方向、大きさの情報を持ち、相対的にビューボリューム空間上のマーカ像MRKの位置を原点O3とした場合に、第1AR解析器Aのビューボリューム空間11A上での撮影位置を決定できることになる。
【0024】
本発明では、これは見かけ上だけのものであり、デジタル画像上での位置関係が正しく表現されていれば良く、幾何学的に厳密な位置を表している必要はない。
【0025】
ここまでで、第1AR解析器Aの座標系にて、スクリーン面SCR−Aに投影されるマーカ像MRKの位置と姿勢・スケールが推定でき、第2AR解析器Bの座標系における初期モデルビュー行列Mbが求まっているが、一般的に第1AR解析器Aの座標系(原点O1)と第2AR解析器Bの座標系(原点O2)はまったく異なった解釈となっており、図1に示すように光学的中心軸を含むビューボリューム11A,11Bの構成も異なっている。
【0026】
本発明では、正規化されたビューボリューム11A,11Bのスクリーン面SCR−Aは共通の位置にあるとみなし、このスクリーン面SCR−Aの空間的な位置情報を手がかりに、双方の座標系の変換を行い、スクリーン面SCR−A上に投影される写像の見た目の合致を行うことを試みる。このことは、第1AR解析器Aで推定される実際のマーカ像MRKの位置や姿勢・サイズが、第2AR解析器Bによりスクリーン面SCR−Aに写像される自然特徴点の位置情報に対し、適切な位置、姿勢・スケールの各パラメータを決定することを意味している。
【0027】
第1AR解析器Aの座標系におけるモデルビュー行列Maの並進成分は、ARマーカ像MRKの空間座標内での原点O3を表しているとみなし、スケーリング及び回転成分はマーカ像MRKの第1AR解析器Aでの座標空間における大きさと姿勢を表しているとみなす。
【0028】
第1AR解析器Aの座標系の4×4プロジェクション行列はPa、4×4モデルビュー行列はMaであり、次のように決定されているものとする。
【数3】
【0029】
図5に示すように第1AR解析器Aのカメラ座標系(X,Y,Z)において原点O1から、ビューボリューム錐台11Aの手前のプロジェクション面PJ−A1の左上の頂点が(l,t,−n)、左下の頂点が(l,b,−n)、右上の頂点が(r,t,−n)、左上の頂点が(r,b,−n)とし、奥の面PJ−A2までの距離をfとする。
【0030】
第1AR解析器Aの座標系における任意空間座標
【数4】
【0031】
をスクリーン面SCR−Aに対応するデジタル画像中のARマーカ観測位置ヘアフィン変換することを考える。これは、以下のように算出する。
【0032】
まず、
【数5】
【0033】
をスクリーン面SCR−Aの位置へ移動する並進ベクトルTrは、モデルビュー行列Maとnから次のようになる。
【数6】
【0034】
プロジェクション行列Paによる射影変換を考慮したスケーリングパラメータSは、
【数7】
【0035】
である。ここで、Vbは定数であり、スクリーン面SCR−Aの高さスケールである。
【0036】
光学的中心軸の偏向成分を考慮したスクリーン面SCR−Aの位置での移動量Tpは、
【数8】
【0037】
と表される。ここで、Axはスクリーン面SCR−Aの横方向のアスペクト比を表す定数であり、デジタル画像が16:9画像の場合16/9、4:3画像の場合4/3という値となる。
【0038】
以上のパラメータから、同次座標表現で第1AR解析器Aの座標系における任意空間座標
【数9】
【0039】
をスクリーン面SCR−Aに対応するデジタル画像中のARマーカ観測位置ヘアフィン変換する4×4行列をMpとし、[Tp]、[Tr]という並進ベクトルの4×4行列同次座標表現を用いると、Mpは
【数10】
【0040】
となる。したがって、第1AR解析器Aの座標系において、
【数11】
【0041】
のスクリーン面SCR−Aへの写像を表すma′は、
【数12】
【0042】
と計算でき、マーカ座標の原点O3だけに着目すれば、
【数13】
【0043】
となる。
【0044】
ここで、スクリーン面SCR−Aへの写像がma′が第2AR解析器Bの座標系においても等しく観察できると考える。そのとき、第2AR解析器Bの射影行列Pbは、Paと同様に、
【数14】
【0045】
と定義されており、第2AR解析器Bのビューボリューム11Bの頂点パラメータもPaの場合と同様に、
【数15】
【0046】
と計算できる。
【0047】
第1AR解析器Aと第2AR解析器Bが同じアスペクト比のデジタル画像を使用する場合、ビューボリューム11A,11Bのプロジェクション面PJ−A,PJ−Bも同じアスペクト比なので、第1AR解析器Aと第2AR解析器Bでのスケーリング解釈の比率をS′とすると、
【数16】
【0048】
と考えられる。ただし、Pb[n(b1+1)/b0)]は第2AR解析器Bの座標系のPbのパラメータであり、Pa[n(b1+1)/b0)]は第2AR解析器Bの座標系のPaのパラメータを表すとする。
【0049】
そこで、これがそのまま第1AR解析器Aと第2AR解析器Bのスケーリング解釈の差異であるとする。
【0050】
第1AR解析器Aの座標系において推定されたマーカ像MRKの位置が第2AR解析器Bの座標系の空間座標の原点位置O3を表しているとみなすと、第2AR解析器Bの座標系の原点位置[0,0,0,1]が第2AR解析器Bの射影変換により、ma′として観測されていると考えることができるので、
【数17】
【0051】
が成立する。ここで、Moは4×4の定数行列である。
【0052】
上記の式において、ma′は既知であるので、定数行列Moは、次の式により決定できる。
【数18】
【0053】
このオフセット行列Moを第2AR解析器Bの射影変換に適用すると、
【数19】
【0054】
と決定できる。
【0055】
このようにして決定される定数行列Moは、第2AR解析器Bの射影変換Mbに対して、第1AR解析器Aで解析されたマーカ像MRKの位置を原点とし、その位置での姿勢、大きさを表したオフセット行列である。従来の自然特徴点追跡を行う第2AR解析器Bでは、このオフセット行列を合成画面を見ながら手動で決定していたのである。
【0056】
次に、本発明の1つの実施の形態のAR画像処理装置及びそれによるAR画像処理方法について、図6図7を用いて説明する。図6に示す本実施の形態のAR画像処理装置の構成を示し、主にカメラ1と、ARマーカ認識型の第1AR解析器3Aと、自然特徴点追跡型の第2AR解析器3Bと、CGレンダリング部5と、表示器7にて構成されている。
【0057】
ARマーカ認識型の第1AR解析器3Aは、カメラ1によって撮影したARマーカ像MRKを含む視野内の情景の撮影画像を解析し、ARマーカ像MRKの当該視野内での位置、姿勢、スケールを決定し、対応するCGオブジェクトOBJを当該ARマーカ像の位置、姿勢、スケールにてカメラ1のビューボリューム11Aの該当位置に再現し、その座標を決定する。第1AR解析器3Aのこの処理に必要な諸データを記憶する記憶部3A1、カメラキャリブレーション部3A3、ARマーカ像解析部3A5、アフィン変換行列決定部3A7、写像処理部3A9、射影変換処理部3A11を備えている。この射影変換処理部3A11が割り出した第1AR解析器3Aのビューボリューム空間11A内でのARマーカ像の空間座標データは、第2AR解析器3Bに出力される。
【0058】
第2AR解析器3Bは、自然特徴点追跡型のものであり、諸データを記憶する記憶部3B1、この第2AR解析器3Bの初期化処理を行う初期化処理部3B3、モデルビュー行列推定部3B7、射影変換処理部3B9、オフセット行列決定部3B11を備えている。
【0059】
CGレンダリング部5は、諸データを記憶する記憶部51,カメラ1の撮影画像を取り込むカメラ画像入力部53、第2AR解析器3Bのオフセット行列Moを利用し、CGオブジェクト画像を生成するCGオブジェクト画像生成部55、カメラ画像入力部53のカメラ撮影画像とCGオブジェクト画像生成部55のCGオブジェクト画像とを合成し、合成画像を表示器7に出力する。表示器7は、図8Bのようにカメラ1の現在の視野での撮影画像上の対応する位置に対応する姿勢でCGオブジェクトOBJを合成した画像を表示する。
【0060】
次に、上記のAR画像処理装置によるAR画像処理方法について図7を用いて説明する。本実施の形態のAR画像処理方法は、要約すれば、カメラ1によってARマーカMRKを含むその周囲の視野内の情景を撮影し、第1AR解析器3Aによってカメラ1の撮影したARマーカ像MRKを含むその周囲の情景の撮影画像を解析し、ARマーカ像MRKの該当ビューボリューム11A内での位置、姿勢、スケールを決定し、対応するCGオブジェクトOBJを当該ARマーカ像MRKの位置、姿勢、スケールにて当該ビューボリューム空間内の該当位置に仮想的に置き、第2AR解析器3Bによって、前記CGオブジェクトOBJについて、カメラ1が現在撮影している撮影画像に対して、そのカメラ視野内での見え方を計算し、当該カメラ1の撮影画像の該当する位置に該当する見え方にて合成し、表示器7にて合成した画像を表示することを特徴とする。
【0061】
さらに具体的には、次の手順である。
【0062】
STEP1:ARマーカに対応するCGオブジェクトを記憶する。
【0063】
STEP3:カメラキャリブレーションにより、第1AR解析器3A、第2AR解析器3BそれぞれにてカメラパラメータPa,Pbを算出して記憶部3A1,3B1それぞれに記憶する。
【0064】
STEP5:第2AR解析器3Bにて初期化処理を行い、モデルビュー行列Mbを決定して記憶する。
【0065】
以上が前処理である。
【0066】
STEP7:ARマーカMRKを含む情景をカメラ1で撮影し、第1AR解析器3Aに撮影画像を入力する。
【0067】
STEP9,11:第1AR解析器3Aにおいて、撮影画像からのARマーカ像MRKの見つけ出し、ARマーカ像MRKの位置、姿勢、スケールを割り出し、ビューモデル行列Maを決定する。
【0068】
STEP13:第1AR解析器3Aにて、行列Pa,Maを用いてARマーカ像MRKのスクリーンSCR−Aへの射影を行い、その結果を第2AR解析器3Bに出力する。
【0069】
STEP15:第2AR解析器3Bにおいて、マーカ像MRKのオフセット行列Moの決定する。
【0070】
STEP17:第2AR解析器において、現在のカメラの位置、中心軸方向に対応したCGオブジェクトを見え方(位置、姿勢、スケール)を決定し、スクリーン面SCR−Aに射影し、その結果をCGレンダリング部5に出力する。
【0071】
STEP19:記憶部51からCGオブジェクトOBJの画像データを読み出し、第2AR解析器3Bからの射影変換行列のデータを用いてCGオブジェクトの現在のカメラアングルで見えるCGオブジェクトの形の画像を生成し、カメラ1の現在の撮影画像の対応する空間座標位置にCG合成する。
【0072】
STEP21:表示器5にて合成画像を表示する。
【0073】
以上から、本発明の実施の形態によると、マーカ認識型の第1AR解析器3Aによって、対象マーカ像MRKの位置・姿勢・大きさを自動的に決定することができ、マーカ像MRKが画面から外れた場合にも、自然特徴点追跡型の第2AR解析器3Bにより位置推定を継続できる。したがって、図8に示すようにカメラ1によって撮影されたデジタル画像の自然風景上に、手動による位置合わせ操作を必要とせずに、正確な位置と大きさ・姿勢のCGオブジェクトOBJをリアルタイムに合成表示し、カメラ1をさまざまな位置、方向へ移動することが可能となる。この図8Aでは、ARマーカのほぼ全体が撮影されているマーカ像MRKに対して対応するCGオブジェクトOBJを合成表示している。そして画面の右上にはわずかに自動車CARの前バンパーの下部も撮影されている。これに対して、カメラを上方に移動してARマーカが画面に入らないカメラアングルにしても、図8Bに示すように、CGオブジェクトOBJを移動後のカメラから見た位置、姿勢でカメラ撮影画像上に合成表示することができる。つまり、図8Aの画像に見えるCGオブジェクトOBJを、図8BのCG合成画像ではさらに上からの視線で見たように表示されるようになっている。また、この図8Bでは、カメラ1の上方への移動により自動車CARのほぼ全体が写っていることにも注目できる。
【符号の説明】
【0074】
MRK ARマーカ(像)
OBJ CGオブジェクト
1 固定カメラ
3A 第1AR解析器
3B 第2AR解析器
5 CGレンダリング部
7 表示器
図1
図2
図3
図4
図5
図6
図7
図8A
図8B