IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 株式会社Psychic VR Labの特許一覧

特許7417827画像編集方法、画像表示方法、画像編集システム、及び画像編集プログラム
<>
  • 特許-画像編集方法、画像表示方法、画像編集システム、及び画像編集プログラム 図1
  • 特許-画像編集方法、画像表示方法、画像編集システム、及び画像編集プログラム 図2
  • 特許-画像編集方法、画像表示方法、画像編集システム、及び画像編集プログラム 図3
  • 特許-画像編集方法、画像表示方法、画像編集システム、及び画像編集プログラム 図4
  • 特許-画像編集方法、画像表示方法、画像編集システム、及び画像編集プログラム 図5
  • 特許-画像編集方法、画像表示方法、画像編集システム、及び画像編集プログラム 図6
  • 特許-画像編集方法、画像表示方法、画像編集システム、及び画像編集プログラム 図7
  • 特許-画像編集方法、画像表示方法、画像編集システム、及び画像編集プログラム 図8
  • 特許-画像編集方法、画像表示方法、画像編集システム、及び画像編集プログラム 図9
  • 特許-画像編集方法、画像表示方法、画像編集システム、及び画像編集プログラム 図10
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-01-11
(45)【発行日】2024-01-19
(54)【発明の名称】画像編集方法、画像表示方法、画像編集システム、及び画像編集プログラム
(51)【国際特許分類】
   G06T 19/00 20110101AFI20240112BHJP
   G06F 3/01 20060101ALI20240112BHJP
【FI】
G06T19/00 600
G06F3/01 510
【請求項の数】 8
(21)【出願番号】P 2020141145
(22)【出願日】2020-08-24
(65)【公開番号】P2022036773
(43)【公開日】2022-03-08
【審査請求日】2022-04-28
(73)【特許権者】
【識別番号】516249470
【氏名又は名称】株式会社Psychic VR Lab
(74)【代理人】
【識別番号】100074561
【弁理士】
【氏名又は名称】柳野 隆生
(74)【代理人】
【識別番号】100177264
【弁理士】
【氏名又は名称】柳野 嘉秀
(74)【代理人】
【識別番号】100124925
【弁理士】
【氏名又は名称】森岡 則夫
(74)【代理人】
【識別番号】100141874
【弁理士】
【氏名又は名称】関口 久由
(72)【発明者】
【氏名】山口 征浩
【審査官】鈴木 圭一郎
(56)【参考文献】
【文献】特開平08-153213(JP,A)
【文献】特開2016-091348(JP,A)
【文献】特開2003-143478(JP,A)
【文献】特開2020-064520(JP,A)
【文献】特開2003-216982(JP,A)
【文献】大田 友一 Yuichi Ohta,フリーハンド映像から切り出した壁領域に対する複合現実型壁紙シミュレーション Wallpaper Replacement Simulation in a Free-Hand Movie by Using Mixed Reality,日本バーチャルリアリティ学会論文誌 第19巻 第2号 Transactions of the Virtual Reality Society of Japan,日本,特定非営利活動法人日本バーチャルリアリティ学会 The Virtual Reality Society of Japan,2014年06月30日,第19巻
(58)【調査した分野】(Int.Cl.,DB名)
G06T 19/00
G06F 3/01
(57)【特許請求の範囲】
【請求項1】
(A1)所定の現実空間が表わされた3Dモデルを画像表示し、
(A2)前記画像表示された3Dモデル上における、所望の目的画像を貼り付ける位置である三次元の指定位置の入力操作を受け付け、
(A3)前記3Dモデルに対して前記指定位置に前記目的画像を対応付けた三次元貼付位置情報を生成し、
(A4)前記現実空間を、所定の視点位置を中心に水平方向に360度撮影した全周画像を含む事前実写データに基づいて前記視点位置から所定の視線方向に見た事前実写画像と、前記三次元貼付位置情報における前記目的画像を前記視点位置から前記視線方向に見たときの画像とを重ね合わせ、
(A5)前記重ね合わせられた画像における、前記3Dモデルと前記目的画像の位置関係に基づき、前記目的画像が前記3Dモデルの手前に位置する部分では前記事前実写画像を表示せずに前記目的画像を表示し、前記3Dモデルが前記目的画像の手前に位置する部分では前記目的画像を表示せずに前記事前実写画像を表示する画像編集方法。
【請求項2】
(A6)前記(A5)の後に新たな前記視線方向の入力操作を受け付け、前記新たな視点位置から前記新たな視線方向に見た3Dモデルを画像表示し、
(A7)前記(A6)で表示された画像と前記新たな視線方向とに基づいて再び前記(A2)~(A5)を実行する請求項1記載の画像編集方法。
【請求項3】
前記事前実写データは、前記視点位置を中心に水平方向に360度、水平方向と交差する方向に180度撮影した半天球画像を少なくとも含む請求項1又は2に記載の画像編集方法。
【請求項4】
前記目的画像は、静止画、動画、又はコンピュータグラフィックスである請求項1~3のいずれか1項に記載の画像編集方法。
【請求項5】
所定の現実空間が表わされた3Dモデル上における、所望の目的画像を貼り付ける位置である三次元の指定位置に、前記目的画像を対応付けた三次元貼付位置情報が予め生成され、該三次元貼付位置情報に基づいて拡張現実又は複合現実による表示を行う画像表示方法であって、
撮像部と該撮像部で撮像された実写画像を表示する表示部とを備えた非透過型端末装置に前記三次元貼付位置情報を記憶させ、
前記非透過型端末装置を前記現実空間に位置させ、
前記非透過型携帯端末の前記撮像部によって前記現実空間を実写して実写画像を取得すると共に、前記非透過型携帯端末に前記実写の視点位置及び前記実写の視線方向を取得させ
前記非透過型携帯装置により、前記記憶した前記三次元貼付位置情報における前記目的画像を、前記取得した前記視点位置及び前記視線方向から見た画像に変換すると共に、前記三次元貼付位置情報における前記3Dモデルと前記目的画像の位置関係に基づき、前記目的画像が前記3Dモデルの手前に位置する部分では前記実写画像を表示せずに前記変換された目的画像を前記表示部に表示し、前記3Dモデルが前記目的画像の手前に位置する部分では前記目的画像を表示せずに前記実写画像を前記表示部に表示する画像表示方法。
【請求項6】
所定の現実空間が表わされた3Dモデル上における、所望の目的画像を貼り付ける位置である三次元の指定位置に、前記目的画像を対応付けた三次元貼付位置情報が予め生成され、該三次元貼付位置情報に基づいて拡張現実又は複合現実による表示を行う画像表示方法であって、
ユーザが前記現実空間を直接視認可能な直接視認型端末装置に前記三次元貼付位置情報を記憶させ、
前記直接視認型端末装置を前記現実空間に位置させ、
前記直接視認型端末装置により、前記ユーザの視点位置及び前記ユーザの視線方向を取得させ
前記直接視認型端末装置により、前記記憶した前記三次元貼付位置情報における前記目的画像を、前記取得した前記視点位置及び前記視線方向から見た画像に変換すると共に、前記三次元貼付位置情報における前記3Dモデルと前記目的画像の位置関係に基づき、前記目的画像が前記3Dモデルの手前に位置する部分では前記変換された目的画像を前記ユーザに視認させ、前記3Dモデルが前記目的画像の手前に位置する部分では前記目的画像を前記ユーザに視認させない画像表示方法。
【請求項7】
請求項1~4のいずれか1項に記載の画像編集方法を実行する画像編集システム。
【請求項8】
請求項1~4のいずれか1項に記載の画像編集方法を、コンピュータに実行させる画像編集プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、拡張現実又は複合現実に好適な画像編集方法、画像表示方法、画像編集システム、及び画像編集プログラムに関する。
【背景技術】
【0002】
従来より、カメラで実空間の映像を連続的に取得して表示しつつ、この連続的に表示される映像に付加情報を重畳する拡張現実(AR)システムが知られている(例えば、特許文献1参照。)。
【先行技術文献】
【特許文献】
【0003】
【文献】特開2010-238096号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
ところで、上述のような拡張現実(AR)を実現するためには、予め、付加情報など、その実空間の所定位置に表示したい画像を実空間と対応付けるための画像編集を行う必要がある。また、実際の風景の中に、仮想的な画像をリアルに表示するためには、背景と仮想的な画像の前後関係を正しく反映した合成映像を生成する必要がある。しかしながら、背景と仮想的な画像の前後関係を正しく反映させ、実際の場所で意図したとおりの画像をユーザに見せるように、予め画像編集することは容易でない。
【0005】
本発明の目的は、現実空間でユーザに対して意図したとおりの拡張現実(AR)又は複合現実(MR)を体験させることが容易な画像編集方法、画像表示方法、画像編集システム、及び画像編集プログラムを提供することである。
【課題を解決するための手段】
【0006】
本発明に係る画像編集方法は、(A1)所定の現実空間が表わされた3Dモデルを画像表示し、(A2)前記画像表示された3Dモデル上における、所望の目的画像を貼り付ける位置である三次元の指定位置の入力操作を受け付け、(A3)前記3Dモデルに対して前記指定位置に前記目的画像を対応付けた三次元貼付位置情報を生成し、(A4)前記現実空間を、所定の視点位置を中心に水平方向に360度撮影した全周画像を含む事前実写データに基づいて前記視点位置から所定の視線方向に見た事前実写画像と、前記三次元貼付位置情報における前記目的画像を前記視点位置から前記視線方向に見たときの画像とを重ね合わせ、(A5)前記重ね合わせられた画像における、前記3Dモデルと前記目的画像の位置関係に基づき、前記目的画像が前記3Dモデルの手前に位置する部分では前記事前実写画像を表示せずに前記目的画像を表示し、前記3Dモデルが前記目的画像の手前に位置する部分では前記目的画像を表示せずに前記事前実写画像を表示する。
【0007】
また、本発明に係る画像編集システムは、上述の画像編集方法を実行する。
【0008】
また、本発明に係る画像編集プログラムは、上述の画像編集方法を、コンピュータに実行させる。
【0009】
これらの画像編集方法、画像編集システム、及び画像編集プログラムによれば、(A2)で、編集作業者が、画像表示された3Dモデル上における、所望の三次元の指定位置に目的画像を張り付けた三次元貼付位置情報を生成することができる。そして、所定の視点位置を中心に水平方向に360度撮影した全周画像を含む事前実写データを用いて(A3)~(A5)が実行されるので、その三次元貼付位置情報を用いて現実空間でユーザが拡張現実(AR)又は複合現実(MR)によって体験するであろう景色の、水平方向に360度の範囲内で所定の視線方向からみた画像を、作業者が実際にその現実空間を訪れることなく、確認することができる。その結果、現実空間でユーザに対して意図したとおりの拡張現実(AR)又は複合現実(MR)を体験させることができる三次元貼付位置情報を生成することが容易となり、従って、現実空間でユーザに対して意図したとおりの拡張現実(AR)又は複合現実(MR)を体験させることが容易となる。
【0010】
また、(A6)前記(A5)の後に新たな前記視線方向の入力操作を受け付け、前記新たな視点位置から前記新たな視線方向に見た3Dモデルを画像表示し、(A7)前記(A6)で表示された画像と前記新たな視線方向とに基づいて再び前記(A2)~(A5)を実行することが好ましい。
【0011】
この構成によれば、編集作業者は、水平方向に360度の範囲内で、自由に視線方向を変化させて、上述のその三次元貼付位置情報を用いて現実空間でユーザが拡張現実(AR)又は複合現実(MR)によって体験するであろう景色の画像を確認することができる。その結果、現実空間でユーザが視線方向を動かした場合でも、現実空間でユーザに対して意図したとおりの拡張現実(AR)又は複合現実(MR)を体験させることができる三次元貼付位置情報を生成することが容易となる。
【0012】
また、前記事前実写データは、前記視点位置を中心に水平方向に360度、水平方向と交差する方向に180度撮影した半天球画像を少なくとも含むことが好ましい。
【0013】
この構成によれば、変化させることのできる視線方向の自由度が増大する。
【0014】
また、前記目的画像は、静止画、動画、又はコンピュータグラフィックスであることが好ましい。
【0015】
この構成によれば、現実空間の景色に、静止画、動画、又はコンピュータグラフィックスが表示された拡張現実(AR)又は複合現実(MR)をユーザに体験させることができる。
【0016】
また、本発明に係る画像表示方法は、上述の画像編集方法によって生成された前記三次元貼付位置情報に基づいて拡張現実又は複合現実による表示を行う画像表示方法であって、(B1)前記現実空間を撮像する撮像部と前記撮像部で撮像された実写画像を表示する表示部とを備えた非透過型端末装置に前記三次元貼付位置情報を記憶させ、(B2)前記非透過型端末装置を前記現実空間に位置させ、(B3)前記撮像部によって前記現実空間を実写して実写画像を取得すると共に前記実写の視点位置及び前記実写の視線方向を取得し、(B4)前記三次元貼付位置情報における前記目的画像を、前記(B3)で取得された前記視点位置及び前記視線方向から見た画像に変換すると共に、前記三次元貼付位置情報における、前記3Dモデルと前記目的画像の位置関係に基づき、前記目的画像が前記3Dモデルの手前に位置する部分では前記実写画像を表示せずに前記変換された目的画像を表示し、前記3Dモデルが前記目的画像の手前に位置する部分では前記目的画像を表示せずに前記実写画像を表示する。
【0017】
この方法によれば、上述の画像編集方法によって生成された三次元貼付位置情報を用いて、非透過型端末装置によって、ユーザに拡張現実(AR)又は複合現実(MR)を体験させることができるので、現実空間でユーザに対して意図したとおりの拡張現実(AR)又は複合現実(MR)を体験させることが容易となる。
【0018】
また、本発明に係る画像表示方法は、上述の画像編集方法によって生成された三次元貼付位置情報に基づいて拡張現実又は複合現実による表示を行う画像表示方法であって、(C1)ユーザが前記現実空間を直接視認可能な直接視認型端末装置に前記三次元貼付位置情報を記憶させ、(C2)前記直接視認型端末装置を前記現実空間に位置させ、(C3)前記ユーザの視点位置及び前記ユーザの視線方向を取得し、(C4)前記三次元貼付位置情報における前記目的画像を、前記(C3)で取得された前記視点位置及び前記視線方向から見た画像に変換すると共に、前記三次元貼付位置情報における、前記3Dモデルと前記目的画像の位置関係に基づき、前記目的画像が前記3Dモデルの手前に位置する部分では前記変換された目的画像を前記ユーザに視認させ、前記3Dモデルが前記目的画像の手前に位置する部分では前記目的画像を前記ユーザに視認させない。
【0019】
この方法によれば、上述の画像編集方法によって生成された三次元貼付位置情報を用いて、直接視認型端末装置によって、ユーザに拡張現実(AR)又は複合現実(MR)を体験させることができるので、現実空間でユーザに対して意図したとおりの拡張現実(AR)又は複合現実(MR)を体験させることが容易となる。
【発明の効果】
【0020】
このような構成の画像編集方法、画像表示方法、画像編集システム、及び画像編集プログラムは、現実空間でユーザに対して意図したとおりの拡張現実(AR)又は複合現実(MR)を体験させることが容易となる。
【図面の簡単な説明】
【0021】
図1】本発明の一実施形態に係る画像編集方法を実行する画像編集システムの構成の一例を示すブロック図である。
図2図1に示す画像編集システムの動作の一例を示すフローチャートである。
図3図1に示す画像編集システムの動作の一例を示すフローチャートである。
図4】3Dモデルを、事前実写データの視点位置からみた画像の一例である。
図5】目的画像の一例を示す説明図である。
図6】3Dモデル上の指定された三次元の位置に、目的画像を張り付けた状態を図示した説明図である。
図7】3Dモデルの表示画像に対して、視点位置と視線方向とを一致させた事前実写画像の一例を示す説明図である。
図8】ステップS8でディスプレイに表示される画像の一例を示す説明図である。
図9】非透過型端末装置を用いて、拡張現実(AR)画像又は複合現実(MR)画像を表示する場合の画像表示方法の一例を示すフローチャートである。
図10】直接視認型端末装置を用いて、拡張現実(AR)画像又は複合現実(MR)画像を表示する場合の画像表示方法の一例を示すフローチャートである。
【発明を実施するための形態】
【0022】
以下、本発明に係る実施形態を図面に基づいて説明する。なお、各図において同一の符号を付した構成は、同一の構成であることを示し、その説明を省略する。図1は、本発明の一実施形態に係る画像編集方法を実行する画像編集システムの構成の一例を示すブロック図である。図1に示す画像編集システム1は、後述する拡張現実(AR)又は複合現実(MR)に用いる画像を編集する装置である。
【0023】
画像編集システム1は、例えば、いわゆるパーソナルコンピューターから構成されている。画像編集システム1は、例えば、演算部10、ディスプレイ11、キーボード12、マウス13、及び記憶部14を備えている。
【0024】
ディスプレイ11は、例えば液晶表示装置や有機ELパネル等の表示装置である。キーボード12及びマウス13は、作業者の入力操作を受け付ける入力操作部である。なお、ディスプレイ11をタッチパネルディスプレイとすることによって、ディスプレイ11が表示装置と入力操作部とを兼ねてもよい。
【0025】
記憶部14は、例えばHDD(Hard Disk Drive)やSSD(Solid State Drive)等の記憶装置である。記憶部14には、事前実写データ141、3Dモデル142、目的画像143、及びコンピュータに本発明の一実施形態に係る画像編集方法を実行させる画像編集プログラム145が予め記憶されている。
【0026】
事前実写データ141は、所定の現実空間を、所定の視点位置を中心に上下左右全方位360度撮影した全天球画像の画像データである。なお、事前実写データ141は、少なくとも所定の視点位置を中心に水平方向に360度撮影した全周画像を含んでいればよく、全天球画像でなくてもよい。事前実写データ141は、例えば、視点位置を中心に水平方向に360度、水平方向と交差する方向に180度撮影した半天球画像であってもよい。
【0027】
事前実写データ141は、全周画像よりも半天球画像、半天球画像よりも全天球画像の方が、後述する画像編集の際に、視線方向変更の自由度が向上する点でより好ましい。
【0028】
事前実写データ141は、例えば東京渋谷スクランブル交差点、東京タワー横、大阪駅前、京都嵐山渡月橋のたもと、建築物の内部等の現実の場所に設定された視点位置に、いわゆる全天球カメラや半天球カメラを設置して撮影したり、視野角の狭いカメラで撮影方向を全天球、半天球、又は全周に移動させて撮影したりすることができる。
【0029】
3Dモデル142は、事前実写データ141によって撮影された現実空間と同じ空間が3Dモデルとして表わされたデータである。3Dモデル142としては、例えば事前実写データ141を撮影したのと同じ視点位置から、3Dスキャナでスキャンした三次元計測データを用いることができる。3Dモデル142は、対応する事前実写データ141が含んでいる全周画像、半天球画像、又は全天球画像の範囲の領域の三次元構造を示す情報を含んでいる。
【0030】
3Dスキャナとしては、例えばレーザー光により三次元測量を行うLiDAR(Light Detection and Ranging)や、ミリ波レーダー、複眼カメラによる三角測量により三次元測量を行うもの、又はカメラを移動させて撮像された画像により三次元測量を行うもの等、現実の空間を三次元で測量可能な種々の三次元測量装置を用いることができる。
【0031】
3Dモデル142は、必ずしも3Dスキャナによってスキャンされたデータそのものである必要はなく、3Dスキャナによってスキャンされたデータを加工等したものであってもよい。
【0032】
あるいは、現実空間が建築物の内部である場合など、その背景として見える建築物等の三次元設計データを3Dモデル142として用いてもよい。
【0033】
なお、同じ現実空間の事前実写データ141と3Dモデル142とを対にして、異なる場所の複数の現実空間に対応する複数対の事前実写データ141と3Dモデル142とが記憶部14に記憶されていることが好ましい。後述するフローチャートでは、複数の場所に対応する複数対の事前実写データ141と3Dモデル142とが記憶部14に記憶されている場合について示している。
【0034】
また、事前実写データ141及び3Dモデル142は、記憶部14に記憶される例に限らない。例えば画像編集システム1から遠隔のサーバ装置等に事前実写データ141及び3Dモデル142が記憶されていてもよい。そして、画像編集システム1は、ネットワーク等を介して事前実写データ141及び3Dモデル142を取得してもよい。
【0035】
また、画像編集システム1は、ディスプレイ11、キーボード12、及びマウス13を備えず、作業者は、画像編集システム1にネットワークを介して接続された操作端末を操作することによって、画像編集システム1への入力操作を行ってもよい。
【0036】
目的画像143は、後述する拡張現実(AR)又は複合現実(MR)を実施するユーザに対して、現実空間と重なって見せようとする画像である。目的画像143は、静止画、動画、又はコンピュータグラフィックス(CG)であってもよい。目的画像143は、いわゆる画像データに限られず、プログラムによって画像が動くコンピュータグラフィックスであってもよい。
【0037】
演算部10は、例えば所定の演算処理を実行するCPU(Central Processing Unit)、データを一時的に記憶するRAM(Random Access Memory)、不揮発性の記憶素子、及びこれらの周辺回路等から構成されている。演算部10は、画像編集プログラム145を実行することによって、表示制御部101、及び貼付位置情報生成部102として機能する。
【0038】
次に、上述のように構成された画像編集システム1の動作について説明する。図2図3は、図1に示す画像編集システム1の動作の一例を示すフローチャートである。まず、作業者は、マウス13等を操作して、記憶部14に記憶された複数対の、事前実写データ141及び3Dモデル142の中から、所望の場所に対応する事前実写データ141及び3Dモデル142を選択する(ステップS1)。これにより、マウス13等によって、作業者の選択が受け付けられる。
【0039】
次に、表示制御部101は、ステップS1で選択された3Dモデル142を、事前実写データ141の視点位置Pからみた画像をディスプレイ11に表示させる(ステップS2:(A1))。図4は、3Dモデル142を、事前実写データ141の視点位置からみた画像の一例である。3Dモデル142は、現実空間の三次元の奥行情報を含むデータであるが、これを特定の視点位置からみたときに人間の目に見える画像と近似するように、遠近法で表された画像がディスプレイ11に表示される。
【0040】
次に、マウス13等によって視線方向Dの入力操作が受け付けられ(ステップS3)、表示制御部101は、3Dモデル142の画像を、視点位置Pから、視線方向Dに見た画像に変更してディスプレイ11に表示させる(ステップS4)。これにより、作業者は、視点位置Pを中心にして、所望の方向を見たときの三次元構造を視覚的に確認することができる。
【0041】
次に、マウス13等によって、画像表示された3Dモデル142上への目的画像143の貼り付けを指示する三次元の指定位置の入力操作が受け付けられる(ステップS5:(A2))。これにより、作業者は、所望の視線方向Dから見た3Dモデル142の画像を確認しつつ、目的画像143を表示したい三次元の位置を指定することができる。
【0042】
次に、貼付位置情報生成部102は、3Dモデル142上の、指定された三次元の位置に、目的画像143を対応付けた三次元貼付位置情報144を生成する(ステップS6:(A3))。
【0043】
三次元貼付位置情報144は、3Dモデル142と、目的画像143と、3Dモデル142の三次元の位置に目的画像143を対応付ける情報とを含んでいる。三次元貼付位置情報144は、一塊のデータファイルとして構成される例に限らない。例えば、3Dモデル142と、目的画像143と、3Dモデル142の三次元の位置に目的画像143を対応付ける情報とが別個のデータファイルとして構成され、三次元貼付位置情報144は、複数のデータファイルを含んでいてもよい。
【0044】
図5は、目的画像143の一例を示す説明図である。図5には、目的画像143として、四つの目的画像G1~G4が記載されている。図5に示す目的画像G1~G4は、視点位置と視線方向とを、3Dモデル142の画像と一致させた状態で示している。
【0045】
図6は、3Dモデル142上の指定された三次元の位置に、目的画像143を貼付けた状態を図示した説明図である。この状態では、単純に3Dモデル142の画像と目的画像143とが重ね合わされただけであり、3Dモデル142で示される構造を透視して目的画像G1~G4が見えている。
【0046】
次に、表示制御部101は、視点位置Pから視線方向Dに事前実写データ141の画像を見た事前実写画像と、三次元貼付位置情報144における目的画像143を視点位置Pから視線方向Dに見たときの画像とをデータ上で重ね合わせる(ステップS7:(A4))。
【0047】
図7は、視点位置Pから視線方向Dに事前実写データ141の画像を見た事前実写画像の一例を示す説明図である。図7に示す事前実写画像は、いわゆるショッピングモール内の画像であり、二階まで吹き抜けの通路Aの両側に店舗が並んでいる。通路A両側の店舗の二階同士が、通路Aを跨いで掛け渡された連絡通路B,Cでつながっている。
【0048】
次に、表示制御部101は、ステップS7でデータ上で重ね合わせられた画像における、3Dモデル142と目的画像143の位置関係に基づき、目的画像143が3Dモデル142の手前に位置する部分では目的画像143をディスプレイ11に表示させ、3Dモデル142が目的画像143の手前に位置する部分では目的画像143を表示させずに事前実写画像をディスプレイ11に表示させる(ステップS8:(A5))。
【0049】
図4図7を比較して、図4に示す3Dモデル142は、三次元の構造を表しているものの、図7に示す事前実写画像の風景すなわち人間の目に見える風景とは異なっている。一方、図7に示す事前実写画像は三次元構造を有していないため、事前実写画像に直接目的画像143を張り付けると、背景と目的画像143の前後関係を表すことができない。
【0050】
そこで、ステップS8において、三次元構造を示す3Dモデル142を含む三次元貼付位置情報144に基づいて背景と目的画像143との前後関係を特定し、人間の目に見える風景である事前実写画像に対して、立体的に見えるように目的画像143を重ね合わせる。
【0051】
図8は、ステップS8でディスプレイ11に表示される画像の一例を示す説明図である。ステップS8では、三次元構造を有さない事前実写画像に対して、三次元構造を有する3Dモデル142と目的画像143の位置関係に基づき、視点位置からみて手前に位置するのが目的画像143であれば目的画像143を表示し、視点位置からみて手前に位置するのが3Dモデル142であればその部分の事前実写画像を表示する。
【0052】
これにより、図8に示す例では、目的画像G1の一部や目的画像G3の上半分が連絡通路Bの陰に隠れて見える。その結果、拡張現実(AR)又は複合現実(MR)によって、ユーザが、現実空間におけるこの視点位置からみることになる風景と同様の画像を、作業者がディスプレイ11に表示される画像によって確認することができる。
【0053】
次に、表示制御部101は、作業者による画像編集作業の終了指示の有無を確認する(ステップS11)。キーボード12又はマウス13によって、作業者による画像編集作業の終了指示が受け付けられた場合(ステップS11でYES)、表示制御部101は、処理を終了する。
【0054】
一方、キーボード12又はマウス13によって、終了指示が受け付けられることなく(ステップS11でNO)、かつ新たな視線方向が受け付られない場合(ステップS12でNO)、再びステップS5~S11を繰り返す。これにより、視点方向は固定したまま、新たな目的画像143を3Dモデル142の指定された三次元の位置に対応付けて新たな三次元貼付位置情報144を生成し(ステップS5,S6)、事前実写データ141の画像に目的画像143を重ね合わせて三次元表示させる(ステップS7,S8)ことができる。
【0055】
一方、新たな視線方向が受け付られた場合(ステップS12でYES)、表示制御部101は、受け付けられた新たな視線方向から見た3Dモデル142の画像をディスプレイ11に表示し(ステップS13:(A6))、すなわち視線方向を変更して、再びステップS5~S11を繰り返す。
【0056】
事前実写データ141は全周画像、半天球画像、又は全天球画像であるので、少なくとも水平方向に360度視線方向を自由に変更することができ、実際に現実空間で三次元貼付位置情報144を用いて拡張現実(AR)又は複合現実(MR)によりユーザが見るであろう画像を、作業者は、実際に現実空間に行くことなく画像編集システム1を用いて確認することができる。その結果、現実空間でユーザに対して意図したとおりの拡張現実(AR)又は複合現実(MR)を体験させることが容易な三次元貼付位置情報144を編集することができる。従って、拡張現実(AR)又は複合現実(MR)によって、現実空間でユーザに対して意図したとおりの拡張現実(AR)又は複合現実(MR)を体験させることが容易となる。
【0057】
次に、上述のようにして編集、生成された三次元貼付位置情報144を用いて、拡張現実(AR)画像又は複合現実(MR)画像を表示する画像表示方法について説明する。拡張現実(AR)画像又は複合現実(MR)画像を表示する装置としては、非透過型端末装置又は直接視認型端末装置を用いることができる。
【0058】
非透過型端末装置は、現実空間を撮像する撮像部と、撮像部で撮像された実写画像を表示する表示部とを備え、撮像部によって撮像された画像と目的画像143とを重畳させて表示する装置である。非透過型端末装置としては、例えば、スマートフォン、タブレット端末、カメラ付きヘッドセット等を用いることができる。カメラ付きヘッドセットとしては、例えばOculus社製カメラ付きVRヘッドセットや、Windows Mixed Reality(登録商標)互換のヘッドセット等、種々のヘッドセットを用いることができる。
【0059】
直接視認型端末装置は、例えば透過型端末装置や、網膜走査型端末装置等、ユーザが直接現実空間を視認可能な端末装置である。
【0060】
透過型端末装置は、例えば眼鏡レンズ状のスクリーンを透過してユーザが現実空間を直接視認可能な透過型のディスプレイ装置である。透過型端末装置は、ユーザがスクリーンを透過してみている景色に対して、スクリーン上に画像を投影することによって、現実空間の景色と画像とを重ね合わせるようになっている。
【0061】
透過型端末装置としては、例えばHoloLens(登録商標)、Magic Leap(登録商標)等、種々のAR/MRグラスを用いることができる。
【0062】
網膜走査型端末装置は、網膜走査型ディスプレイを用いてユーザに画像を視認させる。網膜走査型ディスプレイは、網膜に直接映像を照射することで、ユーザが直接見ている現実空間の景色に、目的画像143を重ねて視認させることができる。
【0063】
非透過型端末装置及び直接視認型端末装置は、例えばGPS等、現在位置を取得する現在位置取得部を備えている。
【0064】
図9は、非透過型端末装置を用いて、拡張現実(AR)画像又は複合現実(MR)画像を表示する場合の画像表示方法の一例を示すフローチャートである。
【0065】
まず、例えばユーザが三次元貼付位置情報144及び画像表示プログラムを、例えばネットワークを介して記憶部14や図略のサーバ装置等からダウンロードすることによって、自分の非透過型端末装置に記憶させる(ステップS21:(B1))。
【0066】
次に、三次元貼付位置情報144に対応する現実空間に、ユーザが非透過型端末装置を持っていくことで、現実空間に、非透過型端末装置を位置させる(ステップS22:(B2))。なお、ステップS22,S21の順に実行され、現実空間に位置した非透過型端末装置が、ステップS21においてその現在位置に対応する三次元貼付位置情報144を取得する構成であってもよい。
【0067】
次に、ユーザが自分の非透過型端末装置の撮像部で景色を撮像して実写画像を取得し(ステップS23:(B3))、非透過型端末装置が実写の視点位置及び視線方向を取得する(ステップS24:(B3))。ステップS23,S24は、以降の処理と並行して継続的に実行される。
【0068】
視点位置及び視線方向は、例えばGPS、SLAM(登録商標:Simultaneous Localization and Mapping)、又はマーカー検出等、種々の位置検出手法により検出することができる。
【0069】
次に、非透過型端末装置は、三次元貼付位置情報144における目的画像143を、ステップS24で取得された視点位置及び視線方向から見た画像に変換する(ステップS25:(B4))。これにより、目的画像143は、実写画像の視点位置から視線方向に見た目的画像143になるように、その大きさや傾きが調節された画像に変換される。
【0070】
次に、非透過型端末装置は、三次元貼付位置情報144における、3Dモデル142と目的画像143の位置関係に基づき、目的画像143が3Dモデル142の手前に位置する部分では実写画像を表示せずにステップS25で変換された目的画像143を表示し、3Dモデル142が目的画像143の手前に位置する部分では目的画像143を表示せずに実写画像を表示する(ステップS26:(B4))。
【0071】
これにより、現実空間の実際の景色の中に、目的画像143が実在しているかのようにリアルに表示され、画像編集作業者が意図したとおりの拡張現実(AR)又は複合現実(MR)を、現実空間でユーザに対して体験させることが可能となる。
【0072】
次に、非透過型端末装置は、並行して継続的に実行されているステップS24において取得される視点位置及び視線方向を監視し(ステップS27)、視点位置及び視線方向が変化した場合(ステップS27でYES)、新たな視点位置及び視線方向に基づいて、ステップS25~S27を繰り返す。
【0073】
なお、ステップS25とステップS26は、それぞれ独立した処理である必要はなく、ステップS25,S26(B4)が混然一体として処理されてもよい。
【0074】
図10は、直接視認型端末装置を用いて、拡張現実(AR)画像又は複合現実(MR)画像を表示する場合の画像表示方法の一例を示すフローチャートである。
【0075】
まず、例えばユーザが三次元貼付位置情報144及び画像表示プログラムを、例えばネットワークを介して記憶部14や図略のサーバ装置等からダウンロードすることによって、自分の直接視認型端末装置に記憶させる(ステップS31:(C1))。
【0076】
次に、三次元貼付位置情報144に対応する現実空間に、ユーザが直接視認型端末装置を持っていくことで、現実空間に、直接視認型端末装置を位置させる(ステップS32:(C2))。なお、ステップS32,S31の順に実行され、現実空間に位置した直接視認型端末装置が、ステップS31においてその現在位置に対応する三次元貼付位置情報144を取得する構成であってもよい。
【0077】
次に、ユーザが自分の直接視認型端末装置で景色を視認し(ステップS33)、直接視認型端末装置がユーザの視点位置及び視線方向を取得する(ステップS34:(C3))。ステップS33,S34は、以降の処理と並行して継続的に実行される。
【0078】
次に、直接視認型端末装置は、三次元貼付位置情報144における目的画像143を、ステップS34で取得された視点位置及び視線方向から見た画像に変換する(ステップS35:(C4))。これにより、目的画像143は、実写画像の視点位置から視線方向に見た目的画像143になるように、その大きさや傾きが調節された画像に変換される。
【0079】
次に、直接視認型端末装置は、三次元貼付位置情報144における、3Dモデル142と目的画像143の位置関係に基づき、目的画像143が3Dモデル142の手前に位置する部分ではステップS35で変換された目的画像143をユーザに視認させ、3Dモデル142が目的画像143の手前に位置する部分では目的画像143をユーザに視認させない(ステップS36:(C4))。
【0080】
これにより、ユーザが実際に見ている現実空間の実際の景色の中に、目的画像143が実在しているかのようにリアルに視認され、画像編集作業者が意図したとおりの拡張現実(AR)又は複合現実(MR)を、現実空間でユーザに対して体験させることが可能となる。
【0081】
次に、直接視認型端末装置は、並行して継続的に実行されているステップS34において取得される視点位置及び視線方向を監視し(ステップS37)、視点位置及び視線方向が変化した場合(ステップS37でYES)、新たな視点位置及び視線方向に基づいて、ステップS35~S37を繰り返す。
【0082】
なお、ステップS35とステップS36は、それぞれ独立した処理である必要はなく、ステップS35,S36(C4)が混然一体として処理されてもよい。
【0083】
以上、ステップS21~S27,S31~S37によれば、作業者が上述の画像編集方法によって、実際に現実空間に行くことなく、ユーザが実際に見るであろう視点位置及び視点方向からの画像を、画像編集システム1を用いて予め確認しつつ生成された三次元貼付位置情報144に基づいて、現実空間においてユーザが拡張現実(AR)又は複合現実(MR)を体験することになる。その結果、作業者が意図したとおりの拡張現実(AR)又は複合現実(MR)を、ユーザに対して体験させることが容易となる。
【0084】
画像編集システム1の記憶部14に、様々な場所の事前実写データ141、及び3Dモデル142を予め記憶させておけば、作業者は、実際の場所を訪れることなく、ユーザに目的画像143を体験させたい様々な場所で、意図したとおりに拡張現実(AR)又は複合現実(MR)を体験させることが容易となる。例えば目的画像143を広告画像とすれば、広告主である作業者は、消費者であるユーザに対して、様々な場所で、広告主の意図したとおりの広告宣伝を行うことができるので、ユーザに対して効果的な広告宣伝活動を行うことができる。
【符号の説明】
【0085】
1 画像編集システム
10 演算部
11 ディスプレイ
12 キーボード
13 マウス
14 記憶部
101 表示制御部
102 貼付位置情報生成部
141 事前実写データ
142 3Dモデル
143 目的画像
144 三次元貼付位置情報
145 画像編集プログラム
A 通路
B,C 連絡通路
D 視線方向
G1~G4 目的画像
P 視点位置
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10