IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ インターデジタル シーイー パテント ホールディングスの特許一覧

特許7090410拡張現実のシーンを再生する際の自動ズームのための方法、装置及びシステム
<>
  • 特許-拡張現実のシーンを再生する際の自動ズームのための方法、装置及びシステム 図1
  • 特許-拡張現実のシーンを再生する際の自動ズームのための方法、装置及びシステム 図2
  • 特許-拡張現実のシーンを再生する際の自動ズームのための方法、装置及びシステム 図3
  • 特許-拡張現実のシーンを再生する際の自動ズームのための方法、装置及びシステム 図4
  • 特許-拡張現実のシーンを再生する際の自動ズームのための方法、装置及びシステム 図5a
  • 特許-拡張現実のシーンを再生する際の自動ズームのための方法、装置及びシステム 図5b
  • 特許-拡張現実のシーンを再生する際の自動ズームのための方法、装置及びシステム 図6
  • 特許-拡張現実のシーンを再生する際の自動ズームのための方法、装置及びシステム 図7
  • 特許-拡張現実のシーンを再生する際の自動ズームのための方法、装置及びシステム 図8
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2022-06-16
(45)【発行日】2022-06-24
(54)【発明の名称】拡張現実のシーンを再生する際の自動ズームのための方法、装置及びシステム
(51)【国際特許分類】
   G06T 19/00 20110101AFI20220617BHJP
   H04N 5/232 20060101ALI20220617BHJP
【FI】
G06T19/00 600
H04N5/232 960
【請求項の数】 15
【外国語出願】
(21)【出願番号】P 2017169155
(22)【出願日】2017-09-04
(65)【公開番号】P2018067301
(43)【公開日】2018-04-26
【審査請求日】2020-07-28
(31)【優先権主張番号】16306115.3
(32)【優先日】2016-09-06
(33)【優先権主張国・地域又は機関】EP
(73)【特許権者】
【識別番号】518341334
【氏名又は名称】インターディジタル・シーイー・パテント・ホールディングス・ソシエテ・パ・アクシオンス・シンプリフィエ
(74)【代理人】
【識別番号】100079108
【弁理士】
【氏名又は名称】稲葉 良幸
(74)【代理人】
【識別番号】100109346
【弁理士】
【氏名又は名称】大貫 敏史
(74)【代理人】
【識別番号】100117189
【弁理士】
【氏名又は名称】江口 昭彦
(74)【代理人】
【識別番号】100134120
【弁理士】
【氏名又は名称】内藤 和彦
(74)【代理人】
【識別番号】100108213
【弁理士】
【氏名又は名称】阿部 豊隆
(72)【発明者】
【氏名】ローラン,アンソニー
(72)【発明者】
【氏名】ジユエ,ピエリツク
(72)【発明者】
【氏名】ベイラード,カロリーヌ
【審査官】片岡 利延
(56)【参考文献】
【文献】特開2012-018573(JP,A)
【文献】特表2016-514298(JP,A)
【文献】特開2015-228256(JP,A)
【文献】特開2012-155655(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
G06T 19/00
H04N 5/232
(57)【特許請求の範囲】
【請求項1】
カメラの視点からの拡張現実のシーンを再生する際に画像を表示装置に描画する方法であって、
第1の決定手段により、前記拡張現実のシーンの境界を求めることであって、前記境界は、前記拡張現実のシーンの全ての要素を包含する、ことと、
第2の決定手段により、前記カメラのポーズの推定と前記シーンの前記境界とに従ってズーム係数を特定することと、
描画手段により、前記ズーム係数に従って前記カメラからの画像を前記表示装置に描画することと、
を含む前記方法。
【請求項2】
視覚効果、音声効果及び触覚効果を含むグループから選択された効果を用いて、指示手段により、ユーザに前記カメラのポジションを示すことを含み、前記カメラのポジションは、前記カメラの位置及び粗い方向を含む、請求項1に記載の方法。
【請求項3】
前記ポジションが、前記拡張現実のシーンの少なくとも1つの要素に関連付けられた方向と重みとに従って特定される、請求項2に記載の方法。
【請求項4】
前記拡張現実のシーンが、前記カメラによって撮られた現実のシーンのオブジェクトに対応する非描画要素を含み、該要素が、前記拡張現実のシーンの前記境界を求める際に考慮に入れられる、請求項1又は3に記載の方法。
【請求項5】
前記カメラの狙い方向を、狙い制御手段により、前記拡張現実のシーンの前記境界と前記ズーム係数とに従って制御することを含む、請求項1から4のいずれか1項に記載の方法。
【請求項6】
前記カメラが光学ズーム機能を備えており、前記方法は、該光学ズーム機能を、光学ズーム制御手段により、前記ズーム係数に従って制御することを含む、請求項1から5のいずれか1項に記載の方法。
【請求項7】
前記画像上のデジタル・ズームを、操作手段により、前記ズーム係数に従って操作することを含む、請求項1から6のいずれか1項に記載の方法。
【請求項8】
カメラの視点からの拡張現実のシーンを再生する際に画像を描画するように構成されたディスプレイを有する装置であって、
前記拡張現実のシーンの境界を求める手段であって、前記境界は、前記拡張現実のシーンの全ての要素を包含する、手段と、
前記カメラのポーズの推定と前記シーンの前記境界とに従ってズーム係数を特定する手段と、
前記ズーム係数に従って前記カメラからの画像を描画する手段と、
を備える、前記装置。
【請求項9】
視覚効果、音声効果及び触覚効果を含むグループから選択された効果を用いて、ユーザに前記カメラのポジションのインディケーションを送信する手段を更に有し、前記カメラのポジションは、前記カメラの位置及び粗い方向を含む、請求項8に記載の装置。
【請求項10】
前記ポジションが、前記拡張現実のシーンの少なくとも1つの要素に関連付けられた方向と重みとに従って特定される、請求項9に記載の装置。
【請求項11】
前記拡張現実のシーンが、前記カメラによって撮られた現実のシーンのオブジェクトに対応する非描画要素を含み、該要素が、前記拡張現実のシーンの前記境界を求める際に考慮に入れられる、請求項8又は10に記載の装置。
【請求項12】
前記装置は、前記カメラの狙い方向を前記拡張現実のシーンの前記境界と前記ズーム係数とに従って制御するための手段を更に備える、請求項8から10のいずれか1項に記載の装置。
【請求項13】
前記カメラが光学ズーム機能を備えており、前記装置は、該光学ズーム機能を前記ズーム係数に従って制御する手段を更に備える、請求項8から10のいずれか1項に記載の装置。
【請求項14】
前記装置は、前記画像上のデジタル・ズームを前記ズーム係数に従って制御する手段を更に備える、請求項8から10のいずれか1項に記載の装置。
【請求項15】
プロセッサによって実行される際に、請求項1から3のいずれか1項に記載の、拡張現実のシーンを再生する際にカメラからの画像を表示装置に描画する方法のステップを実施するプログラム・コード命令を含む、通信ネットワークからダウンロード可能であり、及び/又は、コンピュータによって読み取り可能な媒体に記録されており、及び/又は、プロセッサによって実行可能である、コンピュータ・プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、概ね、オーグメンティッド・リアリティ(Augmented Reality:拡張現実)の分野に関し、更に詳しくは、ビデオ・パススルー(video pass-through)装置上で動作する拡張現実アプリケーションに関する。
【背景技術】
【0002】
拡張現実(AR)アプリケーションは、3次元の人工のオブジェクト(例えば、CGIとも呼ばれるコンピュータ生成画像)を現実世界の上に重ね合わせる。リアリズム(現実感)とリアルタイムの処理は、ARアプリケーションを評価するための重要な基準である。AR装置には、2つのタイプ、即ち、例えばスマート・グラスのような「オプティカル・シースルー(optical see-through)」装置と、例えばスマートフォン又はタブレットのような「ビデオ・パススルー(video pass-through)」装置とがある。本開示は、この2番目のタイプのAR装置に関する。
【0003】
ビデオ・パススルー装置は、表示スクリーンと、カメラと、ユーザがそのカメラのポーズ(位置(location)及び狙い方向(aiming direction))をリアルタイムで制御する手段とを備えた装置である。例えば、前面のスクリーンと後方に向いたカメラとを用いてARアプリケーションを実施するときのスマートフォンとタブレットは、AR装置である。この場合、ユーザは、装置を手で動かすことによって、カメラのポーズを制御する。カメラが撮ったビデオは、その場でスクリーン上に描画される。ARアプリケーションは、このビデオの画像の上にARシーンの仮想オブジェクトを重畳する。
【0004】
ある特定の最適なカメラ・アングルにおいて、ユーザは、全体のARシーンを見る(観察する)ことができる。しかしながら、カメラがARシーンの場所に近すぎる場合、或いは、カメラの狙い方向が最適な方向でない場合、一部のARオブジェクトがカメラの視野から外れる。また、カメラがARシーンの場所から遠すぎる場合、ARオブジェクトは、スクリーン上で小さくなり、細部が分からないことがある。この問題を解決するために、ユーザは、最適なポーズを自力で探す必要がある。このような解決策は、満足のいくものではなく、その理由は、ユーザは、自分がオブジェクト又は細部を逃していることを常に気づく訳ではなく、また、最適なポーズを探すことは、ARアプリケーションの楽しい使用を妨げる面倒な作業だからである。
【発明の概要】
【0005】
本開示は、拡張現実アプリケーションを実施する際にビデオ・パススルー装置のカメラのズームと狙い方向とを自動的に調整する方法に関する。ビデオ・パススルー装置のカメラのポーズ推定とARシーンの境界の算定とに従って、カメラの光学ズーム又はデジタル・ズームを調整することによって、ユーザの動きなしにARの観察を最適化する。最適なポジションをユーザに示して、ユーザが動くように誘導してもよい。
【0006】
本開示は、カメラの視点からの拡張現実のシーンを再生する際に画像を表示装置に描画する方法であって、
拡張現実のシーンの境界を求めることと、
カメラのポーズの推定とシーンの境界とに従ってズーム係数を特定することと、
ズーム係数に従ってカメラからの画像を表示装置に描画することと、
を含む方法に関する。
【0007】
特定の一特徴によれば、この方法は、視覚効果、音声効果及び触覚効果を含むグループから選択された効果を用いて、ユーザにカメラのポジションを示すことを更に含んでいる。
【0008】
具体的な一態様によれば、このポジションは、拡張現実のシーンの少なくとも1つの要素に関連付けられた方向と重みとに従って特定される。
【0009】
具体的な一態様によれば、この拡張現実のシーンは、カメラによって撮られた現実のシーンのオブジェクトに対応する非描画要素を含み、この要素は、拡張現実のシーンの境界を求める際に考慮に入れられる。
【0010】
特定の一特徴によれば、このカメラはモータ駆動型であり、この方法は、カメラの狙い方向を、拡張現実のシーンの境界と算出されたズーム係数とに従って制御することを更に含んでいる。
【0011】
具体的な一態様によれば、このカメラは光学ズーム機能を備えており、この方法はこの光学ズーム機能を、特定されたズーム係数に従って制御することを更に含んでいる。別の一態様において、画像上のデジタル・ズームがズーム係数に従って操作される。
【0012】
本開示は、カメラの視点からの拡張現実のシーンを再生する際に画像を描画するように構成されたディスプレイを有する装置であって、少なくとも1つのプロセッサに関連付けられたメモリを備えており、この少なくとも1つのプロセッサが、
拡張現実のシーンの境界を求め、
カメラのポーズの推定とシーンの境界とに従ってズーム係数を特定し、
前方に面したカメラからの画像をズーム係数に従って描画する、
ように構成されている、装置にも関する。
【0013】
本開示は、拡張現実のシーンを再生する際にカメラからの画像を描画するように構成されたディスプレイを有する装置であって、
拡張現実のシーンの境界を求める手段と、
カメラのポーズの推定とシーンの境界とに従ってズーム係数を特定する手段と、
前方に面したカメラからの画像をズーム係数に従って描画する手段と、
を備えた装置にも関する。
【0014】
本開示は、プロセッサによって実行される際に、拡張現実のシーンを再生する時にカメラからの画像を表示装置に描画する上述の方法のステップを実施するプログラム・コード命令を含む、通信ネットワークからダウンロード可能であり、及び/又は、コンピュータによって読み取り可能な媒体に記録されており、及び/又は、プロセッサによって実行可能である、コンピュータ・プログラム製品にも関する。
【図面の簡単な説明】
【0015】
下記の添付図面を参照する以下の説明を読むと、本開示がより良く理解され、その他の具体的な特徴及び利点が明確になるであろう。
図1】本原理の具体的な一実施形態による、ビデオ・パススルー装置として使用されるタブレットの一例を例示する図である。
図2】本原理の具体的な一実施形態による、図1のタブレットのようにARアプリケーションを実施するビデオ・パススルー装置として使用される非透過型(occulting)ヘッド・マウント・ディスプレイ(HMD)装置の例を例示する図である。
図3】本原理の具体的な一実施形態による、図1及び2のようにARアプリケーションを実施し、且つ、カメラがモータ駆動型であって制御用表示装置から離間されているビデオ・パススルー装置の一実施形態例を例示する図である。
図4】本原理の具体的な一実施形態による、図1、2及び3のカメラの視錐台と図2及び3の拡張現実のシーンの境界とに基づく算定方法を例示する図である。
図5a】本原理の具体的な一実施形態による、図4の境界に従うズーム・アウト係数の算定方法の例を例示する図である。
図5b】本原理の具体的な一実施形態による、図4の境界に従うズーム・イン係数の算定方法の例を例示する図である。
図6】本原理の具体的な一実施形態による、図1、2及び3のカメラについての最適なポジション64の算定方法の例を例示する図である。
図7】本原理の具体的な一実施形態による、拡張現実のシーンを再生する際に、図1、2及び3のカメラからの画像を描画するように構成された装置のハードウェアの一実施形態を示す図である。
図8】非限定的な有利な一実施形態による、図7の装置のような処理装置において実施される方法の一実施形態を図表形式で示す図である。
【発明を実施するための形態】
【0016】
次に、図面を参照して本要旨を説明するが、これらの図面においては、全体を通して、同じ参照番号を用いて同じ要素を示している。以下の記載において、本要旨が完全に理解されるように、多数の具体的な詳細事項を説明の目的のために述べる。尚、本要旨の実施形態はこれらの具体的な詳細事項なしでも実施できる。
【0017】
本開示の非限定的な実施形態による、拡張現実(AR)アプリケーションを実施する際のビデオ・パススルー装置のカメラのズームと狙い方向とを自動的に調整する方法と装置を開示する。
【0018】
ARアプリケーションを実施しているビデオ・パススルー装置のカメラの最適なポーズを探すことは、カメラのポーズを修正することにその本質がある。このポーズは、カメラの3次元空間における位置と狙い方向との組み合わせである。カメラの位置を自動的に制御するには、カメラを移動させるためのモータ駆動メカニズムが必要である。ビデオ・パススルー装置は、通常、そのようなメカニズムを備えていない。
【0019】
図1は、ビデオ・パススルー装置として使用されるタブレット10aの一例を例示している。装置10aは、スクリーン102とカメラ101とを有するリグ(rig)を構成している。カメラ101は、図1における、例えばテレビである、現実のオブジェクト11を含む現世界の一シーンを撮影している。このシーンは、カメラ101の視錐台(frustum)12に含まれる現世界の一部分である。この撮られたシーンは、タブレット10aのスクリーン102上にリアルタイムで表示される。この機能によって、タブレット10aはビデオ・パススルー装置となる。ユーザは、タブレット10aを動かすことによって、カメラ101のポーズを制御する。実際、カメラ101の位置と狙い方向とは、装置10aの位置と方位とに直接関係がある。特定の一実施形態において、タブレット10aのカメラ101がモータ駆動されて、カメラ101の狙い方向がARアプリケーションによって部分的に制御されることがある。ARアプリケーションは、カメラのポーズを特定する手段を必要とする。図1では、基準マーカ13が、ポーズ推定手段の一例として、現実のオブジェクト11のスクリーン上に表示されている。この例において、ARアプリケーションは、カメラ101によって撮られた画像を処理して、基準マーカ13を識別して、マーカの形状とサイズに従って、カメラ101の(従って、装置10aの)ポーズ(即ち、マーカに関連する基準座標系(frame of reference)内における位置と狙い方向)を推定する。一変形例において、ARアプリケーションは、画像内のオブジェクト、例えば、特定の位置に在ることが分かっている特定の家具、の認識に従って、カメラのポーズを推定する。別の一実施形態において、ポーズ推定手段は、室内に設置されており、且つ、タブレット10aの背面に点在する赤外線マーカを追跡する赤外線カメラのシステムである。別の一実施形態において、このアプリケーションは、タブレットの慣性測定装置(例えば、加速度計とジャイロスコープ)からの情報を用いて装置10aのポーズを推定する。本開示は、これらのポーズ推定システムの例に限定されない。
【0020】
図2は、ARアプリケーションを実施するビデオ・パススルー装置として使用される非透過型(occulting)ヘッド・マウント・ディスプレイ(HMD)装置10bの例を例示している。HMD10bは、ユーザの両眼の前に在る1つ又は2つのスクリーンと、ユーザの前に在るシーンを撮る少なくとも1つのカメラ101とを有するリグを構成している。カメラ101によって撮られたビデオは、HMDのスクリーン上にリアルタイムで描画され、これによって、HMD10bは、ビデオ・パススルー装置となる。ポーズ推定システムが、このアプリケーションによって用いられて、カメラの位置と狙い方向を特定する。ユーザは、カメラ101が撮影しているものを見ているので、カメラ101のポーズは、ユーザの凝視のポーズに対応している。図2において、マーカ13は、カメラによって見られる現実のオブジェクト11のスクリーン上に表示されている。図1のタブレット10aについては、その他の任意の種類のポーズ推定システムが採用されてもよい。カメラのポーズが特定されると、ARアプリケーションは、3次元のシーンにおいて人工のオブジェクトを加える。カメラ101の視錐台12に含まれるこれらの人工のオブジェクトの部分の画像が、カメラによって撮られたシーンの画像上に重畳されて、この合成物が、ビデオ・パススルー装置10bのスクリーン上に描画される。オブジェクト(現実のオブジェクトと人工のオブジェクト)相互間の掩蔽(occultation)は、ARアプリケーションによって処理される。例えば、図2において、ARアプリケーションは、マーカによって定められる基準座標系内に、従って、現実のテレビ11の周りに、人工のエッフェル塔21と人工の1対のさいころ22とを加える。ユーザには、視錐台12内に含まれているものが見える。従って、テレビ11を見ているユーザは、エッフェル塔21の一部分(一部分のみ)が見えており、1対のさいころ22は、カメラ101の視野から外れているので、全く見えていない。
【0021】
図2に例示された実施形態において、ユーザは、自分の頭部を動かすことによってカメラのポーズを制御する。別の一実施形態においては、カメラ101がモータ駆動されて、ARアプリケーションが、カメラ101の狙い方向を部分的に制御してもよい。ポーズ推定システムは、HMDの基準座標系におけるカメラ101の方位を考慮して、ポーズを推定する。
【0022】
図3は、ARアプリケーションを実施するビデオ・パススルー装置の一実施形態の例を例示している。スマートフォン10cが、リンク31を介してモータ駆動型のカメラ103を制御する。リンク31は、有線インタフェース(例えば、バス・インタフェース、ワイド・エリア・ネットワーク・インタフェース、ローカル・エリア・ネットワーク・インタフェース)、或いは、無線インタフェース(例えば、IEEE802.11インタフェース又はブルートゥース(登録商標)(Bluetooth(登録商標))インタフェース)であってよい。例えば、スマートフォンは、慣性測定装置(inertial measurement unit)(IMU)を備えており、ARアプリケーションが、スマートフォンの動きを追跡して、その検出された動きに従ってカメラの回転を制御する。別の一実施形態では、ユーザがカメラの回転を制御することを可能にするユーザ・インタフェースが、スマートフォン上で稼働している。カメラは、その前に在る、現実のオブジェクト11を含むシーン(即ち、その視錐台内に含まれる現実の世界の部分)を撮る。カメラによって撮られた画像が、スマートフォンに転送されて、スマートフォン10cのスクリーン上にリアルタイムで描画される。このようなシステムによって、ビデオ・パススルー装置が構成される。カメラのポーズは、そのモータに従って常に分かる。一変形例において、例えば、カメラが、移動装置(例えば、車輪又は無限軌道)を備えている場合、例えば基準マーカに基づく外部のポーズ推定システムが更に使用される。
【0023】
ARアプリケーションを実行する際、装置10cは、カメラ103によって撮られた画像上に人工のオブジェクト21を完全に又は部分的に重ね合せる。ARシーンの一部の人工のオブジェクトは、例えば図3の例における1対のさいころ22のようにカメラの視野から外れることがある。本発明の特定の一実施形態によれば、拡張現実シーンの境界32が算定される。このARシーンは、ARアプリケーションのARコンテンツを構成するあらゆる人工のオブジェクト21と22を包含する。これが、ユーザに見られるべきものである。一変形例において、このシーンには、目に見えない人工のオブジェクトも含まれている。目に見えないオブジェクトは、ARシーンの、描画されない要素である(即ち、この要素については、人工の画像は、カメラによって撮られた画像上には重畳されない)。このような目に見えないオブジェクトは、例えば、図1,2及び3のテレビ11のような現実のオブジェクトの輪郭を覆い隠すことがある。従って、現実のオブジェクトが、カメラによって撮られた画像の修正なしに、シーンの境界内に含まれ得る。目に見えないオブジェクトは、ARアプリケーションのクリエータ(creator:創作者)がARシーンの境界内に含めたい現実の世界の立体感(volume)に対応する。境界は、ARコンテンツの要素を、これらに可能な限り接近して、包含する。境界32は、人工のオブジェクト及び現実のオブジェクトであってもよいARコンテンツのあらゆる要素を、望ましくは、これらの要素に可能な限り接近して、包含するように特定される。図3において、ARシーンの境界は、ARコンテンツの1組の要素についての3次元の境界ボックス(bounding box)である。変形例において、境界は、境界エリップス(bounding ellipse)又はARシーンのコンベックス・ハル(convex hull)であってもよい。特定の一実施形態において、ARシーンの要素は、時間の経過と共に移動するか、或いは、形状が変化することがある。一変形例において、シーンの要素の数は、時間の経過と共に変動することがある。このような実施形態において、境界は、シーンにおける変化が検出される度に算定される。一変形例において、境界は、一定の頻度で、例えば10分の1秒毎に又は0.5秒毎に、算定される。
【0024】
図4は、カメラの視錐台と境界とに基づいた算定方法を例示している。カメラ101のポーズ推定に従って特定された仮想世界におけるカメラの位置と狙い方向とに従って、且つ、境界の算定に基づいて、2つの重要な矩形が、仮想基準座標系内において算定される。尚、カメラは、ポーズ推定に従ってARアプリケーションの仮想世界内に配置されている。カメラは、仮想シーン内において、現実のカメラの焦点に対応する点にまで縮小可能である。カメラ101のポーズを推定する際に、システムは、先ず、仮想シーンの基準座標系内におけるカメラの焦点の位置を推定し、次に、同じ基準座標系内におけるカメラの狙い方向41(即ち、方位)を推定する。図1、2及び4に示された視錐台12は、このポーズ推定に基づいている。カメラの焦点上に頂点を有し、且つ、境界32の全体を包含する角錐42が特定される。図4の例では、境界32は境界ボックスとして成形されており、角錐42は四角錐(four-sided pyramid)である。境界の変形例において、角錐42は、円錐、或いは、先端が尖った任意の形状の立体(volume)であってもよい。境界32と角錐42とに基づいて、境界の近面矩形43と呼称される矩形43が算定される。近面43は、次の5つの条件の同時成立(conjunction)よって定義される矩形である。
・矩形43は、狙い方向41に対して垂直であり、
・矩形43は、角錐42の境界矩形であり、
・矩形43は、境界の全体を包含しており、
・矩形43の辺は、視錐台矩形44の辺と平行であり、
・矩形43は、先行する条件を満たす矩形のうち、カメラ101に最も近い。
【0025】
視錐台矩形44は、近面矩形43の平面内に在るカメラ視錐台12によって定義される矩形である。
【0026】
図5aは、ズーム・アウト係数の算定方法の例を例示している。カメラ101の所与のポーズについて、近面矩形43が視錐台矩形44内に含まれており、且つ、近面矩形43の少なくとも1辺が視錐台矩形44の1辺上に重ね合されている場合、ARシーンは、最大限のサイズで描画される。図5aの例では、矩形43の一部分51が視錐台矩形44の内側に在り、残りの部分52が外側に在る。カメラ101を動かさずに(即ち、視錐台矩形44の中心を動かさずに)ARシーンの描画を最大化するために、視錐台矩形をその対角線に沿って拡大して、その辺の1つを近面矩形43の外側の1辺上に重ね合わせて、新たな視錐台矩形54を得る。この操作は、カメラ101についてのズーム・アウトに相当する。ズーム係数は、例えば、新たな視錐台矩形54の対角線の長さを実際の視錐台矩形44の対角線の長さで除算することによって特定される。この例では、ズーム係数は、1より大きいので、ズーム・アウトに相当する。
【0027】
図5bは、ズーム・イン係数の算定方法の例を例示している。近面矩形43が視錐台矩形44内に完全に含まれている場合、そのARシーンの描画は、そのARシーンが拡大するように描画され得るので、最適ではない。視錐台矩形44をその対角線53に沿って縮小して、その辺の少なくとも1つを近面矩形43の辺の少なくとも1つの上に重ね合わせる。この例では、ズーム係数は、1より低いので、ズーム・インに相当する。ズーム係数は、近面矩形43と視錐台矩形44とに従って特定される。
【0028】
図6は、カメラ101についての最適なポジション64(以下、最適ポジション64ともいう)の算定方法の例を例示している。カメラ101は、そのレンズ系の焦点をARアプリケーションからの制御命令に従って修正する、光学ズーム装置を備えている。カメラの焦点は、そのカメラの視野に、直接、関連付けられている。カメラ101は、物理的な制約のために、それを超えては動作できない最大限の視野を有する。逆に、撮影条件がもはや十分でなくなる最小限の視野が定められ得る。ARアプリケーションが近面矩形43と視錐台矩形44とに従って算定されたズーム係数をカメラ101に適用すると、カメラ101の視野は、その最大値の1つに至るまでの範囲内で修正される。最小限の視野に到達した場合、それは、カメラ101が、近面矩形からあまりにも遠すぎて、ユーザにとって満足な寸法でシーンを撮ることができないことを意味する。逆に、最大限の視野に到達した場合、カメラ101は、近面矩形にあまりにも近くて、図6に例示されているように、シーンの全体を撮ることができない。上方から見た図6において、矩形43,44及び54は、理解し易いように移動されている。尚、これらの3つの矩形は同一平面に属している。この例において、角度61が、カメラ101の視野の最大限の開度に対応している。本原理の特定の一実施形態によれば、ARアプリケーションは、近面矩形43の幅を考慮して、カメラ101に対して最大ズーム・アウトを命令する。しかしながら、カメラ101は、あまりにも近面矩形に近すぎて、全体の仮想シーンを撮ることができない。ARアプリケーションは、カメラ101を移動しない。しかしながら、ARアプリケーションは、仮想シーンの最適な描画が得られる最適なポジションがどこであるかをユーザに示してもよい。例えば、ARアプリケーションは、ユーザに対してどの方向に移動すべきかを示す矢印を装置10a,10b又は10cのスクリーン上に表示してもよい。一変形例において、システムは、音声メッセージ又は触覚効果(例えば、振動)を用いてユーザに最適なポジションを示す。先ず、最適な描画のために、カメラ101の狙い方向は、近面矩形43の中心を通る必要がある。図6の例では、ユーザは、左に移動する必要がある。次に、αと呼称する最大角度61は、後方への最小限の移動を可能にするものである。近面矩形43と最適ポジション64との間のzと呼称する距離63が、カメラ101と3つの矩形の平面との間のzと呼称する距離62と、新たな視錐台矩形54のwと呼称する幅と、近面43のwと呼称する幅とに従って、且つ、次式(数1)に従って、算出される。
【0029】
【数1】
【0030】
図7の例において、ユーザは、z-zの距離だけ後方に移動するように誘導される。同じ原理が、カメラ101の最小限の視野について用いられる。
【0031】
別の一実施形態において、カメラ101は、光学ズーム装置を備えていない。このような実施形態において、ARアプリケーションは、デジタル・ズーム機能を用いて描画画像の視野を制御する。最大限の視野は、カメラ101の視野に対応する。デジタル・ズーム・インは画像の品質を低減するので、最小限の品質を維持するために、最小限の視野が定められる。同じ原理が、この実施形態において適用される。一変形例において、ARコンテンツは、体験時における境界の最大限のサイズの推定に付随する。ユーザは、例えば、体験の開始時に1度だけ最適なポジションに向かって移動するように要求されることがある。一変形例において、仮想シーンの要素の少なくとも1つが、主要方向に関連付けられる。例えば、図1、2及び3の例において、テレビ11が、たとえそれが仮想シーンの非描画要素を構成する場合であっても、主要方向(例えば、そのスクリーンに対する垂線)に関連付けられることがある。最適なポジションは、これらの主要方向に従って算出され、従って、ユーザは、主要な要素の前で移動するように誘導される。主要方向を有する仮想シーンの要素は、カメラ101の最適なポジションの算出のために、重み(例えば、0と100との間の整数、或いは、0と1との間の実数)に関連付けられることがある。重み付けられた主要方向相互間における最適なトレードオフを見つけるために、最適化アルゴリズムが用いられる。
【0032】
一部の実施形態において、カメラ101は、モータ駆動されて回転可能である。最適な方位は、カメラ101の最小限の視野と最大限の視野とに従って算出される。最適な方位は、カメラの実際の狙い方向について算定された近面矩形43に従って算出されてもよい。一変形例において、近面矩形は、カメラの狙い方向に依存するので、可能な方位について算定される。最適な方位を算出するために、最適化アルゴリズムが用いられる。
【0033】
図7には、拡張現実のシーンを再生する際に、カメラ101からの画像を表示装置79に描画するように構成された装置70のハードウェアの一実施形態が示されている。図7は、図1から3で説明されたシステムのハードウェアの一実施形態例である。この例において、装置70は、アドレス及びデータ用の、クロック信号も給送するバス73によって互いに接続された次の構成要素、即ち、
-マイクロプロセッサ71(即ち、CPU)と、
-グラフィックス・カード(GPU)76と、
-ROM(リード・オンリ・メモリ)タイプの不揮発性メモリ74と、
-ランダム・アクセス・メモリ、即ち、RAM75と(グラフィックス・カード76にランダム・アクセス・メモリのレジスタを埋設してもよい)、
-オプションの内部ポーズ推定システム720と(例えば、ジャイロスコープ、加速度計及び/又はコンパスを備えた慣性測定装置(inertial measurement unit:IMU)の形態を有する)、
-オプションの1組のI/O(入出力)装置721(例えば、マウス、ジョイスティック、ウェブカム等)と、
-電源77と、
を備えている。
【0034】
装置70は、アドレス用バス73を介してCPU71にデータを送信する外部のポーズ推定システム722に接続されていてもよい。
【0035】
装置70は、カメラ101に接続されている。一部の実施形態において、カメラ101は、モータ駆動される。特定の実施形態において、カメラ101は、バス73を介して受信した制御命令に従って自己のレンズ系の焦点を修正する光学ズーム装置を備えている。
【0036】
利点として、装置70は、表示スクリーン・タイプの1つ又は複数の表示装置79に接続されており、この1つ又は複数の表示装置79は、グラフィックス・カード76に直接接続されており、グラフィックス・カードで算出された画像を表示する。一変形例において、この1つ又は複数の表示装置79は、バス73を介してグラフィックス・カード76に接続されている。特定の一実施形態において、ポーズ推定システム722、及び/又は、この1つ又は複数の表示装置79は、図1から3で説明されたヘッド・マウント・デバイス、タブレット又はスマートフォンの場合のように、装置70に組み込まれている。
【0037】
尚、メモリ74,75及び76の説明で用いられる用語の「レジスタ」は、前述のメモリの各々において、低容量(若干のバイナリ・データ)のメモリ領域と、(プログラム全体、或いは、算出されたデータを表すデータ又は表示されるべきデータの全部又は一部の記憶を可能にする)大容量のメモリ領域とを意味する。
【0038】
スイッチが入ると、マイクロプロセッサ71は、ROM74のレジスタ内のプログラムに従って、RAM75のレジスタ内のプログラムの命令をロードして実行する。
【0039】
特定の一実施形態によれば、利点として、本開示に固有である後述の方法のステップを実施するアルゴリズムが、これらのステップを実施する装置70に関連付けられたグラフィックス・カード76のメモリGRAM内に記憶されている。
【0040】
一変形例によれば、電源77は、装置70の外側に在る。
【0041】
図8には、非限定的な有利な一実施形態による、装置70のような処理装置において実施される方法80の一実施形態が、図表形式で示されている。
【0042】
初期設定ステップ801において、この装置は、ARアプリケーションを実施するのに必要なデータを取得する。関連プログラムとARシーンが、RAM75にロードされるが、一変形例では、少なくともその一部が、グラフィック・ボード76のGRAMにロードされる。カメラ101の初期ポーズが推定される。
【0043】
ステップ802において、ARシーンの基準座標系内のカメラ101のポーズが推定される。一変形例において、このステップは、他のステップと並行して実行され、且つ、定期的に、例えば20ヘルツ又は70ヘルツで、反復される。ポーズの推定は、少なくとも1つの供給源からの情報に従って算出される。例えば、カメラ101は、IMUを備えた装置70内に組み込まれている。ARアプリケーションは、装置の差動ポーズ、従って、カメラの差動ポーズを追跡する。一変形例において、このシステムは、カメラ101上の赤外線プロット(infra-red plot)を撮影する1組の赤外線カメラを備えている。赤外線カメラの内部パラメータ及び外部パラメータに従ってカメラのポーズを推定する画像処理が、例えば装置70のCPU71によって行われる必要がある。別の一変形例では、カメラ101が(図1の例におけるような)少なくとも1つの基準マーカを撮影しており、且つ、ARアプリケーションが、例えば装置70のCPU71上で、識別された基準マーカの既知のポーズに従って、画像処理を実行することによって、カメラ101のポーズを推定する。
【0044】
ステップ803において、ARシーンの境界が、図3で説明されたように算定される。近面矩形43と視錐台矩形44が、図4で説明されたように、カメラ101の推定されたポーズ(即ち、その位置とその狙い方向)、その視野、及び、境界に従って、算出される。図8上の二重線820は、方法80の次のステップがシステムの実施形態によって決まることを示している。本方法は、ステップ804において、カメラ101の実際のポジションが最適であるか(或いは、最適なポジションから離れすぎていないか)を検査することから成り立っていてもよい。尚、「ポジション」という用語は、「ポーズ」という用語と同じく、カメラの位置と狙い方向とを意味している。例えば、この検査は、ズーム係数が最小限である(即ち、カメラの視野が最大限である)ときに、近面矩形がカメラの視野内に含まれ得るか否かを推定することに本質があってもよい。否の場合、実際のポジションは最適ではなく、その理由は、ズーム係数の如何に関わらず、カメラが、ARシーンに近すぎて、それを自己の視錐台内に全く包含できないからである。また、カメラがシーンから遠すぎる(即ち、近面矩形が最小限の視錐台矩形の小さい部分を占める)場合も同じ原理が適用可能である。一変形例において、この検査は、カメラ101が、実際、主要方向に関連付けられたシーンの要素の前に在るか否かを算定することに本質があってもよい。これらの方向に関連付けられた重みが、この検査の算出のために考慮に入れられる。カメラ101が最適なポジションでない場合、ステップ805が実行される。カメラ101が最適なポジションの検査804をパスした場合、ステップ807が実行される。別の一実施形態において、ステップ805は、ステップ807と並行して、定期的に実行される。更に別の一実施形態において、ステップ805は、ステップ803の後に規則的に実行される。このような実施形態において、検査804は、決して行われない。
【0045】
ステップ805において、カメラ101について、最適なポジションが算定される。この算出された最適なポジションは、ARシーンの観察(viewing)が最適化される視点である。この計算法は、図6で説明されたように、境界とカメラのパラメータとを考慮に入れる。一変形例において、この計算法は、ARシーンの少なくとも1つの要素に関連付けられた重み付けられた主要方向も考慮に入れて、最適なポジションを特定する。ステップ806において、算出された最適なポジションが、視覚効果を介して、例えばARアプリケーションによって描画された画像上に矢印を重ね合わせることによって、ユーザに示される。一変形例において、最適なポジションは、触覚効果を介して、例えば、装置70に組み込まれたバイブレータ、或いは、例えば、触覚ブレスレット又は触覚ベストとしてユーザが身に着けたバイブレータを作動させることによって、ユーザに示される。別の一変形例において、最適なポジションは、音声メッセージによって、例えば、立体音響の発振音又は言語の発話によって、示される。
【0046】
ステップ807において、ズーム係数が、近面矩形43と、カメラ101のポーズと、図5a及び5bで説明されたような最大限及び最小限の視野を含むカメラ101のパラメータとに従って算出される。図8上の二重線821は、次のステップがシステムの実施形態によって決まることを示している。カメラ101が光学ズーム装置を備えている場合、ステップ808が実行され得る。装置70のCPU71が、ステップ807において算定されたズーム係数を用いてカメラ101の光学ズーム装置に命令を送信する。カメラ101が光学ズーム装置を備えていない場合、ステップ808の代わりにステップ809が実行される。このステップにおいて、デジタル・ズームが、算出されたズーム係数に従って操作される。カメラ101によって撮られた画像に対して、画像の品質がもはや十分であるとは推定されなくなる最小限の視野に対応するサイズに至るまでの範囲内で、クロップ(crop)が行われる。ズーム係数が最大限の視野に対応する場合、クロップは行われない。一変形例において、ステップ809は、ステップ808の前に、又は後に、又はこれと並行して、行われてもよい。カメラ101がモータ駆動型である場合、ステップ810が実行される。ARシーンの観察条件を最適化するために、ARアプリケーションは、カメラ101についての最適な狙い方向を算出して、カメラ101に命令を送信して、カメラ101を回転させる。一変形例において、ステップ810は、システムの実施形態に従って、ステップ808及び/又は809の前に、或いは、ステップ808及び/又は809の後に、或いは、ステップ808及び/又は809と並行して、行われる。
【0047】
カメラ101のズームと狙い方向とが調整されると、ステップ811が実行される。このステップは、ARアプリケーションの標準的な処理、即ち、カメラ101の調整済み視点から観察されるARシーンの部分をカメラ101によって撮られた画像上に重畳することに本質がある。方法80は、ステップ802から反復的に実行されて、カメラのポーズの変化及び/又はARシーンの変化を考慮して、描画画像を更新する。
【0048】
当然、本開示は、これまでに説明された実施形態には限定されない。
【0049】
詳しくは、本開示は、拡張現実のシーンを再生する際にカメラからの画像を表示装置に描画する方法には限定されず、カメラを制御するモータに命令を送信する任意の方法にも適用され、或いは、ユーザに最適なポジションを示すための視覚効果、音声効果又は触覚効果を伝える任意の方法にも適用される。また、ズーム係数の算出に用いられる境界と矩形を生成するために必要な計算の実施は、シェーダ・タイプ(shader type)のマイクロプログラムでの実施には限定されず、任意のプログラム・タイプでの実施、例えば、CPUタイプのマイクロプロセッサによって実行可能なプログラムでの実施にも適用される。
【0050】
本明細書において説明された実施形態は、例えば、方法、プロセス、装置、ソフトウェア・プログラム、データ・ストリーム、或いは、信号において、実施されてもよい。説明された特徴の実施は、それがたとえ単一の形の実施形態のコンテキスト(文脈)のみで説明されたとしても(例えば、方法又は装置としてのみ説明されたとしても)、その他の形(例えば、プログラム)でも実施されてもよい。ある装置は、例えば、適切なハードウェア、ソフトウェア及びファームウェアにおいて実施され得る。方法は、例えば、装置において、例えば、コンピュータ、マイクロプロセッサ、集積回路、或いは、プログラマブル・ロジック・デバイスを含む処理機器を一般的に意味する例えばプロセッサのような装置において、実施され得る。プロセッサには、例えば、スマートフォン、タブレット、コンピュータ、モバイル・フォン、ポータブル/パーソナル・ディジタル・アシスタント(PDA)のような通信機器、及び、エンドユーザ相互間の情報の通信を容易にするその他の機器も含まれる。
【0051】
本明細書に説明された種々のプロセス及び特徴の実施は、様々な相異なる装置又はアプリケーションにおいて、特に、例えば、画像及び関連テクスチャ情報及び/又は深度情報のデータ符号化、データ復号、ビュー生成、テクスチャ処理、及び、その他の処理に関連付けられた装置又はアプリケーションにおいて、具現化されてもよい。そのような装置の例には、符号化器、復号器、復号器からの出力を処理するポストプロセッサ、符号化器に入力を供給するプレプロセッサ、ビデオ・コーダ、ビデオ・デコーダ、ビデオ・コーデック、ウェブ・サーバ、セットトップ・ボックス、ラップトップ、パーソナル・コンピュータ、セル・フォン、PDA、及び、その他の通信機器が含まれる。明らかなことであるが、これらの装置は、移動性を有してもよく、移動車両に搭載することさえも可能である。
【0052】
更に、方法は、プロセッサによって行われる命令によって実施されてもよく、そのような命令(及び/又は、実施形態によって生成されるデータ値)は、プロセッサ可読媒体に記憶されてもよく、そのようなプロセッサ可読媒体は、例えば、集積回路、ソフトウェア搬送又はその他の記憶機器、例えば、ハード・ディスク、コンパクト・ディスケット(CD)、光ディスク(例えば、しばしばデジタル多用途ディスク又はデジタル・ビデオ・ディスクと呼ばれるDVD)、ランダム・アクセス・メモリ(RAM)、或いは、リード・オンリ・メモリ(ROM)である。命令は、プロセッサ可読媒体に明確に組み入れられたアプリケーション・プログラムを構成してもよい。命令は、例えば、ハードウェア、ファームウェア、ソフトウェア、或いは、それらの組み合わせの中に入れられてもよい。命令は、例えば、オペレーティング・システム、個別のアプリケーション、或いは、両者の組み合わせの中に存在してもよい。従って、プロセッサは、例えば、プロセスを実行するように構成されたデバイスと、プロセスを実行するための命令を有する(記憶装置のような)プロセッサ可読媒体を備えたデバイスとの両方を兼ねたものとして見なされてもよい。更に、プロセッサ可読媒体は、実施形態によって生成されたデータ値を、命令に加えて又は命令の代わりに、記憶してもよい。
【0053】
当業者には明らかであろうが、実施形態は、例えば、記憶又は送信し得る情報を搬送するようにフォーマット化された種々の信号を生成し得る。この情報には、例えば、方法を実施するための命令、或いは、説明された実施形態の1つによって生成されたデータが含まれ得る。例えば、信号は、説明された実施形態のシンタックスを書く又は読むための規則をデータとして搬送するように、或いは、説明された実施形態によって書かれた実際のシンタックス値をデータとして搬送するようにフォーマット化されてもよい。そのような信号は、例えば、(例えば、スペクトルの無線周波数部分を用いて)電磁波として、或いは、ベースバンド信号としてフォーマット化され得る。このフォーマット化には、例えば、データ・ストリームを符号化すること、及び、搬送波を符号化データ・ストリームで変調することが含まれ得る。信号が搬送する情報は、例えば、アナログ情報又はデジタル情報であり得る。この信号は、周知のように、種々の相異なる有線又は無線リンクを介して送信され得る。この信号は、プロセッサ可読媒体に記憶され得る。
【0054】
以上、多数の実施形態を説明した。それでもやはり、種々の修正が可能であることは理解されるであろう。例えば、種々の実施形態の要素を組み合わせて、又は補って、又は修正して、又は取り除いて、別の実施形態を作成してもよい。更に、当業者であれば、ここに開示された構成及び処理の代わりに別のものを代用して、その結果として得られる実施形態が、ここに開示された実施形態と少なくとも実質的に同じやり方で、少なくとも実質的に同じ機能を果たして、少なくとも実質的に同じ効果を実現できることが分かるであろう。これに従って、本願は、これらの実施形態及びその他の実施形態を熟慮している。
なお、上述の実施形態の一部又は全部は、以下の付記のように記載され得るが、以下には限定されない。
(付記1)
カメラの視点からの拡張現実のシーンを再生する際に画像を表示装置に描画する方法であって、
前記拡張現実のシーンの境界を求めることと、
前記カメラのポーズの推定と前記シーンの前記境界とに従ってズーム係数を特定することと、
前記ズーム係数に従って前記カメラからの画像を前記表示装置に描画することと、
を含む前記方法。
(付記2)
視覚効果、音声効果及び触覚効果を含むグループから選択された効果を用いて、ユーザに前記カメラのポジションを示すことを含む、付記1に記載の方法。
(付記3)
前記ポジションが、前記拡張現実のシーンの少なくとも1つの要素に関連付けられた方向と重みとに従って特定される、付記2に記載の方法。
(付記4)
前記拡張現実のシーンが、前記カメラによって撮られた現実のシーンのオブジェクトに対応する非描画要素を含み、該要素が、前記拡張現実のシーンの前記境界を求める際に考慮に入れられる、付記1又は3に記載の方法。
(付記5)
前記カメラの狙い方向を、前記拡張現実のシーンの前記境界と前記ズーム係数とに従って制御することを含む、付記1から4のいずれか1項に記載の方法。
(付記6)
前記カメラが光学ズーム機能を備えており、前記方法は該光学ズーム機能を前記ズーム係数に従って制御することを含む、付記1から5のいずれか1項に記載の方法。
(付記7)
前記画像上のデジタル・ズームを前記ズーム係数に従って操作することを含む、付記1から6のいずれか1項に記載の方法。
(付記8)
前記境界が、前記拡張現実のシーンの全ての要素を包含するように定められる、付記1から7のいずれか1項に記載の方法。
(付記9)
カメラの視点からの拡張現実のシーンを再生する際に画像を描画するように構成されたディスプレイを有する装置であって、該装置が、少なくとも1つのプロセッサに関連付けられたメモリを備えており、前記少なくとも1つのプロセッサが、
前記拡張現実のシーンの境界を求め、
前記カメラのポーズの推定と前記シーンの前記境界とに従ってズーム係数を特定し、
前記ズーム係数に従って前記カメラからの画像を描画する、
ように構成されている、前記装置。
(付記10)
視覚効果、音声効果及び触覚効果を含むグループから選択された効果を用いて、ユーザに前記カメラのポジションのインディケーションを送信するように構成された送信器を更に有する、付記9に記載の装置。
(付記11)
前記ポジションが、前記拡張現実のシーンの少なくとも1つの要素に関連付けられた方向と重みとに従って特定される、付記10に記載の装置。
(付記12)
前記拡張現実のシーンが、前記カメラによって撮られた現実のシーンのオブジェクトに対応する非描画要素を含み、該要素が、前記拡張現実のシーンの前記境界を求める際に考慮に入れられる、付記9又は11に記載の装置。
(付記13)
前記プロセッサが、前記カメラの狙い方向を前記拡張現実のシーンの前記境界と前記ズーム係数とに従って制御するように更に構成されている、付記9から12のいずれか1つに記載の装置。
(付記14)
前記カメラが光学ズーム機能を備えており、前記プロセッサが、該光学ズーム機能を前記ズーム係数に従って制御するように更に構成されている、付記9から13のいずれか1つに記載の装置。
(付記15)
前記プロセッサが、前記画像上のデジタル・ズームを前記ズーム係数に従って操作するように更に構成されている、付記9から14のいずれか1つに記載の装置。
(付記16)
前記境界が、前記拡張現実のシーンの全ての要素を包含するように定められる、付記9から15のいずれか1つに記載の装置。
(付記17)
プロセッサによって実行される際に、付記1から8のいずれか1つに記載の、拡張現実のシーンを再生する際にカメラからの画像を表示装置に描画する方法のステップを実施するプログラム・コード命令を含む、通信ネットワークからダウンロード可能であり、及び/又は、コンピュータによって読み取り可能な媒体に記録されており、及び/又は、プロセッサによって実行可能である、コンピュータ・プログラム製品。
図1
図2
図3
図4
図5a
図5b
図6
図7
図8