IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 日立マクセル株式会社の特許一覧

<>
  • 特許-ヘッドマウントディスプレイ 図1
  • 特許-ヘッドマウントディスプレイ 図2
  • 特許-ヘッドマウントディスプレイ 図3
  • 特許-ヘッドマウントディスプレイ 図4
  • 特許-ヘッドマウントディスプレイ 図5
  • 特許-ヘッドマウントディスプレイ 図6
  • 特許-ヘッドマウントディスプレイ 図7
  • 特許-ヘッドマウントディスプレイ 図8
  • 特許-ヘッドマウントディスプレイ 図9
  • 特許-ヘッドマウントディスプレイ 図10
  • 特許-ヘッドマウントディスプレイ 図11
  • 特許-ヘッドマウントディスプレイ 図12
  • 特許-ヘッドマウントディスプレイ 図13
  • 特許-ヘッドマウントディスプレイ 図14
  • 特許-ヘッドマウントディスプレイ 図15
  • 特許-ヘッドマウントディスプレイ 図16
  • 特許-ヘッドマウントディスプレイ 図17
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-06-06
(45)【発行日】2024-06-14
(54)【発明の名称】ヘッドマウントディスプレイ
(51)【国際特許分類】
   G06F 3/01 20060101AFI20240607BHJP
   G06T 19/00 20110101ALI20240607BHJP
   G06F 3/0484 20220101ALI20240607BHJP
【FI】
G06F3/01 510
G06T19/00 600
G06F3/0484
G06F3/01 570
【請求項の数】 14
(21)【出願番号】P 2022161325
(22)【出願日】2022-10-06
(62)【分割の表示】P 2021519969の分割
【原出願日】2019-05-22
(65)【公開番号】P2022183213
(43)【公開日】2022-12-08
【審査請求日】2022-10-06
(73)【特許権者】
【識別番号】000005810
【氏名又は名称】マクセル株式会社
(74)【代理人】
【識別番号】110001689
【氏名又は名称】青稜弁理士法人
(72)【発明者】
【氏名】中出 眞弓
(72)【発明者】
【氏名】橋本 康宣
(72)【発明者】
【氏名】奥 万寿男
【審査官】相川 俊
(56)【参考文献】
【文献】米国特許第06771294(US,B1)
【文献】米国特許出願公開第2015/0269783(US,A1)
【文献】特開2014-067388(JP,A)
【文献】国際公開第2014/156706(WO,A1)
(58)【調査した分野】(Int.Cl.,DB名)
G06F 3/01
G06T 19/00
G06F 3/0484
(57)【特許請求の範囲】
【請求項1】
ヘッドマウントディスプレイであって、
現実空間を撮影し撮影映像を得るカメラと、
表示部と、
制御装置を有し、
前記制御装置は、
前記カメラで撮影された撮像映像に基づいた現実空間に第1のARオブジェクトを表示して形成されるMR空間の表示映像を前記表示部に表示し、
前記撮影映像から操作画面表示物体を検知し、
前記操作画面表示物体の前面に前記MR空間内の前記第1のARオブジェクトに対応する第2のARオブジェクトを含む映像を前記第1のARオブジェクトを表示して形成される前記MR空間の操作画面として前記表示部に表示する
ことを特徴とするヘッドマウントディスプレイ。
【請求項2】
請求項1に記載のヘッドマウントディスプレイであって、
前記操作画面の映像は、前記撮影映像とARオブジェクトとから成るMR空間の映像であることを特徴とするヘッドマウントディスプレイ。
【請求項3】
請求項1に記載のヘッドマウントディスプレイであって、
前記制御装置は、前記操作画面上の指示物体の動きを認識し、前記指示物体の動きにより、前記MR空間のARオブジェクトを操作することを特徴とするヘッドマウントディスプレイ。
【請求項4】
請求項3に記載のヘッドマウントディスプレイであって、
前記指示物体は指であり、指の動きによりARオブジェクト、及び操作画面が操作されることを特徴とするヘッドマウントディスプレイ。
【請求項5】
請求項4に記載のヘッドマウントディスプレイであって、
前記操作画面表示物体は手のひらであることを特徴とするヘッドマウントディスプレイ。
【請求項6】
請求項5に記載のヘッドマウントディスプレイであって、
前記制御装置は、操作画面を表示する前記手のひらの指で前記指示物体の動きを認識し、指の折り曲げ、または、指の開閉のうち少なくとも1つを認識することを特徴とするヘッドマウントディスプレイ。
【請求項7】
請求項1に記載のヘッドマウントディスプレイであって、
前記制御装置は、現実空間の現実物体、背景、及びARオブジェクトをパターン化した映像に変換し、前記パターン化した映像を合成して、前記操作画面の映像とすることを特
徴とするヘッドマウントディスプレイ。
【請求項8】
請求項1に記載のヘッドマウントディスプレイであって、
前記制御装置は、前記MR空間のARオブジェクトをドラッグする操作により選択したARオブジェクトを前記操作画面の映像とすることを特徴とするヘッドマウントディスプレイ。
【請求項9】
請求項1に記載のヘッドマウントディスプレイであって、
ヘッドマウントディスプレイの動きを検知するセンサを備え、
前記制御装置は、ヘッドマウントディスプレイが下向きに回転移動したことを検知し、さらに前記操作画面表示物体を検知した場合、ヘッドマウントディスプレイが下向きに回転移動する前のMR空間の映像を前記操作画面の映像とすることを特徴とするヘッドマウントディスプレイ。
【請求項10】
請求項1に記載のヘッドマウントディスプレイあって、
前記現実空間を撮影し撮影映像を得るカメラは、前記MR空間の表示範囲よりも広角の撮影映像を得るカメラであって、
ヘッドマウントディスプレイの動きを検知するセンサを備え、
前記制御装置は、ヘッドマウントディスプレイが下向きに回転移動したことを検知し、前記操作画面表示物体を検知した場合、前記広角の撮影映像の切り出し位置を上方にずらした映像を含むMR空間の映像を前記操作画面の映像とすることを特徴とするヘッドマウントディスプレイ。
【請求項11】
請求項1に記載のヘッドマウントディスプレイであって、
透過型光学系とARオブジェクトを投影する表示光学系を備え、
前記制御装置は、透過型光学系を通して視認する現実空間に前記表示光学系で投影するARオブジェクトを重ね合わせて前記MR空間を得ることを特徴とするヘッドマウントディスプレイ。
【請求項12】
請求項1に記載のヘッドマウントディスプレイであって、
前記現実空間内の現実物体の距離を測定するカメラを備え、
前記制御装置は、前記現実物体の距離に基づいて、前記現実物体とARオブジェクトの遠近を反映したMR空間の表示映像を生成することを特徴とするヘッドマウントディスプレイ。
【請求項13】
請求項1に記載のヘッドマウントディスプレイであって、
前記制御装置は、前記操作画面表示物体の傾きを検出し、前記検出した傾きに応じて、前記操作画面の縦方向のサイズまたは横方向のサイズまたは形状のうち少なくとも1つを変更することを特徴とするヘッドマウントディスプレイ。
【請求項14】
請求項13に記載のヘッドマウントディスプレイであって、
前記制御装置は、前記操作画面の前記検出した傾きの方向のサイズを変更することを特徴とするヘッドマウントディスプレイ。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、現実空間と仮想空間(仮想物体とも記す)とを重畳して表示する複合現実(MR:Mixed Reality)システムに用いるヘッドマウントディスプレイ(HMD:Head Mount Display)に関する。
【背景技術】
【0002】
現実空間に映像や文字などの仮想物体(ARオブジェクト:Argument Realityオブジェクト)の映像を重ね合わせて表示させ、視認させることが、ゲームや保守作業等のコンテンツに用いられている。ゲームの一例として、公園、駅等の公共の場に配置したキャラクタ(ARオブジェクト)を捕まえて、捕まえたキャラクタの種類や得点を競うものがあり、保守の一例としては、エレベータの狭いピットの中で、作業指示映像(ARオブジェクト)に従って作業を行なうような場合がある。
【0003】
ここで、ARオブジェクトを表示するために、ARトリガーあるいはマークと呼ばれる映像をカメラで背景と同時に撮影して、ARトリガーで紐付けするARオブジェクトを現実空間に配置する。あるいは、ユーザのいる現実空間を空間座標系に対応付け、任意の空間座標位置へARオブジェクトを配置することで重畳するなどの方法がある。
【0004】
MRシステムでは、カメラと表示光学系、及びセンサとが一体化されたHMDをユーザが装着して、カメラで現実空間を撮影し、現実空間を、センサを用いて空間座標系で表す。表示光学系では、ARオブジェクトを空間座標系の任意の位置に配置し、現実空間にARオブジェクトの映像を重畳表示する。さらにMRシステムでは、現実空間内に置いたユーザの手などをカメラで撮影し、手の動き、即ちジェスチャでARオブジェクトを操作することも行われる。しかしながらジェスチャによる操作は、公共の場では、周りの人の迷惑になり、狭い場所では、ジェスチャのような大きな動きをすることが困難である。
【0005】
本技術分野における従来技術として特許文献1がある。特許文献1では、手のひら、及び近傍に操作入力用の映像を投影し、手のひらの動きにより、操作入力を特定することを特徴とする情報入力装置が開示されている。
【先行技術文献】
【特許文献】
【0006】
【文献】特開2018-73170号公報
【発明の概要】
【発明が解決しようとする課題】
【0007】
MRシステムでは、MR空間(現実空間にARオブジェクトが重畳された空間)の任意のARオブジェクトを選択して、MR空間の変化に反応して、ARオブジェクトを操作するという、直感的な操作が必要である。しかしながら、特許文献1で開示されている手のひらに投射される操作入力用の釦を選択する方法では、MR空間の中で直感的な操作を実現することは困難である。
【0008】
本発明は上記の点を鑑みてなされたものであり、その目的は、公共の場、狭い場所等でも使用可能なMRシステムのHMDであって、MR空間の任意のARオブジェクトを選択して、MR空間の変化に反応して、直感的にARオブジェクトの操作が可能なHMDを提供することにある。
【課題を解決するための手段】
【0009】
本発明は、上記課題を解決するために、その一例を挙げるならば、現実空間にARオブジェクトを表示してMR空間を形成するヘッドマウントディスプレイであって、現実空間を撮影し撮影映像を得るカメラと、現実空間内の現実物体の距離を測定する測距カメラと、制御装置を有し、制御装置は、撮影映像から現実物体を認識する撮影オブジェクト処理と、ARオブジェクトを得てARオブジェクトに現実空間内の距離を含む位置を与えるARオブジェクト処理と、現実物体とARオブジェクトの遠近を反映しMR空間の表示映像を生成する表示映像生成処理を備え、さらに撮影映像から操作画面表示物体を検知する処理と、操作画面表示物体の前面にMR空間の操作画面を表示する処理を有し、操作画面の映像は、MR空間内のARオブジェクトを含む。
【発明の効果】
【0010】
本発明によれば、ユーザは、操作画面に映し出されているARオブジェクトを直接操作することができ、MR空間の中で直感的な操作が可能となる。
【図面の簡単な説明】
【0011】
図1】実施例1におけるHMDの概略外観構成図である。
図2】実施例1におけるHMDの構成ブロック図である。
図3】実施例1におけるMR空間の表示映像の例である。
図4】実施例1におけるMR空間の操作方法を説明する図である。
図5】実施例1におけるMR処理の全体制御プロセスのフロー図である。
図6】実施例1における撮影オブジェクトプロセスのフロー図である。
図7】実施例1におけるARオブジェクトプロセスのフロー図である。
図8】実施例1における表示映像生成プロセスのフロー図である。
図9】実施例1における操作認識プロセスのフロー図である。
図10】実施例2における操作画面上のARオブジェクトを片手操作で選択する説明図である。
図11】実施例2における操作画面の拡大や縮小を片手操作で行なう説明図である。
図12】実施例3における操作画面の映像を簡略化し見やすくする説明図である。
図13】実施例3における操作画面生成と表示のフロー図である。
図14】実施例4における操作画面の映像にはARオブジェクトのみを映す説明図である。
図15】実施例5における操作画面の楽な体制での操作方法の説明図である。
図16】実施例6におけるユーザが手を持ち上げて手のひらを前にかざさなくてもよい操作方法の説明図である。
図17】実施例7における広角カメラの撮影範囲とMR空間の表示映像と操作画面との関係を示す説明図である。
【発明を実施するための形態】
【0012】
以下、図面を参照しながら、本発明の実施例について説明する。
【実施例1】
【0013】
図1は、本実施例におけるHMDの概略外観構成図である。図1において、1はHMD、10はカメラ、11は測距カメラ、12a、12bは表示光学系(映像投影部)、13はレンズやスクリーン等の透過型光学系、14はノーズパッド、15はコントローラ(制御装置)、16はスピーカ、17はマイク、18a、18b、18cはフレーム筐体である。
【0014】
ユーザは、フレーム筐体18a、18bとノーズパッド14で、HMD1を自身の顔部に装着する。
【0015】
カメラ10は、ユーザの視線前方を撮影するように取り付けられており、測距カメラ11は、カメラ10の撮影映像が捉える現実空間の現実物体(壁などの背景を含む)との距離を測定する。
【0016】
測距カメラ11は、現実物体の輪郭等の特徴点に対してステレオカメラのような方式で距離を算出するものでも良いし、TOF(Time of Flight)方式のように2次元的に光線を照射して距離を計測するものでもよく、カメラ撮影映像に対応して、現実物体との距離を測定できるものであれば良い。
【0017】
表示光学系12a、12bは、仮想物体(ARオブジェクト)を、左目で確認する映像と右目で確認する映像を透過型光学系13に投射して表示する。ユーザは前方の風景や現実物体を、透過型光学系13を通して見ることができ、表示光学系12a、12bから投射する仮想物体を透過型光学系13により、現実空間の所定の位置にあるように視認する。
【0018】
コントローラ15は、カメラ10で撮影した現実空間の映像、測距カメラ11で取得した現実物体などの現実空間の位置データを取り込み、内部のメモリやCPUに供給する。また、ジャイロ、方位、位置、接触センサ等のセンサ群を内蔵する。さらに表示光学系12a、12bで投射する映像やスピーカ16に出力する音を作成する。コントローラ15、カメラ10、測距カメラ11、スピーカ16、マイク17は、フレーム筐体18a、18b、18cに配置される。なお、配置場所は図1の通りでなくてもよい。
【0019】
さらにコントローラ15は、主にCPUで処理するユーザとのユーザインターフェース(UI)を含む。ユーザインターフェースとしては、後述する操作入力処理を含む。
【0020】
図2は、本実施例におけるHMD1の構成ブロック図である。図2において、図1と同一のものには同一の番号を付している。51は特徴抽出処理部、52は距離算出処理部、53はセンサ群、54は通信部、55はCPU、56はRAM、57は映像RAM、58はプログラムFlash ROM(FROM)、59はデータFROMである。
【0021】
表示光学系12は、図1の表示光学系12a、12bに対応する。表示光学系12は、12a、12bのように左目の映像と右目の映像を独立に透過型光学系13に投射させる。他に、ひとつのプロジェクタでインターリーブした左目の映像と右目の映像を投射し、シャッタ光学系で左目の映像と右目の映像をそれぞれの目に透過させるものであっても良い。さらには、ホログラフィックレンズを用いた光学系でも良い。
【0022】
通信部54には、HMD1にネットワーク2を接続できる。ネットワーク2上の外部サーバ(図示略)で、HMD1の処理の一部を実行してもよい。
【0023】
プログラムFROM58には、処理プログラムを構成する全体制御プロセス81、撮影オブジェクトプロセス82、ARオブジェクトプロセス83、表示映像生成プロセス84、操作認識プロセス85等が含まれる。これらの処理プログラムは、RAM56に展開して、CPU55で実行する。さらにデータFROM59には、これら処理プログラムを実行する過程及び結果で発生するデータを格納することができる。
【0024】
なお、プログラムFROM58とデータFROM59は、図示したように別々のメモリ媒体で構成しても良いし、ひとつのメモリ媒体で構成しても良い。さらには2つ以上のメモリ媒体であっても良く、FROM以外の不揮発性のメモリ媒体であっても良い。またデータFROM59は、そのデータの一部をネットワーク2上にある外部サーバに置いても良い。表示映像生成プロセス84で生成する映像データは、映像RAM57に格納し、映像RAM57から読み出して表示光学系12で投射する。
【0025】
図3は、本実施例におけるMR空間の表示映像の例である。図3において、100はMR空間及びその映像、101から106はARオブジェクトであり、ARオブジェクト以外の映像は、現実空間としてユーザが透過型光学系13を通して視認している背景である。
【0026】
図3において、ユーザが視認している背景は街角であり、ユーザは例えば経路案内アプリを使って、□□駅に向かおうとしている。ユーザのいるところから30m先を右折することをARオブジェクト103が案内しており、右折した方向に□□駅があることをARオブジェクト104が案内している。さらに背景の説明をARオブジェクトは示している。ARオブジェクト101は、背景の正面やや左にいる人物を認識して、ユーザの交流関係と照合して、友人Aであることを示し、また正面右のお店の看板「トゥルヌッソル」を認識して、お店の代表的なメニューの例をARオブジェクト102で表示している。
【0027】
またユーザは、小動物(キャラクタ)を捕獲するゲームを楽しんでいる。ARオブジェクト105、106は、ゲームのキャラクタである。キャラクタは移動することもあり、キャラクタを捕獲するには、キャラクタの表示位置に合わせた操作が必要である。
【0028】
図4は、本実施例におけるMR空間の操作方法を説明する図である。図4(a)において、1はHMD、3はユーザ、3aはユーザの手のひらである。ユーザ3は、MR空間で操作を開始する場合に、ユーザの手のひら3aをHMD1のカメラ撮影範囲内にかざす。
【0029】
図4(b)は、ユーザの手のひら3aを検出して、ユーザの手のひら3aの上、もしくはその前面に操作画面107を表示した、MR空間の表示映像を示している。操作画面107は、HMD1のMR空間の表示映像から、ユーザの手のひら3aを除去した映像である。ユーザの手のひら3aの除去は、例えばユーザの手のひら3aをかざす前の映像を記憶しておき、ユーザの手のひら3aの領域を、記憶している映像に置き換えることにより得る。またユーザ3は、ユーザの手のひら3aによって操作しようとしているARオブジェクトが隠されてしまわないように、ユーザの手のひら3aの位置を、例えば左右に動かして調整する。
【0030】
3bは、ユーザのかざしている手のひら3aとは異なる手の指であり、操作画面107内のARオブジェクトを指差して、ARオブジェクトを操作する指示物体である。操作できる内容はARオブジェクトにより異なり、例えば、図4(b)では、ARオブジェクト106を選択することで、ARオブジェクト106のキャラクタを捕獲する。他にも、ARオブジェクトを選択することで、操作できるメニュー表示を表示し、さらに指をスライドすることにより、メニュー内の操作を選択するようにしてもよい。
【0031】
このように、ユーザは、ユーザの手のひらの上、もしくは前面に、操作用の子画面である操作画面を表示し、操作画面に映し出されているARオブジェクトを直接操作することができる。したがって、手のひらの上で操作することが出来、空間内で大きな動きを行なう必要がなく、MR空間の中で直感的な操作が可能となる。
【0032】
図5は、本実施例におけるMR処理の全体制御プロセス81のフローである。図5において、S100でプロセスを開始する。S101で必要に応じてHMD1を使用するためにログインする。ログインサーバは、イントラネットワークのパソコンであっても良いし、外部のネットワーク2を介して繋がるサーバであっても良い。あるいは、HMD1内で処理してもよい。ログインすることにより、あらかじめ登録してあるユーザ固有の設定(ユーザ情報)をデータFROM59から呼び出す。ユーザ固有の設定とは、たとえば、そのユーザにとって見やすい輝度、コントラスト、配色、メニュー表示位置などの表示に関する設定が挙げられる。その他にユーザの名前やアバターなどのアイコンでもよい。
【0033】
S102でカメラ10および測距カメラ11を用いて現実空間を撮影する。カメラ撮影は、MR処理全体を実行するタイミングで行っても良いし、例えば30fps(frame per second)の動画撮影を継続していて、MR処理全体を実行するタイミングで撮影映像をキャプチャするようにしても良い。
【0034】
S103では撮影オブジェクトプロセス82を実行し、キャプチャしたカメラ撮影映像の特徴抽出を行い、特徴点を選び、特徴点の集合に対して現実物体の形状等を特定し撮影オブジェクトとして登録する。例えば、人物とか店舗の看板とか現実空間を特徴付けるものが、撮影オブジェクトとして挙げられる。現実物体はHMD1の中では、撮影オブジェクトデータとして取り扱われる。現実空間の中で、部屋の壁や遠方の風景等は背景を与える撮影オブジェクトとして取り扱う。
【0035】
S104ではARオブジェクトプロセス83を実行し、現実空間に配置するARオブジェクトのデータを、HMD1内のデータFROM59などのメモリから、または外部のネットワーク2を介して繋がるサーバからのダウンロード等で得る。あるいは、コントローラ15の主にCPU55で生成する、あるいは他のアプリで生成するARオブジェクトをインポートしてもよい。
【0036】
S105は表示映像生成プロセス84であり、ARオブジェクトの表示映像を生成する。また操作画面の映像を生成する。
【0037】
S106は操作認識プロセス85であり、カメラ撮影映像から操作画面上の指示物体等の動きをトレースして操作情報を取得し、どのARオブジェクトを選択するのか、選択したARオブジェクトに何の変更を与えるのかを決定する。
【0038】
なお、S104からS106に破線で示したループでは、操作認識プロセス85が実行され、ARオブジェクトのパラメータ等の変更が行われた時、あるいはユーザの手のひらが検出された時、それらのパラメータや状態の操作情報をARオブジェクトプロセス83、表示映像生成プロセス84に与え、表示映像生成プロセス84で表示映像に反映させる。
【0039】
図6は、MR処理における撮影オブジェクトプロセス82のフローである。図6において、S150でプロセスを開始する。S151では、カメラ撮影映像を読み込む。S152では、映像の特徴解析を行い、例えばエッジを抽出し、エッジの頂点や変曲点を特徴点として抽出する。S153では、測距カメラ11やセンサ群53で得る距離等の位置データを特徴点に与える。
【0040】
S154では、特徴点の前回との差を評価し、S155では、評価結果から差が有意な特徴点の集合から、オブジェクトの種別等を検索し特定する。S156は、この結果を撮影オブジェクトとして登録する。S157でフローを終了する。
【0041】
図7は、MR処理におけるARオブジェクトプロセス83のフローである。図7において、S180で開始する。S181でひとつの撮影オブジェクトを選択し、S182でARオブジェクトを選択する。ARオブジェクトの選択候補は、例えばCPU55、通信部54を介して外部のサーバに蓄えられているデータを参照しても良い。S183では、撮影オブジェクトに対するARオブジェクトの紐付けを行なうために、撮影オブジェクトに対する相対位置などの従属するパラメータを選択し、ARオブジェクトの表示映像上の位置、大きさ、方向を与える。例えば、選択された撮影オブジェクトのある特徴点の位置に対するオフセットを与えることにより、位置決めができる。
【0042】
なおS183のステップには、操作認識プロセス85から操作情報が与えられ、パラメータ等の変更が指示される。
【0043】
S184では、ARオブジェクトを紐付ける撮影オブジェクトが残っているかどうかを判定し、残っている場合は(Yes)S181に戻り、Noの場合はS185で終了する。
【0044】
なお、撮影オブジェクトと無関係なARオブジェクト、例えば時計のARオブジェクトを画面内に置いておく等の場合は、S181の撮影オブジェクトの選択は不要であり、S183での撮影オブジェクトに対するARオブジェクトの紐付けも不要である。
【0045】
また、ARオブジェクトプロセス83は、上述したフローに限られるものではない。例えば、HMD1内の主にCPU55で描画等の処理によって生成させる場合もあるし、別のアプリケーションを実行させ、アプリケーションが生成するARオブジェクトをインポートする形態であってもよい。
【0046】
図8は、MR処理における表示映像生成プロセス84のフローである。図8において、S200で開始する。S201で表示しようとするARオブジェクトを選択する。表示するARオブジェクトは、HMD1の表示範囲にある現実物体(HMD1内では撮影オブジェクトとして取り扱われる)に紐付けられたARオブジェクト全てであるが、ひとつ毎に処理を行っている。S202でARオブジェクトが表示設定になっていない場合(No)には、S203からS205をパスする。
【0047】
表示設定がYesの場合、S203でHMD1の方向を考慮した回転処理、ARオブジェクトの距離を考慮した拡大縮小処理を行う。S204では、ARオブジェクトと表示上重なる現実物体との距離関係を評価し、S205でARオブジェクトの表示を行うが、現実物体がARオブジェクトの前にあり、隠れる部分がある場合には、ARオブジェクトのその部分を表示させないように処理する。これにより、現実物体とARオブジェクトの奥行き関係を考慮した、立体的な表示が行なえる。
【0048】
S206で、未処理のARオブジェクトがある場合(Yes)には、S201に戻る。全てのARオブジェクトの処理を終えると表示映像が完成するが、操作認識プロセス85から操作情報に手のひら検出情報が含まれる場合には、S207で検出し、S208で操作画面を生成し、表示映像に加える。S209でフローを終了する。
【0049】
図9は、MR処理における操作認識プロセス85のフローである。図9において、S220で開始する。S221ではカメラ撮影映像の中で、HMD1と近い領域に手のひらが有るかを認識し、有りの場合は操作情報として出力する。S222ではカメラ撮影映像の中で、操作画面上に指等の指示物体が有るかを検出するとともに、有りの場合、指示物体の位置、及び動き検出する。この結果は、S223で判定され、どのARオブジェクトに、何の操作が指示されているのかを特定し、操作情報として出力する。S224でフローを終了する。
【0050】
以上説明したように、本実施例によれば、ユーザは、ユーザの手のひらの上、もしくは前面に操作画面を表示し、操作画面に映し出されているARオブジェクトを直接操作することができるので、大きな動きを行なうことなく、MR空間の中で直感的な操作が可能となる。
【0051】
なお、本実施例では、ユーザの手のひらに操作画面を表示するとして説明したが、これに限らず、例えば、手の甲や腕等の体の一部や、予め定めた本などの手に持てる範囲の物体等を含めた、操作画面を指示する指示物体(指等)が物理的に接触できる物体、すなわち操作画面表示物体であればよい。
【実施例2】
【0052】
本実施例は、操作画面上でARオブジェクトを片手で操作可能とできる例について説明する。
【0053】
図10は、本実施例における操作画面上のARオブジェクトを片手操作で選択する説明図である。図10において、図4(b)と同一の構成については同じ符号を付し、その説明は省略する。図10(a)に示すように、手を開いた状態から、いずれかの指を折り曲げて、折り曲げた指先に最も近いARオブジェクトを選択する。
【0054】
図10(b)は、指を折り曲げただけでは、操作画面の下側にあるARオブジェクトに届かない場合を示している。図示するように、手のひらを傾けることにより、操作画面の縦方向を圧縮し、操作画面の下側にあるARオブジェクトに指先を近づけることができるようにして、ARオブジェクトを選択可能とする。手のひらの傾きは、例えば距離センサで検出する、もしくは、手のひらの画像から縦横比の変化を検出することで、操作画面の表示を縦方向に圧縮する。横方向も、縦方向と同様に、手のひらを左右に傾けることにより横方向を圧縮し折り曲げが容易な指でARオブジェクトを選択可能とすることができる。
【0055】
図11は、本実施例における操作画面の拡大や縮小を片手操作で行なう説明図である。図11において、図10と同一の構成については同じ符号を付し、その説明は省略する。図11(a)では、図示している矢印の方向で指間を広げて、操作画面を拡大する。指間を広げた状態から元に戻す動作で操作画面の拡大縮小はせず、再び指間を広げた時、更に操作画面を拡大させる。これにより、ほぼ制約のない大きさまで操作画面を拡大させることができる。指間の動きは、例えば、手のひらの画像から指の先端を検出し、検出した各指間の距離の変化により検出できる。
【0056】
図11(b)は、操作画面の縮小を行う操作である。図示している矢印の方向に指間を狭めて、操作画面を縮小する。拡大の場合と同様、連続した操作により、ほぼ制約のない縮小した操作画面を得ることができる。
【0057】
以上説明したように、本実施例によれば、片手で、かつ小さな動きの動作で、ARオブジェクト等の操作が可能となる。
【実施例3】
【0058】
本実施例は、操作画面の映像を簡略化し、見やすくする例について説明する。
【0059】
図12は、本実施例におけるMR空間の表示映像を示している。図12において、図4(b)と同一の構成については同じ符号を付し、その説明は省略する。図12(a)は、図4(b)に示したものと同じMR空間であるが、操作画面107の映像が異なる。図12(b)は、説明のために、図12(a)における操作画面107を拡大した図である。図12(b)に示すように、操作画面107の映像は、図4(b)の操作画面107の簡略化した映像を表示している。
【0060】
図13は、本実施例における、図8の表示映像生成プロセス84の操作画面生成と表示のステップS208に相当する処理のフローである。図13において、S250で開始し、S251で、カメラ撮影映像と撮影オブジェクトのデータを受信する。
【0061】
S252では、撮影オブジェクトに対してパターン映像を割り当て、S253ではパターン映像を描画する色を決定する。色は1色でなくてもよく、パターン映像の上部と下部で色を変えてもよく、パターン映像の枠と内側で異なる色としてもよい。同様にS254は、ARオブジェクトに対してパターン映像を割り当て、S255で描画する色を決定する。さらにS256は、背景形状をパターン映像化し、S257で描画する色を決定する。S258では、撮影オブジェクト、ARオブジェクトと背景のパターン映像を合成し、図12の107で示す操作画面を得て出力する。S259で終了する。
【0062】
以上説明したように、本実施例によれば、操作画面の簡素化が図れ、操作画面の中でARオブジェクトを容易に選択しやすくなる。
【実施例4】
【0063】
本実施例では、操作画面の映像にはARオブジェクトのみを映す例について説明する。
【0064】
図14は、本実施例における操作画面の映像にはARオブジェクトのみを映す説明図である。図14において、図4(b)と同一の構成については同じ符号を付し、その説明は省略する。
【0065】
図14(a)は、ARオブジェクトを選択する図であり、ユーザはARオブジェクトを指差すことにより選択する。選択後、ユーザはARオブジェクトを指していた指を、図中の破線矢印の方向に動かす(ドラッグする)。
【0066】
図14(b)は、図14(a)で選択したARオブジェクトを操作画面107として表示する。表示するため、指を十分下方に動かした後で、手のひら3aを開くと、手のひら3aの前面に操作画面107を表示する。操作画面107の映像は、選択したARオブジェクトである。そして、ユーザは、操作画面107上のARオブジェクトを操作することが出来る。
【0067】
なお、ARオブジェクトの選択は、指差し以外でもよい。例えば、HMD1は、ユーザ3の視線を検出する手段を備える構成とし、視線が捉えるARオブジェクトを選択するようにしてもよい。
【0068】
以上説明したように、本実施例によれば、操作対象のARオブジェクトのみを操作画面に映し出しており、操作対象のARオブジェクトの細部まで手元で視認できる。また、操作対象のARオブジェクトを操作しやすい場所に移動して操作できるので、操作性が向上するという効果がある。
【実施例5】
【0069】
本実施例では、ユーザが手を持ち上げて、手のひらを前にかざした後、手や頭を下げて楽な体制での操作画面の操作方法の例について説明する。
【0070】
図15は、本実施例における操作画面の楽な体制での操作方法の説明図である。図15において、図4と同一の構成については同じ符号を付し、その説明は省略する。
【0071】
図15(a)の左図(a1)では、実施例1と同様に、ユーザ3は、手を上げた状態で視線を前方に向けている。HMD1はカメラの撮影範囲に、ユーザの手を捉え、操作画面を手のひら上に表示する。ユーザ3は、例えば、手を開いた状態から、握った状態にすることで、操作画面でコントロール可能なARオブジェクトを確定する。ユーザ3は、再度手をひらき、左図(a1)の姿勢から、右図(a2)のように、手および顔を下に向けた楽な姿勢で、先に確定した操作画面でARオブジェクトを操作する。
【0072】
図15(b)は、図15(a)に対応させて、MR空間の映像の変化を示している。(a1)の姿勢のとき、MR空間の映像は100であり、前方の現実空間とARオブジェクトを映し出している。HMD1はこの映像を数秒程度の内部メモリに巡回的に、過去の映像を上書きするように保存する。
【0073】
図15(a2)のようにユーザの姿勢が移動すると、MR空間の映像は100aへと変化し、100の下部を映し出す。ユーザ3の手のひら3aには先に確定した操作画面107が表示されている。操作画面107に映し出されている映像は、(a1)の姿勢のときの映像であり、ユーザ3は(a1)の姿勢の時のARオブジェクトを選択して操作する。確定された操作画面107を解除し、現在見えているMR空間の映像100aにするには、確定した時と同様に、開いた手のひらを握る、または、指3bをARオブジェクトのないところから、外にスライドさせる等のジェスチャを解除コマンドとして登録し、該当するジェスチャを実行することで、容易に操作が可能である。
【0074】
以上説明したように、本実施例では、ユーザは楽な姿勢で、MR空間の操作が可能となる。
【0075】
なお、本実施例では、操作画面内107で実画像の背景は固定にはなるが、動きのあるARオブジェクトの動作を止める必要はない。ARオブジェクトの処理範囲を、MR空間の映像100および100aにすることで、操作画面内107のARオブジェクトをMR空間の映像100に表示している画像と同様に動かしたままとすることができる。
【0076】
また、操作画面の確定、解除は、上記ジェスチャに限ったことではなく、例えば、他のジェスチャや、音声、手のひらを数秒認識する等で操作画面の確定を行ってもよい。
【実施例6】
【0077】
本実施例では、ユーザが手を持ち上げて、手のひらを前にかざさなくてもよい操作方法の例について説明する。
【0078】
図16は、本実施例におけるユーザが手を持ち上げて手のひらを前にかざさなくてもよい操作方法の説明図である。図16において、図15と同一の構成については同じ符号を付し、その説明は省略する。
【0079】
図16(a)では、ユーザ3は、手を下げた状態で視線を前方に向けている。この姿勢では、HMD1はカメラの撮影範囲に、ユーザの手を捉えていない。この姿勢から、ユーザ3はMR空間で操作をするために、図16(b)のように、顔を下に向け、HMD1が手のひら3aをカメラの撮影範囲内となるようにする。この時ユーザは、手を動かす必要はない。
【0080】
MR空間の映像の変化は、図15(b)と同様になる。図16(a)の姿勢のとき、MR空間の映像は100であり、前方の現実空間とARオブジェクトを映し出している。この時、HMD1はこの映像を数秒程度の内部メモリに巡回的に、過去の映像を上書きするように保存する。
図16(b)にユーザの姿勢が移動すると、MR空間の映像は100aへと変化し、100の下部を映し出すとともに、ユーザの手のひら3aを捉える。この動きはHMD1のセンサ群53で検知され、HMD1は映像を内部メモリに保存することを停止し、直前の図16(a)で保存した映像を読み出し、操作画面の映像とする。操作画面107に映し出されている映像は、図16(a)の姿勢のときの映像であり、ユーザ3は図16(a)の姿勢の時のARオブジェクトを選択して操作する。
【0081】
以上説明したように、本実施例では、ユーザは僅かに頭を下に向けるという動きだけで、MR空間の操作が可能となる。
【実施例7】
【0082】
本実施例では、映像表示部の視野角が比較的狭い場合でも、広角のカメラを用い、実施例5あるいは実施例6と同等の効果を得る、かつ、操作画面の背景となる現実空間画像をリアルタイム動画にする例について説明する。
【0083】
図17は、本実施例における広角カメラの撮影範囲とMR空間の表示映像と操作画面との関係を示す説明図である。図17において、図4(b)と同一の構成については同じ符号を付し、その説明は省略する。
【0084】
図17において、108は、図15の(a1)の姿勢で、広角のカメラ10が光学的に撮影している範囲であり、広角のカメラ10は、108の範囲の中から、100と100bを合わせた範囲に相応した撮像素子により、広角撮影を行う。
【0085】
図15(a1)の姿勢で、MR空間は、100(実線)の範囲である。100は、透過型光学系13を通して見える現実空間の背景であり、表示光学系12でARオブジェクトを投影した映像がMR空間である。広角のカメラ10は透過型光学系13を通して見える現実空間よりも、上部100bの範囲に広角な撮影範囲を有する。
【0086】
この状態から、ユーザが図15(a2)の姿勢に移行すると、広角カメラの光学的な範囲は108aに移動する。この時、MR空間の映像は100aとなり、ユーザの手のひら3aを捉える。手のひら3aの前面に、操作画面を映し出すが、その映像は、広角な撮影範囲の上部の領域100の映像とすることにより、MR空間の操作範囲であるユーザが操作するMR空間は姿勢の移行の前後で変わることがない。この時、HMD1は、MR空間100とMR空間100aの範囲で、ARオブジェクトの生成、重畳処理を行う。
【0087】
さらに、広角のカメラで操作範囲の映像を撮影し続けているので、リアルタイムの実空間画像が得られるとともに、撮影ARオブジェクトもリアルタイムに追従可能である。
【0088】
以上説明したように、本実施例でも、ユーザは楽な姿勢の操作や、僅かに頭を下に向けるという動きだけで、MR空間の操作が可能となり、かつ、変化する実空間の映像に沿ったARオブジェクトを表示、操作可能になる。
【実施例8】
【0089】
実施例1では、透過型光学系を用いて、ARオブジェクトを透過型光学系に投射して表示するとともに、ユーザは、前方の風景や現実物体を透過型光学系を通して見る構成としていた。これに対して、本実施例では、ビデオスルー方式のHMDを用いる例について説明する。
【0090】
ビデオスルー方式とは、前方の風景や現実物体をカメラで撮影したビデオ映像とARオブジェクトを合成して表示装置に表示する構成である。なお、本実施例におけるHMDの構成ブロック図は省略する。また、カメラを一対のカメラで構成し、左右視差のあるカメラ撮影映像を得るだけでなく、視差情報からカメラ撮影映像内の現実物体や背景の距離等の位置情報を得る3Dカメラとしてもよい。
【0091】
透過型光学系を用いた場合、現実空間へのARオブジェクトの貼り付けにおいて、視差の影響等でずれが生じる可能性があるが、本実施例のようにビデオスルー方式とすることで、ビデオ映像とARオブジェクトとの合成時に視差の影響等を調整でき、ずれがない合成映像を生成できる。
【0092】
以上、本発明の実施例について説明したが、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために構成を詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成と置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。また、上記の各構成、機能、処理部は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、ハードウェアとソフトウェアを併用しても良い。
【符号の説明】
【0093】
1:ヘッドマウントディスプレイ(HMD)、3:ユーザ、3a:ユーザの手のひら、3b:ユーザの指、10:カメラ、11:測距カメラ、12、12a、12b:表示光学系(映像投影部)、13:透過型光学系、15:コントローラ、51:特徴抽出処理部、52:距離算出処理部、53:センサ群、54:通信部、55:CPU、56:RAM、57:映像RAM、58:プログラムFROM、59:データFROM、81:全体制御プロセス、82:撮影オブジェクトプロセス、83:ARオブジェクトプロセス、84:表示映像生成プロセス、85:操作認識プロセス、100、100a:MR空間及びその映像、101、102、103、104、105、106:ARオブジェクト、107:操作画面。
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14
図15
図16
図17