【実施例】
【0027】
以下、図面を参照して本発明の好適な実施例について説明する。
[装置構成]
まず、本実施例に係るヘッドマウントディスプレイ(以下、適宜「HMD」と表記する。)の構成について説明する。
【0028】
図1は、本実施例に係るHMD1の概略構成を示すブロック図である。
図1に示すように、HMD1は、主に、制御部11と、カメラ12と、光学透過可能な画像表示デバイス13とを有する。HMD1は、例えば眼鏡型に構成されており、ユーザの頭部に装着可能に構成されている。また、HMD1は、画像表示デバイス13を用いることで、外界に存在する対象物(例えば、現実空間における人物や物体、物品、景色等)のユーザによる視認を可能とし、対象物の像(現実の像)に対して仮想の画像を重ね合わせて表示させることで、AR(拡張現実)を実現する。
【0029】
カメラ(撮影手段)12は、HMD1の前方を撮影し、撮影画像を生成する。カメラ12は、内部パラメータが既知のピンホールカメラ、あるいはレンズ歪みが補正されかつ内部パラメータが既知のカメラである。
【0030】
画像表示デバイス13は、撮影画像に応じた情報(以下、「提示情報」と呼ぶ。)を対象物の像とオーバーラップしてユーザに視認せしめる。
【0031】
制御部11は、図示しないCPUやRAMやROMなどを有し、HMD1の全体的な制御を行う。具体的には、制御部11は、カメラ12から撮影画像を取得し、提示情報を画像表示デバイス13上でユーザに視認させるための制御を行う。この場合、制御部11は、撮影画像を解析することで、提示すべき提示情報を決定すると共に、提示情報を提示する提示位置を決定し、当該提示情報を当該提示位置に表示させる制御を行う。
【0032】
なお、制御部11は、本発明における「校正手段」及び「表示制御手段」の一例に相当する。具体的には、制御部11は、「第1推定手段」、「第2推定手段」、「第3推定手段」、「第4推定手段」、「第5推定手段」、「第6推定手段」、「第1パラメータ算出手段」、「第2パラメータ算出手段」、「第3パラメータ算出手段」として機能する。これらの詳細については後述する。
【0033】
図2は、本実施例に係るHMD1の全体構成を概略的に示した図である。
図2に示すように、HMD1は、眼鏡型に構成されており、カメラ12及び画像表示デバイス13がフレーム14に固定されている。なお、
図2では、制御部11の図示を省略している。また、
図2では、左目用の画像表示デバイス13のみを示し、右目用の画像表示デバイス13の図示を省略している。なお、両目に対して画像表示デバイス13を適用することに限定はされず、片目のみに画像表示デバイス13を適用することとしても良い。つまり、片目のみに画像を表示させることとしても良い。
【0034】
また、
図2に示すように、カメラ12及び画像表示デバイス13には、それぞれ、マーカ12a及びマーカ13aが付加されている。これらのマーカ12a、13aは、後述する校正方法にて用いられる。マーカ12a、13aの大きさや形状は、制御部11が把握しているものとする。加えて、カメラ12の光学中心(optical center)とマーカ12aとの位置関係、及び画像表示デバイス13とマーカ13aとの位置関係についても、制御部11が把握しているものとする。
【0035】
なお、
図2に示すようにマーカ12a、13aを4つ設けることに限定はされず、また、
図2に示すような位置にマーカ12a、13aを設けることに限定はされない。更に、HMD1を眼鏡型に構成することに限定はされず、ヘルメットのようなもので構成しても良い。
【0036】
図3は、本実施例に係る画像表示デバイスの概略構成を示す側面図である。LCD13bに表示された画像は、レンズ13cとハーフミラー13dを用いてユーザの眼から距離hの位置に虚像40(以下、「仮想スクリーン」あるいは単に「スクリーン」と表記することがある。)を結ぶ。レンズ13cによって虚像40に歪みが生じる可能性があるが、制御部11によって画像を補正する。画像表示デバイス13と仮想スクリーン40の位置関係は、制御部11が把握しているものとする。本実施例の画像表示デバイスは特に制限されるわけではない。光学ガラスやプラスチック材料等からなる導光板を有していてもよい。また、LCDではなく例えばOELD等を用いてもよい。また、ハーフミラーではなくホログラム光学素子等を用いてもよい。また、レンズは2枚以上用いてもよく、レンズを用いなくてもよい。
【0037】
[校正方法の概要]
次に、本実施例に係る校正方法の概要について説明する。
上記したように、制御部11は、現実空間に提示情報を提示するAR(拡張現実)を実現するに当たり、カメラ12の撮影画像を解析し、それに基づいて提示情報及び提示位置を決定して、画像表示デバイス13に表示し、ユーザは仮想スクリーン40を視認する。ところで、ユーザが実際に見ている風景とカメラ12の撮影画像とでは、視点(どこから見ているか)や、視角(画角)や、視軸が異なる傾向にある。そのため、カメラ12の撮影画像を解析して決定した提示位置に提示情報を表示した場合に、ユーザが見ている現実空間の中でずれた位置に提示情報が表示されてしまう可能性がある。
【0038】
図4は、提示情報がずれた位置に表示されてしまうといった問題点を説明するための図を示している。
図4(a)は、HMD1を装着したユーザが実際に視認する像の一例を示している。具体的には、
図4(a)は、ユーザの視野の適切な位置に提示情報(施設A、施設Bといった文字や、建物を囲んだ丸や、引き出し線など)が表示された場合の例を示している。
図4(b)は、カメラ12の撮影画像の一例を示している。具体的には、
図4(b)は、カメラ12の撮影画像が、ユーザが実際に見ている風景とずれている場合の例を示している。
図4(c)は、HMD1を装着したユーザが視認する像の他の例を示している。具体的には、
図4(c)は、
図4(b)に示したような撮影画像を解析して決定した提示位置に提示情報を表示させた場合の例を示している。これより、ユーザの視野の適切な位置に提示情報が表示されていないことがわかる。つまり、提示情報を表示すべき位置からずれた位置に、提示情報が表示されていることがわかる。
【0039】
本実施例では、このような提示情報がずれた位置に表示されてしまうといった問題を解消するべく、HMD1についての校正を行う。ここで、「校正」とは、カメラ12にて規定される座標系(カメラ座標系)から、仮想スクリーン40にて規定される座標系(スクリーン座標系)への変換を決定することに相当する。具体的には、本実施例では、HMD1を装着したユーザの鏡像をカメラ12によって撮影し、その撮影画像に基づいて、画像表示デバイス13を介して観察される観察対象と提示情報とのユーザの視界における位置関係を調整する。
【0040】
図5は、本実施例に係る校正方法の概要を説明するための図を示す。本実施例では、校正を行う場合に、HMD1とともに、
図5(a)に示すような鏡30を用いる。そして、
図5(b)に示すように、鏡30に形成された、HMD1を装着したユーザの鏡像を、カメラ12によって撮影する。このような撮影を行う場合、鏡30は、反射面がユーザのほうを向き、ユーザの顔面と概ね正対し、ユーザの頭部が映るように配置されるものとする。なお、鏡30は、特殊なものを用いる必要はなく、手鏡などの身近にあるものを用いても良い。
【0041】
制御部11は、HMD1を装着したユーザの鏡像の撮影画像に基づいて、カメラ12、画像表示デバイス13及び目20の位置関係を推定する。具体的には、制御部11は、撮影画像から、カメラ12に付加されたマーカ12aを検出することで、カメラ12の光学中心位置及び光軸方向を推定する。この場合、制御部11は、マーカ12aの大きさや形状、及びカメラ12の光学中心とマーカ12aとの位置関係に基づいて、カメラ12の光学中心位置及び光軸方向を推定する。また、制御部11は、撮影画像から、画像表示デバイス13に付加されたマーカ13aを検出することで、画像表示デバイス13の位置及び方向を推定する。この場合、制御部11は、マーカ13aの大きさや形状、及び画像表示デバイス13とマーカ13aとの位置関係に基づいて、画像表示デバイス13の位置及び方向を推定する。
【0042】
更に、制御部11は、撮影画像から、ユーザの目20の黒目の部分を検出することで(黒目の大きさは既知であるものとする)、目20の3次元位置を推定する。この場合、制御部11は、目20の位置として、瞳孔中心位置を推定する。なお、瞳孔中心位置は眼球運動によって変化するため、撮影を行う際には、視軸(見ている方向)が鏡30に概ね正対するようにユーザに注目させ、さらに校正中はユーザに眼球運動を行わせないようにする。
【0043】
制御部11は、このように撮影画像から推定された、カメラ12の光学中心位置及び光軸方向、画像表示デバイス13の位置及び方向、及び瞳孔中心位置に基づいて、HMD1についての校正を行う。具体的には、制御部11は、当該校正として、カメラ座標系からスクリーン座標系へ座標変換する過程で必要なパラメータ(座標変換パラメータ)を求める処理を行う。座標変換パラメータの算出方法については、詳細は後述する。
【0044】
[座標系の定義]
次に、
図6を参照して、本実施例で用いる座標系について説明する。
図6に示すように、本実施例では、カメラ座標系、目座標系、画像表示デバイス座標系及びスクリーン座標系を用いる。なお、このような座標系は、制御部11が撮影画像に基づいて画像表示デバイス13に提示情報を表示させるに当たって、カメラ座標系からスクリーン座標系へ座標変換するために用いられる。
【0045】
カメラ座標系は、カメラ12の光学中心を原点O
cとする3次元座標系である。カメラ座標系は、カメラ12の光軸をZ
c軸とし、撮影画像のx軸及びy軸にそれぞれ平行な方向をX
c軸及びY
c軸とする。目座標系は、HMD1のユーザの視覚に対応するものであり、ユーザの瞳孔中心を原点O
eとする3次元座標系である。目座標系は、鏡30が存在する平面(以下、「鏡平面」と呼ぶ。)の法線方向をZ
e軸とし、カメラ座標系のX
c軸及びY
c軸にそれぞれ平行な方向をX
e軸及びY
e軸とする。
【0046】
スクリーン座標系は、仮想スクリーン40の画像座標である。画像表示デバイス座標系は、提示情報を仮想スクリーン40上に表示させるために制御部11にて規定される座標系であり、仮想スクリーン40を投影面とする3次元座標系である。画像表示デバイス座標系は、Z
h軸が仮想スクリーン40の中心と交わり、スクリーン座標系のx軸及びy軸にそれぞれ平行な方向をX
h軸及びY
h軸とする。
【0047】
[座標変換方法]
次に、本実施例に係る座標変換方法について説明する。ここで、座標変換の概要について簡単に説明する。まず、制御部11は、カメラ12の撮影画像を解析し、提示情報を提示する座標(以下、「提示座標」と呼ぶ。)を求める。次に、制御部11は、カメラ座標系での提示座標を目座標系へ変換し、変換後の座標を仮想スクリーン40に投影した投影座標を求める。次に、制御部11は、投影座標を画像表示デバイス座標系に変換し、変換後の座標をスクリーン座標系へ透視投影する。
【0048】
図7は、本実施例に係る座標変換方法を示すフローチャートである。このフローは、HMD1の制御部11によって繰り返し実行される。
【0049】
まず、ステップS101では、制御部11は、カメラ12の撮影画像を解析し、その解析結果に基づいて、提示すべき提示情報と、提示情報を提示する提示座標L
c(カメラ座標系で規定されるものとする)とを決定する。具体的には、制御部11は、撮影画像に対して、ARマーカ認識や特定物体認識などの手法を用いて、提示情報を提示すべき対象物体を検出し、対象物体の位置及び姿勢を算出することで、提示情報についての提示座標L
cを決める。そして、処理はステップS102に進む。
【0050】
ステップS102では、制御部11は、以下の式(1)を用いて、カメラ座標系での提示座標L
cを、目座標系での座標L
eに変換する。
【0051】
【数1】
式(1)中の「R
1」及び「t
1」は、それぞれ、カメラ座標系から目座標系へ変換するための回転行列及び並進ベクトルである。また、「R
1」及び「t
1」は、上記した座標変換パラメータの1つである。以上のステップS102の後、処理はステップS103に進む。
【0052】
ステップS103では、制御部11は、目座標系での座標L
eを、仮想スクリーン40に投影した投影座標M
e(目座標系で規定されるものとする)を算出する。
図8は、座標L
eと投影座標M
eとの関係を示している。
図8から分かるように、投影座標M
eを求めるということは、仮想スクリーン40の平面と直線OeLeとの交点を求めることと同義である。目座標系で規定される、仮想スクリーン40の平面における単位法線ベクトルを「n
e」とし、仮想スクリーン40の平面と目座標系の原点O
eとの距離を「h」とすると、制御部11は、以下の式(2)及び(3)を用いて、座標L
eから投影座標M
eへ変換する。なお、平面と直線との交点の求め方は、公知の手法を用いることができる。
【0053】
【数2】
具体的には、制御部11は、式(3)に「L
e」、「n
e」及び「h」を代入することで「α」を求め、この「α」を式(2)に代入することで、座標L
eから投影座標M
eを求める。なお、「n
e」及び「h」は、上記した座標変換パラメータの1つである。以上のステップS103の後、処理はステップS104に進む。
【0054】
ステップS104では、制御部11は、以下の式(4)を用いて、目座標系での投影座標M
eを、画像表示デバイス座標系での座標M
hに変換する。
【0055】
【数3】
式(4)中の「R
2」及び「t
2」は、それぞれ、目座標系から画像表示デバイス座標系へ変換するための回転行列及び並進ベクトルである。また、「R
2」及び「t
2」は、上記した座標変換パラメータの1つである。以上のステップS104の後、処理はステップS105に進む。
【0056】
ステップS105では、制御部11は、以下の式(5)を用いて、画像表示デバイス座標系での座標M
hを、スクリーン座標系での座標m
hに透視投影する。
【0057】
【数4】
式(5)より得られる座標m
hが、仮想スクリーン40の表示座標である。式(5)において、「width」及び「height」は仮想スクリーン40の画像サイズであり、「k
x」及び「k
y」はLCD13bのドットピッチとLCD13bから仮想スクリーン40までの光路で決まる係数である。以上のステップS105の後、処理は終了する。
【0058】
なお、上記では、仮想スクリーン40の平面が目の視線に対して傾いている(つまり目座標系のZ
e軸と画像表示デバイス座標系のZ
h軸とが平行でない)ことを前提とした、座標変換の例を示した。他の例では、目の視線と仮想スクリーン40の平面とが直交している(つまり目座標系のZ
e軸と画像表示デバイス座標系のZ
h軸とが平行である)ことを前提として、座標変換を行うことができる。この場合には、目座標系からスクリーン座標系へ直接に透視投影を行うことができる。つまり、上記のステップS104の処理を行わなくて良い。
【0059】
[座標変換パラメータの算出方法]
次に、本実施例における座標変換パラメータの算出方法について説明する。本実施例では、HMD1の校正として、座標変換パラメータの算出を行う。前述したように、座標変換パラメータは、回転行列R
1、R
2、並進ベクトルt
1、t
2、仮想スクリーン40の平面の単位法線ベクトルn
e、及び、仮想スクリーン40の平面と目座標系の原点O
eとの距離hである。「R
1」及び「t
1」は、カメラ座標系から目座標系に変換するためのパラメータであり、以下では、これらをまとめて「第1パラメータ」と呼ぶ。「n
e」及び「h」は、目座標系での座標を仮想スクリーン40の平面に投影するためのパラメータであり、以下では、これらをまとめて「第2パラメータ」と呼ぶ。「R
2」及び「t
2」は、目座標系から画像表示デバイス座標系に変換するためのパラメータであり、以下では、これらをまとめて「第3パラメータ」と呼ぶ。
【0060】
ここで、座標変換パラメータの算出方法の概要について簡単に説明する。まず、制御部11は、カメラ12によって撮影された、HMD1を装着したユーザの鏡像の撮影画像を取得する。次に、制御部11は、撮影画像から、カメラ12に付加されたマーカ12a(以下、適宜「カメラマーカ」と呼ぶ。)と、ユーザの目20と、画像表示デバイス13に付加されたマーカ13a(以下、適宜「スクリーンマーカ」と呼ぶ。)とを検出し、カメラ12、目20及び画像表示デバイス13のそれぞれについて、カメラ座標系での鏡像の位置及び方向を推定する。次に、制御部11は、カメラ12の鏡像の位置及び方向に基づいて鏡平面を推定し、目20及び画像表示デバイス13のそれぞれについて、カメラ座標系での実像(鏡像の生成元となった像を意味する。以下同様とする。)の位置及び方向を推定する。制御部11は画像表示デバイス13と仮想スクリーン40の位置関係を把握しており、カメラ座標系での仮想スクリーン40の位置及び方向を推定する。以上の推定により、カメラ12、目20及び仮想スクリーン40の位置・方向関係がわかるため、制御部11は、そのような位置・方向関係に基づいて、座標変換パラメータ(具体的には、第1パラメータR
1、t
1、第2パラメータn
e、h、及び第3パラメータR
2、t
2)を求める。
【0061】
図9は、本実施例に係る座標変換パラメータの算出方法を示すフローチャートである。このフローは、HMD1の制御部11によって実行される。例えば、当該フローは、HMD1がユーザに装着された際に実行される。
【0062】
まず、ステップS201では、制御部11は、カメラ12によって撮影された、HMD1を装着したユーザの鏡像の撮影画像を取得する。例えば、制御部11は、HMD1を装着した状態を鏡30に映し、この状態をカメラ12で撮影すべき旨を、ユーザに対して報知することで、撮影画像を取得する。この後、処理はステップS202、S203及びS204に進む。
【0063】
ステップS202では、制御部11は、撮影画像から、カメラマーカの画像上の位置を検出する。ステップS203では、制御部11は、撮影画像から、ユーザの目20の画像上の位置を検出する。ステップS204では、制御部11は、撮影画像から、スクリーンマーカの画像上の位置を検出する。以上のステップS202、S203及びS204の後、処理はステップS205、S206及びS207に進む。
【0064】
ステップS205では、制御部11は、ステップS202で検出された位置で画像解析を行い、カメラマーカの位置及び姿勢を利用して、カメラ座標系でのカメラ12の鏡像の光学中心位置及び光軸方向を推定する。この後、処理はステップS208に進む。ステップS206では、制御部11は、ステップS203で検出された位置で画像解析を行い、目20の位置及び大きさを利用して、カメラ座標系での目20の鏡像の瞳孔中心位置を推定する。ステップS207では、制御部11は、ステップS204で検出された位置で画像解析を行い、スクリーンマーカの位置及び姿勢を利用して、カメラ座標系での画像表示デバイス13の鏡像の位置及び方向を推定する。
【0065】
ステップS208では、制御部11は、ステップS205で推定されたカメラ12の鏡像の光学中心位置及び光軸方向に基づいて、鏡平面を推定する。具体的には、制御部11は、カメラ座標系での鏡平面の単位法線ベクトル及び原点O
cとの距離を推定する。鏡平面は、カメラ12の鏡像の光学中心位置と原点O
cの中点で交わる。また、鏡平面の法線は、カメラ12の鏡像の光軸方向をZ
c軸方向に1/2倍回転させた方向である。以上のステップS208の後、処理はステップS209及びS210に進む。
【0066】
ステップS209では、制御部11は、カメラ座標系での目20の実像の瞳孔中心位置を推定する。具体的には、制御部11は、ステップS206で推定された目20の鏡像の瞳孔中心位置を、ステップS208で推定された鏡平面で折り返すことで、目20の実像の瞳孔中心位置を推定する。ステップS210では、制御部11は、カメラ座標系での仮想スクリーン40の中心位置及び方向を推定する。具体的には、制御部11は、ステップS207で推定された画像表示デバイス13の鏡像の位置及び方向を、ステップS208で推定された鏡平面で折り返すことで、画像表示デバイス13の実像の位置及び方向を推定し、制御部11が把握している画像表示デバイス13と仮想スクリーン40の位置関係を利用して、仮想スクリーン40のカメラ座標系での中心位置及び方向を推定する。以上により、カメラ座標系のもとで、カメラ12、目20及び仮想スクリーン40の位置関係及び方向関係が判明する。ステップS209、S210の後、処理はステップS211、S212及びS213に進む。
【0067】
ステップS211では、制御部11は、ステップS209で推定された目20の実像の瞳孔中心位置に基づいて、カメラ座標系から目座標系に変換するための第1パラメータR
1、t
1(回転行列R
1、並進ベクトルt
1)を求める。ステップS212では、制御部11は、ステップS209で推定された目20の実像の瞳孔中心位置と、ステップS210で推定された仮想スクリーン40の中心位置及び方向とに基づいて、目座標系での座標を仮想スクリーン40に投影するための第2パラメータn
e、h(目座標系での仮想スクリーン40の平面の単位法線ベクトルn
e、仮想スクリーン40の平面と目座標系の原点O
eとの距離h)を求める。ステップS213では、制御部11は、ステップS209で推定された目20の実像の瞳孔中心位置と、ステップS210で推定された仮想スクリーン40の中心位置及び方向とに基づいて、目座標系から画像表示デバイス座標系に変換するための第3パラメータR
2、t
2(回転行列R
2、並進ベクトルt
2)を求める。以上のステップS211、S212及びS213の後、処理は終了する。
【0068】
この後、制御部11は、上記のように求められた座標変換パラメータを用いて座標変換を行うことで、提示情報を画像表示デバイス13に表示させる制御を行う。
【0069】
[本実施例の作用効果]
以上説明した本実施例によれば、HMD1の校正を容易に行うことができる。具体的には、本実施例では、ユーザが鏡30に向き合うことで自動的に校正が行われるため、前述した先行技術文献に記載された技術と比較して、校正時におけるユーザの手間を少なくすることができる。また、このような校正は、ユーザの身近にある鏡30(手鏡など)を利用して実現できるので、本実施例によれば、校正用の特殊なもの(例えば校正用のマーカ)を携帯したり、使用環境に埋め込んだりする必要はない。
【0070】
[変形例]
以下で、上記した実施例の変形例を提示する。下記の変形例は、任意に組み合わせて実施することができる。
【0071】
(変形例1)
上記したカメラ12として、ステレオカメラを用いても良い。カメラ12としてステレオカメラを用いた場合、位置及び方向についての推定精度を向上させることができる。また、ステレオカメラを用いると、マーカ12a、13aの大きさが未知であっても、撮影画像から3次元位置を推定することができる。そのため、マーカ12a、13aの大きさを制御部11に予め把握させておく必要はない。
【0072】
(変形例2)
上記では、撮影画像からカメラ12及び画像表示デバイス13の位置及び方向を推定するに当たって、マーカ12a、13aを用いる実施例を示したが、このようなマーカ12a、13aを用いなくても良い。他の例では、マーカ12a、13aを用いずに、カメラ12の形状の特徴及び画像表示デバイス13の形状の特徴を用いて、カメラ12及び画像表示デバイス13の位置及び方向を推定することができる。
【0073】
(変形例3)
上記では、ユーザの目20の位置として瞳孔中心位置を用いる実施例を示したが、瞳孔中心位置の代わりに、目20の光学中心位置を用いても良い。瞳孔中心位置と光学中心位置との関係を予め計測しておけば、撮影画像から目20の光学中心位置を推定することができる。このような光学中心位置を用いた場合には、瞳孔中心位置を用いた場合より、精度良く座標変換パラメータを求めることができる。
【0074】
(変形例4)
上記では、画像表示デバイス13の位置及び方向を推定して、当該位置及び当該方向に基づいて座標変換パラメータを求める実施例を示した。他の例では、画像表示デバイス13の位置及び方向を推定せずに、座標変換パラメータを求めることができる。カメラ12と画像表示デバイス13との位置関係が固定されている場合(例えばフレーム14で、これらが適切に固定されている場合)には、画像表示デバイス13の位置及び方向が一義的に決まるため、仮想スクリーン40の位置及び方向を推定しなくても良い。この場合には、
図9に示したステップS204、S207、S210の処理を行わなくて良い。つまり、スクリーンマーカの検出、画像表示デバイス13の鏡像の位置及び方向の推定、仮想スクリーン40の中心位置及び方向の推定を行わなくて良い。
【0075】
(変形例5)
鏡像の撮影画像を得るために鏡30を用いることに限定はされない。鏡30の代わりに、所定以上の反射率を有するもの(例えばガラスなど)を用いて、鏡像の撮影画像を得ても良い。
【0076】
(変形例6)
上記では、鏡平面を推定するために、カメラ12の鏡像の光学中心位置及び光軸方向を推定する実施例を示したが、鏡にマーカを付加させ、それを撮影することで鏡平面を推定してもよい。この場合には、
図9に示したステップS202、S205、S208の処理は行わなくてよい。
【0077】
(変形例7)
上記では、光学透過可能な画像表示デバイスとして、LCD13b、レンズ13c、ハーフミラー13dを用いる形態を示した。他の例では、透明有機ELや透明LCDを用いた透明ディスプレイや、例えば曇りガラスのような半透明の板上にLCDプロジェクターで投影するものでもよい。