(58)【調査した分野】(Int.Cl.,DB名)
【発明を実施するための形態】
【0016】
〔第1の実施形態〕
図1には第1の実施形態の画像処理装置1の構成が示されている。また、
図2には視点位置特定部13の構成の例が、
図3にはオブジェクトの三次元データ110の例が、
図4にはオブジェクトが配置された全体座標系とユーザUの視座標系との関係の例が、
図5には提示された三次元映像120に対するユーザUの視点位置S1の例が、
図6には各視点位置でのオブジェクトの二次元映像152の例が、それぞれ示されている。
【0017】
図1ないし
図6において、画像処理装置1は、記憶部11、三次元映像提示部12、視点位置特定部13、二次元映像生成部14、出力部15、および出力指示部16などを有する。
【0018】
記憶部11は、三次元データ110、その他のデータおよびプログラムなどを記憶する。三次元データ110は、種々のオブジェクト(対象物)について、オブジェクトの外観形状、材質や色などの表面状態、または構造などを表現することの可能な三次元データである。三次元データ110は、ソリッドモデル、ボリュ−ムモデル、サーフェスモデル、またはワイヤーフレームモデルなどのデータを用いることが可能である。
【0019】
三次元データ110は、現存するオブジェクトを複数のカメラや三次元カメラなどにより撮影して、またCG(コンピュータグラフィックス)の技術を用いて、またこれらを組み合わせて生成することが可能であり、このような従来の技術を用いて生成された三次元データを本実施形態の三次元データ110として用いることが可能である。
【0020】
三次元映像提示部12は、運動視差を得ることのできる三次元映像表示装置であり、オブジェクトの三次元データ110に基づいて、当該オブジェクトの三次元映像120をユーザUに提示(表示)する(
図5を参照)。
【0021】
三次元映像提示部12として、種々の方式、原理、構成、および仕様のものが用いられる。例えば、従来の技術の項でも示したように、インテグラル方式(インテグラルフォトグラフィ方式)の三次元画像表示装置、これ以外の方式でレンチキラーレンズや眼鏡を用いて左右の目に視差を生じさせて三次元映像を提示するもの、ホログラムを用いて空間に三次元映像を投影する方式のもの、ボクセルを用いる体積型のものなど、公知の3Dテレビ、立体画像表示装置、または三次元映像表示装置などを使用可能である。
【0022】
なお、インテグラル方式では、三次元データ110の作成に際し、例えば、対象物が反射するそれぞれの方向への反射光をレンズアレイを用いることで分離し、それぞれ記録する。これを三次元映像提示部12で再生する際に、撮影に用いたレンズアレイを用いることで、それぞれの光線を合成し、元の反射光(各方向への光線が合成された状態) を再現する。つまり、全方向に対する反射光をレンズアレイを使って分離して一方向毎に記録し、再生時にそれを合成する。対象物の反射光(それぞれの方向への光線)を再現するため、見る方向によって得られる映像が異なる。つまり、インテグラル方式では、両眼における視差に加えて、ユーザ(視聴者)の視点位置の移動に応じて映像の見え方が変化する「運動視差」が生じる。
【0023】
インテグラル方式の場合には、仕様が同じレンズアレイを用いて撮影と再生とで同一の環境を作るので、対象物−レンスアレイ−カメラの相互の位置関係と、ユーザの眼球−レンズアレイ−ディスプレイの相互の位置関係とは合致する。つまり、レンズアレイを通して撮影した映像を、三次元データ110に基づいてシミュレートするので、その映像を二次元のディスプレイに表示することで位置関係は保たれる。
【0024】
視点位置特定部13は、提示された三次元映像120に対するユーザの視点位置S1を特定する。
【0025】
視点位置特定部13は、三次元映像提示部12の近辺に配置され、三次元映像提示部12により提示された三次元映像120を見ているユーザUを撮影するカメラ132a〜dと、カメラ132a〜dによって撮影された画像におけるユーザUの眼球の位置に基づいて視点位置S1を特定するユーザ画像処理部130と、を有する(
図2を参照)。
【0026】
本実施形態では、複数のカメラ132a〜dが設けられ、ユーザ画像処理部130は、複数のカメラ132a〜dによって撮影された複数の画像に基づいて、視点位置S1を特定する。また、ユーザ画像処理部130は、ユーザUについて設定された左右いずれかの眼球の位置に基づいて視点位置S1を特定する。
【0027】
また、視点位置特定部13は、カメラ132a〜dによって撮影された画像に複数のユーザUが写っているときに、そのうちの1人を視点位置S1を決めるためのユーザUとして特定するユーザ特定部131を有する。つまり、ユーザ特定部131は、出力部15に対する出力指示S2が与えられたときに、当該出力指示S2に関連した動作を行ったユーザUを、視点位置S1を特定するためのユーザUとして特定することができる。例えば、ユーザUは、操作キーやタッチパネルなどを操作し、音声を発し、またはジェスチャーを示すなどによって、出力指示S2を与えることができる。
【0028】
また、ユーザUによるタッチパネルへのタッチ操作、またはマウスまたはキーボードなどへの操作に基づいて、視点位置特定部13が視点位置S1を特定することも可能である。
【0029】
二次元映像生成部14は、視点位置特定部13により特定された視点位置S1から見たときのオブジェクトの二次元映像140を、三次元データ110に基づいて生成する。なお、この二次元映像140は、正確には二次元映像のデータである。
【0030】
出力部15は、入力された二次元映像140を所定の形式で出力する。例えば、出力部15が表示装置を備える場合に、その画面151に二次元映像152を表示する。また、出力部15が印刷装置を備える場合に、シート状の用紙PPに二次元映像153を印刷して表示する。また、ファクシミリ装置を備える場合に、二次元映像140をファクシミリ送信する。
【0031】
出力部15は、視点位置S1と三次元映像120との距離がより大きい場合に、二次元映像140の拡大率をより大きくして出力する。つまり、視点位置S1が三次元映像120から遠くなるにしたがって二次元映像140が小さくなるので、これを補うために、二次元映像140を大きくし、画面151または用紙PPの全面に二次元映像152,153を表示する。
【0032】
出力部15には、出力指示部16から出力指示S2が入力されている。出力部15による用紙PPへの印刷は、出力指示S2が入力されたときに実行される。また、出力部15による印刷以外の出力についても、出力指示S2が入力されたときに実行されるようにしてもよい。
【0033】
出力指示部16は、出力部15に対し、主として二次元映像153を印刷させるための出力指示S2を出力する。出力指示部16は、ハ−ドウエアまたはソフトウエアによる操作キー、またはキ−ボードやマウスなどを含めて構成することができる。
【0034】
また、視点位置特定部13を、ユーザUの操作によって視点位置S1を特定できるように構成した場合に、ユーザUがその操作によって視点位置S1を特定したときに同時に出力指示S2を出力するようにしてもよい。また、複数のユーザUが居てそのうちの一人が出力指示S2に関連した動作を行った場合に、これによってユーザUおよび視点位置S1を特定するとともに、同時に出力指示S2を出力して二次元映像153の印刷を行うようにしてもよい。
【0036】
図3に示すように、オブジェクトの三次元データ110は、全体座標系(x,y,z)の空間に配置されている。つまり、三次元データ110を構成する各点の位置は座標(x,y,z)により特定される。なお、全体座標系において、三次元データ110の姿勢を変更することが可能である。
【0037】
三次元映像提示部12は、三次元データ110に基づいて同じ全体座標系に三次元映像120を提示することが可能である。その際に、全体座標系における三次元映像120の位置を変更し、回転し、または拡大縮小を行うことが可能である。
【0038】
図4に示すように、ユーザUの視点位置S1を原点とした座標系が視座標系(xu,yu,zu)である。視座標系(xu,yu,zu)と全体座標系(x,y,z)とは、設定された種々の空間関係となるように配置され、
図4においては、視座標系のzu軸と全体座標系のz軸とが一致した状態が示されている。
【0039】
三次元映像120を、視点位置S1から、zu軸と垂直な平面141に投影することによって、視点位置S1から見た二次元映像140が得られる。なお、二次元映像140を投影するための平面141を、視点位置S1と三次元映像120との間に配置してもよい。
【0040】
そして、全体座標系(x,y,z)と視座標系(xu,yu,zu)との配置関係を変更することによって、例えば原点間の距離、および、x軸とxu軸、y軸とyu軸、z軸とzu軸のそれぞれのなす角度を変更することによって、全体座標系(x,y,z)に配置される三次元データ110または三次元映像120に対する視点位置S1を任意に変更することができる。したがって、全体座標系における視点位置S1の位置を変更することによって、視座標系における三次元映像120の配置を任意に変更することができる。つまり、これによって任意の視点位置S1から見たときの二次元映像140を得ることができる。
【0041】
図5において、三次元映像提示部12に三次元映像120が提示されており、三次元映像提示部12の前方に居るユーザUが、Ua、Ub、Uc、Udのように移動する様子が示されている。
【0042】
ユーザUの移動にしたがって、その視点位置S1は、S1a、S1b、S1c、S1dと移動する。ユーザUの眼球の位置は、カメラ132a〜dによって撮影された画像を処理することによって決定され、そのときの視点位置S1が特定される。この場合に、それぞれのカメラ132a〜dでユーザUの眼球を撮影し、各カメラ132a〜dから見た眼球の方向を合成することによって視点位置S1を特定することができる。また、撮影した眼球の瞳孔の向きから視線の向きを特定することも可能である。
【0043】
通常、ユーザUの眼球の位置は2ヵ所となるので、例えばその中間の位置を視点位置S1として特定することができる。また、ユーザUが自分の利き目を予め画像処理装置1に登録して設定しておくことが可能である。その場合に、利き目として設定された左右いずれかの眼球の位置に基づいて視点位置S1を特定することになる。
【0044】
図6(A)〜(D)には、三次元映像120を各視点位置S1a〜dから見たときの二次元映像152a〜dが示されている。二次元映像152a〜dは画面151に表示されたものであるが、印刷された場合には同様な二次元映像153a〜dが用紙PPに表示される。
【0045】
また、
図5において、異なる複数のユーザUa〜dが同時に三次元映像提示部12の前方に居るとした場合に、ユーザ特定部131は、そのうちの1人を視点位置S1を特定するためのユーザUを選択する。この場合に、例えば、ユーザ特定部131は、出力部15に対する出力指示S2、例えば印刷指示を与えたユーザUを、視点位置S1を特定するためのユーザUとして選択する。そのような指示のための動作を行ったユーザUは、カメラ132a〜dで撮影した画像について画像認識などの画像処理によって決定することが可能である。
【0046】
このように、視点位置特定部13は、カメラ132a〜dによって撮影される画像に基づいて、またはユーザUによる操作などに基づいて、視点位置S1を特定する。二次元映像生成部14は、特定された視点位置S1から見た二次元映像140を生成し、出力部15は二次元映像140を画面151に表示しまたは用紙PPに印刷する。
【0047】
このように、オブジェクトの三次元映像120をユーザUに提示するとともに、提示された三次元映像120に対してユーザUの視点位置S1を容易に特定することが可能であり、特定された視点位置S1からの二次元映像140を煩雑な処理を必要とすることなくユーザに提供することができる。
【0048】
特に、三次元映像提示部12として、ユーザUの視点位置S1の移動に応じて運動視差が生じる形式の装置が用いられるので、三次元映像提示部12に対するユーザUの位置に応じて三次元映像120の見え方が変化し、かつその時々の視点位置S1を視点位置特定部13が特定するので、ユーザUは好きな姿勢で三次元映像120を見ながら、その視点位置S1からの二次元映像152を画面151で確認することができる。そして、必要なタイミングで出力指示S2を与えることにより、煩雑な処理を行うことなく、ユーザUが見たままの二次元映像153を印刷して出力することができる。
【0049】
つまり、本実施形態における画像処理装置1では、簡易で直感的な操作によって、オブジェクトについて任意の視点位置S1からの二次元映像152,153を得ることができる。また、1つの三次元映像120を複数のユーザUが見ている場合でも、カメラ132a〜dによる撮影とその画像処理またはユーザUの動作などによって、二次元映像152,153を欲しているユーザUおよび視点位置S1を特定し、所望の印刷物などを得ることができる。
【0050】
このように、本実施形態における画像処理装置1によると、三次元映像120の閲覧から印刷を即座に行うことができ、印刷のために視点位置S1を設定する面倒な操作が不要である。そのため、三次元映像提示部12において、印刷設定のための表示領域を設ける必要がなく、三次元映像提示部12の全体を三次元映像120の提示と閲覧に用いることができる。
〔第2の実施形態〕
次に、第2の実施形態の画像処理装置1Bについて説明する。
【0051】
第2の実施形態の画像処理装置1Bでは、ユーザUが保持する携帯端末21との無線通信による連携が図られており、携帯端末21から送信される端末指令に基づいて、視点位置S1およびユーザUの特定などが行われる。画像処理装置1Bにおける基本的な機能および動作は第1の実施形態の画像処理装置1と同様であるので、同様な部分には同じ符号を付してここでの説明を省略しまたは簡略化する。
【0052】
図7には第2の実施形態の画像処理装置1Bの構成が示されている。
【0053】
図7において、画像処理装置1Bは、記憶部11、三次元映像提示部12、視点位置特定部13、二次元映像生成部14、出力部15、出力指示部16、および端末指令受信部17などを有する。
【0054】
携帯端末21は、状態取得部211、撮影部212、操作制御部213、および通信部214などを有する。携帯端末21は、ユーザUによって保持されるものであるが、所定の位置に置いておくことも可能である。携帯端末21として、携帯電話機、スマ−トホン、タブレット端末、その他の端末装置などが用いられる。
【0055】
状態取得部211は、当該携帯端末21の位置および姿勢などの情報を、GPSおよび姿勢センサーなどに基づく端末位置情報S3aとして取得する。
【0056】
撮影部212は、携帯端末21に搭載されたカメラに基づく静止画または動画を、写真画像S3bとして取得する。例えば、ユーザUは、撮影部212によって、画像処理装置1Bの三次元映像提示部12により提示された三次元映像120を撮影することができる。その場合に、三次元映像120の周辺の画像、例えば三次元映像提示部12に表示された三次元映像120以外の画像、画像処理装置1Bの外観、または画像処理装置1Bの周辺などを、背景として同時に撮影することができる。
【0057】
操作制御部213は、携帯端末21における種々の操作および制御を行うとともに、画像処理装置1Bに対する操作および制御を行うこともできる。また、操作制御部213は、画像処理装置1Bにおける印刷の際の拡大率(縮小率)などを示す拡大縮小情報S3cを生成する。操作制御部213には、画像処理装置1Bと連携して画像処理装置1Bを制御しまたは操作するためのアプリケーション(コンピュータプログラム)が搭載されている。
【0058】
通信部213は、画像処理装置1Bの端末指令受信部17との無線通信、およびネットワ−クとの無線通信などを行う。無線通信には、例えばBluetooth(登録商標)、IEEE802などによる無線LANなどが用いられる。
【0059】
無線通信によって、携帯端末21から画像処理装置1Bに対して、端末指令S3を送信する。端末指令S3として、端末位置情報S3a、写真画像S3b、または拡大縮小情報S3cなどが含まれる。
【0060】
他方、画像処理装置1Bにおいて、端末指令受信部17は、ユーザUが保持する携帯端末21から無線通信によって送信される端末指令S3を受信する。端末指令受信部17は、携帯端末21において検出された端末位置情報S3aを含む端末指令S3を受信したときに、端末位置情報S3aを視点位置特定部13に送る。視点位置特定部13は、端末位置情報S3aに基づいて視点位置S1を特定する。
【0061】
また、端末指令受信部17は、端末位置情報S3aに加えて、携帯端末21において撮影された三次元映像120の写真画像S3bを含む端末指令S3を受信したときに、端末位置情報S3aおよび写真画像S3bを視点位置特定部13に送る。視点位置特定部13は、端末位置情報S3aおよび写真画像S3bに基づいて視点位置S1を特定する。
【0062】
また、端末指令受信部17は、携帯端末21において撮影された三次元映像120およびその背景の写真画像S3bを含む端末指令S3を受信したときに、写真画像S3bを二次元映像生成部14に送る。二次元映像生成部14は、三次元データ110に基づいて生成したオブジェクトの二次元映像140と、写真画像S3bに含まれる背景とを合成して得られる二次元映像140Gを生成する。
【0063】
また、端末指令受信部17は、拡大縮小情報S3cを含む端末指令S3を受信したときに、拡大縮小情報S3cを出力部15に送る。出力部15は、拡大縮小情報S3cに基づいて拡大または縮小された二次元映像152,153を出力する。
【0064】
例えば、ユーザUが、撮影部212によって、画像処理装置1Bの三次元映像提示部12により提示された三次元映像120を撮影すると、撮影された写真画像S3bを保持するとともに、このときの携帯端末21の位置および姿勢を示す端末位置情報S3aを取得する。そして、端末位置情報S3aおよび写真画像S3bを、通信部213から画像処理装置1Bに送信する。
【0065】
画像処理装置1Bにおいて、端末指令受信部17がそれらを受信する。端末指令受信部17は、視点位置特定部13に端末位置情報S3aを送り、視点位置特定部13において、端末位置情報S3aに基づいて視点位置S1を特定する。また、二次元映像生成部14では、端末指令受信部17から送られてきた写真画像S3bのうち、背景の部分はそのまま生かし、オブジェクトの三次元映像120が写った部分の写真画像(二次元画像)を、携帯端末21からの端末位置情報S3aに基づく視点位置S1により三次元データ110から生成した二次元映像140と置き換える。このようにして生成した二次元映像140Gを出力部15に送る。出力部15は、二次元映像140Gを印刷する。
【0066】
三次元映像提示部12により提示される三次元映像120は、通常、低解像度で画質が粗いため、それを撮影した写真画像S3bでは三次元映像120の部分の画質は悪い。他方、三次元データ110から生成した二次元映像140は、通常、高解像度であり、高画質である。写真画像S3bの三次元映像120の部分を三次元データ110から生成した二次元映像140と置き換えることにより、写真画像S3bのうちの画質の悪い部分が高画質の画像となり、背景をも含めて高画質の印刷物が得られる。
〔複合機としての実施形態〕
次に、上に述べた画像処理装置1,1Bを、コピー機、プリンタ、およびファクシミリ機などの機能を集約した複合機として実施した形態について説明する。つまり、本実施形態の複合機1Cは、上に述べた画像処理装置1,1Bの機能を備えたMFP(Multi-functional Peripheral :多機能機)であるが、画像処理装置1,1Bの機能については既に説明したのでここでの説明は省略する。
【0067】
図8には複合機1Cを斜め上方からみた外観形状の例が、
図9には複合機1Cのハードウェア構成が、それぞれ示されている。
【0068】
図8および
図9において、複合機1Bは、三次元ディスプレイ12C、スキャナ31、プリンタ部32、給紙部33、補助記憶装置34、カメラ133、および制御部30などを備える。
【0069】
三次元ディスプレイ12Cは、複合機1Cの上部において表示面121が水平方向となるように配置されており、表示面121に運動視差を有する三次元映像120を提示することが可能である。また、三次元ディスプレイ12Cは、ユーザUによる入力操作のための画面、ユーザが各種のドキュメントを閲覧するための画面などの様々な画面を、制御部30からの指令にしたがって表示することが可能である。
【0070】
三次元ディスプレイ12Cは、スキャナ31のプラテンガラスを覆うカバーとして、本体の一側面に沿う軸を中心として開閉可能である。スキャナ31を使用する場合には、ユーザUは三次元ディスプレイ12Cをその左側を持ち上げて開く。
【0071】
スキャナ31は、プラテンガラスの上に置かれた原稿シートの画像を光学的に読み取って入力する。スキャナ31の外周面には、複合機1Cの周辺に居るユーザUを撮影するための複数のカメラ133a〜dが配置されている。これらカメラ133a〜dによって得られる撮影画像は、視点位置の特定、複数の中から1人のユーザUの選択、ユーザUの位置の検知、およびユーザUの判別などに用いられる。
【0072】
プリンタ部32は、電子写真法によって用紙に画像を印刷する。給紙部33は、用紙を収納しておくための複数の給紙カセットを備え、用紙を1枚ずつ繰り出してプリンタ部32に供給する。
【0073】
通信部34は、ユーザの保持する携帯端末21などと無線通信を行う。
【0074】
補助記憶装置35は、三次元データの他、制御部30から送られてくる画像データ、その他のデータを記憶する。補助記憶装置35として、ハードディスクドライブまたはSSD(Solid State Drive )などが用いられる。
【0075】
制御部30は、複合機1Cの全体的な制御を行う。制御部30は、CPU(Central Processing Unit )301、RAM(Random Access Memory)302、ROM(Read Only Memory)303、および画像処理部304などを備える。ROM303には、複合機1Cを、画像処理装置、プリンタ、コピー機、ファクシミリ機などとして動作させるためのコンピュータプログラムが記憶されている。
【0076】
なお、
図8には、複合機1Cと無線通信が可能な携帯端末21Cが示されている。携帯端末21Cは、上に述べた携帯端末21と同様な機能を有する。
【0077】
複合機1において、三次元ディスプレイ12Cは、三次元データに基づいて三次元映像を提示し、三次元映像に対しユーザUによって特定された視点位置からの二次元映像を表示しまたは印刷することが可能である。
【0078】
次に、複合機1Cにおける二次元映像の出力に関する処理の概略の流れを、
図10〜
図12に示すフローチャートに基づいて説明する。
【0079】
図10において、三次元ディスプレイ12Cに三次元映像を提示する(#11)。三次元映像は、ユーザUの視点位置の移動によって見え方が変化する。視点位置を特定すると(#12)、特定された視点位置から見たときの二次元映像が三次元データに基づいて生成される(#13)。ユーザUが印刷を指示すると、二次元映像が用紙に印刷される(#14)。
【0080】
図11において、三次元ディスプレイ12Cに三次元映像を提示する(#21)。複数のユーザUが居る中で印刷の指示があった場合に(#22でイエス)、1人のユーザUを特定し(#23)、視点位置を特定する(#24)。特定された視点位置から見たときの二次元映像が三次元データに基づいて生成され(#25)、それが用紙に印刷される(#26)。
【0081】
図12において、三次元ディスプレイ12Cに三次元映像を提示する(#31)。ユーザUが携帯端末21Cでそれを撮影すると(#32)、その写真画像および端末位置情報が複合機1Cに送信される。複合機1Cは、写真画像および端末位置情報を受信すると(#33)、それらに基づいて視点位置を特定し(#34)、オブジェクトの二次元映像を生成する(#35)。生成した二次元映像と携帯端末21Cから送られてきた写真画像の背景の部分とを合成し、合成した二次元映像を得る(#36)。合成した二次元映像を用紙に印刷する(#37)。
【0082】
上述の実施形態の複合機1Cによると、オブジェクトの三次元映像をユーザUに提示するとともに、提示された三次元映像に対してユーザUの視点位置を容易に特定することが可能であり、特定された視点位置からの二次元映像を煩雑な処理を必要とすることなくユーザに提供することができる。
【0083】
また、生成した二次元映像と携帯端末21Cで撮影した写真画像の背景の部分とを合成することによって、背景が写り込んだ二次元映像が得られるとともに、背景をも含めて高画質の印刷物が得られる。
【0084】
上述の実施形態において、記憶部11、三次元映像提示部12、視点位置特定部13、二次元映像生成部14、出力部15、出力指示部16、端末指令受信部17、画像処理装置1,1B、および複合機1Cの全体または各部の構成、処理の内容、順序、またはタイミングなどは、本発明の趣旨に沿って適宜変更することができる。