特許第6283329号(P6283329)IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 株式会社オプティムの特許一覧

<>
  • 特許6283329-拡張現実対象認識装置 図000002
  • 特許6283329-拡張現実対象認識装置 図000003
  • 特許6283329-拡張現実対象認識装置 図000004
  • 特許6283329-拡張現実対象認識装置 図000005
  • 特許6283329-拡張現実対象認識装置 図000006
  • 特許6283329-拡張現実対象認識装置 図000007
  • 特許6283329-拡張現実対象認識装置 図000008
  • 特許6283329-拡張現実対象認識装置 図000009
  • 特許6283329-拡張現実対象認識装置 図000010
  • 特許6283329-拡張現実対象認識装置 図000011
  • 特許6283329-拡張現実対象認識装置 図000012
  • 特許6283329-拡張現実対象認識装置 図000013
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】6283329
(24)【登録日】2018年2月2日
(45)【発行日】2018年2月21日
(54)【発明の名称】拡張現実対象認識装置
(51)【国際特許分類】
   H04N 5/232 20060101AFI20180208BHJP
   G06T 19/00 20110101ALI20180208BHJP
   H04N 5/225 20060101ALI20180208BHJP
   G03B 19/07 20060101ALI20180208BHJP
   G03B 15/00 20060101ALI20180208BHJP
   G06T 7/10 20170101ALI20180208BHJP
【FI】
   H04N5/232 290
   G06T19/00 600
   H04N5/225 400
   G03B19/07
   G03B15/00 Q
   G06T7/10
【請求項の数】3
【全頁数】14
(21)【出願番号】特願2015-106554(P2015-106554)
(22)【出願日】2015年5月26日
(65)【公開番号】特開2016-220171(P2016-220171A)
(43)【公開日】2016年12月22日
【審査請求日】2016年3月25日
(73)【特許権者】
【識別番号】500521522
【氏名又は名称】株式会社オプティム
(74)【代理人】
【識別番号】100177220
【弁理士】
【氏名又は名称】小木 智彦
(72)【発明者】
【氏名】菅谷 俊二
【審査官】 藤原 敬利
(56)【参考文献】
【文献】 特開2015−080168(JP,A)
【文献】 特開2012−216073(JP,A)
【文献】 特表2004−514951(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
H04N 5/222− 5/257
G03B 15/00 −15/035
G03B 15/06 −15/16
G03B 19/00 −19/16
G06T 1/00 − 9/40
G06T 11/60 −13/80
G06T 17/05
G06T 19/00 −19/20
(57)【特許請求の範囲】
【請求項1】
焦点距離が異なる複数のカメラレンズを撮影対象方向に対して縦横、または、球体の表面に一様に配置したレンズ部と、
撮影対象となる撮影物体に対して、前記複数のカメラレンズの各々の焦点距離で、複数の画像を撮影する画像撮影部と、
撮影した複数の画像の各々に対して、拡張現実を行う際の対象物体を認識する認識処理を行う対象物体認識部と、を備える拡張現実対象認識装置。
【請求項2】
前記撮影した画像をサーバに送信し、前記対象物体認識処理をサーバで行うことを特徴とする請求項1に記載の拡張現実対象認識装置。
【請求項3】
前記拡張現実を行うAR画像処理を、サーバで行うことを特徴とする請求項1または請求項2に記載の拡張現実対象認識装置。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、物体を撮影し、拡張現実の対象として認識させる拡張現実対象認識装置に関する。
【背景技術】
【0002】
近年、人が知覚する現実環境をコンピュータにより拡張する技術である、拡張現実(AR)の普及がみられる。コンピュータが現実を拡張する手段としては、視覚・聴覚・触覚などさまざまなものがあるが、場所や物の説明を文字や音声で行うサービス等が実現されている。
【0003】
ARには、マーカ(指標)を用いるものと、マーカを用いないもの(マーカレス)とがある。マーカを用いるARでは、一般的に四角形の角等のマーカの特徴点をもとに現実環境を認識するが、マーカレスARでは、画面全体に対してコーナー点や局所特徴量をもとに特徴点の座標を計算する処理が必要となる。そのため、撮影された画像から対象物体を適切に認識することが重要である。
【0004】
マーカレスARを実現するための方法として、現実環境におけるマーカ(指標)を必要としない拡張現実のための装置および方法を提供することが開示されている(特許文献1)。
【先行技術文献】
【特許文献】
【0005】
【特許文献1】特表2013−528870号
【発明の概要】
【発明が解決しようとする課題】
【0006】
マーカレスARにおいては、特に撮影されたARに特化していない一般の対象物を適切に認識することがキーポイントであり、そのために、撮影された現実環境内の物体の画像が重要である。撮影された画像内の対象物が、焦点ずれや手ブレなどによりボケしていたり、近寄りすぎて全体が入っていなかったりするとうまく処理できないため、カメラの精度と撮影者の腕が問題となる。
【0007】
しかしながら、特許文献1の方法のみでは、カメラの精度や撮影者の腕の問題で、適切な画像が得られない場合に対応することはできないと言わざるを得ない。しかし、老若男女を問わず携帯端末が普及した昨今、端末使用者のカメラ撮影の腕を問わず、装置側の機能によって、拡張現実の対象物の認識率を向上させることが必要である。
【0008】
以上の課題を鑑み、本発明では、焦点距離が異なる複数のカメラレンズを配置し、焦点距離の異なる複数の画像を撮影することで、対象物の認識率を向上させる拡張現実対象認識装置を提供することを目的とする。
【課題を解決するための手段】
【0009】
本発明では、以下のような解決手段を提供する。
【0010】
第1の特徴に係る発明は、焦点距離が異なる複数のカメラレンズを撮影対象方向に対して縦横、または、球体の表面に一様に配置したレンズ部と、
撮影対象となる撮影物体に対して、前記複数のカメラレンズの各々の焦点距離で、複数の画像を撮影する画像撮影部と、
撮影した複数の画像の各々に対して、拡張現実を行う際の対象物体を認識する認識処理を行う対象物体認識部と、を備えることを特徴とする拡張現実対象認識装置を提供する。
【0011】
第1の特徴に係る発明によれば、拡張現実対象認識装置は、焦点距離が異なる複数のカメラレンズを撮影対象方向に対して縦横、または、球体の表面に一様に配置したレンズ部と、
撮影対象となる撮影物体に対して、前記複数のカメラレンズの各々の焦点距離で、複数の画像を撮影する画像撮影部と、
撮影した複数の画像の各々に対して、拡張現実を行う際の対象物体を認識する認識処理を行う対象物体認識部と、を備える。
【0012】
第2の特徴に係る発明は、前記撮影した画像をサーバに送信し、前記対象物体認識処理をサーバで行うことを特徴とする第1の特徴に係る発明である拡張現実対象認識装置を提供する。
【0013】
第2の特徴に係る発明によれば、第1の特徴に係る発明である拡張現実対象認識装置は、前記撮影した画像をサーバに送信し、前記対象物体認識処理をサーバで行う。
【0014】
第3の特徴に係る発明は、前記拡張現実を行うAR画像処理を、サーバで行うことを特徴とする第1の特徴または第2の特徴に係る発明である拡張現実対象認識装置を提供する。
【0015】
第3の特徴に係る発明によれば、第1の特徴または第2の特徴に係る発明である拡張現実対象認識装置は、前記拡張現実を行うAR画像処理を、サーバで行う。
【発明の効果】
【0016】
本発明によれば、焦点距離が異なる複数のカメラレンズを配置したレンズ部と、撮影対象となる撮影物体に対して、前記複数のカメラレンズの各々の焦点距離で、複数の画像を撮影する画像撮影部と、撮影した複数の画像の各々に対して、拡張現実を行う際の対象物体を認識する対象物体認識部と、を備えることで、対象物の認識率を向上させる拡張現実対象認識装置を提供することが可能となる。
【図面の簡単な説明】
【0017】
図1図1は、本発明の好適な実施形態である拡張現実対象認識装置の概要図である。
図2図2は、本発明の拡張現実対象認識装置100の機能ブロックと各機能の関係を示す図である。
図3図3は、本発明の拡張現実対象認識装置100の実行する対象物体認識処理のフローチャート図である。
図4図4は、カメラ部120の一部であるひとつのカメラレンズ121とひとつの画像撮影部122の模式図である。
図5図5は、本発明のカメラ部120の一例である。
図6図6は、本発明のカメラ部120の別の一例である。
図7図7は、本発明のカメラ部120が球体の表面に配置された場合の一例である。
図8図8は、本発明の対象物体認識処理をサーバ2000で実施する場合の、拡張現実対象認識装置1000とサーバ2000の機能ブロックと各機能の関係を示す図である。
図9図9は、本発明の対象物体認識処理をサーバ2000で実施する場合に、拡張現実対象認識装置1000の実行する処理のフローチャート図である。
図10図10は、本発明の対象物体認識処理をサーバ2000で実施する場合に、サーバ2000の実行する処理のフローチャート図である。
図11図11は、本発明の対象物体認識処理とAR画像処理をサーバ2000で実施する場合に、拡張現実対象認識装置1000の実行する処理のフローチャート図である。
図12図12は、本発明の対象物体認識処理とAR画像処理をサーバ2000で実施する場合に、サーバ2000の実行する処理のフローチャート図である。
【発明を実施するための形態】
【0018】
以下、本発明を実施するための最良の形態について図を参照しながら説明する。なお、これはあくまでも一例であって、本発明の技術的範囲はこれに限られるものではない。
【0019】
本発明の概要について説明する。拡張現実対象認識装置100は、カメラ部120に焦点距離が異なる複数のカメラレンズ121と前記複数のカメラレンズの各々の焦点距離で複数の画像を撮影する画像撮影部122とを備える。画像撮影部で得られた画像の各々に対して、対象物体認識モジュール111で拡張現実を行う際の対象物体を認識する認識処理を行う。
【0020】
[拡張現実対象認識装置100の概要]
図1は、本発明の好適な実施形態である拡張現実対象認識装置100の概要図である。この図1に基づいて、拡張現実対象認識装置100の概要を説明する。
【0021】
拡張現実対象認識装置100は、制御部110と、カメラ部120と、記憶部130と入出力部150から構成される。カメラ部120は、複数のカメラレンズを配置したレンズ部121と、撮影対象となる撮影物体に対して、前記複数のカメラレンズの各々の焦点距離で、複数の画像を撮影する画像撮影部122とで構成される。
【0022】
拡張現実対象認識装置100は、スマートフォンやタブレットPC、デジタルカメラ、ウェアラブルデバイス、防犯カメラ、またはカメラ機能をそなえたPC等の一般的な情報家電であってよく、拡張現実対象認識装置100として図示しているスマートフォンはその一例にすぎない。
【0023】
はじめに、ユーザは、拡張現実対象認識装置100の入出力部150をもちいて、対象物体50に対するAR機能を実行するために、カメラで画像を撮影する指示を行う(ステップS11)。この時、拡張現実対象認識装置100では、AR機能を実行するためのアプリケーション・プログラム(以下、アプリ)が実行されているものとする。
【0024】
入出力部150は、図1に示すように、AR機能を実行するために、カメラ撮影をおこなうかどうかをユーザに選択させるメッセージを表示したり、選択を行うためのボタン機能をそなえるものとする。ボタン機能に関しては、液晶ディスプレイに表示を行いタッチパネルで選択させてもよしいし、装置上のハードウェアボタンやキーボードによる入力を受け付けてもよい。入出力部150から実行の指示を受けた制御部110は、カメラ部120に対して、画像撮影の指示を行う(ステップS12)。
【0025】
この指示を受け、カメラ部120では、焦点距離が異なる複数のカメラレンズを配置したレンズ部121と画像撮影部122により、撮影対象である撮影物体50に対して、複数のカメラレンズの各々の焦点距離で複数の画像を撮影する(ステップS13)。
【0026】
カメラ部120は、図4に示すように、レンズ部121を通して、撮影物体50を画像撮影部122に投影する。画像撮影部122はCCDなどのイメージセンサから構成される。レンズ部121と画像撮影部122との間の焦点距離は、カメラレンズによってことなるため、各カメラレンズに対して適切な距離で構成するものとする。
【0027】
図1および図5には、カメラ部120に、14mm、35mm、300mmと異なる焦点距離(35mm換算)のレンズを縦x横が3x3列の合計9つ備えた例を図示している。ただし、複数のカメラレンズの配置と焦点距離の選択方法については、これに制限されるものではなく、撮影対象の物体の大きさや、カメラからの距離、または撮影したい範囲に応じて変更可能であるものとする。また、ここでは焦点距離が異なる場合を例としているが、それだけではなく、絞りや露光時間、ISO感度等の設定も、変更可能とする。
【0028】
例えば、図6に示すように、カメラ部を2ヶ所に分けて、横長に配置することで、水平方向により広範囲の画像を取得することができる。
【0029】
また、図7に示すように、カメラレンズをミラーボールのように球体の表面に一様に配置することで、360度全方位の画像を取得することができる。
【0030】
次に、記憶部130では、ステップ13で撮影した複数の画像を保持する(ステップS14)。また、記憶部130には、後述する対象物体認識処理(ステップS15)のために必要なデータベースや、同じく後述するAR画像処理(ステップS16)のために必要なデータベースを備えてもよい。
【0031】
制御部110は、記憶部130に保持された複数の撮影画像を使用して、対象物体認識処理を行う(ステップS15)。ここでの処理は、複数の画像の各々に対して、撮影物体50が撮影範囲からはみ出しているよりすぎのNG画像や、ボケや撮影物体が小さすぎることが原因でコーナー点や局所特徴量を求めることができないNG画像、その他NG画像を除去する。そして、残りのOK画像を使用して、対象物体の認識を行う。ここでの認識処理はアルゴリズムを問わない。また、今回は複数の静止画像を得ることになるが、これに対して動画から複数画像を抽出して対象物体の認識を行う場合のアルゴリズムを適用してもよい。
【0032】
対象物体認識処理(ステップS15)のために必要なデータベースを記憶部130に備える場合には、制御部110は対象物体認識処理中に必要に応じて、逐次記憶部130にアクセスしてデータを取得する。また、対象物体認識処理後のデータを、次回の処理に使用するために、記憶部130に蓄積してもよい。
【0033】
対象物体認識処理の実行後、同じく制御部110で、AR画像処理を実行する(ステップS16)。この処理は、AR機能を実行するためのアプリの機能に応じるものとする。たとえば、図1では、撮影物体50の幅が20cmであることを表示するための画像データを作成している。
【0034】
また、AR画像処理(ステップS16)のために必要なデータベースを記憶部130に備える場合には、制御部110はAR画像処理中に必要に応じて、逐次記憶部130にアクセスしてデータを取得する。さらに、AR画像処理後のデータを、記憶部130に蓄積してもよい。
【0035】
最後に、作成したAR画像を入出力部150に表示して、一連の処理を終了する(ステップS17)。AR画像の表示は、スマートフォンやタブレットPC、デジタルカメラ、ウェアラブルデバイスの液晶ディスプレイ、PCのディスプレイ、プロジェクタを用いた外部スクリーンへの投影など、様々な形態が可能である。
【0036】
[各機能の説明]
図2は、拡張現実対象認識装置100の機能ブロックと各機能の関係を示す図である。
【0037】
拡張現実対象認識装置100は、制御部110として、CPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)等を備える。
【0038】
拡張現実対象認識装置100において、制御部110が所定のプログラムを読み込むことで、記憶部130と協働して、対象物体認識モジュール111を実現する。
【0039】
拡張現実対象認識装置100は、カメラ部120のレンズ部121として焦点距離が異なる複数のカメラレンズを備え、かつ、例えば、CCDなどのイメージセンサから構成され複数のカメラレンズの各々の焦点距離で複数の画像を撮影する画像撮影部122を備える。
【0040】
また、入出力部150としては、入力部としてタッチパネル機能を実現する液晶ディスプレイや装置上のハードウェアボタンやキーボード、さらに音声認識を行うためのマイク等を備えて良い。出力部としても、液晶ディスプレイ、PCのディスプレイ、プロジェクタを用いた外部スクリーンへの投影など様々な形態をとることが可能である。入出力方法により、本発明は特に機能を限定されるものではない。
【0041】
[対象物体認識処理]
図3は、拡張現実対象認識装置100が実行する対象物体認識処理のフローチャートである。上述した装置の各部とモジュールが行う処理について、本処理にて併せて説明する。
【0042】
初めに、拡張現実対象認識装置100の入出力部150は、AR画像の撮影指示入力を受け付け、制御部110に撮影指示を行う(ステップS11)。
【0043】
制御部110はこの指示を受け、カメラ部120に撮影指示を行う(ステップS12)。
【0044】
カメラ部120では、複数のカメラレンズを配置したレンズ部121と、前記複数のカメラレンズの各々の焦点距離で複数の画像を撮影する画像撮影部122により、複数画像を撮影する(ステップS13)。
【0045】
カメラ部120で撮影した複数画像は、記憶部130で保持し(ステップS14)、その後、制御部110で対象物体認識処理を行う(ステップS15)。
【0046】
対象物認識処理は複数の画像の各々に対して行い、NG画像を除去し、OK画像を使用する。NG画像とは、焦点ずれや手ぶれ等のボケの画像や撮影物体が小さすぎてコーナー点や局所特徴量を求めることができない画像である。ここで、拡張現実対象認識装置100では、焦点距離が異なるカメラレンズを使用し、また、複数のカメラにより広範囲を取得する構成であるため、必ずOK画像が得られることが期待できる。
【0047】
対象物認識処理で複数のOK画像が得られた場合には、それらを利用して、更に精度のよい対象物の認識を行うことも可能となる。ここでの対象物認識処理は、アルゴリズムを問わず、本発明を限定するものではない。
【0048】
また、対象物認識処理を行う際に、データベースを参照する必要がある場合には、記憶部130にデータベースを設けて、それを参照してもよいものとする。さらに、対象物体認識処理後のデータを、記憶部130に蓄積してもよい。
【0049】
次に、制御部110では対象物体認識処理で得られた画像データに対して、AR画像処理を行う(ステップS16)。
【0050】
ARでは、見えている物の説明を文字や音声で行うサービスなど様々なものがあるので、表示用の画像処理だけではなく、音声出力用のデータを作成する処理も、ここで同時に行ってもよい。また、図1では撮影物体50の幅が20cmであることを表示するための画像データを作成し、表示する例を英眼しているが、拡張現実対象認識装置の機能やAR機能を実行するためのアプリやサービスの内容に応じ、適切な処理を行うものとする。
【0051】
また、AR画像処理を行う際に、データベースを参照する必要がある場合には、記憶部130にデータベースを設けて、それを参照してもよいものとする。さらに、AR画像処理後のデータを、記憶部130に蓄積してもよい。
【0052】
最後に、入出力部150では、作成したAR画像の表示を行う(ステップS17)。ここでの表示は、表示部であるディスプレイや外部スクリーンなど、出力部の機能にあわせて行うものとする。また、もし音声出力用のデータがある場合には、同時に出力を行ってもよい。
【0053】
[対象物体認識処理をサーバ2000で実施する場合の各機能の説明]
図8は、本発明の対象物体認識処理をサーバ2000で実施する場合の、拡張現実対象認識装置1000とサーバ2000の機能ブロックと各機能の関係を示す図である。
【0054】
拡張現実対象認識装置1000とサーバ2000とは、インターネット網などの公衆回線網3000を介して、通信可能に接続されているものとする。
【0055】
ここで、拡張現実対象認識装置1000は、スマートフォンやタブレットPC、通信機能を備えたデジタルカメラ、ウェアラブルデバイス、防犯カメラ、またはカメラ機能をそなえたPC等の一般的な情報家電であってよく、拡張現実対象認識装置1000として図示しているスマートフォンはその一例にすぎない。
【0056】
また、サーバ2000は、後述の対象物認識機能を備える、一般的なサーバであってよい。
【0057】
拡張現実対象認識装置1000は、制御部1100として、CPU、RAM、ROM等を備える。
【0058】
拡張現実対象認識装置1000において、制御部1100は、サーバ2000で対象物体認識処理、またはさらに対象物認識処理に加えてAR画像処理を行うように指示を出す。
【0059】
拡張現実対象認識装置1000は、カメラ部1200のレンズ部1210として焦点距離が異なる複数のカメラレンズを備え、かつ、例えば、CCDなどのイメージセンサから構成され複数のカメラレンズの各々の焦点距離で複数の画像を撮影する画像撮影部1220を備える。
【0060】
さらに、拡張現実対象認識装置1000は、通信部1400を備え、サーバ2000への撮影画像の送信や、サーバ2000からの対象物体認識画像またはAR画像の受信を行う。
【0061】
また、拡張現実対象認識装置1000の入出力部1500としては、入力部としてタッチパネル機能を実現する液晶ディスプレイや装置上のハードウェアボタンやキーボード、さらに音声認識を行うためのマイク等を備えて良い。出力部としても、液晶ディスプレイ、PCのディスプレイ、プロジェクタを用いた外部スクリーンへの投影など様々な形態をとることが可能である。入出力方法により、本発明は特に機能を限定されるものではない。
【0062】
[対象物体認識処理をサーバ2000で実施する場合の処理]
図9は、対象物体認識処理をサーバ2000で実施する場合に、拡張現実対象認識装置1000の実行する処理のフローチャート図である。また、図10は、対象物体認識処理をサーバ2000で実施する場合に、サーバ2000の実行する処理のフローチャート図である。上述した装置の各部とモジュールが行う処理について、本処理にて併せて説明する。
【0063】
図9に示す通り、初めに、拡張現実対象認識装置1000の入出力部1500は、AR画像の撮影指示入力を受け付け、制御部1100に撮影指示を行う(ステップS21)。
【0064】
制御部1100はこの指示を受け、カメラ部1200に撮影指示を行う(ステップS22)。
【0065】
カメラ部1200では、複数のカメラレンズを配置したレンズ部1210と、前記複数のカメラレンズの各々の焦点距離で複数の画像を撮影する画像撮影部1220により、複数画像を撮影する(ステップS23)。
【0066】
カメラ部1200で撮影した複数画像は、記憶部1300で保持し(ステップS24)、その後、制御部1100が、サーバでの対象物体認識処理を指示する(ステップS25)。
【0067】
通信部1400は、制御部1100からの指示を受けて、サーバ2000に対して、公衆通信網3000を介して、対象物体認識処理の指示とともに撮影画像を送信する(ステップS16)。
【0068】
ここで、図10のサーバ2000側の処理に移る。
【0069】
サーバ2000の通信部2400では、拡張現実対象認識装置1000から、対象物体認識処理の指示とともに撮影画像を受信する(ステップS27)。
【0070】
その後、記憶部2300に受信した複数画像を保持し(ステップS28)、制御部2100で実行される対象物認識モジュール2210で対象物認識処理を行う(ステップS29)。
【0071】
対象物認識処理は複数の画像の各々に対して行い、NG画像を除去し、OK画像を使用する。NG画像とは、焦点ずれや手ぶれ等のボケの画像や撮影物体が小さすぎてコーナー点や局所特徴量を求めることができない画像である。ここで、拡張現実対象認識装置1000では、焦点距離が異なるカメラレンズを使用し、また、複数のカメラにより広範囲を取得する構成であるため、必ずOK画像が得られることが期待できる。
【0072】
対象物認識処理で複数のOK画像が得られた場合には、それらを利用して、更に精度のよい対象物の認識を行うことも可能となる。ここでの対象物認識処理は、アルゴリズムを問わず、本発明を限定するものではない。
【0073】
また、対象物認識処理を行う際に、データベースを参照する必要がある場合には、サーバ2000の記憶部2300にデータベースを設けて、それを参照してもよいものとする。さらに、対象物体認識処理後のデータを、記憶部2300に蓄積してもよい。
【0074】
次に、通信部2400は、対象物体認識処理で得られた対象物体認識画像を、拡張現実対象認識装置1000に送信する(ステップS30)。
【0075】
ここで、図9の拡張現実対象認識装置1000側の処理に戻る。
【0076】
通信部1400は、サーバ2000により送信された対象物体認識画像を受信する(ステップS31)。ここで、受信する画像は、最終的に選択された一枚の像でも良いし、対象物認識モジュールによって、対象物の認識が可能であった複数枚のOK画像であってもよい。
【0077】
受信した対象物体認識画像に対して、制御部1100でAR画像処理を行う(ステップS32)。
【0078】
ここでは、表示用の画像処理だけではなく、音声出力用のデータを作成する処理も、同時に行ってもよい。また、拡張現実対象認識装置の機能やAR機能を実行するためのアプリやサービスの内容に応じ、適切な処理を行うものとする。
【0079】
また、AR画像処理を行う際に、データベースを参照する必要がある場合には、拡張現実対象認識装置1000の記憶部1300にデータベースを設けて、それを参照してもよいものとする。さらに、AR画像処理後のデータを、記憶部1300に蓄積してもよい。
【0080】
最後に、入出力部1500で、作成したAR画像の表示を行う(ステップS33)。ここでの表示は、表示部であるディスプレイや外部スクリーンなど、出力部の機能にあわせて行うものとする。また、もし音声出力用のデータがある場合には、同時に出力を行ってもよい。
【0081】
[対象物体認識処理とAR画像処理をサーバ2000で実施する場合の処理]
図11は、本発明の対象物体認識処理とAR画像処理をサーバ2000で実施する場合に、拡張現実対象認識装置1000の実行する処理のフローチャート図である。また、図12は、本発明の対象物体認識処理とAR画像処理をサーバ2000で実施する場合に、サーバ2000の実行する処理のフローチャート図である。上述した装置の各部とモジュールが行う処理について、本処理にて併せて説明する。
【0082】
図11に示す通り、初めに、拡張現実対象認識装置1000の入出力部1500は、AR画像の撮影指示入力を受け付け、制御部1100に撮影指示を行う(ステップS51)。
【0083】
制御部1100はこの指示を受け、カメラ部1200に撮影指示を行う(ステップS52)。
【0084】
カメラ部1200では、複数のカメラレンズを配置したレンズ部1210と、前記複数のカメラレンズの各々の焦点距離で複数の画像を撮影する画像撮影部1220により、複数画像を撮影する(ステップS53)。
【0085】
カメラ部1200で撮影した複数画像は、記憶部1300で保持し(ステップS54)、その後、制御部1100が、サーバでの対象物体認識処理を指示する(ステップS55)。
【0086】
通信部1400は、制御部1100からの指示を受けて、サーバ2000に対して、公衆通信網3000を介して、対象物体認識処理の指示とともに撮影画像を送信する(ステップS56)。
【0087】
ここで、図12のサーバ2000側の処理に移る。
【0088】
サーバ2000の通信部2400では、拡張現実対象認識装置1000から、対象物体認識処理の指示とともに撮影画像を受信する(ステップS57)。
【0089】
その後、記憶部2300に受信した複数画像を保持し(ステップS58)、制御部2100で実行される対象物認識モジュール2210で対象物認識処理を行う(ステップS59)。
【0090】
対象物認識処理は複数の画像の各々に対して行い、NG画像を除去し、OK画像を使用する。NG画像とは、焦点ずれや手ぶれ等のボケの画像や撮影物体が小さすぎてコーナー点や局所特徴量を求めることができない画像である。ここで、拡張現実対象認識装置1000では、焦点距離が異なるカメラレンズを使用し、また、複数のカメラにより広範囲を取得する構成であるため、必ずOK画像が得られることが期待できる。
【0091】
対象物認識処理で複数のOK画像が得られた場合には、それらを利用して、更に精度のよい対象物の認識を行うことも可能となる。ここでの対象物認識処理は、アルゴリズムを問わず、本発明を限定するものではない。
【0092】
また、対象物認識処理を行う際に、データベースを参照する必要がある場合には、サーバ2000の記憶部2300にデータベースを設けて、それを参照してもよいものとする。さらに、対象物体認識処理後のデータを、記憶部2300に蓄積してもよい。
【0093】
次に制御部2100でAR画像処理を行う(ステップS60)。
【0094】
ここでは、表示用の画像処理だけではなく、音声出力用のデータを作成する処理も、同時に行ってもよい。また、拡張現実対象認識装置の機能やAR機能を実行するためのアプリやサービスの内容に応じ、適切な処理を行うものとする。
【0095】
また、AR画像処理を行う際に、データベースを参照する必要がある場合には、サーバ2000の記憶部2300にデータベースを設けて、それを参照してもよいものとする。さらに、AR画像処理後のデータを、記憶部2300に蓄積してもよい。
【0096】
その後、通信部2400は、AR画像処理で得られたAR画像やその他の出力用データを、拡張現実対象認識装置1000に送信する(ステップS61)。
【0097】
ここで、図11の拡張現実対象認識装置1000側の処理に戻る。
【0098】
通信部1400は、サーバ2000により送信されたAR画像やその他の出力データを受信する(ステップS62)。
【0099】
最後に、入出力部1500で、受信したAR画像の表示を行うとともに、必要に応じてその他の出力データを出力する(ステップS63)。ここでのデータの表示や出力は、出力部の機能にあわせて行うものとする。
【0100】
以上、本発明の実施形態について説明したが、本発明は上述したこれらの実施形態に限るものではない。また、本発明の実施形態に記載された効果は、本発明から生じる最も好適な効果を列挙したに過ぎず、本発明による効果は、本発明の実施形態に記載されたものに限定されるものではない。
【符号の説明】
【0101】
50 対象物体、100 拡張現実対象認識装置、1000 拡張現実対象認識装置、2000 サーバ、3000 公衆回線網
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12