(58)【調査した分野】(Int.Cl.,DB名)
【発明を実施するための形態】
【0018】
以下、本発明を実施するための最良の形態について図を参照しながら説明する。なお、これはあくまでも一例であって、本発明の技術的範囲はこれに限られるものではない。
【0019】
本発明の概要について説明する。拡張現実対象認識装置100は、カメラ部120に焦点距離が異なる複数のカメラレンズ121と前記複数のカメラレンズの各々の焦点距離で複数の画像を撮影する画像撮影部122とを備える。画像撮影部で得られた画像の各々に対して、対象物体認識モジュール111で拡張現実を行う際の対象物体を認識する認識処理を行う。
【0020】
[拡張現実対象認識装置100の概要]
図1は、本発明の好適な実施形態である拡張現実対象認識装置100の概要図である。この
図1に基づいて、拡張現実対象認識装置100の概要を説明する。
【0021】
拡張現実対象認識装置100は、制御部110と、カメラ部120と、記憶部130と入出力部150から構成される。カメラ部120は、複数のカメラレンズを配置したレンズ部121と、撮影対象となる撮影物体に対して、前記複数のカメラレンズの各々の焦点距離で、複数の画像を撮影する画像撮影部122とで構成される。
【0022】
拡張現実対象認識装置100は、スマートフォンやタブレットPC、デジタルカメラ、ウェアラブルデバイス、防犯カメラ、またはカメラ機能をそなえたPC等の一般的な情報家電であってよく、拡張現実対象認識装置100として図示しているスマートフォンはその一例にすぎない。
【0023】
はじめに、ユーザは、拡張現実対象認識装置100の入出力部150をもちいて、対象物体50に対するAR機能を実行するために、カメラで画像を撮影する指示を行う(ステップS11)。この時、拡張現実対象認識装置100では、AR機能を実行するためのアプリケーション・プログラム(以下、アプリ)が実行されているものとする。
【0024】
入出力部150は、
図1に示すように、AR機能を実行するために、カメラ撮影をおこなうかどうかをユーザに選択させるメッセージを表示したり、選択を行うためのボタン機能をそなえるものとする。ボタン機能に関しては、液晶ディスプレイに表示を行いタッチパネルで選択させてもよしいし、装置上のハードウェアボタンやキーボードによる入力を受け付けてもよい。入出力部150から実行の指示を受けた制御部110は、カメラ部120に対して、画像撮影の指示を行う(ステップS12)。
【0025】
この指示を受け、カメラ部120では、焦点距離が異なる複数のカメラレンズを配置したレンズ部121と画像撮影部122により、撮影対象である撮影物体50に対して、複数のカメラレンズの各々の焦点距離で複数の画像を撮影する(ステップS13)。
【0026】
カメラ部120は、
図4に示すように、レンズ部121を通して、撮影物体50を画像撮影部122に投影する。画像撮影部122はCCDなどのイメージセンサから構成される。レンズ部121と画像撮影部122との間の焦点距離は、カメラレンズによってことなるため、各カメラレンズに対して適切な距離で構成するものとする。
【0027】
図1および
図5には、カメラ部120に、14mm、35mm、300mmと異なる焦点距離(35mm換算)のレンズを縦x横が3x3列の合計9つ備えた例を図示している。ただし、複数のカメラレンズの配置と焦点距離の選択方法については、これに制限されるものではなく、撮影対象の物体の大きさや、カメラからの距離、または撮影したい範囲に応じて変更可能であるものとする。また、ここでは焦点距離が異なる場合を例としているが、それだけではなく、絞りや露光時間、ISO感度等の設定も、変更可能とする。
【0028】
例えば、
図6に示すように、カメラ部を2ヶ所に分けて、横長に配置することで、水平方向により広範囲の画像を取得することができる。
【0029】
また、
図7に示すように、カメラレンズをミラーボールのように球体の表面に一様に配置することで、360度全方位の画像を取得することができる。
【0030】
次に、記憶部130では、ステップ13で撮影した複数の画像を保持する(ステップS14)。また、記憶部130には、後述する対象物体認識処理(ステップS15)のために必要なデータベースや、同じく後述するAR画像処理(ステップS16)のために必要なデータベースを備えてもよい。
【0031】
制御部110は、記憶部130に保持された複数の撮影画像を使用して、対象物体認識処理を行う(ステップS15)。ここでの処理は、複数の画像の各々に対して、撮影物体50が撮影範囲からはみ出しているよりすぎのNG画像や、ボケや撮影物体が小さすぎることが原因でコーナー点や局所特徴量を求めることができないNG画像、その他NG画像を除去する。そして、残りのOK画像を使用して、対象物体の認識を行う。ここでの認識処理はアルゴリズムを問わない。また、今回は複数の静止画像を得ることになるが、これに対して動画から複数画像を抽出して対象物体の認識を行う場合のアルゴリズムを適用してもよい。
【0032】
対象物体認識処理(ステップS15)のために必要なデータベースを記憶部130に備える場合には、制御部110は対象物体認識処理中に必要に応じて、逐次記憶部130にアクセスしてデータを取得する。また、対象物体認識処理後のデータを、次回の処理に使用するために、記憶部130に蓄積してもよい。
【0033】
対象物体認識処理の実行後、同じく制御部110で、AR画像処理を実行する(ステップS16)。この処理は、AR機能を実行するためのアプリの機能に応じるものとする。たとえば、
図1では、撮影物体50の幅が20cmであることを表示するための画像データを作成している。
【0034】
また、AR画像処理(ステップS16)のために必要なデータベースを記憶部130に備える場合には、制御部110はAR画像処理中に必要に応じて、逐次記憶部130にアクセスしてデータを取得する。さらに、AR画像処理後のデータを、記憶部130に蓄積してもよい。
【0035】
最後に、作成したAR画像を入出力部150に表示して、一連の処理を終了する(ステップS17)。AR画像の表示は、スマートフォンやタブレットPC、デジタルカメラ、ウェアラブルデバイスの液晶ディスプレイ、PCのディスプレイ、プロジェクタを用いた外部スクリーンへの投影など、様々な形態が可能である。
【0036】
[各機能の説明]
図2は、拡張現実対象認識装置100の機能ブロックと各機能の関係を示す図である。
【0037】
拡張現実対象認識装置100は、制御部110として、CPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)等を備える。
【0038】
拡張現実対象認識装置100において、制御部110が所定のプログラムを読み込むことで、記憶部130と協働して、対象物体認識モジュール111を実現する。
【0039】
拡張現実対象認識装置100は、カメラ部120のレンズ部121として焦点距離が異なる複数のカメラレンズを備え、かつ、例えば、CCDなどのイメージセンサから構成され複数のカメラレンズの各々の焦点距離で複数の画像を撮影する画像撮影部122を備える。
【0040】
また、入出力部150としては、入力部としてタッチパネル機能を実現する液晶ディスプレイや装置上のハードウェアボタンやキーボード、さらに音声認識を行うためのマイク等を備えて良い。出力部としても、液晶ディスプレイ、PCのディスプレイ、プロジェクタを用いた外部スクリーンへの投影など様々な形態をとることが可能である。入出力方法により、本発明は特に機能を限定されるものではない。
【0041】
[対象物体認識処理]
図3は、拡張現実対象認識装置100が実行する対象物体認識処理のフローチャートである。上述した装置の各部とモジュールが行う処理について、本処理にて併せて説明する。
【0042】
初めに、拡張現実対象認識装置100の入出力部150は、AR画像の撮影指示入力を受け付け、制御部110に撮影指示を行う(ステップS11)。
【0043】
制御部110はこの指示を受け、カメラ部120に撮影指示を行う(ステップS12)。
【0044】
カメラ部120では、複数のカメラレンズを配置したレンズ部121と、前記複数のカメラレンズの各々の焦点距離で複数の画像を撮影する画像撮影部122により、複数画像を撮影する(ステップS13)。
【0045】
カメラ部120で撮影した複数画像は、記憶部130で保持し(ステップS14)、その後、制御部110で対象物体認識処理を行う(ステップS15)。
【0046】
対象物認識処理は複数の画像の各々に対して行い、NG画像を除去し、OK画像を使用する。NG画像とは、焦点ずれや手ぶれ等のボケの画像や撮影物体が小さすぎてコーナー点や局所特徴量を求めることができない画像である。ここで、拡張現実対象認識装置100では、焦点距離が異なるカメラレンズを使用し、また、複数のカメラにより広範囲を取得する構成であるため、必ずOK画像が得られることが期待できる。
【0047】
対象物認識処理で複数のOK画像が得られた場合には、それらを利用して、更に精度のよい対象物の認識を行うことも可能となる。ここでの対象物認識処理は、アルゴリズムを問わず、本発明を限定するものではない。
【0048】
また、対象物認識処理を行う際に、データベースを参照する必要がある場合には、記憶部130にデータベースを設けて、それを参照してもよいものとする。さらに、対象物体認識処理後のデータを、記憶部130に蓄積してもよい。
【0049】
次に、制御部110では対象物体認識処理で得られた画像データに対して、AR画像処理を行う(ステップS16)。
【0050】
ARでは、見えている物の説明を文字や音声で行うサービスなど様々なものがあるので、表示用の画像処理だけではなく、音声出力用のデータを作成する処理も、ここで同時に行ってもよい。また、
図1では撮影物体50の幅が20cmであることを表示するための画像データを作成し、表示する例を英眼しているが、拡張現実対象認識装置の機能やAR機能を実行するためのアプリやサービスの内容に応じ、適切な処理を行うものとする。
【0051】
また、AR画像処理を行う際に、データベースを参照する必要がある場合には、記憶部130にデータベースを設けて、それを参照してもよいものとする。さらに、AR画像処理後のデータを、記憶部130に蓄積してもよい。
【0052】
最後に、入出力部150では、作成したAR画像の表示を行う(ステップS17)。ここでの表示は、表示部であるディスプレイや外部スクリーンなど、出力部の機能にあわせて行うものとする。また、もし音声出力用のデータがある場合には、同時に出力を行ってもよい。
【0053】
[対象物体認識処理をサーバ2000で実施する場合の各機能の説明]
図8は、本発明の対象物体認識処理をサーバ2000で実施する場合の、拡張現実対象認識装置1000とサーバ2000の機能ブロックと各機能の関係を示す図である。
【0054】
拡張現実対象認識装置1000とサーバ2000とは、インターネット網などの公衆回線網3000を介して、通信可能に接続されているものとする。
【0055】
ここで、拡張現実対象認識装置1000は、スマートフォンやタブレットPC、通信機能を備えたデジタルカメラ、ウェアラブルデバイス、防犯カメラ、またはカメラ機能をそなえたPC等の一般的な情報家電であってよく、拡張現実対象認識装置1000として図示しているスマートフォンはその一例にすぎない。
【0056】
また、サーバ2000は、後述の対象物認識機能を備える、一般的なサーバであってよい。
【0057】
拡張現実対象認識装置1000は、制御部1100として、CPU、RAM、ROM等を備える。
【0058】
拡張現実対象認識装置1000において、制御部1100は、サーバ2000で対象物体認識処理、またはさらに対象物認識処理に加えてAR画像処理を行うように指示を出す。
【0059】
拡張現実対象認識装置1000は、カメラ部1200のレンズ部1210として焦点距離が異なる複数のカメラレンズを備え、かつ、例えば、CCDなどのイメージセンサから構成され複数のカメラレンズの各々の焦点距離で複数の画像を撮影する画像撮影部1220を備える。
【0060】
さらに、拡張現実対象認識装置1000は、通信部1400を備え、サーバ2000への撮影画像の送信や、サーバ2000からの対象物体認識画像またはAR画像の受信を行う。
【0061】
また、拡張現実対象認識装置1000の入出力部1500としては、入力部としてタッチパネル機能を実現する液晶ディスプレイや装置上のハードウェアボタンやキーボード、さらに音声認識を行うためのマイク等を備えて良い。出力部としても、液晶ディスプレイ、PCのディスプレイ、プロジェクタを用いた外部スクリーンへの投影など様々な形態をとることが可能である。入出力方法により、本発明は特に機能を限定されるものではない。
【0062】
[対象物体認識処理をサーバ2000で実施する場合の処理]
図9は、対象物体認識処理をサーバ2000で実施する場合に、拡張現実対象認識装置1000の実行する処理のフローチャート図である。また、
図10は、対象物体認識処理をサーバ2000で実施する場合に、サーバ2000の実行する処理のフローチャート図である。上述した装置の各部とモジュールが行う処理について、本処理にて併せて説明する。
【0063】
図9に示す通り、初めに、拡張現実対象認識装置1000の入出力部1500は、AR画像の撮影指示入力を受け付け、制御部1100に撮影指示を行う(ステップS21)。
【0064】
制御部1100はこの指示を受け、カメラ部1200に撮影指示を行う(ステップS22)。
【0065】
カメラ部1200では、複数のカメラレンズを配置したレンズ部1210と、前記複数のカメラレンズの各々の焦点距離で複数の画像を撮影する画像撮影部1220により、複数画像を撮影する(ステップS23)。
【0066】
カメラ部1200で撮影した複数画像は、記憶部1300で保持し(ステップS24)、その後、制御部1100が、サーバでの対象物体認識処理を指示する(ステップS25)。
【0067】
通信部1400は、制御部1100からの指示を受けて、サーバ2000に対して、公衆通信網3000を介して、対象物体認識処理の指示とともに撮影画像を送信する(ステップS16)。
【0068】
ここで、
図10のサーバ2000側の処理に移る。
【0069】
サーバ2000の通信部2400では、拡張現実対象認識装置1000から、対象物体認識処理の指示とともに撮影画像を受信する(ステップS27)。
【0070】
その後、記憶部2300に受信した複数画像を保持し(ステップS28)、制御部2100で実行される対象物認識モジュール2210で対象物認識処理を行う(ステップS29)。
【0071】
対象物認識処理は複数の画像の各々に対して行い、NG画像を除去し、OK画像を使用する。NG画像とは、焦点ずれや手ぶれ等のボケの画像や撮影物体が小さすぎてコーナー点や局所特徴量を求めることができない画像である。ここで、拡張現実対象認識装置1000では、焦点距離が異なるカメラレンズを使用し、また、複数のカメラにより広範囲を取得する構成であるため、必ずOK画像が得られることが期待できる。
【0072】
対象物認識処理で複数のOK画像が得られた場合には、それらを利用して、更に精度のよい対象物の認識を行うことも可能となる。ここでの対象物認識処理は、アルゴリズムを問わず、本発明を限定するものではない。
【0073】
また、対象物認識処理を行う際に、データベースを参照する必要がある場合には、サーバ2000の記憶部2300にデータベースを設けて、それを参照してもよいものとする。さらに、対象物体認識処理後のデータを、記憶部2300に蓄積してもよい。
【0074】
次に、通信部2400は、対象物体認識処理で得られた対象物体認識画像を、拡張現実対象認識装置1000に送信する(ステップS30)。
【0075】
ここで、
図9の拡張現実対象認識装置1000側の処理に戻る。
【0076】
通信部1400は、サーバ2000により送信された対象物体認識画像を受信する(ステップS31)。ここで、受信する画像は、最終的に選択された一枚の像でも良いし、対象物認識モジュールによって、対象物の認識が可能であった複数枚のOK画像であってもよい。
【0077】
受信した対象物体認識画像に対して、制御部1100でAR画像処理を行う(ステップS32)。
【0078】
ここでは、表示用の画像処理だけではなく、音声出力用のデータを作成する処理も、同時に行ってもよい。また、拡張現実対象認識装置の機能やAR機能を実行するためのアプリやサービスの内容に応じ、適切な処理を行うものとする。
【0079】
また、AR画像処理を行う際に、データベースを参照する必要がある場合には、拡張現実対象認識装置1000の記憶部1300にデータベースを設けて、それを参照してもよいものとする。さらに、AR画像処理後のデータを、記憶部1300に蓄積してもよい。
【0080】
最後に、入出力部1500で、作成したAR画像の表示を行う(ステップS33)。ここでの表示は、表示部であるディスプレイや外部スクリーンなど、出力部の機能にあわせて行うものとする。また、もし音声出力用のデータがある場合には、同時に出力を行ってもよい。
【0081】
[対象物体認識処理とAR画像処理をサーバ2000で実施する場合の処理]
図11は、本発明の対象物体認識処理とAR画像処理をサーバ2000で実施する場合に、拡張現実対象認識装置1000の実行する処理のフローチャート図である。また、
図12は、本発明の対象物体認識処理とAR画像処理をサーバ2000で実施する場合に、サーバ2000の実行する処理のフローチャート図である。上述した装置の各部とモジュールが行う処理について、本処理にて併せて説明する。
【0082】
図11に示す通り、初めに、拡張現実対象認識装置1000の入出力部1500は、AR画像の撮影指示入力を受け付け、制御部1100に撮影指示を行う(ステップS51)。
【0083】
制御部1100はこの指示を受け、カメラ部1200に撮影指示を行う(ステップS52)。
【0084】
カメラ部1200では、複数のカメラレンズを配置したレンズ部1210と、前記複数のカメラレンズの各々の焦点距離で複数の画像を撮影する画像撮影部1220により、複数画像を撮影する(ステップS53)。
【0085】
カメラ部1200で撮影した複数画像は、記憶部1300で保持し(ステップS54)、その後、制御部1100が、サーバでの対象物体認識処理を指示する(ステップS55)。
【0086】
通信部1400は、制御部1100からの指示を受けて、サーバ2000に対して、公衆通信網3000を介して、対象物体認識処理の指示とともに撮影画像を送信する(ステップS56)。
【0087】
ここで、
図12のサーバ2000側の処理に移る。
【0088】
サーバ2000の通信部2400では、拡張現実対象認識装置1000から、対象物体認識処理の指示とともに撮影画像を受信する(ステップS57)。
【0089】
その後、記憶部2300に受信した複数画像を保持し(ステップS58)、制御部2100で実行される対象物認識モジュール2210で対象物認識処理を行う(ステップS59)。
【0090】
対象物認識処理は複数の画像の各々に対して行い、NG画像を除去し、OK画像を使用する。NG画像とは、焦点ずれや手ぶれ等のボケの画像や撮影物体が小さすぎてコーナー点や局所特徴量を求めることができない画像である。ここで、拡張現実対象認識装置1000では、焦点距離が異なるカメラレンズを使用し、また、複数のカメラにより広範囲を取得する構成であるため、必ずOK画像が得られることが期待できる。
【0091】
対象物認識処理で複数のOK画像が得られた場合には、それらを利用して、更に精度のよい対象物の認識を行うことも可能となる。ここでの対象物認識処理は、アルゴリズムを問わず、本発明を限定するものではない。
【0092】
また、対象物認識処理を行う際に、データベースを参照する必要がある場合には、サーバ2000の記憶部2300にデータベースを設けて、それを参照してもよいものとする。さらに、対象物体認識処理後のデータを、記憶部2300に蓄積してもよい。
【0093】
次に制御部2100でAR画像処理を行う(ステップS60)。
【0094】
ここでは、表示用の画像処理だけではなく、音声出力用のデータを作成する処理も、同時に行ってもよい。また、拡張現実対象認識装置の機能やAR機能を実行するためのアプリやサービスの内容に応じ、適切な処理を行うものとする。
【0095】
また、AR画像処理を行う際に、データベースを参照する必要がある場合には、サーバ2000の記憶部2300にデータベースを設けて、それを参照してもよいものとする。さらに、AR画像処理後のデータを、記憶部2300に蓄積してもよい。
【0096】
その後、通信部2400は、AR画像処理で得られたAR画像やその他の出力用データを、拡張現実対象認識装置1000に送信する(ステップS61)。
【0097】
ここで、
図11の拡張現実対象認識装置1000側の処理に戻る。
【0098】
通信部1400は、サーバ2000により送信されたAR画像やその他の出力データを受信する(ステップS62)。
【0099】
最後に、入出力部1500で、受信したAR画像の表示を行うとともに、必要に応じてその他の出力データを出力する(ステップS63)。ここでのデータの表示や出力は、出力部の機能にあわせて行うものとする。
【0100】
以上、本発明の実施形態について説明したが、本発明は上述したこれらの実施形態に限るものではない。また、本発明の実施形態に記載された効果は、本発明から生じる最も好適な効果を列挙したに過ぎず、本発明による効果は、本発明の実施形態に記載されたものに限定されるものではない。