IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 株式会社リコーの特許一覧

<>
  • 特開-撮影システム、撮影装置および方法 図1
  • 特開-撮影システム、撮影装置および方法 図2
  • 特開-撮影システム、撮影装置および方法 図3
  • 特開-撮影システム、撮影装置および方法 図4
  • 特開-撮影システム、撮影装置および方法 図5
  • 特開-撮影システム、撮影装置および方法 図6
  • 特開-撮影システム、撮影装置および方法 図7
  • 特開-撮影システム、撮影装置および方法 図8
  • 特開-撮影システム、撮影装置および方法 図9
  • 特開-撮影システム、撮影装置および方法 図10
  • 特開-撮影システム、撮影装置および方法 図11
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024051917
(43)【公開日】2024-04-11
(54)【発明の名称】撮影システム、撮影装置および方法
(51)【国際特許分類】
   G03B 37/04 20210101AFI20240404BHJP
   G03B 37/00 20210101ALI20240404BHJP
   G03B 15/00 20210101ALI20240404BHJP
   H04N 23/45 20230101ALI20240404BHJP
   H04N 23/60 20230101ALI20240404BHJP
   H04N 23/698 20230101ALI20240404BHJP
【FI】
G03B37/04
G03B37/00 A
G03B15/00 W
H04N5/225 800
H04N5/232 290
H04N5/232 380
【審査請求】未請求
【請求項の数】9
【出願形態】OL
(21)【出願番号】P 2022158311
(22)【出願日】2022-09-30
(71)【出願人】
【識別番号】000006747
【氏名又は名称】株式会社リコー
(74)【代理人】
【識別番号】100110607
【弁理士】
【氏名又は名称】間山 進也
(72)【発明者】
【氏名】小崎 由紀夫
(72)【発明者】
【氏名】佐藤 裕之
(72)【発明者】
【氏名】林 友彦
【テーマコード(参考)】
2H059
5C122
【Fターム(参考)】
2H059BA11
2H059BA15
2H059CA00
5C122EA68
5C122FA02
5C122FA18
5C122FH09
5C122FH11
5C122FH18
5C122HA75
5C122HB01
(57)【要約】
【課題】 複数の画像を適切につなぎ合わせて合成する撮影システム、撮影装置および方法を提供すること。
【解決手段】 少なくとも2つのカメラ260を含む撮影システム100であって、第1のカメラ260Rおよび第1の慣性センサ270Rを支持する第1の支持体112Rと、第2のカメラ260Lおよび第2の慣性センサ270Lを支持する第2の支持体112Lとが連結部材111で連結され、第1の慣性センサ270Rの測定値と、第2の慣性センサ270Lの測定値とに基づいて、第1のカメラ260Rが撮影した第1の画像と、第2のカメラ260Lが撮影した第2の画像とをつなぎ合わせた合成画像を生成する合成画像生成部323を含む。
【選択図】 図4
【特許請求の範囲】
【請求項1】
少なくとも2つのカメラを含む撮影システムであって、
第1のカメラおよび第1の慣性センサを支持する第1の支持体と、第2のカメラおよび第2の慣性センサを支持する第2の支持体とが連結部材で連結され、
前記第1の慣性センサの測定値と、前記第2の慣性センサの測定値とに基づいて、前記第1のカメラが撮影した第1の画像と、前記第2のカメラが撮影した第2の画像とをつなぎ合わせた合成画像を生成する生成手段と、
を含む、撮影システム。
【請求項2】
前記生成手段は、前記第1の画像と、前記第2の画像とが重複する領域を補正して前記合成画像を生成する、
請求項1に記載の撮影システム。
【請求項3】
前記生成手段は、前記重複する領域をパターンマッチングによって抽出する、
請求項2に記載の撮影システム。
【請求項4】
前記生成手段は、前記パターンマッチングにおいて探索する前記第1の画像および前記第2の画像の範囲を、前記第1の慣性センサの測定値と、前記第2の慣性センサの測定値とに基づいて、オフセットすることを特徴とする、
請求項3に記載の撮影システム。
【請求項5】
前記第1の支持体に第3のカメラがさらに支持され、
前記第2の支持体に第4のカメラがさらに支持される、
請求項1に記載の撮影システム。
【請求項6】
前記生成手段は、前記第1の画像と、前記第2の画像と、前記第3のカメラが撮影した第3の画像と、前記第4のカメラが撮影した第4の画像とをつなぎ合わせた合成画像を生成する、
請求項5に記載の撮影システム。
【請求項7】
少なくとも2つのカメラを含む撮影装置であって、
第1のカメラおよび第1の慣性センサを支持する第1の支持体と、第2のカメラおよび第2の慣性センサを支持する第2の支持体とが連結部材で連結され、
前記第1の慣性センサの測定値と、前記第2の慣性センサの測定値とに基づいて、前記第1のカメラが撮影した第1の画像と、前記第2のカメラが撮影した第2の画像とをつなぎ合わせた合成画像を生成する生成手段と、
を含む、撮影装置。
【請求項8】
前記撮影装置は、前記第1の支持体および前記第2の支持体によって取り付け位置を把持するウェアラブルデバイスである、
請求項7に記載の撮影装置。
【請求項9】
第1のカメラおよび第1の慣性センサを支持する第1の支持体と、第2のカメラおよび第2の慣性センサを支持する第2の支持体とが連結部材で連結された撮影装置において、前記第1のカメラが第1の画像を撮影し、前記第2のカメラが第2の画像を撮影するステップと、
前記第1の慣性センサの測定値と、前記第2の慣性センサの測定値とに基づいて、前記第1の画像と、前記第2の画像とをつなぎ合わせた合成画像を生成するステップ
を含む、方法。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、複数の画像を合成する撮影システム、撮影装置および方法に関する。
【背景技術】
【0002】
近年の情報処理技術の発達に伴って、多様なデバイスが市場に流通している。特に、ユーザの身体に装着するタイプのデバイス(以下、「ウェアラブルデバイス」として参照する)においては、さまざまな形状のものが開発されている。
【0003】
ウェアラブルデバイスの一例として、ユーザの頭部に装着するタイプのものが挙げられる。例えば、国際公開WO2019/078338号明細書(特許文献1)には、複数のカメラを搭載したヘッドフォン型のウェアラブルデバイスが開示されている。特許文献1によれば、ユーザの少なくとも一部を撮影する機能を有する電子機器を小型化することができる。
【0004】
ところで、複数のカメラを備えるウェアラブルデバイスにおいては、各カメラが撮影した画像を合成して、全天球画像やパノラマ画像などの広角画像を生成する形態がある。このような合成画像の生成では、各画像の重複する領域をパターンマッチングすることによって、当該領域を適切につなぎ合わせる処理が行われることがある。
【0005】
しかしながら、特許文献1をはじめとする従来技術におけるウェアラブルデバイスでは、ユーザが装着することによってカメラの相対的な位置関係が変動する可能性がある。そのため、パターンマッチングにおいて重複した領域を探索する範囲が、規定の設計値から外れることになり、合成処理における負荷が増大することとなる。
【0006】
したがって、合成した画像を生成する処理の負荷を軽減する技術が求められていた。
【発明の概要】
【発明が解決しようとする課題】
【0007】
本発明は、上記従来技術における課題に鑑みてなされたものであり、複数の画像を適切につなぎ合わせて合成する撮影システム、撮影装置および方法を提供することを目的とする。
【課題を解決するための手段】
【0008】
すなわち、本発明によれば、
少なくとも2つのカメラを含む撮影システムであって、
第1のカメラおよび第1の慣性センサを支持する第1の支持体と、第2のカメラおよび第2の慣性センサを支持する第2の支持体とが連結部材で連結され、
前記第1の慣性センサの測定値と、前記第2の慣性センサの測定値とに基づいて、前記第1のカメラが撮影した第1の画像と、前記第2のカメラが撮影した第2の画像とをつなぎ合わせた合成画像を生成する生成手段と、
を含む、撮影システムが提供される。
【発明の効果】
【0009】
本発明によれば、複数の画像を適切につなぎ合わせて合成する撮影システム、撮影装置および方法が提供できる。
【図面の簡単な説明】
【0010】
図1】本実施形態における撮影システム全体のハードウェアの概略構成を示す図。
図2】本実施形態の撮影システムを構成する各種装置に含まれるハードウェア構成を示す図。
図3】本実施形態の撮影システムに含まれるソフトウェアブロック図。
図4】本実施形態のウェアラブルデバイスの例を示す斜視図。
図5】本実施形態のウェアラブルデバイスの装着例を示す斜視図。
図6】本実施形態において画像を撮影する例を示す図。
図7】画像のパターンマッチングにおける探索範囲を説明する図。
図8】本実施形態の画像のパターンマッチングにおいて、探索範囲を補正する例を示す図。
図9】本実施形態の撮影システムが合成画像を生成する処理を示すフローチャート。
図10】他の好ましい実施形態におけるウェアラブルデバイスを示す斜視図。
図11】その他の実施形態におけるウェアラブルデバイスを示す斜視図。
【発明を実施するための形態】
【0011】
以下、本発明を、実施形態をもって説明するが、本発明は後述する実施形態に限定されるものではない。なお、以下に参照する各図においては、共通する要素について同じ符号を用い、適宜その説明を省略するものとする。
【0012】
図1は、本実施形態における撮影システム100全体のハードウェアの概略構成を示す図である。図1では、例として、ウェアラブルデバイス110と、情報処理装置120とが、インターネットやLANなどのネットワーク130を介して接続された環境を例示している。なお、ウェアラブルデバイス110や情報処理装置120の台数は、図1に示したものに限らず、撮影システム100に含まれる台数に制限はない。また、ウェアラブルデバイス110や情報処理装置120から、ネットワーク130へ接続する方法は、有線または無線のどちらでもよい。
【0013】
ウェアラブルデバイス110は、ユーザが装着し、当該ユーザの周囲の画像を撮影する装置である。図1に示すウェアラブルデバイス110は、ユーザの頭部に装着する構成の装置であるが、特に実施形態を限定するものではなく、ユーザの身体の任意の箇所に装着することができる。本実施形態のウェアラブルデバイス110は、少なくとも2つのカメラを備えており、各カメラが撮影した画像をつなぎ合わせることで、パノラマ画像や全天球画像のような広角画像を生成することができる。なお、ウェアラブルデバイス110が撮影する画像は、静止画であってもよいし、動画であってもよい。
【0014】
情報処理装置120は、例えば、パーソナルコンピュータのような装置である。本実施形態の情報処理装置120は、ウェアラブルデバイス110が撮影した画像を受信し、広角画像を生成する処理や、画像を表示する処理を行うことができる。なお、情報処理装置120の形態は、パーソナルコンピュータに限定するものではなく、例えば、スマートホン端末、タブレット端末などであってもよい。
【0015】
次に、各装置のハードウェア構成について説明する。図2は、本実施形態の撮影システム100を構成する各種装置に含まれるハードウェア構成を示す図であり、図2(a)はウェアラブルデバイス110の例を、図2(b)は情報処理装置120の例を、それぞれ示している。
【0016】
まず、ウェアラブルデバイス110について説明する。図2(a)に示すように、ウェアラブルデバイス110は、CPU210と、RAM220と、ROM230と、記憶装置240と、通信I/F250と、カメラ260と、センサ270とを含んで構成され、各ハードウェアはバスを介して接続されている。
【0017】
CPU210は、ウェアラブルデバイス110の動作を制御するプログラムを実行し、所定の処理を行う装置である。RAM220は、CPU210が実行するプログラムの実行空間を提供するための揮発性の記憶装置であり、プログラムやデータの格納用、展開用として使用される。ROM230は、CPU210が実行するプログラムやファームウェアなどを記憶するための不揮発性の記憶装置である。
【0018】
記憶装置240は、ウェアラブルデバイス110を機能させるOSや種々のソフトウェア、設定情報、各種データなどを記憶する、読み書き可能な不揮発性の記憶装置である。記憶装置240の例として、典型的にはHDD(Hard Disk Drive)やSSD(Solid State Drive)などが挙げられるが、特に実施形態を限定するものではなく、記憶装置240は、例えばSDカードなどのような取り外し可能な記憶媒体であってもよい。
【0019】
通信I/F250は、ウェアラブルデバイス110とネットワーク130とを接続し、ネットワーク130を介して他の装置との通信を可能にする。ネットワーク130を介した通信は、有線通信または無線通信のいずれであってもよく、TCP/IPなどの所定の通信プロトコルを使用し、各種データを送受信できる。
【0020】
カメラ260は、レンズ光学系や個体撮像素子などを含む撮影装置であって、画像を撮影することができる。本実施形態のカメラ260が撮影する画像は、静止画であってもよいし、動画であってもよい。また、本実施形態のカメラ260は、180度以上の画角を有する広角カメラであってもよい。なお、本実施形態のウェアラブルデバイス110は、少なくとも2つのカメラ260を備えることができる。
【0021】
センサ270は、カメラ260の撮影姿勢を検出する装置である。本実施形態のセンサ270は、例えば、加速度センサおよびジャイロセンサから構成されるIMU(Inertial Measurement Unit)を採用することができ、これによって、各カメラの相対的な位置関係を検出することができる。なお、本実施形態のウェアラブルデバイス110は、少なくとも2つのセンサ270を備えることができる。
【0022】
次に、情報処理装置120について説明する。図2(b)に示すように、情報処理装置120は、CPU210と、RAM220と、ROM230と、記憶装置240と、通信I/F250と、ディスプレイ280と、入力装置290とを含んで構成され、各ハードウェアはバスを介して接続されている。なお、CPU210、RAM220、ROM230、記憶装置240、通信I/F250については、図2(a)で説明したウェアラブルデバイス110のものと同様であるため、詳細は省略する。
【0023】
ディスプレイ280は、各種データ、画像、情報処理装置120の状態などを、ユーザに対して表示する装置であり、例として、LCD(Liquid Crystal Display)などが挙げられる。入力装置290は、ユーザが情報処理装置120を操作するための装置であり、例として、キーボード、マウスなどが挙げられる。なお、ディスプレイ280と入力装置290は、それぞれ別個の装置であってもよいし、タッチパネルディスプレイのような両方の機能を備えるものであってもよい。
【0024】
以上、各装置のハードウェア構成について説明した。次に、本実施形態における各ハードウェアによって実行される機能手段について、図3を以て説明する。図3は、本実施形態の撮影システム100に含まれるソフトウェアブロック図である。
【0025】
図3に示すように、本実施形態のウェアラブルデバイス110は、撮影部311、慣性センサデータ取得部312、データ送信部313の各機能手段を含む。また、本実施形態の情報処理装置120は、データ受信部321、補正パラメータ算出部322、合成画像生成部323、画像表示部324、画像データ記憶部325の各機能手段を含む。以下では、各機能手段の詳細を説明する。
【0026】
まず、ウェアラブルデバイス110の機能手段について説明する。撮影部311は、カメラ260を制御することで画像を撮影し、画像データとして取得する手段である。
【0027】
慣性センサデータ取得部312は、例えばセンサ270が検出したデータを取得する手段である。本実施形態の慣性センサデータ取得部312は、加速度や角加速度の値を取得することができる。なお、慣性データの検出は、任意の周知の方法を採用することができる。
【0028】
データ送信部313は、ウェアラブルデバイス110の通信I/F250を制御し、撮影部311が撮影した画像データと、慣性センサデータ取得部312が取得したデータを、ネットワーク130を介して情報処理装置120に送信する手段である。
【0029】
次に、情報処理装置120の機能手段について説明する。データ受信部321は、情報処理装置120の通信I/F250を制御し、ウェアラブルデバイス110のデータ送信部313から、各種データを受信する手段である。
【0030】
補正パラメータ算出部322は、取得した慣性センサのデータに基づいて、画像を合成するためのパターンマッチングにおける特徴点の探索範囲を補正するパラメータを算出する手段である。
【0031】
合成画像生成部323は、補正パラメータ算出部322が算出したパラメータを使用したパターンマッチングを行い、複数の画像をつなぎ合わせた合成画像を生成する手段である。本実施形態の合成画像生成部323は、例えば、パノラマ画像や全天球画像を生成することができる。
【0032】
画像表示部324は、ディスプレイ280を制御し、合成画像生成部323が生成した画像を表示する手段である。画像データ記憶部325は、記憶装置240を制御し、合成画像生成部323が生成した画像を記憶する手段である。
【0033】
なお、上述したソフトウェアブロックは、CPU210が本実施形態のプログラムを実行することで、各ハードウェアを機能させることにより、実現される機能手段に相当する。また、各実施形態に示した機能手段は、全部がソフトウェア的に実現されても良いし、その一部または全部を同等の機能を提供するハードウェアとして実装することもできる。
【0034】
さらに、上述した各機能手段は、必ずしも全てが図3に示すような構成で含まれていなくてもよい。例えば、他の好ましい実施形態では、ウェアラブルデバイス110が、図3の情報処理装置120に含まれる機能手段を有し、合成した画像を生成する構成としてもよい。また、別の実施形態では、各機能手段は、ウェアラブルデバイス110と、情報処理装置120との協働によって実現されてもよい。
【0035】
次に、本実施形態のウェアラブルデバイス110の構成について、図4を以て説明する。図4は、本実施形態のウェアラブルデバイス110の例を示す斜視図である。本実施形態のウェアラブルデバイス110は、図4に示すように、2つの支持体112が連結部材111によって連結されている。連結部材111は、長手方向の少なくとも一部において弾性変形が可能な部材であり、図4に示すように折返し形状(例えばU字形状)を採用することが可能である。
【0036】
支持体112は、連結部材111の先端部に取り付けられ、カメラ260およびセンサ270を位置関係が固定されるように支持する構造体である。なお、説明する実施形態において2つの支持体112を第1の支持体、第2の支持体として区別したうえで、便宜的にそれぞれ右側支持体112R、左側支持体112Lとして参照する。また、カメラ260およびセンサ270についても同様に、右側カメラ260R、左側カメラ260L、右側センサ270R、左側センサ270Lとして参照する場合がある。右側カメラ260Rおよび左側カメラ260Lは、支持体112の正面に設けられ、正面を含む所定の範囲を撮影することができる。右側センサ270R、左側センサ270Lは、各支持体112の側面に設けられ、右側カメラ260Rと左側カメラ260Lの相対的な位置関係を検出することができる。
【0037】
本実施形態のウェアラブルデバイス110は、図4に示すように、2つの支持体112を連結部材111によって連結することで、ユーザに装着することができる。すなわち、ウェアラブルデバイス110は、右側支持体112Rと左側支持体112Lとが、連結部材111の可撓性によってユーザの頭部を挟み込んで把持することができる。なお、図4におけるLは、右側カメラ260Rと左側カメラ260Lとの間の距離を示している。以下に説明する実施形態の例では、Lを基準距離として参照する場合があり、Lの値は、支持体112間に所定の治具を挟み込んだ場合のカメラ間距離とすることができる。したがって、Lの値は、治具の寸法から算出される既知の値とすることができる。
【0038】
次に、ユーザがウェアラブルデバイス110を装着した例について、図5を以て説明する。図5は、本実施形態のウェアラブルデバイス110の装着例を示す斜視図である。図5に示すように、ユーザがウェアラブルデバイス110を装着する場合には、右側支持体112Rと左側支持体112Lとがユーザの頭部を把持して固定される。
【0039】
ウェアラブルデバイス110がユーザに装着されると各支持体112が頭部を把持するため、カメラ間距離Lは、非装着時よりも大きくなる(すなわち、L>Lとなる)
【0040】
ここで、ユーザの装着時/非装着時においてウェアラブルデバイス110が画像を撮影する例について、図6および図7を以て説明する。図6は、本実施形態において画像を撮影する例を示す図であり、図6(a)は非装着時を、図6(b)は装着時をそれぞれ示している。なお、図6における破線は、各カメラの撮影範囲を示している。また、図7は、画像のパターンマッチングにおける探索範囲を説明する図であり、図7(a)は図6(a)の状態(非装着時)において撮影された画像の例を、図7(b)は図6(b)の状態(装着時)において撮影された画像の例をそれぞれ示している。なお、図7におけるハッチングで示した領域は、パターンマッチングにおける探索範囲を示している。
【0041】
図6(a)に示すように、ユーザが非装着時にウェアラブルデバイス110が画像を撮影すると、右側カメラ260Rの撮影範囲と、左側カメラ260Lの撮影範囲とが重複する領域(以下、単に「重複領域」として参照する)が生じる。なお、重複領域の範囲は、便宜的にθとして表される。ここで、右側カメラ260Rが撮影した画像と、左側カメラ260Lが撮影した画像とを、パターンマッチングによって重複領域をつなぎ合わせて合成画像を生成する場合について考える。なお、図6における自動車の画像は、重複領域に含まれる被写体を例示したものであり、特に実施形態を限定するものではない。
【0042】
図6(a)のような状態で撮影されると、図7(a)に示す画像が撮影される。すなわち、左側カメラ260Lは図7(a)左図のような画像を、右側カメラ260Rは図7(a)右図のような画像を、それぞれ撮影する。このとき各画像を合成するためのパターンマッチングを行うと、各画像に共通する特徴点を探索するために、図7(a)のハッチングで示す領域が探索される。ここで、図6(a)に示すウェアラブルデバイス110の状態は、ユーザが非装着時であることから、カメラ間距離が既知の値であり、探索範囲も所定の範囲内d(既知の範囲内)で済むこととなる。すなわち、図7(a)に示すような、比較的小さな探索範囲内に特徴点(図示する例では車)が含まれる。そのため、探索に要する時間が短く、結果としてパターンマッチングの処理時間が短い。なお、既知の探索範囲dの大きさは、例えば、ウェアラブルデバイス110を生産する工場における、出荷の際の調整によって設定することができる。
【0043】
一方で、図6(b)のような状態で撮影されると、図7(b)に示す画像が撮影される。なお、図6(b)における重複領域の範囲θは、カメラ間距離がL>Lとなることにより、図6(a)におけるθよりも小さい。左側カメラ260Lは図7(b)左図のような画像を、右側カメラ260Rは図7(b)右図のような画像を、それぞれ撮影する。このとき各画像を合成するためのパターンマッチングを行うと、各画像に共通する特徴点を探索するために、図7(b)のハッチングで示す領域が探索される。図6(b)に示すウェアラブルデバイス110の状態は、ユーザが装着した状態であり、カメラ間距離はユーザの頭部の寸法などによって変動し得ることから、カメラ間距離の値は不明である。したがって、重複領域のどこに特徴的な被写体があるのかも不明であることから、パターンマッチングにおいて特徴点を探索する際に、図7(b)に示すようにdよりも広い範囲d’にわたって探索する必要が生じ、処理に要する時間が長くなり、処理負荷が増大する。仮に、図7(a)のように所定の範囲内d(既知の範囲内)に限って探索しようとすると、特徴的な被写体が探索範囲に含まれず、適切なパターンマッチングができないからである。
【0044】
そこで、本実施形態のウェアラブルデバイス110は、探索範囲を適切に補正してパターンマッチングを行うことで、処理時間を短縮することができ、処理負荷を軽減できる。本実施形態における探索範囲の補正は、ウェアラブルデバイス110が備えるセンサ270に基づいて行われる。すなわち、慣性センサとして参照される右側センサ270Rおよび左側センサ270Lが、それぞれ、右側カメラ260Rおよび左側カメラ260Lの相対的な位置関係を算出する。そして、算出した各カメラの位置関係に基づいて、探索範囲を決定し、当該範囲内の特徴点からパターンマッチングを行う。
【0045】
図8は、本実施形態の画像のパターンマッチングにおいて、探索範囲を補正する例を示す図である。図8(a)は、図7(b)における各画像の探索範囲を補正した例を示している。本実施形態では、慣性センサデータ取得部312が、各センサ270が検出した各カメラ260の変位量を取得できるため、各カメラの相対的な位置関係に基づいて各画像の探索範囲をオフセットすることができる。したがって、図8(a)に示すように、既知の探索範囲dを適切な位置に補正することができ、これによって各画像に共通する特徴点を探索範囲内で検出することができる。このように、探索範囲を補正することで、(図7(a)に示した範囲と同じ)比較的狭い範囲内で特徴点を探索することができるため、ウェアラブルデバイス110の装着時に撮影された画像であっても、パターンマッチングに要する時間を短縮することができる。
【0046】
なお、本実施形態における探索範囲の補正は、単にカメラ間距離が変化した場合以外にも適用することができる。例えば、ウェアラブルデバイス110をユーザが装着することによって、連結部材111にねじれが生じ、カメラ間距離のみならず、相対的な角度も変化する場合がある。このようなねじれが生じると、一方の画像に対して斜めに傾いた画像が撮影されることになる。
【0047】
図8(b)は、右側カメラ260Rが撮影した画像が傾いている例を示している。このように撮影した画像が傾いている場合であっても、本実施形態の慣性センサデータ取得部312は、センサ270の測定値から角度の変位量を算出することができる。したがって、探索範囲をdとしたままで、探索範囲の位置および画像の角度(φ)をオフセットすることで、図8(a)に示した例と同様に、パターンマッチングに要する時間を短縮することができる。
【0048】
ここまで、本実施形態における探索範囲の補正について説明した。次に、本実施形態の画像生成処理について図9を以て説明する。図9は、本実施形態の撮影システム100が合成画像を生成する処理を示すフローチャートである。撮影システム100は、ステップS1000から処理を開始する。なお、説明する実施形態では、ウェアラブルデバイス110の電源が投入されることを契機として、撮影システム100は、処理を開始するものとする。
【0049】
ステップS1001では、ウェアラブルデバイス110は、慣性センサを初期化する。本実施形態では、各カメラの位置関係は、慣性センサが測定する加速度および角加速度に基づく相対的な位置関係として算出されるものである。したがって、装着後の変位量を算出するために、非装着状態において慣性センサを初期化する。
【0050】
次に、ステップS1002では、各カメラの相対位置の初期値を取得する。ここで、例えば、ウェアラブルデバイス110に所定の治具を挟み、この時のカメラ間距離Lを初期値としてキャリブレーションすることができる。その後、ステップS1003において、ユーザがウェアラブルデバイス110を装着する。
【0051】
続くステップS1004では、慣性センサデータ取得部312は、センサ270が測定した値に基づいて、ユーザの装着後のカメラ間距離や角度などの相対的な位置関係を算出する。また、ステップS1005では、撮影部311が画像を撮影する。なお、ステップS1004およびS1005の処理は、並行して行われてもよいし、逆の順序で行われてもよい。
【0052】
その後、ステップS1006において、補正パラメータ算出部322は、各カメラの位置関係に基づいて、探索範囲を補正するパラメータ、すなわち探索範囲の位置や画像の角度のオフセット量を算出する。
【0053】
次に、ステップS1007では、合成画像生成部323は、ステップS1006で算出されたパラメータに基づいて各画像の探索範囲を補正したうえで、各画像についてパターンマッチングを行い、重複領域をつなぎ合わせた合成画像を生成する。ステップS1007で生成した画像は、画像表示部324に表示することができ、また、画像データ記憶部325に記憶することができる。その後、ステップS1008において処理を終了する。
【0054】
図9に示した処理によって、本実施形態の撮影システム100は、パターンマッチングに要する時間を短縮することができるため、処理負荷を軽減できる。
【0055】
ところで、ここまでに説明した実施形態では、2つのカメラ260を備えるウェアラブルデバイス110を例に示した。しかしながら、カメラ260の数は特に限定されず、3以上のカメラ260を備えるウェアラブルデバイス110であっても、説明した実施形態を適用することができる。例えば、図10に示すように、他の実施形態によるウェアラブルデバイス110は、4つのカメラ260を備え得る。図10は、他の好ましい実施形態におけるウェアラブルデバイス110を示す斜視図である。なお、簡潔のため、図4において説明した点は適宜省略する。
【0056】
他の好ましい実施形態におけるウェアラブルデバイス110は、図10に示すように、右側支持体112Rがさらに第3のカメラ260R’を有し、左側支持体112Lがさらに第4のカメラ260L’を有する。第3のカメラ260R’は、ウェアラブルデバイス110の右側後方および右側方を撮影する。第4のカメラ260L’は、ウェアラブルデバイス110の左側後方および左側方を撮影する。このような構成とすることで、各カメラ260R、260L、260R’、260L’が撮影した各画像をつなぎ合わせて、全周方向の合成画像を生成することができる。なお、以下では、右側カメラ260Rを右前方カメラ260R、左側カメラ260Lを左前方カメラ260L、第3のカメラ260R’を右後方カメラ260R’、第4のカメラ260L’を左後方カメラ260L’として参照する。
【0057】
ここで、図10に示した構成のウェアラブルデバイス110が撮影した4つの画像をつなぎ合わせる場合について考えと、4つの重複領域をつなぎ合わせる処理を行うこととなる。すなわち、第1に、右前方カメラ260Rが撮影した画像および左前方カメラ260Lが撮影した画像の重複領域をつなぎ合わせる。また、第2に、右前方カメラ260Rが撮影した画像および右後方カメラ260R’が撮影した画像の重複領域をつなぎ合わせる。また、第3に、左前方カメラ260Lが撮影した画像および左後方カメラ260L’ が撮影した画像の重複領域をつなぎ合わせる。また、第4に、右後方カメラ260R’が撮影した画像および左後方カメラ260L’ が撮影した画像の重複領域をつなぎ合わせる。
【0058】
この場合、右前方カメラ260Rが撮影した画像および左前方カメラ260Lが撮影した画像の重複領域のつなぎ合わせは、図8(a)に示した例と同様にして行うことができる。
【0059】
また、右前方カメラ260Rが撮影した画像および右後方カメラ260R’が撮影した画像の重複領域は、右前方カメラ260Rと右後方カメラ260R’のいずれも右側支持体112Rに固定されているものであることから、装着によってカメラ260Rと260R’との位置関係が変化しない。よって、探索範囲を補正する必要はなく、所定の探索範囲でパターンマッチングを行うことができる。
【0060】
さらに、左前方カメラ260Lが撮影した画像および左後方カメラ260L’が撮影した画像の重複領域についても同様に、左前方カメラ260Lと左後方カメラ260L’のいずれも左側支持体112Lに固定されているものであることから、装着によってカメラ260Lと260L’との位置関係が変化しない。よって、探索範囲を補正する必要はなく、所定の探索範囲でパターンマッチングを行うことができる。
【0061】
さらにまた、右後方カメラ260R’が撮影した画像および左後方カメラ260L’ が撮影した画像の重複領域については、ウェアラブルデバイス110をユーザが装着することによって、右後方カメラ260R’と左後方カメラ260L’との位置関係が変化し得るものである。しかしながら、右後方カメラ260R’は右側支持体112Rに、左後方カメラ260L’は左側支持体112Lに固定されているものであることから、各カメラの相対的な位置関係は、図8(a)に示した例と同様に算出することができる。したがって、探索範囲を適切に補正したうえでパターンマッチングすることができ、処理時間を短縮することができる。
【0062】
このようにして、3以上のカメラ260を備えるウェアラブルデバイス110であっても、探索範囲を適切に補正でき、パターンマッチングによる画像の合成に要する時間を短縮することができる。
【0063】
以上、説明した本発明の実施形態によれば、複数の画像を適切につなぎ合わせて合成する撮影システム、撮影装置および方法を提供することができる。
【0064】
なお、本発明は、上述した実施形態に限定されることはなく、次のような形態とすることができる。
【0065】
図4における実施形態では、2つの支持体112を連結部材111によって連結する構成としたが、例えば、図11に示すように連結部材111を複数の構成(111a、111bR、111bL)としてもよい。このとき、連結部材111aは、ねじれが生じない所定の剛性を有する部材とし、連結部材111bR、111bLをねじれが生じる可撓性の部材とする。連結部材111bR、111bLの一端は各支持体112に取り付けられ、他端は連結部材111aに取り付けられている。このような連結部材とした場合においても、上述したように複数の画像を適切につなぎ合わせて合成する効果を得ることができる。
【0066】
図10における実施形態では、支持体112の前方と後方にカメラを備える形態としたが、支持体112の外側面にさらに設けてもよい。このような連結部材とした場合においても、上述したように複数の画像を適切につなぎ合わせて合成する効果を得ることができる。
【0067】
また、上述した実施形態では、支持体112が頭部などを把持する構成としたが、たとえば、支持体112の下面をユーザの耳に掛け、連結部が頭部と係止できるようにすること(たとえば頭部と係止する係止部を追加するなど)でウェアラブルデバイス110が上下方向の位置を確定させるようにしてもよい。
【0068】
上述した本発明の実施形態の各機能は、C、C++、C#、Java(登録商標)等で記述された装置実行可能なプログラムにより実現でき、本実施形態のプログラムは、ハードディスク装置、CD-ROM、MO、DVD、フレキシブルディスク、EEPROM(登録商標)、EPROM等の装置可読な記録媒体に格納して頒布することができ、また他装置が可能な形式でネットワークを介して伝送することができる。
【0069】
上記で説明した実施形態の各機能は、一または複数の処理回路によって実現することが可能である。ここで、本明細書における「処理回路」とは、電子回路により実装されるプロセッサのようにソフトウェアによって各機能を実行するようプログラミングされたプロセッサや、上記で説明した各機能を実行するよう設計されたASIC(Application Specific Integrated Circuit)、DSP(digital signal processor)、FPGA(field programmable gate array)や従来の回路モジュールなどのデバイスを含むものとする。
【0070】
以上、本発明について実施形態をもって説明してきたが、本発明は上述した実施形態に限定されるものではなく、当業者が推考しうる実施態様の範囲内において、本発明の作用・効果を奏する限り、本発明の範囲に含まれるものである。
【符号の説明】
【0071】
100…撮影システム、110…ウェアラブルデバイス、111…連結部材、112…支持体、112L…左側支持体、112R…右側支持体、120…情報処理装置、130…ネットワーク、210…CPU、220…RAM、230…ROM、240…記憶装置、250…通信I/F、260…カメラ、260L…左側(前方)カメラ、260R…右側(前方)カメラ、260R’ …右後方カメラ、260L’ …左後方カメラ、270…センサ、270L…左側センサ、270R…右側センサ、280…ディスプレイ、290…入力装置、311…撮影部、312…慣性センサデータ取得部、313…データ送信部、321…データ受信部、322…補正パラメータ算出部、323…合成画像生成部、324…画像表示部、325…画像データ記憶部
【先行技術文献】
【特許文献】
【0072】
【特許文献1】国際公開WO2019/078338号明細書
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11