IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 株式会社島津製作所の特許一覧

<>
  • 特許-撮像システム、および撮像方法 図1
  • 特許-撮像システム、および撮像方法 図2
  • 特許-撮像システム、および撮像方法 図3
  • 特許-撮像システム、および撮像方法 図4
  • 特許-撮像システム、および撮像方法 図5
  • 特許-撮像システム、および撮像方法 図6
  • 特許-撮像システム、および撮像方法 図7
  • 特許-撮像システム、および撮像方法 図8
  • 特許-撮像システム、および撮像方法 図9
  • 特許-撮像システム、および撮像方法 図10
  • 特許-撮像システム、および撮像方法 図11
  • 特許-撮像システム、および撮像方法 図12
  • 特許-撮像システム、および撮像方法 図13
  • 特許-撮像システム、および撮像方法 図14
  • 特許-撮像システム、および撮像方法 図15
  • 特許-撮像システム、および撮像方法 図16
  • 特許-撮像システム、および撮像方法 図17
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-03-11
(45)【発行日】2024-03-19
(54)【発明の名称】撮像システム、および撮像方法
(51)【国際特許分類】
   H04N 23/60 20230101AFI20240312BHJP
   H04N 23/63 20230101ALI20240312BHJP
   H04N 7/18 20060101ALI20240312BHJP
【FI】
H04N23/60 500
H04N23/63
H04N7/18 D
【請求項の数】 20
(21)【出願番号】P 2023548141
(86)(22)【出願日】2022-07-08
(86)【国際出願番号】 JP2022027111
(87)【国際公開番号】W WO2023042531
(87)【国際公開日】2023-03-23
【審査請求日】2023-10-11
(31)【優先権主張番号】P 2021149115
(32)【優先日】2021-09-14
(33)【優先権主張国・地域又は機関】JP
(73)【特許権者】
【識別番号】000001993
【氏名又は名称】株式会社島津製作所
(74)【代理人】
【識別番号】110001195
【氏名又は名称】弁理士法人深見特許事務所
(72)【発明者】
【氏名】永島 知貴
(72)【発明者】
【氏名】田川 雄介
(72)【発明者】
【氏名】▲高▼原 一真
(72)【発明者】
【氏名】今井 慎司
(72)【発明者】
【氏名】倉田 星哉
【審査官】▲徳▼田 賢二
(56)【参考文献】
【文献】特開2007-249722(JP,A)
【文献】特開2018-74528(JP,A)
【文献】特開2015-19133(JP,A)
【文献】特開平9-282459(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
H04N 23/60
H04N 23/63
H04N 7/18
(57)【特許請求の範囲】
【請求項1】
実空間に配置された物体を撮像する第1カメラと、
制御部とを備え、
前記制御部は、
実空間における第1範囲を設定する設定部と、
前記第1カメラの位置および姿勢を取得する取得部と、
前記第1カメラの位置および姿勢に基づいて、前記第1カメラが撮像する画像に含まれる物体が前記第1範囲に含まれるか否かを判定する判定部と、
前記判定部による判定結果に応じて、前記第1カメラが撮像した画像に対して異なる画像処理を施す画像処理部とを含む、撮像システム。
【請求項2】
前記画像処理部は、前記判定部によって前記第1範囲に含まれないと判定された物体を対象として、前記第1カメラが撮像した画像にマスク処理を実行する、請求項1に記載の撮像システム。
【請求項3】
前記第1カメラは慣性センサを含み、
前記取得部は、前記慣性センサの検出値を用いて、前記第1範囲が設定されたときの前記第1カメラの姿勢に対する前記第1カメラの姿勢を取得する、請求項1に記載の撮像システム。
【請求項4】
前記第1カメラは位置センサを含み、
前記取得部は、前記位置センサの検出値を用いて、前記第1カメラの位置を取得する、請求項1に記載の撮像システム。
【請求項5】
前記取得部は、前記第1カメラが撮像する画像に含まれる物体の画像内における位置の変化量に基づいて、前記第1カメラの位置および姿勢の少なくとも一方を取得する、請求項1に記載の撮像システム。
【請求項6】
前記取得部は、Visual SLAM(Simultaneous Localization and Mapping)技術、SfM(Structure from Motion)技術、および、VO(Visual Odometry)技術の少なくとも1つに基づいて、前記第1カメラの位置および姿勢を取得する、請求項5に記載の撮像システム。
【請求項7】
前記取得部は、前記画像に含まれるマーカーを抽出し、前記マーカーの基準形状からの変化量に基づいて、前記第1カメラの位置および姿勢を取得する、請求項1に記載の撮像システム。
【請求項8】
前記第1カメラを撮像する第2カメラをさらに備え、
前記取得部は、前記第2カメラによって撮像された画像に含まれる前記第1カメラの基準形状からの変化量に基づいて、前記第1カメラの位置および姿勢を取得する、請求項1に記載の撮像システム。
【請求項9】
前記判定部は、実空間に配置される物体と前記第1カメラとの間の距離に基づいて、前記画像に含まれる物体が前記第1範囲に含まれるか否かを判定する、請求項1に記載の撮像システム。
【請求項10】
実空間に配置される物体と前記第1カメラとの間の距離を検出する距離センサをさらに備える、請求項9に記載の撮像システム。
【請求項11】
前記制御部は、機械学習を行うことで生成された推定モデルおよび前記第1カメラが撮像する画像に基づいて、実空間に配置される物体と前記第1カメラとの間の距離を推定する、請求項9に記載の撮像システム。
【請求項12】
前記判定部は、前記第1カメラの位置および姿勢に基づいて、前記第1カメラが撮像する画像に含まれる物体が前記第1範囲に含まれるか否かを判定する、請求項1に記載の撮像システム。
【請求項13】
入力装置をさらに備え、
前記入力装置は、前記取得部が取得する前記第1カメラの位置および姿勢に対する前記第1範囲の位置情報を受け付け、
前記設定部は、前記第1範囲の位置情報に基づいて前記第1範囲を設定する、請求項1に記載の撮像システム。
【請求項14】
入力装置をさらに備え、
前記制御部は、前記第1カメラによって撮像された画像から鉛直方向に垂直な平面を検出し、
前記設定部は、ユーザから入力された画像内の座標が検出された平面内に含まれる場合には、当該座標に基づいて定められる領域を前記第1範囲として設定する、請求項1に記載の撮像システム。
【請求項15】
前記設定部は、前記画像に含まれるマーカーを抽出し、前記マーカーの基準形状からの変化量に基づいて前記第1範囲を設定する、請求項1に記載の撮像システム。
【請求項16】
記憶部をさらに備え、
前記記憶部は、実空間を表わす特定情報を記憶し、
前記設定部は、前記特定情報に基づいて前記第1範囲を設定する、請求項1に記載の撮像システム。
【請求項17】
前記制御部は、Visual SLAM(Simultaneous Localization and Mapping)技術、またはSfM(Structure from Motion)技術に基づいて、前記特定情報を作成する、請求項16に記載の撮像システム。
【請求項18】
前記設定部は、ユーザからの入力に基づいて設定した前記第1範囲を変更する、請求項1に記載の撮像システム。
【請求項19】
表示装置をさらに備え、
前記制御部は、前記画像処理部によってマスク処理が実行された後の前記画像を前記表示装置に表示させる、請求項2に記載の撮像システム。
【請求項20】
カメラを用いて実空間に配置された物体を撮像する撮像方法であって、
実空間における第1範囲を設定するステップと、
前記カメラの位置および姿勢を取得するステップと、
前記カメラの位置および姿勢に基づいて、前記カメラによって撮像される画像に含まれる物体が前記第1範囲に含まれるか否かを判定するステップと、
前記判定するステップにおける判定結果に応じて、前記カメラが撮像した画像に対して異なる画像処理を施すステップとを含む、撮像方法。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、撮像システム、および撮像方法に関する。
【背景技術】
【0002】
従来、カメラで撮像された画像に映し出されている任意の物体をリアルタイムで認識する技術が知られている。たとえば、画像に映し出されている人物の顔を認識する顔認識技術が知られている(「岩井儀雄他著、「画像処理による顔検出と顔認識」、情報処理学会研究報告.CVIM、[コンピュータビジョンとイメージメディア]149、2005年5月13日、p343-368」非特許文献1参照)。
【0003】
非特許文献1には、画像に含まれる各画素が有する情報、および各画素の相関関係などから特徴量を抽出し、当該特徴量に基づいて人物の顔を認識することが開示されている。また、非特許文献1には、サンプル画像を学習することによって顔認識のための認識モデルを生成することが記載されている。
【先行技術文献】
【非特許文献】
【0004】
【文献】岩井儀雄他著、「画像処理による顔検出と顔認識」、情報処理学会研究報告.CVIM、[コンピュータビジョンとイメージメディア]149、2005年5月13日、p343-368
【発明の概要】
【発明が解決しようとする課題】
【0005】
しかしながら、実空間にはあらゆる種類の物体が存在する。撮像された画像に含まれる様々な種類の物体のうちから、表示すべき物体と表示すべきではない物体とを区別するために、各物体に対応した個別の認識モデルを生成することは、コストの増大に繋がる。
【0006】
本発明はこのような課題を解決するためになされたものであり、その目的は、撮像システムにおいて、認識モデルを生成することなく、撮像された画像内において表示すべき物体と表示すべきではない物体とを区別して、コストの増大を抑制することである。
【課題を解決するための手段】
【0007】
本開示の撮像システムは、実空間に配置された物体を撮像する第1カメラと、制御部とを備える。制御部は、設定部と、取得部と、判定部と、画像処理部とを含む。設定部は、実空間における第1範囲を設定する。取得部は、第1カメラの位置および姿勢を取得する。判定部は、第1カメラの位置および姿勢に基づいて、第1カメラが撮像する画像に含まれる物体が第1範囲に含まれるか否かを判定する。画像処理部は、判定部による判定結果に応じて、第1カメラが撮像した画像に対して異なる画像処理を施す。
【0008】
本開示に係る撮像方法は、カメラを用いて実空間に配置された物体を撮像する撮像方法である。本開示に係る撮像方法は、実空間における第1範囲を設定するステップと、カメラの位置および姿勢を取得するステップと、カメラの位置および姿勢に基づいて、カメラによって撮像される画像に含まれる物体が第1範囲に含まれるか否かを判定するステップと、判定するステップにおける判定結果に応じて、第1カメラが撮像した画像に対して異なる画像処理を施すステップとを含む。
【発明の効果】
【0009】
本開示に係る撮像システムでは、設定部によって第1範囲が設定され、判定部は、撮像した画像に含まれる物体が当該第1範囲に含まれない物体であるか否かを判定する。画像処理部は、判定部の判定結果に応じて、撮像された画像に対して異なる画像処理を施す。すなわち、撮像システムは、第1範囲に配置されている物体と、第1範囲に配置されていない物体とを区別して表示する画像を生成する。このような構成によって、撮像システムでは、認識モデルを生成することなく、画像内において表示すべき物体と、表示すべきではない物体とを区別することができ、コストの増大を抑制できる。
【図面の簡単な説明】
【0010】
図1】本実施の形態における撮像システムの構成を示すブロック図である。
図2】本実施の形態における撮像システムによる撮像を説明するための図である。
図3】位置Ps1からカメラが対象範囲を撮像したときの画像を示す図である。
図4】位置Ps2からカメラが対象範囲を撮像したときの画像を示す図である。
図5】本実施の形態の撮像システムがマスク処理を実行するためのフローチャートである。
図6図5に示す画像がマスク処理された後の画像を示す図である。
図7図6に示す画像がマスク処理された後の画像を示す図である。
図8】対象範囲の設定をするためのフローチャートを示す図である。
図9】カメラの位置および姿勢と対象範囲の関係を示す図である。
図10】距離センサの検出結果と、カメラの画像を合成した画像を示す図である。
図11】平面検出に基づいて、対象範囲を設定することを説明するための図である。
図12】平面検出を用いた対象範囲の設定方法のためのフローチャートを示す図である。
図13】マーカーを用いた対象範囲を設定する方法について説明するための図である。
図14】画像の変化量とカメラの移動量との関係を説明するための図である。
図15】実空間を表わす3Dデータが記憶部によって記憶されていることを示す図である。
図16】変形例5における撮像システムの構成を示すブロック図である。
図17】変形例5における撮像システムによる撮像を説明するための図である。
【発明を実施するための形態】
【0011】
[実施の形態]
以下、本発明の実施の形態について、図面を参照しながら詳細に説明する。なお、図中の同一または相当部分には同一符号を付してその説明は繰り返さない。
【0012】
<撮像システムの全体構成>
図1は、本実施の形態における撮像システム100の構成を示すブロック図である。本実施の形態における撮像システム100は、カメラ20を備え、カメラ20が撮像した画像の処理をするシステムである。撮像システム100は、実空間に配置された様々な物体を動画像として撮像し、当該動画像に含まれる物体のうち、表示すべき物体と、表示すべきではない物体とを区別して表示および記録するシステムである。
【0013】
撮像システム100は、カメラ20に加えて、制御部10と、入力装置30と、表示装置40と、記憶部50とを備える。本実施の形態において、撮像システム100は、たとえば、制御部10と、カメラ20と、入力装置30と、表示装置40と、記憶部50とを備える1つのスマートフォンとして実現される。
【0014】
なお、撮像システム100を構成する各要素の一部は、別体の機器として設けられてもよい。たとえば、撮像システム100は、制御部10と、入力装置30と、表示装置40と、記憶部50とを備える汎用コンピュータに加えて、該汎用コンピュータとは別体のカメラ20を備える構成であってもよい。たとえば、カメラ20は、一般的なビデオカメラ等であり得る。
【0015】
制御部10は、設定部11と、取得部12と、判定部13と、画像処理部14と、入出力部15とを備える。設定部11は、ユーザの選択にしたがって実空間における対象範囲を設定する。取得部12は、カメラ20の位置(実空間における三次元座標)および姿勢(ピッチ、ロール、ヘディング)を取得する。判定部13は、カメラ20の位置および姿勢に基づいて、カメラ20が撮像する画像に含まれる物体が対象範囲に含まれるか否かを判定する。画像処理部14は、判定部13が対象範囲に含まれないと判定した物体に対してマスク処理を実行する。入出力部15は、カメラ20と、入力装置30と、表示装置40と、記憶部50との各々と信号の授受を行う。
【0016】
制御部10は、ハードウェア構成として、CPU(Central Processing Unit)と、RAM(Random Access Memory)とを含む。CPUは、RAMに読み込まれた各種プログラムおよびデータを実行または参照する。ある局面において、CPUは、組み込みCPU、FPGA(Field-Programmable Gate Array)、またはこれらの組み合わせ等によって代用され得る。
【0017】
RAMは、CPUによって実行されるプログラムと、CPUによって参照されるデータとを格納する。ある局面において、RAMは、DRAM(Dynamic Random Access Memory)またはSRAM(Static Random Access Memory)によって実現され得る。
【0018】
カメラ20は、実空間に配置された物体を撮像する。本実施の形態におけるカメラ20は、慣性センサ21と、位置センサ22と、距離センサ23とを含む。なお、カメラ20は、本開示の「第1カメラ」に対応する。
【0019】
慣性センサ21は、典型的には、慣性計測装置(IMU:inertial measurement unit)であって、たとえば、加速度センサおよびジャイロセンサを組み合わせたもの、または、これに地磁気センサを組み合わせたものである。
【0020】
位置センサ22は、カメラ20の位置を特定するセンサである。たとえば、位置センサ22は、GPS(Global Positioning System)受信機である。また、位置センサ22は、カメラ20の位置をより精緻に特定するため、赤外線センサ、超音波センサなどと組合せられてもよい。
【0021】
距離センサ23は、実空間に配置される物体とカメラ20との間の距離を検出する。たとえば、距離センサ23は、TOF(Time Of Flight)形式の光を用いて、物体との距離を検出する。また、距離センサ23は、LIDAR(Laser Imaging Detection and Ranging)、距離計測が可能なステレオカメラ、または深度カメラであってもよい。また、距離センサ23は、カメラ20と別体として設けられてもよい。
【0022】
入力装置30は、典型的には、キーボードまたはマウスなどである。また、表示装置40は、典型的には、液晶ディスプレイまたは有機EL(Electro Luminescence)ディスプレイである。なお、入力装置30と表示装置40とは、タッチスクリーンとして一体的に設けられてもよい。入力装置30は、ユーザから対象範囲Rg1の情報の入力を受け付ける。
【0023】
記憶部50は、典型的にはROM(Read Only Memory)である。すなわち、記憶部50は、不揮発性メモリであり、CPUによって実行されるプログラム等を格納する。CPUは、ROMからRAMに読み出されたプログラムを実行する。ある局面において、ROMは、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read-Only Memory)またはフラッシュメモリによって実現されてもよい。また、記憶部50は、HDD(Hard Disk Drive)またはSSD(Flash Solid State Drive)等を含んでもよい。
【0024】
<撮像システムの具体例>
図2は、本実施の形態における撮像システム100による撮像を説明するための図である。上述したように、撮像システム100は、実空間に配置された様々な物体を動画像として撮像し、当該動画像のうち、対象範囲Rg1以外に配置された物体と、対象範囲Rg1に配置された物体とを区別する。
【0025】
動画の撮像または配信を行う場合において、撮像された動画に映し出された物体のうち、たとえば、撮像が許可されていない領域に配置された物体だけにマスク処理を実行する場合に、本実施の形態における撮像システム100が用いられ得る。本実施の形態における撮像システム100は、工場あるいは研究所の内部の装置や作業内容を撮像して動画像として記録または他の機器に送信する場合において、撮像された画像に含まれる機密情報に関する部分を取り除く際に適用される。
【0026】
図2には、工場内部において、作業員Hm1とロボットRb1とが撮像対象となる例が示されている。図2には、本実施の形態の撮像システム100の一例であるスマートフォンと、対象範囲Rg1と、その他様々な種類の物体とが示されている。
【0027】
図2における対象範囲Rg1は、直方体形状を有する。なお、対象範囲Rg1は、直方体形状に限らず、空間的な領域を有する範囲であれば、どのような形状であってもよい。たとえば、対象範囲Rg1は、多面体、球形状、または柱形状などであり得る。対象範囲Rg1の情報は、記憶部50によって記憶される。対象範囲Rg1の情報とは、対象範囲Rg1が占める領域の情報であって、たとえば、対象範囲Rg1が占める領域を示す座標が含まれる。
【0028】
以降の説明において、鉛直方向をZ軸方向とし、Z軸方向に垂直な面をX軸およびY軸として規定する。X軸方向およびY軸方向は、直方体形状である対象範囲Rg1が有する辺に沿う方向である。また、各図におけるZ軸の正方向を上方側、負方向を下方側と称する場合がある。なお、対象範囲Rg1は、本開示における「第1範囲」に対応する。
【0029】
図2に示されているように、対象範囲Rg1には、撮像対象である作業員Hm1と、ロボットRb1とが配置されている。また、対象範囲Rg1のX軸の正方向側には、撮像対象ではないロボットRb2と、物体Ob1とが配置されている。図2においては、物体Ob1は、3つの箱である。なお、物体Ob1は、たとえば、テーブル、椅子、または産業機器などの用具であってもよく、形状を有する物体であればよい。さらに、対象範囲Rg1のY軸の正方向側には、撮像対象ではない作業員Hm2,Hm3,Hm4が配置されている。
【0030】
図2に示されている本実施の形態の撮像システム100の一例であるスマートフォンは、カメラ20を備えている。スマートフォンを有する撮影者(不図示)は、カメラ20の画角内に撮像対象である作業員Hm1およびロボットRb1を含むように撮像を開始する。また、スマートフォンを有する撮影者は、位置Ps1から位置Ps2へ向かって移動しながらカメラ20による動画像を撮像する。位置Ps1は、対象範囲Rg1のX軸の負方向側の位置である。位置Ps2は、対象範囲Rg1のY軸の負方向側の位置である。
【0031】
以下では、図3および図4を用いて、カメラ20によって撮像される生画像について説明する。図3および図4に示される画像の各々は、撮像される動画像に含まれる複数のフレームのうちの1フレームに対応する生画像である。
【0032】
図3は、位置Ps1からカメラ20が対象範囲Rg1を撮像したときの画像RwIm1を示す図である。図3に示されるように、位置Ps1から撮像したときの画像RwIm1には、撮像対象であるロボットRb1および作業員Hm1に加えて、撮像対象ではないロボットRb2、物体Ob1、および作業員Hm4が含まれている。
【0033】
図4は、位置Ps2からカメラ20が対象範囲Rg1を撮像したときの画像RwIm2を示す図である。図4に示されるように、位置Ps2から撮像したときの画像RwIm2には、撮像対象であるロボットRb1および作業員Hm1に加えて撮像対象ではない作業員Hm2~Hm4が含まれている。
【0034】
このように、カメラ20で撮像した生画像には、撮像対象である物体に加えて、撮像対象ではない物体が表示および記録されてしまう。撮像対象ではない物体が機密情報を含む場合、カメラ20で撮像された画像が使用できない場合が生じ得る。そこで、撮像システム100は、図3および図4に示す生画像に対して、図5に示す手順でマスク処理を実行する。撮像システム100は、図3および図4に示す画像のみならず、カメラ20が撮像した動画像に含まれる複数のフレームの各々に対して、マスク処理を実行する。
【0035】
<マスク処理のフローチャート>
図5は、本実施の形態の撮像システム100におけるマスク処理のフローチャートである。図5のフローチャートは、制御部10において、所定の開始条件が成立して、ROMに記憶されたプログラムが呼び出されることによって実行される。あるいは、フローチャートにおけるステップの一部およびすべては、専用のハードウェア回路で実行されてもよい。
【0036】
制御部10は、ユーザからの入力にしたがって対象範囲Rg1を設定する(ステップS11)。ステップS11における詳細な対象範囲Rg1の設定方法は、図8を用いて後述する。制御部10は、カメラ20の位置および姿勢を取得する(ステップS12)。本実施の形態においては、取得部12は、カメラ20が含む慣性センサ21および位置センサ22の検出値に基づいて、カメラ20の位置および姿勢を取得する。
【0037】
カメラ20の位置は、記憶部50に記憶される座標空間内の座標によって表わされる。座標空間とは、XYZ軸からなる3次元空間である。取得部12は、カメラ20に含まれる位置センサ22の検出値からカメラ20の位置を取得する。カメラ20の姿勢とは、上記のカメラ20の位置において、カメラ20が正対している方向であり、たとえば、XYZ軸に対する角度、あるいは、各軸回りの角度によって表わされる。取得部12は、カメラ20に含まれる慣性センサ21の検出値からカメラ20の姿勢を取得する。
【0038】
制御部10には、カメラ20が撮像する画像に含まれる物体が対象範囲Rg1に含まれるか否かを判定する(ステップS13)。本実施の形態においては、判定部13は、取得部12が取得するカメラ20の位置および姿勢と距離センサ23の検出値とに基づいて判定する。
【0039】
制御部10は、判定部13による判定結果に応じて、カメラ20が撮像した画像に対して異なる画像処理を施す(ステップS14)。本実施の形態の撮像システム100では、対象範囲Rg1に含まれないと判定された物体に対してマスク処理を実行する。マスク処理とは、画像内の対象領域を視認し難くする処理であって、たとえば、モザイク化する処理が含まれる。また、マスク処理には、あらかじめ定められた画像を当該対象領域に重畳させる処理も含まれる。
【0040】
制御部10は、マスク処理後の画像をたとえば、表示用バッファあるいは記憶部50に記憶させる(ステップS15)。制御部10は、ユーザから撮像終了命令を受け付けたか否かを判定する(ステップS16)。制御部10は、ユーザから撮像終了命令を受け付けていないと判定した場合(ステップS16でNO)、ステップS12に処理が戻されて、カメラ20が撮像する動画像に含まれる1フレームごとの画像に対してステップS12~S15の処理を繰り返す。図2で説明したように、カメラ20は、移動しながら動画を撮像する。そのため、カメラ20が撮像する動画に含まれる1フレームごとの生画像の表示内容は変化し得る。同様に、ステップS12で取得されるカメラ20の位置および姿勢も1フレームごとに変化し得る。制御部10は、ユーザから撮像終了命令を受け付けたと判定した場合(ステップS16でYES)、処理を終了する。
【0041】
このように撮像システム100においては、制御部10が図5に示すフローチャートを実行することにより、図2に示す対象範囲Rg1以外に配置されている物体に対してマスク処理が実行される。これにより、撮像システム100においては、認識モデルを生成することなく、画像内において表示すべき物体と表示すべきではない物体とを区別してマスク処理をすることができる。
【0042】
図6は、図5に示す画像RwIm1がマスク処理された後の画像EdIm1を示す図である。図7は、図6に示す画像RwIm2がマスク処理された後の画像EdIm2を示す図である。図6および図7に示されているように、対象範囲Rg1以外に配置されている物体はマスク処理によって認識することができない。
【0043】
なお、図6に示すように、撮像対象の物体が含まれる領域を対象範囲Rg1として設定してもよいし、逆に、撮像対象でない物体が含まれる領域を対象範囲Rg1として設定してもよい。たとえば、図2において、対象範囲Rg1に機密情報を含む物体が配置されている場合、制御部10は、対象範囲Rg1に対してマスク処理を実行する。
【0044】
続いて、図8を用いて、対象範囲Rg1の設定方法の一例を説明する。図8は、対象範囲Rg1の設定をするためのフローチャートを示す図である。図8に示すフローチャートは、ユーザから対象範囲Rg1の設定命令を受け付けたときに制御部10によって実行される。
【0045】
制御部10は、対象範囲Rg1を初期化する(ステップS21)。すなわち、ステップS21において、設定部11は、記憶部50の対象範囲Rg1に対して記憶領域を初期化する。
【0046】
制御部10は、カメラ20の位置および姿勢を初期位置および初期姿勢として取得する(ステップS22)。すなわち、ステップS22において制御部10は、慣性センサ21および位置センサ22の検出値に基づいて、初期位置および初期姿勢となるカメラ20の位置および姿勢を取得する。初期位置となるカメラ20の位置は、記憶部50によって座標空間上の座標として記憶される。同様に、初期姿勢となるカメラ20の姿勢は、記憶部50によってカメラ20の初期位置において、カメラ20が正対している方向として記憶される。
【0047】
制御部10は、カメラ20の初期位置に対する対象範囲Rg1の情報をユーザから受け付けたか否かを判断する(ステップS23)。対象範囲Rg1の情報は、座標空間上において、対象範囲Rg1が占める領域の情報である。たとえば、対象範囲Rg1が立方体である場合、入力装置30は、カメラ20の初期位置から撮像方向に向かってどれだけ先の座標を中心位置とするかを示す情報(当該立方体とカメラ20との距離)および立方体の一辺の長さを示す情報の入力をユーザから受け付ける。
【0048】
制御部10は、対象範囲Rg1の情報を受け付けていないと判断した場合(ステップS23でNO)、ステップS23の処理を繰り返す。制御部10は、対象範囲Rg1の情報を受け付けたと判断した場合(ステップS23でYES)、制御部10は、ユーザから受け付けた対象範囲Rg1の情報に基づ いて、座標空間上の対応する領域を対象範囲Rg1として記憶部50に記憶 させる。すなわち、設定部11は、ユーザから受け付けた対象範囲Rg1の情報にしたがって、当該立方体が占める空間的な領域を対象範囲Rg1として設定する。
【0049】
同一の座標空間上に、カメラ20の位置と対象範囲Rg1の位置とが記憶されているため、制御部10は、座標空間を参照することにより、カメラ20の位置と対象範囲Rg1の位置との相対的な関係を取得することができる。相対的な関係とは、座標空間上におけるカメラ20と対象範囲Rg1との間の距離、カメラ20を中心としたときに対象範囲Rg1が位置している方向などを含む。
【0050】
また、制御部10は、カメラ20が移動した場合であっても、取得部12が1フレームごとにカメラ20の位置および姿勢を取得するため、初期位置および初期姿勢からの移動量を算出することができる。すなわち、制御部10は、カメラ20が移動すれば、座標空間上のカメラ20の位置および姿勢を更新する。そのため、制御部10は、カメラ20が移動した後であっても、移動した後のカメラ20の位置および姿勢と対象範囲Rg1の位置との間の相対的な関係を算出することができる。
【0051】
以下では、画像に含まれる物体が対象範囲Rg1に含まれるか否かを判定する方法について説明する。上述したように、制御部10は、取得部12が取得するカメラ20の位置および姿勢と、カメラ20に含まれる距離センサ23の検出値とに基づいて判定する。図9では、カメラ20の位置および姿勢だけに基づいて、判定する例について説明する。図8で説明したように、取得部12は、対象範囲Rg1が設定されたときのカメラ20の位置および姿勢を初期位置および初期姿勢として取得する。
【0052】
上述したように、カメラ20の初期位置および初期姿勢を取得した後、取得部12は、動画の1フレームごとにカメラ20の位置および姿勢を取得し続ける。そのため、判定部13は、カメラ20が移動した後においても、カメラ20の位置および姿勢と対象範囲Rg1の位置との相対的な関係を取得することができる。換言すれば、制御部10は、カメラ20の移動後の位置および姿勢と、記憶された対象範囲Rg1の情報とを比較することに基づいて、カメラ20と対象範囲Rg1との相対的な位置関係を取得できる。
【0053】
図9は、カメラ20の位置および姿勢と対象範囲Rg1の関係を示す図である。図9には、カメラ20が位置Ps1に位置しているときに、設定部11が対象範囲Rg1を設定した例が示されている。すなわち、位置Ps1は、カメラ20の初期位置および初期姿勢である。
【0054】
図9には、カメラ20が有するイメージセンサISおよびイメージセンサISの焦点Fcが示されている。角度Ag1は、カメラ20の画角である。判定部13は、カメラ20の位置および姿勢と対象範囲Rg1の位置との相対的な関係を用いて、カメラ20の画角である角度Ag1のうち、対象範囲Rg1が映し出される角度が角度Ag2であることを算出できる。図9に示されるように、イメージセンサIS上の角度Ag2に対応する範囲には、ロボットRb1および作業員Hm1に加えて、ロボットRb2と物体Ob1とが含まれる。一方で、イメージセンサIS上の角度Ag2に対応する範囲には、作業員Hm4は含まれてない。
【0055】
そのため、制御部10は、カメラ20の位置および姿勢と対象範囲Rg1の位置との相対的な関係に基づいて、作業員Hm4は、対象範囲Rg1に含まれないと判定することができる。すなわち、制御部10は、イメージセンサIS上において、少なくとも角度Ag2に対応しない範囲の物体が対象範囲Rg1に含まれないと判定することができる。
【0056】
カメラ20が位置Ps3に移動した場合も同様に、制御部10は、移動後のカメラ20の位置および姿勢と対象範囲Rg1の位置との相対的な関係に基づいて、カメラ20の画角である角度Ag1のうち、対象範囲Rg1が映し出される角度が角度Ag3であることを算出できる。そのため、制御部10は、イメージセンサIS上において、少なくとも角度Ag3に対応しない範囲の物体が対象範囲Rg1に含まれないと判定することができる。
【0057】
このように、制御部10は、カメラ20の位置および姿勢に基づいて、位 置Ps1の場合には、作業員Hm4が対象範囲Rg1に含まれないことを判定できる。しかしながら、画角のみに基づいて対象範囲Rg1内かどうかを 判定すると、たとえば、ロボットRb2と物体Ob1のように、角度Ag2に対応する範囲には含まれるが対象範囲Rg1には含まれない物体を認識できない。
【0058】
そこで、本実施の形態においては、距離センサ23を用いて、カメラ20から物体までの距離を測定することによって、ロボットRb2および物体Ob1が対象範囲Rg1に含まれるか否かを判定する。図10は、距離センサ23の検出結果と、カメラ20の画像RwIm1を合成した画像DiIm2を示す図である。距離センサ23は、カメラ20が撮像した画像に含まれる物体とカメラ20との間の距離を検出する。
【0059】
図10に示す画像DiIm2においては、物体とカメラ20との距離に応じて画像内に含まれる作業員Hm1~Hm4、ロボットRb1に対して異なるハッチングHt1~Ht5がそれぞれ付されている。図10では、説明のためにハッチングHt1~Ht5が付されている例を示しているが、物体とカメラ20との距離は、色の種類、濃淡などによって示されてもよい。
【0060】
制御部10は、カメラ20の位置および姿勢と対象範囲Rg1の位置との相対的な関係から、対象範囲Rg1のY軸方向の境界までの距離を算出することができる。そのため、制御部10は、対象範囲Rg1よりも後方(Y軸方向の正方向側)に配置されている作業員Hm2~Hm4が対象範囲Rg1に含まれていないことを判定できる。これにより、制御部10は、イメージセンサIS上の角度Ag2に対応する範囲に配置されている物体についても、対象範囲Rg1に含まれているか否かを判定できる。制御部10は、対象範囲Rg1に含まれないと判定する物体に対してマスク処理を実行する。
【0061】
このように、本実施の形態における撮像システム100は、対象範囲Rg1を設定して、画像に含まれる物体が対象範囲Rg1に含まれないと判定する場合、マスク処理を実行する。そのため、対象範囲Rg1以外に配置されている物体である作業員Hm2~Hm4、ロボットRb2、物体Ob1などを認識するための認識モデルを生成する必要がない。これにより、撮像システム100では、認識モデルを生成することなく、画像内において表示すべき物体と、表示すべきではない物体とを区別することができ、コストの増大を抑制できる。
【0062】
[変形例1]
本実施の形態では、対象範囲Rg1の設定に関して、対象範囲Rg1の情報をユーザから入力装置30を介して受け付ける例について説明した。変形例1では、カメラ20からの距離、立方体の辺の長さなどの直接的な対象範囲Rg1の情報をユーザに入力させるのではなく、カメラ20によって撮像される画像を用いて対象範囲Rg1をユーザに設定させる撮像システム100について説明する。なお、変形例1の撮像システム100において、本実施の形態の撮像システム100と重複する構成の説明については繰り返さない。
【0063】
図11は、平面検出に基づいて、対象範囲Rg1を設定することを説明するための図である。平面検出のための処理は、種々のARシステムにおけるライブラリを適用することができる。たとえば、UnityまたはARkit(登録商標)等の開発環境で使用可能なライブラリが適用され得る。制御部10は、これらのライブラリを用いてカメラ20が撮像する画像を解析し、鉛直方向と垂直なXY平面と略平行な平面を検出する。図11(A)は、平面検出後の画像PLIm1を示す。制御部10は、平面検出により、床FL1の座標空間上の位置情報を取得する。
【0064】
画像PLIm1には、作業員Hm1、ロボットRb1、および物体Ob2が示されている。また、画像PLIm1には、壁WA1および床FL1が示されている。作業員Hm1、ロボットRb1、および物体Ob2のいずれも床FL1上に配置されている。また、ロボットRb1および物体Ob2は、一部が壁WA1に面するように配置されている。
【0065】
図11の例において、制御部10は、ロボットRb1の一部である平面PL1、PL2、PL3、および床FL1をXY平面に平行な面として検出する。さらに、制御部10は、検出した平面のうちから物体が配置され得る面積以上を有する平面に対して、色を付して表示装置40に表示させる。物体が配置され得る面積は、あらかじめ定められており、たとえば、1平方メートルである。
【0066】
図11の例では、制御部10は、1平方メートル以上の面積を有する床FL1に色を付し、画像PLIm1を表示する。制御部10は、色を付した床FL1から対象範囲Rg1を設定するための座標をユーザに選択させる。図11の例では、画像PLIm1が表示されている画像を表示する画面のうち、床FL1の一部がユーザによって選択Tp1されている。制御部10は、ユーザの選択Tp1によって選ばれた点に対応する座標空間上の座標P1を取得する。すなわち、選択Tp1は、床FL1に含まれる座標P1を示す情報である。
【0067】
制御部10は、表示する画面のうち、床FL1上の座標P1に対応する位置が選択されたことに基づいて、座標P1に基づく領域を対象範囲Rg1として設定する。図11(B)は、選択Tp1に基づいて設定された対象範囲Rg1を示す図である。図11の例では、座標P1を底面の中心とする立方体が対象範囲Rg1として示されている。なお、制御部10は、座標P1を底面の中心とするのではなく、立方体の中心としてもよいし、立方体が有する8つの角部のうちのいずれかの角としてもよい。また、設定部11は、一度設定した対象範囲Rg1を変更してもよい。すなわち、既に対象範囲Rg1が設定されている場合においても、図11に示されるように平面検出を行い、ユーザに新たに選択された座標に基づいて、設定部11は、新たに対象範囲Rg1を設定する。
【0068】
図12は、平面検出を用いた対象範囲Rg1の設定方法のためのフローチャートを示す図である。制御部10は、カメラ20が撮像した画像に対して、平面検出を実行し、平面に対して色を付して画像PLIm1を表示する(ステップS31)。制御部10は、入力装置30を介して、平面に含まれる座標P1を示す情報をユーザから受け付けたか否かを判定する(ステップS32)。制御部10は、座標P1を示す情報を受け付けていない場合(ステップS32でNO)、ステップS32の処理を繰り返す。
【0069】
制御部10に含まれる設定部11は、座標P1を示す情報を受け付けた場合(ステップS32でYES)、受け付けた座標P1に基づいた領域を対象範囲Rg1として設定する(ステップS33)。すなわち、設定部11は、対象範囲Rg1の情報を記憶部50に記憶させる。また、既に対象範囲Rg1の情報が記憶部50によって記憶されている場合、設定部11は、ユーザによって選択された新たな対象範囲Rg1の情報に変更する。
【0070】
このように、変形例1の撮像システム100においては、平面検出を用いて、対象範囲Rg1が設定される。これにより、撮像システム100においては、カメラ20が撮像する画像に基づいて、いずれの位置を対象範囲Rg1とするかを簡便にユーザに設定させることができる。
【0071】
[変形例2]
本実施の形態では、慣性センサ21、位置センサ22に基づいてカメラ20の位置および姿勢を取得する例について説明した。また、変形例1においては、平面検出により対象範囲Rg1を設定する例について説明した。変形例2では、実空間に配置されたマーカーMk1に基づき、カメラ20の位置および姿勢を取得し、対象範囲Rg1の設定する例について説明する。なお、変形例2の撮像システム100において、本実施の形態の撮像システム100と重複する構成の説明については繰り返さない。
【0072】
図13は、マーカーMk1を用いた対象範囲Rg1を設定する方法について説明するための図である。図13(A)は、カメラ20が撮像した画像RwIm3を示す図である。図13(B)は、設定された対象範囲Rg1を示す図である。画像RwIm3には、作業員Hm1と、ロボットRb1とに加えてマーカーMk1が示されている。図13の例では、マーカーMk1は、星形形状を表わすマークであるが、たとえばQRコード(登録商標)であってもよい。
【0073】
設定部11は、画像RwIm3に映し出されているマーカーMk1に基づいた領域を対象範囲Rg1として設定する。制御部10は、画像RwIm3からマーカーMk1を抽出し、マーカーMk1の基準形状からの変化量に基づいて、座標空間上のマーカーMk1の位置を画像解析により取得する。基準形状とは、マーカーMk1の実空間のサイズ、形状である。記憶部50は、マーカーMk1の基準形状を予め記憶する。制御部10は、画像RwIm3に映し出されているマーカーMk1の基準形状からの変化量を算出する。
【0074】
形状の変化量とは、基準形状からの幾何学変換を行ったときの度合いを意味する。すなわち、基準形状を画像RwIm3に映し出されているマーカーMk1に一致させるための拡縮率、回転角度、せん断率などが変化量に含まれ得る。これにより、制御部10は、カメラ20の位置からマーカーMk1までの距離およびマーカーMk1の姿勢を算出することができる。すなわち、制御部10は、カメラ20の位置に対する相対的なマーカーMk1の位置情報を取得する。設定部11は、マーカーMk1の位置情報に基づいた領域を、対象範囲Rg1とする。
【0075】
図13(B)の例では、マーカーMk1を底面の中心とする立方体が対象範囲Rg1として示されている。なお、制御部10は、マーカーMk1を底面の中心とするのではなく、立方体の中心としてもよいし、立方体が有する8つの角部のうちのいずれかとしてもよい。
【0076】
また、制御部10は、マーカーMk1の位置に対する相対的なカメラ20の位置および姿勢を画像解析により取得する。対象範囲Rg1は、マーカーMk1の位置に基づいて設定されているため、制御部10は、カメラ20の位置および姿勢と対象範囲Rg1との相対的な関係を取得できる。すなわち、判定部13は、カメラ20の画角内に対象範囲Rg1が位置しているかを判定することができる。
【0077】
このように、変形例2の撮像システム100では、カメラ20が慣性センサ21、位置センサ22、距離センサ23を備えなくとも、カメラ20が撮像する画像に含まれるマーカーMk1の基準形状からの変形量に基づいて、対象範囲Rg1を設定でき、カメラ20の位置および姿勢を取得できる。これにより、変形例2では、慣性センサ21、位置センサ22、および距離センサ23が不要となるため、コストを低減することができる。
【0078】
[変形例3]
変形例2では、画像に含まれるマーカーMk1に基づいて、カメラ20の位置および姿勢を取得し、また、対象範囲Rg1を設定する例について説明した。変形例3では、マーカーMk1が映し出されていなくとも、カメラ20が撮像する動画像の変化から、カメラ20の位置および姿勢を取得し、また、対象範囲Rg1を設定する例について説明する。なお、変形例3の撮像システム100において、本実施の形態の撮像システム100と重複する構成の説明については繰り返さない。
【0079】
変形例3における制御部10は、Visual SLAM(Simultaneous Localization and Mapping)技術を用いて、動画像に含まれる1フレームごとの画像の内容の変化から、カメラ20の周囲の実空間の地形情報を作成(マッピング)する。制御部10は、Visual SLAM技術に代えて、SfM(Structure from Motion)技術を用いて、マッピング処理をしてもよいし、これらの技術を組み合わせてもよい。
【0080】
マッピング処理は、環境地図の作成処理とも称されており、カメラ20の周囲の実空間を表わす3Dデータを作成する処理である。制御部10は、マッピング処理によって、カメラ20の周囲の実空間を表わす3Dデータを取得し、当該3Dデータを記憶部50の座標空間上に記憶させる。制御部10は、カメラ20の周囲の実空間を表わす3Dデータを、XY平面を平面視したときの地図情報などに変換して記憶部50に記憶させてもよい。なお、実空間を表わす3Dデータ、またはこれに基づく地図情報は、本開示の「特定情報」に対応する。制御部10は、Visual SLAM技術またはSfM技術に基づいて、特定情報を生成する。
【0081】
制御部10は、実空間を表わす3Dデータを表示装置40に表示させる。制御部10は、図11で説明したように、座標空間上の当該3Dデータに含まれる座標をユーザに選択させて、座標に基づく領域を対象範囲Rg1として設定する。
【0082】
また、制御部10は、Visual SLAM技術を用いて、カメラ20自身の自己位置を推定する。すなわち、制御部10は、マッピング処理によって作成されたカメラ20の周囲の地形情報におけるカメラ20自身の位置を推定する。制御部10は、Visual SLAM技術に代えて、SfM技術、および、VO(Visual Odometry)技術を用いてカメラ20自身の自己位置を推定してもよいし、これらの技術を組み合わせてもよい。
【0083】
以下、Visual SLAM技術等の画像解析により、カメラ20の位置および姿勢を推定する方法について説明する。図14は、画像の変化量とカメラ20の移動量との関係を説明するための図である。図14(A)は、カメラ20が位置Ps4から他の位置Ps5に移動することを示す図である。図14(B)は、カメラ20が位置Ps4から他の位置Ps5に移動したときの画像RwIm4,RwIm5の変化を示す図である。
【0084】
制御部10は、画像解析により、図14(B)に示されているように、画像に含まれる物体のフレーム間の位置の変化量M2に基づき、カメラ20自身の位置Ps4からの移動量M1を推定することができる。このように、変形例3においては、取得部12は、カメラ20自身の移動量M1に基づいて、マッピング処理により作成された地形情報に対する相対的なカメラ20の位置および姿勢を取得する。
【0085】
また、カメラ20と画像に含まれる物体との間の距離は、機械学習を行うことで生成された推定モデルを用いて推定されてもよい。すなわち、制御部10は、サンプル画像を学習することによって生成された生成された推定モデルを用いて、実空間に配置された物体とカメラ20との間の距離を推定する。
【0086】
これにより、変形例3の撮像システム100では、変形例2と同様に、慣性センサ21、位置センサ22、距離センサ23を備えることなく、カメラ20の位置および姿勢を取得し、対象範囲Rg1を設定することができる。そのため、変形例3の撮像システム100においてもコストを低減することができる。さらに、変形例3の撮像システム100では、マーカーMk1を実空間に配置することなく、カメラ20の位置および姿勢を取得し、対象範囲Rg1を設定することができる。
【0087】
[変形例4]
変形例3では、Visual SLAM技術を用いて、動画像に含まれる1フレームごとの画像の内容の変化から、カメラ20の周囲の実空間の地形情報を作成(マッピング)する構成について説明した。変形例4では、実空間の地形情報を表わす3Dデータが予め準備されている例について説明する。なお、変形例4の撮像システム100において、本実施の形態の撮像システム100と重複する構成の説明については繰り返さない。
【0088】
3Dデータ等の地形情報は、Visual SLAM技術のみならず、LIDARなどを用いて、生成され得る。また、3Dデータ等の地形情報は、自治体などの公共団体によって、防災の観点からインターネット上に公開されている場合があり得る。
【0089】
図15は、実空間を表わす3DデータDat1が予め記憶部50によって記憶されていることを示す図である。変形例4では、記憶部50は、実空間を表わす3DデータDat1等の地形情報を座標空間上に予め記憶する。制御部10は、実空間を表わす3DデータDat1を表示装置40などに表示させて、ユーザに3DデータDat1における対象範囲Rg1を設定させる。
【0090】
制御部10は、慣性センサ21および位置センサ22の検出値に基づいて、座標空間上におけるカメラ20の位置および姿勢を取得する。すなわち、制御部10は、カメラ20の位置および姿勢と対象範囲Rg1の位置との間の相対的な関係を取得することができる。
【0091】
このように、変形例4における撮像システム100では、記憶部50が実空間を表わす3DデータDat1を予め記憶し、設定部11は、3DデータDat1に基づいて対象範囲Rg1を設定する。これにより、変形例4における撮像システム100では、判定部13が、カメラ20の画角に含まれる物体が対象範囲Rg1に含まれるか否かを判定することができる。そのため、変形例4の撮像システム100では、距離センサ23が不要となるため、コストを低減することができる。
【0092】
[変形例5]
本実施の形態の撮像システム100においては、慣性センサ21および位置センサ22の検出値に基づいて、カメラ20の位置および姿勢を取得する構成について説明した。変形例5においては、カメラ20とは異なるカメラ25が撮像する画像に基づき、カメラ20の位置および姿勢を取得する構成について説明する。なお、変形例5の撮像システム100Aにおいて、本実施の形態の撮像システム100と重複する構成の説明については繰り返さない。
【0093】
図16は、変形例5における撮像システム100Aの構成を示すブロック図である。撮像システム100Aは、カメラ25と、表示装置45とをさらに備える。また、カメラ20は、慣性センサ21および位置センサ22を有さない。
【0094】
図17は、変形例5における撮像システム100Aによる撮像を説明するための図である。図17には、カメラ20を撮像するカメラ25および表示装置45が示されている。カメラ25および表示装置45の各々は、本実施の形態におけるスマートフォンとは別体であり、当該スマートフォンに格納されている制御部10と無線を介して接続されている。
【0095】
カメラ25は、配置が固定されたカメラであって、たとえば、監視カメラなどの定点カメラである。取得部12は、画像解析により、カメラ25が撮像する画像に含まれるスマートフォンの形状の基準形状からの変化量に基づいて、カメラ20の位置および姿勢を取得する。なお、カメラ25は、本開示の「第2カメラ」に対応する。
【0096】
制御部10は、変形例2において基準形状からのマーカーMk1の形状の変化量から、座標空間上のマーカーMk1の位置情報を取得したように、カメラ20の位置情報を取得する。すなわち、記憶部50は、カメラ20が格納されているスマートフォンの実空間の形状を基準形状として記憶する。制御部10は、スマートフォンの基準形状から、カメラ25が撮像する画像に含まれるスマートフォンの形状への変化量に基づいて、カメラ20の位置および姿勢の少なくとも一方を取得する。なお、制御部10は、カメラ25の撮像する画像からカメラ20の姿勢だけを取得し、位置センサを用いてカメラ20の位置を取得してもよい。また、制御部10は、カメラ25の撮像する画像からカメラ20の位置だけを取得し、慣性センサを用いてカメラ20の姿勢を取得してもよい。
【0097】
これにより、変形例5における撮像システム100Aでは、取得部12は、慣性センサ21および位置センサ22の少なくとも一方を用いずとも、カメラ20の位置および姿勢を取得することができる。そのため、変形例5の撮像システム100Aにおいても、コストを低減することができる。また、判定部13は、カメラ25が撮像する画像の解析によって取得された座標空間上のカメラ20の位置および姿勢を用いて、カメラ20が撮像する画像に含まれる物体が対象範囲Rg1に含まれるか否かを判定する。
【0098】
画像処理部14は、対象範囲Rg1に含まれないと判定した物体に対して、マスク処理を実行する。図17の例では、画像処理部14は、位置Ps2から撮像された画像RwIm2に対して、マスク処理を実行し、画像EdIm2を生成する。図17に示されるように、制御部10は、画像EdIm2を表示装置45に表示させる。これにより、対象範囲Rg1以外に配置されている作業員Hm2~Hm4は、適切にマスク処理が実行されていることにより、画像EdIm2に自身が表示されていないことを確認することができる。
【0099】
[態様]
上述した複数の例示的な実施の形態は、以下の態様の具体例であることが当業者により理解される。
【0100】
(第1項) 一態様に係る撮像システムは、実空間に配置された物体を撮像する第1カメラと、制御部とを備える。制御部は、実空間における第1範囲を設定する設定部と、第1カメラの位置および姿勢を取得する取得部と、第1カメラの位置および姿勢に基づいて、第1カメラが撮像する画像に含まれる物体が第1範囲に含まれるか否かを判定する判定部と、判定部による判定結果に応じて、第1カメラが撮像した画像に対して異なる画像処理を施す画像処理部とを含む。
【0101】
第1項に記載の撮像システムによれば、認識モデルを生成することなく、画像内において表示すべき物体と表示すべきではない物体とを区別することができ、コストの増大を抑制できる。
【0102】
(第2項) 第1項に係る画像処理部は、判定部によって第1範囲に含まれないと判定された物体を対象として、第1カメラが撮像した画像にマスク処理を実行する。
【0103】
第2項に記載の撮像システムによれば、第1カメラが撮像した画像において、第1範囲に含まれないと判定された物体を非表示にすることができる。
【0104】
(第3項) 第1項または第2項に係る第1カメラは慣性センサを含む。取得部は、慣性センサの検出値を用いて、第1範囲が設定されたときの第1カメラの姿勢に対する第1カメラの姿勢を取得する。
【0105】
第3項に記載の撮像システムによれば、慣性センサを用いて、第1カメラの姿勢に関する情報を取得することができる。
【0106】
(第4項) 第1項~第3項のいずれかの項に係る第1カメラは位置センサを含む。取得部は、位置センサの検出値を用いて、第1カメラの位置を取得する。
【0107】
第4項に記載の撮像システムによれば、位置センサを用いて、第1カメラの位置に関する情報を取得することができる。
【0108】
(第5項) 第1項に係る取得部は、第1カメラが撮像する画像に含まれる物体の画像内における位置の変化量に基づいて、第1カメラの位置および姿勢の少なくとも一方を取得する。
【0109】
第5項に記載の撮像システムによれば、慣性センサ、位置センサを備えずとも、単眼カメラで撮像した動画像から第1カメラの位置および姿勢に関する情報を取得することができ、コストを低減することができる。
【0110】
(第6項) 第5項に係る取得部は、Visual SLAM(Simultaneous Localization and Mapping)技術、SfM(Structure from Motion)技術、および、VO(Visual Odometry)技術の少なくとも1つに基づいて、第1カメラの位置および姿勢を取得する。
【0111】
第6項に記載の撮像システムによれば、慣性センサ、位置センサを備えずとも、SLAM技術を用いて、単眼カメラで撮像した動画像から第1カメラの位置および姿勢に関する情報を取得でき、コストを低減することができる。
【0112】
(第7項) 第1項に係る取得部は、画像に含まれるマーカーを抽出し、マーカーの基準形状からの変化量に基づいて、第1カメラの位置および姿勢を取得する。
【0113】
第7項に記載の撮像システムによれば、慣性センサ、位置センサを備えずとも、実空間に配置されたマーカーを撮像することによって、単眼カメラで撮像した動画像から第1カメラの位置および姿勢に関する情報を取得することができ、コストを低減することができる。
【0114】
(第8項) 第1項に係る第1カメラを撮像する第2カメラをさらに備える。取得部は、第2カメラによって撮像された画像に含まれる第1カメラの基準形状からの変化量に基づいて、第1カメラの位置および姿勢を取得する。
【0115】
第8項に記載の撮像システムによれば、慣性センサ、位置センサを備えずとも、第2カメラが撮像する画像から第1カメラの位置および姿勢に関する情報を取得することができ、コストを低減することができる。
【0116】
(第9項) 第1項~第8項のいずれかの項に係る判定部は、実空間に配置される物体と第1カメラとの間の距離に基づいて、画像に含まれる物体が第1範囲に含まれるか否かを判定する。
【0117】
第9項に記載の撮像システムによれば、図9に示されるように、第1カメラの画角のいずれの角度に対象範囲が位置しているかという情報に加えて、撮像方向に対する物体の配置を取得することができるため、画像内に含まれる物体が対象範囲に含まれるか否かをより正確に判断することができる。
【0118】
(第10項) 第9項に係る実空間に配置される物体と第1カメラとの間の距離を検出する距離センサをさらに備える。
【0119】
第10項に記載の撮像システムによれば、距離センサを用いて、物体と第1カメラとの間の距離を検出することができる。
【0120】
(第11項) 第9項に係る機械学習を行うことで生成された推定モデルおよび第1カメラが撮像する画像に基づいて、実空間に配置される物体と第1カメラとの間の距離を推定する。
【0121】
第11項に記載の撮像システムによれば、距離センサを用いずに、物体と第1カメラとの間の距離を検出することができるため、コストを低減することができる。
【0122】
(第12項) 第1項~第8項のいずれかの項に係る判定部は、第1カメラの位置および姿勢に基づいて、第1カメラが撮像する画像に含まれる物体が第1範囲に含まれるか否かを判定する。
【0123】
第12項に記載の撮像システムによれば、図9に示されるように、第1カメラの位置および姿勢だけから、第1カメラの画角内における第1範囲が占める領域を判定し、当該領域に含まれる物体を第1範囲に含まれると判定することができる。
【0124】
(第13項) 第1項~第12項のいずれかの項に係る入力装置をさらに備える。入力装置は、取得部が取得する第1カメラの位置および姿勢に対する第1範囲の位置情報を受け付ける。設定部は、第1範囲の位置情報に基づいて第1範囲を設定する。
【0125】
第13項に記載の撮像システムによれば、入力装置を介してユーザから受け付けた第1範囲の位置情報に基づいて、第1範囲の位置を設定することができる。
【0126】
(第14項) 第1項~第12項のいずれかの項に係る入力装置をさらに備える。制御部は、第1カメラによって撮像された画像から鉛直方向に垂直な平面を検する。設定部は、ユーザから入力された画像内の座標が検出された平面内に含まれる場合には、当該座標に基づいて定められる領域を前記第1範囲として設定する。
【0127】
第14項に記載の撮像システムによれば、カメラ20が撮像する画像に基づいて、平面検出によって検出された平面内において、いずれの位置に対象範囲を配置するかを直感的にユーザに設定させることができる。
【0128】
(第15項) 第1項~第12項のいずれかの項に係る設定部は、画像に含まれるマーカーを抽出し、マーカーの基準形状からの変化量の映り方に基づいて、第1範囲を設定する。
【0129】
第15項に記載の撮像システムによれば、実空間にマーカーを配置するだけで、対象範囲を設定することができる。
【0130】
(第16項) 第1項~第12項のいずれかの項に係る記憶部をさらに備える。記憶部は、実空間を表わす特定情報を記憶する。設定部は、特定情報に基づいて第1範囲を設定する。
【0131】
第16項に記載の撮像システムによれば、実空間を表わす特定情報から、第1範囲を設定することができる。
【0132】
(第17項) 第16項に係る制御部は、Visual SLAM(Simultaneous Localization and Mapping)技術、またはSfM(Structure from Motion)技術に基づいて、特定情報を作成する。
【0133】
第17項に記載の撮像システムによれば、実空間を表わす3Dデータなどの特定情報が予め準備されていなくとも、第1カメラの撮像によって特定情報を作成することができる。
【0134】
(第18項) 第1項~第17項のいずれかの項に係る設定部は、ユーザからの入力に基づいて設定した第1範囲を変更する。
【0135】
第18項に記載の撮像システムによれば、第1カメラの撮像中においても設定した対象範囲を変更することができる。
【0136】
(第19項) 第2項~第18項のいずれかの項に係る表示装置をさらに備える。制御部は、画像処理部によってマスク処理が実行された後の画像を表示装置に表示させる。
【0137】
第19項に記載の撮像システムによれば、画像処理部のマスク処理が適切に実行されているかを容易に確認させることができる。
【0138】
(第20項) 一態様に係る撮像方法は、カメラを用いて実空間に配置された物体を撮像する撮像方法であって、実空間における第1範囲を設定するステップと、カメラの位置および姿勢を取得するステップと、カメラの位置および姿勢に基づいて、カメラによって撮像される画像に含まれる物体が第1範囲に含まれるか否かを判定するステップと、判定するステップにおける判定結果に応じて、カメラが撮像した画像に対して異なる画像処理を施すステップとを含む。
【0139】
第20項に記載の撮像方法によれば、認識モデルを生成することなく、画像内において表示すべき物体と表示すべきではない物体とを区別することができ、コストの増大を抑制できる。
【0140】
なお、上述した実施の形態および変更例について、明細書内で言及されていない組み合わせを含めて、不都合または矛盾が生じない範囲内で、実施の形態で説明された構成を適宜組み合わせることは出願当初から予定されている。
【0141】
今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて請求の範囲によって示され、請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
【符号の説明】
【0142】
10 制御部、11 設定部、12 取得部、13 判定部、14 画像処理部、20,25 カメラ、21 慣性センサ、22 位置センサ、23 距離センサ、30 入力装置、40,45 表示装置、50 記憶部、100,100A 撮像システム、Ag1~Ag3 角度、Ob1,Ob2 物体、Dat1 データ、EdIm1,EdIm2,PLIm1,PLIm2,RwIm1~RwIm5 画像、FL1 床、Fc 焦点、Hm1~Hm4 作業員、Ht1~Ht5 ハッチング、IS イメージセンサ、M1 移動量、Mk1 マーカー、P1 座標、PL1 平面、Ps1~Ps5 位置、Rb1,Rb2 ロボット、Rg1 対象範囲、Tp1 選択、WA1 壁。
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14
図15
図16
図17