IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ カイトウ建築設備工業株式会社の特許一覧 ▶ 金坂 多加正の特許一覧

特開2023-131883位置マーキング方法および位置マーキングシステム
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2023131883
(43)【公開日】2023-09-22
(54)【発明の名称】位置マーキング方法および位置マーキングシステム
(51)【国際特許分類】
   G01C 15/02 20060101AFI20230914BHJP
   G01B 11/00 20060101ALI20230914BHJP
【FI】
G01C15/02
G01B11/00 H
【審査請求】未請求
【請求項の数】10
【出願形態】OL
(21)【出願番号】P 2022036887
(22)【出願日】2022-03-10
(71)【出願人】
【識別番号】522096547
【氏名又は名称】カイトウ建築設備工業株式会社
(71)【出願人】
【識別番号】522096558
【氏名又は名称】金坂 多加正
(74)【代理人】
【識別番号】100109553
【弁理士】
【氏名又は名称】工藤 一郎
(72)【発明者】
【氏名】金坂 多加正
(72)【発明者】
【氏名】尾形 大輔
(72)【発明者】
【氏名】淺野 滋
【テーマコード(参考)】
2F065
【Fターム(参考)】
2F065AA03
2F065AA14
2F065BB15
2F065BB27
2F065CC14
2F065DD02
2F065FF04
2F065FF24
2F065FF61
2F065JJ03
2F065JJ05
2F065MM26
2F065PP25
2F065QQ03
2F065QQ28
2F065QQ31
2F065UU05
(57)【要約】
【課題】簡易かつ安価な構成で位置を特定しマーキングを行う位置マーキング方法および位置マーキングシステムを提供する。
【解決手段】縮尺付きの図面で特定できる構造物を構成する平面の複数の位置に後記する位置マーキング体の位置が図面で特定できるカメラの光軸方向から何度の位置にあるか判別するためのカメラを配置するカメラ配置ステップと、前記平面に対してマーキングをすることができる位置マーキング体を移動させて図面でマーキング位置とされている場所を前記配置されたカメラによって特定してマーキングをするマーキングステップと、からなり構造物中の所定の位置にマーキングを行う。
【選択図】図1
【特許請求の範囲】
【請求項1】
実物の構造物中で、これを表した図面上に示された位置にマーキングをする位置マーキング方法であって、
実物平面上に、後記する位置マーキング体が図面で特定できるカメラの光軸方向から何度の位置にあるか判別するための複数のカメラを配置するカメラ配置ステップと、
前記実物平面に対してマーキングをするための位置マーキング体を移動させて図面上でマーキング位置とされている場所を前記配置された複数のカメラによって判別される光軸方向からの角度を利用して特定してマーキングをするマーキングステップと、
からなるマーキング方法。
【請求項2】
前記マーキングステップは、位置マーキング体を移動させた位置を特定するために三角測量の原理に基づく演算を行う演算サブステップを有する請求項1に記載の位置マーキング方法。
【請求項3】
前記カメラ配置ステップでカメラを配置する位置は、平面の角を占める領域である請求項1又は請求項2に記載の位置マーキング方法。
【請求項4】
前記カメラ配置ステップで配置されるカメラの数は3台以上である請求項1から請求項3のいずれか一に記載の位置マーキング方法。
【請求項5】
前記位置マーキング体は自力走行可能なロボットである請求項1から請求項4のいずれか一に記載の位置マーキング方法。
【請求項6】
前記演算サブステップで演算された位置を位置マーキング体に通信出力する通信出力ステップと、
通信出力ステップにて出力された位置に基づいて位置マーキング体を移動させる位置マーキング体移動ステップと、
をさらに有する請求項5に記載の位置マーキング方法。
【請求項7】
前記自力走行可能なロボットは、図面で特定されるマーキング位置に自身が位置した場合にマーキング出力を実行するマーキング実行ステップを有する請求項5および請求項6のいずれか一に記載のマーキング方法。
【請求項8】
請求項5に従属する請求項7に記載の位置マーキング方法に用いられる位置マーキング体。
【請求項9】
請求項1から請求項7のいずれか一に記載の位置マーキング方法に用いられるカメラ。
【請求項10】
請求項1から請求項7のいずれか一に記載の位置マーキング方法を用いてなされる構造物の製造方法。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、図面に指定された位置に対して、原寸大でマーキングを行う際に、マーキング位置を特定する方法に関する。
【背景技術】
【0002】
従来から、工事に必要なさまざまな基準線を建築現場に書き出す墨出しという作業がある。
墨出しは鉄筋工事、型枠工事、建具工事、金物工事など多くの工事において、設計図を原寸大に描き出す作業であり、図面に示された位置にマーキングを行っていく。図面通りに正確に描き出すためには、精度の高い位置の特定技術が必要になる。
近年では、GPSやレーザー照射機を使用して効率化されてきてはいるが、今なお手間のかかる作業である。
【0003】
この墨出し作業を自動で効率的におこなうための先行技術として、例えば特許文献1に開示されているように、建設現場における床面上の基準点に対して識別マーカー(板状、紙状のもの)を配置する。そして、配置された識別マーカーの位置に、基準点設置用移動体を移動させる。そして、配置した基準点設置用移動体の位置を基準として建設現場において作業を行うための作業用移動体の位置を基準点設置用移動体からの距離と角度で認識するようにしている。
【先行技術文献】
【特許文献】
【0004】
【特許文献1】特開2019-78569
【発明の概要】
【発明が解決しようとする課題】
【0005】
しかしながら、特許文献1の位置認識方法では、システムとして非常に高価であるという問題がある。特許文献1の位置認識方法では、移動可能な2台の基準点設置用移動体を図面で特定される既知の位置に配置し、作業用移動体により検出されるそれぞれの基準点設置用移動体との距離と、作業用移動体を頂点として2台の基準点設置用移動体がなす角度を高精度に検出する装置を搭載している。
【0006】
しかしながら、距離と角度を高精度に検出する装置は高価であった。さらに、作業移動体が基準点設置用移動体からの死角になる場合には基準点設置用移動体を新たな基準点に移動させるように構成していることからさらに高価なシステムとなってしまう。
本発明は、以上の様な課題に着眼しなされたものであり、図面で示される位置にマーキングを行う作業を容易にしつつも、安価なシステム構成で実現可能な位置マーキング方法を提供することを目的とする。
【課題を解決するための手段】
【0007】
上記課題を解決するために本発明において、以下の位置マーキング方法を提供する。
すなわち、実物の構造物中で、これを表した図面上に示された位置にマーキングをする位置マーキング方法であって、実物平面上に、後記する位置マーキング体が図面で特定できるカメラの光軸方向から何度の位置にあるか判別するための複数のカメラを配置するカメラ配置ステップと、 前記実物平面に対してマーキングをするための位置マーキング体を移動させて図面上でマーキング位置とされている場所を前記配置された複数のカメラによって判別される光軸方向からの角度を利用して特定してマーキングをするマーキングステップと、からなるマーキング方法。つまり、位置を特定するために利用する物理量は角度のみとなる。(請求項1対応)
【0008】
前記特徴に加え、前記マーキングステップは、位置マーキング体を移動させた位置を特定するために三角測量の原理に基づく演算を行う演算サブステップを有する請求項1に記載の位置マーキング方法(請求項2対応)。
【0009】
前記特徴に加え、前記カメラ配置ステップでカメラを配置する位置は、床面の角を占める領域である位置マーキング方法(請求項3対応)。
【0010】
前記特徴に加え、前記カメラ配置ステップで配置されるカメラの数は3台以上である位置マーキング方法(請求項4対応)。
【0011】
前記特徴に加え、前記位置マーキング体は自力走行可能なロボットである位置マーキング方法(請求項5対応)。
【0012】
前記特徴に加え、前記演算ステップで演算された位置を位置マーキング体に通信出力する通信出力ステップと、通信出力ステップにて出力された位置に基づいて位置マーキング体を移動させる位置マーキング体移動ステップと、をさらに有する位置マーキング方法(請求項6対応)。
【0013】
前記特徴に加え、前記自力走行可能なロボットは、図面で特定される墨出位置に自身が位置した場合に位置マーキング出力を実行する墨出実行ステップを有する位置マーキング方法(請求項7対応)。
【0014】
前記特徴に加え、段落[0013]に記載の位置マーキング方法に用いられる位置マーキング体(請求項8対応)。
【0015】
前記特徴に加え、段落[0013]に記載の位置マーキング方法に用いられるカメラ(請求項9対応)。
【0016】
前記特徴に加え、段落[0013]に記載の位置マーキング方法を用いてなされる構造物の製造方法(請求項10対応)。
【発明の効果】
【0017】
本発明の位置マーキング方法によれば、安価な構成で位置マーキング作業の難易度の軽減または自動化が可能になる。
【図面の簡単な説明】
【0018】
図1】本発明の位置マーキング方法を示す図
図2】本発明の位置マーキングに使用する図面の一例を示す図
図3】本発明の位置特定方法の原理を示す図
図4】光学系の入射角と結像位置の関係を示す図
図5】本発明に使用されるカメラの構成を示すブロック図
図6A】実施形態1の図面の一例を示す図
図6B】実施形態1の図面で示される実物平面を示す図
図6C】実物平面から位置マーキング体の位置を特定する場合の一例
図7】本発明の位置マーキング方法で行われるキャリブレーションの一例を示す図
図8】実施形態1の位置マーキング体の一例を示す図
図9A】実施形態1のファインダーの状態の一例を示す図
図9B】ポインタの変形例を示す図
図10】実施形態2の位置マーキングシステムの概要を示す図
図11】位置マーキング処理の制御の流れを示すフローチャート
図12】実施形態2のコントロール端末のハードウェア構成を示す図
図13】実施形態3のカメラ設置位置の一例を示す図
図14】カメラの画角によるマーキング可能領域を示す図
図15】魚眼レンズの射影を説明するための図
図16】カメラを傾けて設置した場合の一例を示す図
図17】カメラを回転ステージ上に設置した状態を示す図
図18】実施形態4におけるカメラ設置位置の一例を示す図
図19】実施形態5の概要を示す図
図20】位置マーキングロボットの外形を示す図
図21】位置マーキングロボット内の制御ブロックの機能構成を示すブロック図
図22】実施形態6におけるマーキング処理の制御の流れを示すフローチャート
図23】実施形態7におけるマーキング処理の制御の流れを示すフローチャート
図24】実施形態1の変形例の概要を示す図
図25】実施形態1の変形例の位置マーキング体であるドローンの外形を示す図
図26】画像上の位置から入射角を算出するための考え方を示す図
図27】入射角を立体に展開した図
図28】三次元での位置特定方法の考え方を示す図
図29】入射角と像高の関係の取得の一例を示す図
図30】システムコントローラの内部構成の一例を示すブロック図
【発明を実施するための形態】
【0019】
以下、本発明の実施形態の説明に先立ち、本発明の概要および技術を、添付図面を参照して説明する。
【0020】
<発明の概要>
図1は、本発明の位置マーキング方法の概略を示す図である。
図のように、本発明の位置マーキング方法では、複数台のカメラ(0102a,0102b)と、位置マーキング体0103とを使用し、図面0104に基づいてマーキングを行っていく。
【0021】
カメラは、位置マーキング体の自身の光軸からの角度を検出するための構成であり、少なくとも2台のカメラから検出されるそれぞれのカメラの光軸からの角度に基づいて、位置マーキング体の位置を特定する。
角度の検出は、例えば、カメラの光軸と位置マーキング体からの光束がなす入射角を検出し、図面上で特定される自身の光軸から位置マーキング体の角度を算出する
【0022】
位置マーキング体は、カメラに対して光軸からの角度を測定するためのターゲットを有していることが好ましい。ターゲットとは、例えばカメラで識別容易で点状にカメラにとらえられる構造物をいう。また位置マーキング体は、マーキングを行うマーキング部を有するように構成してもよい。ただし、ターゲットは、位置マーキング体の構造の一部をそれとして認識するように作業をしてもよいし、マーキング部は、位置マーキング体が有さずに、作業者が位置マーキング体の構造物を目安として平面にマーキングするように作業してもよい。位置マーキング体がマーキング部を有する場合には、位置マーキング体を移動して、図面上のマーキング位置に該当する位置に移動したと複数のカメラによって判別されたら、その位置にマーキングを行う。
【0023】
<原理の説明:位置特定方法>
図3は、本発明の位置マーキング方法の位置の特定に係る原理を説明するための図であり、マーキングを行う平面である位置マーキング領域0301(マーキングを行う実物平面)内のマーキング位置0303の位置を特定する場合を例に説明する。
【0024】
図面上の位置マーキング領域内には、カメラ設置位置0302aおよび0302bと、マーキング位置0303と、横方向基準線0304と、縦方向基準線0305と、光軸0306aおよび0306bとが示されている。縦方向基準線および横方向基準線は、図面の制作過程で引かれる線であり、実際の位置マーキング領域に引かれていても良い。同様に、光軸も図面上で示される線であるが、実際の位置マーキング領域に引かれても良い。
カメラ設置位置には、カメラの光学系の主点が一致するようにカメラを配置する。
カメラ間の距離Lおよび、横方向基準線とカメラの光軸のなす角度θa1およびθb1は図面上で既知の値であり、マーキング位置0303は、光軸と既知の角度をなすθa2とθb2で特定される。
【0025】
また逆に、θa2とθb2から図面上の対応する位置を座標として特定することもできる。
マーキング位置0303とカメラの光学系の主点(以下「カメラ主点」という。)を結ぶ線(以下「マーキング入射線」という。)と各カメラの光軸とがなす角がθa2とθb2であった場合、マーキング入射線と、横方向基準線と、マーキング位置から横方向基準線に引いた垂線で形成される三角形から以下式が成り立つ。
【数1】
Lは既知の値であり、La+Lb=Lの関係が成り立つので上記式を展開すると以下になる。
【数2】
以上から、横方向基準線と縦方向基準線で示される直交座標系で、カメラ設置位置0302aを原点とすると、マーキング位置の座標(Xt,Yt)は、以下で表される。
【数3】
以上のように、マーキング位置の直交座標系での位置は、θa1,θa2, θb1,θb2により特定される。
【0026】
<原理の説明:マーキング位置への移動方法>
図3を用いて、位置マーキング体(のターゲット)の現在位置0307からマーキング位置0303へ移動する場合を説明する。
カメラAから確認できる現在位置は、マーキング位置として特定される入射角の位置よりも右側に見える。このためカメラA側からは、Ma方向に図面から推定される移動量だけ移動するよう指示する。
一方カメラBから確認できる現在位置は、マーキング位置として特定される入射角の位置よりも左側に見える。このためカメラB側からは、Mb方向に図面から推定される移動量だけ移動するよう指示する。
従って、両カメラからの指示を合成したMab方向に移動すると、マーキング位置に近付くことになる。
【0027】
以上述べた移動を、何度か繰り返すと、双方のカメラの光軸とマーキング入射線(段落番号0025に定義あり。)のなす角度(以下「マーキング入射角」という)が、図面で示す角度と一致するようになる。
なお、マーキング入射角は符号を持つ値であり、光軸から時計回りの方向の入射角を正とし、反時計回りの入射角を負とするようにすれば良い。
移動方法は、上記の記載に限定するものではなく。例えば、まずカメラAの指示でのみ移動し、カメラAの光軸とマーキング入射線のなす角が図面で示す角度になるようにする。次に、カメラBの指示に従い、カメラAからのマーキング入射線の光軸となす角度を同じくする線上を移動するようにしてカメラBの光軸とマーキング入射線のなす角を図面で示す角度と一致させるようにしても良い。
双方のカメラの移動方向の指示に従い移動するのであればよく、どのような順番であっても構わない。
【0028】
<原理の説明:入射角算出方法>
本発明の位置マーキング方法では、カメラに写される位置マーキング体のマーキング入射角を求める。
図4は、入射角(光軸と所定の光束がなす角度)θと結像位置の関係を示す図である。
像高hは、光軸が撮像素子と接する撮像中心からの距離であり、Fは光学系の焦点距離である。
光学系の焦点距離とは、該光学系に無限遠から平行に入射した光束が1点に収束する点を焦点と呼び、光学系の主点から焦点までの距離が焦点距離となる。
ここでは、図の説明を分かり易くするために、光学系に入射する光束は無限遠からの光束と仮定し、光学系の主点と撮像素子の距離は、光学系の焦点距離と一致しているものとする。
【0029】
光学系0401(複数枚のレンズで構成される)は、カメラの撮像素子0402に被写体からの光束を結像する。光軸0403から入射した光束は、撮像素子の中心に結像されるので、撮影画像の中心となる。
光束0404が光軸に対して、入射角θで入射した場合、撮像素子に結像される位置を像高hとする。光学系の焦点距離をFとし、光学系の射影が中心射影の場合、入射角と像高の関係は以下式で表される。なお、この関係式は位置マーキング体(のターゲット)のカメラ主点からの位置が変動し、フォーカスをするためにカメラ主点と撮像素子との距離が変動する場合でも常に成り立つ関係式である。
【数4】
従って、入射角θiは、以下式で求められる。
【数5】
【0030】
なお、光学系の射影方式が不明な場合や、特殊な光学系を用いる場合、また、歪曲収差が大きい光学系を用いる場合などは、像高hと入射角θの関係を実験的に取得することも可能である。
図29に示すように、位置マーキング体のターゲットを既知の入射角の位置に設置し、その時の像高を算出する。これを、複数の位置に対して行い、結果をテーブルに保持するようにすれば良い。
図の例で示すように、入射角θのとき像高h、入射角θのとき像高h、入射角θのとき像高hといった具合に、取得するようにして、その間の位置は、補間演算により算出するようにしても良い。
【0031】
以上を踏まえて、本発明の位置マーキング方法の実施形態を説明する。
<実施形態1:主に請求項1に対応>
<実施形態1:概要>
実施形態1の位置マーキング方法は、本発明の位置マーキング方法の最も基本となる構成であり、空間の床面に対して、図面に指示されたマーキング位置にマーキングを行うものである。使用するカメラは2台で、位置マーキング領域の端に配置し、障害物は無く、カメラの撮影視野にすべてのマーキング位置が収まる。また、位置マーキング体は人手により移動する。
【0032】
図面で示される入射角の位置と、カメラで視認される位置マーキング体を確認しながら、位置マーキング体が入射角の位置になるように移動し、一致した場合にマーキング位置としてマーキングを行う。
【0033】
<実施形態1:構成>
実施形態1の位置マーキング方法は、図面と、カメラと、位置マーキング体とを使用し、カメラ配置ステップと、マーキングステップとにより構成される。
【0034】
<実施形態1:マーキング方法の前提 図面>
図2は、簡単な図面の一例である。
「図面」は、マーキング位置に位置マーキング体を移動するために使用される。図面に示す外枠の斜線部は、壁を意味しており、その内側が位置マーキング領域0201で、マーキングを行う領域となる。位置マーキング領域上に引かれている一点破線は、図面作成過程で引かれる補助線であり、カメラ設置位置やマーキング位置を決めるために使用される線である。
【0035】
黒丸は、カメラの設置位置(0202a、0202b)を示しており、壁から既知の距離に設定されている。黒四角は、マーキング位置0203で、マーキングを行う位置を示している。マーキング位置は、通常は複数存在するが、ここでは、簡単化のため1か所のみ示す。
カメラ設置位置および、マーキング位置は、直行座標系(X-Y座標)で基準となる位置からの寸法で規定される。さらに、マーキング位置は、実物平面上で位置を特定するための各カメラへの入射角も示される。
【0036】
破線は、カメラの光軸(0204a,0204b)を示しており、カメラはこの図面上で指定された光軸に一致するように設置する必要がある。
このように、図面内に設置するカメラの光軸方向を示す記載と、マーキング位置の入射角を示す記載があることが、従来の図面との大きな違いである。
【0037】
以上の様な、建築現場などに応じて作成された図面で示されるカメラ設置位置にカメラを設置し、図面で示されたマーキング位置に対応する位置マーキング領域上の該当位置にマーキングをする。
【0038】
<実施形態1:マーキングステップで利用される物 :位置マーキング体>
「位置マーキング体」は、作業現場平面に対して図面で示される位置にマーキングを行うために利用される。
位置マーキング体は、少なくともカメラに自身の位置を認識させるためのターゲットを有する。また、平面にマーキングを行うマーカー処理部を有していてもよい。
実施形態1では人手による移動として説明するが、内部に動力源を有して移動可能に構成しても良い。また、移動は、外部機器から移動方向や移動量を指示されて移動するように構成しても構わないし、位置マーキング体自身が移動量を算出して自律的に移動しても構わない。
【0039】
図8は、位置マーキング体の一例を示す図である。
位置マーキング体0800は、マーキング処理部0801と、ターゲット0802と、ホイール0803で構成されている。
床面には、複数個のホイール0803で接地しており、人手により位置マーキング体が押されるとホイールが回転し、移動ができるようになっている。
【0040】
位置マーキング体は、その先端には球状のターゲットが設置されている。ターゲットの役割は、カメラにより光軸からの角度の特定を行う際に、マーキング入射角を検出するために使われる。ターゲットは前述のように、球状であることが望ましい。これは、球状の場合どの方向から撮影しても円形で撮影され、この円の中心をもとめることで、マーキング入射角を正確にもとめることができるからである。また、色は、赤、緑、青色のいずれか三原色であることが望ましい。これは、カメラの撮影画像が、三原色で構成されているためで、背景からターゲットを抽出しやすくなる効果がある。またターゲットには記号や符合、その他画像認識可能な形態が付されていることが好ましい。カメラからの映像に基づいてターゲットを自動認識しその位置をコンピュータで自動計算できるように構成することができるためである。詳しくは実施形態2で説明する。
【0041】
マーキング処理部は、位置マーキング体の底面に配置され、操作により床面に対して、塗料等で色をつける処理を行う。0801aおよび0801bは、マーキング処理部を側面視した図であり、マーキング待機時0801aおよびマーキング実施時0801bを示している。マーキング実施時は、マーキング実施部0801cが露出してマーキングを行うようになっている。
【0042】
マーキング実施部0801cは、墨汁が浸された、硬質のスポンジ状のもので構成する方法が考えられるが、これに限定されるものではなく吹き付けるような構造であっても良いし、シールを貼り付ける構成であっても良く、マーキングする領域に印ができる構成であればどのような構成でも構わない。レーザー照射部から構成され作業現場の床面などに熱で焦げ跡などを残すような構成でも構わない。
【0043】
また、マーキングの他に識別情報を印字するようにしても良い。シールで構成した場合は、例えばシール表面にQRコード(登録商標)やバーコードなどのコードを印字して貼り付けるようにしても良い。
こうすることで、マーキングの目的や関連するマーキングがあるかなどの情報を含めて印字することも可能になる。マーキングの目的とは例えば配管の埋め込み位置であるとか配筋の存在位置であるとか、電線の埋め込み位置であるとか、建築物を建築したり、あるいは建築物を修理したりする場合に有用な情報が該当する。また関連するマーキングがあるかを示す情報としては一のマーキング位置から他のマーキング位置に直線的に溝を掘る作業を要するような情報をしめしたり、あるいは、一のマーキング位置から他のマーキング位置まで配筋が存在することをしめしたり、するような場合である。
なお、今まで床を作業対象として説明しているが必ずしも床のみでなく、壁面や天井面などがマーキングの作業対象となってもよい。その場合には壁面や天井面に沿って位置マーキング体を移動できるように構成する。
【0044】
なお、マーキング処理部によるマーキングは、位置マーキング体を操作する操作者の指示によりマーキング処理を行っても良いし、通信機能を有して外部機器からの指示に従ってマーキング処理を行うようにしても良い。
【0045】
位置マーキング体は、マーキング処理部の真上にターゲットの中心が位置するように調整されることが望ましく、ターゲットの中心とマーキング実施部を結んだ直線は、マーキングを行う平面に対して垂直になるように構成することが望ましい。
これは、ターゲットで検出した位置と、マーキングを行う位置が一致するため、マーキング処理時の計算負荷が軽減されるためである。
図8の例では、マーキング処理部下面視で示すように、破線で示す透過して見えるターゲットの位置に、一点破線で示すターゲットの中心線上にマーキング実施部が位置するように構成されている。
【0046】
<実施形態1:カメラ配置ステップで利用される物 カメラ>
「カメラ」は、位置マーキング体の位置が図面で特定されるカメラの光軸方向から何度の位置にあるかを判別するために用いられる。 実施形態1では、カメラへの位置マーキング体(位置マーキング体のターゲット)からのマーキング入射線が図面で特定されるマーキング位置にあたる角度からの入射角であるかをカメラの光学系の光軸を基準として計測し判断し、これを利用して位置マーキング体をマーキング位置に移動させる。例えばこれをカメラのファインダーに映る位置マーキング体(位置マーキング体のターゲット)の光軸に相当するファインダー内の位置からのずれ量を用いて判断する。
また、ファインダー内のマーキング位置にあたる入射角を確認しやすくするためのポインタが配置できることが望ましい。
【0047】
図9Aは、本実施形態のカメラでのファインダー像の一例である。
ファインダー像0900は、位置マーキング領域を映し出しており、位置マーキング体0903が映っている。ファインダーには、縦、横それぞれの中心を示す罫線0901があり、その交点が光軸にあたる。さらに、ポインタ0902が所定の位置に配置できるようになっている。ファインダー右下のポインタ座標0904は、ファインダー内でのポインタの位置を示している。従って、座標を確認しながら、マーキング位置からの入射角に対応するファインダー内の位置にポインタ0902を配置する。ポインタの座標と入射角の関係は、予め[数5]に基づいて、計算しておくようにすれば良い。
そして、位置マーキング体のターゲットがポインタと重なるように位置マーキング体を移動する。
こうすることで、位置マーキング体を容易にマーキング位置の入射角に合わせることができる。
【0048】
また、ポインタは、図9Bのような構成であっても良い。
入射角入力部0905に、入射角を指定すると、入射角に対応した位置が破線で示す円状のポインタ0906として表示される。
操作者は、ターゲットの中心が、ポインタの線と重なることで、指定の入射角と一致したことを認識できる。
【0049】
図5は、本発明の位置マーキング方法に使用されるカメラの機能の構成の一例を示すブロック図である。
カメラ0500は、光学系0501と、撮像素子0502と、システムコントローラ0503と、無線通信部0504と、EVF(Electric View Finder)0505とを有する。
実施形態により、無線通信部が必要なかったり、EVFが必要なかったりする場合がある。実施形態1では、無線通信部は無くてもよい。また、EVFにかえて、光学ファインダーであっても良い。後述する実施形態2以降は、EVFは無くてもよい。
【0050】
光学系は、被写体からの光束を撮像素子に結像する。撮像素子は、結像された被写体像を電気信号に変換する。システムコントローラは、撮像素子から電気信号を映像信号として読みす。そして、読み出した映像データをEVFに表示したり、無線通信部で他の通信端末に映像データを送信したりする。無線通信部は、外部デバイスと通信し、データを送受信したり、カメラの操作に係る指示を取得したりする。無線通信部と通信する外部デバイスは、パソコン、スマートフォン、タブレット端末が想定される。
【0051】
図30は、システムコントローラの内部構成の一例を示す図である。
システムコントローラは、CPU(Central Processing Unit)3001と、メモリ3002と、フラッシュROM(Read Only Memory)3003と、バス3004と、映像読出回路3005と、画像処理回路3006と、映像出力回路3007と、外部デバイスインタフェース3008と、を内部に有する。
CPUは、フラッシュROMやメモリからプログラムやデータを読み出し実行する。
メモリは、高速アクセス可能な揮発性メモリであり、プログラムがロードされCPUから読み出されたり、ワーキングメモリとして読出しおよび書き込みが行われたりする。
フラッシュROMは不揮発性メモリで、プログラムや電源がOFFされても保持しておくべきデータなどを記録する。
バスは、CPUや各種回路間のデータのやり取りを調停する。
【0052】
次に、映像データの流れに従って、各回路の動作を説明する。
まず、映像読出回路は、カメラ内の撮像素子により変換された電気信号を映像信号として読み出し、映像データを出力する。
次に、画像処理回路は、映像読出回路から出力された映像データに、様々な画像処理を施し、記録用の画像データや表示用の映像データとして出力する。
次に、映像出力回路は、画像処理回路から出力された表示用の映像データを映像信号として、EVFに出力し表示する。
外部デバイスインタフェースは、システムコントローラ外部のデバイスと通信を行い、データをやり取りする。実施形態2以降では、無線通信部とのデータのやり取りを行い、他の通信端末に画像データを送信したり、撮影の指示を受けたりする。
【0053】
なお、システムコントローラは、1チップの構成として説明したがこれに限らず、CPUやメモリ、その他周辺回路は個別に構成されていても良い。また、無線通信部は、Wifi(登録商標)やBluetooth(登録商標)などの無線通信を想定しているが、USB(登録商標)などの有線通信であっても良い。
【0054】
<実施形態1:構成の説明 カメラ配置ステップ>
「カメラ配置ステップ」は、実物平面上に、後記する位置マーキング体が図面で特定できるカメラの光軸方向から何度の位置にあるか判別するための複数のカメラを配置する。
カメラ配置ステップでは、カメラを図面で特定されるカメラ設置位置に、カメラの光学系の主点位置を合わせ、さらに、カメラの光軸の向きを図面の指示と一致するように設置する。さらに、カメラの光軸および画角はマーキングする平面に対して水平に設置さることが望ましい。
【0055】
カメラの光学系の主点の位置は、ズーム倍率やフォーカス位置により変化する。
概ね、光学系の先端からカメラ本体の間に存在するが、主点位置を正確に知ることは簡単ではない。従って、主点を合わせてカメラを設置する場合、光学系の先端を合わせるようにしても良い。これは、主点位置にたいして数cm程度誤差が生じるが、マーキングを行う領域は、数mから数十mとなるため、入射角の検出に対して生じる誤差は、僅かであり無視して良い。
【0056】
図6Aは、実施形態1におけるカメラの設置位置と、マーキング位置および基準位置を示した図面の一例である。
位置マーキング領域0601は、ここでは四辺形の領域であり、図示横方向の中心付近にカメラAをカメラ設置位置0602aに設置し、図示縦方向の中心付近にカメラBをカメラ設置位置0602bに設置している。マーキング位置0603は、カメラAの光軸0604aとのなす角θと、カメラBの光軸0604bとのなす角θから特定される。また本実施形態では、カメラAの光軸と、カメラBの光軸が交差する位置を、後述するキャリブレーションを行うための基準位置0605としている。
【0057】
「基準位置」とは、位置マーキングを行う平面上のマーキング位置を直交座標系で表す場合の原点となる位置である。また、位置マーキング体の初期位置を基準位置として定めても良い。なお、位置マーキング体の初期位置は、特に決める必要はない。
なお、図6Aで示す図面での寸法は、左下位置マーキング領域の角を基準として寸法を規定しているが、本発明の位置マーキング方法を使用して位置を特定する場合は、前述の基準位置を原点として座標を特定するものとする。
【0058】
図6Bは、図面に従ってカメラを配置した実物平面を示している。
図面に従って、位置マーキング領域の左下角にあたる位置から、図面の横方向にあたる方向にW2の距離の位置から、図面の縦方向にあたる方向にL4の距離の位置に、カメラAのレンズの先端が位置するようにカメラAを設置している。また、カメラのファインダーの中心が、図面で示す光軸方向0604aを向くように設置している。
同様に、カメラBも図面に従って設置している。
位置マーキング体0606は、特に特定されない位置に配置されている。
【0059】
<実施形態1:構成の説明 カメラ配置ステップ キャリブレーション>
カメラの設置を行うにあたって、キャリブレーションを行うように構成しても良い。
これは、図6で示すような位置マーキング領域の場合、図面で示される寸法に従い、位置マーキング体を、基準位置に設置し、カメラをそれぞれの設置位置に設置する。この時、カメラのファインダーで確認できる位置マーキング体のターゲットがカメラの中心に来るようにカメラの視野を調整する。こうすることで、カメラの光軸が、図6Aで示されている方向と一致するようになる。さらに、カメラを設置する高さと、位置マーキング体のターゲットの中心の高さが同じになるように構成されていれば、カメラの光軸が水平に設置されたことを意味している。
【0060】
以上の様なキャリブレーションを行うことで、図面で示されたカメラの設置に容易に合わせることができる。
なお、上記設置に加えて、カメラ画角も位置マーキングを行う平面に対して水平になるように設置されることが望ましい。
このように設置することで、図9Aに示す例では、位置マーキング体のターゲットは、カメラのファインダー内の水平罫線上を常に移動することになり、傾き等を考慮することなく計算が簡単化できる。
【0061】
<実施形態1:構成の説明 マーキングステップ>
「マーキングステップ」は、実物平面に対してマーキングをするために位置マーキング体を移動させて図面上でマーキング位置とされている場所を前記配置された複数のカメラによって判別される光軸方向からの角度を利用して特定してマーキングをする。
マーキングステップでは、それぞれのカメラから位置マーキング体を確認する。
その時、それぞれのカメラへの位置マーキング体からのマーキング入射角が図面で示されるマーキング位置であるθおよびθと一致する場合、マーキング位置にあると特定できる。
【0062】
位置マーキング体が、マーキング位置にあると特定された場合、マーキングを行う。
位置マーキング体を操作する操作者は、マーキング操作を行って、床面にマーキングを行う。なお、位置マーキング体がマーキングを行うように構成しても良いし、位置マーキング体はマーキング位置を示し、操作者がその位置にマーキングを行うようにしてもよい。
【0063】
図6Aの例では、図面上では、θaとθbは既知の値である。
従って、カメラAで、光軸からの入射角がθaとなるファインダー内の位置に位置マーキング体が来るように移動し、さらに、カメラBで、光軸からの入射角がθbとなるファインダー内の位置に位置マーキング体が来るように移動する。
双方のカメラへのマーキング入射角が、図面で示すマーキング位置に対応した入射角と一致した場合に、マーキング位置にあると判定してマーキングを行う。
【0064】
各カメラからの指示は、ファインダー内に見えるマーキング位置に対応する位置と、位置マーキング体との位置関係から、左右どちらにどれだけ動くかを指示するようにする。位置マーキング体は双方のカメラから指示された移動方向を、合成した方向に移動すれば、所望のマーキング位置に近づくことができる。
これを繰り返すことで、位置マーキング体をマーキング位置に移動させることができる。
【0065】
<実施形態1:マーキングステップ 実物平面での位置特定方法の適用例>
図9Aを用いて、マーキング方法の具体的な一例を説明する。
図9Aはカメラのファインダー像を示している。ファインダー内には、罫線0901と、ポインタ0902があり、ポインタはカメラの操作でファインダー内を自在に移動可能に構成されている。
【0066】
それぞれのカメラでは、マーキング位置に応じた入射角が対応するファインダー内の位置にポインタを移動する。位置マーキング体0903のターゲットを確認し、ポインタを配置した位置に、位置マーキング体のターゲットが来るように、カメラ操作者は移動方向と移動量を指示する。
図の例では、位置マーキング体をカメラから見て左方向に移動するように指示する。
【0067】
位置マーキング体の操作者は、カメラAの操作者からの指示と、カメラBの操作者からの指示に従い、双方の指示方向に位置マーキング体を移動する。
【0068】
カメラAから確認できる位置マーキング体のターゲットと、カメラBから確認できる位置マーキング体のターゲットが共に、ポインタと重なっている場合は、図面で示されたマーキング位置に位置マーキング体があると判断される。そして、位置マーキング体の操作者に、マーキング位置にあることを伝える。それにより、位置マーキング体の操作者は、位置マーキング操作を行う。
【0069】
<実施形態1:効果>
以上述べてきたように、実施形態1によれば、カメラ2台と位置マーキング体があれば正確なマーキングが行えるので、トータルステーションやレーザーなどの高価な設備を必要としないので安価に位置の特定が行える。
【0070】
<実施形態2:請求項2に対応>
<実施形態2:概要>
実施形態2は、実施形態1の構成に加え、位置マーキング体を移動させた位置を特定するために、三角測量の原理に基づく演算を行う演算サブステップを有するものである。
本実施形態では、実施形態1の構成に加えて、マーキング処理をコントロールするコントロール端末を有する。特にこのコントロール端末は、位置マーキング体(ターゲット)の位置を特定するための処理を実行する。図面はコントロール端末内で保持される。そして、カメラ、位置マーキング体、コントロール端末は、通信手段を持ち、相互通信が可能となっている。
【0071】
そして、カメラで、位置マーキング体を撮影し、撮影した画像をコントロール端末に送信する。コントロール端末は、撮影された画像に映る位置マーキング体の位置から、マーキング入射角を検出し、演算サブステップでマーキング入射角から、図面上の位置を特定する。移動が必要な場合は、マーキング位置への移動を指示する。そして、位置マーキング体がマーキング位置に位置すると、位置マーキング体にマーキングを指示する。
【0072】
<実施形態2:構成>
図10は、本発明の実施形態2の位置マーキングシステムの概略を示す図である。
図のように、本発明の位置マーキング方法では、カメラA1002aとカメラB1002bとコントロール端末1003と、位置マーキング体1004とで構成される。各構成は、通信手段を有しており、コントロール端末と通信が可能になっている。
通信手段は、Wifi(登録商標)やBluetooth(登録商標)などの無線通信が望ましいが、USB(登録商標)などの有線通信であっても良い。
【0073】
<実施形態2:カメラ>
本実施形態のカメラは、図5に示すように無線通信手段を有して、撮影指示の取得、撮影画像の送信が可能なように構成されている。
コントロール端末から無線通信により、撮影指示を受けて撮影を行い、撮影した画像を同じく無線通信で送信する。
【0074】
<実施形態2:位置マーキング体>
本実施形態の位置マーキング体は、無線通信手段を有して、マーキング指示を取得する。コントロール端末からマーキング指示を取得したら、床面にマーキングを行う。
【0075】
<実施形態2:コントロール端末>
コントロール端末は、マーキングステップの制御を行う。
本実施形態では、コントロール端末は、無線通信手段を有し、無線通信手段を介して、カメラの撮影指示、画像の取得、マーキングの指示を行う。
また、2台のカメラから取得した画像を用いて、マーキング入射角を検出する。そして、検出したマーキング入射角から演算サブステップで、図面上の位置を特定する。
コントロール端末は、パソコンやタブレット端末、スマートフォンなどの形態が考えられるが、建築現場や屋外での使用が通常なので、パソコンである場合は、ノートブック型が望ましい。
【0076】
<実施形態2:マーキングステップ 位置マーキング処理 制御の流れ>
図11は、マーキングステップである位置マーキング処理の制御の流れを示すフローチャートである。本制御は、コントロール端末にて行われる制御である。
先ず撮影指示ステップS1101で、コントロール端末は、それぞれのカメラに対して撮影を指示する。
【0077】
次に、撮影画像取得ステップS1102で、両方のカメラの撮影が終了したら、それぞれのカメラから撮影画像を取得する。
【0078】
次に、入射角取得ステップS1103で、取得した撮影画像から位置マーキング体(ターゲット)からのマーキング入射角(段落番号0027に定義あり。)を求める。この処理の詳細は後述する。
【0079】
次に、位置取得ステップS1104で、求められたマーキング入射角に基づいて、位置マーキング領域(段落番号0023に定義あり。)上のどこに位置しているかを示す位置情報を取得する。
【0080】
次に、取得した位置情報がマーキング位置かを判定しS1105、マーキング位置の場合は、マーキング指示ステップS1106に移行し、マーキング位置でない場合は、移動量取得ステップS1108に移動する。
【0081】
マーキング指示ステップS1106では、位置マーキング体に対してマーキングを行う指示を送信する。
【0082】
マーキング指示ステップでの処理が終わると、マーキングを継続するか否かを確認しS1107、継続しない場合は、位置マーキング処理を終了するが、継続する場合は、移動量取得ステップS1108に移行する。
【0083】
移動量取得ステップS1108では、取得した図面上の位置に対して、次にマーキングを行うマーキング位置に移動するための移動方向および移動量を算出し出力する。
【0084】
次に、移動量指示ステップS1109では、移動量取得ステップで取得した移動方向および移動量を位置マーキング体を移動する作業者に指示する。
その後、撮影指示ステップに戻り最初から繰り返す。
【0085】
<実施形態2:マーキングステップ 位置マーキング処理 入射角取得ステップ>
入射角取得ステップは、各カメラから取得した画像から、位置マーキング体からの光束の入射角を算出する。
先ず、位置マーキング体のターゲットの抽出を行う。ターゲットは、球状で、赤、青、緑のいずれかの単色であることが望ましく、ここでは赤とした場合、画像から赤の成分のみを抽出する。そして2値化することでターゲットを示す円形を抽出できる。
【0086】
この例では、工事現場がコンクリートの壁に囲まれていると仮定すると、赤色成分は、ターゲットの位置が高い値となり、その他は小さい値となる。さらに2値化により、ターゲット以外の赤色の成分が切り捨てられるので、ターゲット部を抽出できることになる。さらに、この円形の中心座標を求める。この座標が位置マーキング体からのマーキング入射角として考えるとことができる。
この座標の画像の中心からの距離(像高h)を求め、入射角θiに変換するが、これは、[数5]により求められる。なお、Fはカメラの光学系の焦点距離であり、ここでの光学系は中心射影を想定している。
【0087】
<実施形態2:マーキングステップ 位置マーキング処理 演算サブステップ>
位置取得ステップは、マーキングステップに含まれる演算サブステップに該当する。
演算サブステップは、位置マーキング体を移動させた位置を特定するために三角測量の原理に基づく演算を行う。
位置を特定するとは、位置マーキング体の位置に対応した図面上の位置の座標を求めることである。
【0088】
<実施形態1:位置マーキング体の位置に対応する図面上の位置特定方法>
各カメラへのマーキング入射角がわかれば、位置マーキング体の位置が図面上のどこに位置しているかを特定することも可能である。
位置マーキング体の位置が図面上のどこであるかが特定できれば、マーキング位置に移動する場合の移動方向と移動量を正確に計算できる。
【0089】
図6Cを用いて説明する。以下の説明では位置マーキング領域を矩形の領域、即ち、矩形の部屋と想定し、その部屋の床面にマーキングを行う場合について説明する。X及びYは、隣接する壁面にそって仮想的に設けられる座標系であり、基準位置0605が原点となる。この原点は、光軸が直交するように設置されたカメラの光軸の交点である。
基準位置から移動した位置マーキング体(ターゲット)の現在位置を前記原点となる基準位置からのX座標成分、Y座標成分で表した値をそれぞれX、Yとした場合、以下式が成り立つ。
【数6】
θtaおよびθtbは、位置マーキング体の位置から検出した角度であり、XおよびYは、図面より計算できる既知の値である。
上記式を展開すると、マーキング位置を特定するためのXおよびYは以下となる。
【数7】
【0090】
以上のように図面上の座標として位置マーキング体の位置を特定することが出来る。これにより、位置マーキング体がどのように移動すれば図面上に示されたマーキング位置に至ることができるかという情報を得るための参考とすることができる。これにより例えばコントロール端末が音声で位置マーキング体の移動方向を指示するように構成することができる。例えばコントロール端末の移動方向指示部がこの役割をになうことができる。具体的には「少し左に移動」、「少し前方に移動」、「あと少し左」、「あと少し前」、「指三本分くらい左」、「指二本分くらい前」などと音声で出力するように構成することができる。また、位置マーキング体にレーザー光線等(自動チルト可能なレーザーポインターのようなもの)で床面等に位置を示すように構成して、マーキング位置を位置マーキング体が移動中でも常時指示するように構成することができる。
【0091】
<実施形態2:ハードウェア構成>
実施形態2のコントロール端末は、例えばノート型パソコンを想定している。
図12は、実施形態2のコントロール端末のハードウェア構成を示すブロック図であり、CPU(1210と、メインメモリ1220と、不揮発性メモリ1230と、ブリッジ1241・1242と、BIOS1250と、I/Oコントローラ1260と、無線LANインタフェース1270と、グラフィックカード1280で構成されている。
【0092】
CPUは、メインメモリからプログラムを読み出し実行し様々な制御を行う。メインメモリは、高速アクセスが可能な揮発性メモリであり、不揮発性メモリからプログラムやデータをロードする。また、CPUのワークメモリとしても機能する。ブリッジは、CPUと周辺回路とのデータのやり取りの中継を行う。BIOSは、起動時の処理をおこなう。I/Oコントローラは、キーボードなどのユーザーインタフェースからの入力をCPUに伝える。無線LANインタフェースは、無線LANで外部機器と通信し、データのやり取りを行う。グラフィックカードは、モニターの表示を制御する。
【0093】
さらに、不揮発性メモリには、撮影指示プログラム12301と、撮影画像取得プログラム12302と、入射角取得プログラム12303と、位置取得プログラム12304と、マーキング指示プログラム12305と、移動量取得プログラム12306と、移動量指示プログラム12307とを有して、適宜メインメモリにロードしてCPUにより実行され各種機能を実現する。必要に応じて図面データ12321を参照する。
【0094】
以上述べたように、プログラムで実現される各機能の実行により無線LANインタフェースを介して、カメラおよび位置マーキング体と通信し、撮影指示や画像の取得、マーキング指示を行う。
【0095】
<実施形態2:効果>
実施形態2の位置マーキング方法によれば、コントロール端末により位置マーキング体(ターゲット)が位置している図面上の位置が自動で特定されるので、マーキング位置への移動方向や移動量を正確にもとめることができる。また、コントロール端末により自動化されることで作業が簡単化され、少人数での操作が可能になる。
【0096】
<実施形態3:請求項3に対応>
<実施形態3:概要>
実施形態3の位置マーキング方法は、実施形態1または実施形態2の構成に対して、カメラを位置マーキング領域の角に設置するものである。
複数のカメラを設置する場合に、位置マーキング領域を構成する辺の交点である角に、それぞれカメラを設置して位置のマーキングが可能な領域をなるべく広く確保するものである。
【0097】
<実施形態3:カメラ設置位置>
図14は、実施形態3におけるカメラの設置位置と、位置マーキング可能な領域を示した図である。
位置マーキング領域1401は、4辺を持つ四辺形の領域であり、カメラ1402a・1402bは一辺を共有する角にそれぞれ設置されている。網掛けで示される位置マーキング可能領域1403は、両方のカメラの撮影視野が重なる位置である。
【0098】
ここで示されされるカメラは、それぞれ撮影光学系の焦点距離が24mm(35mm換算)の場合であり水平画角θfa・θfbがそれぞれ73°である。このため、画角から外れる領域はカメラで捉えることができないため、位置の特定ができない。従って、マーキング位置が図14で示した位置マーキング可能領域にすべて収まる場合は、図示したカメラの設置で行えばよい。
【0099】
図13は、実施形態1のカメラ配置で位置マーキング可能領域1303を示したものである。図14で示した位置マーキング可能領域の方が画角は同じでも広い領域を確保できることが解る。
【0100】
なお、カメラの光学系の画角を90°以上にした場合、四辺形で示す領域全域が位置マーキング可能領域となる。しかしながら、この場合でも、カメラ2台を直線で結んだ線上は、位置の特定ができない領域となる。なぜならば、この線上はどの位置でも、それぞれのカメラに対する入射角度が同じになるためである。このことから、カメラは、図14で示すように、一辺を共有するように2台のカメラを配置することが望ましい。これは、カメラを対角に配置した場合、2台のカメラを結んだ対角線上がマーキングできない領域となり中心付近にマーキングできない位置ができてしまうためである。
【0101】
<実施形態3:光学系の課題>
また、図14に示した例では、カメラの焦点距離を24mmとしたが、これは、標準レンズの広角端が24mmであるためである。これより焦点距離を短くすると画角は広くなるが、広角レンズと呼ばれ、価格が高価になることと、誤差を生じやすくなるためである。
【0102】
誤差を生じる具体的要因としては、二つあり、一つは、広角レンズの場合、端部にいくほど放射方向に被写体像が拡大されるようになる。このため、円形が歪み、円の中心が正しく求められなくなる可能性がある。二つ目は、歪曲収差による誤差で、広角レンズの端部ほど歪曲収差の影響を受けやすく、実際の計算で求められる位置と入射角に誤差を生じる。
【0103】
「歪曲収差」とは、射影で定義される計算式で求められる入射角と結像位置の関係を理想射影とすると、理想射影に対する実際の結像位置の誤差であり、画像の歪みとして見られるものである。
以上の様に、過度に広角なレンズを使用すると誤差を生じ易くなるので、必要な範囲で画角は狭めるまたは実際に使用する画角を制限するようにすることが望ましい。
【0104】
<実施形態3:位置マーキング可能領域拡大方法1 対角画角の利用>
図16に示すように、対角画角が水平になるようにカメラを傾けることで、検出可能な入射角が拡大し、位置マーキング可能領域を拡大することができる。
例えば、光学系の焦点距離が24mmで、フルサイズと呼ばれるセンサフォーマットの場合、画角を84°まで拡大できる。
【0105】
<実施形態3:位置マーキング可能領域拡大方法2 魚眼レンズの利用>
上記の様な光学系の問題の解決方法として魚眼レンズを使う方法がある。
魚眼レンズは、中心射影のレンズに比べて広角であり収差も少ないことから、広角性を確保しつつ誤差を低減することが見込める。
図15は、魚眼レンズの代表的な射影を示す図であり、入射角と結像位置の関係を示している。
[数8]は、等距離射影の魚眼レンズの入射角と像高の関係を示す式であり、入射角と結像位置が比例関係にあり計算がしやすい射影方式である。
【数8】
[数9]は、等立体角射影の魚眼レンズの入射角と像高の関係を示す式であり、一般的な魚眼レンズはこの方式が多い。
【数9】
その他、魚眼レンズには、立体射影や正射影などの射影方式があるが、入手性や計算のしやすさから上記2方式が望ましい。
以上のように、魚眼レンズを使用すると、90°を超える画角が確保できるので、マーキング領域が、四辺形の領域の場合、ほぼ全域をマーキング可能領域とすることができる。
【0106】
<実施形態3:位置マーキング可能領域拡大方法3 回転ステージの利用>
図17は、カメラとカメラを設置する三脚の間に、回転ステージを設置して、カメラの光軸を回転させることを可能にした構成の一例である。
位置マーキング体が撮影視野端に移動した場合、回転ステージにより光軸を回転し、位置マーキング体が撮影視野中心付近に移動するようにする。この時算出された位置マーキング体からの光束の入射角に対して、回転ステージで回転した回転量を加算することで、図面上のカメラの光軸に対して、位置マーキング体からのマーキング入射角を求めることができる。
なお、回転ステージは、手動操作にて回転しても良いが、通信手段を持ち、コントロール端末から制御できるようにすることが望ましい。
【0107】
<実施形態3:効果>
以上述べてきたように、カメラを角に設置することで、位置マーキング可能領域を拡大することができる。
さらに、光学系やカメラの設置を工夫することで90°以上の入射角を検出するように構成できる。従って、四辺形の領域であればほぼ全域(二つのカメラに引いた直線上は除く)へのマーキングが可能となる。
【0108】
<実施形態4:請求項4に対応>
<実施形態4:概要>
実施形態4の位置マーキング方法は、実施形態1から実施形態3のいずれか一の構成に対して、カメラを3台以上設置するものである。
これにより、位置マーキング領域上に障害物があるなどの要因により、2台のカメラでは、すべてのマーキング位置を捉えることができない場合にカメラを追加する。
従って、3台以上のカメラを設置して、いずれか2台のカメラでマーキング位置を特定する方法である。
【0109】
<実施形態4:カメラの配置>
図18は、実施形態4のカメラの配置位置を示した図面の一例を示す図である。
位置マーキング領域1801の中心には、柱1804が存在する。このため、カメラは1802a、1802b、1802cの合計3台設置される。
マーキング位置1803aは、カメラ1802aと1802cから確認できるのでこの2台で図面上の位置を特定する。マーキング位置1803bは、カメラ1802aと1802bから確認できるのでこの2台で図面上の位置を特定する。
【0110】
<実施形態4:位置の特定に使用するカメラの選択>
位置マーキング体の位置を特定するためには、位置を特定するための2台のカメラを選択する必要がある。位置マーキング体の位置をコントロール端末で把握している場合は、図面から特定できるカメラ2台を選択して、そのカメラの画像から位置を特定するようにすれば良い。
また、すべてのカメラの画像を解析して、位置マーキング体のターゲットが検出された画像を2枚選択し、その画像に対応したカメラの位置に基づいて図面上の位置を特定するようにしても良い。
【0111】
<実施形態4:効果>
以上述べたように、カメラの台数を増やして、すべてのマーキング位置が、少なくとも2台のカメラの画角に収まるようにカメラの配置位置を決定し配置する。これにより、遮蔽物がある場合や複雑な形状の位置マーキング領域にも対応が可能になる。
なお、実施形態3で説明したようなカメラの画角に収まらない位置にマーキング位置がある場合も、本実施形態で行ったように、カメラの台数を増やして位置マーキング可能領域を拡大するようにしても良い。
【0112】
<実施形態5:請求項5に対応>
<実施形態5:概要>
実施形態5は、実施形態1から実施形態4のいずれか一の構成に対して、位置マーキング体が自力走行可能なロボットで構成されるものである。
図19は、実施形態5の概要を示す図であり、位置マーキング領域1901内を、自力走行可能な位置マーキングロボット1904が移動してマーキングを行う。位置マーキングロボットは、コントロール端末1903によって制御され、移動方向や移動量、マーキングの実施指示などを無線通信で取得し、指示に従って動作する。カメラ1902a、1902bとコントロール端末間の通信および制御は、実施形態2から4で説明した内容と同じである。
【0113】
<実施形態5:構成の説明 位置マーキングロボットの一例>
図20は、位置マーキングロボット本体2000を側面視した図であり、マーキング処理部2001と、ターゲット2002と、タイヤ2003で構成されている。
マーキング処理部は、図8で説明したマーキング処理部0801と同じであり、説明は省略する。
【0114】
タイヤ2003は、位置マーキングロボットを移動するための構成であり、前進、後退、回転ができるように構成されている。
両方のタイヤが同じ方向に回転することで、前進または後退ができ、逆方法に回転することで回転することができる。
また、タイヤの回転量により移動量および位置マーキングロボットの回転角度が制御できるようになっている。
【0115】
以上が、位置マーキングロボットの構成であるが、位置マーキングロボットは前述の構成および形状に限定されるものでは無い。自在に移動が可能なように構成され、ターゲットを有していれば形態は問わない。
【0116】
<実施形態5:構成の説明 位置マーキングロボット制御ブロック機能構成>
位置マーキングロボットは内部に制御ブロックを有する。
図21は、位置マーキングロボットの制御ブロック2100の機能の構成を示すブロック図であり、通信部2101と、CPU2102と、ROM2103と、RAM(Random Access Memory)2104と、駆動制御部2105と、モーター2106と、マーキング処理部2107を有している。
【0117】
通信部2101は、カメラやコントロール端末などの外部機器と無線通信により通信を行い、移動量の指示やマーキングの指示などを取得する。無線通信は、Wifi(登録商標)や、Bluetooth(登録商標)などの規格の通信方法を使用すれば良い。
【0118】
CPU2101は、プログラムを実行して各部の制御を行う。
ROM2103は、プログラムや図面データを保持するための不揮発性メモリである。
RAM(2104は、CPUのメインメモリであり、適宜、必要なプログラムやデータをROMからロードして実行したり、ワーキングメモリとして使用したりされる。
【0119】
駆動制御部2105は、モーターを駆動するための制御を行う回路であり、パルス信号を生成してモーターを駆動する。
モーター2106は、駆動制御部からのパルス信号によりタイヤを回転させて位置マーキングロボットを移動させるための動力源となる。位置マーキングロボットは、移動量を制御する必要があるため、モーターは、回転量が制御できるステッピングモーターなどが望ましい。エンコーダなど回転量を取得できる構成を設ける場合は、特に回転量が制御できる必要は無い。
【0120】
マーキング処理部2107は、CPU2102からの指示を受けて、床面にマーキング処理を行う。
以上が、位置マーキングロボットの制御ブロックの機能構成であるが、各部の機能は上記に限定されるものでは無い。
【0121】
<実施形態5:位置マーキング方法>
実施形態5では、コントロール端末が位置マーキングロボットの移動量と移動方向を指示して移動させる。位置マーキングロボットがマーキング位置に移動したことを確認したら、マーキング処理の指示を行い、位置マーキングロボットにマーキングを実施させる。
【0122】
<実施形態5:効果>
以上述べてきたように、位置マーキングロボットがコントロール端末の指示に従い、自動で移動してマーキングを行うことができるので、位置マーキング体の移動を人手により行うよりも、正確かつ迅速に位置のマーキングを行うことができる。
【0123】
<実施形態6:請求項6に対応>
<実施形態6:概要>
実施形態6は、実施形態5と構成は同じであるが、制御が追加されている。
追加された制御は、演算サブステップで演算された位置を位置マーキング体に通信出力する通信出力ステップと、通信出力ステップにて出力された位置に基づいて位置マーキング体を移動させる位置マーキング体移動ステップと、をさらに有している。
【0124】
コントロール端末からは、位置マーキングロボット側に対して、特定した位置情報と移動目標位置を送信する。位置マーキングロボットは、現在の位置情報と、移動目標位置から移動方向と移動量を算出して移動する。位置マーキングロボットがマーキング位置に達した場合は、コントロール端末は、位置マーキングロボットにマーキングを指示してマーキングを行う。
【0125】
<実施形態6:位置マーキング方法 処理の流れ>
図22は、実施形態6におけるコントロール端末が行うマーキング処理の制御の流れを示すフローチャートである。
【0126】
まず、画像取得ステップS2201で、2台以上設置されたカメラそれぞれに対して撮影指示を行い、撮影画像を取得する。
【0127】
次に、演算サブステップS2202で、位置マーキングロボットのターゲットが映った2枚の画像データを用いて位置マーキングロボットの位置を特定する。
【0128】
次に、通信出力ステップS2203で、特定した位置マーキングロボットの位置を位置マーキングロボットに通知する。
【0129】
次に、位置マーキング体移動ステップ2204で、位置マーキングロボットをマーキング位置に移動する。位置マーキングロボットへの指示は、移動目標位置を通知する。
通信出力ステップで取得した、現在の位置を基準として、移動目標位置への移動量および移動方向を、位置マーキングロボット自身が算出する。
位置マーキングロボットの移動が完了したら、マーキング指示ステップS2205でマーキングの実施を指示する。
【0130】
この位置マーキング指示を行う前に、再度画像取得ステップに戻って、位置マーキングロボットの位置を特定し、マーキング位置であった場合に、マーキング指示ステップを実行するようにしても良い。
これは、位置マーキング領域は、建築現場などであり状況によっては、滑りやすくなっていることが考えられる。これにより、タイヤが空転することも考えられ、移動量が足りなかったり、移動方向が変わってしまったりして、指示通りの位置に移動できていないことが懸念されるためである。
【0131】
<実施形態6:効果>
以上述べてきたように、位置マーキングロボットが取得した目標位置に基づいて、マーキング位置への移動量および移動方向を算出するので、コントロール端末側で行う制御を簡素化でき、スマートフォンなどの簡易な構成で実現できる。
【0132】
<実施形態7:請求項7に対応>
<実施形態7:概要>
実施形態7は、実施形態5および実施形態6の構成に加えて、位置マーキングロボットが、図面で特定されるマーキング位置に自身が位置した場合にマーキング処理を実行するマーキング実行ステップをさらに有する。
本実施形態では、位置マーキングロボットにコントロール端末の機能が含まれる。
従って、位置マーキングロボット自身で位置を特定するとともに、マーキング位置までの移動量および移動方向を算出する。算出した移動方向と移動量に従ってマーキング位置に移動する。さらに、マーキング位置に位置したことを自身で判断してマーキングを行う。
【0133】
<実施形態7:位置マーキング方法 処理の流れ>
図23は、本実施形態における位置マーキングロボットがマーキング処理を行う際の制御の流れを示すフローチャートである。
【0134】
先ず、移動量取得ステップS2301で移動量を取得する。これは、図面で示されるマーキング位置の中で、次にマーキングを行うマーキング位置と、現在の一マーキングロボット自身の位置と、から移動方向と移動量を算出する。1回目の処理は、現在位置が不明となる場合があるので、この場合は移動量の計算は行わず移動量を0とれば良い。初期位置として決まっている場合は、その位置を用いて算出しても良い。
【0135】
次に、位置マーキング体移動ステップS2302で、移動量取得ステップで取得した移動量と移動方向に、位置マーキングロボット自身を移動する。
【0136】
次に、画像取得ステップS2303で、設置されたカメラに対して撮影を指示し、カメラで撮影した画像を取得する。
【0137】
次に、演算サブステップS2304で、取得した画像から位置マーキングロボット自身の位置を特定する。
【0138】
次に、演算サブステップで特定した位置が、マーキング位置と一致するかを判定する(S2305)。一致した場合は(S2305で「Y」を選択)、マーキング指示ステップS2306を実施する。一致しない場合は(S2305で「N」を選択)、移動量取得ステップに戻って再度移動する。
マーキング指示ステップは、マーキング処理部を動作させマーキングを行う。
【0139】
最後に、図面データで示されるマーキング位置の中に、次にマーキングを行う位置があるかを判定する(S2307)。無い場合は、マーキング処理終了と判断して(S2307で「Y」を選択)、処理を終了する。マーキングを行う位置がある場合は(S2307で「N」を選択)、移動量取得ステップに戻って移動量の算出から再度行う。
【0140】
<実施形態7:効果>
以上述べてきたように、実施形態7によれば、複数台のカメラと位置マーキングロボットだけで位置マーキングを行うことができるので、基材の数が少なくなり、取り扱い易く、コスト低減が可能になる。
【0141】
<実施形態1の変形例:概要>
実施形態1から実施形態7では、床面への位置マーキングを前提として説明してきたが、本発明は床面に限定されるものでは無い。位置の特定を三次元化し、壁面や天井面にマーキングすることも可能である。
実施形態1の変形例では、天井面へのマーキングを例に、三次元での位置特定方法を説明する。
【0142】
図24は、実施形態1の変形例の概要を示す図である。
2台以上のカメラ2402a、2402bでドローン2403の位置を特定し、位置マーキング領域2401の床面と平行に存在する図示しない天井面にマーキングを行うものである。
【0143】
<実施形態1の変形例:構成>
実施形態1の変形例である位置マーキング方法は、実施形態1の構成と同じであるが、位置マーキング体が、三次元で移動可能なドローンで構成されている。
【0144】
<実施形態1の変形例:構成の説明 ドローン>
図25は、本実施形態の位置マーキング体の一例であるドローンの外形図である。
ドローン本体2501に、安定して飛行および空中に静止するためのローター2404が四か所あり、回転することで浮力を生じる。ドローン本体下部には、ターゲット2502が設置されており、複数のカメラでマーキング入射角を検出して位置が特定できるようになっている。
ドローン本体上部には、マーキング処理部2503が取り付けられており、天井面にマーキングを行うことができるようになっている。
ドローン内部の機能ブロックは、実施形態5で説明した構成と同じなので説明は省略する。
【0145】
<実施形態1の変形例:原理の説明 三次元の入射角取得方法>
先ず、平面の時と同様に位置マーキング体のターゲットからのマーキング入射角を求める必要がある。
図26は、本実施形態で取得された画像においてターゲットが検出された場合の一例である。画像の中心を原点として横軸をX軸、縦軸をY軸とすると(Px,Py)の座標にターゲットが検出されたとする。なお、光軸方向はZ軸として考える。
この場合、光軸に対する入射角θiは、像高hから[数5]を用いて求めることができる。
さらに実際の入射角は、Y軸をθ回転させた方向からの入射であると言える。
【0146】
図27は、図26で示した平面で検出される入射角を立体に展開した図である。
実際の入射方向であるPは、Y-Z平面上で光軸(Z軸)とθの角度をなす方向であるP´をZ軸回りにθ回転させた方向であると言える。
P´の方向は、三次元の直交座標系で(0,sinθ,cosθ)として表されるので、この座標をZ軸回りにθz回転するとPの方向が求められる。
従って回転行列を用いると、以下式で求められる。
【数10】
【0147】
位置の特定がしやすいように、入射角を水平方向に光軸のなす角を方位角θdと、水平面と入射角がなす角を仰角θeとして分割して考える。
さらに、式を簡単化するために球面座標として考えると、原点からPおよびP´の距離は1として考えることができるので、各角度は以下で求められる。
【数11】
【数12】
【0148】
以上の様にして、位置マーキング体からの光束の入射角を、水平の方位角と、垂直方向の仰角として求めることができる。
【0149】
図28は、カメラで検出された方位角と仰角から三次元の位置を求める方法を説明するための図である。
2台のカメラがカメラ設置位置PaとPbに設置され、位置マーキング体がPmに位置しているとする。
考え易いように、Paを原点として、カメラ設置位置PaとPbを結んだ直線方向をX軸とする。また、水平面と上でX軸と原点で直交する軸をY軸とし、高さ方向をZ軸として考える。
2台のカメラの距離は既知でLである。図で示すθd1e1d2e2は、カメラで検出される既知の角度である。
以上の事から、[数2]と[数3]により、図28中に示すYuおよびZuは以下で求められる。
【数13】
【数14】
【数15】
【0150】
以上述べてきたように、2台のカメラの画像から位置マーキング体の位置である座標を求めることができる。
【0151】
<実施形態1の変形例:効果>
以上述べてきたように、実施形態1の変形例である位置マーキング方法では、カメラとドローンの様な立体移動が可能な位置マーキング体という安価な構成で、三次元の位置特定が可能となる。
【符号の説明】
【0152】
0101,0201,0301 位置マーキング領域
0102a,0102b,0302a,0302b カメラ
0103 位置マーキング体
0202a,0202b カメラ設置位置
0203a,0203b,0303 マーキング位置
0304,0305 基準線
0306a,0306b,0403 カメラの光軸
0401,0501 光学系
0402,0502 撮像素子
0404 入射光束
0500 カメラ本体
0503 システムコントローラ
0504 無線通信部
図1
図2
図3
図4
図5
図6A
図6B
図6C
図7
図8
図9A
図9B
図10
図11
図12
図13
図14
図15
図16
図17
図18
図19
図20
図21
図22
図23
図24
図25
図26
図27
図28
図29
図30