IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ クオータス エンジニアリング インコーポレイテッドの特許一覧

特表2024-536925カメラ較正のためのカメラモデルを生成する方法とシステム
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公表特許公報(A)
(11)【公表番号】
(43)【公表日】2024-10-08
(54)【発明の名称】カメラ較正のためのカメラモデルを生成する方法とシステム
(51)【国際特許分類】
   G06T 7/80 20170101AFI20241001BHJP
   H04N 23/60 20230101ALI20241001BHJP
   G01C 3/00 20060101ALI20241001BHJP
【FI】
G06T7/80
H04N23/60 500
G01C3/00 120
【審査請求】未請求
【予備審査請求】未請求
(21)【出願番号】P 2024537804
(86)(22)【出願日】2022-08-26
(85)【翻訳文提出日】2024-04-03
(86)【国際出願番号】 US2022041751
(87)【国際公開番号】W WO2023034150
(87)【国際公開日】2023-03-09
(31)【優先権主張番号】63/260,690
(32)【優先日】2021-08-29
(33)【優先権主張国・地域又は機関】US
(81)【指定国・地域】
(71)【出願人】
【識別番号】524075124
【氏名又は名称】クオータス エンジニアリング インコーポレイテッド
(74)【代理人】
【識別番号】100083806
【弁理士】
【氏名又は名称】三好 秀和
(74)【代理人】
【識別番号】100111235
【弁理士】
【氏名又は名称】原 裕子
(74)【代理人】
【識別番号】100195257
【弁理士】
【氏名又は名称】大渕 一志
(72)【発明者】
【氏名】メルローズ、 ジェシ
(72)【発明者】
【氏名】ピアソン、 マシュー
(72)【発明者】
【氏名】リス、 ジョーダン
(72)【発明者】
【氏名】ウェザリル、 ジュリア
(72)【発明者】
【氏名】ダン、 ブライアン
【テーマコード(参考)】
2F112
5C122
5L096
【Fターム(参考)】
2F112AC06
2F112BA01
2F112CA12
2F112FA03
2F112FA45
5C122DA03
5C122DA04
5C122DA27
5C122EA55
5C122FH03
5C122FH14
5C122GA01
5C122GD01
5C122HB01
5C122HB05
5L096AA06
5L096CA04
5L096DA02
5L096EA07
5L096FA67
5L096FA69
(57)【要約】
カメラモデルを生成する方法が与えられる。ロボットアセンブリが、一連のポーズを介してカメラアセンブリに対して較正アセンブリを動かすように使用される。較正アセンブリは、較正ターゲットとマーカーとを含む。カメラアセンブリは、マウントと、視野を有するカメラと、マーカーとを含む。所定の一連のポーズは一緒になって、較正ターゲットにカメラの視野を通過させる。カメラは、較正ターゲットのそれぞれの画像を生成するように使用される。マーカーの、空間におけるそれぞれの場所を決定するべく、トラッカーが使用される。較正ターゲットのマーカー及び特徴部の記憶された座標及び決定された場所を、三次元空間にマッピングする変換関数が生成される。変換関数は、カメラのパラメータのモデルを生成するように使用される。システムも与えられる。
【特許請求の範囲】
【請求項1】
カメラモデルを生成する方法であって、
(a)所定の一連のポーズを介してカメラアセンブリに対して較正アセンブリを動かすべく、又は前記較正アセンブリに対して前記カメラアセンブリを動かすべく、ロボットアセンブリを使用することであって、
前記較正アセンブリは、
較正ターゲットと、
前記較正ターゲットにそれぞれの位置において結合される第1較正アセンブリマーカー、第2較正アセンブリマーカー、及び第3較正アセンブリマーカーと
を含み、
前記カメラアセンブリは、
マウントと、
前記マウントにそれぞれの場所において結合されて視野(FOV)を有するカメラと、
前記マウントにそれぞれの位置において結合される第1、第2、及び第3の較正アセンブリマーカーと
を含み、
前記所定の一連のポーズは一緒になって、前記較正ターゲットに前記カメラのFOVの少なくとも一部分を通過させる、ロボットアセンブリを使用することと、
(b)前記所定の一連のポーズの各ポーズにおいて、前記較正ターゲットの各画像を生成するべく、再び前記カメラを使用することと、
(c)前記所定の一連のポーズの各ポーズにおいて、前記第1、第2、及び第3の較正アセンブリマーカーの、空間におけるそれぞれの場所と、前記第1、第2、及び第3のカメラアセンブリマーカーの、空間におけるそれぞれの場所とを決定するべく、トラッカーを使用することと、
(d)それぞれの画像ごとに対し、(i)前記第1、第2、及び第3の較正アセンブリマーカーの記憶された座標と、(ii)前記第1、第2、及び第3のカメラアセンブリマーカーの記憶された座標と、(iii)当該画像に対しての、前記第1、第2、及び第3の較正アセンブリマーカーの、空間における決定された場所と、(iv)当該画像に対しての、前記第1、第2、及び第3のカメラアセンブリマーカーの、空間における決定された場所と、(v)それぞれの画像内の前記較正ターゲットの特徴部とを、三次元物体空間へとマッピングする変換関数を生成することと、
(e)前記カメラの外部パラメータ及び内部パラメータのモデルを生成するべく、それぞれの画像に対して前記変換関数を使用することと
を含む、方法。
【請求項2】
前記較正アセンブリはさらに、前記較正ターゲットに結合される第4の較正アセンブリマーカーを含む、請求項1の方法。
【請求項3】
動作(c)は、前記第1、第2、第3、及び第4の較正アセンブリマーカーの、空間におけるそれぞれの場所を決定するべく、前記所定の一連のポーズの各ポーズにおいて、トラッカーを使用することを含む、請求項2の方法。
【請求項4】
前記カメラアセンブリはさらに、前記マウントに結合される第4のカメラアセンブリマーカーを含む、請求項1から3のいずれか一項の方法。
【請求項5】
動作(c)は、前記第1、第2、第3、及び第4のカメラアセンブリマーカーの、空間におけるそれぞれの場所を決定するべく、前記所定の一連のポーズの各ポーズにおいて、トラッカーを使用することを含む、請求項4の方法。
【請求項6】
前記較正アセンブリマーカーはそれぞれが、球状にマウントされた再帰反射器(SMR)を含む、請求項1から5のいずれか一項の方法。
【請求項7】
前記カメラアセンブリマーカーはそれぞれが、球状にマウントされた再帰反射器(SMR)を含む、請求項1から5のいずれか一項の方法。
【請求項8】
前記マウントはピンダイヤモンドピンマウントを含む、請求項1から7のいずれか一項の方法。
【請求項9】
前記トラッカーはレーザートラッカーを含む、請求項1から8のいずれか一項の方法。
【請求項10】
(f)前記カメラマウントデータムフレームにおける前記第1、第2、及び第3のカメラアセンブリマーカーの座標を決定することをさらに含む、請求項1から9のいずれか一項の方法。
【請求項11】
前記動作(f)は三次元測定機(CMM)を使用して行われる、請求項10の方法。
【請求項12】
前記較正ターゲットは直線チェッカーボードチャートを含む、請求項1から11のいずれか一項の方法。
【請求項13】
前記較正ターゲットは自己識別バイナリコードを含む、請求項1から12のいずれか一項の方法。
【請求項14】
前記自己識別バイナリコードはCALTag又はARTagを含む、請求項13の方法。
【請求項15】
(g)前記第1、第2、及び第3の較正アセンブリマーカーに対する前記較正ターゲットの特徴部の場所を決定することをさらに含む、請求項1から14のいずれか一項の方法。
【請求項16】
動作(g)は光学測定機(OMM)を使用して行われる、請求項15の方法。
【請求項17】
前記所定の一連のポーズが一緒になることにより、前記較正ターゲットがスーパーチャートを生成する、請求項1から16のいずれか一項の方法。
【請求項18】
前記スーパーチャートは半球形状を含む、請求項17の方法。
【請求項19】
前記スーパーチャートは複数の層を含む、請求項17又は請求項18の方法。
【請求項20】
(h)それぞれの画像ごとに対し、動作(d)の前に前記画像を処理することをさらに含む、請求項1から9のいずれか一項の方法。
【請求項21】
前記画像の処理は、物体検出、平滑化、エッジ強調、及びモルフォロジー演算の少なくとも一つを含む、請求項20の方法。
【請求項22】
(i)異なる所定の一連のポーズにより前記カメラの外部パラメータ及び内部パラメータの監査データセットを生成するべく、動作(a)から動作(d)を繰り返すことをさらに含む、請求項1から21のいずれか一項の方法。
【請求項23】
(j)前記カメラモデルの画像空間誤差及び物体空間誤差を決定するべく、前記監査データセットからの前記第1、第2、及び第3の較正アセンブリマーカーの、空間における決定された場所と、前記監査データセットからの前記第1、第2、及び第3のカメラアセンブリマーカーの、空間における決定された場所と、前記カメラモデルとを使用することをさらに含む、請求項22の方法。
【請求項24】
カメラモデルを生成するシステムであって、
(a)較正アセンブリであって、
較正ターゲットと、
前記較正ターゲットにそれぞれの位置において結合される第1較正アセンブリマーカー、第2較正アセンブリマーカー、及び第3較正アセンブリマーカーと
を含む、較正アセンブリと、
(b)カメラアセンブリであって、
マウントと、
前記マウントにそれぞれの場所において結合されて視野(FOV)を有するカメラと、
前記マウントにそれぞれの位置において結合される第1、第2、及び第3のカメラアセンブリマーカーと
を含む、カメラアセンブリと、
(c)前記較正アセンブリ及び前記カメラアセンブリの少なくとも一方に結合されるロボットアセンブリと、
(d)トラッカーと、
(e)前記カメラ、前記ロボットアセンブリ、及び前記トラッカーに結合されるコンピュータシステムであって、少なくとも一つのプロセッサ及び少なくとも一つの不揮発性コンピュータ可読媒体を含むコンピュータシステムと
を含み、
前記少なくとも一つの不揮発性コンピュータ可読媒体は、前記第1、第2、及び第3の較正アセンブリマーカーの、互いに対する及び前記較正ターゲットに対する座標を記憶し、
前記少なくとも一つの不揮発性コンピュータ可読媒体は、前記第1、第2、及び第3のカメラアセンブリマーカーの、互いに対する及び前記カメラに対する座標を記憶し、
前記少なくとも一つの不揮発性コンピュータ可読媒体はさらに、前記プロセッサに、
一緒になって前記カメラのFOVの少なくとも一部分を前記較正ターゲットに通過させる所定の一連のポーズを介して、前記カメラアセンブリに対して前記較正アセンブリを動かすように又は前記較正アセンブリに対して前記カメラアセンブリを動かすように、前記ロボットアセンブリに命令することと、
前記所定の一連のポーズの各ポーズにおいて前記較正ターゲットの各画像を生成するように前記カメラに命令することと、
前記所定の一連のポーズの各ポーズにおいて、前記第1、第2、及び第3の較正アセンブリマーカーの、空間におけるそれぞれの場所と、前記第1、第2、及び第3のカメラアセンブリマーカーの、空間におけるそれぞれの場所とを決定するように前記トラッカーに命令することと、
それぞれの画像ごとに対し、(i)前記第1、第2、及び第3の較正アセンブリマーカーの記憶された座標と、(ii)前記第1、第2、及び第3のカメラアセンブリマーカーの記憶された座標と、(iii)当該画像に対しての、前記第1、第2、及び第3の較正アセンブリマーカーの、空間における決定された場所と、(iv)当該画像に対しての、前記第1、第2、及び第3のカメラアセンブリマーカーの、空間における決定された場所と、(v)それぞれの画像内の前記較正ターゲットの特徴部とを、三次元物体空間へとマッピングする変換関数を生成することと、
前記カメラの外部パラメータ及び内部パラメータのモデルを生成するべく、それぞれの画像に対して前記変換関数を使用することと
を含む動作を行わせる、システム。
【請求項25】
前記較正アセンブリはさらに、前記較正ターゲットに結合される第4の較正アセンブリマーカーを含む、請求項24のシステム。
【請求項26】
前記少なくとも一つの不揮発性コンピュータ可読媒体は、前記第1、第2、及び第3の較正アセンブリマーカーに対する前記第4の較正アセンブリマーカーの座標と、前記較正ターゲットに対する前記第4の較正アセンブリマーカーの座標とを記憶する、請求項25のシステム。
【請求項27】
前記少なくとも一つの不揮発性コンピュータ可読媒体は、前記第4の較正アセンブリマーカーの座標を記憶し、
前記命令はさらに、
前記トラッカーに、前記所定の一連のポーズの各ポーズにおいて、前記第4の較正アセンブリマーカーの、空間におけるそれぞれの場所を決定するように命令することと、
それぞれの画像に対し、前記第4の較正アセンブリマーカーの記憶された座標を三次元物体空間にマッピングする変換関数を生成することと
を含む、請求項25又は請求項26のシステム。
【請求項28】
前記カメラアセンブリはさらに、前記マウントに結合される第4のカメラアセンブリマーカーを含む、請求項24から27のいずれか一項のシステム。
【請求項29】
前記少なくとも一つの不揮発性コンピュータ可読媒体は、
前記第1、第2、及び第3のカメラアセンブリマーカーに対する前記第4のカメラアセンブリマーカーの座標と、
前記カメラに対する前記第4のカメラアセンブリマーカーの座標と
を記憶する、請求項28のシステム。
【請求項30】
前記少なくとも一つの不揮発性コンピュータ可読媒体は、前記第4のカメラアセンブリマーカーマーカーの座標を記憶し、
前記命令はさらに、
前記トラッカーに、前記所定の一連のポーズの各ポーズにおいて、前記第4のカメラアセンブリマーカーの、空間におけるそれぞれの場所を決定するように命令することと、
それぞれの画像ごとに対し、前記第4のカメラアセンブリマーカーの記憶された座標を三次元物体空間にマッピングする変換関数を生成することと、
それぞれの画像ごとに対し、前記第4のカメラアセンブリマーカーの決定された座標を三次元物体空間にマッピングする変換関数を生成することと
を含む、請求項28又は請求項29のシステム。
【請求項31】
前記較正アセンブリマーカーはそれぞれが、球状にマウントされた再帰反射器(SMR)を含む、請求項24から30のいずれか一項のシステム。
【請求項32】
前記カメラアセンブリマーカーはそれぞれが、球状にマウントされた再帰反射器(SMR)を含む、請求項24から31のいずれか一項のシステム。
【請求項33】
前記マウントはピンダイヤモンドピンマウントを含む、請求項24から32のいずれか一項のシステム。
【請求項34】
前記トラッカーはレーザートラッカーを含む、請求項24から33のいずれか一項のシステム。
【請求項35】
前記第1、第2、及び第3のカメラアセンブリマーカーの、互いに対する及び前記カメラに対する記憶された座標は、三次元測定機(CMM)を使用して決定される、請求項24から34のいずれか一項のシステム。
【請求項36】
前記較正ターゲットは直線チェッカーボードチャートを含む、請求項24から35のいずれか一項のシステム。
【請求項37】
前記較正ターゲットは自己識別バイナリコードを含む、請求項24から36のいずれか一項のシステム。
【請求項38】
前記自己識別バイナリコードはCALTag又はARTagを含む、請求項37のシステム。
【請求項39】
前記少なくとも一つの不揮発性コンピュータ可読媒体は、前記第1、第2、及び第3の較正アセンブリマーカーに対する前記較正ターゲットの特徴部の座標を記憶する、請求項24から38のいずれか一項のシステム。
【請求項40】
前記第1、第2、及び第3の較正アセンブリマーカーに対する前記較正ターゲットの記憶された座標は、光学測定機(OMM)を使用して決定される、請求項39のシステム。
【請求項41】
前記所定の一連のポーズが一緒になることにより、前記較正ターゲットがスーパーチャートを生成する、請求項24から40のいずれか一項のシステム。
【請求項42】
前記スーパーチャートは半球形状を含む、請求項41のシステム。
【請求項43】
前記スーパーチャートは複数の層を含む、請求項41又は請求項42のシステム。
【請求項44】
前記命令はさらに、それぞれの画像ごとに対し、変換関数を生成する前に前記画像を処理することを含む、請求項24から43のいずれか一項のシステム。
【請求項45】
前記画像の処理は、物体検出、平滑化、エッジ強調、及びモルフォロジー演算の少なくとも一つを含む、請求項44のシステム。
【請求項46】
前記命令はさらに、監査データセットを生成するべく異なる所定の一連のポーズにより、前記命令における動作を繰り返すことを含む、請求項24から45のいずれか一項のシステム。
【請求項47】
前記命令はさらに、前記カメラモデルの画像空間誤差及び物体空間誤差を決定するべく、前記監査データセットからの前記第1、第2、及び第3の較正アセンブリマーカーの、空間における決定された場所と、前記監査データセットからの前記第1、第2、及び第3のカメラアセンブリマーカーの、空間における決定された場所と、前記カメラモデルとを使用することをさらに含む、請求項46のシステム。
【発明の詳細な説明】
【技術分野】
【0001】
関連出願の相互参照
本願は、2021年8月29日に出願された「カメラ較正」との名称の米国仮特許出願第63/260,690号の利益を主張し、その内容全体が参照によりここに組み入れられる。
【0002】
本願は一般にカメラモデルに関し、詳しくはカメラモデルの生成に関する。
【背景技術】
【0003】
カメラモデルは、多くの産業で広く使用されている。例えば、ロボット工学及び自立走行車両において、視覚走行距離計測法、位置特定、マッピング、視覚サーボ(視覚ベースのロボット制御としても知られる)、及び物体認識を支援するべく、カメラモデルが使用され得る。産業オートメーションにおいては、欠陥同定及びサイズ測定を支援するべくカメラモデルが使用され得る。スマートフォン技術においては、パノラマ画像のステッチ、拡張現実、及び人相(顔)認識を支援するべくカメラモデルが使用され得る。光学においては、光計測学、衛星ポインティング安定化、及び画像歪み除去(例えば、画像に見られる歪みを反転させるとき)を支援するべく、カメラモデルが使用され得る。農業においては、農作物健康監視を支援するべくカメラモデルが使用され得る。防衛アプリケーションにおいては、遠隔測定、地形マッピング、及び監視を支援するべくカメラモデルが使用され得る。生物科学においては、顕微鏡較正及びサイズ測定を支援するべくカメラモデルが使用され得る。娯楽アプリケーションにおいては、仮想現実、写真撮影、及びモーションセンシングゲーム(例えばXbox(登録商標)Kinect(登録商標))を支援するべくカメラモデルが使用され得る。研究アプリケーションにおいては、モーションすなわち動きからの構造決定、及び3D再構成を支援するべくカメラモデルが使用され得る。
【発明の概要】
【0004】
カメラモデルを生成する方法及びシステム、並びにカメラ較正のためのカメラモデルを生成するシステムがここに与えられる。
【0005】
ここでのいくつかの例が、カメラモデルを生成する方法を与える。方法は、所定の一連のポーズを介してカメラアセンブリに対して較正アセンブリを動かすべく、又は較正アセンブリに対してカメラアセンブリを動かすべく、ロボットアセンブリを使用することを含み得る。較正アセンブリは較正ターゲットを含み得る。較正アセンブリは、第1較正アセンブリマーカー、第2較正アセンブリマーカー、及び第3較正アセンブリマーカーを含み得る。第1較正アセンブリマーカー、第2較正アセンブリマーカー、及び第3較正アセンブリマーカーは、それぞれの位置で較正ターゲットに結合され得る。カメラアセンブリはマウントを含み得る。カメラアセンブリは、それぞれの場所でマウントに結合されて視野(FOV)を有するカメラを含み得る。カメラアセンブリは、それぞれの位置でマウントに結合された第1カメラアセンブリマーカー、第2カメラアセンブリマーカー、及び第3カメラアセンブリマーカーを含み得る。所定の一連のポーズは一緒になって、較正ターゲットにカメラのFOVの少なくとも一部分を通過させる。方法は、所定の一連のポーズの各ポーズにおいて、較正ターゲットのそれぞれの画像を生成するべくカメラを使用することを含み得る。方法は、所定の一連のポーズの各ポーズにおいて、第1較正アセンブリマーカー、第2較正アセンブリマーカー、及び第3較正アセンブリマーカーの、空間におけるそれぞれの場所を決定するべくトラッカーを使用することを含み得る。
【0006】
方法は、所定の一連のポーズの各ポーズにおいて、第1カメラアセンブリマーカー、第2カメラアセンブリマーカー、及び第3カメラアセンブリマーカーの、空間におけるそれぞれの場所を決定するべくトラッカーを使用することを含み得る。方法は、それぞれの画像ごとに対し、(i)第1較正アセンブリマーカー、第2較正アセンブリマーカー、及び第3較正アセンブリマーカーの記憶された座標、(ii)第1カメラアセンブリマーカー、第2カメラアセンブリマーカー、及び第3カメラアセンブリマーカーの記憶された座標、(iii)当該画像に対しての、第1較正アセンブリマーカー、第2較正アセンブリマーカー、及び第3較正アセンブリマーカーの、空間における決定された場所、(iv)当該画像に対しての、第1カメラアセンブリマーカー、第2カメラアセンブリマーカー、及び第3カメラアセンブリマーカーの、空間における決定された場所と、(v)それぞれの画像内の較正ターゲットの特徴部とを、三次元物体空間へとマッピングする変換関数を生成することを含み得る。方法は、カメラの外部パラメータ及び内部パラメータのモデルを生成するべく、それぞれの画像に対して変換関数を使用することを含み得る。
【0007】
いくつかの例において、較正アセンブリはさらに、較正ターゲットに結合される第4較正アセンブリマーカーを含み得る。いくつかの例において、方法は、第1較正アセンブリマーカー、第2較正アセンブリマーカー、第3較正アセンブリマーカー、及び第4較正アセンブリマーカーの、空間におけるそれぞれの場所を決定するべく、所定の一連のポーズの各ポーズにおいて、トラッカーを使用することを含み得る。
【0008】
いくつかの例において、カメラアセンブリはさらに、マウントに結合される第4カメラアセンブリマーカーを含み得る。いくつかの例において、方法は、所定の一連のポーズの各ポーズにおいて、第1カメラアセンブリマーカー、第2カメラアセンブリマーカー、第3カメラアセンブリマーカー、及び第4カメラアセンブリマーカーの、空間におけるそれぞれの場所を決定するべくトラッカーを使用することを含み得る。
【0009】
いくつかの例において、これらの較正アセンブリマーカーはそれぞれが、球状にマウントされる再帰反射器(SMR)を含み得る。
【0010】
いくつかの例において、これらのカメラアセンブリマーカーはそれぞれが、球状にマウントされる再帰反射器(SMR)を含み得る。
【0011】
いくつかの例において、マウントは、ピンダイヤモンドピンマウントを含み得る。
【0012】
いくつかの例において、トラッカーは、レーザートラッカーを含み得る。
【0013】
いくつかの例において、方法はさらに、カメラマウントデータムフレームにおける第1カメラアセンブリマーカー、第2カメラアセンブリマーカー、及び第3カメラアセンブリマーカーの座標を決定することを含み得る。
【0014】
いくつかの例において、カメラマウントデータムフレームにおける第1カメラアセンブリマーカー、第2カメラアセンブリマーカー、及び第3カメラアセンブリマーカーの座標を決定することは、三次元測定機(coordinate measuring machine(CMM))を使用して行われ得る。
【0015】
いくつかの例において、較正ターゲットは、直線チェッカーボードチャートを含み得る。
【0016】
いくつかの例において、較正ターゲットは、自己識別バイナリコードを含み得る。いくつかの例において、自己識別バイナリコードはCALTag又はARTagを含み得る。
【0017】
いくつかの例において、方法はさらに、第1較正アセンブリマーカー、第2較正アセンブリマーカー、及び第3較正アセンブリマーカーに対する較正ターゲットの特徴部の場所を決定することを含み得る。いくつかの例において、第1較正アセンブリマーカー、第2較正アセンブリマーカー、及び第3較正アセンブリマーカーに対する較正ターゲットの特徴部の場所の決定は、光学測定機(optical measuring machine(OMM))を使用して行われ得る。
【0018】
いくつかの例において、所定の一連のポーズが一緒になることにより、較正ターゲットがスーパーチャートを生成し得る。いくつかの例において、スーパーチャートは、半球形状を含み得る。いくつかの例において、スーパーチャートは、複数の層を含み得る。
【0019】
いくつかの例において、方法はさらに、それぞれの画像ごとに対して画像を処理した後、それぞれの画像ごとに対し、(i)第1較正アセンブリマーカー、第2較正アセンブリマーカー、及び第3較正アセンブリマーカーの記憶された座標と、(ii)第1カメラアセンブリマーカー、第2カメラアセンブリマーカー、及び第3カメラアセンブリマーカーの記憶された座標と、(iii)当該画像に対しての、第1較正アセンブリマーカー、第2較正アセンブリマーカー、及び第3較正アセンブリマーカーの、空間における決定された場所と、(iv)当該画像に対しての、第1カメラアセンブリマーカー、第2カメラアセンブリマーカー、及び第3カメラアセンブリマーカーの、空間における決定された場所と、(v)それぞれの画像内の較正ターゲットの特徴部とを三次元物体空間へとマッピングする変換関数を生成することを含み得る。いくつかの例において、画像の処理は、物体検出、平滑化、エッジ強調、及びモルフォロジー演算のうちの少なくとも一つを含み得る。
【0020】
いくつかの例において、方法はさらに、所定の一連のポーズを介してカメラアセンブリに対して較正アセンブリを動かすべく、又は較正アセンブリに対してカメラアセンブリを動かすべく、再びロボットアセンブリを使用することと、所定の一連のポーズの各ポーズにおいて、較正ターゲットの各画像を生成するべく、再びカメラを使用することと、所定の一連のポーズの各ポーズにおいて、第1較正アセンブリマーカー、第2較正アセンブリマーカー、及び第3較正アセンブリマーカーの、空間におけるそれぞれの場所と、第1カメラアセンブリマーカー、第2カメラアセンブリマーカー、及び第3カメラアセンブリマーカーの、空間におけるそれぞれの場所とを決定するべく、再びトラッカーを使用することと、それぞれの画像ごとに対し、(i)第1較正アセンブリマーカー、第2較正アセンブリマーカー、及び第3較正アセンブリマーカーの記憶された座標と、(ii)第1カメラアセンブリマーカー、第2カメラアセンブリマーカー、及び第3カメラアセンブリマーカーの記憶された座標と、(iii)当該画像に対しての、第1較正アセンブリマーカー、第2較正アセンブリマーカー、及び第3較正アセンブリマーカーの、空間における決定された場所と、(iv)当該画像に対しての、第1カメラアセンブリマーカー、第2カメラアセンブリマーカー、及び第3カメラアセンブリマーカーの、空間における決定された場所と、(v)それぞれの画像内の較正ターゲットの特徴部とを、三次元物体空間へとマッピングする変換関数を生成することと、異なる所定の一連のポーズにより、カメラの外部パラメータ及び内部パラメータの監査データセットを生成することとを含み得る。いくつかの例において、方法はさらに、カメラモデルの画像空間誤差及び物体空間誤差を決定するべく、監査データセットからの第1較正アセンブリマーカー、第2較正アセンブリマーカー、及び第3較正アセンブリマーカーの、空間における決定された場所と、監査データセットからの第1カメラアセンブリマーカー、第2カメラアセンブリマーカー、及び第3カメラアセンブリマーカーの、空間における決定された場所と、カメラモデルとを使用することを含み得る。
【0021】
ここでのいくつかの例は、カメラモデルを生成するシステムを与える。システムは、較正アセンブリを含み得る。較正アセンブリは較正ターゲットを含み得る。較正アセンブリは、第1較正アセンブリマーカー、第2較正アセンブリマーカー、及び第3較正アセンブリマーカーを含み得る。第1較正アセンブリマーカー、第2較正アセンブリマーカー、及び第3較正アセンブリマーカーは、それぞれの位置で較正ターゲットに結合され得る。システムはカメラアセンブリを含み得る。カメラアセンブリはマウントを含み得る。カメラアセンブリはカメラを含み得る。カメラは、それぞれの場所でマウントに結合されて視野(FOV)を有し得る。システムは、第1カメラアセンブリマーカー、第2カメラアセンブリマーカー、及び第3カメラアセンブリマーカーを含み得る。第1カメラアセンブリマーカー、第2カメラアセンブリマーカー、及び第3カメラアセンブリマーカーは、それぞれの位置においてマウントに結合され得る。システムはロボットアセンブリを含み得る。ロボットアセンブリは、較正アセンブリ及びカメラアセンブリの少なくとも一方に結合され得る。システムはトラッカーを含み得る。システムはコンピュータシステムを含み得る。コンピュータシステムは、カメラ、ロボットアセンブリ、及びトラッカーに結合され得る。コンピュータシステムは、少なくとも一つのプロセッサ、及び少なくとも一つの不揮発性コンピュータ可読媒体を含み得る。少なくとも一つの不揮発性コンピュータ可読媒体は、第1較正アセンブリマーカー、第2較正アセンブリマーカー、及び第3較正アセンブリマーカーの、互いに対する及び較正ターゲットに対する座標を記憶し得る。少なくとも一つの不揮発性コンピュータ可読媒体は、第1カメラアセンブリマーカー、第2較正アセンブリマーカー、及び第3較正アセンブリマーカーの、互いに対する及びカメラに対する座標を記憶し得る。少なくとも一つの不揮発性コンピュータ可読媒体はさらに、プロセッサに動作を行わせる命令を記憶し得る。
【0022】
動作は、一緒になってカメラのFOVの少なくとも一部分を較正ターゲットに通過させる所定の一連のポーズを介して、カメラアセンブリに対して較正アセンブリを動かすように又は較正アセンブリに対してカメラアセンブリを動かすように、ロボットアセンブリに命令することと、所定の一連のポーズの各ポーズにおいて較正ターゲットの各画像を生成するようにカメラに命令することと、所定の一連のポーズの各ポーズにおいて、第1較正アセンブリマーカー、第2較正アセンブリマーカー、及び第3較正アセンブリマーカーの、空間におけるそれぞれの場所と、第1カメラアセンブリマーカー、第2カメラアセンブリマーカー、及び第3カメラアセンブリマーカーの、空間におけるそれぞれの場所とを決定するようにトラッカーに命令することと、それぞれの画像ごとに対し、(i)第1較正アセンブリマーカー、第2較正アセンブリマーカー、及び第3較正アセンブリマーカーの記憶された座標と、(ii)第1カメラアセンブリマーカー、第2カメラアセンブリマーカー、及び第3カメラアセンブリマーカーの記憶された座標と、(iii)当該画像に対しての、第1較正アセンブリマーカー、第2較正アセンブリマーカー、及び第3較正アセンブリマーカーの、空間における決定された場所と、(iv)当該画像に対しての、第1カメラアセンブリマーカー、第2カメラアセンブリマーカー、及び第3カメラアセンブリマーカーの、空間における決定された場所と、(v)それぞれの画像内の較正ターゲットの特徴部とを、三次元物体空間へとマッピングする変換関数を生成することと、カメラの外部パラメータ及び内部パラメータのモデルを生成するべく、それぞれの画像に対して変換関数を使用することとを含み得る。
【0023】
いくつかの例において、較正アセンブリはさらに、較正ターゲットに結合される第4較正アセンブリマーカーを含み得る。いくつかの例において、少なくとも一つの不揮発性コンピュータ可読媒体は、第1較正アセンブリマーカー、第2較正アセンブリマーカー、及び第3較正アセンブリマーカーに対する第4較正アセンブリマーカーの座標と、較正ターゲットに対する第4較正アセンブリマーカーの座標とを記憶し得る。いくつかの例において、少なくとも一つの不揮発性コンピュータ可読媒体は、第4較正アセンブリマーカーの座標を記憶し得る。いくつかの例において、命令はさらに、所定の一連のポーズの各ポーズにおいて、第4較正アセンブリマーカーの、空間におけるそれぞれの場所を決定するようにトラッカーに命令することと、それぞれの画像ごとに対し、第4較正アセンブリマーカーの記憶された座標を三次元物体空間にマッピングする変換関数を生成することとを含み得る。
【0024】
いくつかの例において、カメラアセンブリはさらに、マウントに結合される第4カメラアセンブリマーカーを含み得る。いくつかの例において、少なくとも一つの不揮発性コンピュータ可読媒体は、第1カメラアセンブリマーカー、第2較正アセンブリマーカー、及び第3較正アセンブリマーカーに対する第4較正アセンブリマーカーの座標と、カメラに対する第4較正アセンブリマーカーの座標とを記憶し得る。いくつかの例において、少なくとも一つの不揮発性コンピュータ可読媒体は、第4カメラアセンブリマーカーの座標を記憶し得る。いくつかの例において、命令はさらに、所定の一連のポーズの各ポーズにおいて、第4カメラアセンブリマーカーの、空間におけるそれぞれの場所を決定するようにトラッカーに命令することと、それぞれの画像ごとに対し、第4カメラアセンブリマーカーの記憶された座標を三次元物体空間にマッピングする変換関数を生成することと、それぞれの画像ごとに対し、第4カメラアセンブリマーカーの決定された座標を三次元物体空間にマッピングする変換関数を生成することとを含み得る。
【0025】
いくつかの例において、これらの較正アセンブリマーカーはそれぞれが、球状にマウントされる再帰反射器(SMR)を含み得る。
【0026】
いくつかの例において、これらのカメラアセンブリマーカーはそれぞれが、球状にマウントされる再帰反射器(SMR)を含み得る。
【0027】
いくつかの例において、マウントは、ピンダイヤモンドピンマウントを含み得る。
【0028】
いくつかの例において、トラッカーは、レーザートラッカーを含み得る。
【0029】
いくつかの例において、第1カメラアセンブリマーカー、第2カメラアセンブリマーカー、及び第3カメラアセンブリマーカーの、互いに対する及びカメラに対する記憶された座標は、三次元測定機(CMM)を使用して決定され得る。
【0030】
いくつかの例において、較正ターゲットは、直線チェッカーボードチャートを含み得る。
【0031】
いくつかの例において、較正ターゲットは、自己識別バイナリコードを含み得る。いくつかの例において、自己識別バイナリコードはCALTag又はARTagを含み得る。
【0032】
いくつかの例において、少なくとも一つの不揮発性コンピュータ可読媒体は、第1較正アセンブリマーカー、第2較正アセンブリマーカー、及び第3較正アセンブリマーカーに対する較正ターゲットの特徴部の座標を記憶し得る。いくつかの例において、第1較正アセンブリマーカー、第2較正アセンブリマーカー、及び第3較正アセンブリマーカーに対する較正ターゲットの記憶された座標は、光学測定機(OMM)を使用して決定され得る。
【0033】
いくつかの例において、所定の一連のポーズが一緒になることにより、較正ターゲットがスーパーチャートを生成し得る。いくつかの例において、スーパーチャートは、半球形状を含み得る。いくつかの例において、スーパーチャートは、複数の層を含み得る。
【0034】
いくつかの例において、命令はさらに、それぞれの画像ごとに対し、変換関数を生成する前に画像を処理することを含み得る。いくつかの例において、画像の処理は、物体検出、平滑化、エッジ強調、及びモルフォロジー演算のうちの少なくとも一つを含み得る。
【0035】
いくつかの例において、命令はさらに、監査データセットを生成するべく異なる所定の一連のポーズにより、命令における動作を繰り返すことを含み得る。いくつかの例において、命令はさらに、カメラモデルの画像空間誤差及び物体空間誤差を決定するべく、監査データセットからの第1較正アセンブリマーカー、第2較正アセンブリマーカー、及び第3較正アセンブリマーカーの、空間における決定された場所と、監査データセットからの第1カメラアセンブリマーカー、第2カメラアセンブリマーカー、及び第3カメラアセンブリマーカーの、空間における決定された場所と、カメラモデルとを使用することを含み得る。
【0036】
ここに記載される開示の各側面の任意のそれぞれの特徴/例は、任意の適切な組み合わせで一緒に実装することができ、これらの側面の任意の一以上からの任意の特徴/例は、ここに記載される利益を達成するために、任意の適切な組み合わせでここに記載される他の側面の特徴のいずれかと一緒に実装され得ることを理解すべきである。
【図面の簡単な説明】
【0037】
図1】カメラモデルについて考慮するべき3つの主要エリアを示す。図1は、出典がSamvram Sahu,3D Pose Estimation of UAVs using Stereo-vision(May 2019)(BTech thesis,Indian Space Rsrch)であり、その内容はすべて参照によりここに組み入れられる。
図2】カメラの例示の単純なピンホールモデルを示す。図2は、出典がBharath Hariharan,Geometry of Image Formation(Cornell University,Mar.25,2020)であり、その内容はすべて参照によりここに組み入れられる。
図3】3つの一般的なカメラ歪みを示す。図3は、出典がIgor Kozlov,Analysis of Uncertainty in Underwater Multiview Reconstruction (Sept.2018)(M.S.thesis,Univ.N.H.)、及びJ.V.Sharp and H.H.Hayes, Effects on Map Production of Distortions in Photogrammetric Systems,15 Photogrammetric Engineering 159(1949)であり、その内容はすべて参照によりここに組み入れられる。
図4】カメラの外部パラメータを示す。図4は、出典がBenjamin Pichler,HDR Light Field(Sept.10,2012)(B.S.thesis,Johannes Kepler Univ.Linz)であり、その内容はすべて参照によりここに組み入れられる。
図5】画像処理のためのワークフローの一例を示す。図5は、出典がopencv-camera 0.11.0,Python Package Index,(last visited Aug.11,2022)であり、その内容はすべて参照によりここに組み入れられる。
図6】カメラモデルを生成するシステムの一例を示す。
図7】カメラモデルを生成する他のシステムの一例を示す。
図8】カメラの一例を示す。
図9A-9B】図9Aは、カメラアセンブリの一例を示す。図9Bは、三次元測定機(CMM)上の例示のカメラアセンブリの写真を示す。
図10】直線チェックボードチャートを含む例示の較正ターゲットを示す。
図11A-11B】図11Aは、光学測定機(OMM)上の例示の較正アセンブリの写真を示す。図11Bは、自己識別バイナリコードを含む例示の較正ターゲットを示す。
図12】ここに記載されるシステムによりカメラモデルを生成する例示の方法のフローチャートを示す。
図13】ここに記載されるシステムによりカメラモデルを生成する例示の方法のフローチャートを示す。
図14】例示の半球状スーパーチャートを示す。
図15A-15B】図15Aは、例示の3層半球状スーパーチャートを示す。図15Bは、2D画像空間に投影された図15Aの例示の3層半球状スーパーチャートを示す。
図16A-16B】図16Aは、他の例示の多層半球状スーパーチャートを示す。図16Bは、2D画像空間に投影された図16Aの例示の多層半球状スーパーチャートを示す。
図17】カメラモデルを生成する例示のシステムの写真を示す。
図18】第1較正アセンブリマーカー、第2較正アセンブリマーカー、及び第3較正アセンブリマーカーの、空間における決定される場所、及び第1カメラアセンブリマーカー、第2カメラアセンブリマーカー、及び第3カメラアセンブリマーカーの、空間における決定される場所がどのようにしてトラッカーによって決定され得るのかの一例を示す。
図19】カメラモデルパラメータを生成する例示の方法のフローチャートを示す。
図20】カメラモデルパラメータを生成する他の例示の方法のフローチャートを示す。
図21】自己識別バイナリコードがどのようにして検出され得るのかの一例を示す。
図22A-22B】図22Aは、較正ターゲット特徴部を識別する例示の方法のフローチャートを示す。図22Bは、識別される特徴部を備える例示の較正ターゲットを示す。
図23】カメラの例示の単純なピンホールモデルを示す。
図24A-24B】図24Aは、例示のカメラモデルの画像空間投影誤差を示す。図24Bは、図24Aと同じ例示のカメラモデルの物体空間再投影誤差を示す。
図25】監査データセットを生成する例示の方法のフローチャートを示す。
図26】監査モデルを使用して物体空間誤差及び画像空間誤差を決定する例示の方法のフローチャートを示す。
図27A-27B】図27Aは、監査モデルを使用することによって決定される例示のカメラモデルの物体空間再投影誤差を示す。図27Bは、図27Aと同じ監査モデルを使用することによって決定される図27Aと同じ例示のカメラモデルの画像空間再投影誤差を示す。
【0038】
ここに記載される開示の各側面の任意のそれぞれの特徴/例は、任意の適切な組み合わせで一緒に実装することができ、これらの側面の任意の一以上からの任意の特徴/例は、ここに記載される利益を達成するために、任意の適切な組み合わせでここに記載される他の側面の特徴のいずれかと一緒に実装され得ることを理解すべきである。
【発明を実施するための形態】
【0039】
カメラモデルを生成する方法及びシステム、並びにカメラ較正のためのカメラモデルを生成するシステムがここに与えられる。
【0040】
任意の適切な組み合わせで記載及び請求され得る主題はハードウェア(システム)を含み、これは、較正されたトラッカーターゲット(カメラアセンブリ)を備えるカメラマウントと、較正されたトラッカーターゲット(較正アセンブリ)がマウントされるテストチャート(較正ターゲット)と、トラッカーと、テストチャート(較正ターゲット)に対してカメラを動かす装置(ロボットアセンブリ)と、画像と位置データとを記憶して相関させる装置(コンピュータシステム)と、画像処理及びモデルパラメータ計算を行う装置(コンピュータシステム)とを含む。
【0041】
任意の適切な組み合わせで記載及び請求され得る主題はまた、方法も含む。これは、所望のカメラ特徴付けに基づいて動きを計画することと、計画において各位置に対し、(i)トラッカーを使用してカメラとテストチャート(較正ターゲット)とを整列させることと、(ii)カメラ位置及びテストチャート(較正ターゲット)位置を記録することと、(iii)カメラ画像を撮像することと、画像及び位置座標を処理することであって、(i)画像における特徴部を検出することと、(ii)特徴部を3D位置座標とペアリングすることと、(iii)カメラモデル較正ロジックを適用することと、(iv)カメラモデルパラメータを出力することとを含むこととを含む。
【0042】
任意の適切な組み合わせで記載及び請求され得る主題のいくつかのバリエーションが、例えば正方形対三角形設定のような様々なトラッカー番号及び設定を使用する変形例と、トラッカーがレーザートラッカー及びその代替でもある変形例と、トラッカーターゲット(マーカー)が球状にマウントされる反射器(spherically mounted retro-reflector(SMR))及びその代替でもある変形例と、三次元測定機(coordinate measuring machine(CMM))を使用してカメラトラッカーターゲット(カメラアセンブリ)の登録を行う変形例と、光学測定機(optical measuring machine(OMM))を使用してテストチャート・トラッカーターゲット(較正アセンブリ)の登録を行う変形例と、特徴部検出の前に画像フィルタリングを行う変形例と、テストチャート(較正ターゲット)にCALTagを含む変形例と、非線形最適化を含む変形例と、監査データセットを使用する変形例とを含む。
【0043】
ここに与えられるように、カメラモデルは、カメラシステムの複雑な幾何学的特性及び光学的特性を単純化して、既知のパラメータの比較的小さなセットを備える数学的モデルにしたものである。良好なモデルは、カメラからの2D情報を使用して3Dワールドに関する情報を取得するという、コンピュータビジョンの基本的な問題に対処するのに役立ち得る。
【0044】
図1は、カメラモデルについて考慮するべき3つの主要エリアを示す。カメラモデルについて考慮するべき3つの主要エリア、すなわち、内部パラメータ102、歪み104、及び外部パラメータ106、が存在する。内部パラメータ102は、カメラの焦点距離及び主点を含む。歪み104は、簡単なピンホールカメラからの逸脱であり、対称放射状歪み、非対称放射状歪み、及び接線歪みを含む。外部パラメータ106は、何らかの外部参照座標系に対するカメラの位置を表す3D回転行列及び位置ベクトルの要素を含む。
【0045】
内部パラメータ
【0046】
図2は、カメラの例示の単純なピンホールモデルを示す。カメラの簡単なピンホールモデルにおいて、物体空間210における三次元物体が、二次元画像空間220上にマッピングされてセンサ222によりキャプチャされる。入来光線212が、r=f×tanθに従って物体上の点216からセンサ222に到着する。ここで、rは、センサ面222上の(障壁面のピンホールアパチャの真向いにある)主点224からの距離であり、焦点距離f226は、センサ222から障壁面214までの距離である。角度θは、アパチャ216において障壁面214に直交する方向から測定される。焦点距離226及び主点224が、カメラの内部パラメータとして知られている。
【0047】
歪み
【0048】
カメラの歪みを特徴付けることによって、そのカメラが、この簡単なピンホールカメラからどのように逸脱しているかを理解することができる。図3は、3つの一般的なカメラ歪みを示す。3つの一般的な歪みとは、対称放射状歪み302、非対称放射状歪み304、及び接線歪み306である。放射状歪みは、カメラの主点から放射方向に沿って像点を歪める。対称放射状歪み302が、画像全体に対して対称的にこれを行う一方、非対称放射状歪み304は、主点まわりの極角によって変化し得る。接線歪み306は、カメラの主点から放射状歪みに垂直な方向に像点を歪める。
【0049】
外部パラメータ
【0050】
何らかの基準座標系に対するカメラの位置は典型的に、3D回転行列及び位置ベクトルとして又は変換行列として表される。これらの行列の要素が、外部パラメータとして知られている。
【0051】
図4は、カメラの外部パラメータを示す。外部パラメータ402は、いくつかの場合において、グローバル座標系において撮像されたターゲットに関する空間情報を抽出するために使用又は要求される。これは、有用であり、いくつかの場合において特に重要となる。例えば、複数のカメラが一緒に使用される場合、又は撮像カメラが融合センサデータ出力のために他のセンサ(例えば、慣性測定ユニット(inertial measurement unit(IMU))センサ、光検出及び測距(light detection and ranging(LIDAR))センサ等)と組み合わされて使用される場合である。外部カメラ較正の追跡可能性は、較正を行うことの困難な側面の一つである。
【0052】
カメラ較正
【0053】
図5は、画像処理のためのワークフローの一例を示す。典型的な従前に知られているカメラ較正において、パラメータは反復プロセス500で識別される。ひとたび較正データ画像が既知画像502からキャプチャされると、画像はOpenCV(Open Source Computer Vision Library)504、オープンソースコンピュータビジョン及び機械学習ライブラリのようなオープンソースツールを使用して処理される。得られた再投影画像が、オリジナルの既知画像506と比較される。誤差がしきい値を上回る場合、誤差が許容可能となるまで異なるモデルによってプロセスが繰り返される508。
【0054】
フレキシブルカメラ較正ステーション設計
【0055】
業界で従前から知られているカメラ較正技法は典型的に、特定のセットのカメラパラメータ(物体距離、視野等)に対しては良好に機能するが、同じ較正治具における広範囲のカメラパラメータに対応するのに苦労している。この相対的に低い性能には、相対的に不正確な外部パラメータの決定、全視野にわたる相対的に貧弱な歪みモデル精度、大きな物理的チャートに対する潜在的な要件等を含む多くの理由が存在する。
【0056】
本発明者によって認識されるように、フレキシブルカメラ較正ステーションを使用して、これら及び他の較正性能の問題を克服することができる。図6は、カメラモデルを生成するシステムの一例を示す。図6に示すシステム600は、較正アセンブリ610、カメラアセンブリ620、ロボットアセンブリ630、トラッカー640、及びコンピュータシステム650を含み得る。較正アセンブリ610は、較正ターゲット612と、それぞれの位置で較正ターゲット612に結合される任意の適切な数の較正アセンブリマーカー、例えば、第1較正アセンブリマーカー614a、第2較正アセンブリマーカー614b、及び第3較正アセンブリマーカー614c、とを含み得る。カメラアセンブリ620は、マウント622と、カメラ624と、それぞれの位置でマウント622に結合される任意の適切な数のカメラアセンブリマーカー、例えば、第1カメラアセンブリマーカー626a、第2カメラアセンブリマーカー626b、及び第3カメラアセンブリマーカー626c、とを含み得る。カメラ624は視野(FOV)を有し得る。ロボットアセンブリ630は、破線で示すように、較正アセンブリ610及びカメラアセンブリ620の少なくとも一方に結合されてよい。
【0057】
コンピュータシステム650は、プロセッサ652及び少なくとも一つの不揮発性コンピュータ可読媒体654を含み得る。コンピュータシステム650は、ロボットアセンブリ630、カメラ624、及びトラッカー640に結合されてよい。少なくとも一つの不揮発性コンピュータ可読媒体654は、第1較正アセンブリマーカー、第2較正アセンブリマーカー、及び第3較正アセンブリマーカー614の、互いに対する及び較正ターゲット612に対する座標を記憶し得る。少なくとも一つの不揮発性コンピュータ可読媒体654は、第1カメラアセンブリマーカー、第2カメラアセンブリマーカー、及び第3カメラアセンブリマーカー626の、互いに対する及びカメラ624に対する座標を記憶し得る。少なくとも一つの不揮発性コンピュータ可読媒体654は、プロセッサ652に動作を行わせる命令を記憶し得る。動作は、一緒になってカメラ624の視野の少なくとも一部分を較正ターゲット612に通過させる所定の一連のポーズを介して、カメラアセンブリ620に対して較正アセンブリ610を動かすように又は較正アセンブリ610に対してカメラアセンブリ620を動かすように、ロボットアセンブリ630に命令することを含み得る。動作は、所定の一連のポーズの各ポーズにおいて較正ターゲット612の各画像を生成するようにカメラ624に命令することを含み得る。動作は、所定の一連のポーズの各ポーズにおいて、第1較正アセンブリマーカー、第2較正アセンブリマーカー、及び第3較正アセンブリマーカー614の、空間におけるそれぞれの場所と、第1カメラアセンブリマーカー、第2カメラアセンブリマーカー、及び第3カメラアセンブリマーカー626の、空間におけるそれぞれの場所とを決定するようにトラッカー640に命令することを含み得る。動作は、それぞれの画像ごとに対し、(i)第1較正アセンブリマーカー、第2較正アセンブリマーカー、及び第3較正アセンブリマーカー614の記憶された座標と、(ii)第1カメラアセンブリマーカー、第2カメラアセンブリマーカー、及び第3カメラアセンブリマーカー626の記憶された座標と、(iii)当該画像に対しての、第1較正アセンブリマーカー、第2較正アセンブリマーカー、及び第3較正アセンブリマーカー614の、空間における決定された場所と、(iv)当該画像に対しての、第1カメラアセンブリマーカー、第2カメラアセンブリマーカー、及び第3カメラアセンブリマーカー626の、空間における決定された場所と、(v)それぞれの画像内の較正ターゲット612の特徴部とを、三次元物体空間へとマッピングする変換関数を生成することを含み得る。動作は、カメラ624の外部パラメータ及び内部パラメータのモデルを生成するべく、それぞれの画像に対して変換関数を使用することを含み得る。
【0058】
図7は、カメラモデルを生成する他のシステムの一例を示す。フレキシブルカメラ較正ステーション(カメラモデルを生成するシステム)700の一例が図に示される。これは、較正アセンブリマーカー(例えば、強固に取り付けられた球状マウント再帰反射器(spherically mounted retroreflector(SMR)))704を備えるテストチャート(較正ターゲット)702を含み、このテストチャート702は、カメラアセンブリマーカー(例えばSMR)710を備えるマウント(例えばインタフェイスブラケット)708にも取り付けられる被試験カメラ706によって観察される。テストチャート(較正ターゲット)702は、固定されてよく、可動プラットフォームにマウントされてもよい。被試験カメラは、ロボットアセンブリ(例えば関節ロボットアーム)712にマウントされる。この被試験カメラアセンブリ(カメラアセンブリ)714は、便宜上、転動プラットフォーム716にマウントされてもよい。較正アセンブリマーカー704及びカメラアセンブリマーカー(例えばSMR)710すべての相対位置は、トラッカー(例えばレーザートラッカー)718によって監視され得る。システムアーキテクチャの設計に起因して、カメラ706とテストチャート(較正ターゲット)702との間の相対的な動きが、豊富な較正データセットを生成するべく重要となるが、カメラ706が具体的に動く必要はなく、テストチャート(較正ターゲット)702が動く必要もないことに留意すべきである。システムアーキテクチャは、較正のために操作することが困難なカメラシステム714が静止したままとなり得るように、移動するコンポーネントの一方又は双方に対してフレキシブルである。
【0059】
図8はカメラの一例を示す。例示のカメラは、大きな視野(FOV)(157度)にわたって高解像度を有する18メガピクセルの2.8mm固定焦点距離レンズを有する。カメラフレームとデータムフレームとの相対位置が対象カメラの剛性構造ゆえに固定されるので、ピンダイヤモンドピンマウントを、カメラ外部パラメータのための反復可能かつ追跡可能なデータムとして使用することができる。
【0060】
図9Aはカメラアセンブリの一例を示す。例示のカメラマウント900が示される。いくつかの例において、球状にマウントされる再帰反射器(SMR)902が、カメラマウント900にマウントされて、トラッカー(例えばレーザートラッカー)のためのマウント900及びカメラ(カメラアセンブリ)904の場所の追跡可能点測定をもたらし得る。
【0061】
図9Bは、三次元測定機(CMM)上の例示のカメラアセンブリの写真を示す。CMM910上の例示のカメラマウント900の写真が示される。CMM910は、カメラマウントデータムフレームにおけるSMR中心座標を測定するべく使用され得る。
【0062】
図10は、直線チェックボードチャートを含む例示の較正ターゲットを示す。簡単な直線テストチャート(較正ターゲット)1002が以下で一例として示される。いくつかの場合において、円形チャートよりも直線格子チャート1002が、格子チャート画像処理の高精度コーナー検出能力ゆえに選択され得る。この例において、3つのSMR1004が三角形構成で使用されるが、いくつかの実装例においては異なる数及び構成のSMR1004が使用されてよい。バックライトフォトエッチングされたガラスチャート設計1006によって、極度に鋭いエッジコントラスト及び高精度の特徴が許容される。
【0063】
図11Aは、光学測定機(OMM)上の例示の較正アセンブリの写真を示す。図11Bは、自己識別バイナリコードを含む例示の較正ターゲットを示す。他例において、直線チェッカーボードチャート1102は、画像処理のときに各正方形を一意的に識別するべく自己識別バイナリコード1104(例えばCALTag及びARTagを含む)によって強化されてよい。較正チャート(較正ターゲット)に自己識別パターン1104を含めることは必要というわけではないが、レンズ歪み、不均一な照明、及びテストパターン閉塞のような変数に対する処理のロバスト性を向上させ得る。チャート(ターゲット)1102は、代替色構成及び/又は均一照明を目的として拡散LCDモニタによってバックライトされてよい。マーカー(例えばSMR)1108に対するチャート(ターゲット)1102の特徴部の場所を登録するべく光学CMM(光学測定機すなわちOMM)1106が使用されてよい。
【0064】
カメラデータ取得
【0065】
図12は、ここに記載されるシステムによりカメラモデルを生成する例示の方法のフローチャートを示す。カメラモデルを生成する方法1200は、所定の一連のポーズを介して、カメラアセンブリに対して較正アセンブリを動かすべく、又は較正アセンブリに対してカメラアセンブリを動かすべく、ロボットアセンブリを使用することを含む(動作1202)。較正アセンブリは、較正ターゲットと、第1較正アセンブリマーカー、第2較正アセンブリマーカー、及び第3較正アセンブリマーカーとを含み得る。第1較正アセンブリマーカー、第2較正アセンブリマーカー、及び第3較正アセンブリマーカーは、それぞれの位置で較正ターゲットに結合され得る。カメラアセンブリは、マウントと、それぞれの場所においてマウントに結合されるカメラと、それぞれの場所においてマウントに結合される第1カメラアセンブリマーカー、第2カメラアセンブリマーカー、及び第3カメラアセンブリマーカーとを含み得るカメラは視野を有し得る。所定の一連のポーズは一緒になって、較正ターゲットにカメラの視野の少なくとも一部分を通過させ得る。方法はまた、所定の一連のポーズの各ポーズにおいて、較正ターゲットのそれぞれの画像を生成するべくカメラを使用することも含み得る(動作1204)。方法はまた、所定の一連のポーズの各ポーズにおいて、第1較正アセンブリマーカー、第2較正アセンブリマーカー、及び第3較正アセンブリマーカーの、空間におけるそれぞれの場所と、第1カメラアセンブリマーカー、第2カメラアセンブリマーカー、及び第3カメラアセンブリマーカーの、空間におけるそれぞれの場所とを決定するべく、トラッカーを使用することを含み得る(動作1206)。方法はまた、それぞれの画像ごとに対し、(i)第1較正アセンブリマーカー、第2較正アセンブリマーカー、及び第3較正アセンブリマーカーの記憶された座標と、(ii)第1カメラアセンブリマーカー、第2カメラアセンブリマーカー、及び第3カメラアセンブリマーカーの記憶された座標と、(iii)当該画像に対しての、第1較正アセンブリマーカー、第2較正アセンブリマーカー、及び第3較正アセンブリマーカーの、空間における決定された場所と、(iv)当該画像に対しての、第1カメラアセンブリマーカー、第2カメラアセンブリマーカー、及び第3カメラアセンブリマーカーの、空間における決定された場所と、(v)それぞれの画像内の較正ターゲットの特徴部とを、三次元物体空間へとマッピングする変換関数を生成することを含み得る(動作1208)。方法はまた、カメラの外部パラメータ及び内部パラメータのモデルを生成するべく、それぞれの画像に対して変換関数を使用することを含み得る。
【0066】
図13は、ここに記載されるシステムによりカメラモデルを生成する例示の方法のフローチャートを示す。カメラモデルを生成する例示の方法1300が示される。方法1300は、格子特徴部に対する較正アセンブリマーカーの場所を測定することを含み得る(動作1302)。方法1300はまた、カメラデータムに対するカメラマウント上のカメラアセンブリマーカーの場所を測定することを含み得る(動作1304)。ひとたび格子特徴部に対するチャート(較正アセンブリ)SMR(マーカー)の場所が測定され、かつ、カメラデータムに対するカメラマウント(カメラアセンブリ)SMR(マーカー)の場所が測定されると、カメラ較正プロセスデータ収集が実行され得る。
【0067】
ロボットアーム(ロボットアセンブリ)が、異なるアーム位置にカメラを位置決めするべく使用されてよい(動作1306)。各位置において、トラッカー(例えばレーザートラッカー)がチャート(較正アセンブリ)及びカメラマウント(カメラアセンブリ)SMR(マーカー)の場所を測定し(動作1308)、カメラはチャート(ターゲット)を撮像する(動作1310)。これらのステップ(動作)は、カメラを異なるアーム位置に位置決めすることによって繰り返されてよい(動作1312)。
【0068】
カメラ較正プロセス
【0069】
カメラ較正プロセスは、チャート(ターゲット)とカメラとの相対的な動きを計画することと、その動きの計画に対応する相対的な場所でのデータキャプチャを実行することと、カメラモデルのパラメータを決定する信号処理との3つの主要コンポーネントに分けることができる。これらのコンポーネントが以下に詳述される。
【0070】
動きの計画
【0071】
図14は、例示の半球状スーパーチャートを示す。チャート(ターゲット)に対するカメラの各位置によって、カメラの視野のすべて又は一部分を埋め得る対応する2Dチャート(ターゲット)が得られる。相対位置を多数回変更することにより、チャート(ターゲット)特徴部の複合「スーパーチャート」が生成され得る。所与セットの公称カメラパラメータに対し、適切なスーパーチャート幾何学形状を効率的に生成する動き計画を計算するべく、較正データ収集シーケンスが前処理アルゴリズムによってシミュレーションされる。動き計画アルゴリズムは、CMM検査結果、カメラポーズ、チャート(ターゲット)位置、公称マーカー(SMR)位置、トラッカー位置、及び推定カメラパラメータのような入力を含み得る。動き計画ステップ(動作)の結果は、グローバル座標系における各較正特徴部の公称3D位置となり得る。動き計画ステップ(動作)によって生成される特徴部の3D分布の一例が、広視野カメラ較正に使用され得る半球状スーパーチャートの下図に示される。
【0072】
図15Aは、例示の3層半球状スーパーチャートを示す。図15Bは、2D画像空間に投影された図15Aの例示の3層半球状スーパーチャートを示す。スーパーチャートは、焦点較正のためのデータと改善された外部較正を与える複数の層を有し得る。カメラモデル投影アルゴリズムにより、動き計画器からの3D特徴部が、候補カメラの画像センサ上のターゲットカバレッジを推定するべく2D像点に変換され得る。以下の図において、カメラ視野のフルカバレッジを実証するべく、3層半球状スーパーチャートの15,230個のチャート(ターゲット)特徴部が、3D物体空間(左すなわち図15A)と、投影された2D画像空間(右すなわち図15B)との双方に示される。
【0073】
図16Aは、他の例示の多層半球状スーパーチャートを示す。図16Bは、2D画像空間に投影された図16Aの例示の多層半球状スーパーチャートを示す。いくつかの例(例えば実施形態)において、カメラの視野及びターゲット深度のカバレッジを効率的に与えるように、曲面セグメント及び平面セグメントの双方によるスパースな多層スーパーチャートが生成される。例えば、以下の図では、12,344個のチャート(ターゲット)特徴部が画像フレームに存在する。
【0074】
データキャプチャ
【0075】
図17は、カメラモデルを生成する例示のシステムの写真を示す。リアルワールドシステム1700の画像が示される。相対的に典型的なデータキャプチャ較正が、以下の図に示される。テストチャート(ターゲット)1702は、自己識別バイナリコード1704を使用し、LCDパネル1706によるバックライトを受け、3つのSMR1710を備える摺動プラットフォーム1708にマウントされる。バックライトの色は、カラーカメラ、モノクロカメラ、及び赤外線カメラを試験するべく設定可能である。被試験カメラ1712もまた、ユニバーサルロボット製UR5 1716上に3つのSMR1714とともにマウントされる。この被試験カメラアのセンブリ(カメラアセンブリ)1718は、転動プラットフォーム(図示せず)にマウントされる。SMR1710、1714すべての相対位置が、FARO(登録商標)Vantageレーザートラッカー1720で監視される。
【0076】
図18は、第1較正アセンブリマーカー、第2較正アセンブリマーカー、及び第3較正アセンブリマーカーの、空間における決定される場所、及び第1カメラアセンブリマーカー、第2カメラアセンブリマーカー、及び第3カメラアセンブリマーカーの、空間における決定される場所がどのようにしてトラッカーによって決定され得るのかの一例を示す。チャート(ターゲット)1802とカメラ1804との相対位置は、ロボットコントローラによって設定され、確認される。一つの例(例えば実施形態)において、OMMデータセット1810とレーザートラッカーデータセット1820との間の、及びCMMデータセット1830とレーザートラッカーデータ1820との間の、最良適合剛体変換(並進及び回転)が、Kabschアルゴリズムを使用して見出される。これにより、データをスケーリングすることなく、2つのそれぞれのデータセット間の誤差が最小化される。
【0077】
画像処理
【0078】
図19は、カメラモデルパラメータを生成する例示の方法のフローチャートを示す。画像処理の例示の方法1900が示される。いくつかの例(例えば実施形態)において、カメラモデルパラメータが、以下の図に示されるように生成される。データ処理は、最初に、データキャプチャ(動作1902)の間に撮像された個別のカメラフレームの画像処理と、三次元トラッカーデータ(動作1904)の再パッケージ化とに分割され得る。カメラからの画像の処理(動作1906)は、例えば、物体検出、平滑化、エッジ強調、モルフォロジー演算等が含み得る。トラッカー測定に基づくチャート(ターゲット)特徴部の3D座標は、コンパイル及び変換されて一般的なグローバル座標系になる(動作1908)。2つのデータセットがその後、組み合わされてカメラのための較正を生成してよい(動作1910)。カメラ較正は、較正されたカメラモデルパラメータを出力するために使用され得る(動作1912)。
【0079】
図20は、カメラモデルパラメータを生成する他の例示の方法のフローチャートを示す。自己識別バイナリコードを有するチェックボードチャートの例に対し、較正プロセス2000が以下の図に示される。スーパーチャート画像2002は、結果を改善するためにフィルタリングされてよい(動作2004)。チェックボードチャートの個別のコーナーが最初に抽出されて標識が付けられる(動作2006)。チェックボードチャート上のCALTag自己識別パターンを使用するチャートの例に対し、以下の図に示されるハリスコーナーファインダー鞍点アルゴリズムのようなアルゴリズムを使用してチェッカー間のコーナーを約0.1ピクセルの精度で抽出することができる(動作2006)。CALTagがその後、識別され得る(動作2008)。スーパーチャート3D座標2010を使用して、約40μmまでの精度で3Dデータに標識を付けることができる(動作2012)。以前に識別されたコーナーをその後、3D座標とペアにしてよい(動作2014)。その後、カメラモデル2016を使用して、カメラ較正ライブラリを作成してよい(動作2018)。このライブラリはその後、非線形最適化を受け得る(動作2020)。較正されたカメラモデルのパラメータが出力となる(動作2022)。
【0080】
図21は、自己識別バイナリコードがどのようにして検出され得るのかの一例を示す。チェッカー特徴部に埋め込まれたパターンが、CALTagマーキングに基づいてどのように一意に識別されて割り当てられるかの一例が以下に示される。CALTagが分割されて16個の正方形の一グリッドになり、各正方形はビットを表し、0又は1のいずれかの値を有する。グリッドの値はその後、左上から開始して行に沿って進んでから次の行を開始し、バイナリ数すなわち2進数に読み替えられる。2進数は10進数に変換されてよい。
【0081】
図22Aは、較正ターゲット特徴部を識別する例示の方法のフローチャートを示す。図22Bは、識別される特徴部を備える例示の較正ターゲットを示す。コーナー特徴部を3D空間における関連位置にマッチングする方法2200が示される。最初に、前の段落で説明したように、CALTagの10進IDが作成され得る(動作2210)。ルックアップテーブルが使用されて、10進IDがチャートコーナーインデクスに変換され得る(動作2220)。所与の画像に対し、各コーナー特徴部2202に、較正プロセスを介した追跡のためのコーナーインデックス2204が割り当てられる(動作2230)。一例として、以下の画像は、どのようにして特徴部が識別され、行及び列のインデックス標識が割り当てられるかを示す。画像処理ステップ(動作)の間に追加のステップ(動作)を実行して、画像処理誤差から予測インデクシングに適合しない外れ値を排除してよい。
【0082】
画像処理の最後のコンポーネントは、画像空間におけるこれらの標識付き特徴部と、トラッカー及びOMMデータから決定される3D物体空間における対応位置とのマッチングを含み得る(動作2240)。ひとたび物体と画像空間との点対応がわかると、両者間の関係を特徴付けるべくパラメトリックモデルを解くことができる。図23は、カメラの例示の単純なピンホールモデルを示す。このようなモデルは、以下の図に示される簡単なピンホールカメラによって描写することができ、物体空間の点は、焦点距離を介して像点にスケーリングされる。
ロバストなカメラモデルが、物体と像点とを正確に関連させるべく使用されてよく、内部パラメータ及び外部パラメータの双方に対する項を含み得る。内部パラメータは、焦点距離、主点、及び歪みのような、画像フレームにおけるカメラ座標とピクセル座標との間のマッピングを許容する項を含み得る。外部パラメータは、回転及び並進のような、ワールドフレームに対するカメラの場所及び配向の定義を許容する項を含み得る。
【0083】
以下の表1は、一般的なカメラモデルに存在し得る項の数をまとめる。表1に見えることだが、カメラモデルにおいて外部パラメータは、3つの回転項及び3つの並進項を含む。内部パラメータは、2つの主点項、2つの焦点距離項、5つの放射方向係数、7つの接線方向係数、及び7つの非対称係数を含む。これらの項のうち、回転、並進、主点、焦点距離、及び放射方向係数が、放射方向対称カメラモデルに含まれる。これとは対照的に、接線方向係数及び非対称係数を含む29項すべてが、フルカメラモデルに含まれる。
【表1】
【0084】
多くの画像カメラは、画角と画像空間座標との間に完璧な線形関係を有しないが、このばらつきは多項の多項式でモデル化され得る。Kannala放射状多項式が以下に示される。対称放射状歪みがモデル化され得る。
【数1】
【0085】
さらに、マッピングへの追加の修正が、以下に示されるKannalaフルカメラモデルによって表される非対称放射方向項及び接線方向項のような追加多項式によって実現され得る。
【数2】
【0086】
カメラモデルにおける項に対しては閉形式解が存在しないので、オプティマイザにおいて項が反復され得るように物体空間と画像空間との間の再投影誤差を記述するべく、メリット関数を使用してよい。最小化問題は、最適な歪み係数、焦点距離、及び主点を決定するべく非線形オプティマイザに通してよい。例えば、Levenberg-Marquardtアルゴリズムを使用してよい。
【数3】
【0087】
上記式において、
【数4】
は、コーナー(例えば画像)の既知のピクセル座標であり、
【数5】
はコーナーの推定ピクセル座標であり、
【数6】
は主点、すなわちカメラ面の中心であり、
【数7】
は有効焦点距離、すなわちピンホールからイメージフレームまでの距離であり、
【数8】
は放射状歪み多項式係数であり、
【数9】
は接線歪み多項式係数であり、
【数10】
は非対称放射状歪み多項式係数であり、
【数11】
はカメラ基準フレームにおけるワールド基準フレームの回転行列であり、
【数12】
はカメラ基準フレームへのワールド基準フレームの並進ベクトルであり、
【数13】
はデータム基準フレームにおける3D空間の座標を表し、及び
【数14】
である
【0088】
ひとたびカメラモデルが作成されると、それが反転されて画像空間が物体空間に変換され得る。逆投影モデルは、画像空間再投影誤差がどのようにして、物理的な距離誤差によってワールドフレームに反映されるかを理解するのに有用となり得る。
【0089】
留意すべきことだが、この開示に提示される較正データキャプチャのアプローチは、最終ステップ(動作)において再投影誤差を最小限にするために使用される特定のカメラモデル又はオプティマイザを前提とするわけではない。このアプローチは、Brown-Conradyカメラモデル及びHeikkilaカメラモデルを含む多くのカメラモデルを介したソリューションに柔軟に対応でき、異なるカメラ構成が、異なるモデルによってベストフィットとなり得る。
【0090】
較正結果及び監査
【0091】
測定された点と、較正されたカメラモデルが予測する場所との間の誤差は、画像空間及び物体空間の双方において測定され得る。良好に較正されたカメラが、測定された点の場所を正確に予測する。
【0092】
図24Aは、例示のカメラモデルの画像空間投影誤差を示す。図24Bは、図24Aと同じ例示のカメラモデルの物体空間再投影誤差を示す。一例において、2.8mm焦点距離レンズを備える上述した18メガピクセルのカメラは、以下のプロットに示されるように、0.1ピクセル未満の平均画像空間誤差、及び0.1mm未満の平均物体空間誤差で較正された。この例では、2つの層を備える半球状スーパーチャートが生成された。図24Aに示されるように、画像空間再投影誤差は、ほとんどが0.1ピクセル未満であった。画像空間のエッジ付近(主に左下及び右下)のいくつかの場所のみが、0.3ピクセル以上の誤差を有していた。図24Bに示されるように、同じサンプルの物体空間再投影誤差は、ほとんどが0.1mm未満であった。各それぞれの半球層、特に内側半球層のエッジ付近のいくつかの場所が、0.1mmを超える再投影誤差を有していた。
【0093】
これらの結果は、以下の表2の公表された結果と比較することができる。表2は、業界で一般に知られるカメラモデルを生成する様々な方法の、ピクセル単位の画像空間精度(画像空間誤差)、及びミクロン単位の画像精度(物体空間誤差)を含む。表2はまた、様々な方法によって使用される画像空間の、ピクセル単位の解像度も列挙する。表2に見えることだが、本システム及び方法(「Quartusフレキシブルカメラ較正」)によれば、列挙されたいずれの方法よりも低い画像空間誤差及び低い物体空間誤差が得られる。さらに、他の方法の最大画像解像度は1024ピクセル×768ピクセルであるが、本システム及び方法は、4912ピクセル×3684ピクセルの画像解像度を有しながらも低い誤差を達成する。
【表2】
【0094】
表2において使用されるかっこ内の数字は、その行のデータが取得された参考文献を示す。[1]は、「Evaluating the Accuracy of Single Camera Calibration(単一カメラ較正の精度の評価)」を参照する。単一カメラ較正の精度の評価-MATLAB(登録商標)&Simulink。[2]は、Kannala,J.,&Brandt,S.S.(1995).A Generic Camera Model and Calibration Method for Conventional,Wide-Angle,and Fish-Eye Lenses(従来型広角魚眼レンズの一般カメラモデルと較正方法)を参照する。[3]は、Brown,D.C.(1966).Decentering Distortion of Lenses(レンズの偏心歪み)を参照する。[4]は、Zhang,Z.(1999).Flexible Camera Calibration by Viewing a Plane From Unknown Orientations(未知の配向から平面を見ることによるフレキシブルなカメラ較正)を参照する。上記参考文献のそれぞれの全内容は、参照によりここに組み込まれる。
【0095】
図25は、監査データセットを生成する例示の方法のフローチャートを示す。監査データセットを生成する例示の方法2500が示される。いくつかの例(例えば実施形態)において、本発明のカメラ較正ステーション(カメラモデルを生成するシステム)を使用して監査データセットを生成することができる。監査データセットは、物点の同じ追跡可能性を有する一セットの画像であってよい。ただし、この一セットの画像は、較正を行うべく使用される物点とは十分に異なる。監査は、較正されたカメラが(較正点以外の)任意の場所にある物体の場所を正確に予測することを検証する。これにより、場合によっては品質較正が保証される。例えば、オプティマイザが局所最小値にはまり込んではいなかったことが、潜在的に確認される。較正データ2502が最適化され得る(動作2504)。最適化されたデータはその後、カメラパラメータを生成するべく使用され得る(動作2506)。生成されたカメラパラメータは、監査再投影誤差を出力するべく監査データ2508とともに使用され得る(動作2510)。
【0096】
図26は、監査モデルを使用して物体空間誤差及び画像空間誤差を決定する例示の方法のフローチャートを示す。いくつかの例(例えば実施形態)によれば、監査は、距離単位の物体空間誤差をピクセル単位の画像空間誤差と比較するべく使用され得る。例えば、監査画像空間点2602をカメラモデル2604に供給して、物体空間に逆方向投影点2606を生成してよい。逆方向投影点2606を監査物体空間点2608と比較して、カメラモデル2604の物体空間誤差2610を決定してよい。監査物体空間点2608をカメラモデル2604に供給して、画像空間に順方向投影点2612を生成してもよい。順方向投影点2612を監査画像空間点2602と比較して、カメラモデル2604の画像空間誤差2614を決定してよい。
【0097】
図27Aは、監査モデルを使用することによって決定される例示のカメラモデルの物体空間再投影誤差を示す。図27Bは、図27Aと同じ監査モデルを使用することによって決定される図27Aと同じ例示のカメラモデルの画像空間再投影誤差を示す。以下に示す一例において、画像空間再投影誤差は約0.3ピクセルであり、物体空間再投影誤差は約0.5mmであった。
【0098】
わかることだが、本発明のカメラモデルは、業界で知られているような任意の方法で使用してよい。例えば、ここに記載されるように較正されたカメラは、視覚サーボタスクにおけるロボットシステムのポーズを正確に突き止めるために使用してよい。これにより、このようなシステムの、高精度な環境との相互作用が許容される。他の多くのアプリケーションが存在する。
【0099】
ここに記載される開示の各側面の任意のそれぞれの特徴/例は、任意の適切な組み合わせで一緒に実装することができ、これらの側面の任意の一以上からの任意の特徴/例は、ここに記載される利益を達成するために、任意の適切な組み合わせでここに記載される他の側面の特徴のいずれかと一緒に実装され得ることを理解すべきである。
【0100】
様々な図示の例が上述されているが、本発明から逸脱することなく、様々な変更及び修正を行い得ることは、当業者にとって明らかであろう。添付の特許請求の範囲は、本発明の真の要旨及び範囲に該当するすべてのそのような変更及び修正をカバーすることを意図する。
図1
図2
図3
図4
図5
図6
図7
図8
図9A-9B】
図10
図11A-11B】
図12
図13
図14
図15A-15B】
図16A-16B】
図17
図18
図19
図20
図21
図22A-22B】
図23
図24A-24B】
図25
図26
図27A-27B】
【国際調査報告】