(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公表特許公報(A)
(11)【公表番号】
(43)【公表日】2023-09-27
(54)【発明の名称】カメラパラメータの値を決定するための方法及びデバイス
(51)【国際特許分類】
H04N 23/741 20230101AFI20230920BHJP
G03B 7/091 20210101ALI20230920BHJP
G06T 7/80 20170101ALI20230920BHJP
【FI】
H04N23/741
G03B7/091
G06T7/80
【審査請求】未請求
【予備審査請求】未請求
(21)【出願番号】P 2023515122
(86)(22)【出願日】2021-09-08
(85)【翻訳文提出日】2023-05-01
(86)【国際出願番号】 EP2021074670
(87)【国際公開番号】W WO2022053492
(87)【国際公開日】2022-03-17
(32)【優先日】2020-09-14
(33)【優先権主張国・地域又は機関】EP
(81)【指定国・地域】
(71)【出願人】
【識別番号】591121683
【氏名又は名称】エッペンドルフ エスイー
【氏名又は名称原語表記】Eppendorf SE
【住所又は居所原語表記】Barkhausenweg 1, 22339 Hamburg,Germany
(74)【代理人】
【識別番号】110000877
【氏名又は名称】弁理士法人RYUKA国際特許事務所
(72)【発明者】
【氏名】ピーターマン、アレクサンダー
【テーマコード(参考)】
2H002
5C122
5L096
【Fターム(参考)】
2H002FB23
2H002FB24
2H002FB25
2H002FB37
5C122DA03
5C122DA04
5C122EA20
5C122EA21
5C122FA12
5C122FE02
5C122FF01
5C122FF03
5C122FF09
5C122FF15
5C122FF23
5C122FG14
5C122FK24
5C122GA01
5C122HA13
5C122HA35
5C122HB01
5C122HB10
5L096DA02
5L096EA35
5L096FA69
(57)【要約】
カメラの少なくとも1つのカメラパラメータの第1の値を決定するためのコンピュータ実装方法であり、方法は少なくとも、カメラによって撮像された第1の画像にアクセスする段階、ここで、第1の画像はシーンを表示し、第1のピクセルのセットを有し、ここで、シーンは第1のシーン領域を含み、第1のシーン領域は画像の第1の画像部分に表示され、第1のピクセルのセットの各ピクセルについて、上記各ピクセルに関連付けられたそれぞれの第1のデータ項目を生成する段階、ここで、上記それぞれの第1のデータ項目は、上記各ピクセルに関連付けられたそれぞれの位置情報を有し、上記それぞれの位置情報は、第1の画像内の第1の画像部分の場所に対する上記各ピクセルの第1の画像内の位置を示し、第1のピクセルのセットの少なくとも第1の複数のピクセルを使用することによって、カメラパラメータの第1の値を決定する段階を備え、ここで、第1の複数のピクセルの各ピクセルについて、上記各ピクセルに関連付けられたそれぞれの位置情報は、第1の条件を満たす。
【特許請求の範囲】
【請求項1】
カメラの少なくとも1つのカメラパラメータの第1の値を決定するためのコンピュータ実装方法であって、少なくとも、
-前記カメラによって撮像された第1の画像にアクセスする段階、ここで、前記第1の画像は、シーンを表示し、第1のピクセルのセットを有し、ここで、前記シーンは、第1のシーン領域を有し、前記第1のシーン領域は前記第1の画像の第1の画像部分に表示される;
-前記第1のピクセルのセットの各ピクセルについて、前記各ピクセルに関連付けられたそれぞれの第1のデータ項目を生成する段階、ここで、前記それぞれの第1のデータ項目は、前記各ピクセルに関連付けられたそれぞれの位置情報を有し、前記それぞれの位置情報は、前記第1の画像内の前記第1の画像部分の場所に対する前記各ピクセルの前記第1の画像内の位置を示す;及び
-前記第1のピクセルのセットの少なくとも第1の複数のピクセルを使用することによって前記カメラパラメータの前記第1の値を決定する段階、ここで、前記第1の複数のピクセルの各ピクセルについて、前記各ピクセルに関連付けられた前記それぞれの位置情報は、第1の条件を満たす
を備える方法。
【請求項2】
前記第1のピクセルのセットの各ピクセルについて、前記それぞれの位置情報により、前記各ピクセルが前記第1の画像部分の外側の前記第1の画像内に配置されていることが特定される場合、前記各ピクセルに関連付けられた前記それぞれの位置情報は、前記第1の条件を満たす、又は、前記第1のピクセルのセットの各ピクセルについて、前記それぞれの位置情報により、前記第1の画像部分が前記各ピクセルを含むことが特定される場合、前記各ピクセルに関連付けられた前記それぞれの位置情報は、前記第1の条件を満たす、請求項1に記載の方法。
【請求項3】
前記第1のピクセルのセットの各ピクセルについて、前記各ピクセルに関連付けられた前記それぞれの位置情報により、前記第1の画像部分が前記各ピクセルを含むかどうかが特定される、請求項1又は2に記載の方法。
【請求項4】
前記第1の画像を使用することによって、前記第1の画像内の前記第1の画像部分の前記場所を示す情報を取得する段階をさらに備える、請求項1から3のいずれか1項に記載の方法。
【請求項5】
前記第1のシーン領域内の前記第1の画像部分の前記場所を示す前記情報を取得する前記段階は、
-前記第1の画像内の前記第1の画像部分の前記場所を決定するための位置特定アルゴリズム、
-前記シーン及び前記カメラの互いの前記位置を示す情報、
-前記カメラに関連付けられた外部較正パラメータのセット、
-前記カメラに関連付けられた内部較正パラメータのセット、
-前記第1のシーン領域の形状を示す情報、及び/又は
-前記シーン内の前記第1のシーン領域の場所を示す情報を使用することによって実行される、請求項4に記載の方法。
【請求項6】
-前記カメラパラメータの少なくとも前記第1の値を使用することによって第2の画像を取得する段階;
-前記カメラパラメータの少なくとも第2の値を使用することによって第3の画像を取得する段階;及び
-前記第2の画像、前記第3の画像、及びハイダイナミックレンジアルゴリズムを使用することによって第4の画像を構築する段階をさらに備える、請求項1から5のいずれか1項に記載の方法。
【請求項7】
前記シーンは第2のシーン領域を有し、前記第2のシーン領域は前記第1の画像の第2の画像部分に表示され、ここで、前記第1の画像は第2のピクセルのセットを有し、方法は、
-前記第2のピクセルのセットの各ピクセルについて、前記各ピクセルに関連付けられたそれぞれの第2のデータ項目を生成する段階、ここで、前記それぞれの第2のデータ項目は、前記各ピクセルに関連付けられたそれぞれの位置情報を有し、前記それぞれの位置情報は、前記第1の画像内の前記第2の画像部分の場所に対する前記各ピクセルの前記第1の画像内の前記位置を示す;及び
-前記第2のピクセルのセットの少なくとも第2の複数のピクセルを使用することによって前記カメラパラメータの前記第2の値を決定する段階、ここで、前記第2の複数のピクセルの各ピクセルについて、前記各ピクセルに関連付けられた前記それぞれの位置情報は、第2の条件を満たす、をさらに備える請求項6に記載の方法。
【請求項8】
前記第1のピクセルのセットの各ピクセルについて、前記各ピクセルに関連付けられた前記それぞれの第1のデータ項目を生成する前記段階は、前記第1の画像部分の形状を示す情報を使用することによって実行される、請求項1から7のいずれか1項に記載の方法。
【請求項9】
少なくとも前記第1のピクセルのセットを使用することによって、前記カメラパラメータの前記第1の値を決定する前記段階は、
第3のピクセルのセットの少なくとも各ピクセルについて、前記各ピクセルに関連付けられた前記それぞれの位置情報が、前記第1の条件を満たしているかどうかを少なくともチェックすることによって、前記第1の複数のピクセルを選択する段階、
ここで、前記第1のピクセルは、前記第3のピクセルのセットの各ピクセルを有する、を有する、請求項1から8のいずれか1項に記載の方法。
【請求項10】
前記カメラパラメータは、ゲイン、ISO、露出値、露出時間、絞りサイズ、ホワイトバランスマトリックスのエントリ、焦点距離、輝度、コントラスト、F値、及び解像度からなるグループから選択される、請求項1から9のいずれか1項に記載の方法。
【請求項11】
前記シーンは、自動実験システムの作業デッキを有し、前記第1のシーン領域は、前記作業デッキの領域及び/又は実験器具アイテムの少なくとも一部を有する、請求項1から10のいずれか1項に記載の方法。
【請求項12】
請求項1~11のいずれか1項に記載の方法を実行するように構成された処理手段を備えるデータ処理システム。
【請求項13】
カメラ、請求項1~11のいずれか1項に記載の方法を実行するように構成された処理手段、及び実験器具アイテムを位置決めするための作業デッキを備える、自動実験システム。
【請求項14】
システムに、請求項1~11のいずれか1項に記載の方法を実行させるためのコンピュータプログラム。
【請求項15】
コンピュータによって実行されると、システムに請求項1~11のいずれか1項に記載の方法を実行させる命令を備える、コンピュータ可読記憶媒体。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、カメラパラメータの値を決定するための方法及びデバイスに関する。具体的には、本発明は、自動実験システム(Automated Laboratory System:ALS)、より詳細には、自動ピペッティングシステムのカメラのカメラパラメータの値を決定するための方法及びデバイスに関する。本発明は、本発明の方法を実行するように構成されたALS、例えば、自動ピペッティングシステムにも関する。
【背景技術】
【0002】
カメラで撮像された画像の品質は、ゲイン、ISO、露出値、露出時間、絞りサイズ、焦点距離、輝度、コントラスト、解像度、F値、及び/又はホワイトバランスマトリックスのエントリなどのカメラパラメータの値に大きく依存する。較正パラメータの適切な値の推定値は、当技術分野で知られている較正方法を使用することによって取得され得る。典型的には、既知の較正方法は、上記カメラによって取得された較正画像のピクセルを使用することによって、カメラの少なくとも1つのパラメータの値(以下、「較正値」とも呼ばれる)を決定する。
【0003】
多くの技術分野では、画像は、その中に表示された物体を識別するために物体識別アルゴリズムによって処理される。典型的には、物体識別アルゴリズムは、画像全体又は1つ又は複数の関心領域(Regions Of Interest:ROI)を処理することによって、画像に表示された物体を識別する。ROIは、特に、識別及び/又は検出される少なくとも1つの物体が表示されることが予期される画像の領域である。例えば、ラボラトリオートメーションの分野では、識別すべき物体は実験器具アイテムであり、ROIはALSの作業デッキの一部である。
【0004】
多くの技術分野では、物体識別は比較的高い信頼性を有する。これは、例えば、自動運転の分野及びラボラトリオートメーションの分野の場合である。物体識別アルゴリズムの信頼性は、上記アルゴリズムによって処理される画像の品質、すなわち、上記画像のピクセルの強度が画像に表示されるシーンをどれだけ忠実に再現するかに依存する。したがって、最終的には、画像の品質は、上記画像を使用することによって実行される識別の信頼性に影響を与える。
【0005】
物体識別アルゴリズムが必要な信頼性を達成するためには、少なくともROIが十分な品質を有している、すなわち、上記領域のピクセルは、上記領域に表示されるシーンの部分を十分に忠実に再現している。既知の較正方法では、カメラの較正に使用するピクセルを選択できず、したがって、場合によっては、カメラの較正値を使用することによって撮像された画像のROIは、十分に高い品質ではない。
【0006】
これは、例えば、シーンの照明が均一でない場合、例えば、識別すべき物体をまったく含まないシーンの一部が明るく照らされている場合に発生する。この場合、カメラの較正値を使用することによって撮像された画像の少なくとも1つのROIは、露出不足になる。例えば、ラボラトリオートメーションの分野では、この事象は、ALSが白く明るく照らされたテーブルに置かれ、このテーブルの一部がカメラの視野内にある場合に発生し得る。例えば、識別すべき物体をまったく含まないシーンの一部が影の中にある場合、代わりに、少なくとも1つのROIが露出過度になり得る。
【0007】
さらに、ラボラトリオートメーションの分野では、シーンが明るい色の実験器具アイテム及び暗い色の実験器具アイテムを含む場合、同様の問題が発生し得る。この場合、カメラの較正値を使用することによって撮像された画像では、明るい色の実験器具アイテムを表示するROIが露出過度になり、及び/又は暗い色の実験器具アイテムを表示するROIが露出不足になる。
【0008】
したがって、上記画像が不均一に照らされたシーン及び/又は異なる輝度を有する物体を含むシーンを表示する場合でも、十分な品質で関心領域を有する画像を取得することを可能にするカメラパラメータの値を決定するための方法が必要である。
【0009】
これらの問題の少なくともいくつかは、請求項1に記載のコンピュータ実装方法、請求項12に記載のデータ処理システム、請求項14に記載のコンピュータプログラム製品、及び請求項15に記載のコンピュータ可読記憶媒体に関する本出願の発明によって、少なくとも部分的に解決される。本発明の実施形態は、従属請求項の主題である。
【0010】
一態様では、本発明は、カメラの少なくとも1つのカメラパラメータの第1の値を決定するためのコンピュータ実装方法に関する。本発明の方法は、少なくとも以下の段階を備える。
-前記カメラによって撮像された第1の画像にアクセスする段階、ここで、前記第1の画像は、シーンを表示し、第1のピクセルのセットを有し、前記シーンは、第1のシーン領域を有し、前記第1のシーン領域は前記画像の第1の画像部分に表示される;
-前記第1のピクセルのセットの各ピクセルについて、前記各ピクセルに関連付けられたそれぞれの第1のデータ項目を生成する段階、ここで、前記それぞれの第1のデータ項目は、前記各ピクセルに関連付けられたそれぞれの位置情報を有し、前記それぞれの位置情報は、前記第1の画像内の前記第1の画像部分の場所に対する前記各ピクセルの前記第1の画像内の前記位置を示す;及び
-前記第1のピクセルのセットの少なくとも第1の複数のピクセルを使用することによって前記カメラパラメータの前記第1の値を決定する段階、ここで、前記第1の複数のピクセルの各ピクセルについて、前記各ピクセルに関連付けられた前記それぞれの位置情報は、第1の条件を満たす。
【0011】
カメラは、多色カメラ、グレースケールカメラ、ビデオカメラ及び/又はフォトカメラであり得る。
【0012】
画像は、ベクトル画像又はピクセルの2次元グリッド、例えば、ピクセルの矩形グリッドであり得る。具体的には、画像内のピクセルの場所は、画像内のその2次元画像座標に関して一義的に決定され得、上記座標は、ピクセルの2次元グリッド内の上記ピクセルの場所を表す。
【0013】
画像、例えば第1及び/又は第2の画像は、少なくとも1つのビットマップによってエンコードされ得る。画像又はその一部をエンコードするビットマップは、上記画像又はその一部の各ピクセルの強度、すなわち、色を指定するビット配列を有し得る、例えば、ビット配列からなり得る。ビットマップは、配列のエントリがカラーテーブルのインデックスになるように、パレットインデックスを付け得る。配列のエントリは、ピクセルの色をエンコードするビットを記憶し得る。ビットマップは、ピクセルの2次元グリッドを表すドットマトリックスデータ構造を有し得る、例えば、ドットマトリックスデータ構造からなり得る。ビットマップは、ピクセル当たりのビット数、2次元グリッドの行当たりのピクセル数、及び/又は上記グリッドの列当たりのピクセル数に関する情報をさらに有し得る。画像ビューアは、ビットマップにエンコードされた情報を使用して、コンピューティングデバイスの画面に画像をレンダリングし得る。
【0014】
具体的には、第1の画像は、露出値をEv,0に設定し、露出時間をEt,0に設定し、及び/又はF値をF0に設定してカメラを使用することによって撮像し得る。具体的には、第1の画像は第1のピクセルのセットからなる。第1の画像は、多色画像又はグレースケール画像であり得る。
【0015】
ピクセルの強度、例えば、色は、RGBカラーモデル、CMYカラーモデル、又はCMYKカラーモデルで表され得る。具体的には、RGBカラーモデルでは、ピクセルの強度は3つの整数値のトリプレットで表され、上記トリプレットの各値は0~255の範囲である。この場合、ピクセルの強度は3次元座標で表され得る。あるいは、又は上記と併せて、RGBモデルでは、ピクセルの強度は、色相、彩度、明度(HSV)表現又は色相、彩度、輝度(HSL)表現を使用することによって表わされ得る。具体的には、グレースケール画像では、ピクセルの強度は、単一の整数値で表され得、具体的には、上記値は、0から最大値までの範囲であり得る。例えば、上記最大値は、256又は65,536に等しくし得る。
【0016】
具体的には、画像は、コンピューティングデバイス、例えば、本発明の方法を実行するコンピューティングデバイスの一次及び/又は二次メモリに記憶され得る。例えば、画像は、ファイルに記憶され、データベースに編成され、及び/又は記憶手段又はクラウドに記憶され得る。
【0017】
具体的には、第1のシーン領域は、第1の識別すべき物体を有する。例えば、第1のシーンは、ALSの作業デッキ及び、作業デッキ上に位置決めされた第1の実験器具アイテムを有し得、ここで、第1の実験器具アイテムは、識別される第1の物体である。この場合、第1の画像領域は、第1の実験器具アイテム及び作業デッキの少なくとも第1の領域を有し得る。具体的には、第1のシーン領域は、互いに切り離された複数のシーン領域からなり得る。例えば、第1のシーン領域は、第1の明るく照らされたシーン領域及び第2の陰になったシーン領域からなり得る。例えば、第1のシーン領域は、明るく照らされた実験器具アイテムを有する、シーンの第1の部分及び、暗い色の実験器具アイテムを有する、シーンの第2の部分からなり得る。
【0018】
第1の画像部分は、第1の画像の第4のピクセルのセットからなり得る。具体的には、第4のピクセルのセットは、第1のシーン領域を表示すると推定されるピクセルを有する、例えば、それらからなる。具体的には、第1のシーン画像部分は、互いに切り離された複数の画像部分からなり得る。例えば、第1の画像部分は、明るく照らされた実験器具アイテムを表示する画像の一部及び、暗い色の実験器具アイテムを表示するシーンの別の部分からなり得る。例えば、第1の画像部分は、明るく照らされたシーン領域を表示する画像の一部及び、陰になったシーン領域を表示するシーンの別の部分とからなり得る。具体的には、第1の画像部分は、第1のシーン領域を表示するピクセルからなる。
【0019】
画像にアクセスする段階は、例えば、コンピューティングデバイスから上記画像を受信する段階を有し得る。あるいは、又は上記と併せて、画像にアクセスする段階は、例えば、コンピューティングデバイスから、その一次及び/又は二次メモリから、データベースから、及び/又はクラウドから上記画像を取得する段階を有し得る。
【0020】
具体的には、第1の画像内の第1の画像部分の場所は、上記場所を示す情報によって特定され得る。例えば、この情報は、第4のピクセルのセットの各ピクセルの第1の画像内の位置を示す情報を有する。例えば、第1の画像部分の場所は、第1の画像内のこの部分の場所の推定値である。例えば、上記推定値は、第1の画像内の第1の画像部分の場所を決定するための位置特定アルゴリズムを使用することによって取得され得る。
【0021】
例えば、第4のピクセルのセットは、第1の画像の矩形グリッドである。あるいは、第4のピクセルのセットは、第1の画像の円であり得、上記円は、半径R及び中心ピクセルCを有する。この場合、第4のピクセルのセットは、d(C,P)≦Rのような第1の画像の各ピクセルPからなり、ここでd(C,P)は、上記各ピクセル及び中心ピクセルの間の距離、例えば、ユークリッド距離である。
【0022】
第1の画像内の第1の画像部分の場所を示す情報をエンコードするために、そこに含まれる情報が取得され正しく解釈され得る限り、任意の構造フォーマットが使用され得る。例えば、上記情報が上記ピクセルのセットの各々の場所を正確に取得するのに十分である限り、第4のピクセルのセットに含まれるピクセルのいくつかの場所は、上記情報により特定され得る。例えば、第4のピクセルのセットが第1の画像の矩形グリッドである場合、上記グリッドの頂点の位置を示す情報は、第4のピクセルのセットの各ピクセルの場所を取得するのに十分である。さらに、例えば、第4のピクセルのセットが円である場合、第1の画像の中心ピクセルの位置及び半径の値は、第4のピクセルのセットの各ピクセルの場所を取得するのに十分である。
【0023】
第1のピクセルのセットの各ピクセルについて、第1の画像内の第1の画像部分の場所に対する上記各ピクセルの位置を示す情報により、上記各ピクセルが第1の画像部分、例えば、第4のピクセルのセットに含まれるかどうかが特定され得る。あるいは、又は上記と併せて、第1の画像部分の場所に対する上記各ピクセルの位置を示す情報により、上記各ピクセル及び第1の画像部分の間の距離かどうか、及び/又は上記距離が特定された距離値より長いかどうかが特定され得る。
【0024】
例えば、ピクセル及び第1の画像部分の間の距離は、上記ピクセル及び第4のピクセルのセットの参照ピクセルの間の距離であり得る。第4のピクセルのセットが矩形グリッド又は円である場合、参照ピクセルは、それぞれ矩形グリッドの中心に位置するピクセル又は中心ピクセルであり得る。具体的には、ピクセル及び参照ピクセルの間の距離は、これらのピクセル間のユークリッド距離であり、ピクセル単位で表され得る。
【0025】
例えば、第1のピクセルのセットの各ピクセルについて、上記各ピクセルに関連付けられた第1のデータ項目は、上記各ピクセルに関連付けられた情報を生成することによって、上記各ピクセルに関連付けられた第1のデータ項目に上記情報をエンコードすることによって、及び上記第1のデータ項目をコンピューティングデバイスの一次及び/又は二次メモリに記憶することによって生成され得る。
【0026】
第1のピクセルのセットの各ピクセルについて、上記各ピクセルに関連付けられた情報は、第1の情報生成アルゴリズムの出力であり得る。例えば、第1の情報生成アルゴリズムは、第1の画像内のピクセルの位置を処理して、上記ピクセルが第1の画像部分、例えば、第4のピクセルのセットに含まれるかどうかを評価し得る。あるいは、又は上記と併せて、第1の情報生成アルゴリズムは、第1の画像内のピクセルの位置を処理して、上記ピクセル及び第4のピクセルのセットの参照ピクセルの間の距離を決定し、任意選択で、上記距離が特定された距離値より長い又はそれに等しい距離であるかどうかを評価し得る。
【0027】
本発明によるデータ項目は、具体的には、情報を含む記号のセットである。本発明によるデータ項目の各々は、ファイルに記憶され、データベースに編成され、及び/又は記憶手段又はクラウドに記憶され得る。2つ以上のデータ項目が同じファイルに一緒に記憶され得る。例えば、第1のピクセルのセットのピクセルに関連付けられた第1のデータ項目は、複数のエントリを含む配列データ構造に記憶され得る。具体的には、第1のピクセルのセットの各ピクセルに対して、上記各ピクセルに関連付けられた第1のデータ項目を含む配列データ構造のそれぞれのエントリが存在する。
【0028】
第1のピクセルのセットの各ピクセルについて、上記各ピクセルに関連付けられたそれぞれの第1のデータ項目は、整数、浮動小数点数、又はブールデータ型を有し得る。例えば、上記それぞれの第1のデータ項目がブールデータ型を有する場合、値「真」は、上記各ピクセルが第1の画像部分に含まれないことを示す情報をエンコードし、値「偽」は、上記各ピクセルが第1の画像部分に含まれることを示す情報をエンコードする。あるいは、値「真」は、上記各ピクセルが第1の画像部分に含まれることを示す情報、及び値「偽」は、上記各ピクセルが第1の画像部分に含まれないことを示す情報をエンコードし得る。さらに、第1のピクセルのセットの各ピクセルについて、上記各ピクセルに関連付けられた第1のデータ項目は、整数又は浮動小数点データ型を有する場合、上記それぞれの第1のデータ項目の値により、上記各ピクセル及び第4のピクセルのセットの参照ピクセルの間の距離が特定される。
【0029】
例えば、第1のピクセルのセットの各ピクセルについて、それに関連付けられた第1のデータ項目がブールデータ型を有する場合、第1の条件は、上記各ピクセルに関連付けられた第1のデータ項目の値が「真」であるという条件を有し得る。第1のピクセルのセットの各ピクセルについて、上記各ピクセルに関連付けられた第1のデータ項目の値により、上記各ピクセル及び参照ピクセルの間の距離が特定される場合、第1の条件は、第1のデータ項目が特定された距離値より大きい又はそれに等しいという条件を有し得る。具体的には、第1の複数のピクセルの各ピクセルについて、上記各ピクセルに関連付けられたそれぞれの位置情報は、少なくともさらなる条件を満たし得る。
【0030】
カメラパラメータの第1の値を決定する段階は、決定アルゴリズムを使用することによって実行され得る。具体的には、決定アルゴリズムは、第1の複数のピクセルの各ピクセルの強度を処理して、カメラパラメータの第1の値を決定する。決定アルゴリズムは、具体的には、カメラパラメータの較正アルゴリズムである。
【0031】
具体的には、カメラパラメータの第1の値を決定する段階は、第1の複数のピクセルに含まれない第1の画像の1つ又は複数のピクセルも使用することによって実行され得る。例えば、カメラパラメータの第1の値の決定のロバスト性を推定するために、上記値は、第1の複数のピクセル及び第3の複数のピクセルを使用することによって決定され得、第3の複数のピクセルのピクセル数は、第1の複数のピクセルのピクセル数よりはるかに少ない。本発明によれば、前者の数及び後者の数の間の比が0.1より小さい又はそれに等しい、具体的には、0.01より小さい又はそれに等しい、より具体的には、0.001より小さい又はそれに等しい場合、複数のピクセルのピクセル数は、さらなる複数のピクセルのピクセル数よりはるかに少ない。
【0032】
さらに、第1の複数のピクセルは、上記各ピクセルに関連付けられたそれぞれの位置情報が第1の条件を満たすように、第1のピクセルのセットの各ピクセルを含み得る。あるいは、第1のピクセルのセットの少なくとも1つのピクセルは、上記ピクセルに関連付けられた位置情報が第1の条件を満たす場合でも、第1の複数のピクセルに含まれ得ない。
【0033】
カメラパラメータの第1の値を決定する段階は、第1の複数のピクセルを使用することによってピクセルレベルで実行される。したがって、上記段階は、当技術分野で知られている較正アルゴリズム、例えば、カメラを較正するための既知のパッケージ及びライブラリで実装されているアルゴリズムによって、第1の複数のピクセルのピクセルを処理することによって実行され得る。
【0034】
カメラパラメータの第1の値を決定する段階は、カメラのカメラパラメータのセットの各カメラパラメータについて、上記各カメラパラメータのそれぞれの第1の値を決定する段階を含み得る。具体的には、カメラパラメータは、カメラパラメータのセットに含まれる。例えば、カメラパラメータが、ホワイトバランスマトリックスのエントリである場合、カメラパラメータのセットは、上記マトリックスの各エントリを含み得る。
【0035】
第1の条件は、第1の複数のピクセルのピクセルに関連付けられた位置情報によって満たされる要件である。したがって、最終的に、第1の条件は、第1の複数のピクセルのピクセルによって、ピクセルレベルで満たされるように位置制約をエンコードする。これらのピクセルはシーンのいくつかの特徴を再現し、第1の画像部分は第1のシーン領域を表示する。したがって、位置制約は、いくつかのシーン情報、すなわち、シーンの特徴に関する情報、具体的には、第1のシーン領域に対する、例えば、識別すべき物体を表示するROIに対するそれらの位置に関する情報に基づいている。したがって、本発明の方法は、シーンの特徴、例えば、第1のシーン領域に対する上記特徴の位置に基づく制約を満たすピクセルを使用することによって、ピクセルベースのカメラ較正を実行することを可能にする。このようにして、本発明によって実行される較正は、シーンの特徴に適合され、第1の複数のピクセルによって表示される特徴に対して最適化される。具体的には、カメラパラメータの第1の値を使用することによって撮像された画像は、第1のピクセルのセットのピクセルによって表示されるシーンの特徴の忠実な表現を提供する。
【0036】
例えば、カメラはALSに含まれ得て、第1のシーン領域は、上記ALSが位置決めされる暗い色のテーブルの一部を含み得る。この場合、位置制約により、第1の複数のピクセルのピクセルを第1の画像部分の外側に配置することが必要になり得る。この場合、第1の値の決定は、シーンの特徴に関する情報、すなわち、暗い色のテーブルの存在及び場所を考慮することによって実行される。具体的には、この場合、カメラパラメータの第1の値は、テーブルの一部を表すピクセルを考慮せずに決定される。したがって、カメラパラメータの第1の値を使用することによって撮像された画像は、暗い色のテーブルを含まないシーン領域を忠実に再現する。
【0037】
あるいは、第1のシーン領域は、識別される実験器具アイテムを含み得る。この場合、位置制約は、第1の複数のピクセルのピクセルが第1の画像部分に含まれる場合に満たされ得る。このようにして、決定は、識別される実験器具アイテムの位置に関する情報を考慮することによって、すなわち、実験器具アイテムを描写するピクセルを使用することによって実行される。したがって、カメラパラメータの第1の値を使用することによって撮像された画像は、識別される実験器具アイテムを含むシーン領域を忠実に再現し、それによって、上記アイテムの識別の精度を向上させる。
【0038】
シーンの特徴に対する本発明の較正の適応性は、位置制約が基づくシーン情報の量と共に向上する。例えば、位置制約は、シーンが既知の物体を含む場合、具体的には、カメラに対する上記物体の位置が既知である場合、比較的大量のシーン情報に基づき得る。この情報量は、シーンに含まれ得る物体の少なくとも一部がシーンの所与の場所にのみ位置決めされ得る場合にさらに増加する。
【0039】
これは、例えば、カメラがALSに含まれている場合であり、この場合、シーンは、既知の物体、例えば、作業デッキ及びALSが位置決めされているテーブルを含む。さらに、この場合、作業デッキ及びカメラは、典型的には、互いに対して固定位置に配置されるため、シーン内の作業デッキの位置は既知である。さらに、典型的には、シーンに含まれ得る物体の少なくとも一部、例えば、実験器具アイテムは、作業デッキの予め決められた領域、すなわち、シーンの所与の場所に位置決めされ得る。
【0040】
本発明の一実施形態では、カメラパラメータは、ゲイン、ISO、露出値、露出時間、絞りサイズ、ホワイトバランスマトリックスのエントリ、焦点距離、輝度、コントラスト、F値、及び解像度からなるグループから選択される。
【0041】
例えば、カメラパラメータが露出値の場合、露出値の第1の値E
v,1は、次の式
【数1】
及び以下で説明する式(2)~(5)によって記述される較正アルゴリズムを使用することによって計算され得る。量B
1は第1の複数のピクセルP1のピクセルの平均輝度であり、量B
optは最適輝度である。
【0042】
例えば、ピクセルの強度がRGBカラーモデルで表現されている場合、平均輝度は次の式に従って計算され得る。
【数2】
ここで、(R
i G
i B
i)は、第1の複数のピクセルP
1のピクセルiの強度を決定するトリプレットであり、N
1は、第1の複数のピクセルのピクセル数である。関数fは、ピクセルの輝度を決定するための式であり得る。例えば、関数fは以下の式と等しくなり得る。
f((R G B))=c
1R+c
2G+c
3B (3)
具体的には、係数c
1、c
2、c
3は、
(c
1=0.2126,c
2=0.7152,c
3=0.0722); (4a)
と等しくなり得るか、
又は、
(c
1=0.299,c
2=0.587,c
3=0.114); (4b)
と等しくなり得るか、又は、(c
1=0.3,c
2=0.59,c
3=0.11). (4c)
と等しくなり得る。
あるいは、以下の関係が実質的に成立し得る。
c
1=1/3,c
2=1/3,c
3=1/3. (4d)
具体的には、係数c
1、c
2、c
3の各々は、0.33及び0.33333の間の間隔、より具体的には、0.333及び0.3333の間の間隔に含まれ得る。
【0043】
あるいは、関数fは以下の式と等しくなり得る。
【数3】
ここで、例えば、a
i=c
i∀i=1,2,3であり、より具体的には、a
1=0.299、a
2=0.587、及び、a
3=0.114である。最適輝度B
optは、18%グレーカードの平均輝度値であり得る。
【0044】
あるいは、又は上記と併せて、露出値の第1の値を決定する段階は、第1の複数のピクセルの各ピクセルを使用することによって、Rチャネル、Gチャネル、及びBチャネルのヒストグラム分布を生成する段階を含み得る。あるいは、又は上記と併せて、露出値の第1の値を決定する段階は、第1の複数のピクセルの各ピクセルを使用することによって、グレースケールチャネルのヒストグラム分布を生成する段階を含み得る。
【0045】
具体的には、第1の画像が単色である場合、後者のヒストグラムは、第1の複数のピクセルの各ピクセルにグレースケール強度を関連付けることによって構築され得る。第1の複数のピクセルのピクセルiに関連付けられたグレースケール強度IG,iは、以下の式によって与えられ得る。
IG,i=c1Ri+c2Gi+c3Bi
ここで、(Ri Gi Bi)は、第1の複数のピクセルP1のピクセルiの強度を決定するトリプレットである。係数c1、c2、c3は上記で説明されており、それらの数値は式(4a)~(4d)の各々によって与えられ得る。
【0046】
第1の値を決定する段階は、第1の画像が露出過度であるか露出不足であるかを決定し、それに応じて露出値を修正することをさらに含み得る。具体的には、第1の画像が露出不足である場合、露出値の第1の値Ev,1は、Ev,0、例えば、Ev,1=2Ev,0より大きくなるように選択される。具体的には、第1の画像が露出過度である場合、露出値の第1の値Ev,1は、Ev,0、例えば、Ev,1=Ev,0/2より小さくなるように選択される。
【0047】
例えば、カメラパラメータが露出時間である場合、露出時間の秒単位で表される第1の値E
t,1は、以下の式を使用することによって決定され得る。
【数4】
カメラパラメータがF値の場合、F値の第1の値F
1は、次の式を使用することによって決定され得る。
【数5】
ここで、E
t,0は秒単位で表される。式(6)及び(7)では、E
t,1は、式(1)を使用することによって計算され得る。
【0048】
具体的には、カメラパラメータは、対角の3次元ホワイトバランシングマトリックスのエントリであり得る。カメラパラメータの第1の値を決定する段階は、上記マトリックスの第1の対角エントリの第1の値v
1、第2の対角エントリの第1の値v
2、及び第3の対角エントリの第1の値v
3を決定する段階を含み得る。例えば、値v
1、v
2、及び、v
3は、以下の式を使用することによって計算され得る。
【数6】
ここで、
【数7】
である。
式(9)では、(R
i G
i B
i)は、第1の複数のピクセルP
1のピクセルiの強度を決定するトリプレットであり、N
1は、第1の複数のピクセルに含まれるピクセルの数である。具体的には、R
ref、G
ref、及び、B
refの各々は、255と等しくなり得る。あるいは、又は上記と併せて、以下の関係が実質的に成立し得る。
R
ref=G
ref=B
ref=(R
avg+G
avg+B
avg) (10)
本発明のさらなる実施形態では、第1のピクセルのセットの各ピクセルについて、上記それぞれの位置情報により、上記各ピクセルが第1の画像部分の外側の第1の画像内に配置されていることが特定される場合、上記各ピクセルに関連付けられたそれぞれの位置情報は、第1の条件を満たす。
【0049】
例えば、第4のピクセルのセットが半径及び中心ピクセルを有する円である場合、第1のピクセルのセットの各ピクセルについて、上記各ピクセルに関連付けられたそれぞれの位置情報により、上記各ピクセル及び中心ピクセルの間の距離が半径より大きいかどうかが特定される。この場合、具体的には、第1の条件は、上記距離が円の半径より大きいという条件を含む。
【0050】
例えば、第1の画像部分に識別すべき物体が表示されている場合、本実施形態では、第1の値の決定は、上記物体を表示しないピクセル、例えば、シーンの背景領域を表示するピクセルを使用することによって実行される。例えば、カメラがALSに含まれている場合、シーンの背景領域は実験器具アイテムのない作業デッキの部分を含む。この場合、シーンの背景領域を表示するピクセルは、通常、作業デッキの色が既知であるため、ホワイトバランスマトリックスのエントリの第1の値を決定するために使用され得る。
【0051】
この場合、較正パラメータの第1の値は、識別すべき物体を表示しないシーン部分、例えば、シーンの所与の背景部分を忠実に再現するように最適化される。したがって、例えば、カメラパラメータの第1の値を使用することによって撮像された画像は、ハイダイナミックレンジ(High-Dynamic-Range:HDR)アルゴリズムによって処理され、シーンの背景領域及び第1のシーン領域の両方が忠実に再現された画像が生成され得る。
【0052】
本発明のさらなる実施形態によれば、第1のピクセルのセットの各ピクセルについて、上記それぞれの位置情報により、第1の画像部分が上記各ピクセルを含むことが特定される場合、上記各ピクセルに関連付けられたそれぞれの位置情報は、第1の条件を満たす。
【0053】
例えば、第4のピクセルのセットが半径及び中心ピクセルを有する円である場合、第1のピクセルのセットの各ピクセルについて、上記各ピクセルに関連付けられたそれぞれの位置情報により、上記各ピクセル及び中心ピクセルの間の距離が半径より短い又はそれと等しいかどうかが特定される。この場合、具体的には、第1の条件は、上記距離が円の半径より短い又はそれと等しいという条件を含む。
【0054】
例えば、第1の画像部分が識別すべき物体を表示する場合、本実施形態では、カメラパラメータの第1の値の決定は、上記物体を表示するピクセルを使用することによって実行される。この場合、較正パラメータの第1の値は、したがって、ROI、すなわち、識別すべき物体を表示する画像部分を忠実に再現するように最適化される。したがって、例えば、カメラパラメータの第1の値を使用することによって撮像された画像は、HDRアルゴリズムによって処理され、シーンの背景部分及び第1のシーン領域の両方が忠実に再現された画像が生成され得る。
【0055】
本発明の一実施形態では、第1のピクセルのセットの各ピクセルについて、上記各ピクセルに関連付けられたそれぞれの位置情報により、第1の画像部分が上記各ピクセルを含むかどうかが特定される。例えば、第4のピクセルのセットが半径及び中心ピクセルを有する円である場合、第1のピクセルのセットの各ピクセルについて、上記各ピクセルに関連付けられたそれぞれの位置情報により、上記各ピクセル及び中心ピクセルの間の距離が半径より短い又はそれと等しいかどうかが特定される。
【0056】
本発明の方法のさらなる実施形態は、以下の段階をさらに備える。
-第1の画像内の第1の画像部分の場所を示す情報を取得する段階。
【0057】
第1の画像部分の場所を示す情報を取得する段階は、例えば、コンピューティングデバイスから上記情報を受信する段階を備え得る。あるいは、又は上記と併せて、第1の画像部分の場所を示す情報を取得する段階は、例えば、コンピューティングデバイス、その一次及び/又は二次メモリ、データベース、及び/又はクラウドから上記情報を取得する段階を備え得る。
【0058】
具体的には、第1の画像内の第1の画像部分の場所を示す情報を取得する段階は、第1の画像を使用することによって実行される。この場合、例えば、第1の画像内の第1の画像部分の場所を示す情報は、第1の画像のピクセルを処理して上記情報を生成するアルゴリズムを使用することによって取得され得る。
【0059】
本発明の方法のさらなる実施形態では、第1の領域内の第1の画像部分の場所を示す情報を取得する段階は、第1の画像内の第1の画像部分の場所を決定するための位置特定アルゴリズムを使用することによって実行され得る。
【0060】
アルゴリズムは、具体的には、入力情報を処理して出力情報を取得するための命令の集まり、例えば、シーケンスである。アルゴリズムの命令は、コンピュータに実装され、例えば、本発明によるデータ処理システムのプロセッサによって実行され得る。具体的には、アルゴリズムの入力情報は、アルゴリズムを実行するプロセッサによってアクセスされ得る入力データにエンコードされる。具体的には、プロセッサは、アルゴリズムの命令に従って入力データを処理し、通常は出力データにエンコードされる出力情報を生成する。本発明によれば、具体的には、アルゴリズムは、プロセッサによって実行されると、上記プロセッサにこれらのデータを処理させる命令を含む場合、アルゴリズムはデータを処理する。
【0061】
例えば、第1の画像内の第1の画像部分の場所を示す情報は、この部分の場所の推定値を示す情報からなり得る。具体的には、上記推定値は、位置特定アルゴリズムを使用することによって取得し得る。
【0062】
例えば、第1の画像部分の場所を示す情報を取得する段階は、位置特定アルゴリズムを使用することによって上記情報を生成する段階を有する。上記情報は、位置特定アルゴリズムの出力であり得、具体的には、上記アルゴリズムを実行することによって生成され得る。具体的には、位置特定アルゴリズムは、第1の画像のピクセルの第1の配列の各ピクセルの位置及び強度値を有する入力データを処理する。ピクセルの第1の配列は、第1のピクセルのセットを有し得、具体的には、第1の画像は、ピクセルの第1の配列からなり得る。位置特定アルゴリズムは、機械学習アルゴリズム、例えば、分類器を有し得る。
【0063】
位置特定アルゴリズムは、本発明の方法を実装するコンピューティングデバイスによって実行されると、上記デバイスに第1の画像のピクセルを処理させて、第1の画像が第1の物体を表示するかどうかを評価させ、それによって、出力データを生成する命令を有し得る。上記出力データは、第1の画像が第1の物体を有するかどうかを特定する情報、及び/又は第1の画像が第1の物体を表示する確率を特定する情報を有する。さらに、上記出力データは、第1の物体が第1の画像内に表示される場所の推定値を示す情報を有する。上記情報は、第1の物体を有する第1のシーン領域を表示する第1の画像部分の場所を示す情報を構成する。
【0064】
例えば、第1のシーン領域が第1の物体、例えば、第1の実験器具アイテムを有する場合、位置特定アルゴリズムは分類器を有し得る。具体的には、分類器は、マルチクラス分類を実行して、第1の物体がどのクラスに属するかを示す情報を生成する。さらに、上記分類は、第1の物体が第1の画像内に表示される場所の推定値を示す情報を生成する。次いで、後者の情報を使用して、第1の物体を有する第1のシーン領域を表示する第1の画像部分の場所を示す情報を生成する。分類器によって実行される分類は、第1の画像部分の位置の推定値を提供するためだけに使用されるため、分類器は特に正確である必要はない。具体的には、この場合、第1の物体の位置の十分に正確な推定値は、大規模な訓練手順及び/又は大規模な訓練データセットを必要とせずに達成され得る。
【0065】
位置特定アルゴリズムの使用により、上記情報を、例えば、ハードコーディングすることによって、及び/又はコンピュータの二次メモリに記憶することによって提供する必要なく、第1の画像の場所に関する情報を決定することを可能にする。このようにして、本発明の方法の実装が単純化され、人的エラーの原因を低減させる。例えば、カメラがALSに含まれている場合、作業デッキ上の実験器具アイテムの位置、したがって、カメラによって撮像されるシーンは、ALSが実行する必要がある実験法によって異なる。本実施形態によれば、位置特定アルゴリズムは、第1の画像部分の位置を示す情報に対応する変更をハードコード及び/又は記憶する必要なく、シーンの起こり得る変更を自動的に処理する。
【0066】
本発明の方法の一実施形態によれば、第1の領域内の第1の画像部分の場所を示す情報を取得する段階は、以下を使用することによって実行され得る。
o カメラに関連付けられた外部較正パラメータのセット、
o カメラに関連付けられた内部較正パラメータのセット、
o シーン及びカメラの互いの位置を示す情報、
o 第1のシーン領域の形状を示す情報、及び/又は
o シーン内の第1のシーン領域の場所を示す情報。
【0067】
具体的には、カメラに関連付けられた外部較正パラメータは、ワールドフレームに対する上記カメラの位置及び/又は向きをカメラモデル(ピンホールカメラモデルなど)に従って記述する。外部パラメータのセットは、3次元ワールド座標系からカメラの3次元座標系への変換を記述するのに適した外部較正パラメータを有し得る。具体的には、外部パラメータのセットは、3次元回転行列のエントリ及び3次元並進ベクトルの座標を決定するのに適したパラメータを有し得る。具体的には、3次元回転行列及び3次元並進ベクトルは、3次元ワールド座標系からカメラの3次元座標系への変換を記述する。外部パラメータのセットは、カメラを較正するために、外部較正方法を使用することによって取得され得る。
【0068】
具体的には、カメラに関連付けられた内部較正パラメータは、上記カメラの内部特性を記述し得、上記カメラを較正するために内部較正方法を使用することによって取得され得る。内部パラメータのセットは、カメラの3次元座標系から第1の画像の2次元座標への射影変換を記述するのに適した内部較正パラメータを有し得る。例えば、内部較正パラメータのセットは、カメラの焦点距離、光学中心、スケール係数、スキュー係数、主点座標、半径方向歪み係数、及び/又は接線方向歪み係数を有する。内部パラメータのセットは、カメラ行列のエントリ、例えば、焦点距離及び光学中心を決定するのに適したパラメータを有し得る。
【0069】
例えば、位置特定アルゴリズムが、内部較正パラメータのセットの要素及び/又は外部較正パラメータのセットの要素に依存するように、位置特定アルゴリズムによって処理される入力データは、内部較正パラメータのセットの要素及び/又は外部較正パラメータのセットの要素に依存、例えば、それらを有し得る。具体的には、外部較正パラメータのセット及び/又は内部較正パラメータのセットは、それぞれ、カメラに関連付けられた1つ又は複数の外部較正パラメータ及び/又は1つ又は複数の内部較正パラメータからなる。
【0070】
外部較正パラメータのセットの外部パラメータ及び/又は内部較正パラメータのセットの内部パラメータは、位置特定アルゴリズムによって使用されて第1の画像を処理し、それによって、上記アルゴリズムによって処理されるデータの品質が向上し得る。例えば、上記パラメータは、カメラの内部特性に対して第1の画像を調整するため、及び/又は第1の画像内に表示される作業デッキ及び/又は実験器具アイテムを位置合わせさせるために使用され得る。あるいは、又は上記と併せて、前述のパラメータは、第1の画像に描かれたシーンの幾何学的特徴に関する情報を取得するために、位置特定アルゴリズムによって使用され得る。例えば、外部及び/又は内部パラメータは、第1の画像内の物体のサイズを推定するため、及び/又は作業デッキ又は実験器具アイテムに対するカメラの場所を決定するために使用され得る。このようにして、第1の画像部分の位置を示す情報の精度が向上する。
【0071】
例えば、シーンがALSの作業デッキを有する場合、シーン及びカメラの互いの位置を示す情報は、作業デッキに対するカメラの焦点面の位置及び向きを示す情報を有し得る。例えば、後者の情報は、作業デッキがx、y平面内に位置する参照フレーム内の焦点面の少なくとも3つの点の座標を有し得る。焦点面が作業デッキに対して実質的に平行である場合、シーン及びカメラの互いの位置を示す情報は、前述の参照フレーム内の焦点面の1つの点の座標からなり得る。
【0072】
第1のシーン領域が第1の実験器具アイテム及び作業デッキの第1の部分を有する場合、第1のシーン領域の形状を示す情報は、第1の実験器具アイテムの形状を示す情報を有し得る。例えば、第1の実験器具アイテムがリザーバラックである場合、第1のシーン領域の形状を示す情報により、第1のシーン領域が概して平行六面体の形状を有することが特定される。
【0073】
第1のシーン領域が第1の実験器具アイテム及び作業デッキの第1の部分を有する場合、シーン内の第1のシーン領域の場所を示す情報により、作業デッキに対する第1の実験器具アイテムの場所が特定され得る。例えば、上記情報は、第1の実験器具アイテムが位置決めされているか又は位置決めされることが予期される、作業デッキの領域の場所に関する情報を有し得る。
【0074】
例えば、位置特定アルゴリズムによって処理された入力データは、シーン及びカメラの互いの位置を示す情報、第1のシーン領域の形状を示す情報、及び/又はシーン内の第1のシーン領域の場所データを示す情報に依存、例えば、それらを有し得る。
【0075】
シーンに関する情報及び/又は第1のシーン領域に関する情報は、第1の画像部分の場所がシーン内の第1のシーン領域の位置に依存するため、第1の画像部分の上記場所の決定の精度を高めることを可能にする。この精度は、シーン及びカメラの互いの位置を示す情報が、第1のシーン領域の形状及び/又は場所に関する情報と組み合わされると、さらに向上する。
【0076】
さらに、シーンに関する情報及び/又は第1のシーン領域に関する情報は、第1の画像領域を表示する第1の画像の部分、例えば、第1の画像部分の比較的正確な位置特定を可能にする。したがって、本実施形態では、第1の条件によってエンコードされる位置制約は、第1のシーン領域に対する第1の複数のピクセルによって表示される特徴の位置の比較的正確なピクセルベースの記述に基づいている。したがって、シーンの特徴に対する本発明の較正の適応性がさらに向上する。
【0077】
本発明の方法の一実施形態は、以下の段階を備える。
-カメラパラメータの少なくとも第1の値を使用することによって第2の画像を取得する段階。
【0078】
本実施形態では、具体的には、カメラパラメータは露出時間であり、及び/又は第2の画像はシーンを表示する。具体的には、本実施形態では、第1のシーン領域は、識別される第1の物体、例えば、第1の実験器具アイテムを有し、第1の画像部分は、上記物体の少なくとも一部、例えば、第1の物体全体を表示する。さらに、本発明の方法は、第2の画像を使用することによって第1の物体を識別する段階をさらに備え得る。
【0079】
本実施形態では、カメラパラメータの第1の値は、識別される第1の物体を表示するピクセルを使用することによって決定される。したがって、カメラパラメータの第1の値を使用することによって撮像される第2の画像は、上記物体の忠実な表現を提供する。このようにして、物体の識別の精度が向上する。
【0080】
カメラパラメータの値を使用することによって画像を取得する段階は、カメラパラメータを上記値に設定してカメラを使用することによって上記画像を撮像する段階を有し得る、例えば、撮像する段階からなり得る。この段階は、例えば、コンピューティングデバイス及び/又はカメラの一次又は二次メモリに上記画像を記憶する段階、及び上記画像にアクセスする段階をさらに有し得る。
【0081】
第2の画像を取得する段階は、カメラパラメータの第1の値を使用することによって第1の画像を修正する段階を有し得る、例えば、修正する段階からなり得る。例えば、カメラパラメータの第1の値を決定する段階が、式(8)で定義される値v
1、v
2、及び、v
3を決定する段階を有する場合、第2の画像は、以下の行列を使用することによって第1の画像のピクセルの強度を修正することによって取得され得る。
【数8】
具体的には、第2の画像は第1の画像のピクセルからなり、第2の画像では、ピクセルiの強度はトリプレット(R
'i G
'i B
'i)によって表され、ここで、第2の画像の各ピクセルiについて、以下の関係が成立する。
(R
'i G
'i B
'i)=W
1(R
i G
i B
i)
T=(v
1R
i v
2G
i v
3B
i)
T (12)
式(12)では、記号「T」は転置操作を表し、トリプレット(R
i G
i B
i)は第1の画像内のピクセルの強度を表す。
【0082】
本発明の方法の一実施形態は、以下の段階を備える。
-カメラパラメータの少なくとも第2の値を使用することによって第3の画像を取得する段階;及び
-第2の画像、第3の画像、及びハイダイナミックレンジ(HDR)アルゴリズムを使用することによって第4の画像を構築する段階。
【0083】
本実施形態では、例えば、カメラパラメータは露出時間である。具体的には、第3の画像はシーンを表示し、及び/又は第3の画像は第1の画像である。
【0084】
画像は、ダイナミックレンジと呼ばれる所与の輝度間隔内に含まれる輝度値を有するシーンの特徴を忠実に表示できる。ダイナミックレンジ外の輝度値を有するシーンの特徴は、画像では識別できない。具体的には、輝度間隔の下端点よりも小さい輝度を有するシーンの特徴は黒く見え、ダイナミックレンジの上端点よりも大きい輝度値を有するシーンの特徴は白く見える。一般に、ダイナミックレンジに含まれる輝度値は、画像を撮像するために使用されるカメラパラメータの値、例えば、露出時間に依存する。
【0085】
具体的には、HDRアルゴリズムは、同じシーンを描写する複数の入力画像を処理して、入力画像のダイナミックレンジより大きいダイナミックレンジを有するHDR画像、例えば、第4の画像を構築する。このようにして、HDR画像は、非常に明るい領域及び非常に暗い領域の両方を含むシーンを忠実に表示できる。例えば、HDRアルゴリズムは、露出融合法を使用することによって複数の入力画像の画像を融合させることによってHDR画像を構築し得る。
【0086】
具体的には、複数の入力画像は、第2及び第3の画像を有する。複数の入力画像の各入力画像は、異なる画像がカメラパラメータの異なる値に関連付けられるように、カメラパラメータを上記各画像に関連付けられたそれぞれの値に設定されたカメラを使用することによって撮像される。したがって、具体的には、カメラパラメータの第1の値は、カメラパラメータの第2の値とは異なる。複数の入力画像の画像は、露出ブラケット技術を使用することによって撮像し得る。
【0087】
本発明の方法の一実施形態は、第4の画像を使用することによって第1の物体を識別する段階をさらに備える。本実施形態では、カメラパラメータの第1の値は、識別される第1の物体を表示するピクセルを使用することによって決定される。したがって、カメラパラメータの第1の値を使用することによって撮像される第2の画像は、第1の物体の忠実な表現を提供する。さらに、第4の画像は、HDRアルゴリズムによって第2の画像を第3の画像と組み合わせることによって取得され、したがって、第2及び第3の画像によって提供されるものよりも忠実なシーンの表現を提供する。このようにして、第1の物体の識別の精度が向上する。
【0088】
本発明の方法は、第2及び/又は第4の画像を使用することによって第1の物体を識別する段階を備え得る。具体的には、第1の物体は、第1のシーン領域に含まれ得る。具体的には、第1の物体を識別する段階は、識別アルゴリズムを使用することによって実行され得る。例えば、上記アルゴリズムは、第2及び/又は第4の画像、例えば、第2及び/又は第4の画像のピクセルをそれぞれ処理して、識別データを生成する。識別アルゴリズムはまた、利用可能な場合、第1の物体がどのクラスに属するかを示す情報を処理し、それによって、第1の物体の識別の精度を高める。
【0089】
識別データは、第2及び/又は第4の画像内の第1の物体の位置の位置推定を示す情報を含み得る。識別データはまた、この位置推定の信頼性を示す情報を含み得る。あるいは、又は上記と併せて、識別データは、第1の物体が何であるかの推定を示す情報、及び任意選択で、上記推定の信頼性を示す情報を含み得る。
【0090】
本方法の一実施形態によれば、識別アルゴリズムは、少なくとも機械学習アルゴリズムを含む。具体的には、機械学習アルゴリズムは、出力情報を取得するために入力情報を処理するための命令を含み、これらの命令の少なくともいくつかは、トレーニングデータのセット及びトレーニングアルゴリズムを使用することによって設定される。機械学習アルゴリズムは、人工ニューラルネットワーク(Artificial Neural Network:ANN)、決定木、ランダムフォレスト、サポートベクターマシン(Support Vector Machine:SVM)、又は同様のものを含み得る。例えば、第1の機械学習アルゴリズムは、AlexNetなどの畳み込みニューラルネットワーク及び/又はディープニューラルネットワークであり得る。
【0091】
本発明の方法のさらなる実施形態によれば、第1のシーンは第2のシーン領域を含み、第2のシーン領域は第1の画像の第2の画像部分に表示され、第1の画像は第2のピクセルのセットを含む。さらに、上記実施形態は、以下の段階を備える。
-前記第2のピクセルのセットの各ピクセルについて、前記各ピクセルに関連付けられたそれぞれの第2のデータ項目を生成する段階、ここで、前記それぞれの第2のデータ項目は、前記各ピクセルに関連付けられたそれぞれの位置情報を有し、前記それぞれの位置情報は、前記第1の画像内の前記第2の画像部分の場所に対する前記各ピクセルの前記第1の画像内の前記位置を示す;及び
-前記第2のピクセルのセットの少なくとも第2の複数のピクセルを使用することによって前記カメラパラメータの前記第2の値を決定する段階、ここで、前記第2の複数のピクセルの各ピクセルについて、前記各ピクセルに関連付けられた前記それぞれの位置情報は、第2の条件を満たす。
【0092】
具体的には、第2のシーン領域は、第2の識別すべき物体を有する。例えば、第1のシーンは、ALSの作業デッキ及び、作業デッキ上に位置決めされた第2の実験器具アイテムを有し得、第2の実験器具アイテムは、識別される物体である。この場合、第2の画像領域は、第2の実験器具アイテム及び作業デッキの少なくとも第2の領域を有し得る。具体的には、第2のシーン領域は、互いに切り離された複数のシーン領域からなり得る。
【0093】
第2の画像部分は、第1の画像の第5のピクセルのセットからなり得る。具体的には、第5のピクセルのセットは、第2のシーン領域を表示すると推定されるピクセルを有する、例えば、それらからなる。具体的には、第2の画像は、第2のピクセルのセットからなり得る。具体的には、第1のシーン画像部分は、互いに切り離された複数の画像部分からなり得る。具体的には、第2のピクセルのセットは、第1のピクセルのセットと等しくなり得る。
【0094】
具体的には、第1の画像内の第2の画像部分の場所は、この場所を示す情報によって特定され得る。例えば、上記情報は、第5のピクセルのセットの各ピクセルの第1の画像内の位置を示す情報を有する。例えば、第5のピクセルのセットは、第1の画像の矩形グリッドである。第1の画像内の第2の画像部分の場所を示す情報をエンコードするために、そこに含まれる情報が取得され正しく解釈され得る限り、任意の構造フォーマットが使用され得る。
【0095】
第2のピクセルのセットの各ピクセルについて、第2の画像部分の場所に対する上記各ピクセルの位置を示す情報により、上記各ピクセルが第2の画像部分、例えば、第5のピクセルのセットに含まれるかどうかが特定され得る。あるいは、又は上記と併せて、第2の画像部分の場所に対する上記各ピクセルの位置を示す情報により、上記各ピクセル及び第2の画像部分の間の距離が特定され得る、及び/又は上記距離が特定された距離値より長いかどうかが特定され得る。例えば、ピクセル及び第2の画像部分の間の距離は、上記ピクセル及び第5のピクセルのセットの参照ピクセルの間の距離であり得る。
【0096】
例えば、第2のピクセルのセットの各ピクセルについて、上記各ピクセルに関連付けられた第2のデータ項目は、上記各ピクセルに関連付けられた情報を生成することによって、上記各ピクセルに関連付けられた第2のデータ項目に上記情報をエンコードすることによって、及び上記第2のデータ項目をコンピューティングデバイスの一次及び/又は二次メモリに記憶することによって生成され得る。
【0097】
第1のピクセルのセットの各ピクセルについて、上記各ピクセルに関連付けられた情報は、第2の情報生成アルゴリズムの出力であり得る。具体的には、第2の情報生成アルゴリズムは、第1の画像内のピクセルの位置を処理して、上記ピクセルが第2の画像部分、例えば、第5のピクセルのセットに含まれるかどうかを評価し得る。あるいは、又は上記と併せて、第2の情報生成アルゴリズムは、第1の画像内のピクセルの位置を処理して、上記ピクセル及び第5のピクセルのセットの参照ピクセルの間の距離を決定し、任意選択で、上記距離が特定された距離値より長い又はそれに等しい距離であるかどうかを評価し得る。
【0098】
例えば、第2のピクセルのセットの各ピクセルについて、それに関連付けられた第2のデータ項目がブールデータ型を有する場合、第2の条件は、第2のデータ項目の値が「真」であるという条件を有し得る。第2のピクセルのセットの各ピクセルについて、上記各ピクセルに関連付けられた第2のデータ項目の値により、上記各ピクセル及び参照ピクセルの間の距離が特定される場合、第2の条件は、第2のデータ項目が特定された距離値より大きい又はそれに等しいという条件を有し得る。具体的には、第2の複数のピクセルの各ピクセルについて、上記各ピクセルに関連付けられたそれぞれの位置情報は、少なくともさらなる条件を満たし得る。
【0099】
カメラパラメータの第1の値を決定する段階は、決定アルゴリズムを使用することによって実行され得る。具体的には、この場合、決定アルゴリズムは、第2の複数のピクセルの少なくとも各ピクセルの強度を処理して、カメラパラメータの第2の値を決定する。カメラパラメータの第2の値を決定する段階は、カメラパラメータのセットの各カメラパラメータについて、上記各カメラパラメータのそれぞれの第2の値を決定する段階を含み得る。
【0100】
本実施形態では、カメラパラメータの第2の値は、第2のシーン領域を表示するピクセルを使用することによって決定される。したがって、カメラパラメータの第2の値を使用することによって撮像された第3の画像は、第2のシーン領域の忠実な表現を提供する。さらに、HDRアルゴリズムによって第2の画像を第3の画像と組み合わせることによって取得される第4の画像は、第2及び第3の画像によって提供されるものよりも忠実である、第1及び第2のシーン領域の表現を提供する。
【0101】
具体的には、本実施形態では、第2のシーン領域は、識別される第2の物体、例えば、第2の実験器具アイテムを有し得、第2の画像部分は、上記物体の少なくとも一部、例えば、第2の物体全体を表示する。さらに、本発明の方法は、第4の画像を使用することによって、第2の物体を識別する段階をさらに備え得る。
【0102】
本実施形態では、この識別は第4の画像を使用することによって実行され、上記画像は第2及び第3の画像によって提供されるものよりも忠実なシーンの表現を提供するため、第1及び第2の物体の識別の精度が向上する。
【0103】
本発明の一実施形態では、第1のピクセルのセットの各ピクセルについて、上記各ピクセルに関連付けられたそれぞれの第1のデータ項目を生成する段階は、第1の画像部分の形状を示す情報を使用することによって実行される。
【0104】
例えば、第4のピクセルのセットが第1の画像の円である場合、第1の画像部分の形状を示す情報は、第4のピクセルのセットの半径の値を含み得る。例えば、第4のピクセルのセットが第1の画像の矩形グリッドである場合、第1の画像部分の形状を示す情報は、矩形グリッドの底辺の値及び高さの値を含み得る。例えば、第1の画像部分の形状を示す情報は、上記部分の形状の推定値を示す情報からなり得る。
【0105】
第1の画像部分の形状を示す情報は、第1の画像内の第1の画像部分の場所を示す情報の少なくとも一部を生成するために使用され得る。より具体的には、第1の画像部分の形状を示す情報は、第4のピクセルのセットを構築するために使用され得る。例えば、後者の情報により、第1の画像部分が所与の半径Rを有する円であることが特定され、第1の画像部分の場所を示す情報により、第1の画像の中心ピクセルCの位置が特定される。この場合、第4のピクセルのセットは、以下の関係d(C,P)≦Rを満たす第1の画像の各ピクセルPを選択することによって構築され得る。
【0106】
第1のシーン領域が第1の実験器具アイテム及び作業デッキの第1の部分を有する場合、第1の画像部分の形状を示す情報は、焦点面の視点から見た第1の実験器具アイテムの境界を示す情報を有し得る。例えば、焦点面は、作業デッキと実質的に平行であり得、第1の実験器具アイテムは、概して平行六面体の形状を有するリザーバラックであり得る。この場合、第1の画像部分の形状は、焦点面の視点から見た第1の実験器具アイテムの境界に対応し、リザーバラックに対する焦点面の位置に応じて、矩形又は六角形であり得る。したがって、この場合、第1の画像部分の形状を示す情報により、第1の画像部分が矩形又は六角形の形状であることが特定される。
【0107】
具体的には、第1の画像部分の形状は、第1のシーン領域の形状を示す情報に基づき得る、及び/又は有し得る。後者の情報は、例えば、第1の画像部分の、第1の画像領域を表示する第1の画像の部分のより正確な位置特定を可能にする。したがって、第1の条件によってエンコードされる位置制約は、第1のシーン領域に対する第1の複数のピクセルによって表示される特徴の位置の比較的正確なピクセルベースの記述に基づいている。それによって、シーンの特徴に対する本発明の較正の適応性がさらに向上する。
【0108】
具体的には、本発明の方法は、以下の段階を備える。
-少なくとも第1の画像及び、第1の画像内の第1の画像部分の形状を取得するための形状決定アルゴリズムを使用することによって、第1の画像部分の形状を示す情報を取得する段階。
【0109】
具体的には、位置特定アルゴリズムは、形状決定アルゴリズムを有し得る。位置特定アルゴリズムは、形状決定アルゴリズムであり得、すなわち、位置特定アルゴリズムは、第1の画像部分の形状を示す情報を取得する段階及び、第1の画像内の第1の画像部分の場所を示す情報を取得する段階の両方を実行し得る。
【0110】
例えば、第1の画像部分の形状を示す情報を取得する段階は、形状決定アルゴリズムを使用することによって上記情報を生成する段階を有する。上記情報は、形状決定アルゴリズムの出力であり得、具体的には、上記アルゴリズムを実行することによって生成され得る。具体的には、形状決定アルゴリズムは、前述のピクセルの第1の配列の各ピクセルの位置及び強度値を有する入力データを処理する。あるいは、又は上記と併せて、形状決定アルゴリズムによって処理される入力データは、第1のシーン領域の形状を示す情報を有し得る。
【0111】
例えば、第1の画像部分の形状を示す情報が、上記部分の形状の推定値を示す情報からなり得る場合、上記推定値は、形状決定アルゴリズムを使用することによって取得され得る。
【0112】
形状決定アルゴリズムの使用により、上記情報を、例えば、ハードコーディングすることによって、及び/又はコンピュータの二次メモリに記憶することによって提供する必要なく、第1の画像の形状に関する情報を取得することを可能にする。このようにして、本発明の方法の実装が単純化され、人的エラーの原因を低減させる。
【0113】
本発明の方法のさらなる実施形態によれば、少なくとも第1のピクセルのセットを使用することによってカメラパラメータの第1の値を決定する段階は以下を有する。
・ 第3のピクセルのセットの少なくとも各ピクセルについて、上記各ピクセルに関連付けられたそれぞれの位置情報が第1の条件を満たしているかどうかを少なくともチェックすることによって、第1の複数のピクセルを選択する段階。
【0114】
第1のピクセルは、第3のピクセルのセットの各ピクセルを有し得、例えば、第3のピクセルのセットは、第1のピクセルのセットと等しくなり得る。具体的には、第1の複数のピクセルは、第3のピクセルのセットのピクセルの中から選択される。
【0115】
例えば、第1のピクセルのセットの各ピクセルについて、それに関連付けられたそれぞれの第1のデータ項目がブールデータ型を有する場合、第1の複数のピクセルの選択は、第3のピクセルのセットの各ピクセルについて、上記各ピクセルに関連付けられた、それぞれの第1のデータ項目の値が「真」であるかどうかを少なくともチェックすることによって実行される。第1の複数のピクセルを選択する段階は、第3のピクセルのセットを使用することによって第1の複数のピクセルを構築することによって実行され得る。
【0116】
具体的には、第1の複数のピクセルを選択する段階は、第3のピクセルのセットの各ピクセルについて、上記各ピクセルに関連付けられたそれぞれの位置情報にアクセスする段階、上記位置情報が第1の条件を満たすかどうかをチェックする段階、及び上記各ピクセルに関連付けられた情報が第1の条件を満たす場合、上記各ピクセルを使用してカメラパラメータの第1の値を決定する段階を有する。
【0117】
具体的には、第1の複数のピクセルを選択する段階は、第3のピクセルのセットを選択する段階を有し得る。例えば、第3のピクセルのセットを選択する段階は、第1のピクセルのセットを使用することによって第3のピクセルのセットを構築することによって実行され得る。例えば、第3のピクセルのセットの構築は、第1のピクセルのセットの複数のピクセルをランダムに選択することによって実行され得る。具体的には、上記ランダム選択は、ランダム選択アルゴリズムを使用することによって実行され得る。例えば、ランダム選択アルゴリズムは、以下を有する。
・ 第1のピクセルのセットの各ピクセルに、上記各ピクセルに関連付けられたそれぞれのブール変数をランダムに関連付けること、上記各ピクセルに関連付けられたそれぞれのブール変数は、「真」又は「偽」のいずれかに等しい;及び
・ 上記各ピクセルに関連付けられたそれぞれのブール変数が「真」に等しくなるように、第1のピクセルのセットの各ピクセルを選択することによって、第3のピクセルのセットを構築すること。
【0118】
ランダムな関連付けは、第1のピクセルのセットの各ピクセルについて、値「真」が第1の確率値に関連付けられ、値「偽」が第2の確率値に関連付けられるように実行され得る。例えば、第1の確率値及び第2の確率値の間の比率は、0.1よりも低く、具体的には0.01よりも低く、より具体的には0.001よりも低い。
【0119】
ランダム選択アルゴリズムを使用することによる第3のピクセルのセットの構築及び第1の複数のピクセルの選択は、カメラパラメータの第1の値の決定のロバスト性を調査することを可能にする。例えば、本発明の方法は、さらなる複数のピクセルを使用することによって、カメラパラメータのさらなる値を決定する段階を有し得る。上記さらなる複数のピクセルの各ピクセルは、第1の条件を満たし、さらなるピクセルのセットの中から選択される。上記さらなるピクセルのセットは、第1のピクセルのセット及びランダム選択アルゴリズムを使用することによって選択される。この場合、カメラパラメータの第1の値の決定のロバスト性は、カメラパラメータの第1の値及びカメラパラメータの前述のさらなる値を比較し、上記値が互いに有意に異なるかどうかを評価することによって推定され得る。
【0120】
本発明の方法のさらなる実施形態では、第1の画像にアクセスする段階は、カメラを使用することによって第1の画像を取得する段階を有する。例えば、第1の画像を取得する段階は、カメラパラメータの第1の値とは異なる値に設定されたカメラパラメータを使用してカメラを使用することによって上記画像を撮像する段階を有する。
【0121】
本発明の一実施形態によれば、第1のピクセルのセットの各ピクセルについて、上記各ピクセルに関連付けられたそれぞれの第1のデータ項目は、ブールデータ型を有する。
【0122】
本発明の方法のさらなる実施形態では、第1のピクセルのセットの各ピクセルについて、上記各ピクセルに関連付けられたそれぞれの第1のデータ項目は、第3の値又は第4の値を仮定でき、ここで、上記第1のデータ項目は、上記各ピクセルが第1の画像領域に含まれる場合には第3の値をとり、上記各ピクセルが第1の画像領域の外側に配置される場合には第4の値をとる。本実施形態によれば、第1のピクセルのセットの各ピクセルについて、上記各ピクセルに関連付けられたそれぞれの第1のデータ項目が第3の値をとる場合、上記各ピクセルに関連付けられたそれぞれの位置情報は、第1の条件を満たす。具体的には、第3及び第4の値は、それぞれ「真」及び「偽」に等しくなり得る。あるいは、第3及び第4の値は、それぞれ「偽」及び「真」に等しくなり得る。
【0123】
具体的には、シーンは、自動実験システムの作業デッキを有し、第1のシーン領域は、作業デッキの領域及び/又は実験器具アイテムの少なくとも一部を有する。例えば、第1のシーン領域は実験器具アイテムを有し得る。
【0124】
具体的には、本発明によれば、実験器具アイテム、例えば、第1及び/又は第2の実験器具アイテムは、臨床又は実験環境で使用するための容器を含むか、又は容器からなる。この容器は、ガラス、プラスチック、金属及び同様のもので作製され得る。例えば、実験器具アイテムは、上部、蓋、及び/又は底部を含み得る培養皿を有し得るか、又はそれからなり得る。さらに、実験器具アイテムは、サンプルバイアル及び/又は試験管を有するか、又はそれらからなる。実験器具アイテムは、単回使用用、複数回使用用、及び/又は使い捨て用であり得る。本発明によれば、実験器具アイテム、例えば、第1及び/又は第2の実験器具アイテムは、プレート、チップ、チューブ、リザーバ、チップボックス、高さアダプタ、リザーバラック及び/又はチューブラックを有するか、又はそれらからなり得る。
【0125】
本発明の方法の段階が本明細書で記載される順序は、上記段階が実行される時系列の順序を必ずしも反映するものではない。
【発明の概要】
【0126】
本発明は、本発明による方法を実行するように構成された処理手段を備えるデータ処理システムに関する。本発明はまた、本発明のデータ処理システムを備える自動実験システムにも関する。具体的には、本発明による自動実験システムは、カメラ、本発明による方法を実行するように構成された処理手段、及び実験器具アイテムを位置決めするための作業デッキを備える。
【0127】
本発明はまた、プログラムがコンピュータによって実行されると、上記システムに本発明による方法を実行させる命令を有するコンピュータプログラム製品にも関する。
【0128】
本発明はまた、コンピュータによって実行されると、上記システムに本発明による方法を実行させる命令を有するコンピュータ可読記憶媒体にも関する。具体的には、コンピュータ可読記憶媒体は非一時的である。
【0129】
本発明の例示的な実施形態を、添付の図面に関して以下に説明する。図面及び対応する詳細な説明は、単に本発明をよりよく理解するためのものであり、特許請求の範囲で定義される本発明の範囲を何ら限定するものではない。
【図面の簡単な説明】
【0130】
【
図1】本発明によるデータ処理システムの一実施形態の概略図である;
【
図2】本発明の方法の第1の実施形態の動作の流れ図である;
【
図3a】本発明の方法の第1の実施形態によってアクセスされる第1の画像の概略図である;
【
図3b】本発明の方法の第1の実施形態によってアクセスされる第1の画像の概略図である;
【
図4】本発明の方法の第2の実施形態の動作の流れ図である;及び
【
図5a】本発明の方法の第2の実施形態によってアクセスされる第1の画像の概略図である。
【
図5b】本発明の方法の第2の実施形態によってアクセスされる第1の画像の概略図である。
【発明を実施するための形態】
【0131】
図1は、本発明によるデータ処理システム(Data Processing System:DPS)100の第1の実施形態の概略図である。上記データ処理システム100は、コンピューティングデバイス又はそのクラスタを備え得る。DPS100は、互いにデータ通信する処理要素110及び記憶手段120を有する。処理要素110は、CPU及び/又はGPUからなるか又はこれらを有し得、本発明の方法の段階を実行するように構成された、いくつかのモジュール111~114を有する。
【0132】
記憶手段120は、揮発性一次メモリ121(例えば、RAM、DRAM、SRAM、CPUキャッシュメモリ、又は同様のもの)及び/又は不揮発性一次メモリ122(例えば、ROM、PROM、EPROM、又は同様のもの)を有し得る。具体的には、揮発性一次メモリはRAMからなり得る。例えば、揮発性一次メモリ121は、処理要素及び関連データによる実行のためのプログラムファイルを一時的に保持し、不揮発性一次メモリ122は、DPS100のオペレーティングシステムのためのブートストラップコードを含み得る。
【0133】
記憶手段120は、本発明の方法を実行するために使用されるオペレーティングシステム及び/又はアルゴリズムの命令を記憶し得る二次メモリ123をさらに有し得る。さらに、二次メモリ123は、コンピュータプログラム製品がDPS100によって実行されると、本発明による方法をDPS100に実行させる命令を有するコンピュータプログラム製品を記憶し得る。
【0134】
二次メモリ123、一次メモリ121、122、及び処理要素110は、同じハウジング内に物理的に収容する必要はなく、代わりに互いに空間的に分離され得る。具体的には、二次メモリ123、一次メモリ121、122、及び処理要素110は、互いに空間的に分離され得、有線及び/又は無線媒体(図示せず)を介して互いにデータを交換し得る。
【0135】
DPS100は、DPS100が入力/出力デバイス(例えば、ディスプレイ、キーボード、タッチスクリーン、プリンタ、マウス、カメラ、又は同様のもの)と通信できるようにする入力/出力(I/O)インターフェース140を備え得る。DPS100は、DPS100を適切なネットワーク(図示せず)に接続するように構成されたネットワークインターフェースコントローラ(Network Interface Controller:NIC)130をさらに備え得る。本発明によれば、適切なネットワークは、例えば、イントラネット、インターネット、又はセルラーネットワークであり得る。
【0136】
データ処理システム100は、デジタルカメラ150を備える。具体的には、カメラ150はグレースケール又は多色カメラである。カメラ150は、第1の画像を取得するように構成され、フォトカメラ及び/又はビデオカメラであり得る。
図1に示すように、カメラ150は、I/Oインターフェース140を介して処理要素110に接続され得る。例えば、カメラ150は、NIC130を介してI/Oインターフェースに無線で接続され得る。カメラ150は、I/Oインターフェース140又は周辺デバイスと共に使用するための関連付けられた命令及びデータを記憶するためのそれ自体のメモリを有するインテリジェントデバイスであり得る。
【0137】
処理要素110は、本発明の方法を実行するように構成された、いくつかのモジュール111~114を有する。アクセスモジュール111は、カメラ150によって撮像された第1の画像にアクセスするように構成される。具体的には、アクセスモジュール111は、カメラ150を操作して第1の画像を取得するように構成される。処理要素110は、第1の画像内の第1の画像部分の場所を示す情報を取得するように構成された取得モジュール114を有する。生成モジュール112は、第1のピクセルのセットの各ピクセルについて、上記各ピクセルに関連付けられたそれぞれの第1のデータ項目を生成するように構成される。処理要素110は、第1のピクセルのセットの少なくとも第1の複数のピクセルを使用することによって、カメラパラメータの第1の値を決定するように構成された決定モジュール113を有する。
【0138】
具体的には、アクセスモジュール111は、第2及び/又は第3の画像にアクセスするように構成される。例えば、アクセスモジュール111は、カメラ150を操作して第2及び/又は第3の画像を取得するように構成される。具体的には、取得モジュール114は、第1の画像内の第2の画像部分の場所を示す情報を取得するように構成され、及び/又は生成モジュール112はまた、第2のピクセルのセットの各ピクセルについて、上記各ピクセルに関連付けられたそれぞれの第2のデータ項目を生成するように構成される。例えば、決定モジュール113は、第1のピクセルのセットの少なくとも第2の複数のピクセルを使用することによって、カメラパラメータの第2の値を決定するように構成される。さらに、処理要素110は、第2の画像、第3の画像、及びHDRアルゴリズムを使用することによって、第4の画像を構築するように構成された構築モジュール(図示せず)を有し得る。処理要素110は、画像、例えば、第2及び/又は第4の画像を使用することによって、実験器具アイテムを識別するように構成された識別モジュール(図示せず)をさらに有し得る。
【0139】
例えば、DPS100は、カメラ150を含むコンピュータシステムであり得、より具体的には、スマートフォン、デスクトップコンピュータ、タブレット、ラップトップ又は同様のものであり得る。さらに、DPS100は、本発明によるALS、具体的には、自動ピペッティングシステムであり得る。この場合、DPS100は、1つ又は複数の実験器具アイテムを位置決めするための作業デッキ(図示せず)及び/又は液体移送用のピペッティングヘッド(図示せず)を備える。ピペッティングヘッドは、サーボモータ及び/又はステッパモータによって作業デッキに対して移動可能であり得る。
【0140】
図2は、本発明の方法による第1の実施形態の動作の流れ
図200である。具体的には、本実施形態は、上記で説明され、
図1に概略的に示すDPS100によって実行され得る。具体的には、方法の第1の実施形態は、露出値の第1の値E
v,1の決定を実行する。カメラ150は、シーン(図示せず)が作業デッキ、ALS100が位置決めされるテーブルのテーブル部分、及び実験器具アイテムを有するように、作業デッキに対して配置される。例えば、実験器具アイテムは、96 MTPプレートであり得る。第1のシーン領域(図示せず)は、実験器具アイテム及び作業デッキの部分を有する。
【0141】
ステップ210において、DPS100は、
図3a及び
図3bに概略的に示す第1の画像300にアクセスする。具体的には、DPS100は、露出値をE
v,0に設定し、露出時間をE
t,1に設定し、及び/又はF値をF
0に設定して、カメラ150を使用することによって画像300を撮像する。具体的には、第1の画像300は、DPS100の記憶手段120に記憶される。本実施形態では、第1の画像300は、第1のピクセルのセットからなる。
【0142】
図3aに最もよく示すように、第1の画像300は、DPS100の作業デッキ370の上面図を表示する。作業デッキ370は、廃棄物容器590を有する。実験器具アイテム310は、作業デッキ370の領域上に位置決めされ、12列及び8行に分散された96個のウェル312を有する。実験器具アイテム310は、2つの英数字311、313のセットをさらに有する。英数字311の第1のセットは、文字A、B、C、D、E、F、G及びHを示す列を形成する。英数字313の第2のセットは、1~12までの数字を示す行を形成する。具体的には、実験器具アイテム310のウェル312は、第1の化合物を含む。
【0143】
ステップ220において、DPS100は、第1の画像300内の第1の画像部分の場所を示す情報を取得する。この情報は、第1の画像300及び第1の位置特定アルゴリズムを使用することによって取得される。第1の位置特定アルゴリズムは、第1のピクセルのセットの各ピクセルの位置及び強度値を有する第1の入力データを処理する。第1の画像300内の第1の画像部分の場所を示す情報は、第1の位置特定アルゴリズムを実行することによって生成される出力である。
【0144】
第1の位置特定アルゴリズムは、DPS100の処理要素110によって実行されると、処理要素110に、第1の画像300が少なくとも実験器具アイテムを表示するかどうかを評価させ、肯定の場合、上記実験器具アイテムを表示するピクセルの第1の画像内の場所の推定値を提供する命令を有する。具体的には、第1の位置特定アルゴリズムは、第1の画像が96 MTPプレート、フィルタ付き1000μlチップボックス、55mm高さアダプタ、及び/又はリザーバラックを表示するかどうかを評価する。
【0145】
DPS100は、第1の位置特定アルゴリズムの命令を実行し、それによって、第1の出力データを生成する。第1の出力データは、ピクセルの第1の矩形グリッド391が実験器具アイテム、すなわち、実験器具アイテム310を表示することを指定する情報を含み、これは、96 MTPプレート、フィルタ付き1000μlチップボックス、55mm高さアダプタ又はリザーバラックであり得る。
図3bでは、ピクセルの第1の矩形グリッド391は、一点鎖線の矩形341によってマークされ、頂点としてピクセル365~368を有する。
図3bに最もよく示すように、第1の矩形グリッド391は、第1のシーン領域、すなわち、実験器具アイテム310及び作業デッキ370の第1の部分371を表示する。第1の出力データは、ピクセルの第1の矩形グリッド391の場所を示す情報を有し、具体的には、第1の出力データにより、前述のピクセル365~368の各々の2次元画像座標が特定され得る。第1の矩形グリッド391は、第1の画像部分、すなわち、第4のピクセルのセットを構成し、第1の画像300内の矩形グリッド391の場所を示す情報は、第1の画像内の第1の画像部分の場所を示す情報を構成する。
【0146】
ステップ230において、DPS100は、第1のピクセルのセットの各ピクセルについて、上記各ピクセルに関連付けられたそれぞれの第1のデータ項目を生成する。第1のピクセルのセットの各ピクセルについて、上記各ピクセルに関連付けられたそれぞれの第1のデータ項目は、上記各ピクセルに関連付けられたそれぞれの位置情報を有し、上記それぞれの位置情報は、第1の画像内の第1の画像部分391の場所に対する上記各ピクセルの第1の画像300内の位置を示す。
【0147】
第1のピクセルのセットの各ピクセルについて、上記各ピクセルに関連付けられたそれぞれの第1のデータ項目はブールデータ型を有する。具体的には、第1のピクセルのセットの各ピクセルについて、それぞれの第1のデータ項目の値は、上記各ピクセルが第1の画像部分391に含まれる場合は「真」であり、上記各ピクセルが第1の画像部分391に含まれない場合は「偽」である。第1のピクセルのセットのピクセルに関連付けられた第1のデータ項目は、複数のエントリを含む配列データ構造に記憶される。具体的には、上記データ構造は、DPS100の記憶手段120に記憶される。
【0148】
ステップ240において、露出値の第1の値は、第1の複数のピクセルを使用することによって決定される。具体的には、第1の複数のピクセルは、第1の条件を満たす第1のピクセルのセットのピクセルからなる。本実施形態では、第1の条件は、第1のデータ項目の値が「真」であるという要件、すなわち、第1のデータ項目に関連付けられたピクセルが第1の画像部分391に含まれるという要件からなる。したがって、第1の複数のピクセルは、第1の画像部分391からなる。具体的には、露出値の第1の値は、上記で説明した式(1)~(5)を使用することによって決定され得る。
【0149】
露出値の第1の値を決定するステップ240は、第1のピクセルのセットの各ピクセルについて、上記各ピクセルに関連付けられたそれぞれの位置情報が、第1の条件を満たすかどうかを少なくともチェックすることによって、第1の複数のピクセルを選択する段階を含み得る。具体的には、第1の複数のピクセルを選択する段階は、第1のピクセルのセットの各ピクセルについて、上記各ピクセルに関連付けられたそれぞれの第1のデータ項目にアクセスする段階、上記第1のデータ項目の値が「真」であるかどうかをチェックする段階、及び上記第1のデータ項目の値が「真」である場合、上記各ピクセルを使用してカメラパラメータの第1の値を決定する段階を有する。
【0150】
本発明の方法の第1の実施形態は、露出値を第1の値に設定されたカメラ150を使用することによって、第2の画像(図示せず)を撮像する段階をさらに備え得る。第2の画像は、比較的高い信頼性で、実験器具アイテム310を識別するために使用され得る。具体的には、本発明の方法の第1の実施形態は、第2の画像及び識別アルゴリズムを使用することによって、実験器具アイテムを識別する段階をさらに備え得る。具体的には、識別アルゴリズムは、DPS100の処理要素100によって実行されると、上記処理要素110に第2の画像のピクセルを処理させて識別データを生成させる命令を有する。識別データは、実験器具アイテムが96 MTPプレートであることを特定する情報を有する。さらに、識別データは、実験器具アイテムの位置の推定値を示す情報を有し得る。識別アルゴリズムは、少なくともANN、決定木、ランダムフォレスト、SVM、又は同様のものなどの機械学習アルゴリズムを有し得る。
【0151】
図4は、本発明の方法による第2の実施形態の動作の流れ
図400である。具体的には、本実施形態は、上記で説明され、
図1に概略的に示すDPS100によって実行され得る。具体的には、方法の第2の実施形態は、露出値の第1の値E
v,1及び第2の値E
v,2の決定を実行する。カメラ150は、シーン(図示せず)が作業デッキ及びテーブルのテーブル部分を有するように、作業デッキに対して配置される。その上にDPSが位置決めされる。シーンはさらに、例えば、96 MTPプレートである第1の実験器具アイテム及び、例えば、フィルタ付き1000μlチップボックスである第2の実験器具アイテムを有する。第1のシーン領域(図示せず)は、第1の実験器具アイテム及び作業デッキの第1の部分を含む。さらに、シーンは、第2の実験器具アイテム及び作業デッキの第2の部分を含む、第2のシーン領域(図示せず)を有する。
【0152】
ステップ410において、DPS100は、
図5a及び
図5bに概略的に示す第1の画像500にアクセスする。具体的には、DPS100は、露出値をE
v,0に設定し、露出時間をE
t,0に設定し、及び/又はF値をF
0に設定して、カメラ150を使用することによって画像500を撮像する。具体的には、第1の画像500は、DPS100の記憶手段120に記憶される。本実施形態では、第1の画像500は、第1のピクセルのセットからなる。
【0153】
図5aに最もよく示すように、第1の画像500は、DPS100の作業デッキ570の上面図を表示する。作業デッキ570は、廃棄物容器590を有する。第1の実験器具アイテム510及び第2の実験器具アイテム520は、作業デッキ570及び12列及び8行に分散された96個のウェル512の領域上に位置決めされる。第1の実験器具アイテム510は、12列及び8行に分散された96個のウェル512及び、英数字511、513の2つのセットをさらに有する。英数字511の第1のセットは、文字A、B、C、D、E、F、G及びHを示す列を形成する。英数字513の第2のセットは、1~12までの数字を示す行を形成する。第2の実験器具アイテム540は、12列及び8行に分散された96個のチップ542及び、4つの穴を含むL字形の穴パターン541を有する。
【0154】
ステップ420において、DPS100は、第1の画像500内の第1の画像部分の場所を示す情報及び、第1の画像500内の第2の画像部分の場所を示す情報を取得する。この情報は、上記で説明し、
図2に概略的に示すように、方法の第1の実施形態のステップ220で使用される第1の画像500及び第1の位置特定アルゴリズムを使用することによって取得される。第1の位置特定アルゴリズムは、第1のピクセルのセットの各ピクセルの位置及び強度値を有する第1の入力データを処理する。第1の画像500内の第1の画像部分の場所を示す情報及び第1の画像500内の第2の画像部分の場所を示す情報は、第1の位置特定アルゴリズムを実行することによって生成される出力である。
【0155】
DPS100は、第1の位置特定アルゴリズムの命令を実行し、それによって、第1の出力データを生成する。第1の出力データは、ピクセルの第1の矩形グリッド520が、96 MTPプレート、フィルタ付き1000μlチップボックス、55mm高さアダプタ、及び/又はリザーバラックであり得る、実験器具アイテム、すなわち、実験器具アイテム510を表示することを指定する情報を有する。第1の出力データは、ピクセルの第2の矩形グリッド550も、96 MTPプレート、フィルタ付き1000μlチップボックス、55mm高さアダプタ、及び/又はリザーバラックであり得る、実験器具アイテム、すなわち、実験器具アイテム540を表示することを指定する情報をさらに有する。
【0156】
図5bに示すように、第1の矩形グリッド520は、一点鎖線の矩形530によってマークされ、頂点としてピクセル521~524を有する。
図5bに最もよく示すように、第1の矩形グリッド520は、第1のシーン領域、すなわち、実験器具アイテム510及び作業デッキ570の第1の部分571を表示する。第1の出力データは、第1の矩形グリッド520の場所を示す情報を有し、具体的には、第1の出力データにより、ピクセル521~524の各々の2次元画像座標が特定され得る。第1の矩形グリッド520は、第1の画像部分、すなわち、第4のピクセルのセットを構成し、第1の矩形グリッド520の場所を示す情報は、第1の画像部分の場所を示す情報を構成する。
【0157】
図5bでは、第2の矩形グリッド550は、一点鎖線の矩形560によってマークされ、頂点としてピクセル551~554を有する。第2の矩形グリッド550は、第2のシーン領域、すなわち、実験器具アイテム540及び作業デッキ570の第2の部分572を表示する。第1の出力データは、第2の矩形グリッド550の場所を示す情報を有し、具体的には、第1の出力データにより、ピクセル551~554の各々の2次元画像座標が特定され得る。第2の矩形グリッド550は、第2の画像部分、すなわち、第5のピクセルのセットを構成し、第1の画像500内の第2の矩形グリッド550の場所を示す情報は、第2の画像部分の場所を示す情報を構成する。
【0158】
ステップ430において、DPS100は、第1のピクセルのセットの各ピクセルについて、上記各ピクセルに関連付けられたそれぞれの第1のデータ項目を生成する。第1のピクセルのセットの各ピクセルについて、上記各ピクセルに関連付けられたそれぞれの第1のデータ項目は、上記各ピクセルに関連付けられたそれぞれの位置情報を有し、上記それぞれの位置情報は、第1の画像500内の第1の画像部分520の場所に対する上記各ピクセルの第1の画像500内の位置を示す。第1のピクセルのセットの各ピクセルについて、上記各ピクセルに関連付けられたそれぞれの第1のデータ項目はブールデータ型を有する。具体的には、第1のピクセルのセットの各ピクセルについて、それぞれの第1のデータ項目の値は、上記各ピクセルが第1の画像部分520に含まれる場合は「真」であり、上記各ピクセルが第1の画像部分520に含まれない場合は「偽」である。第1のピクセルのセットのピクセルに関連付けられた第1のデータ項目は、複数のエントリを含む第1の配列データ構造に記憶される。具体的には、上記データ構造は、DPS100の記憶手段120に記憶される。
【0159】
ステップ440において、露出値の第1の値は、第1の複数のピクセルを使用することによって決定される。具体的には、第1の複数のピクセルは、第1の条件を満たす第1のピクセルのセットのピクセルからなる。本実施形態では、第1の条件は、第1のデータ項目の値が「真」であるという要件、すなわち、第1のデータ項目に関連付けられたピクセルが第1の画像部分520に含まれるという要件からなる。したがって、本実施形態では、第1の複数のピクセルは、第1の画像部分520からなる。具体的には、露出値の第1の値は、上記で説明した式(1)~(5)を使用することによって決定され得る。
【0160】
ステップ450において、DPS100は、第1のピクセルのセットの各ピクセルについて、上記各ピクセルに関連付けられたそれぞれの第2のデータ項目を生成する。第1のピクセルのセットの各ピクセルについて、上記各ピクセルに関連付けられたそれぞれの第2のデータ項目はブールデータ型を有する。具体的には、第1のピクセルのセットの各ピクセルについて、それぞれの第2のデータ項目の値は、上記各ピクセルが第2の画像部分550に含まれない場合、「真」であり、上記各ピクセルが第2の画像部分550に含まれる場合、「偽」である。第1のピクセルのセットのピクセルに関連付けられた第2のデータ項目は、複数のエントリを含む第2の配列データ構造に記憶される。具体的には、上記データ構造は、DPS100の記憶手段120に記憶される。
【0161】
ステップ460において、露出値の第2の値は、第2の複数のピクセルを使用することによって決定される。具体的には、第2の複数のピクセルは、第2の条件を満たす第1のピクセルのセットのピクセルからなる。本実施形態では、第2の条件は、第2のデータ項目の値が「偽」であるという要件、すなわち、第2のデータ項目に関連付けられたピクセルが第2の画像部分550に含まれるという要件からなる。したがって、本実施形態では、第1の複数のピクセルは、第1の画像部分520からなる。露出値の第2の値は、式(1)から(5)を使用することによって決定され得る。ただし、これらの式では、Ev,1が、Ev,2に置き換えられる。
【0162】
ステップ470及び480において、DPS110は、第2の画像(図示せず)及び第3の画像(図示せず)をそれぞれ取得する。第2の画像は、露出値を第1の値に設定してカメラ150を使用することによって撮像され、第3の画像は、露出値を第2の値に設定してカメラ150を使用することによって撮像される。具体的には、第2及び第3の画像は、露出ブラケット技術を使用することによって撮像し得る。第2及び第3の画像はどちらもシーンを表示する。第2の画像及び/又は第3の画像は、DPS100の記憶手段120に記憶され得る。具体的には、第2の画像は、第1の実験器具アイテム510の忠実な表現を提供し、第3の画像は、第2の実験器具アイテム540の忠実な表現を提供する。
【0163】
ステップ490において、第2の画像、第3の画像、及びHDRアルゴリズムを使用することによって、第4の画像(図示せず)が構築される。HDRアルゴリズムは、第2及び第3の画像を処理して第4の画像を構築する。第4の画像は、第2の画像及び第3の画像のダイナミックレンジよりも大きいダイナミックレンジを有するHDR画像である。第4の画像は、第1の実験器具アイテム510及び第2の実験器具アイテム540の両方の忠実な表現を提供する。したがって、第4の画像は、比較的高い信頼性で、第1の実験器具アイテム510及び/又は第2の実験器具アイテム540を識別するために使用され得る。
【0164】
本実施形態の変形では、第4の画像は、第1の画像、第2の画像、第3の画像、及びHDRアルゴリズムを使用することによって構築され得る。この場合、HDRアルゴリズムは第1、第2、第3の画像を処理して第4の画像を構築する。
【0165】
具体的には、本発明の方法の第2の実施形態は、第4の画像及び識別アルゴリズムを使用することによって、シーンに含まれる実験器具アイテムを識別する段階をさらに備え得る。具体的には、識別アルゴリズムは、DPS100の処理要素110によって実行されると、上記処理要素110に第4の画像のピクセルを処理させて識別データを生成させる命令を有する。識別データは、第1の実験器具アイテム510が96 MTPプレートであり、第2の実験器具アイテム540がフィルタ付き1000μlチップボックスであることを特定する情報を有する。識別アルゴリズムは、少なくともANN、決定木、ランダムフォレスト、SVM、又は同様のものなどの機械学習アルゴリズムを有し得る。
【0166】
本発明による方法のさらなる実施形態は、上記で説明した第2の実施形態のステップ410~490を有し得る。前者の実施形態は、ステップ410~490が実行される順序において、互いに、及び、第2の実施形態と異なり得る。例えば、本発明の一実施形態によれば、ステップ450は、ステップ430の後及びステップ440の前に実行され得る。具体的には、本発明の方法の一実施形態では、ステップ450及び460は、ステップ420の後及びステップ430の前に実行される。例えば、方法の一実施形態では、ステップ480は、ステップ460の後及びステップ470の前に実行される。
【0167】
既に明確に説明されていない限り、図面に関連して説明された個々の実施形態、又はそれらの個々の態様及び特徴は、そのような組み合わせ又は交換が本発明の意味において有意義であるときはいつでも、説明された発明の範囲を限定又は拡大することなく、互いに組み合わせ又は交換できる。本発明の特定の実施形態に関して、又は特定の図に関して説明された利点は、適用可能な限り、本発明の他の実施形態の利点でもある。
【国際調査報告】