(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-01-16
(45)【発行日】2024-01-24
(54)【発明の名称】オブジェクトの真正性を識別する方法
(51)【国際特許分類】
G06V 10/74 20220101AFI20240117BHJP
G06V 10/24 20220101ALI20240117BHJP
G06V 10/32 20220101ALI20240117BHJP
G06V 10/82 20220101ALI20240117BHJP
【FI】
G06V10/74
G06V10/24
G06V10/32
G06V10/82
(21)【出願番号】P 2022538751
(86)(22)【出願日】2020-12-22
(86)【国際出願番号】 FI2020050863
(87)【国際公開番号】W WO2021130413
(87)【国際公開日】2021-07-01
【審査請求日】2022-08-19
(32)【優先日】2019-12-23
(33)【優先権主張国・地域又は機関】FI
(73)【特許権者】
【識別番号】522248205
【氏名又は名称】トゥルーメッド・オサケユフティオ
【氏名又は名称原語表記】TrueMed Oy
(74)【代理人】
【識別番号】100145403
【氏名又は名称】山尾 憲人
(74)【代理人】
【識別番号】100135703
【氏名又は名称】岡部 英隆
(74)【代理人】
【識別番号】100189544
【氏名又は名称】柏原 啓伸
(72)【発明者】
【氏名】カンナス,トゥオマス
(72)【発明者】
【氏名】ヘイケル,オスカリ
(72)【発明者】
【氏名】ラトヴァラ,ヘンモ
(72)【発明者】
【氏名】ピッチニーニ,ニコラ
(72)【発明者】
【氏名】パロヘイモ,オッリ-ヘイッキ
【審査官】笠田 和宏
(56)【参考文献】
【文献】特表2016-541052(JP,A)
【文献】特開平11-134494(JP,A)
【文献】米国特許出願公開第2018/0307942(US,A1)
(58)【調査した分野】(Int.Cl.,DB名)
G06V 10/74
G06V 10/24
G06V 10/32
G06V 10/82
(57)【特許請求の範囲】
【請求項1】
オブジェクトの真正性を識別するための方法において、
a)識別サーバシステム(50)にて、オリジナルオブジェクトの参照画像を維持するステップであって、該参照画像は、等価なオリジナルオブジェクトを表すように提供される、維持するステップと、
b)前記識別サーバシステム(50)にて、識別される前記オブジェクトの一つ以上の入力画像を受信するステップと、
c)前記識別サーバシステム(50)により、前記一つ以上の入力画像のうちの少なくとも一つからターゲット画像を生成するステップと、
d)前記識別サーバシステム(50)により、前記ターゲット画像を歪ませることによって、前記ターゲット画像を前記参照画像に位置合わせするステップと
を含み、
前記ステップd)における位置合わせするステップが、
前記識別サーバシステム(50)により、前記参照画像の上に、参照グリッドポイント(103)を含む参照画像グリッド(100)を、関連付けるステップ、
前記識別サーバシステム(50)により、前記ターゲット画像の上に、ターゲットグリッドポイント(113)を含むターゲット画像グリッド(110)を、関連付けるステップ、及び、
前記ターゲット画像を歪ませるために及び前記ターゲット画像を前記参照画像に位置合わせするために、前記ターゲット画像グリッド(110)の前記ターゲットグリッドポイント(113)を移動させることによって、前記識別サーバシステム(50)により、前記ターゲット画像グリッド(110)の前記ターゲットグリッドポイント(113)を、互いに関連して、及び、前記参照画像グリッド(100)の対応する参照グリッドポイント(103)に関連して、調整するステップ
を含む、画像位置合わせするステップを、含み、
前記方法は、更に、
e)前記オブジェクトの真正性を識別するために、前記識別サーバシステム(50)により、前記参照画像に関連して前記位置合わせされたターゲット画像を分析するステップ
を含む、方法。
【請求項2】
前記ステップd)にて、前記識別サーバシステム(50)により、前記ターゲット画像を歪ませることによって前記参照画像に位置合わせすることは、前記ターゲット画像を前記参照画像に調整するステップを含む、
請求項1に記載の方法。
【請求項3】
前記方法は、更に、
f)前記識別サーバシステム(50)により、前記位置合わせされたターゲット画像内の一つ以上のサブパーツを定義するステップを、ステップe)の前に実施されるステップとして含み、
前記ステップe)は、前記識別サーバシステム(50)により、前記オブジェクトの真正性を識別するために、前記参照画像の少なくとも一つの対応するサブパーツに関連する、前記位置合わせされたターゲット画像の前記一つ以上のサブパーツの少なくとも一つを、分析するステップを含んでおり、
又は、
前記方法は、更に、
f)前記識別サーバシステム(50)により、前記ターゲット画像内の一つ以上の複数のサブパーツを定義するステップを、ステップe)の前に実施されるステップf)として含み、
前記ステップd)は、前記識別サーバシステム(50)により、前記ターゲット画像の前記一つ以上のサブパーツの少なくとも一つを、前記参照画像の少なくとも一つの対応するサブパーツに位置合わせするステップを含み、及び、
前記ステップe)は、前記識別サーバシステム(50)により、前記オブジェクトの真正性を識別するために、前記参照画像の少なくとも一つの対応するサブパーツに関連する、前記ターゲット画像の前記一つ以上の位置合わせされたサブパーツ部分の少なくとも一つを分析するステップを含む、
請求項1又は2に記載の方法。
【請求項4】
前記ステップf)は、
前記識別サーバシステム(50)により、前記位置合わせされたターゲット画像を二つ以上のサブパーツに分割するステップを、含む、
又は、
前記識別サーバシステム(50)にて、前記オリジナルオブジェクトの前記参照画像を維持するステップであって、前記参照画像は二つ以上のサブパーツに予め分割される、維持するステップ、及び、
前記識別サーバシステム(50)により、前記参照画像の予め分割されたサブパーツに基づいて、前記位置合わせされたターゲット画像を二つ以上のサブパーツに分割するステップを、含む、
又は、
前記識別サーバシステム(50)により、前記参照画像を二つ以上のサブパーツに分割するステップ、及び、
前記識別サーバシステム(50)により、前記参照画像のサブパーツに基づいて、前記位置合わせされたターゲット画像を二つ以上のサブパーツに分割するするステップを、含む、
請求項3に記載の方法。
【請求項5】
前記ステップe)は、
前記識別サーバシステム(50)により、前記オブジェクトの真正性を識別するための統計的方法を利用することによって、前記位置合わせされたターゲット画像を前記参照画像と比較するステップを、含む、
又は、
前記識別サーバシステム(50)により、前記オブジェクトの真正性を識別するための統計的方法を利用することによって、前記ターゲット画像の前記一つ以上の位置合わせされたサブパーツのうちの少なくとも一つを、前記参照画像の少なくとも一つの対応するサブパーツと比較するステップを、含む、
又は、
前記識別サーバシステム(50)にて、機械学習識別アルゴリズム若しくは識別ニューラルネットワークを維持するステップ、及び、
前記識別サーバシステム(50)により、前記機械学習識別アルゴリズム若しくは前記識別ニューラルネットワークを利用して、前記位置合わせされたターゲット画像を前記参照画像と比較するステップを、含む、
又は、
前記識別サーバシステム(50)にて、機械学習識別アルゴリズム若しくは識別ニューラルネットワークを維持するステップ、及び、
前記識別サーバシステム(50)により、前記機械学習識別アルゴリズム若しくは前記識別ニューラルネットワークを利用して、前記ターゲット画像の前記一つ以上の位置合わせされたサブパーツのうちの少なくとも一つを、前記参照画像の少なくとも一つの対応するサブパーツと比較するステップを、含む、
請求項1に記載の方法。
【請求項6】
前記ステップe)は、
前記識別サーバシステム(50)にて、前記位置合わせされたターゲット画像と前記参照画像との間の差分を決定するように訓練された第1の機械学習識別アルゴリズムと、前記参照画像に固有であり、前記参照画像に関連して前記第1の機械学習識別アルゴリズムによって決定される差分を分析するように訓練された第2の機械学習識別アルゴリズムとを提供するステップ、
前記識別サーバシステム(50)により、前記第1の機械学習識別アルゴリズムを用いて、前記位置合わせされたターゲット画像及び前記参照画像を処理して、前記識別サーバシステム(50)により、前記第1の機械学習識別アルゴリズムを利用することによって、第1の差分ベクトルを生成するステップ、及び、
前記識別サーバシステム(50)により、前記オブジェクトの真正性を識別するために、前記参照画像に固有の前記第2の機械学習識別アルゴリズムを用いて第1の差分ベクトルを処理するステップを、含む、
又は、
前記識別サーバシステム(50)にて、前記位置合わせされたターゲット画像と前記位置合わせされた参照画像との間の差分を決定するように訓練された第1の識別ニューラルネットワークと、前記参照画像に固有であり、前記参照画像に関連して前記第1の識別ニューラルネットワークによって決定される差分を分析するように訓練された第2の識別ニューラルネットワークとを提供するステップ、
前記識別サーバシステム(50)により、前記第1の識別ニューラルネットワークを用いて、前記位置合わせされたターゲット画像及び前記参照画像を処理して、前記識別サーバシステム(50)により、前記第1の識別ニューラルネットワークを利用して、第1の差分ベクトルを生成するステップ、及び、
前記識別サーバシステム(50)により、前記オブジェクトの真正性を識別するために、前記参照画像に固有の前記第2の識別ニューラルネットワークを用いて第1の差分ベクトルを処理するステップを、含む、
請求項5に記載の方法。
【請求項7】
前記ステップe)は、
前記識別サーバシステム(50)にて、前記ターゲット画像の位置合わせされたサブパーツと前記参照画像の対応するサブパーツとの間の差分を決定するように訓練された第1の機械学習識別アルゴリズムと、前記参照画像の前記一つ以上のサブパーツに固有であり、前記参照画像の前記一つ以上のサブパーツの各々に関連して前記第1の機械学習識別アルゴリズムによって決定される差分を分析するように訓練された一つ以上の第2の機械学習識別アルゴリズムとを、提供するステップ、
前記識別サーバシステム(50)により、前記第1の機械学習識別アルゴリズムを用いて、前記ターゲット画像の一つ以上の位置合わせされたサブパーツ及び前記参照画像の一つ以上の対応するサブパーツを夫々処理して、前記識別サーバシステム(50)により、前記第1の機械学習識別アルゴリズムを利用して一つ以上の差分ベクトルを生成するステップであって、前記一つ以上の差分ベクトルの各々は前記参照画像の一つのサブパーツに固有である、生成するステップ、及び、
前記識別サーバシステム(50)にて、前記オブジェクトの真正性を識別するために、前記参照画像の前記一つ以上のサブパーツに固有である前記一つ以上の第2の機械学習識別アルゴリズムを用いて、前記一つ以上の差分ベクトルを、夫々、処理するステップを、含む、
又は、
前記識別サーバシステム(50)にて、前記ターゲット画像の位置合わせされたサブパーツと前記参照画像の対応するサブパーツとの間の差分を決定するように訓練された第1の識別ニューラルネットワークと、前記参照画像の前記一つ以上のサブパーツに固有であり、前記参照画像の前記一つ以上のサブパーツの各々に関連して前記第1の識別ニューラルネットワークによって決定される差分を分析するように訓練された一つ以上の第2の識別ニューラルネットワークを提供するステップ、
前記識別サーバシステム(50)により、前記第1の識別ニューラルネットワークを用いて、前記ターゲット画像の一つ以上の位置合わせされたサブパーツ及び前記参照画像の一つ以上の対応するサブパーツを夫々処理して、前記識別サーバシステム(50)により、前記第1の識別ニューラルネットワークを利用して一つ以上の差分ベクトルを生成するステップであって、前記一つ以上の差分ベクトルの各々は前記参照画像の一つのサブパーツに特有である、生成するステップ、及び
前記識別サーバシステム(50)により、前記オブジェクトの真正性を識別するために、前記参照画像の前記一つ以上のサブパーツに固有である前記一つ以上の第2の識別ニューラルネットワークを用いて、前記一つ以上の差分ベクトルを、夫々、処理する
ステップを、含む、
請求項5に記載の方法。
【請求項8】
ステップd)における位置合わせするステップが、
前記識別サーバシステム(50)により、前記ターゲット画像内の対応する位置と前記参照画像内の対応する位置とを認識するステップ、及び、
前記識別サーバシステム(50)により、前記ターゲット画像を歪ませることによって、前記ターゲット画像内の前記対応する位置と前記参照画像内の前記対応する位置とを互いに位置合わせするステップを、
含む、画像位置合わせするステップを、含む、
又は、
前記識別サーバシステム(50)により、前記ターゲット画像の前記一つ以上のサブパーツの少なくとも一つ内の対応する位置と、前記参照画像の少なくとも一つの対応するサブパーツ内の対応する位置とを認識するステップ、及び、
前記ターゲット画像の前記一つ以上のサブパーツの少なくとも一つと前記参照画像の少なくとも一つの対応するサブパーツとを画像位置合わせするために、前記識別サーバシステム(50)により、前記ターゲット画像の前記一つ以上のサブパーツの少なくとも一つを歪ませることによって、前記ターゲット画像の前記一つ以上のサブパーツの少なくとも一つ内の前記対応する位置と前記参照画像の少なくとも一つの対応するサブパーツ内の前記対応する位置とを互いに位置合わせするステップを、
含む、画像位置合わせするステップを、含む、
請求項
3に記載の方法。
【請求項9】
前記ステップd)の、前記識別サーバシステム(50)により、位置合わせするステップは、
前記ターゲット画像を歪ませるために前記ターゲット画像グリッド(100)の前記ターゲットグリッドポイント(113)を反復的に移動させることによって前記ターゲット画像を前記参照画像に反復的に位置合わせするステップを、含む、
又は、
前記ステップd)の、前記識別サーバシステム(50)により、前記ターゲット画像を前記参照画像に位置合わせするステップは、さらに、
前記ターゲット画像を歪ませるために前記ターゲット画像グリッド(110)の前記ターゲットグリッドポイント(113)を移動させることによって、前記識別サーバシステム(50)により、前記ターゲット画像を前記参照画像に位置合わせするステップ、
前記識別サーバシステム(50)により、前記ターゲット画像を前記参照画像に位置合わせすることを検証するステップ、及び、
前記ターゲット画像を歪ませるために前記ターゲット画像グリッド(110)の前記ターゲットグリッドポイント(113)を反復的に移動させることによって、前記識別サーバシステム(50)により、前記ターゲット画像を前記参照画像に反復的に位置合わせするステップを、含む、
又は、
前記ステップd)の、前記識別サーバシステム(50)により、前記ターゲット画像を前記参照画像に位置合わせするステップは、さらに、
前記ターゲット画像を歪ませるために前記ターゲット画像グリッド(110)の前記ターゲットグリッドポイント(113)を移動させることによって、前記識別サーバシステム(50)により、前記ターゲット画像を前記参照画像に位置合わせするステップ、
前記識別サーバシステム(50)により、ステップe)の、識別サーバシステム(50)によって、前記参照画像に関連して前記位置合わせされたターゲット画像を分析するステップを、実施するステップ、及び、
前記ターゲット画像を歪ませるために前記ターゲット画像グリッド(110)の前記ターゲットグリッドポイント(113)を反復的に移動させることによって、前記識別サーバシステム(50)により、前記ターゲット画像を前記参照画像に、ステップd)にて反復的に位置合わせするステップを、含む、
請求項
1に記載の方法。
【請求項10】
前記ステップd)の、前記識別サーバシステム(50)により、前記ターゲット画像を前記参照画像に位置合わせするステップは、
ダウンスケールされた参照画像グリッド(100)を伴うダウンスケールされた参照画像を形成するために、前記識別サーバシステム(50)により、前記参照画像グリッド(100)と共に前記参照画像をスケールダウンするステップ、
前記参照画像に、前記ターゲット画像の初期画像位置合わせを提供するために、前記識別サーバシステム(50)により、前記ターゲット画像グリッド(110)を前記ダウンスケールされた参照画像グリッド(100)に位置合わせするステップ、
第1のアップスケールされた参照画像グリッド(100)を伴う第1のアップスケールされた参照画像を形成するために、前記識別サーバシステム(50)により、前記ダウンスケールされた参照画像グリッド(100)と共に前記ダウンスケールされた参照画像をアップスケールするステップ、及び、
前記参照画像に、前記ターゲット画像の第1の画像位置合わせを提供するために、前記識別サーバシステム(50)により、前記ターゲット画像グリッド(110)を前記第1のアップスケールされた参照画像グリッド(100)に位置合わせするステップを、含む、
又は、
ダウンスケールされた参照画像グリッド(100)を伴うダウンスケールされた参照画像を形成するために、前記識別サーバシステム(50)により、前記参照画像グリッド(100)と共に前記参照画像をスケールダウンするステップ、
前記参照画像に、前記ターゲット画像の初期画像位置合わせを提供するために、前記識別サーバシステム(50)により、前記ターゲット画像グリッド(110)を前記ダウンスケールされた参照画像グリッド(100)に位置合わせするステップ、
第1のアップスケールされた参照画像グリッド(100)を伴う第1のアップスケールされた参照画像を形成するために、前記識別サーバシステム(50)により、前記ダウンスケールされた参照画像グリッド(100)と共に前記ダウンスケールされた参照画像をスケールアップするステップ、
前記参照画像に、前記ターゲット画像の第1の画像位置合わせを提供するために、前記識別サーバシステム(50)により、前記ターゲット画像グリッド(110)を前記第1のアップスケールされた参照画像グリッド(100)に位置合わせするステップ、及び、
前記参照画像に、前記ターゲット画像の第1の画像位置合わせを提供するために、前記識別サーバシステム(50)により、前記参照画像グリッド(100)と共に前記参照画像をアップスケールするステップと前記ターゲット画像グリッド(110)を前記アップスケールされた参照画像グリッド(100)に位置合わせするステップとを一回以上繰り返すステップを、含む、
請求項
1に記載の方法。
【請求項11】
前記ステップd)の、前記識別サーバシステム(50)により、前記ターゲット画像を前記参照画像に位置合わせするステップは、さらに、
ダウンスケールされた参照画像グリッド(100)を伴うダウンスケールされた参照画像を形成するために、前記識別サーバシステム(50)により、前記参照画像グリッド(100)により前記参照画像をスケールダウンするステップ、
前記ターゲット画像グリッド(110)の前記ターゲットグリッドポイント(113)を移動させることによって、前記識別サーバシステム(50)により、前記ターゲット画像を前記ダウンスケールされた参照画像に位置合わせするステップ、
第1のアップスケールされた参照画像グリッド(100)を伴う第1のアップスケールされた参照画像を形成するために、前記識別サーバシステム(50)により、前記ダウンスケールされた参照画像グリッド(100)と共に前記ダウンスケールされた参照画像をスケールアップするステップ、及び、
前記ターゲット画像グリッド(110)の前記ターゲットグリッドポイント(113)を移動させることによって、前記識別サーバシステム(50)により、前記ターゲット画像を前記第1のアップスケールされた参照画像に位置合わせするステップを、含む、
又は、
ダウンスケールされた参照画像グリッド(100)を伴うダウンスケールされた参照画像を形成するために、前記識別サーバシステム(50)により、参照画像グリッド(100)により前記参照画像をスケールダウンするステップ、
前記ターゲット画像グリッド(110)の前記ターゲットグリッドポイント(113)を移動させることによって、前記識別サーバシステム(50)により、前記ターゲット画像を前記ダウンスケールされた参照画像に位置合わせするステップ、
第1のアップスケールされた参照画像グリッド(100)を伴う第1のアップスケールされた参照画像を形成するために、前記識別サーバシステム(50)により、前記ダウンスケールされた参照画像グリッド(100)と共に前記ダウンスケールされた参照画像をスケールアップするステップ、
前記ターゲット画像グリッド(110)の前記ターゲットグリッドポイント(113)を移動させることによって、前記識別サーバシステム(50)により、前記ターゲット画像を前記第1のアップスケールされた参照画像に位置合わせするステップ、及び、
前記参照画像に、前記ターゲット画像の画像位置合わせを提供するために、前記識別サーバシステム(50)により、前記参照画像グリッド(100)と共に前記参照画像をアップスケールするステップと前記ターゲット画像を前記アップスケールされた参照画像に位置合わせするステップとを一回以上繰り返すステップを、含む、
請求項
10に記載の方法。
【請求項12】
前記ステップb)は、前記識別サーバシステム(50)にて、識別されるべき前記オブジェクトの二つ以上の入力画像を受信するステップを含み、及び、
前記ステップc)は、前記識別サーバシステム(50)により、前記二つ以上の入力画像のうちの一つを前記ターゲット画像として選択するステップを含む、
又は、
前記ステップb)は、前記識別サーバシステム(50)にて、識別されるべき前記オブジェクトの二つ以上の入力画像を受信するステップを含み、
前記ステップc)は、前記識別サーバシステム(50)により、前記二つ以上の入力画像を前記参照画像と比較するステップを含み、及び、
前記ステップc)は、さらに、前記識別サーバシステム(50)により、前記比較するステップに基づいて、前記二つ以上の入力画像のうちの一つを前記ターゲット画像として選択するステップを含む、
請求項1に記載の方法。
【請求項13】
前記ステップb)は、前記識別サーバシステム(50)にて、識別されるべき前記オブジェクトの二つ以上の入力画像を受信するステップを含み、
前記ステップc)は、前記識別サーバシステム(50)により、前記参照画像に関して、前記二つ以上の入力画像のうちの少なくとも二つを位置合わせするステップと、前記識別サーバシステム(50)により、前記二つ以上の位置合わせされた入力画像のうちの少なくとも二つを前記ターゲット画像として組み合わせることによって、前記ターゲット画像を生成するステップとを含む、
又は、
前記ステップb)は、前記識別サーバシステム(50)にて、識別されるべき前記オブジェクトの二つ以上の入力画像を受信するステップを含み、
前記ステップc)は、識別サーバシステム(50)により、前記二つ以上の入力画像のうちの少なくとも二つを、前記入力画像の一つに関して、位置合わせするステップと、前記識別サーバシステム(50)により、前記二つ以上の位置合わせされた入力画像のうちの少なくとも二つを前記ターゲット画像として組み合わせることによって、前記ターゲット画像を生成するステップとを含み、前記位置合わせするステップは、前記参照画像として、請求項1に記載の前記一つの入力画像に従って、実施される、
請求項1に記載の方法。
【請求項14】
前記ステップb)は、
前記識別サーバシステム(50)にて、識別されるべき前記オブジェクトの二つ以上の入力画像を受信するステップを含み、
前記ステップc)は、
前記識別サーバシステム(50)により、前記入力画像のうちの一つに関して、前記二つ以上の入力画像のうちの少なくとも二つを、位置合わせするステップ、
前記識別サーバシステム(50)により、前記二つ以上の入力画像のうちの少なくとも二つを、二つ以上のサブパーツに分割するステップ、
前記識別サーバシステム(50)により、前記二つ以上のサブパーツのうちの少なくとも二つを選択するステップ、及び、
前記識別サーバシステム(50)により、前記選択されたサブパーツを前記ターゲット画像として結合することによって、前記ターゲット画像を生成するステップを、含む、
又は、
前記ステップb)は、前記識別サーバシステム(50)にて、識別されるべき前記オブジェクトの二つ以上の入力画像を受信するステップを含み、
前記ステップc)は、
前記識別サーバシステム(50)により、前記入力画像の一つに関して、前記二つ以上の入力画像のうちの少なくとも二つを位置合わせするステップ、
前記識別サーバシステム(50)により、前記二つ以上の入力画像のうちの少なくとも二つを、二つ以上のサブパーツに分割するステップ、
前記識別サーバシステム(50)により、前記入力画像の前記二つ以上のサブパーツを、前記参照画像の対応するサブパーツと比較するステップ、
識別サーバシステム(50)により、前記比較するステップに基づいて、前記二つ以上のサブパーツのうちの少なくとも二つを選択するステップ、及び、
前記識別サーバシステム(50)により、前記選択されたサブパーツを前記ターゲット画像として組み合わせることによって、前記ターゲット画像を生成するステップを、含む、
請求項1又は
13に記載の方法。
【請求項15】
前記ステップd)は、
前記識別サーバシステム(50)により、前記一つ以上の入力画像から、若しくは前記ターゲット画像から、入力オブジェクト画像を抽出するステップであって、前記ターゲット画像は、前記入力オブジェクト画像からなり、前記入力オブジェクト画像は、前記オブジェクトの輪郭に適合している、抽出するステップを、含む、
又は、
前記識別サーバシステム(50)により、前記一つ以上の入力画像から、若しくは前記ターゲット画像から、入力オブジェクト画像を抽出するステップ、及び、前記識別サーバシステム(50)により、前記ターゲット画像を形成するために背景を除去するステップを、含み、前記ターゲット画像は、前記入力オブジェクト画像からなり、前記入力オブジェクト画像は、前記オブジェクトの輪郭に適合している、
請求項1に記載の方法。
【請求項16】
前記ステップc)は、前記識別サーバシステム(50)により、前記一つ以上の入力画像を前記参照画像にサイズ合わせするステップを、含む、
又は、
前記ステップc)又は前記ステップd)は、前記識別サーバシステム(50)により、前記ターゲット画像を前記参照画像にサイズ合わせするステップを、含む、
請求項1に記載の方法。
【請求項17】
前記ステップc)は、前記識別サーバシステム(50)により、前記一つ以上の入力画像を前記参照画像に色合わせするステップを、含む、
又は、
前記ステップc)又は前記ステップd)は、前記識別サーバシステム(50)により、前記ターゲット画像を前記参照画像に色合わせするステップを、含む、
請求項1に記載の方法。
【請求項18】
更に、
ステップe)の前に、
前記識別サーバシステム(50)により、前記参照画像に関連して、前記位置合わせされたターゲット画像を分析するステップから、前記位置合わせされたターゲット画像の所定の領域を除外するステップを、含み、
又は、
前記識別サーバシステム(50)により、前記参照画像に関連して、前記位置合わせされたターゲット画像を分析するステップから、所定の領域を除外するために、前記位置合わせされたターゲット画像の所定の領域上に、及び前記参照画像の対応する所定の領域上に、マスクを適用するステップを、含む、
請求項1に記載の方法。
【発明の詳細な説明】
【技術分野】
【0001】
発明の分野
本発明は、オブジェクトの真正性を識別する方法に関し、より詳細には、請求項1のプリアンブルに係る方法に関するものである。
【背景技術】
【0002】
発明の背景
模倣品は、個人、企業、社会のいずれにも影響を与える世界的な問題である。模倣品は、オリジナル製品を製造している企業に経済的損失を与えている。しかし、模倣品にはもっと重大な問題がある。例えば、食品や医薬品の偽造は、人間や社会、さらには動物に深刻な健康被害を与える可能性がある。従来技術では、オブジェクトの真正性を識別するために、二つの異なる方法が用いられてきた。第1の選択肢によれば、各オリジナルオブジェクトは、製造中に写真撮影されるか、さもなければ分析されるか、又は文書化される。その後、サプライチェーン全体を通じて、例えば店舗で、販売されるオブジェクトは、再び写真撮影又は分析されることがある。店舗での写真や分析結果は、製造時の写真や分析結果、文書と照合され、正確な一致と証拠が発見される。従って、この第1の代替案では、各オブジェクトは一つずつ識別される。第2の選択肢によれば、オブジェクトまたはオブジェクトのパッケージには、オブジェクトの真正性を示す識別子またはタグが付与される。この識別子又はタグは、オブジェクトの真正性を識別するために分析され得る。
【0003】
先行技術の第1の選択肢に関連する問題の一つは、各オブジェクトが一つずつ真正品と照合されなければならないことである。これは、製造数が限られている製品では、実現可能な解決策となり得る。しかし、類似製品の製造数が数十万、数百万と大きい場合や、サプライチェーンが複雑な場合、この解決策は非常に厄介で困難なものとなる。先行技術の第2の選択肢に関連する問題の一つは、識別子またはタグが偽造される可能性もあり、オリジナル製品の識別を困難にすることである。さらに、第1および第2の選択肢の両方の欠点は、製品の製造および供給に変更または余分なプロセスステップを加える必要があることである。これは、効率的な製造プロセスにおいて望ましいことではない。
【発明の概要】
【0004】
発明の概要
本発明の目的は、先行技術の欠点を解決または少なくとも緩和するように、方法を提供することである。本発明の目的は、独立請求項1に記載されていることを特徴とする方法によって達成される。
【0005】
本発明の好ましい実施形態は、従属請求項に開示されている。
【0006】
本発明は、オブジェクトの真正性を識別するための方法を提供するという考えに基づいている。本方法は、以下のステップを含む。
a)識別サーバシステムにおいて、オリジナルオブジェクトの参照画像を維持し、参照画像は、等価なオリジナルオブジェクトを表すように提供される。
b)識別サーバシステムにおいて、識別されるべきオブジェクトの一つ以上の入力画像を受信するステップ、
c)識別サーバシステムにより、前記一つ以上の入力画像のうちの少なくとも一つからターゲット画像を生成するステップ、
d)識別サーバシステムによって、ターゲット画像を歪ませることによって、一つ以上の入力画像のうちの少なくとも一つを参照画像に位置合わせするステップ、
e)識別サーバシステムによって、オブジェクトの真正性を識別するために、参照画像に関連して位置合わせされたターゲット画像を分析するステップ。
【0007】
本発明によれば、ターゲット画像は、ターゲット画像が参照画像に一致するように修正されるように、参照画像に対して画像位置合わせされる。ターゲット画像の画像位置合わせは、ターゲット画像を歪ませることによって、参照画像との関係で行われる。これにより、オブジェクトの真正性を識別するために、参照画像との関係でターゲット画像を正確かつ確実に比較又は分析することができる。
【0008】
本願の文脈において、歪曲による位置合わせとは、ターゲット画像が参照画像にできるだけよく対応するようにターゲット画像を参照画像に位置合わせすることによって、ターゲット画像の歪み及び/又は欠陥が補正されることを意味する。したがって、位置合わせの際には、入力画像の撮影に伴う歪みやオブジェクト自体の欠陥が補正される。
【0009】
一般的に歪ませるとは、画像に直線的な投影からのずれを生じさせることである。したがって、画像の歪みとは、画像内の各部分の空間的な関係を変化させることである。
【0010】
画像を撮影する際、被写体に対して画像が歪んで見えることがある。そのため、目で見たときとは異なる画像になってしまう。これを画像の歪みという。デジタル画像における歪みとは、2次元平面上で予測される座標と、観測される画素のずれのことである。そのため、より曲線的で歪んだ印象になり、目で見ると不自然に見える。
【0011】
このように、歪みは、特定の光学的選択や撮影の視点によって発生する一連の収差を定義するために使用される用語である。歪みには、一般的に光学的なものとパースペクティブなものの二種類がある。それぞれ様々な収差を含んでいる。光学的歪みは、レンズの種類によって画像に歪みが生じる場合に発生する。光学的歪みは、少なくとも樽型歪み、ピンクッション歪み、口ひげ歪み、レンズタイプ歪みから構成される。
【0012】
樽型歪みは、画像内の直線が中心から外側に曲がり始め、樽のような効果をもたらす。ピンクッション歪みは、画像内の直線がフレームの端から内側に曲がり始めると発生する歪みである。口ひげ歪みは、ピンクッション歪みと樽型歪みの組み合わせで、画像の直線は中心から外側に曲がり、フレームの角から内側に曲がる。レンズタイプの歪みは、広角レンズのような直線的なレンズで発生し、画像の線がまっすぐに見える傾向がある。一方、魚眼レンズなどの曲線レンズは、画像の中の直線を曲げる。
【0013】
また、遠近感の歪みとは、レンズと被写体との距離によって、被写体が実際よりも大きく見えたり小さく見えたりすることである。
【0014】
以上のことから、本願の文脈では、位置合わせとは、入力画像またはターゲット画像を歪ませて、入力画像の撮影時に発生する画像の歪みを補正することを意味する。したがって、入力画像又はターゲット画像を位置合わせすることは、入力画像又はターゲット画像の部分、位置、領域又は画素間の空間的関係を変更することからなる。
【0015】
一実施形態では、ステップd)識別サーバシステムによって、ターゲット画像を歪曲して参照画像に位置合わせすることは、ターゲット画像を参照画像に一致するように調整することからなる。従って、ターゲット画像は、ターゲット画像が参照画像に一致するように、参照画像に対して調整又は歪曲される。
【0016】
例えば、一実施形態では、ステップd)識別サーバシステムによって、ターゲット画像を歪めることによってターゲット画像を参照画像に位置合わせすることは、ターゲット画像の寸法を調整して参照画像の寸法に一致させることからなる。したがって、ターゲット画像の寸法は、ターゲット画像の寸法が参照画像の寸法と一致するように、参照画像に対して調整される。この寸法は、ターゲット画像の内寸を意味する。
【0017】
そして、ターゲット画像は、ターゲット画像を参照画像と正確に分析及び比較することを可能にする参照画像と一致する寸法を有する。
【0018】
一実施形態において、本方法は、ステップe)の前に実施されるステップf)をさらに備える。ステップf)は、識別サーバシステムによって、位置合わせされたターゲット画像の一つ以上のサブ部分を定義することを含み、ステップe)は、識別サーバシステムによって、オブジェクトの真正性を識別するために、参照画像の少なくとも一つの対応するサブ部分との関連で位置合わせされたターゲット画像の少なくとも一つのサブ部分を分析することを含んでいる。したがって、本実施形態では、ターゲット画像の一つ以上のサブパーツは、参照画像の一つ以上の対応するサブパーツに関連して分析されることができる。したがって、ターゲット画像全体を分析する必要はなく、分析は、効率的かつ迅速に実施されてもよい。
【0019】
別の実施形態において、本方法は、ステップe)の前に実施されるステップf)をさらに備える。ステップf)は、識別サーバシステムによって、ターゲット画像内の一つ以上のサブパーツを定義することを備える。ステップd)は、識別サーバシステムによって、ターゲット画像の一つ以上のサブパーツの少なくとも一つを、参照画像の少なくとも一つの対応するサブパーツに位置合わせすることを備える。さらに、ステップe)は、識別サーバシステムによって、オブジェクトの真正性を識別するために、参照画像の少なくとも一つの対応する部分と関連して、ターゲット画像の一つ以上の位置合わせされたサブパーツのうちの少なくとも一つを分析することからなる。このように、ターゲット画像全体を位置合わせする必要はなく、分析される部分のみを位置合わせすることができる。
【0020】
一実施形態では、ステップf)は、識別サーバシステムによって、位置合わせされたターゲット画像を二つ以上のサブパーツに分割することを含む。
【0021】
別の実施形態では、ステップf)は、識別サーバシステムにおいて、オリジナルオブジェクトの参照画像を維持することからなる。参照画像は、二つ以上のサブパーツに予め分割される。ステップf)は、識別サーバシステムにより、参照画像の予め分割されたサブパーツに基づいて、位置合わせされたターゲット画像を二つ以上のサブパーツに分割することを更に備える。ターゲット画像は、ステップf)の前に、ステップd)において位置合わせされる。したがって、位置合わせされたターゲット画像は、予め分割された参照画像に基づいて二つ以上のサブパーツに分割され、したがって参照画像と同様に分割される。
【0022】
さらなる実施形態において、ステップf)は、識別サーバシステムによって、参照画像を二つ以上のサブパーツに分割することと、識別サーバシステムによって、参照画像のサブパーツに基づいて、位置合わせされたターゲット画像を二つ以上のサブパーツに分割することと、を含む。この実施形態では、好ましくは状況に基づいて、又は所望に応じて、まず参照画像を二つ以上のサブパーツに分割し、位置合わせされたターゲット画像を同様に又は参照画像のサブパーツに基づいて二つ以上のサブパーツに分割する。
【0023】
一実施形態では、ステップe)は、識別サーバシステムによって、オブジェクトの真正性を識別するための統計的方法を利用して、位置合わせされたターゲット画像を参照画像と比較することを含む。ステップe)において統計的手法を利用することは、適度な計算能力を必要とする高速で効率的な分析方法である。
【0024】
別の実施形態では、ステップe)は、識別サーバシステムによって、オブジェクトの真正性を識別するための統計的手法を利用して、ターゲット画像の一つ以上の位置合わせされたサブパーツのうちの少なくとも一つを、参照画像の少なくとも一つの対応するサブパーツと比較することからなる。統計的手法でサブパーツを分析することにより、分析するデータ量が減少するため、さらに効率的な分析が可能となる。
【0025】
さらなる実施形態において、ステップe)は、識別サーバシステムにおいて、機械学習識別アルゴリズム又は識別ニューラルネットワークを維持することと、識別サーバシステムによって、機械学習識別アルゴリズム又は識別ニューラルネットワークを利用して、位置合わせされたターゲット画像を参照画像と比較することと、を備える。前記機械学習識別アルゴリズム又は前記識別ニューラルネットワークは、前記分析を実行するように学習される。さらに、機械学習識別アルゴリズム又は識別ニューラルネットワークは、解析の精度を高めるために継続的に学習されてもよい。
【0026】
さらにさらなる実施形態において、ステップe)は、識別サーバシステムにおいて、機械学習識別アルゴリズム又は識別ニューラルネットワークを維持することと、識別サーバシステムによって、機械学習識別アルゴリズム又は識別ニューラルネットワークを利用して、ターゲット画像の一つ以上の位置合わせされたサブパーツの少なくとも一つを、参照画像の少なくとも一つの対応するサブパーツと比較することと、を含む。機械学習識別アルゴリズム又は識別ニューラルネットワークは、ターゲット画像の一つ以上のサブパーツを分析するように学習されてもよい。したがって、機械学習識別アルゴリズム又は識別ニューラルネットワークは、サブパーツに対して効率的かつより正確に分析を実行することができる。さらに、機械学習識別アルゴリズム又は識別ニューラルネットワークは、いくつかの実施形態において、特定のサブパーツに特有であってもよく、又は各サブパーツは、特定の機械学習識別アルゴリズム又は識別ニューラルネットワークを備えて構成されてもよい。
【0027】
一実施形態では、ステップe)は、識別サーバシステムにおいて、位置合わせされたターゲット画像と参照画像との間の差分を決定するように訓練された第1の機械学習識別アルゴリズムと、参照画像に固有の、参照画像に関連して第1の機械学習識別アルゴリズムによって決定された差分を分析するように訓練された第2の機械学習識別アルゴリズムとを提供することから構成される。ステップe)は、識別サーバシステムによって、位置合わせされたターゲット画像及び位置合わせされた参照画像を第1の機械学習識別アルゴリズムで処理することと、識別サーバシステムによって、第1の機械学習識別アルゴリズムを利用して、第1の差分ベクトルを生成することと、を備える。ステップe)は、識別サーバシステムによって、オブジェクトの真正性を識別するために、参照画像に固有の第2の機械学習識別アルゴリズムで第1の差分ベクトルを処理することをさらに含む。ターゲット画像及び参照画像における全ての差分が深刻であるとは限らないし、オブジェクトの真正性評価に関係するものでもない。本実施形態では、二つの機械学習アルゴリズムを利用することで、異なるタイプの差分を考慮して真正性を分析することができる。二つの機械学習アルゴリズムに分析を分担させることで、効率的な分析が可能となる。
【0028】
代替の実施形態では、ステップe)は、識別サーバシステムにおいて、位置合わせされたターゲット画像と参照画像との間の差分を決定するように訓練された第1の識別ニューラルネットワークと、参照画像に固有のものであり、参照画像に関連して第1の識別ニューラルネットワークによって決定された差分を分析するように訓練された第2の識別ニューラルネットワークとを提供することから構成される。ステップe)は、識別サーバシステムによって、位置合わせされたターゲット画像と位置合わせされた参照画像とを第1の識別ニューラルネットワークで処理することと、識別サーバシステムによって、第1の識別ニューラルネットワークを利用して第1の差分ベクトルを生成することとを備える。ステップe)は、識別サーバシステムによって、オブジェクトの真正性を識別するために、参照画像に固有の第2の識別ニューラルネットワークを用いて第1の差分ベクトルを処理することをさらに含む。本実施形態によれば、二つのニューラルネットワークを利用することにより、異なるタイプの差分を考慮して真正性を分析することができる。また、二つのニューラルネットワークに分担することで、効率的な解析が可能となる。
【0029】
一実施形態では、ステップe)は、識別サーバシステムにおいて、ターゲット画像の整列したサブ部分と参照画像の対応するサブ部分との間の差分を決定するように訓練された第1の機械学習識別アルゴリズムと、参照画像の一つ以上のサブ部分に固有で、参照画像の一つ以上のサブ部分の各々に関連して第1の機械学習識別アルゴリズムによって決定された差分を分析するように訓練された一つ以上の第2の機械学習識別アルゴリズムとを備えることを含んでいる。ステップe)は、識別サーバシステムによって、ターゲット画像の一つ以上の位置合わせされたサブパーツ及び参照画像の一つ以上の対応するサブパーツをそれぞれ第1の機械学習識別アルゴリズムで処理し、識別サーバシステムによって、第1の機械学習識別アルゴリズムを利用して一つ以上の差分ベクトルを生成し、一つ以上の差分ベクトルのそれぞれは、参照画像の一つのサブパーツに固有のものであることを含む。ステップe)は、識別サーバシステムによって、オブジェクトの真正性を識別するために、参照画像の一つ以上のサブパーツにそれぞれ固有の一つ以上の第2の機械学習識別アルゴリズムを用いて一つ以上の差分ベクトルを処理することを更に含む。本実施形態は、二つの機械学習アルゴリズムを利用し、ターゲット画像の一つ以上のサブパーツに着目することにより、異なるタイプの差分を考慮して真正性を分析することができる。また、二つの機械学習アルゴリズムと一つ以上のサブパーツに分析を振り分けることで、より効率的な分析が可能となる。
【0030】
別の実施形態では、ステップe)は、識別サーバシステムにおいて、ターゲット画像の位置合わせされたサブパーツと参照画像の対応するサブパーツとの間の差分を決定するように訓練された第1の識別ニューラルネットワークと、参照画像の一つ以上のサブパーツに固有の、参照画像の一つ以上のサブパーツのそれぞれに関連して第1の識別ニューラルネットワークによって決定された差分を分析するように訓練された一つ以上の第2の識別ニューラルネットワークとを提供することから構成される。ステップe)は、識別サーバシステムにより、ターゲット画像の一つ以上の位置合わせされたサブパーツ及び参照画像の一つ以上の対応するサブパーツをそれぞれ第1の識別ニューラルネットワークで処理することと、識別サーバシステムにより、第1の識別ニューラルネットワークを利用して一つ以上の差分ベクトルを生成し、一つ以上の差分ベクトルのそれぞれは参照画像の一つのサブパーツに固有のものであることを含む。ステップe)は、識別サーバシステムによって、オブジェクトの真正性を識別するために、参照画像の一つ以上のサブパーツにそれぞれ固有の一つ以上の第2の識別ニューラルネットワークを用いて一つ以上の差分ベクトルを処理することをさらに含む。本実施形態は、二つのニューラルネットワークを利用し、ターゲット画像の一つ以上のサブパーツに着目することで、異なるタイプの差分を考慮して真正性を分析することができる。二つのニューラルネットワークと一つ以上のサブパーツとに分析を分けることで、さらに効率的な分析が可能となる。
【0031】
いくつかの実施形態において、機械学習アルゴリズムは、ネットワークベースの機械学習アルゴリズム、又はモデルベースの機械学習アルゴリズム、又はノンパラメトリック機械学習アルゴリズムから構成されてもよい。ニューラルネットワークは、任意の適切な人工ニューラルネットワークであってもよい。
【0032】
本発明の一実施形態において、ステップd)における位置合わせは、識別サーバシステムによって、ターゲット画像における対応する位置と参照画像における対応する位置とを認識することと、識別サーバシステムによって、ターゲット画像を歪ませることによってターゲット画像における対応する位置と参照画像における対応する位置とを互いに位置合わせすることとからなる画像位置合わせである。したがって、本方法は、対応する位置のうちの一つ以上を位置合わせすることを含んでいてもよく、位置合わせは、真正性の高品質分析を提供するために正確かつ効率的に実施され得る。
【0033】
別の実施形態では、ステップd)は、識別サーバシステムによって、ターゲット画像の一つ以上のサブパーツの少なくとも一つ及び参照画像の少なくとも一つの対応するサブパーツにおける対応する位置を認識することと、識別サーバシステムによって、ターゲット画像の一つ以上のサブパーツの少なくとも一つ及び参照画像の少なくとも一つの対応する部分における対応する位置をターゲット画像の少なくとも一つ以上のサブパーツを変形することによって互いに位置合わせすることと、を含んでいる。この方法は、ターゲット画像の少なくとも一つのサブパーツにおける対応する位置が互いに位置合わせされていることを示す。従って、本方法は、一つ以上のサブパーツの対応する位置の一つ以上を位置合わせすることを含んでいてもよく、位置合わせは、真正性の高品質分析を提供するために正確かつ効率的に実施され得る。
【0034】
一実施形態では、ステップd)における位置合わせは、識別サーバシステムによって、参照画像上に参照画像グリッドを画像位置合わせ及び関連付けることと、識別サーバシステムによって、ターゲット画像上にターゲット画像グリッドを関連付けることと、識別サーバシステムによって、ターゲット画像を参照画像に位置合わせするために参照画像との関係でターゲット画像グリッドを調整することにより、ターゲット画像を参照画像に位置合わせすることと、を含んでいる。ターゲット画像グリッドと参照画像グリッドを利用してターゲット画像を参照画像に位置合わせすることにより、ターゲット画像と参照画像の位置合わせを簡便に行うことができ、効率的な処理を実現することができる。
【0035】
別の実施形態では、ステップd)における位置合わせは、識別サーバシステムによって、参照画像上の参照画像グリッドを画像位置合わせ及び関連付けることと、識別サーバシステムによって、ターゲット画像上のターゲット画像グリッドを関連付けることと、ターゲット画像を参照画像に位置合わせするために、参照画像に対してターゲット画像グリッドを歪ませることによって、識別サーバシステムによって、ターゲット画像を参照画像に位置合わせすることである。ターゲット画像グリッド及び参照画像グリッドを利用してターゲット画像を参照画像に位置合わせすることにより、ターゲット画像を参照画像に位置合わせすることを簡略化して効率的な処理を提供することができる。
【0036】
本発明の一実施形態において、参照画像グリッドは参照グリッドポイントを含み、ターゲット画像グリッドはターゲットグリッドポイントを含み、識別サーバシステムによって、ターゲット画像を参照画像に位置合わせするステップd)は、識別サーバシステムによって、ターゲット画像を歪めるためにターゲット画像グリッドのターゲットグリッドポイントを移動することによって、参照画像の対応する参照グリッドポイントに対してターゲット画像グリッドのターゲットグリッドポイントを調節することを更に含むことを特徴としている。この位置合わせは、ターゲット画像グリッドのターゲットグリッドポイントを、互いに関連して、かつ、参照画像グリッドの参照グリッドポイントに対して個別に移動させることによって行われる。このようにして、ターゲット画像及びターゲット画像グリッドは、歪んで、参照画像に画像整合されたものとなる。
【0037】
別の実施形態では、ステップd)識別サーバシステムによって、ターゲット画像を参照画像に位置合わせすることは、識別サーバシステムによって、ターゲット画像を歪めるためにターゲット画像グリッドのターゲットグリッドポイントを移動させることによって、ターゲット画像グリッドのターゲットグリッドポイントを互いに対して、及び参照画像の対応する参照グリッドポイントに対して調節することを更に含む。
【0038】
一実施形態では、識別サーバシステムによる、ステップd)位置合わせは、ターゲット画像を歪めるためにターゲット画像グリッドのターゲットグリッドポイントを反復的に移動させることによって、ターゲット画像を参照画像に反復的に位置合わせすることを含んでいる。ターゲット画像グリッドの各ターゲットグリッドポイントは、ターゲット画像グリッドの他のターゲットグリッドポイントとの関係で、及び参照画像グリッドの参照グリッドポイントとの関係で、個別に移動されてもよい。これは、正確な位置合わせを提供するために、ターゲット画像グリッドのターゲットグリッドポイントを2回以上移動させることによって、反復プロセスで実施される。
【0039】
別の実施形態では、ステップd)識別サーバシステムによって、ターゲット画像を参照画像に位置合わせすることは、ターゲット画像を歪ませるためにターゲット画像グリッドのターゲットグリッドポイントを移動させることによって、識別サーバシステムによって、ターゲット画像を参照画像に位置合わせすることをさらに備える。ステップd)は、識別サーバシステムによって、ターゲット画像の参照画像への位置合わせを検証することと、識別サーバシステムによって、ターゲットを歪ませるためにターゲット画像グリッドのターゲットグリッドポイントを反復的に移動させることによって、ターゲット画像を参照画像に反復的に位置合わせすることとをさらに備える。ターゲット画像グリッドのターゲットグリッドポイントの反復移動は、ターゲット画像の参照画像への位置合わせを検証または評価することと、検証に基づいて移動、または反復移動を繰り返すこととを含んでもよい。検証することは、分析するためのステップe)を実施することを含んでもよい。ステップe)は、反復アライメントステップd)の間に実施されてもよい。
【0040】
一実施形態では、識別サーバシステムによって、ターゲット画像を参照画像に位置合わせするステップd)は、ダウンスケールされた参照画像グリッドを有するダウンスケールされた参照画像を形成するために、識別サーバシステムによって、参照画像を参照画像グリッドと共にスケールダウンすることと、参照画像に対するターゲット画像の初期画像位置合わせを提供するために、識別サーバシステムによって、ターゲット画像をダウンスケールされた参照画像に位置合わせすることと、を備える。ステップd)はさらに、第1のアップスケールされた参照画像グリッドを有する第1のアップスケールされた参照画像を形成するために、識別サーバシステムによって、ダウンスケールされた参照画像をダウンスケールされた参照画像グリッドと共にスケールアップすることと、参照画像に対するターゲット画像の第1の画像位置合わせを提供するために、識別サーバシステムによって、ターゲット画像を第1のアップスケールされた参照画像に位置合わせすることと、を含む。反復的な位置合わせすることは、参照画像及び参照画像グリッドのダウンスケールすることと、参照画像及び参照画像グリッドのアップスケールすることとを行い、連続的な位置合わせすることの間でスケールアップされた参照画像に対してターゲット画像を2回以上連続的に位置合わせすることを行う。
【0041】
別の実施形態では、識別サーバシステムによって、ターゲット画像を参照画像に位置合わせするステップd)は、ダウンスケールされた参照画像グリッドを有するダウンスケールされた参照画像を形成するために、識別サーバシステムによって、参照画像を参照画像グリッドと共にスケールダウンすることと、参照画像に対するターゲット画像の初期画像位置合わせを提供するために、識別サーバシステムによって、ターゲット画像をダウンスケールされた参照画像に位置合わせすることとから構成される。ステップd)はさらに、第1のアップスケールされた参照画像グリッドを有する第1のアップスケールされた参照画像を形成するために、識別サーバシステムによって、ダウンスケールされた参照画像をダウンスケールされた参照画像グリッドと共にスケールアップすること、識別サーバシステムによって、ターゲット画像の参照画像に対する第1の画像位置合わせを提供するためにターゲット画像を第1のアップスケールされた参照画像グリッドに位置合わせすることと、ターゲット画像の参照画像に対する第1の画像位置合わせを提供するために、識別サーバシステムによって、参照画像グリッドと共に参照画像をアップスケールしてターゲット画像をアップスケールされた参照画像に位置合わせすることを、1回以上繰り返すことと、を含む。従って、位置合わせすることは、徐々に、より正確に提供される。
【0042】
一実施形態では、識別サーバシステムによって、ターゲット画像を参照画像に位置合わせするステップd)は、ダウンスケールされた参照画像グリッドを有するダウンスケールされた参照画像を形成するために、識別サーバシステムによって、参照画像を参照画像グリッドと共にスケールダウンすること、ターゲット画像グリッドのターゲットグリッドポイントを移動することによって、識別サーバシステムによって、ターゲット画像をダウンスケールされた参照画像に位置合わせすることを更に備える。ステップd)はさらに、第1のアップスケールされた参照画像グリッドを有する第1のアップスケールされた参照画像を形成するために、識別サーバシステムによって、ダウンスケールされた参照画像をダウンスケールされた参照画像グリッドと共にスケールアップすることと、識別サーバシステムによって、ターゲット画像グリッドのグリッドポイントを移動させることによって、ターゲット画像を第1のアップスケールされた参照画像に位置合わせすることとを備える。ダウンスケーリングとアップスケーリングは、ターゲット画像の参照画像への位置合わせを徐々にかつ反復的に、より正確に提供する。このように、ターゲット画像グリッドのターゲットグリッドポイントを移動させることにより、高品質のアライメントが効率的に達成される。
【0043】
別の実施形態では、識別サーバシステムによって、ターゲット画像を参照画像に位置合わせするステップd)は、ダウンスケールされた参照画像グリッドを有するダウンスケールされた参照画像を形成するために、識別サーバシステムによって、参照画像を参照画像グリッドと共にスケールダウンすることと、ターゲット画像グリッドのターゲットグリッドポイントを移動させることによって、識別サーバシステムによって、ターゲット画像をダウンスケールされた参照画像のマグに位置合わせすることと、をさらに備える。ステップ)は、さらに、第1のアップスケールされた参照画像グリッドを有する第1のアップスケールされた参照画像を形成するために、識別サーバシステムによって、ダウンスケールされた参照画像をダウンスケールされた参照画像グリッドと共にスケールアップすることと、識別サーバシステムによって、ターゲット画像を、第1のアップスケールされた参照画像グリッドに位置合わせすることと、を備える。ターゲット画像グリッドのターゲットグリッドポイントを移動させることによって、ターゲット画像を第1のアップスケールされた参照に合わせるステップと、ターゲット画像の参照画像に対する第1の画像位置合わせを提供するために、識別サーバシステムによって、参照画像グリッドと共に参照画像をアップスケールし、ターゲット画像をアップスケールされた参照画像に合わせることを1回以上繰り返すステップと、を含むことを特徴とする。従って、参照画像及び参照画像グリッドをアップスケールし、ターゲット画像を歪ませるためにターゲット画像グリッドのターゲットグリップポイントを移動させることによって、位置合わせは徐々に、より正確に提供される。
【0044】
いくつかの実施形態では、分析するステップe)は、参照画像のアップスケーリングと位置合わせの間に実施されてもよい。さらに別途スケーリングされた参照画像への各位置合わせは、ターゲットグリッドポイントを移動させるか又は反復的に移動させることによる位置合わせを含んでいてもよい。
【0045】
一実施形態では、ステップb)は、識別サーバシステムにおいて、識別されるべきオブジェクトの二つ以上の入力画像を受信することからなり、ステップc)は、識別サーバシステムによって、二つ以上の入力画像のうちの一つをターゲット画像として選択することからなる。したがって、二つ以上の入力画像のうちの一つがターゲット画像として選択される。
【0046】
別の実施形態では、ステップb)は、識別サーバシステムにおいて、識別されるべきオブジェクトの二つ以上の入力画像を受信することからなり、ステップc)は、識別サーバシステムによって、二つ以上の入力画像を参照画像と比較することからなり、ステップc)はさらに、識別サーバシステムによって、比較に基づいて、ターゲット画像として二つ以上の入力画像のうちの一つを選択することからなる。したがって、選択は、入力画像と参照画像とを比較し、参照画像と最も一致する入力画像をターゲット画像として選択することにより行われる。このように、オブジェクトの真正性を識別するために最も有望な入力画像を選択することで、高品質な識別結果を得ることができる。
【0047】
一実施形態では、ステップb)は、識別サーバシステムにおいて、識別されるべきオブジェクトの二つ以上の入力画像を受信することからなり、ステップc)は、識別サーバシステムによって、二つ以上の入力画像のうちの少なくとも二つを参照画像に対して位置合わせし、識別サーバシステムによって、位置合わせした二つ以上の入力画像のうちの少なくとも二つをターゲット画像として合成することによりターゲット画像を生成することからなる。したがって、二つ以上の入力画像から、二つ以上のターゲット画像を合成することにより、ターゲット画像を生成する。したがって、二つ以上の入力画像のそれぞれの最も有望な部分を利用して、高品質のターゲット画像を生成することができる。
【0048】
別の実施形態では、ステップb)は、識別サーバシステムにおいて、識別されるべきオブジェクトの2以上の入力画像を受信することを含み、ステップc)は、2以上の入力画像のうちの一つを主入力画像として選択することを含み、識別サーバシステムによって、2以上の入力画像のうちの少なくとも一つを主入力画像に対して位置合わせし、識別サーバシステムによって、2以上の位置合わせした入力画像のうちの少なくとも一つと、ターゲット画像としての主入力画像を組み合わせることによって、ターゲット画像を生成することを含んでいる。従って、ターゲット画像は、入力された二つ以上の位置合わせされた入力画像から生成される。したがって、二つ以上の入力画像のそれぞれの最も有望な部分を利用して、高品質のターゲット画像を生成することができる。
【0049】
少なくとも一つの入力画像の主入力画像への位置合わせは、上記に開示したのと同様の方法で、又は入力画像又はターゲット画像の参照画像への位置合わせに関する上述の方法及び代替案のいずれかに従って実施される。
【0050】
一実施形態では、ステップb)は、識別サーバシステムにおいて、識別されるべきオブジェクトの二つ以上の入力画像を受信することからなる。ステップc)は、識別サーバシステムによって、二つ以上の入力画像のうちの少なくとも二つを一つまたは主入力画像に位置合わせすることと、識別サーバシステムによって、二つ以上の入力画像のうちの少なくとも二つを二つ以上のサブパーツに分割することと、識別サーバシステムによって、二つ以上のサブパーツのうちの少なくとも二つを選択することと、識別サーバシステムによって、ターゲット画像として選択したサブパーツを合成することによってターゲット画像を生成することとから構成されている。したがって、各入力画像は、二つ以上の部分画像に分割されてもよい。そして、二つ以上の入力画像の対応する部分画像のうち、一つ、あるいは最も有望なものをターゲット画像に選択する。このように、ターゲット画像は、二つ以上の入力画像のうち最も有望なサブパーツで構成される。
【0051】
別の実施形態では、ステップb)は、識別サーバシステムにおいて、識別されるべきオブジェクトの二つ以上の入力画像を受信することからなる。ステップc)は、識別サーバシステムによって、二つ以上の入力画像のうちの少なくとも二つを一つまたは主要な入力画像と位置合わせすることと、識別サーバシステムによって、二つ以上の入力画像のうちの少なくとも二つを二つ以上のサブパーツに分割することと、識別サーバシステムによって、二つ以上のサブパーツを比較することとから構成される。前記識別サーバシステムにより、前記入力画像の二つ以上の部分画像と前記参照画像の対応する部分画像とを比較し、前記識別サーバシステムにより、前記比較に基づいて前記二つ以上の部分画像のうちの少なくとも二つを選択し、前記識別サーバシステムにより、選択した部分画像を前記ターゲット画像として合成して前記ターゲット画像を生成する、ことを特徴とする。したがって、二つ以上の入力画像から、二つ以上の入力画像を合成することにより、ターゲット画像を生成する。したがって、入力画像の対応するサブパーツおよび/または参照画像に対するサブパーツに基づいて、2以上の入力画像のそれぞれの最も有望な部分を利用して、高品質のターゲット画像を生成することができる。したがって、各入力画像は、二つ以上のサブパーツに分割されてもよい。従って、選択されたサブパーツは、ターゲット画像を形成するために一緒にマージされる。
【0052】
一実施形態では、ステップc)又はd)は、識別サーバシステムによって、一つ以上の入力画像から、又はターゲット画像から入力オブジェクト画像を抽出することを含み、ターゲット画像は、入力オブジェクト画像からなり、入力オブジェクト画像は、オブジェクトの輪郭に適合している。したがって、生成されたターゲット画像は、オブジェクトの画像のみからなり、入力画像の他の部分は除去される。従って、入力画像やターゲット画像の過剰な部分が真正性の識別に影響を与えることはない。
【0053】
別の実施形態では、識別サーバシステムによって、一つ以上の入力画像から、またはターゲット画像から入力オブジェクト画像を抽出し、識別サーバシステムによって、ターゲット画像を形成するための背景を除去し、ターゲット画像は、入力オブジェクト画像からなり、入力オブジェクト画像は、オブジェクトの輪郭に適合している。従って、生成されたターゲット画像は、オブジェクトの画像のみからなり、入力画像またはターゲット画像の背景は除去される。従って、入力画像又はターゲット画像の背景が真正性の識別に影響を与えることはない。
【0054】
本発明の一実施形態において、ステップc)は、識別サーバシステムによって、一つ以上の入力画像を参照画像にサイズ合わせすることを含む。
【0055】
別の実施形態では、ステップc)又はd)は、識別サーバシステムによって、ターゲット画像を参照画像にサイズ合わせすることからなる。
【0056】
サイズ合わせすることは、サイズが参照画像のサイズと一致するように、入力画像又はターゲット画像のピクセルサイズを変更すること、増加又は減少させることを意味する。
【0057】
一実施形態では、ステップc)は、識別サーバシステムによって、一つ以上の入力画像を参照画像に色合わせすることを含む。
【0058】
別の実施形態では、ステップc)又はd)は、識別サーバシステムによって、ターゲット画像を参照画像に色合わせすることを含んでいる。
【0059】
色合わせすることは、入力画像又はターゲット画像の色を、互いに一致するように、又は参照画像に一致するように、又は互いに及び参照画像に一致するように変更することを意味する。
【0060】
一実施形態において、本方法は、識別サーバシステムによって、参照画像に対する位置合わせされたターゲット画像の分析から位置合わせされたターゲット画像の所定の領域を除外することからなるステップe)の前にさらに備える。従って、ターゲット画像の不要な又は変化する部分又は領域は、真正性の分析から除外することができる。したがって、例えば、製造年月日等の変化する情報又は特徴からなる領域は、分析から除外される。この変化する情報は、分析に影響を与えない。
【0061】
別の実施形態では、この方法は、識別サーバシステムによって、位置合わせされたターゲット画像の所定の領域と、参照画像との関連で位置合わせされたターゲット画像のアナライジングから所定の領域を除外するための参照画像の対応する所定の領域とにマスクを適用するステップe)の前にさらに構成される。従って、マスクは、所定の領域をアナライジングから除外する。
【0062】
本発明の利点は、真偽の識別が、元のオブジェクトの参照画像に関連して識別されるべきオブジェクトの画像を分析することに基づいて行われることである。さらに、本発明では、参照画像に関連して分析されるターゲット画像は、分析または比較ができるだけ正確になるように、参照画像に画像整合されている。従って、本発明では、参照画像に関連して分析されるターゲット画像は、参照画像にできるだけ対応するように提供される。つまり、ターゲット画像は、信頼性の高い高品質の真正性識別が達成されるように、参照画像と可能な限り一致するように提供される。
【図面の簡単な説明】
【0063】
本発明は、添付の図面を参照しつつ特定の実施形態によって詳細に説明される。
【0064】
【
図1】
図1は、本発明の方法を実施するための識別システムの一実施形態を概略的に示している。
【
図4A】
図4A及び
図4Bは、それぞれ、オリジナルオブジェクトの参照画像及びターゲット画像を模式的に示す。
【
図4B】
図4A及び
図4Bは、それぞれ、オリジナルオブジェクトの参照画像及びターゲット画像を模式的に示す。
【
図5】
図5及び
図6は、本発明の方法による異なる実施形態のフローチャートを模式的に示す図である。
【
図6】
図5及び
図6は、本発明の方法による異なる実施形態のフローチャートを模式的に示す図である。
【
図8】
図8から
図12は、本発明の方法に係る異なる実施形態のフローチャートを模式的に示す図である。
【
図9】
図8から
図12は、本発明の方法に係る異なる実施形態のフローチャートを模式的に示す図である。
【
図10】
図8から
図12は、本発明の方法に係る異なる実施形態のフローチャートを模式的に示す図である。
【
図11】
図8から
図12は、本発明の方法に係る異なる実施形態のフローチャートを模式的に示す図である。
【
図12】
図8から
図12は、本発明の方法に係る異なる実施形態のフローチャートを模式的に示す図である。
【
図15】
図15は、本発明の方法による一実施形態のフローチャートを模式的に示す図である。
【
図17】
図17は、グリッドを利用してダウンスケールされた参照画像とターゲット画像とを位置合わせする画像を模式的に示す図である。
【
図18】
図18は、本発明の方法に係る異なる実施形態のフローチャートを模式的に示す図である。
【
図19】
図19は、ターゲットグリッドポイントの移動を模式的に示す図である。
【
図20A】
図20A及び
図20Bは、ターゲットグリッドポイントの移動によるターゲット画像グリッドの歪みを模式的に示す図である。
【
図20B】
図20A及び
図20Bは、ターゲットグリッドポイントの移動によるターゲット画像グリッドの歪みを模式的に示す図である。
【
図21】
図21は、本発明の方法による一実施形態のフローチャートを模式的に示す図である。
【発明を実施するための形態】
【0065】
発明の詳細な説明
本発明およびその実施形態は、特定の情報技術システム、通信システムおよびアクセスネットワークに特定されるものではないが、本発明およびその実施形態は、多くのシステムタイプにおいて適用され、例えば、回線交換ドメイン、e.GSM(Global System for Mobile Communications)デジタルセルラー通信システムにおいて、パケット交換ドメインにおいて、例えば、UMTS(Universal Mobile Telecommunications System)システム、3GPP(登録商標)(3G Partnership Project)によって標準化されたLTE(Long Term Evolution)、または5G NR(New Radio)規格において、および例えばIEEE 802.11規格によるネットワークにおいて、適用され得る。WLAN(Wireless Local Area networks)、HomeRF(Radio Frequency)またはBRAN(Broadband Radio Access Networks)仕様(HIPERLAN1および2、HIPERACCESS)等である。また、本発明およびその実施形態は、IrDA(Infrared Data Association)ネットワークやBluetoothネットワークなどのアドホック通信システムにおいても適用可能である。言い換えれば、本発明の基本原理は、GSM、GPRS(General Packet Radio Service)、TETRA(Terrestrial Trunked Radio)、UMTSシステム、HSPA(High Speed Packet Access)システム例えばWCDMA(登録商標)(Wideband Code Division Multiple Access)技術、PLMN(Public Land Mobile Network)システムなどの第2、2,5、3、4、5世代(およびそれ以降)の任意の移動通信システムと共に、それらの間で、および/またはその中において採用することが可能である。
【0066】
IP(Internet Protocol)プロトコルを用いた通信技術は、例えば、GAN技術(General Access Network)、UMA(Unlicensed Mobile Access)技術、VoIP(Voice over Internet Protocol)技術、ピアツーピアネットワーク技術、アドホックネットワーク技術、その他のIPプロトコル技術であり得る。異なるIPプロトコルのバージョンまたはその組み合わせを使用することができる。
【0067】
本発明の実施形態が適用され得る通信システムのアーキテクチャが
図1に示されている。
図1は、いくつかの要素および機能エンティティのみを示す簡略化されたシステムアーキテクチャであり、全ては、実装が示されているものと異なる可能性のある論理ユニットである。図に示された接続は論理的な接続であり、実際の物理的な接続は異なる場合がある。当業者には、システムが他の機能及び構造からなることも明らかである。
【0068】
以上によれば、本発明は、公知または将来のいかなるシステムまたは装置またはサービスにも限定されず、本発明による以下の方法によって、いかなるシステムにも利用することができる。
【0069】
図1は、ユーザが通信ネットワーク100を介してユーザデバイス10を使用して識別サーバシステム50に接続することができる識別システムを示す図である。
図1は、識別システムの簡略版を提示し、他の実施形態では、無制限の数のユーザが、通信ネットワーク100を介して識別サーバシステム50に接続することができることに留意されたい。
【0070】
通信ネットワーク100は、一つ以上の無線ネットワークから構成されてもよく、無線ネットワークは、GSM、GPRS、LTE、4G、5Gおよびそれ以降などの任意のモバイルシステム、ならびにWi-Fiなどの無線ローカルエリアネットワークに基づいてもよい。さらに、通信ネットワーク100は、一つ以上の固定ネットワークまたはインターネットから構成されてもよい。
【0071】
識別サーバシステム50は、識別データベース58に接続された少なくとも一つの識別サーバから構成されてもよい。また、識別サーバシステム50は、端末装置、サーバ及び/又はデータベース装置などの一つ以上の他のネットワーク装置(図示せず)から構成されてもよい。識別サーバシステム50は、通信ネットワーク100を介して一つ以上のユーザデバイス10と通信するように構成される。識別サーバシステム50またはサーバと識別データベース58は、
図1のように、単一のデータベースサーバ、すなわち、データストレージ(データベース)とデータ管理システムの組み合わせを形成してもよいし、これらは別個のエンティティであってもよい。データストレージは、任意の適切なデータ管理システムによって管理される、データの分散型および/または集中型の格納、クラウド環境(すなわち、コンピューティングクラウド)におけるクラウドベースの格納を含む、任意の種類の従来または将来のデータリポジトリであってよい。データストレージの詳細な実装は、本発明とは無関係であり、したがって、詳細には説明されない。識別データベース58に加えて、またはその代わりに、識別サーバシステム50の他の部分も、二つ以上の別個のサーバからなる分散サーバシステムとして、または一つ以上のクラウドサーバからなるコンピューティングクラウドとして実装することができる。いくつかの実施形態では、識別サーバシステム50は、完全にクラウドベースのサーバシステムであってもよい。さらに、識別サーバシステム50の位置は、本発明とは無関係であることを理解されたい。識別サーバシステム50は、システム内の一つ以上の他のネットワーク装置を使用して、または通信ネットワーク100を介して端末装置(図示せず)を使用して、操作および保守されてもよい。また、識別サーバシステム50は、一つ以上のユーザデバイスから構成されてもよい。
【0072】
いくつかの実施形態では、識別サーバシステム50は、ユーザデバイス10と一体であり、ユーザデバイス10に対する内部サーバシステムとして提供される。さらに、これらの実施形態では、通信ネットワーク100は、ユーザデバイス内の無線通信ネットワークまたは有線通信ネットワークまたは接続など、ユーザデバイス10内の内部通信ネットワークまたはコンポーネントとして実装される。
【0073】
識別サーバシステム50はまた、処理モジュール52を含んでいてもよい。処理モジュール52は、メモリモジュール54に結合され、または他の方法でアクセスすることができる。処理モジュール52およびメモリモジュール54は、識別サーバ、またはその少なくとも一部を形成してもよい。識別サーバ、または処理モジュール52および/またはメモリモジュール54は、識別データベース58にアクセスすることができる。処理モジュール52は、識別アプリケーションの命令または識別アプリケーションの命令を利用してユニットを実行するように構成されてもよい。識別サーバシステム50は、識別アプリケーションであってよい識別ユニット56を含んでいてもよい。識別アプリケーション56は、識別サーバシステム50のメモリモジュール54に格納されてもよい。識別アプリケーション又はユニット56は、識別アプリケーションを動作させる命令で構成されてもよい。したがって、処理モジュール52は、識別アプリケーションの指示を実行するように構成されてもよい。
【0074】
処理モジュール52は、一つ以上の処理ユニットまたは中央処理装置(CPU)等の演算装置で構成されてもよい。本発明は、いかなる種類の処理ユニットまたはいかなる数の処理ユニットにも制限されない。メモリモジュール54は、非一過性のコンピュータ読み取り可能な記憶媒体又はコンピュータ読み取り可能な記憶装置から構成されてもよい。いくつかの実施形態では、メモリモジュール54は、メモリモジュール54の主目的が長期保存でなくてもよいことを意味する一時メモリを構成してもよい。また、メモリモジュール54は、メモリモジュール54が電力を受けていないときに記憶された内容を維持しないことを意味する、揮発性メモリを参照することができる。揮発性メモリの例は、ランダムアクセスメモリ(RAM)、動的ランダムアクセスメモリ(DRAM)、静的ランダムアクセスメモリ(SRAM)、及び当該技術分野で知られている他の形態の揮発性メモリを含む。いくつかの例では、メモリモジュール54は、処理モジュール52、例えば識別アプリケーションによる実行のためのプログラム命令を格納するために使用される。メモリモジュール54は、一実施形態では、ソフトウェア(例えば、オペレーティングシステム)又はアプリケーション、例えば、ソフトウェア、ファームウェア、又はミドルウェアによって使用されてもよい。メモリモジュール54は、例えばオペレーティングシステムまたはソフトウェアアプリケーション、本発明の方法を実行するための命令の少なくとも一部を構成する識別アプリケーション、から構成されてもよい。従って、識別サーバシステム50の識別ユニット56は、識別アプリケーションを構成し、それは、
図1に示すように、別のアプリケーションユニットであってもよいし、代替的に、別のアプリケーションユニットであってもよい。
【0075】
処理モジュール52、メモリモジュール54及び識別ユニット56は、一緒に識別サーバシステム50の識別モジュール55を形成する。
【0076】
識別データベース58は、本発明の方法を実行するための命令の少なくとも一部を含むソフトウェアアプリケーション、識別アプリケーションを構成するように構成されてもよいことに、留意されたい。
【0077】
識別データベース58は、一つ以上のオリジナルオブジェクトと、一つ以上のオリジナルオブジェクトの一つ以上の参照画像との情報を維持してもよい。また、識別データベース58は、複数のユーザの一つ以上のユーザアカウントの情報及び/又は当該ユーザアカウント若しくはユーザデバイス10を介して識別サーバシステム50にアップロードされた情報を保持してもよい。識別データベース58は、一つ以上の記憶装置から構成されてもよい。また、記憶装置は、一つ以上の一過性又は非一過性のコンピュータ可読記憶媒体及び/又はコンピュータ可読記憶装置を含んでもよい。いくつかの実施形態では、記憶装置は、メモリモジュール54よりも大量の情報を記憶するように構成されてもよい。ストレージデバイスは、さらに、情報の長期保存のために構成されてもよい。いくつかの例では、記憶装置は、不揮発性記憶素子で構成される。そのような不揮発性記憶素子の例は、磁気ハードディスク、光ディスク、ソリッドステートディスク、フラッシュメモリ、電気的にプログラム可能なメモリ(EPROM)又は電気的に消去可能かつプログラム可能なメモリ(EEPROM)の形態、及び当該技術分野で知られている他の形態の不揮発性メモリを含む。一実施形態では、記憶装置はデータベースを構成してもよく、メモリモジュール54は、処理ユニット52を利用して本発明による方法を実行するための命令及び動作識別アプリケーションを構成する。しかしながら、記憶装置はまた省略されてもよく、識別サーバシステム50は、また識別データベース58を維持するように構成されたメモリモジュール54のみから構成されてもよいことに留意されたい。あるいは、メモリモジュール54は省略され、識別サーバシステム50は、一つ以上の記憶装置のみから構成されることも可能である。したがって、メモリモジュール54および識別データベース58という用語は、これら両方が存在しない実施形態において交換可能であり得る。識別データベース58は、メモリモジュール54に格納され、通信ネットワーク100を介して処理ユニット52によって実行される命令を利用することによって、識別サーバシステム50の他のコンポーネントおよびデータと共に動作可能である。
【0078】
識別データベース58は、
図1に示すように、識別サーバに関連して提供されてもよいし、識別サーバが識別データベース58を構成してもよい。あるいは、識別データベース58は、識別サーバの外部のデータベースとして提供されてもよく、識別データベース58は、識別サーバに直接又は通信ネットワーク100を介してアクセス可能であり、接続されてもよい。
【0079】
記憶装置(複数可)は、識別情報またはオブジェクト情報または参照画像情報を維持するための一つ以上の識別データベース58を格納してもよい。これらの異なる情報項目は、識別データベース58の異なるデータベースブロックに格納されてもよく、あるいは、例えば、個々のオブジェクトまたは参照画像に基づいて、異なってグループ化されてもよい。
【0080】
ユーザは、
図1に示すようなユーザデバイス10によって、本発明の方法およびシステムを利用することができる。ユーザデバイス10は、通信ネットワーク100を介して識別サーバシステム50と接続する、またはアクセスするように構成されてもよい。ユーザデバイス10は、パーソナルコンピュータ、デスクトップコンピュータ、ラップトップまたはユーザ端末、ならびに、ウェブブラウジングを行うのに適した携帯電話またはタブレットコンピュータなどの移動通信機器、または識別サーバシステム50にアクセスし対話することが可能な機器であってもよい。しかしながら、ユーザデバイス10は、パーソナルデジタルアシスタント、シンクライアント、電子ノートブック、またはディスプレイおよびインタフェースを有し、ウェブブラウジングを行うのに適している、または識別サーバシステム50にアクセスして相互作用することができる他の任意のそのような装置であってもよい。
【0081】
さらに、ユーザデバイス10は、任意の携帯可能または非携帯可能なコンピューティング装置を指すことができる。採用され得るコンピューティングデバイスは、ハードウェアまたはソフトウェアにおいて加入者識別モジュール(SIM)を有するかまたは有しない状態で動作する無線移動通信デバイスを含む。
【0082】
図2に示すように、ユーザデバイス10は、ユーザインタフェース12を含んでいる。ユーザインタフェース12は、識別サーバシステム50及び本発明の方法を実施するために識別サーバシステム50及び識別モジュール55を利用し、相互作用するための人間のユーザにとって任意の適切なユーザインタフェースであってもよい。ユーザインタフェース12は、識別サーバシステム50または他のシステムもしくはサーバによって提供される情報に関連して、ユーザデバイス10のディスプレイ11(例えば、モニタ画面、LCDディスプレイなど)上でウェブブラウザまたは専用アプリケーションによって提供されるグラフィカルユーザインタフェース(GUI)であってもよい。ユーザインタフェース12は、例えば、ユーザがメッセージまたはデータを入力し、データファイルをアップロードおよび/またはダウンロードし、画像および情報を入力し、オブジェクトの識別手順に対する要求を提供することを可能にしてもよい。
【0083】
ユーザインタフェース12は、タッチスクリーン、キーボード、マウス、タッチパッド、キーパッド、トラックボールなどの入力装置(図示せず)、または他の適切な手操作入力装置、または音声操作可能ユーザデバイスまたは手や目などの人間のジェスチャー、ジェスチャー検出入力装置などの他の種類の入力装置でユーザによってアクセスされてもよい。入力デバイスは、ユーザからの入力を受け取るように構成されてもよい。ユーザが識別サーバシステム50と対話できるようにするために、本発明のシステムおよび方法に関連してユーザインタフェース(一般にAPI、Application Programmable Interface)が提供されてもよい。
【0084】
また、ユーザインタフェース12は、ユーザデバイス10の撮像装置またはカメラ14に向かって、かつアクセス可能なインタフェースであってもよい。したがって、識別サーバシステム50は、ユーザデバイス10のカメラ14にアクセス可能であり、ユーザデバイス10のカメラ14で得られた一つ以上の画像を受信するように配置されてもよい。
【0085】
ユーザデバイス10は、いくつかの実施形態において、ユーザデバイスメモリ16に格納され、ユーザデバイスプロセッサ15で実行される、ソフトウェアアプリケーションなどのユーザアプリケーション17を含んでいてもよい。
【0086】
さらに、本発明のシステムおよび方法は、通信ネットワーク100および適切な通信プロトコルを介して外部サービスまたはサードパーティサービスと対話するように構成されてもよい。本発明において、外部サービスは、例えば、外部の地図サービス、役人データベース等であってもよい。
【0087】
本発明では、オブジェクトの真正性は、オリジナルオブジェクト又は全ての等価なオリジナルオブジェクトを表す参照画像に関連して、識別されるべきオブジェクトの一つ以上の画像、つまり入力画像を分析することによって識別される。
【0088】
本願の文脈では、一つ以上の入力画像は、真正性が識別されるべきオブジェクトを表す。したがって、入力画像は、本発明のシステム及び方法を用いて真正性が識別されるべきオブジェクトから取り出される。入力画像は、オブジェクトのデジタル画像を提供する画像データファイルである。
【0089】
一実施形態では、一つ以上の入力画像は、ユーザデバイス10のカメラ14で生成されるか、または撮影される。さらに、入力画像は、ユーザアプリケーション17と共に提供されてもよく、識別サーバシステム50は、通信ネットワークを介してユーザデバイス10から直接入力画像を受信してもよい。あるいは、ユーザデバイス10のカメラ14で提供される入力画像は、ユーザデバイス10、またはユーザデバイス10のユーザデバイスメモリ16に格納され、メッセージングアプリケーションまたは電子メールアプリケーションなどの別のアプリケーションで通信ネットワーク100を介して識別サーバシステム50に送信されてもよい。
【0090】
さらなる代替実施形態では、入力画像は、別の撮像装置またはカメラで生成または撮影される。入力画像は、さらに、ユーザデバイス10に搬送されるか、又はユーザデバイス10に受信されるか、又はユーザデバイス10に記憶される。次に、入力画像は、ユーザアプリケーション17で、またはメッセージングアプリケーションや電子メールアプリケーションなどの別個のアプリケーションで、通信ネットワーク100を介して識別サーバシステム50に送信される。
【0091】
なお、ユーザデバイス10の撮像装置又はカメラ14、又は別体の撮像装置又はカメラは、デジタルカメラ、デジタルビデオカメラ、アナログカメラ又はアナログビデオカメラ等、公知の撮像装置又はカメラであればよい。アナログカメラ又はアナログビデオカメラの場合、画像は、デジタル入力画像にデジタル化される。
【0092】
本願の文脈では、参照画像は、元のオブジェクトの外観を表す画像、ビデオ、画像ファイル、データファイルのいずれであってもよい。本発明における参照画像は、オブジェクトの真正性が識別または比較される関連で、オリジナルオブジェクトを表す。従って、参照画像は、一つ以上の、又は、全ての、オリジナルオブジェクトを表す。
【0093】
いくつかの実施形態では、参照画像は、オリジナルオブジェクトのデジタル画像、又は、オリジナルオブジェクトのデジタルビデオである。
【0094】
別の実施形態では、参照画像は、オリジナルオブジェクトの2次元モデル、3次元モデルなどのデジタルモデル又はオリジナルオブジェクトのデジタルモデルファイルである。
【0095】
さらなる実施形態では、参照画像は、印刷ファイルまたは3次元印刷ファイルなどのオリジナルオブジェクトの製造ファイルである。印刷ファイルは、例えば、パッケージの印刷ファイルであってもよい。
【0096】
また、参照画像と入力画像は、異なるデータ形式であってもよい。したがって、識別サーバシステム50は、入力画像を参照画像に対応するファイル形式に変換するように構成されてもよい。あるいは、識別サーバシステム50は、参照画像と入力画像、またはターゲット画像を、異なるファイル形式で互いに分析または比較するように構成されてもよい。
【0097】
本発明は、任意のファイルタイプまたは画像タイプに限定されるものではなく、ファイルタイプおよび画像タイプは様々であってよく、任意の種類の画像ファイルおよびデータファイルを本発明の方法およびシステムで利用できることに留意されたい。
【0098】
図3Aは、真正性が識別されるべきオブジェクトの一つの生入力画像90を示す。生入力画像90は、オブジェクトを表すオブジェクト入力画像70と、オブジェクト及びオブジェクト画像70の一部ではない背景画像又は追加画像91とからなる。入力されるオブジェクト画像70のオブジェクトは、パッケージの一つのパッケージ表面である。
【0099】
注意すべきは、真偽が識別されるオブジェクトは、任意のオブジェクトであってもよいことである。
【0100】
図3Bは、真正性が真正性されるべきオブジェクトのみを表す入力されるオブジェクト画像70を示す。したがって、入力されるオブジェクト画像70は、オブジェクトの輪郭又は外観を表すか又は適合している。
【0101】
オブジェクトの真正性を識別するために一緒に同様に利用されるべき一つ以上の入力画像70が存在してもよいことに留意されたい。
【0102】
したがって、一実施形態では、生の入力画像90の背景画像又は追加画像91は除去される。
【0103】
あるいは、入力オブジェクト画像70は、入力画像90から抽出される。
【0104】
さらに代替的に、入力オブジェクト画像70は、生の入力画像90においてのみ識別され、生の入力画像90はそのように利用されるが、識別は、識別された入力オブジェクト画像70との関係においてのみ実行される。このように、識別された入力オブジェクト画像70のみが識別に利用されるが、生入力画像90の背景が除去されたり、入力オブジェクト画像70が抽出されたりすることはない。
【0105】
背景91を除去し、入力オブジェクト画像70を抽出することは、生入力画像90における入力オブジェクト画像70を特定することも含んでいる。したがって、生入力画像90における入力オブジェクト画像70の特定は、背景91を除去する前、または生入力画像90から入力オブジェクト画像70を抽出する前に実施される。
【0106】
入力オブジェクト画像70の識別は、入力オブジェクト画像70または生入力画像90内のオブジェクトの角79を識別することから構成されてもよい。角79の識別は、入力オブジェクト画像70又は生入力画像90内のオブジェクトの形状を識別することを含んでもよい。また、角79の特定と、入力オブジェクト画像70又は生入力画像90中のオブジェクトの形状の特定とは、異なるステップであり、連続して実施されてもよい。また、形状の識別は、角の識別の前に実施してもよいし、その逆でもよい。入力オブジェクト画像70の識別は、角の識別と形状の識別の両方からなり、あるいは一方のみからなる。
【0107】
背景91の除去、入力オブジェクト画像70の抽出及び/又は入力オブジェクト画像70の識別は、識別サーバシステム50又は識別アプリケーション56で、又は代替的にユーザデバイス10又はユーザアプリケーション17によって実施される。
【0108】
入力オブジェクト画像70は、ターゲット画像70を形成し、又はターゲット画像の生成に利用される。ターゲット画像70は、参照画像との関係で分析または比較されるオブジェクトの画像である。
【0109】
本願の文脈では、入力画像70という用語は、入力オブジェクト画像70を意味する。
【0110】
図4Aは、オリジナルオブジェクトの一つの参照画像60を示す。
図4Aの参照画像60は、オリジナルパッケージの一つのパッケージ表面又は側面を表している。参照画像60は、参照画像60及びオリジナルオブジェクトの形状を形成する参照輪郭又はエッジ68及び参照コーナ69を有する参照パッケージ表面62からなる。参照パッケージ表面62は、中心から延びる複数の光線を有する太陽を表す参照シンボル65が設けられた参照シンボル領域64から構成されている。参照パッケージ表面62は、さらに、単語「Product」を表す文字67からなる参照テキスト領域66を備える。
【0111】
注意すべきは、参照画像60の参照テキスト及びシンボル領域66、64は、変化し得る、又は、オリジナルオブジェクトに依存し得る、ということである。したがって、参照テキスト領域66および/または参照シンボル領域64は、存在しないか、または二つ以上の参照テキスト領域66または参照シンボル領域64が存在する可能性がある。
【0112】
図4Bは、
図3Bの入力画像70と、真正性が識別されるべきオブジェクトの画像とを示す図である。
図4Bの入力画像70は、本発明の方法及びシステムによって真正性が識別されるパッケージの一つのパッケージ表面又は側面を表している。入力画像70は、入力画像70及びオブジェクトの形状を形成する輪郭又はエッジ78及び角79を有するパッケージ表面72からなる。パッケージ表面72は、中心から延びる複数の光線を有する太陽を表すシンボル75が設けられたシンボル領域74から構成されている。パッケージ表面72は、さらに、単語「Produ ct」を表す文字77からなるテキスト領域76を備える。
【0113】
本発明では、システム及び方法は、入力画像70内のオブジェクトの真正性を識別するために、参照画像60に関連して入力画像70を分析するように構成されている。従って、入力画像(複数可)は、参照画像60と比較される。さらに、参照画像60と入力画像(複数可)70の形状または輪郭68、78、シンボル領域64、75、および/またはシンボル65、75、および/またはテキスト領域66、76、および/または文字67、77は、互いに比較される。したがって、本発明のシステム及び方法は、入力画像(複数可)が参照画像60と一致するか又は対応するかどうか、更に、オブジェクトがオリジナルオブジェクトと一致するか又は対応するかどうかを評価する。
【0114】
図4A及び4Bから分かるように、入力画像70のシンボル領域74のシンボル75の一つの光線が欠落しており、入力画像70にシンボル偏差80がある。さらに、入力画像70のテキスト領域77の「Produ ct」という文字には、参照画像60に対して文字ズレ81がある。
【0115】
本発明では、真正性が識別されるべき行うオブジェクトの1枚以上の入力画像70を、参照画像に可能な限り対応させるように用意する。このようにすれば、入力画像を得る際のばらつきが真正性の識別に影響しないことが保証され、高品質な判定結果を得ることができる。
【0116】
したがって、一つ以上の入力画像70のうちの少なくとも一つは、参照画像との関係で解析されるターゲット画像の生成に利用される。したがって、ターゲット画像は、少なくとも一つの入力画像または一つ以上の入力画像70から生成される。
【0117】
図5は、本発明によるオブジェクトの真正性を識別するための方法の一実施形態を概略的に示す。
【0118】
本方法は、ステップ300において、識別サーバシステム50において、オリジナルオブジェクトの参照画像60を維持することを含んでいる。参照画像60は、真正性が識別されるべきオブジェクトと等価なオリジナルオブジェクトを表すために提供される。本方法は、ステップ350において、識別サーバシステム50において、識別されるべきオブジェクトの一つ以上の入力画像を受信することを備える。入力画像は、生の入力画像90又は入力オブジェクト画像70であってよい。
【0119】
入力画像90、70は、ユーザデバイス10から受信される。
【0120】
本方法は、ステップ400において、識別サーバシステム50によって、一つ以上の入力画像のうちの少なくとも一つを歪めることによって参照画像に位置合わせすることをさらに含む。歪めることによって位置合わせすることは、画像内部の相対的な寸法が変化するように、画像の部分、位置、領域または画素間の空間的関係を変化させることを意味する。したがって、画像の位置合わせとは、入力画像(複数可)70またはターゲット画像の寸法および/または内部寸法を、参照画像60の対応する寸法に一致するように調整することを意味する。さらに、位置合わせとは、ターゲット画像と参照画像の同じ点、位置または内容が互いに対応するように、ターゲット画像を参照画像上に配置することと考えてもよい。このように、ターゲット画像は、参照画像に対応するように歪められ、それらの差分が正確に分析され得るようにされる。
【0121】
したがって、位置合わせと歪曲の目的は、カメラによるレンズの歪み、識別されるオブジェクトのカーブや段差、遠近感、反射などの少なくとも一つを補正することである。このように、入力画像は、信頼できる識別を提供するための最良のバージョンであり、可能な限り良好であるように位置合わせされる。
【0122】
したがって、ステップ400において、一つ以上の入力画像70のうちの少なくとも一つは、位置合わせのための参照画像60と対応するか一致するように、参照画像60との関係で歪曲される。このようにして、一つ以上の入力画像のうちの少なくとも一つの詳細は、参照画像60との関係において正確に分析され得る。このようにして、一つ以上の入力画像70の少なくとも一つから、少なくとも一つの位置合わせされた入力画像が生成される。
【0123】
位置合わせステップ400の後、本方法は、ステップ450において、識別サーバシステム50により、一つ以上の入力画像のうちの位置合わせされた少なくとも一つからターゲット画像を生成することからなる。従って、このステップでは、ステップ400で提供された一つ以上の位置合わせされた入力画像のうちの少なくとも一つから、一つの位置合わせされたターゲット画像が形成される。ステップ400において一つ以上の入力画像のうちの少なくとも一つが参照画像60に位置合わせされるため、ステップ450において生成されるターゲット画像も位置合わせされる。
【0124】
ターゲット画像は、ステップ450において、一つの入力画像から、又は代替的に二つ以上の位置合わせされた入力画像70から生成されてもよい。
【0125】
ステップ450でターゲット画像を生成することは、二つ以上の位置合わせされた入力画像70を結合することからなってもよい。さらに、ステップ450においてターゲット画像を生成することは、画像前処理によって一つ以上の整列された入力画像70のうちの少なくとも一つを前処理することからなってもよい。ターゲット画像を生成するために一つの整列された入力画像70のみが使用される場合、ステップ450は、画像前処理のみから構成されてもよい。
【0126】
生成されたターゲット画像は、ステップ500の前に、参照画像に対してさらに位置合わせされてもよい。
【0127】
さらに、
図5の方法は、識別サーバシステム50によって、オブジェクトの真正性を識別するために、位置合わせされたターゲット画像を、位置合わせされた参照画像60に関連して分析することを含む。従って、ステップ500において、参照画像60と位置合わせされたターゲット画像は、オブジェクトの真正性を識別するために、参照画像60に関連して、又は参照画像60と比較されて分析される。真正性は、ターゲット画像が参照画像60と対応するか又は一致するかを分析することによって識別される。
【0128】
図6は、本発明による方法の代替実施形態を示す。この実施形態では、ステップ300、350及び500は、
図5の実施形態の同じステップ300、350及び500に対応する。
【0129】
図6の実施形態では、識別サーバシステム50によって、ターゲット画像を生成するステップ450は、位置合わせステップ400の前に実施される。
【0130】
ステップ450において、ターゲット画像は、一つ以上の入力画像70のうちの少なくとも一つから生成される。
【0131】
ターゲット画像の生成に一つの位置合わせされた入力画像70のみが利用される場合、ステップ450は、画像前処理のみから構成されてもよい。
【0132】
ステップ450において二つ以上の入力画像が利用される場合、ステップ450におけるターゲット画像の生成は、ターゲット画像を形成するための二つ以上の入力画像70の結合から構成されてもよい。さらに、ステップ450におけるターゲット画像の生成は、一つ以上の入力画像70のうちの少なくとも一つを画像前処理すること、または結合されたターゲット画像を前処理することを含んでいてもよい。
【0133】
ステップ450においてターゲット画像を形成するために二つ以上の入力画像70を結合することは、二つ以上の入力画像70を互いに、または入力画像から選択された一次入力画像に位置合わせすることをさらに含んでもよい。
【0134】
一実施形態では、これは、入力画像のうちの一つをアライメント参照画像として選択し、一次入力画像を意味し、他の入力画像(複数可)を歪めることによって選択されたアライメント参照画像にアライメントすることによって達成される。ステップ450のアライメントにより、二つ以上の入力画像を合成することで、良質なターゲット画像を生成することができる。
【0135】
あるいは、ステップ450においてターゲット画像を形成するための二つ以上の入力画像70を結合することは、二つ以上の入力画像70を参照画像60に位置合わせすることをさらに含んでもよい。そして、位置合わせされた入力画像70は、ターゲット画像を形成するために結合される。ステップ450における位置合わせにより、二つ以上の入力画像を合成して良質なターゲット画像を生成することができる。次に、ステップ400において、生成されたターゲット画像は、識別サーバシステム50又は識別アプリケーション56によって、参照画像60に対してさらに画像位置合わせされる。
【0136】
一実施形態では、方法は、識別サーバシステム50において、ステップ350で識別されるべきオブジェクトの二つ以上の入力画像を受け取ることと、受け取った二つ以上の入力画像のうちの少なくとも二つを互いに対して又は参照画像に対して位置合わせすることとを含む。
【0137】
位置合わせされた二つ以上の入力画像からターゲット画像を生成するステップ450は、識別サーバシステム50において、二つ以上の入力画像の少なくとも二つを二つ以上のサブパーツに分割し、識別サーバシステム50において、二つ以上のサブパーツの少なくとも二つを選択し、識別サーバシステム50において、ターゲット画像として選択したサブパーツを結合してターゲット画像を生成することから構成されている。
【0138】
好ましくは、他の二つ以上の入力画像のそれぞれは、各サブパーツに対して二つ以上の対応するサブパーツが存在するように、同様の方法で二つ以上のサブパーツに分割される。したがって、対応するサブパーツのうちの一つが、サブパーツのそれぞれについてターゲット画像に選択される。そして、選択された部分画像からターゲット画像を形成する。これにより、最適なターゲット画像を形成することができる。
【0139】
別の実施形態では、二つ以上の位置合わせされた入力画像からターゲット画像を生成するステップ450は、識別サーバシステム50によって、二つ以上の入力画像のうちの少なくとも二つを二つ以上のサブパーツに分割すること、識別サーバシステム50によって、比較すること、からなる。識別サーバシステム50によって、入力画像の二つ以上のサブパーツを参照画像の対応するサブパーツと比較し、比較に基づいて、二つ以上のサブパーツのうちの少なくとも二つを選択し、識別サーバシステム50によって、選択されたサブパーツをターゲット画像として組み合わせることによって、ターゲット画像を生成することを特徴とする。従って、ターゲット画像の各サブパーツには、対応する二つ以上の代替サブパーツが存在する。これらの対応する代替サブパーツは、参照画像の対応するサブパーツと比較され、比較に基づいて、二つ以上の代替サブパーツのうちの一つがターゲット画像に選択される。これを、二つ以上の入力画像の対応する代替的なサブパーツのすべてについて繰り返す。選択された部分画像からターゲット画像が形成される。これにより、最適なターゲット画像を形成することができる。
【0140】
ステップ350において一つの入力画像70のみが受信された場合、入力画像70は、
図5及び
図6の実施形態におけるステップ400及び450のためのターゲット画像を形成する。
【0141】
したがって、一つの入力画像しか受信されない場合、ステップ400はステップ450の前に実施されてもよく、あるいは代わりにステップ450はステップ400の前に実施されてもよい。
【0142】
ステップ350において二つ以上の入力画像70が受信されたとき、
図5及び
図6の実施形態におけるステップ400及び450のために、識別サーバシステム50によって一つの入力画像がターゲット画像として選択されてもよい。選択は、ステップ350において、またはステップ400において、またはステップ450において、識別サーバシステム50によって実施されてもよい。さらに、選択は、まず、二つ以上の入力画像70を参照画像60と比較し、その比較に基づいて入力画像70のうちの一つをターゲット画像として選択することを含んでいてもよい。識別サーバシステム50による選択は、二つ以上の入力画像70のうちの一つが参照画像60との最良の一致を提供するように選択されるように実施されてもよい。
【0143】
また、この実施形態では、ステップ400は、ステップ450の前に実施されてもよく、あるいは、ステップ450は、ステップ400の前に実施されてもよい。
【0144】
留意すべきは、全ての実施形態において、ステップ450は、
図6の実施形態におけるステップ350の前に、ユーザデバイス10またはユーザアプリケーション17によって実施されることもできることである。したがって、ステップ350において、生成されたターゲット画像は、識別サーバシステム50において受信される。
【0145】
二つ以上の入力画像から合成されたターゲット画像は、ステップ400において、参照画像とさらに位置合わせされてもよい。あるいは、二つ以上の入力画像は、ターゲット画像のために結合する前に参照画像に対して位置合わせされ、さらなる位置合わせは必要ない。しかし、合成されたターゲット画像は、後者の場合にも位置合わせされてもよい。
【0146】
図7A、7B及び7Cは、ターゲット画像71を参照画像60に位置合わせするステップ400を模式的に示す。なお、一つ以上の入力画像70は、参照画像60に対して同じように位置合わせされてもよいし、互いに位置合わせされてもよい。
【0147】
図7Aに示すように、ターゲット画像は、位置合わせされたターゲット画像71を形成するために、対応する位置又は点が互いに位置合わせされるように、参照画像60に対して画像位置合わせされる。画像位置合わせとは、本願では、ターゲット画像が参照画像60に一致するように変形され、歪められることを意味する。ターゲット画像70及び参照画像60が位置合わせされると、位置合わせされたターゲット画像71及び参照画像60の同じ特徴が互いに比較されて分析されるので、画像の比較は効率的かつ正確に実施され得る。
【0148】
入力画像70は、入力画像70を提供する際の状況や、撮像や撮像装置における変動要因によって、元のオブジェクトや参照画像60との関係において偏差を含んでいることが多い。これらの変動要因は、入力画像に偏差を生じさせ、真正性の識別を困難にし、又は信頼性を低下させる。
【0149】
図7Bは、真正性を識別すべきオブジェクトを表す一つの入力画像70又は入力オブジェクト画像を示している。入力画像70は、カメラでオブジェクトから撮影され、外エッジ又は輪郭78、シンボル75及びテキスト77から構成される。
図7Bから分かるように、入力画像70又は外エッジ78、シンボル75及び/又はテキストは、画像を撮影する状況及び撮像装置自体の変動要因によって、少し歪んでいるか又は元のオブジェクトの外観と同一に一致しない。位置合わせステップ400の間、入力画像70又は一つ以上の入力画像から生成されたターゲット画像は、位置合わせされたターゲット画像71を形成するために参照画像60に位置合わせされる。位置合わせステップの間、入力画像70又はターゲット画像は、類似の位置又は点又は内容が参照画像の対応する位置又は点又は内容と一致するように歪曲される。
【0150】
従って、位置合わせと歪曲の目的は、カメラによるレンズ歪み、識別されるオブジェクトの曲線や段差、遠近法、反射などのうち少なくとも一つを補正することである。このように、入力画像は、信頼できる識別を提供するための最良のバージョンであり、可能な限り良好であるように位置合わせされる。
【0151】
入力画像又はターゲットを歪めることは、位置合わせされたターゲット画像を生成するための参照画像に対して入力画像70又はターゲットを拡大縮小、キーストーン補正することを少なくとも含んでいてもよい。歪曲は、画像全体に対して行われてもよいし、入力画像70またはターゲット画像の一つ以上の部分、点、位置または画素に対して局所的に行われてもよい。
【0152】
キーストーン補正とは、角度のある表面に画像を投影することによって生じる画像の歪み、または逆に、表面に対して斜めから撮影された画像を直線状の表面に投影することによって生じる画像の歪みを意味する。
【0153】
画像位置合わせは、ある実施形態では、参照画像60に対して入力画像70又はターゲット画像を回転及び/又はシフトさせることを更に含んでいてもよい。
【0154】
図7Cは、位置合わせされたターゲット画像77を示す。見られるように、位置合わせされたターゲット画像71は、位置合わせされた輪郭又は外エッジ78’、位置合わせされたシンボル75’、位置合わせされたテキスト77’と共に、参照画像60に一致するように位置合わせされている。このように、位置合わせされたターゲット画像71は、ステップ500で真正性を分析する前に、参照画像60にできるだけ対応するように提供される。
【0155】
図8は、本発明による方法の一実施形態のフローチャートである。ステップ300、350、400、450は、
図3から
図7Cに関連して上述したように実施されてもよい。しかし、本実施形態では、ステップ400で一つ以上の入力画像70を参照画像60に位置合わせし、その後、ステップ450で位置合わせされたターゲット画像71を生成する。ステップ450は、上記に開示されたように実施されてもよい。
【0156】
図8の実施形態は、ステップ500の前に実施されるステップ550をさらに具備する。ステップ550は、識別サーバシステムによって、位置合わせされたターゲット画像71内の一つ以上のサブパーツを定義することからなる。次に、ステップ500は、識別サーバシステム50によって、オブジェクトの真正性を識別するために、位置合わせされた参照画像60の少なくとも一つの対応するサブパーツに関連して、位置合わせされたターゲット画像71の一つ以上のサブパーツの少なくとも一つを分析することから構成される。
【0157】
本実施形態では、ステップ450は、位置合わせされた参照画像を形成するために、生成されたターゲット画像を参照画像60に位置合わせすることを更に含んでいてもよい。
【0158】
あるいは、ステップ550又はステップ500は、分析を実施する前に、ターゲット画像の一つ以上のサブパーツのうちの少なくとも一つを参照画像60の対応するサブパーツに位置合わせすることを含んでもよい。
【0159】
したがって、本実施形態では、位置合わせされたターゲット画像71の各サブパーツは、参照画像60の対応するサブパーツとの関係で別々に分析されてもよい。従って、位置合わせされたターゲット画像全体を分析する必要はない。
【0160】
参照画像60を二つ以上のサブパーツに予め分割し、予め分割された参照画像60のサブパーツに基づいて、位置合わせされたターゲット画像71を対応するサブパーツに同様に分割するようにしてもよい。
【0161】
あるいは、位置合わせされたターゲット画像71を二つ以上のサブパーツに分割してもよい。そして、分割された位置合わせされたターゲット画像71に基づいて、参照画像60が二つ以上のサブパーツに同様に分割される。
【0162】
さらに代替的に、注目アルゴリズムが、整列されたターゲット画像を分析し、参照画像60の対応する一つ以上の部分に対して分析されるように、位置合わせされたターゲット画像71における一つ以上のサブパーツを定義するために使用されてもよい。さらに別の方法として、注目アルゴリズムを使用して、参照画像を分析し、参照画像60における一つ以上の下位部分を定義して、位置合わせされたターゲット画像71の対応する一つ以上の下位部分に対して分析してもよい。
【0163】
入力画像は、ターゲット画像を生成するための一次入力画像または参照画像に対して同様の方法で位置合わせされてもよい。
【0164】
図9は、本発明による方法の別の実施形態のフローチャートである。ステップ300、350及び450は、
図3から7Cに関連して上述したように実施されてもよい。しかし、この実施形態では、ターゲット画像70を参照画像60に位置合わせする前に、ステップ450において一つ以上の入力画像70からターゲット画像を生成する。
【0165】
したがって、一つ以上の入力画像の少なくとも一つからターゲット画像を生成するステップ450において、いくつかの実施形態では、ターゲット画像を形成するために二つ以上の入力画像を結合することからなる場合がある。さらに、これは、結合する前に、二つ以上の入力画像を互いに、または入力画像の一つに、または参照画像に位置合わせすることからなってもよい。代替の実施形態では、上記に開示したように、一つ以上の入力画像のうちの一つがターゲット画像として選択される。
【0166】
次に、本方法は、ステップ550において、ターゲット画像において一つ以上のサブパーツを定義することを含む。ターゲット画像におけるサブパーツの定義は、上記に開示されたような任意の様式で実施され得る。
【0167】
ターゲット画像における一つ以上のサブパーツを定義した後、ターゲット画像の一つ以上のサブパーツの少なくとも一つは、ステップ400において、参照画像60の対応するサブパーツの少なくとも一つに位置合わせされる。
【0168】
したがって、ターゲット画像の一つ以上のサブパーツは、参照画像60の対応するサブパーツに対して独立かつ別々に位置合わせされてもよい。さらに、ターゲット画像の全てのサブパーツが位置合わせされ、分析される必要はない。
【0169】
ターゲット画像の一つ以上のサブパーツのうちの少なくとも一つの位置合わせされたサブパーツは、ステップ500において、参照画像60の対応するサブパーツとの関係でさらに分析される。
【0170】
ターゲット画像の参照画像への位置合わせ、又はターゲット画像の少なくとも一つのサブパーツの参照画像の対応するサブパーツへの位置合わせは、異なる態様で実施されてもよい。つ以上の入力画像を互いに、又は入力画像の一つに、又は参照画像に、又はそのサブパーツに位置合わせする場合にも、同じことが当てはまる。
【0171】
一実施形態では、例えばステップ400における位置合わせは、ステップ402においてターゲット画像および参照画像における対応する位置を認識することからなる。次に、
図11のフローチャートに示すように、ターゲット画像を参照画像に位置合わせするためのステップ404において、ターゲット画像及び参照画像内の対応する位置が位置合わせされる。
【0172】
一実施形態では、ステップ402におけるターゲット画像及び参照画像内の対応する位置の認識と、ステップ404におけるターゲット画像と参照画像との位置合わせは、識別サーバシステム50内の位置合わせアルゴリズムによって行われる。位置合わせアルゴリズムは、例えば、対応する位置を認識し、ターゲット画像及び参照画像、又はその対応するサブパーツを位置合わせするように訓練された、位置合わせニューラルネットワークのような機械学習位置合わせアルゴリズムであってよい。
【0173】
代替の実施形態では、ターゲット画像及び参照画像における対応する位置を認識するステップ402は、参照画像及び参照画像の対応する点又は内容を認識することを含んでいてもよい。これは、識別サーバシステム50において、画像認識アルゴリズム、機械学習認識アルゴリズム等を実施してもよい。次に、ステップ404において、ターゲット画像を歪ませることにより、ターゲット画像と参照画像の認識された対応する位置、点または内容を位置合わせする。ステップ404は、認識された対応する位置、点又は内容に基づいて、ターゲット画像と参照画像又はその対応するサブパーツを位置合わせするように学習された機械学習位置合わせアルゴリズム又は位置合わせニューラルネットワークなどの位置合わせアルゴリズムによって実施されてもよい。
【0174】
いくつかの実施形態では、ステップ402は、第1の一つ以上の位置、点又はコンテンツが参照画像において認識されるように実施される。参照画像の言及された一つ以上の位置はまた、予め認識されてもよく、又は言及された位置、点又はコンテンツを有する参照画像で訓練された位置合わせアルゴリズム又は認識アルゴリズムが使用されてもよい。次に、ステップ402は、参照画像の言及された位置、点又はコンテンツに対応するターゲット画像内の位置、点又はコンテンツを認識することからなる。
【0175】
代替的な実施形態では、ステップ402は、最初に一つ以上の位置、点またはコンテンツがターゲット画像において認識されるように実施される。ターゲット画像の言及された一つ以上のロケーションは、ターゲット画像内のロケーション、ポイント又はコンテンツを認識するように訓練された位置合わせアルゴリズム又は認識アルゴリズムで認識されてもよい。次に、ステップ402は、ターゲット画像の言及された位置、点またはコンテンツに対応する参照画像内の位置、点またはコンテンツを認識することからなる。
【0176】
次に、ステップ404は、ターゲット画像と参照画像の認識された対応する位置、点又はコンテンツが、上述したように位置合わせされるように実施される。
【0177】
図12から
図17は、ターゲット画像を参照に位置合わせし、ステップ400を実施する一実施形態を示す。注意すべきは、
図12乃至
図17に関連して開示された方法は、入力画像を互いにまたは参照画像に位置合わせするために利用することもできることである。
【0178】
図12は、ターゲット画像を参照画像に位置合わせするフローチャートを模式的に示している。この位置合わせ方法は、入力画像を互いにまたは参照画像に位置合わせするために利用することもできることに留意されたい。
【0179】
位置合わせは、ステップ410において、参照画像グリッド100を参照画像60に関連付けるか、または配置することからなる。参照画像グリッド100を有する参照画像60は、
図13Aに示されている。参照画像グリッド100は、参照画像グリッド100が参照画像60に対して不動であるか又は移動できないように、参照画像60にロック又は固定される。
【0180】
図13Aの実施形態では、参照画像グリッド100は、参照パッケージ表面62を開示する参照画像60上に関連付けられる。参照画像グリッドは、第1の方向に延びる第1のグリッド線101と、第2の方向に延びる第2のグリッド線102とから構成される。本実施形態では、第1及び第2のグリッド線101、102、ひいては第1の方向及び第2の方向は、互いに垂直に延びている。しかしながら、他の実施形態では、それらはまた、代替的な横方向または互いに対する角度で延在していてもよい。参照画像グリッド100は、参照画像グリッド100を形成するための二つ以上の第1のグリッド線101及び二つ以上の第2のグリッド線102から構成される。
【0181】
参照画像グリッド100の第1のグリッド線101と第2のグリッド線102は、交点又はグリッドポイント103で交差する。さらに、参照画像グリッド100の第1のグリッド線101及び第2のグリッド線102は、二つ以上のグリッド領域104を提供する。したがって、各グリッド領域104は、二つの隣接する第1のグリッド線101及び二つの隣接する第2のグリッド線102と、これらの第1及び第2のグリッド線101、102の間のグリッドポイント103とによって画定される。
【0182】
本発明によれば、参照画像グリッド100は、実施形態に応じて、また参照画像60に応じて、任意の数の第1及び第2のグリッド線101、102から構成され得ることに留意されたい。
【0183】
さらに、いくつかの実施形態では、参照画像グリッド100は、予め定められた数の第1及び第2のグリッド線101、102、したがって、予め定められた数の参照グリッドポイント103及び参照グリッド領域104で予め定義される。
【0184】
あるいは、参照画像グリッド100と、第1及び第2のグリッド線101、102の数、並びに参照グリッドポイント103及び参照グリッド領域104の数は、参照画像60上に参照画像グリッド100を関連付ける際にステップ410で決定される。本実施形態では、参照画像グリッド100は、ターゲット画像に基づいて決定されてもよいし、参照画像に基づいて決定されてもよいし、参照画像とターゲット画像とに基づいて決定されてもよい。
【0185】
図12に示すように、位置合わせは、ステップ412において、ターゲット画像グリッド110をターゲット画像70に関連付け又は配置することからなる。ターゲット画像グリッド110を有するターゲット画像70は、
図13Bに示されるように、ターゲット画像グリッド110を有する。ターゲット画像グリッド110は、ターゲット画像グリッド110がターゲット画像70に対して不動であるか又は移動できないように、ターゲット画像70にロック又は固定される。
【0186】
図13Bの実施形態では、ターゲットグリッド110は、ターゲットパッケージ表面72を開示するターゲット画像70上に関連付けられる。ターゲット画像グリッド110は、第1の方向に延びる第1のグリッド線111と、第2の方向に延びる第2のグリッド線112とから構成される。本実施形態では、第1及び第2のグリッド線111、112、ひいては第1の方向及び第2の方向は、互いに垂直に延びている。しかしながら、他の実施形態では、それらはまた、代替的な横方向または互いに対する角度で延在していてもよい。ターゲット画像グリッド110は、ターゲット画像グリッド110を形成するための二つ以上の第1のグリッド線111及び二つ以上の第2のグリッド線112から構成される。
【0187】
ターゲット画像グリッド110の第1のグリッド線111と第2のグリッド線112は、交点またはグリッドポイント113で交差する。さらに、ターゲット画像グリッド110の第1のグリッド線111及び第2のグリッド線112は、二つ以上のグリッド領域114を提供する。したがって、各グリッド領域114は、二つの隣接する第1のグリッド線111及び二つの隣接する第2のグリッド線112と、これらの第1及び第2のグリッド線111、112の間のグリッドポイント113とによって定義される。
【0188】
本発明によれば、ターゲット画像グリッド110は、実施形態に応じて、またターゲット画像70に応じて、任意の数の第1及び第2のグリッド線111、112から構成され得ることに留意されたい。
【0189】
さらに、いくつかの実施形態では、参照画像グリッド100は、予め決められた数の第1及び第2のグリッド線101、102、したがって予め決められた数の参照グリッドポイント103及び参照グリッド領域104で予め定義される。そして、ターゲット画像グリッド110は、参照画像グリッド100に対応するように、または類似するように、または同一のように提供される。
【0190】
あるいは、ターゲット画像グリッド110と、第1及び第2のグリッド線111,112の数と、ターゲットグリッドポイント113及びターゲットグリッド領域114の数とを、ターゲット画像70上に関連付ける際のステップ412で決定する。本実施形態において、ターゲット画像グリッド110は、ターゲット画像に基づいて決定されてもよいし、参照画像に基づいて決定されてもよいし、参照画像及びターゲット画像に基づいて決定されてもよい。さらに、この実施形態では、ステップ412は、ステップ410の前に実施され、ターゲット画像グリッド110は、参照画像グリッド100の前に決定され、関連付けられることができる。
【0191】
次に、位置合わせは、ターゲット画像グリッド110及び参照画像グリッド100が、ターゲット画像70を参照画像60に位置合わせし、位置合わせされたターゲット画像71を提供するために利用されるステップ414から構成される。
【0192】
入力画像は、通常、例えば画像が撮影される角度による撮影、及び撮像装置による歪みにより、参照画像に対して歪みを有する。そして、ターゲット画像グリッド110がターゲット画像70上に関連付けられているため、ターゲット画像70に対するターゲットグリッドポイント113は、参照画像60に対する参照画像60の参照グリッドポイント103と同一ではない。
【0193】
参照画像グリッド100及びターゲット画像グリッド110は、対応する参照グリッドポイント103及びターゲットグリッドポイント113からなり、位置合わせステップ414は、識別サーバシステム50により、ターゲット画像70が歪むようにターゲット画像グリッド110のターゲットグリッドポイント113の少なくとも一つを移動することによってターゲット画像70を参照画像60に位置合わせすることから構成されている。従って、ターゲットグリッドポイント113は、ターゲット画像が歪むように、ターゲット画像グリッド110の他のターゲットグリッドポイント113に対して相対的に移動されるか、又は少なくとも一つのターゲットグリッドポイント113は、ターゲット画像グリッド110の他のターゲットグリッドポイント113に対して相対的に移動される。したがって、ターゲット画像70を参照画像60に位置合わせするための参照画像グリッド100の対応する一つの参照グリッドポイント103に対して、ターゲットグリッドポイント113の各々又はターゲットグリッドポイント113の少なくとも一つが別々に位置合わせされる。
【0194】
したがって、ターゲットグリッドポイント113は、ターゲット画像が参照画像60に対して歪むように、参照画像グリッド100の参照グリッドポイント103に対して相対的に移動される。
【0195】
以上によれば、各ターゲットグリッドポイント113が対応する参照グリッドポイント103に対して個別に位置合わせされるため、ターゲット画像70およびターゲット画像グリッド110は歪んだ状態となる。従って、位置合わせされたターゲット画像71は、位置合わせ前に生成されたターゲット画像70に対して歪んでいる。さらに、ターゲット画像グリッド110及びターゲットグリッド領域114は、アライメント前に提供されたターゲット画像グリッド110及びターゲットグリッド領域114に対して相対的に歪んだ状態になる。したがって、歪むことによって、参照画像60に位置合わせされたターゲット画像71が提供され、参照画像60に対するターゲット画像70の歪みは解消されるか、または実質的に解消される。
【0196】
図19は、他のターゲットグリッドポイント113及び参照画像gid100に対する一つのターゲットグリッドポイント103aの移動を模式的に示している。
【0197】
図20A及び20Bは、さらに、ターゲット画像グリッド110を歪ませるための複数のターゲットグリッドポイント113a、113b、113c、113d、及び他のターゲットグリッドポイントを、ターゲット画像を参照画像に位置合わせするためのターゲット画像70に対して相対的に移動させることを示す。
【0198】
図14は、位置合わせされたターゲット画像グリッド110と参照画像グリッド100、及び位置合わせされたターゲット画像71と参照画像60の概略図である。
ある実施形態では、ターゲット画像70を参照画像60に位置合わせするステップ414は、反復的に実施される。
【0199】
ある実施形態では、ステップ414は、識別サーバシステム50によって、ターゲット画像70を歪ませるためにターゲット画像グリッド110のターゲットグリッドポイント113を反復的に移動させることによって、ターゲット画像70を参照画像に反復的に位置合わせすることを含んでいる。したがって、ステップ414における位置合わせの間に、ターゲットグリッドポイント113またはターゲットグリッドポイント113の少なくとも一つが2回以上移動される。これは、第1の移動サイクルにおいて、ターゲットグリッドポイント(複数可)113が、第1の予め決められた移動または移動距離で互いに相対的に第1の時間移動されるように実施されてもよい。次に、次の、さらに可能性のある連続した移動サイクルにおいて、ターゲットグリッドポイント(複数可)113は、連続した予め定められた移動または移動距離で、互いに連続して相対的に移動され、対応する参照グリッドポイント103に位置合わせされ、連続した予め定められた移動または移動距離は、第1の予め定められた移動または移動距離より小さく、連続して小さくなるよう配置されている。このように、反復的で正確な位置合わせが実現される。分析ステップ500は、連続する移動サイクルの間に実施されてもよい。
【0200】
一実施形態では、ステップ414における反復的な位置合わせは、識別サーバシステム50によって、ターゲット画像70を歪ませるためにターゲット画像グリッド110のターゲットグリッドポイント113を移動させることによってターゲット画像を参照画像に位置合わせすることを更に含む。連続する移動サイクルの間で、位置合わせは、識別サーバシステム50によって、ターゲット画像の参照画像への位置合わせを検証することと、識別サーバシステム50によって、ターゲット画像70を歪めるための連続する移動サイクルでターゲット画像グリッド110のターゲットグリッドポイント113を反復して移動させることによりターゲット画像を参照画像に位置合わせすることとからなる。
【0201】
いくつかの実施形態では、検証は、
図21に示すように、ステップ500の分析によって行われる。
【0202】
図15は、ターゲット画像グリッド110の参照画像グリッド100への位置合わせがより詳細に実施される実施形態のフローチャートを模式的に示す。
【0203】
本実施形態において、位置合わせは、ターゲット画像グリッド110をターゲット画像70に関連付けるステップ410と、参照画像グリッド100を参照画像60に関連付けるステップ412とからなる。
【0204】
本実施形態では、関連付けられ、ダウンスケールされた参照画像グリッド100を有するダウンスケールされた参照画像60を形成するためのステップ416において、参照画像60及び参照画像グリッド100がダウンスケールされる。
【0205】
次に、識別サーバシステム50によって、ターゲット画像70の参照画像60に対する初期画像位置合わせを提供するために、ターゲット画像をダウンスケールされた参照画像に位置合わせするステップ418が遂行される。ダウンスケールされた参照画像グリッド100を有するダウンスケールされた参照画像60は、
図16Aに示されている。
【0206】
次に、ステップ420は、第1のアップスケールされた参照画像グリッド100を有する第1のアップスケールされた参照画像60を形成するために、識別サーバシステム50によって、ダウンスケールされた参照画像グリッド100と共にダウンスケールされた参照画像60をアップスケールすることからなる。第1のアップスケールされた参照画像グリッド100を有する第1のアップスケールされた参照画像60は、
図16Bに示されている。
【0207】
次に、ターゲット画像は、識別サーバシステム50によって、ターゲット画像70の参照画像60又は第1の位置合わせされたターゲット画像71への第1の画像位置合わせを提供するために、第1のアップスケールされた参照画像に位置合わせされる。
【0208】
ステップ420及び422は、
図16C及び16Dに示すように、ターゲット画像70の参照画像60に対する後続の又は連続した画像位置合わせを提供するために1回以上繰り返されてもよい。
【0209】
従って、ダウンスケールされた参照画像に対するターゲット画像の最初の位置合わせは、粗い位置合わせを提供する。次に、参照画像60及び参照画像グリッド100を徐々にアップスケールし、アップスケールするステップ420の間のステップ422においてターゲット画像をアップスケールされた参照画像に位置合わせすることにより、ターゲット画像70の参照画像60に対する位置合わせが徐々により正確になる反復アライメントが提供される。
【0210】
一実施形態では、参照画像60及び参照画像グリッド100は、最初に参照画像60の元のサイズの1/24にダウンスケールされ、次に参照画像60の元のサイズの1/12にアップスケールされ、次に参照画像60の元のサイズの1/4にスケールされ、次に参照画像60の元のサイズに更にアップスケールされる。
【0211】
図17は、参照画像60の元のサイズに対してスケールダウンされた参照画像60に対するターゲット画像70の一つのアライメントを模式的に示している。ターゲット画像の最終的な位置合わせは、
図14に示すように、オリジナルサイズの参照画像に対して実施されてもよい。
【0212】
一実施形態では、ターゲット画像の参照画像への位置合わせは、
図15に示すように、また上記に開示したように、ステップ410、412及び416からなる。次に、ステップ418は、識別サーバシステム50によって、初期位置合わせを提供するためのターゲット画像グリッド110のターゲットグリッドポイント113を移動させることによって、ターゲット画像をダウンスケールされた参照画像に位置合わせすることからなる。次に、ステップ420は、識別サーバシステム50によって、第1のアップスケールされた参照画像グリッド110を有する第1のアップスケールされた参照画像を形成するためのダウンスケールされた参照画像グリッド100と共にダウンスケールされた参照画像60をスケールアップすることによって実施される。次に、ステップ422は、識別サーバシステム50によって、ターゲット画像グリッド100のターゲットグリッドポイント110を移動させることによって、ターゲット画像を第1のアップスケーリングされた参照画像に位置合わせすることからなる。
【0213】
ステップ420及び422は、ターゲット画像70を参照画像60に後続の又は連続した画像位置合わせを提供するために1回以上繰り返されてもよい。
【0214】
従って、ダウンスケールされた参照画像に対するターゲット画像の最初のアライメントは、粗いアライメントを提供する。次に、参照画像60及び参照画像グリッド100を徐々にアップスケールし、アップスケールするステップ420の間のステップ422でアップスケールされた参照画像にターゲット画像を位置合わせすることは、参照画像60に対するターゲット画像70の位置合わせが徐々により正確になる反復的な位置合わせを提供する。
【0215】
上記は、ターゲット画像を参照画像に位置合わせする画像に関するものである。いくつかの実施形態では、ターゲット画像を参照画像に位置合わせするステップ400は、識別サーバシステム50によって、ターゲット画像又は位置合わせされたターゲット画像を参照画像にカラー位置合わせすることを更に含んでもよい。このように、ターゲット画像の色は、参照画像の色に整列されるか、または参照画像の色に対応するように整列される。これは、参照画像の色を分析することと、分析に基づいてターゲット画像をカラーアライメントすることとを含んでもよい。色合わせは、例えば、色合わせ機械学習アルゴリズム、色合わせニューラルネットワーク、又は色合わせフィルタ(複数可)等を用いて実施されてもよい。さらに、参照画像への色合わせは、ターゲット画像に加えて、またはターゲット画像の代わりに、一つ以上の入力画像に対しても行われてもよい。入力画像のカラーアライメントは、ターゲット画像を生成する前に実施される。
【0216】
さらに、いくつかの実施形態では、ターゲット画像を参照画像に位置合わせするステップ400は、識別サーバシステム50によって、ターゲット画像または位置合わせされたターゲット画像を参照画像にサイズ位置合わせすることをさらに含んでいてもよい。このように、ターゲット画像のサイズは、参照画像のサイズに位置合わせされるか、または参照画像のサイズに対応するように位置合わせされる。これは、参照画像のサイズを分析することと、分析に基づいてターゲット画像をサイズ整合させることとを含んでもよい。サイズアライニングは、例えば、サイズアライニング機械学習アルゴリズム、サイズアライニングニューラルネットワーク等を用いて実施されてもよい。さらに、参照画像に対するサイズ合わせは、ターゲット画像に加えて、またはターゲット画像の代わりに、一つ以上の入力画像に対しても行われてもよい。入力画像のサイズ調整は、ターゲット画像を生成する前に行われる。
【0217】
図5、6、8及び9のステップ500で定義されるように、位置合わせされたターゲット画像71及び参照画像60、又は同様にターゲット画像の少なくとも一つの位置合わせされたサブパーツ71及び参照画像の対応するサブパーツ60は、識別すべき真正性オブジェクトを識別するために互いに相対的に分析される。
【0218】
いくつかの実施形態では、ステップ500は、識別サーバシステム50によって、オブジェクトの真正性を識別するための統計的方法を利用して、位置合わせされたターゲット画像71を位置合わせされた参照画像60と比較することからなる。
【0219】
代替の実施形態では、ステップ500は、識別サーバシステム50によって、オブジェクトの真正性を識別するための統計的方法を利用することによって、ターゲット画像の一つ以上の整列したサブパーツ71のうちの少なくとも一つを、参照画像60の少なくとも一つの対応するサブパーツと比較することからなる。
【0220】
いくつかの実施形態では、位置合わせされたターゲット画像7を参照画像と比較するための統計的方法又は統計的分析アルゴリズムは、線形回帰分析、リサンプリング法、サブセット選択、縮小、次元削減、非線形モデル、木ベース法、標準偏差等のうちの一つから構成される。統計的方法は、線形方法、非線形方法、又は数値アルゴリズムから構成されてもよい。
【0221】
いくつかの実施形態において、統計的方法は、参照画像と入力画像との間のピクセル間態様における統計的分析を含んでいる。
【0222】
さらに、ピクセル間解析は、入力画像及び参照画像におけるピクセル間距離の解析からなる。真正性を識別するために、参照画像に対する入力画像の誤り画素数を閾値で決定してもよい。さらに、許容可能な誤り画素数の製品固有の閾値を予め定めておいてもよい。このように、解析結果は、真正性を判定するための閾値と比較される。
【0223】
代替の実施形態では、位置合わせされた参照画像60に関連して位置合わせされたターゲット画像71を分析するステップ500は、識別サーバシステム50において、機械学習識別アルゴリズム又は識別ニューラルネットワークを維持することと、識別サーバシステム50によって、機械学習識別アルゴリズム又は識別ニューラルネットワークを利用して位置合わせされたターゲット画像を位置合わせされた参照画像と比較することと、を含む。
【0224】
さらなる代替の実施形態では、位置合わせされた参照画像60に関連して位置合わせされたターゲット画像71を分析するステップ500は、識別サーバシステム50において、機械学習識別アルゴリズム又は識別ニューラルネットワークを維持することと、識別サーバシステム50によって、機械学習識別アルゴリズム又は識別ニューラルネットワークを利用することによって、ターゲット画像の一つ以上の位置合わせされたサブ部分の少なくとも一つを参照画像の少なくとも一つの対応するサブ部分と比較することである。
【0225】
図10は、機械学習アルゴリズムがオブジェクトの真偽を識別するために使用されるステップ500の一実施形態を示す。
【0226】
図10の実施形態において、分析することは、識別サーバシステム50において、位置合わせされたターゲット画像と位置合わせされた参照画像との間の差分を決定するために訓練された第1の機械学習識別アルゴリズムを提供するステップ502から構成される。位置合わせされたターゲット画像及び位置合わせされた参照画像は、ステップ504において、識別サーバシステム50により、第1の機械学習識別アルゴリズムで処理され、次に、ステップ506において、識別サーバシステム50により、第1の機械学習識別アルゴリズムを利用して第1の差分ベクトルが生成される。
図10の実施形態は、参照画像に固有の第2の機械学習識別アルゴリズムを提供し、参照画像に関連して第1の機械学習識別アルゴリズムによって決定された差分を分析するように訓練するステップ508を更に備える。ステップ510において、第1の差分ベクトルは、識別サーバシステム50によって、オブジェクトの真正性を識別するために、参照画像に固有の第2の機械学習識別アルゴリズムで処理される。
【0227】
したがって、まず、位置合わせされたターゲット画像と位置合わせされた参照画像との間の差分が分析され、第1の差分ベクトルが生成される。次に、第1の差分ベクトルを用いて定義された差分が、当該参照画像にとって有意であるか、重要であるかが分析される。ある差は許容され、ある差は許容されないかもしれない。
【0228】
図10の代替実施形態では、ステップ500の分析が、識別サーバシステム50において、位置合わせされたターゲット画像と位置合わせされた参照画像との間の差分を決定するために訓練された第1の識別ニューラルネットワークを提供するステップ502からなる。位置合わせされたターゲット画像及び位置合わせされた参照画像は、ステップ504において、識別サーバシステム50により、第1の識別ニューラルネットワークで処理され、次に、ステップ506において、識別サーバシステム50により、第1の識別ニューラルネットワークを利用して第1の差分ベクトルが生成される。
図10の実施形態は、参照画像に特有の第2の識別ニューラルネットワークを提供し、参照画像に関連して第1の識別ニューラルネットワークによって決定された差分を分析するように訓練するステップ508を更に備える。ステップ510において、第1の差分ベクトルは、識別サーバシステム50によって、オブジェクトの真正性を識別するために、参照画像に固有の第2の識別ニューラルネットワークで処理される。
【0229】
図10の更なる代替実施形態では、分析ステップ500は、識別サーバシステム50において、ターゲット画像の整列したサブパーツと参照画像の対応する整列したサブパーツとの間の差を決定するために訓練された第1の機械学習識別アルゴリズムを提供するステップ502からなる。ターゲット画像の整列されたサブパーツ及び参照画像の対応する整列されたサブパーツは、ステップ504において、識別サーバシステム50により、第1の機械学習識別アルゴリズムで処理され、次にステップ506において、識別サーバシステム50により、第1の機械学習識別アルゴリズムを利用することによって第1の差ベクトルが生成される。
図10の実施形態は、参照画像の一つ以上のサブパーツに固有の第2の機械学習識別アルゴリズムを提供し、参照画像の一つ以上のサブパーツの各々に関連して第1の機械学習識別アルゴリズムによって決定された差分を分析するように訓練するステップ508を更に備える。ステップ510において、第1の差分ベクトルは、識別サーバシステム50によって、オブジェクトの真正性を識別するために、参照画像の一つ以上のサブパーツにそれぞれ固有の第2の機械学習識別アルゴリズムで処理される。
【0230】
図10のさらに代替的な実施形態では、分析ステップ500は、識別サーバシステム50において、ターゲット画像の整列したサブパーツと参照画像の対応する整列したサブパーツとの間の差を決定するために訓練された第1の識別ニューラルネットワークを提供するステップ502からなる。ターゲット画像の整列されたサブパーツ及び参照画像の対応する整列されたサブパーツは、ステップ504において、識別サーバシステム50により、第1の識別ニューラルネットワークで処理され、次いでステップ506において、識別サーバシステム50により、第1の識別ニューラルネットワークを利用して、第1の差分ベクトルが生成される。
図10の実施形態は、参照画像の一つ以上のサブパーツに固有の第2の識別ニューラルネットワークを提供し、参照画像の一つ以上のサブパーツの各々に関連して第1の識別ニューラルネットワークによって決定された差分を分析するように訓練するステップ508を更に備える。ステップ510において、第1差分ベクトルは、識別サーバシステム50によって、オブジェクトの真正性を識別するために、参照画像の一つ以上のサブパーツに固有の第2識別ニューラルネットワークでそれぞれ処理される。
【0231】
本発明の方法は、ターゲット画像及び/又は参照画像の特定の領域を分析及びステップ500から除外することを更に含んでもよい。この特定の領域の除外は、参照画像に関連して位置合わせされたターゲット画像を分析する前に実施される。したがって、除外は、解析の前に、位置合わせステップ400において、または分析ステップ500において実施されてもよい。
【0232】
一実施形態では、本方法は、解析の前に実施され、識別サーバシステムによって、位置合わせされたターゲット画像の所定の領域を、位置合わせされた参照画像との関連で、位置合わせされたターゲット画像の解析から除外することを含んでいる。従って、ターゲット画像の不要な又は変化する部分又は領域は、真正性の分析から除外されてもよい。
【0233】
別の実施形態では、本方法は、解析の前に実施され、識別サーバシステムによって、位置合わせされたターゲット画像の所定の領域と、位置合わせされた参照画像に関連して位置合わせされたターゲット画像の解析から所定の領域を除外するための参照画像の対応する所定の領域とにマスクを適用することを備える。したがって、マスクは、分析から所定の領域を除外する。位置合わせされたターゲット画像及び参照画像に適用されるマスクは、好ましくは、分析がマスクによって影響を受けないように、同一である。
【0234】
図18は、本発明の更なる実施形態又は更なる特徴を示す。本方法は、位置合わせされた参照画像に関連する位置合わせされたターゲット画像の分析に基づく識別出力を生成するステップ600を備える。ステップ600は、ステップ500の後に実施される。ステップ600は、さらに、位置合わせされたターゲット画像が参照画像と一致するかどうか、つまり識別されるべきオブジェクトが元のオブジェクトと一致するかどうかに基づいて、異なる識別出力を提供する。位置合わせされたターゲット画像が参照画像と一致する場合、ステップ710において肯定的な識別出力が生成される。アライメントされたターゲット画像が参照画像と一致しない場合、ステップ720で否定的な識別出力が生成される。
【0235】
識別出力は、単純な「はい」または「いいえ」出力であってもよい。あるいは、識別出力は、ステップ500及び600によって決定された、位置合わせされたターゲット画像が参照画像とどれだけよく一致するかを定義する一致スコアであってもよい。
【0236】
以上、本発明を図に示す実施例を参照して説明した。しかし、本発明は、決して上記実施例に限定されるものではなく、特許請求の範囲の範囲内で変化し得るものである。