IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 浜松ホトニクス株式会社の特許一覧

特開2024-104391焦点位置推定方法、焦点位置推定プログラム、焦点位置推定システム、モデル生成方法、モデル生成プログラム、モデル生成システム及び焦点位置推定モデル
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024104391
(43)【公開日】2024-08-05
(54)【発明の名称】焦点位置推定方法、焦点位置推定プログラム、焦点位置推定システム、モデル生成方法、モデル生成プログラム、モデル生成システム及び焦点位置推定モデル
(51)【国際特許分類】
   G06T 7/00 20170101AFI20240729BHJP
【FI】
G06T7/00 350C
【審査請求】未請求
【請求項の数】21
【出願形態】OL
(21)【出願番号】P 2023008567
(22)【出願日】2023-01-24
(71)【出願人】
【識別番号】000236436
【氏名又は名称】浜松ホトニクス株式会社
(74)【代理人】
【識別番号】100088155
【弁理士】
【氏名又は名称】長谷川 芳樹
(74)【代理人】
【識別番号】100113435
【弁理士】
【氏名又は名称】黒木 義樹
(74)【代理人】
【識別番号】100140442
【弁理士】
【氏名又は名称】柴山 健一
(74)【代理人】
【識別番号】100128107
【弁理士】
【氏名又は名称】深石 賢治
(72)【発明者】
【氏名】竹嶋 智親
(72)【発明者】
【氏名】伊藤 朱里
(72)【発明者】
【氏名】樋口 貴文
(72)【発明者】
【氏名】橋本 容範
【テーマコード(参考)】
5L096
【Fターム(参考)】
5L096BA18
5L096CA04
5L096CA06
5L096DA01
5L096FA32
5L096FA66
5L096FA69
5L096HA11
5L096JA11
5L096KA04
5L096KA15
(57)【要約】
【課題】 画像に基づく焦点位置の推定を、画像の位置に応じて行う。
【解決手段】 焦点位置推定方法は、推定対象画像に対応する合焦時の焦点位置を推定する方法であって、推定対象画像を取得する推定対象画像取得ステップ(S01)と、機械学習の訓練によって生成されていると共に、画像に基づく情報を入力して当該画像における位置に応じた合焦時の焦点位置を示す情報を出力する焦点位置推定モデルを用いて、推定対象画像取得ステップにおいて取得された推定対象画像から、当該推定対象画像に対応すると共に当該推定対象画像における位置に応じた合焦時の焦点位置を推定する焦点位置推定ステップ(S02)とを含む。
【選択図】 図21

【特許請求の範囲】
【請求項1】
推定対象画像に対応する合焦時の焦点位置を推定する焦点位置推定方法であって、
推定対象画像を取得する推定対象画像取得ステップと、
機械学習の訓練によって生成されていると共に、画像に基づく情報を入力して当該画像における位置に応じた合焦時の焦点位置を示す情報を出力する焦点位置推定モデルを用いて、前記推定対象画像取得ステップにおいて取得された推定対象画像から、当該推定対象画像に対応すると共に当該推定対象画像における位置に応じた合焦時の焦点位置を推定する焦点位置推定ステップと、
を含む焦点位置推定方法。
【請求項2】
前記焦点位置推定モデルは、
それぞれ焦点位置が対応付けられた同一の撮像対象物に係る互いに異なる焦点位置の複数の学習用画像、及び当該複数の学習用画像に対する合焦時の焦点位置を示す合焦位置情報を取得する学習用画像取得ステップと、
前記学習用画像取得ステップにおいて取得された複数の学習用画像それぞれに基づく情報を、訓練途中の前記焦点位置推定モデルに入力して当該焦点位置推定モデルに応じた演算を行って、当該複数の学習用画像それぞれにおける位置に応じた合焦時の焦点位置を示す情報を取得して、取得した情報及び前記合焦位置情報から、当該複数の学習用画像それぞれについて、機械学習の訓練に用いる画像における位置に応じた合焦時の焦点位置を示す学習用焦点情報を生成する学習用焦点情報生成ステップと、
前記学習用画像取得ステップにおいて取得された複数の学習用画像それぞれに基づく情報、及び前記学習用焦点情報生成ステップにおいて生成された当該複数の学習用画像それぞれに対応する学習用焦点情報を用いて前記焦点位置推定モデルを生成するための機械学習の訓練を行う学習ステップと、
によって生成されたものである請求項1に記載の焦点位置推定方法。
【請求項3】
前記焦点位置推定モデルは、
前記学習用焦点情報生成ステップにおいて、訓練途中の前記焦点位置推定モデルを用いて取得した情報によって示される前記複数の学習用画像それぞれにおける位置に応じた合焦時の焦点位置から、学習用画像それぞれにおける位置に応じた、複数の学習用画像に共通の1つの合焦時の焦点位置を算出して、1つの合焦時の焦点位置から、当該複数の学習用画像それぞれについて前記学習用焦点情報を生成して生成されたものである請求項2に記載の焦点位置推定方法。
【請求項4】
前記焦点位置推定ステップにおいて、画像に基づく情報を入力して、前記焦点位置推定モデルに入力される当該画像の特徴量を出力する特徴量出力モデルを用いて、前記推定対象画像取得ステップにおいて取得された推定対象画像から、当該推定対象画像の特徴量を取得して、前記焦点位置推定モデルを用いて、当該特徴量から、当該推定対象画像に対応すると共に当該推定対象画像における位置に応じた合焦時の焦点位置を推定し、
前記特徴量出力モデルは、
前記学習ステップにおいて、前記訓練途中の前記焦点位置推定モデルを用いて取得した、前記複数の学習用画像それぞれにおける位置に応じた合焦時の焦点位置を示す情報に基づいて、それぞれ焦点位置が対応付けられたと共に、前記複数の学習用画像に応じた互いに異なる2つの特徴量学習用画像を生成して、当該2つの特徴量学習用画像の組み合わせを1つの単位として、当該2つの特徴量学習用画像に対応付けられた焦点位置に応じて、当該2つの特徴量学習用画像の特徴量を比較して、比較結果に基づいて機械学習の訓練を行うことによって生成されたものである請求項2又は3に記載の焦点位置推定方法。
【請求項5】
前記特徴量出力モデルは、
前記学習ステップにおいて、前記2つの特徴量学習用画像が互いに同一の焦点位置に係るものである場合、当該2つの特徴量学習用画像の特徴量の差分が小さくなるように、かつ、当該2つの特徴量学習用画像が互いに異なる焦点位置に係るものである場合、当該2つの特徴量学習用画像の特徴量の差分が大きくなるように機械学習の訓練を行うことによって生成されたものである請求項4に記載の焦点位置推定方法。
【請求項6】
前記焦点位置推定ステップにおいて、推定した推定対象画像における位置に応じた合焦時の焦点位置から、当該推定対象画像に写った撮像対象物の傾斜を推定する請求項1又は2に記載の焦点位置推定方法。
【請求項7】
前記焦点位置推定ステップにおいて、推定した推定対象画像における位置に応じた合焦時の焦点位置に基づいて、当該推定対象画像に写った撮像対象物の撮像時の焦点位置を制御する請求項1又は2に記載の焦点位置推定方法。
【請求項8】
前記焦点位置推定ステップにおいて、推定した推定対象画像における位置に応じた合焦時の焦点位置に基づいて、当該推定対象画像における位置に応じた合焦状態を示す情報を出力する請求項1又は2に記載の焦点位置推定方法。
【請求項9】
前記推定対象画像取得ステップにおいて、同一の撮像対象物に係る互いに異なる焦点位置の複数の推定対象画像を取得し、
前記焦点位置推定ステップにおいて、前記推定対象画像取得ステップにおいて取得された前記複数の推定対象画像のうち少なくとも1つの推定対象画像から、当該推定対象画像における位置に応じた合焦時の焦点位置を推定し、推定した焦点位置に基づいて、当該複数の推定対象画像から1つの画像を生成する請求項1又は2に記載の焦点位置推定方法。
【請求項10】
コンピュータを、推定対象画像に対応する合焦時の焦点位置を推定する焦点位置推定システムとして機能させる焦点位置推定プログラムであって、
当該コンピュータを、
推定対象画像を取得する推定対象画像取得手段と、
機械学習の訓練によって生成されていると共に、画像に基づく情報を入力して当該画像における位置に応じた合焦時の焦点位置を示す情報を出力する焦点位置推定モデルを用いて、前記推定対象画像取得手段によって取得された推定対象画像から、当該推定対象画像に対応すると共に当該推定対象画像における位置に応じた合焦時の焦点位置を推定する焦点位置推定手段と、
として機能させる焦点位置推定プログラム。
【請求項11】
前記焦点位置推定モデルは、
それぞれ焦点位置が対応付けられた同一の撮像対象物に係る互いに異なる焦点位置の複数の学習用画像、及び当該複数の学習用画像に対する合焦時の焦点位置を示す合焦位置情報を取得する学習用画像取得ステップと、
前記学習用画像取得ステップにおいて取得された複数の学習用画像それぞれに基づく情報を、訓練途中の前記焦点位置推定モデルに入力して当該焦点位置推定モデルに応じた演算を行って、当該複数の学習用画像それぞれにおける位置に応じた合焦時の焦点位置を示す情報を取得して、取得した情報及び前記合焦位置情報から、当該複数の学習用画像それぞれについて、機械学習の訓練に用いる画像における位置に応じた合焦時の焦点位置を示す学習用焦点情報を生成する学習用焦点情報生成ステップと、
前記学習用画像取得ステップにおいて取得された複数の学習用画像それぞれに基づく情報、及び前記学習用焦点情報生成ステップにおいて生成された当該複数の学習用画像それぞれに対応する学習用焦点情報を用いて前記焦点位置推定モデルを生成するための機械学習の訓練を行う学習ステップと、
によって生成されたものである請求項10に記載の焦点位置推定プログラム。
【請求項12】
推定対象画像に対応する合焦時の焦点位置を推定する焦点位置推定システムであって、
推定対象画像を取得する推定対象画像取得手段と、
機械学習の訓練によって生成されていると共に、画像に基づく情報を入力して当該画像における位置に応じた合焦時の焦点位置を示す情報を出力する焦点位置推定モデルを用いて、前記推定対象画像取得手段によって取得された推定対象画像から、当該推定対象画像に対応すると共に当該推定対象画像における位置に応じた合焦時の焦点位置を推定する焦点位置推定手段と、
を備える焦点位置推定システム。
【請求項13】
前記焦点位置推定モデルは、
それぞれ焦点位置が対応付けられた同一の撮像対象物に係る互いに異なる焦点位置の複数の学習用画像、及び当該複数の学習用画像に対する合焦時の焦点位置を示す合焦位置情報を取得する学習用画像取得ステップと、
前記学習用画像取得ステップにおいて取得された複数の学習用画像それぞれに基づく情報を、訓練途中の前記焦点位置推定モデルに入力して当該焦点位置推定モデルに応じた演算を行って、当該複数の学習用画像それぞれにおける位置に応じた合焦時の焦点位置を示す情報を取得して、取得した情報及び前記合焦位置情報から、当該複数の学習用画像それぞれについて、機械学習の訓練に用いる画像における位置に応じた合焦時の焦点位置を示す学習用焦点情報を生成する学習用焦点情報生成ステップと、
前記学習用画像取得ステップにおいて取得された複数の学習用画像それぞれに基づく情報、及び前記学習用焦点情報生成ステップにおいて生成された当該複数の学習用画像それぞれに対応する学習用焦点情報を用いて前記焦点位置推定モデルを生成するための機械学習の訓練を行う学習ステップと、
によって生成されたものである請求項12に記載の焦点位置推定システム。
【請求項14】
画像に基づく情報を入力して当該画像における位置に応じた合焦時の焦点位置を示す情報を出力する焦点位置推定モデルを生成するモデル生成方法であって、
それぞれ焦点位置が対応付けられた同一の撮像対象物に係る互いに異なる焦点位置の複数の学習用画像、及び当該複数の学習用画像に対する合焦時の焦点位置を示す合焦位置情報を取得する学習用画像取得ステップと、
前記学習用画像取得ステップにおいて取得された複数の学習用画像それぞれに基づく情報を、訓練途中の前記焦点位置推定モデルに入力して当該焦点位置推定モデルに応じた演算を行って、当該複数の学習用画像それぞれにおける位置に応じた合焦時の焦点位置を示す情報を取得して、取得した情報及び前記合焦位置情報から、当該複数の学習用画像それぞれについて、機械学習の訓練に用いる画像における位置に応じた合焦時の焦点位置を示す学習用焦点情報を生成する学習用焦点情報生成ステップと、
前記学習用画像取得ステップにおいて取得された複数の学習用画像それぞれに基づく情報、及び前記学習用焦点情報生成ステップにおいて生成された当該複数の学習用画像それぞれに対応する学習用焦点情報を用いて前記焦点位置推定モデルを生成するための機械学習の訓練を行う学習ステップと、
を含むモデル生成方法。
【請求項15】
前記学習用焦点情報生成ステップにおいて、訓練途中の前記焦点位置推定モデルを用いて取得した情報によって示される前記複数の学習用画像それぞれにおける位置に応じた合焦時の焦点位置から、学習用画像それぞれにおける位置に応じた、複数の学習用画像に共通の1つの合焦時の焦点位置を算出して、1つの合焦時の焦点位置から、当該複数の学習用画像それぞれについて前記学習用焦点情報を生成する請求項14に記載のモデル生成方法。
【請求項16】
前記学習ステップにおいて、画像に基づく情報を入力して、前記焦点位置推定モデルに入力される当該画像の特徴量を出力する特徴量出力モデルを生成し、
前記学習ステップにおいて、前記訓練途中の前記焦点位置推定モデルを用いて取得した、前記複数の学習用画像それぞれにおける位置に応じた合焦時の焦点位置を示す情報に基づいて、それぞれ焦点位置が対応付けられたと共に、前記複数の学習用画像に応じた互いに異なる2つの特徴量学習用画像を生成して、当該2つの特徴量学習用画像の組み合わせを1つの単位として、当該2つの特徴量学習用画像に対応付けられた焦点位置に応じて、当該2つの特徴量学習用画像の特徴量を比較して、比較結果に基づいて機械学習の訓練を行って前記特徴量出力モデルを生成する請求項14又は15に記載のモデル生成方法。
【請求項17】
前記学習ステップにおいて、前記2つの特徴量学習用画像が互いに同一の焦点位置に係るものである場合、当該2つの特徴量学習用画像の特徴量の差分が小さくなるように、かつ、当該2つの特徴量学習用画像が互いに異なる焦点位置に係るものである場合、当該2つの特徴量学習用画像の特徴量の差分が大きくなるように機械学習の訓練を行う請求項16に記載のモデル生成方法。
【請求項18】
コンピュータを、画像に基づく情報を入力して当該画像における位置に応じた合焦時の焦点位置を示す情報を出力する焦点位置推定モデルを生成するモデル生成システムとして機能させるモデル生成プログラムであって、
当該コンピュータを、
それぞれ焦点位置が対応付けられた同一の撮像対象物に係る互いに異なる焦点位置の複数の学習用画像、及び当該複数の学習用画像に対する合焦時の焦点位置を示す合焦位置情報を取得する学習用画像取得手段と、
前記学習用画像取得手段によって取得された複数の学習用画像それぞれに基づく情報を、訓練途中の前記焦点位置推定モデルに入力して当該焦点位置推定モデルに応じた演算を行って、当該複数の学習用画像それぞれにおける位置に応じた合焦時の焦点位置を示す情報を取得して、取得した情報及び前記合焦位置情報から、当該複数の学習用画像それぞれについて、機械学習の訓練に用いる画像における位置に応じた合焦時の焦点位置を示す学習用焦点情報を生成する学習用焦点情報生成手段と、
前記学習用画像取得手段によって取得された複数の学習用画像それぞれに基づく情報、及び前記学習用焦点情報生成手段によって生成された当該複数の学習用画像それぞれに対応する学習用焦点情報を用いて前記焦点位置推定モデルを生成するための機械学習の訓練を行う学習手段と、
として機能させるモデル生成プログラム。
【請求項19】
画像に基づく情報を入力して当該画像における位置に応じた合焦時の焦点位置を示す情報を出力する焦点位置推定モデルを生成するモデル生成システムであって、
それぞれ焦点位置が対応付けられた同一の撮像対象物に係る互いに異なる焦点位置の複数の学習用画像、及び当該複数の学習用画像に対する合焦時の焦点位置を示す合焦位置情報を取得する学習用画像取得手段と、
前記学習用画像取得手段によって取得された複数の学習用画像それぞれに基づく情報を、訓練途中の前記焦点位置推定モデルに入力して当該焦点位置推定モデルに応じた演算を行って、当該複数の学習用画像それぞれにおける位置に応じた合焦時の焦点位置を示す情報を取得して、取得した情報及び前記合焦位置情報から、当該複数の学習用画像それぞれについて、機械学習の訓練に用いる画像における位置に応じた合焦時の焦点位置を示す学習用焦点情報を生成する学習用焦点情報生成手段と、
前記学習用画像取得手段によって取得された複数の学習用画像それぞれに基づく情報、及び前記学習用焦点情報生成手段によって生成された当該複数の学習用画像それぞれに対応する学習用焦点情報を用いて前記焦点位置推定モデルを生成するための機械学習の訓練を行う学習手段と、
を含むモデル生成システム。
【請求項20】
機械学習の訓練によって生成されていると共に、画像に基づく情報を入力して当該画像における位置に応じた合焦時の焦点位置を示す情報を出力するようコンピュータを機能されるための焦点位置推定モデル。
【請求項21】
それぞれ焦点位置が対応付けられた同一の撮像対象物に係る互いに異なる焦点位置の複数の学習用画像、及び当該複数の学習用画像に対する合焦時の焦点位置を示す合焦位置情報を取得する学習用画像取得ステップと、
前記学習用画像取得ステップにおいて取得された複数の学習用画像それぞれに基づく情報を、訓練途中の前記焦点位置推定モデルに入力して当該焦点位置推定モデルに応じた演算を行って、当該複数の学習用画像それぞれにおける位置に応じた合焦時の焦点位置を示す情報を取得して、取得した情報及び前記合焦位置情報から、当該複数の学習用画像それぞれについて、機械学習の訓練に用いる画像における位置に応じた合焦時の焦点位置を示す学習用焦点情報を生成する学習用焦点情報生成ステップと、
前記学習用画像取得ステップにおいて取得された複数の学習用画像それぞれに基づく情報、及び前記学習用焦点情報生成ステップにおいて生成された当該複数の学習用画像それぞれに対応する学習用焦点情報を用いて前記焦点位置推定モデルを生成するための機械学習の訓練を行う学習ステップと、
によって生成されたものである請求項20に記載の焦点位置推定モデル。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、推定対象画像に対応する合焦時の焦点位置を推定する焦点位置推定方法、焦点位置推定プログラム及び焦点位置システム、合焦時の焦点位置の推定に用いられる焦点位置推定モデルを生成するモデル生成方法、モデル生成プログラム及びモデル生成システム、並びに焦点位置推定モデルに関する。
【背景技術】
【0002】
従来、スライドガラスを撮像(スキャン)して得られた画像を、仮想的な顕微鏡画像として用いるバーチャルスライドスキャナが用いられている。このような装置では、焦点位置がサンプルにあった状態で撮像が行われる必要がある。これに対して、サンプルを撮像した画像に基づいて適切な焦点位置を推定することが提案されている。例えば、特許文献1には、機械学習アルゴリズムを用いた推定が示されている。
【先行技術文献】
【特許文献】
【0003】
【特許文献1】特開2013-50713号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
特許文献1に示される従来の方法では、1つの画像全体に対して1つの焦点位置が推定される。しかしながら、画像に写ったサンプル等の対象物に凹凸又は傾きがある場合、焦点が合う焦点位置(Z位置)は、画像における位置(XY位置)によって異なる。そのような場合、上記の従来の方法で推定される画像全体の1つの焦点位置は、必ずしも適切なものではない。
【0005】
本発明は、上記に鑑みてなされたものであり、画像に基づく焦点位置の推定を、画像の位置に応じて行うことができる焦点位置推定方法、焦点位置推定プログラム、焦点位置推定システム、モデル生成方法、モデル生成プログラム、モデル生成システム及び焦点位置推定モデルを提供することを目的とする。
【課題を解決するための手段】
【0006】
上記の目的を達成するために、本発明に係る焦点位置推定方法は、推定対象画像に対応する合焦時の焦点位置を推定する焦点位置推定方法であって、推定対象画像を取得する推定対象画像取得ステップと、機械学習の訓練によって生成されていると共に、画像に基づく情報を入力して当該画像における位置に応じた合焦時の焦点位置を示す情報を出力する焦点位置推定モデルを用いて、推定対象画像取得ステップにおいて取得された推定対象画像から、当該推定対象画像に対応すると共に当該推定対象画像における位置に応じた合焦時の焦点位置を推定する焦点位置推定ステップと、を含む。
【0007】
本発明に係る焦点位置推定方法では、焦点位置推定モデルが用いられて、推定対象画像における位置に応じた合焦時の焦点位置が推定される。このように本発明に係る焦点位置推定方法によれば、画像に基づく焦点位置の推定を、画像の位置に応じて行うことができる。
【0008】
焦点位置推定方法において、焦点位置推定モデルは、それぞれ焦点位置が対応付けられた同一の撮像対象物に係る互いに異なる焦点位置の複数の学習用画像、及び当該複数の学習用画像に対する合焦時の焦点位置を示す合焦位置情報を取得する学習用画像取得ステップと、学習用画像取得ステップにおいて取得された複数の学習用画像それぞれに基づく情報を、訓練途中の焦点位置推定モデルに入力して当該焦点位置推定モデルに応じた演算を行って、当該複数の学習用画像それぞれにおける位置に応じた合焦時の焦点位置を示す情報を取得して、取得した情報及び合焦位置情報から、当該複数の学習用画像それぞれについて、機械学習の訓練に用いる画像における位置に応じた合焦時の焦点位置を示す学習用焦点情報を生成する学習用焦点情報生成ステップと、学習用画像取得ステップにおいて取得された複数の学習用画像それぞれに基づく情報、及び学習用焦点情報生成ステップにおいて生成された当該複数の学習用画像それぞれに対応する学習用焦点情報を用いて焦点位置推定モデルを生成するための機械学習の訓練を行う学習ステップと、によって生成されたものであることとしてもよい。この構成によれば、学習用焦点情報が生成されて機械学習の訓練が行われて生成された焦点位置推定モデルが用いられて、推定対象画像における位置に応じた合焦時の焦点位置が推定される。これによって、画像に基づく焦点位置の推定を適切かつ確実に行うことができる。
【0009】
焦点位置推定モデルは、学習用焦点情報生成ステップにおいて、訓練途中の焦点位置推定モデルを用いて取得した情報によって示される複数の学習用画像それぞれにおける位置に応じた合焦時の焦点位置から、学習用画像それぞれにおける位置に応じた、複数の学習用画像に共通の1つの合焦時の焦点位置を算出して、1つの合焦時の焦点位置から、当該複数の学習用画像それぞれについて学習用焦点情報を生成して生成されたものであることとしてもよい。この構成によれば、画像に基づく焦点位置の推定をより適切かつ確実に行うことができる。
【0010】
位置推定ステップにおいて、画像に基づく情報を入力して、焦点位置推定モデルに入力される当該画像の特徴量を出力する特徴量出力モデルを用いて、推定対象画像取得ステップにおいて取得された推定対象画像から、当該推定対象画像の特徴量を取得して、焦点位置推定モデルを用いて、当該特徴量から、当該推定対象画像に対応すると共に当該推定対象画像における位置に応じた合焦時の焦点位置を推定し、特徴量出力モデルは、学習ステップにおいて、訓練途中の焦点位置推定モデルを用いて取得した、複数の学習用画像それぞれにおける位置に応じた合焦時の焦点位置を示す情報に基づいて、それぞれ焦点位置が対応付けられたと共に、複数の学習用画像に応じた互いに異なる2つの特徴量学習用画像を生成して、当該2つの特徴量学習用画像の組み合わせを1つの単位として、当該2つの特徴量学習用画像に対応付けられた焦点位置に応じて、当該2つの特徴量学習用画像の特徴量を比較して、比較結果に基づいて機械学習の訓練を行うことによって生成されたものであることとしてもよい。この構成によれば、特徴量出力モデルが用いられて推定対象画像の特徴量が取得されて、特徴量から推定対象画像における位置に応じた合焦時の焦点位置が推定される。特徴量が用いられる推定が行われることで、画像に基づく焦点位置の推定を更に適切かつ確実に行うことができる。
【0011】
特徴量出力モデルは、学習ステップにおいて、2つの特徴量学習用画像が互いに同一の焦点位置に係るものである場合、当該2つの特徴量学習用画像の特徴量の差分が小さくなるように、かつ、当該2つの特徴量学習用画像が互いに異なる焦点位置に係るものである場合、当該2つの特徴量学習用画像の特徴量の差分が大きくなるように機械学習の訓練を行うことによって生成されたものであることとしてもよい。この構成によれば、画像に基づく焦点位置の推定をより適切かつ確実に行うことができる。
【0012】
焦点位置推定ステップにおいて、推定した推定対象画像における位置に応じた合焦時の焦点位置から、当該推定対象画像に写った撮像対象物の傾斜を推定することとしてもよい。この構成によれば、推定対象画像に写った撮像対象物の傾斜を適切に推定することができる。
【0013】
焦点位置推定ステップにおいて、推定した推定対象画像における位置に応じた合焦時の焦点位置に基づいて、当該推定対象画像に写った撮像対象物の撮像時の焦点位置を制御することとしてもよい。この構成によれば、撮像対象物を適切に撮像することができる。例えば、全ての位置で焦点があった画像を取得することができる。
【0014】
焦点位置推定ステップにおいて、推定した推定対象画像における位置に応じた合焦時の焦点位置に基づいて、当該推定対象画像における位置に応じた合焦状態を示す情報を出力することとしてもよい。この構成によれば、推定対象画像における位置に応じた合焦状態を把握することができる。例えば、推定対象画像における焦点があった位置、及び焦点があっていない位置を把握することができる。
【0015】
推定対象画像取得ステップにおいて、同一の撮像対象物に係る互いに異なる焦点位置の複数の推定対象画像を取得し、焦点位置推定ステップにおいて、推定対象画像取得ステップにおいて取得された複数の推定対象画像のうち少なくとも1つの推定対象画像から、当該推定対象画像における位置に応じた合焦時の焦点位置を推定し、推定した焦点位置に基づいて、当該複数の推定対象画像から1つの画像を生成することとしてもよい、この構成によれば、適切な画像を取得することができる。例えば、全ての位置で焦点があった画像を取得することができる。
【0016】
ところで、本発明は、上記のように焦点位置推定方法の発明として記述できる他に、以下のように焦点位置推定プログラム及び焦点位置推定システムの発明としても記述することができる。これらはカテゴリが異なるだけで、実質的に同一の発明であり、同様の作用及び効果を奏する。
【0017】
本発明に係る焦点位置推定プログラムは、コンピュータを、推定対象画像に対応する合焦時の焦点位置を推定する焦点位置推定システムとして機能させる焦点位置推定プログラムであって、当該コンピュータを、推定対象画像を取得する推定対象画像取得手段と、機械学習の訓練によって生成されていると共に、画像に基づく情報を入力して当該画像における位置に応じた合焦時の焦点位置を示す情報を出力する焦点位置推定モデルを用いて、推定対象画像取得手段によって取得された推定対象画像から、当該推定対象画像に対応すると共に当該推定対象画像における位置に応じた合焦時の焦点位置を推定する焦点位置推定手段と、として機能させる。
【0018】
焦点位置推定プログラムにおいて、焦点位置推定モデルは、それぞれ焦点位置が対応付けられた同一の撮像対象物に係る互いに異なる焦点位置の複数の学習用画像、及び当該複数の学習用画像に対する合焦時の焦点位置を示す合焦位置情報を取得する学習用画像取得ステップと、学習用画像取得ステップにおいて取得された複数の学習用画像それぞれに基づく情報を、訓練途中の焦点位置推定モデルに入力して当該焦点位置推定モデルに応じた演算を行って、当該複数の学習用画像それぞれにおける位置に応じた合焦時の焦点位置を示す情報を取得して、取得した情報及び合焦位置情報から、当該複数の学習用画像それぞれについて、機械学習の訓練に用いる画像における位置に応じた合焦時の焦点位置を示す学習用焦点情報を生成する学習用焦点情報生成ステップと、学習用画像取得ステップにおいて取得された複数の学習用画像それぞれに基づく情報、及び学習用焦点情報生成ステップにおいて生成された当該複数の学習用画像それぞれに対応する学習用焦点情報を用いて焦点位置推定モデルを生成するための機械学習の訓練を行う学習ステップと、によって生成されたものであることとしてもよい。
【0019】
本発明に係る焦点位置推定システムは、推定対象画像に対応する合焦時の焦点位置を推定する焦点位置推定システムであって、推定対象画像を取得する推定対象画像取得手段と、機械学習の訓練によって生成されていると共に、画像に基づく情報を入力して当該画像における位置に応じた合焦時の焦点位置を示す情報を出力する焦点位置推定モデルを用いて、推定対象画像取得手段によって取得された推定対象画像から、当該推定対象画像に対応すると共に当該推定対象画像における位置に応じた合焦時の焦点位置を推定する焦点位置推定手段と、を備える。
【0020】
焦点位置推定システムにおいて、焦点位置推定モデルは、それぞれ焦点位置が対応付けられた同一の撮像対象物に係る互いに異なる焦点位置の複数の学習用画像、及び当該複数の学習用画像に対する合焦時の焦点位置を示す合焦位置情報を取得する学習用画像取得ステップと、学習用画像取得ステップにおいて取得された複数の学習用画像それぞれに基づく情報を、訓練途中の焦点位置推定モデルに入力して当該焦点位置推定モデルに応じた演算を行って、当該複数の学習用画像それぞれにおける位置に応じた合焦時の焦点位置を示す情報を取得して、取得した情報及び合焦位置情報から、当該複数の学習用画像それぞれについて、機械学習の訓練に用いる画像における位置に応じた合焦時の焦点位置を示す学習用焦点情報を生成する学習用焦点情報生成ステップと、学習用画像取得ステップにおいて取得された複数の学習用画像それぞれに基づく情報、及び学習用焦点情報生成ステップにおいて生成された当該複数の学習用画像それぞれに対応する学習用焦点情報を用いて焦点位置推定モデルを生成するための機械学習の訓練を行う学習ステップと、によって生成されたものであることとしてもよい。
【0021】
上記の目的を達成するために、本発明に係るモデル生成方法は、画像に基づく情報を入力して当該画像における位置に応じた合焦時の焦点位置を示す情報を出力する焦点位置推定モデルを生成するモデル生成方法であって、それぞれ焦点位置が対応付けられた同一の撮像対象物に係る互いに異なる焦点位置の複数の学習用画像、及び当該複数の学習用画像に対する合焦時の焦点位置を示す合焦位置情報を取得する学習用画像取得ステップと、学習用画像取得ステップにおいて取得された複数の学習用画像それぞれに基づく情報を、訓練途中の焦点位置推定モデルに入力して当該焦点位置推定モデルに応じた演算を行って、当該複数の学習用画像それぞれにおける位置に応じた合焦時の焦点位置を示す情報を取得して、取得した情報及び合焦位置情報から、当該複数の学習用画像それぞれについて、機械学習の訓練に用いる画像における位置に応じた合焦時の焦点位置を示す学習用焦点情報を生成する学習用焦点情報生成ステップと、学習用画像取得ステップにおいて取得された複数の学習用画像それぞれに基づく情報、及び学習用焦点情報生成ステップにおいて生成された当該複数の学習用画像それぞれに対応する学習用焦点情報を用いて焦点位置推定モデルを生成するための機械学習の訓練を行う学習ステップと、を含む。
【0022】
本発明に係るモデル生成方法によれば、学習用焦点情報が生成されて機械学習の訓練が行われて焦点位置推定モデルが生成される。生成された焦点位置推定モデルが用いられて、推定対象画像における位置に応じた合焦時の焦点位置が推定される。このように本発明に係るモデル生成方法によれば、画像に基づく焦点位置の推定を、画像の位置に応じて行うことができる。
【0023】
学習用焦点情報生成ステップにおいて、訓練途中の焦点位置推定モデルを用いて取得した情報によって示される複数の学習用画像それぞれにおける位置に応じた合焦時の焦点位置から、学習用画像それぞれにおける位置に応じた、複数の学習用画像に共通の1つの合焦時の焦点位置を算出して、1つの合焦時の焦点位置から、当該複数の学習用画像それぞれについて学習用焦点情報を生成することとしてもよい。この構成によれば、画像に基づく焦点位置の推定をより適切かつ確実に行うことができる焦点位置推定モデルが生成される。
【0024】
学習ステップにおいて、画像に基づく情報を入力して、焦点位置推定モデルに入力される当該画像の特徴量を出力する特徴量出力モデルを生成し、学習ステップにおいて、訓練途中の焦点位置推定モデルを用いて取得した、複数の学習用画像それぞれにおける位置に応じた合焦時の焦点位置を示す情報に基づいて、それぞれ焦点位置が対応付けられたと共に、複数の学習用画像に応じた互いに異なる2つの特徴量学習用画像を生成して、当該2つの特徴量学習用画像の組み合わせを1つの単位として、当該2つの特徴量学習用画像に対応付けられた焦点位置に応じて、当該2つの特徴量学習用画像の特徴量を比較して、比較結果に基づいて機械学習を行って特徴量出力モデルを生成することとしてもよい。この構成よれば、推定対象画像における位置に応じた合焦時の焦点位置の推定に用いられる特徴量を出力する特徴量出力モデルが生成される。特徴量が用いられる推定が行われることで、画像に基づく焦点位置の推定を更に適切かつ確実に行うことができる。
【0025】
学習ステップにおいて、2つの特徴量学習用画像が互いに同一の焦点位置に係るものである場合、当該2つの特徴量学習用画像の特徴量の差分が小さくなるように、かつ、当該2つの特徴量学習用画像が互いに異なる焦点位置に係るものである場合、当該2つの特徴量学習用画像の特徴量の差分が大きくなるように機械学習の訓練を行うこととしてもよい。この構成によれば、画像に基づく焦点位置の推定をより適切かつ確実に行うことができる。
【0026】
ところで、本発明は、上記のようにモデル生成方法の発明として記述できる他に、以下のようにモデル生成プログラム及びモデル生成システムの発明としても記述することができる。これらはカテゴリが異なるだけで、実質的に同一の発明であり、同様の作用及び効果を奏する。
【0027】
本発明に係るモデル生成プログラムは、コンピュータを、画像に基づく情報を入力して当該画像における位置に応じた合焦時の焦点位置を示す情報を出力する焦点位置推定モデルを生成するモデル生成システムとして機能させるモデル生成プログラムであって、当該コンピュータを、それぞれ焦点位置が対応付けられた同一の撮像対象物に係る互いに異なる焦点位置の複数の学習用画像、及び当該複数の学習用画像に対する合焦時の焦点位置を示す合焦位置情報を取得する学習用画像取得手段と、学習用画像取得手段によって取得された複数の学習用画像それぞれに基づく情報を、訓練途中の焦点位置推定モデルに入力して当該焦点位置推定モデルに応じた演算を行って、当該複数の学習用画像それぞれにおける位置に応じた合焦時の焦点位置を示す情報を取得して、取得した情報及び合焦位置情報から、当該複数の学習用画像それぞれについて、機械学習の訓練に用いる画像における位置に応じた合焦時の焦点位置を示す学習用焦点情報を生成する学習用焦点情報生成手段と、学習用画像取得手段によって取得された複数の学習用画像それぞれに基づく情報、及び学習用焦点情報生成手段によって生成された当該複数の学習用画像それぞれに対応する学習用焦点情報を用いて焦点位置推定モデルを生成するための機械学習の訓練を行う学習手段と、として機能させる。
【0028】
本発明に係るモデル生成システムは、画像に基づく情報を入力して当該画像における位置に応じた合焦時の焦点位置を示す情報を出力する焦点位置推定モデルを生成するモデル生成システムであって、それぞれ焦点位置が対応付けられた同一の撮像対象物に係る互いに異なる焦点位置の複数の学習用画像、及び当該複数の学習用画像に対する合焦時の焦点位置を示す合焦位置情報を取得する学習用画像取得手段と、学習用画像取得手段によって取得された複数の学習用画像それぞれに基づく情報を、訓練途中の焦点位置推定モデルに入力して当該焦点位置推定モデルに応じた演算を行って、当該複数の学習用画像それぞれにおける位置に応じた合焦時の焦点位置を示す情報を取得して、取得した情報及び合焦位置情報から、当該複数の学習用画像それぞれについて、機械学習の訓練に用いる画像における位置に応じた合焦時の焦点位置を示す学習用焦点情報を生成する学習用焦点情報生成手段と、学習用画像取得手段によって取得された複数の学習用画像それぞれに基づく情報、及び学習用焦点情報生成手段によって生成された当該複数の学習用画像それぞれに対応する学習用焦点情報を用いて焦点位置推定モデルを生成するための機械学習の訓練を行う学習手段と、を含む。
【0029】
また、本発明に係る焦点位置推定モデル自体も、新規な構成を有する発明である。即ち、本発明に係る焦点位置推定モデルは、機械学習の訓練によって生成されていると共に、画像に基づく情報を入力して当該画像における位置に応じた合焦時の焦点位置を示す情報を出力するようコンピュータを機能されるための焦点位置推定モデルである。
【0030】
焦点位置推定モデルは、それぞれ焦点位置が対応付けられた同一の撮像対象物に係る互いに異なる焦点位置の複数の学習用画像、及び当該複数の学習用画像に対する合焦時の焦点位置を示す合焦位置情報を取得する学習用画像取得ステップと、学習用画像取得ステップにおいて取得された複数の学習用画像それぞれに基づく情報を、訓練途中の焦点位置推定モデルに入力して当該焦点位置推定モデルに応じた演算を行って、当該複数の学習用画像それぞれにおける位置に応じた合焦時の焦点位置を示す情報を取得して、取得した情報及び合焦位置情報から、当該複数の学習用画像それぞれについて、機械学習の訓練に用いる画像における位置に応じた合焦時の焦点位置を示す学習用焦点情報を生成する学習用焦点情報生成ステップと、学習用画像取得ステップにおいて取得された複数の学習用画像それぞれに基づく情報、及び学習用焦点情報生成ステップにおいて生成された当該複数の学習用画像それぞれに対応する学習用焦点情報を用いて焦点位置推定モデルを生成するための機械学習の訓練を行う学習ステップと、によって生成されたものであることとしてもよい。
【発明の効果】
【0031】
本発明によれば、画像に基づく焦点位置の推定を、画像の位置に応じて行うことができる。
【図面の簡単な説明】
【0032】
図1】本発明の実施形態に係る焦点位置推定システム及びモデル生成システムの構成を示す図である。
図2】焦点位置推定システムにおける推定の例を示す図である。
図3】焦点位置推定システムにおける推定の具体的態様の例を示す図である。
図4】画像に対するフォーカルポジションマップを模式的に示す図である。
図5】撮像対象物の傾斜の推定を説明するためのフォーカルポジションマップである。
図6】撮像対象物の傾斜の推定を説明するための図である。
図7】撮像対象物の傾斜の推定を説明するための図である。
図8】撮像対象物の傾斜の推定を説明するための図である。
図9】推定結果を用いた撮像を説明するための図である。
図10】推定結果を用いた撮像を説明するための図である。
図11】合焦状態を示す画像の例である。
図12】複数の推定対象画像から1つの画像を生成する例を示す図である。
図13】学習用画像及び推定結果のフォーカルポジションマップを示す図である。
図14】学習用画像の切り出しを示す図である。
図15】推定結果のフォーカルポジションマップからコレクションマップの生成を示す図である。
図16】コレクションマップから学習用のフォーカルポジションマップの生成を示す図である。
図17】エンコード及びデコードの訓練の繰り返しを示す図である。
図18】機械学習の訓練によるエンコーダの生成を説明するための図である。
図19】機械学習の訓練によるエンコーダの生成を説明するための図である。
図20】機械学習の訓練によるデコーダの生成を説明するための図である。
図21】本発明の実施形態に係る焦点位置推定システムで実行される処理である焦点位置推定方法を示すフローチャートである。
図22】本発明の実施形態に係るモデル生成システムで実行される処理であるモデル生成方法を示すフローチャートである。
図23】画素位置毎に推定される合焦時の焦点位置の例を示す図である。
図24】推定対象画像の焦点位置と、当該推定対象画像から推定される合焦時の焦点位置とのグラフである。
図25】エンコーダの各ブロックでの出力時の特徴量を2次元表示した例を示す図である。
図26】本実施形態に係る推定を行った具体例を示す図である。
図27】本実施形態に係る推定を行った具体例を示す図である。
図28】本実施形態に係る推定を行った具体例を示す図である。
図29】本実施形態に係る推定を行った具体例を示す図である。
図30】本発明の実施形態に係る焦点位置推定プログラム及びモデル生成プログラムの構成を、記録媒体と共に示す図である。
【発明を実施するための形態】
【0033】
以下、図面と共に本発明に係る焦点位置推定方法、焦点位置推定プログラム、焦点位置推定システム、モデル生成方法、モデル生成プログラム、モデル生成システム及び焦点位置推定モデルの実施形態について詳細に説明する。なお、図面の説明においては同一要素には同一符号を付し、重複する説明を省略する。
【0034】
図1に本実施形態に係る焦点位置推定システム及びモデル生成プログラムであるコンピュータ10を示す。コンピュータ10は、機能的な構成として、焦点位置推定システム20と、モデル生成システム30とを含む。焦点位置推定システム20は、推定対象画像に対応する合焦時の焦点位置を推定するシステム(装置)である。モデル生成システム30は、画像に基づく情報を入力して当該画像における位置に応じた合焦時の焦点位置を示す情報を出力する焦点位置推定モデルを生成するシステム(装置)である。焦点位置推定モデルは、焦点位置推定システム20による推定に用いられる。
【0035】
図1に示すように、コンピュータ10には、撮像装置40が接続されている。撮像装置40は、撮像等を行って画像を得る装置である。コンピュータ10は、撮像装置40が撮像等によって得た画像を取得する。焦点位置推定システム20及びモデル生成システム30は、撮像装置40から取得した画像を用いた処理を行う。
【0036】
撮像装置40は、例えば、半導体デバイス等のデバイスを検査する検査装置に含まれるものであってもよい。また、撮像装置40は、スライドガラスに載せられた生体サンプルを撮像して、撮像した生体サンプルの画像を観察する観察装置であってもよい。この場合、撮像装置40の撮像によって得られた画像は、例えば、仮想的な顕微鏡を実現するための画像となる。更に、サンプルは、半導体デバイス等のデバイスやスライドガラスに載せられた生体サンプルに限らず、撮像装置40は、その他の用途で用いられる顕微鏡装置であってもよい。撮像装置40自体としては、従来のものを用いることができる。また、撮像装置40は、後述するように焦点位置推定システム20からの制御が可能な機能を有してもよい。
【0037】
コンピュータ10の機能によれば、撮像装置40の撮像等によって得られた画像に対応する合焦時の焦点位置が推定される。例えば、この推定によって、撮像対象物に焦点があった状態で改めて撮像装置40による撮像を行うことができる。あるいは、画像が、撮像対象物に焦点があった状態で撮像されたものかを把握することができる。
【0038】
なお、コンピュータ10は、焦点位置推定システム20及びモデル生成システム30の処理対象となる画像を取得できればよく、撮像装置40から直接画像を取得しなくてもよい。
【0039】
コンピュータ10は、CPU(Central Processing Unit)等のプロセッサ、メモリ、通信モジュール等のハードウェアを含む従来のコンピュータである。また、コンピュータ10は、複数のコンピュータを含むコンピュータシステムであってもよい。また、コンピュータ10は、クラウドコンピューティングで構成されていてもよい。コンピュータ10の後述する各機能は、これらの構成要素がプログラム等により動作することによって発揮される。コンピュータ10と撮像装置40とは、情報の送受信が可能なように互いに接続されている。図1では、焦点位置推定システム20及びモデル生成システム30は、同じコンピュータ10によって実現されているが、別々のコンピュータ10によって実現されてもよい。
【0040】
引き続いて、本実施形態に係るコンピュータ10に含まれる焦点位置推定システム20とモデル生成システム30との機能を説明する。図1に示すように焦点位置推定システム20は、推定対象画像取得部21と、焦点位置推定部22とを備えて構成される。
【0041】
推定対象画像取得部21は、推定対象画像を取得する推定対象画像取得手段である。例えば、推定対象画像取得部21は、撮像装置40が撮像して得た画像を撮像装置40から受信して取得する。推定対象画像取得部21は、撮像装置40から取得した画像を、焦点位置推定部22における推定可能なサイズに分割して、分割したそれぞれの画像を推定対象画像とする。焦点位置推定部22における推定可能なサイズについては後述する。なお、推定対象画像の取得は上記の方法で行われる必要はなく、上記以外の任意の方法で行われてもよい。推定対象画像取得部21は、取得した推定対象画像を焦点位置推定部22に出力する。
【0042】
焦点位置推定部22は、焦点位置推定モデルを用いて、推定対象画像取得部21によって取得された推定対象画像から、当該推定対象画像に対応すると共に当該推定対象画像における位置に応じた合焦時の焦点位置を推定する焦点位置推定手段である。焦点位置推定モデルは、機械学習の訓練によって生成されていると共に、画像に基づく情報を入力して当該画像における位置に応じた合焦時の焦点位置を示す情報を出力するモデルである。焦点位置推定部22は、特徴量出力モデルを用いて、推定対象画像取得部21によって取得された推定対象画像から、当該推定対象画像の特徴量を取得して、焦点位置推定モデルを用いて、当該特徴量から、当該推定対象画像に対応すると共に当該推定対象画像における位置に応じた合焦時の焦点位置を推定してもよい。特徴量出力モデルは、画像に基づく情報を入力して、焦点位置推定モデルに入力される当該画像の特徴量を出力するモデルである。
【0043】
例えば、焦点位置推定部22は、以下のように推定対象画像に対応すると共に当該推定対象画像における位置に応じた合焦時の焦点位置を推定する。本実施形態では、焦点位置推定部22は、推定対象画像における位置に応じた合焦時の焦点位置として、推定対象画像の画素毎の合焦時の焦点位置を推定する。図2に推定対象画像50、及び推定対象画像50から推定される合焦時の焦点位置を示すフォーカルポジションマップ(Focal Position Map)60の例を示す。フォーカルポジションマップ60は、推定対象画像50の各画素に対応する位置の合焦時の焦点位置を有するデータである。フォーカルポジションマップ60は、推定対象画像50の各画素に対応する情報を有しているので、推定対象画像50と同様のサイズの画像とすることができる。
【0044】
フォーカルポジションマップ60は、各画素に当該画素の位置(例えば、当該画素のXY位置)における合焦時の焦点位置を示す値(情報)を有している。例えば、フォーカルポジションマップ60の各画素の値は、推定対象画像50が撮像された際の焦点位置から、合焦時の焦点位置までの方向(画像に対して奥行方向か手前方向かの方向)及び距離を示している。当該値は、例えば、合焦時の撮像対象物の位置(焦点位置)に対応する距離(例えば、合焦時における対物レンズ等のレンズの位置から撮像対象物の位置までの距離であり、レンズの焦点距離に相当する)から、推定対象画像50が撮像された際の撮像対象物の位置に対応する距離(推定対象画像50の撮像時における対物レンズ等のレンズの位置から撮像対象物の位置までの距離)を引いた値である。
【0045】
即ち、この場合、当該値は、推定対象画像50が撮像された際の焦点位置を0とした座標系における、合焦時の焦点位置を示す値となる。推定対象画像50が撮像された際の撮像対象物の位置までの距離が、合焦時の撮像対象物の位置までの距離よりも長い場合、当該値は、マイナスとなる。推定対象画像50が撮像された際の撮像対象物の位置までの距離が、合焦時の撮像対象物の位置までの距離よりも短い場合、当該値は、プラスとなる。合焦時の焦点位置とは、推定対象画像50に写った撮像対象物に焦点が合う位置である。また、合焦時の撮像対象物までの距離とは、推定対象画像50に写った撮像対象物に焦点が合った状態における、対物レンズ等のレンズの位置から撮像対象物の位置までの距離をいい、一般的に、当該レンズの焦点距離に相当する。推定対象画像50を撮像した際のレンズ等の位置から、上記の差分だけレンズ等の位置を変更して撮像することで撮像対象物に焦点が合った画像を撮像することができる。図2に示すフォーカルポジションマップ60は、各画素の数値を色の濃度で示している。
【0046】
フォーカルポジションマップ60の値、即ち、撮像方向の値は、予め設定した単位の値としてもよい。例えば、予め単位長さを設定しておき(例えば、50μm)、単位長さを1とした値としてもよい。以下の例についても、焦点位置を示す値等の撮像方向の値は、この数値で示す。
【0047】
従来の方法では、上述したように1つの画像全体に対して1つの焦点位置に関する情報が推定される。これに対して本実施形態では、上記のように1つの推定対象画像50から、推定対象画像50における位置(例えば、XY位置)に応じた合焦時の焦点位置(例えば、Z位置)が推定される。これによって、1つの推定対象画像50に写ったサンプル等の撮像対象物に凹凸又は傾きがある場合等であっても、推定対象画像50における位置に応じた適切な合焦時の焦点位置が推定される。なお、推定される合焦時の焦点位置を示す情報は、上記のフォーカルポジションマップ60である必要はない。
【0048】
焦点位置推定部22は、上記の推定を特徴量出力モデルであるエンコーダ(特徴抽出層)70、及び焦点位置推定モデルであるデコーダ(識別層)71を用いて行う。エンコーダ70及びデコーダ71は、モデル生成システム30によって生成される学習済モデルである。焦点位置推定部22は、モデル生成システム30によって生成されたエンコーダ70及びデコーダ71を予め入力して記憶しておき、推定に利用する。
【0049】
エンコーダ70は、画像に基づく情報を入力して、デコーダ71に入力される当該画像の特徴量を出力するモデルである。デコーダ71からの出力である特徴量は、入力に係る画像の特徴を示す情報である。本実施形態では、当該特徴は、画像が撮像された際の焦点位置を反映したものである。即ち、エンコーダ70は、光学的な特徴に係る光学モデルである。当該特徴量は、例えば、予め設定された次元数(例えば、1024次元)のベクトルである。
【0050】
エンコーダ70は、例えば、ニューラルネットワークを含んで構成される。ニューラルネットワークは、多層のものであってもよい。即ち、エンコーダ70及びデコーダ71は、深層学習(ディープラーニング)によって生成されてもよい。また、ニューラルネットワークは、畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)であってもよい。
【0051】
エンコーダ70の入力層には、画像に基づく情報を入力するためのニューロンが設けられる。例えば、エンコーダ70に入力される情報は、画像の各画素の画素値である。この場合、入力層には、画像の画素の数のニューロンが設けられ、それぞれのニューロンには対応する画素の画素値が入力される。エンコーダ70に入力される情報に係る画像は、予め設定されたサイズの画像とされる。この画像のサイズが、焦点位置推定部22における1度に推定可能な画像のサイズである。
【0052】
なお、エンコーダ70に入力される情報は、画像に基づくものであれば各画素の画素値以外であってもよい。例えば、当該情報は、撮像環境による影響を軽減するために画像に対して従来の画像処理等の前処理を行って得られる、エンコーダ70への入力用の特徴量としてもよい。このような前処理を行うことで、機械学習の効率及び生成されるエンコーダ70の精度の向上等を図ることができる。
【0053】
エンコーダ70の出力層には、特徴量を出力するためのニューロンが設けられる。例えば、特徴量のベクトルの次元数のニューロンが設けられる。
【0054】
デコーダ71は、エンコーダ70から出力される画像の特徴量を入力して、当該画像における位置に応じた合焦時の焦点位置を示す情報を出力するモデルである。デコーダ71は、例えば、フォーカルポジションマップ60を、合焦時の焦点位置の推定結果として出力する。あるいは、デコーダ71は、推定対象画像50の各画素に対応する位置の合焦時の焦点位置自体を示す情報(例えば、合焦時の焦点位置に対応する距離)を出力してもよい。また、推定対象画像50の各画素に対応する位置について、上記の値の候補を予め設定しておき、デコーダ71は、それらの候補について候補が妥当である度合いを示す値を出力してもよい。例えば、上記の値の候補を+1、0、-1、-2、…として、デコーダ71は、それぞれの候補に対して妥当である度合いを示す値を出力する。例えば、当該値が最も高い候補を上記の値とする。
【0055】
デコーダ71は、例えば、ニューラルネットワークを含んで構成される。ニューラルネットワークは、多層のものであってもよい。即ち、デコーダ71は、深層学習(ディープラーニング)によって生成されてもよい。また、ニューラルネットワークは、畳み込みニューラルネットワーク(CNN)であってもよい。
【0056】
デコーダ71の入力層には、特徴量を入力するためのニューロンが設けられる。例えば、入力層には、エンコーダ70の出力層に設けられたニューロンに対応するニューロンが設けられる。即ち、入力層には、エンコーダ70の出力層に設けられた数のニューロンが設けられる。デコーダ71の出力層には、上述した合焦時の焦点位置の推定結果を出力するためのニューロンが設けられる。例えば、出力層には、フォーカルポジションマップ60を出力するための、推定対象画像50の画素の数のニューロンが設けられる。
【0057】
エンコーダ70及びデコーダ71のより詳細な具体例を説明する。エンコーダ70は、15層のニューロンを有している。エンコーダ70は、これらの層では、3ブロック毎にマックスプーリングによって解像度を1/2にし、チャンネル数を2倍にする。1ブロックは、Conv2d、バッチノーマライゼーション、ReLUで構成される。各層のチャンネル数は、入力側から順に3、64、128、256、512、1024である。
【0058】
デコーダ71は、全結合層の3層のニューロンを有している。デコーダ71は、エンコーダ70から出力される特徴量を1024チャンネルのブロック(最終層)出力を接続し入力する。
【0059】
又は、デコーダ71は、12層+1層のニューロンを有している。デコーダ71は、これらの層では、3ブロック毎にアップサンプリングによって解像度を2倍にし、チャンネル数を1/2にする。1ブロックは、Conv2d、バッチノーマライゼーション、ReLUで構成される。最後の1層は、64から1への畳み込み層である。デコーダ71は、エンコーダ70から出力される特徴量を1024、512、256チャンネルのブロック出力を接続し入力する。
【0060】
なお、本実施形態とは異なり、画像における位置毎、例えば、画素毎ではなく、画像から1つの合焦時の焦点位置を推定する場合、エンコーダは畳み込み層で構成され、デコーダは全結合層で構成されることが考えられる。その場合、エンコードされた特徴量は、画像の領域の平均値(グローバル平均プーリング層によりチャンネル毎の平均空間となる)とする。そのため、画像に写った撮像対象物の凹凸又は傾斜等があると、特徴量は、撮像方向(Z位置)の異なる特徴が混合し、正しい特徴を示さない。
【0061】
本実施形態では、エンコーダ70は、グローバル平均プーリング層を有さず、空間平均せずに特徴量を出力するようにしてもよい。これによって特徴量の混合が少ない。例えば、畳み込みの局所領域レベルでの混合に留まる。
【0062】
なお、エンコーダ70及びデコーダ71は、ニューラルネットワーク以外によって構成されていてもよい。
【0063】
エンコーダ70及びデコーダ71は、特定の画像の種別用のものとしてもよい。例えば、特定の画像の種別は、撮像対象物からの放射を検出した画像(発光・発熱解析に用いられる画像)、撮像対象物に光を照射した際の撮像対象物からの光を検出した画像(パターン解析に用いられる画像)、又は撮像対象物に光を照射した際の撮像対象物の電気特性を検出した画像(レーザ解析に用いられる画像)であってもよい。また、画像の種別は、画像に写った撮像対象物の種別であってもよい。
【0064】
この場合、エンコーダ70及びデコーダ71の機械学習の訓練による生成、及びエンコーダ70及びデコーダ71を用いた合焦時の焦点位置の推定を行う際には、当該特定の種別の画像が用いられる。同様に、エンコーダ70及びデコーダ71は、特定の撮像装置40の種別用のものとしてもよい。このように、エンコーダ70及びデコーダ71を、特定の画像の種別用、又は特定の撮像装置40の種別用のものとすることで、画像の種別又は撮像装置40の種別に応じたより適切な推定を行うことができる。但し、エンコーダ70及びデコーダ71は、複数の画像の種別又は撮像装置40の種別で共通したものとしてもよい。
【0065】
エンコーダ70及びデコーダ71は、人工知能ソフトウェアの一部であるプログラムモジュールとしての利用が想定される。エンコーダ70及びデコーダ71は、例えば、プロセッサ及びメモリを備えるコンピュータにて用いられ、コンピュータのプロセッサが、メモリに記憶されたモデルからの指令に従って動作する。例えば、コンピュータのプロセッサが、当該指令に従って、モデルに対して情報を入力して、モデルに応じた演算を行って、モデルから結果を出力するように動作する。具体的には、コンピュータのプロセッサが、当該指令に従って、ニューラルネットワークの入力層に情報を入力して、ニューラルネットワークにおける学習の重み付け係数等のパラメータに基づく演算を行って、ニューラルネットワークの出力層から結果を出力するように動作する。
【0066】
焦点位置推定部22は、推定対象画像取得部21から推定対象画像50を入力する。焦点位置推定部22は、推定対象画像50に基づく情報をエンコーダ70へ入力し、エンコーダ70に従った演算を行って、エンコーダ70からの出力である推定対象画像50の特徴量を取得する。焦点位置推定部22は、取得した特徴量をデコーダ71へ入力し、デコーダ71に従った演算を行って、デコーダ71からの出力である、フォーカルポジションマップ60を、推定対象画像50における位置に応じた合焦時の焦点位置の推定結果として取得する。
【0067】
図3に示すように、推定対象画像50は、撮像装置40から取得した画像51を分割した複数の画像(画像パッチ)であってもよい。焦点位置推定部22は、複数の推定対象画像50から、エンコーダ70及びデコーダ71を用いてフォーカルポジションマップ60を取得する。焦点位置推定部22は、各推定対象画像50から取得されたフォーカルポジションマップ60を繋ぎ合わせて(タイリングして)、撮像装置40から取得した画像51に対するフォーカルポジションマップ61を生成してもよい。
【0068】
図4(a)に、本実施形態において取得される撮像装置40から取得した画像51に対するフォーカルポジションマップ61を模式的に示す。図4(b)に、本実施形態の比較例である、例えば、撮像装置40から取得した画像51の分割した推定対象画像50毎に1つの合焦時の焦点位置が推定された場合のフォーカルポジションマップを模式的に示す。図4は、撮像方向(Z軸方向)を側面(Y軸)から見た面(XZ平面)での、撮像対象物52の位置毎の合焦時の焦点位置を示す。
【0069】
本実施形態では、画像51の画素毎に合焦時の焦点位置が推定されるため、撮像対象物52(サンプル)の傾き又は歪みを正しく把握(測定)することができる。本実施形態では、フォーカルポジションマップ60によって示される撮像方向における合焦時の焦点位置が、撮像対象物の位置であるものとされる。例えば、図4(a)に示す例では、撮像対象物52が中心から離れるほど反りが大きくなっているが、それを正しく把握することができる。一方で、図4(b)に示す例では、合焦時の焦点位置が推定されているX方向の位置の間隔が大きくなっているため、撮像対象物52の傾き又は歪みを正しく把握(測定)することができない。例えば、図4(b)に示す例において、推定された合焦時の焦点位置から線形補間を行った場合、その線は撮像対象物52からずれてしまう。
【0070】
焦点位置推定部22は、取得したフォーカルポジションマップ60、又は撮像装置40から取得した画像51に対するフォーカルポジションマップ61を出力してもよい。例えば、焦点位置推定部22は、これらをコンピュータ10のユーザが認識可能な形式(例えば、表示)で出力してもよい。あるいは、焦点位置推定部22は、これらを別の装置又はモジュールに送信してもよい。
【0071】
また、焦点位置推定部22は、取得したフォーカルポジションマップ60、又は撮像装置40から取得した画像51に対するフォーカルポジションマップ61を、例えば、以下のように利用してもよい。
【0072】
焦点位置推定部22は、推定した推定対象画像50における位置に応じた合焦時の焦点位置から、当該推定対象画像50に写った撮像対象物の傾斜を推定してもよい。例えば、焦点位置推定部22は、以下のように推定対象画像50に写った撮像対象物の傾斜を推定する。焦点位置推定部22は、図5に示すようなフォーカルポジションマップ60の各辺と平行な2つの座標軸であるX軸及びY軸毎に撮像対象物の傾きを推定する。例えば、焦点位置推定部22は、図6に示すような、撮像方向(Z軸方向)と垂直な面62に対するX軸における撮像対象物の傾斜の角度θ、及び図7に示すような、撮像方向(Z軸方向)と垂直な面62に対するY軸における撮像対象物の傾斜の角度θを推定する。
【0073】
図6には、フォーカルポジションマップ60によって示される各画素の位置の合焦時の焦点位置を示す情報(具体的には、画像が撮像された際の焦点位置に対する合焦時の焦点位置に関する情報)を示す(行列の-2,0及び1等の値である)。図6は、撮像対象物が、X軸方向に傾斜している場合、具体的には、右側が下がっている場合の例を示している。図7は、撮像対象物が、Y軸方向に傾斜している場合、具体的には、手前側が下がっている場合の例を示している。
【0074】
焦点位置推定部22は、角度θ及び角度θを以下の式によって算出する。
【数1】

ここで、xは、フォーカルポジションマップ60の画素の位置に応じた角度θの算出に用いるX軸方向の長さである。zは、xに対応する撮像方向(Z軸方向)の合焦時の焦点位置のずれの大きさである。yは、フォーカルポジションマップ60の画素の位置に応じた角度θの算出に用いるY軸方向の長さである。zは、yに対応する撮像方向(Z軸方向)の合焦時の焦点位置のずれの大きさである。
【0075】
x及びyは、図5に示すようにフォーカルポジションマップ60の画素の位置に基づいて定まる。例えば、xは、傾斜の推定に用いられるX軸方向に互いに離れた、予め設定された2つのフォーカルポジションマップ60の画素P,Pの位置のX軸方向の差である。即ち、x=|P-P|(X軸成分のみ)である。yは、傾斜の推定に用いられるY軸方向に互いに離れた、予め設定された2つのフォーカルポジションマップ60の画素P,Pの位置のY軸方向の差である。即ち、y=|P-P|(X軸成分のみ)である。傾斜の推定対象となるフォーカルポジションマップ60の画素P,P,Pは、任意に設定されればよい。
【0076】
及びzは、図6に示すようにフォーカルポジションマップ60によって示される各画素に対応する合焦時の焦点位置から算出される。例えば、zは、上記の2つの画素P,Pに対応する合焦時の焦点位置Z,Zの差である。即ち、z=|Z-Z|である。zは、上記の2つの画素P,Pに対応する合焦時の焦点位置Z,Zの差である。即ち、z=|Z-Z|である。
【0077】
焦点位置推定部22は、撮像対象物(即ち、フォーカルポジションマップ60)の複数の位置について、傾斜を推定し、平均値又は中央値等の統計値を算出してもよい。これによって、推定する撮像対象物の傾斜の精度を向上させることができる。
【0078】
あるいは、焦点位置推定部22は、以下のように撮像対象物の傾斜を推定してもよい。焦点位置推定部22は、フォーカルポジションマップ60によって示される各画素の位置の合焦時の焦点位置と各画素の位置とから、合焦時の焦点位置の最小二乗平面を算出する。この際の座標系は、例えば、フォーカルポジションマップ60の画像の平面をXY平面とし、当該平面に対する垂直の方向をZ軸とした座標系である。焦点位置推定部22は、図8に示す算出した最小二乗平面の法線ベクトルn=(a,b,c)を算出する。焦点位置推定部22は、予め記憶した以下の式によって、最小二乗平面の法線ベクトルnのXY平面の法線ベクトルn=(0,0,1)に対する角度θを撮像対象物の傾斜として算出する。
【数2】
【0079】
焦点位置推定部22は、フォーカルポジションマップ60から、推定対象画像50に写った撮像対象物の傾斜を推定するのであれば、上記以外の方法で傾斜を推定してもよい。また、焦点位置推定部22は、上述した角度以外を撮像対象物の傾斜として推定してもよい。
【0080】
焦点位置推定部22は、推定した撮像対象物の傾斜を示す情報を出力してもよい。例えば、焦点位置推定部22は、これらをコンピュータ10のユーザが認識可能な形式(例えば、表示)で出力してもよい。あるいは、焦点位置推定部22は、これらを別の装置又はモジュールに送信してもよい。
【0081】
また、焦点位置推定部22は、推定した撮像対象物の傾斜を撮像装置40の制御に用いてもよい。この場合、撮像装置40は、例えば、以下のように撮像対象物の傾斜(姿勢)を制御できるように構成されている。撮像装置40は、撮像する際に撮像対象物を載置する部材である載置部を有している。載置部は、撮像対象物を載置する載置面の撮像方向に対する傾斜が可変であるように構成されている。即ち、撮像装置40は、撮像対象物のチルト補正を行うことができる。撮像装置40は、撮像対象物の傾斜を制御可能な従来のものを用いることができる。
【0082】
焦点位置推定部22は、撮像装置40に対して、推定した撮像対象物の傾斜が撮像の際に解消されるように制御する。具体的には、焦点位置推定部22は、推定した撮像対象物の傾斜と逆に撮像対象物を傾斜させるように撮像装置40を制御する。制御を受けた撮像装置40は、例えば、載置部を動作させて撮像の際の撮像対象物の傾斜を調整する。このように焦点位置推定部22は、撮像装置40におけるチルト補正の制御を行う。チルト補正が行われた後に撮像装置40が撮像対象物の撮像を行うことで、撮像対象物の傾斜が適切な状態での画像を取得することができる。また、チルト補正の制御については、コンピュータ10のユーザが焦点位置推定部22から出力された撮像対象物の傾斜を示す情報を確認して手動で行ってもよい。
【0083】
焦点位置推定部22は、推定した推定対象画像50における位置に応じた合焦時の焦点位置に基づいて、当該推定対象画像50に写った撮像対象物の撮像時の焦点位置を制御してもよい。当該制御は、推定対象画像50が得られた後に再度、撮像対象物を撮像する際の制御である。例えば、焦点位置推定部22は、以下のように推定対象画像50に写った撮像対象物の撮像時の焦点位置を制御する。
【0084】
図9に示すように、撮像装置40は、例えば、対物レンズ41によってスライドガラス42上の撮像対象物52を撮像する。図9のZ軸及びY軸で示す部分は、撮像方向(Z軸方向)を側面(X軸)から見た対物レンズ41、スライドガラス42及び撮像対象物52であり、X軸及びY軸で示す部分は、撮像方向(Z軸方向)上方から見たスライドガラス42及び撮像対象物52である。
【0085】
撮像装置40は、例えば、以下のように撮像対象物52に対して焦点位置を制御できるように構成されている。撮像装置40は、対物レンズ41の撮像方向の位置、即ち、対物レンズ41の高さが可変であるように構成されている。また、撮像装置40は、撮像方向(Z軸方向)の垂直な面(XY平面)の位置が可変であるように構成されている。具体的には、対物レンズ41が移動できるようになっていてもよいし、スライドガラス42を載置する載置部が移動できるようになっていてもよいし、それらの両方でもよい。
【0086】
焦点位置推定部22は、推定されたフォーカルポジションマップ60(推定対象画像50)の各画素の位置に対応する撮像対象物52の位置52aの合焦時の焦点位置(例えば、図9に示す、推定対象画像50が撮像された際の焦点位置0に対する、合焦時の焦点位置との差分である+2)から、上述したように撮像対象物52の傾斜を算出する。焦点位置推定部22は、算出した撮像対象物52の傾斜と、撮像対象物52の各位置52aの合焦時の焦点位置とから、撮像対象物52のフォーカス平面52bを算出する。なお、フォーカス平面52bは、傾斜を考慮しないものであってもよい。例えば、撮像対象物52の各位置52aの合焦時の焦点位置の平均をフォーカス平面52bとしてもよい。
【0087】
焦点位置推定部22は、フォーカス平面52bに沿って撮像対象物52の撮像が行われるように、撮像装置40の撮像位置(撮像方向及びXY平面の位置)を制御する。制御を受けた撮像装置40は、撮像対象物52をスキャンして撮像を行って高倍率の画像を取得する。
【0088】
また、上記のように撮像対象物52全体のフォーカス平面52bを算出せずに、撮像対象物52の領域を区切った部分領域52c(例えば、図10に示す矩形の領域)を設定して、焦点位置を制御してもよい。この場合、焦点位置推定部22は、各部分領域52cについてフォーカス平面52dを算出する。各部分領域52cについてのフォーカス平面52dの算出は、上記と同様に行われてもよいし、それ以外の方法で行われてもよい。例えば、部分領域52cの中心の位置の合焦時の焦点位置を通る撮像方向(Z軸方向)と垂直な面(XY平面)を当該部分領域52cについてのフォーカス平面52dとしてもよい。
【0089】
焦点位置推定部22は、各部分領域52c毎のフォーカス平面52dに沿って撮像対象物52の撮像が行われるように、撮像装置40の撮像位置(撮像方向及びXY平面の位置)を制御する。制御を受けた撮像装置40は、撮像対象物52をスキャンして撮像を行って高倍率の画像を取得する。
【0090】
取得された画像は、従来と同様に利用されればよい。このように改めての撮像対象物52の撮像時に推定されたフォーカルポジションマップ60が利用されることで、容易かつ短時間で撮像対象物52に焦点が合った画像を取得することができる。
【0091】
焦点位置推定部22は、推定した推定対象画像50における位置に応じた合焦時の焦点位置に基づいて、当該推定対象画像50における位置に応じた合焦状態を示す情報を出力してもよい。例えば、焦点位置推定部22は、以下のような情報を出力する。
【0092】
図11に示すように、推定対象画像50に予め合焦状態を示す複数の位置50aを設定しておく。設定される位置50aは、例えば、図10に示す格子状の位置である。但し、設定される位置50aは、任意の位置でよい。また、当該位置50aは、一定の範囲を有する領域(フォーカス判定領域)であってもよい。焦点位置推定部22は、フォーカルポジションマップ60によって示される当該位置50aの合焦時の焦点位置を参照し、設定される位置50a毎に合焦状態を判断する。判断される合焦状態は、例えば、推定対象画像50が撮像された際の焦点位置と推定される合焦時の焦点位置とが一致している度合い、即ち、推定対象画像50の設定される位置50aにおいて焦点が合っているか度合いである。
【0093】
例えば、焦点位置推定部22は、推定対象画像50の位置50a毎に上記の度合いを示すフォーカススコア(例えば、フォーカススコアが高いほど、上記の度合いが高い)を算出する。合焦状態のフォーカススコアは、当該位置50aにおいて、合焦時の焦点位置が、推定対象画像50が撮像された際の焦点位置と一致している数(例えば、フォーカルポジションマップ60における画素の値が0となる数)の割合に応じて決定されてもよい。例えば、その割合が高いほどフォーカススコアが高くされる。あるいは、フォーカルポジションマップ60における画素の値に重み付けして加算した値に応じて決定されてもよい。
【0094】
焦点位置推定部22は、推定対象画像50の位置50a毎に、算出したフォーカススコアから当該位置50aにおいて焦点が合っているか否かを判断する。焦点位置推定部22は、フォーカススコアが予め設定した閾値以上であった場合、当該位置50aにおいて焦点が合っていると判断する。焦点位置推定部22は、フォーカススコアが予め設定した閾値未満であった場合、当該位置50aにおいて焦点が合っていないと判断する。
【0095】
焦点位置推定部22は、推定対象画像50の設定される各位置50aに、上記の判断結果を示す情報を重畳した画像を生成する。例えば、図11に示すように、焦点が合っている位置50bには緑色の矩形を重畳し、焦点が合っていない位置50cには赤色の矩形を重畳した推定対象画像50を生成する。焦点位置推定部22は、生成した推定対象画像50を合焦状態を示す情報として出力する。出力は、上述したフォーカルポジションマップ60の出力と同様に行われればよい。
【0096】
このように示される推定対象画像50における位置に応じた合焦状態を参照することで、適切に画像が取得されているか否かを容易に判断することができる。また、焦点が合っていない位置50cについては、再度、撮像が行われてもよい。なお、推定対象画像50における位置に応じた合焦状態を示す情報は、上記以外であってもよい。また、当該情報は、上記のように推定対象画像50に重畳されていなくてもよく、任意の形式でよい。
【0097】
図12に示すように、同一の撮像対象物に係る互いに異なる焦点位置の複数の推定対象画像50から、1つの画像53が生成されてもよい。生成される画像53は、画像53中の各位置において焦点が合った(又はそれに近い)画像である。
【0098】
この場合、推定対象画像取得部21は、図12に示すような、同一の撮像対象物に係る互いに異なる焦点位置の複数の推定対象画像50を取得する。例えば、複数の推定対象画像50は、撮像装置40が、同一の撮像対象物に対して撮像方向(Z軸方向)以外の撮像時の位置(XY)を固定して、焦点位置が異なる複数回の連続した撮像を行うことで得られる。その際、図12に示すように、一定の間隔(ステップ)で焦点位置が異なるようにされる。焦点位置の間隔は、例えば、上述した予め設定した単位での1単位の間隔としてもよい(図12に示す例もその間隔である)。なお、複数の推定対象画像50に係る焦点位置の間隔は、必ずしも一定の間隔(ステップ)でなくてもよい。
【0099】
例えば、図12に示すように、焦点位置が、+2、+1、0、-1及び-2とされた複数の推定対象画像50が取得される。上記の0の焦点位置は、予め設定された基準となる焦点位置であり、それ以外の焦点位置は、上述した予め設定した単位での、0の焦点位置からのずれを示している。推定対象画像取得部21は、複数の推定対象画像50とあわせてそれぞれの推定対象画像50が撮像された際の焦点位置を示す情報(例えば、上記の+2、+1、0、-1及び-2との情報)取得して、焦点位置推定部22に出力する。
【0100】
焦点位置推定部22は、推定対象画像取得部21によって取得された複数の推定対象画像50のうち少なくとも1つの推定対象画像50から、当該推定対象画像50における位置に応じた合焦時の焦点位置を推定し、推定した焦点位置に基づいて、当該複数の推定対象画像50から1つの画像53を生成する。
【0101】
例えば、焦点位置推定部22は、以下のように複数の推定対象画像50から1つの画像53を生成する。焦点位置推定部22は、推定対象画像取得部21から、複数の推定対象画像50とそれぞれの推定対象画像50が撮像された際の焦点位置を示す情報とを入力する。焦点位置推定部22は、入力した複数の推定対象画像50からフォーカルポジションマップ60を生成する。例えば、焦点位置推定部22は、1つの推定対象画像50、例えば、焦点位置が0の推定対象画像50からフォーカルポジションマップ60を生成する。
【0102】
焦点位置が異なるだけの複数の推定対象画像50では、理論上は、どの推定対象画像50を用いても同一のフォーカルポジションマップ60が生成される。但し、実際の算出では、複数の推定対象画像50毎にフォーカルポジションマップ60がわずかに異なることが考えられるので、複数の推定対象画像50からそれぞれフォーカルポジションマップ60を生成して、それらの画素毎の平均を取って以降の処理に用いるフォーカルポジションマップ60を生成してもよい。
【0103】
続いて、焦点位置推定部22は、フォーカルポジションマップ60の画素毎に、フォーカルポジションマップ60によって示される合焦時の焦点位置に最も近い焦点位置に対応する推定対象画像50から当該画素を抽出する。焦点位置推定部22は、全ての画素に対して、上記のように複数の推定対象画像50の何れかから画素を抽出する。焦点位置推定部22は、複数の推定対象画像50の何れかから抽出した画素を、画素の位置を維持したまま組み合わせて1つの画像53を生成する。
【0104】
このように生成される各位置において焦点が合った(又はそれに近い)画像53は、従来と同様に利用される。例えば、画像53を仮想的な顕微鏡画像として用いる場合には、画像53は全範囲で鮮明であるので、従来行われていた画像の位置毎に焦点が合った画像への切り替えが不要となる。これによって、仮想的な顕微鏡の実現において、データ量を低減することができる。以上が、焦点位置推定システム20の機能である。
【0105】
図1に示すようにモデル生成システム30は、学習用画像取得部31と、学習用焦点情報生成部32と、学習部33とを備えて構成される。
【0106】
学習用画像取得部31は、それぞれ焦点位置が対応付けられた同一の撮像対象物に係る互いに異なる焦点位置の複数の学習用画像、及び当該複数の学習用画像に対する合焦時の焦点位置を示す合焦位置情報を取得する学習用画像取得手段である。学習用画像及び合焦位置情報は、エンコーダ70及びデコーダ71の生成に用いられる情報である。例えば、学習用画像取得部31は、以下のように複数の学習用画像及び合焦位置情報を取得する。
【0107】
学習用画像取得部31は、図13に示すような同一の撮像対象物に係る互いに異なる焦点位置の複数の学習用画像80を取得する。例えば、学習用画像取得部31は、撮像装置40によって撮像された画像を取得する。取得される画像は、学習用画像80用の撮像対象物が写っているものである。学習用画像80用の撮像対象物は、通常、撮像装置40によって撮像されるものでもよいし、その他のものでもよい。学習用画像80は、撮像装置40によって撮像された画像から生成される。
【0108】
複数の学習用画像80の元となる画像は、撮像装置40が、同一の撮像対象物に対して撮像方向(Z軸方向)以外の撮像時の位置(XY)を固定して、焦点位置が異なる複数回の連続した撮像を行うことで得られる。その際、図13に示す複数の学習用画像80のように、一定の間隔(ステップ)で焦点位置が異なるようにされる。焦点位置の間隔は、例えば、上述した予め設定した単位での1単位の間隔としてもよい(図13に示す例もその間隔である)。なお、複数の学習用画像80の元となる画像に係る焦点位置の間隔は、必ずしも一定の間隔(ステップ)でなくてもよい。
【0109】
個々の学習用画像80は、エンコーダ70への入力に用いられる推定対象画像50に対応する。上述したように、エンコーダ70へ入力される推定対象画像50は、撮像装置40によって撮像された画像全体ではなく、当該画像の一部である。従って、図14に示すように、学習用画像取得部31は、エンコーダ70の入力に用いられる、予め設定されたサイズの部分画像(画像パッチ)である学習用画像80を、撮像装置40によって撮像された画像81から切り出す。撮像装置40によって撮像された画像81からの切り出しは、焦点位置が異なるそれぞれの画像81の同一の位置(XY)の領域に対して行われる。図13に示す、同一の位置(XY)から切り出された複数の学習用画像80は、以下に示すように機械学習の訓練の際の1つの組とされる。本実施形態では、互いに焦点位置が異なる同一の位置(XY)を撮像した複数の画像をZスタック(Z-Stack)と呼ぶ。学習用画像取得部31は、適切にエンコーダ70及びデコーダ71を生成できる程度の数の複数のZスタックである学習用画像80を取得する。
【0110】
撮像装置40によって撮像された画像81における、学習用画像80が切り出される位置は、撮像対象物が写っている部分である。但し、学習用画像80には、撮像対象物が写っていない学習用画像80が含まれていてもよい。撮像装置40によって撮像された画像81における学習用画像80が切り出される位置は、予め設定されていてもよい。また、撮像装置40によって撮像された画像81に対して画像認識を行って撮像対象物が写っていると推定される位置を学習用画像80が切り出される位置としてもよい。なお、上述した複数の推定対象画像50から、1つの画像53を生成する際も、複数の推定対象画像50を複数の学習用画像80と同様に画像からの切り出しを行うことで生成してもよい。
【0111】
学習用画像取得部31は、Zスタックの各学習用画像80について、焦点位置を示す情報及び合焦位置情報を取得する。焦点位置を示す情報及び合焦位置情報は、図13に示す、上述した予め設定した単位での焦点位置を示す値(+5~-5の値)である。これらの値は、Zスタックの各学習用画像80に対応付けられる。これらの値のうち±0は、合焦時の焦点位置を示すものであり、Zスタックのうちの焦点が合っている学習用画像80に対応付けられる。それ以外の値は、撮像時の焦点位置に対する焦点が合っている学習用画像80における焦点位置の方向及び距離に関する情報を示すものであり、当該情報に応じた学習用画像80に対応付けられる。当該値は、例えば、合焦時の撮像対象物の位置に対応する距離から、推定対象画像50が撮像された際の撮像対象物の位置に対応する距離を引いた値である。
【0112】
即ち、この場合、当該値は、焦点が合っている学習用画像80が撮像された際の焦点位置を0とした座標系における、焦点位置を示す値となる。当該値に係る撮像対象物までの距離が、焦点が合っている学習用画像80が撮像された際の撮像対象物までの距離よりも長い場合、当該値は、マイナスとなる。当該値に係る撮像対象物までの距離が、焦点が合っている学習用画像80が撮像された際の撮像対象物までの距離よりも短い場合、当該値は、プラスとなる。焦点が合っている学習用画像80が撮像された際の撮像対象物までの距離とは、学習用画像80に写った撮像対象物に焦点が合った状態における、対物レンズ等のレンズの位置から撮像対象物の位置までの距離をいい、一般的に、当該レンズの焦点距離に相当する。合焦時の焦点位置とは、学習用画像80に写った撮像対象物に焦点が合う位置である。
【0113】
適切な機械学習の訓練を行うため、Zスタックの各学習用画像80は、焦点が合っている学習用画像80(焦点位置が±0となる学習用画像80)をできるだけ中央に含むものとする。即ち、Zスタックの各学習用画像80に含まれる、プラスの焦点位置に対応する学習用画像80の数と、マイナスの焦点位置に対応する学習用画像80の数とが同程度となるようにする。なお、Zスタックの各学習用画像80には、必ずしも焦点位置が±0の学習用画像80が含まれていなくてよい。
【0114】
上述したように本実施形態では、画像における位置毎に合焦時の焦点位置が異なり得ることを考慮するものである。しかしながら、Zスタックに対応付けられる合焦位置情報は、学習用画像80単位であり、学習用画像80の位置(画素)単位ではない。予め、学習用画像80の位置(画素)単位で適切な合焦時の焦点位置を特定することは困難である。後述するように本実施形態では、学習用画像80単位の合焦位置情報から、画像における位置毎に合焦時の焦点位置を推定できるエンコーダ70及びデコーダ71を生成する。
【0115】
Zスタックのうち±0が対応付けられる学習用画像80は、焦点が合った画像を特定する従来の方法、又は合焦時の焦点位置を測定する従来の方法等で予め特定されればよい。例えば、Zスタックの各学習用画像80についてコントラストの評価値(例えば、周辺の画素値の差の絶対値の合計)を算出し、評価値が最も高い学習用画像80を±0が対応付けられる学習用画像80としてもよい。
【0116】
学習用画像取得部31は、焦点位置を示す情報及び合焦位置情報としての予め設定した単位での焦点位置を示す値を、ユーザからの入力又は別の装置からの入力を受け付けて取得してもよい。あるいは、学習用画像取得部31は、予めZスタックの学習用画像80間の焦点位置の間隔を記憶しておき、記憶した間隔と学習用画像80自体とから自身で当該値を算出して取得してもよい。学習用画像取得部31は、取得したZスタック及びZスタックに対応する焦点位置を示す情報を学習用焦点情報生成部32及び学習部33に出力する。
【0117】
学習用画像取得部31は、上記の方法以外でZスタック及びZスタックに対応する複数の学習用画像に対する合焦時の焦点位置を示す合焦位置情報を取得してもよい。また、取得される複数の学習用画像及び合焦位置情報は、それぞれ焦点位置が対応付けられた同一の撮像対象物に係る互いに異なる焦点位置の複数の学習用画像、及び当該複数の学習用画像に対する合焦時の焦点位置を示す合焦位置情報であれば、上記以外の情報であってもよい。また、情報の取得方法も上記に限られない。
【0118】
学習用焦点情報生成部32は、学習用画像取得部31によって取得された複数の学習用画像80それぞれに基づく情報を、訓練途中の焦点位置推定モデルに入力して当該焦点位置推定モデルに応じた演算を行って、当該複数の学習用画像80それぞれにおける位置に応じた合焦時の焦点位置を示す情報を取得して、取得した情報及び合焦位置情報から、当該複数の学習用画像それぞれについて、機械学習の訓練に用いる画像における位置に応じた合焦時の焦点位置を示す学習用焦点情報を生成する学習用焦点情報生成手段である。学習用焦点情報生成部32は、訓練途中の焦点位置推定モデルを用いて取得した情報によって示される複数の学習用画像80それぞれにおける位置に応じた合焦時の焦点位置から、学習用画像80それぞれにおける位置に応じた、複数の学習用画像に共通の1つの合焦時の焦点位置を算出して、1つの合焦時の焦点位置から、当該複数の学習用画像それぞれについて学習用焦点情報を生成してもよい。
【0119】
例えば、学習用焦点情報生成部32は、以下のように学習用焦点情報を生成する。学習用焦点情報は、各学習用画像80に対応する学習用のフォーカルポジションマップ(教師画像データ)である。学習用のフォーカルポジションマップは、学習用画像80の各画素に対応する位置の合焦時の焦点位置を有するデータである。学習用のフォーカルポジションマップは、推定対象画像50から生成されるフォーカルポジションマップ60と同様の形式のデータである。但し、機械学習の訓練途中においては、学習用のフォーカルポジションマップに係る合焦時の焦点位置は、必ずしも精度が高いものである必要はない。以下に示すように、学習用のフォーカルポジションマップは、エンコーダ70及びデコーダ71の生成の際に繰り返し生成されるが、機械学習の訓練が進むにつれて精度が高いものになっていく。
【0120】
学習用焦点情報生成部32は、学習用画像取得部31から、Zスタック及びZスタックに対応する焦点位置を示す情報を入力する。また、学習用焦点情報生成部32は、学習部33から、訓練途中のエンコーダ70及びデコーダ71を入力する。学習用焦点情報生成部32は、Zスタックの各学習用画像80に基づく情報を訓練途中のエンコーダ70へ入力し、訓練途中のエンコーダ70に従った演算を行って、訓練途中のエンコーダ70からの出力である学習用画像80の特徴量を取得する。学習用焦点情報生成部32は、取得した特徴量を訓練途中のデコーダ71へ入力し、訓練途中のデコーダ71に従った演算を行って、訓練途中のデコーダ71からの出力である、推定結果のフォーカルポジションマップ90を、学習用画像80における位置に応じた合焦時の焦点位置の推定結果として取得する。図13にZスタックの各学習用画像80から取得される推定結果の各フォーカルポジションマップ90の例を示す。
【0121】
Zスタックの各学習用画像80は、上述したように焦点位置が異なるだけの画像であるので、エンコーダ70及びデコーダ71の精度が十分であれば、取得される各フォーカルポジションマップ90に示される合焦時の焦点位置は、同一の位置となるはずである。しかしながら、訓練途中のエンコーダ70及びデコーダ71の精度が十分ではないため、取得される各フォーカルポジションマップ90に示される合焦時の焦点位置は、通常、同一の位置とはならない。学習用焦点情報生成部32は、取得される各フォーカルポジションマップ90から、合焦時の焦点位置が同一の位置となる学習用のフォーカルポジションマップを生成する。
【0122】
学習用焦点情報生成部32は、Zスタックの各学習用画像80について、同一のサイズの画像で全ての画素値を学習用画像80に対応付けられた焦点位置を示す値(+5~-5の値)とした、図15に示すラベルマップ(論理座標マップ)82を生成する。学習用焦点情報生成部32は、学習用画像80毎に、ラベルマップ82と推定結果のフォーカルポジションマップ90との画素値を画素毎に足し合わせてラベルコレクションマップ91を生成する。推定結果のフォーカルポジションマップ90は、学習用画像80毎の座標系(学習用画像80が撮像された際の焦点位置を基準とする座標系)のデータであるが、ラベルマップ82と合成したラベルコレクションマップ91は、それらの間で同一の座標系(±0の学習用画像80の焦点位置を基準とする座標系)とすることができる。
【0123】
学習用焦点情報生成部32は、ラベルコレクションマップ91の画素毎に画素値の平均を算出して、各画素の画素値をその平均とするコレクションマップ92を生成する。なお、コレクションマップ92を生成する際には、ラベルコレクションマップ91の画素毎の画素値の外れ値を除いてもよい。また、コレクションマップ92を生成する際には、単なる平均ではなく、加重平均としてもよい。加重平均の重みは、予め設定されている。例えば、複数の学習用画像80のうち、対応する焦点位置が合焦時の焦点位置とされたもの(焦点位置が±0とされたもの)と近いものに対応するラベルコレクションマップ91の重みを強くし、離れたものに対応するラベルコレクションマップ91の重みを弱くする。コレクションマップ92は、訓練途中のエンコーダ70及びデコーダ71から推定される上記の同一の座標系での合焦時の焦点位置を示すデータ、即ち、Zスタックの複数の学習用画像80に共通の1つの合焦時の焦点位置を示すデータである。
【0124】
図16に示すように、学習用焦点情報生成部32は、生成したコレクションマップ92と、各ラベルマップ82とから、ラベルマップ82毎、即ち、学習用画像80毎の学習用のフォーカルポジションマップ93を生成する。学習用のフォーカルポジションマップ93の生成は、画素毎にコレクションマップ92の画素値からラベルマップ82の画素値を引くことで行われる。
【0125】
学習用のフォーカルポジションマップ93の生成は、コレクションマップ92の生成の逆を辿る。コレクションマップ92は、各学習用画像80から推定したラベルコレクションマップ91からアンサンブルで計算しているため、アンサンブル効果によって精度が高い。このコレクションマップ92を上記のように各ラベルマップ82に適用することで、精度の高い、即ち、より適切なエンコーダ70及びデコーダ71の生成に用いることができる学習用のフォーカルポジションマップ93を生成することができる。また、上記のようにコレクションマップ92の生成の際の外れ値の除去及び加重平均を行うことで、精度の高い学習用のフォーカルポジションマップ93を生成することができる。
【0126】
学習用焦点情報生成部32は、生成したコレクションマップ92及び学習用のフォーカルポジションマップ93を学習部33に出力する。なお、学習用焦点情報生成部32によって生成される学習用焦点情報は、訓練途中の学習モデルに応じた演算結果及び合焦位置情報から生成される、機械学習の訓練に用いる画像における位置に応じた合焦時の焦点位置を示すものであれば、上記の学習用のフォーカルポジションマップ93以外であってもよい。また、学習用焦点情報の生成は、上記以外の方法によって行われてもよい。
【0127】
学習部33は、学習用画像取得部31によって取得された複数の学習用画像80それぞれに基づく情報、及び学習用焦点情報生成部32によって生成された当該複数の学習用画像それぞれに対応する学習用焦点情報を用いて焦点位置推定モデルを生成するための機械学習の訓練を行う学習手段である。また、学習部33は、画像に基づく情報を入力して、焦点位置推定モデルに入力される当該画像の特徴量を出力する特徴量出力モデルを生成してもよい。学習部33は、訓練途中の焦点位置推定モデルを用いて取得した、複数の学習用画像それぞれにおける位置に応じた合焦時の焦点位置を示す情報に基づいて、それぞれ焦点位置が対応付けられたと共に、複数の学習用画像に応じた互いに異なる2つの特徴量学習用画像を生成して、当該2つの特徴量学習用画像の組み合わせを1つの単位として、当該2つの特徴量学習用画像に対応付けられた焦点位置に応じて、当該2つの特徴量学習用画像の特徴量を比較して、比較結果に基づいて機械学習の訓練を行って特徴量出力モデルを生成する。学習部33は、2つの特徴量学習用画像が互いに同一の焦点位置に係るものである場合、当該2つの特徴量学習用画像の特徴量の差分が小さくなるように、かつ、当該2つの特徴量学習用画像が互いに異なる焦点位置に係るものである場合、当該2つの特徴量学習用画像の特徴量の差分が大きくなるように機械学習の訓練を行ってもよい。
【0128】
学習部33は、例えば、以下のように焦点位置推定モデルであるデコーダ71と、特徴量出力モデルであるエンコーダ70を生成する。学習部33によるエンコーダ70の訓練及びデコーダ71の訓練、並びに学習部33によるコレクションマップ92の更新(生成)及び学習用のフォーカルポジションマップ93の更新(生成)は、図17に示すように順番に繰り返し行われる。図17に示すように、学習部33によるエンコーダ70及びデコーダ71の訓練が行われる前に、学習部33によるコレクションマップ92の更新及び学習用のフォーカルポジションマップ93の更新が行われる。
【0129】
学習部33は、学習用画像取得部31から、Zスタック及びZスタックに対応する焦点位置を示す情報を入力する。学習部33は、学習用焦点情報生成部32から、コレクションマップ92及び学習用のフォーカルポジションマップ93を入力する。
【0130】
図18に示すように、学習部33は、入力した各情報を用いてエンコーダ70の訓練を行う。エンコーダ70の訓練のため、学習部33は、Zスタックの各学習用画像80から、特徴量学習用画像83を生成する。上記のように学習用画像80では、画像中の位置、即ち、画素毎に学習用画像80が撮像された際の焦点位置と合焦時の焦点位置とのずれが異なっている可能性がある。特徴量学習用画像83は、画素毎にこれらのずれが異なっていない(と推定される)画像である。即ち、特徴量学習用画像83は、学習用画像80の凹凸及び傾きを補正した(と考えられる)画像である。
【0131】
学習部33は、コレクションマップ92を参照して特徴量学習用画像83を生成する。例えば、学習部33は、コレクションマップ92を参照して、画素の位置間で、学習用画像80が撮像された際の焦点位置と合焦時の焦点位置とのずれが同一となる画素を、Zスタックの複数の学習用画像80の何れかから取得して、それらを組み合わせて(再合成して)特徴量学習用画像83を生成する。エンコーダ70の訓練では、上記のずれを特徴量学習用画像83に対する撮像時の1つの焦点位置とする。図18に示すように、学習部33は、1つのZスタックから、撮像時の焦点位置が異なる複数の特徴量学習用画像83を生成する。なお、特徴量学習用画像83は、上記以外の方法で生成されてもよい。
【0132】
また、学習部33は、複数のZスタックから特徴量学習用画像83を生成する。生成する特徴量学習用画像83には、焦点位置(上記のずれ)が同一となる複数の特徴量学習用画像83と、焦点位置(上記のずれ)が互いに異なる複数の特徴量学習用画像83とが含まれるようにする。図19に、生成される特徴量学習用画像83のイメージを示す。図19の特徴量学習用画像83を示した部分の縦方向は、撮像方向である。特徴量学習用画像83は、画像中の全ての位置において当該画像が撮像された際の焦点位置と合焦時の焦点位置とのずれが同一である平面84から切り出された部分画像(画像パッチ)と考えられる。平面84は複数あり、一定の間隔(ステップ)(ΔZ)で撮像時の焦点位置が異なっている。
【0133】
同一の平面84から切り出された(と考えらえる)特徴量学習用画像83の撮像時の焦点位置は、同一であり、異なる平面84から切り出された(と考えらえる)特徴量学習用画像83の撮像時の焦点位置は、互いに異なっている。
【0134】
学習部33は、生成した複数の特徴量学習用画像83から選択した2つの特徴量学習用画像83を1つのセットとして用いて、エンコーダ70の機械学習の訓練を行う。機械学習の訓練に用いられるセットには、互いに同一の焦点位置に係る特徴量学習用画像83のセットと、互いに異なる焦点位置に係る特徴量学習用画像83のセットとの両方が含まれるようにする。特徴量学習用画像83のセットの選択は、上記の条件を満たすように予め設定された方法で行われればよい。
【0135】
学習部33は、選択したセットの特徴量学習用画像83に基づく情報を、エンコーダ70への入力として機械学習の訓練を行う。図19に示すように1つのセットの特徴量学習用画像83それぞれをエンコーダ70に入力すると、特徴量学習用画像83それぞれについて特徴量が出力として得られる。図19では、特徴量であるベクトルの各要素の値を棒グラフで示している。この際、一方の特徴量学習用画像83を入力するエンコーダ70を学習対象として、もう一方の特徴量学習用画像83を入力するエンコーダ70を比較対象とする。但し、これらのエンコーダ70は、訓練途中の同一のものである。
【0136】
学習部33は、特徴量学習用画像83の焦点位置に応じて、出力される2つの特徴量を比較して比較結果に基づいて機械学習の訓練を行う。学習部33は、2つの特徴量学習用画像83の焦点位置が互いに同一の焦点位置である(即ち、同一平面である)場合、当該2つの特徴量学習用画像83の特徴量の差分が小さくなるように機械学習を行う。学習部33は、2つの特徴量学習用画像83の焦点位置が互いに異なる焦点位置である(即ち、Z位置が異なる)場合、当該2つの特徴量学習用画像83の特徴量の差分が大きくなるように機械学習を行う。なお、同一の平面84から切り出された(と考えられる)2つの特徴量学習用画像83である場合、2つの特徴量学習用画像83の焦点位置は互いに同一の焦点位置となる。また、2つの特徴量学習用画像83の焦点位置が互いに同一であるとみなせる程近接している場合も、2つの特徴量学習用画像83の焦点位置は互いに同一の焦点位置であるとみなしてもよい。
【0137】
即ち、同一の焦点面にある画像から切り出された部分画像同士の特徴量は、切り出し位置によらず相関が大きくなるようにされる。一方で、異なる焦点面にある画像から切り出された部分画像同士の特徴量は、相関が小さくなるようにされる。このように機械学習の訓練が行われることで、エンコーダ70から出力される特徴量は、焦点位置に応じた特徴を反映したものとなる。
【0138】
具体的には、2つの特徴量学習用画像83の焦点位置が互いに同一の焦点位置である場合、学習部33は、以下のloss_xyを損失関数として機械学習を行う。
【数3】

ここで、i(0~n)は、特徴量のベクトルの要素を示すサフィックス(添え字)である。特徴量のベクトルのチャンネル数(次元数)は、n+1である。Ft0~Ftnは、学習対象のエンコーダ70から出力される特徴量のベクトルの各要素の値である。Fc0~Fcnは、比較対象のエンコーダ70から出力される特徴量のベクトルの各要素の値である。SDは、各特徴量の要素iについての標準偏差である。上記のように差分を標準偏差で割ってerrorを算出することで、チャンネル毎の差分のばらつきを揃えている。損出は、各チャンネルの誤差の平均(の正の平方根)である。
【0139】
2つの特徴量学習用画像83の焦点位置が互いに異なる焦点位置である場合、学習部33は、以下のloss_zを損失関数として機械学習を行う。
【数4】

即ち、この場合の損出関数は、2つの特徴量学習用画像83の焦点位置が互いに同一の焦点位置である場合の損失関数の逆数である。損失関数に基づく機械学習自体、即ち、エンコーダ70のパラメータの更新は、従来と同様に行われればよい。なお、損出関数は、必ずしも上記である必要はなく、上述した基準に沿ったものであればよい。
【0140】
学習部33は、特徴量学習用画像83のセットの選択と機械学習の訓練とを繰り返し行ってエンコーダ70を生成する。例えば、学習部33は、従来の機械学習の訓練と同様にエンコーダ70の生成が予め設定した条件に基づいて収束するまで、あるいは予め設定された規定回数、上記の繰り返しを行ってエンコーダ70を生成する。
【0141】
学習部33は、機械学習で生成された既存の学習済モデルを利用してエンコーダ70を生成してもよい。既存の学習済モデルとしては、本実施形態に係るエンコーダ70と同様に、画像に基づく情報を入力するモデルが用いられる。即ち、本実施形態に係るエンコーダ70と入力が共通である既存の学習済モデルを利用してもよい。既存の学習済モデルは、例えば、画像認識を行うためのモデルであり、具体的には、ResNet、VGG、Mobile Net等である。エンコーダ70の生成には、既存の学習済モデルの一部が用いられる。既存の学習済モデルの出力側の層を削除して、既存の学習済モデルの中間層までの部分をエンコーダ70の生成に用いる。エンコーダ70の生成に用いられる既存の学習済モデルには、中間層の全てが含まれていてもよいし、中間層の一部のみが含まれていてもよい。
【0142】
学習部33は、既存の学習済モデルの上記の一部を入力して、機械学習の開始時点でのエンコーダ70とする。即ち、学習部33は、既存の学習済モデルの上記の一部を、エンコーダ70の初期パラメータとして用いてファインチューニングを行う。また、学習済モデルの上記の一部の出力側に、新たな出力層を加えたものを機械学習の開始時点でのエンコーダ70としてもよい。また、新たな出力層を加える場合、学習済モデルの上記の一部の出力側と新たな出力層との間に、新たな中間層を加えたものを機械学習の開始時点でのエンコーダ70としてもよい。
【0143】
なお、学習部33は、既存の学習済モデルを利用せずにエンコーダ70を生成してもよい。例えば、従来の機械学習と同様にランダムの値を初期パラメータとしたモデルを機械学習の訓練の開始時点でのエンコーダ70としてもよい。
【0144】
既存の学習済モデルをエンコーダ70の生成に用いることで、以下の利点がある。学習時間を大幅に短縮することができる。少ない特徴量学習用画像83でも精度の高いエンコーダ70、即ち、より適切な特徴量を出力することができるエンコーダ70を生成することができる。上述した既存の学習済モデルは、既に抽象度の低い特徴を分離する能力を獲得している。従って、新たな特徴量学習用画像83を用いた抽象度の高い特徴を中心とした学習するだけよいためである。
【0145】
図20に示すように、学習部33は、入力した各情報を用いてデコーダ71の訓練を行う。学習部33は、学習用画像80に基づく情報を、上記の機械学習の訓練後のエンコーダ70に入力してエンコーダ70に応じた演算を行って、エンコーダ70からの出力である当該学習用画像80の特徴量を取得する。学習部33は、取得した特徴量をデコーダ71への入力として、エンコーダ70への入力に係る学習用画像80に対応する学習用のフォーカルポジションマップ93に基づく情報を焦点位置推定モデルの出力として機械学習の訓練を行う。学習用のフォーカルポジションマップ93に基づく情報は、デコーダ71からの出力に対応する情報とされる。また、上述したように学習用のフォーカルポジションマップ93は、コレクションマップ92からラベルマップ82(画像パッチのZ論理座標)を引くことで生成されたものである。
【0146】
例えば、機械学習の訓練の際のエンコーダ70への入力は、学習用画像80の各画素の画素値とされる。デコーダ71がフォーカルポジションマップ60を出力する場合には、機械学習の訓練の際のデコーダ71からの出力は、学習用のフォーカルポジションマップ93の各画素の画素値とされる。デコーダ71が上述した候補毎の値を出力するものであった場合、学習用のフォーカルポジションマップ93に基づく情報は、例えば、画素毎に学習用のフォーカルポジションマップ93の画素値に該当する候補の値を1として、該当しない候補の値を0とした候補毎の値(画素毎のワンホットベクトル)である。学習部33は、必要に応じて、機械学習の訓練を行う前にデコーダ71からの出力に相当する学習用のフォーカルポジションマップ93に基づく情報を生成する。
【0147】
機械学習の訓練自体、即ち、デコーダ71のパラメータの更新は、従来と同様に行われればよい。例えば、図20に示すように、学習部33は、特徴量のデコーダ71に入力してデコーダ71に応じた演算を行って、デコーダ71からの出力85を取得する。学習部33は、取得した出力85と、学習用のフォーカルポジションマップ93に基づく情報とを比較して、誤差逆伝搬によってデコーダ71のパラメータを更新する。なお、この機械学習の訓練はデコーダ71のみの訓練であるため、この機械学習の訓練ではエンコーダ70のパラメータの更新は行わない。
【0148】
学習部33は、従来の機械学習の訓練と同様にデコーダ71の生成が予め設定した条件に基づいて収束するまで、あるいは予め設定された規定回数、機械学習の訓練の処理の繰り返しを行ってデコーダ71を生成する。
【0149】
学習部33は、エンコーダ70及びデコーダ71の訓練後、エンコーダ70及びデコーダ71の訓練を終了するか判断する。例えば、図17に示す学習部33によるエンコーダ70の訓練及びデコーダ71の訓練、並びに学習部33によるコレクションマップ92の更新(生成)及び学習用のフォーカルポジションマップ93の更新(生成)を、は予め設定された規定回数行った場合、エンコーダ70及びデコーダ71の訓練を終了すると判断する。又は、上記以外の判断基準によって、エンコーダ70及びデコーダ71の訓練を終了すると判断してもよい。
【0150】
学習部33は、エンコーダ70及びデコーダ71の訓練を終了すると判断したら、その時点でのエンコーダ70及びデコーダ71をモデル生成システム30が生成する最終的なエンコーダ70及びデコーダ71とする。学習部33は、訓練によって生成したエンコーダ70及びデコーダ71を焦点位置推定システム20に出力する。なお、生成されたエンコーダ70及びデコーダ71は、本実施形態での用途以外に用いられてもよい。その場合、例えば、学習部33は、エンコーダ70及びデコーダ71を用いる他の装置又はモジュールにエンコーダ70及びデコーダ71を送信又は出力する。あるいは、学習部33は、コンピュータ10又はその他の装置に生成したエンコーダ70及びデコーダ71を記憶させて、エンコーダ70及びデコーダ71を用いる他の装置又はモジュールに利用できるようにしてもよい。
【0151】
学習部33は、エンコーダ70及びデコーダ71の訓練を終了しないと判断したら、訓練途中のエンコーダ70及びデコーダ71を学習用焦点情報生成部32に出力する。学習用焦点情報生成部32は、訓練途中のエンコーダ70及びデコーダ71を入力する。学習用焦点情報生成部32は、入力した訓練途中のエンコーダ70及びデコーダ71を用いて、再度、コレクションマップ92及び学習用のフォーカルポジションマップ93を生成し、学習部33に出力する。
【0152】
学習部33は、再度、学習用焦点情報生成部32からコレクションマップ92及び学習用のフォーカルポジションマップ93を入力する。学習部33は、これらを用いて上記と同様に再度、エンコーダ70及びデコーダ71の訓練を行い、エンコーダ70及びデコーダ71の訓練を終了するか判断する。当該判断後の処理も上記と同様である。以上が、モデル生成システム30の機能である。
【0153】
引き続いて、図21及び図22のフローチャートを用いて、本実施形態に係るコンピュータ10で実行される処理(コンピュータ10が行う動作方法)を説明する。まず、図21のフローチャートを用いて、推定対象画像50に対応する合焦時の焦点位置を推定する際に実行される処理、即ち、本実施形態に係る焦点位置推定システム20で実行される処理である焦点位置推定方法を説明する。
【0154】
本処理では、まず、推定対象画像取得部21によって、推定対象画像50が取得される(S01、推定対象画像取得ステップ)。推定対象画像50は、例えば、撮像装置40の撮像によって得られた画像から基づくものである。続いて、焦点位置推定部22によって、エンコーダ70及びデコーダ71が用いられて、推定対象画像50から、当該推定対象画像50に対応すると共に当該推定対象画像50における位置に応じた合焦時の焦点位置が推定される(S02、焦点位置推定ステップ)。例えば、推定対象画像50の画素毎に合焦時の焦点位置が推定される。
【0155】
推定された合焦時の焦点位置は、焦点位置推定部22によって利用される(S03、焦点位置推定ステップ)。例えば、上述したように推定対象画像50に写った撮像対象物の傾斜の推定、推定対象画像50に写った撮像対象物の撮像時の焦点位置の制御、推定対象画像50における位置に応じた合焦状態を示す情報の出力、又は複数の推定対象画像50からの1つの画像の生成に利用される。また、推定された合焦時の焦点位置を示す情報が、焦点位置推定部22から出力されてもよい。以上が、本実施形態に係る焦点位置推定システム20で実行される処理である焦点位置推定方法である。
【0156】
続いて、図22のフローチャートを用いて、エンコーダ70及びデコーダ71を生成する際に実行される処理、即ち、本実施形態に係るモデル生成システム30で実行される処理であるモデル生成方法を説明する。
【0157】
本処理では、まず、学習用画像取得部31によって、それぞれ焦点位置が対応付けられた同一の撮像対象物に係る互いに異なる焦点位置の複数の学習用画像80、及び当該複数の学習用画像80に対する合焦時の焦点位置を示す合焦位置情報が取得される(S11、学習用画像取得ステップ)。続いて、学習用焦点情報生成部32によって、訓練途中のエンコーダ70及びデコーダ71が用いられて、コレクションマップ92及び学習用のフォーカルポジションマップ93が生成される(S12、学習用焦点情報生成ステップ)。
【0158】
続いて、学習部33によって、学習用画像80及びコレクションマップ92に基づいて、エンコーダ70の訓練が行われる(S13、学習ステップ)。続いて、学習部33によって、学習用画像80及び学習用のフォーカルポジションマップ93に基づいて、デコーダ71の訓練が行われる(S14、学習ステップ)。続いて、学習部33によって、エンコーダ70及びデコーダ71の訓練の終了が判断される(S15、学習ステップ)。
【0159】
エンコーダ70及びデコーダ71の訓練を終了すると判断されたら(S15のYES)、生成されたエンコーダ70及びデコーダ71が、学習部33から出力される(S16)。生成されたエンコーダ70及びデコーダ71は、例えば、焦点位置推定システム20で用いられる。
【0160】
エンコーダ70及びデコーダ71の訓練を終了しない判断されたら(S15のNO)、その時点の訓練途中のエンコーダ70及びデコーダ71が用いられて、学習用焦点情報生成部32及び学習部33による上記の処理(S12~S15)が、再度行われる。以上が、本実施形態に係るモデル生成システム30で実行される処理であるモデル生成方法である。
【0161】
本実施形態では、画像における位置に応じた合焦時の焦点位置を示す情報を出力するデコーダ71が用いられて、推定対象画像50における位置に応じた合焦時の焦点位置が推定される。従って、本実施形態によれば、画像に基づく焦点位置の推定を、画像の位置に応じて行うことができる。
【0162】
また、本実施形態のように、合焦時の焦点位置の推定には、モデル生成システム30によって生成されたデコーダ71が用いられてもよい。これによって、画像に基づく焦点位置の推定を適切かつ確実に行うことができる。但し、推定に用いられる焦点位置推定モデルは、機械学習の訓練によって生成されていると共に、画像に基づく情報を入力して当該画像における位置に応じた合焦時の焦点位置を示す情報を出力するものであればよく、必ずしもモデル生成システム30によって生成されたデコーダ71でなくてもよい。
【0163】
また、本実施形態のように、本実施形態のように、合焦時の焦点位置の推定には、デコーダ71に加えて、モデル生成システム30によって生成されたエンコーダ70が用いられてもよい。この構成によれば、エンコーダ70が用いられて推定対象画像50の特徴量が取得されて、特徴量から推定対象画像50における位置に応じた合焦時の焦点位置が推定される。特徴量が用いられる推定が行われることで、画像に基づく焦点位置の推定を更に適切かつ確実に行うことができる。但し、合焦時の焦点位置の推定にエンコーダ70が用いられなくてもよい。その場合、デコーダ71は、エンコーダ70から出力される特徴量ではない、推定対象画像50に基づく情報を入力するものとする。
【0164】
また、本実施形態のように、推定された合焦時の焦点位置を示す情報は、推定対象画像50に写った撮像対象物の傾斜の推定に用いられてもよい。この構成によれば、推定対象画像50に写った撮像対象物の傾斜を適切に推定することができる。
【0165】
また、本実施形態のように、推定された合焦時の焦点位置を示す情報は、推定対象画像50に写った撮像対象物の撮像時の焦点位置の制御に用いられてもよい。この構成によれば、撮像対象物を適切に撮像することができる。例えば、全ての位置で焦点があった画像を取得することができる。
【0166】
また、本実施形態のように、推定された合焦時の焦点位置を示す情報は、推定対象画像50における位置に応じた合焦状態を示す情報の出力に用いられてもよい。この構成によれば、推定対象画像50における位置に応じた合焦状態を把握することができる。例えば、推定対象画像50における焦点があった位置、及び焦点があっていない位置を把握することができる。
【0167】
また、本実施形態のように、推定された合焦時の焦点位置を示す情報は、複数の推定対象画像50からの1つの画像の生成に用いられてもよい。この構成によれば、適切な画像を取得することができる。例えば、全ての位置で焦点があった画像を取得することができる。但し、推定された合焦時の焦点位置を示す情報は、上述した何れかのように利用される必要はなく、任意に目的に利用されてもよい。また、推定された合焦時の焦点位置を示す情報は、焦点位置推定システム20で利用される必要はなく、他の装置又はモジュールで利用されてもよい。
【0168】
また、本実施形態では、学習用焦点情報である学習用のフォーカルポジションマップ93が生成されて機械学習の訓練が行われてデコーダ71が生成される。このように生成されたデコーダ71によって、画像に基づく焦点位置の推定を、画像の位置に応じて行うことができる。また、本実施形態に係るデコーダ71の生成では、学習用画像80における位置毎、例えば、学習用画像80の画素毎の合焦時の焦点位置を予め必要とせずに、デコーダ71を生成することができる。従って、容易にデコーダ71を生成することができる。
【0169】
また、本実施形態のように、訓練途中のデコーダ71を用いて得られる複数の学習用画像80それぞれの推定結果のフォーカルポジションマップ90から、複数の学習用画像80に共通の1つのコレクションマップ92を算出して、コレクションマップ92から、複数の学習用画像80それぞれについて学習用のフォーカルポジションマップ93を生成してもよい。この構成によれば、訓練に用いる学習用のフォーカルポジションマップ93をより適切なものにすることができ、焦点位置の推定をより適切かつ確実に行うことができるデコーダ71が生成される。但し、学習用のフォーカルポジションマップ93の生成は、学習用画像取得部31によって取得された情報に基づいて行われればよく、上記以外の方法で行われてもよい。
【0170】
また、本実施形態のように、デコーダ71に加えて、エンコーダ70も生成してもよい。この構成よれば、エンコーダ70から出力される特徴量が用いられる推定が行われることで、画像に基づく焦点位置の推定を更に適切かつ確実に行うことができる。また、本実施形態のように、学習用画像80及びコレクションマップ92に基づいて生成される特徴量学習用画像83を用いた訓練が行われることで、より適切な特徴量を出力するエンコーダ70とすることができる。
【0171】
また、特徴量学習用画像83を生成して訓練に用いることで、上述した特徴量の混合を最小限にすることが可能である。特徴量の混合を少なくすることで高精度な機械学習の訓練が可能になる。
【0172】
また、本実施形態のように、2つの特徴量学習用画像83が互いに同一の焦点位置に係るものである場合、当該2つの特徴量学習用画像83の特徴量の差分が小さくなるように、かつ、当該2つの特徴量学習用画像83が互いに異なる焦点位置に係るものである場合、当該2つの特徴量学習用画像83の特徴量の差分が大きくなるように機械学習の訓練を行うこととしてもよい。この構成によれば、エンコーダ70から出力される特徴量をより適切なものとすることができ、その結果、画像に基づく焦点位置の推定をより適切かつ確実に行うことができる。但し、機械学習の訓練は、必ずしも上記のように行われる必要はなく、2つの特徴量学習用画像83の特徴量の比較結果に基づいて行われればよい。また、エンコーダ70の生成自体、必ずしも行われる必要はない。その場合、生成するデコーダ71を、エンコーダ70から出力される特徴量ではない、推定対象画像50に基づく情報を入力するものとして生成すればよい。
【0173】
なお、本実施形態では、コンピュータ10は、焦点位置推定システム20と、モデル生成システム30とを含むこととしたが、焦点位置推定システム20と、モデル生成システム30とが独立してそれぞれ実施されてもよい。
【0174】
引き続いて、本実施形態による合焦時の焦点位置の推定の具体例を説明する。図23に、Zスタックの推定対象画像50に対して、合焦時の焦点位置の推定を行った場合の画素位置毎の合焦時の焦点位置を示す。図23において、横軸が推定対象画像50の画素の位置を示しており、縦軸がZスタックの焦点位置を示す。図中の太い破線が、推定される合焦時の焦点位置を示している。
【0175】
図23に示す例では、Zスタックは9枚で、Zスタック番号4を合焦時の焦点位置とした場合、それを基準としたZスタックのZ位置の範囲は-3~+5である(画素位置2,3,5,6,7も同様)。しかし、画素1の合焦時の焦点位置は、Zスタック番号8の位置であり、それを基準としたZスタックのZ位置の範囲は-7~+1となる。同様に、画素4の合焦時の焦点位置は、Zスタック番号3の位置であり、それを基準としたZスタックのZ位置の範囲は-2~+6となる。合焦時の焦点位置から最も離れた距離の範囲を見るとZ位置の範囲は-7~+6と拡張され、元々のZスタックのZ位置の範囲-3~+5よりも広い情報を扱えることが分かる。
【0176】
図24に、推定対象画像50の焦点位置(Zスタック位置)と、当該推定対象画像50から推定される合焦時の焦点位置とのグラフを示す。横軸が、推定対象画像50の焦点位置であり、縦軸は推定対象画像50から推定される合焦時の焦点位置である。グラフ中の1つの点は、推定対象画像50の1つの画素に対応する。また、1つのグラフにおける点は全て、同一の推定対象画像50の画素に対応する。グラフにおける点は、各推定対象画像50における10×10の方眼状の位置から抽出した128×128の位置(画素)に対応する。
【0177】
図24(a)のグラフは、本実施形態とは異なり、コレクションマップ92を用いずに学習用のフォーカルポジションマップを全ての画素で一律の値として訓練したデコーダを用いて推定を行った場合のグラフである。図24(b)のグラフは、本実施形態の推定を行った場合のグラフである。
【0178】
理想的なグラフは、グラフ上の点が一定の幅の帯状となるものである。本実施形態に係る図24(b)のグラフの方が、図24(a)のグラフに比べて理想的なものに近い。特に、Zスタックの端の位置での違いが大きくなっている。
【0179】
本実施形態において、一般的なSegNet及びU-Netのように高解像度用のショートカットパスを一部使用しない理由を示す。図25に、エンコーダ70の各ブロックでの出力時の特徴量を次元削減表示手法UMAP(Uniform Manifold Approximation and Projection)で2次元表示した例を示す。なお、図のXYは、UMAPの2次元であり、データ依存で比較不可である。図25(a)は、エンコーダ70の6層目128チャンネルの表示である。図25(b)は、エンコーダ70の9層目256チャンネルの表示である。図25(c)は、エンコーダ70の12層目512チャンネルの表示である。図25(d)は、エンコーダ70の15層目1024チャンネルの表示である。
【0180】
Zスタックの枚数は51枚である。表示中の濃度は、Zスタック番号1~51に対応している。各画像に対して、5×5の方眼状の位置から抽出した128×128の特徴量を推測する。即ち、同一の濃度の点は25点あり、51階調のグラデーションとなる。
【0181】
6層目の特徴量では、画像に写った撮像対象物の構造を示す構造情報が残っているため、同一の濃さで表される特徴量が離れている箇所が多い。9,12,15層目では、構造情報が減り、Z軸方向(撮像方向)の情報となることで、同一の濃さで表される同一画像内の別位置の特徴は近く、Z軸方向に並んだ関係になっている。
【0182】
つまり、9層目以降の特徴量をショートカットパス接続することで2次元のデコードによるZ位置情報がより空間方向にも高精度にすることが可能となる。なお、対象とする光学系の倍率及び画像の解像度等の関係で構造情報が消える層数は変動する。
【0183】
図26に、学習用画像80を切り出した画像の別の位置から切り出しを行って推定対象画像50として推定を行った場合の例を示す。図26(a)は、この例における推定対象画像50である。図26(b)は、推定対象画像50から推定されたフォーカルポジションマップ60である。
【0184】
図26(c)及び(e)のグラフは、本実施形態とは異なり、画像における位置毎、例えば、画素毎ではなく、1つの画像から1つの合焦時の焦点位置を推定した場合のグラフである。図26(d)及び(f)のグラフは、本実施形態の推定を行った場合のグラフである。図26(c)及び(d)のグラフにおける点は、推定対象画像50における10×10の方眼状の位置から抽出した画像に対応する。図26(e)及び(f)のグラフにおける点は、推定対象画像50における画像中心付近の3か所(それぞれ同一位置)に対応する。図26(c)~(f)のグラフは、図24のグラフと同様のグラフである。
【0185】
図27に、学習用画像80を切り出した画像の別の位置から切り出しを行って推定対象画像50として推定を行った場合の例を示す。図27(a)は、この例における推定対象画像50である。図27(b)は、推定対象画像50から推定されたフォーカルポジションマップ60である。
【0186】
図27(c)及び(e)のグラフは、本実施形態とは異なり、画像における位置毎、例えば、画素毎ではなく、1つの画像から1つの合焦時の焦点位置を推定した場合のグラフである。図27(d)及び(f)のグラフは、本実施形態の推定を行った場合のグラフである。図27(c)及び(d)のグラフにおける点は、推定対象画像50における10×10の方眼状の位置から抽出した画像に対応する。図27(e)及び(f)のグラフにおける点は、推定対象画像50における画像中心付近の3か所(それぞれ同一位置)に対応する。図27(c)~(f)のグラフは、図24のグラフと同様のグラフである。
【0187】
図28に、学習用画像80を切り出した画像の別の位置から切り出しを行って推定対象画像50として推定を行った場合の例を示す。図28(a)は、この例における推定対象画像50である。図28(b)は、推定対象画像50から推定されたフォーカルポジションマップ60である。
【0188】
図28(c)及び(e)のグラフは、本実施形態とは異なり、画像における位置毎、例えば、画素毎ではなく、1つの画像から1つの合焦時の焦点位置を推定した場合のグラフである。図28(d)及び(f)のグラフは、本実施形態の推定を行った場合のグラフである。図28(c)及び(d)のグラフにおける点は、推定対象画像50における10×10の方眼状の位置から抽出した画像に対応する。図28(e)及び(f)のグラフにおける点は、推定対象画像50における画像中心付近の3か所(それぞれ同一位置)に対応する。図28(c)~(f)のグラフは、図24のグラフと同様のグラフである。
【0189】
図29に、学習用画像80とは別に撮像された推定対象画像50を用いて推定を行った場合の例を示す。図29(a)は、この例における推定対象画像50である。図29(b)は、推定対象画像50から推定されたフォーカルポジションマップ60である。
【0190】
図29(c)及び(e)のグラフは、本実施形態とは異なり、画像における位置毎、例えば、画素毎ではなく、1つの画像から1つの合焦時の焦点位置を推定した場合のグラフである。図29(d)及び(f)のグラフは、本実施形態の推定を行った場合のグラフである。図29(c)及び(d)のグラフにおける点は、推定対象画像50における10×10の方眼状の位置から抽出した画像に対応する。図29(e)及び(f)のグラフにおける点は、推定対象画像50における画像中心付近の3か所(それぞれ同一位置)に対応する。図29(c)~(f)のグラフは、図24のグラフと同様のグラフである。
【0191】
図26図29に示すように本実施形態による推定では、画像における位置に応じて適切に推定が行えている。
【0192】
引き続いて、上述した一連の焦点位置推定システム20及びモデル生成システム30による処理を実行させるための焦点位置推定プログラム及びモデル生成プログラムを説明する。図30(a)に示すように、焦点位置推定プログラム200は、コンピュータに挿入されてアクセスされる、あるいはコンピュータが備える、コンピュータ読み取り可能な記録媒体210に形成されたプログラム格納領域211内に格納される。記録媒体210は、非一時的な記録媒体であってもよい。
【0193】
焦点位置推定プログラム200は、推定対象画像取得モジュール201と、焦点位置推定モジュール202とを備えて構成される。推定対象画像取得モジュール201と、焦点位置推定モジュール202とを実行させることにより実現される機能は、上述した焦点位置推定システム20の推定対象画像取得部21と、焦点位置推定部22との機能とそれぞれ同様である。
【0194】
図30(b)に示すように、モデル生成プログラム300は、コンピュータに挿入されてアクセスされる、あるいはコンピュータが備える、コンピュータ読み取り可能な記録媒体310に形成されたプログラム格納領域311内に格納される。記録媒体310は、非一時的な記録媒体であってもよい。なお、焦点位置推定プログラム200及びモデル生成プログラム300が同一のコンピュータで実行される場合には、記録媒体310は、記録媒体210と同一であってもよい。
【0195】
モデル生成プログラム300は、学習用画像取得モジュール301と、学習用焦点情報生成モジュール302と、学習モジュール303とを備えて構成される。学習用画像取得モジュール301と、学習用焦点情報生成モジュール302と、学習モジュール303とを実行させることにより実現される機能は、上述したモデル生成システム30の学習用画像取得部31と、学習用焦点情報生成部32と、学習部33との機能とそれぞれ同様である。
【0196】
なお、焦点位置推定プログラム200及びモデル生成プログラム300は、その一部又は全部が、通信回線等の伝送媒体を介して伝送され、他の機器により受信されて記録(インストールを含む)される構成としてもよい。また、焦点位置推定プログラム200及びモデル生成プログラム300の各モジュールは、1つのコンピュータでなく、複数のコンピュータの何れかにインストールされてもよい。その場合、当該複数のコンピュータによるコンピュータシステムよって上述した一連の処理が行われる。
【0197】
本開示の焦点位置推定方法、焦点位置推定プログラム、焦点位置推定システム、モデル生成方法、モデル生成プログラム、モデル生成システム及び焦点位置推定モデルは、以下の構成を有する。
[1] 推定対象画像に対応する合焦時の焦点位置を推定する焦点位置推定方法であって、
推定対象画像を取得する推定対象画像取得ステップと、
機械学習の訓練によって生成されていると共に、画像に基づく情報を入力して当該画像における位置に応じた合焦時の焦点位置を示す情報を出力する焦点位置推定モデルを用いて、前記推定対象画像取得ステップにおいて取得された推定対象画像から、当該推定対象画像に対応すると共に当該推定対象画像における位置に応じた合焦時の焦点位置を推定する焦点位置推定ステップと、
を含む焦点位置推定方法。
[2] 前記焦点位置推定モデルは、
それぞれ焦点位置が対応付けられた同一の撮像対象物に係る互いに異なる焦点位置の複数の学習用画像、及び当該複数の学習用画像に対する合焦時の焦点位置を示す合焦位置情報を取得する学習用画像取得ステップと、
前記学習用画像取得ステップにおいて取得された複数の学習用画像それぞれに基づく情報を、訓練途中の前記焦点位置推定モデルに入力して当該焦点位置推定モデルに応じた演算を行って、当該複数の学習用画像それぞれにおける位置に応じた合焦時の焦点位置を示す情報を取得して、取得した情報及び前記合焦位置情報から、当該複数の学習用画像それぞれについて、機械学習の訓練に用いる画像における位置に応じた合焦時の焦点位置を示す学習用焦点情報を生成する学習用焦点情報生成ステップと、
前記学習用画像取得ステップにおいて取得された複数の学習用画像それぞれに基づく情報、及び前記学習用焦点情報生成ステップにおいて生成された当該複数の学習用画像それぞれに対応する学習用焦点情報を用いて前記焦点位置推定モデルを生成するための機械学習の訓練を行う学習ステップと、
によって生成されたものである[1]に記載の焦点位置推定方法。
[3] 前記焦点位置推定モデルは、
前記学習用焦点情報生成ステップにおいて、訓練途中の前記焦点位置推定モデルを用いて取得した情報によって示される前記複数の学習用画像それぞれにおける位置に応じた合焦時の焦点位置から、学習用画像それぞれにおける位置に応じた、複数の学習用画像に共通の1つの合焦時の焦点位置を算出して、1つの合焦時の焦点位置から、当該複数の学習用画像それぞれについて前記学習用焦点情報を生成して生成されたものである[2]に記載の焦点位置推定方法。
[4] 前記焦点位置推定ステップにおいて、画像に基づく情報を入力して、前記焦点位置推定モデルに入力される当該画像の特徴量を出力する特徴量出力モデルを用いて、前記推定対象画像取得ステップにおいて取得された推定対象画像から、当該推定対象画像の特徴量を取得して、前記焦点位置推定モデルを用いて、当該特徴量から、当該推定対象画像に対応すると共に当該推定対象画像における位置に応じた合焦時の焦点位置を推定し、
前記特徴量出力モデルは、
前記学習ステップにおいて、前記訓練途中の前記焦点位置推定モデルを用いて取得した、前記複数の学習用画像それぞれにおける位置に応じた合焦時の焦点位置を示す情報に基づいて、それぞれ焦点位置が対応付けられたと共に、前記複数の学習用画像に応じた互いに異なる2つの特徴量学習用画像を生成して、当該2つの特徴量学習用画像の組み合わせを1つの単位として、当該2つの特徴量学習用画像に対応付けられた焦点位置に応じて、当該2つの特徴量学習用画像の特徴量を比較して、比較結果に基づいて機械学習の訓練を行うことによって生成されたものである[2]又は[3]に記載の焦点位置推定方法。
[5] 前記特徴量出力モデルは、
前記学習ステップにおいて、前記2つの特徴量学習用画像が互いに同一の焦点位置に係るものである場合、当該2つの特徴量学習用画像の特徴量の差分が小さくなるように、かつ、当該2つの特徴量学習用画像が互いに異なる焦点位置に係るものである場合、当該2つの特徴量学習用画像の特徴量の差分が大きくなるように機械学習の訓練を行うことによって生成されたものである[4]に記載の焦点位置推定方法。
[6] 前記焦点位置推定ステップにおいて、推定した推定対象画像における位置に応じた合焦時の焦点位置から、当該推定対象画像に写った撮像対象物の傾斜を推定する[1]~[5]の何れかに記載の焦点位置推定方法。
[7] 前記焦点位置推定ステップにおいて、推定した推定対象画像における位置に応じた合焦時の焦点位置に基づいて、当該推定対象画像に写った撮像対象物の撮像時の焦点位置を制御する[1]~[6]の何れかに記載の焦点位置推定方法。
[8] 前記焦点位置推定ステップにおいて、推定した推定対象画像における位置に応じた合焦時の焦点位置に基づいて、当該推定対象画像における位置に応じた合焦状態を示す情報を出力する[1]~[7]の何れかに記載の焦点位置推定方法。
[9] 前記推定対象画像取得ステップにおいて、同一の撮像対象物に係る互いに異なる焦点位置の複数の推定対象画像を取得し、
前記焦点位置推定ステップにおいて、前記推定対象画像取得ステップにおいて取得された前記複数の推定対象画像のうち少なくとも1つの推定対象画像から、当該推定対象画像における位置に応じた合焦時の焦点位置を推定し、推定した焦点位置に基づいて、当該複数の推定対象画像から1つの画像を生成する[1]~[8]の何れかに記載の焦点位置推定方法。
[10] コンピュータを、推定対象画像に対応する合焦時の焦点位置を推定する焦点位置推定システムとして機能させる焦点位置推定プログラムであって、
当該コンピュータを、
推定対象画像を取得する推定対象画像取得手段と、
機械学習の訓練によって生成されていると共に、画像に基づく情報を入力して当該画像における位置に応じた合焦時の焦点位置を示す情報を出力する焦点位置推定モデルを用いて、前記推定対象画像取得手段によって取得された推定対象画像から、当該推定対象画像に対応すると共に当該推定対象画像における位置に応じた合焦時の焦点位置を推定する焦点位置推定手段と、
として機能させる焦点位置推定プログラム。
[11] 前記焦点位置推定モデルは、
それぞれ焦点位置が対応付けられた同一の撮像対象物に係る互いに異なる焦点位置の複数の学習用画像、及び当該複数の学習用画像に対する合焦時の焦点位置を示す合焦位置情報を取得する学習用画像取得ステップと、
前記学習用画像取得ステップにおいて取得された複数の学習用画像それぞれに基づく情報を、訓練途中の前記焦点位置推定モデルに入力して当該焦点位置推定モデルに応じた演算を行って、当該複数の学習用画像それぞれにおける位置に応じた合焦時の焦点位置を示す情報を取得して、取得した情報及び前記合焦位置情報から、当該複数の学習用画像それぞれについて、機械学習の訓練に用いる画像における位置に応じた合焦時の焦点位置を示す学習用焦点情報を生成する学習用焦点情報生成ステップと、
前記学習用画像取得ステップにおいて取得された複数の学習用画像それぞれに基づく情報、及び前記学習用焦点情報生成ステップにおいて生成された当該複数の学習用画像それぞれに対応する学習用焦点情報を用いて前記焦点位置推定モデルを生成するための機械学習の訓練を行う学習ステップと、
によって生成されたものである[10]に記載の焦点位置推定プログラム。
[11-2] 前記焦点位置推定モデルは、
前記学習用焦点情報生成ステップにおいて、訓練途中の前記焦点位置推定モデルを用いて取得した情報によって示される前記複数の学習用画像それぞれにおける位置に応じた合焦時の焦点位置から、学習用画像それぞれにおける位置に応じた、複数の学習用画像に共通の1つの合焦時の焦点位置を算出して、1つの合焦時の焦点位置から、当該複数の学習用画像それぞれについて前記学習用焦点情報を生成して生成されたものである[11]に記載の焦点位置推定プログラム。
[11-3] 前記焦点位置推定手段は、画像に基づく情報を入力して、前記焦点位置推定モデルに入力される当該画像の特徴量を出力する特徴量出力モデルを用いて、前記推定対象画像取得手段によって取得された推定対象画像から、当該推定対象画像の特徴量を取得して、前記焦点位置推定モデルを用いて、当該特徴量から、当該推定対象画像に対応すると共に当該推定対象画像における位置に応じた合焦時の焦点位置を推定し、
前記特徴量出力モデルは、
前記学習ステップにおいて、前記訓練途中の前記焦点位置推定モデルを用いて取得した、前記複数の学習用画像それぞれにおける位置に応じた合焦時の焦点位置を示す情報に基づいて、それぞれ焦点位置が対応付けられたと共に、前記複数の学習用画像に応じた互いに異なる2つの特徴量学習用画像を生成して、当該2つの特徴量学習用画像の組み合わせを1つの単位として、当該2つの特徴量学習用画像に対応付けられた焦点位置に応じて、当該2つの特徴量学習用画像の特徴量を比較して、比較結果に基づいて機械学習の訓練を行うことによって生成されたものである[11]又は[11-2]に記載の焦点位置推定プログラム。
[11-4] 前記特徴量出力モデルは、
前記学習ステップにおいて、前記2つの特徴量学習用画像が互いに同一の焦点位置に係るものである場合、当該2つの特徴量学習用画像の特徴量の差分が小さくなるように、かつ、当該2つの特徴量学習用画像が互いに異なる焦点位置に係るものである場合、当該2つの特徴量学習用画像の特徴量の差分が大きくなるように機械学習の訓練を行うことによって生成されたものである[11-3]に記載の焦点位置推定プログラム。
[11-5] 前記焦点位置推定手段は、推定した推定対象画像における位置に応じた合焦時の焦点位置から、当該推定対象画像に写った撮像対象物の傾斜を推定する[10]~[11-4]の何れかに記載の焦点位置推定プログラム。
[11-6] 前記焦点位置推定手段は、推定した推定対象画像における位置に応じた合焦時の焦点位置に基づいて、当該推定対象画像に写った撮像対象物の撮像時の焦点位置を制御する[10]~[11-5]の何れかに記載の焦点位置推定プログラム。
[11-7] 前記焦点位置推定手段は、推定した推定対象画像における位置に応じた合焦時の焦点位置に基づいて、当該推定対象画像における位置に応じた合焦状態を示す情報を出力する[10]~[11-6]の何れかに記載の焦点位置推定プログラム。
[11-8] 前記焦点位置推定手段は、同一の撮像対象物に係る互いに異なる焦点位置の複数の推定対象画像を取得し、
前記焦点位置推定手段は、前記推定対象画像取得手段によって取得された前記複数の推定対象画像のうち少なくとも1つの推定対象画像から、当該推定対象画像における位置に応じた合焦時の焦点位置を推定し、推定した焦点位置に基づいて、当該複数の推定対象画像から1つの画像を生成する[10]~[11-7]の何れかに記載の焦点位置推定プログラム。
[12] 推定対象画像に対応する合焦時の焦点位置を推定する焦点位置推定システムであって、
推定対象画像を取得する推定対象画像取得手段と、
機械学習の訓練によって生成されていると共に、画像に基づく情報を入力して当該画像における位置に応じた合焦時の焦点位置を示す情報を出力する焦点位置推定モデルを用いて、前記推定対象画像取得手段によって取得された推定対象画像から、当該推定対象画像に対応すると共に当該推定対象画像における位置に応じた合焦時の焦点位置を推定する焦点位置推定手段と、
を備える焦点位置推定システム。
[13] 前記焦点位置推定モデルは、
それぞれ焦点位置が対応付けられた同一の撮像対象物に係る互いに異なる焦点位置の複数の学習用画像、及び当該複数の学習用画像に対する合焦時の焦点位置を示す合焦位置情報を取得する学習用画像取得ステップと、
前記学習用画像取得ステップにおいて取得された複数の学習用画像それぞれに基づく情報を、訓練途中の前記焦点位置推定モデルに入力して当該焦点位置推定モデルに応じた演算を行って、当該複数の学習用画像それぞれにおける位置に応じた合焦時の焦点位置を示す情報を取得して、取得した情報及び前記合焦位置情報から、当該複数の学習用画像それぞれについて、機械学習の訓練に用いる画像における位置に応じた合焦時の焦点位置を示す学習用焦点情報を生成する学習用焦点情報生成ステップと、
前記学習用画像取得ステップにおいて取得された複数の学習用画像それぞれに基づく情報、及び前記学習用焦点情報生成ステップにおいて生成された当該複数の学習用画像それぞれに対応する学習用焦点情報を用いて前記焦点位置推定モデルを生成するための機械学習の訓練を行う学習ステップと、
によって生成されたものである[12]に記載の焦点位置推定システム。
[13-2] 前記焦点位置推定モデルは、
前記学習用焦点情報生成ステップにおいて、訓練途中の前記焦点位置推定モデルを用いて取得した情報によって示される前記複数の学習用画像それぞれにおける位置に応じた合焦時の焦点位置から、学習用画像それぞれにおける位置に応じた、複数の学習用画像に共通の1つの合焦時の焦点位置を算出して、1つの合焦時の焦点位置から、当該複数の学習用画像それぞれについて前記学習用焦点情報を生成して生成されたものである[13]に記載の焦点位置推定システム。
[13-3] 前記焦点位置推定手段は、画像に基づく情報を入力して、前記焦点位置推定モデルに入力される当該画像の特徴量を出力する特徴量出力モデルを用いて、前記推定対象画像取得手段によって取得された推定対象画像から、当該推定対象画像の特徴量を取得して、前記焦点位置推定モデルを用いて、当該特徴量から、当該推定対象画像に対応すると共に当該推定対象画像における位置に応じた合焦時の焦点位置を推定し、
前記特徴量出力モデルは、
前記学習ステップにおいて、前記訓練途中の前記焦点位置推定モデルを用いて取得した、前記複数の学習用画像それぞれにおける位置に応じた合焦時の焦点位置を示す情報に基づいて、それぞれ焦点位置が対応付けられたと共に、前記複数の学習用画像に応じた互いに異なる2つの特徴量学習用画像を生成して、当該2つの特徴量学習用画像の組み合わせを1つの単位として、当該2つの特徴量学習用画像に対応付けられた焦点位置に応じて、当該2つの特徴量学習用画像の特徴量を比較して、比較結果に基づいて機械学習の訓練を行うことによって生成されたものである[13]又は[13-2]に記載の焦点位置推定システム。
[13-4] 前記特徴量出力モデルは、
前記学習ステップにおいて、前記2つの特徴量学習用画像が互いに同一の焦点位置に係るものである場合、当該2つの特徴量学習用画像の特徴量の差分が小さくなるように、かつ、当該2つの特徴量学習用画像が互いに異なる焦点位置に係るものである場合、当該2つの特徴量学習用画像の特徴量の差分が大きくなるように機械学習の訓練を行うことによって生成されたものである[13-3]に記載の焦点位置推定システム。
[13-5] 前記焦点位置推定手段は、推定した推定対象画像における位置に応じた合焦時の焦点位置から、当該推定対象画像に写った撮像対象物の傾斜を推定する[12]~[13-4]の何れかに記載の焦点位置推定システム。
[13-6] 前記焦点位置推定手段は、推定した推定対象画像における位置に応じた合焦時の焦点位置に基づいて、当該推定対象画像に写った撮像対象物の撮像時の焦点位置を制御する[12]~[13-5]の何れかに記載の焦点位置推定システム。
[13-7] 前記焦点位置推定手段は、推定した推定対象画像における位置に応じた合焦時の焦点位置に基づいて、当該推定対象画像における位置に応じた合焦状態を示す情報を出力する[12]~[13-6]の何れかに記載の焦点位置推定システム。
[13-8] 前記焦点位置推定手段は、同一の撮像対象物に係る互いに異なる焦点位置の複数の推定対象画像を取得し、
前記焦点位置推定手段は、前記推定対象画像取得手段によって取得された前記複数の推定対象画像のうち少なくとも1つの推定対象画像から、当該推定対象画像における位置に応じた合焦時の焦点位置を推定し、推定した焦点位置に基づいて、当該複数の推定対象画像から1つの画像を生成する[12]~[13-7]の何れかに記載の焦点位置推定システム。
[14] 画像に基づく情報を入力して当該画像における位置に応じた合焦時の焦点位置を示す情報を出力する焦点位置推定モデルを生成するモデル生成方法であって、
それぞれ焦点位置が対応付けられた同一の撮像対象物に係る互いに異なる焦点位置の複数の学習用画像、及び当該複数の学習用画像に対する合焦時の焦点位置を示す合焦位置情報を取得する学習用画像取得ステップと、
前記学習用画像取得ステップにおいて取得された複数の学習用画像それぞれに基づく情報を、訓練途中の前記焦点位置推定モデルに入力して当該焦点位置推定モデルに応じた演算を行って、当該複数の学習用画像それぞれにおける位置に応じた合焦時の焦点位置を示す情報を取得して、取得した情報及び前記合焦位置情報から、当該複数の学習用画像それぞれについて、機械学習の訓練に用いる画像における位置に応じた合焦時の焦点位置を示す学習用焦点情報を生成する学習用焦点情報生成ステップと、
前記学習用画像取得ステップにおいて取得された複数の学習用画像それぞれに基づく情報、及び前記学習用焦点情報生成ステップにおいて生成された当該複数の学習用画像それぞれに対応する学習用焦点情報を用いて前記焦点位置推定モデルを生成するための機械学習の訓練を行う学習ステップと、
を含むモデル生成方法。
[15] 前記学習用焦点情報生成ステップにおいて、訓練途中の前記焦点位置推定モデルを用いて取得した情報によって示される前記複数の学習用画像それぞれにおける位置に応じた合焦時の焦点位置から、学習用画像それぞれにおける位置に応じた、複数の学習用画像に共通の1つの合焦時の焦点位置を算出して、1つの合焦時の焦点位置から、当該複数の学習用画像それぞれについて前記学習用焦点情報を生成する[14]に記載のモデル生成方法。
[16] 前記学習ステップにおいて、画像に基づく情報を入力して、前記焦点位置推定モデルに入力される当該画像の特徴量を出力する特徴量出力モデルを生成し、
前記学習ステップにおいて、前記訓練途中の前記焦点位置推定モデルを用いて取得した、前記複数の学習用画像それぞれにおける位置に応じた合焦時の焦点位置を示す情報に基づいて、それぞれ焦点位置が対応付けられたと共に、前記複数の学習用画像に応じた互いに異なる2つの特徴量学習用画像を生成して、当該2つの特徴量学習用画像の組み合わせを1つの単位として、当該2つの特徴量学習用画像に対応付けられた焦点位置に応じて、当該2つの特徴量学習用画像の特徴量を比較して、比較結果に基づいて機械学習の訓練を行って前記特徴量出力モデルを生成する[14]又は[15]に記載のモデル生成方法。
[17] 前記学習ステップにおいて、前記2つの特徴量学習用画像が互いに同一の焦点位置に係るものである場合、当該2つの特徴量学習用画像の特徴量の差分が小さくなるように、かつ、当該2つの特徴量学習用画像が互いに異なる焦点位置に係るものである場合、当該2つの特徴量学習用画像の特徴量の差分が大きくなるように機械学習の訓練を行う[16]に記載のモデル生成方法。
[18] コンピュータを、画像に基づく情報を入力して当該画像における位置に応じた合焦時の焦点位置を示す情報を出力する焦点位置推定モデルを生成するモデル生成システムとして機能させるモデル生成プログラムであって、
当該コンピュータを、
それぞれ焦点位置が対応付けられた同一の撮像対象物に係る互いに異なる焦点位置の複数の学習用画像、及び当該複数の学習用画像に対する合焦時の焦点位置を示す合焦位置情報を取得する学習用画像取得手段と、
前記学習用画像取得手段によって取得された複数の学習用画像それぞれに基づく情報を、訓練途中の前記焦点位置推定モデルに入力して当該焦点位置推定モデルに応じた演算を行って、当該複数の学習用画像それぞれにおける位置に応じた合焦時の焦点位置を示す情報を取得して、取得した情報及び前記合焦位置情報から、当該複数の学習用画像それぞれについて、機械学習の訓練に用いる画像における位置に応じた合焦時の焦点位置を示す学習用焦点情報を生成する学習用焦点情報生成手段と、
前記学習用画像取得手段によって取得された複数の学習用画像それぞれに基づく情報、及び前記学習用焦点情報生成手段によって生成された当該複数の学習用画像それぞれに対応する学習用焦点情報を用いて前記焦点位置推定モデルを生成するための機械学習の訓練を行う学習手段と、
として機能させるモデル生成プログラム。
[18-2] 前記学習用焦点情報生成手段は、訓練途中の前記焦点位置推定モデルを用いて取得した情報によって示される前記複数の学習用画像それぞれにおける位置に応じた合焦時の焦点位置から、学習用画像それぞれにおける位置に応じた、複数の学習用画像に共通の1つの合焦時の焦点位置を算出して、1つの合焦時の焦点位置から、当該複数の学習用画像それぞれについて前記学習用焦点情報を生成する[18]に記載のモデル生成プログラム。
[18-3] 前記学習手段は、画像に基づく情報を入力して、前記焦点位置推定モデルに入力される当該画像の特徴量を出力する特徴量出力モデルを生成し、
前記学習手段は、前記訓練途中の前記焦点位置推定モデルを用いて取得した、前記複数の学習用画像それぞれにおける位置に応じた合焦時の焦点位置を示す情報に基づいて、それぞれ焦点位置が対応付けられたと共に、前記複数の学習用画像に応じた互いに異なる2つの特徴量学習用画像を生成して、当該2つの特徴量学習用画像の組み合わせを1つの単位として、当該2つの特徴量学習用画像に対応付けられた焦点位置に応じて、当該2つの特徴量学習用画像の特徴量を比較して、比較結果に基づいて機械学習の訓練を行って前記特徴量出力モデルを生成する[18]又は[18-2]に記載のモデル生成プログラム。
[18-4] 前記学習ステップにおいて、前記2つの特徴量学習用画像が互いに同一の焦点位置に係るものである場合、当該2つの特徴量学習用画像の特徴量の差分が小さくなるように、かつ、当該2つの特徴量学習用画像が互いに異なる焦点位置に係るものである場合、当該2つの特徴量学習用画像の特徴量の差分が大きくなるように機械学習の訓練を行う[18-3]に記載のモデル生成プログラム。
[19] 画像に基づく情報を入力して当該画像における位置に応じた合焦時の焦点位置を示す情報を出力する焦点位置推定モデルを生成するモデル生成システムであって、
それぞれ焦点位置が対応付けられた同一の撮像対象物に係る互いに異なる焦点位置の複数の学習用画像、及び当該複数の学習用画像に対する合焦時の焦点位置を示す合焦位置情報を取得する学習用画像取得手段と、
前記学習用画像取得手段によって取得された複数の学習用画像それぞれに基づく情報を、訓練途中の前記焦点位置推定モデルに入力して当該焦点位置推定モデルに応じた演算を行って、当該複数の学習用画像それぞれにおける位置に応じた合焦時の焦点位置を示す情報を取得して、取得した情報及び前記合焦位置情報から、当該複数の学習用画像それぞれについて、機械学習の訓練に用いる画像における位置に応じた合焦時の焦点位置を示す学習用焦点情報を生成する学習用焦点情報生成手段と、
前記学習用画像取得手段によって取得された複数の学習用画像それぞれに基づく情報、及び前記学習用焦点情報生成手段によって生成された当該複数の学習用画像それぞれに対応する学習用焦点情報を用いて前記焦点位置推定モデルを生成するための機械学習の訓練を行う学習手段と、
を含むモデル生成システム。
[19-2] 前記学習用焦点情報生成手段は、訓練途中の前記焦点位置推定モデルを用いて取得した情報によって示される前記複数の学習用画像それぞれにおける位置に応じた合焦時の焦点位置から、学習用画像それぞれにおける位置に応じた、複数の学習用画像に共通の1つの合焦時の焦点位置を算出して、1つの合焦時の焦点位置から、当該複数の学習用画像それぞれについて前記学習用焦点情報を生成する[19]に記載のモデル生成システム。
[19-3] 前記学習手段は、画像に基づく情報を入力して、前記焦点位置推定モデルに入力される当該画像の特徴量を出力する特徴量出力モデルを生成し、
前記学習手段は、前記訓練途中の前記焦点位置推定モデルを用いて取得した、前記複数の学習用画像それぞれにおける位置に応じた合焦時の焦点位置を示す情報に基づいて、それぞれ焦点位置が対応付けられたと共に、前記複数の学習用画像に応じた互いに異なる2つの特徴量学習用画像を生成して、当該2つの特徴量学習用画像の組み合わせを1つの単位として、当該2つの特徴量学習用画像に対応付けられた焦点位置に応じて、当該2つの特徴量学習用画像の特徴量を比較して、比較結果に基づいて機械学習の訓練を行って前記特徴量出力モデルを生成する[19]又は[19-2]に記載のモデル生成システム。
[19-4] 前記学習ステップにおいて、前記2つの特徴量学習用画像が互いに同一の焦点位置に係るものである場合、当該2つの特徴量学習用画像の特徴量の差分が小さくなるように、かつ、当該2つの特徴量学習用画像が互いに異なる焦点位置に係るものである場合、当該2つの特徴量学習用画像の特徴量の差分が大きくなるように機械学習の訓練を行う[19-3]に記載のモデル生成システム。
[20] 機械学習の訓練によって生成されていると共に、画像に基づく情報を入力して当該画像における位置に応じた合焦時の焦点位置を示す情報を出力するようコンピュータを機能されるための焦点位置推定モデル。
[21] それぞれ焦点位置が対応付けられた同一の撮像対象物に係る互いに異なる焦点位置の複数の学習用画像、及び当該複数の学習用画像に対する合焦時の焦点位置を示す合焦位置情報を取得する学習用画像取得ステップと、
前記学習用画像取得ステップにおいて取得された複数の学習用画像それぞれに基づく情報を、訓練途中の前記焦点位置推定モデルに入力して当該焦点位置推定モデルに応じた演算を行って、当該複数の学習用画像それぞれにおける位置に応じた合焦時の焦点位置を示す情報を取得して、取得した情報及び前記合焦位置情報から、当該複数の学習用画像それぞれについて、機械学習の訓練に用いる画像における位置に応じた合焦時の焦点位置を示す学習用焦点情報を生成する学習用焦点情報生成ステップと、
前記学習用画像取得ステップにおいて取得された複数の学習用画像それぞれに基づく情報、及び前記学習用焦点情報生成ステップにおいて生成された当該複数の学習用画像それぞれに対応する学習用焦点情報を用いて前記焦点位置推定モデルを生成するための機械学習の訓練を行う学習ステップと、
によって生成されたものである[20]に記載の焦点位置推定モデル。
[21-2] 前記学習用焦点情報生成ステップにおいて、訓練途中の前記焦点位置推定モデルを用いて取得した情報によって示される前記複数の学習用画像それぞれにおける位置に応じた合焦時の焦点位置から、学習用画像それぞれにおける位置に応じた、複数の学習用画像に共通の1つの合焦時の焦点位置を算出して、1つの合焦時の焦点位置から、当該複数の学習用画像それぞれについて前記学習用焦点情報を生成する[21]に記載の焦点位置推定モデル。
【符号の説明】
【0198】
10…コンピュータ、20…焦点位置推定システム、21…推定対象画像取得部、22…焦点位置推定部、30…モデル生成システム、31…学習用画像取得部、32…学習用焦点情報生成部、33…学習部、40…撮像装置、200…焦点位置推定プログラム、201…推定対象画像取得モジュール、202…焦点位置推定モジュール、210…記録媒体、211…プログラム格納領域、300…モデル生成プログラム、301…学習用画像取得モジュール、302…学習用焦点情報生成モジュール、303…学習モジュール、310…記録媒体、311…プログラム格納領域。
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14
図15
図16
図17
図18
図19
図20
図21
図22
図23
図24
図25
図26
図27
図28
図29
図30