IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ オムロン株式会社の特許一覧

特開2025-154259画像処理装置、画像処理方法及びプログラム
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2025154259
(43)【公開日】2025-10-10
(54)【発明の名称】画像処理装置、画像処理方法及びプログラム
(51)【国際特許分類】
   G06T 7/55 20170101AFI20251002BHJP
   G06T 7/00 20170101ALI20251002BHJP
   G01B 11/00 20060101ALI20251002BHJP
【FI】
G06T7/55
G06T7/00 350B
G01B11/00 H
【審査請求】未請求
【請求項の数】10
【出願形態】OL
(21)【出願番号】P 2024057163
(22)【出願日】2024-03-29
(71)【出願人】
【識別番号】000002945
【氏名又は名称】オムロン株式会社
(74)【代理人】
【識別番号】110002147
【氏名又は名称】弁理士法人酒井国際特許事務所
(72)【発明者】
【氏名】竹内 倭
(72)【発明者】
【氏名】林 剣之介
(72)【発明者】
【氏名】杉原 知道
【テーマコード(参考)】
2F065
5L096
【Fターム(参考)】
2F065AA04
2F065FF05
2F065JJ19
2F065JJ26
2F065QQ08
2F065QQ24
2F065QQ25
2F065QQ31
2F065RR08
5L096AA06
5L096BA05
5L096CA05
5L096DA02
5L096EA39
5L096FA66
5L096FA67
5L096FA69
5L096GA51
(57)【要約】
【課題】3次元画像計測に用いる学習済みモデルの出力から信頼できる情報を特定すること。
【解決手段】画像処理装置は、第1視点画像及び第2視点画像を取得する画像取得部と、第1画像及び第2画像を入力し、第1画像中の点のそれぞれについて第1推定視差を第1画像中の第1位置座標と対応付けて出力する第1学習済みモデルを利用可能とされ、第1視点画像を第1画像とし、第2視点画像を第2画像として第1学習済みモデルに入力して第1位置座標と対応付けられた第1推定視差を取得する推論部と、各第1視点画像中の点について、第1位置座標及び第1推定視差から第2視点画像中の対応点の推定位置を求め、第1位置座標、第1推定視差、第2視点画像中の対応点の推定位置が対応付けられた対応付けデータを生成し、対応付けデータの集合から、第1推定視差の信頼度が高い、第1位置座標及び第1推定視差の組を特定する高信頼度領域特定手段と、を備える。
【選択図】図1
【特許請求の範囲】
【請求項1】
複数の画像間の視差に基づく3次元画像計測処理を行う画像処理装置であって、
第1視点及び第2視点のそれぞれで撮像された第1視点画像及び第2視点画像を取得する画像取得部と、
第1画像及び第2画像を入力し、前記第1画像中の点のそれぞれについて前記第2画像中の対応点との間の視差の機械学習による推論値である第1推定視差を前記第1画像中の点の位置を表す第1位置座標と対応付けて出力する第1学習済みモデルを利用可能とされ、前記第1視点画像を前記第1画像とし、前記第2視点画像を前記第2画像として前記第1学習済みモデルに入力して前記第1位置座標と対応付けられた前記第1推定視差を取得する推論部と、
各前記第1視点画像中の点について、前記第1位置座標及び前記第1推定視差から前記第2視点画像中の対応点の推定位置を求め、前記第1位置座標、前記第1推定視差、前記第2視点画像中の対応点の推定位置が対応付けられた対応付けデータを生成し、前記対応付けデータの集合から、前記第1推定視差の信頼度が高い、前記第1位置座標及び前記第1推定視差の組を特定する高信頼度領域特定手段と、を備える、
画像処理装置。
【請求項2】
前記推論部は、さらに、前記第1画像及び前記第2画像を入力し、前記第2画像中の点のそれぞれについて前記第1画像中の対応点との間の視差の機械学習による推論値である第2推定視差を前記第2画像中の点の位置を表す第2位置座標と対応付けて出力する第2学習済みモデルを利用可能とされ、前記第1視点画像を前記第1画像とし、前記第2視点画像を前記第2画像として前記第2学習済みモデルに入力して前記第2位置座標と対応付けられた第2推定視差を取得し、
前記高信頼度領域特定手段は、前記対応付けデータにおいて前記第1位置座標に対応付けられている前記第2視点画像中の対応点の推定位置と同一の前記第2位置座標に対応付けられた前記第2推定視差を特定し、前記第1位置座標に対応付けられている前記第1推定視差の大きさと特定された前記第2推定視差の大きさとの差が所定のしきい値よりも小さい場合に、前記第1位置座標に対応付けられている前記第1推定視差の信頼度は高いとする、
請求項1に記載の画像処理装置。
【請求項3】
前記第1学習済みモデルは、前記第1推定視差を前記第1画像中の点の位置と対応付けて出力することに加えて、前記第2画像中の点のそれぞれについて前記第1画像中の対応点との間の視差の機械学習による推論値である第2推定視差を前記第2画像中の点の位置を表す第2位置座標と対応付けて出力し、
前記推論部は、前記第1視点画像を前記第1画像とし、前記第2視点画像を前記第2画像として前記第1学習済みモデルに入力して前記第1位置座標と対応付けられた前記第1推定視差、及び前記第2位置座標と対応付けられた前記第2推定視差を取得し、
前記高信頼度領域特定手段は、前記対応付けデータにおいて前記第1位置座標に対応付けられている前記第2視点画像中の対応点の推定位置と同一の前記第2位置座標に対応付けられた前記第2推定視差を特定し、前記第1位置座標に対応付けられている前記第1推定視差の大きさと特定された前記第2推定視差の大きさとの差が所定のしきい値よりも小さい場合に、前記第1位置座標に対応付けられている前記第1推定視差の信頼度は高いとする、
請求項1に記載の画像処理装置。
【請求項4】
前記推論部は、前記第2視点画像を視差方向に反転処理した第2反転画像を前記第1画像とし、前記第1視点画像を視差方向に反転処理した第1反転画像を前記第2画像として前記第1学習済みモデルに入力して前記第1位置座標と対応付けられた前記第1推定視差を取得し、前記第1位置座標を視差方向に反転処理して第2位置座標とするとともに前記第1推定視差の符号を反転処理して第2推定視差とし、
前記高信頼度領域特定手段は、前記対応付けデータにおいて前記第1位置座標に対応付けられている前記第2視点画像中の対応点の推定位置と同一の前記第2位置座標に対応付けられた前記第2推定視差を特定し、前記対応付けデータにおいて前記第1位置座標に対応付けられている前記第1推定視差の大きさと特定された前記第2推定視差の大きさとの差が所定のしきい値よりも小さい場合に、前記対応付けデータにおいて前記第1位置座標に対応付けられている前記第1推定視差の信頼度は高いとする、
請求項1に記載の画像処理装置。
【請求項5】
前記高信頼度領域特定手段は、着目する前記対応付けデータに含まれる前記第2視点画像中の対応点の推定位置と同一の前記第2視点画像中の対応点の推定位置を含む他の前記対応付けデータが所定数以上存在する場合は、同一の前記第2視点画像中の対応点の推定位置を含む所定数以上の前記対応付けデータに含まれる前記第1推定視差の少なくとも一部の信頼度は高くないとする、
請求項1に記載の画像処理装置。
【請求項6】
前記高信頼度領域特定手段は、着目する前記対応付けデータに含まれる前記第2視点画像中の対応点の推定位置と同一の前記第2視点画像中の対応点の推定位置を含む他の前記対応付けデータが複数存在する場合は、それらの前記対応付けデータに含まれる前記第1推定視差の中で絶対値が最も大きな前記第1推定視差のみを信頼度が高いとする、
請求項5に記載の画像処理装置。
【請求項7】
前記第1推定視差の信頼度が高い、前記第1位置座標及び前記第1推定視差の組として特定された各点の奥行きを表す深度情報を算出する深度算出部をさらに備える、
請求項1から4のいずれか1項に記載の画像処理装置。
【請求項8】
複数の画像間の視差に基づく3次元画像計測処理を行う画像処理装置であって、
第1視点及び第2視点のそれぞれで撮像された第1視点画像及び第2視点画像を取得する画像取得部と、
第1画像及び第2画像を入力し、前記第1画像中の点のそれぞれについて前記第2画像中の対応点との間の視差の機械学習による推論値である第1推定視差を前記第1画像中の点の位置を表す第1位置座標と対応付けて出力する第1学習済みモデルを利用可能とされ、前記第1視点画像を前記第1画像とし、前記第2視点画像を前記第2画像として前記第1学習済みモデルに入力して前記第1位置座標と対応付けられた前記第1推定視差を取得する推論部と、
各前記第1視点画像中の点について、前記第1位置座標及び前記第1推定視差から前記第2視点画像中の対応点の推定位置を求め、前記第1推定視差に対応する第1深度を求め、前記第1位置座標、前記第1深度、前記第2視点画像中の対応点の推定位置が対応付けられた対応付けデータを生成し、前記対応付けデータの集合から、前記第1深度の信頼度が高い、前記第1位置座標及び前記第1深度の組を特定する高信頼度領域特定手段と、を備える、
画像処理装置。
【請求項9】
複数の画像間の視差に基づく3次元画像計測処理を行う画像処理方法であって、
第1視点及び第2視点のそれぞれで撮像された第1視点画像及び第2視点画像を取得するステップと、
第1画像及び第2画像を入力し、前記第1画像中の点のそれぞれについて前記第2画像中の対応点との間の視差の機械学習による推論値である第1推定視差を前記第1画像中の点の位置を表す第1位置座標と対応付けて出力する学習済みモデルを利用可能とされ、前記第1視点画像を前記第1画像とし、前記第2視点画像を前記第2画像として前記学習済みモデルに入力して前記第1位置座標と対応付けられた前記第1推定視差を取得するステップと、
各前記第1視点画像中の点について、前記第1位置座標及び前記第1推定視差から前記第2視点画像中の対応点の推定位置を求め、前記第1位置座標、前記第1推定視差、前記第2視点画像中の対応点の推定位置が対応付けられた対応付けデータを生成し、前記対応付けデータの集合から、前記第1推定視差の信頼度が高い、前記第1位置座標及び前記第1推定視差の組を特定するステップと、を備える、
画像処理方法。
【請求項10】
複数の画像間の視差に基づく3次元画像計測処理を行うプログラムであって、
第1視点及び第2視点のそれぞれで撮像された第1視点画像及び第2視点画像を取得する処理と、
第1画像及び第2画像を入力し、前記第1画像中の点のそれぞれについて前記第2画像中の対応点との間の視差の機械学習による推論値である第1推定視差を前記第1画像中の点の位置を表す第1位置座標と対応付けて出力する学習済みモデルを利用可能とされ、前記第1視点画像を前記第1画像とし、前記第2視点画像を前記第2画像として前記学習済みモデルに入力して前記第1位置座標と対応付けられた前記第1推定視差を取得する処理と、
各前記第1視点画像中の点について、前記第1位置座標及び前記第1推定視差から前記第2視点画像中の対応点の推定位置を求め、前記第1位置座標、前記第1推定視差、前記第2視点画像中の対応点の推定位置が対応付けられた対応付けデータを生成し、前記対応付けデータの集合から、前記第1推定視差の信頼度が高い、前記第1位置座標及び前記第1推定視差の組を特定する処理と、
をコンピュータに実行させる、プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、画像処理装置、画像処理方法及びプログラムに関する。
【背景技術】
【0002】
ステレオ画像などの視点が異なる複数の画像間の視差に基づいて画像中の奥行きなどの3次元情報を取得する3次元画像計測を行う技術が知られている。この種の技術では、一方の画像に写る点が他方の画像のどの点に写るかという対応点を推定し、画像間の視差を求める。また、例えば非特許文献1に示されるように、3次元画像計測処理に、機械学習技術を適用することが提案されている。
【先行技術文献】
【非特許文献】
【0003】
【非特許文献1】L. Lipson, Z. Teed and J. Deng, "RAFT-Stereo: Multilevel Recurrent Field Transforms for Stereo Matching," 2021 International Conference on 3D Vision (3DV), London, United Kingdom, 2021, pp. 218-227, doi: 10.1109/3DV53792.2021.00032. [online]<URL:https://arxiv.org/pdf/2109.07547.pd>,[令和6年2月28日検索]
【発明の概要】
【発明が解決しようとする課題】
【0004】
3次元画像計測において、1枚の画像だけに写る点は、他の画像における対応点を特定することができないため、正しい視差を算出することは原理的にできない。例えば、1枚の画像には映るが他の画像では別の物体に遮られて死角となる箇所は、対応点を決定できない。
【0005】
しかし、機械学習された学習済みモデルを3次元画像計測に用いる場合、対応点が不確実な領域でも、学習した情報を利用して学習済みモデルが補完することで、視差を算出できる。そのため、学習済みモデルの出力には、対応点が確実な領域に基づく信頼度が高い情報と、対応点が不確実な領域から算出された信頼度が低い情報とが混在する可能性があるが、それらを区別することが困難であった。
【0006】
本発明は、上記に鑑みてなされたものであり、3次元画像計測に用いる学習済みモデルの出力から信頼できる情報を特定することが可能な画像処理装置、画像処理方法及びプログラムを提供することを目的とする。
【課題を解決するための手段】
【0007】
本発明に係る画像処理装置は、複数の画像間の視差に基づく3次元画像計測処理を行う画像処理装置であって、第1視点及び第2視点のそれぞれで撮像された第1視点画像及び第2視点画像を取得する画像取得部と、第1画像及び第2画像を入力し、第1画像中の点のそれぞれについて第2画像中の対応点との間の視差の機械学習による推論値である第1推定視差を第1画像中の点の位置を表す第1位置座標と対応付けて出力する第1学習済みモデルを利用可能とされ、第1視点画像を第1画像とし、第2視点画像を第2画像として第1学習済みモデルに入力して第1位置座標と対応付けられた第1推定視差を取得する推論部と、各第1視点画像中の点について、第1位置座標及び第1推定視差から第2視点画像中の対応点の推定位置を求め、第1位置座標、第1推定視差、第2視点画像中の対応点の推定位置が対応付けられた対応付けデータを生成し、対応付けデータの集合から、第1推定視差の信頼度が高い、第1位置座標及び第1推定視差の組を特定する高信頼度領域特定手段と、を備える。
【0008】
本発明に係る画像処理装置は、複数の画像間の視差に基づく3次元画像計測処理を行う画像処理装置であって、第1視点及び第2視点のそれぞれで撮像された第1視点画像及び第2視点画像を取得する画像取得部と、第1画像及び第2画像を入力し、第1画像中の点のそれぞれについて第2画像中の対応点との間の視差の機械学習による推論値である第1推定視差を第1画像中の点の位置を表す第1位置座標と対応付けて出力する第1学習済みモデルを利用可能とされ、第1視点画像を第1画像とし、第2視点画像を第2画像として第1学習済みモデルに入力して第1位置座標と対応付けられた第1推定視差を取得する推論部と、各第1視点画像中の点について、第1位置座標及び第1推定視差から第2視点画像中の対応点の推定位置を求め、第1推定視差に対応する第1深度を求め、第1位置座標、第1深度、第2視点画像中の対応点の推定位置が対応付けられた対応付けデータを生成し、対応付けデータの集合から、第1深度の信頼度が高い、第1位置座標及び第1深度の組を特定する高信頼度領域特定手段と、を備える。
【0009】
本発明に係る画像処理方法は、複数の画像間の視差に基づく3次元画像計測処理を行う画像処理方法であって、第1視点及び第2視点のそれぞれで撮像された第1視点画像及び第2視点画像を取得するステップと、第1画像及び第2画像を入力し、第1画像中の点のそれぞれについて第2画像中の対応点との間の視差の機械学習による推論値である第1推定視差を第1画像中の点の位置を表す第1位置座標と対応付けて出力する学習済みモデルを利用可能とされ、第1視点画像を第1画像とし、第2視点画像を第2画像として学習済みモデルに入力して第1位置座標と対応付けられた第1推定視差を取得するステップと、各第1視点画像中の点について、第1位置座標及び第1推定視差から第2視点画像中の対応点の推定位置を求め、第1位置座標、第1推定視差、第2視点画像中の対応点の推定位置が対応付けられた対応付けデータを生成し、対応付けデータの集合から、第1推定視差の信頼度が高い、第1位置座標及び第1推定視差の組を特定するステップと、を備える。
【0010】
本発明に係るプログラムは、複数の画像間の視差に基づく3次元画像計測処理を行うプログラムであって、第1視点及び第2視点のそれぞれで撮像された第1視点画像及び第2視点画像を取得する処理と、第1画像及び第2画像を入力し、第1画像中の点のそれぞれについて第2画像中の対応点との間の視差の機械学習による推論値である第1推定視差を第1画像中の点の位置を表す第1位置座標と対応付けて出力する学習済みモデルを利用可能とされ、第1視点画像を第1画像とし、第2視点画像を第2画像として学習済みモデルに入力して第1位置座標と対応付けられた第1推定視差を取得する処理と、各第1視点画像中の点について、第1位置座標及び第1推定視差から第2視点画像中の対応点の推定位置を求め、第1位置座標、第1推定視差、第2視点画像中の対応点の推定位置が対応付けられた対応付けデータを生成し、対応付けデータの集合から、第1推定視差の信頼度が高い、第1位置座標及び第1推定視差の組を特定する処理と、をコンピュータに実行させる。
【発明の効果】
【0011】
本発明によれば、3次元画像計測に用いる学習済みモデルの出力から信頼できる情報を特定することが可能な画像処理装置、画像処理方法及びプログラムを提供することができる。
【図面の簡単な説明】
【0012】
図1図1は、第1実施形態に係る画像処理装置の概要を模式的に示す図である。
図2図2は、深度情報の算出を説明する図である。
図3図3は、実施形態に係るコンピュータシステムを示すブロック図である。
図4図4は、第1実施形態に係る画像処理装置の具体的構成例を示すブロック図である。
図5図5は、第1視点画像及び第2視点画像に写る領域の差異を説明するための具体例を示した模式図である。
図6図6は、図5に示した具体例において取得される第1視点画像及び第2視点画像を示した模式図である。
図7図7は、第1視点画像及び第2視点画像を入力した時に第1学習済みモデルにより出力される第1推定視差の具体例を示す模式図である。
図8図8は、対応点を説明する模式図である。
図9図9は、第1推定視差と第2推定視差とを示す模式図である。
図10図10は、第2推定視差の第1取得例を示す模式図である。
図11図11は、第2推定視差の第2取得例を示す模式図である。
図12図12は、第2推定視差の第3取得例を示す模式図である。
図13図13は、第1推定視差、対応点及び第2推定視差の関係を示した模式図である。
図14図14は、信頼度情報の一例を示した模式図である。
図15図15は、第1実施形態に係る高信頼度領域特定手段による信頼度情報の取得方法を模式的に示した図である。
図16図16は、深度算出部における深度情報の算出方法の一例を模式的に示した図である。
図17図17は、深度算出部における深度情報の算出方法の他の例を模式的に示した図である。
図18図18は、第1実施形態に係る画像処理方法を示すフローチャートである。
図19図19は、第1実施形態に係る信頼度判定処理を示すフローチャートである。
図20図20は、第2実施形態に係る信頼度の判定方法を説明するための模式図である。
図21図21は、第2実施形態に係る信頼度判定処理を示すフローチャートである。
図22図22は、第3実施形態に係る深度算出部による深度情報の算出を説明する図である。
図23図23は、第3実施形態に係る高信頼度領域特定手段による信頼度の判定を説明する図である。
図24図24は、第3実施形態に係る画像処理方法を示すフローチャートである。
【発明を実施するための形態】
【0013】
以下、本発明に係る画像処理装置、画像処理方法及びプログラムの実施形態を図面に基づいて説明する。なお、この実施形態によりこの発明が限定されるものではない。また、下記実施形態における構成要素には、当業者が置換可能かつ容易なもの、あるいは実質的に同一のものが含まれる。
【0014】
[第1実施形態]
(画像処理装置の概要)
図1は、第1実施形態に係る画像処理装置100の概要を模式的に示す図である。図1に示す画像処理装置100は、複数の画像間の視差に基づく3次元画像計測処理を行う画像処理装置である。
【0015】
画像処理装置100は、機械学習された学習済みモデルを利用して複数の画像間の視差情報を取得し、取得した視差情報に基づいて画像中の各点の奥行きを表わす深度情報70を取得する。画像中の各点の深度情報70によって、画像中に写る物体の3次元位置などを把握できる。
【0016】
図1に示す画像処理装置100は、画像取得部1と、推論部2と、高信頼度領域特定手段3と、深度算出部4と、出力部5と、記憶部6と、を備える。
【0017】
画像取得部1は、3次元画像計測処理の対象となる複数の画像を取得する。複数の画像は、同一の物体(被写体)を、互いに異なる視点から撮像した画像である。画像の数、すなわち視点の数は、複数であれば特に限定されない。画像取得部1は、少なくとも、第1視点及び第2視点のそれぞれで撮像された第1視点画像41及び第2視点画像42を取得する。第1視点画像41及び第2視点画像42は、例えばステレオ画像である。ステレオ画像は、平行にずらした2つの視点(第1視点と第2視点)から撮影された画像であり、2枚一組の画像ペアを構成する。ステレオ画像の視点がずれる方向は、特に限定されないが、一例では画像の水平(左右)方向に一致する。視点がずれる方向は、画像間の視差が発生する方向であり、本明細書では視差方向と呼称する。また、2枚のステレオ画像の撮像条件(カメラの焦点距離、画像数、画角など)は同一である。
【0018】
ステレオ画像は、例えば、左カメラ21と右カメラ22とを備えた撮像装置20により撮像される。左カメラ21及び右カメラ22は、特に限定されないが、例えばCCD(Charge-Coupled Device)やCMOS(Complementary Metal-Oxide-Semiconductor)などの撮像素子を含む。本実施形態では、左カメラ21と右カメラ22とは、カメラの光学特性は互いに同一(焦点距離、画角など)であり、かつ既知である。左カメラ21及び右カメラ22は、光軸が平行で、撮像する画像の左右方向に所定間隔で並ぶ。左カメラ21及び右カメラ22の光軸間の距離であるベースライン長は、既知である。左カメラ21及び右カメラ22は、同一時点の静止画像を撮像できる。左カメラ21の撮像視野及び右カメラ22の撮像視野は、互いに重なる。なお、以下の説明において、画像中の水平方向の位置の原点を画像の左端とする。また、左カメラ21及び右カメラ22の画像中の上下方向の位置は等しいものとする。
【0019】
画像処理装置100と撮像装置20とは、有線又は無線により通信可能である。画像処理装置100は、インターネットなどのネットワークを介して撮像装置20と通信可能であってもよい。画像取得部1は、撮像装置20により撮像された第1視点画像41及び第2視点画像42を取得する。第1視点画像41は、例えば左カメラ21で撮像された左画像である。この場合、第1視点は、左カメラ21の光軸位置である。第2視点画像42は、例えば右カメラ22で撮像された右画像である。この場合、第2視点は、右カメラ22の光軸位置である。なお、第1視点画像41が右画像で第2視点画像42が左画像であってもよい。
【0020】
推論部2は、画像取得部1により取得された複数の画像から、画像間の視差の情報を取得する。推論部2は、機械学習により生成された学習済みモデルを用いて、視差を取得する。推論部2は、第1学習済みモデル12を利用可能とされる。第1学習済みモデル12は、第1画像及び第2画像を入力し、第1画像中の点のそれぞれについて第2画像中の対応点との間の視差の機械学習による推論値である第1推定視差51を第1画像中の点の位置を表す第1位置座標と対応付けて出力する。推論部2は、第1視点画像41を第1画像とし、第2視点画像42を第2画像として第1学習済みモデル12に入力して第1位置座標と対応付けられた第1推定視差51を取得する。
【0021】
視差は、一方の視点画像と他方の視点画像との対応点ペアの間の、視差方向の座標の変位である。一方の視点画像のある画素である着目点P(図2参照)に写った空間上の位置は、他方の視点画像で視差方向にずれた画素である対応点Q(図2参照)に写る。視差は、着目点Pを基準としたとき、着目点Pの位置座標に対する対応点Qの位置座標の変位量である。学習済みモデルは、一方の視点画像を基準とした推定視差だけを出力してもよいし、一方の視点画像を基準とした推定視差と、他方の視点画像を基準とした推定視差との両方を出力してもよい。本実施形態では、推論部2は、少なくとも第1視点画像41の各点の第1推定視差51(図7参照)を出力する。第1推定視差51は、第1視点画像41の各点(着目点P)に対する、第2視点画像42の対応点Qの変位量(画素のシフト量)を示す情報である。
【0022】
推論部2は、推定視差をどのような表現形式で出力してもよい。推論部2は、各点の推定視差を画像形式で表現した視差画像を出力してもよい。視差画像の各画素の画素値は、視差を表す。推論部2は、例えばcsv(comma-separated values)のような任意のデータ形式で、各点の推定視差を出力してもよい。
【0023】
高信頼度領域特定手段3は、第1推定視差51の信頼度が高い、第1位置座標及び第1推定視差51の組を特定する。ここでは、高信頼度領域特定手段3によって特定された、第1推定視差51の信頼度が高い第1位置座標の集合を、高信頼度領域と呼ぶ。高信頼度領域特定手段3は、高信頼度領域を特定する信頼度情報60を出力する。信頼度情報60は、第1視点画像41中の信頼度が高い領域を特定した情報である。信頼度情報60は、第1推定視差51の信頼度が高い点の第1位置座標のみを含むことによって、高信頼度領域を特定してもよい。信頼度情報60は、第1視点画像41中の全ての点について、信頼度が高いか否かを示す情報を含むことにより、高信頼度領域を特定してもよい。信頼度情報60は、例えば、第1視点画像41の各点に対する信頼度の高低を表す情報を含む。信頼度情報60は、例えば、信頼度が高いことを示す「1」と、信頼度が高くないことを示す「0」とのいずれかからなる二値情報である。この場合、第1視点画像41の各点のうちで「1」のデータが付与された点が高信頼度領域である。
【0024】
深度算出部4は、第1推定視差51と、信頼度情報60とに基づいて、第1視点画像41における各点の奥行きを表す深度情報70を算出する。深度算出部4は、第1視点画像41と、第1視点画像41の各画素の第1推定視差51と、カメラパラメータ13とに基づいて、深度情報70を算出する。カメラパラメータ13は、第1視点画像41及び第2視点画像42を撮像した撮像装置20の光学特性であって、深度情報70の算出に用いる情報である。カメラパラメータ13は、撮像装置20のベースライン長Bの情報や、焦点距離fの情報などを含む。
【0025】
図2は、深度情報70の算出を説明する図である。第1視点画像41(左画像)の着目点Pは、左カメラ21の原点Oを中心とした左カメラ座標系における座標(u,v)で表される。第2視点画像42(右画像)の対応点Qは、右カメラ22の原点Oを中心とした右カメラ座標系における座標(u,v)で表される。第1視点画像41の着目点Pと、第2視点画像42の対応点Qとは、空間上の同一の点M=(X,Y,Z)を写す。点Mは、点Mの左カメラ座標系での座標値を表す。平行ステレオ画像では、第1視点画像41(左画像)と第2視点画像42(右画像)との対応点ペアは画像中の上下方向の位置について同じ位置となるので、vとvとは等しい。以降の説明において、上下方向の位置については言及を省略する。
【0026】
着目点P及び対応点Qと空間上の点Mとは、式(1)および(2)の関係で表される。
【数1】
ここで、fは、左カメラ21及び右カメラ22の焦点距離である。Bは、原点Oと原点Oとの間のベースライン長である。
また、第1視点画像41の着目点Pの第1推定視差51で表される視差dは、式(3)で表される。式(3)を奥行きZについて変形すると、式(4)が得られる。
【数2】
【0027】
これにより、深度算出部4は、第1視点画像41の各点について、奥行きZを表す深度情報70を算出することができる。本実施形態では、深度算出部4は、第1推定視差51の信頼度が高い、第1位置座標及び第1推定視差51の組として特定された各点の奥行きZを表す深度情報70を算出する。深度算出部4は、第1視点画像41の各点のうち、信頼度が高くない点の深度情報70を出力しなくてもよい。深度算出部4は、信頼度が高くない点の深度情報70については、算出した奥行きZとともに、信頼度が高くないことを示す補足情報を付加して出力してもよい。
【0028】
深度算出部4は、深度情報70をどのような形式で出力してもよい。深度算出部4は、深度情報70として、各点の奥行きZを画像形式で表現した深度画像を出力してもよい。深度算出部4は、例えばcsvのような任意のデータ形式で、各点の深度情報70を出力してもよい。
【0029】
出力部5は、画像処理装置100において生成した情報を、データ利用機器DUに出力する。出力部5は、深度算出部4により算出された深度情報70をデータ利用機器DUに出力する。出力部5は、深度情報70に加えて、信頼度情報60や視差情報を出力してもよい。画像処理装置100とデータ利用機器DUとは、有線又は無線により通信可能である。画像処理装置100は、インターネットなどのネットワークを介してデータ利用機器DUと通信可能であってもよい。
【0030】
データ利用機器DUは、特に限定されない。データ利用機器DUは、例えば深度情報70に基づいてロボットを制御するための制御装置であってもよいし、深度情報70に基づいて移動体の経路設定を行う移動体制御装置であってもよい。データ利用機器DUは、深度情報70に基づいて環境地図の作成と自己位置推定を行うSLAM(Simultaneous Localization and Mapping)演算装置であってもよい。データ利用機器DUは、画像処理装置100に設けられていてもよい。つまり、画像処理装置100は、データ利用機器DUとして、深度情報70を用いて演算処理を行う装置を備えていてもよい。
【0031】
記憶部6は、画像処理装置100において利用される各種の情報を記憶する。記憶部6は、プログラム11、第1学習済みモデル12及びカメラパラメータ13を記憶する。プログラム11は、コンピュータを、画像取得部1、推論部2、高信頼度領域特定手段3、深度算出部4及び出力部5として機能させるアプリケーションプログラムである。記憶部6は、例えばSSD(Solid State Drive)や、HDD(Hard Disk Drive)のような書き換え可能な補助記憶装置を含む。
【0032】
図3は、実施形態に係るコンピュータシステム1000を示すブロック図である。上述の画像処理装置100は、コンピュータシステム1000を含む。コンピュータシステム1000は、CPU(Central Processing Unit)のようなプロセッサ1001と、ROM(Read Only Memory)のような不揮発性メモリ及びRAM(Random Access Memory)のような揮発性メモリを含むメインメモリ1002と、ストレージ1003と、入出力回路を含むインターフェース1004とを有する。画像処理装置100の機能は、プログラム11としてストレージ1003に記憶されている。画像処理装置100の記憶部6は、ストレージ1003によって実現される。プロセッサ1001は、プログラム11をストレージ1003から読み出してメインメモリ1002に展開し、プログラム11に従って各種の処理を実行する。プログラム11は、プロセッサ1001を、画像取得部1、推論部2、高信頼度領域特定手段3、深度算出部4及び出力部5として機能させる。なお、プログラム11は、ネットワークを介してコンピュータシステム1000に配信されてもよい。
【0033】
(画像処理装置の具体的構成例)
図4は、第1実施形態に係る画像処理装置100の具体的構成例を示すブロック図である。図4では、第1実施形態に係る画像処理装置100を、ロボットシステム110に適用した例を示す。
【0034】
ロボットシステム110は、第1実施形態に係る画像処理装置100と、撮像装置20と、カメラ移動ロボット30と、カメラ移動ロボット30を制御するロボット制御装置31と、作業ロボット32と、作業ロボット32を制御するロボット制御装置33と、を備える。すなわち、ロボットシステム110は、撮像装置20によって撮像したステレオ画像に対して画像処理装置100により3次元画像計測処理を行い、得られる深度情報70に基づいて物体認識を行うロボットビジョンを備える。ロボットシステム110は、物体認識の結果に基づいて作業ロボット32により所定の作業を実行する。
【0035】
作業ロボット32は、モータなどの駆動源と、駆動源によって動作する可動部とを備え、可動部を動かすことで所定の作業を行う。作業ロボット32の種類は特に限定されず、作業ロボット32が実行する作業の内容も限定されない。作業ロボット32の種類は、例えば、垂直多関節ロボット、スカラロボット、パラレルロボット、直交ロボット、双腕又は多腕ロボット、人型ロボットなどである。作業の内容としては、ピッキング作業、パレタイジング作業、搬送作業、部品組付け作業、加工作業、溶接などの接合作業、作業者との協調作業などが例示される。
【0036】
カメラ移動ロボット30は、モータなどの駆動源と、駆動源によって動作する可動部とを備え、撮像装置20を保持して移動する。カメラ移動ロボット30は、作業ロボット32の作業エリアの全体や作業ロボット32の周辺の画像を取得できるように、撮像装置20を移動させる。カメラ移動ロボット30の種類は特に限定されない。カメラ移動ロボット30は、パン及びチルトといった角度変更が可能な電動雲台であってもよいし、角度変更と位置変更とが可能な多関節ロボットなどであってもよい。
【0037】
画像処理装置100は、上述した画像取得部1、推論部2、高信頼度領域特定手段3、深度算出部4、出力部5及び記憶部6に加えて、物体認識部7及び撮像制御部8を備える。この例では、物体認識部7がデータ利用機器DUに該当する。
【0038】
物体認識部7は、深度算出部4により算出された深度情報70に基づいて、画像中から物体を認識する。物体認識部7は、記憶部6から、認識対象となる物体のCADデータ14を取得する。CADデータ14は、物体の3次元形状を規定する。物体認識部7は、深度情報70に対して、CADデータ14で規定された物体の3次元マッチング処理を行い、認識対象の位置及び姿勢を取得する。認識対象となる物体は、例えば、作業ロボット32による作業の対象物である。
【0039】
深度算出部4は、信頼度情報60に基づいて、第1推定視差51の信頼度が高い、第1位置座標及び第1推定視差51の組として特定された各点の深度情報70を出力する。物体認識部7は、信頼度が高い点の深度情報70に基づいて、3次元マッチング処理を行う。物体認識部7は、信頼度が高くない点の深度情報70が存在する場合、信頼度が高くない点の深度情報70を3次元マッチング処理に用いない。物体認識にCADデータ14を用いる場合、認識対象となる物体の外形形状が既知である。そのため、深度情報70は、認識対象となる物体の外形形状を測定するのではなく、認識対象となる物体の位置及び姿勢を特定するために利用される。この場合、物体の位置及び姿勢を特定可能な数の位置情報が得られればよいため、利用可能な深度情報70の点数が減少したとしても、信頼度が高い点の深度情報70だけを利用することで、物体の位置及び姿勢の認識精度が向上する。なお、物体認識部7は、信頼度が高い点だけでなく、信頼度が高くない点の深度情報70を利用してもよい。例えば、信頼度が高い点の深度情報70に大きな重みを付け、信頼度が高くない点の深度情報70には小さな重みを付け、重み付けで物体の認識処理を行ってもよい。出力部5は、物体認識部7により生成された認識対象の位置及び姿勢の情報を、ロボット制御装置33に出力する。
【0040】
ロボット制御装置33は、作業ロボット32を制御する。ロボット制御装置33は、出力部5から出力される認識対象の位置及び姿勢の情報に基づいて、作業ロボット32を動作させる。
【0041】
撮像制御部8は、深度算出部4により算出された深度情報70又は物体認識部7により生成された認識対象の位置及び姿勢の情報に基づいて、ロボット制御装置31に対する制御情報を生成する。出力部5は、撮像制御部8により生成された制御情報を、ロボット制御装置31に出力する。ロボット制御装置31は、カメラ移動ロボット30を制御する。ロボット制御装置31は、出力部5から出力される制御情報に基づいて、カメラ移動ロボット30を動作させる。
【0042】
なお、撮像装置20の視野は固定でもよく、その場合、カメラ移動ロボット30、ロボット制御装置31及び撮像制御部8を設けなくてもよい。
【0043】
(信頼度情報の詳細説明)
図5は、第1視点画像41及び第2視点画像42に写る領域の差異を説明するための具体例を示した模式図である。図6は、図5に示した具体例において取得される第1視点画像41及び第2視点画像42を示した模式図である。図5は、説明のため便宜的に、撮像装置20の撮像系をピンホールカメラモデルで示す。図6は、説明のため便宜的に、撮像される画像の画素数を減少させて単純化している。
【0044】
左カメラ21は、撮像視野23の範囲で仮想的な画像面25に投影された像を第1視点画像41として取得する。右カメラ22は、撮像視野24の範囲で仮想的な画像面26に投影された像を第2視点画像42として取得する。図5では、撮像装置20によって、ある物体90が撮像される例を示す。物体90の前面のうち、領域91は、撮像視野23及び撮像視野24の両方に含まれる。物体90の領域92は、左カメラ21の撮像視野23の外部にあり、撮像視野24のみに含まれる。物体90の側面である領域93は、右カメラ22の撮像視野24からは、前面に遮られた死角にあるため、左カメラ21の撮像視野23のみに含まれる。
【0045】
この場合、図6に示すように、第1視点画像41及び第2視点画像42には、物体90の領域91が、共通して写る。第1視点画像41には、領域92が写らず、物体90の領域93が写る。第2視点画像42には、物体90の領域93が写らず、領域92が写る。
【0046】
(第1推定視差の取得)
図7は、第1視点画像41及び第2視点画像42を入力した時に第1学習済みモデル12により出力される第1推定視差51の具体例を示す模式図である。第1学習済みモデル12は、ステレオ画像のうち左画像(第1画像)を入力する左チャンネルLchと、ステレオ画像のうち右画像(第2画像)を入力する右チャンネルRchと、推論結果である推定視差を出力する出力チャンネルOchとを有する。推論部2は、第1視点画像41を第1学習済みモデル12の左チャンネルLchに入力し、第2視点画像42を第1学習済みモデル12の右チャンネルRchに入力する。第1学習済みモデル12は、左チャンネルLchに入力された画像、すなわち第1視点画像41の各点(各画素)についての第1推定視差51を出力チャンネルOchから出力する。
【0047】
第1学習済みモデル12の種類は、特に限定されない。第1学習済みモデル12は、概略では、入力された第1視点画像41及び第2視点画像42の各々の特徴ベクトルの抽出を行う特徴抽出処理、第1視点画像41及び第2視点画像42の特徴ベクトル間で最も類似する対応点ペアを見つける対応点マッチング処理、得られた対応点ペアから視差方向の変位を表す視差dを求め、設定されたデータ形式で出力する出力処理、を行うように設計され、所望の精度での出力が得られるように機械学習されている。
【0048】
視差は、d(u,v)で表される。左画像(第1画像)を基準とする視差は、d(u,v)で表される。上述の通り、各画像の上下方向は一致するとみなすと、同一行(同一のY座標vL、)の各データについて、第1推定視差51は、次のデータ形式D1で表される。
[データ形式D1] (u、d
ここで、uは左画像(第1視点画像41)中の位置(第1位置座標)、d は第1学習済みモデル12が出力した推定視差である。位置u、推定視差d は、長さの単位(mmなど)で表してもよいし、画素数で表してもよい。図7では、便宜的に、第1推定視差51を視差画像の形式で出力する例を示し、第1推定視差51の各画素は、第1視点画像41を基準とした視差(第2視点画像42における対応点Qまでの画素シフト量)を表す。
【0049】
第1学習済みモデル12は、左チャンネルLchに入力された第1画像(ここでは第1視点画像41)の各点の視差を出力するように設計及び学習される。各点の視差を出力するため、本来視差を算出できない点の視差については、機械学習により最も確からしいと推定される値によって補完される。したがって、第1推定視差51において、第1視点画像41及び第2視点画像42に共通して写る領域91については、正確な視差が算出されている可能性が高いが、第1視点画像41にしか写らない領域(ここでは、物体90の領域93)の視差については、第1学習済みモデル12が補完した値であり、正確な値が出力されているとは限らない。
【0050】
そこで、本実施形態に係る高信頼度領域特定手段3は、各第1視点画像41中の点について、第1位置座標、第1推定視差51、第2視点画像42中の対応点Qの推定位置が対応付けられた対応付けデータを生成し、対応付けデータの集合から、第1推定視差51の信頼度が高い、第1位置座標及び第1推定視差51の組を特定する。図7の例では、高信頼度領域特定手段3は、領域91が写る点(画素)とその推定視差については、第1推定視差51の信頼度が高い、第1位置座標及び第1推定視差51の組として特定する。高信頼度領域特定手段3は、領域91を高信頼度領域として特定した信頼度情報60を出力する。高信頼度領域特定手段3は、信頼度情報60により、第1視点画像41の各点のうちで、信頼度が高い領域を特定することを可能にする。以下、高信頼度領域特定手段3による高信頼度領域の特定処理について説明する。
【0051】
(対応点の取得)
高信頼度領域特定手段3は、第1位置座標(u)及び第1推定視差51(d )から第2視点画像42中の対応点Qの推定位置を求める。
式(3)より、対応点Qの位置は、式(5)で表される。
【数3】
ここで、u は、第1推定視差51から求められる対応点Qの推定位置である。
【0052】
図8は、対応点Qを説明する模式図である。図8において、左画像である第1視点画像41の各点の数値は、その点の第1位置座標(u)を示している。第1推定視差51は、第1視点画像41の各点と同じ点の視差(d )を示す。例えば点線で示した上から3行目の着目点P(u=5)に対して、右画像(第2視点画像42)における対応点Qは、右画像(第2視点画像42)の同一の行における、視差(d =2)の分だけ減算した点(u =3)である。第1視点画像41の全ての点について対応点Qを算出することで、各対応点Qの推定位置(u )が得られる。すなわち、高信頼度領域特定手段3は、データ形式D1のデータに、対応点Qの推定位置(u )を付加したデータ形式D2として、対応付けデータを得る。
[データ形式D2] (u、d 、u
図8では、第1視点画像41の各点の画素値を、その点に対する対応点Qの推定位置(u )とした画像である対応点マップ45を示す。対応点マップ45は、第1位置座標(u)と、その第1位置座標(u)の対応点Qの推定位置(u )との組を示す。なお、高信頼度領域の特定のためには、対応点Qの推定位置(u )が把握できればよいので、対応点Qの推定位置を表す画像(対応点マップ45)を生成する必要はない。
【0053】
(第2推定視差の取得)
第1実施形態では、高信頼度領域特定手段3は、第1推定視差51における信頼度の高いデータを特定するための比較対象として、第2視点画像42の各点の3次元位置に関する第2推定視差52を取得する。
【0054】
図9は、第1推定視差51と第2推定視差52とを示す模式図である。第2推定視差52は、第2視点画像42を基準とした視差(第1視点画像41における対応点までの画素シフト量)を表す。つまり、第1推定視差51は、第1視点画像41中の画素を着目点Pとし、第2視点画像42における対応点Qまでの変位量を示す情報であるのに対して、第2推定視差52は、第2視点画像42中の画素を着目点Pとし、第1視点画像41における対応点Qまでの変位量を示す情報である。右画像を基準とする視差は、d (u,v)で表される。
【0055】
第2推定視差52は、次のデータ形式D3で表される。
[データ形式D3] (u、d
ただし、uは右画像(第2視点画像42)中の位置を表す第2位置座標である。d は右画像(第2視点画像42)を基準とする推定視差(第2推定視差52の値)である。位置座標u、推定視差d は、長さの単位(mmなど)で表してもよいし、画素数で表してもよい。図7では、便宜的に、第2推定視差52を視差画像の形式で出力する例を示し、第2推定視差52の各画素の画素値は、第2視点画像42の各第2位置座標(u)と対応付けられた推定視差(第1視点画像41における対応点Qまでの画素シフト量)を表す。図9において点線で示すように、第1推定視差51及び第2推定視差52の同一行に含まれる各点は、第1視点画像41及び第2視点画像42の対応点ペアの推定視差を、それぞれ左画像基準及び右画像基準で表現したことになる。
【0056】
第2推定視差52の取得方法は、特に限定されない。第1実施形態では、第2推定視差52の取得方法として、3つの取得例を示す。
【0057】
(第2推定視差52の第1取得例)
図10は、第2推定視差52の第1取得例を示す模式図である。第1取得例では、別々の学習済みモデル(12A、12B)を用いて、第1推定視差51と第2推定視差52とを取得する。具体的には、推論部2は、第1学習済みモデル12Aを用いて、第1推定視差51を出力する。第1学習済みモデル12Aは、上記の第1学習済みモデル12と同じである。推論部2は、第2学習済みモデル12Bを用いて、第2推定視差52を出力する。すなわち、推論部2は、第1学習済みモデル12Aに加えて、第1画像及び第2画像を入力し、第2画像中の点のそれぞれについて第1画像中の対応点Qとの間の視差の機械学習による推論値である第2推定視差52(d )を第2画像中の点の位置を表す第2位置座標(u)と対応付けて出力する第2学習済みモデル12Bを利用可能とされる。推論部2は、第1視点画像41を第1画像とし、第2視点画像42を第2画像として第2学習済みモデル12Bに入力して第2位置座標(u)と対応付けられた第2推定視差52(d )を取得する。
【0058】
推論部2は、左画像(第1画像)である第1視点画像41を第1学習済みモデル12A及び第2学習済みモデル12Bの左チャンネルLchにそれぞれ入力し、右画像(第2画像)である第2視点画像42を第1学習済みモデル12A及び第2学習済みモデル12Bの右チャンネルRchにそれぞれ入力する。第1学習済みモデル12Aは、第1推定視差51を出力チャンネルOchから出力し、第2学習済みモデル12Bは、第2推定視差52を出力チャンネルOchから出力する。これにより、高信頼度領域特定手段3は、第1学習済みモデル12Aにより生成された第1推定視差51を取得し、第2学習済みモデル12Bにより生成された第2推定視差52を取得する。
【0059】
(第2推定視差52の第2取得例)
図11は、第2推定視差52の第2取得例を示す模式図である。第2取得例では、1つの第1学習済みモデル12Cを用いて、第1推定視差51と第2推定視差52とを取得する。具体的には、第1学習済みモデル12Cは、第1推定視差51を第1画像中の点の位置と対応付けて出力することに加えて、第2画像中の点のそれぞれについて第1画像中の対応点Qとの間の視差の機械学習による推論値である第2推定視差52(d )を第2画像中の点の位置を表す第2位置座標(u)と対応付けて出力する。推論部2は、第1視点画像41を左画像(第1画像)とし、第2視点画像42を右画像(第2画像)として第1学習済みモデル12に入力して第1位置座標(u)と対応付けられた第1推定視差51(d )、及び第2位置座標(u)と対応付けられた第2推定視差52(d )を取得する。
【0060】
第1学習済みモデル12Cは、ステレオ画像のうち左画像(第1画像)を入力する左チャンネルLchと、ステレオ画像のうち右画像(第2画像)を入力する右チャンネルRchと、推論結果である第1推定視差51を出力する第1出力チャンネルO1chと、推論結果である第2推定視差52を出力する第2出力チャンネルO2chと、を有する。推論部2は、左画像(第1画像)である第1視点画像41を第1学習済みモデル12Cの左チャンネルLchに入力し、右画像(第2画像)である第2視点画像42を第1学習済みモデル12Cの右チャンネルRchに入力する。第1学習済みモデル12Cは、第1推定視差51を第1出力チャンネルO1chから出力し、第2推定視差52を第2出力チャンネルO2chから出力する。これにより、高信頼度領域特定手段3は、第1学習済みモデル12Cにより生成された第1推定視差51及び第2推定視差52を取得する。
【0061】
(第2推定視差52の第3取得例)
図12は、第2推定視差52の第3取得例を示す模式図である。なお、図12に示した画像及び推定視差の模式図は、画像の左右を区別するために便宜的に示したものであり、物体90の像や視差を反映したものではない。第2推定視差52の第3取得例は、第1推定視差51を出力する処理を学習した第1学習済みモデル12を用いて、第2推定視差52を取得する例を示す。第1学習済みモデル12は、第1視点画像41及び第2視点画像42を入力とし、第1推定視差51を出力とする処理を学習している。そのため、第1推定視差51を取得する場合には、推論部2は、図7に示したように、第1視点画像41を第1学習済みモデル12の左チャンネルLchに入力し、第2視点画像42を第1学習済みモデル12の右チャンネルRchに入力することで、第1推定視差51を出力チャンネルOchから出力させる。
【0062】
これに対して、第2推定視差52を取得する場合、図12に示すように、推論部2は、第1学習済みモデル12に対する入力画像の入れ替え処理及び視差方向の反転処理を行う。推論部2は、左画像(第1画像)である第1視点画像41と、右画像(第2画像)である第2視点画像42とを、それぞれ視差方向(左右方向)に反転させる反転処理を行い、第1反転画像43と第2反転画像44とを得る。第1反転画像43は、第1視点画像41が左右反転された画像であり、第2反転画像44は、第2視点画像42が左右反転された画像である。そして、推論部2は、第2視点画像42を視差方向に反転処理した第2反転画像44を第1画像とし、第1視点画像41を視差方向に反転処理した第1反転画像43を第2画像として第1学習済みモデル12に入力する。すなわち、推論部2は、第2反転画像44を第1学習済みモデル12の左チャンネルLchに入力し、第1反転画像43を第1学習済みモデル12の右チャンネルRchに入力する。その結果、第1学習済みモデル12は、反転推定視差53を出力する。反転推定視差53は、第1学習済みモデル12の左チャンネルLchに入力された画像である第1反転画像43の各点を基準として、第2反転画像44の対応点Qへの画素シフト量を表す。推論部2は、得られた反転推定視差53に対して、視差方向の反転処理を行うことにより、第2推定視差52を取得する。
【0063】
このように、第2推定視差52の第3取得例では、推論部2は、第2視点画像42を視差方向に反転処理した第2反転画像44を第1画像とし、第1視点画像41を視差方向に反転処理した第1反転画像43を第2画像として第1学習済みモデル12に入力して第1位置座標と対応付けられた第1推定視差を取得し、第1位置座標を視差方向に反転処理して第2位置座標とするとともに第1推定視差の符号を反転処理して第2推定視差52とする。
【0064】
第1実施形態では、第1取得例、第2取得例及び第3取得例のいずれの方法で第2推定視差52を取得してもよい。第1取得例では、2つの学習済みモデルをそれぞれ作成する必要があり、第2取得例では、1つの学習済みモデルで済む代わりに、学習済みモデルの規模が大きくなるため、推論及び学習に要する演算コストが増大する。一方、第3取得例では、画像の反転処理や、入力画像の入れ替え処理を行うだけなので、1つの学習済みモデルで済むと共に、学習済みモデルの規模が小さく、推論及び学習に要する演算コストが低減できる。
【0065】
以上により、高信頼度領域特定手段3は、第1位置座標、第1推定視差51及び対応点Qの推定位置の情報を含むデータ形式D2の対応付けデータ(u、d 、u )と、第2位置座標及び第2推定視差52を含むデータ形式D3のデータ(u、d )とを合わせて、次のデータ形式D4のデータを取得する。
[データ形式D4] (u、d 、u 、u、d
データ形式D4において、データ(u、d 、u )は互いに関連付けられたデータである。データ(u、d )は互いに関連付けられたデータである。
【0066】
(着目点における第1推定視差と対応点における第2推定視差との対比)
図13は、第1推定視差51、対応点Q及び第2推定視差52の関係を示した模式図である。第1推定視差51は、左画像(第1画像)である第1視点画像41の各点における第1画像基準の視差を表し、第2推定視差52は、右画像(第2画像)である第2視点画像42の各点における第2画像基準の視差を表す。ここでは、着目点P、対応点Qの関係は、第1推定視差51を基準とする。高信頼度領域特定手段3は、着目点Pにおける第1推定視差51と、対応点Qにおける第2推定視差52とに基づいて、第1推定視差51の信頼度を判定する。
【0067】
第1推定視差51及び第2推定視差52が正しい場合、真の視差dと真の視差dとは、式(6)の関係で表される。
【数4】
式(6)から、式(7)が成り立つ。
【数5】
【0068】
つまり、推論部2における推論が正しい場合、着目点Pの第1推定視差51である推定視差d と、対応点Qの第2推定視差52である推定視差d とは、符号が反対で値が等しくなる。
【0069】
したがって、着目点Pの第1位置座標(u)における推定視差d (u)と、対応点Qの推定位置u における推定視差d (u )とが、式(8)を満たすとき、推論部2における推論が正しいと言える。
【数6】
【0070】
そこで、第1実施形態では、高信頼度領域特定手段3は、対応付けデータ(u、d 、u )において第1位置座標(u)に対応付けられている第2視点画像42中の対応点Qの推定位置(u )と同一の第2位置座標(u)に対応付けられた第2推定視差52を特定し、対応付けデータ(u、d 、u )において第1位置座標(u)に対応付けられている第1推定視差51の大きさd (u)と特定された第2推定視差52の大きさd (u )との差が所定のしきい値よりも小さい場合に、対応付けデータ(u、d 、u )において第1位置座標(u)に対応付けられている第1推定視差51の信頼度は高いとする。すなわち、高信頼度領域特定手段3は、着目点Pについて、式(9)の左辺が閾値より小さい場合に、その点の信頼度が高いと判定する。高信頼度領域特定手段3は、着目点Pについて、式(9)の左辺が閾値以上となる場合に、その点の信頼度が高くないと判定する。
【数7】
【0071】
例えば図13に示した例では、実線で示すように、第1推定視差51の着目点P1(u=9)の推定視差d (u)が「2」であり、対応点Q1の推定位置u は「7」である。第2推定視差52から、対応点Q1の推定視差d (u )が「-2」であることが分かる。この場合、式(9)の左辺で示す着目点P1の第1推定視差51と対応点Q1の第2推定視差52との誤差は0となり、着目点P1について第1推定視差51の信頼度が高いと判断できる。
【0072】
一方、点線で示すように、第1推定視差51の着目点P2(u=4)の推定視差d (u)が「1」であり、対応点Q2の推定位置u は「3」である。第2推定視差52から、対応点Q2の推定視差d (u )が「-2」であることが分かる。この場合、着目点P2の第1推定視差51と対応点Q2の第2推定視差52との誤差は1となる。例えば式(9)の右辺の閾値が「1」の場合、着目点P2について第1推定視差51の信頼度が高くないと判断される。
【0073】
高信頼度領域特定手段3は、第1推定視差51の各第1位置座標(u)について、式(9)に基づいて信頼度を判定することにより、第1推定視差51の信頼度が高い、第1位置座標及び第1推定視差51の組(ul, )を特定する。高信頼度領域特定手段3は、第1推定視差51の信頼度が高い第1位置座標の集合である高信頼度領域を示す信頼度情報60を出力する。上述の通り、信頼度情報60のデータ形式は特に限定されないが、ここでは一例として、信頼度情報60が、信頼度の高低を表す二値情報であるとする。すなわち、信頼度情報60は、第1視点画像41の各点について、式(9)を満たす場合にR=1となり、式(9)を満たさない場合にR=0となる変数Rを含む。R=1は、着目点Pにおける第1推定視差51と対応点Qにおける第2推定視差52との誤差が閾値未満であり、第1推定視差51の信頼度が高いことを示す。R=0は、着目点Pにおける第1推定視差51と対応点Qにおける第2推定視差52との誤差が閾値以上であり、第1推定視差51の信頼度が高くないことを示す。高信頼度領域特定手段3は、データ形式D4に、信頼度情報60である各点の変数Rを付加して、データ形式D5で表されるデータを取得する。
[データ形式D5] (u、d 、u 、u、d 、R)
データ形式D5において、データ(u、d 、u 、R)は互いに関連付けられたデータである。データ(u、d )は互いに関連付けられたデータである。
【0074】
図14は、信頼度情報60の一例を示した模式図である。信頼度情報60の表現形式は、特に限定されないが、図14では、信頼度情報60を、第1視点画像41の各点の画素値を、その点に対する信頼度とした画像(u、R)で表現した例を示す。図13のケースで、式(9)の閾値を「1」とすると、図14に示すように、背景及び領域91が写る画素についてはR=1となり、領域93が写る画素についてはR=0となる。信頼度情報60により、物体90が写る画素領域のうち、領域91を写す点は信頼度が高い高信頼度領域であり、領域93を写す点は信頼度が高くない領域であることが分かる。このように、信頼度情報60は、第1視点画像41の各点のうち信頼度が高い高信頼度領域を他の領域から区別することができる。
【0075】
(信頼度情報に基づく深度情報の算出)
次に、信頼度情報60に基づく深度情報70の算出について説明する。図15は、第1実施形態に係る高信頼度領域特定手段3による信頼度情報60の取得方法を模式的に示した図である。図16は、深度算出部4における深度情報70の算出方法の一例を模式的に示した図である。
【0076】
図15に示すように、高信頼度領域特定手段3は、第1推定視差51と第2推定視差52とにより、式(9)に基づく信頼度の計算処理を行い、信頼度情報60を出力する。図14に示したように、高信頼度領域特定手段3は、第1視点画像41の各点の高信頼度領域を表すマスクデータとして信頼度情報60を出力できる。マスクデータは、第1視点画像41の各第1位置座標の第1推定視差51についての信頼度の値(R=1又はR=0)を有する二値画像である。
【0077】
図16に示すように、深度算出部4は、第1推定視差51と信頼度情報60とに基づいて深度情報70を算出する。深度算出部4は、例えば、第1推定視差51と、マスクデータである信頼度情報60とのAND(論理積)演算を行う。第1推定視差51は、信頼度情報60のうち信頼度が高い(R=1)点については、演算後に視差(d )の値を保持し、信頼度情報60のうち信頼度が高くない(R=0)点については、演算後に視差(d )が0となる。深度算出部4は、AND演算後の第1推定視差51と、カメラパラメータ13とに基づいて、式(4)により、各点の奥行きZを取得する。深度算出部4は、例えば、各画素の画素値が奥行きZを表す深度画像の形式で深度情報70を出力する。出力される深度情報70は、信頼度が高くない点について深度情報(奥行きZ)を含まず、信頼度が高い高信頼度領域の深度情報(奥行きZ)だけを含む。そのため、信頼度が高くない点の視差から算出された深度情報が出力されることが回避される。
【0078】
図17は、深度算出部4における深度情報70の算出方法の他の例を模式的に示した図である。図17では、深度算出部4は、第1視点画像41の各点の深度情報70を算出する際に、信頼度情報60を参照して高信頼度領域に属する各点の第1位置座標を得る。深度算出部4は、第1視点画像41の各点のうち、高信頼度領域に属する(R=1を保持する)点については、使用点として深度計算の対象とし、高信頼度領域に属さない(R=0を保持する)点については、非使用点として深度計算の対象から除外する。深度算出部4は、非使用点については、例えば奥行きZに「0」を割り当ててもよいし、非使用点であることを示す情報(例えば「NaN」)を割り当ててもよい。
【0079】
(画像処理方法)
次に、第1実施形態に係る画像処理方法について説明する。図18は、第1実施形態に係る画像処理方法を示すフローチャートである。実施形態に係る画像処理方法は、複数の画像間の視差に基づく3次元画像計測処理を行う画像処理方法である。実施形態に係る画像処理方法は、画像処理装置100によって実施される。言い換えると、第1実施形態に係るプログラム11が、コンピュータシステム1000に、図18に係る各ステップの処理を実行させる。
【0080】
図18に示すように、実施形態に係る画像処理方法は、第1視点画像41及び第2視点画像42を取得するステップS1と、推定視差を取得するステップS2と、信頼度判定により、対応付けデータ(u、d 、u )の集合から、第1推定視差51の信頼度が高い、第1位置座標及び第1推定視差51の組(ul, )を特定するステップS3と、を備える。また、図18に示す例では、画像処理方法は、第1視点画像41における各点の奥行きZを表す深度情報70を算出するステップS4と、深度情報70に基づいて物体認識を行うステップS5と、物体認識結果に基づいて制御情報を出力するステップS6とをさらに備える。
【0081】
第1視点画像41及び第2視点画像42を取得するステップS1は、第1視点及び第2視点のそれぞれで撮像された第1視点画像41及び第2視点画像42を取得する。すなわち、画像取得部1が、撮像装置20から、左カメラ21で撮像された第1視点画像41と右カメラ22で撮像された第2視点画像42とをそれぞれ取得する。画像取得部1は、取得した第1視点画像41及び第2視点画像42を推論部2に出力する。
【0082】
推定視差を出力するステップS2は、第1視点画像41及び第2視点画像42を入力とし、推定視差を出力とする処理を学習した第1学習済みモデル12を用いて、少なくとも第1視点画像41の各点の第1推定視差51を出力する。第1実施形態においては、第1視点画像41の各点の第1推定視差51に加えて、第2視点画像42の各点の第2推定視差52が取得される。すなわち、推論部2が、第1学習済みモデル12に第1視点画像41及び第2視点画像42を入力することにより、第1学習済みモデル12の出力としての第1推定視差51を取得する。推論部2は、第2推定視差52の第1取得方法、第2取得方法、第3取得方法のいずれか又は他の方法で、第2推定視差52を取得する。推論部2は、取得した第1推定視差51を、高信頼度領域特定手段3及び深度算出部4に出力する。推論部2は、取得した第2推定視差52を、高信頼度領域特定手段3に出力する。
【0083】
信頼度判定を行うステップS3は、各第1視点画像41中の点について、第1位置座標及び第1推定視差51から第2視点画像42中の対応点Qの推定位置を求め、第1位置座標、第1推定視差51、第2視点画像42中の対応点Qの推定位置が対応付けられた対応付けデータ(u、d 、u )を生成し、対応付けデータ(u、d 、u )の集合から、第1推定視差51の信頼度が高い、第1位置座標及び第1推定視差51の組(ul, )を特定する。図19を参照して、第1実施形態に係る信頼度判定処理(ステップS3)について説明する。
【0084】
図19は、第1実施形態に係る信頼度判定処理を示すフローチャートである。高信頼度領域特定手段3は、推論部2から出力された第1推定視差51を取得する(ステップS11)。高信頼度領域特定手段3は、各第1視点画像41中の点について、第1位置座標及び第1推定視差51から第2視点画像42中の対応点Qの推定位置(u )を求め、第1位置座標、第1推定視差51、第2視点画像42中の対応点Qの推定位置が対応付けられた対応付けデータ(u、d 、u )を生成する。高信頼度領域特定手段3は、推論部2から出力された第2推定視差52を取得する(ステップS12)。高信頼度領域特定手段3は、第1位置座標に対応付けられている第1推定視差51の信頼度の判定を行う(ステップS13)。
【0085】
高信頼度領域特定手段3は、対応付けデータ(u、d 、u )において第1位置座標(u)に対応付けられている第2視点画像42中の対応点Qの推定位置(u )と同一の第2位置座標(u)に対応付けられた第2推定視差52を特定し、第1位置座標に対応付けられている第1推定視差51の大きさ(d )と特定された第2推定視差52の大きさ(d )との差が所定のしきい値よりも小さい場合に、第1位置座標に対応付けられている第1推定視差51の信頼度は高いとする。すなわち、高信頼度領域特定手段3は、式(9)により、第1推定視差51と第2推定視差52との誤差が閾値未満である場合、その着目点Pについて信頼度が高いと判定(R=1)する。高信頼度領域特定手段3は、第1推定視差51と第2推定視差52との誤差が閾値以上である場合、その着目点Pについて信頼度が高くないと判定(R=0)する。高信頼度領域特定手段3は、第1視点画像41中の全ての点(画素)に対して、信頼度の変数Rを求めて信頼度情報60を取得する。高信頼度領域特定手段3は、各点の信頼度情報60を深度算出部4に出力する(ステップS14)。これにより、図18のステップS3では、高信頼度領域特定手段3が第1視点画像41の各点についての信頼度情報60を取得して、深度算出部4に出力する。
【0086】
図18に示すように、深度情報70を算出するステップS4は、第1推定視差51と、信頼度情報60とに基づいて、第1視点画像41における各点の奥行きを表す深度情報70を算出する。すなわち、深度算出部4が、第1推定視差51の信頼度が高い、第1位置座標及び第1推定視差51の組(ul, )として特定された各点の奥行きZを表す深度情報70を、例えば図16又は図17に例示した手法により算出する。そして、深度算出部4は、信頼度が高くない点の深度情報70を含まず、信頼度が高い点の深度情報70を含んだ出力深度情報71を物体認識部7に出力する。
【0087】
物体認識を行うステップS5は、出力された出力深度情報71(第1視点画像41の各点の内、信頼度が高い点の深度情報70)と、CADデータ14とに基づいて、認識対象となる物体90の位置及び姿勢を認識する。すなわち、物体認識部7が、CADデータ14で表された物体90の表面の各点を、出力深度情報71の各点の奥行きZから把握される空間上の各点とマッチングするマッチング処理により、物体90の3次元位置情報及び3次元の各軸周りの回転角度である姿勢情報を取得する。物体認識部7は、取得した物体90の位置及び姿勢の情報を、出力部5に出力する。物体認識部7は、撮像装置20の視野を物体90の位置や姿勢に応じて変更する場合には、取得した物体90の位置及び姿勢の情報を、撮像制御部8に出力してもよい。
【0088】
物体認識結果に基づいて制御情報を出力するステップS6は、物体認識結果である物体90の位置及び姿勢の情報を、ロボット制御装置33に出力する。すなわち、出力部5が、物体認識部7から出力された物体90の位置及び姿勢の情報を、通信によりロボット制御装置33に出力する。ロボット制御装置33は、取得した物体90の位置及び姿勢の情報に基づいて、作業ロボット32の動作を制御する。
【0089】
撮像装置20の視野を物体90の位置や姿勢に応じて変更する場合には、撮像制御部8が、物体認識部7から出力された物体90の位置及び姿勢の情報を、出力部5から通信によりロボット制御装置31に出力する。ロボット制御装置31は、取得した物体90の位置及び姿勢の情報に基づいて、例えば動体追跡などを行うようにカメラ移動ロボット30の動作を制御する。
【0090】
以上のように、第1実施形態に係る画像処理装置100は、複数の画像間の視差に基づく3次元画像計測処理を行う画像処理装置であって、第1視点及び第2視点のそれぞれで撮像された第1視点画像41及び第2視点画像42を取得する画像取得部1と、第1画像及び第2画像を入力し、第1画像中の点のそれぞれについて第2画像中の対応点との間の視差の機械学習による推論値である第1推定視差51を第1画像中の点の位置を表す第1位置座標と対応付けて出力する第1学習済みモデル12を利用可能とされ、第1視点画像41を第1画像とし、第2視点画像42を第2画像として第1学習済みモデル12に入力して第1位置座標と対応付けられた第1推定視差51を取得する推論部2と、各第1視点画像41中の点について、第1位置座標及び第1推定視差51から第2視点画像42中の対応点Qの推定位置を求め、第1位置座標、第1推定視差51、第2視点画像42中の対応点Qの推定位置が対応付けられた対応付けデータ(u、d 、u )を生成し、対応付けデータ(u、d 、u )の集合から、第1推定視差51の信頼度が高い、第1位置座標及び第1推定視差51の組(ul, )を特定する高信頼度領域特定手段3と、を備える。
【0091】
この構成によれば、第1位置座標、第1推定視差51及び対応点Qの推定位置の対応付けデータ(u、d 、u )の集合から、第1推定視差51の信頼度が高い、第1位置座標及び第1推定視差51の組(ul, )を特定できる。これにより、3次元画像計測に用いる第1学習済みモデル12の出力から、信頼できる情報を特定することが可能となる。
【0092】
第1実施形態に係る画像処理装置100において、第2推定視差52の第1取得例では、推論部2は、さらに、第1画像及び第2画像を入力し、第2画像中の点のそれぞれについて第1画像中の対応点Qとの間の視差の機械学習による推論値である第2推定視差52を第2画像中の点の位置を表す第2位置座標と対応付けて出力する第2学習済みモデル12Bを利用可能とされ、第1視点画像41を第1画像とし、第2視点画像42を第2画像として第2学習済みモデル12Bに入力して第2位置座標と対応付けられた第2推定視差52を取得する。高信頼度領域特定手段3は、対応付けデータ(u、d 、u )において第1位置座標に対応付けられている第2視点画像42中の対応点Qの推定位置と同一の第2位置座標に対応付けられた第2推定視差52を特定し、第1位置座標に対応付けられている第1推定視差51の大きさと特定された第2推定視差52の大きさとの差が所定のしきい値よりも小さい場合に、第1位置座標に対応付けられている第1推定視差51の信頼度は高いとする。これにより、第1視点画像41及び第2視点画像42を、第1学習済みモデル12Aと第2学習済みモデル12Bとにそれぞれ入力することで、第1推定視差51及び第2推定視差52を取得できる。そして、式(9)のように第1位置座標に対応付けられている第1推定視差51の大きさと特定された第2推定視差52の大きさとを比較することで、容易に、適切な信頼度判定ができる。
【0093】
第1実施形態に係る画像処理装置100において、第2推定視差52の第2取得例では、第1学習済みモデル12Cは、第1推定視差51を第1画像中の点の位置と対応付けて出力することに加えて、第2画像中の点のそれぞれについて第1画像中の対応点Qとの間の視差の機械学習による推論値である第2推定視差52を第2画像中の点の位置を表す第2位置座標と対応付けて出力し、推論部2は、第1視点画像41を第1画像とし、第2視点画像42を第2画像として第1学習済みモデル12に入力して第1位置座標と対応付けられた第1推定視差51、及び第2位置座標と対応付けられた第2推定視差52を取得する。高信頼度領域特定手段3は、対応付けデータ(u、d 、u )において第1位置座標に対応付けられている第2視点画像42中の対応点Qの推定位置と同一の第2位置座標に対応付けられた第2推定視差52を特定し、第1位置座標に対応付けられている第1推定視差51の大きさと特定された第2推定視差52の大きさとの差が所定のしきい値よりも小さい場合に、第1位置座標に対応付けられている第1推定視差51の信頼度は高いとする。これにより、1つの第1学習済みモデル12Cによって、第1推定視差51及び第2推定視差52の両方を取得できる。そして、式(9)のように第1位置座標に対応付けられている第1推定視差51の大きさと特定された第2推定視差52の大きさとを比較することで、容易に、適切な信頼度判定ができる。
【0094】
第1実施形態に係る画像処理装置100において、第2推定視差52の第3取得例では、推論部2は、第2視点画像42を視差方向に反転処理した第2反転画像44を第1画像とし、第1視点画像41を視差方向に反転処理した第1反転画像43を第2画像として第1学習済みモデル12に入力して第2反転画像44中の点の位置と対応付けられた反転推定視差53を取得し、取得した反転推定視差53及び反転推定視差53と対応付けられた点の位置を視差方向に反転処理することにより、第2画像中の点の位置を表す第2位置座標と対応付けられた第2推定視差52を取得する。高信頼度領域特定手段3は、対応付けデータ(u、d 、u )において第1位置座標に対応付けられている第2視点画像42中の対応点Qの推定位置と同一の第2位置座標に対応付けられた第2推定視差52を特定し、第1位置座標に対応付けられている第1推定視差51の大きさと特定された第2推定視差52の大きさとの差が所定のしきい値よりも小さい場合に、第1位置座標に対応付けられている第1推定視差51の信頼度は高いとする。これによれば、1つの第1学習済みモデル12Cによって、第1推定視差51及び第2推定視差52の両方を取得できる。そして、式(9)のように第1位置座標に対応付けられている第1推定視差51の大きさと特定された第2推定視差52の大きさとを比較することで、容易に、適切な信頼度判定ができる。
【0095】
第1実施形態に係る画像処理装置100は、複数の画像間の視差に基づく3次元画像計測処理を行う画像処理方法であって、第1視点及び第2視点のそれぞれで撮像された第1視点画像41及び第2視点画像42を取得するステップS1と、第1画像及び第2画像を入力し、第1画像中の点のそれぞれについて第2画像中の対応点Qとの間の視差の機械学習による推論値である第1推定視差51を第1画像中の点の位置を表す第1位置座標と対応付けて出力する学習済みモデルを利用可能とされ、第1視点画像41を第1画像とし、第2視点画像42を第2画像として学習済みモデルに入力して第1位置座標と対応付けられた第1推定視差51を取得するステップS2と、各第1視点画像41中の点について、第1位置座標及び第1推定視差51から第2視点画像42中の対応点Qの推定位置を求め、第1位置座標、第1推定視差51、第2視点画像42中の対応点Qの推定位置が対応付けられた対応付けデータ(u、d 、u )を生成し、対応付けデータ(u、d 、u )の集合から、第1推定視差51の信頼度が高い、第1位置座標及び第1推定視差51の組(ul, )を特定するステップS3と、を備える。
【0096】
この構成によれば、第1位置座標、第1推定視差51及び対応点Qの推定位置の対応付けデータ(u、d 、u )の集合から、第1推定視差51の信頼度が高い、第1位置座標及び第1推定視差51の組(ul, )を特定できる。これにより、3次元画像計測に用いる第1学習済みモデル12の出力から、信頼できる情報を特定することが可能となる。
【0097】
第1実施形態に係るプログラム11は、複数の画像間の視差に基づく3次元画像計測処理を行うプログラムであって、第1視点及び第2視点のそれぞれで撮像された第1視点画像41及び第2視点画像42を取得する処理(ステップS1)と、第1画像及び第2画像を入力し、第1画像中の点のそれぞれについて第2画像中の対応点Qとの間の視差の機械学習による推論値である第1推定視差51を第1画像中の点の位置を表す第1位置座標と対応付けて出力する学習済みモデルを利用可能とされ、第1視点画像41を第1画像とし、第2視点画像42を第2画像として学習済みモデルに入力して第1位置座標と対応付けられた第1推定視差51を取得する処理(ステップS2)と、各第1視点画像41中の点について、第1位置座標及び第1推定視差51から第2視点画像42中の対応点Qの推定位置を求め、第1位置座標、第1推定視差51、第2視点画像42中の対応点Qの推定位置が対応付けられた対応付けデータ(u、d 、u )を生成し、対応付けデータ(u、d 、u )の集合から、第1推定視差51の信頼度が高い、第1位置座標及び第1推定視差51の組(ul, )を特定する処理(ステップS3)と、をコンピュータ(すなわち、コンピュータシステム1000)に実行させる。
【0098】
この構成によれば、第1位置座標、第1推定視差51及び対応点Qの推定位置の対応付けデータ(u、d 、u )の集合から、第1推定視差51の信頼度が高い、第1位置座標及び第1推定視差51の組(ul, )を特定できる。これにより、3次元画像計測に用いる第1学習済みモデル12の出力から、信頼できる情報を特定することが可能となる。
【0099】
なお、第1実施形態では、図5及び図6において第1視点と第2視点とのうち一方の視点で死角になる部位が画像中に存在することに起因して、第1学習済みモデル12から信頼度が高くない推定視差(画像に基づかずに補完された推定視差)が出力される例を示したが、本実施形態では、信頼度が高くない推定視差がどのような要因で出力されるかは特に限定されない。例えば、第1視点画像41及び第2視点画像42の両方に写る部位(図5の物体90の領域91など)であっても、光の反射や屈折などによって局所的に対応点マッチングが困難になるケースがある。具体的には、第1視点画像41及び第2視点画像42のいずれかにおいて、光の反射によって局所的に画素飽和(いわゆる白飛び)が生じて対応点マッチングが困難になる部位が発生した場合でも、第1学習済みモデル12は、その画素飽和が生じた箇所の推定視差を補完する。このような場合でも、本実施形態によれば、適切な対応点マッチングにより推定視差が算出された箇所(信頼度が高い箇所)を、画像に基づかずに視差が補完された箇所(信頼度が高くない箇所)と区別して特定可能である。
【0100】
[第2実施形態]
第2実施形態について説明する。以下の説明において、上述の第1実施形態と同一又は同等の構成要素については同一の符号を付し、その構成要素の説明を簡略又は省略する。
【0101】
上記第1実施形態では、高信頼度領域特定手段3が第2推定視差52を取得し、着目点Pにおける第1推定視差51と対応点Qにおける第2推定視差52とに基づいて信頼度情報60を取得する例を示した。これに対して、第2実施形態では、高信頼度領域特定手段3が第2推定視差52を取得せずに、着目点Pと対応点Qとの対応関係に基づいて信頼度情報60を取得する例について説明する。
【0102】
高信頼度領域特定手段3は、第1実施形態と同様に、第1推定視差51に基づいて第1視点画像41の着目点Pに対応する第2視点画像42における対応点Qを取得する。具体的には、高信頼度領域特定手段3は、推論部2より、[データ形式D1](u、d )で表される第1推定視差51を取得する。次に、高信頼度領域特定手段3は、式(5)に基づいて、第1推定視差51から対応点Qの推定位置(u )を取得する。これにより、高信頼度領域特定手段3は、データ形式D1のデータに、対応点Qの推定位置を付加したデータ形式D2の対応付けデータを得る。
[データ形式D2] (u、d 、u
【0103】
図20は、第2実施形態に係る信頼度の判定方法を説明するための模式図である。図20は、データ形式D2の対応付けデータ(u、d 、u )の表現形式の一例として、対応点Qの分布を表す対応点マップ45を示す。対応点マップ45の各点は、(ul、 )で表される。
【0104】
第2実施形態においても、第1視点画像41と第2視点画像42とが平行ステレオ画像であり、対応点ペアが画像中の上下方向の同じ位置(同一の行)となるものとする。対応点マップ45の各点の位置は、第1視点画像41の各点の第1位置座標(u)で表される。対応点マップ45の各点の値は、その点(u)に対応する対応点Qの第2視点画像42での推定位置(u )を表す。式(6)から、推論部2の第1学習済みモデル12によって出力された第1推定視差51が正しい場合、対応点マップ45の同一行の中で、着目点P(u)と対応点Q(u )とは一対一対応となり、同一行の中に同じ対応点Q(u )を示す着目点P(u)が複数存在することはない。これに対して、対応点ペアが決定できない点について第1学習済みモデル12が第1推定視差51を補完した場合、着目点P(u)と対応点Q(u )とが一対一対応とならず、同じ対応点Q(u )を示す着目点P(u)が複数存在する可能性がある。つまり、第1学習済みモデル12が補完によって第1推定視差51を生成した場合、対応点マップ45の同一行において、推定位置(u )の値が同一である点が複数存在する可能性が生じる。
【0105】
そこで、高信頼度領域特定手段3は、着目する対応付けデータ(u、d 、u )に含まれる第2視点画像42中の対応点Qの推定位置(u )と同一の第2視点画像42中の対応点Qの推定位置(u )を含む他の対応付けデータ(u、d 、u )が所定数以上存在する場合は、同一の第2視点画像42中の対応点Qの推定位置(u )を含む所定数以上の対応付けデータ(u、d 、u )に含まれる第1推定視差51の少なくとも一部の信頼度は高くないとする。
【0106】
高信頼度領域特定手段3は、同一のu の値を含むデータ数mを、u の値ごとに計数する。例えば図20では、ある行(2行目)に着目したとき、u =2となる点が2つ(u=2、u=3)存在し、u =3となる点が2つ(u=4、u=5)存在する(点線部参照)。これらの各点は、データ数m=2となる。高信頼度領域特定手段3は、対応点マップの各点(第1視点画像41の各点と同一である)について取得したデータ数mをデータ形式D2に付加することで、データ形式D6のデータを取得する。
[データ形式D6] (u、d 、u 、m)
データ形式D6において、データ(u、d 、u 、m)は互いに関連付けられたデータである。
【0107】
そして、高信頼度領域特定手段3は、例えば第1視点画像41の各点における同一の対応点Qを指す点の数mと閾値との比較に基づいて、信頼度を判定する。信頼度の判定結果は、例えば式(10)及び式(11)で求められる。
【数8】
ここで、uは、第1視点画像41(第1推定視差51)の各点のうち、視差方向の同一ラインに含まれる各点を示す。式(10)は、ある着目点Pについて、視差方向の同一ラインに同一のu の値を有する点が存在する場合に値が「1」となり、同一ラインに同一のu の値を有する点が存在しない場合に値が「0」となるデルタ関数である。式(11)のNは、視差方向の同一ラインに存在する点(画素)の総数であり、画像の場合には画像の横幅の画素数に相当する。式(11)の左辺の分母が、同一の対応点Qを指す点の数mに相当する。式(11)の左辺は、全ての対応点ペアが一対一対応でm=1となるときに、最大で「1」となり、mの値が大きいほど「0」に近づく。
【0108】
高信頼度領域特定手段3は、第1視点画像41の各点について、式(10)及び式(11)に基づいて信頼度情報60を取得する。上述の通り、信頼度情報60の形式は特に限定されないが、一例として、第2実施形態では、信頼度情報60は、第1視点画像41の各点について変数Sを含む。変数Sは、式(11)を満たす場合にS=1となり、式(11)を満たさない場合にS=0となる。S=1は、同一の対応点Qを指す点の数mに基づく式(11)の左辺が閾値以上であり、第1推定視差51の信頼度が高いことを示す。S=0は、式(11)の左辺が閾値未満であり、第1推定視差51の信頼度が高くないことを示す。
【0109】
式(11)において、右辺の閾値を「1」とした場合、同一の対応点Qを指す点の数mが1の場合でのみS=1となる。右辺の閾値は、1未満でもよい。例えば閾値を0.5とした場合、同一の対応点Qを指す点の数mが2の場合でもS=1となる。数mが2以上となることを許容する場合、同一の対応点Qを指す各点の推定視差d の値をそのまま用いてもよいし、同一の対応点Qを指す各点のうち、推定視差d が最も大きい点についてS=1とし、それ以外の点についてS=0としてもよい。同一の対応点Qを指す各点のうち、推定視差d が最も大きい点は、撮像装置20に対して最も近い位置にある点であり、視野内で死角になっている可能性が最も低い点であるから、相対的に信頼度が高いと評価できるためである。そのため、右辺の閾値が1未満の場合において、高信頼度領域特定手段3は、着目する対応付けデータ(u、d 、u )に含まれる第2視点画像42中の対応点Qの推定位置(u )と同一の第2視点画像42中の対応点Qの推定位置(u )を含む他の対応付けデータ(u、d 、u )が複数存在する場合は、それらの対応付けデータ(u、d 、u )に含まれる第1推定視差51の中で絶対値が最も大きな第1推定視差51(d )のみを信頼度が高いとする。
【0110】
高信頼度領域特定手段3は、データ形式D2に、信頼度情報60である各点の変数Sを付加して、データ形式D7で表されるデータを取得する。
[データ形式D7] (u、d 、u 、S)
データ形式D7において、データ(u、d 、u 、S)は互いに関連付けられたデータである。高信頼度領域特定手段3は、データ形式D7から、変数Sを含む信頼度情報60を任意の表現形式で出力する。
【0111】
図21は、第2実施形態に係る信頼度判定処理を示すフローチャートである。なお、第2実施形態において、信頼度の判定処理以外の処理は、図18に示した画像処理方法の各処理と同様である。第2実施形態は、図18に示した画像処理方法のステップS3の処理のみが異なる。
【0112】
図21に示すように、高信頼度領域特定手段3は、推論部2から出力された第1推定視差51を取得する(ステップS21)。高信頼度領域特定手段3は、第1推定視差51に基づいて第1視点画像41の着目点Pに対応する第2視点画像42における対応点Qを取得し、視差方向のラインごとに、同一の対応点Qを指す点の数をカウントする(ステップS22)。高信頼度領域特定手段3は、着目点Pと視差方向に並ぶ各点のうち、同一の対応点Qを指す点の数に基づいて、信頼度を判定する(ステップS23)。すなわち、高信頼度領域特定手段3は、同一の対応点Qを指す点の数mと閾値とを比較する式(11)により、式(11)の左辺が閾値以上である点について、信頼度が高いと判定(S=1)する。高信頼度領域特定手段3は、式(11)の左辺が閾値未満である点について、信頼度が高くないと判定(S=0)する。高信頼度領域特定手段3は、第1推定視差51の全ての点(画素)に対して、信頼度の変数Sを求めて信頼度情報60を取得する。高信頼度領域特定手段3は、各点の信頼度情報60を深度算出部4に出力する(ステップS24)。これにより、図18のステップS3では、高信頼度領域特定手段3が第1視点画像41の各点についての信頼度情報60を取得して、深度算出部4に出力する。
【0113】
以上のように、第2実施形態に係る画像処理装置100では、高信頼度領域特定手段3は、着目する対応付けデータ(u、d 、u )に含まれる第2視点画像42中の対応点Qの推定位置と同一の第2視点画像42中の対応点Qの推定位置(u )を含む他の対応付けデータ(u、d 、u )が所定数以上存在する場合は、同一の第2視点画像42中の対応点Qの推定位置(u )を含む所定数以上の対応付けデータ(u、d 、u )に含まれる第1推定視差51の少なくとも一部の信頼度は高くないとする。これにより、着目点Pと対応点Qとが理論的には一対一対応となる関係を有することから、同一の対応点Qを指す点の数によって第1学習済みモデル12の出力である第1推定視差51の信頼度の高低を適切に評価することができる。
【0114】
第2実施形態に係る画像処理装置100では、高信頼度領域特定手段3は、着目する対応付けデータ(u、d 、u )に含まれる第2視点画像42中の対応点Qの推定位置と同一の第2視点画像42中の対応点Qの推定位置を含む他の対応付けデータ(u、d 、u )が複数存在する場合は、それらの対応付けデータ(u、d 、u )に含まれる第1推定視差51の中で絶対値が最も大きな第1推定視差51のみを信頼度が高いとする。これにより、着目点Pと対応点Qとが一対一対応にならない場合にも、最も信頼度が高いと考えられる第1位置座標及び第1推定視差51の組(ul, )を特定できる。
【0115】
第2実施形態のその他の効果は、上記第1実施形態と同様である。
【0116】
[第3実施形態]
第3実施形態について説明する。以下の説明において、上述の第1実施形態、第2実施形態と同一又は同等の構成要素については同一の符号を付し、その構成要素の説明を簡略又は省略する。
【0117】
上記第1実施形態及び第2実施形態では、推論部2において第1学習済みモデル12により出力された推定視差から対応点Qを取得し、着目点Pと対応点Qとに基づいて信頼度情報60を取得する例を示した。これに対して、第3実施形態では、高信頼度領域特定手段3が深度情報に基づいて信頼度を判定する例について説明する。
【0118】
具体的には、第3実施形態では、高信頼度領域特定手段3は、各第1視点画像41中の点について、第1位置座標(u)及び第1推定視差(d )から第2視点画像42中の対応点Qの推定位置(u )を求め、第1推定視差(d )に対応する第1深度(Z)を求め、第1位置座標(u)、第1深度(Z)、第2視点画像42中の対応点Qの推定位置(u )が対応付けられた対応付けデータを生成し、対応付けデータの集合から、第1深度(Z)の信頼度が高い、第1位置座標(u)及び第1深度(Z)の組を特定する。
【0119】
第3実施形態では、信頼度を判定する前に、推論部2から出力された推定視差に基づいて、深度算出部4によって予め深度情報が算出される。算出される深度情報は、信頼度が高い推定視差から算出された奥行きZと、信頼度が高くない推定視差から算出された奥行きZとを、それぞれ含む可能性がある。第3実施形態では、高信頼度領域特定手段3は、深度算出部4によって算出された深度情報の各点について、奥行きZの信頼度を判定する。
【0120】
図22は、第3実施形態に係る深度算出部4による深度情報の算出を説明する図である。図23は、第3実施形態に係る高信頼度領域特定手段3による信頼度の判定を説明する図である。
【0121】
図22に示すように、第3実施形態では、推論部2により、第1推定視差51及び第2推定視差52が出力される。第2推定視差52の取得方法は、上述の通り特に限定されず、第1取得例、第2取得例及び第3取得例のいずれの方法で第2推定視差52を取得してもよい。第1推定視差51は、第1視点画像41の各第1位置座標(u)についての推定視差d を表す。第2推定視差52は、第2視点画像42の各第2位置座標(u)についての推定視差d を表す。これにより、深度算出部4は、データ形式D8の情報を得る。
[データ形式D8] (u、d 、u、d
(u、d )は、互いに関連付けられたデータであり、(u、d )は、互いに関連付けられたデータである。
【0122】
高信頼度領域特定手段3は、深度算出部4により、第1推定視差(d )に対応する第1深度(Z)を求める。高信頼度領域特定手段3は、深度算出部4により、第2推定視差(d )に対応する第2深度(Z)を求める。深度算出部4は、第1推定視差51及び第2推定視差52に基づいて、第1視点画像41における各点の奥行きを表す第1深度情報70A及び第2視点画像42における各点の奥行きを表す第2深度情報70Bを算出する。第1深度情報70Aは、第1推定視差51と、カメラパラメータ13とに基づいて、式(4)により算出された第1視点画像41の各点の奥行き(第1深度)Zを表す。第2深度情報70Bは、第2推定視差52と、カメラパラメータ13とに基づいて、式(4)により算出された第2視点画像42の各点の奥行き(第2深度)Zを表す。深度算出部4は、第1深度情報70A及び第2深度情報70Bを、高信頼度領域特定手段3に出力する。これにより、高信頼度領域特定手段3は、データ形式D9の情報を得る。
[データ形式D9] (u、d 、Z、u、d 、Z
(u、d 、Z)は、互いに関連付けられたデータであり、(u、d 、Z)は、互いに関連付けられたデータである。
【0123】
図23に示すように、高信頼度領域特定手段3は、第1深度情報70Aと第2深度情報70Bとに基づいて、第1深度(Z)の信頼度が高い点の第1位置座標及び第1深度の組(ul,)を特定する。高信頼度領域特定手段3は、カメラパラメータ13を用いて、第1視点の第1深度情報70Aと第2視点の第2深度情報70Bとのうちいずれか一方を、他方の視点へと変換する視点変換処理を行う。図23の例では、高信頼度領域特定手段3は、カメラパラメータ13と、式(1)から(4)に示した関係に基づいて、第2視点の第2深度情報70Bを、第1視点の深度情報に変換する。視点変換処理後の第2深度情報70Bは、第1視点画像41の各点について、第2推定視差52に基づいて算出された奥行きZ を有するデータである。
【0124】
高信頼度領域特定手段3は、第1視点の第1深度情報70Aの各点の奥行き(第1深度)Zと、視点変換処理後の第2深度情報70Bの同じ点の奥行きZ とに基づいて、その点の信頼度情報60を取得する。例えば、信頼度情報60は、同じ点の奥行き(第1深度)Zと奥行きZ との誤差が閾値未満となる場合に、T=1となり、同じ点の奥行き(第1深度)Zと奥行きZ との誤差が閾値以上となる場合に、T=0となる変数Tを含む。T=1は、奥行きの誤差が閾値未満であり、推定視差の信頼度が高いことを示す。T=0は、奥行きの誤差が閾値以上であり、推定視差の信頼度が高くないことを示す。この結果、第1深度(Z)の信頼度が高い点(T=1となる点)の第1位置座標及び第1深度の組(ul,)が特定される。
【0125】
高信頼度領域特定手段3は、データ形式D9に、信頼度情報60である各点の変数Tを付加して、データ形式D10で表されるデータを取得する。
[データ形式D10] (u、d 、Z、u、d 、Z2、T)
【0126】
高信頼度領域特定手段3は、データ形式D10から、変数Tを含む信頼度情報60を任意の表現形式で出力する。図23の例では、第1視点を基準としているので、信頼度情報60は、第1深度情報70Aの各点に対する信頼度の高低を表す情報を含む。例えば、高信頼度領域特定手段3は、第1視点画像41の各点の信頼度を表すマスクデータとして信頼度情報60を出力できる。マスクデータは、第1視点画像41の各点と同一の点の信頼度の値(T=1又はT=0)を有する二値画像である。マスクデータの各行に含まれる点は、(ul、T)で表現される。
【0127】
深度算出部4は、高信頼度領域特定手段3から、信頼度情報60を取得する。深度算出部4は、信頼度情報60に基づき、第1深度情報70Aにおける各点のうち、信頼度が高くない点を除いて、信頼度が高い点の出力深度情報71を出力する。具体的には、深度算出部4は、第1深度情報70Aと、マスクデータである信頼度情報60とのAND(論理積)演算を行い、出力深度情報71を取得する。出力深度情報71は、信頼度情報60のうち信頼度が高い(T=1を保持する)点については、演算後に奥行き(第1深度)Zを保持し、信頼度情報60のうち信頼度が高くない(T=0を保持する)点については、演算後に奥行き(第1深度)Zが0となる。これにより、出力深度情報71は、信頼度が高くない点について深度情報(第1深度Z)を含まず、信頼度が高い点の深度情報(第1深度Z)だけを含む。そのため、信頼度が高くない点の視差から算出された深度情報が出力されることが回避される。
【0128】
図24は、第3実施形態に係る画像処理方法を示すフローチャートである。
【0129】
画像取得部1は、第1視点及び第2視点のそれぞれで撮像された第1視点画像41及び第2視点画像42を取得する(ステップS31)。推論部2は、第1視点画像41を第1画像とし、第2視点画像42を第2画像として学習済みモデルに入力して、第1視点画像41の各点の位置を表す第1位置座標と対応付けられた第1推定視差51(u、d )と、第2視点画像42の各点の位置を表す第2位置座標と対応付けられた第2推定視差52(u、d )と、を出力する(ステップS32)。深度算出部4は、第1推定視差51及び第2推定視差52に基づいて、第1視点画像41における各点の奥行き(第1深度)を表す第1深度情報70A及び第2視点画像42における各点の奥行き(第2深度)を表す第2深度情報70Bを算出する(ステップS33)。高信頼度領域特定手段3は、第1深度情報70Aと第2深度情報70Bとに基づいて、第1深度情報70Aの各点についての信頼度を判定する(ステップS34)。高信頼度領域特定手段3は、判定結果として信頼度情報60を出力する。深度算出部4は、信頼度情報60に基づき、第1深度情報70Aにおける各点のうち、信頼度が高くない点を除いて、信頼度が高い点の出力深度情報71を出力する(ステップS35)。
【0130】
物体認識部7が、CADデータ14と出力深度情報71とに基づいて、認識対象となる物体90の位置情報及び姿勢情報を取得する(ステップS5)。出力部5が、物体認識部7から出力された物体90の位置及び姿勢の情報を、通信によりロボット制御装置33に出力する(ステップS6)。ロボット制御装置33は、取得した物体90の位置及び姿勢の情報に基づいて、作業ロボット32の動作を制御する。
【0131】
以上のように、第3実施形態に係る画像処理装置100は、複数の画像間の視差に基づく3次元画像計測処理を行う画像処理装置であって、第1視点及び第2視点のそれぞれで撮像された第1視点画像41及び第2視点画像42を取得する画像取得部1と、第1画像及び第2画像を入力し、第1画像中の点のそれぞれについて第2画像中の対応点Qとの間の視差の機械学習による推論値である第1推定視差51(d )を第1画像中の点の位置を表す第1位置座標(u)と対応付けて出力する第1学習済みモデル12を利用可能とされ、第1視点画像41を第1画像とし、第2視点画像42を第2画像として第1学習済みモデル12に入力して第1位置座標(u)と対応付けられた第1推定視差51を取得する推論部2と、各第1視点画像41中の点について、第1位置座標(u)及び第1推定視差51(d )から第2視点画像42中の対応点Qの推定位置(u )を求め、第1推定視差51(d )に対応する第1深度(Z)を求め、第1位置座標(u)、第1深度(Z)、第2視点画像42中の対応点Qの推定位置(u )が対応付けられた対応付けデータ(u、d 、Z)を生成し、対応付けデータの集合から、第1深度(Z)の信頼度が高い、第1位置座標及び第1深度の組(ul、)を特定する高信頼度領域特定手段3と、を備える。
【0132】
この構成によれば、第1視点の第1深度情報70Aと第2視点の第2深度情報70Bとが、理論的には対応点ペアにおいて一致するという関係に基づいて、第1視点画像41の各点についての信頼度(T)を判定できる。その結果、第1深度(Z)の信頼度が高い点の第1位置座標及び第1深度(Z)の組(ul、)を特定することがきる。これにより、3次元画像計測に用いる学習済みモデルの出力から、信頼できる情報を特定することが可能となる。
【0133】
第3実施形態に係る画像処理装置100において、深度算出部4は、第1深度情報70Aにおける各点のうち、第1深度(Z)の信頼度が高い、第1位置座標及び第1深度(Z)の組(ul、)として特定された各点の深度情報70である出力深度情報71を出力する。これにより、信頼度が高い点の深度情報(第1深度Z)を出力し、信頼度が高くない点については深度情報(第1深度Z)を出力しないようにすることができる。その結果、深度情報を利用した物体認識などを行う場合に、信頼度が高く正確である可能性がある深度情報だけを利用できるので、深度情報を利用した情報処理の精度を向上させることができる。
【0134】
第3実施形態のその他の効果は、上記第1実施形態と同様である。
【0135】
本発明の技術範囲は上記実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で適宜変更を加えることができる。例えば、上記実施形態では、画像処理装置100の各部が、コンピュータシステム1000のプロセッサ1001によって実現される例を示したが、画像処理装置100が、クライアント-サーバモデルによるコンピュータシステムを構成する1又は複数のサーバ装置によって実現されてもよい。例えば、サーバ装置がクライアント端末から第1視点画像41及び第2視点画像42を受信して、信頼度情報60を取得し、信頼度情報60に基づいて取得した深度情報70をクライアント端末に出力してもよい。
【0136】
上記実施形態では、第1視点画像41及び第2視点画像42の2つの視点画像からなるステレオ画像を扱う例を示したが、画像処理装置100は、3つ以上の視点画像を取得してもよい。それぞれの視点画像は、画像の左右方向において平行でなくてもよい。言い換えると、視差方向は画像の左右方向以外でもよい。また、上記実施形態では、左カメラ21と右カメラ22との光学特性は互いに同一である例を示したが、光学特性が既知であれば、各視点画像を取得するカメラの光学特性は互いに異なっていてもよい。この場合、各視点画像に対して光学特性の差異を補正する処理を実行してもよい。
【0137】
上記第1実施形態では、推定視差から高信頼度領域を特定し、特定した高信頼度領域に属する各点の深度情報を算出する例を示したが、高信頼度領域を特定する前に推定視差から深度情報を算出し、第3実施形態のように深度同士の対比によって高信頼度領域を特定してもよい。深度情報を算出せず、推定視差から高信頼度領域を特定し、特定した高信頼度領域に属する各点の推定視差を出力してもよい。上記第1実施形態において、画像処理装置100がデータ利用機器DUに出力するデータは、推定視差でもよいし、深度でもよい。上記第2実施形態についても同様であり、画像処理装置100は、特定した高信頼度領域に属する各点の推定視差を出力してもよいし、高信頼度領域に属する各点の推定視差から深度情報を算出して、算出した深度情報を出力してもよい。
【0138】
上記実施形態では、画像処理装置100が深度算出部4を備える例を示したが、画像処理装置100は、深度算出部4を備えなくてもよい。
【符号の説明】
【0139】
1…画像取得部、2…推論部、3…高信頼度領域特定手段、4…深度算出部、5…出力部、6…記憶部、7…物体認識部、8…撮像制御部、11…プログラム、12…第1学習済みモデル、12A…第1学習済みモデル、12B…第2学習済みモデル、12C…第1学習済みモデル、13…カメラパラメータ、14…CADデータ、20…撮像装置、21…左カメラ、22…右カメラ、23…撮像視野、24…撮像視野、25…画像面、26…画像面、30…カメラ移動ロボット、31…ロボット制御装置、32…作業ロボット、33…ロボット制御装置、41…第1視点画像、42…第2視点画像、43…第1反転画像、44…第2反転画像、45…対応点マップ、51…第1推定視差、52…第2推定視差、53…反転推定視差、60…信頼度情報、70…深度情報、70A…第1深度情報、70B…第2深度情報、71…出力深度情報、90…物体、91…領域、92…領域、93…領域、100…画像処理装置、110…ロボットシステム、1000…コンピュータシステム、1001…プロセッサ、1002…メインメモリ、1003…ストレージ、1004…インターフェース、P、P1、P2…着目点、Q、Q1、Q2…対応点。
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14
図15
図16
図17
図18
図19
図20
図21
図22
図23
図24