(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024074658
(43)【公開日】2024-05-31
(54)【発明の名称】自律走行型の掃除ロボット
(51)【国際特許分類】
A47L 9/28 20060101AFI20240524BHJP
G01N 21/359 20140101ALI20240524BHJP
G01N 21/27 20060101ALI20240524BHJP
【FI】
A47L9/28 E
A47L9/28 L
G01N21/359
G01N21/27 A
【審査請求】未請求
【請求項の数】9
【出願形態】OL
(21)【出願番号】P 2022185962
(22)【出願日】2022-11-21
(71)【出願人】
【識別番号】390019839
【氏名又は名称】三星電子株式会社
【氏名又は名称原語表記】Samsung Electronics Co.,Ltd.
【住所又は居所原語表記】129,Samsung-ro,Yeongtong-gu,Suwon-si,Gyeonggi-do,Republic of Korea
(74)【代理人】
【識別番号】110001427
【氏名又は名称】弁理士法人前田特許事務所
(72)【発明者】
【氏名】山本 率矢
(72)【発明者】
【氏名】荒木 克典
(72)【発明者】
【氏名】勝浦 高明
【テーマコード(参考)】
2G059
3B057
【Fターム(参考)】
2G059AA05
2G059BB08
2G059CC09
2G059EE01
2G059EE02
2G059EE13
2G059FF01
2G059HH01
2G059HH02
2G059HH06
2G059KK04
2G059MM01
2G059MM05
2G059MM09
2G059MM10
3B057DA00
(57)【要約】
【課題】液体に接触しなくても濡れた場所を高い精度で検知して回避できるようにする。
【解決手段】自律走行型の掃除ロボット1である。床面の上を走行するロボット本体2の進路前方の床面を撮像し、光照射部10が照射する赤外光のうち、水による吸光が認められる特定波長の赤外光を含む光を検出する特定赤外光撮像センサ12、特定赤外光撮像センサ12が出力する赤外光信号を受信する制御部20などを備える。制御部20が、ロボット本体2の進路前方の床面に存在する濡れ場所Wの有無を赤外光信号に基づいて判断し、それによって掃除ロボット1の運転を変更する。
【選択図】
図6
【特許請求の範囲】
【請求項1】
自律走行型の掃除ロボットであって、
床面の上を走行するロボット本体と、
前記ロボット本体の下面に設けられて前記床面を掃除する掃除部と、
前記ロボット本体の進路前方に向けて、水による吸光が認められる特定波長を含む赤外光を照射する光照射部と、
前記ロボット本体の進路前方の前記床面を含む領域を撮像し、前記光照射部が照射する赤外光のうち、前記特定波長の赤外光を含む光を検出する特定赤外光撮像センサと、
前記特定赤外光撮像センサが出力する赤外光信号を受信する制御部と、
を備え、
前記制御部が、前記ロボット本体の進路前方の前記床面に存在する濡れ場所の有無を前記赤外光信号に基づいて判断し、それによって前記掃除ロボットの運転を変更する掃除ロボット。
【請求項2】
請求項1に記載の掃除ロボットにおいて、
前記特定波長が930nm以上1030nm以下である掃除ロボット。
【請求項3】
請求項2に記載の掃除ロボットにおいて、
前記特定赤外光撮像センサが、可視光を検出するカメラとすくなくとも前記特定波長の赤外光を含む光を透過し、可視光を遮断する光学フィルタを有し、当該光学フィルタで透過した赤外光を前記カメラで受光するように構成されている掃除ロボット。
【請求項4】
請求項1~3のいずれか1つに記載の掃除ロボットにおいて、
可視光を検出して前記ロボット本体の進路前方の前記床面を含む領域を撮像するカメラからなる可視光撮像センサを更に備え、
前記制御部が、前記可視光撮像センサが出力する可視光信号を受信し、前記赤外光信号と前記可視光信号とに基づいて前記濡れ場所の有無を判断する掃除ロボット。
【請求項5】
請求項1に記載の掃除ロボットにおいて、
前記制御部が、前記濡れ場所の有無を判断するために予め設定された学習済み機械学習モデルを有し、前記赤外光信号を前記学習済み機械学習モデルに適用することによって前記濡れ場所の有無を判断する掃除ロボット。
【請求項6】
請求項4に記載の掃除ロボットにおいて、
前記制御部が、前記濡れ場所の有無を判断するために予め設定された学習済み機械学習モデルを有し、前記赤外光信号および前記可視光信号を前記学習済み機械学習モデルに適用することによって前記濡れ場所の有無を判断する掃除ロボット。
【請求項7】
請求項6に記載の掃除ロボットにおいて、
前記制御部が、前記赤外光信号を処理して得られる特定赤外光画像と前記可視光信号を処理して得られる可視光画像とを合成して合成画像を作成し、当該合成画像を前記学習済み機械学習モデルに適用することによって前記濡れ場所の有無を判断する掃除ロボット。
【請求項8】
請求項6に記載の掃除ロボットにおいて、
前記制御部が、前記赤外光信号を処理して得られる特定赤外光画像を第1の前記学習済み機械学習モデルに適用することによって前記濡れ場所の有無を判断する第1判断処理と、前記可視光信号を処理して得られる可視光画像を第2の前記学習済み機械学習モデルに適用することによって前記濡れ場所の有無を判断する第2判断処理と、を実行し、
前記第1判断処理と前記第2判断処理の双方に基づいて前記濡れ場所の有無を総合的に判断する掃除ロボット。
【請求項9】
請求項4に記載の掃除ロボットにおいて、
前記制御部が、前記赤外光信号を処理して得られる特定赤外光画像と前記可視光信号を処理して得られる可視光画像との差分を用いて前記濡れ場所を判断する掃除ロボット。
【発明の詳細な説明】
【技術分野】
【0001】
開示する技術は、一般家庭向けの自律走行型の掃除ロボットに関し、特に濡れた場所を検知する技術に関する。
【背景技術】
【0002】
近年、障害物を回避しながら走行し、床面を自動的に掃除するロボット(自律走行型の掃除ロボット、以下単に掃除ロボットともいう)が注目されている。掃除ロボットは、ブラシで塵埃を巻き上げ、吸引して掃除するタイプが一般的であるが、モップなどで汚れを拭き取って掃除するタイプやこれらを併用したタイプも実用化されている。
【0003】
コンピュータ技術の進歩により、掃除ロボットは、家具、家電製品、インテリアなどの室内に常備されている障害物については、比較的高い精度で検知でき、これらを回避して床面を走行できるようになってきている。
【0004】
しかし、ペットの尿や零れ落ちた飲料などにより、床面の一部が濡れている場合があり得る。
【0005】
濡れた場所を掃除ロボットが掃除すると、掃除ロボットが液体を吸い込んで故障するおそれがある。また、濡れた場所を通過して掃除ロボットが走行を続けると、その液体による汚れを拡散するおそれもある。従って、掃除ロボットは、走行経路に存在する濡れ場所を事前に検知して、回避する必要がある。
【0006】
濡れ場所を検知する従来技術は、例えば特許文献1に開示されている。具体的には、その実施の形態2に、電極間に所定の電圧を印加した一対の電極で液体の有無を検知する技術が開示されている。電極が液体に触れると電極間の抵抗値が変化する。その抵抗値を所定の閾値と比較し、液体の有無を検知する。
【0007】
なお、特許文献1の実施の形態1にカメラで撮影した画像から液体を検知することが記載されているが、その具体的な内容は開示されていない。
【0008】
特許文献2には、尿を含むペットの排泄物を検知する技術が開示されている。具体的には、赤外線カメラによって進路前方の熱画像を撮像し、その熱画像で所定以上の温度差がある領域が認められた場合、その領域に排泄物が有ると検知する。
【先行技術文献】
【特許文献】
【0009】
【特許文献1】特開2022-025678号公報
【特許文献2】特表2018-515191号公報
【発明の概要】
【発明が解決しようとする課題】
【0010】
特許文献1の技術は、液体に電極を接触させる必要がある。従って、掃除ロボットが濡れた場所に到達しなければ検知できない。そのため、掃除ロボットが液体を検知して停止や方向転換しても、掃除ロボットが濡れた場所を回避できないおそれがある。
【0011】
特許文献2の技術は、液体と環境との間に所定以上の温度差が無ければ検知できない。すなわち、尿で濡れてからある程度時間が経過すると検知できないし、温度差の無い液体は検知できない。
【0012】
掃除ロボットの多くには、カラー画像やモノクロ画像を撮像するカメラが搭載されているが、そのようなカメラでは透明な液体は検知できない。すなわち、ペットの尿や水などで濡れた場所は検知できない。
【0013】
そこで、開示する技術は、液体に接触しなくても濡れ場所を高い精度で検知して回避できる掃除ロボットの実現を目的とする。
【課題を解決するための手段】
【0014】
開示する技術は、自律走行型の掃除ロボットに関する。
【0015】
前記掃除ロボットは、床面の上を走行するロボット本体と、前記ロボット本体の下面に設けられて前記床面を掃除する掃除部と、前記ロボット本体の進路前方に向けて、水による吸光が認められる特定波長を含む赤外光を照射する光照射部と、前記ロボット本体の進路前方の前記床面を含む領域を撮像し、前記光照射部が照射する赤外光のうち、前記特定波長の赤外光を含む光を検出する特定赤外光撮像センサと、前記特定赤外光撮像センサが出力する赤外光信号を受信する制御部と、を備える。そして、前記制御部が、前記ロボット本体の進路前方の前記床面に存在する濡れ場所の有無を前記赤外光信号に基づいて判断し、それによって前記掃除ロボットの運転を変更する。
【0016】
すなわち、この掃除ロボットによれば、ロボット本体の進路前方に向けて、水による吸光が認められる特定波長を含む赤外光を光照射部で照射する。その赤外光のうち、その特定波長の赤外光のみを検出する特定赤外光撮像センサでロボット本体の進路前方の床面を撮像する。そうして、制御部が、特定赤外光撮像センサが出力する赤外光信号を受信し、その赤外光信号に基づいてロボット本体の進路前方の床面に存在する濡れ場所の有無を判断する。
【0017】
従って、無色の水や尿でも、更にはその液体の温度に関係無く、水分を含む濡れ場所であれば、濡れ場所に達する前に、その有無を適切に判断できる。そして、制御部は、その判断に基づいて掃除ロボットの運転を変更するので、濡れ場所を精度高く回避できる。
【0018】
前記特定波長が930nm以上1030nm以下である、としてもよい。
【0019】
水による赤外吸収を考えた時、1940nm付近や1450nm付近に吸収の強いピークを持つ。しかしながら、1450nmや1940nm付近の吸収を観測するにはInGaAsのような高価な撮像素子が必要になる。
【0020】
一方で、水による赤外吸収は上記と比べれば微弱ではあるが970nm付近にもピークを持つ。一般的なカメラの撮像素子はSi半導体を用いており、可視域と比べて感度は劣るものの原理上1100nm程度まで検知可能であり、上記波長域の赤外光を用いることで、一般的なカメラを用いた安価な構成が実現可能となる。
【0021】
前記特定赤外光撮像センサが、可視光を検出するカメラとすくなくとも前記特定波長の赤外光を含む光を透過し、可視光を遮断する光学フィルタを有し、当該光学フィルタで透過した赤外光を前記カメラで受光するように構成されている、としてもよい。
【0022】
また、一般的なカメラの素子は原理上、1100nm程度までの光に感度を持つが、波長が長くなるにつれて感度は低くなり、相対的に影響が少なくなる。このため、バンドパスフィルタのかわりに、少なくとも可視光を遮断し、特定波長を含む赤外光を透過するロングパスフィルタを用いる構成としてもよい。
【0023】
そうすれば、一般的なカメラと光学フィルタ(バンドパスフィルタ)とによる簡素な構成で特定赤外光撮像センサを構成できる。従って、特定赤外光撮像センサをよりいっそう安価にできる。
【0024】
可視光を検出して前記ロボット本体の進路前方の前記床面を含む領域を撮像するカメラからなる可視光撮像センサを更に備え、前記制御部が、前記可視光撮像センサが出力する可視光信号を受信し、前記赤外光信号と前記可視光信号とに基づいて前記濡れ場所の有無を判断する、としてもよい。
【0025】
赤外光による濡れ場所の検知では、濡れ場所が相対的に暗く表示されるので、黒色のものや物体の影を誤検知し得る。それに対し、可視光撮像センサであれば、色の情報が加わるため黒色のものや陰の部分を検知できる。従って、これら双方の情報を含む赤外光信号と可視光信号とに基づいて濡れ場所の有無を判断すれば、誤検知を抑制でき、濡れ場所の有無の判断精度を向上できる。その結果、掃除ロボットは濡れ場所を精度高く回避できる。
【0026】
前記制御部が、前記濡れ場所の有無を判断するために予め設定された学習済み機械学習モデルを有し、前記赤外光信号を前記学習済み機械学習モデルに適用することによって前記濡れ場所の有無を判断する、としてもよい。
【0027】
前記制御部が、前記濡れ場所の有無を判断するために予め設定された学習済み機械学習モデルを有し、前記赤外光信号および前記可視光信号を前記学習済み機械学習モデルに適用することによって前記濡れ場所の有無を判断する、としてもよい。
【0028】
そうすれば、双方の情報で誤検知を抑制しながら、学習済み機械学習モデルで濡れ場所の有無の高度な判断が行える。その結果、掃除ロボットは濡れ場所を精度高く回避できる。
【0029】
前記制御部が、前記赤外光信号を処理して得られる特定赤外光画像と前記可視光信号を処理して得られる可視光画像とを合成して合成画像を作成し、当該合成画像を前記学習済み機械学習モデルに適用することによって前記濡れ場所の有無を判断する、としてもよい。
【0030】
前記制御部が、前記赤外光信号を処理して得られる特定赤外光画像を第1の前記学習済み機械学習モデルに適用することによって前記濡れ場所の有無を判断する第1判断処理と、前記可視光信号を処理して得られる可視光画像を第2の前記学習済み機械学習モデルに適用することによって前記濡れ場所の有無を判断する第2判断処理と、を実行し、前記第1判断処理と前記第2判断処理の双方に基づいて前記濡れ場所の有無を総合的に判断する、としてもよい。なお、前記制御部が、前記特定赤外光画像と前記可視光画像の2つの画像を入力とする機械学習モデルによって前記濡れ場所を判断する、としてもよい。
【0031】
これらの手法は画像の入力方法が異なるものの、すべて特定赤外光画像と可視光画像から濡れ場所を検知するものであり、いずれの手法においても濡れ場所を精度高く判断できる。
【0032】
前記制御部が、前記赤外光信号を処理して得られる特定赤外光画像と前記可視光信号を処理して得られる可視光画像との差分を用いて特定赤外光画像の暗所、すなわち、濡れ場所を判断するする、としてもよい。
【0033】
これもまた上述したものとは別の判断手法である。この判断手法によれば、画像処理による判断が可能であり、機械学習モデルを用いる場合と比べて少ない計算リソースで高速な検知が期待できる。
【発明の効果】
【0034】
開示する技術によれば、液体に接触しなくても濡れた場所を高い精度で検知して回避できる掃除ロボットを実現できる。
【図面の簡単な説明】
【0035】
【
図1】掃除ロボットの運転時の状態を示す概略斜視図である。
【
図3】特定赤外光撮像センサの構造を示す概略図である。
【
図4】水の光の吸光スペクトルを説明するための図である。
【
図5】制御部とその主な入出力装置のブロック図である。
【
図6】濡れ場所の有無を判断する方法の一例を説明するための図である。
【
図7】濡れ場所の有無の判断についての具体例を示す図である。
【
図8】濡れ場所の有無の判断についての具体例を示す図である。
【
図9】濡れ場所の有無の判断についての具体例を示す図である。
【
図10】段差が有る場合での濡れ場所の有無の判断についての具体例を示す図である。
【
図11】掃除ロボットの制御例を示すフローチャートである。
【発明を実施するための形態】
【0036】
以下、開示する技術について説明する。ただし、その説明は本質的に例示に過ぎない。
【0037】
<掃除ロボット>
図1、
図2に、開示する技術を適用した自律走行型の掃除ロボット1を例示する。
図1は、掃除ロボット1の運転時の状態を示す概略斜視図である。
図2は、掃除ロボット1の下面を示す概略図である。
【0038】
掃除ロボット1は、扁平な箱形の外観を有するロボット本体2を備える。ロボット本体2の前端部分の下面には、左右方向に長い横長な吸込口3aが設けられている。吸込口3aの内部には、吸込口3aに沿って延びるようにブラシ3bが軸支されている。
【0039】
ロボット本体2には、図示しないが吸引ポンプやダストボックスなどが内蔵されていて、掃除ロボット1の運転時には、床面の上に存在している塵埃などをブラシ3bで掻き上げながら吸込口3aを通じてダストボックスに吸い込むように構成されている。すなわち、吸込口3aやブラシ3bは床面を掃除する掃除部3を構成している。なお、掃除部3は、拭き掃除する機能を有していてもよい。
【0040】
ロボット本体2の下面の左右両側には、一対の駆動輪4a,4aが設置されている。ロボット本体2の下面の横幅中央における前後には、従動輪4b,4bが設置されている。各駆動輪4aは、モータの駆動制御により、独立して前転および後転が自在にできるように構成されている。すなわち、一対の駆動輪4a,4aや従動輪4b,4bは床面を走行する走行部4を構成している。
【0041】
それにより、掃除ロボット1は、前進、後退、左または右への旋回などの動作が可能であり、床面の上を自在に走行できる。ただし、ロボット本体2は、前進を基本の運転状態とするものであり、常態では前方に向かって走行する。後退は、障害物を回避する時などに行われる。
【0042】
ロボット本体2の上部の前側には、その前方に臨む検知部5が設置されている。検知部5には、光照射部10、可視光撮像センサ11、および、特定赤外光撮像センサ12が設けられている。詳細は後述するが、掃除ロボット1は、この検知部5を用いて進路前方の床面に存在する濡れ場所Wの有無を判断する。
【0043】
光照射部10は、一対の光源10a,10aで構成されており、これら光源10a,10aの各々が左右方向に間隔を隔てて配置されている。これら光源10a,10aは、LEDライトからなり、970nmにピークがある赤外光を発生させる。
【0044】
各光源10aは、掃除ロボット1の斜め下前方に向けて放射状に広がるように赤外光を照射する。それにより、掃除ロボット1の進路前方が、赤外光によって略均一に照らされるように設定されている。
【0045】
可視光撮像センサ11は、可視光を検出してカラー画像(RGB画像)を撮像する一般的なカメラ(RGBカメラ)である。可視光撮像センサ11は、ロボット本体2の進路前方の床面を含む領域を撮像できる方向に向いており、ロボット本体2の前方に拡がる走行領域を撮像するように構成されている。なお、可視光撮像センサ11が撮像するのはカラー画像でなくグレースケール画像ないしモノクロ画像であってもよい。
【0046】
特定赤外光撮像センサ12もまた、ロボット本体2の進路前方の床面を含む領域を撮像できる方向に向いており、ロボット本体2の前方に拡がる走行領域を撮像する。すなわち、可視光撮像センサ11と特定赤外光撮像センサ12の双方は、同じ走行領域を撮像するように設定されている。
【0047】
特定赤外光撮像センサ12の主体は、
図3に示すように、可視光を検出するカメラ12aと可視光を遮断し、すくなくとも特定波長の赤外光を含む光を透過する光学フィルタ12bとで構成されている。特定赤外光撮像センサ12は、濡れ場所Wを検知するためのセンサであり、水の吸光特性に基づいて構成されている。
【0048】
前記特定波長は一般的な可視光カメラにおけるSi半導体素子で検知可能な1100nm未満の領域において、水の吸収が見られる領域の波長である。特に、この掃除ロボット1では、970nm付近の光を用いている。
【0049】
ここで、可視光を検出するカメラは一般的にその用途から赤外光を遮断する光学フィルタを備えていることがあるが、本構成にて使用する可視光カメラ12aは上記フィルタを備えていない、もしくは、取り外したものとする。
【0050】
図4に、水の吸光スペクトルを示す。
図4の上図に示すように、水は、1940nmや1450nmの波長に大きなピークが認められる。ただし、これらの波長域を検知するには安価なSi半導体ではその原理上検知ができず、InGaAsなどの高価な素子が必要となり、家電製品への搭載はコストの観点から難しい。
【0051】
それに対し、一般的な可視光カメラにおいて使用されるSi半導体素子でも、波長が1100nm程度までの近赤外領域の光を検出できる。
図4の下図に、拡大して示すように、赤外線領域の吸収に比べると僅かではあるが、約930nmから約1030nmの範囲に吸収が認められ、約970nmにそのピークが存在する。
【0052】
そこで、この掃除ロボット1では、このピーク波長を特定波長として利用する。すなわち、バンドパスフィルタ12bに、970nmの波長の赤外光を含む光を透過するものを採用し、そのバンドパスフィルタ12bで透過した赤外光を一般的な可視光カメラ12aで受光する。それにより、高価な赤外光センサを用いることなく、一般的な可視光カメラ12aとバンドパスフィルタ12bの組み合わせにより、特定赤外光撮像センサ12を構成している。
【0053】
その結果、安価な掃除ロボット1でも、水の吸光を利用した濡れ場所Wの検知ができるようにしている。なお、特定波長は、吸収のピークである970nmが好ましいが、比較的吸収の大きい930nm以上1030nm以下の範囲であればよい。
【0054】
特定赤外光撮像センサ12は、上述したようにロボット本体2の進路前方の床面を含む領域を撮像する。それにより、光照射部10が照射する赤外光のうち、特定波長の赤外光のみを検出し、特定波長の赤外光による画像を撮像する。そうすることで、水が有る部分は光の吸収によって相対的に暗くなるので、濡れ場所Wが検知できる。
【0055】
(制御部20)
ロボット本体2の内部には、掃除ロボット1の動作を制御する制御部20が設置されている。制御部20は、いわゆるコンピュータである。プロセッサ、メモリ、インターフェースなどのハードウエアと、メモリに実装された制御プログラムやデータなどのソフトウエアとによって制御部20は構成されている。
【0056】
図5に、制御部20とその主な入出力装置のブロック図を示す。制御部20には、機能的な構成として、ロボット本体2の動作を制御する動作制御部21と、進路前方の床面に存在する濡れ場所Wの有無を判断する濡れ場所判断部22とが設けられている。更に、制御部20のメモリには、濡れ場所Wの有無を判断するために予め設定されたコンピュータプログラム(学習済み機械学習モデル23)が実装されている。
【0057】
制御部20は、可視光撮像センサ11および特定赤外光撮像センサ12と電気的に接続されている。制御部20は、可視光撮像センサ11が取得する可視光画像を受信し、特定赤外光撮像センサ12が取得する特定赤外光画像を受信する。
【0058】
制御部20はまた、掃除部3および走行部4と電気的に接続されている。制御部20(動作制御部21)は、制御部20(動作制御部21)は、掃除部3に制御信号を出力し、掃除動作を制御する。そして、走行部4に制御信号を出力し、掃除ロボット1の走行動作を制御する。
【0059】
開示する技術の主題とは異なるため説明は省略するが、動作制御部21には、AIなどの高度な制御プログラムが実装されている。それにより、ロボット本体2は、自律して走行し、家具やインテリアなどの障害物を避けながら走行できるように構成されている。
【0060】
更にこの掃除ロボット1の場合、ペットの尿や零れ落ちた飲料などによって床面の一部が濡れている場合があるが、ロボット本体2がそのような濡れ場所Wを回避して走行できるように構成されている。
【0061】
すなわち、可視光撮像センサ11ではペットの尿や水などの透明な液体は検知できないが、特定赤外光撮像センサ12であれば検知できる。一方、特定赤外光撮像センサ12は、黒色のものや陰などの影響で誤検知する場合があり得る。そこで、この掃除ロボット1では、これらを組み合わせることで、濡れ場所Wを精度高く検知できるように工夫している。
【0062】
具体的には、制御部20(濡れ場所判断部22)が、赤外光画像と可視光画像とに基づいて、ロボット本体2の進路前方の床面に存在する濡れ場所Wの有無を判断する。より具体的には、赤外光画像および可視光画像を学習済み機械学習モデル23に適用することによって濡れ場所Wの有無を判断する。
【0063】
それにより、制御部20(動作制御部21)が、掃除ロボット1の運転を変更するように構成されている。例えば、制御部20が、進路前方の床面に濡れ場所Wが有ると判断すると、掃除ロボット1は、走行経路を変更し、濡れ場所Wを回避して走行する。
【0064】
(濡れ場所Wの有無の具体的な判断方法)
図6に、濡れ場所Wの有無を判断する方法の一例を示す。例示する方法では、制御部20(濡れ場所判断部22)は、特定赤外光画像と可視光画像とを合成して合成画像を作成する。そして、その合成画像を、濡れ場所Wの有無を判断するために予め設定された学習済みの機械学習モデルに適用する。そうすることによって濡れ場所Wの有無を判断する。
【0065】
図6の左側に、特定赤外光画像(イメージ1)および可視光画像(イメージ2)の一例を示す。なお、これらの画像はそれぞれのカメラを校正することで、それぞれの位置を合わせるようにしている。これら特定赤外光画像および可視光画像の下側部分61は撮像視野から外れた部分であり、その上側部分62が撮像視野である。特定赤外光画像の濡れ場所Wはその周辺よりも暗く図示される。一方、可視光画像の濡れ場所Wは、画像から識別することは難しい。
【0066】
本構成例では、
図6に示す通り、特定赤外光画像を白黒化し、可視光画像のRGBの各チャンネルのうち、Rのチャンネルの画像をその白黒画像で置換することで、特定赤外光画像と可視光画像を合成した3チャンネルの画像(イメージ3)を得ている。
【0067】
このようにして得られた合成画像に対して、水の位置をラベル付けした学習用のデータを大量に用意し、あらかじめ機械学習モデルの学習を行う。制御部20には、そのようにして構築した学習済み機械学習モデル23が実装されている。
【0068】
なお、本構成例では上述のように画像を合成しているが、合成の方法は本質的ではなく、特定赤外光画像と可視光画像双方の情報が得られる形であればよい。すなわち、G、もしくは、Bチャンネルを白黒化した特定赤外光画像で置き換えてもよいし、特定赤外光画像を透過度とした4チャンネル画像としてもよい。また、すでに述べたように特定赤外光画像と可視光画像の双方を入力する形としてもよい。
【0069】
それにより、制御部20は、学習済み機械学習モデル23を用いて濡れ場所Wの有無を判断する。すなわち、掃除ロボット1の走行中、特定赤外光撮像センサ12および可視光撮像センサ11の双方でその進路前方の床面が撮影される。そして、制御部20は、これらセンサ11,12から受信する赤外光画像および可視光画像を処理して合成画像を作成する。その合成画像を、実装されている学習済み機械学習モデル23に適用し、濡れ場所Wの有無を判断する。
【0070】
図6の右側に、学習済み機械学習モデル23による判断結果を表した判断結果画像(イメージ4)を例示する。判断結果画像には、濡れ場所Wが有ると判断された場合、その濡れ場所Wが所定の枠63でマーキングして表示される。
【0071】
図7~
図9に、濡れ場所Wの有無の判断についての具体例を示す。これら図の各々は、機械学習に用いた所定の画像に対応したものであり、その特定赤外光画像(イメージ1)、可視光画像(イメージ2)、合成画像(イメージ3)、および判断結果画像(イメージ4)を表している。なお、これら画像はグレースケール化してあるので、実際の画像と異なる。
【0072】
床面に段差や障害物があるなど、撮像される床面の画像が一様でない場合でも、この掃除ロボット1によれば、濡れ場所Wの有無は精度高く判断できる。
【0073】
図10に、その一例を示す。
図10の上図は、段差が有る合成画像(イメージ3)である。同図中、符号Dで示す部分が段差である。この図では識別できないが、段差の上側に濡れ場所Wが有る。
図10の下図は、その判断結果画像(イメージ4)である。濡れ場所Wが所定の枠でマーキングして表示されている。
【0074】
このように、撮像される床面の画像が一様でない場合でも、濡れ場所Wの有無を精度高く判断できる。特に、特定赤外光画像だけでなく、可視光画像を加えて判断するので、黒色のものや陰などの影響を低減できる。しかも、学習済み機械学習モデル23を用いて判断するので、精度高く判断できる。
【0075】
<掃除ロボット1の制御例>
図11に、掃除ロボット1が運転して濡れ場所Wを検知しながら回避する制御例(フローチャート)を示す。掃除ロボット1が運転を開始してロボット本体2が走行すると、制御部20(濡れ場所判断部22)に、赤外光信号および可視光信号が入力される(ステップS1)。掃除ロボット1の運転が終了していなければ(ステップS2でNo)、制御部20は、特定赤外光画像および可視光画像を同時に取得する(ステップS3,S4)。
【0076】
そして、制御部20は、これら特定赤外光画像および可視光画像を、上述したように処理することにより、合成画像を作成する(ステップS5)。その合成画像を学習済み機械学習モデル23に適用する(ステップS6)。
【0077】
その結果、制御部20が濡れ場所Wが無いと判断すると(ステップS7でNo)、制御部20(動作制御部21)は、走行部4に通常の制御信号を出力し、ロボット本体2がそのまま前進して走行するように制御する(ステップS8)。
【0078】
一方、制御部20が濡れ場所Wが有ると判断すると(ステップS7でYes)、制御部20(動作制御部21)が走行部4に運転を変更する制御信号を出力し、ロボット本体2が濡れ場所Wを回避して走行するように制御する(ステップS9)。
【0079】
掃除ロボット1の運転が終了するまで、これらステップS1~ステップS9を実行する(ステップS2)。それにより、ロボット本体2は、走行経路に濡れ場所Wが有っても、その濡れ場所Wを回避して走行する。従って、掃除ロボット1を適切に運転できる。
【0080】
<第2実施形態>
上述した実施形態では、特定赤外光画像と可視光画像とを合成して合成画像を作成し、その合成画像を学習済み機械学習モデル23に適用することによって濡れ場所Wの有無を判断した。
【0081】
それに対し、この実施形態では、特定赤外光画像と可視光画像のそれぞれで濡れ場所Wの有無を判断する処理を行い、それらの判断結果から総合的に判断する。そうすることで、判断精度を向上させる。
【0082】
具体的には、制御部20が、特定赤外光画像をそれに対応した学習済み機械学習モデル23(第1の学習済み機械学習モデル23a)に適用することによって濡れ場所Wの有無を判断する処理(第1判断処理)と、可視光画像をそれに対応した学習済み機械学習モデル23(第2の学習済み機械学習モデル23b)に適用することによって濡れ場所Wの有無を判断する処理(第2判断処理)とを実行する。そして、第1判断処理と第2判断処理の双方に基づいて濡れ場所Wの有無を総合的に判断する。
【0083】
図12に、その方法の具体例を示す。上述した実施形態と同様にして、既存の学習済み機械学習モデルを用いて特定赤外光画像および可視光画像の各々に対応した第1および第2の学習済み機械学習モデル23a,23bを構築する。そして、これら学習済み機械学習モデル23a,23bを制御部20のメモリに実装する。
【0084】
そして、掃除ロボット1の走行中、特定赤外光撮像センサ12および可視光撮像センサ11の双方でその進路前方の床面が撮影される。制御部20は、これらセンサ11,12から特定赤外光画像および可視光画像を受信する。
【0085】
そうして、制御部20は、これら特定赤外光画像および可視光画像の各々に対し、第1判断処理および第2判断処理の各々を個別に実行する。第1判断処理および第2判断処理の双方の判断が一致する場合は、制御部20は、これら判断通りに判断する。
【0086】
それに対し、第1判断処理での判断と第2判断処理での判断とが異なる場合、制御部20は、これら判断に対する確度を評価して判断する。
【0087】
すなわち、学習済み機械学習モデルへの適用による判断には、その判断に対する確度が伴う。従って、第1および第2の学習済み機械学習モデル23a,23bに伴う確度を、リスクに応じた所定の基準値と比較したり、これら確度どうしを比較したりすることにより、いずれの判断を採用するか総合的に判断する。
【0088】
例えば、第1判断処理で濡れ場所Wが有ると判断され、第2判断処理で濡れ場所Wが無いと判断され、第1判断処理の確度よりも第2判断処理の確度の方が低い場合は、第1判断処理を優先し、濡れ場所Wが有ると総合的に判断する。
【0089】
また、第1判断処理で濡れ場所Wが無いと判断され、第2判断処理で濡れ場所Wが有ると判断され、第1判断処理の確度よりも第2判断処理の確度の方が低い場合は、リスクに応じて双方の判断を総合的に判断する。要するに、評価および総合判断の基準は、仕様に応じて適宜設定すればよい。
【0090】
<第3実施形態>
上述した実施形態では、学習済み機械学習モデル23を用いて判断した。それに対し、この実施形態では、学習済み機械学習モデル23を用いない判断方法を例示する。
【0091】
具体的には、制御部20が、特定赤外光画像と可視光画像との差分を求め、その差分と所定の閾値とを比較することによって濡れ場所Wの有無を判断する。
【0092】
図13に、その概要を示す。掃除ロボット1の走行中、特定赤外光撮像センサ12および可視光撮像センサ11の双方でその進路前方の床面が撮影される。制御部20は、これらセンサ11,12から特定赤外光画像および可視光画像を受信する。
【0093】
そうして、制御部20は、これら画像の差分を算出する。制御部20は、算出した差分と所定の閾値とを比較する。その結果、差分が閾値以上の場合、濡れ場所Wが有ると判断し、閾値が閾値未満の場合、濡れ場所Wは無いと判断する。
【0094】
詳細な説明は省くが、実際には照明が不均一であるため特定赤外光画像の遠方が暗くうつり、可視光画像に関しても色の影響があるため、差分をとる前にこれらを考慮した処理が必要となる。
【0095】
特定波長画像では濡れ場所Wは暗く表示されるので、可視光画像で明るく表示される場所が濡れ場所Wである場合には、差分は大きくなる。従って、可視光画像で明るく表示される場所が濡れ場所Wである場合に、その濡れ場所Wの有無を精度高く判断できる。
【0096】
対して、黒色のものや陰の部分は、特定波長画像では、濡れ場所Wでなくても、暗く表示される。従って、特定波長画像のみでは、濡れ場所Wと区別がつかず、誤検知する可能性がある。一方、黒色のものや陰の部分は、可視光画像でも暗く表示される。従って、これらが重なる場所では差分は小さくなる。
【0097】
それにより、黒色のものや陰の部分が濡れ場所Wである場合には、濡れ場所Wで無いと判断する確率が高くなる。黒色のものや陰の部分のみが濡れ場所Wとなる場合は少ない。従って、濡れ場所Wの誤検知を抑制できる。
【0098】
なお、開示する技術は、上述した実施形態に限定されず、それ以外の種々の構成をも包含する。
【0099】
例えば、実施形態では、赤外光画像と可視光画像とに基づいて濡れ場所Wの有無を判断したが、赤外光画像のみに基づいて濡れ場所Wの有無を判断してもよい。その場合、実施形態と同様に、赤外光画像に対応した学習済み機械学習モデル23を実装し、赤外光画像をその学習済み機械学習モデル23に適用することによって濡れ場所Wの有無を判断するのが好ましい。
【符号の説明】
【0100】
1 掃除ロボット
2 ロボット本体
3 掃除部
3a 吸込口
3b ブラシ
4 走行部
4a 駆動輪
4b 従動輪
5 検知部
10 光照射部
10a 光源
11 可視光撮像センサ
12 特定赤外光撮像センサ
12a 可視光カメラ
12b バンドパスフィルタ
20 制御部
21 動作制御部
22 濡れ場所判断部
23 学習済み機械学習モデル
W 濡れ場所