IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 新東工業株式会社の特許一覧

<>
  • 特許-自律移動ロボット 図1
  • 特許-自律移動ロボット 図2
  • 特許-自律移動ロボット 図3
  • 特許-自律移動ロボット 図4
  • 特許-自律移動ロボット 図5
  • 特許-自律移動ロボット 図6
  • 特許-自律移動ロボット 図7
  • 特許-自律移動ロボット 図8
  • 特許-自律移動ロボット 図9
  • 特許-自律移動ロボット 図10
  • 特許-自律移動ロボット 図11
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2022-12-12
(45)【発行日】2022-12-20
(54)【発明の名称】自律移動ロボット
(51)【国際特許分類】
   G05D 1/02 20200101AFI20221213BHJP
   G08B 21/02 20060101ALI20221213BHJP
   G08B 25/04 20060101ALI20221213BHJP
【FI】
G05D1/02 H
G08B21/02
G08B25/04 K
【請求項の数】 6
(21)【出願番号】P 2019029813
(22)【出願日】2019-02-21
(65)【公開番号】P2020135561
(43)【公開日】2020-08-31
【審査請求日】2021-05-13
(73)【特許権者】
【識別番号】000191009
【氏名又は名称】新東工業株式会社
(74)【代理人】
【識別番号】110000338
【氏名又は名称】特許業務法人HARAKENZO WORLD PATENT & TRADEMARK
(72)【発明者】
【氏名】鈴木 薪雄
(72)【発明者】
【氏名】楊 艶艶
【審査官】黒田 暁子
(56)【参考文献】
【文献】特開2003-256042(JP,A)
【文献】特開2000-099863(JP,A)
【文献】特開2006-221610(JP,A)
【文献】特開2017-036945(JP,A)
【文献】国際公開第2018/008224(WO,A1)
【文献】特開2002-092761(JP,A)
【文献】特開2012-094140(JP,A)
【文献】米国特許出願公開第2012/0025989(US,A1)
(58)【調査した分野】(Int.Cl.,DB名)
G05D 1/02
G08B 21/02
G08B 25/04
(57)【特許請求の範囲】
【請求項1】
フロア上を自動巡回する自律移動ロボットであって、
前記フロアを撮影するカメラと、
前記フロアから特定の高さに存在する障害物を検知するセンサと、
前記カメラにより撮影された画像、及び、前記センサの出力信号を参照して、当該自律移動ロボットを制御するコントローラと、を備え、
前記画像は、人間を被写体として含み、
前記コントローラは、
前記画像を参照して、前記人間の前記画像内の座標情報を特定する処理と、
前記座標情報を参照して、前記センサが、前記座標情報が表す位置に人間障害物として検知しているか否かを判断する処理と、
前記画像における前記人間の前記座標情報から得られるアスペクト比に基づいて、前記人間が、座っているまたはうずくまっているのか、立っているのかを判断する処理と、
を実行し、
前記画像に人間が被写体として含まれている場合、且つ、前記センサが前記人間を障害物として検知していない場合、転倒者が存在していることを示す情報を出力する処理を実行する、
ことを特徴とする自律移動ロボット。
【請求項2】
前記コントローラは、
前記座標情報を特定する処理において、前記カメラに最も近い人間の前記画像内の座標情報を特定
前記人間を障害物として検知しているか否かを判断する処理において、前記センサが前記カメラに最も近い人間を検知したか否かを判断し
前記センサが前記カメラに最も近い人間を検知した場合、前記カメラに最も近い人間に当該自律移動ロボットを追従させる処理を更に実行する、
ことを特徴とする請求項1に記載の自律移動ロボット。
【請求項3】
前記コントローラは、前記人間を障害物として検知しているか否かをする処理において、前記座標情報が表す位置に特定の範囲に含まれる幅を有する障害物を前記センサが検知したときに、前記センサが前記カメラに最も近い人間を検知したと判定する、
ことを特徴とする請求項2に記載の自律移動ロボット。
【請求項4】
前記コントローラは、
前記カメラにより撮影した画像、及び、前記センサの出力信号を取得する少なくとも1つの入力インタフェースと、
予め定められたプログラムに従って前記各処理を実行する少なくとも1つのプロセッサと、
前記プログラムを格納した少なくとも1つのメモリと、を備えている、
ことを特徴とする請求項1~3までの何れか1項に記載の自律移動ロボット。
【請求項5】
フロア上を自動巡回する自律移動ロボットを制御する制御方法であって、
カメラを用いて前記フロアを撮影する工程と、
センサを用いて前記フロアから特定の高さに存在する障害物を検知する工程と、
前記カメラにより撮影された画像、及び、前記センサの出力信号を参照して、当該自律移動ロボットを制御する工程と、を含み、
前記画像は、人間を被写体として含み、
前記制御する工程は、
前記画像を参照して、前記人間の前記画像内の座標情報を特定する処理と、
前記座標情報を参照して、前記センサが、前記座標情報が表す位置に人間障害物として検知しているか否かを判断する処理と、
前記画像における前記人間の前記座標情報から得られるアスペクト比に基づいて、前記人間が、座っているまたはうずくまっているのか、立っているのかを判断する処理と、
を含み、
前記画像に人間が被写体として含まれている場合、且つ、前記センサが前記人間を障害物として検知していない場合、転倒者が存在していることを示す情報を出力する処理を含む、
ことを特徴とする制御方法。
【請求項6】
請求項1~4の何れか1項に記載の自律移動ロボットを制御する制御プログラムであって、前記コントローラに前記各処理を実行させることを特徴とする制御プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、自律移動ロボットに関する。
【背景技術】
【0002】
医療施設や介護施設などに代表される施設においては、昼間は多くの職員が施設内を行き来しており、施設内で不具合が発生した対象者を職員が迅速に発見することが可能である。一方、夜間は宿直担当職員が一定時間間隔で施設内を定期巡回することにより不具合の発見に努めている。
【0003】
このような状況を補うために、施設内の所定の位置にカメラを設置し、該カメラが撮像した画像(静止画像又は動画像)を職員が待機している居室に転送するシステムが採用されている。
【発明の概要】
【発明が解決しようとする課題】
【0004】
しかしながら、上述したシステムにおいて、カメラの死角に存在する対象者を画像で発見することは困難である。例えば、宿直担当職員の巡回時間間隔が1時間の場合、巡回直後にカメラの死角で転倒したり徘徊している対象者を発見するのは、次の1時間後になってしまう場合がある。
【0005】
かかる状況を改善すべく、施設内を自動巡回する自律移動ロボットを利用することができる。このような自律移動ロボットには、施設内に転倒者がいる場合、これを適切に発見すると共に、転倒者が存在していることを示す情報を出力する(例えば、職員に通知する)ことが要求される。
【0006】
本発明は、上記の問題点に鑑みてなされたものであり、その目的は、測域センサと物体検知カメラとを用いて、転倒者を適切に発見すると共に、転倒者が存在していることを示す情報を出力することが可能な自律移動ロボットを実現することにある。
【課題を解決するための手段】
【0007】
上記の課題を解決するために、本発明の態様1に係る自律移動ロボットは、フロア上を自動巡回する自律移動ロボットであって、前記フロアを撮影するカメラと、前記フロアから特定の高さに存在する障害物を検知するセンサと、前記カメラにより撮影された画像、及び、前記センサの出力信号を参照して、当該自律移動ロボットを制御するコントローラと、を備え、前記コントローラは、人間を障害物として検知しているか否かを判断する処理を実行し、前記画像に人間が被写体として含まれている場合、且つ、前記センサが前記人間を障害物として検知していない場合、転倒者が存在していることを示す情報を出力する処理を実行する、構成である。
【0008】
上記の構成によれば、施設内のフロア上に転倒者が存在しているか否かを適切に判断することができる。そして、転倒者が存在していることを示す情報を適切に出力することができる。
【0009】
本発明の態様2に係る自律移動ロボットは、上記の態様1において、前記画像は、一人以上の人間を被写体として含み、前記コントローラは、前記画像を参照して、前記カメラに最も近い人間の前記画像内の座標情報を特定する処理と、前記座表情報を参照して、前記センサが前記カメラに最も近い人間を検知したか否かを判定する処理と、前記センサが前記カメラに最も近い人間を検知した場合、前記カメラに最も近い人間に追従して当該自律移動ロボットを走行させる処理と、を更に実行する、構成としてもよい。
【0010】
上記の構成によれば、自律移動ロボットは施設内のフロア上を徘徊する対象者に追従して走行することができる。
【0011】
本発明の態様3に係る自律移動ロボットは、上記の態様2において、前記コントローラは、前記判定する処理において、前記センサが前記座標情報が表す位置に人間の脚部に相当する特定のサイズの障害物を検知したときに、前記センサが前記カメラに最も近い人間を検知したと判定する、構成としてもよい。
【0012】
上記の構成によれば、カメラの前に存在する人間が追従対象者であるか否かを判断することができる。
【0013】
本発明の態様4に係る自律移動ロボットは、上記の態様1~3までの何れか1項において、前記コントローラは、前記カメラにより撮影した画像、及び、前記センサの出力信号を取得する少なくとも1つの入力インタフェースと、予め定められたプログラムに従って前記各処理を実行する少なくとも1つのプロセッサと、前記プログラムを格納した少なくとも1つのメモリと、を備えている、構成としてもよい。
【0014】
上記の構成によれば、自律移動ロボットに搭載されたコントローラにより各種処理を実行することができる。
【0015】
本発明の態様5に係る制御方法は、フロア上を自動巡回する自律移動ロボットを制御する制御方法であって、カメラを用いて前記フロアを撮影する工程と、センサを用いて前記フロアから特定の高さに存在する障害物を検知する工程と、前記カメラにより撮影された画像、及び、前記センサの出力信号を参照して、当該自律移動ロボットを制御する工程と、を含み、前記制御する工程は、前記画像に人間が被写体として含まれている場合、且つ、前記センサが前記人間を障害物として検知していない場合、転倒者が存在していることを示す情報を出力する処理を含む、方法である。
【0016】
上記の構成によれば、施設内のフロア上に転倒者が存在しているか否か判断する制御をすることができる。
【0017】
本発明の態様6に係る自律移動ロボットを制御する制御プログラムであって、前記コントローラに前記各処理を実行させることを特徴とする制御プログラムは、上記の態様1~4の何れか1項において、請求項1~4の何れか1項に記載の自律移動ロボットを制御する制御プログラムであって、前記コントローラに前記各処理を実行させる構成としてもよい。
【0018】
上記の構成によれば、前記制御方法と同様の効果を奏する。
【発明の効果】
【0019】
本発明によれば、上記の構成によれば、施設内のフロア上に転倒者が存在しているか否か判断することができるという効果を奏する。
【図面の簡単な説明】
【0020】
図1】本発明の一実施形態に係る自律移動ロボットが備えている主要な構成を模式的に示す概略図である。
図2】本発明の一実施形態に係る自律移動ロボットが施設内を見回っている様子を模式的に示す斜視図である。
図3】本発明の一実施形態に係る自律移動ロボットが備えている第1の制御部の機能ブロック図である。
図4図3に示した第1の制御部が実行する対象者の座標情報を抽出する方法のフローチャートである。
図5図3に示した第1の制御部が実行する対象者の座標情報を抽出する態様を模式的に示す概略図である。
図6】本発明の一実施形態に係る自律移動ロボットが備えている第2の制御部の機能ブロック図である。
図7図6に示した第2の制御部が実行する、フロアから所定の高さに対象者が存在するか否かを判断する方法のフローチャートである。
図8図6に示した第2の制御部が実行する、フロアから所定の高さに対象者が存在するか否かを検知する態様を模式的に示す概略図である。
図9】本発明の一実施形態に係る自律移動ロボットが備えている第3の制御部の機能ブロック図である。
図10図9に示した第3の制御部が実行する自律移動ロボットを駆動させる方法のフローチャートである。
図11】本発明の一実施形態に係る自律移動ロボットが備えている主要なハードウェア構成を模式的に示す概略図である。
【発明を実施するための形態】
【0021】
本発明の一実施形態に係る自律移動ロボット10について、図1図10を参照して説明する。自律移動ロボット10は、医療施設や介護施設などの職員に代わって施設内の見回りを実施する介護医療用の自律移動ロボットであって、徘徊している施設利用者や、動けない状態になっている施設利用者(すなわちフロア上に倒れている施設利用者)を検出可能な自走式の自律移動ロボットである。
【0022】
(自律移動ロボット10の主要構成)
図1は、自律移動ロボット10の主なハードウェア構成を示したブロック図である。図1に示すように、自律移動ロボット10は、少なくとも第1のコントローラ11と、第2のコントローラ12と、第3のコントローラ13と、カメラ14と、測域センサ15と、駆動装置16と、通信インタフェース17とを備えている。別の好ましい実施形態では、第1のコントローラ11と、第2のコントローラ12と、第3のコントローラ13とを一つの制御部として構成することができる。
【0023】
第1のコントローラ11はカメラ14を制御し、第2のコントローラ12は通信インタフェース17および測域センサ15を制御し、第3のコントローラ13は駆動装置16を制御する。第1のコントローラ11による制御結果は、第2のコントローラ12に送信され、第2のコントローラ12による制御結果は第3のコントローラ13に送信される。
【0024】
第2のコントローラ12により、通信インタフェース17は、ビーコン18と無線通信し、ビーコン信号を受信することができる。ビーコン18は、任意のビーコンであってよく、例えばBLE(Bluetooth Low Energy)ビーコンなどが好ましい。更に第2のコントローラ12により、通信インタフェース17は、携帯端末19と無線通信し、自律移動ロボット10の情報を送信することができる。携帯端末19は、携帯電話、スマートフォン、タブレット端末など任意の携帯端末であってよい。
【0025】
(自律移動ロボット10の実装態様)
図2は、本発明の一実施形態に係る自律移動ロボット10が施設内を見回っている様子を模式的に示す斜視図である。図2では、自律移動ロボット10が、フロアF上に倒れている施設利用者Pを検知した様子を模式的に示している。
【0026】
図2に示すように、自律移動ロボット10は、施設のフロアFのうえに載置されている。自律移動ロボット10は、駆動機構16を用いて施設内を自走することができる。
【0027】
図2において、フロアFの表面に沿った平面をxy平面と定め、フロアFの表面の法線方向のうち当該表面から天頂へ向かう方向をz軸正方向と定める。また、図2に示すように、自律移動ロボット10の前進方向をx軸正方向と定める。また、xy平面に含まれる方向のうち、上述したx軸正方向及びz軸正方向とともに右手系の直交座標系を構成する方向をy軸正方向と定める。
【0028】
自律移動ロボット10は、図2に示すように、その上端部が半球状に丸められた略円柱状の形状を有する。自律移動ロボット10の筐体は、カメラ14、測域センサ15および通信インタフェース17を含む入力機構と、駆動装置16を含む出力機構と、これらの入出力機構を制御する制御部とを収容している。
【0029】
なお、図2には、上記の入出力機構のうちカメラ14のみを図示し、それ以外のハードウェアの図示は省略している。また、自律移動ロボット10の筐体の内部構造についても、その図示を省略している。上記入出力機構以外に、例えばカメラ14の隣に赤外線ランプなどを搭載することもできる。この赤外線ランプを点灯させ、カメラ14に赤外線領域まで撮像できるカメラを用いて、低照度下でも人間を撮影することもできる。
【0030】
カメラ14および測域センサ15は、図2に例示した自律移動ロボット10の筐体の表面に露出した様態で配置されている。カメラ14および測域センサ15は、自律移動ロボット10の筐体の表面の任意の場所に配置されることができるが、自律移動ロボット10の前進方向正面に配置されていることが好ましい。
【0031】
(オブジェクト判定)
図3は、本発明の一実施形態に係る自律移動ロボット10が備えている第1のコントローラ11の主要な構成を示す機能ブロック図である。図4は、図3に示した第1の制御部が実行するオブジェクトの座標情報142を抽出する方法のフローチャートである。
【0032】
図3に示すように、第1のコントローラ11は、少なくとも第1の入力部111と、オブジェクト検出部112と、第1の判定部113と、第1の抽出部114と、第1の出力部115とを備えている。
【0033】
自律移動ロボット10は、巡回走行しながら、第1のコントローラ11により、上述のカメラ14にて施設内を撮影する(S111)。第1の入力部111は、上述のカメラ14にて撮影された画像情報141を受信する。オブジェクト検出部112は、当該受信した画像情報141からオブジェクトを検出する(S112)。具体的には、オブジェクト検出では、画像情報141に含まれている被写体を検出する。
【0034】
第1の判定部113では、検出された被写体に人間が含まれているか否か判定する(S113)。第1の判定部113による被写体の種類判定処理についての具体的手法は本実施形態を限定するものではなく、例えば以下のような機械学習的手法の何れかまたはそれらの組み合わせを用いることができる。
【0035】
・サポートベクターマシン(SVM: Support Vector Machine)
・クラスタリング(Clustering)
・帰納論理プログラミング(ILP: Inductive Logic Programming)
・遺伝的アルゴリズム(GP: Genetic Programming)
・ベイジアンネットワーク(BN: Bayesian Network)
・ニューラルネットワーク(NN: Neural Network)
ニューラルネットワークを用いる場合、入力される画像情報141をニューラルネットワークへのインプット用に予め加工して用いるとよい。このような加工には、データの1次元的配列化、または多次元的配列化に加え、例えば、データオーギュメンテーション(Data Augmentation)等の手法を用いることができる。
【0036】
また、ニューラルネットワークを用いる場合、畳み込み処理を含む畳み込みニューラルネットワーク(CNN: Convolutional Neural Network)を用いてもよいし、再帰的処理を含むリカレントニューラルネットワーク(RNN: Recurrent Neural Network)を用いてもよい。CNNを用いる場合、より具体的には、ニューラルネットワークに含まれる1又は複数の層(レイヤ)として、畳み込み演算を行う畳み込み層を設け、当該層に入力される入力データに対してフィルタ演算(積和演算)を行う構成としてもよい。またフィルタ演算を行う際には、パディング等の処理を併用したり、適宜設定されたストライド幅を採用したりしてもよい。
【0037】
また、ニューラルネットワークとして、数十~数千層に至る多層型又は超多層型のニューラルネットワークを用いてもよい。
【0038】
また、第1の判定部113による被写体の種類判定処理に用いられる機械学習は、教師あり学習であってもよいし、教師なし学習であってもよい。
【0039】
上記被写体の種類判定処理に用いられるプログラムおよび/またはデータは、自律移動ロボット10内の記憶部(図示せず)に格納されることが好ましいが、外部の記憶手段に格納されてもよい。
【0040】
(オブジェクト座標抽出)
第1の判定部113による被写体の種類判定処理により、画像情報141に一人以上の人間が含まれていると判断された場合(S113でYES)、第1の抽出部114は、カメラ14に最も近い人間の画像情報141中の座標を抽出する(S114)。画像情報141に人間が含まれていると判断されなかった場合(S113でNO)、引き続きカメラ14による撮影を継続する(S111)。画像情報141の取得の周期は任意に設定することができるが、100ms~200msのリフレッシュレートで画像情報141を取得することが好ましい。
【0041】
図5は、図3に示した第1の制御部が実行するオブジェクトの座標情報142を抽出する態様を模式的に示す概略図である(図5は模式的に示した概念図であり、3次元図ではない)。図5の下部に示した自律移動ロボット10は頂部から見た平面図として示してあり、自律移動ロボット10に搭載されたカメラ14により撮影された画像情報141は正面図として示した模式図である。自律移動ロボット10に搭載されたカメラ14により撮影された画像情報141は、2次元座標(x,y)により特定することができる。オブジェクトとしてカメラ14に最も近い人間の2次元座標を抽出し(S114)、当該座標情報142を第2のコントローラ12に出力する(S115)。第2のコントローラ12に出力する座標情報142は、オブジェクトとしてカメラ14に最も近い人間の2次元座標のうち、x軸方向の座標情報142だけであってもよい。
【0042】
(障害物検知)
自律移動ロボット10は、巡回走行しながら、測域センサ15によって施設内の障害物を検知する。測域センサ15は、自律移動ロボット10の筐体の表面の任意の場所に配置されることができるが、フロアFから高さ35cm程度の水平面を測定できるように配置されることが好ましい。小学生などの子ども専用の施設であれば、フロアFから高さ30cm程度の水平面を測定できるように配置されることが好ましい。測域センサ15は、例えば、北陽電機株式会社製のUST-10LXのようなレーザ方式の測域センサを採用することができる。
【0043】
測域センサ15により施設内の障害物を検知した様子を図8に模式的に示す。図8は、z軸正方向からフロアF面を臨む平面図である。フロアF表面からz軸方向+35cmの高さであって、自律移動ロボット10の筐体に搭載された測域センサ15の位置を原点とし、自律移動ロボット10の前進方向をx軸とした。図8において、障害物は小さな丸印によって表示されている。好ましい実施形態では、図8に示すように、測域センサ15は走査角度±115°で障害物を検知する。また、0.06m~10m程度の検出距離であることが好ましい。走査時間は25msであることが好ましい。角度分解能は0.25度程度が好ましい。これらの値に限定されることなく、測域センサ15は、任意の検出距離、走査角度、走査時間、角度分解能を有することができる。
【0044】
(オブジェクトとの相対距離判断)
図6は、本発明の一実施形態に係る自律移動ロボット10が備えている第2のコントローラ12の機能ブロック図である。図7は、図6に示した第2のコントローラ12が実行する、フロアF表面からz軸方向へ所定の高さに対象者Pが存在するか否かを判断する方法のフローチャートである。
【0045】
図6に示すように、第2のコントローラ12は、少なくとも第2の入力部121と、第2の判定部123と、変換部125と、第2の抽出部126と、第2の出力部129とを備えている。第2の入力部121は、少なくとも第1の出力部115と、測域センサ15と、ビーコン18とからの出力情報を受信する。
【0046】
上述したとおり、オブジェクトが人間である場合、当該オブジェクトの座標情報142が第1の出力部115から出力された場合(S115)、第2の入力部121は当該座標情報142を受信する。当該オブジェクトに相当する人間が、施設の職員である場合、当該職員はビーコン18を所持しており、当該ビーコン18はビーコン信号を発信している。
【0047】
第2の入力部121は、所定の距離内に存在する当該ビーコン信号を受信する。第2の入力部121が、座標情報142を受信し、且つ、ビーコン信号も受信している場合、第2の判定部123は、当該オブジェクトに相当する人間が施設の職員であると判断する(S121でNO)。第2の入力部121が座標情報142を受信していない場合(S121でNO)、座標情報142を受信するまで、S121のステップを繰り返す。一方、第2の入力部121が、座標情報142を受信し、且つ、ビーコン信号を受信していない場合、第2の判定部123は、オブジェクトに相当する人間が施設の職員でないと判断する(S121でYES)。
【0048】
第2の判定部123により、オブジェクトに相当する人間が施設の職員でないと判断された場合(S121でYES)、第2のコントローラ12は、測域センサ15から測域データ144を取得する(S124)。変換部125は、図5に示すように、座標情報142を自律移動ロボット10の座標系の方向角情報に変換する(S125)。本実施形態では、自律移動ロボット10の座標系とは、xy平面において自律移動ロボット10の筐体に搭載された測域センサ15の位置を原点とした極座標系であることが好ましい。具体的には、座標情報142のx軸方向の最大値と最小値を、自律移動ロボット10の座標系の方向角152aと152bとに変換する。したがって、自律移動ロボット10の座標系にてオブジェクトに相当する人間が存する挟角は方向角152aと方向角152bとの間の挟角となる。
【0049】
次いで、第2の抽出部126は、方向角152aと方向角152bとの間の挟角において、測域センサ15による測域データ144から最近位点を抽出する(S126)。本実施形態では、方向角152aと方向角152bとの間の挟角において、予め定められた特定の範囲に含まれる幅を有する障害物として検知される対象の最近位点を抽出する。上記特定の範囲は任意に設定することができるが、好ましい実施形態では10cm~15cm程度と設定することができる。障害物として検知される人間がフロアF上に立っている場合、フロアFからz軸方向に35cm程度の位置では、当該人間の脚が障害物として検知される。上記特定の範囲を10cm~15cm程度と設定することにより、当該障害物は人間の脚であると判断することができるからである。図5では、最近位点を人間の脚の位置145として抽出した様子を示す。
【0050】
なお、上記特定の範囲(例えば、10cm~15cm)の上限値(例えば、15cm)を超える幅を有する障害物を検知対象に加えてもよい。これにより、フロアF上に立っている人間だけでなく、フロアF上に座っている、又は、うずくまっている対象者Pを検知することが可能になる。
【0051】
好ましい実施形態では、上記障害物の検知に加え、画像情報141におけるオブジェクトの座標情報142のアスペクト比(xとyとの比)が略1:1、ないし、x>yであれば人間が座っている、もしくは、うずくまっていると判断することもできる。一方、オブジェクトの座標情報142のアスペクト比(xとyとの比)が図5に示した例のようにx<yであれば人間が立っていると判断することもできる。
【0052】
図5の人間の脚の位置145のような最近位点が抽出できなかった場合(S127でNO)、第2の出力部129は、転倒者情報を出力する(S128)。オブジェクトとしてカメラ14に最も近い人間の2次元座標が抽出されており、且つ、ビーコン信号が受信されていない場合であるため、職員以外の人間が自律移動ロボット10の進行方向に存在している。ただし、フロアFから高さ35cm程度の位置には当該人間が検出できないことから、当該人間はフロアF上に転倒していることが想定される。
【0053】
図5の人間の脚の位置145のような最近位点が抽出できた場合(S127でYES)、第2の抽出部126は追従目標位置情報を生成し、第2の出力部129は当該追従目標位置情報を第3の制御部に出力する(S129)。例えば、図5の人間の脚の位置145のような最近位点が抽出できた場合、測域センサ15から当該最近位点までの最短距離を示すライン153による距離rと角度θを追従目標位置情報(r,θ)とすることができる。当該追従目標位置情報(r,θ)は、自律移動ロボット10を基準とした相対的な位置情報であり、絶対座標ではないことが好ましい。rは5m以内であることが好ましい。追従目標位置情報の特定は極座標に限定されず、通常のxy直交座標系によって特定することも可能である。
【0054】
別の好ましい実施形態では、通信インタフェース17は、第2の出力部129から出力された転倒者情報(S128)を、宿直担当者の携帯端末19に送信する。更に別の好ましい実施形態では、測域センサ15及び/又はカメラ14からの情報に基づいて、人間が座っている、もしくは、うずくまっていると判断した場合、通信インタフェース17は、人間が座っている、もしくは、うずくまっている情報を、宿直担当者の携帯端末19に送信する。
【0055】
更に別の好ましい実施形態では、第2の出力部129が追従目標位置情報を第3の制御部に出力する場合、通信インタフェース17は、自律移動ロボット10の現在位置情報を宿直担当者の携帯端末19に送信する。
【0056】
(徘徊者追従)
図9は、本発明の一実施形態に係る自律移動ロボット10が備えている第3のコントローラ13の機能ブロック図である。図10は、図9に示した第3のコントローラ13が実行する自律移動ロボット10を駆動する方法のフローチャートである。
【0057】
図9に示すように、第3のコントローラ13は、少なくとも第3の入力部131と、第3の判定部132と、第3の出力部133とを備えている。第3の入力部131は、少なくとも第2の出力部129からの出力情報を受信する。
【0058】
上述したとおり、第2の出力部129は追従目標位置情報を出力し(S129)、第3の入力部131は、当該追従目標位置情報を受信する。
【0059】
第3の判定部132は、人追従モードか否か判定する(S131)。好ましい実施形態では、自律移動ロボット10が対象者Pに追従して移動するか、追従することなく従来通り巡回移動するか、事前に設定しておくことができる。第3の判定部132は、当該設定情報を参照して、人追従モードか否か判定する(S131)。当該事前に設定した情報は、自律移動ロボット10内の記憶部(図示せず)に格納されることが好ましいが、外部の記憶手段に格納されてもよい。
【0060】
別の好ましい実施形態では、通信インタフェース17が、自律移動ロボット10の現在位置情報を宿直担当者の携帯端末19に送信する際に、人追従モードを実行するか否かの問い合わせ情報を併せて携帯端末19に送信する。宿直担当者は当該問い合わせ情報に応じて、人追従モードを指定することができる。
【0061】
人追従モードに設定されていない場合(S131でNO)、人追従モードに設定されるまで、従来通り巡回移動する。人追従モードに設定されている場合(S131でYES)、第3の判定部132は、第3の入力部131を介して追従目標位置情報が受信されているか否か判断する(S132)。第3の入力部131が追従目標位置情報を受信していない場合(S132でNO)、追従目標位置情報を受信するまで従来通り巡回移動する。
【0062】
第3の入力部131が追従目標位置情報を受信している場合(S132でYES)、第3の出力部133は、追従移動情報を駆動装置16に出力する(S133)。駆動装置16は、ステアリング装置とモータとを包含する構成であることが好ましい。本実施形態では、左右独立二輪駆動方式を採用することができ、2つのモータで左右独立に駆動制御することができる。
【0063】
好ましい実施形態では、追従移動情報は、追従目標位置情報に基づいて生成される。追従の対象者は、徘徊している可能性が高く、移動方向及び/又は移動速度が一定ではない。追従移動情報は、追従目標位置情報に基づいて当該追随の対象者と一定の距離を保ちつつ自律移動ロボット10が追従することができる進行方向情報とモータ回転情報とからなる。
【0064】
(コントローラのハードウェア構成)
図11は、本発明の一実施形態に係る自律移動ロボット10が備えている主要なハードウェア構成を模式的に示す概略図である。図11に示すように、自律移動ロボット10は、少なくとも1つのコントローラ130を有する。コントローラ130は、図1の第1のコントローラ11乃至第3のコントローラ13に相当するハードウェア構成である。例えば、カメラ14に関する情報を処理する第1のコントローラ130aと、測域センサ15および通信インタフェース17に関する情報を処理する第2のコントローラ130bと、駆動装置16に関する情報を処理する第3のコントローラ130cとのように複数の制御部に制御を分担させる構成としてもよい。
【0065】
コントローラ130は、少なくとも入力インタフェース137、出力インタフェース138、プロセッサ135、メモリ136を備える。
【0066】
入力インタフェース137から入力された情報の処理を実施するアルゴリズムを実行するプログラムは、メモリ136に格納される。当該メモリ136に格納されたプログラムをプロセッサ135にて実行することにより、入力された情報を処理することができる。当該処理された情報は出力情報として出力インタフェース138から出力される。出力インタフェース138から出力された情報により、駆動装置16、通信インタフェース17を制御することができる。
【0067】
好ましい実施形態では、カメラ14に関する情報を処理する第1のコントローラ130aは、人間を障害物として検知しているか否かを判断する処理を実行する。第1のコントローラ130aは、入力インタフェース137を介してカメラ14から画像情報141を取得し、当該判断結果を、出力インタフェース138を介して第2のコントローラ130bに供給する。画像に人間が被写体として含まれている場合、且つ、測域センサ15が人間を障害物として検知していない場合、第2のコントローラ130bは、転倒者が存在していることを示す情報を出力する処理を実行する。
【0068】
具体的には、カメラ14によって撮像された画像情報141が、一人以上の人間を被写体として含んでいる場合、第1のコントローラ130aは、当該画像情報141を参照して、カメラ14に最も近い人間の画像情報141内の座標情報142を特定する処理と、当該座表情報142を参照して、測域センサ15がカメラ14に最も近い人間を検知したか否かを判定する処理とを実行する。
【0069】
例えば、第2のコントローラ130bは、判定する処理において、測域センサ15が、座標情報142が表す位置に人間の脚部に相当する特定のサイズの障害物を検知したときに、測域センサ15がカメラ14に最も近い人間を検知したと判定する。
【0070】
測域センサ15がカメラ14に最も近い人間を検知した場合、第2のコントローラ130bは、出力インタフェース138を介して追従対象者が存在していることを示す情報を出力する処理を実行する。第3のコントローラ130cは入力インタフェース137を介して当該出力された情報を取得する。当該出力された情報に基づいて、第3のコントローラ130cは、カメラ14に最も近い人間に追従して当該自律移動ロボットを走行させる処理を実行する。
【0071】
〔ソフトウェアによる実現例〕
自律移動ロボット10の第1のコントローラ11(特に、オブジェクト検出部112、第1の判定部113、第1の抽出部114)、第2のコントローラ12(特に、第2の判定部123、変換部125、第2の抽出部126)、および、第3のコントローラ13(特に、第3の判定部132)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、ソフトウェアによって実現してもよい。
【0072】
後者の場合、自律移動ロボット10は、各機能を実現するソフトウェアであるプログラムの命令を実行するコンピュータを備えている。このコンピュータは、例えば1つ以上のプロセッサを備えていると共に、上記プログラムを記憶したコンピュータ読み取り可能な記録媒体を備えている。そして、上記コンピュータにおいて、上記プロセッサが上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記プロセッサとしては、例えばCPU(Central Processing Unit)を用いることができる。上記記録媒体としては、「一時的でない有形の媒体」、例えば、ROM(Read Only Memory)等の他、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムを展開するRAM(Random Access Memory)などをさらに備えていてもよい。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明の一態様は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
【0073】
本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。
【符号の説明】
【0074】
10 自律移動ロボット
130 コントローラ
11、130a 第1のコントローラ
12、130b 第2のコントローラ
13、130c 第3のコントローラ
14 カメラ
15 測域センサ
16 駆動機構
17 通信インタフェース
18 ビーコン
19 携帯端末
111 第1の入力部
112 オブジェクト検出部
113 第1の判定部
138 出力インタフェース
114 第1の抽出部
115 第1の出力部
121 第2の入力部
123 第2の判定部
125 変換部
126 第2の抽出部
129 第2の出力部
131 第3の入力部
132 第3の判定部
133 第3の出力部
137 入力インタフェース
135 プロセッサ
136 メモリ
141 画像情報
142 座標情報
145 人間の脚の位置
152a、152b 方向角
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11