(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024022506
(43)【公開日】2024-02-16
(54)【発明の名称】トレッドミル及びその速度制御方法
(51)【国際特許分類】
A63B 22/02 20060101AFI20240208BHJP
A63B 24/00 20060101ALI20240208BHJP
【FI】
A63B22/02
A63B24/00
【審査請求】有
【請求項の数】10
【出願形態】OL
【外国語出願】
(21)【出願番号】P 2023119175
(22)【出願日】2023-07-21
(31)【優先権主張番号】111129282
(32)【優先日】2022-08-04
(33)【優先権主張国・地域又は機関】TW
(71)【出願人】
【識別番号】508226687
【氏名又は名称】和碩聯合科技股▲ふん▼有限公司
【氏名又は名称原語表記】PEGATRON CORPORATION
【住所又は居所原語表記】5F.,No.76,Ligong St., Beitou Dist., Taipei City 112, Taiwan
(74)【代理人】
【識別番号】110002952
【氏名又は名称】弁理士法人鷲田国際特許事務所
(72)【発明者】
【氏名】林子皓
(57)【要約】 (修正有)
【課題】トレッドミル及びその速度制御方法を提供する。
【解決手段】トレッドミルは、トレッドミル本体と、イベントベースビジョンセンサと、プロセッサとを含む。トレッドミル本体はランニングベルトを含む。イベントベースビジョンセンサはトレッドミル本体に設けられ、感知画像を生成する。プロセッサはイベントベースビジョンセンサに結合され、感知画像を取得し、感知画像上でランナー検出を実行する。感知画像からランナーが検出されたと判定したことに応じて、プロセッサは感知画像を深度推定モデルに入力してランニングベルトに対するランナーの位置情報を取得し、ランナーの位置情報に基づいてランニングベルトのランニング速度を制御する。
【選択図】
図2
【特許請求の範囲】
【請求項1】
ランニングベルトを含むトレッドミル本体と、
前記トレッドミル本体に設けられて感知画像を生成するイベントベースビジョンセンサと、
前記イベントベースビジョンセンサに結合されて、前記感知画像上でランナー検出を実行するプロセッサと
を含み、
前記感知画像からランナーが検出されたことに応じて、前記プロセッサは前記感知画像を深度推定モデルに入力して前記ランニングベルトに対する前記ランナーの位置情報を取得し、前記ランナーの前記位置情報に基づいて前記ランニングベルトのランニング速度を制御する、
トレッドミル。
【請求項2】
前記プロセッサは、前記感知画像上で人物検出を実行して前記感知画像上の人物バウンディングボックスを取得し、前記人物バウンディングボックスが前記感知画像上の所定領域内に位置するか否かに基づいて、前記ランナーが検出されたか否かを判定する、
請求項1に記載のトレッドミル。
【請求項3】
前記人物バウンディングボックスが前記感知画像上の前記所定領域に位置していない場合、前記プロセッサは前記ランナーが検出されなかったと判定し、
前記人物バウンディングボックスが前記感知画像上の前記所定領域に位置している場合、前記プロセッサは前記ランナーが検出されたと判定する、
請求項2に記載のトレッドミル。
【請求項4】
前記感知画像から前記ランナーが検出されたことに応じて、前記プロセッサは前記感知画像を前記深度推定モデルに入力して前記深度推定モデルにより出力された深度マップを取得し、前記深度マップに基づいて前記ランナーと基準位置との間の第1の距離を判定する、
請求項1に記載のトレッドミル。
【請求項5】
前記第1の距離が第1の閾値よりも大きい場合、前記プロセッサは前記ランニングベルトの前記ランニング速度を低下させるよう制御し、
前記第1の距離が前記第1の閾値よりも大きくない場合、前記プロセッサは前記ランニングベルトの前記ランニング速度を維持する、
請求項4に記載のトレッドミル。
【請求項6】
前記感知画像から前記ランナーが検出されたと判定したことに応じて、前記プロセッサは、前記感知画像の背景領域における移動物体を検出するため、前記背景領域上でモーション検出を実行する、
請求項1に記載のトレッドミル。
【請求項7】
前記移動物体の検出に応じて、前記プロセッサは、前記移動物体の位置情報に基づいて前記ランニングベルトの前記ランニング速度を制御するため、前記感知画像を前記深度推定モデルに入力して前記移動物体の前記位置情報を取得する、
請求項6に記載のトレッドミル。
【請求項8】
前記移動物体の検出に応じて、前記プロセッサは、前記感知画像を前記深度推定モデルに入力して前記深度推定モデルにより出力された深度マップを取得し、前記深度マップに基づいて、前記移動物体と基準位置との間の第2の距離を判定する、
請求項7に記載のトレッドミル。
【請求項9】
前記第2の距離が第2の閾値未満である場合、前記プロセッサは前記ランニングベルトの前記ランニング速度を低下させるよう制御し、
前記第2の距離が前記第2の閾値未満ではない場合、前記プロセッサは前記ランニングベルトの前記ランニング速度を維持する、
請求項8に記載のトレッドミル。
【請求項10】
トレッドミルの速度制御方法であって、
前記トレッドミルに設けられたイベントベースビジョンセンサを通じて感知画像を生成することと、
前記感知画像上でランナー検出を実行することと、
前記感知画像からランナーが検出されたと判定したことに応じて、前記感知画像を深度推定モデルに入力して前記トレッドミルのランニングベルトに対するランナーの位置情報を取得することと、
前記ランナーの前記位置情報に基づいて前記ランニングベルトのランニング速度を制御することと
を含む、
トレッドミルの速度制御方法。
【発明の詳細な説明】
【技術分野】
【0001】
本発明はスポーツ器具の一種に関するものであり、特に、トレッドミル及びその速度制御方法に関するものである。
【背景技術】
【0002】
現代人はエクササイズの重要性にますます注目しており、トレッドミルは非常に一般的で普及しているスポーツ器具である。使用者は、トレッドミルのランニングベルト上で早歩きしたり走ったりしてエクササイズを行うことができる。ただし、使用者のペースがトレッドミルに追いつけない場合、または異物(ペット、子供、水筒、他のスポーツ器具等)がトレッドミ付近に存在する場合、このような状況は使用者が転倒したり、子供やペットがトレッドミルの底部に引き込まれたり、無視できない危害が生じる可能性がある。
【発明の概要】
【発明が解決しようとする課題】
【0003】
現在、既存のトレッドミルの事故防止策は安全キーを取り付けることである。安全キーの一端はトレッドミルに挿入され、安全キーの他端は使用者に取り付けられる。トレッドミル上の使用者が転倒すると安全キーが外れ、更なる危害を避けるためにトレッドミルの動作が停止する。しかし、安全キーを使用者に取り付ける必要があり、使用者の体の揺れや手の振りにより誤って安全キーが抜けてしまう可能性があるため、この策は使用者に歓迎されない。加えて、安全キーは異物が作動中のトレッドミル付近に存在するか検知することができない。
【課題を解決するための手段】
【0004】
上記を鑑み、本発明は、トレッドミルの使用安全性を向上させるため、トレッドミル上のランナーの位置情報に応じてトレッドミルの速度を自動的に制御することのできるトレッドミル及びその速度制御方法を提供する。
【0005】
本発明の1つの実施形態は、トレッドミル本体と、イベントベースビジョンセンサと、プロセッサとを含むトレッドミルを提供する。トレッドミル本体はランニングベルトを含む。イベントベースビジョンセンサはトレッドミル本体に設けられ、感知画像を生成する。プロセッサはイベントベースビジョンセンサに結合され、感知画像を取得し、感知画像上でランナー検出を実行する。感知画像からランナーが検出されたと判定したことに応じて、プロセッサは感知画像を深度推定モデルに入力し、ランニングベルトに対するランナーの位置情報を取得し、ランナーの位置情報に基づいてランニングベルトのランニング速度を制御する。
【0006】
本発明の1つの実施形態はトレッドミルの速度制御方法を提供し、該方法は下記ステップを含む。トレッドミルに設けられたイベントベースビジョンセンサを通じて感知画像が生成される。感知画像上でランナー検出を実行する。感知画像からランナーが検出されたと判定したことに応じて、感知画像が深度推定モデルに入力され、ランニングベルトに対するランナーの位置情報が取得される。ランナーの位置情報に基づいてランニングベルトのランニング速度が制御される。
【発明の効果】
【0007】
本発明の実施形態において、撮像動作を実行するためイベントベースビジョンセンサがトレッドミル本体に設けられ、感知画像が生成される。感知画像からランナーが識別されたとき、ランニングベルトに対するランナーの位置情報を推定するために感知画像と深度推定モデルが用いられ、ランナーの位置情報に基づいてランニングベルトのランニング速度を下げるか否かを判定する。これに基づき、使用者が事故に遭いそうなとき、トレッドミルは事前に対処動作を実行するか警告を発することができ、これによりトレッドミルの使用安全性を向上させる。
【図面の簡単な説明】
【0008】
【
図1】本発明の1つの実施形態によるトレッドミルの概略図である。
【
図2】本発明の1つの実施形態によるトレッドミルの速度制御方法のフロー図である。
【
図3】本発明の1つの実施形態によるランナー検出のフロー図である。
【
図4A】本発明の1つの実施形態によるランナー識別のフロー図である。
【
図4B】本発明の1つの実施形態によるランナー識別のフロー図である。
【
図5】本発明の1つの実施形態によるトレッドミルの速度制御方法のフロー図である。
【
図6】本発明の1つの実施形態による深度推定マップの生成の概略図である。
【
図7】本発明の1つの実施形態による背景領域上でのモーション検出実行の概略図である。
【発明を実施するための形態】
【0009】
本発明のいくつかの実施形態を図面と併せて以下に詳細に説明する。以下の説明で使用される符号は、異なる図面に同じ符号が出現する場合には、同一又は類似の要素と見なされる。これら実施形態は本発明の一部にすぎず、本発明の全ての可能な実装を開示するものではない。より正確には、実施形態は本発明の特許請求の範囲における方法及び装置の例にすぎない。
【0010】
図1は、本発明の1つの実施形態によるトレッドミルの概略図である。
図1を参照し、トレッドミル100は、トレッドミル本体110と、イベントベースビジョンセンサ120と、プロセッサ130とを含む。イベントベースビジョンセンサ120とプロセッサ130はトレッドミル本体110に設けられ、プロセッサ130はイベントベースビジョンセンサ120に結合される。
【0011】
トレッドミル本体110は、ベース111と、ランニングベルト112と、入力装置113と、コンソール114と、モニタ115とを含んでよい。ベース111はランニングベルト112と共に提供される。トレッドミル100が動作中であるとき、ベース111上のランニングベルト112はモータにより駆動されることで動く。ランニングベルト112はランナーが乗るためのものであり、ランナーの足はランニングベルト112に沿って繰り返し踏み出される。モニタ115と入力装置113はコンソール114に設けられる。ランナーは、ランニングベルト112のランニング速度を制御するため、入力装置113を通じて設定速度を入力する。入力装置113は、例えば、キー又はボタンを含む制御パネルであるが、本発明において限定されない。
【0012】
イベントベースビジョンセンサ120は、例えば、動的視覚センサ(DVS)又は動的アクティブ画素視覚センサ(DAVIS)である。イベントベースビジョンセンサ120の撮影方向は、ランナーのランニング方向とは逆であり、トレッドミル100を使用しているランナーに向かって感知画像を撮像する。いくつかの実施形態において、イベントベースビジョンセンサ120はコンソール114に設けられてよい。イベントベースビジョンセンサ120は、撮影シーンにおける光強度の変化を感知して感知画像を生成するよう構成されてよい。換言すれば、イベントベースビジョンセンサ120により生成された感知画像における各画素は、光強度の変化を表す。イベントベースビジョンセンサ120は、低データ量、高速反応時間、低電力消費の特長を有し、使用者のプライバシーを保護することができる。
【0013】
プロセッサ130は、トレッドミル100の様々なコンポーネントの動作を制御するよう構成されてよく、例えば、中央処理装置(CPU)、又は他のプログラム可能な汎用又は特定用途向けマイクロプロセッサ、デジタルシグナルプロセッサ(DSP)、プログラマブルコントローラ、特定用途向け集積回路(ASIC)、プログラマブルロジックデバイス(PLD)、又は類似の要素、又は前記要素の組合せであってよい。
【0014】
本実施形態において、イベントベースビジョンセンサ120は、トレッドミル100のランニングベルト112が動いているときに複数の感知画像を継続して生成してよい。プロセッサ130は、事故発生を防止するため、感知画像に基づいてトレッドミル100の動作モード又は動作環境における異常が発生したか否かを検出する。事故には、ランナーの落下や、異物がトレッドミル100の底部内に引き込まれることなどを含む。このようにして、トレッドミル100の使用上の事故が起こる前に、事故の発生を防止する又は事故による怪我を軽減させるため、プロセッサ130はランニング速度を下げるようランニングベルト112を制御してよい。
【0015】
詳細には、
図2は、本発明の1つの実施形態によるトレッドミルの速度制御方法のフロー図である。
図1と
図2を同時に参照し、本実施形態の方法は上述したトレッドミル100に適合されている。本実施形態におけるトレッドミルの速度制御方法の詳細なステップを、トレッドミル100の様々な要素と共に以下に説明する。
【0016】
ステップS210にて、トレッドミル100に設けられたイベントベースビジョンセンサ120を通じて感知画像が生成される。上述したように、イベントベースビジョンセンサ120は継続的に感知を行って、異なる感知時点に対応する複数の感知画像を生成してよい。ランナーがトレッドミル100上で運動している場合、イベントベースビジョンセンサ120はランナーを含む感知画像を撮像することが分かる。加えて、本発明の実施形態は、感知画像の画像解像度を限定せず、実際の応用に応じて決定されてよい。また、いくつかの実施形態において、イベントベースビジョンセンサ120は動的視覚センサ(DVS)であってよく、感知画像はDVS画像である。
【0017】
ステップS220にて、プロセッサ130は感知画像上でランナー検出を行う。つまり、プロセッサ130は、感知画像上でランナー検出を行うことにより、ランナーがトレッドミル100上で運動しているか否かを判定してよい。加えて、いくつかの実施形態において、プロセッサ130は更に、赤外線感知技術や重量感知技術といった他の感知技術に支援されて、ランナーがトレッドミル100上で運動しているか否かを判定してよい。
【0018】
詳細には、本発明の1つの実施形態によるランナー検出のフロー図である
図3を参照されたい。
図2に示すステップS220は、ステップS221~S224として実施されてよい。ステップS221にて、プロセッサ130は、感知画像上で人物検出を行って、感知画像上の人物バウンディングボックスを取得する。いくつかの実施形態において、プロセッサ130は、人物検出のため、感知画像を訓練済み深層学習モデルに入力してよい。深層学習モデルは、例えば、畳み込みニューラルネットワーク(CNN)モデルであり、これは人物検出のために感知画像から特徴をキャプチャすることができる。例えば、プロセッサ130は、感知画像上の人物検出のためYOLOアルゴリズムに基づいて深層学習モデルを適用してよいが、本発明はこれに限定されない。深層学習モデルが人物を検出した場合、深層学習モデルは人物の位置を標識付けするため矩形の人物バウンディングボックスを用い、プロセッサ130は深層学習モデルの出力に基づいて感知画像における人物バウンディングボックスを取得することができる。例えば、深層学習モデルは人物バウンディングボックスの頂点座標、ボックス長、及びボックス幅を出力してよい。
【0019】
ステップS222にて、プロセッサ130は、人物バウンディングボックスが感知画像上の所定領域内に位置するか否かに基づいて、ランナーが検出されたか否かを判定する。上述した所定領域は、例えば、感知画像の中央領域である。ただし、所定領域のサイズ及び位置は、イベントベースビジョンセンサ120が設けられる位置に応じて設計されてよい。人物バウンディングボックスが感知画像上の所定領域内に位置するか否かを判定することにより、プロセッサ130は人物バウンディングボックスにより標識付けられた人物がトレッドミル100上のランナーであるか否かを特定することができる。
【0020】
人物バウンディングボックスが感知画像上の所定領域内に位置している場合(ステップS222における判定がYES)、ステップS223にて、プロセッサ130はランナーが検出されたと判定する。逆に、人物バウンディングボックスが感知画像上の所定領域内に位置していない場合(ステップS222における判定がNO)、ステップS224にて、プロセッサ130はランナーが検出されていないと判定する。
【0021】
例えば、
図4Aと
図4Bは、本発明の1つの実施形態によるランナー識別の概略図である。本実施形態において、所定領域は感知画像の中央領域であると仮定する。
図4Aを参照し、プロセッサ130は人物バウンディングボックスB1が感知画像Img_1上の中央領域Z1内に位置していないと判定し、プロセッサ130はランナーが検出されていないと判定する。逆に、
図4Bを参照し、プロセッサ130は人物バウンディングボックスB1が感知画像Img_1上の中央領域Z1内に位置すると判定し、プロセッサ130はランナーが検出されたと判定する。
【0022】
再び
図2を参照し、ステップS230にて、感知画像からランナーが検出されたと判定したことに応じて、プロセッサ130は感知画像を深層学習モデルに入力して、ランニングベルト112に対するランナーの位置情報を取得する。具体的には、ランナーがトレッドミル100上で運動しているか否かを判定する際に、プロセッサ130はランナーの深度情報を取得するために感知画像を深度推定モデルに入力し、これによりランニングベルト112上のランナーの位置情報を取得する。深度推定モデルは、単眼深度推定(Monodepth)アルゴリズムを応用した深層学習モデルであってよい。いくつかの実施形態において、深度推定モデルは、モデル訓練のため、DVS画像を訓練データとして用いてよい。加えて、深度推定モデルにより生成されたランナーの深度情報は、ランナーとイベントベースビジョンセンサ120との間の深度情報である。いくつかの実施形態において、イベントベースビジョンセンサ120の設置位置に基づいて、プロセッサ130は深度推定モデルにより生成された深度情報に基づきランニングベルト112上のランナーの位置情報を取得してよい。例えば、イベントベースビジョンセンサ120とコンソール114のコンポーネントとの間の相対位置関係に基づき、ランナーの位置情報は、ランナーとコンソール114の該コンポーネントとの間の距離であってよい。
【0023】
ステップS240にて、プロセッサ130は、ランナーの位置情報に基づいて、ランニングベルト112の速度を制御する。具体的には、プロセッサ130がランナーの位置情報に基づいて、ランナーがコンソール114から離れすぎている、又はランニングベルト112の末端領域に位置していることを発見したとき、ランナーがランニングベルト112のランニング速度についていくことができないことを意味する。よって、プロセッサ130はランニングベルト112のランニング速度を自動的に下げてよい。いくつかの実施形態において、プロセッサ130はランニングベルト112のランニング速度を漸減させてよい。加えて、いくつかの実施形態において、プロセッサ130は、ランナーの位置情報に基づいて警告を更に提供してよく、上述した警告は、例えば、光による警告や音声による警告等である。このようにして、プロセッサ130は、ランナーの運動状態をリアルタイムで監視し、ランナーがランニングベルト112のランニング速度についていくことができずに転倒することを防止するため、対応してランニングベルト112のランニング速度を制御するか警告を提供してよい。
【0024】
言及すべき点として、いくつかの実施形態において、イベントベースビジョンセンサ120により生成された感知画像は、ランナーの運動に影響する異物による事故を防止するため、異物がトレッドミル100に接近しすぎているか否かを検出するよう更に構成されてよい。
【0025】
詳細には、
図5は、本発明の1つの実施形態によるトレッドミルの速度制御方法のフロー図である。
図1~
図5を同時に参照し、本実施形態の方法は、上述したトレッドミル100に適用される。本実施形態におけるトレッドミルの速度制御方法の詳細なステップを、トレッドミル100の様々な要素と併せて以下に詳細に説明する。
【0026】
ステップS510にて、プロセッサ130は、トレッドミル100のイベントベースビジョンセンサ120を通じて感知画像を生成する。ステップS520にて、プロセッサ130は感知画像上でランナー検出を実行する。上述したステップS510~S520の詳細な実施方法は、
図2の実施形態のステップS210~S220に明確に説明されており、ここでは繰り返し述べない。
【0027】
ステップS530にて、感知画像からランナーが検出されたことに応じて、プロセッサ130は感知画像を深度推定モデルに入力し、ランニングベルト112に対するランナーの位置情報を取得する。ここで、ステップS530はS531~S532として実施されてよい。
【0028】
ステップS531にて、感知画像からランナーが検出されたことに応じて、プロセッサ130は感知画像を深度推定モデルに入力し、深度推定モデルにより出力された深度マップを取得する。
図6は、本発明の1つの実施形態による深度マップ生成の概略図を示す。プロセッサ130は感知画像Img_1を深度推定モデルM1に入力して、深度推定モデルM1により出力された深度マップD1を取得してよい。深度マップD1は、感知画像Img_1における各画素に対応する深度値、即ち、それぞれ感知画像Img_1における複数画素に対応する深度マップD1における複数の深度値を含んでよい。いくつかの実施形態において、深度マップD1における深度値は、0~255の範囲であってよい。
【0029】
感知画像がDVS画像として実施されるとき、深度推定モデルは、訓練データセットとしての複数のDVS画像及び対応するグラウンドトゥルースに基づいてモデル訓練を完了してよいことに注意されたい。上述したグラウンドトゥルースは、RGB画像に基づいて深度推定を行うことにより取得された深度マップであってよい。このようにして、プロセッサ130が深度推定モデルを適用するとき、プロセッサ130はイベントベースビジョンセンサ120により生成されたDVS画像を深度推定モデルに入力して、対応する深度マップを取得してよい。
【0030】
ステップS532にて、プロセッサ130は、深度マップに基づいて、ランナーと基準位置との間の第1の距離を判定する。詳細には、いくつかの実施形態において、プロセッサ130は、人物バウンディングボックスに基づいて、ランナーに対応する深度情報を深度マップから取得してよい。例えば、プロセッサ130は、人物バウンディングボックスの中央位置に基づいて、ランナーに対応する深度値を深度マップから抽出してよい。或いは、プロセッサ130は、人物バウンディングボックスの座標位置に基づいて深度マップから複数の深度値を選出し、該深度値に対して統計計算を行って、ランナーに対応する深度値を取得してよい。
【0031】
次いで、プロセッサ130は、ランナーの深度情報に基づいて、ランナーと基準位置との間の第1の距離を算出してよい。具体的には、いくつかの実施形態において、ランナーの位置情報はランナーと基準位置との間の第1の距離であってよく、上述した基準位置は、例えば、イベントベースビジョンセンサ120の設置位置又はコンソール114の他のコンポーネントの設置位置である。例えば、トレッドミル100のコンソール114にモニタ115が提供されると仮定する。深度マップからランナーの深度情報を取得した後、モニタ115とイベントベースビジョンセンサ120との間の相対位置関係に基づいて、プロセッサ130はランナーの深度情報に基づきランナーとモニタ115との間の第1の距離を算出してよい。このため、プロセッサ130は、第1の距離に基づいて、ランナーがランニングベルト112のランニング速度についていけない状況を即座に判定することができる。
【0032】
ステップS540にて、プロセッサ130は、ランナーの位置情報に基づいて、ランニングベルトのランニング速度を制御する。ここで、ステップS540は、ステップS541~S543として実施されてよい。
【0033】
ステップS541にて、プロセッサ130は、第1の距離が第1の閾値よりも大きいか否かを判定する。第1の閾値は実際の応用に応じて設定されてよく、本発明において限定されない。第1の距離が第1の閾値よりも大きい場合(ステップS541の判定がYES)、ランナーがランニングベルト112のランニング速度についていけないことを意味する。ステップS542にて、プロセッサ130はランニングベルト112のランニング速度を低下させるよう制御する。逆に、第1の距離が第1の閾値よりも大きくない場合(ステップS541の判定がNO)、ステップS543において、プロセッサ130はランニングベルト112のランニング速度を維持する、つまり、プロセッサ130はランニングベルト112のランニング速度を調整しない。
【0034】
一方で、ステップS550にて、感知画像からランナーが検出されたと判定したことに応じて、プロセッサ130は感知画像の背景領域における移動物体を検出するため、背景領域上でモーション検出を行う。いくつかの実施形態において、プロセッサ130は、感知画像における人物バウンディングボックスの外側の領域を背景領域として用いてよい。或いは、背景領域は、感知画像において予め定義されてもよい。
【0035】
いくつかの実施形態において、プロセッサ130は、移動物体が背景領域に出現するか否かを判定するため、現在の感知画像の背景領域を以前の感知画像の背景領域と比較してよい。例えば、プロセッサ130は、画像減算又はオプティカルフローにより移動物体を検出してよいが、本発明はこれに限定されない。例えば、
図7は、本発明の1つの実施形態による背景領域上でのモーション検出の実行の概略図である。
図7を参照し、イベントベースビジョンセンサ120により実行される継続感知に基づいて、プロセッサ130は、以前の感知画像Img_2と現在の感知画像Img_3とを取得してよい。以前の感知画像Img_2の背景領域ZB2を現在の感知画像Img_3の背景領域ZB3と比較することにより、プロセッサ130は移動物体Obj_mを検出してよい。現在の感知画像Img_3の背景領域ZB3は、人物バウンディングボックスB1の外側の領域であってよい。
【0036】
ステップS560にて、移動物体の検出に応じて、プロセッサ130は、感知画像を深度推定モデルに入力して、移動物体の位置情報を取得する。ここで、ステップS560は、ステップS561~S562として実施されてよい。
【0037】
ステップS561にて、移動物体の検出に応じて、プロセッサ130は、感知画像を深度推定モデルに入力して、深度推定モデルにより出力された深度マップを取得する。ステップS562にて、プロセッサ130は、深度マップに基づいて、移動物体と基準位置との間の第2の距離を判定する。モーション検出の後、プロセッサ130は、移動物体を標識付けするよう構成されたバウンディングボックスを取得してもよく、移動物体の位置情報を取得する動作方法は、ランナーの位置情報を取得する動作方法に類似する。つまり、ステップS561~S562の詳細な実施は、ステップS531~S532の詳細な実施方法に類似しており、ここでは繰り返し述べない。
【0038】
ステップS570にて、プロセッサ130は、移動物体の位置情報に基づいて、ランニングベルトのランニング速度を制御する。ここで、ステップS570は、ステップS571~S573として実施されてよい。ステップS571にて、プロセッサ130は、第2の距離が第2の閾値未満であるか否かを判定する。第2の距離が第2の閾値未満である場合(ステップS571における判定がYES)、移動物体がトレッドミル100に非常に近いことを意味する。ステップS572にて、プロセッサ130は、ランニングベルト112のランニング速度を低下させる。いくつかの実施形態において、第2の距離が第2の閾値未満である場合、プロセッサ130はランナーに音声及び光による警告を提供してもよい。逆に、第2の距離が第2の閾値未満ではない場合(ステップS571における判定がNO)、ステップS573にて、プロセッサ130はランニングベルト112のランニング速度を維持する。このようにして、ランナーは、異物がランニングベルト112によりベース111の底部内に引き込まれることを防止するため、又は、ランナーが異物に煩わされることを防止するため、動作中のトレッドミル100に接近していることを事前に通知されることができる。
【産業上の利用可能性】
【0039】
本発明の実施形態において、感知を実行するため、イベントベースビジョンセンサがトレッドミルに設けられる。ランナーがトレッドミル上で運動しているとき、イベントベースビジョンセンサにより生成された感知画像及び深度推定モデルに基づいて、ランナーの位置情報が推定され、ランナーの位置情報に基づいてトレッドミルの速度が制御される。このようにして、ランナーがトレッドミル上で転倒することを事前に防止することができる。加えて、ランナーがトレッドミル上で運動しているとき、イベントベースビジョンセンサにより生成された感知画像に基づいて、移動物体を検出することができる。感知画像及び深度推定モデルに基づいて移動物体の位置情報を推定することにより、移動物体の位置情報に基づいてトレッドミルの速度を制御することができる。このようにして、ランナーが異物に煩わされることを事前に防止することができる、又は、異物がトレッドミルの底部に引き込まれることを事前に防止することができる。上記を考慮し、トレッドミルの安全性を大幅に向上させることができる。
【符号の説明】
【0040】
100:トレッドミル
110:トレッドミル本体
111:ベース
112:ランニングベルト
113:入力装置
114:コンソール
115:モニタ
120:イベントベースビジョンセンサ
130:プロセッサ
B1:人物バウンディングボックス
Z1:中央領域
Img_1、Img_2、Img_3:感知画像
D1:深度マップ
M1:深度推定モデル
ZB2、ZB3:背景領域
Obj_m:移動物体
S210~S240、S221~S224、S510~S570:ステップ
【外国語明細書】