(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公表特許公報(A)
(11)【公表番号】
(43)【公表日】2023-01-25
(54)【発明の名称】ウェアラブルデバイス、インテリジェントガイド方法及び装置、ガイドシステム、記憶媒体
(51)【国際特許分類】
G06T 7/593 20170101AFI20230118BHJP
G06T 7/70 20170101ALI20230118BHJP
G01B 11/00 20060101ALI20230118BHJP
G09G 5/00 20060101ALI20230118BHJP
G09G 5/10 20060101ALI20230118BHJP
【FI】
G06T7/593
G06T7/70 Z
G01B11/00 H
G09G5/00 550C
G09G5/10 B
G09G5/00 510A
G09G5/00 555D
G09G5/00 550X
【審査請求】有
【予備審査請求】未請求
(21)【出願番号】P 2021564133
(86)(22)【出願日】2021-04-29
(85)【翻訳文提出日】2021-10-27
(86)【国際出願番号】 CN2021091150
(87)【国際公開番号】W WO2022068193
(87)【国際公開日】2022-04-07
(31)【優先権主張番号】202011060870.X
(32)【優先日】2020-09-30
(33)【優先権主張国・地域又は機関】CN
(81)【指定国・地域】
(71)【出願人】
【識別番号】519453342
【氏名又は名称】深▲せん▼市商▲湯▼科技有限公司
【氏名又は名称原語表記】SHENZHEN SENSETIME TECHNOLOGY CO., LTD.
【住所又は居所原語表記】Room 201, Building A, No. 1, Qianwan Road, Qianhai Shenzhen-Hongkong Modern Service Industry Cooperation Zone Shenzhen, Guangdong 518000 (CN)
(74)【代理人】
【識別番号】100078282
【氏名又は名称】山本 秀策
(74)【代理人】
【識別番号】100113413
【氏名又は名称】森下 夏樹
(74)【代理人】
【識別番号】100181674
【氏名又は名称】飯田 貴敏
(74)【代理人】
【識別番号】100181641
【氏名又は名称】石川 大輔
(74)【代理人】
【識別番号】230113332
【氏名又は名称】山本 健策
(72)【発明者】
【氏名】曹莉
(72)【発明者】
【氏名】向▲許▼波
(72)【発明者】
【氏名】▲しぇ▼忠▲華▼
(72)【発明者】
【氏名】▲劉▼▲錦▼金
(72)【発明者】
【氏名】▲張▼英宜
【テーマコード(参考)】
2F065
5C182
5L096
【Fターム(参考)】
2F065AA04
2F065AA06
2F065AA53
2F065BB05
2F065FF12
5C182AB33
5C182BA14
5C182BA25
5C182BA29
5C182BA35
5C182BA46
5C182BA47
5C182BA75
5C182BC22
5C182CA01
5C182CC27
5C182DA25
5C182DA53
5C182DA66
5C182DA69
5L096AA02
5L096AA06
5L096AA09
5L096BA08
5L096CA05
5L096DA02
5L096FA32
5L096FA66
5L096FA67
5L096FA69
5L096GA51
5L096HA11
(57)【要約】
本出願は、ウェアラブルデバイス、インテリジェントガイド方法及び装置、ガイドシステムを提供する。本出願の実施例は、光照射強度が大きい時に、即ち第1場面画像の輝度が大きい場合、第2可視光撮影部によって撮影された第2場面画像を使用して場面内の対象の深度情報を確定し、光照射強度が小さい場合、即ち第1場面画像の輝度が小さい場合、深度撮影部によって撮影された第2場面画像を使用して場面内の対象の深度情報を確定する。環境光の照射強度に応じて、異なる部品によって収集された画像を選択して目標対象のためにガイドサービスを提供することを実現し、光照射強度の変化に効果的に適応し、豊かな環境情報を取得することができ、同時に、テクスチャが欠けている障害物を検出することができ、その結果、障害物検出の精度及びガイドの安全性が向上する。
【特許請求の範囲】
【請求項1】
ウェアラブルデバイスによるインテリジェントガイド方法であって、前記ウェアラブルデバイスは、第1可視光撮影部、第2可視光撮影部及び深度撮影部を含み、
第1可視光撮影部によって収集された第1場面画像を取得するステップと、
前記第1場面画像の輝度を検出するステップと、
前記第1場面画像の輝度が予め設定された輝度を満たしていることに応答して、前記第2可視光撮影部によって収集された第2場面画像を取得するステップ、及び/又は、前記第1場面画像の輝度が予め設定された輝度を満たしていないことに応答して、前記深度撮影部によって収集された第2場面画像を取得するステップと、
前記第2場面画像に基づいて場面内の対象の深度情報を確定するステップと、
前記深度情報に基づいて、前記ウェアラブルデバイスを着用している目標対象に対するガイド情報を生成するステップと、を含む、インテリジェントガイド方法。
【請求項2】
前記第1場面画像の輝度が予め設定された輝度を満たしていることに応答して、前記第2可視光撮影部によって収集された第2場面画像を取得するステップは、
前記第1場面画像の輝度が予め設定された輝度を満たしていることに応答して、前記第2可視光撮影部に第1露光命令を送信し、前記第2可視光撮影部が前記第1露光命令に基づいて露光制御を行って収集した第2場面画像を、取得するステップを含み、
前記第1場面画像の輝度が予め設定された輝度を満たしていないことに応答して、前記深度撮影部によって収集された第2場面画像を取得するステップは、
前記第1場面画像の輝度が予め設定された輝度を満たしていないことに応答して、前記深度撮影部に第2露光命令を送信し、前記深度撮影部が前記第2露光命令に基づいて露光制御を行って収集した第2場面画像を、取得するステップを含むことを特徴とする
請求項1に記載の方法。
【請求項3】
前記第2場面画像に基づいて場面内の対象の深度情報を確定するステップは、
前記第1場面画像の輝度が予め設定された輝度を満たしていることに応答して、前記第1場面画像内の場面内の対象を表すための画素点と前記第2場面画像内の場面内の対象を表すための画素点を突き合わせ、画素点対を取得するステップと、
前記画素点対に対応する視差情報、前記第1可視光撮影部と前記第2可視光撮影部との間の中心距離、及び前記第1可視光撮影部の焦点距離に基づいて、前記場面内の対象の深度情報を確定するステップとを含むことを特徴とする
請求項1又は2に記載の方法。
【請求項4】
前記第2場面画像に基づいて場面内の対象の深度情報を確定するステップは、
前記第1場面画像の輝度が予め設定された輝度を満たしていないことに応答して、前記第2場面画像内の場面内の対象の目標画素点を確定するステップと、
前記第2場面画像内の前記目標画素点の深度情報に基づいて、前記場面内の対象の深度情報を確定するステップと、を含むことを特徴とする
請求項1又は2に記載の方法。
【請求項5】
前記深度情報に基づいて、前記ウェアラブルデバイスを着用している目標対象に対するガイド情報を生成するステップは、
通知情報を生成するステップであって、前記通知情報が、前記ウェアラブルデバイスを着用している前記目標対象に前記深度情報を通知するために使用されるステップを含むことを特徴とする
請求項1-4のいずれか一項に記載の方法。
【請求項6】
前記第1場面画像に基づいて、ウェアラブルデバイスに対する場面内の対象の方向位置情報を確定するステップをさらに含み、
前記深度情報に基づいて、前記ウェアラブルデバイスを着用している目標対象に対するガイド情報を生成するステップは、
ウェアラブルデバイスに対する場面内の対象の方向位置情報及び場面内の対象の深度情報に基づいて、前記ウェアラブルデバイスを着用している目標対象に対するガイド情報を生成するステップを含むことを特徴とする
請求項1-5のいずれか一項に記載の方法。
【請求項7】
前記ウェアラブルデバイスは、超音波検出部をさらに含み、
前記方法は、
前記深度情報に対応する深度が予め設定された深度閾値よりも大きいこと及び/又は前記第1場面画像に予め設定された種類の対象が含まれることを検出したことに応答して、前記超音波検出部に超音波検出命令を送信し、前記超音波検出部で前記超音波検出命令に基づいて検出された超音波フィードバック信号を、受信するステップと、
受信された前記超音波フィードバック信号に基づいて、前記場面内の対象の深度情報を更新するステップと、をさらに含むことを特徴とする
請求項1-6のいずれか一項に記載の方法。
【請求項8】
前記ウェアラブルデバイスは、姿勢測定部をさらに含み、
前記方法は、
前記姿勢測定部によって収集されたウェアラブルデバイスの姿勢情報を取得するステップと、
前記姿勢情報に基づいて前記ウェアラブルデバイスを着用している目標対象の姿勢が第1予め設定された姿勢にあることを確定したことに応答して、姿勢矯正通知情報を生成するステップと、をさらに含むことを特徴とする
請求項1-7のいずれか一項に記載の方法。
【請求項9】
前記方法は、
前記第1場面画像に基づいて、前記ウェアラブルデバイスに対する場面内の対象の方向位置情報を確定するステップと、
前記ウェアラブルデバイスの姿勢情報に基づいて、前記方向位置情報を、第2予め設定された姿勢にあるウェアラブルデバイスに対する場面内の対象の方向位置情報に変換するステップと、をさらに含み、
前記深度情報に基づいて、前記ウェアラブルデバイスを着用している目標対象に対するガイド情報を生成するステップは、
変換後の方向位置情報及び場面内の対象の深度情報に基づいて、前記ウェアラブルデバイスを着用している目標対象に対するガイド情報及び/又は姿勢矯正通知情報を生成するステップを含むことを特徴とする
請求項8に記載の方法。
【請求項10】
前記ウェアラブルデバイスは、音声出力部をさらに含み、
前記方法は、
前記ガイド情報に基づいて音声ナビゲーション情報を生成し、前記音声ナビゲーション情報を前記音声出力部に送信して、前記音声出力部で前記音声ナビゲーション情報を前記目標対象に再生するステップをさらに含むことを特徴とする
請求項1-9のいずれか一項に記載の方法。
【請求項11】
前記ウェアラブルデバイスは、分周回路をさらに含み、
前記第1場面画像の輝度が予め設定された輝度を満たしていることに応答して、前記第2可視光撮影部によって収集された第2場面画像を取得するステップは、
前記第1場面画像の輝度が予め設定された輝度を満たしていることに応答して、前記分周回路に露光命令を送信し、前記分周回路で受信された露光命令に対して分周処理を行い、分周処理によって得られた第3露光命令を第2可視光撮影部に送信し、前記第2可視光撮影部で前記第3露光命令に基づいて露光制御を行って収集した第2場面画像を、取得するステップを含み、及び/又は
前記第1場面画像の輝度が予め設定された輝度を満たしていないことに応答して、前記深度撮影部によって収集された第2場面画像を取得するステップは、
前記第1場面画像の輝度が予め設定された輝度を満たしていないことに応答して、前記分周回路に露光命令を送信し、前記分周回路で受信された露光命令に対して分周処理を行い、分周処理によって得られた第4露光命令を深度撮影部に送信し、前記深度撮影部で前記第4露光命令に基づいて露光制御を行って収集した第2場面画像を、取得するステップを含むことを特徴とする
請求項1-10のいずれか一項に記載の方法。
【請求項12】
ウェアラブルデバイスによるインテリジェントガイド装置であって、前記ウェアラブルデバイスは、第1可視光撮影部、第2可視光撮影部及び深度撮影部を含み、前記装置は、
第1可視光撮影部によって収集された第1場面画像を取得するように構成される第1画像取得モジュールと、
前記第1場面画像の輝度を検出するように構成される輝度検出モジュールと、
前記第1場面画像の輝度が予め設定された輝度を満たしていることに応答して、前記第2可視光撮影部によって収集された第2場面画像を取得するように構成され、及び/又は、前記第1場面画像の輝度が予め設定された輝度を満たしていないことに応答して、前記深度撮影部によって収集された第2場面画像を取得するように構成される第2画像取得モジュールと、
前記第2場面画像に基づいて場面内の対象の深度情報を確定するように構成される検出モジュールと、
前記深度情報に基づいて、前記ウェアラブルデバイスを着用している目標対象に対するガイド情報を生成するように構成されるガイド情報生成モジュールと、を備える、インテリジェントガイド装置。
【請求項13】
前記第2画像取得モジュールは、前記第1場面画像の輝度が予め設定された輝度を満たしていることに応答して、前記第2可視光撮影部によって収集された第2場面画像を取得する場合、前記第1場面画像の輝度が予め設定された輝度を満たしていることに応答して、前記第2可視光撮影部に第1露光命令を送信し、前記第2可視光撮影部が前記第1露光命令に基づいて露光制御を行って収集した第2場面画像を、取得するように構成され、
前記第2画像取得モジュールは、前記第1場面画像の輝度が予め設定された輝度を満たしていないことに応答して、前記深度撮影部によって収集された第2場面画像を取得する場合、前記第1場面画像の輝度が予め設定された輝度を満たしていないことに応答して、前記深度撮影部に第2露光命令を送信し、前記深度撮影部が前記第2露光命令に基づいて露光制御を行って収集した第2場面画像を、取得するように構成される
請求項12に記載のインテリジェントガイド装置。
【請求項14】
前記検出モジュールは、前記第2場面画像に基づいて場面内の対象の深度情報を確定する場合、前記第1場面画像の輝度が予め設定された輝度を満たしていることに応答して、前記第1場面画像内の場面内の対象を表すための画素点と前記第2場面画像内の場面内の対象を表すための画素点を突き合わせ、画素点対を取得し、前記画素点対に対応する視差情報、前記第1可視光撮影部と前記第2可視光撮影部との間の中心距離、及び前記第1可視光撮影部の焦点距離に基づいて、前記場面内の対象の深度情報を確定するように構成される
請求項12又は13に記載のインテリジェントガイド装置。
【請求項15】
前記検出モジュールは、前記第2場面画像に基づいて場面内の対象の深度情報を確定する場合、前記第1場面画像の輝度が予め設定された輝度を満たしていないことに応答して、前記第2場面画像内の場面内の対象の目標画素点を確定し、前記第2場面画像内の前記目標画素点の深度情報に基づいて、前記場面内の対象の深度情報を確定するように構成されることを特徴とする
請求項12又は13に記載のインテリジェントガイド装置。
【請求項16】
前記ガイド情報生成モジュールは、前記深度情報に基づいて、前記ウェアラブルデバイスを着用している目標対象に対するガイド情報を生成する場合、通知情報を生成するように構成され、前記通知情報が、前記ウェアラブルデバイスを着用している前記目標対象に前記深度情報を通知するために使用されることを特徴とする
請求項12-15のいずれか一項に記載のインテリジェントガイド装置。
【請求項17】
前記検出モジュールは、さらに前記第1場面画像に基づいて、ウェアラブルデバイスに対する場面内の対象の方向位置情報を確定するように構成され、
前記ガイド情報生成モジュールは、前記深度情報に基づいて、前記ウェアラブルデバイスを着用している目標対象に対するガイド情報を生成する場合、ウェアラブルデバイスに対する場面内の対象の方向位置情報及び場面内の対象の深度情報に基づいて、前記ウェアラブルデバイスを着用している目標対象に対するガイド情報を生成するように構成されることを特徴とする
請求項12-16のいずれか一項に記載のインテリジェントガイド装置。
【請求項18】
前記ウェアラブルデバイスは、超音波検出部をさらに含み、
前記検出モジュールは、さらに前記深度情報に対応する深度が予め設定された深度閾値よりも大きいこと及び/又は前記第1場面画像に予め設定された種類の対象が含まれることを検出したことに応答して、前記超音波検出部に超音波検出命令を送信し、前記超音波検出部で前記超音波検出命令に基づいて検出された超音波フィードバック信号を、受信するように構成されることを特徴とする
請求項12-17のいずれか一項に記載のインテリジェントガイド装置。
【請求項19】
前記ウェアラブルデバイスは、姿勢測定部をさらに含み、前記検出モジュールは、さらに前記姿勢測定部によって収集されたウェアラブルデバイスの姿勢情報を取得し、前記姿勢情報に基づいて前記ウェアラブルデバイスを着用している目標対象の姿勢が第1予め設定された姿勢にあることを確定したことに応答して、姿勢矯正通知情報を生成するように構成されることを特徴とする
請求項12-18のいずれか一項に記載のインテリジェントガイド装置。
【請求項20】
前記検出モジュールは、さらに前記第1場面画像に基づいて、前記ウェアラブルデバイスに対する場面内の対象の方向位置情報を確定し、前記ウェアラブルデバイスの姿勢情報に基づいて、前記方向位置情報を、第2予め設定された姿勢にあるウェアラブルデバイスに対する場面内の対象の方向位置情報に変換するように構成され、
前記ガイド情報生成モジュールは、前記深度情報に基づいて、前記ウェアラブルデバイスを着用している目標対象に対するガイド情報を生成する場合、変換後の方向位置情報及び場面内の対象の深度情報に基づいて、前記ウェアラブルデバイスを着用している目標対象に対するガイド情報及び/又は姿勢矯正通知情報を生成するように構成されることを特徴とする
請求項19に記載のインテリジェントガイド装置。
【請求項21】
前記ウェアラブルデバイスは、音声出力部をさらに含み、
前記ガイド情報生成モジュールは、さらに前記ガイド情報に基づいて音声ナビゲーション情報を生成し、前記音声ナビゲーション情報を前記音声出力部に送信して、前記音声出力部で前記音声ナビゲーション情報を前記目標対象に再生するように構成されることを特徴とする
請求項12-20のいずれか一項に記載のインテリジェントガイド装置。
【請求項22】
前記ウェアラブルデバイスは、分周回路をさらに含み、
前記第2画像取得モジュールは、前記第1場面画像の輝度が予め設定された輝度を満たしていることに応答して、前記第2可視光撮影部によって収集された第2場面画像を取得する場合、前記第1場面画像の輝度が予め設定された輝度を満たしていることに応答して、前記分周回路に露光命令を送信し、前記分周回路で受信された露光命令に対して分周処理を行い、分周処理によって得られた第3露光命令を第2可視光撮影部に送信し、前記第2可視光撮影部で前記第3露光命令に基づいて露光制御を行って収集した第2場面画像を取得するように構成され、及び/又は
前記第2画像取得モジュールは、前記第1場面画像の輝度が予め設定された輝度を満たしていないことに応答して、前記深度撮影部によって収集された第2場面画像を取得する場合、前記第1場面画像の輝度が予め設定された輝度を満たしていないことに応答して、前記分周回路に露光命令を送信し、前記分周回路で受信された露光命令に対して分周処理を行い、分周処理によって得られた第4露光命令を深度撮影部に送信し、前記深度撮影部で前記第4露光命令に基づいて露光制御を行って収集した第2場面画像を取得するように構成されることを特徴とする
請求項12-21のいずれか一項に記載のインテリジェントガイド装置。
【請求項23】
ウェアラブルデバイスであって、処理部、第1可視光撮影部、第2可視光撮影部及び深度撮影部を含み、
前記第1可視光撮影部は、第1場面画像を収集するように構成され、
前記第2可視光撮影部と前記深度撮影部は、第2場面画像を収集するように構成され、
前記処理部は、請求項1-11のいずれか一項に記載のウェアラブルデバイスによるインテリジェントガイド方法を実行するように構成される、ウェアラブルデバイス。
【請求項24】
信号シリアル部、信号伝送ケーブル及び信号逆シリアル部をさらに含み、
前記信号シリアル部は、前記第1可視光撮影部、第2可視光撮影部、深度撮影部に通信接続され、前記信号伝送ケーブルの両端は前記信号シリアル部と信号逆シリアル部にそれぞれ接続され、前記信号逆シリアル部は、前記処理部に通信接続され、
前記第1可視光撮影部は、さらに前記第1場面画像を前記信号シリアル部に送信するように構成され、
前記第2可視光撮影部と前記深度撮影部は、さらに前記第2場面画像を前記信号シリアル部に送信するように構成され、
前記信号シリアル部は、受信された第1場面画像と第2場面画像をシリアル信号に変換し、前記信号伝送ケーブルを介して前記信号逆シリアル部に送信するように構成され、
前記信号逆シリアル部は、受信された信号を逆シリアル化し、逆シリアル化された信号を前記処理部に送信するように構成されることを特徴とする
請求項23に記載のウェアラブルデバイス。
【請求項25】
前記深度撮影部は、TOFカメラを含むことを特徴とする
請求項23又は24に記載のウェアラブルデバイス。
【請求項26】
ガイドシステムであって、ウェアラブルデバイスとホストコンピュータとを備え、
前記ウェアラブルデバイスは、第1可視光撮影部、第2可視光撮影部及び深度撮影部を含み、
前記ホストコンピュータは、処理部を含み、前記処理部は、信号伝送ケーブルを介して前記第1可視光撮影部、第2可視光撮影部及び深度撮影部に接続され、前記処理部は、請求項1-11のいずれか一項に記載のウェアラブルデバイスによるインテリジェントガイド方法を実行するように構成される、ガイドシステム。
【請求項27】
前記ホストコンピュータには、前記処理部に接続された位置決めモジュール、ネットワークモジュール、動作状態の検出及び/又は充電管理のためのマイクロコントロールユニット、オーディオモジュールの少なくとも1つが設けられていることを特徴とする
請求項26に記載のガイドシステム。
【請求項28】
電子デバイスであって、プロセッサ、メモリ及びバスを備え、前記メモリには前記プロセッサで実行可能な機械可読命令が記憶されており、電子デバイスが動作する場合、前記プロセッサと前記メモリは、バスを介して通信し、前記機械可読命令が前記プロセッサに実行される時に、請求項1-11のいずれか一項に記載のインテリジェントガイド方法のステップを実行する、電子デバイス。
【請求項29】
コンピュータプログラムが記憶されており、当該コンピュータプログラムがプロセッサに実行される時に請求項1-11のいずれか一項に記載のインテリジェントガイド方法のステップを実行するコンピュータ可読記憶媒体。
【請求項30】
プロセッサによってロードされて請求項1-11のいずれか一項に記載のインテリジェントガイド方法のステップを実行することに適する1つ又は複数の命令を含むコンピュータプログラム製品。
【発明の詳細な説明】
【技術分野】
【0001】
(関連出願への相互参照)
本出願は、出願番号が202011060870.Xで、出願日が2020年9月30日で、出願名称が「ウェアラブルデバイス、インテリジェントガイド方法及び装置、ガイドシステム」である中国特許出願に基づいて提出され、当該中国特許出願の優先権を主張し、当該中国特許の全ての内容がここで参照により本開示に組み込まれる。
【0002】
本出願は、画像処理技術分野に関し、特にウェアラブルデバイス、インテリジェントガイド方法及び装置、ガイドシステム、記憶媒体に関する。
【背景技術】
【0003】
視力障害者の数が膨大であり、この部分の人々の外出范囲が制限され、活動範囲が小さく、外出中に大きな安全のリスクが存在し、この部分の人々の生活品質が悪い。
【0004】
既存の盲導技術は、カメラの環境への適応能力が低く、光照射強度の変化が大きい場面にうまく適応できないため、光照射強度の変化が大きい場合、豊かな環境情報を取得することができず、テクスチャが欠け、外観が滑らかで、透明度が高く、又は距離が遠い障害物を効果的に検出することができない。したがって、既存の盲導技術は、障害物を正確に検出することができず、視覚障害者のために安全性の高い盲導サービスを提供することができない。
【発明の概要】
【発明が解決しようとする課題】
【0005】
本出願の実施例は、深度情報の検出精度、ガイドの精度及び安全性を向上させるように、少なくともウェアラブルデバイスによるインテリジェントガイド方法及び装置、ウェアラブルデバイス、ガイドシステム、記憶媒体を提供する。
【課題を解決するための手段】
【0006】
第1態様では、本出願の実施例は、ウェアラブルデバイスによるインテリジェントガイド方法を提供し、前記ウェアラブルデバイスは、第1可視光撮影部、第2可視光撮影部及び深度撮影部を含み、前記方法は、
第1可視光撮影部によって収集された第1場面画像を取得するステップと、
前記第1場面画像の輝度を検出するステップと、
前記第1場面画像の輝度が予め設定された輝度を満たしていることに応答して、前記第2可視光撮影部によって収集された第2場面画像を取得するステップ、及び/又は、前記第1場面画像の輝度が予め設定された輝度を満たしていないことに応答して、前記深度撮影部によって収集された第2場面画像を取得するステップと、
前記第2場面画像に基づいて場面内の対象の深度情報を確定するステップと、
前記深度情報に基づいて、前記ウェアラブルデバイスを着用している目標対象に対するガイド情報を生成するステップと、を含む。
【0007】
この解決策は、光照射強度が大きい時に、即ち第1場面画像の輝度が大きい場合、第2可視光撮影部によって撮影された第2場面画像を使用して場面内の対象の深度情報を確定し、光照射強度が小さい場合、即ち第1場面画像の輝度が小さい場合、深度撮影部によって撮影された第2場面画像を使用して場面内の対象の深度情報を確定する。これにより、環境光の照射強度に応じて、異なる部品によって収集された画像を選択して目標対象のためにガイドサービスを提供することを実現し、光照射強度の変化に効果的に適応し、豊かな環境情報を取得することができ、同時に、テクスチャが欠けている障害物を検出することができ、その結果、障害物の検出精度及びガイドの安全性が向上する。
【0008】
1つの可能な実施形態では、前記第1場面画像の輝度が予め設定された輝度を満たしていることに応答して、前記第2可視光撮影部によって収集された第2場面画像を取得するステップは、
前記第1場面画像の輝度が予め設定された輝度を満たしていることに応答して、前記第2可視光撮影部に第1露光命令を送信し、前記第2可視光撮影部が前記第1露光命令に基づいて露光制御を行って収集した第2場面画像を、取得するステップを含み、
前記第1場面画像の輝度が予め設定された輝度を満たしていないことに応答して、前記深度撮影部によって収集された第2場面画像を取得するステップは、
前記第1場面画像の輝度が予め設定された輝度を満たしていないことに応答して、前記深度撮影部に第2露光命令を送信し、前記深度撮影部が前記第2露光命令に基づいて露光制御を行って収集した第2場面画像を、取得するステップを含む。
【0009】
この実施形態では、光照射強度が大きい時に、露光を行うように第2可視光撮影部を制御し、光照射強度が小さい場合、露光を行うように深度撮影部を制御することにより、環境光の強度に応じて異なる撮影部を切り替えて、対象の深度情報を確定するための第2場面画像を収集することを実現し、光照射強度の変化に能動的に適応し、より豊かな環境情報を取得することができ、同時に、クスチャが欠けている障害物を検出することができ、その結果、障害物の検出精度及びガイドの安全性が向上する。
【0010】
1つの可能な実施形態では、前記第2場面画像に基づいて場面内の対象の深度情報を確定するステップは、
前記第1場面画像の輝度が予め設定された輝度を満たしていることに応答して、前記第1場面画像内の場面内の対象を表すための画素点と前記第2場面画像内の場面内の対象を表すための画素点を突き合わせ、画素点対を取得するステップと、
前記画素点対に対応する視差情報、前記第1可視光撮影部と前記第2可視光撮影部との間の中心距離、及び前記第1可視光撮影部の焦点距離に基づいて、前記場面内の対象の深度情報を確定するステップと、を含む。
【0011】
この実施形態では、光照射強度が強い場合、第1可視光撮影部によって収集された第1場面画像と第2可視光撮影部によって収集された第2場面画像を組み合わせることにより、場面内の対象の深度情報をより正確に確定することができる。
【0012】
1つの可能な実施形態では、前記第2場面画像に基づいて場面内の対象の深度情報を確定するステップは、
前記第1場面画像の輝度が予め設定された輝度を満たしていないことに応答して、前記第2場面画像内の場面内の対象の目標画素点を確定するステップと、
前記第2場面画像内の前記目標画素点の深度情報に基づいて、前記場面内の対象の深度情報を確定するステップと、を含む。
【0013】
この実施形態では、光照射強度が弱い場合、深度撮影部によって収集された深度画像、即ち深度撮影部によって収集された第2場面画像内の画素点の深度情報を使用することにより、場面内の対象の深度情報をより正確に確定することができ、クスチャが欠けている障害物を検出することができ、その結果、光照射強度が弱い場合の障害物の検出精度及びガイドの安全性が向上する。
【0014】
1つの可能な実施形態では、前記深度情報に基づいて、前記ウェアラブルデバイスを着用している目標対象に対するガイド情報を生成するステップは、
通知情報を生成するステップであって、前記通知情報が、前記ウェアラブルデバイスを着用している前記目標対象に前記深度情報を通知するために使用されるステップを含む。
【0015】
この実施形態では、目標対象に場面内の対象の深度情報を通知することにより、目標対象の動作を効果的にガイドし、ガイド効率及びガイドの安全性を向上させることができる。
【0016】
1つの可能な実施形態では、前記方法は、
前記第1場面画像に基づいて、ウェアラブルデバイスに対する場面内の対象の方向位置情報を確定するステップをさらに含み、
前記深度情報に基づいて、前記ウェアラブルデバイスを着用している目標対象に対するガイド情報を生成するステップは、
ウェアラブルデバイスに対する場面内の対象の方向位置情報及び場面内の対象の深度情報に基づいて、前記ウェアラブルデバイスを着用している目標対象に対するガイド情報を生成するステップを含む。
【0017】
この実施形態では、方向位置情報及び深度情報に基づいて、目標対象のために情報量がより大きく、内容がより豊かなガイド情報を生成することができ、これにより、ガイドの効率及びガイドの安全性をさらに向上させることができる。
【0018】
1つの可能な実施形態では、前記ウェアラブルデバイスは、超音波検出部をさらに含む。
【0019】
前記方法は、
前記深度情報に対応する深度が予め設定された深度閾値よりも大きいこと及び/又は前記第1場面画像に予め設定された種類の対象が含まれることを検出したことに応答して、前記超音波検出部に超音波検出命令を送信し、前記超音波検出部で前記超音波検出命令に基づいて検出された超音波フィードバック信号を、受信するステップと、
受信された前記超音波フィードバック信号に基づいて、前記場面内の対象の深度情報を更新するステップと、をさらに含む。
【0020】
この実施形態では、環境が複雑であるため、又は物体自体の特性の影響により、可視光撮影部又は深度撮影部によって撮影された第2場面画像から場面内の対象の深度情報を正確に確定することができなくなり、又は、第1場面画像に透明さが高く、又は外観が比較的滑らかいなどの特性の対象が含まれていることを検出した場合、超音波検出部を使用して深度情報を検出することにより、ウェアラブルデバイスの適用性が向上し、より複雑な環境で場面内の対象の深度情報をより正確に検出することが可能になる。
【0021】
1つの可能な実施形態では、前記ウェアラブルデバイスは、姿勢測定部をさらに含み、
前記方法は、
姿勢測定部によって収集されたウェアラブルデバイスの姿勢情報を取得するステップと、
前記姿勢情報に基づいて前記ウェアラブルデバイスを着用している目標対象の姿勢が第1予め設定された姿勢にあることを確定したことに応答して、姿勢矯正通知情報を生成するステップと、をさらに含む。
【0022】
この実施形態では、姿勢測定部によって測定されたウェアラブルデバイスの姿勢情報により、目標対象の姿勢が第1予め設定された姿勢にある場合、姿勢を矯正するように目標対象に促すための姿勢矯正通知情報を生成することができ、これにより、ウェアラブルデバイスは、目標対象の動作に影響を与える対象を撮影することができ、ガイド情報の精度及びガイドの安全性がさらに向上する。
【0023】
1つの可能な実施形態では、前記方法は、
前記第1場面画像に基づいて、前記ウェアラブルデバイスに対する場面内の対象の方向位置情報を確定するステップと、
前記ウェアラブルデバイスの姿勢情報に基づいて、前記方向位置情報を、第2予め設定された姿勢にあるウェアラブルデバイスに対する場面内の対象の方向位置情報に変換するステップと、をさらに含み、
前記深度情報に基づいて、前記ウェアラブルデバイスを着用している目標対象に対するガイド情報を生成するステップは、
変換後の方向位置情報と場面内の対象の深度情報に基づいて、前記ウェアラブルデバイスを着用している目標対象に対するガイド情報及び/又は姿勢矯正通知情報を生成するステップを含む。
【0024】
この実施形態では、前記ウェアラブルデバイスに対する場面内の対象の方向位置情報を第2予め設定された姿勢にあるウェアラブルデバイスに対する場面内の対象の方向位置情報に変換し、即ち目標対象の動作に効果的な方向位置情報を生成し、当該効果的な情報を使用してより正確及び効果的なガイド情報を生成することができる。
【0025】
1つの可能な実施形態では、前記ウェアラブルデバイスは、音声出力部をさらに含み、
前記方法は、
前記ガイド情報に基づいて音声ナビゲーション情報を生成し、前記音声ナビゲーション情報を前記音声出力部に送信して、前記音声出力部で前記音声ナビゲーション情報を前記目標対象に再生するステップをさらに含む。
【0026】
この実施形態では、音声ナビゲーション情報と音声出力部により、障害物を回避するように目標対象を効果的にガイドすることができ、ガイドの効率及びガイドの安全性が向上する。
【0027】
1つの可能な実施形態では、前記ウェアラブルデバイスは、分周回路をさらに含み、
前記第1場面画像の輝度が予め設定された輝度を満たしていることに応答して、前記第2可視光撮影部によって収集された第2場面画像を取得するステップは、
前記第1場面画像の輝度が予め設定された輝度を満たしていることに応答して、前記分周回路に露光命令を送信し、前記分周回路で受信された露光命令に対して分周処理を行い、分周処理によって得られた第3露光命令を第2可視光撮影部に送信し、前記第2可視光撮影部で前記第3露光命令に基づいて露光制御を行って収集した第2場面画像を取得するステップを含み、及び/又は
前記第1場面画像の輝度が予め設定された輝度を満たしていないことに応答して、前記深度撮影部によって収集された第2場面画像を取得するステップは、
前記第1場面画像の輝度が予め設定された輝度を満たしていないことに応答して、前記分周回路に露光命令を送信し、前記分周回路で受信された露光命令に対して分周処理を行い、分周処理によって得られた第4露光命令を深度撮影部に送信し、前記深度撮影部で前記第4露光命令に基づいて露光制御を行って収集した第2場面画像を取得するステップを含む。
【0028】
この実施形態では、分周回路を使用して露光命令を分割し、分周処理により得られた露光命令を使用して、画像を収集するように第2可視光撮影部又は深度撮影部を制御することにより、同時に露光するように異なるフレーム周波数の撮影部を制御することを実現し、エネルギー消費が節約される。
【0029】
第2態様では、本出願の実施例は、ウェアラブルデバイスによるインテリジェントガイド装置を提供し、前記ウェアラブルデバイスは、第1可視光撮影部、第2可視光撮影部及び深度撮影部を含み、前記装置は、
第1可視光撮影部によって収集された第1場面画像を取得するように構成される第1画像取得モジュールと、
前記第1場面画像の輝度を検出するように構成される輝度検出モジュールと、
前記第1場面画像の輝度が予め設定された輝度を満たしていることに応答して、前記第2可視光撮影部によって収集された第2場面画像を取得するように構成され、及び/又は、前記第1場面画像の輝度が予め設定された輝度を満たしていないことに応答して、前記深度撮影部によって収集された第2場面画像を取得するように構成される第2画像取得モジュールと、
前記第2場面画像に基づいて場面内の対象の深度情報を確定するように構成される検出モジュールと、
前記深度情報に基づいて、前記ウェアラブルデバイスを着用している目標対象に対するガイド情報を生成するように構成されるガイド情報生成モジュールと、を備える。
【0030】
第3態様では、本出願の実施例は、処理部、第1可視光撮影部、第2可視光撮影部及び深度撮影部を含むウェアラブルデバイスを提供し、
前記第1可視光撮影部は、第1場面画像を収集するように構成され、
前記第2可視光撮影部と前記深度撮影部は、第2場面画像を収集するように構成され、
前記処理部は、上記のウェアラブルデバイスによるインテリジェントガイド方法を実行するように構成される。
【0031】
1つの可能な実施形態では、上記ウェアラブルデバイスは、信号シリアル部、信号伝送ケーブル及び信号逆シリアル部をさらに含み、
前記信号シリアル部は、前記第1可視光撮影部、第2可視光撮影部、深度撮影部に通信接続され、前記信号伝送ケーブルの両端は、前記信号シリアル部と信号逆シリアル部にそれぞれ接続され、前記信号逆シリアル部は、前記処理部に通信接続され、
前記第1可視光撮影部は、さらに前記第1場面画像を前記信号シリアル部に送信するように構成され、
前記第2可視光撮影部と前記深度撮影部は、さらに前記第2場面画像を前記信号シリアル部に送信するように構成され、
前記信号シリアル部は、受信された第1場面画像と第2場面画像をシリアル信号に変換し、前記信号伝送ケーブルを介して前記信号逆シリアル部に送信するように構成され、
前記信号逆シリアル部は、受信された信号を逆シリアル化し、逆シリアル化された信号を前記処理部に送信するように構成される。
【0032】
この実施形態では、信号シリアル部を使用して、撮影部によって撮影された画像をシリアル信号、例えばツイストペア線高速差分信号に変換して伝送することにより、信号を2本のケーブルだけで伝送することができ、伝送速度がより速く、コストがより低く、伝送距離がより長く、部の体積がより小さい。
【0033】
1つの可能な実施形態では、前記深度撮影部は、TOFカメラを含む。
【0034】
この実施形態では、TOFカメラを使用すると、光照射強度が弱い場合、場面内の対象の深度情報をより正確に取得することができる。
【0035】
第4態様では、本出願の実施例は、ウェアラブルデバイス及びホストコンピュータを含むガイドシステムを提供し、
前記ウェアラブルデバイスは、第1可視光撮影部、第2可視光撮影部及び深度撮影部を含み、
前記ホストコンピュータは、処理部を含み、前記処理部は、信号伝送ケーブルを介して前記第1可視光撮影部、第2可視光撮影部及び深度撮影部に接続され、前記処理部は、上記のウェアラブルデバイスによるインテリジェントガイド方法を実行するように構成される。
【0036】
1つの可能な実施形態では、前記ホストコンピュータには、前記処理部に接続された位置決めモジュール、ネットワークモジュール、動作状態の検出及び/又は充電管理のためのマイクロコントロールユニット、オーディオモジュールの少なくとも1つが設けられている。
【0037】
第5態様では、本出願の実施例は、プロセッサ、メモリ及びバスを含み、前記メモリには前記プロセッサで実行可能な機械可読命令が記憶されており、電子デバイスが動作する場合、前記プロセッサと前記メモリがバスを介して通信し、前記機械可読命令が前記プロセッサに実行される時に、上記インテリジェントガイド方法のステップを実行する電子デバイスを提供する。
【0038】
第6態様では、本出願の実施例は、コンピュータプログラムが記憶されており、当該コンピュータプログラムがプロセッサに実行される時に、上記インテリジェントガイド方法のステップを実行するコンピュータ可読記憶媒体を提供する。
【0039】
第7態様では、本出願の実施例は、プロセッサによってロードされてインテリジェントガイド方法のステップを実行することに適する1つ又は複数の命令を含むコンピュータプログラム製品を提供する。
【0040】
本出願の上記目的、特徴及び利点がより明確且つ理解しやすくなるために、以下に好ましい実施例を特に挙げて、添付の図面を組み合わせて詳しく説明する。
【図面の簡単な説明】
【0041】
【
図1】本出願の実施例によるウェアラブルデバイスによるインテリジェントガイド方法のフローチャートである。
【
図2】本出願の実施例によるウェアラブルデバイスの構造概略図である。
【
図3】本出願の実施例によるガイドシステムの構造概略図である。
【
図4】本出願の実施例による電子デバイスの概略図である。
【
図5】本出願の実施例によるウェアラブルデバイスによるインテリジェントガイド装置の構造概略図である。
【発明を実施するための形態】
【0042】
本出願の実施例における技術的解決策をより明確に説明するために、以下に実施例に必要な図面を簡単に説明するが、ここでの図面は、明細書に組み込まれて明細書の一部を構成し、これらの図面は、本出願に合致する実施例を示し、本明細書とともに本出願の技術的解決策を説明するために用いられる。以下の図面が本出願のいくつかの実施例のみを示すため、範囲を制限するためのものと見なされるべきではなく、当業者にとって、創造的な労働をすることなく、これらの図面に基づいて他の関連する図面を取得することができることを理解すべきである。
【0043】
本出願の実施例の目的、技術的解決策と利点をより明確にするために、以下に本出願の実施例の図面と組み合わせて、本出願の実施例における技術的解決策を明確かつ全面的に説明し、明らかに、説明される実施例は、本出願の実施例の一部だけであり、全ての実施例ではない。通常、本明細書の図面に記載及び図示されている本出願の実施例の構成要素は、様々な異なる構成で配置及び設計されてもよい。したがって、添付の図面に提供される本出願の実施例の詳細な説明は、保護が要求される本出願の範囲を制限することを意図するものではなく、本出願の選択された実施例を示すものだけである。本出願の実施例に基づき、当業者が創造的な労力を要せずに得る他の実施例は、全て本出願の保護範囲に属する。
【0044】
なお、類似の記号及び文字が以下の添付図面で類似のアイテムを表し、したがって、あるアイテムが1つの添付図面で定義されると、後の図面でそれをさらに定義及び解釈する必要がない。
【0045】
本明細書では「及び/又は」という用語は、関連関係を説明するためのものだけであり、3種類の関係が存在できることを示し、例えば、A及び/又はBは、Aが単独で存在すること、A及びBが同時に存在すること、Bが単独で存在することの3つの状況を示すことができる。また、本明細書では「少なくとも1種類」という用語は、複数の種類のうちの任意の1種類又は複数の種類のうちの少なくとも2種類の任意の組み合わせを示し、例えば、A、B、Cのうちの少なくとも1種類を含むことは、A、BとCからなるセットから選択された任意の1つ又は複数の要素を含むことを示すことができる。
【0046】
本出願の実施例は、ウェアラブルデバイスによるインテリジェントガイド方法及び装置、ウェアラブルデバイス、ガイドシステム、電子デバイス及び記憶媒体を提供する。光照射強度が大きい時に、即ち第1場面画像の輝度が大きい場合、第2可視光撮影部によって撮影された第2場面画像を使用して場面内の対象の深度情報を確定し、光照射強度が小さい場合、即ち第1場面画像の輝度が小さい場合、深度撮影部によって撮影された第2場面画像を使用して場面内の対象の深度情報を確定する。これにより、環境光の照射強度に応じて、異なる部品によって収集された画像を選択して目標対象のためにガイドサービスを提供することを実現し、光照射強度の変化に効果的に適応し、豊かな環境情報を取得することができ、同時に、テクスチャが欠けている障害物を検出することができ、その結果、障害物の検出精度及びガイドの安全性が向上する。
【0047】
以下、本出願によって提供されるウェアラブルデバイスによるインテリジェントガイド方法及び装置、ウェアラブルデバイス、ガイドシステム、電子デバイス及び記憶媒体の実施例を説明する。
【0048】
本出願によって提供されるウェアラブルデバイスによるインテリジェントガイド方法は、処理部に適用されてもよく、当該処理部は、ウェアラブルデバイス上の1つの部品であってもよいし、1つのホストコンピュータに単独で位置してもよい。ウェアラブルデバイスは、第1可視光撮影部、第2可視光撮影部及び深度撮影部を含む。
【0049】
前記処理部は、前記第1可視光撮影部、第2可視光撮影部及び深度撮影部に通信接続されている。ウェアラブルデバイスは、頭部着用デバイスとして目標対象の頭部に着用される。第1可視光撮影部、第2可視光撮影部及び深度撮影部を目標対象の頭部に着用される頭部着用デバイスに組み合わせることができる。処理部は、目標対象の他の部位に着用又は固定され、例えば目標対象の腕などに着用される。本出願の実施例では、目標対象上の上記各部の位置を限定しない。
【0050】
上記目標対象は、視力障害の対象であってもよい。本出願の実施例によって提供されるガイド情報を使用すると、障害物を回避して安全に歩くように目標対象をガイドすることができる。
【0051】
本出願の実施例のインテリジェントガイド方法は、場面内の対象の深度情報を検出し、検出によって得られた深度情報に基づいてガイド情報を生成するために使用される。
図1に示すように、上記のウェアラブルデバイスによるインテリジェントガイド方法は、以下のステップを含むことができる。
【0052】
S110、第1可視光撮影部によって収集された第1場面画像を取得する。
【0053】
前記第1可視光撮影部は、前記ウェアラブルデバイスの周囲の第1場面画像を撮影し、前記処理部を送信するように構成される。第1可視光撮影部が場面画像を撮影するフレームレートが高いため、撮影された第1場面画像内の対象の位置に基づいて、ウェアラブルデバイスに対する場面内の対象の方向位置情報を確定することができる。
【0054】
第1可視光撮影部は、赤緑青(RGB:Red Green Blue)撮影部であってもよい。
【0055】
S120、前記第1場面画像の輝度を検出する。
【0056】
ここで、複数の画像輝度検出方法を使用して検出することができ、例えば、予めトレーニングされたニューラルネットワークを使用して第1場面画像の輝度を検出し、又は、第1場面画像内の各エリア又は各画素点の輝度に対して分布統計を行い、又は平均値を計算し、第1場面画像の輝度を取得することができる。
【0057】
第1場面画像の輝度は、現在の場面の光照射強度を表すことができ、光照射強度が強いほど、第1場面画像の輝度が高くなり、逆に、光照射強度が弱いほど、第1場面画像の輝度が低くなる。したがって、第1場面画像の輝度に基づいて現在の場面の光照射強度の強弱を判断し、さらに第2可視光撮影部によって収集された画像又は深度撮影部によって収集された画像を選択することを確定してさらに場面の深度情報を計算して、光照射強度の変化に適応し、対象の深度情報の検出精度及び生成されたガイド情報の精度を向上させることができる。
【0058】
S130、前記第1場面画像の輝度が予め設定された輝度を満たしていることに応答して、前記第2可視光撮影部によって収集された第2場面画像を取得するステップ、及び/又は、前記第1場面画像の輝度が予め設定された輝度を満たしていないことに応答して、前記深度撮影部によって収集された第2場面画像を取得する。
【0059】
第1場面画像の輝度が予め設定された輝度を満たしている場合、現在の場面の光照射強度が大きく、このときに第2可視光撮影部から第2場面画像を取得することができる。
【0060】
光照射強度が強い場合、可視光撮影部のイメージング効果が高いため、2つの可視光撮影部によって収集された場面画像を使用して場面内の対象の深度情報を確定することができる。光強度が弱い場合、2つの可視光撮影部のイメージング効果が低く、正確な深度情報を取得することができない。このとき、深度撮影部によって収集された深度画像を使用して深度情報を取得することができる。
【0061】
第1場面画像の輝度が予め設定された輝度を満たしている場合、現在の場面の光照射強度が弱く、このとき、深度撮影部から前記深度撮影部から第2場面画像を取得することができる。
【0062】
場面の光強度が弱い場合、2つの可視光撮影部のイメージング効果が低く、正確な深度情報を取得することができなく、この時に深度撮影部によって撮影された場面画像を使用して場面内の物体の深度情報を検出することができ、これにより、光照射強度が弱いため、障害物を検出できないという問題を克服することができる。また、2つの可視光撮影部によって撮影された場面画像から空、砂漠、白い壁などのテクスチャが欠けている障害物の深度情報を効果的に検出することができないが、深度撮影部によって収集された場面画像を使用すると、テクスチャが欠けている上記障害物の深度情報を効果的に検出することができる。
【0063】
第2可視光撮影部はRGB撮影部であってもよい。前記深度撮影部は、飛行時間(TOF:Time of Flight)イメージングに基づくカメラ、即ちTOFカメラであってもよい。TOFカメラを使用すると、光照射強度が弱い場合で場面内の対象の深度情報をより正確に取得することができる。
【0064】
S140、前記第2場面画像に基づいて場面内の対象の深度情報を確定する。
【0065】
第2場面画像が第2可視光撮影部によって収集された画像である場合、両眼視覚の原理に従って、第1場面画像及び第2場面画像に基づいて画像内の物体に対応する場面内の対象の深度情報を計算することができる。現在の場面の光照射強度が強い場合、2つの可視光撮影部によって収集された2つの場面画像を使用すると、場面内の対象の深度情報をより正確に確定することができる。
【0066】
例えば、まず前記第1場面画像内の場面内の対象を表すための画素点と前記第2場面画像内の場面内の対象を表すための画素点を突き合わせ、画素点対を取得し、次に前記画素点対に対応する視差情報、前記第1可視光撮影部と前記第2可視光撮影部との間の中心距離、及び前記第1可視光撮影部の焦点距離に基づいて、前記場面内の対象の深度情報を確定する。
【0067】
第2場面画像が深度撮影部によって収集された深度画像である場合、深度撮影部によって感知された深度情報に基づいて場面内の対象の深度情報を直接確定することができる。
【0068】
現在の場面の光照射強度が弱い場合、TOFカメラを使用すると、光照射強度が弱い場合、場面内の対象の深度情報をより正確に取得することができる。
【0069】
例えば、まず前記第2場面画像内の場面内の対象の目標画素点を確定し、次に前記第2場面画像内の前記目標画素点の深度情報に基づいて、前記場面内の対象の深度情報を確定する。例えば、目標検出により、第2場面画像から場面内の対象の位置を検出し、さらに検出結果に従って第2場面画像内の対応する位置にある画素点の深度情報を当該対象の深度情報として確定することができる。
【0070】
S150、前記深度情報に基づいて、前記ウェアラブルデバイスを着用している目標対象に対するガイド情報を生成する。
【0071】
ここで、深度情報に基づいて通知情報を生成することができ、前記通知情報は、前記ウェアラブルデバイスを着用している前記目標対象に前記深度情報を通知するために使用される。目標対象に場面内の対象の深度情報を通知することにより、目標対象の動作を効果的にガイドし、ガイドの効率及びガイドの安全性を向上させることができる。
【0072】
また、目標対象により豊かなガイド情報を提供するために、例えば目標対象に障害物の方向情報及び深度情報のガイド情報を提供するために、ここでは次のステップによってガイド情報を生成することができ、即ち、
前記第1場面画像に基づいて、ウェアラブルデバイスに対する場面内の対象の方向位置情報を確定し、ウェアラブルデバイスに対する場面内の対象の方向位置情報及び場面内の対象の深度情報に基づいて、前記ウェアラブルデバイスを着用している目標対象に対するガイド情報を生成する。
【0073】
方向位置情報及び深度情報に基づいて生成されたガイド情報によりガイドの効率及びガイドの安全性をさらに向上させることができる。
【0074】
具体的に実施するために使用される場合、第1場面画像内の対象の位置に基づいて、ウェアラブルデバイスに対する対象の方向位置情報を確定することができる。ここでは、方向位置情報は、方向位置角を含むことができ、又は、方向位置情報は、予め区画された方向位置のうちの1つを表すことができ、予め区画された方向位置は、例えば左前、右前、右前、真ん前を含むことができる。例えば、対象Aが第1場面画像の左側にあることに応答して、ウェアラブルデバイスに対する対象の方向位置情報が左前であることを確定し、対象Aが第1場面画像の右側にあることに応答して、ウェアラブルデバイスに対する対象の方向位置情報が右前であることを確定し、対象Aが第1場面画像の中央にあることに応答して、ウェアラブルデバイスに対する対象の方向位置情報が真ん前であることを確定する。
【0075】
いくつかの実施例では、光照射強度に基づいて異なる撮影部を切り替えて、第2場面画像を収集するステップは、具体的には次のステップによって実現されてもよい。
【0076】
前記第1場面画像の輝度が予め設定された輝度を満たしている場合、即ち、現在の場面の光照射強度が強い場合、処理部は、前記第2可視光撮影部に第1露光命令を送信し、第2可視光撮影部は、第1露光命令に基づいて露光し、第2場面画像を収集する。その後、処理部は、第2可視光撮影部から第2場面画像を取得する。
【0077】
当然、第2可視光撮影部は、第2場面画像を常に収集することもできるが、処理部によって送信された第1露光命令が受信された場合、対応する時点に収集された第2場面画像を処理部に送信する。
【0078】
前記第1場面画像の輝度が予め設定された輝度を満たしていない場合、即ち現在の場面の光照射強度が弱い場合、処理部は、前記深度撮影部に第2露光命令を送信し、深度撮影部は、第2露光命令に従って露光し、第2場面画像を収集する。その後、処理部は、深度撮影部から第2場面画像を取得する。
【0079】
当然、深度撮影部は、第2場面画像を常に収集することもできるが、処理部によって送信された第2露光命令が受信された場合、対応する時点に収集された第2場面画像を処理部に送信する。
【0080】
光照射強度が大きい時に、露光を行うように第2可視光撮影部を制御し、光照射強度が小さい場合、露光を行うように深度撮影部を制御することにより、環境光の強度に応じて異なる撮影部を能動的に切り替えて、対象の深度情報を確定するための第2場面画像を収集することを実現し、それによって本出願の実施例のインテリジェントガイド方法は、光照射強度の変化に適応し、より豊かな環境情報を取得することができ、同時に、クスチャが欠けている障害物を検出することができ、その結果、障害物の検出精度及びガイドの安全性が向上する。
【0081】
また、第2可視光撮影部によって撮影された場面画像がウェアラブルデバイスに対する場面内の対象の方向位置情報及び/又は対象の種類情報などを確定するために使用されないため、そのフレームレートが第1可視光撮影部に対して低く、このようにして深度情報検出のニーズを満たすことができるだけでなく、第2可視光撮影部の消費電力を低減し、ウェアラブルデバイスの熱放散量を減少させることができる。
【0082】
例えば、分周回路により第1可視光撮影部と第2可視光撮影部による異なるフレームレートでの同期的な露光を実現することができ、前記第1場面画像の輝度が予め設定された輝度を満たしている場合、処理部は、前記分周回路に露光命令を送信し、前記分周回路は、受信された露光命令に対して分周処理を行い、分周処理によって得られた第3露光命令を第2可視光撮影部に送信する。その後、処理部は、前記第2可視光撮影部が前記第3露出命令に基づいて露出制御を行って収集した第2場面画像を、取得する。第1可視光撮影部が画像を収集するフレームレートが高いため、第1可視光撮影部は、処理部により、前記分周回路に露出命令を直接送信することができ、処理部は、前記分周回路に露光命令を送信するとともに、第1可視光撮影部に露光命令を送信する。
【0083】
深度撮影部の消費電力を節約するために、第1可視光撮影部の周波数よりも低い周波数で露光するように深度撮影部を制御することができ、したがって、深度撮影部によって撮影された画像のフレームレートが第1可視光撮影部よりも低く、このようにして深度情報検出のニーズを満たすことができるだけでなく、深度撮影部の電力消費を低減し、ウェアラブルデバイスの熱放散量を減少することができる。
【0084】
例えば、分周回路により第1可視光撮影部と深度撮影部による異なるフレームレートでの同時露光を実現することができ、前記第1場面画像の輝度が予め設定された輝度を満たしていない場合、処理部は、前記分周回路に露光命令を送信し、前記分周回路は、受信された露光命令に対して分周処理を行い、分周処理によって得られた第4露光命令を深度撮影部に送信し、その後、処理部は、前記深度撮影部が前記第4露出命令に基づいて露出制御を行って収集した第2場面画像を、取得する。第1可視光撮影部が画像を収集するフレームレートが高いため、第1可視光収集部は、処理部に基づいて、前記分周回路に露出命令を直接することができ、処理部は、前記分周回路に露光命令を送信するとともに、第1可視光撮影部に露光命令を送信する。
【0085】
分周回路を使用して露光命令に対して分周処理を行い、分周処理により得られた露光命令を使用して、画像を収集するように第2可視光撮影部又は深度撮影部を制御することにより、同時に露光するように異なるフレームフレームの撮影部を制御することを実現し、エネルギー消費が節約される。
【0086】
環境光の照射強度が弱い場合、第1可視光撮影部及び深度撮影部によって撮影された画像を使用して場面内の対象の深度情報を検出することができ、しかし、この方式は、遠距離の対象の深度情報を検出することに適していなく、同時に、この方式は、ガラス、水面などの透明さが高く外観が滑らかな対象の深度情報を効果的に検出することもできない。この場合、検出された深度情報が間違っている可能性があるため、処理部は、検出された深度情報及び場面内の対象のカテゴリを検出した後に、深度情報が明らかに不合理であるか否か、即ち深度情報に対応する深度が予め設定された深度閾値よりも大きいか否かを判断し、及び/又は場面にガラス、水面などの予め設定された種類の対象が出現することが検出されたか否かを判断する。
【0087】
処理部が深度情報に対応する深度が予め設定された深度閾値よりも大きいことを確定すること及び/又は前記第1場面画像に予め設定された種類の対象が含まれることを検出したことに応答して、前記超音波検出部は、前記超音波検出命令に基づいて超音波を送信し、検出された超音波フィードバック信号を処理部に送信する。処理部は、受信された前記超音波フィードバック信号に基づいて、前記場面内の対象の深さ情報を更新する。
【0088】
超音波検出部は、物体の深度情報の検出精度が高い。環境が複雑であるため、又は物体自体の特性の影響により、可視光撮影部又は深度撮影部によって撮影された第2場面画像から場面内の対象の深度情報を正確に確定することができなくなる場合、超音波検出部を使用して深度情報を検出することにより、ウェアラブルデバイスの適用性が向上し、より複雑な環境で場面内の対象の深度情報をより正確に検出することが可能になる。
【0089】
上記ウェアラブルデバイスを着用した目標対象は、動く過程において何らかの動作をする可能性があり、その結果、撮影された場面画像に基づいて対象検出を実行する時に、目標対象の動きを邪魔する対象を正確に検出することができなく、例えば、目標対象が頭を大きい角度で下げる場合、ウェアラブルデバイスによって撮影された場面が反対側に集中するため、取得された場面画像が地面の画像であり、目標対象の前方又は側面にある、その動きに影響する障害物を正確に検出することができなくなる。このとき、生成されたガイド情報の精度を向上させ、無効な障害物の検出を回避し、目標対象の行進に影響を与える可能性のある障害物を正確に検出できないようにするため、目標対象の姿勢情報を組み合わせてガイド情報を生成する必要があり、又は、目標対象が頭を大きい角度で上げるなどの予め設定された姿勢をとる場合、姿勢を矯正するように目標対象に促す。
【0090】
例えば、上記ウェアラブルデバイスは、姿勢測定部をさらに含むことができ、前記姿勢測定部は、前記処理部に通信接続されている。姿勢測定部は、前記ウェアラブルデバイスの姿勢情報を測定し、ここでウェアラブルデバイスの姿勢情報は目標対象の姿勢情報と同じであると見なす。姿勢測定部は、測定された姿勢情報を処理部に送信する。
【0091】
上記方法は、受信された姿勢情報に基づいて、前記ウェアラブルデバイスの目標対象の姿勢が第1予め設定された姿勢にあるか否かを判断し、そうである場合、姿勢矯正通知情報を生成するステップをさらに含む。上記第1予め設定された姿勢は、例えば頭をより大きな角度で上げるなどの、目標対象の動作に影響を与えない対象を撮影することができる姿勢である。目標対象が第1予め設定された姿勢にあることを確定した場合、姿勢矯正通知情報を使用し、現在の姿勢を矯正するように目標対象に通知することにより、ガイド情報の精度及びガイドの安全性がさらに向上する。
【0092】
姿勢情報が受信された後、姿勢情報に基づいてガイド情報を生成することができ、例えば、前記ウェアラブルデバイスの姿勢情報に基づいて、前記ウェアラブルデバイスに対する対象の方向位置情報を第2予め設定された姿勢にあるウェアラブルデバイスに対する対象の方向位置情報に変換し、変換後の方向位置情報及び場面内の対象の深度情報に基づいて、前記ウェアラブルデバイスを着用している目標対象に対するガイド情報及び/又は姿勢矯通知情報を生成することができる。
【0093】
具体的に実施するために使用される場合、次のステップで方向位置情報を変換することができ、即ち、第2予め設定された姿勢と現在のウェアラブルデバイスの姿勢情報との間の姿勢差情報を確定し、姿勢差情報を使用してウェアラブルデバイスに対する対象の方向位置情報を変換し、変換後の方向位置情報を取得する。例えば、姿勢差情報が、ウェアラブルデバイスが頭を80度に上げる姿勢にあることを示すことに応答して、確定された方向位置情報は、対象がウェアラブルデバイスの真ん前にあることを示し、変換後の方向位置情報は、対象がウェアラブルデバイスの上方にあることを示し、姿勢差情報が、ウェアラブルデバイスが頭を左に60度回転させた姿勢にあることを示すことに応答して、確定された方向位置情報は、対象がウェアラブルデバイスの真ん前にあることを示し、変換後の方向位置情報は、対象がウェアラブルデバイスの左前にあることを示す。
【0094】
また、場面内の対象の深度情報は、具体的には対象とウェアラブルデバイスとの間の距離を特徴づけるために使用され、ウェアラブルデバイスの姿勢が変化した後、ウェアラブルデバイスの位置が大きく変化しないため、対象とウェアラブルデバイスとの間の距離も明らかな変化しなく、したがって、場面内の対象の深度情報を変換する必要がなく、場面内の対象の深度情報は、対象とウェアラブルデバイスとの間の距離をより正確に表すことができる。
【0095】
上記第2予め設定された姿勢は、例えばウェアラブルデバイスが目標対象の行進方向に向かう姿勢である。
【0096】
上記の変換後の方向位置情報は、対応する対象が目標対象の動作経路上にあるか否かを判断し、即ち場面内の対象が目標対象の動作の障害物であるか否かを判断するために使用可能であり、対応する対象が目標対象の障害物である場合、変換後の方向位置情報に基づいてガイド情報を生成して、障害物を回避するように目標対象をガイドする必要がある。
【0097】
前記ウェアラブルデバイスに対する場面内の対象の方向位置情報を第2予め設定された姿勢にあるウェアラブルデバイスに対する場面内の対象の方向位置情報に変換し、即ち目標対象の動作に効果的な方向位置情報を生成し、当該効果的な情報を使用してより正確及び効果的なガイド情報を生成することができる。
【0098】
応用中、姿勢測定部は、9軸ジャイロスコープなどのジャイロスコープであってもよい。
【0099】
上記の各撮影部によって収集された画像情報量が大きく、ガイドのリアルタイム性を向上させるために、各撮影部と処理部との信号伝送を短時間で完了する必要があり、本出願の実施例は、信号シリアル部、信号伝送ケーブル及び信号逆シリアル部により信号の伝送を実現する。
【0100】
前記信号シリアル部は、前記第1可視光撮影部、第2可視光撮影部、深度撮影部に通信接続され、前記信号伝送ケーブルの両端は、前記信号シリアル部と信号逆シリアル部にそれぞれ接続され、前記信号逆シリアル部は、前記処理部に通信接続されている。
【0101】
前記第1可視光撮影部は、前記第1場面画像を前記信号シリアル部に送信し、前記第2可視光撮影部と前記深度撮影部は、前記第2場面画像を前記信号シリアル部に送信し、前記信号シリアル部は、受信された第1場面画像と第2場面画像をシリアル信号に変換し、前記信号伝送ケーブルを介して前記信号逆シリアル部に送信し、前記信号逆シリアル部は、受信された信号を逆シリアル化し、逆シリアル化された信号を前記処理部に送信する。
【0102】
信号シリアル部、信号伝送ケーブル及び信号逆シリアル部による上記信号伝送は、例えばV-BY-ONEツイストペア線技術であってもよい。V-BY-ONEは、ビデオ信号伝送のための21倍速シリアル化インターフェース技術である。V-BY-ONEツイストペア線技術では、伝送ケーブルの数がより少なく、2本のケーブルだけでよく、より軽量であり、伝送ケーブルの要求がより低く、シールドが必要ではなく、コストが節約され、伝送帯域幅がより広く、最大3.75ギガビット/秒(Gbps)に達することができ、距離がより長く、高品質の伝送距離が15メートルに達することができ、チップの体積がより小さいため、軽量型ウェアラブル製品の設計により有利であり、例えば、5ミリメートル(mm)×5ミリメートル(mm)にパッケージ化できる。
【0103】
上記信号伝送ケーブルは、V-BY-ONEツイストペア線で接続されており、曲げにくく、引張りに強く、軽くて柔らかい。
【0104】
信号シリアル部を使用して、撮影部によって撮影された画像をツイストペア線高速差分信号に変換して伝送することにより、信号を2本のケーブルだけで伝送することができ、伝送速度がより速く、コストがより低く、伝送距離がより長く、部の体積がより小さい。
【0105】
信号シリアル部を使用して、撮影部によって撮影された画像をシリアル信号、例えばツイストペア線高速差分信号に変換して伝送することにより、信号を2本のケーブルだけで伝送することができ、伝送速度がより速く、コストがより低く、伝送距離がより長く、部の体積が小さい。
【0106】
目標対象にガイド情報を音声で出力するために、ウェアラブルデバイスは、音声出力部をさらに含むことができ、前記音声出力部は、前記処理部に通信接続されている。例えば、次のステップでガイド情報の再生を実現することができ、即ち、前記ガイド情報に基づいて音声ナビゲーション情報を生成し、前記音声ナビゲーション情報を前記音声出力部に送信して、前記音声出力部は、前記音声ナビゲーション情報を前記目標対象に再生する。
【0107】
音声ナビゲーション情報と音声出力部により、障害物を回避するように目標対象を効果的にガイドすることができ、ガイドの効率及びガイドの安全性が向上する。
【0108】
具体的に実施するために使用される場合、上記処理部は、システムオンチップ(SOC:System on Chip)であってもよく、音声出力部は、オーディオ骨伝導ヘッドホンであってもよく、上記オーディオ骨伝導ヘッドホンは、さらにマンマシン対話にも使用される。
【0109】
異なる光照射環境の使用、遠距離の対象の深度情報の検出、撮影部の欠点の補足及びより豊かな環境情報の取得を両立させるために、本出願の実施例は、第1可視光撮影部、第2可視光撮影部、深度撮影部を統合し、光照射強度を判断した後に撮影部を能動的に切り替え、検出精度を向上し、変化する光照射環境に適応する。また、本出願の実施例は、超音波検出部と姿勢測定部をさらに融合し、超音波によってより正確な深度情報を取得して、撮影部の欠点を補い、姿勢測定部によって姿勢情報を取得し、検出精度を最適化する。上記実施例におけるインテリジェントガイド方法は、経路計画、位置決め、障害物検出、音声通知などの機能を実行することができ、精度がより高く、環境適応性がより強く、視力障害のある人が一人で外出することが可能になり、より便利で安全である。
【0110】
上記のウェアラブルデバイスによるインテリジェントガイド方法に対応して、本出願の実施例は、ウェアラブルデバイスによるインテリジェントガイド装置をさらに提供し、当該装置での各モジュールによって実現される機能は、以上のインテリジェントガイド方法における対応するステップと同じであり、処理部上に応用される。前記ウェアラブルデバイスは、第1可視光撮影部、第2可視光撮影部及び深度撮影部を含む。
図5に示すように、インテリジェントガイド装置は、
第1可視光撮影部によって収集された第1場面画像を取得するように構成される第1画像取得モジュール510と、
前記第1場面画像の輝度を検出するように構成される輝度検出モジュール520と、
前記第1場面画像の輝度が予め設定された輝度を満たしていることに応答して、前記第2可視光撮影部によって収集された第2場面画像を取得するように構成され、及び/又は、前記第1場面画像の輝度が予め設定された輝度を満たしていないことに応答して、前記深度撮影部によって収集された第2場面画像を取得するように構成される第2画像取得モジュール530と、
前記第2場面画像に基づいて場面内の対象の深度情報を確定するように構成される検出モジュール540と、
前記深度情報に基づいて、前記ウェアラブルデバイスを着用している目標対象に対するガイド情報を生成するように構成されるガイド情報生成モジュール550と、を備えることができる。
【0111】
いくつかの実施例では、前記第2画像取得モジュール530は、前記第1場面画像の輝度が予め設定された輝度を満たしていることに応答して、前記第2可視光撮影部によって収集された第2場面画像を取得する場合、
前記第1場面画像の輝度が予め設定された輝度を満たしていることに応答して、前記第2可視光撮影部に第1露光命令を送信し、前記第2可視光撮影部が前記第1露光命令に基づいて露光制御を行って収集した第2場面画像を、取得するように構成され、
前記第2画像取得モジュール530は、前記第1場面画像の輝度が予め設定された輝度を満たしていないことに応答して、前記深度撮影部によって収集された第2場面画像を取得する場合、
前記第1場面画像の輝度が予め設定された輝度を満たしていないことに応答して、前記深度撮影部に第2露光命令を送信し、前記深度撮影部が前記第2露光命令に基づいて露光制御を行って収集した第2場面画像を、取得するように構成される。
【0112】
いくつかの実施例では、前記検出モジュール540は、前記第2場面画像に基づいて場面内の対象の深度情報を確定する場合、
前記第1場面画像の輝度が予め設定された輝度を満たしていることに応答して、前記第1場面画像内の場面内の対象を表すための画素点と前記第2場面画像内の場面内の対象を表すための画素点を突き合わせ、画素点対を取得し、
前記画素点対に対応する視差情報、前記第1可視光撮影部と前記第2可視光撮影部との間の中心距離、及び前記第1可視光撮影部の焦点距離に基づいて、前記場面内の対象の深度情報を確定するように構成される。
【0113】
いくつかの実施例では、前記検出モジュール540は、前記第2場面画像に基づいて場面内の対象の深度情報を確定する場合、
前記第1場面画像の輝度が予め設定された輝度を満たしていないことに応答して、前記第2場面画像内の場面内の対象の目標画素点を確定し、
前記第2場面画像内の前記目標画素点の深度情報に基づいて、前記場面内の対象の深度情報を確定するように構成される。
【0114】
いくつかの実施例では、前記ガイド情報生成モジュール550は、前記深度情報に基づいて、前記ウェアラブルデバイスを着用している目標対象に対するガイド情報を生成する場合、
通知情報を生成するように構成され、前記通知情報が、前記ウェアラブルデバイスを着用している前記目標対象に前記深度情報を通知するために使用される。
【0115】
いくつかの実施例では、前記検出モジュール540は、さらに、
前記第1場面画像に基づいて、ウェアラブルデバイスに対する場面内の対象の方向位置情報を確定するように構成され、
前記ガイド情報生成モジュール550は、前記深度情報に基づいて、前記ウェアラブルデバイスを着用している目標対象に対するガイド情報を生成する場合、
ウェアラブルデバイスに対する場面内の対象の方向位置情報及び場面内の対象の深度情報に基づいて、前記ウェアラブルデバイスを着用している目標対象に対するガイド情報を生成するように構成される。
【0116】
いくつかの実施例では、前記ウェアラブルデバイスは、超音波検出部をさらに含み、
前記検出モジュール540は、さらに、
前記深度情報に対応する深度が予め設定された深度閾値よりも大きいこと及び/又は前記第1場面画像に予め設定された種類の対象が含まれることを検出したことに応答して、前記超音波検出部に超音波検出命令を送信し、前記超音波検出部で前記超音波検出命令に基づいて検出された超音波フィードバック信号を、受信し、
受信された前記超音波フィードバック信号に基づいて、前記場面内の対象の深度情報を更新するように構成される。
【0117】
いくつかの実施例では、前記ウェアラブルデバイスは、姿勢測定部をさらに含む。
【0118】
前記検出モジュール540は、さらに、
前記姿勢測定部によって収集されたウェアラブルデバイスの姿勢情報を取得し、
前記姿勢情報に基づいて前記ウェアラブルデバイスを着用している目標対象の姿勢が第1予め設定された姿勢にあることを確定したことに応答して、姿勢矯正通知情報を生成するように構成される。
【0119】
いくつかの実施例では、前記検出モジュール540は、さらに、
前記第1場面画像に基づいて、前記ウェアラブルデバイスに対する場面内の対象の方向位置情報を確定し、
前記ウェアラブルデバイスの姿勢情報に基づいて、前記方向位置情報を、第2予め設定された姿勢にあるウェアラブルデバイスに対する場面内の対象の方向位置情報に変換するように構成され、
前記ガイド情報生成モジュール550は、前記深度情報に基づいて、前記ウェアラブルデバイスを着用している目標対象に対するガイド情報を生成する場合、
変換後の方向位置情報と場面内の対象の深度情報に基づいて、前記ウェアラブルデバイスを着用している目標対象に対するガイド情報及び/又は姿勢矯正通知情報を生成するように構成される。
【0120】
いくつかの実施例では、前記ウェアラブルデバイスは、音声出力部をさらに含み、
前記ガイド情報生成モジュール550は、さらに、
前記ガイド情報に基づいて音声ナビゲーション情報を生成し、前記音声ナビゲーション情報を前記音声出力部に送信して、前記音声出力部で前記音声ナビゲーション情報を前記目標対象に再生するように構成される。
【0121】
いくつかの実施例では、前記ウェアラブルデバイスは、分周回路をさらに含み、
前記第2画像取得モジュール530は、前記第1場面画像の輝度が予め設定された輝度を満たしていることに応答して、前記第2可視光撮影部によって収集された第2場面画像を取得する場合、
前記第1場面画像の輝度が予め設定された輝度を満たしていることに応答して、前記分周回路に露光命令を送信し、前記分周回路で受信された露光命令に対して分周処理を行い、分周処理によって得られた第3露光命令を第2可視光撮影部に送信し、前記第2可視光撮影部で前記第3露光命令に基づいて露光制御を行って収集した第2場面画像を取得するように構成され、及び/又は
前記第2画像取得モジュール530は、前記第1場面画像の輝度が予め設定された輝度を満たしていないことに応答して、前記深度撮影部によって収集された第2場面画像を取得する場合、
前記第1場面画像の輝度が予め設定された輝度を満たしていないことに応答して、前記分周回路に露光命令を送信し、前記分周回路で受信された露光命令に対して分周処理を行い、分周処理によって得られた第4露光命令を深度撮影部に送信し、前記深度撮影部で前記第4露光命令に基づいて露光制御を行って収集した第2場面画像を取得するように構成される。
【0122】
上記のウェアラブルデバイスによるインテリジェントガイド方法に対応して、本出願の実施例は、ウェアラブルデバイスを提供し、当該ウェアラブルデバイスでの各部によって実現される機能は、上記実施例における対応する部によって実現される機能と同じである。例えば、
図2に示すように、番号21は頭部着用デバイス側ブロック図を表し、番号22はホストコンピュータ側ブロック図であり、頭部着用デバイス側ブロックとホストコンピュータ側ブロック図は、信号伝送ケーブル208を介して接続されている。ウェアラブルデバイスは、処理部201、第1可視光撮影部202、第2可視光撮影部203及び深度撮影部204を含むことができる。前記第1可視光撮影部202は、第1場面画像を収集するように構成され、前記第2可視光撮影部203及び前記第2深度撮影部204は、第2場面画像を収集するように構成され、前記処理部201は、上記のウェアラブルデバイスによるインテリジェントガイド方法を実行するように構成される。
【0123】
いくつかの実施例では、上記ウェアラブルデバイスは、超音波検出部205、姿勢測定部206、信号シリアル部207、信号伝送ケーブル208、信号逆シリアル部209、音声出力部210をさらに含むことができる。上記超音波検出部205、姿勢測定部206、信号シリアル部207、信号伝送ケーブル208、信号逆シリアル部209、音声出力部210によって実現される機能は、上記実施例のインテリジェントガイド方法における対応する部によって実現される機能と同じである。
【0124】
また、ウェアラブルデバイスは、マイクロコントロール部MCU211、WIFI部212、GPS部213をさらに含むことができる。マイクロコントロール部MCU211は、ウェアラブルデバイスの充電管理及びマシン全体の状態検出を行うように構成され、GPS部213は、ウェアラブルデバイスの位置決めを行うように構成され、WIFI部212は、ウェアラブルデバイス内の第1場面画像、第2場面画像、深度情報などをリモートサーバーに送信するように構成される。
【0125】
いくつかの実施例では、
図2に示すように、頭部着用デバイス側ブロック21は、2つの可視光撮影部202及び203、深度撮影像部204を含み、その中の1つのRGB撮影部を主撮影部として同期トリガ信号を別のRGB撮影部に出力するとともに、1つの周波数分割チップを介して1つの同期トリガ信号を深度撮影部に出力し、このようにして、2つのRGB撮影部202及び203、深度撮影部204は、異なるフレームレートでも3つの撮影部による同時露光を実現することができる。3つの撮影部の画像信号は、信号シリアル部207(V-BY-ONEシリアルチップ)を通過してツイストペア線高速差分信号に変換され、信号伝送ケーブル208を介してホストコンピュータ側ブロック
図22に接続され、姿勢測定部206(ジャイロ)は、ユーザの姿勢情報を常に監視するために使用され、超音波検出部205は、ガラス壁、水面などの距離情報を検出するために使用される。
【0126】
ホストコンピュータ側ブロック
図22は、処理部201(SOC部)、全地球測位システム(GPS:Global Positioning System)部213、WIFI部212、統合されたV-BY-ONE逆シリアル化チップ(信号逆シリアル部)209、MCU(マイクロコントロール部)211及び音声出力部210を含み、処理部201は、強力な計算能力を備えた人工知能処理モジュールを採用している。統合されたV-BY-ONE逆シリアル化チップ209は、タッチモバイル産業用プロセッサインターフェースのカメラインターフェース規格(MIPI-CSI:Mobile Industry Processor Interface-Camera Serial Interface)データを処理部201のモバイルインダストリープロセッサインターフェース物理(MIPI PHY:Mobile Industry Processor Interface Physical)入力インターフェースに送信し、アルゴリズムを使用してさらに処理し、次に音声出力部210のオーディオ骨伝導ヘッドセットによって再生して通知し、音声出力部210は、さらに人間とコンピュータの対話型音声対話を行うこともでき、MCU211は、マシン全体の動作状態の検出及び充電管理などを行うために使用され、GPS部213は、リアルタイム動的(RTK:Real time kinematic)技術を採用して正確な位置決めを行うために使用され、WIFI部212は、データを同期ネットワークにアップロードするために使用される。
【0127】
信号伝送ケーブル208は、V-BY-ONEツイストペア線で接続されている。
【0128】
図3に示すように、本出願の実施例は、ウェアラブルデバイス301及びホストコンピュータ302を含むガイドシステム300を提供する。前記ウェアラブルデバイス301は、第1可視光撮影部、第2可視光撮影部及び深度撮影部を含み、前記ホストコンピュータ302は、処理部を含み、前記処理部は、信号伝送ケーブルを介して前記第1可視光撮影部、第2可視光撮影部及び深度撮影部に接続され、前記処理部は、上記のウェアラブルデバイスによるインテリジェントガイド方法を実行するように構成される。
【0129】
前記ホストコンピュータ302には、前記処理部に接続された位置決めモジュール、ネットワークモジュール、動作状態の検出及び/又は充電管理のためのマイクロコントロールユニット、オーディオモジュールの少なくとも1つが設けられてもよい。
【0130】
図1のインテリジェントガイド方法に対応して、本出願の実施例は、電子デバイス6をさらに提供する。
図4に示すように、それは本出願の実施例による電子デバイス400の構造概略図である。前記電子デバイス400は、
プロセッサ41、メモリ42及びバス43を含み、メモリ42は、実行命令を記憶するように構成され、内部メモリ421と外部メモリ422を含み、ここでのメモリ421は内部メモリとも呼ばれ、プロセッサ41内の演算データ、及びハードディスクなどの外部メモリ422と交換されるデータを一時的に記憶するように構成され、プロセッサ41は、内部メモリ421と外部メモリ422を介してデータ交換を行い、電子デバイス400が動作する場合、プロセッサ41とメモリ42は、バス43を介して通信し、その結果、プロセッサ41は、第1可視光撮影部によって収集された第1場面画像を取得する命令、前記第1場面画像の輝度を検出する命令、前記第1場面画像の輝度が予め設定された輝度を満たしていることに応答して、前記第2可視光撮影部によって収集された第2場面画像を取得する命令、及び/又は、前記第1場面画像の輝度が予め設定された輝度を満たしていないことに応答して、前記深度撮影部によって収集された第2場面画像を取得する命令、前記第2場面画像に基づいて場面内の対象の深度情報を確定する命令、前記深度情報に基づいて、前記ウェアラブルデバイスを着用している目標対象に対するガイド情報を生成する命令を実行する。
【0131】
本出願の実施例は、コンピュータプログラムが記憶されており、当該コンピュータプログラムがプロセッサに実行される時に、上記方法の実施例におけるインテリジェントガイド方法のステップを実行するコンピュータ可読記憶媒体をさらに提供する。ここで、当該記憶媒体は、揮発性コンピュータ可読記憶媒体又は不揮発性コンピュータ可読記憶媒体であってもよい。
【0132】
本出願の実施例によって提供されるインテリジェントガイド方法のコンピュータプログラム製品は、プログラムコードを記憶しているコンピュータ可読記憶媒体を含み、前記プログラムコードに含まれる命令は、上記方法の実施例に記載されたインテリジェントガイド方法のステップを実行するために使用されてもよく、例えば、上記方法の実施例を参照することができる。
【0133】
本出願の実施例は、プロセッサに実行される時に上記の実施例の任意の方法を実現するコンピュータプログラムをさらに提供する。当該コンピュータプログラム製品は、例えばハードウェア、ソフトウェア又はそれらの組み合わせによって実現されてもよい。1つの選択可能な実施例では、前記コンピュータプログラム製品は、例えばコンピュータ記憶媒体として具体化され、別の選択可能な実施例では、コンピュータプログラム製品は、例えばソフトウェア開発キット(SDK:Software Development Kit)などのソフトウェア製品として具体化される。
【0134】
当業者は、便利及び簡潔に説明するために、上記のシステムと装置の具体的な動作プロセスについて、前記方法の実施例における対応するプロセスを参照できることを明確に理解することができる。本出願が提供する、いくつかの実施例では、開示されるシステム、装置及び方法は、他の方式により実現されてもよいと理解すべきである。上記の装置の実施例は、例示的なものだけであり、例えば、前記ユニットの区分は、論理機能的区分だけであり、実際に実施する時に他の区分方式もあり得て、また、例えば、複数のユニット又は構成要素は組み合わせられてもよく又は別のシステムに統合されてもよく、又はいくつかの特徴は無視されてもよく、又は実行されなくてもよい。また、示され、又は議論される相互結合又は直接結合又は通信接続はいくつかの通信インターフェース、装置又はユニットを介す間接的結合又は通信接続であってもよく、電気的、機械的又は他の形態であってもよい。
【0135】
分離部として説明された前記ユニットは物理的に分離するものであってもよく又は物理的に分離するものでなくてもよく、ユニットとして表示された部は物理的要素であってもよく又は物理的ユニットでなくてもよく、即ち1つの箇所に位置してもよく、又は複数のネットワーク要素に分布してもよい。実際のニーズに応じてその中の一部又は全てのユニットを選択して本実施例の解決策の目的を達成することができる。
【0136】
また、本出願の各実施例における各機能ユニットは1つの処理ユニットに統合されてもよく、個々のユニットは、単独で物理的に存在してもよく、2つ又は2つ以上のユニットは1つのユニットに統合されてもよい。
【0137】
前記機能は、ソフトウェア機能ユニットの形態で実現され且つ独立した製品として販売又は使用される場合、プロセッサで実行可能な不揮発性コンピュータ可読記憶媒体に記憶されてもよい。このような理解に基づき、本出願の技術的解決策は、本質的に又は従来技術に寄与する部分又は当該技術的解決策の部分がソフトウェア製品の形で具体化してもよく、当該コンピュータソフトウェア製品が1つの記憶媒体に記憶され、コンピュータ機器(パーソナルコンピュータ、サーバー、又はネットワークデバイス等であってもよい)に本出願の様々な実施例に記載される方法の全て又は一部のステップを実行させるためのいくつかの命令を含む。前記憶媒体は、USBフラッシュディスク、モバイルハードディスク、読み出し専用メモリ(ROM:Read-Only Memory)、ランダムアクセスメモリ(RAM:Random Access Memory)、磁気ディスク又は光ディスク等のプログラムコードを記憶できる様々な媒体を含む。
【0138】
最後に説明すべきこととして、上記実施例は、本出願の具体的な実施形態だけであり、本出願の技術的解決策を説明するためのものであり、それを制限しなく、本開示の保護範囲は、これに限定されなく、上記実施例を参照して本出願を詳細に説明するが、当業者は、いかなる当業者が本出願で開示される技術範囲内で、依然として上記実施例に記載される技術的解決策を変更し、又は変化を容易に想到し、又はその中の一部の技術特徴に対して同等入れ替えを行うことができ、これらの変更、変化又は入れ替えが対応する技術的解決策の本質を、本出願の実施例における技術的解決策の精神及び範囲から逸脱させなく、全て本出願の保護範囲に含まれるべきである。従って、本出願の保護範囲は前記請求項の保護範囲に準拠するべきである。
産業上の利用可能性
本開示の実施例では、光照射強度が大きい時に、即ち第1場面画像の輝度が大きい場合、第2可視光撮影部によって撮影された第2場面画像を使用して場面内の対象の深度情報を確定し、光照射強度が小さい場合、即ち第1場面画像の輝度が小さい場合、深度撮影部によって撮影された第2場面画像を使用して場面内の対象の深度情報を確定する。これにより、環境光の照射強度に応じて、異なる部品によって収集された画像を選択して目標対象のためにガイドサービスを提供することを実現し、光照射強度の変化に効果的に適応し、豊かな環境情報を取得することができ、同時に、テクスチャが欠けている障害物を検出することができ、その結果、障害物の検出精度及びガイドの安全性が向上する。
【手続補正書】
【提出日】2021-10-27
【手続補正1】
【補正対象書類名】特許請求の範囲
【補正対象項目名】全文
【補正方法】変更
【補正の内容】
【特許請求の範囲】
【請求項1】
ウェアラブルデバイスによるインテリジェントガイド方法であって、前記ウェアラブルデバイスは、第1可視光撮影部、第2可視光撮影部及び深度撮影部を含み、
第1可視光撮影部によって収集された第1場面画像を取得するステップと、
前記第1場面画像の輝度を検出するステップと、
前記第1場面画像の輝度が予め設定された輝度を満たしていることに応答して、前記第2可視光撮影部によって収集された第2場面画像を取得するステップ、及び/又は、前記第1場面画像の輝度が予め設定された輝度を満たしていないことに応答して、前記深度撮影部によって収集された第2場面画像を取得するステップと、
前記第2場面画像に基づいて場面内の対象の深度情報を確定するステップと、
前記深度情報に基づいて、前記ウェアラブルデバイスを着用している目標対象に対するガイド情報を生成するステップと、を含む、インテリジェントガイド方法。
【請求項2】
前記第1場面画像の輝度が予め設定された輝度を満たしていることに応答して、前記第2可視光撮影部によって収集された第2場面画像を取得するステップは、
前記第1場面画像の輝度が予め設定された輝度を満たしていることに応答して、前記第2可視光撮影部に第1露光命令を送信し、前記第2可視光撮影部が前記第1露光命令に基づいて露光制御を行って収集した第2場面画像を、取得するステップを含み、
前記第1場面画像の輝度が予め設定された輝度を満たしていないことに応答して、前記深度撮影部によって収集された第2場面画像を取得するステップは、
前記第1場面画像の輝度が予め設定された輝度を満たしていないことに応答して、前記深度撮影部に第2露光命令を送信し、前記深度撮影部が前記第2露光命令に基づいて露光制御を行って収集した第2場面画像を、取得するステップを含むことを特徴とする
請求項1に記載の方法。
【請求項3】
前記第2場面画像に基づいて場面内の対象の深度情報を確定するステップは、
前記第1場面画像の輝度が予め設定された輝度を満たしていることに応答して、前記第1場面画像内の場面内の対象を表すための画素点と前記第2場面画像内の場面内の対象を表すための画素点を突き合わせ、画素点対を取得するステップと、
前記画素点対に対応する視差情報、前記第1可視光撮影部と前記第2可視光撮影部との間の中心距離、及び前記第1可視光撮影部の焦点距離に基づいて、前記場面内の対象の深度情報を確定するステップとを含むことを特徴とする
請求項1又は2に記載の方法。
【請求項4】
前記第2場面画像に基づいて場面内の対象の深度情報を確定するステップは、
前記第1場面画像の輝度が予め設定された輝度を満たしていないことに応答して、前記第2場面画像内の場面内の対象の目標画素点を確定するステップと、
前記第2場面画像内の前記目標画素点の深度情報に基づいて、前記場面内の対象の深度情報を確定するステップと、を含むことを特徴とする
請求項1又は2に記載の方法。
【請求項5】
前記深度情報に基づいて、前記ウェアラブルデバイスを着用している目標対象に対するガイド情報を生成するステップは、
通知情報を生成するステップであって、前記通知情報が、前記ウェアラブルデバイスを着用している前記目標対象に前記深度情報を通知するために使用されるステップを含むことを特徴とする
請求項1-4のいずれか一項に記載の方法。
【請求項6】
前記第1場面画像に基づいて、ウェアラブルデバイスに対する場面内の対象の方向位置情報を確定するステップをさらに含み、
前記深度情報に基づいて、前記ウェアラブルデバイスを着用している目標対象に対するガイド情報を生成するステップは、
ウェアラブルデバイスに対する場面内の対象の方向位置情報及び場面内の対象の深度情報に基づいて、前記ウェアラブルデバイスを着用している目標対象に対するガイド情報を生成するステップを含むことを特徴とする
請求項1-5のいずれか一項に記載の方法。
【請求項7】
前記ウェアラブルデバイスは、超音波検出部をさらに含み、
前記方法は、
前記深度情報に対応する深度が予め設定された深度閾値よりも大きいこと及び/又は前記第1場面画像に予め設定された種類の対象が含まれることを検出したことに応答して、前記超音波検出部に超音波検出命令を送信し、前記超音波検出部で前記超音波検出命令に基づいて検出された超音波フィードバック信号を、受信するステップと、
受信された前記超音波フィードバック信号に基づいて、前記場面内の対象の深度情報を更新するステップと、をさらに含むことを特徴とする
請求項1-6のいずれか一項に記載の方法。
【請求項8】
前記ウェアラブルデバイスは、姿勢測定部をさらに含み、
前記方法は、
前記姿勢測定部によって収集されたウェアラブルデバイスの姿勢情報を取得するステップと、
前記姿勢情報に基づいて前記ウェアラブルデバイスを着用している目標対象の姿勢が第1予め設定された姿勢にあることを確定したことに応答して、姿勢矯正通知情報を生成するステップと、をさらに含むことを特徴とする
請求項1-7のいずれか一項に記載の方法。
【請求項9】
前記方法は、
前記第1場面画像に基づいて、前記ウェアラブルデバイスに対する場面内の対象の方向位置情報を確定するステップと、
前記ウェアラブルデバイスの姿勢情報に基づいて、前記方向位置情報を、第2予め設定された姿勢にあるウェアラブルデバイスに対する場面内の対象の方向位置情報に変換するステップと、をさらに含み、
前記深度情報に基づいて、前記ウェアラブルデバイスを着用している目標対象に対するガイド情報を生成するステップは、
変換後の方向位置情報及び場面内の対象の深度情報に基づいて、前記ウェアラブルデバイスを着用している目標対象に対するガイド情報及び/又は姿勢矯正通知情報を生成するステップを含むことを特徴とする
請求項8に記載の方法。
【請求項10】
前記ウェアラブルデバイスは、音声出力部をさらに含み、
前記方法は、
前記ガイド情報に基づいて音声ナビゲーション情報を生成し、前記音声ナビゲーション情報を前記音声出力部に送信して、前記音声出力部で前記音声ナビゲーション情報を前記目標対象に再生するステップをさらに含むことを特徴とする
請求項1-9のいずれか一項に記載の方法。
【請求項11】
前記ウェアラブルデバイスは、分周回路をさらに含み、
前記第1場面画像の輝度が予め設定された輝度を満たしていることに応答して、前記第2可視光撮影部によって収集された第2場面画像を取得するステップは、
前記第1場面画像の輝度が予め設定された輝度を満たしていることに応答して、前記分周回路に露光命令を送信し、前記分周回路で受信された露光命令に対して分周処理を行い、分周処理によって得られた第3露光命令を第2可視光撮影部に送信し、前記第2可視光撮影部で前記第3露光命令に基づいて露光制御を行って収集した第2場面画像を、取得するステップを含み、及び/又は
前記第1場面画像の輝度が予め設定された輝度を満たしていないことに応答して、前記深度撮影部によって収集された第2場面画像を取得するステップは、
前記第1場面画像の輝度が予め設定された輝度を満たしていないことに応答して、前記分周回路に露光命令を送信し、前記分周回路で受信された露光命令に対して分周処理を行い、分周処理によって得られた第4露光命令を深度撮影部に送信し、前記深度撮影部で前記第4露光命令に基づいて露光制御を行って収集した第2場面画像を、取得するステップを含むことを特徴とする
請求項1-10のいずれか一項に記載の方法。
【請求項12】
ウェアラブルデバイスによるインテリジェントガイド装置であって、前記ウェアラブルデバイスは、第1可視光撮影部、第2可視光撮影部及び深度撮影部を含み、前記装置は、
第1可視光撮影部によって収集された第1場面画像を取得するように構成される第1画像取得モジュールと、
前記第1場面画像の輝度を検出するように構成される輝度検出モジュールと、
前記第1場面画像の輝度が予め設定された輝度を満たしていることに応答して、前記第2可視光撮影部によって収集された第2場面画像を取得するように構成され、及び/又は、前記第1場面画像の輝度が予め設定された輝度を満たしていないことに応答して、前記深度撮影部によって収集された第2場面画像を取得するように構成される第2画像取得モジュールと、
前記第2場面画像に基づいて場面内の対象の深度情報を確定するように構成される検出モジュールと、
前記深度情報に基づいて、前記ウェアラブルデバイスを着用している目標対象に対するガイド情報を生成するように構成されるガイド情報生成モジュールと、を備える、インテリジェントガイド装置。
【請求項13】
ウェアラブルデバイスであって、処理部、第1可視光撮影部、第2可視光撮影部及び深度撮影部を含み、
前記第1可視光撮影部は、第1場面画像を収集するように構成され、
前記第2可視光撮影部と前記深度撮影部は、第2場面画像を収集するように構成され、
前記処理部は、請求項1-11のいずれか一項に記載のウェアラブルデバイスによるインテリジェントガイド方法を実行するように構成される、ウェアラブルデバイス。
【請求項14】
信号シリアル部、信号伝送ケーブル及び信号逆シリアル部をさらに含み、
前記信号シリアル部は、前記第1可視光撮影部、第2可視光撮影部、深度撮影部に通信接続され、前記信号伝送ケーブルの両端は前記信号シリアル部と信号逆シリアル部にそれぞれ接続され、前記信号逆シリアル部は、前記処理部に通信接続され、
前記第1可視光撮影部は、さらに前記第1場面画像を前記信号シリアル部に送信するように構成され、
前記第2可視光撮影部と前記深度撮影部は、さらに前記第2場面画像を前記信号シリアル部に送信するように構成され、
前記信号シリアル部は、受信された第1場面画像と第2場面画像をシリアル信号に変換し、前記信号伝送ケーブルを介して前記信号逆シリアル部に送信するように構成され、
前記信号逆シリアル部は、受信された信号を逆シリアル化し、逆シリアル化された信号を前記処理部に送信するように構成され
、
前記深度撮影部は、TOFカメラを含むことを特徴とする
請求項
13に記載のウェアラブルデバイス。
【請求項15】
ガイドシステムであって、ウェアラブルデバイスとホストコンピュータとを備え、
前記ウェアラブルデバイスは、第1可視光撮影部、第2可視光撮影部及び深度撮影部を含み、
前記ホストコンピュータは、処理部を含み、前記処理部は、信号伝送ケーブルを介して前記第1可視光撮影部、第2可視光撮影部及び深度撮影部に接続され、前記処理部は、請求項1-11のいずれか一項に記載のウェアラブルデバイスによるインテリジェントガイド方法を実行するように構成され
、
前記ホストコンピュータには、前記処理部に接続された位置決めモジュール、ネットワークモジュール、動作状態の検出及び/又は充電管理のためのマイクロコントロールユニット、オーディオモジュールの少なくとも1つが設けられていることを特徴とする
ガイドシステム。
【請求項16】
電子デバイスであって、プロセッサ、メモリ及びバスを備え、前記メモリには前記プロセッサで実行可能な機械可読命令が記憶されており、電子デバイスが動作する場合、前記プロセッサと前記メモリは、バスを介して通信し、前記機械可読命令が前記プロセッサに実行される時に、請求項1-11のいずれか一項に記載のインテリジェントガイド方法のステップを実行する、電子デバイス。
【請求項17】
コンピュータプログラムが記憶されており、当該コンピュータプログラムがプロセッサ
に、請求項1-11のいずれか一項に記載のインテリジェントガイド方法のステップを実行
させるコンピュータ可読記憶媒体。
【請求項18】
プロセッサ
に、請求項1-11のいずれか一項に記載のインテリジェントガイド方法のステップを実行
させる1つ又は複数の命令を含むコンピュータ
プログラム。
【手続補正2】
【補正対象書類名】明細書
【補正対象項目名】0039
【補正方法】変更
【補正の内容】
【0039】
第7態様では、本出願の実施例は、プロセッサによってロードされてインテリジェントガイド方法のステップを実行することに適する1つ又は複数の命令を含むコンピュータプログラム製品を提供する。
例えば、本願は以下の項目を提供する。
(項目1)
ウェアラブルデバイスによるインテリジェントガイド方法であって、前記ウェアラブルデバイスは、第1可視光撮影部、第2可視光撮影部及び深度撮影部を含み、
第1可視光撮影部によって収集された第1場面画像を取得するステップと、
前記第1場面画像の輝度を検出するステップと、
前記第1場面画像の輝度が予め設定された輝度を満たしていることに応答して、前記第2可視光撮影部によって収集された第2場面画像を取得するステップ、及び/又は、前記第1場面画像の輝度が予め設定された輝度を満たしていないことに応答して、前記深度撮影部によって収集された第2場面画像を取得するステップと、
前記第2場面画像に基づいて場面内の対象の深度情報を確定するステップと、
前記深度情報に基づいて、前記ウェアラブルデバイスを着用している目標対象に対するガイド情報を生成するステップと、を含む、インテリジェントガイド方法。
(項目2)
前記第1場面画像の輝度が予め設定された輝度を満たしていることに応答して、前記第2可視光撮影部によって収集された第2場面画像を取得するステップは、
前記第1場面画像の輝度が予め設定された輝度を満たしていることに応答して、前記第2可視光撮影部に第1露光命令を送信し、前記第2可視光撮影部が前記第1露光命令に基づいて露光制御を行って収集した第2場面画像を、取得するステップを含み、
前記第1場面画像の輝度が予め設定された輝度を満たしていないことに応答して、前記深度撮影部によって収集された第2場面画像を取得するステップは、
前記第1場面画像の輝度が予め設定された輝度を満たしていないことに応答して、前記深度撮影部に第2露光命令を送信し、前記深度撮影部が前記第2露光命令に基づいて露光制御を行って収集した第2場面画像を、取得するステップを含むことを特徴とする
項目1に記載の方法。
(項目3)
前記第2場面画像に基づいて場面内の対象の深度情報を確定するステップは、
前記第1場面画像の輝度が予め設定された輝度を満たしていることに応答して、前記第1場面画像内の場面内の対象を表すための画素点と前記第2場面画像内の場面内の対象を表すための画素点を突き合わせ、画素点対を取得するステップと、
前記画素点対に対応する視差情報、前記第1可視光撮影部と前記第2可視光撮影部との間の中心距離、及び前記第1可視光撮影部の焦点距離に基づいて、前記場面内の対象の深度情報を確定するステップとを含むことを特徴とする
項目1又は2に記載の方法。
(項目4)
前記第2場面画像に基づいて場面内の対象の深度情報を確定するステップは、
前記第1場面画像の輝度が予め設定された輝度を満たしていないことに応答して、前記第2場面画像内の場面内の対象の目標画素点を確定するステップと、
前記第2場面画像内の前記目標画素点の深度情報に基づいて、前記場面内の対象の深度情報を確定するステップと、を含むことを特徴とする
項目1又は2に記載の方法。
(項目5)
前記深度情報に基づいて、前記ウェアラブルデバイスを着用している目標対象に対するガイド情報を生成するステップは、
通知情報を生成するステップであって、前記通知情報が、前記ウェアラブルデバイスを着用している前記目標対象に前記深度情報を通知するために使用されるステップを含むことを特徴とする
項目1-4のいずれか一項に記載の方法。
(項目6)
前記第1場面画像に基づいて、ウェアラブルデバイスに対する場面内の対象の方向位置情報を確定するステップをさらに含み、
前記深度情報に基づいて、前記ウェアラブルデバイスを着用している目標対象に対するガイド情報を生成するステップは、
ウェアラブルデバイスに対する場面内の対象の方向位置情報及び場面内の対象の深度情報に基づいて、前記ウェアラブルデバイスを着用している目標対象に対するガイド情報を生成するステップを含むことを特徴とする
項目1-5のいずれか一項に記載の方法。
(項目7)
前記ウェアラブルデバイスは、超音波検出部をさらに含み、
前記方法は、
前記深度情報に対応する深度が予め設定された深度閾値よりも大きいこと及び/又は前記第1場面画像に予め設定された種類の対象が含まれることを検出したことに応答して、前記超音波検出部に超音波検出命令を送信し、前記超音波検出部で前記超音波検出命令に基づいて検出された超音波フィードバック信号を、受信するステップと、
受信された前記超音波フィードバック信号に基づいて、前記場面内の対象の深度情報を更新するステップと、をさらに含むことを特徴とする
項目1-6のいずれか一項に記載の方法。
(項目8)
前記ウェアラブルデバイスは、姿勢測定部をさらに含み、
前記方法は、
前記姿勢測定部によって収集されたウェアラブルデバイスの姿勢情報を取得するステップと、
前記姿勢情報に基づいて前記ウェアラブルデバイスを着用している目標対象の姿勢が第1予め設定された姿勢にあることを確定したことに応答して、姿勢矯正通知情報を生成するステップと、をさらに含むことを特徴とする
項目1-7のいずれか一項に記載の方法。
(項目9)
前記方法は、
前記第1場面画像に基づいて、前記ウェアラブルデバイスに対する場面内の対象の方向位置情報を確定するステップと、
前記ウェアラブルデバイスの姿勢情報に基づいて、前記方向位置情報を、第2予め設定された姿勢にあるウェアラブルデバイスに対する場面内の対象の方向位置情報に変換するステップと、をさらに含み、
前記深度情報に基づいて、前記ウェアラブルデバイスを着用している目標対象に対するガイド情報を生成するステップは、
変換後の方向位置情報及び場面内の対象の深度情報に基づいて、前記ウェアラブルデバイスを着用している目標対象に対するガイド情報及び/又は姿勢矯正通知情報を生成するステップを含むことを特徴とする
項目8に記載の方法。
(項目10)
前記ウェアラブルデバイスは、音声出力部をさらに含み、
前記方法は、
前記ガイド情報に基づいて音声ナビゲーション情報を生成し、前記音声ナビゲーション情報を前記音声出力部に送信して、前記音声出力部で前記音声ナビゲーション情報を前記目標対象に再生するステップをさらに含むことを特徴とする
項目1-9のいずれか一項に記載の方法。
(項目11)
前記ウェアラブルデバイスは、分周回路をさらに含み、
前記第1場面画像の輝度が予め設定された輝度を満たしていることに応答して、前記第2可視光撮影部によって収集された第2場面画像を取得するステップは、
前記第1場面画像の輝度が予め設定された輝度を満たしていることに応答して、前記分周回路に露光命令を送信し、前記分周回路で受信された露光命令に対して分周処理を行い、分周処理によって得られた第3露光命令を第2可視光撮影部に送信し、前記第2可視光撮影部で前記第3露光命令に基づいて露光制御を行って収集した第2場面画像を、取得するステップを含み、及び/又は
前記第1場面画像の輝度が予め設定された輝度を満たしていないことに応答して、前記深度撮影部によって収集された第2場面画像を取得するステップは、
前記第1場面画像の輝度が予め設定された輝度を満たしていないことに応答して、前記分周回路に露光命令を送信し、前記分周回路で受信された露光命令に対して分周処理を行い、分周処理によって得られた第4露光命令を深度撮影部に送信し、前記深度撮影部で前記第4露光命令に基づいて露光制御を行って収集した第2場面画像を、取得するステップを含むことを特徴とする
項目1-10のいずれか一項に記載の方法。
(項目12)
ウェアラブルデバイスによるインテリジェントガイド装置であって、前記ウェアラブルデバイスは、第1可視光撮影部、第2可視光撮影部及び深度撮影部を含み、前記装置は、
第1可視光撮影部によって収集された第1場面画像を取得するように構成される第1画像取得モジュールと、
前記第1場面画像の輝度を検出するように構成される輝度検出モジュールと、
前記第1場面画像の輝度が予め設定された輝度を満たしていることに応答して、前記第2可視光撮影部によって収集された第2場面画像を取得するように構成され、及び/又は、前記第1場面画像の輝度が予め設定された輝度を満たしていないことに応答して、前記深度撮影部によって収集された第2場面画像を取得するように構成される第2画像取得モジュールと、
前記第2場面画像に基づいて場面内の対象の深度情報を確定するように構成される検出モジュールと、
前記深度情報に基づいて、前記ウェアラブルデバイスを着用している目標対象に対するガイド情報を生成するように構成されるガイド情報生成モジュールと、を備える、インテリジェントガイド装置。
(項目13)
前記第2画像取得モジュールは、前記第1場面画像の輝度が予め設定された輝度を満たしていることに応答して、前記第2可視光撮影部によって収集された第2場面画像を取得する場合、前記第1場面画像の輝度が予め設定された輝度を満たしていることに応答して、前記第2可視光撮影部に第1露光命令を送信し、前記第2可視光撮影部が前記第1露光命令に基づいて露光制御を行って収集した第2場面画像を、取得するように構成され、
前記第2画像取得モジュールは、前記第1場面画像の輝度が予め設定された輝度を満たしていないことに応答して、前記深度撮影部によって収集された第2場面画像を取得する場合、前記第1場面画像の輝度が予め設定された輝度を満たしていないことに応答して、前記深度撮影部に第2露光命令を送信し、前記深度撮影部が前記第2露光命令に基づいて露光制御を行って収集した第2場面画像を、取得するように構成される
項目12に記載のインテリジェントガイド装置。
(項目14)
前記検出モジュールは、前記第2場面画像に基づいて場面内の対象の深度情報を確定する場合、前記第1場面画像の輝度が予め設定された輝度を満たしていることに応答して、前記第1場面画像内の場面内の対象を表すための画素点と前記第2場面画像内の場面内の対象を表すための画素点を突き合わせ、画素点対を取得し、前記画素点対に対応する視差情報、前記第1可視光撮影部と前記第2可視光撮影部との間の中心距離、及び前記第1可視光撮影部の焦点距離に基づいて、前記場面内の対象の深度情報を確定するように構成される
項目12又は13に記載のインテリジェントガイド装置。
(項目15)
前記検出モジュールは、前記第2場面画像に基づいて場面内の対象の深度情報を確定する場合、前記第1場面画像の輝度が予め設定された輝度を満たしていないことに応答して、前記第2場面画像内の場面内の対象の目標画素点を確定し、前記第2場面画像内の前記目標画素点の深度情報に基づいて、前記場面内の対象の深度情報を確定するように構成されることを特徴とする
項目12又は13に記載のインテリジェントガイド装置。
(項目16)
前記ガイド情報生成モジュールは、前記深度情報に基づいて、前記ウェアラブルデバイスを着用している目標対象に対するガイド情報を生成する場合、通知情報を生成するように構成され、前記通知情報が、前記ウェアラブルデバイスを着用している前記目標対象に前記深度情報を通知するために使用されることを特徴とする
項目12-15のいずれか一項に記載のインテリジェントガイド装置。
(項目17)
前記検出モジュールは、さらに前記第1場面画像に基づいて、ウェアラブルデバイスに対する場面内の対象の方向位置情報を確定するように構成され、
前記ガイド情報生成モジュールは、前記深度情報に基づいて、前記ウェアラブルデバイスを着用している目標対象に対するガイド情報を生成する場合、ウェアラブルデバイスに対する場面内の対象の方向位置情報及び場面内の対象の深度情報に基づいて、前記ウェアラブルデバイスを着用している目標対象に対するガイド情報を生成するように構成されることを特徴とする
項目12-16のいずれか一項に記載のインテリジェントガイド装置。
(項目18)
前記ウェアラブルデバイスは、超音波検出部をさらに含み、
前記検出モジュールは、さらに前記深度情報に対応する深度が予め設定された深度閾値よりも大きいこと及び/又は前記第1場面画像に予め設定された種類の対象が含まれることを検出したことに応答して、前記超音波検出部に超音波検出命令を送信し、前記超音波検出部で前記超音波検出命令に基づいて検出された超音波フィードバック信号を、受信するように構成されることを特徴とする
項目12-17のいずれか一項に記載のインテリジェントガイド装置。
(項目19)
前記ウェアラブルデバイスは、姿勢測定部をさらに含み、前記検出モジュールは、さらに前記姿勢測定部によって収集されたウェアラブルデバイスの姿勢情報を取得し、前記姿勢情報に基づいて前記ウェアラブルデバイスを着用している目標対象の姿勢が第1予め設定された姿勢にあることを確定したことに応答して、姿勢矯正通知情報を生成するように構成されることを特徴とする
項目12-18のいずれか一項に記載のインテリジェントガイド装置。
(項目20)
前記検出モジュールは、さらに前記第1場面画像に基づいて、前記ウェアラブルデバイスに対する場面内の対象の方向位置情報を確定し、前記ウェアラブルデバイスの姿勢情報に基づいて、前記方向位置情報を、第2予め設定された姿勢にあるウェアラブルデバイスに対する場面内の対象の方向位置情報に変換するように構成され、
前記ガイド情報生成モジュールは、前記深度情報に基づいて、前記ウェアラブルデバイスを着用している目標対象に対するガイド情報を生成する場合、変換後の方向位置情報及び場面内の対象の深度情報に基づいて、前記ウェアラブルデバイスを着用している目標対象に対するガイド情報及び/又は姿勢矯正通知情報を生成するように構成されることを特徴とする
項目19に記載のインテリジェントガイド装置。
(項目21)
前記ウェアラブルデバイスは、音声出力部をさらに含み、
前記ガイド情報生成モジュールは、さらに前記ガイド情報に基づいて音声ナビゲーション情報を生成し、前記音声ナビゲーション情報を前記音声出力部に送信して、前記音声出力部で前記音声ナビゲーション情報を前記目標対象に再生するように構成されることを特徴とする
項目12-20のいずれか一項に記載のインテリジェントガイド装置。
(項目22)
前記ウェアラブルデバイスは、分周回路をさらに含み、
前記第2画像取得モジュールは、前記第1場面画像の輝度が予め設定された輝度を満たしていることに応答して、前記第2可視光撮影部によって収集された第2場面画像を取得する場合、前記第1場面画像の輝度が予め設定された輝度を満たしていることに応答して、前記分周回路に露光命令を送信し、前記分周回路で受信された露光命令に対して分周処理を行い、分周処理によって得られた第3露光命令を第2可視光撮影部に送信し、前記第2可視光撮影部で前記第3露光命令に基づいて露光制御を行って収集した第2場面画像を取得するように構成され、及び/又は
前記第2画像取得モジュールは、前記第1場面画像の輝度が予め設定された輝度を満たしていないことに応答して、前記深度撮影部によって収集された第2場面画像を取得する場合、前記第1場面画像の輝度が予め設定された輝度を満たしていないことに応答して、前記分周回路に露光命令を送信し、前記分周回路で受信された露光命令に対して分周処理を行い、分周処理によって得られた第4露光命令を深度撮影部に送信し、前記深度撮影部で前記第4露光命令に基づいて露光制御を行って収集した第2場面画像を取得するように構成されることを特徴とする
項目12-21のいずれか一項に記載のインテリジェントガイド装置。
(項目23)
ウェアラブルデバイスであって、処理部、第1可視光撮影部、第2可視光撮影部及び深度撮影部を含み、
前記第1可視光撮影部は、第1場面画像を収集するように構成され、
前記第2可視光撮影部と前記深度撮影部は、第2場面画像を収集するように構成され、
前記処理部は、項目1-11のいずれか一項に記載のウェアラブルデバイスによるインテリジェントガイド方法を実行するように構成される、ウェアラブルデバイス。
(項目24)
信号シリアル部、信号伝送ケーブル及び信号逆シリアル部をさらに含み、
前記信号シリアル部は、前記第1可視光撮影部、第2可視光撮影部、深度撮影部に通信接続され、前記信号伝送ケーブルの両端は前記信号シリアル部と信号逆シリアル部にそれぞれ接続され、前記信号逆シリアル部は、前記処理部に通信接続され、
前記第1可視光撮影部は、さらに前記第1場面画像を前記信号シリアル部に送信するように構成され、
前記第2可視光撮影部と前記深度撮影部は、さらに前記第2場面画像を前記信号シリアル部に送信するように構成され、
前記信号シリアル部は、受信された第1場面画像と第2場面画像をシリアル信号に変換し、前記信号伝送ケーブルを介して前記信号逆シリアル部に送信するように構成され、
前記信号逆シリアル部は、受信された信号を逆シリアル化し、逆シリアル化された信号を前記処理部に送信するように構成されることを特徴とする
項目23に記載のウェアラブルデバイス。
(項目25)
前記深度撮影部は、TOFカメラを含むことを特徴とする
項目23又は24に記載のウェアラブルデバイス。
(項目26)
ガイドシステムであって、ウェアラブルデバイスとホストコンピュータとを備え、
前記ウェアラブルデバイスは、第1可視光撮影部、第2可視光撮影部及び深度撮影部を含み、
前記ホストコンピュータは、処理部を含み、前記処理部は、信号伝送ケーブルを介して前記第1可視光撮影部、第2可視光撮影部及び深度撮影部に接続され、前記処理部は、項目1-11のいずれか一項に記載のウェアラブルデバイスによるインテリジェントガイド方法を実行するように構成される、ガイドシステム。
(項目27)
前記ホストコンピュータには、前記処理部に接続された位置決めモジュール、ネットワークモジュール、動作状態の検出及び/又は充電管理のためのマイクロコントロールユニット、オーディオモジュールの少なくとも1つが設けられていることを特徴とする
項目26に記載のガイドシステム。
(項目28)
電子デバイスであって、プロセッサ、メモリ及びバスを備え、前記メモリには前記プロセッサで実行可能な機械可読命令が記憶されており、電子デバイスが動作する場合、前記プロセッサと前記メモリは、バスを介して通信し、前記機械可読命令が前記プロセッサに実行される時に、項目1-11のいずれか一項に記載のインテリジェントガイド方法のステップを実行する、電子デバイス。
(項目29)
コンピュータプログラムが記憶されており、当該コンピュータプログラムがプロセッサに実行される時に項目1-11のいずれか一項に記載のインテリジェントガイド方法のステップを実行するコンピュータ可読記憶媒体。
(項目30)
プロセッサによってロードされて項目1-11のいずれか一項に記載のインテリジェントガイド方法のステップを実行することに適する1つ又は複数の命令を含むコンピュータプログラム製品。
【国際調査報告】