IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ ヴェーライド ジオ エルティーディー.の特許一覧

特開2022-61959ハンズフリー歩行者ナビゲーションのためのシステムと方法
<>
  • 特開-ハンズフリー歩行者ナビゲーションのためのシステムと方法 図1a
  • 特開-ハンズフリー歩行者ナビゲーションのためのシステムと方法 図1b
  • 特開-ハンズフリー歩行者ナビゲーションのためのシステムと方法 図2
  • 特開-ハンズフリー歩行者ナビゲーションのためのシステムと方法 図3a
  • 特開-ハンズフリー歩行者ナビゲーションのためのシステムと方法 図3b
  • 特開-ハンズフリー歩行者ナビゲーションのためのシステムと方法 図3c
  • 特開-ハンズフリー歩行者ナビゲーションのためのシステムと方法 図3d
  • 特開-ハンズフリー歩行者ナビゲーションのためのシステムと方法 図4a
  • 特開-ハンズフリー歩行者ナビゲーションのためのシステムと方法 図4b
  • 特開-ハンズフリー歩行者ナビゲーションのためのシステムと方法 図5
  • 特開-ハンズフリー歩行者ナビゲーションのためのシステムと方法 図6
  • 特開-ハンズフリー歩行者ナビゲーションのためのシステムと方法 図7
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2022061959
(43)【公開日】2022-04-19
(54)【発明の名称】ハンズフリー歩行者ナビゲーションのためのシステムと方法
(51)【国際特許分類】
   G01C 21/26 20060101AFI20220412BHJP
   G08G 1/005 20060101ALI20220412BHJP
   G09G 5/00 20060101ALI20220412BHJP
【FI】
G01C21/26 P
G08G1/005
G09G5/00 550C
G09G5/00 510A
G09G5/00 X
【審査請求】未請求
【請求項の数】20
【出願形態】OL
【外国語出願】
(21)【出願番号】P 2021161778
(22)【出願日】2021-09-30
(31)【優先権主張番号】2015887.9
(32)【優先日】2020-10-07
(33)【優先権主張国・地域又は機関】GB
【公序良俗違反の表示】
(特許庁注:以下のものは登録商標)
1.ANDROID
(71)【出願人】
【識別番号】521342751
【氏名又は名称】ヴェーライド ジオ エルティーディー.
(74)【代理人】
【識別番号】100082072
【弁理士】
【氏名又は名称】清原 義博
(72)【発明者】
【氏名】ティロシュ,エフド
(72)【発明者】
【氏名】ラピドット,ツヴィ
(72)【発明者】
【氏名】フリードマン,シュムエル
【テーマコード(参考)】
2F129
5C182
5H181
【Fターム(参考)】
2F129AA02
2F129BB03
2F129BB15
2F129BB21
2F129BB33
2F129BB37
2F129CC03
2F129CC16
2F129CC26
2F129EE22
2F129EE43
2F129EE52
2F129EE69
2F129EE85
2F129FF02
2F129FF11
2F129FF32
2F129FF62
2F129FF63
2F129HH15
5C182AA31
5C182AB08
5C182AB15
5C182AB35
5C182AC02
5C182AC03
5C182BA35
5C182BA46
5C182BA47
5C182BA56
5C182BA65
5C182BA66
5C182BA75
5C182BC22
5C182BC25
5C182DA41
5C182DA70
5H181AA21
5H181BB04
5H181CC12
5H181FF04
5H181FF05
5H181FF13
5H181FF24
5H181FF25
5H181FF33
5H181FF40
(57)【要約】      (修正有)
【課題】ハンズフリーの歩行者ナビゲーションのためのシステムおよび方法を提供する。
【解決手段】ユーザーの頭に(i)ユーザーの視線の前に視覚的な画像を投影するためのディスプレイ、およびIMUを取り付ける工程と、(ii)ユーザーが携帯するGPSユニットから、コンピューター化された地図でユーザーを見つけるためのおおよそのユーザー位置を取得する工程を含む。ユーザーの視線がユーザーの視野内にある指定されたランドマークに向けられていることの確認がユーザーから取得され、ユーザーの位置とコンピューター化された地図から抽出されたランドマークの位置との間で方位角が計算される。音声プロンプトが提供され、歩行者をナビゲートするための補助的な視覚的プロンプトがディスプレイに投影される。
【選択図】図2
【特許請求の範囲】
【請求項1】
ユーザーが目的地に到達するのを支援するためのハンズフリー歩行者ナビゲーション方法であって、
(a)(i)ユーザーの視線の前に視覚画像を投影するためのディスプレイ、および(ii)IMUをユーザーの頭に取り付ける工程、
(b)ユーザーが携帯しているGPSユニットからユーザーのおおよその位置を取得する工程、
(c)ユーザーのおおよその位置を使用して、ユーザーを含むエリアのコンピュータ化された地図でユーザーの位置を特定する工程、
(d)前記エリアにおいて、ユーザーの視野内に既知のランドマーク位置を有するランドマークを決定する工程、
(e)ユーザーの視線がランドマークに向けられていることの確認をユーザーから得る工程、
(f)ユーザーの位置とコンピュータ化された地図から抽出されたランドマークの位置との間の計算された方位角を決定する工程、
(g)前記計算方位角を使用して、ユーザーの視線と目的地の間の角度方向を決定する工程、および、
(h)音声プロンプトを提供し、ディスプレイを介して補助的な視覚的プロンプトを投影することにより、ユーザーをナビゲートする工程;
を含む、方法。
【請求項2】
前記方法は、
(a)ユーザーの視線がランドマークに向けられる場合に、IMUの頭部に取り付けられた磁力計から測定された方位角を得る工程;および、
(b)測定された方位角と計算された方位角の間のオフセットの計算により、ユーザーを誘導する工程;
をさらに含む、請求項1に記載の方法。
【請求項3】
(i)ユーザーの視線がランドマークに向けられていることのユーザーからの確認、(ii)ランドマークの識別、および、(iii)目的地の識別の少なくとも1つが音声で伝達される、請求項1に記載の方法。
【請求項4】
ユーザーが携帯するスマートフォン上に視界のエリアのパノラマ写真を表示し、ユーザーが選択した前記パノラマ写真内の物体を識別することにより、ランドマークを識別する、請求項1から3のいずれか1項に記載の方法。
【請求項5】
ディスプレイを介してマーカーをユーザーの視野に投影し、マーカーがランドマークと位置合わせされたときにユーザーの視線がランドマークに向けられていることの確認をユーザーから得る工程、任意選択で、ディスプレイを介して視野に視覚的表示を表示することにより、ユーザーが正しいルートをたどっていることを確認する工程、および任意選択で、ディスプレイを介して視野に視覚的表示を表示することにより、ユーザーに正しいルートから逸脱していることを警告する工程を含む、請求項1から4のいずれか1項に記載の方法。
【請求項6】
前記ユーザーは、ナビゲーションサーバーに結合されたサードパーティーのバーチャルアシスタントへのインターフェースを有するソフトウェアアプリケーションを介して音声で情報を伝達する、請求項1から5のいずれか1項に記載の方法。
【請求項7】
前記サードパーティーのバーチャルアシスタントはAmazon(商標)Alexa and Skillsをサポートするクラウドアプリケーションであり、インターネットを介してナビゲーションサーバーに結合されている、請求項6に記載の方法。
【請求項8】
コンピュータ処理ユニットによって実行されると、請求項1から7のいずれか1つに記載の方法を実行する、プログラムコード命令を格納するコンピュータ可読メモリを含むコンピュータプログラム製品。
【請求項9】
ユーザーを目的地に誘導するための歩行者ナビゲーションシステムであって、
ユーザーが携帯するGPSユニット、
ユーザーが着用するための頭部取り付け可能なデバイスであり、IMUと、ユーザーの視線の前に視覚画像を投影するためのディスプレイを含む頭部取り付け可能なデバイス、および、
GPSユニットおよび頭部取り付け可能なデバイスに動作可能に結合され、メモリおよび処理ユニットを有する、ユーザーによって運ばれる携帯型コンピューティングデバイスであって、前記メモリおよび処理ユニットは、
(a)ユーザーが携帯しているGPSユニットからユーザーのおおよその位置を特定すること、
(b)ユーザーのおおよその位置を使用して、ユーザーを含むエリアのコンピュータ化された地図でユーザーの位置を特定すること、
(c)前記エリアにおいて、ユーザーの視野内に既知のランドマーク位置を有するランドマークを決定すること、
(d)ユーザーの視線がランドマークに向けられていることの確認をユーザーの音声によって得ること、
(e)ユーザーの位置とコンピュータ化された地図から抽出されたランドマークの位置との間の計算された方位角を決定すること、
(f)前記計算方位角を使用して、ユーザーの視線と目的地の間の角度方向を決定すること、および、
(h)音声プロンプトを提供し、ディスプレイを介して補助的な視覚的プロンプトを投影することにより、ユーザーをナビゲートすることを行うようにプログラムされた、携帯型コンピューティングデバイス、
を含むシステム。
【請求項10】
(g)ユーザーの視線がランドマークに向けられたときに、頭部取り付け可能なデバイスの磁力計から測定された方位角を取得すること、
(h)測定された方位角と計算された方位角の間のオフセットを計算することによって歩行者を方向付けることをさらに含む、請求項9に記載のシステム。
【請求項11】
前記コンピュータ化された地図を前記携帯型コンピューティングデバイスに伝達するために、前記携帯型コンピューティングデバイスと通信して地図データを格納する遠隔ナビゲーションサーバーをさらに含む、請求項9または10に記載のシステム。
【請求項12】
前記携帯型コンピューティングデバイスが、GPSユニットを内蔵したスマートフォンである、請求項9から11のいずれかに記載のシステム。
【請求項13】
頭部取り付け可能なデバイスは、眼鏡フレームに取り外し可能に取り付けられ、ディスプレイは、画像を表示するためのマイクロディスプレイと、ユーザーが表示する風景に画像を投影するための光学機器を含み、任意選択で、マイクとイヤホンが眼鏡フレームに組み込まれており、携帯型コンピューティングデバイスに結合して音声情報を伝達し、ユーザーを必要な目的地に誘導するための音声命令を伝達するように構成される、請求項9から12のいずれか1項に記載のシステム。
【請求項14】
前記画像は、前記ユーザーの視線が前記ランドマークと整列したときに前記ランドマークに投影されるマーカーである、請求項13に記載のシステム。
【請求項15】
前記処理ユニットは、ナビゲーション援助をマイクロディスプレイに伝達するようにプログラムされている、請求項13に記載のシステム。
【請求項16】
前記音声情報を伝達し、前記ユーザーを必要な目的地に誘導するための音声命令を伝達するために、前記携帯型コンピューティングデバイスに結合されたマイクおよびイヤホンをさらに含む、請求項9から15のいずれか1項に記載のシステム。
【請求項17】
前記携帯型コンピューティングデバイスは、ナビゲーションサーバーに接続されたサードパーティーのバーチャルアシスタントへのインターフェースを備えたソフトウェアアプリケーションを実行し、任意選択で、マイクとイヤホンは、Bluetooth(商標)を介して前記携帯型コンピューティングデバイスのホストアプリケーションに接続し、およびホストアプリケーションは、Amazon(商標)Alexa and Skillsをサポートするクラウドアプリケーションとインターネット経由で通信するように構成される、請求項9から16のいずれか1項に記載のシステム。
【請求項18】
前記眼鏡フレームはAmazon(商標) Echo Frameであって、
前記携帯型コンピューティングデバイスは、ナビゲーションサーバーに結合されたサードパーティーのバーチャルアシスタントへのインターフェースを備えたソフトウェアアプリケーションを実行し、前記眼鏡フレームは、Bluetooth(商標)を介して携帯型コンピューティングデバイスのホストアプリケーションに接続し、前記ホストアプリケーションは、Amazon(商標)Alexa and Skillsをサポートするクラウドアプリケーションとインターネット経由で通信するように構成される、請求項17に記載のシステム。
【請求項19】
ホストスマートフォンアプリケーションは、音声/テキスト変換を実行し、インターネット経由でナビゲーションアプリケーションクラウドに接続するように構成され、Amazon(商標)Sharing Alexa Skillsは、前記ホストクラウドアプリケーションと前記ナビゲーションアプリケーションクラウド間でデータを転送して、前記ナビゲーションアプリケーションクラウドのナビゲーション機能をアクティブにし、インターネット経由で前記ホストスマートフォンアプリケーションにナビゲーション命令を返すために使用される、請求項17または18に記載のシステム。
【請求項20】
前記ディスプレイがシースルーディスプレイである、請求項9から19のいずれか1項に記載のシステム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は歩行者ナビゲーションシステムに関する。いくつかの実施形態では、これは、歩行者の運動方向が目的の目的地に一致することを保証するための慣性磁気ユニット(IMU)の磁力計の較正に関する。
【背景技術】
【0002】
本発明の背景として関連すると考えられる先行技術の参考文献を以下に列挙し、それらの内容を参照により本明細書に組み込む。本明細書の参考文献は、これらが本明細書に開示された発明の特許性に何らかの形で関連していることを意味するものとして推測されるべきではない。各参照は角括弧で囲まれた番号で識別されるため、従来技術は、仕様全体で角括弧で囲まれた番号で参照される。
[1]Nehla Ghouaiel, Jean-Marc Cieutat, Jean Pierre Jessel.「Haptic System for Eyes Free and Hands Free Pedestrian Navigation.」ACHI 2013:The Sixth International Conference on Advances in Computer-Human Interactions,Feb 2013, France pp.330-335<hal-00908028>
[2]McGookin, D., Brewster, S., & Priego, P. (2009).「Audio Bubbles:Employing Non-speech Audio to Support Tourist Wayfinding」.In M. Ercan Al Audio Bubbles: tinsoy, U. Jekosch, & S. Brewster (Eds.), Haptic and Audio Interaction Design: 4th International Conference, HAID 2009 Dresden, Germany, September 10-11, 2009 Proceedings (Vol. 5763, pp. 41-50). Springer. https://doi.org/10.1007/978-3-642-04076-4_5
[3]Ioannis Giannopoulos et al. GazeNav: Gaze-Based Pedestrian Navigation, Mob ileHCI ’15, August 25 - 29, 2015, Copenhagen, Denmark
[4]Michael Minock et al. A Test-Bed for Text-to-Speech-Based Pedestrian Navigation Systems
[5]Johan Boye et al. Walk This Way: Spatial Grounding for City Exploration J. Mariani et al. (eds.), Natural Interaction with Robots, Knowbots and Smartphones: Putting Spoken Dialog Systems into Practice, DOI 10.1007/978-1-4614-8280-2 6, Springer Science+Business Media New York 2014
[6]D.W.F. van Krevelen and R. Poelman A Survey of Augmented Reality Technologies, Applications and Limitations in The International Journal of Virtual Reality, 2010, 9(2):1-20
[7]Bartie P, Mackaness W, Lemon O, Dalmas T, Janarthanam S, Hill R, Dickinson A & Liu X (2018) A dialogue based mobile virtual assistant for tourists: The SpaceBook Project, Computers, Environment and Urban Systems, 67, pp. 110-123.
[8]Gabriel Skantze Error Handling in Spoken Dialogue Systems PhD Thesis, Stockholm, Sweden 2007
[9]Ricky Jacob, PhD Thesis “Integrating Haptic Feedback into Mobile Location Based Services” Department of Computer Science National University of Ireland Maynooth, July 2013
【0003】
スマートフォンの急増により、スマートフォンとその標準的な内蔵GPSの普及を活用する、さまざまな個人用または歩行者用ナビゲーションシステムが生まれた。一般的なシステムはハンドヘルドである。つまり、ユーザーは手動でシステムを保持する必要があり、多くの場合、ユーザーのスマートフォンのGPS座標に基づいてダウンロードされた自分のすぐ近くの地図を読む必要がある。
【0004】
スマートフォンを手に持って画面を見下ろしたり、画面を視線に向けて持ち上げたりする必要があるため、このような手法は混乱を招くものであり、望ましくない制限が課せられる。たとえば、外国の都市の通りを歩いている観光客は、観光スポットを見ることに夢中になっている。観光客が、特定の観光スポットにたどりつくための方向を知りたいために、視線をスマートフォンの画面に向けることを強いられるというのは邪魔である。また、観光客はスマートフォンを手に持つ必要があるが、これも望ましくない場合がある。
【0005】
この不便さの認識は、いわゆるハンズフリーナビゲーションシステムにつながった。
【0006】
Ghouaielら[1]は、振動要素と拡張現実を触覚モダリティで使用して、ハンズフリーおよびアイズフリーナビゲーションを介して都市環境における歩行者を誘導するハンズフリーナビゲーションシステムを開示している。
【0007】
McGookinら[2]はオーディオバブルの概念を開示しており、これは、物理的なランドマークを中心に配置されている、音声で満たされた仮想球体であり、ユーザーがランドマークをより簡単に見つけるためのナビゲーションホーミング情報を提供する。
【0008】
Giannopoulosら[3]は、ヘッドマウントアイトラッカーを使用して、歩行者のナビゲーションに視線ベースのインタラクションを提供し、ユーザーが見ている通りが追跡する通りである場合に、ナビゲーション情報を提供することを開示している。
【0009】
Minockら[4]は、 街中でアイズフリーやハンズフリーのナビゲーションをサポートするAndroidシステムを開示している。1つのモードでは、人間のオペレーターがTTSを介して実現されたテキストメッセージをユーザーのイヤピースに送信する。オペレーターは、地図上で対者象のGPS位置を確認し、対象者のスピーチを聞き、ネックレスの形態で着用された対象者の電話から取得した1fpsの動画を確認する。
【0010】
Boyeら[5]は、ストックホルムでの歩行者ナビゲーションの音声対話プロトタイプについて記述している。これは、さまざまな接地戦略を使用してGPS読み取り値のノイズの問題に対処している。これは、ナビゲーションシステムに指示を与える前に、近くにある参照ランドマークを使用してユーザーの現在の位置と方向を最初に設置する必要があることに関する。
【0011】
この論文における接地の議論は、本発明が関係する同様の問題に対処するので、本発明に関連する。しかし、提案される解決策は全く異なる。特に、Boyeら[5]はランドマークを使用してユーザーをマップ内の最初のノードに誘導し、指定されたノードへのユーザーの進行状況をリアルタイムで監視する。次のノードまでの距離が短くなっている限り、問題はない。次のノードまでの距離が増加し始めると、システムは後続のノードBまでの距離もチェックして、ユーザーが予想されるノードAを通過し、正しい方向に進んでいるかどうかを判断する。しかし、予想される次のノードAと予想される連続するノードBの両方までの距離が増加していると判断され、このパターンが10秒間続く場合、システムはユーザーが間違った方向に歩いていると想定し、再計画を発行する。
【0012】
これが意味するのは、Boyeら[5]は、モバイルユーザーを指定された目的地に正しく誘導するという問題と、ユーザーの位置を正確に特定するためのGPSの欠点に注意を払っている一方で、方向性に関するエラーを修正するために試行錯誤のアプローチを使用しているということである。言い換えれば、彼らのアプローチは、ランドマークベースのガイダンスが歩行者を目的の目的地から遠ざける結果になる可能性があるという事実を考慮に入れているが、エラーを検出して適切な是正措置を取るということである。
【0013】
Krevelenら[6]はヘッドトラッキングの説明を含むARテクニックの詳細な概要を開示している。彼らは、慣性航法システムが加速度計とジャイロスコープを採用していることを指摘している。これらの計器は、正確な方位情報と組み合わせた場合に、時間測定によって位置を推定するための実用的な推測航法を提供できる。ドリフトによるエラーを最小限に抑えるために、推定は定期的に正確な測定値で更新する必要がある。また、準備が整っていない環境での追跡を確認し、これらのデバイスのキャリブレーションに問題があることを認めている。
【0014】
Bartieら[7]は同様に、拡張現実(AR)アプリケーションを含む歩行者ナビゲーションシステムの完全な概要を提供する。これは通常、ヘッドマウントカメラを使用してユーザーの視線の風景を画像化し、ユーザーのスマートフォンを介してナビゲーションサーバーに画像を送信する。このようなアプローチの問題は、デジタル画像を送信するために比較的高い帯域幅が必要であり、これによりスマートフォンのバッテリーが消耗することである。また、全地球型衛星航法システム(GNSS)は移動履歴からしか方向を計算できないため、全地球型衛星航法システム(GNSS)の方向値が信頼できない場合に、どの方向から歩行を開始するかを明確にする必要があることについても説明している。彼らは、スマートフォンが平らに保持されておらず、ユーザーのポケットやバッグに入れられていたため、スマートフォンの磁力計を利用できず、非常にノイズの多い出力が発生したと述べている。
【0015】
ユーザーを誘導するために[7]によって提案された解決策は、よく知られている近くのランドマークを参照し、出発時にそれらを右または左に保つようにユーザーに依頼することである(たとえば、「ブラックウェルの書店を右にしたまま」)。これにより全地球型衛星航法システム(GNSS)が軌道履歴から適切な方向を導き出すことができれば、ユーザーは後戻りする必要がなくなる。
【0016】
Bartie[7]らはまた、建物へのシステムの参照がユーザーのビューと一致するように、ユーザーのアプローチ角度に基づいて名前の選択をカスタマイズする必要性にも言及している。これは、特定の居住者の番地情報を道路網にリンクして、各居住者のポイントに方向が割り当てられるようにすることで行われる。
【0017】
Skantze[8]はさらに歩行者ナビゲーションと接地に関係のある問題の多くにバックグラウンドを提供する。§6.1では、仮想都市のシミュレートされた3Dモデルで使用され、口頭での対話を使用して歩行者を誘導するHiggins Spoken Dialogue Systemについて説明している。このシステムは、測位デバイスによってユーザーの位置にアクセスすることはできない。代わりに、ユーザーが周囲を説明する対話を行うことによって、位置を把握する必要がある。しかし、著者は、都市を完全にモデル化することは不可能であり、実際のアプリケーションはGPSを利用するため、これは実際の都市では実行不可能であることを認めている。
【0018】
US2003/018430は、加速度信号の源として標準の小型慣性航法システム(INS)モジュールを使用して、推測航法モードで作動する歩行者ナビゲーションの方法および装置を開示している。図12Kは、デジタル磁気コンパスおよび/またはコンパス出力と最初に位置合わせされた1つまたは複数のジャイロスコープによって提供される変位の方位の比較に基づくデジタル磁気コンパスの磁気擾乱の自動検出および補正のためのアルゴリズムを示すフローチャートである。
【0019】
US2015/0354951は、制約されたまたは制約されていない方法で、異なる方向に装置を保持または着用している歩行者と、装置との間の不整合を決定するための方法および装置を開示している。装置は、スマートグラス、スマートゴーグル、耳に取り付けられたシステム、ヘルメット上のシステムといったように、頭部に取り付けられている場合がある。一実施形態は、装置の方位と歩行者の方位との間の不整合を修正するための歩行者の推測航法を提供する。
【0020】
US2013/0322667は、ユーザーが補聴器をユーザーの頭の意図した操作位置に装着したとき、ユーザーの耳に向かって音を放出するためのスピーカーを備えたヘッドマウント補聴器、ユーザーの頭の揺れを決定するための慣性磁気ユニットを収容する補聴器を含むパーソナルナビゲーションシステムを開示している。このシステムには、ユーザーの地理的位置を特定するためのGPSユニット、音声信号をスピーカーに出力するために接続された音声発生器、および音声発生器とバイノーラル音響信号の生成のためのスピーカーの間に並列に接続された頭部伝達関数を備えた一対のフィルターが含まれ、ここで、スピーカーは、頭部伝達関数に対応する方向に配置された音源からの音としてユーザーが 知覚するように、ユーザーの耳に向かって音を発するように構成されている。
【0021】
US20120050144は、方向を決定するための磁力計またはジャイロスコープを含み得るウェアラブルヘッドマウント拡張現実コンピューティング装置を開示している。INSを構成する一連のセンサーは、視野の方向を正確に判断するために使用できるように、ユーザーの頭に取り付ける必要がある。この装置は、歩行者のルーティング/ナビゲーションに使用される可能性がある。この目的のために、ディスプレイ(スマートフォンの一部として表示)と反射デバイスが頭に装着されたハーネスに取り付けられ、表示された情報が実際に重ねて表示できるように構成されている。口頭でのコマンドと音声出力を提供するために、マイクとイヤホンがハーネスに取り付けられるかもしれないが、ナビゲーションを支援するためにそのような機能を統合することは提案されていない。実際、装置の提案された用途はナビゲーションのためであって、装置がそのような目的のためにどうやって使用され得るかについての説明は提供されておらず、説明は、ユーザーの視線の方向を決定できるセンサーを備えたスマートフォンを使用できる、ヘッドマウントのシースルーディスプレイの提供に限定されている。このような装置は扱いにくく、スマートフォンをサポートするためのカスタムハーネスが必要であり、おそらく最も重要なこととして、スマートフォンを通常の使用にアクセスできなくさせる。
【0022】
US20200195333は、それぞれがRFビーコンを含む、ユーザー本体の右側および左側に関連付けられた2つのウェアラブルデバイスを含むシステムを開示する。頭部の姿勢または視線の検出は、デジタルカメラデバイスのウェアラブルデバイスからの信号強度(RSSIなど)またはRF信号の位相を比較することによって推定される。視線検出とカメラの間の角度偏差(視線など)が推定され、角度偏差を設定されたしきい値と比較することに基づいて、カメラがアクティブ化または制御される。
【0023】
人間の動きや姿勢のためのIMUの使用については、Masaryk University, Faculty of InformaticsのMartin Veskrnaによる2013年の修士論文、“Positioning system for small devices using principles of inertial navigation system”、および2007年に Xiaoping Yun et alによって2007 IEEE International Conference on Robotics and Automation (Rome, Italy, 10-14 Apr. 2007) において発表された“Self-Contained Position Tracking of Human Movement Using Small Inertial/Magnetic Sensor Module”に記述されている。
【0024】
これらの論文は両方とも、歩行者のナビゲーションと、磁気センサーのドリフトを修正するために慣性ナビゲーションシステムを較正する必要性に関連している。異なる技術が使用されている。たとえば、一般的にジャイロスコープは指向性信号を提供するために提供される。
【0025】
Jacobs[9]は、歩行者ナビゲーションのための当時の(2013)アプローチの詳細な調査を提供しており、モバイルベースの位置情報サービス(MBLS)に関連して、MBLSで使用される最も一般的な対話方法は、ナビゲーション支援と空間クエリ応答のための地図上の情報のオーバーレイの使用であると述べている。ターンバイターン方式の経路案内を含むテキストフィードバックを提供したシステムもあれば、ランドマーク情報と写真を統合したシステムもある。また研究者らは、ユーザーにフィードバックを提供するために、情報オーバーレイとともに場所のパノラマ画像または他のジオタグ付き画像を統合した。彼は、低コストのオンボードデジタルコンパスが利用できるため、ベアリングベースのモバイル空間インタラクションの人気が高まり、純粋な位置ベースのシステムから方向認識システムへ移行していることに注目している。
【0026】
彼はまた、モバイルデバイスの位置と方向が、デバイスのカメラとともに使用され、リアルタイム画像にオーバーレイされたユーザーに空間情報を提供する、モバイル空間インタラクションシステムにおける拡張現実の使用についても言及している。
【0027】
US20160224855は、光学センサーを使用して、携帯電話/スマートフォンなどのポータブルデバイスとデバイスを携帯している人との間の方位のずれを推定する。従来の慣性航法システムでは、通常、プラットフォーム内の慣性センサーの位置合わせ(たとえば、慣性センサーを含むポータブル電子デバイスとプラットフォームの前方軸、横軸、および垂直軸との位置合わせ)が必要である。慣性センサーが適切に位置合わせされていない場合、慣性センサーからの測定値を使用して計算された位置と姿勢は、プラットフォームの状態を表すものではない。そのため、高精度のナビゲーションソリューションを実現するには、慣性センサーをプラットフォーム内につなぐ必要がある。
【0028】
上記の評論は、歩行者ナビゲーションシステムおよび、慣性誘導システムの初期化または較正を提供する、または場合によってはそうする必要を回避する、ハンズフリーシステムを提供するための複数のさまざまな取り組みについて、表面上を述べたにすぎない。このように、Bartieら[7]はスマートフォンの磁力計に依存する必要性のない完全に音声ベースのナビゲーションシステムを提供することにより、そうする必要性を回避する。
【0029】
このような手法は、非常に混乱を招く可能性がある。不慣れな環境での1人の観光客にとっては、その絶え間ない口頭での対話のおかげで安心できるかもしれないが、効率的にユーザーはナビゲーションシステムへ注意を払い続けることになる。休暇中のカップルがそのようなシステムを使用すれば、絶えず中断されることなく会話をするのが難しいだろう。
【0030】
Boyeら[5]はまた、試行錯誤によって位置合わせエラーを修正する音声ベースのシステムを採用している。
【0031】
本出願人名義のWO2019/215739は、取り外し可能な眼鏡に取り付けられた拡張現実(AR)装置およびクリップオンユニットを開示している。デバイスは、クリップオンユニットを取り外し可能に支持するハウジング、ユーザーが景色を観察するためのハウジング内の出口窓と入口窓、ハンドヘルドデバイスに結合するための通信インターフェース、景色内の指定された特徴にユーザーの視線を向けるために、ユーザーの視野に少なくとも1つのマーカーを表示する、IMUに動作可能に結合された視線ガイドユニット、ユーザーが見た景色に重ね合わせるための距離でマーカーを投影するためのハウジング内の光学系を有する。
【0032】
米国特許第10,012,506号公報は、電子コンパスを利用して、2つのウェイポイント間の所望の直線移動経路を決定し、ユーザーの移動方向を監視するナビゲーションガイダンスシステムを開示している。進行方向が確立された許容範囲内にあるとシステムが判断した場合、システムは1つまたは複数のアラートインジケータコンポーネントを介してユーザーにアラートを送信する。
【0033】
US2016/189426は、仮想プロキシオブジェクトを生成するための方法を開示し、拡張現実環境内の仮想プロキシオブジェクトの位置を制御するための方法が説明されている。ヘッドマウントディスプレイデバイス(HMD)は、仮想プロキシオブジェクトを生成するための実世界オブジェクトを特定し、実世界オブジェクトに対応する仮想プロキシオブジェクトを生成し、仮想プロキシオブジェクトがHMDのエンドユーザーに表示される拡張現実環境内に存在すると認識されるように、HMDを使用して仮想プロキシオブジェクトを表示することができる。
【発明の概要】
【発明が解決しようとする課題】
【0034】
本発明は、上記欠点のうちのいくつかを回避する歩行者ナビゲーションのためのシステムおよび方法を提供することを目的とする。
【課題を解決するための手段】
【0035】
具体的には、本発明はコンパクトで軽量の付属品の必要性に対する解決策を提供するものであって、ユーザーの眼鏡フレームにクリップで留めることができ、IMU、マイクロディスプレイ、光学機器、そして指定されたランドマークにユーザー自身を向けて、シースルーディスプレイを介してユーザーの遠視野に投影される視覚的マーキングの形での補助的なガイダンスと、必要な目的地への口頭ガイダンスの両方を受け取るための、オーディオインターフェースを備える。
【0036】
IMUは磁力計および/または、GPSを内蔵したスマートフォンを使用して地図に対してユーザーを方向付け、ユーザーを要求された方向に誘導するための音声指示を提供するハンズフリーナビゲーションシステムで方向信号を提供するジャイロを含む。
【0037】
本発明はまた、正しいナビゲーションコマンドを発行して、ユーザーを正しい経路に沿って所望の目的地に向けることができるように、ユーザーを地図に対して正しく向ける方法を提供する。
【0038】
本発明は、初期の位置合わせを提供するためにカメラを必要としないナビゲーションシステムで使用することができ、したがって、そのようなシステムの増加した帯域幅要件を回避することができる。また、歩行者が数百メートル歩いてから間違った方向に歩いてから戻らなければならないことに気付くのはフラストレーションがたまることであるので、試行錯誤による修正を避ける。
【0039】
本発明は、ユーザーが目的地に到達するのを支援するためのハンズフリー歩行者ナビゲーションのための方法を提供し、この方法は以下を含む:
(a)(i)ユーザーの視線の前に視覚画像を投影するためのシースルーディスプレイ、および(ii)IMUを、ユーザーの頭に取り付ける工程;
(b)ユーザーが携帯しているGPSユニットからユーザーのおおよその位置を取得する工程;
(c)ユーザーのおおよその位置を使用して、ユーザーを含むエリアのコンピューター化された地図においてユーザーを特定する工程;
(d)前記エリアにおいて、ユーザーの視野内に既知のランドマーク位置を有するランドマークを決定する工程;
(e)ユーザーの視線がランドマークに向けられていることをユーザーに確認する工程;
(f)ユーザーの位置と、コンピューター化された地図から抽出されたランドマークの位置との間の、計算された方位を決定する工程;
および、
(g)音声プロンプトを提供し、シースルーディスプレイを介して補助的な視覚プロンプトを投影することにより、歩行者を誘導する工程。
【0040】
このようなアプローチはすべてのナビゲーションシステムに固有の問題に対する非常に軽量な解決策を提供し、ユーザーの位置だけでなく、より重要なユーザーの移動方向をも確立する。これが確立されると、コンピューター化されたナビゲーションシステムは、ユーザーが方向を変える必要がある場合にのみ明確な音声指示を与える車両ナビゲーションシステムと同様の方法で、ユーザーを地図上で方向付け、要求された目的地に誘導することができる。したがって、歩行者が右折する必要がある交差点に到達すると、次の通りで右折してリンカーンアベニューに沿って500メートル進むように音声で指示することができる。システムは、ユーザーがIMUの測定された方向に基づいて指示に従ったことを識別し、したがって、方向の別の変更が要求されるまで、それ以上の指示をやめることができる。
【0041】
逆に、ユーザーが間違った方向に曲がった場合、システムはこれを即座に識別し、リアルタイムでユーザーに「いいえ、この道路ではありません。幹線道路に戻り、さらに100メートル進み、右折してください。」と警告することができる。または、システムは、再調整されたルートが元のルートよりも著しく最適でないかどうかによって、事前にプログラムされた設定に応じてルートを再調整できる。ユーザーが今すぐに曲がっても、さらに100メートル先に曲がっても、実際に違いがない場合、システムは、混乱を招く可能性のある口頭での警告を発さず、そのままにしておくことを決定できる。
【0042】
いくつかの実施形態では、システムによって選択されたランドマークを見るようにユーザーに指示することによって、ナビゲーションシステムにより較正を開始することができる。あるいは、ユーザーは自分の視野でランドマークを選択し、自分の視線が指定されたランドマークに向けられていることをナビゲーションシステムに口頭で通知することができる。いくつかの実施形態では、IMUは、ユーザーが自分の視野内の離れた物体にマーカーを投影することを可能にするシースルーディスプレイを含むデバイスの一部である。このような場合、ユーザーはナビゲーションシステムに、自分の視線が指定されたランドマークに向けられていることを口頭で通知でき、上記のようにIMUを較正できる。
【0043】
デバイスは頭部に取り付けることが望ましく、IMUと、ユーザーのスマートフォンへの通信インターフェース(通常はBluetooth(商標)などのワイヤレス接続)が含まれ、ハンズフリーナビゲーションが可能であるが、有線接続も可能である。ユーザーはスマートフォンを介して指示を聞くが、プライバシーと礼儀のため、音声による指示はイヤホンに中継される。イヤホンは、短距離ワイヤレスインターフェイスまたはワイヤーを介してスマートフォンに接続することもできる。ユーザーは、衣服にクリップで留めることができる、または同様にワイヤーまたはワイヤレスでスマートフォンに接続されているデバイスの一部であってもよいミニチュアマイクを介して、音声で命令を伝達するが、後者はBluetooth(商標)接続を介して行うことが好ましい。
【0044】
いくつかの実施形態では、ナビゲーションシステムは、上記のWO2020/215739に開示されているような、コンパクトな視覚ベースのアクセサリと組み合わせて使用されるAmazon Alexaなどの音声制御仮想アシスタントAI技術に基づく。これは、必要に応じて、Echo FrameやBose Frameなどのアイウェアフレーム、またはマイクとイヤホンを支持するアイウェアフレームにクリップで留めることができる。これにより、現実に重ね合わせられた視覚的な指示と組み合わせて、フレンドリーな音声ベースの対話が可能になる。
【図面の簡単な説明】
【0045】
本発明を理解し、それが実際にどのように実施され得るかを見るために、ここで、添付の図面を参照して、非限定的な例としてのみ実施形態を説明する。
【0046】
図1a】本発明によるデバイスを着用しているユーザーの図解である。
図1b】典型的な寸法を示すデバイスの図解である。
図2】本発明によるシステムを示すブロック図である。
図3a図3aは、後部から見たときの取り外し可能な装置の図解である。
図3b図3bは、前部から見たときの取り外し可能な装置の図解である。
図3c図3cは、背面から見たときの取り外し可能なデバイスの部分的に切り取られた図であり、中に収められている光学機器の部分的な詳細を示している。
図3d図3dは、光学機器の概略図である。
図4a図4aは、無線構成におけるデバイスのブロック図である。
図4b図4bは、有線構成におけるデバイスのブロック図である。
図5図5は、IMU磁力計を較正し、ユーザーにナビゲーション指示を提供するための方法に関する主要な操作を示している。
図6図6は、ユーザーが正しいルートをたどっていることを確認するための方法に関する主要な操作を示している。
図7図7は、識別可能な目印が認識できない場合に磁力計を較正するための代替的な実施形態を示している。
【発明を実施するための形態】
【0047】
図1aは、ユーザー(12)が着用する眼鏡フレーム11の前面に取り外し可能にクリップ留めされたデバイス(10)を示している。このような手段によって、デバイス(10)は、ユーザーの目の前に直接取り付けられ、ユーザーが出口ウィンドウ(13)を通して風景を観察することを可能にする。また、ユーザーは、取り外し可能なデバイス(10)によって目に投影され、実際の風景に重ね合わされたグラフィカルな注釈を見ることができる。好ましくは、眼鏡フレーム(11)は、マイクロフォンおよびイヤホンを支持するいわゆる「スマートフレーム」であるが、これらは、追加の別個のマイクロフォンおよびイヤホンを備えた従来の眼鏡フレームに後付けするか、または独立した付属品として個別に取り付けることができる。好ましくは、デバイス(10)は、眼鏡フレームの前面に取り付けるように構成された一体型アクセサリであり、その構成要素はいずれもユーザーの眼鏡のテンプルピース(サイドアーム)に取り付けられていないため、デバイスを従来の眼鏡フレームに取り付けることができる。しかしながら、本発明は、構成要素の一部をカスタムフレームのサイドアームに取り付けるまたは構築する可能性を排除するものではない。
【0048】
図1bは、好ましい実施形態によるデバイス(10)の典型的な寸法を示し、その最小構成要素は、IMU、マイクロディスプレイと、半透明ミラーと、図2および3を参照して以下に説明するような光学機器を含むシースルーディスプレイ、ならびに通信手段である。このような小型化を可能にするために、シースルーディスプレイのFOVは小さく、デバイスの横方向の調整によって光学出口ウィンドウはユーザーの目と位置合わせするように移動できる。無線通信を使用する場合、デバイスには小さなバッテリーが含まれる。消費電力を削減するために、最も重要なコンポーネントのみが使用されるか含まれている。最も重要なことにカメラは必須ではなく、部分的にはサイズを縮小するためであるが主に過度の電力消費、画像圧縮用の電子機器の追加、スマートフォンに映像を送信するための高帯域幅通信(WiFiなど)を回避するために、省くことができる。これらは全てデバイスをかさばらせ、バッテリーを消耗させるものである。
【0049】
図2は、GPSユニット(22)およびホストスマートフォンアプリケーション(23)を有するスマートフォン(21)を、ホストクラウドアプリケーション(24)およびクリップ式デバイス(10)として示される音声制御ナビゲーションシステムに統合するシステム20のブロック図である。クリップ式デバイス(10)は、IMU(25)およびマイクロディスプレイ(26)を包含し、BLE(Bluetooth(商標) Low Energy)を介してスマートフォン制御アプリケーション(27)に接続されている。スマートフレーム(11)は、Bluetooth(商標)を介してホストスマートフォンアプリケーション(23)に接続する。スマートフレームは、一体型コンポーネントとしてマイクとイヤホン(28)を有するAmazon Echo Frameであり得、ホストクラウドアプリケーション(24)は、Amazon Alexa and Skillsであり得る。
このような実装は、オーディオコンポーネントをデバイス(10)に組み込む必要性をなくすものであり、このオプションは明らかに可能であるが、そのかわりにかさがいくらか余分に高くなり、電池消費が増加してしまう。説明を簡単かつ一貫させるために、スマートフォンにロードされるソフトウェアアプリケーションをスマートフォンアプリケーションと呼び、インターネット上で操作されるソフトウェアアプリケーションをクラウドアプリケーションと呼ぶ。
【0050】
スマートフォン制御アプリケーション(27)は、ナビゲーションアプリケーションクラウド(29)に接続し、そこでは、すべてのナビゲーションタスクが実行され、インターネットを介して制御アプリケーションとの間で伝達される。ホストスマートフォンアプリケーション(23)は、インターネットを介してホストクラウドアプリケーション(24)に接続する。この図では、短距離Bluetooth(商標)通信は黒い矢印で示され、インターネット通信は白い矢印で示されている。ホストスマートフォンアプリケーション23は、音声/テキスト変換を実行し、インターネットを介してナビゲーションアプリケーションクラウド(29)にインターフェースする。Amazon Sharing Alexa Skillsは、ホストクラウドアプリケーション(24)とナビゲーションアプリケーションクラウド(29)の間でデータを転送するために使用され、ナビゲーションアプリケーションクラウド(29)においてナビゲーションなどの必要な機能をアクティブ化することもできる。より具体的には、Amazonでは、デバイス製造者が、AlexaとインターフェースするためのAPIを提供するクラウドベースのサービスであるAlexa Voice Service(AVS)を使用して、Alexa音声機能を自社の接続製品に統合できるようにしている。これには、ホストスマートフォンアプリケーション(23)とスマートフォン制御アプリケーション(27)との間の通信が、クラウド(24)および(29)を介して行われることが必要である。しかしながら、他のプラットフォームも2つのスマートフォンアプリケーション(23)と(27)との間の直接の内部通信に対応し得る。
【0051】
図3aは、デバイス(10)の背面図を示す図である。ユーザー(12)は、出口ウィンドウ(30)を通して実際の風景を見て、また、この風景に重ね合わされたグラフィカルな注釈を見る。これらの注釈には、マーク、テキスト、グラフィック形状などが含まれる場合がある。取り外し可能な装置は、WO 2019/215739に記載されているようなクリップオンユニット(図示せず)を支持するために取り付けブラケット(32)が固定されているハウジング(31)を有し、これによってデバイス(10)がユーザーの眼鏡の前面にクリップで留められる。あるいは、デバイス(10)は、ユーザーの眼鏡に磁気的に取り付けられてもよく、または他の種類のヘッドマウントデバイスであってもよい。任意選択で、デバイス(10)をスマートフォン(19)に結合するために、USBコネクタ(34)
が設けられる。
【0052】
図3bは、正面から見た、すなわち、ユーザー(12)の方を向いた、取り外し可能なデバイス(10)の正面図を示している。いくつかの実施形態では、オプションのウィンドウ(36)が提供され、それを通して、デバイスの内部に配置されるとともに、図3cに点線で概略的に示されるオプションの内蔵カメラ(37)が、外部の風景を画像化する。また、風景からの光が出口ウィンドウ(30)に通過し、ユーザーが観察するための入口ウィンドウ(30‘)も示されている。提供されたときにカメラは、上記のWO 2019/215739に記載されているように、補助的なナビゲーション支援として使用することができ、また、Googleのライブビューと同じ方法でIMUを較正するために使用することもできるが、ユーザーがスマートフォンを手に持つ必要がないという利点がある。
【0053】
図3cは、デバイス(10)の内部構造をより詳細に示している。プリント回路基板(PCB)(38)は、取り外し可能なデバイスの電子操作のための電子回路をサポートする。また、PCB(38)には、IMU(25)、USBコネクタ(34)(有線通信を使用する場合にのみ必要)、マイクロディスプレイ(26)、および任意選択の内蔵カメラ(37)が接続されている。
【0054】
マイクロディスプレイ(26)は、以下の主な特徴を有する高輝度モノクロディスプレイである;
ピクセル数:304x256
ピクセルサイズ:12μm x 12μm
アクティブエリア:3.648 mm x 3.972 mm
【0055】
デバイス10は、図3dに示される光学機器(40)を収容し、これは、2つのダブレット(41)、(41‘)および組み合わされたプリズム(42)を含む。ダブレット(41)、(41’)は、21mm相当の焦点距離を持つ複合対物レンズを形成する。マイクロディスプレイ(26)の発光面は、この組み合わされた対物レンズの焦点面に配置され、そうすることでディスプレイの画像が無限遠に作成され、それによって、ユーザ(12)は、実際の風景に投影されたディスプレイ上の画像を見る。画面の一般的な画像には、ユーザーが視野内のオブジェクトを指定するために使用する十字型のマーカーまたはレチクルが含まれている。矢印によって示されるように、画像は、最初に組み合わされたプリズム(42)の鏡面(45)によってさらに折り返され、次に、部分的な鏡面(46)によってユーザー(12)の目に向けられ、これにより、ディスプレイ(26)からの光がユーザーの目に到達することが可能になり、同時にユーザーは、図3bの出口ウィンドウ(30)を介して部分的な鏡面(46)を透過した実際の風景を見ることができる。典型的には、部分的な鏡面(46)は、50%以下の反射および50%以下の透過を有する。組み合わせたダブレットの焦点距離は21mmであるため、ディスプレイ画面はH:10×V:8.3度(対角13度)の視野をとらえる。光学設計により、ユーザーは直径4.5mmのアイモーションボックスを使用できる。
【0056】
このような配置は、出口ウィンドウ(30)がユーザーの眼と位置合わせされ、これによりよりかさ高い光学機器の使用を強いる大きなアイモーションボックスの必要性をなくすように横方向の調整を可能とする方法で、非常にコンパクトなデバイスをユーザーの眼鏡フレームに取り付けることを可能にする。多くの従来のシースルーARシステムは、現実にグラフィカルな注釈を表示するために広い視野を必要とする。そのようなシステムは、重く、扱いにくく、高価である。さらに、多くの場合、内蔵カメラを使用してランドマークを画像化し、ナビゲーションシステムがランドマーク画像に基づいてユーザーの位置を特定できるようにする。これにより、ARデバイスのかさがさらに増加し、通信帯域幅にかなりのオーバーヘッドが追加される。
【0057】
本発明による装置において、マーカーおよび方向のみに対するAR注釈が最小限でありカメラに依存しない小さな視野によって、コンパクトな装置が可能になる。これと音声を組み合わせることで、複雑な注釈(つまり、ランドマークの名前、複雑な方向)が口頭で与えられ、小さな視野の使用が可能となる。これにより、外出先でのハンズフリーのコンパクトなAR歩行者ナビゲーションが実現する。
【0058】
図4aおよび4bは、それぞれ、無線構成および有線構成におけるデバイス(10)のブロック図である。よって図4aに示されるように、上記の光学機器(40)は、スクリーン画像が外部の風景にオーバーレイされるマイクロディスプレイ26をユーザー12の目に投影する。デバイス(10)は、デバイスの動きを追跡し、それによってユーザーの頭の動きを追跡するための慣性磁気ユニット(IMU)25を収容する。マイクロディスプレイ(26)およびIMU(25)は、マイクロコントローラ(72)に接続されている。マイクロコントローラ(72)はまた、RFアンテナ(75)を介したLow Energy (LE) Bluetooth(商標)ユニット(74)との双方向通信のためのデータを処理する。Bluetooth(商標)ユニット(74)は、スマートフォン(21)のBluetooth(商標)ユニット(76)と通信する。内蔵電池(77)は、デバイス構成要素に電力を供給する。
【0059】
図4bは、USB有線通信を使用する代替的な実施形態を示している。マイクロコントローラ(72)は、SPI(Serial Peripheral Interface)ドライバと、ディスプレイ(26)およびIMU(25)をそれぞれUSBハブ(79)に接続するUSVからSPIへの変換器(78)、(78’)を含む。USBハブ(79)は、USBケーブルを介してスマートフォン(21)に接続する。
【0060】
図5は、IMU磁力計を較正し、ユーザーにナビゲーション指示を提供する方法に関連する主な操作を示す。わかりやすくするために、磁力計はIMU(25)のコンポーネントであり、図面に個別に示されていない。ユーザー(12)は、最初に、デバイス(10)を眼鏡フレーム(11)に取り付け、電源をつける。最初のステップでは、ユーザーが既知のランドマークを見ているときに、地球座標に対するデバイス(10)の向きを確立するために、磁力計の較正が実行される。
【0061】
この磁力計の較正(80)は次のように行われる。
・スマートフォン制御アプリケーション(27)は、スマートフォンGPSユニット(22)からGPSデータを取得する。
・スマートフォン制御アプリケーションは「視界」を決定し、GPSの位置と推定観測エリアに基づいて、GPS/地図データベース、つまりGoogleマップから関連するランドマークを取得する。地図はナビゲーションアプリケーションクラウド(29)に保存され、そこから「視界」に対応する地図の関連部分がスマートフォンにダウンロードされる。スマートフォン制御アプリケーションはユーザーの近くにある目に見えるランドマーク(既知のデパートなど)を識別し、デバイス(10)のディスプレイ(26)上にマーカーを描画し、マーカーがこのランドマーク上にオーバーレイされるまで、このランドマークに向かって自分の視点を向けるようにユーザーに指示する。ユーザーは、自分の視線がランドマークに向けられていることを口頭で確認する。
・スマートフォン制御アプリケーションは、磁力計で測定された方位角を読み取り、地図に基づいてユーザーの位置とランドマークの位置の間の方位角を計算し、磁力計を較正してディスプレイに「V」をマークすると、ユーザーはナビゲートを開始できる。
【0062】
ランドマークはスマートフォンアプリケーション(27)によって提案される場合があるが、ユーザーによって提案される場合もある。この場合、ユーザーは「右側にスターバックスコーヒーが見えます」と言うと、システムがそれを認識し、プロセスは以前と同じように続行される。これは、ユーザーがリクエストを発声するという従来のAlexaの使用法に対応している。Alexaは音声をテキストに変換してAlexaクラウドに伝達し、そこで解析および処理されて適切な応答が導き出され、テキスト文字列としてユーザーに伝達される。この応答はローカルで音声に変換され、発声される。
【0063】
磁力計が較正されると、スマートフォンアプリケーション(27)は、マイクロディスプレイ(26)に、方向が磁北を指す矢印などの補助的な視覚的プロンプトおよび/または北北西などのテキストを表示することによって、計算された移動方向をグラフィカルに示すことができる。表示画像は、光学機器(40)によって外部風景に重ね合わされる。ただし、シースルーディスプレイのない簡略化されたデバイスでは、IMUは、マーカーを投影せずに、またはGoogleGlassなどの非シースルーディスプレイを使用してマーカーを投影して頭部に取り付けできる。名前付きのランドマークとの位置合わせは口頭で簡単に確認され、ユーザーの向きはスマートフォンアプリケーション(27)に伝達されたIMU測定値に基づいて決定される。これは精度が低くなる可能性が高いが、それでも、スマートフォンアプリケーション(27)がユーザーを方向付け、包括的なナビゲーション指示を提供できるランドマークをユーザーが注視できるようになる。また、口頭のコマンドが好ましいが、本発明は、クリップ式デバイス(10)上で押しボタン式マイクロスイッチの使用を企図し、これは、ユーザーの視線がランドマークに向けられたときにスマートフォンアプリケーションに確認するために、ユーザーによって押され得る。もちろん、これは完全にハンズフリーの操作ではないが、それでもスマートフォンでの手動操作は必要ない。さらに、較正はナビゲーションアプリケーションの初期化時および検証中にのみ実行されるため、そのような変形形態はすべての意図および目的において、音声ナビゲーションシステムと見なされ得る。
【0064】
較正が行われると、ナビゲーション(81)が開始され得る。
・ユーザーはシステムに行きたい場所を伝える。
・スマートフォンアプリケーションは、ルートを計算し、ルートに沿ってランドマークをコンパイルし、IMUおよびGPSデータを取得し、準備ができたら、ユーザーが進むべき方向を示す矢印などのグラフィカルなナビゲーション支援機能をディスプレイ(26)に表示し、かつ/またはナビゲーションを支援するための口頭での指示を伝える。
・ナビゲーション中、スマートフォンアプリケーションはユーザーに口頭での指示とグラフィック注釈を提供する。
・ナビゲーション中に、ユーザーまたはスマートフォンアプリケーションのいずれかが検証モードを開始して、ユーザーがまだ軌道上にいることを確認できる。
【0065】
図6は、ユーザーが正しいルートをたどっていることを確認する方法に関連する主な操作を示す。示されているように、検証は、たとえば疑わしい場合には(82)に示されているようにユーザーによって開始され、または(83)に示されているスマートフォンアプリケーションによって開始される。ユーザーが起動した場合、ユーザーはたとえば「右側にスターバックスが見えます」といったように通過するランドマークを声に出して確認する。スマートフォンアプリはこれが正しいかどうかをチェックし、正しい場合は「良いです、歩き続けてください」と応答する。それ以外の場合、スマートフォンアプリケーションはユーザーを近くのランドマークに誘導し、図5に(80)として示されているものと同様の較正ルーチンを実行するようにユーザーに指示し、必要に応じてナビゲーション手順を更新する。
【0066】
スマートフォンによる検証(83)は、最初の較正と同じように動作するが、スマートフォンは、視野にあるべきランドマークが正しく見えていることを確認するようにユーザーに音声で促す。検証がスマートフォンアプリケーションのユーザーによって開始されたかどうかに関係なく、ランドマークはユーザーまたはスマートフォンアプリケーションのいずれかによって選択され得る。たとえば、ユーザーは次のように簡潔に言うことができる:「ヘルプ」。するとスマートフォンアプリケーションが検証プロトコル(83)を実行する。
【0067】
上記のように、本発明の一様態は、ディスプレイなしで実施することができるが、IMU、マイクロフォン、およびイヤホンを含むスマートガラスフレームまたはイヤホンでのみ実施することができる。
【0068】
この場合、ユーザーは、較正または検証が必要なときに、ランドマークの大体の方向に頭を向ける。この方法で決定された方向は、投影されたマーカーを使用して達成された方向よりも正確でないが、現在の磁力計で利用できる方向よりも正確である。しかしこの場合、グラフィカルな注釈は不可能であり、口頭での指示しか利用できないことは明らかである。
【0069】
図7は、識別可能なランドマークが識別できない場合に、IMUを較正するための代替的な実施形態を図で示している。これはたとえば建物に標識がないため、ユーザーもシステムもユーザーの周りのオブジェクトを口頭で説明できない場合といったように、ユーザーを取り巻く要素に特別な属性がない状況で発生する可能性がある。このような場合、スマートフォンアプリケーションは、ユーザーのGPS位置に基づいて、ユーザーの視界のパノラマ写真をユーザーの携帯電話に提供する。このような写真はStreet Viewのクラウドデータベースなどから取得できる。ユーザーは、表示されたパノラマ写真で見ているオブジェクトを見つけてクリックする。スマートフォンアプリケーションは、パノラマ写真の選択されたエリアに基づいて、選択された画像をユーザーが見ている実際のオブジェクトに関連付け、それを識別して、ユーザーの視線の方向を確定することができる。
【0070】
特許請求される本発明の範囲から逸脱することなく修正を行うことができることが理解されよう。たとえば、マイクとイヤホンを眼鏡フレームに統合する必要はない。マイクはユーザーのジャケットにクリップで留めて、イヤホンと同じようにスマートフォンに接続することができる。このような場合、どちらかまたは両方をスマートフォンにワイヤレスで接続するか、典型的にはスマートフォンのBluetooth(商標)インターフェースを使用するか、適切なケーブルを介して接続することができる。
【0071】
実施形態は、磁力計を使用するIMUの較正を特に参照して説明されてきたが、上記のように、IMUは、相対角変位を提供するジャイロスコープを使用し得ることにも留意されたい。このような場合、IMUの較正により、既知のランドマークに対する歩行者の初期の方位角が決定され、ジャイロスコープは初期方位角に対するIMUの、したがってユーザーの相対回転を示す。
【0072】
本発明は、シースルーではないが視覚的なナビゲーション信号を提供するディスプレイを使用して実施することができる。例えば、異なる色または幾何学的形態を有するLEDは、ユーザーが遠くからその方を見ているときに見えるように、頭部取り付け可能なデバイスと空間的に関連して取り付けられ得る。点灯しているLEDは、ピントが合っていなくてもユーザーの目に見え、方向を示している場合がある。ユーザーは、これらのLEDの特定の1つによって視線を向けたり、前述のように較正または検証が必要な場合は、頭をランドマークの大体の方向に向けたりすることができる。LEDは、眼鏡レンズに組み込んだり、眼鏡レンズの前に取り付けたりすることができる。
【0073】
1つまたは複数の実施形態を参照して説明される特徴は、それらの実施形態への限定としてではなく、例として説明されることに留意されたい。したがって、特に明記しない限り、または特定の組み合わせが明らかに許容されない場合を除き、いくつかの実施形態のみを参照して説明されるオプションの特徴は、他のすべての実施形態にも同様に適用可能であると想定される。本発明によるソフトウェアは、本発明の方法を実行するためのコンピュータプロセッサによって読み取り可能なコンピュータプログラムによって実装され得ることも理解されよう。本発明はさらに、本発明の方法を実行するために機械によって実行可能な命令のプログラムを具体的に具体化する機械可読メモリを企図する。
図1a
図1b
図2
図3a
図3b
図3c
図3d
図4a
図4b
図5
図6
図7
【外国語明細書】