(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2023-11-22
(45)【発行日】2023-12-01
(54)【発明の名称】ナビゲーション方法、装置、電子機器、コンピュータ読取可能な記憶媒体及びコンピュータプログラム
(51)【国際特許分類】
G01C 21/36 20060101AFI20231124BHJP
G02B 27/02 20060101ALI20231124BHJP
G09G 3/20 20060101ALI20231124BHJP
【FI】
G01C21/36
G02B27/02 Z
G09G3/20 680A
(21)【出願番号】P 2022103647
(22)【出願日】2022-06-28
【審査請求日】2022-06-28
(31)【優先権主張番号】202110731632.5
(32)【優先日】2021-06-29
(33)【優先権主張国・地域又は機関】CN
(73)【特許権者】
【識別番号】521208273
【氏名又は名称】阿波▲羅▼智▲聯▼(北京)科技有限公司
【氏名又は名称原語表記】APOLLO INTELLIGENT CONNECTIVITY(BEIJING)TECHNOLOGY CO.,LTD.
【住所又は居所原語表記】101, 1st Floor, Building 1, Yard 7, Ruihe West 2nd Road, Beijing Economic and Technological Development Zone, Beijing 100176, China
(74)【代理人】
【識別番号】100145403
【氏名又は名称】山尾 憲人
(74)【代理人】
【識別番号】100189555
【氏名又は名称】徳山 英浩
(72)【発明者】
【氏名】▲デン▼ 蘇南
【審査官】上野 博史
(56)【参考文献】
【文献】特開2015-204616(JP,A)
【文献】国際公開第2013/114617(WO,A1)
【文献】国際公開第2017/115587(WO,A1)
【文献】特開2009-278234(JP,A)
【文献】米国特許第10332292(US,B1)
(58)【調査した分野】(Int.Cl.,DB名)
G01C 21/00-21/36
23/00-25/00
G08G 1/00-99/00
G02B 27/00-30/60
G09G 3/00-3/08
3/12
3/16
3/19-3/26
3/30
3/34
3/38
(57)【特許請求の範囲】
【請求項1】
実景画像とナビゲーション情報とを取得することと、
前記実景画像を変換して、少なくとも1つの車載メガネのウィンドウにマッチングする投射画像を取得することと、
前記投射画像と前記ナビゲーション情報とを融合して、ナビゲーション画像を取得することと、
前記車載メガネが前記ナビゲーション画像を表示するように、前記ナビゲーション画像を前記車載メガネに送信することと、を含
み、
前記実景画像が車載機器の第1の画像収集機器によって収集された第1の実景画像であれば、前記実景画像を変換して投射画像を取得することは、
前記車載メガネの第2の画像収集機器によって収集された第2の実景画像と前記車載メガネのウィンドウとの第1の位置関係を取得することと、
前記第1の実景画像と前記第2の実景画像との第2の位置関係を特定することと、
前記第1の位置関係及び前記第2の位置関係に基づいて前記第1の実景画像を変換して 投射画像を取得することと、を含む、
ナビゲーション方法。
【請求項2】
前記車載メガネの第2の画像収集機器によって収集された第2の実景画像と前記車載メガネのウィンドウとの第1の位置関係を取得することは、
前記車載メガネにおける前記第2の画像収集機器の位置と前記ウィンドウの位置とに基づいて、第1の位置関係を特定することを含む、
請求項
1に記載の方法。
【請求項3】
前記第1の実景画像と前記第2の実景画像との第2の位置関係を特定することは、
前記第1の実景画像と前記第2の実景画像とに対して特徴点追跡を行い、特徴点追跡の第1の結果に基づいて前記第1の実景画像と前記第2の実景画像との第2の位置関係を特定することと、
前記車載メガネが指定位置にある時に収集された第3の実景画像と前記第1の実景画像とに対して特徴点追跡を行って、特徴点追跡の第2の結果に基づいて前記第1の実景画像と前記第3の実景画像との第3の位置関係を特定し、前記車載メガネが位置する現在位置と前記指定位置とに基づき、且つ前記第3の位置関係に基づいて、前記第1の実景画像と前記第2の実景画像との第2の位置関係を特定することと、のいずれか一方を含む、
請求項
1に記載の方法。
【請求項4】
前記車載メガネが位置する現在位置は、前記車載メガネの測位システムによって取得される、
請求項
1に記載の方法。
【請求項5】
前記実景画像が前記車載メガネの第2の画像収集機器によって収集された第2の実景画像であれば、前記実景画像を変換して投射画像を取得することは、
前記車載メガネの第2の画像収集機器によって収集された第2の実景画像と前記車載メガネのウィンドウとの第1の位置関係を取得することと、
前記第1の位置関係に基づいて前記第1の実景画像を変換して投射画像を取得することと、を含む、
請求項1に記載の方法。
【請求項6】
前記ナビゲーション画像を前記車載メガネに送信することは、
無線通信で前記ナビゲーション画像を前記車載メガネに送信することを含む、
請求項
1に記載の方法。
【請求項7】
車載機器によって送信されたナビゲーション画像を受信することであって、前記ナビゲーション画像は、投射画像とナビゲーション情報とが融合されたものであり、前記投射画像は、実景画像から変換されたものであり、前記投射画像と少なくとも1つの車載メガネのウィンドウとがマッチングすることと、
前記ナビゲーション画像を表示することと、を含
み、
前記実景画像が車載機器の第1の画像収集機器によって収集された第1の実景画像であれば、前記実景画像を変換して投射画像を取得することは、
前記車載メガネの第2の画像収集機器によって収集された第2の実景画像と前記車載メガネのウィンドウとの第1の位置関係を取得することと、
前記第1の実景画像と前記第2の実景画像との第2の位置関係を特定することと、
前記第1の位置関係及び前記第2の位置関係に基づいて前記第1の実景画像を変換して 投射画像を取得することと、を含む、
ナビゲーション方法。
【請求項8】
実景画像とナビゲーション情報とを取得するためのデータ取得モジュールと、
前記実景画像を変換して、少なくとも1つの車載メガネのウィンドウにマッチングする投射画像を取得するための画像変換モジュールと、
前記投射画像と前記ナビゲーション情報とを融合して、ナビゲーション画像を取得するための画像融合モジュールと、
前記車載メガネが前記ナビゲーション画像を表示するように、前記ナビゲーション画像を前記車載メガネに送信するためのナビゲーション画像送信モジュールと、を含
み、
前記実景画像が車載機器の第1の画像収集機器によって収集された第1の実景画像であれば、前記実景画像を変換して投射画像を取得することは、
前記車載メガネの第2の画像収集機器によって収集された第2の実景画像と前記車載メガネのウィンドウとの第1の位置関係を取得することと、
前記第1の実景画像と前記第2の実景画像との第2の位置関係を特定することと、
前記第1の位置関係及び前記第2の位置関係に基づいて前記第1の実景画像を変換して 投射画像を取得することと、を含む、
ナビゲーション装置。
【請求項9】
車載機器によって送信されたナビゲーション画像を受信するためのものであって、前記ナビゲーション画像は、投射画像とナビゲーション情報とが融合されたものであり、前記投射画像は、実景画像から変換されたものであり、前記投射画像と少なくとも1つの車載メガネのウィンドウとがマッチングするナビゲーション画像受信モジュールと、
前記ナビゲーション画像を表示するためのナビゲーションモジュールと、を含
み、
前記実景画像が車載機器の第1の画像収集機器によって収集された第1の実景画像であれば、前記実景画像を変換して投射画像を取得することは、
前記車載メガネの第2の画像収集機器によって収集された第2の実景画像と前記車載メガネのウィンドウとの第1の位置関係を取得することと、
前記第1の実景画像と前記第2の実景画像との第2の位置関係を特定することと、
前記第1の位置関係及び前記第2の位置関係に基づいて前記第1の実景画像を変換して 投射画像を取得することと、を含む、
ナビゲーション装置。
【請求項10】
少なくとも1つのプロセッサと、
前記少なくとも1つのプロセッサと通信接続するメモリとを有する電子機器であって、
前記メモリには、前記少なくとも1つのプロセッサによって実行され得るコマンドが記憶されており、前記コマンドが前記少なくとも1つのプロセッサによって実行されることで、前記少なくとも1つのプロセッサが請求項1~
7のいずれか一項に記載の方法を実行することができる、
電子機器。
【請求項11】
コンピュータに請求項1~
7のいずれか一項に記載の方法を実行させるためのコンピュータコマンドを記憶している、
非一時的なコンピュータ読取可能な記憶媒体。
【請求項12】
プロセッサにより実行された場合に、請求項1~
7のいずれか一項に記載の方法を実現するコンピュータプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、車両ネットワークの技術分野に関し、特にナビゲーション技術分野に関し、具体的に、本開示は、ナビゲーション方法、装置、電子機器、コンピュータ読取可能な記憶媒体及びコンピュータプログラムに関する。
【背景技術】
【0002】
AR(Augmented Reality、拡張現実感)技術の応用がますます広くなるにつれて、AR応用に対するユーザの受け入れ度もますます高くなる。AR技術の重要な応用シーンの1つは、ARナビゲーションを実現することにある。
【0003】
ARナビゲーションの内容を車載メガネに投射する場合、ユーザの頭部が揺れる可能性があるため、投射されたARナビゲーション情報とユーザが見た画像との間に一定の位置ずれが存在し、これはARナビゲーションの効果に影響し、ユーザの使用体験に影響することになる。
【発明の概要】
【0004】
本開示は、上記欠陥の少なくとも1つを解決するためのものであり、ナビゲーション方法、装置、電子機器、コンピュータ読取可能な記憶媒体及びコンピュータプログラムを提供した。
【0005】
本開示の第1の局面によれば、ナビゲーション方法において、
実景画像とナビゲーション情報とを取得することと、
実景画像を変換して少なくとも1つの車載メガネのウィンドウにマッチングする投射画像を取得することと、
投射画像とナビゲーション情報とを融合してナビゲーション画像を取得することと、
車載メガネがナビゲーション画像を表示するように、ナビゲーション画像を車載メガネに送信することと、を含むナビゲーション方法を提供する。
【0006】
本開示の第2の局面によれば、ナビゲーション方法において、
車載機器によって送信されたナビゲーション画像を受信することであって、ナビゲーション画像は、実景画像とナビゲーション情報とが融合されたものであり、投射画像は、実景画像から変換されたものであり、投射画像と少なくとも1つの車載メガネのウィンドウとがマッチングすることと、
ナビゲーション画像を表示することと、を含む別のナビゲーション方法を提供する。
【0007】
本開示の第3の局面によれば、ナビゲーション装置において、
実景画像とナビゲーション情報とを取得するためのデータ取得モジュールと、
実景画像を変換して少なくとも1つの車載メガネのウィンドウにマッチングする投射画像を取得するための画像変換モジュールと、
投射画像とナビゲーション情報とを融合してナビゲーション画像を取得するための画像融合モジュールと、
車載メガネがナビゲーション画像を表示するように、ナビゲーション画像を車載メガネに送信するためのナビゲーション画像送信モジュールと、を含むナビゲーション装置を提供する。
【0008】
本開示の第4の局面によれば、ナビゲーション装置において、
車載機器によって送信されたナビゲーション画像を受信するためのものであって、ナビゲーション画像は、実景画像とナビゲーション情報とが融合されたものであり、投射画像は、実景画像から変換されたものであり、投射画像と少なくとも1つの車載メガネのウィンドウとがマッチングするナビゲーション画像受信モジュールと、
ナビゲーション画像を表示するためのナビゲーションモジュールと、を含む別のナビゲーション装置を提供する。
【0009】
本開示の第5の方面によれば、
少なくとも1つのプロセッサと、
前記少なくとも1つのプロセッサと通信接続するメモリとを有する電子機器であって、
前記メモリに、前記少なくとも1つのプロセッサによって実行され得るコマンドが記憶されており、前記コマンドが前記少なくとも1つのプロセッサによって実行されることで、前記少なくとも1つのプロセッサが上記ナビゲーション方法を実行することができる電子機器を提供する。
【0010】
本開示の第6の局面によれば、コンピュータに上記ナビゲーション方法を実行させるためのコンピュータコマンドを記憶している、非一時的なコンピュータ読取可能な記憶媒体を提供している。
【0011】
本開示の第7の局面によれば、プロセッサにより実行された場合に、上記ナビゲーション方法を実現するコンピュータプログラムを提供している。
【0012】
理解されるべきこととして、本部分に記載された内容は、本開示の実施例のキーポイント又は重要な特徴を示すことを意図するものではなく、本開示の範囲を限定するものでもない。本開示の他の特徴は、以下の説明により容易に理解される。
【0013】
本開示が提供した技術案による有益効果は、
本開示の実施例が提供した技術案は、実景画像とナビゲーション情報とを取得し、実景画像を変換して少なくとも1つの車載メガネのウィンドウにマッチングする投射画像を取得し、投射画像とナビゲーション情報とを融合してナビゲーション画像を取得し、ナビゲーション画像を車載メガネに送信して、車載メガネがナビゲーション画像を表示する。本技術案では、車載メガネによりARナビゲーションを実現するとともに、ユーザの頭部位置が変化することによるARナビゲーションの効果への影響を回避し、ARナビゲーションの効果を保証し、ユーザの使用体験を保証することができる。
【図面の簡単な説明】
【0014】
ここで、図面は、本技術案をよりよく理解するために用いられ、本開示を限定するものではない。
【
図1】
図1は、本開示の実施例が提供したナビゲーション方法のフロー模式図である。
【
図2】
図2は、本開示の実施例が提供した別のナビゲーション方法のフロー模式図である。
【
図3】
図3は、本開示の実施例が提供したナビゲーションシステムの構成模式図である。
【
図4】
図4は、本開示が提供したナビゲーション装置の構成模式図である。
【
図5】
図5は、本開示が提供した別のナビゲーション装置の構成模式図である。
【
図6】
図6は、本開示の実施例のナビゲーション方法を実現するための電子機器のブロック図である。
【発明を実施するための形態】
【0015】
以下、図面を参照して本開示の例示的な実施例を説明する。ここで、本開示の実施例の様々な詳細は、より理解しやすいために含まれ、それらが例示的なものであると考えられるべきである。したがって、当業者であれば、本開示の範囲及び精神から逸脱することはないように、ここで記載される実施例に対して様々な変更・修正を行うことができる。同様に、明確かつ簡潔に説明するために、以下の記載において周知の機能や構成に対する説明を省略する。
【0016】
従来のARナビゲーションは、一般的に車載機器のディスプレイ又はヘッドアップディスプレイ(Augmented Reality Head Up Display,AR HUD)に投射される方式であるが、従来方式には、一定の欠陥が存在しており、ユーザの使用体験に影響する。
【0017】
車載機器のディスプレイに投射されたARナビゲーションについて、ナビゲーション情報は、実景に融合しておらず、ビデオに融合しており、本質的に本当の実景重畳ではなく、運転者がナビゲーション情報を取得するために、頭を下げてディスプレイを見る必要がある。
【0018】
AR HUDに表示されているARナビゲーションについて、AR HUDが実現可能な画角(FOV)が小さく、強い光で画面のコントラストが大きく低下し、HUD投射のウィンドウ(eyebox)が相対的に固定であり、一定のウィンドウから離脱すれば、完全な画面が見えなくなる。
【0019】
ARナビゲーション情報をMRメガネに投射できれば、ARナビゲーションを車載機器のディスプレイ又はヘッドアップディスプレイに投射する場合の上述した欠陥を克服することができる。
【0020】
普通のMR(Mediated Reality)メガネにおいて、測位のチップ及び画像発生ユニットがいずれも個別にメガネに備えている。しかし、車載分野において、関連ナビゲーション情報を表示するように、GPS(Global Positioning System)、慣性測定ユニット(Inertial Measurement Unit,IMU)などの測位チップをメガネに重ね合わせると、メガネの重量を増加させ、機器が大型化になる。
【0021】
従来のARナビゲーションでは、一般的に車載機器のカメラによって実景画像を収集し、その後、実景画像に応じてナビゲーション情報を生成する。ARナビゲーションの内容を車載メガネに投射すれば、ユーザの頭部が揺れる可能性があるため、投射されたARナビゲーション情報とユーザが見た画像との間に一定の位置ずれが存在し、これはARナビゲーションの効果に影響し、ユーザの使用体験に影響する。
【0022】
本願の実施例が提供したナビゲーション方法、装置、電子機器及びコンピュータ読取可能な記憶媒体は、従来技術の上記技術問題の少なくとも1つを解決する旨である。
【0023】
図1は、本開示の実施例が提供したナビゲーション方法のフロー模式図を示しており、
図1に示すように、この方法は、主に以下のステップを含んでよい。
ステップS110:実景画像とナビゲーション情報とを取得する。
ステップS120:実景画像を変換して、少なくとも1つの車載メガネのウィンドウにマッチングングする投射画像を取得する。
ステップS130:投射画像とナビゲーション情報とを融合して、ナビゲーション画像を取得する。
ステップS140:車載メガネがナビゲーション画像を表示するように、ナビゲーション画像を車載メガネに送信する。
【0024】
ここで、実景画像は車両周囲環境の画像である。ナビゲーション情報は、実景画像と融合して、ナビゲーション画像を取得するために用いられる。ナビゲーション情報は、ナビゲーション画像に表示され、ユーザに対してナビゲート又は提示するための情報であり、高級運転補助システム(Advanced Driving Assistance System,ADAS)情報や、高精度地図情報などを含んでよい。
【0025】
1つの例として、ナビゲーション情報は、車両のステアリングを指示するためのステアリング矢印であってもよく、情報点(Point of Information,POI)における建物の情報(建物の名称など)であってもよい。
【0026】
車載メガネは、MRメガネなどのスマートグラスを含むが、これに限られない。ユーザは、車両を運転する時に車載メガネをかけて、車載メガネを介してナビゲーションを実現してよい。
【0027】
本開示の実施例で提供したナビゲーションシステムでは、ユーザが多い場合の使用需要を満足するように、車両内に複数の車載メガネを配置してよい。
【0028】
ユーザが車載メガネをかけている時、ユーザの目の可視領域が車載メガネのウィンドウ(eyebox)に対応しているため、実景画像を変換して、車載メガネのウィンドウにマッチングする投射画像を取得することができる。この投射画像がユーザの目の可視領域にマッチングしており、この投射画像を基にナビゲーション情報と融合して、ARナビゲーションを行うことで、ARナビゲーション効果を保証でき、ユーザに拡張現実感を与えることで、ユーザの頭部の移動によるARナビゲーション効果への影響を回避することができる。
【0029】
実際の使用中に、ユーザの頭部位置が随時に変化する可能性があるため、ARナビゲーション効果を保証するように、調整周期を設定して、実景画像を周期的に変換してよい。1つの例として、調整周期が2秒間であってよい。
【0030】
本開示の実施例では、ナビゲーション画像を生成した後、ナビゲーション画像を車載メガネに送信し、車載メガネによってナビゲーション画像を表示して、ARナビゲーションを実現してよい。ARナビゲーションを車載メガネに投射することは、従来技術でARナビゲーションを車載機器のディスプレイ又はAR HUDに投射する時の欠陥を克服し、ユーザの使用体験を向上することができる。
【0031】
本開示の実施例が提供した方法は、実景画像とナビゲーション情報とを取得し、実景画像を変換して、少なくとも1つの車載メガネのウィンドウにマッチングする投射画像を取得し、投射画像とナビゲーション情報とを融合して、ナビゲーション画像を取得し、ナビゲーション画像を車載メガネに送信して、車載メガネがナビゲーション画像を表示する。本技術案では、車載メガネによりARナビゲーションを実現するとともに、ユーザの頭部位置が変化することによるARナビゲーションの効果への影響を回避し、ARナビゲーションの効果を保証し、ユーザの使用体験を保証することができる。
【0032】
本開示の1つの選択可能な態様では、実景画像が車載機器の第1の画像収集機器によって収集された第1の実景画像であれば、実景画像を変換して投射画像を取得することは、
車載メガネの第2の画像収集機器によって収集された第2の実景画像と車載メガネのウィンドウとの第1の位置関係を取得することと、
第1の実景画像と第2の実景画像との第2の位置関係を特定することと、
第1の位置関係及び第2の位置関係に基づいて第1の実景画像を変換して投射画像を取得することと、を含む。
【0033】
本開示の実施例において、実景画像は、車載機器の第1の画像収集機器によって収集されてもよく、車載メガネの第2の画像収集機器によって収集されてもよい。
【0034】
画像収集機器は、カメラを含むが、これに限られない。
【0035】
実景画像が車載機器の第1の画像収集機器によって収集された第1の実景画像である場合、車載メガネの第2の画像収集機器と車載メガネにおけるウィンドウとの位置が固定されているため、第2の画像収集機器と車載メガネにおけるウィンドウとの実際の位置関係に応じて、第2の実景画像と車載メガネのウィンドウとの第1の位置関係を特定することができる。
【0036】
ユーザの頭部の位置がリアルタイム的に変化する可能性があるため、第1の実景画像と第2の実景画像との第2の位置関係もリアルタイム的に変化し、そのため、調整周期に従って第2の位置関係を周期的に取得してよい。
【0037】
第1の位置関係及び第2の位置関係が特定された後、第1の位置関係と第2の位置関係とに応じて第1の実景画像を変換して投射画像を取得する。
【0038】
1つの例として、第1の位置関係は、[R1 T1]で表されると(ただし、Rは回転行列であり、Tは並進行列である)、P(eyebox)=[R1 T1] P(camera2)。ここでの[R1 T1]は決められた量であり、ただし、P(eyebox)は投射画像を表し、P(camera2)は第2の実景画像を表す。
【0039】
第2の位置関係は、[R2 T2]で表されると、P(camera2)=[R2 T2] P(camera1)、ただし、P(camera1)は第1の実景画像を表し、P(camera2)は第2の実景画像を表す。
【0040】
これにより、P(eyebox)=[R1 T1] P(camera2)= [R1 T1] [R2 T2] P(camera1)が推定され得る。
【0041】
本開示の1つの選択可能な態様では、第1の実景画像と第2の実景画像との第2の位置関係を特定することは、
第1の実景画像と第2の実景画像とに対して、特徴点追跡を行い、特徴点追跡の第1の結果に基づいて、第1の実景画像と第2の実景画像との第2の位置関係を特定することと、
車載メガネが指定位置にある時に収集された第3の実景画像と第1の実景画像とに対して特徴点追跡を行い、特徴点追跡の第2の結果に基づいて第1の実景画像と第3の実景画像との第3の位置関係を特定し、車載メガネが位置する現在位置と指定位置とに基づき、且つ第3の位置関係に基づいて、第1の実景画像と第2の実景画像との第2の位置関係を特定することと、の何れか一方を含む。
【0042】
本開示の実施例では、PNP演算などの特徴点追跡の方式で第2の位置関係を取得してよい。具体的に、第1の実景画像の特徴点が、第2の実景画像の特徴点と対比追跡演算をしていき、演算の結果は、P(camera2)=[R2 T2] P(camera1)として記してよい。
【0043】
処理のリアルタイム性のために、この演算プロセスの時間遅延を制御する必要があり、第1の実景画像と第2の実景画像とを車載機器のマイクロコントローラユニット(Microcontroller Unit,MCU)に伝送して処理してよい。
【0044】
本開示の実施例では、ナビゲーション画像の生成が車載機器で完成し、ナビゲーション画像を車載メガネに送信してよく、これによって、車載メガネには余計なセンサーを配置する必要がなくなり、車載メガネの大型化を回避した。
【0045】
本開示の実施例では、ユーザの車両における指定位置を設定して、この指定位置を基準として、車載メガネが指定位置にある時に収集された第3の実景画像と第1の実景画像との第3の位置関係を特定し、その後、リアルタイム的に車載メガネを測位し、指定位置に対する車載メガネ位置の位置変化を算出し、この位置変化及び第3の位置関係に応じて第2の位置関係を特定することができる。
【0046】
実際の使用中に、第3の位置関係は、画像特徴点追跡の方式で取得されてよい。
【0047】
一例として、運転手が端坐して車載メガネをかけている時の車載メガネの位置を指定位置としてよい。ピクチャー特徴点追跡で関係初期値P(camera2)=[R20 T20] P(camera1)を取得する。動的プロセスにおいて、測位システムで取得された相対的位置変化を[Rx Tx]とすると、P(camera2)=[Rx Tx][R20 T20] P(camera1)。
【0048】
本開示の実施例の1つの選択可能な態様では、車載メガネが位置する現在位置は、車載メガネの測位システムによって取得される。
【0049】
本開示の実施例では、車載メガネの測位システムは、GPS/IMUなどの測位チップを含んでよい。
【0050】
本開示の実施例の1つの選択可能な態様では、実景画像が車載メガネの第2の画像収集機器によって収集された第2の実景画像であれば、実景画像を変換して投射画像を取得することは、
車載メガネの第2の画像収集機器によって収集された第2の実景画像と車載メガネのウィンドウとの第1の位置関係を取得することと、
第1の位置関係に基づいて第1の実景画像を変換して投射画像を取得することと、を含む。
【0051】
本開示の実施例では、実景画像が車載メガネの第2の画像収集機器によって収集された第2の実景画像である場合、車載メガネの第2の画像収集機器と車載メガネにおけるウィンドウとの位置が固定であるため、第2の画像収集機器と車載メガネにおけるウィンドウとの実際位置関係に応じて、第2の実景画像と車載メガネのウィンドウとの第1の位置関係を特定することができる。第1の位置関係に基づいて、第2の実景画像を投射画像に変換することができる。
【0052】
一例として、P(eyebox)=[R1 T1] P(camera2)、ただし、P(eyebox)は投射画像を表し、P(camera2)は第2の実景画像を表す。第1の位置関係は、[R1 T1]で表されてよい。
【0053】
本開示の実施例の1つの選択可能な態様では、ナビゲーション画像を車載メガネに送信することは、
無線通信でナビゲーション画像を車載メガネに送信することを含む。
【0054】
ただし、無線通信は、wifi(Wireless Fidelity)であってもよいが、例えば、汎用シリアルバス(Universal Serial Bus,USB)インターフェース又は低電圧差分信号インターフェース(Low-Voltage Differential Signaling,LVDS)などの有線通信で、ナビゲーション画像の送信を行ってもよい。
【0055】
図2は、本開示の実施例が提供した別のナビゲーション方法のフロー模式図を示しており、
図2に示すように、この方法は、主に、以下のステップを含んでよい。
ステップS210:車載機器によって送信されたナビゲーション画像を受信し、ここで、ナビゲーション画像は、実景画像とナビゲーション情報とが融合されたものであり、投射画像は、実景画像から変換されたものであり、少なくとも1つの車載メガネのウィンドウにマッチングする。
ステップS220:ナビゲーション画像を表示する。
【0056】
ここで、実景画像は車両周囲環境の画像である。ナビゲーション情報は、実景画像と融合して、ナビゲーション画像を取得するために用いられる。ナビゲーション情報は、ナビゲーション画像に表示され、ユーザに対してナビゲーション又は提示するための情報であってよく、ナビゲーション情報は、高級運転補助システム(Advanced Driving Assistance System、ADAS)情報や、高精度地図情報などを含んでよい。
【0057】
1つの例として、ナビゲーション情報は、車両のステアリングを指示するためのステアリング矢印であってもよく、情報点(Point of Information、POI)における建物の情報(建物名称など)であってもよい。
【0058】
車載メガネは、MRメガネなどのスマートグラスを含むが、これに限られない。ユーザは、車両を運転する時に車載メガネをかけて、車載メガネを介してナビゲーションを実現してよい。
【0059】
本開示の実施例で提供したナビゲーションシステムでは、ユーザが多い場合の使用需要を満足するように、車両内に複数の車載メガネを配置してよい。
【0060】
ユーザが車載メガネをかけている時、ユーザの目の可視領域が車載メガネのウィンドウ(eyebox)に対応しているため、実景画像を変換して、車載メガネのウィンドウにマッチングする投射画像を取得し、この投射画像がユーザの目の可視領域にマッチングしており、この投射画像を基にナビゲーション情報と融合して、ARナビゲーションを行うことで、ARナビゲーション効果を保証でき、ユーザに拡張現実感を与えることで、ユーザの頭部の移動によるARナビゲーション効果への影響を回避することができる。
【0061】
実際の使用中に、ユーザの頭部位置が随時に変化する可能性があるため、ARナビゲーション効果を保証するように、調整周期を設定して、実景画像を周期的に変換してよい。1つの例として、調整周期が2秒間であってよい。
【0062】
本開示の実施例では、ナビゲーション画像を生成した後、ナビゲーション画像を車載メガネに送信し、車載メガネによってナビゲーション画像を表示して、ARナビゲーションを実現してよい。ARナビゲーションを車載メガネに投射することは、従来技術でARナビゲーションを車載機器のディスプレイ又はAR HUDに投射する時の欠陥を克服し、ユーザの使用体験を向上することができる。
【0063】
本開示の実施例が提供した方法では、車載機器は、実景画像とナビゲーション情報と取得し、実景画像を変換して少なくとも1つの車載メガネのウィンドウにマッチングする投射画像を取得し、投射画像とナビゲーション情報とを融合してナビゲーション画像を取得し、ナビゲーション画像を車載メガネに送信して、車載メガネがナビゲーション画像を表示する。本技術案では、車載メガネによりARナビゲーションを実現するとともに、ユーザの頭部位置が変化することによるARナビゲーションの効果への影響を回避し、ARナビゲーションの効果を保証し、ユーザの使用体験を保証することができる。
【0064】
図3に本開示の実施例が提供したナビゲーションシステムの構成模式図を示している。
【0065】
図3に示すように、Camera1は車載機器の第1の画像収集機器である。Camera2は車載メガネの第2の画像収集機器である。eyeboxはウィンドウである。MCUは車載機器のMCUである。AR creatorは拡張現実感ソフトウェアパッケージであり、その中にADAS(即ち、高級運転補助システム)、SD/HD MAP(即ち、道路ディレクトリ地図又は高精度地図)、ANP(Apollo Navigation Pilot)地図が含まれる。
【0066】
Camera1によって収集された第1の実景画像とCamera2によって収集された第2の実景画像とは、MCUに伝送してよく、MCUにおいてナビゲーション画像が生成された後、無線伝送の方式(例えばwifi)などを介して、ナビゲーション画像を車載メガネのPGU(即ち画像生成ユニット)に伝送し、PGUがナビゲーション画像を表示する。
【0067】
図1に示す方法と同一の原理に基づいて、
図4は、本開示の実施例が提供したナビゲーション装置の構成模式図を示しており、
図4に示すように、このナビゲーション装置40は、
実景画像とナビゲーション情報とを取得するためのデータ取得モジュール410と、
実景画像を変換して、少なくとも1つの車載メガネのウィンドウにマッチングする投射画像を取得するための画像変換モジュール420と、
投射画像とナビゲーション情報とを融合して、ナビゲーション画像を取得するための画像融合モジュール430と、
車載メガネがナビゲーション画像を表示するように、ナビゲーション画像を車載メガネに送信するためのナビゲーション画像送信モジュール440と、を含んでよい。
【0068】
本開示の実施例が提供した装置は、実景画像及びナビゲーション情報を取得し、実景画像を変換して少なくとも1つの車載メガネのウィンドウにマッチングする投射画像を取得し、投射画像とナビゲーション情報とを融合してナビゲーション画像を取得し、ナビゲーション画像を車載メガネに送信して、車載メガネがナビゲーション画像を表示する。本技術案では、車載メガネによりARナビゲーションを実現するとともに、ユーザの頭部位置が変化することによるARナビゲーションの効果への影響を回避し、ARナビゲーションの効果を保証し、ユーザの使用体験を保証することができる。
【0069】
好ましい態様として、実景画像が車載機器の第1の画像収集機器によって収集された第1の実景画像であれば、画像変換モジュールは、実景画像を変換して投射画像を取得する時に、具体的に、
車載メガネの第2の画像収集機器によって収集された第2の実景画像と車載メガネのウィンドウとの第1の位置関係を取得することと、
第1の実景画像と第2の実景画像との第2の位置関係を特定することと、
第1の位置関係及び第2の位置関係に基づいて第1の実景画像を変換して投射画像を取得することと、に用いられる。
【0070】
好ましい態様として、画像変換モジュールは、車載メガネの第2の画像収集機器によって収集された第2の実景画像と車載メガネのウィンドウとの第1の位置関係を取得する時に、具体的に、車載メガネにおける第2の画像収集機器の位置とウィンドウの位置とに基づいて、第1の位置関係を特定することに用いられる。
【0071】
好ましい態様として、画像変換モジュールは、第1の実景画像と第2の実景画像との第2の位置関係を特定する時に、具体的に、
第1の実景画像と第2の実景画像とに対して特徴点追跡を行い、特徴点追跡の第1の結果に基づいて第1の実景画像と第2の実景画像との第2の位置関係を特定することと、
車載メガネが指定位置にある時に収集された第3の実景画像と第1の実景画像とに対して特徴点追跡を行い、特徴点追跡の第2の結果に基づいて第1の実景画像と第3の実景画像との第3の位置関係を特定し、車載メガネが位置する現在位置と指定位置とに基づき、且つ第3の位置関係に基づいて、第1の実景画像と第2の実景画像との第2の位置関係を特定することと、のいずれか一方を含む。
【0072】
好ましい態様として、車載メガネが位置する現在位置は、車載メガネの測位システムによって取得される。
【0073】
好ましい態様として、実景画像が車載メガネの第2の画像収集機器によって収集された第2の実景画像であれば、画像変換モジュールは、実景画像を変換して投射画像を取得する時に、具体的に、
車載メガネの第2の画像収集機器によって収集された第2の実景画像と車載メガネのウィンドウとの第1の位置関係を取得することと、
第1の位置関係に基づいて第1の実景画像を変換して投射画像を取得することと、に用いられる。
【0074】
好ましい態様として、ナビゲーション画像送信モジュールは、ナビゲーション画像を車載メガネに送信する時に、具体的に、
無線通信でナビゲーション画像を車載メガネに送信することに用いられる。
【0075】
理解されるべきこととして、本開示の実施例におけるナビゲーション装置の上記各モジュールは、
図1に示す実施例におけるナビゲーション方法に対応するステップを実現する機能を有する。この機能は、ハードウェアで実現されてもよく、ハードウェアにより対応するソフトウェアを実行することで実現されてもよい。このハードウェア又はソフトウェアは、上記機能に対応する1つ又は複数のモジュールを含む。上記モジュールは、ソフトウェア及び/又はハードウェアであってよく、上記各モジュールは個別に実現されてもよく、複数のモジュールを集積することで実現されてもよい。上記ナビゲーション装置の各モジュールに対する機能説明は、具体的に
図1に示す実施例におけるナビゲーション方法に対応する説明を参照してよいので、ここでその説明を繰り返さない。
【0076】
図2に示す方法と同一の原理に基づいて、
図5は、本開示の実施例が提供したナビゲーション装置の構成模式図を示しており、
図5に示すように、このナビゲーション装置50は、
車載機器によって送信されたナビゲーション画像を受信するためのものであって、ナビゲーション画像は、実景画像とナビゲーション情報とが融合されたものであり、投射画像は、実景画像から変換されたものであり、少なくとも1つの車載メガネのウィンドウにマッチングするナビゲーション画像受信モジュール510と、
ナビゲーション画像を表示するナビゲーションモジュール520と、を含んでよい。
【0077】
本開示の実施例が提供した方法では、車載機器は、実景画像とナビゲーション情報とを取得し、実景画像を変換して少なくとも1つの車載メガネのウィンドウにマッチングする投射画像を取得し、投射画像とナビゲーション情報とを融合してナビゲーション画像を取得し、ナビゲーション画像を車載メガネに送信して、車載メガネがナビゲーション画像を表示する。本技術案では、車載メガネによりARナビゲーションを実現するとともに、ユーザの頭部位置が変化することによるARナビゲーションの効果への影響を回避し、ARナビゲーションの効果を保証し、ユーザの使用体験を保証することができる。
【0078】
理解されるべきこととして、本開示の実施例におけるナビゲーション装置の上記各モジュールは、
図2に示す実施例におけるナビゲーション方法に対応するステップを実現する機能を有する。この機能は、ハードウェアで実現されてもよく、ハードウェアで対応するソフトウェアを実行することで実現されてもよい。このハードウェア又はソフトウェアは、上記機能に対応する1つ又は複数のモジュールを含む。上記モジュールは、ソフトウェア及び/又はハードウェアであってよく、上記各モジュールは個別に実現されてもよく、複数のモジュールを集積することで実現されてもよい。上記ナビゲーション装置の各モジュールに対する機能説明は、具体的に
図2に示す実施例におけるナビゲーション方法に対応する説明を参照してよいので、ここでその説明を繰り返さない。
【0079】
本開示の技術案では、係られたユーザ個人情報の取得、記憶及び応用などは、いずれも関連法律や法規の規定に合致しており、公序良俗に反していない。
【0080】
本開示の実施例によれば、本開示は、電子機器、コンピュータ読取可能な記憶媒体及びコンピュータプログラムをさらに提供している。
【0081】
この電子機器は、少なくとも1つのプロセッサと、少なくとも1つのプロセッサと通信接続するメモリとを有する電子機器であって、メモリに、少なくとも1つのプロセッサによって実行され得るコマンドが記憶されており、コマンドが少なくとも1つのプロセッサによって実行されることで、少なくとも1つのプロセッサが本開示の実施例が提供したナビゲーション方法を実行することができる。
【0082】
この電子機器は、従来技術と比べて、実景画像及びナビゲーション情報を取得し、実景画像を変換して少なくとも1つの車載メガネのウィンドウにマッチングする投射画像を取得し、投射画像とナビゲーション情報とを融合してナビゲーション画像を取得し、ナビゲーション画像を車載メガネに送信して、車載メガネがナビゲーション画像を表示する。本技術案では、車載メガネによりARナビゲーションを実現するとともに、ユーザの頭部位置が変化することによるARナビゲーションの効果への影響を回避し、ARナビゲーションの効果を保証し、ユーザの使用体験を保証することができる。
【0083】
このコンピュータ読取可能な記憶媒体は、コンピュータに本開示の実施例が提供したナビゲーション方法を実行させるためのコンピュータコマンドを記憶している、非一時的なコンピュータ読取可能な記憶媒体。
【0084】
このコンピュータ読取可能な記憶媒体は、従来技術と比べて、実景画像及びナビゲーション情報を取得し、実景画像を変換して少なくとも1つの車載メガネのウィンドウにマッチングする投射画像を取得し、投射画像とナビゲーション情報とを融合してナビゲーション画像を取得し、ナビゲーション画像を車載メガネに送信して、車載メガネがナビゲーション画像を表示する。本技術案では、車載メガネによりARナビゲーションを実現するとともに、ユーザの頭部位置が変化することによるARナビゲーションの効果への影響を回避し、ARナビゲーションの効果を保証し、ユーザの使用体験を保証することができる。
【0085】
このコンピュータプログラムは、プロセッサにより実行された場合に、本開示の実施例が提供したナビゲーション方法を実現する。
【0086】
このコンピュータプログラムは、従来技術と比べて、実景画像及びナビゲーション情報を取得し、実景画像を変換して少なくとも1つの車載メガネのウィンドウにマッチングする投射画像を取得し、投射画像とナビゲーション情報とを融合してナビゲーション画像を取得し、ナビゲーション画像を車載メガネに送信して、車載メガネがナビゲーション画像を表示する。本技術案では、車載メガネによりARナビゲーションを実現するとともに、ユーザの頭部位置が変化することによるARナビゲーションの効果への影響を回避し、ARナビゲーションの効果を保証し、ユーザの使用体験を保証することができる。
【0087】
図6は、本開示の実施例を実施することが可能な例示的電子機器2000の模式的ブロック図を示している。電子機器は、様々な形式のデジタルコンピュータを示すことを目的とし、例えば、ラップトップコンピュータ、デスクトップコンピュータ、ワークステーション、パーソナルデジタルアシスタント、サーバ、ブレードサーバ、大型コンピュータ及び他の適切なコンピュータである。電子機器は、さらに様々な形式の移動装置を示してもよく、例えば、パーソナルデジタルアシスタント、携帯電話、スマートフォン、ウェアラブル機器及び他の類似の演算装置である。本明細書に示された部材、それらの接続及び関係、並びにそれらの機能は、例示に過ぎず、本明細書に記載された及び/又は要求された本開示の実現を限定しない。
【0088】
図6に示すように、機器2000は、計算手段2010を含み、計算手段2010は、リードオンリーメモリ(ROM)2020に記憶されたコンピュータプログラム又は記憶手段2080からランダムアクセスメモリ(RAM)2030にロードされたコンピュータプログラムに基づいて、様々な適切な動作及び処理を実行してもよい。RAM2030には、さらに機器2000の操作に必要な様々なプログラム及びデータを記憶してもよい。計算手段2010、ROM2020、及びRAM2030は、バス2040を介して相互に接続される。入出力(I/O)インターフェース2050も、バス2040に接続される。
【0089】
機器2000における複数の部品は、I/Oインターフェース2050に接続され、例えばキーボード、マウス等の入力手段2060と、例えば様々な種類のディスプレイ、スピーカ等の出力手段2070と、例えば磁気ディスク、光ディスク等の記憶手段2080と、例えばネットワークカード、モデム、無線通信トランシーバ等の通信手段2090とを含む。通信手段2090は、機器2000がインターネット等のコンピュータネットワーク及び/又は各種の電気ネットワークを介して他の機器と情報・データをやり取りすることを可能にする。
【0090】
計算手段2010は、処理及び演算能力を有する各種の汎用及び/又は専用の処理モジュールであってもよい。計算手段2010の幾つかの例として、中央処理ユニット(CPU)、GPU(Graphics Processing Unit)、各種専用の人工知能(AI)演算チップ、各種機械学習モデルアルゴリズムをランニングする演算ユニット、DSP(Digital Signal Processor)、並びに任意の適切なプロセッサ、コントローラ、マイクロコントローラ等が挙げられるが、これらに限定されない。計算手段2010は、本開示の実施例で提供したナビゲーション方法を実行する。例えば、幾つかの実施例において、本開示の実施例で提供したナビゲーション方法は、例えば記憶手段2080のような機械可読媒体に有形的に含まれるコンピュータソフトウェアプログラムとして実現されてもよい。いくつかの実施例において、コンピュータプログラムの一部又は全部は、ROM2020及び/又は通信手段2090を介して機器2000にロード及び/又はインストールされてもよい。コンピュータプログラムがRAM2030にロードされて計算手段2010により実行された場合、本開示の実施例で提供したナビゲーション方法の1つ又は複数のステップを実行してもよい。代替的に、他の実施例において、計算手段2010は、他の任意の適切な方式(例えば、ファームウェアを介する)により本開示の実施例で提供したナビゲーション方法を実行するように構成されてもよい。
【0091】
本明細書で以上に説明されたシステム及び技術の様々な実施形態は、デジタル電子回路システム、集積回路システム、フィールドプログラマブルゲートアレイ(FPGA)、特定用途向け集積回路(ASIC)、特定用途向け標準製品(ASSP)、システムオンチップ(SOC)、コンプレックスプログラムマブルロジックデバイス (CPLD)、コンピュータハードウェア、ファームウェア、ソフトウェア、及び/又はそれらの組み合わせにおいて実現されてもよい。これらの様々な実施形態は、1つ又は複数のコンピュータプログラムにおいて実施され、該1つ又は複数のコンピュータプログラムは、少なくとも1つのプログラムマブルプロセッサを含むプログラムマブルシステムで実行され及び/又は解釈されることが可能であり、該プログラムマブルプロセッサは、専用又は汎用のプログラムマブルプロセッサであってもよく、記憶システム、少なくとも1つの入力装置、及び少なくとも1つの出力装置からデータ及び命令を受信し、かつデータ及び命令を該記憶システム、該少なくとも1つの入力装置、及び該少なくとも1つの出力装置に伝送することができることを含んでもよい。
【0092】
本開示の方法を実施するためのプログラムコードは、1つ又は複数のプログラミング言語の任意の組み合わせで作成されてもよい。これらのプログラムコードは、汎用コンピュータ、専用コンピュータ又は他のプログラマブルデータ処理装置のプロセッサ又はコントローラに提供されてもよく、それによって、プログラムコードがプロセッサ又はコントローラにより実行される時に、フローチャート及び/又はブロック図に規定された機能・操作が実施される。プログラムコードは、機器に完全に実行されてもよく、部分的に機器で実行されてもよく、独立したソフトウェアパッケージとして部分的に機器で実行され、かつ部分的に遠隔機器で実行されるか又は完全に遠隔機器又はサーバで実行されてもよい。
【0093】
本開示のコンテキストにおいて、機械可読媒体は、有形の媒体であってもよく、命令実行システム、装置又は電子機器に使用され、又は命令実行システム、装置又は電子機器と組み合わせて使用されるプログラムを含んで又は記憶してもよい。機械可読媒体は、機械可読信号媒体又は機械可読記憶媒体であってもよい。機械可読媒体は、電子の、磁気的、光学的、電磁的、赤外線の、又は半導体システム、装置又は電子機器、又は上記内容の任意の適切な組み合わせを含んでもよいが、それらに限定されない。機械可読記憶媒体のより具体的な例としては、1つ以上の線による電気的接続、携帯式コンピュータディスク、ハードディスク、ランダムアクセスメモリ(RAM)、読み出し専用メモリ(ROM)、消去可能なプログラマブルリードオンリーメモリ(EPROM又はフラッシュメモリ)、光ファイバ、コンパクトディスクリードオンリーメモリ(CD-ROM)、光学記憶装置、磁気記憶装置、又は上記内容の任意の適切な組み合わせを含む。
【0094】
ユーザとの対話を提供するために、コンピュータにここで説明されたシステム及び技術を実施させてもよく、該コンピュータは、ユーザに情報を表示するための表示装置(例えば、CRT(陰極線管)又はLCD(液晶ディスプレイ)モニタ)と、キーボード及びポインティングデバイス(例えば、マウス又はトラックボール)とを備え、ユーザは、該キーボード及び該ポインティングデバイスを介して入力をコンピュータに提供することができる。他の種類の装置は、さらにユーザとの対話を提供してもよく、例えば、ユーザに提供されたフィードバックは、いかなる形式のセンシングフィードバック(例えば、視覚フィードバック、聴覚フィードバック、又は触覚フィードバック)であってもよく、かついかなる形式(音声入力、語音入力又は、触覚入力を含む)でユーザからの入力を受信してもよい。
【0095】
ここで説明されたシステム及び技術は、バックグラウンド部品を含むコンピューティングシステム(例えば、データサーバとする)、又はミドルウェア部品を含むコンピューティングシステム(例えば、アプリケーションサーバ)、又はフロントエンド部品を含むコンピューティングシステム(例えば、グラフィカルユーザインタフェース又はウェブブラウザを有するユーザコンピュータ、ユーザが該グラフィカルユーザインタフェース又は該ネットワークブラウザを介してここで説明されたシステム及び技術の実施形態と対話することができる)、又はこのようなバックグラウンド部品、ミドルウェア部品、又はフロントエンド部品のいずれかの組み合わせを含むコンピューティングシステムに実施されることが可能である。任意の形式又は媒体のデジタルデータ通信(例えば、通信ネットワーク)によりシステムの部品を互いに接続することができる。通信ネットワークの例としては、ローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)及びインターネットを例示的に含む。
【0096】
コンピュータシステムは、クライアント及びサーバを含んでもよい。クライアントとサーバ同士は、一般的に離れており、通常、通信ネットワークを介して対話する。クライアントとサーバとの関係は、該当するコンピュータ上でランニングし、クライアント-サーバの関係を有するコンピュータプログラムによって生成される。サーバは、クラウドサーバであってもよく、分散型システムのサーバであってもよく、又はブロックチェーンを組合せたサーバであってもよい。
【0097】
理解されるべきこととして、以上に示された様々な形式のフローを使用してもよく、操作を改めてソーティングしたり、追加したり又は削除してもよい。例えば、本開示に記載の各操作は、並列に実行されたり、順次に実行されたり、又は異なる順序で実行されてもよく、本開示に開示された技術案が所望する結果を実現することができれば、本明細書はここで限定されない。
【0098】
上記具体的な実施形態は、本開示の保護範囲を限定するものではない。当業者であれば、設計要件及び他の要因に応じて、様々な修正、組み合わせ、サブコンビネーション及び代替を行うことが可能であると理解すべきである。本開示の精神と原則内で行われる任意の修正、均等置換及び改良などは、いずれも本開示の保護範囲内に含まれるべきである。
【0099】
以上説明したナビゲーション方法、ナビゲーション装置、電子機器、非一時的なコンピュータ読取可能な記憶媒体及びコンピュータプログラムは、以下のように表現することができる。
【0100】
第1態様のナビゲーション方法は、
実景画像とナビゲーション情報とを取得することと、
前記実景画像を変換して、少なくとも1つの車載メガネのウィンドウにマッチングする投射画像を取得することと、
前記投射画像と前記ナビゲーション情報とを融合して、ナビゲーション画像を取得することと、
前記車載メガネが前記ナビゲーション画像を表示するように、前記ナビゲーション画像を前記車載メガネに送信することと、を含む。
【0101】
第2態様のナビゲーション方法は、
第1態様のナビゲーション方法において、
前記実景画像が車載機器の第1の画像収集機器によって収集された第1の実景画像であれば、前記実景画像を変換して投射画像を取得することは、
前記車載メガネの第2の画像収集機器によって収集された第2の実景画像と前記車載メガネのウィンドウとの第1の位置関係を取得することと、
前記第1の実景画像と前記第2の実景画像との第2の位置関係を特定することと、
前記第1の位置関係及び前記第2の位置関係に基づいて前記第1の実景画像を変換して 投射画像を取得することと、を含む。
【0102】
第3態様のナビゲーション方法は、
第2態様のナビゲーション方法において、
前記車載メガネの第2の画像収集機器によって収集された第2の実景画像と前記車載メガネのウィンドウとの第1の位置関係を取得することは、
前記車載メガネにおける前記第2の画像収集機器の位置と前記ウィンドウの位置とに基づいて、第1の位置関係を特定することを含む。
【0103】
第4態様のナビゲーション方法は、
第2態様または第3態様のナビゲーション方法において、
前記第1の実景画像と前記第2の実景画像との第2の位置関係を特定することは、
前記第1の実景画像と前記第2の実景画像とに対して特徴点追跡を行い、特徴点追跡の第1の結果に基づいて前記第1の実景画像と前記第2の実景画像との第2の位置関係を特定することと、
前記車載メガネが指定位置にある時に収集された第3の実景画像と前記第1の実景画像とに対して特徴点追跡を行って、特徴点追跡の第2の結果に基づいて前記第1の実景画像と前記第3の実景画像との第3の位置関係を特定し、前記車載メガネが位置する現在位置と前記指定位置とに基づき、且つ前記第3の位置関係に基づいて、前記第1の実景画像と前記第2の実景画像との第2の位置関係を特定することと、のいずれか一方を含む。
【0104】
第5態様のナビゲーション方法は、
第4態様のナビゲーション方法において、
前記車載メガネが位置する現在位置は、前記車載メガネの測位システムによって取得される。
【0105】
第6態様のナビゲーション方法は、
第1態様から第5態様のいずれか1つのナビゲーション方法において、
前記実景画像が前記車載メガネの第2の画像収集機器によって収集された第2の実景画像であれば、前記実景画像を変換して投射画像を取得することは、
前記車載メガネの第2の画像収集機器によって収集された第2の実景画像と前記車載メガネのウィンドウとの第1の位置関係を取得することと、
前記第1の位置関係に基づいて前記第1の実景画像を変換して投射画像を取得することと、を含む。
【0106】
第7態様のナビゲーション方法は、
第4態様のナビゲーション方法において、
前記ナビゲーション画像を前記車載メガネに送信することは、
無線通信で前記ナビゲーション画像を前記車載メガネに送信することを含む。
【0107】
第8態様のナビゲーション方法は、
車載機器によって送信されたナビゲーション画像を受信することであって、前記ナビゲーション画像は、投射画像とナビゲーション情報とが融合されたものであり、前記投射画像は、実景画像から変換されたものであり、前記投射画像と少なくとも1つの車載メガネのウィンドウとがマッチングすることと、
前記ナビゲーション画像を表示することと、を含む。
【0108】
第9態様のナビゲーション装置は、
実景画像とナビゲーション情報とを取得するためのデータ取得モジュールと、
前記実景画像を変換して、少なくとも1つの車載メガネのウィンドウにマッチングする投射画像を取得するための画像変換モジュールと、
前記投射画像と前記ナビゲーション情報とを融合して、ナビゲーション画像を取得するための画像融合モジュールと、
前記車載メガネが前記ナビゲーション画像を表示するように、前記ナビゲーション画像を前記車載メガネに送信するためのナビゲーション画像送信モジュールと、を含む。
【0109】
第10態様のナビゲーション装置は、
車載機器によって送信されたナビゲーション画像を受信するためのものであって、前記ナビゲーション画像は、投射画像とナビゲーション情報とが融合されたものであり、前記投射画像は、実景画像から変換されたものであり、前記投射画像と少なくとも1つの車載メガネのウィンドウとがマッチングするナビゲーション画像受信モジュールと、
前記ナビゲーション画像を表示するためのナビゲーションモジュールと、を含む。
【0110】
第11態様の電子機器は、
少なくとも1つのプロセッサと、
前記少なくとも1つのプロセッサと通信接続するメモリとを有する電子機器であって、
前記メモリには、前記少なくとも1つのプロセッサによって実行され得るコマンドが記憶されており、前記コマンドが前記少なくとも1つのプロセッサによって実行されることで、前記少なくとも1つのプロセッサが第1態様から第8態様のいずれか1つの方法を実行することができる。
【0111】
第12態様の非一時的なコンピュータ読取可能な記憶媒体は、
コンピュータに第1態様から第8態様のいずれか1つの方法を実行させるためのコンピュータコマンドを記憶している。
【0112】
第13態様のコンピュータプログラムは、
プロセッサにより実行された場合に、第1態様から第8態様のいずれか1つの方法を実現する。